JP2017086529A - Impression estimation device and program - Google Patents

Impression estimation device and program Download PDF

Info

Publication number
JP2017086529A
JP2017086529A JP2015221019A JP2015221019A JP2017086529A JP 2017086529 A JP2017086529 A JP 2017086529A JP 2015221019 A JP2015221019 A JP 2015221019A JP 2015221019 A JP2015221019 A JP 2015221019A JP 2017086529 A JP2017086529 A JP 2017086529A
Authority
JP
Japan
Prior art keywords
image
feature
feature amount
impression
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015221019A
Other languages
Japanese (ja)
Other versions
JP6509712B2 (en
Inventor
惇 米家
Makoto Yoneya
惇 米家
茂人 古川
Shigehito Furukawa
茂人 古川
牧夫 柏野
Makio Kayano
牧夫 柏野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015221019A priority Critical patent/JP6509712B2/en
Publication of JP2017086529A publication Critical patent/JP2017086529A/en
Application granted granted Critical
Publication of JP6509712B2 publication Critical patent/JP6509712B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To estimate an impression of a visually sensible image.SOLUTION: This device extracts a first feature amount based on dynamic variation in the eyes of an animal steadily gazing a first image, and estimates at least the animal's impression of the first image on the basis of the first feature amount.SELECTED DRAWING: Figure 1

Description

本発明は、視覚によって知覚可能な像に対する印象を推定する技術に関する。   The present invention relates to a technique for estimating an impression on an image that can be perceived visually.

画像に対する好みに応じて瞳孔径が変化することが知られている(例えば、非特許文献1等参照)。注視点解析に基づいて画像評価を行う技術がある(例えば、非特許文献2等参照)。   It is known that the pupil diameter changes according to the preference for an image (see, for example, Non-Patent Document 1). There is a technique for performing image evaluation based on gaze point analysis (see, for example, Non-Patent Document 2).

中森志穂,水谷奈那美,山中敏正,「顔画像に対する好みは,瞳孔径にどう反映されるのか」,日本感性工学会論文誌,Vol. 10 (2010) No. 3,P 321-326.Shiho Nakamori, Nami Mizutani, Toshimasa Yamanaka, “How is the preference for facial images reflected in pupil diameter”, Journal of Kansei Engineering Society, Vol. 10 (2010) No. 3, P 321-326. Miyata, Kimiyoshi, et al. "Eye movement analysis and its application to evaluation of image quality." Color and Imaging Conference. Vol. 1997. No. 1. Society for Imaging Science and Technology, 1997.Miyata, Kimiyoshi, et al. "Eye movement analysis and its application to evaluation of image quality." Color and Imaging Conference. Vol. 1997. No. 1. Society for Imaging Science and Technology, 1997.

しかしながら、視覚によって知覚可能な像に対する印象を推定する技術は知られていない。例えば、上述のように画像に対する好みに応じて瞳孔径が変化することは知られているものの、瞳孔径に基づいて画像に対する好みなどの印象を推定する技術は知られていない。また、注視点解析に基づいて画質の評価を行う技術は知られているものの、画像に対する好みのような印象を推定するものではない。   However, a technique for estimating an impression on an image that can be perceived visually is not known. For example, although it is known that the pupil diameter changes according to the preference for the image as described above, a technique for estimating the impression such as the preference for the image based on the pupil diameter is not known. Further, although a technique for evaluating image quality based on gaze point analysis is known, it does not estimate an impression like a preference for an image.

本発明の課題は、視覚によって知覚可能な像に対する印象を推定することである。   An object of the present invention is to estimate an impression on an image that can be perceived visually.

第1の像を注視する動物の目の動的な変化に基づく第1特徴量を抽出し、第1特徴量に基づいて少なくとも動物の第1の像に対する印象を推定する。   A first feature amount based on a dynamic change in the eye of the animal that watches the first image is extracted, and an impression of at least the first image of the animal is estimated based on the first feature amount.

これにより、視覚によって知覚可能な像に対する印象を推定できる。   Thereby, the impression with respect to the image perceivable visually can be estimated.

図1は、実施形態の印象推定装置の構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of an impression estimation apparatus according to an embodiment. 図2は、実施形態の印象推定装置の動作を示すフローチャートである。FIG. 2 is a flowchart illustrating the operation of the impression estimation apparatus according to the embodiment. 図3Aおよび図3Bは、印象の評価対象となる画像の呈示方法を例示した図である。FIG. 3A and FIG. 3B are diagrams illustrating a method for presenting an image to be an impression evaluation target. 図4は、マイクロサッカードを例示した図である。FIG. 4 is a diagram illustrating a microsaccade. 図5Aは、マイクロサッカードの特徴量を説明するための図である。図5Bは、瞳孔径の特徴量を説明するための図である。FIG. 5A is a diagram for explaining the feature amount of the microsaccade. FIG. 5B is a diagram for explaining the feature amount of the pupil diameter. 図6Aは、視野角を例示した図である。図6Bは、瞳孔径を例示した図である。FIG. 6A is a diagram illustrating a viewing angle. FIG. 6B is a diagram illustrating the pupil diameter. 図7は、比較特徴量列を例示した図である。FIG. 7 is a diagram illustrating an example of the comparison feature amount sequence. 図8Aおよび図8Bは、図3Aおよび図3Bのように呈示された画像に対する印象と特徴量との関係を例示した図である。FIG. 8A and FIG. 8B are diagrams illustrating the relationship between impressions and feature amounts for images presented as in FIG. 3A and FIG. 3B. 図9は、視点の動きを例示した図である。FIG. 9 is a diagram illustrating the movement of the viewpoint. 図10Aおよび図10Bは、印象の評価対象となる画像の呈示方法を例示した図である。FIG. 10A and FIG. 10B are diagrams illustrating a method for presenting an image to be an impression evaluation target. 図11Aおよび図11Bは、印象の評価対象となる画像の呈示方法を例示した図である。FIG. 11A and FIG. 11B are diagrams illustrating a method for presenting an image to be an impression evaluation target. 図12Aおよび図12Bは、印象の評価対象となる画像の呈示方法を例示した図である。FIG. 12A and FIG. 12B are diagrams illustrating a method of presenting an image to be an impression evaluation target.

以下、本発明の実施形態を説明する。以下の説明および図面では同じ機能を持つ構成部や同じ処理を行うステップには同一の符号を付し、説明が重複する場合にはこれを省略する。   Embodiments of the present invention will be described below. In the following description and drawings, components having the same function and steps for performing the same process are denoted by the same reference numerals, and the description thereof will be omitted when the description overlaps.

[概要]
まず概要を説明する。実施形態では、「第1の像」を注視する動物の目の動的な変化(目の動きおよび瞳孔の大きさの経時変化の少なくとも一方)に基づく「第1特徴量」を抽出し、この「第1特徴量」に基づいて、少なくとも「動物」の「第1の像」に対する印象(印象の度合い)を推定する。「印象」の例は、好んでいるか否かに関するものであり、印象が良いとは好んでいることを、印象が悪いとは好んでいないことを意味する。ただし、これは本発明を限定するものではなく、面白いか否かに関するものや楽しいか否かに関するものなど、その他の「印象」を推定してもよい。また好んでいるか否かのような2値分類に限らず、印象に関する複数クラス(好き嫌いの度合いに対応するクラス)のうち、どのクラスに属するかを推定してもよい。
[Overview]
First, an outline will be described. In the embodiment, a “first feature amount” based on a dynamic change (at least one of an eye movement and a pupil size change over time) of an eye of an animal gazing at the “first image” is extracted, Based on the “first feature amount”, an impression (degree of impression) of at least “animal” with respect to the “first image” is estimated. The example of “impression” relates to whether or not it likes, and means that “good” means that it is good, while “bad” does not like it. However, this does not limit the present invention, and other “impressions” such as those relating to whether or not they are interesting or whether or not they are fun may be estimated. In addition to the binary classification such as whether or not the user likes, it may be estimated which class belongs to a plurality of classes (classes corresponding to the degree of likes and dislikes) related to impressions.

好ましくは、「第1の像」を注視する「動物」の目の動的な変化に基づく「第1特徴量」と、「第1の像」を注視しない当該「動物」の目の動的な変化に基づく「第2特徴量」とを抽出し、「第1特徴量」と「第2特徴量」とに基づいて、少なくとも当該「動物」の「第1の像」に対する印象を推定する。「第1の像」を注視するときの「第1特徴量」と「第1の像」を注視しないときの「第2特徴量」とを用いることにより、「第1の像」に対する相対的な印象を推定できる。「目の動的な変化」とは、目の動きおよび瞳孔の大きさの経時変化の少なくとも一方の変化を意味する。「目の動き」とは、目の位置の経時変化を意味し、例えば、眼球の動き(眼球の位置の経時変化)および目蓋の動き(目蓋の位置の経時変化)の少なくとも一方を意味する。   Preferably, the “first feature amount” based on the dynamic change of the eyes of the “animal” watching the “first image” and the dynamics of the eyes of the “animal” not watching the “first image” The “second feature amount” based on the change is extracted, and at least an impression of the “animal” with respect to the “first image” is estimated based on the “first feature amount” and the “second feature amount”. . By using the “first feature amount” when gazing at the “first image” and the “second feature amount” when not gazing at the “first image”, the relative to the “first image” Can be estimated. "Eye dynamic change" means a change in at least one of eye movement and pupil size over time. “Eye movement” means an eye position change over time, for example, at least one of eyeball movement (eyeball position change over time) and eyelid movement (eyelid position change over time). To do.

「第2特徴量」は、「第1の像」と異なる「第2の像」を注視する「動物」の目の動的な変化に基づく特徴量であってもよいし、特定の注視対象を設定しない状況での「動物」の目の動的な変化に基づく特徴量であってもよい。前者の場合、並べられた「第1の像」と「第2の像」とが同時に呈示されてもよいし、「第1の像」の呈示の後に「第2の像」が呈示されてもよいし、「第2の像」の呈示の後に「第1の像」が呈示されてもよい。後者の場合、「第1の像」がそれ以外の任意の背景とともに呈示されてもよいし、「第1の像」の呈示の後に「第1の像」が非呈示とされてもよいし(例えば、任意の背景のみを呈示)、「第1の像」が非呈示とされた後に「第1の像」が呈示されてもよい。前者の場合、さらに「第2の像」に対する印象が推定されてもよいし、「第2の像」に対する「第1の像」の相対的な印象が推定されてもよいし、「第1の像」に対する「第2の像」の相対的な印象が推定されてもよい。「第1の像」および「第2の像」は、視覚によって知覚可能な像であり、平面に表れる像であってもよいし、立体に表れる像であってもよい。「第1の像」および「第2の像」の例は、静止画や動画などの画像(二次元画像または立体画像)、絵画、イラスト、文字、彫刻などの美術品、時計などの実用品、人(ヒト)や犬などの動物、食物などの自然物である。「第1の像」と「第2の像」とは同じ種別の像であってもよいし、互いに異なる種別の像であってもよい。例えば、「第1の像」と「第2の像」とが共に画像であってもよいし、「第1の像」が目の前に実際に存在するもの(人間など)であり、「第2の像」がデータとして保存可能なもの(画像など)であってもよい。「動物」の例は哺乳類であり、例えば、人間(ヒト)などである。   The “second feature amount” may be a feature amount based on a dynamic change in the eyes of an “animal” that watches a “second image” that is different from the “first image”, or may be a specific gaze target. It may be a feature amount based on a dynamic change of the eyes of the “animal” in a situation where no is set. In the former case, the arranged “first image” and “second image” may be presented at the same time, or after the presentation of the “first image”, the “second image” is presented. Alternatively, the “first image” may be presented after the presentation of the “second image”. In the latter case, the “first image” may be presented with any other background, or the “first image” may not be presented after the “first image” is presented. (For example, only an arbitrary background is presented) The “first image” may be presented after the “first image” is not presented. In the former case, the impression of the “second image” may be estimated, the relative impression of the “first image” with respect to the “second image” may be estimated, or the “first image” may be estimated. The relative impression of the “second image” relative to the “image of” may be estimated. The “first image” and the “second image” are images that can be perceived visually, and may be an image appearing on a plane or an image appearing in a solid. Examples of “first image” and “second image” are images such as still images and moving images (two-dimensional images or stereoscopic images), paintings, illustrations, characters, sculptures, and other practical items such as watches. , Natural objects such as humans, dogs and other animals, and food. The “first image” and the “second image” may be the same type of image, or may be different types of images. For example, both the “first image” and the “second image” may be images, or the “first image” actually exists in front of the eyes (such as a human being) The “second image” may be an image (such as an image) that can be stored as data. An example of “animal” is a mammal, such as a human (human).

「第1特徴量」および「第2特徴量」は、「動物」の目の動的な変化に基づくものであればどのようなものでもよい。例えば、眼球の動き(眼球の位置の経時変化)および瞳孔の大きさの経時変化の少なくとも一方に基づく特徴量を「第1特徴量」および「第2特徴量」とできる。このような特徴量の例は、眼球の動きに基づく「マイクロサッカードの特徴」「ラージサッカードの特徴」「注視の特徴」、「瞬目の特徴」、瞳孔の大きさの経時変化に基づく「縮瞳の特徴」「散瞳の特徴」などである。「注視の特徴」の例は、動物による像の「注視時間」、「注視回数」、および「注視領域」の何れかに対応する特徴である。「第1特徴量」および「第2特徴量」は、それぞれ単数であってもよいし、複数であってもよい。   The “first feature amount” and the “second feature amount” may be any as long as they are based on dynamic changes in the eyes of the “animal”. For example, a feature quantity based on at least one of eyeball movement (change in the position of the eyeball over time) and pupil size over time can be referred to as a “first feature quantity” and a “second feature quantity”. Examples of such feature values are based on “microsaccade characteristics”, “large saccade characteristics”, “gaze characteristics”, “blink characteristics”, and changes in pupil size over time based on eye movements. These include “miosis features” and “mydriatic features”. An example of “gaze feature” is a feature corresponding to any of “gazing time”, “number of gazes”, and “gaze area” of an image by an animal. Each of the “first feature amount” and the “second feature amount” may be singular or plural.

例えば「第1特徴量」の何れかが、「第1の像」を注視する「動物」の眼球の動きに表れるマイクロサッカードの特徴に対応し、「第2特徴量」の何れかが、「第1の像」と並んで配置された「第2の像」を注視する「動物」の眼球の動きに表れるマイクロサッカードの特徴に対応し、「マイクロサッカードの特徴」が、「第1の像」および「第2の像」を通る直線の法線成分の眼球の動きに表れる特徴を含んでもよい。これにより、「第1の像」と「第2の像」との間での視線移動の影響を受けにくい方向成分の「マイクロサッカードの特徴」を利用できる。「第1の像および第2の像を通る直線」の例は、「第1の像」の重心と「第2の像」の重心とを通る直線である。   For example, one of the “first feature amount” corresponds to the feature of the microsaccade that appears in the movement of the eyeball of the “animal” watching the “first image”, and one of the “second feature amount” is Corresponding to the microsaccade feature that appears in the movement of the eyeball of the “animal” watching the “second image” arranged side by side with the “first image”, the “microsaccade feature” It may include a feature that appears in the movement of the eyeball of a normal component of a straight line that passes through the “first image” and “second image”. This makes it possible to use the “microsaccade feature” of the direction component that is not easily affected by the movement of the line of sight between the “first image” and the “second image”. An example of “a straight line passing through the first image and the second image” is a straight line passing through the centroid of the “first image” and the centroid of the “second image”.

「動物」に「第1の像」を呈示する「第1時間区間」と、「動物」に「第1の像」を呈示しない「第2時間区間」とが、交互に複数回繰り返され、「第1時間区間」における「動物」の目の動的な変化に基づく特徴量を「第1特徴量」の何れかとし、「第2時間区間」における「動物」の目の動的な変化に基づく特徴量を「第2特徴量」の何れかとしてもよい。これにより、時間経過に基づく「第1特徴量」および「第2特徴量」に対する外乱の影響の度合いを平坦化し、印象の推定精度を向上できる。   The “first time interval” presenting the “first image” to the “animal” and the “second time interval” not presenting the “first image” to the “animal” are alternately repeated a plurality of times. The feature amount based on the dynamic change of the “animal” eye in the “first time interval” is any one of the “first feature amount”, and the dynamic change of the “animal” eye in the “second time interval” The feature amount based on the above may be any of “second feature amount”. As a result, the degree of influence of disturbance on the “first feature value” and the “second feature value” based on the passage of time can be flattened, and the impression estimation accuracy can be improved.

「比較特徴量列」を含む情報に基づいて「第1の像」および「第2の像」の少なくとも一方に対する印象が推定されてもよい。「比較特徴量列」とは、複数(複数種類)の「第1特徴量」を含む「第1特徴量列」の各要素と、複数(複数種類)の「第2特徴量」を含む「第2特徴量列」の各要素と、の「比較結果を表す値」を各要素とする列に基づく特徴量列である。このような「比較特徴量列」は、外乱(像に対する印象以外の要因)が「第1特徴量列」や「第2特徴量列」に与えた影響を相殺または抑制したものとなる。そのため、「比較特徴量列」を用いることで印象の推定精度を向上できる。また「比較特徴量列」の要素は「第1特徴量列」の各要素と「第2特徴量列」の各要素との比較結果に基づくため、特徴量と印象との関係が単純な線形関係にない場合でも、容易に印象を推定できる。さらに「比較特徴量列」を用いて印象を推定する場合の精度は、一組の「第1特徴量」と「第2特徴量」とを比較して印象を推定する場合の精度よりも高い。「比較特徴量列」は複数の「第1特徴量」と「第2特徴量」との比較結果に基づくため、「第1特徴量」や「第2特徴量」への外乱(像に対する印象以外の要因)が推定結果に与える影響を抑制できるからである。さらに「比較特徴量列」を用いることにより、特徴量と印象との関係が単純な線形関係にない場合でも、印象を推定することができる。   An impression for at least one of the “first image” and the “second image” may be estimated based on the information including the “comparison feature amount sequence”. The “comparison feature quantity sequence” includes each element of the “first feature quantity sequence” including a plurality (a plurality of types) of “first feature quantities” and a plurality (a plurality of types) of “second feature quantities”. This is a feature value sequence based on each element of the “second feature value sequence” and a “value representing a comparison result”. Such a “comparison feature amount sequence” is obtained by canceling or suppressing the influence of disturbance (factors other than the impression on the image) on the “first feature amount sequence” and the “second feature amount sequence”. Therefore, the accuracy of impression estimation can be improved by using the “comparison feature amount sequence”. In addition, since the elements of the “comparison feature quantity sequence” are based on the comparison results between the elements of the “first feature quantity sequence” and the elements of the “second feature quantity sequence”, the relationship between the feature quantity and the impression is a simple linear Even if it is not related, the impression can be estimated easily. Furthermore, the accuracy when the impression is estimated using the “comparison feature value sequence” is higher than the accuracy when the impression is estimated by comparing a pair of “first feature value” and “second feature value”. . Since the “comparison feature quantity sequence” is based on a comparison result between a plurality of “first feature quantity” and “second feature quantity”, disturbances to the “first feature quantity” and “second feature quantity” (impressions on the image) This is because the influence of other factors) on the estimation result can be suppressed. Furthermore, by using the “comparison feature quantity sequence”, the impression can be estimated even when the relation between the feature quantity and the impression is not a simple linear relationship.

「第1特徴量列」の要素のすべてが「第1特徴量」であってもよいし、「第1特徴量列」の一部の要素が「第1特徴量」であってもよい。同様に「第2特徴量列」の要素のすべてが「第2特徴量」であってもよいし、「第2特徴量列」の一部の要素が「第2特徴量」であってもよい。「第1特徴量列」と「第2特徴量列」との要素数は等しい。「比較結果を表す値」の例は、「第1特徴量列」の各要素と「第2特徴量列」の各要素との大小関係を表す値である。例えば、「第1特徴量列」の要素が「第2特徴量列」の要素よりも大きい場合にそれらの「比較結果を表す値」を「第1値」とし、「第1特徴量列」の要素が「第2特徴量列」の要素よりも小さい場合にそれらの「比較結果を表す値」を「第2値」とする(基準1)。あるいは「第1特徴量列」の要素が「第2特徴量列」の要素よりも小さい場合にそれらの「比較結果を表す値」を「第1値」とし、「第1特徴量列」の要素が「第2特徴量列」の要素よりも大きい場合にそれらの「比較結果を表す値」を「第2値」としてもよい(基準2)。「第1特徴量列」の要素と「第2特徴量列」の要素とが等しい場合には、「比較結果を表す値」を「第1値」としてもよいし、「第2値」としてもよいし、その他の値としてもよい。ただし「第2値」は「第1値」と異なる。「第1値」>「第2値」であってもよいし、「第2値」>「第1値」であってもよい。例えば「第1値」が1であって「第2値」が0であってもよいし、「第1値」が0であって「第2値」が1であってもよい。このように「比較特徴量列」をバイナリ列(バイナリ特徴量)とすることで、外乱に基づく印象の推定誤差を抑制でき、印象の推定精度を向上できる。さらに、特徴量と印象との関係が単純な線形関係にない場合でも、印象を推定することができる。   All of the elements of the “first feature quantity sequence” may be “first feature quantities”, or some elements of the “first feature quantity sequence” may be “first feature quantities”. Similarly, all of the elements of the “second feature quantity sequence” may be “second feature quantities”, or some elements of the “second feature quantity sequence” may be “second feature quantities”. Good. The number of elements of the “first feature quantity sequence” and the “second feature quantity sequence” are equal. An example of “a value representing a comparison result” is a value representing a magnitude relationship between each element of the “first feature quantity sequence” and each element of the “second feature quantity sequence”. For example, when the element of the “first feature quantity sequence” is larger than the element of the “second feature quantity sequence”, the “value representing the comparison result” is set as the “first value”, and the “first feature quantity sequence” If the element is smaller than the element of the “second feature quantity sequence”, the “value representing the comparison result” is set as the “second value” (reference 1). Alternatively, when the element of the “first feature quantity sequence” is smaller than the element of the “second feature quantity sequence”, the “value representing the comparison result” is set as the “first value”, and the “first feature quantity sequence” When the element is larger than the element of the “second feature amount sequence”, the “value indicating the comparison result” may be set as the “second value” (reference 2). When the elements of the “first feature quantity sequence” and the elements of the “second feature quantity sequence” are equal, the “value indicating the comparison result” may be set to “first value” or “second value”. Alternatively, other values may be used. However, the “second value” is different from the “first value”. It may be “first value”> “second value”, or “second value”> “first value”. For example, the “first value” may be 1 and the “second value” may be 0, or the “first value” may be 0 and the “second value” may be 1. Thus, by making the “comparison feature value sequence” a binary sequence (binary feature value), it is possible to suppress an impression estimation error based on a disturbance and improve the impression estimation accuracy. Furthermore, even when the relationship between the feature quantity and the impression is not a simple linear relationship, the impression can be estimated.

「第1特徴量列」および「第2特徴量列」のすべての要素に「基準1」または「基準2」の何れか一方のみが適用されてもよい。あるいは、「第1特徴量列」および「第2特徴量列」の各要素に「基準1」および「基準2」の何れの基準が適用されるかが定められていてもよい。例えば、「第1の像」に好意を持っているときに「比較結果を表す値」がすべて「第1値」となる傾向を示すように、各要素に適用される基準が定められてもよい。逆に、「第1の像」に好意を持っているときに「比較結果を表す値」がすべて「第2値」となる傾向を示すように、各要素に適用される基準が定められてもよい。「比較結果を表す値を各要素とする列」をそのまま「比較特徴量列」としてもよいし、「比較結果を表す値」に「係数」を乗算して得られる値からなる列を「比較特徴量列」としてもよい。例えば、「第1の像に対する印象」との相関が大きい「比較結果を表す値」に乗じられる「係数」の絶対値が、「第1の像に対する印象」との相関がそれよりも小さい「比較結果を表す値」に乗じられる「係数」の絶対値よりも大きくてもよい。ばらつきの小さい「比較結果を表す値」に乗じられる「係数」の絶対値が、それよりもばらつきの大きい「比較結果を表す値」に乗じられる「係数」の絶対値よりも大きくてもよい。これにより、推定精度を向上できる。   Only either “reference 1” or “reference 2” may be applied to all the elements of the “first feature value sequence” and the “second feature value sequence”. Alternatively, it may be determined which one of “reference 1” and “reference 2” is applied to each element of the “first feature value sequence” and the “second feature value sequence”. For example, even if a criterion applied to each element is defined so that all the “values representing the comparison results” tend to be “first values” when favoring the “first image”. Good. On the other hand, the criteria applied to each element are determined so that the “value representing the comparison result” tends to be all “second values” when favoring the “first image”. Also good. The “column with the value representing the comparison result as each element” may be used as the “comparison feature value column” as it is, or the column composed of the values obtained by multiplying the “value representing the comparison result” by the “coefficient” is It may be a “characteristic string”. For example, the absolute value of the “coefficient” multiplied by the “value representing the comparison result” having a large correlation with the “impression on the first image” has a smaller correlation with the “impression on the first image”. It may be larger than the absolute value of the “coefficient” multiplied by the “value representing the comparison result”. The absolute value of the “coefficient” multiplied by the “value representing the comparison result” with small variation may be larger than the absolute value of the “coefficient” multiplied by the “value representing the comparison result” with larger variation. Thereby, estimation accuracy can be improved.

複数の「第1特徴量」を含む「第1特徴量列」と複数の「第2特徴量」を含む「第2特徴量列」とが抽出され、少なくともそれらに基づく「比較特徴量列」に基づいて、少なくとも「動物」の「第1の像」に対する印象が推定されてもよい(推定方法1)。例えば、「比較結果を表す値」と「第1の像に対する印象」との関係に基づく「重み係数」が事前学習されており、「比較特徴量列」の要素を「重み係数」で「重み付けして得られる列」に基づいて、この推定が行われてもよい。例えば、「比較特徴量列」の要素を「重み係数」で「重み付け加算して得られる値」に基づいて、この推定が行われてもよい。「重み係数」の例は、「比較結果を表す値」と学習用対象者の回答などによって得られた「第1の像に対する印象(例えば、好き=1、嫌い=0)」との相関係数またはその関数値である。あるいは、「第1特徴量」および「第2特徴量」の何れか、ならびに「比較特徴量列」に基づいて、この推定が行われてもよい(推定方法2)。さらに、「第1特徴量」および「第2特徴量」の何れか、ならびに「重み付けして得られる列」に基づいて、この推定が行われてもよい(推定方法3)。   A “first feature value sequence” including a plurality of “first feature values” and a “second feature value sequence” including a plurality of “second feature values” are extracted, and at least a “comparison feature value sequence” based on them. Based on the above, at least an impression of the “animal” on the “first image” may be estimated (estimation method 1). For example, the “weighting coefficient” based on the relationship between the “value representing the comparison result” and the “impression on the first image” is pre-learned, and the element of the “comparison feature amount sequence” is “weighted” with the “weighting coefficient”. This estimation may be performed based on the “sequence obtained”. For example, this estimation may be performed based on a “value obtained by weighted addition” of an element of the “comparison feature value sequence” with a “weighting coefficient”. An example of the “weighting coefficient” is a correlation between the “value indicating the comparison result” and the “impression on the first image (for example, like = 1, dislike = 0)” obtained by the answer of the learning subject. A number or its function value. Alternatively, this estimation may be performed based on one of the “first feature value” and the “second feature value” and the “comparison feature value string” (estimation method 2). Furthermore, this estimation may be performed based on either “first feature value” or “second feature value” and “a column obtained by weighting” (estimation method 3).

推定方法1による推定は、「比較特徴量列」に基づく指標(例えば、「比較特徴量列」の要素を加算または重み付け加算して得られる値)と閾値との比較によって行われてもよいし、重回帰分析、k−means、サポートベクターマシーン(SVM)、単純クラスタリングなどによって行われてもよい。推定方法2,3についても同様である。   The estimation by the estimation method 1 may be performed by comparing an index based on the “comparison feature quantity sequence” (for example, a value obtained by adding or weighted addition of the elements of the “comparison feature quantity sequence”) with a threshold value. , Multiple regression analysis, k-means, support vector machine (SVM), simple clustering, and the like. The same applies to the estimation methods 2 and 3.

[第一実施形態]
第一実施形態について説明する。本実施形態では、人の目の動きおよび瞳孔の大きさの経時変化の少なくとも一方に基づく特徴量に基づいて、並べられた2つの画像に対する相対的な好みを推定する。
[First embodiment]
A first embodiment will be described. In the present embodiment, a relative preference for two arranged images is estimated based on a feature amount based on at least one of a human eye movement and a pupil size change over time.

<印象推定装置の構成および動作>
図1、図2を参照して本実施形態の印象推定装置の構成、および動作について説明する。図1に示すように、本実施形態の印象推定装置10は、画像呈示部11、眼球情報取得部12、特徴量抽出部13、および嗜好推定部14を含む。
<Configuration and operation of impression estimation device>
With reference to FIG. 1 and FIG. 2, the configuration and operation of the impression estimation apparatus of the present embodiment will be described. As shown in FIG. 1, the impression estimation device 10 of the present embodiment includes an image presentation unit 11, an eyeball information acquisition unit 12, a feature amount extraction unit 13, and a preference estimation unit 14.

《画像呈示部11》
画像呈示部11は、2つの異なる画像α,β(「第1の像」および「第2の像」)を所定の時間区間τにおいて人間(ヒト)である対象者100の視野内に呈示する(S11)。例えば、対象者100の正面に設置したモニターの左右の領域に1つずつ、観察可能な時間の長さで画像を呈示する。図3Aおよび図3Bの例では、モニターの左側の領域に画像αが呈示され、右側の領域に画像β(画像αと異なる画像)が呈示される。すなわち、画像α,βが並んで配置される。
<< Image Presentation Unit 11 >>
The image presenting unit 11 presents two different images α and β (“first image” and “second image”) within the field of view of the human subject 100 in a predetermined time interval τ. (S11). For example, the image is presented for each of the left and right areas of the monitor installed in front of the subject 100 for the length of time that can be observed. In the example of FIGS. 3A and 3B, the image α is presented in the left region of the monitor, and the image β (an image different from the image α) is presented in the right region. That is, the images α and β are arranged side by side.

《眼球情報取得部12》
眼球情報取得部12は、前述の時間区間τにおける、対象者100の「目の動的な変化」である「目の動き(例えば眼球の位置の経時変化)」および「瞳孔の大きさの経時変化」の少なくとも一方に関する情報を取得する(S12)。眼球情報取得部12は、取得した目の動的な変化に関する情報を特徴量抽出部13へ出力する。目の動的な変化に基づく特徴量として、「マイクロサッカード(microsaccade)」や「ラージサッカード(large saccade)」に関する特徴量を用いる場合、前述の時間区間τの中に、対象者100が2つの異なる画像α,β(画像領域)(図3A,図3B)をそれぞれ注視したときの一つ以上のマイクロサッカードおよびラージサッカードが含まれるように、その長さが設定される。時間区間τの長さは、数秒から数十秒程度とすることが望ましい。あるいは、対象者100に2つの画像α,βのどちらが好きかを判断するために見比べてもらうように指示し、対象者100が任意のタイミングでボタンを押すことで2つの画像α,βが呈示され、対象者100が再びボタンを押すことでこれらの呈示が終了することにしてもよい。この場合には、結果として画像α,βを呈示していた時間区間を「時間区間」としてもよい。
<< Eyeball information acquisition unit 12 >>
The eyeball information acquisition unit 12 performs “eye movement (eg, temporal change in the position of the eyeball)” and “pupil size over time”, which are “dynamic changes in the eye” of the subject 100 in the time interval τ described above. Information on at least one of “change” is acquired (S12). The eyeball information acquisition unit 12 outputs information on the acquired dynamic change of the eye to the feature amount extraction unit 13. In the case where a feature amount related to “microsaccade” or “large saccade” is used as the feature amount based on the dynamic change of the eyes, the subject 100 is included in the time interval τ described above. The length is set so as to include one or more microsaccades and large saccades when two different images α and β (image regions) (FIGS. 3A and 3B) are respectively watched. The length of the time interval τ is preferably about several seconds to several tens of seconds. Alternatively, the target person 100 is instructed to compare to determine which of the two images α and β is preferred, and the subject person 100 presses a button at an arbitrary timing to present the two images α and β. These presentations may be ended when the subject 100 presses the button again. In this case, the time interval in which the images α and β are presented as a result may be referred to as a “time interval”.

対象者100の目の動的な変化に関する情報は、例えば赤外線カメラによって取得される。この場合、対象者100に2つの画像α,βのどちらが好きかを判断するために見比べてもらうように指示し、その時の眼球の動きを赤外線カメラで撮像する。眼球情報取得部12は、撮像結果を画像処理することで、フレーム毎(例えば、1000Hzのサンプリング間隔)の眼球の位置の時系列を眼球の動きに関する情報として取得する。眼球情報取得部12は、撮像装置(赤外線カメラ)と画像処理アルゴリズムを実行するコンピュータなどによって実現されてもよいし、撮像装置(赤外線カメラ)を外部装置として、撮像装置から入力された画像を画像処理するアルゴリズムを実行するコンピュータなどによって実現されてもよい。また、眼球情報取得部12は、電極を用いた電位計測法を用いて眼球の動きを測定してもよい。この場合、眼球情報取得部12は、測定装置(電極を含む)と測定装置が測定した電位に基づいて眼球の位置を計算するアルゴリズムを実行するコンピュータなどによって実現されてもよいし、測定装置を外部装置として、測定装置から入力された電位に基づいて眼球の位置を計算するアルゴリズムを実行するコンピュータなどによって実現されてもよい。なお、眼球情報取得部12は左右両方の目の動的な変化に関する情報を取得してもよいし、何れか一方の目の動的な変化に関する情報のみを取得してもよい。本実施形態では、眼球情報取得部12は、一方の目の動的な変化に関する情報のみを取得するものとする。   Information regarding the dynamic change of the eye of the subject 100 is acquired by, for example, an infrared camera. In this case, the subject 100 is instructed to see and compare the two images α and β in order to determine which one is preferred, and the movement of the eyeball at that time is imaged with an infrared camera. The eyeball information acquisition unit 12 performs image processing on the imaging result, thereby acquiring a time series of eyeball positions for each frame (for example, at a sampling interval of 1000 Hz) as information on eyeball movement. The eyeball information acquisition unit 12 may be realized by an imaging device (infrared camera) and a computer that executes an image processing algorithm, or an image input from the imaging device using the imaging device (infrared camera) as an external device. You may implement | achieve by the computer etc. which run the algorithm to process. Further, the eyeball information acquisition unit 12 may measure the movement of the eyeball using a potential measurement method using electrodes. In this case, the eyeball information acquisition unit 12 may be realized by a measurement device (including electrodes) and a computer that executes an algorithm for calculating the position of the eyeball based on the potential measured by the measurement device. The external device may be realized by a computer that executes an algorithm for calculating the position of the eyeball based on the potential input from the measurement device. Note that the eyeball information acquisition unit 12 may acquire information regarding the dynamic change of both the left and right eyes, or may acquire only information regarding the dynamic change of either eye. In the present embodiment, it is assumed that the eyeball information acquisition unit 12 acquires only information regarding the dynamic change of one eye.

例えば、瞳孔の大きさとして瞳孔径(瞳孔の半径)を用いる場合には、瞳孔径は赤外線カメラを用いた画像処理法で計測できる。例えば、対象者100にはある1点を注視してもらうようにし、その時の瞳孔が赤外線カメラで撮像されるものとする。眼球情報取得部12は、撮像結果を画像処理することで、フレーム毎(例えば、1000Hzのサンプリング間隔)の瞳孔の大きさの時系列を取得することができる。眼球情報取得部12は、例えば瞳孔を撮影した画像に対して、瞳孔に円をフィッティングし、当該フィッティングした円の半径を瞳孔径として用いることができる。瞳孔径は微細に変動するため、眼球情報取得部12は、所定の時間区間ごとにスムージング(平滑化)した瞳孔径の値を用いれば好適である。図5Bに示した瞳孔の大きさは、各時刻について取得した瞳孔径の全データの平均を0、標準偏差を1としたときのz-scoreを用いて表したものであり、約150ms間隔でスムージングしたものである。ただし、眼球情報取得部12が取得する瞳孔径はz-scoreでなくてもよく、瞳孔径の値そのものであっても良いし、瞳孔の面積や直径など、瞳孔の大きさに対応する値であれば何でも良い。瞳孔の面積や直径を用いる場合も、時間の経過とともに瞳孔の面積または直径が大きくなる区間が散瞳に対応し、時間の経過とともに瞳孔の面積または直径が小さくなる区間が縮瞳に対応する。すなわち、時間の経過とともに瞳孔の大きさが大きくなる区間が散瞳に対応し、時間の経過とともに瞳孔の大きさが小さくなる区間が縮瞳に対応する。なお、眼球情報取得部12は左右両方の瞳孔の大きさの経時変化に関する情報を取得してもよいし、何れか一方の瞳孔の大きさの経時変化に関する情報のみを取得してもよい。本実施形態では、眼球情報取得部12は一方の瞳孔の大きさの経時変化に関する情報のみを取得するものとする。   For example, when the pupil diameter (pupil radius) is used as the size of the pupil, the pupil diameter can be measured by an image processing method using an infrared camera. For example, it is assumed that the subject 100 gazes at a certain point, and the pupil at that time is captured by an infrared camera. The eyeball information acquisition unit 12 can acquire a time series of pupil sizes for each frame (for example, a sampling interval of 1000 Hz) by performing image processing on the imaging result. For example, the eyeball information acquisition unit 12 can fit a circle to the pupil of an image obtained by photographing the pupil, and use the radius of the fitted circle as the pupil diameter. Since the pupil diameter varies minutely, it is preferable that the eyeball information acquisition unit 12 uses the value of the pupil diameter smoothed (smoothed) for each predetermined time interval. The size of the pupil shown in FIG. 5B is expressed using z-score where the average of all the pupil diameter data acquired at each time is 0 and the standard deviation is 1, and at intervals of about 150 ms. Smoothed. However, the pupil diameter acquired by the eyeball information acquisition unit 12 may not be a z-score, may be a value of the pupil diameter itself, or a value corresponding to the size of the pupil, such as the area or diameter of the pupil. Anything is fine. Even when the area or diameter of the pupil is used, a section in which the area or diameter of the pupil increases with the passage of time corresponds to mydriasis, and a section in which the area or diameter of the pupil decreases with the passage of time corresponds to miosis. That is, a section where the size of the pupil increases with the passage of time corresponds to mydriasis, and a section where the size of the pupil decreases with the passage of time corresponds to miosis. Note that the eyeball information acquisition unit 12 may acquire information regarding temporal changes in the sizes of both the left and right pupils, or may acquire only information related to temporal changes in the size of one of the pupils. In the present embodiment, it is assumed that the eyeball information acquisition unit 12 acquires only information related to the temporal change in the size of one pupil.

《特徴量抽出部13》
特徴量抽出部13は、取得した目の動的な変化に関する情報から、画像αを注視する対象者100の目の動的な変化に基づく特徴を一つ以上含む第1特徴量、および、画像βを注視する対象者100の目の動的な変化に基づく特徴を一つ以上含む第2特徴量を抽出する(S13)。言い換えると、特徴量抽出部13は、対象者100が画像αを注視する第1時間区間での目の動的な変化に基づく特徴を一つ以上含む第1特徴量(第1時間区間での特徴量)、および、対象者100が画像βを注視する第2時間区間での目の動的な変化に基づく特徴を一つ以上含む第2特徴量(第2時間区間での特徴量)を抽出する。第1特徴量および第2特徴量は、それぞれスカラーであってもよいし、ベクトル(特徴量列、ベクトル特徴量ともいう)であってもよい。例えば、特徴量抽出部13は、前述の時間区間τに対応する目の動的な変化に関する情報を受け取り、対象者100が各画像α,βを注視するときの「注視(fixation)」「マイクロサッカード(microsaccade)」「ラージサッカード(large saccade)」「縮瞳(miosis)」「散瞳(mydriasis)」「瞬目(blink)」の少なくとも何れかの特徴量を抽出する。ただし、これらは本発明を限定するものではない。特徴量抽出部13は、抽出した第1特徴量および第2特徴量を嗜好推定部14に出力する。以下に各特徴量を例示する。
<< Feature Extraction Unit 13 >>
The feature amount extraction unit 13 includes a first feature amount including one or more features based on the dynamic change of the eye of the subject 100 who is gazing at the image α based on the acquired information on the dynamic change of the eye, and the image A second feature amount including one or more features based on the dynamic change of the eyes of the subject 100 watching the β is extracted (S13). In other words, the feature amount extraction unit 13 includes a first feature amount (one or more features in the first time interval) that includes one or more features based on dynamic changes in the eyes in the first time interval in which the subject 100 gazes at the image α. Feature amount) and a second feature amount (feature amount in the second time interval) including one or more features based on dynamic changes in the eyes in the second time interval in which the subject 100 gazes at the image β. Extract. Each of the first feature amount and the second feature amount may be a scalar or a vector (also referred to as a feature amount sequence or a vector feature amount). For example, the feature amount extraction unit 13 receives information on the dynamic change of the eye corresponding to the above-described time interval τ, and performs “fixation” and “micro” when the subject 100 gazes at the images α and β. At least one of feature values of “saccade”, “large saccade”, “miosis”, “mydriasis”, and “blink” is extracted. However, these do not limit the present invention. The feature quantity extraction unit 13 outputs the extracted first feature quantity and second feature quantity to the preference estimation unit 14. Each feature amount is exemplified below.

注視の特徴量:
注視は、ラージサッカードまたは瞬目が生じてから、次のラージサッカードまたは瞬目が生じるまでの時間の目の動きである。「注視の特徴量」としては、前述の時間区間τにおける、対象者100による各画像α,βの注視時間、注視回数、および注視領域の何れかに対応する特徴量を例示できる。対象者100が注視していた領域は、顔の基準点に対する眼球の座標および領域の座標によって定義できる。画像αの注視時間に対応する特徴量は、例えば、時間区間τにおいて、対象者100が画像αの領域を注視していた時間の合計であってもよいし、最も長く画像αを注視し続けていた時間であってもよいし、このような時間の関数値であってもよい。画像αの注視回数に対応する特徴量は、例えば、時間区間τにおいて、対象者100の視点が画像αの外側の領域から画像αに移動した回数であってもよいし、画像βから画像αに移動した回数であってもよいし、このような回数の関数値であってもよい。画像αの注視領域に対応する特徴量は、例えば、時間区間τにおいて注視された画像αの領域の広さであってもよいし、時間区間τのある時点で画像αの領域を注視していたか否かを表す値であってもよいし、それらの関数値であってもよい。これらのことは画像βの注視時間に対応する特徴量、注視回数に対応する特徴量、視領域に対応する特徴量についても同じである。また、注視時間、注視回数、および注視領域のうち複数をベクトル表記した特徴量を用いてもよい。
Gaze features:
Gaze is the movement of the eye in the time from the occurrence of a large saccade or blink until the next large saccade or blink. As the “gaze feature amount”, a feature amount corresponding to any of the gaze time, the number of times of gaze, and the gaze area of each of the images α and β by the subject 100 in the above-described time interval τ can be exemplified. The region in which the subject 100 is gazing can be defined by the coordinates of the eyeball and the region coordinates with respect to the reference point of the face. The feature amount corresponding to the gaze time of the image α may be, for example, the total time during which the subject 100 gazes at the area of the image α in the time interval τ, or continues to gaze at the image α for the longest time. It may be a predetermined time or a function value of such a time. The feature amount corresponding to the number of times of gazing at the image α may be, for example, the number of times the viewpoint of the subject 100 has moved from the region outside the image α to the image α in the time interval τ, or from the image β to the image α. It may be the number of times of movement, or a function value of such number of times. The feature amount corresponding to the gaze area of the image α may be, for example, the size of the area of the image α gazeed in the time interval τ, or the area of the image α is gaze at a certain point in the time interval τ. It may be a value indicating whether or not, or a function value thereof. The same applies to the feature quantity corresponding to the gaze time of the image β, the feature quantity corresponding to the number of gazes, and the feature quantity corresponding to the viewing area. Moreover, you may use the feature-value which expressed the vector among the gaze time, the frequency | count of gaze, and the gaze area | region.

マイクロサッカードの特徴量:
「マイクロサッカード」とは、眼球の動きに表れる微細な跳躍性眼球運動をいう。人間がある一点を注視しているとき、眼球は完全に動きを止めているわけではなく、固視微動と呼ばれる三種類の眼球運動であるドリフト(drift、trendといってもよい)、トレマ、マイクロサッカード(フリックといってもよい)を行っている。ドリフトは小さな滑らかな動き、トレマは非常に小さな高周波の振動、マイクロサッカードは小さな跳ぶような動きである。図4はマイクロサッカードを説明する図であって、横軸を時間[秒]、縦軸を視野角[度]として注視状態の眼球運動の例を示すグラフである。マイクロサッカードの例であるマイクロサッカードMSを太線で強調して示す。図4に例示するように、マイクロサッカードはある一点を注視している状態において、1〜2秒の間に1回程度、個人の意思とは関係なく(不随意に)表れる眼球の動きであって、小さな跳ぶような動きのことである。マイクロサッカードは、動きの水平方向の成分、垂直方向の成分のどちらからでも取得することができる。本実施形態では、マイクロサッカードが水平方向に偏向する性質に基づき、簡単のため水平方向の成分のみを用いる。しかし、本発明で用いることができるマイクロサッカードの方向成分は水平方向に限定されない。なお、「水平方向」とは、地面と平行な方向に限定する意味ではなく、対象者100の顔に対しての水平方向(眼球の配列方向であり、横方向、幅方向といってもよい)や眼球情報取得部12において水平方向と定義された方向を含む概念である。
Microsaccade features:
“Microsaccade” refers to minute jumping eye movements that appear in eye movements. When a person is gazing at a certain point, the eyeball does not stop moving completely, but three types of eye movements called drift (trend), trema, Micro saccade (may be called flick). Drift is a small smooth movement, trema is a very small high-frequency vibration, and microsaccade is a small jumping movement. FIG. 4 is a diagram for explaining the microsaccade, and is a graph showing an example of eye movement in a gaze state with the horizontal axis representing time [seconds] and the vertical axis representing the viewing angle [degree]. A microsaccade MS, which is an example of a microsaccade, is shown with a bold line. As illustrated in FIG. 4, in the state where a microsaccade is gazing at a certain point, the movement of the eyeball that appears (involuntarily) regardless of the individual's intention about once every 1-2 seconds. It's a little jumping movement. Microsaccades can be obtained from either the horizontal or vertical component of motion. In this embodiment, based on the property that the microsaccade is deflected in the horizontal direction, only the component in the horizontal direction is used for simplicity. However, the direction component of the microsaccade that can be used in the present invention is not limited to the horizontal direction. The “horizontal direction” is not limited to a direction parallel to the ground, and is a horizontal direction with respect to the face of the subject 100 (an eyeball arrangement direction, which may be referred to as a horizontal direction or a width direction). ) And the direction defined as the horizontal direction in the eyeball information acquisition unit 12.

特徴量抽出部13は、例えば眼球の位置の時系列について1次階差系列を計算し、1次階差系列の絶対値が所定の第1閾値を上回た時刻を、マイクロサッカードの起きた開始時刻として検出すればよい。ただし1次階差系列の絶対値が所定の閾値を上回る時間の長さが所定の値(通常3ms程度)以上持続しない場合は、検出から除外する。また、後述の基準振幅Aが所定の閾値(通常視野角2°程度)以上の場合はラージサッカードとして、検出から除外する。特徴量抽出部13は、取得された眼球の位置情報にノイズが多く含まれると判定した場合などには、1次階差系列の計算にあたって適当な範囲での移動平均値を用いても良い。検出に用いる閾値には、階差系列の標準偏差の6倍程度の値を用いることが好ましい。   For example, the feature amount extraction unit 13 calculates a first-order difference series for a time series of eyeball positions, and sets the time when the absolute value of the first-order difference series exceeds a predetermined first threshold as the occurrence of a microsaccade. The start time may be detected. However, if the length of time that the absolute value of the primary difference series exceeds the predetermined threshold does not last longer than the predetermined value (usually about 3 ms), it is excluded from detection. Further, when a reference amplitude A described later is equal to or larger than a predetermined threshold (normal viewing angle of about 2 °), it is excluded from detection as a large saccade. The feature amount extraction unit 13 may use a moving average value in an appropriate range when calculating the primary difference series, for example, when it is determined that the acquired position information of the eyeball includes a lot of noise. The threshold used for detection is preferably a value about 6 times the standard deviation of the difference series.

マイクロサッカードの特徴量としては、基準振幅A、最大速度Vmax、持続時間Dm、オーバーシュートの振幅Ao、オーバーシュートの速度Vo、立ち上がり時間Tp、減衰率λ、減衰係数ζ、固有角振動数ω、マイクロサッカードの単位時間(例えば1秒)あたりの発生回数Rmなどを例示できる。図5Aは、マイクロサッカードの特徴量について説明する図である。図5Aを参照して、マイクロサッカードの基準振幅A、最大速度Vmax、持続時間Dm、オーバーシュートの振幅Ao、オーバーシュートの速度Vo、立ち上がり時間Tp、減衰率λについて説明する。
(1)基準振幅A:マイクロサッカードによる眼球の動きが収束したときの移動量である。
(2)最大速度Vmax:基準振幅A+オーバーシュートの振幅Aoに達するまでの最大の速度である。
(3)持続時間Dm:マイクロサッカードが起きている時間区間の長さである。マイクロサッカードの開始時刻は1次階差系列の絶対値が所定の閾値を上回る時刻で、マイクロサッカードの終了時刻は、オーバーシュートの振幅に達したあとに初めて基準振幅Aに戻る時刻である。
(4)オーバーシュート(overshoot)の振幅Ao:マイクロサッカードによって基準振幅Aを超過した(行き過ぎた)部分の量である。オーバーシュートとは、波形の立ち上がり部分で、波形が基準振幅Aを超えて突出する現象、または、その突出した波形である。言い換えると、オーバーシュートの振幅とは、突出した部分の量である。
(5)オーバーシュートの速度Vo:基準振幅A+オーバーシュートの振幅Aoから基準振幅Aに収束しようとする際の最大の速度である。
(6)立ち上がり時間Tp:基準振幅A+オーバーシュートの振幅Aoに達する(立ち上がる)までにかかる時間である。なお、基準振幅A+オーバーシュートの振幅Aoに達するまでにかかる時間は、最大速度Vmaxからオーバーシュートの速度Voに達するまでにかかる時間と同じ値となる。
(7)減衰率λ:基準振幅Aに対するオーバーシュートの振幅Aoの比である。最大速度Vmaxに対するオーバーシュートの速度Voの比としてもよく、

と表される。
Microsaccade features include reference amplitude A, maximum velocity V max , duration D m , overshoot amplitude A o , overshoot velocity V o , rise time T p , attenuation rate λ, attenuation coefficient ζ, Examples include the natural angular frequency ω n and the number of occurrences R m per unit time (for example, 1 second) of the microsaccade. FIG. 5A is a diagram illustrating the feature amount of the microsaccade. With reference to FIG. 5A, the microsaccade reference amplitude A, maximum velocity V max , duration D m , overshoot amplitude A o , overshoot velocity V o , rise time T p , and decay rate λ will be described. .
(1) Reference amplitude A: the amount of movement when the movement of the eyeball by the microsaccade converges.
(2) Maximum speed V max : The maximum speed until reaching the reference amplitude A + the overshoot amplitude A o .
(3) Duration D m : the length of the time interval in which microsaccade is occurring. The start time of the microsaccade is a time when the absolute value of the first-order difference series exceeds a predetermined threshold, and the end time of the microsaccade is the time when the first return to the reference amplitude A is reached after reaching the overshoot amplitude. .
(4) Overshoot amplitude A o : The amount of the portion that exceeds (overshoots) the reference amplitude A by the microsaccade. The overshoot is a phenomenon in which the waveform protrudes beyond the reference amplitude A at the rising portion of the waveform, or the protruding waveform. In other words, the overshoot amplitude is the amount of the protruding portion.
(5) Overshoot speed V o : This is the maximum speed when attempting to converge from the reference amplitude A + the overshoot amplitude A o to the reference amplitude A.
(6) Rise time T p : Time required to reach (rise) reference amplitude A + overshoot amplitude A o . The reference amplitude A + overshoot amplitude A o time to reach of the same value as the time it takes from the maximum velocity V max reach speeds V o overshoot.
(7) Attenuation rate λ: ratio of overshoot amplitude A o to reference amplitude A It may be the ratio of overshoot speed V o to maximum speed V max ,

It is expressed.

マイクロサッカードが起きている時間区間の眼球位置の時系列を位置制御系のステップ応答としてモデル化することで計算する。位置制御系のステップ応答は、

と表される。ここでG(s)は伝達係数、y(t)は位置、y'(t)は速度を表す。これに基づいて、減衰係数マイクロサッカードの減衰係数ζ、固有角振動数ωは、

と表される。ただし、tは時刻を表すインデックスであり、sはラプラス変換によるパラメタ(複素数)である。固有角振動数ωはマイクロサッカードの応答の速さを表す指標に相当し、減衰係数ζはマイクロサッカードの応答の収束性を表す指標に相当する。
It is calculated by modeling the time series of eye positions in the time interval where microsaccade is occurring as a step response of the position control system. The step response of the position control system is

It is expressed. Here, G (s) represents a transfer coefficient, y (t) represents a position, and y ′ (t) represents a velocity. Based on this, the damping coefficient ζ and the natural angular frequency ω n of the damping coefficient microsaccade are

It is expressed. Here, t is an index representing time, and s is a parameter (complex number) by Laplace transform. The natural angular frequency ω n corresponds to an index representing the response speed of the microsaccade, and the damping coefficient ζ corresponds to an index representing the convergence of the microsaccade response.

特徴量抽出部13は、マイクロサッカードの減衰係数ζ、固有角振動数ω、基準振幅Aを、マイクロサッカードが起きている間の眼球の位置を関数y(t)でフィッティングし、最小二乗法などによって最適化することで計算してもよい。 The feature amount extraction unit 13 fits the microsaccade damping coefficient ζ, natural angular frequency ω n , and reference amplitude A with the function y (t) of the position of the eyeball while the microsaccade is occurring. You may calculate by optimizing by the square method.

マイクロサッカードの減衰係数ζは、運動が左右方向に依存して値が変化する傾向があるため、特徴量抽出部13は、左方向のマイクロサッカードの減衰係数の代表値、右方向のマイクロサッカードの減衰係数の代表値を分けて計算しても良い。   Since the value of the attenuation coefficient ζ of the microsaccade tends to change depending on the movement in the left-right direction, the feature amount extraction unit 13 represents the representative value of the attenuation coefficient of the left-side microsaccade, the micro The representative value of the saccade attenuation coefficient may be calculated separately.

特徴量抽出部13は、例えば、時間区間τにおいて画像αを注視する対象者100のマイクロサッカードを検出し、その基準振幅A、最大速度Vmax、持続時間Dm、オーバーシュートの振幅Ao、オーバーシュートの速度Vo、立ち上がり時間Tp、減衰率λ、減衰係数ζ、固有角振動数ω、単位時間あたりの発生回数Rm、発生回数などを、画像αを注視する対象者100の眼球の動きに表れるマイクロサッカードの特徴量(第1時間区間での特徴量)として計算する。同様に特徴量抽出部13は、画像βを注視する対象者100のマイクロサッカードを検出し、その基準振幅A、最大速度Vmax、持続時間Dm、オーバーシュートの振幅Ao、オーバーシュートの速度Vo、立ち上がり時間Tp、減衰率λ、減衰係数ζ、固有角振動数ω、単位時間あたりの発生回数Rm、発生回数などを、画像βを注視する対象者100の眼球の動きに表れるマイクロサッカードの特徴量(第2時間区間での特徴量)として計算する。各画像α,βの注視時のマイクロサッカードが時間区間τにおいて複数検出された場合には、一つ一つのマイクロサッカードについて求めた特徴量それぞれの代表値を用いてもよい。複数の値の代表値とは、例えばそれら複数の値の平均値、最大値、最小値、最初の値に対応する値などであり、特に平均値を用いることが好ましい。また、基準振幅A、最大速度Vmax、持続時間Dm、オーバーシュートの振幅Ao、オーバーシュートの速度Vo、立ち上がり時間Tp、減衰率λ、減衰係数ζ、固有角振動数ω、単位時間あたりの発生回数Rm、発生回数などの特徴量をベクトル表現したものを用いてもよい。あるいは、上述した複数の代表値をベクトル表現したものを用いてもよい。 The feature amount extraction unit 13 detects, for example, the microsaccade of the subject 100 watching the image α in the time interval τ, and the reference amplitude A, the maximum speed V max , the duration D m , and the overshoot amplitude A o. , Overshoot speed V o , rise time T p , damping rate λ, damping coefficient ζ, natural angular frequency ω n , number of occurrences R m per unit time, number of occurrences, etc. The feature amount of the microsaccade appearing in the movement of the eyeball (feature amount in the first time interval) is calculated. Similarly, the feature quantity extraction unit 13 detects the microsaccade of the subject 100 watching the image β, and the reference amplitude A, the maximum speed V max , the duration D m , the overshoot amplitude A o , and the overshoot amplitude. The movement of the eyeball of the subject 100 watching the image β, such as the speed V o , the rise time T p , the damping rate λ, the damping coefficient ζ, the natural angular frequency ω n , the number of occurrences R m per unit time, and the number of occurrences. Is calculated as a feature value of the microsaccade (characteristic value in the second time interval). When a plurality of microsaccades at the time of gazing at the images α and β are detected in the time interval τ, representative values of the feature amounts obtained for each microsaccade may be used. The representative value of a plurality of values is, for example, an average value, a maximum value, a minimum value, a value corresponding to the first value of the plurality of values, and the average value is particularly preferably used. Reference amplitude A, maximum speed V max , duration D m , overshoot amplitude A o , overshoot speed V o , rise time T p , damping rate λ, damping coefficient ζ, natural angular frequency ω n , A vector representation of feature quantities such as the number of occurrences R m per unit time and the number of occurrences may be used. Alternatively, a vector representation of the plurality of representative values described above may be used.

ラージサッカードの特徴量:
「ラージサッカード」とは、マイクロサッカードよりも振幅の大きな跳躍性眼球運動をいい、一般に振幅が視野角2度以上の場合をラージサッカード、2度未満のものをマイクロサッカードとする。例えば、図6Aの例では、時間t,t,t,t12からラージサッカードが開始されている。これらの振幅は時間t,t,t10,t13から開始されているマイクロサッカードの振幅よりも大きい。なお、図6Aの正方向はモニターの右方向(画像β側)を表し、負方向はモニターの左方向(画像α側)を表す。特徴量抽出部13は、例えば眼球の位置の時系列について1次階差系列を計算し、1次階差系列の絶対値が前述の「第2閾値」を上回る時刻を、ラージサッカードの起きた開始時刻として検出すればよい。ラージサッカードの特徴量の例は、その基準振幅A、最大速度Vmax、持続時間Dm、オーバーシュートの振幅Ao、オーバーシュートの速度Vo、立ち上がり時間Tp、減衰率λ、減衰係数ζ、固有角振動数ω、単位時間あたりの発生回数Rm、発生回数などである。特徴量抽出部13は、例えば、時間区間τにおいて画像αを注視する対象者100のラージサッカードを検出し、その基準振幅A、最大速度Vmax、持続時間Dm、オーバーシュートの振幅Ao、オーバーシュートの速度Vo、立ち上がり時間Tp、減衰率λ、減衰係数ζ、固有角振動数ω、単位時間あたりの発生回数Rm、発生回数などを、画像αを注視する対象者100の眼球の動きに表れるラージサッカードの特徴量(第1時間区間での特徴量)として計算する。同様に特徴量抽出部13は、画像βを注視する対象者100のラージサッカードを検出し、その基準振幅A、最大速度Vmax、持続時間Dm、オーバーシュートの振幅Ao、オーバーシュートの速度Vo、立ち上がり時間Tp、減衰率λ、減衰係数ζ、固有角振動数ω、単位時間あたりの発生回数Rm、発生回数などを、画像βを注視する対象者100の眼球の動きに表れるラージサッカードの特徴量(第2時間区間での特徴量)として計算する。各画像α,βの注視時のラージサッカードが時間区間τにおいて複数検出された場合には、一つ一つのラージサッカードについて求めた特徴量それぞれの代表値を用いてもよい。また、基準振幅A、最大速度Vmax、持続時間Dm、オーバーシュートの振幅Ao、オーバーシュートの速度Vo、立ち上がり時間Tp、減衰率λ、減衰係数ζ、固有角振動数ω、単位時間あたりの発生回数Rm、発生回数などの特徴量をベクトル表現したものを用いてもよい。あるいは、上述した複数の代表値をベクトル表現したものを用いてもよい。
Large saccade features:
“Large saccade” means a jumping eye movement with a larger amplitude than that of microsaccade. Generally, when the amplitude is a viewing angle of 2 degrees or more, a large saccade is less than 2 degrees and a microsaccade is a microsaccade. For example, in the example of FIG. 6A, the large saccade from time t 0, t 3, t 8 , t 12 has been started. These amplitudes are greater than the amplitudes of the microsaccades starting at times t 6 , t 7 , t 10 , t 13 . 6A represents the right direction of the monitor (image β side), and the negative direction represents the left direction of the monitor (image α side). For example, the feature amount extraction unit 13 calculates a first-order difference series for the time series of eyeball positions, and the time when the absolute value of the first-order difference series exceeds the above-described “second threshold value” The start time may be detected. Examples of large saccade feature values include its reference amplitude A, maximum velocity V max , duration D m , overshoot amplitude A o , overshoot velocity V o , rise time T p , attenuation rate λ, attenuation coefficient ζ, natural angular frequency ω n , number of occurrences R m per unit time, number of occurrences, and the like. The feature amount extraction unit 13 detects, for example, the large saccade of the subject 100 watching the image α in the time interval τ, and the reference amplitude A, the maximum speed V max , the duration D m , and the overshoot amplitude A o. , Overshoot speed V o , rise time T p , damping rate λ, damping coefficient ζ, natural angular frequency ω n , number of occurrences R m per unit time, number of occurrences, etc. Large saccade feature quantity (feature quantity in the first time interval) that appears in the movement of the eyeball. Similarly, the feature amount extraction unit 13 detects the large saccade of the subject 100 watching the image β, and the reference amplitude A, the maximum velocity V max , the duration D m , the overshoot amplitude A o , and the overshoot amplitude. The movement of the eyeball of the subject 100 watching the image β, such as the speed V o , the rise time T p , the damping rate λ, the damping coefficient ζ, the natural angular frequency ω n , the number of occurrences R m per unit time, and the number of occurrences. Is calculated as the feature amount of the large saccade (feature amount in the second time interval). When a plurality of large saccades at the time of gazing at the images α and β are detected in the time interval τ, representative values of the respective feature values obtained for each large saccade may be used. Reference amplitude A, maximum speed V max , duration D m , overshoot amplitude A o , overshoot speed V o , rise time T p , damping rate λ, damping coefficient ζ, natural angular frequency ω n , A vector representation of feature quantities such as the number of occurrences R m per unit time and the number of occurrences may be used. Alternatively, a vector representation of the plurality of representative values described above may be used.

縮瞳の特徴量および散瞳の特徴量:
人がある一点を注視しているとき、瞳孔の大きさは一定ではなく、変化している。図5Bは注視状態における瞳孔の大きさの変化を表す図であり、横軸は時間[秒]を、縦軸は瞳孔の大きさ[z-score]を表す。瞳孔の大きさは交感神経系の支配を受けた瞳孔散大筋によって拡大(散瞳)し、副交感神経系の支配を受けた瞳孔括約筋によって収縮(縮瞳)する。図5Bにおいて、二重線部分は散瞳を表し、破線部分は縮瞳を表す。瞳孔の大きさの変化は主に対光反射、輻輳反射、感情による変化の3つに区別される。対光反射は、網膜に入射する光量を制御するために瞳孔の大きさが変化する反応のことで、強い光に対しては縮瞳、暗所では散瞳が生じる。輻輳反射は、焦点を合わせる際に両眼が内転あるいは外転する運動(輻輳運動)に伴って瞳孔径が変化する反応のことで、近くを見るときには縮瞳、遠くを見るときには散瞳が生じる。感情による変化は、上記のいずれにもよらず外界のストレスに対して生じる反応のことで、怒りや驚き、活発な活動に伴って交感神経が優位となる際には散瞳が生じ、リラックスして副交感神経が優位となる際には縮瞳が生じる。
Miosis features and mydriatic features:
When a person is gazing at a point, the size of the pupil is not constant but is changing. FIG. 5B is a diagram illustrating a change in pupil size in a gaze state, where the horizontal axis represents time [seconds] and the vertical axis represents pupil size [z-score]. The size of the pupil is enlarged (mydriasis) by the pupil dilator that is controlled by the sympathetic nervous system, and contracted (miosis) by the pupil sphincter that is controlled by the parasympathetic nervous system. In FIG. 5B, the double line portion represents the mydriasis and the broken line portion represents the miosis. Changes in the size of the pupil are mainly classified into three types: light reflection, convergence reflection, and emotional changes. The light reflection is a reaction in which the size of the pupil changes in order to control the amount of light incident on the retina. A miosis occurs for strong light, and a mydriasis occurs in a dark place. Convergence reflex is a reaction in which the pupil diameter changes with the movement of both eyes inward or outward (convergence movement) when focusing. Arise. The emotional change is a reaction that occurs to the external stress regardless of any of the above. When my sympathetic nerve is dominant due to anger, surprise, or active activity, mydriasis occurs and relaxes. When the parasympathetic nerve dominates, miosis occurs.

縮瞳の開始する時刻(以下、縮瞳開始点)は、瞳孔の大きさの時系列から極大点を抽出することによって検出する。縮瞳の終了する時刻(以下、縮瞳終了点)は、縮瞳開始以降初めて散瞳が開始した点、または縮瞳開始以降初めて瞬目が開始した点のうち、時間が早い方とする。縮瞳の振幅Acは、縮瞳開始点から縮瞳終了点までの瞳孔径の差である。縮瞳の持続時間Dcは、縮瞳開始点から縮瞳終了点までの時間差である。縮瞳の平均速度Vcは、(振幅Ac)/(持続時間Dc)である。 The time at which the miosis starts (hereinafter referred to as the miosis start point) is detected by extracting the maximum point from the time series of pupil sizes. The time at which the miosis ends (hereinafter referred to as the miosis end point) is the earlier of the point at which the mydriasis start for the first time after the start of miosis or the point at which the blinks start for the first time after the start of miosis. Amplitude A c of miosis is the difference in the pupil diameter from the miosis start point to miosis end point. The miosis duration D c is the time difference from the miosis start point to the miosis end point. The average speed V c of miosis is (amplitude A c ) / (duration D c ).

散瞳の開始する時刻(以下、散瞳開始点)は、瞳孔径の時系列から極小点を抽出することによって検出する。散瞳の終了する時刻(以下、散瞳終了点)は、散瞳開始以降初めて縮瞳が開始した点、または散瞳開始以降初めて瞬目が開始した点のうち、時間が早い方とする。散瞳の振幅Adは、散瞳開始点から散瞳終了点までの瞳孔径の差である。散瞳の持続時間Ddは、散瞳開始点から散瞳終了点までの時間差である。散瞳の平均速度Vdは、(振幅Ad)/(持続時間Dd)である。 The time at which the mydriatic starts (hereinafter referred to as the mydriatic start point) is detected by extracting a minimum point from the time series of the pupil diameter. The time at which the mydriatic ends (hereinafter referred to as the mydriatic end point) is the earlier of the time when the miosis starts for the first time after the start of mydriasis or the time when the blink starts for the first time after the start of mydriasis. Amplitude A d mydriatic is the difference between the pupil diameter from mydriasis start point to mydriasis end point. The mydriatic duration D d is the time difference from the mydriatic start point to the mydriatic end point. The average speed V d of the mydriasis is (amplitude A d ) / (duration D d ).

ノイズによる誤検出を防ぐために、縮瞳の持続時間が所定の閾値(例えば、10ms)以下の場合、あるいは縮瞳の振幅が所定の閾値以下の場合は、特徴量抽出部22は、その縮瞳を検出から除外するとよい。同様に、散瞳の持続時間が所定の閾値(例えば、10ms)以下の場合、あるいは散瞳の振幅が所定の閾値以下の場合は、その散瞳を検出から除外するとよい。   In order to prevent erroneous detection due to noise, when the duration of the miosis is a predetermined threshold (for example, 10 ms) or less, or when the amplitude of the miosis is less than the predetermined threshold, the feature amount extraction unit 22 performs the miosis. Should be excluded from detection. Similarly, when the duration of mydriasis is a predetermined threshold value (for example, 10 ms) or less, or when the mydriatic amplitude is equal to or smaller than a predetermined threshold value, the mydriasis may be excluded from detection.

特徴量抽出部13は、例えば、時間区間τにおいて画像αを注視する対象者100の眼球の瞳孔径に基づいてこれらの値を計算し、得られた値を「画像αを注視する対象者100の散瞳の特徴量(第1時間区間での特徴量)」とする。同様に、特徴量抽出部13は、例えば、時間区間τにおいて画像βを注視する対象者100の眼球の瞳孔径に基づいてこれらの値を計算し、得られた値を「画像βを注視する対象者100の散瞳の特徴量(第2時間区間での特徴量)」とする。各画像α,βの注視時の瞳孔が時間区間τにおいて複数検出された場合には、一つ一つの瞳孔について求めた特徴量それぞれの代表値を用いてもよい。散瞳の発生回数、散瞳の振幅の大きさ、散瞳の持続時間などの特徴量をベクトル表現したものを用いてもよい。あるいは、上述した複数の代表値をベクトル表現したものを用いてもよい。   For example, the feature amount extraction unit 13 calculates these values based on the pupil diameter of the eyeball of the subject 100 who is gazing at the image α in the time interval τ, and uses the obtained value as “the subject 100 gazing at the image α. The mydriatic feature amount (feature amount in the first time interval) ”. Similarly, the feature amount extraction unit 13 calculates these values based on, for example, the pupil diameter of the eyeball of the subject 100 who is gazing at the image β in the time interval τ, and the obtained value is “gazing at the image β. The feature amount of the mydriatic of the subject 100 (feature amount in the second time interval) ”. When a plurality of pupils at the time of gazing at the images α and β are detected in the time interval τ, the representative values of the feature amounts obtained for each pupil may be used. A vector representation of feature quantities such as the number of occurrences of mydriasis, the amplitude of mydriasis, and the duration of mydriasis may be used. Alternatively, a vector representation of the plurality of representative values described above may be used.

瞬目の特徴量:
「瞬目」とは目蓋の開閉運動のことである。瞬目の特徴量の例は、単位時間(例えば1秒間)あたりの瞬目の発生回数、瞬目の発生回数、瞬目の持続時間などである。瞬目の持続時間は、瞬目が起きている時間区間の長さである。特徴量抽出部13は、例えば、眼球運動の位置が所定の閾値を下回る時間区間を、瞬目が起きている時間区間として検出すればよい。ただし、一般に瞬目の生じる時間の長さが最小で75msと考えられていることから、特徴量抽出部13は、検出された時間区間の長さが所定の閾値(たとえば、50ms)を下回る場合は、これをノイズとして瞬目から除外することが望ましい。特徴量抽出部13は、例えば、時間区間τにおいて画像αを注視する対象者100の眼球の瞳孔径に基づいてこれらの値を計算し、得られた値を「画像αを注視する対象者100の瞬目の特徴量(第1時間区間での特徴量)」とする。同様に、特徴量抽出部13は、例えば、時間区間τにおいて画像βを注視する対象者100の眼球の瞳孔径に基づいてこれらの値を計算し、得られた値を「画像βを注視する対象者100の瞬目の特徴量(第2時間区間での特徴量)」とする。各画像α,βの注視時の瞬目が時間区間τにおいて複数検出された場合には、一つ一つの瞬目について求めた特徴量それぞれの代表値を用いてもよい。瞬目の発生回数、瞬目の持続時間などの特徴量をベクトル表現したものを用いてもよい。あるいは、上述した複数の代表値をベクトル表現したものを用いてもよい。
Features of blinks:
“Blink” is the opening and closing movement of the eyelid. Examples of blink feature values include the number of blinks per unit time (for example, one second), the number of blinks, the duration of blinks, and the like. The duration of the blink is the length of the time interval in which the blink occurs. For example, the feature amount extraction unit 13 may detect a time interval in which the position of the eye movement is below a predetermined threshold as a time interval in which a blink occurs. However, since it is generally considered that the length of time at which blinks occur is 75 ms at the minimum, the feature amount extraction unit 13 may detect that the length of the detected time interval is below a predetermined threshold (for example, 50 ms). It is desirable to exclude this from blinking as noise. For example, the feature amount extraction unit 13 calculates these values based on the pupil diameter of the eyeball of the subject 100 who is gazing at the image α in the time interval τ, and uses the obtained value as “the subject 100 gazing at the image α. ”Blink feature value (feature value in the first time interval)”. Similarly, the feature amount extraction unit 13 calculates these values based on, for example, the pupil diameter of the eyeball of the subject 100 who is gazing at the image β in the time interval τ, and the obtained value is “gazing at the image β. The feature amount of the blink of the subject 100 (feature amount in the second time interval) ”. When a plurality of blinks at the time of gazing at the images α and β are detected in the time interval τ, representative values of the feature amounts obtained for each blink may be used. A vector representation of feature quantities such as the number of blinks and the duration of blinks may be used. Alternatively, a vector representation of the plurality of representative values described above may be used.

《嗜好推定部14》
嗜好推定部14は、第1特徴量と第2特徴量とに基づいて、対象者100の画像αおよび画像βの少なくとも何れかに対する相対的な印象を推定し、その推定結果を表す情報を出力する(S14)。ここで、印象とは、好んでいるか否かに関するものであり、印象が良いとは好んでいることを、印象が悪いとは好んでいないことを意味する。例えば、嗜好推定部14は、対象者100が2つの異なる画像αおよび画像βのうち一方の画像を他方の画像と比較して好んでいるか否かを推定する。あるいは、嗜好推定部14は、対象者100が2つの異なる画像αおよび画像βのうちのどちらの画像をより好んでいるかを推定する。
<< Preference estimation unit 14 >>
The preference estimation unit 14 estimates a relative impression of at least one of the image α and the image β of the target person 100 based on the first feature value and the second feature value, and outputs information representing the estimation result. (S14). Here, the impression is related to whether or not it likes, and means that “good” means that it is preferable, and “not good” means that it does not like it. For example, the preference estimation unit 14 estimates whether or not the subject 100 likes one of the two different images α and β compared with the other image. Alternatively, the preference estimation unit 14 estimates which one of the two different images α and β is more preferred by the subject 100.

《推定方法1》
嗜好推定部14は、例えば、特徴量抽出部13が抽出した複数の第1特徴量を含む第1特徴量列と複数の第2特徴量を含む第2特徴量列とを用い、前述した「比較特徴量列」に基づいて、対象者100の画像αおよび画像βの少なくとも何れかに対する相対的な印象を推定してもよい。例えば、複数の第1特徴量をα,…,αとし、複数の第2特徴量をβ,…,βとし、第1特徴量列を(α,…,α)とし、第2特徴量列を(β,…,β)とし、比較特徴量列を(f,…,f)とする。ただし、mは2以上の整数であり、k=1,…,mについて、α>βのときf=0とし、α<βのときf=1とする(基準11)。その逆に、α>βのときf=1とし、α<βのときf=0としてもよい(基準21)。あるいは、k=1,…,mごとに、基準11が適用されるか基準21が適用されるかが定められていてもよい。例えば、画像αに好意を持っているときにf,…,fがすべて1となる傾向を示すように、各k=1,…,mに適用される基準が定められてもよい。α=βのときには、f=0としてもよいし、f=1としてもよいし、fをその他の値としてもよい。この場合、嗜好推定部14は、比較特徴量列(f,…,f)に基づいて、対象者100の画像αおよび画像βの少なくとも何れかに対する相対的な印象を推定する。この推定方法の具体例を示す。
<< Estimation method 1 >>
The preference estimation unit 14 uses, for example, the first feature amount sequence including the plurality of first feature amounts extracted by the feature amount extraction unit 13 and the second feature amount sequence including the plurality of second feature amounts, as described above. Based on the “comparison feature amount sequence”, a relative impression of the subject 100 with respect to at least one of the image α and the image β may be estimated. For example, a plurality of first feature amounts are α 1 ,..., Α m , a plurality of second feature amounts are β 1 ,..., Β m , and a first feature amount sequence is (α 1 ,..., Α m ). The second feature amount sequence is (β 1 ,..., Β m ), and the comparison feature amount sequence is (f 1 ,..., F m ). However, m is an integer of 2 or more, and k = 1,..., M, f k = 0 when α k > β k and f k = 1 when α kk (reference 11) . Conversely, f k = 1 may be set when α k > β k , and f k = 0 may be set when α kk (reference 21). Alternatively, for each of k = 1,..., M, it may be determined whether the reference 11 or the reference 21 is applied. For example, a criterion applied to each of k = 1,..., M may be determined so that f 1 ,..., F m tend to be all 1 when favoring the image α. When α k = β k , f k = 0 may be set, f k = 1 may be set, and f k may be set to other values. In this case, the preference estimation unit 14 estimates a relative impression of at least one of the image α and the image β of the target person 100 based on the comparison feature amount sequence (f 1 ,..., F m ). A specific example of this estimation method is shown.

具体例1:
嗜好推定部14は、以下のFαβを計算し、Fαβ>0.5の場合に対象者100の画像αに対する印象が画像βに対する印象よりも良いと推定し、Fαβ<0.5の場合に対象者100の画像βに対する印象が画像αに対する印象よりも良い(あるいは対象者100の画像αに対する印象が画像βに対する印象よりも悪い)と推定する。Fαβ=0.5の場合には、対象者100の画像αに対する印象が画像βに対する印象よりも良いと推定してもよいし、悪いと推定してもよいし、推定不可能としてもよい。

ただし、事前学習によって、画像αに好意を持っているときにf,…,fがすべて1となり、画像βに好意を持っているときにf,…,fがすべて0となる傾向を示すように、各k=1,…,mに適用される基準(基準11または基準21)が定められている。またrは事前に定められた重み係数である。例えば、事前学習で学習用対象者(人間)に前述のように画像α,βを同時に呈示し、その際に得られた複数のfのサンプルと、それに対応する学習用対象者の回答(画像αを好んでいる:1、画像βを好んでいる:0)のサンプルとの相関係数を得ておき、その相関係数をrとする。学習用対象者は、実際に印象が推定される対象者100と同一人物である必要はない。
Example 1:
The preference estimation unit 14 calculates the following F αβ and estimates that the impression of the subject 100 with respect to the image α is better than the impression with respect to the image β when F αβ > 0.5, and F αβ <0.5. In this case, it is estimated that the impression of the subject 100 on the image β is better than the impression of the image α (or the impression of the subject 100 on the image α is worse than the impression of the image β). When F αβ = 0.5, it may be estimated that the impression of the subject 100 with respect to the image α is better than the impression with respect to the image β, may be estimated as bad, or may not be estimated. .

However, as a result of prior learning, f 1 ,..., F m are all 1 when favoring the image α, and f 1 ,..., F m are all 0 when favoring the image β. In order to show the tendency, a reference (reference 11 or reference 21) applied to each k = 1,..., M is determined. Rk is a predetermined weighting factor. For example, the images α and β are simultaneously presented to the learning target person (human) in advance learning as described above, and a plurality of f k samples obtained at that time and the corresponding answers of the learning target person ( I prefer the image alpha: 1, prefer the image beta: 0) in advance to obtain a correlation coefficient between the sample and the correlation coefficient r k. The learning target person need not be the same person as the target person 100 whose impression is actually estimated.

具体例2:
事前学習において、学習用対象者に前述のように画像α,βを同時に呈示し、その際に得られた複数の(f,…,f)のサンプルをk−means等によってクラスタリングしておき、学習用対象者が「画像αが画像βよりも好ましい」と回答したときの(f,…,f)のサンプルが属する頻度の高いクラスタCの中心ベクトルcvからの距離に基づいて、印象が未知の画像に対する印象の推定が行われてもよい。例えば、特徴量抽出部13が抽出した第1特徴量列(α,…,α)と第2特徴量列(β,…,β)とを用いて得られた(f,…,f)と中心ベクトルcvとの距離をd(f,…,f)とする。嗜好推定部14は、d(f,…,f)が所定の閾値以下のときに、対象者100の画像αに対する印象が画像βに対する印象よりも良いと推定し、そうでないときに対象者100の画像βに対する印象が画像αに対する印象よりも良いと推定する。その他、SVMを用いてもよい。SVMを用いることにより、学習用対象者が「画像αが画像βよりも好ましい(印象が良い)」と回答したときの(f,…,f)のサンプルによる点群が属する空間と、画像βが画像αよりも好ましいと回答したときの(f,…,f)のサンプルによる点群が属する空間とを分離する超平面を事前に求めることができる。この場合、特徴量抽出部13が抽出した第1特徴量列(α,…,α)と第2特徴量列(β,…,β)とを用いて得られた(f,…,f)がいずれの空間に属するかによって、印象が未知の画像に対する印象を推定できる。
Example 2:
In the pre-learning, the images α and β are simultaneously presented to the learning target person as described above, and a plurality of (f 1 ,..., F m ) samples obtained at that time are clustered by k-means or the like. In addition, based on the distance from the center vector cv of the cluster C to which the sample of (f 1 ,..., F m ) to which the learning subject replied that “the image α is preferable to the image β” replied. The impression may be estimated for an image with an unknown impression. For example, (f 1 ,..., Β m ) obtained using the first feature amount sequence (α 1 ,..., Α m ) and the second feature amount sequence (β 1 ,..., Β m ) extracted by the feature amount extraction unit 13. .., F m ) and the center vector cv are d (f 1 ,..., F m ). The preference estimation unit 14 estimates that the impression of the subject 100 with respect to the image α is better than the impression with respect to the image β when d (f 1 ,..., F m ) is equal to or less than a predetermined threshold, and the target when it is not It is estimated that the impression of the person 100 with respect to the image β is better than the impression with respect to the image α. In addition, SVM may be used. By using the SVM, the space to which the point cloud by the sample of (f 1 ,..., F m ) when the learning subject replied that “the image α is preferable to the image β (good impression)” belongs, It is possible to obtain in advance a hyperplane that separates the space to which the point cloud by the sample of (f 1 ,..., F m ) when the image β is preferable to the image α. In this case, the first feature amount sequence (α 1 ,..., Α m ) and the second feature amount sequence (β 1 ,..., Β m ) extracted by the feature amount extraction unit 13 are obtained (f 1 ,..., F m ) can be estimated based on which space the impression belongs to.

《推定方法2》
嗜好推定部14が、特徴量抽出部13が抽出した第1特徴量と第2特徴量との大小関係または相違の度合いに基づいて、対象者100の画像αおよび画像βの少なくとも何れかに対する相対的な印象を推定してもよい。
<< Estimation method 2 >>
Based on the magnitude relationship or the degree of difference between the first feature value and the second feature value extracted by the feature value extraction unit 13, the preference estimation unit 14 is relative to at least one of the image α and the image β of the target person 100. A typical impression may be estimated.

あるいは、事前学習において、人間が好みの画像を注視したときに得られた特徴量の集合と、好みではない画像を注視したときに得られた特徴量の集合と、からなるサンプルをk−means等によってクラスタリングしておき、その結果を用いて第1特徴量および第2特徴量のいずれが好ましい印象に対応する特徴量であるかが判断されてもよい。例えば、好みの画像を注視したときに得られた特徴量が属する可能性の高いクラスタの中心(中心ベクトル)からの距離に基づいて、いずれの画像が他方よりも好まれているかを推定してもよい。すなわち第1特徴量および第2特徴量のうち、このクラスタの中心からの距離が近い方の特徴量に対応する画像の方が他方の画像よりも好まれていると推定されてもよい。その他、SVMを用いてもよい。この場合には、学習用対象者が好みの画像を注視したときに得られた特徴量のサンプルによる点群が属する空間と、学習用対象者が嫌いな画像を注視したときに得られた特徴量のサンプルによる点群が属する空間と、を分離する超平面を事前に求めておく。そして、特徴量抽出部13が抽出した第1特徴量および第2特徴量がいずれの空間に属するかを判定したり、超平面との距離を比較したりして、対象者100の画像αおよび画像βの少なくとも何れかに対する印象が推定される。   Alternatively, in pre-learning, a sample including a set of feature amounts obtained when a human gazes at a favorite image and a set of feature amounts obtained when a non-preferred image is watched is k-means. For example, clustering may be performed, and it may be determined using the result whether the first feature value or the second feature value is a feature value corresponding to a preferable impression. For example, based on the distance from the center (center vector) of the cluster to which the feature value obtained when looking at a favorite image is likely to belong, it is estimated which image is preferred over the other Also good. That is, it may be estimated that the image corresponding to the feature amount with the shorter distance from the center of the cluster among the first feature amount and the second feature amount is preferred over the other image. In addition, SVM may be used. In this case, the feature obtained when the learning target person gazes at the space to which the point cloud by the feature amount sample obtained when the learning target person gazes at the favorite image and the learning target person dislikes The hyperplane that separates the space to which the point cloud of the quantity sample belongs is obtained in advance. Then, by determining which space the first feature value and the second feature value extracted by the feature value extraction unit 13 belong to, or comparing the distance to the hyperplane, the image α of the subject 100 and An impression on at least one of the images β is estimated.

《推定方法3》
第1特徴量および第2特徴量の何れか、および比較特徴量列に基づいて、対象者100の画像αおよび画像βの少なくとも何れかに対する相対的な印象を推定してもよい。例えば、事前学習において、学習用対象者に前述のように画像α,βを同時に呈示し、その際に得られた第1特徴量、第2特徴量、および比較特徴量列からなるベクトルのサンプルをk−means等によってクラスタリングしておき、学習用対象者が「画像αが画像βよりも好ましい」と回答したときのサンプルが属する頻度の高いクラスタCの中心ベクトルcvからの距離に基づいて、印象の推定が行われてもよい。例えば、特徴量抽出部13が抽出した第1特徴量、第2特徴量、およびそれらに対応する比較特徴量列からなるベクトルと中心ベクトルcvとの距離をdとする。嗜好推定部14は、dが所定の閾値以下のときに、対象者100の画像αに対する印象が画像βに対する印象よりも良いと推定し、そうでないときに対象者100の画像βに対する印象が画像αに対する印象よりも良いと推定する。その他、SVMを用いてもよい。この場合には、学習用対象者が「画像αが画像βよりも好ましい」と回答したときの第1特徴量、第2特徴量、および比較特徴量列からなるベクトルのサンプルによる点群が属する空間と、画像βが画像αよりも好ましいと回答したときの第1特徴量、第2特徴量、および比較特徴量列からなるベクトルのサンプルによる点群が属する空間と、を分離する超平面を事前に求めておく。そして、特徴量抽出部13が抽出した第1特徴量、第2特徴量、およびそれらに対応する比較特徴量列からなるベクトルがいずれの空間に属するかによって、印象の推定が行われる。
<< Estimation method 3 >>
Based on one of the first feature value and the second feature value, and the comparison feature value sequence, a relative impression of at least one of the image α and the image β of the subject 100 may be estimated. For example, in the pre-learning, the samples α and β are simultaneously presented to the learning target person as described above, and a vector sample including the first feature value, the second feature value, and the comparison feature value sequence obtained at that time is obtained. Are clustered by k-means or the like, and based on the distance from the center vector cv of the cluster C to which the sample belongs frequently when the learning subject replies that “the image α is preferable to the image β”, Impression estimation may be performed. For example, let d be the distance between the vector consisting of the first feature value, the second feature value, and the corresponding comparison feature value sequence extracted by the feature value extraction unit 13 and the center vector cv. The preference estimation unit 14 estimates that the impression of the subject 100 with respect to the image α is better than the impression with respect to the image β when d is equal to or less than a predetermined threshold, and otherwise the impression of the subject 100 with respect to the image β is an image. Estimated to be better than the impression of α. In addition, SVM may be used. In this case, the point group by the sample of the vector consisting of the first feature value, the second feature value, and the comparison feature value sequence when the learning subject replied that “the image α is preferable to the image β” belongs. A hyperplane that separates a space and a space to which a point group based on a vector sample composed of a first feature value, a second feature value, and a comparison feature value sequence when the image β is preferred to the image α belongs Ask in advance. Then, impression estimation is performed depending on which space the vector composed of the first feature value, the second feature value, and the corresponding comparison feature value sequence extracted by the feature value extraction unit 13 belongs.

<実験結果>
本実施形態の効果を確認するための実験結果を示す。この実験では5名の対象者に対して各2セッションの試験が行われた。ただし、10セッションのうち1セッションは教示不理解のため排除した。各セッションでは比較対象となるペア画像(画像α,βを左右に並べて配置)を呈示した(図3B)。人種4条件×年齢2条件×性別2条件の合計16種類の顔の画像をそれぞれ5個ずつ用いて80枚のペア画像を生成した。各試験では、対象者がペア画像を見比べ、左右に配置されたボタンを押すことによって好きな方の顔を回答した。この際に対象者の目の動的な変化に基づく特徴量を抽出した。これらの合計720回の試行のうち不良試行を排除し、661回の試行を対象に比較特徴量列と回答結果との関係を解析した。
<Experimental result>
The experimental result for confirming the effect of this embodiment is shown. In this experiment, 5 subjects were tested for 2 sessions each. However, 1 out of 10 sessions was excluded because of incomprehension of teaching. In each session, a pair image to be compared (images α and β are arranged side by side) was presented (FIG. 3B). Eighty pair images were generated using a total of 16 types of face images of 4 types of race x 2 conditions of age x 2 conditions of sex. In each test, the subject compared the pair images, and answered the face of the favorite person by pressing the buttons arranged on the left and right. At this time, feature quantities based on dynamic changes in the eyes of the subject were extracted. Of these 720 trials in total, defective trials were excluded, and the relationship between the comparative feature string and the answer results was analyzed for 661 trials.

解析では以下のf,…,fからなる比較特徴量列(f,…,f)を計算した。
[注視]
:ボタン押しの直前に対象者が左右いずれの画像領域を見ていたか(左:1,右:0)
:画像呈示中に左右どちらの画像領域の注視時間が長かったか(同上)
:ボタン押し直前500msに左右どちらの画像領域の注視時間が長かったか(同上)
[マイクロサッカード]
:左右どちらの画像領域を注視しているときにマイクロサッカードの発生頻度が高かったか(同上)
:左右どちらの画像領域を注視しているときにマイクロサッカードの固有角振動数が大きかったか(同上)
ただし、振幅が視野角2度以下のものをマイクロサッカードとし、ラージサッカードは含まない。
[ラージサッカード]
:左右どちらの画像領域を到達点とするラージサッカードが多かったか(同上)
[散瞳]
:左右どちらの画像領域を注視しているときに散瞳の発生頻度が長かったか(同上)
:左右どちらの画像領域を注視しているときに散瞳の振幅が大きかったか(同上)
:左右どちらの画像領域を注視しているときに散瞳の持続時間が長かったか(同上)
F 1 of the following analysis, ..., compared feature amount sequence consisting of f 9 (f 1, ..., f 9) was calculated.
[Gaze]
f 1 : Whether the subject was viewing the left or right image area immediately before the button was pressed (left: 1, right: 0)
f 2 : Which of the left and right image areas was long during the image presentation (same as above)
f 3 : Which of the left and right image areas is long in 500 ms immediately before the button is pressed (same as above)
[Microsaccade]
f 4 : Whether the incidence of microsaccade is high when observing the left or right image area (same as above)
f 5 : Whether the natural angular frequency of the microsaccade was large when gazing at the left or right image area (same as above)
However, microsaccades whose amplitude is a viewing angle of 2 degrees or less are included, and large saccades are not included.
[Large Saccade]
f 6 : Which side of the image area was the large saccade with the arrival point as the destination (same as above)
[Mydriasis]
f 7 : Whether the incidence of mydriasis was long when gazing at the left or right image area (same as above)
f 8 : Whether the mydriatic amplitude was large when gazing at the left or right image area (same as above)
f 9 : Whether the mydriatic duration was long when gazing at the left or right image area (same as above)

図7に、図6Aおよび図6Bの測定結果に対応する比較特徴量列(f,…,f)を例示する。この例では、ボタン押しの直前に対象者が左の画像領域を見ており(f=1)、画像呈示中に右の画像領域の注視時間の方が長く(f=0)、ボタン押し直前500msに右の画像領域の注視時間の方が長く(f=0)、左の画像領域を注視しているときの方がマイクロサッカードの発生頻度が高く(f=1)、左の画像領域を注視しているときのほうがマイクロサッカードの固有角振動数が大きく(f=1)、左の画像領域を到達点とするラージサッカードの方が多く(f=1)、左の画像領域を注視しているときの方が散瞳の発生頻度が長く(f=1)、左の画像領域を注視しているときの方が散瞳の振幅が大きく(f=1)、右の画像領域を注視しているときの方が散瞳の持続時間が長い(f=1)。この場合の比較特徴量列は(1,0,0,1,1,1,1,1,0)となる。図8Aにf(ただし、k=1,…,9)のサンプルとそれらに対する対象者の回答(画像αを好んでいる:1、画像βを好んでいる:0)のサンプルとの相関係数r(回答との相関係数)、左の画像αを選択した時のfの平均値(左選択時の平均値)、および右の画像βを選択した時のfの平均値(右選択時の平均値)の関係を示す。図8Bに左の画像αを選択した時のfの平均値と右の画像βを選択した時のfの平均値とを例示する。 FIG. 7 exemplifies comparison feature amount sequences (f 1 ,..., F 9 ) corresponding to the measurement results of FIGS. 6A and 6B. In this example, the subject looks at the left image area immediately before the button is pressed (f 1 = 1), and the gaze time of the right image area is longer during the image presentation (f 2 = 0). The gaze time of the right image area is longer (f 3 = 0) at 500 ms immediately before pressing, and the occurrence frequency of microsaccade is higher when the left image area is gaze (f 4 = 1). When gazing at the left image area, the natural angular frequency of the microsaccade is larger (f 5 = 1), and there are more large saccades with the left image area as the arrival point (f 6 = 1). ), The frequency of mydriasis is higher when gazing at the left image area (f 7 = 1), and the amplitude of mydriasis is larger when gazing at the left image area (f 8 = 1), the duration of mydriasis is longer when looking at the right image region (f 9 = 1). In this case, the comparison feature quantity sequence is (1, 0, 0, 1, 1, 1, 1, 1, 0). FIG. 8A shows the relationship between the sample of f k (where k = 1,..., 9) and the sample of the subject's answer (preferred image α: 1, prefer image β: 0). Number r k (correlation coefficient with answer), average value of f k when left image α is selected (average value when left image is selected), and average value of f k when right image β is selected (Average value when right selection) is shown. Illustrating that a mean value of f k at the time of selecting the average value and the right image β of f k at the time of selecting the left image α in Figure 8B.

推定方法1の具体例1によって印象を推定した結果の回答内容に対する評価は以下の通りである。
推定精度:83.4%
このように、高い精度で対象者の画像に対する好みを推定することができた。
Evaluation of the answer contents as a result of estimating the impression by the specific example 1 of the estimation method 1 is as follows.
Estimated accuracy: 83.4%
Thus, it was possible to estimate the preference of the subject for the image with high accuracy.

[第1実施形態の変形例1]
印象推定装置10は、画像呈示部11及び眼球情報取得部12を含まなくともよい。すなわち、画像呈示部11及び眼球情報取得部12の少なくとも1つを別装置として構成し、別装置から時間区間ごとの画像及び眼球の位置情報の少なくとも1つを受け取る構成としてもよい。
[First Modification of First Embodiment]
The impression estimation device 10 may not include the image presentation unit 11 and the eyeball information acquisition unit 12. That is, at least one of the image presentation unit 11 and the eyeball information acquisition unit 12 may be configured as a separate device, and at least one of the image and the position information of the eyeball for each time interval may be received from the separate device.

[第1実施形態の変形例2]
図9は画像α,βの領域と対象者100の視線の移動との関係を例示しており、t〜t13は時間を表している。対象者100は画像αと画像βとの間で視線を移動させ、これらの画像を見比べる。ここで「第1特徴量」の何れかが画像αを注視する対象者100の眼球の動きに表れるマイクロサッカードの特徴に対応し、「第2特徴量」の何れかが画像βを注視する対象者100の眼球の動きに表れるマイクロサッカードの特徴に対応する場合、これらのマイクロサッカードの特徴が、画像αおよび画像βを通る直線Lの法線成分Nの眼球の動きに表れる特徴を含んでもよい。あるいは、このようなマイクロサッカードの特徴が法線成分Nの眼球の動きに表れる特徴のみを含んでいてもよい。これにより、画像αと画像βとの間での視線移動(ラージサッカードなど)の影響を受けにくい方向成分のマイクロサッカードの特徴を利用できる。なお直線Lの例は、画像αの重心と画像βの重心とを通る直線である。
[Modification 2 of the first embodiment]
FIG. 9 illustrates the relationship between the regions of the images α and β and the movement of the line of sight of the subject 100, and t 0 to t 13 represent time. The subject 100 moves the line of sight between the image α and the image β, and compares these images. Here, one of the “first feature amount” corresponds to the feature of the microsaccade that appears in the movement of the eyeball of the subject 100 who is gazing at the image α, and one of the “second feature amount” is gazing at the image β. When the features of the microsaccade appearing in the movement of the eyeball of the subject 100 correspond to the features of the microsaccade, the features of the microsaccade appearing in the eyeball movement of the normal component N of the straight line L passing through the images α and β. May be included. Alternatively, such features of the microsaccade may include only features that appear in the movement of the normal component N eyeball. This makes it possible to use the microsaccade feature of the directional component that is not easily affected by line-of-sight movement (such as large saccade) between the image α and the image β. An example of the straight line L is a straight line passing through the center of gravity of the image α and the center of gravity of the image β.

[第2実施形態]
第1実施形態では2つの画像α,βを同時に呈示し、対象者100が画像αを注視するときの第1特徴量と画像βを注視するときの第2特徴量を用い、画像α,βの相対的な印象を推定した。本形態では、1つの画像αのみを呈示し、対象者100が画像αを注視するときの第1特徴量と、対象者100が画像α以外の領域を見ているときの第2特徴量とを用いて画像αの印象を推定する。
[Second Embodiment]
In the first embodiment, two images α and β are presented simultaneously, and the first feature amount when the subject 100 gazes at the image α and the second feature amount when the subject 100 gazes at the image β are used, and the images α and β are used. The relative impression of was estimated. In the present embodiment, only one image α is presented, the first feature amount when the subject 100 gazes at the image α, and the second feature amount when the subject 100 is looking at a region other than the image α, Is used to estimate the impression of the image α.

<印象推定装置の構成および動作>
図1に示すように、本実施形態の印象推定装置20は、画像呈示部21、眼球情報取得部12、特徴量抽出部23、および嗜好推定部24を含む。
<Configuration and operation of impression estimation device>
As shown in FIG. 1, the impression estimation device 20 of the present embodiment includes an image presentation unit 21, an eyeball information acquisition unit 12, a feature amount extraction unit 23, and a preference estimation unit 24.

《画像呈示部21》
画像呈示部21は、所定の時間区間τにおいて、背景(Notα)に配置された1つの画像α(第1の像)を対象者100の視野内に呈示する(S21)。例えば、対象者100の正面に設置したモニターに、観察可能な時間の長さで、背景内に配置された画像αを呈示する。図10Aおよび図10Bの例では、モニターの背景内の領域に1つの画像αを呈示する。
<< Image Presentation Unit 21 >>
The image presenting unit 21 presents one image α (first image) arranged in the background (Notα) in the field of view of the subject 100 in a predetermined time interval τ (S21). For example, the image α arranged in the background is presented on a monitor installed in front of the subject 100 for a observable length of time. In the example of FIGS. 10A and 10B, one image α is presented in an area within the background of the monitor.

《眼球情報取得部22》
眼球情報取得部22は、時間区間τにおける、対象者100の目の動的な変化に関する情報を取得する(S22)。眼球情報取得部22は、取得した目の動的な変化に関する情報を特徴量抽出部23へ出力する。
<< Eyeball information acquisition unit 22 >>
The eyeball information acquisition unit 22 acquires information regarding the dynamic change of the eye of the subject 100 in the time interval τ (S22). The eyeball information acquisition unit 22 outputs the acquired information regarding the dynamic change of the eye to the feature amount extraction unit 23.

《特徴量抽出部23》
特徴量抽出部23は、取得した目の動的な変化に関する情報から、画像αを注視する対象者100の目の動的な変化に基づく特徴を一つ以上含む第1特徴量、および、画像α以外の領域を見ている対象者100の目の動的な変化に基づく特徴を一つ以上含む第2特徴量を抽出する(S23)。言い換えると、特徴量抽出部13は、対象者100が画像αを注視する第1時間区間での目の動的な変化に基づく特徴を一つ以上含む第1特徴量(第1時間区間での特徴量)、および、対象者100が画像α以外の領域を見ている第2時間区間での目の動的な変化に基づく特徴を一つ以上含む第2特徴量(第2時間区間での特徴量)を抽出する。特徴量抽出部23は、抽出した第1特徴量および第2特徴量を嗜好推定部24に出力する。
<< Feature Extraction Unit 23 >>
The feature amount extraction unit 23 includes a first feature amount including one or more features based on the dynamic change of the eye of the target person 100 watching the image α from the acquired information on the dynamic change of the eye, and the image A second feature amount including one or more features based on a dynamic change of the eye of the subject 100 who is looking at a region other than α is extracted (S23). In other words, the feature amount extraction unit 13 includes a first feature amount (one or more features in the first time interval) that includes one or more features based on dynamic changes in the eyes in the first time interval in which the subject 100 gazes at the image α. Feature amount) and a second feature amount (one or more features based on the dynamic change of the eyes in the second time interval in which the subject 100 is viewing the region other than the image α). (Feature amount) is extracted. The feature quantity extraction unit 23 outputs the extracted first feature quantity and second feature quantity to the preference estimation unit 24.

《嗜好推定部24》
嗜好推定部24は、第1特徴量と第2特徴量とに基づいて、対象者100の画像αの画像α以外の領域に対する相対的な印象を推定し、その推定結果を表す情報を出力する(S24)。例えば、前述した嗜好推定部14の処理の「画像β」を「画像α以外の領域」に置換した方法を利用できる。
<< Preference estimation unit 24 >>
The preference estimation unit 24 estimates a relative impression of the target person 100 with respect to a region other than the image α based on the first feature amount and the second feature amount, and outputs information representing the estimation result. (S24). For example, a method in which “image β” in the processing of the preference estimation unit 14 described above is replaced with “region other than image α” can be used.

[第2実施形態の変形例1]
印象推定装置20は、画像呈示部21及び眼球情報取得部12を含まなくともよい。すなわち、画像呈示部21及び眼球情報取得部12の少なくとも1つを別装置として構成し、別装置から時間区間ごとの画像及び眼球の位置情報の少なくとも1つを受け取る構成としてもよい。
[Modification 1 of the second embodiment]
The impression estimation device 20 may not include the image presentation unit 21 and the eyeball information acquisition unit 12. That is, at least one of the image presentation unit 21 and the eyeball information acquisition unit 12 may be configured as a separate device, and at least one of the image and the position information of the eyeball for each time interval may be received from the separate device.

[第3実施形態]
第1実施形態では2つの画像α,βを同時に呈示したが、画像αを呈示する第1時間区間で得られた第1特徴量と、何も呈示しない(背景のみを呈示する)第2時間区間で得られた第2特徴量とを用い、画像αの印象を推定してもよい。
[Third Embodiment]
In the first embodiment, the two images α and β are presented at the same time. However, the first feature amount obtained in the first time interval in which the image α is presented and the second time in which nothing is presented (only the background is presented). The impression of the image α may be estimated using the second feature value obtained in the section.

<印象推定装置の構成および動作>
図1に示すように、本実施形態の印象推定装置30は、画像呈示部31、眼球情報取得部12、特徴量抽出部33、および嗜好推定部34を含む。
<Configuration and operation of impression estimation device>
As shown in FIG. 1, the impression estimation device 30 of the present embodiment includes an image presentation unit 31, an eyeball information acquisition unit 12, a feature amount extraction unit 33, and a preference estimation unit 34.

《画像呈示部31》
図11Aに例示するように、画像呈示部31は、例えば、第1時間区間で画像α(第1の像)を対象者100の視野内に呈示し、第1時間区間以外の第2時間区間で画像αを非呈示とする。なお、図11Aの例では、第1時間区間の後に第2時間区間が位置しているが、第2時間区間の後に第1時間区間が位置していてもよい。
<< Image Presentation Unit 31 >>
As illustrated in FIG. 11A, for example, the image presentation unit 31 presents the image α (first image) in the field of view of the subject 100 in the first time interval, and the second time interval other than the first time interval. The image α is not presented. In the example of FIG. 11A, the second time interval is located after the first time interval, but the first time interval may be located after the second time interval.

《眼球情報取得部12》
眼球情報取得部12は、第1時間区間および第2時間区間を含む時間区間τにおける、対象者100の目の動的な変化に関する情報を取得する(S12)。眼球情報取得部12は、取得した目の動的な変化に関する情報を特徴量抽出部33へ出力する。
<< Eyeball information acquisition unit 12 >>
The eyeball information acquisition unit 12 acquires information regarding the dynamic change of the eye of the subject 100 in the time interval τ including the first time interval and the second time interval (S12). The eyeball information acquisition unit 12 outputs the acquired information regarding the dynamic change of the eye to the feature amount extraction unit 33.

《特徴量抽出部33》
特徴量抽出部33は、取得した目の動的な変化に関する情報から、第1時間区間での目の動的な変化に基づく特徴を一つ以上含む第1特徴量(第1時間区間での特徴量)、および、第2時間区間での目の動的な変化に基づく特徴を一つ以上含む第2特徴量(第2時間区間での特徴量)を抽出する。特徴量抽出部33は、抽出した第1特徴量および第2特徴量を嗜好推定部34に出力する。
<< Feature Extraction Unit 33 >>
The feature amount extraction unit 33 obtains a first feature amount including one or more features based on the dynamic change of the eye in the first time interval (from the information on the dynamic change of the eye in the first time interval). Feature amount) and a second feature amount (feature amount in the second time interval) including one or more features based on dynamic changes in the eyes in the second time interval. The feature quantity extraction unit 33 outputs the extracted first feature quantity and second feature quantity to the preference estimation unit 34.

《嗜好推定部34》
嗜好推定部34は、第1特徴量と第2特徴量とに基づいて、対象者100の画像αの画像α以外の領域に対する相対的な印象を推定し、その推定結果を表す情報を出力する(S34)。
<< Preference estimation unit 34 >>
The preference estimation unit 34 estimates a relative impression of the target person 100 with respect to a region other than the image α based on the first feature amount and the second feature amount, and outputs information representing the estimation result. (S34).

[第3実施形態の変形例1]
印象推定装置30は、画像呈示部31及び眼球情報取得部12を含まなくともよい。すなわち、画像呈示部31及び眼球情報取得部12の少なくとも1つを別装置として構成し、別装置から時間区間ごとの画像及び眼球の位置情報の少なくとも1つを受け取る構成としてもよい。
[Modification 1 of the third embodiment]
The impression estimation device 30 may not include the image presentation unit 31 and the eyeball information acquisition unit 12. That is, at least one of the image presentation unit 31 and the eyeball information acquisition unit 12 may be configured as a separate device, and at least one of the image and the position information of the eyeball for each time interval may be received from the separate device.

[第3実施形態の変形例2]
図11Bに例示するように、第1時間区間で画像αを呈示し、第2時間区間で画像β(第2の像)を呈示し、第1時間区間での目の動的な変化に基づく特徴を一つ以上含む第1特徴量、および、第2時間区間での目の動的な変化に基づく特徴を一つ以上含む第2特徴量に基づき、対象者100の画像αおよび画像βの少なくとも何れかに対する相対的な印象を推定してもよい。
[Modification 2 of the third embodiment]
As illustrated in FIG. 11B, the image α is presented in the first time interval, the image β (second image) is presented in the second time interval, and based on the dynamic change of the eyes in the first time interval. Based on the first feature amount including one or more features and the second feature amount including one or more features based on dynamic changes of eyes in the second time interval, the images α and β of the subject 100 You may estimate the relative impression with respect to at least one.

[第3実施形態の変形例3]
図12Aに例示するように、画像αを呈示する第1時間区間と何も呈示しない(背景のみを呈示する)第2時間区間とを交互に複数回繰り返し、第1時間区間で得られた第1特徴量と第2時間区間で得られた第2特徴量とを用い、画像αの印象を推定してもよい。あるいは、図12Bに例示するように、画像αを呈示する第1時間区間と画像βを呈示する第2時間区間とを交互に複数回繰り返し、第1時間区間での目の動的な変化に基づく特徴を一つ以上含む第1特徴量、および、第2時間区間での目の動的な変化に基づく特徴を一つ以上含む第2特徴量に基づき、対象者100の画像αおよび画像βの少なくとも何れかに対する相対的な印象を推定してもよい。時間の経過にともなって対象者100の状態(疲労など)や周辺環境が変化することがあり、呈示された画像以外の要因(外乱)によって対象者100の目の運動が変化する場合がある。このような場合でも、第1時間区間と第2時間区間とを交互に複数回繰り返すことで外乱が第1特徴量と第2特徴量とに与える影響を平坦化できる。なお、第1特徴量は複数の第1時間区間で得られた特徴量を平均したものや加算したものであってもよいし、複数の第1時間区間で得られた特徴量を並べたベクトルであってもよい。第2特徴量も複数の第2時間区間で得られた特徴量を平均したものや加算したものであってもよいし、複数の第2時間区間で得られた特徴量を並べたベクトルであってもよい。
[Modification 3 of the third embodiment]
As illustrated in FIG. 12A, the first time interval in which the image α is presented and the second time interval in which nothing is presented (only the background is presented) are alternately repeated a plurality of times, and the first time interval obtained in the first time interval is obtained. The impression of the image α may be estimated using one feature value and the second feature value obtained in the second time interval. Alternatively, as illustrated in FIG. 12B, the first time interval presenting the image α and the second time interval presenting the image β are alternately repeated a plurality of times, and the dynamic change of the eyes in the first time interval is achieved. The image α and the image β of the subject 100 based on the first feature amount including one or more features based on the second feature amount based on the first feature amount based on the dynamic change of the eyes in the second time interval. You may estimate the relative impression with respect to at least one of these. The state of the subject 100 (such as fatigue) and the surrounding environment may change over time, and the eye movement of the subject 100 may change due to factors (disturbances) other than the presented image. Even in such a case, the influence of the disturbance on the first feature quantity and the second feature quantity can be flattened by alternately repeating the first time section and the second time section a plurality of times. Note that the first feature value may be an average or a sum of feature values obtained in a plurality of first time intervals, or a vector in which feature values obtained in a plurality of first time intervals are arranged. It may be. The second feature amount may be an average or addition of feature amounts obtained in a plurality of second time intervals, or may be a vector in which feature amounts obtained in a plurality of second time intervals are arranged. May be.

[第4実施形態]
第1から3の実施形態では、画像αを注視する対象者100の目の動的な変化に基づく第1特徴量と、画像αを注視しない(画像βなどの画像α以外の領域を注視するか、特定の領域への注視が想定されない)対象者100の目の動的な変化に基づく第2特徴量とを用い、少なくとも画像αに対する印象を推定した。本形態では、画像αを注視する対象者100の目の動的な変化基づく第1特徴量のみを用い、当該画像αに対する印象を推定する。
[Fourth Embodiment]
In the first to third embodiments, the first feature amount based on the dynamic change of the eyes of the subject 100 who watches the image α and the image α are not watched (the region other than the image α such as the image β is watched. Or the second feature amount based on the dynamic change of the eye of the subject 100 is estimated using at least an impression on the image α. In this embodiment, the impression with respect to the image α is estimated using only the first feature amount based on the dynamic change of the eye of the subject 100 gazing at the image α.

<印象推定装置の構成および動作>
図1に例示するように、本実施形態の印象推定装置40は、画像呈示部41、眼球情報取得部12、特徴量抽出部43、嗜好推定部44、およびモデル記憶部45を有する。本実施形態では、モデル記憶部25を参照することにより、対象者にとっての画像の印象を推定する。
<Configuration and operation of impression estimation device>
As illustrated in FIG. 1, the impression estimation device 40 of the present embodiment includes an image presentation unit 41, an eyeball information acquisition unit 12, a feature amount extraction unit 43, a preference estimation unit 44, and a model storage unit 45. In the present embodiment, the impression of the image for the target person is estimated by referring to the model storage unit 25.

《画像呈示部41》
画像呈示部41は画像αのみを呈示する。
<< Image Presentation Unit 41 >>
The image presentation unit 41 presents only the image α.

《眼球情報取得部12》
眼球情報取得部12は、画像αが呈示された時間区間τにおける、対象者100の目の動的な変化に関する情報を取得する(S12)。眼球情報取得部12は、取得した目の動的な変化に関する情報を特徴量抽出部43へ出力する。
<< Eyeball information acquisition unit 12 >>
The eyeball information acquisition unit 12 acquires information related to the dynamic change of the eye of the subject 100 in the time interval τ in which the image α is presented (S12). The eyeball information acquisition unit 12 outputs the acquired information regarding the dynamic change of the eyes to the feature amount extraction unit 43.

《特徴量抽出部43》
特徴量抽出部43は、対象者100の目の動的な変化に関する情報を受け取り、それらから対象者100の目の動的な変化に基づく特徴量を抽出し(ステップS43)、嗜好推定部44に出力する。特徴量の例は、第1実施形態で例示した特徴量の何れかや、それらの複数の特徴量を要素とするベクトル(特徴量ベクトル)である。例えば、マイクロサッカードの減衰係数ζ、減衰率λ、発生頻度Pの少なくとも何れか1つ以上を含む特徴量を抽出する。あるいは、マイクロサッカードの減衰係数ζ、減衰率λ、発生頻度Pの少なくとも何れか1つに加えて、以下の値を要素として含む特徴量ベクトルを特徴量として抽出しても良い(図4及)。
(1)基準振幅A:マイクロサッカードによる眼球の動きが収束したときの移動量。
(2)最大速度Vmax:基準振幅A+オーバーシュートの振幅Aoに達するまでの最大の速度。
(3)立ち上がり時間Tp:基準振幅A+オーバーシュートの振幅Aoに達する(立ち上がる)までにかかる時間である。なお、基準振幅A+オーバーシュートの振幅Aoの値は、最大速度Vmaxからオーバーシュートの速度Voに達するまでにかかる時間と同じ値となる。
(4)オーバーシュート(overshoot)の振幅Ao:マイクロサッカードによって基準振幅Aを超過した(行き過ぎた)部分の量である。オーバーシュートとは、波形の立ち上がり部分で、波形が基準振幅Aを超えて突出する現象、または、その突出した波形である。言い換えると、オーバーシュートの振幅とは、突出した部分の量である。
(5)オーバーシュートの速度Vo:基準振幅A+オーバーシュートの振幅Aoから基準振幅Aに収束しようとする際の最大の速度である。
(6)マイクロサッカードの前後のドリフトの速度Vd:ドリフトとは、前述の通り、固視微動の一つであり、人がある一点を注視しているときの眼球の小さな滑らかな動きのことである。
<< Feature Extraction Unit 43 >>
The feature amount extraction unit 43 receives information regarding the dynamic change of the eye of the subject 100, extracts a feature amount based on the dynamic change of the eye of the subject 100 from the information (step S43), and the preference estimation unit 44. Output to. Examples of feature amounts are any of the feature amounts exemplified in the first embodiment, or a vector (feature amount vector) having the plurality of feature amounts as elements. For example, a feature amount including at least one of the attenuation coefficient ζ, the attenuation rate λ, and the occurrence frequency P of the microsaccade is extracted. Alternatively, in addition to at least one of the attenuation coefficient ζ, attenuation rate λ, and occurrence frequency P of the microsaccade, a feature amount vector including the following values as elements may be extracted as the feature amount (see FIG. 4). ).
(1) Reference amplitude A: A movement amount when the movement of the eyeball by the microsaccade converges.
(2) Maximum speed V max : Maximum speed until the reference amplitude A + overshoot amplitude A o is reached.
(3) Rise time T p : Time required to reach (rise) the reference amplitude A + the overshoot amplitude A o . The value of the reference amplitude A + overshoot amplitude A o is the same value as the time it takes from the maximum velocity V max reach speeds V o overshoot.
(4) Overshoot amplitude A o : The amount of the portion that exceeds (overshoots) the reference amplitude A by the microsaccade. The overshoot is a phenomenon in which the waveform protrudes beyond the reference amplitude A at the rising portion of the waveform, or the protruding waveform. In other words, the overshoot amplitude is the amount of the protruding portion.
(5) Overshoot speed V o : This is the maximum speed when attempting to converge from the reference amplitude A + the overshoot amplitude A o to the reference amplitude A.
(6) Velocity of drift before and after microsaccade V d : Drift is one of fixed eye movements as described above, and is the small smooth movement of the eyeball when a person is gazing at a certain point. That is.

《嗜好推定部44》
嗜好推定部44は、特徴量を受け取り、その特徴量に基づいて、画像αに対する印象を推定する(S44)。本実施形態では、抽出された特徴量から嗜好推定モデルを用いて(参照することにより)、印象を推定し、出力する。言い換えれば、嗜好推定部44は、特徴量抽出部43で抽出した特徴量を、モデル記憶部45に記憶された嗜好推定モデル(特徴量から印象を推定するためのモデル)にあてはめることにより、印象を推定する。
<< Preference estimation unit 44 >>
The preference estimation unit 44 receives the feature amount, and estimates an impression with respect to the image α based on the feature amount (S44). In the present embodiment, an impression is estimated and output from the extracted feature amount using a preference estimation model (by reference). In other words, the preference estimation unit 44 applies the feature amount extracted by the feature amount extraction unit 43 to a preference estimation model (a model for estimating an impression from the feature amount) stored in the model storage unit 45, thereby obtaining an impression. Is estimated.

《モデル記憶部45》
モデル記憶部45は、特徴量を入力として、印象を出力するような嗜好推定モデルが予め記録されている。嗜好推定モデルは、予め1人以上の人について取得した特徴量と印象との関係性を機械学習法により学習することで、作成される。つまり、嗜好推定モデルは、特徴量と印象との相関性を記述したモデルである。
<< Model storage unit 45 >>
In the model storage unit 45, a preference estimation model that outputs an impression with a feature amount as an input is recorded in advance. The preference estimation model is created by learning the relationship between the feature amount and impression acquired for one or more people in advance by a machine learning method. That is, the preference estimation model is a model that describes the correlation between the feature amount and the impression.

例えば、学習用に用意した画像を学習用対象者に呈示している間の学習用対象者の眼球の位置の時系列情報を取得し、取得した眼球の位置の時系列情報から、特徴量を抽出する。ここで抽出する特徴量は、特徴量抽出部43で抽出する特徴量と同じとする。また、その画像に対する好き嫌いの度合い(rating)を学習用対象者から取得し、抽出した特徴量と好き嫌いの度合いを組とするデータセットを用意する。   For example, the time series information of the eyeball position of the learning target person is obtained while the image prepared for learning is presented to the learning target person, and the feature amount is obtained from the time series information of the acquired eyeball position. Extract. The feature amount extracted here is the same as the feature amount extracted by the feature amount extraction unit 43. Also, a degree of rating for the image is obtained from the learning target person, and a data set is prepared in which the extracted feature amount and the degree of likes and dislikes are paired.

同様の特徴量抽出を複数の異なる画像について行い、それぞれの画像についての好き嫌いの度合い(rating)と抽出した特徴量を組とするデータセットを学習用データとして取得する。   Similar feature amount extraction is performed on a plurality of different images, and a data set including a set of the extracted feature amount and the degree of likes and dislikes for each image is acquired as learning data.

この学習用データを入力データとし、機械学習法により、印象と特徴量との関係を学習する。例えば、機械学習法としてSVM等がある。この場合は、画像に付与する好き嫌いの度合い(rating)を、好き(1)または嫌い(0)の2値として、特徴量ベクトルの次元に対応する空間において、好きな(印象が良い)ときの特徴量ベクトルに対応する点群と、嫌いな(印象が悪い)ときの特徴量ベクトルに対応する点群とを分離する超平面を求めることができる。これにより、得られる嗜好推定モデルに、好き嫌いが未知の特徴量(特徴量抽出部23で得られた特徴量)を入力すると、その特徴量が「好き」に対応するか、「嫌い」に対応するかを推定することができる。   Using this learning data as input data, the machine learning method is used to learn the relationship between impressions and feature quantities. For example, there is SVM as a machine learning method. In this case, the degree of rating (rating) given to an image is set as a binary value of likes (1) or dislikes (0), and in the space corresponding to the dimension of the feature vector (when the impression is good) It is possible to obtain a hyperplane that separates the point group corresponding to the feature amount vector and the point group corresponding to the feature amount vector when disliked (bad impression). As a result, when a feature amount whose likes and dislikes are unknown (a feature amount obtained by the feature amount extraction unit 23) is input to the obtained preference estimation model, the feature amount corresponds to “like” or corresponds to “dislike” You can estimate what to do.

例えば、減衰係数(ζ),減衰率(λ),発生頻度(P)を単独で、または、それらの組合せを、要素として含むベクトル(特徴量)を用いて、SVMにより学習を行う。また、減衰係数(ζ),減衰率(λ),発生頻度(P)、ドリフトの速度(Vd)、基準振幅(A),オーバーシュートの振幅(Ao), 最大速度(Vmax),オーバーシュートの速度(Vo)を要素として含む特徴量ベクトルを用いて、SVMにより学習を行う。この特徴量ベクトルに、さらに、立ち上がり時間(Tp)を要素として加えても良い。 For example, learning is performed by SVM using a vector (feature value) including an attenuation coefficient (ζ), an attenuation rate (λ), and an occurrence frequency (P) alone or a combination thereof as an element. Also, damping coefficient (ζ), damping rate (λ), frequency of occurrence (P), drift speed (V d ), reference amplitude (A), overshoot amplitude (A o ), maximum speed (V max ), Learning is performed by SVM using a feature vector including the overshoot speed (V o ) as an element. In addition, a rise time (T p ) may be added as an element to this feature quantity vector.

要素の数を増やすことで、推定の精度を高めることができる。
印象が好き/嫌い、の2値分類に限らず、複数クラス(好き嫌いの度合いに対応するクラス)に分類するようにSVMを構成することも可能である。あるいは、複数クラス(好き嫌いの度合いに対応するクラス)識別分類するような機械学習法であれば、SVMに限らず他の機械学習法を用いてもよい。
By increasing the number of elements, the accuracy of estimation can be increased.
The SVM can be configured to be classified into a plurality of classes (classes corresponding to degrees of likes and dislikes), not limited to the binary classification of likes / dislikes impressions. Alternatively, as long as it is a machine learning method that identifies and classifies a plurality of classes (classes corresponding to the degree of likes and dislikes), other machine learning methods are not limited to SVM.

なお、学習用対象者は、実際に印象が推定される対象者100と同一人物である必要はない。また、複数の人について得られた学習データを基に嗜好推定モデルを学習すると、より精度の高い推定を行うことができる。また、対象者毎に、印象に対応して表れる特徴量が異なる場合があるので、学習用対象者を印象の推定を行う対象者100と同一人物として対象者毎に、嗜好推定モデルを作成すれば、個人の特性に合わせたより精度の高い推定を行うことができる。   Note that the learning target person does not need to be the same person as the target person 100 whose impression is actually estimated. Further, when a preference estimation model is learned based on learning data obtained for a plurality of people, more accurate estimation can be performed. In addition, since the feature amount that appears in correspondence with the impression may differ for each target person, a preference estimation model should be created for each target person with the learning target person being the same person as the target person 100 who estimates the impression. For example, it is possible to perform estimation with higher accuracy according to individual characteristics.

[その他の変形例等]
なお、本発明は上述の実施の形態に限定されるものではない。例えば、第4実施形態では、画像αを注視する対象者100の目の動的な変化に基づく第1特徴量のみを用い、これと画像の印象との関係性を記述した嗜好推定モデルを参照することで、当該画像αに対する印象を推定した。しかしながら、第1から3実施形態のように得られた第1特徴量および第2特徴量を用い、第1特徴量および第2特徴量と、画像の印象との関係性を記述した嗜好推定モデルを参照することで、画像αおよび画像βの少なくとも一方に対する印象を推定してもよい。この場合には、学習用に用意した「第1の画像」を学習用対象者に呈示している間の学習用対象者の目の動的な変化に基づく第1特徴量と、「第1の画像」を学習用対象者に呈示していない間の学習用対象者の目の動的な変化に基づく第2特徴量を取得する。ここで抽出する特徴量は、特徴量抽出部43で抽出する特徴量と同じとする。学習用対象者の「第1の画像」に対する好き嫌いの度合い(rating)(「第1の画像」を呈示していない状態に対する「第1の画像」を呈示している状態の好き嫌いの度合い、または、「第2の画像」を呈示している状態に対する「第1の画像」を呈示している状態の好き嫌いの度合い)を学習用対象者から取得し、抽出した第1特徴量および第2特徴量と「第1の画像」に対する好き嫌いの度合いを組とするデータセットを用意する。同様の第1特徴量および第2特徴量の抽出を複数の異なる「第1の画像」について行い、それぞれの「第1の画像」に対する好き嫌いの度合い(rating)と、抽出した第1特徴量および第2特徴量とを組とするデータセットを学習用データとして取得する。この学習用データを入力データとし、機械学習法により、「第1の画像」に対する印象と第1特徴量および第2特徴量との関係を学習する。これにより、得られる嗜好推定モデルに、好き嫌いが未知の第1特徴量および第2特徴量(特徴量抽出部43で得られた第1特徴量および第2特徴量)を入力すると、その第1特徴量および第2特徴量が、呈示された画像αが(例えば、画像βよりも)「好き」であること(画像βが「嫌い」)に対応するか、画像αが(例えば、画像βよりも)「嫌い」に対応するかを推定できる。
[Other variations]
The present invention is not limited to the embodiment described above. For example, in the fourth embodiment, only the first feature amount based on the dynamic change of the eye of the subject 100 who is gazing at the image α is used, and the preference estimation model describing the relationship between this and the impression of the image is referred to. As a result, the impression on the image α was estimated. However, the preference estimation model that describes the relationship between the first feature value and the second feature value and the impression of the image using the first feature value and the second feature value obtained as in the first to third embodiments. , An impression on at least one of the image α and the image β may be estimated. In this case, the first feature amount based on the dynamic change of the eyes of the learning subject while the “first image” prepared for learning is presented to the learning subject, The second feature amount is acquired based on the dynamic change of the eyes of the learning target person during the time when the image of “is not presented to the learning target person”. The feature amount extracted here is the same as the feature amount extracted by the feature amount extraction unit 43. Degree of likes and dislikes for the “first image” of the learning target person (degree of likes and dislikes in the state of presenting the “first image” with respect to the state of not presenting the “first image”, or , The degree of likes and dislikes of the state of presenting the “first image” with respect to the state of presenting the “second image” from the learning target person, and the extracted first feature amount and second feature A data set is prepared in which the amount and the degree of likes and dislikes for the “first image” are paired. The same extraction of the first feature amount and the second feature amount is performed on a plurality of different “first images”, and the degree of likes and dislikes for each “first image”, the extracted first feature amount, and A data set including the second feature amount is acquired as learning data. Using this learning data as input data, the machine learning method is used to learn the relationship between the impression of the “first image” and the first and second feature quantities. Thus, when the first feature value and the second feature value (the first feature value and the second feature value obtained by the feature value extraction unit 43) whose likes and dislikes are unknown are input to the obtained preference estimation model, the first feature value is input. The feature amount and the second feature amount correspond to whether the presented image α is “like” (for example, image β is “dislike”) or the image α is (for example, image β). Than)) can be estimated.

あるいは、第1特徴量および第2特徴量から得られる比較特徴量列を用い、比較特徴量列と画像の印象との関係性を記述した嗜好推定モデルを参照することで画像αおよび画像βの少なくとも一方に対する印象を推定してもよい。この場合には、学習用に用意した「第1の画像」を学習用対象者に呈示している間の学習用対象者の目の動的な変化に基づく複数の第1特徴量と、「第1の画像」を学習用対象者に呈示していない間の学習用対象者の目の動的な変化に基づく複数の第2特徴量を取得し、これらの情報から比較特徴量列を抽出する。ここで抽出する特徴量は、特徴量抽出部43で抽出する特徴量と同じとする。学習用対象者の「第1の画像」に対する好き嫌いの度合い(rating)を学習用対象者から取得し、抽出した比較特徴量列と「第1の画像」に対する好き嫌いの度合いを組とするデータセットを用意する。同様の比較特徴量列の抽出を複数の異なる「第1の画像」について行い、それぞれの「第1の画像」に対する好き嫌いの度合い(rating)と、抽出した比較特徴量列とを組とするデータセットを学習用データとして取得する。この学習用データを入力データとし、機械学習法により、「第1の画像」に対する印象と比較特徴量列との関係を学習する。これにより、得られる嗜好推定モデルに、好き嫌いが未知の比較特徴量列量(特徴量抽出部43で得られた第1特徴量列および第2特徴量列に基づく比較特徴量列量)を入力すると、その比較特徴量列量が、画像αが(例えば、画像βよりも)「好き」であることに対応するか、画像αが(例えば、画像βよりも)「嫌い」に対応するかを推定できる。   Alternatively, by using the comparison feature value sequence obtained from the first feature value and the second feature value, and referring to the preference estimation model describing the relationship between the comparison feature value sequence and the impression of the image, the images α and β You may estimate the impression with respect to at least one. In this case, a plurality of first feature amounts based on dynamic changes in the eyes of the learning target person while presenting the “first image” prepared for learning to the learning target person, A plurality of second feature amounts based on dynamic changes in the eyes of the learning target person while the first image "is not presented to the learning target person are acquired, and a comparison feature amount sequence is extracted from these pieces of information To do. The feature amount extracted here is the same as the feature amount extracted by the feature amount extraction unit 43. A data set in which the degree of likes / dislikes for the “first image” of the learning subject is acquired from the subjects for learning, and the extracted comparison feature string and the degree of like / dislike for the “first image” are paired Prepare. The same comparison feature quantity sequence is extracted for a plurality of different “first images”, and the data is a set of the degree of likes and dislikes for each “first image” and the extracted comparison feature quantity sequence. Acquire the set as learning data. Using this learning data as input data, the machine learning method is used to learn the relationship between the impression of the “first image” and the comparison feature quantity sequence. As a result, the comparison feature quantity sequence amount (the comparison feature quantity sequence amount based on the first feature quantity sequence and the second feature quantity sequence obtained by the feature quantity extraction unit 43) whose likes and dislikes are unknown is input to the obtained preference estimation model. Then, whether the comparison feature amount sequence amount corresponds to that the image α is “like” (for example, more than the image β) or whether the image α corresponds to “dislike” (for example, than the image β). Can be estimated.

あるいは、第1特徴量および第2特徴量の少なくとも一方、ならびに比較特徴量列を用い、第1特徴量および第2特徴量の少なくとも一方、ならびに比較特徴量列と印象との関係性を記述した嗜好推定モデルを参照することで、画像αおよび画像βの少なくとも一方に対する印象を推定してもよい。この場合には、上述のように学習用に用意した「第1の画像」を学習用対象者に呈示している間の学習用対象者の目の動的な変化に基づく複数の第1特徴量を含む第1特徴量列と、「第1の画像」を学習用対象者に呈示していない間の学習用対象者の目の動的な変化に基づく複数の第2特徴量を含む第2特徴量列を取得し、これらの情報から比較特徴量列を抽出する。ここで抽出する特徴量は、特徴量抽出部43で抽出する特徴量と同じとする。学習用対象者の「第1の画像」に対する好き嫌いの度合い(rating)(「第1の画像」を呈示していない状態に対する「第1の画像」を呈示している状態の好き嫌いの度合い、または、「第2の画像」を呈示している状態に対する「第1の画像」を呈示している状態の好き嫌いの度合い)を学習用対象者から取得し、抽出した第1特徴量および第2特徴量の少なくとも一方、ならびに比較特徴量列と「第1の画像」に対する好き嫌いの度合いを組とするデータセットを用意する。同様の比較特徴量列の抽出を複数の異なる「第1の画像」について行い、それぞれの「第1の画像」に対する好き嫌いの度合い(rating)と、抽出した第1特徴量および第2特徴量の少なくとも一方、ならびに比較特徴量列を組とするデータセットを学習用データとして取得する。この学習用データを入力データとし、機械学習法により、「第1の画像」に対する印象と比較特徴量列との関係を学習する。これにより、得られる嗜好推定モデルに、好き嫌いが未知の第1特徴量および第2特徴量の少なくとも一方、ならびに比較特徴量列を入力すると、その比較特徴量列が画像αが(例えば、画像βよりも)「好き」であることに対応するか、画像αが(例えば、画像βよりも)「嫌い」に対応するかを推定できる。   Alternatively, at least one of the first feature value and the second feature value and the comparison feature value sequence are used, and the relationship between at least one of the first feature value and the second feature value and the comparison feature value sequence and the impression is described. By referring to the preference estimation model, an impression for at least one of the image α and the image β may be estimated. In this case, a plurality of first features based on dynamic changes in the eyes of the learning target person while presenting the “first image” prepared for learning to the learning target person as described above. A first feature quantity sequence including a quantity and a plurality of second feature quantities based on a dynamic change in the eyes of the learning subject while the “first image” is not presented to the learning subject. Two feature quantity sequences are acquired, and a comparison feature quantity sequence is extracted from these pieces of information. The feature amount extracted here is the same as the feature amount extracted by the feature amount extraction unit 43. Degree of likes and dislikes for the “first image” of the learning target person (degree of likes and dislikes in the state of presenting the “first image” with respect to the state of not presenting the “first image”, or , The degree of likes and dislikes of the state of presenting the “first image” with respect to the state of presenting the “second image” from the learning target person, and the extracted first feature amount and second feature A data set is prepared in which at least one of the quantities, the comparison feature quantity sequence, and the degree of likes and dislikes for the “first image” are paired. The same comparison feature quantity sequence is extracted for a plurality of different “first images”, and the degree of likes and dislikes for each “first image” and the extracted first feature quantity and second feature quantity are extracted. A data set including at least one and a comparison feature quantity sequence is acquired as learning data. Using this learning data as input data, the machine learning method is used to learn the relationship between the impression of the “first image” and the comparison feature quantity sequence. Thus, when at least one of the first feature quantity and the second feature quantity whose likes and dislikes are unknown and the comparison feature quantity sequence are input to the obtained preference estimation model, the comparison feature quantity sequence is the image α (for example, the image β It can be estimated whether it corresponds to “like” or “image” corresponds to “dislike” (for example, than image β).

画像α,βの少なくとも一方に代えて、ポスターや絵画などの平面状の物体や人や彫刻などの立体状の物体などを「第1の像」および「第2の像」の少なくとも一方として対象者100に呈示してもよい。目の動的な変化に基づく特徴量を取得可能なメガネ型ウェアラブルデバイスを用いて「第1特徴量」および「第2特徴量」を取得してもよい。上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。   Instead of at least one of images α and β, a planar object such as a poster or painting, or a three-dimensional object such as a person or a sculpture is targeted as at least one of the “first image” and the “second image”. It may be presented to the person 100. The “first feature value” and the “second feature value” may be acquired using a glasses-type wearable device that can acquire a feature value based on a dynamic change in eyes. The various processes described above are not only executed in time series according to the description, but may also be executed in parallel or individually as required by the processing capability of the apparatus that executes the processes. Needless to say, other modifications are possible without departing from the spirit of the present invention.

上述の構成をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。このプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体の例は、非一時的な(non-transitory)記録媒体である。このような記録媒体の例は、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等である。   When the above configuration is realized by a computer, the processing contents of the functions that each device should have are described by a program. By executing this program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium. An example of a computer-readable recording medium is a non-transitory recording medium. Examples of such a recording medium are a magnetic recording device, an optical disk, a magneto-optical recording medium, a semiconductor memory, and the like.

このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。   This program is distributed, for example, by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Furthermore, the program may be distributed by storing the program in a storage device of the server computer and transferring the program from the server computer to another computer via a network.

このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。処理の実行時、このコンピュータは、自己の記憶装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。   A computer that executes such a program first stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. When executing the process, the computer reads a program stored in its own storage device, and executes a process according to the read program. As another execution form of the program, the computer may read the program directly from the portable recording medium and execute processing according to the program, and each time the program is transferred from the server computer to the computer. The processing according to the received program may be executed sequentially. The above-described processing may be executed by a so-called ASP (Application Service Provider) type service that realizes a processing function only by an execution instruction and result acquisition without transferring a program from the server computer to the computer. Good.

上記実施形態では、コンピュータ上で所定のプログラムを実行させて本装置の処理機能が実現されたが、これらの処理機能の少なくとも一部がハードウェアで実現されてもよい。   In the above embodiment, the processing functions of the apparatus are realized by executing a predetermined program on a computer. However, at least a part of these processing functions may be realized by hardware.

10〜40 印象推定装置 10-40 impression estimation device

Claims (8)

第1の像を注視する動物の目の動的な変化に基づく第1特徴量を抽出する特徴量抽出部と、
前記第1特徴量に基づいて、少なくとも前記動物の前記第1の像に対する印象を推定する嗜好推定部と、
を有する印象推定装置。
A feature amount extraction unit that extracts a first feature amount based on a dynamic change of an eye of an animal watching the first image;
A preference estimation unit that estimates an impression of at least the first image of the animal based on the first feature amount;
An impression estimation device having:
請求項1の印象推定装置であって、
前記特徴量抽出部は、さらに前記第1の像を注視しない前記動物の目の動的な変化に基づく第2特徴量を抽出し、
前記嗜好推定部は、前記第1特徴量と前記第2特徴量とに基づいて、少なくとも前記動物の前記第1の像に対する印象を推定する、印象推定装置。
The impression estimation device according to claim 1,
The feature amount extraction unit further extracts a second feature amount based on a dynamic change of the eye of the animal that does not gaze at the first image,
The preference estimation unit estimates an impression of at least the first image of the animal based on the first feature value and the second feature value.
請求項2の印象推定装置であって、
前記特徴量抽出部は、複数の前記第1特徴量を含む第1特徴量列と複数の前記第2特徴量を含む第2特徴量列とを抽出し、
前記嗜好推定部は、前記第1特徴量および前記第2特徴量の何れか、ならびに、前記第1特徴量列の各要素と前記第2特徴量列の各要素との比較結果を表す値を各要素とする列に基づく比較特徴量列に基づいて、少なくとも前記動物の前記第1の像に対する印象を推定する、印象推定装置。
The impression estimation device according to claim 2,
The feature amount extraction unit extracts a first feature amount sequence including a plurality of the first feature amounts and a second feature amount sequence including a plurality of the second feature amounts,
The preference estimation unit is a value representing a comparison result between any one of the first feature value and the second feature value and each element of the first feature value sequence and each element of the second feature value sequence. An impression estimation device that estimates an impression of at least the first image of the animal based on a comparison feature amount sequence based on a sequence as each element.
請求項2または3の印象推定装置であって、
前記第2特徴量の何れかは、前記第1の像と異なる第2の像を注視する前記動物の目の動的な変化に基づく、印象推定装置。
The impression estimation device according to claim 2 or 3,
Any one of the second feature amounts is an impression estimation device based on a dynamic change of the eyes of the animal watching a second image different from the first image.
請求項2から4の何れかの印象推定装置であって、
前記第1特徴量の何れかは、前記第1の像を注視する前記動物の眼球の動きに表れるマイクロサッカードの特徴に対応し、
前記第2特徴量の何れかは、前記第1の像と並んで配置された第2の像を注視する前記動物の眼球の動きに表れるマイクロサッカードの特徴に対応し、
前記マイクロサッカードの特徴は、前記第1の像および前記第2の像を通る直線の法線成分の前記眼球の動きに表れる特徴を含む、印象推定装置。
The impression estimation device according to any one of claims 2 to 4,
Any of the first feature amount corresponds to a feature of the microsaccade that appears in the movement of the eyeball of the animal gazing at the first image,
Any of the second feature amount corresponds to a feature of the microsaccade that appears in the movement of the eyeball of the animal watching the second image arranged side by side with the first image,
The feature of the microsaccade is an impression estimation device including a feature that appears in the movement of the eyeball of a normal component of a straight line passing through the first image and the second image.
請求項2から5の何れかの印象推定装置であって、
前記動物に前記第1の像を呈示する第1時間区間と、前記動物に前記第1の像を呈示しない第2時間区間と、が交互に複数回繰り返され、
前記第1時間区間における前記動物の目の動的な変化に基づく特徴量を前記第1特徴量の何れかとし、前記第2時間区間における前記動物の目の動的な変化に基づく特徴量を前記第2特徴量の何れかとする、印象推定装置。
The impression estimation device according to any one of claims 2 to 5,
A first time period in which the animal is presented with the first image and a second time period in which the animal is not presented with the first image are alternately repeated a plurality of times,
The feature amount based on the dynamic change of the eye of the animal in the first time interval is any one of the first feature amount, and the feature amount based on the dynamic change of the eye of the animal in the second time interval is An impression estimation device that is one of the second feature values.
請求項1から6の何れかの印象推定装置であって、
前記第1特徴量の何れかは、前記動物による前記第1の像の注視時間、注視回数、および注視領域の何れかに対応する、印象推定装置。
The impression estimation device according to any one of claims 1 to 6,
Any one of the first feature amounts corresponds to any one of a gaze time, a gaze count, and a gaze area of the first image by the animal.
請求項1から7の何れかの印象推定装置としてコンピュータを機能させるプログラム。   A program that causes a computer to function as the impression estimation device according to claim 1.
JP2015221019A 2015-11-11 2015-11-11 Impression estimation device and program Active JP6509712B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015221019A JP6509712B2 (en) 2015-11-11 2015-11-11 Impression estimation device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015221019A JP6509712B2 (en) 2015-11-11 2015-11-11 Impression estimation device and program

Publications (2)

Publication Number Publication Date
JP2017086529A true JP2017086529A (en) 2017-05-25
JP6509712B2 JP6509712B2 (en) 2019-05-08

Family

ID=58766825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015221019A Active JP6509712B2 (en) 2015-11-11 2015-11-11 Impression estimation device and program

Country Status (1)

Country Link
JP (1) JP6509712B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020116173A (en) * 2019-01-24 2020-08-06 パナソニックIpマネジメント株式会社 Impression evaluation system and impression evaluation method
JP2020151360A (en) * 2019-03-22 2020-09-24 株式会社Jvcケンウッド Evaluation device, evaluation method, and evaluation program
JP2021022198A (en) * 2019-07-29 2021-02-18 清水建設株式会社 System, method, and program for estimating distribution

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6102870A (en) * 1997-10-16 2000-08-15 The Board Of Trustees Of The Leland Stanford Junior University Method for inferring mental states from eye movements
JP2006268395A (en) * 2005-03-24 2006-10-05 Fuji Xerox Co Ltd Information processor, information processing method and program
JP2009508553A (en) * 2005-09-16 2009-03-05 アイモーションズ−エモーション テクノロジー エー/エス System and method for determining human emotion by analyzing eyeball properties
JP2010094493A (en) * 2008-09-22 2010-04-30 Koichi Kikuchi System for deciding viewer's feeling on viewing scene
US20110109879A1 (en) * 2009-11-09 2011-05-12 Daphna Palti-Wasserman Multivariate dynamic profiling system and methods
JP2011239891A (en) * 2010-05-17 2011-12-01 Nippon Telegr & Teleph Corp <Ntt> Emotional intensity measuring device, emotional intensity measuring method, and program
WO2013018267A1 (en) * 2011-07-29 2013-02-07 パナソニック株式会社 Presentation control device and presentation control method
JP2013258555A (en) * 2012-06-12 2013-12-26 Sony Computer Entertainment Inc Head-mounted display, biological information management apparatus, and biological information display method
US20140184550A1 (en) * 2011-09-07 2014-07-03 Tandemlaunch Technologies Inc. System and Method for Using Eye Gaze Information to Enhance Interactions

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6102870A (en) * 1997-10-16 2000-08-15 The Board Of Trustees Of The Leland Stanford Junior University Method for inferring mental states from eye movements
JP2006268395A (en) * 2005-03-24 2006-10-05 Fuji Xerox Co Ltd Information processor, information processing method and program
JP2009508553A (en) * 2005-09-16 2009-03-05 アイモーションズ−エモーション テクノロジー エー/エス System and method for determining human emotion by analyzing eyeball properties
JP2010094493A (en) * 2008-09-22 2010-04-30 Koichi Kikuchi System for deciding viewer's feeling on viewing scene
US20110109879A1 (en) * 2009-11-09 2011-05-12 Daphna Palti-Wasserman Multivariate dynamic profiling system and methods
JP2011239891A (en) * 2010-05-17 2011-12-01 Nippon Telegr & Teleph Corp <Ntt> Emotional intensity measuring device, emotional intensity measuring method, and program
WO2013018267A1 (en) * 2011-07-29 2013-02-07 パナソニック株式会社 Presentation control device and presentation control method
US20140184550A1 (en) * 2011-09-07 2014-07-03 Tandemlaunch Technologies Inc. System and Method for Using Eye Gaze Information to Enhance Interactions
JP2013258555A (en) * 2012-06-12 2013-12-26 Sony Computer Entertainment Inc Head-mounted display, biological information management apparatus, and biological information display method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020116173A (en) * 2019-01-24 2020-08-06 パナソニックIpマネジメント株式会社 Impression evaluation system and impression evaluation method
JP2020151360A (en) * 2019-03-22 2020-09-24 株式会社Jvcケンウッド Evaluation device, evaluation method, and evaluation program
WO2020194841A1 (en) * 2019-03-22 2020-10-01 株式会社Jvcケンウッド Assessment device, assessment method, and assessment program
JP7172787B2 (en) 2019-03-22 2022-11-16 株式会社Jvcケンウッド Evaluation device, evaluation method, and evaluation program
JP2021022198A (en) * 2019-07-29 2021-02-18 清水建設株式会社 System, method, and program for estimating distribution

Also Published As

Publication number Publication date
JP6509712B2 (en) 2019-05-08

Similar Documents

Publication Publication Date Title
CN110167421B (en) System for integrally measuring clinical parameters of visual function
Komogortsev et al. Automated classification and scoring of smooth pursuit eye movements in the presence of fixations and saccades
Berg et al. Free viewing of dynamic stimuli by humans and monkeys
Tafaj et al. Bayesian online clustering of eye movement data
Harezlak et al. Towards accurate eye tracker calibration–methods and procedures
JP7070605B2 (en) Focus range estimator, its method and program
Hosp et al. RemoteEye: An open-source high-speed remote eye tracker: Implementation insights of a pupil-and glint-detection algorithm for high-speed remote eye tracking
Kawai et al. Pupil diameter variation in positive and negative emotions with visual stimulus
Stuart et al. Quantifying saccades while walking: validity of a novel velocity-based algorithm for mobile eye tracking
Sato et al. How much to trust the senses: Likelihood learning
Rafiqi et al. PupilWare: towards pervasive cognitive load measurement using commodity devices
JP6755839B2 (en) Exercise performance estimator, method, and program
JP6509712B2 (en) Impression estimation device and program
AU2014234955B2 (en) Automatic detection of task transition
CN109923529A (en) Information processing unit, information processing method and program
Leelasawassuk et al. Estimating visual attention from a head mounted IMU
JP2019111291A (en) Attention level estimation device, attention level estimation model learning device, attention level estimation method, attention level estimation model learning method, and program
JP5718494B1 (en) Impression estimation device, method thereof, and program
JP6479708B2 (en) Feature amount extraction apparatus, estimation apparatus, method thereof, and program
Modi et al. Real-time camera-based eye gaze tracking using convolutional neural network: a case study on social media website
JP6377545B2 (en) Personal identification method, personal identification device, program
JP6445418B2 (en) Impression estimation device, impression estimation method, and program
JP6377566B2 (en) Line-of-sight measurement device, line-of-sight measurement method, and program
JP7214986B2 (en) Reflectivity determination device, reflectivity determination method, and program
KR101955293B1 (en) Visual fatigue analysis apparatus and method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190403

R150 Certificate of patent or registration of utility model

Ref document number: 6509712

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150