JP5438591B2 - Emotion intensity measuring apparatus, emotion intensity measuring method, and program - Google Patents

Emotion intensity measuring apparatus, emotion intensity measuring method, and program

Info

Publication number
JP5438591B2
JP5438591B2 JP2010113555A JP2010113555A JP5438591B2 JP 5438591 B2 JP5438591 B2 JP 5438591B2 JP 2010113555 A JP2010113555 A JP 2010113555A JP 2010113555 A JP2010113555 A JP 2010113555A JP 5438591 B2 JP5438591 B2 JP 5438591B2
Authority
JP
Japan
Prior art keywords
pupil diameter
information
time interval
image
observer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010113555A
Other languages
Japanese (ja)
Other versions
JP2011239891A (en
Inventor
龍人 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2010113555A priority Critical patent/JP5438591B2/en
Publication of JP2011239891A publication Critical patent/JP2011239891A/en
Application granted granted Critical
Publication of JP5438591B2 publication Critical patent/JP5438591B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像を観察した観察者の感情の強さを推定するための情報を生成する技術に関する。   The present invention relates to a technology for generating information for estimating the emotional intensity of an observer who has observed an image.

瞳孔は自律神経系により制御される臓器である。外部刺激により驚きや興奮といった強い感情が生起する時には、アドレナリン作動性神経支配を受ける瞳孔散大筋により瞳孔径が拡大する(散瞳)。また疲労時や眠いとき、注意が逸れて強い感情が生起しない時には、コリン作動性神経支配を受ける瞳孔括約筋により瞳孔径は縮小する(縮瞳)。   The pupil is an organ controlled by the autonomic nervous system. When strong emotions such as surprise and excitement occur due to external stimuli, the pupil diameter expands due to the dilated pupil that receives adrenergic innervation (mydriasis). In addition, when fatigue or sleepiness is lost and strong emotions do not occur, the pupil diameter is reduced by the pupil sphincter that receives cholinergic innervation (miosis).

感情の強さは、各種の自律神経反応において現れることは広く知られている。感情の強さをアンケートなどで評価する場合は、観察者が意識し言語化できる感情しか捉えることができない。しかし自律神経反応などの生体信号を用いることにより、観察者が無意識に持つ感情をも捉えることができる。感情は快/不快(valence)とその強度(arousal)という二軸で表されるが、例えば精神性発汗量は強度、心拍数は快/不快の方向と対応している。自律神経系により制御される瞳孔もまた感情の強度と対応している。瞳孔反応は、精神性の発汗や心拍と比較して馴化が少なく、また潜時も短い。そのため、様々な外部刺激がどのような強さの感情を引き起こすか、それを定量的に示すためには瞳孔径の測定が有効である。従来、音響信号や痛覚、触覚がもたらす感情の強さが瞳孔径から推定されてきた(例えば、非特許文献1等参照)。   It is well known that emotional strength appears in various autonomic responses. When evaluating the strength of emotions through questionnaires, it is possible to capture only emotions that the observer can recognize and verbalize. However, by using biological signals such as autonomic responses, it is possible to capture the emotions that the observer has unconsciously. Emotions are expressed by two axes, valence and arousal. For example, the amount of mental sweating corresponds to the intensity, and the heart rate corresponds to the direction of pleasure / discomfort. The pupil controlled by the autonomic nervous system also corresponds to emotional intensity. Pupil response is less habituated and has a shorter latency compared to mental sweating and heartbeat. Therefore, measurement of pupil diameter is effective for quantitatively indicating the strength of emotions caused by various external stimuli. Conventionally, the strength of emotions brought about by acoustic signals, pain sensations, and tactile sensations has been estimated from the pupil diameter (see, for example, Non-Patent Document 1).

瞳孔反応は目に入射する光刺激によっても引き起こされる。そのような反応は対光反射と呼ばれ、環境光や背景光の明るさに応じた瞳孔径の変化量は、感情の強さに応じた瞳孔径の変化量の数倍のオーダーとなる。この対光反射が存在するために、絵画や画像、映像など、視覚的なパターンがもたらす感情の強さを、瞳孔から推定することは困難であった。瞳孔反応が生じ、瞳孔径が変化したとしても、それが視覚パターンによってもたらされた感情に基づくものなのか、あるいは目に入射される光の強度の変化によるもの、すなわち対光反射によるものなのかを、確実に切り分ける手法が存在しなかったためである。   The pupillary response is also triggered by a light stimulus incident on the eye. Such a reaction is called light reflection, and the amount of change in pupil diameter according to the brightness of ambient light or background light is on the order of several times the amount of change in pupil diameter according to emotional intensity. Due to the presence of this light reflection, it is difficult to estimate from the pupil the intensity of emotions brought about by visual patterns such as paintings, images and videos. Even if the pupillary reaction occurs and the pupil diameter changes, it is based on the emotion brought about by the visual pattern, or due to a change in the intensity of light incident on the eye, i.e. due to light reflection. This is because there has been no method for reliably separating the above.

瞳孔反応から視覚パターンがもたらす感情の強さを推定するために提案された方法の一つに、視覚パターン(画像)が持つ平均輝度を一定にするという操作がある(例えば、非特許文献2等参照)。しかしながら、画像が持つ平均輝度を一定にしたとしても画像の位置によって輝度は相違する。そのため、観察者が視線を向けている画像の位置に応じ、その感情的な側面とは無関係に瞳孔径は変化する。例えば、観察者が見ている部分の輝度がたまたま下げられていたとしたら、感情的な側面とは無関係に、対光反射により瞳孔径は拡大することになる。観察者が画像のどの部分を凝視するかをあらかじめ決めておく、といった不自然かつ実施困難な状況を用意しない限り、画像の平均輝度を一定にしても対光反射の成分を取り除くことはできない。   One of the methods proposed for estimating the intensity of emotion brought about by the visual pattern from the pupil reaction is an operation of making the average luminance of the visual pattern (image) constant (for example, Non-Patent Document 2). reference). However, even if the average luminance of the image is constant, the luminance varies depending on the position of the image. Therefore, the pupil diameter changes according to the position of the image where the observer is looking at the eyes, regardless of the emotional aspect. For example, if the luminance of the part that the viewer is watching is accidentally lowered, the pupil diameter is enlarged by the light reflection regardless of the emotional aspect. Unless an unnatural and difficult situation is prepared in which the observer decides in advance which part of the image to stare at, the light reflection component cannot be removed even if the average luminance of the image is kept constant.

Hofle, M., Kenntner-Mabiala, R., Pauli, P., Alpers, G. W. (2008) You can see pain in the eye: Pupillometry as an index of pain intensity under different luminance conditions. International Journal of Psychophysiology, 70, 171-175.Hofle, M., Kenntner-Mabiala, R., Pauli, P., Alpers, GW (2008) You can see pain in the eye: Pupillometry as an index of pain intensity under different luminance conditions.International Journal of Psychophysiology, 70, 171-175. Bradley, M., Miccoli, L., Escrig, M., & Lang, P. (2008) The pupil as a measure of emotional arousal and autonomic activation. Psychophysiology, 45, 602-607.Bradley, M., Miccoli, L., Escrig, M., & Lang, P. (2008) The pupil as a measure of emotional arousal and autonomic activation. Psychophysiology, 45, 602-607.

以上のように、瞳孔径は感情の強さや変化を敏感に反映すると同時に、環境や背景の明るさに応じて反射的な応答(対光反射)を示す。そのため、瞳孔反応は、画像のような視覚パターンがもたらす観察者の感情の強さを定量的に推定する手段として積極的に用いられてこなかった。   As described above, the pupil diameter sensitively reflects emotion strength and changes, and at the same time exhibits a reflective response (light reflection) depending on the environment and the brightness of the background. For this reason, the pupil reaction has not been actively used as a means for quantitatively estimating the strength of the observer's emotion brought about by a visual pattern such as an image.

本発明はこのような点に鑑みてなされたものであり、瞳孔径の変動から感情に基づく成分のみを取り出し、画像を観察した観察者の感情の強さを定量的に推定するための情報を生成する技術を提供することを目的とする。   The present invention has been made in view of such a point, and only information based on emotion is extracted from fluctuations in pupil diameter, and information for quantitatively estimating the emotional strength of an observer who has observed an image is provided. It aims at providing the technology to generate.

本発明では、任意に配置された複数のピクセルからなるニュートラル画像の輝度を時間に応じて変動させた変動ニュートラル画像を第1時間区間において出力し、入力されたターゲット画像の輝度を時間に応じて変動させた変動ターゲット画像を第2時間区間において出力し、これらに対して入力された第1時間区間での観察者の瞳孔径に対応する第1瞳孔径情報と、第2時間区間での観察者の瞳孔径に対応する第2瞳孔径情報とが装置とを用い、ターゲット画像を観察した観察者の感情の強さを推定するための情報を生成する。   In the present invention, a fluctuation neutral image in which the luminance of a neutral image composed of a plurality of arbitrarily arranged pixels is changed according to time is output in a first time interval, and the luminance of the input target image is changed according to time. The fluctuating target image that has been changed is output in the second time interval, and the first pupil diameter information corresponding to the pupil diameter of the observer in the first time interval input thereto and the observation in the second time interval are output. The second pupil diameter information corresponding to the pupil diameter of the person uses the apparatus to generate information for estimating the emotional intensity of the observer who observed the target image.

ここで、変動ターゲット画像は観察者の感情を引き起こし得る画像であるが、変動ニュートラル画像は観察者の感情を引き起こす画像ではない。よって、変動ターゲット画像を観察している観察者の瞳孔径は当該観察者の感情に応じて変化することはあるが、変動ニュートラル画像を観察している観察者の瞳孔径が当該観察者の感情に応じて変化することはほとんどない。   Here, the fluctuation target image is an image that can cause the observer's emotion, but the fluctuation neutral image is not an image that causes the observer's emotion. Therefore, the pupil diameter of the observer observing the fluctuation target image may change depending on the emotion of the observer, but the pupil diameter of the observer observing the fluctuation neutral image is the emotion of the observer. It hardly changes depending on the situation.

一方、変動ニュートラル画像及び変動ターゲット画像の輝度は時間に応じて変動し、変動ニュートラル画像及び変動ターゲット画像の観察者の瞳孔径は当該輝度の変動に応じて変動する。よって、観察者の感情に応じた瞳孔径の変動は、変動ニュートラル画像や変動ターゲット画像の輝度の時間変動に依存する瞳孔径の変動からのずれとして検知できる。   On the other hand, the luminance of the varying neutral image and the varying target image varies with time, and the pupil diameter of the observer of the varying neutral image and the varying target image varies with the variation in luminance. Therefore, the pupil diameter variation according to the emotion of the observer can be detected as a deviation from the pupil diameter variation depending on the temporal variation of the luminance of the variation neutral image or the variation target image.

そのため、変動ニュートラル画像が出力されている第1時間区間での観察者の瞳孔径に対応する第1瞳孔径情報と、変動ターゲット画像が出力されている第2時間区間での観察者の瞳孔径に対応する第2瞳孔径情報とを用いることで、瞳孔径の変動から感情に基づく成分のみを取り出し、画像を観察した観察者の感情の強さを定量的に推定するための情報を生成することができる。   Therefore, the first pupil diameter information corresponding to the pupil diameter of the observer in the first time interval in which the variable neutral image is output, and the observer pupil diameter in the second time interval in which the variable target image is output. By using the second pupil diameter information corresponding to, only the component based on emotion is extracted from the pupil diameter variation, and information for quantitatively estimating the emotional intensity of the observer who observed the image is generated. be able to.

図1は、感情強度測定装置の機能構成を説明するためのブロック図である。FIG. 1 is a block diagram for explaining a functional configuration of the emotion strength measuring apparatus. 図2は、感情強度測定装置の処理を説明するための図である。FIG. 2 is a diagram for explaining processing of the emotion strength measuring apparatus. 図3は、変動ターゲット画像の一部分の輝度変化の様子を例示した図である。FIG. 3 is a diagram illustrating a state of luminance change in a part of the variable target image. 時間的に明るさが変動する画像を観察者に見せながら観察者の瞳孔径を測定して得られた観測データを例示した図である。It is the figure which illustrated the observation data obtained by measuring an observer's pupil diameter, showing an observer to which the brightness changes temporally. 図5は、一周期分の観測データを平均化して得られるデータを例示した図である。FIG. 5 is a diagram illustrating data obtained by averaging observation data for one period.

以下、本発明の実施形態を説明する。   Embodiments of the present invention will be described below.

<原理>
まず、本発明の実施形態の原理を説明する。
<Principle>
First, the principle of the embodiment of the present invention will be described.

観察者が画像を見た時に生じる瞳孔径の変化は、対光反射に基づく変化と感情に基づく変化に二分される。そのため、瞳孔径の変化分から対光反射の成分を差し引けば、画像が生体にもたらす感情の強さを定量的に推定できる。ここで感情の強さを感情強度と呼ぶ。感情強度をEp、画像を見たときの対光反射による瞳孔径の変化をR、観察者の感情強度を測定するため画像であるターゲット画像(後述)を観察者が見たときの瞳孔径をVImage、感情を生起させない画像であるニュートラル画像(後述)を観察者が見たときの瞳孔径をVneutralとすれば、式(1)のような関係が満たされる。 A change in pupil diameter that occurs when an observer views an image is divided into a change based on light reflection and a change based on emotion. Therefore, by subtracting the light reflection component from the change in pupil diameter, it is possible to quantitatively estimate the strength of emotion that the image brings to the living body. Here, the strength of emotion is called emotion strength. Ep is the emotional intensity, R is the change in pupil diameter due to light reflection when viewing the image, and the pupil diameter when the observer views the target image (described later) to measure the emotional intensity of the observer. V image, if the pupil diameter when the viewer a neutral image (described later) saw an image that does not rise to feelings and V neutral, the relationship of equation (1) is satisfied.

Ep≒ΔV-R …(1)
ただしΔV=VImage-Vneutralである。ここで、最初に一様なニュートラル画像を観察者に呈示し、その後にターゲット画像を観察者に呈示し、観察者の瞳孔径を計測する方法を考えてみる。すると、観察者の感情に基づく瞳孔径の変化に加え、ニュートラル画像からターゲット画像に突然切り替わったことによる輝度の変化によって非線形な瞳孔径の変化(対光反射)が生じる(式(1)のR)。このような輝度の変化量は対光反射による瞳孔径の変化は観察者が視線を向けている位置の輝度の変化量に依存し、また観察者がターゲット画像のどの部分に視線を向けるかを前もって正確に予測することはまず不可能である。そのため、このような単純な方法によって対光反射の成分を取り除くことは不可能であるといってよい。
Ep ≒ ΔV-R (1)
However, ΔV = V Image −V neutral . Here, consider a method in which a uniform neutral image is first presented to an observer and then a target image is presented to the observer to measure the pupil diameter of the observer. Then, in addition to the change in pupil diameter based on the emotion of the observer, a non-linear change in pupil diameter (light reflection) occurs due to a change in brightness caused by sudden switching from the neutral image to the target image (R in equation (1)). ). The amount of change in brightness depends on the amount of change in brightness at the position where the observer is looking at the eye, and the part of the target image where the observer is looking It is impossible to predict accurately in advance. Therefore, it can be said that it is impossible to remove the light reflection component by such a simple method.

そこで本形態では、ニュートラル画像からターゲット画像に切り替わった際に生じる非線形な対光反射成分を取り除くのではなく、大きな対光反射を継続的に起こさせることによって対光反射の成分Rを定常化し、感情強度Epを推定する。すなわち、本形態でもターゲット画像とニュートラル画像への瞳孔反応の違いから観察者の感情の強さを推定する。ただし、ニュートラル画像とターゲット画像との輝度を時間に応じて変化させ、大きな対光反射を継続的に引き起こす。この場合、観察者の感情に基づく瞳孔径の変動は、ニュートラル画像やターゲット画像の輝度の変動に基づく瞳孔径の変動からの相違として検出できる。これが本形態の大きな特徴である。以下では、ニュートラル画像とターゲット画像の輝度を正弦波状に変化させる例を示す。なお、ニュートラル画像の輝度を時間に応じて変化させた画像を「変動ニュートラル画像」と呼び、ターゲット画像の輝度を時間に応じて変化させた画像を「変動ターゲット画像」と呼ぶことにする。   Therefore, in this embodiment, instead of removing the non-linear light reflection component generated when switching from the neutral image to the target image, the light reflection component R is made steady by continuously causing large light reflection, Estimate emotional intensity Ep. That is, in this embodiment, the observer's emotional strength is estimated from the difference in pupil response between the target image and the neutral image. However, the luminance of the neutral image and the target image is changed according to time, and large light reflection is continuously caused. In this case, the pupil diameter variation based on the viewer's emotion can be detected as a difference from the pupil diameter variation based on the luminance variation of the neutral image or the target image. This is a major feature of this embodiment. Hereinafter, an example in which the luminance of the neutral image and the target image is changed in a sine wave shape will be described. An image in which the luminance of the neutral image is changed according to time is referred to as a “variable neutral image”, and an image in which the luminance of the target image is changed according to time is referred to as a “variable target image”.

観察者には、コンピュータディスプレイなどの画像呈示装置を通して、変動ニュートラル画像を或る時間区間T1(例えば12秒の時間区間)中に呈示する。続いて変動ターゲット画像を時間区間T2(例えば12秒の時間区間)中に呈示する。その後に先ほどと同じ変動ニュートラル画像を時間区間T3(例えば12秒の時間区間)中に呈示する。この時に、観察者は、観察の間に顔をあまり動かさずに、画像を観察し続けるよう求められる。目は動かしてもよいし、瞬きをしてもよい。画像が呈示されている間に観察者の瞳孔の大きさ(直径)を眼球運動計測器(アイトラッカー)により計測する。得られたデータを後述する方法により処理し、ターゲット画像に対する感情強度を算出する。   The observer is presented with a variable neutral image during a certain time interval T1 (for example, a time interval of 12 seconds) through an image presentation device such as a computer display. Subsequently, the variable target image is presented during a time interval T2 (for example, a time interval of 12 seconds). After that, the same fluctuation neutral image as before is presented during a time interval T3 (for example, a time interval of 12 seconds). At this time, the observer is required to continue to observe the image without moving his face much during observation. The eyes may move or blink. While the image is presented, the size (diameter) of the pupil of the observer is measured by an eye movement measuring instrument (eye tracker). The obtained data is processed by a method to be described later, and the emotion intensity for the target image is calculated.

次に、本形態の原理を詳細に説明する。ニュートラル画像としては、任意に配置された複数のピクセルからなる画像を用いる。例えば、式(2)に基づいて、ターゲット画像のピクセル位置をランダムに配置したものをニュートラル画像とする。   Next, the principle of this embodiment will be described in detail. As a neutral image, an image composed of a plurality of arbitrarily arranged pixels is used. For example, a neutral image is obtained by randomly arranging pixel positions of the target image based on Expression (2).

Neutral Image = randomorder (1:Ix, 1:Iy) …(2)
ただし、Neutral Imageはニュートラル画像を表し、(1:Ix, 1:Iy)はターゲット画像の各ピクセルのx座標(1以上Ix以下)とy座標(1以上Iy以下)とを表し、Ixはx座標(水平方向)のピクセル数を表し、Iyはy座標(垂直方向)のピクセル数を表し、randomorder (1:Ix, 1:Iy)はターゲット画像の各ピクセルの座標をランダムに変更することを表す。
Neutral Image = randomorder (1: Ix, 1: Iy)… (2)
However, Neutral Image represents a neutral image, (1: Ix, 1: Iy) represents the x coordinate (1 to Ix) and y coordinate (1 to Iy) of each pixel of the target image, and Ix is x Represents the number of pixels in the coordinate (horizontal direction), Iy represents the number of pixels in the y coordinate (vertical direction), and randomorder (1: Ix, 1: Iy) indicates that the coordinates of each pixel in the target image are changed randomly. Represent.

ターゲット画像のピクセル位置をランダムに並び替えたものをニュートラル画像とした場合、ニュートラル画像とターゲット画像との平均輝度及びそれらに含まれる色の成分を同一としつつ、ターゲット画像が持つ感情を引き起こす成分を消したものをニュートラル画像とすることができる。   If a neutral image is obtained by randomly rearranging the pixel positions of the target image, the average luminance of the neutral image and the target image and the components of the colors included in them are the same, but the component that causes the emotion of the target image The erased image can be a neutral image.

また、変動ニュートラル画像は、例えば、ニュートラル画像の輝度を正弦波状に変化させたものであり、変動ターゲット画像は、例えば、ターゲット画像の輝度を正弦波状に変化させたものである。これらの輝度の変化は大きな対光反射(瞳孔径の変動)を継続的かつ周期的に引き起こす。   Moreover, the fluctuation neutral image is obtained by changing the luminance of the neutral image in a sine wave shape, for example, and the fluctuation target image is obtained by changing the luminance of the target image in a sine wave shape, for example. These changes in luminance cause large light reflection (pupil diameter fluctuation) continuously and periodically.

輝度を変化させるためには、ニュートラル画像とターゲット画像の各ピクセルの輝度Yを取得する必要がある。輝度Yは、例えば、各画像の持つRGB値から式(3)により算出できる。   In order to change the luminance, it is necessary to acquire the luminance Y of each pixel of the neutral image and the target image. The luminance Y can be calculated from the RGB value of each image, for example, using Equation (3).

[X, Y, Z]=[ T ] [R, G, B] …(3)
ただし、X, Y, Zは、画像をXYZ表色系で表現した場合における各ピクセルの三刺激値であり、そのうちのYは各ピクセルの輝度を表す。また、R, G, Bは、画像をRGB表色系で表現した場合における各ピクセルのRGB値(∈{0, 1})であり、TはRGB表色系をXYZ表色系に変換するための3行3列の変換行列である。変換行列Tは、画像測定結果に基づいて別途設定されてもよいし、NTSCなどの準拠した一般的な基準に基づいて設定されてもよい。
[X, Y, Z] = [T] [R, G, B]… (3)
However, X, Y, and Z are tristimulus values of each pixel when the image is expressed in the XYZ color system, and Y of them represents the luminance of each pixel. R, G, and B are the RGB values (∈ {0, 1}) of each pixel when the image is expressed in the RGB color system, and T converts the RGB color system to the XYZ color system. This is a 3 × 3 conversion matrix. The transformation matrix T may be set separately based on the image measurement result, or may be set based on a general standard based on NTSC or the like.

本形態では、以下の式(4)に基づいて、ニュートラル画像やターゲット画像の各ピクセルの輝度を時間的に正弦波状に変化させる。   In this embodiment, the luminance of each pixel of the neutral image and the target image is temporally changed to a sine wave shape based on the following formula (4).

Y(t)=Y+C*cos((2*π)/(φ*t)) …(4)
ただし、tは時間[0≦t≦∞]を表し、Y(t)は輝度変更後の各ピクセルの輝度[0≦Y(t) ≦1]を表し、Cは輝度変化量(コントラスト)[-0.5≦C≦0.5]を表す定数(例えば0.3)であり、φは輝度変化する時間の長さ[0≦φ≦∞]を表す定数であり、*は乗算を表し、/は除算を表す。
Y (t) = Y + C * cos ((2 * π) / (φ * t))… (4)
Where t represents time [0 ≦ t ≦ ∞], Y (t) represents the luminance of each pixel after luminance change [0 ≦ Y (t) ≦ 1], and C represents the luminance change amount (contrast) [ -0.5 ≦ C ≦ 0.5] (for example, 0.3), φ is a constant representing the length of time during which the luminance changes [0 ≦ φ ≦ ∞], * represents multiplication, and / represents division .

図3は、ある変動ターゲット画像の一部分(中央縦線)の輝度変化の様子を例示した図である。ここで、元のターゲット画像が持つ輝度を実線3Aで示している。各ピクセルの輝度は、一点鎖線3Bと二点鎖線3Cとで囲まれた範囲内で時間的に同期して変動する。この例の変動の速度(時間周波数)は0.5Hzである。   FIG. 3 is a diagram exemplifying a state of luminance change of a part (center vertical line) of a certain fluctuation target image. Here, the luminance of the original target image is indicated by a solid line 3A. The luminance of each pixel fluctuates synchronously in time within the range surrounded by the one-dot chain line 3B and the two-dot chain line 3C. The speed of variation (time frequency) in this example is 0.5 Hz.

このように、時間的に明るさが変動する画像を観察者に見せながら、観察者の瞳孔径を測定すると、図4のような結果が得られる。図4の縦軸は瞳孔径、横軸は変動ターゲット画像が呈示された時間をゼロ秒とした時間経過を表している。ここで点線のグラフ4Aは、変動ニュートラル画像が出力される時間区間T1での瞳孔径、一点鎖線のグラフ4Bは変動ターゲット画像が出力される時間区間T2での瞳孔径、二点鎖線のグラフ4Cは再び変動ニュートラル画像が出力される時間区間T3での瞳孔径をそれぞれ表している。また、実線のグラフ4Dは変動ターゲット画像又は変動ニュートラル画像の輝度Yの変化を模式的に表している。   In this way, when the observer's pupil diameter is measured while showing the observer an image whose brightness varies with time, the result shown in FIG. 4 is obtained. The vertical axis in FIG. 4 represents the pupil diameter, and the horizontal axis represents the passage of time with the time when the variable target image was presented as zero seconds. Here, the dotted line graph 4A is the pupil diameter in the time interval T1 in which the variable neutral image is output, and the dashed line graph 4B is the pupil diameter in the time interval T2 in which the variable target image is output, and the two-dot chain line graph 4C Represents again the pupil diameter in the time interval T3 during which the variable neutral image is output. A solid line graph 4D schematically represents a change in luminance Y of the fluctuation target image or the fluctuation neutral image.

図4からわかるように、瞳孔径は輝度Yの変化(式(3))にあわせて正弦波状に変化する。同時に瞳孔径の大きさが、変動ターゲット画像が出力された後に拡大している(一点鎖線のグラフ4B)。画像により引き出される感情が強い場合、このような瞳孔径の拡大傾向は、変動ターゲット画像が消えて再び変動ニュートラル画像が出力された後でもしばらく続く(二点鎖線のグラフ4C)。   As can be seen from FIG. 4, the pupil diameter changes in a sinusoidal shape in accordance with the change in luminance Y (formula (3)). At the same time, the size of the pupil diameter is enlarged after the fluctuation target image is output (dot-dash line graph 4B). When the emotion drawn by the image is strong, the pupil diameter enlargement tendency continues for a while after the fluctuation target image disappears and the fluctuation neutral image is output again (two-dot chain line graph 4C).

本形態では、この結果を定量的に評価するために、図4で例示した瞳孔径を表すデータを以下に例示する式に従って処理する。   In this embodiment, in order to quantitatively evaluate this result, data representing the pupil diameter exemplified in FIG. 4 is processed according to the formula exemplified below.

まず、観測された瞳孔径を表すデータ(瞳孔径情報)を、最初に変動ニュートラル画像が出力された時間区間T1に対応する瞳孔径情報、変動ターゲット画像が出力された時間区間T2に対応する瞳孔径情報、二回目に変動ニュートラル画像が出力された時間区間T3に対応する瞳孔径情報に分割する。次に、3分割されたそれぞれの瞳孔径情報を、輝度変動の1周期分(図4の例の場合は2秒に相当)に切り分ける。すると、時間区間T1-T3に対応する一周期分の瞳孔反応を表す瞳孔径情報がそれぞれ複数個ずつ得られる。   First, data representing the observed pupil diameter (pupil diameter information) is used for the pupil diameter information corresponding to the time interval T1 when the fluctuation neutral image was first output and the pupil corresponding to the time interval T2 where the fluctuation target image was output. Diameter information is divided into pupil diameter information corresponding to the time interval T3 in which the variable neutral image is output for the second time. Next, each of the pupil diameter information divided into three parts is divided into one period of luminance fluctuation (corresponding to 2 seconds in the example of FIG. 4). Then, a plurality of pieces of pupil diameter information representing the pupil response for one period corresponding to the time interval T1-T3 are obtained.

この一周期分の瞳孔径情報を式(5)に従って平均化して得られた結果が図5である。図5における横軸は時間を表し、縦軸は瞳孔径を表す。   FIG. 5 shows a result obtained by averaging the pupil diameter information for one period according to the equation (5). The horizontal axis in FIG. 5 represents time, and the vertical axis represents the pupil diameter.

Pi(tc)=(Σn=1 N{Vi(tc+φ*(n-1)})/N …(5)
ただし、tcは一周期内の時間[0≦tc≦φ]を表し、Pi(tc)は時間区間Tiにおける平均の瞳孔径[1≦i≦3]を表し、Vi(tc+φ*(n-1)は各時間区間Tiにおける瞳孔径を表し、nは各周期に対応する整数[1≦n≦N]であり、Nは全周期数を表す。ここで、最初に変動ニュートラル画像が出力された時間区間T1における瞳孔径をP1(t)(図5の点線のグラフ5A)、変動ターゲット画像が出力された時間区間T2における瞳孔径をP2(t)(図5の一点鎖線のグラフ5B)、再び変動ニュートラル画像が出力された時間区間T3における瞳孔径をP3(t)(図5の二点鎖線のグラフ5C)とする。実線のグラフ5Dは輝度Yの変化に対応している。
Pi (tc) = (Σ n = 1 N (Vi (tc + φ * (n-1)}) / N… (5)
However, tc represents time [0 ≦ tc ≦ φ] in one cycle, Pi (tc) represents the average pupil diameter [1 ≦ i ≦ 3] in the time interval Ti, and Vi (tc + φ * (n -1) represents the pupil diameter in each time interval Ti, n is an integer [1 ≦ n ≦ N] corresponding to each cycle, and N represents the total number of cycles, where a variable neutral image is output first. The pupil diameter in the time interval T1 is P1 (t) (dotted line graph 5A in FIG. 5), and the pupil diameter in the time interval T2 in which the fluctuation target image is output is P2 (t) (dotted line graph 5B in FIG. ), The pupil diameter in the time interval T3 when the fluctuation neutral image is output again is P3 (t) (two-dot chain line graph 5C in FIG. 5), and the solid line graph 5D corresponds to the change in luminance Y.

本形態では、例えば、以下の5つの測定値(M1〜M5)から感情強度(Ep)を推定する。
・瞳孔径の変動量の平均値
M1=Mean{P2(tc)/P1(tc)} …(6)
ただし、Mean{・}は・の平均を表す。
・瞳孔径の残効量の平均値
M2=Mean{P3(tc)/P1(tc)} …(7)
・瞳孔径の振幅比
M3=(Max(P2(0:φ/2))-Min(P2(φ/2:φ)))
/(Max(P1(0:φ/2))-Min(P1(φ/2:φ))) …(8)
ただし、Max(P1(0:φ/2))はP1(α)(0≦α≦φ/2)の最大値を表し、Min(P1(φ/2:φ))はP1(β)(φ/2≦β≦φ)の最小値を表す。
・瞳孔径変動の位相差
M4=(tc(Max(P2(0:φ/2)))+tc(Min(P2(φ/2:φ)))-φ/2)
/(tc(Max(P1(0:φ/2)))+tc(Min(P1(φ/2:φ)))-φ/2) …(9)
ただし、tc(Max(・))は・が最大となった時間を表し、tc(Min(・))は・が最小となった時間を表す。
・瞳孔径の拡大・縮小のバランス比
M5=|{P2(0:φ/2)-P1(0:φ/2)}/{P2(φ/2:φ)-P1(φ/2:φ)}| …(10)
ただし、|・|は・の絶対値を表す。
In this embodiment, for example, emotional intensity (Ep) is estimated from the following five measured values (M1 to M5).
・ Average of pupil diameter variation
M1 = Mean {P2 (tc) / P1 (tc)}… (6)
However, Mean {·} represents the average of ·.
・ Average value of pupil diameter aftereffect
M2 = Mean {P3 (tc) / P1 (tc)}… (7)
-Pupil diameter amplitude ratio
M3 = (Max (P2 (0: φ / 2))-Min (P2 (φ / 2: φ)))
/ (Max (P1 (0: φ / 2))-Min (P1 (φ / 2: φ)))… (8)
However, Max (P1 (0: φ / 2)) represents the maximum value of P1 (α) (0 ≦ α ≦ φ / 2), and Min (P1 (φ / 2: φ)) represents P1 (β) ( represents the minimum value of φ / 2 ≦ β ≦ φ).
・ Phase difference of pupil diameter fluctuation
M4 = (tc (Max (P2 (0: φ / 2))) + tc (Min (P2 (φ / 2: φ)))-φ / 2)
/ (tc (Max (P1 (0: φ / 2))) + tc (Min (P1 (φ / 2: φ)))-φ / 2)… (9)
However, tc (Max (•)) represents the time when · is maximum, and tc (Min (•)) represents the time when · is minimum.
・ Balance ratio of enlargement / reduction of pupil diameter
M5 = | {P2 (0: φ / 2) -P1 (0: φ / 2)} / {P2 (φ / 2: φ) -P1 (φ / 2: φ)} |… (10)
However, | · | represents the absolute value of •.

瞳孔反応は、網膜、皮質下、そして視覚皮質における神経細胞や神経核の働きに依存しており、これらの5測定値(M1〜M5)はそれぞれ脳内の異なるメカニズムを反映していると考えられる。例えば、式(8)と式(10)により算出される値は、画像がもたらす交感神経系の活性化と副交感神経系の抑制の強さを示している。式(9)から求められる値は、中脳にあるEW神経核から動眼神経系への投射の速度に比例する。   The pupillary response depends on the functions of neurons and nucleus in the retina, subcortex, and visual cortex, and these five measurements (M1 to M5) are thought to reflect different mechanisms in the brain. It is done. For example, the values calculated by Equation (8) and Equation (10) indicate the strength of sympathetic nervous system activation and parasympathetic nervous system suppression caused by the image. The value obtained from Equation (9) is proportional to the speed of projection from the EW nucleus in the midbrain to the oculomotor system.

なお、M1〜M5の計算時に、時間区間T2, T3の各先頭の所定時間区間の瞳孔径のデータを用いないことが望ましい。この所定時間区間は瞳孔の反応潜時以上であることが望ましい。例えば、M1〜M5の計算時に、時間区間T2, T3の最初の一周期分の瞳孔径のデータを用いないことが望ましい。より具体的には、例えば、式(5)の代わりに以下の式(11)に従って時間区間T2, T3における平均の瞳孔径P2(tc),P3(tc)を求めることが望ましい。   It should be noted that it is desirable not to use pupil diameter data for a predetermined time interval at the beginning of each of the time intervals T2 and T3 when calculating M1 to M5. The predetermined time interval is preferably equal to or greater than the reaction latency of the pupil. For example, it is desirable not to use pupil diameter data for the first period of the time intervals T2 and T3 when calculating M1 to M5. More specifically, for example, it is desirable to obtain average pupil diameters P2 (tc) and P3 (tc) in time intervals T2 and T3 according to the following equation (11) instead of equation (5).

Pi(tc)=(Σn=2 N{Vi(tc+φ*(n-1)})/N …(11)
なぜなら、時間区間T1と時間区間T2との間の変動ニュートラル画像から変動ターゲット画像に切り替わる時点、及び、時間区間T2と時間区間T3との間の変動ターゲット画像から変動ニュートラル画像に切り替わる時点で何らかの対光反射が生じる可能性があるからである。ターゲット画像のピクセル位置をランダムに配置したものをニュートラル画像とした場合、変動ニュートラル画像と変動ターゲット画像では、各時点においてその明るさの平均が完全に等しい。そのために変動ニュートラル画像から変動ターゲット画像へ切り替わるとき(或いはその逆のとき)に、大きい対光反射が起きるとは考えられないが、その大きさがゼロであるとは必ずしも保証されない。また、新しい刺激への非線形な応答である定位反応が生じる可能性もある。
Pi (tc) = (Σ n = 2 N (Vi (tc + φ * (n-1)}) / N… (11)
This is because there is a certain point in time when the changing neutral image between the time interval T1 and the time interval T2 is changed to the changing target image, and when the changing target image is changed between the time interval T2 and the time interval T3 to the changing neutral image. This is because light reflection may occur. When a neutral image is obtained by randomly arranging the pixel positions of the target image, the average brightness of the variable neutral image and the variable target image is completely equal at each time point. Therefore, when switching from a varying neutral image to a varying target image (or vice versa), it is not considered that large light reflection occurs, but it is not always guaranteed that the magnitude is zero. There may also be a stereotactic response that is a non-linear response to new stimuli.

時間区間T2, T3の各先頭の所定時間区間の瞳孔径のデータを用いないことにより、不確定な対光反射や定位反応の成分を除去することができる。特に、これらの先頭の所定時間区間を瞳孔の反応潜時以上の区間とした場合、不確定な対光反射や定位反応の成分を完全に除去することができる。例えば、瞳孔の反応潜時(0.5秒以下)は0.5秒以下と短いため、各画像が呈示されたから最初の一周期(2秒)のデータを省くことにより、不確定な対光反射や定位反応の成分を完全に除去することができる。以上の操作により、式(1)において未知数であったRは、輝度Yの変化によりもたらされる対光反射成分(P1(t))として定量化されるため、Epの推定が可能になる。   By not using the pupil diameter data of the predetermined time interval at the beginning of each of the time intervals T2 and T3, it is possible to remove indeterminate light reflection and localization reaction components. In particular, when these first predetermined time sections are sections longer than the reaction latency of the pupil, indefinite light reflection and localization reaction components can be completely removed. For example, since the reaction latency of the pupil (0.5 seconds or less) is as short as 0.5 seconds or less, each image is presented, so by omitting the data for the first period (2 seconds), indefinite light reflection and localization response Can be completely removed. As a result of the above operation, R, which is an unknown value in the equation (1), is quantified as a light reflection component (P1 (t)) caused by a change in the luminance Y, so that Ep can be estimated.

本形態では、式(6)〜(10)から算出される5測定値(M1〜M5)の線形和を感情強度Epとして算出する(式(12))。   In this embodiment, the linear sum of the five measurement values (M1 to M5) calculated from the equations (6) to (10) is calculated as the emotion strength Ep (equation (12)).

Ep=W1*M1+W2*M2+W3*M3+W4*M4+W5*M5 …(12)
ただし、W1〜W5は式(6)〜(10)で記した各測定値(M1〜M5)への重み付け係数である。感情研究においてよく用いられている画像データベース(IAPS)の各画像に対して、感情の強さを反映しているとされる精神性発汗量を測定したデータがある(例えば、「Bradley, M. & Lang, P. (2007) Emotion and motivation. In Handbook of Psychophysiology (Edited by J.Cacioppo, L.Tassinary, G.Berntson), Cambridge University Press」参照)。同じデータベースを用いて、瞳孔径から感情強度式(12)を測定し、精神性発汗量と最も高い相関を示す重み付け値W1〜W5を推定した。その結果、[W1, W2, W3, W4, W5]=[1, 0.5, 0.5, 1, 0.5]という値が得られた。便宜的にこの値をW1〜W5として使用することも可能であるし、実施の状況や目的に応じてW1〜W5を可変とすることもできる。また、各測定値(M1〜M5)の一部が用いられず、W1〜W5の一部が0であってもよい。
Ep = W1 * M1 + W2 * M2 + W3 * M3 + W4 * M4 + W5 * M5… (12)
However, W1 to W5 are weighting factors for the respective measured values (M1 to M5) described in the equations (6) to (10). For each image in the image database (IAPS) often used in emotion research, there is data that measures the amount of mental sweating that is said to reflect the strength of emotion (for example, “Bradley, M. & Lang, P. (2007) Emotion and motivation. In Handbook of Psychophysiology (Edited by J. Cacioppo, L. Tassinary, G. Berntson), Cambridge University Press ”). Using the same database, the emotional intensity equation (12) was measured from the pupil diameter, and weight values W1 to W5 showing the highest correlation with the amount of mental sweating were estimated. As a result, the values [W1, W2, W3, W4, W5] = [1, 0.5, 0.5, 1, 0.5] were obtained. For convenience, this value can be used as W1 to W5, and W1 to W5 can be made variable according to the implementation situation and purpose. Moreover, a part of each measured value (M1-M5) may not be used, and a part of W1-W5 may be zero.

本形態の方法により、自律神経系が制御する瞳孔径の反応を測定することで、任意の画像を見たときに観察者が持つ感情の強さを推定できる。これにより、アンケートといった主観的な手法に頼らず、画像への感情の強さを定量的に評価することが可能になった。瞳孔反応は、精神性発汗など他の自律神経に比べて馴化が少ないため、同一観察者から複数回の反応を測定することができるし、また複数の画像を評価する場合、その呈示順序も自在に変更可能である。精神性発汗など強い馴化が生じる自律神経測定の場合、最初の方に見せた画像への反応が大きくなる傾向にあり感情の推定が困難になるが、本形態によりその問題は解決された。また、本形態では、異なる脳内メカニズムを反映していると考えられる5測定値式(6)〜(10)を瞳孔反応から算出することから、個別の脳メカニズムと感情強度との関係を明確にすることができる。精神性発汗や筋電図よりも観察者が意識的に操作することが難しいことも、瞳孔径利用の利点である。   By measuring the pupil diameter response controlled by the autonomic nervous system by the method of this embodiment, it is possible to estimate the emotional strength of the observer when viewing an arbitrary image. This makes it possible to quantitatively evaluate the intensity of emotions on images without relying on subjective methods such as questionnaires. The pupillary reaction is less habituated compared to other autonomic nerves such as mental sweating, so multiple responses can be measured from the same observer, and the order of presentation is also flexible when evaluating multiple images Can be changed. In the case of autonomic nerve measurement in which strong habituation such as mental sweating occurs, the response to the image shown to the beginning tends to be large and the estimation of emotions becomes difficult, but this problem has been solved by this form. In addition, in this embodiment, five measurement formulas (6) to (10), which are thought to reflect different brain mechanisms, are calculated from the pupil response, so the relationship between individual brain mechanisms and emotional intensity is clarified. Can be. It is also an advantage of using the pupil diameter that the observer is more difficult to operate consciously than mental sweating or electromyogram.

〔第1実施形態〕
次に、本発明の第1実施形態を説明する。
[First Embodiment]
Next, a first embodiment of the present invention will be described.

<構成>
図1に例示するように、第1実施形態の感情強度測定装置110は、色特性入力部111と画像入力部112と画像作成部113と瞳孔情報入力部114と感情計測部115と制御部116とを有し、画像呈示装置120及び瞳孔計測装置130に接続される。画像作成部113は、ニュートラル画像生成部113aと変動ニュートラル画像生成部113bと変動ターゲット画像生成部113cと選択部113dとを有する。感情計測部115は、抽出部115aと感情強度演算部115bとを有する。
<Configuration>
As illustrated in FIG. 1, the emotion intensity measurement device 110 according to the first embodiment includes a color characteristic input unit 111, an image input unit 112, an image creation unit 113, a pupil information input unit 114, an emotion measurement unit 115, and a control unit 116. And connected to the image presentation device 120 and the pupil measurement device 130. The image creation unit 113 includes a neutral image generation unit 113a, a variation neutral image generation unit 113b, a variation target image generation unit 113c, and a selection unit 113d. The emotion measurement unit 115 includes an extraction unit 115a and an emotion strength calculation unit 115b.

なお、感情強度測定装置110は、例えば、CPU(central processing unit)、RAM(random-access memory)、ROM(read-only memory)などを含む公知又は専用のコンピュータと特別なプログラムとによって構成される特別な装置である。例えば、画像作成部113と感情計測部115と制御部116は、読み込まれた特別なプログラムを実行するCPUや処理データを格納するRAMなどから構成される。なお、以下では説明を省略するが、画像作成部113や感情計測部115や制御部116は、必要に応じてRAMに処理データを格納し、必要に応じてRAMに格納されたデータを読み出す。また、画像作成部113、感情計測部115及び制御部116の少なくとも一部が集積回路によって構成されていてもよい。また、色特性入力部111と画像入力部112と瞳孔情報入力部114は、例えば、入力ポートや通信装置などの入力インタフェースである。画像呈示装置120は、例えば、コンピュータディスプレイなどであり、瞳孔計測装置130は、例えば、眼球運動計測器(アイトラッカー)などである。   The emotion intensity measuring device 110 is configured by a known or dedicated computer including a CPU (central processing unit), RAM (random-access memory), ROM (read-only memory), and the like and a special program. It is a special device. For example, the image creation unit 113, the emotion measurement unit 115, and the control unit 116 include a CPU that executes a read special program, a RAM that stores processing data, and the like. In addition, although description is abbreviate | omitted below, the image preparation part 113, the emotion measurement part 115, and the control part 116 store process data in RAM as needed, and read the data stored in RAM as needed. Further, at least a part of the image creation unit 113, the emotion measurement unit 115, and the control unit 116 may be configured by an integrated circuit. The color characteristic input unit 111, the image input unit 112, and the pupil information input unit 114 are input interfaces such as an input port and a communication device, for example. The image presentation device 120 is, for example, a computer display, and the pupil measurement device 130 is, for example, an eye movement measuring instrument (eye tracker).

<処理>
感情強度測定装置110は、以下の処理によってターゲット画像を観察した観察者の感情の強さを推定するための情報を生成する(図2)。
<Processing>
The emotion intensity measuring device 110 generates information for estimating the emotional intensity of the observer who observed the target image by the following processing (FIG. 2).

まず、色特性入力部111に、RGB表色系をXYZ表色系に変換するための変換行列Tを特定するための情報が入力される。変換行列Tを特定するための情報は、変換行列Tそのものであってもよいし、変換行列Tを算出するための画像測定結果であってもよい(ステップS11)。また、画像入力部112に、XYZ表色系のターゲット画像が入力される。ターゲット画像は、各ピクセルのRGB値(∈{0, 1})を含む(ステップS12)。   First, information for specifying a conversion matrix T for converting the RGB color system to the XYZ color system is input to the color characteristic input unit 111. The information for specifying the transformation matrix T may be the transformation matrix T itself or an image measurement result for calculating the transformation matrix T (step S11). In addition, a target image of the XYZ color system is input to the image input unit 112. The target image includes the RGB value (∈ {0, 1}) of each pixel (step S12).

画像入力部112に入力されたターゲット画像はニュートラル画像生成部113aに送られる。ニュートラル画像生成部113aは、ターゲット画像を用いて任意に配置された複数のピクセルからなるニュートラル画像を生成する。好ましくは、ニュートラル画像生成部113aは、ターゲット画像が含む各ピクセルの位置を任意に変更して得られる画像をニュートラル画像として出力する(例えば、式(2))。この場合、ニュートラル画像とターゲット画像との平均輝度及びそれらに含まれる色の成分を同一としつつ、ターゲット画像が持つ感情を引き起こす成分を消したものをニュートラル画像とすることができる。その結果、変動ターゲット画像から変動ニュートラル画像に切り替わる時点で何らかの対光反射が生じる可能性を低減させることができる(ステップS13)。   The target image input to the image input unit 112 is sent to the neutral image generation unit 113a. The neutral image generation unit 113a generates a neutral image composed of a plurality of pixels arbitrarily arranged using the target image. Preferably, the neutral image generation unit 113a outputs an image obtained by arbitrarily changing the position of each pixel included in the target image as a neutral image (for example, Expression (2)). In this case, the neutral image can be obtained by eliminating the components that cause the emotion of the target image while keeping the average luminance of the neutral image and the target image and the components of the colors included in the same. As a result, it is possible to reduce the possibility that some kind of light reflection occurs at the time of switching from the fluctuation target image to the fluctuation neutral image (step S13).

ニュートラル画像生成部113aから出力されたニュートラル画像と色特性入力部111に入力された変換行列Tを特定するための情報とは変動ニュートラル画像生成部113bに入力される。変動ニュートラル画像生成部113bは、これらを用いてニュートラル画像の輝度を時間に応じて変動させた変動ニュートラル画像を生成する。なお、ニュートラル画像の輝度の変動のさせ方に制限はないが、その変動は時間に対して周期的であることが望ましく、正弦波状の変動(例えば、式(4))であることが望ましい。輝度を正弦波状に変動させた場合、それによって生じる対光反射の変化を単純化でき、感情強度の抽出精度が向上するからである。変動ニュートラル画像生成部113bは、制御部116に制御された選択部113dの制御に基づき、時間区間T1において変動ニュートラル画像を出力する。なお、第1実施形態では、時間区間T1が「第1時間区間」に相当する。出力された変動ニュートラル画像は画像呈示装置120に入力され、画像呈示装置120は変動ニュートラル画像を出力する。変動ニュートラル画像を観測した観測者の瞳孔径は瞳孔計測装置130で観測される。瞳孔計測装置130は、時間区間T1での観察者の瞳孔径に対応する瞳孔径情報を出力し、当該瞳孔径情報は瞳孔情報入力部114に入力される(ステップS14)。   The neutral image output from the neutral image generation unit 113a and the information for specifying the transformation matrix T input to the color characteristic input unit 111 are input to the variable neutral image generation unit 113b. The fluctuation neutral image generation unit 113b uses these to generate a fluctuation neutral image in which the luminance of the neutral image is changed according to time. Although there is no limitation on how to change the brightness of the neutral image, the change is preferably periodic with respect to time, and is preferably a sinusoidal change (for example, Equation (4)). This is because, when the luminance is changed in a sine wave shape, the change in light reflection caused by the luminance can be simplified, and the extraction accuracy of emotional intensity is improved. The fluctuation neutral image generation unit 113b outputs a fluctuation neutral image in the time interval T1 based on the control of the selection unit 113d controlled by the control unit 116. In the first embodiment, the time interval T1 corresponds to the “first time interval”. The output variable neutral image is input to the image presenting device 120, and the image presenting device 120 outputs the variable neutral image. The pupil diameter of the observer who observed the variable neutral image is observed by the pupil measurement device 130. The pupil measurement device 130 outputs pupil diameter information corresponding to the pupil diameter of the observer in the time interval T1, and the pupil diameter information is input to the pupil information input unit 114 (step S14).

画像入力部112から出力されたターゲット画像と変換行列Tを特定するための情報とは変動ターゲット画像生成部113cに入力される。変動ターゲット画像生成部113cは、これらを用いてターゲット画像の輝度を時間に応じて変動させた変動ターゲット画像を生成する。なお、ターゲット画像の輝度の変動のさせ方に制限はないが、その変動は時間に対して周期的であることが望ましく、正弦波状の変動(例えば、式(4))であることが望ましい。輝度を正弦波状に変動させた場合、それによって生じる対光反射の変化を単純化でき、感情強度の抽出精度が向上するからである。また、非線形な対光反射を低減させるために、ターゲット画像の輝度の変動のさせ方とニュートラル画像の輝度の変動のさせ方とは同一であることが望ましい。変動ターゲット画像生成部113cは、制御部116に制御された選択部113dの制御に基づき、時間区間T1に続く時間区間T2において変動ターゲット画像を出力する。なお、第1実施形態では、時間区間T2が「第2時間区間」に相当する。出力された変動ターゲット画像は画像呈示装置120に入力され、画像呈示装置120は変動ターゲット画像を出力する。変動ターゲット画像を観測した観測者の瞳孔径は瞳孔計測装置130で観測される。瞳孔計測装置130は、時間区間T2での観察者の瞳孔径に対応する瞳孔径情報を出力し、当該瞳孔径情報は瞳孔情報入力部114に入力される(ステップS15)。   The target image output from the image input unit 112 and information for specifying the transformation matrix T are input to the variable target image generation unit 113c. The fluctuation target image generation unit 113c uses these to generate a fluctuation target image in which the luminance of the target image is fluctuated according to time. Although there is no limitation on how to change the brightness of the target image, the change is preferably periodic with respect to time, and is preferably a sinusoidal change (for example, Equation (4)). This is because, when the luminance is changed in a sine wave shape, the change in light reflection caused by the luminance can be simplified, and the extraction accuracy of emotional intensity is improved. In order to reduce nonlinear light reflection, it is desirable that the method of changing the luminance of the target image and the method of changing the luminance of the neutral image are the same. Based on the control of the selection unit 113d controlled by the control unit 116, the fluctuation target image generation unit 113c outputs a fluctuation target image in a time interval T2 following the time interval T1. In the first embodiment, the time interval T2 corresponds to a “second time interval”. The output variation target image is input to the image presentation device 120, and the image presentation device 120 outputs the variation target image. The pupil diameter of the observer who observed the variable target image is observed by the pupil measurement device 130. The pupil measurement device 130 outputs pupil diameter information corresponding to the pupil diameter of the observer in the time interval T2, and the pupil diameter information is input to the pupil information input unit 114 (step S15).

さらに、変動ニュートラル画像生成部113bは、制御部116に制御された選択部113dの制御に基づき、時間区間T2に続く時間区間T3において再び変動ニュートラル画像を出力する。なお、第1実施形態では、時間区間T3が「第3時間区間」に相当する。出力された変動ニュートラル画像は画像呈示装置120に入力され、画像呈示装置120は変動ニュートラル画像を出力する。変動ニュートラル画像を観測した観測者の瞳孔径は瞳孔計測装置130で観測される。瞳孔計測装置130は、時間区間T3での観察者の瞳孔径に対応する瞳孔径情報を出力し、当該瞳孔径情報は瞳孔情報入力部114に入力される(ステップS16)。   Further, the fluctuation neutral image generation unit 113b outputs the fluctuation neutral image again in the time interval T3 following the time interval T2 based on the control of the selection unit 113d controlled by the control unit 116. In the first embodiment, the time interval T3 corresponds to a “third time interval”. The output variable neutral image is input to the image presenting device 120, and the image presenting device 120 outputs the variable neutral image. The pupil diameter of the observer who observed the variable neutral image is observed by the pupil measurement device 130. The pupil measurement device 130 outputs pupil diameter information corresponding to the pupil diameter of the observer in the time interval T3, and the pupil diameter information is input to the pupil information input unit 114 (step S16).

瞳孔情報入力部114に入力された瞳孔径情報は抽出部115aに入力される。抽出部115aは、制御部116の制御に基づいて時間区間T1,T2,T3での瞳孔径情報をそれぞれ時間区間T1,T2,T3ごとに分離抽出して出力する(ステップS17)。   Pupil diameter information input to the pupil information input unit 114 is input to the extraction unit 115a. Based on the control of the control unit 116, the extraction unit 115a separates and extracts pupil diameter information in the time intervals T1, T2, and T3 for each time interval T1, T2, and T3 (step S17).

各時間区間T1,T2,T3での各瞳孔径情報は、それぞれ感情強度演算部115bに入力される。感情強度演算部115bは、各時間区間T1,T2,T3での瞳孔径情報を用い、ターゲット画像を観察した観察者の感情の強さを推定するための情報(感情強度Ep)を生成して出力する。なお、本形態の感情強度Epは、例えば、時間区間T1での瞳孔径情報によって特定される瞳孔径と時間区間T2での瞳孔径情報によって特定される瞳孔径との間の変動量(例えば、式(6)のM1)、時間区間T2での瞳孔径情報によって特定される瞳孔径と時間区間T3での瞳孔径情報によって特定される瞳孔径との間の変動量(例えば、式(7) のM2)、時間区間T1での瞳孔径情報によって特定される瞳孔径の大きさと時間区間T2での瞳孔径情報によって特定される瞳孔径の大きさとの間の相対値(例えば、式(8)のM3)、時間区間T1での瞳孔径情報によって特定される瞳孔径の位相と時間区間T2での瞳孔径情報によって特定される瞳孔径の位相との間の相対値(例えば、式(9)のM4)、及び、時間区間T1での瞳孔径情報によって特定される瞳孔径の大きさと時間区間T2での瞳孔径情報によって特定される瞳孔径の大きさとの間の相対値の変動値(例えば、式(10)のM5)、の少なくとも一部に対応する情報である。本形態の感情強度Epは、例えば、前述した式(12)によって特定される値である。   Each pupil diameter information in each time section T1, T2, T3 is input to the emotion intensity calculation unit 115b. The emotion intensity calculation unit 115b uses the pupil diameter information in each time interval T1, T2, T3 to generate information (emotion intensity Ep) for estimating the emotion intensity of the observer who observed the target image. Output. The emotion intensity Ep in this embodiment is, for example, the amount of variation between the pupil diameter specified by the pupil diameter information in the time section T1 and the pupil diameter specified by the pupil diameter information in the time section T2 (for example, M1 in equation (6), the amount of variation between the pupil diameter specified by the pupil diameter information in time interval T2 and the pupil diameter specified by the pupil diameter information in time interval T3 (for example, equation (7) M2), a relative value between the size of the pupil diameter specified by the pupil diameter information in the time interval T1 and the size of the pupil diameter specified by the pupil diameter information in the time interval T2 (for example, Equation (8) M3), a relative value between the phase of the pupil diameter specified by the pupil diameter information in the time interval T1 and the phase of the pupil diameter specified by the pupil diameter information in the time interval T2 (for example, Equation (9) M4), and the size of the pupil diameter specified by the pupil diameter information in the time interval T1 and the time interval T2. Information corresponding to at least a part of a fluctuation value (for example, M5 in Expression (10)) of the relative value between the size of the pupil diameter specified by the pupil diameter information. The emotion strength Ep in this embodiment is, for example, a value specified by the above-described equation (12).

また、時間区間T2が先頭の所定時間区間と当該所定時間区間に続く第1利用時間区間とを含み、感情強度Epの算出に用いられる時間区間T2での瞳孔径情報が第1利用時間区間での観察者の瞳孔径に対応する情報であることが望ましい。また、時間区間T3が先頭の所定時間区間と当該所定時間区間に続く第2利用時間区間とを含み、感情強度Epの算出に用いられる時間区間T3での瞳孔径情報が第2利用時間区間での観察者の瞳孔径に対応する情報であることが望ましい。ここで、「先頭の所定時間区間」は瞳孔の反応潜時以上であることが望ましい。より具体的には、例えば、式(5)の代わりに以下の式(11)に従って時間区間T2, T3における平均の瞳孔径P2(tc),P3(tc)を求めることが望ましい。このように時間区間T2, T3の各先頭の所定時間区間の瞳孔径のデータを用いないことにより、不確定な対光反射や定位反応の成分を除去することができる。   In addition, the time interval T2 includes the first predetermined time interval and the first usage time interval following the predetermined time interval, and the pupil diameter information in the time interval T2 used for calculating the emotion intensity Ep is the first usage time interval. It is desirable that the information corresponds to the pupil diameter of the observer. Moreover, the time interval T3 includes the first predetermined time interval and the second usage time interval following the predetermined time interval, and the pupil diameter information in the time interval T3 used for calculating the emotion intensity Ep is the second usage time interval. It is desirable that the information corresponds to the pupil diameter of the observer. Here, the “predetermined predetermined time interval” is preferably equal to or greater than the reaction latency of the pupil. More specifically, for example, it is desirable to obtain average pupil diameters P2 (tc) and P3 (tc) in time intervals T2 and T3 according to the following equation (11) instead of equation (5). Thus, by not using the pupil diameter data of the predetermined time interval at the beginning of each of the time intervals T2 and T3, it is possible to remove indeterminate light reflection and localization reaction components.

〔第2実施形態〕
第2実施形態は第1実施形態の変形例であり、時間区間T3において変動ニュートラル画像を出力することなく、感情強度Epを算出する形態である。以下では第1実施形態との相違点のみを説明する。
[Second Embodiment]
The second embodiment is a modification of the first embodiment, in which the emotion strength Ep is calculated without outputting a fluctuating neutral image in the time interval T3. Only differences from the first embodiment will be described below.

<構成>
図1に例示するように、第2実施形態の感情強度測定装置210は、色特性入力部111と画像入力部112と画像作成部213と瞳孔情報入力部114と感情計測部215と制御部116とを有し、画像呈示装置120及び瞳孔計測装置130に接続される。画像作成部213は、ニュートラル画像生成部113aと変動ニュートラル画像生成部113bと変動ターゲット画像生成部113cと選択部213dとを有する。感情計測部315は、抽出部215aと感情強度演算部215bとを有する。なお、感情強度測定装置210は、例えば、第1実施形態と同様、CPU、RAM、ROMなどを含む公知又は専用のコンピュータと特別なプログラムとによって構成される特別な装置である。
<Configuration>
As illustrated in FIG. 1, the emotion intensity measurement apparatus 210 according to the second embodiment includes a color characteristic input unit 111, an image input unit 112, an image creation unit 213, a pupil information input unit 114, an emotion measurement unit 215, and a control unit 116. And connected to the image presentation device 120 and the pupil measurement device 130. The image creation unit 213 includes a neutral image generation unit 113a, a fluctuation neutral image generation unit 113b, a fluctuation target image generation unit 113c, and a selection unit 213d. The emotion measuring unit 315 includes an extracting unit 215a and an emotion intensity calculating unit 215b. The emotion intensity measuring device 210 is a special device configured by a known or dedicated computer including a CPU, RAM, ROM, and the like and a special program, for example, as in the first embodiment.

<処理>
感情強度測定装置210は、以下の処理によってターゲット画像を観察した観察者の感情の強さを推定するための情報を生成する(図2)。
<Processing>
The emotion intensity measuring device 210 generates information for estimating the emotional intensity of the observer who observed the target image by the following processing (FIG. 2).

まず、第1実施形態で説明したステップS11〜S15の処理が実行される。ここで、制御部116に制御された選択部213dの制御のもと、時間区間T1での変動ニュートラル画像や時間区間T2での変動ターゲット画像の出力は行われるが、第1実施形態で説明した時間区間T3での変動ニュートラル画像の出力処理(ステップS16)は実行されない。これらの処理によって瞳孔情報入力部114に入力された瞳孔径情報は抽出部215aに入力される。抽出部215aは、制御部116の制御に基づいて時間区間T1,T2(第1,2時間区間)での瞳孔径情報をそれぞれ時間区間T1,T2ごとに分離抽出して出力する(ステップS27)。   First, the processes of steps S11 to S15 described in the first embodiment are executed. Here, under the control of the selection unit 213d controlled by the control unit 116, the fluctuation neutral image in the time interval T1 and the fluctuation target image in the time interval T2 are output. However, as described in the first embodiment. The fluctuation neutral image output process (step S16) in the time interval T3 is not executed. The pupil diameter information input to the pupil information input unit 114 by these processes is input to the extraction unit 215a. Based on the control of the control unit 116, the extraction unit 215a separates and extracts pupil diameter information in the time intervals T1 and T2 (first and second time intervals) for each time interval T1 and T2 (step S27). .

各時間区間T1,T2での瞳孔径情報は、それぞれ感情強度演算部215bに入力される。感情強度演算部215bは、各時間区間T1,T2での瞳孔径情報を用い、ターゲット画像を観察した観察者の感情の強さを推定するための情報(感情強度Ep)を生成して出力する。なお、本形態の感情強度Epは、例えば、時間区間T1での瞳孔径情報によって特定される瞳孔径と時間区間T2での瞳孔径情報によって特定される瞳孔径との間の変動量(例えば、式(6)のM1)、時間区間T1での瞳孔径情報によって特定される瞳孔径の大きさと時間区間T2での瞳孔径情報によって特定される瞳孔径の大きさとの間の相対値(例えば、式(8)のM3)、時間区間T1での瞳孔径情報によって特定される瞳孔径の位相と時間区間T2での瞳孔径情報によって特定される瞳孔径の位相との間の相対値(例えば、式(9)のM4)、及び、時間区間T1での瞳孔径情報によって特定される瞳孔径の大きさと時間区間T2での瞳孔径情報によって特定される瞳孔径の大きさとの間の相対値の変動値(例えば、式(10)のM5)の少なくとも一部に対応する情報である。本形態の感情強度Epは、例えば、W2=0とした前述した式(12)によって特定される値である。   Pupil diameter information in each time interval T1, T2 is input to the emotion intensity calculation unit 215b. The emotion strength calculation unit 215b generates and outputs information (emotion strength Ep) for estimating the emotion strength of the observer who observed the target image, using the pupil diameter information in each time interval T1, T2. . The emotion intensity Ep in this embodiment is, for example, the amount of variation between the pupil diameter specified by the pupil diameter information in the time section T1 and the pupil diameter specified by the pupil diameter information in the time section T2 (for example, M1 in equation (6), the relative value between the size of the pupil diameter specified by the pupil diameter information in the time interval T1 and the size of the pupil diameter specified by the pupil diameter information in the time interval T2 (for example, M3) in equation (8), the relative value between the phase of the pupil diameter specified by the pupil diameter information in the time interval T1 and the phase of the pupil diameter specified by the pupil diameter information in the time interval T2 (for example, Eq. (9) M4) and the relative value between the pupil diameter specified by the pupil diameter information in time interval T1 and the pupil diameter specified by the pupil diameter information in time interval T2. This is information corresponding to at least a part of the fluctuation value (for example, M5 in Expression (10)). The emotion strength Ep in this embodiment is a value specified by the above-described equation (12) where W2 = 0, for example.

また、本形態でも、時間区間T2が先頭の所定時間区間と当該所定時間区間に続く第1利用時間区間とを含み、感情強度Epの算出に用いられる時間区間T2での瞳孔径情報が第1利用時間区間での観察者の瞳孔径に対応する情報であることが望ましく、「先頭の所定時間区間」が瞳孔の反応潜時以上であることが望ましい。より具体的には、例えば、式(5)の代わりに以下の式(11)に従って時間区間T2における平均の瞳孔径P2(tc)を求めることが望ましい。このように時間区間T2の先頭の所定時間区間の瞳孔径のデータを用いないことにより、不確定な対光反射や定位反応の成分を除去することができる。   Also in this embodiment, the time interval T2 includes the first predetermined time interval and the first usage time interval following the predetermined time interval, and the pupil diameter information in the time interval T2 used for calculating the emotion intensity Ep is the first. The information is preferably information corresponding to the pupil diameter of the observer in the usage time interval, and the “first predetermined time interval” is preferably equal to or greater than the reaction latency of the pupil. More specifically, for example, it is desirable to obtain the average pupil diameter P2 (tc) in the time interval T2 according to the following equation (11) instead of the equation (5). Thus, by not using the pupil diameter data for the predetermined time interval at the beginning of the time interval T2, it is possible to remove indeterminate light reflection and localization reaction components.

〔第3実施形態〕
第3実施形態は第1実施形態の変形例であり、時間区間T1において変動ニュートラル画像を出力することなく、感情強度Epを算出する形態である。以下では第1実施形態との相違点のみを説明する。なお、第3実施形態では、時間区間T3が「第1時間区間」に相当し、時間区間T2が「第2時間区間」に相当する。
[Third Embodiment]
The third embodiment is a modification of the first embodiment, in which the emotion strength Ep is calculated without outputting the fluctuation neutral image in the time interval T1. Only differences from the first embodiment will be described below. In the third embodiment, the time interval T3 corresponds to the “first time interval”, and the time interval T2 corresponds to the “second time interval”.

<構成>
図1に例示するように、第2実施形態の感情強度測定装置310は、色特性入力部111と画像入力部112と画像作成部313と瞳孔情報入力部114と感情計測部315と制御部116とを有し、画像呈示装置120及び瞳孔計測装置130に接続される。画像作成部313は、ニュートラル画像生成部113aと変動ニュートラル画像生成部113bと変動ターゲット画像生成部113cと選択部313dとを有する。感情計測部315は、抽出部315aと感情強度演算部315bとを有する。なお、感情強度測定装置310は、例えば、第1実施形態と同様、CPU、RAM、ROMなどを含む公知又は専用のコンピュータと特別なプログラムとによって構成される特別な装置である。
<Configuration>
As illustrated in FIG. 1, the emotion intensity measuring apparatus 310 according to the second embodiment includes a color characteristic input unit 111, an image input unit 112, an image creation unit 313, a pupil information input unit 114, an emotion measurement unit 315, and a control unit 116. And connected to the image presentation device 120 and the pupil measurement device 130. The image creation unit 313 includes a neutral image generation unit 113a, a fluctuation neutral image generation unit 113b, a fluctuation target image generation unit 113c, and a selection unit 313d. The emotion measurement unit 315 includes an extraction unit 315a and an emotion strength calculation unit 315b. The emotion intensity measuring device 310 is a special device configured by a known or dedicated computer including a CPU, RAM, ROM, and the like and a special program, for example, as in the first embodiment.

<処理>
感情強度測定装置310は、以下の処理によってターゲット画像を観察した観察者の感情の強さを推定するための情報を生成する(図2)。
<Processing>
The emotion intensity measurement device 310 generates information for estimating the emotional intensity of the observer who observed the target image by the following processing (FIG. 2).

まず、第1実施形態で説明したステップS11〜S13,S14,15の処理が実行される。ここで、制御部116に制御された選択部313dの制御のもと、時間区間T2での変動ターゲット画像の出力や時間区間T3での変動ニュートラル画像の出力は行われるが、第1実施形態で説明した時間区間T1での変動ニュートラル画像の出力処理(ステップS14)は実行されない。瞳孔情報入力部114に入力された時間区間T2,T3での瞳孔径情報は抽出部315aに入力される。抽出部315aは、制御部116の制御に基づいて時間区間T2,T3での瞳孔径情報をそれぞれ時間区間T2,T3ごとに分離抽出して出力する(ステップS37)。   First, the processes of steps S11 to S13, S14, and 15 described in the first embodiment are executed. Here, under the control of the selection unit 313d controlled by the control unit 116, the output of the fluctuation target image in the time interval T2 and the output of the fluctuation neutral image in the time interval T3 are performed, but in the first embodiment. The output process (step S14) of the changing neutral image in the time interval T1 described is not executed. The pupil diameter information in the time sections T2 and T3 input to the pupil information input unit 114 is input to the extraction unit 315a. Based on the control of the control unit 116, the extraction unit 315a separates and extracts the pupil diameter information in the time sections T2 and T3 for each of the time sections T2 and T3 (step S37).

各時間区間T2,T3での瞳孔径情報は、それぞれ感情強度演算部315bに入力される。感情強度演算部315bは、各時間区間T2,T3での瞳孔径情報を用い、ターゲット画像を観察した観察者の感情の強さを推定するための情報(感情強度Ep)を生成して出力する。   The pupil diameter information in each time interval T2, T3 is input to the emotion intensity calculation unit 315b. The emotion intensity calculation unit 315b generates and outputs information (emotion intensity Ep) for estimating the emotional intensity of the observer who observed the target image, using the pupil diameter information in each time interval T2, T3. .

なお、本形態の感情強度Epは、時間区間T2での瞳孔径情報によって特定される瞳孔径と時間区間T3での瞳孔径情報によって特定される瞳孔径との間の変動量(例えば、式(7) のM2)、時間区間T3での瞳孔径情報によって特定される瞳孔径の大きさと時間区間T2での瞳孔径情報によって特定される瞳孔径の大きさとの間の相対値(例えば、以下の式(13)のM3')、時間区間T3での瞳孔径情報によって特定される瞳孔径の位相と時間区間T2での瞳孔径情報によって特定される瞳孔径の位相との間の相対値(例えば、以下の式(14)のM4')、及び、時間区間T3での瞳孔径情報によって特定される瞳孔径の大きさと時間区間T2での瞳孔径情報によって特定される瞳孔径の大きさとの間の相対値の変動値(例えば、以下の式(15)のM5')、の少なくとも一部に対応する情報である。また、本形態の感情強度Epは、例えば、以下の式(16)によって特定される値である。   It should be noted that the emotional intensity Ep in this embodiment is the amount of variation between the pupil diameter specified by the pupil diameter information in the time interval T2 and the pupil diameter specified by the pupil diameter information in the time interval T3 (for example, the formula ( 7) M2), the relative value between the size of the pupil diameter specified by the pupil diameter information in the time interval T3 and the size of the pupil diameter specified by the pupil diameter information in the time interval T2 (for example, M3 ′ in Expression (13)), a relative value between the phase of the pupil diameter specified by the pupil diameter information in the time interval T3 and the phase of the pupil diameter specified by the pupil diameter information in the time interval T2 (for example, M4 ′) of the following equation (14), and the size of the pupil diameter specified by the pupil diameter information in the time section T3 and the size of the pupil diameter specified by the pupil diameter information in the time section T2 Information corresponding to at least a part of the fluctuation value of the relative value (for example, M5 ′ in the following equation (15)) A. Further, the emotion strength Ep in this embodiment is a value specified by the following equation (16), for example.

M3'=(Max(P2(0:φ/2))-Min(P2(φ/2:φ)))
/(Max(P3(0:φ/2))-Min(P3(φ/2:φ)))…(13)
M4'=(tc(Max(P2(0:φ/2)))+tc(Min(P2(φ/2:φ)))-φ/2)
/(tc(Max(P3(0:φ/2)))+tc(Min(P3(φ/2:φ)))-φ/2)) …(14)
M5'=|{P2(0:φ/2)-P3(0:φ/2)}
/{P2(φ/2:φ)-P3(φ/2:φ)}| …(15)
Ep=W2*M2+W3*M3'+W4*M4'+W5*M5' …(16)
また、本形態でも、時間区間T3が先頭の所定時間区間と当該所定時間区間に続く第2利用時間区間とを含み、感情強度Epの算出に用いられる時間区間T3での瞳孔径情報が第2利用時間区間での観察者の瞳孔径に対応する情報であることが望ましく、「先頭の所定時間区間」が瞳孔の反応潜時以上であることが望ましい。より具体的には、例えば、式(5)の代わりに以下の式(11)に従って時間区間T3における平均の瞳孔径P3(tc)を求めることが望ましい。このように時間区間T3の先頭の所定時間区間の瞳孔径のデータを用いないことにより、不確定な対光反射や定位反応の成分を除去することができる。
M3 '= (Max (P2 (0: φ / 2))-Min (P2 (φ / 2: φ)))
/(Max(P3(0:φ/2))-Min(P3(φ/2:φ)))...(13)
M4 '= (tc (Max (P2 (0: φ / 2))) + tc (Min (P2 (φ / 2: φ)))-φ / 2)
/ (tc (Max (P3 (0: φ / 2))) + tc (Min (P3 (φ / 2: φ)))-φ / 2))… (14)
M5 '= | {P2 (0: φ / 2) -P3 (0: φ / 2)}
/ {P2 (φ / 2: φ) -P3 (φ / 2: φ)} |… (15)
Ep = W2 * M2 + W3 * M3 '+ W4 * M4' + W5 * M5 '… (16)
Also in this embodiment, the time interval T3 includes the first predetermined time interval and the second usage time interval following the predetermined time interval, and the pupil diameter information in the time interval T3 used for calculating the emotion intensity Ep is the second. The information is preferably information corresponding to the pupil diameter of the observer in the usage time interval, and the “first predetermined time interval” is preferably equal to or greater than the reaction latency of the pupil. More specifically, for example, it is desirable to obtain the average pupil diameter P3 (tc) in the time interval T3 according to the following equation (11) instead of the equation (5). Thus, by not using the pupil diameter data of the predetermined time interval at the beginning of the time interval T3, it is possible to remove indeterminate light reflection and localization reaction components.

〔その他の変形例〕
なお、本発明は上述の実施の形態に限定されるものではない。例えば、上述の各実施形態では、ターゲット画像が含む各ピクセルの位置をランダムに変更して得られる画像をニュートラル画像とする例を示したが、ターゲット画像と無関係な任意に配置された複数のピクセルからなる画像をニュートラル画像としてもよい。
[Other variations]
The present invention is not limited to the embodiment described above. For example, in each of the above-described embodiments, an example in which an image obtained by randomly changing the position of each pixel included in the target image is a neutral image has been described, but a plurality of arbitrarily arranged pixels that are unrelated to the target image It is good also considering the image which consists of as a neutral image.

上述の各実施形態では、ニュートラル画像やターゲット画像の輝度を時間に対して正弦波状に変動させる例を示したが、例えば、ニュートラル画像やターゲット画像の輝度を時間に対して矩形波形状やのこぎり波状に変動させてもよい。   In each of the above-described embodiments, an example in which the luminance of the neutral image or the target image is changed in a sinusoidal shape with respect to time has been described. For example, the luminance of the neutral image or the target image is a rectangular wave shape or a sawtooth wave shape with respect to time. It may be varied.

また、各実施形態では、感情強度測定装置と画像呈示装置と瞳孔計測装置とが別個の装置であったが、これらの少なくとも一部が一体化されていてもよい。   In each embodiment, the emotion intensity measurement device, the image presentation device, and the pupil measurement device are separate devices, but at least a part of them may be integrated.

また、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。   In addition, the various processes described above are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary. Needless to say, other modifications are possible without departing from the spirit of the present invention.

また、上述の構成をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。   Further, when the above-described configuration is realized by a computer, processing contents of functions that each device should have are described by a program. The processing functions are realized on the computer by executing the program on the computer.

この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。   The program describing the processing contents can be recorded on a computer-readable recording medium. As the computer-readable recording medium, for example, any recording medium such as a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory may be used.

また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。   The program is distributed by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Furthermore, the program may be distributed by storing the program in a storage device of the server computer and transferring the program from the server computer to another computer via a network.

このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。   A computer that executes such a program first stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. When executing the process, this computer reads the program stored in its own recording device and executes the process according to the read program. As another execution form of the program, the computer may directly read the program from a portable recording medium and execute processing according to the program, and the program is transferred from the server computer to the computer. Each time, the processing according to the received program may be executed sequentially. Also, the program is not transferred from the server computer to the computer, and the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes the processing function only by the execution instruction and result acquisition. It is good. Note that the program in this embodiment includes information that is used for processing by an electronic computer and that conforms to the program (data that is not a direct command to the computer but has a property that defines the processing of the computer).

また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。   In this embodiment, the present apparatus is configured by executing a predetermined program on a computer. However, at least a part of these processing contents may be realized by hardware.

110,120,310 感情強度測定装置 110, 120, 310 Emotion intensity measuring device

Claims (10)

ターゲット画像を観察した観察者の感情の強さを推定するための情報を生成する感情強度測定装置であって、
前記ターゲット画像が入力される画像入力部と、
任意に配置された複数のピクセルからなるニュートラル画像の輝度を時間に応じて変動させた変動ニュートラル画像を第1時間区間において出力し、前記ターゲット画像の輝度を時間に応じて変動させた変動ターゲット画像を第2時間区間において出力する画像作成部と、
前記第1時間区間での前記観察者の瞳孔径に対応する第1瞳孔径情報と、前記第2時間区間での前記観察者の瞳孔径に対応する第2瞳孔径情報とが入力される瞳孔情報入力部と、
記第2瞳孔径情報を前記第1瞳孔径情報で正規化することにより、前記ターゲット画像を観察した観察者の感情の強さを推定するための情報を生成する感情計算部と、
を有し、
前記観察者の感情の強さを推定するための情報は、前記第2瞳孔径情報を前記第1瞳孔径情報で正規化した値が大きいほど前記観察者の感情の強さが強いことに対応するものである、感情強度測定装置。
An emotion intensity measuring device that generates information for estimating the emotional intensity of an observer who has observed a target image,
An image input unit to which the target image is input;
A fluctuating target image in which a fluctuating neutral image in which the luminance of a neutral image consisting of a plurality of arbitrarily arranged pixels is fluctuated in accordance with time is output in a first time interval, and the luminance of the target image is fluctuated in accordance with time. An image creation unit for outputting the second time interval;
Pupil to which first pupil diameter information corresponding to the pupil diameter of the observer in the first time interval and second pupil diameter information corresponding to the pupil diameter of the observer in the second time interval are input. An information input section;
By normalizing the previous SL second pupil diameter information by the first pupil diameter information, and emotion calculation unit that generates information for estimating the strength of the emotion of the observer observing the target image,
I have a,
The information for estimating the observer's emotional intensity corresponds to the fact that the greater the value obtained by normalizing the second pupil diameter information with the first pupil diameter information, the stronger the observer's emotional intensity. it is intended to, emotional intensity measuring device.
請求項1の感情強度測定装置であって、
前記第2時間区間は、前記第1時間区間に続く時間区間であり、
前記第2時間区間は、先頭の所定時間区間と当該所定時間区間に続く第1利用時間区間とを含み、
前記第2瞳孔径情報は、前記第1利用時間区間での前記観察者の瞳孔径に対応する情報である、
ことを特徴とする感情強度測定装置。
The emotion intensity measuring device according to claim 1,
The second time interval is a time interval following the first time interval;
The second time interval includes a first predetermined time interval and a first usage time interval following the predetermined time interval,
The second pupil diameter information is information corresponding to the pupil diameter of the observer in the first usage time interval.
An emotion intensity measuring device characterized by the above.
請求項2の感情強度測定装置であって、
前記画像作成部は、さらに、前記第2時間区間に続く第3時間区間において前記変動ニュートラル画像を出力し、
前記瞳孔情報入力部には、さらに、前記第3時間区間での前記観察者の瞳孔径に対応する第3瞳孔径情報が入力され、
前記感情計算部は、さらに前記第3瞳孔径情報を前記第1瞳孔径情報で正規化した値を用い、前記ターゲット画像を観察した観察者の感情の強さを推定するための情報を生成
前記観察者の感情の強さを推定するための情報は、前記第2瞳孔径情報を前記第1瞳孔径情報で正規化した値が大きいほど、かつ、前記第3瞳孔径情報を前記第1瞳孔径情報で正規化した値が大きいほど前記観察者の感情の強さが強いことに対応するものである
ことを特徴とする感情強度測定装置。
The emotion intensity measuring device according to claim 2,
The image creation unit further outputs the fluctuating neutral image in a third time interval following the second time interval,
The pupil information input unit further receives third pupil diameter information corresponding to the pupil diameter of the observer in the third time interval,
The emotion calculation unit further uses normalized values in the third pupil diameter information the first pupil diameter information, generates information for estimating the strength of the emotion of the observer observing the target image ,
The information for estimating the emotional strength of the observer is such that the value obtained by normalizing the second pupil diameter information with the first pupil diameter information is larger, and the third pupil diameter information is the first information. The emotion intensity measuring apparatus characterized in that the larger the value normalized by the pupil diameter information, the stronger the emotional strength of the observer .
請求項3の感情強度測定装置であって、
前記第3時間区間は、先頭の所定時間区間と当該所定時間区間に続く第2利用時間区間とを含み、
前記第3瞳孔径情報は、前記第2利用時間区間での前記観察者の瞳孔径に対応する情報である、
ことを特徴とする感情強度測定装置。
The emotion intensity measuring device according to claim 3,
The third time interval includes a first predetermined time interval and a second usage time interval following the predetermined time interval,
The third pupil diameter information is information corresponding to the pupil diameter of the observer in the second usage time interval.
An emotion intensity measuring device characterized by the above.
請求項1から4の何れかの感情強度測定装置であって、
前記ターゲット画像を観察した観察者の感情の強さを推定するための情報は、
前記第1瞳孔径情報によって特定される瞳孔径と前記第2瞳孔径情報によって特定される瞳孔径との間の変動量、前記第1瞳孔径情報によって特定される瞳孔径の大きさと前記第2瞳孔径情報によって特定される瞳孔径の大きさとの間の相対値、前記第1瞳孔径情報によって特定される瞳孔径の位相と前記第2瞳孔径情報によって特定される瞳孔径の位相との間の相対値、及び、前記第1瞳孔径情報によって特定される瞳孔径の大きさと前記第2瞳孔径情報によって特定される瞳孔径の大きさとの間の相対値の変動値、の少なくとも一部の線形和である、
ことを特徴とする感情強度測定装置。
The emotion intensity measuring device according to any one of claims 1 to 4,
Information for estimating the emotional strength of the observer who observed the target image is
The amount of variation between the pupil diameter specified by the first pupil diameter information and the pupil diameter specified by the second pupil diameter information, the size of the pupil diameter specified by the first pupil diameter information, and the second A relative value between the size of the pupil diameter specified by the pupil diameter information, a phase of the pupil diameter specified by the first pupil diameter information, and a phase of the pupil diameter specified by the second pupil diameter information At least a part of the relative value of the pupil diameter and the fluctuation value of the relative value between the pupil diameter specified by the first pupil diameter information and the pupil diameter specified by the second pupil diameter information. A linear sum ,
An emotion intensity measuring device characterized by the above.
請求項3又は4の感情強度測定装置であって、
前記ターゲット画像を観察した観察者の感情の強さを推定するための情報は、前記第1瞳孔径情報によって特定される瞳孔径と前記第2瞳孔径情報によって特定される瞳孔径との間の変動量、前記第2瞳孔径情報によって特定される瞳孔径と前記第3瞳孔径情報によって特定される瞳孔径との間の変動量、前記第1瞳孔径情報によって特定される瞳孔径の大きさと前記第2瞳孔径情報によって特定される瞳孔径の大きさとの間の相対値、前記第1瞳孔径情報によって特定される瞳孔径の位相と前記第2瞳孔径情報によって特定される瞳孔径の位相との間の相対値、及び、前記第1瞳孔径情報によって特定される瞳孔径の大きさと前記第2瞳孔径情報によって特定される瞳孔径の大きさとの間の相対値の変動値、の少なくとも一部の線形和である、
ことを特徴とする感情強度測定装置。
The emotion intensity measuring device according to claim 3 or 4,
Information for estimating the emotional intensity of the observer who has observed the target image is between the pupil diameter specified by the first pupil diameter information and the pupil diameter specified by the second pupil diameter information. The amount of variation, the amount of variation between the pupil diameter specified by the second pupil diameter information and the pupil diameter specified by the third pupil diameter information, the size of the pupil diameter specified by the first pupil diameter information, The relative value between the size of the pupil diameter specified by the second pupil diameter information, the phase of the pupil diameter specified by the first pupil diameter information, and the phase of the pupil diameter specified by the second pupil diameter information And a relative value fluctuation value between the size of the pupil diameter specified by the first pupil diameter information and the size of the pupil diameter specified by the second pupil diameter information, part of the linear sum der ,
An emotion intensity measuring device characterized by the above.
請求項1から6の何れかの感情強度測定装置であって、
前記ニュートラル画像は、前記ターゲット画像が含む各ピクセルの位置を任意に変更して得られる画像である、
ことを特徴とする感情強度測定装置。
The emotion intensity measuring device according to any one of claims 1 to 6,
The neutral image is an image obtained by arbitrarily changing the position of each pixel included in the target image.
An emotion intensity measuring device characterized by the above.
請求項1から7の何れかの感情強度測定装置であって、
前記変動ニュートラル画像の輝度及び前記変動ターゲット画像の輝度は、それぞれ、時間を変数とする正弦波で表現される、
ことを特徴とする感情強度測定装置。
The emotion intensity measuring device according to any one of claims 1 to 7,
The luminance of the variable neutral image and the luminance of the variable target image are each represented by a sine wave with time as a variable.
An emotion intensity measuring device characterized by the above.
ターゲット画像を観察した観察者の感情の強さを推定するための情報を生成する感情強度測定方法であって、
前記ターゲット画像が入力されるステップと、
任意に配置された複数のピクセルからなるニュートラル画像の輝度を時間に応じて変動させた変動ニュートラル画像を第1時間区間において出力し、前記ターゲット画像の輝度を時間に応じて変動させた変動ターゲット画像を第2時間区間において出力するステップと、
前記第1時間区間での前記観察者の瞳孔径に対応する第1瞳孔径情報と、前記第2時間区間での前記観察者の瞳孔径に対応する第2瞳孔径情報とが入力されるステップと、
記第2瞳孔径情報を前記第1瞳孔径情報で正規化することにより、前記ターゲット画像を観察した観察者の感情の強さを推定するための情報を生成するステップと、
を有し、
前記観察者の感情の強さを推定するための情報は、前記第2瞳孔径情報を前記第1瞳孔径情報で正規化した値が大きいほど前記観察者の感情の強さが強いことに対応するものである、感情強度測定方法。
An emotion strength measurement method for generating information for estimating the emotional strength of an observer who has observed a target image,
Inputting the target image;
A fluctuating target image in which a fluctuating neutral image in which the luminance of a neutral image consisting of a plurality of arbitrarily arranged pixels is fluctuated in accordance with time is output in a first time interval, and the luminance of the target image is fluctuated in accordance with time. Outputting in the second time interval;
Step of inputting first pupil diameter information corresponding to the pupil diameter of the observer in the first time interval and second pupil diameter information corresponding to the pupil diameter of the observer in the second time interval. When,
By normalizing the previous SL second pupil diameter information by the first pupil diameter information, and generating information for estimating the strength of the emotion of the observer observing the target image,
I have a,
The information for estimating the observer's emotional intensity corresponds to the fact that the greater the value obtained by normalizing the second pupil diameter information with the first pupil diameter information, the stronger the observer's emotional intensity. A method for measuring emotional strength.
請求項1から8の何れかの感情強度測定装置としてコンピュータを機能させるためのプログラム。   A program for causing a computer to function as the emotion intensity measuring device according to any one of claims 1 to 8.
JP2010113555A 2010-05-17 2010-05-17 Emotion intensity measuring apparatus, emotion intensity measuring method, and program Active JP5438591B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010113555A JP5438591B2 (en) 2010-05-17 2010-05-17 Emotion intensity measuring apparatus, emotion intensity measuring method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010113555A JP5438591B2 (en) 2010-05-17 2010-05-17 Emotion intensity measuring apparatus, emotion intensity measuring method, and program

Publications (2)

Publication Number Publication Date
JP2011239891A JP2011239891A (en) 2011-12-01
JP5438591B2 true JP5438591B2 (en) 2014-03-12

Family

ID=45407194

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010113555A Active JP5438591B2 (en) 2010-05-17 2010-05-17 Emotion intensity measuring apparatus, emotion intensity measuring method, and program

Country Status (1)

Country Link
JP (1) JP5438591B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108024768A (en) * 2015-05-27 2018-05-11 斋藤粮三 Movable termination Stress appraisal program and the movable termination comprising the program

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8670723B2 (en) * 2012-03-08 2014-03-11 Empire Technology Development Llc Measuring quality of experience associated with a mobile device
JP5829590B2 (en) * 2012-09-10 2015-12-09 日本電信電話株式会社 Fatigue evaluation device, fatigue evaluation method, and program
CN104586410B (en) * 2014-12-02 2018-02-23 惠州Tcl移动通信有限公司 Mobile terminal, wearable device, the system and method for judging User Status
JP6509712B2 (en) * 2015-11-11 2019-05-08 日本電信電話株式会社 Impression estimation device and program
JP6445418B2 (en) * 2015-11-11 2018-12-26 日本電信電話株式会社 Impression estimation device, impression estimation method, and program
JP6721818B2 (en) * 2016-04-05 2020-07-15 渡 倉島 Brain activity amount determination device and program by expanding pupil diameter
JP2018027267A (en) * 2016-08-19 2018-02-22 Kddi株式会社 Image viewer state estimation apparatus, method, and program
JP6692924B2 (en) * 2016-12-09 2020-05-13 パイオニア株式会社 Sleepiness estimation device
JP6908902B2 (en) * 2017-05-15 2021-07-28 国立大学法人東京工業大学 Information input device based on fluctuations in pupil diameter
JP6811971B2 (en) * 2019-10-30 2021-01-13 糧三 齋藤 Stress evaluation program for mobile terminals and mobile terminals equipped with the program
JP6952293B2 (en) * 2019-10-30 2021-10-20 糧三 齋藤 Stress evaluation program for mobile terminals and mobile terminals equipped with the program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108024768A (en) * 2015-05-27 2018-05-11 斋藤粮三 Movable termination Stress appraisal program and the movable termination comprising the program
US10741286B2 (en) 2015-05-27 2020-08-11 Ryozo Saito Stress evaluation program for mobile terminal and mobile terminal provided with program

Also Published As

Publication number Publication date
JP2011239891A (en) 2011-12-01

Similar Documents

Publication Publication Date Title
JP5438591B2 (en) Emotion intensity measuring apparatus, emotion intensity measuring method, and program
Grassini et al. Processing of natural scenery is associated with lower attentional and cognitive load compared with urban ones
Arabadzhiyska et al. Saccade landing position prediction for gaze-contingent rendering
Bone et al. Eye movement reinstatement and neural reactivation during mental imagery
Suzuki et al. Multisensory integration across exteroceptive and interoceptive domains modulates self-experience in the rubber-hand illusion
Aigrain et al. Multimodal stress detection from multiple assessments
Neuper et al. Imagery of motor actions: Differential effects of kinesthetic and visual–motor mode of imagery in single-trial EEG
Kourtis et al. Predictive representation of other people's actions in joint action planning: An EEG study
Ménoret et al. Neural correlates of non-verbal social interactions: a dual-EEG study
Jacobs et al. Human anterior intraparietal and ventral premotor cortices support representations of grasping with the hand or a novel tool
Dumas et al. The human dynamic clamp reveals the fronto-parietal network linking real-time social coordination and cognition
Zhou et al. To do or not to do? Action enlarges the FRN and P300 effects in outcome evaluation
Lauritzen et al. Top–down flow of visual spatial attention signals from parietal to occipital cortex
Lee et al. An SSVEP-actuated brain computer interface using phase-tagged flickering sequences: a cursor system
Courtemanche et al. Physiological heatmaps: a tool for visualizing users’ emotional reactions
KR20190005219A (en) Augmented Reality Systems and Methods for User Health Analysis
Quadflieg et al. The neural basis of perceiving person interactions
van der Heiden et al. Inter-individual differences in successful perspective taking during pain perception mediates emotional responsiveness in self and others: an fMRI study
Gradl et al. Visualization of heart activity in virtual reality: A biofeedback application using wearable sensors
Christian et al. When imagining yourself in pain, visual perspective matters: The neural and behavioral correlates of simulated sensory experiences
Dan et al. Real time EEG based measurements of cognitive load indicates mental states during learning
JP2014161677A (en) Brain wave signal processing device, brain wave signal processing method, program, and recording medium
Caggiano et al. Encoding of point of view during action observation in the local field potentials of macaque area F5
Perepelkina et al. Artificial hand illusions dynamics: Onset and fading of static rubber and virtual moving hand illusions
Sneve et al. Top–down modulation from inferior frontal junction to FEFs and intraparietal sulcus during short-term memory for visual features

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130827

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131213

R150 Certificate of patent or registration of utility model

Ref document number: 5438591

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350