JPH0449943A - Eye ball motion analyzer - Google Patents

Eye ball motion analyzer

Info

Publication number
JPH0449943A
JPH0449943A JP2156199A JP15619990A JPH0449943A JP H0449943 A JPH0449943 A JP H0449943A JP 2156199 A JP2156199 A JP 2156199A JP 15619990 A JP15619990 A JP 15619990A JP H0449943 A JPH0449943 A JP H0449943A
Authority
JP
Japan
Prior art keywords
movement
head
eye
gaze
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2156199A
Other languages
Japanese (ja)
Other versions
JPH0446570B2 (en
Inventor
Mitsuo Yamada
光穗 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
A T R SHICHIYOUKAKU KIKO KENKYUSHO KK
Original Assignee
A T R SHICHIYOUKAKU KIKO KENKYUSHO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by A T R SHICHIYOUKAKU KIKO KENKYUSHO KK filed Critical A T R SHICHIYOUKAKU KIKO KENKYUSHO KK
Priority to JP2156199A priority Critical patent/JPH0449943A/en
Publication of JPH0449943A publication Critical patent/JPH0449943A/en
Publication of JPH0446570B2 publication Critical patent/JPH0446570B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Eye Examination Apparatus (AREA)
  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PURPOSE:To enable the analyzing of movement of a visual line to be realized by a motion of a head and that of a visual line by a motion of an eye ball simultaneously by detecting the motion of the head to be converted into a motion of the eye ball. CONSTITUTION:An eye motion detecting section 5 applies a detection output thereof to a gazing point processing section 7 and a head motion detecting section 6 applies a detection output thereof to the gazing point processing section 7. The processing section 7 computes movement of a visual line of an observer according to a motion of an eye ball and the motion of the head to define a notice point so that a moving component is separated between one gazing point and another from the movement of the eye sight. Then, gazing information separated with the processing section 7 is applied to an image processing section 8 to be converted into an image signal. The image signal is applied to a superimposer 9 and superimposed with a video signal applied from outside to be turned to a video output, which is shown on a display. This enables the analyzing of the gazing movement by the motion of the eye ball and that by the motion of the head simultaneously.

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は眼球運動分析装置に関し、特に、被験者の眼
球運動と頭部運動とを検出し、デイスプレィ上に視点を
表示可能な眼球運動分析装置に関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to an eye movement analysis device, and more particularly to an eye movement analysis device that can detect eye movements and head movements of a subject and display a viewpoint on a display. Regarding.

[従来の技術] 被験者の眼の動き、すなわち眼球運動を検出し、デイス
プレィ上やフィルム上に注視点を表示する装置は、アイ
カメラとして開発され、最も多く見る機会はおそらくド
ライバの眼の動きである。この被験者の眼球運動を検出
する方法は、角膜反射光による方法、コンタクトレンズ
を用いる方法あるいはEOG法など種々考えられている
[Prior Art] A device that detects the eye movement of a subject and displays the gaze point on a display or film was developed as an eye camera, and the most common opportunity to see it is probably due to the driver's eye movements. be. Various methods have been considered for detecting the eye movements of the subject, including a method using corneal reflected light, a method using a contact lens, and an EOG method.

第10図は、角膜表面の白目と黒目の反射率の違いを利
用する強膜反射方式を用いた眼球運動の検出原理を説明
するための図である。第10図を参照して、左右の眼E
l、E2に3個の素子か設けられたセンサ1,2が配置
される。センサ12の中央には発光素子3が配置され、
この発光素子3として比較的指向性の広い±21°程度
の赤外線投射の発光ダイオードが用いられる。発光素子
3の両側には受光素子4が設けられる。受光素子4は指
向性の鋭い±10°程度のフォトダイオードが用いられ
る。発光素子3から眼球に投射された光は黒目と白目と
で反射率が異なり、この反射率の違いを増幅し、差をと
れば水平(左右)の出力となり、和をとれば垂直(上下
)の出力となる。
FIG. 10 is a diagram for explaining the principle of detecting eye movement using the scleral reflection method, which utilizes the difference in reflectance between the white and iris of the corneal surface. Referring to Figure 10, left and right eyes E
Sensors 1 and 2 each having three elements are arranged at L and E2. A light emitting element 3 is arranged in the center of the sensor 12,
As the light-emitting element 3, a light-emitting diode that emits infrared radiation with a relatively wide directivity of about ±21° is used. Light receiving elements 4 are provided on both sides of the light emitting element 3. As the light receiving element 4, a photodiode with sharp directivity of approximately ±10° is used. The light projected from the light emitting element 3 to the eyeball has a different reflectance between the black eye and the white of the eye, and by amplifying this difference in reflectance and taking the difference, it becomes a horizontal (left and right) output, and when the sum is taken, it becomes a vertical (up and down) output. The output is

また、水平方向と垂直方向とでは、眼球に対するセンサ
1,2の位置が異なり、水平方向のセンサ1は眼球の上
下に対して中央に反射光を検出し、垂直方向のセンサ2
は下方にて反射光を検出するようにそれぞれ配置される
。そして、一方の眼E1に水平方向のセンサ1が配置さ
れ、他方の眼E2に垂直方向のセンサ2か配置され、こ
れらを同時に用いれば2次元的な眼球運動を検出し、デ
イスプレィ上に視点を表示することができる。たとえば
、このような方法から眼球の移動速度、移動方向、移動
距離、注視時間などの情報を求めるものとして、特開昭
60−126140号公報において開示されている。
Additionally, the positions of sensors 1 and 2 with respect to the eyeball are different between the horizontal direction and the vertical direction, with the horizontal sensor 1 detecting reflected light at the center of the eyeball above and below, and the vertical sensor 2 detecting the reflected light at the center of the eyeball.
are arranged so as to detect the reflected light below. A horizontal sensor 1 is placed on one eye E1, and a vertical sensor 2 is placed on the other eye E2.If these are used simultaneously, two-dimensional eye movements can be detected and the viewpoint can be displayed on the display. can be displayed. For example, Japanese Patent Laid-Open No. 126140/1983 discloses a method for obtaining information such as the moving speed, moving direction, moving distance, and gaze time of the eyeball from such a method.

このような装置を用いて、眼球運動の分析を行なう場合
、顆台を用いて被験者の頭部を固定し、眼球運動だけを
記録する。あるいは眼球運動検出センサを取付けたゴー
グルもしくは眼鏡フレームに小型カメラを搭載し、被験
者の視野に対応した画像を撮影することにより、頭部の
自由な運動を実現しつつ眼球運動を検出するという方式
か用いられている。また、従来の眼球運動分析装置では
、測定値はここで述べたように頭部を固定しているか、
あるいは固定していないときでも頭部運動の検出を行な
っていないか、もしくは行なっていても独立に検出して
視線への変換を行なっていない。
When analyzing eye movements using such a device, the subject's head is fixed using a condyle table and only eye movements are recorded. Alternatively, a small camera may be mounted on goggles or eyeglass frames equipped with an eye movement detection sensor to capture images corresponding to the subject's field of view, allowing for free movement of the head while detecting eye movement. It is used. In addition, with conventional eye movement analyzers, measurements are taken when the head is fixed or not, as described here.
Or, even when the head is not fixed, the head movement is not detected, or even if it is detected, it is not detected independently and converted into a line of sight.

[発明が解決しようとする課題] 上述のごとく、従来の眼球運動分析装置では、頭部運動
を考慮していないために、頭部運動を頬白で固定して測
定する方式では、眼球運動の分析は容易となるが、実際
には頭部運動を併用して注視を行なっている人間の自然
な観測行動を実現できないという問題点があった。
[Problems to be Solved by the Invention] As mentioned above, conventional eye movement analyzers do not take head movements into account, so the method of measuring head movements by fixing them with the whites of the cheeks is difficult to analyze eye movements. However, there is a problem in that it is not possible to realize the natural observation behavior of humans who gaze using head movements.

頭部運動を自由にした方式でも、頭部運動によって実現
される視線の動きを考慮していないために、車を運転中
など激しく頭部を動かし視線を変化させた場合、眼球運
動は生じていないために、注視点として表示される不都
合や、離れた相手へ、その顔を注視しながら歩くときの
ように、姿勢制御系の作用のために、頭部運動と全く逆
に眼球運動が生じ、実際には相手の顔を注視しているの
に、眼球運動として記録されたり表示されたりする不都
合があった。
Even with a method that allows free head movement, it does not take into account the movement of the line of sight achieved by head movement, so if you move your head violently and change your line of sight, such as while driving a car, no eye movement will occur. Due to the action of the postural control system, eye movements occur in the exact opposite direction to head movements, such as when walking while gazing at someone's face at a distance. , there was an inconvenience in that the eye movement was recorded or displayed even though the user was actually gazing at the other person's face.

それゆえに、この発明の主たる目的は、頭部運動を検出
し、これを視線の動きに変換することにより、頭部運動
によって実現される視線の動きと眼球運動による視線の
動きを同時に分析することのできるような眼球運動分析
装置を提供することである。
Therefore, the main purpose of this invention is to simultaneously analyze the gaze movement realized by head movement and the gaze movement caused by eyeball movement by detecting head movement and converting it into gaze movement. An object of the present invention is to provide an eye movement analysis device that can perform the following functions.

[課題を解決するための手段] この発明は観察者の眼球運動を分析する眼球運動分析装
置であって、眼球の動きを検出する眼球運動検出手段と
、頭部の動きを検出する頭部運動検出手段と、検出され
た眼球の動きと頭部の動きとに応じて観察者の視線の動
きを演算し、注視点を定義することによって視線の動き
から注視点を分離する注視点処理手段と、注視点と注視
点との間を移動する視線の動きからなる視線情報を画像
上に表示するための画像処理手段と、視線情報を観察者
のビデオ画像上に重ね合わせるスーパーインポーズ手段
とを備えて構成される。
[Means for Solving the Problems] The present invention is an eye movement analysis device that analyzes the eye movement of an observer, and includes an eye movement detection means that detects the movement of the eyeball, and a head movement analyzer that detects the movement of the head. a detection means; and a gaze point processing means that calculates the movement of the observer's line of sight according to the detected eyeball movements and head movements, and separates the gaze point from the gaze movement by defining the gaze point. , an image processing means for displaying on the image gaze information consisting of the movement of the gaze moving between the gaze points, and a superimposing means for superimposing the gaze information on the video image of the observer. Prepared and configured.

[作用〕 この発明に係る眼球運動分析装置は、眼球の動きと頭部
の動きとを検出し、これら眼球の動きと頭部の動きとに
応じて観察者の視線の動きを演算して注視点を定義する
ことにより、視線の動きから注視点を分離し、注視点と
注視点との間を移動する視線の動きからなる視線情報を
観察者の見ているビデオ画像上に重ね合わせて表示する
[Operation] The eye movement analysis device according to the present invention detects the movement of the eyeballs and the movement of the head, and calculates the movement of the observer's line of sight according to the movement of the eyeballs and the head. By defining the viewpoint, the gaze point is separated from the gaze movement, and the gaze information consisting of the gaze movement moving between the gaze points is superimposed on the video image being viewed by the observer. do.

[発明の実施例コ 以下に図面を参照してこの発明の一実施例について詳細
に説明する。
[Embodiment of the Invention] An embodiment of the invention will be described in detail below with reference to the drawings.

第1図はこの発明の一実施例の概略ブロック図である。FIG. 1 is a schematic block diagram of an embodiment of the present invention.

第1図を参照して、眼球運動検出部5は観察者の眼球の
動きを検出するものであって、その検出出力を注視点処
理部7に与える。頭部運動検出部6は観察者の頭部の動
きを検出するものであって、その検出出力を注視点処理
部7に与える。
Referring to FIG. 1, an eye movement detection section 5 detects the movement of the observer's eyeballs, and provides the detection output to a gaze point processing section 7. The head motion detection unit 6 detects the movement of the observer's head, and provides the detection output to the gaze point processing unit 7.

注視点処理部7は眼球運動検出部5で検出された眼球の
動きと頭部運動検出部6で検出された頭部の動きとに応
じて、観察者の視線の動きを演算し、注視点を定義する
ことによって、視線の動きから注視点と注視点との間の
移動成分を分離する。注視点処理部7によって分離され
た視線情報は画像処理部8に与えられ、画像信号に変換
される。この画像信号は、スーパーインポーザ9に与え
られ、外部から与えられるビデオ信号にスーパーインポ
ーズされてビデオ出力となり、図示しないデイスプレィ
に表示される。
The gaze point processing unit 7 calculates the movement of the observer's line of sight according to the eye movement detected by the eye movement detection unit 5 and the head movement detected by the head movement detection unit 6, and determines the gaze point. By defining , we separate the movement component between the gaze points from the gaze movement. The line of sight information separated by the gaze point processing section 7 is given to the image processing section 8 and converted into an image signal. This image signal is applied to a superimposer 9, where it is superimposed on a video signal applied from the outside to become a video output, which is displayed on a display (not shown).

第2図は頭部運動による視線の動きを説明するための図
である。次に、第2図を参照して、頭部運動による視線
の動きについて説明する。一般に見たい視対象を移動さ
せるには、眼球をその視対象に回転させる他、眼球は動
かさなくても頭部を移動させることによっても実現でき
る。通常は両者の動きを併用して行なっている。頭部運
動には、足や背骨の向きによる平行移動と、首、背骨、
#L足などによって実現される回転運動かある。この頭
部運動を後述する方式により、眼の回転角へ換算し、第
2図に示した頭部運動補正眼球回転角αを得る。注視点
の移動はこの頭部運動補正眼球回転角αと眼球自身の回
転角θの組合わせにより実行される。ここで、この2つ
の回転角αとθの和を総称して視線と定義する。
FIG. 2 is a diagram for explaining the movement of the line of sight due to head movement. Next, with reference to FIG. 2, the movement of the line of sight due to head movement will be explained. In general, moving the desired visual object can be achieved by rotating the eyeballs toward the visual object, or by moving the head without moving the eyeballs. Usually, both movements are used together. Head movement involves parallel movement due to the orientation of the feet and spine, as well as movement of the neck, spine,
# There is also a rotational movement realized by L foot etc. This head movement is converted into an eye rotation angle using a method described later to obtain a head movement corrected eye rotation angle α shown in FIG. Movement of the point of gaze is executed by a combination of this head movement correction eyeball rotation angle α and the eyeball rotation angle θ. Here, the sum of these two rotation angles α and θ is collectively defined as the line of sight.

第3図は前述の視線から注視点を定義する方法について
説明するための図である。眼球運動中には固視あるいは
注視しているときでも固視微動と称される微小な運動を
行なっている。また、姿勢の揺れによる視線のずれを防
ぐための前庭動眼反射1姿勢そのものの揺れによる前記
頭部運動補正眼球回転角αも固視中に生じている。すな
わち、視線が空間上を完全に静止している瞬間は、はと
んど存在しない。したがって、このように絶えず動いて
いる視線の動きの中から被験者が視対象より情報を受容
したいと思って注視することにより生じる注視点を分離
する必要がある。そのためには、ある基準を設けて注視
点を定義する必要がある。この注視点については、すで
に眼球運動速度を基準としたものが報告されている。(
特開昭60−126140 :通信学会論文誌[画像に
おける注視点の定義と画像分析への応用J1986゜9
、Vol、J69−D、No、9.1335頁〜134
2頁)。
FIG. 3 is a diagram for explaining the method of defining the gaze point from the aforementioned line of sight. During eye movements, even when fixating or gazing, the eye performs minute movements called fixation micromovements. In addition, the head movement correction eyeball rotation angle α due to the vestibulo-ocular reflex 1 posture itself to prevent deviation of the line of sight due to posture shaking also occurs during fixation. In other words, there are very few moments when the line of sight is completely stationary in space. Therefore, it is necessary to separate the gaze point, which occurs when the subject gazes with the intention of receiving information from the visual object, from among the constantly moving gaze movements. For this purpose, it is necessary to set a certain standard and define the gaze point. Regarding this gaze point, one based on eye movement speed has already been reported. (
JP 60-126140: Journal of the Communication Society [Definition of gaze point in images and its application to image analysis J1986゜9
, Vol. J69-D, No. 9.1335-134
2 pages).

この発明では、眼球運動速度を基準として決められた注
視点の定義を、頭部運動を含めた視線移動速度に拡張し
て注視点を定義したことをその特徴の1つとする。具体
的には、第3図に示すように、現在の注視点からしきい
速度vthと、サンプリング周期T6で決まる注視点の
範囲Dthの範囲内に、次のサンプルが入るときは、現
在の注視点と同じ注視点とし、この範囲を超えたときは
新しい注視点とした。しきい速度vthの一例として、
眼球運動中の随従運動の性質を基に5°/秒と定め、実
用に供している。たとえば、サンプリング周期が10m
5ecのとき、D t h−5゜/5ecXQ、 01
sec−Q、05″−3′である。
One of the features of this invention is that the definition of the gaze point, which is determined based on the eye movement speed, is expanded to include the gaze movement speed including head movement. Specifically, as shown in FIG. 3, when the next sample falls within the range Dth of the point of interest determined by the threshold velocity vth and the sampling period T6 from the current point of interest, the current point of interest is It was set as the same point of fixation as the viewpoint, and when it exceeded this range, it was set as a new point of fixation. As an example of the threshold speed vth,
It is set at 5°/sec based on the nature of follow-up movement during eyeball movement, and is used for practical purposes. For example, if the sampling period is 10m
When 5ec, D th-5゜/5ecXQ, 01
sec-Q, 05″-3′.

第4図は観察者の見ている画像の座標とこの発明の一実
施例によって実現される座標との対応を説明するための
図である。第4図(a)に示すように、被験者の位置か
ら距HDだけ離れた縦Dv。
FIG. 4 is a diagram for explaining the correspondence between the coordinates of an image viewed by an observer and the coordinates realized by an embodiment of the present invention. As shown in FIG. 4(a), the vertical Dv is a distance HD away from the subject's position.

横Dhの画面を観察する場合、画面座標は(11)−(
Px、Py)で表わされる。被験者から見た提示画像の
視角は、第4図(b)に示すように、 a−180/π・t a n−’ Dh/ (2・D)
b−180/π・tan−’Dv/ (2・D)視線移
動角(Xv、Yv)とし、これを画面座標(Xp、Yp
)に変換する式は、 Xp−f (Xv)−p十(r−p) 吟Xv/(a−
Xv)・・・(1) Yp”’g (Yv)−q+ (s−Q) ・Yv/(
b−Yv)・・・(2) で表わされる。
When observing a horizontal Dh screen, the screen coordinates are (11) - (
Px, Py). The visual angle of the presented image as seen from the subject is a-180/π・tan-' Dh/ (2・D), as shown in FIG. 4(b).
b-180/π・tan-'Dv/ (2・D) Let the gaze movement angle (Xv, Yv) be the screen coordinates (Xp, Yp
) is: Xp-f (Xv)-pju(r-p) ginXv/(a-
Xv)...(1) Yp"'g (Yv)-q+ (s-Q) ・Yv/(
b-Yv)...(2) It is expressed as follows.

第5図は第1図に示した眼球運動検出部5と頭部運動検
出部6とをゴーグルへ装着した例を示す図である。眼球
運動検出部5は前述の第10図に示したセンサ1と同様
にして中央に発光ダイオドが設けられ、その両側にフォ
トダイオードが設けられ、眼球の水平方向および垂直方
向の動きが検出される。頭部運動検出部6としては磁気
センサが用いられる。
FIG. 5 is a diagram showing an example in which the eye movement detecting section 5 and the head movement detecting section 6 shown in FIG. 1 are attached to goggles. The eye movement detecting section 5 is provided with a light emitting diode in the center in the same way as the sensor 1 shown in FIG. . A magnetic sensor is used as the head movement detection section 6.

第6図は第5図に示した頭部運動検出部6に用いられる
磁気センサの原理を説明するための図である。第6図を
参照して、頭部運動検出部6はソース61となる直交コ
イルと、センサ62となる直交コイルとを含む。コンピ
ュータ64からの指令に応じて、ドライブ回路65がソ
ース61の直交コイルを駆動して磁界を発生させる。頭
部運動検出部6を装着した被験者が動くと、センサ62
に電圧が誘起され、この電圧を検出回路63が検出し、
その検出出力をコンピュータ64が演算することにより
、頭部の移動に応じたデータが出力される。
FIG. 6 is a diagram for explaining the principle of the magnetic sensor used in the head motion detection section 6 shown in FIG. 5. Referring to FIG. 6, the head motion detection unit 6 includes an orthogonal coil that serves as a source 61 and an orthogonal coil that serves as a sensor 62. In response to commands from computer 64, drive circuit 65 drives orthogonal coils of source 61 to generate a magnetic field. When the subject wearing the head movement detection unit 6 moves, the sensor 62
A voltage is induced, and the detection circuit 63 detects this voltage.
The computer 64 calculates the detection output, thereby outputting data corresponding to the movement of the head.

第7図は被験者を中心とした頭部座標系についてその原
理を示す図である。次に、第7図を参照して、頭部運動
検出部6によって検出される頭部座標系について説明す
る。頭部座標系は、第7図(a)に示すように、被験者
の観察対象に対する平行移動により実現されるXYZ座
標系と、第7図(b)に示す頭部の回転運動に基づく極
座標系の2つが考えられる。それぞれの座標系の頭部移
動量を(Hx、Hy、Hz)、(Hφ、Hθ、Hψ)と
定義する。ここでは、−例として、観察対象に近ずく方
向をY軸とし、水平移動方向をX軸とし、垂直移動方向
をZ軸とした。HφはX軸の回転点すなわち首を上下に
頷く運動を示し、HθはY軸の回転すなわち左肩から右
肩へと一旦首を傾げる運動を示す。HψはZ軸内の回転
であり、首を左右に回転する運動である。
FIG. 7 is a diagram showing the principle of a head coordinate system centered on the subject. Next, the head coordinate system detected by the head motion detection section 6 will be explained with reference to FIG. The head coordinate system is an XYZ coordinate system realized by parallel movement of the subject with respect to the observation target, as shown in Figure 7(a), and a polar coordinate system based on the rotational movement of the head, as shown in Figure 7(b). There are two possibilities. The amount of head movement in each coordinate system is defined as (Hx, Hy, Hz) and (Hφ, Hθ, Hψ). Here, as an example, the direction of approaching the observation target is the Y axis, the horizontal movement direction is the X axis, and the vertical movement direction is the Z axis. Hφ indicates the rotation point of the X axis, that is, the movement of nodding the head up and down, and Hθ indicates the rotation of the Y axis, that is, the movement of tilting the head once from the left shoulder to the right shoulder. Hψ is rotation within the Z axis, and is a movement of rotating the neck from side to side.

頭部の水平移動(Hx、Hy、Hz)により視線が変化
するが、これを眼球回転角(E x、  E y)に換
算すると次式が得られる。
The line of sight changes due to horizontal movement of the head (Hx, Hy, Hz), and when this is converted into an eyeball rotation angle (E x, E y), the following equation is obtained.

Ex−180/π・tan−’Hx/ (D十Hy)・
・・ (3) Ey=180/π・t an−’ Hz/ (D+Hy
)・・・ (4) 首を左肩方向もしくは右肩方向にHθかしげると、眼球
運動系の座標が回転する。したがって、Hθだけ傾いた
眼球運動座標系(Xe、Ye)を元の観察対象に直交し
た座標系(Xe’ 、Ye’ )に変換する必要がある
Ex-180/π・tan-'Hx/ (D×Hy)・
... (3) Ey=180/π・tan-' Hz/ (D+Hy
)... (4) When the head is tilted by Hθ toward the left or right shoulder, the coordinates of the eye movement system rotate. Therefore, it is necessary to convert the eye movement coordinate system (Xe, Ye) tilted by Hθ into a coordinate system (Xe', Ye') orthogonal to the original observation object.

Xe’ −Xe ・cosHθ十Ye−sinHθ・・
・(5) Ye’   −−Xe  ・ s  i  nHθ 十
Y e 拳 c Os Hθ・・・(6) 頭部運動により実現される視線の動き(Xh、Yh)は
第(3)式、第(4)式より次式で表わされる。
Xe' −Xe ・cosHθ×Ye−sinHθ・・
・(5) Ye' -- From equation 4), it is expressed by the following equation.

Xh−Ex+Hψ         −(7)Yh−E
y十Hφ        ・・・(8)したがって、頭
の動きを考慮した視線の動き(Xv、Yv)は第(5)
式〜第(8)式より、次の第(9)式および第(10)
式で表わされる。
Xh-Ex+Hψ-(7)Yh-E
y0Hφ ... (8) Therefore, the movement of the line of sight (Xv, Yv) considering the movement of the head is the (5th)
From equations to equations (8), the following equations (9) and (10)
It is expressed by the formula.

Xv−Xe’ 十Xh        −(9)Yv−
Ye’ +Yh        −(10)上述の第(
9)式および第(10)式を用いることにより、頭部運
動と眼球運動とを組合わせて行なわれている通常の視線
の動きを再現することができる。
Xv-Xe' 10Xh -(9)Yv-
Ye' + Yh - (10) The above (
By using Equation 9) and Equation (10), it is possible to reproduce the normal movement of the line of sight that is performed by combining head movement and eyeball movement.

第8図はこの発明の一実施例の全体の動作を説明するた
めのフロー図であり、第9図はこの発明の一実施例によ
る表示画面の一例を示す図である。
FIG. 8 is a flowchart for explaining the overall operation of an embodiment of the present invention, and FIG. 9 is a diagram showing an example of a display screen according to an embodiment of the invention.

次に、第1図ないし第9図を参照して、この発明の一実
施例の具体的な動作について、第8図を用いて説明する
。まず、初期設定では、観察者の見ている座標と、この
発明の一実施例によって得られる視線の位置データを正
しく、観察者の見ている画像上にスーパーインポーズを
するための座標変換係数および数式の設定を行なう。座
標の変換を前述の第4図に示した方法により、第(1)
式および第(2)式を用いて視線移動角(Xv。
Next, referring to FIGS. 1 to 9, the specific operation of one embodiment of the present invention will be described using FIG. 8. First, in the initial settings, coordinate transformation coefficients are used to correctly superimpose the coordinates viewed by the observer and the position data of the line of sight obtained by an embodiment of the present invention onto the image viewed by the observer. and set the formula. By converting the coordinates using the method shown in Figure 4 above, (1)
The line of sight movement angle (Xv) is calculated using the equation and equation (2).

Yv)が画面座標(Xp、Yp)に変換される。Yv) is converted to screen coordinates (Xp, Yp).

次に、眼球運動検出部うで検出された眼球の動きと頭部
運動検出部6で検出された頭部の動きとにより、眼球運
動データの較正が行なわれる。すなわち、上述の第(9
)式および第(10)式により眼球運動データと頭部運
動データが視線の動きに変換され、同じく第(1)式お
よび第(2)式を用いて画面座標に変換される。これら
の変換によって得られる視線の動きは画面座標上に変換
されるが、その変換は相対的なものである。被験者の視
線の動きを被験者が実際に見ている視対象を撮影した画
面上に再現するためには、この画面座標と被験者の視線
を絶対的に一致させる必要がある。眼球運動較正ではこ
の作業が実行される。
Next, the eye movement data is calibrated using the eye movement detected by the eye movement detection unit and the head movement detected by the head movement detection unit 6. That is, the above (9th
) and Equation (10), the eye movement data and head movement data are converted into line-of-sight movements, and similarly, using Equations (1) and (2), they are converted into screen coordinates. The movement of the line of sight obtained by these transformations is transformed into screen coordinates, but the transformation is relative. In order to reproduce the movement of the subject's line of sight on the screen that captures the visual target that the subject is actually looking at, it is necessary to absolutely match the screen coordinates with the subject's line of sight. Eye movement calibration performs this task.

較正を終了した後、たとえばキーなどによって測定の開
始が指令され、再びキー人力などによって測定の終了が
指示されるまで測定が繰返される。
After the calibration is completed, the start of measurement is commanded by, for example, a key, and the measurement is repeated until the end of the measurement is commanded again by the key or the like.

画像表示では、第(1)式から第(10)式を用いて眼
球運動データと頭部運動データから真の視線の動きを求
め、被験者の見ている画像上に表示される。その際、す
でにその−例を開示した注視点の定義により視線の動き
を注視点と注視点との間の移動成分に分離される。そし
て、スーパーインポーザ9によって、観察者の見ている
画像上に注視点と注視点間の移動軌跡とがスーパーイン
ポーズされる。そのときの表示例を第9図に示す。
In the image display, the true movement of the line of sight is determined from the eye movement data and the head movement data using equations (1) to (10), and is displayed on the image that the subject is viewing. At this time, the movement of the line of sight is separated into movement components between the gaze points by the definition of the gaze point, an example of which has already been disclosed. Then, the superimposer 9 superimposes the gaze point and the movement trajectory between the gaze points on the image that the observer is viewing. An example of the display at that time is shown in FIG.

第9図に示した例は、被験者が女の子を見ているときの
視線の動きの例である。注視点は注視時間によって色分
けし、注視点間の移動軌跡を速度によって色分けし、画
像の対応する位置にスーパーインポーズされる。これら
によって得られた眼球運動1頭部運動およびサンプル数
などのデータは図示しないディスクなどに記録される。
The example shown in FIG. 9 is an example of the movement of the subject's line of sight when he is looking at a girl. Gaze points are color coded according to gaze time, movement trajectories between gaze points are color coded according to speed, and superimposed at corresponding positions in the image. Data such as eye movement, head movement, and number of samples obtained through these methods are recorded on a disk (not shown) or the like.

[発明の効果] 以上のように、この発明によれば、眼球の動きと頭部の
動きとを検出し、これらの検出出力に応じて観察者の視
線の動きを演算し、注視点を定義することによって視線
の動きから注視点を分離し、視線情報を観察者の見てい
る移動画像上に重ね合わせてスーパーインポーズするよ
うにしたので、眼球運動による視線の動きと頭部運動に
よる視線の動きとを同時に分析することができる。
[Effects of the Invention] As described above, according to the present invention, the movement of the eyeballs and the movement of the head are detected, the movement of the observer's line of sight is calculated according to these detection outputs, and the point of gaze is defined. By doing this, the gaze point is separated from the gaze movement, and the gaze information is superimposed on the moving image that the observer is looking at, so the gaze movement due to eyeball movement and the gaze due to head movement are separated. can be analyzed simultaneously with the movement of

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はこの発明の一実施例の概略ブロック図である。 第2図は頭部運動による視線の動きを説明するための図
である。第3図は注視点の定義を説明するための図であ
る。第4図は観察者の見ている画像の座標とこの発明の
一実施例によって実現されるシステムの座標との対応を
説明するための図である。第5図は眼球運動検出センサ
と頭部運動検出センサとをゴーグルへ装着した例を示す
図である。第6図は第5図に示した頭部運動検出部に用
いられる磁気センサの原理を説明するための図である。 第7図は被験者を中心とした頭部座標系についてその原
理を示す図である。第8図はこの発明の一実施例の具体
的な動作を説明するためのフロー図である。第9図は表
示画面の一例を示す図である。第10図は強膜反射方式
を用いた眼球運動の検出原理を説明するための図である
。 図において、5は眼球運動検出部、6は頭部運動検出部
、7は注視点処理部、8は画像処理部、9はスーパーイ
ンポーザ、61はソース、62はセンサ、63は検出回
路、64はコンピュータ、65はドライブ回路を示す。 特許出願人 株式会社エイ・ティ・アール視聴第 図 新いIオJムζt>bサンプル 第 図 第 図 第 図 。::IjlNh=h1 !Altj#3j1.f−4
/1RtTi’4Tゴγ■神申工 第 図 第 1゜ 図
FIG. 1 is a schematic block diagram of an embodiment of the present invention. FIG. 2 is a diagram for explaining the movement of the line of sight due to head movement. FIG. 3 is a diagram for explaining the definition of a gaze point. FIG. 4 is a diagram for explaining the correspondence between the coordinates of an image viewed by an observer and the coordinates of a system realized by an embodiment of the present invention. FIG. 5 is a diagram showing an example in which an eye movement detection sensor and a head movement detection sensor are attached to goggles. FIG. 6 is a diagram for explaining the principle of the magnetic sensor used in the head motion detection section shown in FIG. 5. FIG. 7 is a diagram showing the principle of a head coordinate system centered on the subject. FIG. 8 is a flowchart for explaining the specific operation of one embodiment of the present invention. FIG. 9 is a diagram showing an example of a display screen. FIG. 10 is a diagram for explaining the principle of detecting eye movement using the scleral reflex method. In the figure, 5 is an eye movement detection unit, 6 is a head movement detection unit, 7 is a gaze point processing unit, 8 is an image processing unit, 9 is a superimposer, 61 is a source, 62 is a sensor, 63 is a detection circuit, 64 is a computer, and 65 is a drive circuit. Patent Applicant A.T.R. Co., Ltd. Viewing Diagram New IoJmu ζt>b Sample Diagram Diagram Diagram Diagram Diagram. ::IjlNh=h1! Altj#3j1. f-4
/1RtTi'4TGoγ

Claims (1)

【特許請求の範囲】  観察者の眼球運動を分析する眼球運動分析装置であっ
て、 眼球の動きを検出する眼球運動検出手段、 頭部の動きを検出する頭部運動検出手段、 前記眼球運動検出手段によって検出された眼球の動きと
前記頭部運動検出手段によって検出された頭部の動きと
に応じて、前記観察者の視線の動きを演算し、注視点を
定義することによって視線の動きから注視点を分離する
注視点処理手段、注視点と注視点との間を移動する視線
の動きからなる視線情報を画像上に表示するための画像
処理手段、および 前記視線情報を前記観察者の見ているビデオ画像上に重
ね合わせるスーパーインポーズ手段を備えた、眼球運動
分析装置。
[Scope of Claims] An eye movement analysis device for analyzing eye movements of an observer, comprising: eye movement detection means for detecting eye movement; head movement detection means for detecting head movement; and the eye movement detection means. The movement of the observer's line of sight is calculated according to the movement of the eyeballs detected by the means and the movement of the head detected by the head motion detection means, and the movement of the line of sight is determined by defining a point of gaze. a gaze point processing means for separating gaze points, an image processing means for displaying gaze information on an image consisting of gaze movement moving between gaze points, and a gaze point processing means for displaying gaze information on an image, and An eye movement analysis device comprising superimposition means for superimposing onto a video image.
JP2156199A 1990-06-14 1990-06-14 Eye ball motion analyzer Granted JPH0449943A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2156199A JPH0449943A (en) 1990-06-14 1990-06-14 Eye ball motion analyzer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2156199A JPH0449943A (en) 1990-06-14 1990-06-14 Eye ball motion analyzer

Publications (2)

Publication Number Publication Date
JPH0449943A true JPH0449943A (en) 1992-02-19
JPH0446570B2 JPH0446570B2 (en) 1992-07-30

Family

ID=15622535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2156199A Granted JPH0449943A (en) 1990-06-14 1990-06-14 Eye ball motion analyzer

Country Status (1)

Country Link
JP (1) JPH0449943A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07296299A (en) * 1994-04-20 1995-11-10 Nissan Motor Co Ltd Image processor and warning device against doze at the wheel using the same
JPH08179239A (en) * 1994-12-21 1996-07-12 Canon Inc Head mounted type display device and driving control method therefor
JPH08266576A (en) * 1995-03-30 1996-10-15 Takesumi Doi Intention transmitting device by eye-ball motion
GB2413718A (en) * 2004-04-30 2005-11-02 Hewlett Packard Development Co Automatic view generation from recording photographer's eye movements
JP2011092691A (en) * 2009-10-02 2011-05-12 Kao Corp Beautification support device, beautification counseling method, and visual line tracking data acquisition method
WO2013130203A2 (en) 2012-02-28 2013-09-06 Motorola Mobility Llc Methods and apparatuses for operating a display in an electronic device
WO2013130202A2 (en) 2012-02-28 2013-09-06 Motorola Mobility Llc Methods and apparatuses for operating a display in an electronic device
WO2014046206A1 (en) * 2012-09-19 2014-03-27 株式会社ニコン Line of sight detection device, display method, line of sight detection device calibration method, spectacle lens design method, spectacle lens selection method, spectacle lens manufacturing method, printed matter, spectacle lens sales method, optical device, line of sight information detection method, optical instrument design method, optical instrument, optical instrument selection method, and optical instrument production method
JP2014149794A (en) * 2013-02-04 2014-08-21 Tokai Univ Visual line analysis device
US9098069B2 (en) 2011-11-16 2015-08-04 Google Technology Holdings LLC Display device, corresponding systems, and methods for orienting output on a display
JP2020177066A (en) * 2019-04-16 2020-10-29 凸版印刷株式会社 Observation state display system, observation state display method and program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07296299A (en) * 1994-04-20 1995-11-10 Nissan Motor Co Ltd Image processor and warning device against doze at the wheel using the same
JPH08179239A (en) * 1994-12-21 1996-07-12 Canon Inc Head mounted type display device and driving control method therefor
JPH08266576A (en) * 1995-03-30 1996-10-15 Takesumi Doi Intention transmitting device by eye-ball motion
GB2413718A (en) * 2004-04-30 2005-11-02 Hewlett Packard Development Co Automatic view generation from recording photographer's eye movements
JP2011092691A (en) * 2009-10-02 2011-05-12 Kao Corp Beautification support device, beautification counseling method, and visual line tracking data acquisition method
US9098069B2 (en) 2011-11-16 2015-08-04 Google Technology Holdings LLC Display device, corresponding systems, and methods for orienting output on a display
WO2013130202A2 (en) 2012-02-28 2013-09-06 Motorola Mobility Llc Methods and apparatuses for operating a display in an electronic device
WO2013130203A2 (en) 2012-02-28 2013-09-06 Motorola Mobility Llc Methods and apparatuses for operating a display in an electronic device
WO2014046206A1 (en) * 2012-09-19 2014-03-27 株式会社ニコン Line of sight detection device, display method, line of sight detection device calibration method, spectacle lens design method, spectacle lens selection method, spectacle lens manufacturing method, printed matter, spectacle lens sales method, optical device, line of sight information detection method, optical instrument design method, optical instrument, optical instrument selection method, and optical instrument production method
JP2017037329A (en) * 2012-09-19 2017-02-16 株式会社ニコン Line-of-sight detection device, display method, spectacle lens design method, spectacle lens selection method, spectacle lens fabrication method, printed matter and spectacle lens sales method
US9645413B2 (en) 2012-09-19 2017-05-09 Nikon Corporation Line of sight detection device, display method, line of sight detection device calibration method, spectacle lens design method, spectacle lens selection method, spectacle lens manufacturing method, printed matter, spectacle lens sales method, optical device, line of sight information detection method, optical instrument design method, optical instrument, optical instrument selection method, and optical instrument production method
JP2014149794A (en) * 2013-02-04 2014-08-21 Tokai Univ Visual line analysis device
JP2020177066A (en) * 2019-04-16 2020-10-29 凸版印刷株式会社 Observation state display system, observation state display method and program

Also Published As

Publication number Publication date
JPH0446570B2 (en) 1992-07-30

Similar Documents

Publication Publication Date Title
US20060098087A1 (en) Housing device for head-worn image recording and method for control of the housing device
JP5858433B2 (en) Gaze point detection method and gaze point detection device
JP5415948B2 (en) Gaze detection apparatus and gaze detection method
JP5167545B2 (en) Viewpoint detection device
WO2005063114A1 (en) Sight-line detection method and device, and three- dimensional view-point measurement device
WO2009043927A1 (en) Apparatus for acquiring and processing information relating to human eye movements
WO2006118057A1 (en) Image display device
KR20140126419A (en) Point of gaze detection device, point of gaze detection method, individual parameter computation device, individual parameter computation method, program, and computer-readable recording medium
JPH08278134A (en) Devcie for measuring position of fixed point of eye on target,method for lighting eye and application for displaying image that is changing in correspondence with movement of eye
JPH0759032A (en) Picture display device
TW201721228A (en) Eye gaze responsive virtual reality headset
JPH08313843A (en) Wide visual field and high resolution video presentation device in line of sight followup system
JP2008256946A (en) Sickness prevention device for image display device
JPH0670884A (en) Medical diagnostic device using sight line detection
JPH0449943A (en) Eye ball motion analyzer
EP4158447A1 (en) Systems and methods for providing mixed-reality experiences under low light conditions
JP7046347B2 (en) Image processing device and image processing method
JP2017191546A (en) Medical use head-mounted display, program of medical use head-mounted display, and control method of medical use head-mounted display
JP6199038B2 (en) Line of sight analyzer
WO2017081915A1 (en) Image processing device, image processing method and program
JP7269617B2 (en) Face image processing device, image observation system, and pupil detection system
JP2006204855A (en) Device for detecting gaze motion
JPH04288122A (en) Line-of-sight display device
Schiavone et al. A wearable ergonomic gaze-tracker for infants
JPH04293375A (en) Video display system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees