JPS62176427A - Apparatus for measuring position of notice point - Google Patents

Apparatus for measuring position of notice point

Info

Publication number
JPS62176427A
JPS62176427A JP61019438A JP1943886A JPS62176427A JP S62176427 A JPS62176427 A JP S62176427A JP 61019438 A JP61019438 A JP 61019438A JP 1943886 A JP1943886 A JP 1943886A JP S62176427 A JPS62176427 A JP S62176427A
Authority
JP
Japan
Prior art keywords
eye mark
feature point
point
eye
visual field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP61019438A
Other languages
Japanese (ja)
Inventor
敏之 旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP61019438A priority Critical patent/JPS62176427A/en
Publication of JPS62176427A publication Critical patent/JPS62176427A/en
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明はアイカメラから得られるアイマーク信号の歪み
を補正する方式とその装置に関するものである。
DETAILED DESCRIPTION OF THE INVENTION (Field of Industrial Application) The present invention relates to a method and apparatus for correcting distortion of an eye mark signal obtained from an eye camera.

(従来の技術) アイカメラは周囲空間の対象に対する注視点分布を解析
するためのものであり、眼球突出部に近赤外光を照射し
、反射光のX、Y方向の位置を撮像素子で検出すること
により注視点の位置座標をアイマーク信号として得ると
ともに、さらに頭部の向きに相対的なアイマーク信号を
ディジタル値として出力し、頭部に固定されたカメラに
より撮影され表示された視野画像内にアイマーク信号を
示す光点を表示する装置である。
(Prior technology) An eye camera is used to analyze the distribution of gaze points on objects in the surrounding space. It irradiates the protrusion of the eyeball with near-infrared light and uses an imaging device to determine the position of the reflected light in the X and Y directions. By detecting it, the position coordinates of the gaze point are obtained as an eye mark signal, and the eye mark signal relative to the direction of the head is output as a digital value, and the field of view taken and displayed by a camera fixed to the head is output. This is a device that displays a light spot indicating an eye mark signal within an image.

しかしながらアイマーク信号には各個人の眼球の大きさ
、形状、眼球突出部の曲率半径の違いや、アイカメラの
とりつけ誤差などに起因する無視できない歪みが存在す
る。具体的には視野画像内において注視対象の画像の位
置と、アイマーク信号を示す光点の位置がずれるという
現象になる。そのため従来はこの歪みを補正するため、
アイマーク信号のX、Yそれぞれの方向の電気的倍率を
調整する方法が採用されている。
However, the eye mark signal contains non-negligible distortions due to differences in the size and shape of each individual's eyeball, the radius of curvature of the protruding part of the eyeball, and errors in the installation of the eye camera. Specifically, this phenomenon occurs in which the position of the image of the object of gaze and the position of the light spot indicating the eye mark signal are shifted in the visual field image. Therefore, in order to correct this distortion, conventionally,
A method is adopted in which the electrical magnification of the eye mark signal in each of the X and Y directions is adjusted.

(発明が解決しようとする問題点) しかしながら上記の方法ではアイマーク信号の歪みのう
ち、その線形成分しか補正することができず、特に歪み
が非線形的に大きくなる視野画像周辺部において、実用
上不十分である。本発明はアイマーク信号の歪みをあら
かじめ計測し、補正テーブルとして記録しておきこれを
計測時に参照することにより歪みの線形成分・非線形成
分を補正し、精度の良い注視点位置計測装置を得ること
を目的としている。
(Problem to be Solved by the Invention) However, the above method can only correct the linear component of the distortion of the eye mark signal, and is difficult to correct in practice, especially in the periphery of the visual field image where the distortion increases non-linearly. Not enough. The present invention measures the distortion of the eye mark signal in advance, records it as a correction table, and refers to this at the time of measurement to correct the linear and nonlinear components of the distortion, thereby obtaining a highly accurate gaze point position measuring device. It is an object.

(問題点を解決するための手段) 本発明によればアイカメラと、該アイカメラの出力であ
るビデオ信号をディジタル化する画像入力手段と、視野
画像内において特徴点となるような目標群を周囲空間に
設置する特徴点設置手段と、前記ディジタル化された視
野画像から特徴点の座標を検出する座標検出手段と、前
記目標群を順次注視したときの視野画像内における注視
点の座標を示すアイマーク信号と前記座標検出手段によ
り検出される注視された目標の特徴点としての座標とを
それぞれアイマークテーブル、特徴点テーブルとして対
応づけてあらかじめ記憶しておくテーブル記憶手段と、
計測時において得られるアイマーク信号の歪みを該アイ
マーク信号の座標値に近い一点あるいは複数のアイマー
クテーブルの値に対応する特徴点テーブルの値を用いて
補正する歪み補正手段を有することにより、アイマーク
信号の歪みを軽減し、精度の良い注視点位置計測装置を
得ることができる。
(Means for Solving the Problems) According to the present invention, an eye camera, an image input means for digitizing a video signal output from the eye camera, and a target group that is a feature point in a visual field image are provided. A feature point setting means installed in the surrounding space, a coordinate detection means for detecting the coordinates of the feature point from the digitized visual field image, and a coordinate detection means indicating the coordinates of the gaze point in the visual field image when the target group is sequentially gazed. table storage means for storing in advance the eye mark signal and the coordinates as a feature point of the gazed target detected by the coordinate detection means in association with each other as an eye mark table and a feature point table;
By having a distortion correction means that corrects the distortion of the eye mark signal obtained during measurement using the value of the feature point table corresponding to the value of one or more eye mark tables near the coordinate value of the eye mark signal, It is possible to reduce the distortion of the eye mark signal and obtain a highly accurate gaze point position measuring device.

(作用) 本発明は詳述の構成をとることにより、従来の問題点を
解決した。以下本発明の動作原理を簡単に説明する。
(Function) The present invention solves the conventional problems by adopting the configuration described in detail. The operating principle of the present invention will be briefly explained below.

計測に先立ち周囲空間に視野画像において特徴点となる
ような目標を複数個用意する。被測定者はアイカメラを
計測時の状態で頭部にセットし、これらの目標を順次注
視する。注視された目標の視野画像内における特徴点と
しての座標と注視時のアイマーク信号の座標がそれぞれ
対応づけられテーブル記憶手段に順次記憶される(以下
、それぞれの記憶された座標を特徴点テーブル値、アイ
マークテーブル値と呼ぶ)。計測時にはこの記憶された
補正テーブルを用いて、アイカメラから送られたアイマ
ーク信号と前記補正テーブルを比較し、アイマークテー
ブル値のうちアイマーク信号に近いものを一点あるいは
数点検索し、さらに選ばれたアイマークテーブル値に対
応して記憶されている特徴点テーブル値を用いて補正値
を算出する。
Prior to measurement, multiple targets are prepared in the surrounding space that will serve as feature points in the visual field image. The person to be measured sets the eye camera on his head in the state at the time of measurement and gazes at these targets in sequence. The coordinates of the gazed target as a feature point in the visual field image and the coordinates of the eye mark signal at the time of gaze are associated with each other and sequentially stored in the table storage means (hereinafter, each stored coordinate will be referred to as a feature point table value). , called the eyemark table value). During measurement, the stored correction table is used to compare the eye mark signal sent from the eye camera with the correction table, search for one or more eye mark table values that are close to the eye mark signal, and then A correction value is calculated using the feature point table value stored corresponding to the selected eye mark table value.

第2図は目標を例えば格子状に配置したときの、本発明
の動作原理を説明する模式図である。図において、X、
Y平面はカメラの視野画像平面であり、Oで示される平
面上の格子の各格子点がそれぞれ目標を)注視したとき
のアイマーク信号(アイマークテーブル値)を示してい
る。Z軸は各アイマーク信号に対応する目標の視野画像
内における座標(特徴点テーブル値、・で示す)のうち
、X方向の成分を示している。
FIG. 2 is a schematic diagram illustrating the operating principle of the present invention when targets are arranged, for example, in a grid. In the figure, X,
The Y plane is the field of view image plane of the camera, and each lattice point of the lattice on the plane indicated by O indicates an eye mark signal (eye mark table value) when gazing at a target. The Z axis indicates the component in the X direction of the coordinates (feature point table values, indicated by .) in the visual field image of the target corresponding to each eye mark signal.

いま、計測中ある時点で第2図Pで示される位置にアイ
マーク信号が入力されたとする。Pの近傍の点とした例
えば第2図El、E2.E3の3点のアイマークテーブ
ル値を選ぶとすれば、さらにその各点に対応する特徴点
テーブル値のX座標であるCxl、Cx2゜Cx3がテ
ーブルから検索される。PのX方向の補正値PxはCx
l、Cx2.Cx3を用いて計算される。Y方向につい
てもまったく同様である。
Suppose now that an eye mark signal is input at a position shown by P in FIG. 2 at a certain point during measurement. For example, El, E2. If the three eye mark table values of E3 are selected, the table is further searched for the X coordinates Cxl, Cx2°Cx3 of the feature point table values corresponding to each point. The correction value Px of P in the X direction is Cx
l, Cx2. Calculated using Cx3. The same holds true for the Y direction.

(実施例) 第1図は本発明の一実施例を示すブロック図である。(Example) FIG. 1 is a block diagram showing one embodiment of the present invention.

特徴点設置手段10は歪み補正テーブル作成時に、視野
画像内において特徴点となるような目標物を周囲空間に
設置する。アイカメラ11は視野画像を信号線100を
介して画像入力手段12と、信号線109を介して例え
ばCRTディスプレイのような表示装置16に、またア
イマーク信号を信号線101を介して制御装置17に送
る。前記画像入力手段12は送られた視野画像をディジ
タル画像に変換し、信号線102を介して座標検出手段
13に送る。該座標検出手段13は送られたディジタル
化された視野画像の特徴点を検出し、その座標値を信号
線104を介してテーブル記憶手段14に送る。該テー
ブル記憶手段14は送られた特徴点の座標値と、前記制
御装置17から信号線103を介して送られたアイマー
ク信号の座標値を対応づけて順次記憶していく。計測時
において歪み補正手段15は前記制御装置17から信号
線103を介してアイマーク信号を受は取り、その近傍
のアイマークテーブル値を前記テーブル記憶手段14に
記憶された補正テーブルから信号線105゜106を介
して検索し、そのアイマークテーブル値に対応する特徴
点テーブル値を信号線106を介して得る。さらに前記
歪み補正手段15は得られた前記特徴点テーブル値を用
いて例えば後述するような方法で補正値を算出し、信号
線107を介して前記制御装置17に送る。該制御装置
17は前記補正値を信号線108を介して前記表示装置
16に送る。該表示装置16は、送られた座標値に相当
する画面上の位置の表示輝度を上げ、光点として表示す
る。さらに前記制御装置17は信号線110を介して、
装置全体に渡って上記の動作を制御する。
The feature point setting means 10 sets a target object that will become a feature point in the visual field image in the surrounding space when creating the distortion correction table. The eye camera 11 sends a visual field image to an image input means 12 via a signal line 100, a display device 16 such as a CRT display via a signal line 109, and an eye mark signal to a control device 17 via a signal line 101. send to The image input means 12 converts the sent visual field image into a digital image and sends it to the coordinate detection means 13 via the signal line 102. The coordinate detection means 13 detects the feature points of the sent digitized visual field image and sends the coordinate values to the table storage means 14 via the signal line 104. The table storage means 14 sequentially stores the coordinate values of the sent feature points and the coordinate values of the eye mark signal sent from the control device 17 via the signal line 103 in association with each other. During measurement, the distortion correction means 15 receives and receives an eye mark signal from the control device 17 via the signal line 103, and reads the eye mark table value in the vicinity of the eye mark signal from the signal line 105 from the correction table stored in the table storage means 14. 106, and the feature point table value corresponding to the eyemark table value is obtained via the signal line 106. Further, the distortion correction means 15 uses the obtained feature point table values to calculate a correction value, for example, by a method described later, and sends it to the control device 17 via the signal line 107. The control device 17 sends the correction value to the display device 16 via a signal line 108. The display device 16 increases the display brightness of the position on the screen corresponding to the sent coordinate value and displays it as a light spot. Furthermore, the control device 17 via a signal line 110,
The above operations are controlled throughout the device.

以下特徴点設置手段としてCRTディスプレイと、その
画面上に格子状に設置される光点を使用した場合を例に
とり、本実施例の動作を補正テーブル作成時と注視点計
測時に分けて説明する。
Taking as an example a case where a CRT display and light spots arranged in a grid pattern on the screen are used as the feature point setting means, the operation of this embodiment will be explained separately during correction table creation and gaze point measurement.

補正テーブル作成時において前記制御装置17は前記C
RTディスプレイに、視野画像内において特に輝度が高
い特徴点となるような光点を一点ずつ、前記CRTディ
スプレイの画面上において格子の各格子点に相当する位
置に表示していく。被測定者は前記アイカメラ11を測
定時の状態にセットし、できるだけ頭部を固定して表示
された光点を注視する。前記アイカメラ11は視野画像
を前記画像入力手段12に、アイマーク信号を前記制御
装置17に送る。前記視野画像は前記画像入力手段12
によりAD変換され、前記座標検出手段13に送られる
。該座標検出手段13は送られた視野画像を、特徴点の
画像よりも低く、かつその他の画像領域よりも高いよう
な輝度レベルをしきい値として2値化する。さらに2値
化により抽出された特徴点の重心を計算し、テーブル記
憶手段14に送る。また、このとき制御装置17は前記
CRTディスプレイの画面の光点を注視したときのアイ
マーク信号を前記テーブル記憶手段14に送る。該テー
ブル記憶手段14は送られた特徴点の重心の座標を特徴
点テーブル値として、また前記アイマーク信号をアイマ
ークテーブル値として互いに対応づけて記憶する。
When creating the correction table, the control device 17
On the RT display, light points that are feature points with particularly high brightness in the visual field image are displayed one by one at positions corresponding to each grid point of the grid on the screen of the CRT display. The person to be measured sets the eye camera 11 in the state at the time of measurement, fixes his head as much as possible, and gazes at the displayed light spot. The eye camera 11 sends a visual field image to the image input means 12 and an eye mark signal to the control device 17. The visual field image is transmitted to the image input means 12.
The data is AD converted and sent to the coordinate detection means 13. The coordinate detection means 13 binarizes the sent visual field image using a luminance level lower than the image of the feature point and higher than other image areas as a threshold value. Furthermore, the center of gravity of the feature points extracted by binarization is calculated and sent to the table storage means 14. Also, at this time, the control device 17 sends an eye mark signal to the table storage means 14 when the user gazes at a light spot on the screen of the CRT display. The table storage means 14 stores the coordinates of the center of gravity of the sent feature points as a feature point table value and the eye mark signal as an eye mark table value in association with each other.

以上の動作を全ての格子点について行い、補正テーブル
を作成する。
The above operations are performed for all grid points to create a correction table.

注視点計測時において前記アイカメラ11はアイマーク
信号を前記制御装置17に、視野画像を例えばモニター
などにより構成される前記表示装置16に送る。前記制
御装置17は送られたアイマーク信号を前記歪み補正手
段15に送る。該歪み補正手段15は送られたアイマー
ク信号の座標と、前記テーブル記憶手段14に記憶され
たアイマークテーブル値を比較し、例えばもっとも距離
の近いアイマークテーブル値3点を検索する。すなわち
アイマーク信号を(EX、EY)、アイマークテーブル
値を(CXi、CYi)とすると式(1)で表される計
算を全てのアイマークテーブル値について実行し、Lが
小さいものから順にアイマークテーブル値3点を選ぶ。
When measuring the gaze point, the eye camera 11 sends an eye mark signal to the control device 17 and a field of view image to the display device 16, which is constituted by, for example, a monitor. The control device 17 sends the sent eye mark signal to the distortion correction means 15. The distortion correction means 15 compares the coordinates of the sent eyemark signal with the eyemark table values stored in the table storage means 14, and searches for, for example, three closest eyemark table values. In other words, assuming that the eye mark signal is (EX, EY) and the eye mark table value is (CXi, CYi), the calculation expressed by equation (1) is executed for all eye mark table values, and the eye mark table values are Select 3 mark table values.

L=(EX−CXi)2+(EY−CYi)2(1)さ
らに前記補正手段15は、選ばれた3点のアイマークテ
ーブル値に対応する特徴点テーブル値3点を前記テーブ
ル記憶手段14から検出し、これらのアイマークテーブ
ル値3点と特徴点テーブル値3点の座標値を用いて、補
正値を計算する。第3図はX方向の補正値について、計
算方法を示した模式図である。(Y方向についても同様
である。)図においてEl、E2.E3はそれそ°れ選
ばれた3点のアイマークテーブル値をX、Y座標に持ち
2座標が0である点、C1,C2,C3ハソれぞれE1
〜E3ト同じX、Y座標を持ち、さらにEl、E2.E
3に対応する特徴点テーブル値のX座標値tl、t2.
t3を2座標に持つ点、Pはアイマーり信号をX、Y座
標に持ち、2座標が0である点を示している。このとき
Pの補正値PxはPから立てた垂線がC1,C2,C3
を通る平面と交わる点の2座標で表される。すなわち(
2)式で表される方程式を2について解けばよい。但し
く2)式においてITIはTの行列式を示している。
L=(EX-CXi)2+(EY-CYi)2(1) Furthermore, the correction means 15 stores three feature point table values corresponding to the selected three eyemark table values from the table storage means 14. A correction value is calculated using the coordinate values of these three eye mark table values and three feature point table values. FIG. 3 is a schematic diagram showing a calculation method for the correction value in the X direction. (The same applies to the Y direction.) In the figure, El, E2. E3 has the eye mark table values of the three selected points in the X and Y coordinates, and the points where the two coordinates are 0, C1, C2, and C3 are each E1.
~E3 have the same X and Y coordinates, and El, E2. E
The X coordinate values tl, t2 . of the feature point table values corresponding to 3.
A point having t3 as two coordinates, P indicates a point having eye-marker signals on the X and Y coordinates, and having two coordinates as 0. At this time, the correction value Px of P is that the perpendicular lines drawn from P are C1, C2, and C3.
It is expressed by the two coordinates of the point that intersects the plane passing through. That is, (
2) Just solve the equation expressed by the formula for 2. However, in equation 2), ITI indicates the determinant of T.

前記制御装置17は上記の方法で得られたアイマーク信
号の補正値を前記歪み補正手段15がら受は取り、その
座標位置を前記表示装置16に例えば視野画像上の光点
として表示する。
The control device 17 receives the correction value of the eye mark signal obtained by the above method from the distortion correction means 15, and displays its coordinate position on the display device 16, for example, as a light spot on a visual field image.

また以下に述べる方法で補正テーブルを作成すれば、上
記のアイマークテーブル値を検索する方式や補正値の計
算方式を簡略化することができる。前記補正テーブル作
成時において、前記制御装置17は視野画像において格
子状に並ぶような座標値群をあらかじめ設定する。注視
目標として前記特徴点設置手段10として用いたCRT
ディスプレイ上に、やはり十分踵皮の高い光点を一点表
示する。前記制御装置17は光点を、被測定者が十分視
線で追従できる速度で画面上を移動させる。前記制御卸
装置17はこのときのアイマーク信号をモニターし、あ
らかじめ設定された座標値群のうちの一点に等しいか、
あるいは十分近い値になるまで光点を移動させる。等し
いか十分近くなった時点の視野画像は前記画像入力手段
12によりとりこまれ、さらに前記座標検出手段13に
より特徴点の重心が算出され、前記テーブル記憶手段1
4に送られる。以上の動作をあらかじめ設定した座標値
群すべてについて行う。以上の動作で得られた補正テー
ブルの特徴点テーブル値は、それぞれの対応するアイマ
ーク信号の設定値が、例えば第4図の順序に並ぶような
順序で記憶される。第4図において41はあらかじめ格
子状に設定されたアイマーク信号を模式的に表したもの
、42は補正テーブルにおける対応する特徴点テーブル
値の記録順序を示す矢印である。アイマークテーブル値
はあらかじめわかっているので、補正テーブルに記録す
る必要がない。
Furthermore, by creating a correction table using the method described below, it is possible to simplify the method of searching for the eye mark table value and the method of calculating the correction value. When creating the correction table, the control device 17 presets a group of coordinate values arranged in a grid in the visual field image. CRT used as the feature point setting means 10 as a gaze target
On the display, a single light spot that is sufficiently high in the heel skin is displayed. The control device 17 moves the light spot on the screen at a speed that the subject can follow with his or her line of sight. The control device 17 monitors the eye mark signal at this time and determines whether it is equal to one point out of a preset coordinate value group.
Alternatively, move the light spot until the values are close enough. The visual field images at the time when they are equal or sufficiently close are captured by the image input means 12, and the center of gravity of the feature point is calculated by the coordinate detection means 13, and the center of gravity of the feature point is calculated by the coordinate detection means 13.
Sent to 4. The above operations are performed for all coordinate value groups set in advance. The feature point table values of the correction table obtained through the above operations are stored in such an order that the setting values of the respective corresponding eye mark signals are arranged in the order shown in FIG. 4, for example. In FIG. 4, numeral 41 schematically represents an eye mark signal set in advance in a grid pattern, and numeral 42 represents an arrow indicating the recording order of the corresponding feature point table values in the correction table. Since the eye mark table values are known in advance, there is no need to record them in the correction table.

第5図に示すように例えばアイマーク信号をX。For example, as shown in FIG. 5, the eye mark signal is X.

Y方向とも10きざみで、MXNの格子を構成するよう
には定した場合の特徴点テーブル値の検索方法を以下に
述べる。ある時点のアイマーク信号がP(EX、EY)
テあッタトキ、EX、EYをそれぞれ(3)式に余すよ
うにa、b、c、dで表わす。ただしす、dは一桁の整
数である。
A method of searching the feature point table values will be described below when the lattice of MXN is set in 10 increments in both the Y direction. The eye mark signal at a certain point is P (EX, EY)
TE, EX, and EY are represented by a, b, c, and d, respectively, so that they remain in equation (3). However, d is a one-digit integer.

EX=10Xa+b EY=10Xc+d このとき図中アで示される点に対応する特徴点テーブル
値は、補正テーブルにおいてaXn+b番目に記憶され
ている。b+dが10未満のときはPが図中オのような
三角領域に入ったときであるがら、検索すべき3点は第
5図においてアが示すaXn+b、工が示すaXn+b
+1、イが示すaXn+2Xb番目の点である。b十d
が10以上のときはPが図中力のような領域に入ったと
きであるから、検索すべき3点は上記のaXn+b番目
の点の代わりに、図中つで示されるaXn+2Xb+1
番目の点と他の2点である。
EX=10Xa+b EY=10Xc+d At this time, the feature point table value corresponding to the point indicated by a in the figure is stored in the aXn+bth position in the correction table. When b + d is less than 10, it means that P enters the triangular area like O in the figure, and the three points to be searched for are aXn+b indicated by A in Figure 5, and aXn+b indicated by Eng.
+1, which is the aXn+2Xb-th point indicated by A. b ten d
When is 10 or more, it means that P has entered the region like the force in the figure, so instead of the aXn+b-th point above, the three points to be searched are aXn+2Xb+1 shown in the figure.
The second point and the other two points.

第6図は上記のごと(検索された3点を用いてX方向の
補正値を計算する方法を、模式的に表したものである。
FIG. 6 schematically represents the method described above (the method of calculating the correction value in the X direction using the three retrieved points).

以下ではある時点におけるアイマーク信号Pが、第5図
におけるオのような三角領域に入った場合を例に計算方
法を説明する。第6図においてC1,C2,C3はそれ
ぞれ第5図のア、イ、工に示される点に対応する特徴点
テーブル値のX座標値を、2座標(tl、t2.t3)
として持つ点を示している。QはX。
The calculation method will be explained below, taking as an example the case where the eye mark signal P at a certain point of time falls into a triangular region like O in FIG. In FIG. 6, C1, C2, and C3 represent the X coordinate values of the feature point table values corresponding to the points A, B, and G in FIG.
It shows the point that has as. Q is X.

Y座標が(3)式におけるす、d″rzrz座標ある点
を示している。このときPのX方向の補正値PxはQが
ら立てた垂線がC1,C2,C3を通る仮想的な平面と
交わる点(Qx)の2座標値で示される。すなわち、な
る計算で補正値を求めることができる。Pが第5図力の
領域に入った場合は、t2として第5図の工、t3とし
て同図のイのそれぞれの点に対応する特徴点テーブル値
のX座標を、さらに第6図においてbの代わりに10−
b、 dの代わりに10−dを第4式に代入すればよい
The Y coordinate in equation (3) indicates a certain point. At this time, the correction value Px of P in the It is indicated by the two coordinate values of the intersection point (Qx).In other words, the correction value can be obtained by the following calculation.If P is in the area of the fifth force, t2 is the force in Figure 5, and t3 is the force in Figure 5. In addition, the X coordinate of the feature point table value corresponding to each point A in the figure is 10-
Instead of b and d, 10-d may be substituted into the fourth equation.

(発明の効果) 以上の説明で明らかなように、本発明の注視点位置計測
装置によれば、テーブルを参照することにより注視点座
標出力の歪みの線形成分、非線形成分を補正することが
でき、精度の良い注視点位置計測を行うことができる。
(Effects of the Invention) As is clear from the above explanation, according to the gaze point position measuring device of the present invention, linear components and nonlinear components of distortion in gaze point coordinate output can be corrected by referring to the table. , it is possible to measure the position of the gaze point with high accuracy.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の注視点位置計測方式の一実施例を示す
ブロック図、第2図は本発明の動作原理を示す模式図、
第3図は補正値の計算方式の一実施例を示す模式図、第
4図は補正テーブルのデータの格納順序を示す模式図、
第5図は特徴点テーブル値の検索方式を示す模式図、第
6図は補正値の計算方式の他の実施例を示す模式図であ
る。 図において、 10は特徴点設置手段、11はアイカメラ、12は画像
入力手段、13は座標検出手段、14はテーブル記憶手
段、15は歪み補正手段、16は表示装置、17はヒ1
 ビ ヒ2 ヒ3
FIG. 1 is a block diagram showing an embodiment of the gaze point position measuring method of the present invention, FIG. 2 is a schematic diagram showing the operating principle of the present invention,
FIG. 3 is a schematic diagram showing an example of the correction value calculation method, FIG. 4 is a schematic diagram showing the storage order of data in the correction table,
FIG. 5 is a schematic diagram showing a feature point table value search method, and FIG. 6 is a schematic diagram showing another embodiment of a correction value calculation method. In the figure, 10 is a feature point setting means, 11 is an eye camera, 12 is an image inputting means, 13 is a coordinate detection means, 14 is a table storage means, 15 is a distortion correction means, 16 is a display device, and 17 is a Hi-1
Bi Hi 2 Hi 3

Claims (1)

【特許請求の範囲】[Claims] アイカメラと、該アイカメラの出力であるビデオ信号を
ディジタル化する画像入力手段と、視野画像内において
特徴点となるような目標群を周囲空間に設置する特徴点
設置手段と、前記ディジタル化された視野画像から特徴
点の座標を検出する座標検出手段と、前記目標群を順次
注視したときの視野画像内における注視点の座標を示す
アイマーク信号と前記座標検出手段により検出される注
視された目標の特徴点としての座標とそれぞれアイマー
クテーブル、特徴点テーブルとして対応づけてあらかじ
め記憶しておくテーブル記憶手段と、計測時において得
られるアイマーク信号の歪みを該アイマーク信号の座標
値に近い一点あるいは複数のアイマークテーブルの値に
対応する特徴点テーブルの値を用いて補正する歪み補正
手段を有することを特徴とする注視点位置計測装置。
an eye camera, an image input means for digitizing a video signal output from the eye camera, a feature point setting means for setting a group of targets to be feature points in a visual field image in surrounding space; a coordinate detection means for detecting the coordinates of a feature point from a visual field image; and an eye mark signal indicating the coordinates of a gaze point in the visual field image when the target group is sequentially gazed; A table storage means for storing in advance the coordinates of a target feature point in association with an eye mark table and a feature point table, respectively; A gaze point position measuring device comprising a distortion correction means for correcting one point or a plurality of eye mark table values using values of a feature point table.
JP61019438A 1986-01-30 1986-01-30 Apparatus for measuring position of notice point Pending JPS62176427A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61019438A JPS62176427A (en) 1986-01-30 1986-01-30 Apparatus for measuring position of notice point

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61019438A JPS62176427A (en) 1986-01-30 1986-01-30 Apparatus for measuring position of notice point

Publications (1)

Publication Number Publication Date
JPS62176427A true JPS62176427A (en) 1987-08-03

Family

ID=11999295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61019438A Pending JPS62176427A (en) 1986-01-30 1986-01-30 Apparatus for measuring position of notice point

Country Status (1)

Country Link
JP (1) JPS62176427A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01268538A (en) * 1988-04-19 1989-10-26 Takei Kiki Kogyo Kk Sight data analyser
JPH01284227A (en) * 1988-05-11 1989-11-15 Takei Kiki Kogyo Kk Device for visual sense information analysis
US8259169B2 (en) 2008-02-28 2012-09-04 Panasonic Corporation Eye-gaze detecting device and eye-gaze detecting method
JP2017037330A (en) * 2012-09-19 2017-02-16 株式会社ニコン Sight line information correction device, sight line information detection device, spectacle lens design method, spectacle lens manufacturing method, spectacle lens selection device, spectacle lens method, and spectacle lens

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01268538A (en) * 1988-04-19 1989-10-26 Takei Kiki Kogyo Kk Sight data analyser
JPH01284227A (en) * 1988-05-11 1989-11-15 Takei Kiki Kogyo Kk Device for visual sense information analysis
US8259169B2 (en) 2008-02-28 2012-09-04 Panasonic Corporation Eye-gaze detecting device and eye-gaze detecting method
JP2017037330A (en) * 2012-09-19 2017-02-16 株式会社ニコン Sight line information correction device, sight line information detection device, spectacle lens design method, spectacle lens manufacturing method, spectacle lens selection device, spectacle lens method, and spectacle lens

Similar Documents

Publication Publication Date Title
US4685140A (en) Keratograph autoscanner system
JP4181037B2 (en) Target tracking system
US6997556B2 (en) Method for detecting, evaluating, and analyzing look sequences
US6104828A (en) Ophthalmologic image processor
Merchant et al. Remote measurement of eye direction allowing subject motion over one cubic foot of space
JP4896621B2 (en) Perimeter
KR100499764B1 (en) Method and system of measuring an object in a digital
EP0596749B1 (en) Ophtalmologic apparatus
JPWO2012020760A1 (en) Gaze point detection method and gaze point detection device
JP5583980B2 (en) Image processing method and image processing apparatus
US20200394402A1 (en) Object identification device, object identification system, object identification method, and program recording medium
SE515134C2 (en) System and method of camera positioning in a virtual studio
JPH06167564A (en) Position measuring system and device using fish eye lens
JP2002056379A (en) Three-dimensional data generating device
JPS62176427A (en) Apparatus for measuring position of notice point
JP2000205821A (en) Instrument and method for three-dimensional shape measurement
JPH0377533A (en) Apparatus for measuring gaze attitude and absolute position of gaze point
JP3376207B2 (en) Eye gaze detecting apparatus and method
JPH0650983A (en) Operation analyzer for specimen part
JPH1014882A (en) Non-contact line-of-sight measuring device
JP2005017288A (en) Calibration device and method for zoom lens, and photographing equipment
JPH06174463A (en) Real-time three-dimensional motion measuring device and its method
JPH09175224A (en) Pupil measuring device
JPH05302856A (en) Image sensing apparatus
SU551504A1 (en) Stereoscopic method for measuring the coordinates of image points