JPH0546309A - Sight line recognizing device - Google Patents

Sight line recognizing device

Info

Publication number
JPH0546309A
JPH0546309A JP3206957A JP20695791A JPH0546309A JP H0546309 A JPH0546309 A JP H0546309A JP 3206957 A JP3206957 A JP 3206957A JP 20695791 A JP20695791 A JP 20695791A JP H0546309 A JPH0546309 A JP H0546309A
Authority
JP
Japan
Prior art keywords
eyeball
displacement amount
display screen
smoothing
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3206957A
Other languages
Japanese (ja)
Inventor
Takashi Osawa
隆 大澤
Hiroshi Kawamoto
浩史 川本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP3206957A priority Critical patent/JPH0546309A/en
Publication of JPH0546309A publication Critical patent/JPH0546309A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To stably and exactly execute the sight line detection by eliminating an eyeball jump component of an eyeball displacement amount detection output, and allowing an eyeball displacement amount and a coordinate on a display screen to correspond exactly to each other. CONSTITUTION:The device is provided with an eyeball displacement amount detecting means 1 for detecting a displacement amount of an eyeball corresponding to a variation of an operator's sight line, a signal smoothing means 2 for smoothing a displacement amount detection output from the eyeball displacement amount detecting means 1, and a neural network 3 for learning and recognizing to allow an eyeball displacement amount smoothing output from the signal smoothing means 2 and a coordinate on a display screen to correspond to each other. Accordingly, an eyeball jump component from the eyeball displacement amount detecting means 1 is eliminated, and by leaning and recognizing non- linearity to the screen coordinate by using the neural network 3, the sight line can be detected stably and exactly.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、CRTディスプレイな
どの表示手段に表示された情報群をオペレータの視線を
用いて操作する視線認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a line-of-sight recognition apparatus for operating an information group displayed on a display means such as a CRT display by using the line of sight of an operator.

【0002】[0002]

【従来の技術】一般に、ワークステーション,その他の
情報処理システムにおいて、ユーザインターフェースと
してのCRT等の表示手段(以下、表示画面という)に
表示されたアイコンの選択やカーソルの移動指示など、
ユーザであるオペレータの意思はマウスやカーソルキー
を手操作することにより当該情報処理手段側に伝達され
る。
2. Description of the Related Art Generally, in a workstation or other information processing system, selection of an icon displayed on a display means (hereinafter referred to as a display screen) such as a CRT as a user interface and instruction for moving a cursor,
The intention of the operator who is the user is transmitted to the information processing means side by manually operating the mouse or the cursor key.

【0003】このような手操作に依らない意思伝達手段
として、オペレータの視線方向の検出を利用することが
考えられ、例えば、特開昭63−75824号公報に開
示されたような視線認識装置が提案されている。この視
線方向の検出による表示画面上に表示されているアイコ
ンの選択やカーソルの移動指示(ポインティング)は、
オペレータが表示画面上のどの位置(領域)を注視して
いるかを認識する視線認識手段が必要となる。
It is conceivable to use the detection of the operator's line-of-sight direction as means for transmitting intentions which does not depend on such a manual operation. For example, a line-of-sight recognizing device as disclosed in Japanese Patent Laid-Open No. 63-75824 is available. Proposed. The selection of the icon displayed on the display screen and the instruction to move the cursor (pointing) by detecting the line-of-sight direction are
A line-of-sight recognition means for recognizing which position (area) on the display screen the operator is gazing at is required.

【0004】ある小領域を注視している時、眼球は無意
識な跳躍運動をしている。視線を用いて表示画面上に表
示されているアイコンのような細かい領域を安定にポイ
ンティングする場合にはこのような跳躍成分を除去する
ことが必要である。しかし、従来から知られている視線
認識装置にはそのような跳躍成分を除去するような機構
を備えてはいない。
When gazing at a certain small area, the eyeball makes an unconscious jumping motion. When stably pointing a small area such as an icon displayed on the display screen using the line of sight, it is necessary to remove such a jump component. However, the known line-of-sight recognition device does not have a mechanism for removing such a jump component.

【0005】また、表示画面上の視線の位置、すなわち
視点位置(以下、視線位置と視点位置は同様の意味に用
いる)を認識するには、眼球変位量検出手段から送られ
てくる表示画面上の視点位置の座標を示す数値情報と当
該表示画面を見ているオペレータの視点の位置を正確に
対応づけなくてはならない。そのためには通常次の
(1)(2)のような2通りの方法を用いている。
Further, in order to recognize the position of the line of sight on the display screen, that is, the viewpoint position (hereinafter, the line of sight position and the viewpoint position have the same meaning), on the display screen sent from the eyeball displacement amount detecting means. Numerical information indicating the coordinates of the viewpoint position should be accurately associated with the position of the viewpoint of the operator looking at the display screen. For that purpose, usually, two methods such as the following (1) and (2) are used.

【0006】(1)オペレータは事前に表示画面の4隅
に視線を合わせ、それぞれの点に視線を合わせたときの
眼球変位量検出手段から送られてくる変位計測値すなわ
ち(座標値)を記憶しておく。そして、ある時点におけ
るオペレータの視線を認識する場合には、その点の数値
情報(座標値)と先に記憶しておいた表示画面の4隅に
おける数値情報を利用し、比例配分の原理にもとづいて
視点位置を認識する。
(1) The operator matches the line of sight with the four corners of the display screen in advance, and stores the displacement measurement value, that is, the (coordinate value) sent from the eyeball displacement amount detecting means when the line of sight is adjusted to each point. I'll do it. Then, when recognizing the line of sight of the operator at a certain point in time, the numerical information (coordinate values) at that point and the numerical information at the four corners of the display screen stored in advance are used, and based on the principle of proportional distribution. Recognize the viewpoint position.

【0007】(2)オペレータは事前に表示画面上の多
数のサンプル点に視線を合わせ、その時の眼球変位量検
出装置より送られてくる数値情報(座標値)を記憶して
おく。そして、実際に視線を用いて操作する場合には、
その時の数値情報に近いサンプル点の数値情報に対応す
る画面上のサンプル点をオペレータの視点として認識す
る。
(2) The operator focuses his or her eyes on a large number of sample points on the display screen in advance, and stores the numerical information (coordinate values) sent from the eyeball displacement amount detecting device at that time. And when actually using the line of sight,
The sample points on the screen corresponding to the numerical information of the sample points close to the numerical information at that time are recognized as the operator's viewpoint.

【0008】上記(1)による方法は、眼球変位量検出
手段から送られてくる変位計測値と表示画面上で定義さ
れた座標値との対応関係を線形として近似している。し
かし、眼球と表示板との幾何学的関係はアイカメラを装
着するたびに異なり、また眼球の表面が曲面を持ってい
ることから、両者の対応関係は一般に非線形であるため
に視点位置認識精度は低い。
In the method according to the above (1), the correspondence relationship between the displacement measurement value sent from the eyeball displacement amount detecting means and the coordinate value defined on the display screen is approximated linearly. However, the geometrical relationship between the eyeball and the display board differs each time the eye camera is worn, and because the surface of the eyeball has a curved surface, the correspondence between the two is generally non-linear. Is low.

【0009】一方、(2)の方法では、オペレータは表
示画面のどの位置に情報が表示されるかについて予め知
識を持たなければならない。しかし、例えば表示画面上
の表示状態が刻々と変化する状況下でオペレータの視線
を認識しなくてはならない場合においては、そのような
知識を予め持つことは困難である。
On the other hand, in the method (2), the operator must have knowledge in advance at which position on the display screen the information is displayed. However, it is difficult to have such knowledge in advance, for example, when it is necessary to recognize the line of sight of the operator in a situation where the display state on the display screen changes moment by moment.

【0010】[0010]

【発明が解決しようとする課題】上記したように、従来
の視線認識装置においては、眼球変位量検出手段の出力
が眼球特有の運動である跳躍成分を含んでいるため、あ
る時点において人間が注視していると思われる表示画面
上の領域を正しく認識するためには上記跳躍成分のよう
な雑音成分を取り除くことが望ましい。また、眼球変位
量検出手段の出力からはオペレータが対象のどの位置を
見ているか、すなわち眼球変位量と表示画面上で定義さ
れた空間座標の非線形な関係を求めることは従来の視線
認識装置においては困難であり、表示画面上のオペレー
タの視線を正確に認識することは困難であるという問題
がある。
As described above, in the conventional visual axis recognition device, since the output of the eyeball displacement amount detecting means includes the jumping component which is the movement peculiar to the eyeball, the human eye gazes at a certain point of time. It is desirable to remove the noise component such as the jump component in order to correctly recognize the region on the display screen that seems to be moving. Further, from the output of the eyeball displacement amount detection means, which position of the object the operator is looking at, that is, to obtain a non-linear relationship between the eyeball displacement amount and the spatial coordinates defined on the display screen in the conventional gaze recognition device. However, it is difficult to accurately recognize the line of sight of the operator on the display screen.

【0011】本発明の目的は、眼球変位量検出手段から
の眼球変位量検出出力を時間的に平滑化することで眼球
の跳躍成分を除去し、上記眼球変位量と表示画面上の座
標の対応づけをニューラルネットワークを用いて学習,
認識することによって安定かつ正確な視線検出を行うこ
とのできる視線検出装置を提供することにある。
An object of the present invention is to eliminate the jumping component of the eyeball by temporally smoothing the eyeball displacement detection output from the eyeball displacement detection means, and to make the correspondence between the eyeball displacement and the coordinates on the display screen. Learning using a neural network,
An object of the present invention is to provide a visual axis detection device that can perform stable and accurate visual axis detection by recognizing the visual axis.

【0012】[0012]

【課題を解決するための手段】図1は本発明の構成を示
すブロツク図であって、上記目的を達成するため、本発
明の視線認識装置(4)は、オペレータの視線の変化に
応じた眼球の変位量を検出する眼球変位量検出手段
(1)と、眼球変位量検出手段(1)からの変位量検出
出力を受け取って、所定の時間分の当該眼球変位量を平
滑化する信号平滑手段(2)と、信号平滑手段(2)か
らの眼球変位量平滑出力を受け取り、表示画面上の座標
との対応づけを学習,認識するニューラルネットワーク
(ニューロン回路網)(3)とを備えたことを特徴とす
る。
FIG. 1 is a block diagram showing the configuration of the present invention. In order to achieve the above object, a visual line recognition device (4) of the present invention responds to changes in the visual line of an operator. An eyeball displacement amount detecting means (1) for detecting an eyeball displacement amount, and a displacement amount detection output from the eyeball displacement amount detecting means (1) for smoothing the eyeball displacement amount for a predetermined time. A means (2) and a neural network (neuron circuit network) (3) that receives the eyeball displacement amount smoothing output from the signal smoothing means (2) and learns and recognizes the correspondence with the coordinates on the display screen. It is characterized by

【0013】なお、眼球変位量検出手段(1)として
は、アイカメラとして知られている既知の眼球運動検出
手段を用いるのが好適であるが、オペレータの眼球の変
位を検出できるものであればどのような手段を用いても
よい。
As the eyeball displacement amount detecting means (1), it is preferable to use a known eyeball movement detecting means known as an eye camera, as long as it can detect the displacement of the operator's eyeball. Any means may be used.

【0014】[0014]

【作用】眼球変位量検出手段(1)は時刻tにおける眼
球変位量(V(t)=(Vx(t),Vy(t)))を
信号平滑手段(2)に入力する(但し、Vx(t),V
y(t)はそれぞれ眼球の横方向、縦方向の変位量に相
当する)。信号平滑手段(2)では実際の計測値のみで
なく過去の計測値を用いることでオペレータの眼球の細
かい跳躍成分を除去する。このような跳躍成分除去処理
を行うことで、特定時刻における眼球変位量でなく、あ
る程度継続する時間的に平滑化された平均的な眼球変位
量を検出する。この信号平滑処理により、オペレータが
表示画面上のある点に注視している場合に生じる跳躍成
分を取り除く。
The eyeball displacement amount detecting means (1) inputs the eyeball displacement amount (V (t) = (Vx (t), Vy (t))) at the time t to the signal smoothing means (2) (however, Vx). (T), V
y (t) corresponds to the lateral and vertical displacements of the eyeball, respectively. The signal smoothing means (2) removes the fine jump component of the operator's eyeball by using not only the actual measurement value but also the past measurement value. By performing such jumping component removal processing, not the eyeball displacement amount at the specific time, but the temporally smoothed average eyeball displacement amount that continues to some extent is detected. This signal smoothing process removes a jump component that occurs when the operator is gazing at a certain point on the display screen.

【0015】ニューラルネットワーク(3)は信号平滑
手段(2)から出力された眼球変位量平滑信号と表示画
面上のオペレータの視点座標との対応関係を学習する。
平滑化された眼球変位量を示す表示画面上の座標値の
X,Y成分をVx’(t),Vy’(t)とする。ニュ
ーラルネットワーク(3)が学習する課題は、平滑化さ
れた眼球変位量を示す表示画面上の座標値のX,Y成分
(Vx’(t),Vy’(t))から表示画面上の座標
値(x(t),y(t))への非線形な対応づけであ
る。
The neural network (3) learns the correspondence between the eyeball displacement amount smoothing signal output from the signal smoothing means (2) and the viewpoint coordinates of the operator on the display screen.
The X and Y components of the coordinate value on the display screen showing the smoothed eyeball displacement amount are Vx '(t) and Vy' (t). The task that the neural network (3) learns is the coordinates on the display screen from the X and Y components (Vx '(t), Vy' (t)) of the coordinate values on the display screen showing the smoothed eyeball displacement amount. It is a non-linear correspondence to the value (x (t), y (t)).

【0016】一般に、ニューラルネットワークは、中間
ユニットの数を増やせば増やすほど任意の非線形な対応
関係を精度よく学習することができる。また、平滑化さ
れた眼球変位量を示す表示画面上の座標値のX,Y成分
(Vx’(t),Vy’(t))から表示画面上の座標
値(x(t),y(t))への非線形な対応関係は、オ
ペレータの個人差すなわち眼球形状(角膜の形状),表
示画面に対する姿勢などに大きく影響をうける。
In general, a neural network can learn an arbitrary non-linear correspondence with high accuracy as the number of intermediate units is increased. Further, from the X and Y components (Vx ′ (t), Vy ′ (t)) of the coordinate value on the display screen showing the smoothed eyeball displacement amount, the coordinate value (x (t), y ( The non-linear correspondence to (t)) is greatly influenced by individual differences of the operator, that is, the eyeball shape (shape of the cornea), the posture with respect to the display screen, and the like.

【0017】本発明では、ニューラルネットワーク
(3)を用いてこの関係を学習する構成とすることでそ
の個人差を吸収する。また、ニューラルネットワーク
(3)には、表示画面上の学習させる点として複数の点
を与えているが、ニューラルネットワークのデータ補完
性により未学習の点についてもある程度正確な出力をす
ることが期待される。従って、表示画面上の全域から偏
りなく学習点を選ぶことで表示画面全域の視線位置を正
確に認識できる。
According to the present invention, the neural network (3) is used to learn this relationship to absorb the individual difference. Further, although the neural network (3) is provided with a plurality of points as points to be learned on the display screen, it is expected that the unlearned points will be output to some extent accurate due to the data complementarity of the neural network. It Therefore, the line-of-sight position in the entire display screen can be accurately recognized by selecting the learning points without deviation from the entire display screen.

【0018】なお、本発明に採用されるニューラルネッ
トワークの詳細については、例えば、平成元年.産業図
書発行.「認識科学とニューロン回路網の探索」,第8
章”誤差伝播による内部表現の学習”(D.E.ラメル
ハート、J.L.マクレランド、R.J.ウイリアムズ
共著,麻生 英樹 訳)に開示がある。
The details of the neural network adopted in the present invention are described in, for example, 1989. Publication of industrial books. "Cognitive Science and Search for Neuron Networks", 8th
Chapter "Learning Internal Representation by Error Propagation" (DE Lamelhardt, JL McClelland, RJ Williams, co-authored, translated by Hideki Aso).

【0019】[0019]

【実施例】以下、本発明の実施例につき、図面を用いて
詳細に説明する。図2は本発明による視線認識装置の一
実施例の構成を説明するブロツク図であって、本実施例
ではワークステーションのディスプレイを表示画面と
し、視線認識装置をこのディスプレイの画面上のアイコ
ン操作、ウィンドウ操作に用いた場合について説明す
る。
Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 2 is a block diagram for explaining the configuration of an embodiment of the line-of-sight recognition device according to the present invention. In this embodiment, the display of the workstation is used as a display screen, and the line-of-sight recognition device is used for icon operation on the screen of this display. The case of using for window operation will be described.

【0020】同図において、10はオペレータの眼球の
変位量を検出する眼球変位量検出手段としてのアイカメ
ラ、20はアイカメラ1の出力信号を所定の時間につい
て時間平滑する信号平滑回路、30は信号平滑回路20
から出力される眼球変位量平滑信号と表示画面上のオペ
レータの視点座標との対応関係を学習し,認識するニュ
ーラルネットワーク、40は視線認識装置、50は表示
制御回路、60はディスプレイである。
In the figure, 10 is an eye camera as an eye displacement detecting means for detecting the displacement of the operator's eye, 20 is a signal smoothing circuit for smoothing the output signal of the eye camera 1 for a predetermined time, and 30 is Signal smoothing circuit 20
A neural network for learning and recognizing the correspondence between the eyeball displacement smoothing signal output from the operator and the viewpoint coordinates of the operator on the display screen, 40 is a visual line recognition device, 50 is a display control circuit, and 60 is a display.

【0021】図3はディスプレイ60の画面表示の説明
図であって、61はディスプレイ60の表示画面、62
は表示制御回路50で移動制御されるアイカーソル、6
3,64,65,66,67は種々のアイコンを示す。
オペレータは、ディスプレイ60の表示画面61に表示
されているアイカーソル62を例えばアイコン63に移
動させて当該アイコン63を選択するために、視線をア
イコン63に向けて注視する。このオペレータの視線の
向きをアイカメラ10により検出する。アイカメラ10
で検出された視線は、信号平滑回路20,ニューラルネ
ットワーク30において後述する処理によりその視点位
置が認識され、認識結果を表示制御回路50に与えてア
イカーソル62をアイコン63に移動させて当該アイコ
ン63を選択し、そのウインドウを開く等の処理を行
う。この選択処理の実行は、例えばオペレータの頷き、
あるいはその他の操作で実行するが、この点は本発明の
範囲外であるので説明を省略する。
FIG. 3 is an explanatory view of the screen display of the display 60, 61 is the display screen of the display 60, and 62 is a display screen.
Is an eye cursor controlled by the display control circuit 50, 6
3, 64, 65, 66 and 67 represent various icons.
To move the eye cursor 62 displayed on the display screen 61 of the display 60 to, for example, the icon 63 and select the icon 63, the operator gazes the line of sight toward the icon 63. The direction of the operator's line of sight is detected by the eye camera 10. Eye camera 10
The line-of-sight detected in step 6 is recognized by the signal smoothing circuit 20 and the neural network 30 by the processing described later, and the recognition result is given to the display control circuit 50 to move the eye cursor 62 to the icon 63 and the icon 63. Is selected and processing such as opening the window is performed. Execution of this selection process, for example, the nod of the operator,
Alternatively, the operation is performed by other operation, but this point is outside the scope of the present invention, and thus the description thereof is omitted.

【0022】アイカメラ10はオペレータの頭部に固定
されて使用されるもので、当該オペレータの眼球表面に
対して光を投写する光源と眼球表面からの反射光を受光
する撮像素子および撮像素子の撮像信号に基づいて眼球
の移動を検出する反射光位置検出回路とから構成され
る。この反射光検出回路の出力である変位計測値V
(t)は、眼球変位量として眼球を仮想二次元平面上の
座標値(Vx(t),Vy(t))である。
The eye camera 10 is used by being fixed to the operator's head, and includes a light source for projecting light onto the operator's eyeball surface, an image pickup element for receiving reflected light from the eyeball surface, and an image pickup element. And a reflected light position detection circuit for detecting movement of the eyeball based on the image pickup signal. Displacement measurement value V which is the output of this reflected light detection circuit
(T) is the coordinate value (Vx (t), Vy (t)) of the eyeball on the virtual two-dimensional plane as the amount of eyeball displacement.

【0023】信号平滑回路20は、ある時刻tにおいて
アイカメラ10からオペレータの眼球の横方向(X)お
よび縦方向(Y)の変位量に相当する変位計測値V
(t)(Vx(t),Vy(t))を受け取る。本実施
例では、このV(t)時系列の時間平滑化にあたって、
指数平滑方式を採用している。時刻Tにおける眼球変位
の平滑値V’( T)を以下の漸化式により定義する。
The signal smoothing circuit 20 has a displacement measurement value V corresponding to the amount of displacement of the operator's eyeball in the horizontal direction (X) and the vertical direction (Y) from the eye camera 10 at a certain time t.
(T) (Vx (t), Vy (t)) is received. In the present embodiment, in smoothing the time of this V (t) time series,
The exponential smoothing method is used. The smoothed value V '(T) of the eyeball displacement at time T is defined by the following recurrence formula.

【0024】 V’(T)=αV(T−1)+βV’(T−1)・・・・・式(1) ただし、(α+β=1) すなわち、ある時刻における平滑値(推定値)を、1時
刻前の実測値と平滑値とを用いて決定する。この方式
は、最新の実測値ほど比重を大きく与えるという平滑化
方式である。
V ′ (T) = αV (T−1) + βV ′ (T−1) Equation (1) where (α + β = 1) That is, a smoothed value (estimated value) at a certain time It is determined using the measured value and the smoothed value one time before. This method is a smoothing method in which the latest measured value is given more specific gravity.

【0025】そして、このV’(T)を実測値V(T)
のみで展開すると、 V’(T)=α[Σk=0 (1−α)k V(T−k)]・・・式(2) となる。すなわち、平滑値V* (T)は過去の実測値を
指数的に重みづけした総和であることがわかる。図4は
平滑化処理回路20の構成を説明するブロツク図であっ
て、21は係数αを保存する係数α保存用レジスタ、2
2は係数βを保存する係数β保存用レジスタ、23は平
滑値レジスタ、24,25は乗算器、26は加算器であ
る。
Then, this V '(T) is measured value V (T)
When expanded only by: V ′ (T) = α [Σ k = 0 (1-α) k V (T−k)] ... Equation (2) That is, it can be seen that the smoothed value V * (T) is the sum of exponentially weighted past measured values. FIG. 4 is a block diagram for explaining the configuration of the smoothing processing circuit 20, in which 21 is a coefficient α storage register for storing the coefficient α, and 2
Reference numeral 2 is a coefficient β storage register that stores the coefficient β, 23 is a smoothed value register, 24 and 25 are multipliers, and 26 is an adder.

【0026】また、図5は平滑化処理回路20の動作を
説明するフローチヤートである。以下、図4の平滑化処
理回路の動作を図5のフローチヤートを参照して説明す
る。上記した式(1)の関係の実際の処理は図4に示し
た回路から明らかなように、アイカメラ10のV(T−
1)に係数α保存用レジスタ21からの係数αを乗算器
24で乗算し、一方、平滑値レジスタ23からのV’
(T−1)に係数β保存用レジスタ22からの係数βを
乗算器25で乗算し、乗算器24と25の出力値を加算
器26で加算する構成で実現できる。
FIG. 5 is a flow chart for explaining the operation of the smoothing processing circuit 20. The operation of the smoothing processing circuit shown in FIG. 4 will be described below with reference to the flow chart shown in FIG. As is clear from the circuit shown in FIG. 4, the actual processing of the relationship of the above equation (1) is V (T- of the eye camera 10).
1) is multiplied by the coefficient α from the coefficient α storage register 21 in the multiplier 24, while V ′ from the smoothed value register 23 is multiplied.
This can be realized by a configuration in which (T-1) is multiplied by the coefficient β from the coefficient β storage register 22 by the multiplier 25, and the output values of the multipliers 24 and 25 are added by the adder 26.

【0027】すなわち、図5において、時刻(t−1)
においてアイカメラ10から出力V(t−1)を受け取
り(ステップS−1)、この出力V(t−1)に係数α
保存用レジスタ21に格納してある係数αを乗算する
(ステップS−2)。次に、平滑値レジスタ23に格納
されている時刻(t−1)における予測値V’(t−
1)に係数β保存用レジスタ22に格納してある係数β
を乗算し、上記(ステツプS−2)の結果と加算して、
これを時刻tにおける予測値V’(t)とする(ステツ
プS−3)。
That is, in FIG. 5, time (t-1)
At the step S1, the output V (t-1) is received from the eye camera 10 (step S-1), and the output V (t-1) has a coefficient α.
The coefficient α stored in the storage register 21 is multiplied (step S-2). Next, the predicted value V '(t- stored in the smoothed value register 23 at time (t-1)
The coefficient β stored in the coefficient β storage register 22 in 1)
Is multiplied by and added to the result of the above (step S-2),
This is the predicted value V '(t) at time t (step S-3).

【0028】(ステツプS−2)の結果の予測値V’
(t)をニューラルネットワークへ送ると共に、その値
を平滑値レジスタ23に格納する(ステツプS−4)。
この処理を、時刻tを+1して(ステツプS−5)、ス
テツプS−1→ステツプS−2→ステツプS−3→ステ
ツプS−4の処理を繰り返すことにより、所定の時間
(通常必要とされるオペレータのアイコン認識時間)の
平均的視線位置を算出する。
Predicted value V'of the result of (step S-2)
(T) is sent to the neural network and the value is stored in the smoothed value register 23 (step S-4).
This process is incremented at time t (step S-5), and the process of step S-1 → step S-2 → step S-3 → step S-4 is repeated to obtain a predetermined time (normally required). The average line-of-sight position of the operator's icon recognition time) is calculated.

【0029】なお、係数αは平滑化のなめらかさを規定
するものであり、α値を過大にすると平滑値は忠実に眼
球運動を反映したものとなるが、跳躍成分を吸収するこ
とはできない。反対に、α値を過少にすると跳躍成分は
平均化されて非常に滑らかとなるが、実測値に対して大
きな時間遅れを生じてしまう。
The coefficient α defines the smoothness of smoothing. If the α value is too large, the smooth value faithfully reflects the eye movement, but the jump component cannot be absorbed. On the other hand, if the α value is too small, the jump component is averaged and becomes very smooth, but a large time delay occurs with respect to the actually measured value.

【0030】適切な係数αの値は、実測値のサンプリン
グ間隔と眼球の特性に依存するので、実際の使用に際し
て微調整するのが望ましい。この調整は同図における係
数α保存用レジスタ21と係数β保存用レジスタ22を
試行により書き換えることで簡単に行うことができる。
次に、本実施例において用いられるニューラルネットワ
ークについて説明する。
Since the appropriate value of the coefficient α depends on the sampling interval of the actually measured value and the characteristics of the eyeball, it is desirable to finely adjust it in actual use. This adjustment can be easily performed by rewriting the coefficient α saving register 21 and the coefficient β saving register 22 in the figure by trial.
Next, the neural network used in this embodiment will be described.

【0031】図6は平滑化回路20から送られてくる変
位計測値(座標値)と表示画面を見ているオペレータの
視点の位置の対応関係の学習,認識の処理を実行するニ
ューラルネットワークの説明図であって、オペレータが
表示画面上のある点(画面座標値x,y)を見ること
で、アイカメラ10は眼球の横方向と縦方向の変位量に
対応した変位計測値である計測座標値(Vx,Vy)を
出力する。
FIG. 6 illustrates a neural network for performing learning and recognition processing of the correspondence between the displacement measurement value (coordinate value) sent from the smoothing circuit 20 and the position of the viewpoint of the operator who is looking at the display screen. In the figure, when the operator sees a certain point (screen coordinate values x, y) on the display screen, the eye camera 10 causes the measurement coordinates, which are displacement measurement values corresponding to the horizontal and vertical displacement amounts of the eyeball. The value (Vx, Vy) is output.

【0032】この計測座標値(Vx,Vy)と画面座標
値(x,y)とは非線形な関係にあり、オペレータの眼
球形状、姿勢などの個人的な要因に大きく影響を受け
る。本実施例では、ニューラルネットワークに多数の計
測座標値(Vx,Vy)と画面座標値(x,y)を与
え、学習させることで非線形な対応関係を獲得させる。
図7はディスプレイ画面上の学習点のサンプルの説明図
で、71〜79は学習させる点(学習点)、80は学習
点を指示するマークカーソルを示し、学習点71〜79
のディスプレイ画面上の座標値(x,y)は、0≦x≦
1280,0≦y≦1280である。
The measured coordinate values (Vx, Vy) and the screen coordinate values (x, y) have a non-linear relationship and are greatly affected by personal factors such as the operator's eye shape and posture. In the present embodiment, a large number of measured coordinate values (Vx, Vy) and screen coordinate values (x, y) are given to the neural network, and learning is performed to acquire a nonlinear correspondence relationship.
FIG. 7 is an explanatory diagram of a sample of learning points on the display screen. 71 to 79 are points to be learned (learning points), 80 is a mark cursor for pointing the learning points, and learning points 71 to 79.
The coordinate value (x, y) on the display screen of is 0 ≦ x ≦
1280, 0 ≦ y ≦ 1280.

【0033】これらの学習点のサンプル(サンプル点)
は、ワークステーションの本体から自動的に順次図示の
マークカーソル80で指示され、オペレータはこの指示
に従って当該サンプル点を順次に注視することでアイカ
メラの計測座標値と画面上の座標との間の非線型の対応
関係を学習する。ニューラルネットワークが上記学習を
実行した後には、オペレータが表示画面上の任意の位置
を注視したときに眼球変位量検出装置からの出力(V
x,Vy)からニューラルネットワークはオペレータの
視点の位置(x,y)を即座に計算できるようになる。
Samples of these learning points (sample points)
Are automatically pointed to by the mark cursor 80 shown in the figure from the main body of the workstation, and the operator sequentially gazes at the sample points in accordance with this instruction, so that the coordinates between the measured coordinate values of the eye camera and the coordinates on the screen are displayed. Learn non-linear correspondence. After the neural network executes the above learning, when the operator gazes at an arbitrary position on the display screen, the output (V
From (x, Vy), the neural network can immediately calculate the position (x, y) of the operator's viewpoint.

【0034】図6のニューラルネットワークの処理動作
を、i番目のサンプル点(xi ,y i )とそのときの変
位計測値(Vxi ,Vyi )の関係を学習させる場合に
ついて説明する。ニューラルネットワークは、入力がV
i ,Vyi 、出力がx’i,y’i であることから入
力層81と出力層83がそれぞれ2つのユニットから構
成される。中間層82の数は図示した3個に限らず、こ
の中間層82の数を増やすことでより木目細かな学習を
行うことができる。
Processing operation of the neural network of FIG.
Is the i-th sample point (xi, Y i) And the strangeness at that time
Position measurement value (Vxi, Vyi) When learning the relationship
explain about. The input of the neural network is V
xi, Vyi, The output is x 'i, Y 'iBecause it is
Each of the force layer 81 and the output layer 83 is composed of two units.
Is made. The number of the intermediate layers 82 is not limited to the three shown in the figure, and
For more detailed learning by increasing the number of middle layers 82
It can be carried out.

【0035】入力層81に入力されたVxi ,Vy
i は、中間層82と出力層83で非線型変換処理され、
出力層83の出力としてx’i,y’i が得られる。ニ
ューラルネットワークが学習をしていない場合には、一
般に(x’i,y’i )と(x i,y i)とは一致しな
い。そこで、(x’i,y’i )と(x i,y i)とを
一致させるようにニューラルネットワークは上記した方
法で学習を行う。この学習法としては、バックプロパゲ
ーション法を用いる。
Vx input to the input layer 81i, Vy
iIs subjected to nonlinear conversion processing in the intermediate layer 82 and the output layer 83,
X'as the output of the output layer 83i, Y 'iIs obtained. D
If the Ural network is not learning,
Generally (x 'i, Y 'i ) And (xi, Yi) Does not match
Yes. Then, (x 'i, Y 'i) And (xi, Y i) And
Neural network is the one described above to match
Learn by law. This learning method is backpropagation
Solution method is used.

【0036】この学習を行うときには、二乗誤差のよう
な評価関数を設定して、その評価関数の値が減ずるよう
にユニット間の重みを変更して行く。実際の学習では、
n個のパターン対を均等な確率でネットワークに提示
し、それぞれのパターンについて繰り返し学習を行って
いく。図8はニューラルネットワークの処理を説明する
フローチヤートである。
When this learning is performed, an evaluation function such as a squared error is set, and the weights between the units are changed so that the value of the evaluation function decreases. In actual learning,
The n pattern pairs are presented to the network with equal probability, and the learning is repeated for each pattern. FIG. 8 is a flow chart for explaining the processing of the neural network.

【0037】まず、計測された眼球変位量(Vxi , V
i )を正規化してニューラルネットワークの入力層8
1に与える(ステツプS−10)。次に、ニューラルネ
ットワークの出力値(x’i,y’i )と正規化された
表示画面の座標値(xi,yi)を比較して誤差が減少す
るように中間層ユニット82間の重みを変更する(ステ
ツプS−11)。
First, the measured eyeball displacement amount (Vx i , V
y i ) is normalized to input layer 8 of the neural network
1 (step S-10). Next, the output values (x ′ i , y ′ i ) of the neural network and the coordinate values (x i , y i ) of the normalized display screen are compared to reduce the error between the intermediate layer units 82. The weight is changed (step S-11).

【0038】そして、iの値を変更して(ステツプS−
12)ステツプS−10→ステツプS−12→ステツプ
S−12の処理を繰り返し、全てのパターンに対する誤
差がある基準値以下となったときに学習を終了する。こ
のニューラルネットワークの動作と学習のアルゴリズム
は本発明の範囲外であり、前記したD.E.ラメルハー
ト 他の文献に詳述されているので説明は省略する。
Then, the value of i is changed (step S-
12) The process of step S-10 → step S-12 → step S-12 is repeated, and the learning is ended when the errors with respect to all the patterns are below a certain reference value. The operation and learning algorithm of this neural network is outside the scope of the present invention, and the above-mentioned D. E. Since it is described in detail in Ramelhart et al., Its explanation is omitted.

【0039】このようにして、本実施例によれば、表示
画面全域の視線位置を正確に認識できる。
As described above, according to this embodiment, the line-of-sight position in the entire display screen can be recognized accurately.

【0040】[0040]

【発明の効果】以上説明したように、本発明によれば、
眼球変位量検出手段からの眼球変位量検出出力を時間的
に平滑化することで眼球の跳躍成分を除去し、上記眼球
変位量と表示画面上の座標の対応づけをニューラルネッ
トワークを用いて学習,認識することによって安定かつ
正確な視線検出を行うことのできる視線認識装置を提供
することができる。
As described above, according to the present invention,
Removing the jumping component of the eyeball by temporally smoothing the eyeball displacement detection output from the eyeball displacement detection means, learning the correspondence between the eyeball displacement and the coordinates on the display screen using a neural network, It is possible to provide a visual line recognition device capable of performing stable and accurate visual line detection by recognizing the visual line.

【0041】すなわち、ニューラルネットワークを用い
て上記の関係を学習する構成とすることでオペレータの
個人差を吸収でき、また、ニューラルネットワークのデ
ータ補完性により、設定した学習点以外の未学習の点に
ついてもある程度正確な認識出力を得ることが可能とな
る。これにより、表示画面上の全域から偏りなく学習点
を選ぶことで表示画面全域の視線位置を正確に認識でき
る。
That is, by adopting a configuration in which the above-mentioned relationship is learned by using a neural network, individual differences of operators can be absorbed, and unlearned points other than the set learning points can be absorbed by the data complementarity of the neural network. It is possible to obtain a recognition output that is accurate to some extent. With this, it is possible to accurately recognize the line-of-sight position in the entire display screen by selecting the learning points without deviation from the entire display screen.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の構成を示すブロツク図である。FIG. 1 is a block diagram showing a configuration of the present invention.

【図2】 本発明による視線認識装置の一実施例の構成
を説明するブロツク図である。
FIG. 2 is a block diagram illustrating a configuration of an embodiment of a visual line recognition device according to the present invention.

【図3】 ディスプレイの画面表示の説明図である。FIG. 3 is an explanatory diagram of screen display on a display.

【図4】 平滑化処理回路の構成を説明するブロツク図
である。
FIG. 4 is a block diagram illustrating a configuration of a smoothing processing circuit.

【図5】 平滑化処理回路の動作を説明するフローチヤ
ートである。
FIG. 5 is a flowchart for explaining the operation of the smoothing processing circuit.

【図6】 平滑化処理回路から送られてくる変位計測値
(座標値)と表示画面を見ているオペレータの視点の位
置の対応関係の学習,認識の処理を実行するニューラル
ネットワークの説明図である。
FIG. 6 is an explanatory diagram of a neural network that performs learning and recognition processing of the correspondence between the displacement measurement value (coordinate value) sent from the smoothing processing circuit and the position of the viewpoint of the operator who is looking at the display screen. is there.

【図7】 ディスプレイ画面上の学習点のサンプルの説
明図である。
FIG. 7 is an explanatory diagram of a sample of learning points on the display screen.

【図8】 ニューラルネットワークの処理を説明するフ
ローチヤートである。
FIG. 8 is a flow chart illustrating processing of a neural network.

【符号の説明】[Explanation of symbols]

1・・・・眼球変位量検出手段、2・・・・信号平滑手
段、3・・・・ニューラルネットワーク、4・・・・視
線認識装置。
1 ... Eyeball displacement amount detecting means, 2 ... Signal smoothing means, 3 ... Neural network, 4 ...

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 オペレータの視線の変化に応じた眼球の
変位量を検出する眼球変位量検出手段と、眼球変位量検
出手段からの変位量検出出力を受け取って所定の時間分
の当該眼球変位量を平滑化する信号平滑手段と、信号平
滑手段からの眼球変位量平滑出力を受け取り、表示画面
上の座標との対応づけを学習,認識するニューラルネッ
トワークとを備えたことを特徴とする視線認識装置。
1. An eyeball displacement amount detecting means for detecting a displacement amount of an eyeball in accordance with a change of a line of sight of an operator, and a displacement amount detection output from the eyeball displacement amount detecting means for receiving the eyeball displacement amount for a predetermined time. Gaze recognizing device comprising a signal smoothing means for smoothing the eyeballs and a neural network for learning and recognizing the correspondence with the coordinates on the display screen by receiving the eyeball displacement amount smoothing output from the signal smoothing means. ..
JP3206957A 1991-08-19 1991-08-19 Sight line recognizing device Pending JPH0546309A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3206957A JPH0546309A (en) 1991-08-19 1991-08-19 Sight line recognizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3206957A JPH0546309A (en) 1991-08-19 1991-08-19 Sight line recognizing device

Publications (1)

Publication Number Publication Date
JPH0546309A true JPH0546309A (en) 1993-02-26

Family

ID=16531814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3206957A Pending JPH0546309A (en) 1991-08-19 1991-08-19 Sight line recognizing device

Country Status (1)

Country Link
JP (1) JPH0546309A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003196017A (en) * 2001-12-25 2003-07-11 Gen Tec:Kk Data input method and device
KR20040033496A (en) * 2002-10-14 2004-04-28 현대모비스 주식회사 Method for controlling an input key for a display device using an eye tracking
JP2006141862A (en) * 2004-11-24 2006-06-08 Saga Univ Visual-axis direction specification system
KR100643886B1 (en) * 2004-06-18 2006-11-10 주식회사 대우일렉트로닉스 Remote controlled Television by user's motion using image processing and the method thereof
JP2020184143A (en) * 2019-05-07 2020-11-12 公立大学法人広島市立大学 Fixation point estimation method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003196017A (en) * 2001-12-25 2003-07-11 Gen Tec:Kk Data input method and device
KR20040033496A (en) * 2002-10-14 2004-04-28 현대모비스 주식회사 Method for controlling an input key for a display device using an eye tracking
KR100643886B1 (en) * 2004-06-18 2006-11-10 주식회사 대우일렉트로닉스 Remote controlled Television by user's motion using image processing and the method thereof
JP2006141862A (en) * 2004-11-24 2006-06-08 Saga Univ Visual-axis direction specification system
JP4654434B2 (en) * 2004-11-24 2011-03-23 国立大学法人佐賀大学 Gaze direction identification system
JP2020184143A (en) * 2019-05-07 2020-11-12 公立大学法人広島市立大学 Fixation point estimation method

Similar Documents

Publication Publication Date Title
US10817795B2 (en) Handstate reconstruction based on multiple inputs
US10905350B2 (en) Camera-guided interpretation of neuromuscular signals
EP3743901A1 (en) Real-time processing of handstate representation model estimates
US8675916B2 (en) User interface apparatus and method using movement recognition
CN111902077A (en) Calibration technique for hand state representation modeling using neuromuscular signals
WO1999026126A1 (en) User interface
Komogortsev et al. Eye movement prediction by oculomotor plant Kalman filter with brainstem control
CN115576426A (en) Hand interaction method for mixed reality flight simulator
JPH0546309A (en) Sight line recognizing device
CN111158476B (en) Key recognition method, system, equipment and storage medium of virtual keyboard
US20220092434A1 (en) Noise waveform removing device, model training device, noise waveform removing method, model training method, generation model, and wearable device
Chiu et al. Intelligent visual acuity estimation system with hand motion recognition
CN113491502A (en) Eyeball tracking calibration inspection method, device, equipment and storage medium
Lin et al. Development of a body motion interactive system with a weight voting mechanism and computer vision technology
JP2020201755A (en) Concentration degree measurement device, concentration degree measurement method, and program
US11829531B2 (en) Human-computer interaction method and system and non-transitory computer readable storage medium
US11640203B2 (en) Operation system and operation method
US20230137366A1 (en) Multimodal Dialog-Based Remote Patient Monitoring of Motor Function
US20230305633A1 (en) Gesture and voice controlled interface device
US20230027320A1 (en) Movement Disorder Diagnostics from Video Data Using Body Landmark Tracking
WO2023188217A1 (en) Information processing program, information processing method, and information processing device
JP2019003312A (en) Gazing object estimation device, gazing object estimation method and program
Bhavana et al. Virtual steering with gesture control using 3D hand modeling
Pomplun et al. A Ėegmentation Algorithm for the Comparison of Human Limb Trajectories
JPH0728592A (en) Human interface device