JP2001061785A - Detection of sight line and apparatus therefor - Google Patents

Detection of sight line and apparatus therefor

Info

Publication number
JP2001061785A
JP2001061785A JP24002799A JP24002799A JP2001061785A JP 2001061785 A JP2001061785 A JP 2001061785A JP 24002799 A JP24002799 A JP 24002799A JP 24002799 A JP24002799 A JP 24002799A JP 2001061785 A JP2001061785 A JP 2001061785A
Authority
JP
Japan
Prior art keywords
gaze
detection result
pupil
detection
eyeball
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP24002799A
Other languages
Japanese (ja)
Inventor
Hideki Soya
秀樹 征矢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP24002799A priority Critical patent/JP2001061785A/en
Publication of JP2001061785A publication Critical patent/JP2001061785A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To make it possible to detect the exact sight line positions of the eyeballs to be detected at all times. SOLUTION: The sight line positions are respectively determined by both of a pupil center method computation section 2D and cornea reflection method computation section 2E for the eyeball images of an operator M captured by an optical image pickup apparatus 1. When a detected result difference decision section 2F makes decision that the difference of the two detected LOS positions is not confined within a preset prescribed range continuously for the specified time, recomputation to determine the sight line positions again is carried out by the pupil center method computation section 2D according to the moving quantity of the head determined by a head moving quantity calculation section 2G. As a result, the exact detection by the algorithm of the pupil center method is always carried out and, therefore, the exact sight line positions may be detected at all times without being affected by the rotating angle of the eyeballs and the mounting positions of illumination light for image pickup.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、光学式撮像手段
を用いて取り込んだ眼球画像に基づいて眼球の視線位置
(視線方向)を検出する方法および装置に係り、特に検
出対象の眼球の正確な視線位置が常に検出されるように
するための技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and an apparatus for detecting a line-of-sight position (a line-of-sight direction) of an eyeball based on an eyeball image captured by using an optical imaging means. The present invention relates to a technique for constantly detecting a gaze position.

【0002】[0002]

【従来の技術】普通、眼球の視線位置を検出する方法と
しては、瞳孔中心法と瞳孔−角膜反射法が特に有用とさ
れている。瞳孔中心法は、視線位置の変化による眼球の
回転に応じて瞳孔中心が移動することを利用しており、
瞳孔の中心位置を測定して単純に視線位置を求出する手
法である。瞳孔−角膜反射法は、角膜表面の光反射で生
じる虚像(反射像)が視線位置の変化による眼球の回転
に応じて移動することを利用しており、角膜表面の虚像
の中心位置と瞳孔中心位置を測定して両位置の関係から
視線位置を求出する手法である。
2. Description of the Related Art Usually, pupil center method and pupil-corneal reflex method are particularly useful as methods for detecting the gaze position of an eyeball. The pupil center method utilizes that the center of the pupil moves according to the rotation of the eyeball due to a change in the line of sight,
This is a method of measuring the center position of the pupil and simply finding the gaze position. The pupil-corneal reflection method utilizes that a virtual image (reflection image) generated by light reflection on the corneal surface moves in accordance with the rotation of the eyeball due to a change in the line of sight, and the center position of the virtual image on the corneal surface and the center of the pupil. This is a method of measuring the position and calculating the line-of-sight position from the relationship between the two positions.

【0003】実際に視線位置を求出するに際しては、検
出対象の眼球を光学式撮像手段によって撮影して眼球画
像を取り込んでおき、瞳孔中心法あるいは瞳孔−角膜反
射法のアルゴリズムに従って取り込んだ眼球画像を解析
することにより視線位置が決定される。
[0003] When actually determining the line-of-sight position, an eyeball to be detected is photographed by an optical imaging means to capture an eyeball image, and the eyeball image captured according to an algorithm of a pupil center method or a pupil-corneal reflection method. Is analyzed to determine the gaze position.

【0004】瞳孔中心法の場合、視線位置の変化に伴う
瞳孔中心位置の移動量が大きいので、視線位置が検出し
易いという利点がある。瞳孔−角膜反射法の場合、眼球
の回転による瞳孔中心位置の移動と、頭部の動きによる
瞳孔中心位置の移動とをある程度分離することができる
ので、頭部が完全に固定されていなくても視線位置が検
出できるという利点がある。
In the pupil center method, the amount of movement of the center of the pupil due to a change in the line of sight is large, so that there is an advantage that the line of sight can be easily detected. In the case of the pupil-corneal reflex method, the movement of the center of the pupil due to the rotation of the eyeball and the movement of the center of the pupil due to the movement of the head can be separated to some extent, so that even if the head is not completely fixed. There is an advantage that the gaze position can be detected.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記の
瞳孔中心法による検出方法でも、瞳孔−角膜反射法によ
る検出方法でも、検出対象の眼球の正確な視線位置が常
に検出できるわけではないという問題がある。
However, there is a problem that an accurate line-of-sight position of an eye to be detected cannot always be detected by the pupil center method or the pupil-corneal reflection method. is there.

【0006】すなわち、瞳孔中心法による検出方法の場
合、検出はし易くても、眼球の回転による瞳孔中心位置
の移動と頭部の動きによる瞳孔中心位置の移動とが分離
できないので、頭部の動きがあると、これが誤差となっ
て視線位置を正確に検出することが出来ないという問題
がある。
That is, in the detection method based on the pupil center method, although the detection is easy, the movement of the center position of the pupil due to the rotation of the eyeball and the movement of the center position of the pupil due to the movement of the head cannot be separated. If there is a movement, this causes an error, and there is a problem that the gaze position cannot be accurately detected.

【0007】また瞳孔−角膜反射法による検出方法の場
合、眼球の回転角や撮像用照明光の取り付け位置によっ
ては、角膜表面に虚像が形成されず、視線位置が検出で
きないという問題がある。
In the case of the detection method using the pupil-corneal reflection method, there is a problem that a virtual image is not formed on the cornea surface depending on the rotation angle of the eyeball or the mounting position of the illumination light for imaging, and the line of sight cannot be detected.

【0008】この発明は、上記の事情に鑑み、検出対象
の眼球の正確な視線位置が常に検出できる視線検出方法
及びその装置を提供することを課題とする。
In view of the above circumstances, an object of the present invention is to provide a gaze detection method and a gaze detection method capable of always detecting an accurate gaze position of an eyeball to be detected.

【0009】[0009]

【課題を解決するための手段】前記課題を解決するため
に、請求項1の発明に係る視線検出方法は、光学式撮像
手段により撮影された眼球画像に基づいて眼球の視線位
置を検出する視線検出方法において、同一眼球画像に対
して瞳孔中心法のアルゴリズムと瞳孔−角膜反射法のア
ルゴリズムの両アルゴリズムそれぞれによって視線検出
結果を得る演算過程と、両アルゴリズムによる検出結果
の差が予め設定した所定範囲内に納まっているか否かを
判定する検出結果差判定過程と、検出結果差判定過程の
判定結果が否であれば、瞳孔−角膜反射法のアルゴリズ
ムの検出結果に基づき検出対象の眼球のある頭部の動き
に起因する誤差が除去された瞳孔中心法のアルゴリズム
による検出結果を求め直すための再演算を行う検出結果
再演算過程とを備えていることを特徴とするものであ
る。
According to a first aspect of the present invention, there is provided a gaze detecting method for detecting a gaze position of an eyeball based on an eyeball image captured by an optical imaging means. In the detection method, the same eyeball image is subjected to a calculation process of obtaining a line-of-sight detection result by both an algorithm of a pupil center method and an algorithm of a pupil-corneal reflection method, respectively, and a difference between the detection results by the two algorithms is a predetermined range. If the determination result of the detection result difference determination process determines whether or not the eyeball is within the head, the head with the eye to be detected based on the detection result of the pupil-corneal reflection method algorithm A recalculation process for recalculating a detection result by an algorithm of the pupil center method from which an error caused by a movement of a part has been removed. And it is characterized in that is.

【0010】さらに、請求項2の発明に係る視線検出装
置は、光学式撮像手段により撮影された眼球画像に基づ
いて眼球の視線位置の検出を行うよう構成された視線検
出装置において、眼球画像から瞳孔中心法のアルゴリズ
ムに従って視線検出結果を得る瞳孔中心法演算手段と、
眼球画像から瞳孔−角膜反射法のアルゴリズムに従って
視線検出結果を得る角膜反射法演算手段と、前記両演算
手段による検出結果の差が予め設定した所定範囲内に納
まっているか否かを判定する検出結果差判定手段と、検
出結果差判定手段の判定結果が否であれば、角膜反射法
演算手段の検出結果に基づき検出対象の眼球のある頭部
の動きに起因する誤差が除去された瞳孔中心法演算手段
による検出結果を求め直すための再演算を行う検出結果
再演算手段とを備えていることを特徴とするものであ
る。
Further, a gaze detecting apparatus according to a second aspect of the present invention is a gaze detecting apparatus configured to detect a gaze position of an eyeball based on an eyeball image photographed by an optical imaging means. Pupil center method calculation means for obtaining a gaze detection result according to an algorithm of the pupil center method,
A corneal reflex method calculating means for obtaining a gaze detection result from an eyeball image according to an algorithm of a pupil-corneal reflex method, and a detection result for determining whether or not a difference between the detection results obtained by the two calculating means falls within a predetermined range set in advance. A pupil center method in which an error caused by movement of a certain head of an eye to be detected is removed based on the detection result of the corneal reflection method calculation means if the determination result of the difference determination means and the detection result difference determination means is negative And a detection result recalculating means for performing a recalculation for recalculating a detection result by the calculating means.

【0011】また、請求項3の発明は、請求項2に記載
の視線検出装置において、視線位置の検出結果が、コン
ピュータの入力操作用として利用されるよう構成されて
いることを特徴とするものである。
According to a third aspect of the present invention, in the gaze detecting apparatus according to the second aspect, the result of detecting the gaze position is used for an input operation of a computer. It is.

【0012】また、請求項4の発明は、請求項3に記載
の視線検出装置において、コンピュータからの指令に従
って少なくとも入力操作用画面を表示するヘッドマウン
トディスプレイの前記入力操作用画面に眼球の視線が向
けられるよう構成されていることを特徴とするものであ
る。
According to a fourth aspect of the present invention, in the gaze detecting device according to the third aspect, the gaze of an eyeball is displayed on the input operation screen of the head mounted display that displays at least an input operation screen in accordance with a command from a computer. It is characterized in that it is configured to be oriented.

【0013】〔作用〕次に、この発明に係る視線検出装
置における作用を説明する。この発明の方法により眼球
の視線位置(視線方向)を検出する場合、まず光学式撮
像手段により検出対象である眼球の眼球画像を撮影して
取り込んでから、次に取り込んだ眼球画像に対して瞳孔
中心法のアルゴリズムと瞳孔−角膜反射法のアルゴリズ
ムの両アルゴリズムそれぞれによる演算で二つの視線検
出結果を得た後、得られた二つの検出結果の差が予め設
定した所定範囲内に納まっているか否かを判定する。両
アルゴリズムの検出結果の差が所定範囲内に納まってい
ない場合(否定の場合)、検出対象の眼球のある頭部の
動きによる瞳孔中心位置の移動によって、瞳孔中心法の
アルゴリズムによる検出結果に誤差が生じていることに
なる。
[Operation] Next, the operation of the visual axis detection device according to the present invention will be described. When the gaze position (gaze direction) of an eyeball is detected by the method of the present invention, first, an eyeball image of the eyeball to be detected is captured and captured by an optical imaging unit, and then the pupil is captured with respect to the captured eyeball image. After obtaining two eye-gaze detection results by arithmetic operations of both the central method algorithm and the pupil-corneal reflex method algorithm, whether the difference between the obtained two detection results falls within a predetermined range set in advance. Is determined. If the difference between the detection results of both algorithms does not fall within the predetermined range (negative case), the detection result by the algorithm of the pupil center method is shifted due to the movement of the pupil center position due to the movement of a certain head of the eye to be detected. Has occurred.

【0014】そこで、この発明の方法においては、判定
結果が否定であれば、瞳孔−角膜反射法のアルゴリズム
の検出結果に基づき再演算が行われて検出対象の眼球の
ある頭部の動きに起因する誤差が除かれた瞳孔中心法の
アルゴリズムによる検出結果が求め直され、正確な視線
位置が求出される。つまり、瞳孔−角膜反射法のアルゴ
リズムの場合、眼球の回転による瞳孔中心位置の移動と
検出対象の眼球の付いている頭部の動きによる瞳孔中心
位置の移動とを分離することができるので、頭部の動き
による瞳孔中心位置の移動量を求めて、これを用いて瞳
孔中心法のアルゴリズムにおける瞳孔中心位置を補正す
ることにより頭部の動きに起因する誤差を取り除くので
ある。
Therefore, in the method of the present invention, if the determination result is negative, recalculation is performed based on the detection result of the pupil-corneal reflex method algorithm, and the calculation is caused by the movement of the head with the eye to be detected. The detection result by the pupil center method algorithm from which the error is removed is calculated again, and an accurate gaze position is calculated. That is, in the case of the pupil-corneal reflex algorithm, the movement of the center of the pupil due to the rotation of the eyeball and the movement of the center of the pupil due to the movement of the head with the eye to be detected can be separated. The amount of movement of the pupil center position due to the movement of the part is obtained, and using this, the pupil center position in the pupil center method algorithm is corrected to remove the error caused by the head movement.

【0015】なお、両アルゴリズムの検出結果の差が所
定範囲内に納まっている場合(肯定の場合)は、瞳孔中
心法と瞳孔−角膜反射法の両アルゴリズムによる視線位
置の検出結果は、いずれも正確ということになる。
When the difference between the detection results of the two algorithms falls within a predetermined range (in the case of affirmative), both the detection results of the line-of-sight position by both the pupil center method and the pupil-corneal reflection method are used. That is accurate.

【0016】したがって、この発明の視線検出方法にお
いては、瞳孔中心法のアルゴリズムによる的確な検出結
果が常に得られるので、眼球の回転角や撮像用照明光の
取り付け位置に左右されることもなく、眼球の正確な視
線位置が常に検出できることになる。
Therefore, in the gaze detection method of the present invention, an accurate detection result by the pupil center method algorithm is always obtained, so that it is not affected by the rotation angle of the eyeball or the mounting position of the imaging illumination light. An accurate gaze position of the eyeball can always be detected.

【0017】さらに、請求項2の発明の装置の場合、請
求項1の発明を実施することにより、検出対象の眼球の
視線位置を常に正確に検出することができる。
Further, in the case of the apparatus according to the second aspect of the present invention, by implementing the first aspect of the present invention, the line of sight of the eye to be detected can always be accurately detected.

【0018】また、請求項3の視線検出装置の場合、常
に正確に検出される視線位置に従って、コンピュータの
入力操作がいつも間違いなく実行される。
Further, in the case of the eye-gaze detecting device according to the third aspect, the input operation of the computer is always executed without fail in accordance with the eye-gaze position which is always accurately detected.

【0019】また、請求項4の視線検出装置の場合、コ
ンピュータからの指令に従ってヘッドマウントディスプ
レイに表示される入力操作用画面に向けられた(コンピ
ュータ・オペレータの)眼球の視線でもって、表示中の
入力操作用画面からコンピュータ操作のための入力が行
われる。
In the case of the eye-gaze detecting device according to the fourth aspect, the gaze of the eyeball (of the computer operator) directed to the input operation screen displayed on the head-mounted display in accordance with a command from the computer is displayed. Input for computer operation is performed from the input operation screen.

【0020】[0020]

【発明の実施の形態】続いて、この発明の一実施例を図
面を参照しながら説明する。図1は請求項2〜4の視線
検出装置の一例を用いたコンピュータコミュニケーショ
ンシステムの全体構成を示すブロック図である。また、
図1のシステム中に配設されている視線検出装置は、請
求項1の視線検出方法の一例を実施することにより視線
位置(視線方向)を検出する装置である。
Next, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the overall configuration of a computer communication system using an example of the eye gaze detecting device according to claims 2 to 4. Also,
The gaze detection device provided in the system of FIG. 1 is a device that detects a gaze position (gaze direction) by implementing an example of the gaze detection method according to claim 1.

【0021】実施例のコンピュータコミュニケーション
システムは、オペレータMの眼球画像を撮影する光学式
撮像機器1と、光学式撮像機器1により撮影されたオペ
レータMの眼球画像に基づいて眼球の視線位置を検出す
るよう構成さた視線検出装置2と、視線検出装置2によ
る視線位置の検出結果に従って入力操作がなされるパー
ソナルコンピュータ3と、パーソナルコンピュータ3か
らの指令に従って少なくとも入力操作用画面が表示され
るヘッドマウントディスプレイ(HMD)4とを備えて
おり、ヘッドマウントディスプレイ4の入力操作用画面
に向けられたオペレータMの眼球の視線位置が視線検出
装置2により検出されるとともに、検出された視線位置
に従ってパーソナルコンピュータ3に対して入力操作が
なされてオペレータMとコンピュータ3の間でコミュニ
ケーションが行われる構成となっている。
The computer communication system according to the embodiment detects an optical imaging device 1 for photographing an eyeball image of an operator M, and a line-of-sight position of an eyeball based on the eyeball image of the operator M photographed by the optical imaging device 1. A gaze detection device 2 configured as described above, a personal computer 3 on which an input operation is performed in accordance with a result of detection of a gaze position by the gaze detection device 2, and a head-mounted display on which at least an input operation screen is displayed in accordance with a command from the personal computer 3 (HMD) 4, and the line-of-sight position of the eyeball of the operator M directed to the input operation screen of the head-mounted display 4 is detected by the line-of-sight detection device 2, and the personal computer 3 according to the detected line-of-sight position. Input operation is performed on the Communication between the M and the computer 3 has a configuration to be performed.

【0022】以下、実施例のコンピュータコミュニケー
ションシステムの各部の構成を具体的に説明する。
Hereinafter, the configuration of each part of the computer communication system of the embodiment will be specifically described.

【0023】光学式撮像機器1はヘッドマウントディス
プレイ4に設置されている赤外光源1Aとハーフミラー
1BおよびCCDカメラ1Cとからなり、赤外光源1A
の照射光で照らされたオペレータMの眼球がハーフミラ
ー1Bを介してCCDカメラ1Cで撮影されるととも
に、撮影された眼球画像はCCDカメラ1Cから視線検
出装置2へ送出される構成となっている。なお、光学式
撮像機器1は左右両眼用に一対設けられている。
The optical imaging device 1 comprises an infrared light source 1A, a half mirror 1B, and a CCD camera 1C installed on a head-mounted display 4.
The eyeball of the operator M illuminated by the illumination light of the above is photographed by the CCD camera 1C via the half mirror 1B, and the photographed eyeball image is transmitted from the CCD camera 1C to the visual line detection device 2. . Note that a pair of optical imaging devices 1 are provided for the left and right eyes.

【0024】ヘッドマウントディスプレイ4は、装着す
るオペレータMに入力操作用画面を提供するLCD(液
晶表示装置)4Aと、表示用光学系4Bおよび一対のハ
ーフミラー4Cが左右両眼用にそれぞれ設けられた公知
のものであり、LCD4Aにはパーソナルコンピュータ
3から画像信号が提供され、装着するオペレータMの眼
前に入力操作用画面が拡大表示される。入力操作用画面
には操作キーやアイコン等の像が所定の位置に映し出さ
れる。ヘッドマウントディスプレイ4による拡大表示の
場合、視野角が拡大して、注視点の移動時におけるオペ
レータの視線の移動量が大きくなるので、視線位置の検
出精度が向上する利点がある。
The head-mounted display 4 is provided with an LCD (liquid crystal display) 4A for providing an input operation screen to an operator M to be mounted thereon, a display optical system 4B and a pair of half mirrors 4C for the left and right eyes. An image signal is provided from the personal computer 3 to the LCD 4A, and an input operation screen is enlarged and displayed in front of the operator M wearing the LCD 4A. On the input operation screen, images such as operation keys and icons are projected at predetermined positions. In the case of the enlarged display by the head-mounted display 4, the viewing angle is enlarged and the amount of movement of the operator's line of sight when the gazing point is moved is increased, so that there is an advantage that the detection accuracy of the line of sight is improved.

【0025】視線検出装置2は、取り込んだ眼球画像を
予め設定した「しきい値」に従って3値化処理して3値
化画像を得る3値化回路2Aと、3値化画像から瞳孔中
心位置を求出する瞳孔抽出部2Bと、3値化画像から角
膜表面に生じる反射像(虚像)の(中心)位置を求出す
る反射像抽出部2Cとを備えており、新たに眼球画像が
一つ取り込まれると、瞳孔中心位置と反射像の位置が直
ちに求出される構成となっている。なお、3値化画像に
おいては、最も暗い領域が瞳像で、最も明るい領域が反
射像に対応する。
The eye-gaze detecting device 2 includes a ternary conversion circuit 2A for obtaining a ternary image by ternarizing the captured eyeball image in accordance with a preset "threshold value", and a pupil center position based on the ternary image. And a reflection image extraction unit 2C for calculating the (center) position of a reflection image (virtual image) generated on the corneal surface from the ternarized image, and a new eyeball image is obtained. When the pupil is captured, the pupil center position and the position of the reflection image are immediately obtained. In the ternarized image, the darkest area corresponds to the pupil image, and the brightest area corresponds to the reflection image.

【0026】さらに、視線検出装置2は、眼球画像から
瞳孔中心法のアルゴリズムに従って視線位置を求出する
瞳孔中心法演算部2Dと、眼球画像から瞳孔−角膜反射
法のアルゴリズムに従って視線位置を求出する角膜反射
法演算部2Eとを備えている。つまり、瞳孔中心法演算
部2Dは瞳孔抽出部2Bにより求められた瞳孔中心位置
から比較的単純に視線位置を算出し、角膜反射法演算部
2Eは瞳孔抽出部2Bにより求められた瞳孔中心位置と
反射像抽出部2Cにより求められた反射像の位置とから
視線位置を算出するのである。
Further, the eye gaze detecting device 2 calculates a gaze position from the eyeball image according to the pupil center algorithm according to an algorithm of the pupil center method, and obtains a gaze position from the eyeball image according to the pupil-corneal reflection algorithm. And a corneal reflection method calculation unit 2E. That is, the pupil center calculation unit 2D relatively simply calculates the line of sight from the pupil center calculated by the pupil extraction unit 2B, and the corneal reflex calculation unit 2E calculates the pupil center calculated by the pupil extraction unit 2B. The gaze position is calculated from the position of the reflection image obtained by the reflection image extraction unit 2C.

【0027】これら両演算部2D,2Eにより算出され
た視線位置は、ヘッドマウントディスプレイ4において
表示される入力操作用画面に対応するものである。すな
わち、予め入力操作用画面の標準点に対して視線位置の
キャリブレーションが行われて、両演算部2D,2Eに
より算出された視線位置が入力操作用画面上の注視点に
対応付けられる構成となっているのである。
The line-of-sight position calculated by these two calculation units 2 D and 2 E corresponds to the input operation screen displayed on the head-mounted display 4. In other words, the gaze position is calibrated to the standard point of the input operation screen in advance, and the gaze position calculated by both calculation units 2D and 2E is associated with the gazing point on the input operation screen. It is becoming.

【0028】具体的には、図2に示すように、入力操作
用画面PAの位置が既知である上下左右の4つの標準点
Pa〜Pdを順に眼球が注視して視線が各標準点Pa〜
Pdそれぞれにある時の眼球画像上での瞳孔中心位置を
求めた後、さらに入力操作用画面PAにおける4つの標
準点Pa〜Pdの座標とその瞳孔中心位置および瞳孔中
心位置と反射像位置との相関関係を予め求めておき、こ
の相関関係に従って実測時の瞳孔中心位置を入力操作用
画面の上で対応する視線位置に変換するのである。な
お、実施例の入力操作用画面の場合、左上を原点とする
XY直交座標で視線位置を示す構成になっている。
Specifically, as shown in FIG. 2, the eyeball gazes sequentially at four standard points Pa to Pd of the upper, lower, left, and right where the position of the input operation screen PA is known, and the line of sight changes to each of the standard points Pa to Pd.
After obtaining the pupil center position on the eyeball image at each Pd, the coordinates of the four standard points Pa to Pd on the input operation screen PA, the pupil center position, and the pupil center position and the reflection image position are further obtained. The correlation is determined in advance, and the pupil center position at the time of the actual measurement is converted into the corresponding line-of-sight position on the input operation screen according to the correlation. In the case of the input operation screen of the embodiment, the line-of-sight position is indicated by XY orthogonal coordinates with the upper left as the origin.

【0029】そして、視線検出装置2は、両アルゴリズ
ムの検出結果の差が予め設定した所定範囲内に一定時間
継続して納まっているか否かを判定する検出結果差判定
部2Fを備えている。検出結果差判定部2Fによる判定
結果が否定の(所定範囲内に納まっていない)場合、瞳
孔中心法演算部2Dにより算出した視線位置には、オペ
レータMの頭部の動きに起因する誤差が含まれていて、
検出結果が正確でないことになる。
The visual line detection device 2 includes a detection result difference determination unit 2F which determines whether or not the difference between the detection results of the two algorithms falls within a predetermined range that has been set in advance for a certain period of time. When the determination result by the detection result difference determination unit 2F is negative (not within the predetermined range), the gaze position calculated by the pupil center method calculation unit 2D includes an error caused by the movement of the head of the operator M. Have been
The detection result will not be accurate.

【0030】反対に、検出結果差判定部2Fによる判定
結果が肯定の(所定範囲内に納まっている)場合、オペ
レータMの頭部に動きはなく、両演算部2D,2Eによ
り算出した視線位置には、オペレータMの頭部の動きに
起因する誤差が含まれておらず、検出結果は正確である
ことになる。この場合、瞳孔中心法演算部2Dにより算
出された視線位置がパーソナルコンピュータ3へ直ちに
送出される。
On the other hand, when the determination result by the detection result difference determination unit 2F is affirmative (within a predetermined range), the head of the operator M does not move, and the gaze position calculated by the two arithmetic units 2D and 2E. Does not include an error caused by the movement of the head of the operator M, and the detection result is accurate. In this case, the gaze position calculated by the pupil center method calculation unit 2D is immediately transmitted to the personal computer 3.

【0031】さらに、視線検出装置2は、角膜反射法演
算部2Eによる検出結果からオペレータMの頭部の移動
量を算出する頭部移動量算出部2Gを備えている。つま
り、瞳孔−角膜反射法の場合、眼球の回転による瞳孔中
心位置の移動と頭部の動きによる瞳孔中心位置の移動と
を概ね分離することができるので、検出結果差判定部2
Fによる判定結果が否定の場合、頭部移動量算出部2G
は、角膜反射法演算部2Eによる検出結果を逆変換処理
するようなかたちで頭部の動きによる瞳孔中心位置の
(眼球画像上での)移動量(Δx,Δy)を算出して瞳
孔中心法演算部2Dへ送り込む構成となっているのであ
る。
The eye gaze detecting device 2 further includes a head movement amount calculation unit 2G for calculating the movement amount of the head of the operator M from the detection result by the corneal reflection method calculation unit 2E. That is, in the case of the pupil-corneal reflection method, the movement of the pupil center position due to the rotation of the eyeball and the movement of the pupil center position due to the movement of the head can be substantially separated.
If the determination result by F is negative, the head movement amount calculation unit 2G
Calculates the amount of movement (Δx, Δy) (on the eyeball image) of the center position of the pupil due to the movement of the head in such a manner that the result of detection by the corneal reflection method calculation unit 2E is subjected to an inverse transformation process. The configuration is such that the data is sent to the arithmetic unit 2D.

【0032】瞳孔中心法演算部2Dの場合、より具体的
には、図3に示すように、眼球画像PBの上での瞳孔中
心位置Ps=(xc,yc)である場合、次の演算式
(1)に従って、図2に示すように、入力操作用画面P
Aにおける視線位置Pt=(Xw,Yw)が算出され
る。演算式(1)のABCDを要素とするマトリックス
は、入力操作用画面PAにおける4つの標準点Pa〜P
dに基づいて前述のようにして求められる眼球画像PB
の上での瞳孔中心位置Psと入力操作用画面PAの上で
の視線位置Ptとの間の相関関係(対応関係)に該当す
る。
In the pupil center method calculation unit 2D, more specifically, as shown in FIG. 3, when the pupil center position Ps = (xc, yc) on the eyeball image PB, According to (1), as shown in FIG.
The line-of-sight position Pt at (A) = (Xw, Yw) is calculated. The matrix having ABCD as an element in the arithmetic expression (1) is expressed by four standard points Pa to P on the input operation screen PA.
eyeball image PB obtained as described above based on d
Corresponds to the correlation (correspondence) between the pupil center position Ps on the screen and the line-of-sight position Pt on the input operation screen PA.

【0033】[0033]

【数1】 (Equation 1)

【0034】ただし、頭部の動きによる瞳孔中心位置の
移動量ΔP=(Δx,Δy)が頭部移動量算出部2Gか
ら瞳孔中心法演算部2Dへ送り込まれた場合、瞳孔中心
位置Psは、頭が動いた量に応じて本来の瞳孔中心位置
Pu=(xr,yr)から瞳孔中心位置の移動量ΔPだ
けズレていることになるので、頭部移動量算出部2G
は、移動量ΔPのズレを勘案して次の演算式(2)に従
って頭部の動きによる誤差が排除された正確な視線位置
PT(Xv,Yv)を算出する再演算を実行することに
なる。なお、xr=xc+Δx,yr=yc+Δyであ
り、また移動量ΔP=(Δx,Δy)は座標の向きに応
じて正または負の数値となる。
However, if the movement amount ΔP = (Δx, Δy) of the pupil center position due to the movement of the head is sent from the head movement amount calculation unit 2G to the pupil center method calculation unit 2D, the pupil center position Ps becomes Since the original pupil center position Pu = (xr, yr) is shifted from the original pupil center position Pu = (xr, yr) by the movement amount ΔP of the pupil center position according to the amount of movement of the head, the head movement amount calculation unit 2G
Performs a recalculation to calculate an accurate line-of-sight position PT (Xv, Yv) in which an error due to the movement of the head is eliminated according to the following equation (2) in consideration of a shift of the movement amount ΔP. . Note that xr = xc + Δx, yr = yc + Δy, and the movement amount ΔP = (Δx, Δy) is a positive or negative numerical value according to the direction of the coordinates.

【0035】なお、瞳孔中心法演算部2Dにより求め直
した視線位置は、パーソナルコンピュータ3へ送出され
る。従って、実施例の場合、角膜反射法演算部2Eの検
出結果に基づき検出対象の眼球のある頭部の動きに起因
する誤差が除去された瞳孔中心法演算手段による検出結
果を求め直す検出結果再演算手段は、頭部移動量算出部
2Gおよび瞳孔中心法演算部2Dとから構成されている
ことになる。
The gaze position re-determined by the pupil center method calculation unit 2D is sent to the personal computer 3. Therefore, in the case of the embodiment, the detection result re-calculated based on the detection result of the corneal reflex method calculation unit 2E and the detection result obtained by the pupil center method calculation unit in which the error caused by the movement of a certain head of the eye to be detected is removed is obtained. The calculation means is composed of a head movement amount calculation unit 2G and a pupil center method calculation unit 2D.

【0036】[0036]

【数2】 (Equation 2)

【0037】また、視線検出装置2は、瞳孔中心法演算
部2Dによる検出結果からオペレータMが瞬きしたこと
を検知する瞬き検知部2Hを備えており、瞬き検知部2
HはオペレータMの眼の瞬きを検知すると直ちにパーソ
ナルコンピュータ3へ瞬き発生を知らせる信号を送出す
る。
The eye-gaze detecting device 2 includes a blink detecting unit 2H for detecting that the operator M has blinked from the detection result by the pupil center method calculating unit 2D.
H detects the blinking of the eyes of the operator M and immediately sends a signal notifying the occurrence of blinking to the personal computer 3.

【0038】一方、パーソナルコンピュータ3は瞳孔中
心法演算部2Dから送出された視線位置に従って、図4
に示すように、ヘッドウマントディスプレイ4の入力操
作用画面PAに視線位置を示すカーソル状のマーカmk
を重畳表示させる。マーカmkは、オペレータMの視線
変化に従って入力操作用画面PAの上を移動する構成に
なっている。他方、パーソナルコンピュータ3は、瞬き
検知部2Hから瞬き発生を知らせる信号を受信すると、
図5に示すように、マーカmkが位置する操作キー(又
はアイコン)nkに対して入力操作が行われたと判断す
る。
On the other hand, the personal computer 3 operates according to the line-of-sight position sent from the pupil center method calculation unit 2D as shown in FIG.
As shown in the figure, a cursor-shaped marker mk indicating the line-of-sight position on the input operation screen PA of the head mounted display 4.
Are superimposed. The marker mk moves on the input operation screen PA in accordance with a change in the line of sight of the operator M. On the other hand, when the personal computer 3 receives a signal indicating the occurrence of blinking from the blink detecting unit 2H,
As shown in FIG. 5, it is determined that an input operation has been performed on the operation key (or icon) nk where the marker mk is located.

【0039】このように、実施例のシステムの場合、オ
ペレータMは視線と瞬きでパーソナルコンピュータ3の
入力操作が行えるので、キーボードの操作が全く出来な
い重度の障害者でも寝たままでパーソナルコンピュータ
3とコミュニケーション(対話)することが可能とな
る。
As described above, in the case of the system according to the embodiment, the operator M can perform an input operation of the personal computer 3 with his / her eyes and blinks. Communication (dialogue) becomes possible.

【0040】続いて、以上に述べた構成を有する実施例
のシステムによるコミュニケーションの実行プロセス
を、図面を参照しながら説明する。図6は実施例のシス
テムによるコミュニケーションの進行状況を示すフロー
チャートである。
Next, a communication execution process by the system of the embodiment having the above-described configuration will be described with reference to the drawings. FIG. 6 is a flowchart showing the progress of communication by the system of the embodiment.

【0041】なお、以下では、オペレータMにはヘッド
マウントディスプレイ4が装着された後、入力操作用画
面PAの上の視線位置とその瞳孔中心位置の相関関係に
相当する係数としてのABCDを要素とするマトリック
スは既に求出されて準備が全て終わった段階にあるもの
として説明する。
In the following, after the head mounted display 4 is attached to the operator M, ABCD as a coefficient corresponding to the correlation between the line-of-sight position on the input operation screen PA and the pupil center position is used as an element. The following description assumes that the matrix has already been found and all preparations have been completed.

【0042】〔ステップS1〕光学式撮像機器1により
オペレータMの眼球を撮影して視線検出装置2へ眼球画
像を送り込む。
[Step S1] The optical imaging device 1 photographs the eyeball of the operator M and sends the eyeball image to the visual line detection device 2.

【0043】〔ステップS2〕3値化回路2Aにより取
り込まれた眼球画像が3値化された後、3値化画像から
瞳孔抽出部2Bにより瞳孔中心位置が求められるととも
に、反射像抽出部2Bにより反射像の位置が求められ
る。
[Step S2] After the eyeball image captured by the ternarization circuit 2A is ternarized, a pupil center position is obtained by the pupil extraction unit 2B from the ternary image, and the reflected image extraction unit 2B The position of the reflected image is determined.

【0044】〔ステップS3〕瞳孔中心法演算部2Dに
より瞳孔中心位置から視線位置が求められるとともに、
角膜反射演算部2Eにより瞳孔中心位置と反射像の位置
から視線位置が検出される。
[Step S3] The pupil center method calculation unit 2D determines the line-of-sight position from the pupil center position.
The gaze position is detected from the pupil center position and the position of the reflected image by the corneal reflection calculation unit 2E.

【0045】〔ステップS4〕検出結果差判定部2Fに
より両演算部2D,2Eの視線位置の検出結果の差が一
定時間継続して所定範囲内であるか否かが判定される。
判定結果が肯定であれば、ステップS7に飛び、判定結
果が否定であれば、次のステップS5に進む。
[Step S4] The detection result difference determination section 2F determines whether or not the difference between the detection results of the line-of-sight positions of the two arithmetic sections 2D and 2E is within a predetermined range for a certain period of time.
If the determination result is affirmative, the process jumps to step S7, and if the determination result is negative, the process proceeds to the next step S5.

【0046】〔ステップS5〕頭部移動量算出部2Gに
よりオペレータMの頭の動きによる瞳孔中心の移動量Δ
Pが求出される。
[Step S5] The head movement amount calculator 2G calculates the movement amount Δ of the center of the pupil due to the movement of the operator M's head.
P is determined.

【0047】〔ステップS6〕瞳孔中心法演算部2Dが
オペレータMの頭の動きによる瞳孔中心の移動量ΔPを
勘案して視線位置PTを求出し直す。
[Step S6] The pupil center method calculation unit 2D recalculates the line-of-sight position PT in consideration of the movement amount ΔP of the center of the pupil due to the movement of the operator M's head.

【0048】〔ステップS7〕瞳孔中心法演算部2Dに
より求出された視線位置Pt又は視線位置PTがパーソ
ナルコンピュータ3に送り込まれる。
[Step S7] The line-of-sight position Pt or line-of-sight position PT determined by the pupil center method calculation unit 2D is sent to the personal computer 3.

【0049】〔ステップS8〕瞬き検出部2Hによりオ
ペレータMの瞬きが検知された場合は次のステップS9
へ進み、オペレータMの瞬きが検知されなかった場合は
ステップS10へ飛ぶ。
[Step S8] If the blink detector 2H detects the blinking of the operator M, the next step S9 is performed.
If the blinking of the operator M is not detected, the process jumps to step S10.

【0050】〔ステップS9〕瞬き検出部2Hから瞬き
発生を知らせる信号がパーソナルコンピュータ3に送り
込まれて視線位置に対応した入力操作が実行される。
[Step S9] A signal notifying the occurrence of a blink is sent from the blink detector 2H to the personal computer 3, and an input operation corresponding to the line of sight is executed.

【0051】〔ステップS10〕視線位置の検出を継続
する場合はステップS1に戻り、以下のステップを繰り
返す。視線位置の検出を継続しない場合はコミュニケー
ションは終了となる。
[Step S10] When the detection of the line-of-sight position is to be continued, the process returns to step S1, and the following steps are repeated. If the detection of the line-of-sight position is not continued, the communication ends.

【0052】以上に述べたように、実施例においては、
取り込んだ眼球画像に対して瞳孔中心法と瞳孔−角膜反
射法の各アルゴリズムにより算出された二つの各検出結
果の差が予め設定した所定範囲内に納まっていなくて、
オペレータMの頭部の動きに起因する誤差が存在する場
合、頭部の動きによる瞳孔中心位置の移動量ΔPを求め
てオペレータMの頭部の動きに起因する誤差を除いた視
線位置を求め直す再演算が行われる構成となっている。
その結果、瞳孔中心法のアルゴリズムによる的確な検出
は常に行われており、眼球の回転角や撮像用照明光の取
り付け位置に左右されることもなく、オペレータMの眼
球の正確な視線位置が常に検出できることになる。
As described above, in the embodiment,
The difference between the two detection results calculated by each algorithm of the pupil center method and the pupil-corneal reflex method for the captured eyeball image is not within a predetermined range,
If there is an error caused by the movement of the head of the operator M, the movement amount ΔP of the center position of the pupil due to the movement of the head is obtained, and the gaze position excluding the error caused by the movement of the head of the operator M is calculated again. The recalculation is performed.
As a result, accurate detection by the algorithm of the pupil center method is always performed, and the accurate line-of-sight position of the eyeball of the operator M is always independent of the rotation angle of the eyeball and the mounting position of the illumination light for imaging. It can be detected.

【0053】この発明は、上記実施の形態に限られるこ
とはなく、下記のように変形実施することができる。
The present invention is not limited to the above embodiment, but can be modified as follows.

【0054】(1)実施例では、眼球画像を3値化処理
する構成であったが、必要な位置検出が可能であるなら
眼球画像を2値化処理する構成を採用するようにしても
よい。
(1) In the embodiment, the configuration in which the eyeball image is ternarized is described. However, if the required position can be detected, the configuration in which the eyeball image is binarized may be adopted. .

【0055】(2)実施例では、瞬きのあったことで視
線位置の確定を行う構成であったが、スイッチ操作や視
線継続時間によって視線位置の確定を行う構成のもの
が、変形例として挙げられる。
(2) In the embodiment, the line of sight position is determined by blinking. However, a modification in which the line of sight position is determined by switch operation or line of sight continuation time is mentioned as a modified example. Can be

【0056】(3)実施例の場合、視線位置の検出結果
がコンピュータの入力操作に利用される構成であった
が、この発明においては、視線位置の検出結果はコンピ
ュータの入力操作以外のことに利用される構成であって
もよいし、単に視線位置の検出結果を求めるだけの構成
であってもよい。
(3) In the embodiment, the detection result of the line-of-sight position is used for the input operation of the computer. However, in the present invention, the detection result of the line-of-sight position is not limited to the input operation of the computer. It may be a configuration that is used or a configuration that simply obtains the detection result of the line-of-sight position.

【0057】[0057]

【発明の効果】以上に詳述したように、請求項1の発明
の視線検出方法によれば、光学式撮像手段により取り込
んだ眼球画像に対して瞳孔中心法のアルゴリズムと瞳孔
−角膜反射法のアルゴリズムの両アルゴリズムそれぞれ
によって二つ視線検出結果を得るとともに、二つの検出
結果の差が予め設定した所定範囲内に納まっていなくて
検出対象の眼球のある頭部の動きに起因する誤差が生じ
た場合は、瞳孔−角膜反射法のアルゴリズムの検出結果
に基づき再演算が行われて検出対象の眼球のある頭部の
動きに起因する誤差が除かれた瞳孔中心法のアルゴリズ
ムによる検出結果が得られる構成を備えており、瞳孔中
心法のアルゴリズムによる的確な検出は常に行われるの
で、眼球の回転角や撮像用照明光の取り付け位置に左右
されることなく、検出対象の眼球の正確な視線位置が常
に検出できることになる。
As described above in detail, according to the gaze detection method of the first aspect of the present invention, the pupil center method and the pupil-corneal reflection method are applied to the eyeball image captured by the optical imaging means. Two eye-gaze detection results were obtained by each of the two algorithms, and the difference between the two detection results was not within a predetermined range, and an error occurred due to the movement of a certain head of the eye to be detected. In this case, re-calculation is performed based on the detection result of the pupil-corneal reflex method algorithm, and the detection result by the pupil center method algorithm is obtained in which the error caused by the movement of a certain head of the eye to be detected is removed. With the configuration, accurate detection by the algorithm of the pupil center method is always performed, without being affected by the rotation angle of the eyeball or the mounting position of the imaging illumination light, The exact line-of-sight position of the eye of the target out so that can always be detected.

【0058】さらに、請求項2の発明の視線検出装置に
よれば、請求項1の発明の方法を実施することによっ
て、検出対象の眼球の正確な視線位置を常に検出するこ
とができる。
Further, according to the gaze detecting device of the second aspect of the present invention, by executing the method of the first aspect of the present invention, the accurate gaze position of the eyeball to be detected can always be detected.

【0059】また、請求項3の発明の視線検出装置によ
れば、常に正確に検出される視線位置がコンピュータの
入力操作用として利用される構成となっているので、コ
ンピュータの入力操作がいつも間違いなく行われる。
According to the gaze detecting device of the third aspect of the present invention, since the gaze position detected always accurately is used for the input operation of the computer, the input operation of the computer is always wrong. Done without.

【0060】また、請求項4の発明の視線検出装置によ
れば、コンピュータからの指令に従ってヘッドマウント
ディスプレイに表示される入力操作用画面に眼球の視線
が向けられる構成となっているので、ヘッドマウントデ
ィスプレイに表示中の入力操作用画面から眼球の視線で
もってコンピュータ操作のための入力を行うことが可能
となる。
According to the gaze detection apparatus of the fourth aspect, the gaze of the eyeball is directed to the input operation screen displayed on the head mount display in accordance with a command from the computer. From the input operation screen displayed on the display, it is possible to perform input for computer operation with the line of sight of the eyeball.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の視線検出装置の一例を用いたコンピ
ュータコミュニケーションシステムの全体構成を示すブ
ロック図である。
FIG. 1 is a block diagram showing an overall configuration of a computer communication system using an example of a gaze detection device according to the present invention.

【図2】実施例のシステムのコンピュータの入力操作用
画面の一例を示す図である。
FIG. 2 is a diagram illustrating an example of an input operation screen of a computer of the system according to the embodiment.

【図3】実施例の眼球画像においてオペレータ頭部の動
きに伴って生じる瞳孔中心位置の変化を示す図である。
FIG. 3 is a diagram illustrating a change in a pupil center position caused by movement of an operator's head in an eyeball image according to an embodiment.

【図4】実施例のシステムのコンピュータの入力操作用
画面の他の例を示す図である。
FIG. 4 is a diagram illustrating another example of the input operation screen of the computer of the system of the embodiment.

【図5】実施例のシステムのコンピュータの入力操作用
画面の他の例を示す図である。
FIG. 5 is a diagram showing another example of the input operation screen of the computer of the system of the embodiment.

【図6】実施例のシステムによるコミュニケーションの
進行状況を示すフローチャートである。
FIG. 6 is a flowchart showing the progress of communication by the system of the embodiment.

【符号の説明】[Explanation of symbols]

1 …光学式撮像機器 2 …視線検出装置 2D …瞳孔中心法演算部 2E …角膜反射法演算部 2F …検出結果差判定部 2G …頭部移動量算出部 3 …パーソナルコンピュータ 4 …ヘッドマウントディスプレイ PA …入力操作用画面 PT,Pt …視線位置 M …オペレータ DESCRIPTION OF SYMBOLS 1 ... Optical imaging device 2 ... Eye-gaze detection device 2D ... Pupil center method calculation part 2E ... Cornea reflection method calculation part 2F ... Detection result difference determination part 2G ... Head movement amount calculation part 3 ... Personal computer 4 ... Head mounted display PA ... Input operation screen PT, Pt ... Line of sight position M ... Operator

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 光学式撮像手段により撮影された眼球画
像に基づいて眼球の視線位置を検出する視線検出方法に
おいて、同一眼球画像に対して瞳孔中心法のアルゴリズ
ムと瞳孔−角膜反射法のアルゴリズムの両アルゴリズム
それぞれによって視線検出結果を得る演算過程と、両ア
ルゴリズムによる検出結果の差が予め設定した所定範囲
内に納まっているか否かを判定する検出結果差判定過程
と、検出結果差判定過程の判定結果が否であれば、瞳孔
−角膜反射法のアルゴリズムの検出結果に基づき検出対
象の眼球のある頭部の動きに起因する誤差が除去された
瞳孔中心法のアルゴリズムによる検出結果を求め直すた
めの再演算を行う検出結果再演算過程とを備えているこ
とを特徴とする視線検出方法。
1. A gaze detection method for detecting a gaze position of an eyeball based on an eyeball image captured by an optical imaging means, comprising: a pupil center method algorithm and a pupil-corneal reflection algorithm algorithm for the same eyeball image. A calculation process of obtaining a gaze detection result by each of the two algorithms, a detection result difference determination process of determining whether a difference between the detection results obtained by the two algorithms is within a predetermined range, and a determination of a detection result difference determination process If the result is negative, the pupil-corneal reflex method is used to recalculate the detection result by the pupil center method algorithm in which an error caused by the movement of a certain head of the eye to be detected is removed based on the detection result of the algorithm. A gaze detection method, comprising: a step of recalculating a detection result for performing a recalculation.
【請求項2】 光学式撮像手段により撮影された眼球画
像に基づいて眼球の視線位置の検出を行うよう構成され
た視線検出装置において、眼球画像から瞳孔中心法のア
ルゴリズムに従って視線検出結果を得る瞳孔中心法演算
手段と、眼球画像から瞳孔−角膜反射法のアルゴリズム
に従って視線検出結果を得る角膜反射法演算手段と、前
記両演算手段による検出結果の差が予め設定した所定範
囲内に納まっているか否かを判定する検出結果差判定手
段と、検出結果差判定手段の判定結果が否であれば、角
膜反射法演算手段の検出結果に基づき検出対象の眼球の
ある頭部の動きに起因する誤差が除去された瞳孔中心法
演算手段による検出結果を求め直すための再演算を行う
検出結果再演算手段とを備えていることを特徴とする視
線検出装置。
2. A pupil that obtains a gaze detection result from an eyeball image in accordance with an algorithm of a pupil center method in a gaze detection device configured to detect a gaze position of an eyeball based on an eyeball image captured by an optical imaging unit. Central method calculation means, corneal reflection method calculation means for obtaining a line-of-sight detection result from an eyeball image according to a pupil-corneal reflection method algorithm, and whether a difference between the detection results by the two calculation means falls within a predetermined range set in advance. If the determination result of the detection result difference determination unit and the determination result of the detection result difference determination unit is negative, an error due to the movement of a certain head of the eye to be detected based on the detection result of the corneal reflection method calculation unit is determined. A gaze detection device comprising: a detection result recalculation unit for performing a recalculation for recalculating a detection result by the removed pupil center method calculation unit.
【請求項3】 請求項2に記載の視線検出装置におい
て、視線位置の検出結果が、コンピュータの入力操作用
として利用されるよう構成されている視線検出装置。
3. The eye-gaze detecting device according to claim 2, wherein the detection result of the gaze position is used for an input operation of a computer.
【請求項4】 請求項3に記載の視線検出装置におい
て、コンピュータからの指令に従って少なくとも入力操
作用画面を表示するヘッドマウントディスプレイの前記
入力操作用画面に眼球の視線が向けられるよう構成され
ている視線検出装置。
4. The eye-gaze detecting device according to claim 3, wherein a gaze of an eyeball is directed to the input operation screen of a head-mounted display that displays at least an input operation screen in accordance with a command from a computer. Eye gaze detection device.
JP24002799A 1999-08-26 1999-08-26 Detection of sight line and apparatus therefor Pending JP2001061785A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24002799A JP2001061785A (en) 1999-08-26 1999-08-26 Detection of sight line and apparatus therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24002799A JP2001061785A (en) 1999-08-26 1999-08-26 Detection of sight line and apparatus therefor

Publications (1)

Publication Number Publication Date
JP2001061785A true JP2001061785A (en) 2001-03-13

Family

ID=17053387

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24002799A Pending JP2001061785A (en) 1999-08-26 1999-08-26 Detection of sight line and apparatus therefor

Country Status (1)

Country Link
JP (1) JP2001061785A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004167152A (en) * 2002-11-22 2004-06-17 National Institute Of Advanced Industrial & Technology Method and system for correcting deviation movement of the head in visual axis position measurement
JP2005247224A (en) * 2004-03-05 2005-09-15 Sumitomo Electric Ind Ltd Vehicular display device
US7401920B1 (en) * 2003-05-20 2008-07-22 Elbit Systems Ltd. Head mounted eye tracking and display system
CN102609085A (en) * 2010-12-27 2012-07-25 卡西欧计算机株式会社 Information processing apparatus, method, and storage medium storing program
US9508017B2 (en) 2012-02-16 2016-11-29 Gil-Soo JUNG Device for capturing image of iris and user recognition device applying same in order to control access
JP2018029764A (en) * 2016-08-24 2018-03-01 株式会社Jvcケンウッド Diagnosis support apparatus, diagnosis support method, and computer program
JP2019168954A (en) * 2018-03-23 2019-10-03 株式会社豊田中央研究所 Visual line direction estimation device, visual line direction estimation method, and visual line direction estimation program
WO2019187808A1 (en) * 2018-03-29 2019-10-03 ソニー株式会社 Information processing device, information processing method, and program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004167152A (en) * 2002-11-22 2004-06-17 National Institute Of Advanced Industrial & Technology Method and system for correcting deviation movement of the head in visual axis position measurement
US7401920B1 (en) * 2003-05-20 2008-07-22 Elbit Systems Ltd. Head mounted eye tracking and display system
JP2005247224A (en) * 2004-03-05 2005-09-15 Sumitomo Electric Ind Ltd Vehicular display device
CN102609085A (en) * 2010-12-27 2012-07-25 卡西欧计算机株式会社 Information processing apparatus, method, and storage medium storing program
US8523358B2 (en) 2010-12-27 2013-09-03 Casio Computer Co., Ltd. Information processing apparatus, method, and storage medium storing program
US9508017B2 (en) 2012-02-16 2016-11-29 Gil-Soo JUNG Device for capturing image of iris and user recognition device applying same in order to control access
JP2018029764A (en) * 2016-08-24 2018-03-01 株式会社Jvcケンウッド Diagnosis support apparatus, diagnosis support method, and computer program
JP2019168954A (en) * 2018-03-23 2019-10-03 株式会社豊田中央研究所 Visual line direction estimation device, visual line direction estimation method, and visual line direction estimation program
WO2019187808A1 (en) * 2018-03-29 2019-10-03 ソニー株式会社 Information processing device, information processing method, and program
JPWO2019187808A1 (en) * 2018-03-29 2021-04-01 ソニー株式会社 Information processing equipment, information processing methods, and programs
JP7388349B2 (en) 2018-03-29 2023-11-29 ソニーグループ株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
US10048750B2 (en) Content projection system and content projection method
US20180133593A1 (en) Algorithm for identifying three-dimensional point-of-gaze
US20170344110A1 (en) Line-of-sight detector and line-of-sight detection method
JP2007136000A (en) Apparatus, method and program for measuring visual axis
JP2005185431A (en) Line-of-sight detection method and line-of-sight detector
JP6176070B2 (en) Gaze direction detector
WO2015051605A1 (en) Image collection and locating method, and image collection and locating device
JP6791108B2 (en) Face position detector
JP2019215688A (en) Visual line measuring device, visual line measurement method and visual line measurement program for performing automatic calibration
JP7081599B2 (en) Information processing equipment, information processing methods, and programs
JP2006285715A (en) Sight line detection system
KR20170054511A (en) Method for determining optical parameters of a test subject with measurement accuracy in order to adapt a pair of eyeglasses to the test subject, and immobile video centering system
JP2001061785A (en) Detection of sight line and apparatus therefor
JP5644414B2 (en) Awakening level determination device, awakening level determination method, and program
JP2001134371A (en) Visual line detector
JP3558144B2 (en) Eye point measuring device when wearing eyeglass frames
JP2501288B2 (en) Gaze point estimation device
JP2019128748A (en) Line-of-sight calibration data generation device, line-of-sight measurement apparatus, and program thereof
KR100520050B1 (en) Head mounted computer interfacing device and method using eye-gaze direction
JP2003079577A (en) Visual axis measuring apparatus and method, visual axis measuring program, and recording medium recording the same
JP6496917B2 (en) Gaze measurement apparatus and gaze measurement method
JPH11238124A (en) Image display method and device
JP2017181657A (en) Eyeglasses wearing image analyzer, eyeglasses wearing image analysis method, and eyeglasses wearing image analysis program
JPH1097376A (en) Operation device for line of sight
JPH11282617A (en) Sight line input device