JP2550128B2 - Gaze direction detection method - Google Patents

Gaze direction detection method

Info

Publication number
JP2550128B2
JP2550128B2 JP63007429A JP742988A JP2550128B2 JP 2550128 B2 JP2550128 B2 JP 2550128B2 JP 63007429 A JP63007429 A JP 63007429A JP 742988 A JP742988 A JP 742988A JP 2550128 B2 JP2550128 B2 JP 2550128B2
Authority
JP
Japan
Prior art keywords
light emitting
operator
cornea
cameras
emitting elements
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP63007429A
Other languages
Japanese (ja)
Other versions
JPH01185241A (en
Inventor
嘉男 白鳥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP63007429A priority Critical patent/JP2550128B2/en
Publication of JPH01185241A publication Critical patent/JPH01185241A/en
Application granted granted Critical
Publication of JP2550128B2 publication Critical patent/JP2550128B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Eye Examination Apparatus (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、視線方向を検出することにより、操作者
の作業を補助するシステムの構成に資する視線方向検出
方法に関するものである。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a gaze direction detecting method that contributes to the configuration of a system that assists the work of an operator by detecting the gaze direction.

〔従来の技術〕[Conventional technology]

視線方向を測定する従来の装置(通称アイカメラ)
は、次のように構成されている。
Conventional device for measuring gaze direction (commonly called eye camera)
Is configured as follows.

操作者は、左右の眼球を照射する発光素子、視線方向
を検出するための固体撮像カメラ、眼球の角膜で反射さ
れる反射光を固体撮像カメラに導くための光学部品(ハ
ーフミラー等)および操作者の視野領域を撮影するため
の視野カメラ等を内蔵したヘルメットを装着する。
The operator operates a light-emitting element that illuminates the left and right eyes, a solid-state imaging camera for detecting the direction of the line of sight, optical components (half mirror, etc.) for guiding the reflected light reflected by the cornea of the eyeball to the solid-state imaging camera, and an operation. Wear a helmet with a built-in field-of-view camera and the like to capture the field of view of the person.

前述の視野方向検出用固体撮像カメラを用いて眼球の
角膜における発光素子の反射光を得、これを視野カメラ
の画像に重畳する。この重畳に際しては、操作者の視野
方向に対応する上記発光素子の反射光が視内の操作者の
見ている方向と合致するように前述の光学部品を調整す
る。
The above-mentioned solid-state imaging camera for detecting the direction of the visual field is used to obtain the reflected light of the light emitting element in the cornea of the eyeball, and the reflected light is superimposed on the image of the visual field camera. At the time of this superposition, the above-mentioned optical parts are adjusted so that the reflected light of the light emitting element corresponding to the visual field direction of the operator coincides with the viewing direction of the operator.

〔発明が解決しようとする課題〕[Problems to be Solved by the Invention]

従来装置では、このようなヘルメットを装着する必要
があるため、次のような問題がある。
The conventional apparatus has the following problems because it is necessary to wear such a helmet.

まず、ヘルメットは各種の部品を内蔵しているためそ
の重畳は数百グラムと重い。このため、長時間の装置使
用は操作者に大きな負担をかけることになる。また、操
作時に頭部を動かすと上記のヘルメットの固定位置がず
れ、視線方向を高い精度で検出することは困難である。
First of all, since the helmet has various built-in parts, the overlap is heavy, weighing several hundred grams. Therefore, the use of the device for a long time places a heavy burden on the operator. Further, if the head is moved during operation, the fixed position of the helmet is displaced, and it is difficult to detect the line-of-sight direction with high accuracy.

この発明は、上記欠点を解決するためになされたもの
で、操作者に負担をかけることなく、精度の良い視線方
向の検出を行うことができる方法を提供することを目的
とする。
The present invention has been made to solve the above-mentioned drawbacks, and an object of the present invention is to provide a method capable of performing accurate detection of the line-of-sight direction without burdening the operator.

〔課題を解決するための手段〕[Means for solving the problem]

この発明にかかる視線方向検出方法は、発光素子を直
線状に配置した光源を、操作者にメガネ等を用いて装
置、あるいは操作者の前方に配置し、これら発光素子を
順次点灯する際、操作者の角膜における投影像を操作者
の前方に配置した複数台のカメラで撮影し、光源像の座
標等をもとに操作者の眼球および視線方向を検出するも
のである。
The eye gaze direction detecting method according to the present invention includes a light source in which light emitting elements are linearly arranged, is placed in front of the apparatus or the operator using glasses or the like for an operator, and when these light emitting elements are sequentially turned on, an operation is performed. The projection image on the cornea of the operator is photographed by a plurality of cameras arranged in front of the operator, and the eyeball and the line-of-sight direction of the operator are detected based on the coordinates of the light source image.

〔作用〕[Action]

この発明においては、カメラ内における発光素子の座
標位置、2台のカメラの設定間隔、各カメラの光軸方向
および焦点距離から3次元空間内における両眼球の座標
を検出するとともに、2台のカメラで同時に撮影される
線状の発光素子の角膜面上の端点から各々の眼球の視軸
方向を検出し、両眼の視線方向を検出する。
According to the present invention, the coordinates of both eyes in a three-dimensional space are detected from the coordinate position of the light emitting element in the camera, the set interval of the two cameras, the optical axis direction and the focal length of each camera, and the two cameras are detected. At the same time, the visual axis direction of each eyeball is detected from the end points on the corneal surface of the linear light emitting element, and the visual line directions of both eyes are detected.

〔実施例〕〔Example〕

第1図はこの発明による視線方向検出方法の一実施例
を示す構成図である。この図において、1は操作者、2
はメガネフレーム、31,32……(以下個別に区別する必
要がないときは、単に3を用いる。他の符号についても
同じ。)はメガネフレーム2の内側にフレームに沿って
装着した複数の赤外線等の発光素子、4はメガネのつ
る、5は前記メガネのつる4に装着した発光素子3の駆
動部、6−1,6−2は操作者1の眼球、7−1,7−2は前
記眼球6−1,6−2の角膜、8は入力装置、9は前記入
力装置8の表示部、10−1,10−2は眼球6−1,6−2を
撮影するためのカメラ、11−1,11−2は前記カメラ10の
焦点距離を可変できる自動焦点調節部、12−1,12−2は
前記カメラ10の向き(光軸)を任意の方向に設定する自
動首振り調節部、13は前記カメラ10−1,10−2から得ら
れる発光素子3−1,3−2の投影像の座標を検出し出力
する座標データ出力部、14は前記座標データ出力部13の
値をもとに眼球位置および視線方向を検出するための視
線データ検出部、15は前記入力装置8の中央制御部であ
る。
FIG. 1 is a block diagram showing an embodiment of a visual line direction detecting method according to the present invention. In this figure, 1 is an operator, 2
Is a spectacle frame, and 3 1 , 3 2 ... Infrared or other light emitting element, 4 is a temple of glasses, 5 is a drive portion of the light emitting element 3 mounted on the temple 4 of glasses, 6-1 and 6-2 are eyes of the operator 1, 7-1 and 7- 2 is a cornea of the eyeballs 6-1 and 6-2, 8 is an input device, 9 is a display unit of the input device 8, and 10-1 and 10-2 are for photographing the eyeballs 6-1 and 6-2. Cameras 11-1 and 11-2 are automatic focus adjustment units that can change the focal length of the camera 10, and 12-1 and 12-2 are automatic necks that set the orientation (optical axis) of the camera 10 in any direction. A swing adjustment unit, 13 is a coordinate data output unit that detects and outputs the coordinates of the projected images of the light emitting elements 3-1 and 3-2 obtained from the cameras 10-1 and 10-2, and 14 is the coordinate data. Sight data detection unit for detecting the eye position and line-of-sight direction on the basis of the value of the data output section 13, 15 is a central control unit of the input device 8.

次に動作について、眼球6−2側の場合で説明する。 Next, the operation will be described in the case of the eyeball 6-2 side.

操作者1はメガネフレーム2を装着して表示部9を見
る。駆動部5をONして発光素子31,32……を順次周期的
に点灯する。点灯の順序は両眼を交互にあるいは片側か
ら連続的に行う。この点灯によって、メガネフレーム2
に装着した発光素子31,32……の光源像が眼球6−2の
角膜7−2に投影される。この投影像をカメラ10−1,10
−2を用いて撮影する。撮影に際して、各発光素子3に
対応する投影像が各カメラ10−1,10−2で得らえるよう
に、自動焦点調節部11−1,11−2を調節する。この調節
は発光素子3の発光に同期する撮影像が2台のカメラ10
−1,10−2で得られるようにする。すなわち、カメラ10
−1,10−2の焦点距離を始め短くして広域の画角を得る
ようにし、次いで、焦点距離を大きくして眼球6−2の
部分を拡大して撮影する。このようにして、2台のカメ
ラ10−1,10−2により同一の発光素子3について各2個
の撮影像を得る。なお、ズームアップ時に眼球6−2が
カメラ10−1,10−2の視野からはずれないように、自動
首振り調節部12を用いてカメラ10−1,10−2の光軸が顔
面の中央にくるように調節する。座標データ出力部13
は、各投影像のXおよびY座標を出力する。これは、発
光素子3の発光に同期する投影像を固体撮像素子(通称
CCDセンサ)を用いることによって検出する。
The operator 1 wears the spectacle frame 2 and looks at the display unit 9. The drive unit 5 is turned on to sequentially light the light emitting elements 3 1 , 3 2, ... The order of lighting is alternating between both eyes or continuously from one side. By this lighting, the spectacle frame 2
The light source images of the light emitting elements 3 1 , 3 2, ... Mounted on the eye are projected on the cornea 7-2 of the eyeball 6-2. This projected image is taken by the cameras 10-1, 10
Take a picture with -2. At the time of shooting, the automatic focus adjustment units 11-1 and 11-2 are adjusted so that the projected images corresponding to the light emitting elements 3 can be obtained by the cameras 10-1 and 10-2. This adjustment is performed by the camera 10 with two captured images synchronized with the light emission of the light emitting element 3.
-1 and 10-2. That is, the camera 10
The focal lengths of -1,10-2 are shortened to obtain a wide angle of view, and then the focal length is increased to enlarge the part of the eyeball 6-2 for photographing. In this manner, the two cameras 10-1 and 10-2 obtain two captured images of the same light emitting element 3. In order to prevent the eyeball 6-2 from moving out of the visual field of the cameras 10-1 and 10-2 at the time of zooming up, the optical axes of the cameras 10-1 and 10-2 are set to the center of the face by using the automatic swing adjustment unit 12. Adjust to come to. Coordinate data output unit 13
Outputs the X and Y coordinates of each projected image. This is a solid-state imaging device (commonly called a projection image that is synchronized with the light emission of the light emitting device 3).
It is detected by using a CCD sensor).

次に、両眼球6−1,6−2の位置および視線方向を検
出する方法について説明する。まず、両眼球6−1,6−
2の位置検出方法について述べる。なお、第2図も第1
図に合せて眼球6−2の場合で説明する。
Next, a method of detecting the positions of both eyes 6-1 and 6-2 and the line-of-sight direction will be described. First, both eyes 6-1, 6-
The position detection method of No. 2 will be described. Note that FIG. 2 also shows the first
A case of the eyeball 6-2 will be described with reference to the drawings.

第2図は発光素子3,カメラ10−1,10−2が同一平面に
ある場合の例である。この図において、Q1,Q2は左右の
眼球6−1,6−2の中心、Dは2台のカメラ10−1,10−
2の距離、f1,f2はカメラ10−1,10−2の焦点距離、l1,
l2は両投影画像における発光素子3のX座標、θ1
はは発光素子3の眼球6−2における反射位置と自動首
振り調節部12によって設定されたカメラ10−1,10−2の
基線がなす角度、Lはあらかじめ測定しておいた操作者
1の両眼間隔、2Rは同じくあらかじめ測定しておいた操
作者1の角膜直径である。
FIG. 2 shows an example in which the light emitting element 3 and the cameras 10-1 and 10-2 are on the same plane. In this figure, Q 1 and Q 2 are the centers of the left and right eyes 6-1 and 6-2, and D is the two cameras 10-1 and 10-.
2, the distances f 1 , f 2 are the focal lengths of the cameras 10-1, 10-2, l 1 ,
l 2 is the X coordinate of the light emitting element 3 in both projected images, θ 1 , θ 2
Is an angle formed by the reflection position of the light emitting element 3 on the eyeball 6-2 and the base line of the cameras 10-1 and 10-2 set by the automatic swing adjusting unit 12, and L is the angle of the operator 1 measured in advance. The distance between the eyes and 2R are the corneal diameters of the operator 1 which are also measured in advance.

以上の各数値が既知であるとき、左右の眼球6−1,6
−2における反射位置のX・Y座標を求めればよい。
When the above numerical values are known, the left and right eyeballs 6-1 and 6
The X and Y coordinates of the reflection position at -2 may be obtained.

次に、X座標の場合について示す。 Next, the case of the X coordinate will be shown.

発光素子3により発せられた光線は、角膜7−2にお
いて反射し、2台のカメラ10−1,10−2に入射する。こ
の入射光は焦点距離大f1,f2に設置された固体撮像素子
の受光面に像を結像する。この像の位置がl1,l2で示す
点P−1,P−2である。この結果、第2図の相似関係か
ら次式が成立する。
The light beam emitted by the light emitting element 3 is reflected by the cornea 7-2 and is incident on the two cameras 10-1 and 10-2. This incident light forms an image on the light receiving surface of the solid-state image pickup device installed at the large focal lengths f 1 and f 2 . The position of this image is l 1, l P-1 points indicated by 2, P-2. As a result, the following equation is established from the similarity relation of FIG.

l1/f1=X/Y ……(1) l2/f2=(D−X)/Y ……(2) 上記第(1),(2)式より、 X=f2l1D/(l2f1+l1f2) が得られる。l 1 / f 1 = X / Y (1) l 2 / f 2 = (D−X) / Y (2) From the above equations (1) and (2), X = f 2 l 1 D / (l 2 f 1 + l 1 f 2 ) is obtained.

両眼球6−1,6−2の3次元空間内における座標値を
もとに眼間距離を算出し、これをあらかじめ求めておい
た操作者1の両眼間隔Lと比較・対比することによって
各座標値X,Yを確認することができる。角膜7−1,7−2
の直径は約1cmであり、カメラ10−1,10−2と眼球6−
1,6−2との距離は通常これに比べて十分大きい。した
がって、同一発光素子3から各々のカメラ10−1,10−2
に入射する光線の角膜7−2における反射位置は極く近
傍にある。両カメラ10−1,10−2から見て角膜7−1,7
−2上の発光素子3の反射位置を同一点とみなせば反射
位置は3角測量の方法を用いて表すことができる。すな
わち角膜7−1,7−2を完全な球体の一部とみなし、球
体の3次元空間における位置座標を決定するためには、
球面上の少なくとも3点の位置が判ればよい。したがっ
て、異なる位置にある3個の発光素子3を順次点灯する
ことによって、角膜7−1,7−2面上の反射位置を上述
の方法によって3点求め、これにより角膜7−1,7−2
が属する球体の中心と半径Rを求める。
By calculating the interocular distance based on the coordinate values of the both eyes 6-1 and 6-2 in the three-dimensional space, and comparing and comparing this with the binocular distance L of the operator 1 which is obtained in advance. Each coordinate value X, Y can be confirmed. Cornea 7-1,7-2
The diameter of the camera is about 1 cm, and the cameras 10-1 and 10-2 and the eyeball 6-
The distance from 1,6-2 is usually much larger than this. Therefore, from the same light emitting element 3 to each of the cameras 10-1 and 10-2.
The reflection position of the light ray incident on the cornea 7-2 is very close. Cornea 7-1,7 as seen from both cameras 10-1,10-2
If the reflection position of the light emitting element 3 on −2 is regarded as the same point, the reflection position can be represented by using a triangulation method. That is, in order to determine the cornea 7-1 and 7-2 as a part of a perfect sphere and determine the position coordinates of the sphere in the three-dimensional space,
It suffices to know the positions of at least three points on the spherical surface. Therefore, three light-emitting elements 3 at different positions are sequentially turned on to obtain three reflection positions on the surfaces of the cornea 7-1 and 7-2 by the above-mentioned method, and the cornea 7-1 and 7- Two
Find the center and radius R of the sphere to which

次に視線方法を検出する場合について述べる。 Next, the case of detecting the gaze method will be described.

各眼球6−1,6−2を照らす発光素子3の角膜7−1,7
−2における投影像は、視線方向とカメラ10−1,10−2
の向きとの関係によって種々の形状に変化する。
The cornea 7-1,7 of the light-emitting element 3 that illuminates each eyeball 6-1 and 6-2
-2, the projected image is the line-of-sight direction and the cameras 10-1 and 10-2.
It changes into various shapes depending on the relationship with the direction.

第3図は光源像が角膜7に投影されている場合の一例
を示す。角膜7は通常他の部分に比べて高い反射率を有
しており、その境界を用意に検出することができる。角
膜7は上述した球体の一部であり、その周囲は円形をな
くしている。したがって、この中心と球体の中心とを結
ぶ方向が視線方向である。球体の座標は前述の方法によ
って求められているから円形の皿、すなわち角膜7の中
心を求めれば視線方向が得られる。この時、角膜7の直
径があらかじめ判っていれば、角膜7の円周部の少なく
とも2点を検出すれば前記球体における角膜7の位置
は、この2点を通る既知の直径の円を求めることによっ
て決定することができる。
FIG. 3 shows an example in which a light source image is projected on the cornea 7. The cornea 7 usually has a higher reflectance than other parts, and the boundary can be easily detected. The cornea 7 is a part of the above-mentioned sphere, and the circumference thereof has no circle. Therefore, the direction connecting this center and the center of the sphere is the line-of-sight direction. Since the coordinates of the sphere are obtained by the method described above, the direction of the line of sight can be obtained by obtaining the circular dish, that is, the center of the cornea 7. At this time, if the diameter of the cornea 7 is known in advance, if at least two points on the circumference of the cornea 7 are detected, the position of the cornea 7 on the sphere should be a circle having a known diameter passing through these two points. Can be determined by

第3図に示す円形部分は、角膜7の境界部分であり、
16−1,16−2は発光素子3を順次点灯してきた場合、角
膜7面上で反射光が得らえる2つの端点であり、これが
角膜7の境界を示すことになる。これにより円の中心を
求め、球中心とを結ぶ方向を得る。なお、発光素子3の
像が角膜7に投影されるようにメガネフレーム2の形状
を調整しておく。また、駆動部5は無線により中央制御
部15と同期して駆動すればリード線等が不要となり、操
作者1の負担がより少なくなる。このようにして、左右
の視線方向を検出する。
The circular part shown in FIG. 3 is the boundary part of the cornea 7,
16-1 and 16-2 are two end points from which reflected light can be obtained on the surface of the cornea 7 when the light emitting element 3 is sequentially turned on, and these indicate the boundaries of the cornea 7. Thus, the center of the circle is obtained and the direction connecting the center of the sphere is obtained. The shape of the spectacle frame 2 is adjusted so that the image of the light emitting element 3 is projected on the cornea 7. Further, if the drive unit 5 is wirelessly driven in synchronization with the central control unit 15, the lead wire and the like are unnecessary, and the burden on the operator 1 is further reduced. In this way, the left and right line-of-sight directions are detected.

次に、両眼の視線が合致する位置を求める。この位置
は、両眼の座標および視線方向がわかっているから3角
測量の方法を用いて容易に算出できる。この座標値を表
示部9内における座標値に変換し、この値を中央制御部
15に投入してカーソルを操作者1の視線方向に合致する
ように設定する。
Next, a position where the sight lines of both eyes match is obtained. This position can be easily calculated using the triangulation method because the coordinates and the line-of-sight direction of both eyes are known. This coordinate value is converted into a coordinate value in the display unit 9, and this value is converted to the central control unit.
It is thrown into 15 and the cursor is set so as to match the line-of-sight direction of the operator 1.

以上はメガネをした場合であるが、本検出方法はメガ
ネを使用しない場合でも用いることができる。これにつ
いて次に述べる。
The above is the case of wearing glasses, but the present detection method can be used even when glasses are not used. This will be described next.

発光素子3−1,3−2を直線状に配置した光源を操作
者1の前方に配置する。この光源を長さは角膜7−1,7
−2の境界を検知できる程度に十分長くしておく。この
光源は、操作者1によって負担にならなければ可視光で
あってもよい。この光源内の各発光素子3を順次点灯
し、操作者1の角膜7−1,7−2における反射像を得
る。その他の各構成部および検出方法は前述した場合と
同じである方法である。
A light source in which the light emitting elements 3-1 and 3-2 are linearly arranged is arranged in front of the operator 1. The length of this light source is cornea 7-1,7
-Be long enough to detect the boundary. This light source may be visible light if it is not a burden on the operator 1. The light emitting elements 3 in the light source are sequentially turned on to obtain a reflected image of the cornea 7-1, 7-2 of the operator 1. The other components and the detection method are the same as those described above.

本方法では、2台のカメラ10−1,10−2を用いて操作
者1の顔面を投影することにしたが、より多くのカメラ
を3次元空間に配置することによって任意に選択した2
台のカメラ10−1,10−2でメガネフレーム2に装着した
光源あるいは部屋の周囲に光源が角膜7−1,7−2に投
影される像を前述と同様に測定して、操作者1の視線の
動きを常に把握することも可能である。
In this method, the face of the operator 1 is projected using the two cameras 10-1 and 10-2, but it is arbitrarily selected by arranging more cameras in the three-dimensional space.
The image projected on the cornea 7-1, 7-2 by the light source mounted on the spectacle frame 2 by the single cameras 10-1, 10-2 or the light source projected on the cornea 7-1, 7-2 around the room is measured in the same manner as above, and the operator 1 It is also possible to always grasp the movement of the line of sight of.

なお、本方法では、光源として1つの直線像の光源を
用いたが、角膜7−1,7−2の端点を正確に求めるため
にこれを複数あるいは形の定まった曲線状としてもよい
ことは当然である。この場合は、操作者1の角膜7−1,
7−2の直径2Rをあらかじめ求めておく必要はない。
In this method, one light source of a linear image is used as the light source, but it is also possible to use a plurality of or a curved line having a fixed shape in order to accurately obtain the end points of the corneas 7-1 and 7-2. Of course. In this case, the cornea 7-1 of the operator 1,
It is not necessary to obtain the diameter 2R of 7-2 in advance.

〔発明の効果〕〔The invention's effect〕

この発明は、発光素子を直線状に配置した光源を、操
作者にメガネ等を用いて装着、あるいは操作者の前方に
配置し、これらの発光素子を順次点灯する際、操作者の
角膜における投影膜を操作者の前方に配置した複数台の
カメラで撮影し、光源像の座標等をもとに操作者の眼球
および視線方向を検出するようにしたので、次の効果が
ある。
According to the present invention, a light source in which light-emitting elements are linearly arranged is attached to an operator by using glasses or the like, or is arranged in front of the operator, and when these light-emitting elements are sequentially turned on, the projection on the cornea of the operator is performed. Since the film is photographed by a plurality of cameras arranged in front of the operator and the eyeball and the line-of-sight direction of the operator are detected based on the coordinates of the light source image, the following effects are obtained.

まず、操作者は複数の発光素子を直線状に配置した
光源を内蔵した簡単なメガネを装着するだけでよいか
ら、操作時に負担を大幅に軽減することができる。空間
的な余裕がある場合には直線状の光源を操作者の前方に
配置するだけでよいから操作者の負担は全くない。
First, the operator only has to wear simple glasses having a built-in light source in which a plurality of light emitting elements are arranged in a straight line, so that the burden on the operation can be significantly reduced. If there is a space, the linear light source need only be arranged in front of the operator, and the operator is not burdened at all.

各光源に同期する光源像を2台カメラで得るだけで
あるから、光源、すなわちメガネフレーム等の位置を微
妙に調整する必要がないので、装置の操作性を大幅に向
上することができる。
Since only two cameras can obtain a light source image synchronized with each light source, it is not necessary to finely adjust the position of the light source, that is, the spectacle frame or the like, so that the operability of the apparatus can be greatly improved.

複数のカメラを用いることによって操作者の視線の
動きを操作者に負担を与えることなく、常に測定するこ
とができるから、各種入力システムに有効に利用するこ
とができる。
By using a plurality of cameras, the movement of the operator's line of sight can be constantly measured without imposing a burden on the operator, so that it can be effectively used for various input systems.

【図面の簡単な説明】[Brief description of drawings]

第1図はこの発明による視線方向検出方法の一実施例の
構成を示す図、第2図は両眼およびカメラが同一平面に
ある場合の動作説明図、第3図は角膜における光源の投
影像の一例を示す図である。 図中、1は操作者、2はメガネフレーム、3はメガネフ
レームの内側にフレームに沿って装着した複数の発光素
子、4はメガネのつる、5はメガネのつるに装着した発
光素子の駆動部、6−1,6−2は操作者の眼球、7−1,7
−2の眼球の角膜、8は入力装置、9は入力装置の表示
部、10−1,10−2はカメラ、11−1,11−2はカメラの焦
点距離を可変できる自動焦点調節部、12−1,12−2はカ
メラの向き(光軸)を任意の方向に設定する自動首振り
調節部、13はカメラから得られる発光素子の投影像の座
標を検出し出力する座標データ出力部、14は座標データ
出力部の値をもとに眼球位置および視線方向を検出する
ための視線データ検出部、15は入力装置の中央制御部で
ある。
FIG. 1 is a diagram showing a configuration of an embodiment of a gaze direction detecting method according to the present invention, FIG. 2 is an operation explanatory diagram when both eyes and a camera are on the same plane, and FIG. 3 is a projected image of a light source on a cornea. It is a figure which shows an example. In the figure, 1 is an operator, 2 is a spectacle frame, 3 is a plurality of light emitting elements mounted inside the spectacle frame along the frame, 4 is a temple of the spectacles, and 5 is a driving unit of the light emitting elements attached to the temple of the spectacles. , 6-1 and 6-2 are the eyes of the operator, 7-1 and 7
-2 cornea of the eyeball, 8 is an input device, 9 is a display unit of the input device, 10-1 and 10-2 are cameras, 11-1 and 11-2 are automatic focus adjustment units that can change the focal length of the camera, 12-1 and 12-2 are automatic swing adjustment units that set the orientation (optical axis) of the camera in any direction, and 13 is a coordinate data output unit that detects and outputs the coordinates of the projected image of the light emitting element obtained from the camera. , 14 are line-of-sight data detection units for detecting the eyeball position and line-of-sight direction based on the values of the coordinate data output unit, and 15 is a central control unit of the input device.

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】複数の発光素子を線状に配置した光源を操
作者に装着あるいは操作者の前方に配置し、前記各発光
素子を順次周期的に点灯し、前記発光素子の発光に同期
して操作者の眼球の角膜に投影される光源像を撮影する
少なくとも2台のカメラを有し、このカメラ内における
前記発光素子の座標値、前記少なくとも2台のカメラの
設定間隔、前記各カメラの光軸方向および焦点距離から
3次元空間における両眼球の座標を検出するとともに、
前記各発光素子を順次点灯する際、前記少なくとも2台
のカメラで同時に撮影される前記線状の発光素子の前記
角膜面上の端点の位置から各々の眼球の視軸方向を検出
し、両眼の視線方向を検出することを特徴とする視線方
向検出方法。
1. A light source, in which a plurality of light emitting elements are linearly arranged, is attached to an operator or arranged in front of the operator, each of the light emitting elements is sequentially and periodically lit, and is synchronized with light emission of the light emitting element. The light source image projected onto the cornea of the operator's eyeball, the coordinate value of the light emitting element in the camera, the setting interval of the at least two cameras, the camera While detecting the coordinates of both eyes in the three-dimensional space from the optical axis direction and the focal length,
When the respective light emitting elements are sequentially turned on, the visual axis direction of each eyeball is detected from the positions of the end points on the corneal surface of the linear light emitting elements that are simultaneously photographed by the at least two cameras, and both eyes are detected. A line-of-sight direction detection method comprising detecting the line-of-sight direction of the.
JP63007429A 1988-01-19 1988-01-19 Gaze direction detection method Expired - Fee Related JP2550128B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63007429A JP2550128B2 (en) 1988-01-19 1988-01-19 Gaze direction detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63007429A JP2550128B2 (en) 1988-01-19 1988-01-19 Gaze direction detection method

Publications (2)

Publication Number Publication Date
JPH01185241A JPH01185241A (en) 1989-07-24
JP2550128B2 true JP2550128B2 (en) 1996-11-06

Family

ID=11665623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63007429A Expired - Fee Related JP2550128B2 (en) 1988-01-19 1988-01-19 Gaze direction detection method

Country Status (1)

Country Link
JP (1) JP2550128B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06230271A (en) * 1993-02-06 1994-08-19 Nikon Corp Line of sight detector
JP4845611B2 (en) * 2006-06-30 2011-12-28 オリンパス株式会社 Imaging device
JP5900165B2 (en) * 2012-05-31 2016-04-06 株式会社Jvcケンウッド Gaze detection device and gaze detection method
JP2019154815A (en) * 2018-03-13 2019-09-19 株式会社リコー Device for detecting inclination position of eyeball, display device and optometry device

Also Published As

Publication number Publication date
JPH01185241A (en) 1989-07-24

Similar Documents

Publication Publication Date Title
US7766479B2 (en) View point detecting device
JP4517049B2 (en) Gaze detection method and gaze detection apparatus
US7271839B2 (en) Display device of focal angle and focal distance in iris recognition system
KR100519864B1 (en) Image information input device and method
US10481403B2 (en) Contact lens with retinal camera
FI125445B (en) Blick Control Device
WO2005063114A1 (en) Sight-line detection method and device, and three- dimensional view-point measurement device
US7298414B2 (en) Digital camera autofocus using eye focus measurement
CN103429139A (en) Spectacle device with an adjustable field of view and method
JP6631951B2 (en) Eye gaze detection device and eye gaze detection method
KR20220073756A (en) Miniature retina scanning device for tracking pupil movement and application accordingly
US3869694A (en) Ultrasonic control apparatus for an oculometer
EP3542308B1 (en) Method and device for eye metric acquisition
JP2005198743A (en) Three-dimensional view point measuring device
JP2550128B2 (en) Gaze direction detection method
KR101817436B1 (en) Apparatus and method for displaying contents using electrooculogram sensors
WO2023207725A1 (en) Inter-pupilary distance adjustment method, head-mounted display device and readable storage medium
US10798332B1 (en) Dual pass-through imaging system and method
JPH10115878A (en) Three dimensional picture projection system using directional screen
EP0500672B1 (en) A communication device
JP2642702B2 (en) Gaze direction detection device
JPH024313A (en) Steady gazing position detector
JP3376207B2 (en) Eye gaze detecting apparatus and method
JP7485426B1 (en) Head-mounted imaging device and line-of-sight image adjustment method
JP2507913B2 (en) Eye movement tracking type visual presentation device by projection method

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees