JP3272906B2 - Gaze direction detecting method and apparatus and man-machine interface apparatus including the same - Google Patents

Gaze direction detecting method and apparatus and man-machine interface apparatus including the same

Info

Publication number
JP3272906B2
JP3272906B2 JP13047495A JP13047495A JP3272906B2 JP 3272906 B2 JP3272906 B2 JP 3272906B2 JP 13047495 A JP13047495 A JP 13047495A JP 13047495 A JP13047495 A JP 13047495A JP 3272906 B2 JP3272906 B2 JP 3272906B2
Authority
JP
Japan
Prior art keywords
gaze direction
image
face
gaze
detection device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP13047495A
Other languages
Japanese (ja)
Other versions
JPH08322796A (en
Inventor
理朗 向井
純司 三谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP13047495A priority Critical patent/JP3272906B2/en
Publication of JPH08322796A publication Critical patent/JPH08322796A/en
Application granted granted Critical
Publication of JP3272906B2 publication Critical patent/JP3272906B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Eye Examination Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は視線方向を検出する視線
方向検出方法及び装置及びそれを含むマンマシンインタ
ーフェース装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a gaze direction detecting method and apparatus for detecting a gaze direction and a man-machine interface device including the same.

【0002】[0002]

【従来の技術】従来から、人間の視線方向を検出しよう
とする試みは行なわれていた。その目的の一つは、人間
の無意識の視線の動きを客観的に調査研究しようとする
ものである。
2. Description of the Related Art Conventionally, attempts have been made to detect the direction of a human's line of sight. One of the objectives is to objectively investigate and study unconscious gaze movements of humans.

【0003】このような試みは研究レベルで行なわれて
おり、実用化されているが、工業製品、例えばコンピュ
ータ入力装置として、実用化されているものは少ない。
人間の自然な状態の情報を得るためには視線検出用光源
を持つゴーグルなどを頭部に装着することはあまり望ま
しくない。
[0003] Such attempts have been made at the research level and have been put to practical use, but few industrial products, for example, computer input devices, have been put to practical use.
It is not desirable to wear goggles or the like having a gaze detection light source on the head in order to obtain information on a natural state of a person.

【0004】例えば、図17は従来の視線方向検出装置
の構成を示す。図17において、71は眼球で、この眼
球はいわゆる黒目である角膜72を有し、この眼球を有
する図示しない頭部に、同じく図示しないゴーグルをか
け、このゴーグルにより視線検出部78を、眼球の前方
下部に位置固定させている。この視線検出部78の、眼
球との対向面の上部には水平方向検出用光源としての赤
外発光ダイオード74およびこの赤外発光ダイオード両
側には位置された水平方向検出用センサとしてフォトダ
イオード73、75とこれらフォトダイオードの下部に
設けられた垂直方向検出光源としての赤外発光ダイオー
ド76および垂直方向検出用センサとしてのフォトダイ
オード77とが設けられている。この視線検出部78の
検出原理は眼球72からの反射光量の変化を3つのフォ
トダイオード73、75、77でとらえ、これらフォト
ダイオードの検出データをマイクロコンピュータ79に
与え、このマイクロコンピュータにより比較演算処理を
行なって視線位置を検出し、これを画像出力装置80に
出力するものである。そして3つのフォトダイオード7
3、75、77への入射光量は、角膜の位置によりそれ
ぞれ変化するので、あらかじめ数箇所の視線位置に対し
て非線形処理による校正を行なっておけば、視線方向を
検出することができる。
For example, FIG. 17 shows a configuration of a conventional gaze direction detecting device. In FIG. 17, reference numeral 71 denotes an eyeball. The eyeball has a cornea 72, which is a so-called black eye. The position is fixed at the lower front. An infrared light emitting diode 74 as a light source for horizontal direction detection and a photodiode 73 as a horizontal direction detection sensor located on both sides of the infrared light emitting diode are provided above the surface of the line-of-sight detection unit 78 facing the eyeball. 75, an infrared light emitting diode 76 as a vertical direction detection light source provided below these photodiodes, and a photodiode 77 as a vertical direction detection sensor. The detection principle of the line-of-sight detection unit 78 is such that changes in the amount of light reflected from the eyeball 72 are captured by three photodiodes 73, 75, and 77, and detection data of these photodiodes is supplied to a microcomputer 79, which performs comparison and calculation processing. To detect the line of sight and output this to the image output device 80. And three photodiodes 7
Since the amount of light incident on 3, 75, and 77 changes depending on the position of the cornea, the gaze direction can be detected by performing calibration by non-linear processing on several gaze positions in advance.

【0005】さらに、図18は別の従来例を示す。赤外
発光ダイオード等の検出用光源82から眼球71に対し
て光を照射し、眼球の角膜面72による光の反射方向を
CCDアレイ86によって検出し、CCDドライバおよ
び処理部87により視線方向としてとらえるものであ
る。ここで、83及び85はレンズ、84はハーフミラ
ーを示す。
FIG. 18 shows another conventional example. Light is emitted from the detection light source 82 such as an infrared light emitting diode to the eyeball 71, the direction of light reflection by the corneal surface 72 of the eyeball is detected by the CCD array 86, and the direction of the line of sight is detected by the CCD driver and the processing unit 87. Things. Here, 83 and 85 are lenses, and 84 is a half mirror.

【0006】これら従来の視線方向検出装置は、いずれ
も専用の光源が必要であり、光源および反射光をとらえ
るゴーグル状の装置を装着する必要がある。しかし、こ
のような装置を装着することは、例えばコンピュータ入
力装置といて用いる場合、オペレータに違和感を持たせ
ることとなる。
Each of these conventional line-of-sight direction detecting devices requires a dedicated light source, and it is necessary to mount a light source and a goggle-shaped device for capturing reflected light. However, wearing such a device, for example, when used as a computer input device, makes the operator feel uncomfortable.

【0007】[0007]

【発明が解決しようとする課題】このように、従来の視
線方向検出装置は、人間の頭部に視線検出用の赤外線光
源等を有するゴーグル型の装置を装着しなければなら
ず、使用者に違和感を持たせるという問題点があった。
As described above, in the conventional gaze direction detecting device, a goggle-type device having an infrared light source for gaze detection must be mounted on the head of a human being. There was a problem of giving a sense of incongruity.

【0008】また、視線方向を利用した画面制御装置、
視線方向を入力モードのひとつとする対話装置はその例
がなかった。
[0008] Further, a screen control device using a line of sight direction,
There has been no example of a dialogue device in which the gaze direction is one of the input modes.

【0009】本発明は、頭部に装置を装着することなく
人間の視線方向を検出することが可能となる視線方向検
出手段およびこれを用いた画面制御装置、マルチモーダ
ル対話装置等のマンマシンインターフェース装置を提供
することを目的とする。
The present invention provides a gaze direction detecting means capable of detecting a gaze direction of a human without wearing the device on the head, and a screen control device and a man-machine interface such as a multimodal interactive device using the same. It is intended to provide a device.

【0010】[0010]

【課題を解決するための手段】請求項1に記載の発明の
方法は、顔の部分の画像から目の部分を含む画像を切り
出すステップと、前記切り出された目の部分を含む顔
画像から肌色部分を除去するステップと、前記肌色抜き
の目の部分を含む画像から目の部分の画像における黒目
の位置情報を表す特徴量を抽出するステップと、前記特
徴量と標準パターンとの比較を行うステップと、前記比
較の結果に基づいて視線方向を出力するステップとを含
むことを特徴とする。
According to a first aspect of the present invention, there is provided a method of cutting out an image including an eye portion from an image of a face portion, and extracting the image including a portion of the eye portion from the face image. Removing the skin color portion, extracting a feature amount representing position information of the iris in the image of the eye portion from the image including the eye portion without the skin color, and comparing the feature amount with a standard pattern And outputting a gaze direction based on the result of the comparison.

【0011】請求項2に記載の発明の装置は、顔の部分
の画像を取り込む画像入力手段と、取り込んだ顔の部分
の画像から目の部分を含む画像を切り出す目部分切り出
し手段と、前記切り出された目の部分を含む顔の画像か
ら肌色部分を除去する手段と、前記肌色部分を除去した
目の部分を含む画像から目の部分の画像における黒目の
位置情報を表す特徴量を抽出する特徴量抽出手段と、前
記特徴量と標準パターンとの比較を行うマッチング手段
と、前記比較の結果に基づいて視線方向を出力する視線
方向出力手段とを含むことを特徴とする。
According to a second aspect of the present invention, there is provided an apparatus for inputting an image of a face portion, an eye portion extracting portion for extracting an image including an eye portion from the captured image of the face portion, Means for removing a flesh-colored portion from a face image including a broken eye portion, and a feature for extracting a feature amount representing position information of a iris in the eye portion image from the image including the flesh-colored portion removed eye portion It is characterized by including an amount extracting means, a matching means for comparing the feature amount with a standard pattern, and a gaze direction output means for outputting a gaze direction based on the result of the comparison.

【0012】請求項3に記載の発明の装置は、視線方向
検出装置の検出した視線の方向に基づいて画面の制御を
行うことを特徴とする。
According to a third aspect of the present invention, the screen is controlled based on the direction of the line of sight detected by the line-of-sight direction detecting device.

【0013】請求項4に記載の発明の装置は、視線方向
検出装置によって検出された使用者の視線方向が、表示
装置の表示画面にない場合に、使用者によって入力され
た文字を音声出力装置に出力し、入力された文字を使用
者が音声で確認できるようにすることを特徴とする。
According to a fourth aspect of the present invention, when the user's gaze direction detected by the gaze direction detecting device is not on the display screen of the display device, the character input by the user is output to the audio output device. , So that the user can confirm the input character by voice.

【0014】請求項5に記載の発明の装置は、視線方向
検出装置によって検出された視線の方向と前記顔方向検
出装置によって検出された顔の方向とから、使用者の状
態を把握することを特徴とする。
According to a fifth aspect of the present invention, the state of the user is grasped from the direction of the line of sight detected by the line of sight detecting device and the direction of the face detected by the face direction detecting device. Features.

【0015】請求項6に記載の発明の装置は、視線方向
検出装置によって検出された視線の方向と前記顔方向検
出装置によって検出された顔の方向とから、対話時にお
ける使用者の状態を理解することを特徴とする。
According to a sixth aspect of the present invention, the state of the user at the time of dialogue is understood from the direction of the line of sight detected by the line of sight detecting device and the direction of the face detected by the face direction detecting device. It is characterized by doing.

【0016】[0016]

【作用】請求項1に記載の発明の方法においては、切り
出された肌色抜きの目の部分を含む画像から目の部分の
画像における黒目の部分の画像から目の位置情報を表す
特徴量を抽出して、特徴量と標準パターンとの比較を行
い、比較の結果に基づいて視線方向を出力するように構
成されている。したがって、頭部に装置を装着すること
なく人間の視線方向を検出することが可能となる。
In the method according to the first aspect of the present invention, a feature amount representing eye position information is extracted from an image of a black eye portion in an image of an eye portion from an image including a cut-out skin color portion of an eye portion. Then, the feature amount is compared with the standard pattern, and the gaze direction is output based on the result of the comparison. Therefore, it is possible to detect the direction of the human gaze without wearing the device on the head.

【0017】請求項2に記載の発明の装置においては、
目部切り出し手段によって目の部分を含む画像を切り出
し、特徴量抽出手段によって切り出された肌色部分を除
去した目の部分を含む画像から目の部分の画像における
黒目の位置情報を表す特徴量を抽出し、マッチング手段
によって特徴量と目の位置の標準パターンとの比較を行
い、視線方向検出手段によって比較の結果に基づいて視
線方向を出力する。したがって、頭部に装置を装着する
ことなく人間の視線方向を検出する装置が実現される。
In the apparatus according to the second aspect of the present invention,
An image including the eye portion is cut out by the eye portion cutout means, and a feature amount representing the position information of the iris in the image of the eye portion is extracted from the image including the eye portion from which the skin color portion cut out by the feature amount extraction means is removed. Then, the matching means compares the feature amount with the standard pattern of the eye position, and the gaze direction detecting means outputs the gaze direction based on the result of the comparison. Therefore, a device that detects the direction of the human gaze without mounting the device on the head is realized.

【0018】請求項3に記載の画面制御装置において
は、視線の位置を有効に活用して、画面の制御を行い、
作業効率をあげることができる。
In the screen control device according to the third aspect, the screen is controlled by effectively utilizing the position of the line of sight.
Work efficiency can be improved.

【0019】請求項4に記載の文書処理装置において
は、使用者が画面を見ずに入力している場合には、音声
出力装置を用いて入力文字を音声出力することにより画
面の確認を不要とするため、入力が容易となり、誤入力
を減少させることができる。
In the document processing apparatus according to the fourth aspect, when the user is inputting without looking at the screen, the input characters are output by voice using the voice output device, so that it is not necessary to confirm the screen. Therefore, input becomes easy, and erroneous input can be reduced.

【0020】請求項5に記載の視線一致検出装置におい
ては、視線方向検出装置によって検出された視線の方向
と前記顔方向検出装置によって検出された顔の方向とか
ら、使用者の状態を把握することができ、マンマシンの
対話をスムーズに進行させることが可能となる。
In the eye-gaze coincidence detecting device according to the fifth aspect, the state of the user is grasped from the direction of the eye gaze detected by the eye-gaze direction detecting device and the direction of the face detected by the face-direction detecting device. This makes it possible for the man-machine conversation to proceed smoothly.

【0021】請求項6に記載のマルチモーダル対話装置
においては、視線があっているかどうかの判定や何を見
ているかという使用者の状態を総合的に把握することが
可能となる。
In the multi-modal dialogue device according to the sixth aspect, it is possible to determine whether or not the line of sight is in view and comprehensively grasp the state of the user as to what he / she is looking at.

【0022】[0022]

【実施例】以下、本発明の視線方向検出装置及び方法の
一実施例を図面を参照しながら説明する。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram showing a gaze direction detecting apparatus and method according to an embodiment of the present invention;

【0023】図1は、本発明の視線方向検出装置の構成
の概要を示す図である。図2は、本発明のより詳細な構
成を示す図である。図2において、視線方向検出装置
は、画像入力手段18、エッジ抽出手段19、目部分切
り出し手段20、ノイズ除去手段21、濃淡化手段2
2、特徴量抽出手段23、マッチング手段24及び方向
出力手段25から構成される。これらの内、エッジ抽出
手段19、目部分切り出し手段20、ノイズ除去手段2
1、濃淡化手段22及び特徴量抽出手段23は、図1の
画像処理部3に含まれる。また、マッチング手段24及
び方向出力手段25は、図1の視線方向判定部4に含ま
れる。
FIG. 1 is a diagram showing an outline of the configuration of a gaze direction detecting apparatus according to the present invention. FIG. 2 is a diagram showing a more detailed configuration of the present invention. In FIG. 2, the line-of-sight direction detecting device includes an image input unit 18, an edge extracting unit 19, an eye portion cutting unit 20, a noise removing unit 21, and a shading unit 2.
2. It is composed of a feature amount extracting means 23, a matching means 24 and a direction output means 25. Among them, the edge extracting means 19, the eye part cutting out means 20, the noise removing means 2
1. The shading unit 22 and the feature amount extracting unit 23 are included in the image processing unit 3 of FIG. The matching unit 24 and the direction output unit 25 are included in the gaze direction determination unit 4 in FIG.

【0024】図3は、本発明の視線方向検出方法を示す
フローチャートである。図3において画像入力手段18
で入力された画像(S1)に対し、目の位置を推定する
ためエッジ抽出手段19によりエッジ部分を強調したエ
ッジ画像を生成する(S2)。ここで、エッジ画像の生
成方法について図4に基づいて説明する。図4におい
て、まず、目の高さを推定するため、エッジ画像26の
水平成分を加えることにより垂直方向の分布図27を生
成する(S3)。エッジが目、はな、口の部分に集中す
る特徴から目の上下の高さを推定する(S4)。目の高
さ付近において垂直成分を加算することにより、目の水
平方向の分布図28を生成する(S5)。目らしき部分
が多数ある場合、目の上下の幅と長さの比から2つの目
の位置を推定する(S6)。
FIG. 3 is a flowchart showing a gaze direction detecting method according to the present invention. In FIG. 3, the image input means 18
For the image (S1) input in (1), an edge image is generated by emphasizing the edge portion by the edge extracting means 19 in order to estimate the position of the eyes (S2). Here, a method of generating an edge image will be described with reference to FIG. In FIG. 4, first, in order to estimate the eye height, a vertical distribution map 27 is generated by adding the horizontal component of the edge image 26 (S3). The vertical height of the eye is estimated from the feature that the edge is concentrated on the eyes, flowers, and mouth (S4). The horizontal distribution map 28 of the eye is generated by adding the vertical components near the eye height (S5). If there are many probable parts, the positions of the two eyes are estimated from the ratio of the width and length of the upper and lower eyes (S6).

【0025】また、図3に戻って、画像入力手段18で
入力された画像を濃淡化することにより得た濃淡画像と
前述の位置情報から目のいわゆる黒目がどこにあるかを
推定する(S7、S8)。その際、まぶたの影や濃淡化
によるノイズが発生することがあるので、まず、黒目検
出に関係のある顔の部分の肌の色の部分を削除する(S
7)。その後、濃淡化手段22により黒目の特徴量を獲
得するため濃淡画像を生成する(S8)。
Returning to FIG. 3, the position of the so-called iris is estimated from the grayscale image obtained by graying the image input by the image input means 18 and the above-mentioned position information (S7, S8). At this time, noise due to eyelid shadows and shading may occur. First, the skin color portion of the face portion related to iris detection is deleted (S
7). After that, a grayscale image is generated by the grayscale means 22 in order to acquire the characteristic amount of the iris (S8).

【0026】つぎに、特徴量抽出手段23において目部
分切り出し手段20による位置情報と濃淡化手段22に
よる濃淡画像から目における黒目の位置を水平方向、垂
直方向それぞれについて特徴抽出する(S9)。
Next, the feature amount extracting means 23 extracts the position of the iris in the eye in the horizontal direction and the vertical direction from the position information by the eye part extracting means 20 and the grayscale image by the shading means 22 (S9).

【0027】図5は、切り出された濃淡画像の目の部分
29の黒目に対応する水平方向、垂直方向それぞれの濃
度分布30、31及びあらかじめ用意されているそれぞ
れの標準パターン分布32、33を示す。濃度分布3
0、31は、黒目が目全体のどの位置にあるかという水
平方向、垂直方向それぞれの濃度分布を表し、前述の位
置情報及び濃淡画像から作成される。前述の濃度分布3
0、31と前述の水平方向標準パターン32、垂直方向
標準パターン33とをマッチング手段14において比較
し(S10、S11)、類似度を算出する(S12)。
類似度がもっとも高いものを視線の方向として出力する
(S13)。
FIG. 5 shows the density distributions 30 and 31 in the horizontal and vertical directions corresponding to the iris of the eye portion 29 of the cut-out gray-scale image and the standard pattern distributions 32 and 33 prepared in advance. . Concentration distribution 3
Reference numerals 0 and 31 indicate the density distribution in the horizontal direction and the vertical direction of the position of the iris in the entire eye, respectively, and are created from the above-described position information and the grayscale image. The aforementioned concentration distribution 3
The matching means 14 compares 0, 31 with the horizontal standard pattern 32 and the vertical standard pattern 33 described above (S10, S11), and calculates the similarity (S12).
The one having the highest similarity is output as the direction of the line of sight (S13).

【0028】つぎに、本発明の第2の実施例について説
明する。
Next, a second embodiment of the present invention will be described.

【0029】図6は、視線方向検出装置を有する画面制
御装置の実施例を示す。表示用画面35の上部に視線検
出用カメラ34をもち、視線方向検出装置36により視
線方向を検出する。検出された視線の方向により画面制
御装置38によって画面35を制御する。例えば、図7
に示すように、使用者が画面上の任意の場所を見ること
により、その部分39を拡大した表示40を行なうこと
ができる。また、図8に示すように、使用者が上下左右
の任意の部分を見ることにより、その部分39が画面の
中央にくるよう画面を移動させ、常に画面の中央に対象
物がくるよう制御する。これらの機能は切替えスイッチ
部37により切替えることができる。切替えスイッ部3
7は例えば片目だけ目を閉じる、あるいはスイッチのオ
ンオフにより切替えることができる。
FIG. 6 shows an embodiment of a screen control device having a gaze direction detecting device. A gaze detection camera 34 is provided above the display screen 35, and the gaze direction detection device 36 detects the gaze direction. The screen 35 is controlled by the screen control device 38 according to the direction of the detected line of sight. For example, FIG.
As shown in (2), when the user looks at an arbitrary place on the screen, a display 40 in which the portion 39 is enlarged can be displayed. Also, as shown in FIG. 8, when the user looks at an arbitrary portion in the up, down, left, and right directions, the screen is moved so that the portion 39 is located at the center of the screen, and the object is always controlled to be located at the center of the screen. . These functions can be switched by the changeover switch unit 37. Switching unit 3
7 can be switched by closing one eye, for example, or by turning on / off a switch.

【0030】つぎに、本発明の第3の実施例について説
明する。
Next, a third embodiment of the present invention will be described.

【0031】図9は、視線方向検出装置を有する文書処
理装置の構成の実施例を示す。図10は、視線方向検出
装置を有する文書処理装置の処理のフローチャートを示
す。使用者が原稿を見ながら入力する場合(S21)、
タイプミスをすることが多く発生する。そこで、視線方
向検出装置によって視線方向を検出し(S22)、使用
者が原稿を見ている場合、すなわち、視線が表示装置4
3を向いていない場合に、入力している文字を読み上げ
るための音声出力装置44をつうじて音声を出力するこ
とができる。したがって、文字入力部40から入力して
いる文字を視覚で確認することなく音声で確認できるた
め、処理を効率的に行うことができる。例えば、視線方
向認識装置41により「視線がモニター部(表示装置)
にない。」と判定された場合(S23)、入力された文
字を音声出力する(S24)。「視線がモニター部に戻
った。」と判定されると(S23)、音声出力を中断
し、例えば一定時間カーソルを別の色で点滅させてカー
ソル位置を見つけやすく表示する(S25)。これによ
りモニター部を見ることなく入力されたものを確認する
ことが可能となる。
FIG. 9 shows an embodiment of the configuration of a document processing apparatus having a gaze direction detecting device. FIG. 10 shows a flowchart of the processing of the document processing apparatus having the gaze direction detecting device. When the user inputs while looking at the original (S21),
Many typos occur. Therefore, the line-of-sight direction is detected by the line-of-sight direction detection device (S22).
In the case where the character 3 is not oriented, the sound can be output through the sound output device 44 for reading out the input character. Therefore, the character input from the character input unit 40 can be confirmed by voice without visually confirming, so that the processing can be performed efficiently. For example, the gaze direction recognizing device 41 uses the “gaze direction of the monitor (display device)
Not in Is determined (S23), the input character is output as voice (S24). When it is determined that "the line of sight has returned to the monitor" (S23), the sound output is interrupted, and the cursor is blinked in another color for a certain period of time, for example, to display the cursor position easily (S25). This makes it possible to confirm the input without looking at the monitor.

【0032】つぎに、第4の実施例について説明する。Next, a fourth embodiment will be described.

【0033】図11は、視線方向検出装置50と顔方向
検出装置51を有する視線一致検出装置52の構成を示
す図である。図12は、顔方向検出装置51の構成を示
す図である。顔方向検出装置は、画像入力手段53とエ
ッジ抽出手段54aと顔部分切りだし手段54bと特徴
量抽出手段55とマッチング手段56aと方向出力手段
56bとから構成される。顔方向検出装置では顔付近の
画像をもとに、エッジ抽出手段54aによってエッジ情
報を抽出し、顔部分切りだし手段54bによって顔部分
を切り出す。特徴量抽出手段55において前述のエッジ
情報を標準化し、マッチング手段56aにおいて標準パ
ターンとの類似度を算出し、類似度のもっとも高いもの
を顔方向出力手段によって顔方向として出力する。前述
の視線方向検出装置及び顔方向検出装置の出力により
「視線の一致」やいわゆる「目の泳ぎ」(考え中)を例
えば図13に示される対応表により出力する。
FIG. 11 is a diagram showing a configuration of a line-of-sight coincidence detecting device 52 having a line-of-sight direction detecting device 50 and a face direction detecting device 51. FIG. 12 is a diagram showing a configuration of the face direction detection device 51. The face direction detection device includes an image input unit 53, an edge extraction unit 54a, a face part extraction unit 54b, a feature amount extraction unit 55, a matching unit 56a, and a direction output unit 56b. In the face direction detecting device, edge information is extracted by an edge extracting means 54a based on an image near the face, and a face part is cut out by a face part cutting means 54b. The feature information extraction means 55 standardizes the above-described edge information, the matching means 56a calculates the similarity with the standard pattern, and outputs the highest similarity as the face direction by the face direction output means. Based on the outputs of the above-described gaze direction detection device and face direction detection device, “gaze coincidence” and so-called “swim of the eyes” (under consideration) are output by, for example, a correspondence table shown in FIG.

【0034】つぎに、第5の実施例について説明する。Next, a fifth embodiment will be described.

【0035】上記視線方向判定方法を用いた視線方向判
定装置、顔方向認識装置、音声認識装置を有するマルチ
モーダル対話装置について図面を参照して説明する。こ
こでいうマルチモーダル対話装置とは、従来の単入力に
よる対話装置に対して音声、顔の向き、視線の方向、う
なずきといった多元的な情報を入力とする対話装置であ
る。
A multi-modal dialogue apparatus having a gaze direction determining device, a face direction recognition device, and a voice recognition device using the above gaze direction determination method will be described with reference to the drawings. The multimodal dialogue device here is a dialogue device in which multiple information such as voice, face direction, gaze direction, and nod is input to a conventional single-input dialogue device.

【0036】図14は、コンピュータとの対話装置にお
いて自然な顔の向き、視線の動きからオペレータの情報
を得るためのマルチモーダル対話装置を示す。図14に
示すように、マルチモーダル対話装置は、前述の視線方
向検出装置50と顔方向検出装置51、音声認識装置5
9、マルチモーダル対話制御装置60、画像出力装置6
1及び音声出力装置62から構成される。
FIG. 14 shows a multimodal dialogue device for obtaining operator information from natural face orientation and eye movement in a dialogue device with a computer. As shown in FIG. 14, the multi-modal interaction device includes the above-described gaze direction detection device 50, face direction detection device 51, and speech recognition device 5.
9. Multi-modal interaction control device 60, image output device 6
1 and an audio output device 62.

【0037】図15は、音声入力手段63、音声解析手
段64とキーワード抽出手段65を有する音声認識装置
59の構成を示す図である。対話における発話を音声入
力手段63により取り込み、音声解析手段64によって
発話内容を解析する。解析された発話内容よりキーワー
ド抽出手段65においてキーワードを抽出する。
FIG. 15 is a diagram showing the configuration of a speech recognition device 59 having a speech input means 63, a speech analysis means 64 and a keyword extraction means 65. The utterance in the dialogue is captured by the voice input means 63, and the utterance content is analyzed by the voice analysis means 64. A keyword is extracted by the keyword extracting means 65 from the analyzed utterance contents.

【0038】図14に戻って、視線方向検出装置50で
はスクリーンに対してどの方向を見ているかという視線
の方向を検出し、顔方向検出装置51ではスクリーンに
対する顔の向きを検出する。これらの検出結果を基に対
話の際に、例えば図13に示すように、顔の向きが正面
を向き、視線の向きが正面を向いているなら視線が一致
していると判断し対話を継続する。顔は正面を向いてい
るが、視線が外れている時には「考え中」であると判断
し、対話制御装置60において対話の進行を止める。顔
の向き視線とも外れている時には顔の向き、視線が正面
を向くまで対話を中断する。
Returning to FIG. 14, the line-of-sight direction detecting device 50 detects the direction of the line of sight as to which direction the user is looking at the screen, and the face direction detecting device 51 detects the direction of the face with respect to the screen. At the time of the dialogue based on these detection results, if the face is facing the front and the gaze is facing the front, for example, as shown in FIG. I do. When the face is facing the front, but is out of sight, it is determined that the user is thinking and the dialogue control device 60 stops the progress of the dialogue. When the face direction is off the line of sight, the conversation is interrupted until the face direction and the line of sight turn to the front.

【0039】図16は、発話(それ)の指示オブジェク
トを推定する方法のフローチャートを示す。音声認識装
置59において例えば「それ」という発話を検出した場
合(S31)、その検出時刻における顔の向き、視線の
方向を顔方向検出装置51、視線方向検出装置50によ
って検出し(S33、S34)、これを総合的に判断す
ることにより、指定オブジェクトジェクトを推定する
(S35)、すなわち、使用者が何を指して「それ」と
発話したかを理解することができる。
FIG. 16 shows a flowchart of a method for estimating an instruction object of an utterance (it). When the speech recognition device 59 detects, for example, the utterance "it" (S31), the face direction and the line of sight at the detection time are detected by the face direction detection device 51 and the line of sight detection device 50 (S33, S34). By judging this comprehensively, it is possible to estimate the designated object object (S35), that is, to understand what the user has pointed and said "it".

【0040】[0040]

【発明の効果】請求項1に記載の発明の方法によれば、
頭部に装置を装着することなく人間の視線方向を検出す
ることが可能となる。
According to the method of the first aspect of the present invention,
It is possible to detect the direction of the line of sight of a person without wearing the device on the head.

【0041】請求項2に記載の発明の装置によれば、頭
部に装置を装着することなく人間の視線方向を検出する
装置が実現される。
According to the apparatus of the second aspect of the present invention, an apparatus for detecting the direction of a human's line of sight without mounting the apparatus on the head is realized.

【0042】請求項3に記載の画面制御装置によれば、
視線の位置を有効に活用して、切替えスイッチにより視
線部分を拡大表示する機能と視線部分をスクロールさせ
視線部分が中央に位置する機能とを使い分けることがで
きる。したがって、編集作業を容易に行うことができ、
作業効率をあげることができる。
According to the screen control device of the third aspect,
By effectively utilizing the position of the line of sight, the function of enlarging and displaying the line of sight by the changeover switch and the function of scrolling the line of sight and positioning the line of sight at the center can be used properly. Therefore, editing work can be performed easily,
Work efficiency can be improved.

【0043】請求項4に記載の文書処理装置によれば、
画面を見ずに入力している場合には音声出力装置を用い
て入力文字を音声出力することにより画面の確認を不要
とするため入力が容易となり、誤入力を減少させること
ができる。したがって、編集作業を容易に行うことがで
きる。
According to the document processing apparatus of the fourth aspect,
When the input is performed without looking at the screen, the input characters are output as voice using a voice output device, so that it is not necessary to check the screen. Therefore, the input becomes easy, and erroneous input can be reduced. Therefore, the editing operation can be easily performed.

【0044】請求項5に記載の視線一致検出装置によれ
ば、視線方向検出装置によって検出された視線の方向と
前記顔方向検出装置によって検出された顔の方向とか
ら、使用者の状態を把握することができ、マンマシンの
対話をスムーズに進行させることが可能となる。
According to the gaze coincidence detecting device of the fifth aspect, the state of the user is grasped from the direction of the gaze detected by the gaze direction detecting device and the direction of the face detected by the face direction detecting device. And the dialogue between the man-machine can proceed smoothly.

【0045】請求項6に記載のマルチモーダル対話装置
によれば、視線があっているかどうかの判定や何を見て
いるかという使用者の状態を総合的に把握することが可
能となる。したがって、使用者の顔の動きや目の動きを
理解して、コンピュータと使用者との自然な対話を実現
することができる。
According to the multi-modal dialogue device according to the sixth aspect, it is possible to judge whether or not the line of sight is in view and comprehensively grasp the state of the user as to what he / she is looking at. Therefore, it is possible to realize a natural conversation between the computer and the user by understanding the movement of the user's face and eyes.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の視線方向検出装置の構成の概要を示す
図である。
FIG. 1 is a diagram showing an outline of a configuration of a gaze direction detecting device of the present invention.

【図2】本発明の視線方向検出装置の構成の詳細を示す
図である。
FIG. 2 is a diagram showing details of a configuration of a gaze direction detecting device of the present invention.

【図3】本発明の視線方向検出方法を示すフローチャー
トである。
FIG. 3 is a flowchart illustrating a gaze direction detecting method according to the present invention.

【図4】目部分を切り出すための画像処理を示す図であ
る。
FIG. 4 is a diagram showing image processing for cutting out an eye portion.

【図5】抽出された特徴量と標準パターンとを示す図で
ある。
FIG. 5 is a diagram showing extracted feature amounts and standard patterns.

【図6】視線入力による画面(スクリーン)制御装置を
示す図である。
FIG. 6 is a diagram showing a screen (screen) control device based on line-of-sight input.

【図7】画面制御装置のズーミング機能の例を示す図で
ある。
FIG. 7 is a diagram illustrating an example of a zooming function of the screen control device.

【図8】画面制御装置のスクロール機能を示す図であ
る。
FIG. 8 is a diagram showing a scroll function of the screen control device.

【図9】視線方向判定装置を有する文書処理装置の構成
を示す図である。
FIG. 9 is a diagram illustrating a configuration of a document processing apparatus having a gaze direction determination device.

【図10】音声出力機能を持つ文書処理装置の処理のフ
ローを示す図である。
FIG. 10 is a diagram showing a processing flow of a document processing apparatus having a sound output function.

【図11】視線一致検出装置の構成を示す図である。FIG. 11 is a diagram illustrating a configuration of a visual line coincidence detection device.

【図12】顔方向判定部の構成を示す図である。FIG. 12 is a diagram illustrating a configuration of a face direction determination unit.

【図13】視線の向きと顔の向きを統合した場合の装置
の判断の一例を示す図である。
FIG. 13 is a diagram illustrating an example of the determination of the device when the direction of the line of sight and the direction of the face are integrated.

【図14】本発明のマルチモーダル対話装置の構成を示
す図である。
FIG. 14 is a diagram showing a configuration of a multi-modal interaction device of the present invention.

【図15】音声入力部の構成を示す図である。FIG. 15 is a diagram illustrating a configuration of a voice input unit.

【図16】発話タイミングによる指示物の推定フローチ
ャートである。
FIG. 16 is a flowchart for estimating a pointer based on utterance timing.

【図17】従来例の視線方向検出装置の構成を示す図で
ある。
FIG. 17 is a diagram showing a configuration of a conventional gaze direction detecting device.

【図18】別の従来例の視線方向検出装置の動作原理を
示す図である。
FIG. 18 is a view showing the operation principle of another conventional gaze direction detecting device.

【符号の説明】[Explanation of symbols]

1 撮像装置 2 画像入力部 3 画像処理部 4 視線方向判定部 18 画像入力手段 19 エッジ抽出手段 20 目部切り出し手段 21 ノイズ除去手段 22 濃淡化手段 23 特徴量抽出手段 24 マッチング手段 25 方向出力手段 REFERENCE SIGNS LIST 1 imaging device 2 image input unit 3 image processing unit 4 gaze direction determination unit 18 image input unit 19 edge extraction unit 20 eye cutout unit 21 noise removal unit 22 shading unit 23 feature amount extraction unit 24 matching unit 25 direction output unit

フロントページの続き (56)参考文献 特開 平6−269411(JP,A) 特開 平3−165737(JP,A) 特開 平4−282129(JP,A) 特開 平6−266497(JP,A) 特開 平4−101209(JP,A) 特開 平6−321030(JP,A) 特開 平6−270712(JP,A) 特開 平6−12206(JP,A) 特開 平5−298015(JP,A) (58)調査した分野(Int.Cl.7,DB名) A61B 3/00 - 3/16 Continuation of front page (56) References JP-A-6-269411 (JP, A) JP-A-3-165737 (JP, A) JP-A-4-282129 (JP, A) JP-A-6-266497 (JP) JP-A-4-101209 (JP, A) JP-A-6-321030 (JP, A) JP-A-6-270712 (JP, A) JP-A-6-12206 (JP, A) 5-298015 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) A61B 3/00-3/16

Claims (7)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 視線がどの方向を向いているかを検出す
る視線方向検出方法であって、顔の部分の画像から目の
部分を含む画像を切り出すステップと、前記切り出され
た目の部分を含む顔の画像から肌色部分を除去するステ
ップと、前記肌色抜きの目の部分を含む画像から目の部
分の画像における黒目の位置情報を表す特徴量を抽出す
るステップと、前記特徴量と標準パターンとの比較を行
うステップと、前記比較の結果に基づいて視線方向を出
力するステップとを含む視線方向検出方法。
1. A gaze direction detecting method for detecting a direction of a gaze direction, the method including a step of cutting out an image including an eye portion from an image of a face portion, the method including a step of cutting out the eye portion . Removing a flesh-colored portion from the face image; extracting a feature amount representing position information of the iris in the image of the eye portion from the image including the eye portion without the flesh-colored portion; And a step of outputting a gaze direction based on the result of the comparison.
【請求項2】 視線がどの方向を向いているかを検出す
る視線方向検出装置であって、顔の部分の画像を取り込
む画像入力手段と、取り込んだ顔の部分の画像から目の
部分を含む画像を切り出す目部分切り出し手段と、前記
切り出された目の部分を含む顔の画像から肌色部分を除
去する手段と、前記肌色部分を除去した目の部分を含む
画像から目の部分の画像における黒目の位置情報を表す
特徴量を抽出する特徴量抽出手段と、前記特徴量と標準
パターンとの比較を行うマッチング手段と、前記比較の
結果に基づいて視線方向を出力する視線方向出力手段と
を含む視線方向検出装置。
2. A gaze direction detecting device for detecting in which direction a gaze is directed, comprising: image input means for capturing an image of a face portion; and an image including an eye portion from the captured image of the face portion. eye portion cutout means for cutting out, and means for removing the flesh color portion from the image of a face including the cut-out eye portion, the <br/> from the image the eye of a portion including a portion of the eye to remove the flesh color part A feature amount extracting unit that extracts a feature amount representing position information of an iris in an image; a matching unit that compares the feature amount with a standard pattern; and a gaze direction output unit that outputs a gaze direction based on a result of the comparison. A gaze direction detecting device including:
【請求項3】 請求項2に記載の視線方向検出装置を備
えた画像制御装置であって、前記視線方向検出装置の検
出した視線の方向に基づいて画面の制御を行う画面制御
装置。
3. An image control device comprising the gaze direction detecting device according to claim 2, wherein the screen control device controls a screen based on the gaze direction detected by the gaze direction detection device.
【請求項4】 請求項2に記載の視線方向検出装置と文
字入力装置と表示装置と音声出力装置とを備えた文書処
理装置であって、前記視線方向検出装置によって検出さ
れた使用者の視線方向が、前記表示装置の表示画面にな
い場合に、使用者によって入力された文字を前記音声出
力装置に出力し、入力された文字を使用者が音声で確認
できるようにすることを特徴とする文書処理装置。
4. A document processing apparatus comprising the gaze direction detecting device, the character input device, the display device, and the audio output device according to claim 2, wherein the gaze direction of the user is detected by the gaze direction detection device. When the direction is not on the display screen of the display device, a character input by a user is output to the audio output device so that the user can confirm the input character by voice. Document processing device.
【請求項5】 請求項2に記載の視線方向検出装置と顔
の向きを判定する顔方向検出装置とを備えた視線一致検
出装置であって、前記視線方向検出装置によって検出さ
れた視線の方向と前記顔方向検出装置によって検出され
た顔の方向とから、使用者の状態を把握することをと特
徴とする視線一致検出装置。
5. A line-of-sight coincidence detection device comprising the line-of-sight direction detection device according to claim 2 and a face direction detection device for determining a face direction, wherein the line-of-sight direction detected by the line-of-sight direction detection device. A gaze coincidence detection device for ascertaining the state of the user from the face direction detected by the face direction detection device.
【請求項6】 請求項2に記載の視線方向検出装置と顔
の方向を検出する顔方向検出装置とを備えたマルチモー
ダル対話装置であって、前記視線方向検出装置によって
検出された視線の方向と前記顔方向検出装置によって検
出された顔の方向とから、対話時における使用者の状態
を理解することを特徴とするマルチモーダル対話装置。
6. A multi-modal dialogue device comprising the gaze direction detection device according to claim 2 and a face direction detection device for detecting a face direction, wherein the gaze direction detected by the gaze direction detection device. A multi-modal dialogue device, wherein the user's state at the time of the dialogue is understood based on the face direction detected by the face direction detection device.
【請求項7】 請求項2に記載の視線方向検出装置と文
字入力装置と表示装置と音声出力装置とを備えた文書処
理装置であって、前記視線方向検出装置によって検出さ
れた使用者の視線方向が前記表示装置の外から内に戻っ
た場合に前記表示装置のカーソルを点滅させることを特
徴とする文書処理装置。
7. A document processing apparatus comprising the gaze direction detecting device according to claim 2, a character input device, a display device, and a voice output device, wherein the gaze direction of the user detected by the gaze direction detection device is provided. A document processing apparatus characterized by blinking a cursor of the display device when the direction returns from outside to inside the display device.
JP13047495A 1995-05-29 1995-05-29 Gaze direction detecting method and apparatus and man-machine interface apparatus including the same Expired - Lifetime JP3272906B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13047495A JP3272906B2 (en) 1995-05-29 1995-05-29 Gaze direction detecting method and apparatus and man-machine interface apparatus including the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13047495A JP3272906B2 (en) 1995-05-29 1995-05-29 Gaze direction detecting method and apparatus and man-machine interface apparatus including the same

Publications (2)

Publication Number Publication Date
JPH08322796A JPH08322796A (en) 1996-12-10
JP3272906B2 true JP3272906B2 (en) 2002-04-08

Family

ID=15035118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13047495A Expired - Lifetime JP3272906B2 (en) 1995-05-29 1995-05-29 Gaze direction detecting method and apparatus and man-machine interface apparatus including the same

Country Status (1)

Country Link
JP (1) JP3272906B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100856966B1 (en) * 2004-06-18 2008-09-04 닛본 덴끼 가부시끼가이샤 Image display system, image display method and recording medium
KR100911066B1 (en) * 2004-06-18 2009-08-06 닛본 덴끼 가부시끼가이샤 Image display system, image display method and recording medium

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3533308B2 (en) * 1997-02-10 2004-05-31 株式会社ニデック Ophthalmic equipment
JP3579218B2 (en) * 1997-07-04 2004-10-20 三洋電機株式会社 Information display device and information collection device
US7117157B1 (en) 1999-03-26 2006-10-03 Canon Kabushiki Kaisha Processing apparatus for determining which person in a group is speaking
GB9908545D0 (en) * 1999-04-14 1999-06-09 Canon Kk Image processing apparatus
JP4675514B2 (en) * 2001-07-16 2011-04-27 シャープ株式会社 Audio processing apparatus, audio processing method, and computer-readable recording medium storing a program for performing the method
JP4088282B2 (en) * 2004-08-20 2008-05-21 清実 中村 Computer input method and apparatus
JP2006170622A (en) * 2004-12-10 2006-06-29 Olympus Corp Visual inspection apparatus
JP4797588B2 (en) * 2005-11-17 2011-10-19 アイシン精機株式会社 Vehicle periphery display device
JPWO2007141857A1 (en) * 2006-06-08 2009-10-15 オリンパス株式会社 Appearance inspection device
JP2007310914A (en) * 2007-08-31 2007-11-29 Nippon Telegr & Teleph Corp <Ntt> Mouse alternating method, mouse alternating program and recording medium
US8982160B2 (en) * 2010-04-16 2015-03-17 Qualcomm, Incorporated Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size
JP5201242B2 (en) * 2011-06-15 2013-06-05 アイシン精機株式会社 Vehicle periphery display device
CN103054549B (en) * 2012-12-29 2015-07-01 西安交通大学 Wearable portable device and method for analyzing eye movement
JP6179447B2 (en) * 2014-04-15 2017-08-16 株式会社デンソー Gaze detection device and gaze detection method
CN105279764B (en) * 2014-05-27 2020-09-11 北京三星通信技术研究有限公司 Eye image processing apparatus and method
JP6468078B2 (en) * 2015-05-29 2019-02-13 富士通株式会社 Gaze calibration program, gaze calibration apparatus, and gaze calibration method
JP6922686B2 (en) 2017-11-20 2021-08-18 トヨタ自動車株式会社 Operating device
US11609739B2 (en) * 2018-06-01 2023-03-21 Apple Inc. Providing audio information with a digital assistant

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2688527B2 (en) * 1989-11-27 1997-12-10 日本電信電話株式会社 Gaze direction detection method
JPH04101209A (en) * 1990-08-20 1992-04-02 Matsushita Electric Ind Co Ltd Character input confirming device
JPH04282129A (en) * 1991-03-08 1992-10-07 Fujitsu Ltd Gaze point analyzing device
JPH0761314B2 (en) * 1991-10-07 1995-07-05 コナミ株式会社 Retinal reflected light amount measuring device and eye gaze detecting device using the device
JPH05298015A (en) * 1992-04-23 1993-11-12 Matsushita Electric Ind Co Ltd Glance detecting system and information processing system
JPH0612206A (en) * 1992-06-29 1994-01-21 Fuji Xerox Co Ltd Input/output device
JPH06266497A (en) * 1993-03-11 1994-09-22 Toshiba Corp Man-machine interface device
JPH06270712A (en) * 1993-03-16 1994-09-27 Aisin Seiki Co Ltd Inattentive driving alarming device
JPH06321030A (en) * 1993-05-11 1994-11-22 Yazaki Corp Vehicular voice output device
JP3293308B2 (en) * 1994-03-10 2002-06-17 三菱電機株式会社 Person state detection device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100856966B1 (en) * 2004-06-18 2008-09-04 닛본 덴끼 가부시끼가이샤 Image display system, image display method and recording medium
KR100911066B1 (en) * 2004-06-18 2009-08-06 닛본 덴끼 가부시끼가이샤 Image display system, image display method and recording medium
US7839423B2 (en) 2004-06-18 2010-11-23 Nec Corporation Image display system with gaze directed zooming

Also Published As

Publication number Publication date
JPH08322796A (en) 1996-12-10

Similar Documents

Publication Publication Date Title
JP3272906B2 (en) Gaze direction detecting method and apparatus and man-machine interface apparatus including the same
US20090091650A1 (en) Digital camera capable of appropriately discriminating the face of a person
TWI669103B (en) Information processing device, information processing method and program
JP6534292B2 (en) Head mounted display and control method of head mounted display
US7216982B2 (en) Eye image taking device
JP2005100366A (en) Visual line input communication method using eyeball motion
US20070097234A1 (en) Apparatus, method and program for providing information
JP2006293786A (en) Market research apparatus having visual line input unit
JPH11219421A (en) Image recognizing device and method therefor
CN105068646B (en) The control method and system of terminal
CN110352033A (en) Eyes degree of opening is determined with eye tracks device
JP5077879B2 (en) Gaze input device, gaze input method, and gaze input program
JP2001067459A (en) Method and device for face image processing
JP4839432B2 (en) Pointing device and method based on pupil position detection
US11281893B2 (en) Method and device for modifying the affective visual information in the field of vision of an user
JP4088282B2 (en) Computer input method and apparatus
JP2006318374A (en) Glasses determination device, authentication device, and glasses determination method
JPH05298015A (en) Glance detecting system and information processing system
US20200250498A1 (en) Information processing apparatus, information processing method, and program
JPH05232908A (en) Instruction input device
JPH1039995A (en) Line-of-sight/voice input device
JPH11184621A (en) Line of sight input device
Bilal et al. Design a Real-Time Eye Tracker
Kim et al. Eye detection for gaze tracker with near infrared illuminator
JPH1173273A (en) Inputting device for physically handicapped person

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080125

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090125

Year of fee payment: 7

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090125

Year of fee payment: 7

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090125

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100125

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110125

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120125

Year of fee payment: 10

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120125

Year of fee payment: 10

EXPY Cancellation because of completion of term