JPH08322796A - Method and apparatus for detecting direction of visual axis and man-machine interface apparatus containing the same - Google Patents

Method and apparatus for detecting direction of visual axis and man-machine interface apparatus containing the same

Info

Publication number
JPH08322796A
JPH08322796A JP7130474A JP13047495A JPH08322796A JP H08322796 A JPH08322796 A JP H08322796A JP 7130474 A JP7130474 A JP 7130474A JP 13047495 A JP13047495 A JP 13047495A JP H08322796 A JPH08322796 A JP H08322796A
Authority
JP
Japan
Prior art keywords
line
sight
detection device
image
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7130474A
Other languages
Japanese (ja)
Other versions
JP3272906B2 (en
Inventor
Michiaki Mukai
理朗 向井
Junji Mitani
純司 三谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GIJUTSU KENKYU KUMIAI SHINJOHO SHIYORI KAIHATSU KIKO
Sharp Corp
Original Assignee
GIJUTSU KENKYU KUMIAI SHINJOHO SHIYORI KAIHATSU KIKO
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GIJUTSU KENKYU KUMIAI SHINJOHO SHIYORI KAIHATSU KIKO, Sharp Corp filed Critical GIJUTSU KENKYU KUMIAI SHINJOHO SHIYORI KAIHATSU KIKO
Priority to JP13047495A priority Critical patent/JP3272906B2/en
Publication of JPH08322796A publication Critical patent/JPH08322796A/en
Application granted granted Critical
Publication of JP3272906B2 publication Critical patent/JP3272906B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE: To provide a means for direction of visual axis to allow detecting of the direction of human visual axis without mounting the apparatus on a head part, a screen controller using the same, and a multimodal interaction device. CONSTITUTION: An image is inputted from an image inputting section 2 and an edge of the image is extracted at an image processing section 3 to perform a processing such as density varying processing. The position of an eye is estimated in a face from an image of an edge acquired to obtain positional information on the iris of the eye from a variable density image. At a direction of visual axis judging section 4, the direction of visual axis is detected by comparing positional information each in the horizontal and vertical directions with a reference pattern.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は視線方向を検出する視線
方向検出方法及び装置及びそれを含むマンマシンインタ
ーフェース装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a gaze direction detecting method and device for detecting a gaze direction and a man-machine interface device including the same.

【0002】[0002]

【従来の技術】従来から、人間の視線方向を検出しよう
とする試みは行なわれていた。その目的の一つは、人間
の無意識の視線の動きを客観的に調査研究しようとする
ものである。
2. Description of the Related Art Conventionally, attempts have been made to detect the direction of the line of sight of a human. One of the purposes is to objectively investigate and study human unconscious eye movements.

【0003】このような試みは研究レベルで行なわれて
おり、実用化されているが、工業製品、例えばコンピュ
ータ入力装置として、実用化されているものは少ない。
人間の自然な状態の情報を得るためには視線検出用光源
を持つゴーグルなどを頭部に装着することはあまり望ま
しくない。
Such attempts have been made at the research level and have been put to practical use, but few industrial products, for example, computer input devices have been put to practical use.
In order to obtain information on the natural state of human beings, it is not desirable to wear goggles or the like having a light source for sight line detection on the head.

【0004】例えば、図17は従来の視線方向検出装置
の構成を示す。図17において、71は眼球で、この眼
球はいわゆる黒目である角膜72を有し、この眼球を有
する図示しない頭部に、同じく図示しないゴーグルをか
け、このゴーグルにより視線検出部78を、眼球の前方
下部に位置固定させている。この視線検出部78の、眼
球との対向面の上部には水平方向検出用光源としての赤
外発光ダイオード74およびこの赤外発光ダイオード両
側には位置された水平方向検出用センサとしてフォトダ
イオード73、75とこれらフォトダイオードの下部に
設けられた垂直方向検出光源としての赤外発光ダイオー
ド76および垂直方向検出用センサとしてのフォトダイ
オード77とが設けられている。この視線検出部78の
検出原理は眼球72からの反射光量の変化を3つのフォ
トダイオード73、75、77でとらえ、これらフォト
ダイオードの検出データをマイクロコンピュータ79に
与え、このマイクロコンピュータにより比較演算処理を
行なって視線位置を検出し、これを画像出力装置80に
出力するものである。そして3つのフォトダイオード7
3、75、77への入射光量は、角膜の位置によりそれ
ぞれ変化するので、あらかじめ数箇所の視線位置に対し
て非線形処理による校正を行なっておけば、視線方向を
検出することができる。
For example, FIG. 17 shows the configuration of a conventional line-of-sight direction detecting device. In FIG. 17, reference numeral 71 denotes an eyeball, which has a cornea 72 that is a so-called black eye. The position is fixed at the lower front. An infrared light emitting diode 74 as a light source for horizontal direction detection is provided above the surface of the line-of-sight detection unit 78 facing the eyeball, and photodiodes 73 as horizontal direction detection sensors located on both sides of the infrared light emitting diode. 75, an infrared light emitting diode 76 as a vertical direction detection light source provided below these photodiodes, and a photodiode 77 as a vertical direction detection sensor are provided. The detection principle of the line-of-sight detection unit 78 is that the change in the amount of light reflected from the eyeball 72 is detected by the three photodiodes 73, 75, 77, and the detection data of these photodiodes is given to the microcomputer 79, and this microcomputer performs comparison calculation processing. Is performed to detect the line-of-sight position and output it to the image output device 80. And three photodiodes 7
Since the amount of light incident on each of 3, 75, and 77 changes depending on the position of the cornea, the line-of-sight direction can be detected by performing calibration by nonlinear processing on several line-of-sight positions in advance.

【0005】さらに、図18は別の従来例を示す。赤外
発光ダイオード等の検出用光源82から眼球71に対し
て光を照射し、眼球の角膜面72による光の反射方向を
CCDアレイ86によって検出し、CCDドライバおよ
び処理部87により視線方向としてとらえるものであ
る。ここで、83及び85はレンズ、84はハーフミラ
ーを示す。
Further, FIG. 18 shows another conventional example. Light is emitted from the detection light source 82 such as an infrared light emitting diode to the eyeball 71, the direction of light reflected by the corneal surface 72 of the eyeball is detected by the CCD array 86, and the line of sight is captured by the CCD driver and the processing unit 87. It is a thing. Here, 83 and 85 are lenses, and 84 is a half mirror.

【0006】これら従来の視線方向検出装置は、いずれ
も専用の光源が必要であり、光源および反射光をとらえ
るゴーグル状の装置を装着する必要がある。しかし、こ
のような装置を装着することは、例えばコンピュータ入
力装置といて用いる場合、オペレータに違和感を持たせ
ることとなる。
Each of these conventional line-of-sight direction detecting devices requires a dedicated light source, and it is necessary to mount a light source and a goggle-shaped device for capturing reflected light. However, wearing such a device makes the operator feel uncomfortable when used as, for example, a computer input device.

【0007】[0007]

【発明が解決しようとする課題】このように、従来の視
線方向検出装置は、人間の頭部に視線検出用の赤外線光
源等を有するゴーグル型の装置を装着しなければなら
ず、使用者に違和感を持たせるという問題点があった。
As described above, in the conventional gaze direction detecting device, a goggle type device having an infrared light source or the like for detecting the gaze must be attached to the human head, and the user's head must be attached to the user's head. There was a problem of giving a sense of discomfort.

【0008】また、視線方向を利用した画面制御装置、
視線方向を入力モードのひとつとする対話装置はその例
がなかった。
Further, a screen control device utilizing the line-of-sight direction,
There is no example of a dialogue device in which the line-of-sight direction is one of the input modes.

【0009】本発明は、頭部に装置を装着することなく
人間の視線方向を検出することが可能となる視線方向検
出手段およびこれを用いた画面制御装置、マルチモーダ
ル対話装置等のマンマシンインターフェース装置を提供
することを目的とする。
The present invention is a man-machine interface for a visual line direction detecting means capable of detecting the visual line direction of a human without mounting the device on the head, a screen control device using the same, and a multi-modal dialogue device. The purpose is to provide a device.

【0010】[0010]

【課題を解決するための手段】請求項1に記載の発明の
方法は、顔の部分の画像から目の部分の画像を切り出す
ステップと、目の位置情報を表す特徴量を抽出するステ
ップと、前記特徴量と標準パターンとの比較を行うステ
ップと、前記比較の結果に基づいて視線方向を出力する
ステップとを含むことを特徴とする。
According to a first aspect of the present invention, there is provided a method of cutting out an image of an eye part from an image of a face part, and a step of extracting a feature amount representing eye position information. The method is characterized by including a step of comparing the feature amount with a standard pattern and a step of outputting the line-of-sight direction based on the result of the comparison.

【0011】請求項2に記載の発明の装置は、顔の部分
の画像を取り込む画像入力手段と、取り込んだ顔の部分
の画像から目の部分の画像を切り出す目部分切りだし手
段と、目の位置情報を表す特徴量を抽出する特徴量抽出
手段と、前記特徴量と標準パターンとの比較を行うマッ
チング手段と、前記比較の結果に基づいて視線方向を出
力する視線方向出力手段とを含むことを特徴とする。
According to a second aspect of the present invention, there is provided an image input means for capturing an image of a face portion, an eye portion cutting means for cutting out an image of an eye portion from the captured image of the face portion, and an eye portion. A feature amount extraction unit that extracts a feature amount that represents position information, a matching unit that compares the feature amount with a standard pattern, and a line-of-sight direction output unit that outputs a line-of-sight direction based on the result of the comparison. Is characterized by.

【0012】請求項3に記載の発明の装置は、視線方向
検出装置の検出した視線の方向に基づいて画面の制御を
行うことを特徴とする。
An apparatus according to a third aspect of the invention is characterized in that the screen is controlled based on the direction of the line of sight detected by the line-of-sight direction detecting device.

【0013】請求項4に記載の発明の装置は、視線方向
検出装置によって検出された使用者の視線方向が、表示
装置の表示画面にない場合に、使用者によって入力され
た文字を音声出力装置に出力し、入力された文字を使用
者が音声で確認できるようにすることを特徴とする。
According to a fourth aspect of the invention, in the case where the line-of-sight direction of the user detected by the line-of-sight direction detecting device is not on the display screen of the display device, the character input by the user is output as a voice output device. It is characterized in that the user can confirm the input character by voice.

【0014】請求項5に記載の発明の装置は、視線方向
検出装置によって検出された視線の方向と前記顔方向検
出装置によって検出された顔の方向とから、使用者の状
態を把握することを特徴とする。
According to a fifth aspect of the present invention, it is possible to grasp the state of the user from the direction of the line of sight detected by the line-of-sight direction detecting device and the face direction detected by the face direction detecting device. Characterize.

【0015】請求項6に記載の発明の装置は、視線方向
検出装置によって検出された視線の方向と前記顔方向検
出装置によって検出された顔の方向とから、対話時にお
ける使用者の状態を理解することを特徴とする。
According to a sixth aspect of the present invention, the state of the user at the time of conversation is understood from the direction of the line of sight detected by the line-of-sight direction detecting device and the face direction detected by the face direction detecting device. It is characterized by doing.

【0016】[0016]

【作用】請求項1に記載の発明の方法においては、目の
部分の画像から目の位置情報を表す特徴量を抽出して、
特徴量と標準パターンとの比較を行い、比較の結果に基
づいて視線方向を出力するように構成されている。した
がって、頭部に装置を装着することなく人間の視線方向
を検出することが可能となる。
According to the method of the present invention as set forth in claim 1, the feature quantity representing the eye position information is extracted from the image of the eye portion,
The feature amount and the standard pattern are compared with each other, and the line-of-sight direction is output based on the result of the comparison. Therefore, it is possible to detect the line-of-sight direction of a person without mounting the device on the head.

【0017】請求項2に記載の発明の装置においては、
目部分切りだし手段によって目の部分の画像を切り出
し、特徴量抽出手段によって目の位置情報を表す特徴量
を抽出し、マッチング手段によって特徴量と目の位置の
標準パターンとの比較を行い、視線方向出力手段によっ
て比較の結果に基づいて視線方向を出力する。したがっ
て、頭部に装置を装着することなく人間の視線方向を検
出する装置が実現される。
In the device of the invention described in claim 2,
The image of the eye part is cut out by the eye part cutting means, the feature amount representing the eye position information is extracted by the feature amount extracting means, and the feature amount is compared with the standard pattern of the eye position by the matching means to determine the line of sight. The direction output means outputs the line-of-sight direction based on the result of the comparison. Therefore, a device for detecting the line-of-sight direction of a person is realized without mounting the device on the head.

【0018】請求項3に記載の画面制御装置において
は、視線の位置を有効に活用して、画面の制御を行い、
作業効率をあげることができる。
In the screen control device according to the third aspect, the position of the line of sight is effectively utilized to control the screen,
Work efficiency can be improved.

【0019】請求項4に記載の文書処理装置において
は、使用者が画面を見ずに入力している場合には、音声
出力装置を用いて入力文字を音声出力することにより画
面の確認を不要とするため、入力が容易となり、誤入力
を減少させることができる。
In the document processing apparatus according to the fourth aspect, when the user is inputting without looking at the screen, it is not necessary to confirm the screen by outputting the input characters by voice using the voice output device. Therefore, the input becomes easy, and erroneous input can be reduced.

【0020】請求項5に記載の視線一致検出装置におい
ては、視線方向検出装置によって検出された視線の方向
と前記顔方向検出装置によって検出された顔の方向とか
ら、使用者の状態を把握することができ、マンマシンの
対話をスムーズに進行させることが可能となる。
In the line-of-sight coincidence detecting device according to the fifth aspect, the state of the user is grasped from the direction of the line-of-sight detected by the line-of-sight direction detecting device and the face direction detected by the face direction detecting device. Therefore, it becomes possible for the man-machine interaction to proceed smoothly.

【0021】請求項6に記載のマルチモーダル対話装置
においては、視線があっているかどうかの判定や何を見
ているかという使用者の状態を総合的に把握することが
可能となる。
In the multi-modal dialogue apparatus according to the sixth aspect, it is possible to comprehensively grasp the state of the user such as whether or not the user's line of sight is determined and what he is looking at.

【0022】[0022]

【実施例】以下、本発明の視線方向検出装置及び方法の
一実施例を図面を参照しながら説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the gaze direction detecting apparatus and method of the present invention will be described below with reference to the drawings.

【0023】図1は、本発明の視線方向検出装置の構成
の概要を示す図である。図2は、本発明のより詳細な構
成を示す図である。図2において、視線方向検出装置
は、画像入力手段18、エッジ抽出手段19、目部分切
り出し手段20、ノイズ除去手段21、濃淡化手段2
2、特徴量抽出手段23、マッチング手段24及び方向
出力手段25から構成される。これらの内、エッジ抽出
手段19、目部分切り出し手段20、ノイズ除去手段2
1、濃淡化手段22及び特徴量抽出手段23は、図1の
画像処理部3に含まれる。また、マッチング手段24及
び方向出力手段25は、図1の視線方向判定部4に含ま
れる。
FIG. 1 is a diagram showing an outline of the configuration of the eye gaze direction detecting device of the present invention. FIG. 2 is a diagram showing a more detailed configuration of the present invention. In FIG. 2, the eye gaze direction detecting device includes an image inputting unit 18, an edge extracting unit 19, an eye portion cutting unit 20, a noise removing unit 21, and a shading unit 2.
2, a feature amount extraction means 23, a matching means 24, and a direction output means 25. Among these, the edge extracting means 19, the eye portion cutting means 20, and the noise removing means 2
1, the shading unit 22, and the feature amount extraction unit 23 are included in the image processing unit 3 of FIG. The matching means 24 and the direction output means 25 are included in the line-of-sight direction determination unit 4 of FIG.

【0024】図3は、本発明の視線方向検出方法を示す
フローチャートである。図3において画像入力手段18
で入力された画像(S1)に対し、目の位置を推定する
ためエッジ抽出手段19によりエッジ部分を強調したエ
ッジ画像を生成する(S2)。ここで、エッジ画像の生
成方法について図4に基づいて説明する。図4におい
て、まず、目の高さを推定するため、エッジ画像26の
水平成分を加えることにより垂直方向の分布図27を生
成する(S3)。エッジが目、はな、口の部分に集中す
る特徴から目の上下の高さを推定する(S4)。目の高
さ付近において垂直成分を加算することにより、目の水
平方向の分布図28を生成する(S5)。目らしき部分
が多数ある場合、目の上下の幅と長さの比から2つの目
の位置を推定する(S6)。
FIG. 3 is a flow chart showing the visual line direction detecting method of the present invention. In FIG. 3, the image input means 18
With respect to the image (S1) input in, the edge extracting unit 19 generates an edge image in which the edge portion is emphasized in order to estimate the eye position (S2). Here, a method of generating an edge image will be described with reference to FIG. In FIG. 4, first, in order to estimate the eye height, a horizontal component of the edge image 26 is added to generate a vertical distribution map 27 (S3). The upper and lower heights of the eyes are estimated from the feature that the edges are concentrated in the eyes, the flowers, and the mouth (S4). A vertical distribution map 28 is generated by adding vertical components near the eye height (S5). When there are many eye-like parts, the positions of the two eyes are estimated from the ratio of the vertical width and length of the eyes (S6).

【0025】また、図3に戻って、画像入力手段18で
入力された画像を濃淡化することにより得た濃淡画像と
前述の位置情報から目のいわゆる黒目がどこにあるかを
推定する(S7、S8)。その際、まぶたの影や濃淡化
によるノイズが発生することがあるので、まず、黒目検
出に関係のある顔の部分の肌の色の部分を削除する(S
7)。その後、濃淡化手段22により黒目の特徴量を獲
得するため濃淡画像を生成する(S8)。
Returning to FIG. 3, it is estimated where the so-called iris of the eye is based on the grayscale image obtained by graying the image input by the image input means 18 and the position information (S7, S8). At this time, noise may occur due to the shadow of the eyelids and the shading. Therefore, first, the skin color part of the face part related to the black eye detection is deleted (S).
7). After that, the grayscale image is generated by the grayscale means 22 to acquire the feature amount of the black eye (S8).

【0026】つぎに、特徴量抽出手段23において目部
分切り出し手段20による位置情報と濃淡化手段22に
よる濃淡画像から目における黒目の位置を水平方向、垂
直方向それぞれについて特徴抽出する(S9)。
Next, the feature amount extracting means 23 extracts the positions of the black eyes in the eyes from the position information by the eye part cutting means 20 and the grayscale image by the graying means 22 in the horizontal and vertical directions respectively (S9).

【0027】図5は、切り出された濃淡画像の目の部分
29の黒目に対応する水平方向、垂直方向それぞれの濃
度分布30、31及びあらかじめ用意されているそれぞ
れの標準パターン分布32、33を示す。濃度分布3
0、31は、黒目が目全体のどの位置にあるかという水
平方向、垂直方向それぞれの濃度分布を表し、前述の位
置情報及び濃淡画像から作成される。前述の濃度分布3
0、31と前述の水平方向標準パターン32、垂直方向
標準パターン33とをマッチング手段14において比較
し(S10、S11)、類似度を算出する(S12)。
類似度がもっとも高いものを視線の方向として出力する
(S13)。
FIG. 5 shows horizontal and vertical density distributions 30 and 31 corresponding to the black eyes of the eye portion 29 of the clipped grayscale image, and standard pattern distributions 32 and 33 prepared in advance. . Concentration distribution 3
Numerals 0 and 31 represent the horizontal and vertical density distributions of the positions of the black eyes in the entire eye, and are created from the position information and the grayscale image. Concentration distribution 3 above
The matching means 14 compares 0 and 31 with the horizontal standard pattern 32 and the vertical standard pattern 33 described above (S10, S11), and calculates the degree of similarity (S12).
The one with the highest degree of similarity is output as the direction of the line of sight (S13).

【0028】つぎに、本発明の第2の実施例について説
明する。
Next, a second embodiment of the present invention will be described.

【0029】図6は、視線方向検出装置を有する画面制
御装置の実施例を示す。表示用画面35の上部に視線検
出用カメラ34をもち、視線方向検出装置36により視
線方向を検出する。検出された視線の方向により画面制
御装置38によって画面35を制御する。例えば、図7
に示すように、使用者が画面上の任意の場所を見ること
により、その部分39を拡大した表示40を行なうこと
ができる。また、図8に示すように、使用者が上下左右
の任意の部分を見ることにより、その部分39が画面の
中央にくるよう画面を移動させ、常に画面の中央に対象
物がくるよう制御する。これらの機能は切替えスイッチ
部37により切替えることができる。切替えスイッ部3
7は例えば片目だけ目を閉じる、あるいはスイッチのオ
ンオフにより切替えることができる。
FIG. 6 shows an embodiment of a screen control device having a line-of-sight direction detecting device. A line-of-sight detection camera 34 is provided above the display screen 35, and the line-of-sight direction detection device 36 detects the line-of-sight direction. The screen control device 38 controls the screen 35 according to the direction of the detected line of sight. For example, FIG.
As shown in FIG. 3, the user can view the arbitrary place on the screen to display the enlarged portion 40 of the portion 39. Further, as shown in FIG. 8, the user looks at an arbitrary part in the upper, lower, left, and right directions to move the screen so that the part 39 is located at the center of the screen, and the object is always controlled to be located at the center of the screen. . These functions can be switched by the changeover switch unit 37. Switching switch part 3
For example, 7 can be switched by closing one eye or turning the switch on and off.

【0030】つぎに、本発明の第3の実施例について説
明する。
Next, a third embodiment of the present invention will be described.

【0031】図9は、視線方向検出装置を有する文書処
理装置の構成の実施例を示す。図10は、視線方向検出
装置を有する文書処理装置の処理のフローチャートを示
す。使用者が原稿を見ながら入力する場合(S21)、
タイプミスをすることが多く発生する。そこで、視線方
向検出装置によって視線方向を検出し(S22)、使用
者が原稿を見ている場合、すなわち、視線が表示装置4
3を向いていない場合に、入力している文字を読み上げ
るための音声出力装置44をつうじて音声を出力するこ
とができる。したがって、文字入力部40から入力して
いる文字を視覚で確認することなく音声で確認できるた
め、処理を効率的に行うことができる。例えば、視線方
向認識装置41により「視線がモニター部(表示装置)
にない。」と判定された場合(S23)、入力された文
字を音声出力する(S24)。「視線がモニター部に戻
った。」と判定されると(S23)、音声出力を中断
し、例えば一定時間カーソルを別の色で点滅させてカー
ソル位置を見つけやすく表示する(S25)。これによ
りモニター部を見ることなく入力されたものを確認する
ことが可能となる。
FIG. 9 shows an embodiment of the configuration of a document processing apparatus having a line-of-sight direction detecting device. FIG. 10 shows a flowchart of processing of the document processing apparatus having the line-of-sight direction detection device. When the user inputs while looking at the document (S21),
I often make typos. Therefore, the line-of-sight direction detection device detects the line-of-sight direction (S22), and when the user is looking at the document, that is, the line-of-sight is displayed on the display device 4.
When the user does not face 3, the voice can be output through the voice output device 44 for reading the input character. Therefore, the character input from the character input unit 40 can be confirmed by voice without visually confirming, so that the processing can be efficiently performed. For example, by the line-of-sight direction recognition device 41, "the line of sight is a monitor unit (display device)"
Not in Is determined (S23), the input character is output by voice (S24). When it is determined that the line of sight has returned to the monitor unit (S23), the voice output is interrupted, and the cursor position is displayed in blinking in another color, for example, for a certain period of time so that the cursor position is displayed easily (S25). This makes it possible to confirm what has been input without looking at the monitor.

【0032】つぎに、第4の実施例について説明する。Next, a fourth embodiment will be described.

【0033】図11は、視線方向検出装置50と顔方向
検出装置51を有する視線一致検出装置52の構成を示
す図である。図12は、顔方向検出装置51の構成を示
す図である。顔方向検出装置は、画像入力手段53とエ
ッジ抽出手段54aと顔部分切りだし手段54bと特徴
量抽出手段55とマッチング手段56aと方向出力手段
56bとから構成される。顔方向検出装置では顔付近の
画像をもとに、エッジ抽出手段54aによってエッジ情
報を抽出し、顔部分切りだし手段54bによって顔部分
を切り出す。特徴量抽出手段55において前述のエッジ
情報を標準化し、マッチング手段56aにおいて標準パ
ターンとの類似度を算出し、類似度のもっとも高いもの
を顔方向出力手段によって顔方向として出力する。前述
の視線方向検出装置及び顔方向検出装置の出力により
「視線の一致」やいわゆる「目の泳ぎ」(考え中)を例
えば図13に示される対応表により出力する。
FIG. 11 is a diagram showing the structure of a line-of-sight coincidence detecting device 52 having a line-of-sight direction detecting device 50 and a face direction detecting device 51. FIG. 12 is a diagram showing a configuration of the face direction detecting device 51. The face direction detecting device is composed of an image input means 53, an edge extracting means 54a, a face part cutting means 54b, a feature amount extracting means 55, a matching means 56a and a direction output means 56b. In the face direction detecting device, edge information is extracted by the edge extracting means 54a based on the image near the face, and the face portion is cut out by the face portion cutting means 54b. The feature amount extraction means 55 standardizes the above-mentioned edge information, the matching means 56a calculates the similarity with the standard pattern, and the one with the highest similarity is output as the face direction by the face direction output means. By the outputs of the line-of-sight direction detection device and the face direction detection device described above, “matching of line-of-sight” or so-called “eye swimming” (under consideration) is output, for example, in the correspondence table shown in FIG.

【0034】つぎに、第5の実施例について説明する。Next, a fifth embodiment will be described.

【0035】上記視線方向判定方法を用いた視線方向判
定装置、顔方向認識装置、音声認識装置を有するマルチ
モーダル対話装置について図面を参照して説明する。こ
こでいうマルチモーダル対話装置とは、従来の単入力に
よる対話装置に対して音声、顔の向き、視線の方向、う
なずきといった多元的な情報を入力とする対話装置であ
る。
A multi-modal dialogue device having a line-of-sight direction determination device, a face direction recognition device, and a voice recognition device using the above-described line-of-sight direction determination method will be described with reference to the drawings. The multi-modal dialogue device mentioned here is a dialogue device which inputs multi-dimensional information such as voice, face direction, gaze direction, and nod to a conventional single-input dialogue device.

【0036】図14は、コンピュータとの対話装置にお
いて自然な顔の向き、視線の動きからオペレータの情報
を得るためのマルチモーダル対話装置を示す。図14に
示すように、マルチモーダル対話装置は、前述の視線方
向検出装置50と顔方向検出装置51、音声認識装置5
9、マルチモーダル対話制御装置60、画像出力装置6
1及び音声出力装置62から構成される。
FIG. 14 shows a multi-modal dialogue device for obtaining information of an operator from natural face direction and line-of-sight movement in a dialogue device with a computer. As shown in FIG. 14, the multi-modal dialogue device includes the above-described gaze direction detection device 50, face direction detection device 51, and voice recognition device 5.
9, multi-modal dialogue control device 60, image output device 6
1 and audio output device 62.

【0037】図15は、音声入力手段63、音声解析手
段64とキーワード抽出手段65を有する音声認識装置
59の構成を示す図である。対話における発話を音声入
力手段63により取り込み、音声解析手段64によって
発話内容を解析する。解析された発話内容よりキーワー
ド抽出手段65においてキーワードを抽出する。
FIG. 15 is a diagram showing the structure of a voice recognition device 59 having a voice input means 63, a voice analysis means 64 and a keyword extraction means 65. The speech input means 63 captures the speech in the dialogue, and the speech analysis means 64 analyzes the speech content. The keyword extraction unit 65 extracts a keyword from the analyzed utterance content.

【0038】図14に戻って、視線方向検出装置50で
はスクリーンに対してどの方向を見ているかという視線
の方向を検出し、顔方向検出装置51ではスクリーンに
対する顔の向きを検出する。これらの検出結果を基に対
話の際に、例えば図13に示すように、顔の向きが正面
を向き、視線の向きが正面を向いているなら視線が一致
していると判断し対話を継続する。顔は正面を向いてい
るが、視線が外れている時には「考え中」であると判断
し、対話制御装置60において対話の進行を止める。顔
の向き視線とも外れている時には顔の向き、視線が正面
を向くまで対話を中断する。
Returning to FIG. 14, the line-of-sight direction detection device 50 detects the direction of the line-of-sight to see which direction the screen is viewed, and the face direction detection device 51 detects the direction of the face with respect to the screen. In the dialogue based on these detection results, for example, as shown in FIG. 13, if the face is facing the front and the line of sight is facing the front, it is determined that the lines of sight match and the dialogue is continued. To do. Although the face is facing the front, when the line of sight is off, it is determined to be "thinking", and the dialogue control device 60 stops the progress of the dialogue. Face direction When the line of sight is not visible, the dialogue is interrupted until the face is facing and the line of sight is facing the front.

【0039】図16は、発話(それ)の指示オブジェク
トを推定する方法のフローチャートを示す。音声認識装
置59において例えば「それ」という発話を検出した場
合(S31)、その検出時刻における顔の向き、視線の
方向を顔方向検出装置51、視線方向検出装置50によ
って検出し(S33、S34)、これを総合的に判断す
ることにより、指定オブジェクトジェクトを推定する
(S35)、すなわち、使用者が何を指して「それ」と
発話したかを理解することができる。
FIG. 16 shows a flowchart of a method for estimating the pointing object of the utterance (it). When the speech recognition device 59 detects, for example, the utterance "that" (S31), the face direction and the line-of-sight direction at the detection time are detected by the face direction detection device 51 and the line-of-sight direction detection device 50 (S33, S34). By comprehensively judging this, the designated object eject is estimated (S35), that is, it is possible to understand what the user has pointed out and said "it".

【0040】[0040]

【発明の効果】請求項1に記載の発明の方法によれば、
頭部に装置を装着することなく人間の視線方向を検出す
ることが可能となる。
According to the method of the invention described in claim 1,
It is possible to detect the line-of-sight direction of a person without mounting the device on the head.

【0041】請求項2に記載の発明の装置によれば、頭
部に装置を装着することなく人間の視線方向を検出する
装置が実現される。
According to the apparatus of the invention as defined in claim 2, an apparatus for detecting the direction of the line of sight of a person is realized without mounting the apparatus on the head.

【0042】請求項3に記載の画面制御装置によれば、
視線の位置を有効に活用して、切替えスイッチにより視
線部分を拡大表示する機能と視線部分をスクロールさせ
視線部分が中央に位置する機能とを使い分けることがで
きる。したがって、編集作業を容易に行うことができ、
作業効率をあげることができる。
According to the screen control device of the third aspect,
By effectively utilizing the position of the line of sight, it is possible to selectively use the function of enlarging and displaying the line of sight by the changeover switch and the function of scrolling the line of sight to locate the line of sight at the center. Therefore, editing work can be performed easily,
Work efficiency can be improved.

【0043】請求項4に記載の文書処理装置によれば、
画面を見ずに入力している場合には音声出力装置を用い
て入力文字を音声出力することにより画面の確認を不要
とするため入力が容易となり、誤入力を減少させること
ができる。したがって、編集作業を容易に行うことがで
きる。
According to the document processing apparatus of the fourth aspect,
When inputting without looking at the screen, the voice output device is used to output the input characters by voice, so that confirmation of the screen is not required, so that the input becomes easy and erroneous input can be reduced. Therefore, the editing work can be easily performed.

【0044】請求項5に記載の視線一致検出装置によれ
ば、視線方向検出装置によって検出された視線の方向と
前記顔方向検出装置によって検出された顔の方向とか
ら、使用者の状態を把握することができ、マンマシンの
対話をスムーズに進行させることが可能となる。
According to the line-of-sight coincidence detection device of the fifth aspect, the state of the user is grasped from the direction of the line-of-sight detected by the line-of-sight direction detection device and the face direction detected by the face direction detection device. Therefore, it is possible to smoothly advance the man-machine dialogue.

【0045】請求項6に記載のマルチモーダル対話装置
によれば、視線があっているかどうかの判定や何を見て
いるかという使用者の状態を総合的に把握することが可
能となる。したがって、使用者の顔の動きや目の動きを
理解して、コンピュータと使用者との自然な対話を実現
することができる。
According to the multi-modal dialog device of the sixth aspect, it is possible to comprehensively grasp the state of the user such as whether or not he or she is in line of sight and what he is looking at. Therefore, it is possible to realize the natural dialogue between the computer and the user by understanding the movement of the face and the movement of the eye of the user.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の視線方向検出装置の構成の概要を示す
図である。
FIG. 1 is a diagram showing an outline of a configuration of a line-of-sight direction detection device of the present invention.

【図2】本発明の視線方向検出装置の構成の詳細を示す
図である。
FIG. 2 is a diagram showing details of a configuration of a line-of-sight direction detection device of the present invention.

【図3】本発明の視線方向検出方法を示すフローチャー
トである。
FIG. 3 is a flowchart showing a gaze direction detecting method of the present invention.

【図4】目部分を切り出すための画像処理を示す図であ
る。
FIG. 4 is a diagram showing image processing for cutting out an eye portion.

【図5】抽出された特徴量と標準パターンとを示す図で
ある。
FIG. 5 is a diagram showing extracted feature quantities and standard patterns.

【図6】視線入力による画面(スクリーン)制御装置を
示す図である。
FIG. 6 is a diagram showing a screen control device by line-of-sight input.

【図7】画面制御装置のズーミング機能の例を示す図で
ある。
FIG. 7 is a diagram showing an example of a zooming function of a screen control device.

【図8】画面制御装置のスクロール機能を示す図であ
る。
FIG. 8 is a diagram showing a scroll function of the screen control device.

【図9】視線方向判定装置を有する文書処理装置の構成
を示す図である。
FIG. 9 is a diagram showing a configuration of a document processing device having a gaze direction determination device.

【図10】音声出力機能を持つ文書処理装置の処理のフ
ローを示す図である。
FIG. 10 is a diagram showing a processing flow of a document processing apparatus having a voice output function.

【図11】視線一致検出装置の構成を示す図である。FIG. 11 is a diagram showing a configuration of a line-of-sight match detection device.

【図12】顔方向判定部の構成を示す図である。FIG. 12 is a diagram showing a configuration of a face direction determination unit.

【図13】視線の向きと顔の向きを統合した場合の装置
の判断の一例を示す図である。
FIG. 13 is a diagram showing an example of the determination made by the device when the line-of-sight direction and the face direction are integrated.

【図14】本発明のマルチモーダル対話装置の構成を示
す図である。
FIG. 14 is a diagram showing a configuration of a multimodal dialogue device of the present invention.

【図15】音声入力部の構成を示す図である。FIG. 15 is a diagram showing a configuration of a voice input unit.

【図16】発話タイミングによる指示物の推定フローチ
ャートである。
FIG. 16 is a flowchart for estimating a pointing object based on speech timing.

【図17】従来例の視線方向検出装置の構成を示す図で
ある。
FIG. 17 is a diagram showing a configuration of a conventional line-of-sight direction detection device.

【図18】別の従来例の視線方向検出装置の動作原理を
示す図である。
FIG. 18 is a diagram showing an operation principle of another conventional gaze direction detecting device.

【符号の説明】[Explanation of symbols]

1 撮像装置 2 画像入力部 3 画像処理部 4 視線方向判定部 18 画像入力手段 19 エッジ抽出手段 20 目部切り出し手段 21 ノイズ除去手段 22 濃淡化手段 23 特徴量抽出手段 24 マッチング手段 25 方向出力手段 DESCRIPTION OF SYMBOLS 1 Imaging device 2 Image input unit 3 Image processing unit 4 Line-of-sight direction determination unit 18 Image input means 19 Edge extraction means 20 Eye segment cutout means 21 Noise removal means 22 Gradation means 23 Feature amount extraction means 24 Matching means 25 Direction output means

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 視線がどの方向を向いているかを検出す
る視線方向検出手法であって、顔の部分の画像から目の
部分の画像を切り出すステップと、目の位置情報を表す
特徴量を抽出するステップと、前記特徴量と標準パター
ンとの比較を行うステップと、前記比較の結果に基づい
て視線方向を出力するステップとを含む視線方向検出方
法。
1. A gaze direction detecting method for detecting in which direction the gaze is directed, the step of cutting out an image of an eye part from an image of a face part, and extracting a feature amount representing eye position information. And a step of comparing the feature amount with the standard pattern, and a step of outputting the line-of-sight direction based on the result of the comparison.
【請求項2】 視線がどの方向を向いているかを検出す
る視線方向検装置であって、顔の部分の画像を取り込む
画像入力手段と、取り込んだ顔の部分の画像から目の部
分の画像を切り出す目部分切りだし手段と、目の位置情
報を表す特徴量を抽出する特徴量抽出手段と、前記特徴
量と標準パターンとの比較を行うマッチング手段と、前
記比較の結果に基づいて視線方向を出力する視線方向出
力手段とを含む視線方向検出装置。
2. A line-of-sight direction detection device for detecting in which direction the line of sight is directed, comprising image input means for capturing an image of a face portion, and an image of an eye portion from the captured image of the face portion. Eye segment cutting means for cutting out, feature amount extracting means for extracting a feature amount representing eye position information, matching means for comparing the feature amount with a standard pattern, and a line-of-sight direction based on the result of the comparison. A line-of-sight direction detection device including a line-of-sight direction output means for outputting.
【請求項3】 請求項2に記載の視線方向検出装置を備
えた画像制御装置であって、前記視線方向検出装置の検
出した視線の方向に基づいて画面の制御を行う画面制御
装置。
3. An image control device comprising the line-of-sight direction detection device according to claim 2, wherein the screen control device controls the screen based on the direction of the line-of-sight detected by the line-of-sight direction detection device.
【請求項4】 請求項2に記載の視線方向検出装置と文
字入力装置と表示装置と音声出力装置とを備えた文書処
理装置であって、前記視線方向検出装置によって検出さ
れた使用者の視線方向が、前記表示装置の表示画面にな
い場合に、使用者によって入力された文字を前記音声出
力装置に出力し、入力された文字を使用者が音声で確認
できるようにすることを特徴とする文書処理装置。
4. A document processing device comprising the line-of-sight direction detection device, the character input device, the display device, and the voice output device according to claim 2, wherein the line-of-sight of the user detected by the line-of-sight direction detection device. When the direction is not on the display screen of the display device, the character input by the user is output to the voice output device so that the user can confirm the input character by voice. Document processing device.
【請求項5】 請求項2に記載の視線方向検出装置と顔
の向きを判定する顔方向検出装置とを備えた視線一致検
出装置であって、前記視線方向検出装置によって検出さ
れた視線の方向と前記顔方向検出装置によって検出され
た顔の方向とから、使用者の状態を把握することを特徴
とする視線一致検出装置。
5. A line-of-sight coincidence detection device comprising the line-of-sight direction detection device according to claim 2 and a face direction detection device for determining a face direction, wherein the line-of-sight direction detected by the line-of-sight direction detection device. And a face direction detected by the face direction detection device, to grasp the state of the user, a line-of-sight coincidence detection device.
【請求項6】 請求項2に記載の視線方向検出装置と顔
の向きを判定する顔方向検出装置とを備えたマルチモー
ダル対話装置であって、前記視線方向検出装置によって
検出された視線の方向と前記顔方向検出装置によって検
出された顔の方向とから、対話時における使用者の状態
を理解することを特徴とするマルチモーダル対話装置。
6. A multi-modal dialogue device comprising the line-of-sight direction detection device according to claim 2 and a face direction detection device for determining a face direction, wherein the line-of-sight direction detected by the line-of-sight direction detection device. And a face direction detected by the face direction detecting device, for understanding a state of a user during a conversation.
JP13047495A 1995-05-29 1995-05-29 Gaze direction detecting method and apparatus and man-machine interface apparatus including the same Expired - Lifetime JP3272906B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13047495A JP3272906B2 (en) 1995-05-29 1995-05-29 Gaze direction detecting method and apparatus and man-machine interface apparatus including the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13047495A JP3272906B2 (en) 1995-05-29 1995-05-29 Gaze direction detecting method and apparatus and man-machine interface apparatus including the same

Publications (2)

Publication Number Publication Date
JPH08322796A true JPH08322796A (en) 1996-12-10
JP3272906B2 JP3272906B2 (en) 2002-04-08

Family

ID=15035118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13047495A Expired - Lifetime JP3272906B2 (en) 1995-05-29 1995-05-29 Gaze direction detecting method and apparatus and man-machine interface apparatus including the same

Country Status (1)

Country Link
JP (1) JP3272906B2 (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1124603A (en) * 1997-07-04 1999-01-29 Sanyo Electric Co Ltd Information display device and information collecting device
US5909269A (en) * 1997-02-10 1999-06-01 Nidek Co., Ltd. Ophthalmic apparatus
EP1045586A2 (en) * 1999-04-14 2000-10-18 Canon Kabushiki Kaisha Image processing apparatus
JP2003029777A (en) * 2001-07-16 2003-01-31 Sharp Corp Voice processing device, voice processing method, and recording medium on which program to execute the method is recorded
WO2005124735A1 (en) * 2004-06-18 2005-12-29 Nec Corporation Image display system, image display method, and image display program
JP2006059147A (en) * 2004-08-20 2006-03-02 Kiyomi Nakamura Computer input method and device
US7117157B1 (en) 1999-03-26 2006-10-03 Canon Kabushiki Kaisha Processing apparatus for determining which person in a group is speaking
JP2007310914A (en) * 2007-08-31 2007-11-29 Nippon Telegr & Teleph Corp <Ntt> Mouse alternating method, mouse alternating program and recording medium
WO2007141857A1 (en) * 2006-06-08 2007-12-13 Olympus Corporation External appearance inspection device
EP1962509A1 (en) * 2005-11-17 2008-08-27 Aisin Seiki Kabushiki Kaisha Vehicle surrounding display device
JP2011184044A (en) * 2011-06-15 2011-09-22 Aisin Seiki Co Ltd Vehicle surroundings display device
CN103054549A (en) * 2012-12-29 2013-04-24 西安交通大学 Wearable portable device and method for analyzing eye movement
TWI408361B (en) * 2004-12-10 2013-09-11 Olympus Corp Visual inspection apparatus
JP2015097123A (en) * 2010-04-16 2015-05-21 クアルコム,インコーポレイテッド Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size
JP2015204021A (en) * 2014-04-15 2015-11-16 株式会社デンソー Visual line detection device and visual line detection method
WO2015182979A1 (en) * 2014-05-27 2015-12-03 삼성전자주식회사 Image processing method and image processing apparatus
JP2016224691A (en) * 2015-05-29 2016-12-28 富士通株式会社 Sight line calibration program, sight line calibration device, and sight line calibration method
DE102018123114A1 (en) 2017-11-20 2019-05-23 Toyota Jidosha Kabushiki Kaisha control unit
KR20210005200A (en) * 2018-06-01 2021-01-13 애플 인크. Providing audio information using digital assistant

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100856966B1 (en) * 2004-06-18 2008-09-04 닛본 덴끼 가부시끼가이샤 Image display system, image display method and recording medium

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03165737A (en) * 1989-11-27 1991-07-17 Nippon Telegr & Teleph Corp <Ntt> Detecting method for line of sight direction
JPH04101209A (en) * 1990-08-20 1992-04-02 Matsushita Electric Ind Co Ltd Character input confirming device
JPH04282129A (en) * 1991-03-08 1992-10-07 Fujitsu Ltd Gaze point analyzing device
JPH05298015A (en) * 1992-04-23 1993-11-12 Matsushita Electric Ind Co Ltd Glance detecting system and information processing system
JPH0612206A (en) * 1992-06-29 1994-01-21 Fuji Xerox Co Ltd Input/output device
JPH06266497A (en) * 1993-03-11 1994-09-22 Toshiba Corp Man-machine interface device
JPH06270712A (en) * 1993-03-16 1994-09-27 Aisin Seiki Co Ltd Inattentive driving alarming device
JPH06269411A (en) * 1991-10-07 1994-09-27 Konami Kk Retinal reflected light quantity measuring instrument and line-of-sight detector using the same
JPH06321030A (en) * 1993-05-11 1994-11-22 Yazaki Corp Vehicular voice output device
JPH07249197A (en) * 1994-03-10 1995-09-26 Mitsubishi Electric Corp Detecting device for state of person

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03165737A (en) * 1989-11-27 1991-07-17 Nippon Telegr & Teleph Corp <Ntt> Detecting method for line of sight direction
JPH04101209A (en) * 1990-08-20 1992-04-02 Matsushita Electric Ind Co Ltd Character input confirming device
JPH04282129A (en) * 1991-03-08 1992-10-07 Fujitsu Ltd Gaze point analyzing device
JPH06269411A (en) * 1991-10-07 1994-09-27 Konami Kk Retinal reflected light quantity measuring instrument and line-of-sight detector using the same
JPH05298015A (en) * 1992-04-23 1993-11-12 Matsushita Electric Ind Co Ltd Glance detecting system and information processing system
JPH0612206A (en) * 1992-06-29 1994-01-21 Fuji Xerox Co Ltd Input/output device
JPH06266497A (en) * 1993-03-11 1994-09-22 Toshiba Corp Man-machine interface device
JPH06270712A (en) * 1993-03-16 1994-09-27 Aisin Seiki Co Ltd Inattentive driving alarming device
JPH06321030A (en) * 1993-05-11 1994-11-22 Yazaki Corp Vehicular voice output device
JPH07249197A (en) * 1994-03-10 1995-09-26 Mitsubishi Electric Corp Detecting device for state of person

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5909269A (en) * 1997-02-10 1999-06-01 Nidek Co., Ltd. Ophthalmic apparatus
JPH1124603A (en) * 1997-07-04 1999-01-29 Sanyo Electric Co Ltd Information display device and information collecting device
US7117157B1 (en) 1999-03-26 2006-10-03 Canon Kabushiki Kaisha Processing apparatus for determining which person in a group is speaking
EP1045586A2 (en) * 1999-04-14 2000-10-18 Canon Kabushiki Kaisha Image processing apparatus
EP1045586A3 (en) * 1999-04-14 2002-08-07 Canon Kabushiki Kaisha Image processing apparatus
JP2003029777A (en) * 2001-07-16 2003-01-31 Sharp Corp Voice processing device, voice processing method, and recording medium on which program to execute the method is recorded
JP4675514B2 (en) * 2001-07-16 2011-04-27 シャープ株式会社 Audio processing apparatus, audio processing method, and computer-readable recording medium storing a program for performing the method
US7839423B2 (en) 2004-06-18 2010-11-23 Nec Corporation Image display system with gaze directed zooming
JPWO2005124735A1 (en) * 2004-06-18 2008-07-31 日本電気株式会社 Image display system, image display method, and image display program
WO2005124735A1 (en) * 2004-06-18 2005-12-29 Nec Corporation Image display system, image display method, and image display program
JP2006059147A (en) * 2004-08-20 2006-03-02 Kiyomi Nakamura Computer input method and device
TWI408361B (en) * 2004-12-10 2013-09-11 Olympus Corp Visual inspection apparatus
EP1962509A1 (en) * 2005-11-17 2008-08-27 Aisin Seiki Kabushiki Kaisha Vehicle surrounding display device
EP1962509A4 (en) * 2005-11-17 2010-08-18 Aisin Seiki Vehicle surrounding display device
US8115811B2 (en) 2005-11-17 2012-02-14 Aisin Seiki Kabushiki Kaisha Vehicle surrounding area display device
WO2007141857A1 (en) * 2006-06-08 2007-12-13 Olympus Corporation External appearance inspection device
JPWO2007141857A1 (en) * 2006-06-08 2009-10-15 オリンパス株式会社 Appearance inspection device
JP2007310914A (en) * 2007-08-31 2007-11-29 Nippon Telegr & Teleph Corp <Ntt> Mouse alternating method, mouse alternating program and recording medium
JP2015097123A (en) * 2010-04-16 2015-05-21 クアルコム,インコーポレイテッド Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size
JP2011184044A (en) * 2011-06-15 2011-09-22 Aisin Seiki Co Ltd Vehicle surroundings display device
CN103054549A (en) * 2012-12-29 2013-04-24 西安交通大学 Wearable portable device and method for analyzing eye movement
JP2015204021A (en) * 2014-04-15 2015-11-16 株式会社デンソー Visual line detection device and visual line detection method
WO2015182979A1 (en) * 2014-05-27 2015-12-03 삼성전자주식회사 Image processing method and image processing apparatus
US10176374B2 (en) 2014-05-27 2019-01-08 Samsung Electronics Co., Ltd. Image processing method and apparatus
JP2016224691A (en) * 2015-05-29 2016-12-28 富士通株式会社 Sight line calibration program, sight line calibration device, and sight line calibration method
DE102018123114A1 (en) 2017-11-20 2019-05-23 Toyota Jidosha Kabushiki Kaisha control unit
US10890980B2 (en) 2017-11-20 2021-01-12 Toyota Jidosha Kabushiki Kaisha Operating apparatus for estimating an operation intention intended by a face direction
KR20210005200A (en) * 2018-06-01 2021-01-13 애플 인크. Providing audio information using digital assistant

Also Published As

Publication number Publication date
JP3272906B2 (en) 2002-04-08

Similar Documents

Publication Publication Date Title
JP3272906B2 (en) Gaze direction detecting method and apparatus and man-machine interface apparatus including the same
JP7016263B2 (en) Systems and methods that enable communication through eye feedback
TWI669103B (en) Information processing device, information processing method and program
JP6534292B2 (en) Head mounted display and control method of head mounted display
US20060281969A1 (en) System and method for operation without touch by operators
US7216982B2 (en) Eye image taking device
US20020039111A1 (en) Automated visual tracking for computer access
JP2002529763A (en) Eye tracking system
JP2006350705A (en) Information providing device, method, and program
CN110352033A (en) Eyes degree of opening is determined with eye tracks device
JP2006293786A (en) Market research apparatus having visual line input unit
JP5077879B2 (en) Gaze input device, gaze input method, and gaze input program
CN108369451B (en) Information processing apparatus, information processing method, and computer-readable storage medium
US11281893B2 (en) Method and device for modifying the affective visual information in the field of vision of an user
Czuszynski et al. Septic safe interactions with smart glasses in health care
JPH05298015A (en) Glance detecting system and information processing system
US11328187B2 (en) Information processing apparatus and information processing method
JP2007310914A (en) Mouse alternating method, mouse alternating program and recording medium
JPH09212082A (en) Visual line input device
JP4088282B2 (en) Computer input method and apparatus
JPH1039995A (en) Line-of-sight/voice input device
JP2020123396A (en) Eye pointing system operated by eyes
JPH1173273A (en) Inputting device for physically handicapped person
Bilal et al. Design a Real-Time Eye Tracker
JP6700849B2 (en) Measuring system

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080125

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090125

Year of fee payment: 7

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090125

Year of fee payment: 7

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090125

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100125

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110125

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120125

Year of fee payment: 10

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120125

Year of fee payment: 10

EXPY Cancellation because of completion of term