JPH09167049A - Line of sight input device for console - Google Patents

Line of sight input device for console

Info

Publication number
JPH09167049A
JPH09167049A JP7327493A JP32749395A JPH09167049A JP H09167049 A JPH09167049 A JP H09167049A JP 7327493 A JP7327493 A JP 7327493A JP 32749395 A JP32749395 A JP 32749395A JP H09167049 A JPH09167049 A JP H09167049A
Authority
JP
Japan
Prior art keywords
gaze
line
input
sight
console
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7327493A
Other languages
Japanese (ja)
Inventor
Hiroshi Saito
浩 斎藤
Norimasa Kishi
則政 岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP7327493A priority Critical patent/JPH09167049A/en
Publication of JPH09167049A publication Critical patent/JPH09167049A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately move an input position mark to a necessary position by moving the input position mark like a cursor pointer in steps to the side of an area to which the line of sight an operator is directed. SOLUTION: A pupil extraction part 141 extracts a retia reflection image (pupil) from face image stored in an image memory 102. A gaze position calculation part 144 calculates a gaze position from the pupil position extracted by the pupil extraction part 141 and a cornea reflection position extracted by a cornea reflection image extraction part 142. A gaze area determination part 150 determines the area in which the line of sight direction is from the calculated gaze position. A cursor movement control part 172 performs control for moving the pointer cursor on a navigation image to the gaze position calculated by the gaze position calculation part 144 at a time in quick mode and to the area, where the line of sight of the operator is, determined by the gaze area determination part 150 in steps by a specific quantity in step mode.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、コンソール用視
線入力装置に関し、特にポインタカーソルにような入力
位置マークを画面表示されるディスプレイ付き各種装置
のためのコンソール用視線入力装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a console line-of-sight input device, and more particularly to a console line-of-sight input device for various devices with a display on which an input position mark such as a pointer cursor is displayed.

【0002】[0002]

【従来の技術】従来、入力装置としては、機械式スイッ
チや電気式スイッチ、電子式スイッチあるいは音声認識
を利用したスイッチ等が知られている。
2. Description of the Related Art Conventionally, as an input device, a mechanical switch, an electric switch, an electronic switch, a switch utilizing voice recognition, or the like has been known.

【0003】また、視線による情報入力の研究も行われ
ており、1眼レフカメラやビデオカメラ用として実用化
例が見られる。
[0003] In addition, research on information input by the line of sight has been conducted, and practical examples have been seen for single-lens reflex cameras and video cameras.

【0004】非接触で視線を測る提案は数多く行われて
おり、一般的にCCDカメラで顔の2次元画像を捉え、
眼球画像を抽出して視線方向を特定することが行われて
いる。
There have been many proposals for measuring the line of sight in a non-contact manner. Generally, a CCD camera captures a two-dimensional image of a face,
It is performed to extract the eyeball image and specify the line-of-sight direction.

【0005】計測した視線方向から、操作者の注視点を
決定できれば、各種機器の制御を行わせることが可能で
ある。
If the gaze point of the operator can be determined from the measured line-of-sight direction, various devices can be controlled.

【0006】例えば、特開平4−101126号公報で
は、スチールカメラの焦点制御や露出制御などを視線を
行わせることが可能な方法が開示されている。この発明
では、操作者の視線の存在する頻度や停留時間、軌跡を
求めることによって注視点を決定している。
For example, Japanese Patent Application Laid-Open No. 4-101126 discloses a method capable of performing line-of-sight control such as focus control and exposure control of a still camera. In this invention, the gazing point is determined by obtaining the frequency of the line of sight of the operator, the dwell time, and the trajectory.

【0007】詳しく説明すると、カメラのファインダを
複数の小領域に分割し、算出した視線方向が、どの小領
域に属するかを算出した後、時間的に連続した測定結果
を参照して、最も確率の高い注視領域を決定している。
また、別の実施例として、ファジー理論を適用した注視
領域の決定方法が説明されている。
More specifically, the viewfinder of the camera is divided into a plurality of small areas, which small area the calculated gaze direction belongs to is calculated, and then the most probable probability is obtained by referring to the time-continuous measurement results. Has a high gaze area.
In addition, as another example, a method of determining a gaze area using fuzzy theory is described.

【0008】[0008]

【発明が解決しようとする課題】上述のような従来の機
械式スイッチや電気式スイッチ、電子式スイッチの入力
装置にあっては、つぎのような問題点がある。
The conventional mechanical switch, electric switch, and electronic switch input device described above have the following problems.

【0009】(a)操作対象となるスイッチを目で探し
て手で操作すると云う一連の動作を必要とするため、例
えば、車載ナビゲーションシステムの目的地入力のよう
に複雑な操作(スケール変換、スクロール、ポイント設
定)では、地図を目で確認して手で操作し、結果を再び
目で確認すると云うループを数多く繰り返すことにな
り、操作性の観点からは必ずしも優れたマンマシン・イ
ンタフェースとは云い難い。
(A) Since a series of operations of manually searching for a switch to be operated and manually operating the switch are required, for example, complicated operations such as inputting a destination of an in-vehicle navigation system (scale conversion, scrolling). , Point setting), a map is visually checked, operated by hand, and the result is visually checked again and again, which means that it is not necessarily an excellent man-machine interface from the viewpoint of operability. hard.

【0010】(b)手の届く範囲にスイッチを設置しな
ければならず、装置のデザイン上の制約が生じる。
(B) The switch must be installed within a reach of the operator, which causes restrictions on the design of the device.

【0011】(c)リモートコントローラによる遠隔操
作が一般的になっているが、車載を考えると、リモート
コントローラの設置場所についての有効な案がなく、車
輛のの振動や車線変更、カーブ走行によってリモートコ
ントローラが不用意に移動してしまう。
(C) Although remote control by a remote controller has become common, there is no effective plan for the installation location of the remote controller in consideration of mounting on the vehicle, and the remote control is performed by vehicle vibration, lane change, or curve running. The controller moves carelessly.

【0012】また従来の音声認識による入力装置ではつ
ぎのような問題点がある。
Further, the conventional input device based on voice recognition has the following problems.

【0013】(a)指令の言葉を覚えておかなければな
らず、多くの操作を音声で行わせようとすると、指令語
の忘却や錯誤が発生する。
(A) The command word must be remembered, and if many operations are to be performed by voice, the command word will be forgotten or mistaken.

【0014】(b)使用者に発声を要求するため、人に
よっては好き嫌いが生じる。
(B) Since the user is required to speak, some people like and dislike it.

【0015】(c)スイッチ操作中は、言葉のコミュニ
ケーションが阻害される。
(C) Communication of words is hindered during switch operation.

【0016】(d)読めない言葉は発音できない。(D) Unreadable words cannot be pronounced.

【0017】先に述べたように、スイッチ操作には、ス
イッチ位置の確認やスイッチ動作状態の確認と云った視
覚に関わる作業が必ずといってよいほど発生する。
As described above, the switch operation always involves visual work such as confirmation of the switch position and confirmation of the switch operation state.

【0018】従って、視線のみで情報の伝達を行うこと
ができれば、スイッチ操作者の意図を、手指の操作や音
声を使うことなしに制御装置に伝達可能であると考えら
れる。
Therefore, it is considered that if the information can be transmitted only by the line of sight, the intention of the switch operator can be transmitted to the control device without using finger operation or voice.

【0019】視線を利用すれば、特定の情報入力に特定
の注視領域や特定の視線移動を対応付けられ、それらは
入力を行うコンソール上で確認できるため、指令の忘却
・錯誤と云った問題を解決できる。さらに、視線を利用
すれば、言葉のコミュニケーションを阻害しないため、
上述の問題を解決することができる。
If the line of sight is used, a specific gaze area or a specific line of sight movement can be associated with a specific information input, and these can be confirmed on the input console. Solvable. Furthermore, if you use your line of sight, it will not hinder verbal communication,
The above problem can be solved.

【0020】しかし、従来の視線入力装置ではつぎのよ
うな問題点がある。
However, the conventional line-of-sight input device has the following problems.

【0021】(a)一種のローパスフィルタを使用して
過去の計測の履歴を使用しているため、素早い視線の動
きに対応するのが難しい。計測結果が、実際の視線の動
きに一歩遅れる可能性がある。
(A) Since a history of past measurements is used by using a kind of low-pass filter, it is difficult to deal with quick movements of the line of sight. The measurement result may be one step behind the actual eye movement.

【0022】(b)注視点が領域単位で決定されるた
め、例えば、視線で小さなスイッチパネルを操作させよ
うと云う応用システムには適用が難しい。
(B) Since the gazing point is determined on a region-by-region basis, it is difficult to apply it to, for example, an application system in which a small switch panel is operated with the line of sight.

【0023】(c)注視点を精度よく求めようとする
と、必然的に視線計測の精度を向上させなければならな
い。システムのコストアップにつながるため得策ではな
い。
(C) In order to obtain the gazing point with high accuracy, it is inevitable to improve the accuracy of line-of-sight measurement. This is not a good idea as it will increase the cost of the system.

【0024】この発明は、上述の如き問題点に着目して
なされたものであり、視線計測の精度が悪くても、高精
度な位置指定を可能にし、また位置指定が素早く的確に
行われ得るように改善されたコンソール用視線入力装置
を提供することを目的としている。
The present invention has been made by paying attention to the problems as described above. Even if the accuracy of the line-of-sight measurement is poor, it is possible to specify the position with high accuracy, and the position can be specified quickly and accurately. An object of the present invention is to provide an improved visual axis input device for consoles.

【0025】[0025]

【課題を解決するための手段】上述の目的を達成するた
めに、この請求項1の発明は、入力位置マークを画面表
示し、入力位置マークの表示位置を入力位置とするコン
ソール用視線入力装置において、操作者の顔面領域の画
像を入力する画像入力手段と、前記画像入力手段による
画像データから操作者の注視位置を計測する注視位置計
測手段と、前記注視位置計測手段によって計測された注
視位置より操作者の視線方向が属する領域を決定する注
視領域決定手段と、前記注視領域決定手段によって決定
された領域の方向に前記入力位置マークをステップ移動
させる入力位置マーク移動制御手段とを有しているもの
である。
In order to achieve the above-mentioned object, the invention of claim 1 displays the input position mark on the screen and sets the display position of the input position mark as the input position. In, an image input means for inputting an image of the operator's face area, a gaze position measuring means for measuring the gaze position of the operator from the image data by the image input means, and a gaze position measured by the gaze position measuring means A gaze area determining unit that determines an area to which the operator's line-of-sight direction belongs, and an input position mark movement control unit that moves the input position mark stepwise in the direction of the area determined by the gaze area determining unit There is something.

【0026】この発明によるコンソール用視線入力装置
では、カーソルポインタのような入力位置マークが操作
者の視線方向が属する領域の側にステップ移動、即ち寸
動(ピッチ移動)し、入力位置マークを所要位置に的確
に移動させることができる。
In the console line-of-sight input device according to the present invention, the input position mark such as the cursor pointer is step-moved, that is, inching (pitch moved) toward the region to which the operator's line-of-sight direction belongs, and the input position mark is required. It can be moved exactly to the position.

【0027】また請求項2の発明は、請求項1に記載の
コンソール用視線入力装置において、前記入力位置マー
クのステップ移動量を操作者の同一領域の注視時間に応
じて変更するステップ移動量変更手段を有しているもの
である。
According to a second aspect of the present invention, in the console line-of-sight input device according to the first aspect, the step movement amount is changed to change the step movement amount of the input position mark in accordance with the gaze time of the same region of the operator. It has a means.

【0028】この発明によるコンソール用視線入力装置
では、操作者が同一領域を長く注視するほど入力位置マ
ークの一回のステップ移動量を大きくすることができ
る。
In the console line-of-sight input device according to the present invention, the amount of one step movement of the input position mark can be increased as the operator gazes at the same region longer.

【0029】また請求項3の発明は、請求項1または2
に記載のコンソール用視線入力装置において、前記入力
位置マーク移動制御手段は、前記注視領域決定手段によ
って決定された領域の方向に前記入力位置マークをステ
ップ移動させるステップモードと、前記注視位置計測手
段によって計測された注視位置に前記入力位置マークを
一気に移動させるクイックモードとを有し、何れか一方
のモードを選択設定されるものである。
The invention of claim 3 is the same as claim 1 or 2.
In the console line-of-sight input device described above, the input position mark movement control means, a step mode for moving the input position mark stepwise in the direction of the area determined by the gaze area determining means, and the gaze position measuring means. There is a quick mode in which the input position mark is moved to the measured gaze position all at once, and one of the modes is selected and set.

【0030】この発明によるコンソール用視線入力装置
では、入力位置マークが操作者の視線方向が属する領域
の側にステップ移動するステップモードと、入力位置マ
ークを操作者の注視位置に一気に移動させる従来のもの
と同等のクイックモードとが使い分けられる。
In the console visual line input device according to the present invention, the step mode in which the input position mark is stepwise moved to the side of the region to which the operator's line-of-sight direction belongs, and the conventional step position mode in which the input position mark is moved to the operator's gaze position at once. The quick mode equivalent to the one is used properly.

【0031】また請求項4の発明は、請求項3に記載の
コンソール用視線入力装置において、操作者の瞬きを検
出する眼球状態検出部を有し、モードの切り替えが眼球
状態検出部により検出される操作者の瞬きによって前記
モードが切り替えられるものである。
According to a fourth aspect of the present invention, in the visual line input device for a console according to the third aspect, there is an eyeball state detecting section for detecting the blink of the operator, and mode switching is detected by the eyeball state detecting section. The mode is switched according to the blink of the operator.

【0032】この発明によるコンソール用視線入力装置
では、操作者が瞬きすることによってステップモードと
クイックモードとの切り替えが行われる。
In the console visual line input device according to the present invention, the operator blinks to switch between the step mode and the quick mode.

【0033】また請求項5の発明は、請求項3記載のコ
ンソール用視線入力装置において、同一位置の注視時間
が所定値に達したことを計測する注視時間計測手段を有
し、前記注視時間計測手段により同一位置の注視時間が
所定値に達したことが計測されることによって前記モー
ドが切り替えられるものである。
According to a fifth aspect of the invention, in the console line-of-sight input apparatus according to the third aspect, there is gaze time measuring means for measuring that the gaze time at the same position has reached a predetermined value. The mode is switched by measuring that the gazing time at the same position has reached a predetermined value by the means.

【0034】この発明によるコンソール用視線入力装置
では、操作者が同じ位置を所定時間に亙って注視するこ
とによりステップモードとクイックモードとの切り替え
が行われる。
In the console visual line input device according to the present invention, the operator switches between the step mode and the quick mode by gazing at the same position for a predetermined time.

【0035】また請求項6の発明は、請求項3〜5の何
れかに記載のコンソール用視線入力装置において、前記
ステップモードと前記クイックモードとで前記入力位置
マークの形状、色を変更する入力位置マーク形状・色制
御手段を有しているものである。
According to a sixth aspect of the present invention, in the console line-of-sight input device according to any of the third to fifth aspects, the input for changing the shape and color of the input position mark in the step mode and the quick mode is performed. It has a position mark shape / color control means.

【0036】この発明によるコンソール用視線入力装置
では、ステップモードとクイックモードとで入力位置マ
ークの形状、色が変更し、入力位置マークの形状、色よ
りステップモードであるか、クイックモードであるかが
分かる。
In the console line-of-sight input device according to the present invention, the shape and color of the input position mark are changed between the step mode and the quick mode. Whether the step position mode or the quick mode is selected depending on the shape and color of the input position mark. I understand.

【0037】[0037]

【発明の効果】請求項1によるコンソール用視線入力装
置では、入力位置マークが操作者の視線方向が属する領
域の側にステップ移動するから、視線計測精度が悪くて
も、大まかな視線方向が計測できさえすれば、所定の位
置まで高精度に入力位置マークカーソルポインタを移動
させることが可能となり、高精度な位置指定が可能にと
共に、コンソールの画面上の各種マーカのサイズを小さ
くでき、デザインの自由度が増す。
In the console visual line input device according to the present invention, since the input position mark is stepwise moved to the side of the region to which the visual line direction of the operator belongs, the rough visual line direction is measured even if the visual line measurement accuracy is poor. If possible, it is possible to move the input position mark cursor pointer to a predetermined position with high accuracy, which enables high-accuracy position specification and reduces the size of various markers on the console screen. The degree of freedom increases.

【0038】また視線の移動方向と入力位置マークの移
動方向を一致させれば、ちらっと右を見た時に入力位置
マークが1ステップ右側へ移動すると云う、人間の感覚
に合ったインタフェースを実現することができる。
Further, if the moving direction of the line-of-sight and the moving direction of the input position mark are made to coincide with each other, the input position mark moves to the right one step when glancing at the right. You can

【0039】請求項2によるコンソール用視線入力装置
では、操作者が同一領域を長く注視するほど入力位置マ
ークの一回のステップ移動量を大きくすることができる
から、操作者の意志に応じて入力位置マークの一回のス
テップ移動量が変化し、入力位置マークを所要位置に的
確に移動させることと迅速に移動させることとが操作性
よく両立する。
In the console line-of-sight input device according to the second aspect, the longer the operator looks at the same area, the larger the step movement amount of the input position mark can be made. Therefore, the input can be made according to the intention of the operator. The amount of one step movement of the position mark changes, so that the input position mark can be accurately moved to the required position and moved quickly with good operability.

【0040】請求項3によるコンソール用視線入力装置
では、入力位置マークが操作者の視線方向が属する領域
の側にステップ移動するステップモードと、入力位置マ
ークを操作者の注視位置に一気に移動させる従来のもの
と同等のクイックモードとが使い分けられるから、入力
位置マークの表示画面上をランダムにアクセスして目的
位置付近まで入力位置マークをクイックモードで素早く
移動させ、その後にステップモードに切り替え、精度良
く目的位置へ入力位置マークを移動させるこができ、視
線入力に要する時間を短縮することが可能となる。換言
すれば、高速高精度な位置入力が可能になる。
In the console line-of-sight input apparatus according to the third aspect, the step mode in which the input position mark is stepwise moved to the side of the region to which the operator's line-of-sight direction belongs, and the conventional input position mark is moved all at once to the operator's gaze position. Since the quick mode equivalent to the one of the above is used separately, the input position mark is randomly accessed on the display screen to quickly move the input position mark to the vicinity of the target position in the quick mode, then switch to the step mode and accurately. The input position mark can be moved to the target position, and the time required for line-of-sight input can be shortened. In other words, high-speed and high-accuracy position input becomes possible.

【0041】請求項4によるコンソール用視線入力装置
では、操作者が瞬きすることによってステップモードと
クイックモードとの切り替えが行われるから、モード切
り替えもキー操作を要することなく非接触で、面倒なく
行われる。
In the console line-of-sight input device according to the fourth aspect, since the operator switches between the step mode and the quick mode by blinking, the mode switching can be performed in a non-contact manner without any key operation and without trouble. Be seen.

【0042】請求項5によるコンソール用視線入力装置
では、操作者が同じ位置を所定時間に亙って注視するこ
とによりステップモードとクイックモードとの切り替え
が行われるから、モード切り替えもキー操作を要するこ
となく非接触で、面倒なく行われる。
In the console line-of-sight input device according to the fifth aspect, since the operator switches between the step mode and the quick mode by gazing at the same position for a predetermined time, the mode switching also requires a key operation. Without contact and without hassle.

【0043】請求項6によるコンソール用視線入力装置
では、ステップモードとクイックモードとで入力位置マ
ークの形状、色が変わるから、入力位置マークの形状、
色よりステップモードであるか、クイックモードである
かが分かり、使いやすさが向上する。
In the console line-of-sight input device according to the sixth aspect, since the shape and color of the input position mark are changed between the step mode and the quick mode, the shape of the input position mark,
Easier to use because you can see whether it is step mode or quick mode from the color.

【0044】[0044]

【発明の実施の形態】以下に添付の図を参照してこの発
明の実施の形態を詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

【0045】図1、図2はこの発明による視線入力装置
を車載用ナビゲーション装置における目的地入力装置に
適用した実施の形態を示している。
1 and 2 show an embodiment in which the line-of-sight input device according to the present invention is applied to a destination input device in a vehicle-mounted navigation device.

【0046】図1はナビゲーション装置の車載状態を示
している。ナビゲーション装置10は、カラー液晶ディ
スプレイなどにより構成され、ナビゲーション用地図な
どを画面表示するパネル状の画面表示器(コンソールモ
ニタ)20と、画面表示器20の近傍に設置された目的
地入力開始スイッチ30および校正開始スイッチ40と
を有している。
FIG. 1 shows an on-vehicle state of the navigation device. The navigation device 10 is composed of a color liquid crystal display or the like, and has a panel-shaped screen display (console monitor) 20 for displaying a navigation map and the like, and a destination input start switch 30 installed near the screen display 20. And a calibration start switch 40.

【0047】画面表示器20による画面表示例は、図3
(a)、(b)に示されており、このナビゲーション画
面では、画面全体にナビゲーション用地図が表示され、
このナビゲーション用地図上に入力位置マークであるポ
インタカーソールAと、上下左右のスクロールマーカB
と、詳細表示マーカCと、広域表示マーカDと、眼球状
態図形Eとが表示される。
An example of screen display by the screen display 20 is shown in FIG.
As shown in (a) and (b), in this navigation screen, a navigation map is displayed on the entire screen,
A pointer cursor A, which is an input position mark, and scroll markers B for up, down, left and right on this navigation map.
The detailed display marker C, the wide area display marker D, and the eyeball state figure E are displayed.

【0048】目的地入力開始スイッチ30は、目的地入
力開始を指示する押し釦スイッチであり、目的地入力開
始スイッチ30が押されると、ナビゲーション装置10
は目的地入力モードになる。
The destination input start switch 30 is a push button switch for instructing the start of destination input, and when the destination input start switch 30 is pressed, the navigation device 10
Enters destination input mode.

【0049】校正開始スイッチ40は、校正開始を指示
する押し釦スイッチであり、校正開始スイッチ40が押
されると、ナビゲーション装置10は校正モードにな
る。
The calibration start switch 40 is a push button switch for instructing the start of calibration. When the calibration start switch 40 is pressed, the navigation device 10 enters the calibration mode.

【0050】画面表示器20の下方には、操作者の顔面
領域の画像を入力するCCDカメラ等の撮像手段からな
る画像入力部100と、画像入力部100と共軸系をな
すように配置された第1照明器110と、第1照明器1
10と離隔して配置されて画像入力部100と非共軸系
をなす第2照明器120とが設けられている。第1照明
器110と第2照明器120とは、光学的に同一仕様の
照明器であり、赤外LED光を発する。
Below the screen display 20, an image input section 100 including image pickup means such as a CCD camera for inputting an image of the operator's face area, and the image input section 100 are arranged so as to form a coaxial system. First illuminator 110 and first illuminator 1
A second illuminator 120 which is arranged apart from the image input unit 10 and forms a non-coaxial system with the image input unit 100 is provided. The first illuminator 110 and the second illuminator 120 are illuminators having the same optical specifications, and emit infrared LED light.

【0051】なお、図1にて、50はステアリンクホイ
ールを、60はフロントウィンドシールドガラスを各々
示している。
In FIG. 1, 50 is a stearing wheel and 60 is a front windshield glass.

【0052】図2はこの発明による視線入力装置を適用
された車載用ナビゲーション装置の全体構成を示してい
る。
FIG. 2 shows the overall structure of a vehicle-mounted navigation device to which the line-of-sight input device according to the present invention is applied.

【0053】この装置は、第1照明器110と第2照明
器120の発光動作を制御する照明発光制御部130
と、画像入力部100から入力したアナログ画像信号を
ディジタル画像データに変換するA/D変換器101
と、入力されたディジタル画像データ(顔画像データ)
を保持する画像メモリ(フレームメモリ)102と、顔
画像データから操作者の注視位置を計測する注視位置計
測部140と、注視領域決定部150と、眼球状態検出
部160と、画面表示器20におけるナビゲーション画
面上のポインタカーソルAの表示を制御するカーソル表
示制御部170と、視線入力の結果に応じて地図表示を
制御する画面表示器20における地図表示を制御するナ
ビゲーション地図制御部180と、個人の眼球サイズや
着座ポジションのずれの影響を低減するための校正デー
タの収集を行う校正処理部190と、装置全体の制御を
行う全体制御部200とを有している。
This device includes an illumination light emission control section 130 for controlling the light emission operation of the first illuminator 110 and the second illuminator 120.
And an A / D converter 101 for converting an analog image signal input from the image input unit 100 into digital image data.
And the input digital image data (face image data)
In the image memory (frame memory) 102 for holding the gaze position, the gaze position measuring section 140 for measuring the gaze position of the operator from the face image data, the gaze area determining section 150, the eyeball state detecting section 160, and the screen display 20. A cursor display control unit 170 that controls the display of the pointer cursor A on the navigation screen, a navigation map control unit 180 that controls the map display on the screen display device 20 that controls the map display according to the result of the line-of-sight input, and an individual It has a calibration processing unit 190 that collects calibration data for reducing the influence of eyeball size and seating position deviation, and an overall control unit 200 that controls the entire apparatus.

【0054】視線位置計測部140は、画像メモリ10
2に格納された顔画像データから網膜反射像(瞳孔)を
抽出する瞳孔抽出部141と、瞳孔抽出部141により
抽出された瞳孔位置より分かる瞳孔近傍位置から第1照
明器110の角膜反射像を抽出する角膜反射像抽出部1
42と、角膜反射像抽出部142により角膜反射像の抽
出結果から角膜反射像への合焦度合を算出判定する合焦
判断部143と、瞳孔抽出部141により抽出された瞳
孔位置と角膜反射像抽出部142により抽出された角膜
反射位置から、後述の校正データを基にして注視位置を
算出する注視位置算出部144とを含んでいる。
The line-of-sight position measuring unit 140 is provided in the image memory 10
A pupil extraction unit 141 that extracts a retina reflection image (pupil) from the face image data stored in 2 and a corneal reflection image of the first illuminator 110 from a pupil vicinity position that is known from the pupil position extracted by the pupil extraction unit 141. Corneal reflection image extraction unit 1 for extraction
42, a focus determination unit 143 that determines and calculates the degree of focus on the corneal reflection image from the extraction result of the corneal reflection image by the corneal reflection image extraction unit 142, the pupil position and the corneal reflection image extracted by the pupil extraction unit 141. It includes a gaze position calculation unit 144 that calculates a gaze position based on the calibration data described below from the corneal reflection position extracted by the extraction unit 142.

【0055】注視領域決定部150は、注視位置算出部
144により算出された注視位置より操作者の視線方向
が属する領域を決定する。注視領域は、中央領域と、真
上領域と、右上領域と、右領域と、右下領域と、真下領
域と、左下領域と、左領域と左上領域とに9領域に定義
されている。
The gaze area determining unit 150 determines the area to which the operator's gaze direction belongs based on the gaze position calculated by the gaze position calculating unit 144. The gaze area is defined in nine areas, that is, a central area, an immediately upper area, an upper right area, a right area, a lower right area, a right lower area, a lower left area, a left area and an upper left area.

【0056】眼球状態検出部160は、瞳孔抽出部14
1による瞳孔抽出結果と合焦判断部143による合焦判
断結果から、眼球のカメラ視野内での位置と眼球への合
焦度合を算出し、長めの瞬き等の特徴的な眼球状態を検
出する。
The eyeball state detecting section 160 includes a pupil extracting section 14
The position of the eyeball in the camera field of view and the degree of focus on the eyeball are calculated from the pupil extraction result by 1 and the focus determination result by the focus determination unit 143 to detect a characteristic eyeball state such as a long blink. .

【0057】カーソル表示制御部170は、眼球状態検
出部160により検出される長めの瞬き等の特徴的な眼
球状態に応じて注視位置にカーソルポインタを一気に移
動するクイックモードと、カーソルポインタを視線方向
に所定ステップずつ移動させるステップモードとにカー
ソル移動モード(視線入力モード)を切り替えるカーソ
ル移動モード制御部171と、注視位置算出部144に
より算出された注視位置とカーソル移動モードに応じて
ナビゲーション画像上のポインタカーソルAの移動を制
御するカーソル移動制御部172と、カーソル移動モー
ドモードに応じてナビゲーション画像上に表示するポイ
ンタカーソルAの形状、色を制御するカーソル表示形状
・色制御部173とにより構成されている。
The cursor display control section 170 has a quick mode in which the cursor pointer is moved all at once to a gaze position in accordance with a characteristic eyeball state such as a long blink detected by the eyeball state detecting section 160, and a direction of the line of sight of the cursor pointer. The cursor movement mode control unit 171 that switches the cursor movement mode (gaze input mode) to the step mode in which the cursor is moved by a predetermined number of steps, and on the navigation image according to the gaze position calculated by the gaze position calculation unit 144 and the cursor movement mode. A cursor movement control unit 172 that controls the movement of the pointer cursor A, and a cursor display shape / color control unit 173 that controls the shape and color of the pointer cursor A displayed on the navigation image according to the cursor movement mode mode. ing.

【0058】図3(a)はクイックモードにおける画面
表示例を、図3(b)はステップモードにおける画面表
示例を各々示している。この例では、ポインタカーソル
Aは、クイックモードでは四角形で、ステップモードで
は楕円形になる。以降、四角形のポインタカーソルをA
a、楕円形のポインタカーソルをAbと区別して云うこ
とがある。
FIG. 3A shows a screen display example in the quick mode, and FIG. 3B shows a screen display example in the step mode. In this example, the pointer cursor A has a rectangular shape in the quick mode and an elliptical shape in the step mode. After that, move the square pointer cursor to A
a, an elliptic pointer cursor may be distinguished from Ab.

【0059】カーソル移動制御部172は、クイックモ
ードではナビゲーション画像上のポインタカーソルAを
注視位置算出部144により算出された注視位置に一気
に移動させる制御を行い、ステップモードでは注視領域
決定部150により決定され操作者の視線方向が属する
領域へ所定量ずつステップ移動させる制御を行う。
In the quick mode, the cursor movement control unit 172 controls the cursor cursor A on the navigation image to move to the gaze position calculated by the gaze position calculation unit 144 at once, and in the step mode, the gaze area determination unit 150 determines. Then, control is performed to stepwise move to the region to which the operator's line-of-sight direction belongs by a predetermined amount.

【0060】校正処理部190は、図4に例示されてい
るように、校正用視標Fを画面標示器20の画面の特定
位置に描画する校正用視標表示制御部191と、校正結
果から注視位置の算出に必要な変換係数を算出する校正
データ算出部192と、校正データを記憶する校正デー
タ記憶部193とを有している。
As shown in FIG. 4, the calibration processing unit 190 uses the calibration target display control unit 191 for drawing the calibration target F at a specific position on the screen of the screen indicator 20, and the calibration result. It has a calibration data calculation unit 192 that calculates a conversion coefficient necessary for calculating the gaze position and a calibration data storage unit 193 that stores the calibration data.

【0061】次にこの発明による視線入力装置の作用を
説明する。
Next, the operation of the visual line input device according to the present invention will be described.

【0062】視線方向の計測には、予め校正作業が必要
であり、目的地入力作業に先立ってキャリブレーション
作業として校正作業を行う。以下、校正作業の手順を説
明する。
Calibration work is required in advance to measure the line-of-sight direction, and the calibration work is performed as the calibration work prior to the destination input work. The procedure of the calibration work will be described below.

【0063】[校正作業] (1) 操作者は、画面表示器20の近傍に設置された
校正開始スイッチ40を押して校正作業を開始する。校
正時には、ナビゲーション表示画面上に、図4(a)に
示されているように、視標制御部191により校正用視
標Fが一つずつ順次呈示される。操作者は、その間、校
正用視標Fを注視し続ける。
[Calibration work] (1) The operator starts the calibration work by pressing the calibration start switch 40 installed near the screen display 20. During calibration, as shown in FIG. 4A, the optotype control unit 191 sequentially presents the calibration optotypes F one by one on the navigation display screen. The operator continues to gaze at the calibration target F during that time.

【0064】(2) 画像入力部100からは、操作者
の眼球を含む顔画像データが入力され、顔画像データ
は、A/D変換器101によってディジタルデータに変
換され、画像メモリ102にストアされる。この時、第
1照明器110が点灯して第2照明器120が消灯した
時の画像aと、第1照明器110が消灯して第2照明器
120が点灯した時の画像bとをほぼ同時に入力する。
(2) Face image data including the operator's eyeball is input from the image input unit 100, and the face image data is converted into digital data by the A / D converter 101 and stored in the image memory 102. It At this time, an image a when the first illuminator 110 is turned on and the second illuminator 120 is turned off and an image b when the first illuminator 110 is turned off and the second illuminator 120 is turned on are almost the same. Enter at the same time.

【0065】(3) つぎに、瞳孔抽出部141におい
て、画像aから画像bの差分演算を行う。画像aでは網
膜からの反射光により瞳孔が明るく光って観測され、画
像bでは瞳孔が暗く観測されるため、両者の差分結果
は、瞳孔領域が強調されたものとなる。差分画像cを固
定しきい値で2値化し、さらにラベリング処理を施し、
領域の番号付けを行う。
(3) Next, the pupil extraction unit 141 calculates the difference between the image a and the image b. In the image a, the pupil is brightly observed by the reflected light from the retina, and in the image b, the pupil is observed dark. Therefore, the difference between the two is that the pupil region is emphasized. The difference image c is binarized with a fixed threshold value and further subjected to labeling processing,
Number the areas.

【0066】差分画像cの中には、網膜反射像の他に、
例えば、眼鏡レンズ反射像、眼鏡フレーム反射像、外部
照明の変動で生じた顔の一部など、様々なノイズが含ま
れる可能性がある。
In the difference image c, in addition to the retinal reflection image,
For example, various noises such as a spectacle lens reflection image, a spectacle frame reflection image, and a part of a face caused by a change in external illumination may be included.

【0067】これらのノイズは、一般に不定形状、かつ
面積も不定であり、予め予想される面積の円もしくは楕
円として観測される網膜反射像と識別可能である。ここ
では、領域の面積と形状による識別を行う。
These noises generally have an indefinite shape and an indefinite area, and can be discriminated from a retina reflection image observed as a circle or an ellipse having an area expected in advance. Here, identification based on the area and shape of the region is performed.

【0068】ラベリングの結果、得られた各領域の面積
Riを、予め決めておいたしきい値S1、S2(S1<
S2)と比較し、S1<Ri<S2を満足する領域のみ
を抜き出す。ここで、S1、S2は、CCDカメラの撮
影倍率から推定した予想される瞳孔径(直径2〜8mm
の瞳孔が、面積何画素の領域として観測されるかによっ
て決まる)にセットしておけばよい。
As a result of the labeling, the area Ri of each region obtained is set to a predetermined threshold value S1, S2 (S1 <
Compared with S2), only the region satisfying S1 <Ri <S2 is extracted. Here, S1 and S2 are predicted pupil diameters (diameter 2 to 8 mm) estimated from the photographing magnification of the CCD camera.
(The number of pixels in the pupil is determined as how many pixels are observed as the area).

【0069】眼鏡レンズ反射像も円形領域として観測さ
れるが、例えば、レンズの絞りを絞ることによって、網
膜反射像の面積より眼鏡レンズ反射像の面積が小さくな
るようにしておけば、面積により両者を識別可能であ
る。
Although the spectacle lens reflection image is also observed as a circular area, if the area of the spectacle lens reflection image is made smaller than the area of the retinal reflection image by, for example, narrowing the diaphragm of the lens, both areas will be different depending on the area. Can be identified.

【0070】次に、残った領域に対して、その外接長方
形に対する領域面積の比率Fを計算する。網膜反射像は
円または楕円形状で観測されるため、比率Fがある一定
値Fth以上であるのに対し、例えば眼鏡フレーム反射
は、フレームに沿った細長い領域になるため、仮に網膜
反射像と同等の面積を有していても、Fが小さくなり識
別可能である。
Then, the ratio F of the area of the remaining area to the circumscribed rectangle is calculated. Since the retinal reflection image is observed in a circular or elliptical shape, the ratio F is equal to or greater than a certain value Fth. On the other hand, for example, spectacle frame reflection is an elongated region along the frame, and thus is temporarily equivalent to the retinal reflection image. Even if it has the area of F, F becomes small and can be identified.

【0071】以上の識別の結果、残った領域を網膜反射
像に決定し、この網膜反射像の重心位置、即ち瞳孔重心
座標(Xg,Yg)を求める。
As a result of the above discrimination, the remaining area is determined as a retina reflection image, and the barycentric position of this retina reflection image, that is, the pupil barycentric coordinate (Xg, Yg) is obtained.

【0072】もし、該当する領域が見つからない時は、
操作者が目を閉じているものと判断する。
If the corresponding area cannot be found,
The operator determines that his eyes are closed.

【0073】以上の(1)、(2)の一連の処理の流れ
を図5に要約して示す。
The flow of the series of processes (1) and (2) above is summarized in FIG.

【0074】(4) つぎに、角膜反射像抽出部142
において、差分画像cにおける瞳孔重心座標(Xg,Y
g)を中心として、網膜反射像を包含する小領域を定義
し、この小領域内で最大輝度を有する点を角膜反射像と
し、角膜反射像座標(Px,Py)を求める。
(4) Next, the corneal reflection image extraction unit 142
, The coordinate of the center of gravity of the pupil in the difference image c (Xg, Y
A small area including the retinal reflection image is defined around g), and a point having the maximum brightness in this small area is set as a corneal reflection image, and corneal reflection image coordinates (Px, Py) are obtained.

【0075】(5) つぎに、合焦判断部143におい
て、角膜反射像の輝度値Iを求め、角膜反射像探索用の
小領域内の各画素をα・I(0<α<1)で2値化す
る。差分画像cの画素値がα・Iより大きければ1を、
小さければ0を与えることにし、2値化の結果、得られ
るα・Iより明るい画素の個数Kを算出する。
(5) Next, in the focus determination unit 143, the brightness value I of the corneal reflection image is obtained, and each pixel in the small area for searching the corneal reflection image is α · I (0 <α <1). Binarize. If the pixel value of the difference image c is larger than α · I, set 1 to
If it is smaller, 0 is given, and the number K of pixels brighter than α · I obtained as a result of binarization is calculated.

【0076】もし、差分画像cが焦点の合った画像であ
るならば、角膜反射像の輝度ピークは鋭いものとなり、
画素数Kは小さい値となる。これに対し差分画像cが焦
点のぼけた画像であるならば、角膜反射像の輝度ピーク
はゆるやかなものとなり、画素数Kは大きい値となる。
もし、画素数Kが予め決めておいた値より大きければ、
入力した画像はピントのボケた画像であると判断する。
If the difference image c is a focused image, the brightness peak of the corneal reflection image becomes sharp,
The number of pixels K has a small value. On the other hand, if the difference image c is an out-of-focus image, the luminance peak of the corneal reflection image becomes gentle and the number of pixels K becomes a large value.
If the number of pixels K is larger than a predetermined value,
It is determined that the input image is an out-of-focus image.

【0077】(6) 眼球に合焦した画像が得られれ
ば、校正データ算出部192において、画像上の瞳孔重
心座標(Xg,Yg)、角膜反射像座標(Px,Py)
から、2個の視線パラメータδx=Xg−Px、δy=
Yg−Pyを求める。
(6) If an image focused on the eyeball is obtained, the calibration data calculation unit 192 causes the coordinates of the center of gravity of the pupil (Xg, Yg) and the coordinates of the corneal reflection image (Px, Py) on the image.
From the two line-of-sight parameters δx = Xg−Px, δy =
Calculate Yg-Py.

【0078】(7) また眼球状態検出部160におい
て、瞳孔抽出部141が出力する瞳孔重心座標(Xg,
Yg)と合焦判断部143の判定出力とから、角膜反射
像への合焦の有無を示す表示パターンを作成し、これを
画面表示器2に画面表示する。
(7) In the eyeball state detecting section 160, the pupil barycentric coordinates (Xg,
Yg) and the determination output of the focus determination unit 143 create a display pattern indicating whether or not the corneal reflection image is in focus, and display it on the screen display 2.

【0079】表示パターン例を図4(a)に示す。図4
(a)では、校正用視標Fの位置を網膜反射像の重心位
置に見立て、その外部に移動フレームGを設けて、その
移動フレームG内の校正用視標位置によって、視野内の
眼球位置を表している。また角膜反射像に合焦している
時は校正用視標Fを図示されているように塗りつぶしパ
ターンにし、角膜反射像に合焦していない時は、白抜き
パターンにして表示する。
An example of the display pattern is shown in FIG. FIG.
In (a), the position of the calibration target F is regarded as the position of the center of gravity of the retina reflection image, a moving frame G is provided outside the position, and the position of the eyeball in the visual field is adjusted by the calibration target position in the moving frame G. Is represented. Further, when the corneal reflection image is in focus, the calibration target F is displayed in a filled pattern as shown in the figure, and when the corneal reflection image is not in focus, it is displayed in a blank pattern.

【0080】この表示パターンより操作者自身が、眼球
のフレームアウトやピントのぼけを確認でき、状況に応
じて頭部位置を移動して定位置に保持することが容易と
なる。
From this display pattern, the operator himself can confirm the frame-out of the eyeball and the out-of-focus condition, and it becomes easy to move the head position and hold it at a fixed position according to the situation.

【0081】(8) (1)〜(7)を、同一位置の校
正用視標Fについて、校正データがN回得られるまで行
う。この結果、得られたN個の視線パラメータδx、δ
yをそれぞれ平均し、校正用視標Fに対する校正結果と
して、校正データδxi、δyiを取得し、この校正デ
ータδxi、δyiを校正データ記憶部193に記憶す
る。
(8) The steps (1) to (7) are repeated for the calibration target F at the same position until calibration data is obtained N times. As a result, the obtained N line-of-sight parameters δx, δ
y is averaged to obtain calibration data δxi and δyi as calibration results for the calibration target F, and the calibration data δxi and δyi are stored in the calibration data storage unit 193.

【0082】(9) 用意された全ての校正用視標F
(本実施例では、図4(b)に示すように水平方向5
点、垂直方向5点)の各々について(1)〜(7)のル
ープが終了すると、水平方向について算出された校正デ
ータδxのグループと、垂直方向について算出された校
正データδyのグループ各々に対し、最小2乗法によっ
て、視標位置と視線パラメータδxもしくはδyの変換
式を決定する。
(9) All prepared calibration targets F
(In this embodiment, as shown in FIG.
Points (vertical direction, 5 points in the vertical direction), when the loop of (1) to (7) ends, for each group of calibration data δx calculated in the horizontal direction and each group of calibration data δy calculated in the vertical direction. , The conversion equation of the target position and the line-of-sight parameter δx or δy is determined by the least squares method.

【0083】一般に、視線の偏角が小さい領域において
は、視線パラメータδx、δyと視標位置とが1次式y
=ax+bで記述されるものと考え、係数a、bを決定
する。
Generally, in a region where the line-of-sight declination is small, the line-of-sight parameters δx, δy and the target position are linear expressions y.
= Ax + b, the coefficients a and b are determined.

【0084】なお、図4(b)において、数字は校正用
視標Fの画面表示の順番を示している。
In FIG. 4 (b), the numbers indicate the order in which the calibration target F is displayed on the screen.

【0085】(10) 以上の校正結果から、操作者が
画面表示器20の画面から軽く目をそらした時に得られ
ると予想される各方向の予測値をδxiとδyiより算
出する。これは、先に算出した係数a、bが軽く目をそ
らせた領域まで適用できるものと仮定し、軽く右に目を
そらせた時の予測値は、 δRight =δx5 −|δx1 −δx5 |/4 軽く左に目をそらせた時の予測値は、 δLeft=δx1 +|δx1 −δx5 |/4 軽く上に目をそらせた時の予測値は、 δUpper =δy6 −|δy10 −δy6 |/4 軽く下に目をそらせた時の予測値 δLower =δy10 +|δy10 −δy6 |/4 とする(なお、記号||は絶対値を表す)。
(10) From the above calibration results, the predicted value in each direction, which is expected to be obtained when the operator slightly looks away from the screen of the screen display 20, is calculated from δxi and δyi. It is assumed that the coefficients a and b calculated above can be applied to a slightly deflected area, and the predicted value when slightly deflected to the right is δRight = δx5 − | δx1 −δx5 | / 4 The predicted value when the eyes are slightly deflected to the left is δLeft = δx1 + | δx1−δx5 | / 4 It is assumed that the predicted value δLower = δy10 + │δy10 -δy6 │ / 4 when the eyes are turned away (note that the symbol ││ represents an absolute value).

【0086】以上の処理によって校正作業が完了する。
この校正作業は、毎回行う必要はなく、1度行っておけ
ばよい。このようにして得られた校正データをメモリに
保存しておけば、後で再利用可能である。
The calibration work is completed by the above processing.
This calibration work does not have to be performed every time and may be performed once. If the calibration data thus obtained is stored in the memory, it can be reused later.

【0087】ナビゲーションの目的地入力が必要になれ
ば、目的地入力作業を行う。以下、目的地入力の手順を
図8を参照して説明する。
If it is necessary to input a destination for navigation, a destination input operation is performed. The procedure for inputting a destination will be described below with reference to FIG.

【0088】[目的地入力作業] (1) 目的地入力開始スイッチ120を押すと、画面
表示器20の表示画面が画面が図3(a)に示されてい
るようなナビゲーションになり、目的地入力を受け入れ
る状態となる。
[Destination input work] (1) When the destination input start switch 120 is pressed, the display screen of the screen display 20 becomes the navigation as shown in FIG. It is ready to accept input.

【0089】(2) 目的地入力開始スイッチ120が
押されると、その後、連続して上述の[校正作業]にお
ける(2)〜(7)と同じ処理が行われ、画像上の瞳孔
重心(Xg,Yg)、角膜反射像座標(Px,Py)か
ら、2個の視線パラメータδx=Xg−Px、δy=Y
g−Pyと、角膜反射像への合焦度合を算出する。
(2) When the destination input start switch 120 is pressed, thereafter, the same processing as (2) to (7) in the above [calibration work] is continuously performed, and the center of gravity of the pupil (Xg , Yg) and the corneal reflection image coordinates (Px, Py), two line-of-sight parameters δx = Xg−Px, δy = Y
g-Py and the degree of focusing on the corneal reflection image are calculated.

【0090】(3) (2)で算出した視線パラメータ
δx、δyは、その都度、[校正作業]における(9)
で既に求めた変換式により、画面表示器20のビゲーシ
ョン画面における位置座標に変換され、変換算出された
座標位置に、図3(a)に示すようなポインタカーソル
Aa(注視領域表示)と眼球状態図形Eとがスーパーイ
ンポーズされる。
(3) The line-of-sight parameters δx and δy calculated in (2) are (9) in [Calibration work] each time.
3 is converted into the position coordinates on the vignetting screen of the screen display device 20 by the conversion formula already obtained, and a pointer cursor Aa (gaze area display) and eyeball state as shown in FIG. Figure E is superimposed.

【0091】(4) 設定したい目的地が画面表示器2
0のナビゲーション画面に現れていない場合には、操作
者がナビゲーション画面の右下方に設定された広域表示
マーカDを注視すると、ポインタカーソルAaが、図8
(a)に示されているように、広域表示マーカD付近に
移動する。なお、視線計測装置の精度に限りがあるた
め、必ずしもポインタカーソルAaが広域表示マーカD
に重なるとは限らない。
(4) The destination to be set is the screen display 2
When the operator does not appear on the navigation screen 0, the operator looks at the wide area display marker D set at the lower right of the navigation screen, and the pointer cursor Aa moves to the position shown in FIG.
As shown in (a), it moves to the vicinity of the wide area display marker D. Since the accuracy of the line-of-sight measurement device is limited, the pointer cursor Aa is not always the wide area display marker D.
Do not always overlap.

【0092】(5) ポインタカーソルAaが広域表示
マーカDの近辺に移動した時点で、暫く目を閉じると、
例えば300msec目を閉じると、眼球状態検出部1
60において、網膜反射像が存在しないことから閉眼
(目を閉じること)が検知され、これに基づいてカーソ
ル移動モード制御部171の指示によりカーソル移動制
御部172のカーソル移動モードがディフォルトモード
であるクイックモードよりステップモードへ切り替わ
る。
(5) When the pointer cursor Aa is moved to the vicinity of the wide area display marker D and the eyes are closed for a while,
For example, when the eye is closed for 300 msec, the eyeball state detection unit 1
At 60, a closed eye (closed eyes) is detected because the retina reflection image does not exist, and based on this, the cursor movement mode of the cursor movement control unit 172 is instructed by the cursor movement mode control unit 171. Switch from step mode to step mode.

【0093】なお、300msecの瞬きは、1回の注
視位置算出に100msecを要するものとした時、3
回連続して網膜反射像が発見されなかったことにより判
定すればよい。また通常の瞬きは約100msecで完
了するため、不用意な瞬きによってモード切り替えが起
こる危険性は少ない。
A blink of 300 msec is 3 when the calculation of the gaze position requires 100 msec.
The determination may be made based on the fact that no retinal reflection image was found consecutively. Further, since a normal blink is completed in about 100 msec, there is little risk that mode switching will occur due to careless blinking.

【0094】(6) カーソル移動モードが切り替わる
と、カーソル移動モード制御部171から出力された信
号によってカーソル表示形状・色制御部173が機能
し、カーソル移動モードが切り替わったことを操作者に
知らせるため、ポインタカーソルAの形状を楕円形に変
化させる(図3(b)参照)。なお、これは、ポインタ
カーソルAの色を変更しても同様の効果が得られる。
(6) When the cursor movement mode is switched, the cursor display shape / color control unit 173 operates according to the signal output from the cursor movement mode control unit 171, to notify the operator that the cursor movement mode has been switched. , The shape of the pointer cursor A is changed to an ellipse (see FIG. 3B). The same effect can be obtained even if the color of the pointer cursor A is changed.

【0095】(7) 引き続き、[校正作業]における
(2)〜(7)と同じ処理の実行によって瞳孔と角膜反
射像の抽出を行い、視線パラメータδx、δyを算出す
る。
(7) Subsequently, the pupil and corneal reflection images are extracted by executing the same processing as (2) to (7) in [Calibration work], and the line-of-sight parameters δx and δy are calculated.

【0096】さらに、注視領域決定部150において、
δRight 、δLeft、δUpper 、δLower とδx、δyと
の比較を行し、操作者が、図6に示す領域のいずれかを
注視しているかを決定する。
Furthermore, in the gaze area determining section 150,
δRight, δLeft, δUpper, δLower are compared with δx, δy to determine which of the regions shown in FIG. 6 the operator is gazing at.

【0097】図6のいずれの領域が注視されているか
は、以下の判定式によって評価する。
Which region in FIG. 6 is being watched is evaluated by the following judgment formula.

【0098】中央領域CNの注視時 δRight <δx<δLeft かつ δUpper <δy<δLo
wer 真上領域UPの注視時 δRight <δx<δLeft かつ δy≦δUpper 右上領域RUの注視時 δx≦δRight かつ δy≦δUpper 右領域RRの注視時 δx≦δRight かつ δUpper <δy<δLower 右下領域RUの注視時 δx≦δRight かつ δLower ≦δy 真下領域DWの注視時 δRight <δx<δLeft かつ δLower ≦δy 右下領域LDの注視時 δLeft<δx かつ δLower ≦δy 真下領域LLの注視時 δLeft≦δx かつ δUpper <δy<δLower 左上領域LUの注視時 δLeft≦δx かつ δy≦δUpper (8) カーソル移動制御部172の動作により、ポイ
ンタカーソルAbの表示位置が(7)で算出された注視
領域の方向へ所定量、例えば1ドット、ステップ移動
し、ポインタカーソルAbがカーソル表示形状・色制御
部173によって画面表示20のナビゲーション画面に
再描画される。このポインタカーソルAbの移動は、図
7の状態遷移図に基づいて行われる。
At the time of gazing at the central region CN δRight <δx <δLeft and δUpper <δy <δLo
wer At the time of watching the region UP just above δRight <δx <δLeft and δy ≦ δUpper At the time of watching the upper right region RU δx ≦ δRight and δy ≦ δUpper At the time of watching the right region RR δx ≦ δRight and δUpper <δy <δLower of the lower right region RU At gazing δx ≤ δRight and δLower ≤ δy At the time of gazing directly below the region DW δRight <δx <δLeft and at the time of gazing at δLower ≤ δy lower right region δLeft <δx and δLower ≤ δy At the time of gazing at the region LL δLeft ≤ δx <and <x δy <δLower At the time of gazing the upper left area LU δLeft ≦ δx and δy ≦ δUpper (8) By the operation of the cursor movement control unit 172, the display position of the pointer cursor Ab is a predetermined amount in the direction of the gazing area calculated in (7), For example, the pointer cursor Ab is moved one step by one dot, and the cursor display shape / color control unit 173 redraws the pointer cursor Ab on the navigation screen of the screen display 20. The movement of the pointer cursor Ab is performed based on the state transition diagram of FIG.

【0099】なお、図7において、(x,y)は事前の
ポインタカーソル位置を、(x’,y’)は新たなポイ
ンタカーソル位置を、Δxはx方向の単位移動ステップ
量を、Δyはy方向の単位移動ステップ量を示し、また
矢印付きのCN、UP、RU、RR、RD、DW、L
D、LL、LUは各々注視した領域を示す。
In FIG. 7, (x, y) is the previous pointer cursor position, (x ', y') is the new pointer cursor position, Δx is the unit movement step amount in the x direction, and Δy is CN, UP, RU, RR, RD, DW, L, which shows the unit movement step amount in the y direction and has an arrow
D, LL, and LU indicate the areas that are focused on.

【0100】操作者は、ポインタカーソルAbの移動結
果を確認して、再び、ポインタカーソルAbを移動した
い方向に軽く目や頭をふる動作を繰り返す。
The operator confirms the result of the movement of the pointer cursor Ab, and again repeats the action of gently shaking his eyes or head in the direction in which he wants to move the pointer cursor Ab.

【0101】すると、(7)、(8)が連続的に実行さ
れ、ポインタカーソルAが徐々に目的の場所、この場
合、広域表示マーカDに近づく。
Then, (7) and (8) are continuously executed, and the pointer cursor A gradually approaches the target position, in this case, the wide area display marker D.

【0102】(9) 図8(b)に示されているよう
に、ポインタカーソルAが広域表示マーカDに重なり、
300msec程度、目が閉じられると、(5)と同様
に閉眼が検知され、この閉眼検知により広域表示マーカ
Dを選択したことが確定される。
(9) As shown in FIG. 8B, the pointer cursor A overlaps the wide area display marker D,
When the eyes are closed for about 300 msec, the closed eyes are detected as in (5), and the detection of the closed eyes determines that the wide area display marker D has been selected.

【0103】すると、ナビゲーション地図制御部180
によって地図の縮尺を1ステップ変更し、その地図を再
表示することが行われ、またこれと同時に、カーソル移
動モードがステップモードに設定される。
Then, the navigation map control unit 180
By this, the scale of the map is changed by one step and the map is displayed again. At the same time, the cursor movement mode is set to the step mode.

【0104】(10) 再表示され地図画面に目的地が
ない時は、再び(4)〜(9)を実行する。一般に
(4)〜(9)が複数回、行われると、目的地を画面内
に表示することができる。
(10) When there is no destination on the map screen after being redisplayed, (4) to (9) are executed again. Generally, when the steps (4) to (9) are performed a plurality of times, the destination can be displayed on the screen.

【0105】(11) 画面に目的地が表示、もしくは
目的地近傍が表示されたならば、画面表示器20のナビ
ゲーション画面の上下左右4辺に設定されたスクロール
マーカB近辺を注視し、暫く(300msec程度)目
を閉じてカーソル移動モードの変更を行い、図8(c)
に示されているように、カーソルポインタAbを微動さ
せてスクロールマーカBに重ね合わせ、再び暫く(30
0msec程度)目を閉じて画面スクロールを選択確定
し、ナビゲーション地図制御部180によって画面スク
ロールを行わせる。
(11) When the destination is displayed on the screen or the vicinity of the destination is displayed, the vicinity of the scroll marker B set on the four sides of the navigation screen of the screen display device 20 is watched for a while (( (About 300 msec) Close your eyes and change the cursor movement mode.
, The cursor pointer Ab is finely moved to be superimposed on the scroll marker B, and again (30
The eyes are closed and the screen scroll is selected and confirmed, and the navigation map control unit 180 scrolls the screen.

【0106】1ステップのスクロール実行後、カーソル
移動モードはクイックモードに自動的に切り替えられ、
ポインタカーソルAの表示を切り替る。
After scrolling for one step, the cursor movement mode is automatically switched to the quick mode,
Switches the display of the pointer cursor A.

【0107】(12) (11)を複数回行って、目的
地近傍が画面中央に表示されるようにする。
(12) Perform (11) a plurality of times so that the vicinity of the destination is displayed in the center of the screen.

【0108】(13) 目的地近傍が画面中央に表示さ
れれば、図8(d)に示されているように、詳細表示マ
ーカCを選択確定して画面を拡大表示する。この詳細表
示マーカCの選択確定は、先に述べた広域表示マーカD
の選択確定と同様に行われればよい。(13)を複数回
繰り返し、真の目的地近辺が画面に詳細表示されるよう
にする。
(13) When the vicinity of the destination is displayed in the center of the screen, the detailed display marker C is selected and confirmed and the screen is enlarged and displayed, as shown in FIG. 8 (d). The selection confirmation of the detailed display marker C is performed by the wide area display marker D described above.
The selection may be performed similarly to (13) is repeated multiple times so that the vicinity of the true destination is displayed in detail on the screen.

【0109】(14) 真の目的地が画面に詳細表示さ
れれたら、操作者は設定したい目的地を注視する。これ
によりポインタカーソルAaはクイックモードによりそ
の注視位置である目的地近傍にまで一気に移動する。
(14) When the true destination is displayed in detail on the screen, the operator looks at the destination to be set. As a result, the pointer cursor Aa moves at once to the vicinity of the destination, which is the gaze position, in the quick mode.

【0110】その後、約300msecの閉眼によって
カーソル移動モードをステップモード切り替え、ポイン
タカーソルAbを、図8(e)に示されているように、
所定の位置までステップ移動させて目的場所に合致させ
る。
Thereafter, the cursor movement mode is switched to the step mode by closing the eyes for about 300 msec, and the pointer cursor Ab is moved to the step mode as shown in FIG.
Step to a predetermined position to match the destination.

【0111】ポインタカーソルAbが目的場所に合致し
たら、約300msecの閉眼によって位置を確定す
る。
When the pointer cursor Ab coincides with the destination, the position is fixed by closing the eyes for about 300 msec.

【0112】上述のようにして目的地が確定すると、ナ
ビゲーション地図制御部180において、現在地から目
的地までの最適経路が計算され、地図上にセットされ
る。
When the destination is determined as described above, the navigation map control unit 180 calculates the optimum route from the current position to the destination and sets it on the map.

【0113】画面表示器20のナビゲーション画面が図
3(a)に示されているような画面に戻り、目的地に向
けたナビゲーションが開始される。
The navigation screen of the screen display device 20 returns to the screen as shown in FIG. 3A, and the navigation toward the destination is started.

【0114】次に図9、図10を参照してこの発明によ
るコンソール用視線入力装置の他の実施の形態を説明す
る。
Next, another embodiment of the visual axis input device for console according to the present invention will be described with reference to FIGS.

【0115】図9に示されている実施の形態では、ステ
ップ移動量変更部210が設けられている。ステップ移
動量変更部210は、注視領域決定部150より注視領
域の決定結果を取り込み、複数回の顔画像のサンプリン
グに亙って連続して同一領域を注視していたと判定すれ
ば、換言すれば同一領域の注視時間が所定値に達すれ
ば、1回当りのポインタカーソルAbのステップ移動量
(Δx、Δy)を大きくする。
In the embodiment shown in FIG. 9, a step movement amount changing section 210 is provided. The step movement amount changing unit 210 takes in the determination result of the gaze area from the gaze area determining unit 150 and determines that the same area is continuously gazed during the sampling of the face image a plurality of times, in other words, If the gazing time of the same area reaches a predetermined value, the step movement amount (Δx, Δy) of the pointer cursor Ab per one time is increased.

【0116】これにより、仮に上述の[目的地入力作
業]において、入力目的位置と離れた位置でステップモ
ードに移行しても、素早く目的位置までポインタカーソ
ルAbを移動させることができる。
Thus, in the above-mentioned [destination input work], even if the mode is changed to the step mode at a position apart from the input target position, the pointer cursor Ab can be quickly moved to the target position.

【0117】これは、もちろん、同一領域の注視時間に
応じて1回当りのポインタカーソルAbのステップ移動
量を徐々に大きくするようにしてもよい。
As a matter of course, the step movement amount of the pointer cursor Ab per time may be gradually increased according to the gaze time of the same area.

【0118】図10に示されている実施の形態では、注
視時間計測部220が設けられている。注視時間計測部
220は、注視位置算出部150より注視位置の算出結
果を取り込み、同一位置の注視時間が所定値に達したこ
とを計測し、このことをカーソル移動モード制御部17
1へ通達する。
In the embodiment shown in FIG. 10, a gaze time measuring section 220 is provided. The gaze time measurement unit 220 takes in the calculation result of the gaze position from the gaze position calculation unit 150, measures that the gaze time at the same position has reached a predetermined value, and the cursor movement mode control unit 17
Notification to 1.

【0119】カーソル移動モード制御部171は、注視
時間計測部220より通達を受けることによって、瞬き
に代えてカーソル移動モードを切り替える。
Upon receiving the notification from the gaze time measuring unit 220, the cursor moving mode control unit 171 switches the cursor moving mode instead of blinking.

【0120】これにより、この実施の形態では、操作者
が同じ位置を所定時間に亙って注視することによりステ
ップモードとクイックモードとの切り替えが行われる。
Thus, in this embodiment, the operator switches between the step mode and the quick mode by gazing at the same position for a predetermined time.

【0121】以上のように、この発明の実施の形態とし
て、車載用ナビゲーション装置の目的地入力を例に上げ
たが、この発明によるコンソール用視線入力装置は、こ
れに限られることはなく、例えば、コンピュータにおけ
るCAD、ワードプロセッサ、ファイル操作等における
入力手段としても適用され得るものである。
As described above, the destination input of the vehicle-mounted navigation device is taken as an example of the embodiment of the present invention. However, the console line-of-sight input device according to the present invention is not limited to this. The present invention can also be applied as input means in CAD in computers, word processors, file operations, and the like.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明によるコンソール用視線入力装置を適
用された車載ナビゲーション装置の車載状態を示す説明
図である。
FIG. 1 is an explanatory view showing a vehicle-mounted state of a vehicle-mounted navigation device to which a console line-of-sight input device according to the present invention is applied.

【図2】この発明によるコンソール用視線入力装置を適
用された車載ナビゲーション装置の全体構成を示すブロ
ック線図である。
FIG. 2 is a block diagram showing an overall configuration of a vehicle-mounted navigation device to which the console line-of-sight input device according to the present invention is applied.

【図3】(a)、(b)はこの発明によるコンソール用
視線入力装置を適用された車載ナビゲーション装置にお
けるクイックモード時とステップモード時の画面表示例
を示す説明図である。
3A and 3B are explanatory diagrams showing screen display examples in a quick mode and a step mode in an in-vehicle navigation device to which the console line-of-sight input device according to the present invention is applied.

【図4】(a)、(b)はこの発明によるコンソール用
視線入力装置を適用された車載ナビゲーション装置にお
ける校正作業時の画面表示例を示す説明図である。
4 (a) and 4 (b) are explanatory views showing a screen display example at the time of calibration work in the vehicle-mounted navigation device to which the console line-of-sight input device according to the present invention is applied.

【図5】この発明によるコンソール用視線入力装置にお
ける網膜反射像の抽出処理プロセスを示す説明図であ
る。
FIG. 5 is an explanatory diagram showing a process of extracting a retina reflection image in the console visual line input device according to the present invention.

【図6】この発明によるコンソール用視線入力装置にお
けるカーソルステップ移動のための領域設定例を示す説
明図である。
FIG. 6 is an explanatory diagram showing an example of region setting for cursor step movement in the console line-of-sight input device according to the present invention.

【図7】この発明によるコンソール用視線入力装置にお
けるポインタカーソルの移動方向の状態遷移図である。
FIG. 7 is a state transition diagram in the moving direction of the pointer cursor in the console visual line input device according to the present invention.

【図8】(a)〜(e)はこの発明によるコンソール用
視線入力装置を適用された車載ナビゲーション装置にお
ける目的地設定処理における画面表示の遷移を示す説明
図である。
FIGS. 8A to 8E are explanatory views showing transitions of screen display in a destination setting process in a vehicle-mounted navigation device to which the console line-of-sight input device according to the present invention is applied.

【図9】この発明によるコンソール用視線入力装置を適
用された車載ナビゲーション装置の他の実施の形態を示
すブロック線図である。
FIG. 9 is a block diagram showing another embodiment of the vehicle-mounted navigation device to which the console line-of-sight input device according to the present invention is applied.

【図10】この発明によるコンソール用視線入力装置を
適用された車載ナビゲーション装置の他の実施の形態を
示すブロック線図である。
FIG. 10 is a block diagram showing another embodiment of the vehicle-mounted navigation device to which the console line-of-sight input device according to the present invention is applied.

【符号の説明】[Explanation of symbols]

10 ナビゲーション装置 20 画面表示器 30 目的地入力開始スイッチ 40 校正開始スイッチ 100 画像入力部 110 第1照明器 120 第2照明器 130 照明発光制御部 140 注視位置計測部 150 注視領域決定部 160 眼球状態検出部 170 カーソル表示制御部 180 ナビゲーション地図制御部 190 校正処理部 200 全体制御部 210 ステップ移動量変更部 220 注視時間計測部 10 navigation device 20 screen display 30 destination input start switch 40 calibration start switch 100 image input unit 110 first illuminator 120 second illuminator 130 illumination emission control unit 140 gaze position measurement unit 150 gaze area determination unit 160 eyeball state detection Part 170 Cursor display control part 180 Navigation map control part 190 Calibration processing part 200 Overall control part 210 Step movement amount changing part 220 Gaze time measuring part

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 入力位置マークを画面表示し、入力位置
マークの表示位置を入力位置とするコンソール用視線入
力装置において、 操作者の顔面領域の画像を入力する画像入力手段と、 前記画像入力手段による画像データから操作者の注視位
置を計測する注視位置計測手段と、 前記注視位置計測手段によって計測された注視位置より
操作者の視線方向が属する領域を決定する注視領域決定
手段と、 前記注視領域決定手段によって決定された領域の方向に
前記入力位置マークをステップ移動させる入力位置マー
ク移動制御手段と、 を有していることを特徴とするコンソール用視線入力装
置。
1. A console line-of-sight input device in which an input position mark is displayed on a screen and the display position of the input position mark is the input position, and an image input unit for inputting an image of an operator's facial region; and the image input unit. Gaze position measuring means for measuring the gaze position of the operator from the image data by the gaze area, gaze area determining means for determining an area to which the gaze direction of the operator belongs from the gaze position measured by the gaze position measuring means, and the gaze area A line-of-sight input device for a console, comprising: input position mark movement control means for stepwise moving the input position mark in the direction of the area determined by the determination means.
【請求項2】 請求項1に記載のコンソール用視線入力
装置において、前記入力位置マークのステップ移動量を
操作者の同一領域の注視時間に応じて変更するステップ
移動量変更手段を有していることを特徴とするコンソー
ル用視線入力装置。
2. The console line-of-sight input apparatus according to claim 1, further comprising step movement amount changing means for changing the step movement amount of the input position mark in accordance with the gaze time of the same region of the operator. A console line-of-sight input device characterized in that
【請求項3】 請求項1または2に記載のコンソール用
視線入力装置において、前記入力位置マーク移動制御手
段は、前記注視領域決定手段によって決定された領域の
方向に前記入力位置マークをステップ移動させるステッ
プモードと、前記注視位置計測手段によって計測された
注視位置に前記入力位置マークを一気に移動させるクイ
ックモードとを有し、何れか一方のモードを選択設定さ
れることを特徴とするコンソール用視線入力装置。
3. The console line-of-sight input device according to claim 1, wherein the input position mark movement control means moves the input position mark stepwise in the direction of the area determined by the gaze area determination means. Line-of-sight input for console, characterized by having a step mode and a quick mode in which the input position mark is moved to the gaze position measured by the gaze position measuring means all at once, and one of the modes is selected and set. apparatus.
【請求項4】 請求項3に記載のコンソール用視線入力
装置において、操作者の瞬きを検出する眼球状態検出部
を有し、前記眼球状態検出部により検出される操作者の
瞬きによって前記モードが切り替えられることを特徴と
するコンソール用視線入力装置。
4. The console line-of-sight input device according to claim 3, further comprising an eyeball state detection unit that detects an operator's blink, and the mode is changed by the operator's blink detected by the eyeball state detection unit. A line-of-sight input device for a console, which can be switched.
【請求項5】 請求項3記載のコンソール用視線入力装
置において、同一位置の注視時間が所定値に達したこと
を計測する注視時間計測手段を有し、前記注視時間計測
手段により同一位置の注視時間が所定値に達したことが
計測されることによって前記モードが切り替えられるこ
とを特徴とするコンソール用視線入力装置。
5. The console line-of-sight input apparatus according to claim 3, further comprising a gaze time measuring unit that measures that the gaze time at the same position has reached a predetermined value, and the gaze time measuring unit measures the gaze time at the same position. A line-of-sight input device for a console, wherein the mode is switched by measuring that the time has reached a predetermined value.
【請求項6】 請求項3〜5の何れかに記載のコンソー
ル用視線入力装置において、前記ステップモードと前記
クイックモードとで前記入力位置マークの形状、色を変
更する入力位置マーク形状・色制御手段を有しているこ
とを特徴とするコンソール用視線入力装置。
6. The console line-of-sight input device according to claim 3, wherein an input position mark shape and color control for changing the shape and color of the input position mark in the step mode and the quick mode. A line-of-sight input device for a console having means.
JP7327493A 1995-12-15 1995-12-15 Line of sight input device for console Pending JPH09167049A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7327493A JPH09167049A (en) 1995-12-15 1995-12-15 Line of sight input device for console

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7327493A JPH09167049A (en) 1995-12-15 1995-12-15 Line of sight input device for console

Publications (1)

Publication Number Publication Date
JPH09167049A true JPH09167049A (en) 1997-06-24

Family

ID=18199775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7327493A Pending JPH09167049A (en) 1995-12-15 1995-12-15 Line of sight input device for console

Country Status (1)

Country Link
JP (1) JPH09167049A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000305685A (en) * 1999-03-31 2000-11-02 Internatl Business Mach Corp <Ibm> Method for showing prediction to user and recording medium
JP2007073053A (en) * 2005-09-08 2007-03-22 Thomson Licensing Method for selecting button in graphical bar and receiver implementing the same
US7299421B2 (en) 2001-05-07 2007-11-20 Yamaha Corporation Screen change control apparatus and method using tabs
JP2009009562A (en) * 2007-06-12 2009-01-15 Sega Corp Method and system for controlling input device, generating collision data and controlling camera angle
JP2009054101A (en) * 2007-08-29 2009-03-12 Saga Univ Device, method and program for eye-gaze input
JP2010205099A (en) * 2009-03-05 2010-09-16 Univ Of Miyazaki Mouse cursor control system using ocular potential
JP2012141988A (en) * 2011-01-05 2012-07-26 Visteon Global Technologies Inc System ready switch for eye tracking human machine interaction control system
JP2014196086A (en) * 2013-03-29 2014-10-16 富士重工業株式会社 Display device for transport machine
JP2014196085A (en) * 2013-03-29 2014-10-16 富士重工業株式会社 Display device for transport machine
JP2015000662A (en) * 2013-06-17 2015-01-05 富士重工業株式会社 Display device for vehicle
US9753535B2 (en) 2013-05-09 2017-09-05 Denso Corporation Visual line input apparatus
US10067726B2 (en) 2013-03-29 2018-09-04 Subaru Corporation Display device for vehicle
JP2019079091A (en) * 2017-10-20 2019-05-23 株式会社富士通ビー・エス・シー Moving body control program, moving body control method and information processing apparatus
JP2020204915A (en) * 2019-06-17 2020-12-24 キヤノン株式会社 Electronic apparatus and method for controlling the same
WO2021110579A1 (en) * 2019-12-03 2021-06-10 Valeo Schalter Und Sensoren Gmbh Method for remotely controlled driving of a motor vehicle comprising a teleoperator, computer program product, and teleoperation driving system

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000305685A (en) * 1999-03-31 2000-11-02 Internatl Business Mach Corp <Ibm> Method for showing prediction to user and recording medium
US7299421B2 (en) 2001-05-07 2007-11-20 Yamaha Corporation Screen change control apparatus and method using tabs
JP2007073053A (en) * 2005-09-08 2007-03-22 Thomson Licensing Method for selecting button in graphical bar and receiver implementing the same
JP2009009562A (en) * 2007-06-12 2009-01-15 Sega Corp Method and system for controlling input device, generating collision data and controlling camera angle
JP2009054101A (en) * 2007-08-29 2009-03-12 Saga Univ Device, method and program for eye-gaze input
JP2010205099A (en) * 2009-03-05 2010-09-16 Univ Of Miyazaki Mouse cursor control system using ocular potential
JP2012141988A (en) * 2011-01-05 2012-07-26 Visteon Global Technologies Inc System ready switch for eye tracking human machine interaction control system
JP2014196085A (en) * 2013-03-29 2014-10-16 富士重工業株式会社 Display device for transport machine
JP2014196086A (en) * 2013-03-29 2014-10-16 富士重工業株式会社 Display device for transport machine
US10067726B2 (en) 2013-03-29 2018-09-04 Subaru Corporation Display device for vehicle
US10613810B2 (en) 2013-03-29 2020-04-07 Subaru Corporation Display device for vehicle
US9753535B2 (en) 2013-05-09 2017-09-05 Denso Corporation Visual line input apparatus
JP2015000662A (en) * 2013-06-17 2015-01-05 富士重工業株式会社 Display device for vehicle
JP2019079091A (en) * 2017-10-20 2019-05-23 株式会社富士通ビー・エス・シー Moving body control program, moving body control method and information processing apparatus
JP2020204915A (en) * 2019-06-17 2020-12-24 キヤノン株式会社 Electronic apparatus and method for controlling the same
WO2021110579A1 (en) * 2019-12-03 2021-06-10 Valeo Schalter Und Sensoren Gmbh Method for remotely controlled driving of a motor vehicle comprising a teleoperator, computer program product, and teleoperation driving system

Similar Documents

Publication Publication Date Title
JP3324295B2 (en) Gaze direction measuring device for vehicles
US10481757B2 (en) Eye gaze control system
JP2988178B2 (en) Gaze direction measuring device
USRE43447E1 (en) Method of application menu selection and activation using image cognition
JPH09167049A (en) Line of sight input device for console
KR101347232B1 (en) Image Recognition Apparatus, Operation Determining Method, and Computer-Readable Medium
US10456072B2 (en) Image interpretation support apparatus and method
Magee et al. A human–computer interface using symmetry between eyes to detect gaze direction
JP2006293786A (en) Market research apparatus having visual line input unit
JPH09251342A (en) Device and method for estimating closely watched part and device, information display device/method using the same
JP4491604B2 (en) Pupil detection device
JP3735947B2 (en) Line-of-sight input device
JP2003150306A (en) Information display device and method thereof
JP6092173B2 (en) Electronic device and operation method thereof
KR101396488B1 (en) Apparatus for signal input and method thereof
JPH08272517A (en) Device and method for selecting sight line correspondence and information processor
JPH09212082A (en) Visual line input device
JP3796840B2 (en) Gesture input device and input device including the same
JPH09251539A (en) Line-of-sight measuring instrument
JPH1186005A (en) Operation detecting device
JP2006059147A (en) Computer input method and device
EP3922166B1 (en) Display device, display method and display program
KR102325684B1 (en) Eye tracking input apparatus thar is attached to head and input method using this
CN114740966A (en) Multi-modal image display control method and system and computer equipment
JPH07229714A (en) Sight direction measuring equipment for vehicle

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071211

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081211

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 11

Free format text: PAYMENT UNTIL: 20091211

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091211

Year of fee payment: 11

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 12

Free format text: PAYMENT UNTIL: 20101211

LAPS Cancellation because of no payment of annual fees