JPH09212082A - Visual line input device - Google Patents

Visual line input device

Info

Publication number
JPH09212082A
JPH09212082A JP8014359A JP1435996A JPH09212082A JP H09212082 A JPH09212082 A JP H09212082A JP 8014359 A JP8014359 A JP 8014359A JP 1435996 A JP1435996 A JP 1435996A JP H09212082 A JPH09212082 A JP H09212082A
Authority
JP
Japan
Prior art keywords
eyeball
image
operator
line
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8014359A
Other languages
Japanese (ja)
Inventor
Hiroshi Saito
浩 斎藤
Norimasa Kishi
則政 岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP8014359A priority Critical patent/JPH09212082A/en
Publication of JPH09212082A publication Critical patent/JPH09212082A/en
Pending legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To prevent the occurrence of the frame out and out-of-focus of the eyeballs. SOLUTION: The eyeball position in a picked up image and the focusing degree of the eyeball are detected from the image of the eyeball subjected to image pickup by a visual line input means. A marker indicating the eyeball position and the focusing degree display markers 32 respectively corresponding to focusing time, non-focusing time and eyeball non-detection time are displayed on a display screen. The deviation rate from the focusing position of the eyeball may be displayed in multiple stages together with the direction of the deviation and the focusing degree display markers 32 may be displayed in the visual line position on the screen.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、操作者の視線によ
って指示を入力する装置において、視線の検出精度を確
保するための技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for ensuring the detection accuracy of a line of sight in an apparatus for inputting an instruction by the line of sight of an operator.

【0002】[0002]

【従来の技術】従来の代表的な情報入力装置としては、
機械式スイッチ、電気式スイッチ、電子式スイッチ、あ
るいは音声認識を利用したスイッチ等が知られている。
かかる情報入力装置にあっては、操作対象となるスイッ
チを目で探して手で操作するという一連の動作を必要と
するため、例えば、車載されたナビゲーションシステム
の目的地入力のような複雑な操作(スケール操作、スク
ロール、ポイント設定)を行う場合は、地図情報を目で
確認して手で操作し、結果を再び目で確認するというル
ープを数多く実行することになり、操作性の観点からは
必ずしも優れたマンマシン・インターフェースとは言い
難い。
2. Description of the Related Art As a typical conventional information input device,
A mechanical switch, an electric switch, an electronic switch, a switch using voice recognition, and the like are known.
Such an information input device requires a series of operations of visually searching for a switch to be operated and manually operating the switch. Therefore, for example, a complicated operation such as destination input of a vehicle-mounted navigation system is required. When performing (scale operation, scrolling, point setting), many loops are performed to visually check the map information, manually operate it, and visually check the result again. From the viewpoint of operability, Not always a good man-machine interface.

【0003】また、手の届く所にスイッチを設置しなけ
ればならないため、装置のデザイン上の制約が生じる。
このため、リモートコントローラ(リモコン)による遠
隔操作方式とすることが一般的となっているが、例え
ば、装置を車載することを考えると、リモコンの設置場
所についての有効な案がなく、車両の振動や車線変更、
カーブ走行によってリモコンが不用意に移動してしまう
等の問題点がある。
Further, since the switch must be installed within easy reach, there are restrictions on the design of the device.
For this reason, a remote control method using a remote controller (remote control) is generally used. However, considering that the device is mounted in a vehicle, for example, there is no effective plan for the installation location of the remote control, and vibration of the vehicle Or lane change,
There is a problem that the remote control may move carelessly due to running on a curve.

【0004】リモコン以外にも、音声認識を利用した入
力装置が提案されているが、指令の言葉を覚えておかな
ければならないため、多くの操作を音声で行わせようと
すると、指令語の忘却や錯誤が発生する可能性がある。
また、使用者に発声を要求するため、人によっては好き
嫌いが生じることや、スイッチ操作中は、言葉によるコ
ミュニケーションが阻害される問題点が生じる。
Besides the remote controller, an input device using voice recognition has been proposed, but since the words of the command must be remembered, if many operations are to be performed by voice, the command word is forgotten. Or mistakes may occur.
In addition, since the user is required to speak, there are problems that some people like and dislike it, and that verbal communication is obstructed during the switch operation.

【0005】このように、スイッチ操作には、スイッチ
位置の確認やスイッチ動作状況の確認といった視覚に関
わる作業が必ずといってよいほど発生する。そこで、視
線のみで情報の伝達を行うことができれば、スイッチ操
作者の意図を、手指の操作や音声を使うことなしに制御
装置に伝達可能であると考えられる。
As described above, a visual operation such as confirmation of the switch position and confirmation of the switch operation state is inevitably generated in the switch operation. Therefore, it is considered that if the information can be transmitted only by the line of sight, the intention of the switch operator can be transmitted to the control device without using finger operation or voice.

【0006】また、視線を利用すれば、一つの情報入力
に一つの注視領域や視線移動を対応付けられるため、指
令の忘却、錯誤といった問題を解決することができる。
そのため、視線による情報入力装置が、例えば一眼レフ
カメラやビデオカメラ用として既に実用化されている。
Further, if the line of sight is used, one gaze area and line of sight movement can be associated with one information input, so that problems such as forgetting a command and mistakes can be solved.
Therefore, a line-of-sight information input device has already been put to practical use, for example, for a single-lens reflex camera or a video camera.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、視線方
向をインターフェースの道具として使用するには、一般
に、高い計測精度が要求される。特に、非接触で視線を
測る場合においては、一般にカメラで顔の二次元画像を
捉え、その画像の眼球部分を抽出して視線方向を特定す
ることが行われる。この場合には、使用者の動きを拘束
しない広い撮影視野と高い計測精度の両立が大きな課題
である。
However, in order to use the line-of-sight direction as an interface tool, high measurement accuracy is generally required. In particular, in the case of measuring the line of sight without contact, generally, a camera captures a two-dimensional image of the face, the eyeball portion of the image is extracted, and the line-of-sight direction is specified. In this case, it is a major issue to achieve both a wide field of view that does not restrain the movement of the user and high measurement accuracy.

【0008】即ち、高い計測精度を得ようとすると、狭
い撮影視野を観測するカメラを使わざるを得ず、使用者
は、眼球が撮影視野から外れないように意識しなければ
ならない。このことが結果的にマンマシン・インターフ
ェースの使い勝手を阻害する要因になるという問題点が
ある。前述の一眼レフカメラやビデオカメラに対する応
用例では、使用者の眼球は必ずファインダー内にあるた
め、使用中に眼球がフレームアウトする心配がなく、狭
い撮影視野と高い計測精度を両立可能である。
That is, in order to obtain high measurement accuracy, a camera for observing a narrow field of view must be used, and the user must be aware that the eyeball does not fall out of the field of view. As a result, there is a problem in that the usability of the man-machine interface is hindered. In the application example to the single-lens reflex camera or the video camera described above, since the user's eyeball is always in the finder, there is no concern that the eyeball will be out of frame during use, and a narrow photographing field of view and high measurement accuracy can both be achieved.

【0009】また、例えば、特開平1−274736号に記載
されているように、観察系の視野内に注視対象を表示す
る表示手段を持たせ、操作者に注視位置を知らせる技術
が開示されている。ところが、完全非接触な視線計測手
段を用いて、視線入力装置を自由空間で利用しようとし
た場合、前述のように操作者からの眼球のフレームアウ
トを未然に防ぐため、使用者の視線がカメラ視野のどこ
にあるのか、ピントの状態はどうかという情報を合わせ
て提示する必要がある。
Further, for example, as described in Japanese Patent Application Laid-Open No. 1-274736, there is disclosed a technique in which a display means for displaying a gaze target is provided in the field of view of an observation system to notify an operator of a gaze position. There is. However, when trying to use the line-of-sight input device in free space by using a completely non-contact line-of-sight measuring means, the line-of-sight of the user should be kept in view of the camera in order to prevent the operator's eyeball from being framed out as described above. It is necessary to provide information such as where in the visual field and how the focus is.

【0010】また、視線を検出するための画像入力部
を、眼球の移動に追従させることにより眼球のフレーム
アウトを防止することも可能であるが、当該追従制御を
行なうためには、オートフォーカス機構や首振り機構等
のハードウェアが必要となり、システムのコストアップ
につながる。そこで本発明は、かかる従来の問題点に着
目してなされたもので、操作者の眼球の撮像画像上の眼
球位置および合焦状態を画面上に表示することにより、
操作者の眼球位置の保持を容易に、かつ眼球を所定位置
に迅速に復帰できる視線入力装置を提供することを目的
とする。
It is also possible to prevent the frame out of the eyeball by causing the image input section for detecting the line of sight to follow the movement of the eyeball. However, in order to perform the follow-up control, the autofocus mechanism is used. And hardware such as a swing mechanism are required, which leads to an increase in system cost. Therefore, the present invention has been made by paying attention to such conventional problems, by displaying the eyeball position and the focus state on the captured image of the operator's eyeball on the screen,
An object of the present invention is to provide a line-of-sight input device that can easily hold the operator's eyeball position and quickly return the eyeball to a predetermined position.

【0011】[0011]

【課題を解決するための手段】上記目的を達成するた
め、請求項1に記載の発明は、操作者の視線方向を検出
し、該検出された視線方向に基づいて周辺機器の制御を
行う視線入力装置において、前記操作者の視線方向検出
のため操作者の眼球を撮像し、該眼球の撮像画像から求
められた該画像内の眼球位置と、眼球の合焦度合とを画
面上に表示するようにした。
In order to achieve the above object, the invention as set forth in claim 1 detects a visual line direction of an operator and controls a peripheral device based on the detected visual line direction. In the input device, the operator's eyeball is imaged for detecting the operator's gaze direction, and the eyeball position in the image obtained from the imaged image of the eyeball and the degree of focus of the eyeball are displayed on the screen. I did it.

【0012】請求項2に記載の発明は、操作者の眼球を
撮像する画像入力手段と、該画像入力手段による撮像画
像から画像内の眼球位置を検出する眼球位置検出手段
と、前記画像入力手段による撮像画像から該画像内の眼
球の合焦度合を検出する合焦度合検出手段と、操作者の
視線による指示を行うための情報を表示する表示手段
と、前記検出された操作者の視線方向と合焦度合とを前
記表示手段に表示させる表示制御手段と、を含んで構成
するようにした。
According to a second aspect of the present invention, an image input means for picking up an eyeball of an operator, an eyeball position detecting means for detecting an eyeball position in an image from an image picked up by the image inputting means, and the image inputting means. Focusing degree detecting means for detecting a focusing degree of the eyeball in the image from the captured image, display means for displaying information for giving an instruction by the operator's line of sight, and the detected line-of-sight direction of the operator. And a display control means for displaying the focus degree on the display means.

【0013】請求項3に記載の発明は、前記表示手段
は、前記検出した合焦度合に対応した合焦度合パターン
を表示するようにした。請求項4に記載の発明は、前記
合焦度合パターンは、前記撮像画像内の眼球の合焦時、
非合焦時、および眼球非検出時の3つの場合に対応した
それぞれ異なるパターンとした。
According to a third aspect of the present invention, the display means displays a focus degree pattern corresponding to the detected focus degree. According to a fourth aspect of the present invention, the focus degree pattern is set when the eyeball in the captured image is in focus,
Different patterns corresponding to the three cases of non-focusing and non-eyeball detection were used.

【0014】請求項5に記載の発明は、前記合焦度合パ
ターンは、操作者の眼球位置に対する、前記撮像画像内
の眼球が合焦する所定位置からのずれの方向が判別可能
なパターンとした。請求項6に記載の発明は、前記合焦
度合パターンは、操作者の眼球が合焦する所定位置から
のずれ量に応じてパターンの大きさを多段階に変化させ
るようにした。
According to a fifth aspect of the present invention, the focusing degree pattern is a pattern with which a direction of deviation from a predetermined position where the eyeball in the captured image is focused with respect to the eyeball position of the operator can be determined. . In the invention according to claim 6, the size of the focusing degree pattern is changed in multiple steps according to the amount of deviation from a predetermined position where the operator's eyeball is focused.

【0015】請求項7に記載の発明は、前記合焦度合の
パターンは、前記表示手段の視線が向けられた位置に表
示するようにした。
According to a seventh aspect of the present invention, the focus degree pattern is displayed at a position where the line of sight of the display means is directed.

【0016】[0016]

【発明の効果】請求項1に記載の発明によれば、操作者
の眼球の撮像画像から撮像画像内の眼球位置および合焦
度合を検出し、これらを表示手段に表示することによ
り、操作者が眼球状態を容易に確認することができ、以
て、眼球が合焦する所定位置に眼球位置を容易に保持す
ることができ、眼球位置が所定位置から離れた場合に迅
速に復帰させて視線方向を検出することができる。
According to the first aspect of the invention, the operator detects the eyeball position and the focus degree in the captured image from the captured image of the operator's eyeball and displays them on the display means. Can easily check the eyeball state, so that the eyeball position can be easily held at a predetermined position where the eyeball is in focus, and when the eyeball position is separated from the predetermined position, the eyeball can be quickly returned to the line of sight. The direction can be detected.

【0017】請求項2に記載の発明によれば、操作者の
眼球部分を画像入力手段により撮像し、該撮像画像から
操作者の画像内の眼球位置を眼球位置検出手段により検
出すると共に、合焦度合検出手段により撮像画像内の眼
球の合焦度合を検出して、画像内の眼球位置と合焦度合
とを表示手段に表示することにより、操作者の眼球がフ
レームアウトや焦点ずれ起こしたときに、表示手段に表
示された眼球位置や合焦状態を確認することにより、操
作者の眼球の位置を所定位置に迅速かつ容易に復帰さ
せ、視線方向を検出することができる。
According to the second aspect of the present invention, the eyeball portion of the operator is imaged by the image inputting means, and the eyeball position in the image of the operator is detected from the picked-up image by the eyeball position detecting means. By detecting the focus degree of the eyeball in the captured image by the focus degree detection means and displaying the eyeball position and the focus degree in the image on the display means, the operator's eyeball is out of frame or defocused. At this time, by confirming the eyeball position and the in-focus state displayed on the display means, it is possible to quickly and easily return the position of the operator's eyeball to a predetermined position and detect the line-of-sight direction.

【0018】請求項3に記載の発明によれば、検出した
合焦度合に応じたパターンを表示手段に表示させること
により、操作者は合焦度合をより容易に視認することが
できるようになる。請求項4に記載の発明によれば、操
作者の眼球位置が所定位置に入っているか否かを容易に
判断できると共に、眼球がフレームアウトしたとき等の
眼球が検出されていないことを確認することができ、操
作者が視線の入力状態をより明確に把握することができ
る。
According to the third aspect of the present invention, the operator can more easily visually recognize the focus degree by displaying the pattern according to the detected focus degree on the display means. . According to the invention as set forth in claim 4, it is possible to easily determine whether or not the eyeball position of the operator is within a predetermined position, and to confirm that the eyeball is not detected when the eyeball is framed out. Therefore, the operator can more clearly understand the input state of the line of sight.

【0019】請求項5に記載の発明によれば、操作者の
眼球位置が、撮像画像内の眼球が合焦する所定位置であ
るか、または所定位置より近すぎるか、あるいは遠すぎ
るかを容易に確認することができるため、眼球位置をい
ち早く眼球が合焦する所定位置に復帰させることができ
る。請求項6に記載の発明によれば、眼球位置が合焦時
の眼球位置より近いときは合焦度合パターンを大きく表
示する一方、合焦時の眼球位置より遠いときは合焦度合
パターンを小さく表示することにより、眼球位置を移動
させる方向を直感的に判断することができ、眼球位置の
所定位置へ速やかに復帰動作することができる。
According to the fifth aspect of the present invention, it is easy to determine whether the operator's eyeball position is at a predetermined position where the eyeball in the captured image is focused, or is too close or too far from the predetermined position. Therefore, the eyeball position can be quickly returned to the predetermined position where the eyeball is focused. According to the sixth aspect of the invention, when the eyeball position is closer to the in-focus eyeball position, the in-focus degree pattern is displayed larger, while when it is far from the in-focus eyeball position, the in-focus degree pattern is decreased. By displaying, it is possible to intuitively determine the direction in which the eyeball position is to be moved, and it is possible to quickly perform a returning operation to the predetermined position of the eyeball position.

【0020】請求項7に記載の発明によれば、操作者の
視線方向に合焦度合のパターンが表示されるため、合焦
度合を確認するために表示手段内で視線を動かす必要が
なくなり、眼球位置の状態をいち早く認知することがで
きるので、眼球位置の所定位置への復帰をより迅速に行
うことができる。
According to the invention of claim 7, since the pattern of the degree of focus is displayed in the direction of the line of sight of the operator, it is not necessary to move the line of sight in the display means in order to confirm the degree of focus. Since the state of the eyeball position can be recognized promptly, the eyeball position can be returned to the predetermined position more quickly.

【0021】[0021]

【発明の実施の形態】以下に本発明の実施の形態を図1
〜図8に基づいて説明する。第1の実施の形態は、操作
者の視線方向によって目的地を入力する車載用ナビゲー
ション装置に応用したものである。このナビゲーション
装置の目的地設定は、複雑な操作を伴うため車両停止中
に行う構成となっている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to FIG.
This will be described with reference to FIG. The first embodiment is applied to a vehicle-mounted navigation device that inputs a destination according to the direction of the operator's line of sight. The destination setting of this navigation device is performed while the vehicle is stopped because it involves complicated operations.

【0022】本実施の形態の視線入力装置の構成を図1
〜図3を用いて説明する。図1は本実施の形態における
視線入力装置の全体構成図で、図2は車載した場合の状
態、また図3は、ナビ表示画面の一例を示している。以
下に視線入力方法の概略を説明する。操作者(ここでは
車両の運転者)101 の近傍に近赤外線LED等の不可視
光を発する照明A102 を配設すると共に、照明Aと同一
の仕様を有した照明B103 を、照明A102 との相対関係
が既知の位置に配設し、これらの照明A102 および照明
B103 を照明発光制御部104 により制御しつつ操作者10
1 に向けて所定の条件で発光させる。
FIG. 1 shows the configuration of the line-of-sight input device of this embodiment.
This will be described with reference to FIG. FIG. 1 is an overall configuration diagram of the line-of-sight input device according to the present embodiment, FIG. 2 shows a state when mounted on a vehicle, and FIG. 3 shows an example of a navigation display screen. The outline of the line-of-sight input method will be described below. An illumination A102 that emits invisible light such as a near-infrared LED is arranged in the vicinity of an operator (the driver of the vehicle in this case) 101, and an illumination B103 having the same specifications as the illumination A is relative to the illumination A102. Is arranged at a known position, and the operator 10 controls the illumination A102 and the illumination B103 by the illumination light emission control unit 104.
It emits light toward 1 under the specified conditions.

【0023】一方、照明A102 の光照射方向と撮影方向
とを共軸系をなして配設された、例えば赤外線領域に対
する感度を有するCCDカメラ等の画像入力部105 によ
り、操作者の眼球を含む顔面領域を撮像する。この画像
入力部105 が画像入力手段に相当する。そして、撮像し
た画像信号をA/D変換器106 によりデジタルデータに
変換し、画像メモリ107 に保存する。
On the other hand, the operator's eyes are included by the image input unit 105 such as a CCD camera having a sensitivity to the infrared region, which is arranged so as to have the light irradiation direction of the illumination A102 and the photographing direction coaxial with each other. The face area is imaged. The image input unit 105 corresponds to the image input means. Then, the captured image signal is converted into digital data by the A / D converter 106 and stored in the image memory 107.

【0024】この画像メモリ107 に保存された撮像画像
から、瞳孔抽出部108 により網膜反射像(瞳孔位置)を
抽出し、角膜反射像抽出部109 により瞳孔位置近傍から
照明A102 の角膜反射像を抽出する。そして、合焦判断
部110 により角膜反射像の抽出結果から角膜反射像のピ
ントの合い具合を表す合焦度合を算出して合焦している
かを判断する。
From the imaged image stored in the image memory 107, the retina reflection image (pupil position) is extracted by the pupil extraction unit 108, and the cornea reflection image of the illumination A102 is extracted from the vicinity of the pupil position by the cornea reflection image extraction unit 109. To do. Then, the focus determination unit 110 calculates a focus degree indicating the degree of focus of the corneal reflection image from the extraction result of the corneal reflection image, and determines whether or not it is in focus.

【0025】また、注視位置算出部111 により、抽出し
た瞳孔と角膜反射像の位置から注視位置を算出し、注視
判定部112 により特定位置を注視しているか否かを判定
する。眼球状態算出部113 では、瞳孔抽出結果および合
焦判断結果に基づいて撮像画像内における眼球位置およ
び眼球の合焦度合を算出し、ナビ表示画面114 への表示
を制御する。この機能が眼球位置検出手段、合焦度合検
出手段、および表示制御手段に相当し、ナビ表示画面11
4 が表示手段に相当する。
A gaze position calculation unit 111 calculates a gaze position from the positions of the extracted pupil and corneal reflection image, and a gaze determination unit 112 determines whether or not a particular position is gazed. The eyeball state calculation unit 113 calculates the eyeball position in the captured image and the degree of focus of the eyeball based on the result of pupil extraction and the result of focus determination, and controls the display on the navigation display screen 114. This function corresponds to the eyeball position detection means, the focus degree detection means, and the display control means, and the navigation display screen 11
4 corresponds to the display means.

【0026】一方、前記注視判定結果に応じて、ナビゲ
ーション地図制御部115 によりナビ表示画面114 の表示
を制御し、ナビ表示画面114 にナビゲーションのための
表示を行う。また、眼球位置の計測に先立ち、校正作業
を行うために、校正用指標制御部116 により校正用指標
を画面の特定位置に描画し、該校正結果から注視位置算
出に必要な所定の変換係数を校正データ算出部117 によ
り算出する。そして、算出された校正データを校正デー
タ記憶部118 に記憶しておく。
On the other hand, the navigation map control unit 115 controls the display of the navigation display screen 114 according to the result of the gaze determination, and displays the navigation display screen 114 for navigation. Further, prior to the measurement of the eyeball position, in order to perform the calibration work, the calibration index control unit 116 draws the calibration index at a specific position on the screen, and the predetermined conversion coefficient necessary for the gaze position calculation is obtained from the calibration result. It is calculated by the calibration data calculation unit 117. Then, the calculated calibration data is stored in the calibration data storage unit 118.

【0027】さらに、目的地入力開始スイッチ119 をオ
ンにすることにより目的地入力を開始し、校正開始スイ
ッチ120をオンにすることにより校正を開始する。以上
の一連の処理を全体制御部121 により制御する。次に、
本実施の形態の視線入力装置の車載状態を図2を用いて
説明する。図2において、ステアリング201 の近傍にナ
ビゲーション用地図画面を表示するナビ表示画面114 を
配設し、該ナビ表示画面114 近傍に設置された目的地入
力開始スイッチ119 により目的地入力開始を指示し、同
じくナビ表示画面114 近傍に設置された校正開始スイッ
チ120 により校正開始を指示する。
Further, the destination input start switch 119 is turned on to start the destination input, and the calibration start switch 120 is turned on to start the calibration. The overall control unit 121 controls the series of processes described above. next,
The on-vehicle state of the line-of-sight input device according to the present embodiment will be described with reference to FIG. In FIG. 2, a navigation display screen 114 for displaying a navigation map screen is arranged near the steering wheel 201, and a destination input start switch 119 installed near the navigation display screen 114 is used to instruct the start of destination input. Similarly, a calibration start switch 120 provided near the navigation display screen 114 is used to instruct the start of calibration.

【0028】また、ナビ表示画面114 の下方には、画像
入力部105 、照明A102 、照明B103 が配設されてい
る。そして、ナビ表示画面114 には、図3に示すように
各種のアイコン31,32,33,34,35a,35b,35c,35d が表示さ
れている。これらのアイコンの表示状態はナビゲーショ
ン制御の状態によって異なるため、詳細は後述すること
にする。
Below the navigation display screen 114, an image input section 105, an illumination A102 and an illumination B103 are arranged. Then, various icons 31, 32, 33, 34, 35a, 35b, 35c, 35d are displayed on the navigation display screen 114 as shown in FIG. Since the display states of these icons differ depending on the state of navigation control, details will be described later.

【0029】次に、本実施の形態における視線入力方法
を図1、図2を用いて詳細に説明する。視線方向の計測
においては、視線の方向とナビ表示画面上に表示された
指標の位置との関係を明らかにする校正作業が必要とな
る。そこで、この校正作業について具体的な視線入力方
法を説明しながら以下に記す。
Next, the visual line inputting method according to the present embodiment will be described in detail with reference to FIGS. 1 and 2. In the measurement of the line-of-sight direction, it is necessary to perform calibration work to clarify the relationship between the line-of-sight direction and the position of the index displayed on the navigation display screen. Therefore, this proofreading work will be described below while explaining a specific eye-gaze input method.

【0030】操作者101 は、ナビ表示画面114 の近傍に
配設された校正開始スイッチ120 を押して校正を開始す
る。この校正時においては、ナビ表示画面114 上に図4
に示すような指標が一つずつ順次表示される。操作者は
表示されている間、指標を注視し続ける。画像入力部10
5 は、操作者の眼球を含む顔面領域の画像を入力し、A
/D変換器106 でデジタルデータに変換して、画像メモ
リ107 にストアする。このとき、照明A102 が点灯し、
照明B103 が消灯したときの画像Aと、照明B103 が点
灯し照明A102 が消灯したときの画像Bを入力する。
The operator 101 starts the calibration by pressing the calibration start switch 120 arranged near the navigation display screen 114. During this calibration, the navigation display screen 114 is shown in FIG.
The indexes shown in are sequentially displayed one by one. The operator keeps watching the index while being displayed. Image input section 10
5 inputs the image of the face area including the operator's eyeball, and A
The data is converted into digital data by the / D converter 106 and stored in the image memory 107. At this time, the illumination A102 lights up,
An image A when the illumination B103 is off and an image B when the illumination B103 is on and the illumination A102 is off are input.

【0031】瞳孔抽出部108 では、画像Aから画像Bの
差分演算を行う。画像Aは網膜からの反射光により瞳孔
が明るく光って観察され、画像Bは瞳孔が暗く観察され
るため、両者の差分結果は瞳孔領域が強調されたものと
なる。この差分画像を固定しきい値で2値化し、さらに
ラベリング処理を施すことにより、各瞳孔領域の番号付
けを行う。
The pupil extraction unit 108 calculates the difference between the image A and the image B. Since the pupil of the image A is observed brightly by the reflected light from the retina and the pupil of the image B is observed dark, the difference between the images is that the pupil region is emphasized. Each pupil region is numbered by binarizing this difference image with a fixed threshold value and further performing labeling processing.

【0032】この差分画像の中には、網膜反射像の他
に、例えば、眼鏡レンズ反射像、眼鏡フレーム反射像、
外部照明の変動で生じた顔の一部等、様々なノイズが含
まれる可能性がある。これらのノイズは、一般に不定形
状、且つ面積も不定であるため、予め予想される面積の
円や楕円として観察される網膜反射像とは識別可能であ
る。ここでは、瞳孔領域の面積と形状による識別を行
う。
In this difference image, in addition to the retina reflection image, for example, a spectacle lens reflection image, a spectacle frame reflection image,
Various noises may be included, such as part of the face caused by changes in external lighting. Since these noises generally have an indefinite shape and an indefinite area, they can be distinguished from a retinal reflection image observed as a circle or an ellipse having an area expected in advance. Here, discrimination is performed based on the area and shape of the pupil region.

【0033】ラベリングの結果得られた各領域の面積R
i を、予め決めておいたしきい値S 1 , S2 (ただし、
1 <S2 )と比較して、S1 <Ri <S2 を満足する
領域のみを抜き出す。ここで、S1 , S2 は、カメラの
撮影倍率から推定される画像上における瞳孔面積(画素
数)にセットしておけばよい。
Area R of each region obtained as a result of labeling
iIs a predetermined threshold value S 1, STwo(However,
S1<STwo) Compared to S1<Ri<STwoTo satisfy
Extract only the area. Where S1, STwoOf the camera
Area of the pupil (pixels in the image estimated from the imaging magnification
Just set it to (number).

【0034】眼鏡レンズ反射像も円形領域として観察さ
れるが、例えば、レンズの絞りを絞り込み、網膜反射像
の面積より眼鏡レンズ反射像の面積が小さくなるように
設定しておけば、その面積により両者を識別することが
できる。次に、識別されずに残った領域に対して、その
外接長方形の面積に対する領域面積の比率Fを計算す
る。網膜反射像は円または楕円形状で観測されるため、
比率Fが所定値Fth以上であることに対し、例えば眼鏡
フレーム反射は、フレームに沿った細長い形状となるの
で、仮に網膜反射像と同等の面積を有していても、Fが
小さくなり識別可能である。
The reflection image of the spectacle lens is also observed as a circular area. For example, if the aperture of the lens is narrowed and the area of the reflection image of the spectacle lens is set smaller than the area of the retina reflection image, Both can be distinguished. Next, for a region that remains unidentified, the ratio F of the region area to the area of the circumscribed rectangle is calculated. Since the retina reflection image is observed as a circle or an ellipse,
While the ratio F is equal to or greater than the predetermined value Fth, for example, the spectacle frame reflection has a long and narrow shape along the frame, and therefore even if it has the same area as the retina reflection image, F becomes small and can be identified. Is.

【0035】以上の識別の結果、残った領域を網膜反射
像に決定する。また、瞬きや眼球位置のフレームアウト
によって網膜反射像が発見されないときは、図3に示す
ように網膜反射像が発見されないことを示す表示を行
う。このとき、再び画像入力を行うことにより上述の処
理を繰り返す。次に、網膜反射像に決定した領域に対す
る処理を説明する。
As a result of the above discrimination, the remaining area is determined as a retina reflection image. Further, when the retinal reflection image is not found due to blinking or frame-out of the eyeball position, a display indicating that the retinal reflection image is not found is displayed as shown in FIG. At this time, the above processing is repeated by inputting an image again. Next, the processing for the area determined to be the retina reflection image will be described.

【0036】角膜反射像抽出部109 においては、抽出し
た網膜反射像の重心位置(Xg,Yg) を求め、差分画像上で
重心位置を中心とした網膜反射像を包含する小領域を設
定する。この小領域内で最大輝度を有する点を角膜反射
像とする。合焦判断部110 においては、抽出した角膜反
射像の輝度値Iを求め、小領域内をα・I(0<α<
1)をしきい値として2値化する。即ち、差分画像の画
素の輝度値がα・Iより大きければ1を、小さければ0
を設定する。そして、α・Iより大きな輝度値であった
画素の個数Kを算出する。
The corneal reflection image extraction unit 109 obtains the barycentric position (Xg, Yg) of the extracted retina reflection image, and sets a small area including the retina reflection image centered on the barycentric position on the difference image. A point having the maximum brightness in this small area is defined as a corneal reflection image. In the focus determination unit 110, the brightness value I of the extracted corneal reflection image is calculated, and α · I (0 <α <
Binarization is performed using 1) as a threshold value. That is, 1 if the luminance value of the pixel of the difference image is larger than α · I, 0 if it is smaller.
Set. Then, the number K of pixels having a luminance value larger than α · I is calculated.

【0037】ここで、もし差分画像が焦点の合った画像
であるならば、小領域内の角膜反射像に対する輝度ピー
クは鋭いものとなり、Kは小さい値となる。一方、差分
画像が焦点のぼけた画像であるならば、角膜反射像の輝
度ピークは緩やかなものとなり、Kは大きい値をとな
る。そこで、Kが予め設定した値より大きい場合に、入
力した画像はピントのぼけた画像であると判断する。
Here, if the difference image is an in-focus image, the luminance peak for the corneal reflection image in the small area becomes sharp and K has a small value. On the other hand, if the difference image is an out-of-focus image, the luminance peak of the corneal reflection image becomes gentle and K has a large value. Therefore, when K is larger than a preset value, it is determined that the input image is out of focus.

【0038】入力した画像のピントがぼけていない場合
は、眼球に合焦した画像が得られ、さらに、瞳孔重心が
画像中央付近に観測されたときに、校正データ算出部11
7 において、画像上の瞳孔重心(Xg,Yg) 、および角膜反
射像の座標(Px,Py) から、2つのパラメータδx =Xg−
Px,δy =Yg−Pyを求める。眼球状態表示制御部113 に
おいて、瞳孔重心(Xg,Yg) と角膜反射像への合焦の有無
を示す表示パターンを作成し、ナビ表示画面114 に表示
する。この表示パターンの一例を図4に示す。図4にお
いては、校正用指標41の位置を網膜反射像の重心位置に
見立て、その外部に眼球の撮影視野領域に見立てた移動
フレーム42を設けて、該移動フレーム42内の校正用指標
41の位置によって視野内の眼球位置を表示している。ま
た、角膜反射像に合焦しているときは、校正用指標41を
塗りつぶしパターンにして、角膜反射像に合焦していな
いときは、白抜きパターンにして表示する。
When the input image is not out of focus, an image focused on the eyeball is obtained, and when the pupil center of gravity is observed near the center of the image, the calibration data calculation unit 11
In Fig. 7, two parameters δx = Xg-from the center of gravity (Xg, Yg) of the pupil on the image and the coordinates (Px, Py) of the corneal reflection image.
Obtain Px, δy = Yg-Py. The eyeball state display control unit 113 creates a display pattern indicating the presence or absence of focus on the center of gravity (Xg, Yg) of the pupil and the corneal reflection image, and displays it on the navigation display screen 114. An example of this display pattern is shown in FIG. In FIG. 4, the position of the calibration index 41 is regarded as the position of the center of gravity of the retina reflection image, and a moving frame 42 is provided outside the position of the calibration index in the imaging field of view of the eyeball.
The position of 41 indicates the position of the eyeball in the visual field. When the corneal reflection image is in focus, the calibration index 41 is displayed as a filled pattern, and when the corneal reflection image is not in focus, it is displayed as a white pattern.

【0039】このように、眼球が撮影視野のどこにある
かに加え、眼球にピントが合っているか否かが表示され
るため、操作者自身が眼球のフレームアウトやピントの
ぼけを容易に確認でき、状況に応じて操作者が頭部位置
等を移動することにより、合焦する定位置に復帰するこ
とが可能となる。以上のδx ,δy の算出処理を同一指
標について、校正データがN回得られるまで行う。この
結果得られたN個のδx ,δy をそれぞれ平均化し、指
標iに対する平均校正データδxi,δyiとして、校正デ
ータ記憶部118 に記憶する。
As described above, since the position of the eyeball in the photographing field of view and whether or not the eyeball is in focus are displayed, the operator himself can easily check the frameout of the eyeball and the out-of-focus. It is possible for the operator to return to the in-focus fixed position by moving the head position or the like depending on the situation. The above-described calculation processing of δx and δy is repeated until calibration data is obtained N times for the same index. The N pieces of δx and δy obtained as a result are averaged and stored in the calibration data storage unit 118 as average calibration data δxi and δyi for the index i.

【0040】そして、用意された全ての指標(本実施の
形態においては、図5に示すように水平方向5点、垂直
方向5点の計10点)について平均校正データを求め、水
平方向について算出された平均校正データδx のグルー
プと、垂直方向について算出された平均校正データδy
のグループそれぞれに対し、最小二乗法により指標位置
とδx ,δy の変換式を決定する。即ち、一般に視線の
偏角が小さい領域においては、δx ,δy の値と指標位
置とが一次式y=ax+bで表されるものと考えて係数
a,bを決定する。
Then, the average calibration data is calculated for all the prepared indexes (in the present embodiment, 5 points in the horizontal direction and 5 points in the vertical direction as shown in FIG. 5 in total), and calculated in the horizontal direction. Group of averaged calibration data δx and averaged calibration data δy calculated in the vertical direction
For each group of, the index position and the conversion formulas of δx and δy are determined by the least squares method. That is, in general, in a region where the line-of-sight angle is small, the coefficients a and b are determined on the assumption that the values of δx and δy and the index position are represented by the linear expression y = ax + b.

【0041】以上の処理で校正作業が完了する。尚、こ
の校正作業は1度行った結果を保存して、必要に応じて
後で再利用すればよく、視線入力処理の度に行う必要は
ない。次に、本視線入力装置を使用した車載用ナビゲー
ション装置に対する目的地入力手順を図2,図3および
図6を用いて説明する。
The calibration work is completed by the above processing. It should be noted that this calibration work may be carried out once, saved, and reused later if necessary, and does not need to be carried out every time the line-of-sight input processing is performed. Next, a procedure for inputting a destination to a vehicle-mounted navigation device using the line-of-sight input device will be described with reference to FIGS. 2, 3 and 6.

【0042】ナビゲーション装置の目的地入力が必要に
なったときは、図2に示す目的地入力開始スイッチ119
を押すと、ナビ表示画面114 が図3に示すように表示さ
れ、目的地入力を受け付ける状態となる。また、目的地
入力開始スイッチを119 が押されると、その後連続して
前述の処理によりδx ,δy を随時算出して、校正時に
求めた変換式によってナビ画面115 上の位置座標に変換
し、該変換された位置に図3に示す注視領域表示マーカ
31をナビ表示画面上にスーパーインポーズする。このδ
x ,δy の算出と並行して、撮像画像内の瞳孔位置、角
膜反射像への合焦度合を算出し、ナビ表示画面114の左
上方に撮像画像内の眼球位置および合焦度合を表す合焦
度表示パターン32を表示する。
When it becomes necessary to input the destination of the navigation device, the destination input start switch 119 shown in FIG.
When is pressed, the navigation display screen 114 is displayed as shown in FIG. 3, and the destination input is accepted. Further, when the destination input start switch 119 is pressed, δx and δy are continuously calculated by the above-mentioned processing at any time thereafter, and converted into the position coordinates on the navigation screen 115 by the conversion formula obtained at the time of calibration. The gaze area display marker shown in FIG. 3 at the converted position
Superimpose 31 on the navigation display screen. This δ
In parallel with the calculation of x and δy, the pupil position in the captured image and the focusing degree to the corneal reflection image are calculated, and the eyeball position and the focusing degree in the captured image are displayed in the upper left part of the navigation display screen 114. The focus degree display pattern 32 is displayed.

【0043】この合焦度合表示パターン32は、撮影視野
に見立てた移動フレーム36内に眼球表示パターン37を描
画することによって、操作者が上下左右どちらに移動す
べきであるかが判断可能としている。即ち、眼球表示パ
ターン37が移動フレーム36の中心に位置するように頭部
を上下左右に移動させればよい。尚、眼球表示パターン
37は図4の校正用指標と同様に、合焦時には塗りつぶし
パターンにして、非合焦時には白抜きパターンにして表
示する。
With this focus degree display pattern 32, it is possible to determine whether the operator should move up, down, left or right by drawing the eyeball display pattern 37 in the moving frame 36 which is likened to the field of view. . That is, the head may be moved vertically and horizontally so that the eyeball display pattern 37 is located at the center of the moving frame 36. The eyeball display pattern
Similar to the calibration index of FIG. 4, 37 is displayed as a filled pattern when in focus and as a white pattern when out of focus.

【0044】次に、操作者101 がナビ表示画面115 の下
方に設定された広域表示マーカ33または詳細表示マーカ
34を注視すると、注視領域表示マーカ31が注視されたマ
ーカ上に移動する。ここで、例えば広域表示マーカ33を
注視する場合を考えると、広域表示マーカ33を注視し、
暫く(300msec 程度)目を閉じると、広域表示マーカ33
が選択確定される。これは、1回の注視位置算出に100m
sec を要するものとしたとき、3回連続して眼球が発見
されなかったこと等により判定すればよい。通常の瞬き
は約100msec で完了するため、不用意な瞬きによって選
択確定が起こることはない。
Next, the operator 101 sets the wide area display marker 33 or the detailed display marker set below the navigation display screen 115.
When the user gazes at 34, the gaze area display marker 31 moves onto the gazed marker. Here, considering the case of gazing at the wide area display marker 33, for example, gazing at the wide area display marker 33,
When the eyes are closed for a while (about 300 msec), the wide area display marker 33
Is selected and confirmed. This is 100m for one gaze position calculation
When it is assumed that sec is required, the determination may be made based on the fact that the eyeball was not found three times in a row. Since a normal blink completes in about 100 msec, selection confirmation does not occur due to careless blinking.

【0045】広域表示マーカ33が選択確定されると、ナ
ビ表示画面115 に表示された地図の縮尺が1ステップ広
域に変更(縮尺率が増大)され、広域に変更された地図
が再表示される。この広域表示マーカ33を複数回選択す
れば、目的地を画面内に表示することができる(S61) 。
次に、ナビ表示画面115 の4辺上に設定されたスクロー
ルマーカ35a,35b,35c,35d のいずれか1つを注視し、暫
く(300msec 程度)目を閉じることによって、スクロー
ル方向が選択確定され、スクロールマーカの示す所定の
方向への画面スクロールを行なう。これを必要に応じて
複数回行い、目的地近傍が画面中央に表示されるように
する(S62) 。
When the wide area display marker 33 is selected and confirmed, the scale of the map displayed on the navigation display screen 115 is changed to one step wide area (scale ratio is increased), and the map changed to the wide area is displayed again. . The destination can be displayed on the screen by selecting the wide area display marker 33 multiple times (S61).
Next, by paying attention to one of the scroll markers 35a, 35b, 35c, 35d set on the four sides of the navigation display screen 115 and closing the eye for a while (about 300 msec), the scroll direction is selected and confirmed. , Scrolls the screen in a predetermined direction indicated by the scroll marker. This is repeated multiple times as necessary so that the vicinity of the destination is displayed in the center of the screen (S62).

【0046】そして、目的地近傍が画面中央に表示され
たら、詳細表示マーカ34を選択確定して画面を拡大表示
する。このステップを複数回繰り返し、真の目的地が画
面に詳細表示されるようにする(S63) 。このようにし
て、真の目的地が画面に詳細表示されたら、操作者101
は、自分が設定したい目的地を注視し、注視領域表示マ
ーカ31が目的地を指したときに、暫く (約300msec 程
度)目を閉じることにより目的地を確定する(S64) 。
Then, when the vicinity of the destination is displayed in the center of the screen, the detailed display marker 34 is selected and confirmed and the screen is enlarged and displayed. This step is repeated multiple times so that the true destination is displayed in detail on the screen (S63). In this way, when the true destination is displayed in detail on the screen, the operator 101
Pays attention to the destination that he / she wants to set, and when the gaze area display marker 31 points to the destination, closes his eyes for a while (about 300 msec) to determine the destination (S64).

【0047】目的地を確定するとナビゲーション装置
は、ナビゲーション地図制御部114 により現在地から目
的地までの最適経路を計算し、ナビ表示画面115 の地図
上に表示する。そして、ナビ表示画面115を現在位置を
表示する画面に設定して、目的地に向けたナビゲーショ
ン動作を開始させる。
When the destination is fixed, the navigation device calculates the optimum route from the current position to the destination by the navigation map control unit 114 and displays it on the map on the navigation display screen 115. Then, the navigation display screen 115 is set to a screen for displaying the current position, and the navigation operation toward the destination is started.

【0048】以上説明したように、本実施の形態におい
ては、常に眼球が撮影視野のどこにあるのかに加え、眼
球にピントが合っているか否かがナビ表示画面に表示さ
れるため、操作者自身が眼球のフレームアウトやピント
のぼけを容易に確認でき、状況に応じて頭部位置等を移
動して眼球を検出でき合焦する所定位置に迅速に復帰す
ることができる。
As described above, in the present embodiment, the navigation display screen displays whether or not the eyeball is in the photographing field of view and whether or not the eyeball is in focus. Can easily confirm the out-of-focus or out-of-focus of the eyeball, and can move the head position or the like depending on the situation to detect the eyeball and quickly return to a predetermined position where the eye is in focus.

【0049】次に、操作者が自分の眼球を定位置に移動
させ易くした第2の実施の形態について説明する。本実
施の形態においては、眼球の合焦度合に応じて操作者の
位置が近すぎるときは、ナビ表示画面上の合焦度合表示
パターンを大きく表示し、操作者が遠すぎるときは合焦
度合表示パターンを小さく表示することによって、操作
者が自分の眼球を合焦する所定位置に移動するためにと
るべき対応を分かり易くしたものである。
Next, a second embodiment will be described in which the operator can easily move his or her own eyeball to a fixed position. In the present embodiment, when the position of the operator is too close according to the degree of focus of the eyeball, the focus degree display pattern on the navigation display screen is displayed large, and when the operator is too far, the focus degree is displayed. By displaying the display pattern in a small size, it is possible to easily understand the correspondence that the operator should take to move the eyeball to the predetermined position where the eyeball is focused.

【0050】以下にナビ表示画面の合焦度合の表示方法
の詳細を説明する。第1の実施の形態と同様にして網膜
反射像の抽出、角膜反射像の合焦度算出を行った後、眼
球に合焦していないと判断されたとき、眼球の合焦位置
からのずれを判定する。即ち、眼球に合焦していないと
判断されたとき、網膜反射像の面積S(画素)を算出
し、このSが予め設定しておいたしきい値Sthより大き
いとき、操作者がカメラに近づき過ぎ(後ピント)であ
ると判定し、SがSthよりも小さいとき、操作者がカメ
ラから遠ざかり過ぎ(前ピント)であると判定する。
The details of the method of displaying the focus degree on the navigation display screen will be described below. After extracting the retina reflection image and calculating the focus degree of the corneal reflection image in the same manner as in the first embodiment, when it is determined that the eyeball is out of focus, the deviation of the eyeball from the in-focus position is performed. To judge. That is, when it is determined that the eye is not in focus, the area S (pixels) of the retina reflection image is calculated, and when this S is larger than a preset threshold Sth, the operator approaches the camera. It is determined to be too far (rear focus), and when S is smaller than Sth, it is determined that the operator is too far from the camera (front focus).

【0051】図7に示すように、後ピントのときは合焦
度合表示パターン71の眼球表示パターン72を大きくし、
前ピントのときは眼球表示を小さくすれば、操作者はナ
ビ表示画面の合焦度合表示パターン71を見て、自分が遠
ざかるべきか、近づくべきかを容易に判断することがで
きる。即ち、操作者は眼球表示パターン72が通常の大き
さになるか、眼球表示パターン72が塗りつぶし表示にな
るように頭部を前後に移動させればよい。
As shown in FIG. 7, at the time of rear focus, the eyeball display pattern 72 of the focus degree display pattern 71 is enlarged,
If the eyeball display is made small during the front focus, the operator can easily judge whether he should move away or approach by looking at the focus degree display pattern 71 on the navigation display screen. That is, the operator may move the head back and forth so that the eyeball display pattern 72 has a normal size or the eyeball display pattern 72 has a filled display.

【0052】ここにおいて、操作者の眼球がフレームア
ウトしたときは、眼球が検出できず、自分の眼球をどこ
に移動すればよいかが指示されなくなる。そこで、例え
ば、ナビゲーション装置のナビ表示画面を見るときの眼
球位置は、操作者毎にほぼ一定であると考えられるた
め、予め、普段ナビ表示画面を見る位置で眼球が捕捉で
きるように画像入力部105 、照明A102 、および照明B
103 の向きを変更しておく。これにより、眼球位置の指
示が得られない事態を回避することができる。
Here, when the eyeball of the operator is framed out, the eyeball cannot be detected, and it is no longer instructed where to move his or her eyeball. Therefore, for example, the eyeball position when looking at the navigation display screen of the navigation device is considered to be almost constant for each operator. Therefore, the image input unit is designed so that the eyeball can be captured in advance at the position where the navigation display screen is normally viewed. 105, Illumination A 102, and Illumination B
Change the orientation of 103. As a result, it is possible to avoid the situation where the instruction of the eyeball position cannot be obtained.

【0053】また、操作者が代わる毎にこの調整をして
おくことにより、ナビゲーション制御時に操作者の眼球
位置がフレームアウトする可能性を低減することができ
る。以上説明したように、本実施の形態においては、操
作者の眼球位置のずれを、上下左右方向のみならず、前
後方向についても可視化するようにしたため、即座に眼
球を定位置に移動することができるようになる。その結
果、操作性の高いマンマシーン・インターフェースを構
築することができる。
By making this adjustment each time the operator changes, it is possible to reduce the possibility that the eyeball position of the operator will be out of frame during navigation control. As described above, in the present embodiment, the displacement of the operator's eyeball position is visualized not only in the up-down and left-right directions but also in the front-back direction, so that the eyeball can be immediately moved to the fixed position. become able to. As a result, a man-machine interface with high operability can be constructed.

【0054】次に、操作者の眼球状態を注視領域に表示
した第3の実施の形態を説明する。本実施の形態による
視線入力装置によれば、図8に示すように、視線入力を
行う注視領域表示マーカ31に、操作者の眼球位置と眼球
への合焦度合(第1の実施の形態に相当)、または眼球
位置の合焦する所定位置からのずれの状態(第2の実施
の形態に相当)を随時表示する。
Next, a third embodiment in which the eyeball state of the operator is displayed in the gaze area will be described. According to the line-of-sight input device according to the present embodiment, as shown in FIG. 8, the eye-gaze area display marker 31 that performs line-of-sight input has the operator's eyeball position and the degree of focusing on the eyeball (in the first embodiment). (Corresponding to the second embodiment), or a state of deviation of the eyeball position from a predetermined in-focus position (corresponding to the second embodiment) is displayed at any time.

【0055】このため、操作者が自身の眼球位置への合
焦位置とピントの状態や、眼球位置のずれを同時に把握
することができ、眼球位置を合焦する所定位置に復帰す
ることが容易となり、狭い撮影視野における視線計測精
度を向上させ、より安定した視線入力を行うことができ
る。このように、本実施の形態によれば、操作者の眼球
状態をより速く、より自然に認識できるという効果が得
られる。
Therefore, the operator can simultaneously grasp the in-focus position and the focus state of the own eyeball position and the deviation of the eyeball position, and easily return the eyeball position to the predetermined position for focusing. Therefore, it is possible to improve the line-of-sight measurement accuracy in a narrow field of view and perform more stable line-of-sight input. As described above, according to the present embodiment, it is possible to obtain the effect that the eyeball state of the operator can be recognized more quickly and more naturally.

【0056】尚、以上説明した3つの実施の形態におい
ては、眼球の位置と合焦度合を、計算機で作成した人工
画像で表示しているが、これを、カメラで撮影した原画
像(照明A102 点灯時の画像)をスーパーインポーズ表
示してもよい。また、上記の3つの実施の形態は、本発
明の視線入力装置をナビゲーション装置に適用した一例
に基づいて説明したが、本発明はこれに限定されること
なく、特定の周辺機器を制御する視線入力装置として広
く利用することができる。
In the three embodiments described above, the position of the eyeball and the degree of focus are displayed as an artificial image created by a computer. However, this is an original image captured by a camera (illumination A102). The image when it is lit) may be displayed superimposed. Further, the above-described three embodiments have been described based on an example in which the line-of-sight input device of the present invention is applied to a navigation device, but the present invention is not limited to this, and a line-of-sight for controlling a specific peripheral device can be used. It can be widely used as an input device.

【図面の簡単な説明】[Brief description of drawings]

【図1】 第1〜第3の実施の形態に共通の基本構成
図。
FIG. 1 is a basic configuration diagram common to the first to third embodiments.

【図2】 第1〜第3の実施の形態に共通の視線検出装
置を車載した様子を示す図。
FIG. 2 is a diagram showing a state in which a visual line detection device common to the first to third embodiments is mounted on a vehicle.

【図3】 ナビ表示画面の一例を示す図。FIG. 3 is a diagram showing an example of a navigation display screen.

【図4】 校正用指標の表示の一例を示す図。FIG. 4 is a diagram showing an example of a display of a calibration index.

【図5】 校正用指標の表示位置を示す図。FIG. 5 is a diagram showing a display position of a calibration index.

【図6】 目的地設定処理のフローチャートと各段階に
おけるナビ表示画面を示す図。
FIG. 6 is a diagram showing a flowchart of a destination setting process and a navigation display screen at each stage.

【図7】 第2の実施の形態におけるナビ表示画面を示
す図。
FIG. 7 is a diagram showing a navigation display screen according to the second embodiment.

【図8】 第3の実施の形態におけるナビ表示画面を示
す図。
FIG. 8 is a diagram showing a navigation display screen according to the third embodiment.

【符号の説明】[Explanation of symbols]

101 操作者 102 照明A 103 照明B 110 合焦判断部 114 ナビ表示画面 31 注視領域表示マーカ 32,71,81 合焦度合表示マーカ 37,72 眼球表示マーカ 101 Operator 102 Illumination A 103 Illumination B 110 Focus determination unit 114 Navigation display screen 31 Gaze area display marker 32,71,81 Focus degree display marker 37,72 Eyeball display marker

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】操作者の視線方向を検出し、該検出された
視線方向に基づいて周辺機器の制御を行う視線入力装置
において、 前記操作者の視線方向検出のため操作者の眼球を撮像
し、該眼球の撮像画像から求められた該画像内の眼球位
置と、眼球の合焦度合とを画面上に表示することを特徴
とする視線入力装置。
1. A visual line input device for detecting a visual line direction of an operator and controlling peripheral devices based on the detected visual line direction, wherein an eyeball of the operator is imaged for detecting the visual line direction of the operator. A line-of-sight input device displaying an eyeball position in the image obtained from a captured image of the eyeball and a focus degree of the eyeball on a screen.
【請求項2】操作者の眼球を撮像する画像入力手段と、 該画像入力手段による撮像画像から該画像内の眼球位置
を検出する眼球位置検出手段と、 前記画像入力手段による撮像画像から該画像内の眼球の
合焦度合を検出する合焦度合検出手段と、 操作者の視線による指示を行うための情報を表示する表
示手段と、 前記検出された操作者の視線方向と合焦度合とを前記表
示手段に表示させる表示制御手段と、を含んで構成した
請求項1に記載の視線入力装置。
2. An image input means for picking up an eyeball of an operator, an eyeball position detecting means for detecting an eyeball position in the image from an image picked up by the image input means, and an image picked up by the image input means Focusing degree detection means for detecting the focusing degree of the eyeball in the inside, display means for displaying information for giving an instruction by the operator's line of sight, and the detected operator's line-of-sight direction and focus degree The line-of-sight input device according to claim 1, comprising display control means for displaying on the display means.
【請求項3】前記表示手段は、前記検出した合焦度合に
対応した合焦度合パターンを表示するようにした請求項
2に記載の視線入力装置。
3. The line-of-sight input apparatus according to claim 2, wherein the display means displays a focus degree pattern corresponding to the detected focus degree.
【請求項4】前記合焦度合パターンは、前記撮像画像内
の眼球の合焦時、非合焦時、および眼球非検出時の3つ
の場合に対応したそれぞれ異なるパターンである請求項
3に記載の視線入力装置。
4. The focusing degree pattern is a different pattern corresponding to three cases of focusing, non-focusing, and non-detecting an eyeball in the captured image. Eye gaze input device.
【請求項5】前記合焦度合パターンは、操作者の眼球位
置に対する、前記撮像画像内の眼球が合焦する所定位置
からのずれの方向が判別可能なパターンである請求項2
に記載の視線入力装置。
5. The focus degree pattern is a pattern in which a direction of deviation from a predetermined position where the eyeball in the captured image is focused with respect to the eyeball position of the operator can be determined.
The line-of-sight input device described in.
【請求項6】前記合焦度合パターンは、操作者の眼球が
合焦する所定位置からのずれ量に応じてパターンの大き
さを多段階に変化させるようにした請求項5に記載の視
線入力装置。
6. The line-of-sight input according to claim 5, wherein the focus degree pattern is configured such that the size of the pattern is changed in multiple stages according to the amount of deviation from a predetermined position where the operator's eye is focused. apparatus.
【請求項7】前記合焦度合パターンは、前記表示手段の
視線が向けられた位置に表示するようにした請求項3〜
請求項6のいずれか1つに記載の視線入力装置。
7. The focus degree pattern is displayed at a position to which the line of sight of the display means is directed.
The visual line input device according to claim 6.
JP8014359A 1996-01-30 1996-01-30 Visual line input device Pending JPH09212082A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8014359A JPH09212082A (en) 1996-01-30 1996-01-30 Visual line input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8014359A JPH09212082A (en) 1996-01-30 1996-01-30 Visual line input device

Publications (1)

Publication Number Publication Date
JPH09212082A true JPH09212082A (en) 1997-08-15

Family

ID=11858880

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8014359A Pending JPH09212082A (en) 1996-01-30 1996-01-30 Visual line input device

Country Status (1)

Country Link
JP (1) JPH09212082A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005059736A1 (en) * 2003-12-17 2005-06-30 National University Corporation Shizuoka University Device and method for controlling pointer by detecting pupil
JP2005182247A (en) * 2003-12-17 2005-07-07 National Univ Corp Shizuoka Univ Pointing device and method by pupil position detection
JP2012141988A (en) * 2011-01-05 2012-07-26 Visteon Global Technologies Inc System ready switch for eye tracking human machine interaction control system
US20120200490A1 (en) * 2011-02-03 2012-08-09 Denso Corporation Gaze detection apparatus and method
CN104097587A (en) * 2013-04-15 2014-10-15 观致汽车有限公司 Driving prompting control device and method
JP2015010895A (en) * 2013-06-27 2015-01-19 株式会社ナビタイムジャパン Selected route database generation system, selected route database generation method, and program
JP2015101292A (en) * 2013-11-27 2015-06-04 株式会社デンソー Sight line detection device and method
JP2015118579A (en) * 2013-12-18 2015-06-25 株式会社デンソー Line of sight detection device, and line of sight detection method
WO2016013252A1 (en) * 2014-07-22 2016-01-28 オリンパス株式会社 Medical treatment system
JP2017132455A (en) * 2016-12-26 2017-08-03 株式会社デンソー Sight line detection device and sight line detection method

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005059736A1 (en) * 2003-12-17 2005-06-30 National University Corporation Shizuoka University Device and method for controlling pointer by detecting pupil
JP2005182247A (en) * 2003-12-17 2005-07-07 National Univ Corp Shizuoka Univ Pointing device and method by pupil position detection
JP2012141988A (en) * 2011-01-05 2012-07-26 Visteon Global Technologies Inc System ready switch for eye tracking human machine interaction control system
US20120200490A1 (en) * 2011-02-03 2012-08-09 Denso Corporation Gaze detection apparatus and method
JP2012164012A (en) * 2011-02-03 2012-08-30 Denso Corp Sight line detection device and sight line detection method
US8866736B2 (en) 2011-02-03 2014-10-21 Denso Corporation Gaze detection apparatus and method
CN104097587A (en) * 2013-04-15 2014-10-15 观致汽车有限公司 Driving prompting control device and method
JP2015010895A (en) * 2013-06-27 2015-01-19 株式会社ナビタイムジャパン Selected route database generation system, selected route database generation method, and program
JP2015101292A (en) * 2013-11-27 2015-06-04 株式会社デンソー Sight line detection device and method
JP2015118579A (en) * 2013-12-18 2015-06-25 株式会社デンソー Line of sight detection device, and line of sight detection method
WO2016013252A1 (en) * 2014-07-22 2016-01-28 オリンパス株式会社 Medical treatment system
JP5911655B1 (en) * 2014-07-22 2016-04-27 オリンパス株式会社 Medical system
CN105873539A (en) * 2014-07-22 2016-08-17 奥林巴斯株式会社 Medical treatment system
US9483114B2 (en) 2014-07-22 2016-11-01 Olympus Corporation Medical system
CN105873539B (en) * 2014-07-22 2018-06-29 奥林巴斯株式会社 Medical system
JP2017132455A (en) * 2016-12-26 2017-08-03 株式会社デンソー Sight line detection device and sight line detection method

Similar Documents

Publication Publication Date Title
JP3324295B2 (en) Gaze direction measuring device for vehicles
JP2988178B2 (en) Gaze direction measuring device
US10506913B2 (en) Apparatus operation device, apparatus operation method, and electronic apparatus system
US20210382559A1 (en) Ui for head mounted display system
JP5227340B2 (en) Control method for imaging especially based on optional eye signal
KR20120040211A (en) Image recognition device, operation determination method, and program
JP2002529763A (en) Eye tracking system
JP4491604B2 (en) Pupil detection device
US20150009103A1 (en) Wearable Display, Computer-Readable Medium Storing Program and Method for Receiving Gesture Input
JP3735947B2 (en) Line-of-sight input device
JPH09167049A (en) Line of sight input device for console
US10585476B2 (en) Apparatus operation device, apparatus operation method, and electronic apparatus system
JPH09212082A (en) Visual line input device
CN112368669A (en) Binocular system for inputting commands
KR20130051319A (en) Apparatus for signal input and method thereof
WO2018051685A1 (en) Luminance control device, luminance control system, and luminance control method
CA3117533A1 (en) Ui for head mounted display system
JPH09251539A (en) Line-of-sight measuring instrument
JP2016035654A (en) Sight line detecting device, and sight line input system
KR20170096609A (en) Displaying control apparatus of head up display
JP7414590B2 (en) Control equipment and medical observation systems
JP2005296383A (en) Visual line detector
JP2018190213A (en) Face recognition device and sight line detection device
JPH08159733A (en) Line of sight direction measuring instrument for vehicle
JPH07229714A (en) Sight direction measuring equipment for vehicle