JP3185522B2 - Gaze direction measuring device for vehicles - Google Patents

Gaze direction measuring device for vehicles

Info

Publication number
JP3185522B2
JP3185522B2 JP04039394A JP4039394A JP3185522B2 JP 3185522 B2 JP3185522 B2 JP 3185522B2 JP 04039394 A JP04039394 A JP 04039394A JP 4039394 A JP4039394 A JP 4039394A JP 3185522 B2 JP3185522 B2 JP 3185522B2
Authority
JP
Japan
Prior art keywords
image
reflection image
gaze direction
image data
retinal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP04039394A
Other languages
Japanese (ja)
Other versions
JPH07229714A (en
Inventor
卓夫 石若
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP04039394A priority Critical patent/JP3185522B2/en
Publication of JPH07229714A publication Critical patent/JPH07229714A/en
Application granted granted Critical
Publication of JP3185522B2 publication Critical patent/JP3185522B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、車両運転者の視線方
向を遠隔から非接触で計測する車両用視線方向計測装置
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a gaze direction measuring device for a vehicle, which measures the gaze direction of a vehicle driver remotely without contact.

【0002】[0002]

【従来の技術】この種の視線方向計測装置は、車両用の
非接触マンマシンインタフェイスとして、例えば車両運
転者の注目している方向に視覚情報を表示するとか、視
線方向に応じて特定のスイッチを動作させるなど、種々
の目的への利用が期待されている。このようなインタフ
ェイスを構成するために必要な、車両運転者の視線方向
の計測装置として、従来、眼球の角膜反射像の位置を画
像情報として取り入れて計測する装置が提案されてい
る。角膜反射像は、眼球への照射光が眼球を構成する光
学系の各面で反射、屈折することによって生じる像であ
り、プルキンエ像とも呼ばれている。
2. Description of the Related Art A gaze direction measuring device of this kind is used as a non-contact man-machine interface for a vehicle, for example, to display visual information in a direction of interest of a vehicle driver or to specify a specific information in accordance with a gaze direction. It is expected to be used for various purposes such as operating a switch. Conventionally, as a device for measuring the line of sight of a vehicle driver necessary for configuring such an interface, a device that takes in and measures the position of a corneal reflection image of an eyeball as image information has been proposed. The corneal reflection image is an image generated by the irradiation light on the eyeball being reflected and refracted by each surface of the optical system constituting the eyeball, and is also called a Purkinje image.

【0003】しかしながら、車両運転者が眼鏡を装着し
ていると、図15に示すように、照明光がレンズ表面や
裏面、あるいはフレームから反射する。さらにこれらの
反射像W1、W2、W3等がある大きさをもつと、網膜
反射像M、角膜反射像Kとの識別が困難となる。反射像
が大きさを持つ場合とは、例えば、光学系ではボケによ
る影響が原因となり、また、撮像系ではブルーミングに
よる影響が原因となって、反射像が大きさをもつように
なる。したがって、これらと眼球の反射像とを識別して
眼鏡装着者であっても精度よく視線方向を計測できるこ
とが必要である。
[0005] However, when the vehicle driver wears spectacles, as shown in FIG. 15, illumination light is reflected from the lens surface, the back surface, or the frame. Furthermore, if these reflection images W1, W2, W3, etc. have a certain size, it becomes difficult to distinguish between the retinal reflection image M and the corneal reflection image K. The case where the reflection image has a size means that the reflection image has a size due to, for example, the effect of blurring in the optical system and the effect of the blooming in the imaging system. Therefore, it is necessary that the eye gaze direction can be accurately measured even by a spectacle wearer by discriminating between these and the reflected image of the eyeball.

【0004】そこで、従来、眼鏡装着者を対象としてそ
の視線方向を計測するものとしては、例えば特開平4−
138431号公報や、特開平4−138432号公報
に開示された装置がある。これらは、カメラのファイン
ダーを覗いている撮影者の視線方向を計測するものであ
り、2個の光源を用いて眼球に同時照射した時の反射像
の間隔が、図16に示されるように、眼鏡レンズの反射
像W、Wでは大きくなり、角膜反射像K、Kでは小さく
なることを利用して、眼鏡による反射像を識別するよう
にしている。
In order to measure the gaze direction of a spectacle wearer, Japanese Patent Laid-Open No.
There are devices disclosed in Japanese Patent Application Laid-Open No. 138431 and Japanese Patent Application Laid-Open No. 4-138432. These measures the gaze direction of the photographer looking through the viewfinder of the camera, and the intervals between the reflection images when the eyeballs are simultaneously illuminated using two light sources, as shown in FIG. Utilizing the fact that the reflection images W and W of the spectacle lens become large and the corneal reflection images K and K become small, the reflection image by the spectacles is identified.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、被験者
としては何ら拘束を受けず自由空間で任意に頭部を変位
させ得る車両運転者を対象とする場合、眼鏡レンズだけ
でなく眼鏡フレームからの反射光も画像情報として混入
することになり、上記のようにカメラのファインダーを
覗いている撮影者の視線だけを計測対象とする装置では
識別が困難である。すなわち、眼鏡レンズからの反射光
は、先の図16に示されるように、2個の光源を結ぶ線
とほぼ平行の同一線上に観測されるが、眼鏡フレームか
らの反射光はランダムな位置に発生する。したがって、
とくに計測のためペアを組むべき角膜反射像の近傍に眼
鏡フレームによる反射像が現われると、どの反射像とど
の反射像がぺアとなるのか判別が困難となり、正確に角
膜反射像を判定することができない。このため、上記従
来のカメラ撮影者用の視線方向計測装置では、車両運転
者用として有効に適用できないという問題がある。
However, if the subject is a vehicle driver who can freely displace his or her head in free space without any restriction, the reflected light from not only the spectacle lens but also the spectacle frame. Is also mixed in as image information, and it is difficult to identify the apparatus using only the line of sight of the photographer looking through the viewfinder of the camera as described above. That is, the reflected light from the spectacle lens is observed on the same line almost parallel to the line connecting the two light sources, as shown in FIG. 16, but the reflected light from the spectacle frame is at a random position. appear. Therefore,
In particular, if a reflection image from the spectacle frame appears near the corneal reflection image to be paired for measurement, it becomes difficult to determine which reflection image and which reflection image are paired, and it is necessary to accurately determine the corneal reflection image Can not. For this reason, the conventional gaze direction measuring device for a camera photographer has a problem that it cannot be effectively applied to a vehicle driver.

【0006】また、図15のように、眼鏡レンズからの
反射像W1がある面積を有し、網膜反射像M付近に現わ
れると、1つの角膜反射像を判定する拠り所となる網膜
反射像の特定も困難となる。したがって、本発明は上記
のような従来の問題点に鑑み、車両運転者が眼鏡を装着
していても、確実に角膜反射像を抽出でき、精度よく視
線方向を計測できる車両用視線方向計測装置を提供する
ことを目的とする。
Further, as shown in FIG. 15, when a reflection image W1 from a spectacle lens has a certain area and appears near a retinal reflection image M, a retinal reflection image which is a basis for determining one corneal reflection image is specified. Will also be difficult. Accordingly, the present invention has been made in view of the above-described conventional problems, and therefore, it is possible to reliably extract a corneal reflection image even when a vehicle driver wears eyeglasses and accurately measure a gaze direction. The purpose is to provide.

【0007】[0007]

【課題を解決するための手段】このため本発明は、図1
に示すように、運転者の眼球を異なる方向から照射する
複数の照明62a、62bと、該複数の照明による眼球
からの反射像を撮像する撮像装置63を備えて各照明毎
の画像デ−タを得る画像入力手段61と、画像デ−タか
ら網膜反射像を抽出して瞳孔中心を算出する網膜反射像
抽出手段64と、画像デ−タから角膜反射像を抽出する
角膜反射像抽出手段65と、抽出された角膜反射像と瞳
孔中心より運転者の視線方向を算出する視線方向算出手
段66とを有し、画像入力手段61は、前記の画像デ−
タとして網膜反射像に特有の色成分を有する画像デ−タ
とその他の色成分を有する画像デ−タとを得、網膜反射
像抽出手段64は、網膜反射像に特有の色成分を有する
画像デ−タを用いて他の反射像から識別して網膜反射像
を抽出し、角膜反射像抽出手段65は、前記網膜反射像
の位置を基に角膜反射像を抽出するように構成されたも
のとした。
SUMMARY OF THE INVENTION For this reason, the present invention has been described with reference to FIG.
As shown in FIG. 7, a plurality of illuminations 62a and 62b for irradiating the driver's eyeball from different directions, and an image pickup device 63 for imaging a reflection image from the eyeball by the plurality of illuminations are provided. , A retinal reflection image extracting means 64 for extracting a retinal reflection image from image data and calculating a pupil center, and a corneal reflection image extracting means 65 for extracting a corneal reflection image from the image data. And a gaze direction calculating means 66 for calculating the gaze direction of the driver from the extracted corneal reflection image and the center of the pupil.
Image data having a color component specific to the retinal reflection image and image data having other color components are obtained as data, and the retinal reflection image extraction means 64 obtains an image having a color component specific to the retinal reflection image. A retinal reflection image is extracted by distinguishing from other reflection images using data, and the corneal reflection image extracting means 65 is configured to extract a corneal reflection image based on the position of the retinal reflection image. And

【0008】[0008]

【作用】複数照明により、照明毎に反射像の位置がずれ
た複数の画像データが得られる。網膜反射像抽出手段6
4、角膜反射像抽出手段65では複数画像データの差分
演算その他の画像処理により得られた候補領域から網膜
反射像、角膜反射像を抽出する。ここで、網膜反射像の
場合には.とくに赤など眼鏡レンズ表面からの反射像に
は見られない特有の色成分が含まれている。画像入力手
段61が網膜反射像に特有の色成分を有する画像デ−タ
d1とその他の色成分を有する画像デ−タd2とを得る
ようになっており、網膜反射像抽出手段64ではこのう
ち網膜反射像に特有の上記色成分を有する画像デ−タd
1を用いるので、車両運転者が眼鏡を装用している場合
でも、他の反射像から識別して網膜反射像が確実に特定
でき、高精度に網膜反射像が抽出される。そして、角膜
反射像抽出手段65は、上記抽出された網膜反射像を参
照して角膜反射像を特定するから、容易に抽出される。
According to the plurality of illuminations, a plurality of image data in which the position of the reflection image is shifted for each illumination can be obtained. Retinal reflection image extraction means 6
4. The corneal reflection image extraction means 65 extracts a retinal reflection image and a corneal reflection image from a candidate area obtained by calculating a difference between a plurality of image data and other image processing. Here, in the case of a retinal reflection image. In particular, a specific color component, such as red, which is not seen in the reflection image from the surface of the spectacle lens is included. The image input means 61 obtains image data d1 having a color component specific to the retinal reflection image and image data d2 having other color components, and the retinal reflection image extracting means 64 obtains the image data d1. Image data d having the above-mentioned color component peculiar to a retinal reflection image
Since 1 is used, even when the vehicle driver wears spectacles, the retinal reflection image can be reliably identified by identifying from other reflection images, and the retinal reflection image is extracted with high accuracy. Then, the corneal reflection image extracting means 65 specifies the corneal reflection image with reference to the extracted retinal reflection image, and is therefore easily extracted.

【0009】[0009]

【実施例】以下、この発明を図面に基づいて説明する。
図2は、本発明を車両の視線スイッチシステムに適用し
た実施例の構成を示し、図3はその車載レイアウトを示
す。運転者の眼球13を撮像するよう、計器盤上にCC
D等を用いたカラーカメラ4が設置される。車両運転者
の眼球位置は、例えばJIS(日本工業規格)D002
1に示されるように、自動車の運転者のアイレンジとし
て統計的に示された限定領域に存在するから、カラーカ
メラ4の撮像範囲はそこに限定でき、車両運転者に比較
的近接して設置できる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below with reference to the drawings.
FIG. 2 shows a configuration of an embodiment in which the present invention is applied to a line-of-sight switch system of a vehicle, and FIG. 3 shows a layout on a vehicle. In order to image the driver's eyeball 13, CC on the instrument panel
A color camera 4 using D or the like is installed. The eyeball position of the vehicle driver is, for example, JIS (Japanese Industrial Standard) D002.
As shown in FIG. 1, since the color camera 4 exists in a limited area statistically indicated as the eye range of the driver of the automobile, the imaging range of the color camera 4 can be limited to that area, and is installed relatively close to the vehicle driver. it can.

【0010】そして、カラーカメラ4のレンズの前面
に、カメラの光軸と照射方向が一致するように取り付け
られた共軸系の第1の発散照明1が運転者の眼球部に向
けて設けられる。また、カラーカメラ4から離れて相対
関係があらかじめ設定された所定の位置に、カラーカメ
ラの光軸と照射方向が一致しない非共軸系の第2の発散
照明2が同じく眼球部に向けて設けられている。第1お
よび第2の発散照明1、2は、同一仕様の白色光源をも
ち、ピラーやセンタコンソール等に設置され、運転中の
前景注視時には直接に運転者の視界内に入らないように
配置される。第1の発散照明1、第2の発散照明2には
それらの発光を制御する照明発光制御部11が接続され
ている。
[0010] A first divergent illumination 1 of a coaxial system attached to the front surface of the lens of the color camera 4 so that the illuminating direction coincides with the optical axis of the camera is provided toward the eyeball of the driver. . In addition, a non-coaxial second divergent illumination 2 whose illumination direction does not coincide with the optical axis of the color camera is provided at a predetermined position away from the color camera 4 and whose relative relationship is set in advance, also toward the eyeball. Have been. The first and second divergent lights 1 and 2 have a white light source of the same specification, are installed on a pillar, a center console, or the like, and are arranged so as not to be directly in the driver's field of view while watching the foreground during driving. You. The first divergent light 1 and the second divergent light 2 are connected to an illumination light emission control unit 11 for controlling their light emission.

【0011】カラーカメラ4からの撮像出力は、A/D
変換器5でR、G、B各信号独立にデジタル画像データ
としてA/D変換され、画像メモリ6に格納される。画
像メモリ6には、網膜反射像抽出部7と、角膜反射像抽
出部8が接続され、これら両抽出部はさらに視線方向算
出部10に接続されている。上述の照明発光制御部1
1、A/D変換器5を含み、装置全体の動作を制御する
全体制御部12が設けられている。
The image output from the color camera 4 is A / D
The R, G, and B signals are independently A / D converted by the converter 5 as digital image data, and stored in the image memory 6. The image memory 6 is connected to a retinal reflection image extraction unit 7 and a corneal reflection image extraction unit 8, and both of these extraction units are further connected to a gaze direction calculation unit 10. The above-mentioned illumination light emission control unit 1
1. An overall control unit 12 including an A / D converter 5 and controlling the operation of the entire apparatus is provided.

【0012】網膜反射像抽出部7は、画像メモリ6に格
納された画像データの中のR(赤)成分から網膜反射像
を抽出し、さらに瞳孔中心を演算抽出する。また、角膜
反射像抽出部8では、画像デ−タから角膜反射像の位置
を特定する。そして視線方向算出部10において、上記
角膜反射像抽出部8により抽出した角膜反射像および網
膜反射像抽出部7により抽出した瞳孔中心に基づいて、
瞳孔中心と角膜球中心を結ぶ直線方向として運転者の視
線方向が演算特定される。
The retinal reflection image extraction unit 7 extracts a retinal reflection image from the R (red) component in the image data stored in the image memory 6, and further calculates and extracts the pupil center. In addition, the corneal reflection image extraction unit 8 specifies the position of the corneal reflection image from the image data. Then, based on the corneal reflection image extracted by the corneal reflection image extraction unit 8 and the pupil center extracted by the retinal reflection image extraction unit 7,
The gaze direction of the driver is calculated and specified as a straight line direction connecting the pupil center and the corneal sphere center.

【0013】視線方向算出部10には視線停留判断部2
3を介してコントロ−ラ切り替え部27が接続されてい
る。コントロ−ラ切り替え部には、オーディオコントロ
ーラ28、エアコンコントローラ29、ラジオコントロ
ーラ30、ASCD(定速走行装置)コントローラ31
等が接続されているとともに、HUD(ヘッドアップデ
ィスプレー)表示制御部24と、ステアリングスイッチ
22が接続されている。視線停留判断部23は、HUD
表示制御部24によりフロントウインドシールド41上
に表示される視線スイッチエリア26内の視線停留位置
を判断し、コントローラ切り替え部27へ制御情報を出
力する。
The gaze direction calculation unit 10 includes a gaze stop determination unit 2
3, a controller switching unit 27 is connected. The controller switching unit includes an audio controller 28, an air conditioner controller 29, a radio controller 30, an ASCD (constant speed traveling device) controller 31
Are connected, and a HUD (head-up display) display control unit 24 and a steering switch 22 are connected. The line-of-sight stop determination unit 23 uses the HUD
The display control unit 24 determines the gaze stop position in the gaze switch area 26 displayed on the front windshield 41, and outputs control information to the controller switching unit 27.

【0014】いま、メインスイッチ21が押されるとシ
ステムがONして、視線方向算出部10から運転者の視
線方向が出力される。視線停留判断部23は、出力され
た運転者の視線方向がエアコン、オーディオなどの各操
作対象項目(エリア)を表示する視線スイッチエリア2
6のどのエリアを指しているかを判断する。
When the main switch 21 is pressed, the system is turned on, and the gaze direction calculator 10 outputs the gaze direction of the driver. The line-of-sight stop determination unit 23 outputs the line-of-sight direction of the driver to the line-of-sight switch area 2 for displaying each operation target item (area) such as an air conditioner and an audio.
It is determined which area of No. 6 is pointing.

【0015】視線スイッチエリア26上の運転者が注視
しているエリアが決定されると、コントロ−ラ切り替え
部27は上記決定されたエリアに対応するエアコンコン
トロ−ラ、オーディオコントローラ等を選択する項目切
り替えを行う。そして、HUD表示制御部24は、コン
トローラ切り替え部27を通して出力される各コントロ
ーラの信号に基づき、その内容をHUD表示部25に表
示する。続いて、ステアリングスイッチ22からのユ−
ザ入力による所定の制御対象の制御が行われる。
When the area on the line-of-sight switch area 26 where the driver is gazing is determined, the controller switching unit 27 selects an air conditioner controller, an audio controller, and the like corresponding to the determined area. Perform a switch. Then, the HUD display control unit 24 displays the content on the HUD display unit 25 based on the signal of each controller output through the controller switching unit 27. Then, the user operates the steering switch 22
A predetermined control target is controlled by the user input.

【0016】図3に示されるように、メインスイッチ2
1とステアリングスイッチ22はステアリング42に取
り付けられる。ウインドシ−ルド41上にHUD表示部
25と視線スイッチエリア26が設定されている。視線
スイッチエリア26はさらに、図4の(a)にその詳細
を示すように、各種コントローラの名称がHUD表示さ
れているものである。また、同図の(b)にはステアリ
ングスイッチ22の詳細が示されている。
As shown in FIG. 3, the main switch 2
1 and the steering switch 22 are attached to the steering 42. An HUD display 25 and a line-of-sight switch area 26 are set on the windshield 41. The line-of-sight switch area 26 further displays the names of various controllers in HUD, as shown in detail in FIG. FIG. 3B shows details of the steering switch 22.

【0017】つぎに動作について説明する。図5は、上
記視線スイッチシステムにおける処理の流れを示す。ま
ずステップ101において、全体制御部12から計測開
始信号が出力されると、これに基づきステップ102
で、照明発光制御部11から卜リガ信号が発せられて、
第1の発散照明1が点灯され、車両運転者の顔面が照明
される。そしてステップ103において、この照明され
た顔面領域の画像がカラーカメラ4によって取り込ま
れ、画像情報がA/D変換器5によりR、G、B各成分
のそれぞれが独立にA/D変換され、それぞれデジタル
の画像データDR1(x,y)、DG1(x,y)、D
B1(x,y)として画像メモリ6に格納される。
Next, the operation will be described. FIG. 5 shows a flow of processing in the eye-gaze switch system. First, in step 101, when a measurement start signal is output from the overall control unit 12, based on this, a step 102 is executed.
Then, a trigger signal is issued from the illumination light emission control unit 11,
The first divergent light 1 is turned on, and the face of the vehicle driver is illuminated. In step 103, the image of the illuminated face area is captured by the color camera 4, and the image information is A / D-converted by the A / D converter 5 for each of the R, G, and B components independently. Digital image data DR1 (x, y), DG1 (x, y), D
It is stored in the image memory 6 as B1 (x, y).

【0018】続いてステップ104において、照明発光
制御部11からトリガ信号によって第2の発散照明2が
点灯され、車両運転者の顔面が照明される。 そしてス
テップ105で、この照明された顔面領域の画像がカラ
ーカメラ4によって取り込まれ、上述と同様に画像情報
がA/D変換器5によりR、G、B成分のそれぞれが独
立にA/D変換され、デジタルの画像データDR2
(x,y)、DG2(x,y)、DB2(x,y)とし
て、画像メモリ6に格納される。上記ステップ102〜
105が、発明の画像入力手段を構成している。
Subsequently, in step 104, the second divergent illumination 2 is turned on by the trigger signal from the illumination light emission control unit 11, and the face of the vehicle driver is illuminated. In step 105, the image of the illuminated face area is captured by the color camera 4, and the A / D converter 5 converts the R, G, and B components of the image information independently from each other in the same manner as described above. And digital image data DR2
They are stored in the image memory 6 as (x, y), DG2 (x, y), and DB2 (x, y). Step 102 to above
105 constitutes the image input means of the invention.

【0019】この後、ステップ106において、網膜反
射像抽出部7により、R(赤色)成分の画像データDR
1(x,y)、DR2(x,y)から、車両運転者の網
膜反射像の位置が計測される。ここで、網膜反射像は、
眼球内に白色光を入射すると赤色の反射光として戻って
くる。これは、例えば写真撮影でストロボを使用したと
きの「赤目現象」として知られているように、網膜に通
る血液の反射によるものである。一方、眼鏡による反射
像については、一般に使用されている眼鏡はガラスまた
はプラスチックで作られていることが多く、可視光領域
では、反射光に波長選択性は少ない。したがって、白色
光を照射した時に赤色光として返ってくる反射像は網膜
反射像のみである。このため、画像中の反射像のR
(赤)成分の輝度レベルの高い領域を探索すれば、網膜
反射像をその他の像から分離して抽出することができ
る。
Thereafter, in step 106, the R (red) component image data DR
From 1 (x, y) and DR2 (x, y), the position of the retinal reflection image of the vehicle driver is measured. Here, the retinal reflection image is
When white light enters the eyeball, it returns as red reflected light. This is due to the reflection of blood through the retina, for example, as is known as the "red-eye effect" when using a strobe in photography. On the other hand, with respect to the reflection image by the spectacles, generally used spectacles are often made of glass or plastic, and in the visible light region, the reflected light has little wavelength selectivity. Therefore, the reflected image returned as red light when white light is irradiated is only a retinal reflected image. For this reason, R of the reflection image in the image
By searching for a region where the luminance level of the (red) component is high, a retinal reflection image can be separated and extracted from other images.

【0020】図6は、ステップ106の網膜反射像の位
置計測の詳細を示す。まず、図7の(a)、(b)に示
されるような第1および第2の発散照明1、2による入
力画像データのうち、R成分の画像データDR1(x,
y)、DR2(x,y)のみが画像メモリ6から読み出
され、ステップ201において、これら赤色成分の画像
データDRl(x,y)とDR2(x,y)の差分演算
を行なって、図7の(c)のような画像データDR3
(x,y)が求められる。ステップ202において、画
像データDR3(x,y)が、予め設定した所定のしき
い値Th1(Th1>0)で2値化され、図7の(d)
のようにノイズが除去された画像データR4(x,y)
とされる。なお、照明点灯の有無にかかわらず画像中に
もともと存在する赤色領域は、ステップ201およびス
テップ202において除去される。
FIG. 6 shows details of the position measurement of the retinal reflection image in step 106. First, among the input image data by the first and second divergent illuminations 1 and 2 as shown in FIGS. 7A and 7B, image data DR1 (x, R) of the R component
y) and DR2 (x, y) are read out from the image memory 6, and in step 201, a difference operation between these red component image data DR1 (x, y) and DR2 (x, y) is performed. Image data DR3 as shown in FIG.
(X, y) is required. In step 202, the image data DR3 (x, y) is binarized with a predetermined threshold value Th1 (Th1> 0) set in advance, and FIG.
Image data R4 (x, y) from which noise has been removed
It is said. The red region originally present in the image irrespective of the presence or absence of illumination lighting is removed in steps 201 and 202.

【0021】続いて、ステップ203において、上記画
像データDR4(x,y)内の各領域に番号付けを行う
ラベリング処理が施される。そして、ステップ204に
おいて、上記ラベリングされた各領域の中で、最大の面
積を持つものが網膜反射像として抽出される。このあ
と、ステップ205において、網膜反射像の重心位置
(Xgi,Ygi)が演算される。ステップ201〜2
05からなるステップ106が発明の網膜反射像抽出手
段を構成している。
Subsequently, in step 203, a labeling process for numbering each area in the image data DR4 (x, y) is performed. Then, in step 204, among the labeled regions, the region having the largest area is extracted as a retinal reflection image. Thereafter, in step 205, the position of the center of gravity (Xgi, Ygi) of the retinal reflection image is calculated. Step 201-2
Step 106 consisting of 05 constitutes the retinal reflection image extracting means of the present invention.

【0022】図5に戻って、上に求めた網膜反射像重心
位置を基にして、角膜反射像位置を特定するため、ステ
ップ107において、網膜反射像の近傍領域に角膜反射
像を探索する探索領域Tが設定される。探索領域Tは、
図8に示されるように、網膜反射像の重心位置を中心
に、p×qの範囲に設定される。これは、網膜反射像の
位置が特定できれば、第1の発散照明1による角膜反射
像の位置と、第2の発散照明2による角膜反射像の発生
位置は、網膜反射像の近傍に限定されることになるから
である。
Returning to FIG. 5, in order to specify the corneal reflection image position based on the retinal reflection image barycenter position obtained above, in step 107, a search is performed to search for a corneal reflection image in a region near the retinal reflection image. An area T is set. The search area T is
As shown in FIG. 8, the range is set to p × q around the center of gravity of the retinal reflection image. If the position of the retinal reflection image can be specified, the position of the corneal reflection image by the first divergent illumination 1 and the position of the corneal reflection image by the second divergent illumination 2 are limited to the vicinity of the retinal reflection image. Because it will be.

【0023】このあと、ステップ108において、角膜
反射像抽出部8で、角膜反射像が抽出される。ここで
は、照明に白色光を使用しているため、角膜反射像も白
色の輝点となる。観測される反射光の中から真の角膜反
射像を特定するに際しては、眼鏡レンズによる反射や透
過、および角膜表面の反射では、可視光領域において波
長選択性は少ないため、R、G、Bのどの色成分を用い
て処埋を行っても角膜反射像位置の演算には大差は生じ
ない。ただ、R成分をもちいて処埋を行うと、網膜反射
像が、抽出すべき角膜反射像と重なってしまう場合も考
えられるので、GまたはB成分を用いればよい。
Thereafter, in step 108, the corneal reflection image extraction unit 8 extracts a corneal reflection image. Here, since white light is used for illumination, the corneal reflection image also becomes a white bright spot. When identifying a true corneal reflection image from the observed reflected light, the reflection and transmission by the spectacle lens and the reflection on the corneal surface have little wavelength selectivity in the visible light region. Regardless of which color component is used for the embedding, there is no great difference in the calculation of the corneal reflection image position. However, if the processing is performed using the R component, the retinal reflection image may overlap with the corneal reflection image to be extracted. Therefore, the G or B component may be used.

【0024】角膜反射像は眼球部光学系のどの面で生じ
た像であるかによって、第1〜第4のプルキンエ像に分
類できるが、ここでは、その中で最も明るい、角膜表面
で生じた第1プルキンエ像を対象とする。車両運転者が
眼鏡を装用していると、角膜反射像の他に眼鏡のレンズ
やフレームでの反射光が同時に観測される。これらは、
角膜反射像と同様に明るい領域として観測される。
The corneal reflection image can be classified into first to fourth Purkinje images depending on which surface of the eyeball optical system is generated. Here, the brightest corneal reflection image is generated on the corneal surface. The first Purkinje image is targeted. When the vehicle driver wears spectacles, in addition to the corneal reflection image, reflected light from the lenses and frames of the spectacles is simultaneously observed. They are,
It is observed as a bright area like the corneal reflection image.

【0025】図9に、このような環境の中での角膜反射
像抽出の詳細フローを示す。ステップ301において、
まず図10の(a)、(b)に示されるような画像デー
タDG1(x,y)、DG2(x,y)の差分演算を行
う。処埋後の画像データDG3(x,y)は、(c)の
ように、画像DG1(x,y)、DG2(x,y)間で
濃淡値がほぼ等しい眼鏡領域や頬領域、さらに白目領域
等が除去され、濃淡値が大きく異なる角膜反射像、眼鏡
レンズ反射像、眼鏡フレーム反射像などの領域が強調さ
れる。ここでは正値および負値がそのまま表わされ、図
の塗りつぶし部が負値を示している。
FIG. 9 shows a detailed flow of corneal reflection image extraction in such an environment. In step 301,
First, a difference calculation of the image data DG1 (x, y) and DG2 (x, y) as shown in FIGS. The image data DG3 (x, y) after the processing is, as shown in (c), a spectacle region and a cheek region having substantially the same gray level between the images DG1 (x, y) and DG2 (x, y), and furthermore, a white eye. Regions and the like are removed, and regions such as a corneal reflection image, a spectacle lens reflection image, and a spectacle frame reflection image having greatly different grayscale values are emphasized. Here, the positive value and the negative value are represented as they are, and the shaded portion in the figure indicates the negative value.

【0026】ステップ302で、画像データDG3
(x,y)のp×q領域について予め設定したしきい値
Th2(Th2>0)で2値化され、(d)のような画
像データDG4(x,y)が得られる。ステップ303
において、上記2値化して抽出された領域にラベリング
処埋が施されたあと、ステップ304において、面積し
きい値処埋が行われる。角膜反射像は、数ドット以下の
面積の小さい輝点であるから、この処埋では、ラベリン
グされた各領域の面積を算出し、一定面積Sth以上の領
域を除外することにより、小さな輝点領域の抽出が行わ
れる。
In step 302, the image data DG3
The (x, y) p × q area is binarized by a preset threshold value Th2 (Th2> 0) to obtain image data DG4 (x, y) as shown in (d). Step 303
In step, after the binarized and extracted region is subjected to labeling processing, in step 304, area threshold processing is performed. Since the corneal reflection image is a bright spot having a small area of several dots or less, in this processing, the area of each labeled area is calculated, and by excluding the area having a certain area Sth or more, a small bright spot area is obtained. Is extracted.

【0027】こうして抽出された領域を、角膜反射像の
候補領域iとして、ステップ305において、候補領域
iの重心位置が演算される。次のステップ306では、
第2の発散照明2による反射像の探索領域Uの設定が行
われる。すなわち、第1の発散照明1による反射像の位
置が特定されれば、第2の発散照明2による反射像の発
生位置は、その近傍に限定されるからである。そこで前
ステップで算出された各重心位置を含んで、m×n画素
の小領域が設定される。
In the step 305, the center of gravity of the candidate area i is calculated using the area thus extracted as the candidate area i of the corneal reflection image. In the next step 306,
The search area U of the reflection image by the second divergent illumination 2 is set. That is, if the position of the image reflected by the first divergent illumination 1 is specified, the position where the image reflected by the second divergent illumination 2 is generated is limited to the vicinity thereof. Therefore, a small area of m × n pixels is set including the positions of the centers of gravity calculated in the previous step.

【0028】この探索領域Uは、第1、第2の発散照明
1、2の設定状態に応じて決定される。例えば、図11
の(a)に示されるように、運転者から見て第2の発散
照明2が第1の発散照明1よりも右側にある配置では、
同図の(b)のように、第1の発散照明1による角膜反
射像A1よりも、第2の発散照明2による角膜反射像A
2の方が画像上で左方に位置することになる。また先の
図16に示したように、対応する反射像は、第1の発散
照明1と第2の発散照明2を結ぶ線分と平行の線上に現
われる。したがって、探索領域Uとしては、図11の
(c)に示すように、候補領域iの重心位置Vから左方
へ延びる範囲を設定すればよい。
The search area U is determined according to the setting state of the first and second divergent lights 1 and 2. For example, FIG.
(A), in the arrangement in which the second divergent light 2 is on the right side of the first divergent light 1 as viewed from the driver,
As shown in FIG. 2B, the corneal reflection image A by the second divergent illumination 2 is smaller than the corneal reflection image A1 by the first divergent illumination 1.
2 is located to the left on the image. As shown in FIG. 16, the corresponding reflected image appears on a line parallel to the line connecting the first divergent illumination 1 and the second divergent illumination 2. Therefore, as shown in FIG. 11C, a range extending to the left from the center of gravity position V of the candidate area i may be set as the search area U.

【0029】つぎのステップ307において、候補領域
i毎に上記のように探索領域において、第2の発散照明
2による反射像の探索が行なわれる。ここでは、各探索
領域の画像データDG3(x,y)をしきい値Th3
(Th3<0)で2値化処理して、 DG3(x,y)<Th3 を満足する画素があるかどうかが探索される。
In the next step 307, a search for a reflection image by the second divergent illumination 2 is performed in the search area for each candidate area i as described above. Here, the image data DG3 (x, y) of each search area is set to a threshold value Th3.
Binary processing is performed at (Th3 <0), and it is searched whether there is a pixel that satisfies DG3 (x, y) <Th3.

【0030】ステップ308では、上記2値化処埋の結
果に基づいて応じて、角膜反射像を特定する。 (1)探索領域内にDG3(x,y)<Th3を満足す
る画素が抽出されない場合。 このときには、候補領域iに対応した第2の発散照明に
よる反射像に該当する輝点領域が探索領域内に存在しな
いのであるから、すなわち候補領域iは角膜反射像でな
いこととなる。 (2)探索領域内にDG3(x,y)<Th3を満足す
る画素で構成された領域が、唯1つ抽出された場合。 このときには、発見された領域の重心座標(Xgi,Y
gi)を求め、これがメモリに記憶される。
In step 308, a corneal reflection image is specified based on the result of the binarization processing. (1) When a pixel satisfying DG3 (x, y) <Th3 is not extracted in the search area. At this time, since the bright spot area corresponding to the reflection image by the second divergent illumination corresponding to the candidate area i does not exist in the search area, that is, the candidate area i is not a corneal reflection image. (2) A case where only one region composed of pixels satisfying DG3 (x, y) <Th3 is extracted in the search region. At this time, the barycentric coordinates (Xgi, Y
gi), which is stored in memory.

【0031】(3)探索領域内にDG3(x,y)<T
h3を満足する画素で構成された領域が、2つ以上抽出
された場合。 このときには、真の角膜反射像であるならば、第1の発
散照明1による角膜反射像と平行のため、候補領域iと
のy座標の差が最小になる。したがって、抽出された領
域のうち、y座標の差が最少となるものを真の角膜反射
像としてその重心座標(Xgi,Ygi)を求める。以
上のステップ301〜308からなるステップ108
が、角膜反射像抽出手段を構成している。
(3) DG3 (x, y) <T in the search area
A case where two or more regions composed of pixels satisfying h3 are extracted. At this time, if the image is a true corneal reflection image, since the image is parallel to the corneal reflection image by the first divergent illumination 1, the difference in the y coordinate from the candidate region i is minimized. Therefore, among the extracted regions, the one having the smallest difference in the y coordinate is determined as the true corneal reflection image, and the barycentric coordinates (Xgi, Ygi) are obtained. Step 108 comprising the above steps 301 to 308
Constitute a corneal reflection image extracting means.

【0032】図5に戻って、このあとステツプ109
で、視線方向算出部10において、これまでに求められ
た2つの角膜反射像の重心座標および瞳孔領域の重心座
標をもとに、運転者の視線方向が算出される。図12は
視線方向算出部における視線方向の算出原理を示す説明
図である。照明とカメラの光軸が一致している共軸系の
とき、カメラ焦点F1 (=照明光源L1位置)とカメラ
C(CCD面上)上の角膜反射像βを結ぶ直線は角膜球
中心Oを通過する。したがって、角膜球中心Oは直線F
1 −β上にある。また実際上の瞳孔中心Qは、カメラ焦
点(照明位置)とCCD画像上の瞳孔中心αを結ぶ直線
F1 −α上にある。
Returning to FIG. 5, after that, step 109
Then, the gaze direction calculating unit 10 calculates the gaze direction of the driver based on the barycentric coordinates of the two corneal reflection images and the barycentric coordinates of the pupil region obtained so far. FIG. 12 is an explanatory diagram illustrating the principle of calculating the line-of-sight direction in the line-of-sight direction calculation unit. In the case of a coaxial system in which the illumination and the optical axis of the camera coincide, the straight line connecting the camera focal point F1 (= the position of the illumination light source L1) and the corneal reflection image β on the camera C (on the CCD surface) is located at the center O of the corneal sphere. pass. Therefore, the corneal sphere center O is straight line F
It is on 1-β. The actual pupil center Q is on a straight line F1-α connecting the camera focal point (illumination position) and the pupil center α on the CCD image.

【0033】カメラ4の焦点距離をf、焦点位置をF1
(0,0,0)とし、X軸、Y軸、Z軸のワ−ルド座標
系F1 −XYZを考え、非共軸系照明の光源L2はF2
(a,b,c)にあって照明光が角膜表面で正反射する
ものとする。その正反射点Pは、CCD面上の光源L1
による角膜反射像δとカメラ焦点F1 を結ぶ直線F1−
δ上にある。すると、直線F1 −δ上に仮正反射点Pを
置き、角膜球半径である7.8mmの半径で球面Jを描
けば、球面Jと直線F1 −βの交点として角膜球中心O
の立体位置が定まる。角膜球中心Oと瞳孔中心Q間の距
離は約4.2mmであり、上に決定された角膜球中心O
を中心とする半径4.2mmの球面Kと、直線F1 −α
の交点として瞳孔中心Qの立体位置が定まる。これによ
り、点OとQを結ぶ線が視線方向として求められる。ス
テップ109が、視線方向算出手段を構成している。
The focal length of the camera 4 is f and the focal position is F1.
(0,0,0), and considering the X-, Y-, and Z-axis world coordinate system F1-XYZ, the light source L2 for non-coaxial illumination is F2.
In (a, b, c), the illumination light is specularly reflected on the corneal surface. The specular reflection point P is the light source L1 on the CCD surface.
Straight line F1-- connecting the corneal reflection image .delta.
on δ. Then, if the temporary regular reflection point P is placed on the straight line F1-δ and the spherical surface J is drawn with a radius of 7.8 mm, which is the radius of the corneal sphere, the center O of the corneal sphere is defined as the intersection of the spherical surface J and the straight line F1-β.
The three-dimensional position of is determined. The distance between the corneal sphere center O and the pupil center Q is about 4.2 mm, and the corneal sphere center O determined above
A spherical surface K having a radius of 4.2 mm centered on a straight line F1 -α
The three-dimensional position of the pupil center Q is determined as the intersection of. As a result, a line connecting the points O and Q is determined as the line-of-sight direction. Step 109 constitutes the line-of-sight direction calculating means.

【0034】ステップ110においては、視線停留判断
部23で、上述のようにして視線方向算出部10で算出
された視線方向が視線スイッチエリア26のどのエリア
(制御項目)を見ているかを判断し、その時間を算出す
る。そしてステップ111で、停留判断が行なわれる。
これは、運転者が処理サイクルの一定回数連続して同一
エリアを見ているか否かによって行なわれる。視線方向
算出の1サイクルに400msecを要するとすれば、
例えば連続して2回として約0.8secの注視時間を
もって、同一エリアを注視しているものと判断する。
In step 110, the gaze stop determination unit 23 determines which area (control item) of the gaze switch area 26 the gaze direction calculated by the gaze direction calculation unit 10 as described above looks at. , Calculate the time. Then, at step 111, a stop determination is made.
This is performed depending on whether or not the driver views the same area continuously for a certain number of times in the processing cycle. If one cycle of gaze direction calculation requires 400 msec,
For example, it is determined that the user is gazing at the same area for two consecutive times with a gazing time of about 0.8 sec.

【0035】ここで運転者が図4の(a)に示す視線ス
イッチエリア26の例えばエアコン・エリア(A/C)
を注視していると判断されると、ステップ112に進ん
で、対象物すなわちエアコンの制御が行なわれ、一定時
間以上の停留がなければ、ステップ102へ戻って視線
方向の計測が繰り返される。ステップ112では、コン
トローラ切り替え部27により例えばエアコン制御に切
り換えられ、HUD表示制御部24によりHUD表示部
25に現在のエアコン設定温度が表示される。なお、ス
テップ112に移ると視線方向の計測は停止される。
Here, for example, an air conditioner area (A / C) of the line of sight switch area 26 shown in FIG.
When it is determined that the user is gazing at, the process proceeds to step 112, where the control of the object, that is, the air conditioner, is performed. If there is no stop for a predetermined time or more, the process returns to step 102 and the measurement of the gaze direction is repeated. In step 112, the controller switching unit 27 switches to, for example, air conditioner control, and the HUD display control unit 24 displays the current air conditioner set temperature on the HUD display unit 25. Note that when the process proceeds to step 112, the measurement of the line-of-sight direction is stopped.

【0036】HUD表示部25にエアコン設定温度が表
示されると、ステアリング・スイッチ22のアップダウ
ンボタンが設定温度の上下調整を行うように機能するよ
うになる。運転者はHUD表示部25を見ながら、ステ
アリングスイッチ22のアップダウンボタンを操作して
希望の設定温度にセットする。セツトした情報により、
エアコンコントローラ29により所定の温度制御が行わ
れる。一定時間(例えば5秒間)アップダウンボタンが
操作されない場合は、操作が終了したものと判断してス
イッチ機能は全て停止する。再び運転者が何等かの操作
を必要とし、メインスイッチ21を押すと再び上述の処
理が繰り返される。
When the air conditioner set temperature is displayed on the HUD display section 25, the up / down button of the steering switch 22 functions so as to adjust the set temperature up and down. The driver operates the up / down button of the steering switch 22 while watching the HUD display section 25 to set a desired set temperature. According to the set information,
Predetermined temperature control is performed by the air conditioner controller 29. If the up / down button is not operated for a certain period of time (for example, 5 seconds), it is determined that the operation has been completed, and all the switch functions are stopped. The driver needs some operation again, and when the main switch 21 is pressed, the above processing is repeated again.

【0037】実施例は以上のように構成され、運転者の
視線方向計測にあたって、眼鏡反射像と角膜反射像を分
離する際、網膜反射像が赤色成分をもつことを利用し、
画像中の赤色成分に着目して網膜反射像を抽出し、この
網膜反射像位置を基に角膜反射像を特定するようにした
ため、システム操作者が眼鏡を装着していても、正確に
視線方向を求めることができる。なお、前述のようにカ
ラーカメラを車両運転者に比較的近接して設置でき、撮
像範困を限定できるので、運転者の眼球部を拡大撮影し
て比較的高精度で広範囲にわたる視線方向を計測可能で
ある。
The embodiment is configured as described above, and uses the fact that the retinal reflection image has a red component when the spectacle reflection image and the corneal reflection image are separated in measuring the driver's gaze direction.
Focusing on the red component in the image, the retinal reflection image is extracted, and the corneal reflection image is specified based on the retinal reflection image position. Therefore, even if the system operator wears glasses, the gaze direction can be accurately determined. Can be requested. As described above, the color camera can be installed relatively close to the driver of the vehicle and the range of imaging can be limited, so that the driver's eyeball can be enlarged and photographed to measure the gaze direction over a wide range with relatively high accuracy. It is possible.

【0038】なおまた、実施例では光源に白色光を用い
ているが、これに限定されることなく、網膜反射により
重畳する赤色成分と識別可能であれば、青色や緑色など
の成分を有する光源を用いることもできる。さらに、上
記実施例では、各色成分の画像データとして、カラーカ
メラ4がR、G、Bの全3色を入力し、各色成分のデー
タを出力するものを示したが、このほか、図13に示す
ように、眼球部から反射する入射光をダイクロイツクミ
ラー51等に導き、網膜反射像の赤色成分を含む波長の
みを反射してこれをカメラまたは撮像素子52に入力
し、それ以外の透過成分を他のカメラまたは撮像素子5
3に入力させるようにして、別々の系から画像データを
得るようにすることもできる。これにより、高価なカラ
ーカメラのかわりに通常の白黒カメラを用いることがで
きる。
In the embodiment, white light is used as the light source. However, the present invention is not limited to this. If the light source can be distinguished from the superimposed red component by retinal reflection, the light source has a blue or green component. Can also be used. Further, in the above embodiment, the color camera 4 inputs all three colors of R, G, and B as the image data of each color component, and outputs the data of each color component. As shown, the incident light reflected from the eyeball portion is guided to the dichroic mirror 51 and the like, and only the wavelength including the red component of the retinal reflection image is reflected and input to the camera or the imaging device 52, and the other transmission components are reflected. To another camera or image sensor 5
3 so as to obtain image data from different systems. This allows a normal black and white camera to be used instead of an expensive color camera.

【0039】あるいはまた、図14に示すように、入射
光の全光量を所定割合の反射と透過に配分するビ−ムス
プリッタ55等を用いて、カメラまたは撮像素子52、
53に入力し、一方のカメラまたは撮像素子52の前に
網膜反射像の赤色成分を含む波長のみを透過するフイル
タ58を設置する。これによっても、安価な白黒カメラ
などを用いて他の色成分から分離された赤色成分の画像
データを得ることができる。
Alternatively, as shown in FIG. 14, a camera or an image pickup device 52 using a beam splitter 55 for distributing the total amount of incident light to a predetermined ratio of reflection and transmission.
53, a filter 58 that transmits only a wavelength including a red component of the retinal reflection image is installed in front of one of the cameras or the imaging device 52. This also makes it possible to obtain image data of a red component separated from other color components using an inexpensive monochrome camera or the like.

【0040】[0040]

【発明の効果】以上のとおり、本発明は、眼球部の画像
デ−タから網膜反射像および角膜反射像を抽出し、瞳孔
中心と角膜反射像とから運転者の視線方向を算出する視
線方向計測装置において、網膜反射像が赤色の特有の色
成分をもつことを利用し、網膜反射像を抽出するにあた
りこの網膜反射像に特有の色成分を有する画像デ−タを
用いて抽出し、またこの抽出した網膜反射像位置を基に
角膜反射像を抽出するものとしたので、運転者が眼鏡を
装着していても、眼鏡レンズやフレームの反射像から網
膜反射像および角膜反射像を確実、容易に特定でき、精
度の高い視線方向計測が行なえるという効果を有する。
As described above, the present invention extracts a retinal reflection image and a corneal reflection image from image data of an eyeball, and calculates a gaze direction of a driver from a pupil center and a corneal reflection image. In the measurement device, utilizing the fact that the retinal reflection image has a specific color component of red, the extraction of the retinal reflection image is performed using image data having the color component specific to the retinal reflection image, and Since the corneal reflection image is to be extracted based on the extracted retinal reflection image position, even if the driver is wearing spectacles, the retinal reflection image and the corneal reflection image are reliably obtained from the reflection images of the spectacle lenses and frames. This has the effect that the gaze direction measurement can be performed easily and can be performed with high accuracy.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of the present invention.

【図2】本発明の実施例の構成を示す図である。FIG. 2 is a diagram showing a configuration of an example of the present invention.

【図3】実施例の車載レイアウトを示す図である。FIG. 3 is a diagram showing a vehicle-mounted layout according to the embodiment.

【図4】視線スイッチエリアとステアリングスイッチの
詳細を示す図である。
FIG. 4 is a diagram showing details of a line-of-sight switch area and a steering switch.

【図5】実施例における処理の流れを示すメインフロー
チャートである。
FIG. 5 is a main flowchart showing the flow of processing in the embodiment.

【図6】網膜反射像の位置計測の詳細を示すフローチャ
ートである。
FIG. 6 is a flowchart illustrating details of position measurement of a retinal reflection image.

【図7】画像データの処理の流れを示す説明図である。FIG. 7 is an explanatory diagram showing a flow of processing of image data.

【図8】探索領域を示す図である。FIG. 8 is a diagram showing a search area.

【図9】角膜反射像抽出の詳細を示すフローチャートで
ある。
FIG. 9 is a flowchart showing details of corneal reflection image extraction.

【図10】画像データの処理の流れを示す説明図であ
る。
FIG. 10 is an explanatory diagram showing a flow of processing of image data.

【図11】探索領域の設定要領を示す図である。FIG. 11 is a diagram showing a setting procedure of a search area.

【図12】視線方向の算出原理を示す説明図である。FIG. 12 is an explanatory diagram showing the principle of calculating the line-of-sight direction.

【図13】各色成分の画像データ入力の他の例を示す図
である。
FIG. 13 is a diagram showing another example of inputting image data of each color component.

【図14】各色成分の画像データ入力の他の例を示す図
である。
FIG. 14 is a diagram illustrating another example of inputting image data of each color component.

【図15】眼鏡装着時の反射像例を示す図である。FIG. 15 is a diagram illustrating an example of a reflection image when wearing glasses.

【図16】2照明による眼鏡レンズの反射像と角膜反射
像の間隔を示す図である。
FIG. 16 is a diagram showing an interval between a reflection image of a spectacle lens and a corneal reflection image by two illuminations.

【符号の説明】[Explanation of symbols]

1 第1の発散照明 2 第2の発散照明 4 カラーカメラ 5 A/D変換器 6 画像メモリ 7 網膜反射像抽出部 8 角膜反射像抽出部 10 視線方向算出部 11 照明発光制御部 12 全体制御部 13 眼球 21 メインスイッチ 22 ステアリングスイッチ 23 視線停留判断部 24 HUD表示制御部 25 HUD表示部 26 視線スイッチエリア 27 コントロ−ラ切り替え部 28 オーディオコントローラ 29 エアコンコントローラ 30 ラジオコントローラ 31 ASCDコントローラ 41 フロントウインドシールド 42 ステアリング 51 ダイクロイツクミラー 52、53 カメラまたは撮像素子 55 ビ−ムスプリッタ 58 フイルタ T、U 探索領域 REFERENCE SIGNS LIST 1 first divergent illumination 2 second divergent illumination 4 color camera 5 A / D converter 6 image memory 7 retinal reflection image extraction unit 8 corneal reflection image extraction unit 10 gaze direction calculation unit 11 illumination emission control unit 12 overall control unit DESCRIPTION OF SYMBOLS 13 Eyeball 21 Main switch 22 Steering switch 23 Gaze stop determination part 24 HUD display control part 25 HUD display part 26 Gaze switch area 27 Controller switching part 28 Audio controller 29 Air conditioner controller 30 Radio controller 31 ASCD controller 41 Front windshield 42 Steering Reference Signs List 51 dichroic mirror 52, 53 camera or image sensor 55 beam splitter 58 filter T, U search area

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G01B 11/00 A61B 3/10 - 3/113 ──────────────────────────────────────────────────続 き Continued on the front page (58) Field surveyed (Int. Cl. 7 , DB name) G01B 11/00 A61B 3/10-3/113

Claims (7)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 運転者の眼球を異なる方向から照射する
複数の照明と、該複数の照明による眼球からの反射像を
撮像する撮像装置を備えて各照明毎の画像デ−タを得る
画像入力手段と、前記画像デ−タから網膜反射像を抽出
して瞳孔中心を算出する網膜反射像抽出手段と、前記画
像デ−タから角膜反射像を抽出する角膜反射像抽出手段
と、前記抽出された角膜反射像と瞳孔中心より運転者の
視線方向を算出する視線方向算出手段とを有し、 前記画像入力手段は、前記画像デ−タとして網膜反射像
に特有の色成分を有する画像デ−タとその他の色成分を
有する画像デ−タとを得、前記網膜反射像抽出手段は、
前記網膜反射像に特有の色成分を有する画像デ−タを用
いて他の反射像から識別して網膜反射像を抽出し、前記
角膜反射像抽出手段は、前記網膜反射像の位置を基に角
膜反射像を抽出するものであることを特徴とする車両用
視線方向計測装置。
1. An image input device comprising: a plurality of illuminations for illuminating a driver's eyeball from different directions; and an image pickup device for capturing an image reflected from the eyeball by the plurality of illuminations to obtain image data for each illumination. Means, a retinal reflection image extracting means for extracting a retinal reflection image from the image data and calculating a pupil center, a corneal reflection image extracting means for extracting a corneal reflection image from the image data, and Gaze direction calculating means for calculating the gaze direction of the driver from the corneal reflection image and the center of the pupil, wherein the image input means includes image data having a color component specific to a retinal reflection image as the image data. And retinal reflection image extracting means,
The retinal reflection image is extracted from other reflection images by using image data having a color component unique to the retinal reflection image, and the corneal reflection image extracting means extracts the retinal reflection image based on the position of the retinal reflection image. A gaze direction measuring device for a vehicle, which extracts a corneal reflection image.
【請求項2】 前記網膜反射像に特有の色成分が赤色で
あることを特徴とする請求項1記載の車両用視線方向計
測装置。
2. The gaze direction measuring device for a vehicle according to claim 1, wherein a color component specific to the retinal reflection image is red.
【請求項3】 前記角膜反射像抽出手段は、前記網膜反
射像の重心位置を中心に設定された所定の第1の探索領
域内を探索して角膜反射像を抽出するものであることを
特徴とする請求項1または2記載の車両用視線方向計測
装置。
3. The corneal reflection image extracting means extracts a corneal reflection image by searching within a predetermined first search area set around a center of gravity of the retinal reflection image. The gaze direction measuring device for a vehicle according to claim 1 or 2, wherein:
【請求項4】 前記角膜反射像抽出手段は、前記第1
の探索領域内の所定面積以下の輝点領域を前記複数の照
明のうちの第1の照明による第1の角膜反射像の候補領
域とし、該候補領域の重心位置から、第1の照明に対す
る第2の照明の位置に対応して決定される所定方向へ延
びて設定された第2の探索領域内に第2の照明による第
2の角膜反射像に該当する第2の輝点領域があるとき、
前記候補領域および第2の輝点領域を角膜反射像とする
ことを特徴とする請求項3記載の車両用視線方向計測装
置。
4. The corneal reflection image extracting means,
A bright spot area having a predetermined area or less in the search area is set as a candidate area of the first corneal reflection image by the first illumination among the plurality of illuminations, and a position corresponding to the center of gravity of the candidate area is determined based on the position of the first illumination. When there is a second bright spot area corresponding to a second corneal reflection image by the second illumination within a second search area set to extend in a predetermined direction determined according to the position of the second illumination ,
The gaze direction measuring device for a vehicle according to claim 3, wherein the candidate area and the second bright spot area are corneal reflection images.
【請求項5】 前記画像入力手段の撮像装置は、前記各
色成分別の画像データを出力するカラーカメラであるこ
とを特徴とする請求項1、2、3、または4記載の車両
用視線方向計測装置。
5. The gaze direction measurement for a vehicle according to claim 1, wherein the image pickup device of the image input unit is a color camera that outputs image data for each of the color components. apparatus.
【請求項6】 前記画像入力手段の撮像装置は、眼球か
ら反射した入射光をダイクロイツクミラーにより網膜反
射像の赤色成分を含む波長成分とその他の色成分に分離
し、それぞれの色成分を検出するカメラまたは撮像素子
に入力して前記各色成分別の画像データを出力するもの
であることを特徴とする請求項1、2、3、または4記
載の車両用視線方向計測装置。
6. The imaging device of the image input means separates incident light reflected from an eyeball into a wavelength component including a red component of a retinal reflection image and other color components by a dichroic mirror, and detects each color component. 5. The gaze direction measuring device for a vehicle according to claim 1, wherein the gaze direction measuring device outputs the image data for each of the color components by inputting the image data to a camera or an image pickup device.
【請求項7】 前記画像入力手段の撮像装置は、眼球か
ら反射した入射光をビームスプリッタで2系統に分離
し、一方の系統は赤色透過フィルタを介したうえ、それ
ぞれの色成分を検出するカメラまたは撮像素子に入力し
て前記各色成分別の画像データを出力するものであるこ
とを特徴とする請求項1、2、3、または4記載の車両
用視線方向計測装置。
7. An image pickup device of the image input means, wherein a beam splitter separates incident light reflected from an eyeball into two systems, one of which passes through a red transmission filter and detects each color component. 5. The gaze direction measuring device for a vehicle according to claim 1, wherein the gaze direction measuring device outputs the image data for each color component by inputting the image data to an image sensor.
JP04039394A 1994-02-15 1994-02-15 Gaze direction measuring device for vehicles Expired - Fee Related JP3185522B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04039394A JP3185522B2 (en) 1994-02-15 1994-02-15 Gaze direction measuring device for vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04039394A JP3185522B2 (en) 1994-02-15 1994-02-15 Gaze direction measuring device for vehicles

Publications (2)

Publication Number Publication Date
JPH07229714A JPH07229714A (en) 1995-08-29
JP3185522B2 true JP3185522B2 (en) 2001-07-11

Family

ID=12579428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04039394A Expired - Fee Related JP3185522B2 (en) 1994-02-15 1994-02-15 Gaze direction measuring device for vehicles

Country Status (1)

Country Link
JP (1) JP3185522B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4134653B2 (en) * 2002-09-20 2008-08-20 松下電器産業株式会社 Eye position detection apparatus and method
JP4491604B2 (en) * 2004-12-17 2010-06-30 国立大学法人静岡大学 Pupil detection device
JP5467527B2 (en) * 2010-09-06 2014-04-09 株式会社デンソー In-vehicle device controller
JP5776323B2 (en) * 2011-05-17 2015-09-09 富士通株式会社 Corneal reflection determination program, corneal reflection determination device, and corneal reflection determination method
CN102510480B (en) * 2011-11-04 2014-02-05 大连海事大学 Automatic calibrating and tracking system of driver sight line
JP5689850B2 (en) 2012-05-25 2015-03-25 株式会社ソニー・コンピュータエンタテインメント Video analysis apparatus, video analysis method, and gaze point display system
JP2017030686A (en) * 2015-08-05 2017-02-09 株式会社デンソー Alert apparatus, alert method and alert system

Also Published As

Publication number Publication date
JPH07229714A (en) 1995-08-29

Similar Documents

Publication Publication Date Title
JP3324295B2 (en) Gaze direction measuring device for vehicles
JP2988178B2 (en) Gaze direction measuring device
JP4783018B2 (en) Method and apparatus for detecting and tracking the eye and its gaze direction
US6120461A (en) Apparatus for tracking the human eye with a retinal scanning display, and method thereof
JP3855439B2 (en) Night driving visibility support device
JP6322986B2 (en) Image processing apparatus, image processing method, and image processing program
US20090015788A1 (en) Sight Line Detecting Method
CN101816547A (en) Automatic direct gaze detection method and system based on pupil symmetry
WO2007023798A1 (en) Pupil detection device and pupil detection method
JP2001340300A (en) Pupil detecting device and method, fixation point detecting device and method, and three-dimensional image display system
JP3520618B2 (en) Gaze direction measuring device for vehicles
JP3185522B2 (en) Gaze direction measuring device for vehicles
JPH09167049A (en) Line of sight input device for console
CN111417885B (en) System and method for determining pose of augmented reality glasses
JPH105178A (en) Visual line input device
JP3627468B2 (en) Motion detection device
JPH06323832A (en) Interface for vehicle
JPH08297019A (en) Apparatus for detecting direction of line of sight for vehicle
JP2988235B2 (en) Gaze direction detection device for vehicles
JP3342810B2 (en) Iris image acquisition device
JPH0868630A (en) Visual line direction measuring apparatus for vehicle and image input device used for it
CN113781940A (en) Head-mounted display device and display brightness adjusting method thereof
JPH09251539A (en) Line-of-sight measuring instrument
JPH08159733A (en) Line of sight direction measuring instrument for vehicle
JP3232873B2 (en) Gaze direction detection device for vehicles

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20010403

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090511

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees