JPH07229714A - Sight direction measuring equipment for vehicle - Google Patents

Sight direction measuring equipment for vehicle

Info

Publication number
JPH07229714A
JPH07229714A JP6040393A JP4039394A JPH07229714A JP H07229714 A JPH07229714 A JP H07229714A JP 6040393 A JP6040393 A JP 6040393A JP 4039394 A JP4039394 A JP 4039394A JP H07229714 A JPH07229714 A JP H07229714A
Authority
JP
Japan
Prior art keywords
image
reflection image
image data
retinal
corneal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6040393A
Other languages
Japanese (ja)
Other versions
JP3185522B2 (en
Inventor
Takuo Ishiwaka
卓夫 石若
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP04039394A priority Critical patent/JP3185522B2/en
Publication of JPH07229714A publication Critical patent/JPH07229714A/en
Application granted granted Critical
Publication of JP3185522B2 publication Critical patent/JP3185522B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE:To make precise sight direction measurement even when a driver wears glasses. CONSTITUTION:In such a sight switching system that the steadily gazed range of a driver in a sight switch area displayed in a HUD (Head-Up Display) is judged by the sight fixing judgement part 23 to perform various controls via the control switching part 27 depending on the steadily gazed range, the image of eyeballs 13 by the first and second divergent lights 1, 2 to find a sight direction is picked up by a color camera 4. Image data output for every RGB and a retinal reflected image is obtained from R (red) image data in a retinal reflected image extracting part 7 to find the centers of pupils. A cornea reflected image is extracted from other color image data in a cornea reflected image extracting part 8, based on the position of the retinal reflected image, to find a sight direction in a sight direction calculating part 10 from the centers of pupils and the cornea reflected image. As the retinal reflected image is surely and easily identified by a red component inherent to the retinal reflected image, the sight direction can be precisely found.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、車両運転者の視線方
向を遠隔から非接触で計測する車両用視線方向計測装置
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a visual line direction measuring device for a vehicle for remotely measuring the visual line direction of a vehicle driver in a non-contact manner.

【0002】[0002]

【従来の技術】この種の視線方向計測装置は、車両用の
非接触マンマシンインタフェイスとして、例えば車両運
転者の注目している方向に視覚情報を表示するとか、視
線方向に応じて特定のスイッチを動作させるなど、種々
の目的への利用が期待されている。このようなインタフ
ェイスを構成するために必要な、車両運転者の視線方向
の計測装置として、従来、眼球の角膜反射像の位置を画
像情報として取り入れて計測する装置が提案されてい
る。角膜反射像は、眼球への照射光が眼球を構成する光
学系の各面で反射、屈折することによって生じる像であ
り、プルキンエ像とも呼ばれている。
2. Description of the Related Art A gaze direction measuring device of this type is used as a non-contact man-machine interface for a vehicle, for example, to display visual information in a direction in which a driver of a vehicle is paying attention or to specify a gaze direction according to a gaze direction. It is expected to be used for various purposes such as operating a switch. As a device for measuring the line-of-sight direction of a vehicle driver, which is necessary to configure such an interface, a device for measuring the position of a corneal reflection image of an eyeball as image information has been conventionally proposed. The corneal reflection image is an image generated by the irradiation light to the eyeball being reflected and refracted by each surface of the optical system forming the eyeball, and is also called a Purkinje image.

【0003】しかしながら、車両運転者が眼鏡を装着し
ていると、図15に示すように、照明光がレンズ表面や
裏面、あるいはフレームから反射する。さらにこれらの
反射像W1、W2、W3等がある大きさをもつと、網膜
反射像M、角膜反射像Kとの識別が困難となる。反射像
が大きさを持つ場合とは、例えば、光学系ではボケによ
る影響が原因となり、また、撮像系ではブルーミングに
よる影響が原因となって、反射像が大きさをもつように
なる。したがって、これらと眼球の反射像とを識別して
眼鏡装着者であっても精度よく視線方向を計測できるこ
とが必要である。
However, when the vehicle driver wears the spectacles, the illumination light is reflected from the front surface or the back surface of the lens or the frame, as shown in FIG. Further, if these reflection images W1, W2, W3, etc. have a certain size, it becomes difficult to distinguish them from the retina reflection image M and the corneal reflection image K. When the reflected image has a size, for example, the reflected image has a size due to the influence of blurring in the optical system and the influence of blooming in the imaging system. Therefore, it is necessary that even a spectacle wearer can accurately measure the line-of-sight direction by distinguishing these from the reflected image of the eyeball.

【0004】そこで、従来、眼鏡装着者を対象としてそ
の視線方向を計測するものとしては、例えば特開平4−
138431号公報や、特開平4−138432号公報
に開示された装置がある。これらは、カメラのファイン
ダーを覗いている撮影者の視線方向を計測するものであ
り、2個の光源を用いて眼球に同時照射した時の反射像
の間隔が、図16に示されるように、眼鏡レンズの反射
像W、Wでは大きくなり、角膜反射像K、Kでは小さく
なることを利用して、眼鏡による反射像を識別するよう
にしている。
Therefore, as a conventional device for measuring the line-of-sight direction of an eyeglass wearer, for example, Japanese Patent Laid-Open No.
There are devices disclosed in Japanese Patent No. 138431 and Japanese Patent Application Laid-Open No. 4-138432. These are for measuring the line-of-sight direction of a photographer looking through the viewfinder of the camera, and when the two light sources are used to irradiate the eyeballs at the same time, the distance between the reflected images is as shown in FIG. By utilizing the fact that the reflected images W, W of the spectacle lens become large and the corneal reflected images K, K become small, the reflected image by the spectacles is identified.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、被験者
としては何ら拘束を受けず自由空間で任意に頭部を変位
させ得る車両運転者を対象とする場合、眼鏡レンズだけ
でなく眼鏡フレームからの反射光も画像情報として混入
することになり、上記のようにカメラのファインダーを
覗いている撮影者の視線だけを計測対象とする装置では
識別が困難である。すなわち、眼鏡レンズからの反射光
は、先の図16に示されるように、2個の光源を結ぶ線
とほぼ平行の同一線上に観測されるが、眼鏡フレームか
らの反射光はランダムな位置に発生する。したがって、
とくに計測のためペアを組むべき角膜反射像の近傍に眼
鏡フレームによる反射像が現われると、どの反射像とど
の反射像がぺアとなるのか判別が困難となり、正確に角
膜反射像を判定することができない。このため、上記従
来のカメラ撮影者用の視線方向計測装置では、車両運転
者用として有効に適用できないという問題がある。
However, when the subject is a vehicle driver who can freely displace his / her head in free space without any restraint, the reflected light from not only the spectacle lens but also the spectacle frame is used. Is also included as image information, and it is difficult to identify with a device that measures only the line of sight of the photographer looking into the viewfinder of the camera as described above. That is, the reflected light from the spectacle lens is observed on the same line substantially parallel to the line connecting the two light sources, as shown in FIG. 16, but the reflected light from the spectacle frame is at random positions. Occur. Therefore,
Especially, when a reflection image by the spectacle frame appears in the vicinity of the corneal reflection image to be paired for measurement, it becomes difficult to determine which reflection image and which reflection image become the pair, and the corneal reflection image can be accurately determined. I can't. Therefore, the conventional line-of-sight direction measuring device for a camera photographer cannot be effectively applied to a vehicle driver.

【0006】また、図15のように、眼鏡レンズからの
反射像W1がある面積を有し、網膜反射像M付近に現わ
れると、1つの角膜反射像を判定する拠り所となる網膜
反射像の特定も困難となる。したがって、本発明は上記
のような従来の問題点に鑑み、車両運転者が眼鏡を装着
していても、確実に角膜反射像を抽出でき、精度よく視
線方向を計測できる車両用視線方向計測装置を提供する
ことを目的とする。
Further, as shown in FIG. 15, when the reflection image W1 from the spectacle lens has a certain area and appears in the vicinity of the retinal reflection image M, the retinal reflection image serving as a basis for judging one corneal reflection image is specified. Will also be difficult. Therefore, in view of the above-mentioned conventional problems, the present invention can accurately extract the corneal reflection image even if the vehicle driver wears the eyeglasses, and can measure the gaze direction with high accuracy. The purpose is to provide.

【0007】[0007]

【課題を解決するための手段】このため本発明は、図1
に示すように、運転者の眼球を異なる方向から照射する
複数の照明62a、62bと、該複数の照明による眼球
からの反射像を撮像する撮像装置63を備えて各照明毎
の画像デ−タを得る画像入力手段61と、画像デ−タか
ら網膜反射像を抽出して瞳孔中心を算出する網膜反射像
抽出手段64と、画像デ−タから角膜反射像を抽出する
角膜反射像抽出手段65と、抽出された角膜反射像と瞳
孔中心より運転者の視線方向を算出する視線方向算出手
段66とを有し、画像入力手段61は、前記の画像デ−
タとして網膜反射像に特有の色成分を有する画像デ−タ
とその他の色成分を有する画像デ−タとを得、網膜反射
像抽出手段64は、網膜反射像に特有の色成分を有する
画像デ−タを用いて他の反射像から識別して網膜反射像
を抽出し、角膜反射像抽出手段65は、前記網膜反射像
の位置を基に角膜反射像を抽出するように構成されたも
のとした。
Therefore, the present invention is based on FIG.
As shown in FIG. 2, image data for each illumination is provided by including a plurality of illuminations 62a and 62b that illuminate the driver's eyeballs from different directions and an image pickup device 63 that captures a reflected image from the eyeballs by the plurality of illuminations. For obtaining the retina reflection image from the image data, the retina reflection image extracting means 64 for calculating the center of the pupil, and the corneal reflection image extracting means 65 for extracting the corneal reflection image from the image data. And a line-of-sight direction calculating unit 66 for calculating the line-of-sight direction of the driver from the extracted corneal reflection image and the center of the pupil, and the image input unit 61 includes the image data unit.
As image data, image data having a color component peculiar to the retina reflection image and image data having other color components are obtained, and the retina reflection image extracting means 64 is an image having a color component peculiar to the retina reflection image. The retina reflection image is extracted by distinguishing it from other reflection images using data, and the corneal reflection image extracting means 65 is configured to extract the corneal reflection image based on the position of the retina reflection image. And

【0008】[0008]

【作用】複数照明により、照明毎に反射像の位置がずれ
た複数の画像データが得られる。網膜反射像抽出手段6
4、角膜反射像抽出手段65では複数画像データの差分
演算その他の画像処理により得られた候補領域から網膜
反射像、角膜反射像を抽出する。ここで、網膜反射像の
場合には.とくに赤など眼鏡レンズ表面からの反射像に
は見られない特有の色成分が含まれている。画像入力手
段61が網膜反射像に特有の色成分を有する画像デ−タ
d1とその他の色成分を有する画像デ−タd2とを得る
ようになっており、網膜反射像抽出手段64ではこのう
ち網膜反射像に特有の上記色成分を有する画像デ−タd
1を用いるので、車両運転者が眼鏡を装用している場合
でも、他の反射像から識別して網膜反射像が確実に特定
でき、高精度に網膜反射像が抽出される。そして、角膜
反射像抽出手段65は、上記抽出された網膜反射像を参
照して角膜反射像を特定するから、容易に抽出される。
With a plurality of illuminations, a plurality of image data in which the position of the reflected image is shifted for each illumination can be obtained. Retinal reflection image extraction means 6
4. The corneal reflection image extraction means 65 extracts the retinal reflection image and the corneal reflection image from the candidate regions obtained by the difference calculation of plural image data and other image processing. Here, in the case of the retina reflection image. In particular, it contains a unique color component such as red that is not seen in the reflection image from the surface of the spectacle lens. The image input means 61 is adapted to obtain the image data d1 having a color component peculiar to the retina reflection image and the image data d2 having other color components. Image data d having the above-mentioned color components peculiar to the retina reflection image
Since 1 is used, the retinal reflection image can be reliably identified by distinguishing it from other reflection images even when the vehicle driver wears eyeglasses, and the retinal reflection image can be extracted with high accuracy. Then, the corneal reflection image extraction means 65 specifies the corneal reflection image with reference to the extracted retina reflection image, and therefore is easily extracted.

【0009】[0009]

【実施例】以下、この発明を図面に基づいて説明する。
図2は、本発明を車両の視線スイッチシステムに適用し
た実施例の構成を示し、図3はその車載レイアウトを示
す。運転者の眼球13を撮像するよう、計器盤上にCC
D等を用いたカラーカメラ4が設置される。車両運転者
の眼球位置は、例えばJIS(日本工業規格)D002
1に示されるように、自動車の運転者のアイレンジとし
て統計的に示された限定領域に存在するから、カラーカ
メラ4の撮像範囲はそこに限定でき、車両運転者に比較
的近接して設置できる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below with reference to the drawings.
FIG. 2 shows the configuration of an embodiment in which the present invention is applied to a visual line switching system of a vehicle, and FIG. 3 shows its vehicle-mounted layout. CC on the instrument panel to capture the driver's eye 13
A color camera 4 using D or the like is installed. The eyeball position of the vehicle driver is, for example, JIS (Japanese Industrial Standard) D002.
As shown in FIG. 1, since it exists in a limited area which is statistically shown as the eye range of the driver of the automobile, the imaging range of the color camera 4 can be limited to that area, and the color camera 4 can be installed relatively close to the vehicle driver. it can.

【0010】そして、カラーカメラ4のレンズの前面
に、カメラの光軸と照射方向が一致するように取り付け
られた共軸系の第1の発散照明1が運転者の眼球部に向
けて設けられる。また、カラーカメラ4から離れて相対
関係があらかじめ設定された所定の位置に、カラーカメ
ラの光軸と照射方向が一致しない非共軸系の第2の発散
照明2が同じく眼球部に向けて設けられている。第1お
よび第2の発散照明1、2は、同一仕様の白色光源をも
ち、ピラーやセンタコンソール等に設置され、運転中の
前景注視時には直接に運転者の視界内に入らないように
配置される。第1の発散照明1、第2の発散照明2には
それらの発光を制御する照明発光制御部11が接続され
ている。
Then, the first divergent illumination 1 of the coaxial system, which is attached to the front surface of the lens of the color camera 4 so that the optical axis of the camera coincides with the irradiation direction, is provided toward the eyeball portion of the driver. . Further, a second non-coaxial system divergent illumination 2 whose irradiation direction does not match the optical axis of the color camera is provided at a predetermined position where the relative relationship is preset apart from the color camera 4 toward the eyeball portion. Has been. The first and second divergent lights 1 and 2 have a white light source of the same specifications and are installed in pillars, center consoles, etc., and are arranged so that they do not come directly into the driver's field of vision when gazing at the foreground during driving. It The first divergent illumination 1 and the second divergent illumination 2 are connected to an illumination light emission control unit 11 that controls their light emission.

【0011】カラーカメラ4からの撮像出力は、A/D
変換器5でR、G、B各信号独立にデジタル画像データ
としてA/D変換され、画像メモリ6に格納される。画
像メモリ6には、網膜反射像抽出部7と、角膜反射像抽
出部8が接続され、これら両抽出部はさらに視線方向算
出部10に接続されている。上述の照明発光制御部1
1、A/D変換器5を含み、装置全体の動作を制御する
全体制御部12が設けられている。
The image pickup output from the color camera 4 is A / D.
The converter 5 independently A / D-converts the R, G, and B signals as digital image data and stores the digital image data in the image memory 6. The image memory 6 is connected to a retina reflection image extraction unit 7 and a corneal reflection image extraction unit 8, both of which are further connected to a line-of-sight direction calculation unit 10. The illumination light emission control unit 1 described above
1. An overall control unit 12 including the A / D converter 5 and controlling the operation of the entire apparatus is provided.

【0012】網膜反射像抽出部7は、画像メモリ6に格
納された画像データの中のR(赤)成分から網膜反射像
を抽出し、さらに瞳孔中心を演算抽出する。また、角膜
反射像抽出部8では、画像デ−タから角膜反射像の位置
を特定する。そして視線方向算出部10において、上記
角膜反射像抽出部8により抽出した角膜反射像および網
膜反射像抽出部7により抽出した瞳孔中心に基づいて、
瞳孔中心と角膜球中心を結ぶ直線方向として運転者の視
線方向が演算特定される。
The retina reflection image extraction unit 7 extracts the retina reflection image from the R (red) component in the image data stored in the image memory 6, and further calculates and extracts the center of the pupil. The corneal reflection image extraction unit 8 specifies the position of the corneal reflection image from the image data. Then, in the gaze direction calculation unit 10, based on the corneal reflection image extracted by the corneal reflection image extraction unit 8 and the pupil center extracted by the retina reflection image extraction unit 7,
The line-of-sight direction of the driver is calculated and specified as the straight line direction connecting the center of the pupil and the center of the cornea.

【0013】視線方向算出部10には視線停留判断部2
3を介してコントロ−ラ切り替え部27が接続されてい
る。コントロ−ラ切り替え部には、オーディオコントロ
ーラ28、エアコンコントローラ29、ラジオコントロ
ーラ30、ASCD(定速走行装置)コントローラ31
等が接続されているとともに、HUD(ヘッドアップデ
ィスプレー)表示制御部24と、ステアリングスイッチ
22が接続されている。視線停留判断部23は、HUD
表示制御部24によりフロントウインドシールド41上
に表示される視線スイッチエリア26内の視線停留位置
を判断し、コントローラ切り替え部27へ制御情報を出
力する。
The line-of-sight direction determining unit 2 is included in the line-of-sight direction calculating unit 10.
A controller switching unit 27 is connected via 3. The controller switching unit includes an audio controller 28, an air conditioner controller 29, a radio controller 30, and an ASCD (constant speed traveling device) controller 31.
Etc. are connected, and a HUD (head-up display) display control unit 24 and a steering switch 22 are connected. The line-of-sight stop determination unit 23 uses the HUD
The display control unit 24 determines the line-of-sight stop position within the line-of-sight switch area 26 displayed on the front windshield 41, and outputs control information to the controller switching unit 27.

【0014】いま、メインスイッチ21が押されるとシ
ステムがONして、視線方向算出部10から運転者の視
線方向が出力される。視線停留判断部23は、出力され
た運転者の視線方向がエアコン、オーディオなどの各操
作対象項目(エリア)を表示する視線スイッチエリア2
6のどのエリアを指しているかを判断する。
Now, when the main switch 21 is pressed, the system is turned on, and the line-of-sight direction calculation unit 10 outputs the line-of-sight direction of the driver. The line-of-sight stop determination unit 23 displays a line-of-sight switch area 2 in which the output line-of-sight of the driver displays each operation target item (area) such as an air conditioner and an audio device.
Judge which area of 6 is pointing.

【0015】視線スイッチエリア26上の運転者が注視
しているエリアが決定されると、コントロ−ラ切り替え
部27は上記決定されたエリアに対応するエアコンコン
トロ−ラ、オーディオコントローラ等を選択する項目切
り替えを行う。そして、HUD表示制御部24は、コン
トローラ切り替え部27を通して出力される各コントロ
ーラの信号に基づき、その内容をHUD表示部25に表
示する。続いて、ステアリングスイッチ22からのユ−
ザ入力による所定の制御対象の制御が行われる。
When the area on the line-of-sight switch area 26 to which the driver is gazing is determined, the controller switching unit 27 selects an air conditioner controller, an audio controller, etc. corresponding to the determined area. Switch over. Then, the HUD display control unit 24 displays the content on the HUD display unit 25 based on the signal of each controller output through the controller switching unit 27. Then, the user from the steering switch 22
A predetermined controlled object is controlled by the input.

【0016】図3に示されるように、メインスイッチ2
1とステアリングスイッチ22はステアリング42に取
り付けられる。ウインドシ−ルド41上にHUD表示部
25と視線スイッチエリア26が設定されている。視線
スイッチエリア26はさらに、図4の(a)にその詳細
を示すように、各種コントローラの名称がHUD表示さ
れているものである。また、同図の(b)にはステアリ
ングスイッチ22の詳細が示されている。
As shown in FIG. 3, the main switch 2
1 and the steering switch 22 are attached to the steering 42. A HUD display section 25 and a line-of-sight switch area 26 are set on the windshield 41. Further, in the line-of-sight switch area 26, the names of various controllers are HUD-displayed, as shown in detail in FIG. The steering switch 22 is shown in detail in FIG.

【0017】つぎに動作について説明する。図5は、上
記視線スイッチシステムにおける処理の流れを示す。ま
ずステップ101において、全体制御部12から計測開
始信号が出力されると、これに基づきステップ102
で、照明発光制御部11から卜リガ信号が発せられて、
第1の発散照明1が点灯され、車両運転者の顔面が照明
される。そしてステップ103において、この照明され
た顔面領域の画像がカラーカメラ4によって取り込ま
れ、画像情報がA/D変換器5によりR、G、B各成分
のそれぞれが独立にA/D変換され、それぞれデジタル
の画像データDR1(x,y)、DG1(x,y)、D
B1(x,y)として画像メモリ6に格納される。
Next, the operation will be described. FIG. 5 shows a flow of processing in the eye-gaze switch system. First, in step 101, when a measurement start signal is output from the overall control unit 12, based on this, a step 102 is executed.
Then, the light emission control unit 11 outputs a real Riga signal,
The first divergent light 1 is turned on and the face of the vehicle driver is illuminated. Then, in step 103, the image of the illuminated face area is captured by the color camera 4, and the image information is independently A / D converted by the A / D converter 5 for each of the R, G, and B components. Digital image data DR1 (x, y), DG1 (x, y), D
It is stored in the image memory 6 as B1 (x, y).

【0018】続いてステップ104において、照明発光
制御部11からトリガ信号によって第2の発散照明2が
点灯され、車両運転者の顔面が照明される。 そしてス
テップ105で、この照明された顔面領域の画像がカラ
ーカメラ4によって取り込まれ、上述と同様に画像情報
がA/D変換器5によりR、G、B成分のそれぞれが独
立にA/D変換され、デジタルの画像データDR2
(x,y)、DG2(x,y)、DB2(x,y)とし
て、画像メモリ6に格納される。上記ステップ102〜
105が、発明の画像入力手段を構成している。
Subsequently, in step 104, the second divergent illumination 2 is turned on by the trigger signal from the illumination light emission control unit 11 to illuminate the face of the vehicle driver. Then, in step 105, the image of the illuminated face area is captured by the color camera 4, and the image information is independently A / D converted by the A / D converter 5 as described above. And digital image data DR2
It is stored in the image memory 6 as (x, y), DG2 (x, y), and DB2 (x, y). Step 102-
Reference numeral 105 constitutes the image input means of the invention.

【0019】この後、ステップ106において、網膜反
射像抽出部7により、R(赤色)成分の画像データDR
1(x,y)、DR2(x,y)から、車両運転者の網
膜反射像の位置が計測される。ここで、網膜反射像は、
眼球内に白色光を入射すると赤色の反射光として戻って
くる。これは、例えば写真撮影でストロボを使用したと
きの「赤目現象」として知られているように、網膜に通
る血液の反射によるものである。一方、眼鏡による反射
像については、一般に使用されている眼鏡はガラスまた
はプラスチックで作られていることが多く、可視光領域
では、反射光に波長選択性は少ない。したがって、白色
光を照射した時に赤色光として返ってくる反射像は網膜
反射像のみである。このため、画像中の反射像のR
(赤)成分の輝度レベルの高い領域を探索すれば、網膜
反射像をその他の像から分離して抽出することができ
る。
Thereafter, in step 106, the retinal reflection image extraction unit 7 causes the R (red) component image data DR
The position of the retina reflection image of the vehicle driver is measured from 1 (x, y) and DR2 (x, y). Here, the retina reflection image is
When white light enters the eyeball, it returns as red reflected light. This is due to the reflection of blood passing through the retina, as is known as the "red eye phenomenon" when using a strobe in photography, for example. On the other hand, regarding the reflection image from the spectacles, generally used spectacles are often made of glass or plastic, and the wavelength selectivity of reflected light is low in the visible light region. Therefore, the reflected image returned as red light when the white light is emitted is only the retina reflected image. Therefore, the R of the reflection image in the image
By searching for a region where the luminance level of the (red) component is high, the retina reflection image can be extracted separately from the other images.

【0020】図6は、ステップ106の網膜反射像の位
置計測の詳細を示す。まず、図7の(a)、(b)に示
されるような第1および第2の発散照明1、2による入
力画像データのうち、R成分の画像データDR1(x,
y)、DR2(x,y)のみが画像メモリ6から読み出
され、ステップ201において、これら赤色成分の画像
データDRl(x,y)とDR2(x,y)の差分演算
を行なって、図7の(c)のような画像データDR3
(x,y)が求められる。ステップ202において、画
像データDR3(x,y)が、予め設定した所定のしき
い値Th1(Th1>0)で2値化され、図7の(d)
のようにノイズが除去された画像データR4(x,y)
とされる。なお、照明点灯の有無にかかわらず画像中に
もともと存在する赤色領域は、ステップ201およびス
テップ202において除去される。
FIG. 6 shows details of the position measurement of the retina reflection image in step 106. First, of the input image data from the first and second divergent illuminations 1 and 2 as shown in FIGS. 7A and 7B, the R component image data DR1 (x,
y) and DR2 (x, y) are read out from the image memory 6, and in step 201, the difference calculation between these red component image data DRl (x, y) and DR2 (x, y) is performed, Image data DR3 like (c) of 7
(X, y) is required. In step 202, the image data DR3 (x, y) is binarized with a predetermined threshold value Th1 (Th1> 0) set in advance, and (d) in FIG.
Image data R4 (x, y) from which noise has been removed as in
It is said that It should be noted that the red area originally existing in the image regardless of whether or not the illumination is turned on is removed in step 201 and step 202.

【0021】続いて、ステップ203において、上記画
像データDR4(x,y)内の各領域に番号付けを行う
ラベリング処理が施される。そして、ステップ204に
おいて、上記ラベリングされた各領域の中で、最大の面
積を持つものが網膜反射像として抽出される。このあ
と、ステップ205において、網膜反射像の重心位置
(Xgi,Ygi)が演算される。ステップ201〜2
05からなるステップ106が発明の網膜反射像抽出手
段を構成している。
Subsequently, in step 203, a labeling process for numbering each area in the image data DR4 (x, y) is performed. Then, in step 204, of the labeled regions, the one having the largest area is extracted as a retinal reflection image. Then, in step 205, the barycentric position (Xgi, Ygi) of the retina reflection image is calculated. Steps 201-2
The step 106 consisting of 05 constitutes the retinal reflection image extracting means of the invention.

【0022】図5に戻って、上に求めた網膜反射像重心
位置を基にして、角膜反射像位置を特定するため、ステ
ップ107において、網膜反射像の近傍領域に角膜反射
像を探索する探索領域Tが設定される。探索領域Tは、
図8に示されるように、網膜反射像の重心位置を中心
に、p×qの範囲に設定される。これは、網膜反射像の
位置が特定できれば、第1の発散照明1による角膜反射
像の位置と、第2の発散照明2による角膜反射像の発生
位置は、網膜反射像の近傍に限定されることになるから
である。
Returning to FIG. 5, in order to specify the position of the corneal reflection image based on the position of the center of gravity of the retina reflection image obtained above, in step 107, a search for searching the corneal reflection image in the vicinity of the retina reflection image. Area T is set. The search area T is
As shown in FIG. 8, the center of gravity of the retina reflection image is set as the center, and the range is set to p × q. This means that if the position of the retina reflection image can be specified, the position of the corneal reflection image by the first divergent illumination 1 and the position of the corneal reflection image by the second divergent illumination 2 are limited to the vicinity of the retina reflection image. Because it will be.

【0023】このあと、ステップ108において、角膜
反射像抽出部8で、角膜反射像が抽出される。ここで
は、照明に白色光を使用しているため、角膜反射像も白
色の輝点となる。観測される反射光の中から真の角膜反
射像を特定するに際しては、眼鏡レンズによる反射や透
過、および角膜表面の反射では、可視光領域において波
長選択性は少ないため、R、G、Bのどの色成分を用い
て処埋を行っても角膜反射像位置の演算には大差は生じ
ない。ただ、R成分をもちいて処埋を行うと、網膜反射
像が、抽出すべき角膜反射像と重なってしまう場合も考
えられるので、GまたはB成分を用いればよい。
Then, in step 108, the corneal reflection image extraction unit 8 extracts the corneal reflection image. Here, since white light is used for illumination, the corneal reflection image is also a white bright spot. When specifying a true corneal reflection image from the observed reflected light, the wavelength selectivity in the visible light region is small in reflection and transmission by the spectacle lens and reflection on the corneal surface. There is no great difference in the calculation of the corneal reflection image position regardless of which color component is used for the embedding. However, if the R component is used for the embedding, the retina reflection image may overlap with the corneal reflection image to be extracted. Therefore, the G or B component may be used.

【0024】角膜反射像は眼球部光学系のどの面で生じ
た像であるかによって、第1〜第4のプルキンエ像に分
類できるが、ここでは、その中で最も明るい、角膜表面
で生じた第1プルキンエ像を対象とする。車両運転者が
眼鏡を装用していると、角膜反射像の他に眼鏡のレンズ
やフレームでの反射光が同時に観測される。これらは、
角膜反射像と同様に明るい領域として観測される。
The corneal reflection image can be classified into first to fourth Purkinje images depending on which surface of the optical system of the eyeball part is generated, but here, it is generated on the corneal surface, which is the brightest among them. The first Purkinje image is targeted. When the vehicle driver wears the spectacles, the reflected light from the lenses and the frame of the spectacles is simultaneously observed in addition to the corneal reflection image. They are,
It is observed as a bright area like the corneal reflection image.

【0025】図9に、このような環境の中での角膜反射
像抽出の詳細フローを示す。ステップ301において、
まず図10の(a)、(b)に示されるような画像デー
タDG1(x,y)、DG2(x,y)の差分演算を行
う。処埋後の画像データDG3(x,y)は、(c)の
ように、画像DG1(x,y)、DG2(x,y)間で
濃淡値がほぼ等しい眼鏡領域や頬領域、さらに白目領域
等が除去され、濃淡値が大きく異なる角膜反射像、眼鏡
レンズ反射像、眼鏡フレーム反射像などの領域が強調さ
れる。ここでは正値および負値がそのまま表わされ、図
の塗りつぶし部が負値を示している。
FIG. 9 shows a detailed flow of corneal reflection image extraction in such an environment. In step 301,
First, the difference calculation of the image data DG1 (x, y) and DG2 (x, y) as shown in (a) and (b) of FIG. 10 is performed. The image data DG3 (x, y) after the embedding is, as shown in (c), a spectacle region or a cheek region having the same gray value between the images DG1 (x, y) and DG2 (x, y), and a white eye. Areas and the like are removed, and areas such as a corneal reflection image, a spectacle lens reflection image, and a spectacle frame reflection image having large gray values are emphasized. Here, positive values and negative values are represented as they are, and the filled portions in the figure show negative values.

【0026】ステップ302で、画像データDG3
(x,y)のp×q領域について予め設定したしきい値
Th2(Th2>0)で2値化され、(d)のような画
像データDG4(x,y)が得られる。ステップ303
において、上記2値化して抽出された領域にラベリング
処埋が施されたあと、ステップ304において、面積し
きい値処埋が行われる。角膜反射像は、数ドット以下の
面積の小さい輝点であるから、この処埋では、ラベリン
グされた各領域の面積を算出し、一定面積Sth以上の領
域を除外することにより、小さな輝点領域の抽出が行わ
れる。
In step 302, the image data DG3
The p × q region of (x, y) is binarized with a preset threshold value Th2 (Th2> 0), and image data DG4 (x, y) as shown in (d) is obtained. Step 303
At step 304, after the binarized and extracted region is subjected to labeling embedding, area threshold value embedding is performed at step 304. Since the corneal reflection image is a bright spot having a small area of several dots or less, the area of each labeled region is calculated in this embedding process, and a region having a certain area Sth or more is excluded to obtain a small bright spot region. Is extracted.

【0027】こうして抽出された領域を、角膜反射像の
候補領域iとして、ステップ305において、候補領域
iの重心位置が演算される。次のステップ306では、
第2の発散照明2による反射像の探索領域Uの設定が行
われる。すなわち、第1の発散照明1による反射像の位
置が特定されれば、第2の発散照明2による反射像の発
生位置は、その近傍に限定されるからである。そこで前
ステップで算出された各重心位置を含んで、m×n画素
の小領域が設定される。
In step 305, the position of the center of gravity of the candidate region i is calculated by using the region thus extracted as the candidate region i of the corneal reflection image. In the next step 306,
The search area U for the reflected image by the second divergent illumination 2 is set. That is, if the position of the reflected image by the first divergent illumination 1 is specified, the position where the reflected image by the second divergent illumination 2 is generated is limited to the vicinity thereof. Therefore, a small area of m × n pixels is set including each barycentric position calculated in the previous step.

【0028】この探索領域Uは、第1、第2の発散照明
1、2の設定状態に応じて決定される。例えば、図11
の(a)に示されるように、運転者から見て第2の発散
照明2が第1の発散照明1よりも右側にある配置では、
同図の(b)のように、第1の発散照明1による角膜反
射像A1よりも、第2の発散照明2による角膜反射像A
2の方が画像上で左方に位置することになる。また先の
図16に示したように、対応する反射像は、第1の発散
照明1と第2の発散照明2を結ぶ線分と平行の線上に現
われる。したがって、探索領域Uとしては、図11の
(c)に示すように、候補領域iの重心位置Vから左方
へ延びる範囲を設定すればよい。
The search area U is determined according to the setting states of the first and second divergent illuminations 1 and 2. For example, in FIG.
In the arrangement in which the second divergent illumination 2 is on the right side of the first divergent illumination 1 as seen from the driver, as shown in (a) of
As shown in (b) of the same figure, rather than the corneal reflection image A1 by the first divergent illumination 1, the corneal reflection image A by the second divergent illumination 2
2 is located on the left side of the image. Further, as shown in FIG. 16, the corresponding reflection image appears on a line parallel to the line segment connecting the first divergent illumination 1 and the second divergent illumination 2. Therefore, as the search area U, as shown in (c) of FIG. 11, a range extending from the center of gravity V of the candidate area i to the left may be set.

【0029】つぎのステップ307において、候補領域
i毎に上記のように探索領域において、第2の発散照明
2による反射像の探索が行なわれる。ここでは、各探索
領域の画像データDG3(x,y)をしきい値Th3
(Th3<0)で2値化処理して、 DG3(x,y)<Th3 を満足する画素があるかどうかが探索される。
In the next step 307, the reflection image by the second divergent illumination 2 is searched in the search area as described above for each candidate area i. Here, the image data DG3 (x, y) of each search area is set to the threshold value Th3.
Binarization processing is performed with (Th3 <0), and it is searched whether there is a pixel satisfying DG3 (x, y) <Th3.

【0030】ステップ308では、上記2値化処埋の結
果に基づいて応じて、角膜反射像を特定する。 (1)探索領域内にDG3(x,y)<Th3を満足す
る画素が抽出されない場合。 このときには、候補領域iに対応した第2の発散照明に
よる反射像に該当する輝点領域が探索領域内に存在しな
いのであるから、すなわち候補領域iは角膜反射像でな
いこととなる。 (2)探索領域内にDG3(x,y)<Th3を満足す
る画素で構成された領域が、唯1つ抽出された場合。 このときには、発見された領域の重心座標(Xgi,Y
gi)を求め、これがメモリに記憶される。
In step 308, the corneal reflection image is specified according to the result of the binarization process. (1) When pixels satisfying DG3 (x, y) <Th3 are not extracted in the search area. At this time, the bright spot region corresponding to the reflection image by the second divergent illumination corresponding to the candidate region i does not exist in the search region, that is, the candidate region i is not the corneal reflection image. (2) When only one region composed of pixels satisfying DG3 (x, y) <Th3 is extracted in the search region. At this time, the barycentric coordinates (Xgi, Y
gi), which is stored in memory.

【0031】(3)探索領域内にDG3(x,y)<T
h3を満足する画素で構成された領域が、2つ以上抽出
された場合。 このときには、真の角膜反射像であるならば、第1の発
散照明1による角膜反射像と平行のため、候補領域iと
のy座標の差が最小になる。したがって、抽出された領
域のうち、y座標の差が最少となるものを真の角膜反射
像としてその重心座標(Xgi,Ygi)を求める。以
上のステップ301〜308からなるステップ108
が、角膜反射像抽出手段を構成している。
(3) DG3 (x, y) <T in the search area
When two or more regions formed by pixels satisfying h3 are extracted. At this time, if the image is a true corneal reflection image, since it is parallel to the corneal reflection image by the first divergent illumination 1, the difference in y coordinate from the candidate region i is minimized. Therefore, the barycentric coordinates (Xgi, Ygi) of the extracted region having the smallest difference in y coordinates are determined as a true corneal reflection image. Step 108 including the above steps 301 to 308
Form the corneal reflection image extraction means.

【0032】図5に戻って、このあとステツプ109
で、視線方向算出部10において、これまでに求められ
た2つの角膜反射像の重心座標および瞳孔領域の重心座
標をもとに、運転者の視線方向が算出される。図12は
視線方向算出部における視線方向の算出原理を示す説明
図である。照明とカメラの光軸が一致している共軸系の
とき、カメラ焦点F1 (=照明光源L1位置)とカメラ
C(CCD面上)上の角膜反射像βを結ぶ直線は角膜球
中心Oを通過する。したがって、角膜球中心Oは直線F
1 −β上にある。また実際上の瞳孔中心Qは、カメラ焦
点(照明位置)とCCD画像上の瞳孔中心αを結ぶ直線
F1 −α上にある。
Returning to FIG. 5, after this, step 109
Then, in the line-of-sight direction calculation unit 10, the line-of-sight direction of the driver is calculated based on the barycentric coordinates of the two corneal reflection images and the barycentric coordinates of the pupil region obtained so far. FIG. 12 is an explanatory diagram showing the principle of calculating the line-of-sight direction in the line-of-sight direction calculation unit. In the case of a coaxial system in which the illumination and the optical axis of the camera coincide with each other, the straight line connecting the camera focus F1 (= illumination light source L1 position) and the corneal reflection image β on the camera C (on the CCD surface) is the corneal sphere center O. pass. Therefore, the center O of the corneal sphere is the straight line F.
It is on 1-β. The actual pupil center Q is on the straight line F1 -α connecting the camera focus (illumination position) and the pupil center α on the CCD image.

【0033】カメラ4の焦点距離をf、焦点位置をF1
(0,0,0)とし、X軸、Y軸、Z軸のワ−ルド座標
系F1 −XYZを考え、非共軸系照明の光源L2はF2
(a,b,c)にあって照明光が角膜表面で正反射する
ものとする。その正反射点Pは、CCD面上の光源L1
による角膜反射像δとカメラ焦点F1 を結ぶ直線F1−
δ上にある。すると、直線F1 −δ上に仮正反射点Pを
置き、角膜球半径である7.8mmの半径で球面Jを描
けば、球面Jと直線F1 −βの交点として角膜球中心O
の立体位置が定まる。角膜球中心Oと瞳孔中心Q間の距
離は約4.2mmであり、上に決定された角膜球中心O
を中心とする半径4.2mmの球面Kと、直線F1 −α
の交点として瞳孔中心Qの立体位置が定まる。これによ
り、点OとQを結ぶ線が視線方向として求められる。ス
テップ109が、視線方向算出手段を構成している。
The focal length of the camera 4 is f, and the focal position is F1.
Assuming that (0, 0, 0), the X-axis, Y-axis, and Z-axis world coordinate system F1-XYZ is considered, and the light source L2 for non-coaxial illumination is F2.
In (a, b, c), the illumination light is specularly reflected on the corneal surface. The specular reflection point P is the light source L1 on the CCD surface.
A straight line F1− connecting the corneal reflection image δ and the camera focus F1
It is on δ. Then, if the provisional regular reflection point P is placed on the straight line F1 -δ and the spherical surface J is drawn with a radius of 7.8 mm, which is the radius of the corneal sphere, the center of the corneal sphere O is defined as the intersection of the spherical surface J and the straight line F1 -β.
The three-dimensional position of is determined. The distance between the corneal sphere center O and the pupil center Q is about 4.2 mm, and the corneal sphere center O determined above is determined.
Spherical surface K with a radius of 4.2 mm and a straight line F1 -α
The three-dimensional position of the pupil center Q is determined as the intersection point of. Thus, the line connecting the points O and Q is obtained as the line-of-sight direction. Step 109 constitutes the gaze direction calculating means.

【0034】ステップ110においては、視線停留判断
部23で、上述のようにして視線方向算出部10で算出
された視線方向が視線スイッチエリア26のどのエリア
(制御項目)を見ているかを判断し、その時間を算出す
る。そしてステップ111で、停留判断が行なわれる。
これは、運転者が処理サイクルの一定回数連続して同一
エリアを見ているか否かによって行なわれる。視線方向
算出の1サイクルに400msecを要するとすれば、
例えば連続して2回として約0.8secの注視時間を
もって、同一エリアを注視しているものと判断する。
In step 110, the line-of-sight stop determination unit 23 determines which area (control item) of the line-of-sight switch area 26 is viewed by the line-of-sight direction calculated by the line-of-sight direction calculation unit 10 as described above. , Calculate the time. Then, in step 111, a stop determination is made.
This is done depending on whether the driver is looking at the same area a certain number of times in the processing cycle. If 400 msec is required for one cycle of gaze direction calculation,
For example, it is determined that the user is gazing at the same area with a gazing time of about 0.8 sec for two consecutive times.

【0035】ここで運転者が図4の(a)に示す視線ス
イッチエリア26の例えばエアコン・エリア(A/C)
を注視していると判断されると、ステップ112に進ん
で、対象物すなわちエアコンの制御が行なわれ、一定時
間以上の停留がなければ、ステップ102へ戻って視線
方向の計測が繰り返される。ステップ112では、コン
トローラ切り替え部27により例えばエアコン制御に切
り換えられ、HUD表示制御部24によりHUD表示部
25に現在のエアコン設定温度が表示される。なお、ス
テップ112に移ると視線方向の計測は停止される。
Here, the driver selects, for example, the air conditioner area (A / C) in the line-of-sight switch area 26 shown in FIG. 4 (a).
If it is determined that the user is gazing at, the process proceeds to step 112, the object, that is, the air conditioner is controlled, and if there is no stop for a certain time or more, the process returns to step 102 and the measurement of the line-of-sight direction is repeated. In step 112, the controller switching unit 27 switches to, for example, air conditioner control, and the HUD display control unit 24 displays the current air conditioner set temperature on the HUD display unit 25. It should be noted that when moving to step 112, the measurement of the line-of-sight direction is stopped.

【0036】HUD表示部25にエアコン設定温度が表
示されると、ステアリング・スイッチ22のアップダウ
ンボタンが設定温度の上下調整を行うように機能するよ
うになる。運転者はHUD表示部25を見ながら、ステ
アリングスイッチ22のアップダウンボタンを操作して
希望の設定温度にセットする。セツトした情報により、
エアコンコントローラ29により所定の温度制御が行わ
れる。一定時間(例えば5秒間)アップダウンボタンが
操作されない場合は、操作が終了したものと判断してス
イッチ機能は全て停止する。再び運転者が何等かの操作
を必要とし、メインスイッチ21を押すと再び上述の処
理が繰り返される。
When the air conditioner set temperature is displayed on the HUD display section 25, the up / down button of the steering switch 22 functions to adjust the set temperature up and down. While looking at the HUD display portion 25, the driver operates the up / down button of the steering switch 22 to set the desired set temperature. According to the set information,
A predetermined temperature control is performed by the air conditioner controller 29. If the up / down button is not operated for a certain period of time (for example, 5 seconds), it is determined that the operation is completed, and all the switch functions are stopped. The driver again needs to perform some operation, and when the main switch 21 is pressed, the above processing is repeated again.

【0037】実施例は以上のように構成され、運転者の
視線方向計測にあたって、眼鏡反射像と角膜反射像を分
離する際、網膜反射像が赤色成分をもつことを利用し、
画像中の赤色成分に着目して網膜反射像を抽出し、この
網膜反射像位置を基に角膜反射像を特定するようにした
ため、システム操作者が眼鏡を装着していても、正確に
視線方向を求めることができる。なお、前述のようにカ
ラーカメラを車両運転者に比較的近接して設置でき、撮
像範困を限定できるので、運転者の眼球部を拡大撮影し
て比較的高精度で広範囲にわたる視線方向を計測可能で
ある。
The embodiment is configured as described above, and when the eyeglass reflex image is separated from the corneal reflex image in measuring the driver's line-of-sight direction, the fact that the retina reflex image has a red component is utilized.
The retinal reflection image was extracted by focusing on the red component in the image, and the corneal reflection image was specified based on the position of this retinal reflection image. Can be asked. As described above, since the color camera can be installed relatively close to the vehicle driver and the imaging range can be limited, the driver's eyeball is enlarged and photographed to measure the gaze direction over a wide range with relatively high accuracy. It is possible.

【0038】なおまた、実施例では光源に白色光を用い
ているが、これに限定されることなく、網膜反射により
重畳する赤色成分と識別可能であれば、青色や緑色など
の成分を有する光源を用いることもできる。さらに、上
記実施例では、各色成分の画像データとして、カラーカ
メラ4がR、G、Bの全3色を入力し、各色成分のデー
タを出力するものを示したが、このほか、図13に示す
ように、眼球部から反射する入射光をダイクロイツクミ
ラー51等に導き、網膜反射像の赤色成分を含む波長の
みを反射してこれをカメラまたは撮像素子52に入力
し、それ以外の透過成分を他のカメラまたは撮像素子5
3に入力させるようにして、別々の系から画像データを
得るようにすることもできる。これにより、高価なカラ
ーカメラのかわりに通常の白黒カメラを用いることがで
きる。
In addition, although white light is used as the light source in the embodiment, the light source is not limited to this, and if it can be discriminated from the red component superimposed by the retinal reflection, the light source having a component such as blue or green. Can also be used. Further, in the above embodiment, the color camera 4 inputs all three colors of R, G, and B as image data of each color component and outputs the data of each color component. As shown, the incident light reflected from the eyeball portion is guided to the dichroic mirror 51 and the like, only the wavelength including the red component of the retina reflection image is reflected, and this is input to the camera or the image pickup element 52, and the other transmitted components. Other camera or image sensor 5
The image data can be obtained from different systems by inputting the data to the third system. This allows a normal black and white camera to be used instead of an expensive color camera.

【0039】あるいはまた、図14に示すように、入射
光の全光量を所定割合の反射と透過に配分するビ−ムス
プリッタ55等を用いて、カメラまたは撮像素子52、
53に入力し、一方のカメラまたは撮像素子52の前に
網膜反射像の赤色成分を含む波長のみを透過するフイル
タ58を設置する。これによっても、安価な白黒カメラ
などを用いて他の色成分から分離された赤色成分の画像
データを得ることができる。
Alternatively, as shown in FIG. 14, a camera or an image pickup device 52 is provided by using a beam splitter 55 or the like which distributes the total amount of incident light into reflection and transmission at a predetermined ratio.
A filter 58 for transmitting only the wavelength including the red component of the retina reflection image is installed in front of one of the cameras or the image pickup device 52. This also makes it possible to obtain image data of the red component separated from the other color components by using an inexpensive black-and-white camera or the like.

【0040】[0040]

【発明の効果】以上のとおり、本発明は、眼球部の画像
デ−タから網膜反射像および角膜反射像を抽出し、瞳孔
中心と角膜反射像とから運転者の視線方向を算出する視
線方向計測装置において、網膜反射像が赤色の特有の色
成分をもつことを利用し、網膜反射像を抽出するにあた
りこの網膜反射像に特有の色成分を有する画像デ−タを
用いて抽出し、またこの抽出した網膜反射像位置を基に
角膜反射像を抽出するものとしたので、運転者が眼鏡を
装着していても、眼鏡レンズやフレームの反射像から網
膜反射像および角膜反射像を確実、容易に特定でき、精
度の高い視線方向計測が行なえるという効果を有する。
As described above, the present invention extracts the retinal reflection image and the corneal reflection image from the image data of the eyeball portion, and calculates the driver's gaze direction from the pupil center and the corneal reflection image. In the measuring device, the fact that the retinal reflection image has a unique color component of red is used to extract the retinal reflection image by using image data having a unique color component of the retinal reflection image, and Since the corneal reflection image is extracted based on the extracted retinal reflection image position, even if the driver wears spectacles, the retinal reflection image and the corneal reflection image are surely obtained from the reflection image of the spectacle lens or the frame. It has an effect that it can be easily specified and highly accurate gaze direction measurement can be performed.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of the present invention.

【図2】本発明の実施例の構成を示す図である。FIG. 2 is a diagram showing a configuration of an exemplary embodiment of the present invention.

【図3】実施例の車載レイアウトを示す図である。FIG. 3 is a diagram showing an in-vehicle layout of the embodiment.

【図4】視線スイッチエリアとステアリングスイッチの
詳細を示す図である。
FIG. 4 is a diagram showing details of a line-of-sight switch area and a steering switch.

【図5】実施例における処理の流れを示すメインフロー
チャートである。
FIG. 5 is a main flowchart showing the flow of processing in the embodiment.

【図6】網膜反射像の位置計測の詳細を示すフローチャ
ートである。
FIG. 6 is a flowchart showing details of position measurement of a retina reflection image.

【図7】画像データの処理の流れを示す説明図である。FIG. 7 is an explanatory diagram showing a flow of processing of image data.

【図8】探索領域を示す図である。FIG. 8 is a diagram showing a search area.

【図9】角膜反射像抽出の詳細を示すフローチャートで
ある。
FIG. 9 is a flowchart showing details of corneal reflection image extraction.

【図10】画像データの処理の流れを示す説明図であ
る。
FIG. 10 is an explanatory diagram showing a flow of processing of image data.

【図11】探索領域の設定要領を示す図である。FIG. 11 is a diagram showing a procedure for setting a search area.

【図12】視線方向の算出原理を示す説明図である。FIG. 12 is an explanatory diagram showing a principle of calculating a line-of-sight direction.

【図13】各色成分の画像データ入力の他の例を示す図
である。
FIG. 13 is a diagram showing another example of inputting image data of each color component.

【図14】各色成分の画像データ入力の他の例を示す図
である。
FIG. 14 is a diagram showing another example of inputting image data of each color component.

【図15】眼鏡装着時の反射像例を示す図である。FIG. 15 is a diagram showing an example of a reflected image when wearing glasses.

【図16】2照明による眼鏡レンズの反射像と角膜反射
像の間隔を示す図である。
FIG. 16 is a diagram showing a gap between a reflection image of a spectacle lens and a corneal reflection image by two illuminations.

【符号の説明】[Explanation of symbols]

1 第1の発散照明 2 第2の発散照明 4 カラーカメラ 5 A/D変換器 6 画像メモリ 7 網膜反射像抽出部 8 角膜反射像抽出部 10 視線方向算出部 11 照明発光制御部 12 全体制御部 13 眼球 21 メインスイッチ 22 ステアリングスイッチ 23 視線停留判断部 24 HUD表示制御部 25 HUD表示部 26 視線スイッチエリア 27 コントロ−ラ切り替え部 28 オーディオコントローラ 29 エアコンコントローラ 30 ラジオコントローラ 31 ASCDコントローラ 41 フロントウインドシールド 42 ステアリング 51 ダイクロイツクミラー 52、53 カメラまたは撮像素子 55 ビ−ムスプリッタ 58 フイルタ T、U 探索領域 1 First divergent illumination 2 Second divergent illumination 4 Color camera 5 A / D converter 6 Image memory 7 Retinal reflection image extraction unit 8 Corneal reflection image extraction unit 10 Eye-gaze direction calculation unit 11 Illumination emission control unit 12 Overall control unit 13 Eyeball 21 Main switch 22 Steering switch 23 Line-of-sight stop determination unit 24 HUD display control unit 25 HUD display unit 26 Line-of-sight switch area 27 Controller switching unit 28 Audio controller 29 Air conditioner controller 30 Radio controller 31 ASCD controller 41 Front windshield 42 Steering 51 dichroic mirror 52, 53 camera or image sensor 55 beam splitter 58 filter T, U search area

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 運転者の眼球を異なる方向から照射する
複数の照明と、該複数の照明による眼球からの反射像を
撮像する撮像装置を備えて各照明毎の画像デ−タを得る
画像入力手段と、前記画像デ−タから網膜反射像を抽出
して瞳孔中心を算出する網膜反射像抽出手段と、前記画
像デ−タから角膜反射像を抽出する角膜反射像抽出手段
と、前記抽出された角膜反射像と瞳孔中心より運転者の
視線方向を算出する視線方向算出手段とを有し、 前記画像入力手段は、前記画像デ−タとして網膜反射像
に特有の色成分を有する画像デ−タとその他の色成分を
有する画像デ−タとを得、前記網膜反射像抽出手段は、
前記網膜反射像に特有の色成分を有する画像デ−タを用
いて他の反射像から識別して網膜反射像を抽出し、前記
角膜反射像抽出手段は、前記網膜反射像の位置を基に角
膜反射像を抽出するものであることを特徴とする車両用
視線方向計測装置。
1. An image input for obtaining image data for each illumination, comprising a plurality of illuminations for illuminating a driver's eyeballs from different directions and an imaging device for capturing a reflected image from the eyeballs by the plurality of illuminations. Means, a retinal reflection image extracting means for extracting a retinal reflection image from the image data to calculate a pupil center, and a corneal reflection image extracting means for extracting a corneal reflection image from the image data, A corneal reflection image and a line-of-sight direction calculating means for calculating the driver's line-of-sight direction from the center of the pupil, and the image input means includes image data having a color component specific to the retina reflection image as the image data. Image data having a color component and other color components, the retinal reflection image extraction means,
The retinal reflection image is extracted based on the position of the retinal reflection image based on the position of the retinal reflection image by distinguishing from other reflection images by using image data having a color component specific to the retinal reflection image to extract the retinal reflection image. A visual line direction measuring device for a vehicle, which extracts a corneal reflection image.
【請求項2】 前記網膜反射像に特有の色成分が赤色で
あることを特徴とする請求項1記載の車両用視線方向計
測装置。
2. The gaze direction measuring device for a vehicle according to claim 1, wherein the color component peculiar to the retina reflection image is red.
【請求項3】 前記角膜反射像抽出手段は、前記網膜反
射像の重心位置を中心に設定された所定の第1の探索領
域内を探索して角膜反射像を抽出するものであることを
特徴とする請求項1または2記載の車両用視線方向計測
装置。
3. The corneal reflection image extracting means extracts a corneal reflection image by searching within a predetermined first search area centered on the center of gravity of the retina reflection image. The visual line direction measuring device for a vehicle according to claim 1 or 2.
【請求項4】 前記角膜反射像抽出手段は、前記第1
の探索領域内の所定面積以下の輝点領域を前記複数の照
明のうちの第1の照明による第1の角膜反射像の候補領
域とし、該候補領域の重心位置から、第1の照明に対す
る第2の照明の位置に対応して決定される所定方向へ延
びて設定された第2の探索領域内に第2の照明による第
2の角膜反射像に該当する第2の輝点領域があるとき、
前記候補領域および第2の輝点領域を角膜反射像とする
ことを特徴とする請求項3記載の車両用視線方向計測装
置。
4. The corneal reflection image extraction means is the first
A bright spot region having a predetermined area or less in the search region is set as a candidate region for the first corneal reflection image by the first illumination of the plurality of illuminations, and the first illumination relative to the first illumination is selected from the center of gravity of the candidate region. When there is a second bright spot region corresponding to the second corneal reflection image by the second illumination in the second search region set to extend in the predetermined direction determined corresponding to the position of the second illumination. ,
The visual line direction measuring device for a vehicle according to claim 3, wherein the candidate region and the second bright spot region are formed as a corneal reflection image.
【請求項5】 前記画像入力手段の撮像装置は、前記各
色成分別の画像データを出力するカラーカメラであるこ
とを特徴とする請求項1、2、3、または4記載の車両
用視線方向計測装置。
5. The vehicle gaze direction measurement according to claim 1, wherein the image pickup device of the image input means is a color camera that outputs image data for each color component. apparatus.
【請求項6】 前記画像入力手段の撮像装置は、眼球か
ら反射した入射光をダイクロイツクミラーにより網膜反
射像の赤色成分を含む波長成分とその他の色成分に分離
し、それぞれの色成分を検出するカメラまたは撮像素子
に入力して前記各色成分別の画像データを出力するもの
であることを特徴とする請求項1、2、3、または4記
載の車両用視線方向計測装置。
6. The image pickup device of the image input means separates incident light reflected from an eyeball into a wavelength component including a red component of a retina reflection image and other color components by a dichroic mirror, and detects each color component. 5. The vehicular line-of-sight direction measuring device according to claim 1, wherein the image data for each color component is output by inputting the image data into a camera or an image sensor.
【請求項7】 前記画像入力手段の撮像装置は、眼球か
ら反射した入射光をビームスプリッタで2系統に分離
し、一方の系統は赤色透過フィルタを介したうえ、それ
ぞれの色成分を検出するカメラまたは撮像素子に入力し
て前記各色成分別の画像データを出力するものであるこ
とを特徴とする請求項1、2、3、または4記載の車両
用視線方向計測装置。
7. An image pickup device of the image input means separates incident light reflected from an eyeball into two systems by a beam splitter, one system passing through a red transmission filter, and a camera detecting each color component. 5. The vehicular line-of-sight direction measuring device according to claim 1, wherein the image data is input to an image pickup device to output image data for each color component.
JP04039394A 1994-02-15 1994-02-15 Gaze direction measuring device for vehicles Expired - Fee Related JP3185522B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04039394A JP3185522B2 (en) 1994-02-15 1994-02-15 Gaze direction measuring device for vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04039394A JP3185522B2 (en) 1994-02-15 1994-02-15 Gaze direction measuring device for vehicles

Publications (2)

Publication Number Publication Date
JPH07229714A true JPH07229714A (en) 1995-08-29
JP3185522B2 JP3185522B2 (en) 2001-07-11

Family

ID=12579428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04039394A Expired - Fee Related JP3185522B2 (en) 1994-02-15 1994-02-15 Gaze direction measuring device for vehicles

Country Status (1)

Country Link
JP (1) JP3185522B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004105590A (en) * 2002-09-20 2004-04-08 Matsushita Electric Ind Co Ltd Eye position detector and eye position detection method
JP2006167256A (en) * 2004-12-17 2006-06-29 National Univ Corp Shizuoka Univ Pupil detecting apparatus
JP2012056359A (en) * 2010-09-06 2012-03-22 Denso Corp On-vehicle equipment control device
CN102510480A (en) * 2011-11-04 2012-06-20 大连海事大学 Automatic calibrating and tracking system of driver sight line
JP2012239550A (en) * 2011-05-17 2012-12-10 Fujitsu Ltd Corneal reflection determining program, corneal reflection determining device, and method for determining corneal reflection
CN104302226A (en) * 2012-05-25 2015-01-21 索尼电脑娱乐公司 Video analysis device, video analysis method, and point-of-gaze display system
JP2017030686A (en) * 2015-08-05 2017-02-09 株式会社デンソー Alert apparatus, alert method and alert system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004105590A (en) * 2002-09-20 2004-04-08 Matsushita Electric Ind Co Ltd Eye position detector and eye position detection method
JP2006167256A (en) * 2004-12-17 2006-06-29 National Univ Corp Shizuoka Univ Pupil detecting apparatus
JP2012056359A (en) * 2010-09-06 2012-03-22 Denso Corp On-vehicle equipment control device
JP2012239550A (en) * 2011-05-17 2012-12-10 Fujitsu Ltd Corneal reflection determining program, corneal reflection determining device, and method for determining corneal reflection
CN102510480A (en) * 2011-11-04 2012-06-20 大连海事大学 Automatic calibrating and tracking system of driver sight line
CN104302226A (en) * 2012-05-25 2015-01-21 索尼电脑娱乐公司 Video analysis device, video analysis method, and point-of-gaze display system
US9727130B2 (en) 2012-05-25 2017-08-08 Sony Interactive Entertainment Inc. Video analysis device, video analysis method, and point-of-gaze display system
JP2017030686A (en) * 2015-08-05 2017-02-09 株式会社デンソー Alert apparatus, alert method and alert system

Also Published As

Publication number Publication date
JP3185522B2 (en) 2001-07-11

Similar Documents

Publication Publication Date Title
US10437327B2 (en) Eye tracking device and method for operating an eye tracking device
JP3324295B2 (en) Gaze direction measuring device for vehicles
JP2988178B2 (en) Gaze direction measuring device
JP5297486B2 (en) Device for detecting and tracking the eye and its gaze direction
JP3855439B2 (en) Night driving visibility support device
WO2007023798A9 (en) Pupil detection device and pupil detection method
JP2017039373A (en) Vehicle video display system
JP3520618B2 (en) Gaze direction measuring device for vehicles
JP4528980B2 (en) Pupil detection device and pupil detection method
JP3185522B2 (en) Gaze direction measuring device for vehicles
CN111417885B (en) System and method for determining pose of augmented reality glasses
JPH09167049A (en) Line of sight input device for console
JPH105178A (en) Visual line input device
JPH06323832A (en) Interface for vehicle
JPH08297019A (en) Apparatus for detecting direction of line of sight for vehicle
JP3296119B2 (en) Gaze direction measuring device for vehicles
JP2988235B2 (en) Gaze direction detection device for vehicles
JPH0868630A (en) Visual line direction measuring apparatus for vehicle and image input device used for it
JPH09251539A (en) Line-of-sight measuring instrument
JP3232873B2 (en) Gaze direction detection device for vehicles
JPH07248216A (en) Apparatus for detecting direction of line of vision for use in vehicle
JP6693149B2 (en) Pupil detection device and pupil detection method
JPH11347016A (en) Imaging device
US20240037787A1 (en) Corneal reflected image identifying device and gaze detection device
JPH1097376A (en) Operation device for line of sight

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20010403

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090511

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees