JPS6177705A - Device for recognizing position of vehicle driver's eyes - Google Patents

Device for recognizing position of vehicle driver's eyes

Info

Publication number
JPS6177705A
JPS6177705A JP20110284A JP20110284A JPS6177705A JP S6177705 A JPS6177705 A JP S6177705A JP 20110284 A JP20110284 A JP 20110284A JP 20110284 A JP20110284 A JP 20110284A JP S6177705 A JPS6177705 A JP S6177705A
Authority
JP
Japan
Prior art keywords
image data
driver
image
singular point
light emitting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP20110284A
Other languages
Japanese (ja)
Inventor
Yasutoshi Katou
康聡 加藤
Haruhiko Ogiso
治比古 小木曽
Akio Yasuda
彰男 安田
Hiroshi Ishikawa
浩 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
NipponDenso Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NipponDenso Co Ltd filed Critical NipponDenso Co Ltd
Priority to JP20110284A priority Critical patent/JPS6177705A/en
Publication of JPS6177705A publication Critical patent/JPS6177705A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PURPOSE:To make it possible to recognize the three-dimensional positions of the driver's eyes simply and accurately, by using two kinds of image data obtained based on the different light projecting directions, and detecting the positions of special points and the positions of the eyes. CONSTITUTION:The two special points on the face part of a vehicle driver I are picked up by an image detecting means III. Thus the two kinds of image data are obtained. For this purpose, a light emitting means II is composed of two light emitting parts V, which are arranged at different positions. In order to emit light from the light emitting parts V, individually, an emission control means VI, which outputs an emission control signal, is provided for the means II. With the two kinds of the image data detected by the means III as the first and second special-point detecting data, an image processing means IV detects the position of the first special point in the image data based on the first data. With the detected position as a parameter, the position of the second special point in the image data is detected based on the second data. The three-dimensional positions of the eyes of the driver I in the vehicle are obtained based on the positions of the detected first and second special points.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は車両運転者の目の位置を認識する車両運転者の
目の位置認識装置に関し、特に運転者を2箇所の異なる
位置から照射して得られる2種の画像データを用いて運
転者の目の3次元位置を認識する、車両運転者の目の位
置認識装置に関するものである。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to a vehicle driver's eye position recognition device that recognizes the position of the vehicle driver's eyes. The present invention relates to a vehicle driver's eye position recognition device that recognizes the three-dimensional position of the driver's eyes using two types of image data obtained from a vehicle driver.

[従来技術〕 近年電子機器の急速な発達に伴い車両の操作性、居住性
、事故回避性等の向上を目的とした新しい装置の研究が
進められており、その1つとして、運転者の乗車位置、
特に目の位置を認識し、その目の位置に応じてバックミ
ラーや空調空気の吹出口、あるいはステアリング等の角
度を自動調整するとか、目の位置の周期的変化から居眠
り運転を検知し、運転者に警報を与えるといったことが
考えられている。
[Prior art] In recent years, with the rapid development of electronic devices, research has been progressing on new devices aimed at improving vehicle operability, comfort, accident avoidance, etc. position,
In particular, it recognizes the position of the eyes and automatically adjusts the angle of the rearview mirror, air conditioning air outlet, or steering wheel according to the position of the eyes, and detects drowsiness while driving based on periodic changes in the position of the eyes. The idea is to give warnings to people.

そしてこのような制御を実行する為に用いられる車両運
転者の目の位置認識′4A置の1つとして、従来より、
車両運転者の顔面部分を画像データとして捉え、その画
像データにおいて予め定められた目の標準パターンと最
も類似した箇所を目の位置として検出し、この画像デー
タにおける目の位置から運転者の目の5次元位置を求め
るよう@成したものが考えられている。
Conventionally, as one of the methods for recognizing the position of the vehicle driver's eyes used to execute such control,
The facial part of the vehicle driver is captured as image data, the part of the image data that is most similar to a predetermined standard eye pattern is detected as the eye position, and the driver's eye position is determined from the eye position in this image data. A device designed to find five-dimensional positions is being considered.

また上記のように単に画像データと目の標準パターンを
比較して、直接目の位置を検出するようにした場合、目
の位置以外でも目の標準パターンと類似する箇所があり
目の位置を誤検出するといったことが考えられるので、
その検出能力を向上するために、まず画像上のより検出
し易い箇所、つまり例えば画像データを運転者顔面部の
側面画像とした場合には顔面部より突出された鼻の頭(
以下、得失という。)を特異点位置として検出し、その
後この特異点位置から画像データにおける目の位置を推
定し、その付近の画像データと目の標準パターンとが最
も類似する箇所を目の位置とするといったことも考えら
れている。
Furthermore, if the eye position is directly detected by simply comparing the image data with the eye standard pattern as described above, there may be places other than the eye position that are similar to the eye standard pattern, leading to incorrect eye positions. It is possible to detect
In order to improve the detection ability, we first need to find a location on the image that is easier to detect, that is, for example, when the image data is a side image of the driver's face, the tip of the nose that protrudes from the face (
Hereafter, it will be referred to as advantages and disadvantages. ) as the singular point position, then estimate the eye position in the image data from this singular point position, and set the position of the eye where the image data in the vicinity is most similar to the standard pattern of the eye. It is considered.

ところで上記のように画像データ上の特異点位置を検出
し、その特異点位置を基に目の位置を検出するようにし
た場合、画像データを、特異点位置と目の位置とを共に
検出し易い画像データとすることによって、より正確な
目の位置を検出することができるようになるのであるが
、例えば第2図に示す如く、特異点である鼻の位置を検
出し易い画像データが得られるように照明を当てた場合
には、目の付近に影ができ目が検出し難くなったり、あ
るいは目の位置を検出し易いように照明を当てた場合に
は、第3図に示す如く、鼻の部分に影ができ、郷尖の位
置が検出し難い画像データとなってしまうといった問題
が生ずるのである。
By the way, if you detect the position of the singular point on the image data as described above and detect the position of the eye based on the position of the singular point, then both the position of the singular point and the position of the eye will be detected in the image data. By using image data that is easy to use, it becomes possible to detect the position of the eyes more accurately.For example, as shown in Figure 2, it is possible to obtain image data that makes it easy to detect the position of the nose, which is a singular point. If the lighting is applied in a way that makes it difficult to detect the eyes, shadows may be created near the eyes, and if the lighting is applied in such a way that the positions of the eyes can be easily detected, as shown in Figure 3. This results in problems such as a shadow being formed in the nose area, resulting in image data that makes it difficult to detect the position of the tip of the nose.

[発明の目的] そこで本発明は、上記の点に鑑みなされたもので、照射
方向が異なることにより得られる2種の画像データを用
いて特異点位置と目の位置とを夫々検出するよう構成さ
れた車両運転者の目の位置認識装置を提供することによ
って、より簡単に、より正確に運転者の目の3次元位置
を認識できるかかる目的を達するための本発明の構成は
、第1図に示す如く、 車両運転名工を照射する発光手段■と、該発光手段■の
照射による上記運転者■からの反射光を−受け、少なく
とも上記運転名工の顔面部を画像データとして検出する
画像検出手段■と、該検出された画像データを演算処理
し、上記運転名工の目の3次元位置を求める画像処理手
段■と、 を備えた車両運転者の目の位置認識装置であって、 上記画像検出手段■にて、当該車両運転者顔面部の所定
の2箇所の特異点部分がそれぞれ明瞭に搬像された2種
の異なる画像データが得られるよう、上記発光手段■を
、各々異なる位置に配設された2個の発光部Vより構成
すると共に、該2個の発光ivを個々に発光させるべく
、上記発光手段■に照射I制御信号を出力する照射制御
手段■Iを設け、 更に上記画像処理手段■を、上記画像検出手段■゛にて
検出された2種の異なる画像データのうち、一方を第1
の特異点位置検出用画像データ、他方を第2の特異点位
置検出用画像データとし、該第1の特異点位置検出用画
像データから当該画像データにおける第1の特異点位置
を検出すると共に、該検出された第1の特異点位置を1
つのパラメータとして上記第2の特異点位置検出用画像
データから当該画像データにおける第2の特異点位置を
検出し、該検出された第2の特異点位置、又は上記第1
の特異点位置と第2の特異点位置とから当該車両におけ
る上記運転者Iの目の3次元位置を求めるよう構成した
こと、 を特徴とする車両運転者の目の位置認識装置を要旨とし
ている。
[Object of the Invention] Therefore, the present invention has been made in view of the above points, and is configured to detect the singular point position and the eye position using two types of image data obtained by different irradiation directions. The configuration of the present invention for achieving the above object is as shown in FIG. As shown in , a light emitting means (2) for illuminating the vehicle driver (2), and an image detection means (3) for receiving reflected light from the driver (2) caused by the illumination by the light emitting means (2) and detecting at least the facial part of the driver (2) as image data. A device for recognizing the position of the eyes of a vehicle driver, comprising: (1) arithmetic processing of the detected image data to determine the three-dimensional position of the eyes of the driver; In the means (2), the light emitting means (2) are arranged at different positions so that two different types of image data in which two predetermined singular points on the face of the vehicle driver are clearly imaged are obtained. In addition, an irradiation control means (I) is provided for outputting an irradiation I control signal to the light emitting means (■) in order to cause the two light emitting parts (iv) to emit light individually, The processing means (■) processes one of the two different types of image data detected by the image detection means (■) into the first one.
the singular point position detection image data, and the other as the singular point position detection image data, and detecting the first singular point position in the image data from the first singular point position detection image data, The detected first singular point position is 1
The second singular point position in the image data is detected from the image data for detecting the second singular point position as one parameter, and the detected second singular point position or the first singular point position is detected from the second singular point position detection image data.
The gist of the present invention is a vehicle driver's eye position recognition device, characterized in that the device is configured to obtain the three-dimensional position of the eyes of the driver I in the vehicle from the singularity position and the second singularity position. .

[実施例] 以下本発明の一実施例を図面と共に説明する。[Example] An embodiment of the present invention will be described below with reference to the drawings.

第4図は本実施例の目の位置認識IA置が搭載された車
両のインストルメントパネル部分及びその周辺を表わす
斜視図であって、1は運転者、2は運転席、3はインス
トルメントパネルを表わしている。そしてインストルメ
ントパネル3の運転席2に対する左斜め前方、即ち、助
手席側前方には、運転者1の上体を左方向から照射する
夫々異なる位置に設けられた2個の発光部5及び6と、
発光部5又は6の照射による運転者1からの反射光を受
け、運転者1の上体を左方向から2次元画像として捉え
る画像検出部7が設けられている。
FIG. 4 is a perspective view showing the instrument panel part and its surroundings of a vehicle in which the eye position recognition IA system of this embodiment is installed, where 1 is the driver's seat, 2 is the driver's seat, and 3 is the instrument panel. It represents. Two light emitting units 5 and 6 are provided at diagonally to the left front of the instrument panel 3 with respect to the driver's seat 2, that is, in front of the passenger seat side, and are provided at different positions to illuminate the upper body of the driver 1 from the left direction. and,
An image detection section 7 is provided that receives reflected light from the driver 1 due to the irradiation of the light emitting section 5 or 6 and captures a two-dimensional image of the upper body of the driver 1 from the left direction.

ここで発光部5及び6は前述の発光手段■を構成するも
のであって、照射時に運転者1に眩しさを感じさせるこ
とのないよう赤外光を発光する赤外ストロボが用いられ
、第5図に示す如く、赤外発光体5a(6a>と、赤外
発光体5a(6a)にて発光された赤外光を広く運転者
に照射する為のレンズ5b(6b)と、赤外光を透過し
、可視光を通さない赤外フィルタ5c(6c)と、これ
ら赤外発光体5a(6a)、レンズ5b(6b)及び赤
外フィルタ5c(6c)を格納し、インストルメントパ
ネル3の所定の位置に取り付けるためのケース5d(6
d)とから構成されており、本実施例においては画像検
出部7の左・右に配設されている。
Here, the light emitting units 5 and 6 constitute the above-mentioned light emitting means (2), and an infrared strobe that emits infrared light is used so as not to dazzle the driver 1 when irradiating the light. As shown in Fig. 5, an infrared light emitter 5a (6a>), a lens 5b (6b) for broadly irradiating the driver with infrared light emitted by the infrared light emitter 5a (6a), and an infrared light emitter 5a (6a). An infrared filter 5c (6c) that transmits light but does not transmit visible light, an infrared emitter 5a (6a), a lens 5b (6b), and an infrared filter 5c (6c) are stored in the instrument panel 3. Case 5d (6
d), and are arranged on the left and right sides of the image detection section 7 in this embodiment.

また画像検出部7は前述の画像検出手段■に相当し、発
光部5又は6の照射による運転者1からの発射光を運転
者1の上体画像として捉えるためのものであって、この
画像検出部7には第6図に示す如く、運転者1からの反
射光、即ち赤外光を透過するための赤外フィルタ7aと
、運転者1の上体画像を後述の固体搬像素子7eの穎象
面に結像するための焦点距離が例えば12.5mmのレ
ンズ7bと、光量を調整するための液晶絞り素子7Cと
、液晶絞り素子7Cを透過する光Iを検出するフォトト
ランジスタ7dと、上記赤外フィルタ7a、レンズ7b
及び液晶絞り素子7Cを透過して結像された撮像面上の
映像をスイッチング走査で電気信号として取り出す、フ
ォトセンサとスイッチング回路とからなるMOS形の固
体ms素子7eと、上記各部を格納し、インストルメン
トパネル3に取り付けるためのケース7fとから構成さ
れる固体カメラが用いられている。
The image detecting section 7 corresponds to the above-mentioned image detecting means (2), and is for capturing the light emitted from the driver 1 by the light emitting section 5 or 6 as an image of the upper body of the driver. As shown in FIG. 6, the detection unit 7 includes an infrared filter 7a for transmitting reflected light from the driver 1, that is, infrared light, and a solid-state image carrier 7e for transmitting an image of the driver's 1's body. A lens 7b having a focal length of, for example, 12.5 mm to form an image on the glenoid plane, a liquid crystal aperture element 7C for adjusting the amount of light, and a phototransistor 7d for detecting the light I transmitted through the liquid crystal aperture element 7C. , the infrared filter 7a, and the lens 7b.
and a MOS-type solid-state ms element 7e consisting of a photosensor and a switching circuit, which extracts the image formed on the imaging surface transmitted through the liquid crystal aperture element 7C as an electrical signal by switching scanning, and each of the above parts is stored therein. A solid-state camera is used, which includes a case 7f for attachment to the instrument panel 3.

次に本実施例の目の位置認識装置の全体溝或を第7図に
示すブロック図に基づき説明する。
Next, the entire groove of the eye position recognition device of this embodiment will be explained based on the block diagram shown in FIG.

図に示す如く、本g f!装置は上記2個の発光部5.
6と画像検出部7の他に、前記第2図及び第3図に示し
た如き2種の画像データから運転者1の目の位置を認識
し17るよう、上記発光部5.6を個々に発光させると
共に、画&検出部7にて17られた画像信号を処理し、
運転者1の目の位置を認識する画像処理部8を備えてい
る。そしてこの画像処理部8は、上記画像検出部7を制
御すると共に、画像検出部7にて得られた画像信号をデ
ジタル信号に変換し、その変換されたデジタル信号を画
也データとして一旦記憶することのできる画像信号入力
部10と、上記発光部5.6を交互に発光させるための
照射信号を出力する照射信号出力部12と、上記発光部
5゛、6を個々に発光させると共に、その発光より画像
信号入力部10に記憶される2種の画像データから運転
者1の目の位置を認識するといった一連の目の位置認識
処理を実行するセントラルブロセッシングユニット(C
PU)14と、CPU14にて目の位[認識処理を実行
するに当たって用いられる制御ブOグラムやデータが予
め記憶されたリードオンリメモリ(ROM)16と、演
算処理実行のために用いられるデータ等が一時的に読み
書きされるランダムアクセスメモリ(RAM)18と、
上記各部を結び画像信号や制御信号の通路とされるパス
ライン20と、上記各部に電源を供給する電源回路22
とから構成されている。また上記画像信号入力部10は
、上記固体カメラからなる画像検出部7に垂直同期信号
及び水平同期信号を出力する同期信号発生回路10aと
、画像検出部7からの画像信号を受け、例えば1フレー
ム当たりに横256、縦240の画素の明度を表わすデ
ジタル信号からなる画像データに変換するA/○変挽回
路10bと、A/D変換回路10bにて変換された2フ
レ一ム分の画像データ、つまり発光部5.6の発光によ
り得られる2種の異なる画像データを、記憶する画像デ
ータ記憶回路10cとから構成されている。
As shown in the figure, book g f! The device includes the two light emitting parts 5.
6 and the image detecting section 7, the light emitting sections 5 and 6 are individually arranged so as to recognize the position of the eyes of the driver 1 from the two types of image data as shown in FIGS. 2 and 3. At the same time as emitting light, processing the image signal obtained by the image & detection unit 7,
It includes an image processing section 8 that recognizes the position of the driver's 1 eyes. The image processing section 8 controls the image detection section 7, converts the image signal obtained by the image detection section 7 into a digital signal, and temporarily stores the converted digital signal as image data. an irradiation signal output section 12 that outputs an irradiation signal for causing the light emitting sections 5 and 6 to emit light alternately; A central processing unit (C
PU) 14, a read-only memory (ROM) 16 in which control programs and data used in executing recognition processing are stored in advance, and data used in executing arithmetic processing, etc. a random access memory (RAM) 18 in which the data is temporarily read and written;
A path line 20 that connects each of the above parts and serves as a path for image signals and control signals, and a power supply circuit 22 that supplies power to each of the above parts.
It is composed of. Further, the image signal input section 10 receives an image signal from the image detection section 7 and a synchronization signal generation circuit 10a that outputs a vertical synchronization signal and a horizontal synchronization signal to the image detection section 7 consisting of the solid-state camera, and receives an image signal from the image detection section 7, for example, for one frame. Image data for two frames converted by the A/○ conversion circuit 10b and the A/D conversion circuit 10b, which converts into image data consisting of digital signals representing the brightness of 256 pixels horizontally and 240 vertically. , that is, an image data storage circuit 10c that stores two different types of image data obtained by light emission from the light emitting section 5.6.

次に上記画像処理部8にて実行される目の位置認識処理
の動作について、第8図に示すフローチャートに沿って
詳しく説明する。尚この処理は一定周期の信号や、スイ
ッチからの信号等によって運転者1の目の位置認識の要
求が入力された場合に実行されるものである。
Next, the operation of the eye position recognition process executed by the image processing section 8 will be described in detail with reference to the flowchart shown in FIG. Note that this process is executed when a request for recognition of the position of the driver's 1 eyes is input by a signal of a fixed period, a signal from a switch, or the like.

図に示す如く処理が開始されるとまずステップ101が
実行され、発光部5及び6を個々に発光することによっ
て画像検出部7にて夫々捉えられる2種の画像、つまり
第9図及び第10図に示す如き照射方向の異なる2種の
画像を、上記画像信号入力部1oにおいてデジタル信号
からなる2種の画像データとして記憶する、画像データ
読み込み処理を実行する。
As shown in the figure, when the process is started, step 101 is first executed, and by emitting light from the light emitting units 5 and 6 individually, two types of images are captured by the image detecting unit 7, namely, FIGS. 9 and 10. An image data reading process is executed in which two types of images with different irradiation directions as shown in the figure are stored as two types of image data consisting of digital signals in the image signal input section 1o.

ここで画像信号入力部10は同期信号発生回路10a 
1A/D変挽回路10b及び画像データ記憶回路10c
を備えており、同期信号発生回路1Qaより出力される
垂直同期信号及び水平同期信号に従い画像検出部7を制
御し、画像検出部7から出力される画像信号を順次取り
込み、A/D変挽回路10bを介してデジタル信号に変
換された画像信号を画像データとして画像データ記憶回
路10Cに記憶することができるので、本画像データ読
み込み処理としては、画像信号入力部を作動させ、同期
信号発生回路10aから出力される垂直同期信号と同期
して発光部5及び6を個々に発光することによって実行
することができる。つまり、第11図に示す如く、まず
発光部5の発光が垂直帰線時期t1と一致するように垂
直同期信号の立ち上がり時期toから遅延時間ΔT!!
過後照過信照射信号出力することによって、画像信号入
力部10において、時間ΔT1の間画像検出部7により
得られる第9図に示す姐ぎ画像を表わケ画像信号がデジ
タル信号からなる画像データG1として読み込まれ、次
に発光部6の発光が次の垂直帰線時期t2と一致するよ
うに照射信号S2を出力することによって、画像信号入
力部において、時間ΔT2の間第10図に示す如き画像
が画像データG2として読み込まれることとなる。また
この画像信号入力部にてA/D変換され記憶される画像
データG+’(又はG2)は、前述したように画像検出
部7にて得られた画像を横256、縦240に分割する
画素の明度を表わすものであり、その構成は第12図に
示す如く表わすことができる。
Here, the image signal input section 10 is a synchronization signal generation circuit 10a.
1A/D conversion circuit 10b and image data storage circuit 10c
It controls the image detection section 7 according to the vertical synchronization signal and horizontal synchronization signal output from the synchronization signal generation circuit 1Qa, sequentially captures the image signals output from the image detection section 7, and converts the A/D conversion circuit. Since the image signal converted into a digital signal via 10b can be stored as image data in the image data storage circuit 10C, the main image data reading process involves activating the image signal input section and transmitting the synchronizing signal generating circuit 10a. This can be carried out by causing the light emitting sections 5 and 6 to individually emit light in synchronization with the vertical synchronization signal output from the vertical synchronization signal. That is, as shown in FIG. 11, first, the delay time ΔT! from the rising timing to of the vertical synchronizing signal is such that the light emission of the light emitting unit 5 coincides with the vertical retrace timing t1! !
By outputting the after-light irradiation signal, the image signal input section 10 displays the second image shown in FIG. 9 obtained by the image detection section 7 during the time ΔT1. Then, by outputting the irradiation signal S2 so that the light emission of the light emitting unit 6 coincides with the next vertical retrace timing t2, the image signal input unit generates an image as shown in FIG. 10 during the time ΔT2. will be read as image data G2. In addition, the image data G+' (or G2) that is A/D converted and stored in this image signal input section is a pixel that divides the image obtained by the image detection section 7 into 256 horizontally and 240 vertically. The structure can be expressed as shown in FIG. 12.

このようにステップ101にて発光部5及び6が発光さ
れ、画像信号入力部において2種の画像データG1 、
G2が読み込まれると°、続くステンブ102が実行さ
れ、上記読み込まれた2種の画像データのうち、運転者
1の鼻の部分が明瞭に表われている第9図に示した画像
データG1における予め設定された所定のエリア、つま
り第9図に示す30の領域を鼻の存在域として読み込み
、この領域内の最も左側に存在する一定レベル以上の明
度を有する画素を検索(以下、輝点検索という。
In this way, the light emitting units 5 and 6 emit light in step 101, and the two types of image data G1,
When G2 is read, the following step 102 is executed, and among the two types of image data read above, image data G1 shown in FIG. 9 in which the nose of the driver 1 is clearly displayed is A predetermined area, that is, 30 areas shown in Fig. 9, is read as the area where the nose exists, and a pixel that exists on the leftmost side of this area and has a brightness above a certain level is searched (hereinafter referred to as bright spot search). That's what it means.

)し、その位置を記憶する。この処理は次ステツプ10
3にて鼻の位置を検出する際に、鼻を捜す範囲を限定す
るための処理であって、求められた画素の位置が鼻を捜
すための基点とされる。尚、本輝点検索処理としては:
第9図の鼻存在職30における左上端の画素を出発点と
して、上下方向に順次検索してゆき、最初の一定レベル
以上の明度を有する画素の位置を記憶することによって
実行できる。
) and remember its position. This process is carried out in the next step 10.
When detecting the position of the nose in step 3, this is a process for limiting the range in which the nose is searched, and the determined pixel position is used as the base point for searching the nose. The bright spot search process is as follows:
This can be carried out by sequentially searching in the vertical direction starting from the upper left pixel of the nose position 30 in FIG. 9, and storing the position of the first pixel having brightness above a certain level.

このように輝点検索が実行され、画像データG1におけ
る鼻存在職の最も左側に存在する一定レベル以上の明度
を有する画素の位置が求められると、上述したように続
くステップ103にて、この位置を基点としてのを捜し
、外の位置を決定する処理がなされるのであるが、この
処理は、輝点検索によって求められた画素の近傍で、予
め設定されている第13図に示す如き鼻の標準パターン
と画像データG1との相関の度合いを調べ、相関の最大
値となる画像の位置を以て鼻が存在する位置であるとみ
なし、鼻の位置を決定するものである。
When the bright spot search is executed in this way and the position of the pixel that exists on the leftmost side of the nose position in the image data G1 and has a brightness of a certain level or higher is determined, in the subsequent step 103 as described above, this position is determined. Processing is performed to search for the pixel using the pixel as a base point and determine the outer position. The degree of correlation between the standard pattern and the image data G1 is checked, and the position of the image where the correlation is maximum is regarded as the position where the nose exists, and the position of the nose is determined.

つまり、上記ステップ102にて求められた画素の位置
Gt(XSV)を中心に、第14図に示す如く上下、左
右に夫々5画素分、計121個の画素を、夫々第13図
に示した鼻の標準パターンにおける中心位置+11(0
,0)として画像データG1と標準パターンとの相関値
を計算し、その値が最も大きくなった画素位置を得失(
いわゆる鼻の頭)の位WG (hx、 hy)として認
識するのである。ここで、第10図の鼻の標準パターン
における中心位置m(0,0)は得失に相当する部分と
して予め設定されており、また相r!jJl111とし
ては次式 %式%) より求めることができる。そして上記i及びjの値とし
ては、鼻の標準パターンが中心m(0,0)に対して上
に16、下に7、左に1、右に6の拡がりを持つデータ
として構成されていることがら、iに(−1)から(+
6)、jに(−16>から(+7)の間の整数値を用い
ればよい。
In other words, centering on the pixel position Gt (XSV) obtained in step 102 above, as shown in FIG. 14, there are 5 pixels each on the top, bottom, left and right, for a total of 121 pixels, as shown in FIG. 13. Center position in standard nose pattern +11 (0
, 0), the correlation value between the image data G1 and the standard pattern is calculated, and the pixel position where the value is the largest is obtained or lost (
The so-called tip of the nose is recognized as WG (hx, hy). Here, the center position m(0,0) in the standard nose pattern shown in FIG. 10 is preset as a portion corresponding to advantages and disadvantages, and the phase r! jJl111 can be obtained from the following formula (% formula %). As for the values of i and j above, the standard pattern of the nose is configured as data with a spread of 16 above, 7 below, 1 on the left, and 6 on the right with respect to the center m (0, 0). For i, from (-1) to (+
6), an integer value between (-16> and (+7)) may be used for j.

また相関値が、鼻の標準パターンにおける中心位置R1
(0,0)に対して、第14図に示す如き画像データG
1上の画素G1 (X、V)を中心とする上下、左右に
夫々5個、計121個の画素を当てはめ、計算されるこ
とから、上式におけるX1Yの値としては、夫々、Xが
X±5、Yがy±5の間の整数値となり、結局X及びY
の組み合わせで最大121種類の相関値が算出され、そ
の最大値となる画像データG1上の画素G+(X、、Y
)が鼻の位flG+(hx、hy)として検出されるの
である。
Also, the correlation value is the center position R1 in the standard pattern of the nose.
(0,0), image data G as shown in FIG.
Since the calculation is performed by applying a total of 121 pixels, 5 each on the top, bottom, left and right of pixel G1 (X, V) above 1, the value of X1Y in the above equation is ±5, Y becomes an integer value between y±5, and eventually X and Y
A maximum of 121 types of correlation values are calculated by the combination of , and the pixel G+(X,,Y
) is detected as the nasal position flG+(hx, hy).

このようにして画像データG1がら鼻の位置G1(hx
lhy)が求められると、続くステップ104に移行し
て、今度はこの鼻の位置G+  (hx、 hy)を画
像データG2上の画素の位置G 2 (hx、 hy)
に置き替え、目の部分が明瞭に現れている第10図に示
した画像データG2を用いて目の位置を検出する。ここ
で目の位置を求めるに当っては、まず鼻の位置G 2 
(hx、 hy)より右に15画素上に21画素移行し
た画素の位@Gz  (hx+ 15、hy−21)を
求め、この位置の近傍で予め設定されている第15図に
示す如き目の標準パターンと画像データとの相関の度合
を調べ、目の位置G(IIIX、ay>を決定する。尚
この決定方法としては、上記ステップ103の鼻の位置
決定と同様に行なえばよいので、説明は省略する。
In this way, the nose position G1 (hx
Once ``lhy'' is obtained, the process moves to the following step 104, and this time, this nose position G+ (hx, hy) is converted to the pixel position G 2 (hx, hy) on the image data G2.
The position of the eye is detected using the image data G2 shown in FIG. 10, in which the eye clearly appears. To find the position of the eyes, first the position of the nose G2
Find the pixel position @Gz (hx + 15, hy-21) that is 21 pixels up 15 pixels to the right from (hx, hy), and select the eye as shown in Figure 15 that has been set in advance near this position. The degree of correlation between the standard pattern and the image data is examined to determine the eye position G(IIIX, ay>.This determination method can be performed in the same manner as the nose position determination in step 103 above, so the explanation will be given below.) is omitted.

以上ステップ102ないしステップ104の処理にて画
素アークG2上の目の位置G 2 (IIIX、 ID
V)が求められると、今度はステップ105に移行して
、車室内における運転者1の目の3次元位置が求められ
る。
In the above processing of steps 102 to 104, the eye position G 2 (IIIX, ID
Once V) is determined, the process moves to step 105, where the three-dimensional position of the driver's 1 eyes within the vehicle interior is determined.

ここで本実施例においては、画像検出部6が固定されて
いることから上記ステップ104にて求められた目の位
置G 2 (mX、 mV)を用い、運転者1の左右方
向の移動はないものとして目の3次元位置が求められる
こととなる。つまり第16図に示す運転者1の左右(Z
)方向への移動はないものと仮定し、標準位置P@基準
とする運転者1の目(左目)の3次元位11Mを座標(
X、Y、0)として求めることによつ丁目の位置が認識
できることとなるのであるが、この処理としては、上記
画像検出部6が固定されていることから、画像データG
2上の標準点Pの位置G 2 (9X、 I)Y)を予
め記憶しておき、この基準位置Gz (1)X、 I)
V)に対する目の位f!t G 2 (l1xs mV
)のずれを算出することによって、容易に実行すること
ができる。
In this embodiment, since the image detection unit 6 is fixed, the eye position G 2 (mX, mV) obtained in step 104 is used, and the driver 1 does not move in the left-right direction. As a result, the three-dimensional position of the eyes is required. In other words, the left and right (Z
) direction, and set the standard position P @ standard position P @ standard three-dimensional position 11M of driver 1's eye (left eye) as the coordinate (
The location of the block can be recognized by determining the image data G as
The position G2 (9X, I)Y) of the standard point P on 2 is memorized in advance, and this reference position Gz (1)X, I)
The position f for V)! t G 2 (l1xs mV
) can be easily carried out by calculating the deviation.

以上説明した如く、本実施例の目の位置認識装置におい
ては、運転者1を異なる方向から照射する2個の発光部
5及び6と、その照射による運転者1からの反射光を画
像として検出する画像検出部7とを、インストルメント
パネル3の運転席2に対する斜め前方部分に設けること
によって、運転者顔面部の鼻の部分及び目の部分が夫々
明瞭に捉えられた2種の画像データG1及びG2が得ら
れるよう構成し、まず画像データG1から運転者1の0
尖位置を第1の特異点位置として検出し、この第1の特
異点位置を1つのパラメータとして画像データG2から
第2の特異点位置である目の位置を検出した後、運転者
1の目の3次元位置を認識するようにされている。従っ
て画像データ上の2箇所の特異点位置である鼻の位置や
目の位置を誤検出することなく精度よく検出することが
でき、より正確に目の3次元位置を認識できるようにな
る。よって本実施例の目の位置認識装置を用いて、バッ
クミラー、空調空気吹出口、ステアリング等の角度を自
動調整したり、居眠り運転を検知して運転者に警報を与
えるといった制御を行なう場合には、それらの制御をよ
り緻密に実行することができ、車両の操作性、居住性、
安全性をより向上させることができるようになる。
As explained above, in the eye position recognition device of this embodiment, the two light emitting units 5 and 6 illuminate the driver 1 from different directions, and the reflected light from the driver 1 due to the irradiation is detected as an image. By providing the image detection unit 7 on the diagonally front part of the instrument panel 3 with respect to the driver's seat 2, two types of image data G1 are obtained in which the nose and eyes of the driver's face are clearly captured. and G2, and first, from the image data G1, 0 of the driver 1 is obtained.
After detecting the cusp position as the first singular point position and detecting the eye position, which is the second singular point position, from the image data G2 using this first singular point position as one parameter, the eye position of the driver 1 is detected. It is designed to recognize the three-dimensional position of. Therefore, the position of the nose and the position of the eyes, which are two singular points on the image data, can be detected with high precision without erroneously detecting them, and the three-dimensional position of the eyes can be recognized more accurately. Therefore, the eye position recognition device of this embodiment can be used to automatically adjust the angles of rearview mirrors, air-conditioned air outlets, steering wheels, etc., or to detect drowsy driving and issue a warning to the driver. These controls can be executed more precisely, improving vehicle operability, comfort,
Safety can be further improved.

ここで本実施例において前述の照射制御手段■及び画像
処理手段Vに相当するものとしては、前記第8図に示し
た制御を実行する画像処理部8を挙げることができ、特
にステップ101の処理が照射制御手段■に、ステップ
102ないしステップ105の処理が画像処理手段Vに
相当する。
Here, in this embodiment, the image processing section 8 that executes the control shown in FIG. corresponds to the irradiation control means (2), and the processing of steps 102 to 105 corresponds to the image processing means V.

尚本実施例においては画像検出部7にMOS形の固体@
象素子からなる、いわゆる固体カメラを1個用いて目の
3次元位置を認識するものとしたが、この場合運転者の
左右方向への移動はないものとして目の位置が認識され
るので、更に運転者の左右方向への移動も考慮してより
精度高く目の位置を認識したい場合には、画像検出部を
2個設け、各画像検出部毎に上記の如き処理を実行し、
各画像データ上の目の位置からいわゆる三角測量の原理
を用いて運転者の目の3次元位置を認識するようにすれ
ばよい。また画像検出部7としてはMOS形の固体11
[!素子からなる固体カメラ以外にも、例えばCOD等
他の固体撮像素子からなる固体カメラを用いてもよく、
1ffue管を用いることもできる。
In this embodiment, the image detection unit 7 is a MOS type solid @
The three-dimensional position of the eyes was recognized using a single so-called solid-state camera consisting of a quadrilateral element. If it is desired to recognize the position of the eyes with higher accuracy by taking into consideration the driver's movement in the left and right directions, two image detection units are provided, and the above processing is executed for each image detection unit.
The three-dimensional position of the driver's eyes may be recognized from the position of the eyes on each image data using the principle of so-called triangulation. Furthermore, as the image detection section 7, a MOS type solid state 11 is used.
[! In addition to a solid-state camera made of a solid-state image sensor, a solid-state camera made of another solid-state image sensor such as a COD may also be used.
A 1ffue tube can also be used.

更に本実施例においては、前記第2の特異点位置として
画像データG2上での運転者の目の位置を検出し、目の
3次元位置を算出するようにしているが、例えば運転者
が目視やサングラス等をかけている場合には目の位置が
良好に検出できないといったことが考えられるので、こ
の場合には第2の特異点位置として例えば顎の位置を検
出し、この顎の位置と第1の特異点位置である寿の位置
とをパラメータとして、人間の平均的データから運転者
の目の位置を算出するよう構成すれば、より良好に目の
位置を認識することができるようになる。
Furthermore, in this embodiment, the position of the driver's eyes on the image data G2 is detected as the second singular point position, and the three-dimensional position of the eyes is calculated. If you are wearing glasses or sunglasses, it is possible that the position of your eyes cannot be detected well, so in this case, for example, the position of your jaw is detected as the second singular point position, and If the position of the driver's eyes is calculated from average human data using the position of Kotobuki, which is the singularity position of No. 1, as a parameter, the position of the eyes of the driver can be recognized better. .

[発明の効果] 以上詳述した如く、本発明の目の位置認識装置において
は、発光手段を夫々異なる位置に配設された2個の発光
部により構成し、この発光部を明々に発光することによ
って得られる2種の画像データのうち、第1の特異点部
分が明瞭にmV&された画像データを第1の持具点位置
検出用画像データ、第2の特異点部分が明瞭にb1象さ
れた画像データを第2の特異点位置検出用画像データと
して、まず第1の特異点位置検出用画像データを用いて
第1の特異点位置を検出し、次にこの第1の特異点位置
を1つのパラメータとして第2の特異点位置検出用画像
データを用いて第2の特異点位置を検出した後、第2の
特異点位置から、または第1の特異点位置と第2の特異
点位置とから、車両運転者の目の3次元位置を算出する
ようにされている。従って画像データ上の2箇所の特異
点位置を誤検出することなく精度よく検出することがで
き、目の3次元位置を正確に求めることができるように
なる。よって本発明の目の位置riiVft置を用いて
バックミラーや空調空気吹出口、あるいはステアリング
等の角度を自動調整するとか、居眠り運転を検知して運
転者に警報を与えるといった制御を行なう場合には、そ
れらの制御をより緻密に実行することができ、車両の操
作性、居住性、安全性を更に向上することができるよう
になる。
[Effects of the Invention] As described in detail above, in the eye position recognition device of the present invention, the light emitting means is constituted by two light emitting sections disposed at different positions, and the light emitting sections are configured to clearly emit light. Of the two types of image data obtained by this, the image data in which the first singular point is clearly mV& is used as the image data for detecting the position of the first holding tool point, and the image data in which the second singular point is clearly shown in the b1 image. The first singular point position is detected using the first singular point position detection image data as the second singular point position detection image data, and then this first singular point position is detected. After detecting the second singular point position using the image data for detecting the second singular point position as one parameter, from the second singular point position or from the first singular point position and the second singular point The three-dimensional position of the vehicle driver's eyes is calculated from the position. Therefore, the positions of two singular points on the image data can be detected with high accuracy without erroneously detecting them, and the three-dimensional position of the eye can be accurately determined. Therefore, when using the eye position riiVft position of the present invention to perform controls such as automatically adjusting the angle of the rearview mirror, air conditioner air outlet, steering wheel, etc., or detecting drowsy driving and issuing a warning to the driver, , these controls can be executed more precisely, and the operability, comfort, and safety of the vehicle can be further improved.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の構成を表わすブロック図、第2図及び
第3図は運転者顔面部の画像を示し、従来の問題を説明
する説明図、第4図ないし第16図は本発明の一実施例
を示し、第4図は車両インストルメントパネル及びその
周辺を表わす斜視図、第5図は発光部5又は6の構成を
表わす断面図、第6図は画像検出部7の構成を表わす断
面図、第7図は本実施例の全体構成を表わすブロック図
、第8図は画像処理部8の動作を説明するフローチャー
ト、第9図は発光部5の照射により得られる画像データ
を斜線の密度で以て説明する画像データ図、第10図は
同じく発光部6の照射により得られる画像データ図、第
11図は画像データ読み込み処理による各部の動作を説
明するタイムチャート、第12図は画像データ記憶回路
10cに記憶される画像データを表わすデータ図、第1
3図は鼻の標準パターンを表わすデータ図、第14図は
鼻の位置検出処理及び目の位置検出処理における相関値
の算出範囲を表わす説明図、第15図は目の標準パター
ンを表わすデータ図、第16図は目の3次元位置算出方
法を説明する説明図である。 ■・・・発光手段 ■・・・画像検出手段 ■・・・画像処理手段 V、5.6・・・発光部 Vl・・・照射制御手段 7・・・画像検出部 8・・・画像処理部 10・・・画像信号入力部 14・・・CPU
FIG. 1 is a block diagram showing the configuration of the present invention, FIGS. 2 and 3 are explanatory diagrams showing images of the driver's face and explaining the conventional problems, and FIGS. 4 to 16 are diagrams showing the structure of the present invention. 4 is a perspective view showing the vehicle instrument panel and its surroundings, FIG. 5 is a sectional view showing the configuration of the light emitting section 5 or 6, and FIG. 6 is the structure of the image detection section 7. 7 is a block diagram showing the overall configuration of this embodiment, FIG. 8 is a flowchart explaining the operation of the image processing section 8, and FIG. An image data diagram explained in terms of density, FIG. 10 is an image data diagram similarly obtained by irradiation with the light emitting unit 6, FIG. 11 is a time chart explaining the operation of each part by image data reading processing, and FIG. 12 is an image data diagram. Data diagram representing image data stored in the data storage circuit 10c, 1st
Figure 3 is a data diagram showing the standard pattern of the nose, Figure 14 is an explanatory diagram showing the calculation range of correlation values in nose position detection processing and eye position detection processing, and Figure 15 is a data diagram showing the standard pattern of eyes. , FIG. 16 is an explanatory diagram illustrating a method for calculating the three-dimensional position of the eyes. ■... Light emitting means ■... Image detecting means ■... Image processing means V, 5.6... Light emitting section Vl... Irradiation control means 7... Image detecting section 8... Image processing Section 10... Image signal input section 14... CPU

Claims (1)

【特許請求の範囲】 1 車両運転者を照射する発光手段と、 該発光手段の照射による上記運転者からの反射光を受け
、少なくとも上記運転者の顔面部を画像データとして検
出する画像検出手段と、 該検出された画像データを演算処理し、上記運転者の目
の3次元位置を求める画像処理手段と、を備えた車両運
転者の目の位置認識装置であつて、 上記画像検出手段にて、当該車両運転者顔面部の所定の
2箇所の特異点部分がそれぞれ明瞭に撮像された2種の
異なる画像データが得られるよう、上記発光手段を、各
々異なる位置に配設された2個の発光部より構成すると
共に、 該2個の発光部を個々に発光させるべく、上記発光手段
に照射制御信号を出力する照射制御手段を設け、 更に上記画像処理手段を、上記画像検出手段にて検出さ
れた2種の異なる画像データのうち、一方を第1の特異
点位置検出用画像データ、他方を第2の特異点位置検出
用画像データとし、該第1の特異点位置検出用画像デー
タから当該画像データにおける第1の特異点位置を検出
すると共に、該検出された第1の特異点位置を1つのパ
ラメータとして上記第2の特異点位置検出用画像データ
から当該画像データにおける第2の特異点位置を検出し
、該検出された第2の特異点位置、又は上記第1の特異
点位置と第2の特異点位置とから当該車両における上記
運転者の目の3次元位置を求めるよう構成したこと、 を特徴とする車両運転者の目の位置認識装置。 2 第1の特異点位置が運転者の鼻の位置である特許請
求の範囲1項記載の車両運転者の目の位置認識装置。 3 第2の特異点位置が運転者の目の位置であり、上記
画像処理手段が第2の特異点位置から車両運転者の目の
3次元位置を求めるよう構成された特許請求の範囲1項
または第2項記載の車両運転者の目の位置認識装置。 4 画像検出手段が運転席の斜め前方に設けられ、2個
の発光部が夫々該画像検出手段の左・右に設けられた特
許請求の範囲第1項ないし第3項いずれか記載の車両運
転者の目の位置認識装置。 5 画像検出手段が2次元固体撮像素子を備えた特許請
求の範囲第1項ないし第4項いずれか記載の車両運転者
の目の位置認識装置。 6 発光手段が赤外光を発光するよう構成された特許請
求の範囲第1項ないし第5項いずれか記載の車両運転者
の目の位置認識装置。
[Scope of Claims] 1. A light emitting means for illuminating a vehicle driver; and an image detecting means for receiving reflected light from the driver due to the irradiation of the light emitting means and detecting at least the face of the driver as image data. , an image processing means for calculating the three-dimensional position of the eyes of the driver by calculating the detected image data, the apparatus comprising: an image processing means for calculating the three-dimensional position of the eyes of the driver; In order to obtain two different types of image data in which two predetermined singular points on the face of the vehicle driver are clearly imaged, the light emitting means is arranged at two different positions. comprising a light emitting section, and further comprising an irradiation control means for outputting an irradiation control signal to the light emitting means in order to cause the two light emitting sections to emit light individually, and further detecting the image processing means with the image detection means. Of the two different types of image data, one is the first image data for singular point position detection and the other is the second image data for singular point position detection, and from the first image data for singular point position detection The first singular point position in the image data is detected, and the second singular point position in the image data is detected from the second singular point position detection image data using the detected first singular point position as one parameter. configured to detect a point position and obtain a three-dimensional position of the driver's eyes in the vehicle from the detected second singular point position or the first singular point position and the second singular point position. A vehicle driver's eye position recognition device characterized by: 2. The vehicle driver's eye position recognition device according to claim 1, wherein the first singular point position is the position of the driver's nose. 3. Claim 1, wherein the second singular point position is the position of the driver's eyes, and the image processing means is configured to determine the three-dimensional position of the vehicle driver's eyes from the second singular point position. Or the vehicle driver's eye position recognition device according to item 2. 4. Vehicle operation according to any one of claims 1 to 3, wherein the image detection means is provided diagonally in front of the driver's seat, and the two light emitting parts are provided on the left and right sides of the image detection means, respectively. Human eye position recognition device. 5. The vehicle driver's eye position recognition device according to any one of claims 1 to 4, wherein the image detection means includes a two-dimensional solid-state image sensor. 6. The vehicle driver's eye position recognition device according to any one of claims 1 to 5, wherein the light emitting means is configured to emit infrared light.
JP20110284A 1984-09-25 1984-09-25 Device for recognizing position of vehicle driver's eyes Pending JPS6177705A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20110284A JPS6177705A (en) 1984-09-25 1984-09-25 Device for recognizing position of vehicle driver's eyes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20110284A JPS6177705A (en) 1984-09-25 1984-09-25 Device for recognizing position of vehicle driver's eyes

Publications (1)

Publication Number Publication Date
JPS6177705A true JPS6177705A (en) 1986-04-21

Family

ID=16435429

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20110284A Pending JPS6177705A (en) 1984-09-25 1984-09-25 Device for recognizing position of vehicle driver's eyes

Country Status (1)

Country Link
JP (1) JPS6177705A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5218387A (en) * 1990-05-21 1993-06-08 Nissan Motor Co., Ltd. Eye position detecting apparatus
US5293427A (en) * 1990-12-14 1994-03-08 Nissan Motor Company, Ltd. Eye position detecting system and method therefor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5218387A (en) * 1990-05-21 1993-06-08 Nissan Motor Co., Ltd. Eye position detecting apparatus
US5293427A (en) * 1990-12-14 1994-03-08 Nissan Motor Company, Ltd. Eye position detecting system and method therefor

Similar Documents

Publication Publication Date Title
US5621457A (en) Sighting direction detecting device for vehicle
JP2988178B2 (en) Gaze direction measuring device
US20020130961A1 (en) Display device of focal angle and focal distance in iris recognition system
WO2010035472A1 (en) Line-of-sight direction determination device and line-of-sight direction determination method
US20160063334A1 (en) In-vehicle imaging device
CN107960989B (en) Pulse wave measurement device and pulse wave measurement method
JP2002509321A (en) Method and apparatus for detecting driver drowsiness and avoiding the drowsiness
JPH06247184A (en) Display device on vehicle
JPH0976815A (en) Auxiliary device for driving operation
JP2008135856A (en) Body recognizing device
CN109415020B (en) Luminance control device, luminance control system and luminance control method
US20220066551A1 (en) Apparatus and method for obtaining facial information
WO2019176491A1 (en) Gaze detector, method for controlling gaze detector, method for detecting corneal reflection image position, computer program, and storage medium
CN105323539A (en) Automotive safety system and operating method thereof
JP2011042179A (en) Projector control device
JPS6166906A (en) Recognizing device for vehicle driver position
JP2008183933A (en) Noctovision equipment
JP2022546746A (en) Determining viewing direction
JPS6177705A (en) Device for recognizing position of vehicle driver's eyes
JP2007089094A (en) Pedestrian detection device
JPS6166905A (en) Position of vehicle driver recognizing device
JP3296119B2 (en) Gaze direction measuring device for vehicles
JPS6184509A (en) Identifying device for vehicle driver
JP3201037B2 (en) Driver photography device
JP7063045B2 (en) Line-of-sight detection device, line-of-sight detection method and line-of-sight detection program