JPS6141903A - Recognizing device for position of eye of vehicle driver - Google Patents

Recognizing device for position of eye of vehicle driver

Info

Publication number
JPS6141903A
JPS6141903A JP16409784A JP16409784A JPS6141903A JP S6141903 A JPS6141903 A JP S6141903A JP 16409784 A JP16409784 A JP 16409784A JP 16409784 A JP16409784 A JP 16409784A JP S6141903 A JPS6141903 A JP S6141903A
Authority
JP
Japan
Prior art keywords
driver
image
light emitting
image data
eyes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP16409784A
Other languages
Japanese (ja)
Inventor
Yasuaki Katou
康聡 加藤
Haruhiko Ogiso
治比古 小木曽
Hiroshi Ishikawa
浩 石川
Akio Yasuda
彰男 安田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
NipponDenso Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NipponDenso Co Ltd filed Critical NipponDenso Co Ltd
Priority to JP16409784A priority Critical patent/JPS6141903A/en
Publication of JPS6141903A publication Critical patent/JPS6141903A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates

Abstract

PURPOSE:To recognize the accurate positions of driver's eyes by estimating parameters, i.e. two singular point positions of the face part of a driver in image data detected by an image detecting means. CONSTITUTION:A light emitting part 5 which irradiates the upper body of the driver slantingly from left and an image detection part 6 which receives reflected light traveling from the driver through the irradiation of the light emitting part 5 and picks up an image of at least the face part of the driver from leftward as two-dimensional image data are provided in front of a navigator's seat. Then, an image signal processing part 8 controls the image detection part 6 and detect two singular point positions on the face part of the driver from image data stored after A/D conversion through a CPU14, ROM16, and RAM18 and recognizes the three-dimensional position of the driver from those two singular point positions in a series of processes.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は車両運転者の目の位置を認識づる車両運転者の
目の位rfl認識装置に関し、特に運転者を画像として
検知し、顔面部の2種の特異点位置がら運転者の目の3
次元位置を認識する車両運転者の目の位置量&It装置
に関するものである。
Detailed Description of the Invention [Industrial Application Field] The present invention relates to a vehicle driver's eye position RFL recognition device that recognizes the position of the vehicle driver's eyes. 3 of the driver's eyes based on the two types of singularity positions.
This invention relates to a vehicle driver's eye position amount &It device that recognizes dimensional position.

[従来技術] 近年電子は器の急速な発達に伴い車両の操作性、居住性
、事故回避性等の向上を目的とした新しいMA四の研究
が進められており、その1つとして運転者の乗車位置、
特に目の位置を認識し、バックミラー、空調空気の吹出
口、あるいはステアリング等の角度を自l]調整すると
か、居眠り運転を検知して運転者に1!報を与えるとい
ったことが考えられている。
[Prior art] With the rapid development of electronic equipment in recent years, research into new MA4 is underway with the aim of improving vehicle operability, comfort, accident avoidance, etc. riding position,
In particular, it recognizes the position of the eyes and adjusts the angle of the rearview mirror, air-conditioned air outlet, or steering wheel, etc. It also detects drowsy driving and alerts the driver. The idea is to give information.

ところで上記のようなa、II Illに用いられる運
転台の目の位置を認識するための目の位置認識装置とし
て、従来では、例えば運転席正面2箇所に運転者の上体
を画像データとしてとらえる画像検出部を設け、その画
像データにおける顔面部分の、水平方向に21所ある黒
い部分を目の位置として推定し、三角測量の原理を用い
て目の3次元位置を認識するとか、あるいは運転席の斜
め前方1rB所に画像検出部を設け、画像検出部により
得られた画像データにおける顔面部分の突起、即ち運転
者の鼻の部分を特異点位置として検出し、この特異点位
置に基づき運転者の左右方向への移動はないものとして
目の3次元位置を認識するといったものが考えられてい
るが、上記前者の認識装置の場合には、運転者が眼鏡や
サングラス等を使用している時に、目の位置を良好に認
識することができないといった問題が生じ、一方上記後
者の認識装置の場合には、単に1つの特異点位置から目
の位置を推定することからその誤差が大きく、正確な目
の位置を認識することは川かしいといった問題がある。
By the way, as an eye position recognition device for recognizing the position of the eyes in the driver's cab used in the above-mentioned A, II Ill, conventionally, the driver's upper body is captured as image data at two locations in front of the driver's seat, for example. An image detection unit is installed, and the 21 black areas in the horizontal direction of the face in the image data are estimated as the positions of the eyes, and the three-dimensional position of the eyes is recognized using the principle of triangulation. An image detection unit is installed at a location 1rB diagonally forward of One idea is to recognize the three-dimensional position of the eyes assuming that there is no movement in the left-right direction. However, in the case of the latter recognition device, the error is large because the eye position is simply estimated from one singular point position, and it is difficult to accurately recognize the eye position. There is a problem in that it is difficult to recognize the position of the eyes.

[発明の目的] そこで本発明は上記問題を解決するためになされたもの
で、上記画像検出部により得られた画像データにおける
運転者顔面部の2種の特異点位置から目の位置を推定す
ることにより、正確な目の位置を認識し得るようにする
ことを目的としている。
[Object of the Invention] The present invention has been made to solve the above problem, and the position of the eyes is estimated from the positions of two types of singular points on the driver's face in the image data obtained by the image detection unit. The purpose of this is to enable accurate recognition of the position of the eyes.

[発明の構成] かかる目的を達するための本発明の構成は、第1図に示
す如く、 車両運転者■を照射する発光手段■と、該発光手段の照
射による上記運転前型からの反射光を受け、少なくとも
上記運転前型の顔面部を画像データとして検知する画像
検出手段■と、該検知された画像データにおける上記運
転者顔面部の所定の21a所の特異点位置を検出する特
異点位置検出手段IVと、 該検出された2Ia所の特異点位置をパラメータとして
、当該車両における上3il!運転者工の目の3次元位
置を算出する目の位置演陣手段Vと、を備えたことを特
徴とする車両運転者の目の位置認識装置を要旨としてい
る。
[Structure of the Invention] As shown in FIG. 1, the structure of the present invention to achieve the above object includes a light emitting means (2) for illuminating the vehicle driver (2), and a light reflected from the pre-driving type by the illumination of the light emitting means. image detecting means (2) for detecting at least the pre-driving type facial region as image data; and a singular point position for detecting a singular point position at a predetermined position 21a of the driver's facial region in the detected image data. Using the detection means IV and the detected singular point position of 2Ia as a parameter, the upper 3il! of the vehicle is detected. The gist of the present invention is a vehicle driver's eye position recognition device characterized by comprising: an eye position mapping means V for calculating the three-dimensional position of the driver's eyes.

[実施例] 以下本発明の一実施例を図面と共に説明する。[Example] An embodiment of the present invention will be described below with reference to the drawings.

第2図は本実施例の目の位置認識装置が搭載された!l
i両のインストルメントパネル部分及びその周辺を表わ
す斜視図であって、1は運転者、2は運転席、3はイン
ストルメントパネルを表わしている。そしてインストル
メントパネル3の運転席2に対する左斜め前方、即ち、
助手席側前方には、運転者1の上体を左方向から照射す
る発光部5と、発光部5の照射による運転者1からの反
射光を受け、運転者1の上体を左方向から2次元画像と
して捉える画像検出部6が設けられている。  〜ここ
で発光部5は前述の発光手段■に相当し、照射時に運転
者1に眩しさを感じさせることのないよう赤外光を発光
する赤外ストロボが用いられ、第3図に示す如く、赤外
発光体5aと、赤外発光体5aにて発光された赤外光を
広く運転者に照射する為のレンズ5bと、赤外光を透過
し、可視光を通さない赤外フィルタ5cと、これら赤外
発光体5a、レンズ5b及び赤外フィルタ5cを格納し
、インストルメントパネル3の所定の位置に取り付ける
ためのケース5dとからM4成されている。
Figure 2 shows the eye position recognition device of this embodiment installed! l
It is a perspective view showing the instrument panel part and its surroundings of the i-car, where 1 is the driver, 2 is the driver's seat, and 3 is the instrument panel. and the diagonally forward left side of the instrument panel 3 relative to the driver's seat 2, that is,
In front of the passenger seat side, there is a light emitting unit 5 that illuminates the driver's upper body from the left, and a light emitting unit 5 that receives reflected light from the driver 1 due to the illumination of the light emitting unit 5, and illuminates the driver's upper body from the left. An image detection unit 6 that captures a two-dimensional image is provided. ~Here, the light emitting unit 5 corresponds to the above-mentioned light emitting means (2), and an infrared strobe that emits infrared light is used so as not to dazzle the driver 1 when irradiating the light, as shown in Fig. 3. , an infrared light emitter 5a, a lens 5b for broadly irradiating the driver with infrared light emitted by the infrared light emitter 5a, and an infrared filter 5c that transmits infrared light but blocks visible light. and a case 5d for storing the infrared light emitter 5a, lens 5b, and infrared filter 5c and attaching it to a predetermined position on the instrument panel 3.

また画像検出部6は前述の画像検出手段■に相当し、発
光部5の照射による運転者1からの反則光を運転者1の
上体画像として捉えるためのものであって、この画像検
出部6には第4図に示す如く、運転者1からの反射光、
即ち赤外光を透過するための赤外フィルタ6aと、運転
者1の上体画像を後述の固体倣@素子6eの撮像面に結
像するための焦点距離が例えば12.511111のレ
ンズ6bと、光mを調整するための液晶絞り素子6cと
、液晶絞り素子6Cを透過する光量を検出するフtトド
ランジスタロdと、上記赤外フィルタ6a、レンズ6b
及び液晶絞り素子6Cを透過して結像された′Ffi像
面上の映像をスイッチング走査で電気信号として取り出
す、フォトセンサとスイッチング回路とからなるMOS
形の固体撮像素子6Cと、上記各部を格納し、インスト
ルメントパネル3に取り付けるためのケース6fとから
構成される固体カメラが用いられている。
Further, the image detection section 6 corresponds to the above-mentioned image detection means (2), and is for capturing the foul light from the driver 1 caused by the irradiation of the light emitting section 5 as an image of the driver's 1 body. 6, as shown in FIG. 4, reflected light from the driver 1;
That is, an infrared filter 6a for transmitting infrared light, and a lens 6b having a focal length of, for example, 12.511111 for focusing an image of the driver's 1's body on an imaging surface of a solid-state scanning @ element 6e, which will be described later. , a liquid crystal diaphragm element 6c for adjusting the light m, a foot drive transistor d for detecting the amount of light transmitted through the liquid crystal diaphragm element 6C, the infrared filter 6a, and the lens 6b.
and a MOS consisting of a photosensor and a switching circuit, which extracts the image on the 'Ffi image plane transmitted through the liquid crystal aperture element 6C and formed as an electric signal by switching scanning.
A solid-state camera is used, which is composed of a solid-state image sensor 6C, and a case 6f for storing the above-mentioned parts and attaching it to the instrument panel 3.

次に本実施例の目の位置認識装置の全体構成を第5図に
示すブロック図に基づき説明する。
Next, the overall configuration of the eye position recognition device of this embodiment will be explained based on the block diagram shown in FIG. 5.

図に示す如く、本認識装置は上記発光部5及び画像検出
部6の他に、画像検出部6にて得られた画像信号を処理
し、運転者1の目の位置を認識する画像信号処理部8を
備えている。そしてこの画像信号処理部8は、上記画像
検出部6を制御すると共に、画像検出部6にて得られた
画像信号をデジタル信号に変換し、その変換されたデジ
タル信号を画像データとして一旦記憶することのできる
画像データ入力部10と、上記発光部5を発光させるた
めの照射信号を出力する照射信号出力部12と、画像デ
ータ入力部10にてA/D変換され記憶された画(9デ
ータから運転者1の顔面部における2箇所の特異点位置
(本実施例では0と顎の位置)を検出し、この2つの特
異点位置から運転者1の目の位置を認識するといった一
連の目の位置認識処理を実行1゛るセントラルブロセツ
シングユニット(CPU)14と、CPtJ 14にて
目の位置認識処理を実行づるためのvj御プログラムや
データが予め記憶されたり一ドオンリメモリ(ROM)
16と、演口処理実行のために用いられるデータ等が一
時的に読み書きされるランダムアクセスメモリ(RAM
>18と、上記各部を結び画像信号や制御信号の通路と
されるパスライン20と、上記各部に電源を供給する電
源回路22とから構成されている。
As shown in the figure, in addition to the light emitting unit 5 and image detecting unit 6, this recognition device processes image signals obtained by the image detecting unit 6, and performs image signal processing to recognize the position of the eyes of the driver 1. It is equipped with part 8. The image signal processing section 8 controls the image detection section 6, converts the image signal obtained by the image detection section 6 into a digital signal, and temporarily stores the converted digital signal as image data. an irradiation signal output section 12 that outputs an irradiation signal for causing the light emitting section 5 to emit light; Detects two singular point positions (0 and chin position in this example) on the face of the driver 1 from A central processing unit (CPU) 14 that executes the eye position recognition process, and a one-drive only memory (ROM) in which control programs and data for executing the eye position recognition process in the CPtJ 14 are stored in advance.
16, and a random access memory (RAM) into which data used for performance processing is temporarily read and written.
18, a path line 20 that connects each of the above sections and serves as a path for image signals and control signals, and a power supply circuit 22 that supplies power to each of the above sections.

次に上記画像18号処理部8のCPU14にて演算処理
される目の位置認識処理について、第6図に示タフロー
チャートに沿って詳しく説明する。
Next, the eye position recognition processing performed by the CPU 14 of the image processing section 8 will be described in detail with reference to the flowchart shown in FIG.

処理が開始されるとまずステップ101にて発光部5を
発光させるべく照射信号出力部12から照射信号を出力
させる発光処理を実行する。
When the process is started, first in step 101, a light emission process is executed in which the irradiation signal output section 12 outputs an irradiation signal in order to cause the light emitting section 5 to emit light.

この処理は画像データ入力部の同期信号発生回路10a
から出力される垂直同期信号と同期して発光部5を発光
させ、画像データ入力部にて良好な画像データが得られ
るようにするためのものであって、第7図に示す如く、
発光部5の発光が垂直帰線時期【1と一致するよう垂直
同期信号の立ち上がり時期から所定の遅延時間ΔT経過
後照射信号を出力する。そしてこのように発光部5より
1物情号がデジタル信号に変換され、そのデジタル信号
が画像データとして、画像データ記憶回路1Qcに記憶
されることとなる。
This process is carried out by the synchronization signal generation circuit 10a of the image data input section.
This is to cause the light emitting unit 5 to emit light in synchronization with the vertical synchronization signal output from the vertical synchronization signal, so that good image data can be obtained at the image data input unit, as shown in FIG.
The irradiation signal is output after a predetermined delay time ΔT has elapsed from the rise time of the vertical synchronization signal so that the light emission of the light emitting unit 5 coincides with the vertical retrace time [1]. In this way, one physical information signal is converted into a digital signal by the light emitting unit 5, and the digital signal is stored as image data in the image data storage circuit 1Qc.

尚、この画像データ記憶回路10cにおいて番よ、上記
発光部5及び画像検出部Cが運転席2に対して左斜め前
方に設けられていることから、第8図に示す如き運転者
1を左斜め前方より捉えた画像が、第9図に示す如く、
横256、@t240に分割する画素の明度を表わす画
像データG(0、〜O)・・・G (239,255>
として記憶される。
In this image data storage circuit 10c, since the light emitting section 5 and the image detecting section C are provided diagonally forward to the left with respect to the driver's seat 2, the driver 1 is placed on the left as shown in FIG. The image taken diagonally from the front is shown in Figure 9.
Image data G (0, ~ O)...G (239, 255>
is stored as.

次にステップ102においては、上記画(ヤデータにお
ける予め設定された所定のエリア、つまり第8図に示す
30の領域を^の存在域として読み込み、この領域内の
最も左側に存在する一定レベル以上の明度を有する画素
を検索(以下、評点検索という。)し、その位置を記憶
する。この処理は次ステツプ103にて鼻の位置を検出
する際に、外を捜す範囲を限定するための処理であって
、求められた画素の位置が^を捜すための基点とされる
。尚、本輝点検索処理としては、第8図のの存在域30
における左上端の画素を出発点として、上下方向に順次
検索してゆき、最初の一定レベル以上の明度を右づる画
素の位置を記憶づればよい。
Next, in step 102, a predetermined area set in advance in the image data, that is, 30 areas shown in FIG. A pixel with brightness is searched (hereinafter referred to as score search) and its position is stored.This process is a process to limit the outside search range when detecting the position of the nose in the next step 103. The position of the determined pixel is used as the base point for searching for ^.In this bright spot search process, the existence area 30 of Fig. 8 is used.
Starting from the pixel at the upper left end of , the search is performed sequentially in the vertical direction, and the position of the first pixel whose brightness is higher than a certain level is stored.

このように輝点検索が実行され、^存在域のDも左側に
存在づ゛る一定レベル以上の明度を有づる画素の位置が
求められると、上述したように続くステップ103にて
、この位置を基点としてのを捜し、鼻の位置を決定する
処理がなされるのであるが、この処理は、輝点検索によ
って求められた画素の近傍で、予め設定されている第1
0図に示す姐き轟の標準パターンと画像データとの相関
の度合いを調べ、相関の最大値となる画像の位置を以て
鼻が存在する位置であるとみなし、鼻の位置を決定する
ものである。
When the bright spot search is executed in this way and the position of the pixel that exists on the left side of the existence area D and has a brightness above a certain level is determined, this position is determined in step 103, which follows as described above. The nose position is determined by searching for the base point, but this process involves searching for a preset first pixel in the vicinity of the bright spot search.
The degree of correlation between the image data and the standard pattern of the sister roar shown in Figure 0 is examined, and the position of the image where the correlation is maximum is considered to be the position where the nose exists, and the position of the nose is determined. .

つまり、上記ステップ102にて求められた画素の位1
iilG(x、y)を中心に、第11図に示す如く上下
、左右に夫々5画素分、計121個の画素を、夫々第1
0図に示した嬶の標準パターンにおける中心位置■ (
0,0)として画像データと標準パターンとの相関値を
計算し、その値が最も大きくなった画素位置を鼻尖(い
わゆる寿の頭)の位@G (hx、 hy)として認識
するのである。ここで、第10図ののの標準パターンに
おける中心位affm(0,0)は鼻尖に相当する部分
として予め設定されており、また相関値としては次式1
式%) より求めることができる。尚上記i及びjの憾としては
、鼻の標準パターンが中心鳳 (0,O)に対して上に
16、下に7、左に1、右に6の拡がりを持つデータと
して構成されていることから、iに(−1)から(+6
)、jに(−16)から(+7)の間の整数値を用いれ
ばよい。
In other words, the digit 1 of the pixel found in step 102 above
Centering on iiiG(x, y), as shown in FIG.
Center position in the standard pattern of the fold shown in Figure 0 (
0, 0), and calculates the correlation value between the image data and the standard pattern, and recognizes the pixel position where the value is the largest as the position of the tip of the nose (the so-called head of longevity) @G (hx, hy). Here, the center position affm (0, 0) in the standard pattern of Fig. 10 is set in advance as a part corresponding to the tip of the nose, and the correlation value is given by the following formula 1
It can be obtained from the formula %). The problem with i and j above is that the standard pattern of the nose is configured as data with a spread of 16 on the top, 7 on the bottom, 1 on the left, and 6 on the right with respect to the center (0, O). Therefore, i has (-1) to (+6
), an integer value between (-16) and (+7) may be used for j.

また相関値が、鼻の標準パターンにおける中心位ff1
ll(0,0)に対して、第11図に示す如き画像デー
タ上の画素G (x 、 y )を中心とする上下、左
右に夫々5個、計121個の画素を当てはめ、計算され
ることから、上式におけるX、Yの値としては、夫々、
XがX±5、Yがy±5の間の整W1.w1となり、結
局X及びYの組み合わせで最大121通りの相関値が算
出され、その最大値となる画像データ上の画素G (X
SY)が鼻の位置G (hx、 hy)として検出され
るのである。
Also, the correlation value is the center position ff1 in the standard pattern of the nose.
It is calculated by applying a total of 121 pixels to ll(0,0), 5 pixels each on the top, bottom, left and right of the image data shown in Figure 11, centering on pixel G (x, y). Therefore, the values of X and Y in the above formula are, respectively,
An integer W1 where X is between X±5 and Y is between y±5. w1, and in the end a maximum of 121 correlation values are calculated by combinations of X and Y, and the maximum value is pixel G (X
SY) is detected as the nose position G (hx, hy).

このようにして寿の位ff1G (hx、 hy)が求
められると、続くステップ104に移行して、今度はこ
の0の位@G (hx、 by)に基づき顎の位置を求
めることとなる。ここで顎の位置を求めるに当っテハ、
まず鼻の位v!tG (hx、 hy)より右に10、
下に35移行した画素の位ff1G (hx+ 10、
hy+35)を求め、この位nの近傍で予め設定されて
いる第12図に示す如き顎の標準パターンと画像データ
との相関の度合を調べ、顎の位fHG(aX、ay)を
決定する。尚この決定方法としては、上記ステップ10
3ののの位置決定と同様に行なえばよいので、説明は省
略する。
Once the longevity digit ff1G (hx, hy) is determined in this way, the process moves to the subsequent step 104, where the position of the jaw is determined based on this 0 digit @G (hx, by). Here, when trying to find the position of the jaw,
First of all, the nose is v! 10 to the right of tG (hx, hy),
The position of the pixel shifted down by 35 ff1G (hx+10,
hy+35) is determined, and the degree of correlation between the image data and a standard jaw pattern as shown in FIG. 12, which has been set in advance in the neighborhood of n, is determined, and the jaw position fHG (aX, ay) is determined. Note that this determination method is based on step 10 above.
Since this can be done in the same manner as the position determination in No. 3, the explanation will be omitted.

続くステップ105においては、上記ステップ103及
びステップ104にて求められた画素データ上の^の位
@G (hx、 hy)及び顎の位置Q(ax、 ay
)を基に、次式 (但し、立1、立2、立3は定数) を用いて目の位1G (IX、 my)を算出する。歯
車1、立2及びi3の値としては、予め複数の車両運転
者の画像を躍り、その平均的データを用いればよく、こ
の求められる目の位VI G (mxSmy)と鼻の位
置G (hx、 hy)及び顎の位置G (axlay
)との関係は第13図に示す如くなる。
In the following step 105, the ^ position @G (hx, hy) on the pixel data obtained in the above steps 103 and 104 and the jaw position Q (ax, ay
), calculate the digit 1G (IX, my) using the following formula (where 1, 2, and 3 are constants). For the values of gear 1, stand 2, and i3, images of multiple vehicle drivers may be taken in advance and the average data may be used.The required eye position VI G (mxSmy) and nose position G (hx , hy) and jaw position G (axlay
) is as shown in FIG.

以上ステップ102ないしステップ105の処理にて画
素データ上の目の位置G (ax、 my)が−求めら
れると、今度はステップ106に移行して、車室内にお
ける運転者1の目の3次元位賞が求められる。
Once the eye position G (ax, my) on the pixel data is determined through the processing in steps 102 to 105, the process moves to step 106, where the three-dimensional position of the driver 1's eyes in the vehicle interior is determined. Prizes are sought.

ここで本実施例においては、画像検出部6が固定されて
いることから、これにより得られる画像で、上記ステッ
プ105にて求められた目の位置G (ix、 my)
を用い、運転者1の左右方向の移動はないものとして目
の3次元位置が求められることとなる。つまり第14図
に示す運転者1の左右(Z)方向への移動はないものと
仮定し、標準点Pを基準とする運転者1の目(左目)の
3次元位置Mを座標(X、YSO)として求めることに
よって目の位置が認識できることとなる。尚この処理と
しては、上記画像検出部6が固定されていることから、
画像データ上の標準点Pの位置G(px、py)t−予
め記憶してdノさ、この基準位ff1G(px。
In this embodiment, since the image detection section 6 is fixed, the eye position G (ix, my) obtained in step 105 above is determined in the image obtained by this.
Using this, the three-dimensional position of the eyes is determined assuming that the driver 1 does not move in the left-right direction. In other words, assuming that the driver 1 does not move in the left-right (Z) direction shown in FIG. YSO), the position of the eyes can be recognized. Note that this process is performed because the image detection section 6 is fixed.
The position G(px, py) of the standard point P on the image data is stored in advance and this reference position ff1G(px.

py)に対する目の位置G (mx、 my)のずれを
算出することによって、容易に実行することができる。
This can be easily carried out by calculating the deviation of the eye position G (mx, my) with respect to py).

以上説明した如く、本実施例の目の位置認識装置におい
ては、運転席1の斜め前方に設けられた1個の画像検出
部6により得られる画像データを処理し、運転者1のの
と顎の21i!ii所の特異点位置から運転者1の目の
3次元位置を認識するように(賛成されている。従って
単に画像データ上の内の位置から目の位置を求める場合
に比べ、運転者1が眼鏡やサングラスをかけている際の
目の位置の検出方法としてその能力を発揮する。よって
本実施例の目の位置認識装置を用いてバックミラーの角
度を自動調整したり、居眠り運転を防止する場合には、
より精度の高い制邦を実行することができるようになる
As explained above, the eye position recognition device of this embodiment processes the image data obtained by one image detection unit 6 provided diagonally in front of the driver's seat 1, and 21i! (ii) Recognizing the three-dimensional position of driver 1's eyes from the singular point position (agreed). It demonstrates its ability as a method for detecting the position of the eyes when wearing glasses or sunglasses.Therefore, the eye position recognition device of this embodiment can be used to automatically adjust the angle of the rearview mirror and prevent drowsy driving. in case of,
It will be possible to carry out more precise control of the country.

尚本実施例においては、画像検出手段■とじて運転席に
対して斜め前方に設けられたMOS形の固体m像素子か
らなる1個の画像検出部6を用いることとしたが、この
画像検出部6を運転席正面に2個設け、三角測量の原理
を用いて運転者の目の3次元位置を認識するようにして
もよく、その場合には運転者の左右方向への移動があっ
たとしてもそれに応じた目の3次元位置を認識すること
ができ、より精度の高い目の位置認識装置とすることが
できる。また画像検出部6としてはMOS形の固体躍(
9素子以外にも、例えばCOD等の他の固体顕像素子を
用いてもよい。
In this embodiment, one image detecting section 6 consisting of a MOS type solid-state m-image element installed obliquely in front of the driver's seat is used as the image detecting means (2). Two parts 6 may be provided in front of the driver's seat to recognize the three-dimensional position of the driver's eyes using the principle of triangulation, in which case the driver's movement in the left and right direction may be detected. However, the three-dimensional position of the eyes can be recognized accordingly, resulting in a more accurate eye position recognition device. In addition, the image detection section 6 is a MOS type solid-state device (
In addition to the 9 elements, other solid-state imaging elements such as COD may also be used.

また本実施例にJ3いて上述の特異点位置検出手段IV
に相当するものとしては、前記第6図に示した目の位置
認識処理におけるステップ102ないしステップ104
にて実行される処理が、目の位置演算手段Vに相当する
ものとしてはステップ105及びステップ106にて実
行される処理が挙げられる。そして本実施例においては
2Zii所の特異点位置として鼻の位置及び顎の位置を
検出するようにしているが、これは運転者1を左前方よ
り捉えた場合には鼻と顎の位8が最も検出し易い位置で
あるからであって、上記のように運転者1を正面より捉
える場合には、例えば、顎の位置と耳の位置を特異点位
置として検出するようにしてもよく、この他にも口の位
置を1つの特異点位置として検出もよい。
In addition, in this embodiment, J3 includes the above-mentioned singularity position detection means IV.
Steps 102 to 104 in the eye position recognition process shown in FIG.
Examples of the process executed in step 105 and step 106 correspond to the eye position calculation means V. In this embodiment, the position of the nose and the position of the chin are detected as the singular point position of 2Zii, but this means that when the driver 1 is viewed from the front left, the position of the nose and chin is 8. This is because it is the easiest position to detect, and when capturing the driver 1 from the front as described above, for example, the position of the jaw and the position of the ear may be detected as the singularity position. Alternatively, the position of the mouth may be detected as one singular point position.

[発明の効果1 以上詳述した如く、本発明の車両運転者の目の位n認識
装置においては、車両運転者を照射する発光手段と、該
発光手段の照射による運転ちからの反射光を画像データ
として検知する画像検出手段とを備え、画像データ上の
2箇所の特異点位置から車両運転者の目の3次元位置を
認識するように構成されている。従って車両運転者が眼
鏡やサングラスをかけていても目の位置を良好に認識す
ることができ、また単に1gI所の特異点位置から目の
3次元位かを認識する場合に比べより精度高く目の位置
を認識することができるようになる。
[Effect of the Invention 1] As detailed above, the vehicle driver's eye position recognition device of the present invention includes a light emitting means for illuminating the vehicle driver, and an image of the reflected light from the driving position caused by the illumination of the light emitting means. The image detection means detects data as data, and is configured to recognize the three-dimensional position of the vehicle driver's eyes from two singular point positions on the image data. Therefore, even if the vehicle driver is wearing glasses or sunglasses, the position of the eyes can be recognized well, and the eye position can be recognized with higher accuracy than simply recognizing the three-dimensional position of the eye from the position of the singular point at 1gI. be able to recognize the location of

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の構成を表わすブロック図、第2図ない
し第14図は本発明の一実施例を示し、第2図は本実施
例の車両のインストルメントパネル及びその周辺を表わ
す斜視図、第3図は発光部5の説明図、第4図は画像検
出部6の説明図、第5図は本実施例の目の位置認識装置
の全体構成図、第6図は目の位置認識処理を表わすフロ
ーチャート、第7図は発光処理の説明図であって、垂直
同期信号と照射信号と発光部5の発光時期との関−係を
表わすタイムチャート、第8図は画像検出部6にて捉え
られた運転者1の画像図、第9図は画像データを表ねり
説明図、第10図は内の43準パターンを表わすデータ
図、第11図はの及び顎の位2検出処理の説明図、第1
2図は顎の標準パターンを表わすデータ図、第13図は
目の位置口出処理の説明図、第14図は目の3次元位置
を説明する説明図であって、(イ)は運転者1の平面図
、(ロ)は運転者1の側面図である。 ■・・・発光手段    ■・・・画像検出手段IV・
・・特異点位置検出手段 ■・・・目の位置演算手段 5・・・発光部     6・・・画像検出部8・・・
画像48号処理部 10・・・画像データ入力部 12・・・照射(3号出力部 14・・・CPU
FIG. 1 is a block diagram showing the configuration of the present invention, FIGS. 2 to 14 show an embodiment of the present invention, and FIG. 2 is a perspective view showing the instrument panel of the vehicle of this embodiment and its surroundings. , FIG. 3 is an explanatory diagram of the light emitting unit 5, FIG. 4 is an explanatory diagram of the image detecting unit 6, FIG. 5 is an overall configuration diagram of the eye position recognition device of this embodiment, and FIG. 6 is an explanatory diagram of the eye position recognition device. 7 is an explanatory diagram of the light emission process, and is a time chart showing the relationship between the vertical synchronization signal, the irradiation signal, and the light emission timing of the light emitting unit 5. FIG. FIG. 9 is an explanatory diagram showing the image data, FIG. 10 is a data diagram showing the 43 semi-patterns, and FIG. 11 is an image of the driver 1 captured by the camera. Explanatory diagram, 1st
Figure 2 is a data diagram showing the standard pattern of the jaw, Figure 13 is an explanatory diagram of the eye position protrusion processing, and Figure 14 is an explanatory diagram explaining the three-dimensional position of the eyes. 1 is a plan view of the driver 1, and (b) is a side view of the driver 1. ■... Light emitting means ■... Image detecting means IV.
...Singular point position detection means■...Eye position calculation means 5...Light emitting section 6...Image detection section 8...
Image No. 48 processing section 10...Image data input section 12...Irradiation (No. 3 output section 14...CPU

Claims (5)

【特許請求の範囲】[Claims] 1.車両運転者を照射する発光手段と、 該発光手段の照射による上記運転者からの反射光を受け
、少なくとも上記運転者の顔面部を画像データとして検
知する画像検出手段と、 該検知された画像データにおける上記運転者顔面部の所
定の2箇所の特異点位置を検出する特異点位置検出手段
と、 該検出された2箇所の特異点位置をパラメータとして、
当該車両における上記運転者の目の3次元位置を算出す
る目の位置演算手段と、 を備えたことを特徴とする車両運転者の目の位置認識装
置。
1. a light emitting means for illuminating a vehicle driver; an image detecting means for receiving reflected light from the driver due to the illumination of the light emitting means and detecting at least the face of the driver as image data; and the detected image data. a singular point position detection means for detecting two predetermined singular point positions on the driver's face; and using the detected two singular point positions as parameters,
An eye position recognition device for a vehicle driver, comprising: eye position calculation means for calculating a three-dimensional position of the driver's eyes in the vehicle.
2.2箇所の特異点が、運転者の鼻及び顎である特許請
求の範囲第1項記載の車両運転者の目の位置認識装置。
2. The vehicle driver's eye position recognition device according to claim 1, wherein the two singular points are the driver's nose and chin.
3.画像検出手段が運転席の斜め前方に1個設けられた
特許請求の範囲第1項又は第2項記載の車両運転者の目
の位置認識装置。
3. A vehicle driver's eye position recognition device according to claim 1 or 2, wherein one image detection means is provided diagonally in front of the driver's seat.
4.画像検出手段が2次元固体撮像素子からなる特許請
求の範囲第1項ないし第3項いずれか記載の車両運転者
の目の位置認識装置。
4. A device for recognizing the position of the eyes of a vehicle driver according to any one of claims 1 to 3, wherein the image detection means comprises a two-dimensional solid-state image sensor.
5.発光手段が赤外光を発光するよう構成された特許請
求の範囲第1項ないし第4項いずれか記載の車両運転者
の目の位置認識装置。
5. A device for recognizing the position of a vehicle driver's eyes according to any one of claims 1 to 4, wherein the light emitting means is configured to emit infrared light.
JP16409784A 1984-08-03 1984-08-03 Recognizing device for position of eye of vehicle driver Pending JPS6141903A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP16409784A JPS6141903A (en) 1984-08-03 1984-08-03 Recognizing device for position of eye of vehicle driver

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16409784A JPS6141903A (en) 1984-08-03 1984-08-03 Recognizing device for position of eye of vehicle driver

Publications (1)

Publication Number Publication Date
JPS6141903A true JPS6141903A (en) 1986-02-28

Family

ID=15786707

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16409784A Pending JPS6141903A (en) 1984-08-03 1984-08-03 Recognizing device for position of eye of vehicle driver

Country Status (1)

Country Link
JP (1) JPS6141903A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000193420A (en) * 1998-10-19 2000-07-14 Toyota Central Res & Dev Lab Inc Eye position detecting device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS49111665A (en) * 1973-02-22 1974-10-24
JPS5624503A (en) * 1979-08-04 1981-03-09 Mitsubishi Heavy Ind Ltd Position detecting device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS49111665A (en) * 1973-02-22 1974-10-24
JPS5624503A (en) * 1979-08-04 1981-03-09 Mitsubishi Heavy Ind Ltd Position detecting device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000193420A (en) * 1998-10-19 2000-07-14 Toyota Central Res & Dev Lab Inc Eye position detecting device

Similar Documents

Publication Publication Date Title
JP6036065B2 (en) Gaze position detection device and gaze position detection method
JP5230748B2 (en) Gaze direction determination device and gaze direction determination method
JP4420002B2 (en) Eye-gaze estimation device
JP2007094716A (en) Vehicle driving support device
JP2008135856A (en) Body recognizing device
JP2012099085A (en) Real-time warning system on windshield glass for vehicle, and operating method thereof
JPH05297141A (en) On-vehicle object detecting device
KR20130013711A (en) Auto mirror control device and method thereof
JPS6166906A (en) Recognizing device for vehicle driver position
JP4701961B2 (en) Pedestrian detection device
JPS6166905A (en) Position of vehicle driver recognizing device
JP2020137053A (en) Control device and imaging system
JPS6141903A (en) Recognizing device for position of eye of vehicle driver
JP2006153768A (en) Position detection system and its correction method
JP4224449B2 (en) Image extraction device
US20210370956A1 (en) Apparatus and method for determining state
US20200304700A1 (en) Vehicle monitoring system
KR20220097656A (en) Driver asistance apparatus, vehicle and control method thereof
JPS6184509A (en) Identifying device for vehicle driver
JPS6199803A (en) Recognizing device for vehicle driver's position
JPS6177703A (en) Device for recognizing positions of vehicle driver's eyes
JPS6177705A (en) Device for recognizing position of vehicle driver's eyes
US20240059269A1 (en) Apparatus and method for steering adjustment
JP4321218B2 (en) Optical axis adjustment method and apparatus for in-vehicle camera
JPS6168502A (en) Vehicle operator position recognition equipment