JPS6177703A - Device for recognizing positions of vehicle driver's eyes - Google Patents

Device for recognizing positions of vehicle driver's eyes

Info

Publication number
JPS6177703A
JPS6177703A JP20110084A JP20110084A JPS6177703A JP S6177703 A JPS6177703 A JP S6177703A JP 20110084 A JP20110084 A JP 20110084A JP 20110084 A JP20110084 A JP 20110084A JP S6177703 A JPS6177703 A JP S6177703A
Authority
JP
Japan
Prior art keywords
driver
nose
nasal
tip
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP20110084A
Other languages
Japanese (ja)
Inventor
Yasutoshi Katou
康聡 加藤
Haruhiko Ogiso
治比古 小木曽
Hiroshi Ishikawa
浩 石川
Akio Yasuda
彰男 安田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
NipponDenso Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NipponDenso Co Ltd filed Critical NipponDenso Co Ltd
Priority to JP20110084A priority Critical patent/JPS6177703A/en
Publication of JPS6177703A publication Critical patent/JPS6177703A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PURPOSE:To made the recognition of the position of the eyes even if glasses and the like are worn, and to make it possible to improve accuracy by recognizing the position of the eyes based on the position of the nose tip and the inclination of a straight line connecting the nose tip and the nose root on image data, which is obtained by detecting the light reflected by the driver. CONSTITUTION:An image detecting means III receives the light reflected from a driver I based on the projection of light from a light projecting means II and detects at least the surface part of the face as the image data. The position of the nose tip and the shape of the nose back in the detected data are detected by a nose-tip-position detecting means IV and a nose-back-shape detecting means V. an inclination operating means VI computes the inclination of a straight line connecting the nose tip and the nose root based on the detected nose tip position and the nose back shape. The position of the driver's eyes in a vehicle is computed by an eye-position computing means VII based on the computed inclination and the nose tip position.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は車両運転者の目の位置を認識する車両運転者の
目の位置認識装置に関し、特に運転者を画像として検知
し、鼻尖と、鼻尖と鼻根とを結ぶ直線の傾きと、から運
転者の目の位置を認識する車両運転者の目の位置認識装
置に関するものである。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to a vehicle driver's eye position recognition device that recognizes the position of the vehicle driver's eyes, and in particular detects the driver as an image and detects the tip of the nose, The present invention relates to a vehicle driver's eye position recognition device that recognizes the position of the driver's eyes based on the slope of a straight line connecting the tip of the nose and the root of the nose.

[従来の技術] 近年電子機器の急速な発達に伴い車両の操作性、居住性
、事故回避性等の向上を目的とした新しい装置の研究が
進められており、その1つとして運転者の乗車位置、特
に目の位置を認識し、バックミラー、空調空気の吹出口
、あるいはステアリング等の角度を自動調整するとか、
居眠り運転を検知して運転者に警報を与えるといったこ
とが考えられている。
[Conventional technology] With the rapid development of electronic equipment in recent years, research has been progressing on new devices aimed at improving vehicle operability, comfort, accident avoidance, etc. It recognizes the position, especially the position of the eyes, and automatically adjusts the angle of the rearview mirror, the air outlet, or the steering wheel.
Consideration is being given to detecting drowsy driving and issuing a warning to the driver.

上記のような制御に用いられる運転者の目の位置を認識
するための目の位置認識装置として、従来では、例えば
運転席正面2箇所に運転者の上体を画像データとしてと
らえる画像検出部を設け、その画像データにおける顔面
部分の、水平方向に2箇所ある黒い部分を目の位置とし
て推定し、三角測りの原理を用いて目の3次元位置を認
識するとか、あるいは運転席の斜め前方1箇所に画像検
出部を設け、画像検出部により得られた画像データにお
ける顔面部分の突起、即ら運転者の鼻の部分を特異点位
置として検出し、この特異点位置に基づき運転者の左右
方向への移動はないものとして目の3次元位置を認識す
るといったものが考えられている。
Conventionally, as an eye position recognition device for recognizing the position of the driver's eyes used for the above-mentioned control, for example, image detection units that capture the driver's upper body as image data are installed at two locations in front of the driver's seat. The two horizontal black parts of the face in the image data are estimated as the positions of the eyes, and the three-dimensional position of the eyes is recognized using the principle of triangulation. An image detection unit is installed at the location, and a protrusion on the face, that is, the driver's nose, is detected as a singular point position in the image data obtained by the image detection unit, and based on this singular point position, the left and right direction of the driver is detected. One idea is to recognize the three-dimensional position of the eyes assuming that there is no movement.

[発明が解決しようとする問題点] 上記前者の認識装置の場合には、運転者が目視やサング
ラス等を使用している時に、目の位置を良好に認識する
ことができないといった問題が生じ、一方上記後者の認
識装置の場合には、単に1つの特異点位置から目の位置
を推定することからその誤差が大きく、正確な目の位置
を認識することは難かしいといった問題がある。
[Problems to be Solved by the Invention] In the case of the above-mentioned former recognition device, a problem arises in that the position of the eyes cannot be recognized well when the driver uses visual inspection or sunglasses, etc. On the other hand, in the case of the latter recognition device, since the eye position is simply estimated from one singular point position, the error is large and it is difficult to accurately recognize the eye position.

そこで本発明は上記問題を解決するためになされたもの
で、上記画像検出部により得られた画像データにおける
運転者の鼻尖と、鼻尖と鼻根とを結ぶ直線の傾きと、か
ら目の位置を推定することにより、正確な目の位置を認
識し得るようにすることを目的としている。
Therefore, the present invention has been made to solve the above problem, and it is possible to calculate the position of the driver's nose from the tip of the driver's nose in the image data obtained by the image detection unit, the slope of the straight line connecting the nose tip and the root of the nose, and the position of the eyes. The purpose is to make it possible to recognize the exact position of the eyes by estimating the position of the eyes.

[発明の構成] かかる目的を達するための本発明の構成は、第1図に示
す如く、 車両運転者工を照射する発光手段■と、該発光手段の照
射による上記運転名工からの反射光を受け、少なくとも
上記運転名工の顔面部を画像データとして検知する画像
検出手段面と、該検知された画像データにおける上記運
転者の得失位置を検出する鼻尖位置検出手段■と、上記
検知された画像データにおける上記運転者の鼻背形状を
検出する鼻背形状検出手段Vと、該検出された得失位置
と鼻背形状とに基づいて鼻尖と鼻根とを結ぶ直線の傾き
を算出する傾き演算手段Vlと、 該検出された傾きと上記の尖位置とに暴づいて、当該車
両における上記運転名工の目の位置を算出する目の位置
演算手段■と、 を備えたことを特徴とする車両運転者の目の位@認識装
Uを要旨としている。
[Configuration of the Invention] As shown in FIG. 1, the configuration of the present invention to achieve the above object includes a light emitting means (1) for illuminating the vehicle driver, and a light reflected from the driver by the illumination of the light emitting means. an image detection means surface for detecting at least the facial part of the driver as image data; a nose tip position detection means (2) for detecting the position of advantage or disadvantage of the driver in the detected image data; and the detected image data. nasal dorsum shape detection means V for detecting the shape of the nose dorsum of the driver; and slope calculation means Vl for calculating the inclination of a straight line connecting the nasal tip and the nasal root based on the detected advantages and disadvantages positions and the nasal dorsum shape. and an eye position calculation means (2) for calculating the eye position of the driver in the vehicle based on the detected inclination and the peak position. The gist is the number @ recognition device U.

[実施例] 以下本発明の一実施例を図面と共に説明する。[Example] An embodiment of the present invention will be described below with reference to the drawings.

第2図は本実施例の目の位置認識装置が搭載された車両
のインストルメントパネル部分及びその周辺を表わす斜
視図であって、1は運転者、2は運転席、3はインスト
ルメントパネルを表わしている。そしてインストルメン
トパネル3の運転席2に対する左斜め前方、即ち、助手
席側前方には、運転者1の上体を左方向から照射する発
光部5と、発光部5の照射による運転者1からの反射光
を受け、運転者1の上体を左方向から2次元画像として
捉える画像検出部6が設けられている。
FIG. 2 is a perspective view showing the instrument panel part and its surroundings of a vehicle in which the eye position recognition device of this embodiment is installed, in which 1 is the driver's seat, 2 is the driver's seat, and 3 is the instrument panel. It represents. A light emitting section 5 that illuminates the upper body of the driver 1 from the left side is located diagonally forward to the left of the driver's seat 2 of the instrument panel 3, that is, in front of the passenger seat side. An image detection unit 6 is provided which receives the reflected light and captures a two-dimensional image of the upper body of the driver 1 from the left direction.

ここで発光部5は前述の発光手段■に相当し、照射時に
運転者1に眩しさを感じさせることのないよう赤外光を
発光する赤外ストロボが用いられ、第3図に示す如く、
赤外発光体5aと、赤外発光体5aにて発光された赤外
光を広く運転者に照射する為のレンズ5bと、赤外光を
透過し、可視光を通さない赤外フィルタ5Cと、これら
赤外発光体5a、レンズ5b及び赤外フィルタ5Cを格
納し、インストルメントパネル3の所定の位置に取り付
けるためのケース5dとから構成されている。
Here, the light emitting unit 5 corresponds to the above-mentioned light emitting means (2), and an infrared strobe that emits infrared light is used so as not to dazzle the driver 1 during irradiation, as shown in FIG.
An infrared light emitter 5a, a lens 5b for broadly irradiating the driver with infrared light emitted by the infrared light emitter 5a, and an infrared filter 5C that transmits infrared light but blocks visible light. , a case 5d for storing the infrared light emitter 5a, lens 5b, and infrared filter 5C and for attaching it to a predetermined position on the instrument panel 3.

また画像検出部6は前述の画像検出手段■に相当し、発
光部5の照射による運転者1からの反射光を運転者1の
上体画像として捉えるためのものであって、この画像検
出部6には第4図に示す如く、運転者1からの反射光、
即ち赤外光を透過するための赤外フィルタ6aと、運転
者1の上体画像を後述の固体撮像素子6eの撮像面に結
像するための焦点距離が例えば12.5mmのレンズ6
bと、光量を調整するための液晶絞り素子6Cと、上記
赤外フィルタ5a、レンズ6b及び液晶絞り素子6Cを
透過して結像された撮像面上の映像をスイッチング走査
で電気信号として取り出す、フォトセンサとスイッチン
グ回路とからなるMOS形の固体躍(動素子6eと、上
記各部を格納し、インストルメントパネル3に取り付け
るためのケース6fとから構成されるノンインタレース
方式の固体カメラが用いられている。
Further, the image detection section 6 corresponds to the above-mentioned image detection means (2), and is for capturing the reflected light from the driver 1 due to the irradiation of the light emitting section 5 as an image of the driver's 1 body. 6, as shown in FIG. 4, reflected light from the driver 1;
That is, an infrared filter 6a for transmitting infrared light, and a lens 6 having a focal length of, for example, 12.5 mm for forming an image of the body of the driver 1 on an imaging surface of a solid-state image sensor 6e, which will be described later.
b, a liquid crystal diaphragm element 6C for adjusting the amount of light, and an image formed on the imaging surface transmitted through the infrared filter 5a, lens 6b, and liquid crystal diaphragm element 6C, which is taken out as an electrical signal by switching scanning. A non-interlaced solid-state camera is used, which consists of a MOS-type solid-state dynamic element 6e consisting of a photosensor and a switching circuit, and a case 6f for storing the above-mentioned parts and attaching it to the instrument panel 3. ing.

次に本実施例の目の位置認識装置の全体構成を第5図に
示すブロック図に基づき説明する。
Next, the overall configuration of the eye position recognition device of this embodiment will be explained based on the block diagram shown in FIG. 5.

図に示す如く、本認識装置は上記発光部5及び画像検出
部6の他に、画像検出部6にて得られた画像信号を処理
し、運転者1の目の位置を認識する画像信号処理部8を
備えている。そしてこの画像信号処理部8は、上記画像
検出部6を制御すると共に、画像検出部6にて得られた
画像信号をデジタル信号に変換し、その変換されたデジ
タル信号を画像データとして一旦記憶することのできる
画像データ入力部1oと、上記発光部5を発光させるた
めの照射信号を出力する照射信号出力部12と、画像デ
ータ入力部10にてA/D変換され記憶された画像デー
タから運転者1の鼻尖と鼻背形状とを検出し、この2つ
から運転者1の目の位置を認識するといった一連の目の
位置認識処理を実行するセントラルプロセッシングユニ
ット(CPIJ)14と、CPU14にて目の位置認識
処理を実行するためのIII Iプログラムやデータが
予め記憶されたリードオンリメモリ(ROM)16と、
演算処理実行のために用いられるデータ等が一時的に読
み書きされるランダムアクセスメモリ(RAM)18と
、上記各部を結び画像信号や制御信号の通路とされるパ
スライン20と、上記各部に電源を供給する電源回路2
2とから構成されている。
As shown in the figure, in addition to the light emitting unit 5 and image detecting unit 6, this recognition device processes image signals obtained by the image detecting unit 6, and performs image signal processing to recognize the position of the eyes of the driver 1. It is equipped with part 8. The image signal processing section 8 controls the image detection section 6, converts the image signal obtained by the image detection section 6 into a digital signal, and temporarily stores the converted digital signal as image data. an irradiation signal output section 12 that outputs an irradiation signal for causing the light emitting section 5 to emit light; and an irradiation signal output section 12 that outputs an irradiation signal for causing the light emitting section 5 to emit light. A central processing unit (CPIJ) 14 executes a series of eye position recognition processes such as detecting the tip of the nose and the shape of the nose dorsum of the driver 1 and recognizing the positions of the eyes of the driver 1 from these two, and the CPU 14. a read-only memory (ROM) 16 in which III I programs and data for executing eye position recognition processing are stored in advance;
A random access memory (RAM) 18 in which data used for executing arithmetic processing is temporarily read and written, a path line 20 that connects each of the above parts and serves as a path for image signals and control signals, and a power supply to each of the above parts. Supply power circuit 2
It is composed of 2.

次に上記画像信号処理部8のCPtJ14にて演算処理
される目の位置認識処理について、第6図に示すフロー
チャートに沿って詳しく説明する。
Next, the eye position recognition processing performed by the CPtJ14 of the image signal processing section 8 will be described in detail with reference to the flowchart shown in FIG.

処理が開始されるとまずステップ101にて発光部5を
発光させるべく照射信号出力部12から照射信号を出力
させる発光処理を実行する。
When the process is started, first in step 101, a light emission process is executed in which the irradiation signal output section 12 outputs an irradiation signal in order to cause the light emitting section 5 to emit light.

この処理は画像データ入力部の同期信号発生回路10a
から出力される垂直同期信号と同期して発光部5を発光
させ、画像データ入力部にて良好な画像データが得られ
るようにするためのものであって、第7図に示す如く、
発光部5の発光が垂直帰線時期t1と一致するよう垂直
同期信号の立ち上がり時期から所定の遅延時間ΔT経過
後照射信号を出力する。そしてこのように発光部5より
運転者1に赤外光が照射されると、時間t2の間画像デ
ータ入力部10にて画像検出部6からの画像信号がデジ
タル信号に変換され、そのデジタル信号が画像データと
して、画像データ記憶回路10Cに記憶されることとな
る。
This process is carried out by the synchronization signal generation circuit 10a of the image data input section.
This is to cause the light emitting unit 5 to emit light in synchronization with the vertical synchronization signal output from the vertical synchronization signal, so that good image data can be obtained at the image data input unit, as shown in FIG.
The irradiation signal is output after a predetermined delay time ΔT has elapsed from the rise time of the vertical synchronization signal so that the light emission of the light emitting unit 5 coincides with the vertical retrace time t1. When the driver 1 is irradiated with infrared light from the light emitting unit 5 in this way, the image signal from the image detection unit 6 is converted into a digital signal by the image data input unit 10 during time t2, and the digital signal is will be stored as image data in the image data storage circuit 10C.

尚、この画像データ記憶回路10cにおいては、上記発
光部5及び画像検出部6が運転席2.に対して左斜め前
方に設けられていることから、第8図に示す如き運転者
1を左斜め曲方より捉えた画像が、第9因に示す如く、
横256、縦240に分割する画素の明度を表わす画像
データG(○、O)・・・G (255,239>とし
て記憶される。
In this image data storage circuit 10c, the light emitting section 5 and the image detecting section 6 are connected to the driver's seat 2. 8, the image of the driver 1 taken diagonally to the left turns as shown in the ninth factor,
Image data representing the brightness of pixels divided into 256 pixels horizontally and 240 pixels vertically is stored as G(○, O)...G(255,239>).

次にステップ102においては、上記画像データにおけ
る予め設定された所定のエリア、つまり第8図に示す3
0の領域を鼻の存在域として読み込み、この領域内の最
も左側に存在する一定レベル以上の明度を有する画素を
検索(以下、輝点検索という。)し、その位置を記憶す
る。この処理は次ステツプ103にて鼻の位置を検出す
る際に、鼻を捜す範囲を限定するための処理であって、
求められた画素の位置が鼻を捜すための塁点とされる。
Next, in step 102, a predetermined area set in advance in the image data, that is, 3 as shown in FIG.
The area of 0 is read as the area where the nose exists, and the leftmost pixel in this area that has a brightness above a certain level is searched (hereinafter referred to as bright spot search) and its position is stored. This process is a process for limiting the range to search for the nose when detecting the position of the nose in the next step 103.
The position of the determined pixel is used as the base point for searching for the nose.

尚、本輝点検索処理としては、第8図の鼻存在職30に
おける左上端の画素を出発点として、上下方向に順次検
索してゆき、最初の一定レベル以上の明度を有する画素
の位置を記憶すればよい。
In this bright spot search process, starting from the upper left pixel of the nose position 30 in FIG. Just remember it.

このように輝点検索が実行され、鼻存在職の最も左側に
存在する一定レベル以上の明度を有する画素の位置が求
められると、上述したように続くステップ103にて、
この位置を基点として鼻を捜し、鼻の位置を決定する処
理がなされるのであるが、この処理は、輝点検索によっ
て求められた画素の近傍で、予め設定されている第10
図に示す如き鼻の標準パターンと画像データとの相関の
度合いを調べ、相関の最大値となる画像の位置を以て鼻
が存在する位置であるとみなし、鼻の位置を決定するも
のである。
When the bright spot search is executed in this way and the position of the pixel that exists on the leftmost side of the nose position and has a brightness above a certain level is determined, in the subsequent step 103 as described above,
Processing is performed to search for the nose using this position as a base point and determine the position of the nose.
The degree of correlation between the standard pattern of the nose as shown in the figure and the image data is examined, and the position of the image where the correlation is maximum is regarded as the position where the nose exists, and the position of the nose is determined.

つまり、上記ステップ102にて求められた画素の位置
G (x 、 y )を中心に、第11図に示す如く上
下、左右に夫々5画素分、計121mの画素を、夫々第
10図に示した鼻の標準パターンにおける中心位置l 
(○、O)として画像データと標準パターンとの相関値
を計算し、その値が最も大きくなった画素位置を書尖(
いわゆる0の頭)の位置t3 (hx、 hy)として
認識するのである。ここで、第10図の鼻の標準パター
ンにおける中心位置m  (0,O)は鼻尖に相当する
部分として予め設定されており、また相関値としては次
式1式%) より求めることができる。尚上記i及びjの値としては
、鼻の標準パターンが中心m (0,○)に対して上に
16、下に7、左に1、右に6の拡がりを持つデータと
して構成されていることから、iに(−1)から(+6
>、jに(−16>から(+7)の間の整数値を用いれ
ばよい。
In other words, centering on the pixel position G (x, y) determined in step 102 above, as shown in FIG. 11, 5 pixels each on the top, bottom, left and right, totaling 121 m of pixels, as shown in FIG. Center position l in the standard nose pattern
Calculate the correlation value between the image data and the standard pattern as (○, O), and set the pixel position where the value is the largest to the tip of the letter (
It is recognized as the position t3 (hx, hy) of the so-called 0 head). Here, the center position m (0, O) in the standard nasal pattern shown in FIG. 10 is set in advance as a portion corresponding to the tip of the nose, and the correlation value can be obtained from the following equation (1). The values of i and j above are configured as data in which the standard pattern of the nose extends from the center m (0, ○) by 16 above, 7 below, 1 to the left, and 6 to the right. Therefore, i has (-1) to (+6
>, an integer value between (-16> and (+7)) may be used for j.

また相関値が、鼻の標準パターンにおける中心位置m 
 (0,0)に対して、第11図に示す如き画像データ
上の画素G (x 、 y >を中心とする上下、左右
に夫々5個、計121個の画素を当てはめ、計算される
ことから、上式におけるX、Yの値としては、夫と、X
がX±5、Yがy±5の間の整数値となり、結局X及び
Yの組み合わせで最大121種類の相関値が算出され、
その最大値となる画素データ上の画素G(X、Y)が得
失位置G (hx、 hy)として検出されるのである
Also, the correlation value is the center position m in the standard pattern of the nose.
(0,0) is calculated by applying a total of 121 pixels, 5 each to the top, bottom, left and right, centering on the pixel G (x, y>) on the image data as shown in Figure 11. Therefore, the values of X and Y in the above equation are
is an integer value between X±5 and Y is an integer value between y±5, and in the end, a maximum of 121 types of correlation values are calculated by combining X and Y.
The pixel G (X, Y) on the pixel data having the maximum value is detected as the gain/loss position G (hx, hy).

このようにして、得失位置G (hx、 by)が求め
られると、続くステップ104に移行して、今度はこの
得失位置G (hx、 hy)に基づき奔背(いわゆる
鼻筋)形状を求めることとなる。ここで鼻背形状を求め
るにあたっては、まず鼻尖位1iG(hX。
Once the advantage/disadvantage position G (hx, by) is determined in this way, the process moves to the subsequent step 104, where the shape of the dorsal dorsum (so-called nose bridge) is determined based on this advantage/disadvantage position G (hx, hy). Become. To find the shape of the nasal dorsum, first, the nasal tip position is 1iG (hX).

hy)より右に5、上に10移行した画素の位置G(P
X 、 Py )を求める。即ち、Px −hx+5、
Py −hy−10である。ざらに、第12図の如く、
G (Px 、 Py )より左に20画素、下に5画
素の20×5画素の領域を鼻背形状検知領域40とする
。即ち、鼻背形状検知領域40は、4点G(Px 、 
Py )、G (Px 、 Py +4)、G (Px
−19,Pl/)及びG (Px −19,Py +4
>によってつくられる長方形の内部である。
The position of the pixel G (P
X, Py). That is, Px −hx+5,
It is Py-hy-10. Roughly, as shown in Figure 12,
A region of 20×5 pixels, 20 pixels to the left of G (Px, Py) and 5 pixels below, is defined as the nasal dorsal shape detection region 40. That is, the nasal dorsal shape detection area 40 consists of four points G (Px,
Py ), G (Px , Py +4), G (Px
−19, Pl/) and G (Px −19, Py +4
This is the inside of the rectangle created by >.

次にG (Px−19,Py +i )とG (Px 
Next, G (Px-19, Py +i) and G (Px
.

Py +i )  (ただしi−0,1,2,3,4)
との間にある画素のうち最も左にある明るい画素G(P
x −Qi 、 py +i )にツイテ、i=Qから
i−4まで1を1ずつ増しながら求める。^背形状はG
 (Px −Qi 、 Py +i )  (i −Q
、 1゜2.3.4>で表わされる。
Py +i) (however, i-0, 1, 2, 3, 4)
The leftmost bright pixel G(P
x −Qi, py +i), and calculate by increasing 1 by 1 from i=Q to i−4. ^The back shape is G
(Px −Qi, Py +i) (i −Q
, 1°2.3.4>.

このように鼻背形状が求められると続くステップ105
に移行して、得失位置と鼻背形状から求められた鼻背を
代表する一点とによって鼻尖と鼻根とを結ぶ直線の傾き
を求める。奔背を代表する点G (QX、 ay)を下
記のようにして決める。^背形状検知領域40における
鼻の画素数は、N=ΣQ; である。
Step 105 continues once the nasal dorsum shape is determined in this way.
Then, the slope of the straight line connecting the nasal tip and the nasal root is determined using the advantageous and disadvantageous positions and a point representing the nasal dorsum determined from the nasal dorsal shape. Determine the point G (QX, ay) that represents the backbone as follows. The number of pixels of the nose in the back shape detection area 40 is N=ΣQ;

上記鼻の画素ViNとほぼ等しい画素数をもつ長方形、
即ち、G (Px 、 Py )、G (QX、 Py
 )、G (PX 、 Py +4) 、G (qx、
 Py +4>によってつくられる長方形のG (qx
、 Py ) 、G (QX。
A rectangle having approximately the same number of pixels as the pixel ViN of the nose,
That is, G (Px, Py), G (QX, Py
), G (PX, Py +4), G (qx,
Rectangular G (qx
, Py ), G (QX.

Py+4>辺上の中点をの背を代表する点G(QX。Py+4> Point G(QX) representing the back of the midpoint on the side.

qy)とする。叩ら、qx=Px−N15、qx=Py
+2である。(qxはpx −N15に最も近い整数)
鼻尖と鼻根(いわゆる鼻のっけね)とを結ぶ直線の傾き
kは、上記得失位置G (hx、 hy)と上記ζ)背
を代表する点G (qx、 qy)とに基づいてk −
(hy−QV) / (hx−QX)と求められる。
qy). Hit, qx=Px-N15, qx=Py
+2. (qx is the integer closest to px - N15)
The slope k of the straight line connecting the tip of the nose and the root of the nose (the so-called nose base) is k − based on the above advantage/loss position G (hx, hy) and the point G (qx, qy) representing the back of ζ).
It is calculated as (hy-QV)/(hx-QX).

続くステップ106においては、上記ステップ103な
いしステップ105にて求められた画素データ上のめ尖
位置Q (hx、 hy)及び鼻尖と鼻根を結ぶ直線の
傾きkを基に、次式 %式% を用いて目の位置G (mx、 my)を算出する。面
立1及び立2の値としては、予め複数の車両運転者の画
像を截り、その平均的データを用いればよく、この求め
られる目の位置G (mx、 my)と得失位置G (
hx、 hy)及び0背形状検出領域40との関係は第
13図に示す如くなる。
In the following step 106, based on the eye tip position Q (hx, hy) on the pixel data obtained in steps 103 to 105 and the slope k of the straight line connecting the nasal tip and the nasal root, the following formula % formula % The eye position G (mx, my) is calculated using For the values of elevation 1 and elevation 2, images of multiple vehicle drivers may be cropped in advance and the average data thereof may be used.
The relationship between hx, hy) and the 0-spine shape detection area 40 is as shown in FIG.

以上ステップ102ないしステップ106の処理にて画
素データ上の目の位置G (mx、 my)が求められ
ると、今度はステップ107に移行して、車室内におけ
る運転者1の目の3次元位置が求められる。
Once the eye position G (mx, my) on the pixel data is obtained through the processing in steps 102 to 106, the process moves to step 107, where the three-dimensional position of the driver 1's eyes in the vehicle interior is determined. Desired.

ここで本実施例においては、画像検出部6が固定されて
いることから上記ステップ106にて求められた目の位
置G (n+x、 my)を用い、運転者1の左右方向
の移動はないものとして目の3次元位置が求められるこ
ととなる。つまり第14図に示す運転者1の左右(Z)
方向への移動はないものと仮定し、標準点Oを基準とす
る運転者1の目(左目)の3次元位@Mを座標(X、Y
、O)として求めることによって目の位置が認識できる
こととなる。尚この処理としては、上記画像検出部6が
固定されていることから、画像データ上の標準点Oの位
置G (ox、 oy)を予め記憶しておき、この基準
位置Q (ox、 oy)に対する目の位置G(mx、
 my)のずれを算出することによって、容易に実行す
ることができる。
In this embodiment, since the image detection unit 6 is fixed, the eye position G (n+x, my) obtained in step 106 is used, and the driver 1 is assumed not to move in the left-right direction. As a result, the three-dimensional position of the eyes can be found. In other words, the left and right sides (Z) of driver 1 shown in FIG.
Assuming that there is no movement in the direction, the three-dimensional position @M of driver 1's eye (left eye) based on the standard point O is expressed as the coordinates (X, Y
, O), the position of the eyes can be recognized. In this process, since the image detection section 6 is fixed, the position G (ox, oy) of the standard point O on the image data is stored in advance, and this standard position Q (ox, oy) is Eye position G (mx,
This can be easily carried out by calculating the deviation of my).

以上説明した如く、本実施例の目の位置認識装置におい
ては、運転席1の斜め前方に設けられた1個の画像検出
部6により得られる画像データを処理し、運転者1の得
失位置と鼻尖と鼻根とを桔ぶ直線の傾きとから運転者1
の目の画像データ上の位置を認識し、ついで3次元位置
を4識するように構成されている。従って単に画像デー
タ上の寿の位置から目の位置を求める場合に比べ、より
精度よく目の3次元位置を認識することができ、画像デ
ータ上の目の位置を直接検出して目の3次元位置を認識
する場合のように、運転者1が眼鏡やサングラスをかけ
ている際には目の位置を認識することができないといっ
た問題が生ずることもない。よって本実施例の目の位置
認識装置を用いてバックミラーの角度を自#調整したり
、居眠り運転を防止する場合には、より精度の高い制御
を実行することができるようになる。尚本実施例におい
ては、MOS形の固体岡像素子を画像検出部6として用
いたが、これ以外にも例えばCOD等の他の固体撮@素
子を用いてもよい。又、本実施例においてはノンインタ
レース方式を用いているがインクレース方式を用いても
よい。
As explained above, the eye position recognition device of this embodiment processes image data obtained by one image detection unit 6 provided diagonally in front of the driver's seat 1, and determines the advantageous and disadvantageous positions of the driver 1. Driver 1
It is configured to recognize the position of the eye on the image data, and then recognize the four-dimensional position of the eye. Therefore, compared to simply determining the eye position from the position of the longevity on the image data, it is possible to recognize the three-dimensional position of the eye with higher accuracy, and it is possible to directly detect the eye position on the image data and calculate the three-dimensional position of the eye. Unlike the case of position recognition, when the driver 1 is wearing glasses or sunglasses, the problem of not being able to recognize the position of the eyes does not occur. Therefore, when the eye position recognition device of this embodiment is used to automatically adjust the angle of the rearview mirror or prevent drowsy driving, it is possible to perform control with higher accuracy. In this embodiment, a MOS type solid-state imaging device is used as the image detection section 6, but other solid-state imaging devices such as COD may also be used. Furthermore, although a non-interlace method is used in this embodiment, an inklace method may also be used.

また本実施例において上述の得失位置検出手段■に相当
するものとしては、前記第6図に示した目の位置認識処
理におけるステップ102ないしステップ103にて実
行される処理が、鼻背形状検出手段Vに相当するものと
してはステップ104にて実行される処理が、傾き演算
手段Vlに相当するものとしてはステップ105にて実
行される処理が、目の位置演算手段■に相当するものと
してはステップ106及びステップ107にて実f7さ
れる処理が挙げられる。
In addition, in this embodiment, the process executed in steps 102 and 103 in the eye position recognition process shown in FIG. The process executed in step 104 corresponds to V, the process executed in step 105 corresponds to the inclination calculation means Vl, and the process executed in step 105 corresponds to the eye position calculation means Examples include the processing that is executed f7 in steps 106 and 107.

[発明の効果] 以上詳述した如く、本発明の車両運転者の目の位置認識
装置においては、車両運転者を照射する発光手段と、該
発光手段の照射による運転者からの反射光を画像データ
として検知する画像検出手段とを備え、画像データ上の
得失位置と鼻尖との根を結ぶ直線の傾きとから車両運転
者の目の位置を認識するように構成されている。従って
車両運転者が眼鏡やサングラスをかけていても目の位置
を良好に認識することができ、また単に1箇所の特異点
位置から目の位置を認識する場合に比べより精度高く目
の位置を認識することができるようになる。
[Effects of the Invention] As described in detail above, the vehicle driver's eye position recognition device of the present invention includes a light emitting means for illuminating the vehicle driver, and an image of the light reflected from the driver by the illumination of the light emitting means. The apparatus includes an image detection means for detecting data as data, and is configured to recognize the position of the vehicle driver's eyes from the slope of a straight line connecting the point of advantage or disadvantage on the image data and the root of the tip of the nose. Therefore, even if the vehicle driver is wearing glasses or sunglasses, the position of the eyes can be recognized well, and the position of the eyes can be recognized with higher accuracy than when simply recognizing the position of the eyes from one singular point position. be able to recognize it.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の構成を表わすブロック図、第2図ない
し第14図は本発明の一実施例を示し、第2図は本実施
例の車両のインストルメントパネル及びその周辺を表わ
す斜視図、第3図は発光部5の説明図、第4図は画像検
出部6の説明図、第5図は本実施例の目の位置認識装置
の全体構成図、第6図は目の位置認識処理を表わすフロ
ーチャート、第7図は発光処理の説明図であって、垂直
同期信号と照射信号と発光部5の発光時期との関係を表
わすタイムチャート、第8図は画像検出部6にて捉えら
れた運転者1の画像図、第9図は画像データを表わす説
明図、第10図は鼻の標準パターンを表わすデータ図、
第11図は鼻の位置位置検出処理の説明図、第12図は
鼻尖と鼻根を結ぶ直線の傾き算出処理の説明図、第13
図は目の位置算出処理の説明図、第14図は目の3次元
位置を説明する説明図であって、(イ)は運転者1の平
面図、(ロ)は運転者1の側面図である。 ■・・・発光手段 ■・・・画像検出手段 ■・・・β尖位置検出手段 ■・・・鼻背形状検知手段 ■・・・傾き演算手段 Vl・・・目の位置演算手段 5・・・発光部     6・・・画像検出部8・・・
画像信号処理部 10・・・画像データ入力部 12・・・照射信号出力部 14・・・CPU
FIG. 1 is a block diagram showing the configuration of the present invention, FIGS. 2 to 14 show an embodiment of the present invention, and FIG. 2 is a perspective view showing the instrument panel of the vehicle of this embodiment and its surroundings. , FIG. 3 is an explanatory diagram of the light emitting unit 5, FIG. 4 is an explanatory diagram of the image detecting unit 6, FIG. 5 is an overall configuration diagram of the eye position recognition device of this embodiment, and FIG. 6 is an explanatory diagram of the eye position recognition device. 7 is an explanatory diagram of the light emission process, and is a time chart showing the relationship between the vertical synchronization signal, the irradiation signal, and the light emission timing of the light emitting section 5. FIG. 8 is a flowchart showing the process, and FIG. 9 is an explanatory diagram showing image data, and FIG. 10 is a data diagram showing a standard nose pattern.
Fig. 11 is an explanatory diagram of the nose position detection process, Fig. 12 is an explanatory diagram of the slope calculation process of the straight line connecting the nasal tip and the nasal root, and Fig. 13 is an explanatory diagram of the process of detecting the position of the nose.
The figure is an explanatory diagram of the eye position calculation process, and FIG. 14 is an explanatory diagram explaining the three-dimensional position of the eyes, in which (a) is a plan view of the driver 1, and (b) is a side view of the driver 1. It is. ■...Light emitting means■...Image detection means■...β cusp position detection means■...Nose dorsal shape detection means■...Inclination calculation means Vl...Eye position calculation means 5... - Light emitting section 6... Image detection section 8...
Image signal processing section 10...image data input section 12...irradiation signal output section 14...CPU

Claims (1)

【特許請求の範囲】 1 車両運転者を照射する発光手段と、 該発光手段の照射による上記運転者からの反射光を受け
、少なくとも上記運転者の顔面部を画像データとして検
知する画像検出手段と、 該検知された画像データにおける上記運転者の鼻尖を検
出する鼻尖位置検出手段と、 上記検知された画像データにおける上記運転者の鼻背形
状を検出する鼻背形状検出手段と、上記検出された鼻尖
位置と鼻背形状とに基づいて鼻尖と鼻根とを結ぶ直線の
傾きを算出する傾き演算手段と、 該算出された傾きと上記鼻尖位置とに基づいて、当該車
両における上記運転者の目の位置を算出する目の位置演
算手段と、 を備えたことを特徴とする車両運転者の目の位置認識装
置。 2 傾き演算手段が、鼻尖より所定距離へだてた鼻背を
含む画像データ上の長方形の領域内における鼻背形状か
ら求めた鼻背を代表する一点と鼻尖位置とによつて、鼻
尖と鼻根とを結ぶ直線の画像データ上の傾きを算出する
特許請求の範囲第1項記載の車両運転者の目の位置認識
装置。 3 画像検出手段が運転席の斜め前方に1個設けられた
特許請求の範囲第1項又は第2項記載の車両運転者の目
の位置認識装置。 4 画像検出手段が2次元固体撮像素子からなる特許請
求の範囲第1項ないし第3項いずれか記載の車両運転者
の目の位置認識装置。 5 発光手段が赤外光を発光するよう構成された特許請
求の範囲第1項ないし第4項いずれか記載の車両運転者
の目の位置認識装置。
[Scope of Claims] 1. A light emitting means for illuminating a vehicle driver; and an image detecting means for receiving reflected light from the driver caused by the illumination of the light emitting means and detecting at least the face of the driver as image data. , a nose tip position detection means for detecting the nose tip of the driver in the detected image data; a nose tip position detection means for detecting the nose tip of the driver in the detected image data; a slope calculation means for calculating the slope of a straight line connecting the nose tip and the nasal root based on the nose tip position and the nasal dorsal shape; An eye position recognition device for a vehicle driver, comprising: an eye position calculation means for calculating the position of the vehicle driver. 2. The inclination calculation means calculates the nasal tip and nasal root using a point representing the nasal dorsum obtained from the nasal dorsum shape within a rectangular area on the image data including the nasal dorsum extending a predetermined distance from the nasal tip and the nasal tip position. 2. The vehicle driver's eye position recognition device according to claim 1, which calculates the slope of a straight line connecting the image data. 3. The vehicle driver's eye position recognition device according to claim 1 or 2, wherein one image detection means is provided diagonally in front of the driver's seat. 4. The vehicle driver's eye position recognition device according to any one of claims 1 to 3, wherein the image detection means comprises a two-dimensional solid-state image sensor. 5. The vehicle driver's eye position recognition device according to any one of claims 1 to 4, wherein the light emitting means is configured to emit infrared light.
JP20110084A 1984-09-25 1984-09-25 Device for recognizing positions of vehicle driver's eyes Pending JPS6177703A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20110084A JPS6177703A (en) 1984-09-25 1984-09-25 Device for recognizing positions of vehicle driver's eyes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20110084A JPS6177703A (en) 1984-09-25 1984-09-25 Device for recognizing positions of vehicle driver's eyes

Publications (1)

Publication Number Publication Date
JPS6177703A true JPS6177703A (en) 1986-04-21

Family

ID=16435394

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20110084A Pending JPS6177703A (en) 1984-09-25 1984-09-25 Device for recognizing positions of vehicle driver's eyes

Country Status (1)

Country Link
JP (1) JPS6177703A (en)

Similar Documents

Publication Publication Date Title
JP5592441B2 (en) Light distribution control device
US8538044B2 (en) Line-of-sight direction determination device and line-of-sight direction determination method
JP6036065B2 (en) Gaze position detection device and gaze position detection method
EP2288287B1 (en) Driver imaging apparatus and driver imaging method
EP3070641B1 (en) Vehicle body with imaging system and object detection method
JP3228086B2 (en) Driving operation assist device
US20160063334A1 (en) In-vehicle imaging device
JP2005323180A (en) Image pickup control device and program
CN107960989B (en) Pulse wave measurement device and pulse wave measurement method
JP2008135856A (en) Body recognizing device
JP2016169001A (en) Imaging system, image processing system, movable body control system, movable body device, projection device, object detection method, and object detection program
JP2016170163A (en) Imaging system, image processing system, mobile object control system, mobile object device, projection device, object detection method and object detection program
JPS6166906A (en) Recognizing device for vehicle driver position
JP4701961B2 (en) Pedestrian detection device
JPS6166905A (en) Position of vehicle driver recognizing device
JPS6177703A (en) Device for recognizing positions of vehicle driver's eyes
JP5004099B2 (en) Cursor movement control method and cursor movement control apparatus
US11375134B2 (en) Vehicle monitoring system
JPS6141903A (en) Recognizing device for position of eye of vehicle driver
CN111971527B (en) Image pickup apparatus
JPS6199803A (en) Recognizing device for vehicle driver's position
JP3201037B2 (en) Driver photography device
JPS6177705A (en) Device for recognizing position of vehicle driver's eyes
JPS6184509A (en) Identifying device for vehicle driver
JPS6168502A (en) Vehicle operator position recognition equipment