JP2002352400A - Face image processor - Google Patents

Face image processor

Info

Publication number
JP2002352400A
JP2002352400A JP2001156376A JP2001156376A JP2002352400A JP 2002352400 A JP2002352400 A JP 2002352400A JP 2001156376 A JP2001156376 A JP 2001156376A JP 2001156376 A JP2001156376 A JP 2001156376A JP 2002352400 A JP2002352400 A JP 2002352400A
Authority
JP
Japan
Prior art keywords
driver
vehicle
face
control unit
nose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001156376A
Other languages
Japanese (ja)
Inventor
Michinori Ando
道則 安藤
Takero Hongo
武朗 本郷
Shinichi Kojima
真一 小島
Yuji Uchiyama
祐司 内山
Nobumasa Shiraki
伸征 白木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2001156376A priority Critical patent/JP2002352400A/en
Publication of JP2002352400A publication Critical patent/JP2002352400A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To detect a driver's face parts and to store the positions of the face parts used as the reference of the angle of the driver's face. SOLUTION: A control part 50 detects the positions of the driver's nose and eyes based on an image generated by a CCD image sensor. When a vehicle- to-vehicle distance is a prescribed threshold or less and a steering angle is a prescribed threshold or less, the control part 50 compares the present positions of the nose and eyes with the first positions of the nose and eyes and counts the number of times when the difference is within a prescribed range. When the count value reaches the prescribed number of times, the first positions of the nose and eyes are made reference positions and written in a face part position memory 40.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、顔画像処理装置に
係り、特に、車両運転者の居眠りや脇見を検出するのに
用いて好適な顔画像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a face image processing apparatus, and more particularly to a face image processing apparatus suitable for detecting a driver falling asleep or looking aside.

【0002】[0002]

【従来の技術及び発明が解決しようとする課題】特開平
11−195200号公報では、車両走行時の車両状態
に基づき運転者が車両前方を注視している確率が高いか
否かを判断し、その確率が高いときに眼位置を基準位置
として記憶し、車両走行時の眼位置と基準位置との比較
によって運転者の運転状態を検出する運転状態検出装置
(以下「従来技術」という。)が提案されている。
2. Description of the Related Art In Japanese Patent Application Laid-Open No. H11-195200, it is determined whether or not the probability that a driver is gazing at the front of a vehicle is high based on a vehicle state during traveling of the vehicle. When the probability is high, a driving state detection device (hereinafter, referred to as “conventional technology”) that stores the eye position as a reference position and detects the driving state of the driver by comparing the eye position when the vehicle is traveling with the reference position. Proposed.

【0003】従来技術は、具体的には、アクセル又はブ
レーキの踏み込み、加減速度が所定値以上になったと
き、更にこれらの条件に加えて操舵角がほぼ中立の位置
にあるときもドライバが前方を注視する条件としてい
る。そして、これらの条件を満たしてドライバが前方を
注視する確率が高いと判断したときは、このときのドラ
イバの眼の位置を基準位置として記憶している。
In the prior art, specifically, when a driver depresses an accelerator or a brake and acceleration / deceleration exceeds a predetermined value, and in addition to these conditions, even when the steering angle is substantially at a neutral position, the driver can move forward. Is a condition for watching. If it is determined that these conditions are satisfied and the probability that the driver gazes ahead is high, the position of the driver's eyes at this time is stored as the reference position.

【0004】しかし、実際には、アクセル等を踏み込ん
でいる条件と操舵角が中立の位置にある条件を満たして
いる場合であっても、ドライバは前方を注視していない
場合がある。例えば、前方に車両がなく見通しのよい直
線道路を走行している場合、ドライバは他の車両との車
間距離を考慮する必要がないので簡単に脇見をすること
ができ、前方を注視する確率が低くなる。
[0004] However, in practice, even if the condition of depressing the accelerator or the like and the condition that the steering angle is at the neutral position are satisfied, the driver may not be gazing forward. For example, if there is no vehicle ahead and the vehicle is traveling on a straight road with good visibility, the driver does not need to consider the inter-vehicle distance with other vehicles, so he can easily look aside and the probability of gazing ahead is low. Lower.

【0005】したがって、従来技術を用いたとしても、
必ずしもドライバが前方を見ているときの眼の位置を検
出することができず、ドライバの運転状態を正確に検出
することができないという問題があった。
Therefore, even if the prior art is used,
There has been a problem that the position of the eyes when the driver is looking ahead cannot always be detected, and the driving state of the driver cannot be accurately detected.

【0006】本発明は、上述した課題を解決するために
提案されたものであり、運転者の顔部品を検出して運転
者の顔の角度の基準となる顔部品の位置を記憶すること
ができる顔画像処理装置を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been proposed to solve the above-described problem, and it is intended to detect a driver's face part and store the position of the face part as a reference of the driver's face angle. It is an object of the present invention to provide a face image processing apparatus that can perform the processing.

【0007】[0007]

【課題を解決するための手段】請求項1記載の発明は、
運転者の顔を撮像して顔画像を生成する撮像手段と、前
記撮像手段により生成された顔画像に基づいて画像処理
を行って運転者の顔部品を検出する顔部品検出手段と、
車両状態量を検出する車両状態量検出手段と、前記車両
状態量検出手段により検出された車両状態量に基づいて
運転者が前方を向いているか否かを推定する状態推定手
段と、前記状態推定手段によって運転者が前方を向いて
いると推定されたときに、前記顔部品検出手段により検
出された顔部品の位置を記憶する記憶手段と、を備えて
いる。
According to the first aspect of the present invention,
Image capturing means for capturing a driver's face to generate a face image, and face component detecting means for performing image processing based on the face image generated by the image capturing means to detect a driver's face component;
Vehicle state quantity detecting means for detecting a vehicle state quantity; state estimating means for estimating whether or not a driver is facing forward based on the vehicle state quantity detected by the vehicle state quantity detecting means; Storage means for storing the position of the face part detected by the face part detection means when the driver estimates that the driver is facing forward.

【0008】撮像手段は、車両内部に設置されている状
態で、運転者の顔を撮像する。顔部品検出手段は、撮像
手段で生成された顔画像に基づいて、運転者の鼻、眼、
口、眉毛などの顔部品を検出する。ここで、撮像手段
は、斜め前方から光を受けた運転者の顔を撮像するよう
に、又は運転者の顔を斜め前方から撮像するように設置
されるのが好ましい。この理由は、運転者の前方に撮像
手段及び光源とを設置すると、顔部品検出手段によっ
て、運転者の顔部品を正確に検出することが困難な場合
があるからである。
[0008] The imaging means captures an image of the driver's face while being installed inside the vehicle. The face part detecting means is configured to output the driver's nose, eyes,
Detect facial parts such as mouth and eyebrows. Here, it is preferable that the imaging means is installed so as to image the driver's face that has received light obliquely from the front, or to image the driver's face obliquely from the front. The reason for this is that if the imaging unit and the light source are installed in front of the driver, it may be difficult to accurately detect the driver's face component by the face component detection unit.

【0009】車両状態量検出手段は、運転者が運転して
いる車両の車両状態量を検出する。車両状態量は、1つ
のパラメータに限定されるものではなく、2以上のパラ
メータが好ましい。車両状態量を構成するパラメータと
しては、例えば、前方車両との車間距離や相対速度、操
舵角、自車速度、アクセル踏み込み量、ブレーキ踏み込
み量等がある。なお、操舵角の代わりに、横加速度やヨ
ーレートを用いることもできる。
The vehicle state quantity detecting means detects a vehicle state quantity of a vehicle driven by the driver. The vehicle state quantity is not limited to one parameter, and two or more parameters are preferable. The parameters constituting the vehicle state quantity include, for example, the following distance and the relative speed with respect to the preceding vehicle, the steering angle, the own vehicle speed, the accelerator depression amount, the brake depression amount, and the like. Note that a lateral acceleration or a yaw rate can be used instead of the steering angle.

【0010】状態推定手段は、車両状態量に基づいて運
転者が前方を向いているか否かを推定する。ここでは、
車両状態量を構成するパラメータを多く用いるほど、運
転者が前方を向いている状態を高い確率で推定すること
ができる。
The state estimating means estimates whether or not the driver is facing forward based on the vehicle state quantity. here,
The more parameters that make up the vehicle state quantity, the higher the probability that the driver is facing forward can be estimated.

【0011】記憶手段は、状態推定手段によって運転者
が前方を向いていると推定されたときに、顔部品検出手
段により検出された顔部品の位置を記憶する。このよう
にして記憶された顔部品の位置は、運転者の顔が脇見を
しているか、居眠りをしているかを判定するために用い
られる。すなわち、運転者が前方を向いている状態を確
実に検出することができるので、顔の角度を判定するた
めの顔の基準位置を正確に記憶することができる。
The storage unit stores the position of the face part detected by the face part detection unit when the state estimation unit estimates that the driver is facing forward. The position of the face part stored in this way is used to determine whether the driver's face is looking aside or falling asleep. That is, since it is possible to reliably detect the state where the driver is facing forward, it is possible to accurately store the reference position of the face for determining the angle of the face.

【0012】請求項2記載の発明は、前記車両状態量検
出手段は、少なくとも前方車両との車間距離と、操舵角
と、を検出し、前記状態推定手段は、前記車両状態量検
出手段により検出された前方車両との車間距離が所定値
以下、かつ前記車両状態量検出手段により検出された操
舵角が所定値以下のときに、運転者が前方を向いている
と推定することを特徴とする。
According to a second aspect of the present invention, the vehicle state quantity detecting means detects at least an inter-vehicle distance to a preceding vehicle and a steering angle, and the state estimating means detects the vehicle state quantity detecting means. When the detected inter-vehicle distance to the preceding vehicle is equal to or less than a predetermined value and the steering angle detected by the vehicle state quantity detecting means is equal to or less than a predetermined value, it is estimated that the driver is facing forward. .

【0013】車両状態量検出手段は、運転者が前方を向
いているか否かを推定するために、少なくとも前方車両
との車間距離と操舵角とを検出するのが好ましい。そし
て、前方車両との車間距離が所定値以下であり、操舵角
が所定値以下であるかを判定するのは、車両が直線道路
を走行しているときに前方車両との車間距離が短くなっ
たときは、運転者は前方を注視する確率が高いからであ
る。
Preferably, the vehicle state quantity detecting means detects at least the following distance and the steering angle with respect to the preceding vehicle in order to estimate whether or not the driver is facing forward. Then, it is determined whether the inter-vehicle distance to the preceding vehicle is equal to or less than a predetermined value and the steering angle is equal to or less than the predetermined value because the inter-vehicle distance to the preceding vehicle decreases when the vehicle is traveling on a straight road. This is because the driver has a high probability of gaze ahead.

【0014】請求項3記載の発明は、前記車両状態量検
出手段は、アクセル又はブレーキの踏み込み量と、操舵
角と、を検出し、前記状態推定手段は、前記車両状態量
検出手段により検出されたアクセル又はブレーキの踏み
込み量が略ゼロ、かつ前記車両状態量検出手段により検
出された操舵角が所定値以下のときに、運転者が前方を
向いていると推定することを特徴とする。
According to a third aspect of the present invention, the vehicle state amount detecting means detects an accelerator or brake depression amount and a steering angle, and the state estimating means detects the vehicle state amount detecting means. When the depressed amount of the accelerator or the brake is substantially zero and the steering angle detected by the vehicle state amount detecting means is equal to or smaller than a predetermined value, it is estimated that the driver is facing forward.

【0015】アクセルの踏み込み量が略ゼロであり、操
舵角が所定値以下であるかを判定するのは次の理由によ
る。運転者は一般にブレーキを踏む前にはアクセルをオ
フにする確率が高く、車両が直線道路を走行していると
きにアクセルがオフになったときは、運転者は次にブレ
ーキを踏むために前方を注視する確率が高いからであ
る。
The reason why it is determined whether the accelerator depression amount is substantially zero and the steering angle is equal to or smaller than a predetermined value is as follows. Drivers are generally more likely to turn off the accelerator before stepping on the brake, and if the accelerator is turned off while the vehicle is traveling on a straight road, the driver will This is because the probability of gazing at is high.

【0016】ブレーキの踏み込み量が略ゼロであり、操
舵角が所定値以下であるかを判定するのは次の理由によ
る。運転者は、自車両を発進させる場合、ブレーキをオ
フにしてからアクセルを踏み込む。運転者は、前方車両
の発進又は加速を確認してからブレーキをオフにする確
率が高く、このような場合は前方を向くことが非常に多
いからである。
The reason why it is determined whether the brake depression amount is substantially zero and the steering angle is equal to or smaller than a predetermined value is as follows. When starting the own vehicle, the driver turns off the brake and then depresses the accelerator. This is because the driver has a high probability of turning off the brake after confirming the start or acceleration of the vehicle ahead, and in such a case, it is very likely that the driver turns forward.

【0017】[0017]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照しながら詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0018】[第1の実施の形態]第1の実施の形態に
係る顔画像処理装置は、図1に示すように、ドライバに
光を照射する光源11と、ドライバの顔を撮像するCC
Dイメージセンサ12と、前方車両との距離を検出する
車間距離センサ21と、操舵角を検出する操舵角センサ
22と、処理中の動作や測定結果等を表示するCRT
(Cathode Ray Tube)31と、ドライバの顔の各部(以
下「顔部品」という。)の位置を記憶する顔部品位置メ
モリ40と、ドライバの顔部品を検出したり全体の制御
を行う制御部50と、を備えている。
[First Embodiment] As shown in FIG. 1, a face image processing apparatus according to a first embodiment includes a light source 11 for irradiating a driver with light, and a CC for imaging a driver's face.
A D image sensor 12, an inter-vehicle distance sensor 21 for detecting a distance to a preceding vehicle, a steering angle sensor 22 for detecting a steering angle, and a CRT for displaying an operation during processing, a measurement result and the like.
(Cathode Ray Tube) 31, a face part position memory 40 for storing the position of each part of the driver's face (hereinafter referred to as "face parts"), and a control unit 50 for detecting the face parts of the driver and controlling the whole. And

【0019】光源11は、制御部50の制御によって光
を出射し、車両の運転席に座っているドライバの顔に対
して光を照射する。CCDイメージセンサ12は、被写
体であるドライバからの撮像光に応じて撮像画像を生成
し、撮像画像を制御部50に供給する。
The light source 11 emits light under the control of the control unit 50, and emits light to the face of the driver sitting in the driver's seat of the vehicle. The CCD image sensor 12 generates a captured image in accordance with the imaging light from the driver, which is a subject, and supplies the captured image to the control unit 50.

【0020】ここで、CCDイメージセンサ12は、斜
め前方から光を受けたドライバの顔を撮像するように、
又はドライバの顔を斜め前方から撮像するように設置さ
れている。したがって、光源11がドライバの斜め前方
から光を照射するように設置されている場合は、CCD
イメージセンサ12はドライバの真前方や斜め前方等い
ずれの方向に設置されてもよい。また、CCDイメージ
センサ12がドライバの顔を斜め前方から撮像するよう
に設置されている場合は、光源11はいずれの方向から
でもドライバに光を照射してもよい。光源11及びCC
Dイメージセンサ12を上記のように設置する理由は、
ドライバの鼻筋の左側エッジと右側エッジとを異なるよ
うにして、後述する鼻位置検出を容易にするためであ
る。
Here, the CCD image sensor 12 captures the driver's face that has received light obliquely from the front.
Alternatively, it is installed so that the driver's face is imaged from obliquely forward. Therefore, when the light source 11 is installed so as to emit light obliquely from the front of the driver, the CCD
The image sensor 12 may be installed in any direction, such as directly in front of or obliquely in front of the driver. When the CCD image sensor 12 is installed so as to capture the driver's face diagonally from the front, the light source 11 may irradiate the driver with light from any direction. Light source 11 and CC
The reason for installing the D image sensor 12 as described above is as follows.
This is because the left edge and the right edge of the driver's nose line are made different to facilitate the detection of the nose position, which will be described later.

【0021】車間距離センサ21は、例えば光パルスレ
ーダで構成されている。車間距離センサ21は、パルス
状の光を送信すると共に反射光を受光し、送信から受信
までのパルスの往復時間から前方車両までの距離を検出
する。そして、車間距離センサ21は、検出結果を制御
部50に供給する。なお、車間距離センサ21は、電波
レーダを出射して、電波レーダの往復時間に基づいて前
方車両との車間距離を検出するものであってもよく、特
に限定されるものではない。
The inter-vehicle distance sensor 21 is composed of, for example, an optical pulse radar. The inter-vehicle distance sensor 21 transmits pulsed light and receives reflected light, and detects the distance to the vehicle ahead from the round trip time of the pulse from transmission to reception. Then, the following distance sensor 21 supplies the detection result to the control unit 50. The inter-vehicle distance sensor 21 may emit the radio wave radar and detect the inter-vehicle distance to the preceding vehicle based on the round-trip time of the radio wave radar, and is not particularly limited.

【0022】操舵角センサ22は、例えば、ステアリン
グ・メイン・シャフトに取り付けられて回転する図示し
ないスロットディスクと、スロットディスクを挟んで固
定された図示しない2組のLED及びフォトトランジス
タ(フォトインタラプタ)で構成されている。フォトイ
ンタラプタは、ステアリング・メイン・シャフトが回転
すると、スロットディスクによる光の透過/遮断に応じ
て、所定の操舵角毎にパルス信号を生成する。したがっ
て、操舵角センサ22は、ドライバのステアリングに応
じて操舵角を示すパルス信号を生成して、制御部50に
供給する。
The steering angle sensor 22 includes, for example, a slot disk (not shown) attached to the steering main shaft and rotating, and two sets of LEDs and a phototransistor (photo interrupter) (not shown) fixed across the slot disk. It is configured. When the steering main shaft rotates, the photo interrupter generates a pulse signal at each predetermined steering angle in accordance with transmission / blocking of light by the slot disk. Therefore, the steering angle sensor 22 generates a pulse signal indicating the steering angle according to the driver's steering and supplies the pulse signal to the control unit 50.

【0023】CRT31は、制御部50に接続されてお
り、制御部50によって検出されるドライバの2値化さ
れた顔画像を表示したり、制御部50の処理内容や処理
結果を表示する。
The CRT 31 is connected to the control unit 50, and displays a binarized face image of the driver detected by the control unit 50, and displays processing contents and processing results of the control unit 50.

【0024】顔部品位置メモリ40は、例えば不揮発性
RAMで構成されている。制御部50は、ドライバの鼻
及び眼の位置を初期値として顔部品位置メモリ40に書
き込んだり、顔部品位置メモリ40から必要に応じて初
期値を読み出す制御を行う。
The face part position memory 40 is constituted by, for example, a nonvolatile RAM. The control unit 50 performs control to write the positions of the driver's nose and eyes to the face part position memory 40 as initial values, and to read the initial values from the face part position memory 40 as necessary.

【0025】制御部50は、CCDイメージセンサ12
で生成された撮像画像に基づいてドライバの鼻の位置を
検出し、さらに鼻の位置から眼の位置を検出する。ま
た、制御部50は、前方車両との車間距離が近いか否か
を判定するための第1の閾値と、操舵角がほぼ中立位置
にあるか、つまり操舵角が零度近傍にあるかを判定する
ための第2の閾値とを記憶している。さらに、制御部5
0は、鼻の位置の初期値と実際に検出される鼻の位置と
の差の絶対値の最大許容値を示す第3の閾値と、眼の位
置の初期値と検出される眼の位置との差の絶対値の最大
許容値を示す第4の閾値とを記憶している。
The control unit 50 controls the CCD image sensor 12
Then, the position of the driver's nose is detected based on the captured image generated in step (1), and the position of the eye is detected from the position of the nose. Further, the control unit 50 determines a first threshold value for determining whether or not the inter-vehicle distance with the preceding vehicle is short, and determines whether the steering angle is substantially at the neutral position, that is, whether the steering angle is near zero degree. And a second threshold value for performing the operation. Further, the control unit 5
0 is the third threshold value indicating the maximum allowable value of the absolute value of the difference between the initial value of the nose position and the actually detected nose position, the initial value of the eye position, and the detected eye position. And a fourth threshold value indicating the maximum allowable value of the absolute value of the difference.

【0026】また、制御部50は、前方車両との車間距
離及び操舵角が所定の条件を満たしているときに、鼻及
び眼の位置を検出した回数をカウントするカウンタ機能
を備えている。
The control unit 50 has a counter function for counting the number of times the positions of the nose and eyes are detected when the inter-vehicle distance to the preceding vehicle and the steering angle satisfy predetermined conditions.

【0027】以上のように構成された顔画像処理装置で
は、制御部50は、顔部品の基準となる位置を記憶する
ために、図2に示すステップST1以下の処理を実行す
る。
In the face image processing apparatus configured as described above, the control unit 50 executes the processing from step ST1 shown in FIG. 2 to store the reference position of the face part.

【0028】ステップST1では、制御部50は、ドラ
イバの顔画像を取り込むべく、CCDイメージセンサ1
2を駆動させてドライバの顔画像を生成させる。そし
て、制御部50は、CCDイメージセンサ12によって
生成された顔画像を記憶して、ステップST2に移行す
る。
In step ST1, the control unit 50 controls the CCD image sensor 1 to capture the driver's face image.
2 to generate a driver's face image. Then, the control unit 50 stores the face image generated by the CCD image sensor 12, and proceeds to step ST2.

【0029】ステップST2では、制御部50は、メモ
リに記憶されたドライバの顔画像に基づいて、ドライバ
の鼻の位置を検出する。具体的には、制御部50は、顔
画像から顔の領域を抽出し、抽出された顔の領域から各
々異なるしきい値を用いて左側エッジと右側エッジとを
抽出し、抽出した左側エッジ及び右側エッジに基づいた
領域を鼻筋の候補として抽出する。
In step ST2, the control unit 50 detects the position of the driver's nose based on the driver's face image stored in the memory. Specifically, the control unit 50 extracts a face area from the face image, extracts a left edge and a right edge from the extracted face area using different thresholds, and extracts the extracted left edge and right edge. A region based on the right edge is extracted as a candidate for a nose ridge.

【0030】制御部50は、抽出された鼻筋の候補か
ら、例えば候補領域の縦の長さに関する条件を用いて最
も確からしい候補を鼻筋として選択し、条件を満足しな
い場合は、鼻筋を検出することができないものとする。
候補領域の縦の長さに関する条件を用いて抽出する場合
には、適当なしきい値より長い候補を選択し、選択した
候補の中から長さの最も長いものを鼻筋として選択すれ
ばよい。制御部50は、以上のように鼻筋を検出する
と、鼻筋を構成する各画素の座標位置を記憶して、ステ
ップST3に移行する。なお、制御部50は、最初に検
出した鼻の座標位置については鼻の位置の初期値として
記憶する。
The control unit 50 selects the most probable candidate from the extracted candidates for the nose line as a nose line using, for example, a condition relating to the vertical length of the candidate region. If the condition is not satisfied, the control unit 50 detects the nose line. Shall not be able to do so.
When extracting using the condition regarding the vertical length of the candidate area, a candidate longer than an appropriate threshold value may be selected, and the longest one from the selected candidates may be selected as a nose line. When the control unit 50 detects the nose muscle as described above, the control unit 50 stores the coordinate position of each pixel constituting the nose muscle, and proceeds to step ST3. The control unit 50 stores the coordinate position of the nose detected first as an initial value of the nose position.

【0031】ステップST3では、制御部50は、ステ
ップST2で検出した鼻の位置に基づいて眼の位置を検
出する。具体的には、制御部50は、検出された鼻筋を
線分と仮定し、鼻筋の中点から眼の存在領域を推定す
る。そして、眼の存在領域に基づいて眼の位置を検出
し、眼の位置を構成する各画素の座標を記憶して、ステ
ップST4に移行する。なお、制御部50は、最初に検
出した眼の座標位置については眼の位置の初期値として
記憶する。
In step ST3, the control unit 50 detects the position of the eye based on the position of the nose detected in step ST2. Specifically, the control unit 50 assumes the detected nose muscle as a line segment, and estimates the eye existence region from the midpoint of the nose muscle. Then, the position of the eye is detected based on the region in which the eye is present, the coordinates of each pixel constituting the position of the eye are stored, and the process proceeds to step ST4. The control unit 50 stores the coordinate position of the eye detected first as the initial value of the eye position.

【0032】ステップST4では、制御部50は、車間
距離センサ21によって検出される前方車両との車間距
離と、予め定められた第1の閾値とを比較し、前方車両
との車間距離が第1の閾値以下のときはステップST5
に移行し、前方車両との車間距離が第1の閾値以下でな
いときはステップST1に戻る。
In step ST4, the control unit 50 compares the inter-vehicle distance with the preceding vehicle detected by the inter-vehicle distance sensor 21 with a first predetermined threshold value. If not more than the threshold value of step ST5
When the inter-vehicle distance to the preceding vehicle is not less than or equal to the first threshold, the process returns to step ST1.

【0033】前方車両との車間距離を検出するのは、前
方車両との車間距離が第1の閾値以下の場合には、ドラ
イバは前方車両に注意を払う必要があり、必然的にドラ
イバが前方を注視する確率が高いからである。
The detection of the inter-vehicle distance with respect to the preceding vehicle is performed when the inter-vehicle distance with respect to the preceding vehicle is equal to or less than the first threshold value, and the driver needs to pay attention to the preceding vehicle. This is because the probability of gazing at is high.

【0034】ステップST5では、制御部50は、操舵
角センサ22によって検出される操舵角と、予め定めら
れた第2の閾値とを比較する。そして、現在の操舵角が
第2の閾値以下のとき、すなわち現在の操舵角が零度近
傍にあるときはステップST6に移行し、現在の操舵角
が第2の閾値以下でないときはステップST1に戻る。
In step ST5, the control unit 50 compares the steering angle detected by the steering angle sensor 22 with a second predetermined threshold value. When the current steering angle is equal to or smaller than the second threshold, that is, when the current steering angle is near zero degree, the process proceeds to step ST6, and when the current steering angle is not equal to or smaller than the second threshold, the process returns to step ST1. .

【0035】ステップST6では、制御部50は、鼻の
位置の初期値と現在検出された鼻の位置との差の絶対値
εnを算出し、絶対値εnが第3の閾値以下であるかを判
定する。さらに、制御部50は、眼の位置の初期値と現
在検出された眼の位置との差の絶対値εeを算出し、絶
対値εeが第4の閾値以下であるかを判定する。制御部
50は、絶対値εnが第3の閾値以下であり、かつ絶対
値εeも第4の閾値以下であるときはステップST7に
移行し、絶対値εe、絶対値εnのいずれかがそれぞれに
対応する閾値以下でないときはステップST1に戻る。
In step ST6, the control unit 50 calculates the absolute value ε n of the difference between the initial value of the nose position and the currently detected nose position, and the absolute value ε n is equal to or smaller than the third threshold value. Is determined. Further, the control unit 50 calculates the absolute value ε e of the difference between the initial value of the eye position and the currently detected eye position, and determines whether the absolute value ε e is equal to or less than a fourth threshold. When the absolute value ε n is equal to or less than the third threshold value and the absolute value ε e is also equal to or less than the fourth threshold value, the control unit 50 proceeds to step ST7, and selects one of the absolute value ε e and the absolute value ε n If it is not less than the corresponding threshold value, the process returns to step ST1.

【0036】ステップST7では、制御部50は、ステ
ップST6からステップST7に移行した回数、すなわ
ち、絶対値εnが第3の閾値以下であり、かつ絶対値εe
も第4の閾値以下であるときの回数をカウントする。こ
こでは、絶対値εn及び絶対値εeがそれぞれに対応する
閾値以下になっている状態が時間的に連続していること
を条件とする。したがって、制御部50は、1回でも絶
対値εn、絶対値εeのいずれかがそれぞれに対応する閾
値以下でなかったときは、カウント値をリセットして、
ゼロからカウントを開始する。制御部50は、カウント
値が所定回数を超えたときはステップST8に移行し、
カウント値が所定回数を超えていないときはステップS
T1に戻る。
In step ST7, the control unit 50 sets the number of times the process has shifted from step ST6 to step ST7, that is, the absolute value ε n is equal to or smaller than the third threshold value and the absolute value ε e
Is also counted when it is less than or equal to the fourth threshold value. Here, it is assumed that the state in which the absolute value ε n and the absolute value ε e are equal to or smaller than the corresponding threshold values is temporally continuous. Therefore, the control unit 50 resets the count value when any one of the absolute value ε n and the absolute value ε e is not smaller than the corresponding threshold value even once.
Start counting from zero. When the count value has exceeded the predetermined number, the control unit 50 proceeds to step ST8,
If the count value does not exceed the predetermined number, step S
Return to T1.

【0037】ステップST8では、制御部50は、鼻及
び眼の位置の初期値を基準位置として顔部品位置メモリ
40に記憶して、処理を終了する。なお、制御部50
は、鼻及び眼の位置の初期値でなく、絶対値εn及び絶
対値εeがそれぞれに対応する所定の閾値以下になった
ときの鼻及び眼の位置の平均値を基準値として顔部品位
置メモリ40に記憶してもよい。
In step ST8, the control unit 50 stores the initial values of the positions of the nose and eyes in the face part position memory 40 as reference positions, and ends the processing. The control unit 50
Is not an initial value of the position of the nose and eyes, facial part the average value of the position of the nose and the eye when the absolute value epsilon n and the absolute value epsilon e is equal to or less than a predetermined threshold corresponding to each as a reference value It may be stored in the position memory 40.

【0038】また、制御部50は、前方車両との車間距
離が減少しているか否かを判定することで、さらに高い
確率でドライバが前方を向いている状態を推定すること
ができる。このとき、制御部50は、具体的には図3に
示すように、上述したステップST4及びステップST
5の処理の間に、ステップST9の処理を実行すればよ
い。
Further, the control unit 50 can estimate the state in which the driver is facing forward with a higher probability by determining whether or not the inter-vehicle distance to the vehicle ahead is reduced. At this time, specifically, as shown in FIG.
During the process of step 5, the process of step ST9 may be performed.

【0039】ステップST9では、制御部50は、前方
車両との車間距離の減少する割合が第5の閾値以上であ
るかを判定する。ここでは、制御部50は、前方車両と
の車間距離の減少する割合と等価なパラメータとして、
前方車両との車間距離を時間微分して求められる前方車
両との相対速度を用いる。そして、制御部50は、前方
車両との相対速度が第5の閾値以上であるかを判定し、
第5の閾値以上であるときはステップST5に移行し、
第5の閾値以上でないときはステップST1に戻る。そ
して、制御部50は、図2と同様にしてステップST5
以降の処理を実行する。
In step ST9, the control unit 50 determines whether or not the rate of decrease in the inter-vehicle distance with the preceding vehicle is equal to or greater than a fifth threshold value. Here, the control unit 50 sets the parameter equivalent to the rate of decrease in the inter-vehicle distance to the vehicle in front as:
The relative speed with respect to the preceding vehicle obtained by differentiating the inter-vehicle distance with the preceding vehicle with respect to time is used. Then, the control unit 50 determines whether the relative speed with respect to the preceding vehicle is equal to or more than a fifth threshold value,
If it is equal to or greater than the fifth threshold, the process proceeds to step ST5,
If not, the process returns to step ST1. Then, the control unit 50 proceeds to step ST5 in the same manner as in FIG.
Execute the following processing.

【0040】前方車両との車間距離の減少する割合が第
5の閾値以上であるかを判定する理由は、前方車両との
車間距離の減少する割合が第5の閾値以上のときは前方
車両と急速に接近しているので、ドライバはブレーキを
踏まなければならず、このような場合ドライバは必然的
に前方を注視する確率が高いからである。
The reason for determining whether the rate of decrease in the inter-vehicle distance with the preceding vehicle is equal to or greater than the fifth threshold value is as follows. Because of the rapid approach, the driver must step on the brakes, and in such a case the driver is necessarily more likely to look ahead.

【0041】以上のように、第1の実施の形態に係る顔
画像処理装置は、前方車両との車間距離が第1の閾値以
下であって、かつ操舵角が第2の閾値以下の場合には、
ドライバは前方を見ていると推定して、このときのドラ
イバの鼻及び眼の位置を記憶する。これにより、顔画像
処理装置は、顔画像の鼻や目の正確な基準位置を記憶す
ることができるので、基準位置を用いてドライバが脇見
をしているか居眠りをしているかを判定することができ
る。
As described above, the face image processing apparatus according to the first embodiment can be used when the inter-vehicle distance to the vehicle in front is equal to or smaller than the first threshold and the steering angle is equal to or smaller than the second threshold. Is
The driver estimates that he is looking ahead, and stores the positions of the driver's nose and eyes at this time. With this, the face image processing apparatus can store the exact reference position of the nose and eyes of the face image, and therefore can use the reference position to determine whether the driver is looking aside or falling asleep. it can.

【0042】また、顔画像処理装置は、車間距離判定及
び操舵角判定の他に車間距離減少割合判定を追加するこ
とによって、さらに高い確率でドライバが前方を向いて
いる状態を推定して、このときの顔部品の位置を基準位
置として記憶することができる。
Further, the face image processing apparatus estimates the state in which the driver is facing forward with a higher probability by adding the inter-vehicle distance reduction ratio judgment in addition to the inter-vehicle distance judgment and the steering angle judgment. The position of the face part at that time can be stored as the reference position.

【0043】[第2の実施の形態]つぎに、本発明の第
2の実施の形態について説明する。なお、第1の実施の
形態と同一の部位については同一の符号を付し、その詳
細な説明は省略する。
[Second Embodiment] Next, a second embodiment of the present invention will be described. The same parts as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof will be omitted.

【0044】第2の実施の形態に係る顔画像処理装置
は、図4に示すように、第1の実施の形態に係る顔画像
処理装置の構成に加えて、車輪が回転したときの車輪速
を検出する車輪速センサ23を備えている。なお、車輪
速センサ23は車両の各車輪に対応してそれぞれ設けら
れているが、図4では代表して1つの車輪速センサ23
を示している。また、制御部50は、車間距離の増大す
る割合が大きいかを判定するための第6の閾値と、車両
が停止しているかを判定するための第7の閾値とを記憶
している。
As shown in FIG. 4, the face image processing apparatus according to the second embodiment has the same structure as the face image processing apparatus according to the first embodiment, but also includes a wheel speed when the wheel rotates. Is provided. Although the wheel speed sensors 23 are provided corresponding to the respective wheels of the vehicle, one wheel speed sensor 23 is representatively shown in FIG.
Is shown. The control unit 50 stores a sixth threshold for determining whether the rate of increase in the inter-vehicle distance is large and a seventh threshold for determining whether the vehicle is stopped.

【0045】以上のように構成された顔画像処理装置に
おいて、制御部50は、顔部品の基準となる位置を記憶
するために、図5に示すステップST11からステップ
ST20までの処理を実行する。なお、ステップST1
1からステップST13では、制御部50は、第1の実
施の形態で説明したステップST1からステップST3
と同様の処理を行う。
In the face image processing apparatus configured as described above, the control unit 50 executes the processing from step ST11 to step ST20 shown in FIG. 5 in order to store the reference position of the face part. Step ST1
In steps 1 to ST13, the control unit 50 executes steps ST1 to ST3 described in the first embodiment.
The same processing is performed.

【0046】ステップST14では、制御部50は、車
間距離センサ21によって検出される前方車両との車間
距離と、予め定められた第1の閾値とを比較し、前方車
両との車間距離が第1の閾値以下のときはステップST
15に移行し、前方車両との車間距離が第1の閾値以下
でないときはステップST11に戻る。
In step ST14, the control unit 50 compares the inter-vehicle distance with the preceding vehicle detected by the inter-vehicle distance sensor 21 with a first predetermined threshold value. If it is equal to or less than the threshold value of step ST
The process proceeds to 15, and if the inter-vehicle distance to the preceding vehicle is not equal to or less than the first threshold, the process returns to step ST11.

【0047】ステップST15では、制御部50は、前
方車両との車間距離の増大する割合が第6の閾値以上で
あるかを判定する。ここでは、制御部50は、前方車両
との車間距離の増大する割合と等価なパラメータとし
て、前方車両との車間距離を時間微分して求められる前
方車両との相対速度を用いる。そして、制御部50は、
前方車両との相対速度が第6の閾値以上であるかを判定
し、第6の閾値以下であるときは前方車両と急速に離れ
ているものとしてステップST16に移行し、第6の閾
値以下でないときは前方車両と急速に離れているのでは
ないので、ステップST1に戻る。
In step ST15, the control unit 50 determines whether the rate of increase in the inter-vehicle distance with respect to the preceding vehicle is equal to or greater than a sixth threshold. Here, the control unit 50 uses a relative speed with respect to the preceding vehicle obtained by time-differentiating the following distance with respect to the preceding vehicle as a parameter equivalent to a rate at which the following distance increases with respect to the preceding vehicle. Then, the control unit 50
It is determined whether the relative speed with respect to the preceding vehicle is equal to or greater than the sixth threshold. If the relative speed is equal to or less than the sixth threshold, the process proceeds to step ST16 assuming that the vehicle is rapidly separated from the preceding vehicle. At this time, the vehicle is not rapidly separated from the preceding vehicle, and the process returns to step ST1.

【0048】このように、前方車両との車間距離が第1
の閾値以下であり、かつ、車間距離の増大する割合が第
6の閾値以上であるかを判定するのは、次の理由によ
る。
As described above, the distance between the vehicle and the preceding vehicle is the first.
Is determined to be equal to or less than the threshold value and the rate at which the inter-vehicle distance increases is equal to or greater than the sixth threshold value for the following reason.

【0049】前方車両が停止しており、自車両も前方車
両から一定距離を隔てて停止している状態において、前
方車両が発進すると、ドライバは自車両も発進させるた
めに前方に注意を払う必要がある。すなわち、この場
合、ドライバは、非常に高い確率で前方を注視する。そ
こで、制御部50は、この状態を検出するために、前方
車両との車間距離が第1の閾値以下であり、かつ、車間
距離の増大する割合が第6の閾値以上である状態を検出
している。
When the preceding vehicle starts moving in a state where the preceding vehicle is stopped and the own vehicle is stopped at a certain distance from the preceding vehicle, the driver needs to pay attention to the front in order to start the own vehicle as well. There is. That is, in this case, the driver gazes ahead with a very high probability. Therefore, the control unit 50 detects a state in which the inter-vehicle distance to the vehicle in front is equal to or less than the first threshold value and the rate of increase in the inter-vehicle distance is equal to or more than the sixth threshold value in order to detect this state. ing.

【0050】ステップST16では、制御部50は、車
輪速センサ23によって検出される現在の車輪速(自車
速度)が第7の閾値以上であるかを判定し、現在の車輪
速が第7の閾値以上であるときはステップST17に移
行し、現在の車輪速が第7の閾値以上でないときはステ
ップST11に戻る。ここでは、制御部50は、ステッ
プST16の処理を行うことで自車両が停止している状
態を除外している。
In step ST16, the controller 50 determines whether or not the current wheel speed (own vehicle speed) detected by the wheel speed sensor 23 is equal to or higher than a seventh threshold value. When the current wheel speed is not higher than the seventh threshold, the process returns to step ST11. Here, the control unit 50 excludes a state in which the own vehicle is stopped by performing the process of step ST16.

【0051】自車両が停止している場合を除外する理由
は、前方車両が発進しても自車両が発進しない場合は、
ドライバが前方を注視しておらず脇見をしている可能性
が高いことから、このような状態を除外するためであ
る。
The reason for excluding the case where the own vehicle is stopped is that if the own vehicle does not start even if the preceding vehicle starts,
This is because such a state is excluded because the driver is not likely to look ahead and is likely to look aside.

【0052】制御部50は、ステップST17からステ
ップST19の各処理については、第1の実施の形態に
おいけるステップST5からステップST7の各処理と
同様に行う。なお、ステップST19では、制御部50
は、カウント値が所定回数を超えていないときはステッ
プST11に戻る。
The control unit 50 performs each process from step ST17 to step ST19 in the same manner as each process from step ST5 to step ST7 in the first embodiment. In step ST19, the control unit 50
Returns to step ST11 when the count value does not exceed the predetermined number.

【0053】そして、ステップST20では、制御部5
0は、鼻及び眼の位置の初期値を基準位置として顔部品
位置メモリ40に書き込む。また、制御部50は、絶対
値ε n及び絶対値εeがそれぞれに対応する所定の閾値以
下になったときの鼻及び眼の位置の平均値を、基準位置
として顔部品位置メモリ40に書き込んでもよい。
Then, in step ST20, the control unit 5
0 is a face part using the initial values of the positions of the nose and eyes as reference positions.
Write to position memory 40. In addition, the control unit 50
Value ε nAnd the absolute value εeIs less than the corresponding threshold
The average value of the positions of the nose and eyes when it is down is calculated as the reference position.
May be written in the face part position memory 40.

【0054】以上のように、第2の実施の形態に係る顔
画像処理装置は、前方車両との車間距離が第1の閾値以
下であり、前方車両との車間距離が増大する割合が第6
の閾値以上であり、自車速度がゼロでなく、かつ操舵角
が第2の閾値以下の場合には、ドライバは前方を見てい
ると推定して、このときのドライバの鼻及び眼の位置を
基準位置として記憶する。
As described above, in the face image processing apparatus according to the second embodiment, the inter-vehicle distance to the vehicle in front is less than or equal to the first threshold, and the rate of increase in the inter-vehicle distance to the vehicle in front is the sixth.
If the vehicle speed is not zero and the steering angle is equal to or less than the second threshold, it is estimated that the driver is looking forward, and the positions of the driver's nose and eyes at this time are Is stored as a reference position.

【0055】これにより、顔画像処理装置は、第1の実
施の形態に比べて車間距離増大判定及び自車速度判定を
行っているので、第1の実施の形態よりも高い確率でド
ライバが前方を向いている状態を推定することができ
る。この結果、基準位置となる鼻及び眼の検出位置の精
度をより向上することができる。
As a result, the face image processing apparatus performs the inter-vehicle distance increase judgment and the own vehicle speed judgment as compared with the first embodiment. Can be estimated. As a result, it is possible to further improve the accuracy of the nose and eye detection positions serving as the reference positions.

【0056】なお、本実施の形態では、車輪速と自車速
度は等価であるとして説明したが、各車輪の車輪速に基
づいて正確な自車速度を演算してもよいのは勿論であ
る。
Although the present embodiment has been described assuming that the wheel speed and the own vehicle speed are equivalent, it goes without saying that the exact own vehicle speed may be calculated based on the wheel speed of each wheel. .

【0057】[第3の実施の形態]つぎに、本発明の第
3の実施の形態について説明する。なお、上述した実施
の形態と同一の部位については同一の符号を付し、その
詳細な説明は省略する。
[Third Embodiment] Next, a third embodiment of the present invention will be described. The same parts as those in the above-described embodiment are denoted by the same reference numerals, and detailed description thereof will be omitted.

【0058】第3の実施の形態に係る顔画像処理装置
は、図6に示すように、第1の実施の形態に係る顔画像
処理装置の構成に加えて、前方車両と接近しているとき
に警報を発する警報機32と、所定時間を計時するタイ
マ33とを備えている。
As shown in FIG. 6, the face image processing apparatus according to the third embodiment has the same structure as the face image processing apparatus according to the first embodiment. And a timer 33 for measuring a predetermined time.

【0059】制御部50は、車間距離センサ21により
検出される前方車両との車間距離が第1の閾値以下にな
ったかを判定し、第1の閾値以下になったときはドライ
バに対して警報音を発するように警報機32を制御す
る。また、制御部50は、所定時間の計時を行うときは
タイマ33を用いている。
The control unit 50 determines whether or not the inter-vehicle distance to the vehicle ahead detected by the inter-vehicle distance sensor 21 has become equal to or less than a first threshold value. The alarm 32 is controlled to emit a sound. The control unit 50 uses the timer 33 to measure a predetermined time.

【0060】以上のように構成された顔画像処理装置に
おいて、制御部50は、顔部品の基準となる位置を記憶
するために、図7に示すステップST21からステップ
ST29の処理を実行する。
In the face image processing apparatus configured as described above, the control unit 50 executes the processing from step ST21 to step ST29 shown in FIG. 7 to store the reference position of the face part.

【0061】ステップST21では、制御部50は、警
報機32が警報を発したかを判定し、警報を発するまで
ステップST21に待機し、警報を発したときにステッ
プST22に移行する。
In step ST21, the control unit 50 determines whether the alarm 32 has issued an alarm, waits in step ST21 until an alarm is issued, and shifts to step ST22 when an alarm is issued.

【0062】ステップST22では、制御部50は、警
報機32が警報を発したときにタイマ33に計時を開始
させて、タイマ33の計時に基づいて所定時間を経過し
たかを判定し、所定時間経過するまでステップST22
に待機し、所定時間経過するとステップST23に移行
する。
In step ST22, the control unit 50 causes the timer 33 to start timing when the alarm 32 issues an alarm, and determines whether a predetermined time has elapsed based on the timing of the timer 33. Step ST22 until elapse
Then, when a predetermined time has elapsed, the process proceeds to step ST23.

【0063】警報機32が警報を発した場合、ドライバ
は警報時の状況を確認するために必然的に前方を注視す
る。したがって、警報機32が警報を発してから所定時
間経過後を検出することで、ドライバが前方を注視する
状態を検出することができる。
When the alarm 32 issues an alarm, the driver inevitably looks ahead in order to confirm the situation at the time of the alarm. Therefore, by detecting a predetermined time after the alarm 32 issues an alarm, it is possible to detect a state in which the driver gazes ahead.

【0064】そして、制御部50は、ステップST23
からステップST25までの各処理については、第1の
実施の形態におけるST1からステップST3までの各
処理と同様に行う。さらに、制御部50は、ステップS
T26からステップST28までの各処理については、
第1の実施の形態におけるステップST5からステップ
ST7までの各処理と同様に行う。なお、ステップST
28では、制御部50は、カウント値が所定回数を超え
ていないときはステップST23に戻る。
Then, the control unit 50 determines in step ST23
The processes from to ST25 are performed in the same manner as the processes from ST1 to ST3 in the first embodiment. Further, the control unit 50 determines in step S
About each process from T26 to step ST28,
The processing is performed in the same manner as the processing from step ST5 to step ST7 in the first embodiment. Step ST
At 28, if the count value does not exceed the predetermined number, the control unit 50 returns to step ST23.

【0065】そして、ステップST29では、制御部5
0は、鼻及び眼の位置の初期値を基準位置として顔部品
位置メモリ40に書き込む。また、制御部50は、絶対
値ε n及び絶対値εeがそれぞれに対応する所定の閾値以
下になったときの鼻及び眼の位置の平均値を、基準値と
して顔部品位置メモリ40に記憶してもよい。
Then, in step ST29, the control unit 5
0 is a face part using the initial values of the positions of the nose and eyes as reference positions.
Write to position memory 40. In addition, the control unit 50
Value ε nAnd the absolute value εeIs less than the corresponding threshold
The average value of the position of the nose and eyes when it is down is the reference value
May be stored in the face part position memory 40.

【0066】以上のように、第3の実施の形態に係る顔
画像処理装置は、前方車両との車間距離が短くなったこ
とを示す警報機32が警報音を発してから所定時間経過
し、かつ操舵角が第2の閾値以下の場合には、ドライバ
は前方を見ていると推定して、このときのドライバの鼻
及び眼の位置を基準位置として記憶する。これにより、
顔画像処理装置は、基準位置となる鼻及び眼の検出位置
の精度を従来よりも向上させることができる。
As described above, in the face image processing apparatus according to the third embodiment, a predetermined time has elapsed since the alarm 32 which indicates that the inter-vehicle distance to the preceding vehicle has become short has sounded. If the steering angle is equal to or smaller than the second threshold, the driver estimates that the driver is looking ahead, and stores the positions of the driver's nose and eyes at this time as reference positions. This allows
The face image processing apparatus can improve the accuracy of the detection positions of the nose and the eye, which are the reference positions, as compared with the related art.

【0067】[第4の実施の形態]つぎに、本発明の第
4の実施の形態について説明する。なお、上述した実施
の形態と同一の部位については同一の符号を付し、その
詳細な説明は省略する。
[Fourth Embodiment] Next, a fourth embodiment of the present invention will be described. The same parts as those in the above-described embodiment are denoted by the same reference numerals, and detailed description thereof will be omitted.

【0068】第4の実施の形態に係る顔画像処理装置
は、図8に示すように、第1の実施の形態とほぼ同様に
構成されており、図1に示した車間距離センサ21の代
わりに、アクセル踏み込み量計測部24を備えている。
The face image processing apparatus according to the fourth embodiment has substantially the same configuration as that of the first embodiment, as shown in FIG. 8, and replaces the inter-vehicle distance sensor 21 shown in FIG. In addition, an accelerator depression amount measuring unit 24 is provided.

【0069】アクセル踏み込み量計測部24は、ドライ
バがアクセルをどの程度踏み込んでいるかを検出し、検
出されたアクセル踏み込み量を制御部50に供給する。
The accelerator depression amount measuring unit 24 detects how much the driver depresses the accelerator, and supplies the detected accelerator depression amount to the control unit 50.

【0070】以上のように構成された顔画像処理装置で
は、制御部50は、顔部品の基準となる位置を記憶する
ために、図9に示すステップST31からステップST
38までの処理を実行する。
In the face image processing apparatus configured as described above, the control unit 50 stores the reference positions of the face parts in the steps ST31 to ST31 shown in FIG.
The processing up to 38 is executed.

【0071】ステップST31では、制御部50は、ア
クセル踏み込み量計測部24によってドライバのアクセ
ル踏み込み量を判定し、アクセル踏み込み量がゼロでな
いときはアクセルオフになるまでステップST31に待
機し、アクセル踏み込み量がゼロになるとステップST
32に移行する。
In step ST31, the control unit 50 determines the accelerator depression amount of the driver by the accelerator depression amount measuring unit 24. If the accelerator depression amount is not zero, the control unit 50 waits in step ST31 until the accelerator is turned off. Becomes zero when step ST
Move to 32.

【0072】アクセル踏み込み量がゼロかを判定する理
由は、ドライバはブレーキを踏む前にはアクセルをオフ
にする確率が高いので、アクセルオフのタイミングを検
出することで、ドライバが前方を注視する確率が高い状
態を検出するためである。
The reason why the accelerator depression amount is determined to be zero is that the probability that the driver turns off the accelerator before stepping on the brake is high. This is for detecting a state where is high.

【0073】そして、制御部50は、ステップST32
からステップST34までの各処理については、第1の
実施の形態におけるST1からステップST3までの各
処理と同様に行う。さらに、制御部50は、ステップS
T35からステップST37までの各処理については、
第1の実施の形態におけるステップST5からステップ
ST7までの各処理と同様に行う。なお、ステップST
37では、制御部50は、カウント値が所定回数を超え
ていないときはステップST32に戻る。
Then, the control unit 50 determines in step ST32
The processes from to ST34 are performed in the same manner as the processes from ST1 to ST3 in the first embodiment. Further, the control unit 50 determines in step S
Regarding each process from T35 to step ST37,
The processing is performed in the same manner as the processing from step ST5 to step ST7 in the first embodiment. Step ST
At 37, if the count value does not exceed the predetermined number, the control unit 50 returns to step ST32.

【0074】そして、ステップST38では、制御部5
0は、鼻及び眼の位置の初期値を基準位置として顔部品
位置メモリ40に書き込む。また、制御部50は、絶対
値ε n及び絶対値εeがそれぞれに対応する所定の閾値以
下になったときの鼻及び眼の位置の平均値を、基準値と
して顔部品位置メモリ40に書き込んでもよい。
Then, in step ST38, the control unit 5
0 is a face part using the initial values of the positions of the nose and eyes as reference positions.
Write to position memory 40. In addition, the control unit 50
Value ε nAnd the absolute value εeIs less than the corresponding threshold
The average value of the position of the nose and eyes when it is down is the reference value
May be written to the face part position memory 40.

【0075】以上のように、第4の実施の形態に係る顔
画像処理装置は、アクセル踏み込み量がゼロであり、か
つ操舵角が第2の閾値以下の場合には、ドライバは前方
を見ていると推定して、このときのドライバの鼻及び眼
の位置を基準位置として記憶する。これにより、顔画像
処理装置は、基準位置となる鼻及び眼の検出位置の精度
を従来に比べて向上させることができる。
As described above, in the face image processing apparatus according to the fourth embodiment, when the accelerator depression amount is zero and the steering angle is equal to or smaller than the second threshold, the driver looks forward. The position of the driver's nose and eyes at this time is stored as a reference position. Thereby, the face image processing apparatus can improve the accuracy of the detection positions of the nose and the eyes, which are the reference positions, as compared with the related art.

【0076】なお、顔画像処理装置は、アクセル踏み込
み量計測部24の代わりに、例えば図10に示すよう
に、ブレーキ踏み込み量計測部25を備えてもよい。ブ
レーキ踏み込み量計測部25は、ドライバがブレーキを
どの程度踏み込んでいるかを検出し、検出されたブレー
キ踏み込み量を制御部50に供給する。
The face image processing apparatus may include a brake depression amount measuring unit 25, for example, as shown in FIG. 10, instead of the accelerator depression amount measuring unit 24. The brake depression amount measuring unit 25 detects how much the driver depresses the brake, and supplies the detected brake depression amount to the control unit 50.

【0077】以上のように構成された顔画像処理装置で
は、制御部50は、上述したステップST31の処理に
代えて、図11に示すようにステップST39の処理を
実行する。
In the face image processing apparatus configured as described above, the control unit 50 executes the processing of step ST39 as shown in FIG. 11, instead of the processing of step ST31 described above.

【0078】ステップST39では、制御部50は、ブ
レーキ踏み込み量計測部24によってドライバのブレー
キ踏み込み量を判定し、ブレーキ踏み込み量がゼロでな
いときはブレーキオフになるまでステップST39に待
機し、ブレーキ踏み込み量がゼロになるとステップST
32に移行する。
In step ST39, the control unit 50 determines the amount of depression of the brake by the driver by the brake depression amount measurement unit 24. If the brake depression amount is not zero, the control unit 50 waits in step ST39 until the brake is turned off. Becomes zero when step ST
Move to 32.

【0079】ブレーキ踏み込み量がゼロかを判定する理
由は、自車両が停止状態から発進する場合には、ドライ
バは通常ブレーキをオフにしてからアクセルを踏み込
む。すなわち、ドライバは前方車両の発進又は加速を確
認してからブレーキをオフにする確率が高いので、この
状態を検出することによって、ドライバが前方を注視す
る状態を検出する。
The reason for determining whether or not the brake depression amount is zero is that when the host vehicle starts from a stopped state, the driver normally depresses the brake after depressing the accelerator. That is, since the driver has a high probability of turning off the brake after confirming the start or acceleration of the vehicle ahead, by detecting this state, the state in which the driver gazes ahead is detected.

【0080】以上のように、顔画像処理装置は、ブレー
キ踏み込み量がゼロであり、かつ操舵角が第2の閾値以
下の場合には、ドライバは前方を見ていると推定して、
このときのドライバの鼻及び眼の位置を基準位置として
記憶する。これにより、顔画像処理装置は、基準位置と
なる鼻及び眼の検出位置の精度を従来に比べて向上させ
ることができる。
As described above, the face image processing apparatus estimates that when the brake depression amount is zero and the steering angle is equal to or smaller than the second threshold, the driver is looking forward.
The positions of the driver's nose and eyes at this time are stored as reference positions. Thereby, the face image processing apparatus can improve the accuracy of the detection positions of the nose and the eyes, which are the reference positions, as compared with the related art.

【0081】なお、本発明は、第1から第4の実施の形
態に限定されるものではなく、特許請求の範囲に記載さ
れた発明の範囲内において様々な設計上の変更を行うこ
ともできる。
The present invention is not limited to the first to fourth embodiments, and various design changes can be made within the scope of the invention described in the claims. .

【0082】例えば、制御部50は、図3に示すフロー
チャートによると、車間距離判定、車間距離減少割合判
定、操舵角判定の順番に処理を行ったが、異なる順序で
処理を行ってもよい。すなわち、制御部50は、各実施
の形態における各フローチャートの順番に限定されず、
異なる順番で処理を行ってもよい。
For example, according to the flowchart shown in FIG. 3, the control unit 50 performs the processing in the order of the following distance determination, the determination of the reduction rate of the following distance, and the determination of the steering angle. However, the processing may be performed in a different order. That is, the control unit 50 is not limited to the order of each flowchart in each embodiment,
The processing may be performed in a different order.

【0083】なお、上述した実施の形態では、顔部品と
して鼻及び眼を検出したが、例えば口や眉毛等の顔部品
を検出してもよい。また、鼻及び眼の検出方法は、上述
した実施の形態に限定されるものではなく、他の公知の
手法を用いてもよいのは勿論である。
In the above-described embodiment, the nose and eyes are detected as the face parts, but face parts such as the mouth and eyebrows may be detected. In addition, the method of detecting the nose and eyes is not limited to the above-described embodiment, and it goes without saying that other known methods may be used.

【0084】さらに、制御部50は、コンピュータに上
述した処理を実行するプログラムをインストールするこ
とによって構成してもよい。
Further, the control unit 50 may be configured by installing a program for executing the above-described processing in a computer.

【0085】[0085]

【発明の効果】本発明は、前記車両状態量検出手段によ
り検出された車両状態量に基づいて運転者が前方を向い
ているか否かを推定し、運転者が前方を向いていると推
定したときに検出された顔部品の位置を記憶することに
より、運転者が前方を向いている状態を確実に検出し
て、運転者の顔の角度を判定するための顔部品の基準位
置を正確に記憶することができる。
The present invention estimates whether or not a driver is facing forward based on the vehicle state quantity detected by the vehicle state quantity detecting means, and estimates that the driver is facing forward. By storing the position of the detected face part, the state where the driver is facing forward is reliably detected, and the reference position of the face part for determining the angle of the driver's face is accurately determined. Can be memorized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態に係る顔画像処理装
置の構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a face image processing apparatus according to a first embodiment of the present invention.

【図2】制御部の動作手順を説明するフローチャートで
ある。
FIG. 2 is a flowchart illustrating an operation procedure of a control unit.

【図3】制御部の動作手順を説明するフローチャートで
ある。
FIG. 3 is a flowchart illustrating an operation procedure of a control unit.

【図4】本発明の第2の実施の形態に係る顔画像処理装
置の構成を示すブロック図である。
FIG. 4 is a block diagram illustrating a configuration of a face image processing device according to a second embodiment of the present invention.

【図5】制御部の動作手順を説明するフローチャートで
ある。
FIG. 5 is a flowchart illustrating an operation procedure of a control unit.

【図6】本発明の第3の実施の形態に係る顔画像処理装
置の構成を示すブロック図である。
FIG. 6 is a block diagram showing a configuration of a face image processing device according to a third embodiment of the present invention.

【図7】制御部の動作手順を説明するフローチャートで
ある。
FIG. 7 is a flowchart illustrating an operation procedure of a control unit.

【図8】本発明の第4の実施の形態に係る顔画像処理装
置の構成を示すブロック図である。
FIG. 8 is a block diagram showing a configuration of a face image processing device according to a fourth embodiment of the present invention.

【図9】制御部の動作手順を説明するフローチャートで
ある。
FIG. 9 is a flowchart illustrating an operation procedure of a control unit.

【図10】本発明の第4の実施の形態に係る顔画像処理
装置の他の構成を示すブロック図である。
FIG. 10 is a block diagram showing another configuration of the face image processing apparatus according to the fourth embodiment of the present invention.

【図11】制御部の動作手順を説明するフローチャート
である。
FIG. 11 is a flowchart illustrating an operation procedure of a control unit.

【符号の説明】[Explanation of symbols]

12 CCDイメージセンサ 21 車間距離センサ 22 操舵角センサ 23 車輪速センサ 24 アクセル踏み込み量計測部 25 ブレーキ踏み込み量計測部 40 顔部品位置メモリ 50 制御部 DESCRIPTION OF SYMBOLS 12 CCD image sensor 21 Inter-vehicle distance sensor 22 Steering angle sensor 23 Wheel speed sensor 24 Acceleration depression amount measurement unit 25 Brake depression amount measurement unit 40 Face part position memory 50 Control unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 小島 真一 愛知県愛知郡長久手町大字長湫字横道41番 地の1 株式会社豊田中央研究所内 (72)発明者 内山 祐司 愛知県愛知郡長久手町大字長湫字横道41番 地の1 株式会社豊田中央研究所内 (72)発明者 白木 伸征 愛知県愛知郡長久手町大字長湫字横道41番 地の1 株式会社豊田中央研究所内 Fターム(参考) 3D037 FA05 FA24 FA25 FA26 5H180 AA01 CC04 LL20 5L096 BA02 BA04 CA02 FA06 FA69 JA11  ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Shinichi Kojima 41-Cho, Yokomichi, Nagakute-cho, Aichi-gun, Aichi Prefecture Inside Toyota Central Research Institute Co., Ltd. (72) Inventor Yuji Uchiyama Oji-cho, Nagakute-cho, Aichi County, Aichi Prefecture No. 41, Yokomichi, Toyota Central Research Laboratory Co., Ltd. (72) Inventor Nobuyuki Shiraki, No. 41, Chuchu, Yoji, Nagakute-cho, Aichi-gun, Aichi Prefecture F-term in Toyota Central Research Laboratory Co., Ltd. 3D037 FA05 FA24 FA25 FA26 5H180 AA01 CC04 LL20 5L096 BA02 BA04 CA02 FA06 FA69 JA11

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 運転者の顔を撮像して顔画像を生成する
撮像手段と、 前記撮像手段により生成された顔画像に基づいて画像処
理を行って運転者の顔部品を検出する顔部品検出手段
と、 車両状態量を検出する車両状態量検出手段と、 前記車両状態量検出手段により検出された車両状態量に
基づいて運転者が前方を向いているか否かを推定する状
態推定手段と、 前記状態推定手段によって運転者が前方を向いていると
推定されたときに、前記顔部品検出手段により検出され
た顔部品の位置を記憶する記憶手段と、 を備えた顔画像処理装置。
1. An image pickup means for picking up a driver's face to generate a face image, and a face part detection for performing image processing based on the face image generated by the image pickup means to detect a driver's face part Means, a vehicle state quantity detecting means for detecting a vehicle state quantity, and a state estimating means for estimating whether or not the driver is facing forward based on the vehicle state quantity detected by the vehicle state quantity detecting means, A storage unit for storing a position of the face part detected by the face part detection unit when the state estimation unit estimates that the driver is facing forward;
【請求項2】 前記車両状態量検出手段は、少なくとも
前方車両との車間距離と、操舵角と、を検出し、 前記状態推定手段は、前記車両状態量検出手段により検
出された前方車両との車間距離が所定値以下、かつ前記
車両状態量検出手段により検出された操舵角が所定値以
下のときに、運転者が前方を向いていると推定すること
を特徴とする請求項1記載の顔画像処理装置。
2. The vehicle state quantity detecting means detects at least an inter-vehicle distance to a vehicle ahead and a steering angle, and the state estimating means detects a distance between the vehicle and the preceding vehicle detected by the vehicle state quantity detecting means. 2. The face according to claim 1, wherein when the inter-vehicle distance is equal to or less than a predetermined value and the steering angle detected by the vehicle state quantity detecting means is equal to or less than a predetermined value, it is estimated that the driver is facing forward. Image processing device.
【請求項3】 前記車両状態量検出手段は、アクセル又
はブレーキの踏み込み量と、操舵角と、を検出し、 前記状態推定手段は、前記車両状態量検出手段により検
出されたアクセル又はブレーキの踏み込み量が略ゼロ、
かつ前記車両状態量検出手段により検出された操舵角が
所定値以下のときに、運転者が前方を向いていると推定
することを特徴とする請求項1または2記載の顔画像処
理装置。
3. The vehicle state amount detecting means detects an accelerator or brake depression amount and a steering angle, and the state estimating means detects an accelerator or brake depression detected by the vehicle state amount detecting means. Quantity is almost zero,
3. The face image processing apparatus according to claim 1, wherein when the steering angle detected by the vehicle state quantity detection means is equal to or smaller than a predetermined value, the driver is estimated to be facing forward.
JP2001156376A 2001-05-25 2001-05-25 Face image processor Pending JP2002352400A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001156376A JP2002352400A (en) 2001-05-25 2001-05-25 Face image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001156376A JP2002352400A (en) 2001-05-25 2001-05-25 Face image processor

Publications (1)

Publication Number Publication Date
JP2002352400A true JP2002352400A (en) 2002-12-06

Family

ID=19000390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001156376A Pending JP2002352400A (en) 2001-05-25 2001-05-25 Face image processor

Country Status (1)

Country Link
JP (1) JP2002352400A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004130940A (en) * 2002-10-10 2004-04-30 Nissan Motor Co Ltd Gazing direction detection device
JP2007072774A (en) * 2005-09-07 2007-03-22 Aisin Seiki Co Ltd System for monitoring drivers
CN1332832C (en) * 2004-01-14 2007-08-22 欧姆龙株式会社 In-vehicle camera applications selecting system and apparatus thereof
KR101360412B1 (en) * 2008-09-11 2014-02-27 포항공과대학교 산학협력단 A system for monitoring loose/droway driver using head moving information

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03144899A (en) * 1989-10-31 1991-06-20 Isuzu Motors Ltd Detecting device for vehicle movement
JPH07280592A (en) * 1994-04-08 1995-10-27 Nissan Motor Co Ltd Meter device for vehicle
JPH11195200A (en) * 1997-12-26 1999-07-21 Nissan Motor Co Ltd Operating state detecting device
JP2000006079A (en) * 1998-06-18 2000-01-11 Sankyo Seiki Mfg Co Ltd Arm driver

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03144899A (en) * 1989-10-31 1991-06-20 Isuzu Motors Ltd Detecting device for vehicle movement
JPH07280592A (en) * 1994-04-08 1995-10-27 Nissan Motor Co Ltd Meter device for vehicle
JPH11195200A (en) * 1997-12-26 1999-07-21 Nissan Motor Co Ltd Operating state detecting device
JP2000006079A (en) * 1998-06-18 2000-01-11 Sankyo Seiki Mfg Co Ltd Arm driver

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004130940A (en) * 2002-10-10 2004-04-30 Nissan Motor Co Ltd Gazing direction detection device
CN1332832C (en) * 2004-01-14 2007-08-22 欧姆龙株式会社 In-vehicle camera applications selecting system and apparatus thereof
JP2007072774A (en) * 2005-09-07 2007-03-22 Aisin Seiki Co Ltd System for monitoring drivers
JP4706917B2 (en) * 2005-09-07 2011-06-22 アイシン精機株式会社 Driver monitoring system
KR101360412B1 (en) * 2008-09-11 2014-02-27 포항공과대학교 산학협력단 A system for monitoring loose/droway driver using head moving information

Similar Documents

Publication Publication Date Title
JP6350145B2 (en) Face orientation detection device and vehicle warning system
Raphael et al. Development of a camera-based forward collision alert system
US20100220892A1 (en) Driver imaging apparatus and driver imaging method
JP2007041788A (en) Obstacle determining apparatus and method
JP4812343B2 (en) Driving tendency estimation device and driving support device
JP2010008280A (en) Body detector
JP5358414B2 (en) Fragile state determination device, method and program
JP5262907B2 (en) Vehicle traffic detection device
JP2002040139A (en) Method and device for body recognition, and recording medium
JP4647387B2 (en) Vehicle driving support device
JP2002257934A (en) Road surface condition detector for vehicle and range- finder for vehicle
JP2015207163A (en) State estimation device and state estimation program
US20180284803A1 (en) Ecu, autonomous vehicle including ecu, and method of recognizing nearby vehicle for the same
JP4719996B2 (en) Object detection device
JPH11348696A (en) Traveling path shape estimating device and running supporting device using it
US8447073B2 (en) Process for the automatic longitudinal guidance of a motor vehicle
JP2002352400A (en) Face image processor
JPH09254742A (en) Awakening degree lowering detecting device for vehicle
JP2002331849A (en) Driving behavior intention detector
WO2007029089A1 (en) Vehicle-mounted alarm apparatus and method
JP2004184332A (en) Object recognition apparatus for motor vehicle and apparatus for controlling distance between motor vehicle
JP2007093347A (en) Stopped vehicle determination apparatus, automobile, and stopped vehicle determination method
CN108099906A (en) Collision warning systems and automobile on automobile
JP3838020B2 (en) Obstacle detection device
JP2006168628A (en) Collision prevention supporting method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100427

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100831