JP2009296355A - Facial image processing apparatus - Google Patents

Facial image processing apparatus Download PDF

Info

Publication number
JP2009296355A
JP2009296355A JP2008148297A JP2008148297A JP2009296355A JP 2009296355 A JP2009296355 A JP 2009296355A JP 2008148297 A JP2008148297 A JP 2008148297A JP 2008148297 A JP2008148297 A JP 2008148297A JP 2009296355 A JP2009296355 A JP 2009296355A
Authority
JP
Japan
Prior art keywords
driver
feature
captured image
face
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008148297A
Other languages
Japanese (ja)
Other versions
JP4935762B2 (en
Inventor
Seiki Moriizumi
清貴 森泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008148297A priority Critical patent/JP4935762B2/en
Publication of JP2009296355A publication Critical patent/JP2009296355A/en
Application granted granted Critical
Publication of JP4935762B2 publication Critical patent/JP4935762B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a facial image processing apparatus capable of notifying a driver about the state of the apparatus. <P>SOLUTION: The facial image processing apparatus includes a picked-up image capturing means, a featured portion detecting means and a notification means. The picked-up image capturing means captures a picked-up image from an image-pickup means which images the face of a driver of a vehicle. The featured portion detecting means detects the featured portion of the face which is being imaged in the picked-up image. When the featured portion detecting means of the facial image processing apparatus cannot detect any featured portion, the notification means notifies the driver of the featured portion. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、顔画像処理装置に関し、より特定的には、車両に乗車する運転者の前方から当該運転者を撮像する顔画像処理装置に関する。   The present invention relates to a face image processing apparatus, and more particularly to a face image processing apparatus that captures an image of the driver from the front of the driver who gets on the vehicle.

従来、車両を運転する運転者を撮像し、撮像された画像を用いて当該運転者の状態を監視するシステムが開発されている。例えば、運転者の前方から撮像するカメラが車両のステアリングホイール付近に設置され、当該カメラが撮像した画像を用いて運転者の状態が解析される。   2. Description of the Related Art Conventionally, a system has been developed in which a driver who drives a vehicle is imaged and the state of the driver is monitored using the captured image. For example, a camera that captures images from the front of the driver is installed near the steering wheel of the vehicle, and the state of the driver is analyzed using images captured by the camera.

例えば、運転者を撮像した撮像画像を用いて、運転者の顔の向きを判定する顔状態検出装置が開示されている(例えば、特許文献1参照)。上記特許文献1で開示された顔状態検出装置は、運転者の顔の特徴部の認識回数をカウントし、当該カウント数に基づいて顔の向きを検出するための特徴部を選定する。そして、上記顔状態検出装置は、運転者がサングラスやマスク等の着用物を着用しているために、運転者の顔の特徴部の何れかが検出できなくなった場合、これらの着用物を顔の特徴部候補として認識して、顔向きを検出する。
特開2003−296712号公報
For example, a face state detection device that determines the orientation of a driver's face using a captured image obtained by imaging the driver is disclosed (see, for example, Patent Document 1). The face state detection device disclosed in Patent Document 1 counts the number of times a driver's facial feature is recognized, and selects a feature for detecting the orientation of the face based on the count. When the driver wears wearing items such as sunglasses or a mask, any of the features of the driver's face cannot be detected. Is recognized as a feature part candidate and the face orientation is detected.
JP 2003-296712 A

しかしながら、上記特許文献1で開示された顔状態検出装置では、当該顔状態検出装置が認識していない運転者の顔の特徴部を運転者等へ報知しないため、当該顔状態検出装置が正常に作動しているのか否かについて運転者が把握できない。したがって、上記顔状態検出装置が正常に作動していない状態であっても、運転者が当該装置の作動に頼った運転をするような状態が考えられる。また、運転者は、上記顔状態検出装置が正常に作動しているのか否かについて把握できないため、上記顔状態検出装置を正常に作動させるために運転者自身が取り得る対応策があったとしても、その対応策を認識することができないため、結果的に上記顔状態検出装置が正常に作動していない状態が継続してしまうことになる。   However, in the face state detection device disclosed in Patent Document 1, the face state detection device does not normally notify a driver or the like of a feature portion of the driver's face that is not recognized by the face state detection device. The driver cannot grasp whether or not it is operating. Therefore, even if the face state detection device is not operating normally, a state in which the driver performs driving depending on the operation of the device can be considered. Further, since the driver cannot grasp whether or not the face state detection device is operating normally, there is a countermeasure that the driver himself can take in order to operate the face state detection device normally. However, since the countermeasure cannot be recognized, as a result, the state where the face state detection device is not normally operated continues.

それ故に、本発明の目的は、運転者に装置の状態を適切に報知することができる顔画像処理装置を提供することである。   Therefore, an object of the present invention is to provide a face image processing apparatus that can appropriately notify the driver of the state of the apparatus.

上記のような目的を達成するために、本発明は、以下に示すような特徴を有している。
第1の発明は、撮像画像取得手段、特徴部検出手段、および報知手段を備える顔画像処理装置である。撮像画像取得手段は、車両の運転者の顔を撮像する撮像手段から撮像画像を取得する。特徴部検出手段は、撮像画像に撮像されている当該顔の特徴部を検出する。報知手段は、顔画像処理装置特徴部検出手段が何れかの特徴部を検出できなかった場合、当該特徴部を運転者へ報知する。
In order to achieve the above object, the present invention has the following features.
1st invention is a face image processing apparatus provided with a captured image acquisition means, a characteristic part detection means, and an alerting | reporting means. The captured image acquisition unit acquires the captured image from the imaging unit that captures the face of the driver of the vehicle. The feature detection unit detects the feature of the face captured in the captured image. When the face image processing device feature detection unit cannot detect any feature, the notification unit notifies the driver of the feature.

第2の発明は、上記第1の発明において、報知手段は、特徴部検出手段が検出できなかった特徴部を報知すると共に、当該特徴部を検出できなかった推定原因を運転者へ報知する。   In a second aspect based on the first aspect, the informing means informs the driver of the presumed cause that the feature portion could not be detected, and informs the driver of the feature portion that could not be detected by the feature portion detecting means.

第3の発明は、上記第2の発明において、報知手段は、特徴部検出手段が検出できなかった特徴部および推定原因を運転者へ報知すると共に、運転者が当該推定原因を解消する際の注意事項を運転者へ報知する。   In a third aspect based on the second aspect, the notifying means notifies the driver of the characteristic part and the estimated cause that the characteristic part detecting means could not detect, and also when the driver eliminates the estimated cause. Inform the driver of the precautions.

第4の発明は、上記第2の発明において、推定原因は、撮像手段から見て特徴部を遮ることが想定される着用物を運転者が着用していることである。   In a fourth aspect based on the second aspect, the presumed cause is that the driver is wearing a wear that is supposed to block the feature as viewed from the imaging means.

第5の発明は、上記第2の発明において、記憶手段を、さらに備える。記憶手段は、特徴部毎に検出できない推定原因情報をそれぞれ予め記憶する。報知手段は、特徴部検出手段が何れかの特徴部を検出できなかった場合、当該特徴部に対応して記憶手段に記憶された推定原因情報を、推定原因として運転者へ報知する。   In a fifth aspect based on the second aspect, a storage means is further provided. The storage means stores in advance presumed cause information that cannot be detected for each feature. When the feature detection unit cannot detect any feature, the notification unit notifies the driver of the estimated cause information stored in the storage unit corresponding to the feature as the estimated cause.

第6の発明は、上記第2の発明において、記憶手段を、さらに備える。記憶手段は、特徴部毎に検出できない推定原因情報および当該推定原因を解消する際の注意事項情報をそれぞれ予め記憶する。報知手段は、特徴部検出手段が何れかの特徴部を検出できなかった場合、当該特徴部に対応して記憶手段に記憶された推定原因情報および注意事項情報を、それぞれ推定原因および注意事項として運転者へ報知する。   In a sixth aspect based on the second aspect, a storage means is further provided. The storage unit stores in advance presumed cause information that cannot be detected for each feature and precautionary information for eliminating the presumed cause. The notification means, when the feature detection means cannot detect any feature, the estimated cause information and the caution information stored in the storage means corresponding to the feature as the estimated cause and caution, respectively. Notify the driver.

第7の発明は、上記第1または第2の発明において、撮像画像取得手段は、撮像手段から予め定められた周期毎に撮像画像を取得する。特徴部検出手段は、撮像画像取得手段が撮像画像を取得する毎に当該撮像画像に撮像されている特徴部を検出する。報知手段は、特徴部検出手段が同じ特徴部を第1の時間以上継続して検出できなかった場合、当該特徴部を運転者へ報知する。   In a seventh aspect based on the first or second aspect, the captured image acquisition means acquires captured images from the imaging means at predetermined intervals. The feature detection unit detects the feature captured in the captured image every time the captured image acquisition unit acquires the captured image. The notification means notifies the driver of the feature portion when the feature portion detection means cannot continuously detect the same feature portion for the first time or more.

第8の発明は、上記第1または第2の発明において、撮像画像取得手段は、撮像手段から予め定められた周期毎に撮像画像を取得する。特徴部検出手段は、撮像画像取得手段が撮像画像を取得する毎に当該撮像画像に撮像されている特徴部を検出する。報知手段は、特徴部を運転者へ報知した後、特徴部検出手段が当該特徴部を第2の時間以上さらに継続して検出できなかった場合、運転者へ当該特徴部を報知することを停止する。   In an eighth aspect based on the first or second aspect, the captured image acquisition unit acquires the captured image from the imaging unit at predetermined intervals. The feature detection unit detects the feature captured in the captured image every time the captured image acquisition unit acquires the captured image. The informing means stops informing the driver of the feature section after the feature section has been informed to the driver, and the feature section detection means has not been able to detect the feature section continuously for a second time or longer. To do.

第9の発明は、上記第8の発明において、報知手段は、特徴部を運転者へ報知することを停止した後、顔画像処理装置が正常に作動していないことを示す異常情報を運転者へ報知する。   In a ninth aspect based on the eighth aspect, after the notification means stops notifying the driver of the feature portion, the driver displays abnormality information indicating that the face image processing device is not operating normally. To inform.

第10の発明は、上記第1または第2の発明において、撮像画像取得手段は、撮像手段から予め定められた周期毎に撮像画像を取得する。特徴部検出手段は、撮像画像取得手段が撮像画像を取得する毎に当該撮像画像に撮像されている特徴部を検出する。報知手段は、特徴部を運転者へ報知した後、特徴部検出手段が当該特徴部の検出が可能となった場合、運転者へ当該特徴部を報知することを停止する。   In a tenth aspect based on the first or second aspect, the captured image acquisition means acquires captured images from the imaging means at predetermined intervals. The feature detection unit detects the feature captured in the captured image every time the captured image acquisition unit acquires the captured image. The notifying means stops notifying the driver of the feature portion when the feature portion detecting means is able to detect the feature portion after notifying the driver of the feature portion.

上記第1の発明によれば、撮像画像から運転者の顔の特徴部が検出できなかった場合、当該検出できなかった特徴部を運転者に報知するため、顔画像処理装置の動作状況を運転者が確認することができる。   According to the first aspect of the present invention, when the feature portion of the driver's face cannot be detected from the captured image, the operation state of the face image processing device is driven to notify the driver of the feature portion that could not be detected. Can confirm.

上記第2の発明によれば、撮像画像から運転者の顔の特徴部が検出できなかった場合、その特徴部と共に検出できなかった推定原因が報知されるため、検出できなかった原因を運転者が容易に解消することができる。   According to the second aspect, when the feature portion of the driver's face cannot be detected from the captured image, the estimated cause that cannot be detected together with the feature portion is notified. Can be easily resolved.

上記第3の発明によれば、さらに検出できなかった推定原因を解消する際の注意事項が報知されるため、当該推定原因を解消する際に起こり得る危険な状態を回避することが可能となり、より安全な運転を促すことが可能となる。   According to the third aspect of the invention, since the precautions when eliminating the estimated cause that could not be detected are further notified, it is possible to avoid a dangerous state that may occur when the estimated cause is resolved, It becomes possible to promote safer driving.

上記第4の発明によれば、撮像画像から運転者の顔の特徴部が検出できなかった場合、その特徴部と共に検出できなかった原因が、運転者自身の着用物にあることを知ることができる。   According to the fourth aspect of the present invention, when the feature portion of the driver's face cannot be detected from the captured image, the driver cannot find the cause together with the feature portion because the driver's own clothing is known. it can.

上記第5の発明によれば、予め特徴部毎に推定原因を記憶しておくことによって、容易に特徴部毎の推定原因を報知することができる。   According to the fifth aspect, the cause of estimation for each feature can be easily notified by storing the cause of estimation for each feature.

上記第6の発明によれば、予め特徴部毎に推定原因および当該推定原因を解消する際の注意事項を記憶しておくことによって、容易に特徴部毎の推定原因および当該推定原因を解消する際の注意事項を報知することができる。   According to the sixth aspect of the invention, the estimated cause and the estimated cause for each feature are easily resolved by storing in advance the estimated cause and the precautions for eliminating the estimated cause for each feature. It is possible to notify the precautions.

上記第7の発明によれば、運転者や運転環境によって一時的に生じた特徴部の未検出に対する報知を抑制することができ、当該報知が頻繁に行われることによる運転者の煩わしさを軽減することができる。   According to the seventh aspect, it is possible to suppress notification of undetected feature portions that are temporarily generated by the driver or the driving environment, and to reduce the driver's troublesomeness due to frequent notification. can do.

上記第8の発明によれば、検出できなかった特徴部を報知し続けることによって生じる運転者の煩わしさを軽減することができる。   According to the eighth aspect of the present invention, it is possible to reduce the driver's troublesomeness caused by continuously informing the feature that could not be detected.

上記第9の発明によれば、検出できなかった特徴部を報知し続けることによって生じる運転者の煩わしさを軽減すると共に、異常情報を表示することによってより安全な運転を促すことが可能となる。   According to the ninth aspect, it is possible to alleviate the driver's troublesomeness caused by continuously informing the feature that could not be detected and to promote safer driving by displaying the abnormality information. .

上記第10の発明によれば、撮像画像から特徴部が検出できなかった原因が解消されたとき、当該特徴部に対する報知を停止して通常時の処理に復帰することができる。   According to the tenth aspect of the present invention, when the cause that the feature portion cannot be detected from the captured image is resolved, the notification to the feature portion can be stopped and the normal processing can be resumed.

以下、図1を参照して本発明の一実施形態に係る顔画像処理装置について説明する。なお、本実施形態では、当該顔画像処理装置を含むドライバサポートシステムが車両に搭載される例について説明する。一例として、ドライバサポートシステムは、当該車両を運転する運転者の顔を撮像し、撮像画像に基づいて運転者の状態(顔の向き、眼の開閉度等)を判断して、判断結果に応じた車両の制御を行う。また、上記ドライバサポートシステムは、車両周辺の他の車両や障害物を認知し衝突の危険性を判断して、判断結果に応じた車両の制御も行う。なお、図1は、当該顔画像処理装置を含むドライバサポートシステムの機能構成の一例を示すブロック図である。   Hereinafter, a face image processing apparatus according to an embodiment of the present invention will be described with reference to FIG. In the present embodiment, an example in which a driver support system including the face image processing apparatus is mounted on a vehicle will be described. As an example, the driver support system images the face of the driver driving the vehicle, determines the driver's state (face orientation, eye open / closed degree, etc.) based on the captured image, and responds to the determination result. Control the vehicle. The driver support system also recognizes other vehicles and obstacles around the vehicle, determines the risk of collision, and controls the vehicle according to the determination result. FIG. 1 is a block diagram illustrating an example of a functional configuration of a driver support system including the face image processing apparatus.

図1において、ドライバサポートシステムは、ドライバモニタカメラ1、ドライバモニタECU(Electrical Control Unit)2、ドライバサポートシステムECU3、ミリ波レーダ4、表示部5、オーディオアンプ6、スピーカ61、ブレーキ制御ECU7、警報ブザー71、およびブレーキACT(アクチュエータ)72を備えている。そして、ドライバモニタECU2、ドライバサポートシステムECU3、およびミリ波レーダ4は、互いにCAN(Controller Area Network)1等を介して接続される。また、ドライバサポートシステムECU3、表示部5、オーディオアンプ6、およびブレーキ制御ECU7は、CAN2等を介して接続される。なお、ドライバモニタECU2が本発明の顔画像処理装置の一例に相当する。   In FIG. 1, the driver support system includes a driver monitor camera 1, a driver monitor ECU (Electrical Control Unit) 2, a driver support system ECU 3, a millimeter wave radar 4, a display unit 5, an audio amplifier 6, a speaker 61, a brake control ECU 7, an alarm. A buzzer 71 and a brake ACT (actuator) 72 are provided. The driver monitor ECU 2, the driver support system ECU 3, and the millimeter wave radar 4 are connected to each other via a CAN (Controller Area Network) 1 or the like. The driver support system ECU 3, the display unit 5, the audio amplifier 6, and the brake control ECU 7 are connected via the CAN 2 and the like. The driver monitor ECU 2 corresponds to an example of the face image processing apparatus of the present invention.

ドライバモニタカメラ1は、ドライバモニタECU2から電力が供給されてそれぞれ作動するCCD(Charge Coupled Device)11およびLED(Light Emitting Diode)12を含む。例えば、LED12は、運転者の正面から当該運転者へ向けて近赤外光を照射する照明装置である。この場合、CCD11は、近赤外領域で高い感度特性を有する撮像装置であり、典型的には、近赤外CCDカメラである。このように、近赤外領域で高い感度特性を有するCCD11を用いることにより、夜間やトンネル内等を走行中で車内が暗い状況でも、LED12で照らされた運転者を感度よく撮像することが可能である。なお、CCD11は、運転者の顔を正面から撮像可能な位置に配置される。そして、CCD11は、所定の周期毎に運転者の顔およびその周囲の画像を撮像して、撮像された画像をドライバモニタECU2へ出力する。なお、ドライバモニタカメラ1の設置位置の詳細については、後述する。   The driver monitor camera 1 includes a CCD (Charge Coupled Device) 11 and an LED (Light Emitting Diode) 12 that are operated by power supplied from the driver monitor ECU 2. For example, LED12 is an illuminating device which irradiates near infrared light toward the driver | operator from the driver | operator's front. In this case, the CCD 11 is an imaging device having high sensitivity characteristics in the near infrared region, and is typically a near infrared CCD camera. In this way, by using the CCD 11 having high sensitivity characteristics in the near-infrared region, it is possible to image the driver illuminated by the LED 12 with high sensitivity even when the vehicle is dark at night or in a tunnel. It is. The CCD 11 is disposed at a position where the driver's face can be imaged from the front. Then, the CCD 11 captures an image of the driver's face and its surroundings at predetermined intervals, and outputs the captured image to the driver monitor ECU 2. Details of the installation position of the driver monitor camera 1 will be described later.

ドライバモニタECU2は、その内部に複数のマイクロコンピュータ(以下、マイコンと記載する)等の情報処理装置、処理に用いる各種データを格納するメモリ、ドライバモニタカメラ1に電力を供給する電源回路、およびインターフェース回路などを備える処理装置である。例えば、ドライバモニタECU2は、ドライバモニタカメラ1で撮像された撮像画像を用いて、運転者の顔向きを判断したり、運転者の眼の開閉度を判断したりして、その判断結果をドライバサポートシステムECU3へ出力する。また、ドライバモニタECU2は、運転者の顔向きや眼の開閉度等を判断するために必要な当該運転者の顔の特徴部(例えば、顔全体、鼻孔、瞼等)が撮像画像から検出できない場合、その未検出から生じる装置の状況を告知するための情報をドライバサポートシステムECU3へ出力する。   The driver monitor ECU 2 includes an information processing device such as a plurality of microcomputers (hereinafter referred to as microcomputers), a memory for storing various data used for processing, a power supply circuit for supplying power to the driver monitor camera 1, and an interface. A processing apparatus including a circuit and the like. For example, the driver monitor ECU 2 uses the captured image captured by the driver monitor camera 1 to determine the driver's face orientation, the driver's eye open / closed degree, and the result of the determination. Output to the support system ECU3. Further, the driver monitor ECU 2 cannot detect a characteristic portion of the driver's face (for example, the entire face, nostril, eyelid, etc.) necessary for determining the driver's face orientation, eye open / closed degree, or the like from the captured image. In this case, information for notifying the status of the device resulting from the non-detection is output to the driver support system ECU 3.

ミリ波レーダ4は、車両の前方、後方、斜め前方向等へ向けてミリ波を出射して、対象物から反射した電波を受信する。そして、ミリ波レーダ4は、受信した電波に基づいて、車両の周辺に存在する他の車両や障害物の位置や自車との相対速度等を測定して、その結果をドライバサポートシステムECU3へ出力する。   The millimeter wave radar 4 emits a millimeter wave toward the front, rear, obliquely forward direction, etc. of the vehicle, and receives the radio wave reflected from the object. Then, based on the received radio wave, the millimeter wave radar 4 measures the position of other vehicles and obstacles existing around the vehicle, the relative speed with the own vehicle, and the like, and sends the result to the driver support system ECU 3. Output.

ドライバサポートシステムECU3は、ドライバモニタECU2から出力された運転者の顔向きおよび眼の開閉度等の情報と、ミリ波レーダ4から出力された自車周辺の車両や障害物の認知結果とに基づいて、車両に搭載された乗員保護装置特性を適正に調整したり、衝突条件緩和システムを作動させたり、運転者に適切な警告を与えたりする。また、ドライバサポートシステムECU3は、上記特徴部の未検出から生じる装置の状況を告知するための情報に基づいて、当該情報を運転者へ報知する。図1においては、ドライバサポートシステムECU3が制御する装置の一例として、表示部5、オーディオアンプ6、およびブレーキ制御ECU7が記載されている。   The driver support system ECU 3 is based on information such as the driver's face orientation and eye open / closed degree output from the driver monitor ECU 2, and recognition results of vehicles and obstacles around the vehicle output from the millimeter wave radar 4. Thus, the characteristics of the occupant protection device mounted on the vehicle are appropriately adjusted, the collision condition mitigation system is operated, and an appropriate warning is given to the driver. Further, the driver support system ECU 3 notifies the driver of the information based on the information for notifying the state of the device resulting from the undetected feature portion. In FIG. 1, a display unit 5, an audio amplifier 6, and a brake control ECU 7 are described as examples of devices controlled by the driver support system ECU 3.

表示部5は、車両の運転席に着席して当該車両を運転する運転者から視認可能な位置に設けられる。例えば、表示部5は、運転席前面の計器盤(インスツルメントパネル)に設けられ、ドライバサポートシステムECU3からの指示に応じた警報や情報を運転者に表示する。例えば、運転者が正面を向いていない状態や眼を閉じている状態であると判断され、車両と他の物体との衝突の危険性がある場合、ドライバサポートシステムECU3は、表示部5に運転者に衝突回避操作を促す表示を早期に行う(警報の前出し)。また、表示部5は、上記特徴部の未検出によって装置が正常に作動していない場合、その状況を運転者に告知するための情報の表示を行う。典型的には、表示部5は、主要ないくつかの計器、表示灯、警告灯、および各種情報を表示するマルチインフォメーションディスプレイ等を1つのパネル内に組み合わせて配置したコンビネーションメータで構成される。なお、表示部5は、ハーフミラー(反射ガラス)を運転席前面のフロントガラスの一部に設け、当該ハーフミラーに情報等の虚像を蛍光表示するヘッドアップディスプレイ(Head-Up Display)等、他の表示装置で構成してもかまわない。   The display unit 5 is provided at a position that is visible to a driver who sits in the driver's seat of the vehicle and drives the vehicle. For example, the display unit 5 is provided on an instrument panel (instrument panel) in front of the driver's seat, and displays alarms and information corresponding to instructions from the driver support system ECU 3 to the driver. For example, when it is determined that the driver is not facing the front or eyes are closed and there is a risk of collision between the vehicle and another object, the driver support system ECU 3 displays the driving on the display unit 5. Display prompting the user to avoid collision (early warning). Moreover, the display part 5 displays the information for notifying a driver | operator of the condition, when the apparatus is not operating normally by the non-detection of the said characteristic part. Typically, the display unit 5 is composed of a combination meter in which several main instruments, indicator lights, warning lights, and a multi-information display for displaying various information are combined in one panel. The display unit 5 includes a half-mirror (reflective glass) provided on a part of the windshield in front of the driver's seat, and a head-up display that displays a virtual image such as information on the half-mirror. You may comprise with the display device of.

オーディオアンプ6は、ドライバサポートシステムECU3から出力された音声情報に応じて増幅した音声信号をスピーカ61に出力し、スピーカ61を介して当該音声情報を運転者へ報知する。   The audio amplifier 6 outputs an audio signal amplified according to the audio information output from the driver support system ECU 3 to the speaker 61, and notifies the driver of the audio information via the speaker 61.

ブレーキ制御ECU7は、車両に搭載された警報ブザー71やブレーキACT72の動作を制御する。例えば、運転者が正面を向いていない状態や眼を閉じている状態であると判断され、車両と他の物体との衝突の危険性があるとドライバサポートシステムECU3が判断した場合、ブレーキ制御ECU7は、警報ブザー71を早期に作動させて運転者に衝突回避操作を促す(警報の前出し)。これによって、運転者は、早期に上記脇見等の運転状態を解消して衝突回避操作を行うことができる。また、ブレーキ制御ECU7は、運転者がブレーキペダルを踏んだ力に応じて、ブレーキ油圧を加圧加勢するように、ブレーキACT72の動作を制御する等を行う(警報ブレーキ)。これによって、ブレーキACT72の油圧応答性が向上し、車両の速度低減を図ることができる。   The brake control ECU 7 controls the operation of the alarm buzzer 71 and the brake ACT 72 mounted on the vehicle. For example, if the driver support system ECU 3 determines that the driver is not facing the front or eyes are closed, and the driver support system ECU 3 determines that there is a risk of a collision between the vehicle and another object, the brake control ECU 7 Activates the alarm buzzer 71 at an early stage and prompts the driver to perform a collision avoidance operation (pre-warning of the alarm). As a result, the driver can quickly perform the collision avoidance operation by canceling the driving state such as the side look. The brake control ECU 7 controls the operation of the brake ACT 72 so as to pressurize and apply the brake hydraulic pressure in accordance with the force with which the driver steps on the brake pedal (alarm brake). As a result, the hydraulic response of the brake ACT 72 is improved, and the speed of the vehicle can be reduced.

次に、図2および図3を参照して、ドライバモニタカメラ1について説明する。なお、図2は、車両に設置されたドライバモニタカメラ1を運転席の横方向から見た一例を示す側面概要図である。図3は、車両に設置されたドライバモニタカメラ1をステアリングホイール91側から見た一例を示す正面概要図である。   Next, the driver monitor camera 1 will be described with reference to FIGS. FIG. 2 is a schematic side view showing an example of the driver monitor camera 1 installed in the vehicle as viewed from the side of the driver's seat. FIG. 3 is a schematic front view showing an example of the driver monitor camera 1 installed in the vehicle as viewed from the steering wheel 91 side.

図2および図3において、ドライバモニタカメラ1は、ステアリングコラム92の上面に設置される。そして、ドライバモニタカメラ1は、ステアリングホイール91の開口部(例えば、リム911の内側でスポーク912等が設けられていない開口部)を通って、ステアリングホイール91を操作する運転者の正面から当該運転者の顔を撮像するように撮像方向が調整される。なお、図2においては、ドライバモニタカメラ1の視野を示す視体積の一部(カメラ画角の一部)が破線で記載されており、運転手の頭部が当該視体積内に含まれるようにドライバモニタカメラ1の撮像方向が調整される。ここで、上述したようにドライバモニタカメラ1にはLED12が設けられているが、LED12も上記撮像方向と同様に、運転者の正面から当該運転者へ向けて近赤外光を照射する。なお、LED12が近赤外光は、少なくともドライバモニタカメラ1のカメラ画角より広い範囲に照射される。このように、ドライバモニタカメラ1は、ステアリングコラム92上に設置されるため、運転者の正面となる至近距離から当該運転者を撮像することができ、車両に乗車した運転者の顔を精度よく撮像することが可能となる。   2 and 3, the driver monitor camera 1 is installed on the upper surface of the steering column 92. Then, the driver monitor camera 1 passes through the opening of the steering wheel 91 (for example, an opening in which the spokes 912 and the like are not provided inside the rim 911), and performs the driving from the front of the driver who operates the steering wheel 91. The imaging direction is adjusted so as to image the person's face. In FIG. 2, a part of the viewing volume (part of the camera angle of view) indicating the visual field of the driver monitor camera 1 is indicated by a broken line, and the driver's head is included in the viewing volume. In addition, the imaging direction of the driver monitor camera 1 is adjusted. Here, as described above, the driver monitor camera 1 is provided with the LED 12, but the LED 12 also emits near-infrared light from the front of the driver toward the driver, similarly to the imaging direction. The LED 12 emits near-infrared light in a range wider than at least the camera angle of view of the driver monitor camera 1. As described above, since the driver monitor camera 1 is installed on the steering column 92, the driver monitor camera 1 can take an image of the driver from a very close distance in front of the driver, and the driver's face on the vehicle can be accurately captured. Imaging can be performed.

次に、ドライバモニタECU2の具体的な動作を説明する前に、図4を参照して当該動作で用いられる主なデータの一例について説明する。なお、図4は、ドライバモニタECU2のメモリに記憶される主なデータの一例を示す図である。   Next, before describing a specific operation of the driver monitor ECU 2, an example of main data used in the operation will be described with reference to FIG. FIG. 4 is a diagram illustrating an example of main data stored in the memory of the driver monitor ECU 2.

図4において、ドライバモニタECU2のメモリには、撮像画像データDa、顔未検出フラグDb、鼻孔未検出フラグDc、瞼未検出フラグDd、告知表示フラグDe、顔未検出カウントデータDf、鼻孔未検出カウントデータDg、瞼未検出カウントデータDh、告知表示カウントデータDi、眼の開閉度データDj、告知情報データDk、および異常情報データDl等が記憶される。   In FIG. 4, in the memory of the driver monitor ECU 2, captured image data Da, face undetected flag Db, nostril undetected flag Dc, wrinkle undetected flag Dd, notification display flag De, face undetected count data Df, nostril undetected Count data Dg, wrinkle detection count data Dh, notification display count data Di, eye open / closed degree data Dj, notification information data Dk, abnormality information data Dl, and the like are stored.

撮像画像データDaは、ドライバモニタカメラ1が撮像した画像を示すデータが記憶され、所定の処理周期毎に更新される。   The captured image data Da stores data indicating an image captured by the driver monitor camera 1 and is updated at predetermined processing cycles.

顔未検出フラグDbは、撮像画像中に運転者の顔が検出できなかった場合にONに設定される顔未検出フラグFfの状態を示すデータが記憶される。鼻孔未検出フラグDcは、撮像画像中に運転者の鼻孔が検出できなかった場合にONに設定される鼻孔未検出フラグFnの状態を示すデータが記憶される。瞼未検出フラグDdは、撮像画像中に運転者の瞼が検出できなかった場合にONに設定される瞼未検出フラグFeの状態を示すデータが記憶される。告知表示フラグDeは、ドライバサポートシステムが正常に作動していないことを示す告知を表示部5に表示している場合にONに設定される告知表示フラグFdの状態を示すデータが記憶される。   The face undetected flag Db stores data indicating the state of the face undetected flag Ff that is set to ON when the driver's face cannot be detected in the captured image. The nostril undetected flag Dc stores data indicating the state of the nostril undetected flag Fn which is set to ON when the driver's nostril cannot be detected in the captured image. The heel undetected flag Dd stores data indicating the state of the heel undetected flag Fe that is set to ON when a driver's heel is not detected in the captured image. The notification display flag De stores data indicating the state of the notification display flag Fd set to ON when a notification indicating that the driver support system is not operating normally is displayed on the display unit 5.

顔未検出カウントデータDfは、撮像画像中に運転者の顔が検出できない状態が継続している時間(顔未検出カウント値Cf)を示すデータが記憶される。鼻孔未検出カウントデータDgは、撮像画像中に運転者の鼻孔が検出できない状態が継続している時間(鼻孔未検出カウント値Cn)を示すデータが記憶される。瞼未検出カウントデータDhは、撮像画像中に運転者の瞼が検出できない状態が継続している時間(瞼未検出カウント値Ce)を示すデータが記憶される。告知表示カウントデータDiは、ドライバサポートシステムが正常に作動していないことを示す告知を表示部5に表示している時間(告知表示カウント値Cd)を示すデータが記憶される。   The face undetected count data Df stores data indicating the time during which the driver's face cannot be detected in the captured image (face undetected count value Cf). The nostril undetected count data Dg stores data indicating the time during which the driver's nostril cannot be detected in the captured image (nostril undetected count value Cn). As the wrinkle undetected count data Dh, data indicating a time during which a state in which a driver's wrinkle cannot be detected in the captured image continues (wrinkle undetected count value Ce) is stored. The notification display count data Di stores data indicating the time (notification display count value Cd) during which the notification indicating that the driver support system is not operating normally is displayed on the display unit 5.

眼の開閉度データDjは、撮像画像を用いて算出された運転者の眼の開閉度を示すデータが記憶される。   The eye open / closed degree data Dj stores data indicating the open / closed degree of the driver's eyes calculated using the captured image.

告知情報データDkは、ドライバサポートシステムが撮像画像中の特徴部を検出していないことを示す告知情報を示すデータが記憶される。具体的には、告知情報データDkは、運転者の顔の特徴部(例えば、顔全体、鼻孔、瞼等)が撮像画像から検出できない場合に備えて、検出できなかった特徴部に応じた告知情報が記憶されている。以下、図5を参照して、告知情報データDkの一例を説明する。   In the notification information data Dk, data indicating notification information indicating that the driver support system has not detected a feature in the captured image is stored. Specifically, the notification information data Dk is a notification corresponding to the feature portion that could not be detected in case the feature portion of the driver's face (for example, the entire face, nostril, eyelid, etc.) cannot be detected from the captured image. Information is stored. Hereinafter, an example of the notification information data Dk will be described with reference to FIG.

図5において、告知情報データDkには、例えば、ドライバモニタECU2が未検出となった特徴部に応じて、運転者に報知する告知情報がそれぞれ記述された告知情報テーブルが記録される。上記告知情報テーブルは、撮像画像中で検出できなかった未検出特徴部に対して、告知情報Ia〜Icがそれぞれ記述される。ここで、告知情報Iaは、ドライバモニタECU2が撮像画像から検出できなかった運転者の顔の特徴部を運転者へ報知する情報である。告知情報Ibは、特徴部が未検出となった推定原因を運転者へ報知する情報である。告知情報Icは、運転者が上記推定原因を解消する際の注意事項を運転者へ報知する情報である。以下、各未検出特徴部に対する告知情報Ia〜Icの例をそれぞれ列挙して説明する。   In FIG. 5, for example, a notification information table in which notification information to be notified to the driver is described in accordance with a feature portion that has not been detected by the driver monitor ECU 2 is recorded in the notification information data Dk. In the notification information table, notification information Ia to Ic is described for undetected features that could not be detected in the captured image. Here, the notification information Ia is information for notifying the driver of the feature portion of the driver's face that the driver monitor ECU 2 could not detect from the captured image. The notification information Ib is information for notifying the driver of the estimated cause that the characteristic portion has not been detected. The notification information Ic is information for notifying the driver of precautions when the driver eliminates the estimated cause. Hereinafter, examples of the notification information Ia to Ic for each undetected feature will be listed and described.

上記告知情報テーブルには、未検出特徴部「顔」に対する告知情報Iaとして「顔を検出できませんでした。」が記述される。また、上記告知情報テーブルには、未検出特徴部「顔」に対する告知情報Ibとして「カメラとの間に遮るものがありませんか?」が記述される。さらに、上記告知情報テーブルには、未検出特徴部「顔」に対する告知情報Icとして「危険のないところに車を停止して、遮るものを外してください。」が記述される。   In the notification information table, “face could not be detected” is described as the notification information Ia for the undetected feature “face”. Also, in the notification information table, “is there anything to block with the camera?” Is described as the notification information Ib for the undetected feature “face”. Further, the notification information table describes “Please stop the vehicle at a place where there is no danger and remove the obstacle” as the notification information Ic for the undetected feature “face”.

上記告知情報テーブルには、未検出特徴部「鼻孔」に対する告知情報Iaとして「鼻孔を検出できませんでした。」が記述される。また、上記告知情報テーブルには、未検出特徴部「鼻孔」に対する告知情報Ibとして「マスクを着用していませんか?」が記述される。さらに、上記告知情報テーブルには、未検出特徴部「鼻孔」に対する告知情報Icとして「マスクを外せるようであれば、危険のないところに車を停止して、マスクを外してください。」が記述される。   In the notification information table, “not detected nostril” is described as notification information Ia for the undetected feature “nasal nostril”. In the notification information table, “Do you wear a mask?” Is described as notification information Ib for the undetected feature “nasal nostril”. Further, in the above notification information table, the notification information Ic for the undetected feature “nasal nose” is described as “If the mask can be removed, stop the vehicle at a place where there is no danger and remove the mask”. Is done.

上記告知情報テーブルには、未検出特徴部「瞼」に対する告知情報Iaとして「瞼を検出できませんでした。」が記述される。また、上記告知情報テーブルには、未検出特徴部「瞼」に対する告知情報Ibとして「サングラス、眼鏡、帽子を着用していませんか?前髪が目にかかっていませんか?」が記述される。さらに、上記告知情報テーブルには、未検出特徴部「瞼」に対する告知情報Icとして「着用物を外せるようであれば、危険のないところに車を停止して、外してください。」が記述される。   In the notification information table, “not detected 瞼” is described as the notification information Ia for the undetected feature “瞼”. In the notification information table, “is sunglasses, glasses, or hat worn? Are bangs not visible?” Is described as notification information Ib for the undetected feature “瞼”. . Furthermore, in the above notification information table, “if the wearable item can be removed, stop the vehicle and remove it when there is no danger” is described as the notification information Ic for the undetected feature “瞼”. The

上記告知情報テーブルには、未検出特徴部「眉」に対する告知情報Iaとして「眉を検出できませんでした。」が記述される。また、上記告知情報テーブルには、未検出特徴部「眉」に対する告知情報Ibとして「サングラス、眼鏡、帽子を着用していませんか?前髪が眉にかかっていませんか?」が記述される。さらに、上記告知情報テーブルには、未検出特徴部「眉」に対する告知情報Icとして「着用物を外せるようであれば、危険のないところに車を停止して、外してください。」が記述される。   In the notification information table, “brows could not be detected.” Is described as the notification information Ia for the undetected feature “brow”. Also, in the notification information table, “is sunglasses, glasses, or hat worn? Is bangs not on the eyebrows?” Is described as the notification information Ib for the undetected feature “eyebrow”. . Further, in the notification information table described above, “if you can remove the wear, please stop and remove the car if there is no danger” as the notification information Ic for the undetected feature “brow”. The

上記告知情報テーブルには、未検出特徴部「口」に対する告知情報Iaとして「口を検出できませんでした。」が記述される。また、上記告知情報テーブルには、未検出特徴部「口」に対する告知情報Ibとして「マスクを着用していませんか?」が記述される。さらに、上記告知情報テーブルには、未検出特徴部「口」に対する告知情報Icとして「マスクを外せるようであれば、危険のないところに車を停止して、マスクを外してください。」が記述される。   In the notification information table, “Mouth could not be detected.” Is described as the notification information Ia for the undetected feature “mouth”. In the notification information table, “is a mask worn?” Is described as the notification information Ib for the undetected feature “mouth”. Further, in the notification information table, the notification information Ic for the undetected feature “mouth” is described as “If the mask can be removed, stop the vehicle at a place where there is no danger and remove the mask”. Is done.

上記告知情報テーブルには、未検出特徴部「鼻」に対する告知情報Iaとして「鼻を検出できませんでした。」が記述される。また、上記告知情報テーブルには、未検出特徴部「鼻」に対する告知情報Ibとして「マスクを着用していませんか?」が記述される。さらに、上記告知情報テーブルには、未検出特徴部「鼻」に対する告知情報Icとして「マスクを外せるようであれば、危険のないところに車を停止して、マスクを外してください。」が記述される。   In the notification information table, “nose could not be detected” is described as the notification information Ia for the undetected feature “nose”. In the notification information table, “is a mask worn?” Is described as notification information Ib for the undetected feature “nose”. Further, in the notification information table, the notification information Ic for the undetected feature “nose” is described as “If the mask can be removed, stop the car at a place where there is no danger and remove the mask”. Is done.

上記告知情報テーブルには、未検出特徴部「耳」に対する告知情報Iaとして「耳を検出できませんでした。」が記述される。また、上記告知情報テーブルには、未検出特徴部「耳」に対する告知情報Ibとして「帽子、耳あてを着用していませんか?髪の毛が耳にかかっていませんか?」が記述される。さらに、上記告知情報テーブルには、未検出特徴部「耳」に対する告知情報Icとして「着用物を外せるようであれば、危険のないところに車を停止して、外してください。」が記述される。   In the notification information table, “ears could not be detected” is described as the notification information Ia for the undetected feature “ear”. Also, in the notification information table, “not wearing a hat or earpiece? Is your hair applied to the ear?” Is described as the notification information Ib for the undetected feature “ear”. Further, in the above notification information table, “if the wearable item can be removed, please stop and remove the car if there is no danger” as the notification information Ic for the undetected feature “ear”. The

図4に戻り、異常情報データDlは、ドライバサポートシステムが正常に作動していないことを示す異常情報を示すデータが記憶される。例えば、異常情報データDlには、ドライバサポートシステムが正常に作動していないために、運転者の安全運転を促す情報を示すデータが記録される。   Returning to FIG. 4, the abnormality information data Dl stores data indicating abnormality information indicating that the driver support system is not operating normally. For example, in the abnormality information data Dl, data indicating information prompting the driver to drive safely is recorded because the driver support system is not operating normally.

次に、図6および図7を参照して、ドライバモニタECU2の動作の一例について説明する。なお、図6は、ドライバモニタECU2によって実行される処理の一例を示す前半のフローチャートである。図7は、ドライバモニタECU2によって実行される処理の一例を示す後半のフローチャートである。なお、図6および図7に示すフローチャートでは、告知対象とする特徴部として運転者の顔、鼻孔、瞼を一例として説明する。また、図6および図7に示すフローチャートの各ステップは、ドライバモニタECU2が所定のプログラムを実行することによって行われる。なお、これらの処理を実行するためのプログラムは、例えば、ドライバモニタECU2に設けられた記憶領域(例えば、メモリ、ハードディスク、光ディスク等)に予め格納されており、ドライバモニタECU2の電源がそれぞれオンになったときにドライバモニタECU2によって実行される。   Next, an example of the operation of the driver monitor ECU 2 will be described with reference to FIGS. 6 and 7. FIG. 6 is a first half flowchart showing an example of processing executed by the driver monitor ECU 2. FIG. 7 is a second half flowchart showing an example of processing executed by the driver monitor ECU 2. In the flowcharts shown in FIGS. 6 and 7, the driver's face, nostril, and wrinkle will be described as an example of the characteristic parts to be notified. Each step of the flowcharts shown in FIGS. 6 and 7 is performed by the driver monitor ECU 2 executing a predetermined program. Note that a program for executing these processes is stored in advance in a storage area (for example, a memory, a hard disk, an optical disk, etc.) provided in the driver monitor ECU 2, and the driver monitor ECU 2 is turned on. When this happens, it is executed by the driver monitor ECU 2.

図6において、ドライバモニタECU2は、初期設定を行い(ステップS51)、次のステップに処理を進める。具体的には、ドライバモニタECU2は、上記ステップS51において、メモリに記憶されている各パラメータ等を初期化する。例えば、ドライバモニタECU2は、顔未検出フラグFf、鼻孔未検出フラグFn、瞼未検出フラグFe、および告知表示フラグFdの状態をそれぞれOFFに初期化する。また、ドライバモニタECU2は、顔未検出カウント値Cf、鼻孔未検出カウント値Cn、瞼未検出カウント値Ce、および告知表示カウント値Cdをそれぞれ0に初期化する。   In FIG. 6, the driver monitor ECU 2 performs initial setting (step S51), and proceeds to the next step. Specifically, the driver monitor ECU 2 initializes each parameter and the like stored in the memory in step S51. For example, the driver monitor ECU 2 initializes the states of the face undetected flag Ff, the nostril undetected flag Fn, the eyelid not detected flag Fe, and the notification display flag Fd to OFF. Further, the driver monitor ECU 2 initializes the face undetected count value Cf, the nostril undetected count value Cn, the wrinkle undetected count value Ce, and the notification display count value Cd to 0.

次に、ドライバモニタECU2は、ドライバモニタカメラ1から撮像画像を取得して、撮像画像データDaを更新し(ステップS52)、次のステップに処理を進める。   Next, the driver monitor ECU 2 acquires a captured image from the driver monitor camera 1, updates the captured image data Da (step S52), and proceeds to the next step.

次に、ドライバモニタECU2は、上記ステップS52で撮像画像データDaに格納された撮像画像において、運転者の顔が検出可能か否かを判断する(ステップS53)。後述によって明らかとなるが、ドライバモニタECU2は、撮像画像データDaに格納された撮像画像から、運転者の顔の輪郭、中心線、顔の特徴部の位置、特徴部の状況等を認識している。例えば、上記ステップS53においては、ドライバモニタECU2は、撮像画像に運転者の顔自体が撮像されていない場合や、運転者の顔が認識できない場合、顔が検出不可能であると判断する。そして、ドライバモニタECU2は、運転者の顔が検出可能である場合、処理を次のステップS54に処理を進める。一方、ドライバモニタECU2は、運転者の顔が検出できない場合、処理を次のステップS57に処理を進める。   Next, the driver monitor ECU 2 determines whether or not the driver's face can be detected in the captured image stored in the captured image data Da in step S52 (step S53). The driver monitor ECU 2 recognizes the contour of the driver's face, the center line, the position of the facial feature, the situation of the feature, etc., from the captured image stored in the captured image data Da, as will be apparent from the following. Yes. For example, in step S53, the driver monitor ECU 2 determines that the face cannot be detected when the driver's face is not captured in the captured image or when the driver's face cannot be recognized. Then, if the driver's face can be detected, the driver monitor ECU 2 advances the process to the next step S54. On the other hand, if the driver's face cannot be detected, the driver monitor ECU 2 advances the process to the next step S57.

ステップS54において、ドライバモニタECU2は、顔未検出フラグDbを参照して顔未検出フラグFfの状態がONであるか否かを判断する。そして、ドライバモニタECU2は、顔未検出フラグFfの状態がONの場合、顔未検出フラグFfの状態をOFFに変更して顔未検出フラグDbを更新し(ステップS55)、表示部5の表示を通常表示にして(ステップS56)、次のステップS62に処理を進める。一方、ドライバモニタECU2は、顔未検出フラグFfの状態がOFFの場合、そのまま次のステップS62に処理を進める。   In step S54, the driver monitor ECU 2 refers to the face non-detection flag Db and determines whether or not the state of the face non-detection flag Ff is ON. Then, when the face undetected flag Ff is ON, the driver monitor ECU 2 changes the state of the face undetected flag Ff to OFF and updates the face undetected flag Db (step S55). Is displayed normally (step S56), and the process proceeds to the next step S62. On the other hand, when the state of the face non-detection flag Ff is OFF, the driver monitor ECU 2 proceeds to the next step S62 as it is.

ここで、後述により明らかとなるが、上記ステップS54の判断時点において顔未検出フラグFfがONである場合は、それまでドライバモニタECU2が撮像画像から運転者の顔を検出できなかったことを示している。つまり、当該判断時点において、ドライバモニタECU2が撮像画像から運転者の顔を検出できない状態から顔を検出できる状態に変化したことを示している。そこで、上記ステップS55では顔未検出フラグFfの状態を顔検出が可能であることを示す状態(すなわち、OFF)に変更して、上記ステップS56ではそれまで顔が未検出であることを示す告知が表示部5に示されている場合に通常表示に戻す復帰処理を可能にしている。なお、ステップS56の処理においては、表示部5が既に通常表示状態の場合があるが、ドライバモニタECU2は、この場合当該通常表示のままで次のステップS62に処理を進める。   Here, as will be apparent from the description below, if the face non-detection flag Ff is ON at the time of determination in step S54, it indicates that the driver monitor ECU 2 has not been able to detect the driver's face from the captured image until then. ing. That is, at the time of the determination, the driver monitor ECU 2 has changed from a state where the driver's face cannot be detected from the captured image to a state where the face can be detected. Therefore, in step S55, the state of the face non-detection flag Ff is changed to a state indicating that face detection is possible (that is, OFF), and in step S56, the notification indicating that no face has been detected so far. Is displayed on the display unit 5, a return process for returning to the normal display is enabled. In the process of step S56, the display unit 5 may already be in the normal display state. In this case, the driver monitor ECU 2 proceeds to the next step S62 while maintaining the normal display.

一方、撮像画像から運転者の顔が検出できない場合(ステップS53でNo)、ドライバモニタECU2は、顔未検出フラグDbを参照して顔未検出フラグFfの状態がONであるか否かを判断する(ステップS57)。そして、ドライバモニタECU2は、顔未検出フラグFfの状態がONの場合、顔未検出カウントデータDfを参照して顔未検出カウント値Cfに1を加算して顔未検出カウントデータDfを更新し(ステップS58)、次のステップS61に処理を進める。一方、ドライバモニタECU2は、顔未検出フラグFfの状態がOFFの場合、顔未検出フラグFfの状態をONに変更して顔未検出フラグDbを更新し(ステップS59)、顔未検出カウントデータDfの顔未検出カウント値Cfを1に設定して(ステップS60)、次のステップS61に処理を進める。   On the other hand, when the driver's face cannot be detected from the captured image (No in step S53), the driver monitor ECU 2 refers to the face non-detection flag Db and determines whether or not the state of the face non-detection flag Ff is ON. (Step S57). When the face undetected flag Ff is ON, the driver monitor ECU 2 refers to the face undetected count data Df, adds 1 to the face undetected count value Cf, and updates the face undetected count data Df. (Step S58), the process proceeds to the next step S61. On the other hand, when the state of the face undetected flag Ff is OFF, the driver monitor ECU 2 changes the state of the face undetected flag Ff to ON and updates the face undetected flag Db (step S59), and the face undetected count data The face undetected count value Cf for Df is set to 1 (step S60), and the process proceeds to the next step S61.

ステップS61において、ドライバモニタECU2は、顔未検出カウントデータDfの顔未検出カウント値Cfが予め定められた閾値C1以上か否かを判断する。ここで、閾値C1は、撮像画像で運転者の顔を検出できない状況が一時的な現象か、継続的な現象かを判断するための値であり、様々な実験や経験則から得られた値が設定される。そして、ドライバモニタECU2は、顔未検出カウント値Cfが閾値C1以上の場合、処理を次のステップS91(図7)に進める。一方、ドライバモニタECU2は、顔未検出カウント値Cfが閾値C1未満の場合、上記ステップS52に戻って処理を繰り返す。   In step S61, the driver monitor ECU 2 determines whether or not the face undetected count value Cf of the face undetected count data Df is greater than or equal to a predetermined threshold C1. Here, the threshold value C1 is a value for determining whether the situation in which the driver's face cannot be detected from the captured image is a temporary phenomenon or a continuous phenomenon, and is a value obtained from various experiments and empirical rules. Is set. Then, if the face undetected count value Cf is equal to or greater than the threshold value C1, the driver monitor ECU 2 advances the process to the next step S91 (FIG. 7). On the other hand, when the face undetected count value Cf is less than the threshold value C1, the driver monitor ECU 2 returns to step S52 and repeats the process.

ここで、上記ステップS57〜S61の処理は、ドライバモニタECU2が撮像画像から運転者の顔を検出できる状態から顔を検出できない状態に変化したときに顔未検出フラグFfの状態をONにし(ステップS59)、当該顔未検出フラグFfの状態をONした後の経過時間を顔未検出カウント値Cfとしてカウントし(ステップS58、S60)、当該顔未検出カウント値Cfが閾値C1に到達したか否かを判断(ステップS61)するための処理である。つまり、上記ステップS57〜S61の処理では、ドライバモニタECU2が撮像画像から運転者の顔を検出できない状態が継続している時間を計測して、当該時間が閾値C1に到達した場合にステップS91以降の処理を行うことになる。   Here, in the processing of steps S57 to S61, when the driver monitor ECU 2 changes from a state where the driver's face can be detected from the captured image to a state where the face cannot be detected, the state of the face undetected flag Ff is turned ON (step S59), the elapsed time after the face undetected flag Ff is turned on is counted as the face undetected count value Cf (steps S58 and S60), and whether or not the face undetected count value Cf has reached the threshold value C1. This is a process for determining (step S61). That is, in the processing of steps S57 to S61, when the driver monitor ECU 2 continues to be in a state where the driver's face cannot be detected from the captured image, and when the time reaches the threshold C1, step S91 and subsequent steps. Will be processed.

ステップS62において、ドライバモニタECU2は、上記ステップS52で撮像画像データDaに格納された撮像画像において、運転者の鼻孔が検出可能か否かを判断する。例えば、上記ステップS62においては、ドライバモニタECU2は、撮像画像に運転者の鼻孔自体が撮像されていない場合や、運転者の鼻孔が認識できない場合、鼻孔が検出不可能であると判断する。そして、ドライバモニタECU2は、運転者の鼻孔が検出可能である場合、処理を次のステップS63に処理を進める。一方、ドライバモニタECU2は、運転者の鼻孔が検出できない場合、処理を次のステップS66に処理を進める。   In step S62, the driver monitor ECU 2 determines whether or not the driver's nostril can be detected in the captured image stored in the captured image data Da in step S52. For example, in step S62, the driver monitor ECU 2 determines that the nostril cannot be detected when the driver's nostril is not captured in the captured image or when the driver's nostril cannot be recognized. Then, when the driver's nostril can be detected, the driver monitor ECU 2 advances the process to the next step S63. On the other hand, if the driver's nostril cannot be detected, the driver monitor ECU 2 advances the process to the next step S66.

ステップS63において、ドライバモニタECU2は、鼻孔未検出フラグDcを参照して鼻孔未検出フラグFnの状態がONであるか否かを判断する。そして、ドライバモニタECU2は、鼻孔未検出フラグFnの状態がONの場合、鼻孔未検出フラグFnの状態をOFFに変更して鼻孔未検出フラグDcを更新し(ステップS64)、表示部5の表示を通常表示にして(ステップS65)、次のステップS71に処理を進める。一方、ドライバモニタECU2は、鼻孔未検出フラグFnの状態がOFFの場合、そのまま次のステップS71に処理を進める。   In step S63, the driver monitor ECU 2 refers to the nostril non-detection flag Dc to determine whether or not the nostril non-detection flag Fn is ON. Then, when the state of the nostril undetected flag Fn is ON, the driver monitor ECU 2 changes the state of the nostril undetected flag Fn to OFF and updates the nostril undetected flag Dc (step S64). Is displayed normally (step S65), and the process proceeds to the next step S71. On the other hand, when the state of the nostril non-detection flag Fn is OFF, the driver monitor ECU 2 proceeds to the next step S71 as it is.

ここで、後述により明らかとなるが、上記ステップS63の判断時点において鼻孔未検出フラグFnがONである場合は、それまでドライバモニタECU2が撮像画像から運転者の鼻孔を検出できなかったことを示している。つまり、当該判断時点において、ドライバモニタECU2が撮像画像から運転者の鼻孔を検出できない状態から鼻孔を検出できる状態に変化したことを示している。そこで、上記ステップS64では鼻孔未検出フラグFnの状態を鼻孔検出が可能であることを示す状態(すなわち、OFF)に変更して、上記ステップS65ではそれまで鼻孔が未検出であることを示す告知が表示部5に示されている場合に通常表示に戻す復帰処理を可能にしている。なお、ステップS65の処理においては、表示部5が既に通常表示状態の場合があるが、ドライバモニタECU2は、この場合当該通常表示のままで次のステップS71に処理を進める。   Here, as will be apparent later, if the nostril detection flag Fn is ON at the time of the determination in step S63, it indicates that the driver monitor ECU 2 has not been able to detect the driver's nostril from the captured image until then. ing. That is, at the time of the determination, the driver monitor ECU 2 has changed from a state in which the driver's nostril cannot be detected from the captured image to a state in which the nostril can be detected. Therefore, in step S64, the state of the nostril undetected flag Fn is changed to a state indicating that the nostril can be detected (that is, OFF), and in step S65, the notification indicating that the nostril has not been detected so far. Is displayed on the display unit 5, a return process for returning to the normal display is enabled. In the process of step S65, the display unit 5 may already be in the normal display state. In this case, the driver monitor ECU 2 proceeds to the next step S71 while maintaining the normal display.

一方、撮像画像から運転者の鼻孔が検出できない場合(ステップS62でNo)、ドライバモニタECU2は、鼻孔未検出フラグDcを参照して鼻孔未検出フラグFnの状態がONであるか否かを判断する(ステップS66)。そして、ドライバモニタECU2は、鼻孔未検出フラグFnの状態がONの場合、鼻孔未検出カウントデータDgを参照して鼻孔未検出カウント値Cnに1を加算して鼻孔未検出カウントデータDgを更新し(ステップS67)、次のステップS70に処理を進める。一方、ドライバモニタECU2は、鼻孔未検出フラグFnの状態がOFFの場合、鼻孔未検出フラグFnの状態をONに変更して鼻孔未検出フラグDcを更新し(ステップS68)、鼻孔未検出カウントデータDgの鼻孔未検出カウント値Cnを1に設定して(ステップS69)、次のステップS70に処理を進める。   On the other hand, when the driver's nostril cannot be detected from the captured image (No in step S62), the driver monitor ECU 2 refers to the nostril non-detection flag Dc to determine whether or not the nostril non-detection flag Fn is ON. (Step S66). Then, when the state of the nostril undetected flag Fn is ON, the driver monitor ECU 2 refers to the nostril undetected count data Dg and adds 1 to the nostril undetected count value Cn to update the nostril undetected count data Dg. (Step S67), the process proceeds to the next step S70. On the other hand, when the state of the nostril undetected flag Fn is OFF, the driver monitor ECU 2 changes the state of the nostril undetected flag Fn to ON and updates the nostril undetected flag Dc (step S68), and the nostril undetected count data The nostril undetected count value Cn of Dg is set to 1 (step S69), and the process proceeds to the next step S70.

ステップS70において、ドライバモニタECU2は、鼻孔未検出カウントデータDgの鼻孔未検出カウント値Cnが閾値C1以上か否かを判断する。ここで、閾値C1は、上記ステップS61と同様に、撮像画像で運転者の鼻孔を検出できない状況が一時的な現象か、継続的な現象かを判断するための値であり、様々な実験や経験則から得られた値が設定される。そして、ドライバモニタECU2は、鼻孔未検出カウント値Cnが閾値C1以上の場合、処理を次のステップS91(図7)に進める。一方、ドライバモニタECU2は、鼻孔未検出カウント値Cnが閾値C1未満の場合、上記ステップS52に戻って処理を繰り返す。   In step S70, the driver monitor ECU 2 determines whether or not the nostril undetected count value Cn of the nostril undetected count data Dg is greater than or equal to the threshold C1. Here, the threshold C1 is a value for determining whether the situation in which the driver's nostril cannot be detected from the captured image is a temporary phenomenon or a continuous phenomenon, as in step S61. The value obtained from the rule of thumb is set. And driver monitor ECU2 advances a process to following step S91 (FIG. 7), when nostril undetected count value Cn is more than threshold value C1. On the other hand, if the nostril undetected count value Cn is less than the threshold value C1, the driver monitor ECU 2 returns to step S52 and repeats the process.

ここで、上記ステップS66〜S70の処理は、ドライバモニタECU2が撮像画像から運転者の鼻孔を検出できる状態から鼻孔を検出できない状態に変化したときに鼻孔未検出フラグFnの状態をONにし(ステップS68)、当該鼻孔未検出フラグFnの状態をONした後の経過時間を鼻孔未検出カウント値Cnとしてカウントし(ステップS67、S69)、当該鼻孔未検出カウント値Cnが閾値C1に到達したか否かを判断(ステップS70)するための処理である。つまり、上記ステップS66〜S70の処理では、ドライバモニタECU2が撮像画像から運転者の鼻孔を検出できない状態が継続している時間を計測して、当該時間が閾値C1に到達した場合にステップS91以降の処理を行うことになる。   Here, in the processing of steps S66 to S70, when the driver monitor ECU 2 changes from the state in which the driver's nostril can be detected from the captured image to the state in which the nostril cannot be detected, the state of the nostril non-detection flag Fn is turned ON (step S68), the elapsed time after turning on the state of the nostril undetected flag Fn is counted as a nostril undetected count value Cn (steps S67, S69), and whether or not the nostril undetected count value Cn has reached the threshold value C1. This is a process for determining (step S70). In other words, in the processing of steps S66 to S70, the driver monitor ECU 2 measures the time during which the driver's nostril cannot be detected from the captured image, and when the time reaches the threshold value C1, the steps after step S91. Will be processed.

ステップS71において、ドライバモニタECU2は、上記ステップS52で撮像画像データDaに格納された撮像画像において、運転者の瞼が検出可能か否かを判断する。例えば、上記ステップS71においては、ドライバモニタECU2は、撮像画像に運転者の瞼自体が撮像されていない場合や、運転者の瞼が認識できない場合、瞼が検出不可能であると判断する。そして、ドライバモニタECU2は、運転者の瞼が検出可能である場合、処理を次のステップS72に処理を進める。一方、ドライバモニタECU2は、運転者の瞼が検出できない場合、処理を次のステップS75に処理を進める。   In step S71, the driver monitor ECU 2 determines whether or not the driver's eyelid can be detected in the captured image stored in the captured image data Da in step S52. For example, in step S71, the driver monitor ECU 2 determines that the wrinkle cannot be detected when the driver's wrinkle itself is not captured in the captured image or when the driver's wrinkle cannot be recognized. And driver monitor ECU2 advances a process to following step S72, when a driver | operator's wrinkle is detectable. On the other hand, if the driver's wrinkle cannot be detected, the driver monitor ECU 2 advances the process to the next step S75.

ステップS72において、ドライバモニタECU2は、瞼未検出フラグDdを参照して瞼未検出フラグFeの状態がONであるか否かを判断する。そして、ドライバモニタECU2は、瞼未検出フラグFeの状態がONの場合、瞼未検出フラグFeの状態をOFFに変更して瞼未検出フラグDdを更新し(ステップS73)、表示部5の表示を通常表示にして(ステップS74)、次のステップS80に処理を進める。一方、ドライバモニタECU2は、瞼未検出フラグFeの状態がOFFの場合、そのまま次のステップS80に処理を進める。   In step S72, the driver monitor ECU 2 refers to the wrinkle non-detection flag Dd to determine whether or not the state of the wrinkle non-detection flag Fe is ON. Then, when the state of the wrinkle detection flag Fe is ON, the driver monitor ECU 2 changes the state of the wrinkle detection flag Fe to OFF and updates the wrinkle detection flag Dd (step S73). Is displayed normally (step S74), and the process proceeds to the next step S80. On the other hand, if the state of the wrinkle detection flag Fe is OFF, the driver monitor ECU 2 proceeds to the next step S80 as it is.

ここで、後述により明らかとなるが、上記ステップS72の判断時点において瞼未検出フラグFeがONである場合は、それまでドライバモニタECU2が撮像画像から運転者の瞼を検出できなかったことを示している。つまり、当該判断時点において、ドライバモニタECU2が撮像画像から運転者の瞼を検出できない状態から瞼を検出できる状態に変化したことを示している。そこで、上記ステップS73では瞼未検出フラグFeの状態を瞼検出が可能であることを示す状態(すなわち、OFF)に変更して、上記ステップS74ではそれまで瞼が未検出であることを示す告知が表示部5に示されている場合に通常表示に戻す復帰処理を可能にしている。なお、ステップS74の処理においては、表示部5が既に通常表示状態の場合があるが、ドライバモニタECU2は、この場合当該通常表示のままで次のステップS80に処理を進める。   Here, as will be apparent later, if the eyelid undetected flag Fe is ON at the time of the determination in step S72, it indicates that the driver monitor ECU 2 has not been able to detect the driver's eyelid from the captured image until then. ing. That is, at the time of the determination, the driver monitor ECU 2 has changed from a state in which the driver's eyelid cannot be detected from the captured image to a state in which the eyelid can be detected. Therefore, in step S73, the state of the wrinkle non-detection flag Fe is changed to a state (that is, OFF) indicating that wrinkle detection is possible, and in step S74, notification indicating that the wrinkle has not been detected so far. Is displayed on the display unit 5, a return process for returning to the normal display is enabled. In the process of step S74, the display unit 5 may already be in the normal display state. In this case, the driver monitor ECU 2 proceeds to the next step S80 while maintaining the normal display.

一方、撮像画像から運転者の瞼が検出できない場合(ステップS71でNo)、ドライバモニタECU2は、瞼未検出フラグDdを参照して瞼未検出フラグFeの状態がONであるか否かを判断する(ステップS75)。そして、ドライバモニタECU2は、瞼未検出フラグFeの状態がONの場合、瞼未検出カウントデータDhを参照して瞼未検出カウント値Ceに1を加算して瞼未検出カウントデータDhを更新し(ステップS76)、次のステップS79に処理を進める。一方、ドライバモニタECU2は、瞼未検出フラグFeの状態がOFFの場合、瞼未検出フラグFeの状態をONに変更して瞼未検出フラグDdを更新し(ステップS77)、瞼未検出カウントデータDhの瞼未検出カウント値Ceを1に設定して(ステップS78)、次のステップS79に処理を進める。   On the other hand, when the driver's eyelid cannot be detected from the captured image (No in step S71), the driver monitor ECU 2 refers to the eyelid undetected flag Dd to determine whether the state of the eyelid undetected flag Fe is ON. (Step S75). Then, when the state of the undetected flag Fe is ON, the driver monitor ECU 2 refers to the undetected count data Dh, adds 1 to the undetected count value Ce, and updates the undetected count data Dh. (Step S76), the process proceeds to the next step S79. On the other hand, when the state of the undetected flag Fe is OFF, the driver monitor ECU 2 changes the state of the undetected flag Fe to ON and updates the undetected flag Dd (step S77), and the undetected count data The undetected count value Ce of Dh is set to 1 (step S78), and the process proceeds to the next step S79.

ステップS79において、ドライバモニタECU2は、瞼未検出カウントデータDhの瞼未検出カウント値Ceが閾値C1以上か否かを判断する。ここで、閾値C1は、上記ステップS61と同様に、撮像画像で運転者の瞼を検出できない状況が一時的な現象か、継続的な現象かを判断するための値であり、様々な実験や経験則から得られた値が設定される。そして、ドライバモニタECU2は、瞼未検出カウント値Ceが閾値C1以上の場合、処理を次のステップS91(図7)に進める。一方、ドライバモニタECU2は、瞼未検出カウント値Ceが閾値C1未満の場合、上記ステップS52に戻って処理を繰り返す。   In step S79, the driver monitor ECU 2 determines whether the wrinkle detection count value Ce of the wrinkle non-detection count data Dh is greater than or equal to the threshold value C1. Here, the threshold value C1 is a value for determining whether the situation where the driver's wrinkle cannot be detected in the captured image is a temporary phenomenon or a continuous phenomenon, as in step S61. The value obtained from the rule of thumb is set. And driver monitor ECU2 advances a process to following step S91 (FIG. 7), when the wrinkle non-detection count value Ce is more than threshold value C1. On the other hand, if the wrinkle detection count value Ce is less than the threshold value C1, the driver monitor ECU 2 returns to step S52 and repeats the process.

ここで、上記ステップS75〜S79の処理は、ドライバモニタECU2が撮像画像から運転者の瞼を検出できる状態から瞼を検出できない状態に変化したときに瞼未検出フラグFeの状態をONにし(ステップS77)、当該瞼未検出フラグFeの状態をONした後の経過時間を瞼未検出カウント値Ceとしてカウントし(ステップS76、S78)、当該瞼未検出カウント値Ceが閾値C1に到達したか否かを判断(ステップS79)するための処理である。つまり、上記ステップS75〜S79の処理では、ドライバモニタECU2が撮像画像から運転者の瞼を検出できない状態が継続している時間を計測して、当該時間が閾値C1に到達した場合にステップS91以降の処理を行うことになる。   Here, in the processing of steps S75 to S79, when the driver monitor ECU 2 changes from a state where the driver's eyelid can be detected from the captured image to a state where the eyelid cannot be detected, the state of the eyelid undetected flag Fe is set to ON (step S77), the elapsed time after the state of the wrinkle undetected flag Fe is turned on is counted as a wrinkle undetected count value Ce (steps S76, S78), and whether or not the wrinkle undetected count value Ce has reached the threshold value C1. This is a process for determining (step S79). That is, in the processing of steps S75 to S79, when the driver monitor ECU 2 continues to be in a state where the driver's eyelid cannot be detected from the captured image, and when the time reaches the threshold value C1, the steps after step S91 are performed. Will be processed.

ステップS80において、ドライバモニタECU2は、撮像画像を用いて運転者の眼の開閉度を演算する処理を行う。次に、ドライバモニタECU2は、処理を終了するか否かを判断する(ステップS81)。例えば、ドライバモニタECU2は、車両の運転者が処理を終了する操作(例えば、イグニッションスイッチをOFFする操作等)を行った場合、処理を終了すると判断する。そして、ドライバモニタECU2は、処理を継続する場合、上記ステップS52に戻って処理を繰り返す。一方、ドライバモニタECU2は、処理を終了する場合、当該フローチャートによる処理を終了する。   In step S80, the driver monitor ECU 2 performs a process of calculating the degree of opening and closing of the driver's eyes using the captured image. Next, the driver monitor ECU 2 determines whether or not to end the process (step S81). For example, the driver monitor ECU 2 determines that the process is to be terminated when the driver of the vehicle performs an operation for terminating the process (for example, an operation for turning off the ignition switch). And driver monitor ECU2 returns to said step S52, and repeats a process, when continuing a process. On the other hand, when ending the process, the driver monitor ECU 2 ends the process according to the flowchart.

以下、上記ステップS81において行われる、眼の開閉度を演算する処理の一例について説明する。   Hereinafter, an example of the process for calculating the degree of eye opening / closing performed in step S81 will be described.

例えば、ドライバモニタECU2は、ソーベルオペレータ等を用いたエッジ抽出処理によって、撮像画像中で顔の輪郭部分および顔の左右方向の中心となる縦中心線を探索して、撮像画像中に撮像されている運転者の顔の輪郭左端、輪郭右端、および顔の縦中心線を検出する。一例として、ドライバモニタECU2は、撮像画像の輝度画像を作成し、当該輝度画像にエッジ抽出処理を施して、顔の輪郭左端、輪郭右端、および顔部品(眉、眼、鼻、口等)の位置を抽出する。次に、ドライバモニタECU2は、抽出された顔の輪郭左端、輪郭右端、および顔部品の位置に基づいて、撮像画像に撮像された運転者の顔幅および縦中心線を算出する。そして、ドライバモニタECU2は、輪郭左端から縦中心線までの左顔幅、および輪郭右端から縦中心線までの右顔幅をそれぞれ算出する。   For example, the driver monitor ECU 2 searches the captured image for a vertical center line that is the center of the face outline and the left-right direction in the captured image by edge extraction processing using a Sobel operator or the like, and is captured in the captured image. The left edge of the contour of the driver's face, the right edge of the contour, and the vertical center line of the face are detected. As an example, the driver monitor ECU 2 creates a luminance image of the captured image, performs edge extraction processing on the luminance image, and detects the left edge of the face contour, the right edge of the contour, and face parts (eyebrow, eye, nose, mouth, etc.). Extract position. Next, the driver monitor ECU 2 calculates the driver's face width and vertical centerline captured in the captured image based on the extracted face contour left end, contour right end, and face part positions. Then, the driver monitor ECU 2 calculates the left face width from the contour left end to the vertical center line, and the right face width from the contour right end to the vertical center line, respectively.

そして、ドライバモニタECU2は、運転者の眼の位置がどの範囲に撮像されているかを推定する眼の位置推定処理を、撮像画像を用いて行う。ドライバモニタECU2は、上記顔幅情報等を用いて、撮像画像にいて運転者の鼻が撮像されていると推定される範囲を設定する。そして、ドライバモニタECU2は、上記範囲内に対して運転者の鼻の部分を探索して、撮像画像における鼻の位置を検出する。具体的には、ドライバモニタECU2は、上記範囲内における一対の鼻孔の位置を検出する。そして、ドライバモニタECU2は、一対の鼻孔の中間位置を撮像画像における鼻の位置として設定する。なお、一般的に鼻孔の形状は、眼の形状等に比べて個人差が小さい。そのため、鼻孔の位置は眼の位置等に比べてより正確に検出することができる。   Then, the driver monitor ECU 2 performs an eye position estimation process for estimating the range in which the driver's eye position is imaged using the captured image. The driver monitor ECU 2 uses the face width information and the like to set a range in which the driver's nose is estimated to be captured in the captured image. Then, the driver monitor ECU 2 searches the driver's nose portion within the above range and detects the position of the nose in the captured image. Specifically, the driver monitor ECU 2 detects the positions of the pair of nostrils within the above range. Then, the driver monitor ECU 2 sets an intermediate position between the pair of nostrils as a nose position in the captured image. In general, the shape of the nostril has less individual differences than the shape of the eye. Therefore, the position of the nostril can be detected more accurately than the position of the eye or the like.

次に、ドライバモニタECU2は、鼻の位置を基準に最適な左眼の探索範囲および右眼の探索範囲を撮像画像に対して設定する。例えば、ドライバモニタECU2は、鼻の位置から予め定められた方向に所定距離だけ離れた撮像画像上の位置に、左眼探索範囲および右眼探索範囲をそれぞれ設定する。ここで、鼻の位置を基準として左眼探索範囲および右眼探索範囲をそれぞれ設定する方向および距離は、予め定められた標準となる情報に基づいて設定すればよい。なお、上記顔幅情報に応じて、左眼探索範囲および右眼探索範囲をそれぞれ設定する方向および距離や左眼探索範囲および右眼探索範囲の大きさをそれぞれ変化させてもかまわない。これによって、撮像画像で撮像されている運転者の顔のサイズが変化(典型的には、運転者の顔とドライバモニタカメラ1との間の距離が変化)しても、当該顔のサイズの変化に追従して左眼探索範囲および右眼探索範囲の位置や大きさを適切に設定することができる。   Next, the driver monitor ECU 2 sets the optimum left eye search range and right eye search range for the captured image based on the position of the nose. For example, the driver monitor ECU 2 sets the left-eye search range and the right-eye search range at positions on the captured image that are separated from the nose position by a predetermined distance in a predetermined direction. Here, the direction and distance for setting the left-eye search range and the right-eye search range based on the position of the nose may be set based on predetermined standard information. Note that the direction and distance for setting the left-eye search range and the right-eye search range, respectively, and the sizes of the left-eye search range and the right-eye search range may be changed according to the face width information. As a result, even if the size of the driver's face captured in the captured image changes (typically, the distance between the driver's face and the driver monitor camera 1 changes), the size of the face is reduced. Following the change, the positions and sizes of the left-eye search range and the right-eye search range can be set appropriately.

そして、ドライバモニタECU2は、撮像画像に設定された左眼探索範囲内において、運転者の左眼を探索して検出する。また、ドライバモニタECU2は、撮像画像に設定された右眼探索範囲内において、運転者の右眼を探索して検出する。例えば、探索範囲内における眼の検出については、予め設定された眼のテンプレート画像を用いた各種パターンマッチング手法を用いて行うことができる。   And driver monitor ECU2 searches and detects a driver | operator's left eye within the left-eye search range set to the captured image. Further, the driver monitor ECU 2 searches and detects the driver's right eye within the right eye search range set in the captured image. For example, eye detection within the search range can be performed using various pattern matching techniques using a preset eye template image.

次に、ドライバモニタECU2は、運転者の両眼の開閉度を算出する。例えば、ドライバモニタECU2は、撮像画像における運転者の左眼および右眼それぞれについて、上瞼の輪郭および下瞼の輪郭を抽出する。一例として、左眼および右眼における上瞼および下瞼の検出については、予め設定された上瞼および下瞼のテンプレート画像を用いた各種パターンマッチング手法を用いて行うことができる。そして、ドライバモニタECU2は、それぞれの上瞼と下瞼との間の距離を各眼の開閉度として算出して、当該開閉度を示すデータを用いて眼の開閉度データDjを更新する。   Next, the driver monitor ECU 2 calculates the degree of opening and closing of both eyes of the driver. For example, the driver monitor ECU 2 extracts the contours of the upper eyelid and the lower eyelid for each of the left eye and the right eye of the driver in the captured image. As an example, detection of upper eyelids and lower eyelids in the left eye and the right eye can be performed using various pattern matching techniques using preset upper eyelid and lower eyelid template images. Then, the driver monitor ECU 2 calculates the distance between each upper eyelid and lower eyelid as the degree of opening / closing of each eye, and updates the eye opening / closing degree data Dj using the data indicating the degree of opening / closing.

その後、ドライバモニタECU2は、眼の開閉度データDjに格納されている眼の開閉度を示すデータをドライバサポートシステムECU3へ出力する。このデータ出力に応じて、ドライバサポートシステムECU3は、ドライバモニタECU2から受け取ったデータと、ミリ波レーダ4から出力された自車周辺の車両や障害物の認知結果とに基づいて、車両に搭載された乗員保護装置特性を適正に調整したり、衝突条件緩和システムを作動させたり、運転者に適切な警告を与えたりする。   Thereafter, the driver monitor ECU 2 outputs data indicating the eye open / closed degree stored in the eye open / closed degree data Dj to the driver support system ECU 3. In response to this data output, the driver support system ECU 3 is mounted on the vehicle based on the data received from the driver monitor ECU 2 and the recognition result of the vehicles and obstacles around the vehicle output from the millimeter wave radar 4. To properly adjust the characteristics of the occupant protection system, activate the collision condition mitigation system, and give the driver appropriate warnings.

なお、上記ステップS80における開閉度演算処理においては、運転者の眼の開閉度だけでなく、運転者の顔向きや視線方向を演算してもかまわない。   In the opening / closing degree calculation process in step S80, not only the opening / closing degree of the driver's eyes but also the driver's face direction and line-of-sight direction may be calculated.

例えば、ドライバモニタECU2は、撮像画像において、運転者の顔の輪郭左端から縦中心線までの左顔幅、および輪郭右端から縦中心線までの右顔幅をそれぞれ算出することができる。そして、ドライバモニタECU2は、左顔幅および右顔幅の値の比に基づいて顔向き角度αを算出することが可能となる。ここで、顔向き角度αの値は、ドライバモニタカメラ1に対して正面(つまり、車両の正面)を向いた状態がα=0とする。そして、顔向き角度αの値は、顔がドライバモニタカメラ1に対して正面を向いた状態から右方向を向くほど大きな値になるとし、左方向を向くほど小さな値になるとする。つまり、顔向き角度αの値は、顔がドライバモニタカメラ1に対して右方向を向くと正の値となり、左方向を向くと負の値となる。   For example, the driver monitor ECU 2 can calculate the left face width from the left edge of the contour of the driver to the vertical center line and the right face width from the right edge of the contour to the vertical center line in the captured image, respectively. Then, the driver monitor ECU 2 can calculate the face orientation angle α based on the ratio of the left face width value and the right face width value. Here, the value of the face angle α is α = 0 when the driver monitor camera 1 is facing the front (that is, the front of the vehicle). The value of the face orientation angle α is assumed to increase as the face turns to the right from the state of facing the front with respect to the driver monitor camera 1, and to decrease toward the left. That is, the value of the face orientation angle α is a positive value when the face is directed rightward with respect to the driver monitor camera 1, and is a negative value when the face is directed leftward.

また、ドライバモニタECU2は、撮像画像における運転者の左眼および右眼それぞれについて、虹彩の位置を抽出することによって、視線方向を演算することが可能となる。例えば、左眼および右眼における虹彩の検出については、楕円フィルタを用いる手法等を用いることができる。一般的に、虹彩の形状は、撮像画像上においては、顔向きや瞼で遮られたりして円形にはならず、むしろ楕円形状になることが多い。そこで、撮像画像における運転者の左眼および右眼それぞれについて、サイズが異なる複数の楕円フィルタを適用し、当該楕円フィルタの外側領域および内側領域に対する輝度をそれぞれ求める。このとき、外側領域の輝度と内側領域の輝度との間に輝度の差が生じれば、楕円フィルタの内側範囲を虹彩として、用いた楕円フィルタの位置から虹彩の位置を求める。なお、左眼および右眼における虹彩の位置検出については、この手法に限らず、予め設定された虹彩のテンプレート画像を用いた各種パターンマッチング手法や、左眼および右眼の内部を2値化して黒色領域の位置を抽出する手法等、他の検出手法を用いてもかまわない。そして、ドライバモニタECU2は、運転者の左眼および右眼それぞれにおける虹彩の位置と、顔向き方向αとに基づいて、運転者の視線方向を算出する。例えば、ドライバモニタECU2は、車両の正面方向に対する運転者の視線の角度を視線方向として算出する。   Further, the driver monitor ECU 2 can calculate the line-of-sight direction by extracting the position of the iris for each of the driver's left eye and right eye in the captured image. For example, for detection of irises in the left eye and right eye, a technique using an elliptic filter can be used. In general, the shape of the iris is often not elliptical on the captured image because it is blocked by the face direction or eyelids, but rather is elliptical. Therefore, a plurality of elliptic filters having different sizes are applied to each of the driver's left eye and right eye in the captured image, and luminances for the outer region and the inner region of the elliptic filter are obtained. At this time, if there is a difference in luminance between the luminance of the outer region and the luminance of the inner region, the position of the iris is obtained from the position of the used elliptic filter with the inner range of the elliptic filter as the iris. Note that the position detection of the iris in the left eye and the right eye is not limited to this method, and various pattern matching methods using a preset iris template image and the binarization of the left eye and the right eye are performed. Other detection methods such as a method of extracting the position of the black region may be used. Then, the driver monitor ECU 2 calculates the driver's line-of-sight direction based on the iris position in each of the driver's left eye and right eye and the face direction α. For example, the driver monitor ECU 2 calculates the angle of the driver's line of sight with respect to the front direction of the vehicle as the line of sight direction.

図7に進み、ステップS91において、ドライバモニタECU2は、撮像画像データDaに格納された撮像画像において未検出となった特徴部に応じて、告知表示処理を行い、次のステップに処理を進める。例えば、ドライバモニタECU2は、告知情報データDkを参照して、現在の未検出特徴部に応じた告知情報Ia〜Icを抽出し、当該告知情報Ia〜Icを示す文字情報をドライバサポートシステムECU3へ出力して、当該文字情報を表示部5に表示する。   Proceeding to FIG. 7, in step S91, the driver monitor ECU 2 performs notification display processing in accordance with the undetected feature in the captured image stored in the captured image data Da, and proceeds to the next step. For example, the driver monitor ECU 2 refers to the notification information data Dk, extracts the notification information Ia to Ic corresponding to the current undetected feature, and sends the character information indicating the notification information Ia to Ic to the driver support system ECU 3. The character information is output and displayed on the display unit 5.

例えば、図8に示すように、未検出特徴部が「顔」である場合、未検出特徴部が「顔」に対する告知情報として告知情報テーブルに記述されている告知情報Ia〜Icを表示部5に表示する。具体的には、未検出特徴部が「顔」である場合、表示部5には、「顔を検出できませんでした。」(告知情報Ia)、「カメラとの間に遮るものがありませんか?」(告知情報Ib)、「危険のないところに車を停止して、遮るものを外してください。」(告知情報Ic)がそれぞれ表示されて、運転者に報知される。これによって、運転者は、ドライバモニタカメラ1がタオル等の布で覆われていた場合など、ドライバモニタカメラ1と運転者との間を遮るものが存在した場合、その遮るものを取り外すことによって、ドライバサポートシステムの動作が復帰することを予測することができる。   For example, as shown in FIG. 8, when the undetected feature is “face”, the notification information Ia to Ic described in the notification information table as notification information for the undetected feature is “face”. To display. Specifically, when the undetected feature portion is “face”, the display portion 5 displays “Face could not be detected” (notification information Ia), “Is there anything blocking between the camera and the camera? "(Notification information Ib)" and "Please stop the vehicle in a place without danger and remove the obstacle." (Notification information Ic) are displayed and notified to the driver. Thereby, when there is something that blocks between the driver monitor camera 1 and the driver, such as when the driver monitor camera 1 is covered with a cloth such as a towel, It can be predicted that the operation of the driver support system will return.

例えば、図9に示すように、未検出特徴部が「鼻孔」である場合、未検出特徴部が「鼻孔」に対する告知情報として告知情報テーブルに記述されている告知情報Ia〜Icを表示部5に表示する。具体的には、未検出特徴部が「鼻孔」である場合、表示部5には、「鼻孔を検出できませんでした。」(告知情報Ia)、「マスクを着用していませんか?」(告知情報Ib)、「マスクを外せるようであれば、危険のないところに車を停止して、マスクを外してください。」(告知情報Ic)がそれぞれ表示されて、運転者に報知される。   For example, as shown in FIG. 9, when the undetected feature portion is “nasal nose”, the notification information Ia to Ic described in the notification information table as notification information for the undetected feature portion “nostril” is displayed on the display unit 5. To display. Specifically, when the undetected feature portion is “nasal nostrils”, the display unit 5 indicates “No nostrils could be detected” (notification information Ia), “Are you wearing a mask?” ( Announcement information Ib), “If you can remove the mask, stop the car where there is no danger and remove the mask.” (Notification information Ic) is displayed and notified to the driver.

例えば、図10に示すように、未検出特徴部が「瞼」である場合、未検出特徴部が「瞼」に対する告知情報として告知情報テーブルに記述されている告知情報Ia〜Icを表示部5に表示する。具体的には、未検出特徴部が「瞼」である場合、表示部5には、「瞼を検出できませんでした。」(告知情報Ia)、「サングラス、眼鏡、帽子を着用していませんか?前髪が目にかかっていませんか?」(告知情報Ib)、「着用物を外せるようであれば、危険のないところに車を停止して、外してください。」(告知情報Ic)がそれぞれ表示されて、運転者に報知される。   For example, as shown in FIG. 10, when the undetected feature is “部”, the notification information Ia to Ic described in the notification information table as notification information for the undetected feature is “瞼” is displayed on the display unit 5. To display. Specifically, when the undetected feature portion is “瞼”, the display portion 5 displays “No heel was detected.” (Notification information Ia), “I am not wearing sunglasses, glasses, or a hat. "Is your bangs in your eyes?" (Notification Information Ib), "If you can remove your clothes, stop and remove the car in a safe place." (Notification Information Ic) Is displayed and notified to the driver.

ここで、上述した告知情報の表示は、特徴部が未検出となっている状態が一時的な現象でない場合(すなわち、未検出継続時間が閾値C1以上の場合)に行われる。例えば、運転者が一時的に手で顔、眼、鼻等を触ったり、運転者の顔の一部に一時的な外光が入射したりした場合、一時的に撮像画像から特徴部が検出できない状況となる。しかしながら、このような一時的な現象に応じて告知表示を行うと、運転者にとって煩わしい情報表示となってしまうため、未検出時間が閾値C1に到達した時点で告知表示を開始する。これによって、告知表示による運転者の煩わしさを軽減することが可能となる。   Here, the display of the notification information described above is performed when the state where the characteristic portion is not detected is not a temporary phenomenon (that is, when the undetected duration is equal to or greater than the threshold value C1). For example, if the driver temporarily touches his / her face, eyes, nose, etc. with his / her hand, or temporary external light is incident on a part of the driver's face, the feature is temporarily detected from the captured image. It becomes a situation that can not be. However, if the notification display is performed according to such a temporary phenomenon, the information display becomes annoying for the driver. Therefore, the notification display is started when the undetected time reaches the threshold value C1. As a result, it is possible to reduce the troublesomeness of the driver due to the notification display.

図7に戻り、上記ステップS91の処理の後、ドライバモニタECU2は、告知表示フラグDeを参照して告知表示フラグFdの状態がONであるか否かを判断する(ステップS92)。そして、ドライバモニタECU2は、告知表示フラグFdの状態がONの場合、告知表示カウントデータDiを参照して告知表示カウント値Cdに1を加算して告知表示カウントデータDiを更新し(ステップS93)、次のステップS96に処理を進める。一方、ドライバモニタECU2は、告知表示フラグFdの状態がOFFの場合、告知表示フラグFdの状態をONに変更して告知表示フラグDeを更新し(ステップS94)、告知表示カウントデータDiの告知表示カウント値Cdを1に設定して(ステップS95)、次のステップS96に処理を進める。   Returning to FIG. 7, after the process of step S91, the driver monitor ECU 2 refers to the notification display flag De and determines whether or not the state of the notification display flag Fd is ON (step S92). Then, when the state of the notification display flag Fd is ON, the driver monitor ECU 2 refers to the notification display count data Di and adds 1 to the notification display count value Cd to update the notification display count data Di (step S93). Then, the process proceeds to the next step S96. On the other hand, when the state of the notification display flag Fd is OFF, the driver monitor ECU 2 changes the state of the notification display flag Fd to ON and updates the notification display flag De (step S94), and displays the notification display count data Di. The count value Cd is set to 1 (step S95), and the process proceeds to the next step S96.

ステップS96において、ドライバモニタECU2は、告知表示カウントデータDiの告知表示カウント値Cdが予め定められた閾値C2以上か否かを判断する。ここで、閾値C2は、上記ステップS91によって特徴部が検出できない旨の告知を運転者へ行うことによって解消される可能性があるものか、解消ができないものかを時間で判断するための値であり、様々な実験や経験則から得られた値が設定される。そして、ドライバモニタECU2は、告知表示カウント値Cdが閾値C2以上の場合、処理を次のステップS97に進める。一方、ドライバモニタECU2は、告知表示カウント値Cdが閾値C2未満の場合、上記ステップS52に戻って処理を繰り返す。   In step S96, the driver monitor ECU 2 determines whether or not the notification display count value Cd of the notification display count data Di is greater than or equal to a predetermined threshold C2. Here, the threshold value C2 is a value for judging by time whether there is a possibility that it can be eliminated by giving a notification to the driver that the characteristic part cannot be detected in step S91, or whether it can not be eliminated. Yes, values obtained from various experiments and empirical rules are set. And driver monitor ECU2 advances a process to the following step S97, when the notification display count value Cd is more than threshold value C2. On the other hand, when the notification display count value Cd is less than the threshold value C2, the driver monitor ECU 2 returns to step S52 and repeats the process.

ステップS97において、ドライバモニタECU2は、異常表示処理を行い、当該フローチャートによる処理を終了する。例えば、ドライバモニタECU2は、異常情報データDlを参照して、異常情報を示す文字情報をドライバサポートシステムECU3へ出力して、当該文字情報を表示部5に表示する。表示部5に表示する。   In step S97, the driver monitor ECU 2 performs an abnormality display process and ends the process according to the flowchart. For example, the driver monitor ECU 2 refers to the abnormality information data Dl, outputs character information indicating the abnormality information to the driver support system ECU 3, and displays the character information on the display unit 5. Displayed on the display unit 5.

例えば、図11に示すように、表示部5には、「ドライバサポートシステムが正常に作動していません。安全に配慮して、気を付けて運転してください。」と異常情報Idが表示されて、運転者に報知される。このように、上記ステップS97では、ドライバサポートシステムが正常に作動していないことが運転者に報知され、運転者の安全運転をさらに促す情報が報知される。   For example, as shown in FIG. 11, the display unit 5 displays the abnormality information Id, “The driver support system is not operating normally. Please drive carefully in consideration of safety.” And notified to the driver. Thus, in step S97, the driver is notified that the driver support system is not operating normally, and information that further encourages the driver to drive safely is notified.

ここで、上記ステップS91〜S97の処理では、表示部5に特徴部が検出できないことを示す告知表示を行ったときに告知表示フラグFdの状態をONにし(ステップS94)、当該告知表示フラグFdの状態をONした後の経過時間を告知表示カウント値Cdとしてカウントし(ステップS93、S95)、当該告知表示カウント値Cdが閾値C2に到達したか否かを判断(ステップS96)している。つまり、上記告知表示を継続している時間を計測して、当該時間が閾値C2に到達した場合にステップS97の処理を行うことになる。例えば、運転者が運転の際に着用する必要がある眼鏡等によって特徴点が検出できない場合や、運転環境によって外すことができない装着物(サングラス等)によって特徴点が検出できない場合や、運転者では解消できない告知情報外の原因によって特徴点が検出できない場合等においては、運転者に上記告知表示を行っても解消されないことが多い。このような場合、告知表示を長時間続けると運転者にとって煩わしい情報表示となってしまうため、告知表示時間が閾値C2に到達した時点で表示内容を異常情報に切り換える。これによって、告知表示による運転者の煩わしさが軽減されることに加え、さらに運転者の安全運転意識を向上させることが可能となる。   Here, in the processing of steps S91 to S97, when the notification display indicating that the characteristic portion cannot be detected is performed on the display unit 5, the state of the notification display flag Fd is turned ON (step S94), and the notification display flag Fd The elapsed time after turning on the state is counted as the notification display count value Cd (steps S93 and S95), and it is determined whether or not the notification display count value Cd has reached the threshold value C2 (step S96). That is, the time during which the notification display is continued is measured, and when the time reaches the threshold value C2, the process of step S97 is performed. For example, if a feature point cannot be detected by glasses that the driver needs to wear when driving, or if a feature point cannot be detected by an attachment that cannot be removed depending on the driving environment (such as sunglasses), When a feature point cannot be detected due to a cause other than the notification information that cannot be resolved, it is often not resolved even if the above-mentioned notification display is given to the driver. In such a case, if the notification display is continued for a long time, the information display becomes troublesome for the driver. Therefore, when the notification display time reaches the threshold value C2, the display content is switched to the abnormal information. As a result, the driver's troublesomeness due to the notification display is reduced, and the driver's awareness of safe driving can be further improved.

なお、上述したステップS97の動作では、上記異常情報を表示部5に表示することなく上記告知表示を表示部5に表示することを停止してもかまわない。このように、上記告知表示を停止するだけでも、上記告知表示を長時間続けることによって運転者が感じる煩わしさを軽減することができる。   In the operation of step S97 described above, the display of the notification display on the display unit 5 may be stopped without displaying the abnormality information on the display unit 5. Thus, the troublesomeness felt by the driver can be reduced by simply stopping the notification display for a long time.

このように、本実施形態に係る顔画像処理装置によれば、撮像画像から運転者の顔の特徴部が検出できなかった場合、当該検出できなかった特徴部を運転者に報知するため、ドライバサポートシステムの動作状況を運転者が確認することができる。   As described above, according to the face image processing apparatus according to the present embodiment, when the feature portion of the driver's face cannot be detected from the captured image, the driver is notified of the feature portion that cannot be detected. The driver can check the operating status of the support system.

なお、上述した説明では、撮像画像から運転者の顔の特徴部が検出できなかった場合、当該特徴部に応じて告知情報Ia〜Icを表示部5に表示する一例を用いた。これによって、運転者は、表示部5を視認することによって、未検出の特徴部、推定原因、推定原因解消時の注意事項を知ることが可能となる。しかしながら、このような効果を期待しない場合、表示部5に表示する告知情報は他の態様であってもかまわない。例えば、表示部5に告知情報Iaのみが表示されたとしても、運転者は、ドライバサポートシステムが検出できていない自身の特徴部を知ることができ、当該特徴部が検出できないことに繋がる原因が運転者の状態や環境に生じていないか考察することが可能となる。つまり、運転者は、表示部5に告知情報Iaのみが表示されたとしても、その推定原因を推し量ることが可能となり、自身にその原因がある場合はその原因を解消してその結果のシステム状況を確認することも可能となる。   In the above description, an example in which the notification information Ia to Ic is displayed on the display unit 5 according to the feature portion when the feature portion of the driver's face cannot be detected from the captured image is used. Thereby, the driver can know the undetected feature part, the estimated cause, and the precautions when the estimated cause is resolved by visually recognizing the display unit 5. However, when such an effect is not expected, the notification information displayed on the display unit 5 may be in another form. For example, even if only the notification information Ia is displayed on the display unit 5, the driver can know his / her feature that the driver support system has not been able to detect, which may lead to the fact that the feature cannot be detected. It is possible to consider whether it has occurred in the driver's condition or environment. That is, even if only the notification information Ia is displayed on the display unit 5, the driver can estimate the estimated cause, and if the driver himself / herself has the cause, the cause is eliminated and the resulting system status It is also possible to confirm.

また、上述した説明では、告知情報Ia〜Icや異常情報Idを表示部5に表示する一例を用いたが、他の態様で告知情報や異常情報を運転者に報知してもかまわない。第1の例として、オーディオアンプ6およびスピーカ61を介して、告知情報Ia〜Icや異常情報Idを音声で運転者に報知してもかまわない。この場合、ドライバモニタECU2は、告知情報データDkや異常情報データDlを参照して、告知情報や異常情報を示す音声情報をドライバサポートシステムECU3へ出力して、当該音声情報に基づいた音声をスピーカ61から出力する。   In the above description, an example in which the notification information Ia to Ic and the abnormality information Id is displayed on the display unit 5 is used. However, the notification information and abnormality information may be notified to the driver in other modes. As a first example, the notification information Ia to Ic and the abnormality information Id may be notified to the driver by voice via the audio amplifier 6 and the speaker 61. In this case, the driver monitor ECU 2 refers to the notification information data Dk and the abnormality information data Dl, outputs audio information indicating the notification information and abnormality information to the driver support system ECU 3, and outputs the audio based on the audio information to the speaker. 61 to output.

第2の例として、告知情報Iaのみを運転者へ報知する場合、複数のランプの点灯/消滅によって運転者へ報知する。例えば、運転席前面の計器盤(インスツルメントパネル)に特徴点毎のランプを設け、撮像画像から運転者の顔の特徴部が検出できなかった場合に当該特徴点に応じたランプを点灯させる。これによって、運転者は、ランプの点灯しているシステムが検出できなかった特徴部であることを知ることができ、ドライバサポートシステムの動作状況を運転者が確認することができる。   As a second example, when only the notification information Ia is notified to the driver, the driver is notified by turning on / off a plurality of lamps. For example, a lamp for each feature point is provided on the instrument panel (instrument panel) in front of the driver's seat, and when the feature portion of the driver's face cannot be detected from the captured image, the lamp corresponding to the feature point is turned on. . Accordingly, the driver can know that the system in which the lamp is lit is a feature that could not be detected, and the driver can check the operation status of the driver support system.

第3の例として、告知情報Iaのみを運転者へ報知する場合、ランプが点灯する色によって運転者へ報知する。例えば、運転席前面の計器盤(インスツルメントパネル)に特徴点毎に複数色の点灯が可能なランプを設け、撮像画像から運転者の顔の特徴部が検出できなかった場合に当該特徴点に応じた色でランプを点灯させる。これによって、運転者は、ランプが点灯している色によってシステムが検出できなかった特徴部を知ることができ、ドライバサポートシステムの動作状況を運転者が確認することができる。   As a third example, when only the notification information Ia is notified to the driver, the driver is notified by the color of the lamp. For example, if the instrument panel (instrument panel) in front of the driver's seat is provided with a lamp that can be lit in multiple colors for each feature point, the feature point of the driver's face cannot be detected from the captured image The lamp is lit in a color according to. Thus, the driver can know the feature that the system could not detect due to the color of the lamp being lit, and the driver can check the operation status of the driver support system.

第4の例として、告知情報Iaのみを運転者へ報知する場合、ランプが点滅するパターンによって運転者へ報知する。例えば、運転席前面の計器盤(インスツルメントパネル)に特徴点毎に複数パターンで点滅が可能なランプを設け、撮像画像から運転者の顔の特徴部が検出できなかった場合に当該特徴点に応じたパターンでランプを点滅させる。これによって、運転者は、ランプが点滅しているパターンによってシステムが検出できなかった特徴部を知ることができ、ドライバサポートシステムの動作状況を運転者が確認することができる。   As a fourth example, when only the notification information Ia is notified to the driver, the driver is notified by a pattern of blinking lamps. For example, if the instrument panel (instrument panel) on the front of the driver's seat is provided with a lamp that can blink in multiple patterns for each feature point, the feature point of the driver's face cannot be detected from the captured image The lamp blinks in a pattern according to. Thus, the driver can know the feature that the system could not detect by the pattern of the blinking lamp, and the driver can check the operation status of the driver support system.

第5の例として、告知情報Iaのみを運転者へ報知する場合、表示部5に表示する数値や記号等によって運転者へ報知する。例えば、運転席前面の計器盤(インスツルメントパネル)に特徴点毎の数値や記号等を表示する表示領域を設け、撮像画像から運転者の顔の特徴部が検出できなかった場合に当該特徴点に応じた数値や記号等を表示させる。これによって、運転者は、表示されている数値や記号等によってシステムが検出できなかった特徴部を知ることができ、ドライバサポートシステムの動作状況を運転者が確認することができる。   As a fifth example, when only the notification information Ia is notified to the driver, the driver is notified by a numerical value or a symbol displayed on the display unit 5. For example, if a display area for displaying numerical values and symbols for each feature point is provided on the instrument panel (instrument panel) in front of the driver's seat, the feature of the driver's face cannot be detected from the captured image. Display numerical values and symbols according to points. Thereby, the driver can know the characteristic part that the system could not detect from the displayed numerical values, symbols, and the like, and the driver can check the operation status of the driver support system.

また、上述した説明では、ドライバサポートシステムECU3を介して、表示部5に告知情報や異常情報が表示処理される例を用いたが、ドライバモニタECU2が直接表示部5に表示する内容を制御してもかまわない。   In the above description, an example in which notification information and abnormality information are displayed on the display unit 5 via the driver support system ECU 3 is used. However, the driver monitor ECU 2 controls the contents displayed directly on the display unit 5. It doesn't matter.

また、上述したドライバモニタECU2の処理動作では、告知対象とする特徴部の一例として、運転者の顔、鼻孔、瞼を用いたが、他の特徴部も同様の処理が可能となる。例えば、図5で示した運転者の眉、口、鼻、耳等を告知対象に加えても、同様の処理が可能であることは言うまでもない。   In the processing operation of the driver monitor ECU 2 described above, the driver's face, nostril, and eyelid are used as an example of the feature portion to be notified, but the same processing can be performed for other feature portions. For example, it goes without saying that the same processing is possible even if the driver's eyebrows, mouth, nose, ears, etc. shown in FIG.

また、上述した実施形態においては、ドライバモニタカメラ1をステアリングコラム92の上面に設置される例を用いたが、ドライバモニタカメラ1を他の位置に設置してもかまわない。ドライバモニタカメラ1は、車両に乗車した運転者の顔を撮像できる位置であればどのような位置に設置されてもかまわず、例えば運転席前面の計器盤(インスツルメントパネル)内、計器盤上、ステアリングホイール内、および車室内上部等に設置してもかまわない。   In the above-described embodiment, the example in which the driver monitor camera 1 is installed on the upper surface of the steering column 92 is used. However, the driver monitor camera 1 may be installed at another position. The driver monitor camera 1 may be installed in any position as long as it can capture the face of the driver who gets on the vehicle. For example, in the instrument panel (instrument panel) in front of the driver's seat, instrument panel It may be installed at the top, in the steering wheel, and in the upper part of the passenger compartment.

また、上述したドライバモニタECU2の処理順序、時間カウント方法、各種フラグデータによる状態判定方法等は、単なる一例に過ぎず他の順序や方法であっても、本発明を実現できることは言うまでもない。   In addition, the processing order of the driver monitor ECU 2 described above, the time counting method, the state determination method using various flag data, and the like are merely examples, and it goes without saying that the present invention can be realized with other orders and methods.

また、ドライバモニタECU2が実行するプログラムは、ドライバモニタECU2に設けられた記憶領域に予め格納されるだけでなく、外部記憶媒体を通じてドライバモニタECU2に供給されたり、有線または無線の通信回線を通じてドライバモニタECU2に供給されたりしてもよい。   The program executed by the driver monitor ECU 2 is not only stored in advance in a storage area provided in the driver monitor ECU 2, but also supplied to the driver monitor ECU 2 through an external storage medium, or through a wired or wireless communication line. It may be supplied to the ECU 2.

以上、本発明を詳細に説明してきたが、上述の説明はあらゆる点において本発明の例示にすぎず、その範囲を限定しようとするものではない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。   Although the present invention has been described in detail above, the above description is merely illustrative of the present invention in all respects and is not intended to limit the scope thereof. It goes without saying that various improvements and modifications can be made without departing from the scope of the present invention.

本発明に係る顔画像処理装置は、運転者に装置の状態を適切に報知することができ、車両に着席した運転者の状態を判定するシステム等に有用である。   The face image processing apparatus according to the present invention can appropriately notify the driver of the state of the apparatus, and is useful for a system for determining the state of the driver seated in the vehicle.

本発明の一実施形態に係る顔画像処理装置を含むドライバサポートシステムの機能構成の一例を示すブロック図The block diagram which shows an example of a function structure of the driver support system containing the face image processing apparatus which concerns on one Embodiment of this invention 車両に設置されたドライバモニタカメラ1を運転席の横方向から見た一例を示す側面概要図Side surface outline figure which shows an example which looked at the driver monitor camera 1 installed in the vehicle from the lateral direction of the driver's seat 車両に設置されたドライバモニタカメラ1をステアリングホイール91側から見た一例を示す正面概要図Front schematic diagram showing an example of a driver monitor camera 1 installed in a vehicle viewed from the steering wheel 91 side 図1のドライバモニタECU2のメモリに記憶される主なデータの一例を示す図The figure which shows an example of the main data memorize | stored in the memory of driver monitor ECU2 of FIG. 図4の告知情報データDkの一例を示す図The figure which shows an example of the notification information data Dk of FIG. 図1のドライバモニタECU2によって実行される処理の一例を示す前半のフローチャートThe first half flowchart showing an example of processing executed by the driver monitor ECU 2 of FIG. 図1のドライバモニタECU2によって実行される処理の一例を示す後半のフローチャートThe latter half flowchart which shows an example of the process performed by driver monitor ECU2 of FIG. 未検出特徴部が「顔」である場合に表示部5に表示される告知情報の一例を示す図The figure which shows an example of the notification information displayed on the display part 5 when an undetected feature part is a "face" 未検出特徴部が「鼻孔」である場合に表示部5に表示される告知情報の一例を示す図The figure which shows an example of the notification information displayed on the display part 5 when an undetected feature part is a "nasal cavity" 未検出特徴部が「瞼」である場合に表示部5に表示される告知情報の一例を示す図The figure which shows an example of the notification information displayed on the display part 5 when an undetected feature part is "瞼" 表示部5に表示される異常情報の一例を示す図The figure which shows an example of the abnormality information displayed on the display part 5

符号の説明Explanation of symbols

1…ドライバモニタカメラ
11…CCD
12…LED
2…ドライバモニタECU
3…ドライバサポートシステムECU
4…ミリ波レーダ
5…表示部
6…オーディオアンプ
61…スピーカ
7…ブレーキ制御ECU
71…警報ブザー
72…ブレーキACT
91…ステアリングホイール
911…リム
912…スポーク
92…ステアリングコラム
1 ... Driver monitor camera 11 ... CCD
12 ... LED
2 ... Driver monitor ECU
3. Driver support system ECU
4 ... millimeter wave radar 5 ... display unit 6 ... audio amplifier 61 ... speaker 7 ... brake control ECU
71 ... Alarm buzzer 72 ... Brake ACT
91 ... Steering wheel 911 ... Rim 912 ... Spoke 92 ... Steering column

Claims (10)

車両の運転者の顔を撮像する撮像手段から撮像画像を取得する撮像画像取得手段と、
前記撮像画像に撮像されている当該顔の特徴部を検出する特徴部検出手段と、
前記特徴部検出手段が何れかの前記特徴部を検出できなかった場合、当該特徴部を運転者へ報知する報知手段とを備える、顔画像処理装置。
Captured image acquisition means for acquiring a captured image from an imaging means for capturing the face of the driver of the vehicle;
Feature detection means for detecting a feature of the face imaged in the captured image;
A face image processing apparatus comprising: an informing means for informing a driver of the feature section when the feature section detection section cannot detect any of the feature sections.
前記報知手段は、前記特徴部検出手段が検出できなかった特徴部を報知すると共に、当該特徴部を検出できなかった推定原因を運転者へ報知する、請求項1に記載の顔画像処理装置。   The face image processing apparatus according to claim 1, wherein the notifying unit notifies the driver of an estimated cause that the feature unit could not be detected, and notifies the driver of the estimated cause that the feature unit could not be detected. 前記報知手段は、前記特徴部検出手段が検出できなかった特徴部および前記推定原因を運転者へ報知すると共に、運転者が当該推定原因を解消する際の注意事項を運転者へ報知する、請求項2に記載の顔画像処理装置。   The informing means informs the driver of the characteristic part that the characteristic part detecting means could not detect and the estimated cause, and informs the driver of precautions when the driver eliminates the estimated cause. Item 3. The face image processing apparatus according to Item 2. 前記推定原因は、前記撮像手段から見て前記特徴部を遮ることが想定される着用物を運転者が着用していることである、請求項2に記載の顔画像処理装置。   The face image processing apparatus according to claim 2, wherein the presumed cause is that a driver wears a wear that is supposed to block the characteristic portion when viewed from the imaging unit. 前記特徴部毎に検出できない推定原因情報をそれぞれ予め記憶した記憶手段を、さらに備え、
前記報知手段は、前記特徴部検出手段が何れかの前記特徴部を検出できなかった場合、当該特徴部に対応して前記記憶手段に記憶された前記推定原因情報を、前記推定原因として運転者へ報知する、請求項2に記載の顔画像処理装置。
Storage means for storing in advance presumed cause information that cannot be detected for each feature,
In the case where the feature detection unit cannot detect any of the feature units, the notification unit uses the estimated cause information stored in the storage unit corresponding to the feature unit as the estimated cause. The face image processing apparatus according to claim 2, which notifies to
前記特徴部毎に検出できない推定原因情報および当該推定原因を解消する際の注意事項情報をそれぞれ予め記憶した記憶手段を、さらに備え、
前記報知手段は、前記特徴部検出手段が何れかの前記特徴部を検出できなかった場合、当該特徴部に対応して前記記憶手段に記憶された前記推定原因情報および前記注意事項情報を、それぞれ前記推定原因および前記注意事項として運転者へ報知する、請求項3に記載の顔画像処理装置。
Storage means for preliminarily storing each presumed cause information that cannot be detected for each feature and precautionary information when the estimated cause is resolved,
The notification means, when the feature detection means could not detect any of the features, the estimated cause information and the notes information stored in the storage means corresponding to the feature, respectively, The face image processing apparatus according to claim 3, wherein a driver is notified of the estimated cause and the precautions.
前記撮像画像取得手段は、前記撮像手段から予め定められた周期毎に前記撮像画像を取得し、
前記特徴部検出手段は、前記撮像画像取得手段が前記撮像画像を取得する毎に当該撮像画像に撮像されている前記特徴部を検出し、
前記報知手段は、前記特徴部検出手段が同じ前記特徴部を第1の時間以上継続して検出できなかった場合、当該特徴部を運転者へ報知する、請求項1または2に記載の顔画像処理装置。
The captured image acquisition means acquires the captured image for each predetermined period from the imaging means,
The feature detection unit detects the feature captured in the captured image every time the captured image acquisition unit acquires the captured image.
The face image according to claim 1, wherein the notification unit notifies the driver of the feature portion when the feature portion detection unit cannot continuously detect the same feature portion for a first time or more. Processing equipment.
前記撮像画像取得手段は、前記撮像手段から予め定められた周期毎に前記撮像画像を取得し、
前記特徴部検出手段は、前記撮像画像取得手段が前記撮像画像を取得する毎に当該撮像画像に撮像されている前記特徴部を検出し、
前記報知手段は、前記特徴部を運転者へ報知した後、前記特徴部検出手段が当該特徴部を第2の時間以上さらに継続して検出できなかった場合、運転者へ当該特徴部を報知することを停止する、請求項1または2に記載の顔画像処理装置。
The captured image acquisition means acquires the captured image for each predetermined period from the imaging means,
The feature detection unit detects the feature captured in the captured image every time the captured image acquisition unit acquires the captured image.
The notification means notifies the driver of the feature section when the feature section detection section cannot detect the feature section for a second time or more after notifying the feature section to the driver. The face image processing apparatus according to claim 1, wherein the processing is stopped.
前記報知手段は、前記特徴部を運転者へ報知することを停止した後、前記顔画像処理装置が正常に作動していないことを示す異常情報を運転者へ報知する、請求項8に記載の顔画像処理装置。   9. The notification unit according to claim 8, wherein the notification unit notifies the driver of abnormality information indicating that the face image processing device is not operating normally after stopping reporting the feature to the driver. Face image processing device. 前記撮像画像取得手段は、前記撮像手段から予め定められた周期毎に前記撮像画像を取得し、
前記特徴部検出手段は、前記撮像画像取得手段が前記撮像画像を取得する毎に当該撮像画像に撮像されている前記特徴部を検出し、
前記報知手段は、前記特徴部を運転者へ報知した後、前記特徴部検出手段が当該特徴部の検出が可能となった場合、運転者へ当該特徴部を報知することを停止する、請求項1または2に記載の顔画像処理装置。
The captured image acquisition means acquires the captured image for each predetermined period from the imaging means,
The feature detection unit detects the feature captured in the captured image every time the captured image acquisition unit acquires the captured image.
The informing means stops informing the driver of the feature section when the feature section detection section becomes capable of detecting the feature section after informing the driver of the feature section. 3. The face image processing apparatus according to 1 or 2.
JP2008148297A 2008-06-05 2008-06-05 Face image processing device Expired - Fee Related JP4935762B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008148297A JP4935762B2 (en) 2008-06-05 2008-06-05 Face image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008148297A JP4935762B2 (en) 2008-06-05 2008-06-05 Face image processing device

Publications (2)

Publication Number Publication Date
JP2009296355A true JP2009296355A (en) 2009-12-17
JP4935762B2 JP4935762B2 (en) 2012-05-23

Family

ID=41544110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008148297A Expired - Fee Related JP4935762B2 (en) 2008-06-05 2008-06-05 Face image processing device

Country Status (1)

Country Link
JP (1) JP4935762B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014049863A (en) * 2012-08-30 2014-03-17 Canon Inc Image processing device, control method therefor, control program, and imaging device
JP2019087013A (en) * 2017-11-07 2019-06-06 トヨタ自動車株式会社 Control device for vehicle
WO2020217812A1 (en) * 2019-04-22 2020-10-29 キヤノン株式会社 Image processing device that recognizes state of subject and method for same
JP7546881B2 (en) 2020-04-21 2024-09-09 株式会社野本 Video shooting support system, and control method and program for video shooting support system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003189163A (en) * 2001-12-18 2003-07-04 Ricoh Co Ltd Image pickup device
JP2006222841A (en) * 2005-02-14 2006-08-24 Fuji Photo Film Co Ltd Surveillance camera system
JP2009201756A (en) * 2008-02-28 2009-09-10 Omron Corp Information processor and information processing method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003189163A (en) * 2001-12-18 2003-07-04 Ricoh Co Ltd Image pickup device
JP2006222841A (en) * 2005-02-14 2006-08-24 Fuji Photo Film Co Ltd Surveillance camera system
JP2009201756A (en) * 2008-02-28 2009-09-10 Omron Corp Information processor and information processing method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014049863A (en) * 2012-08-30 2014-03-17 Canon Inc Image processing device, control method therefor, control program, and imaging device
JP2019087013A (en) * 2017-11-07 2019-06-06 トヨタ自動車株式会社 Control device for vehicle
WO2020217812A1 (en) * 2019-04-22 2020-10-29 キヤノン株式会社 Image processing device that recognizes state of subject and method for same
JP2020177557A (en) * 2019-04-22 2020-10-29 キヤノン株式会社 Information processor, information processing method, and program
JP7263094B2 (en) 2019-04-22 2023-04-24 キヤノン株式会社 Information processing device, information processing method and program
JP7546881B2 (en) 2020-04-21 2024-09-09 株式会社野本 Video shooting support system, and control method and program for video shooting support system

Also Published As

Publication number Publication date
JP4935762B2 (en) 2012-05-23

Similar Documents

Publication Publication Date Title
JP4888838B2 (en) Driver imaging device and driver imaging method
JP4375420B2 (en) Sleepiness alarm device and program
KR101386823B1 (en) 2 level drowsy driving prevention apparatus through motion, face, eye,and mouth recognition
US7202793B2 (en) Apparatus and method of monitoring a subject and providing feedback thereto
JP5406328B2 (en) VEHICLE DISPLAY DEVICE, ITS CONTROL METHOD AND PROGRAM
US8063786B2 (en) Method of detecting drowsiness of a vehicle operator
CN102310771A (en) Motor vehicle safety control method and system based on driver face identification
US20060287779A1 (en) Method of mitigating driver distraction
JP4788624B2 (en) Careless warning device, vehicle equipment control method of careless warning device, and vehicle control device program
JP2016045714A (en) On-vehicle control device
JP4840146B2 (en) Sleepiness detection device
JP2002352229A (en) Face region detector
CN202088896U (en) Motor vehicle safety control system based on driver face recognition
JP6822325B2 (en) Maneuvering support device, maneuvering support method, program
JP4935762B2 (en) Face image processing device
JP2006318049A (en) Operation support device for vehicle
KR101500016B1 (en) Lane Departure Warning System
CN104376684A (en) Monitoring system capable of preventing fatigue driving
JP2009166783A (en) Symptom inference device
JP2005108033A (en) Driver condition determination device and method
JP7024332B2 (en) Driver monitor system
JP2010100088A (en) Drive assist system
JP6689470B1 (en) Information processing apparatus, program, and information processing method
KR20190044818A (en) Apparatus for monitoring driver and method thereof
KR101360412B1 (en) A system for monitoring loose/droway driver using head moving information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100720

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120206

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150302

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4935762

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150302

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees