JP2009296355A - Facial image processing apparatus - Google Patents
Facial image processing apparatus Download PDFInfo
- Publication number
- JP2009296355A JP2009296355A JP2008148297A JP2008148297A JP2009296355A JP 2009296355 A JP2009296355 A JP 2009296355A JP 2008148297 A JP2008148297 A JP 2008148297A JP 2008148297 A JP2008148297 A JP 2008148297A JP 2009296355 A JP2009296355 A JP 2009296355A
- Authority
- JP
- Japan
- Prior art keywords
- driver
- feature
- captured image
- face
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、顔画像処理装置に関し、より特定的には、車両に乗車する運転者の前方から当該運転者を撮像する顔画像処理装置に関する。 The present invention relates to a face image processing apparatus, and more particularly to a face image processing apparatus that captures an image of the driver from the front of the driver who gets on the vehicle.
従来、車両を運転する運転者を撮像し、撮像された画像を用いて当該運転者の状態を監視するシステムが開発されている。例えば、運転者の前方から撮像するカメラが車両のステアリングホイール付近に設置され、当該カメラが撮像した画像を用いて運転者の状態が解析される。 2. Description of the Related Art Conventionally, a system has been developed in which a driver who drives a vehicle is imaged and the state of the driver is monitored using the captured image. For example, a camera that captures images from the front of the driver is installed near the steering wheel of the vehicle, and the state of the driver is analyzed using images captured by the camera.
例えば、運転者を撮像した撮像画像を用いて、運転者の顔の向きを判定する顔状態検出装置が開示されている(例えば、特許文献1参照)。上記特許文献1で開示された顔状態検出装置は、運転者の顔の特徴部の認識回数をカウントし、当該カウント数に基づいて顔の向きを検出するための特徴部を選定する。そして、上記顔状態検出装置は、運転者がサングラスやマスク等の着用物を着用しているために、運転者の顔の特徴部の何れかが検出できなくなった場合、これらの着用物を顔の特徴部候補として認識して、顔向きを検出する。
しかしながら、上記特許文献1で開示された顔状態検出装置では、当該顔状態検出装置が認識していない運転者の顔の特徴部を運転者等へ報知しないため、当該顔状態検出装置が正常に作動しているのか否かについて運転者が把握できない。したがって、上記顔状態検出装置が正常に作動していない状態であっても、運転者が当該装置の作動に頼った運転をするような状態が考えられる。また、運転者は、上記顔状態検出装置が正常に作動しているのか否かについて把握できないため、上記顔状態検出装置を正常に作動させるために運転者自身が取り得る対応策があったとしても、その対応策を認識することができないため、結果的に上記顔状態検出装置が正常に作動していない状態が継続してしまうことになる。
However, in the face state detection device disclosed in
それ故に、本発明の目的は、運転者に装置の状態を適切に報知することができる顔画像処理装置を提供することである。 Therefore, an object of the present invention is to provide a face image processing apparatus that can appropriately notify the driver of the state of the apparatus.
上記のような目的を達成するために、本発明は、以下に示すような特徴を有している。
第1の発明は、撮像画像取得手段、特徴部検出手段、および報知手段を備える顔画像処理装置である。撮像画像取得手段は、車両の運転者の顔を撮像する撮像手段から撮像画像を取得する。特徴部検出手段は、撮像画像に撮像されている当該顔の特徴部を検出する。報知手段は、顔画像処理装置特徴部検出手段が何れかの特徴部を検出できなかった場合、当該特徴部を運転者へ報知する。
In order to achieve the above object, the present invention has the following features.
1st invention is a face image processing apparatus provided with a captured image acquisition means, a characteristic part detection means, and an alerting | reporting means. The captured image acquisition unit acquires the captured image from the imaging unit that captures the face of the driver of the vehicle. The feature detection unit detects the feature of the face captured in the captured image. When the face image processing device feature detection unit cannot detect any feature, the notification unit notifies the driver of the feature.
第2の発明は、上記第1の発明において、報知手段は、特徴部検出手段が検出できなかった特徴部を報知すると共に、当該特徴部を検出できなかった推定原因を運転者へ報知する。 In a second aspect based on the first aspect, the informing means informs the driver of the presumed cause that the feature portion could not be detected, and informs the driver of the feature portion that could not be detected by the feature portion detecting means.
第3の発明は、上記第2の発明において、報知手段は、特徴部検出手段が検出できなかった特徴部および推定原因を運転者へ報知すると共に、運転者が当該推定原因を解消する際の注意事項を運転者へ報知する。 In a third aspect based on the second aspect, the notifying means notifies the driver of the characteristic part and the estimated cause that the characteristic part detecting means could not detect, and also when the driver eliminates the estimated cause. Inform the driver of the precautions.
第4の発明は、上記第2の発明において、推定原因は、撮像手段から見て特徴部を遮ることが想定される着用物を運転者が着用していることである。 In a fourth aspect based on the second aspect, the presumed cause is that the driver is wearing a wear that is supposed to block the feature as viewed from the imaging means.
第5の発明は、上記第2の発明において、記憶手段を、さらに備える。記憶手段は、特徴部毎に検出できない推定原因情報をそれぞれ予め記憶する。報知手段は、特徴部検出手段が何れかの特徴部を検出できなかった場合、当該特徴部に対応して記憶手段に記憶された推定原因情報を、推定原因として運転者へ報知する。 In a fifth aspect based on the second aspect, a storage means is further provided. The storage means stores in advance presumed cause information that cannot be detected for each feature. When the feature detection unit cannot detect any feature, the notification unit notifies the driver of the estimated cause information stored in the storage unit corresponding to the feature as the estimated cause.
第6の発明は、上記第2の発明において、記憶手段を、さらに備える。記憶手段は、特徴部毎に検出できない推定原因情報および当該推定原因を解消する際の注意事項情報をそれぞれ予め記憶する。報知手段は、特徴部検出手段が何れかの特徴部を検出できなかった場合、当該特徴部に対応して記憶手段に記憶された推定原因情報および注意事項情報を、それぞれ推定原因および注意事項として運転者へ報知する。 In a sixth aspect based on the second aspect, a storage means is further provided. The storage unit stores in advance presumed cause information that cannot be detected for each feature and precautionary information for eliminating the presumed cause. The notification means, when the feature detection means cannot detect any feature, the estimated cause information and the caution information stored in the storage means corresponding to the feature as the estimated cause and caution, respectively. Notify the driver.
第7の発明は、上記第1または第2の発明において、撮像画像取得手段は、撮像手段から予め定められた周期毎に撮像画像を取得する。特徴部検出手段は、撮像画像取得手段が撮像画像を取得する毎に当該撮像画像に撮像されている特徴部を検出する。報知手段は、特徴部検出手段が同じ特徴部を第1の時間以上継続して検出できなかった場合、当該特徴部を運転者へ報知する。 In a seventh aspect based on the first or second aspect, the captured image acquisition means acquires captured images from the imaging means at predetermined intervals. The feature detection unit detects the feature captured in the captured image every time the captured image acquisition unit acquires the captured image. The notification means notifies the driver of the feature portion when the feature portion detection means cannot continuously detect the same feature portion for the first time or more.
第8の発明は、上記第1または第2の発明において、撮像画像取得手段は、撮像手段から予め定められた周期毎に撮像画像を取得する。特徴部検出手段は、撮像画像取得手段が撮像画像を取得する毎に当該撮像画像に撮像されている特徴部を検出する。報知手段は、特徴部を運転者へ報知した後、特徴部検出手段が当該特徴部を第2の時間以上さらに継続して検出できなかった場合、運転者へ当該特徴部を報知することを停止する。 In an eighth aspect based on the first or second aspect, the captured image acquisition unit acquires the captured image from the imaging unit at predetermined intervals. The feature detection unit detects the feature captured in the captured image every time the captured image acquisition unit acquires the captured image. The informing means stops informing the driver of the feature section after the feature section has been informed to the driver, and the feature section detection means has not been able to detect the feature section continuously for a second time or longer. To do.
第9の発明は、上記第8の発明において、報知手段は、特徴部を運転者へ報知することを停止した後、顔画像処理装置が正常に作動していないことを示す異常情報を運転者へ報知する。 In a ninth aspect based on the eighth aspect, after the notification means stops notifying the driver of the feature portion, the driver displays abnormality information indicating that the face image processing device is not operating normally. To inform.
第10の発明は、上記第1または第2の発明において、撮像画像取得手段は、撮像手段から予め定められた周期毎に撮像画像を取得する。特徴部検出手段は、撮像画像取得手段が撮像画像を取得する毎に当該撮像画像に撮像されている特徴部を検出する。報知手段は、特徴部を運転者へ報知した後、特徴部検出手段が当該特徴部の検出が可能となった場合、運転者へ当該特徴部を報知することを停止する。 In a tenth aspect based on the first or second aspect, the captured image acquisition means acquires captured images from the imaging means at predetermined intervals. The feature detection unit detects the feature captured in the captured image every time the captured image acquisition unit acquires the captured image. The notifying means stops notifying the driver of the feature portion when the feature portion detecting means is able to detect the feature portion after notifying the driver of the feature portion.
上記第1の発明によれば、撮像画像から運転者の顔の特徴部が検出できなかった場合、当該検出できなかった特徴部を運転者に報知するため、顔画像処理装置の動作状況を運転者が確認することができる。 According to the first aspect of the present invention, when the feature portion of the driver's face cannot be detected from the captured image, the operation state of the face image processing device is driven to notify the driver of the feature portion that could not be detected. Can confirm.
上記第2の発明によれば、撮像画像から運転者の顔の特徴部が検出できなかった場合、その特徴部と共に検出できなかった推定原因が報知されるため、検出できなかった原因を運転者が容易に解消することができる。 According to the second aspect, when the feature portion of the driver's face cannot be detected from the captured image, the estimated cause that cannot be detected together with the feature portion is notified. Can be easily resolved.
上記第3の発明によれば、さらに検出できなかった推定原因を解消する際の注意事項が報知されるため、当該推定原因を解消する際に起こり得る危険な状態を回避することが可能となり、より安全な運転を促すことが可能となる。 According to the third aspect of the invention, since the precautions when eliminating the estimated cause that could not be detected are further notified, it is possible to avoid a dangerous state that may occur when the estimated cause is resolved, It becomes possible to promote safer driving.
上記第4の発明によれば、撮像画像から運転者の顔の特徴部が検出できなかった場合、その特徴部と共に検出できなかった原因が、運転者自身の着用物にあることを知ることができる。 According to the fourth aspect of the present invention, when the feature portion of the driver's face cannot be detected from the captured image, the driver cannot find the cause together with the feature portion because the driver's own clothing is known. it can.
上記第5の発明によれば、予め特徴部毎に推定原因を記憶しておくことによって、容易に特徴部毎の推定原因を報知することができる。 According to the fifth aspect, the cause of estimation for each feature can be easily notified by storing the cause of estimation for each feature.
上記第6の発明によれば、予め特徴部毎に推定原因および当該推定原因を解消する際の注意事項を記憶しておくことによって、容易に特徴部毎の推定原因および当該推定原因を解消する際の注意事項を報知することができる。 According to the sixth aspect of the invention, the estimated cause and the estimated cause for each feature are easily resolved by storing in advance the estimated cause and the precautions for eliminating the estimated cause for each feature. It is possible to notify the precautions.
上記第7の発明によれば、運転者や運転環境によって一時的に生じた特徴部の未検出に対する報知を抑制することができ、当該報知が頻繁に行われることによる運転者の煩わしさを軽減することができる。 According to the seventh aspect, it is possible to suppress notification of undetected feature portions that are temporarily generated by the driver or the driving environment, and to reduce the driver's troublesomeness due to frequent notification. can do.
上記第8の発明によれば、検出できなかった特徴部を報知し続けることによって生じる運転者の煩わしさを軽減することができる。 According to the eighth aspect of the present invention, it is possible to reduce the driver's troublesomeness caused by continuously informing the feature that could not be detected.
上記第9の発明によれば、検出できなかった特徴部を報知し続けることによって生じる運転者の煩わしさを軽減すると共に、異常情報を表示することによってより安全な運転を促すことが可能となる。 According to the ninth aspect, it is possible to alleviate the driver's troublesomeness caused by continuously informing the feature that could not be detected and to promote safer driving by displaying the abnormality information. .
上記第10の発明によれば、撮像画像から特徴部が検出できなかった原因が解消されたとき、当該特徴部に対する報知を停止して通常時の処理に復帰することができる。 According to the tenth aspect of the present invention, when the cause that the feature portion cannot be detected from the captured image is resolved, the notification to the feature portion can be stopped and the normal processing can be resumed.
以下、図1を参照して本発明の一実施形態に係る顔画像処理装置について説明する。なお、本実施形態では、当該顔画像処理装置を含むドライバサポートシステムが車両に搭載される例について説明する。一例として、ドライバサポートシステムは、当該車両を運転する運転者の顔を撮像し、撮像画像に基づいて運転者の状態(顔の向き、眼の開閉度等)を判断して、判断結果に応じた車両の制御を行う。また、上記ドライバサポートシステムは、車両周辺の他の車両や障害物を認知し衝突の危険性を判断して、判断結果に応じた車両の制御も行う。なお、図1は、当該顔画像処理装置を含むドライバサポートシステムの機能構成の一例を示すブロック図である。 Hereinafter, a face image processing apparatus according to an embodiment of the present invention will be described with reference to FIG. In the present embodiment, an example in which a driver support system including the face image processing apparatus is mounted on a vehicle will be described. As an example, the driver support system images the face of the driver driving the vehicle, determines the driver's state (face orientation, eye open / closed degree, etc.) based on the captured image, and responds to the determination result. Control the vehicle. The driver support system also recognizes other vehicles and obstacles around the vehicle, determines the risk of collision, and controls the vehicle according to the determination result. FIG. 1 is a block diagram illustrating an example of a functional configuration of a driver support system including the face image processing apparatus.
図1において、ドライバサポートシステムは、ドライバモニタカメラ1、ドライバモニタECU(Electrical Control Unit)2、ドライバサポートシステムECU3、ミリ波レーダ4、表示部5、オーディオアンプ6、スピーカ61、ブレーキ制御ECU7、警報ブザー71、およびブレーキACT(アクチュエータ)72を備えている。そして、ドライバモニタECU2、ドライバサポートシステムECU3、およびミリ波レーダ4は、互いにCAN(Controller Area Network)1等を介して接続される。また、ドライバサポートシステムECU3、表示部5、オーディオアンプ6、およびブレーキ制御ECU7は、CAN2等を介して接続される。なお、ドライバモニタECU2が本発明の顔画像処理装置の一例に相当する。
In FIG. 1, the driver support system includes a
ドライバモニタカメラ1は、ドライバモニタECU2から電力が供給されてそれぞれ作動するCCD(Charge Coupled Device)11およびLED(Light Emitting Diode)12を含む。例えば、LED12は、運転者の正面から当該運転者へ向けて近赤外光を照射する照明装置である。この場合、CCD11は、近赤外領域で高い感度特性を有する撮像装置であり、典型的には、近赤外CCDカメラである。このように、近赤外領域で高い感度特性を有するCCD11を用いることにより、夜間やトンネル内等を走行中で車内が暗い状況でも、LED12で照らされた運転者を感度よく撮像することが可能である。なお、CCD11は、運転者の顔を正面から撮像可能な位置に配置される。そして、CCD11は、所定の周期毎に運転者の顔およびその周囲の画像を撮像して、撮像された画像をドライバモニタECU2へ出力する。なお、ドライバモニタカメラ1の設置位置の詳細については、後述する。
The
ドライバモニタECU2は、その内部に複数のマイクロコンピュータ(以下、マイコンと記載する)等の情報処理装置、処理に用いる各種データを格納するメモリ、ドライバモニタカメラ1に電力を供給する電源回路、およびインターフェース回路などを備える処理装置である。例えば、ドライバモニタECU2は、ドライバモニタカメラ1で撮像された撮像画像を用いて、運転者の顔向きを判断したり、運転者の眼の開閉度を判断したりして、その判断結果をドライバサポートシステムECU3へ出力する。また、ドライバモニタECU2は、運転者の顔向きや眼の開閉度等を判断するために必要な当該運転者の顔の特徴部(例えば、顔全体、鼻孔、瞼等)が撮像画像から検出できない場合、その未検出から生じる装置の状況を告知するための情報をドライバサポートシステムECU3へ出力する。
The
ミリ波レーダ4は、車両の前方、後方、斜め前方向等へ向けてミリ波を出射して、対象物から反射した電波を受信する。そして、ミリ波レーダ4は、受信した電波に基づいて、車両の周辺に存在する他の車両や障害物の位置や自車との相対速度等を測定して、その結果をドライバサポートシステムECU3へ出力する。 The millimeter wave radar 4 emits a millimeter wave toward the front, rear, obliquely forward direction, etc. of the vehicle, and receives the radio wave reflected from the object. Then, based on the received radio wave, the millimeter wave radar 4 measures the position of other vehicles and obstacles existing around the vehicle, the relative speed with the own vehicle, and the like, and sends the result to the driver support system ECU 3. Output.
ドライバサポートシステムECU3は、ドライバモニタECU2から出力された運転者の顔向きおよび眼の開閉度等の情報と、ミリ波レーダ4から出力された自車周辺の車両や障害物の認知結果とに基づいて、車両に搭載された乗員保護装置特性を適正に調整したり、衝突条件緩和システムを作動させたり、運転者に適切な警告を与えたりする。また、ドライバサポートシステムECU3は、上記特徴部の未検出から生じる装置の状況を告知するための情報に基づいて、当該情報を運転者へ報知する。図1においては、ドライバサポートシステムECU3が制御する装置の一例として、表示部5、オーディオアンプ6、およびブレーキ制御ECU7が記載されている。
The driver support system ECU 3 is based on information such as the driver's face orientation and eye open / closed degree output from the
表示部5は、車両の運転席に着席して当該車両を運転する運転者から視認可能な位置に設けられる。例えば、表示部5は、運転席前面の計器盤(インスツルメントパネル)に設けられ、ドライバサポートシステムECU3からの指示に応じた警報や情報を運転者に表示する。例えば、運転者が正面を向いていない状態や眼を閉じている状態であると判断され、車両と他の物体との衝突の危険性がある場合、ドライバサポートシステムECU3は、表示部5に運転者に衝突回避操作を促す表示を早期に行う(警報の前出し)。また、表示部5は、上記特徴部の未検出によって装置が正常に作動していない場合、その状況を運転者に告知するための情報の表示を行う。典型的には、表示部5は、主要ないくつかの計器、表示灯、警告灯、および各種情報を表示するマルチインフォメーションディスプレイ等を1つのパネル内に組み合わせて配置したコンビネーションメータで構成される。なお、表示部5は、ハーフミラー(反射ガラス)を運転席前面のフロントガラスの一部に設け、当該ハーフミラーに情報等の虚像を蛍光表示するヘッドアップディスプレイ(Head-Up Display)等、他の表示装置で構成してもかまわない。
The
オーディオアンプ6は、ドライバサポートシステムECU3から出力された音声情報に応じて増幅した音声信号をスピーカ61に出力し、スピーカ61を介して当該音声情報を運転者へ報知する。
The audio amplifier 6 outputs an audio signal amplified according to the audio information output from the driver support system ECU 3 to the
ブレーキ制御ECU7は、車両に搭載された警報ブザー71やブレーキACT72の動作を制御する。例えば、運転者が正面を向いていない状態や眼を閉じている状態であると判断され、車両と他の物体との衝突の危険性があるとドライバサポートシステムECU3が判断した場合、ブレーキ制御ECU7は、警報ブザー71を早期に作動させて運転者に衝突回避操作を促す(警報の前出し)。これによって、運転者は、早期に上記脇見等の運転状態を解消して衝突回避操作を行うことができる。また、ブレーキ制御ECU7は、運転者がブレーキペダルを踏んだ力に応じて、ブレーキ油圧を加圧加勢するように、ブレーキACT72の動作を制御する等を行う(警報ブレーキ)。これによって、ブレーキACT72の油圧応答性が向上し、車両の速度低減を図ることができる。
The brake control ECU 7 controls the operation of the
次に、図2および図3を参照して、ドライバモニタカメラ1について説明する。なお、図2は、車両に設置されたドライバモニタカメラ1を運転席の横方向から見た一例を示す側面概要図である。図3は、車両に設置されたドライバモニタカメラ1をステアリングホイール91側から見た一例を示す正面概要図である。
Next, the
図2および図3において、ドライバモニタカメラ1は、ステアリングコラム92の上面に設置される。そして、ドライバモニタカメラ1は、ステアリングホイール91の開口部(例えば、リム911の内側でスポーク912等が設けられていない開口部)を通って、ステアリングホイール91を操作する運転者の正面から当該運転者の顔を撮像するように撮像方向が調整される。なお、図2においては、ドライバモニタカメラ1の視野を示す視体積の一部(カメラ画角の一部)が破線で記載されており、運転手の頭部が当該視体積内に含まれるようにドライバモニタカメラ1の撮像方向が調整される。ここで、上述したようにドライバモニタカメラ1にはLED12が設けられているが、LED12も上記撮像方向と同様に、運転者の正面から当該運転者へ向けて近赤外光を照射する。なお、LED12が近赤外光は、少なくともドライバモニタカメラ1のカメラ画角より広い範囲に照射される。このように、ドライバモニタカメラ1は、ステアリングコラム92上に設置されるため、運転者の正面となる至近距離から当該運転者を撮像することができ、車両に乗車した運転者の顔を精度よく撮像することが可能となる。
2 and 3, the
次に、ドライバモニタECU2の具体的な動作を説明する前に、図4を参照して当該動作で用いられる主なデータの一例について説明する。なお、図4は、ドライバモニタECU2のメモリに記憶される主なデータの一例を示す図である。
Next, before describing a specific operation of the
図4において、ドライバモニタECU2のメモリには、撮像画像データDa、顔未検出フラグDb、鼻孔未検出フラグDc、瞼未検出フラグDd、告知表示フラグDe、顔未検出カウントデータDf、鼻孔未検出カウントデータDg、瞼未検出カウントデータDh、告知表示カウントデータDi、眼の開閉度データDj、告知情報データDk、および異常情報データDl等が記憶される。
In FIG. 4, in the memory of the
撮像画像データDaは、ドライバモニタカメラ1が撮像した画像を示すデータが記憶され、所定の処理周期毎に更新される。
The captured image data Da stores data indicating an image captured by the
顔未検出フラグDbは、撮像画像中に運転者の顔が検出できなかった場合にONに設定される顔未検出フラグFfの状態を示すデータが記憶される。鼻孔未検出フラグDcは、撮像画像中に運転者の鼻孔が検出できなかった場合にONに設定される鼻孔未検出フラグFnの状態を示すデータが記憶される。瞼未検出フラグDdは、撮像画像中に運転者の瞼が検出できなかった場合にONに設定される瞼未検出フラグFeの状態を示すデータが記憶される。告知表示フラグDeは、ドライバサポートシステムが正常に作動していないことを示す告知を表示部5に表示している場合にONに設定される告知表示フラグFdの状態を示すデータが記憶される。
The face undetected flag Db stores data indicating the state of the face undetected flag Ff that is set to ON when the driver's face cannot be detected in the captured image. The nostril undetected flag Dc stores data indicating the state of the nostril undetected flag Fn which is set to ON when the driver's nostril cannot be detected in the captured image. The heel undetected flag Dd stores data indicating the state of the heel undetected flag Fe that is set to ON when a driver's heel is not detected in the captured image. The notification display flag De stores data indicating the state of the notification display flag Fd set to ON when a notification indicating that the driver support system is not operating normally is displayed on the
顔未検出カウントデータDfは、撮像画像中に運転者の顔が検出できない状態が継続している時間(顔未検出カウント値Cf)を示すデータが記憶される。鼻孔未検出カウントデータDgは、撮像画像中に運転者の鼻孔が検出できない状態が継続している時間(鼻孔未検出カウント値Cn)を示すデータが記憶される。瞼未検出カウントデータDhは、撮像画像中に運転者の瞼が検出できない状態が継続している時間(瞼未検出カウント値Ce)を示すデータが記憶される。告知表示カウントデータDiは、ドライバサポートシステムが正常に作動していないことを示す告知を表示部5に表示している時間(告知表示カウント値Cd)を示すデータが記憶される。
The face undetected count data Df stores data indicating the time during which the driver's face cannot be detected in the captured image (face undetected count value Cf). The nostril undetected count data Dg stores data indicating the time during which the driver's nostril cannot be detected in the captured image (nostril undetected count value Cn). As the wrinkle undetected count data Dh, data indicating a time during which a state in which a driver's wrinkle cannot be detected in the captured image continues (wrinkle undetected count value Ce) is stored. The notification display count data Di stores data indicating the time (notification display count value Cd) during which the notification indicating that the driver support system is not operating normally is displayed on the
眼の開閉度データDjは、撮像画像を用いて算出された運転者の眼の開閉度を示すデータが記憶される。 The eye open / closed degree data Dj stores data indicating the open / closed degree of the driver's eyes calculated using the captured image.
告知情報データDkは、ドライバサポートシステムが撮像画像中の特徴部を検出していないことを示す告知情報を示すデータが記憶される。具体的には、告知情報データDkは、運転者の顔の特徴部(例えば、顔全体、鼻孔、瞼等)が撮像画像から検出できない場合に備えて、検出できなかった特徴部に応じた告知情報が記憶されている。以下、図5を参照して、告知情報データDkの一例を説明する。 In the notification information data Dk, data indicating notification information indicating that the driver support system has not detected a feature in the captured image is stored. Specifically, the notification information data Dk is a notification corresponding to the feature portion that could not be detected in case the feature portion of the driver's face (for example, the entire face, nostril, eyelid, etc.) cannot be detected from the captured image. Information is stored. Hereinafter, an example of the notification information data Dk will be described with reference to FIG.
図5において、告知情報データDkには、例えば、ドライバモニタECU2が未検出となった特徴部に応じて、運転者に報知する告知情報がそれぞれ記述された告知情報テーブルが記録される。上記告知情報テーブルは、撮像画像中で検出できなかった未検出特徴部に対して、告知情報Ia〜Icがそれぞれ記述される。ここで、告知情報Iaは、ドライバモニタECU2が撮像画像から検出できなかった運転者の顔の特徴部を運転者へ報知する情報である。告知情報Ibは、特徴部が未検出となった推定原因を運転者へ報知する情報である。告知情報Icは、運転者が上記推定原因を解消する際の注意事項を運転者へ報知する情報である。以下、各未検出特徴部に対する告知情報Ia〜Icの例をそれぞれ列挙して説明する。
In FIG. 5, for example, a notification information table in which notification information to be notified to the driver is described in accordance with a feature portion that has not been detected by the
上記告知情報テーブルには、未検出特徴部「顔」に対する告知情報Iaとして「顔を検出できませんでした。」が記述される。また、上記告知情報テーブルには、未検出特徴部「顔」に対する告知情報Ibとして「カメラとの間に遮るものがありませんか?」が記述される。さらに、上記告知情報テーブルには、未検出特徴部「顔」に対する告知情報Icとして「危険のないところに車を停止して、遮るものを外してください。」が記述される。 In the notification information table, “face could not be detected” is described as the notification information Ia for the undetected feature “face”. Also, in the notification information table, “is there anything to block with the camera?” Is described as the notification information Ib for the undetected feature “face”. Further, the notification information table describes “Please stop the vehicle at a place where there is no danger and remove the obstacle” as the notification information Ic for the undetected feature “face”.
上記告知情報テーブルには、未検出特徴部「鼻孔」に対する告知情報Iaとして「鼻孔を検出できませんでした。」が記述される。また、上記告知情報テーブルには、未検出特徴部「鼻孔」に対する告知情報Ibとして「マスクを着用していませんか?」が記述される。さらに、上記告知情報テーブルには、未検出特徴部「鼻孔」に対する告知情報Icとして「マスクを外せるようであれば、危険のないところに車を停止して、マスクを外してください。」が記述される。 In the notification information table, “not detected nostril” is described as notification information Ia for the undetected feature “nasal nostril”. In the notification information table, “Do you wear a mask?” Is described as notification information Ib for the undetected feature “nasal nostril”. Further, in the above notification information table, the notification information Ic for the undetected feature “nasal nose” is described as “If the mask can be removed, stop the vehicle at a place where there is no danger and remove the mask”. Is done.
上記告知情報テーブルには、未検出特徴部「瞼」に対する告知情報Iaとして「瞼を検出できませんでした。」が記述される。また、上記告知情報テーブルには、未検出特徴部「瞼」に対する告知情報Ibとして「サングラス、眼鏡、帽子を着用していませんか?前髪が目にかかっていませんか?」が記述される。さらに、上記告知情報テーブルには、未検出特徴部「瞼」に対する告知情報Icとして「着用物を外せるようであれば、危険のないところに車を停止して、外してください。」が記述される。 In the notification information table, “not detected 瞼” is described as the notification information Ia for the undetected feature “瞼”. In the notification information table, “is sunglasses, glasses, or hat worn? Are bangs not visible?” Is described as notification information Ib for the undetected feature “瞼”. . Furthermore, in the above notification information table, “if the wearable item can be removed, stop the vehicle and remove it when there is no danger” is described as the notification information Ic for the undetected feature “瞼”. The
上記告知情報テーブルには、未検出特徴部「眉」に対する告知情報Iaとして「眉を検出できませんでした。」が記述される。また、上記告知情報テーブルには、未検出特徴部「眉」に対する告知情報Ibとして「サングラス、眼鏡、帽子を着用していませんか?前髪が眉にかかっていませんか?」が記述される。さらに、上記告知情報テーブルには、未検出特徴部「眉」に対する告知情報Icとして「着用物を外せるようであれば、危険のないところに車を停止して、外してください。」が記述される。 In the notification information table, “brows could not be detected.” Is described as the notification information Ia for the undetected feature “brow”. Also, in the notification information table, “is sunglasses, glasses, or hat worn? Is bangs not on the eyebrows?” Is described as the notification information Ib for the undetected feature “eyebrow”. . Further, in the notification information table described above, “if you can remove the wear, please stop and remove the car if there is no danger” as the notification information Ic for the undetected feature “brow”. The
上記告知情報テーブルには、未検出特徴部「口」に対する告知情報Iaとして「口を検出できませんでした。」が記述される。また、上記告知情報テーブルには、未検出特徴部「口」に対する告知情報Ibとして「マスクを着用していませんか?」が記述される。さらに、上記告知情報テーブルには、未検出特徴部「口」に対する告知情報Icとして「マスクを外せるようであれば、危険のないところに車を停止して、マスクを外してください。」が記述される。 In the notification information table, “Mouth could not be detected.” Is described as the notification information Ia for the undetected feature “mouth”. In the notification information table, “is a mask worn?” Is described as the notification information Ib for the undetected feature “mouth”. Further, in the notification information table, the notification information Ic for the undetected feature “mouth” is described as “If the mask can be removed, stop the vehicle at a place where there is no danger and remove the mask”. Is done.
上記告知情報テーブルには、未検出特徴部「鼻」に対する告知情報Iaとして「鼻を検出できませんでした。」が記述される。また、上記告知情報テーブルには、未検出特徴部「鼻」に対する告知情報Ibとして「マスクを着用していませんか?」が記述される。さらに、上記告知情報テーブルには、未検出特徴部「鼻」に対する告知情報Icとして「マスクを外せるようであれば、危険のないところに車を停止して、マスクを外してください。」が記述される。 In the notification information table, “nose could not be detected” is described as the notification information Ia for the undetected feature “nose”. In the notification information table, “is a mask worn?” Is described as notification information Ib for the undetected feature “nose”. Further, in the notification information table, the notification information Ic for the undetected feature “nose” is described as “If the mask can be removed, stop the car at a place where there is no danger and remove the mask”. Is done.
上記告知情報テーブルには、未検出特徴部「耳」に対する告知情報Iaとして「耳を検出できませんでした。」が記述される。また、上記告知情報テーブルには、未検出特徴部「耳」に対する告知情報Ibとして「帽子、耳あてを着用していませんか?髪の毛が耳にかかっていませんか?」が記述される。さらに、上記告知情報テーブルには、未検出特徴部「耳」に対する告知情報Icとして「着用物を外せるようであれば、危険のないところに車を停止して、外してください。」が記述される。 In the notification information table, “ears could not be detected” is described as the notification information Ia for the undetected feature “ear”. Also, in the notification information table, “not wearing a hat or earpiece? Is your hair applied to the ear?” Is described as the notification information Ib for the undetected feature “ear”. Further, in the above notification information table, “if the wearable item can be removed, please stop and remove the car if there is no danger” as the notification information Ic for the undetected feature “ear”. The
図4に戻り、異常情報データDlは、ドライバサポートシステムが正常に作動していないことを示す異常情報を示すデータが記憶される。例えば、異常情報データDlには、ドライバサポートシステムが正常に作動していないために、運転者の安全運転を促す情報を示すデータが記録される。 Returning to FIG. 4, the abnormality information data Dl stores data indicating abnormality information indicating that the driver support system is not operating normally. For example, in the abnormality information data Dl, data indicating information prompting the driver to drive safely is recorded because the driver support system is not operating normally.
次に、図6および図7を参照して、ドライバモニタECU2の動作の一例について説明する。なお、図6は、ドライバモニタECU2によって実行される処理の一例を示す前半のフローチャートである。図7は、ドライバモニタECU2によって実行される処理の一例を示す後半のフローチャートである。なお、図6および図7に示すフローチャートでは、告知対象とする特徴部として運転者の顔、鼻孔、瞼を一例として説明する。また、図6および図7に示すフローチャートの各ステップは、ドライバモニタECU2が所定のプログラムを実行することによって行われる。なお、これらの処理を実行するためのプログラムは、例えば、ドライバモニタECU2に設けられた記憶領域(例えば、メモリ、ハードディスク、光ディスク等)に予め格納されており、ドライバモニタECU2の電源がそれぞれオンになったときにドライバモニタECU2によって実行される。
Next, an example of the operation of the
図6において、ドライバモニタECU2は、初期設定を行い(ステップS51)、次のステップに処理を進める。具体的には、ドライバモニタECU2は、上記ステップS51において、メモリに記憶されている各パラメータ等を初期化する。例えば、ドライバモニタECU2は、顔未検出フラグFf、鼻孔未検出フラグFn、瞼未検出フラグFe、および告知表示フラグFdの状態をそれぞれOFFに初期化する。また、ドライバモニタECU2は、顔未検出カウント値Cf、鼻孔未検出カウント値Cn、瞼未検出カウント値Ce、および告知表示カウント値Cdをそれぞれ0に初期化する。
In FIG. 6, the
次に、ドライバモニタECU2は、ドライバモニタカメラ1から撮像画像を取得して、撮像画像データDaを更新し(ステップS52)、次のステップに処理を進める。
Next, the
次に、ドライバモニタECU2は、上記ステップS52で撮像画像データDaに格納された撮像画像において、運転者の顔が検出可能か否かを判断する(ステップS53)。後述によって明らかとなるが、ドライバモニタECU2は、撮像画像データDaに格納された撮像画像から、運転者の顔の輪郭、中心線、顔の特徴部の位置、特徴部の状況等を認識している。例えば、上記ステップS53においては、ドライバモニタECU2は、撮像画像に運転者の顔自体が撮像されていない場合や、運転者の顔が認識できない場合、顔が検出不可能であると判断する。そして、ドライバモニタECU2は、運転者の顔が検出可能である場合、処理を次のステップS54に処理を進める。一方、ドライバモニタECU2は、運転者の顔が検出できない場合、処理を次のステップS57に処理を進める。
Next, the
ステップS54において、ドライバモニタECU2は、顔未検出フラグDbを参照して顔未検出フラグFfの状態がONであるか否かを判断する。そして、ドライバモニタECU2は、顔未検出フラグFfの状態がONの場合、顔未検出フラグFfの状態をOFFに変更して顔未検出フラグDbを更新し(ステップS55)、表示部5の表示を通常表示にして(ステップS56)、次のステップS62に処理を進める。一方、ドライバモニタECU2は、顔未検出フラグFfの状態がOFFの場合、そのまま次のステップS62に処理を進める。
In step S54, the
ここで、後述により明らかとなるが、上記ステップS54の判断時点において顔未検出フラグFfがONである場合は、それまでドライバモニタECU2が撮像画像から運転者の顔を検出できなかったことを示している。つまり、当該判断時点において、ドライバモニタECU2が撮像画像から運転者の顔を検出できない状態から顔を検出できる状態に変化したことを示している。そこで、上記ステップS55では顔未検出フラグFfの状態を顔検出が可能であることを示す状態(すなわち、OFF)に変更して、上記ステップS56ではそれまで顔が未検出であることを示す告知が表示部5に示されている場合に通常表示に戻す復帰処理を可能にしている。なお、ステップS56の処理においては、表示部5が既に通常表示状態の場合があるが、ドライバモニタECU2は、この場合当該通常表示のままで次のステップS62に処理を進める。
Here, as will be apparent from the description below, if the face non-detection flag Ff is ON at the time of determination in step S54, it indicates that the
一方、撮像画像から運転者の顔が検出できない場合(ステップS53でNo)、ドライバモニタECU2は、顔未検出フラグDbを参照して顔未検出フラグFfの状態がONであるか否かを判断する(ステップS57)。そして、ドライバモニタECU2は、顔未検出フラグFfの状態がONの場合、顔未検出カウントデータDfを参照して顔未検出カウント値Cfに1を加算して顔未検出カウントデータDfを更新し(ステップS58)、次のステップS61に処理を進める。一方、ドライバモニタECU2は、顔未検出フラグFfの状態がOFFの場合、顔未検出フラグFfの状態をONに変更して顔未検出フラグDbを更新し(ステップS59)、顔未検出カウントデータDfの顔未検出カウント値Cfを1に設定して(ステップS60)、次のステップS61に処理を進める。
On the other hand, when the driver's face cannot be detected from the captured image (No in step S53), the
ステップS61において、ドライバモニタECU2は、顔未検出カウントデータDfの顔未検出カウント値Cfが予め定められた閾値C1以上か否かを判断する。ここで、閾値C1は、撮像画像で運転者の顔を検出できない状況が一時的な現象か、継続的な現象かを判断するための値であり、様々な実験や経験則から得られた値が設定される。そして、ドライバモニタECU2は、顔未検出カウント値Cfが閾値C1以上の場合、処理を次のステップS91(図7)に進める。一方、ドライバモニタECU2は、顔未検出カウント値Cfが閾値C1未満の場合、上記ステップS52に戻って処理を繰り返す。
In step S61, the
ここで、上記ステップS57〜S61の処理は、ドライバモニタECU2が撮像画像から運転者の顔を検出できる状態から顔を検出できない状態に変化したときに顔未検出フラグFfの状態をONにし(ステップS59)、当該顔未検出フラグFfの状態をONした後の経過時間を顔未検出カウント値Cfとしてカウントし(ステップS58、S60)、当該顔未検出カウント値Cfが閾値C1に到達したか否かを判断(ステップS61)するための処理である。つまり、上記ステップS57〜S61の処理では、ドライバモニタECU2が撮像画像から運転者の顔を検出できない状態が継続している時間を計測して、当該時間が閾値C1に到達した場合にステップS91以降の処理を行うことになる。
Here, in the processing of steps S57 to S61, when the
ステップS62において、ドライバモニタECU2は、上記ステップS52で撮像画像データDaに格納された撮像画像において、運転者の鼻孔が検出可能か否かを判断する。例えば、上記ステップS62においては、ドライバモニタECU2は、撮像画像に運転者の鼻孔自体が撮像されていない場合や、運転者の鼻孔が認識できない場合、鼻孔が検出不可能であると判断する。そして、ドライバモニタECU2は、運転者の鼻孔が検出可能である場合、処理を次のステップS63に処理を進める。一方、ドライバモニタECU2は、運転者の鼻孔が検出できない場合、処理を次のステップS66に処理を進める。
In step S62, the
ステップS63において、ドライバモニタECU2は、鼻孔未検出フラグDcを参照して鼻孔未検出フラグFnの状態がONであるか否かを判断する。そして、ドライバモニタECU2は、鼻孔未検出フラグFnの状態がONの場合、鼻孔未検出フラグFnの状態をOFFに変更して鼻孔未検出フラグDcを更新し(ステップS64)、表示部5の表示を通常表示にして(ステップS65)、次のステップS71に処理を進める。一方、ドライバモニタECU2は、鼻孔未検出フラグFnの状態がOFFの場合、そのまま次のステップS71に処理を進める。
In step S63, the
ここで、後述により明らかとなるが、上記ステップS63の判断時点において鼻孔未検出フラグFnがONである場合は、それまでドライバモニタECU2が撮像画像から運転者の鼻孔を検出できなかったことを示している。つまり、当該判断時点において、ドライバモニタECU2が撮像画像から運転者の鼻孔を検出できない状態から鼻孔を検出できる状態に変化したことを示している。そこで、上記ステップS64では鼻孔未検出フラグFnの状態を鼻孔検出が可能であることを示す状態(すなわち、OFF)に変更して、上記ステップS65ではそれまで鼻孔が未検出であることを示す告知が表示部5に示されている場合に通常表示に戻す復帰処理を可能にしている。なお、ステップS65の処理においては、表示部5が既に通常表示状態の場合があるが、ドライバモニタECU2は、この場合当該通常表示のままで次のステップS71に処理を進める。
Here, as will be apparent later, if the nostril detection flag Fn is ON at the time of the determination in step S63, it indicates that the
一方、撮像画像から運転者の鼻孔が検出できない場合(ステップS62でNo)、ドライバモニタECU2は、鼻孔未検出フラグDcを参照して鼻孔未検出フラグFnの状態がONであるか否かを判断する(ステップS66)。そして、ドライバモニタECU2は、鼻孔未検出フラグFnの状態がONの場合、鼻孔未検出カウントデータDgを参照して鼻孔未検出カウント値Cnに1を加算して鼻孔未検出カウントデータDgを更新し(ステップS67)、次のステップS70に処理を進める。一方、ドライバモニタECU2は、鼻孔未検出フラグFnの状態がOFFの場合、鼻孔未検出フラグFnの状態をONに変更して鼻孔未検出フラグDcを更新し(ステップS68)、鼻孔未検出カウントデータDgの鼻孔未検出カウント値Cnを1に設定して(ステップS69)、次のステップS70に処理を進める。
On the other hand, when the driver's nostril cannot be detected from the captured image (No in step S62), the
ステップS70において、ドライバモニタECU2は、鼻孔未検出カウントデータDgの鼻孔未検出カウント値Cnが閾値C1以上か否かを判断する。ここで、閾値C1は、上記ステップS61と同様に、撮像画像で運転者の鼻孔を検出できない状況が一時的な現象か、継続的な現象かを判断するための値であり、様々な実験や経験則から得られた値が設定される。そして、ドライバモニタECU2は、鼻孔未検出カウント値Cnが閾値C1以上の場合、処理を次のステップS91(図7)に進める。一方、ドライバモニタECU2は、鼻孔未検出カウント値Cnが閾値C1未満の場合、上記ステップS52に戻って処理を繰り返す。
In step S70, the
ここで、上記ステップS66〜S70の処理は、ドライバモニタECU2が撮像画像から運転者の鼻孔を検出できる状態から鼻孔を検出できない状態に変化したときに鼻孔未検出フラグFnの状態をONにし(ステップS68)、当該鼻孔未検出フラグFnの状態をONした後の経過時間を鼻孔未検出カウント値Cnとしてカウントし(ステップS67、S69)、当該鼻孔未検出カウント値Cnが閾値C1に到達したか否かを判断(ステップS70)するための処理である。つまり、上記ステップS66〜S70の処理では、ドライバモニタECU2が撮像画像から運転者の鼻孔を検出できない状態が継続している時間を計測して、当該時間が閾値C1に到達した場合にステップS91以降の処理を行うことになる。
Here, in the processing of steps S66 to S70, when the
ステップS71において、ドライバモニタECU2は、上記ステップS52で撮像画像データDaに格納された撮像画像において、運転者の瞼が検出可能か否かを判断する。例えば、上記ステップS71においては、ドライバモニタECU2は、撮像画像に運転者の瞼自体が撮像されていない場合や、運転者の瞼が認識できない場合、瞼が検出不可能であると判断する。そして、ドライバモニタECU2は、運転者の瞼が検出可能である場合、処理を次のステップS72に処理を進める。一方、ドライバモニタECU2は、運転者の瞼が検出できない場合、処理を次のステップS75に処理を進める。
In step S71, the
ステップS72において、ドライバモニタECU2は、瞼未検出フラグDdを参照して瞼未検出フラグFeの状態がONであるか否かを判断する。そして、ドライバモニタECU2は、瞼未検出フラグFeの状態がONの場合、瞼未検出フラグFeの状態をOFFに変更して瞼未検出フラグDdを更新し(ステップS73)、表示部5の表示を通常表示にして(ステップS74)、次のステップS80に処理を進める。一方、ドライバモニタECU2は、瞼未検出フラグFeの状態がOFFの場合、そのまま次のステップS80に処理を進める。
In step S72, the
ここで、後述により明らかとなるが、上記ステップS72の判断時点において瞼未検出フラグFeがONである場合は、それまでドライバモニタECU2が撮像画像から運転者の瞼を検出できなかったことを示している。つまり、当該判断時点において、ドライバモニタECU2が撮像画像から運転者の瞼を検出できない状態から瞼を検出できる状態に変化したことを示している。そこで、上記ステップS73では瞼未検出フラグFeの状態を瞼検出が可能であることを示す状態(すなわち、OFF)に変更して、上記ステップS74ではそれまで瞼が未検出であることを示す告知が表示部5に示されている場合に通常表示に戻す復帰処理を可能にしている。なお、ステップS74の処理においては、表示部5が既に通常表示状態の場合があるが、ドライバモニタECU2は、この場合当該通常表示のままで次のステップS80に処理を進める。
Here, as will be apparent later, if the eyelid undetected flag Fe is ON at the time of the determination in step S72, it indicates that the
一方、撮像画像から運転者の瞼が検出できない場合(ステップS71でNo)、ドライバモニタECU2は、瞼未検出フラグDdを参照して瞼未検出フラグFeの状態がONであるか否かを判断する(ステップS75)。そして、ドライバモニタECU2は、瞼未検出フラグFeの状態がONの場合、瞼未検出カウントデータDhを参照して瞼未検出カウント値Ceに1を加算して瞼未検出カウントデータDhを更新し(ステップS76)、次のステップS79に処理を進める。一方、ドライバモニタECU2は、瞼未検出フラグFeの状態がOFFの場合、瞼未検出フラグFeの状態をONに変更して瞼未検出フラグDdを更新し(ステップS77)、瞼未検出カウントデータDhの瞼未検出カウント値Ceを1に設定して(ステップS78)、次のステップS79に処理を進める。
On the other hand, when the driver's eyelid cannot be detected from the captured image (No in step S71), the
ステップS79において、ドライバモニタECU2は、瞼未検出カウントデータDhの瞼未検出カウント値Ceが閾値C1以上か否かを判断する。ここで、閾値C1は、上記ステップS61と同様に、撮像画像で運転者の瞼を検出できない状況が一時的な現象か、継続的な現象かを判断するための値であり、様々な実験や経験則から得られた値が設定される。そして、ドライバモニタECU2は、瞼未検出カウント値Ceが閾値C1以上の場合、処理を次のステップS91(図7)に進める。一方、ドライバモニタECU2は、瞼未検出カウント値Ceが閾値C1未満の場合、上記ステップS52に戻って処理を繰り返す。
In step S79, the
ここで、上記ステップS75〜S79の処理は、ドライバモニタECU2が撮像画像から運転者の瞼を検出できる状態から瞼を検出できない状態に変化したときに瞼未検出フラグFeの状態をONにし(ステップS77)、当該瞼未検出フラグFeの状態をONした後の経過時間を瞼未検出カウント値Ceとしてカウントし(ステップS76、S78)、当該瞼未検出カウント値Ceが閾値C1に到達したか否かを判断(ステップS79)するための処理である。つまり、上記ステップS75〜S79の処理では、ドライバモニタECU2が撮像画像から運転者の瞼を検出できない状態が継続している時間を計測して、当該時間が閾値C1に到達した場合にステップS91以降の処理を行うことになる。
Here, in the processing of steps S75 to S79, when the
ステップS80において、ドライバモニタECU2は、撮像画像を用いて運転者の眼の開閉度を演算する処理を行う。次に、ドライバモニタECU2は、処理を終了するか否かを判断する(ステップS81)。例えば、ドライバモニタECU2は、車両の運転者が処理を終了する操作(例えば、イグニッションスイッチをOFFする操作等)を行った場合、処理を終了すると判断する。そして、ドライバモニタECU2は、処理を継続する場合、上記ステップS52に戻って処理を繰り返す。一方、ドライバモニタECU2は、処理を終了する場合、当該フローチャートによる処理を終了する。
In step S80, the
以下、上記ステップS81において行われる、眼の開閉度を演算する処理の一例について説明する。 Hereinafter, an example of the process for calculating the degree of eye opening / closing performed in step S81 will be described.
例えば、ドライバモニタECU2は、ソーベルオペレータ等を用いたエッジ抽出処理によって、撮像画像中で顔の輪郭部分および顔の左右方向の中心となる縦中心線を探索して、撮像画像中に撮像されている運転者の顔の輪郭左端、輪郭右端、および顔の縦中心線を検出する。一例として、ドライバモニタECU2は、撮像画像の輝度画像を作成し、当該輝度画像にエッジ抽出処理を施して、顔の輪郭左端、輪郭右端、および顔部品(眉、眼、鼻、口等)の位置を抽出する。次に、ドライバモニタECU2は、抽出された顔の輪郭左端、輪郭右端、および顔部品の位置に基づいて、撮像画像に撮像された運転者の顔幅および縦中心線を算出する。そして、ドライバモニタECU2は、輪郭左端から縦中心線までの左顔幅、および輪郭右端から縦中心線までの右顔幅をそれぞれ算出する。
For example, the
そして、ドライバモニタECU2は、運転者の眼の位置がどの範囲に撮像されているかを推定する眼の位置推定処理を、撮像画像を用いて行う。ドライバモニタECU2は、上記顔幅情報等を用いて、撮像画像にいて運転者の鼻が撮像されていると推定される範囲を設定する。そして、ドライバモニタECU2は、上記範囲内に対して運転者の鼻の部分を探索して、撮像画像における鼻の位置を検出する。具体的には、ドライバモニタECU2は、上記範囲内における一対の鼻孔の位置を検出する。そして、ドライバモニタECU2は、一対の鼻孔の中間位置を撮像画像における鼻の位置として設定する。なお、一般的に鼻孔の形状は、眼の形状等に比べて個人差が小さい。そのため、鼻孔の位置は眼の位置等に比べてより正確に検出することができる。
Then, the
次に、ドライバモニタECU2は、鼻の位置を基準に最適な左眼の探索範囲および右眼の探索範囲を撮像画像に対して設定する。例えば、ドライバモニタECU2は、鼻の位置から予め定められた方向に所定距離だけ離れた撮像画像上の位置に、左眼探索範囲および右眼探索範囲をそれぞれ設定する。ここで、鼻の位置を基準として左眼探索範囲および右眼探索範囲をそれぞれ設定する方向および距離は、予め定められた標準となる情報に基づいて設定すればよい。なお、上記顔幅情報に応じて、左眼探索範囲および右眼探索範囲をそれぞれ設定する方向および距離や左眼探索範囲および右眼探索範囲の大きさをそれぞれ変化させてもかまわない。これによって、撮像画像で撮像されている運転者の顔のサイズが変化(典型的には、運転者の顔とドライバモニタカメラ1との間の距離が変化)しても、当該顔のサイズの変化に追従して左眼探索範囲および右眼探索範囲の位置や大きさを適切に設定することができる。
Next, the
そして、ドライバモニタECU2は、撮像画像に設定された左眼探索範囲内において、運転者の左眼を探索して検出する。また、ドライバモニタECU2は、撮像画像に設定された右眼探索範囲内において、運転者の右眼を探索して検出する。例えば、探索範囲内における眼の検出については、予め設定された眼のテンプレート画像を用いた各種パターンマッチング手法を用いて行うことができる。
And driver monitor ECU2 searches and detects a driver | operator's left eye within the left-eye search range set to the captured image. Further, the
次に、ドライバモニタECU2は、運転者の両眼の開閉度を算出する。例えば、ドライバモニタECU2は、撮像画像における運転者の左眼および右眼それぞれについて、上瞼の輪郭および下瞼の輪郭を抽出する。一例として、左眼および右眼における上瞼および下瞼の検出については、予め設定された上瞼および下瞼のテンプレート画像を用いた各種パターンマッチング手法を用いて行うことができる。そして、ドライバモニタECU2は、それぞれの上瞼と下瞼との間の距離を各眼の開閉度として算出して、当該開閉度を示すデータを用いて眼の開閉度データDjを更新する。
Next, the
その後、ドライバモニタECU2は、眼の開閉度データDjに格納されている眼の開閉度を示すデータをドライバサポートシステムECU3へ出力する。このデータ出力に応じて、ドライバサポートシステムECU3は、ドライバモニタECU2から受け取ったデータと、ミリ波レーダ4から出力された自車周辺の車両や障害物の認知結果とに基づいて、車両に搭載された乗員保護装置特性を適正に調整したり、衝突条件緩和システムを作動させたり、運転者に適切な警告を与えたりする。
Thereafter, the
なお、上記ステップS80における開閉度演算処理においては、運転者の眼の開閉度だけでなく、運転者の顔向きや視線方向を演算してもかまわない。 In the opening / closing degree calculation process in step S80, not only the opening / closing degree of the driver's eyes but also the driver's face direction and line-of-sight direction may be calculated.
例えば、ドライバモニタECU2は、撮像画像において、運転者の顔の輪郭左端から縦中心線までの左顔幅、および輪郭右端から縦中心線までの右顔幅をそれぞれ算出することができる。そして、ドライバモニタECU2は、左顔幅および右顔幅の値の比に基づいて顔向き角度αを算出することが可能となる。ここで、顔向き角度αの値は、ドライバモニタカメラ1に対して正面(つまり、車両の正面)を向いた状態がα=0とする。そして、顔向き角度αの値は、顔がドライバモニタカメラ1に対して正面を向いた状態から右方向を向くほど大きな値になるとし、左方向を向くほど小さな値になるとする。つまり、顔向き角度αの値は、顔がドライバモニタカメラ1に対して右方向を向くと正の値となり、左方向を向くと負の値となる。
For example, the
また、ドライバモニタECU2は、撮像画像における運転者の左眼および右眼それぞれについて、虹彩の位置を抽出することによって、視線方向を演算することが可能となる。例えば、左眼および右眼における虹彩の検出については、楕円フィルタを用いる手法等を用いることができる。一般的に、虹彩の形状は、撮像画像上においては、顔向きや瞼で遮られたりして円形にはならず、むしろ楕円形状になることが多い。そこで、撮像画像における運転者の左眼および右眼それぞれについて、サイズが異なる複数の楕円フィルタを適用し、当該楕円フィルタの外側領域および内側領域に対する輝度をそれぞれ求める。このとき、外側領域の輝度と内側領域の輝度との間に輝度の差が生じれば、楕円フィルタの内側範囲を虹彩として、用いた楕円フィルタの位置から虹彩の位置を求める。なお、左眼および右眼における虹彩の位置検出については、この手法に限らず、予め設定された虹彩のテンプレート画像を用いた各種パターンマッチング手法や、左眼および右眼の内部を2値化して黒色領域の位置を抽出する手法等、他の検出手法を用いてもかまわない。そして、ドライバモニタECU2は、運転者の左眼および右眼それぞれにおける虹彩の位置と、顔向き方向αとに基づいて、運転者の視線方向を算出する。例えば、ドライバモニタECU2は、車両の正面方向に対する運転者の視線の角度を視線方向として算出する。
Further, the
図7に進み、ステップS91において、ドライバモニタECU2は、撮像画像データDaに格納された撮像画像において未検出となった特徴部に応じて、告知表示処理を行い、次のステップに処理を進める。例えば、ドライバモニタECU2は、告知情報データDkを参照して、現在の未検出特徴部に応じた告知情報Ia〜Icを抽出し、当該告知情報Ia〜Icを示す文字情報をドライバサポートシステムECU3へ出力して、当該文字情報を表示部5に表示する。
Proceeding to FIG. 7, in step S91, the
例えば、図8に示すように、未検出特徴部が「顔」である場合、未検出特徴部が「顔」に対する告知情報として告知情報テーブルに記述されている告知情報Ia〜Icを表示部5に表示する。具体的には、未検出特徴部が「顔」である場合、表示部5には、「顔を検出できませんでした。」(告知情報Ia)、「カメラとの間に遮るものがありませんか?」(告知情報Ib)、「危険のないところに車を停止して、遮るものを外してください。」(告知情報Ic)がそれぞれ表示されて、運転者に報知される。これによって、運転者は、ドライバモニタカメラ1がタオル等の布で覆われていた場合など、ドライバモニタカメラ1と運転者との間を遮るものが存在した場合、その遮るものを取り外すことによって、ドライバサポートシステムの動作が復帰することを予測することができる。
For example, as shown in FIG. 8, when the undetected feature is “face”, the notification information Ia to Ic described in the notification information table as notification information for the undetected feature is “face”. To display. Specifically, when the undetected feature portion is “face”, the
例えば、図9に示すように、未検出特徴部が「鼻孔」である場合、未検出特徴部が「鼻孔」に対する告知情報として告知情報テーブルに記述されている告知情報Ia〜Icを表示部5に表示する。具体的には、未検出特徴部が「鼻孔」である場合、表示部5には、「鼻孔を検出できませんでした。」(告知情報Ia)、「マスクを着用していませんか?」(告知情報Ib)、「マスクを外せるようであれば、危険のないところに車を停止して、マスクを外してください。」(告知情報Ic)がそれぞれ表示されて、運転者に報知される。
For example, as shown in FIG. 9, when the undetected feature portion is “nasal nose”, the notification information Ia to Ic described in the notification information table as notification information for the undetected feature portion “nostril” is displayed on the
例えば、図10に示すように、未検出特徴部が「瞼」である場合、未検出特徴部が「瞼」に対する告知情報として告知情報テーブルに記述されている告知情報Ia〜Icを表示部5に表示する。具体的には、未検出特徴部が「瞼」である場合、表示部5には、「瞼を検出できませんでした。」(告知情報Ia)、「サングラス、眼鏡、帽子を着用していませんか?前髪が目にかかっていませんか?」(告知情報Ib)、「着用物を外せるようであれば、危険のないところに車を停止して、外してください。」(告知情報Ic)がそれぞれ表示されて、運転者に報知される。
For example, as shown in FIG. 10, when the undetected feature is “部”, the notification information Ia to Ic described in the notification information table as notification information for the undetected feature is “瞼” is displayed on the
ここで、上述した告知情報の表示は、特徴部が未検出となっている状態が一時的な現象でない場合(すなわち、未検出継続時間が閾値C1以上の場合)に行われる。例えば、運転者が一時的に手で顔、眼、鼻等を触ったり、運転者の顔の一部に一時的な外光が入射したりした場合、一時的に撮像画像から特徴部が検出できない状況となる。しかしながら、このような一時的な現象に応じて告知表示を行うと、運転者にとって煩わしい情報表示となってしまうため、未検出時間が閾値C1に到達した時点で告知表示を開始する。これによって、告知表示による運転者の煩わしさを軽減することが可能となる。 Here, the display of the notification information described above is performed when the state where the characteristic portion is not detected is not a temporary phenomenon (that is, when the undetected duration is equal to or greater than the threshold value C1). For example, if the driver temporarily touches his / her face, eyes, nose, etc. with his / her hand, or temporary external light is incident on a part of the driver's face, the feature is temporarily detected from the captured image. It becomes a situation that can not be. However, if the notification display is performed according to such a temporary phenomenon, the information display becomes annoying for the driver. Therefore, the notification display is started when the undetected time reaches the threshold value C1. As a result, it is possible to reduce the troublesomeness of the driver due to the notification display.
図7に戻り、上記ステップS91の処理の後、ドライバモニタECU2は、告知表示フラグDeを参照して告知表示フラグFdの状態がONであるか否かを判断する(ステップS92)。そして、ドライバモニタECU2は、告知表示フラグFdの状態がONの場合、告知表示カウントデータDiを参照して告知表示カウント値Cdに1を加算して告知表示カウントデータDiを更新し(ステップS93)、次のステップS96に処理を進める。一方、ドライバモニタECU2は、告知表示フラグFdの状態がOFFの場合、告知表示フラグFdの状態をONに変更して告知表示フラグDeを更新し(ステップS94)、告知表示カウントデータDiの告知表示カウント値Cdを1に設定して(ステップS95)、次のステップS96に処理を進める。
Returning to FIG. 7, after the process of step S91, the
ステップS96において、ドライバモニタECU2は、告知表示カウントデータDiの告知表示カウント値Cdが予め定められた閾値C2以上か否かを判断する。ここで、閾値C2は、上記ステップS91によって特徴部が検出できない旨の告知を運転者へ行うことによって解消される可能性があるものか、解消ができないものかを時間で判断するための値であり、様々な実験や経験則から得られた値が設定される。そして、ドライバモニタECU2は、告知表示カウント値Cdが閾値C2以上の場合、処理を次のステップS97に進める。一方、ドライバモニタECU2は、告知表示カウント値Cdが閾値C2未満の場合、上記ステップS52に戻って処理を繰り返す。
In step S96, the
ステップS97において、ドライバモニタECU2は、異常表示処理を行い、当該フローチャートによる処理を終了する。例えば、ドライバモニタECU2は、異常情報データDlを参照して、異常情報を示す文字情報をドライバサポートシステムECU3へ出力して、当該文字情報を表示部5に表示する。表示部5に表示する。
In step S97, the
例えば、図11に示すように、表示部5には、「ドライバサポートシステムが正常に作動していません。安全に配慮して、気を付けて運転してください。」と異常情報Idが表示されて、運転者に報知される。このように、上記ステップS97では、ドライバサポートシステムが正常に作動していないことが運転者に報知され、運転者の安全運転をさらに促す情報が報知される。
For example, as shown in FIG. 11, the
ここで、上記ステップS91〜S97の処理では、表示部5に特徴部が検出できないことを示す告知表示を行ったときに告知表示フラグFdの状態をONにし(ステップS94)、当該告知表示フラグFdの状態をONした後の経過時間を告知表示カウント値Cdとしてカウントし(ステップS93、S95)、当該告知表示カウント値Cdが閾値C2に到達したか否かを判断(ステップS96)している。つまり、上記告知表示を継続している時間を計測して、当該時間が閾値C2に到達した場合にステップS97の処理を行うことになる。例えば、運転者が運転の際に着用する必要がある眼鏡等によって特徴点が検出できない場合や、運転環境によって外すことができない装着物(サングラス等)によって特徴点が検出できない場合や、運転者では解消できない告知情報外の原因によって特徴点が検出できない場合等においては、運転者に上記告知表示を行っても解消されないことが多い。このような場合、告知表示を長時間続けると運転者にとって煩わしい情報表示となってしまうため、告知表示時間が閾値C2に到達した時点で表示内容を異常情報に切り換える。これによって、告知表示による運転者の煩わしさが軽減されることに加え、さらに運転者の安全運転意識を向上させることが可能となる。
Here, in the processing of steps S91 to S97, when the notification display indicating that the characteristic portion cannot be detected is performed on the
なお、上述したステップS97の動作では、上記異常情報を表示部5に表示することなく上記告知表示を表示部5に表示することを停止してもかまわない。このように、上記告知表示を停止するだけでも、上記告知表示を長時間続けることによって運転者が感じる煩わしさを軽減することができる。
In the operation of step S97 described above, the display of the notification display on the
このように、本実施形態に係る顔画像処理装置によれば、撮像画像から運転者の顔の特徴部が検出できなかった場合、当該検出できなかった特徴部を運転者に報知するため、ドライバサポートシステムの動作状況を運転者が確認することができる。 As described above, according to the face image processing apparatus according to the present embodiment, when the feature portion of the driver's face cannot be detected from the captured image, the driver is notified of the feature portion that cannot be detected. The driver can check the operating status of the support system.
なお、上述した説明では、撮像画像から運転者の顔の特徴部が検出できなかった場合、当該特徴部に応じて告知情報Ia〜Icを表示部5に表示する一例を用いた。これによって、運転者は、表示部5を視認することによって、未検出の特徴部、推定原因、推定原因解消時の注意事項を知ることが可能となる。しかしながら、このような効果を期待しない場合、表示部5に表示する告知情報は他の態様であってもかまわない。例えば、表示部5に告知情報Iaのみが表示されたとしても、運転者は、ドライバサポートシステムが検出できていない自身の特徴部を知ることができ、当該特徴部が検出できないことに繋がる原因が運転者の状態や環境に生じていないか考察することが可能となる。つまり、運転者は、表示部5に告知情報Iaのみが表示されたとしても、その推定原因を推し量ることが可能となり、自身にその原因がある場合はその原因を解消してその結果のシステム状況を確認することも可能となる。
In the above description, an example in which the notification information Ia to Ic is displayed on the
また、上述した説明では、告知情報Ia〜Icや異常情報Idを表示部5に表示する一例を用いたが、他の態様で告知情報や異常情報を運転者に報知してもかまわない。第1の例として、オーディオアンプ6およびスピーカ61を介して、告知情報Ia〜Icや異常情報Idを音声で運転者に報知してもかまわない。この場合、ドライバモニタECU2は、告知情報データDkや異常情報データDlを参照して、告知情報や異常情報を示す音声情報をドライバサポートシステムECU3へ出力して、当該音声情報に基づいた音声をスピーカ61から出力する。
In the above description, an example in which the notification information Ia to Ic and the abnormality information Id is displayed on the
第2の例として、告知情報Iaのみを運転者へ報知する場合、複数のランプの点灯/消滅によって運転者へ報知する。例えば、運転席前面の計器盤(インスツルメントパネル)に特徴点毎のランプを設け、撮像画像から運転者の顔の特徴部が検出できなかった場合に当該特徴点に応じたランプを点灯させる。これによって、運転者は、ランプの点灯しているシステムが検出できなかった特徴部であることを知ることができ、ドライバサポートシステムの動作状況を運転者が確認することができる。 As a second example, when only the notification information Ia is notified to the driver, the driver is notified by turning on / off a plurality of lamps. For example, a lamp for each feature point is provided on the instrument panel (instrument panel) in front of the driver's seat, and when the feature portion of the driver's face cannot be detected from the captured image, the lamp corresponding to the feature point is turned on. . Accordingly, the driver can know that the system in which the lamp is lit is a feature that could not be detected, and the driver can check the operation status of the driver support system.
第3の例として、告知情報Iaのみを運転者へ報知する場合、ランプが点灯する色によって運転者へ報知する。例えば、運転席前面の計器盤(インスツルメントパネル)に特徴点毎に複数色の点灯が可能なランプを設け、撮像画像から運転者の顔の特徴部が検出できなかった場合に当該特徴点に応じた色でランプを点灯させる。これによって、運転者は、ランプが点灯している色によってシステムが検出できなかった特徴部を知ることができ、ドライバサポートシステムの動作状況を運転者が確認することができる。 As a third example, when only the notification information Ia is notified to the driver, the driver is notified by the color of the lamp. For example, if the instrument panel (instrument panel) in front of the driver's seat is provided with a lamp that can be lit in multiple colors for each feature point, the feature point of the driver's face cannot be detected from the captured image The lamp is lit in a color according to. Thus, the driver can know the feature that the system could not detect due to the color of the lamp being lit, and the driver can check the operation status of the driver support system.
第4の例として、告知情報Iaのみを運転者へ報知する場合、ランプが点滅するパターンによって運転者へ報知する。例えば、運転席前面の計器盤(インスツルメントパネル)に特徴点毎に複数パターンで点滅が可能なランプを設け、撮像画像から運転者の顔の特徴部が検出できなかった場合に当該特徴点に応じたパターンでランプを点滅させる。これによって、運転者は、ランプが点滅しているパターンによってシステムが検出できなかった特徴部を知ることができ、ドライバサポートシステムの動作状況を運転者が確認することができる。 As a fourth example, when only the notification information Ia is notified to the driver, the driver is notified by a pattern of blinking lamps. For example, if the instrument panel (instrument panel) on the front of the driver's seat is provided with a lamp that can blink in multiple patterns for each feature point, the feature point of the driver's face cannot be detected from the captured image The lamp blinks in a pattern according to. Thus, the driver can know the feature that the system could not detect by the pattern of the blinking lamp, and the driver can check the operation status of the driver support system.
第5の例として、告知情報Iaのみを運転者へ報知する場合、表示部5に表示する数値や記号等によって運転者へ報知する。例えば、運転席前面の計器盤(インスツルメントパネル)に特徴点毎の数値や記号等を表示する表示領域を設け、撮像画像から運転者の顔の特徴部が検出できなかった場合に当該特徴点に応じた数値や記号等を表示させる。これによって、運転者は、表示されている数値や記号等によってシステムが検出できなかった特徴部を知ることができ、ドライバサポートシステムの動作状況を運転者が確認することができる。
As a fifth example, when only the notification information Ia is notified to the driver, the driver is notified by a numerical value or a symbol displayed on the
また、上述した説明では、ドライバサポートシステムECU3を介して、表示部5に告知情報や異常情報が表示処理される例を用いたが、ドライバモニタECU2が直接表示部5に表示する内容を制御してもかまわない。
In the above description, an example in which notification information and abnormality information are displayed on the
また、上述したドライバモニタECU2の処理動作では、告知対象とする特徴部の一例として、運転者の顔、鼻孔、瞼を用いたが、他の特徴部も同様の処理が可能となる。例えば、図5で示した運転者の眉、口、鼻、耳等を告知対象に加えても、同様の処理が可能であることは言うまでもない。
In the processing operation of the
また、上述した実施形態においては、ドライバモニタカメラ1をステアリングコラム92の上面に設置される例を用いたが、ドライバモニタカメラ1を他の位置に設置してもかまわない。ドライバモニタカメラ1は、車両に乗車した運転者の顔を撮像できる位置であればどのような位置に設置されてもかまわず、例えば運転席前面の計器盤(インスツルメントパネル)内、計器盤上、ステアリングホイール内、および車室内上部等に設置してもかまわない。
In the above-described embodiment, the example in which the
また、上述したドライバモニタECU2の処理順序、時間カウント方法、各種フラグデータによる状態判定方法等は、単なる一例に過ぎず他の順序や方法であっても、本発明を実現できることは言うまでもない。
In addition, the processing order of the
また、ドライバモニタECU2が実行するプログラムは、ドライバモニタECU2に設けられた記憶領域に予め格納されるだけでなく、外部記憶媒体を通じてドライバモニタECU2に供給されたり、有線または無線の通信回線を通じてドライバモニタECU2に供給されたりしてもよい。
The program executed by the
以上、本発明を詳細に説明してきたが、上述の説明はあらゆる点において本発明の例示にすぎず、その範囲を限定しようとするものではない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。 Although the present invention has been described in detail above, the above description is merely illustrative of the present invention in all respects and is not intended to limit the scope thereof. It goes without saying that various improvements and modifications can be made without departing from the scope of the present invention.
本発明に係る顔画像処理装置は、運転者に装置の状態を適切に報知することができ、車両に着席した運転者の状態を判定するシステム等に有用である。 The face image processing apparatus according to the present invention can appropriately notify the driver of the state of the apparatus, and is useful for a system for determining the state of the driver seated in the vehicle.
1…ドライバモニタカメラ
11…CCD
12…LED
2…ドライバモニタECU
3…ドライバサポートシステムECU
4…ミリ波レーダ
5…表示部
6…オーディオアンプ
61…スピーカ
7…ブレーキ制御ECU
71…警報ブザー
72…ブレーキACT
91…ステアリングホイール
911…リム
912…スポーク
92…ステアリングコラム
1 ...
12 ... LED
2 ... Driver monitor ECU
3. Driver support system ECU
4 ...
71 ...
91 ...
Claims (10)
前記撮像画像に撮像されている当該顔の特徴部を検出する特徴部検出手段と、
前記特徴部検出手段が何れかの前記特徴部を検出できなかった場合、当該特徴部を運転者へ報知する報知手段とを備える、顔画像処理装置。 Captured image acquisition means for acquiring a captured image from an imaging means for capturing the face of the driver of the vehicle;
Feature detection means for detecting a feature of the face imaged in the captured image;
A face image processing apparatus comprising: an informing means for informing a driver of the feature section when the feature section detection section cannot detect any of the feature sections.
前記報知手段は、前記特徴部検出手段が何れかの前記特徴部を検出できなかった場合、当該特徴部に対応して前記記憶手段に記憶された前記推定原因情報を、前記推定原因として運転者へ報知する、請求項2に記載の顔画像処理装置。 Storage means for storing in advance presumed cause information that cannot be detected for each feature,
In the case where the feature detection unit cannot detect any of the feature units, the notification unit uses the estimated cause information stored in the storage unit corresponding to the feature unit as the estimated cause. The face image processing apparatus according to claim 2, which notifies to
前記報知手段は、前記特徴部検出手段が何れかの前記特徴部を検出できなかった場合、当該特徴部に対応して前記記憶手段に記憶された前記推定原因情報および前記注意事項情報を、それぞれ前記推定原因および前記注意事項として運転者へ報知する、請求項3に記載の顔画像処理装置。 Storage means for preliminarily storing each presumed cause information that cannot be detected for each feature and precautionary information when the estimated cause is resolved,
The notification means, when the feature detection means could not detect any of the features, the estimated cause information and the notes information stored in the storage means corresponding to the feature, respectively, The face image processing apparatus according to claim 3, wherein a driver is notified of the estimated cause and the precautions.
前記特徴部検出手段は、前記撮像画像取得手段が前記撮像画像を取得する毎に当該撮像画像に撮像されている前記特徴部を検出し、
前記報知手段は、前記特徴部検出手段が同じ前記特徴部を第1の時間以上継続して検出できなかった場合、当該特徴部を運転者へ報知する、請求項1または2に記載の顔画像処理装置。 The captured image acquisition means acquires the captured image for each predetermined period from the imaging means,
The feature detection unit detects the feature captured in the captured image every time the captured image acquisition unit acquires the captured image.
The face image according to claim 1, wherein the notification unit notifies the driver of the feature portion when the feature portion detection unit cannot continuously detect the same feature portion for a first time or more. Processing equipment.
前記特徴部検出手段は、前記撮像画像取得手段が前記撮像画像を取得する毎に当該撮像画像に撮像されている前記特徴部を検出し、
前記報知手段は、前記特徴部を運転者へ報知した後、前記特徴部検出手段が当該特徴部を第2の時間以上さらに継続して検出できなかった場合、運転者へ当該特徴部を報知することを停止する、請求項1または2に記載の顔画像処理装置。 The captured image acquisition means acquires the captured image for each predetermined period from the imaging means,
The feature detection unit detects the feature captured in the captured image every time the captured image acquisition unit acquires the captured image.
The notification means notifies the driver of the feature section when the feature section detection section cannot detect the feature section for a second time or more after notifying the feature section to the driver. The face image processing apparatus according to claim 1, wherein the processing is stopped.
前記特徴部検出手段は、前記撮像画像取得手段が前記撮像画像を取得する毎に当該撮像画像に撮像されている前記特徴部を検出し、
前記報知手段は、前記特徴部を運転者へ報知した後、前記特徴部検出手段が当該特徴部の検出が可能となった場合、運転者へ当該特徴部を報知することを停止する、請求項1または2に記載の顔画像処理装置。 The captured image acquisition means acquires the captured image for each predetermined period from the imaging means,
The feature detection unit detects the feature captured in the captured image every time the captured image acquisition unit acquires the captured image.
The informing means stops informing the driver of the feature section when the feature section detection section becomes capable of detecting the feature section after informing the driver of the feature section. 3. The face image processing apparatus according to 1 or 2.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008148297A JP4935762B2 (en) | 2008-06-05 | 2008-06-05 | Face image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008148297A JP4935762B2 (en) | 2008-06-05 | 2008-06-05 | Face image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009296355A true JP2009296355A (en) | 2009-12-17 |
JP4935762B2 JP4935762B2 (en) | 2012-05-23 |
Family
ID=41544110
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008148297A Expired - Fee Related JP4935762B2 (en) | 2008-06-05 | 2008-06-05 | Face image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4935762B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014049863A (en) * | 2012-08-30 | 2014-03-17 | Canon Inc | Image processing device, control method therefor, control program, and imaging device |
JP2019087013A (en) * | 2017-11-07 | 2019-06-06 | トヨタ自動車株式会社 | Control device for vehicle |
WO2020217812A1 (en) * | 2019-04-22 | 2020-10-29 | キヤノン株式会社 | Image processing device that recognizes state of subject and method for same |
JP7546881B2 (en) | 2020-04-21 | 2024-09-09 | 株式会社野本 | Video shooting support system, and control method and program for video shooting support system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003189163A (en) * | 2001-12-18 | 2003-07-04 | Ricoh Co Ltd | Image pickup device |
JP2006222841A (en) * | 2005-02-14 | 2006-08-24 | Fuji Photo Film Co Ltd | Surveillance camera system |
JP2009201756A (en) * | 2008-02-28 | 2009-09-10 | Omron Corp | Information processor and information processing method, and program |
-
2008
- 2008-06-05 JP JP2008148297A patent/JP4935762B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003189163A (en) * | 2001-12-18 | 2003-07-04 | Ricoh Co Ltd | Image pickup device |
JP2006222841A (en) * | 2005-02-14 | 2006-08-24 | Fuji Photo Film Co Ltd | Surveillance camera system |
JP2009201756A (en) * | 2008-02-28 | 2009-09-10 | Omron Corp | Information processor and information processing method, and program |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014049863A (en) * | 2012-08-30 | 2014-03-17 | Canon Inc | Image processing device, control method therefor, control program, and imaging device |
JP2019087013A (en) * | 2017-11-07 | 2019-06-06 | トヨタ自動車株式会社 | Control device for vehicle |
WO2020217812A1 (en) * | 2019-04-22 | 2020-10-29 | キヤノン株式会社 | Image processing device that recognizes state of subject and method for same |
JP2020177557A (en) * | 2019-04-22 | 2020-10-29 | キヤノン株式会社 | Information processor, information processing method, and program |
JP7263094B2 (en) | 2019-04-22 | 2023-04-24 | キヤノン株式会社 | Information processing device, information processing method and program |
JP7546881B2 (en) | 2020-04-21 | 2024-09-09 | 株式会社野本 | Video shooting support system, and control method and program for video shooting support system |
Also Published As
Publication number | Publication date |
---|---|
JP4935762B2 (en) | 2012-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4888838B2 (en) | Driver imaging device and driver imaging method | |
JP4375420B2 (en) | Sleepiness alarm device and program | |
KR101386823B1 (en) | 2 level drowsy driving prevention apparatus through motion, face, eye,and mouth recognition | |
US7202793B2 (en) | Apparatus and method of monitoring a subject and providing feedback thereto | |
JP5406328B2 (en) | VEHICLE DISPLAY DEVICE, ITS CONTROL METHOD AND PROGRAM | |
US8063786B2 (en) | Method of detecting drowsiness of a vehicle operator | |
CN102310771A (en) | Motor vehicle safety control method and system based on driver face identification | |
US20060287779A1 (en) | Method of mitigating driver distraction | |
JP4788624B2 (en) | Careless warning device, vehicle equipment control method of careless warning device, and vehicle control device program | |
JP2016045714A (en) | On-vehicle control device | |
JP4840146B2 (en) | Sleepiness detection device | |
JP2002352229A (en) | Face region detector | |
CN202088896U (en) | Motor vehicle safety control system based on driver face recognition | |
JP6822325B2 (en) | Maneuvering support device, maneuvering support method, program | |
JP4935762B2 (en) | Face image processing device | |
JP2006318049A (en) | Operation support device for vehicle | |
KR101500016B1 (en) | Lane Departure Warning System | |
CN104376684A (en) | Monitoring system capable of preventing fatigue driving | |
JP2009166783A (en) | Symptom inference device | |
JP2005108033A (en) | Driver condition determination device and method | |
JP7024332B2 (en) | Driver monitor system | |
JP2010100088A (en) | Drive assist system | |
JP6689470B1 (en) | Information processing apparatus, program, and information processing method | |
KR20190044818A (en) | Apparatus for monitoring driver and method thereof | |
KR101360412B1 (en) | A system for monitoring loose/droway driver using head moving information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100720 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20110901 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111012 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120124 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120206 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150302 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4935762 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150302 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |