JP2010264856A - 画像処理装置 - Google Patents
画像処理装置 Download PDFInfo
- Publication number
- JP2010264856A JP2010264856A JP2009117311A JP2009117311A JP2010264856A JP 2010264856 A JP2010264856 A JP 2010264856A JP 2009117311 A JP2009117311 A JP 2009117311A JP 2009117311 A JP2009117311 A JP 2009117311A JP 2010264856 A JP2010264856 A JP 2010264856A
- Authority
- JP
- Japan
- Prior art keywords
- face
- driver
- image
- vehicle
- illuminance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】簡易な構成で、移動体の操縦者の顔画像処理を精度良く行うことのできる画像処理装置を提供する。
【解決手段】移動体の操縦者の顔を撮像する撮像手段と、上記撮像手段から得られる撮像画像に基づき上記操縦者の顔の特徴部の少なくとも位置を示す特徴部情報を検出する検出手段と、上記検出手段によって検出された前記特徴部情報を記憶する記憶手段と、上記移動体の照度の値を検出する照度検出手段とを備える。また、上記記憶手段は、上記照度検出手段が取得した上記照度の値が予め定められた条件を満たす場合、上記特徴部情報を記憶しないことを特徴とする。
【選択図】図5
【解決手段】移動体の操縦者の顔を撮像する撮像手段と、上記撮像手段から得られる撮像画像に基づき上記操縦者の顔の特徴部の少なくとも位置を示す特徴部情報を検出する検出手段と、上記検出手段によって検出された前記特徴部情報を記憶する記憶手段と、上記移動体の照度の値を検出する照度検出手段とを備える。また、上記記憶手段は、上記照度検出手段が取得した上記照度の値が予め定められた条件を満たす場合、上記特徴部情報を記憶しないことを特徴とする。
【選択図】図5
Description
本発明は、画像処理装置に関し、より特定的には、移動体に搭載され、当該移動体の操縦者の顔の状態を検出することができる画像処理装置に関する。
従来、移動体(以下、例として車両を想定する)に搭載されたカメラなどで、当該車両の操縦者(車両を想定しているので、以下、単にドライバーと称す)の顔を撮像し、撮像された画像からドライバーの状態を判定する画像処理装置がある。具体的には、上記画像処理装置は、撮像された顔画像を画像処理することにより、居眠り、よそ見、わき見など、当該ドライバーが車両を運転する際に認知判断が欠如するようなドライバーの状態を検出する。そして、上記画像処理装置は、上記状態を検出した場合、ドライバーへ警告を行ったり、危険を未然に回避するために、ドライバーが運転する車両を制御したりする。
より具体的に説明すると、上記画像処理装置はカメラによりドライバーの顔を撮像し、当該撮像画像中におけるドライバーの顔端の位置を検索し、当該顔端の位置に基づいて、当該撮像された画像からドライバーの顔の特徴部(例えば、ドライバーの眼や口、さらには顔向き角度など)を検出し、当該ドライバーの状態を判断する。
なお、上記画像処理装置は、例えば、当該撮像された画像からドライバーの特徴を検出する処理を行う毎に、撮像画像中においてドライバーの顔が存在する位置等が学習される。つまり、上記画像処理装置は、撮像された画像からドライバーの顔の特徴部を検出するとともに、撮像された画像においてドライバーの特徴部が存在する位置等を記憶しておく。これによって、上記画像処理装置が次回画像処理を行う際に、撮像された画像においてドライバーの顔の特徴部が存在する位置等を容易に推定することができ、迅速かつ確実に当該ドライバーの状態を判断することができるようになっている。
ところで、車両の車室内に設置されたカメラによって、当該車両のドライバーの顔を撮像し、撮像画像を得る場合、当該撮像画像は周囲の明るさによって影響を受けることがある。例えば、車両の窓から入射する太陽光が、当該車両のドライバーの顔に当たると、撮像された画像においてドライバーの顔が白くなりすぎたり、ドライバーの顔の一部に陰影が生じたりすることがある。特に、当該車両のドライバーの顔が外部の光によって照らされたり、照らされなかったりするようなことが断続的に繰り返される環境を車両が走行する場合、得られる画像の輝度などが安定しないため撮像画像から精度良くドライバーの顔を検索することが難しくなることがある。
このような問題に対して、例えば、人物の顔を撮像するとき、当該撮像環境が人物を撮像するのに適しなかった場合、明るさを調整する装置が開示されている(例えば、特許文献1)。
上記特許文献1に開示されている装置は、具体的には、画像データから人物の顔を検出し、検出した人物の顔を測光し、当該測光結果に基づいて発光手段(ストロボ)を制御し、撮影に適した発光を行う。これによって、人物撮影時に起こる赤目や白飛びを防止することができるようになっている。
しかしながら、上記特許文献1に開示されている装置を例えば、車両に搭載することを想定した場合、従来搭載されているカメラに加えて、発光手段(ストロボ)を搭載しなければならずコスト面においても不利であるし、運転中のドライバーの顔に直接ストロボ発光を行うことによる運転操作への影響も懸念される。
本発明は、上記事情に鑑みてなされたものであり、その目的とするところは、簡易な構成で、移動体の操縦者の顔画像処理を精度良く行うことのできる画像処理装置を提供することにある。
上記目的を達成するための、本発明は以下の構成を採用した。すなわち第1の発明は移動体の操縦者の顔を撮像する撮像手段と、上記撮像手段から得られる撮像画像に基づき上記操縦者の顔の特徴部の少なくとも位置を示す特徴部情報を検出する検出手段と、上記検出手段によって検出された上記特徴部情報を記憶する記憶手段と、上記移動体の照度の値を検出する照度検出手段とを備える。また、上記記憶手段は、上記照度検出手段が取得した上記照度の値が予め定められた条件を満たす場合、上記特徴部情報を記憶しないことを特徴とする。
第2の発明は、上記第1の発明において、上記照度検出手段が検出した上記照度の値が予め定められた値以上であった場合、上記記憶手段は、上記特徴部情報を記憶しないことを特徴とする。
第3の発明は、上記第1の発明において、上記照度の値が予め定められた時間内に予め定められた値を跨ぐように変化する回数が閾値を超えた場合、上記記憶手段は、上記特徴部情報を記憶しないことを特徴とする。
第4の発明は、上記第2または第3の発明において、上記特徴部検出手段が、上記照度の値が予め定められた値以下になってから当該予め定められた値を超えるまでの間に上記特徴部情報を検出することができた場合、上記記憶手段は、上記照度の値が上記予め定められた値以下になるまでに記憶された上記特徴部情報を消去することを特徴とする。
第5の発明は、上記第4の発明において、上記特徴部情報は、上記撮像手段から得られる撮像画像における上記操縦者の顔幅、眼、鼻、鼻孔、口、眉、および耳の位置、何れかを含むことを特徴とする。
上記第1の発明によれば、得られる画像が安定していると予想される場所で撮像された画像において画像処理された情報が、移動体の顔の特徴部が存在する位置等を推定する際に利用されることになる。言い換えると、得られる画像が安定していると予想される場所で撮像された画像について、操縦者の特徴部が存在する位置等が記憶手段に記憶されることになる。つまり、得られる画像が安定しない場所で撮像された画像についてからは、操縦者の特徴部が存在する位置等が記憶手段に記憶されず、画像処理には用いられることはなくなる。また、得られる画像が安定しているか否かは、例えば移動体に、従来から搭載されているコンライトセンサから得られる照度の値に基づき判断することができる。したがって、簡易な構成で、移動体の操縦者の顔画像処理を精度良く行うことのできる画像処理装置を提供することができる。
上記第2の発明によれば、照度検出手段が検出した照度の値が予め定められた値以上であった場合には、特徴部情報を上記記憶手段に記憶しない。したがって、例えば、操縦者の顔に直射日光が当たっている場合に撮像された画像において画像処理された情報(特徴部情報)は、移動体の顔の特徴部が存在する位置等を推定する際に利用されることはない。
上記第3の発明によれば、例えば、移動体が明るい場所から暗い場所に入り、再び移動体が明るい場所に入る、といったように、移動体の周囲が明るくなったり、暗くなったりするようなことが断続的に繰り返される場所で得られた画像において、つまり画像の輝度などが安定しない画像において学習され、記憶された特徴部情報は記憶されることがない。したがって、撮像された画像において移動体の顔の特徴部が存在する位置等を推定する際、安定しない画像において学習され、記憶された特徴部情報は用いられることはないので精度良く画像処理を行うことができるようになる。
上記第4の発明によれば、例えば、移動体を車両(具体的には自動車)と想定した場合、当該移動体がトンネル内走行をしているような環境、つまり、得られる画像が安定する場所であるかを判断したとき、ドライバーの顔の特徴部が存在する位置等を推定する際に利用される情報を学習し、記憶する処理を行うことができる。なお、このとき、例えば、処理中にドライバーの顔に直射日光が当たっていた場合、そのときに撮像された画像において処理された特徴部情報は、記憶されることはないので、ドライバーの顔の特徴部が存在する位置等を推定する際に当該特徴部情報は利用されることはなくなる。
上記第5の発明によれば、眼、鼻、鼻穴、口、眉、および耳などの特徴部を検出することができる。
まず、本実施形態の画像処理装置の概要について簡単に説明する。なお、以下の説明では、一例として画像処理装置が車両(より具体的には自動車を想定)に搭載される場合を例に説明する。
ドライバーの顔を撮像し、撮像された画像からドライバーの状態を判定する画像処理装置は、当該撮像された画像から、まずドライバーの顔の特徴部(より具体的にはドライバーの顔、眼、鼻、鼻孔、口、眉、および耳)を探す。このとき、画像処理装置は、当該画像処理装置内に記憶された情報、つまり、当該撮像された画像中においてドライバーの特徴部が存在しているだろう位置を示す情報(以下、特徴部情報と称す)を用いて、ドライバーの顔の特徴部を探す。なお、特徴部情報は、ドライバーの顔の特徴部が検出できたときに画像処理装置によって、学習され記憶されていく情報である。したがって、画像処理装置が精度良く画像処理を行うためには、画像処理装置に記憶されるのは確実な特徴部情報(例えば、顔の幅が正確)である必要がある。言い換えると、確実ではない特徴部情報は、画像処理に記憶されていくことは好ましくない。
例えば、車両のドライバーの顔に外部の光が当たったり、当たらなかったりするようなことが断続的に繰り返される環境を車両が走行したときに撮像された画像は、正確な特徴部情報が得ることが難しい。つまり、車両が上述したような環境を走行しているときに、ドライバーの顔を撮像した場合、その画像中におけるドライバーの顔は、一部が白くなったり、陰影が生じたりして、撮像画像は安定しない。そして、このような状況で撮像された画像から顔特徴部情報を学習したとしても、必ずしも精度のよい特徴部情報を得ることができないことがある。したがって、仮に、車両が上述したような環境を走行しているときに、特徴部情報を学習し、当該学習された特徴部情報を用いると、ドライバーの特徴部が存在しているだろう位置を精度よく推定することが困難であることが予想される。そこで、本実施形態に係る画像処理装置は、撮像された画像からドライバーの状態を正確に判定する際に必要とされる特徴部情報について、当該画像処理に記憶していくものである。
以下、図を参照しつつ本発明の一実施形態に係る画像処理装置について説明する。
なお、本実施形態では、当該画像処理装置を含むドライバーサポートシステムが車両に搭載される例について説明する。一例として、ドライバーサポートシステムは、当該画像処理装置が検出したドライバーの顔向き情報や眼に関する情報に基づいて、ドライバーが、よそ見、わき見をしているか否かを判断して、当該判断結果に応じた車両の制御を行う例を説明する。
まず、本実施形態に係る画像処理装置を含むドライバーサポートシステムの機能構成について説明する。
図1は、上記画像処理装置を含むドライバーサポートシステムの機能構成の一例を示すブロック図である。図1において、ドライバーサポートシステムは、カメラ1、画像処理ECU2、レーダ装置3、衝突判断ECU(Electronic Control Unit)4、ブレーキ制御ECU5、メーター6、およびボデーECU7を備えている。なお、ボデーECU(Electronic Control Unit)7には、コンライトセンサ71が接続されており、ブレーキ制御ECU(Electronic Control Unit)5には、警報ブザー51およびブレーキACT(アクチュエータ)52が接続されている。
カメラ1は、ドライバーの顔を撮像する、例えばCCDカメラ、赤外線カメラ等である。カメラ1は、運転席に着席したドライバーの顔を正面から撮像できる位置に設置される。図2は、カメラ1の設置位置の一例を示した図である。図2に示すように、カメラ1は、運転席に着席したドライバーの顔を正面から撮像できるように、例えば上記車両のステアリングコラム上に設置される。なお、図2に示すカメラ1の設置位置は一例であり、例えば、上記車両のメーターフード内、メーターパネル内などにカメラ1を設置してもかまわない。また、カメラ1は、所定時間間隔でドライバーの顔を正面から撮像し、当該撮像した画像を画像処理ECU2に出力する。なお、ドライバーの顔を撮像する際の照明として、カメラ1とともに赤外線LED(Light Emitting Diode)(図示せず)を備えてもよい。
図1の説明に戻って、画像処理ECU2は、メインマイクロコンピュータ(以下メインマイコンと称す)21、サブマイクロコンピュータ(以下サブマイコンと称す)22、顔画像パターン格納部23、および記憶部24等を備えている。また、画像処理ECU2には、上述したドライバーの顔を撮像するカメラ1と、後述する衝突判断ECU4とが接続されている。
メインマイコン21は、CPU(中央演算装置)およびメモリ等で構成される。また、メインマイコン21は、カメラ1が撮像した画像から、ドライバーの顔向きの検出を行う。具体的には、カメラ1が撮像した画像の所定方向にソーベルフィルタ処理を施し、処理後のソーベル画像内における輝度の差を用いて、当該ソーベル画像内から縦方向のエッジ点を抽出する処理を行う。そして、当該ソーベル画像から抽出した縦方向のエッジ点を用いて、当該ソーベル画像におけるドライバーの顔の幅を算出する処理を行う。
サブマイコン22は、CPUおよびメモリ等で構成される。また、サブマイコン22は、カメラ1が撮像した画像から、ドライバーの眼の瞬きの回数、閉眼時間など、ドライバーの眼に関する状態を検出して、それら状態を示す情報を生成し、衝突判断ECU4に出力する。なお、詳細は後述するが、具体的には、サブマイコン22は、カメラ1が撮像した画像に対して2値化処理やパターンマッチング処理等を用い、当該撮像画像におけるドライバーの眼、鼻、および口の位置を推定し、ドライバーの眼、鼻、および口を検出する。
なお、メインマイコン21は上記画像処理装置において、撮像された画像からドライバーの状態を正確に判定する際に必要とされる特徴部情報か否かを判断し(詳細な動作については後述のフローチャートで説明)、当該判断を肯定した場合に、後述する記憶部24に特徴部情報を記憶する。
言い換えると、メインマイコン21は、予め定められた条件を満たす場合には、当該顔幅を示す情報を特徴部情報の一つとして後述する記憶部24に記憶することはしない。例えば、ドライバーの顔の一部に光が当たっているときにカメラ1によって撮像された画像は、画像の輝度などが安定しないことが予想される。そのため、このような状況で撮像された画像から算出されたドライバーの顔の幅を特徴部情報として、後述する記憶部24に記憶するのは好ましくない。つまり、得られる画像の輝度などが安定しない画像において学習され記憶された特徴部情報を用いて、次回撮像画像からドライバーの顔の幅を算出する処理を行うことはしない。
なお、すなわち、メインマイコン21は、例えば、カメラ1が撮像した画像において、ドライバーの顔の端となる当該撮像画像の右端および左端からの距離(単位は画素数でも画像における実際の距離でもよい)等を算出し、当該算出結果を示す情報を特徴部情報として順次記憶していく。つまり、メインマイコン21が、次回、撮像画像からドライバーの顔の幅を算出するとき、当該撮像画像中においてドライバーの顔が存在しているだろう位置を前もって推定できるため画像処理が容易になる。
また、上記特徴部情報は、撮像画像中におけるドライバーの顔の幅を示す情報に限られるものではない。例えば、撮像画像におけるドライバーの顔幅、眼、鼻、鼻孔、口、眉、および耳の位置、何れかを含む。
より具体的には、例えば、メインマイコン21は、サブマイコン22が撮像画像から特徴部を検出した場合、撮像画像中におけるドライバーの眉上から眼下までの距離、眼下から鼻下までの距離、鼻下から口下までの距離や、当該眉上、眼下、および鼻下が存在する位置等を示す情報を上記特徴部情報に含めて記憶部24に記憶してもよい。つまり、ドライバーの眼、鼻、および口等をドライバーの顔の特徴部と称すならば、撮像画像中における、当該特徴部の大きさや形状(顔カーブ)、特徴部間の距離や位置関係なども特徴部情報に含まれる。なお、上記特徴部は、ドライバーの顔の端も含まれるものとする。
図1の説明に戻って、顔画像パターン格納部23は、読み書き可能な記憶媒体で構成され、人物の顔画像パターンを示す情報が記憶されている。具体的には、顔画像パターンは、人物の平均的な特徴部のテンプレート画像(例えば、口のテンプレート画像)を含んでいる。なお、顔画像パターン格納部23に記憶されている顔の情報は、例えば上記車両のユーザーの書き換え作業によって、適宜情報が更新されてもよい。
記憶部24は、メインマイコン21が生成した特徴部情報を一時的に記憶する読み書き可能な記憶媒体である。詳細は後述のフローチャートで説明するが、例えば、メインマイコン21が処理を繰り返すことによって、記憶部24には、特徴部情報if(1)、if(2)、if(3)、if(4)、if(k)、if(K−1)、…if(K)と順次記憶されていく(k=1、2、3…)。つまり、撮像画像中において車両を運転しているドライバーの顔の特徴部が存在する箇所を示す情報(特徴部情報if)が、メインマイコン21によって学習され、記憶部24に一時的に記憶される。そして、特徴部ifは、例えば、次回、撮像画像からドライバーの顔の幅を算出する処理を行うときに用いられる。
なお、上述したように、(顔情報if(1)以外の)顔情報if(2)、顔情報if(3)、顔情報if(4)、顔情報if(5)…は、予め定められた条件を満たすとメインマイコン21は判断した場合には、記憶部24には記憶されない。
一方、初期学習値、つまり顔情報if(1)については、予め定められた条件に関わらず、メインマイコン21によって学習され記憶される。
具体的には、メインマイコン21が行う初期学習値の記憶については(例えば、当該メインマイコン21を含むドライバーサポートシステムの電源がONされたときに、顔情報ifを初めて記憶するときは)、当該メインマイコン21は、車両の周囲の明るさに関わらず、撮像画像からドライバーの顔の幅を算出する処理を容易にするためにシステム上必要とされる顔情報ifを全て学習し、記憶する。つまり、例えば、当該メインマイコン21を含むドライバーサポートシステムの電源が初めてONされたとき(より具体的な場面としては、運転を終了して再び当該車両を運転する場合)を想定すると、ドライバーが代っている場合も考えられるため、メインマイコン21が顔情報ifを初めて記憶するときは、当該メインマイコン21は、ドライバーの顔情報の学習し、記憶する処理を行う。
なお、本実施形態に係る画像処理装置を含むドライバーサポートシステムは、撮像画像を処理し、ドライバーの状態を判断し、当該判断結果に応じて、場合によっては早急に安全措置を行う必要がある。そのため、メインマイコン21は、顔情報ifの学習および記憶に割ける時間は必ずしも長くない。言い換えると、顔情報if(1)以降の顔情報ifの学習および記憶は、ドライバーサポートシステムにおいて許容される時間で行われる。
図1の説明に戻って、レーダ装置3は、車両の所定の位置(例えば、自車の前部左右の前照灯や方向指示器などが搭載されている位置や車両の前部の中央)に設置され、外側に向けて電磁波を照射し、車両前方の周囲を監視している。具体的には、レーダ装置3は、車両の前方向へ向けて、電磁波を出射し、当該車両の前方向に存在する対象物(ターゲット)から反射した電磁波を受信する。そして、レーダ装置3は、受信した電磁波に基づいて、車両の周辺に存在するターゲットの位置や自車との相対速度、相対距離等を算出し、当該算出結果をターゲット情報として衝突判断ECU4に出力する。
衝突判断ECU4は、画像処理ECU2およびレーダ装置3から出力される情報に基づいて、車両のドライバーおよび当該車両が危険な運転状態であるか否かを推定する。
具体的には、衝突判断ECU4は、ドライバーの顔向き情報やドライバーの眼に関する情報を用いて、ドライバーの状態が危険な運転状態に繋がり得る状態であるか否かを推定する。つまり、衝突判断ECU4は、ドライバーの眼に関する情報を用いて、ドライバーは「わき見をしている」、「よそ見をしている」、「眼を閉じている(居眠りをしている可能性がある)」などを推定し、推定したドライバーの症状に基づいて、車両に設置されている各種装置の動作を制御して然るべき措置を行う。
また、衝突判断ECU4は、レーダ装置3から出力されるターゲット情報に基づいて、車両とターゲットとが衝突する危険性があるか否かを判断する。例えば、衝突判断ECU4は、車両とターゲットとが衝突するまでの時間、つまり衝突予測時間(TTC(Time to collision))をターゲットに算出する。そして、TTCを算出した結果、当該算出されたTTCが予め定められた時間より短かった場合、衝突判断ECU4は、車両に設置されている各種装置の動作を制御して然るべき措置を行う。なお、TTCは、具体的には、相対距離を相対速度で除算(TTC=相対距離/相対速度)することによって求めることができる。
ブレーキ制御ECU5は、車両に搭載された警報ブザー51やブレーキACT52の動作を制御する。例えば、ドライバーは「わき見をしている」、「よそ見をしている」、「眼を閉じている(居眠りをしている可能性がある)」などの可能性があると衝突判断ECU4が推定した場合、ブレーキ制御ECU5は、警報ブザー51を作動させてドライバーに注意喚起を行う。また、例えば、車両とターゲットとの衝突の危険性があると衝突判断ECU4が判断した場合、ブレーキ制御ECU5は、警報ブザー51を作動させて運転者に注意喚起を促すとともに、場合によってはドライバーがブレーキペダルを踏んだ力に応じて、ブレーキ油圧を加圧加勢するように、ブレーキACT52の動作を制御する等を行う。
メーター6は、車両の運転席に着席して当該車両を運転するドライバーから視認可能な位置に設置される。具体的には、メーター6は、運転席前面の計器盤(インストルメントパネル)に設けられる。そして、メーター6は、衝突判断ECU4からの指示に応じた警報をドライバーに対して表示する。例えば、ドライバーは「わき見をしている」、「よそ見をしている」、「眼を閉じている(居眠りをしている可能性がある)」などの可能性があると衝突判断ECU4が推定した場合、メーター6にドライバーに注意喚起を促す表示を行う。また、例えば、車両とターゲットとの衝突の危険性があると衝突判断ECU4が判断した場合、メーター6にドライバーに危険回避を促す表示を行う。
典型的には、メーター6は、主要ないくつかの計器、表示灯、警告灯、および各種情報を表示するマルチインフォメーションディスプレイ等を1つのパネル内に組み合わせて配置したコンビネーションメーターで構成される。なお、メーター6は、ハーフミラー(反射ガラス)を運転席前面のフロントガラスの一部に設け、当該ハーフミラーに情報等の虚像を蛍光表示するヘッドアップディスプレイ(Head-Up Display;以下、HUDと記載する)等、他の表示装置で構成してもよい。
また、衝突判断ECU4が画像処理ECU2およびレーダ装置3から出力される情報に基づいて、車両のドライバーおよび当該車両が危険な運転状態であるか否かを推定し、危険な運転状態であった場合の一例としてブレーキ制御ECU5およびメーター6を制御する例を説明したが、これに限られるものではない。例えば、車両のドライバーが、ターゲットとの衝突の被害を低減するためにシートベルトを巻き取り、シートを駆動させたりすることにより車両の乗員の拘束性を高めたり、エアバッグのセーフィング解除をしたり、シートポジションを衝突に備えたポジションに変更したりする衝突被害低減装置等も制御する。なお、衝突判断ECU4が画像処理ECU2およびレーダ装置3から出力される情報に基づいて、車両のドライバーおよび当該車両が危険な運転状態であるか否かを推定し、危険な運転状態であった場合に各種装置に対して行う動作を総称して、以下、安全措置と称す。
図1の説明に戻って、ボデーECU7は、ヘッドライト(テールライトも同様、以下同じ)の点灯/消灯を制御する。また、ボデーECU7には、コンライトセンサ(照度センサ)71が接続されている。
ここで、コンライトセンサ71について簡単に説明する。コンライトセンサ71は、車両の周囲の照度(明るさ)を検出するためのセンサであり、照度に応じた信号をボデーECU7に出力する。また、コンライトセンサ71は、車両の周囲の照度を検知しやすい場所に取り付けられている(例えば、図3に示すように、車両の車室内のインストルメントパネル上部)。
そして、ボデーECU7は、コンライトセンサ71からの出力信号に基づいて、車両周囲の照度の検出値を算出する。さらに、ボデーECU7は、例えば、車両の周囲が暗くなった場合(夜間、雨天、トンネル走行時)、ヘッドライトを点灯させ、一方、周囲が明るくなった場合(例えば車両がトンネルから抜けた場合等)ライトを消灯する。なお、ボデーECU7がコンライトセンサ71からの出力信号に基づいて、ライトの点灯/消灯を行う動作を以下、オートライト制御と称す。
ここで、図4を用いて、オートライト制御について、より具体的に説明する。図4は、オートライト制御を説明するための図である。なお、図4の縦軸はコンライトセンサ71からの出力信号に基づいてボデーECU7によって算出される照度の検出値を表し、図4の横軸は時間を表す。また、図4の縦軸に示した照度の検出値の閾値LAは、ライトの点灯/消灯を行うか否かの基準となる値である。具体的には、照度の検出値が閾値LAを超えている場合、ボデーECU7は、車両の周囲は明るい(換言すれば、ライト点灯の必要はない)と判断し、ライトは点灯させない。一方、照度の検出値が閾値LAを下回っている場合、車両の周囲は暗い(換言すれば、ライトを点灯する必要はある)と判断し、ライトを点灯させる。
なお、図4に示したオートライト制御の例では、説明を簡単にするために、ライトの点灯/消灯を行うか否かの基準となる値である閾値を閾値LAの1つとしたがこれに限られるものではなく、ライトの点灯/消灯を行うか否かの基準となる値である閾値を多段階的に複数設定してもよい。例えば、閾値LAが設定されている照度の検出値より低い値で、さらに閾値LBを設定する。そして、照度の検出値が閾値LAを下回ったときに消灯し、照度の検出値が閾値LBを超えたときに点灯するようにしてもよい。
ここで、車両が走行している場合を想定し、図4について説明する。例えば、ある時刻(図4のAとする)の照度の検出値がL1であるとすると、当該照度の検出値L1は、閾値LAを超えているので、車両の周囲は明るいと考えられる。この場合、ボデーECU7は、ライトの点灯は行わない。そして、時間が経過し(車両が走行し)、ある時刻Bのとき照度の検出値がL1であるとすると、当該照度の検出値L1は、閾値LAを下回っているので、車両の周囲は暗くなったと考えられる。
この場合、ボデーECU7は、ライトを点灯させる。さらに、時間が経過し(車両がさらに走行し)、ある時刻Cのとき照度の検出値がL1に戻ったとすると、当該照度の検出値L1は、閾値LAを超えているので、車両の周囲は明るくなったと考えられる。この場合、ボデーECU7は、ライトを消灯する。つまり、ある時刻(図4のA)から、ある時刻Cのまでの間に、車両は、当該車両の周囲が明るい箇所から暗い場所を通過し、再び明るくなった場所にいたといえる。例えば、ある時刻Bから、ある時刻Cになるまでの時間(図4のΔt(CB))が比較的短い場合、図4に示したような状況が考えられることとして、例えば、車両が走行をしていた区間にトンネルがあった場合などが考えられる。
次に、本実施形態に係る画像処理装置を含むドライバーサポートシステムにおいて行われる処理の流れの一例を説明する。なお、以下の説明では、カメラ1が撮像した画像から画像処理ECU2が行う、ドライバーの特徴部を算出および検出する処理について主に説明する。
図5は、本実施形態に係る画像処理装置を含むドライバーサポートシステムにおいて行われる処理の流れの一例を示したフローチャートである。なお、図5に示したフローチャートに示される処理は、画像処理ECU2が所定のプログラムを実行することにより行われる。また、図5に示すフローチャートに示す処理は、ドライバーサポートシステムの電源がON(例えば、当該ドライバーサポートシステムが搭載された車両のイグニッションスイッチがON)されることによって開始され、OFFされることによって終了する。なお、イグニッションスイッチは、以下IGと略す。
ステップS51において、メインマイコン21は、IGがONであるか否かを判断する。そして、IGがONであると判断した場合(YES)、次のステップS52に処理を進める。一方、メインマイコン21は、IGがONではない、つまりIGがOFFであると判断した場合(NO)、当該フローチャートでの処理を終了する。
ステップS52において、メインマイコン21は、顔情報if(1)が記憶部24に記憶されているか否か、つまり初期学習値が記憶部24に記憶されているか否かを判断する。そして、メインマイコン21は、判断を否定した場合(YES)、次のステップS53に処理を進める。一方、メインマイコン21は、判断を肯定した場合(NO)、ステップS54に処理を進める。
ステップS53において、メインマイコン21およびサブマイコン22は、画像処理(A)を行う。以下、図6を参照して、画像処理(A)について説明する。図6は、図5のステップS53における処理の一例を示すフローチャートである。
まず、図6のステップS61において、メインマイコン21は、カメラ1が撮像した画像を取得する。そして、メインマイコン21は、次のステップS62に処理を進める。
次のステップS62において、メインマイコン21は、上記ステップS61で取得した撮像画像の所定方向(例えば、縦方向)にソーベルフィルタ処理を施す。そして、メインマイコン21は、処理後のソーベル画像内における輝度の差を用いて、当該ソーベル画像内から縦方向のエッジ点を抽出する処理を行い、次のステップS63に処理を進める。
ステップS63において、メインマイコン21は、上記ステップS62でのソーベル画像から抽出した縦方向のエッジ点を用いて、当該ソーベル画像におけるドライバーの顔の幅を算出する処理を行う。具体的には、メインマイコン21は、抽出された縦方向のエッジ点に対するヒストグラム(縦エッジヒストグラム)を生成し、顔の左右両端の長い輪郭を検出することによってドライバーの顔右端および顔左端を抽出する。そして、メインマイコン21は、抽出された顔右端の位置から顔左端の位置を減算した長さを、ドライバーの顔幅として算出する。また、メインマイコン21は、算出されたドライバーの顔の幅の情報をサブマイコン22に出力する。そして、メインマイコン21は、次のステップS64に処理を進める。
ステップS64において、メインマイコン21は、上記ステップでの処理で算出されたドライバーの顔の幅の情報を顔情報(1)として記憶部24に一時的に記憶する。
また、ステップS64において、メインマイコン21は、上記ステップS63での処理で算出したドライバーの顔の幅を用いて、撮像画像におけるドライバーの眼、鼻、および口の位置を推定してもよい。具体的な方法の一例として、メインマイコン21は、撮像画像の所定方向(例えば、横方向)にソーベルフィルタ処理を施す。そして、メインマイコン21は、横方向のソーベル画像を用いて特徴部を抽出した画像(白黒白エッジ画像)を作成して、眼、鼻、および口の位置を推定する。
さらに、メインマイコン21は、撮像画像中において眼、鼻、および口の位置を推定することができたら、顔の中心線を算出し、当該撮像画像におけるドライバーの顔向き角度を算出してもよい。具体的な方法の一例として、メインマイコン21は、当該検出された顔左端、顔右端、および顔の中心線を用いて、顔の左右比率を算出し、当該左右比率を角度に換算してドライバーの顔向き角度を算出する。
なお、上述したように、当該ステップS64で記憶する顔情報ifは初期学習値であり、メインマイコン21は、ドライバーの顔の特徴部を示す情報を初めて学習することになる。
また、このとき、衝突判断ECU4は、メインマイコン21から、当該メインマイコン21が算出したドライバーの顔向き角度を取得し、安全措置が必要か否かを判断してもよい。例えば、衝突判断ECU4は、メインマイコン21が算出したドライバーの顔向き角度に基づいて、ドライバーの顔向きが正面であるか否か(よそ見やわき見をしているか否か)を判断して、必要であれば、安全措置を行う。
ステップS65において、サブマイコン22は、閉眼検知処理を行う。以下、図7を参照して、ステップS65においてサブマイコン22が行う閉眼検知処理について説明する。図7は、図6のステップS65における処理の一例を示すフローチャートである。
図7のステップS71において、サブマイコン22は、上記ステップS61で取得した撮像画像からドライバーの鼻孔を探す。例えば、サブマイコン22は、メインマイコン21から取得した顔幅を示すデータと、顔画像パターン格納部23に格納されている顔画像パターンとを用いて、上記撮像画像において鼻孔が存在していると予想される範囲、すなわち鼻孔検索範囲を設定する。そして、サブマイコン22は、設定した鼻孔検索範囲内の撮像画像から輝度が相対的に低い画素を検出し、それら低輝度画素群の円らしさを算出する。そして、サブマイコン22は、円らしさが最も高い(円に近い)点群をドライバーの鼻孔とし、ステップS72に処理を進める。
ステップS72において、サブマイコン22は、鼻孔を探すことができたか否かを判断する。サブマイコン22は、判断を肯定した場合(YES)、つまり、鼻孔を探すことができた場合、次のステップS75に処理を進める。一方、サブマイコン22は、判断を否定した場合(NO)、つまり、鼻孔を探すことができなかった場合、ステップS73に処理を進める。
ステップS73において、サブマイコン22は、上記ステップS61で取得した撮像画像からドライバーの口を探し、次のステップS74に処理を進める。例えば、サブマイコン22は、メインマイコン21から取得した顔幅を示すデータと、顔画像パターン格納部23に格納されている顔画像パターンとを用いて、上記撮像画像において口が存在していると予想される範囲、すなわち口検索範囲を設定する。次に、サブマイコン22は、設定した口検索範囲内の撮像画像に対してエッジラインを抽出する画像処理を実施する。そして、サブマイコン22は、顔画像パターン格納部23に記憶されている口のテンプレート画像を用いて、エッジラインが抽出された画像に対するパターンマッチング処理を行って一致度を算出する。
ステップS74において、サブマイコン22は、口を探すことができたか否かを判断する。そして、サブマイコン22は、判断を肯定した場合(YES)、つまり、口を探すことができた場合、ステップS75に処理を進める。一方、サブマイコン22は、口を探すことができなかった場合、当該フローチャートの処理を終了する。
ステップS75において、サブマイコン22は、上記ステップS61で取得した撮像画像からドライバーの眼を特定して、ステップS75に処理を進める。例えば、上記ステップS71またはステップS73で検出したドライバーの鼻孔または口の位置を基準として、上記撮像画像における眼の位置を推定する。そして、サブマイコン22は、推定された眼の位置における撮像画像に対して、エッジラインを抽出する画像処理を実施する。さらに、サブマイコン22は、顔画像パターン格納部23に記憶されている眼のテンプレート画像を用いて、エッジラインが抽出された画像に対するパターンマッチング処理を行って一致度を算出する。
ステップS76において、サブマイコン22は、眼を特定できたか否かを判断する。そして、サブマイコン22は、判断を肯定した場合(YES)、つまり、眼を特定ができた場合、次のステップS77に処理を進める。一方、サブマイコン22は、判断を否定した場合(NO)、つまり、眼が特定できなかった場合、当該フローチャートの処理を終了する。
ステップS77において、サブマイコン22は、上記ステップS61で取得した撮像画像からドライバーの上瞼を検出する。具体的には、サブマイコン22は、上記ステップS75で特定した眼の位置においてエッジラインを抽出する処理を行い、眼画像を抽出する。そして、サブマイコン22は、抽出した眼画像にからパターンマッチングなどにより上瞼を検出し、次のステップS78に処理を進める。
ステップS78において、サブマイコン22は、上記ステップS61で取得した撮像画像からドライバーの下瞼を検出する。具体的には、サブマイコン22は、上記ステップS75で特定した眼の位置においてエッジラインを抽出する処理を行い、眼画像を抽出する。そして、サブマイコン22は、抽出した眼画像にからパターンマッチングなどにより下瞼を検出し、当該フローチャートの処理を終了する。
また、このとき、衝突判断ECU4は、サブマイコン22により検出された、上瞼および下瞼(上記ステップS77およびステップS78での処理)とについて、当該上瞼と下瞼との距離を算出し、当該距離は予め定められた距離であるか否かを判断し(例えば、ドライバーは居眠りをしているか否か)、必要であれば、安全措置を行ってもよい。
なお、カメラ1が撮像した画像からドライバーの上瞼と下瞼とを検出する手法は一例であり、上述した例に限らず既知の手法を用いてもかまわない。
図5のフローチャートの説明に戻り、図5のステップS54において、メインマイコン21は、照度を取得する。具体的には、ボデーECU7で算出された照度の検出値をCAN(Controller Area Network)等を介して衝突判断ECU4から取得する。そして、メインマイコン21は、次のステップS55に処理を進める。
ステップS55において、メインマイコン21は、上記ステップS54で取得した照度の検出値は閾値LA以下であるか否かを判断する。メインマイコン21は、判断を肯定した場合(YES)、つまり、照度が閾値LA以下であった場合、次のステップS56に処理を進める。一方、メインマイコン21は、判断を否定した場合(NO)、つまり、照度が閾値LA以下ではなかった場合、ステップS59に処理を進める。なお、当該ステップでの判断が否定される場合とは、例えば、車両の周囲が暗い場合(夜間や雨天走行時)や、車両が明るい所から暗い場所に入った場合(トンネル走行)が考えられる。この場合、メインマイコン21は、次のステップS56において、画像処理(B)を行う。なお、ステップS56において行われる画像処理(B)の詳細は後述し、当該ステップでの判断が否定された場合(車両が昼間走行時など)の次のステップS59での画像処理(C)の詳細を先に説明する。
図8は、図5のステップS59における処理の一例を示すフローチャートである。なお、図8に示した、ステップS81〜ステップS83、およびステップS85の処理は、上述した図6のステップSステップS61〜ステップS63、およびステップS65と同様である。つまり、図6および図8に示す処理において、図8のステップS81の処理は図6のステップS61の処理に、ステップS82の処理はステップS62の処理に、ステップS83の処理はステップS63の処理に、ステップS85の処理はステップS65の処理にそれぞれ対応するので説明は省略する。図8に示した処理のおいて、ステップS84の処理が、図6のステップS64の処理と異なる。
図8のステップS84の処理において、メインマイコン21は、変数kをインクリメント(k=k+1)し、顔情報(k)を記憶する。具体的には、当該ステップでの処理が行われることによって、記憶部24には、既に記憶されている顔情報(1)に加えて、顔情報(2)、顔幅情報i(3)…と記憶されることになる。なお、当該ステップでの処理において、メインマイコン21が記憶する顔情報(k)もカメラ1が撮像した画像における、ドライバーの顔の端となる当該撮像画像の右端および左端からの距離の位置等を含む情報である。
そして、次回画像処理ECU4が顔の幅の算出処理を行う際や閉眼検知処理を行う際に、当該画像処理ECU4は記憶部24に記憶されている顔情報ifを用いて(最新の顔情報if(k)や初期学習値を用いて)、撮像画像中においてドライバーの顔が存在しているだろう位置を前もって推定して画像処理を行えばよい。これによって、撮像画像からドライバーの顔の幅を算出する処理が容易になる。
図5の説明に戻って、上記ステップS55の処理でメインマイコン21により判断が肯定(YES)された次の処理であるステップS56において、当該メインマイコン21は、画像処理(B)を行う。
ここで、当該ステップS56における処理が行われるのは、例えば、車両の周囲が暗い場合(夜間や雨天走行時)や、車両が明るい場所から暗い場所に入った場合(トンネル走行)である。
一般的に、車両の車室内に設置されたカメラによって、当該車両のドライバーの顔を撮像し、ドライバーの顔画像を得る場合、当該顔画像は周囲の明るさによって影響を受けやすくなる。具体的には、例えば、車両の窓から入射する太陽光が、当該車両のドライバーの顔に当たり、撮像された画像におけるドライバーの顔が白くなりすぎたり、ドライバーの顔の一部に陰影が生じたりすることがある。そして、上記ドライバーの顔を車両の車室内に設置されたカメラによって撮像した場合、得られる顔画像にも一部に陰影が生じることがある。そのため、該撮像された顔画像を用いて、ドライバーの顔の特徴部(口、鼻孔、眼など)を検出しようとする場合、上記顔画像から、例えば、エッジの抽出する処理を行う場合、精度良くエッジ点の抽出等を行うことができない問題が生じることがある。そこで、外乱光の影響を受け難い環境(例えば、トンネル内走行)になったときに、メインマイコン21は、ステップS56において、再度、顔情報(1)(初期学習値)を記憶し直す処理を行う。
図9は、図5のステップS56における処理の一例を示すフローチャートである。なお、図9に示した、ステップS91〜ステップS84の処理は、上述した図6のステップSステップS61〜ステップS63、およびステップS65と同様である。つまり、図6および図9に示す処理において、図9のステップS91の処理は図9のステップS91の処理に、ステップS92の処理はステップS92の処理に、ステップS93の処理はステップS93の処理に、ステップS94の処理はステップS65の処理にそれぞれ対応するので説明は省略する。
図9のステップS95において、メインマイコン21は、初期学習値を記憶してもよいか否かを判断する。そして、メインマイコン21は、判断を肯定した場合(YES)、つまり、初期学習値を記憶してもよいと判断した場合、次のステップS96において、顔情報(1)を再度学習し記憶する。一方、サブマイコン22は、判断を否定した場合(NO)、つまり、初期学習値を記憶しないと判断した場合、当該フローチャートの処理を終了する。
なお、顔情報(1)を記憶するステップS96の処理とは、上記ステップS91〜ステップS93の処理に基づいて、再度、顔情報ifの初期学習値である顔情報if(1)を学習し、記憶部24に記憶することである。つまり、車両が、外乱光の影響を受け難い環境(例えば、トンネル内走行中)になった機会にメインマイコン21は、顔情報ifの初期学習値である顔情報if(1)を再度学習し記憶部24に記憶することによって、顔情報if(1)を更新する。
より具体的に説明すると、上記ステップS95において、メインマイコン21が初期学習値を記憶してもよいか否かを判断するときに、例えば、記憶部24には、初期学習値を含む顔情報if(k)、k個の顔情報ifが記憶されていたと想定する。そして、上記ステップS95での判断が肯定された場合、メインマイコン21は、記憶部24に記憶されているk個の顔情報ifを消去し、上記ステップS95の次のステップS96で、再度顔情報if(1)を記憶する。つまり、記憶部24に、これまで記憶されている顔情報ifは、外乱光の影響が無いなど、安定した画像が得られると想定される場所において消去されることになり、当該記憶部24には、最新の顔情報if(1)が記憶されることとなる。したがって、ドライバーの顔の特徴部が存在する位置等を推定する際に利用される情報(顔情報if)が正確なものとなる。
なお、図9のステップS95において判断が否定される場合とは、上記ステップS91〜ステップS93の処理を行っている際に、外乱光の影響を受け難い環境ではなくなった場合である。例えば、当該判断が否定される場合とは、車両がトンネル内を走行中であったが、上記ステップS91〜ステップS93の処理の間に車両がトンネルから出て、再び車両の周囲が明るい環境になった場合が考えられる。つまり、初期学習値である顔情報if(1)を再度学習し、記憶する処理の間に、外乱光の影響を受け難い環境ではなくなった場合である。この場合、ステップS91〜ステップS93の処理の間、外乱光の影響を受け難い環境ではなかったので、顔情報ifの初期学習値である顔情報if(1)を再度学習し、記憶部24に記憶する機会とはせず、ステップS91〜ステップS93の処理の間に学習された顔情報ifは記憶部24には記憶されず、顔情報if(1)の更新されない。
なお、図9のステップS95において判断は、例えば、メインマイコン21は、ボデーECU7で算出された照度の検出値をCAN等を介して衝突判断ECU4から取得し、照度の検出値は閾値LA以下であるか否かによって行えばよい。
図5の説明に戻って、ステップS57において、メインマイコン21は、現在、車両が走行している環境は、半トンネルであるか否かを衝突判断ECU4から得られる情報に基づいて判断する。
ここで、「半トンネル」について説明する。本説明において、半トンネルとは、車両が明るいから暗い場所に入り、再び車両が明るい場所に入る、といったように、車両の周囲が明るくなったり、暗くなったりするようなことが断続的に繰り返される場所のことである。車両が実際に走行している場面では、上記半トンネルとは、例えば、車両が鉄道の高架橋の下を通過する場合や、長さが非常に短いトンネルを連続して複数通る場合が考えられる。
なお、現在、車両が走行している環境は、いわゆる半トンネルであるか否かは、コンライトセンサ71からの信号に基づいて、衝突判断ECU4が判断する。以下、図10を参照して、衝突判断ECU4が行う処理について説明する。
図10は、衝突判断ECU4において行われる処理の流れの一例を示したフローチャートである。なお、図10に示したフローチャートに示される処理は、衝突判断ECU4が所定のプログラムを実行することにより行われる。また、図10に示すフローチャートに示す処理は、ドライバーシステムの電源がON(例えば、当該ドライバーシステムが搭載された車両のイグニッションスイッチがON)されることによって開始され、OFFされることによって終了する。なお、イグニッションスイッチは、以下IGと略す。
なお、本実施形態では一例として、図10の処理は、衝突判断ECU4が行うものとして説明するが、ボデーECU7が行ってもかまわない。
ステップS101において、衝突判断ECU4は、照度の値を取得する。具体的には、衝突判断ECU4は、ボデーECU7で算出された照度の検出値をCAN(Controller Area Network)等を介して取得する。そして、衝突判断ECU4は、次のステップS102に処理を進める。
ステップS102において、衝突判断ECU4は、上記ステップS54で取得した照度の検出値は閾値LA以下であるか否かを判断する。衝突判断ECU4は、判断を肯定した場合(YES)、つまり、照度の検出値は閾値LA以下であった場合、次のステップS102に処理を進める。一方、衝突判断ECU4は、判断を否定した場合(NO)、つまり、照度が閾値LA以下ではなかった場合、ステップS101に処理を戻す。
ステップS103において、衝突判断ECU4は時間カウントを開始する。そして、衝突判断ECU4は、次のステップS104に処理に処理を進める。なお、時間カウンタとは、ステップS102の処理が肯定されてから、後述する条件が満たされるまでの時間tを計測するためのものである。
ステップS104において、衝突判断ECU4は、照度の値を取得し、次のステップS105に処理を進める。
ステップS105において、衝突判断ECU4は、照度の値は閾値LAを超えたか否かを判断する。そして、衝突判断ECU4は、判断を肯定した場合(YES)、つまり、照度の検出値は閾値LAを超えた場合、次のステップS106に処理を進める。一方、衝突判断ECU4は、判断を否定した場合(NO)、つまり、照度が閾値LAを超えていない場合、ステップS104に処理を戻す。
ステップS106において、衝突判断ECU4は、回数カウンタの値nをカウントアップし、次のステップS107に処理を進める。なお、回数カウンタの値nは、初期値やリセットされた状態では1に設定されている。
ステップS107において、衝突判断ECU4は、時間tは所定時間T(閾値T)を超えたか否かを判断する。つまり、衝突判断ECU4は、上記ステップS103から時間カウントを開始してから現在までの経過時間は、所定時間Tを超えたか否かを判断する。そして、衝突判断ECU4は、判断を肯定した場合(YES)、つまり、時間tは所定時間Tを超えた場合、次のステップS108に処理を進める。一方、衝突判断ECU4は、判断を否定した場合(NO)、つまり、時間tは所定時間Tを超えていない場合、ステップS101に処理を戻す。
ステップS108において、衝突判断ECU4は、回数カウンタの値nは、Mに達したか否かを判断する。そして、衝突判断ECU4は、判断を肯定した場合(YES)、つまり、回数カウンタの値nはMに達した場合、次のステップS109に処理を進める。一方、衝突判断ECU4は、判断を否定した場合(NO)、つまり、回数カウンタの値nはMに達してはいない場合、ステップS110に処理を進める。
ステップS109において、衝突判断ECU4は、現在、車両が走行している環境は、半トンネルであることを示す情報をメインマイコン21に出力し、その後、衝突判断ECU4は、時間カウンタおよび回数カウンタの値をリセットし、ステップS101に処理を戻す。
なお、当該フローチャートでの処理を図に示すと図11のようになる。図11は、ある走行環境を想定し、経過時間と照度の閾値との関係を示した図である。
図11に示すように、例えば、ある時刻(図11のDとする)で衝突判断ECU4は、照度の値を取得したとする。この場合、照度の検出値は閾値LA以下であるので、時間カウントが開始される(図11のステップS103)。そして、衝突判断ECU4は、照度の値をボデーECU7を介して取得し続け、経過時間Eのとき、照度の値が閾値LAを超えたとする。このとき、衝突判断ECU4は、回数カウント値nをカウントアップする。
その後、さらに、衝突判断ECU4は、照度の値をボデーECU7を介して取得し続け、図11に示した例では、同様に、経過時間Fのとき、経過時間Gのときも回数カウント値nがカウントアップされる。
そして、衝突判断ECU4は、時間カウントを開始してから(図11のD)、経過時間Hまでを所定時間Tとした場合、当該所定時間Tの間に回数カウンタ値nの値がMに達したか否かを判断する。ここで、例えば、仮にM=3としたとする。この場合、図11に示した例では、図10のステップS108の判断は肯定されることになり、衝突判断ECU4は、現在、車両は半トンネルを走行していることになる。
つまり、図10に示したフローチャートの処理は、車両が明るいから暗い場所に入り、車両の周囲が明るくなったり、暗くなったりするようなことが、所定時間内に、予め定められた回数繰り返された場合に、車両が実際に走行している環境は、車両が鉄道の高架橋の下を通過する場合や長さが非常に短いトンネルを複数通る、いわゆる半トンネルであるとする。
なお、上述した説明では、図10に示したフローチャートの処理は、衝突判断ECU4が行ったが、ボデーECU7が行ってもかまわない。また、車両が、車両の周囲が明るくなったり、暗くなったりするようなことが、所定時間内に、予め定められた回数、繰り返されることがわかる方法であれば、図10に示したフローチャートの処理に限られるものではない。例えば、車両に搭載されたカーナビゲーションシステムによって算出される情報(例えば、車両が現在走行している位置、車両の走行速度、これから車両が走行するであろう道路の状況、現在の気象情報等)を用い、車両が鉄道の高架橋の下を通過する場合や、長さが非常に短いトンネルを複数通ることが予想されれば、車両が走行している環境は、いわゆる半トンネルであるとしてもよい。
図5の説明に戻って、ステップS57において、メインマイコン21は、現在、車両が走行している環境は、半トンネルであるか否かを衝突判断ECU4から得られる情報に基づいて判断し、現在、車両が走行している環境は、いわゆる半トンネルではない場合(NO)、ステップS59に処理を進め、画像処理(D)を行う。なお、画像処理(D)については、上述したので、説明は省略する。
一方、メインマイコン21は、現在、車両が走行している環境は、半トンネルであるか否かを衝突判断ECU4から得られる情報に基づいて判断し、現在、車両が走行している環境は、いわゆる半トンネルである場合(YES)、ステップS58に処理を進め、画像処理(C)を行う。
図12は、図5のステップS58における処理の一例を示すフローチャートである。なお、図12に示した、ステップS121〜ステップS124の処理は、上述した図8のステップS81〜ステップS83、およびステップS85と同様である。つまり、図8および図12に示す処理において、図12のステップS121の処理は図8のステップS81の処理に、ステップS122の処理はステップS82の処理に、ステップS123の処理はステップS83の処理に、ステップS124の処理はステップS85の処理にそれぞれ対応するので説明は省略する。つまり、図12に示した処理のおいては、図8のステップS84で行われる、変数kをインクリメント(k=k+1)する処理と顔情報(k+1)を記憶する処理とは行わない。
つまり、図12に示したフローチャートでの画像処理では、顔の幅の算出処理や閉眼検知処理は行うが、車両のドライバーの顔に当たり外部の光によって照らされたり、照らされなかったりするようなことが断続的に繰り返される環境を車両が走行するような環境であるので顔情報ifは記憶しない。より具体的には、メインマイコン21は、顔の幅の算出処理や閉眼検知処理は行うが、その際顔情報ifの記憶は行わない。したがって、撮像された画像においてドライバーの顔の特徴部が存在する位置等を推定する処理を行う際に、安定しない画像において学習され、記憶された顔情報ifは画像処理に用いられることはない。
なお、上述した説明では、上記ステップS57での判断か肯定された場合に、顔の幅の算出処理や閉眼検知処理は行い、その際顔情報ifの記憶は行わなかった。しかし、これに限らず、例えば、照度の値が予め定められた値(例えば閾値LAでもよいし、閾値LAとは別に新たに閾値を設定してもよい)を継続して超えている場合にも、顔の幅の算出処理や閉眼検知処理は行うが、その際顔情報ifの記憶は行わないといった画像処理をしてもよい。このようにすると、例えば、ドライバーの顔に直射日光が当たり、一部が白くなった撮像画像から顔情報ifの学習および記憶は行わないようにすることができる。
このように、本実施形態によれば、撮像された画像においてドライバーの顔の特徴部が存在する位置等を推定する際、安定しない画像において学習され、記憶された顔情報ifは当該画像処理には用いられることはない。したがって、精度良く画像処理を行うことができるようになる。
また、例えば、上述したオートライト制御は、一般的にはコンライトセンサを車両に搭載し、当該コンライトセンサからの情報に基づいて行われる。そのためオートライト制御機能が装備されている車両には、コンライトセンサが搭載されていると考えられる。本実施形態に係る画像処理装置は、撮像画像の輝度などが安定しない画像が得られる走行環境であるか否かをコンライトセンサを用いて判断している。言い換えると、撮像画像の輝度などが安定しない画像が得られる走行環境であるか否かといったことを判断するための装置を別に設置せずに、既存のコンライトセンサから得られる照度の値に基づいて判断できしている。つまり、車両に搭載されている既存の装置を利用できるため、本実施形態に係る画像処理装置は簡易な構成が可能となる。
さらに、上述したように、車両に一般的に搭載されているカーナビゲーションシステムを利用し、撮像画像の輝度などが安定しない画像が得られる走行環境であるか否かを判断してもよい。このようにしても、車両に搭載されている既存の装置を利用できるため、本実施形態に係る画像処理装置は簡易な構成が可能となる。
なお、上述した実施形態では、上記撮像装置が車両に設置される例を説明したが、特に車両に限られるものではない。例えば、航空機や船舶、鉄道車両などの種々の移動体に対して本実施形態に係る画像処理装置を適用しても上記移動体の操縦者の顔の特徴部を精度よく検出することもできる。
上記の実施形態で説明した態様は、単に具体例を示すものであり、本願発明の技術的範囲を何ら限定するものではない。よって本願の効果を奏する範囲において、任意の構成を採用することが可能である。
本発明に係る画像処理装置は、移動体の操縦者の状態、例えば、わき見、よそ見、居眠り等を精度良く検出することができ、当該操縦者の事故を未然に防ぐことのできる装置等の用途に適用できる。
1…カメラ
2…画像処理ECU
21…メインマイコン
22…サブマイコン
23…顔画像パターン格納部
24…記憶部
3…レーダ装置
4…衝突判断ECU
5…ブレーキ制御ECU
51…警報ブザー
52…ブレーキACT
6…メーター
7…ボデーECU
71…コンライトセンサ
2…画像処理ECU
21…メインマイコン
22…サブマイコン
23…顔画像パターン格納部
24…記憶部
3…レーダ装置
4…衝突判断ECU
5…ブレーキ制御ECU
51…警報ブザー
52…ブレーキACT
6…メーター
7…ボデーECU
71…コンライトセンサ
Claims (5)
- 移動体の操縦者の顔を撮像する撮像手段と、
前記撮像手段から得られる撮像画像に基づき前記操縦者の顔の特徴部の少なくとも位置を示す特徴部情報を検出する検出手段と、
前記検出手段によって検出された前記特徴部情報を記憶する記憶手段と、
前記移動体の照度の値を検出する照度検出手段とを備え、
前記記憶手段は、前記照度検出手段が取得した前記照度の値が予め定められた条件を満たす場合、前記特徴部情報を記憶しないことを特徴とする、画像処理装置。 - 前記照度検出手段が検出した前記照度の値が予め定められた値以上であった場合、前記記憶手段は、前記特徴部情報を記憶しないことを特徴とする、請求項1に記載の画像処理装置。
- 前記照度の値が予め定められた時間内に予め定められた値を跨ぐように変化する回数が閾値を超えた場合、前記記憶手段は、前記特徴部情報を記憶しないことを特徴とする、請求項1に記載の画像処理装置。
- 前記特徴部検出手段が、前記照度の値が予め定められた値以下になってから当該予め定められた値を超えるまでの間に前記特徴部情報を検出することができた場合、前記記憶手段は、前記照度の値が前記予め定められた値以下になるまでに記憶された前記特徴部情報を消去することを特徴とする、請求項2または3に記載の画像処理装置。
- 前記特徴部情報は、前記撮像手段から得られる撮像画像における前記操縦者の顔幅、眼、鼻、鼻孔、口、眉、および耳の位置、何れかを含むことを特徴とする、請求項1に記載の画像処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009117311A JP2010264856A (ja) | 2009-05-14 | 2009-05-14 | 画像処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009117311A JP2010264856A (ja) | 2009-05-14 | 2009-05-14 | 画像処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010264856A true JP2010264856A (ja) | 2010-11-25 |
Family
ID=43362256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009117311A Pending JP2010264856A (ja) | 2009-05-14 | 2009-05-14 | 画像処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010264856A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017045240A (ja) * | 2015-08-26 | 2017-03-02 | 三菱自動車工業株式会社 | 運転支援装置 |
KR20210119929A (ko) * | 2014-10-23 | 2021-10-06 | 현대모비스 주식회사 | 차량 자율 주행 장치 및 차량 자율 주행 방법 |
-
2009
- 2009-05-14 JP JP2009117311A patent/JP2010264856A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210119929A (ko) * | 2014-10-23 | 2021-10-06 | 현대모비스 주식회사 | 차량 자율 주행 장치 및 차량 자율 주행 방법 |
KR102528001B1 (ko) * | 2014-10-23 | 2023-05-02 | 현대모비스 주식회사 | 차량 자율 주행 장치 및 차량 자율 주행 방법 |
JP2017045240A (ja) * | 2015-08-26 | 2017-03-02 | 三菱自動車工業株式会社 | 運転支援装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10140531B2 (en) | Detection of brake lights of preceding vehicles for adaptation of an initiation of active safety mechanisms | |
US9346401B2 (en) | Motor vehicle and method for operating a motor vehicle | |
US10635896B2 (en) | Method for identifying an object in a surrounding region of a motor vehicle, driver assistance system and motor vehicle | |
US8543254B1 (en) | Vehicular imaging system and method for determining roadway width | |
US9827956B2 (en) | Method and device for detecting a braking situation | |
KR101768500B1 (ko) | 운전 보조 장치 및 그 제어방법 | |
EP1671216A2 (en) | Moving object detection using low illumination depth capable computer vision | |
JP2008250904A (ja) | 車線区分線情報検出装置、走行車線維持装置、車線区分線認識方法 | |
JP2009265842A (ja) | 車両用警告装置、警告方法 | |
JP2008254487A (ja) | 横風警告装置、横風警告装置を搭載した自動車、および横風警告方法 | |
KR101546893B1 (ko) | 졸음 운전 방지 시스템 | |
JP2014531641A (ja) | 車両のフロントガラス上の雨滴を検出するための方法およびカメラアセンブリ | |
JP6011395B2 (ja) | 車両の運転支援装置 | |
CN108556851A (zh) | 一种前车起步提示系统及方法 | |
CN104008518B (zh) | 对象检测设备 | |
JP2013235444A (ja) | 車両視界支援装置 | |
CN111824003A (zh) | 一种车灯的控制方法及控制系统 | |
JP2009116394A (ja) | 車両の警報装置 | |
US20200128165A1 (en) | Method for Predictable Exposure Control of at Least One First Vehicle Camera | |
JP2010264856A (ja) | 画像処理装置 | |
JP2005033680A (ja) | 車両用画像処理装置 | |
JP2007156832A (ja) | 車載用近赤外照射装置および車載用周辺監視装置 | |
JP2007058805A (ja) | 前方環境認識装置 | |
JP4692447B2 (ja) | 居眠り検知装置、居眠り検知方法 | |
JP2007133644A (ja) | 歩行者認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20110901 |