JP2007276766A - 監視装置および方法、記録媒体、並びに、プログラム - Google Patents

監視装置および方法、記録媒体、並びに、プログラム Download PDF

Info

Publication number
JP2007276766A
JP2007276766A JP2007067173A JP2007067173A JP2007276766A JP 2007276766 A JP2007276766 A JP 2007276766A JP 2007067173 A JP2007067173 A JP 2007067173A JP 2007067173 A JP2007067173 A JP 2007067173A JP 2007276766 A JP2007276766 A JP 2007276766A
Authority
JP
Japan
Prior art keywords
driver
image
vehicle
unit
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007067173A
Other languages
English (en)
Other versions
JP4910802B2 (ja
Inventor
Yasumichi Omoto
靖理 大元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2007067173A priority Critical patent/JP4910802B2/ja
Publication of JP2007276766A publication Critical patent/JP2007276766A/ja
Application granted granted Critical
Publication of JP4910802B2 publication Critical patent/JP4910802B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Air Bags (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Instrument Panels (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

【課題】ドライバにとって眩しい状態を正確に検出する。
【解決手段】視線方向検出部122は、室内監視カメラ111により撮像されたドライバの顔の画像をトラッキング部121によりトラッキングした結果に基づいて、ドライバの視線の向きを検出する。照明光眩しさ検出部125は、検出されたドライバの視線の向きに基づいて、前方監視カメラ112により撮像された車両の前方の画像から、ドライバの視野の中心を中心とする所定の範囲の領域が写っている視界画像を抽出し、視界画像の輝度に基づいて、ドライバの目に強い光が照射されている状態を検出する。本発明は、運転支援装置に適用できる。
【選択図】図1

Description

本発明は、監視装置および方法、記録媒体、並びに、プログラムに関し、特に、ドライバにとって眩しい状態を正確に検出することができるようにした監視装置および方法、記録媒体、並びに、プログラムに関する。
車両を運転している場合、車内に入射する光に眩惑され、視界が悪化し、運転に悪影響を及ぼすときがある。
そこで、従来、ドライバの顔を撮像した画像において、ドライバの目の周辺の領域の明るさに応じて、車両のフロントガラスに設けられた遮光手段による遮光範囲を変更し、直射日光による眩惑を緩和することが提案されている(例えば、特許文献1参照)。
特開2002−331835号公報
ところで、運転中にドライバを眩惑する光には、まず、太陽光、対向車のヘッドライトの光、前方の車のブレーキランプの光、店舗などの建物の照明光、街灯の光、電光掲示板の光など、自ら光を発する一次光源からの光がある。加えて、一次光源からの光の正反射光、すなわち、一次光源からの光が反射面により入射角とほぼ同じ角度で反射された光、例えば、窓ガラス、水面、路面または反射板などにより太陽光が鏡面反射された光、後続車のヘッドライトが車内のルームミラーにより鏡面反射された光、対向車のヘッドライトが濡れた路面により鏡面反射された光などがある。
しかしながら、特許文献1に記載の発明では、直射日光による眩惑を緩和することしか考慮されておらず、直射日光以外の光が原因による眩しい状態を検出することは考慮されていない。
本発明は、このような状況に鑑みてなされたものであり、ドライバにとって眩しい状態を正確に検出することができるようにするものである。
本発明の一側面の監視装置は、ドライバの視線の向きに基づいて、ドライバの視野の中心を中心とする所定の範囲の領域が写っている画像である視界画像を抽出する視界画像抽出手段と、視界画像の輝度に基づいて、ドライバの目に強い光が照射されているか否かを検出する第1の状態検出手段とを備える。
本発明の一側面の監視装置においては、ドライバの視線の向きに基づいて、ドライバが運転する車両の前方を撮像した画像である前方画像から、ドライバの視野の中心を中心とする所定の範囲の領域が写っている画像である視界画像が抽出され、視界画像の輝度に基づいて、ドライバの目に強い光が照射されている状態が検出される。
従って、ドライバにとって眩しい状態を正確に検出できる。
この視界画像抽出手段、第1の状態検出手段は、例えば、CPU(Central Processing Unit)により構成される。
この第1の状態検出手段には、視界画像において、輝度が所定の閾値以上である画素が占める割合に基づいて、ドライバの目に強い光が照射されているか否かを検出させるようにすることができる。
これにより、より正確にドライバにとって眩しい状態を検出することができる。
この監視装置は、所定の時間前から現在までの視界画像の輝度に基づいて、ドライバの目の感度を推定する感度推定手段と、推定されたドライバの感度に基づいて、閾値を設定する閾値設定手段とをさらに備えることができる。
これにより、より正確にドライバにとって眩しい状態を検出することができる。
この閾値設定手段は、例えば、CPUにより構成される。
この監視装置は、前方画像において、輝度が大きく変化する位置である変化位置を検出する位置検出手段と、変化位置および前方画像の端部により区分される領域のうち、隣接する領域と比較して輝度が高い領域に含まれる画素により構成される領域を、光源領域として検出する領域検出手段とをさらに備え、視界画像抽出手段には、前方画像から視界画像を抽出させ、第1の状態検出手段には、視界画像の各画素のうち、光源領域に含まれる画素の輝度に基づいて、ドライバの目に強い光が照射されているか否かを検出させるようにすることができる。
これにより、より正確にドライバにとって眩しい状態を検出することができる。
この位置検出手段、領域設定手段は、例えば、CPUにより構成される。
この位置検出手段には、前方画像の水平方向の行および垂直方向の列ごとに、隣接する画素間の輝度の変化が所定の大きさ以上となる位置を変化位置として検出させるようにすることができる。
これにより、1画素を最小単位として光源領域を検出することができ、より正確にドライバにとって眩しい状態を検出することができる。
この監視装置は、ドライバの顔を撮像した画像である顔画像におけるドライバの目の周辺の領域の輝度に基づいて、ドライバの目に強い光が照射されているか否かを検出する第2の状態検出手段と、ドライバが運転する車両の前方を撮像した画像である前方画像の輝度に基づいて、第1の状態検出手段および第2の状態検出手段のうちどちらを用いてドライバの目に強い光が照射されているか否かを検出するかを選択する選択手段とをさらに備えることができる。
これにより、例えば、太陽光が照射されている状態か否かに応じて、より適切な検出方法を用いて、ドライバの目に強い光が照射されている状態を検出することができる。
この状態検出手段、選択手段は、例えば、CPUにより構成される。
この監視装置は、ドライバの顔を撮像した画像である顔画像に基づいて、ドライバの視線の向きを検出する視線方向検出手段をさらに備えることができる。
これにより、監視装置において検出された視線の向きに基づいて、視界画像を抽出することができる。
この視界方向検出手段は、例えば、CPUにより構成される。
この監視装置は、ドライバの目に強い光が照射されている状態が検出された場合、ドライバの視界の悪化に対応した動作を行うように車両に設けられている車載装置を制御する車載装置制御手段をさらに備えることができる。
これにより、眩しさによるドライバの視界の悪化に伴う安全性および利便性の低下が抑制される。
この車載装置制御手段は、例えば、CPUにより構成される。
この車載装置制御手段には、ドライバが運転する車両の前方を撮像した画像である前方画像を表示させるように車載装置としての表示装置を制御させるようにすることができる。
これにより、ドライバは、表示装置を見ることにより、眩しくて見づらくなった車両の前方の状況を確実に確認することができる。
この車載装置制御手段には、画面の輝度を上げるように車載装置としての表示装置を制御させるようにすることができる。
これにより、ドライバは、眩しい状態においても、表示装置の画面に表示されている情報を確実に認識することができる。
この車載装置制御手段には、画像を表示する位置を変更するように車載装置としてのヘッドアップディスプレイを制御させるようにすることができる。
これにより、ドライバは、ヘッドアップディスプレイにより表示される画像を確実に認識することができる。
この車載装置制御手段には、車両の前方を監視する距離を延長するように、車両の前方を監視する車載装置である前方監視装置を制御させるようにすることができる。
これにより、眩しさによる視界の悪化によりドライバの注意力が低下し、車両の前方の確認が平常時より遅くなっても、乗員の安全を損なわないようにすることができる。
この車載装置制御手段には、事故を事前に回避したり、衝突による被害を軽減させる動作を行う車載装置であるプリクラッシュセーフティシステムが起動するタイミングを早めるようにプリクラッシュセーフティシステムを制御させるようにすることができる。
これにより、眩しさによる視界の悪化によりドライバの注意力が低下し、車両の前方の確認が平常時より遅くなっても、乗員の安全を損なわないようにすることができる。
この車載装置制御手段には、車両の加速を抑制するように、車両のエンジンの動作を制御する車載装置である動力制御装置制御させるようにすることができる。
これにより、眩しさによる視界の悪化によりドライバの注意力が低下し、車両の前方の確認が平常時より遅くなっても、追突や衝突を未然に防止するようにすることができる。
本発明の一側面の監視方法、プログラム、および、記録媒体に記録されているプログラムは、ドライバの視線の向きに基づいて、ドライバの視野の中心を中心とする所定の範囲の領域が写っている画像である視界画像を抽出する視界画像抽出ステップと、視界画像の輝度に基づいて、ドライバの目に強い光が照射されているか否かを検出する状態検出ステップとを含む。
本発明の一側面の監視方法、プログラム、および、記録媒体に記録されているプログラムにおいては、ドライバの視線の向きに基づいて、ドライバの視野の中心を中心とする所定の範囲の領域が写っている画像である視界画像が抽出され、視界画像の輝度に基づいて、ドライバの目に強い光が照射されている状態が検出される。
従って、ドライバにとって眩しい状態を正確に検出できる。
この視界画像抽出ステップは、例えば、ドライバの視線の向きに基づいて、ドライバの視野の中心を中心とする所定の範囲の領域が写っている画像である視界画像をCPUにより抽出する視界画像抽出ステップにより構成され、この状態検出ステップは、例えば、視界画像の輝度に基づいて、ドライバの目に強い光が照射されているか否かをCPUにより検出する状態検出ステップにより構成される。
以上のように、本発明の一側面によれば、ドライバにとって眩しい状態を検出することができる。特に、本発明の一側面によれば、ドライバにとって眩しい状態を正確に検出することができる。
以下、図を参照して、本発明の実施の形態について説明する。
図1は、本発明を適用した監視システム101の一実施の形態を示すブロック図である。監視システム101は、監視システム101が設けられた車両を運転するドライバおよび車内の状態を監視し、ドライバの目に強い光が照射されている状態、すなわち、ドライバにとって眩しい状態(以下、単に眩しい状態とも称する)を検出した場合、眩しさによるドライバの視界の悪化に対応した動作を行うように、車両に設けられている他の車載装置の動作を制御する。
監視システム101は、室内監視カメラ111、前方監視カメラ112、眩しさ検出部113、表示制御部114、および、車両制御部115を含むように構成される。また、眩しさ検出部113は、トラッキング部121、視線方向検出部122、検出方法選択部123、太陽光眩しさ検出部124、および、照明光眩しさ検出部125を含むように構成される。
室内監視カメラ111および前方監視カメラ112は、例えば、図3を参照して後述するように、対数変換型の撮像素子を用いて非常に広いダイナミックレンジ(例えば、約170dB)で被写体を撮像する撮像装置により構成される。室内監視カメラ111および前方監視カメラ112により撮像される画像は、例えば、14bitの符号なし2進数のデジタルのデータであり、最も暗い0から最も明るい214−1の範囲の16384階調の輝度値が割り当てられる。
図2は、室内監視カメラ111および前方監視カメラ112の設置位置の例を模式的に示す図である。図2の上側の図は、監視システム101が設けられている車両141を右方向から見た図であり、下側の図は、車両141を上から見た図である。
室内監視カメラ111は、例えば、車両141のステアリングホイール151の近傍であって、室内監視カメラ111の画角内にステアリングホイール151が入らない位置、すなわち、ステアリングホイール151が車両141を運転するドライバ142の顔の撮像の邪魔にならない位置に設置され、ドライバ142の顔およびその周辺を撮像する。室内監視カメラ111は、撮像した画像(以下、顔画像と称する)をトラッキング部121に供給する。
前方監視カメラ112は、例えば、車両141のボディの前端の中央下部に設置され、車両141の前方を撮像する。前方監視カメラ112は、撮像した画像(以下、前方画像と称する)を、カーナビゲーション装置102、前方監視装置104、検出方法選択部123、および、照明光眩しさ検出部125に供給する。
眩しさ検出部113は、図9などを参照して後述するように、ドライバにとって眩しい状態を検出する。
トラッキング部121は、所定の手法を用いて、顔画像におけるドライバの顔をトラッキングする。すなわち、トラッキング部121は、ドライバの顔および顔の特徴(例えば、顔および顔の各器官の位置、形状など)を検出する。トラッキング部121は、顔画像およびその顔画像のトラッキング結果を示す情報を視線方向検出部122および太陽光眩しさ検出部124に供給する。なお、トラッキング部121が人の顔をトラッキングする手法は、特定の手法に限定されるものではなく、より迅速かつ正確に人の顔をトラッキングできる手法が望ましい。
視線方向検出部122は、所定の手法を用いて、顔画像およびトラッキング結果に基づいて、ドライバの視線の向きを検出する。視線方向検出部122は、検出結果を示す情報を、照明光眩しさ検出部125に供給する。なお、視線方向検出部122が視線の方向を検出する手法は、特定の手法に限定されるものではなく、より迅速かつ正確に視線の方向を検出できる手法が望ましい。
検出方法選択部123は、図9または図12を参照して後述するように、前方画像に基づいて、眩しい状態を検出する方法を選択する。検出方法選択部123は、選択結果を示す情報を、太陽光眩しさ検出部124および照明光眩しさ検出部125に供給する。
太陽光眩しさ検出部124は、図13を参照して後述するように、主に太陽光および太陽光が反射された反射光により眩しい状態を検出する。太陽光眩しさ検出部124は、検出結果を示す情報を表示制御部114および車両制御部115に供給する。
照明光眩しさ検出部125は、図15を参照して後述するように、主に太陽光以外の照明光および照明光が反射された反射光により眩しい状態を検出する。照明光眩しさ検出部125は、検出結果を示す情報を表示制御部114および車両制御部115に供給する。
表示制御部114は、図16および図17を参照して後述するように、ドライバにとって眩しい状態が検出された場合、眩しさによるドライバの視界の悪化に対応した動作を行うように、監視システム101が設けられた車両に設けられているカーナビゲーション装置102、ヘッドアップディスプレイ103などの表示装置の動作を制御する。
車両制御部115は、図16および図17を参照して後述するように、ドライバにとって眩しい状態が検出された場合、眩しさによるドライバの視界の悪化に対応した動作を行うように、監視システム101が設けられた車両に設けられている前方監視装置104、プリセーフティクラッシュシステム105、および、動力制御装置106など、車両の走行に関わる制御および処理を行う車載装置の動作を制御する。
カーナビゲーション装置102は、目的地までの走行経路を案内するナビゲーション機能、および、前方監視カメラ112により撮像された前方画像または図示せぬカメラにより撮像された車両の後方の画像などを表示することにより車両の周囲の状況の確認を補助するモニタ機能などを車両の乗員に提供する。
ヘッドアップディスプレイ103は、無限遠の点に結像する画像を車両のフロントガラスに投影することにより、ドライバが、車両の前景を見たままの状態で、すなわち、運転中の視線方向を保ったまま見ることができるように、画像を表示する。例えば、車速メータなどが、ヘッドアップディスプレイ103により表示される。
前方監視装置104は、前方画像に基づいて、車両の前方の状況を監視し、車両の前方のもの、例えば、人、動物、障害物などの存在を検知し、検知した情報をプリクラッシュセーフティシステム105に供給する。
プリクラッシュセーフティシステム105は、乗員の安全性を確保するために、事故を事前に回避したり、衝突による被害を軽減させる動作を行うシステムである。例えば、プリクラッシュセーフティシステム105は、前方監視装置104からの情報に基づいて、車両の前方の人や障害物などに衝突する可能性があると判断した場合、衝突を避けるために警報を発したり、衝突が免れないと判断した場合、シートベルトを自動的に巻き取って、乗員の拘束性を高めたり、自動的にブレーキを作動させて、衝突時の衝撃を軽減させるなどの動作を行う。
動力制御装置106は、車両のエンジンの動作を制御することにより、車両の速度や加速特性などを制御する。
図3は、図1の室内監視カメラ111および前方監視カメラ112の機能的構成を示すブロック図である。室内監視カメラ111および前方監視カメラ112は、レンズ201、および対数変換型撮像素子202を含むように構成される。対数変換型撮像素子202は、例えば、HDRC(High Dynamic Range CMOS(Complementary Metal Oxide Semiconductor)(登録商標))などの対数変換型の撮像素子とされ、光検出部211、対数変換部212、A/D変換部213、および撮像タイミング制御部214を含むように構成される。
室内監視カメラ111または前方監視カメラ112により撮像される被写体から発せられた光(あるいは、被写体により反射された光)は、レンズ201に入射し、対数変換型撮像素子202の光検出部211の図示せぬ光検出面に結像する。
光検出部211は、例えば、複数のフォトダイオードからなる受光素子などにより構成される。光検出部211は、レンズ201により結像された被写体の光を、入射された光の明るさ(照度)に応じた電荷に変換し、変換した電荷を蓄積する。光検出部211は、撮像タイミング制御部214から供給される制御信号に同期して、蓄積した電荷を対数変換部212に供給する。
対数変換部212は、例えば、複数のMOSFET(Metal Oxide Semiconductor Field Effect Transistor)などにより構成される。対数変換部212は、MOSFETのサブスレッショルド特性を利用して、光検出部211から供給される電荷を、各画素ごとに、電荷の数(電流の強さ)の対数、すなわち、被写体の光の光量の対数にほぼ比例した電圧値に変換したアナログの電気信号を生成する。対数変換部212は、生成したアナログの電気信号をA/D変換部213に供給する。
A/D変換部213は、撮像タイミング制御部214から供給される制御信号に同期して、アナログの電気信号をデジタルの画像データ(以下、単に画像とも称する)にA/D変換する。例えば、14bitの符号なし2進数のデジタルの画像データに変換される場合、画像データの輝度値(あるいは画素値)は、最も暗い0から最も明るい214−1の範囲の値をとる。A/D変換部213は、変換したデジタルの画像データを眩しさ検出部113に供給する。
このように、室内監視カメラ111または前方監視カメラ112は、光検出部211に入射した被写体の光の明るさ、すなわち、入射光量の対数に比例した輝度値(あるいは画素値)からなるデジタルの画像データを出力する。なお、対数変換型の撮像素子については、例えば、特表平7−506932公報などにその詳細が開示されている。
なお、対数変換型撮像素子202の光検出部211においては、変換した電荷を蓄積せずに、そのまま対数変換部212に供給させるようにすることも可能である。
図4は、対数変換型撮像素子202、CCD撮像素子、銀塩フィルム、および、人の目の感度特性を示すグラフである。図4の横軸は、入射光の照度(単位は、ルクス(lux))の対数値を示し、縦軸は入射光の照度に対する感度を示している。線231は対数変換型撮像素子202の感度特性を示し、線232はCCD撮像素子の感度特性を示し、線233は銀塩フィルムの感度特性を示し、線234は人の目の感度特性を示している。
対数変換型撮像素子202は、上述したように、入射光量の対数にほぼ比例した輝度値(あるいは画素値)からなる画像データを出力するので、入射光量が大きくなった場合でも、対数変換型撮像素子202を構成するフォトダイオードやMOSFETなどの素子の容量が飽和したり、各素子に流れる電流や印加される電圧が各素子の入力に応じた出力を行うことができる範囲を超えることがない。従って、撮像可能な輝度の範囲内において、ほぼ正確に入射光量の変動に応じた輝度値(あるいは画素値)を得ることができる。すなわち、CCD撮像素子、銀塩フィルム、および、人の目より広い、例えば、約1ミリルクスから太陽光の輝度より高い約500キロルクスまでの約170dBのダイナミックレンジで、被写体からの入射光量の強さをほぼ正確に反映した輝度値(あるいは画素値)からなる画像を撮像することができる。なお、室内監視カメラ111または前方監視カメラ112に用いる対数変換型撮像素子202のダイナミックレンジは、上述した170dBに限定されるものではなく、利用目的に応じて、約100dBあるいは200dBなど、必要なダイナミックレンジに対応したものを用いるようにすればよい。
従って、対数変換型撮像素子202を用いた室内監視カメラ111または前方監視カメラ112は、人が視認できる輝度範囲において、輝度クリッピングが発生しないため、絞りやシャッタースピードなどを調整して入射光量を調整する必要がない。すなわち、室内監視カメラ111または前方監視カメラ112は、入射光量を調整しなくても、被写体の詳細な輝度の分布を忠実に撮像することができる。
例えば、昼間に車内から車の前方を撮像する場合、画角内に太陽が入っていても、室内監視カメラ111または前方監視カメラ112は、入射光量を調整せずに、太陽と前方の道路の輝度の分布を忠実に再現した画像を撮像することができる。また、夜間に車内から車の前方を撮像する場合、対向車のヘッドライトが前方から照らされていても、室内監視カメラ111または前方監視カメラ112は、入射光量を調整せずに、対向車のヘッドライトの光から自車のヘッドライトに照らされていない領域までの輝度の分布を忠実に再現した画像を撮像することができる。
また、CCD撮像素子および銀塩フィルムでは、線232および線233に示されるように、ガンマ特性などの要因により感度特性が入射光の照度の対数に比例しないのに比べて、対数変換型撮像素子202では、感度特性が入射光の照度の対数にほぼ比例する。
このように、対数変換型撮像素子202を用いた室内監視カメラ111および前方監視カメラ112は、輝度クリッピングの発生、入射光量の調整、ガンマ特性の影響を受けない。従って、室内監視カメラ111または前方監視カメラ112により撮像された画像データの輝度値(あるいは画素値)は、被写体の輝度の変動および被写体の動きをほぼ忠実に反映するように変動する。すなわち、フレーム間の画像データの差分をとった差分データの各画素の差分値は、被写体の輝度の変動および被写体の動きがほぼ忠実に反映された値となる。
図5は、図1の検出方法選択部123の機能的構成を示すブロック図である。検出方法選択部123は、統計部301および選択部302を含むように構成される。
統計部301は、図9または図12を参照して後述するように、前方監視カメラ112から前方画像を取得し、取得した前方画像の輝度値の統計値を算出し、算出した統計値を示す情報を選択部302に供給する。
選択部302は、図9または図12を参照して後述するように、前方画像の輝度値の統計値に基づいて、眩しい状態を検出する方法を選択し、選択結果を示す情報を太陽光眩しさ検出部124および照明光眩しさ検出部125に供給する。
図6は、図1の太陽光眩しさ検出部124の機能的構成を示すブロック図である。太陽光眩しさ検出部124は、統計部321および状態検出部322を含むように構成される。
統計部321は、顔画像およびその顔画像のトラッキング結果を示す情報をトラッキング部121から取得し、検出方法選択部123から検出方法の選択結果を示す情報を取得する。統計部321は、図13を参照して後述するように、取得したトラッキング結果に基づいて、顔画像におけるドライバの目の周辺の領域の輝度値の統計値を算出し、算出した統計値を示す情報を状態検出部322に供給する。
状態検出部322は、図13を参照して後述するように、統計部321により算出された統計値に基づいて、ドライバにとって眩しい状態を検出し、検出結果を示す情報を表示制御部114および車両制御部115に供給する。
図7は、図1の照明光眩しさ検出部125の機能的構成を示すブロック図である。照明光眩しさ検出部125は、視界画像抽出部341、統計部342、感度推定部343、閾値設定部344、および、状態検出部345を含むように構成される。
視界画像抽出部341は、前方監視カメラ112から前方画像を取得し、視線方向検出部122からドライバの視線の向きの検出結果を示す情報を取得し、検出方法選択部123から検出方法の選択結果を示す情報を取得する。視界画像抽出部341は、検出されたドライバの視線の向きに基づいて、ドライバの視野の中心を中心とする所定の範囲(例えば、一般的な人にとって明るさの感度が高い範囲)の領域が写っている画像(以下、視界画像と称する)を前方画像から抽出する。すなわち、視界画像は、ドライバが感じる眩しさに与える影響が大きい領域が写っている画像であるといえる。視界画像抽出部341は、抽出した視界画像を統計部342および状態検出部345に供給する。
統計部342は、図15を参照して後述するように、視界画像の各画素の輝度値の統計値を算出し、算出した統計値を示す情報を感度推定部343に供給する。
感度推定部343は、図15を参照して後述するように、統計部342により算出された統計値に基づいて、ドライバの目の感度を推定し、推定結果を示す情報を閾値設定部344に供給する。
閾値設定部344は、図15を参照して後述するように、推定されたドライバの目の感度に基づいて、ドライバにとって眩しく感じられると推定される領域を視界画像から抽出するための輝度値である輝度閾値を設定し、輝度閾値を示す情報を状態検出部345に供給する。
状態検出部345は、図15を参照して後述するように、視界画像の輝度値および輝度閾値に基づいて、ドライバにとって眩しい状態を検出し、検出結果を示す情報を表示制御部114および車両制御部115に供給する。
次に、図8乃至図17を参照して、監視システム101により実行される処理を説明する。
まず、図8を参照して、監視システム101により実行される車載装置制御処理を説明する。なお、この処理は、例えば、監視システム101が設けられている車両のエンジンが始動されたとき開始される。
ステップS1において、室内監視カメラ111は、ドライバの顔の撮像を開始する。室内監視カメラ111は、撮像した画像である顔画像をトラッキング部121に供給する。
ステップS2において、前方監視カメラ112は、車両の前方の撮像を開始する。前方監視カメラ112は、撮像した画像である前方画像を、前方監視装置104、検出方法選択部123の統計部301および照明光眩しさ検出部125の視界画像抽出部341に供給する。
ステップS3において、眩しさ検出部113は、眩しさ検出処理を実行する。眩しさ検出処理の詳細は、図9または図12を参照して後述するが、この処理により、ドライバにとって眩しい状態が検出される。
ステップS4において、表示制御部114および車両制御部115は、眩しい状態に遷移したかを判定する。具体的には、表示制御部114および車両制御部115は、太陽光眩しさ検出部124または照明光眩しさ検出部125から通知される検出結果に基づいて、ドライバにとって眩しくない状態から眩しい状態に遷移したかを判定する。眩しい状態に遷移したと判定された場合、処理はステップS5に進む。
ステップS5において、表示制御部114および車両制御部115は、眩しい状態検出時の処理を実行する。眩しい状態検出時の処理の詳細は、図16を参照して後述するが、この処理により、ドライバの視界の悪化に対応した動作を開始するように、カーナビゲーション装置102などの車載装置が制御される。その後、処理はステップS8に進む。
ステップS4において、眩しい状態に遷移していないと判定された場合、処理はステップS6に進む。
ステップS6において、表示制御部114および車両制御部115は、眩しくない状態に遷移したかを判定する。具体的には、表示制御部114および車両制御部115は、太陽光眩しさ検出部124または照明光眩しさ検出部125から通知される検出結果に基づいて、ドライバにとって眩しい状態から眩しくない状態に遷移したかを判定する。眩しくない状態に遷移したと判定された場合、処理はステップS7に進む。
ステップS7において、表示制御部114および車両制御部115は、眩しい状態終了時の処理を実行する。眩しい状態終了時の処理の詳細は、図17を参照して後述するが、この処理により、ドライバの視界の悪化に対応した動作を停止するように、カーナビゲーション装置102などの車載装置が制御される。その後、処理はステップS8に進む。
ステップS6において、眩しくない状態に遷移していないと判定された場合、すなわち、眩しい状態または眩しくない状態のどちらか一方が継続していると判定された場合、ステップS7の処理はスキップされ、処理はステップS8に進む。
ステップS8において、監視システム101は、処理を終了するかを判定する。処理を終了しないと判定された場合、処理はステップS3に戻り、その後、ステップS8において処理を終了すると判定されるまで、ステップS3乃至S8の処理が繰り返し実行される。
ステップS8において、例えば、車両のエンジンが停止された場合、監視システム101は、処理を終了すると判定し、車載装置制御処理は終了する。
次に、図9のフローチャートを参照して、図8のステップS3の眩しさ検出処理の詳細を説明する。
ステップS31において、統計部301は、前方画像の輝度値の中央値を検出する。具体的には、統計部301は、前方画像の各画素の輝度値を低い順または高い順に並べたデータを生成する。統計部301は、生成したデータにおいて中央にくる値、すなわち、前方画像の輝度値の中央値を検出する。
ステップS32において、統計部301は、中央値より輝度値が低い画素の輝度値の平均値を算出する。具体的には、統計部301は、前方画素の各画素のうち、検出した中央値より輝度値が低い画素の輝度値の平均値、すなわち、画像内において中央値より暗い画素の輝度値の平均値を算出する。統計部301は、算出した平均値を示す情報を選択部302に供給する。
ステップS33において、選択部302は、平均値が所定の閾値以上であるかを判定する。
図10の画像401は、晴れた日の昼間に郊外を走行する車両から撮像した前方画像の例を模式的に示し、ヒストグラム402は、画像401の輝度値の分布を示している。また、図11の画像421は、夜間に街中を走行する車両から撮像した前方画像の例を模式的に示し、ヒストグラム422は、画像421の輝度値の分布を示している。なお、ヒストグラム402およびヒストグラム422の横軸は輝度値を表し、縦軸は画素数を表す。また、横軸方向において、左にいくほど輝度値が低くなり、右にいくほど輝度値が高くなる。
画像401においては、ほとんど影になる部分がなく、自分で発光する被写体も存在しないため、周囲と比較して非常に明るい被写体および非常に暗い被写体が存在しない。従って、ほとんどの画素の輝度値が比較的高く、かつ、狭い範囲に集中するため、ヒストグラム402において、幅が狭くピーク値が非常に大きな山411−1が表れる。また、晴れた日の空は、周囲と比較して明るいため、山411−1の右側の比較的近い位置に、ピークの小さい山411−2が表れる。
一方、画像421においては、ほとんどの被写体の輝度が暗い範囲に集中する。従って、ほとんどの画素の輝度値が低く、かつ、狭い範囲に集中するため、ヒストグラム422において、ヒストグラム402の山411−1より左側、すなわち、輝度値が暗い範囲に、幅が狭くピーク値が大きい山431−1が表れる。また、自車のヘッドライトに照らされた路面の画像は、画角内に占める割合がある程度大きく、かつ、周囲と比べて明るいため、山431−1の右側の離れた位置に、ピーク値が2番目に大きい山431−2が表れる。さらに、車両のヘッドライト、テールランプ、街灯、信号の光など自分で発光する被写体の画像は、画角内に占める割合が非常に小さく、かつ、周囲に比べて非常に明るいため、山431−2からさらに右側に離れた位置に、ピークの非常に小さい山431−3が表れる。
図10および図11の例に示されるように、一般的に、昼間に撮像した前方画像における輝度値の分布と夜間に撮像した前方画像における輝度値の分布とを比較した場合、昼間に撮像した前方画像の方が、夜間に撮像した前方画像よりも、輝度値が、明るい範囲に集中するとともに、狭い範囲内で分布する。これは、昼間の屋外においては、太陽光が照射される範囲が広く、周囲と比較して極端に輝度が異なる領域が少ない傾向にあるからである。逆に、夜間に撮像した前方画像の方が、昼間に撮像した前方画像よりも、輝度値が、暗い範囲に集中するとともに、広い範囲に渡って分布する。これは、夜間の屋外においては、各種の照明の光など、周囲と比較して極端に明るい領域から、光源に照らされない暗い領域まで幅広い輝度の領域が存在する傾向にあるからである。
また、昼間に撮像した前方画像と夜間に撮像した前方画像との明るい領域における輝度値の差よりも、暗い領域における輝度値の差の方が大きくなる。これは、夜間に撮像した前方画像の明るい領域の輝度(例えば、各種の照明光の輝度)と、昼間に撮像した前方画像の明るい領域の輝度(例えば、空の輝度)との差が、夜間に撮像した前方画像の暗い領域の輝度(例えば、光に照らされていない領域の輝度)と、昼間に撮像した前方画像の暗い領域の輝度(例えば、太陽光に照らされていない輝度)との差より小さくなる傾向にあるからである。
従って、前方画像内の暗い領域の輝度値を比較することにより、昼間に撮像された画像か、または、夜間に撮像された画像か、換言すれば、太陽光が照射されている状態で撮像された画像か、または、太陽光が照射されていない状態で撮像された画像かをより正確に判定することができる。すなわち、ステップS32において算出された、前方画像内において中央値より暗い画素の輝度値の平均値を所定の閾値と比較することにより、前方画像が、太陽光が照射されている状態で撮像された画像か、または、太陽光が照射されていない状態で撮像された画像かをより正確に判定することができる。
ステップS32において算出された平均値が所定の閾値以上であると判定された場合、すなわち、太陽光が照射されている状態で前方画像が撮像されたと判定された場合、処理はステップS34に進む。
ステップS34において、選択部302は、主に太陽光および太陽光の反射光を対象にした検出方法を選択する。選択部302は、選択結果を示す情報を、太陽光眩しさ検出部124および照明光眩しさ検出部125に供給する。
ステップS35において、太陽光眩しさ検出部124は、太陽光眩しさ検出処理を実行し、眩しさ検出処理は終了する。太陽光眩しさ検出処理の詳細は、図13を参照して後述するが、この処理により、現在の状態がドライバにとって眩しい状態であるかが検出され、検出結果を示す情報が、表示制御部114および車両制御部115に供給される。
ステップS33において、平均値が所定の閾値未満であると判定された場合、すなわち、太陽光が照射されていない状態で前方画像が撮像されたと判定された場合、処理はステップS36に進む。
ステップS36において、選択部302は、主に照明光および照明光の反射光を対象にした検出方法を選択する。選択部302は、選択結果を示す情報を、太陽光眩しさ検出部124および照明光眩しさ検出部125に供給する。
ステップS37において、照明光眩しさ検出部125は、照明光眩しさ検出処理を実行し、眩しさ検出処理は終了する。照明光眩しさ検出処理の詳細は、図15を参照して後述するが、この処理により、現在の状態がドライバにとって眩しい状態であるかが検出され、検出結果を示す情報が、表示制御部114および車両制御部115に供給される。
次に、図12を参照して、眩しさ検出処理の第2の実施の形態について説明する。
ステップS61において、上述した図9のステップS31の処理と同様に、前方画像の輝度値の中央値が検出される。
ステップS62において、上述した図9のステップS32の処理と同様に、中央値より輝度値が低い画素の輝度値の平均値が算出される。
ステップS63において、統計部301は、中央値より輝度値が高い画素の輝度値の平均値を算出する。具体的には、統計部301は、前方画素の各画素のうち検出した中央値より輝度値が高い画素の輝度値の平均値を算出する。統計部301は、算出した平均値を示す情報を選択部302に供給する。
ステップS64において、選択部302は、2つの平均値の差が所定の閾値以上であるかを判定する。
図10および図11を参照して上述したように、一般的に、夜間に撮像した前方画像の方が、昼間に撮像した画像よりも、広い範囲に渡って輝度値が分布する。すなわち、夜間に撮像した前方画像の方が、昼間に撮像した前方画像よりも、ステップS62およびS63において算出された2つの平均値の差が大きくなる。従って、閾値を適切に設定することにより、2つの平均値の差に基づいて、前方画像が、太陽光が照射されている状態で撮像された画像か、または、太陽光が照射されていない状態で撮像された画像かを正確に判定することができる。
2つの平均値の差が所定の閾値以上であると判定された場合、すなわち、太陽光が照射されている状態で前方画像が撮像されたと判定された場合、処理はステップS65に進む。
ステップS65において、上述した図9のステップS34の処理と同様に、主に太陽光および太陽光の反射光を対象にした検出方法が選択される。
ステップS66において、上述した図9のステップS35の処理と同様に、太陽光眩しさ検出処理が実行され、眩しさ検出処理は終了する。
ステップS64において、2つの平均値の差が所定の閾値未満であると判定された場合、すなわち、太陽光が照射されていない状態で前方画像が撮像されたと判定された場合、処理はステップS67に進む。
ステップS67において、上述した図9のステップS36の処理と同様に、主に照明光および照明光の反射光を対象にした検出方法が選択される。
ステップS68において、上述した図9のステップS37の処理と同様に、照明光眩しさ検出処理が実行され、眩しさ検出処理は終了する。
なお、眩しさ検出処理の第1の実施の形態および第2の実施の形態とも、曇天または雨天などにより、昼間にも関わらず太陽光の照射量が少ない場合については、閾値を調整することにより、ステップ33またはステップS64の判定結果を調整することができる。すなわち、閾値を調整することにより、太陽光眩しさ検出処理、または、照明光眩しさ検出処理のどちらを選択するかを調整することが可能である。
次に、図13のフローチャートを参照して、図9のステップS35および図12のステップS66の太陽光眩しさ検出処理の詳細を説明する。
ステップS91において、トラッキング部121は、所定の手法を用いて、顔画像におけるドライバの顔をトラッキングする。これにより、顔画像におけるドライバの顔の位置および形状、並びに、目の位置および形状などが検出される。トラッキング部121は、顔画像およびその顔画像のトラッキング結果を示す情報を統計部321に供給する。
ステップS92において、統計部321は、ドライバの目の周辺の画像の輝度値の平均値を算出し、ステップS93において、ドライバの目の周辺の画像の輝度値の平均値が所定の閾値以上であるかを判定する。
具体的には、統計部321は、トラッキング部121によるトラッキング結果に基づいて、例えば、図14に示されるように、顔画像から、ドライバの右目の周辺の領域441−1、および、左目の周辺の領域441−2を抽出する。統計部321は、領域441−1内の右目の部分を除く画素の輝度値の平均値、および、領域441−2内の左目の部分を除く画素の輝度値の平均値を算出する。統計部321は、算出した2つの平均値のうち少なくとも一方が所定の閾値以上であると判定した場合、すなわち、ドライバの目の周辺が所定の輝度以上に明るい場合、処理はステップS94に進む。
太陽光が照射されている昼間において、ドライバが眩しく感じる光は、直射日光、または、入射した太陽光が反射面によりほぼ同じ方向に反射された反射光、すなわち、太陽光の正反射光のうちいずれかがほとんどである。また、太陽光または太陽光の正反射光が人の目に射し込んだ場合、周囲の明るさに関わらず、ほとんどの人は眩しく感じる。すなわち、太陽光が照射されている昼間において、ドライバが眩しく感じている場合、一定以上の輝度の光が、ドライバの目およびその周辺に照射されていると言える。従って、太陽光が照射されている昼間においては、ドライバの目の周辺の画像の輝度値、すなわち、ドライバの目の周辺の明るさに基づいて、ほぼ正確にドライバにとって眩しい状態を検出することができる。
ステップS94において、状態検出部322は、ドライバにとって眩しい状態であると判定し、太陽光眩しさ検出処理は終了する。具体的には、状態検出部322は、ドライバの目の周辺の画像の輝度値の平均値が所定の閾値以上であることをもって、ドライバの目に直射日光または太陽光の正反射光が照射され、現在の状態がドライバにとって眩しい状態であると判定する。状態検出部322は、ドライバにとって眩しい状態が検出されたことを示す情報を表示制御部114および車両制御部115に供給する。
ステップS93において、ドライバの目の周辺の画像の輝度値の平均値が所定の閾値未満であると判定された場合、すなわち、ドライバの目の周辺が所定の輝度より暗い場合、処理はステップS95に進む。
ステップS95において、状態検出部322は、ドライバにとって眩しい状態でないと判定し、太陽光眩しさ検出処理は終了する。具体的には、状態検出部322は、ドライバの目の周辺の画像の輝度値の平均値が所定の閾値未満であることをもって、ドライバの目に直射日光または太陽光の正反射光が照射されておらず、現在の状態がドライバにとって眩しい状態ではないと判定する。状態検出部322は、ドライバにとって眩しい状態が検出されなかったことを示す情報を表示制御部114および車両制御部115に供給する。
なお、ステップS92において平均値の算出に用いた領域は、その一例であり、ドライバの両目を含む他の領域を用いるようにしてもよい。また、以上の説明では、領域441−1および領域441−2内の画素の輝度値の平均値を用いて、ドライバにとって眩しい状態を検出するようにしたが、例えば、輝度値の最大値、中間値など、領域内の画像の明るさを表すその他の統計値を用いるようにしてもよい。
次に、図15のフローチャートを参照して、図9のステップS37および図12のステップS68の照明光眩しさ検出処理の詳細を説明する。
ステップS121において、上述した図13のステップS91の処理と同様に、顔画像におけるドライバの顔がトラッキングされる。トラッキング部121は、顔画像およびその顔画像のトラッキング結果を示す情報を視線方向検出部122に供給する。
ステップS122において、視線方向検出部122は、ドライバの視線の向きを検出する。具体的には、視線方向検出部122は、所定の手法を用いて、顔画像およびトラッキング部121によるトラッキング結果に基づいて、ドライバの視線の向きを検出する。視線方向検出部122は、検出結果を示す情報を視界画像抽出部341に供給する。
ステップS123において、視界画像抽出部341は、視界画像を抽出する。具体的には、視界画像抽出部341は、ドライバの視線の向きに基づいて、視界画像を前方画像から抽出する。視界画像抽出部341は、抽出した視界画像を統計部342および状態検出部345に供給する。
例えば、視界画像抽出部341は、前方監視カメラ112の位置とドライバの顔の位置との相対的な関係をもとに視差の補正を行って、前方画像における視線方向の中心点、換言すれば、視野の中心を求める。視界画像抽出部341は、視野の中心の周囲の所定の範囲(例えば、視野の中心を中心とする角度15度の視野の範囲)に含まれる円形の領域の画像を視界画像として抽出する。なお、視界画像の形状は、円形に限定されるものではなく、例えば、楕円形、矩形などにすることも可能である。
なお、前方画像において、実際にはドライバの視野内において遮蔽物により遮られている領域、すなわち、ドライバの眩しさにあまり影響がない領域を視界画像から除外するようにすることが望ましい。そのような遮蔽物として、例えば、運転席周辺のダッシュボード、ドア、ピラーなどがある。また、シェードの使用を検出して、シェードにより遮られる領域を視界画像から除外することも可能である。さらに、顔画像に基づいて、ドライバがつばのついた帽子をかぶっていることを検出して、帽子のつばにより遮られる領域を視界画像から除外するようにすることも可能である。
ステップS124において、統計部342は、所定の時間前から現在までの視界画像の輝度値の平均値を算出する。統計部342は、算出した平均値を示す情報を感度推定部343に供給する。
ステップS125において、感度推定部343は、ドライバの目の感度を推定する。
人間の目は、周囲の明るさに対して、大きく分けて、明所視、薄明視、および、暗所視の3つの状態のいずれかに遷移する。明所視は、約10ルクスから10万ルクスの環境下で、主に錐体細胞が網膜において働いている状態であって、暗所視と比較して目の感度が低く、ものの形と色がはっきり分かる状態である。暗所視は、約0.001ルクスから0.01ルクスの環境下で、主に杆体細胞が網膜において働いている状態であって、明所視と比較して目の感度が高く、ものの明暗だけがおぼろげに見える状態である。薄明視は、約0.01ルクスから10ルクスの環境下で、錐体細胞と杆体細胞の両方が網膜において働いている状態であって、明所視と暗所視との中間の状態である。すなわち、人間の目の感度は、周囲の明るさに応じて変化する。
また、人間の目は、周囲の明るさの変動に対して、すぐには順応できない。具体的には、人間の目は、周囲が暗い状態から明るい状態に遷移しても、暗所視から明所視になるまでに、すなわち、明るい状態に順応(明順応)するまでに、数十秒から数分を要し、周囲が明るい状態から暗い状態に遷移しても、明所視から暗所視になるまでに、すなわち、暗い状態に順応(暗順応)するまでに、約30分から2時間を要する。すなわち、同じ明るさの環境下においても、それ以前の周囲の明るさの推移に応じて、人間の目の感度は異なる。
さらに、人間の目は、入射光に対して、ごく短時間で瞳孔の開き具合を調整することにより、目に入射する光の量を調整することができる。
感度推定部343は、以上に述べた人間の目の特性に基づいて、統計部342により算出された輝度値の平均値を用いて、ドライバの目の感度を推定する。例えば、感度推定部343は、所定の時間前(例えば、1分前)から現在までの視界画像の輝度値の平均値の推移に基づいて、すなわち、ドライバの視界の明るさの推移に基づいて、ドライバの目の状態が、明所視、薄明視、または、暗所視のいずれの状態であるかを推定することにより、ドライバの目の感度を推定する。また、上述したように、暗順応は所用時間が長いため、例えば、視界画像の輝度値の平均値が低い状態で推移している場合、さらに長い時間前(例えば、1時間前)から現在までの視界画像の輝度値の平均値、および、暗順応曲線(アウベルト関数曲線)に基づいて、さらに細かくドライバの目の感度を推定するようにしてもよい。さらに、人間の目の感度の特性は、年齢などの違いにより個人差があるため、さらに個人の違いを考慮して、ドライバの感度を推定するようにしてもよい。
感度推定部343は、推定したドライバの目の感度を示す情報を閾値設定部344に供給する。
ステップS126において、閾値設定部344は、輝度閾値を設定する。
ところで、人間は、同じ輝度の光に対しても、そのときの目の感度に応じて、眩しく感じる場合と感じない場合とがある。すなわち、人間は、同じ輝度の光に対しても、目の感度が高い場合、眩しさを感じやすく、目の感度が低い場合、眩しさを感じにくい。
閾値設定部344は、予め設定されている変換式または変換テーブルなどを用いて、感度推定部343により推定された目の感度に基づいて、ドライバにとって眩しく感じられると推定される領域を視界画像から抽出するための輝度閾値を設定する。すなわち、推定された目の感度が高い場合、輝度閾値は低い値に設定され、目の感度が低い場合、輝度閾値は高い値に設定される。閾値設定部344は、設定した閾値を示す情報を状態検出部345に供給する。
ステップS127において、状態検出部345は、視界画像において、輝度値が輝度閾値以上となる画素が占める割合を検出する。具体的には、状態検出部345は、視界画像の各画素のうち、輝度値が輝度閾値以上となる画素を抽出する。状態検出部345は、視界画像の全画素数のうち抽出した画素の数が占める割合を検出する。
ステップS128において、状態検出部345は、検出された割合が所定の閾値以上であるかを判定する。状態検出部345は、ステップS127において検出された割合が所定の閾値以上であると判定した場合、処理はステップS129に進む。
ステップS129において、状態検出部345は、ドライバにとって眩しい状態であると判定し、照明光眩しさ検出処理は終了する。具体的には、状態検出部345は、ステップS127において検出された割合が所定の閾値以上であることをもって、ドライバの視野の中心を中心とする所定の範囲内において明るい領域が占める割合が所定の広さ以上であり、現在の状態がドライバにとって眩しい状態であると判定する。状態検出部345は、ドライバにとって眩しい状態が検出されたことを示す情報を表示制御部114および車両制御部115に供給する。
ステップS128において、ステップS127において検出された割合が所定の閾値未満であると判定された場合、処理はステップS129に進む。
ステップS130において、状態検出部345は、ドライバにとって眩しい状態でないと判定し、照明光眩しさ検出処理は終了する。具体的には、状態検出部345は、ステップS127において検出された割合が所定の閾値未満であることをもって、ドライバの視野の中心を中心とする所定の範囲内において明るい領域が占める割合が所定の広さより狭く、現在の状態がドライバにとって眩しい状態でないと判定する。状態検出部345は、ドライバにとって眩しい状態が検出されなかったことを示す情報を表示制御部114および車両制御部115に供給する。
次に、図16のフローチャートを参照して、図8のステップS5の眩しい状態検出時の処理の詳細を説明する。
ステップS151において、表示制御部114は、カーナビゲーション装置102に前方画像を表示させる。具体的には、表示制御部114は、前方画像の表示を指示する情報を、カーナビゲーション装置102に供給する。カーナビゲーション装置102は、前方監視カメラ112からの前方画像の取得、および、前方画像の表示を開始する。これにより、ドライバは、眩しくて見づらくなった車両の前方の状況を確実に確認することができる。
ステップS152において、表示制御部114は、カーナビゲーション装置102の表示の設定を調整する。具体的には、表示制御部114は、例えば、画面の輝度を上げるように指示する情報をカーナビゲーション装置102に供給する。カーナビゲーション装置102は、指示に基づいて、画面の輝度を上げる。これにより、眩しい状態においても、カーナビゲーション装置102の画面の視認性の低下が抑制され、ドライバは、画面に表示されている情報を確実に認識することができる。
ステップS153において、表示制御部114は、ヘッドアップディスプレイ103の表示位置を調整する。具体的には、表示制御部114は、ドライバにとって眩しくない位置に画像を表示するように指示する情報をヘッドアップディスプレイ103に供給する。ヘッドアップディスプレイ103は、指示された位置に画像の表示位置を変更する。これにより、ドライバは、ヘッドアップディスプレイ103により表示される画像を確実に認識することができる。
なお、ここで、ドライバにとって眩しくない位置とは、ヘッドアップディスプレイ103の画像の表示位置とドライバの目を結ぶ軸上に、眩しい光が入射しない位置である。例えば、表示制御部114は、ヘッドアップディスプレイ103の画像の表示位置とドライバの目を結ぶ軸上に、眩しい光が入射する可能性が低い位置、例えば、フロントガラスの下端部などを予め設定しておき、設定された位置に画像の表示位置を移動させる。また、例えば、表示制御部114は、後述する図20の光源検出処理により検出された前方画像に写っている光源の位置に基づいて、ヘッドアップディスプレイ103の画像の表示位置とドライバの目を結ぶ軸上に、その光源から発せられる光が入射しない位置に画像の表示位置を移動させる。
ステップS154において、車両制御部115は、前方監視の検知距離を延長する。具体的には、車両制御部115は、前方監視の検知距離の延長を指示する情報を前方監視装置104に供給する。前方監視装置104は、指示に基づいて、車両の前方の人、動物、障害物などの存在を検知する距離を延長する。すなわち、眩しさによる視界の悪化によりドライバの注意力が低下し、車両の前方の確認が平常時より遅くなっても、乗員の安全を損なわないように、車両の前方を監視する範囲が広げられる。
ステップS155において、車両制御部115は、プリクラッシュセーフティシステム105が起動するタイミングを早める。具体的には、車両制御部115は、起動するタイミングを早めるように指示する情報をプリクラッシュセーフティシステム105に供給する。プリクラッシュセーフティシステム105は、例えば、衝突を避けるための警報を発するタイミング、シートベルトを自動的に巻き取るタイミング、ブレーキを作動させるタイミングなどを平常時より早くするように自身の設定を行う。すなわち、眩しさによる視界の悪化によりドライバの注意力が低下し、車両の前方の確認が平常時より遅くなっても、乗員の安全を損なわないように、事故を事前に回避したり、衝突による被害を軽減させる動作がより早いタイミングで行われるようになる。
ステップS156において、車両制御部115は、車両の加速を抑制し、眩しい状態検出時の処理は終了する。具体的には、車両制御部115は、車両の加速の抑制を指示する情報を動力制御装置106に供給する。動力制御装置106は、平常時より加速を抑制するように車両のエンジンの動作を制御する。すなわち、眩しさによる視界の悪化によりドライバの注意力が低下し、車両の前方の確認が平常時より遅くなっても、追突や衝突を未然に防止することができるように、車両の加速が抑制される。
次に、図17のフローチャートを参照して、図8のステップS7の眩しい状態終了時の処理の詳細を説明する。
ステップS171において、表示制御部114は、カーナビゲーション装置102に前方画像の表示を停止させる。具体的には、表示制御部114は、前方画像の表示の停止を指示する情報を、カーナビゲーション装置102に供給する。カーナビゲーション装置102は、前方画像の表示を停止し、平常時の表示、例えば、目的地までのルートの案内の表示を再開する。
ステップS172において、表示制御部114は、カーナビゲーション装置102の表示の設定を元に戻す。具体的には、表示制御部114は、画面の輝度、コントラストなどを平常時の設定に戻すように指示する情報をカーナビゲーション装置102に供給する。カーナビゲーション装置102は、指示に基づいて、画面の輝度、コントラストなどを平常時の設定に戻す。
ステップS173において、表示制御部114は、ヘッドアップディスプレイ103の表示位置を元に戻す。具体的には、表示制御部114は、画像を表示する位置を平常時の位置に戻すように指示する情報をヘッドアップディスプレイ103に供給する。ヘッドアップディスプレイ103は、画像の表示位置を指示された位置、すなわち、平常時の位置に戻す。
ステップS174において、車両制御部115は、前方監視の検知距離を元に戻す。具体的には、車両制御部115は、前方監視の検知距離を平常時の距離に戻すように指示する情報を前方監視装置104に供給する。前方監視装置104は、指示に基づいて、前方監視の検知距離を平常時の距離に戻す。
ステップS175において、車両制御部115は、プリクラッシュセーフティシステム105が起動するタイミングを元に戻す。具体的には、車両制御部115は、起動するタイミングを平常時に戻すように指示する情報をプリクラッシュセーフティシステム105に供給する。プリクラッシュセーフティシステム105は、指示に基づいて、例えば、衝突を避けるための警報を発するタイミング、シートベルトを自動的に巻き取るタイミング、ブレーキを作動させるタイミングなどを平常時のタイミングとするように自身の設定を行う。
ステップS176において、車両制御部115は、車両の加速の抑制を解除し、眩しい状態終了時の処理は終了する。具体的には、車両制御部115は、車両の加速の抑制の解除を指示する情報を動力制御装置106に供給する。動力制御装置106は、平常時の加速特性となるように車両のエンジンの動作を制御する。
以上のようにして、光源の種類の違いに関わらず、ドライバにとって眩しい状態を正確に検出することができる。また、ドライバの目の感度に基づいて輝度閾値を変化させることにより、周囲の明るさやドライバの顔の輝度のみに基づく場合と比較して、ドライバにとって眩しい状態をより正確に検出することができる。さらに、ドライバの視界の悪化に対応した動作を行うように車両に設けられている車載装置を制御することにより、ドライバの視界の悪化に伴う安全性および利便性の低下が抑制される。
また、視界画像を抽出して、抽出した視界画像の輝度に基づいて、ドライバにとって眩しい状態であるか否かを判定するので、眩しさの原因となっている光源の方向を容易に推測することができる。さらに、視界画像を解析することにより、例えば、光源を特定し、特定した光源の種類および位置などを眩しさを軽減するための対策に活用することができる。
次に、図18乃至図21を参照して、図1の照明光眩しさ検出部125、並びに、図9のステップS37および図12のステップS68の照明光眩しさ検出処理の第2の実施の形態を説明する。
図18は、図1の照明光眩しさ検出部125の第2の実施の形態を示すブロック図である。図18の照明光眩しさ検出部125は、視界画像抽出部341、光源検出部501、判定値算出部502、および、状態検出部503を含むように構成される。また、光源検出部501は、輝度変化検出部511および領域検出部512を含むように構成される。なお、図中、図7と対応する部分は同じ符号を付してあり、処理が同じ部分に関しては、その説明は繰り返しになるので省略する。
光源検出部501は、図20を参照して後述するように、前方画像の各画素の位置の変化に対する輝度値の変化に基づいて、光源が写っている前方画像の領域(以下、光源領域とも称する)を検出する。なお、光源領域には、自ら光を発する一次光源が写っている領域、および、一次光源からの光の正反射光、すなわち、一次光源からの光が反射面により入射角とほぼ同じ角度で反射された光が写っている領域が含まれる。
輝度変化検出部511は、前方監視カメラ112から前方画像を取得する。輝度変化検出部511は、図20を参照して後述するように、前方画像の各画素の位置の変化に対する輝度値の変化を検出し、検出結果を示す情報を領域検出部512に供給する。
領域検出部512は、図20を参照して後述するように、輝度変化検出部511からの検出結果に基づいて、光源領域を検出する。領域検出部512は、検出した光源領域の位置を示す情報を判定値算出部502に供給する。
判定値算出部502は、視界画像を視界画像抽出部341から取得する。判定値算出部502は、図20を参照して後述するように、ドライバにとって眩しい状態を検出するための眩しさ判定値を算出し、算出した眩しさ判定値を示す情報を状態検出部503に供給する。
状態検出部503は、図19を参照して後述するように、判定値算出部502により算出された眩しさ判定値に基づいて、ドライバにとって眩しい状態を検出し、検出結果を示す情報を表示制御部114および車両制御部115に供給する。
次に、図19のフローチャートを参照して、図9のステップS37の照明光眩しさ検出処理の第2の実施の形態を説明する。
ステップS201において、光源検出部501は、光源検出処理を実行する。光源検出処理の詳細は、図20を参照して後述するが、この処理により、光源領域が検出され、光源領域の位置を示す情報が、領域検出部512から判定値算出部502に供給される。
ステップS202において、上述した図15のステップS122の処理と同様に、ドライバの視線の向きが検出され、ステップS203において、上述した図15のステップS123の処理と同様に、視界画像が抽出される。抽出された視界画像は、視界画像抽出部341から判定値算出部502に供給される。
ステップS204において、判定値算出部502は、眩しさ判定値を算出する。具体的には、判定値算出部502は、視界画像において、領域検出部512により検出された光源領域内の画素を抽出する。判定値算出部502は、抽出した画素の輝度値を合計することにより、眩しさ判定値を算出する。すなわち、眩しさ判定値は、視界画像において、光源領域の面積が広いほど、かつ、光源領域内の画素の輝度値が高いほど、大きな値となる。
なお、例えば、ドライバの視野の中心に近い画素ほど大きくなるように重みを設定し、設定した重みを輝度値に乗じてから、加算することにより眩しさ判定値を求めるようにしてもよい。
ステップS205において、状態検出部503は、眩しさ判定値が所定の閾値以上であるかを判定する。眩しさ判定値が所定の閾値以上であると判定された場合、処理はステップS206に進む。
ステップS206において、状態検出部503は、ドライバにとって眩しい状態であると判定し、照明光眩しさ検出処理は終了する。具体的には、状態検出部503は、眩しさ判定値が所定の閾値以上であることをもって、ドライバの視野の中心を中心とする所定の範囲内に存在する光源の面積の合計値が大きく、または、ドライバの視野の中心を中心とする所定の範囲内に存在する光源の輝度が高く、現在の状態がドライバにとって眩しい状態であると判定する。状態検出部503は、ドライバにとって眩しい状態が検出されたことを示す情報を表示制御部114および車両制御部115に供給する。
ステップS205において、眩しさ判定値が所定の閾値未満であると判定された場合、処理はステップS207に進む。
ステップS207において、状態検出部503は、ドライバにとって眩しい状態でないと判定し、照明光眩しさ検出処理は終了する。具体的には、状態検出部503は、眩しさ判定値が所定の閾値未満であることをもって、ドライバの視野の中心を中心とする所定の範囲内に存在する光源の面積の合計値が小さく、かつ、光源の輝度が低く、現在の状態がドライバにとって眩しい状態でないと判定する。状態検出部503は、ドライバにとって眩しい状態が検出されなかったことを示す情報を表示制御部114および車両制御部115に供給する。
次に、図20のフローチャートを参照して、図19のステップS201の光源検出処理の詳細を説明する。
ステップS231において、輝度変化検出部511は、前方画像の水平方向において、輝度値が大きく変化する位置を検出する。例えば、輝度変化検出部511は、前方画像の水平方向の各行の輝度値を、左方向から右方向に見ていき、隣接する画素間の輝度値の差が所定の大きさ以上となる位置、すなわち、隣接する画素間の輝度値の変化が所定の大きさ以上となる位置を検出する。輝度変化検出部511は、検出した位置を示す情報を領域検出部512に供給する。
図21の画像601は、夜間に郊外を走行する車両から撮像した前方画像の例を模式的に示し、図21のグラフは、画像601の2つの矢印Aで挟まれた水平方向の行の輝度値の変化を示している。なお、グラフの横軸は、画素の位置を示しており、縦軸は、その位置の画素の輝度値を示している。
図21のグラフに示されるように、画像601においては、自ら発光する光源である対向車のヘッドライト611−1,611−2の領域の輝度値が、周囲の輝度値と比較して、突出して高くなっている。従って、画像601の2つの矢印Aで挟まれた行においては、ステップS231において、ヘッドライト611−1の左端付近の位置P1および右端付近の位置P2、並びに、ヘッドライト611−2の左端付近の位置P3および右端付近の位置P4が、隣接する画素間の輝度値の変化が所定の大きさ以上である位置として検出される。また、ヘッドライト611−1,611−2の端部付近以外の位置では、輝度値が大きく変化しないため、隣接する画素間の輝度値の変化が所定の大きさ以上である位置は検出されない。
同様に、一般的に、夜間に撮像した前方画像においては、光源または光源からの光の正反射光の端部付近の位置が、隣接する画素間の輝度値の変化が所定の大きさ以上である位置として検出される。また、光源または光源からの光の正反射光の端部付近の位置以外では、隣接する画素間の輝度値の変化が所定の大きさ以上である位置はほとんど検出されない。
ステップS232において、ステップS231の処理と同様に、輝度変化検出部511は、前方画像の垂直方向において、輝度値が大きく変化する位置を検出する。輝度変化検出部511は、検出した位置を示す情報を領域検出部512に供給する。
なお、輝度値が大きく変化する位置を検出する方法は、上述した方法に限定されるものではなく、例えば、水平または垂直方向の線形一次微分フィルタを用いて前方画像にフィルタ処理を施した画像を用いて検出するようにしてもよい。
ステップS233において、領域検出部512は、光源が写っている領域を検出する。具体的には、領域検出部512は、前方画像の水平方向の各行ごとに、ステップS231において検出された位置、および、前方画像の左右の端部で区分される領域のうち、隣接する領域と比較して、輝度値が高い領域に含まれる画素を抽出する。例えば、図21の画像601の2つの矢印Aで挟まれた行においては、画像601の左端と位置P1の間の領域、位置P1と位置P2の間の領域、位置P2と位置P3の間の領域、位置P3と位置P4の間の領域、および、位置P4と画像601の右端の間の領域のうち、隣接する領域と比較して輝度値が高い領域である、位置P1と位置P2の間の領域、および、位置P3と位置P4の間の領域に含まれる画素が抽出される。
また、領域検出部512は、前方画像の垂直方向の各列ごとに、ステップS232において検出された位置、および、前方画像の上下の端部で区分される領域のうち、隣接する領域と比較して、輝度値が高い領域に含まれる画素を抽出する。
領域検出部512は、抽出した画素により構成される領域を、前方画像内において光源が写っている領域、すなわち、光源領域として検出する。領域検出部512は、検出した光源領域の位置を示す情報を判定値算出部502に供給する。
以上のようにして、光源の種類の違いに関わらず、ドライバにとって眩しい状態を正確に検出することができる。また、ドライバの視界内の光源の輝度および面積を検出条件に加えることにより、周囲の明るさやドライバの顔の輝度のみに基づく場合と比較して、ドライバにとって眩しい状態をより正確に検出することができる。さらに、前方画像内において光源が写っている位置を、簡単かつ正確に検出することができる。
なお、上述した図9の処理において、ステップS33の判定処理の結果に基づいて、太陽光眩しさ検出処理と照明光眩しさ検出処理のいずれかを選択して実行するようにしたが、ステップS35において、ステップS37の処理と異なる閾値を用いることにより、第1の実施の形態または第2の実施の形態の照明光眩しさ検出処理を行うようにしてもよい。すなわち、太陽光が照射しているか否かに基づいて、閾値を調整して、照明光眩しさ検出処理を実行することにより、ドライバにとって眩しい状態を検出するようにしてもよい。
なお、以上の説明では、図15および図19の照明光眩しさ検出処理において、車両の前方のみを対象にドライバにとって眩しい状態を検出するようにしたが、正面以外の方向、例えば、車両の左右の方向、後方などを対象に含めるようにしてもよい。この場合、追加する検出方向を撮像する撮像装置、および、追加する検出方向にドライバが向いたときのドライバの顔を撮像する撮像装置を設け、上述した処理と同様に、追加する検出方向を撮像する撮像装置により撮像した画像から視界画像を抽出したり、あるいは、光源が映っている領域を検出したりして、ドライバにとって眩しい状態を検出するようにすればよい。この場合、例えば、車両の周囲の全方位を撮像できる全方位カメラを設けるようにしてもよい。
次に、図22乃至図26を参照して、本発明の第2の実施の形態について説明する。
図22は、本発明の第2の実施の形態である監視システム701の構成を示すブロック図である。監視システム701は、室内監視カメラ111、眩しさ検出部711、表示制御部114、および、車両制御部115を含むように構成される。また、眩しさ検出部711は、トラッキング部121、統計部721、基準高さ検出部722、および、状態検出部723を含むように構成される。なお、監視システム101に設けられていた前方監視カメラ112は、監視システム701の外部に設けられている。
なお、図中、図1と対応する部分は同じ符号を付してあり、処理が同じ部分に関しては、その説明は繰り返しになるので省略する。
眩しさ検出部711は、図24などを参照して後述するように、ドライバにとって眩しい状態を検出する。
トラッキング部121は、室内監視カメラ111により撮像された顔画像およびその顔画像のトラッキング結果を示す情報を統計部721に供給する。また、トラッキング部121は、トラッキングすることにより検出されるドライバの目の高さを示す情報を、基準高さ検出部722および状態検出部723に供給する。
図23は、目の高さを検出する位置の例を示す図である。例えば、図内の矢印Hで示される、目頭801と目尻802の間の中点Pにおける上瞼と下瞼の間の高さが、ドライバの目の高さとして検出される。なお、目の高さを検出する位置は、この例に限定されるものではなく、例えば、上瞼の下端のいちばん高い位置と下瞼の上端のいちばん低い位置との間の高さを目の高さとして検出するようにしてもよい。
統計部721は、図6の統計部321と同様に、取得したトラッキング結果に基づいて、顔画像におけるドライバの目の周辺の領域の画像の輝度値の統計値を算出し、算出した統計値を示す情報を基準高さ検出部722に供給する。
基準高さ検出部722は、図25を参照して後述するように、ドライバにとって眩しい状態を検出するための基準となるドライバの目の高さである基準高さを検出し、検出した基準高さを示す情報を状態検出部723に供給する。
状態検出部723は、図26を参照して後述するように、顔画像におけるドライバの目の周辺の領域の画像の輝度値の統計値、および、トラッキング部121により検出されたドライバの目の高さと基準高さとの比較結果に基づいて、ドライバにとって眩しい状態を検出し、検出結果を示す情報を表示制御部114および車両制御部115に供給する。
次に、図24乃至図26を参照して、監視システム701の処理を説明する。
まず、図24を参照して、監視システム701により実行される車載装置制御処理を説明する。なお、この処理は、例えば、監視システム701が設けられている車両のエンジンが始動されたとき開始される。
ステップS301において、図8のステップS1の処理と同様に、ドライバの顔の撮像が開始される。
ステップS302において、眩しさ検出部711は、基準高さ検出処理を実行する。基準高さ検出処理の詳細は、図25を参照して後述するが、この処理により、ドライバの目の基準高さが検出される。
ステップS303において、眩しさ検出部711は、眩しさ検出処理を実行する。眩しさ検出処理の詳細は、図26を参照して後述するが、この処理により、ドライバにとって眩しい状態が検出される。
ステップS304乃至S308の処理は、図8のステップS4乃至S8の処理と同様であり、その説明は繰り返しになるので省略する。
次に、図25のフローチャートを参照して、図24のステップS302の基準高さ検出処理の詳細を説明する。
ステップS331において、トラッキング部121は、上述した図13のステップS91の処理と同様に、顔画像におけるドライバの顔をトラッキングする。トラッキング部121は、顔画像およびその顔画像のトラッキング結果を示す情報を統計部721に供給する。また、トラッキング部121は、トラッキングを行うことにより検出されたドライバの目の高さを示すデータを基準高さ検出部722に供給する。
ステップS332において、統計部721は、上述した図13のステップS92における統計部321による処理と同様に、ドライバの目の周辺の画像の輝度値の平均値を算出する。統計部721は、算出した平均値を示す情報を基準高さ検出部722に供給する。
ステップS333において、基準高さ検出部722は、ドライバの目の周辺の画像の輝度値の平均値が所定の閾値未満であるかを判定する。統計部721により算出された輝度値の平均値が所定の閾値以上であると判定された場合、すなわち、ドライバの目の周辺が所定の輝度より明るい場合、処理はステップS331に戻る。その後、ステップS333において、ドライバの目の周辺の画像の輝度値の平均値が所定の閾値未満であると判定されるまで、ステップS331乃至S333の処理が繰り返し実行される。
ステップS333において、ドライバの目の周辺の画像の輝度値の平均値が所定の閾値未満であると判定された場合、処理はステップS334に進む。
ステップS334において、基準高さ検出部722は、データを蓄積する。具体的には、基準高さ検出部722は、直前のステップS331において検出されたドライバの目の高さ、すなわち、ドライバの目の周辺が所定の輝度より暗い状態のときのドライバの目の高さを示すデータを、内部の図示せぬ記憶部に蓄積する。
ステップS335において、基準高さ検出部722は、所定の量のデータが蓄積されたかを判定する。所定の量のデータが蓄積されていないと判定された場合、処理はステップS331に戻り、その後、ステップS335において、所定の量のデータが蓄積されたと判定されるまで、ステップS331乃至S335の処理が繰り返し実行される。
ステップS335において、所定の量のデータが蓄積されたと判定された場合、すなわち、ドライバの目の高さを示すデータが所定の量だけ蓄積された場合、処理はステップS336に進む。
ステップS336において、基準高さ検出部722は、基準高さを検出し、基準高さ検出処理は終了する。具体的には、基準高さ検出部722は、蓄積されたデータにおける、ドライバの目の高さの平均値を算出し、基準高さとする。すなわち、基準高さは、ドライバの目の周辺があまり明るくない状態、すなわち、ドライバにとってあまり眩しくない状態における目の高さの平均値とされる。
なお、このとき、瞬きなどにより目の大きさが変化しているときのデータを除くために、最大値および最小値付近のデータを除外して、平均値を算出するようにしてもよい。
次に、図26のフローチャートを参照して、図24のステップS303の眩しさ検出処理の詳細を説明する。
ステップS361において、トラッキング部121は、上述した図13のステップS91の処理と同様に、顔画像におけるドライバの顔をトラッキングする。トラッキング部121は、顔画像およびその顔画像のトラッキング結果を示す情報を統計部721に供給する。また、トラッキング部121は、トラッキングを行うことにより検出されたドライバの目の高さを示すデータを状態検出部723に供給する。
ステップS362において、統計部721は、上述した図13のステップS92における統計部321による処理と同様に、ドライバの目の周辺の画像の輝度値の平均値を算出する。統計部721は、算出した平均値を示す情報を状態検出部723に供給する。
ステップS363において、状態検出部723は、直前の処理において、ドライバにとって眩しい状態であったかを判定する。直前に実行した眩しさ検出処理において、ドライバにとって眩しい状態でなかったと判定された場合、処理はステップS364に進む。
ステップS364において、状態検出部723は、ドライバの目の周辺の画像の輝度値の平均値が、所定の閾値以上高い方向に変化したかを判定する。ドライバの目の周辺の画像の輝度値の平均値が、所定の閾値以上高い方向に変化したと判定された場合、すなわち、ドライバの目の周辺の輝度が所定の値以上明るく変化した場合、処理はステップS365に進む。
ステップS365において、状態検出部723は、ドライバの目の高さが基準高さの所定の割合の範囲内であるかを判定する。ドライバの目の高さが、基準高さの所定の割合(例えば、60%)の範囲内であると判定された場合、すなわち、基準高さの所定の割合の範囲内までドライバが目を細めている場合、処理はステップS366に進む。
ステップS366において、状態検出部723は、ドライバの目の高さが基準高さの所定の割合の範囲内である状態が、所定の時間継続したかを判定する。ドライバの目の高さが基準高さの所定の割合の範囲内である状態が、まだ所定の時間(例えば、1秒間)継続していないと判定された場合、処理はステップS367に進む。
ステップS367において、トラッキング部121は、上述した図13のステップS91の処理と同様に、顔画像におけるドライバの顔をトラッキングする。また、トラッキング部121は、トラッキングを行うことにより検出されたドライバの目の高さを示すデータを状態検出部723に供給する。
その後、処理はステップS365に戻り、ステップS365において、ドライバの目の高さが基準高さの所定の割合の範囲を超えていると判定されるか、ステップS366において、ドライバの目の高さが基準高さの所定の割合の範囲内である状態が、所定の時間継続したと判定されるまで、ステップS365乃至S367の処理が繰り返し実行される。
ステップS366において、ドライバの目の高さが基準高さの所定の割合の範囲内である状態が、所定の時間継続したと判定された場合、すなわち、基準高さの所定の割合の範囲内までドライバが目を細めている状態が所定の時間継続した場合、処理はステップS368に進む。
ステップS368において、状態検出部723は、ドライバにとって眩しい状態に遷移したと判定し、眩しさ検出処理は終了する。具体的には、状態検出部723は、ドライバの目の周辺の画像の輝度値の平均値が、所定の閾値以上高い方向に変化し、ドライバの目の高さが基準高さの所定の割合の範囲内である状態が、所定の時間継続したことをもって、眩しさを避けるためにドライバが目を細めており、ドライバにとって眩しくない状態から眩しい状態に遷移したと判定する。状態検出部723は、ドライバにとって眩しい状態に遷移したことを示す情報を表示制御部114および車両制御部115に供給する。
ステップS365において、ドライバの目の高さが基準高さの所定の割合の範囲を超えていると判定された場合、ドライバにとって眩しい状態に遷移したとは判定されずに、眩しさ検出処理は終了する。
ステップS364において、ドライバの目の周辺の画像の輝度値の平均値が、所定の閾値以上高い方向に変化していないと判定された場合、すなわち、ドライバの目の周辺の輝度が所定の値以上明るく変化していない場合、ドライバにとって眩しい状態に遷移したとは判定されずに、眩しさ検出処理は終了する。
ステップS363において、直前の眩しさ検出処理において、ドライバにとって眩しい状態であったと判定された場合、処理はステップS369に進む。
ステップS369において、ステップS365の処理と同様に、ドライバの目の高さが基準高さの所定の割合の範囲内であるかが判定される。ドライバの目の高さが基準高さの所定の割合の範囲を超えていると判定された場合、すなわち、基準高さの所定の割合の範囲内までドライバが目を細めていない場合、処理はステップS370に進む。
ステップS370において、状態検出部723は、ドライバの目の周辺の画像の輝度値の平均値が、所定の閾値以下であるかを判定する。ドライバの目の周辺の画像の輝度値の平均値が、所定の閾値以下であると判定した場合、すなわち、ドライバの目の周辺の輝度が所定の輝度より暗い場合、処理はステップS371に進む。
ステップS371において、状態検出部723は、ドライバにとって眩しくない状態に遷移したと判定し、眩しさ検出処理は終了する。具体的には、状態検出部723は、ドライバの目の高さが基準高さの所定の割合の範囲を超えており、かつ、ドライバの目の周辺の輝度が所定の輝度より暗いことをもって、ドライバにとって眩しい状態から眩しくない状態に遷移したと判定する。状態検出部723は、ドライバにとって眩しくない状態に遷移したことを示す情報を表示制御部114および車両制御部115に供給する。
ステップS370において、ドライバの目の周辺の画像の輝度値の平均値が、所定の閾値より大きいと判定された場合、すなわち、基準高さの所定の割合の範囲内までドライバが目を細めていないが、ドライバの目の周辺の輝度が所定の輝度より明るい場合、ステップS371の処理はスキップされ、ドライバにとって眩しくない状態に遷移したとは判定されずに、眩しさ検出処理は終了する。
ステップS369において、ドライバの目の高さが基準高さの所定の割合の範囲内であると判定された場合、すなわち、基準高さの所定の割合の範囲内までドライバが目を細めている状態が継続している場合、ステップS370およびS371の処理はスキップされ、ドライバにとって眩しくない状態に遷移したとは判定されずに、眩しさ検出処理は終了する。
以上のようにして、ドライバの顔画像のみを用いて、光源の種類の違いに関わらず、ドライバにとって眩しい状態を正確に検出することができる。また、ドライバの目の高さおよびドライバの目の周囲の輝度を検出条件に加えることにより、周囲の明るさやドライバの顔の輝度のみに基づく場合と比較して、ドライバにとって眩しい状態をより正確に検出することができる。また、基準高さをドライバごとに検出することにより、個々のドライバに応じた眩しい状態を検出することができる。
なお、ドライバの顔の輝度を考慮せずに、ドライバの目の高さのみに基づいて、ドライバにとって眩しい状態を検出するようにすることも可能である。
なお、以上の説明では、カーナビゲーション装置102に前方画像を表示させたり、カーナビゲーション装置の表示の設定を調整する例を示したが、カーナビゲーション装置102以外の車両に設けられている表示装置に前方画像を表示させたり、表示装置の表示の設定を調整するようにしてもよい。
また、前方監視カメラ112に広角レンズを用いたり、前方監視カメラ112を複数台設けることにより、より広い範囲の前方画像から視界画像を抽出することが可能となり、より正確にドライバにとって眩しい状態を検出することができる。
さらに、ドアミラー、ルームミラーなどのミラーにより反射された光がドライバの顔に照射され、眩しさに影響を与えることを考慮して、車両の後方を撮像する後方監視カメラを設けて、ミラーによりドライバの視界に入る範囲の画像を後方監視カメラにより撮像された画像から抽出する。そして、前方画像において、実際にはドライバにはミラーが見えている領域を、抽出した画像に置き換えた後、視界画像を抽出するようにしてもよい。これにより、ミラーの影響を考慮して、ドライバにとって眩しい状態を検出することができる。
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図27は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータ900の構成の例を示すブロック図である。CPU(Central Processing Unit)901は、ROM(Read Only Memory)902、または記録部908に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)903には、CPU901が実行するプログラムやデータなどが適宜記憶される。これらのCPU901、ROM902、およびRAM903は、バス904により相互に接続されている。
CPU901にはまた、バス904を介して入出力インタフェース905が接続されている。入出力インタフェース905には、キーボード、マウス、マイクロホンなどよりなる入力部906、ディスプレイ、スピーカなどよりなる出力部907が接続されている。CPU901は、入力部906から入力される指令に対応して各種の処理を実行する。そして、CPU901は、処理の結果を出力部907に出力する。
入出力インタフェース905に接続されている記録部908は、例えばハードディスクからなり、CPU901が実行するプログラムや各種のデータを記憶する。通信部909は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。
また、通信部909を介してプログラムを取得し、記録部908に記憶してもよい。
入出力インタフェース905に接続されているドライブ910は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア911が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記録部908に転送され、記憶される。
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図27に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア911、または、プログラムが一時的もしくは永続的に格納されるROM902や、記録部908を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースである通信部909を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
さらに、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
本発明を適用した監視システムの一実施の形態を示すブロック図である。 図1の室内監視カメラおよび前方監視カメラの設置位置の例を模式的に示す図である。 図1の室内監視カメラおよび前方監視カメラの機能的構成を示すブロック図である。 対数変換型撮像素子などの感度特性を示すグラフである。 図1の検出方法選択部の機能的構成を示すブロック図である。 図1の太陽光眩しさ検出部の機能的構成を示すブロック図である。 図1の照明光眩しさ検出部の機能的構成を示すブロック図である。 図1の監視システムにより実行される車載装置制御処理を説明するためのフローチャートである。 図8のステップS3の眩しさ検出処理の詳細を説明するためのフローチャートである。 昼間に撮像した前方画像および輝度値の分布の例を示す図である。 夜間に撮像した前方画像および輝度値の分布の例を示す図である。 図8のステップS3の眩しさ検出処理の第2の実施の形態を説明するためのフローチャートである。 図9のステップS35および図12のステップS66の太陽光眩しさ検出処理の詳細を説明するためのフローチャートである。 輝度の平均値を検出する領域の例を示す図である。 図9のステップS37および図12のステップS68の照明光眩しさ検出処理の詳細を説明するためのフローチャートである。 図8のステップS5の眩しい状態検出時の処理の詳細を説明するためのフローチャートである。 図8のステップS7の眩しい状態終了時の処理の詳細を説明するためのフローチャートである。 図1の照明光眩しさ検出部の第2の実施の形態の構成を示すブロック図である。 図9のステップS37および図12のステップS68の照明光眩しさ検出処理の第2の実施の形態を説明するためのフローチャートである。 図19のステップS201の光源検出処理の詳細を説明するためのフローチャートである。 夜間に撮像した前方画像および輝度値の分布の例を示す図である。 本発明を適用した監視システムの第2の実施の形態を示すブロック図である。 目の高さを検出する位置の例を示す図である。 図22の監視システムにより実行される実行される車載装置制御処理を説明するためのフローチャートである。 図24のステップS302の基準高さ検出処理の詳細を説明するためのフローチャートである。 図24のステップS303の眩しさ検出処理の詳細を説明するためのフローチャートである。 パーソナルコンピュータの構成の例を示すブロック図である。
符号の説明
101 監視システム
102 カーナビゲーション装置
103 ヘッドアップディスプレイ
104 前方監視装置
105 プリクラッシュセーフティシステム
106 動力制御部
111 室内監視カメラ
112 前方監視カメラ
113 眩しさ検出部
114 表示制御部
115 車両制御部
121 トラッキング部
122 視線方向検出部
123 検出方法選択部
124 太陽光眩しさ検出部
125 照明光眩しさ検出部
202 対数変換型撮像素子
301 統計部
302 選択部
321 統計部
322 状態検出部
341 視界画像抽出部
342 統計部
343 感度推定部
344 閾値設定部
345 状態検出部
501 光源検出部
502 判定値算出部
503 状態検出部
511 輝度変化検出部
512 領域検出部
701 監視システム
711 眩しさ検出部
721 統計部
722 基準高さ検出部
723 状態検出部

Claims (17)

  1. ドライバの視線の向きに基づいて、前記ドライバの視野の中心を中心とする所定の範囲の領域が写っている画像である視界画像を抽出する視界画像抽出手段と、
    前記視界画像の輝度に基づいて、前記ドライバの目に強い光が照射されているか否かを検出する第1の状態検出手段と
    を含む監視装置。
  2. 前記第1の状態検出手段は、前記視界画像において、輝度が所定の閾値以上である画素が占める割合に基づいて、前記ドライバの目に強い光が照射されているか否かを検出する
    請求項1に記載の監視装置。
  3. 所定の時間前から現在までの前記視界画像の輝度に基づいて、前記ドライバの目の感度を推定する感度推定手段と、
    推定された前記ドライバの感度に基づいて、前記閾値を設定する閾値設定手段と
    をさらに含む請求項2に記載の監視装置。
  4. 前記ドライバが運転する車両の前方を撮像した画像である前方画像において、輝度が大きく変化する位置である変化位置を検出する位置検出手段と、
    前記変化位置および前記前方画像の端部により区分される領域のうち、隣接する領域と比較して輝度が高い領域に含まれる画素により構成される領域を、光源領域として検出する領域検出手段と
    をさらに含み、
    前記視界画像抽出手段は、前記前方画像から前記視界画像を抽出し、
    前記第1の状態検出手段は、前記視界画像の各画素のうち、前記光源領域に含まれる画素の輝度に基づいて、前記ドライバの目に強い光が照射されているか否かを検出する
    請求項1に記載の監視装置。
  5. 前記位置検出手段は、前記前方画像の水平方向の行および垂直方向の列ごとに、隣接する画素間の輝度の変化が所定の大きさ以上となる位置を前記変化位置として検出する
    請求項4に記載の監視装置。
  6. 前記ドライバの顔を撮像した画像である顔画像における前記ドライバの目の周辺の領域の輝度に基づいて、前記ドライバの目に強い光が照射されているか否かを検出する第2の状態検出手段と、
    前記ドライバが運転する車両の前方を撮像した画像である前方画像の輝度に基づいて、前記第1の状態検出手段および前記第2の状態検出手段のうちどちらを用いて前記ドライバの目に強い光が照射されているか否かを検出するかを選択する選択手段と
    をさらに含む請求項1に記載の監視装置。
  7. 前記ドライバの顔を撮像した画像である顔画像に基づいて、前記ドライバの視線の向きを検出する視線方向検出手段を
    さらに含む請求項1に記載の監視装置。
  8. 前記ドライバの目に強い光が照射されている状態が検出された場合、前記ドライバの視界の悪化に対応した動作を行うように前記車両に設けられている車載装置を制御する車載装置制御手段を
    さらに含む請求項1に記載の監視装置。
  9. 前記車載装置制御手段は、前記ドライバが運転する車両の前方を撮像した画像である前方画像を表示させるように前記車載装置としての表示装置を制御する
    請求項8に記載の監視装置。
  10. 前記車載装置制御手段は、画面の輝度を上げるように前記車載装置としての表示装置を制御する
    請求項8に記載の監視装置。
  11. 前記車載装置制御手段は、画像を表示する位置を変更するように前記車載装置としてのヘッドアップディスプレイを制御する
    請求項8に記載の監視装置。
  12. 前記車載装置制御手段は、前記車両の前方を監視する距離を延長するように、前記車両の前方を監視する前記車載装置である前方監視装置を制御する
    請求項8に記載の監視装置。
  13. 前記車載装置制御手段は、事故を事前に回避したり、衝突による被害を軽減させる動作を行う前記車載装置であるプリクラッシュセーフティシステムが起動するタイミングを早めるように前記プリクラッシュセーフティシステムを制御する
    請求項8に記載の監視装置。
  14. 前記車載装置制御手段は、前記車両の加速を抑制するように、前記車両のエンジンの動作を制御する前記車載装置である動力制御装置を制御する
    請求項8に記載の監視装置。
  15. ドライバの視線の向きに基づいて、前記ドライバの視野の中心を中心とする所定の範囲の領域が写っている画像である視界画像を抽出する視界画像抽出ステップと、
    前記視界画像の輝度に基づいて、前記ドライバの目に強い光が照射されているか否かを検出する状態検出ステップと
    を含む監視方法。
  16. ドライバの視線の向きに基づいて、前記ドライバの視野の中心を中心とする所定の範囲の領域が写っている画像である視界画像を抽出する視界画像抽出ステップと、
    前記視界画像の輝度に基づいて、前記ドライバの目に強い光が照射されているか否かを検出する状態検出ステップと
    を含む処理をコンピュータに実行させるプログラム。
  17. 請求項16に記載のプログラムを記録した記録媒体。
JP2007067173A 2006-03-15 2007-03-15 監視装置および方法、記録媒体、並びに、プログラム Active JP4910802B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007067173A JP4910802B2 (ja) 2006-03-15 2007-03-15 監視装置および方法、記録媒体、並びに、プログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006071678 2006-03-15
JP2006071678 2006-03-15
JP2007067173A JP4910802B2 (ja) 2006-03-15 2007-03-15 監視装置および方法、記録媒体、並びに、プログラム

Publications (2)

Publication Number Publication Date
JP2007276766A true JP2007276766A (ja) 2007-10-25
JP4910802B2 JP4910802B2 (ja) 2012-04-04

Family

ID=38678665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007067173A Active JP4910802B2 (ja) 2006-03-15 2007-03-15 監視装置および方法、記録媒体、並びに、プログラム

Country Status (1)

Country Link
JP (1) JP4910802B2 (ja)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009113622A (ja) * 2007-11-06 2009-05-28 Aisin Seiki Co Ltd 車両用視界支援装置及び車両用視界支援方法
JP2009244946A (ja) * 2008-03-28 2009-10-22 Fujitsu Ltd 信号機認識装置,信号機認識方法および信号機認識プログラム
JP2009257815A (ja) * 2008-04-14 2009-11-05 Calsonic Kansei Corp メータ輝度調節システム
US7796491B2 (en) 2004-09-29 2010-09-14 Panasonic Corporation Wavelength plate, optical element, and optical pickup
JP2012162126A (ja) * 2011-02-04 2012-08-30 Fuji Heavy Ind Ltd 車載表示装置の輝度制御装置、輝度制御プログラムおよび輝度制御方法
JP2012240530A (ja) * 2011-05-18 2012-12-10 Koito Mfg Co Ltd 画像処理装置
WO2014162182A1 (en) * 2013-04-04 2014-10-09 Toyota Jidosha Kabushiki Kaisha Head-up display apparatus and control method of head-up display apparatus
WO2015025350A1 (ja) * 2013-08-19 2015-02-26 三菱電機株式会社 車載表示制御装置
CN105283130A (zh) * 2013-06-11 2016-01-27 皇家飞利浦有限公司 用于监测光和声音对人的影响的系统、方法和设备
WO2016147486A1 (ja) * 2015-03-19 2016-09-22 富士フイルム株式会社 投写型表示装置及び投写表示方法
JP2017091362A (ja) * 2015-11-13 2017-05-25 オートリブ ディベロップメント エービー 危険回避装置及びコンピュータプログラム
KR20170083798A (ko) * 2016-01-11 2017-07-19 엘지전자 주식회사 헤드업 디스플레이 장치 및 그 제어방법
JP2017170934A (ja) * 2016-03-18 2017-09-28 株式会社Subaru 車両用表示制御装置
CN109476319A (zh) * 2016-07-12 2019-03-15 本田技研工业株式会社 驾驶辅助装置
JP2019113413A (ja) * 2017-12-22 2019-07-11 コイト電工株式会社 グレア測定装置及びグレア測定方法
JP2019139609A (ja) * 2018-02-14 2019-08-22 いすゞ自動車株式会社 運転支援システム及び運転支援方法
CN111178225A (zh) * 2019-12-25 2020-05-19 恒大新能源汽车科技(广东)有限公司 一种遮光板控制方法、遮光板控制系统及装置
JP2021054169A (ja) * 2019-09-27 2021-04-08 株式会社デンソーテン ヘッドライト遠隔制御装置
JPWO2021064791A1 (ja) * 2019-09-30 2021-04-08
CN113665485A (zh) * 2021-08-30 2021-11-19 东风汽车集团股份有限公司 汽车前挡风玻璃防眩光系统及控制方法
JP7106022B1 (ja) * 2021-06-16 2022-07-25 三菱電機株式会社 空中映像表示装置及び空中映像表示方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003260933A (ja) * 2002-03-11 2003-09-16 Matsushita Electric Ind Co Ltd 自動眩しさ調節装置
JP2004302622A (ja) * 2003-03-28 2004-10-28 Nissan Motor Co Ltd 車両用制動制御装置
JP2005104218A (ja) * 2003-09-29 2005-04-21 Denso Corp 車両用遮光装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003260933A (ja) * 2002-03-11 2003-09-16 Matsushita Electric Ind Co Ltd 自動眩しさ調節装置
JP2004302622A (ja) * 2003-03-28 2004-10-28 Nissan Motor Co Ltd 車両用制動制御装置
JP2005104218A (ja) * 2003-09-29 2005-04-21 Denso Corp 車両用遮光装置

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7796491B2 (en) 2004-09-29 2010-09-14 Panasonic Corporation Wavelength plate, optical element, and optical pickup
JP2009113622A (ja) * 2007-11-06 2009-05-28 Aisin Seiki Co Ltd 車両用視界支援装置及び車両用視界支援方法
JP2009244946A (ja) * 2008-03-28 2009-10-22 Fujitsu Ltd 信号機認識装置,信号機認識方法および信号機認識プログラム
JP2009257815A (ja) * 2008-04-14 2009-11-05 Calsonic Kansei Corp メータ輝度調節システム
JP2012162126A (ja) * 2011-02-04 2012-08-30 Fuji Heavy Ind Ltd 車載表示装置の輝度制御装置、輝度制御プログラムおよび輝度制御方法
JP2012240530A (ja) * 2011-05-18 2012-12-10 Koito Mfg Co Ltd 画像処理装置
WO2014162182A1 (en) * 2013-04-04 2014-10-09 Toyota Jidosha Kabushiki Kaisha Head-up display apparatus and control method of head-up display apparatus
US10110859B2 (en) 2013-06-11 2018-10-23 Koninklijke Philips N.V. System, method and device for monitoring light and sound impact on a person
JP2016526961A (ja) * 2013-06-11 2016-09-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 人への光及び音インパクトをモニタするシステム、方法及びデバイス
CN105283130A (zh) * 2013-06-11 2016-01-27 皇家飞利浦有限公司 用于监测光和声音对人的影响的系统、方法和设备
CN113545754A (zh) * 2013-06-11 2021-10-26 皇家飞利浦有限公司 用于监测光和声音对人的影响的系统、方法和设备
WO2015025350A1 (ja) * 2013-08-19 2015-02-26 三菱電機株式会社 車載表示制御装置
JPWO2015025350A1 (ja) * 2013-08-19 2017-03-02 三菱電機株式会社 車載表示制御装置
WO2016147486A1 (ja) * 2015-03-19 2016-09-22 富士フイルム株式会社 投写型表示装置及び投写表示方法
DE112015006563B4 (de) * 2015-03-19 2020-11-12 Fujifilm Corporation Projektionsanzeigevorrichtung und Projektionsanzeigeverfahren
JP6175589B2 (ja) * 2015-03-19 2017-08-02 富士フイルム株式会社 投写型表示装置及び投写表示方法
JPWO2016147486A1 (ja) * 2015-03-19 2017-08-31 富士フイルム株式会社 投写型表示装置及び投写表示方法
CN107683220A (zh) * 2015-03-19 2018-02-09 富士胶片株式会社 投影型显示装置以及投影显示方法
US10732408B2 (en) 2015-03-19 2020-08-04 Fujifilm Corporation Projection type display device and projection display method
CN107683220B (zh) * 2015-03-19 2019-03-08 富士胶片株式会社 投影型显示装置以及投影显示方法
JP2017091362A (ja) * 2015-11-13 2017-05-25 オートリブ ディベロップメント エービー 危険回避装置及びコンピュータプログラム
KR102578679B1 (ko) * 2016-01-11 2023-09-13 엘지전자 주식회사 헤드업 디스플레이 장치 및 그 제어방법
KR20170083798A (ko) * 2016-01-11 2017-07-19 엘지전자 주식회사 헤드업 디스플레이 장치 및 그 제어방법
JP2017170934A (ja) * 2016-03-18 2017-09-28 株式会社Subaru 車両用表示制御装置
US10564434B2 (en) 2016-03-18 2020-02-18 Subaru Corporation Display control device for vehicle
CN109476319A (zh) * 2016-07-12 2019-03-15 本田技研工业株式会社 驾驶辅助装置
JP2019113413A (ja) * 2017-12-22 2019-07-11 コイト電工株式会社 グレア測定装置及びグレア測定方法
WO2019159683A1 (ja) * 2018-02-14 2019-08-22 いすゞ自動車株式会社 運転支援システム及び運転支援方法
JP2019139609A (ja) * 2018-02-14 2019-08-22 いすゞ自動車株式会社 運転支援システム及び運転支援方法
JP7073769B2 (ja) 2018-02-14 2022-05-24 いすゞ自動車株式会社 運転支援システム及び運転支援方法
JP2021054169A (ja) * 2019-09-27 2021-04-08 株式会社デンソーテン ヘッドライト遠隔制御装置
JP7314007B2 (ja) 2019-09-27 2023-07-25 株式会社デンソーテン ヘッドライト遠隔制御装置
US11675431B2 (en) 2019-09-30 2023-06-13 Mitsubishi Electric Corporation Image display device, display control device, and display control method, and program and recording medium
JPWO2021064791A1 (ja) * 2019-09-30 2021-04-08
WO2021064791A1 (ja) * 2019-09-30 2021-04-08 三菱電機株式会社 画像表示装置、表示制御装置、及び表示制御方法、並びにプログラム及び記録媒体
JP7199562B2 (ja) 2019-09-30 2023-01-05 三菱電機株式会社 画像表示装置、表示制御装置、及び表示制御方法、並びにプログラム及び記録媒体
CN111178225A (zh) * 2019-12-25 2020-05-19 恒大新能源汽车科技(广东)有限公司 一种遮光板控制方法、遮光板控制系统及装置
WO2022264294A1 (ja) * 2021-06-16 2022-12-22 三菱電機株式会社 空中映像表示装置及び空中映像表示方法
JP7106022B1 (ja) * 2021-06-16 2022-07-25 三菱電機株式会社 空中映像表示装置及び空中映像表示方法
CN113665485A (zh) * 2021-08-30 2021-11-19 东风汽车集团股份有限公司 汽车前挡风玻璃防眩光系统及控制方法
CN113665485B (zh) * 2021-08-30 2023-12-26 东风汽车集团股份有限公司 汽车前挡风玻璃防眩光系统及控制方法

Also Published As

Publication number Publication date
JP4910802B2 (ja) 2012-04-04

Similar Documents

Publication Publication Date Title
JP4910802B2 (ja) 監視装置および方法、記録媒体、並びに、プログラム
JP2007245911A (ja) 監視装置および方法、記録媒体、並びに、プログラム
US9904859B2 (en) Object detection enhancement of reflection-based imaging unit
US9736364B2 (en) Camera capable of reducing motion blur in a low luminance environment and vehicle including the same
KR101789984B1 (ko) 차량용 사이드 미러 카메라 시스템
US10252662B2 (en) Method for controlling a headlight
JP5366028B2 (ja) 顔画像撮像装置
WO2014054199A1 (ja) 状態監視装置
JP5761046B2 (ja) 防眩制御装置
JPWO2006109398A1 (ja) 画像処理装置および方法、プログラム、並びに記録媒体
JP4687573B2 (ja) 車両用運転支援装置
CN113647087B (zh) 状态检测装置、状态检测系统及状态检测方法
JP2016049260A (ja) 車載用撮像装置
JP2006350670A (ja) 夜間運転視界支援装置
JP2009029227A (ja) 照明制御装置および方法、並びに、プログラム
CN107640160B (zh) 车辆安全驾驶辅助系统及其控制方法
JP2007251555A (ja) 診断装置および方法、プログラム、並びに、記録媒体
CN114228450B (zh) 多功能遮阳板智能调节方法、装置、设备及存储介质
JP6658483B2 (ja) 車両用表示制御装置及び車両用表示システム
TWM610067U (zh) 感光防護之擋風玻璃變色系統
WO2018142969A1 (ja) 表示制御装置および方法、並びにプログラム
TWI749962B (zh) 感光防護之擋風玻璃變色系統
JP7501416B2 (ja) 車両の照明制御装置
EP4328090A1 (en) Auto dimming mirror
US11014574B2 (en) System and method for handling light source impairment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111220

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120102

R150 Certificate of patent or registration of utility model

Ref document number: 4910802

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150127

Year of fee payment: 3