JP2004172828A - Night vision device for vehicle - Google Patents

Night vision device for vehicle Download PDF

Info

Publication number
JP2004172828A
JP2004172828A JP2002335004A JP2002335004A JP2004172828A JP 2004172828 A JP2004172828 A JP 2004172828A JP 2002335004 A JP2002335004 A JP 2002335004A JP 2002335004 A JP2002335004 A JP 2002335004A JP 2004172828 A JP2004172828 A JP 2004172828A
Authority
JP
Japan
Prior art keywords
vehicle
night vision
image
lane
length
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002335004A
Other languages
Japanese (ja)
Inventor
Yoichi Kishi
陽一 貴志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2002335004A priority Critical patent/JP2004172828A/en
Publication of JP2004172828A publication Critical patent/JP2004172828A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Steering Control In Accordance With Driving Conditions (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a night vision device for a vehicle, which controls the display of a night vision image according to the illumination environment in a driving direction. <P>SOLUTION: A visual camera images a visible picture in front of a vehicle, the night vision device extracts the border of a lane from the imaged image (S3), and calculates the length of the extracted border (S4). Further, the night vision device assumes the missing point of the lane from the extracted border (S5), calculates the length of the border up to the missing point, and calculates a reference length (S6). The night vision device calculates the rate of the calculated length as an index for discriminating the illuminance environment in the drive direction (S7), and discriminates whether or not the index is a prescribed value or over (S8) to control ON / OFF of display of a night vision image (S9, S10). <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、赤外光による暗視画像により、運転者の夜間視認性を補助する車両用暗視装置に関する。
【0002】
【従来の技術】
夜間運転時において、暗く目視できない範囲の視界情報を暗視画像として運転者へ提供する車両用暗視装置は、運転者の夜間視認性を有効に補助する効果がある。しかし一方、輝度の高い暗視画像が、走行状況に関わらず常に表示されることは、運転者の前方注視行動に対して悪影響を与える。そのため、走行状況に応じた適正な情報提示を行う車両用暗視装置として、障害物の存在可能性を判定し、それに応じて暗視画像の表示を制御するものがある。この車両用暗視装置において、障害物の存在可能性の判定は、地図情報や路車間通信による情報、または各種センサ情報に基づいて、車両の走行環境を判断した結果によって行われる。
障害物の存在可能性が低いと判定されたときには、表示強度の低減、表示エリアの縮小等を行う(特許文献1参照)。
【0003】
【特許文献1】
特開2000−285394号公報
【0004】
【発明が解決しようとする課題】
従来例は、障害物の存在可能性により暗視画像の表示を制御するものであるが、暗視画像が必要とされる状況は、障害物が存在するときだけではない。たとえば、道路線形が蛇行するような山道走行の場合などは、障害物の存在可能性は低いが、走行方向の照度環境が不十分で視界が悪いため、暗視装置の表示による視界補助の必要性は高くなる。
【0005】
本発明は、走行方向の視界の良否を判定して、視界が良い場合には暗視画像の表示を制限し、視界が悪い場合には暗視画像を表示する車両用暗視装置を提供するものである。
【0006】
【課題を解決するための手段】
請求項1の発明による車両用暗視装置は、可視光を車両前方に照射する照射手段と、車両前方の赤外画像を撮像し、少なくとも前記照射手段による照射範囲よりも遠方の車両前方の範囲を撮像範囲に含む赤外画像撮像手段と、撮像された赤外画像を表示する表示手段と、車両前方の可視画像を撮像する可視画像撮像手段と、車両前方における走行環境の明るさに基づく視界の良否を判定する判定手段と、判定手段により視界が悪いと判定された場合は、赤外画像を表示手段に表示し、視界が良いと判定された場合は、赤外画像を表示手段に表示しない表示制御手段とを備える。
【0007】
【発明の効果】
本発明によれば、車両前方における走行環境の明るさに基づく視界の良否を判定し、その判定結果に基づいて、視界が悪いときに赤外カメラで撮像した車両前方の暗視画像を表示するようにしたので、夜間走行状況に応じた適切な視覚情報を提供することができる。
【0008】
【発明の実施の形態】
――第1の実施の形態――
図1に、車両100に搭載された、本発明による車両用暗視装置の第1の実施の形態を示す。ヘッドランプ6は、可視光および赤外光を車両100の前方に照射する。可視光はすれ違いビームとして照射され、車両100の前方の距離Bまで届く、網掛けで示す照射範囲61を形成する。一方、赤外光は車両100の前方の距離Aまで届く、可視光の照射範囲61を含んだ照射範囲62を形成する。
【0009】
可視カメラ1および赤外カメラ2は、車両前方の画像を撮像する。これには、たとえばCCDカメラなどが用いられる。可視カメラ1は可視光領域に感度を有し、可視画像を撮像する。ここで、可視カメラ1の感度は、走行環境の明るさに基づく視界の良否、すなわち車両前方の照度が所定値以上か否かを判定するために適した可視画像を撮像できるよう、人間の視覚感度になるべく近い感度が設定される。赤外カメラ2は赤外画像を撮像し、その撮像範囲は、可視光の照射範囲61よりも遠方の範囲までを含めた、赤外光の照射範囲62をカバーするよう設定される。可視カメラ1により撮像された画像は、画像処理回路3に出力される。画像処理回路3は、可視カメラ1により撮像された画像によって後述する各種の処理を行い、その処理結果に従って表示切替スイッチ5を制御する。画像処理回路3は、たとえばCPUやDSPとその周辺回路などによって構成される。表示切替スイッチ5は、赤外カメラ2により撮像された画像の、表示モニタ4への表示を制御する。表示モニタ4は、車両100の図示しない運転席付近に備えられ、運転者へ赤外カメラ2による暗視画像を必要に応じて提供する。これには、たとえばヘッドアップディスプレイなどが用いられる。
【0010】
画像処理回路3で行われる処理を、図2を用いて説明する。図2は、可視カメラ1により撮像された画像の例を図示したものであり、ヘッドランプ6により可視光を照射された網掛けで示す範囲20が画像として表示されている。表示範囲20以外の部分は、照度が低いため可視カメラ1では撮像されず、破線で示す白線や物標9などは画像として表示されない。
【0011】
画像処理回路3は、図2に示す画像より、表示範囲20内の、車両100が位置する車線の境界を示す白線21および22を、周知の処理方法によって抽出する。次に、抽出された白線21および22のうち、どちらかの白線(図2では白線21)の画像上における第1の長さMを求め、可視光による車両前方の視認距離に相当する長さを算出する。なお、どちらの白線の長さを第1の長さとするかは、あらかじめ設定される条件に基づいて決定され、たとえば、どちらか短い方の白線が常に選択される。
【0012】
さらに、白線21および22をそれぞれ延長したときの交点を求め、これを車線の消失点23と仮定する。次に、白線21および22をこの消失点23まで延長したときの第2の長さLを求め、理想的な車両前方の視認距離に相当する、基準となる長さを算出する。
【0013】
その後、算出された第2の長さに対する、第1の長さの割合を計算する。そして、計算結果が所定値以上である場合は、車両前方における走行環境の視界が良い、すなわち明るさ(照度)が所定値以上であるため、暗視画像は不要であると判定し、表示切替スイッチ5を開く。このとき、赤外カメラ2により撮像された画像は、表示モニタ4に表示されない。逆に、計算結果が所定値未満である場合は、車両前方における走行環境の視界が悪い、すなわち明るさ(照度)が所定値未満であるため、暗視画像の表示が必要であると判定し、表示切替スイッチ5を閉じる。このとき、赤外カメラ2により撮像された画像が、図3に示すように、表示モニタ4に出力されて表示される。
【0014】
この判定に用いられる割合の所定値には、可視光を照射された範囲20よりも十分遠方まで視界が確保されており、暗視画像が必要でない状況における割合の値が設定される。ここで、図2に示す画像の例は、可視光を照射された範囲20よりも遠方の視界は確保されておらず、暗視画像による視覚補助が必要な状況である。したがって、算出された第2の長さに対する第1の長さの割合は、設定された所定値未満となり、暗視画像の表示が必要であると判定される。
【0015】
表示モニタ4に表示される画像の例を図3に示す。図2の画像と比較すると、可視カメラ1による表示範囲20に加えて、ヘッドランプ6から可視光は照射されずに赤外光のみが照射された範囲30(楕円形で囲われた範囲)が画像として表示される。図3の例では、物標9が表示され、これを認識することができる。
【0016】
上記の説明では、車両からの可視光照射以外の何らかの可視光照射が、車両前方に存在しない場合について述べた。次は、車両前方に可視光の照射が存在する場合について説明する。
【0017】
図4は、第1の実施の形態において、可視光を照射する道路灯7が車両100の前方に存在する場合を示す。道路灯7が可視光照射範囲71を形成している以外は、図1と同じである。
【0018】
図4の場合における、可視カメラ1により撮像された画像の例を図5に示す。ヘッドランプ6から可視光が照射された範囲20に加えて、道路灯7から可視光を照射された範囲50が画像として表示されている。この場合、図2では表示されなかった物標9も、画像として表示することができる。
【0019】
可視カメラ1から画像処理回路3に出力された画像は、画像処理回路3において、図2を用いて説明した処理が行われ、暗視画像を表示するか否かを判定される。図5に示す画像の例では、車両前方の走行環境の視界は十分遠方まで確保されており、広い範囲の白線が抽出される。したがって、基準となる第2の白線の長さに対する、抽出された第1の白線の長さの割合は、設定された所定値以上となり、暗視画像の表示が不要であると判定される。そのため、表示切替スイッチ5は開かれ、赤外カメラ2により撮像された画像は表示モニタ4に表示されない。
【0020】
図4の場合における、赤外カメラ2により撮像された画像の例を図6に示す。
図5に示す可視カメラ1による画像と比べて、表示される画像の範囲にはそれほど違いがない。このように、図4の場合においては、可視光により目視できる範囲と、暗視画像の範囲にはそれほど違いがなく、暗視画像の表示が不要であることがわかる。
【0021】
第1の実施の形態における処理のフローチャートを、図7に示す。これは画像処理回路3で実行されるプログラムに基づく処理フローである。処理開始後、ステップS1で、ヘッドランプ6がオンであるかを判定する。オフであると判定された場合は、ステップS1を繰り返す。オンであると判定された場合は、次のステップS2へ進む。ステップS2では、可視カメラ1により撮像した画像を読み込む。
【0022】
ステップS3では、ステップS2で読み込んだ可視画像から、周知の処理方法により、車線の両側にある白線を抽出する。次に、ステップS4で、ステップS3で抽出した白線の長さMを算出する。ステップS5では、ステップS3で抽出した白線を延長したときの交点の位置を求め、これを車線の消失点と仮定する。
次のステップS6で、白線をステップS5で求めた消失点まで延長したときの、基準の長さLを算出する。
【0023】
ステップS7では、ステップS4で算出した白線の長さMの、ステップS6で算出した基準の長さLに対する割合M/Lを求め、これを走行環境の視界、すなわち車両前方の明るさ(照度)を判定する判定指数ELとする。ステップS8では、ステップS7で求めたELが、車両前方の走行環境の視界が十分良いとみなされる所定値EL以上かを判定する。ELがEL以上である場合、視界が良く暗視画像は不要であると判定し、ステップS9へ進む。ELがEL未満である場合、視界が悪く暗視画像の表示が必要であると判定し、ステップS10へ進む。
【0024】
ステップS9では、表示切替スイッチ5を開き、赤外カメラ2により撮像された画像が、表示モニタ4へ表示されないようにする。ステップS10では、表示切替スイッチ5を閉じ、赤外カメラ2により撮像された画像が、表示モニタ4へ表示されるようにする。ステップS9またはステップS10の後、ステップS1へ戻り、以上に説明した処理を繰り返す。
【0025】
上述した第1の実施の形態による車両用暗視装置によれば、次の作用効果が得られる。可視カメラで撮像した可視画像より、可視光の視認距離と、理想的な視認距離に相当する長さを算出し、その割合によって、車両前方の走行環境の視界の良否を判定する。その判定結果に従って、赤外光による車両前方の暗視画像の表示のオンオフを制御するようにした。その結果、夜間走行状況に応じた適切な視覚情報を提供することができる。
【0026】
――第2の実施の形態――
本発明による車両用暗視装置の第2の実施の形態について説明する。第1の実施の形態では、可視カメラで撮像した画像から、理想的な視認距離に相当する、基準となる長さを算出した。第2の実施の形態では、赤外カメラで撮像した画像から、基準となる長さを算出する。
【0027】
図8に、車両100に搭載された、本発明による車両用暗視装置の第2の実施の形態を示す。赤外カメラ2から出力される赤外画像も画像処理回路3に入力される点以外は、第1の実施の形態と同じである。
【0028】
第2の実施の形態における処理のフローチャートを、図9に示す。これは、第1の実施の形態と同様に、画像処理回路3で実行されるプログラムに基づく処理フローである。ステップS1〜ステップS4は、第1の実施の形態と同じ処理を行う。
【0029】
ステップS21では、赤外カメラ2により撮像した画像を読み込む。次のステップS22では、ステップS21で読み込んだ画像から、車線の両側にある白線を、ステップS3で行ったのと同様の方法によって抽出する。ステップS23では、ステップS22で抽出した白線の第3の長さを算出し、基準の長さLとする。ステップS7Aでは、ステップS4で算出した白線の長さMの、ステップS23で算出した基準の長さLに対する割合M/Lを求め、これを走行環境の視界を判定する判定指数ELとする。
【0030】
ステップS8以降は、第1の実施の形態と同じ処理を行う。ステップS9またはステップS10の後は、第1の実施の形態と同様に、ステップS1へ戻り、以上に説明した処理を繰り返す。
【0031】
上述した第2の実施の形態による車両用暗視装置によれば、第1の実施の形態において可視画像から算出する基準の長さに代えて、赤外カメラで撮像した赤外画像より抽出した白線の長さを求め、それを基準の長さとする。そして、車両前方の走行環境の視界の良否を判定し、その判定結果に従って、赤外光による車両前方の暗視画像の表示のオンオフを制御するようにした。その結果、第1の実施の形態と同様の作用効果を得ることができる。
【0032】
なお、以上説明した第1および第2の実施の形態においては、車両の走行位置によって可視画像上の白線位置が変化するため、抽出される白線の長さは、同一の走行環境であっても一定でない。そのため、車両の走行位置と白線位置との関係を可視画像から判断し、それに応じて、走行環境の視界を判定する判定指数、すなわち基準の長さに対する白線の長さの所定値を、変化させるのが望ましい。
【0033】
――第3の実施の形態――
本発明による車両用暗視装置の第3の実施の形態について説明する。図10は、第3の実施の形態において、可視光を照射する道路灯7が車両100の前方に離れて存在する場合を示す。第3の実施の形態における構成は、第1の実施の形態と同じである。
【0034】
図10の場合における、可視カメラ1により撮像された画像の例を図11に示す。ヘッドランプ6から可視光が照射された範囲20と、少し離れた位置にある、道路灯7から可視光を照射された範囲50が画像として表示されている。この場合、破線にて示す物標9は、可視光を照射されない範囲にあるため、画像として表示されない。このような画像に対して、第1の実施の形態と同様に白線を抽出すると、範囲20と範囲50の間にある、実際には表示されない部分までも、白線が続いているものとして抽出されてしまう可能性がある。このとき、可視範囲にある白線の第1の長さは、図中に示す長さM3として誤って算出されてしまい、基準となる白線の第2の長さに対する割合が大きくなる。この割合が所定値以上となれば、車両前方の走行環境の視界が良いと判定されて、暗視画像が表示されない。その結果、物標9は認識できなくなる。
【0035】
第3の実施の形態では、画像の一部にエリア10a〜10dからなる明度判定エリア10を設定し、それぞれのエリア内の画像に対する明度を検出する。これらの明度が所定値以上か否かを判定し、全てのエリアの明度が所定値以上である場合のみ、車両前方の走行環境の視界が良いと判定する。一つでも明度が所定値未満のエリアがあるときは、車両前方の走行環境の視界が悪いとして、暗視画像を表示するようにする。
【0036】
図11における、エリア10a〜10dの明度を模式的に表したものを、図12に示す。エリア10a〜10dにおける明度をそれぞれGa〜Gdとし、明度の違いを階段状のグラフによって表している。グラフが図の左側に近いほど明度が低い、すなわち暗いことを表し、右側に近いほど明度が高い、すなわち明るいことを表している。
【0037】
ここで、車両前方の走行環境の視界の良否を判定する、明度の所定値Gを、破線にて示す。Gcは所定値Gを下回っているため、車両前方の走行環境の視界が悪いと判定され、図13に示す暗視画像が表示される。この暗視画像によって、物標9を認識できる。
【0038】
第3の実施の形態における処理を、さらに別の画像例を用いて説明する。図14に示すような、車両前方に可視光の照射がない画像例では、エリア10a〜10dの明度は図15に示すように表される。この場合、GcおよびGdが所定値Gを下回っているため、車両前方の走行環境の視界が悪いと判定され、図13の暗視画像が表示される。一方、図16に示すような、車両前方の広い範囲に可視光が照射されている画像例では、エリア10a〜10dの明度は図17に示すように表される。この場合、Ga〜Gd全てが所定値G以上であるため、車両前方の走行環境の視界は良いと判定され、暗視画像は表示されない。
【0039】
第3の実施の形態における処理のフローチャートを、図18に示す。これは、第1および第2の実施の形態と同様に、画像処理回路3で実行されるプログラムに基づく処理フローである。ステップS1およびS2は、第1および第2の実施の形態と同じ処理を行う。
【0040】
ステップS31では、各エリアごとの画像のグレースケール階調平均値を算出し、算出された値を、エリア10a〜10dにそれぞれ対応する明度Ga〜Gdとする。次のステップS32では、ステップS32で求めたGa〜Gdのそれぞれに対し、所定値G未満であるかを判定する。Ga〜GdのすべてがG未満でない場合はステップS9へ進み、一つでもG未満であった場合はステップS10へ進んで、第1および第2の実施の形態と同様にして、表示モニタ4への表示を制御する。ステップS9またはステップS10の後は、第1および第2の実施の形態と同様に、ステップS1へ戻り、以上に説明した処理を繰り返す。
【0041】
上述した第3の実施の形態による車両用暗視装置によれば、可視カメラで撮像した可視画像の一部を所定数のエリアに分割し、そのエリアごとの明度を検出して、車両前方の走行環境の視界の良否を判定する。その判定結果に従って、赤外光による車両前方の暗視画像の表示のオンオフを制御するようにした。その結果、第1および第2の実施の形態と同様の作用効果に加えて、より夜間走行状況に応じた適切な視覚情報を提供することができる。
【0042】
――第4の実施の形態――
図19に、車両100に搭載された、本発明による車両用暗視装置の第4の実施の形態を示す。警報装置13と、ステアリング制御装置14とを備える点以外は、第2の実施の形態による構成と同じである。警報装置13は、画像処理回路3からの信号により、運転者に対して車線を逸脱したことを、たとえば警報音などにより報知する。ステアリング制御装置14は、車線を逸脱したとき、画像処理回路3の制御により、車両100のステアリングを制御して、車両100の進行方向を逸脱前の車線に戻るように変更する。
【0043】
第4の実施の形態における処理のフローチャートを、図20に示す。これは、第1〜第3の実施の形態と同様に、画像処理回路3で実行されるプログラムに基づく処理フローである。なお、この処理と図9に示す処理を並行して行ってもよい。ステップS1〜S3は、第1および第2の実施の形態と同じ処理を行う。
【0044】
ステップS41では、ステップS3で抽出した白線を車両100が越えたか否かを判定する。この判定は、たとえば、画像全体に対する白線の位置が、所定範囲内にあるか否かなどによって行われる。白線を越えて車線を逸脱したと判定した場合はステップS42へ進み、白線を越えていないと判定した場合はステップS1へ戻る。
【0045】
ステップS42では、警報装置13へ信号を出力し、これを作動させる。ステップS43では、ステアリング制御装置14を、車両100の進行方向を逸脱前の車線に戻すように制御する。
【0046】
ステップS44では、車両100が元の車線に戻ったかを判定する。この判定は、ステップS41と同様に、たとえば、画像全体に対する白線の位置が、所定範囲内にあるか否かなどによって行われる。元の車線に戻ったと判定した場合はステップS45へ進み、元の車線に戻っていないと判定した場合は、ステップS43へ戻る。ステップS45では、警報装置13の作動を解除する。その後、ステップS1へ戻る。
【0047】
上述した第4の実施の形態による車両用暗視装置によれば、赤外カメラで撮像した赤外画像より抽出した白線を車両が越えたか否かを判定し、白線を越えて車線を逸脱したと判定した場合は、警報装置を作動するともに、元の車線に戻るよう車両のステアリングを制御することとした。その結果、夜間走行においても、車線からの逸脱を防止することができる。なお、白線を越えて車線を逸脱したと判定した場合に、警報装置を作動するだけでもよいし、車両のステアリングを制御するだけでもよい。
【0048】
以上の説明では、ヘッドランプ6より可視光および赤外光を照射することとしたが、可視光の照射と赤外光の照射を、それぞれ異なるヘッドランプにより行ってもよい。あるいは、第1および第3の実施の形態においては、赤外光の照射を行わなくてもよい。その場合には、赤外カメラ2として、たとえば熱イメージャなどの、遠赤外線を検出するカメラが用いられる。また、可視カメラ1や赤外カメラ2で撮像した画像から抽出する道路上の車線の境界を、白線に代表して説明したが、これを白線に限定する必要はない。黄線や、道路舗装の切れ目など、画像から車線の境界であることを判別できるものであれば、何でもよい。さらに、第3の実施の形態では、可視カメラ1で撮像した画像の一部を、エリア10a〜10dの4つのエリアに分割したが、分割するエリア数を変えてもよい。また、エリアごとのグレースケール階調平均値を算出して、これを各エリアの明度としたが、他の方法によって算出した値を明度として用いてもよい。
【0049】
以上の実施の形態では、たとえば照射手段をヘッドランプ6、可視画像撮像手段を可視カメラ1、赤外画像撮像手段を赤外カメラ2、判定手段を画像処理回路3、表示手段を表示モニタ4、表示制御手段を表示切替スイッチ5でそれぞれ実現している。さらに、報知手段を警報装置13、ステアリング制御手段をステアリング制御装置14で実現している。しかし、これらはあくまで一例であり、本発明の特徴が損なわれない限り、各構成要素は上記実施の形態に限定されない。
【図面の簡単な説明】
【図1】車両に搭載された本発明の第1の実施の形態を示す図
【図2】車両の前方に車両以外からの可視光の照射がない場合に、可視カメラにより撮像された画像の例を示す図
【図3】図2の画像例が撮像されたときに、表示モニタに表示される暗視画像の例を示す図
【図4】第1の実施の形態において、道路灯からの可視光が車両の前方に照射されている場合を示す図
【図5】図4の場合における、可視カメラにより撮像された画像の例を示す図
【図6】図4の場合における、赤外カメラにより撮像された画像の例を示す図
【図7】第1の実施の形態における処理のフローチャート
【図8】車両に搭載された本発明の第2の実施の形態を示す図
【図9】第2の実施の形態における処理のフローチャート
【図10】第3の実施の形態において、道路灯からの可視光が車両の前方に離れて照射されている場合を示す図
【図11】図10の場合における可視カメラにより撮像された画像の例と、画像の一部に設定された明度判定エリアを示す図
【図12】図11の明度判定エリアの各エリアの明度を、模式的に表した図
【図13】図11の画像例が撮像されたときに、表示モニタに表示される暗視画像の例を示す図
【図14】車両の前方に車両以外からの可視光の照射がないときの可視画像の例と、画像の一部に設定された明度判定エリアを示す図
【図15】図14の明度判定エリアの各エリアの明度を、模式的に表した図
【図16】車両前方の広い範囲に可視光が照射されているときの可視画像の例と、画像の一部に設定された明度判定エリアを示す図
【図17】図16の明度判定エリアの各エリアの明度を、模式的に表した図
【図18】第3の実施の形態における処理のフローチャート
【図19】車両に搭載された本発明の第4の実施の形態を示す図
【図20】第4の実施の形態における処理のフローチャート
【符号の説明】
1 可視カメラ
2 赤外カメラ
3 画像処理回路
4 表示モニタ
5 表示切替スイッチ
6 ヘッドランプ
7 道路灯
10 明度判定エリア
13 警報装置
14 ステアリング制御装置
21、22 車線の境界を示す白線
23 車線の消失点と仮定する点
100 車両
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a night vision device for a vehicle that assists a driver with night visibility by night vision images using infrared light.
[0002]
[Prior art]
A night vision device for a vehicle, which provides a driver with night vision information in a dark and invisible range during night driving, has an effect of effectively assisting the driver's night visibility. On the other hand, the fact that a night-vision image with high luminance is always displayed irrespective of the driving situation adversely affects the driver's forward gaze behavior. Therefore, as a night vision device for a vehicle that presents appropriate information according to a traveling situation, there is a device that determines the possibility of an obstacle and controls the display of a night vision image in accordance with the determination. In this night vision device for a vehicle, the determination of the possibility of the presence of an obstacle is performed based on the result of determining the traveling environment of the vehicle based on map information, information obtained by road-to-vehicle communication, or various sensor information.
When it is determined that the possibility of the presence of the obstacle is low, the display intensity is reduced, the display area is reduced, and the like (see Patent Document 1).
[0003]
[Patent Document 1]
Japanese Patent Application Laid-Open No. 2000-285394
[Problems to be solved by the invention]
In the conventional example, the display of the night-vision image is controlled based on the possibility of the presence of the obstacle. However, the situation where the night-vision image is required is not limited to the case where the obstacle exists. For example, when traveling on a mountain road where the road alignment is meandering, the likelihood of the presence of obstacles is low, but the visibility is poor due to insufficient illuminance environment in the traveling direction. Sex is higher.
[0005]
The present invention provides a vehicular night-vision device that determines the quality of a field of view in a traveling direction, limits display of a night-vision image when the field of view is good, and displays a night-vision image when the field of view is poor. Things.
[0006]
[Means for Solving the Problems]
A night vision apparatus for a vehicle according to the invention of claim 1 irradiates a visible light to the front of the vehicle, and captures an infrared image of the front of the vehicle, and at least a range of the front of the vehicle farther than the irradiation range of the irradiation means. Image capturing means including an image capturing range, a display means for displaying the captured infrared image, a visible image capturing means for capturing a visible image in front of the vehicle, and a view based on the brightness of the traveling environment in front of the vehicle. The infrared image is displayed on the display means when the visibility is determined to be poor by the determination means for determining whether the visibility is good, and the infrared image is displayed on the display means when the visibility is determined to be good. Display control means not to be provided.
[0007]
【The invention's effect】
According to the present invention, whether the visibility is good or bad is determined based on the brightness of the traveling environment ahead of the vehicle, and based on the determination result, a night vision image of the front of the vehicle captured by the infrared camera when the visibility is poor is displayed. With this configuration, it is possible to provide appropriate visual information according to the nighttime driving situation.
[0008]
BEST MODE FOR CARRYING OUT THE INVENTION
--First Embodiment--
FIG. 1 shows a first embodiment of a night vision device for a vehicle according to the present invention mounted on a vehicle 100. The headlamp 6 emits visible light and infrared light toward the front of the vehicle 100. The visible light is radiated as a low beam and reaches a distance B in front of the vehicle 100 to form an irradiation range 61 shown by hatching. On the other hand, the infrared light reaches the distance A in front of the vehicle 100 and forms an irradiation range 62 including the irradiation range 61 of the visible light.
[0009]
The visible camera 1 and the infrared camera 2 capture an image in front of the vehicle. For this, for example, a CCD camera or the like is used. The visible camera 1 has sensitivity in the visible light region and captures a visible image. Here, the sensitivity of the visible camera 1 is determined by human vision so that a visible image suitable for determining whether the visibility based on the brightness of the driving environment, that is, the illuminance in front of the vehicle is equal to or greater than a predetermined value, can be captured. The sensitivity is set as close as possible to the sensitivity. The infrared camera 2 captures an infrared image, and the imaging range is set to cover the irradiation range 62 of the infrared light, including a range farther than the irradiation range 61 of the visible light. The image captured by the visible camera 1 is output to the image processing circuit 3. The image processing circuit 3 performs various processes described later on the basis of the image captured by the visible camera 1, and controls the display changeover switch 5 according to the processing result. The image processing circuit 3 includes, for example, a CPU, a DSP, and its peripheral circuits. The display changeover switch 5 controls display of an image captured by the infrared camera 2 on the display monitor 4. The display monitor 4 is provided near a driver's seat (not shown) of the vehicle 100, and provides a night vision image of the infrared camera 2 to the driver as needed. For this purpose, for example, a head-up display is used.
[0010]
The processing performed by the image processing circuit 3 will be described with reference to FIG. FIG. 2 illustrates an example of an image captured by the visible camera 1, and a hatched area 20 irradiated with visible light by the headlamp 6 is displayed as an image. Since the illuminance is low, the portion other than the display range 20 is not imaged by the visible camera 1, and the white line indicated by the broken line, the target 9, and the like are not displayed as images.
[0011]
The image processing circuit 3 extracts white lines 21 and 22 indicating the boundaries of the lane where the vehicle 100 is located within the display range 20 from the image shown in FIG. 2 by a known processing method. Next, a first length M1 of one of the extracted white lines 21 and 22 on the image of the white line (white line 21 in FIG. 2) is obtained, and a length corresponding to a visible distance in front of the vehicle by visible light. Is calculated. Which of the white lines is the first length is determined based on a preset condition. For example, the shorter white line is always selected.
[0012]
Further, an intersection point when the white lines 21 and 22 are extended is determined, and this is assumed to be a vanishing point 23 of the lane. Next, a second length L when the white lines 21 and 22 are extended to the vanishing point 23 is obtained, and a reference length corresponding to an ideal visual recognition distance in front of the vehicle is calculated.
[0013]
Thereafter, the ratio of the first length to the calculated second length is calculated. When the calculation result is equal to or more than the predetermined value, it is determined that the night vision image is unnecessary because the visibility of the traveling environment ahead of the vehicle is good, that is, the brightness (illuminance) is equal to or more than the predetermined value, and the display switching is performed. Open switch 5. At this time, the image captured by the infrared camera 2 is not displayed on the display monitor 4. Conversely, when the calculation result is less than the predetermined value, it is determined that the night vision image needs to be displayed because the visibility of the traveling environment ahead of the vehicle is poor, that is, the brightness (illuminance) is less than the predetermined value. Then, the display changeover switch 5 is closed. At this time, the image captured by the infrared camera 2 is output to the display monitor 4 and displayed as shown in FIG.
[0014]
The predetermined value of the ratio used in this determination is set to a value of the ratio in a situation where the field of view is sufficiently far away from the range 20 irradiated with the visible light and a night vision image is not required. Here, the example of the image shown in FIG. 2 is a situation in which a visual field farther than the range 20 irradiated with visible light is not secured, and visual assistance using a night-vision image is required. Therefore, the calculated ratio of the first length to the second length is less than the set predetermined value, and it is determined that the display of the night vision image is necessary.
[0015]
FIG. 3 shows an example of an image displayed on the display monitor 4. Compared with the image of FIG. 2, in addition to the display range 20 by the visible camera 1, a range 30 (a range surrounded by an ellipse) in which only the infrared light is irradiated without the visible light from the headlamp 6 being irradiated. Displayed as an image. In the example of FIG. 3, the target 9 is displayed and can be recognized.
[0016]
In the above description, the case where there is no visible light irradiation other than the visible light irradiation from the vehicle in front of the vehicle has been described. Next, a case where visible light irradiation is present in front of the vehicle will be described.
[0017]
FIG. 4 shows a case where a road light 7 that emits visible light is present in front of the vehicle 100 in the first embodiment. 1 is the same as FIG. 1 except that the road light 7 forms the visible light irradiation range 71.
[0018]
FIG. 5 shows an example of an image captured by the visible camera 1 in the case of FIG. In addition to the range 20 where the headlamp 6 is irradiated with visible light, the range 50 where the road light 7 is irradiated with visible light is displayed as an image. In this case, the target 9 not displayed in FIG. 2 can be displayed as an image.
[0019]
The image output from the visible camera 1 to the image processing circuit 3 is subjected to the processing described with reference to FIG. 2 in the image processing circuit 3 to determine whether to display a night vision image. In the example of the image shown in FIG. 5, the field of view of the traveling environment ahead of the vehicle is sufficiently far away, and a wide range of white lines is extracted. Therefore, the ratio of the length of the extracted first white line to the length of the reference second white line is equal to or greater than the set predetermined value, and it is determined that the display of the night vision image is unnecessary. Therefore, the display changeover switch 5 is opened, and the image captured by the infrared camera 2 is not displayed on the display monitor 4.
[0020]
FIG. 6 shows an example of an image captured by the infrared camera 2 in the case of FIG.
Compared with the image by the visible camera 1 shown in FIG. 5, the range of the displayed image is not so different. Thus, in the case of FIG. 4, there is not so much difference between the range visible with visible light and the range of the night-vision image, and it is understood that the display of the night-vision image is unnecessary.
[0021]
FIG. 7 shows a flowchart of the process in the first embodiment. This is a processing flow based on a program executed by the image processing circuit 3. After the start of the process, it is determined in step S1 whether the headlamp 6 is on. If it is determined to be off, step S1 is repeated. If it is determined to be on, the process proceeds to the next step S2. In step S2, an image captured by the visible camera 1 is read.
[0022]
In step S3, white lines on both sides of the lane are extracted from the visible image read in step S2 by a known processing method. Next, in step S4, the length M of the white line extracted in step S3 is calculated. In step S5, the position of the intersection when the white line extracted in step S3 is extended is determined, and this is assumed to be the vanishing point of the lane.
In the next step S6, a reference length L when the white line is extended to the vanishing point obtained in step S5 is calculated.
[0023]
In step S7, the ratio M / L of the length M of the white line calculated in step S4 to the reference length L calculated in step S6 is determined, and this is determined as the visibility of the traveling environment, that is, the brightness (illuminance) in front of the vehicle. Is determined as a determination index EL. In step S8, EL obtained in step S7 it is determined whether a predetermined value EL 0 or more field of view ahead of the vehicle traveling environment is considered good enough. If EL is equal to or greater than EL 0, it is determined that the visibility is good and the night vision image is unnecessary, and the process proceeds to step S9. If EL is less than EL 0, it is determined that the field of view is poor and a night-vision image needs to be displayed, and the process proceeds to step S10.
[0024]
In step S9, the display changeover switch 5 is opened so that the image captured by the infrared camera 2 is not displayed on the display monitor 4. In step S10, the display changeover switch 5 is closed, and the image captured by the infrared camera 2 is displayed on the display monitor 4. After step S9 or step S10, the process returns to step S1, and the above-described processing is repeated.
[0025]
According to the night vision device for a vehicle according to the first embodiment, the following operation and effect can be obtained. From the visible image captured by the visible camera, the visible distance of visible light and the length corresponding to the ideal visible distance are calculated, and the quality of the field of view of the running environment ahead of the vehicle is determined based on the ratio. On / off of the display of the night vision image ahead of the vehicle by the infrared light is controlled according to the determination result. As a result, it is possible to provide appropriate visual information according to night driving conditions.
[0026]
――Second embodiment――
A second embodiment of the night vision device for a vehicle according to the present invention will be described. In the first embodiment, a reference length corresponding to an ideal viewing distance is calculated from an image captured by a visible camera. In the second embodiment, a reference length is calculated from an image captured by an infrared camera.
[0027]
FIG. 8 shows a second embodiment of the vehicular night vision device according to the present invention mounted on the vehicle 100. The second embodiment is the same as the first embodiment except that an infrared image output from the infrared camera 2 is also input to the image processing circuit 3.
[0028]
FIG. 9 shows a flowchart of the process according to the second embodiment. This is a processing flow based on a program executed by the image processing circuit 3 as in the first embodiment. Steps S1 to S4 perform the same processing as in the first embodiment.
[0029]
In step S21, an image captured by the infrared camera 2 is read. In the next step S22, white lines on both sides of the lane are extracted from the image read in step S21 by a method similar to that performed in step S3. In step S23, it calculates a third length of the white line extracted at the step S22, and the length L 1 of the reference. In step S7A, the length M of the white line calculated in step S4, obtains a ratio M / L 1 with respect to the reference length L 1 calculated in step S23, a determination index EL visibility of running environment this .
[0030]
After step S8, the same processing as in the first embodiment is performed. After step S9 or step S10, as in the first embodiment, the process returns to step S1, and the processing described above is repeated.
[0031]
According to the night vision device for a vehicle according to the second embodiment described above, instead of the reference length calculated from the visible image in the first embodiment, the vehicle is extracted from the infrared image captured by the infrared camera. Obtain the length of the white line and use it as the reference length. Then, the quality of the field of view of the traveling environment ahead of the vehicle is determined, and on / off of the display of the night vision image ahead of the vehicle by infrared light is controlled according to the determination result. As a result, the same functions and effects as those of the first embodiment can be obtained.
[0032]
In the first and second embodiments described above, since the position of the white line on the visible image changes depending on the traveling position of the vehicle, the length of the extracted white line is the same even in the same traveling environment. Not constant. Therefore, the relationship between the traveling position of the vehicle and the position of the white line is determined from the visible image, and accordingly, the determination index for determining the visibility of the traveling environment, that is, the predetermined value of the length of the white line with respect to the reference length is changed. It is desirable.
[0033]
--Third embodiment--
Third Embodiment A night vision device for a vehicle according to a third embodiment of the present invention will be described. FIG. 10 shows a third embodiment in which a road light 7 for irradiating visible light is distant from the front of the vehicle 100. The configuration of the third embodiment is the same as that of the first embodiment.
[0034]
FIG. 11 shows an example of an image captured by the visible camera 1 in the case of FIG. A range 20 where the visible light is emitted from the headlamp 6 and a range 50 where the visible light is emitted from the road light 7 at a slightly distant position are displayed as images. In this case, the target 9 indicated by the broken line is not displayed as an image because it is in a range where visible light is not irradiated. When a white line is extracted from such an image in the same manner as in the first embodiment, the white line is extracted as a continuous white line between the range 20 and the range 50 and not actually displayed. Could be At this time, the first length of the white line in the visible range is incorrectly calculated as the length M3 shown in the drawing, and the ratio of the reference white line to the second length increases. If this ratio is equal to or greater than a predetermined value, it is determined that the visibility of the traveling environment ahead of the vehicle is good, and no night vision image is displayed. As a result, the target 9 cannot be recognized.
[0035]
In the third embodiment, a brightness determination area 10 including areas 10a to 10d is set in a part of an image, and the brightness of the image in each area is detected. It is determined whether or not these brightnesses are equal to or greater than a predetermined value. Only when the brightness of all areas is equal to or greater than the predetermined value, it is determined that the visibility of the traveling environment ahead of the vehicle is good. If there is at least one area whose brightness is less than the predetermined value, it is determined that the visibility of the traveling environment ahead of the vehicle is poor, and a night-vision image is displayed.
[0036]
FIG. 12 schematically shows the brightness of the areas 10a to 10d in FIG. The lightness in the areas 10a to 10d is represented by Ga to Gd, respectively, and the difference in lightness is represented by a step-like graph. The closer the graph is to the left side of the figure, the lower the brightness is, that is, the darker, and the closer the graph is to the right side, the higher the brightness is, that is, the brighter.
[0037]
Here, determines the quality of the field of view of the traveling environment ahead of the vehicle, the predetermined value G 0 of the brightness, shown by a broken line. Since the Gc is below the predetermined value G 0, the field of view of the front of the vehicle traveling environment is determined to be bad, the night vision image shown in FIG. 13 is displayed. The target 9 can be recognized by the night vision image.
[0038]
The processing according to the third embodiment will be described using still another image example. In an image example in which there is no visible light irradiation in front of the vehicle as shown in FIG. 14, the brightness of the areas 10a to 10d is expressed as shown in FIG. In this case, since the Gc and Gd is below the predetermined value G 0, the field of view of the front of the vehicle traveling environment is determined to be bad, the night vision image in FIG. 13 is displayed. On the other hand, in an example of an image in which a wide range in front of the vehicle is irradiated with visible light as shown in FIG. 16, the brightness of the areas 10a to 10d is represented as shown in FIG. In this case, since all Ga~Gd is the predetermined value G 0 or more, the field of view of the front of the vehicle traveling environment is determined to be good, the night vision image is not displayed.
[0039]
FIG. 18 shows a flowchart of the process according to the third embodiment. This is a processing flow based on a program executed by the image processing circuit 3 as in the first and second embodiments. Steps S1 and S2 perform the same processing as in the first and second embodiments.
[0040]
In step S31, the grayscale gradation average value of the image for each area is calculated, and the calculated values are defined as lightness Ga to Gd respectively corresponding to the areas 10a to 10d. In the next step S32, for each Ga~Gd obtained in step S32, it determines whether less than a predetermined value G 0. All Ga~Gd advances to step S9 if not less than G 0, if even one was less than G 0 proceeds to step S10, in the same manner as in the first and second embodiments, the display monitor 4 is controlled. After step S9 or step S10, as in the first and second embodiments, the process returns to step S1, and the above-described processing is repeated.
[0041]
According to the night vision device for a vehicle according to the third embodiment described above, a part of the visible image captured by the visible camera is divided into a predetermined number of areas, the brightness of each area is detected, and the brightness in front of the vehicle is detected. The visibility of the driving environment is determined. On / off of the display of the night vision image ahead of the vehicle by the infrared light is controlled according to the determination result. As a result, in addition to the same functions and effects as the first and second embodiments, it is possible to provide more appropriate visual information according to the nighttime driving situation.
[0042]
――Fourth embodiment―
FIG. 19 shows a fourth embodiment of the vehicular night vision device according to the present invention mounted on the vehicle 100. The configuration is the same as that of the second embodiment except that an alarm device 13 and a steering control device 14 are provided. The warning device 13 notifies the driver of the departure from the lane by a signal from the image processing circuit 3 by, for example, a warning sound. When the vehicle deviates from the lane, the steering control device 14 controls the steering of the vehicle 100 under the control of the image processing circuit 3 to change the traveling direction of the vehicle 100 to return to the lane before the departure.
[0043]
FIG. 20 is a flowchart of the process according to the fourth embodiment. This is a processing flow based on a program executed by the image processing circuit 3 as in the first to third embodiments. Note that this processing and the processing shown in FIG. 9 may be performed in parallel. Steps S1 to S3 perform the same processing as in the first and second embodiments.
[0044]
In step S41, it is determined whether the vehicle 100 has crossed the white line extracted in step S3. This determination is made based on, for example, whether or not the position of the white line with respect to the entire image is within a predetermined range. If it is determined that the vehicle has deviated from the lane beyond the white line, the process proceeds to step S42. If it is determined that the vehicle does not exceed the white line, the process returns to step S1.
[0045]
In step S42, a signal is output to the alarm device 13 to activate it. In step S43, the steering control device 14 is controlled to return the traveling direction of the vehicle 100 to the lane before departure.
[0046]
In step S44, it is determined whether the vehicle 100 has returned to the original lane. This determination is made based on, for example, whether or not the position of the white line with respect to the entire image is within a predetermined range, as in step S41. If it is determined that the vehicle has returned to the original lane, the process proceeds to step S45. If it is determined that the vehicle has not returned to the original lane, the process returns to step S43. In step S45, the operation of the alarm device 13 is released. Then, the process returns to step S1.
[0047]
According to the night vision system for a vehicle according to the above-described fourth embodiment, it is determined whether or not the vehicle has passed the white line extracted from the infrared image captured by the infrared camera, and the vehicle has deviated from the lane beyond the white line. When it is determined that the vehicle is in the normal lane, the steering device of the vehicle is controlled to return to the original lane. As a result, it is possible to prevent deviation from the lane even during night driving. When it is determined that the vehicle has deviated from the lane beyond the white line, only the alarm device may be operated, or only the steering of the vehicle may be controlled.
[0048]
In the above description, the visible light and the infrared light are emitted from the headlamp 6. However, the visible light and the infrared light may be emitted from different headlamps. Alternatively, in the first and third embodiments, the irradiation of the infrared light may not be performed. In this case, a camera that detects far infrared rays, such as a thermal imager, is used as the infrared camera 2. In addition, although the boundary of the lane on the road extracted from the images captured by the visible camera 1 and the infrared camera 2 is described as a white line, the boundary is not limited to the white line. Anything, such as a yellow line or a road pavement break, can be used as long as it can be determined from the image that it is a lane boundary. Further, in the third embodiment, a part of the image captured by the visible camera 1 is divided into four areas 10a to 10d, but the number of divided areas may be changed. Further, the grayscale gradation average value for each area is calculated and used as the lightness of each area. However, a value calculated by another method may be used as the lightness.
[0049]
In the above embodiment, for example, the irradiating means is the headlamp 6, the visible image capturing means is the visible camera 1, the infrared image capturing means is the infrared camera 2, the determining means is the image processing circuit 3, the display means is the display monitor 4, The display control means is realized by the display changeover switch 5, respectively. Further, the alarm means is realized by the alarm device 13 and the steering control means is realized by the steering control device 14. However, these are merely examples, and each component is not limited to the above-described embodiment as long as the features of the present invention are not impaired.
[Brief description of the drawings]
FIG. 1 is a view showing a first embodiment of the present invention mounted on a vehicle. FIG. 2 is a view showing an image captured by a visible camera when there is no visible light irradiation from outside the vehicle in front of the vehicle. FIG. 3 is a diagram showing an example of a night-vision image displayed on a display monitor when the image example of FIG. 2 is taken. FIG. FIG. 5 shows an example of an image captured by a visible camera in the case of FIG. 4; FIG. 6 shows an example of an image captured by a visible camera in the case of FIG. 4; FIG. 7 is a diagram showing an example of an image picked up by FIG. 7. FIG. 7 is a flowchart of a process in the first embodiment. FIG. 8 is a diagram showing a second embodiment of the present invention mounted on a vehicle. FIG. 10 is a flowchart of a process according to the second embodiment. FIG. 11 is a diagram showing a case in which visible light from a road light is emitted away from the front of the vehicle. FIG. 11 is an example of an image captured by a visible camera in the case of FIG. 10 and brightness set in a part of the image. FIG. 12 is a diagram showing a determination area. FIG. 12 is a diagram schematically showing the brightness of each area of the brightness determination area in FIG. 11. FIG. 13 is displayed on a display monitor when an image example in FIG. 11 is captured. FIG. 14 is a diagram illustrating an example of a night-vision image. FIG. 14 is a diagram illustrating an example of a visible image when there is no visible light irradiation from outside the vehicle in front of the vehicle, and a brightness determination area set in a part of the image. 15 is a diagram schematically showing the brightness of each area of the brightness determination area in FIG. 14. FIG. 16 is an example of a visible image when a wide range in front of the vehicle is irradiated with visible light, and a part of the image. FIG. 17 is a diagram showing a brightness determination area set in FIG. 17; FIG. 18 is a diagram schematically showing the brightness of each area in FIG. 18; FIG. 18 is a flowchart of a process in a third embodiment; FIG. 19 is a diagram showing a fourth embodiment of the present invention mounted on a vehicle; FIG. 20 is a flowchart of a process according to the fourth embodiment.
DESCRIPTION OF SYMBOLS 1 Visible camera 2 Infrared camera 3 Image processing circuit 4 Display monitor 5 Display changeover switch 6 Headlamp 7 Road light 10 Brightness judgment area 13 Warning device 14 Steering control devices 21 and 22 White line 23 showing the boundary of lane 23 Assumed point 100 vehicle

Claims (8)

可視光を車両前方に照射する照射手段と、
車両前方の赤外画像を撮像し、少なくとも前記照射手段による照射範囲よりも遠方の範囲を撮像範囲に含む赤外画像撮像手段と、
前記撮像された赤外画像を表示する表示手段と、
車両前方の可視画像を撮像する可視画像撮像手段と、
車両前方における走行環境の明るさに基づく視界の良否を判定する判定手段と、
前記判定手段により視界が悪いと判定された場合は、前記赤外画像を前記表示手段に表示し、視界が良いと判定された場合は、前記赤外画像を前記表示手段に表示しない表示制御手段とを備えることを特徴とする車両用暗視装置。
Irradiating means for irradiating visible light to the front of the vehicle,
An infrared image capturing unit that captures an infrared image in front of the vehicle and includes a range farther than the irradiation range of at least the irradiation unit in the imaging range,
Display means for displaying the captured infrared image,
A visible image capturing means for capturing a visible image in front of the vehicle,
Determining means for determining whether the visibility is good or bad based on the brightness of the traveling environment in front of the vehicle;
A display control unit that displays the infrared image on the display unit when the visibility is determined to be poor by the determination unit and does not display the infrared image on the display unit when the visibility is determined to be good And a night vision device for a vehicle.
請求項1の車両用暗視装置において、
前記判定手段は、前記撮像された可視画像から、車両が位置する車線の両側の境界線を抽出し、
前記抽出された境界線の第1の長さを算出し、
前記抽出された境界線をそれぞれ延長したときの交点を前記車線の消失点と仮定し、
前記抽出された境界線を前記消失点まで延長したときの第2の長さと、前記第2の長さに対する前記第1の長さの割合を算出し、
前記割合が所定値未満である場合は視界が悪いと判定し、前記割合が所定値以上である場合は視界が良いと判定することを特徴とする車両用暗視装置。
The night vision device for a vehicle according to claim 1,
The determination unit extracts, from the captured visible image, boundaries on both sides of a lane in which the vehicle is located,
Calculating a first length of the extracted boundary line;
Assuming the intersection point when the extracted boundary line is extended as the vanishing point of the lane,
Calculating a second length when the extracted boundary line is extended to the vanishing point, and a ratio of the first length to the second length;
A night vision apparatus for a vehicle, wherein the visibility is determined to be poor when the ratio is less than a predetermined value, and the visibility is determined to be good when the ratio is equal to or more than a predetermined value.
請求項1の車両用暗視装置において、
前記判定手段は、前記撮像された可視画像および赤外画像から、車両が位置する車線の両側の境界線をそれぞれ抽出し、
前記可視画像から抽出された境界線の第1の長さと、前記赤外画像から抽出された境界線の第3の長さと、前記第3の長さに対する前記第1の長さの割合を算出し、
前記割合が所定値未満である場合は視界が悪いと判定し、前記割合が所定値以上である場合は視界が良いと判定することを特徴とする車両用暗視装置。
The night vision device for a vehicle according to claim 1,
The determination unit extracts, from the captured visible image and the infrared image, boundary lines on both sides of the lane where the vehicle is located,
Calculate a first length of the boundary line extracted from the visible image, a third length of the boundary line extracted from the infrared image, and a ratio of the first length to the third length. And
A night vision apparatus for a vehicle, wherein the visibility is determined to be poor when the ratio is less than a predetermined value, and the visibility is determined to be good when the ratio is equal to or more than a predetermined value.
請求項1〜3のいずれかの車両用暗視装置において、
前記判定手段は、前記撮像された可視画像の一部を、車両前方の遠方に向かう方向を分割方向とする所定数のエリアに分割し、
前記エリアごとの明度を検出し、
前記明度のうち少なくとも一つが所定値未満である場合は視界が悪いと判定し、前記明度の全てが所定値以上である場合は視界が良いと判定することを特徴とする車両用暗視装置。
The night vision device for a vehicle according to any one of claims 1 to 3,
The determining means divides a part of the captured visible image into a predetermined number of areas having a direction toward a distant front of the vehicle as a dividing direction,
Detecting the brightness of each area,
A night vision device for a vehicle, wherein the visibility is determined to be poor when at least one of the brightnesses is less than a predetermined value, and the visibility is determined to be good when all of the brightnesses are equal to or more than a predetermined value.
請求項2または3の車両用暗視装置において、
前記判定手段は、前記抽出された境界線のいずれかを車両が越えたとき、車線を逸脱したと判定することを特徴とする車両用暗視装置。
The night vision device for a vehicle according to claim 2 or 3,
The night vision device for a vehicle, wherein the determination means determines that the vehicle has deviated from the lane when the vehicle crosses any of the extracted boundary lines.
請求項5の車両用暗視装置と、
前記車線を逸脱したと前記判定手段が判定したとき、そのことを報知する報知手段とを有することを特徴とする車線逸脱警報装置。
A night vision device for a vehicle according to claim 5,
When the determining means determines that the vehicle has deviated from the lane, there is provided a notifying means for notifying the user of the determination.
請求項5の車両用暗視装置と、
前記車線を逸脱したと前記判定手段が判定したとき、逸脱前の車線に戻るよう、車両の進行方向を制御するステアリング制御手段をさらに有することを特徴とする車線復帰装置。
A night vision device for a vehicle according to claim 5,
The lane return device further comprising a steering control unit that controls a traveling direction of the vehicle so as to return to the lane before departure when the determination unit determines that the vehicle deviates from the lane.
請求項6の車線逸脱警報装置と、
前記車線を逸脱したと前記判定手段が判定したとき、逸脱前の車線に戻るよう、車両の進行方向を制御するステアリング制御手段をさらに有することを特徴とする車線復帰装置。
A lane departure warning device according to claim 6,
The lane return device further comprising a steering control unit that controls a traveling direction of the vehicle so as to return to the lane before departure when the determination unit determines that the vehicle deviates from the lane.
JP2002335004A 2002-11-19 2002-11-19 Night vision device for vehicle Pending JP2004172828A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002335004A JP2004172828A (en) 2002-11-19 2002-11-19 Night vision device for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002335004A JP2004172828A (en) 2002-11-19 2002-11-19 Night vision device for vehicle

Publications (1)

Publication Number Publication Date
JP2004172828A true JP2004172828A (en) 2004-06-17

Family

ID=32699240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002335004A Pending JP2004172828A (en) 2002-11-19 2002-11-19 Night vision device for vehicle

Country Status (1)

Country Link
JP (1) JP2004172828A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2406732A (en) * 2003-10-02 2005-04-06 Daimler Chrysler Ag Controlling switching of display of vehicle surroundings
JP2006217447A (en) * 2005-02-07 2006-08-17 Yazaki Corp Vehicle display apparatus
JP2008033872A (en) * 2006-07-04 2008-02-14 Denso Corp Visibility condition determining device for vehicle
JP2010187413A (en) * 2010-05-21 2010-08-26 Yazaki Corp Vehicle display apparatus
JP2010188970A (en) * 2009-02-20 2010-09-02 Honda Motor Co Ltd Periphery monitoring device for vehicle
JP2011033574A (en) * 2009-08-05 2011-02-17 Mitsubishi Electric Corp Navigation system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2406732A (en) * 2003-10-02 2005-04-06 Daimler Chrysler Ag Controlling switching of display of vehicle surroundings
FR2860464A1 (en) * 2003-10-02 2005-04-08 Daimler Chrysler Ag DEVICE FOR IMPROVING VISION CONDITIONS IN A VEHICLE
GB2406732B (en) * 2003-10-02 2005-11-30 Daimler Chrysler Ag Device for improving the visibility conditions in a motor vehicle
JP2006217447A (en) * 2005-02-07 2006-08-17 Yazaki Corp Vehicle display apparatus
JP2008033872A (en) * 2006-07-04 2008-02-14 Denso Corp Visibility condition determining device for vehicle
JP4730267B2 (en) * 2006-07-04 2011-07-20 株式会社デンソー Visibility state determination device for vehicle
JP2010188970A (en) * 2009-02-20 2010-09-02 Honda Motor Co Ltd Periphery monitoring device for vehicle
JP2011033574A (en) * 2009-08-05 2011-02-17 Mitsubishi Electric Corp Navigation system
JP2010187413A (en) * 2010-05-21 2010-08-26 Yazaki Corp Vehicle display apparatus

Similar Documents

Publication Publication Date Title
US10504214B2 (en) System and method for image presentation by a vehicle driver assist module
US10257432B2 (en) Method for enhancing vehicle camera image quality
US9123179B2 (en) Surrounding image display system and surrounding image display method for vehicle
JP4512595B2 (en) Method and apparatus for visualizing the periphery of a vehicle
JP6272375B2 (en) Display control device for vehicle
US8405491B2 (en) Detection system for assisting a driver when driving a vehicle using a plurality of image capturing devices
JP3817174B2 (en) Vehicle image correction device and night driving visibility support device
JP5299026B2 (en) Vehicle display device
US20060158715A1 (en) Variable transmissivity window system
JP5853947B2 (en) Night vision device
JP2003200755A (en) Displaying device for vehicle
JP5171723B2 (en) Obstacle detection device and vehicle equipped with the device
JP2008135856A (en) Body recognizing device
US20120154590A1 (en) Vehicle surrounding monitor apparatus
JP2007288657A (en) Display apparatus for vehicle, and display method of the display apparatus for vehicle
CN111032413A (en) Method for operating a screen of a motor vehicle and motor vehicle
JP2001076298A (en) On-vehicle display device
JP2016196233A (en) Road sign recognizing device for vehicle
CN113490316A (en) Light filling system and light filling lamp
JP2008306546A (en) Vehicle-periphery monitoring system
JP4731177B2 (en) Infrared imaging display device and infrared imaging display method for vehicle
JP2006341713A (en) System and method for changing irradiation direction of head lamp
JP2004172828A (en) Night vision device for vehicle
JP2004254044A (en) Driving supporting method, display system and notification system
JP2007089094A (en) Pedestrian detection device