JP3968867B2 - Display processing device - Google Patents

Display processing device Download PDF

Info

Publication number
JP3968867B2
JP3968867B2 JP11557298A JP11557298A JP3968867B2 JP 3968867 B2 JP3968867 B2 JP 3968867B2 JP 11557298 A JP11557298 A JP 11557298A JP 11557298 A JP11557298 A JP 11557298A JP 3968867 B2 JP3968867 B2 JP 3968867B2
Authority
JP
Japan
Prior art keywords
image
display processing
pedestrian
landscape image
landscape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP11557298A
Other languages
Japanese (ja)
Other versions
JPH11308609A (en
Inventor
朗 白鳥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP11557298A priority Critical patent/JP3968867B2/en
Publication of JPH11308609A publication Critical patent/JPH11308609A/en
Application granted granted Critical
Publication of JP3968867B2 publication Critical patent/JP3968867B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、車外風景を肉眼で視認することに支障を来す状況でドライバの視覚を補助する機能を備えた表示処理装置に関する。
【0002】
【従来の技術】
ドライバにとって車外からの視覚情報は運転操作上きわめて重要である。しかしながら、夜間の低照度環境や対向車のライトのような強力な光源の存在によって眩惑されるような環境で運転しなければならない場合も多い。このような肉眼での視認性が悪い環境では注意深いドライバにとっても自車に接近する歩行者などの対象物の発見が遅れがちである。
【0003】
このようなドライバ側の生理学的な問題をカバーするための技術として、例えば、特開平5−137030号公報には、照明の届かない低照度環境の風景を、赤外線を検出して結像させる走査部を用いて表示部に映し出す装置(従来例1)が開示されている。また特開平6−270751号公報には、対向車のヘッドライトなどによる眩惑領域内に歩行者などの対象物が存在すると警報を発する装置(従来例2)が開示されている。さらに、特開平8−263784号公報には、赤外線カメラなどの温度検出手段で検出した車両前方の温度分布をビデオカメラなどの撮像手段による画像に合成する装置(従来例3)が開示されている。
【0004】
【発明が解決しようとする課題】
ところが、これらの従来のドライバの視覚を補助するための表示処理装置では、次のような問題点があった。
【0005】
上記の従来例1及び従来例3の装置では、歩行者などの対象物の近傍だけでなく、表示手段上の全面に赤外線画像を単独であるいは合成して表示する。一方、歩行者などの対象物を明確に判別するためには、ある程度高解像度の検出手段と表示手段が必要となる。しかるに、従来例1及び従来例3の装置では、表示手段に表示される赤外線画像には建物や植込み、空や雲まで映し出されることになるため、そのような高解像度の画像をドライバに表示する場合、次のような問題点があった。
【0006】
◇ドライバにとって、複雑な視覚情報を運転中に一瞥して把握することは困難である。
【0007】
◇肉眼による低視界の風景と映し出されている鮮明な画像との差異が大きすぎ、表示画面内の対象物の存在位置を、実視野内で照合することが困難である。
【0008】
◇表示手段に動画像で表示する場合、ドライバが無意識に画面に見入るために車両周囲にまんべんなく気を配ることが疎かになりやすい。
【0009】
また従来例2の装置では、装置側の眩惑領域の設定に周囲照度やドライバの個人差を考慮していないために、実際にはドライバが眩惑を起こしていないのに警報が発せられ、煩わしさを感じさせる問題点があった。
【0010】
さらに、従来例1に開示されている装置の応用として、眩惑時に前方の風景を赤外線カメラで撮影して表示手段に表示させる装置が考えられる。しかしながら、対向車のヘッドライトのような強力な光源の存在で眩惑されると、自車のヘッドライトの照射範囲に存在していて本来ならば視認できる近距離の対象物がドライバにとって見えない状態となり、ドライバにとって表示手段に表示されている対象物を肉眼では視認できない理由を瞬時に理解することができず、眩惑が解消したときには対象物が自車の直近まで接近していて慌てることになる事態が起こり得る問題点がある。
【0011】
本発明はこのような従来の問題点を解決するためになされたものであり、車外風景を肉眼で視認することに支障を来す状況でドライバの視覚を確実に補助して、ドライバに複雑な視覚情報を運転中に一瞥して把握させることができる表示処理装置を提供することを目的とする。
【0012】
本発明はまた、ドライバの生理学的な個性に応じてその視覚補助作用を調整できる表示処理装置を提供することを目的とする。
【0016】
【課題を解決するための手段】
請求項の発明の表示処理装置は、可視光による第1の風景画像を得る第1の撮影手段と、前記可視光以外の光線又は電磁波による第2の風景画像を得る第2の撮影手段と、ドライバにとって視認困難な視界部位に該当する前記第1の風景画像上の部位を合成領域として決定する領域決定手段と、前記第2の風景画像から前記合成領域に該当する部位を切出し、前記第1の風景画像の対応する部位に合成して合成画像を得る画像合成手段と、前記合成画像を表示する表示手段とを備えたものである。
【0017】
請求項の発明の表示処理装置では、第1の撮影手段が可視光による第1の風景画像を得、第2の撮影手段が可視光以外の光線又は電磁波による第2の風景画像を得、領域決定手段がドライバにとって視認困難な視界部位に該当する第1の風景画像上の部位を合成領域として決定する。これを受けて、画像合成手段が第2の風景画像から合成領域に該当する部位を切出して第1の風景画像の対応する部位に合成して合成画像を得、表示手段に表示させる。
【0018】
これによって、表示手段にはドライバにとって視認できる部分は通常の可視光による風景を表示し、かつ肉眼では視認困難な視界部位には可視光以外の光線又は電磁波による風景を合成して表示することができ、ドライバにとって表示手段の表示画像を一瞥して前方風景の全体を把握できるようになる。
【0019】
請求項の発明は、請求項の表示処理装置において、前記領域決定手段が、高輝度の光源により眩惑を起こす視界部位を前記ドライバにとって視認困難な視界部位と決定するようにしたものであり、対向車のヘッドライトのような高輝度の光源によって眩惑され、ドライバの肉眼では見にくいあるいは見えないような対象物を表示手段に表示されている合成画像上で容易に発見できるようになる。
【0020】
請求項の発明は、請求項の表示処理装置において、前記領域決定手段が、低照度環境で対象物の写っている視界部位を前記ドライバにとって視認困難な視界部位と決定するようにしたものであり、照明灯に映し出されないような低照度の領域に存在しているためにドライバの肉眼では見にくいあるいは見えないような対象物を表示手段に表示されている合成画像上で容易に発見できるようになる。
【0021】
請求項の発明の表示処理装置は、可視光による第1の風景画像を得る第1の撮影手段と、前記可視光以外の光線又は電磁波による第2の風景画像を得る第2の撮影手段と、前記第1の風景画像上の所定の輝度閾値を上回る部位を合成領域として決定する領域決定手段と、前記第2の風景画像から前記合成領域に該当する部位を切出し、前記第1の風景画像の対応する部位に合成して合成画像を得る画像合成手段と、前記合成画像を表示する表示手段とを備えたものである。
【0022】
請求項の発明の表示処理装置では、第1の撮影手段が可視光による第1の風景画像を得、第2の撮影手段が可視光以外の光線又は電磁波による第2の風景画像を得、領域決定手段が第1の風景画像上の所定の輝度閾値を上回る部位を合成領域として決定する。これを受けて、画像合成手段が第2の風景画像から合成領域に該当する部位を切出して第1の風景画像の対応する部位に合成して合成画像を得、表示手段に表示させる。
【0023】
これによって、高輝度の光源により眩惑を起こす視界部位が合成領域となるように輝度閾値を設定すれば、対向車のヘッドライトのような高輝度の光源によって眩惑され、ドライバの肉眼では見にくいあるいは見えないような対象物を表示手段に表示されている合成画像上で容易に発見できるようになる。
【0024】
請求項の発明は、請求項の表示処理装置において、前記領域決定手段が、前記第1の風景画像上の前記所定の輝度閾値を上回る部位に対して、縦横に所定率だけ拡大した領域を合成領域として決定するようにしたものであり、対向車のヘッドライトのような高輝度の光源の見かけの大きさで決まる不快グレア領域とその周囲に位置して光源からの光がドライバの眼球内で散乱するために眩しさを感じる減能グレア領域を合成領域として第2の風景画像から切出して第1の風景画像の該当する部位に合成することができ、対向車のヘッドライトのような高輝度の光源によって眩惑され、ドライバの肉眼では見にくいあるいは見えないような対象物を表示手段に表示されている合成画像上で容易に発見できるようになる。
【0025】
請求項の発明は、請求項又はの表示処理装置において、さらに、前記表示手段の画面輝度を可変設定する画面輝度設定手段と、前記領域決定手段の用いる前記所定の輝度閾値を、前記画面輝度設定手段の設定した画面輝度に対応して可変設定する輝度閾値設定手段とを備えたものである。
【0026】
請求項の発明は、請求項の表示処理装置において、前記輝度閾値設定手段は、前記画面輝度設定手段が前記画面輝度を小さく設定するときには、前記輝度閾値を低く設定するようにしたものである。
【0027】
請求項及びの発明の表示処理装置では、ドライバの眩惑を感じる個人差に対応した画像合成が可能となる。
【0028】
請求項の発明は、請求項の表示処理装置において、さらに、前記表示手段の画面輝度を可変設定する画面輝度設定手段と、前記領域決定手段が用いる前記縦横の領域拡大率を、前記画面輝度設定手段の設定した画面輝度に対応して可変設定する拡大率設定手段とを備えたものである。
【0029】
請求項の発明は、請求項の表示処理装置において、前記拡大率設定手段は、前記画面輝度設定手段が前記画面輝度を小さく設定するときには、前記領域拡大率を大きく設定するようにしたものである。
【0030】
請求項及びの発明の表示処理装置では、不快グレア領域と減能グレア領域を含め、ドライバの眩惑を感じる個人差に対応した画像合成が可能となる。
【0031】
請求項10の発明は、請求項又はの表示処理装置において、さらに、前記領域決定手段の用いる前記所定の輝度閾値を、当該車両の照明灯の点/消灯状態に応じて可変設定する輝度閾値設定手段を備えたものである。
【0032】
請求項1の発明は、請求項1の表示処理装置において、前記輝度閾値設定手段は、当該車両のヘッドライト点灯時の方が消灯時よりも前記輝度閾値を低く設定するようにしたものである。
【0033】
請求項1及び1の発明の表示処理装置では、照明灯の照射による風景の明るさに対応した画像合成が可能となる。
【0034】
請求項1の発明は、請求項の表示処理装置において、さらに、前記領域決定手段が用いる前記縦横の領域拡大率を、当該車両の照明灯の点/消灯状態に応じて可変設定する拡大率設定手段を備えたものである。
【0035】
請求項1の発明は、請求項1の表示処理装置において、前記拡大率設定手段は、当該車両のヘッドライト点灯時の方が消灯時よりも前記領域拡大率を大きく設定するようにしたものである。
【0036】
請求項1及び1の発明の表示処理装置では、不快グレア領域と減能グレア領域を含め、照明灯の照射による風景の明るさに対応した画像合成が可能となる。
【0037】
請求項1の発明の表示処理装置は、可視光による第1の風景画像を得る第1の撮影手段と、前記可視光以外の光線又は電磁波による第2の風景画像を得る第2の撮影手段と、前記第2の風景画像上で歩行者の存在位置を判別する目標物判別手段と、前記第2の風景画像上で前記歩行者の存在位置を含む部位を切出し、前記第1の風景画像の対応する部位に合成して合成画像を得る画像合成手段と、前記合成画像を表示する表示手段とを備えたものである。
【0038】
請求項1の発明の表示処理装置では、第1の撮影手段が可視光による第1の風景画像を得、第2の撮影手段が可視光以外の光線又は電磁波による第2の風景画像を得、目標物判別手段が第2の風景画像上で歩行者の存在位置を判別する。これを受けて、画像合成手段が第2の風景画像上で歩行者の存在位置を含む部位を切出して第1の風景画像の対応する部位に合成して合成画像を得、表示手段に表示させる。
【0039】
これによって、対向車のヘッドライトのような高輝度の光源によって眩惑され、あるいは低照度環境のためにドライバの肉眼では見にくいあるいは見えない位置に存在する歩行者を表示手段に表示されている合成画像上で容易に発見できるようになる。
【0040】
請求項1の発明は、請求項1の表示処理装置において、前記画像合成手段が前記歩行者の存在位置を含む部位として、前記歩行者の身体を包含するのと同程度の領域を切出すようにしたものである。
【0041】
請求項1の発明は、請求項1の表示処理装置において、前記画像合成手段は、前記歩行者の存在位置を含む部位として、前記歩行者までの距離が遠方になるほど、前記領域の大きさを小さく切出すようにしたものである。
【0042】
請求項1の発明は、請求項1の表示処理装置において、前記画像合成手段は、前記前記歩行者の存在位置を含む部位として、画面上縦方向の歩行者の存在位置、前記第2の撮影手段の設置高、撮影方向の俯角、歩行者の身長から前記領域の大きさを決定して切り出すようにしたものである。
【0043】
請求項1〜1の発明の表示処理装置では、歩行者が近ければ切出し領域が大きく、歩行者が遠ければ切出し領域が小さくなり、歩行者より離れている部位の可視光による目標物を不用意に塗りつぶすことがなく、実視野と表示手段の表示画面上との位置関係の照合がドライバにとって理解しやすくなる。
【0044】
請求項1の発明は、請求項1〜1の表示処理装置において、前記画像合成手段が、前記第2の風景画像上の前記歩行者の存在位置を含む部位を切出して白黒反転させ、前記第1の風景画像の対応する部位に合成して合成画像を得るようにしたものであり、表示手段の合成画像上での歩行者の画像と周囲の画像とのコントラストが小さくなってドライバにとって見やすくなる。
【0045】
請求項19の発明は、請求項1〜1の表示処理装置において、前記第2の撮影手段を赤外線撮影手段としたものであり、赤外線撮影によって可視光撮影では捉えられない領域の映像を確実に撮影して第2の風景画像を得ることができ、表示手段にはドライバにとって視認できる部分は通常の可視光による画像を表示し、かつ肉眼では視認困難な視界部位あるいは対象物の存在する部位には赤外線による画像を合成して表示することができ、ドライバにとって表示手段の表示画像を一瞥して前方風景の全体を把握し、あるいは対象物の発見ができるようになる。
【0047】
【発明の効果】
請求項の発明によれば、可視光以外の光線又は電磁波による第2の風景画像からドライバにとって視認困難な視界部位に該当する部位を切出して第1の風景画像の対応する部位に合成し、合成画像にして表示するので、表示手段に対してドライバにとって視認できる部分は通常の可視光による風景を表示し、かつ肉眼では視認困難な視界部位には可視光以外の光線又は電磁波による風景を合成して表示させることができ、ドライバにとって表示手段の表示画像を一瞥して前方風景の全体が把握できるようになる。
【0048】
請求項の発明によれば、高輝度の光源により眩惑を起こす視界部位をドライバにとって視認困難な視界部位と決定し、第2の風景画像から該当する部位を切出して第1の風景画像の対応する部位に合成し、合成画像にして表示するので、対向車のヘッドライトのような高輝度の光源によって眩惑され、ドライバの肉眼では見にくいあるいは見えないような対象物を表示手段に表示されている合成画像上で容易に発見できるようになる。
【0049】
請求項の発明によれば、低照度環境で対象物の写っている視界部位をドライバにとって視認困難な視界部位と決定し、第2の風景画像から該当する部位を切出して第1の風景画像の対応する部位に合成し、合成画像にして表示するので、照明灯に映し出されないような低照度の領域に存在しているためにドライバの肉眼では見にくいあるいは見えないような対象物を表示手段に表示されている合成画像上で容易に発見できるようになる。
【0050】
請求項の発明によれば、可視光による第1の風景画像上の所定の輝度閾値を上回る部位を合成領域として、可視光以外による第2の風景画像からこの合成領域に該当する部位を切出して第1の風景画像の対応する部位に合成し、合成画像を表示するので、高輝度の光源により眩惑を起こす視界部位が合成領域となるように輝度閾値を設定すれば、対向車のヘッドライトのような高輝度の光源によって眩惑され、ドライバの肉眼では見にくいあるいは見えないような対象物を表示手段に表示されている合成画像上で容易に発見できるようになる。
【0051】
請求項の発明によれば、対向車のヘッドライトのような高輝度の光源の見かけの大きさで決まる不快グレア領域とその周囲に位置して光源からの光がドライバの眼球内で散乱するために眩しさを感じる減能グレア領域を合成領域として可視光以外による第2の風景画像から切出し、可視光による第1の風景画像の該当する部位に合成することができ、対向車のヘッドライトのような高輝度の光源によって眩惑され、ドライバの肉眼では見にくいあるいは見えないような対象物を表示手段に表示されている合成画像上で容易に発見できるようになる。
【0052】
請求項及びの発明によれば、可視光以外による第2の風景画像から合成領域を切り出すための輝度閾値を、表示手段の画面輝度の設定に応じて可変設定するので、ドライバの眩惑を感じる個人差に対応した画像合成が可能となる。
【0053】
請求項及びの発明によれば、対向車のヘッドライトのような高輝度の光源の見かけの大きさで決まる不快グレア領域とその周囲に位置して光源からの光がドライバの眼球内で散乱するために眩しさを感じる減能グレア領域を合成領域とし、この合成領域を切出すための輝度閾値を、表示手段の画面輝度の設定に応じて可変設定するので、ドライバの眩惑を感じる個人差に対応した画像合成が可能である。
【0054】
請求項1及び1の発明によれば、可視光以外による第2の風景画像から合成領域を切出すための輝度閾値を、照明灯の点/消灯状態に応じて可変設定するので、照明灯の照射による風景の明るさに対応した画像合成が可能である。
【0055】
請求項1及び1の発明によれば、対向車のヘッドライトのような高輝度の光源の見かけの大きさで決まる不快グレア領域とその周囲に位置して光源からの光がドライバの眼球内で散乱するために眩しさを感じる減能グレア領域を合成領域とし、この合成領域を切出すための輝度閾値を、照明灯の点/消灯状態に応じて可変設定するので、照明灯の照射による風景の明るさに対応した画像合成が可能である。
【0056】
請求項1の発明によれば、可視光以外の光線又は電磁波による第2の風景画像上で歩行者の存在位置を判別し、この第2の風景画像上で歩行者の存在位置を含む部位を切出して可視光による第1の風景画像の対応する部位に合成し、合成画像を表示するので、対向車のヘッドライトのような高輝度の光源によって眩惑され、あるいは低照度環境のためにドライバの肉眼では見にくいあるいは見えない位置に存在する歩行者を表示手段に表示されている合成画像上で容易に発見できるようになる。
【0057】
請求項1〜1の発明によれば、画像合成手段が歩行者の存在位置を含む部位として歩行者の身体を包含するのと同程度の領域を切出すようにしたので、歩行者が近ければ切出し領域が大きく、歩行者が遠ければ切出し領域が小さくなり、歩行者より離れている部位の可視光による目標物を不用意に塗りつぶすことがなく、実視野と表示手段の表示画面上との位置関係の照合がドライバにとって理解しやすくなる。
【0058】
請求項1の発明によれば、第2の風景画像上の歩行者の存在位置を含む部位を切出して白黒反転させ、第1の風景画像の対応する部位に合成し、合成画像を表示するので、表示手段の合成画像上での歩行者の画像と周囲の画像とのコントラストが小さくなってドライバにとって見やすくなる。
【0059】
請求項19の発明によれば、可視光以外による第2の風景画像を得るための第2の撮影手段として赤外線撮影手段を用いたので、特に実視野では見にくかったり見えなかったりする歩行者を確実に捉えて表示することができる。
【0060】
【発明の実施の形態】
以下、本発明の実施の形態を図に基づいて詳説する。図1は本発明の第1の実施の形態の表示処理装置の機能構成を示している。この実施の形態の表示処理装置は、通常の可視光による第1の風景画像を得るための第1の撮影手段として、CCDカメラのような通常の可視光カメラ1、この可視光カメラ1の撮影した第1の風景画像を記憶しておく可視光画像フレームメモリ2、可視光以外の光線又は電磁波による第2の風景画像を撮影するための第2の撮影手段としての赤外線カメラ3、この赤外線カメラ3の撮影した第2の風景画像を記憶しておく赤外線画像フレームメモリ4を備えている。可視光以外による第2の風景画像を得る第2の撮影手段には、赤外線カメラの他に、例えば、電波レーダ、超音波レーダなどを採用することもできる。可視光カメラ1の視野は赤外線カメラ3の視野を包含する設定が好ましく、また画角、画素数を統一することによって後の画像合成処理が単純化され、高速処理化が可能となる。なお、これらは以下の他の実施の形態すべてにも同じく適用できるものである。
【0061】
この実施の形態の表示処理装置はさらに、可視光画像フレームメモリ2に記憶されている可視光による第1の風景画像と赤外線画像フレームメモリ4に記憶されている可視光以外の赤外線による第2の風景画像とに対して後述する所定の画像合成処理を行うCPU5、このCPU5の合成処理画像を記憶する重畳画像フレームメモリ6、この重畳画像フレームメモリ6に記憶されている合成画像を表示する液晶やCRTのような画像表示手段としての表示モニタ7、この表示モニタ7に対して画面輝度を設定するためのモニタ輝度設定スイッチ8を備えている。このモニタ輝度設定スイッチ8はドライバが表示モニタ7の画面輝度を見て自分に合った輝度に可変設定するためのものであり、その輝度設定信号は表示モニタ7と共にCPU5にも入力する構成である。
【0062】
次に、上記構成の表示処理装置の動作を説明する。図2のフローチャートに示すように、この表示処理装置の電源投入でスタートすれば、可視光カメラ1、赤外線カメラ3、表示モニタ7は起動する。そして可視光カメラ1は設定された視野、画角の可視光による第1の風景画像を撮影して可視光画像フレームメモリ2に1フレームずつ順次記憶していく。同時に、赤外線カメラ3も設定された視野、画角の赤外線による第2の風景画像を撮影して赤外線画像フレームメモリ4に1フレームずつ順次記憶していく。
【0063】
そしてCPU5はドライバが表示モニタ7の画面輝度を見ながら調整したモニタ輝度設定値をモニタ輝度設定スイッチ8から読取る(ステップS1)。そして赤外線画像フレームメモリ4から赤外線による第2の風景画像(図4(d)の画像)を取込み(ステップS2)、可視光画像フレームメモリ2から可視光による第1の風景画像(図4(a)の画像)を取込む(ステップS3)。
【0064】
続いて、可視光による第1の風景画像を輝度に対する所定の閾値をもって2値化し、図4(b)に示す2値化画像を得る(ステップS4)。ここで用いる閾値は、モニタ輝度設定スイッチ8から得たモニタ輝度設定値に基づいて調整する。例えば、昼間に用いられる輝度では、対向車のヘッドライトのような強力な光源の輪郭部分が検出される程度の輝度とし、夜間に用いられる輝度では、対向車のヘッドライトのような強力な光源の周囲以外の間接反射光がカットされる程度の輝度とする。
【0065】
次には図4(c)に示すように、輝度に対する所定の閾値Bをもって2値化した第1の風景画像の高輝度領域20を拡大処理して重畳領域21を決定する(ステップS5)。ここでは、拡大率は閾値に応じて異なったものを用い、昼間の時間帯での輝度閾値Bdayによる高輝度領域に対し、夜間の時間帯での輝度閾値Bnightによる高輝度領域を縦横共に2倍の大きさに拡大する設定にしている。つまり、輝度閾値をB、拡大率をKとすると、次の1次式に基づいて拡大率Kを得る。
【0066】
K=Kday・(3−(B/Bnight))
ただし、Knight/Kday=2; Bnight/Bday=1/2である。また、輝度閾値B、拡大率Kとして、昼間であればBday,Kdayを用い、夜間であればBnight,Knightを用いる。
【0067】
さらに、表示モニタ7の画面輝度の設定は昼間は周囲が明るいために高くし、夜間は周囲が暗いので低くされる(これは照明灯の点灯/消灯に連動して自動的に切替わる設定になっているのが通常である)ので、画面設定輝度が高い場合には昼間と判断し、画面設定輝度が低い場合には夜間と判断して、上記のB,Kを切替え設定する。
【0068】
この高輝度領域の拡大処理の詳細は図3のフローチャートに示すとおりである。この処理に入ると、所定の閾値Bによる2値化画像の各画素行mに対して、ステップS12〜S14の処理を最大画素行Rまで繰返す(ステップS11〜S15)。またこの処理の後、所定の閾値Bによる2値化画像の各画素列nに対しても、ステップS17〜S19の処理を最大画素列Cまで繰返す(ステップS16〜S110)。
【0069】
さてステップS12では、図6(a)に示すように1〜Rのうちのm番目の画素行の2値化データを読込み、閾値Bを超えている画素(つまり、高輝度画素)の始端Pmstart・終端Pmendを調査する(ステップS12,S13)。続いて図6(b)に示すように画素行mの高輝度画素領域Pmstart〜Pmendを横方向に拡大率Kだけ拡大して拡大領域P'mstart〜P'mendを得る(ステップS14)。そしてこの処理を画素行1〜Rそれぞれに対して繰返す(ステップS11〜S15)。
【0070】
ここで、

Figure 0003968867
である。
【0071】
横方向の拡大処理を終えると、次に、ステップS16〜S110の縦方向の拡大処理に入る。ここでは、図6(b)に示すように1〜Cのうちのn番目の画素列の中の高輝度領域の始端Qnstart・終端Qnendを調査し(ステップS17,S18)、同図(c)に示すように画素列nの高輝度領域Qnstart〜Qnendを縦方向に拡大率Kだけ拡大して拡大領域Q'nstart〜Q'nendを得る(ステップS19)。そしてこの処理を画素列1〜Cそれぞれに対して繰返す(ステップS16〜S110)。
【0072】
ここで、
Figure 0003968867
である。
【0073】
これによって、図2のフローチャートにおけるステップS5の拡大処理を行い、可視光による第1の風景画像における図4(b)に示した高輝度領域20を拡大して同図(c)に示した重畳領域21に決定することになる。
【0074】
次に図4(d)に示すように、この高輝度拡大領域に対応する領域を赤外線による第2の風景画像上から重畳領域22として切出して、図4(a)に示した2値化前の可視光による第1の風景画像の同じ領域上に重畳合成し、重畳画像フレームメモリ6に保存し(ステップS6)、これを表示モニタ7に表示させる(ステップS7)。図5は表示モニタ7の表示された重畳合成画像を示している。なお、この重畳合成処理では、赤外線画像の切出した重畳領域は不透明にして、背面になる第1の風景画像が透けて見えないようにしている。
【0075】
この実施の形態では、可視光カメラ1も赤外線カメラ3も動画撮影カメラであり、第1、第2の風景画像は動画像であるので、以上のステップS2〜S7の処理を画像フレームごとに繰返すことによって表示モニタ7に重畳合成画像を動画像として表示させる。
【0076】
こうして、第1の実施の形態の表示処理装置では、所定の閾値Bによって2値化した可視光による第1の風景画像から対向車のヘッドライトのような高輝度の光源の見かけの大きさで決まる不快グレア領域を高輝度領域20と決定し、さらに所定の拡大率Kを掛けることによってこの高輝度領域20の周囲に位置して光源からの光がドライバの眼球内で散乱するために眩しさを感じる減能グレア領域まで重畳合成領域を拡大し、この重畳合成領域21に対応する領域22を第2の風景画像から切出して2値化前の可視光による第1の風景画像の該当する部位に合成することにより、対向車のヘッドライトのような高輝度の光源によって眩惑され、ドライバの肉眼では見にくいあるいは見えないような対象物を表示手段に表示されている合成画像上で容易に発見できるようになる。これによって、特に対向車のヘッドライトに入ってしまって歩行者がドライバの視野から消滅する現象が発生するような場合にもその歩行者の存在を表示モニタ7で一瞥して認識できるようになる。
【0077】
また表示モニタ7の輝度設定に応じて所定の輝度閾値Bを可変設定するようにしたので、ドライバの眩しさを感じる個人差に合わせて重畳領域を調整することができ、ドライバが自ら感じる眩惑範囲と表示モニタ7上での表示範囲との相違による違和感を低減することができる。
【0078】
なお、上記の実施の形態における高輝度領域の決定のための輝度閾値の設定は特に限定されるわけではなく、実験を繰返すことによってふさわしい値に設定することができる。また輝度閾値を可変とせず、特に本発明の表示処理装置の使用が必要となる状況、夜間のような低照度環境で使用するのにふさわしい値に固定することもできる。そしてその場合には図1において示したモニタ輝度設定スイッチ8は不要となり、構成が単純になる。また輝度閾値を固定とする場合には、その輝度閾値を上記の実施の形態の場合よりも若干低めに設定すれば、通常の不快グレア領域よりもやや広めの領域を高輝度領域20として決定することができるようになり、拡大率を設定して高輝度領域を拡大処理しなくても十分実用に供することができ、構成がより単純化できる。
【0079】
次に、本発明の第2の実施の形態の表示処理装置を図7及び図8に基づいて説明する。第2の実施の形態の表示処理装置の特徴は、CPU5が可視光による第1の風景画像に対して高輝度領域を決定するための所定の閾値をヘッドライト操作スイッチ9によるヘッドライトの点/消灯操作状態に応じて可変設定するようにした点にある。なお、図7において、図1に示した第1の実施の形態と共通する部分には同一の符号を付して示し、詳しい説明は省略する。
【0080】
この第2の実施の形態の表示処理装置では、図8のフローチャートに示すように、CPU5がまず、ヘッドライト操作スイッチ9の操作状態からヘッドライトの点灯状況を読取る(ステップS1′)。そして、図2に示した第1の実施の形態と同様に、赤外線画像フレームメモリ4から赤外線による第2の風景画像を取込み、可視光画像フレームメモリ2から可視光による第1の風景画像を取込む(ステップS2,S3)。
【0081】
続いて、可視光による第1の風景画像を輝度に対する所定の閾値をもって2値化して2値化画像を得る(ステップS4)。ここで用いる閾値は、ヘッドライト操作スイッチ9から得たヘッドライト点灯状況に基づいて調整する。例えば、自車のヘッドライトが消灯されている状態では昼間走行と見なし、対向車のヘッドライトのような強力な光源の輪郭部分が検出される程度の輝度とし、ヘッドライトが点灯されている状態では夜間走行と見なし、対向車のヘッドライトのような強力な光源の周囲以外の間接反射光がカットされる程度の輝度とする。
【0082】
次に第1の実施の形態と同様にして、所定の閾値をもって2値化した第1の風景画像の高輝度領域を拡大処理して重畳領域を決定し(ステップS5)、この高輝度拡大領域に対応する領域を赤外線による第2の風景画像上から重畳領域として切出し、2値化前の可視光による第1の風景画像の同じ領域上に重畳合成し(ステップS6)、これを表示モニタ7に表示させる(ステップS7)。
【0083】
この実施の形態でも、可視光カメラ1も赤外線カメラ3も動画撮影カメラであり、第1、第2の風景画像は動画像であるので、以上のステップS2〜S7の処理を画像フレームごとに繰返すことによって表示モニタ7に重畳合成画像を動画像として表示させる。
【0084】
こうして、第2の実施の形態の表示処理装置でも第1の実施の形態と同様、図4及び図6に示した画像処理ができ、所定の閾値Bによって2値化した可視光による第1の風景画像から対向車のヘッドライトのような高輝度の光源の見かけの大きさで決まる不快グレア領域を高輝度領域20と決定し、さらに所定の拡大率Kを掛けることによってこの高輝度領域20の周囲に位置して光源からの光がドライバの眼球内で散乱するために眩しさを感じる減能グレア領域まで重畳合成領域21を拡大し、この重畳合成領域21に対応する領域22を第2の風景画像から切出して2値化前の第1の風景画像の該当する部位に合成することにより、対向車のヘッドライトのような高輝度の光源によって眩惑され、ドライバの肉眼では見にくいあるいは見えないような対象物を表示モニタ7に表示されている合成画像上で容易に発見できるようになる。これによって、特に対向車のヘッドライトに入ってしまって歩行者がドライバの視野から消滅する現象が発生するような場合にもその歩行者の存在を表示モニタ7で一瞥して認識できるようになる。
【0085】
またヘッドライトの点/消灯状態に応じて所定の輝度閾値Bを可変設定するようにしたので、運転時の周囲の明るさに合わせて重畳領域を調整することができ、ドライバが自ら感じる眩惑範囲と表示モニタ7上での表示範囲との相違による違和感を低減することができる。
【0086】
なお、上記の実施の形態における高輝度領域の決定のための輝度閾値の設定は特に限定されるわけではなく、実験を繰返すことによってふさわしい値に設定することができる。また拡大率についても装置機能を単純化するためには省略することができる。そしてその場合に、輝度閾値を若干低めに設定すれば、通常の不快グレア領域よりもやや広めの領域を高輝度領域20として決定することができるようになり、十分実用できる。
【0087】
次に、本発明の第3の実施の形態の表示処理装置を図9〜図14に基づいて説明する。第3の実施の形態の表示処理装置はCPU50が実行する画像処理に特徴を有している。まず、図9に基づいて機能構成について説明する。図1に示した第1の実施の形態と同様に、この第3の実施の形態の表示処理装置は、可視光による第1の風景画像を得るための可視光カメラ1、この可視光カメラ1の撮影した第1の風景画像を記憶しておく可視光画像フレームメモリ2、可視光以外の光線又は電磁波による第2の風景画像を撮影するための第2の撮影手段としての赤外線カメラ3、この赤外線カメラ3の撮影した第2の風景画像を記憶しておく赤外線画像フレームメモリ4、後述する所定の画像処理を行うCPU50、このCPU50の合成処理画像を記憶する重畳画像フレームメモリ6、この重畳画像フレームメモリ6に記憶されている合成画像を表示する表示モニタ7を備えている。
【0088】
第1及び第2の実施の形態ではCPU5が、画像の切出しと重畳合成処理の対象となるドライバの視認困難な視界部位として眩惑領域を用い、第1の風景画像上の眩惑領域に対して可視光以外による第2風景画像から対応する領域の画像を切出して第1の風景画像の眩惑領域に重畳する処理を行ったが、この第3の実施の形態のCPU50は、画像の切出しと重畳合成処理の対象となるドライバの視認困難な視界部位として低視界(可視光ではドライバが眩惑を起こす高輝度環境、あるいはドライバが周囲の情景と歩行者とを識別できないような低輝度、低コントラストの環境のいずれをも問わない)において歩行者が検出された領域を用い、可視光以外による第2の風景画像上で歩行者の存在している領域を判別してその歩行者の存在している所定の領域の画像を切出し、可視光による第1の風景画像の対応する部位に重畳合成する処理を行うことを特徴とする。
【0089】
以下、このCPU50の実行する画像処理について、図10のフローチャート及び図11〜図14の説明図を用いて説明する。この表示処理装置の電源投入でスタートすれば、可視光カメラ1、赤外線カメラ3、表示モニタ7は起動する。そして可視光カメラ1は設定された視野、画角の可視光による、図13(a)に示すような第1の風景画像を撮影して可視光画像フレームメモリ2に1フレームずつ順次記憶していく。同時に、赤外線カメラ3も設定された視野、画角の赤外線による、図13(b)に示すような第2の風景画像を撮影して赤外線画像フレームメモリ4に1フレームずつ順次記憶していく。
【0090】
そしてCPU50は赤外線画像フレームメモリ4から図13(b)に示す赤外線による第2の風景画像を取込み(ステップS21)、可視光画像フレームメモリ2から図13(a)に示す可視光による第1の風景画像を取込む(ステップS22)。
【0091】
続いて、赤外線による第2の風景画像から歩行者の有無を判別する(ステップS23)。この歩行者の検出には赤外線を放射しやすい頭部の画像の存在を目安とする。つまり、赤外線による第2の風景画像内から重心位置、縦横比、充足率、実面積などの条件を満たす部位の存在を調べる。具体的には特開平09−128548号公報に開示されている方法を採用する。これによって、歩行者の存在位置を画面上の2次元座標上で画面全体の幅と高さに対する割合で求める。なお、ここで、実際の表示処理では赤外線画像や可視光画像を表示モニタ7に表示し、その表示画面上で処理する訳ではなく、実際にはCPU50が赤外線画像フレームメモリ4の画像フレームデータに対して実行する。
【0092】
こうして歩行者の存在を検出すれば、続いて図13(c)に示すように、その歩行者の像を含む所定の領域を切出し領域として決定する(ステップS24)。この赤外線による第2の風景画像に対する切出し領域の決定は、次のようにして行う。
【0093】
図11を参照して、画像の水平画角中心から歩行者の頭部までの実距離feと、画面上での歩行者の身長ebは、カメラの設置高Hcamと俯角θ、歩行者の身長Hped、カメラからの水平距離Lとの間で、それぞれ次の数1〜数3の式で示す関係が存在する。
【0094】
【数1】
Figure 0003968867
【数2】
Figure 0003968867
【数3】
Figure 0003968867
ここで、歩行者の身長Hpedとして成人の平均身長を代表値として当てはめると、上記のfeとebとの関係式を得ることができる。一方、図12を参照して、赤外線による第2の風景画像31上での歩行者の頭部の検出位置により、画面上にてfeに該当する値を得ることができる。これにより、Lに応じたebの値を求めることができる。
【0095】
こうして求めた歩行者の頭部に該当する位置(=e)と、領域の高さ方向の大きさ(=eb)をもとにして画面上で歩行者を包含する図形を当てはめ、切出し領域32とするのである。
【0096】
この実施の形態で歩行者を包含する図形としては、(a)上部の辺の位置を垂直座標eとし、(b)水平方向の中心線を水平座標とし、(c)垂直方向の大きさをebとし、(d)水平方向の大きさをeb/2とする長方形を用いる。
【0097】
次に、赤外線による第2の風景画像から決定した切出し領域32の切出しと、切出した領域32の可視光による第1の風景画像への重畳合成を行う(ステップS25)。この領域切出しの処理では、赤外線画像を画素ごとに走査し、その画素の座標がステップS24で決定した切出し領域32に含まれているか否かを調べ、含まれている場合には赤外線画像の該当する画素を可視光による第1の風景画像の該当する画素上にコピーする処理を全画面に対して繰返す。
【0098】
CPU50は上記の重畳合成処理が済んだ重畳合成画像をいったん重畳画像フレームメモリ6に書出し、これを表示モニタ7が表示する(ステップS26)。最終的に表示モニタ7に表示される重畳合成画像は、図14に示すものとなる。なお、この重畳合成処理では、赤外線画像から切出した切出し領域32の画像は不透明にして、背面になる第1の風景画像が透けて見えないようにしている。これによって歩行者の画像が鮮明になる。
【0099】
この第3の実施の形態では、可視光カメラ1も赤外線カメラ3も動画撮影カメラであり、第1、第2の風景画像は動画像であるので、以上のステップS21〜S26の処理を画像フレームごとに繰返すことによって表示モニタ7に重畳合成画像を動画像として表示させる。
【0100】
こうして第3の実施の形態の表示処理装置によれば、対向車のヘッドライトのような高輝度の光源によって眩惑され、あるいは低輝度、低コントラストの環境のためにドライバの肉眼では見にくいあるいは見えない位置に存在する歩行者を表示モニタ7に表示されている合成画像上で容易に発見できるようになる。
【0101】
しかも、歩行者を検出した場合にその歩行者を含む限定された領域の画像だけを赤外線のような可視光以外による第2の風景画像から切出して、可視光による第1の風景画像の該当する部位に重畳合成して表示するので、表示画像の大部分はドライバが肉眼で見ている風景と一致し、歩行者の存在する部分だけが強調されるような表示になり、実視野と表示モニタの表示画面上との位置関係の照合がしやすい。
【0102】
また歩行者の画像上での大きさに応じて、つまり、歩行者が自車から遠方に存在するか近くに存在するかに応じて切出し領域も広狭変化し、表示モニタ7の表示画面上での歩行者の画像が遠ければ小さく、近ければ大きく表示されることになり、ドライバの肉眼で視認できる実風景に照らして、どの程度接近していると離れているかを容易に把握できる。
【0103】
また画像上で歩行者の身体を包含するのと同程度の領域を切出し領域と決定するのに、赤外線画像上にて縦方向の歩行者の存在位置、カメラの設置高、撮影方向の俯角、歩行者の身長から求めるようにしたので、撮影手段以外の距離計測手段を必要とせず、装置構成の簡素化が図れる。
【0104】
なお、上記の第3の実施の形態において、切出し領域として歩行者を包含する長方形領域を用いたが、これに限定されず、歩行者の頭部を頂点とし歩行者のほぼ全身を含むだ円形領域とすることができる。
【0105】
また比較的近距離に存在する歩行者を目標物とする場合、頭部に該当する大きさを調べ、頭部と体全体との比率、つまり、図12におけるα:βの値を固定値として、領域32の高さ方向の大きさebを簡易的に決定して切出し領域を決定することもできる。
【0106】
次に、本発明の第4の実施の形態の表示処理装置を図15〜図17に基づいて説明する。第4の実施の形態の特徴は、CPU50が歩行者の存在を検出してその歩行者を含む所定の領域を切出し領域として決定すれば、第2の風景画像からの切出し画像を白黒反転処理してから可視光による第1の風景画像に重畳合成処理する点にある。
【0107】
この第4の実施の形態の表示処理装置の機能構成は、第3の実施の形態と同様に図9に示したものである。そしてCPU50が実行する処理が、図15のフローチャートに示すようになる。
【0108】
すなわち、図10に示した第3の実施の形態のフローチャートと同様に、赤外線画像フレームメモリ4から赤外線による第2の風景画像を取込み(ステップS21)、可視光画像フレームメモリ2から可視光による第1の風景画像を取込む(ステップS22)。続いて、赤外線による第2の風景画像から歩行者の有無を判別し(ステップS23)、その歩行者の像を含む所定の領域を切出し領域として決定する(ステップS24)。
【0109】
次に、赤外線による第2の風景画像から決定した切出し領域の切出し、さらにその白黒反転処理を行い、白黒反転後の画像を可視光による第1の風景画像の該当する部位に重畳合成する(ステップS25′)。このステップS25′での画像の切出しと白黒反転と重畳処理では、赤外線による第2の風景画像を2次元的に1画素ごとに走査し、その画素の座標がステップS24で決定した切出し領域に含まれているか否かを調べる。そして含まれている場合には、赤外線画像の該当する画素について、図16に示すように明度の反転処理を行い、これを可視光による第1の風景画像の該当する座標の画素上にコピーする処理を全画面に対して繰返す。
【0110】
CPU50は上記の重畳合成処理が済んだ重畳合成画像をいったん重畳画像フレームメモリ6に書出し、これを表示モニタ7に表示させる(ステップS26)。最終的に表示モニタ7に表示される重畳合成画像は、図17に示すものとなる。
【0111】
この第4の実施の形態でも、可視光カメラ1も赤外線カメラ3も動画撮影カメラであり、第1、第2の風景画像は動画像であるので、以上のステップS21〜S26の処理を画像フレームごとに繰返すことによって表示モニタ7に重畳合成画像を動画像として表示させる。
【0112】
こうして第4の実施の形態の表示処理装置によれば、第3の実施の形態と同様の効果を奏し、さらに、赤外線による第2の風景画像の中の歩行者の画像を白黒反転させて可視光による第1の風景画像の該当する部位に重畳合成するので、自ら発光することがない歩行者が赤外線画像上で周囲よりも明るく映る違和感を低減することができる。
【0113】
なお、上記の第4の実施の形態においても、切出し領域として歩行者を包含する長方形領域を用いたが、これに限定されず、歩行者の頭部を頂点とし歩行者のほぼ全身を含むだ円形領域とすることができる。また比較的近距離に存在する歩行者を目標物とする場合、頭部に該当する大きさを調べ、頭部と体全体との比率、つまり、図12におけるα:βの値を固定値として、領域32の高さ方向の大きさを簡易的に決定して切出し領域を決定することもできる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態の機能構成を示すブロック図。
【図2】上記の実施の形態による重畳画像の表示処理のフローチャート。
【図3】上記の実施の形態による高輝度領域の拡大処理のフローチャート。
【図4】上記の実施の形態による画像処理の説明図。
【図5】上記の実施の形態による表示画像の説明図。
【図6】上記の実施の形態による高輝度領域の拡大処理の説明図。
【図7】本発明の第2の実施の形態の機能構成を示すブロック図。
【図8】上記の実施の形態による重畳画像の表示処理のフローチャート。
【図9】本発明の第3の実施の形態の機能構成を示すブロック図。
【図10】上記の実施の形態による重畳画像の表示処理のフローチャート。
【図11】上記の実施の形態による歩行者の切出し領域を決定するための計算処理の説明図。
【図12】上記の実施の形態による歩行者の切出し領域を決定するための計算処理の説明図。
【図13】上記の実施の形態による画像処理の説明図。
【図14】上記の実施の形態による表示画像の説明図。
【図15】本発明の第4の実施の形態の重畳画像の表示処理のフローチャート。
【図16】上記の実施の形態による切出し領域の白黒反転処理の説明図。
【図17】上記の実施の形態による表示画像の説明図。
【符号の説明】
1 可視光カメラ
2 可視光画像フレームメモリ
3 赤外線カメラ
4 赤外線画像フレームメモリ
5 CPU
6 重畳画像フレームメモリ
7 表示モニタ
8 モニタ輝度設定スイッチ
9 ヘッドライト操作スイッチ
20 高輝度領域
21 重畳領域
22 重畳領域
31 第2の風景画像
32 切出し領域[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a display processing device having a function of assisting a driver's vision in a situation that hinders visual recognition of a scenery outside a vehicle.
[0002]
[Prior art]
Visual information from outside the vehicle is extremely important for the driver for driving. However, it is often necessary to drive in an environment that is dazzled by a low-light environment at night or the presence of a powerful light source such as a light from an oncoming vehicle. In such an environment with poor visibility with the naked eye, even a careful driver tends to be late in finding objects such as pedestrians approaching the vehicle.
[0003]
As a technique for covering such physiological problems on the driver side, for example, Japanese Patent Application Laid-Open No. 5-137030 discloses a scan for detecting an infrared ray and forming an image of a low-light environment landscape where illumination does not reach. An apparatus (conventional example 1) for projecting on a display unit using the unit is disclosed. Japanese Patent Application Laid-Open No. 6-270751 discloses a device (conventional example 2) that issues an alarm when an object such as a pedestrian is present in a dazzling area by a headlight of an oncoming vehicle. Further, JP-A-8-263784 discloses an apparatus (conventional example 3) for synthesizing a temperature distribution in front of a vehicle detected by a temperature detecting means such as an infrared camera with an image obtained by an imaging means such as a video camera. .
[0004]
[Problems to be solved by the invention]
However, the conventional display processing apparatus for assisting the visual perception of the driver has the following problems.
[0005]
In the devices of the above-described conventional examples 1 and 3, not only the vicinity of an object such as a pedestrian but also the entire infrared image on the display means is displayed alone or in combination. On the other hand, in order to clearly discriminate an object such as a pedestrian, detection means and display means with high resolution to some extent are required. However, in the devices of Conventional Example 1 and Conventional Example 3, since the infrared image displayed on the display means shows buildings, planting, sky and clouds, such a high resolution image is displayed on the driver. In the case, there were the following problems.
[0006]
◇ It is difficult for a driver to grasp complicated visual information at a glance while driving.
[0007]
◇ The difference between the low-visibility scenery with the naked eye and the clear image displayed is too large, and it is difficult to collate the position of the object in the display screen within the real field of view.
[0008]
◇ When displaying a moving image on the display means, it is easy for the driver to be unconscious about the entire vehicle because it unconsciously looks at the screen.
[0009]
Further, in the apparatus of Conventional Example 2, since the setting of the dazzling area on the apparatus side does not take into account ambient illuminance and individual differences of drivers, an alarm is issued even though the driver is not actually dazzling, which is bothersome. There was a problem that made me feel.
[0010]
Furthermore, as an application of the device disclosed in the conventional example 1, a device that captures a front landscape with an infrared camera and displays it on a display means when dazzling can be considered. However, if you are dazzled by the presence of a powerful light source such as the headlight of an oncoming vehicle, you will not be able to see a near-distance object that is present in the irradiation range of the headlight of your vehicle and is normally visible to the driver. Therefore, it is impossible for the driver to instantly understand why the object displayed on the display means cannot be seen with the naked eye, and when the dazzling is resolved, the object is approaching as close as possible to the vehicle. There is a problem that can happen.
[0011]
The present invention has been made in order to solve such a conventional problem, and reliably assists the driver's vision in a situation that hinders visual recognition of the scenery outside the vehicle. It is an object of the present invention to provide a display processing device capable of grasping visual information at a glance while driving.
[0012]
Another object of the present invention is to provide a display processing device capable of adjusting the visual assisting action according to the physiological personality of the driver.
[0016]
[Means for Solving the Problems]
Claim 1 The display processing apparatus according to the present invention provides a driver with a first photographing unit that obtains a first landscape image with visible light, a second photographing unit that obtains a second landscape image with light rays or electromagnetic waves other than the visible light, and a driver. Region determining means for determining a region on the first landscape image corresponding to a field of view that is difficult to visually recognize as a combined region, and extracting a region corresponding to the combined region from the second landscape image, and the first landscape. An image composition unit that obtains a composite image by synthesizing the corresponding part of the image and a display unit that displays the composite image are provided.
[0017]
Claim 1 In the display processing apparatus of the invention, the first photographing means obtains a first landscape image by visible light, the second photographing means obtains a second landscape image by light rays or electromagnetic waves other than visible light, and region determining means. However, the region on the first landscape image corresponding to the field of view that is difficult for the driver to visually recognize is determined as the synthesis region. In response to this, the image synthesizing unit cuts out a part corresponding to the synthesis region from the second landscape image, and synthesizes it with the corresponding part of the first landscape image to obtain a synthesized image, which is displayed on the display unit.
[0018]
As a result, the display means can display a normal visible light scene for the part visible to the driver, and can synthesize and display a scenery other than the visible light or electromagnetic waves on the visual field that is difficult to see with the naked eye. This allows the driver to grasp the entire front landscape by looking at the display image on the display means.
[0019]
Claim 2 The invention of claim 1 In the display processing apparatus, the area determining means determines a visual field part that is dazzled by a high-luminance light source as a visual field part that is difficult for the driver to visually recognize. An object that is dazzled by the luminance light source and is difficult or invisible to the driver's naked eyes can be easily found on the composite image displayed on the display means.
[0020]
Claim 3 The invention of claim 1 In the display processing apparatus, the region determining means determines a field-of-view portion where an object is captured in a low-light environment as a field-of-view region that is difficult for the driver to visually recognize, so that it is not projected on an illuminating lamp. Therefore, an object that is difficult to see or cannot be seen with the naked eye of the driver can be easily found on the composite image displayed on the display means.
[0021]
Claim 4 The display processing apparatus of the invention includes a first photographing means for obtaining a first landscape image by visible light, a second photographing means for obtaining a second landscape image by light rays or electromagnetic waves other than the visible light, and the first Region determining means for determining a region that exceeds a predetermined luminance threshold on one landscape image as a composite region, and a region corresponding to the composite region is cut out from the second landscape image, and the first landscape image corresponds to the region The image synthesizing unit is provided with an image synthesizing unit that synthesizes the region and obtains a synthesized image and a display unit that displays the synthesized image.
[0022]
Claim 4 In the display processing apparatus of the invention, the first photographing means obtains a first landscape image by visible light, the second photographing means obtains a second landscape image by light rays or electromagnetic waves other than visible light, and region determining means. Is determined as a synthesis region in the first landscape image that exceeds a predetermined luminance threshold. In response to this, the image synthesizing unit cuts out a part corresponding to the synthesis region from the second landscape image, and synthesizes it with the corresponding part of the first landscape image to obtain a synthesized image, which is displayed on the display unit.
[0023]
Thus, if the brightness threshold is set so that the field of view that is dazzled by the high-brightness light source becomes a composite area, it will be dazzled by the high-brightness light source such as the headlight of an oncoming vehicle, and it will be difficult or difficult to see with the naked eye of the driver. An object that does not exist can be easily found on the composite image displayed on the display means.
[0024]
Claim 5 The invention of claim 4 In the display processing apparatus, the region determining means determines a region expanded vertically and horizontally by a predetermined ratio as a composite region with respect to a portion exceeding the predetermined luminance threshold on the first landscape image. The discomfort glare area determined by the apparent size of a high-intensity light source such as the headlight of an oncoming vehicle and its surroundings are located around it, and the light from the light source scatters within the driver's eyeballs, making it feel dazzling The reduced glare region can be cut out from the second landscape image as a composite region and combined with the corresponding part of the first landscape image, which is dazzled by a high-intensity light source such as a headlight of an oncoming vehicle, An object that is difficult or invisible to the naked eye can be easily found on the composite image displayed on the display means.
[0025]
Claim 6 The invention of claim 4 Or 5 In the display processing apparatus, the screen brightness setting means for variably setting the screen brightness of the display means, and the predetermined brightness threshold used by the area determination means corresponds to the screen brightness set by the screen brightness setting means. Brightness threshold setting means for variably setting.
[0026]
Claim 7 The invention of claim 6 In the display processing apparatus, the luminance threshold value setting unit sets the luminance threshold value low when the screen luminance setting unit sets the screen luminance to a low value.
[0027]
Claim 6 as well as 7 In the display processing apparatus according to the invention, it is possible to synthesize images corresponding to individual differences in which the driver feels dazzling.
[0028]
Claim 8 The invention of claim 5 In the display processing apparatus, the screen brightness setting means for variably setting the screen brightness of the display means, and the vertical and horizontal area enlargement ratios used by the area determination means correspond to the screen brightness set by the screen brightness setting means. And an enlargement ratio setting means for variably setting.
[0029]
Claim 9 The invention of claim 8 In the display processing apparatus, the enlargement ratio setting means sets the area enlargement ratio large when the screen brightness setting means sets the screen brightness low.
[0030]
Claim 8 as well as 9 In the display processing device according to the invention, it is possible to perform image composition corresponding to individual differences in which the driver feels dazzling, including the unpleasant glare region and the reduced glare region.
[0031]
Claim 10 The invention of claim 4 Or 5 The display processing apparatus further includes brightness threshold setting means for variably setting the predetermined brightness threshold used by the area determination means in accordance with the lighting / extinguishing state of the illumination lamp of the vehicle.
[0032]
Claim 1 1 The invention of claim 1 0 In the display processing apparatus, the brightness threshold setting means sets the brightness threshold lower when the headlight of the vehicle is turned on than when the headlight is turned off.
[0033]
Claim 1 0 And 1 1 In the display processing apparatus according to the invention, it is possible to synthesize an image corresponding to the brightness of the landscape by the illumination of the illumination lamp.
[0034]
Claim 1 2 The invention of claim 5 The display processing apparatus further includes an enlargement ratio setting means for variably setting the vertical and horizontal area enlargement ratios used by the area determination means in accordance with the lighting / extinguishing state of the illumination lamp of the vehicle.
[0035]
Claim 1 3 The invention of claim 1 2 In the display processing apparatus, the enlargement ratio setting means sets the area enlargement ratio larger when the headlight of the vehicle is turned on than when the headlight is turned off.
[0036]
Claim 1 2 And 1 3 In the display processing apparatus according to the invention, it is possible to synthesize an image corresponding to the brightness of the landscape by irradiation of the illumination lamp, including the unpleasant glare area and the reduced glare area.
[0037]
Claim 1 4 The display processing apparatus of the invention includes a first photographing means for obtaining a first landscape image by visible light, a second photographing means for obtaining a second landscape image by light rays or electromagnetic waves other than the visible light, and the first Target object discrimination means for discriminating the position of the pedestrian on the second landscape image, and a part including the position of the pedestrian on the second landscape image is cut out, and the corresponding part of the first landscape image And an image composition means for obtaining a composite image and a display means for displaying the composite image.
[0038]
Claim 1 4 In the display processing apparatus of the invention, the first photographing means obtains a first landscape image by visible light, the second photographing means obtains a second landscape image by light rays or electromagnetic waves other than visible light, and target discrimination The means determines the position of the pedestrian on the second landscape image. In response to this, the image synthesizing means cuts out a part including the position of the pedestrian on the second landscape image and synthesizes it with the corresponding part of the first landscape image to obtain a synthesized image and display it on the display means. .
[0039]
As a result, a composite image in which the display means displays a pedestrian that is dazzled by a high-intensity light source such as a headlight of an oncoming vehicle or that is present at a position that is difficult or invisible to the naked eye of the driver due to a low-light environment. It will be easy to find above.
[0040]
Claim 1 5 The invention of claim 1 4 In this display processing apparatus, the image synthesizing unit cuts out a region as much as the region including the pedestrian's body as a part including the pedestrian's presence position.
[0041]
Claim 1 6 The invention of claim 1 5 In the display processing apparatus, the image composition means cuts out the size of the region as the distance to the pedestrian becomes farther as a part including the position where the pedestrian is present.
[0042]
Claim 1 7 The invention of claim 1 5 In the display processing apparatus, the image synthesizing means includes a position of the pedestrian in the vertical direction on the screen, an installation height of the second photographing means, a depression angle in the photographing direction, as a part including the position of the pedestrian. The size of the area is determined based on the height of the pedestrian and is cut out.
[0043]
Claim 1 5 ~ 1 7 In the display processing device of the invention, the cutout area is large when the pedestrian is close, the cutout area is small when the pedestrian is far away, and the target by visible light in the part far away from the pedestrian is not inadvertently painted. The comparison of the positional relationship between the real field of view and the display screen of the display means is easy for the driver to understand.
[0044]
Claim 1 8 The invention of claim 1 4 ~ 1 7 In the display processing apparatus, the image synthesizing unit cuts out a portion including the position of the pedestrian on the second landscape image, inverts it in black and white, and synthesizes it to the corresponding portion of the first landscape image. A composite image is obtained, and the contrast between the image of the pedestrian and the surrounding image on the composite image of the display means is reduced, so that the driver can easily see the image.
[0045]
Claim 19 The invention of claim 1 to 1 8 In the display processing apparatus, the second photographing means is an infrared photographing means, and a second landscape image can be obtained by reliably photographing an image of an area that cannot be captured by visible light photographing by infrared photographing. The display means can display a normal visible light image on the part visible to the driver, and can display an infrared image on a portion of the field of view that is difficult to see with the naked eye or on the target object. It is possible for the driver to glance at the display image of the display means to grasp the entire front landscape or to find the object.
[0047]
【The invention's effect】
Claim 1 According to the invention, a portion corresponding to a visual field portion that is difficult for the driver to visually recognize is extracted from the second landscape image by light rays or electromagnetic waves other than visible light, and is combined with the corresponding portion of the first landscape image to form a composite image. Therefore, the part visible to the driver with respect to the display means displays a landscape with normal visible light, and the view portion difficult to see with the naked eye is synthesized and displayed with a light ray or electromagnetic wave other than visible light. This allows the driver to grasp the entire front landscape by glanceping at the display image on the display means.
[0048]
Claim 2 According to the invention, the visual field part that is dazzled by the high-intensity light source is determined as the visual field part that is difficult for the driver to visually recognize, and the corresponding part is cut out from the second landscape image to the corresponding part of the first landscape image. Since it is synthesized and displayed as a composite image, on the composite image displayed on the display means an object that is dazzled by a high-intensity light source such as a headlight of an oncoming vehicle and that is difficult or invisible to the naked eye of the driver Can be easily discovered.
[0049]
Claim 3 According to the invention, the visual field part in which the object is reflected in the low illumination environment is determined as the visual field part that is difficult for the driver to visually recognize, and the corresponding part is cut out from the second landscape image to correspond to the first landscape image. Since it is combined with the part and displayed as a composite image, the object that is difficult to see or cannot be seen with the naked eye of the driver is displayed on the display means because it exists in a low illuminance area that does not appear in the illumination lamp. It can be easily found on the composite image.
[0050]
Claim 4 According to the invention, a portion that exceeds a predetermined luminance threshold on the first landscape image by visible light is defined as a synthesis region, and a portion corresponding to this synthesis region is cut out from the second landscape image by other than visible light to obtain the first. Since the composite image is displayed on the corresponding part of the landscape image and the composite image is displayed, if the brightness threshold is set so that the visual field part that is dazzled by the high-intensity light source becomes the composite area, An object that is dazzled by the high-intensity light source and is difficult or invisible to the driver's naked eyes can be easily found on the composite image displayed on the display means.
[0051]
Claim 5 According to the invention, the discomfort glare region determined by the apparent size of a high-intensity light source such as a headlight of an oncoming vehicle and the surrounding light are dazzled because light from the light source is scattered in the driver's eyeball. The degrading glare area that feels good can be cut out from the second landscape image other than visible light as a composite area and combined with the corresponding part of the first landscape image by visible light, like a headlight of an oncoming vehicle An object that is dazzled by the high-intensity light source and is difficult or invisible to the driver's naked eyes can be easily found on the composite image displayed on the display means.
[0052]
Claim 6 as well as 7 According to the invention, since the brightness threshold value for cutting out the composite area from the second landscape image other than visible light is variably set according to the screen brightness setting of the display means, it corresponds to the individual difference in which the driver feels dazzling Image composition is possible.
[0053]
Claim 8 as well as 9 According to the invention, the discomfort glare region determined by the apparent size of a high-intensity light source such as a headlight of an oncoming vehicle and the surrounding light are dazzled because light from the light source is scattered in the driver's eyeball. Decomposition glare area that feels good is used as the synthesis area, and the brightness threshold for cutting out this synthesis area is variably set according to the screen brightness setting of the display means, so images that correspond to individual differences that make the driver feel dazzling Synthesis is possible.
[0054]
Claim 1 0 And 1 1 According to the invention, the brightness threshold for cutting out the synthesis region from the second landscape image other than visible light is variably set according to the lighting / lighting-off state of the illumination light. Image composition corresponding to the size is possible.
[0055]
Claim 1 2 And 1 3 According to the invention, the discomfort glare region determined by the apparent size of a high-intensity light source such as a headlight of an oncoming vehicle and the surrounding light are dazzled because light from the light source is scattered in the driver's eyeball. Degradation glare area that feels good is used as the synthesis area, and the brightness threshold for cutting out this synthesis area is variably set according to the lighting / extinguishing status of the lighting lamp. Image synthesis is possible.
[0056]
Claim 1 4 According to this invention, the presence position of the pedestrian is determined on the second landscape image by a light ray or electromagnetic wave other than visible light, and a part including the location of the pedestrian is cut out and visible on the second landscape image. Since the composite image is displayed on the corresponding portion of the first landscape image by light and the composite image is displayed, it is dazzled by a high-intensity light source such as a headlight of an oncoming vehicle, or is difficult to see with the naked eye of the driver due to a low-light environment. Alternatively, a pedestrian present at an invisible position can be easily found on the composite image displayed on the display means.
[0057]
Claim 1 5 ~ 1 7 According to the invention, since the image synthesizing means cut out an area of the same extent as including the pedestrian's body as a part including the position of the pedestrian, the cut-out area is large if the pedestrian is close, If the pedestrian is far away, the cut-out area will be smaller and the driver will be able to check the positional relationship between the real field of view and the display screen of the display means without inadvertently painting the target with visible light away from the pedestrian. Easier to understand.
[0058]
Claim 1 8 According to the invention, the part including the position of the pedestrian on the second landscape image is cut out and reversed in black and white, and is combined with the corresponding part of the first landscape image to display the composite image. The contrast between the image of the pedestrian and the surrounding image on the composite image becomes small so that it can be easily seen by the driver.
[0059]
Claim 19 According to the invention, since the infrared photographing means is used as the second photographing means for obtaining the second landscape image other than the visible light, it is possible to surely capture a pedestrian who is hard to see or cannot see in the real field of view. Can be displayed.
[0060]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 shows a functional configuration of the display processing apparatus according to the first embodiment of the present invention. The display processing apparatus of this embodiment has a normal visible light camera 1 such as a CCD camera as a first photographing means for obtaining a first landscape image by normal visible light, and photographing by the visible light camera 1. A visible light image frame memory 2 for storing the first landscape image, an infrared camera 3 as a second photographing means for photographing a second landscape image by light rays or electromagnetic waves other than visible light, and the infrared camera. 3 is provided with an infrared image frame memory 4 for storing the second landscape image taken by the third person. In addition to the infrared camera, for example, a radio wave radar, an ultrasonic radar, or the like can be employed as the second photographing unit that obtains the second landscape image other than visible light. The visual field of the visible light camera 1 is preferably set so as to include the visual field of the infrared camera 3. Further, by unifying the angle of view and the number of pixels, subsequent image composition processing is simplified, and high-speed processing is possible. Note that these can also be applied to all other embodiments described below.
[0061]
The display processing apparatus of this embodiment further includes a first landscape image by visible light stored in the visible light image frame memory 2 and a second by infrared light other than visible light stored in the infrared image frame memory 4. A CPU 5 that performs a predetermined image composition process described later on the landscape image, a superimposed image frame memory 6 that stores a composite image processed by the CPU 5, a liquid crystal that displays a composite image stored in the superimposed image frame memory 6, A display monitor 7 as an image display means such as a CRT, and a monitor brightness setting switch 8 for setting screen brightness for the display monitor 7 are provided. The monitor brightness setting switch 8 is for the driver to variably set the brightness suitable for himself / herself by viewing the screen brightness of the display monitor 7, and the brightness setting signal is input to the CPU 5 together with the display monitor 7. .
[0062]
Next, the operation of the display processing apparatus having the above configuration will be described. As shown in the flowchart of FIG. 2, when the display processing apparatus is started by turning on the power, the visible light camera 1, the infrared camera 3, and the display monitor 7 are activated. The visible light camera 1 captures the first landscape image by the visible light having the set field of view and angle of view, and sequentially stores it in the visible light image frame memory 2 frame by frame. At the same time, the infrared camera 3 also captures a second landscape image by infrared rays having a set field of view and angle of view and sequentially stores them in the infrared image frame memory 4 frame by frame.
[0063]
Then, the CPU 5 reads the monitor brightness setting value adjusted by the driver while viewing the screen brightness of the display monitor 7 from the monitor brightness setting switch 8 (step S1). Then, the second landscape image by infrared rays (image of FIG. 4D) is taken in from the infrared image frame memory 4 (step S2), and the first landscape image by visible light from the visible light image frame memory 2 (FIG. 4A). )) Is captured (step S3).
[0064]
Subsequently, the first landscape image by visible light is binarized with a predetermined threshold value for luminance to obtain a binarized image shown in FIG. 4B (step S4). The threshold used here is adjusted based on the monitor brightness setting value obtained from the monitor brightness setting switch 8. For example, the brightness used in the daytime is such that the contour of a powerful light source such as a headlight of an oncoming car is detected, and the brightness used at night is a strong light source such as a headlight of an oncoming car. The brightness is such that indirect reflected light other than the surrounding area is cut off.
[0065]
Next, as shown in FIG. 4 (c), the high luminance area 20 of the first landscape image binarized with a predetermined threshold B for luminance is enlarged to determine the overlapping area 21 (step S5). Here, the enlargement ratio is different depending on the threshold value, and the high luminance region by the luminance threshold value Bnight in the night time zone is doubled in both the vertical and horizontal directions with respect to the high luminance region by the luminance threshold value Bday in the daytime time zone. It is set to expand to the size of. That is, assuming that the luminance threshold is B and the enlargement ratio is K, the enlargement ratio K is obtained based on the following linear expression.
[0066]
K = Kday · (3- (B / Bnight))
However, Knight / Kday = 2; Bnight / Bday = 1/2. Further, as the luminance threshold B and the enlargement ratio K, Bday and Kday are used in the daytime, and Bnight and Knight are used in the nighttime.
[0067]
Furthermore, the screen brightness setting of the display monitor 7 is increased because the surroundings are bright during the day, and is decreased because the surroundings are dark at night (this is a setting that is automatically switched in conjunction with lighting / extinguishing of the illumination lamps). Therefore, when the screen setting brightness is high, it is determined that it is daytime, and when the screen setting brightness is low, it is determined that it is nighttime, and the above B and K are switched and set.
[0068]
The details of the enlargement process of the high luminance area are as shown in the flowchart of FIG. Upon entering this process, the processes in steps S12 to S14 are repeated up to the maximum pixel line R for each pixel line m of the binarized image with the predetermined threshold B (steps S11 to S15). Further, after this processing, the processing of steps S17 to S19 is repeated up to the maximum pixel row C for each pixel row n of the binarized image with the predetermined threshold B (steps S16 to S110).
[0069]
In step S12, as shown in FIG. 6A, the binarized data of the mth pixel row among 1 to R is read, and the start end Pmstart of the pixel exceeding the threshold B (that is, the high luminance pixel). The end Pmend is investigated (Steps S12 and S13). Subsequently, as shown in FIG. 6B, the high luminance pixel areas Pmstart to Pmend of the pixel row m are expanded in the horizontal direction by the enlargement factor K to obtain enlarged areas P′mstart to P′mend (step S14). This process is repeated for each of the pixel rows 1 to R (steps S11 to S15).
[0070]
here,
Figure 0003968867
It is.
[0071]
When the horizontal enlargement process is completed, the process proceeds to the vertical enlargement process in steps S16 to S110. Here, as shown in FIG. 6B, the start end Qnstart and end end Qnend of the high luminance region in the n-th pixel column of 1 to C are examined (steps S17 and S18), and FIG. As shown in FIG. 4, the high luminance areas Qnstart to Qnend of the pixel row n are enlarged by the enlargement factor K in the vertical direction to obtain enlarged areas Q′nstart to Q′nend (step S19). This process is repeated for each of the pixel columns 1 to C (steps S16 to S110).
[0072]
here,
Figure 0003968867
It is.
[0073]
Thereby, the enlargement process of step S5 in the flowchart of FIG. 2 is performed, and the high luminance region 20 shown in FIG. 4B in the first landscape image by visible light is enlarged to show the superposition shown in FIG. The area 21 is determined.
[0074]
Next, as shown in FIG. 4D, an area corresponding to the high-intensity enlarged area is cut out as a superimposed area 22 from the second landscape image by infrared rays, and before binarization shown in FIG. Are superimposed on the same region of the first landscape image by the visible light, stored in the superimposed image frame memory 6 (step S6), and displayed on the display monitor 7 (step S7). FIG. 5 shows the superimposed composite image displayed on the display monitor 7. In this superimposing and synthesizing process, the superposed region from which the infrared image is cut out is made opaque so that the first landscape image on the back cannot be seen through.
[0075]
In this embodiment, both the visible light camera 1 and the infrared camera 3 are moving image shooting cameras, and the first and second landscape images are moving images. Therefore, the processes in steps S2 to S7 are repeated for each image frame. Thus, the superimposed composite image is displayed on the display monitor 7 as a moving image.
[0076]
Thus, in the display processing apparatus of the first embodiment, the apparent size of a high-intensity light source such as a headlight of an oncoming vehicle is obtained from the first landscape image by visible light binarized by a predetermined threshold B. The determined unpleasant glare area is determined as the high brightness area 20 and further multiplied by a predetermined magnification K, so that the light from the light source located around the high brightness area 20 is scattered in the driver's eyeball. The superimposition synthesis area is expanded to the degrading glare area where the image is felt, and a region 22 corresponding to the superposition synthesis area 21 is cut out from the second landscape image, and the corresponding part of the first landscape image by the visible light before binarization By combining the image, the display means displays an object that is dazzled by a high-intensity light source such as a headlight of an oncoming vehicle and that is difficult or invisible to the naked eye of the driver. It becomes possible to easily found above. This makes it possible to recognize the presence of the pedestrian at a glance on the display monitor 7 even when the pedestrian enters the headlight of the oncoming vehicle and the pedestrian disappears from the driver's field of view. .
[0077]
In addition, since the predetermined luminance threshold B is variably set according to the luminance setting of the display monitor 7, the overlapping area can be adjusted according to individual differences in which the driver feels dazzling, and the dazzling range that the driver feels himself / herself And the discomfort due to the difference between the display range on the display monitor 7 can be reduced.
[0078]
Note that the setting of the brightness threshold for determining the high brightness area in the above embodiment is not particularly limited, and can be set to a suitable value by repeating the experiment. In addition, the luminance threshold value is not variable, and can be fixed to a value suitable for use in a low-light environment such as a situation where the display processing device of the present invention is required, particularly at night. In this case, the monitor brightness setting switch 8 shown in FIG. 1 is not necessary, and the configuration is simplified. When the luminance threshold value is fixed, if the luminance threshold value is set slightly lower than that in the above embodiment, an area slightly wider than the normal discomfort glare area is determined as the high luminance area 20. Thus, it is possible to provide a practical use without setting the enlargement ratio and enlarging the high-luminance region, and the configuration can be further simplified.
[0079]
Next, a display processing apparatus according to a second embodiment of the present invention will be described with reference to FIGS. The display processing apparatus according to the second embodiment is characterized in that a predetermined threshold value for the CPU 5 to determine a high-luminance area for the first landscape image by visible light is a headlight dot / This is in the point that it is variably set according to the light-off operation state. In FIG. 7, parts common to the first embodiment shown in FIG. 1 are denoted by the same reference numerals, and detailed description thereof is omitted.
[0080]
In the display processing apparatus according to the second embodiment, as shown in the flowchart of FIG. 8, the CPU 5 first reads the lighting state of the headlight from the operation state of the headlight operation switch 9 (step S1 ′). Then, as in the first embodiment shown in FIG. 2, the second landscape image by infrared is taken from the infrared image frame memory 4 and the first landscape image by visible light is taken from the visible light image frame memory 2. (Steps S2 and S3).
[0081]
Subsequently, the first landscape image by visible light is binarized with a predetermined threshold for luminance to obtain a binarized image (step S4). The threshold used here is adjusted based on the headlight lighting status obtained from the headlight operation switch 9. For example, when the headlight of the own vehicle is turned off, it is regarded as daytime driving, the brightness is such that the outline of a powerful light source such as the headlight of an oncoming vehicle is detected, and the headlight is turned on In the case of driving at night, the brightness is set such that indirect reflected light other than around a powerful light source such as a headlight of an oncoming vehicle is cut off.
[0082]
Next, in the same manner as in the first embodiment, the high luminance area of the first landscape image binarized with a predetermined threshold is enlarged to determine a superimposition area (step S5). The region corresponding to is cut out as a superimposition region from the second landscape image by infrared rays and superimposed on the same region of the first landscape image by the visible light before binarization (step S6), and this is displayed on the display monitor 7. (Step S7).
[0083]
Also in this embodiment, since the visible light camera 1 and the infrared camera 3 are both motion picture cameras, and the first and second landscape images are moving images, the processes in steps S2 to S7 are repeated for each image frame. Thus, the superimposed composite image is displayed on the display monitor 7 as a moving image.
[0084]
In this way, the display processing apparatus according to the second embodiment can perform the image processing shown in FIGS. 4 and 6 as in the first embodiment, and the first processing using the visible light binarized by the predetermined threshold B can be performed. An unpleasant glare area determined by the apparent size of a high-intensity light source such as a headlight of an oncoming vehicle is determined as a high-intensity area 20 from the landscape image, and further multiplied by a predetermined enlargement factor K. The superimposition synthesis region 21 is expanded to a degenerated glare region in which the light from the light source is scattered around the driver's eyeball and feels dazzling, and the region 22 corresponding to the superposition synthesis region 21 is defined as the second region 22. By cutting out from a landscape image and combining it with the corresponding part of the first landscape image before binarization, it is dazzled by a high-intensity light source such as a headlight of an oncoming vehicle, and is difficult or difficult to see with the naked eye of the driver. It becomes possible to easily found on the composite image being displayed without such objects on the display monitor 7. This makes it possible to recognize the presence of the pedestrian at a glance on the display monitor 7 even when the pedestrian enters the headlight of the oncoming vehicle and the pedestrian disappears from the driver's field of view. .
[0085]
In addition, since the predetermined luminance threshold B is variably set according to the headlight on / off state, the overlapping area can be adjusted according to the ambient brightness during driving, and the dazzling range felt by the driver himself / herself And the discomfort due to the difference between the display range on the display monitor 7 can be reduced.
[0086]
Note that the setting of the brightness threshold for determining the high brightness area in the above embodiment is not particularly limited, and can be set to a suitable value by repeating the experiment. Also, the enlargement ratio can be omitted to simplify the device function. In that case, if the luminance threshold is set slightly lower, a region slightly wider than the normal discomfort glare region can be determined as the high luminance region 20, which is sufficiently practical.
[0087]
Next, a display processing apparatus according to a third embodiment of the present invention will be described with reference to FIGS. The display processing apparatus according to the third embodiment is characterized by image processing executed by the CPU 50. First, the functional configuration will be described with reference to FIG. Similar to the first embodiment shown in FIG. 1, the display processing apparatus of the third embodiment includes a visible light camera 1 for obtaining a first landscape image by visible light, and the visible light camera 1. A visible light image frame memory 2 for storing the photographed first landscape image, an infrared camera 3 as a second photographing means for photographing a second landscape image by light rays or electromagnetic waves other than visible light, An infrared image frame memory 4 for storing a second landscape image taken by the infrared camera 3, a CPU 50 for performing predetermined image processing to be described later, a superimposed image frame memory 6 for storing a composite processed image of the CPU 50, and this superimposed image A display monitor 7 for displaying the composite image stored in the frame memory 6 is provided.
[0088]
In the first and second embodiments, the CPU 5 uses a dazzling area as a field of view that is difficult to visually recognize by the driver that is the target of image cropping and superimposition and synthesis processing, and is visible to the dazzling area on the first landscape image. The processing of extracting the image of the corresponding region from the second landscape image other than light and superimposing it on the dazzling region of the first landscape image is performed. The CPU 50 of this third embodiment extracts and superimposes the image. Low visibility as a field of view that is difficult for the driver to view (a high-luminance environment in which the driver is dazzled with visible light, or a low-luminance, low-contrast environment in which the driver cannot distinguish surrounding scenes from pedestrians) The area where the pedestrian is detected is determined on the second landscape image other than visible light by using the area where the pedestrian is detected. That cut out images of a predetermined area, and performs a process of superimposing the synthesis into the corresponding sites of the first scenic image by visible light.
[0089]
Hereinafter, the image processing executed by the CPU 50 will be described with reference to the flowchart of FIG. 10 and the explanatory diagrams of FIGS. If the display processing apparatus is started by turning on the power, the visible light camera 1, the infrared camera 3, and the display monitor 7 are activated. The visible light camera 1 shoots a first landscape image as shown in FIG. 13A with visible light having a set field of view and angle of view, and sequentially stores it in the visible light image frame memory 2 frame by frame. Go. At the same time, the infrared camera 3 also captures a second landscape image as shown in FIG. 13B using infrared rays having a set field of view and angle of view and sequentially stores them in the infrared image frame memory 4 frame by frame.
[0090]
Then, the CPU 50 fetches the second landscape image by infrared shown in FIG. 13B from the infrared image frame memory 4 (step S21), and the first scenery by visible light shown in FIG. 13A from the visible light image frame memory 2. A landscape image is captured (step S22).
[0091]
Subsequently, the presence or absence of a pedestrian is determined from the second landscape image using infrared rays (step S23). The detection of the pedestrian is based on the presence of an image of the head that easily emits infrared rays. That is, the existence of a part satisfying conditions such as the position of the center of gravity, the aspect ratio, the sufficiency rate, and the actual area is examined from the second landscape image by infrared rays. Specifically, the method disclosed in JP 09-128548 A is adopted. As a result, the position of the pedestrian is obtained as a ratio to the width and height of the entire screen on the two-dimensional coordinates on the screen. Here, in the actual display processing, an infrared image or a visible light image is displayed on the display monitor 7 and is not processed on the display screen. In practice, the CPU 50 converts the image frame data of the infrared image frame memory 4 into image frame data. Run against.
[0092]
If the presence of a pedestrian is detected in this way, then, as shown in FIG. 13C, a predetermined area including the pedestrian image is determined as a cut-out area (step S24). The cutout area for the second landscape image by infrared rays is determined as follows.
[0093]
Referring to FIG. 11, the actual distance fe from the center of the horizontal angle of view of the image to the head of the pedestrian and the height eb of the pedestrian on the screen are the camera installation height Hcam, the depression angle θ, and the height of the pedestrian. There is a relationship represented by the following equations 1 to 3 between Hped and the horizontal distance L from the camera.
[0094]
[Expression 1]
Figure 0003968867
[Expression 2]
Figure 0003968867
[Equation 3]
Figure 0003968867
Here, when the average height of an adult is applied as a representative value as the pedestrian's height Hped, the above-described relational expression between fe and eb can be obtained. On the other hand, referring to FIG. 12, a value corresponding to fe can be obtained on the screen based on the detection position of the head of the pedestrian on the second landscape image 31 by infrared rays. Thereby, the value of eb according to L can be obtained.
[0095]
Based on the position corresponding to the head of the pedestrian thus obtained (= e) and the size of the area in the height direction (= eb), a figure including the pedestrian is applied on the screen, and the cutout area 32 is applied. It is.
[0096]
In this embodiment, a figure including a pedestrian includes (a) the position of the upper side as the vertical coordinate e, (b) the horizontal center line as the horizontal coordinate, and (c) the size in the vertical direction. eb, and (d) a rectangle whose horizontal size is eb / 2 is used.
[0097]
Next, the cutout region 32 determined from the second landscape image by infrared rays is cut out and superimposed on the first landscape image by the visible light of the cutout region 32 (step S25). In this area extraction process, the infrared image is scanned for each pixel, and it is checked whether or not the coordinates of the pixel are included in the extraction area 32 determined in step S24. The process of copying the pixels to be copied onto the corresponding pixels of the first landscape image by visible light is repeated for the entire screen.
[0098]
The CPU 50 once writes the superimposed composite image that has undergone the above-described superimposition composite processing to the superimposed image frame memory 6 and displays it on the display monitor 7 (step S26). The superimposed composite image finally displayed on the display monitor 7 is as shown in FIG. In this superimposing and combining process, the image of the cutout region 32 cut out from the infrared image is made opaque so that the first landscape image on the back cannot be seen through. As a result, the image of the pedestrian becomes clear.
[0099]
In the third embodiment, the visible light camera 1 and the infrared camera 3 are both moving image capturing cameras, and the first and second landscape images are moving images. Therefore, the processes in steps S21 to S26 described above are performed on an image frame. The superimposed composite image is displayed as a moving image on the display monitor 7 by repeating each time.
[0100]
Thus, according to the display processing apparatus of the third embodiment, it is dazzled by a high-intensity light source such as a headlight of an oncoming vehicle, or is difficult or invisible to the naked eye of the driver due to a low-intensity and low-contrast environment. A pedestrian present at the position can be easily found on the composite image displayed on the display monitor 7.
[0101]
In addition, when a pedestrian is detected, only an image of a limited area including the pedestrian is cut out from the second landscape image other than visible light such as infrared rays, and the first landscape image corresponding to the visible light corresponds. Since it is superimposed on the part and displayed, most of the displayed image matches the scenery that the driver sees with the naked eye, and only the part where the pedestrian is present is emphasized. It is easy to collate the positional relationship with the display screen.
[0102]
Depending on the size of the pedestrian on the image, that is, depending on whether the pedestrian is located far away or close to the vehicle, the cutout area also changes widely, and on the display screen of the display monitor 7 If the pedestrian's image is far away, it will be displayed as small, and if it is close, it will be displayed large, and it will be easy to grasp how far away it is in light of the actual scenery that can be visually recognized by the driver's naked eye.
[0103]
In addition, in order to determine a region equivalent to the pedestrian's body on the image as the cutout region, the position of the pedestrian in the vertical direction on the infrared image, the installation height of the camera, the depression angle in the shooting direction, Since it is obtained from the height of the pedestrian, no distance measuring means other than the photographing means is required, and the apparatus configuration can be simplified.
[0104]
In the third embodiment, a rectangular region including a pedestrian is used as the cutout region. However, the present invention is not limited to this, and the elliptical region includes the pedestrian's head as a vertex and substantially the entire pedestrian. Can be an area.
[0105]
When a target is a pedestrian present at a relatively short distance, the size corresponding to the head is examined, and the ratio between the head and the whole body, that is, the value of α: β in FIG. The cutout region can be determined by simply determining the size eb of the region 32 in the height direction.
[0106]
Next, a display processing apparatus according to a fourth embodiment of the present invention will be described with reference to FIGS. A feature of the fourth embodiment is that when the CPU 50 detects the presence of a pedestrian and determines a predetermined area including the pedestrian as a cut-out area, the cut-out image from the second landscape image is subjected to black-and-white reversal processing. Then, it is superimposed on the first landscape image by visible light.
[0107]
The functional configuration of the display processing apparatus according to the fourth embodiment is the same as that shown in FIG. 9 as in the third embodiment. The processing executed by the CPU 50 is as shown in the flowchart of FIG.
[0108]
That is, similar to the flowchart of the third embodiment shown in FIG. 10, the second landscape image by infrared is taken from the infrared image frame memory 4 (step S21), and the second landscape image by visible light is taken from the visible light image frame memory 2. One landscape image is captured (step S22). Subsequently, the presence or absence of a pedestrian is determined from the second landscape image using infrared rays (step S23), and a predetermined area including the pedestrian image is determined as a cut-out area (step S24).
[0109]
Next, the cut-out area determined from the second landscape image by infrared rays is cut out, and further the black-and-white reversal process is performed, and the image after black-and-white reversal is superimposed and synthesized on the corresponding part of the first landscape image by visible light (step) S25 '). In the image cropping, black-and-white reversal, and superimposition processing in step S25 ′, the infrared second landscape image is scanned two-dimensionally pixel by pixel, and the coordinates of the pixels are included in the cropping region determined in step S24. Check if it is. If it is included, the inversion processing of the brightness is performed on the corresponding pixel of the infrared image as shown in FIG. 16, and this is copied onto the pixel of the corresponding coordinate of the first landscape image by visible light. Repeat the process for all screens.
[0110]
The CPU 50 once writes the superimposed composite image that has undergone the above-described superimposition composite processing in the superimposed image frame memory 6 and displays it on the display monitor 7 (step S26). The superimposed composite image finally displayed on the display monitor 7 is as shown in FIG.
[0111]
Also in the fourth embodiment, the visible light camera 1 and the infrared camera 3 are both moving image capturing cameras, and the first and second landscape images are moving images. Therefore, the processing in the above steps S21 to S26 is performed on an image frame. The superimposed composite image is displayed as a moving image on the display monitor 7 by repeating each time.
[0112]
Thus, according to the display processing apparatus of the fourth embodiment, the same effects as those of the third embodiment can be obtained. Further, the pedestrian image in the second landscape image by infrared rays is reversed in black and white to be visible. Since it is superimposed and synthesized on the corresponding part of the first landscape image by light, it is possible to reduce the uncomfortable feeling that a pedestrian who does not emit light by himself / herself appears brighter than the surroundings on the infrared image.
[0113]
In the fourth embodiment, the rectangular area including the pedestrian is used as the cutout area. However, the present invention is not limited to this, and includes the pedestrian's head as a vertex and almost the entire pedestrian. It can be a circular area. When a target is a pedestrian present at a relatively short distance, the size corresponding to the head is examined, and the ratio between the head and the whole body, that is, the value of α: β in FIG. The cutout area can be determined by simply determining the size of the area 32 in the height direction.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a functional configuration of a first embodiment of the present invention.
FIG. 2 is a flowchart of superimposed image display processing according to the embodiment.
FIG. 3 is a flowchart of high-intensity region enlargement processing according to the embodiment.
FIG. 4 is an explanatory diagram of image processing according to the embodiment.
FIG. 5 is an explanatory diagram of a display image according to the above embodiment.
FIG. 6 is an explanatory diagram of enlargement processing of a high luminance area according to the above embodiment.
FIG. 7 is a block diagram showing a functional configuration of a second embodiment of the present invention.
FIG. 8 is a flowchart of superimposed image display processing according to the embodiment.
FIG. 9 is a block diagram showing a functional configuration of a third embodiment of the present invention.
FIG. 10 is a flowchart of superimposed image display processing according to the embodiment.
FIG. 11 is an explanatory diagram of a calculation process for determining a pedestrian cutout area according to the embodiment.
FIG. 12 is an explanatory diagram of a calculation process for determining a pedestrian cutout region according to the embodiment.
FIG. 13 is an explanatory diagram of image processing according to the embodiment.
FIG. 14 is an explanatory diagram of a display image according to the above embodiment.
FIG. 15 is a flowchart of superimposed image display processing according to the fourth embodiment of the present invention;
FIG. 16 is an explanatory diagram of black and white reversal processing of a cutout area according to the above embodiment.
FIG. 17 is an explanatory diagram of a display image according to the above embodiment.
[Explanation of symbols]
1 Visible light camera
2 Visible light image frame memory
3 Infrared camera
4 Infrared image frame memory
5 CPU
6 Superimposed image frame memory
7 Display monitor
8 Monitor brightness setting switch
9 Headlight operation switch
20 High brightness area
21 Superimposition area
22 Overlapping area
31 Second landscape image
32 Cutout area

Claims (19)

可視光による第1の風景画像を得る第1の撮影手段と、First photographing means for obtaining a first landscape image by visible light;
前記可視光以外の光線又は電磁波による第2の風景画像を得る第2の撮影手段と、Second photographing means for obtaining a second landscape image by light rays or electromagnetic waves other than the visible light;
ドライバにとって視認困難な視界部位に該当する前記第1の風景画像上の部位を合成領域として決定する領域決定手段と、A region determining means for determining a portion on the first landscape image corresponding to a field of view difficult for the driver to visually recognize as a composite region;
前記第2の風景画像から前記合成領域に該当する部位を切出し、前記第1の風景画像の対応する部位に合成して合成画像を得る画像合成手段と、Image synthesizing means for cutting out a portion corresponding to the synthesis region from the second landscape image and synthesizing the corresponding portion of the first landscape image to obtain a synthesized image;
前記合成画像を表示する表示手段とを備えて成る表示処理装置。A display processing device comprising display means for displaying the composite image.
前記領域決定手段は、高輝度の光源により眩惑を起こす視界部位を前記ドライバにとって視認困難な視界部位と決定することを特徴とする請求項1に記載の表示処理装置。The display processing apparatus according to claim 1, wherein the area determination unit determines a visual field part that is dazzled by a high-luminance light source as a visual field part that is difficult for the driver to visually recognize. 前記領域決定手段は、低照度環境で対象物の写っている視界部位を前記ドライバにとって視認困難な視界部位と決定することを特徴とする請求項1に記載の表示処理装置。The display processing apparatus according to claim 1, wherein the area determination unit determines a field of view where an object is captured in a low illumination environment as a field of view that is difficult for the driver to visually recognize. 可視光による第1の風景画像を得る第1の撮影手段と、First photographing means for obtaining a first landscape image by visible light;
前記可視光以外の光線又は電磁波による第2の風景画像を得る第2の撮影手段と、Second photographing means for obtaining a second landscape image by light rays or electromagnetic waves other than the visible light;
前記第1の風景画像上の所定の輝度閾値を上回る部位を合成領域として決定する領域決定手段と、Region determining means for determining a region on the first landscape image that exceeds a predetermined luminance threshold as a composite region;
前記第2の風景画像から前記合成領域に該当する部位を切出し、前記第1の風景画像の対応する部位に合成して合成画像を得る画像合成手段と、Image synthesizing means for cutting out a portion corresponding to the synthesis region from the second landscape image and synthesizing the corresponding portion of the first landscape image to obtain a synthesized image;
前記合成画像を表示する表示手段とを備えて成る表示処理装置。A display processing device comprising display means for displaying the composite image.
前記領域決定手段は、前記第1の風景画像上の前記所定の輝度閾値を上回る部位に対して、縦横に所定率だけ拡大した領域を合成領域として決定することを特徴とする請求項4に記載の表示処理装置。The area determination unit determines an area enlarged vertically and horizontally by a predetermined ratio as a composite area with respect to a portion exceeding the predetermined luminance threshold on the first landscape image. Display processing device. 前記表示手段の画面輝度を可変設定する画面輝度設定手段と、Screen brightness setting means for variably setting the screen brightness of the display means;
前記領域決定手段の用いる前記所定の輝度閾値を、前記画面輝度設定手段の設定した画面輝度に対応して可変設定する輝度閾値設定手段とを備えて成る請求項4又は5に記載の表示処理装置。The display processing apparatus according to claim 4, further comprising: a luminance threshold setting unit that variably sets the predetermined luminance threshold used by the region determining unit in accordance with the screen luminance set by the screen luminance setting unit. .
前記輝度閾値設定手段は、前記画面輝度設定手段が前記画面輝度を小さく設定するときには、前記輝度閾値を低く設定することを特徴とする請求項6に記載の表示処理装置。The display processing apparatus according to claim 6, wherein the luminance threshold setting unit sets the luminance threshold low when the screen luminance setting unit sets the screen luminance low. 前記表示手段の画面輝度を可変設定する画面輝度設定手段と、Screen brightness setting means for variably setting the screen brightness of the display means;
前記領域決定手段が用いる前記縦横の領域拡大率を、前記画面輝度設定手段の設定した画面輝度に対応して可変設定する拡大率設定手段とを備えて成る請求項5に記載の表示処理装置。The display processing apparatus according to claim 5, further comprising: an enlargement ratio setting unit that variably sets the vertical and horizontal area enlargement ratio used by the area determination unit in accordance with the screen brightness set by the screen brightness setting unit.
前記拡大率設定手段は、前記画面輝度設定手段が前記画面輝度を小さく設定するときには、前記領域拡大率を大きく設定することを特徴とする請求項8に記載の表示処理装置。9. The display processing apparatus according to claim 8, wherein the enlargement ratio setting means sets the area enlargement ratio large when the screen brightness setting means sets the screen brightness low. 前記領域決定手段の用いる前記所定の輝度閾値を、当該車両の照明灯の点/消灯状態に応じて可変設定する輝度閾値設定手段を備えて成る請求項4又は5に記載の表示処理装置。The display processing apparatus according to claim 4, further comprising a luminance threshold setting unit configured to variably set the predetermined luminance threshold used by the region determining unit according to a lighting / extinguishing state of an illumination lamp of the vehicle. 前記輝度閾値設定手段は、当該車両のヘッドライト点灯時の方が消灯時よりも前記輝度閾値を低く設定することを特徴とする請求項10に記載の表示処理装置。The display processing apparatus according to claim 10, wherein the brightness threshold setting unit sets the brightness threshold lower when the headlight of the vehicle is turned on than when the headlight is turned off. 前記領域決定手段が用いる前記縦横の領域拡大率を、当該車両の照明灯の点/消灯状態に応じて可変設定する拡大率設定手段を備えて成る請求項5に記載の表示処理装置。The display processing apparatus according to claim 5, further comprising an enlargement ratio setting unit configured to variably set the vertical and horizontal area enlargement ratios used by the area determination unit according to the lighting / extinguishing state of the illumination lamp of the vehicle. 前記拡大率設定手段は、当該車両のヘッドライト点灯時の方が消灯時よりも前記領域拡大率を大きく設定することを特徴とする請求項12に記載の表示処理装置。The display processing device according to claim 12, wherein the enlargement ratio setting means sets the area enlargement ratio when the headlight of the vehicle is turned on larger than when the headlight is turned off. 可視光による第1の風景画像を得る第1の撮影手段と、First photographing means for obtaining a first landscape image by visible light;
前記可視光以外の光線又は電磁波による第2の風景画像を得る第2の撮影手段と、Second photographing means for obtaining a second landscape image by light rays or electromagnetic waves other than the visible light;
前記第2の風景画像上で歩行者の存在位置を判別する目標物判別手段と、Target discrimination means for discriminating the position of the pedestrian on the second landscape image;
前記第2の風景画像上で前記歩行者の存在位置を含む部位を切出し、前記第1の風景画像の対応する部位に合成して合成画像を得る画像合成手段と、Image synthesizing means for cutting out a part including the position of the pedestrian on the second landscape image and synthesizing it with the corresponding part of the first landscape image;
前記合成画像を表示する表示手段とを備えて成る表示処理装置。A display processing device comprising display means for displaying the composite image.
前記画像合成手段は、前記歩行者の存在位置を含む部位として、前記歩行者の身体を包含するのと同程度の領域を切出すことを特徴とする請求項14に記載の表示処理装置。The display processing apparatus according to claim 14, wherein the image synthesizing unit cuts out a region having the same extent as that including the body of the pedestrian as a part including the position where the pedestrian is present. 前記画像合成手段は、前記歩行者の存在位置を含む部位として、前記歩行者までの距離が遠方になるほど、前記領域の大きさを小さく切出すことを特徴とする請求項15に記載の表示処理装置。The display processing according to claim 15, wherein the image synthesizing unit cuts out the size of the region smaller as the distance to the pedestrian becomes farther as a part including the position where the pedestrian is present. apparatus. 前記画像合成手段は、前記前記歩行者の存在位置を含む部位として、画面上縦方向の歩行者の存在位置、前記第2の撮影手段の設置高、撮影方向の俯角、歩行者の身長から前記領域の大きさを決定して切り出すことを特徴とする請求項15に記載の表示処理装置。The image synthesizing means includes the position of the pedestrian in the vertical direction on the screen, the height of the second photographing means, the depression angle in the photographing direction, and the height of the pedestrian as a part including the position of the pedestrian. The display processing apparatus according to claim 15, wherein the size of the area is determined and cut out. 前記画像合成手段は、前記第2の風景画像上の前記歩行者の存在位置を含む部位を切出して白黒反転させ、前記第1の風景画像の対応する部位に合成して合成画像を得ることを特徴とする請求項14〜17のいずれかに記載の表示処理装置。The image synthesizing means cuts out a part including the position of the pedestrian on the second landscape image, inverts it in black and white, and synthesizes it with a corresponding part of the first landscape image to obtain a composite image. The display processing device according to claim 14, wherein the display processing device is a display processing device. 前記第2の撮影手段が赤外線撮影手段であることを特徴とする請求項1〜18のいずれかに記載の表示処理装置。The display processing apparatus according to claim 1, wherein the second imaging unit is an infrared imaging unit.
JP11557298A 1998-04-24 1998-04-24 Display processing device Expired - Fee Related JP3968867B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11557298A JP3968867B2 (en) 1998-04-24 1998-04-24 Display processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11557298A JP3968867B2 (en) 1998-04-24 1998-04-24 Display processing device

Publications (2)

Publication Number Publication Date
JPH11308609A JPH11308609A (en) 1999-11-05
JP3968867B2 true JP3968867B2 (en) 2007-08-29

Family

ID=14665895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11557298A Expired - Fee Related JP3968867B2 (en) 1998-04-24 1998-04-24 Display processing device

Country Status (1)

Country Link
JP (1) JP3968867B2 (en)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4647648B2 (en) * 2002-01-18 2011-03-09 本田技研工業株式会社 Vehicle periphery monitoring device
DE10348109A1 (en) * 2003-10-16 2005-05-19 Bayerische Motoren Werke Ag Method and device for visualizing a vehicle environment
JP2005184523A (en) * 2003-12-19 2005-07-07 Matsushita Electric Ind Co Ltd On-vehicle monitoring camera apparatus
JP4782491B2 (en) * 2005-07-01 2011-09-28 株式会社豊田中央研究所 Imaging device
JP4932293B2 (en) * 2006-03-23 2012-05-16 本田技研工業株式会社 Obstacle recognition device
JP4975379B2 (en) * 2006-06-16 2012-07-11 本田技研工業株式会社 Vehicle perimeter monitoring system
JP4872829B2 (en) * 2007-06-28 2012-02-08 ソニー株式会社 Imaging device
JP4853437B2 (en) * 2007-09-18 2012-01-11 株式会社デンソー Vehicle perimeter monitoring system
JP5291524B2 (en) * 2009-04-24 2013-09-18 本田技研工業株式会社 Vehicle periphery monitoring device
JP5548002B2 (en) 2010-03-25 2014-07-16 富士通テン株式会社 Image generation apparatus, image display system, and image generation method
JP5592138B2 (en) * 2010-03-31 2014-09-17 富士通テン株式会社 Image generation apparatus, image display system, and image generation method
JP2011227657A (en) * 2010-04-19 2011-11-10 Honda Motor Co Ltd Device for monitoring periphery of vehicle
US9200895B2 (en) 2010-11-16 2015-12-01 Konica Minolta, Inc. Image input device and image processing device
JP5650578B2 (en) * 2010-12-24 2015-01-07 株式会社アイフェイズ Data image recording apparatus, thermal analysis apparatus, data image recording method, image data normalization method, thermophysical quantity calculation method, and recorded image display method
JP5867846B2 (en) * 2011-04-20 2016-02-24 国立研究開発法人宇宙航空研究開発機構 Infrared image visibility improving method and apparatus having the function
JP6021012B2 (en) * 2013-06-07 2016-11-02 株式会社デンソー Vehicle alert device
KR101470198B1 (en) * 2013-07-29 2014-12-05 현대자동차주식회사 Apparatus and method for combining image
JP2015056674A (en) * 2013-09-10 2015-03-23 和浩 山本 Camera
JP6168024B2 (en) * 2014-10-09 2017-07-26 株式会社Jvcケンウッド Captured image display device, captured image display method, and captured image display program
JP6311826B2 (en) * 2017-06-15 2018-04-18 株式会社Jvcケンウッド Captured image display device, captured image display method, and captured image display program
JP6327388B2 (en) * 2017-06-15 2018-05-23 株式会社Jvcケンウッド Captured image display device, captured image display method, and captured image display program
JP2018085734A (en) * 2017-12-11 2018-05-31 和浩 山本 camera
CN109987025B (en) * 2018-01-03 2023-02-21 奥迪股份公司 Vehicle driving assistance system and method for night environment
JP6903287B1 (en) * 2020-12-25 2021-07-14 雄三 安形 Vehicles without wipers

Also Published As

Publication number Publication date
JPH11308609A (en) 1999-11-05

Similar Documents

Publication Publication Date Title
JP3968867B2 (en) Display processing device
JP5459154B2 (en) Vehicle surrounding image display apparatus and method
US20090102858A1 (en) Virtual spotlight for distinguishing objects of interest in image data
JP2007288657A (en) Display apparatus for vehicle, and display method of the display apparatus for vehicle
US7280704B2 (en) Wide-band image enhancement
EP1558026A2 (en) On-vehicle night vision camera system, display device and display method
JPH11328364A (en) Area estimating device and display processor
JP2007087337A (en) Vehicle peripheral information display device
WO2014130049A1 (en) Systems and methods for augmented rear-view displays
JP2017034615A (en) Display device for vehicle and display method
JP2003259363A (en) Night vision apparatus
JP2007180720A (en) Vehicle drive support apparatus
JP4927647B2 (en) Vehicle periphery monitoring device
JP4779780B2 (en) Image display device
JP2012027773A (en) Pseudo grayscale image generation device and program
JP4552636B2 (en) Driver monitor system and processing method thereof
JP2004254044A (en) Driving supporting method, display system and notification system
JPH0948282A (en) Indirect visual confirmation device for vehicle
JP6168024B2 (en) Captured image display device, captured image display method, and captured image display program
JPH11146389A (en) Display
CN115668909A (en) Display control device, vehicle, and display control method
JP6327388B2 (en) Captured image display device, captured image display method, and captured image display program
JP2005178508A (en) Peripheral information display device
JP2004350228A (en) Nighttime rear visual field support system for vehicle
JP5617678B2 (en) Vehicle display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070528

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110615

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees