JP2018106239A - 画像処理装置、画像処理方法、及び画像処理プログラム - Google Patents
画像処理装置、画像処理方法、及び画像処理プログラム Download PDFInfo
- Publication number
- JP2018106239A JP2018106239A JP2016249181A JP2016249181A JP2018106239A JP 2018106239 A JP2018106239 A JP 2018106239A JP 2016249181 A JP2016249181 A JP 2016249181A JP 2016249181 A JP2016249181 A JP 2016249181A JP 2018106239 A JP2018106239 A JP 2018106239A
- Authority
- JP
- Japan
- Prior art keywords
- image
- visible light
- alert
- light image
- imaging device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】車両前方にオブジェクトが検出された場合において、安全性と快適性を両立する。【解決手段】領域切出部15及び画像合成部16は、可視光撮像装置2から入力される可視光画像内に、所定比率以上の飽和画素を含む飽和画素領域が含まれる場合、赤外線撮像装置3から入力される赤外線画像から、飽和画素領域に対応する領域画像を切り出して可視光画像と合成し、合成画像を生成する。オブジェクト検出部17は、可視光画像または合成画像内に所定のオブジェクトが含まれるか否か探索する。アラート出力部18は、可視光画像または合成画像内においてオブジェクトが検出された場合、アラートを出力する。アラート出力部18は、可視光画像または合成画像内における、車両が走行する領域である走行車線領域と、オブジェクトとの位置関係に応じてアラートレベルを変える。【選択図】図2
Description
本発明は、車両前方のオブジェクトを検出するための、画像処理装置、画像処理方法、及び画像処理プログラムに関する。
近年、車載カメラが設置された車両が増えている。車載カメラにより撮影された画像は、運転記録、運転支援、自動運転などの用途に利用される。近年、可視光カメラと赤外線カメラを組み合わせて昼夜を問わず、車両前方の歩行者を検出するシステムが開発されている(例えば、特許文献1参照)。
可視光カメラで撮影された画像の一部(例えば、トンネルの出口付近の領域や、対向車のヘッドライトで照らされている領域)に白飛びが発生することがある。白飛びは、被写体の明暗が大きい場合に発生する現象であり、可視光カメラの撮像素子のダイナミックレンジを超えると発生する。
可視光カメラで撮像された画像の白飛びに対して、白飛び領域に対応する画像を、赤外線カメラで撮影された画像から切り出して、白飛び領域に重畳して合成画像を生成する手法が考えられる(例えば、特許文献1参照)。これにより、可視光画像内に白飛びが発生しても、歩行者や動物等のオブジェクトを検出することができる。
可視光画像内において歩行者等のオブジェクトが検出された場合、アラームを鳴らしたり、アラートランプを点灯させて、運転者に注意喚起することが考えられる。しかしながら、安全に歩道を歩いている歩行者が検出された場合にも、アラームが鳴る等のアラートが出力されると、運転者や同乗者にとって鬱陶しいものとなる。
本発明はこうした状況に鑑みてなされたものであり、その目的は、車両前方にオブジェクトが検出された場合において、安全性と快適性を両立する技術を提供することにある。
上記課題を解決するために、本発明のある態様の画像処理装置(10)は、車両(1)に取り付けられ、当該車両(1)の前方を撮影する可視光撮像装置(2)および赤外線撮像装置(3)からそれぞれ入力される画像を取得する画像取得部(11)と、前記可視光撮像装置(2)から入力される可視光画像内に、所定比率以上の飽和画素を含む飽和画素領域が含まれる場合、前記赤外線撮像装置(3)から入力される赤外線画像から、前記飽和画素領域に対応する領域画像を切り出して前記可視光画像と合成し、合成画像を生成する合成部(15、16)と、前記可視光画像内に前記飽和画素領域が含まれる場合、前記合成画像内に所定のオブジェクトが含まれるか否か探索し、前記可視光画像内に前記飽和画素領域が含まれない場合、前記可視光画像内に所定のオブジェクトが含まれるか否か探索するオブジェクト検出部(17)と、前記可視光画像または前記合成画像内において前記オブジェクトが検出された場合、アラートを出力するアラート出力部(18)と、を備える。前記アラート出力部(18)は、前記可視光画像または前記合成画像内における、前記車両(1)が走行する領域である走行車線領域と、前記オブジェクトとの位置関係に応じてアラートレベルを変える。
本発明の別の態様は、画像処理方法である。この方法は、車両に取り付けられ、当該車両の前方を撮影する可視光撮像装置および赤外線撮像装置からそれぞれ入力される画像を取得するステップと、前記可視光撮像装置から入力される可視光画像内に、所定比率以上の飽和画素を含む飽和画素領域が含まれる場合、前記赤外線撮像装置から入力される赤外線画像から、前記飽和画素領域に対応する領域画像を切り出して前記可視光画像と合成し、合成画像を生成するステップと、前記可視光画像内に前記飽和画素領域が含まれる場合、前記合成画像内に所定のオブジェクトが含まれるか否か探索し、前記可視光画像内に前記飽和画素領域が含まれない場合、前記可視光画像内に所定のオブジェクトが含まれるか否か探索するステップと、前記可視光画像または前記合成画像内において前記オブジェクトが検出された場合、アラートを出力するステップと、を有する。前記アラートを出力するステップは、前記可視光画像または前記合成画像内における、前記車両が走行する領域である走行車線領域と、前記オブジェクトとの位置関係に応じてアラートレベルを変える。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、車両前方にオブジェクトが検出された場合において、安全性と快適性を両立することができる。
図1は、本発明の実施の形態に係る画像処理装置10に出力する画像を撮影する可視光撮像装置2及び赤外線撮像装置3の取付位置の一例を示す図である。一般的に、可視光撮像装置2は車内に、赤外線撮像装置3は車外に設置される。図1に示す例では、可視光撮像装置2はフロントガラス4の内側に取り付けられ、赤外線撮像装置3はフロントグリル内に埋め込まれている。なお、可視光撮像装置2及び赤外線撮像装置3は、車両1の前方を画角に収めることができる位置に設置されればよく、その設置位置は限定されない。
図2は、本発明の実施の形態に係る画像処理装置10の機能ブロックを示す図である。画像処理装置10は、画像取得部11、前処理部12、走行車線領域特定部13、飽和画素領域検出部14、領域切出部15、画像合成部16及びオブジェクト検出部17を備える。これらの機能ブロックは、ハードウェア資源とソフトウェア資源の協働、またはハードウェア資源のみにより実現できる。ハードウェア資源としてCPU、ROM、RAM、FPGA、その他のLSIを利用できる。ソフトウェア資源としてオペレーティングシステム、アプリケーション等のプログラムを利用できる。
可視光撮像装置2は、固体撮像素子(不図示)及び信号処理回路(不図示)を含む。固体撮像素子は例えば、CMOSイメージセンサ又はCCDイメージセンサで構成され、入射光を電気的な画像信号に変換する。信号処理回路は、固体撮像素子から出力される画像信号に対して、A/D変換、ノイズ除去などの信号処理を施し、画像処理装置10に出力する。
赤外線撮像装置3は、赤外線撮像素子(不図示)及び信号処理回路(不図示)を含む。本実施の形態では、赤外線撮像素子として遠赤外線(FIR)センサを用いる例を想定する。遠赤外線センサは、熱源となる物体や生物が発する遠赤外線を検出して、電気的な画像信号に変換する。信号処理回路は、赤外線撮像素子から出力される画像信号に対して、A/D変換、ノイズ除去などの信号処理を施し、画像処理装置10に出力する。
画像取得部11は、可視光撮像装置2から入力される可視光画像、及び赤外線撮像装置3から入力される赤外線画像をそれぞれ取得し、前処理部12に出力する。
前処理部12は、可視光画像の情報量を圧縮する処理、及びノイズを除去する処理を実行する。情報量の圧縮処理として例えば、カラー(256色)の可視光画像を、モノクロ(2値)又はグレースケールの画像に変換する。また、可視光画像の画素を間引いて画像サイズを縮小する。例えば、640×480ピクセルの画像を320×240ピクセルの画像に縮小する。
同様に前処理部12は、赤外線画像の情報量を圧縮する処理、及びノイズを除去する処理を実行する。また前処理部12は、赤外線撮像装置3と可視光撮像装置2の取付位置の違い等による両者の画角の違いを補正するため、赤外線画像と可視光画像の位置合わせ処理を実行する。前処理部12は、前処理済みの可視光画像を、飽和画素領域検出部14及び走行車線領域特定部13に出力し、前処理済みの赤外線画像を領域切出部15に出力する。
飽和画素領域検出部14は、可視光画像内に、所定比率以上の飽和画素を含む領域を飽和画素領域(白飛び領域ともいう)として検出する。飽和画素は、撮像素子の出力が最大に張り付いている画素である。飽和画素領域検出部14は例えば、任意のサイズの矩形領域において、当該矩形領域内の全画素に占める飽和画素の比率が所定比率(80〜95%)以上の場合、当該矩形領域を飽和画素領域として検出する。
撮像素子にはダイナミックレンジが存在し、入射光がダイナミックレンジの最大値以上の画素は白とび画素になり、入射光がダイナミックレンジの最小値以下の画素は黒潰れ画素となる。撮像素子のダイナミックレンジは人間の目のダイナミックレンジより狭いため、人間の目では識別できる明暗を、撮像素子が識別できない場合が発生し得る。
白飛びは、撮像素子の露出時間を短くすることにより補正することができるが、車載カメラではユーザがマニュアルで露出を調整することができない。従って、カメラが被写体の明るさに応じて露出を自動調整することになるが、最適な調整とならない場合が発生する。また明暗が非常に大きい被写体の場合、撮像素子のダイナミックレンジに収まらない場合があり、その場合は白飛び又は黒潰れが必ず発生する。
飽和画素領域検出部14は、可視光画像内に飽和画素領域が含まれる場合、その飽和画素領域の位置情報を領域切出部15に出力し、可視光画像を画像合成部16及びオブジェクト検出部17に出力する。飽和画素領域検出部14は、可視光画像内に飽和画素領域が含まれない場合、可視光画像をオブジェクト検出部17に出力する。
走行車線領域特定部13は、可視光画像内において、自車両が走行する車線の領域(以下、走行車線領域という)を特定する。走行車線領域の特定は、白線等の検出をもとに行う。二車線道路の場合、車道外側線と車道中央線の間の領域が走行車線領域となる。四車線道路の場合、車道外側線と車線境界線の間、又は車線境界線と車道中央線の間の領域が走行車線領域となる。
走行車線領域特定部13は例えば、2値化された可視光画像をHough変換して、可視光画像内の直線成分を検出する。走行車線領域特定部13は、可視光画像内で検出された複数の直線の内、可視光撮像装置2の設置位置および画角を考慮して、自車の走行車線領域を構成する2本の直線を特定する。なお、走行車線領域を構成する2本の直線上に飽和画素領域が発生している場合、走行車線領域特定部13は当該2本の直線を外挿または内挿して、飽和画素領域によって覆われた2本の直線を仮想的に復元する。走行車線領域特定部13は、特定した走行車線領域の位置情報をオブジェクト検出部17に出力する。
領域切出部15は赤外線画像から、上記飽和画素領域に対応する領域画像を切り出して画像合成部16に出力する。画像合成部16は可視光画像に、領域切出部15から入力される領域画像を重畳して合成画像を生成する。画像合成部16は生成した合成画像を前処理部12に出力する。前処理部12は合成画像に対して、2値化、ノイズ除去等の前処理を実行して、前処理済みの合成画像をオブジェクト検出部17に出力する。
オブジェクト検出部17は、可視光画像内に飽和画素領域が含まれない場合、可視光画像内に所定のオブジェクトが含まれるか否か探索する。可視光画像内に飽和画素領域が含まれる場合、合成画像内に所定のオブジェクトが含まれるか否か探索する。本実施の形態では所定のオブジェクトとして人物を想定する。
オブジェクト検出部17には、多数の人物画像を機械学習して生成された人物の識別器が予め登録されている。オブジェクト検出部17は、可視光画像または合成画像内の特徴量を算出する。当該特徴量として例えば、Haar-like特徴量、HOG(Histogram of Gradients)特徴量、LBP(Local Binary Patterns)特徴量などを使用することができる。オブジェクト検出部17は、人物の識別器を用いて可視光画像または合成画像内を探索し、人物を検出する。
オブジェクト検出部17は、検出した人物の特徴点を抽出し、当該特徴点のオプティカルフローを使用して人物の動きを追従する。当該特徴点として例えば、Harrisのコーナー検出アルゴリズムにより検出されるコーナーを使用することができる。オプティカルフローは、抽出された特徴点の動きを表す動きベクトルであり、例えば、勾配法、Lucas-Kanade法を用いて算出することができる。
オブジェクト検出部17は、可視光画像または合成画像内において人物が検出された場合、人物の検出情報をアラート出力部18に出力する。その際、当該検出情報に検出した人物と走行車線領域との位置関係情報を含める。位置関係には3パターンあり、(1)人物が走行車線領域内に含まれる、(2)人物が走行車線領域内に含まれないが、走行車線領域に近づいている、(3)人物が走行車線領域内に含まれず、走行車線領域にも近づいていない、のいずれのパターンであるかが検出情報に含まれる。第3パターンには、人物が静止している場合、人物が走行車線領域から遠ざかっている場合、人物が走行車線領域と平行に移動している場合が含まれる。
アラート出力部18は、オブジェクト検出部17から入力される検出情報に応じてアラート信号を生成し、ユーザインタフェース5に出力する。その際、検出情報に含まれる位置関係のパターンに応じてアラートレベルを変える。第1パターンがアラートレベルが最も高く、第2パターンが次に高く、第3パターンが最も低くなる。なお第1パターンと第2パターンのアラートレベルを等価なものとして扱ってもよい。
ユーザインタフェース5は、車両前方周辺に人物が存在することを運転者に通知するためのインタフェースである。ユーザインタフェース5は表示部51及び音声出力部52を含む。表示部51は、アイコンやインジケータを表示可能なものであればよく、LED等のランプであってもよいし、液晶ディスプレイや有機ELディスプレイ等のモニタであってもよい。音声出力部32はスピーカを備える。
例えば、LEDランプはアラートレベル1で赤色で点灯し、アラートレベル2でオレンジ色で点灯し、アラートレベル3で緑色で点灯する。なおアラートレベル3では非点灯であってもよい。例えば、スピーカはアラートレベルが高いほど、アラート音または音声メッセージの音量が大きくなる。なおアラートレベル3では音声出力なしでもよい。また、アラートレベル1で警告表示と音声出力の併用、アラートレベル2で警告表示のみ、アラートレベル3で警告表示および音声出力なし、としてもよい。
図3は、本発明の実施の形態に係る画像処理装置10の動作の流れを示すフローチャートである。画像取得部11は、赤外線撮像装置3から赤外線画像を取得する(S10)。例えば、30Hzのフレームレートで撮像されている場合、毎秒30枚のフレーム画像を取得する。前処理部12は、取得された赤外線画像に対して所定の前処理を実行し、可視光画像との位置合わせをするための補正を実行する(S11)。
画像取得部11は、可視光撮像装置2から可視光画像を取得する(S12)。例えば、30Hzのフレームレートで撮像されている場合、毎秒30枚のフレーム画像を取得する。前処理部12は、取得された可視光画像に対して所定の前処理を実行する(S13)。
飽和画素領域検出部14は、可視光画像内に飽和画素領域が含まれるか否か探索する(S14)。飽和画素領域が含まれる場合(S14のY)、領域切出部15は赤外線画像から、当該飽和画素領域に対応する領域画像を切り出す(S15)。画像合成部16は、切り出された領域画像を可視光画像に重畳して合成画像を生成する(S16)。前処理部12は、生成された合成画像に対して所定の前処理を実行する(S17)。ステップS14において、可視光画像内に飽和画素領域が含まれない場合(S14のN)、ステップS15−S17の処理がスキップされる。
オブジェクト検出部17は、可視光画像内に飽和画素領域が含まれない場合、可視光画像内に所定のオブジェクトが含まれるか否か探索する。可視光画像内に飽和画素領域が含まれる場合、合成画像内に所定のオブジェクトが含まれるか否か探索する(S18)。可視光画像または合成画像内にオブジェクトが含まれる場合(S18のY)、走行車線領域特定部13は、可視光画像内において走行車線領域を特定する(S19)。
オブジェクトが走行車線領域内で検出された場合(S20のY)、アラート出力部18はユーザインタフェース5にアラート信号を出力し、ユーザインタフェース5から運転者に向けてアラートが報知される(S22)。オブジェクトが走行車線領域外で検出された場合であって(S20のN)、オブジェクトが走行車線領域に接近中の場合(S21のY)、アラート出力部18はユーザインタフェース5にアラート信号を出力し、ユーザインタフェース5から運転者に向けてアラートが報知される(S22)。
ステップS18において、可視光画像または合成画像内にオブジェクトが含まれない場合(S18のN)、ステップS19−S22の処理がスキップされる。ステップS21において、オブジェクトが走行車線領域に接近中でない場合(S21のN)、アラートが出力されない。
図4(a)、(b)は、白飛びが発生していない可視光画像V1と、白飛びが発生している可視光画像V2を比較した図である。可視光画像V1、V2は、トンネルの中からトンネルの出口方向を撮影した画像である。可視光画像V1において、第1車道外側線L1、車道中央線L2、及び第2車道外側線L3の3本の直線が検出される。第1車道外側線L1と車道中央線L2の間の領域が、自車両の走行車線領域R1となる。
可視光画像V1では、トンネルの出口付近の走行車線領域R1内に人物O1が存在する。一方、可視光画像V2では、トンネルの出口付近で白飛びW1が発生しており、人物O1が撮像されていない。この場合、本実施の形態では、白飛びW1を包含する矩形領域を飽和画素領域Re1として検出する。
図5(a)、(b)は、赤外線画像I1と、可視光画像V2と赤外線画像I1の合成画像C1を比較した図である。赤外線画像I1では、高輝度エリアで白飛びが発生しないため、トンネルの出口付近の走行車線領域R1内に人物O1が撮像されている。そこで、赤外線画像I1の飽和画素領域Re1を切り出して、白飛びが発生している可視光画像V2の飽和画素領域Re1に重畳し、合成画像C1を生成する。これにより、可視光画像V2内に白飛びW1が発生しても人物O1を検出することができる。
図6(a)、(b)は、ある時刻の合成画像C2と、Δt経過後の合成画像C3を比較した図である。合成画像C2では、人物O1が走行車線領域R1の外で検出されている。合成画像C2に対して、所定のフレーム数、時間的に後の合成画像C3でも、人物O1が走行車線領域R1の外で検出されている。合成画像C3で検出された人物O1の位置は、合成画像C2で検出された人物O1の位置より、飽和画素領域Re1に近づいている。従って、人物O1と自車両が衝突する危険性が相対的に高く、運転者にアラートが報知される。
図7(a)、(b)は、ある時刻の合成画像C4と、Δt経過後の合成画像C5を比較した図である。合成画像C4では、人物O1が走行車線領域R1の外で検出されている。合成画像C4に対して、所定のフレーム数、時間的に後の合成画像C5でも、人物O1が走行車線領域R1の外で検出されている。合成画像C5で検出された人物O1の位置は、合成画像C4で検出された人物O1の位置より、飽和画素領域Re1から離れている。従って、人物O1と自車両が衝突する危険性が相対的に低く、運転者にアラートが報知されない。または軽度なアラートが報知される。
以上説明したように本実施の形態によれば、可視光撮像装置2で撮像された画像内からオブジェクトを検出した場合に、運転者にアラートを報知することにより、安全性を高めることができる。また可視光画像内に白飛びが発生している場合、その領域を赤外線画像から切り出して合成することにより、白飛びが発生している場合でも、画像内からオブジェクトを検出することができる。
また、オブジェクトと走行車線との位置関係をもとにアラートレベルを変えることにより、安全性と快適性を両立させることができる。例えば、検出されたオブジェクトが走行車線外に位置し、走行車線に接近していない場合、アラート音や音声メッセージを出力しないことにより、車室内の静音性を確保することができる。反対に走行車線に接近している場合、アラート音や音声メッセージを出力することにより、安全性を向上させることができる。
以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
上述の実施の形態では、オブジェクトとして歩行者を想定したが、鹿などの動物をオブジェクトに含めてもよい。この場合、各種動物の識別器をそれぞれ生成し、オブジェクト検出部17に登録しておけばよい。またオブジェクトには、動体に限らず、落石などの静止物が含まれてもよい。
また、アラートメッセージ及び/又は検出されたオブジェクトを表すアイコンを、フロントガラス4の所定の位置に、ヘッドアップディスプレイ(HUD)による虚像として表示させてもよい。
1 車両、 2 可視光撮像装置、 3 赤外線撮像装置、 4 フロントガラス、 10 画像処理装置、 11 画像取得部、 12 前処理部、 13 走行車線領域特定部、 14 飽和画素領域検出部、 15 領域切出部、 16 画像合成部、 17 オブジェクト検出部、 18 アラート出力部、 5 ユーザインタフェース、 51 表示部、 52 音声出力部。
Claims (6)
- 車両に取り付けられ、当該車両の前方を撮影する可視光撮像装置および赤外線撮像装置からそれぞれ入力される画像を取得する画像取得部と、
前記可視光撮像装置から入力される可視光画像内に、所定比率以上の飽和画素を含む飽和画素領域が含まれる場合、前記赤外線撮像装置から入力される赤外線画像から、前記飽和画素領域に対応する領域画像を切り出して前記可視光画像と合成し、合成画像を生成する合成部と、
前記可視光画像内に前記飽和画素領域が含まれる場合、前記合成画像内に所定のオブジェクトが含まれるか否か探索し、前記可視光画像内に前記飽和画素領域が含まれない場合、前記可視光画像内に所定のオブジェクトが含まれるか否か探索するオブジェクト検出部と、
前記可視光画像または前記合成画像内において前記オブジェクトが検出された場合、アラートを出力するアラート出力部と、
を備え、
前記アラート出力部は、前記可視光画像または前記合成画像内における、前記車両が走行する領域である走行車線領域と、前記オブジェクトとの位置関係に応じてアラートレベルを変える、
ことを特徴とする画像処理装置。 - 前記アラート出力部は、前記可視光画像または前記合成画像内において、前記走行車線領域の中で前記オブジェクトが検出された場合、第1レベルのアラートを出力する、
ことを特徴とする請求項1に記載の画像処理装置。 - 前記アラート出力部は、前記可視光画像または前記合成画像内において、前記走行車線領域の外で前記オブジェクトが検出された場合であって、前記オブジェクトが前記走行車線領域に接近中の場合、前記第1レベルのアラートまたは前記第1レベルより低い第2レベルのアラートを出力する、
ことを特徴とする請求項2に記載の画像処理装置。 - 前記アラート出力部は、前記可視光画像または前記合成画像内において、前記走行車線領域の外で前記オブジェクトが検出された場合であって、前記オブジェクトが前記走行車線領域に非接近中の場合、前記第2レベルのアラート若しくは前記第2レベルより低い第3レベルのアラートを出力する、またはアラートを出力しない、
ことを特徴とする請求項3に記載の画像処理装置。 - 車両に取り付けられ、当該車両の前方を撮影する可視光撮像装置および赤外線撮像装置からそれぞれ入力される画像を取得するステップと、
前記可視光撮像装置から入力される可視光画像内に、所定比率以上の飽和画素を含む飽和画素領域が含まれる場合、前記赤外線撮像装置から入力される赤外線画像から、前記飽和画素領域に対応する領域画像を切り出して前記可視光画像と合成し、合成画像を生成するステップと、
前記可視光画像内に前記飽和画素領域が含まれる場合、前記合成画像内に所定のオブジェクトが含まれるか否か探索し、前記可視光画像内に前記飽和画素領域が含まれない場合、前記可視光画像内に所定のオブジェクトが含まれるか否か探索するステップと、
前記可視光画像または前記合成画像内において前記オブジェクトが検出された場合、アラートを出力するステップと、
を有し、
前記アラートを出力するステップは、前記可視光画像または前記合成画像内における、前記車両が走行する領域である走行車線領域と、前記オブジェクトとの位置関係に応じてアラートレベルを変える、
ことを特徴とする画像処理方法。 - 車両に取り付けられ、当該車両の前方を撮影する可視光撮像装置および赤外線撮像装置からそれぞれ入力される画像を取得するステップと、
前記可視光撮像装置から入力される可視光画像内に、所定比率以上の飽和画素を含む飽和画素領域が含まれる場合、前記赤外線撮像装置から入力される赤外線画像から、前記飽和画素領域に対応する領域画像を切り出して前記可視光画像と合成し、合成画像を生成するステップと、
前記可視光画像内に前記飽和画素領域が含まれる場合、前記合成画像内に所定のオブジェクトが含まれるか否か探索し、前記可視光画像内に前記飽和画素領域が含まれない場合、前記可視光画像内に所定のオブジェクトが含まれるか否か探索するステップと、
前記可視光画像または前記合成画像内において前記オブジェクトが検出された場合、アラートを出力するステップと、
をコンピュータに実行させ、
前記アラートを出力するステップは、前記可視光画像または前記合成画像内における、前記車両が走行する領域である走行車線領域と、前記オブジェクトとの位置関係に応じてアラートレベルを変える、
ことを特徴とする画像処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016249181A JP2018106239A (ja) | 2016-12-22 | 2016-12-22 | 画像処理装置、画像処理方法、及び画像処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016249181A JP2018106239A (ja) | 2016-12-22 | 2016-12-22 | 画像処理装置、画像処理方法、及び画像処理プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018106239A true JP2018106239A (ja) | 2018-07-05 |
Family
ID=62788055
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016249181A Pending JP2018106239A (ja) | 2016-12-22 | 2016-12-22 | 画像処理装置、画像処理方法、及び画像処理プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018106239A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020159024A1 (ko) * | 2019-02-01 | 2020-08-06 | 엘지전자 주식회사 | 비동일 카메라 기반 영상 처리 장치 |
CN113034915A (zh) * | 2021-03-29 | 2021-06-25 | 北京卓视智通科技有限责任公司 | 一种双光谱交通事件检测方法及装置 |
WO2023243183A1 (ja) * | 2022-06-15 | 2023-12-21 | 日立Astemo株式会社 | 車両制御装置および車両制御システム |
-
2016
- 2016-12-22 JP JP2016249181A patent/JP2018106239A/ja active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020159024A1 (ko) * | 2019-02-01 | 2020-08-06 | 엘지전자 주식회사 | 비동일 카메라 기반 영상 처리 장치 |
KR20200095758A (ko) * | 2019-02-01 | 2020-08-11 | 엘지전자 주식회사 | 비동일 카메라 기반 영상 처리 장치 |
US11589028B2 (en) | 2019-02-01 | 2023-02-21 | Lg Electronics Inc. | Non-same camera based image processing apparatus |
KR102614494B1 (ko) * | 2019-02-01 | 2023-12-15 | 엘지전자 주식회사 | 비동일 카메라 기반 영상 처리 장치 |
CN113034915A (zh) * | 2021-03-29 | 2021-06-25 | 北京卓视智通科技有限责任公司 | 一种双光谱交通事件检测方法及装置 |
CN113034915B (zh) * | 2021-03-29 | 2023-06-20 | 北京卓视智通科技有限责任公司 | 一种双光谱交通事件检测方法及装置 |
WO2023243183A1 (ja) * | 2022-06-15 | 2023-12-21 | 日立Astemo株式会社 | 車両制御装置および車両制御システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10504214B2 (en) | System and method for image presentation by a vehicle driver assist module | |
JP5437855B2 (ja) | 障害物検知装置およびそれを備えた障害物検知システム、並びに障害物検知方法 | |
CN109409186B (zh) | 用于对象检测和通知的驾驶员辅助系统和方法 | |
JP6569385B2 (ja) | 車両検出装置、車両検出システム、車両検出方法、及び車両検出プログラム | |
JP5071198B2 (ja) | 信号機認識装置,信号機認識方法および信号機認識プログラム | |
JPWO2011108218A1 (ja) | 車両の周辺監視装置 | |
JP2011077772A (ja) | 周囲確認支援装置 | |
JP2007288657A (ja) | 車両用表示装置、車両用表示装置の表示方法 | |
US20160264051A1 (en) | Night Driving System and Method | |
JP2012027773A (ja) | 擬似濃淡画像生成装置及びプログラム | |
JP2012032921A (ja) | 障害物検知システム及び方法、障害物検知装置 | |
JP2010044561A (ja) | 乗物搭載用監視装置 | |
JPWO2013047088A1 (ja) | 生体認識装置 | |
JP2018106239A (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
JP4798945B2 (ja) | 撮像装置 | |
CN110536814B (zh) | 摄像机装置及与周围环境相适应地检测车辆周围环境区域的方法 | |
JP2007139564A (ja) | 障害物検出システム、障害物検出方法及びコンピュータプログラム | |
JP2009230530A (ja) | 車両認識装置、車両、及び車両認識用プログラム | |
Turan | A image enhancement method for night-way images | |
JP4615536B2 (ja) | 表示装置 | |
JP6087240B2 (ja) | 車両周辺監視装置 | |
TWI630818B (zh) | Dynamic image feature enhancement method and system | |
CN108259819B (zh) | 动态影像特征加强方法与系统 | |
JPWO2011155152A1 (ja) | 車両の周辺監視装置 | |
JP5383246B2 (ja) | 車両の周辺監視装置 |