以下、図面を参照して、本発明の好適な実施形態について説明する。図1は、本発明の実施形態に係る画像処理装置のブロック構成図である。
図1に示すように、本実施形態における画像処理装置1は、センサ情報取込部11、前左カメラ処理部12、前右カメラ処理部13、後左カメラ処理部14、後右カメラ処理部15、および俯瞰図作成部16を備えている。さらに、画像処理装置1には、カメラ2F,2R,2L,2Bおよび情報出力部3が接続されており、カメラ2F,2R,2L,2Bから出力された画像に基づいて、カメラ2F,2R,2L,2Bの周囲における障害物を検出する。カメラ2F,2R,2L,2Bは、本発明の撮像手段を構成する。
前方カメラ2Fは、図2に示すように、車両Mの前方中央のフロントグリル部分に取り付けられており、車両Mの前方を撮像している。また、右方カメラ2Rは、車両Mの右ドア位置、左方カメラ2Lは車両Mの左ドア、後方カメラ2Bは車両Mのリアトランクカバーにそれぞれ取り付けられて、車両Mの右方、左方、および後方をそれぞれ撮像している。カメラ2F,2R,2L,2Bは、それぞれいわゆる魚眼カメラなどの広視野カメラからなり、それぞれのカメラ2F,2R,2L,2Bで撮像領域EF,ER,EL,EBを撮像可能とされている。カメラ2F,2R,2L,2Bは、それぞれ撮像して得られた画像を画像処理装置1におけるセンサ情報取込部11に出力する。
画像処理装置1におけるセンサ情報取込部11では、カメラ2F,2R,2L,2Bから出力された画像を取り込む。このうちの前方カメラ2Fおよび左方カメラ2Lから出力された前方画像および左方画像を前左カメラ処理部12に出力する。また、前方カメラ2Fおよび右方カメラ2Rから出力された前方画像および右方画像を前右カメラ処理部13に出力する。さらに、後方カメラ2Bおよび左方カメラ2Lから出力された後方画像および左方画像を後左カメラ処理部14に出力する。そして、後方カメラ2Bおよび右方カメラ2Rから出力された前方画像および左方画像を後右カメラ処理部15に出力する。
前左カメラ処理部12は、図3に示すように、正像化・エッジ検出部21、俯瞰図マッピング部22、前方カメラ画像補間部23、左方カメラ画像補間部24、補間値比較部25、立体物領域導出部26、および補間情報採用・格納部27を備えている。正像化・エッジ検出部21は、前方カメラ2Fおよび左方カメラ2Lから出力された前方画像および左方画像を正像化するとともに、両画像から横エッジおよび縦エッジを検出する。正像化・エッジ検出部21は、横エッジおよび縦エッジを検出した前方画像および左方画像を俯瞰図マッピング部22に出力する。
俯瞰図マッピング部22は、正像化・エッジ検出部21から出力された前方画像および左方画像における各画素の輝度情報を俯瞰図にマッピングし、輝度情報をマッピングして得られる合成画像としての俯瞰図を前方カメラ画像補間部23に出力する。また、車両Mに取り付けられた前方カメラ2Fおよび左方カメラ2Lの位置に基づく俯瞰図上の両カメラ2F,2Lの位置が、予め俯瞰図にマッピングされている。前方カメラ画像補間部23では、出力された俯瞰図から前方カメラ2Fで撮像された画像の補間計算を行い、補間計算の結果を俯瞰図とともに左方カメラ画像補間部24に出力する。左方カメラ画像補間部24は、出力された俯瞰図から左方カメラ2Lで撮像された画像の補間計算を行い、前方カメラ2Fの補間計算の結果とともに補間値比較部25に出力する。前方カメラ画像補間部23および左方カメラ画像補間部24は、本発明の補間手段を構成する。また、この補間計算を行うことにより、カメラ2F,2Lで撮像された画像を高解像度画像へと変換する。前方カメラ画像補間部23および左方カメラ画像補間部24は、本発明の解像度変換手段を構成する。
補間値比較部25では、前方カメラ2Fで撮像された画像の補間結果および左方カメラ2Lで撮像された画像の補間結果を比較し、俯瞰図上における障害物候補領域である立体物候補領域を抽出する。補間値比較部25は、抽出した立体物候補領域を立体物領域導出部26に出力する。立体物領域導出部26は、立体物候補領域に基づいて両カメラ2F,2Lのそれぞれの投影方向を検出するとともに、俯瞰図上における立体物候補領域から障害物領域である立体物領域を導出する。立体物領域導出部26は、導出した立体物領域を補間情報採用・格納部27に出力する。補間情報採用・格納部27では、出力された立体物領域を格納するとともに、図1に示す俯瞰図作成部16に出力する。補間値比較部25は、本発明の障害物候補領域抽出手段を構成し、立体物領域導出部26は、本発明の障害物領域抽出手段を構成する。また、立体物領域導出部26は、本発明の投影手段、障害物端部検出手段、および障害物候補領域幅導出手段を構成する。
また、前右カメラ処理部13、後左カメラ処理部14、および後右カメラ処理部15は、前左カメラ処理部12と同様の構成を有しており、それぞれ前方カメラ2Fおよび右方カメラ2R、後方カメラ2Bおよび左方カメラ2L、後方カメラ2Bおよび右方カメラ2Rから出力された画像から立体物領域を導出する。前右カメラ処理部13、後左カメラ処理部14、および後右カメラ処理部15は、導出した立体物領域を俯瞰図作成部16に出力する。
俯瞰図作成部16では、各カメラ処理部12〜15から出力された立体物領域に基づいて、車両Mの四周全域にわたって立体物領域が導出された合成画像としての俯瞰図画像を作成する。俯瞰図作成部16は、作成した俯瞰図画像を情報出力部3に出力する。情報出力部3では、俯瞰図作成部16から出力された俯瞰図画像に基づく情報を出力する。具体的には、ディスプレイに俯瞰図画像として車両の周囲の立体物を表示したり、進行方向に立体物がある場合に警報を発したりする。
本実施形態に係る画像処理装置1では、図2に示すカメラ2F,2R,2L,2Bで撮像した撮像領域FE,ER,EL,EBにおける各画素の輝度情報を俯瞰図にマッピングする。このとき、たとえば前方カメラ2Fの撮像領域EFと左方カメラ2Lの撮像領域ELの重複領域では、図4(a)に示すように、三角印で示す前方カメラ2Fの画素のマッピング位置MFと、丸印で示す左方カメラ2Lの画素のマッピング位置MLとが同じエリアで混在する状態となる。また、図4(b)に示すように、マッピング位置MF,MLのいずれの画素ともならない位置である補間対象位置HPについては、補間対象位置HPを囲む前方画像における4つの画素MF1〜MF4および左方画像における4つの画素ML1〜ML4の輝度に基づいて、補間対象位置HPの輝度およびエッジに関する補間情報を求める。
さらに、たとえば前方カメラ2Fにおける死角となる位置における画素については、図5に示すように、立体または立体の死角となるマッピング位置MF1〜MF4における各画素の輝度は小さく、所定のしきい値以下となる。このように、輝度が所定のしきい値以下となるマッピング位置を立体または立体の死角と判断して、立体物候補領域とする。ここで、図6(a)、(b)にそれぞれ示すように、左方カメラ2Lの画像2LGと前方カメラ2Fの画像2FGとでは重複する領域があり、この重複領域に障害物となる立体Xが写りこむことがある。この場合には、重複部分の俯瞰図を作成すると、図6(c)に示すような俯瞰図FGとなる。この俯瞰図FGから、一方のカメラで撮像した際の死角となる際に、他方のカメラでの撮影結果によってその死角となる位置の状況を把握することができる。
次に、本実施形態に係る画像処理装置の処理手順について説明する。図7は、本実施形態に係る画像処理装置の処理手順を示すフローチャートである。
図7に示すように、本実施形態に係る画像処理装置1においては、センサ情報取込部11において、各カメラ2F,2R,2L,2Bから出力された画像を取得する(S1)。次に、前左カメラ処理部12において、前方カメラ2Fおよび左方カメラ2Lから出力された前方画像および左方画像に基づいて、前左画像処理を行う(S2)。前左画像処理は、図8および図9に示すフローチャートの手順に沿って行われる。
図8に示すように、前左画像処理においては、センサ情報取込部11から出力された前方画像および左方画像は魚眼画像であるので、その魚眼画像を正像化・エッジ検出部21においてそれぞれ正像化し、正像化した画像から縦エッジおよび横エッジを検出する(S11)。ここで、図10(a)に示すように、前方カメラ2Fで撮像した魚眼画像から、前左45度視線方向画像IFL、前0度視線方向画像IF、前右45度視線方向画像IFRが得られる。また、図11(a)に示すように、左方カメラ2Lで撮像した魚眼画像から、左前45度視線方向画像ILF、左0度視線方向画像IL、左後45度視線方向画像ILBが得られる。これらの画像のうち、互いに重複する図10に示す前左45度視線方向画像IFLと図11に示す左前45度視線方向画像ILFとを正像化する。また、他の視線方向画像も同様に正像化する。
続いて、前方画像を正像化して得られた図10(b)に示す前左45度視線方向画像IFLおよび画像を正像化して得られた図11(b)に示す左前45度視線方向画像ILFから横エッジを検出する。横エッジの検出は横Sobelフィルタや縦方向差分などの手法を用いることができる。横エッジを検出するに当たり、図12(a)に示す前左45度視線方向画像IFLにおいて、その高さ方向Hに沿って移動した際に変化する輝度が大きい部分を横エッジとして判断する。たとえは、図12(b)に示す輝度変化があった場合、この輝度変化を示すグラフを微分して図12(c)に示すグラフとし、さらにその絶対値をとって図12(d)に示すグラフとする。そして、横エッジ部については、2画素幅として抽出する。また、左方画像を正像化して得られた他の視線方向画像についても同様に横エッジを検出する。さらに、前方画像を正像化して得られた各視線方向画像についても同様の手法によって横エッジを検出する。
横エッジを検出した後、縦エッジを検出する。縦エッジを検出する際には、図12(a)に示す前左45度視線方向画像IFLにおいて、その幅方向Wに沿って移動した際に変化する輝度が大きい部分を縦エッジとして判断する。縦エッジを抽出するにあたり、横エッジが2画素幅として抽出しているのに対して、縦エッジは1画素幅として抽出する。また、前方画像を正像化して得られた他の視線方向画像についても同様に縦エッジを検出する。さらに、左方画像を正像化して得られた各視線方向画像についても同様の手法によって縦エッジを検出する。
こうして横エッジおよび縦エッジを検出したら前方画像から抽出された各視線方向画像と左方画像から抽出された各視線方向画像とで視野が重複する領域であるか否かを判定する(S12)。ここで、前方画像から抽出された前左45度視線方向画像IFLと左方画像から抽出された左前45度視線方向画像ILFとで視野重複領域があると判定されることから、俯瞰図マッピング部22において、これらの画像における各画素情報を格納する俯瞰図を構成する俯瞰情報格納図へマッピングする(S13)。図13に示す俯瞰情報格納図の各マス目には、輝度情報やエッジ情報が格納される。
俯瞰図へのマッピングでは、前方画像および左方画像の歪み補正パラメータと設定位置・姿勢パラメータを考慮し、図14に示すように、仮想カメラ2Iから水平面LFを撮像した位置に相当する前方画像および左方画像の各画素を水平面LFに投影した時の座標値を導出し、その位置に輝度を格納する。このとき、ステップS12で抽出した横エッジと縦エッジを構成する画素については、エッジ画像も同時に格納する。前方画像および左方画像の画素を水平面へマッピングした結果の一部範囲の例を図15に示す。図15では、前方画像の画素マッピング位置を三角印で表示し、左方画像の画素マッピング位置を丸印で表示している。
また、視野が重複する領域がないその他の視線方向画像については、俯瞰図へのマッピングをした後、輝度情報を補間する対象領域を特定し、当該対象領域に対して、視野に入っているカメラ画像のみから各画素間の補間計算を行う(S14)。この補間計算は、後に説明するステップS15、S16と同様の手順で行う。また、各対象領域における補間計算は、俯瞰図における各マス目ごとに行われる。補間計算が済んだら、ステップS31に進む。
さらに、ステップS13において俯瞰図へのマッピングが済んだら、前方カメラ画像補間部23において前方画像における前方カメラの近傍画素から、輝度情報を補間する対象領域に対して輝度補間計算を行う(S15)。ここでは、前方カメラ2Fで撮像された前左45度視線方向画像IFLにおける画素間の点の輝度を輝度補間値(輝度補間情報)として求めるとともに、画素間の点が縦横エッジ部に含まれているか否かの判定を行う。
図15に示す画素マッピングを行った後の俯瞰図では、空白部分が多数存在することから、この空白部分の輝度を補間して俯瞰図を完成させる。空白部分における輝度の補間にあたり、まず前方画像の画素に基づいて輝度補間値の導出を行う。
輝度補間値の導出の例として、対象領域として図15に示す補間対象位置HPにおける輝度補間値の導出について説明する。図15に示す画素のうち、前方画像による画素を取り出して表示した状態を図16(a)に示す。補間対象位置HPの輝度補間値Pfsを導出するにあたり、図16(b)に示すように、補間対象位置HPを囲む画素群(たとえば4点の画素MF1〜MF4)の輝度Pf1〜Pf4を用いる。補間対象位置HPの輝度補間値Pfsは、図17に示すように、4点の画素MF1〜MF4の輝度Pf1〜Pf4および画素MF1〜MF4と補間対象位置HPとの距離Lf1〜Lf4を用いて下記(1)によって求めることができる。
さらに、補間対象位置HPにおけるエッジに関するエッジ補間情報を求める。エッジ補間情報としては、横エッジ補間情報および縦エッジ補間情報を求める。そこで、まず横エッジに関する横エッジ補間情報を求める。横エッジ補間情報を求めるにあたり、補間対象位置HPが横エッジ部の中にあるか否かを判定する。その結果、横エッジ部の中にあると判定した際には、立体の死角に位置する可能性が高いことから、エッジ補間情報として横エッジ挟部フラグを記録する。横エッジ部の中に含まれるか否かの判定は、次のようにして行われる。
まず、補間対象位置HPを囲む4点の画素MF1〜MF4が横エッジ部を構成しているか否かを判定する。その結果、図18(a)に示すように、補間対象位置HPを囲む4点の画素MF1〜MF4がいずれも横エッジを構成する画素である場合には、補間対象位置HPのエッジ補間情報として、横エッジ狭部フラグを記録する。また、図18(b)〜(e)に示すように、画素MF1〜MF4のうちの3点の画素MF1,MF2,MF4または3点の画素MF1〜MF3等の3点の画素が横エッジ部を構成していると判定した際には横エッジを構成する3点の画素を繋いで三角形を形成し、この三角形の内側に補間対象位置HPが位置しているか否かを判定する。
その結果、図18(b)、(c)に示すように、補間対象位置HPが三角形の内側に位置していると判定した際には、補間対象位置HPに横エッジ狭部フラグを記録する。一方、図18(d)、(e)に示すように、補間対象位置HPが三角形の外側に位置していると判定した際には、補間対象位置HPに横エッジ狭部フラグを記録しない。
また、エッジ補間情報を求めるにあたり、4点の画素MF1〜MF4のうちの3点の画素がエッジを構成する際には、たとえば図19に示すように、エッジを構成する点とエッジを構成しない点を結ぶ線の中点MF12とエッジを構成する画素MF2を結んで三角形の一辺を形成することもできる。横エッジを構成する画素が2つである場合には、その二つの画素を結んだ線上に補間対象位置HPがあるか否かを判定し、線上にある場合には横エッジ狭部フラグを記録し、線上にない場合には横エッジ狭部フラグを記録しない。こうして、横エッジ補間情報を求める。
続いて縦エッジ補間情報を求める。縦エッジに関しては、横エッジと異なり1画素幅で抽出しているので、図20に示すように、縦エッジを構成する2点の画素MF2,MF4の間に補間対象位置HPが位置するか否かを判定する。その結果、線上にある場合には縦エッジ狭部フラグを記録し、線上にない場合には縦エッジ狭部フラグを記録しない。こうして、縦エッジ補間情報を求める。
こうして、前方カメラ近傍の輝度補間計算が済んだら、左方カメラ画像補間部24において左方画像における左方カメラの近傍画素から輝度補間計算を行う(S16)。ここでは、左方カメラ2Lで撮像された左方画像における画素間の点の輝度を輝度補間値として求めるとともに、画素間の点が縦横エッジ部に含まれているか否かの判定を行う。
左方画像における輝度補間値の導出は、前方画像における輝度補間値の導出と同様にして行われる。その例として、図15に示す補間対象位置HPにおける輝度補間値の導出について説明する。図15に示す画素情報のうち、左方画像による画素情報を取り出して表示した状態を図21(a)に示す。補間対象位置HPの輝度補間値Plsを導出するにあたり、図21(b)に示すように、補間対象位置HPを囲む画素群(たとえば4点の画素ML1〜ML4)の輝度Pl1〜Pl4を用いる。補間対象位置HPの輝度補間値Plsは、図22に示すように、4点の画素ML1〜ML4の輝度Pl1〜Pl4および画素ML1〜ML4と補間対象位置HPとの距離Ll1〜Ll4を用いて下記(2)によって求めることができる。
その後、前方画像から補間対象位置HPにおけるエッジに関するエッジ補間情報を求めた場合と同様にして、左方画像から補間対象位置HPにおけるエッジに関するエッジ補間情報を求める。そして、補間対象位置が横エッジ部の中に含まれる場合には、横エッジ狭部フラグを記録し、補間対象位置が横エッジ部の中に含まれない場合には、横エッジ狭部フラグを記録しない。また、補間対象位置が縦エッジ部の中に含まれる場合には、縦エッジ狭部フラグを記録し、補間対象位置が縦エッジ部の中に含まれない場合には、縦エッジ狭部フラグを記録しない。
こうして、前方カメラおよび左方カメラ近傍の輝度補間計算を行ったら、補間値比較部25において、各補間対象位置におけるステップS15、S16で導出された補間値の比較を行う(S17)。補間値の比較では、前方画像および左方画像での各補間値を比較し、その比較結果から立体物候補を抽出して立体物候補フラグを記録する。図23(a)は、前方画像における補間結果を示す図であり、(b)は左方画像における補間結果を示す図である。両補間結果を合わせると、図23(c)に示す図となる。
補間値の比較を行うにあたり、たとえば上記の補間対象位置HPについて説明すると、ステップS15で求めた輝度補間値PfsとステップS16で求めた輝度補間値Plsとを比較してその差分を求める。この差分が所定のしきい値よりも大きい場合に、その部分を立体物候補として立体物候補フラグ記録する。したがって、立体物候補フラグが記録された領域が、立体物が存在する位置の候補である立体物候補領域となる。
補間値の比較を行った結果、立体物候補フラグが記録された俯瞰図は、図24に示すようになる。図24に示す例では、立体物候補フラグが記録された位置が集められた障害物候補領域である立体物候補領域SEが略V字状に形成されている。
こうして、補間値の比較および立体物候補フラグの記録を行ったら、対象となる部分が補間部であるか否かを判断する(S18)。このステップでは、対象となる部分がマッピングを行った部分である場合には、補間部ではないと判断され、マッピングを行った部分でない場合、換言すればステップS15〜S17で輝度補間計算〜輝度補間値の記録が行われた部分であれば補間部であると判断する。
その結果、補間部でないと判断された場合には、ステップS21に進む。また、補間部であると判断された場合には、その補間部が、前俯瞰図の補間部と左俯瞰図の補間部との両者において横エッジ部の中にあり、横エッジ部に挟まれた部分である挟まれ部であるか否かを判断する(S19)。その結果、両者の補間部ともが挟まれ部であると判断された場合には、いずれのカメラ2F,2Lからも死角となって見ることができない領域であると判断できることから、死角フラグを記録し(S20)、ステップS26に進む。また、その一方または両方が挟まれ部であると判断された場合には、どちらかの俯瞰図の補間部において、挟まれ部となっているか否かを判断する(S21)。
また、ステップS19の判断の結果、どちらか一方の俯瞰図の補間部において挟まれ部となっていると判断した場合には、エッジ挟部フラグを記憶するとともに、他方のカメラ(死角となっていないカメラ)近傍の輝度に基づいて輝度補間計算を行う(S22)。たとえば、前俯瞰図の補間部において挟まれ部となっていると判断した場合には、前俯瞰図に対するエッジ挟部フラグを記録するとともに、左俯瞰図における近傍画素に基づいて輝度補間計算を行う。
さらに、ステップS21の判断の結果、どちらか一方の俯瞰図において挟まれ部となっていないと判断した場合には、対象となる部分が立体物候補以外であるか否かを判断する(S23)。その結果、立体物候補フラグが記録されており、立体物候補以外でない(立体物候補である)と判断した場合には、保留フラグを記録する(S24)。また、立体物候補フラグが記録されておらず、立体物候補以外であると判断した場合には、前方カメラ2F、左方カメラ2Lの両方より得られた前俯瞰図および左俯瞰図における近傍画素に基づいて、輝度補間計算を行う(S25)。
ここでの輝度補間計算では、図25に示す各位置関係に基づいて、下記(3)式を用いて輝度補間値Pflsを求めることができる。こうして求めた輝度補間値Pflsを最終的な輝度補間値として採用する。
こうして、各処理を行ったら、算出された補間値および記録されたフラグ等を格納する(S26)。それから、すべての対象領域を網羅したか否かを判断する(S27)。その結果、網羅していない対象領領域がある場合には、網羅していない対象領域を特定して(S28)、ステップS18に戻って処理を繰り返す。
一方、すべての対象領域を網羅したと判断した場合には、保留フラグが記録されている領域があるか否かを判断する(S29)。その結果、保留フラグが記録されている領域があると判断した場合には、保留フラグが記録されている対象領域における死角判定・輝度計算を行う(S30)。保留フラグが記録されている領域における死角判定・輝度計算は次の手順で行われる。
死角判定・輝度計算では、まず、保留フラグが記録されている対象領域における前俯瞰図および左俯瞰図の輝度補間値を比較する。その結果、輝度補間値が小さい方の俯瞰図に対応するカメラが死角となっていると判断する。
死角となっているカメラを判断したら、死角となっていない側のカメラの近傍画素から輝度補間計算を行う。ここでの輝度補間計算について図26〜図31を参照して説明する。図26に示すように、保留フラグは、俯瞰図上における立体物候補領域SEに記録されており、図中において立体物候補領域を濃色で示している。この保留フラグが記録された立体物候補領域のうち、前方カメラ2Fと左方カメラ2Lとの中点2Mからもっとも近い位置である最近立体物候補位置MNPを検出する。最近立体物候補位置MNPを検出したら、図27に示すように、両カメラ2F,2Lのそれぞれと最近立体物候補位置MNPとを通過する視線方向ベクトルFDV,LDVを導出する。これらの視線方向ベクトルFDV,LDVが本発明の投影方向となる。
視線方向ベクトルFDV,LDVを導出したら、前方視線方向および左方視線方向に対する立体物候補最小幅Wf,Wlを検出する。前方視線方向に対する立体物候補最小幅Wfを検出する際には、前方カメラ2Fと最近立体物候補位置MNPとを通過する前方視線方向ベクトルFDVと平行なベクトルのうち、立体物候補領域SEと重なる長さがもっとも短い前方視線方向最小重複長さベクトルの長さを導出する。この前方視線方向最小重複長さベクトルの長さが前方視線方向に対する立体物候補最小幅Wfとなる。同様に、左方視線方向に対する立体物候補最小幅Wlを検出する際には、左方カメラ2Lと立体物候補領域SEとを通過する左方視線方向ベクトルLDVと平行なベクトルのうち、立体物候補領域SEと重なる長さがもっとも短い左方視線方向最小重複長さベクトルの長さを導出する。この左方視線方向最小重複長さベクトルの長さが左方視線方向に対する立体物候補最小幅Wlとなる。これらの立体物候補最小幅Wf,Wlが本発明の障害物候補領域幅となる。
立体物候補最小幅Wf,Wlを導出したら、図28に示すように、前方視線方向に対する立体物候補最小幅Wfを左方視線方向ベクトルLDVへ投影して前方立体物候補投影幅Wftを導出する。同様に、左方視線方向に対する立体物候補最小幅Wlを前方視線方向ベクトルFDVへ投影して左方立体物候補投影幅Wltを導出する。そして、最近立体物候補位置MNPから前方立体物候補投影幅Wft分だけ移動する領域内の位置および最近立体物候補位置MNPから左方立体物候補投影幅Wlt分だけ移動する領域内の位置を立体物の前面と判断して立体物フラグを記録する。ここで得られる左方立体物候補投影幅Wltおよび前方立体物候補投影幅Wftを測定される位置が、本発明の障害物領域の撮像位置側の端部となる。立体物フラグが記録された立体物記録位置については、輝度補間値を求めることなく、立体物フラグのみを記録する。
立体物フラグを記録したら、図29に示すように、複数の左方視線方向ベクトルLDV1,LDV2,LDVN…に沿って前方画像の縦エッジ部(縦エッジ狭部フラグ記録部)HEFに隣接し、かつ左方カメラ2Lから見て前方画像の縦エッジ部HEより遠い立体物候補領域を抽出する。この領域は、左方カメラ2Lでは見えるが前方カメラ2Fでは死角であると判断し、この死角であると判断された領域を前方カメラ死角領域FDRとして導出する。
同様に、複数の前方視線方向ベクトルFDV1,FDV2,FDVN…に沿って左方画像の縦エッジ部(縦エッジ狭部フラグ記録部)HELに隣接し、かつ前方カメラ2Fから見て左方画像の縦エッジ部より遠い立体物候補領域を抽出する。この領域は、前方カメラ2Fでは見えるが左方カメラ2Lでは死角であると判断し、この死角であると判断された領域を左方カメラ死角領域LDRとして導出する。
こうして、両カメラの死角領域を導出したら、図30に示すように、前方カメラ死角領域FDRに含まれる位置については、左方画像のみの輝度値から輝度補間値を計算し、ここで算出された輝度値を最終的な輝度補間値として採用する。また、左方カメラ死角領域LDRに含まれる位置については、前方画像のみの輝度値から輝度補間値を計算し、ここで算出された輝度値を最終的な輝度補間値として採用する。
その後、立体物候補領域のうち、その他の領域についての処理を行う。その他の領域は、図28を用いて説明した最近立体物候補位置MNPから前方立体物候補投影幅Wft分だけ移動する領域内の位置および最近立体物候補位置MNPから左方立体物候補投影幅Wlt分だけ移動する領域内の位置となる。この位置には、立体物フラグが記録されて立体部物領域となる。図31に示すように、立体物フラグが記録された位置から左方視線方向および前方視線方向にそれぞれ伸ばした領域が重複する領域が立体物領域SFRとなる。この立体物領域SFRについて輝度計算を行うことなく立体物フラグを記録し、立体物候補領域の処理を終了する。こうして、図32に示すように、立体物候補領域SEのすべてについて、前方カメラ死角領域FDR、左方カメラ死角領域LDR、および立体物領域SFRと区分けされるとともに、前方カメラ死角領域FDR、左方カメラ死角領域LDRについて、死角とならない側のカメラから得られる画像に基づいて輝度補間値を求めて、死角判定および輝度計算を完了する。
図9に示すフローに戻り、死角判定・輝度計算が済んだら、各位置における補間値や立体物判定結果等を格納し(S31)、前左画像処理を終了する。さらに、図7に示すフローに戻り、前左画像処理が済んだら、同様の手順によって前右カメラ処理部13において左前右画像処理(処理B)、後左カメラ処理部14において後左画像処理(処理C)、後右カメラ処理部15において後右画像処理(処理D)をそれぞれ行う(S3〜S5)。その後、俯瞰図作成部16において処理A〜処理Dの結果を統合する処理を行い(S6)、最終的な俯瞰図を作成する。そして、作成した俯瞰図を情報出力部3に出力し、画像処理を終了する。
このように、本実施形態に係る画像処理装置においては、立体物投影方向を参照することにより、立体物候補領域SEの中から、立体物の死角となる領域を除いた立体物領域SFRを抽出することができる。したがって、カメラ2で撮像された画像を俯瞰画像に変換するにあたり、立体物の死角となる位置についてもその状況を検出することができ、もって立体物が存在する領域を精度よく検出することができる。
また、立体物候補領域SEの撮像位置側の端部および立体物候補領域SEの幅に基づいて、立体物領域SFRを抽出することにより、立体物領域SFRを容易に検出することができる。さらに、左方カメラ2Lでは死角となるが、前方カメラ2Fでは死角とならない位置などについては、死角とならないカメラで撮像した画像に基づいて輝度などを算出している。このため複数のカメラで撮像された画像を俯瞰画像に変換するにあたり、障害物の死角となる位置についてもその状況を検出することができ、もって障害物が存在する領域を精度よく検出することができる。
1…画像処理装置、2R…右方カメラ、2B…後方カメラ、2L…左方カメラ、2F…前方カメラ、3…情報出力部、11…センサ情報取込部、12…前左カメラ処理部、13…前右カメラ処理部、14…後左カメラ処理部、15…後右カメラ処理部、16…俯瞰図作成部、21…正像化・エッジ検出部、22…俯瞰図マッピング部、23…前方カメラ画像補間部、24…左方カメラ画像補間部、25…補間値比較部、26…立体物領域導出部、27…補間情報採用・格納部。