JP2008123293A - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP2008123293A
JP2008123293A JP2006307119A JP2006307119A JP2008123293A JP 2008123293 A JP2008123293 A JP 2008123293A JP 2006307119 A JP2006307119 A JP 2006307119A JP 2006307119 A JP2006307119 A JP 2006307119A JP 2008123293 A JP2008123293 A JP 2008123293A
Authority
JP
Japan
Prior art keywords
image
obstacle
interpolation
area
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006307119A
Other languages
English (en)
Other versions
JP4876862B2 (ja
Inventor
Akio Fukamachi
映夫 深町
Osamu Ozaki
修 尾崎
Shoichi Hayasaka
祥一 早坂
Mamoru Furuta
守 古田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2006307119A priority Critical patent/JP4876862B2/ja
Publication of JP2008123293A publication Critical patent/JP2008123293A/ja
Application granted granted Critical
Publication of JP4876862B2 publication Critical patent/JP4876862B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 撮像手段で撮像された画像を俯瞰画像に変換するにあたり、障害物の死角となる位置についてもその状況を検出することができ、もって障害物が存在する領域を精度よく検出することができる画像処理装置を提供する。
【解決手段】 画像処理装置1においては、複数のカメラ2F,2Lで取得された画像における重複領域における障害物の抽出を行う。障害物の抽出を行うにあたり、両画像中の輝度情報等に基づいて、障害物候補領域を抽出し、各画像における障害物投影方向と障害物候補領域とに基づいて、障害物領域を抽出する。
【選択図】 図1

Description

本発明は、画像処理装置に係り、特に、異なる位置から少なくとも一部が共通する領域を撮像した複数の画像から、共通する領域における障害物を検出する画像処理装置に関する。
たとえば、車両の周囲を撮像手段で撮像して得られる画像に基づいて車両の周囲の障害物を検出するものとして、特開2002−359838号公報(特許文献1)に開示された運転支援装置がある。この運転支援装置では、移動体に設置された複数の撮像手段で撮像された画像を上方の仮想視点からの画像に変換して、車両周囲の障害物を検出するというものである。
特開2002−359838号公報
しかし、上記特許文献1に開示された発明では、撮像手段で撮像された画像を上方の仮想視点からの画像(俯瞰画像)に変換する際、撮像手段で撮像された画像における障害物の死角となる位置では、障害物が存在しない場合でも死角を形成する障害物が写り込んでしまう。このため、障害物が存在する領域を特定することができず、実際には障害物が存在しない領域も障害物が存在する領域として検出してしまうという問題があった。
そこで、本発明の課題は、撮像手段で撮像された画像を俯瞰画像に変換するにあたり、障害物の死角となる位置についてもその状況を検出することができ、もって障害物が存在する領域を精度よく検出することができる画像処理装置を提供することにある。
上記課題を解決した本発明に係る画像処理装置は、異なる位置から少なくとも一部が共通する領域を複数の撮像手段でそれぞれ撮像した複数の画像における画素情報を比較して、複数の画像を合成して得られる合成画像上における障害物を抽出する画像処理装置において、複数の画像における共通領域に存在する障害物の合成画像上における存在候補領域である障害物候補領域を抽出する障害物候補領域抽出手段と、各画像における障害物投影方向と各画像の障害物候補領域とに基づいて、合成画像上における障害物が存在する領域である障害物領域を抽出する障害物領域抽出手段と、を備えるものである。
本発明に係る画像処理装置においては、障害物投影方向の各画像における障害物投影方向と各画像の障害物候補領域とに基づいて、合成画像(俯瞰画像)上における障害物が存在する領域である障害物領域を抽出している。このように、障害物投影方向を参照することにより、障害物候補領域の中から、障害物の死角となる領域を除いた障害物領域を抽出することができる。したがって、撮像手段で撮像された画像を俯瞰画像に変換するにあたり、障害物の死角となる位置についてもその状況を検出することができ、もって障害物が存在する領域を精度よく検出することができる。
ここで、複数の撮像手段で撮像された複数の画像におけるそれぞれの投影方向を導出する投影方向導出手段と、複数の画像におけるそれぞれの撮像位置と合成画像上における障害物候補領域とに基づいて、障害物領域の撮像位置側の端部を抽出する障害物端部検出手段と、障害物候補領域における投影方向と交差する方向の幅を導出する障害物候補領域幅導出手段と、をさらに備える態様とすることができる。
このように、障害物領域の撮像位置側の端部および障害物候補領域の幅に基づいて、障害物領域を抽出することにより、おおよその障害物領域を容易に検出することができる。
また、障害物候補領域端部検出手段で得られた複数の障害物領域の撮像位置側の端部を、それぞれ投影方向に移動させて得られる複数の領域のうち、重複する領域を障害物領域として抽出する態様とすることができる。
このように、障害物候補領域端部検出手段で得られた複数の障害物領域の撮像位置側の端部を、それぞれ投影方向に移動させて得られる複数の領域のうち、重複する領域を障害物領域として抽出することにより、障害物が写りこんだ各障害物候補領域から障害物領域を容易に抽出することができる。
さらに、障害物候補領域のうち障害物領域を除いた領域について、障害物候補領域を検出した画像撮像した撮像手段以外の撮像手段で撮像して得られた画像における画素情報に基づいて補間する補間手段を備える態様とすることができる。
このように、障害物候補領域を検出した画像撮像した撮像手段以外の撮像手段で撮像して得られた画像における画素情報に基づいて補間する補間手段を備えることにより、実際に障害物によって隠される領域を状況を精度よく検出することができる。
また、複数の撮像手段で撮像された画像を高解像度の画像へと変換する解像度変換手段を備える態様とすることができる。
このように、複数の撮像手段で撮像された画像を高解像度の画像へと変換する解像度変換手段を備えることにより、障害物領域をさらに細密に抽出することができる。
本発明に係る画像処理装置によれば、撮像手段で撮像された画像を俯瞰画像に変換するにあたり、障害物の死角となる位置についてもその状況を検出することができ、もって障害物が存在する領域を精度よく検出することができる。
以下、図面を参照して、本発明の好適な実施形態について説明する。図1は、本発明の実施形態に係る画像処理装置のブロック構成図である。
図1に示すように、本実施形態における画像処理装置1は、センサ情報取込部11、前左カメラ処理部12、前右カメラ処理部13、後左カメラ処理部14、後右カメラ処理部15、および俯瞰図作成部16を備えている。さらに、画像処理装置1には、カメラ2F,2R,2L,2Bおよび情報出力部3が接続されており、カメラ2F,2R,2L,2Bから出力された画像に基づいて、カメラ2F,2R,2L,2Bの周囲における障害物を検出する。カメラ2F,2R,2L,2Bは、本発明の撮像手段を構成する。
前方カメラ2Fは、図2に示すように、車両Mの前方中央のフロントグリル部分に取り付けられており、車両Mの前方を撮像している。また、右方カメラ2Rは、車両Mの右ドア位置、左方カメラ2Lは車両Mの左ドア、後方カメラ2Bは車両Mのリアトランクカバーにそれぞれ取り付けられて、車両Mの右方、左方、および後方をそれぞれ撮像している。カメラ2F,2R,2L,2Bは、それぞれいわゆる魚眼カメラなどの広視野カメラからなり、それぞれのカメラ2F,2R,2L,2Bで撮像領域EF,ER,EL,EBを撮像可能とされている。カメラ2F,2R,2L,2Bは、それぞれ撮像して得られた画像を画像処理装置1におけるセンサ情報取込部11に出力する。
画像処理装置1におけるセンサ情報取込部11では、カメラ2F,2R,2L,2Bから出力された画像を取り込む。このうちの前方カメラ2Fおよび左方カメラ2Lから出力された前方画像および左方画像を前左カメラ処理部12に出力する。また、前方カメラ2Fおよび右方カメラ2Rから出力された前方画像および右方画像を前右カメラ処理部13に出力する。さらに、後方カメラ2Bおよび左方カメラ2Lから出力された後方画像および左方画像を後左カメラ処理部14に出力する。そして、後方カメラ2Bおよび右方カメラ2Rから出力された前方画像および左方画像を後右カメラ処理部15に出力する。
前左カメラ処理部12は、図3に示すように、正像化・エッジ検出部21、俯瞰図マッピング部22、前方カメラ画像補間部23、左方カメラ画像補間部24、補間値比較部25、立体物領域導出部26、および補間情報採用・格納部27を備えている。正像化・エッジ検出部21は、前方カメラ2Fおよび左方カメラ2Lから出力された前方画像および左方画像を正像化するとともに、両画像から横エッジおよび縦エッジを検出する。正像化・エッジ検出部21は、横エッジおよび縦エッジを検出した前方画像および左方画像を俯瞰図マッピング部22に出力する。
俯瞰図マッピング部22は、正像化・エッジ検出部21から出力された前方画像および左方画像における各画素の輝度情報を俯瞰図にマッピングし、輝度情報をマッピングして得られる合成画像としての俯瞰図を前方カメラ画像補間部23に出力する。また、車両Mに取り付けられた前方カメラ2Fおよび左方カメラ2Lの位置に基づく俯瞰図上の両カメラ2F,2Lの位置が、予め俯瞰図にマッピングされている。前方カメラ画像補間部23では、出力された俯瞰図から前方カメラ2Fで撮像された画像の補間計算を行い、補間計算の結果を俯瞰図とともに左方カメラ画像補間部24に出力する。左方カメラ画像補間部24は、出力された俯瞰図から左方カメラ2Lで撮像された画像の補間計算を行い、前方カメラ2Fの補間計算の結果とともに補間値比較部25に出力する。前方カメラ画像補間部23および左方カメラ画像補間部24は、本発明の補間手段を構成する。また、この補間計算を行うことにより、カメラ2F,2Lで撮像された画像を高解像度画像へと変換する。前方カメラ画像補間部23および左方カメラ画像補間部24は、本発明の解像度変換手段を構成する。
補間値比較部25では、前方カメラ2Fで撮像された画像の補間結果および左方カメラ2Lで撮像された画像の補間結果を比較し、俯瞰図上における障害物候補領域である立体物候補領域を抽出する。補間値比較部25は、抽出した立体物候補領域を立体物領域導出部26に出力する。立体物領域導出部26は、立体物候補領域に基づいて両カメラ2F,2Lのそれぞれの投影方向を検出するとともに、俯瞰図上における立体物候補領域から障害物領域である立体物領域を導出する。立体物領域導出部26は、導出した立体物領域を補間情報採用・格納部27に出力する。補間情報採用・格納部27では、出力された立体物領域を格納するとともに、図1に示す俯瞰図作成部16に出力する。補間値比較部25は、本発明の障害物候補領域抽出手段を構成し、立体物領域導出部26は、本発明の障害物領域抽出手段を構成する。また、立体物領域導出部26は、本発明の投影手段、障害物端部検出手段、および障害物候補領域幅導出手段を構成する。
また、前右カメラ処理部13、後左カメラ処理部14、および後右カメラ処理部15は、前左カメラ処理部12と同様の構成を有しており、それぞれ前方カメラ2Fおよび右方カメラ2R、後方カメラ2Bおよび左方カメラ2L、後方カメラ2Bおよび右方カメラ2Rから出力された画像から立体物領域を導出する。前右カメラ処理部13、後左カメラ処理部14、および後右カメラ処理部15は、導出した立体物領域を俯瞰図作成部16に出力する。
俯瞰図作成部16では、各カメラ処理部12〜15から出力された立体物領域に基づいて、車両Mの四周全域にわたって立体物領域が導出された合成画像としての俯瞰図画像を作成する。俯瞰図作成部16は、作成した俯瞰図画像を情報出力部3に出力する。情報出力部3では、俯瞰図作成部16から出力された俯瞰図画像に基づく情報を出力する。具体的には、ディスプレイに俯瞰図画像として車両の周囲の立体物を表示したり、進行方向に立体物がある場合に警報を発したりする。
本実施形態に係る画像処理装置1では、図2に示すカメラ2F,2R,2L,2Bで撮像した撮像領域FE,ER,EL,EBにおける各画素の輝度情報を俯瞰図にマッピングする。このとき、たとえば前方カメラ2Fの撮像領域EFと左方カメラ2Lの撮像領域ELの重複領域では、図4(a)に示すように、三角印で示す前方カメラ2Fの画素のマッピング位置MFと、丸印で示す左方カメラ2Lの画素のマッピング位置MLとが同じエリアで混在する状態となる。また、図4(b)に示すように、マッピング位置MF,MLのいずれの画素ともならない位置である補間対象位置HPについては、補間対象位置HPを囲む前方画像における4つの画素MF1〜MF4および左方画像における4つの画素ML1〜ML4の輝度に基づいて、補間対象位置HPの輝度およびエッジに関する補間情報を求める。
さらに、たとえば前方カメラ2Fにおける死角となる位置における画素については、図5に示すように、立体または立体の死角となるマッピング位置MF1〜MF4における各画素の輝度は小さく、所定のしきい値以下となる。このように、輝度が所定のしきい値以下となるマッピング位置を立体または立体の死角と判断して、立体物候補領域とする。ここで、図6(a)、(b)にそれぞれ示すように、左方カメラ2Lの画像2LGと前方カメラ2Fの画像2FGとでは重複する領域があり、この重複領域に障害物となる立体Xが写りこむことがある。この場合には、重複部分の俯瞰図を作成すると、図6(c)に示すような俯瞰図FGとなる。この俯瞰図FGから、一方のカメラで撮像した際の死角となる際に、他方のカメラでの撮影結果によってその死角となる位置の状況を把握することができる。
次に、本実施形態に係る画像処理装置の処理手順について説明する。図7は、本実施形態に係る画像処理装置の処理手順を示すフローチャートである。
図7に示すように、本実施形態に係る画像処理装置1においては、センサ情報取込部11において、各カメラ2F,2R,2L,2Bから出力された画像を取得する(S1)。次に、前左カメラ処理部12において、前方カメラ2Fおよび左方カメラ2Lから出力された前方画像および左方画像に基づいて、前左画像処理を行う(S2)。前左画像処理は、図8および図9に示すフローチャートの手順に沿って行われる。
図8に示すように、前左画像処理においては、センサ情報取込部11から出力された前方画像および左方画像は魚眼画像であるので、その魚眼画像を正像化・エッジ検出部21においてそれぞれ正像化し、正像化した画像から縦エッジおよび横エッジを検出する(S11)。ここで、図10(a)に示すように、前方カメラ2Fで撮像した魚眼画像から、前左45度視線方向画像IFL、前0度視線方向画像I、前右45度視線方向画像IFRが得られる。また、図11(a)に示すように、左方カメラ2Lで撮像した魚眼画像から、左前45度視線方向画像ILF、左0度視線方向画像I、左後45度視線方向画像ILBが得られる。これらの画像のうち、互いに重複する図10に示す前左45度視線方向画像IFLと図11に示す左前45度視線方向画像ILFとを正像化する。また、他の視線方向画像も同様に正像化する。
続いて、前方画像を正像化して得られた図10(b)に示す前左45度視線方向画像IFLおよび画像を正像化して得られた図11(b)に示す左前45度視線方向画像ILFから横エッジを検出する。横エッジの検出は横Sobelフィルタや縦方向差分などの手法を用いることができる。横エッジを検出するに当たり、図12(a)に示す前左45度視線方向画像IFLにおいて、その高さ方向Hに沿って移動した際に変化する輝度が大きい部分を横エッジとして判断する。たとえは、図12(b)に示す輝度変化があった場合、この輝度変化を示すグラフを微分して図12(c)に示すグラフとし、さらにその絶対値をとって図12(d)に示すグラフとする。そして、横エッジ部については、2画素幅として抽出する。また、左方画像を正像化して得られた他の視線方向画像についても同様に横エッジを検出する。さらに、前方画像を正像化して得られた各視線方向画像についても同様の手法によって横エッジを検出する。
横エッジを検出した後、縦エッジを検出する。縦エッジを検出する際には、図12(a)に示す前左45度視線方向画像IFLにおいて、その幅方向Wに沿って移動した際に変化する輝度が大きい部分を縦エッジとして判断する。縦エッジを抽出するにあたり、横エッジが2画素幅として抽出しているのに対して、縦エッジは1画素幅として抽出する。また、前方画像を正像化して得られた他の視線方向画像についても同様に縦エッジを検出する。さらに、左方画像を正像化して得られた各視線方向画像についても同様の手法によって縦エッジを検出する。
こうして横エッジおよび縦エッジを検出したら前方画像から抽出された各視線方向画像と左方画像から抽出された各視線方向画像とで視野が重複する領域であるか否かを判定する(S12)。ここで、前方画像から抽出された前左45度視線方向画像IFLと左方画像から抽出された左前45度視線方向画像ILFとで視野重複領域があると判定されることから、俯瞰図マッピング部22において、これらの画像における各画素情報を格納する俯瞰図を構成する俯瞰情報格納図へマッピングする(S13)。図13に示す俯瞰情報格納図の各マス目には、輝度情報やエッジ情報が格納される。
俯瞰図へのマッピングでは、前方画像および左方画像の歪み補正パラメータと設定位置・姿勢パラメータを考慮し、図14に示すように、仮想カメラ2Iから水平面LFを撮像した位置に相当する前方画像および左方画像の各画素を水平面LFに投影した時の座標値を導出し、その位置に輝度を格納する。このとき、ステップS12で抽出した横エッジと縦エッジを構成する画素については、エッジ画像も同時に格納する。前方画像および左方画像の画素を水平面へマッピングした結果の一部範囲の例を図15に示す。図15では、前方画像の画素マッピング位置を三角印で表示し、左方画像の画素マッピング位置を丸印で表示している。
また、視野が重複する領域がないその他の視線方向画像については、俯瞰図へのマッピングをした後、輝度情報を補間する対象領域を特定し、当該対象領域に対して、視野に入っているカメラ画像のみから各画素間の補間計算を行う(S14)。この補間計算は、後に説明するステップS15、S16と同様の手順で行う。また、各対象領域における補間計算は、俯瞰図における各マス目ごとに行われる。補間計算が済んだら、ステップS31に進む。
さらに、ステップS13において俯瞰図へのマッピングが済んだら、前方カメラ画像補間部23において前方画像における前方カメラの近傍画素から、輝度情報を補間する対象領域に対して輝度補間計算を行う(S15)。ここでは、前方カメラ2Fで撮像された前左45度視線方向画像IFLにおける画素間の点の輝度を輝度補間値(輝度補間情報)として求めるとともに、画素間の点が縦横エッジ部に含まれているか否かの判定を行う。
図15に示す画素マッピングを行った後の俯瞰図では、空白部分が多数存在することから、この空白部分の輝度を補間して俯瞰図を完成させる。空白部分における輝度の補間にあたり、まず前方画像の画素に基づいて輝度補間値の導出を行う。
輝度補間値の導出の例として、対象領域として図15に示す補間対象位置HPにおける輝度補間値の導出について説明する。図15に示す画素のうち、前方画像による画素を取り出して表示した状態を図16(a)に示す。補間対象位置HPの輝度補間値Pfsを導出するにあたり、図16(b)に示すように、補間対象位置HPを囲む画素群(たとえば4点の画素MF1〜MF4)の輝度Pf1〜Pf4を用いる。補間対象位置HPの輝度補間値Pfsは、図17に示すように、4点の画素MF1〜MF4の輝度Pf1〜Pf4および画素MF1〜MF4と補間対象位置HPとの距離Lf1〜Lf4を用いて下記(1)によって求めることができる。
さらに、補間対象位置HPにおけるエッジに関するエッジ補間情報を求める。エッジ補間情報としては、横エッジ補間情報および縦エッジ補間情報を求める。そこで、まず横エッジに関する横エッジ補間情報を求める。横エッジ補間情報を求めるにあたり、補間対象位置HPが横エッジ部の中にあるか否かを判定する。その結果、横エッジ部の中にあると判定した際には、立体の死角に位置する可能性が高いことから、エッジ補間情報として横エッジ挟部フラグを記録する。横エッジ部の中に含まれるか否かの判定は、次のようにして行われる。
まず、補間対象位置HPを囲む4点の画素MF1〜MF4が横エッジ部を構成しているか否かを判定する。その結果、図18(a)に示すように、補間対象位置HPを囲む4点の画素MF1〜MF4がいずれも横エッジを構成する画素である場合には、補間対象位置HPのエッジ補間情報として、横エッジ狭部フラグを記録する。また、図18(b)〜(e)に示すように、画素MF1〜MF4のうちの3点の画素MF1,MF2,MF4または3点の画素MF1〜MF3等の3点の画素が横エッジ部を構成していると判定した際には横エッジを構成する3点の画素を繋いで三角形を形成し、この三角形の内側に補間対象位置HPが位置しているか否かを判定する。
その結果、図18(b)、(c)に示すように、補間対象位置HPが三角形の内側に位置していると判定した際には、補間対象位置HPに横エッジ狭部フラグを記録する。一方、図18(d)、(e)に示すように、補間対象位置HPが三角形の外側に位置していると判定した際には、補間対象位置HPに横エッジ狭部フラグを記録しない。
また、エッジ補間情報を求めるにあたり、4点の画素MF1〜MF4のうちの3点の画素がエッジを構成する際には、たとえば図19に示すように、エッジを構成する点とエッジを構成しない点を結ぶ線の中点MF12とエッジを構成する画素MF2を結んで三角形の一辺を形成することもできる。横エッジを構成する画素が2つである場合には、その二つの画素を結んだ線上に補間対象位置HPがあるか否かを判定し、線上にある場合には横エッジ狭部フラグを記録し、線上にない場合には横エッジ狭部フラグを記録しない。こうして、横エッジ補間情報を求める。
続いて縦エッジ補間情報を求める。縦エッジに関しては、横エッジと異なり1画素幅で抽出しているので、図20に示すように、縦エッジを構成する2点の画素MF2,MF4の間に補間対象位置HPが位置するか否かを判定する。その結果、線上にある場合には縦エッジ狭部フラグを記録し、線上にない場合には縦エッジ狭部フラグを記録しない。こうして、縦エッジ補間情報を求める。
こうして、前方カメラ近傍の輝度補間計算が済んだら、左方カメラ画像補間部24において左方画像における左方カメラの近傍画素から輝度補間計算を行う(S16)。ここでは、左方カメラ2Lで撮像された左方画像における画素間の点の輝度を輝度補間値として求めるとともに、画素間の点が縦横エッジ部に含まれているか否かの判定を行う。
左方画像における輝度補間値の導出は、前方画像における輝度補間値の導出と同様にして行われる。その例として、図15に示す補間対象位置HPにおける輝度補間値の導出について説明する。図15に示す画素情報のうち、左方画像による画素情報を取り出して表示した状態を図21(a)に示す。補間対象位置HPの輝度補間値Plsを導出するにあたり、図21(b)に示すように、補間対象位置HPを囲む画素群(たとえば4点の画素ML1〜ML4)の輝度Pl1〜Pl4を用いる。補間対象位置HPの輝度補間値Plsは、図22に示すように、4点の画素ML1〜ML4の輝度Pl1〜Pl4および画素ML1〜ML4と補間対象位置HPとの距離Ll1〜Ll4を用いて下記(2)によって求めることができる。
その後、前方画像から補間対象位置HPにおけるエッジに関するエッジ補間情報を求めた場合と同様にして、左方画像から補間対象位置HPにおけるエッジに関するエッジ補間情報を求める。そして、補間対象位置が横エッジ部の中に含まれる場合には、横エッジ狭部フラグを記録し、補間対象位置が横エッジ部の中に含まれない場合には、横エッジ狭部フラグを記録しない。また、補間対象位置が縦エッジ部の中に含まれる場合には、縦エッジ狭部フラグを記録し、補間対象位置が縦エッジ部の中に含まれない場合には、縦エッジ狭部フラグを記録しない。
こうして、前方カメラおよび左方カメラ近傍の輝度補間計算を行ったら、補間値比較部25において、各補間対象位置におけるステップS15、S16で導出された補間値の比較を行う(S17)。補間値の比較では、前方画像および左方画像での各補間値を比較し、その比較結果から立体物候補を抽出して立体物候補フラグを記録する。図23(a)は、前方画像における補間結果を示す図であり、(b)は左方画像における補間結果を示す図である。両補間結果を合わせると、図23(c)に示す図となる。
補間値の比較を行うにあたり、たとえば上記の補間対象位置HPについて説明すると、ステップS15で求めた輝度補間値PfsとステップS16で求めた輝度補間値Plsとを比較してその差分を求める。この差分が所定のしきい値よりも大きい場合に、その部分を立体物候補として立体物候補フラグ記録する。したがって、立体物候補フラグが記録された領域が、立体物が存在する位置の候補である立体物候補領域となる。
補間値の比較を行った結果、立体物候補フラグが記録された俯瞰図は、図24に示すようになる。図24に示す例では、立体物候補フラグが記録された位置が集められた障害物候補領域である立体物候補領域SEが略V字状に形成されている。
こうして、補間値の比較および立体物候補フラグの記録を行ったら、対象となる部分が補間部であるか否かを判断する(S18)。このステップでは、対象となる部分がマッピングを行った部分である場合には、補間部ではないと判断され、マッピングを行った部分でない場合、換言すればステップS15〜S17で輝度補間計算〜輝度補間値の記録が行われた部分であれば補間部であると判断する。
その結果、補間部でないと判断された場合には、ステップS21に進む。また、補間部であると判断された場合には、その補間部が、前俯瞰図の補間部と左俯瞰図の補間部との両者において横エッジ部の中にあり、横エッジ部に挟まれた部分である挟まれ部であるか否かを判断する(S19)。その結果、両者の補間部ともが挟まれ部であると判断された場合には、いずれのカメラ2F,2Lからも死角となって見ることができない領域であると判断できることから、死角フラグを記録し(S20)、ステップS26に進む。また、その一方または両方が挟まれ部であると判断された場合には、どちらかの俯瞰図の補間部において、挟まれ部となっているか否かを判断する(S21)。
また、ステップS19の判断の結果、どちらか一方の俯瞰図の補間部において挟まれ部となっていると判断した場合には、エッジ挟部フラグを記憶するとともに、他方のカメラ(死角となっていないカメラ)近傍の輝度に基づいて輝度補間計算を行う(S22)。たとえば、前俯瞰図の補間部において挟まれ部となっていると判断した場合には、前俯瞰図に対するエッジ挟部フラグを記録するとともに、左俯瞰図における近傍画素に基づいて輝度補間計算を行う。
さらに、ステップS21の判断の結果、どちらか一方の俯瞰図において挟まれ部となっていないと判断した場合には、対象となる部分が立体物候補以外であるか否かを判断する(S23)。その結果、立体物候補フラグが記録されており、立体物候補以外でない(立体物候補である)と判断した場合には、保留フラグを記録する(S24)。また、立体物候補フラグが記録されておらず、立体物候補以外であると判断した場合には、前方カメラ2F、左方カメラ2Lの両方より得られた前俯瞰図および左俯瞰図における近傍画素に基づいて、輝度補間計算を行う(S25)。
ここでの輝度補間計算では、図25に示す各位置関係に基づいて、下記(3)式を用いて輝度補間値Pflsを求めることができる。こうして求めた輝度補間値Pflsを最終的な輝度補間値として採用する。
こうして、各処理を行ったら、算出された補間値および記録されたフラグ等を格納する(S26)。それから、すべての対象領域を網羅したか否かを判断する(S27)。その結果、網羅していない対象領領域がある場合には、網羅していない対象領域を特定して(S28)、ステップS18に戻って処理を繰り返す。
一方、すべての対象領域を網羅したと判断した場合には、保留フラグが記録されている領域があるか否かを判断する(S29)。その結果、保留フラグが記録されている領域があると判断した場合には、保留フラグが記録されている対象領域における死角判定・輝度計算を行う(S30)。保留フラグが記録されている領域における死角判定・輝度計算は次の手順で行われる。
死角判定・輝度計算では、まず、保留フラグが記録されている対象領域における前俯瞰図および左俯瞰図の輝度補間値を比較する。その結果、輝度補間値が小さい方の俯瞰図に対応するカメラが死角となっていると判断する。
死角となっているカメラを判断したら、死角となっていない側のカメラの近傍画素から輝度補間計算を行う。ここでの輝度補間計算について図26〜図31を参照して説明する。図26に示すように、保留フラグは、俯瞰図上における立体物候補領域SEに記録されており、図中において立体物候補領域を濃色で示している。この保留フラグが記録された立体物候補領域のうち、前方カメラ2Fと左方カメラ2Lとの中点2Mからもっとも近い位置である最近立体物候補位置MNPを検出する。最近立体物候補位置MNPを検出したら、図27に示すように、両カメラ2F,2Lのそれぞれと最近立体物候補位置MNPとを通過する視線方向ベクトルFDV,LDVを導出する。これらの視線方向ベクトルFDV,LDVが本発明の投影方向となる。
視線方向ベクトルFDV,LDVを導出したら、前方視線方向および左方視線方向に対する立体物候補最小幅Wf,Wlを検出する。前方視線方向に対する立体物候補最小幅Wfを検出する際には、前方カメラ2Fと最近立体物候補位置MNPとを通過する前方視線方向ベクトルFDVと平行なベクトルのうち、立体物候補領域SEと重なる長さがもっとも短い前方視線方向最小重複長さベクトルの長さを導出する。この前方視線方向最小重複長さベクトルの長さが前方視線方向に対する立体物候補最小幅Wfとなる。同様に、左方視線方向に対する立体物候補最小幅Wlを検出する際には、左方カメラ2Lと立体物候補領域SEとを通過する左方視線方向ベクトルLDVと平行なベクトルのうち、立体物候補領域SEと重なる長さがもっとも短い左方視線方向最小重複長さベクトルの長さを導出する。この左方視線方向最小重複長さベクトルの長さが左方視線方向に対する立体物候補最小幅Wlとなる。これらの立体物候補最小幅Wf,Wlが本発明の障害物候補領域幅となる。
立体物候補最小幅Wf,Wlを導出したら、図28に示すように、前方視線方向に対する立体物候補最小幅Wfを左方視線方向ベクトルLDVへ投影して前方立体物候補投影幅Wftを導出する。同様に、左方視線方向に対する立体物候補最小幅Wlを前方視線方向ベクトルFDVへ投影して左方立体物候補投影幅Wltを導出する。そして、最近立体物候補位置MNPから前方立体物候補投影幅Wft分だけ移動する領域内の位置および最近立体物候補位置MNPから左方立体物候補投影幅Wlt分だけ移動する領域内の位置を立体物の前面と判断して立体物フラグを記録する。ここで得られる左方立体物候補投影幅Wltおよび前方立体物候補投影幅Wftを測定される位置が、本発明の障害物領域の撮像位置側の端部となる。立体物フラグが記録された立体物記録位置については、輝度補間値を求めることなく、立体物フラグのみを記録する。
立体物フラグを記録したら、図29に示すように、複数の左方視線方向ベクトルLDV1,LDV2,LDVN…に沿って前方画像の縦エッジ部(縦エッジ狭部フラグ記録部)HEFに隣接し、かつ左方カメラ2Lから見て前方画像の縦エッジ部HEより遠い立体物候補領域を抽出する。この領域は、左方カメラ2Lでは見えるが前方カメラ2Fでは死角であると判断し、この死角であると判断された領域を前方カメラ死角領域FDRとして導出する。
同様に、複数の前方視線方向ベクトルFDV1,FDV2,FDVN…に沿って左方画像の縦エッジ部(縦エッジ狭部フラグ記録部)HELに隣接し、かつ前方カメラ2Fから見て左方画像の縦エッジ部より遠い立体物候補領域を抽出する。この領域は、前方カメラ2Fでは見えるが左方カメラ2Lでは死角であると判断し、この死角であると判断された領域を左方カメラ死角領域LDRとして導出する。
こうして、両カメラの死角領域を導出したら、図30に示すように、前方カメラ死角領域FDRに含まれる位置については、左方画像のみの輝度値から輝度補間値を計算し、ここで算出された輝度値を最終的な輝度補間値として採用する。また、左方カメラ死角領域LDRに含まれる位置については、前方画像のみの輝度値から輝度補間値を計算し、ここで算出された輝度値を最終的な輝度補間値として採用する。
その後、立体物候補領域のうち、その他の領域についての処理を行う。その他の領域は、図28を用いて説明した最近立体物候補位置MNPから前方立体物候補投影幅Wft分だけ移動する領域内の位置および最近立体物候補位置MNPから左方立体物候補投影幅Wlt分だけ移動する領域内の位置となる。この位置には、立体物フラグが記録されて立体部物領域となる。図31に示すように、立体物フラグが記録された位置から左方視線方向および前方視線方向にそれぞれ伸ばした領域が重複する領域が立体物領域SFRとなる。この立体物領域SFRについて輝度計算を行うことなく立体物フラグを記録し、立体物候補領域の処理を終了する。こうして、図32に示すように、立体物候補領域SEのすべてについて、前方カメラ死角領域FDR、左方カメラ死角領域LDR、および立体物領域SFRと区分けされるとともに、前方カメラ死角領域FDR、左方カメラ死角領域LDRについて、死角とならない側のカメラから得られる画像に基づいて輝度補間値を求めて、死角判定および輝度計算を完了する。
図9に示すフローに戻り、死角判定・輝度計算が済んだら、各位置における補間値や立体物判定結果等を格納し(S31)、前左画像処理を終了する。さらに、図7に示すフローに戻り、前左画像処理が済んだら、同様の手順によって前右カメラ処理部13において左前右画像処理(処理B)、後左カメラ処理部14において後左画像処理(処理C)、後右カメラ処理部15において後右画像処理(処理D)をそれぞれ行う(S3〜S5)。その後、俯瞰図作成部16において処理A〜処理Dの結果を統合する処理を行い(S6)、最終的な俯瞰図を作成する。そして、作成した俯瞰図を情報出力部3に出力し、画像処理を終了する。
このように、本実施形態に係る画像処理装置においては、立体物投影方向を参照することにより、立体物候補領域SEの中から、立体物の死角となる領域を除いた立体物領域SFRを抽出することができる。したがって、カメラ2で撮像された画像を俯瞰画像に変換するにあたり、立体物の死角となる位置についてもその状況を検出することができ、もって立体物が存在する領域を精度よく検出することができる。
また、立体物候補領域SEの撮像位置側の端部および立体物候補領域SEの幅に基づいて、立体物領域SFRを抽出することにより、立体物領域SFRを容易に検出することができる。さらに、左方カメラ2Lでは死角となるが、前方カメラ2Fでは死角とならない位置などについては、死角とならないカメラで撮像した画像に基づいて輝度などを算出している。このため複数のカメラで撮像された画像を俯瞰画像に変換するにあたり、障害物の死角となる位置についてもその状況を検出することができ、もって障害物が存在する領域を精度よく検出することができる。
本発明の実施形態に係る画像処理装置のブロック構成図である。 車両におけるカメラの設置位置およびカメラからの撮像範囲を平面視する模式図である。 前左カメラ処理部のブロック構成図である。 (a)は補間対象位置を説明するための説明図、(b)は(a)の拡大図である。 マッピング位置の関係を示す説明図である。 (a)は左方カメラで撮像された画像を示す図、(b)は前方カメラで撮像された画像を示す図、(c)は(a)、(b)の両画像から得られる俯瞰図である。 本実施形態に係る画像処理装置の処理手順を示すフローチャートである。 前左画像処理の処理手順を示すフローチャートである。 図8に続く処理手順を示すフローチャートである。 (a)は前方カメラと画像との関係を示す模式図、(b)はその前左45度視線方向画像を示す図である。 (a)は左方カメラと画像との関係を示す模式図、(b)はその左前45度視線方向画像を示す図である。 (a)は前左45度視線方向画像に横エッジ処理を施した画像を示す図、(b)はその画像の幅方向の輝度変化を示すグラフ、(b)のグラグを微分したグラフ、(d)は(c)の絶対値を示すグラフである。 俯瞰情報格納図を示す図である。 仮想カメラの設定位置を説明する模式図である。 画素マッピングを行った後の俯瞰図を示す図である。 (a)は前方画像の画素の配置を示す図、(b)は(a)の部分拡大図である。 前方画像の4点の画素と補間対象位置との位置関係を示す図である。 (a)〜(e)は、4点の画素と補間対象位置の位置関係における種々の例を示す図である。 4点の画素と補間対象位置の位置関係における他の例を示す図である。 縦エッジを求める際の4点の画素と補間対象位置の位置関係を示す図である。 (a)は左方画像の画素の配置を示す図、(b)は(a)の部分拡大図である。 左方画像の4点の画素と補間対象位置との位置関係を示す図である。 (a)は前方画像の画素の配置を示す図、(b)は左方画像の画素の配置を示す図、(c)は(a)と(b)とを重ね合わせた画素の配置を示す図である。 画素の配置と俯瞰図との関係を示す図である。 前方画像の画素と左方画像の画素に基づいて補間対象位置の補間を行う際の数値関係を説明する説明図である。 俯瞰図に設定された立体物候補領域を示す図である。 立体物候補領域から立体物領域を求める工程の説明図である。 障害物領域の撮像位置側の端部を求める工程の説明図である。 俯瞰図における視線方向を説明する説明図である。 俯瞰図における前方カメラ死角領域および左方カメラ死角領域を説明する図である。 俯瞰図における立体物領域を求める工程の説明図である。 俯瞰図における立体物領域、前方カメラ死角領域、および左方カメラ死角領域を説明する図である。
符号の説明
1…画像処理装置、2R…右方カメラ、2B…後方カメラ、2L…左方カメラ、2F…前方カメラ、3…情報出力部、11…センサ情報取込部、12…前左カメラ処理部、13…前右カメラ処理部、14…後左カメラ処理部、15…後右カメラ処理部、16…俯瞰図作成部、21…正像化・エッジ検出部、22…俯瞰図マッピング部、23…前方カメラ画像補間部、24…左方カメラ画像補間部、25…補間値比較部、26…立体物領域導出部、27…補間情報採用・格納部。

Claims (5)

  1. 異なる位置から少なくとも一部が共通する領域を複数の撮像手段でそれぞれ撮像した複数の画像における画素情報を比較して、前記複数の画像を合成して得られる合成画像上における障害物を抽出する画像処理装置において、
    前記複数の画像における共通領域に存在する障害物の前記合成画像上における存在候補領域である障害物候補領域を抽出する障害物候補領域抽出手段と、
    前記各画像における障害物投影方向と各画像の障害物候補領域とに基づいて、前記合成画像上における障害物が存在する領域である障害物領域を抽出する障害物領域抽出手段と、を備えることを特徴とする画像処理装置。
  2. 前記複数の撮像手段で撮像された前記複数の画像におけるそれぞれの投影方向を導出する投影方向導出手段と、
    前記複数の画像におけるそれぞれの撮像位置と前記合成画像上における前記障害物候補領域とに基づいて、前記障害物領域の撮像位置側の端部を抽出する障害物端部検出手段と、
    前記障害物候補領域における前記投影方向と交差する方向の幅を導出する障害物候補領域幅導出手段と、をさらに備える請求項1に記載の画像処理装置。
  3. 前記障害物候補領域端部検出手段で得られた複数の前記障害物領域の撮像位置側の端部を、それぞれ前記投影方向に移動させて得られる複数の領域のうち、重複する領域を前記障害物領域として抽出する請求項2に記載の画像処理装置。
  4. 前記障害物候補領域のうち前記障害物領域を除いた領域について、前記障害物候補領域を検出した画像撮像した撮像手段以外の撮像手段で撮像して得られた画像における画素情報に基づいて補間する補間手段を備える請求項3に記載の画像処理装置。
  5. 前記複数の撮像手段で撮像された画像を高解像度の画像へと変換する解像度変換手段を備える請求項1〜請求項4のうちのいずれか1項に記載の画像処理装置。
JP2006307119A 2006-11-13 2006-11-13 画像処理装置 Expired - Fee Related JP4876862B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006307119A JP4876862B2 (ja) 2006-11-13 2006-11-13 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006307119A JP4876862B2 (ja) 2006-11-13 2006-11-13 画像処理装置

Publications (2)

Publication Number Publication Date
JP2008123293A true JP2008123293A (ja) 2008-05-29
JP4876862B2 JP4876862B2 (ja) 2012-02-15

Family

ID=39507978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006307119A Expired - Fee Related JP4876862B2 (ja) 2006-11-13 2006-11-13 画像処理装置

Country Status (1)

Country Link
JP (1) JP4876862B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101795271B1 (ko) * 2016-06-10 2017-11-07 현대자동차주식회사 영상의 선명화를 위한 전처리를 수행하는 영상 처리 장치 및 방법
JP2019151304A (ja) * 2018-03-06 2019-09-12 アイシン精機株式会社 周辺監視装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003232867A (ja) * 2002-02-12 2003-08-22 Toshiba Corp 物体検出方法及び装置
JP2006050451A (ja) * 2004-08-06 2006-02-16 Sumitomo Electric Ind Ltd 障害物警告システム及び画像処理装置
JP2006253872A (ja) * 2005-03-09 2006-09-21 Toshiba Corp 車両周辺画像表示装置および車両周辺画像表示方法
JP2007517273A (ja) * 2003-06-12 2007-06-28 本田技研工業株式会社 Visualhullを用いて群衆の人数を決定するシステムおよび方法
JP2007249257A (ja) * 2006-03-13 2007-09-27 Nissan Motor Co Ltd 移動体検出装置および移動体検出方法
JP2007316685A (ja) * 2006-05-23 2007-12-06 Nissan Motor Co Ltd 走路境界検出装置および走路境界検出方法
JP2007316790A (ja) * 2006-05-24 2007-12-06 Nissan Motor Co Ltd 歩行者検出装置および歩行者検出方法
JP2008092459A (ja) * 2006-10-04 2008-04-17 Toyota Motor Corp 周辺監視装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003232867A (ja) * 2002-02-12 2003-08-22 Toshiba Corp 物体検出方法及び装置
JP2007517273A (ja) * 2003-06-12 2007-06-28 本田技研工業株式会社 Visualhullを用いて群衆の人数を決定するシステムおよび方法
JP2006050451A (ja) * 2004-08-06 2006-02-16 Sumitomo Electric Ind Ltd 障害物警告システム及び画像処理装置
JP2006253872A (ja) * 2005-03-09 2006-09-21 Toshiba Corp 車両周辺画像表示装置および車両周辺画像表示方法
JP2007249257A (ja) * 2006-03-13 2007-09-27 Nissan Motor Co Ltd 移動体検出装置および移動体検出方法
JP2007316685A (ja) * 2006-05-23 2007-12-06 Nissan Motor Co Ltd 走路境界検出装置および走路境界検出方法
JP2007316790A (ja) * 2006-05-24 2007-12-06 Nissan Motor Co Ltd 歩行者検出装置および歩行者検出方法
JP2008092459A (ja) * 2006-10-04 2008-04-17 Toyota Motor Corp 周辺監視装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101795271B1 (ko) * 2016-06-10 2017-11-07 현대자동차주식회사 영상의 선명화를 위한 전처리를 수행하는 영상 처리 장치 및 방법
US10007972B2 (en) 2016-06-10 2018-06-26 Hyundai Motor Company Image processing apparatus and method for performing preprocessing to obtain image with improved sharpness
JP2019151304A (ja) * 2018-03-06 2019-09-12 アイシン精機株式会社 周辺監視装置

Also Published As

Publication number Publication date
JP4876862B2 (ja) 2012-02-15

Similar Documents

Publication Publication Date Title
US10157315B2 (en) Image capturing apparatus, monitoring system, image processing apparatus, image capturing method, and non-transitory computer readable recording medium
JP5165631B2 (ja) 車両周囲画像表示システム
CN103299617B (zh) 图像生成装置
JP5049300B2 (ja) 障害物検出表示装置
JP3764086B2 (ja) 車両用情報提供装置
KR101243108B1 (ko) 차량의 후방 영상 표시 장치 및 방법
JP2002335524A (ja) 運転支援装置
KR101093316B1 (ko) 차량주행중 영상정합 방법 및 그 시스템
JP2006341641A (ja) 映像表示装置及び映像表示方法
JP2002359838A (ja) 運転支援装置
JP2009129001A (ja) 運転支援システム、車両、立体物領域推定方法
JP2010109452A (ja) 車両周囲監視装置及び車両周囲監視方法
US9682655B2 (en) Method and device for operating a vehicle
JP2010117800A (ja) 駐車場監視装置及び方法
CN103999122A (zh) 用于改进多摄像机系统中的对象探测的方法
JP4797877B2 (ja) 車両用映像表示装置及び車両周囲映像の表示方法
KR20180092765A (ko) 탑뷰 영상을 이용한 차선인식 장치 및 방법
EP3379827A1 (en) Display device for vehicles and display method for vehicles
CN112069862A (zh) 目标检测方法和装置
JP5539250B2 (ja) 接近物体検知装置及び接近物体検知方法
JP5083443B2 (ja) 運転支援装置および方法、ならびに演算装置
JP2010183234A (ja) 描画装置
JP4876862B2 (ja) 画像処理装置
WO2010044127A1 (ja) 車外障害物高度検出装置
JP4519519B2 (ja) 動物体検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110811

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111101

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111114

R151 Written notification of patent or utility model registration

Ref document number: 4876862

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141209

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees