JP4696925B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP4696925B2
JP4696925B2 JP2006013065A JP2006013065A JP4696925B2 JP 4696925 B2 JP4696925 B2 JP 4696925B2 JP 2006013065 A JP2006013065 A JP 2006013065A JP 2006013065 A JP2006013065 A JP 2006013065A JP 4696925 B2 JP4696925 B2 JP 4696925B2
Authority
JP
Japan
Prior art keywords
image
unit
camera
imaging
dimensional information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006013065A
Other languages
English (en)
Other versions
JP2007195061A (ja
Inventor
守 古田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2006013065A priority Critical patent/JP4696925B2/ja
Publication of JP2007195061A publication Critical patent/JP2007195061A/ja
Application granted granted Critical
Publication of JP4696925B2 publication Critical patent/JP4696925B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、複数のカメラ(撮像手段)を用いて取得した画像を基にして撮像対象の3次元情報を把握する技術に関する。
車両に搭載したカメラによって車両周辺の画像を撮像し、運転者の周辺状況認知を支援するシステムが知られている(例えば、特許文献1参照)。特許文献1記載の技術は、複数のカメラで取得した画像を基にして仮想視点から見た画像を合成し、運転者に対して提供するものであり、走行状況に応じて視点位置、視線の向き、焦点距離などを変更可能としたことを特徴としている。
特許第3300334号公報
特許文献1における視点変換は、合成画像の画素位置に対応するカメラ取得画像とその画素位置をマッピングテーブルに格納しておき、その対応関係に基づいて合成画像を生成するものである。この手法は、撮像対象物に立体物が存在せず、全て道路平面上に位置している場合には、正確な変換画像を生成することができるが、対象物が立体である場合には、図25のIxで示されるように、実際よりもそそり立った画像を生成してしまう。
そこで、本発明は、撮像対象物の3次元情報を把握可能な画像処理装置を提供することを課題とする。
上記課題を解決するため、本発明にかかる画像処理装置は、(1)第1検出範囲の画像を取得する第1撮像手段と、(2)この第1検出範囲と一部が重複する第2検出範囲の画像を取得する第2撮像手段と、(3)第1撮像手段、第2撮像手段の各々で取得した対応する2画像をステレオ視処理することで、第1検出範囲と第2検出範囲の重複範囲内に存在する物体の3次元情報を検出する検出手段と、(4)第1撮像手段、第2撮像手段のそれぞれで取得した画像から物体の輪郭線を抽出する輪郭線抽出手段と(5)第1撮像手段で取得した画像中で第2検出範囲との重複範囲外に存在する物体と、重複範囲内に存在する物体との連続性を輪郭線抽出手段で抽出した輪郭線情報と、前記検出手段で検出した物体の3次元情報から求めた輪郭線情報の一致度に基づいて判定する連続性判定手段と、()連続性判定手段により重複範囲内に存在する物体と連続性を有すると判定された重複範囲外に存在する物体の3次元情報を、重複範囲内に存在する物体の3次元情報と判定した連続性に基づいて推定する推定手段と、を備えていることを特徴とする。
同一の撮像対象物を異なる視点位置から撮像し、画像における対応関係を基にして撮像対象の空間位置(3次元位置)を検出するステレオ視処理が知られている。本発明にかかる画像処理装置は、第1撮像手段と第2撮像手段で取得した画像中の重複している領域については、検出手段において第1撮像手段で撮像した画像と、第2撮像手段で撮像した画像間でステレオ視処理を行うことにより、3次元位置を検出する。重複していない領域、つまり、第1撮像手段のみで撮像されている対象物で、重複範囲内の物体と連続性を有する物体、つまり、重複範囲内の物体と重複範囲外の物体とが所定の位置関係にあると判定した場合には、その位置関係と重複範囲内の物体の3次元情報から、重複範囲外の物体の位置関係を推測しうる。一致度としては、3次元情報から求めた輪郭線の延長線と抽出した輪郭位置との偏差等を用いて判定すればよい。
検出手段と推定手段で算出した3次元情報に基づいて所定の仮想視点から見た画像を作成する画像作成手段をさらに備えているとよい。所定の仮想視点としては、例えば、全体を上方から見た視点が挙げられ、この場合には、いわゆる俯瞰図が作成される。
2つの撮像手段で重複して撮像している領域については、ステレオ視によりその3次元情報を取得し、一方のみで撮像している領域については、重複領域との連続性を評価して、ステレオ視により得られた3次元情報と、連続性から3次元情報を推定することで、重複領域以外についても3次元情報を取得することができる。このため、ステレオ視を行う領域が全体の一部にすぎない場合でも、撮像した領域全体について3次元情報を取得できる。このため、3次元情報を取得するのに必要なカメラの台数を減らすことができる。
輪郭線情報を基にして一致度を判定することで、特に、直線上に延在している物体(道路境界線やガードレール等)を基に精度よく判定を行うことが可能となる。また、仮想視点から見た画像に変換することで、撮像対象物の位置関係や高さを把握しやすくなる。
以下、添付図面を参照して本発明の好適な実施の形態について詳細に説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては可能な限り同一の参照番号を附し、重複する説明は省略する。
図1は、本発明にかかる画像処理装置の一実施形態の構成を示すブロック図である。この画像処理装置の画像処理手段2は、CPU、ROM、RAM等によって構成されている。以下に説明する画像処理手段2内の各構成要素は、ハードウェア的に区分されていてもよいが、共通のハードウェア上で稼働するソフトウェアによって実現されていてもよい。これらのソフトウェアは別々のプログラム、サブルーチン等によって構成される場合もあるが、一部またはその大部分のルーチンを共有していてもよい。
画像処理手段2には、複数のカメラ、本実施形態では、前方カメラ11、右側方カメラ12、左側方カメラ13、後方カメラ14の画像が入力される。図2は、各カメラ11〜14の車両3への配置例を示す図である。各カメラ11〜14は、車両3の前方中央、右側方中央、左側方中央、後方中央の略同一高さの位置にそれぞれ配置されている高視野角のカメラであり、例えば、図3に示されるような画像ILOを取得する画角180°の全周魚眼レンズを備えたカメラが好ましい。図2に示されるa、a、a、aは撮像領域を示している。
例えば、車両3の左側にガードレール4が延びている場合、再前方のレール部分40と最後方のレール部分46は、カメラの視野領域外になる。そして、レール部分41と42は、前方カメラ11の視野領域内に、レール部分42〜44が左側方カメラ13の視野領域内に、レール部分44、45が後方カメラ14の視野領域内にそれぞれ位置する。つまり、レール部分41、43、45はそれぞれ前方カメラ11、左側方カメラ13、後方カメラ14のいずれか一つのカメラのみにの視野領域に位置するが、レール部分42は、前方カメラ11と左側方カメラ13の視野が重なる領域に、レール部分44は、左側方カメラ13と後方カメラ14の視野が重なる領域に位置することになる。
各カメラ11〜14で取得した画像は、デジタル信号として画像取込部20へと送られる。画像信号のデジタル変換は、カメラ11〜14内で行われてもよいが、カメラ11〜14と画像取込部20の間にA/Dコンバータを設けて変換を行ってもよいし、画像取込部20にA/Dコンバータを内蔵する構成としてもよい。画像取込部20で取り込んだ画像は、処理結果記憶部21に格納される。この処理結果記憶部21は、RAMやフラッシュメモリ、ハードディスクなどの記憶媒体により構成される。
処理結果記憶部21に格納された画像情報をもとに、視点変換部22、エッジ処理部23、ステレオ視処理部24、連続性判定部25、仮想画像作成部26は、各々所定の画像処理を行い、必要ならば処理結果を処理結果記憶部21に格納する。出力部27は,仮想画像作成部26で生成された仮想画像を出力し、図示していない表示装置等に表示させる。
視点変換部22は、カメラ11〜14の撮像画像から特定の視点画像への変換を行う。エッジ処理部23は、ある画像中から所定のエッジ抽出処理により輪郭であるエッジ部を抽出する。ステレオ視処理部24は、同一被写体を別の方向から撮像した複数の画像をもとにしてステレオ視処理により被写体の空間位置を算出するものであり、複数の画像中において対応する画素位置を求める対応点探索部240と、対応点の画素位置と画像の投影位置とをもとにして対応点の空間位置を求める空間位置導出部241とを備えている。連続性判定部25は、画像中の空間位置が既知のエッジと連続している、言い換えると、既知のエッジの延長線上にあるエッジを検出するものであり、対応エッジ探索部250と、空間位置判定部251とを備えている。そして、仮想画像作成部26は、空間位置情報を基にして視点の異なる画像を作成するものである。
以下、この画像処理装置の動作を具体的に説明する。図4は、この動作の処理を示すフローチャートである。この処理は、車両の電源がオンにされてから所定のタイミングで繰り返し実行される。例えば、カメラ11〜14の画像取得レートに同期して、取得する画像1コマごと、あるいは、数コマおきに処理を行えばよい。
最初に、画像取込部20が前方カメラ11、右側方カメラ12、左側方カメラ13、後方カメラ14のそれぞれで撮影した画像を取得し、処理結果記憶部21に格納する(ステップS1)。次に、前方カメラ11の画像と左側方カメラ13の画像の視野が重なっている領域を対象に、被写体の3次元情報(空間位置情報)を導出する(ステップS2)。この導出処理の具体的な処理フローチャートを図5に示す。
最初に、左側方カメラ13で取得した画像の処理範囲を設定する(ステップS201)。図6は、各カメラ11〜14の撮像領域を示している。ここでは、処理範囲として前方カメラ11の撮像領域aと、左側方カメラ13の撮像領域aとが重なっている領域aLFを処理範囲として設定する。次に、視点変換部22は、左側方カメラ13の撮影画像ILOから前方45°方向の仮想視点画像ILFを生成して、処理結果記憶部21に格納する(ステップS202)。図7、図8は、この仮想視点画像生成を説明する図である。
魚眼レンズは通常のカメラ用レンズと異なり、正射影方式ではなく、等立体角射影や当距離射影方式を採用している。このため、画面中心を通る直線を除いて、図3に示されるように、空間上における直線形状(例えば、ガードレールの輪郭等)も画面には曲線として表示される。この画像から射影方式を正射影に変換し、その際の視線方向を変換することで、図8に示されるように直線を直線として表示させることができる。ここで、Iは、左側方方向の仮想視点画像であり、ILBは、後方45°方向の仮想視点画像を表す。
画像ILFを生成したら、エッジ処理部23により、画像内のエッジを抽出する(ステップS203、図9参照)。このエッジ抽出処理は、既知の各種のエッジ抽出手法(Sobelフィルタや方向差分等)を用いればよい。
続いて、ステップS201と同様に、前方カメラ11で取得した画像の処理範囲を設定する(ステップS204)。図6に示されるように、前方カメラ11の撮像領域a中で、左側方カメラ13の撮像領域aと重なっている領域aLFを処理範囲として設定する。次に、視点変換部22は、前方カメラ11の撮影画像IFOから左方45°方向の仮想視点画像IFLを生成して、処理結果記憶部21に格納する(ステップS205)。図10は、この仮想視点画像生成を説明する図である。ここで、Iは、前方向の仮想視点画像であり、IFRは、右方45°方向の仮想視点画像を表す。画像IFLを生成したら、エッジ処理部23により、画像内のエッジを抽出する(ステップS206)。
なお、ステップS204〜S206の処理は、ステップS201〜S203の処理とは独立した処理であるため、これらの処理と並列に行ってもよく、あるいは、ステップS201〜S203の処理に先立って行ってもよい。
次に、ステレオ視処理部24の対応点探索部240は、画像ILFとIFLの画素の対応点を探索する(ステップS207)。具体的には、図11に示されるように、画像ILF上の任意の小領域に対応する画像IFL上の小領域は、エピポーラ極線eFL上に存在する。そこで、画像IFL中の、画像ILFのエッジ構成点を含む領域に対応するエピポーラ極線eFL上に位置し、かつ、画像IFLのエッジ構成点に近い領域について画像ILFのエッジ構成点を含む領域との相関値を算出し、最も相関値の高い領域を求める。この最大相関値をSとする。そして、Sと閾値THsとを比較し(ステップS208)、Sが閾値THs以下の場合には、対応領域がないと判定し、後述するステップS211へと戻り、次のエッジ構成点の探索へと移行する。Sが閾値THsを超えている場合には、対応領域と判定し、ステップS209へと移行する。
ステップS209では、空間位置導出部241により、画像IFLと画像ILF中の対応画素位置情報を基にして、被写体の当該画素に対応する部分の空間位置を算出する。図12は、この空間位置算出の原理を説明する図である。
ここで、センサ座標系XsYsZsをとり、左右のカメラはセンサ原点をはさんで、X軸方向に基線長bだけ離れて配置されているものとする。つまり、左カメラの光学中心は、座標位置(−b/2,0,0)に、右カメラの光学中心は、座標位置(b/2,0,0)に位置するものとする。両カメラの焦点距離をf、対象物Pの左カメラの画面上の位置をPl(xl、yl)、右カメラの画面上の位置をPr(xr、yr)とする(画面上のX、X軸は、Xs軸と平行であり、Y、Y軸は、Zs軸と平行とする。)と、三角測量の原理により、対象物Pの空間位置(Xps,Yps,Zps)は、以下の式により表される。
Figure 0004696925
なお、ylとyrとは理想的には一致する。
さらに、このセンサ座標系から車両座標系への変換を行う。図13は、この座標変換を説明する図である。車両重心を原点とし、センサ座標系と各軸が平行な座標系XcYcZcを考える。このとき各軸Xc、Yc、Zcは、センサ座標系の各軸Xs、Ys、Zsをそれぞれax、ay、azシフトさせたものとなる。さらに、同様に車両重心を原点とし、鉛直軸をZf軸とし、軸Xc、Ycをそれぞれ水平面に投影した軸をXf、Yfとした場合の座標系XfYfZfを考える。ここで、XfとXcのなす角度をロール角φ、YfとYcのなす角度をピッチ角ρとすると、XcYcZc座標系における対象物Pの空間位置(Xpc,Ypc,Zpc)およびXfYfZf座標系における対象物Pの空間位置(Xpf,Ypf,Zpf)は、以下の式により表される。
Figure 0004696925
これにより、空間上の位置を表すことができる。なお、ax、ay、azはカメラの配置位置に基づいて決まる定数であり、φ、ρは車両3の姿勢情報から求めることができる。このようにして求めた空間位置を画面上の画素位置と関連づけて処理結果記憶部21に格納する。
次に、エッジの全ての構成点について空間位置情報の算出を終了したかを判定し(ステップS210)、終了していない場合には、ステップS211へ移行して、次のエッジ構成点についてステップS207〜S209の処理を行うことにより、画面内の全エッジについて空間位置情報の算出を行う。全ての構成点について算出が終了した場合には、図4のステップS2の処理を終了したことになる。
続く、ステップS3〜S5では、ステップS2において、前方カメラ11と左側方カメラ13の視野重なり領域aLFについて行ったのと同様の処理を、前方カメラ11と右側方カメラ12の視野重なり領域aRF、後方カメラ14と左側方カメラ13の視野重なり領域aLB、後方カメラ14と右側方カメラ12の視野重なり領域aRBのそれぞれについて実行する。これら、ステップS2〜S5の処理は、並行して行ってもよく、また、適宜順序を異ならせて行ってもよい。
ステップS6では、連続性判定部25内の対応エッジ探索部250が左側方カメラ画像内の物体連続性を判定し、続くステップS7において、空間位置判定部251が左側方カメラ13の画像領域(前方カメラ11、後方カメラ14と重複していない領域)の3次元情報を推測する。ステップS6、S7の具体的な処理フローチャートを図14に示す。
最初に、変換範囲を設定する(ステップS601)。これは、魚眼レンズで得られた画像全体の変換を行うと範囲が広くなりすぎるためであり、例えば、前後5mの範囲に設定する。この範囲は、前方カメラ11、後方カメラ14それぞれの撮像領域a、aとの重なり領域であるaLF、aLBの少なくとも一部を含むように設定される。
次に、視点変換部22により、左側方カメラ13の取得画像ILOから射影変換、視線変換により左90°(左側方)方向の画像Iを生成する(ステップS602、図7、図8、図15参照)。次に、エッジ処理部23が画像I中のエッジ抽出処理を実施する(ステップS603)。抽出したエッジ中には、ノイズ成分が含まれている可能性があることから、面積フィルタ、エッジ線長さ、孤立点除去等の手法を用いてノイズ除去処理を行い、結果を処理結果記憶部21に格納する(ステップS604)。
抽出したエッジについてその向き、位置、近接度合い等を参照してエッジをグループ分けして、それぞれにグループ識別番号であるGrIDを付す(ステップS605)。GrIDは、0から始まる整数であり、以下、総数NGrのグループにグルーピングした場合を例に説明する。この場合、最もGrIDの数値の大きなグループのGrIDは、NGr−1である。
グルーピング後、左側方方向の画像I中のエッジと左前45°方向の画像ILF中のエッジとの対応をとり、対応する画素に3次元情報を記録する(ステップS606)。具体的には、画像I内で領域aLFに位置している画素について、画像ILF上の画素位置を求める。これは、対応する元画像ILOとの対応から対応づけが可能である(図16参照)。画像ILF中のエッジについては、ステップS209において、空間位置情報が算出済みであるから、この空間位置情報を画像Iのエッジ画素に対応づければよい。同様に左側方方向の画像I中のエッジと左後45°方向の画像ILB中のエッジとの対応をとり、対応する画素に3次元情報を記録する(ステップS607)。
次に、変数iに初期値0を代入する(ステップS608)。この変数iは、後述の処理において連続性情報を判定するエッジのグループ識別番号GrIDに対応するものである。そして、iとNGrとを比較する(ステップS609)。上述したようにGrIDの最大値はNGr−1となるから、iがNGr以上の場合には、全てのエッジについて連続性情報判定処理が終了したことを意味する。そこで、この場合には以後の処理をスキップして終了する。iがNGr以上の場合には、連続性情報判定処理の終了していないエッジがあることを意味するので、後述の連続性情報判定処理を実行する。
連続性情報判定処理においては、まず、グループ識別番号GrIDがiのエッジで、すでにステップS606〜S607の処理において3次元情報が記録されている画素(PLBi,j、PLFi,j)からHough変換、最小自乗法等の処理により、それらの画素の近似直線LLiを表す3次元直線式S3Dを導出する(ステップS610、図17参照)。
次に、導出した3次元直線式S3Diを画像I中に投影する(ステップS611)。具体的には、画像I中での近似直線LLi位置を表す2次直線式S2Diを導出する。図18は、こうして求めたLLiを画像I上に実際に投影して示した場合の表示例である。
画像I中において前方カメラ11による撮影画像との重なり領域aLF、後方カメラ14による撮影画像との重なり領域aLBのいずれにも該当しない領域(図18における中央部分の領域)中で、かつ、グループ識別番号GrIDがiのエッジの構成点PLiについて、求めたLLiとの距離dLiの平均値Diを算出する(ステップS612、図19参照)。ここでは、単純平均値を用いたが、例えば、二乗平均等を用いてもよい。
次に求めた平均値Diを閾値THDiとを比較する(ステップS613)。Diが閾値THDi以上の場合には、画像Iの中間領域のエッジ構成物と両端のエッジ構成物とは不連続であると判定し、対応画素に不連続フラグを記録する(ステップS614)。具体的にはGrIDを−1に設定する。一方、Diが閾値THDi未満の場合には、画像Iの中間領域のエッジ構成物と両端のエッジ構成物とは連続であると判定し、空間位置判定部251が対応画素に3次直線式S3Diに基づいたLLi上の空間座標値を関連づけ、処理結果記憶部21に記録する(ステップS615)。ステップS614、S615の処理終了後はステップS616へと移動し、変数iに1加算して、ステップS609へと戻る。これを繰り返すことで、注管理領域に存在する全てのエッジについてその連続性を判定し、空間位置を求める。
ステップS6、S7と同様の処理を右側方カメラ12、前方カメラ11、後方カメラ14のそれぞれで単独で撮像した領域について実行する(ステップS8〜S13)。これにより、ステレオ視処理が行えない単独のカメラのみで撮像した領域についてもエッジの空間位置情報を導出することができる。
空間位置情報を導出したら、ステップS14へと移行し、仮想画像作成部26により、エレベーションマップを作成する。このエレベーションマップは、車両3の周辺を上から見た俯瞰図に対応したものであり、図20に示されるように、等間隔の格子で区切られたマス内に高さ情報E(x,y)が記録されたものである。高さ情報に加えて、エッジ画素の位置、輝度・色情報等も合わせて記録される。なお、3次元情報が記録されていない画素については、周囲の画素で3次元情報が記録されている画素から補間によりその3次元情報を求めるとよい。
求めたエレベーションマップを参考に、いずれのカメラ11〜14からも死角になっている部分を判定する(ステップS15)。具体的な死角判定について図21、図22を参照して説明する。図21は、死角を判定した俯瞰図の例である。車両3の周囲に、障害物として三角コーン50、樹木51、側溝52、ガードレール53が存在している。ここで、添字sを付した50s、51s、53sは、それぞれの障害物により死角となっている影を表している。図22は、この死角(影)部分を説明する図である。
車両3の乗っている水平面をS、カメラ10の設置高さをHc、立体物55の高さをh、カメラ10と立体物55との距離をdとすると、死角55sの長さLは、下記の式で表せる。
Figure 0004696925
なお、h≧Hcの場合には、死角55sと水平面が交差することはない。求めた死角領域はエレベーションマップに記録される。
仮想画像作成部26は、求めたエレベーションマップから図21に示されるような俯瞰図を作成する(ステップS16)。例えば、影部分は黒く塗りつぶして表示される。次に3次元情報を基にして道路構造物の判定と3次元位置姿勢情報の導出を行う(ステップS17)。正射影に変換した画像(IやILF等)を用い、3次元情報が記憶されている画素の周辺領域に対して、パターンマッチング(例えば、差分総和、正規化相関、ニュウラルネット等)手法等によって、白線、縁石、側溝、ガードレール等の道路構造物を認識する。そして、認識した道路構造物と、その輪郭部分の3次元情報を基にして構造物の位置・姿勢情報を算出する。図23は、側溝56について、判定を行った場合の例示である。
輪郭部分の3次元情報から、構造物の輪郭構成点の位置情報は把握されている。しかし、障害物回避や自動走行といった車両挙動制御を行うシステムへ個々の輪郭点の位置情報を伝達しても不要なデータが多いことから、必要なデータのみを提供することが望まれる。例えば、側溝56の場合には、その幅D12、車両3との距離d、伸長方向の角度φを算出して伝達するとよい。
その後、駐車車両等のその他の障害物について、その位置・姿勢情報を同様の手法で算出する(ステップS18)。例えば、駐車車両57の場合には、図24に示されるように、長方形とみなして、その幅S1、長さS2と、その高さ、および、自車両3との距離を算出して伝達するとよい。
ステップS19では、出力部27は、求めた俯瞰図および道路構造物や障害物の位置・姿勢情報を出力する。これらの情報は図示していない表示部へと出力したり、車両挙動制御装置に送り、障害物への接近警報や回避支援といった制御を行うとよい。
本実施形態によれば、複数のカメラで重ねて撮像している領域(例えば、aLF等)だけでなく、単独のカメラで撮像している領域についても対象物の3次元情報を把握することができる。このため、ステレオ視のみで3次元情報を把握しようとする場合と異なり、必ずしも全ての撮影領域について複数のカメラで撮影領域が重なり合うように配置する必要がなく、カメラの台数を減らすことができ、3、4台のカメラで全周の3次元情報を得ることが可能となる。
このようにして得られた3次元情報を基にして俯瞰図を作成することで、図25に示されるように投影面を異ならせて俯瞰図を作成する場合と異なり、より現状に則した俯瞰図を作成することができるとともに、死角となる領域を区分することもでき、運転者に車両周囲の状況を適切に把握させることが可能となる。
以上の説明では、物体の連続性判定を直線により行ったが、もちろん、近似曲線を用いることもできる。また、ここでは、車両の全周を撮像対象とする場合を例に説明したが、本発明は、最低2台のカメラにより、その一部の撮像領域が重なり合うように配置した場合に適用可能である。また、俯瞰図に限らず、任意の視点からの画像を作成することが可能となる。
本発明にかかる画像処理装置の一実施形態の構成を示すブロック図である。 各カメラ11〜14の車両3への配置例を示す図である。 カメラ11〜14で得られる画像の一例を示す図である。 本発明にかかる画像処理装置の動作処理を示すフローチャートである。 図4のステップS2の処理の具体的な処理フローチャートである。 各カメラ11〜14の撮像領域の関係を示す図である。 ステップS202における仮想視点画像生成を説明する図である。 生成される仮想視点画像の一例を示す図である。 画像中の抽出エッジ位置を示す図である。 ステップS205における仮想視点画像生成を説明する図である。 エピポーラ極線を説明する図である。 ステレオ視による空間位置算出原理を説明する図である。 センサ座標系から車両座標系への変換を説明する図である。 図4のステップS6、S7の処理の具体的な処理フローチャートである。 視点変換により得られる画像Iの一例を示す図である。 異なる視点変換画像中における画素の対応づけを説明する図である。 エッジの近似直線LLiの算出手法を説明する図である。 エッジの近似直線LLiを画像I中への投影例を示す図である。 近似直線LLiとの距離に基づく連続性判定を説明する図である。 エレベーションマップの一例を示す図である。 死角を判定した俯瞰図の例である。 死角領域部分の判定手法を説明する図である。 側溝を例に、道路構造物の位置姿勢情報の算出手法を説明する図である。 駐車車両の位置姿勢情報の把握例を説明する図である。 従来の手法により作成した俯瞰図の問題点を説明する図である。
符号の説明
3…自車両、10…カメラ、11…前方カメラ、12…右側方カメラ、13…左側方カメラ、14…後方カメラ、20…画像取込部、21…処理結果記憶部、22…視点変換部、23…エッジ処理部、24…ステレオ視処理部、25…連続性判定部、26…仮想画像作成部、27…出力部、4、40〜46…ガードレール、50…三角コーン、51…樹木、52…側溝、53…ガードレール、55…立体物、56…側溝、57…駐車車両、240…対応点探索部、241…空間位置導出部、250…対応エッジ探索部、251…空間位置判定部。

Claims (2)

  1. 第1検出範囲の画像を取得する第1撮像手段と、
    前記第1検出範囲と一部が重複する第2検出範囲の画像を取得する第2撮像手段と、
    前記第1撮像手段、第2撮像手段の各々で取得した対応する2画像をステレオ視処理することで、第1検出範囲と第2検出範囲の重複範囲内に存在する物体の3次元情報を検出する検出手段と、
    前記第1撮像手段、第2撮像手段のそれぞれで取得した画像から物体の輪郭線を抽出する輪郭線抽出手段と、
    前記第1撮像手段で取得した画像中で第2検出範囲との重複範囲外に存在する物体と、重複範囲内に存在する物体との連続性を前記輪郭線抽出手段で抽出した輪郭線情報と、前記検出手段で検出した物体の3次元情報から求めた輪郭線情報の一致度に基づいて判定する連続性判定手段と、
    前記連続性判定手段により重複範囲内に存在する物体と連続性を有すると判定された重複範囲外に存在する物体の3次元情報を、重複範囲内に存在する物体の3次元情報と判定した連続性に基づいて推定する推定手段と、
    を備えていることを特徴とする画像処理装置。
  2. 前記検出手段と推定手段で算出した3次元情報に基づいて所定の仮想視点から見た画像を作成する画像作成手段をさらに備えていることを特徴とする請求項1記載の画像処理装置。
JP2006013065A 2006-01-20 2006-01-20 画像処理装置 Expired - Fee Related JP4696925B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006013065A JP4696925B2 (ja) 2006-01-20 2006-01-20 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006013065A JP4696925B2 (ja) 2006-01-20 2006-01-20 画像処理装置

Publications (2)

Publication Number Publication Date
JP2007195061A JP2007195061A (ja) 2007-08-02
JP4696925B2 true JP4696925B2 (ja) 2011-06-08

Family

ID=38450379

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006013065A Expired - Fee Related JP4696925B2 (ja) 2006-01-20 2006-01-20 画像処理装置

Country Status (1)

Country Link
JP (1) JP4696925B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007232593A (ja) * 2006-03-01 2007-09-13 Toyota Motor Corp 物体検出装置

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5142801B2 (ja) * 2008-04-22 2013-02-13 アルパイン株式会社 オフセット補正装置およびオフセット補正方法
US9902341B2 (en) 2014-02-26 2018-02-27 Kyocera Corporation Image processing apparatus and image processing method including area setting and perspective conversion
TWI555378B (zh) * 2015-10-28 2016-10-21 輿圖行動股份有限公司 一種全景魚眼相機影像校正、合成與景深重建方法與其系統
CN109313018B (zh) 2016-06-08 2021-12-10 索尼公司 成像控制装置和方法、以及车辆

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10221775A (ja) * 1997-02-07 1998-08-21 Canon Inc 立体視撮像表示プログラムを記録した媒体及び複眼画像入出力装置
JP2000231637A (ja) * 1999-02-10 2000-08-22 Ffc:Kk 画像監視装置
JP2001114047A (ja) * 1999-10-20 2001-04-24 Matsushita Electric Ind Co Ltd 車両周囲状況提示装置
JP2004094707A (ja) * 2002-09-02 2004-03-25 Omron Corp ステレオ画像による平面推定方法および物体検出装置
JP2005347863A (ja) * 2004-05-31 2005-12-15 Nissan Motor Co Ltd 車両周囲表示装置及び車両周囲表示方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10221775A (ja) * 1997-02-07 1998-08-21 Canon Inc 立体視撮像表示プログラムを記録した媒体及び複眼画像入出力装置
JP2000231637A (ja) * 1999-02-10 2000-08-22 Ffc:Kk 画像監視装置
JP2001114047A (ja) * 1999-10-20 2001-04-24 Matsushita Electric Ind Co Ltd 車両周囲状況提示装置
JP2004094707A (ja) * 2002-09-02 2004-03-25 Omron Corp ステレオ画像による平面推定方法および物体検出装置
JP2005347863A (ja) * 2004-05-31 2005-12-15 Nissan Motor Co Ltd 車両周囲表示装置及び車両周囲表示方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007232593A (ja) * 2006-03-01 2007-09-13 Toyota Motor Corp 物体検出装置

Also Published As

Publication number Publication date
JP2007195061A (ja) 2007-08-02

Similar Documents

Publication Publication Date Title
JP5926228B2 (ja) 自律車両用の奥行き検知方法及びシステム
JP3064928B2 (ja) 被写体抽出方式
JP6013884B2 (ja) 物体検出装置及び物体検出方法
JP4956452B2 (ja) 車両用環境認識装置
JP4341564B2 (ja) 対象物判定装置
JP5752618B2 (ja) ステレオ視差算出装置
US10776637B2 (en) Image processing device, object recognizing device, device control system, image processing method, and computer-readable medium
JP6743882B2 (ja) 画像処理装置、機器制御システム、撮像装置、画像処理方法及びプログラム
JP2009176090A (ja) 環境認識装置
US10719949B2 (en) Method and apparatus for monitoring region around vehicle
JP2008102620A (ja) 画像処理装置
KR101544021B1 (ko) 3차원 지도 생성 장치 및 3차원 지도 생성 방법
JP2010224924A (ja) 画像処理装置
US10192141B2 (en) Determining scale of three dimensional information
EP2936386B1 (en) Method for detecting a target object based on a camera image by clustering from multiple adjacent image cells, camera device and motor vehicle
JP4032843B2 (ja) 監視システムおよび監視方法、当該監視システムにおける距離補正装置および距離補正方法
JP4696925B2 (ja) 画像処理装置
JP5539250B2 (ja) 接近物体検知装置及び接近物体検知方法
JP6455164B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP6543935B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP2018013985A (ja) 物体検知装置
KR100934904B1 (ko) 거리 추정 장치 및 추정 방법
JP2000293693A (ja) 障害物検出方法および装置
JP3540005B2 (ja) 障害物検出装置
JP2008165595A (ja) 障害物検出方法、障害物検出装置、障害物検出システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110214

R151 Written notification of patent or utility model registration

Ref document number: 4696925

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees