JP4053314B2 - Stereo image misalignment adjusting device, misalignment adjusting method, and stereo monitoring device - Google Patents

Stereo image misalignment adjusting device, misalignment adjusting method, and stereo monitoring device Download PDF

Info

Publication number
JP4053314B2
JP4053314B2 JP2002050934A JP2002050934A JP4053314B2 JP 4053314 B2 JP4053314 B2 JP 4053314B2 JP 2002050934 A JP2002050934 A JP 2002050934A JP 2002050934 A JP2002050934 A JP 2002050934A JP 4053314 B2 JP4053314 B2 JP 4053314B2
Authority
JP
Japan
Prior art keywords
image
parameter
horizontal
stereo image
stereo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002050934A
Other languages
Japanese (ja)
Other versions
JP2003256875A (en
Inventor
勉 丹沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK filed Critical Fuji Jukogyo KK
Priority to JP2002050934A priority Critical patent/JP4053314B2/en
Publication of JP2003256875A publication Critical patent/JP2003256875A/en
Application granted granted Critical
Publication of JP4053314B2 publication Critical patent/JP4053314B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ステレオ画像の位置ずれを幾何学的な画像変換処理により自動的に調整する調整装置、調整方法、および、ステレオ式監視装置に関する。
【従来の技術】
近年、CCD等の固体撮像素子を内蔵した一対の車載カメラ(ステレオカメラ)を用いたステレオ式監視装置が注目されている。三次元計測技術の一つであるステレオ法では、一方の画像中の画素ブロックと相関を有する画素ブロックを他方の画像において特定する(ステレオマッチング)。そして、両画像における相対的なずれ量である視差から、三角測量の原理を用いて距離データを算出する。したがって、ステレオマッチングの精度を高めるためには、換言すると、信頼性の高い距離データを算出するためには、一対の画像(ステレオ画像)間には視差以外に位置的なずれが存在しないことが望ましい。しかしながら、実際には、ステレオカメラの取付位置は、機械的な取付精度に起因した誤差の範囲内においてずれてしまう。
【0002】
この点に関して、特開2001−82955号公報には、ステレオ画像にアフィン変換を施すことによって、ステレオカメラの位置ずれを、監視制御と並行してリアルタイムで補正する位置ずれ調整装置が開示されている。この調整装置では、ステレオカメラより出力された一対の撮像画像に対して、アフィンパラメータの値に応じたアフィン変換を施す。演算部は、アフィンパラメータの内、基準画像を基準とした比較画像の回転ずれに関するパラメータの値と、基準画像を基準とした比較画像の垂直ずれ(上下ずれ)に関するパラメータの値とを随時補正する。そのために、まず、アフィン変換後の基準画像平面上において、複数の基準領域が設定される。これらの基準領域は、基準画像の同一水平線(基準線)上において互いに離間して一列に並んでおり、かつ、それぞれが所定の面積を有している。つぎに、アフィン変換後の比較画像平面上において、それぞれの基準領域と相関を有する相関領域が特定される。そして、特定された個々の相関領域の位置を示す一致点に基づいて、これらの一致点を通る近似線が、比較画像平面上において特定される。演算部は、比較画像側の近似線が基準画像の基準線と一致するように、比較画像の回転ずれと比較画像の垂直ずれとに関するアフィンパラメータの値を補正する。
【0003】
【発明が解決しようとする課題】
しかしながら、上記の従来技術では、基準画像を出力するメインカメラの取付位置は正しく調整されているものと仮定し、サブカメラより出力された比較画像の回転ずれと上下ずれとに関する調整のみを行っている。しかしながら、メインカメラが上下方向にずれて取付けられている場合、換言すれば、メインカメラの光軸を含む水平面上にサブカメラの光軸がない場合、エピポーララインを完全に一致するように調整することができない。そのため、ステレオカメラから対象物までの距離を示す距離データの信頼性が低下するという問題があった。
【0004】
そこで、本発明の目的は、ステレオ画像の位置ずれを監視制御と並行してリアルタイムで補正することが可能な新規な調整装置を提供することである。
【0005】
また、本発明の別の目的は、ステレオ画像の位置ずれ調整において、サブカメラから出力される比較画像の調整のみならず、メインカメラから出力される基準画像の調整も行うことで、調整精度の向上を図ることである。
【0006】
さらに、本発明の別の目的は、ステレオ画像に基づき算出される距離データの信頼性の向上を図ることにより、ステレオ式監視装置における対象物の認識精度の向上を図ることである。
【0007】
【課題を解決するための手段】
かかる課題を解決するために、第1の発明は、ステレオ画像の位置ずれ調整装置を提供する。この調整装置は、アフィンパラメータの値に応じて、ステレオ画像のアフィン変換を行う補正部と、補正部から出力された一方の画像において、複数の基準領域を設定する設定部と、設定部によって設定された基準領域のそれぞれについて、一方の画像における基準領域の水平位置と、基準領域とその相関先との間の垂直ずれ量と、基準領域と相関先との間の水平ずれ量とを含む一致点データを算出するデータ算出部と、データ算出部によって算出された複数の一致点データに基づいて、水平位置と垂直ずれ量と水平ずれ量とで構成される空間において、平面を規定する平面パラメータを算出するパラメータ算出部と、パラメータ算出部によって算出された平面パラメータに基づいて、アフィンパラメータの値を補正する補正演算部とを有する。
【0008】
ここで、第1の発明において、上記設定部は、複数の基準領域が一方の画像平面上に分散するように設定することが好ましい。この場合、設定部は、基準領域を一方の画像平面上にランダムに設定してもよい。また、設定部は、同一フレームの基準画像において、或いは、複数フレームの基準画像において、基準領域を所定のサンプル個数分設定することが好ましい。
【0009】
また、第1の発明において、一方の画像中の画素ブロック毎に、画素ブロックの相関先を他方の画像において特定することにより、画素ブロックの距離データを算出するステレオ演算部をさらに設けてもよい。この場合、データ算出部は、基準領域内に含まれる距離データに基づいて、基準領域の相関先を含む探索範囲を設定し、この探索領域を探索することによって、基準領域と相関先を特定することが好ましい。
【0010】
第1の発明において、上記パラメータ算出部は、データ算出部によって算出された複数の一致点データに基づいて、水平位置に関する分散を算出するとともに、算出された分散が所定のしきい値よりも大きい場合に、平面パラメータを算出してもよい。また、パラメータ算出部は、データ算出部によって算出された複数の一致点データに基づいて、水平ずれ量に関する分散を算出するとともに、算出された分散が所定のしきい値よりも大きい場合に、平面パラメータを算出してもよい。この場合、上記パラメータ算出部は、水平位置と水平ずれ量とによって規定される全てのサンプル点を通る近似直線を算出し、この近似直線を基準として、水平位置に関する分散と、水平ずれ量に関する分散と算出することが望ましい。
【0011】
第1の発明において、上記補正演算部は、一方の画像の回転を規定するアフィンパラメータ、他方の画像の回転を規定するアフィンパラメータ、または、他方の画像の垂直方向への移動を規定するアフィンパラメータの少なくとも一つを補正することが好ましい。
【0012】
第2の発明は、上記第1の発明に係るステレオ画像の位置ずれ調整装置と、上記補正部によって、アフィン変換が行われたステレオ画像より算出された距離データに基づいて、ステレオ画像に写し出された対象物を認識する認識部とを有するステレオ式監視装置を提供する。
【0013】
第3の発明は、ステレオ画像の位置ずれ調整方法を提供する。この調整方法は、アフィンパラメータの値に応じて、ステレオ画像のアフィン変換を行う第1のステップと、アフィン変換が行われたの一方の画像において、複数の基準領域を設定する第2のステップと、基準領域のそれぞれについて、一方の画像における基準領域の水平位置と、基準領域とその相関先との間の垂直ずれ量と、基準領域と相関先との間の水平ずれ量とを含む一致点データを算出する第3のステップと、複数の一致点データに基づいて、水平位置と垂直ずれ量と水平ずれ量とで構成される空間において、平面を規定する平面パラメータを算出する第4のステップと、平面パラメータに基づいて、アフィンパラメータの値を補正する第5のステップとを有する。
【0014】
ここで、第2の発明において、上記第4のステップは、複数の一致点データに基づいて、水平位置に関する分散を算出するステップを含むことが好ましい。そして、算出された分散が所定のしきい値よりも大きい場合に、平面パラメータを算出することが望ましい。その際、上記第4のステップは、複数の一致点データに基づいて、水平ずれ量に関する分散を算出するステップを含むことが好ましい。そして、算出された分散が所定のしきい値よりも大きい場合に、平面パラメータを算出することが望ましい。
【0015】
また、第2の発明において、上記第4のステップは、水平位置と水平ずれ量とによって規定される全てのサンプル点を通る近似直線を算出するステップと、算出された近似直線を基準として、水平位置に関する分散と、水平ずれ量に関する分散と算出するステップとを含んでいてもよい。
【0016】
さらに、第2の発明において、上記第5のステップは、一方の画像の回転を規定するアフィンパラメータ、他方の画像の回転を規定するアフィンパラメータ、または、他方の画像の垂直方向への移動を規定するアフィンパラメータの少なくとも一つを補正することが好ましい。
【0017】
【発明の実施の形態】
(第1の実施形態)
図1は、本実施形態に係るステレオ式車外監視装置のブロック構成図である。車外の景色を撮像するステレオカメラは、ルームミラーの近傍に取付けられており、CCD等のイメージセンサを内蔵した一対のカメラ1,2で構成されている。それぞれのカメラ1,2は、車幅方向において所定の間隔(カメラ基線長)で取付けられている。基準画像データを得るためのメインカメラ1は、車輌の進行方向に向かって右側に取付けられている。一方、比較画像を得るためのサブカメラ2は、進行方向に向かって左側に取付けられている。カメラ対1,2の同期が取れている状態において、各カメラ1,2から出力された画像(ステレオ画像)は、後段の回路の入力レンジに合致するように、アナログインターフェース3において調整される。また、アナログインターフェース3中のゲインコントロールアンプ(GCA)3aにおいて画像の明るさバランスが調整される。
【0018】
アナログインターフェース3において調整されたアナログ画像は、A/Dコンバータ4により、所定の輝度階調(例えば、256階調のグレースケール)のデジタル画像に変換される。補正回路5a,5bは、デジタル化されたそれぞれの画像に対してアフィン変換を施す。ステレオカメラ1,2の取付位置に関する誤差、そして、それに起因したステレオ画像のずれ(回転ずれや並進ずれ)は、画像にアフィン変換を施すことにより等価的に補正される。本明細書では、「アフィン変換」という用語を、画像の回転、移動、拡大・縮小、若しくは、これらに近似する幾何学的な座標変換を総称する意味で用いている。本実施形態では、4つのアフィンパラメータを用いて、ステレオ画像に数式1,2に示す線形変換を行っている。数式1は、補正回路5aが行う基準画像に対するアフィン変換の変換式を示し、数式2は、補正回路5bが行う比較画像に対するアフィン変換の変換式を示す。なお、同数式において、(i,j)は原画像の座標であり、(i’,j’)は変換後の座標である。また、アフィンパラメータSHFTI,SHFTJはそれぞれ、i方向(画像の水平方向)の移動、j方向(画像の垂直方向)の移動を示している。また、アフィンパラメータθ(θ1,θ2)は回転を示し、アフィンパラメータKはK倍の拡大(|K|<1の場合は縮小)を示している。
【数1】

Figure 0004053314
【数2】
Figure 0004053314
【0019】
基準画像に関するアフィンパラメータθ1,Kの内、画像の拡大を規定する拡大パラメータKは固定値(初期設定値)であるが、画像の回転を規定する回転パラメータθ1は可変値である。また、比較画像に関するアフィンパラメータθ2,SHFTI,SHFTJの内、拡大パラメータKと、画像の水平方向への移動を規定する水平パラメータSHFTIとは固定値であるが、回転パラメータθ2と、画像の垂直方向への移動を規定する垂直パラメータSHFTJとは可変値である。可変パラメータθ1,θ2,SHFTJの値は、マイクロコンピュータ9によって随時算出され、監視制御と並行して、リアルタイムで補正される。回転パラメータθ1,θ2を可変値とすることで、本来のカメラ基線(エピポーラライン)に対する基準画像の回転ずれと比較画像の回転ずれとが解消される。また、垂直パラメータSHFTJを可変値とすることで、基準画像を基準とした比較画像の垂直方向のずれが解消される。ステレオ画像に対してアフィン変換を施すことにより、ステレオマッチングの精度を確保する上で重要となる「エピポーララインの一致」、すなわち、基準画像と比較画像との間における水平線の一致が保証される。なお、アフィン変換回路のハードウェア構成については、特開平10−307352号公報に記述されているので、必要ならば参照されたい。
【0020】
このような画像処理を経て、メインカメラ1の出力信号から、例えば、水平方向が512画素、垂直方向が200画素で構成された1フレーム相当の基準画像データが得られる。また、サブカメラ2の出力信号から、基準画像と垂直方向長が同じで、基準画像よりも大きな水平方向長を有する1フレーム相当の比較画像データが生成される(一例として、水平方向が640画素、垂直方向が200画素)。これらの基準画像データおよび比較画像データは、後段の画像データメモリ7に格納される。
【0021】
ステレオ演算回路6は、基準画像データと比較画像データとに基づいて距離データを算出する。この距離データは、一例として、4×4画素の画素ブロックを算出単位とし、1フレーム相当の基準画像全体では128×50個の距離データが算出され得る。基準画像中の1画素ブロックを対象とした場合、その対象画素ブロックの輝度特性と相関を有する領域を比較画像を探索することにより特定する(ステレオマッチング)。周知のとおり、ステレオ画像に写し出された対象物までの距離は、ステレオ画像における視差、すなわち、基準画像と比較画像との間における水平方向のずれ量として現れる。したがって、比較画像の探索を行う場合、対象画素ブロックのj座標と同じ水平線(エピポーラライン)上を探索すればよい。ステレオ演算回路6は、このエピポーラライン上を1画素ずつシフトしながら、画素ブロック毎に対象画素ブロックとの相関を評価する。
【0022】
2つの画素ブロックの相関は、例えば、数式3に示すシティブロック距離CB(基本形)を算出することにより評価することができる。同数式において、pijは一方の画素ブロックのij番目の画素の輝度(輝度データ)であり、p2ijは他方の画素ブロックのij番目の輝度データである。シティブロック距離CBは、位置的に対応した輝度値p1ij,p2ij対の差(絶対値)の画素ブロック全体における総和であって、その差が小さいほど両画素ブロックの相関が大きいことを意味している。
【数3】
CB=Σ|p1ij−p2ij|
【0023】
基本的には、エピポーラライン上に存在する画素ブロック毎に算出されたシティブロック距離CBのうち、その値が最小となる画素ブロックが対象画素ブロックの相関先と判断される。このようにして特定された相関先と対象画素ブロックとの間の視差から距離データが出力される。なお、シティブロック距離を算出するためのハード構成については、特開平5−114009号公報に開示されているので、必要ならば参照されたい。以上の手法によって算出された距離データは、後段の距離データメモリ8に格納される。
【0024】
マイクロコンピュータ9(機能的に捉えた場合、その機能的ブロックである認識部10)は、道路形状(白線)や車輌前方の立体物(走行車)といった対象物を認識する。対象物の認識は、画像データメモリ7に記憶された画像データと距離データメモリ8に格納された距離データとに基づいて行われる。また、図示していない車速センサ、舵角センサからのセンサ情報、或いは、ナビゲーション情報等も必要に応じて参照される。そして、これらの認識結果に基づいて、認識部10は、前方のカーブや立体物に対する警報が必要と判定した場合、モニタやスピーカー等の警報装置11を作動させてドライバーに注意を促す。また、認識部10は、必要に応じて、制御装置12を制御することにより、AT(自動変速機)のシフトダウン、エンジン出力の抑制、或いはブレーキの作動といった車輌制御を実行する。
【0025】
マイクロコンピュータ9(機能的に捉えた場合、その機能的ブロックである補正演算部13)は、図2から図4までのフローチャートに示すルーチンにしたがい、基準画像の回転パラメータθ1の値、比較画像の回転パラメータθ2の値、および、比較画像の垂直パラメータSHFTJの値をリアルタイムで補正する。補正されたこれらのパラメータθ1,θ2,SHFTJは、補正回路5a,5bに随時フィードバックされる。なお、このルーチンは、所定の間隔で繰り返し実行される。
【0026】
まず、ステップ1において、補正演算部13は、i番目の基準領域Riを、基準画像平面上にランダムに設定し、この基準領域Ri内の輝度データpと距離データdとを読み込む。ここで、iは、基準領域Riの設定個数をカウントする変数である。この変数iの初期値は1であり、所定値(例えばi=20)に到達するまで、ステップ12によって順次インクリメントされる。図6に示すように、基準領域Riは、所定の面積(一例として16×16画素)を有する。基準画像平面における基準領域Riの位置を基準点aiで表す。本実施形態では、基準領域Riの左下隅を基準点aiとする。例えば、1番目の基準領域R1の位置は、基準点a1(ir1,jr1)で表される。本ステップ1以降ステップ10までの処理対象は、ステップ1で設定された基準領域Riである。
【0027】
ステップ2において、基準領域Riのエッジ数ENが算出される。図7に示すように、基準領域Ri中には、4×4個の距離データd、そして16×16個の輝度データpが存在する(同図の右側に示した輝度ブロックは、距離データd1が算出された画素ブロックに相当している)。これら256個の輝度データpから、水平方向において隣接した画素対毎に輝度差(輝度変化量)Δp(絶対値)が算出される。ただし、基準領域Rの一番左側に位置した画素列(例えば、距離データd1に係る画素ブロックについてはp11,p12,p13,p14(距離データd5,d9,d13に係る画素ブロックについても同様))に関しては、その左側に隣接した画素より輝度変化量Δpが算出される。結果的に、256個の輝度変化量Δpが算出される。つぎに、基準領域Riが輝度エッジを有するか否かを評価するために、256個の輝度変化量Δpの内、所定の判定しきい値以上のものの数をカウントし、その数を基準領域Riのエッジ数ENとする。
【0028】
つぎに、ステップ3において、基準領域Riに関する距離データの分布を求め、その最大出現度数MAXNと最頻距離値MFDとが算出される。上述したように、距離データは、1つの視差の算出単位である4×4の画素ブロック毎に1つ算出されるため、1つの基準領域R内には16個の距離データdiが存在する。図8は、基準領域Ri内に含まれる距離データdi(i=1〜16)のヒストグラムの説明図である。同図において、横軸は距離データdiの値、縦軸は出現度数である。このような分布から、最も大きな出現度数が最大出現度数MAXNとして特定され、出現度数が最も大きな距離データdiの値が最頻距離値MFDとして特定される。
【0029】
ステップ2およびステップ3で算出された値EN,MAXN,MFDに基づき、ステップ4からステップ7において、ステップ1で設定された基準領域Riが、二次元マッチングを行うのに”適した領域”であるかが評価される。本実施形態では、下記の4つの判定条件(ステップ4〜ステップ7)の全てを具備する場合に、基準領域Riが二次元マッチングを行うのに”適した領域”であると判断する。
【0030】
(判定条件)
1.エッジ数ENが所定の最小規定値EN min よりも大きいこと(ステップ4)
基準領域Riの相関先を探索する際、そのエッジ数ENが小さい(すなわち輝度エッジがあまり存在しない)とミスマッチが起こりやすい。そこで、二次元マッチングの精度の向上を図るために、適切に設定された最小規定値ENminよりもエッジ数ENが大きいこと、すなわち、基準領域Riが輝度エッジを有することを条件とする。
【0031】
2.エッジ数ENが所定の最大規定値EN max (EN max >EN min )よりも小さいこと(ステップ5)
例えば、垣根や林等が写し出された領域の相関先を探索する場合、茂みの陰影により同様の輝度エッジが多数存在するため、適切な相関先を特定することが困難となる。したがって、二次元マッチングの精度を向上させる観点から、基準領域Ri内に垣根等が写し出されている場合、その基準領域Riはマッチングを行うのに適切な領域ではないと判断する。垣根等が写し出されている状況では、その茂みの陰影により通常よりも多数の輝度エッジが出現する傾向がある。そこで、このような観点で適切に設定した最大規定値ENmaxとエッジ数ENとを比較することにより、その基準領域Riが二次元マッチングに適した領域であるか否かを判断する。
【0032】
3.最大出現度数MAXNがピーク判定規定値MAXN th よりも大きいこと(ステップ6)
この判定条件は、オクリュージョンの影響を評価するものである。オクリュージョンの影響をあまり受けていない場合、図8に示したヒストグラムにおいて大きなピークが一つ出現する傾向がある。これに対して、オクリュージョンの影響が大きくなると、その影響が大きいほどピークは低下し、小さなピークが複数個出現するという傾向がある。このような見地から、ピーク判定規定値MAXNthを適切に設定し、最大出現度数MAXNがピーク判定規定値MAXNthよりも大きい場合、その基準領域Riはオクリュージョンの影響を受けておらず評価に適した領域であると判断する。
【0033】
4.最頻距離値MFDが所定範囲以内であること(ステップ7)
この判定条件は、距離データに関するノイズの影響を評価するためのものである。通常、基準領域Ri内の距離データの値は、所定の距離レンジ内に収まる傾向がある。これは、通常、基準領域Ri内に写し出される対象物までの距離は、所定のレンジ内に収まる傾向があるからである。したがって、基準領域Riに通常写し出されるであろう対象物までの距離を考慮して、それに応じた距離レンジを設定しておく。そして、最頻距離値MFDがこの範囲からはずれている場合、この基準領域Riは、評価に適さない領域であると判断する。本実施形態では、16m〜70m(画素ずれ量としては24画素〜6画素)を所定範囲として設定している。
【0034】
以上のような4つの判定条件に基づき、基準領域Riがステレオマッチングに”適した領域”であると判断された場合のみ、ステップ4からステップ7までの各判断を経て、図3のステップ8に進む。それ以外の場合は、本ルーチンを抜ける。
【0035】
ステップ8からステップ10までの各手順は、一致点Pi、すなわち、基準領域Riの相関先の処理に関する。まず、ステップ8において、基準領域Ri内の距離データd(具体的には最頻距離値MFD)に基づき、探索範囲Siが比較画像において設定される。図6に示した基準領域R1を例に説明すると、基準画像平面において、基準領域R1の位置を示す基準点a1の座標を(ir1,ij1)とし、その最頻距離値をMFD1とする。ステレオ法の原理上、基準領域R1の相関先(基準領域R1と同一面積である16×16画素ブロック)は、基準領域R1の基準点a1に水平方向のずれ(最頻距離値MFD1)を加えた位置as1(ir1+MFD1,j1)付近に存在する。そこで、予想される上下左右の最大ずれ量を例えば4画素ほど見込み、位置as1を基準に上下左右方向に4画素ずらした領域、すなわち24×24画素の領域を探索範囲S1として設定する。なお、探索範囲S1の位置を設定する他の手法として、最頻距離値MFDiを用いた場合よりも精度が劣る可能性があるものの、基準領域R1内の距離データdの平均値を最頻距離値MFD1に代えて用いてもよい。
【0036】
そして、ステップ8において設定された探索範囲Si内において、一致点Piが算出される(ステップ9)。ここで、「一致点Pi」とは、基準領域Riの相関先に関する比較画像平面上の位置である。図5は、ある探索範囲Siにおける一致点Piの詳細な算出手順を示すフローチャートである。まず、ステップ51において、基準領域Riと、探索範囲Siに存在する16×16画素の画素領域とのシティブロック距離CBの分布が算出される。シティブロック距離CBは、探索範囲Si内に存在する画素ブロック(基準領域Riと同一面積で16×16画素)毎に上述した数式3に基づいて算出される。探索範囲Siの全域に渡って比較対象を水平/垂直方向に1画素ずつオフセットさせながら(二次元マッチング)、比較対象毎に1つのシティブロック距離CBが算出される。したがって、1つの探索範囲Siにおいて81個(9×9)のシティブロック距離CBが算出される。これにより、図9に示す探索範囲Si全域におけるシティブロック距離CBの分布が得られる。
【0037】
ステップ51に続くステップ52以降において、探索範囲Siにおける一致点Piが計算される。この一致点Piは、基本的には、シティブロック距離CBが極小となる点、すなわち、相関が最も大きい点の座標(imin,jmin)として与えられる。しかしながら、この座標(imin,jmin)は離散的な値であり、1画素以下の精度で位置を指定することができない。そのため、この値を画像の位置ずれ補正における入力変数として直接用いるのは、位置の調整精度の観点から好ましくない。そこで、上記座標(imin,jmin)を仮の一致点Pi’とし、以下の処理によって、1画素以下の分解能で位置表示が可能な(真の)一致点Pi(isub,jsub)を求める。
【0038】
なお、シティブロック距離CBの極小値が所定のしきい値よりも大きい場合は、相関が不明確であると判断して、そのサイクルにおける一致点Piの算出をスキップするようにしてもよい。これにより、適切でない相関先が特定されてしまうことを避けることができる。
【0039】
以下、一致点Piのi座標値、すなわち、シティブロック距離CBの値が最も小さくなる極小点のi座標値の算出手法について説明する、なお、これとまったく同様の手法で一致点Piのj座標値も算出することができるので、j座標値の算出手順については説明を省略する。図10は、jmin列の極小点近傍におけるシティブロック距離CBの分布特性を説明するための図であり、ステップ51で算出されたシティブロック距離CBの値を丸印でプロットしている。画素の面積が限りなく小さいと仮定した場合、シティブロック距離CBは破線で示したように、極小点近傍において左右対称でかつ連続的に分布するという特性を有する。このような観点から、破線の極小値、すなわち一致点Piのi座標値は、仮の一致点Pi’のi座標値とは異なる。
【0040】
そこで、シティブロック距離CBの分布が極小点近傍において左右対称となる特性を用いて、ステップ52以降の手順において、仮の一致点Pi'を基準として右側のシティブロック距離CBの差と左側のそれとを比較する。そして、直線近似によって、極小点、すなわち一致点Piのi座標値を算出する。まず、ステップ52において、数式4に示したように、仮の一致点Pi’のi座標値iminに対するi座標値imin−1の変化量を求める。これにより、仮の一致点Pi’よりも左側におけるシティブロック距離CBの変化量を評価する。同様に、仮の一致点Pi’のi座標値iminに対するi座標値imin+1の変化量を求めることで、仮の一致点Pi’よりも右側のシティブロック距離CBの変化量を評価する。
【数4】
ΔCB0=CB[imin−1,jmin]−CB[imin,jmin]
ΔCB1=CB[imin+1,jmin]−CB[imin,jmin]
【0041】
つぎに、ステップ53において、ステップ52で算出された左側のシティブロック距離差ΔCB0と右側のシティブロック距離差ΔCB1とを比較する。シティブロック距離CBの分布が極小点周りで対称になる特性に基づき、極小点が座標値(imin−1)〜imin間または座標値imin〜(imin+1)間のどちらに存在するのかを判断することができる。
【0042】
ステップ53において肯定判定された場合、すなわち、仮の一致点の座標値imin近傍で、シティブロック距離CBの変化が座標値iminの左側よりも右側の方で大きい場合、極小点は座標値imin〜(imin−1)間に存在すると判断される。この場合はステップ54に進み、点CB[imin,jmin]と点CB[imin+1,jmin]とを結ぶ直線L1の傾きmを算出する。そして、それに続くステップ55において、点CB[imin−1,jmin]を通り、かつ傾きが−mとなる直線L2を算出する。そして、ステップ55に続くステップ58において、算出された2本の直線L1,L2の交点を計算し、この交点を真の極小点(すなわち一致点Piのi座標値isub)とする。
【0043】
一方、ステップ53において否定判定された場合、すなわち、仮の一致点の座標値imin近傍で、シティブロック距離CBの変化が座標iminの右側よりも左側の方で大きい場合、極小点は、座標値imin〜(imin+1)間に存在すると判断される。この場合はステップ56に進み、点CB[imin,jmin]と点CB[imin−1,jmin]とを結ぶ直線L1の傾きmを算出する。それに続くステップ57において、点CB[imin+1,jmin]を通り、傾きが−mとなる直線L2を算出する。そして、ステップ56においてこれらの直線L1,L2の交点を算出することで、一致点Piのi座標値isubを決定する。
【0044】
図11は、左側のシティブロック距離差ΔCB0の方が右側の差ΔCB1よりも大きい場合に算出された直線L1,L2を示している。同図からわかるように、極小点近傍におけるシティブロック距離CBの分布を直線L1,L2で近似し、その交点を求める。そして、この交点を一致点Piのi座標値isubとして決定する。
【0045】
一致点Piのi座標値isubの算出手法と同じ手法を用いて、一致点Piのj座標値jsubを算出する。これにより、基準領域Riと最も大きな相関を有する対象領域の位置Pi(isub,jsub)(すなわち、サブピクセルレベルの一致点)を、1画素以下の分解能で算出することができる。
【0046】
図3のステップ10において、基準領域Riに関して算出された一致点データ(ir,dj,dpix)がマイクロコンピュータ9中のメモリ(図示せず)に一時的に格納される(ステップ10)。一致点データは、基準水平位置ir、垂直ずれ量djおよび水平ずれ量dpixが対応付けられたデータセットである。基準水平位置irは、基準画像平面上における基準領域Riの水平位置(基準点aiのi座標値)であり、例えば、基準領域R1ではir1になる。垂直ずれ量djは、基準点aiと、これが対応する一致点Piとの間の垂直方向のずれ量、換言すれば、基準領域Riとこの相関先との相対的な垂直ずれ量(サブピクセルレベル)である。例えば、基準領域R1に関して算出されたサブピクセルレベルの一致点P1のj座標値がjsub1とすると、この基準領域R1の垂直ずれ量djは(jsub1−jr1)になる。また、水平ずれ量dpixは、基準点aiと、これが対応する一致点Piとの間の水平方向のずれ量、換言すれば、基準領域Riとこの相関先との相対的な水平ずれ量(サブピクセルレベル)である。例えば、基準領域R1に関して算出されたサブピクセルレベルの一致点P1のi座標値がisub1とするとこの基準領域R1の水平ずれ量dpixは(isub1−ir1)になる。
【0047】
ステップ11において、一致点データ(ir,dj,dpix)が所定のサンプル個数(例えば20個)だけストアされたか否か、すなわち、変数iが20に到達したか否かが判断される。このステップ20で否定判定された場合は、ステップ12に進み、iに1を加算して、本ルーチンを抜ける。そして、本ルーチンの次の実行サイクルで、次の基準領域Ri+1がランダムに設定され、これを処理対象に上述したステップ1〜10が実行されることで、次の基準領域Ri+1に関する一致点データが算出される。これにより、基準領域R1,R2,R3,・・・の順で、一致点データが順次算出・ストアされる。そして、ストアされた一致点データの数がサンプル個数(=20)に到達すると、ステップ11の判定結果が否定から肯定に変わり、図4のステップ13に進む。
【0048】
サンプル個数分の基準領域R1〜R20を設定するにあたり重要なことは、これらを基準画像平面上に分散させ、ばらつかせることである。このばらつきが保証される限り、基準領域R1〜R20を、1フレームの基準画像内に設定する必要は必ずしもなく、複数フレームの基準画像に亘って設定してもよい。その結果、サンプルデータである基準水平位置irおよび水平ずれ量dpixもばらつき、後述する(ir,dj,dpix)空間において、サンプルデータir,dpixが局所的に集中することを防ぐ。
【0049】
ステップ13において、メモリにストアされた20サンプル分の一致点データ(ir,dj,dpix)が読み出される。続くステップ14では、読み出された一致点データに基づいて、基準水平位置ir群のヒストグラムと水平ずれ量dpix群のヒストグラムとがそれぞれ生成され、これらのばらつきが評価される。図12は、基準水平位置irのヒストグラムの説明図である。同図において、横軸は基準水平位置irの値、縦軸はその出現度数である。このヒストグラムに基づき、基準水平位置irの分散VERirが算出される。本実施形態では、(ir,dj,dpix)空間における平面を一義に特定し、この平面を規定するパラメータA,B,Cより、アフィンパラメータθ1,θ2,SHFTJを算出する。そのため、上記空間において、サンプルとして抽出された基準水平位置irが局所的に集中していると、信頼性の高い平面を規定できない。そこで、このステップ14で、基準水平位置irのばらつきの程度を示す分散VERirを算出している。
【0050】
図13は、水平ずれ量dpixのヒストグラムの説明図である。同図において、横軸は水平ずれ量dpixの値、縦軸はその出現度数である。このヒストグラムに基づき、水平ずれ量dpixの分散VERdpixが算出される。この分散VERdpixを算出する理由は、基準水平位置irと同様に、サンプルとして抽出された水平ずれ量dpixが(ir,dj,dpix)空間において局所的に集中していると、信頼性の高い平面を規定できないからである。
【0051】
ステップ15では、基準水平位置irの分散VERirが所定のしきい値VER1thよりも大きく、かつ、水平ずれ量dpixの分散VERdpixが所定のしきい値VER2thよりも大きいか否かが判断される。このステップ15で否定判定された場合、すなわち、基準水平位置irまたは水平ずれ量dpixの少なくとも一方がばらついていない場合には、信頼性の高い平面が規定できないと判断して、ステップ19のパラメータ更新を行うことなく、ステップ20に進む。そして、メモリにストアされていた全ての一致点データをクリアするとともに、変数iもクリアして、本ルーチンを抜ける。これに対して、ステップ15で肯定判定された場合は、ステップ16に進む。
【0052】
ステップ16では、全ての一致点データに対して、数式5で示す三次元平面方程式を当てはめ、最小二乗法またはハフ変換等によって、(ir,dj,dpix)空間上の平面を規定するパラメータA,B,Cが算出される。
【数5】
A・ir+B・dpix+dj+C=0
【0053】
ステップ17では、ステップ16で算出されたパラメータA,B,Cに基づき、三次元のカメラずれ量として、メインカメラ1の回転ずれ量ΔTrと、サブカメラ2の回転ずれ量ΔTlと、サブカメラ2の上下ずれ量ΔVlとが数式6より算出される。
【数6】
ΔTr=A−B
ΔTl=−B
ΔVl=−C
【0054】
ここで、図14を参照しながら、上記ずれ量ΔTr,ΔTl,ΔVlとパラメータA,B,Cとの関係について説明する。メインカメラ1が反時計方向にΔTrだけ回転している場合、基準画像の実際のエピポーララインL1’は、本来のエピポーララインL1に対してこの傾き値ΔTr分回転する。一方、サブカメラ1が反時計方向にΔTlだけ回転し、メインカメラ1に対して平行にΔVlずれている場合、比較画像の実際のエピポーララインL2’は、本来のエピポーララインL2に対してΔTrだけ回転し、ΔVlだけ平行移動する。また、ある基準領域Riに関して、基準画像上のその位置を基準点ai(ir,jr)とし、比較画像上における相関先の位置を一致点Pi(il,jl)とする。この場合、垂直ずれ量djは、数式7のように変形できる。
【数式7】
dj=jl−jr
=ΔVl+ΔTl・il−ΔTr・ir
=ΔVl+ΔTl(dpix+ir)−ΔTr・ir
=ΔVl+(ΔTl−ΔTr)ir+ΔTl・dpix
【0055】
上記変形は、(ir,dj,dpix)空間中で、1つの平面が構成されることを示している。そして、理論的には、サンプルデータとして抽出された全ての一致点データは、この平面上に存在する。そこで、(ir,dj,dpix)空間内に一致点データを配し、最小二乗法等により三次元平面(A・ir+B・dpix+dj+C=0)を特定する。これにより、上述した数式6に示す関係式が一義的に導出される。
【0056】
続くステップ18では、ずれ量ΔTr,ΔTl,ΔVlが所定のしきい値ΔTrth,ΔTlth,ΔVlthよりも大きいか否かが個別に判断される。このステップ18で否定判定されたずれ量ΔTr,ΔTl,ΔVlに関しては、対応するアフィンパラメータθ1,θ2,SHFTJの現在値が適切に設定されていると判断する。すなわち、ΔTr≦ΔTrthの場合はθ1の更新は行われず、ΔTl≦ΔTlthの場合はθ2の更新を行われず、ΔVl≦ΔVlthの場合はSHFTJの更新を行われない。そして、ステップ20において、メモリにストアされていた一致点データ等を全てクリアし、本ルーチンを抜ける。
【0057】
これに対して、ステップ18で肯定判定されたずれ量ΔTr,ΔTl,ΔVlに関しては、対応するアフィンパラメータθ1,θ2,SHFTJの更新処理が行われる(ステップ19)。すなわち、ΔTr>ΔTrthの場合はθ1が更新され、ΔTl>ΔTlthの場合はθ2が更新され、ΔVl>ΔVlthの場合はSHFTJが更新される。この更新処理では、数式8に従い、アフィンパラメータθ1,θ2,SHFTJの値が比例制御によって補正される。
【数8】
θ1←θ1−0.25×ΔTr
θ2←θ2−0.25×ΔTl
SHFTJ←SHFTJ−0.25×ΔVl
【0058】
すなわち、メインカメラ1の回転ずれ量ΔTrに所定のゲイン(例えば0.25)を乗じた値を、アフィンパラメータθ1の現在値より減算する。補正演算部13は、補正後のパラメータθ1を、基準画像のアフィン変換を行う補正回路5aにフィードバックする。補正回路5aは、補正後のパラーメータθ1を適用して、基準画像のアフィン変換を行う。これにより、メインカメラ1の回転ずれが解消される方向に、基準画像が回転する。また、サブカメラ2の回転ずれ量ΔTlおよび上下ずれ量ΔVlに所定のゲインを乗じた値を、アフィンパラメータθ2,SHFTJの現在値よりそれぞれ減算する。補正演算部13は、補正後のパラーメータθ2,SHFTJを、比較画像のアフィン変換を行う補正回路5bにフィードバックする。補正回路5bは、補正後のパラーメータθ2,SHFTJを適用して、比較画像のアフィン変換を行う。これにより、サブカメラ2の回転/上下ずれが解消される方向に、比較画像が回転/上下移動する。そして、ステップ19に続くステップ20において、メモリにストアされていた一致点データ等が全てクリアされて、本ルーチンを抜ける。
【0059】
このように、本実施形態では、基準水平位置ir、垂直ずれ量djおよび水平ずれ量dpixを含む一致点データに基づき、(ir,dj,dpix)空間における平面を特定することによって、カメラずれ量ΔTr,ΔTl,ΔVが算出される。そして、これらのずれ量ΔTr,ΔTl,ΔVlに応じて、基準画像のアフィンパラメータθ1と、比較画像のアフィンパラメータθ2,SHFTJとが、フィードバック制御によって調整される。このような調整をリアルタイムで行うことにより、経年変化や温度変化等によって、ステレオカメラの光学的位置にずれが生じた場合であっても、それを適切に解消することができる。その結果、ステレオ処理におけるミスマッチングの発生を低減し、距離データの信頼性を向上させることができ、ステレオ式監視装置の監視精度を一層向上させることが可能になる。
【0060】
特に、本実施形態では、メインカメラ1の回転ずれも調整しているので、従来技術と比較して、距離データの算出精度を一層向上させることができる。従来は、カメラの位置ずれ(エピポーララインの不一致)に関して、三次元のずれの自由度(基準画像の回転、比較画像の回転および比較画像の上下)があるにも拘わらず、ずれ量を完全に算出することができなかった。なぜなら、メインカメラ1の回転ずれは存在しない、或いは、無視できる程微少である仮定し、2つのパラメータ(基準点の水平座標、基準点と一致点との垂直ずれ量)のみに基づいて、カメラの位置ずれ量を算出していたからである。そのため、メインカメラ1の光軸を含む水平面上にサブカメラ2の光軸が存在しない場合、従来は、エピポーララインを完全に一致させることができず、その結果、算出距離の精度を、対象物までの距離の全域に亘って確保することが困難であった。これに対して、本実施形態では、上記2つのパラメータに、基準点aiと一致点Piとの水平ずれ量を加えた三次元のパラメータを用いて、カメラの位置ずれを算出している。そのため、理論的には、三次元のずれを完全に求めることが可能になり、より正確な位置ずれ調整が可能になる。
【0061】
また、本実施形態では、サンプルである基準水平位置irと水平ずれ量dpixとのばらつきを分散として評価した上で、これらの分散が所定のしきい値よりも大きい場合のみ、(ir,dj,dpix)空間上の平面パラメータA,B,Cを算出する。換言すれば、これらの分散が小さく、基準水平位置ir,水平ずれ量dpixが集中している場合には、平面パラメータA,B,Cを算出しない。これにより、サンプル群ir,dpixが局所的に集中している場合に、信頼性の低い平面が特定されるのを回避できるので、常に適切なアフィンパラメータθ1,θ2,SHFTJを算出できる。その結果、距離データの算出精度を一層向上させることが可能になる。なお、平面の信頼性を考慮しないのであれば、基準水平位置ir,水平ずれ量dpixのいずれか一方の分散のみを評価してもよく、或いは、双方を評価しなくてもよい。
【0062】
また、本実施形態では、一致点Piを探索する探索範囲Siを、基準領域Ri内の距離データに基づいて比較的狭い範囲(本実施形態では24×24画素のエリア)に限定している。このように探索範囲Siを絞り込むことで、一致点Piの探索に要する演算量を大幅に低減することができる。その結果、マイクロコンピュータ9の処理能力をそれほど要求することなく、認識・監視制御と並行して、リアルタイムで位置ずれの調整を行うことができるという効果がある。
【0063】
さらに、本実施形態では、基準領域Riが二次元マッチングを行う上で適した領域であるか否かを評価し、適していると判断された基準領域Riに基づいて、一致点Piを算出している。これにより、精度の高い二次元マッチングを行うことができるため、信頼性の高い一致点Piを算出することができる。その結果、精度の高いステレオ画像の位置ずれ調整を安定して行うことができる。
【0064】
なお、上述した実施形態では、基準領域Riの位置を基準画像平面上にランダムに設定している。しかしながら、基準領域Riの位置的なばらつきが確保される限り、その位置をランダムに設定する必要は必ずしもなく、1フレームまたは複数フレームの基準画像において、予め位置を設定しておいてもよい。
【0065】
また、上述した実施形態では、平面を規定する空間を(ir,dj,dpix)空間としているが、これに代えて(ir,dj,il)空間を用いてもよい。一致点Piの水平位置ilおよび水平ズレ量dpixは、dpix=il−irの関係にあり、ilが特定されればdpixも一義的に算出されるからである。このような観点より、本明細書において、「水平ずれ量」とは、水平ずれ量dpixそのもの、若しくは、水平ずれ量dpixを一義的に特定可能なパラメータを広く含む意味で用いている。
【0066】
また、上述した実施形態では、アフィンパラメータθ1,θ2,SHFTJのすべてを補正しているが、本発明は、これに限定されるものではなく、補正対象となるアフィンパラメータθ1,θ2,SHFTJの少なくとも一つであってもよい。
【0067】
さらに、上述した実施形態では、基準画像のアフィンパラメータは固定として、比較画像のアフィンパラメータを調整する例について説明した。しかしながら、本発明はこれに限定されるものではなく、例えば、比較画像のアフィンパラメータを固定として、基準画像のアフィンパラメータを調整してもよい。
【0068】
(第2の実施形態)
第1の実施形態では、算出平面の信頼性を担保するために、サンプルとして抽出された一致点データ(ir,dj,dpix)の内、パラメータir,dpixのばらつきを分散VERir,VERdpixによって個別に評価している。そして、双方がばらついている場合のみ、(ir,dj,dpix)平面の空間を算出している。しかしながら、図15に示すようなケース、すなわち、(ir,dj,dpix)空間でサンプル点(ir,dpix)が略一直線上に並んでしまう極めて稀なケースでは、平面を一義的に特定できないという不都合が生じる。その結果、個々のパラメータir,dpixはばらついているにも拘わらず、不適切なアフィンパラメータθ1,θ2,SHFTJが算出され、距離データの精度低下を招くおそれがある。
【0069】
そこで、本実施形態では、サンプルとして抽出された全ての一致点データを通る近似直線BLを算出し、この近似直線BLを基準としたばらつきを評価することで、上記不都合を解消する。基本的な処理の流れは、図2から図4に示したフローチャートと同様であるが、ステップ14の手順のみが相違する。
【0070】
具体的には、図4のステップ14において、まず、全てのサンプル点(ir,dpix)を通る近似直線BLを最小二乗法により算出する。つぎに、この近似直線BLを基準とした基準水平位置irのばらつきを分散VERirとして算出する。それとともに、近似直線BLを基準とした水平ずれ量dpixのばらつきを分散VERdpixとして算出する。算出された分散VERir,VERdpixは、図15のケースでは共にほぼ0となり、近似直線BLを基準にしたサンプル点(ir,dpix)のばらつきが大きくなるに従い大きくなる。そして、ステップ14以降において、第1の実施形態と同様に、パラメータir,dpixのばらつきを評価する。
【0071】
本実施形態のような分散算出手法を用いることにより、図15に示すようなケースでは、ステップ15の判定結果が否定となり、アフィンパラメータが更新されない。その結果、不適切なアフィンパラメータθ1,θ2,SHFTJが算出されるのを回避でき、距離データの精度低下を防止できる。
【発明の効果】
このように、本発明では、ステレオ画像のずれを自動的かつリアルタイムで調整することが可能になる。そして、位置ずれが適切に調整された画像情報に基づいて、対象物の認識を行えば、認識精度の向上を図ることができる。
【図面の簡単な説明】
【図1】本実施形態に係るステレオ式車外監視装置のブロック構成図
【図2】アフィンパラメータの調整手順の一部を示すフローチャート
【図3】図2に続く手順を示すフローチャート
【図4】図3に続く手順を示すフローチャート
【図5】一致点の詳細な算出手順を示すフローチャート
【図6】基準画像における基準領域の説明図
【図7】基準領域に関する輝度データと距離データとの説明図
【図8】一基準領域に関する距離データdのヒストグラムの説明図
【図9】一基準領域に関するシティブロック距離の分布図
【図10】極小点近傍におけるシティブロック距離の分布特性の説明図
【図11】直線近似による一致点の算出手法の説明図
【図12】基準水平座標irのヒストグラムの説明図
【図13】水平ずれ量dpixのヒストグラムの説明図
【図14】ステレオ画像とカメラずれとの関係を示す図
【図15】(ir,dj,dpix)空間において、サンプル点(ir,dpix)が略一直線上に並んだケースを示す図
【符号の説明】
1 メインカメラ
2 サブカメラ
3 アナログインターフェース
3a ゲインコントロールアンプ
4 A/Dコンバータ
5a 補正回路
5b 補正回路
6 ステレオ演算回路
7 画像データメモリ
8 距離データメモリ
9 マイクロコンピュータ
10 認識部
11 警報装置
12 制御装置
13 補正演算部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an adjustment device, an adjustment method, and a stereo monitoring device that automatically adjust a positional deviation of a stereo image by a geometric image conversion process.
[Prior art]
In recent years, a stereo type monitoring apparatus using a pair of in-vehicle cameras (stereo cameras) incorporating a solid-state imaging device such as a CCD attracts attention. In the stereo method, which is one of the three-dimensional measurement techniques, a pixel block having a correlation with a pixel block in one image is specified in the other image (stereo matching). Then, distance data is calculated from the parallax, which is a relative shift amount between both images, using the principle of triangulation. Therefore, in order to increase the accuracy of stereo matching, in other words, in order to calculate highly reliable distance data, there may be no positional deviation other than parallax between a pair of images (stereo images). desirable. However, in practice, the stereo camera mounting position shifts within a range of errors due to mechanical mounting accuracy.
[0002]
In this regard, Japanese Patent Application Laid-Open No. 2001-82955 discloses a position shift adjustment device that corrects a position shift of a stereo camera in real time in parallel with monitoring control by performing affine transformation on a stereo image. . In this adjustment device, affine transformation corresponding to the value of the affine parameter is performed on the pair of captured images output from the stereo camera. The arithmetic unit corrects, as needed, a parameter value related to the rotational shift of the comparative image relative to the reference image and a parameter value related to the vertical shift (vertical shift) of the comparative image relative to the reference image. . For this purpose, first, a plurality of reference areas are set on the reference image plane after the affine transformation. These reference areas are arranged in a line apart from each other on the same horizontal line (reference line) of the reference image, and each has a predetermined area. Next, on the comparison image plane after the affine transformation, a correlation area having a correlation with each reference area is specified. Then, based on coincidence points indicating the positions of the identified individual correlation regions, approximate lines passing through these coincidence points are identified on the comparison image plane. The calculation unit corrects the value of the affine parameter related to the rotation shift of the comparison image and the vertical shift of the comparison image so that the approximate line on the comparison image side matches the reference line of the reference image.
[0003]
[Problems to be solved by the invention]
However, in the above prior art, it is assumed that the mounting position of the main camera that outputs the reference image is correctly adjusted, and only the adjustment relating to the rotational shift and vertical shift of the comparison image output from the sub camera is performed. Yes. However, when the main camera is mounted vertically shifted, in other words, when the optical axis of the sub camera is not on the horizontal plane including the optical axis of the main camera, the epipolar line is adjusted to be completely coincident. I can't. For this reason, there is a problem that the reliability of the distance data indicating the distance from the stereo camera to the object is lowered.
[0004]
Accordingly, an object of the present invention is to provide a novel adjustment device capable of correcting a positional deviation of a stereo image in real time in parallel with the monitoring control.
[0005]
Another object of the present invention is to adjust not only the comparison image output from the sub-camera but also the reference image output from the main camera in the stereo image misalignment adjustment, thereby improving the adjustment accuracy. It is to improve.
[0006]
Furthermore, another object of the present invention is to improve the recognition accuracy of an object in a stereo monitoring device by improving the reliability of distance data calculated based on a stereo image.
[0007]
[Means for Solving the Problems]
In order to solve such a problem, the first invention provides a stereo image misalignment adjusting apparatus. This adjustment device is set by a correction unit that performs affine transformation of a stereo image, a setting unit that sets a plurality of reference regions in one image output from the correction unit, and a setting unit according to the value of an affine parameter For each of the determined reference areas, the matching includes the horizontal position of the reference area in one image, the vertical shift amount between the reference area and the correlation destination, and the horizontal shift amount between the reference area and the correlation destination. A plane parameter that defines a plane in a space composed of a horizontal position, a vertical shift amount, and a horizontal shift amount based on a data calculation unit that calculates point data and a plurality of matching point data calculated by the data calculation unit And a correction calculation unit for correcting the value of the affine parameter based on the plane parameter calculated by the parameter calculation unit. .
[0008]
Here, in the first invention, the setting unit preferably sets the plurality of reference regions so as to be dispersed on one image plane. In this case, the setting unit may randomly set the reference area on one image plane. Further, it is preferable that the setting unit sets a reference area for a predetermined number of samples in a reference image of the same frame or a reference image of a plurality of frames.
[0009]
In the first invention, for each pixel block in one image, a stereo calculation unit that calculates the distance data of the pixel block by specifying the correlation destination of the pixel block in the other image may be further provided. . In this case, the data calculation unit sets a search range including the correlation destination of the reference area based on the distance data included in the reference area, and specifies the reference area and the correlation destination by searching this search area. It is preferable.
[0010]
In the first invention, the parameter calculation unit calculates a variance relating to the horizontal position based on the plurality of coincidence point data calculated by the data calculation unit, and the calculated variance is larger than a predetermined threshold value. In this case, the plane parameter may be calculated. The parameter calculation unit calculates a variance related to the horizontal shift amount based on the plurality of coincidence point data calculated by the data calculation unit, and when the calculated variance is larger than a predetermined threshold, A parameter may be calculated. In this case, the parameter calculation unit calculates an approximate straight line that passes through all the sample points defined by the horizontal position and the horizontal shift amount, and uses the approximate straight line as a reference to distribute the horizontal position and the horizontal shift amount. It is desirable to calculate as follows.
[0011]
In the first invention, the correction calculation unit includes an affine parameter that defines the rotation of one image, an affine parameter that defines the rotation of the other image, or an affine parameter that defines the movement of the other image in the vertical direction. It is preferable to correct at least one of the above.
[0012]
According to a second aspect of the present invention, a stereo image misalignment adjusting apparatus according to the first aspect of the present invention and the correction unit project the stereo image based on the distance data calculated from the stereo image that has been subjected to affine transformation. A stereo monitoring device having a recognition unit for recognizing a target object.
[0013]
The third invention provides a method for adjusting the displacement of a stereo image. This adjustment method includes a first step of performing affine transformation of a stereo image according to an affine parameter value, and a second step of setting a plurality of reference regions in one image on which affine transformation has been performed. For each of the reference areas, a coincidence point including the horizontal position of the reference area in one image, the vertical shift amount between the reference area and its correlation destination, and the horizontal shift amount between the reference area and the correlation destination A third step of calculating data, and a fourth step of calculating a plane parameter defining a plane in a space composed of a horizontal position, a vertical shift amount, and a horizontal shift amount based on a plurality of coincidence point data And a fifth step of correcting the value of the affine parameter based on the plane parameter.
[0014]
Here, in the second invention, it is preferable that the fourth step includes a step of calculating a variance relating to the horizontal position based on a plurality of matching point data. Then, it is desirable to calculate the plane parameter when the calculated variance is larger than a predetermined threshold value. In that case, it is preferable that the fourth step includes a step of calculating a variance relating to the horizontal shift amount based on a plurality of coincident point data. Then, it is desirable to calculate the plane parameter when the calculated variance is larger than a predetermined threshold value.
[0015]
In the second invention, the fourth step includes a step of calculating an approximate straight line that passes through all the sample points defined by the horizontal position and the amount of horizontal deviation, and a horizontal line based on the calculated approximate straight line. A step of calculating a variance relating to the position and a variance relating to the amount of horizontal deviation may be included.
[0016]
Further, in the second invention, the fifth step defines the affine parameter that defines the rotation of one image, the affine parameter that defines the rotation of the other image, or the movement of the other image in the vertical direction. Preferably, at least one of the affine parameters to be corrected is corrected.
[0017]
DETAILED DESCRIPTION OF THE INVENTION
(First embodiment)
FIG. 1 is a block configuration diagram of a stereo-type vehicle exterior monitoring apparatus according to the present embodiment. A stereo camera that captures the scenery outside the vehicle is mounted in the vicinity of the room mirror, and is composed of a pair of cameras 1 and 2 that incorporate an image sensor such as a CCD. The cameras 1 and 2 are attached at a predetermined interval (camera base line length) in the vehicle width direction. The main camera 1 for obtaining the reference image data is attached on the right side in the traveling direction of the vehicle. On the other hand, the sub camera 2 for obtaining a comparative image is attached on the left side in the traveling direction. In a state where the camera pairs 1 and 2 are synchronized, images (stereo images) output from the cameras 1 and 2 are adjusted in the analog interface 3 so as to match the input range of the subsequent circuit. Further, the brightness balance of the image is adjusted by a gain control amplifier (GCA) 3 a in the analog interface 3.
[0018]
The analog image adjusted in the analog interface 3 is converted by the A / D converter 4 into a digital image having a predetermined luminance gradation (for example, a gray scale of 256 gradations). The correction circuits 5a and 5b perform affine transformation on each digitized image. An error relating to the mounting position of the stereo cameras 1 and 2 and a shift (rotation shift or translation shift) of the stereo image caused by the error are equivalently corrected by performing affine transformation on the image. In this specification, the term “affine transformation” is used to collectively refer to rotation, movement, enlargement / reduction, or geometric coordinate transformation that approximates these. In this embodiment, the linear transformation shown in Formulas 1 and 2 is performed on the stereo image using four affine parameters. Formula 1 shows a conversion formula of affine transformation for the reference image performed by the correction circuit 5a, and Formula 2 shows a conversion formula of affine transformation for the comparison image performed by the correction circuit 5b. In the equation, (i, j) is the coordinates of the original image, and (i ′, j ′) is the coordinates after conversion. The affine parameters SHFTI and SHFTJ indicate movement in the i direction (the horizontal direction of the image) and movement in the j direction (the vertical direction of the image), respectively. The affine parameters θ (θ1, θ2) indicate rotation, and the affine parameters K indicate K-fold enlargement (reduction when | K | <1).
[Expression 1]
Figure 0004053314
[Expression 2]
Figure 0004053314
[0019]
Of the affine parameters θ1 and K related to the reference image, the enlargement parameter K that defines image enlargement is a fixed value (initial setting value), but the rotation parameter θ1 that defines image rotation is a variable value. Of the affine parameters θ2, SHFTI, and SHFTJ relating to the comparative image, the enlargement parameter K and the horizontal parameter SHFTI that regulates the horizontal movement of the image are fixed values, but the rotation parameter θ2 and the vertical direction of the image The vertical parameter SHFTJ that defines the movement to is a variable value. The values of the variable parameters θ1, θ2, and SHFTJ are calculated at any time by the microcomputer 9, and are corrected in real time in parallel with the monitoring control. By setting the rotation parameters θ1 and θ2 to variable values, the rotation shift of the reference image and the rotation shift of the comparative image with respect to the original camera base line (epipolar line) are eliminated. Further, by setting the vertical parameter SHFTJ to a variable value, the vertical shift of the comparison image with the reference image as a reference is eliminated. By performing the affine transformation on the stereo image, “equipolar line matching”, which is important in ensuring the accuracy of stereo matching, that is, matching of the horizontal line between the reference image and the comparison image is guaranteed. Note that the hardware configuration of the affine transformation circuit is described in Japanese Patent Laid-Open No. 10-307352, so refer to it if necessary.
[0020]
Through such image processing, reference image data corresponding to one frame composed of, for example, 512 pixels in the horizontal direction and 200 pixels in the vertical direction is obtained from the output signal of the main camera 1. Further, from the output signal of the sub camera 2, comparison image data corresponding to one frame having the same vertical length as the reference image and a larger horizontal length than the reference image is generated (for example, the horizontal direction is 640 pixels). The vertical direction is 200 pixels). These reference image data and comparison image data are stored in the subsequent image data memory 7.
[0021]
The stereo arithmetic circuit 6 calculates distance data based on the reference image data and the comparison image data. As an example of this distance data, a pixel block of 4 × 4 pixels is used as a calculation unit, and 128 × 50 distance data can be calculated for the entire reference image corresponding to one frame. When one pixel block in the reference image is targeted, a region having a correlation with the luminance characteristic of the target pixel block is specified by searching the comparison image (stereo matching). As is well known, the distance to the object projected in the stereo image appears as a parallax in the stereo image, that is, a horizontal shift amount between the reference image and the comparison image. Therefore, when searching for a comparative image, it is only necessary to search on the same horizontal line (epipolar line) as the j coordinate of the target pixel block. The stereo arithmetic circuit 6 evaluates the correlation with the target pixel block for each pixel block while shifting the pixel on the epipolar line one pixel at a time.
[0022]
The correlation between two pixel blocks can be evaluated, for example, by calculating a city block distance CB (basic form) shown in Equation 3. In the equation, pij is the luminance (luminance data) of the ijth pixel of one pixel block, and p2ij is the ijth luminance data of the other pixel block. The city block distance CB is the sum of the difference (absolute value) between the luminance values p1ij and p2ij corresponding to each other in the entire pixel block, and the smaller the difference is, the greater the correlation between the two pixel blocks is. Yes.
[Equation 3]
CB = Σ | p1ij−p2ij |
[0023]
Basically, of the city block distances CB calculated for each pixel block existing on the epipolar line, the pixel block having the smallest value is determined as the correlation destination of the target pixel block. Distance data is output from the parallax between the correlation destination specified in this way and the target pixel block. The hardware configuration for calculating the city block distance is disclosed in Japanese Patent Application Laid-Open No. 5-114009, so please refer to it if necessary. The distance data calculated by the above method is stored in the distance data memory 8 at the subsequent stage.
[0024]
The microcomputer 9 (recognizing unit 10 which is a functional block when functionally recognized) recognizes an object such as a road shape (white line) or a three-dimensional object (running vehicle) in front of the vehicle. The object is recognized based on the image data stored in the image data memory 7 and the distance data stored in the distance data memory 8. In addition, sensor information from a vehicle speed sensor, a steering angle sensor, navigation information, or the like (not shown) is referred to as necessary. Then, based on these recognition results, the recognition unit 10 activates the alarm device 11 such as a monitor or a speaker to call the driver's attention when it determines that an alarm for a forward curve or a three-dimensional object is necessary. The recognizing unit 10 controls the control device 12 as necessary to execute vehicle control such as AT (automatic transmission) shift down, engine output suppression, or brake operation.
[0025]
The microcomputer 9 (the functional calculation block 13 which is a functional block when functionally understood) follows the routines shown in the flowcharts of FIGS. 2 to 4 to determine the value of the rotation parameter θ1 of the reference image and the comparison image. The value of the rotation parameter θ2 and the value of the vertical parameter SHFTJ of the comparison image are corrected in real time. These corrected parameters θ1, θ2, and SHFTJ are fed back to the correction circuits 5a and 5b as needed. This routine is repeatedly executed at predetermined intervals.
[0026]
First, in step 1, the correction calculation unit 13 randomly sets the i-th reference area Ri on the reference image plane, and reads the luminance data p and distance data d in the reference area Ri. Here, i is a variable that counts the set number of reference regions Ri. The initial value of this variable i is 1, and is incremented sequentially by step 12 until a predetermined value (for example, i = 20) is reached. As shown in FIG. 6, the reference region Ri has a predetermined area (16 × 16 pixels as an example). The position of the reference area Ri on the reference image plane is represented by a reference point ai. In the present embodiment, the lower left corner of the reference region Ri is set as a reference point ai. For example, the position of the first reference region R1 is represented by a reference point a1 (ir1, jr1). The processing target from step 1 to step 10 is the reference region Ri set in step 1.
[0027]
In step 2, the number of edges EN of the reference region Ri is calculated. As shown in FIG. 7, there are 4 × 4 distance data d and 16 × 16 luminance data p in the reference area Ri (the luminance block shown on the right side of the figure is the distance data d1). Corresponds to the calculated pixel block). From these 256 pieces of luminance data p, a luminance difference (luminance change amount) Δp (absolute value) is calculated for each pair of pixels adjacent in the horizontal direction. However, the pixel column located on the leftmost side of the reference region R (for example, p11, p12, p13, p14 for the pixel block related to the distance data d1 (the same applies to the pixel block related to the distance data d5, d9, d13)) Is calculated from the pixel adjacent to the left side thereof. As a result, 256 luminance change amounts Δp are calculated. Next, in order to evaluate whether or not the reference region Ri has a luminance edge, the number of 256 luminance change amounts Δp that are equal to or greater than a predetermined determination threshold is counted, and the number is counted as the reference region Ri. The number of edges EN.
[0028]
Next, in step 3, the distribution of distance data regarding the reference region Ri is obtained, and the maximum appearance frequency MAXN and the most frequent distance value MFD are calculated. As described above, since one distance data is calculated for each 4 × 4 pixel block which is one parallax calculation unit, there are 16 distance data di in one reference region R. FIG. 8 is an explanatory diagram of a histogram of distance data di (i = 1 to 16) included in the reference region Ri. In the figure, the horizontal axis represents the value of the distance data di, and the vertical axis represents the appearance frequency. From such a distribution, the largest appearance frequency is specified as the maximum appearance frequency MAXN, and the value of the distance data di having the largest appearance frequency is specified as the most frequent distance value MFD.
[0029]
Based on the values EN, MAXN, and MFD calculated in step 2 and step 3, the reference region Ri set in step 1 in step 4 to step 7 is a “suitable region” for performing two-dimensional matching. Is evaluated. In the present embodiment, when all of the following four determination conditions (steps 4 to 7) are satisfied, it is determined that the reference region Ri is a “suitable region” for performing two-dimensional matching.
[0030]
(Judgment condition)
1.The number of edges EN is a predetermined minimum value EN min Bigger than(Step 4)
When searching for the correlation destination of the reference area Ri, if the number of edges EN is small (that is, there are not many luminance edges), a mismatch is likely to occur. Therefore, in order to improve the accuracy of the two-dimensional matching, the condition is that the number of edges EN is larger than the appropriately set minimum prescribed value ENmin, that is, the reference region Ri has a luminance edge.
[0031]
2.The number of edges EN is a predetermined maximum value EN max (EN max > EN min Smaller than(Step 5)
For example, when searching for correlation destinations in areas where fences, forests, etc. are projected, it is difficult to specify an appropriate correlation destination because there are many similar luminance edges due to shadows of bushes. Therefore, from the viewpoint of improving the accuracy of two-dimensional matching, when a fence or the like is projected in the reference area Ri, it is determined that the reference area Ri is not an appropriate area for matching. In a situation where a fence or the like is projected, there is a tendency that more luminance edges than usual appear due to the shadow of the bush. Therefore, by comparing the maximum specified value ENmax appropriately set from such a point of view with the number of edges EN, it is determined whether or not the reference region Ri is a region suitable for two-dimensional matching.
[0032]
3.Maximum appearance frequency MAXN is the peak determination specified value MAXN th Bigger than(Step 6)
This determination condition is for evaluating the influence of occlusion. When the influence of occlusion is not so much, one large peak tends to appear in the histogram shown in FIG. In contrast, when the influence of occlusion increases, the peak decreases as the influence increases, and a plurality of small peaks tend to appear. From this point of view, when the peak determination specified value MAXNth is appropriately set and the maximum appearance frequency MAXN is larger than the peak determination specified value MAXNth, the reference region Ri is not affected by occlusion and is suitable for evaluation. It is determined that the area is
[0033]
4).The most frequent distance value MFD is within a predetermined range.(Step 7)
This determination condition is for evaluating the influence of noise on the distance data. Usually, the value of the distance data in the reference area Ri tends to be within a predetermined distance range. This is because the distance to the object projected in the reference area Ri usually tends to be within a predetermined range. Therefore, a distance range corresponding to the distance to the object that would normally be projected in the reference area Ri is set in accordance with the distance. When the most frequent distance value MFD deviates from this range, it is determined that the reference area Ri is an area that is not suitable for evaluation. In the present embodiment, 16 m to 70 m (24 to 6 pixels as the pixel shift amount) is set as the predetermined range.
[0034]
Only when it is determined that the reference region Ri is a “suitable region” for stereo matching based on the four determination conditions as described above, the determination from step 4 to step 7 is performed, and the process returns to step 8 in FIG. move on. Otherwise, exit this routine.
[0035]
Each procedure from step 8 to step 10 relates to the process of correlation point Pi, that is, the correlation destination of reference region Ri. First, in step 8, the search range Si is set in the comparison image based on the distance data d (specifically, the mode distance value MFD) in the reference region Ri. The reference area R1 shown in FIG. 6 will be described as an example. On the reference image plane, the coordinates of the reference point a1 indicating the position of the reference area R1 are (ir1, ij1), and the most frequent distance value is MFD1. Based on the principle of the stereo method, the correlation destination of the reference region R1 (16 × 16 pixel block having the same area as the reference region R1) adds a horizontal shift (mode value MFD1) to the reference point a1 of the reference region R1. Exists near the position as1 (ir1 + MFD1, j1). Accordingly, an estimated maximum vertical and horizontal shift amount of about 4 pixels is estimated, and an area shifted by 4 pixels in the vertical and horizontal directions with reference to the position as1, that is, an area of 24 × 24 pixels is set as the search range S1. As another method for setting the position of the search range S1, the average value of the distance data d in the reference region R1 may be used as the mode distance although the accuracy may be inferior to that when the mode distance value MFDi is used. The value MFD1 may be used instead.
[0036]
Then, a coincidence point Pi is calculated within the search range Si set in step 8 (step 9). Here, the “matching point Pi” is a position on the comparison image plane regarding the correlation destination of the reference region Ri. FIG. 5 is a flowchart showing a detailed procedure for calculating the coincidence point Pi in a certain search range Si. First, in step 51, the distribution of the city block distance CB between the reference region Ri and the pixel region of 16 × 16 pixels existing in the search range Si is calculated. The city block distance CB is calculated based on Equation 3 described above for each pixel block (16 × 16 pixels having the same area as the reference region Ri) existing in the search range Si. One city block distance CB is calculated for each comparison target while the comparison target is offset by one pixel in the horizontal / vertical direction over the entire search range Si (two-dimensional matching). Accordingly, 81 (9 × 9) city block distances CB are calculated in one search range Si. Thereby, the distribution of the city block distance CB in the entire search range Si shown in FIG. 9 is obtained.
[0037]
In step 52 and subsequent steps following step 51, the coincidence point Pi in the search range Si is calculated. The coincidence point Pi is basically given as the coordinates (imin, jmin) of the point where the city block distance CB is minimized, that is, the point having the largest correlation. However, the coordinates (imin, jmin) are discrete values, and the position cannot be specified with an accuracy of 1 pixel or less. For this reason, it is not preferable to directly use this value as an input variable in image misregistration correction from the viewpoint of position adjustment accuracy. Therefore, the coordinates (imin, jmin) are used as temporary matching points Pi ', and the following processing determines the (true) matching points Pi (isub, jsub) that can be displayed with a resolution of one pixel or less.
[0038]
When the minimum value of the city block distance CB is larger than a predetermined threshold value, it may be determined that the correlation is unclear and the calculation of the coincidence point Pi in that cycle may be skipped. As a result, it is possible to avoid specifying an inappropriate correlation destination.
[0039]
Hereinafter, a method for calculating the i coordinate value of the coincidence point Pi, that is, the i coordinate value of the local minimum point where the value of the city block distance CB is the smallest will be described. Note that the j coordinate of the coincidence point Pi is exactly the same as this. Since the value can also be calculated, description of the procedure for calculating the j-coordinate value is omitted. FIG. 10 is a diagram for explaining the distribution characteristics of the city block distance CB in the vicinity of the minimum point in the jmin column, and the values of the city block distance CB calculated in step 51 are plotted with circles. Assuming that the area of the pixel is extremely small, the city block distance CB has a characteristic of being symmetrically and continuously distributed in the vicinity of the minimum point, as indicated by a broken line. From such a viewpoint, the minimum value of the broken line, that is, the i coordinate value of the coincidence point Pi is different from the i coordinate value of the temporary coincidence point Pi '.
[0040]
Therefore, using the characteristic that the distribution of the city block distance CB is symmetric in the vicinity of the minimum point, in the procedure after step 52, the difference between the right city block distance CB and that on the left side with reference to the temporary coincidence point Pi ′. Compare Then, the i-coordinate value of the minimum point, that is, the coincidence point Pi is calculated by linear approximation. First, in step 52, as shown in Equation 4, the amount of change of the i coordinate value imin-1 with respect to the i coordinate value imin of the temporary coincidence point Pi 'is obtained. Thereby, the change amount of the city block distance CB on the left side of the temporary coincidence point Pi ′ is evaluated. Similarly, the change amount of the city block distance CB on the right side of the temporary match point Pi ′ is evaluated by obtaining the change amount of the i coordinate value imin + 1 with respect to the i coordinate value imin of the temporary match point Pi ′.
[Expression 4]
ΔCB0 = CB [imin-1, jmin] −CB [imin, jmin]
ΔCB1 = CB [imin + 1, jmin] −CB [imin, jmin]
[0041]
Next, in step 53, the left city block distance difference ΔCB0 calculated in step 52 is compared with the right city block distance difference ΔCB1. Based on the characteristic that the distribution of the city block distance CB is symmetric around the local minimum point, it is determined whether the local minimum point exists between the coordinate values (imin-1) to imin or between the coordinate values imin to (imin + 1). Can do.
[0042]
If the determination in step 53 is affirmative, that is, if the change in the city block distance CB is greater on the right side than the left side of the coordinate value imin in the vicinity of the coordinate value imin of the temporary matching point, It is determined that it exists between (imin-1). In this case, the process proceeds to step 54, and the slope m of the straight line L1 connecting the point CB [imin, jmin] and the point CB [imin + 1, jmin] is calculated. In the subsequent step 55, a straight line L2 passing through the point CB [imin-1, jmin] and having an inclination of -m is calculated. Then, in step 58 following step 55, the intersection point of the two calculated straight lines L1 and L2 is calculated, and this intersection point is set as a true minimum point (that is, the i coordinate value isub of the coincidence point Pi).
[0043]
On the other hand, if a negative determination is made in step 53, that is, if the change in the city block distance CB is larger in the vicinity of the coordinate value imin of the temporary coincidence point on the left side than the right side of the coordinate imin, the minimum point is the coordinate value. It is determined that it exists between imin and (imin + 1). In this case, the process proceeds to step 56, and the slope m of the straight line L1 connecting the point CB [imin, jmin] and the point CB [imin-1, jmin] is calculated. In subsequent step 57, a straight line L2 passing through the point CB [imin + 1, jmin] and having an inclination of −m is calculated. In step 56, the intersection of these straight lines L1 and L2 is calculated to determine the i coordinate value isub of the coincidence point Pi.
[0044]
FIG. 11 shows straight lines L1 and L2 calculated when the left city block distance difference ΔCB0 is larger than the right difference ΔCB1. As can be seen from the figure, the distribution of the city block distance CB in the vicinity of the minimum point is approximated by straight lines L1 and L2, and the intersection is obtained. Then, this intersection is determined as the i coordinate value isub of the coincidence point Pi.
[0045]
The j coordinate value jsub of the coincidence point Pi is calculated using the same method as the method for calculating the i coordinate value isub of the coincidence point Pi. As a result, the position Pi (isub, jsub) (that is, the matching point at the subpixel level) of the target area having the greatest correlation with the reference area Ri can be calculated with a resolution of 1 pixel or less.
[0046]
In step 10 of FIG. 3, the coincidence point data (ir, dj, dpix) calculated for the reference region Ri is temporarily stored in a memory (not shown) in the microcomputer 9 (step 10). The coincidence point data is a data set in which the reference horizontal position ir, the vertical shift amount dj, and the horizontal shift amount dpix are associated with each other. The reference horizontal position ir is the horizontal position (i-coordinate value of the reference point ai) of the reference area Ri on the reference image plane, and is, for example, ir1 in the reference area R1. The vertical deviation amount dj is the vertical deviation amount between the reference point a i and the corresponding coincidence point Pi, in other words, the relative vertical deviation amount (sub-pixel level) between the reference region Ri and the correlation destination. ). For example, if the j coordinate value of the coincidence point P1 at the subpixel level calculated for the reference region R1 is jsub1, the vertical deviation amount dj of the reference region R1 is (jsub1−jr1). Further, the horizontal shift amount dpix is the horizontal shift amount between the reference point a i and the corresponding coincidence point Pi, in other words, the relative horizontal shift amount between the reference area Ri and the correlation destination (sub Pixel level). For example, if the i-coordinate value of the coincidence point P1 at the sub-pixel level calculated for the reference region R1 is isub1, the horizontal shift amount dpix of the reference region R1 is (isub1−ir1).
[0047]
In step 11, it is determined whether or not the matching point data (ir, dj, dpix) has been stored for a predetermined number of samples (for example, 20), that is, whether or not the variable i has reached 20. If a negative determination is made in step 20, the routine proceeds to step 12, where 1 is added to i, and this routine is exited. Then, in the next execution cycle of this routine, the next reference region Ri + 1 is set at random, and the above-described steps 1 to 10 are executed on this as a processing target, so that the next reference region Ri + 1 is related. Matching point data is calculated. As a result, the matching point data is sequentially calculated and stored in the order of the reference areas R1, R2, R3,. When the number of stored matching point data reaches the number of samples (= 20), the determination result in step 11 changes from negative to affirmative, and the process proceeds to step 13 in FIG.
[0048]
What is important in setting the reference areas R1 to R20 for the number of samples is to disperse them on the reference image plane and make them vary. As long as this variation is guaranteed, it is not always necessary to set the reference regions R1 to R20 in one frame of the reference image, and may be set over a plurality of frames of the reference image. As a result, the reference horizontal position ir and the horizontal shift amount dpix which are sample data also vary, and the sample data ir and dpix are prevented from being concentrated locally in the (ir, dj, dpix) space described later.
[0049]
In step 13, the coincidence point data (ir, dj, dpix) for 20 samples stored in the memory is read out. In the subsequent step 14, a histogram of the reference horizontal position ir group and a histogram of the horizontal shift amount dpix group are generated based on the read matching point data, and their variations are evaluated. FIG. 12 is an explanatory diagram of a histogram of the reference horizontal position ir. In the figure, the horizontal axis represents the value of the reference horizontal position ir, and the vertical axis represents the frequency of appearance. Based on this histogram, the variance VERir of the reference horizontal position ir is calculated. In this embodiment, a plane in (ir, dj, dpix) space is uniquely specified, and affine parameters θ1, θ2, and SHFTJ are calculated from parameters A, B, and C that define the plane. Therefore, if the reference horizontal position ir extracted as a sample is locally concentrated in the space, a highly reliable plane cannot be defined. Therefore, in step 14, a variance VERir indicating the degree of variation in the reference horizontal position ir is calculated.
[0050]
FIG. 13 is an explanatory diagram of a histogram of the horizontal shift amount dpix. In the figure, the horizontal axis represents the horizontal shift amount dpix, and the vertical axis represents the frequency of appearance. Based on this histogram, the variance VERdpix of the horizontal shift amount dpix is calculated. The reason for calculating this variance VERdpix is that, as in the case of the reference horizontal position ir, if the horizontal shift amount dpix extracted as a sample is locally concentrated in the (ir, dj, dpix) space, a highly reliable plane is obtained. This is because it cannot be defined.
[0051]
In step 15, it is determined whether or not the variance VERir of the reference horizontal position ir is larger than a predetermined threshold VER1th and the variance VERdpix of the horizontal shift amount dpix is larger than a predetermined threshold VER2th. If a negative determination is made in step 15, that is, if at least one of the reference horizontal position ir or the horizontal shift amount dpix does not vary, it is determined that a reliable plane cannot be defined, and the parameter update in step 19 is performed. Without proceeding to step 20. Then, all the matching point data stored in the memory are cleared, the variable i is also cleared, and this routine is exited. On the other hand, if an affirmative determination is made in step 15, the process proceeds to step 16.
[0052]
In step 16, the three-dimensional plane equation shown in Formula 5 is applied to all the matching point data, and the parameters A and B that define the plane in the (ir, dj, dpix) space by the least square method or the Hough transform or the like. B and C are calculated.
[Equation 5]
A ・ ir + B ・ dpix + dj + C = 0
[0053]
In step 17, based on the parameters A, B, and C calculated in step 16, as the three-dimensional camera deviation amount, the rotation deviation amount ΔTr of the main camera 1, the rotation deviation amount ΔTl of the sub camera 2, and the sub camera 2 The amount of vertical deviation ΔVl is calculated from Equation 6.
[Formula 6]
ΔTr = A−B
ΔTl = -B
ΔVl = −C
[0054]
Here, the relationship between the deviation amounts ΔTr, ΔT1, ΔVl and the parameters A, B, C will be described with reference to FIG. When the main camera 1 is rotated counterclockwise by ΔTr, the actual epipolar line L1 'of the reference image is rotated by this inclination value ΔTr with respect to the original epipolar line L1. On the other hand, when the sub-camera 1 rotates counterclockwise by ΔTl and deviates by ΔVl parallel to the main camera 1, the actual epipolar line L2 ′ of the comparative image is only ΔTr with respect to the original epipolar line L2. Rotate and translate by ΔVl. Further, regarding a certain reference area Ri, the position on the reference image is set as a reference point ai (ir, jr), and the correlation destination position on the comparison image is set as a coincidence point Pi (il, jl). In this case, the vertical deviation amount dj can be transformed as shown in Equation 7.
[Formula 7]
dj = jl−jr
= ΔVl + ΔTl · il-ΔTr · ir
= ΔVl + ΔTl (dpix + ir) −ΔTr · ir
= ΔVl + (ΔTl−ΔTr) ir + ΔTl · dpix
[0055]
The above deformation shows that one plane is formed in the (ir, dj, dpix) space. Theoretically, all coincidence point data extracted as sample data exists on this plane. Therefore, the matching point data is arranged in the (ir, dj, dpix) space, and the three-dimensional plane (A · ir + B · dpix + dj + C = 0) is specified by the least square method or the like. As a result, the relational expression shown in Equation 6 described above is uniquely derived.
[0056]
In the subsequent step 18, it is individually determined whether or not the deviation amounts ΔTr, ΔTl, ΔVl are larger than predetermined threshold values ΔTrth, ΔTlth, ΔVlth. With respect to the deviation amounts ΔTr, ΔTl, ΔVl determined negative in step 18, it is determined that the current values of the corresponding affine parameters θ1, θ2, SHFTJ are appropriately set. That is, θ1 is not updated when ΔTr ≦ ΔTrth, θ2 is not updated when ΔTl ≦ ΔTlth, and SHFTJ is not updated when ΔVl ≦ ΔVlth. Then, in step 20, all the matching point data stored in the memory are cleared, and this routine is exited.
[0057]
On the other hand, with respect to the deviation amounts ΔTr, ΔT1, and ΔVl that have been affirmed in step 18, the corresponding affine parameters θ1, θ2, and SHFTJ are updated (step 19). That is, θ1 is updated when ΔTr> ΔTrth, θ2 is updated when ΔTl> ΔTlth, and SHFTJ is updated when ΔVl> ΔVlth. In this update process, the values of the affine parameters θ1, θ2, and SHFTJ are corrected by proportional control according to Equation 8.
[Equation 8]
θ1 ← θ1−0.25 × ΔTr
θ2 ← θ2−0.25 × ΔTl
SHFTJ ← SHFTJ−0.25 × ΔVl
[0058]
That is, a value obtained by multiplying the rotation deviation amount ΔTr of the main camera 1 by a predetermined gain (for example, 0.25) is subtracted from the current value of the affine parameter θ1. The correction calculation unit 13 feeds back the corrected parameter θ1 to the correction circuit 5a that performs affine transformation of the reference image. The correction circuit 5a performs affine transformation of the reference image by applying the corrected parameter θ1. As a result, the reference image rotates in a direction in which the rotational deviation of the main camera 1 is eliminated. Further, values obtained by multiplying the rotational deviation amount ΔTl and vertical deviation amount ΔVl of the sub camera 2 by a predetermined gain are subtracted from the current values of the affine parameters θ2 and SHFTJ, respectively. The correction calculation unit 13 feeds back the corrected parameters θ2 and SHFTJ to the correction circuit 5b that performs affine transformation of the comparison image. The correction circuit 5b performs the affine transformation of the comparison image by applying the corrected parameters θ2 and SHFTJ. As a result, the comparative image is rotated / moved up / down in a direction in which the rotation / vertical shift of the sub camera 2 is eliminated. Then, in step 20 following step 19, all the coincidence point data stored in the memory are cleared, and this routine is exited.
[0059]
As described above, in this embodiment, the camera deviation amount is determined by specifying the plane in the (ir, dj, dpix) space based on the matching point data including the reference horizontal position ir, the vertical deviation amount dj, and the horizontal deviation amount dpix. ΔTr, ΔTl, and ΔV are calculated. Then, the affine parameter θ1 of the reference image and the affine parameters θ2 and SHFTJ of the comparative image are adjusted by feedback control in accordance with these deviation amounts ΔTr, ΔTl, and ΔVl. By performing such adjustment in real time, even when the optical position of the stereo camera is deviated due to aging, temperature change, or the like, it can be appropriately eliminated. As a result, the occurrence of mismatching in stereo processing can be reduced, the reliability of distance data can be improved, and the monitoring accuracy of the stereo monitoring device can be further improved.
[0060]
In particular, in the present embodiment, since the rotational deviation of the main camera 1 is also adjusted, the calculation accuracy of the distance data can be further improved as compared with the prior art. Conventionally, with regard to camera position shift (epipolar line mismatch), the amount of shift is completely reduced despite the three-dimensional degree of freedom (reference image rotation, comparison image rotation, and comparison image top and bottom). It was not possible to calculate. This is because the rotation deviation of the main camera 1 does not exist or is negligibly small, and the camera is based on only two parameters (the horizontal coordinate of the reference point and the vertical deviation amount between the reference point and the coincidence point). This is because the amount of misalignment was calculated. Therefore, when the optical axis of the sub camera 2 does not exist on the horizontal plane including the optical axis of the main camera 1, conventionally, the epipolar line cannot be perfectly matched, and as a result, the accuracy of the calculated distance is reduced. It was difficult to ensure over the entire distance. On the other hand, in the present embodiment, the camera position shift is calculated using a three-dimensional parameter obtained by adding the horizontal shift amount between the reference point a i and the coincidence point Pi to the above two parameters. Therefore, theoretically, it is possible to completely obtain a three-dimensional deviation, and more accurate positional deviation adjustment is possible.
[0061]
Further, in this embodiment, after evaluating the variation between the reference horizontal position ir and the horizontal deviation amount dpix as a variance, only when these variances are larger than a predetermined threshold (ir, dj, The plane parameters A, B, and C in the (dpix) space are calculated. In other words, when these variances are small and the reference horizontal position ir and the horizontal shift amount dpix are concentrated, the plane parameters A, B, and C are not calculated. Thus, when the sample groups ir and dpix are locally concentrated, it is possible to avoid specifying a plane with low reliability, and therefore it is possible to always calculate appropriate affine parameters θ1, θ2, and SHFTJ. As a result, the calculation accuracy of distance data can be further improved. If the reliability of the plane is not taken into consideration, only one of the dispersion of the reference horizontal position ir and the horizontal shift amount dpix may be evaluated, or both may not be evaluated.
[0062]
Further, in the present embodiment, the search range Si for searching for the coincidence point Pi is limited to a relatively narrow range (24 × 24 pixel area in the present embodiment) based on the distance data in the reference region Ri. By narrowing down the search range Si in this way, it is possible to greatly reduce the amount of calculation required for searching for the matching point Pi. As a result, there is an effect that the positional deviation can be adjusted in real time in parallel with the recognition / monitoring control without requiring the processing capability of the microcomputer 9 so much.
[0063]
Further, in the present embodiment, it is evaluated whether or not the reference region Ri is a suitable region for performing two-dimensional matching, and the coincidence point Pi is calculated based on the reference region Ri determined to be suitable. ing. Thereby, since highly accurate two-dimensional matching can be performed, the highly reliable coincidence point Pi can be calculated. As a result, it is possible to stably adjust the positional deviation of a stereo image with high accuracy.
[0064]
In the above-described embodiment, the position of the reference region Ri is randomly set on the reference image plane. However, as long as the positional variation of the reference region Ri is ensured, it is not always necessary to set the position randomly, and the position may be set in advance in one or more frames of the reference image.
[0065]
In the above-described embodiment, the space that defines the plane is the (ir, dj, dpix) space, but a (ir, dj, il) space may be used instead. This is because the horizontal position il and the horizontal shift amount dpix of the coincidence point Pi have a relationship of dpix = il−ir, and if il is specified, dpix is also uniquely calculated. From this point of view, in this specification, the “horizontal shift amount” is used in the sense that the horizontal shift amount dpix itself or a parameter that can uniquely specify the horizontal shift amount dpix is widely included.
[0066]
In the above-described embodiment, all of the affine parameters θ1, θ2, and SHFTJ are corrected. However, the present invention is not limited to this, and at least the affine parameters θ1, θ2, and SHFTJ to be corrected are used. There may be one.
[0067]
Furthermore, in the above-described embodiment, an example in which the affine parameters of the reference image are fixed and the affine parameters of the comparative image are adjusted has been described. However, the present invention is not limited to this. For example, the affine parameters of the reference image may be adjusted while fixing the affine parameters of the comparison image.
[0068]
(Second Embodiment)
In the first embodiment, in order to ensure the reliability of the calculation plane, among the matching point data (ir, dj, dpix) extracted as samples, the variations of the parameters ir, dpix are individually determined by the variances VERir, VERdpix. I am evaluating. Then, only when both sides vary, the space of the (ir, dj, dpix) plane is calculated. However, in the case shown in FIG. 15, that is, in the extremely rare case where the sample points (ir, dpix) are arranged in a substantially straight line in the (ir, dj, dpix) space, the plane cannot be uniquely specified. Inconvenience arises. As a result, although the individual parameters ir and dpix vary, inappropriate affine parameters θ1, θ2, and SHFTJ are calculated, which may cause a decrease in accuracy of distance data.
[0069]
Therefore, in the present embodiment, the above-mentioned inconvenience is solved by calculating an approximate line BL that passes through all the matching point data extracted as samples, and evaluating variations based on the approximate line BL. The basic processing flow is the same as that shown in the flowcharts of FIGS. 2 to 4, but only the procedure of step 14 is different.
[0070]
Specifically, in step 14 of FIG. 4, first, an approximate straight line BL passing through all sample points (ir, dpix) is calculated by the least square method. Next, the variation of the reference horizontal position ir with reference to the approximate straight line BL is calculated as the variance VERir. At the same time, the variation of the horizontal shift amount dpix with reference to the approximate straight line BL is calculated as the variance VERdpix. The calculated variances VERir and VERdpix are both substantially zero in the case of FIG. 15, and increase as the variation of the sample points (ir, dpix) based on the approximate straight line BL increases. Then, after step 14, as in the first embodiment, variations in the parameters ir and dpix are evaluated.
[0071]
By using the variance calculation method as in the present embodiment, in the case as shown in FIG. 15, the determination result in step 15 is negative, and the affine parameter is not updated. As a result, it is possible to avoid calculating inappropriate affine parameters θ1, θ2, and SHFTJ, and to prevent a decrease in accuracy of distance data.
【The invention's effect】
As described above, according to the present invention, it is possible to automatically adjust the shift of the stereo image in real time. If the object is recognized based on the image information in which the positional deviation is appropriately adjusted, the recognition accuracy can be improved.
[Brief description of the drawings]
FIG. 1 is a block configuration diagram of a stereo-type vehicle exterior monitoring apparatus according to the present embodiment.
FIG. 2 is a flowchart showing a part of an affine parameter adjustment procedure.
FIG. 3 is a flowchart showing a procedure following FIG.
FIG. 4 is a flowchart showing the procedure following FIG.
FIG. 5 is a flowchart showing a detailed calculation procedure of coincidence points.
FIG. 6 is an explanatory diagram of a reference area in a reference image.
FIG. 7 is an explanatory diagram of luminance data and distance data related to a reference area.
FIG. 8 is an explanatory diagram of a histogram of distance data d related to one reference region.
FIG. 9 Distribution map of city block distance for one reference area
FIG. 10 is an explanatory diagram of a distribution characteristic of a city block distance in the vicinity of a minimum point
FIG. 11 is an explanatory diagram of a method for calculating a coincidence point by linear approximation.
FIG. 12 is an explanatory diagram of a histogram of the reference horizontal coordinate ir
FIG. 13 is an explanatory diagram of a histogram of the horizontal shift amount dpix.
FIG. 14 is a diagram illustrating a relationship between a stereo image and camera displacement.
FIG. 15 is a diagram showing a case where sample points (ir, dpix) are arranged on a substantially straight line in the (ir, dj, dpix) space;
[Explanation of symbols]
1 Main camera
2 Sub camera
3 Analog interface
3a Gain control amplifier
4 A / D converter
5a Correction circuit
5b Correction circuit
6 Stereo operation circuit
7 Image data memory
8 Distance data memory
9 Microcomputer
10 Recognition part
11 Alarm device
12 Control device
13 Correction calculation section

Claims (14)

ステレオ画像の位置ずれ調整装置において、
アフィンパラメータの値に応じて、ステレオ画像のアフィン変換を行う補正部と、
前記補正部から出力された一方の画像において、複数の基準領域を設定する設定部と、
前記設定部によって設定された前記基準領域のそれぞれについて、前記一方の画像における前記基準領域の水平位置と、前記基準領域とその相関先との間の垂直ずれ量と、前記基準領域と前記相関先との間の水平ずれ量とを含む一致点データを算出するデータ算出部と、
前記データ算出部によって算出された複数の前記一致点データに基づいて、前記水平位置と前記垂直ずれ量と前記水平ずれ量とで構成される空間において、平面を規定する平面パラメータを算出するパラメータ算出部と、
前記パラメータ算出部によって算出された前記平面パラメータに基づいて、前記アフィンパラメータの値を補正する補正演算部と
を有することを特徴とするステレオ画像の位置ずれ調整装置。
In the stereo image position adjustment device,
A correction unit that performs affine transformation of a stereo image according to the value of an affine parameter,
In one image output from the correction unit, a setting unit that sets a plurality of reference regions;
For each of the reference areas set by the setting unit, the horizontal position of the reference area in the one image, the amount of vertical deviation between the reference area and its correlation destination, the reference area and the correlation destination A data calculation unit that calculates coincident point data including the amount of horizontal deviation between
Parameter calculation for calculating a plane parameter that defines a plane in a space constituted by the horizontal position, the vertical deviation amount, and the horizontal deviation amount based on the plurality of coincidence point data calculated by the data calculation unit. And
A stereo image misregistration adjustment apparatus comprising: a correction calculation unit that corrects the value of the affine parameter based on the planar parameter calculated by the parameter calculation unit.
前記設定部は、複数の前記基準領域が一方の画像平面上に分散するように設定することを特徴とする請求項1に記載されたステレオ画像の位置ずれ調整装置。The stereo image position adjustment apparatus according to claim 1, wherein the setting unit sets the plurality of reference regions so as to be dispersed on one image plane. 前記設定部は、前記基準領域を一方の画像平面上にランダムに設定することを特徴とする請求項2に記載されたステレオ画像の位置ずれ調整装置。The stereo image misregistration adjustment apparatus according to claim 2, wherein the setting unit randomly sets the reference region on one image plane. 前記設定部は、同一フレームの基準画像において、前記基準領域を所定のサンプル個数分設定することを特徴とする請求項1から3のいずれかに記載されたステレオ画像の位置ずれ調整装置。The stereo image position adjustment apparatus according to any one of claims 1 to 3, wherein the setting unit sets the reference region for a predetermined number of samples in a reference image of the same frame. 前記設定部は、複数フレームの基準画像において、前記基準領域を所定のサンプル個数分設定することを特徴とする請求項1から3のいずれかに記載されたステレオ画像の位置ずれ調整装置。The stereo image position adjustment apparatus according to any one of claims 1 to 3, wherein the setting unit sets the reference region for a predetermined number of samples in a reference image of a plurality of frames. 一方の画像中の画素ブロック毎に、当該画素ブロックの相関先を他方の画像において特定することにより、当該画素ブロックの距離データを算出するステレオ演算部をさらに有し、
前記データ算出部は、前記基準領域内に含まれる距離データに基づいて、前記基準領域の相関先を含む探索範囲を設定し、当該探索領域を探索することによって、前記基準領域と相関先を特定することを特徴とする請求項1に記載されたステレオ画像の位置ずれ調整装置。
For each pixel block in one image, by further specifying the correlation destination of the pixel block in the other image, further having a stereo calculation unit that calculates distance data of the pixel block,
The data calculation unit sets a search range including a correlation destination of the reference region based on distance data included in the reference region, and specifies the reference region and the correlation destination by searching the search region. The stereo image misalignment adjusting apparatus according to claim 1, wherein:
前記パラメータ算出部は、前記データ算出部によって算出された複数の前記一致点データに基づいて、前記水平位置に関する分散と、前記水平ずれ量に関する分散とを算出するとともに、前記水平位置に関する分散が所定のしきい値よりも大きく、かつ、前記水平ずれ量に関する分散が所定のしきい値よりも大きい場合に、前記平面パラメータを算出することを特徴とする請求項1に記載されたステレオ画像の位置ずれ調整装置。The parameter calculation unit calculates a variance relating to the horizontal position and a variance relating to the horizontal shift amount based on the plurality of coincidence point data calculated by the data calculation unit, and the variance relating to the horizontal position is predetermined. 2. The position of the stereo image according to claim 1, wherein the plane parameter is calculated when the variance relating to the horizontal shift amount is larger than a predetermined threshold value and larger than a predetermined threshold value. Deviation adjustment device. 前記パラメータ算出部は、前記水平位置と前記水平ずれ量とによって規定される全てのサンプル点を通る近似直線を算出し、当該近似直線を基準として、前記水平位置に関する分散と、前記水平ずれ量に関する分散と算出することを特徴とする請求項7に記載されたステレオ画像の位置ずれ調整装置。The parameter calculation unit calculates an approximate line that passes through all the sample points defined by the horizontal position and the amount of horizontal deviation, and relates to the variance relating to the horizontal position and the amount of horizontal deviation based on the approximate line. 8. The stereo image misregistration adjusting apparatus according to claim 7, wherein the apparatus calculates the variance. 前記補正演算部は、一方の画像の回転を規定するアフィンパラメータ、他方の画像の回転を規定するアフィンパラメータ、または、他方の画像の垂直方向への移動を規定するアフィンパラメータの少なくとも一つを補正することを特徴とする請求項1から8のいずれかに記載されたステレオ画像の位置ずれ調整装置。The correction calculation unit corrects at least one of an affine parameter that defines rotation of one image, an affine parameter that defines rotation of the other image, or an affine parameter that defines movement of the other image in the vertical direction. 9. The stereo image misalignment adjusting apparatus according to claim 1, wherein the stereo image misalignment adjusting apparatus is used. 請求項1から9に記載されたステレオ画像の位置ずれ調整装置と、
前記補正部によって、アフィン変換が行われたステレオ画像より算出された距離データに基づいて、前記ステレオ画像に写し出された対象物を認識する認識部と
を有することを特徴とするステレオ式監視装置。
A stereo image misalignment adjusting device according to claim 1,
A stereo monitoring apparatus, comprising: a recognition unit that recognizes an object projected on the stereo image based on distance data calculated from the stereo image on which the affine transformation has been performed by the correction unit.
ステレオ画像の位置ずれ調整方法において、
アフィンパラメータの値に応じて、ステレオ画像のアフィン変換を行う第1のステップと、
前記アフィン変換が行われたの一方の画像において、複数の基準領域を設定する第2のステップと、
前記基準領域のそれぞれについて、前記一方の画像における前記基準領域の水平位置と、前記基準領域とその相関先との間の垂直ずれ量と、前記基準領域と前記相関先との間の水平ずれ量とを含む一致点データを算出する第3のステップと、
複数の前記一致点データに基づいて、前記水平位置と前記垂直ずれ量と前記水平ずれ量とで構成される空間において、平面を規定する平面パラメータを算出する第4のステップと、
前記平面パラメータに基づいて、前記アフィンパラメータの値を補正する第5のステップと
を有することを特徴とするステレオ画像の位置ずれ調整方法。
In the stereo image misalignment adjustment method,
A first step of performing an affine transformation of the stereo image according to the value of the affine parameter;
A second step of setting a plurality of reference regions in one of the images subjected to the affine transformation;
For each of the reference areas, the horizontal position of the reference area in the one image, the amount of vertical deviation between the reference area and its correlation destination, and the amount of horizontal deviation between the reference area and the correlation destination A third step of calculating coincident point data including:
A fourth step of calculating a plane parameter defining a plane in a space constituted by the horizontal position, the vertical shift amount, and the horizontal shift amount based on a plurality of the matching point data;
And a fifth step of correcting the value of the affine parameter based on the plane parameter.
前記第4のステップは、
複数の前記一致点データに基づいて、前記水平ずれ量に関する分散を算出するステップと、
前記水平位置に関する分散が所定のしきい値よりも大きく、かつ、前記水平ずれ量に関する分散が所定のしきい値よりも大きい場合に、前記平面パラメータを算出するステップと
を含むことを特徴とする請求項11に記載されたステレオ画像の位置ずれ調整方法。
The fourth step includes
Calculating a variance relating to the horizontal shift amount based on a plurality of the matching point data;
Calculating the plane parameter when the variance relating to the horizontal position is larger than a predetermined threshold value and the variance relating to the horizontal shift amount is larger than a predetermined threshold value. The method for adjusting a positional deviation of a stereo image according to claim 11.
前記第4のステップは、
前記水平位置と前記水平ずれ量とによって規定される全てのサンプル点を通る近似直線を算出するステップと、
当該近似直線を基準として、前記水平位置に関する分散と、前記水平ずれ量に関する分散と算出するステップと
を含むことを特徴とする請求項12に記載されたステレオ画像の位置ずれ調整方法。
The fourth step includes
Calculating an approximate straight line passing through all sample points defined by the horizontal position and the amount of horizontal deviation;
13. The stereo image misalignment adjusting method according to claim 12, further comprising: calculating a variance relating to the horizontal position and a variance relating to the horizontal misalignment amount with reference to the approximate straight line.
前記第5のステップは、一方の画像の回転を規定するアフィンパラメータ、他方の画像の回転を規定するアフィンパラメータ、または、他方の画像の垂直方向への移動を規定するアフィンパラメータの少なくとも一つを補正することを特徴とする請求項11から13のいずれかに記載されたステレオ画像の位置ずれ調整方法。The fifth step includes at least one of an affine parameter that defines rotation of one image, an affine parameter that defines rotation of the other image, or an affine parameter that defines movement of the other image in the vertical direction. 14. The stereo image misalignment adjusting method according to claim 11, wherein correction is performed.
JP2002050934A 2002-02-27 2002-02-27 Stereo image misalignment adjusting device, misalignment adjusting method, and stereo monitoring device Expired - Fee Related JP4053314B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002050934A JP4053314B2 (en) 2002-02-27 2002-02-27 Stereo image misalignment adjusting device, misalignment adjusting method, and stereo monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002050934A JP4053314B2 (en) 2002-02-27 2002-02-27 Stereo image misalignment adjusting device, misalignment adjusting method, and stereo monitoring device

Publications (2)

Publication Number Publication Date
JP2003256875A JP2003256875A (en) 2003-09-12
JP4053314B2 true JP4053314B2 (en) 2008-02-27

Family

ID=28663037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002050934A Expired - Fee Related JP4053314B2 (en) 2002-02-27 2002-02-27 Stereo image misalignment adjusting device, misalignment adjusting method, and stereo monitoring device

Country Status (1)

Country Link
JP (1) JP4053314B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005130312A (en) * 2003-10-24 2005-05-19 Sony Corp Stereoscopic vision image processing device, computer program, and parallax correction method
US7718940B2 (en) 2005-07-26 2010-05-18 Panasonic Corporation Compound-eye imaging apparatus
JP5792662B2 (en) 2011-03-23 2015-10-14 シャープ株式会社 Parallax calculation device, distance calculation device, and parallax calculation method
JP5711638B2 (en) * 2011-09-27 2015-05-07 富士重工業株式会社 Image processing device
JP6789888B2 (en) * 2017-06-15 2020-11-25 日立オートモティブシステムズ株式会社 Stereo camera device
JP7219561B2 (en) * 2018-07-18 2023-02-08 日立Astemo株式会社 In-vehicle environment recognition device
US11039157B2 (en) * 2018-09-21 2021-06-15 Tencent America LLC Techniques for simplified affine motion model coding with prediction offsets
CN113273208A (en) * 2018-11-14 2021-08-17 北京字节跳动网络技术有限公司 Improvement of affine prediction mode
JP7269130B2 (en) * 2019-08-14 2023-05-08 日立Astemo株式会社 Image processing device
JP7411499B2 (en) * 2020-05-08 2024-01-11 株式会社Subaru Image processing device
JP7492372B2 (en) * 2020-05-08 2024-05-29 株式会社Subaru Image Processing Device
US20240329254A1 (en) * 2021-07-26 2024-10-03 Sony Group Corporation Signal processing apparatus and signal processing method

Also Published As

Publication number Publication date
JP2003256875A (en) 2003-09-12

Similar Documents

Publication Publication Date Title
US6552742B1 (en) Positional deviation adjusting apparatus of stereo image
US6985619B1 (en) Distance correcting apparatus of surroundings monitoring system and vanishing point correcting apparatus thereof
US6381360B1 (en) Apparatus and method for stereoscopic image processing
JP3587506B2 (en) Stereo camera adjustment device
CN110264525B (en) Camera calibration method based on lane line and target vehicle
JP4803927B2 (en) Distance correction apparatus and distance correction method for monitoring system
JP4109077B2 (en) Stereo camera adjustment device and stereo camera adjustment method
US7139424B2 (en) Stereoscopic image characteristics examination system
JP4053314B2 (en) Stereo image misalignment adjusting device, misalignment adjusting method, and stereo monitoring device
KR101205428B1 (en) Target position identifying apparatus
WO2015198930A1 (en) Distance measurement device, and distance measurement correction device using correction parameter
JP3765862B2 (en) Vehicle environment recognition device
JP3617709B2 (en) Distance measuring device
JP3287465B2 (en) Stereo image processing device
JP2009009331A (en) White line detector and white line detection method
CN112261390A (en) Vehicle-mounted camera equipment and image optimization device and method thereof
US11477371B2 (en) Partial image generating device, storage medium storing computer program for partial image generation and partial image generating method
KR20140029794A (en) Image stabilization method and system using curve lane model
JPH09101129A (en) Road surface measuring device
JP2003158751A (en) Stereo camera adjusting device
CN111402593A (en) Video traffic parameter acquisition method based on polynomial fitting
JP3833930B2 (en) Stereo camera adjustment device
JP4018950B2 (en) Stereo camera misalignment inspection apparatus and misalignment inspection method
JP2023128658A (en) Image processing device and image processing method
JPH09126759A (en) Range finding method by on-vehicle camera and range finder using the camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101214

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4053314

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101214

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111214

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111214

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121214

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121214

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131214

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees