JP4053280B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP4053280B2
JP4053280B2 JP2001344101A JP2001344101A JP4053280B2 JP 4053280 B2 JP4053280 B2 JP 4053280B2 JP 2001344101 A JP2001344101 A JP 2001344101A JP 2001344101 A JP2001344101 A JP 2001344101A JP 4053280 B2 JP4053280 B2 JP 4053280B2
Authority
JP
Japan
Prior art keywords
image
parallax
primary color
image processing
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001344101A
Other languages
Japanese (ja)
Other versions
JP2003150937A (en
Inventor
修弘 遠田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK filed Critical Fuji Jukogyo KK
Priority to JP2001344101A priority Critical patent/JP4053280B2/en
Publication of JP2003150937A publication Critical patent/JP2003150937A/en
Application granted granted Critical
Publication of JP4053280B2 publication Critical patent/JP4053280B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、一対のカラー画像を用いてステレオ画像処理を行う画像処理装置および画像処理方法に関する。
【0002】
【従来の技術】
ステレオカメラを用いたステレオ式車外監視システムが知られている。このシステムでは、一対のカメラ(ステレオカメラ)から得られる一対の撮像画像を用いて、ステレオマッチングによって、輝度特性の相関を有する小領域同士を特定し、両者の相対的なずれ量より距離データを得る。従来のステレオ式車外監視システムでは、白黒のイメージセンサ(CCDやCMOSセンサ等)が採用されており、モノクロ画像における輝度情報を主体に車外の状況を認識していた。
【0003】
【発明が解決しようとする課題】
しかしながら、モノクロ画像ではなくカラー画像を入力情報とし、輝度情報のみならず色情報も用いたステレオ画像処理を行えば、距離データの信頼性の向上が期待できる。それとともに、走行状況の認識精度およびより複雑な状況認識も可能になる。しかしながら、従来、カラー画像を用いてステレオ画像処理を行う際、カラー画像を構成する複数の原色画像をどのように処理し、どのような情報を抽出するのかについて、十分な検討が行われていなかった。
【0004】
また、近年、画像処理関連の技術の発達に伴い、画像を扱う様々な分野でカラー化が進んでおり、カラーイメージセンサのコストもますます安価になっている。そのため、ステレオ式車外監視システムにおいても、コスト的な観点からも、カラーイメージセンサの採用が望まれている。
【0005】
本発明は、かかる事情に鑑みてなされたものであり、その目的は、一対のカラー画像を用いてステレオ画像処理を行うことで、距離データの信頼性の向上を図ることである。
【0006】
【課題を解決するための手段】
かかる課題を解決するために、第1の発明は、それぞれが複数の原色画像で構成された一対のカラー画像を用いて、ステレオマッチングを行う画像処理装置を提供する。この画像処理装置は、ステレオ演算手段と融合処理手段とを有する。ステレオ演算手段は、同一色の原色画像対を用いてステレオマッチングを行うことにより、それぞれの原色画像に関する原色視差と、これらの原色視差に関するシティブロック距離とを算出する。これらの原色視差およびシティブロック距離は、視差の算出単位となる画像領域毎に算出される。融合処理手段は、それぞれの原色視差に基づいて、画像領域毎の統一視差を算出する。それとともに、融合処理手段は、原色視差およびシティブロック距離の少なくとも一方の信頼性を示す信頼度情報を統一視差に対応付けて出力する。
【0007】
ここで、第1の発明において、上記融合処理手段は、一の画像領域に関する信頼性が高いと判断した場合には、この画像領域に関する統一視差を出力するとともに、一の画像領域に関する信頼性が高くないと判断した場合には、演算量の低減を図るために、この画像領域に関する統一視差を出力しないことが好ましい。
【0008】
また、第1の発明において、上記融合処理手段は、原色視差およびシティブロック距離の少なくとも一方の信頼性を、所定の評価基準によって評価することが好ましい。この評価基準は、原色視差のそれぞれの値が一致するか否かを判断する第1の個別条件を少なくとも含むことが好ましい。また、この評価基準は、シティブロック距離のそれぞれが所定の判定しきい値よりも小さいか否かを判断する第2の個別条件を少なくとも含むことが好ましい。さらに、この評価基準は、シティブロック距離の総和が、所定の判定しきい値よりも小さいか否かを判断する第3の個別条件を少なくとも含むことが好ましい。
【0009】
また、第1の発明において、上記融合処理手段は、検出すべき対象物の色に応じて、予め用意された複数の評価基準の中からいずれかの評価基準を選択して適用することが望ましい。
【0010】
さらに、第1の発明において、それぞれの原色画像において、位置的に対応する実画素の位置ずれの影響を排除した基準画素の輝度値を算出するために、基準画素と重なっている実画素の輝度値の加重平均によって、基準画素の輝度値を算出する補正手段をさらに設けてもよい。
【0011】
第2の発明は、それぞれが複数の原色画像で構成された一対のカラー画像を用いて、ステレオマッチングを行う画像処理装置を提供する。この画像処理装置は、補正手段とステレオ演算手段とを有する。補正手段は、それぞれの原色画像において、位置的に対応する実画素の位置ずれの影響を排除した基準画素の輝度値を算出するために、基準画素と重なっている実画素の輝度値の加重平均によって、基準画素の輝度値を算出する。また、ステレオ演算手段は、補正手段によって補正された同一色の原色画像対を用いてステレオマッチングを行うことにより、それぞれの原色画像に関する原色視差を、視差の算出単位となる画像領域毎に算出する。
【0012】
第3の発明は、それぞれが複数の原色画像で構成された一対のカラー画像を用いて、ステレオマッチングを行う画像処理方法を提供する。この画像処理方法は、同一色の原色画像対を用いてステレオマッチングを行うことにより、それぞれの原色画像に関する原色視差と、これらの原色視差に関するシティブロック距離とを視差の算出単位となる画像領域毎に算出する第1のステップと、それぞれの原色視差に基づいて、画像領域毎の統一視差を算出するとともに、原色視差およびシティブロック距離の少なくとも一方の信頼性を示す信頼度情報を統一視差に対応付けて出力する第2のステップとを有する。
【0013】
ここで、上記第2のステップにおいて、一の画像領域に関する信頼性が高いと判断した場合には、この画像領域に関する統一視差を出力し、信頼性が高くないと判断した場合には、この画像領域に関する統一視差を出力しないことが好ましい。
【0014】
また、上記第2のステップにおいて、原色視差およびシティブロック距離の少なくとも一方の信頼性を、所定の評価基準によって評価することが望ましい。この評価基準は、原色視差のそれぞれの値が一致するか否かを判断する第1の個別条件を少なくとも含むことが好ましい。また、この評価基準は、シティブロック距離のそれぞれが所定の判定しきい値よりも小さいか否かを判断する第2の個別条件を少なくとも含むことが好ましい。さらに、この評価基準は、シティブロック距離の総和が、所定の判定しきい値よりも小さいか否かを判断する第3の個別条件を少なくとも含むことが好ましい。
【0015】
また、上記第2のステップは、検出すべき対象物の色に応じて、予め用意された複数の評価基準の中からいずれかの評価基準を選択して適用するステップを含んでいてもよい。
【0016】
さらに、第3の発明において、それぞれの原色画像において、位置的に対応する実画素の位置ずれの影響を排除した基準画素の輝度値を算出するために、基準画素と重なっている実画素の輝度値の加重平均によって、基準画素の輝度値を算出する第3のステップをさらに設けてもよい。
【0017】
第4の発明は、それぞれが複数の原色画像で構成された一対のカラー画像を用いて、ステレオマッチングを行う画像処理方法を提供する。この画像処理方法は、それぞれの原色画像において、位置的に対応する実画素の位置ずれの影響を排除した基準画素の輝度値を算出するために、基準画素と重なっている実画素の輝度値の加重平均によって、基準画素の輝度値を算出する第1のステップと、補正された同一色の原色画像対を用いてステレオマッチングを行うことにより、それぞれの原色画像に関する原色視差を、視差の算出単位となる画像領域毎に算出する第2のステップとを有する。
【0018】
【発明の実施の形態】
(第1の実施形態)
図1は、自動車等の車両に搭載されるステレオ画像処理装置の概略的なブロック図である。この画像処理装置は、カラー画像を構成する複数の原色画像(赤画像、緑画像および青画像)のそれぞれをステレオマッチングの対象とし、原色画像毎に独立して視差を算出し、その上で、(1)視差の信頼性を評価し、(2)視差を融合する。このような視差の評価・融合は、撮像画像に写し出された対象物の色を考慮した上で行われる。以下、赤画像を「R画像」、緑画像を「G画像」、青画像を「B画像」という。
【0019】
車両前方を撮像するステレオカメラは、ルームミラーの近傍に取り付けられており、CCDやCMOSセンサ等のイメージセンサを内蔵した一対のカメラ1,2で構成されている。それぞれのカメラ1,2は、車幅方向において所定の間隔(カメラ基線長)で取り付けられている。基準画像を出力するメインカメラ1は、車輌の進行方向に向かって右側に取り付けられている。一方、比較画像を出力するサブカメラ2は、進行方向に向かって左側に取り付けられている。
【0020】
それぞれのカメラ1,2は、赤緑青(RGB)のそれぞれに別個のイメージセンサを内蔵している(例えば、3板式カラーCCD)。メインカメラ1から出力される基準画像は、実際には、R画像、G画像およびB画像の3つの原色画像によって構成される。同様に、サブカメラ2から出力される比較画像も、R画像、G画像およびB画像の3つの原色画像によって構成される。したがって、一対のカメラ1,2が1回の撮影タイミングで出力する画像は合計6枚になる。以下、基準画像を構成するR画像を基準画像(R)と記す場合がある。同様に、基準画像を構成するG画像を基準画像(G)、B画像を基準画像(B)と記すことがある。比較画像についても、R,G,B画像を、それぞれ、比較画像(R)、比較画像(G)、比較画像(B)と記すことがある。
【0021】
一対のカメラ1,2の同期が取れている状態において、それぞれのカメラ1,2から出力されたアナログ画像は、後段の回路の入力レンジに合致するように、アナログインターフェース3において調整される。アナログインターフェース3中のゲインコントロールアンプ(GCA)3aは、対になるアナログ画像信号の明るさバランスを調整する。この調整は、互いに同じ色(R,G,B)の画像同士で行う。アナログインターフェース3において調整されたアナログ画像対は、A/Dコンバータ4により、所定の輝度階調(例えば、256階調のグレースケール)のデジタル画像に変換される。
【0022】
補正回路5は、デジタル化された画像対を構成する6つの原色画像のそれぞれについて、輝度の補正および画像の幾何学的な変換等を行う。通常、一対のカメラ1,2の取付位置は、程度の差こそあれ誤差があるため、それに起因したずれが左右の画像に存在している。そこで、アフィン変換等を用いて、画像の回転や平行移動等の幾何学的な変換を行う。これにより、ステレオマッチングを行う際の前提となる、画像対における水平線(エピポーラライン)の一致が保証される。このような画像処理を経て、メインカメラ1の出力信号から、一例として、水平方向(i座標方向)が512画素(ピクセル)、垂直方向(j座標方向)が200画素(ピクセル)の基準画像データが生成される。また、サブカメラ2の出力信号から、基準画像データと垂直方向長が同じで、基準画像データよりも大きな水平方向長の比較画像データが生成される(一例として、水平方向が640画素(ピクセル)、垂直方向が200画素(ピクセル))。補正回路5において補正された1フレーム相当の基準画像データと比較画像データとは、ステレオ演算回路6に出力される一方、画像データメモリ7に格納される。
【0023】
ステレオ演算回路6は、基準画像データと比較画像データとに基づいて、ステレオマッチングを行い、視差の算出単位となる画像領域(画素ブロック)毎に視差を算出する。このステレオマッチングは、同一色の原色画像対に関して別個に行われる。すなわち、R画像(基準画像(R)と比較画像(R))、G画像((基準画像(G)と比較画像(G))、B画像(基準画像(B)と比較画像(B))のそれぞれについて独立して行われる。
【0024】
本実施形態では、一例として4×4画素の画素ブロックを視差の算出単位としている。したがって、1フレーム相当の画像全体では、基準画像に含まれる画素ブロックの個数分、すなわち128×50個の視差が算出され得る。基準画像中の一画素ブロックをステレオマッチングの対象とした場合、この対象画素ブロックの輝度特性と相関を有する領域を比較画像を探索することによって特定する。周知のとおり、ステレオ画像に写し出された対象物(例えば先行車や車線等)までの距離は、基準画像と比較画像との間における対象物の水平方向のずれ量(視差)より一義的に特定される。したがって、比較画像の探索を行う場合、対象画素ブロックのj座標と同じ水平線(エピポーラライン)上を探索範囲とすればよい。ステレオ演算回路6は、このエピポーラライン上を一画素ずつシフトしながら、比較画像側の画素ブロック毎に、対象画素ブロックとの輝度特性の相関を評価する。
【0025】
画素ブロック間における輝度特性の相関は、例えば、シティブロック距離を算出することで評価でき、基本的には、その値が最小となるものが相関を有する画素ブロックである。そして、互いに相関を有する(換言すれば、シティブロック距離が最小となる)画素ブロック間の水平方向のずれ量が視差として出力される。なお、シティブロック距離を算出するためのハードウェア構成については、特開平5−114099号公報に開示されているので、必要ならば参照されたい。
【0026】
ステレオ演算回路6は、同一色の原色画像同士(例えば、基準画像(R)と比較画像(R))でステレオマッチングを行い、視差とシティブロック距離とを後段の融合処理部8に出力する。これにより、基準画像を構成する一つの画素ブロックに関して、3つの視差(原色視差)と3つのシティブロック距離とが算出される。以下、R画像より算出された原色視差をNr、この原色視差Nrに関するシティブロック距離(探索範囲内におけるシティブロック距離の最小値)をMrと記す。同様に、G画像に関して算出された原色視差およびこの原色視差に関するシティブロック距離をNg,Mgとそれぞれ記し、B画像より算出された原色視差およびこの原色視差に関するシティブロック距離をNb,Mgとそれぞれ記す。なお、ステレオマッチング処理は、モノクロ画像を用いる場合に比べて処理量が増大するため、ステレオ演算回路6には十分な処理速度の演算回路を採用する。
【0027】
融合処理部8は、ある画素ブロックに関して、3つの原色視差Nr,Ng,Nbとシティブロック距離Mr,Mg,Mbとを用いて信頼性を評価した上で融合し、その画素ブロックに関する統一的な視差Ni(以下、「統一視差Ni」という)を算出する。このようにして求められた統一視差Niの1フレーム分の集合は、画像平面上の位置(i,j)と対応付けた上で、距離データ(i,j,Ni)として距離データメモリ14に格納される。後述するように、それぞれの統一視差Niには、原色視差Nr,Ng,Nbおよびシティブロック距離Mr,Mg,Mbの信頼性を示す信頼度情報が付されるため、統一視差Niは信頼度情報と対応付けられた形態で距離データメモリ14に格納される。
【0028】
マイクロコンピュータ15(機能的に捉えた場合、その機能的ブロックである認識部16)は、道路形状(直線やカーブ曲率)や車輌前方の立体物(例えば先行車)を認識する。この認識は、画像データメモリ7に格納された画像データと距離データメモリ14に格納された距離データとに基づいて行われる。また、図示していない車速センサや舵角センサからのセンサ情報、或いはナビゲーション情報等も必要に応じて参照される。なお、道路形状の認識や立体物の認識に関する具体的な手法については、特開平5−265547号公報に開示されているので必要ならば参照されたい。これらの認識結果に基づいて、警報が必要と判定された場合、モニターやスピーカー等の警報装置17を作動させてドライバーに注意を促す。また、必要に応じて制御装置18を制御することにより、AT(自動変速機)のシフトダウンやエンジン出力の抑制、或いはブレーキの作動といった車輌制御が適宜実行される。
【0029】
つぎに、それぞれの原色視差Nr,Ng,Nbを評価・融合して統一視差Niを算出する処理について詳述する。融合処理部8は、原色視差Nr,Ng,Nb相互の一致性を判定し、一致する場合には、これらの原色視差Nr,Ng,Nbに基づいて統一視差Niを算出する。その際、統一視差Niの算出に用いられる原色視差Nr,Ng,Nbは、後述する評価基準に従い、検出すべき対象物の色を考慮して決定される。例えば、検出対象物が青を含まない赤緑系の場合、赤の原色視差Nrと緑の原色視差Ngとの一致性だけを判定する。
【0030】
また、融合処理部8は、上記の融合に際して、融合の対象となる入力データの信頼性を評価する。具体的には、この評価は、ステレオ演算回路6によって出力された原色視差Nr,Ng,Nbと、これらの視差Nr,Ng,Nbを与えるシティブロック距離Mr,Mg,Mbとが、検出対象物毎に予め設定された評価基準を具備しているか否かに基づいて行われる。なお、この評価基準は、後述するように、図2に示すような評価基準テーブル100に記述されている評価基準の内のいずれかが適用される。
【0031】
このような融合・評価処理を行うべく、融合処理部8は、予め設定されたプログラムを実行することにより検出対象物を選定するプロセッサ9と、プログラムおよび各種データが格納されたメモリ10とを有する。メモリ10は、プログラムおよびデータが固定的に格納されたROMと、プロセッサ9のワーク領域等として使用されるRAMとを含む。このメモリ10に格納されている情報としては、例えば、評価基準テーブル100が挙げられる。
【0032】
図2は、評価基準テーブル100の一例を示す図である。この評価基準テーブル100には、識別子101と、レベル102と、評価基準103とが対応付けて記述されている。ここで、評価基準103は、評価処理に際して用いられる基準であり、原色視差Nr,Ng,Nbまたはシティブロック距離Mr,Mg,Mbに関する少なくとも一つの具体的な条件(以下、「個別条件」という)を含む。本実施形態では、それぞれの評価基準は、同図中に▲1▼〜▲3▼で記した3種類の個別条件を含んでいる。ただし、検出対象物の色を考慮した場合、すべての個別条件を適用するのが適切でないこともあるので、検出対象物によっては個別条件が1つまたは2つのものもある。また、検出対象物の色の相違に対応するために、評価基準103は、検出対象物の色に含まれる原色のパラメータ(原色視差Nr,Ng,Nb、シティブロック距離Mr,Mg,Mb)のみで構成されている。換言すれば、検出対象物の色に含まれない原色に関するパラメータは、その検出対象物の評価基準103には含まれない。ある評価基準103において規定されているすべての個別条件を具備するならば、その評価基準を具備すると判断する。
【0033】
第1の個別条件(同図の▲1▼)は、原色視差Nr,Ng,Nbの値の一致性に関する。具体的には、原色視差Nr,Ng,Nbの値を比較し、これらの差が所定の範囲内であれば、値が一致するものと判断する。ただし、検出対象物によっては、三原色(RGB)をすべて含むとは限らないので、このような検出対象物に関しては、色成分に含まれない原色の原色視差は除外し、残り2つの原色視差の一致性のみを規定している。例えば、追い越し禁止センターラインの色は、典型的にはオレンジ色であり、青色成分を含んでいない。そのため、識別子Bに関する第1の個別条件から分かるように、赤の原色視差Nrと緑の原色視差Ngとの一致性(Nr=Ng)だけで判断する。また、単一の原色しか含まない検出対象物(例えば、赤信号)に関しては、評価基準として、第1の個別条件を規定しない。
【0034】
第2の個別条件(同図の▲2▼)では、原色毎に算出されたシティブロック距離Mr,Mg,Mb(最小シティブロック距離)に基づいて、輝度特性の相関に関する信頼性を原色毎に個別に判断する。具体的には、シティブロック距離Mr,Mg,Mbが所定の判定しきい値Sr,Sg,Sbよりも小さいことを原色毎に判定し、すべての原色について肯定判定された場合に第2の個別条件を具備するものと判断する。なお、これらの判定しきい値Sr,Sg,Sbは、レベル102に応じて異なる値が設定されており、評価基準103が厳しくなるほど、小さな値に設定されている(それゆえ、画素ブロック間における輝度特性の相関性判定がより厳しくなる)。なお、第1の個別条件と同様に、第2の個別条件についても、検出対象物の色成分中に存在しない原色のシティブロック距離Mr,Mg,Mbは考慮しない。
【0035】
第3の個別条件(同図の▲3▼)では、原色毎に算出されたシティブロック距離Mr,Mg,Mbに基づいて、輝度特性の相関に関する信頼性を、すべての原色を総合的にみて判断する。具体的には、各原色画像に関するシティブロック距離Mr,Mg,Mbの総和(Mr+Mg+Mb)が所定の判定しきい値Siよりも小さい場合に第3の個別条件を具備するものと判断する。なお、この判定しきい値Siは、レベル102に応じて異なる値が設定されており、評価基準103が厳しくなるほど、小さな値に設定されている(それゆえ、画素ブロック間における輝度特性の相関性判定がより厳しくなる)。なお、第1の個別条件と同様に、第2の個別条件についても、検出対象物の色成分中に存在しない原色のシティブロック距離Mr,Mg,Mbは考慮されておらず、また、単一の原色しか含まない検出対象物に関しては、第3の個別条件は規定されていない。
【0036】
識別子101は、評価基準103を特定するために用いられ、評価基準103毎に個別に付与された記号・符号等である。評価基準テーブル100には、各種の検出対象物に対応すべく、様々な評価基準103が記述されている。ただし、識別子101によって特定される評価基準103は必ずしも1つではなく、レベル102が異なる複数の評価基準103が記述されている。どのレベル102の評価基準103を適用するかは、検出対象選定部11によって指定される。
【0037】
レベル102は、このレベル102に対応する評価基準103を具備する場合に認定される信頼度の高さである。本実施形態では、それぞれの検出対象物に対して、評価の厳しさが異なる複数のレベルH,Mが用意されており、信頼性がより高いレベルHの方が、それよりも信頼性が低いレベルMよりも評価が厳しくなっている。例えば、識別子AにおけるレベルHの評価基準103では、第1の個別条件(同図▲1▼)として、3つ原色視差Nr=Ng=Nbであることが要求されている。これに対して、識別子AにおけるレベルMの評価条件103では、第1の個別条件(同図▲1▼)として、原色視差Nr,Ng,Nbの内の2つが一致することが要求されており、レベルHよりも条件が緩和されている。
【0038】
図2に示した例の内、識別子Aの評価基準103(レベルH,レベルLの双方を含む)は、検出対象物として特定のものが指定されていないデフォルト時に適用され、RGB各色がほぼ均等に含まれていることを想定している。識別子Bの評価基準103は、例えば、黄色(或いは、オレンジ色)の追い越し禁止センターラインを検出する際に適用される。また、識別子Cの評価基準103は、例えば、赤信号を検出する際に適用される。
【0039】
検出対象選定部11は、現時点で検出すべき対象物を選定するとともに、選定された検出対象物に適したいずれかの評価基準を選定する。検出対象物は、車両走行時に出現し得るものであり、複数の対象物(例えば、追い越し禁止センターラインや先行車のリアランプ等)が予め設定されている。検出対象選定部11は、図示しない車両の速度センサや操舵角センサ等より特定される走行状況に応じて、いずれかの対象物を検出対象物として選定する。一方、検出対象物が選択されると、評価基準テーブル100に記述されているいずれかの評価基準103が、後述するインデックステーブル130の内容に基づいて選定される。
【0040】
検出対象選定部11は、予め設定されたプログラムを実行することで検出対象物を選定するマイクロコンピュータ12と、プログラムおよび各種データが格納されたメモリ13とを有する。メモリ13は、プログラムおよびデータが固定的に格納されたROMと、マイクロコンピュータ12のワーク領域等として使用されるRAMとを含む。このメモリ13に格納されている情報としては、例えば、インデックステーブル130、評価基準指定情報等が挙げられる。
【0041】
図3は、インデックステーブル130の一例を示す図である。このインデックステーブル130には、検出対象物131と、それに最適な評価基準の識別子132とが対応付けて記述されている。この識別子132は、図2に示した評価基準テーブル100と同一の符号が用いられ、共通化されている。したがって、インデックステーブル130側でいずれかの識別子132が特定されると、評価基準テーブル100に記述された評価基準も一義的に特定される。
【0042】
評価基準指定情報は、上述した演算処理によって選択された検出対象物に最適な評価基準を示す。この評価基準指定情報は、メモリ13(RAM)における所定のアドレス領域(以下、「評価基準指定領域」という)に格納・保持されている。そして、適用すべき評価基準が更新されると、この評価基準指定領域に書き込まれている情報も速やかに更新される。融合処理部8は、評価基準指定領域にアクセスすることで、現時点で適用すべき評価基準を獲得する。
【0043】
図4は、統一視差Niの算出手順を示すフローチャートである。まず、ステップ101において、ステレオ演算回路6は、画像データメモリ7に格納されている基準画像データと比較画像データとを読み出し、ステレオマッチングを行う。上述したように、ステレオマッチングは、R画像,G画像,B画像のそれぞれについて互いに独立的に行われ、原色視差Nr,Ng,Nbが別個に算出される。それぞれの原色画像に対して行われるステレオマッチング自体は、モノクロ画像に対して行われるステレオマッチングと同様である。
【0044】
つぎに、融合処理部8は、メモリ13の評価基準指定領域より評価基準指定情報を読み込むとともに(ステップ102)、評価基準テーブル100を参照して、読み込んだ評価基準指定情報に対応する評価基準を取得する(ステップ103)。例えば、評価基準指定情報として識別子Aが指定されている場合には、図2のテーブルにおける識別子Aに関する評価基準AH,AMの双方が読み込まれる。ここで、”AH”は、識別子AでレベルHの評価基準を指し、AMは、識別子AでレベルMの評価基準を指す。
【0045】
つぎに、融合処理部8は、先のステップ103において指定された評価基準AH,AMに基づいて、ステレオマッチングの結果を評価し、一例として3段階の評価結果(”H”,”M”,”L”)を出力する(ステップ104)。ここで出力された評価結果は、ある画素ブロックに関する原色視差Nr,Ng,Nbとそれに関するシティブロック距離Mr,Mg,Mbとの信頼性の度合いを示す信頼度情報として用いられる。ステップ104での評価処理は、レベルの高い評価基準が順番に行う。例えば、評価基準情報として識別子Aが指定されている場合、まず、高レベルの評価基準AHについて判定する。この評価基準AHを具備する場合、すなわち評価基準AHを構成する3つの個別条件をすべて具備する場合には、評価結果(信頼度)として”H”(信頼性が最も高いことを意味する)を確定し、評価基準AMに関する判定は行わない。一方、評価基準AHを具備しない場合には、それよりもレベルの低い評価基準AMの判定に進む。そして、この評価基準AMを具備する場合、すなわち、評価基準AMを構成する3つの個別条件をすべて具備する場合には、評価結果として”M”(信頼性が中位であることを意味する)を確定する。また、評価基準AMを具備しない場合には、評価結果として”L”(信頼性が最も低いことを意味する)を確定する。
【0046】
つぎに、融合処理部8は、原色視差Nr,Ng,Nbに基づいて、これらを融合することにより統一視差Niを算出する(ステップ105)。この融合手法としては、例えば、原色視差Nr,Ng,Nbの値を比較して、これらの値が一致している場合にはその値を統一視差Niとして決定・出力する。また、別の例として、原色視差Nr,Ng,Nbの積和演算(加重平均や算術平均等を含む)によって、統一視差Niを算出してもよい。なお、演算量の低減を図るために、融合処理部8は、ある画素ブロックに関する原色視差Nr,Ng,Nbとシティブロック距離Mr,Mg,Mbの信頼性の度合いを示す信頼度情報より、これらの信頼性が高いと判断した場合のみ、その画素ブロックに関する統一視差Niを出力することが好ましい。換言すれば、これらの信頼性が高くないと判断した場合には、その画素ブロックに関する統一視差Niは出力されず、その代わりに無効データが出力される。
【0047】
なお、ステップ105において、上述したように原色視差Nr,Ng,Nbのすべてを比較するとは限らず、図2の評価基準103における第2の個別条件と同様に、検出対象物の色に含まれる原色に関する原色視差Nr,Ng,Nbのみを比較対象とすることが好ましい。また、先のステップ104で得られた評価結果が高い場合だけ(例えば、”H”または”M”の場合)、原色視差Nr,Ng,Nbの融合処理を行うようにしてもよい。
【0048】
そして、ステップ106において、融合処理部8は、距離データとしての統一視差Niと、信頼度情報としての評価結果(”H”,”M”,”L”のいずれか)とを対応付けて出力する。互いに対応付けられた統一視差Niおよび評価結果は、距離データメモリ14に格納される。
【0049】
ステレオ演算回路6および融合処理部8は、処理対象を次の画素ブロックに変更したうえで同様の処理を繰り返す。1フレーム分の統一視差Niと評価結果とを求めることで、距離データメモリ14には1フレーム分の距離データ(i,j,Ni)が信頼度情報付で格納される。
【0050】
図5は、評価基準の指定手順を示すフローチャートである。まず、ステップ201において、検出対象選定部11は、図示していない各種センサの検出結果等に基づいて、車速、加減速の様子、舵角、方向指示器(あるいは、方向指示器操作レバー)等の走行状況を検出する。
【0051】
ステップ202において、検出対象選定部11は、検出された走行状態に基づいて、現時点で検出すべき対象物を選定する。例えば、右の方向指示器が点灯(点滅)している場面としては、(1)追い越し、(2)右折、といった場面が考えられる。追い越しと右折との区別は、車速、加速状況等を考慮することで可能である。検出対象選定部11は、追い越しのために右の方向指示器が点灯(厳密には点滅)していると判断した場合には、検出対象物として追い越し禁止のセンターラインを選定する。このようなセンターラインを検出対象物にする理由は、追い越し禁止の区域を走行時に、ドライバによる追い越し操作に対する警告を与えるためである。なお、方向指示器自体についてはランプ切れといった事態も考えられるため、方向指示器の点灯状態ではなく、方向指示器操作レバーの状態を検出してもよい。また、検出対象選定部11は、車速、車間距離等を考慮することで前方車両への追突を警戒する必要がある状況では、検出対象物として車両のストップランプを選定する。ストップランプの点灯状態を検出することで前方車両の減速が予測でき、ドライバに警告を与えることが可能となる。
【0052】
つぎに、ステップ203において、検出対象選定部11は、インデックステーブル130を参照して、ステップ202において選定された検出対象物に対応付けられている識別子を獲得する。なお、特定の検出対象物が選定されていない状態では、デフォルト値として識別子A(最も汎用性の高い評価基準を指定)が設定される。獲得された識別子は、新たな評価基準指定情報としてメモリ13(RAM)の評価基準指定領域に書き込まれ、従前の評価基準指定情報が更新される(ステップ204)。
【0053】
検出対象選定部11は、以上のような手順を繰り返し実行することによって、走行状況に応じた検出対象を適宜選定するとともに、検出対象物に応じて評価基準を逐次更新・設定する。
【0054】
このように、本実施形態によれば、個々の原色画像に関して原色視差Nr,Ng,Nbを算出し、これらに基づいて統一視差Niを算出するため、信頼性の高い距離データを算出することができる。従来のモノクロ画像をベースとしたステレオ画像処理では、入力情報に色情報は存在せず、それぞれの原色の輝度の総和が輝度情報として得られるにすぎない。このため、ある画像領域において各原色の輝度が急激に変化していたとしても、輝度総和が一定である限りは、変動量が互いに相殺し合うため、原色ベースでの輝度エッジとしては認識されない。これに対し、本実施形態のように、カラー画像をベースとしたステレオ画像処理では、カラー画像を構成する原色毎に撮像画像が得られるため、輝度エッジも原色毎に認識でき、原色毎の輝度エッジに起因した原色視差Nr,Ng,Nbを別個に算出できる。その際、ある画素ブロックに関して算出される3つの原色視差Nr,Ng,Nbは、必ずしも同じ値になるとは限らない。このような原色視差の不一致は、画素ブロックに対象物以外の背景部分が含まれてしまうこと、或いは、その背景部分での色成分値が各原色によって異なることに起因している。例えば、対象物が赤色であり、背景部分が緑色である場合について考えると、R画像についてのステレオ画像認識の結果は、対象物までの距離を反映した値となり、背景部分には赤色の成分は含まれていないため、背景部分の存在がR画像についての認識結果に影響を与えることはない。しかしながら、背景部分には緑色の成分が多く含まれているため、G画像についての認識結果は、この背景までの距離を反映した値となってしまう。その結果、緑の原色視差Ngは赤の原色視差Nrと一致しなくなる。本実施形態は、このような原色視差Nr,Ng,Nbの不一致が生じ得る点に鑑みなされたものであり、原色視差Nr,Ng,Nbに基づいて、信頼度情報付の統一視差Niを算出する。この信頼度情報は、視差の融合処理における入力データ(原色視差Nr,Ng,Nbおよびシティブロック距離Mr,Mg,Mb)の信頼性を示しているため、統一視差Niを利用する認識部16において、統一視差Niの信頼性に応じた利用を図ることができる。
【0055】
また、本実施形態では、検出しようとする対象物の色を考慮した評価基準を設定し、検出対象物の色が考慮された信頼度情報を生成・出力する。統一視差Niの算出する際に、検出対象物の色も考慮することによって、より信頼性の高い距離データを算出することができる。これは、対象物の色が特徴的なものである場合、例えば、周囲と比べて著しく異なった色である場合において特に有効である。
【0056】
さらに、近年急速に価格が下がったカラーCCDを使用できるため、画像処理装置の一層のコスト低減を図ることができる。特に、イメージセンサのカラー化が進んだ今日、白黒のイメージセンサを採用することはコスト的に却って高くつくという状況も生じつつあるが、本実施形態によればかかる不都合を回避することができる。
【0057】
なお、本実施形態は、4色の補色フィルタ(シアン、マゼンダ、イエロー、グリーン)を用いたカラーカメラを用いた場合でも適用可能である。この補色フィルタを用いたカラーカメラでは、光の利用効率が高いため、高解像度化、暗い状況への対応という点で有利である。ただし、上述した各種回路をそのまま使用するためには、このような補色フィルタを採用したカメラであっても、出力される画像データをRGBのカラー画像データに変換する必要がある。
【0058】
また、上述した実施形態では、融合処理部8および検出対象選定部11が、他の構成部分とを別個に設けている。しかしながら、融合処理部8および検出対象選定部11は、ハードウエア構成上、必ずしも独立的に存在している必要はなく、例えば、マイクロコンピュータ15に所定のプログラムを実行させることでこれらを実現してもよい。
【0059】
また、本発明は、評価基準を構成する個別条件の個数および具体的な内容は、本実施形態に限定されるものではなく、より多くのレベルに分けて評価基準を用意してもよい。特に、評価基準は、原色視差Nr,Ng,Nbおよびシティブロック距離Mr,Mg,Mbの双方について規定している必要は必ずしもなく、いずれか一方であってもよい。さらに、インデックステーブル130は、検出対象物131と評価基準を特定する識別子132とを対応付けて記述しているが、色と評価基準とを直接対応付けてもよい。
【0060】
また、上述した実施形態では、信頼度のレベル毎に評価基準を別個に用意しているが、単一の評価基準を一律に適用してもよい。この場合、この評価基準をどの程度満たすかによって、信頼度を決定することが好ましい。
【0061】
また、検出すべき対象物は、撮像画像中の領域に応じて切り替えてもよい。例えば、画像の上側領域についてステレオマッチングを行っている間は信号の赤あるいは標識を検出対象物として設定しておく。そして、ステレオマッチングを行う領域が画像の下側部分に達した場合には、検出対象物をセンターラインに変更する。これにより、1フレーム相当の撮像画像において、種類の異なる検出対象物を同時に検出できる。これにより、複数の検出対象物に関する距離データを、効率的かつ高精度で算出できる。この場合、検出対象選定部11は、検出対象物に応じた評価基準を、これを適用する画像領域を示す”領域指定情報”と対応付けて保持する。融合処理部8は、融合対象となる原色視差Nr,Ng,Nbが、撮像画像のいずれの部分に関するものであるかを認識した上で、評価基準を検出対象選定部11から読み出す。ただし、上記”領域指定情報”は、必ずしもデータとしての形態をとっている必要はない。すなわち、メモリ13への格納順(あるいは、格納領域)、融合処理部8による読み出し順、演算処理順などを適当に取り決めておくことで、結果的に領域毎に重み係数が使い分けられるようにしても構わない。この場合には、この取り決め自体が、”領域指定情報”に相当する。
【0062】
(第2の実施形態)
上述した第1の実施形態は、3板式カラーCCDを構成する3枚の原色画像上において、位置的に対応する画素(ピクセル)同士が完全に同一位置に存在することを前提としている。このような前提が成立する限り、個々のCCDには、同一の画像が投影されており、ある画素P(i,J)を構成する赤画素Cr(i,j)、緑画素Cg(i,j)および青画素Cb(i,j)は、投影画像上において完全に同一位置に存在する。ところが、ビデオカメラ等に使用される民生用3板式カラーCCDでは、各原色画素Cr(i,j),Cg(i,j),Cb(i,j)の位置を意図的にずらしていることが多い。各原色画素Cr(i,j),Cg(i,j),Cb(i,j)が完全に一致していると、画素間の境界が視覚上目立ってしまい好ましくないからである。そこで、本実施形態は、このような特性を有するイメージセンサを内蔵したカメラ1,2を採用した場合、意図的に設定された画素ずれの影響を排除することにより、ステレオマッチングに適した撮像画像対を生成するものである。なお、第1の実施形態と同一の構成については、同一の符号を付して個々での説明を省略する。
【0063】
本実施形態に係るステレオ画像処理装置は、基本的に、図1に示したブロック図と同一の構成を有する。ただし、カメラ1,2は、3板式カラーCCDを内蔵したものが採用され、各原色画像における画素位置は互いにずれている。また、補正回路5は、第1の実施形態で述べた補正機能の他に、CCD側で意図的に設定された画素ずれを原色画像(R画像,G画像,B画像)毎に補正する機能を備えている。
【0064】
図6は、画素の位置ずれ補正の説明図である。基準画素(補正後の画素)をCs(i,j)とし、補正の対象となる実画素(補正前の画素)をCt(i,j)とした場合、基準画素Cs(i,j)と重なっている少なくとも一つの実画素Ct(i,j)の輝度値を入力とした加重平均によって、基準画素Cs(i,j)の輝度値を算出する。例えば、基準画素Cs(1,1)の補正後の輝度値は、この基準画素Cs(1,1)に含まれる4つの実画素Ct(1,1),Ct(1,2),Ct(2,1),Ct(2,2)に基づいて算出する。
【0065】
画素ずれ補正は、数式1の加重平均演算で基準画素Csの輝度値Isを算出することにより行われる。なお、同数式において、Is(i,j)は基準画素Cs(i,j)の輝度値であり、It(i,j)は実画素Ct(i,j)の輝度値である。また、a1〜a4は、基準画素Cs(i,j)と実画素Ct(i,j)との間のずれ量に応じて決定される重み係数である。なお、このずれ量は、3板式カラーCCDの仕様より既知であるから、重み係数a1〜a4も一義的かつ固定的に適用される。
【数1】
Is(i,j)=a1×It(i,j)+a2×It(i,j+1)+a3×It(i+1,j)+a4×It(i+1,j+1))
【0066】
例えば、図6に示すように、実画素Ct(i,j)および基準画素Cs(i,j)が垂直・水平方向共に1/2画素ずれている場合、数式2の算術平均によって、基準画素Cs(i,j)の輝度値が一義的に算出される。
【数2】
Is(i,j)=1/4(It(i,j)+It(i,j+1)+It(i+1,j)+It(i+1,j+1))
【0067】
このような画素の位置ずれ補正、換言すれば、実画素Ct(i,j)の位置を基準画素Cs(i,j)の位置に見かけ上シフトしたことに伴う輝度値補正を、一枚の原色画像を構成するすべての画素に対して実行する。これにより、3板式カラーCCDの仕様として意図的に設定されている画素の位置ずれが解消され、ステレオマッチングに適した基準画像および比較が象が得られる。その結果、より信頼性の高い距離データを算出することができる。それとともに、入手が容易で安価な民生品を用いることで、ステレオ画像処理装置を安価に実現できる。
【0068】
【発明の効果】
本発明では、一対のカラー画像を用いてステレオ画像処理を行う際、カラー画像を構成する同一色の原色画像毎に原色視差を算出する。そして、それぞれの原色視差を融合することによって、信頼度情報付で統一視差を算出する。この信頼度情報は、視差の融合処理における入力データの信頼性を示しているため、統一視差を利用する後段の認識部において、統一視差の信頼性に応じた利用を図ることができる。
【図面の簡単な説明】
【図1】ステレオ画像処理装置の概略的なブロック図
【図2】評価基準テーブルの一例を示す図
【図3】インデックステーブルの一例を示す図
【図4】統一視差の算出手順を示すフローチャート
【図5】評価基準の指定手順を示すフローチャート
【図6】画素の位置ずれ補正の説明図
【符号の説明】
1,2 カメラ
3 アナログインターフェース
4 A/Dコンバータ
5 補正回路
6 ステレオ演算回路
7 画像データメモリ
8 融合処理部
9 プロセッサ
10 メモリ
11 検出対象選定部
12 マイクロコンピュータ
13 メモリ
14 距離データメモリ
15 マイクロコンピュータ
16 認識部
17 警報装置
18 制御装置
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus and an image processing method for performing stereo image processing using a pair of color images.
[0002]
[Prior art]
A stereo-type vehicle exterior monitoring system using a stereo camera is known. In this system, a pair of captured images obtained from a pair of cameras (stereo cameras) is used to identify small regions having a correlation in luminance characteristics by stereo matching, and distance data is obtained from the relative deviation amount between the two. obtain. A conventional stereo type outside vehicle monitoring system employs a black and white image sensor (CCD, CMOS sensor, etc.), and recognizes the situation outside the vehicle based on luminance information in a monochrome image.
[0003]
[Problems to be solved by the invention]
However, if the stereo image processing using not only a monochrome image but also a color image as input information and color information as well as luminance information is performed, the reliability of distance data can be expected to be improved. At the same time, the recognition accuracy of the driving situation and the more complicated situation recognition become possible. However, in the past, when performing stereo image processing using a color image, there has not been sufficient study on how to process a plurality of primary color images constituting a color image and what information is extracted. It was.
[0004]
In recent years, with the development of technology related to image processing, colorization has progressed in various fields that handle images, and the cost of color image sensors has become even lower. Therefore, the adoption of a color image sensor is also desired in a stereo-type outside monitoring system from the viewpoint of cost.
[0005]
The present invention has been made in view of such circumstances, and an object thereof is to improve the reliability of distance data by performing stereo image processing using a pair of color images.
[0006]
[Means for Solving the Problems]
In order to solve such a problem, the first invention provides an image processing apparatus that performs stereo matching using a pair of color images each composed of a plurality of primary color images. This image processing apparatus has stereo calculation means and fusion processing means. The stereo calculation means calculates the primary color parallax for each primary color image and the city block distance for these primary color parallaxes by performing stereo matching using the primary color image pairs of the same color. These primary color parallax and city block distance are calculated for each image area which is a parallax calculation unit. The fusion processing means calculates a unified parallax for each image area based on each primary color parallax. At the same time, the fusion processing means outputs reliability information indicating the reliability of at least one of the primary color parallax and the city block distance in association with the unified parallax.
[0007]
Here, in the first invention, when the fusion processing means determines that the reliability related to one image area is high, it outputs a unified parallax related to the image area and also has reliability related to the one image area. If it is determined that it is not high, it is preferable not to output a uniform parallax for this image area in order to reduce the amount of calculation.
[0008]
In the first invention, it is preferable that the fusion processing unit evaluates the reliability of at least one of primary color parallax and city block distance according to a predetermined evaluation criterion. This evaluation criterion preferably includes at least a first individual condition for determining whether or not respective values of the primary color parallax match. In addition, it is preferable that this evaluation criterion includes at least a second individual condition for determining whether each of the city block distances is smaller than a predetermined determination threshold value. Furthermore, this evaluation criterion preferably includes at least a third individual condition for determining whether or not the sum of city block distances is smaller than a predetermined determination threshold value.
[0009]
In the first invention, it is desirable that the fusion processing means selects and applies one of the evaluation criteria prepared in advance according to the color of the object to be detected. .
[0010]
Furthermore, in the first invention, in order to calculate the luminance value of the reference pixel excluding the influence of the positional shift of the corresponding actual pixel in each primary color image, the luminance of the actual pixel overlapping the reference pixel is calculated. Correction means for calculating the luminance value of the reference pixel by a weighted average of the values may be further provided.
[0011]
The second invention provides an image processing apparatus that performs stereo matching using a pair of color images each composed of a plurality of primary color images. This image processing apparatus includes a correction unit and a stereo calculation unit. The correction means calculates the weighted average of the luminance values of the real pixels overlapping the reference pixel in order to calculate the luminance value of the reference pixel in each primary color image excluding the influence of the positional deviation of the corresponding real pixel. To calculate the luminance value of the reference pixel. Further, the stereo calculation means performs primary matching using the primary color image pair of the same color corrected by the correction means, thereby calculating the primary color parallax relating to each primary color image for each image area serving as a parallax calculation unit. .
[0012]
The third invention provides an image processing method for performing stereo matching using a pair of color images each composed of a plurality of primary color images. In this image processing method, stereo matching is performed using primary color image pairs of the same color, so that the primary color parallax relating to each primary color image and the city block distance relating to these primary color parallaxes are calculated for each image area as a parallax calculation unit. Based on the first step and the respective primary color parallax, the unified parallax for each image area is calculated, and the reliability information indicating the reliability of at least one of the primary color parallax and the city block distance is compatible with the unified parallax. And a second step of outputting.
[0013]
Here, in the second step, when it is determined that the reliability regarding the one image area is high, the unified parallax regarding this image area is output, and when it is determined that the reliability is not high, this image is displayed. It is preferable not to output a uniform parallax for the region.
[0014]
In the second step, it is desirable to evaluate the reliability of at least one of primary color parallax and city block distance according to a predetermined evaluation criterion. This evaluation criterion preferably includes at least a first individual condition for determining whether or not respective values of the primary color parallax match. In addition, it is preferable that this evaluation criterion includes at least a second individual condition for determining whether each of the city block distances is smaller than a predetermined determination threshold value. Furthermore, this evaluation criterion preferably includes at least a third individual condition for determining whether or not the sum of city block distances is smaller than a predetermined determination threshold value.
[0015]
In addition, the second step may include a step of selecting and applying any one of a plurality of evaluation criteria prepared in advance according to the color of the object to be detected.
[0016]
Further, in the third invention, in each primary color image, in order to calculate the luminance value of the reference pixel excluding the influence of the positional shift of the corresponding actual pixel, the luminance of the actual pixel overlapping the reference pixel is calculated. A third step of calculating the luminance value of the reference pixel by a weighted average of values may be further provided.
[0017]
The fourth invention provides an image processing method for performing stereo matching using a pair of color images each composed of a plurality of primary color images. In this image processing method, in each primary color image, in order to calculate the luminance value of the reference pixel excluding the influence of the positional shift of the corresponding actual pixel, the luminance value of the actual pixel overlapping the reference pixel is calculated. By performing stereo matching using the first step of calculating the luminance value of the reference pixel by weighted average and the corrected primary color image pair of the same color, the primary color parallax for each primary color image is calculated as a parallax calculation unit. And a second step of calculating for each image area.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
(First embodiment)
FIG. 1 is a schematic block diagram of a stereo image processing apparatus mounted on a vehicle such as an automobile. This image processing device uses a plurality of primary color images (red image, green image, and blue image) constituting a color image as targets of stereo matching, calculates a parallax independently for each primary color image, (1) Evaluate the reliability of the parallax and (2) fuse the parallax. Such parallax evaluation / fusion is performed in consideration of the color of the object projected in the captured image. Hereinafter, the red image is referred to as “R image”, the green image as “G image”, and the blue image as “B image”.
[0019]
A stereo camera for imaging the front of the vehicle is attached in the vicinity of a room mirror, and is composed of a pair of cameras 1 and 2 incorporating an image sensor such as a CCD or CMOS sensor. The cameras 1 and 2 are attached at a predetermined interval (camera base line length) in the vehicle width direction. The main camera 1 that outputs a reference image is attached to the right side in the traveling direction of the vehicle. On the other hand, the sub camera 2 that outputs the comparison image is attached on the left side in the traveling direction.
[0020]
Each of the cameras 1 and 2 includes a separate image sensor for each of red, green and blue (RGB) (for example, a three-plate color CCD). The reference image output from the main camera 1 is actually composed of three primary color images of an R image, a G image, and a B image. Similarly, the comparison image output from the sub camera 2 is also composed of three primary color images of an R image, a G image, and a B image. Therefore, a total of six images are output by the pair of cameras 1 and 2 at one shooting timing. Hereinafter, the R image constituting the reference image may be referred to as a reference image (R). Similarly, the G image constituting the reference image may be referred to as a reference image (G), and the B image may be referred to as a reference image (B). As for the comparative image, the R, G, and B images may be referred to as a comparative image (R), a comparative image (G), and a comparative image (B), respectively.
[0021]
In a state where the pair of cameras 1 and 2 are synchronized, the analog images output from the cameras 1 and 2 are adjusted in the analog interface 3 so as to match the input range of the circuit in the subsequent stage. A gain control amplifier (GCA) 3a in the analog interface 3 adjusts the brightness balance of the paired analog image signals. This adjustment is performed between images of the same color (R, G, B). The analog image pair adjusted in the analog interface 3 is converted by the A / D converter 4 into a digital image having a predetermined luminance gradation (for example, a gray scale of 256 gradations).
[0022]
The correction circuit 5 performs brightness correction, image geometric conversion, and the like for each of the six primary color images constituting the digitized image pair. Usually, there is an error in the mounting position of the pair of cameras 1 and 2 to some extent, and a shift caused by the difference exists in the left and right images. Therefore, geometric transformation such as image rotation and translation is performed using affine transformation or the like. This guarantees the coincidence of horizontal lines (epipolar lines) in the image pair, which is a precondition for performing stereo matching. Through such image processing, from the output signal of the main camera 1, as an example, reference image data of 512 pixels (pixels) in the horizontal direction (i coordinate direction) and 200 pixels (pixels) in the vertical direction (j coordinate direction) Is generated. Further, from the output signal of the sub camera 2, comparison image data having the same vertical length as the reference image data and a horizontal length longer than the reference image data is generated (for example, 640 pixels in the horizontal direction). The vertical direction is 200 pixels (pixels)). The reference image data corresponding to one frame corrected by the correction circuit 5 and the comparison image data are output to the stereo operation circuit 6 and stored in the image data memory 7.
[0023]
The stereo calculation circuit 6 performs stereo matching based on the reference image data and the comparison image data, and calculates the parallax for each image region (pixel block) that is a unit for calculating the parallax. This stereo matching is performed separately for the primary color image pair of the same color. That is, R image (reference image (R) and comparison image (R)), G image ((reference image (G) and comparison image (G)), B image (reference image (B) and comparison image (B)) For each of them.
[0024]
In the present embodiment, as an example, a pixel block of 4 × 4 pixels is used as a parallax calculation unit. Therefore, in the entire image corresponding to one frame, the number of pixel blocks included in the reference image, that is, 128 × 50 parallaxes can be calculated. When one pixel block in the reference image is a target for stereo matching, an area having a correlation with the luminance characteristic of the target pixel block is specified by searching the comparison image. As is well known, the distance to an object (for example, a preceding vehicle or a lane) projected on a stereo image is uniquely specified by the horizontal displacement (parallax) of the object between the reference image and the comparison image. Is done. Therefore, when searching for a comparison image, the search range may be the same horizontal line (epipolar line) as the j coordinate of the target pixel block. The stereo calculation circuit 6 evaluates the correlation of the luminance characteristic with the target pixel block for each pixel block on the comparison image side while shifting the epipolar line one pixel at a time.
[0025]
The correlation of the luminance characteristics between the pixel blocks can be evaluated, for example, by calculating the city block distance. Basically, the pixel block having the smallest value is a correlated pixel block. Then, a horizontal shift amount between pixel blocks that are correlated with each other (in other words, the city block distance is minimized) is output as parallax. Regarding the hardware configuration for calculating the city block distance, Japanese Patent Laid-Open No. 5-114099 Please refer to it if necessary.
[0026]
The stereo arithmetic circuit 6 performs stereo matching between the primary color images of the same color (for example, the reference image (R) and the comparison image (R)), and outputs the parallax and the city block distance to the subsequent fusion processing unit 8. Thereby, three parallaxes (primary color parallaxes) and three city block distances are calculated for one pixel block constituting the reference image. Hereinafter, the primary color parallax calculated from the R image is denoted by Nr, and the city block distance (the minimum value of the city block distance within the search range) relating to the primary color parallax Nr is denoted by Mr. Similarly, the primary color parallax calculated for the G image and the city block distance related to the primary color parallax are denoted as Ng and Mg, respectively, and the primary color parallax calculated from the B image and the city block distance related to the primary color parallax are denoted as Nb and Mg, respectively. . Note that, since the processing amount of the stereo matching process is increased as compared with the case of using a monochrome image, an arithmetic circuit having a sufficient processing speed is adopted as the stereo arithmetic circuit 6.
[0027]
The fusion processing unit 8 performs fusion after evaluating reliability using the three primary color parallaxes Nr, Ng, and Nb and the city block distances Mr, Mg, and Mb with respect to a certain pixel block. The parallax Ni (hereinafter referred to as “unified parallax Ni”) is calculated. The set for one frame of the unified parallax Ni thus obtained is associated with the position (i, j) on the image plane, and stored in the distance data memory 14 as distance data (i, j, Ni). Stored. As will be described later, reliability information indicating the reliability of primary color parallax Nr, Ng, Nb and city block distances Mr, Mg, Mb is attached to each unified parallax Ni. Are stored in the distance data memory 14 in a form associated with.
[0028]
The microcomputer 15 (a recognition unit 16 that is a functional block when functionally recognized) recognizes a road shape (straight line or curve curvature) and a three-dimensional object (for example, a preceding vehicle) in front of the vehicle. This recognition is performed based on the image data stored in the image data memory 7 and the distance data stored in the distance data memory 14. Further, sensor information from a vehicle speed sensor or a steering angle sensor, navigation information, or the like, not shown, is referred to as necessary. Note that a specific method regarding the recognition of the road shape and the recognition of the three-dimensional object is disclosed in Japanese Patent Laid-Open No. 5-265547, so refer to it if necessary. If it is determined that an alarm is necessary based on these recognition results, the alarm device 17 such as a monitor or a speaker is activated to alert the driver. Further, by controlling the control device 18 as necessary, vehicle control such as AT (automatic transmission) shift down, suppression of engine output, or operation of a brake is appropriately executed.
[0029]
Next, a process for calculating the unified parallax Ni by evaluating and merging the primary color parallaxes Nr, Ng, and Nb will be described in detail. The fusion processing unit 8 determines the coincidence between the primary color parallaxes Nr, Ng, and Nb, and if they match, calculates the unified parallax Ni based on the primary color parallaxes Nr, Ng, and Nb. At this time, primary color parallaxes Nr, Ng, and Nb used for calculation of the unified parallax Ni are determined in consideration of the color of the object to be detected in accordance with an evaluation criterion described later. For example, when the detection target is a red-green system that does not include blue, only the coincidence between the red primary color parallax Nr and the green primary color parallax Ng is determined.
[0030]
Further, the fusion processing unit 8 evaluates the reliability of the input data to be merged in the above fusion. Specifically, in this evaluation, the primary color parallax Nr, Ng, and Nb output by the stereo arithmetic circuit 6 and the city block distances Mr, Mg, and Mb that give these parallaxes Nr, Ng, and Nb are detected objects. This is performed based on whether or not a predetermined evaluation criterion is provided for each. As will be described later, any one of the evaluation criteria described in the evaluation criteria table 100 as shown in FIG. 2 is applied to this evaluation criteria.
[0031]
In order to perform such fusion / evaluation processing, the fusion processing unit 8 includes a processor 9 that selects a detection target by executing a preset program, and a memory 10 that stores the program and various data. . The memory 10 includes a ROM in which programs and data are fixedly stored, and a RAM used as a work area for the processor 9. As information stored in the memory 10, for example, an evaluation criterion table 100 can be cited.
[0032]
FIG. 2 is a diagram illustrating an example of the evaluation criterion table 100. In the evaluation criterion table 100, an identifier 101, a level 102, and an evaluation criterion 103 are described in association with each other. Here, the evaluation standard 103 is a standard used in the evaluation process, and is at least one specific condition (hereinafter referred to as “individual condition”) regarding the primary color parallax Nr, Ng, Nb or the city block distance Mr, Mg, Mb. including. In the present embodiment, each evaluation criterion includes three types of individual conditions indicated by (1) to (3) in FIG. However, in consideration of the color of the detection object, it may not be appropriate to apply all the individual conditions, and depending on the detection object, there may be one or two individual conditions. Further, in order to cope with the difference in color of the detection target object, the evaluation standard 103 is only the primary color parameters (primary color parallax Nr, Ng, Nb, city block distance Mr, Mg, Mb) included in the color of the detection target object. It consists of In other words, a parameter relating to a primary color that is not included in the color of the detection target is not included in the evaluation criterion 103 of the detection target. If all the individual conditions specified in a certain evaluation standard 103 are satisfied, it is determined that the evaluation standard is satisfied.
[0033]
The first individual condition ((1) in the figure) relates to the coincidence of the primary color parallax values Nr, Ng, Nb. Specifically, the values of the primary color parallax Nr, Ng, and Nb are compared, and if these differences are within a predetermined range, it is determined that the values match. However, depending on the detection object, not all three primary colors (RGB) are included, so for such a detection object, the primary color parallax of the primary colors not included in the color component is excluded and the remaining two primary color parallaxes are excluded. Only the consistency is specified. For example, the color of the overtaking prohibition center line is typically orange and does not include a blue component. Therefore, as can be seen from the first individual condition relating to the identifier B, the determination is made based only on the coincidence (Nr = Ng) between the red primary color parallax Nr and the green primary color parallax Ng. In addition, the first individual condition is not defined as an evaluation criterion for a detection target (for example, a red signal) that includes only a single primary color.
[0034]
In the second individual condition ((2) in the figure), the reliability relating to the correlation of the luminance characteristics is determined for each primary color based on the city block distances Mr, Mg, Mb (minimum city block distances) calculated for each primary color. Judge individually. Specifically, it is determined for each primary color that the city block distances Mr, Mg, and Mb are smaller than predetermined determination threshold values Sr, Sg, and Sb. Judge that the condition is met. Note that these determination threshold values Sr, Sg, and Sb are set to different values depending on the level 102, and are set to smaller values as the evaluation standard 103 becomes more strict (and therefore between pixel blocks). The correlation determination of luminance characteristics becomes more severe). Similar to the first individual condition, the city block distances Mr, Mg, and Mb of primary colors that do not exist in the color component of the detection target are not considered in the second individual condition.
[0035]
In the third individual condition ((3) in the figure), based on the city block distances Mr, Mg, and Mb calculated for each primary color, the reliability relating to the correlation of luminance characteristics is comprehensively viewed for all primary colors. to decide. Specifically, when the total sum (Mr + Mg + Mb) of city block distances Mr, Mg, and Mb for each primary color image is smaller than a predetermined determination threshold value Si, it is determined that the third individual condition is satisfied. Note that this determination threshold value Si is set to a different value depending on the level 102, and is set to a smaller value as the evaluation standard 103 becomes more strict (hence, the correlation of luminance characteristics between pixel blocks). Judgment becomes more severe). As with the first individual condition, the primary individual city block distances Mr, Mg, and Mb that do not exist in the color components of the detection target are not taken into consideration in the second individual condition, The third individual condition is not defined for a detection target that includes only the primary colors.
[0036]
The identifier 101 is used to specify the evaluation criterion 103, and is a symbol, a code, or the like given individually for each evaluation criterion 103. In the evaluation criteria table 100, various evaluation criteria 103 are described so as to correspond to various detection objects. However, the evaluation criterion 103 specified by the identifier 101 is not necessarily one, and a plurality of evaluation criteria 103 having different levels 102 are described. Which level 102 of the evaluation standard 103 is applied is designated by the detection target selection unit 11.
[0037]
The level 102 is a high reliability that is recognized when the evaluation standard 103 corresponding to the level 102 is provided. In the present embodiment, a plurality of levels H and M having different evaluation severities are prepared for each detection target, and the level H having higher reliability is lower in reliability than that. Evaluation is stricter than level M. For example, in the evaluation standard 103 of level H in the identifier A, the three primary color parallaxes Nr = Ng = Nb are required as the first individual condition ((1) in the figure). On the other hand, in the evaluation condition 103 of the level M in the identifier A, it is required that two of the primary color parallaxes Nr, Ng, and Nb match as the first individual condition ((1) in the figure). , The conditions are relaxed compared to level H.
[0038]
In the example shown in FIG. 2, the evaluation criterion 103 (including both level H and level L) of the identifier A is applied at a default time when a specific object is not designated as a detection target, and each RGB color is almost equal. Is assumed to be included. The evaluation standard 103 of the identifier B is applied when, for example, a yellow (or orange) overtaking prohibition center line is detected. Further, the evaluation criterion 103 of the identifier C is applied when detecting a red signal, for example.
[0039]
The detection target selection unit 11 selects an object to be detected at the present time, and selects any evaluation criterion suitable for the selected detection object. The detection object can appear when the vehicle travels, and a plurality of objects (for example, an overtaking prohibition center line and a rear lamp of a preceding vehicle) are set in advance. The detection target selection unit 11 selects one of the target objects as a detection target according to a traveling situation specified by a vehicle speed sensor, a steering angle sensor, or the like (not shown). On the other hand, when a detection target is selected, one of the evaluation criteria 103 described in the evaluation criteria table 100 is selected based on the contents of an index table 130 described later.
[0040]
The detection target selection unit 11 includes a microcomputer 12 that selects a detection target by executing a preset program, and a memory 13 in which the program and various data are stored. The memory 13 includes a ROM in which programs and data are fixedly stored, and a RAM that is used as a work area of the microcomputer 12. Examples of information stored in the memory 13 include an index table 130 and evaluation criterion designation information.
[0041]
FIG. 3 is a diagram illustrating an example of the index table 130. In this index table 130, a detection object 131 and an identifier 132 of an evaluation criterion that is optimal for the detection object 131 are described in association with each other. For this identifier 132, the same reference numerals as those in the evaluation criterion table 100 shown in FIG. Therefore, when any identifier 132 is specified on the index table 130 side, the evaluation criterion described in the evaluation criterion table 100 is also uniquely specified.
[0042]
The evaluation standard designation information indicates an evaluation standard optimum for the detection target selected by the above-described arithmetic processing. This evaluation standard designation information is stored and held in a predetermined address area (hereinafter referred to as “evaluation standard designation area”) in the memory 13 (RAM). When the evaluation standard to be applied is updated, the information written in this evaluation standard designating area is also quickly updated. The fusion processing unit 8 obtains an evaluation criterion to be applied at the present time by accessing the evaluation criterion designation area.
[0043]
FIG. 4 is a flowchart showing a procedure for calculating the unified parallax Ni. First, in step 101, the stereo calculation circuit 6 reads the reference image data and the comparison image data stored in the image data memory 7, and performs stereo matching. As described above, stereo matching is performed independently for each of the R image, the G image, and the B image, and primary color parallaxes Nr, Ng, and Nb are calculated separately. The stereo matching itself performed for each primary color image is the same as the stereo matching performed for a monochrome image.
[0044]
Next, the fusion processing unit 8 reads the evaluation standard designation information from the evaluation standard designation area of the memory 13 (step 102), and refers to the evaluation standard table 100 to obtain an evaluation standard corresponding to the read evaluation standard designation information. Obtain (step 103). For example, when the identifier A is designated as the evaluation criterion designation information, both the evaluation criteria AH and AM regarding the identifier A in the table of FIG. 2 are read. Here, “AH” indicates an evaluation criterion of level H with identifier A, and AM indicates an evaluation criterion of level M with identifier A.
[0045]
Next, the fusion processing unit 8 evaluates the result of the stereo matching based on the evaluation criteria AH and AM specified in the previous step 103, and as an example, the three-stage evaluation results (“H”, “M”, "L") is output (step 104). The evaluation result output here is used as reliability information indicating the degree of reliability of the primary color parallax Nr, Ng, Nb related to a certain pixel block and the city block distances Mr, Mg, Mb related thereto. The evaluation process in step 104 is performed in order by the evaluation standards with the highest levels. For example, when the identifier A is designated as the evaluation standard information, first, the high level evaluation standard AH is determined. When this evaluation standard AH is provided, that is, when all three individual conditions constituting the evaluation standard AH are provided, the evaluation result (reliability) is “H” (meaning the highest reliability). The decision is made and no determination is made regarding the evaluation criterion AM. On the other hand, if the evaluation criterion AH is not provided, the process proceeds to the determination of the evaluation criterion AM having a lower level. When this evaluation standard AM is provided, that is, when all three individual conditions constituting the evaluation standard AM are provided, the evaluation result is “M” (meaning that the reliability is medium). Confirm. If the evaluation standard AM is not provided, “L” (meaning that reliability is lowest) is determined as the evaluation result.
[0046]
Next, the fusion processing unit 8 calculates the unified parallax Ni by fusing these based on the primary color parallax Nr, Ng, Nb (step 105). As this fusion method, for example, the values of primary color parallax Nr, Ng, Nb are compared, and when these values match, the value is determined and output as a unified parallax Ni. As another example, the unified parallax Ni may be calculated by a product-sum operation (including a weighted average and an arithmetic average) of the primary color parallaxes Nr, Ng, and Nb. In order to reduce the amount of calculation, the fusion processing unit 8 uses the reliability information indicating the degree of reliability of the primary color parallax Nr, Ng, Nb and the city block distance Mr, Mg, Mb regarding a certain pixel block. It is preferable to output the unified parallax Ni related to the pixel block only when it is determined that the reliability of the pixel block is high. In other words, when it is determined that the reliability is not high, the unified parallax Ni regarding the pixel block is not output, but invalid data is output instead.
[0047]
In step 105, not all of the primary color parallaxes Nr, Ng, and Nb are compared as described above, and are included in the color of the detection target as in the second individual condition in the evaluation criterion 103 of FIG. It is preferable that only the primary color parallaxes Nr, Ng, and Nb relating to the primary colors are to be compared. Further, only when the evaluation result obtained in the previous step 104 is high (for example, “H” or “M”), the fusion processing of the primary color parallaxes Nr, Ng, and Nb may be performed.
[0048]
In step 106, the fusion processing unit 8 outputs the unified parallax Ni as the distance data and the evaluation result (any one of “H”, “M”, and “L”) as the reliability information in association with each other. To do. The unified parallax Ni and the evaluation result associated with each other are stored in the distance data memory 14.
[0049]
The stereo arithmetic circuit 6 and the fusion processing unit 8 repeat the same processing after changing the processing target to the next pixel block. By obtaining the unified parallax Ni for one frame and the evaluation result, the distance data (i, j, Ni) for one frame is stored in the distance data memory 14 with reliability information.
[0050]
FIG. 5 is a flowchart showing the procedure for specifying the evaluation criteria. First, in step 201, the detection target selection unit 11 determines the vehicle speed, the state of acceleration / deceleration, the steering angle, the direction indicator (or direction indicator operation lever), etc. based on the detection results of various sensors (not shown). Detects the driving situation.
[0051]
In step 202, the detection target selection unit 11 selects an object to be detected at the present time based on the detected traveling state. For example, scenes in which the right direction indicator is lit (flashing) include (1) overtaking and (2) turning right. The overtaking and the right turn can be distinguished by considering the vehicle speed, acceleration conditions, and the like. When the detection target selection unit 11 determines that the right direction indicator is lit (flashing strictly) for overtaking, the detection target selection unit 11 selects a center line for which overtaking is prohibited as a detection target. The reason why such a center line is set as a detection target is to give a warning for the overtaking operation by the driver when traveling in an overtaking prohibited area. Note that the direction indicator itself may be out of lamp, so the state of the direction indicator operation lever may be detected instead of the lighting state of the direction indicator. In addition, the detection target selection unit 11 selects a stop lamp of the vehicle as a detection target in a situation where it is necessary to be wary of a rear-end collision with the preceding vehicle by considering the vehicle speed, the inter-vehicle distance, and the like. By detecting the lighting state of the stop lamp, deceleration of the vehicle ahead can be predicted, and a warning can be given to the driver.
[0052]
Next, in step 203, the detection target selection unit 11 refers to the index table 130 and acquires an identifier associated with the detection target selected in step 202. In a state where a specific detection target is not selected, an identifier A (designating the most versatile evaluation criterion) is set as a default value. The acquired identifier is written in the evaluation standard designation area of the memory 13 (RAM) as new evaluation standard designation information, and the previous evaluation standard designation information is updated (step 204).
[0053]
The detection target selection unit 11 repeatedly selects the detection target according to the traveling state by repeatedly executing the above procedure, and sequentially updates and sets the evaluation criterion according to the detection target.
[0054]
Thus, according to the present embodiment, primary color parallax Nr, Ng, Nb is calculated for each primary color image, and unified parallax Ni is calculated based on these, so that highly reliable distance data can be calculated. it can. In conventional stereo image processing based on a monochrome image, there is no color information in the input information, and only the sum of the luminances of the primary colors is obtained as luminance information. For this reason, even if the luminance of each primary color changes abruptly in a certain image area, as long as the total luminance is constant, the amount of variation cancels each other, so that it is not recognized as a luminance edge on the primary color basis. On the other hand, in the stereo image processing based on a color image as in the present embodiment, a captured image is obtained for each primary color constituting the color image, so that the luminance edge can be recognized for each primary color, and the luminance for each primary color The primary color parallax Nr, Ng, Nb caused by the edge can be calculated separately. At this time, the three primary color parallaxes Nr, Ng, and Nb calculated for a certain pixel block are not necessarily the same value. Such disparity in primary color parallax is caused by the fact that a background portion other than the object is included in the pixel block, or that the color component value in the background portion differs for each primary color. For example, considering the case where the object is red and the background part is green, the result of stereo image recognition for the R image is a value reflecting the distance to the object, and the red component is included in the background part. Since it is not included, the presence of the background portion does not affect the recognition result for the R image. However, since the background portion contains a lot of green components, the recognition result for the G image is a value reflecting the distance to the background. As a result, the green primary color parallax Ng does not match the red primary color parallax Nr. The present embodiment has been made in view of the point that such disparity between primary color parallaxes Nr, Ng, and Nb may occur, and calculates a uniform parallax Ni with reliability information based on the primary color parallaxes Nr, Ng, and Nb. To do. Since the reliability information indicates the reliability of the input data (primary color parallax Nr, Ng, Nb and city block distance Mr, Mg, Mb) in the parallax fusion processing, in the recognition unit 16 that uses the unified parallax Ni. Therefore, the use according to the reliability of the unified parallax Ni can be achieved.
[0055]
In this embodiment, an evaluation criterion is set in consideration of the color of the object to be detected, and reliability information in which the color of the detection object is considered is generated and output. When calculating the uniform parallax Ni, the distance data with higher reliability can be calculated by taking the color of the detection object into consideration. This is particularly effective when the color of the object is characteristic, for example, when the color is significantly different from the surroundings.
[0056]
Furthermore, since a color CCD whose price has been rapidly reduced in recent years can be used, the cost of the image processing apparatus can be further reduced. In particular, with the progress of colorization of image sensors, it is becoming more expensive to adopt a monochrome image sensor in terms of cost. However, according to this embodiment, such inconvenience can be avoided.
[0057]
Note that this embodiment is applicable even when a color camera using four complementary color filters (cyan, magenta, yellow, and green) is used. A color camera using this complementary color filter is advantageous in terms of high resolution and compatibility with dark conditions because of high light utilization efficiency. However, in order to use the various circuits described above as they are, it is necessary to convert output image data into RGB color image data even in a camera employing such a complementary color filter.
[0058]
In the above-described embodiment, the fusion processing unit 8 and the detection target selection unit 11 are provided separately from other components. However, the fusion processing unit 8 and the detection target selection unit 11 do not necessarily exist independently in terms of hardware configuration. For example, the fusion processing unit 8 and the detection target selection unit 11 can be realized by causing the microcomputer 15 to execute a predetermined program. Also good.
[0059]
In the present invention, the number and specific contents of the individual conditions constituting the evaluation criteria are not limited to the present embodiment, and the evaluation criteria may be prepared by dividing into more levels. In particular, it is not always necessary for the evaluation criteria to specify both primary color parallax Nr, Ng, Nb and city block distances Mr, Mg, Mb, and either one may be used. Furthermore, although the index table 130 describes the detection target 131 and the identifier 132 that specifies the evaluation criterion in association with each other, the color and the evaluation criterion may be directly associated with each other.
[0060]
In the above-described embodiment, the evaluation criterion is prepared separately for each level of reliability. However, a single evaluation criterion may be applied uniformly. In this case, it is preferable to determine the reliability depending on how much the evaluation criterion is satisfied.
[0061]
Further, the object to be detected may be switched according to the area in the captured image. For example, while performing stereo matching for the upper region of the image, the signal red or the sign is set as the detection target. And when the area | region which performs a stereo matching reaches the lower part of an image, a detection target object is changed into a centerline. Thereby, different types of detection objects can be detected simultaneously in the captured image corresponding to one frame. Thereby, the distance data regarding a plurality of detection objects can be calculated efficiently and with high accuracy. In this case, the detection target selection unit 11 holds an evaluation criterion corresponding to the detection target in association with “region designation information” indicating an image region to which the detection criterion is applied. The fusion processing unit 8 reads out evaluation criteria from the detection target selection unit 11 after recognizing which part of the captured image the primary color parallaxes Nr, Ng, and Nb to be merged are related to. However, the “area designation information” does not necessarily have to be in the form of data. That is, by appropriately determining the storage order (or storage area) in the memory 13, the reading order by the fusion processing unit 8, the calculation processing order, etc., as a result, the weighting coefficient can be properly used for each area. It doesn't matter. In this case, the agreement itself corresponds to “area designation information”.
[0062]
(Second Embodiment)
The first embodiment described above is based on the premise that the pixels (pixels) corresponding to each other are located in the same position on the three primary color images constituting the three-plate color CCD. As long as this premise is established, the same image is projected on each CCD, and the red pixel Cr (i, j) and the green pixel Cg (i, J) constituting a certain pixel P (i, J). j) and the blue pixel Cb (i, j) are completely in the same position on the projection image. However, in a consumer three-plate color CCD used in a video camera or the like, the position of each primary color pixel Cr (i, j), Cg (i, j), Cb (i, j) is intentionally shifted. There are many. This is because if the primary color pixels Cr (i, j), Cg (i, j), and Cb (i, j) are completely matched, the boundary between the pixels is visually noticeable, which is not preferable. Therefore, in the present embodiment, when the cameras 1 and 2 incorporating the image sensor having such characteristics are employed, a captured image suitable for stereo matching is obtained by eliminating the influence of intentionally set pixel shift. A pair is generated. In addition, about the structure same as 1st Embodiment, the same code | symbol is attached | subjected and description in each is abbreviate | omitted.
[0063]
The stereo image processing apparatus according to the present embodiment basically has the same configuration as the block diagram shown in FIG. However, cameras 1 and 2 incorporating a three-plate color CCD are employed, and the pixel positions in the primary color images are shifted from each other. Further, in addition to the correction function described in the first embodiment, the correction circuit 5 has a function of correcting a pixel shift intentionally set on the CCD side for each primary color image (R image, G image, B image). It has.
[0064]
FIG. 6 is an explanatory diagram of pixel positional deviation correction. When the reference pixel (corrected pixel) is Cs (i, j) and the actual pixel to be corrected (precorrected pixel) is Ct (i, j), the reference pixel Cs (i, j) The luminance value of the reference pixel Cs (i, j) is calculated by a weighted average using the luminance value of at least one overlapping real pixel Ct (i, j) as an input. For example, the corrected luminance value of the reference pixel Cs (1,1) is the four actual pixels Ct (1,1), Ct (1,2), Ct ( 2,1) and Ct (2,2).
[0065]
Pixel shift correction is performed by calculating the luminance value Is of the reference pixel Cs by the weighted average calculation of Equation 1. In the equation, Is (i, j) is the luminance value of the reference pixel Cs (i, j), and It (i, j) is the luminance value of the actual pixel Ct (i, j). Also, a1 to a4 are weighting factors determined according to the amount of deviation between the reference pixel Cs (i, j) and the actual pixel Ct (i, j). Since this deviation amount is known from the specification of the three-plate color CCD, the weight coefficients a1 to a4 are also uniquely and fixedly applied.
[Expression 1]
Is (i, j) = a1 * It (i, j) + a2 * It (i, j + 1) + a3 * It (i + 1, j) + a4 * It (i + 1, j + 1))
[0066]
For example, as shown in FIG. 6, when the actual pixel Ct (i, j) and the reference pixel Cs (i, j) are shifted by 1/2 pixel in both the vertical and horizontal directions, the reference pixel is calculated by the arithmetic mean of Equation 2. The luminance value of Cs (i, j) is uniquely calculated.
[Expression 2]
Is (i, j) = 1/4 (It (i, j) + It (i, j + 1) + It (i + 1, j) + It (i + 1, j + 1))
[0067]
Such pixel positional deviation correction, in other words, luminance value correction associated with apparently shifting the position of the actual pixel Ct (i, j) to the position of the reference pixel Cs (i, j), The process is executed for all the pixels constituting the primary color image. As a result, the positional deviation of the pixels intentionally set as the specification of the three-plate color CCD is eliminated, and a reference image suitable for stereo matching and an elephant are obtained. As a result, more reliable distance data can be calculated. In addition, a stereo image processing apparatus can be realized at low cost by using consumer products that are easily available and inexpensive.
[0068]
【The invention's effect】
In the present invention, when performing stereo image processing using a pair of color images, the primary color parallax is calculated for each primary color image of the same color constituting the color image. Then, the unified parallax is calculated with reliability information by fusing the primary color parallaxes. Since the reliability information indicates the reliability of the input data in the parallax fusion processing, it can be used in accordance with the reliability of the unified parallax in the subsequent recognition unit that uses the unified parallax.
[Brief description of the drawings]
FIG. 1 is a schematic block diagram of a stereo image processing apparatus.
FIG. 2 is a diagram showing an example of an evaluation criteria table
FIG. 3 is a diagram showing an example of an index table
FIG. 4 is a flowchart showing a unified parallax calculation procedure.
FIG. 5 is a flowchart showing a procedure for specifying evaluation criteria.
FIG. 6 is an explanatory diagram of pixel misalignment correction.
[Explanation of symbols]
1,2 camera
3 Analog interface
4 A / D converter
5 Correction circuit
6 Stereo operation circuit
7 Image data memory
8 Fusion processing department
9 processor
10 memory
11 Detection target selection section
12 Microcomputer
13 memory
14 Distance data memory
15 Microcomputer
16 Recognition part
17 Alarm device
18 Control device

Claims (16)

それぞれが複数の原色画像で構成された一対のカラー画像を用いて、ステレオマッチングを行う画像処理装置において、
同一色の原色画像対を用いてステレオマッチングを行うことにより、それぞれの原色画像に関する原色視差と、当該原色視差に関するシティブロック距離とを、視差の算出単位となる画像領域毎に算出するステレオ演算手段と、
それぞれの原色視差に基づいて、前記画像領域毎の統一視差を算出するとともに、前記原色視差および前記シティブロック距離の少なくとも一方の信頼性のレベルを示す信頼度情報を前記統一視差に対応付けて出力する融合処理手段とを有し、
前記融合処理手段は、前記レベルに応じた厳しさの異なる複数の評価基準に基づいて前記信頼度情報を算出することを特徴とする画像処理装置。
In an image processing apparatus that performs stereo matching using a pair of color images each composed of a plurality of primary color images,
Stereo calculation means for calculating the primary color parallax relating to each primary color image and the city block distance relating to the primary color parallax for each image area serving as a parallax calculation unit by performing stereo matching using a primary color image pair of the same color When,
Based on each primary color parallax, a unified parallax for each image area is calculated, and reliability information indicating a reliability level of at least one of the primary color parallax and the city block distance is output in association with the unified parallax. Fusion processing means to
The image processing apparatus , wherein the fusion processing unit calculates the reliability information based on a plurality of evaluation criteria having different strictness according to the level .
前記融合処理手段は、一の画像領域に関する前記信頼性が高いと判断した場合には、当該画像領域に関する前記統一視差を出力し、前記信頼性が高くないと判断した場合には、当該画像領域に関する前記統一視差を出力しないことを特徴とする請求項1に記載された画像処理装置。  The fusion processing means outputs the unified parallax for the image area when it is determined that the reliability for one image area is high, and the image area when it is determined that the reliability is not high. The image processing apparatus according to claim 1, wherein the unified parallax is not output. 前記融合処理手段は、前記原色視差および前記シティブロック距離の少なくとも一方の信頼性を、所定の評価基準によって評価することを特徴とする請求項1または2に記載された画像処理装置。  The image processing apparatus according to claim 1, wherein the fusion processing unit evaluates the reliability of at least one of the primary color parallax and the city block distance according to a predetermined evaluation criterion. 前記評価基準は、前記原色視差のそれぞれの値が一致するか否かを判断する第1の個別条件を少なくとも含むことを特徴とする請求項3に記載された画像処理装置。  The image processing apparatus according to claim 3, wherein the evaluation criterion includes at least a first individual condition for determining whether or not respective values of the primary color parallax match. 前記評価基準は、前記シティブロック距離のそれぞれが所定の判定しきい値よりも小さいか否かを判断する第2の個別条件を少なくとも含むことを特徴とする請求項3または4に記載された画像処理装置。  The image according to claim 3 or 4, wherein the evaluation criterion includes at least a second individual condition for determining whether each of the city block distances is smaller than a predetermined determination threshold value. Processing equipment. 前記評価基準は、前記シティブロック距離の総和が、所定の判定しきい値よりも小さいか否かを判断する第3の個別条件を少なくとも含むことを特徴とする請求項3から5のいずれかに記載された画像処理装置。  The evaluation criterion includes at least a third individual condition for determining whether or not the sum of the city block distances is smaller than a predetermined determination threshold value. The described image processing apparatus. 前記融合処理手段は、検出すべき対象物の色に応じて、予め用意された複数の評価基準の中からいずれかの評価基準を選択して適用することを特徴とする請求項3から6のいずれかに記載された画像処理装置。  The fusion processing means selects and applies any one of a plurality of evaluation criteria prepared in advance according to the color of the object to be detected. The image processing apparatus described in any one. それぞれの原色画像において、位置的に対応する実画素の位置ずれの影響を排除した基準画素の輝度値を算出するために、前記基準画素と重なっている前記実画素の輝度値の加重平均によって、前記基準画素の輝度値を算出する補正手段をさらに有することを特徴とする請求項1から7のいずれかに記載された画像処理装置。  In each primary color image, in order to calculate the luminance value of the reference pixel excluding the influence of the positional deviation of the actual pixel corresponding to the position, by the weighted average of the luminance value of the actual pixel overlapping the reference pixel, The image processing apparatus according to claim 1, further comprising a correction unit that calculates a luminance value of the reference pixel. それぞれが複数の原色画像で構成された一対のカラー画像を用いて、ステレオマッチングを行う画像処理方法において、
同一色の原色画像対を用いてステレオマッチングを行うことにより、それぞれの原色画像に関する原色視差と、当該原色視差に関するシティブロック距離とを、視差の算出単位となる画像領域毎に算出する第1のステップと、
それぞれの原色視差に基づいて、前記画像領域毎の統一視差を算出するとともに、前記原色視差および前記シティブロック距離の少なくとも一方の信頼性のレベルを示す信頼度情報を前記統一視差に対応付けて出力する第2のステップとを有し、
前記第2のステップは、前記レベルに応じた厳しさの異なる複数の評価基準に基づいて前記信頼度情報を算出することを特徴とする画像処理方法。
In an image processing method for performing stereo matching using a pair of color images each composed of a plurality of primary color images,
By performing stereo matching using primary color image pairs of the same color, a first color parallax relating to each primary color image and a city block distance relating to the primary color parallax are calculated for each image region which is a unit for calculating parallax. Steps,
Based on each primary color parallax, a unified parallax for each image area is calculated, and reliability information indicating a reliability level of at least one of the primary color parallax and the city block distance is output in association with the unified parallax. And a second step to
The image processing method according to claim 2, wherein the second step calculates the reliability information based on a plurality of evaluation criteria different in severity according to the level .
前記第2のステップにおいて、一の画像領域に関する前記信頼性が高いと判断した場合には、当該画像領域に関する前記統一視差を出力し、前記信頼性が高くないと判断した場合には、当該画像領域に関する前記統一視差を出力しないことを特徴とする請求項に記載された画像処理方法。In the second step, when it is determined that the reliability related to one image region is high, the unified parallax related to the image region is output, and when it is determined that the reliability is not high, the image The image processing method according to claim 9 , wherein the unified parallax relating to an area is not output. 前記上記第2のステップにおいて、前記原色視差および前記シティブロック距離の少なくとも一方の信頼性を、所定の評価基準によって評価することを特徴とする請求項9または10に記載された画像処理方法。The image processing method according to claim 9 or 10 , wherein in the second step, the reliability of at least one of the primary color parallax and the city block distance is evaluated according to a predetermined evaluation criterion. 前記評価基準は、前記原色視差のそれぞれの値が一致するか否かを判断する第1の個別条件を少なくとも含むことを特徴とする請求項11に記載された画像処理方法。The image processing method according to claim 11 , wherein the evaluation criterion includes at least a first individual condition for determining whether or not respective values of the primary color parallax match. 前記評価基準は、前記シティブロック距離のそれぞれが所定の判定しきい値よりも小さいか否かを判断する第2の個別条件を少なくとも含むことを特徴とする請求項11または12に記載された画像処理方法。The image according to claim 11 or 12 , wherein the evaluation criterion includes at least a second individual condition for determining whether each of the city block distances is smaller than a predetermined determination threshold value. Processing method. 前記評価基準は、前記シティブロック距離の総和が、所定の判定しきい値よりも小さいか否かを判断する第3の個別条件を少なくとも含むことを特徴とする請求項11から13のいずれかに記載された画像処理方法。The evaluation criteria are the sum of the city block distance, in any of claims 11, characterized in that it comprises at least a third individual condition for determining whether smaller than a predetermined determination threshold value 13 The described image processing method. 前記第2のステップは、検出すべき対象物の色に応じて、予め用意された複数の評価基準の中からいずれかの評価基準を選択して適用するステップを含むことを特徴とする請求項11から14のいずれかに記載された画像処理方法。The second step includes a step of selecting and applying any one of a plurality of evaluation criteria prepared in advance according to the color of an object to be detected. The image processing method described in any one of 11 to 14 . それぞれの原色画像において、位置的に対応する実画素の位置ずれの影響を排除した基準画素の輝度値を算出するために、前記基準画素と重なっている前記実画素の輝度値の加重平均によって、前記基準画素の輝度値を算出する第3のステップをさらに有することを特徴とする請求項9から15のいずれかに記載された画像処理方法。In each primary color image, in order to calculate the luminance value of the reference pixel excluding the influence of the positional shift of the actual pixel corresponding to the position, by the weighted average of the luminance value of the actual pixel overlapping the reference pixel, The image processing method according to claim 9 , further comprising a third step of calculating a luminance value of the reference pixel.
JP2001344101A 2001-11-09 2001-11-09 Image processing apparatus and image processing method Expired - Fee Related JP4053280B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001344101A JP4053280B2 (en) 2001-11-09 2001-11-09 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001344101A JP4053280B2 (en) 2001-11-09 2001-11-09 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2003150937A JP2003150937A (en) 2003-05-23
JP4053280B2 true JP4053280B2 (en) 2008-02-27

Family

ID=19157671

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001344101A Expired - Fee Related JP4053280B2 (en) 2001-11-09 2001-11-09 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4053280B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4740769B2 (en) * 2006-03-02 2011-08-03 日本放送協会 Image distortion correction device
WO2012099108A1 (en) * 2011-01-17 2012-07-26 シャープ株式会社 Multiview-image encoding apparatus, multiview-image decoding apparatus, multiview-image encoding method, and multiview-image decoding method
JP5874770B2 (en) * 2014-03-12 2016-03-02 トヨタ自動車株式会社 Lane marking detection system
JP6983531B2 (en) * 2017-04-24 2021-12-17 キヤノン株式会社 Distance measuring device, distance measuring system, and distance measuring method

Also Published As

Publication number Publication date
JP2003150937A (en) 2003-05-23

Similar Documents

Publication Publication Date Title
JP3587506B2 (en) Stereo camera adjustment device
US9542608B2 (en) Image processing apparatus
JP2003150936A (en) Image processor and image processing method
JP3255360B2 (en) Inspection method of distance data and its inspection device
US9723282B2 (en) In-vehicle imaging device
JP5171723B2 (en) Obstacle detection device and vehicle equipped with the device
JP5516998B2 (en) Image generation device
JP4772494B2 (en) Data processing device
JP3287465B2 (en) Stereo image processing device
JP2011254311A (en) Vehicle peripheral image processor
JP4053280B2 (en) Image processing apparatus and image processing method
CN111355880B (en) Semiconductor device, image processing system and method, and computer-readable storage medium
CN110365872B (en) Dynamic demosaicing of camera pixels
US11991459B2 (en) Image processing device and method of image processing
JP2010283718A (en) Device for providing vehicle peripheral image
JPH07146137A (en) Distance-between-vehicles measuring apparatus
JP4398216B2 (en) Information display device and information display method
JP5252247B2 (en) Target position determination device
JPH08315116A (en) Image processor
JP4574157B2 (en) Information display device and information display method
JP5590387B2 (en) Color target position determination device
JP4204818B2 (en) Image processing device
JP2004102323A (en) Image processing device and method
JP2004069437A (en) Test chart, and device and method for inspecting stereoscopic camera for positional deviation
WO2020195515A1 (en) Imaging device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101214

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4053280

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101214

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111214

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111214

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121214

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121214

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131214

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees