JP6565188B2 - 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム - Google Patents

視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム Download PDF

Info

Publication number
JP6565188B2
JP6565188B2 JP2015000312A JP2015000312A JP6565188B2 JP 6565188 B2 JP6565188 B2 JP 6565188B2 JP 2015000312 A JP2015000312 A JP 2015000312A JP 2015000312 A JP2015000312 A JP 2015000312A JP 6565188 B2 JP6565188 B2 JP 6565188B2
Authority
JP
Japan
Prior art keywords
value
shift amount
image
parallax value
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015000312A
Other languages
English (en)
Other versions
JP2015179063A (ja
Inventor
維 仲
維 仲
渡邊 義一
義一 渡邊
横田 聡一郎
聡一郎 横田
樹一郎 齊藤
樹一郎 齊藤
亮輔 田村
亮輔 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015000312A priority Critical patent/JP6565188B2/ja
Priority to EP15153964.0A priority patent/EP2924655B1/en
Priority to US14/628,905 priority patent/US9747524B2/en
Priority to CN201510088844.0A priority patent/CN104883553B/zh
Publication of JP2015179063A publication Critical patent/JP2015179063A/ja
Application granted granted Critical
Publication of JP6565188B2 publication Critical patent/JP6565188B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Mechanical Engineering (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)
  • Manipulator (AREA)

Description

本発明は、視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラムに関する。
近年、自動車間の距離、または自動車と障害物との間の距離を測定することにより自動車の衝突防止を図る車載システムが一般的に利用されてきている。そのような距離を測定する方法として、ステレオカメラを用い、三角測量の原理を用いたステレオマッチング処理が用いられている。ステレオマッチング処理とは、ステレオカメラの2つのカメラのうち、一方のカメラで撮像された基準画像と、他方のカメラで撮像された比較画像との間で対応する画素をマッチングすることにより視差を求め、視差からステレオカメラと、画像に含まれる物体との距離を算出する処理である。このようなステレオカメラを用いたステレオマッチング処理による物体との距離の算出により、各種認識処理、ならびに衝突防止のためのブレーキ制御および操舵制御が可能となる。
上述のようなステレオマッチング処理として、画像間の類似性を評価するために、比較する画像から領域を切り出し、その領域に対する輝度差の総和(SAD:Sum of Absolute Difference)、輝度差の2乗和(SSD:Sum of Squared Difference)、および正規化相互相関(ZNCC:Zero−mean Normalized Cross−Correlation)等を求めるブロックマッチング法がある。しかし、画像における物体の輝度変化量を示すテクスチャが弱い部分では、画像としての特徴を抽出することが困難であり、ブロックマッチング法によっては、精度の高い視差を得ることができない場合がある。そこで、正確な視差を導出する方法として、基準画像上の基準画素に対する比較画像上の画素のコスト値だけではなく、比較画像上の画素の周囲の画素のコスト値を集約して、テクスチャが弱い物体に対する視差を導出する技術が提案されている(特許文献1参照)。
しかしながら、特許文献1に記載された技術は、画像を構成する連続的に配置された画素ごとに、コスト値を集約した値を求めているので、メモリの消費量が高く、ステレオマッチング処理による画像処理の負荷が大きくなる。したがって、リアルタイムに視差値により構成された視差画像を得ることが困難であるという問題点があった。
本発明は、上記に鑑みてなされたものであって、画像処理の負荷を低減し、視差値を導出する時間を短縮することができる視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、第1の撮像位置から撮像された基準画像における基準領域と、第2の撮像位置から撮像された比較画像における、前記基準領域に対応する対応領域を含む指定の範囲内の複数の領域各々と、の一致度を取得する取得手段と、前記取得手段により取得された、前記基準画像における所定の基準領域の周辺の基準領域の一致度と、前記基準画像における前記所定の基準領域の一致度と、を合成する合成手段と、前記合成手段により合成された一致度に基づいて、前記所定の基準領域および前記所定の基準領域に対応する対応領域において撮像されている対象の視差値を導出する導出手段と、を備え、前記指定の範囲内の複数の領域各々は、所定方向において最も近い領域は2画素以上ずれており、前記指定の範囲内の複数の領域は、前記比較画像での前記基準領域の位置と一致する領域から離れるほど、隣接する領域の間隔が大きくなるように構成されたことを特徴とする。
本発明によれば、画像処理の負荷を低減し、視差値を導出する時間を短縮することができる。
撮像装置から物体までの距離を導き出す原理の説明図である。 (a)は基準画像、(b)は(a)に対する高密度視差画像、(c)は(a)に対するエッジ視差画像を示す概念図である。 (a)は基準画像における基準画素を示す概念図、(b)は(a)の基準画素に対して比較画像における対応画素の候補を順次シフトしながらシフト量を算出する際の概念図である。 シフト量毎のコスト値を示すグラフである。 合成コスト値を導き出すための概念図である。 視差値毎の合成コスト値を示すグラフである。 (a)は本発明の一実施形態に係る物体認識システムを搭載した自動車の側面を表す概略図、(b)は自動車の正面を示す概略図である。 物体認識システムの概観図である。 物体認識システムの全体のハードウェア構成図である。 図10は、本実施形態に係る視差値導出装置のブロック構成の一例を示す図である。 図11は、シフト量間引き特徴量を示す特徴量テーブルの一例を示す図である。 図12は、シフト量間引き特徴量のシフト量と、コスト値との関係を示すグラフである。 図13は、シフト量間引き特徴量のシフト量と、合成コスト値との関係を示すグラフである。 図14は、パラボラフィッティングによるサブピクセル推定を説明する図である。 図15は、最小二乗法によるサブピクセル推定を説明する図である。 図16は、サブピクセル推定を用いた高密度視差画像を示す概念図である。 図17は、本実施形態に係る視差値導出装置のステレオマッチング処理の動作フローの一例を示す図である。 図18は、本実施形態に係る機器制御システムを車両に搭載した例を示す図である。
以下、図面を用いて、本発明の一実施形態について説明する。
[SGM法を用いた測距方法の概略]
まず、図1乃至図6を用いて、SGM(Semi−Global Matching)法を用いた測距方法の概略について説明する。なお、SGM法に関しては、非特許文献(Accurate and Efficient Stereo Processing by Semi−Global Matching and Mutual Information)に開示されているため、以下では概略を説明する。
(測距の原理)
図1を用いて、ステレオ画像法により、ステレオカメラから物体に対する視差を導き出し、この視差を示す視差値によって、ステレオカメラから物体までの距離を測定する原理について説明する。なお、図1は、撮像装置から物体までの距離を導き出す原理の説明図である。また、以下では、説明を簡略化するため、複数の画素からなる所定領域ではなく、一画素単位で説明する。なお、一画素単位ではなく、複数の画素からなる所定領域単位で処理される場合、基準画素を含む所定領域は基準領域として示され、対応画素を含む所定領域は対応領域として示される。また、この基準領域には基準画素のみの場合も含まれ、対応領域には対応画素のみの場合も含まれる。
<視差値算出>
まず、図1で示される撮像装置10aおよび撮像装置10bによって撮像された各画像を、それぞれ基準画像Iaおよび比較画像Ibとする。なお、図1では、撮像装置10aおよび撮像装置10bが平行等位に設置されているものとする。図1において、3次元空間内の物体E上の点Sは、撮像装置10aおよび撮像装置10bの同一水平線上の位置に写像される。すなわち、各画像中の点Sは、基準画像Ia中の点Sa(x,y)および比較画像Ib中の点Sb(X,y)において撮像される。このとき、視差値Δは、撮像装置10a上の座標における点Sa(x,y)と撮像装置10b上の座標における点Sb(X,y)とを用いて、(式1)のように表される。
Δ=X−x (式1)
ここで、図1のような場合には、基準画像Ia中の点Sa(x,y)と撮像レンズ11aから撮像面上におろした垂線の交点との距離をΔaにし、比較画像Ib中の点Sb(X,y)と撮像レンズ11bから撮像面上におろした垂線の交点との距離をΔbにすると、視差値Δ=Δa+Δbとなる。
<距離算出>
また、視差値Δを用いることで、撮像装置10a、10bと物体Eとの間の距離Zを導き出すことができる。具体的には、距離Zは、撮像レンズ11aの焦点位置と撮像レンズ11bの焦点位置とを含む面から物体E上の特定点Sまでの距離である。図1に示されるように、撮像レンズ11aおよび撮像レンズ11bの焦点距離f、撮像レンズ11aと撮像レンズ11bとの間の長さである基線長B、および視差値Δを用いて、(式2)により、距離Zを算出することができる。
Z=(B×f)/Δ (式2)
この(式2)により、視差値Δが大きいほど距離Zは小さく、視差値Δが小さいほど距離Zは大きくなる。
(SGM法)
続いて、図2乃至図6を用いて、SGM法を用いた測距方法について説明する。なお、図2(a)は基準画像、図2(b)は(a)に対する高密度視差画像、図2(c)は(a)に対するエッジ視差画像を示す概念図である。ここで、基準画像は、物体が輝度によって示された画像である。高密度視差画像は、SGM法によって、基準画像から導き出された画像であり、基準画像の各座標における視差値を示した画像である。エッジ視差画像は、従来から用いられているブロックマッチング法によって導き出された画像であり、基準画像のエッジ部のような比較的テクスチャの強い部分のみの視差値を示した画像である。
SGM法は、テクスチャが弱い物体に対しても適切に上記視差値を導き出す方法であり、図2(a)に示されている基準画像に基づいて、図2(b)に示されている高密度視差画像を導き出す方法である。なお、ブロックマッチング法を用いた場合には、図2(a)に示されている基準画像に基づいて、図2(c)に示されているエッジ視差画像が導き出される。図2(b)および図2(c)における破線の楕円内を比べると分かるように、高密度視差画像は、エッジ視差画像に比べてテクスチャが弱い道路等の詳細な情報を表すことができるため、より詳細な測距を行うことができる。
このSGM法は、非類似度であるコスト値を算出して直ちに視差値を導出せず、コスト値を算出後、さらに、合成非類似度である合成コスト値(Synthesis Cost)を算出することで視差値を導出し、最終的にほぼ全ての画素における視差値を示す視差画像(ここでは、高密度視差画像)を導き出す方法である。なお、ブロックマッチング法の場合は、コスト値を算出する点はSGM法と同じであるが、SGM法のように、合成コスト値を算出せずに、エッジ部のような比較的テクスチャの強い部分の視差値のみを導出する。
<コスト値の算出>
まず、図3および図4を用いて、コスト値C(p,d)の算出方法について説明する。図3(a)は基準画像における基準画素を示す概念図、図3(b)は(a)の基準画素に対して比較画像における対応画素の候補を順次シフトしながら(ずらしながら)コスト値を算出する際の概念図である。図4は、シフト量毎のコスト値を示すグラフである。ここで、対応画素は、基準画像内の基準画素に最も類似する比較画像内の画素である。なお、以降、C(p,d)は、C(x,y,d)を表すものとして説明する。
図3(a)に示されているように、基準画像内の所定の基準画素p(x,y)と、この基準画素p(x,y)に対する比較画像内におけるエピポーラ線(Epipolar Line)EL上の複数の対応画素の候補q(x+d,y)との各輝度値に基づいて、基準画素p(x,y)に対する各対応画素の候補q(x+d,y)のコスト値C(p,d)が算出される。dは、基準画素pと対応画素の候補qのシフト量(ずれ量)であり、本実施形態では、画素単位のシフト量が表されている。すなわち、図3では、対応画素の候補q(x+d,y)を予め指定された範囲(例えば、0<d<25)において順次一画素分シフトしながら、対応画素の候補q(x+d,y)と基準画素p(x,y)との輝度値の非類似度であるコスト値C(p,d)が算出される。コスト値Cの算出方法としては、コスト値Cが非類似度を示す場合、SAD(Sum of Absolute Difference)等の公知の方法が適用される。
このようにして算出されたコスト値C(p,d)は、図4に示されているように、シフト量d毎のコスト値Cの集まりであるコスト曲線のグラフによって表すことができる。図4では、コスト値Cは、シフト量d=5,12,19の場合が0(ゼロ)となるため、最小値を求めることができない。このように、テクスチャが弱い物体の場合には、コスト値Cの最小値を求めることは困難になる。
<合成コスト値の算出>
次に、図5および図6を用いて、合成コスト値Ls(p,d)の算出方法について説明する。図5は、合成コスト値を導き出すための概念図である。図6は、視差値毎の合成コスト値を示す合成コスト曲線のグラフである。
本実施形態における合成コスト値の算出方法は、コスト値C(p,d)の算出だけでなく、所定の基準画素p(x,y)の周辺の画素を基準画素とした場合のコスト値を、基準画素p(x,y)におけるコスト値C(p,d)に集約させて、合成コスト値Ls(p,d)を算出する。
次に、合成コスト値の算出方法について、より詳細に説明する。合成コスト値Ls(p,d)を算出するためには、まず、経路コスト値Lr(p,d)を算出する必要がある。(式3)は、経路コスト値Lr(p,d)を算出するための式であり、(式4)は、合成コスト値Lsを算出するための式である。
Lr(p,d)=C(p,d)+min{(Lr(p−r,d),Lr(p−r,d−1)+P1,Lr(p−r,d+1)+P1,Lrmin(p−r)+P2} (式3)
ここで、(式3)において、rは、集約方向の方向ベクトルを示し、x方向およびy方向の2成分を有する。min{}は、最小値を求める関数である。Lrmin(p−r)は、pをr方向に1画素シフトした座標において、シフト量dを変化させた際のLr(p−r,d)の最小値を示す。
なお、経路コスト値Lrは、(式3)に示されているように再帰的に適用される。また、P1およびP2は、予め実験により定められた固定パラメータであり、経路上で隣接する基準画素の視差値Δが連続になりやすいようなパラメータになっている。例えば、P1=48、P2=96である。
また、(式3)に示されているように、経路コスト値Lr(p,d)は、基準画素p(x,y)におけるコスト値Cに、図5に示されているr方向の各画素における各画素の経路コスト値Lrの最小値を加算することで求められる。このように、r方向の各画素における経路コスト値Lrを求めるため、最初は、基準画素p(x,y)のr方向の一番端の画素から経路コスト値Lrが求められ、r方向に沿って経路コスト値Lrが求められる。そして、図5に示されているように、8方向のLr、Lr45、Lr90、Lr135、Lr180、Lr225、Lr270、Lr315が求められ、最終的に(式4)に基づいて、合成コスト値Lsが求められる。
このようにして算出された合成コスト値Ls(p,d)は、図6に示されているように、シフト量d毎に合成コスト値Ls(p,d)が示される合成コスト曲線のグラフによって表すことができる。図6では、合成コスト値Lsは、シフト量d=3の場合が最小値となるため、視差値Δ=3として算出される。なお、上記説明ではrの数を8として説明しているが、これに限られることはない。例えば、8方向を更に2つに分割して16方向、3つに分割して24方向等にしてもよい。また、コスト値Cは「非類似度」として示されているが、非類似度の逆数としての「類似度」として表されてもよい。この場合、コスト値Cの算出方法としては、NCC(Normalized Cross Correlation)等の公知の方法が適用される。また、この場合、合成コスト値Lsが最小ではなく「最大」となる視差値Δが導出される。なお、非類似度と類似度の両者を含めて、「一致度」として表してもよい。
[本実施形態の具体的な説明]
以下、図面を用いて、本実施形態の具体的な説明を行う。ここでは、自動車に搭載される物体認識システム1について説明する。なお、物体認識システム1は、車両の一例としての自動車だけでなく、車両の他の例として、バイク、自転車、車椅子、農業用の耕運機等に搭載されることができてもよい。また、移動体の一例としての車両だけでなく、移動体の他の例として、ロボット等に搭載されることができてもよい。さらに、ロボットは、移動体だけでなく、FA(Factory Automation)において固定設置される工業用ロボット等の装置であってもよい。また、固定設置される装置としては、ロボットだけでなく、防犯用の監視カメラであってもよい。
(実施形態の構成)
まず、図7乃至図9を用いて、本実施形態の全体構成について説明する。
<外観構成>
図7および図8を用いて、本実施形態の物体認識システム1の外観構成を説明する。なお、図7(a)は本発明の一実施形態に係る物体認識システムを搭載した自動車の側面を表す概略図、図7(b)は自動車の正面を示す概略図である。図8は、物体認識システムの概観図である。
図7(a)、(b)に示されているように、本実施形態の物体認識システム1は、撮像装置10a(第1撮像手段)および撮像装置10b(第2撮像手段)を備えており、撮像装置10aおよび撮像装置10bは、自動車の進行方向前方の光景を撮像することができるように設置(第1の撮像位置、第2の撮像位置)される。また、図8に示されているように、物体認識システム1は、本体部2と、本体部2に対して設けられた一対の円筒状の撮像装置10aおよび撮像装置10bとによって構成されている。
<全体のハードウェア構成>
次に、図9を用いて、物体認識システム1の全体のハードウェア構成について説明する。なお、図9は、物体認識システムの全体のハードウェア構成図である。
図9に示されているように、物体認識システム1は、本体部2において、視差値導出装置3および物体認識装置5を備えている。
このうち、視差値導出装置3は、物体Eを撮像して得られた複数の画像から、物体Eに対する視差を示す視差値Δを導出し、各画素における視差値Δを示す高密度視差画像を出力する。物体認識装置5は、視差値導出装置3から出力された高密度視差画像に基づいて、撮像装置10a、10bから物体Eまでの距離を測定する等の処理を行なう。
ここで、まずは、視差値導出装置3のハードウェア構成について説明する。図9に示されているように、視差値導出装置3は、撮像装置10a、撮像装置10b、信号変換装置20a、信号変換装置20b、および画像処理装置30を備えている。
撮像装置10aは、前方の光景を撮像して画像を表すアナログ信号を生成するものであり、撮像レンズ11a、絞り12a、および画像センサ13aを備えている。
撮像レンズ11aは、撮像レンズ11aを通過する光を屈折させて物体の像を結像させるための光学素子である。絞り12aは、撮像レンズ11aを通過した光の一部を遮ることによって、後述する画像センサ13aに入力される光の量を調整する。画像センサ13aは、撮像レンズ11aおよび絞り12aから入力された光を電気的なアナログの画像信号に変換する半導体の素子であり、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)等によって実現される。
なお、撮像装置10bは、撮像装置10aと同じ構成を備えているため、撮像装置10bについての説明は省略する。また、撮像レンズ11aおよび撮像レンズ11bは、それぞれのレンズ面が互いに同一平面内になるように設置されている。
また、信号変換装置20aは、撮像された画像を表すアナログ信号をデジタル形式の画像データに変換するものであり、CDS(Correlated Double Sampling)21a、AGC(Auto Gain Control)22a、ADC(Analog Digital Converter)23a、およびフレームメモリ24aを備えている。
CDS21aは、画像センサ13aによって変換されたアナログの画像信号から相関二重サンプリングによってノイズを除去する。AGC22aは、CDS21aによってノイズが除去されたアナログの画像信号の強度を制御する利得制御を行う。ADC23aは、AGC22aによって利得制御されたアナログの画像信号をデジタル形式の画像データに変換する。フレームメモリ24aは、ADC23aによって変換された画像データを記憶する。
同様に、信号変換装置20bは、撮像装置10bによって変換されたアナログの画像信号から画像データを取得するものであり、CDS21b、AGC22b、ADC23b、およびフレームメモリ24bを備えている。
なお、CDS21b、AGC22b、ADC23b、およびフレームメモリ24bは、それぞれCDS21a、AGC22a、ADC23a、およびフレームメモリ24aと同じ構成であるため、それらについての説明は省略する。
さらに、画像処理装置30は、信号変換装置20aおよび信号変換装置20bによって変換された画像データを処理するための装置である。この画像処理装置30は、FPGA(Field Programmable Gate Array)31、CPU(Central Processing Unit)32、ROM(Read Only Memory)33、RAM(Random Access Memory)34、I/F(Interface)35および上記各構成要素31〜35を図9に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン39を備えている。
このうち、FPGA31は、集積回路であり、ここでは、CPU32の命令に従って、画像データが表す画像における視差値Δを算出する処理を行う。CPU32は、視差値導出装置3の各機能を制御する。ROM33は、CPU32が視差値導出装置3の各機能を制御するために実行される画像処理用プログラムを記憶している。RAM34はCPU32のワークエリアとして使用される。I/F35は、物体認識装置5における後述I/F55とアドレスバスやデータバス等のバスライン4を介して通信するためのインターフェースである。
続いて、物体認識装置5のハードウェア構成について説明する。図9に示されているように、物体認識装置5は、FPGA51、CPU52、ROM53、RAM54、I/F55、CAN(Controller Area Network) I/F58および上記各構成要素51〜55、58を図9に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン59を備えている。
このうち、FPGA51、CPU52、ROM53、RAM54、I/F55、およびバスライン59は、それぞれ画像処理装置30におけるFPGA31、CPU32、ROM33、RAM34、I/F35、およびバスライン39と同様の構成であるため、説明を省略する。なお、I/F55は、画像処理装置30におけるI/F35とバスライン4を介して通信するためのインターフェースである。また、ROM53は、CPU52が物体認識装置5の各機能を制御するために実行される物体認識用プログラムを記憶している。CAN I/F58は、外部コントローラ等と通信するためのインターフェースであり、例えば、自動車のCAN等に接続されることができる。
このような構成により、画像処理装置30のI/F35からバスライン4を介して物体認識装置5に高密度視差画像が送信されると、物体認識装置5におけるCPU52の命令によって、FPGA51が、撮像装置10a、10bと物体Eとの間の距離Zを算出する。
なお、物体認識装置5におけるCPU52の命令によってFPGA51が距離Zを算出せずに、画像処理装置30のCPU32の命令によってFPGA31が距離Zを算出してもよい。
また、上記各プログラムは、インストール可能な形式または実行可能な形式のファイルで、コンピュータで読み取り可能な記録媒体に記録して流通させてもよい。この記録媒体は、CD−ROM(Compact Disc Read Only Memory)やSDメモリカード(Secure Digital memory card)等である。
<視差値導出装置のブロック構成および各ブロックの動作>
図10は、本実施形態に係る視差値導出装置のブロック構成の一例を示す図である。図11は、シフト量間引き特徴量を示す特徴量テーブルの一例を示す図である。図12は、シフト量間引き特徴量のシフト量と、コスト値との関係を示すグラフである。図13は、シフト量間引き特徴量のシフト量と、合成コスト値との関係を示すグラフである。図14は、パラボラフィッティングによるサブピクセル推定を説明する図である。図15は、最小二乗法によるサブピクセル推定を説明する図である。図16は、サブピクセル推定を用いた高密度視差画像を示す概念図である。図10乃至図16を参照しながら、視差値導出装置3の要部のブロック構成および各ブロックの動作について説明する。なお、説明の便宜上、上述の図8に示す撮像装置10aを「右」のカメラと称し、撮像装置10bを「左」のカメラと称するものとする。
図10に示すように、視差値導出装置3は、画像取得部110と、フィルタ部210と、コスト算出部310(取得手段)と、コスト合成部320(合成手段)と、サブピクセル推定部330(導出手段)と、記憶部340(記憶手段)と、視差画像生成部350と、を備えている。
画像取得部110は、左右2台のカメラにより前方の被写体を撮像して、それぞれアナログの画像信号を生成し、各画像信号基づく画像である2つの輝度画像を得る処理部である。画像取得部110は、図9に示す撮像装置10aおよび撮像装置10bによって実現される。
フィルタ部210は、画像取得部110により得られた2つの輝度画像の画像信号に対して、ノイズを除去し、デジタル形式の画像データに変換して出力する。ここで、フィルタ部210が出力する2つの輝度画像の画像データ(以下、単に「輝度画像」と称する)のうち、画像取得部110の右のカメラ(撮像装置10a)により撮像された基準画像Iaの画像データ(以下、単に「基準画像Ia」という)とし、左のカメラ(撮像装置10b)により撮像された比較画像Ibの画像データ(以下、単に「比較画像Ib」という)とする。すなわち、フィルタ部210は、画像取得部110から出力された2つの輝度画像に基づいて、基準画像Iaおよび比較画像Ibを出力する。フィルタ部210は、図9に示す信号変換装置20a、20bによって実現される。
記憶部340は、コスト算出部310により、比較画像Ibにおいて、基準画素p(x,y)に対する対応画素の候補q(x+d,y)のコスト値C(p,d)が算出される際に用いられるシフト量dの飛び飛びの値をテーブルとしてまとめた図11に示す特徴量テーブルTを記憶している。ここで、コスト値とは、基準画像Iaにおける基準画素pに対する、比較画像Ibにおける各画素の非類似度を表す評価値である。すなわち、以下に示すコスト値(および合成コスト値)は、値が小さいほど、比較画像における画素が基準画素と類似していることを示す。記憶部340は、図9に示すROM33またはRAM34によって実現される。ここで、特徴量テーブルTに含まれるシフト量dの飛び飛びの値をシフト量間引き特徴量(特徴量)というものとする。シフト量間引き特徴量は、具体的には、比較画像Ibにおける候補q(x+d,y)のコスト値Cを求める際に用いるシフト量dのうち、所定のシフト量dの範囲(例えば、0<d<25)から、所定の方式によって値を間引くことによって得られた飛び飛びのシフト量dを含むものである。すなわち、シフト量間引き特徴量は、所定のシフト量の範囲内の不連続なシフト量dを含むものである。
コスト算出部310は、基準画像Iaにおける基準画素p(x,y)の輝度値、および、基準画素p(x,y)に基づく比較画像Ibにおけるエピポーラ線上で、基準画素p(x,y)の位置に相当する画素からシフト量dでシフトすることにより特定される、対応画素の候補q(x+d,y)(候補領域)の各輝度値に基づいて、各候補q(x+d,y)のコスト値C(p,d)を算出することにより取得する。このとき、コスト算出部310は、比較画像Ibにおける候補q(x+d,y)のコスト値C(p,d)を算出するために用いるシフト量dとして、上述のシフト量間引き特徴量に含まれるシフト量dを用いてコスト値C(p,d)を算出する。すなわち、コスト算出部310は、画素単位でシフトするシフト量dに基づいてコスト値Cを算出するのではなく、シフト量間引き特徴量に含まれる飛び飛びのシフト量dに基づいてコスト値C(p,d)を算出する。その結果、コスト値Cを算出する対象である指定の範囲内の候補q(x+d,y)は、部分的に、シフトする方向において最も近い領域が、2画素以上ずれることになる。コスト算出部310は、図9に示すFPGA31によって実現される。コスト算出部310が算出するコスト値Cとしては、例えば、SAD(Sum of Absolute Differences)、またはSSD(Sum of Squared Differences)等を用いることができる。そして、シフト量間引き特徴量に含まれる飛び飛びのシフト量dと、コスト算出部310により算出されたコスト値Cとの関係を示すグラフが、図12に示すグラフである。このように、コスト算出部310は、画素単位でシフトするシフト量dではなく、シフト量間引き特徴量に含まれる飛び飛びのシフト量dに基づいてコスト値Cを算出するので、コスト値Cの算出のための演算処理の負荷を低減することができる。
ここで、シフト量間引き特徴量を求めるための所定の方式の一例を説明する。まず、上述の(式2)により、比較画像Ibおよび基準画像Iaにおいて、視差値Δが小さい物体までの距離Zは大きく、視差値Δが大きい物体までの距離Zは小さくなることがわかる。したがって、比較画像Ibおよび基準画像Iaにおいて、視差値Δが小さい領域(距離Zが大きい領域)での視差値Δの単位変化に対する距離Zの変化は、視差値Δが大きい領域(距離Zが小さい領域)での視差値Δの単位変化に対する距離Zの変化よりも大きい。例えば、上述の(式2)において、視差値導出装置3の仕様で定まるB×fの値を、B×f=30とする。このとき、視差値Δが小さい領域において、例えば、視差値Δが「2」から「3」に単位変化した場合、距離Zの変化は「15」から「10」に変化し、この場合の距離Zの変化量は「−5」である。一方、視差値Δが大きい領域において、例えば、視差値Δが「10」から「11」に単位変化した場合、距離Zの変化は「3」から「2.7」に変化し、この場合の距離Zの変化量は「−0.3」となり、視差値Δが小さい領域における距離Zの変化量よりも小さくなる。
また、路面を走行する車両100の運転支援を満たす必要最低限の距離情報には、求められる分解能がある。例えば、距離情報として求められる距離の範囲が1〜100[m]であって、求められる分解能が1[m]である場合等である。このような場合、シフト量dが小さい領域ほど、シフト量dの変化に対して距離Zの変化が大きくなるので、距離Zの分解能を満たす視差値Δを導出するためには、コスト算出部310は、細かい間隔のシフト量dごとにコスト値Cを算出する必要がある。一方、シフト量dが大きい領域ほど、シフト量dの変化に対して距離Zの変化が小さくなるので、距離Zの分解能を満たす視差値Δを導出するためには、コスト算出部310は、粗い間隔のシフト量dごとにコスト値Cを算出すればよい。したがって、求められる距離の分解能に基づいてシフト量間引き特徴量を求める場合、シフト量間引き特徴量に含まれるシフト量dの値が小さい領域では、飛び飛びのシフト量dの間隔を小さく(細かく)し、シフト量dの値が大きい領域では、飛び飛びのシフト量dの間隔を大きく(粗く)して求めればよい。すなわち、シフト量間引き特徴量に含まれるシフト量dを昇順に並べた場合、シフト量dの値が大きくなるほど、隣接するシフト量d間の値の差が大きくなる。このようにして求められたシフト量間引き特徴量は、特徴量テーブルTとして、記憶部340に予め記憶しておく。
例えば、所定のシフト量dの範囲が上述のように0<d<25とした場合、上述の方法によって求められるシフト量間引き特徴量の一例として示したものが図11に示す特徴量テーブルTのシフト量間引き特徴量である。図11に示す特徴量テーブルTのシフト量間引き特徴量は、「1,2,3,5,7,9,12,15,19,23」というシフト量dで構成されている。この図11に示すシフト量間引き特徴量に含まれるシフト量dの値の間隔は、「1,1,2,2,2,3,3,4,4」となっており、上述のように、シフト量dの値が小さい領域では、シフト量dの間隔が小さくなっており、シフト量dの値が大きい領域では、シフト量dの間隔が大きくなっている。以下の説明では、特徴量テーブルTのシフト量間引き特徴量が、図11に示すように、「1,2,3,5,7,9,12,15,19,23」というシフト量dで構成されているものとして説明する。なお、シフト量間引き特徴量が、その他のシフト量dの値で構成されていてもよいのは、言うまでもない。
上述のように、図11に示すシフト量間引き特徴量に含まれるシフト量dと、コスト算出部310により算出されたコスト値Cと、の関係を示す図12のグラフにおいては、シフト量d=3およびd=12において、コスト値Cの最小値として近似した値となっているため、コスト値Cの最小値を求めることによって、基準画像Iaにおける基準画素に対応する比較画像Ibにおける対応画素を求めることは困難である。特に、画像におけるテクスチャが弱い部分がある場合には、このようにコスト値Cの最小値を求めることは困難になる。
コスト合成部320は、基準画像Iaにおける基準画素p(x,y)(第1基準領域)の周辺の画素を基準画素(第2基準領域)とした場合のその基準画素についての比較画像Ibにおける画素のコスト値Cを、コスト算出部310により算出された候補q(x+d,y)のコスト値C(p,d)に集約させて、候補q(x+d,y)の合成コスト値Ls(p,d)を算出する。このとき、コスト合成部320は、合成コスト値Ls(p,d)を算出するために用いるシフト量dとして、上述のシフト量間引き特徴量に含まれるシフト量dを用いて合成コスト値Ls(p,d)を算出する。すなわち、コスト合成部320は、画素単位でシフトするシフト量dに基づいて合成コスト値Lsを算出するのではなく、シフト量間引き特徴量に含まれる飛び飛びのシフト量dに基づいて合成コスト値Ls(p,d)を算出する。その結果、合成コスト値Lsを算出する対象である指定の範囲内の候補q(x+d,y)は、部分的に、シフトする方向において最も近い領域が、2画素以上ずれることになる。コスト合成部320は、図9に示すFPGA31によって実現される。コスト合成部320は、合成コスト値Lsを算出するために、まず、上述の(式3)によって、所定のr方向の経路コスト値Lr(p,d)を算出する。この場合、(式3)におけるLr(p−r,d)は、基準画素pの座標からr方向に1画素シフトした座標の画素について、シフト量間引き特徴量に含まれるシフト量dにおいて変化させた場合のそれぞれの経路コスト値Lrを示す。次に、コスト合成部320は、図5に示したように、8方向の経路コスト値LrであるLr、Lr45、Lr90、Lr135、Lr180、Lr225、Lr270およびLr315を算出し、最終的に上述の(式4)に基づいて、合成コスト値Ls(p,d)を算出する。そして、シフト量間引き特徴量に含まれる飛び飛びのシフト量dと、コスト合成部320により算出された合成コスト値Lsとの関係を示すグラフが、図13に示すグラフである。図13に示すように、合成コスト値Lsは、シフト量d=3のとき最小値となる。このように、コスト合成部320は、画素単位でシフトするシフト量dではなく、シフト量間引き特徴量に含まれる飛び飛びのシフト量dに基づいて合成コスト値Lsを算出するので、合成コスト値Lsの算出のための演算処理の負荷を低減することができる。
サブピクセル推定部330は、コスト合成部320により算出された、基準画像Iaにおける基準画素についての比較画像Ibにおける画素の合成コスト値Lsの最小値(第1極値)に対応するシフト量d、およびそれに隣接するシフト量dにおける合成コスト値Lsに基づいて、サブピクセル推定を実行する。サブピクセル推定部330は、図9に示すFPGA31によって実現される。図13に示す合成コスト値Lsのグラフは、飛び飛びではあるが画素単位で区切られたシフト量dに対する合成コスト値Lsのグラフである。したがって、図13に示すグラフの合成コスト値Lsの最小値は、画素単位で区切られたシフト量d=3における合成コスト値Lsということになる。すなわち、図13に示すような画素単位で区切られたシフト量dに対する合成コスト値Lsのグラフにおいては、視差値Δとして画素単位の値を導出することしかできないことになる。ここで、サブピクセル推定とは、視差値Δを画素単位の値ではなく、画素より小さい単位(以下、サブピクセル単位という)で視差値Δを推定して導出するものである。
まず、図14を参照しながら、サブピクセル推定部330がパラボラフィッティングによるサブピクセル推定を実行する場合について説明する。サブピクセル推定部330は、コスト合成部320によって算出された合成コスト値Lsのグラフ(図13)において、合成コスト値Lsが最小となるシフト量dの値を求める。図13の例では、シフト量d=3の場合が、合成コスト値Lsが最小となる。次に、サブピクセル推定部330は、シフト量間引き特徴量において、シフト量d=3に隣接するシフト量dを求める。具体的には、シフト量d=2,5である。次に、サブピクセル推定部330は、図13に示すシフト量dと合成コスト値Lsとのグラフにおいて、図14に示すように、シフト量d=2,3,5である3点を通る下に凸の2次曲線を求める。そして、サブピクセル推定部330は、その2次曲線の極小値(第2極値)に対応するサブピクセル単位のシフト量dが視差値Δであると推定する。
次に、図15を参照しながら、サブピクセル推定部330が最小二乗法によるサブピクセル推定を実行する場合について説明する。サブピクセル推定部330は、コスト合成部320によって算出された合成コスト値Lsのグラフ(図13)において、合成コスト値Lsが最小となるシフト量dの値を求める。図13の例では、シフト量d=3の場合が、合成コスト値Lsが最小となる。次に、サブピクセル推定部330は、シフト量間引き特徴量において、シフト量d=3の近傍の4つのシフト量dを求める。具体的には、シフト量d=1,2,5,7である。次に、サブピクセル推定部330は、図13に示すシフト量dと合成コスト値Lsとのグラフにおいて、図15に示すように、最小二乗法によってシフト量d=1,2,3,5,7である5点の近傍を通る下に凸の2次曲線を求める。そして、サブピクセル推定部330は、その2次曲線の極小値(第3極値)に対応するサブピクセル単位のシフト量dが視差値Δであると推定する。
サブピクセル推定部330は、図14に示すパラボラフィッティングによるサブピクセル推定、または、図15に示す最小二乗法によるサブピクセル推定のいずれかによって、視差値Δを推定して導出する。これによって、画素より小さい単位であるサブピクセル単位で視差値Δを導出することができるので、精度が高く、かつ密な視差値Δを導出することができる。
なお、サブピクセル推定は、上述のパラボラフィッティングによるもの、または、最小二乗法によるものに限定されるものではなく、その他の方法によってサブピクセル推定を行うものとしてもよい。例えば、サブピクセル推定部330は、図14に示す3点を用いて、2次曲線ではなく、3点を通る等角直線を求めて視差値Δを推定する等角直線フィッティングによりサブピクセル推定を実行するものとしてもよい。
また、最小二乗法によるサブピクセル推定において、図15に示すグラフ上の5点を用いて2次曲線を求めるものとしたが、これに限定されるものではなく、異なる数の点を用いて2次曲線を求めるものとしてもよい。
また、サブピクセル推定部330によるサブピクセル推定によってサブピクセル単位の視差値Δを算出することに限定されるものではなく、サブピクセル推定の実行はせずに、画素単位の視差値Δを算出するものとしてもよい。この場合、サブピクセル推定部330は、コスト合成部320により算出された、基準画像Iaにおける基準画素についての比較画像Ibにおける画素の合成コスト値Lsの最小値に対応するシフト量dを視差値Δとすればよい。
視差画像生成部350は、サブピクセル推定部330により導出されたサブピクセル単位の視差値Δに基づいて、基準画像Iaの各画素の輝度値を、その画素に対応する視差値Δで表した画像である視差画像Ip(高密度視差画像)を生成する。視差画像生成部350は、図9に示すFPGA31によって実現される。図16のうち、図16(a)は、比較画像Ibの一例を示し、図16(b)は、基準画像Iaの一例を示し、図16(c)は、視差画像生成部350により生成された視差画像Ipの模式図を示す。
なお、コスト算出部310、コスト合成部320、サブピクセル推定部330および視差画像生成部350は、FPGA31によって実現、すなわちハードウェア回路によって実現されるものとしたが、これに限定されるものではない。すなわち、コスト算出部310、コスト合成部320、サブピクセル推定部330または視差画像生成部350の少なくともいずれかは、ソフトウェアであるプログラムがCPU32によって実行されることにより、実現されてもよい。また、コスト算出部310、コスト合成部320、サブピクセル推定部330および視差画像生成部350は、機能を概念的にブロック構成したものであって、このような構成に限定されるものではない。
(視差値導出装置の画像処理動作)
図17は、本実施形態に係る視差値導出装置のステレオマッチング処理の動作フローの一例を示す図である。図17を参照しながら、視差値導出装置3のステレオマッチング処理(SGM法)に基づく画像処理の動作の流れについて説明する。
<ステップS1−1>
視差値導出装置3の画像取得部110は、左のカメラ(撮像装置10b)により前方の被写体を撮像して、それぞれアナログの画像信号を生成し、その画像信号に基づく画像である輝度画像を得る。そして、ステップS2−1へ進む。
<ステップS1−2>
視差値導出装置3の画像取得部110は、右のカメラ(撮像装置10a)により前方の被写体を撮像して、それぞれアナログの画像信号を生成し、その画像信号に基づく画像である輝度画像を得る。そして、ステップS2−2へ進む。
<ステップS2−1>
視差値導出装置3のフィルタ部210は、撮像装置10bにより撮像されて得られたアナログの画像信号に対して、ノイズを除去し、デジタル形式の画像データに変換する。そして、ステップS3−1へ進む。
<ステップS2−2>
視差値導出装置3のフィルタ部210は、撮像装置10aにより撮像されて得られたアナログの画像信号に対して、ノイズを除去し、デジタル形式の画像データに変換する。そして、ステップS3−2へ進む。
<ステップS3−1>
フィルタ部210は、ステップS2−1において変換したデジタル形式の画像データに基づく画像をステレオマッチング処理における比較画像Ibとして出力する。そして、ステップS4へ進む。
<ステップS3−2>
フィルタ部210は、ステップS2−2において変換したデジタル形式の画像データに基づく画像をステレオマッチング処理における基準画像Iaとして出力する。そして、ステップS4へ進む。
<ステップS4>
視差値導出装置3のコスト算出部310は、基準画像Iaにおける基準画素p(x,y)の輝度値、および、基準画素p(x,y)に基づく比較画像Ibにおけるエピポーラ線上で、基準画素p(x,y)の位置に相当する画素からシフト量dでシフトすることにより特定される、対応画素の候補q(x+d,y)の各輝度値に基づいて、各候補q(x+d,y)のコスト値C(p,d)を算出することにより取得する。このとき、コスト算出部310は、比較画像Ibにおける候補q(x+d,y)のコスト値C(p,d)を算出するために用いるシフト量dとして、記憶部340に記憶された特徴量テーブルTのシフト量間引き特徴量に含まれるシフト量dを用いてコスト値C(p,d)を算出する。そして、ステップS5へ進む。
<ステップS5>
視差値導出装置3のコスト合成部320は、基準画像Iaにおける基準画素p(x,y)の周辺の画素を基準画素とした場合のその基準画素についての比較画像Ibにおける画素のコスト値Cを、コスト算出部310により算出された候補q(x+d,y)のコスト値C(p,d)に集約させて、候補q(x+d,y)の合成コスト値Ls(p,d)を算出する。このとき、コスト合成部320は、合成コスト値Ls(p,d)を算出するために用いるシフト量dとして、上述のシフト量間引き特徴量に含まれるシフト量dを用いて合成コスト値Ls(p,d)を算出する。そして、ステップS6へ進む。
<ステップS6>
視差値導出装置3のサブピクセル推定部330は、コスト合成部320により算出された、基準画像Iaにおける基準画素についての比較画像Ibにおける画素の合成コスト値Lsの最小値に対応するシフト量d、およびそれに隣接するシフト量dにおける合成コスト値Lsに基づいて、サブピクセル推定を実行する。サブピクセル推定部330は、サブピクセル推定によって求めた近似曲線(図14および図15においては下に凸の2次曲線)の極小値に対応するサブピクセル単位のシフト量dが視差値Δであると推定する。そして、ステップS7へ進む。
<ステップS7>
視差値導出装置3の視差画像生成部350は、サブピクセル推定部330により導出されたサブピクセル単位の視差値Δに基づいて、基準画像Iaの各画素の輝度値を、その画素に対応する視差値Δで表した画像である視差画像Ip(高密度視差画像)を生成する。
その後、図9に示すI/F35を介して、視差画像Ipの画像データが出力され、物体認識装置5によって、撮像装置10a、10bから物体までの距離が算出される。
(車両に機器制御システムを搭載した場合の例)
図18は、本実施形態に係る機器制御システムを車両に搭載した例を示す図である。以下、図18を参照しながら、車両100に機器制御システム60を搭載した場合の例を説明する。
図18に示す構成では、自動車である車両100は、機器制御システム60を備えている。機器制御システム60は、居室空間である車室において設置された視差値導出装置3と、制御装置6と、ステアリングホイール7と、ブレーキペダル8と、を備えている。
視差値導出装置3は、車両100の進行方向を撮像する撮像機能を有し、例えば、車両100のフロントウィンドウの内側のバックミラー近傍に設置される。視差値導出装置3は、本体部2と、本体部2に固定された撮像装置10aと、撮像装置10bとを備えている。撮像装置10a、10bは、車両100の進行方向の被写体を撮像できるように本体部2に固定されている。
制御装置6は、上述の物体認識システム1における物体認識装置5の代わりに視差値導出装置3に接続された装置であり、視差値導出装置3から受信した視差画像の画像データに基づいて求まる視差値導出装置3から被写体までの距離情報により、各種車両制御を実行する。制御装置6は、車両制御の例として、視差値導出装置3から受信した視差画像の画像データに基づいて、ステアリングホイール7を含むステアリング系統(制御対象)を制御して障害物を回避するステアリング制御、または、ブレーキペダル8(制御対象)を制御して車両100を減速および停止させるブレーキ制御等を実行する。
このような視差値導出装置3および制御装置6を含む機器制御システム60のように、ステアリング制御またはブレーキ制御等の車両制御が実行されることによって、車両100の運転の安全性を向上することができる。
なお、上述のように、視差値導出装置3は、車両100の前方を撮像するものとしたが、これに限定されるものではない。すなわち、視差値導出装置3は、車両100の後方または側方を撮像するように設置されるものとしてもよい。この場合、視差値導出装置3は、車両100の後方の後続車、または側方を並進する他の車両等の位置を検出することができる。そして、制御装置6は、車両100の車線変更時または車線合流時等における危険を検知して、上述の車両制御を実行することができる。また、制御装置6は、車両100の駐車時等におけるバック動作において、視差値導出装置3によって検出された車両100の後方の障害物の視差画像に基づいて、衝突の危険があると判断した場合に、上述の車両制御を実行することができる。
(本実施形態の主な効果)
以上のように、本実施形態に係る視差値導出装置3において、コスト算出部310およびコスト合成部320は、画素単位でシフトするシフト量dではなく、シフト量間引き特徴量に含まれる飛び飛びのシフト量dに基づいて、それぞれコスト値Cおよび合成コスト値Lsを算出している。これによって、画素単位でシフトするシフト量dに基づいて算出する場合と比較して、コスト値Cおよび合成コスト値Lsを算出するための演算処理の負荷を低減することができ、ステレオマッチング処理の処理速度を向上させ、視差値を導出する時間を短縮することができる。
また、視差値導出装置3において、サブピクセル推定部330は、画素より小さい単位であるサブピクセル単位で視差値Δを導出することができるので、精度が高く、かつ密な視差値Δを導出することができ、より正確な視差画像を得ることができる。
また、コスト算出部310およびコスト合成部320が、それぞれコスト値Cおよび合成コスト値Lsの算出のために使用するシフト量間引き特徴量に含まれる飛び飛びのシフト量dは、シフト量dの値が小さい領域では、シフト量dの間隔を小さく(細かく)し、シフト量dの値が大きい領域では、シフト量dの間隔を大きく(粗く)している。これによって、路面を走行する車両の運転支援を満たす必要最低限の距離情報に求められる分解能を満たすことができる。
なお、一致度としてのコスト値Cを、類似度を表す評価値とした場合、合成コスト値Lsがサブピクセル単位で最大となるシフト量dが視差値Δとなる。
また、上述の実施形態では、物体認識装置5が視差画像(視差値)に基づき、距離Zを算出しているが、これに限定されるものではなく、視差値導出装置3の画像処理装置30のCPU32が距離Zを算出するものとしてもよい。
1 物体認識システム
2 本体部
3 視差値導出装置
4 バスライン
5 物体認識装置
6 制御装置
7 ステアリングホイール
8 ブレーキペダル
10a、10b 撮像装置
11a、11b 撮像レンズ
12a、12b 絞り
13a、13b 画像センサ
20a、20b 信号変換装置
21a、21b CDS
22a、22b AGC
23a、23b ADC
24a、24b フレームメモリ
30 画像処理装置
31 FPGA
32 CPU
33 ROM
34 RAM
35 I/F
39 バスライン
51 FPGA
52 CPU
53 ROM
54 RAM
55 I/F
58 CAN I/F
60 機器制御システム
100 車両
110 画像取得部
210 フィルタ部
310 コスト算出部
320 コスト合成部
330 サブピクセル推定部
340 記憶部
350 視差画像生成部
B 基線長
C コスト値
d シフト量
E 物体
EL エピポーラ線
f 焦点距離
Ia 基準画像
Ib 比較画像
Ip 視差画像
Lr 経路コスト値
Ls 合成コスト値
S、Sa、Sb 点
T 特徴量テーブル
Z 距離
Δ 視差値
特開2012−181142号公報

Claims (12)

  1. 第1の撮像位置から撮像された基準画像における基準領域と、第2の撮像位置から撮像された比較画像における、前記基準領域に対応する対応領域を含む指定の範囲内の複数の領域各々と、の一致度を取得する取得手段と、
    前記取得手段により取得された、前記基準画像における所定の基準領域の周辺の基準領域の一致度と、前記基準画像における前記所定の基準領域の一致度と、を合成する合成手段と、
    前記合成手段により合成された一致度に基づいて、前記所定の基準領域および前記所定の基準領域に対応する対応領域において撮像されている対象の視差値を導出する導出手段と、を備え、
    前記指定の範囲内の複数の領域各々は、所定方向において最も近い領域は2画素以上ずれており、
    前記指定の範囲内の複数の領域は、前記比較画像での前記基準領域の位置と一致する領域から離れるほど、隣接する領域の間隔が大きくなるように構成された視差値導出装置。
  2. 第1撮像手段が被写体を撮像することにより得られた基準画像、および第2撮像手段が前記被写体を撮像することにより得られた比較画像に基づいて、前記被写体に対する視差を示す視差値を導出する視差値導出装置であって、
    前記基準画像における第1基準領域の輝度値と、前記第1基準領域に基づく前記比較画像におけるエピポーラ線上で、前記第1基準領域の位置に相当する領域から、所定のシフト範囲から所定のシフト量を間引いた残りのシフト量について、隣接するシフト量の間が2画素以上となるように得られたシフト量を含む特徴量に含まれる前記各シフト量でシフトすることにより特定される、前記第1基準領域に対応する前記比較画像の対応領域の候補となる複数の候補領域の輝度値と、に基づいて前記複数の候補領域それぞれの一致度を算出することにより取得する取得手段と、
    前記第1基準領域の周辺の第2基準領域についての前記比較画像における一致度を、前記特徴量に含まれる前記シフト量に基づいて前記候補領域の一致度に集約させて、前記各候補領域の合成された一致度を算出する合成手段と、
    前記比較画像における前記各候補領域の前記合成された一致度のうち第1極値に対応する前記シフト量に基づいて、前記視差値を導出する導出手段と、
    を備え
    前記特徴量は、含まれる前記シフト量を昇順に並べた場合、前記シフト量の値が大きくなるほど、隣接する前記シフト量間の値の差が大きくなるように構成された視差値導出装置。
  3. 前記特徴量は、前記視差値に基づいて定まる前記被写体までの距離についての所望の分解能に応じた前記シフト量によって構成された請求項に記載の視差値導出装置。
  4. 前記特徴量を予め記憶した記憶手段を、さらに備えた請求項2または3に記載の視差値導出装置。
  5. 前記導出手段は、前記特徴量に含まれる前記シフト量のうち、前記第1極値に対応する前記シフト量を含む隣接した複数の前記シフト量に基づいて、サブピクセル推定により前記視差値を導出する請求項2〜のいずれか一項に記載の視差値導出装置。
  6. 前記導出手段は、前記特徴量に含まれる前記シフト量のうち、前記第1極値に対応する前記シフト量、および該シフト量に隣接する2つのシフト量と、前記シフト量に対応する前記合成された一致度とで定まる座標上の3点を通る2次曲線における第2極値に対応するサブピクセル単位のシフト量を前記視差値として導出する請求項に記載の視差値導出装置。
  7. 前記導出手段は、前記特徴量に含まれる前記シフト量のうち、前記第1極値に対応する前記シフト量を含む隣接した4つ以上のシフト量と、前記シフト量に対応する前記合成された一致度とで定まる座標上の4つ以上の点に対して、最小二乗法により定まる2次曲線における第3極値に対応するサブピクセル単位のシフト量を前記視差値として導出する請求項に記載の視差値導出装置。
  8. 請求項1〜のいずれか一項に記載の視差値導出装置と、
    前記視差値導出装置によって導出される前記視差値により求まる前記視差値導出装置から被写体までの距離情報によって、制御対象を制御する制御装置と、
    を備えた機器制御システム。
  9. 請求項に記載の機器制御システムを備えた移動体。
  10. 請求項に記載の機器制御システムを備えたロボット。
  11. 第1の撮像位置から撮像された基準画像における基準領域と、第2の撮像位置から撮像された比較画像における、前記基準領域に対応する対応領域を含む指定の範囲内の複数の領域各々と、の一致度を取得する取得ステップと、
    取得した、前記基準画像における所定の基準領域の周辺の基準領域の一致度と、前記基準画像における前記所定の基準領域の一致度と、を合成する合成ステップと、
    合成した一致度に基づいて、前記所定の基準領域および前記所定の基準領域に対応する対応領域において撮像されている対象の視差値を導出する導出ステップと、を有し、
    前記指定の範囲内の複数の領域各々は、所定方向において最も近い領域は2画素以上ずれており、
    前記指定の範囲内の複数の領域は、前記比較画像での前記基準領域の位置と一致する領域から離れるほど、隣接する領域の間隔が大きくなるように構成された視差値導出方法。
  12. 第1の撮像位置から撮像された基準画像における基準領域と、第2の撮像位置から撮像された比較画像における、前記基準領域に対応する対応領域を含む指定の範囲内における、定方向の最も近い領域が2画素以上ずれている複数の領域各々と、の一致度を取得する取得手段と、
    前記取得手段により取得された、前記基準画像における所定の基準領域の周辺の基準領域の一致度と、前記基準画像における前記所定の基準領域の一致度と、を合成する合成手段と、
    前記合成手段により合成された一致度に基づいて、前記所定の基準領域および前記所定の基準領域に対応する対応領域において撮像されている対象の視差値を導出する導出手段と、
    をコンピュータに実現させ
    前記指定の範囲内の複数の領域は、前記比較画像での前記基準領域の位置と一致する領域から離れるほど、隣接する領域の間隔が大きくなるように構成されるようにするプログラム。
JP2015000312A 2014-02-28 2015-01-05 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム Active JP6565188B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015000312A JP6565188B2 (ja) 2014-02-28 2015-01-05 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
EP15153964.0A EP2924655B1 (en) 2014-02-28 2015-02-05 Disparity value deriving device, equipment control system, movable apparatus, robot, disparity value deriving method, and computer-readable storage medium
US14/628,905 US9747524B2 (en) 2014-02-28 2015-02-23 Disparity value deriving device, equipment control system, movable apparatus, and robot
CN201510088844.0A CN104883553B (zh) 2014-02-28 2015-02-26 视差值导出设备及方法、装备控制系统、可移动装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014039085 2014-02-28
JP2014039085 2014-02-28
JP2015000312A JP6565188B2 (ja) 2014-02-28 2015-01-05 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2015179063A JP2015179063A (ja) 2015-10-08
JP6565188B2 true JP6565188B2 (ja) 2019-08-28

Family

ID=52464220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015000312A Active JP6565188B2 (ja) 2014-02-28 2015-01-05 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム

Country Status (4)

Country Link
US (1) US9747524B2 (ja)
EP (1) EP2924655B1 (ja)
JP (1) JP6565188B2 (ja)
CN (1) CN104883553B (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6589313B2 (ja) 2014-04-11 2019-10-16 株式会社リコー 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP6655869B2 (ja) * 2014-10-09 2020-03-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US9794543B2 (en) 2015-03-02 2017-10-17 Ricoh Company, Ltd. Information processing apparatus, image capturing apparatus, control system applicable to moveable apparatus, information processing method, and storage medium of program of method
US10269131B2 (en) * 2015-09-10 2019-04-23 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method
WO2017047282A1 (ja) 2015-09-15 2017-03-23 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP6662388B2 (ja) 2015-11-27 2020-03-11 株式会社リコー 画像処理装置、撮像装置、機器制御システム、分布データ生成方法、及びプログラム
WO2017094300A1 (ja) 2015-11-30 2017-06-08 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP6936557B2 (ja) * 2016-05-16 2021-09-15 日立Astemo株式会社 探索処理装置、及びステレオカメラ装置
WO2018006296A1 (en) * 2016-07-06 2018-01-11 SZ DJI Technology Co., Ltd. Systems and methods for stereoscopic imaging
WO2019116708A1 (ja) * 2017-12-12 2019-06-20 ソニー株式会社 画像処理装置と画像処理方法およびプログラムと情報処理システム
JP6986683B2 (ja) * 2018-01-05 2021-12-22 パナソニックIpマネジメント株式会社 視差値算出装置、視差値算出方法及びプログラム
JP7408337B2 (ja) * 2019-10-10 2024-01-05 キヤノン株式会社 画像処理方法、および画像処理装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5768404A (en) * 1994-04-13 1998-06-16 Matsushita Electric Industrial Co., Ltd. Motion and disparity estimation method, image synthesis method, and apparatus for implementing same methods
JPH07332970A (ja) 1994-06-02 1995-12-22 Canon Inc 画像処理方式
JP3738456B2 (ja) 1994-11-14 2006-01-25 マツダ株式会社 物品の位置検出方法およびその装置
JPH1042299A (ja) * 1996-07-24 1998-02-13 Matsushita Electric Ind Co Ltd 動きベクトル検出装置
US6215898B1 (en) * 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
JPH10289315A (ja) 1997-04-16 1998-10-27 Sony Corp 視差算出装置、距離算出装置およびこれらの方法
JP4424797B2 (ja) 1999-11-26 2010-03-03 富士通株式会社 立体形状検出方法
KR20060063265A (ko) * 2004-12-07 2006-06-12 삼성전자주식회사 영상 처리 방법 및 장치
CN100592338C (zh) * 2008-02-03 2010-02-24 四川虹微技术有限公司 多视角视频图像深度搜索方法及深度估计方法
JP2009282635A (ja) 2008-05-20 2009-12-03 Konica Minolta Holdings Inc サブピクセル推定装置およびサブピクセル推定方法
JP5617100B2 (ja) * 2011-02-08 2014-11-05 株式会社日立製作所 センサ統合システム及びセンサ統合方法
JP5852093B2 (ja) * 2011-03-01 2016-02-03 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 映像処理装置、映像処理方法、プログラム
JP5682065B2 (ja) 2011-03-02 2015-03-11 独立行政法人産業技術総合研究所 ステレオ画像処理装置及びステレオ画像処理方法
JP5760559B2 (ja) 2011-03-18 2015-08-12 株式会社リコー ステレオカメラ装置、視差画像生成方法
JP6061150B2 (ja) 2011-03-18 2017-01-18 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
US8897546B2 (en) * 2011-09-29 2014-11-25 Texas Instruments Incorporated Semi-global stereo correspondence processing with lossless image decomposition
DE102013100344A1 (de) * 2013-01-14 2014-07-17 Conti Temic Microelectronic Gmbh Verfahren zur Bestimmung von Tiefenkarten aus Stereobildern mit verbesserter Tiefenauflösung im Fernbereich
JP6194604B2 (ja) 2013-03-15 2017-09-13 株式会社リコー 認識装置、車両及びコンピュータが実行可能なプログラム
CN103310421B (zh) 2013-06-27 2016-03-09 清华大学深圳研究生院 针对高清图像对的快速立体匹配方法及视差图获取方法
JP6417886B2 (ja) 2013-12-12 2018-11-07 株式会社リコー 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム

Also Published As

Publication number Publication date
CN104883553A (zh) 2015-09-02
EP2924655B1 (en) 2018-09-19
CN104883553B (zh) 2017-12-15
US20150248594A1 (en) 2015-09-03
EP2924655A2 (en) 2015-09-30
EP2924655A3 (en) 2016-01-06
US9747524B2 (en) 2017-08-29
JP2015179063A (ja) 2015-10-08

Similar Documents

Publication Publication Date Title
JP6565188B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP5926228B2 (ja) 自律車両用の奥行き検知方法及びシステム
JP6417886B2 (ja) 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム
JP6561512B2 (ja) 視差値導出装置、移動体、ロボット、視差値導出方法、視差値生産方法及びプログラム
JP6614247B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP6455164B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP6589313B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP6337504B2 (ja) 画像処理装置、移動体、ロボット、機器制御方法およびプログラム
JP6597792B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP6543935B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP2008309637A (ja) 障害物計測方法、障害物計測装置及び障害物計測システム
JPWO2017099199A1 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP6519138B2 (ja) 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム
JP6561511B2 (ja) 視差値導出装置、移動体、ロボット、視差値生産導出方法、視差値の生産方法及びプログラム
JP6387710B2 (ja) カメラシステム、測距方法、およびプログラム
JP6515547B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値生産方法、及びプログラム
JP6459482B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP6701738B2 (ja) 視差値導出装置、視差値導出方法及びプログラム
JP6442911B2 (ja) 視差値導出装置、移動体、ロボット、視差値導出方法、及びプログラム
JP2015195019A (ja) 視差値導出装置、移動体、ロボット、視差値導出方法、視差値の生産方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190715

R151 Written notification of patent or utility model registration

Ref document number: 6565188

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151