JP2015195019A - 視差値導出装置、移動体、ロボット、視差値導出方法、視差値の生産方法及びプログラム - Google Patents

視差値導出装置、移動体、ロボット、視差値導出方法、視差値の生産方法及びプログラム Download PDF

Info

Publication number
JP2015195019A
JP2015195019A JP2015051955A JP2015051955A JP2015195019A JP 2015195019 A JP2015195019 A JP 2015195019A JP 2015051955 A JP2015051955 A JP 2015051955A JP 2015051955 A JP2015051955 A JP 2015051955A JP 2015195019 A JP2015195019 A JP 2015195019A
Authority
JP
Japan
Prior art keywords
value
weight
cost
image
cost value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015051955A
Other languages
English (en)
Inventor
樹一郎 齊藤
Kiichiro Saito
樹一郎 齊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015051955A priority Critical patent/JP2015195019A/ja
Priority to EP15159794.5A priority patent/EP2922026B1/en
Publication of JP2015195019A publication Critical patent/JP2015195019A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

【課題】SGM法を用いた測距方法によって導出される高密度視差画像は、テクスチャが弱い対象でも視差値を導き出すことができるが、テクスチャが弱い対象を撮像した画素は、距離が離れたテクスチャの強い対象を撮像した画素の影響を受け、視差精度が低下する場合がある。
【解決手段】コスト合成部320が、基準画像における第1の基準領域のコスト値のうちの第1の重み(例えば、1)と、基準画像における第1の基準領域の周辺の第2の基準領域のコスト値のうちで第1の重みよりも少ない第2の重み(例えば、0.9)とを合成する。これにより、p位置の画素における経路コスト値Lr’を導く際に、p位置の画素から遠いにも拘わらず、極端に低いコスト値Cが存在しても、この影響を受けづらくすることができるという効果を奏する。
【選択図】図12

Description

本発明は、撮像の対象を撮像して得られた基準画像及び同じ対象を撮像して得られた比較画像から、対象に対する視差を示す視差値を導出する発明に関する。
従来から、ステレオ画像法によって、ステレオカメラから対象に対する視差を導き出し、この視差を示す視差値によって、三角測量の原理に基づき、ステレオカメラから対象までの距離を測定する測距方法が知られている。この測距方法により、例えば、自動車間の距離や、自動車と障害物間の距離が測定され、自動車の衝突防止に役立てている。
また、視差値の求め方としては、ステレオマッチング処理が用いられている。このステレオマッチング処理は、ステレオカメラの2つのカメラのうち、一方のカメラによって得られた基準画像内の注目する基準画素に対して、他方のカメラによって得られた比較画像内の複数の対応画素の候補を順次シフトしながら、画像信号が最も類似する画素である対応画素の位置を求めることで、基準画像と比較画像の間の視差値を検出する。一般的には、2つのカメラによって得られた画像信号の輝度値を比較することで、比較する輝度値のコスト値(Cost:ここでは「非類似度」)が最も低い画素の位置が求められる。
また、近年、ステレオマッチング処理において、ミスマッチングを防止するために、画像における輝度値の差が大きい領域であるエッジ部分の輝度値を比較するブロックマッチング法が用いられている(例えば、特許文献1参照)。
ところが、対象のテクスチャが弱く、抽出すべき特徴そのものが乏しい領域では、エッジ検出を行っても、十分な効果を得ることができない。
そこで、テクスチャが弱い対象でも、より正確な視差値を導き出す方法が提案されている(例えば、特許文献2参照)。この方法によって、基準画像上の注目する基準画素のコスト値だけでなく、この基準画素の周囲の画素のコスト値を集約することで、テクスチャが弱い対象に対する視差値を導き出すことができる。これにより、対象の全体像を導き出すことができるため、測距だけでなく、対象が標識であるか車であるか等、対象の分類に利用することができる。
しかしながら、特許文献2に記載された方法を用いた場合、テクスチャが弱い対象でも視差値を導き出すことができるが、テクスチャが弱い対象を撮像して得られた基準画像上の画素を含む領域は、距離が離れたテクスチャの強い対象を撮像して得られた基準画像上の画素を含む領域の影響をうけ、視差精度が低下する場合があるという課題が生じる。
上述の課題を解決するため、請求項1に係る発明は、第1の撮像位置から撮像された基準画像における基準領域と、第2の撮像位置から撮像された比較画像における、前記基準領域に対応する対応領域を含む指定の範囲内の複数の領域各々と、のコスト値を算出する算出手段と、前記算出手段により算出された、前記基準画像における第1の基準領域のコスト値のうちの第1の重みと、前記基準画像における前記第1の基準領域の周辺の第2の基準領域のコスト値のうちで前記第1の重みよりも少ない第2の重みと、を合成する合成手段と、前記合成手段による合成によって得られた合成コスト値に基づいて、前記所定の基準領域において撮像されている対象の視差値を導出する導出手段と、を有することを特徴とする視差値導出装置である。
以上説明したように、請求項1に係る発明によれば、視差値を導出する際の対象のテクスチャが弱い場合であっても、距離が離れたテクスチャの強い対象の影響を受けづらいため、視差精度の低下を防止することができるという効果を奏する。
撮像装置から物体までの距離を導き出す原理の説明図である。 (a)は基準画像、(b)は(a)に対する高密度視差画像、(c)は(a)に対するエッジ視差画像を示す概念図である。 (a)は基準画像における基準画素を示す概念図、(b)は(a)の基準画素に対して比較画像における対応画素の候補を順次シフトしながらコスト値を算出する際の概念図である。 シフト量毎のコスト値を示すグラフである。 合成コスト値を導き出すための概念図である。 視差値毎の合成コスト値を示すグラフである。 (a)は本発明の一実施形態に係る物体認識システムを搭載した自動車の側面を表す概略図、(b)は自動車の正面を示す概略図である。 物体認識システムの概観図である。 物体認識システムの全体のハードウェア構成図である。 基準画像における経路コスト値を導き出すための概念図である。 視差値導出装置の主要部のハードウェア構成図である。 合成コスト値を導き出すための概念図である。 本実施形態の処理を示したフローチャートである。 (a)は基準画像、(b)は基準画像の一部、(c)は(式3)が利用された場合の(b)に対する高密度視差画像、(d)、(e)は(式3’)が利用された場合の(b)に対する高密度視差画像である。 基準画像の一部を拡大した概念図である。 図15に示されている基準画像に関するシフト量毎のコスト値を示すグラフ及びシフト量毎の合成コスト値を示すグラフである。
以下、図面を用いて、本発明の一実施形態について説明する。
〔SGM法を用いた測距方法の概略〕
まず、図1乃至図6を用いて、SGM(Semi-Global Matching)法を用いた測距方法の概略について説明する。なお、SGM法に関しては、非特許文献(Accurate and Efficient Stereo Processing by Semi-Global Matching and Mutual Information)に開示されているため、以下では概略を説明する。
<測距の原理>
図1を用いて、ステレオ画像法により、ステレオカメラから物体に対する視差を導き出し、この視差を示す視差値によって、ステレオカメラから物体までの距離を測定する原理について説明する。なお、図1は、撮像装置から物体までの距離を導き出す原理の説明図である。また、以下では、説明を簡略化するため、複数の画素からなる所定領域ではなく、一画素単位で説明する。
なお、一画素単位ではなく、複数の画素からなる所定領域単位で処理される場合、基準画素を含む所定領域は基準領域として示され、対応画素を含む所定領域は対応領域として示される。また、この基準領域には基準画素のみの場合も含まれ、対応領域には対応画素のみの場合も含まれる。
(視差値算出)
まず、図1で示される撮像装置10aおよび撮像装置10bによって撮像された各画像を、それぞれ基準画像Iaおよび比較画像Ibとする。なお、図1では、撮像装置10aおよび撮像装置10bが平行等位に設置されているものとする。図1において、3次元空間内の物体E上の点Sは、撮像装置10aおよび撮像装置10bの同一水平線上の位置に写像される。すなわち、各画像中の点Sは、基準画像Ia中の点Sa(x,y)および比較画像Ib中の点Sb(X,y)において撮像される。このとき、視差値Δは、撮像装置10a上の座標における点Sa(x,y)と撮像装置10b上の座標における点Sb(X,y)とを用いて、(式1)のように表される。
Δ=X−x (式1)
ここで、図1のような場合には、基準画像Ia中の点Sa(x,y)と撮像レンズ11aから撮像面上におろした垂線の交点との距離をΔaにし、比較画像Ib中の点Sb(X,y)と撮像レンズ11bから撮像面上におろした垂線の交点との距離をΔbにすると、視差値Δ=Δa+Δbとなる。
(距離算出)
また、視差値Δを用いることで、撮像装置10a,10bと物体Eとの間の距離Zを導き出すことができる。具体的には、距離Zは、撮像レンズ11aの焦点位置と撮像レンズ11bの焦点位置とを含む面から物体E上の特定点Sまでの距離である。図1に示されるように、撮像レンズ11a及び撮像レンズ11bの焦点距離f、撮像レンズ11aと撮像レンズ11bとの間の長さである基線長B、及び視差値Δを用いて、(式2)により、距離Zを算出することができる。
Z=(B×f)/Δ (式2)
この(式2)により、視差値Δが大きいほど距離Zは小さく、視差値Δが小さいほど距離Zは大きくなる。
<SGM法>
続いて、図2乃至図6を用いて、SGM法を用いた測距方法について説明する。なお、図2(a)は基準画像、図2(b)は(a)に対する高密度視差画像、図2(c)は(a)に対するエッジ視差画像を示す概念図である。ここで、基準画像は、物体が輝度によって示された画像である。高密度視差画像は、SGM法によって、基準画像から導き出された画像であり、基準画像の各座標における視差値を示した画像である。エッジ視差画像は、従来から用いられているブロックマッチング法によって導き出された画像であり、基準画像のエッジ部のような比較的テクスチャの強い部分のみの視差値を示した画像である。
SGM法は、テクスチャが弱い物体に対しても適切に上記視差値を導き出す方法であり、図2(a)に示されている基準画像に基づいて、図2(b)に示されている高密度視差画像を導き出す方法である。なお、ブロックマッチング法を用いた場合には、図2(a)に示されている基準画像に基づいて、図2(c)に示されているエッジ視差画像が導き出される。図2(b)及び図2(c)における破線の楕円内を比べると分かるように、高密度視差画像は、エッジ視差画像に比べてテクスチャが弱い道路等の詳細な情報を表すことができるため、より詳細な測距を行うことができる。
このSGM法は、非類似度であるコスト値を算出して直ちに視差値を導出せず、コスト値を算出後、更に、合成非類似度である合成コスト値 (Synthesis Cost)を算出することで視差値を導出し、最終的にほぼ全ての画素における視差値を示す視差画像(ここでは、高密度視差画像)を導き出す方法である。
なお、ブロックマッチング法の場合は、コスト値を算出する点はSGM法と同じであるが、SGM法のように、合成コスト値を算出せずに、エッジ部のような比較的テクスチャの強い部分の視差値のみを導出する。また、視差値の導出方法は、換言すると、視差値の生産方法でもある。
(コスト値の算出)
まず、図3及び図4を用いて、コスト値C(p,d)の算出方法について説明する。図3(a)は基準画像における基準画素を示す概念図、図3(b)は(a)の基準画素に対して比較画像における対応画素の候補を順次シフトしながら(ずらしながら)コスト値を算出する際の概念図である。図4は、シフト量毎のコスト値を示すグラフである。ここで、対応画素は、基準画像内の基準画素に最も類似する比較画像内の画素である。なお、以降、C(p,d)は、C(x,y,d)を表すものとして説明する。
図3(a)に示されているように、基準画像内の所定の基準画素p(x,y)と、この基準画素p(x,y)に対する比較画像内におけるエピポーラ線(Epipolar Line)EL上の複数の対応画素の候補q(x+d,y)との各輝度値に基づいて、基準画素p(x,y)に対する各対応画素の候補q(x+d,y)のコスト値C(p,d)が算出される。dは、基準画素pと対応画素の候補qのシフト量(ずれ量)であり、本実施形態では、画素単位のシフト量が表されている。即ち、図3では、対応画素の候補q(x+d,y)を予め指定された範囲(例えば、0<d<25)において順次一画素分シフトしながら、対応画素の候補q(x+d,y)と基準画素p(x,y)との輝度値の非類似度であるコスト値C(p,d)が算出される。コスト値Cの算出方法としては、コスト値Cが非類似度を示す場合、SAD(Sum of Absolute Difference)等の公知の方法が適用される。
このようにして算出されたコスト値C(p,d)は、図4に示されているように、シフト量d毎のコスト値Cの集まりであるコスト曲線のグラフによって表すことができる。図4では、コスト値Cは、シフト量d=5,12,19の場合が0(ゼロ)となるため、最小値を求めることができない。このように、テクスチャが弱い物体の場合には、コスト値Cの最小値を求めることは困難になる。
(合成コスト値の算出)
次に、図5及び図6を用いて、合成コスト値Ls(p,d)の算出方法について説明する。図5は、合成コスト値を導き出すための概念図である。図6は、視差値毎の合成コスト値を示す合成コスト曲線のグラフである。本実施形態における合成コスト値の算出方法は、コスト値C(p,d)の算出だけでなく、所定の基準画素p(x,y)の周辺の画素p’(x’,y’)を基準画素とした場合のコスト値を、基準画素p(x,y)におけるコスト値C(p,d)に集約させて、合成コスト値Ls(p,d)を算出する。
次に、合成コスト値の算出方法について、より詳細に説明する。合成コスト値Ls(p,d)を算出するためには、まず、経路コスト値Lr(p,d)を算出する必要がある。(式3)は、経路コスト値Lr(p,d)を算出するための式であり、(式4)は、合成コスト値Lsを算出するための式である。
Lr(p,d)=C(p,d)+min{(Lr(p−r,d),Lr(p−r,d−1)+P1,Lr(p−r,d+1)+P1,Lrmin(p−r)+P2} (式3)
ここで、(式3)において、rは、集約方向の方向ベクトルを示し、x方向およびy方向の2成分を有する。min{}は、最小値を求める関数である。Lrmin(p−r)は、pをr方向に1画素シフトした座標において、シフト量dを変化させた際のLr(p−r,d)の最小値を示す。なお、Lrは、(式3)に示されているように再帰的に適用される。また、P1及びP2は、予め実験により定められた固定パラメータであり、経路上で隣接する基準画素の視差値Δが連続になりやすいようなパラメータになっている。例えば、P1=48、P2=96である。
また、(式3)に示されているように、Lr(p,d)は、基準画素p(x,y)におけるコスト値Cに、図5に示されているr方向の各画素における各画素の経路コスト値Lrの最小値を加算することで求められる。このように、r方向の各画素におけるLrを求めるため、最初は、基準画素p(x,y)のr方向の一番端の画素からLrが求められ、r方向に沿ってLrが求められる。
そして、図5に示されているように、8方向のLr,Lr45,Lr90,Lr135,Lr180,Lr225,Lr270,Lr315が求められ、最終的に(式4)に基づいて、合成コスト値Lsが求められる。
Figure 2015195019
このようにして算出された合成コスト値Ls(p,d)は、図6に示されているように、シフト量d毎に合成コスト値Ls(p,d)が示される合成コスト曲線のグラフによって表すことができる。図6では、合成コスト値Lsは、シフト量d=3の場合が最小値となるため、視差値Δ=3として算出される。
なお、上記説明ではrの数を8として説明しているが、これに限られることはない。例えば、8方向を更に2つに分割して16方向、3つに分割して24方向等にしてもよい。
また、(式4)によって、(式3)によって算出された全ての経路rに関する経路コスト値Lrを合計したが、これに限るものではない。1つの経路コスト値Lrを合成コスト値としてもよいし、2以上の経路コスト値Lrの合成を合成コスト値Lsとしてもよい。
また、コスト値Cは「非類似度」として示されているが、非類似度の逆数としての「類似度」として表されてもよい。この場合、コスト値Cの算出方法としては、NCC(Normalized Cross Correlation)等の公知の方法が適用される。また、この場合、合成コスト値Lsが最小ではなく「最大」となる視差値Δが導出される。なお、非類似度と類似度の両者を含めて、「一致度」として表してもよい。
〔本実施形態の具体的な説明〕
以下、図面を用いて、本実施形態の具体的な説明を行う。ここでは、自動車に搭載される物体認識システム1について説明する。
なお、物体認識システム1は、車両の一例としての自動車だけでなく、車両の他の例として、バイク、自転車、車椅子、農業用の耕運機等に搭載されることができてもよい。また、移動体の一例としての車両だけでなく、移動体の他の例として、ロボット等に搭載されることができてもよい。更に、ロボットは、移動体だけでなく、FA(Factory Automation)において固定設置される工業用ロボット等の装置であってもよい。また、固定設置される装置としては、ロボットだけでなく、防犯用の監視カメラであってもよい。
<実施形態の構成>
まず、図7乃至図9用いて、本実施形態の全体構成について説明する。
(外観構成)
図7及び図8を用いて、本実施形態の物体認識システム1の外観構成を説明する。なお、図7(a)は本発明の一実施形態に係る物体認識システムを搭載した自動車の側面を表す概略図、図7(b)は自動車の正面を示す概略図である。図8は、物体認識システムの概観図である。
図7(a),(b)に示されているように、本実施形態の物体認識システム1は、撮像装置10a及び撮像装置10bを備えており、撮像装置10a及び撮像装置10bは自動車の進行方向前方の光景を撮像することができるように設置される。
また、図8に示されているように、物体認識システム1は、本体部2と、本体部2に対して設けられた一対の円筒状の撮像装置10a及び撮像装置10bとによって構成されている。
(全体のハードウェア構成)
次に、図9を用いて、物体認識システム1の全体のハードウェア構成について説明する。なお、図9は、物体認識システムの全体のハードウェア構成図である。
図9に示されているように、物体認識システム1は、本体部2において、視差値導出装置3及び物体認識装置5を備えている。このうち、視差値導出装置3は、物体Eを撮像して得られた複数の画像から、物体Eに対する視差を示す視差値Δを導出し、各画素における視差値Δを示す高密度視差画像を出力する。物体認識装置5は、視差値導出装置3から出力された高密度視差画像に基づいて、撮像装置10a,10bから物体Eまでの距離を測定する等の処理を行なう。
ここで、まずは、視差値導出装置3のハードウェア構成について説明する。図9に示されているように、視差値導出装置3は、撮像装置10a、撮像装置10b、信号変換装置20a、信号変換装置20b、及び画像処理装置30を備えている。
撮像装置10aは、前方の光景を撮像して画像を表すアナログ信号を生成するものであり、撮像レンズ11a、絞り12a、及び画像センサ13aを備えている。撮像レンズ11aは、撮像レンズ11aを通過する光を屈折させて物体の像を結像させるための光学素子である。絞り12aは、撮像レンズ11aを通過した光の一部を遮ることによって、後述する画像センサ13aに入力される光の量を調整する。画像センサ13aは、撮像レンズ11a及び絞り12aから入力された光を電気的なアナログの画像信号に変換する半導体の素子であり、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)等によって実現される。なお、撮像装置10bは撮像装置10aと同じ構成を備えているため、撮像装置10bについての説明は省略する。また、撮像レンズ11aと撮像レンズ11bは、それぞれのレンズ面が互いに同一平面内になるように設置されている。
また、信号変換装置20aは、撮像された画像を表すアナログ信号をデジタル形式の画像データに変換するものであり、CDS(Correlated Double Sampling)21a、AGC(Auto Gain Control)22a、ADC(Analog Digital Converter)23a、及びフレームメモリ24aを備えている。CDS21aは、画像センサ13aによって変換されたアナログの画像信号から相関二重サンプリングによってノイズを除去する。AGC22aは、CDS21aによってノイズが除去されたアナログの画像信号の強度を制御する利得制御を行う。ADC23aは、AGC22aによって利得制御されたアナログの画像信号をデジタル形式の画像データに変換する。フレームメモリ24aは、ADC23aによって変換された画像データを記憶する。
同様に、信号変換装置20bは、撮像装置10bによって変換されたアナログの画像信号から画像データを取得するものであり、CDS21b、AGC22b、ADC23b、及びフレームメモリ24bを有している。なお、CDS21b、AGC22b、ADC23b、及びフレームメモリ24bはそれぞれCDS21a、AGC22a、ADC23a、及びフレームメモリ24aと同じ構成であるため、それらについての説明は省略する。
更に、画像処理装置30は、信号変換装置20a及び信号変換装置20bによって変換された画像データを処理するための装置である。この画像処理装置30は、FPGA(Field Programmable Gate Array)31、CPU(Central Processing Unit)32、ROM(Read Only Memory)33、RAM(Random Access Memory)34、I/F(Interface)35及び上記各構成要素31〜35を図9に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン39を備えている。
このうち、FPGA31は、集積回路であり、ここでは、CPU32の命令に従って、画像データが表す画像における視差値Δを算出する処理を行う。CPU32は、視差値導出装置3の各機能を制御する。ROM33は、CPU32が視差値導出装置3の各機能を制御するために実行される画像処理用プログラムを記憶している。RAM34はCPU32のワークエリアとして使用される。
I/F35は、物体認識装置5における後述I/F55とアドレスバスやデータバス等のバスライン4を介して通信するためのインターフェイスである。
続いて、物体認識装置5のハードウェア構成について説明する。図9に示されているように、物体認識装置5は、FPGA51、CPU52、ROM53、RAM54、CANI/F55、CAN(Controller Area Network) I/F58及び上記各構成要素51〜55,58を図9に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン59を備えている。
このうち、FPGA51、CPU52、ROM53、RAM54、I/F55、及びバスライン59は、それぞれ画像処理装置30におけるFPGA31、CPU32、ROM33、RAM34、I/F35、及びバスライン39と同様の構成であるため、説明を省略する。なお、I/F55は、画像処理装置30におけるI/F35とバスライン4を介して通信するためのインターフェイスである。また、ROM53は、CPU52が物体認識装置5の各機能を制御するために実行される物体認識用プログラムを記憶している。
CAN I/F58は、外部コントローラ等と通信するためのインターフェイスであり、例えば、自動車のCAN等に接続されることができる。
このような構成により、画像処理装置30のI/F35からバスライン4を介して物体認識装置5に高密度視差画像が送信されると、物体認識装置5におけるCPU52の命令によって、FPGA51が、撮像装置10a,10bと物体Eとの間の距離Zを算出する。なお、物体認識装置5におけるCPU52の命令によってFPGA51が距離Zを算出せずに、画像処理装置30のCPU32の命令によってFPGA31が距離Zを算出してもよい。
なお、上述の例では、2つの撮像装置10a,10bを用いたが、これに限らず1つの撮像装置を用いてもよい。この場合、1つの画像センサにおいて撮像境域を2箇所に分けることにより、対象Eを撮像する。
また、上記各プログラムは、インストール可能な形式又は実行可能な形式のファイルで、コンピュータで読み取り可能な記録媒体に記録して流通させてもよい。この記録媒体は、CD−ROM(Compact Disc Read Only Memory)やSDメモリカード(Secure Digital memory card)等である。
ここで、図10を用いて、上記(式3)の再帰的な計算方法の概念を説明する。図10に示されているように、基準画素p(x,y)における経路コスト値Lr(p,d)を求めるためには、周辺の一番離れた画素において(式3)による計算が行なわれて経路コスト値Lr(p−nr,d)が算出される。次に、この経路コスト値Lr(p−nr,d))である算出結果が利用されて次に基準画素p(x,y)に近い同じ経路r上の画素において(式3)による計算が行なわれて経路コスト値Lr(p−(n−1)r,d)が算出される。このように前の計算結果が利用されることで、最終的に基準画素(x,y)における経路コスト値Lr(p,d)が求められる。このように、(式3)は、コスト値C(p,d)と、経路コスト値Lr(p−r,d)等に基づいて、経路コスト値Lr(p,d)を導くための式であるが、経路コスト値Lrはそもそもコスト値C(p,d)によってよって導き出されるため、結果的に(式3)は、コスト値C(p,d)とコスト値C(p−nr,d)等によって導き出されるということができる。
(主要部のハードウェア構成)
次に、図3、図9及び図11を用いて、視差値導出装置1の主要部のハードウェア構成について説明する。なお、図11は、視差値導出装置の主要部のハードウェア構成図である。
図9におけるFPGA31は、図11に示されているように、コスト算出部310、コスト合成部320、及び視差値導出部330を備えている。これらは、FPGA31の回路の一部であるが、上記プログラムが実行されることにより、同じ処理を行うことができるようにしてもよい。
このうち、コスト算出部310は、図3に示されているように、基準画像(図3(a)参照)内の基準画素p(x,y)の輝度値と、比較画像(図3(b)参照)内において基準画素p(x,y)に基づくエピポーラ線EL上でシフトさせることでシフト量d毎に特定される対応画素の候補q(x+d,y)の各輝度値とに基づいて、基準画素p(x,y)に対する対応画素の候補q(x+d,y)の各コスト値Cを算出して出力する。
また、コスト合成部320は、コスト算出部310によって出力された一の基準画素p(x,y)に対する対応画素の候補q(x+d,y)の各コスト値Cと、コスト算出部310によって出力された他の基準画素p’(x’,y’)に対する対応画素の候補q’(x’+d,y’)の各コスト値Cとを、シフト量d毎に合成し、合成コスト値Lsを出力する。
なお、この合成の処理は、(式3)ではなく、以下に示されている(式3’)に基づいてコスト値Cから経路コスト値Lr’を算出した後、更に、(式4’)に基づいて各方向における経路コスト値Lr’を加算して、最終的に合成コスト値Ls’を算出する処理である。
Lr’(p,d)=C(p,d)+Ad*min{(Lr(p−r,d),Lr(p−r,d−1)+P1,Lr(p−r,d+1)+P1,Lrmin(p−r)+p2} (0<Ad<1)(式3’)
ここで、(式3’)は、(式3)に比べて、上記のように、上記の条件(0<Ad<1)を満たす係数Adが掛けられた点以外は同じであるため、各記号の説明は省略するが、以下に、(式3’)を利用した場合の再帰的な計算方法の概要について説明する。
即ち、コスト合成部320は、(式3’)を利用することで、コスト算出部310によって算出された第1の基準画素に対する対応画素の候補の各コスト値Cのうちの第1の重み(例えば1倍)と、コスト算出部310によって算出された第2の基準画素に対する対応画素の候補の各コスト値Cのうちで第1の重みよりも少ない第2の重み(例えば、0.9倍)と、を合成して基準画像上の所定の経路rにおける経路コスト値Lr’を算出し、各経路rにおける経路コスト値Lr’を合計することでシフト量毎に合成コスト値Ls’を算出することができる。更に、コスト合成部320は、第1の基準画素のコスト値Cに対する第1の重みと、第2の基準画素のコスト値に対する第2の重みと、基準画像において第1及び第2の基準画素を含む経路上で第1の基準画素から第2の基準画素までの距離よりも第1の基準画素から遠い距離に位置する第3の基準画素のコスト値に対して、第2の重みよりも少ない第3の重み(例えば、0.81倍)と、を合成する。この場合、第1の重みを1倍にすれば、計算量が少なくて済む。また、(式3’)のように、再帰的な計算の項に合成重みとしての係数(本実施形態のAd)を乗算すれば、再帰的な計算において、経路上における第1の基準画素より距離が遠い画素ほどAdが多数回乗算される。この構成であれば、経路上において遠いほど合成の重みを小さくするという構成を再帰的な計算を利用してできる。これにより、コスト合成部320をハードウェアで構成する場合、回路規模を小さくできる。このコスト合成部320による処理に関しては、以下、更に図12を用いて説明する。
図12に示されているように、基準画素p(x,y)における経路コスト値Lr’(p,d)を求めるためには、基準画素p(x,y)周辺の一番離れた画素において(式3’)による計算が行なわれて経路コスト値Lr’(p−nr,d)が算出される。次に、この経路コスト値Lr’ (p−nr,d)である算出結果がAd(0<Ad<1)倍された状態で利用されて次に基準画素p(x,y)に近い同じ経路r上の画素において(式3’)による計算が行なわれて経路コスト値Lr’(p−(n−1)r,d)が算出される。これにより、更に次の画素における計算では、最初の画素の算出結果に対して、Ad倍された状態で利用されることになる。このように前の計算結果がAd倍された状態で利用が繰り返されることで、最終的に基準画素(x,y)における経路コスト値Lr’(p,d)が求められる。
上記のように、基準画素pから遠ざかるに従って係数Ad(0<Ad<1)が掛けられるため、基準画素pから遠い画素で、コスト値Cが極端に他の画素と異なる値が算出されても、経路コスト値Lr’の値が小さくなるため、基準画素pにおける経路コスト値Lr’の値に及ぼす影響が少なくなる。
そして、(式3’)が利用される場合、上述の(式4)ではなく、以下の(式4’)が利用されて、合成コスト値Ls’が算出される。
Ls’(p,d)=ΣLr’ (式4’)
また、視差値導出部330は、コスト合成部320によって出力された合成コスト値Lsが最小となる場合のシフト量dを、視差値Δとして導出する。
なお、係数Adは、RAM34に記憶され、利用者によって書き換えられることで、係数Adの値を変更してもよい。この場合、図5に示されている経路r毎に、独立して、係数Adの値を変更してもよい。
更に、撮像装置10a,10bで撮像された画像のフレームデータ毎に、経路r毎に定められた係数Adを変更できるようにしてもよい。例えば、画像の最初のフレームデータでは、主に横方向に変化が表れづらい路面の視差値Δをより正確に導出するため、経路r,r180のみで(式3’)が利用され、その他の経路では(式3)が利用される。そして、画像の次のフレームデータでは、主に縦方向に変化が表れづらい標識や車等の視差値Δをより正確に導出するため、経路r90,r270のみで(式3’)が利用され、その他の経路では(式3)が利用される。
<実施形態の処理又は動作>
次に、図13乃至図16を用いて、本実施形態の処理又は動作を説明する。ここでは、視差値Δの導出方法について説明する。図13は、本実施形態の処理を示したフローチャートである。図14は、(a)は基準画像、(b)は基準画像の一部、(c)は(式3)が利用された場合の(b)に対する高密度視差画像、(d)、(e)は(式3’)が利用された場合の(b)に対する高密度視差画像である。図15は、基準画像の一部を拡大した概念図である。図16は、図15に示されている基準画像に関するシフト量毎のコスト値を示すグラフ及びシフト量毎の合成コスト値を示すグラフである。
なお、本実施形態では、図14(a)に示されている基準画像から合成コスト値Ls’が導き出される場合について説明する。また、図面を分かり易く説明するため、図14(a)の一部の画像を、図14(b)に示す。
まず、図9に示されている撮像装置10aは、対象Eを撮像してアナログの画像データを生成する(ステップS1−1)。同じく、撮像装置10aは、対象を撮像してアナログの画像データを生成する(ステップS1−2)。
次に、信号変換装置20aは、アナログの画像データを、デジタルの画像データに変換する(ステップS2−1)。同じく、信号変換装置20bは、アナログの画像データを、デジタルの画像データに変換する(ステップS2−2)。
次に、信号変換装置20aは、画像処理装置30のFPGA31に、変換後のデジタルの画像データを基準画像のデータとして出力する(ステップS3−1)。この基準画像の概念図は、図2(a)に示されている。同じく、信号変換装置20bは、画像処理装置30のFPGA31に、変換後のデジタルの画像データを比較画像のデータとして出力する(ステップS3−2)。この比較画像は、撮像装置10bによって撮像された画像であるが、図2(a)に示されている基準画像と極端な違いはないため、比較画像の概念図は図示しないで省略する。
次に、図11に示されているコスト算出部310は、基準画像のデータ及び比較画像のデータに基づき、シフト量d毎のコスト値Cを算出する(ステップS4)。
次に、図11に示されているコスト合成部320は、(式3’)を利用して、経路コスト値Lr’を算出する(ステップS5)。更に、コスト合成部320は、(式4’)を利用して、合成コスト値Ls’を算出する(ステップS6)。
例えば、図14(b)において、標識Mと背景との境界部分は、図15に示されているように、テクスチャが強いが、背景の部分はテクスチャが弱いため、図16に示されているように、標識Mと背景との境界部分の画素(p−nr)では、シフト量d=10において極端に低いコスト値C(p−nr,d)が存在する。そのため、図15に示されているように、画素pの位置において、仮に(式3)及び(式4)を利用して合成コスト値Lsを算出する場合、(p−nr)位置がp位置から遠いにも拘わらず、極端に低いコスト値Cの影響を受けてしまう。これにより、例えば、図14(c)に示されているような高密度視差画像が生成される。
これに対して、(式3’)及び(式4’)を利用して合成コスト値Ls’を算出する場合、図12に示されているように、p位置の画素から遠い画素ほどAd(0<Ad<1,Nは自然数)のNが増えるため、p位置の画素における経路コスト値Lr’を導く際の影響が減少する。そのため、p位置の画素における経路コスト値Lr’を導く際に、p位置の画素から遠いにも拘わらず極端に低いコスト値Cが存在しても、この極端に低いコスト値Cの影響を受けづらくすることができる。これにより、例えば、図14(d)に示されているような高密度視差画像が生成される。図14(d)に示されている高密度視差画像は、図14(c)に示されている高密度視差画像よりも、実物に近い形態(または輪郭)の画像を表すことができる。
また、係数Adの値を変更することで、図14(e)に示されているように、更に実物に近い形態の画像を表すこともできる。図14(d)は、係数Adが0.9である場合の高密度視差画像を示し、図14(e)は、係数Adが0.8の場合の高密度視差画像を示している。このように、係数Adが小さくなれば、高密度視差画像は、より実物に近い形態の画像となる。ここでは、形態が小さくなっている。なお、係数Adを更に小さくして、所定値(例えば、0.7)以下にすると、図16に示されているような合成コスト値を示すグラフでは、Lsの最小値と、Lsの最小値以外の極小値との差が小さくなってしまうため、導出される視差値Δの信頼度が低下することになる。
そして、視差値導出部330は、コスト合成部320によって出力された合成コスト値Ls’が最小となる場合のシフト量dを、視差値Δとして導出する(ステップS7)。そして、視差値導出部330は、全画素分に対して視差値Δを導出することで、最終的に全画素分の視差値Δを出力することができる。
<実施形態の主な効果>
以上説明したように本実施形態によれば、p位置の画素における経路コスト値Lr’を導く際に、p位置の画素から遠いにも拘わらず極端に低いコスト値Cが存在しても、この極端に低いコスト値Cの影響を受けづらくすることができるという効果を奏する。
また、係数Adの値を変更することで、図14(d)に示されている高密度視差画像から、より実物の形態に近い図14(e)に示されている高密度視差画像に変更することができる。
<実施形態の補足>
上記実施形態では、コスト値Cは「非類似度」として示されているが、「類似度」として示されてもよい。この場合、コスト値Cの最小値は最大値に置き換え、合成コスト値Lsの最小値は最大値に置き換えられる。
また、上記実施形態では、(式3’)において、C(p,d)の係数を“1”とし、min{ }の係数を“Ad”としたが、これに限るものではない。例えば、C(p,d)の係数を“Ad1”とし、min{ }の係数を“Ad2”としてもよい。この場合、Ad1<Ad2,0<Ad1,0<Ad2の条件の範囲内の係数となる。
また、係数“Ad1”及び係数“Ad2”は、Ad1<Ad2,0<Ad1,0<Ad2の条件に加えて、1≦Ad1<Ad2の条件の範囲内の係数であってもよい。この場合、上述の第1の重み、第2の重み、及び第3の重みは、それぞれ1以上(つまり、100%以上)であってもよい。
<付記項>
上記実施形態では、以下に示すような発明が開示されている。
〔付記項1〕
対象を撮像した第1の撮像手段によって得られた基準画像及び前記対象を撮像した第2の撮像手段によって得られた比較画像から、前記対象に対する視差を示す視差値を導出する視差値導出装置であって、
前記基準画像内の基準領域の輝度値と、前記比較画像において前記基準領域に基づくエピポーラ線上でシフトさせることでシフト量毎に特定される対応領域の候補の各輝度値との各コスト値を算出する算出手段と、
前記算出された第1の基準領域に対する対応領域の候補の各コスト値のうちの第1の重みと、前記算出された第2の基準領域に対する対応領域の候補の各コスト値のうちで前記第1の重みよりも少ない第2の重みと、を合成して前記基準画像上の所定の経路における経路コスト値を算出し、各経路における経路コスト値を合計することで前記シフト量毎に合成コスト値を算出する合成手段と、
前記算出された各合成コスト値に基づいて前記視差値を導出する導出手段と、
を有することを特徴とする視差値導出装置。
〔付記項2〕
前記合成手段は、前記第1の基準領域のコスト値のうちの前記第1の重みと、前記第2の基準領域のコスト値に対する前記第2の重みと、前記基準画像において前記第1及び第2の基準領域を含む経路上で前記第1の基準領域から第2の基準領域までの距離よりも前記第1の基準領域から遠い距離に位置する第3の基準領域のコスト値に対して前記第2の重みよりも少ない第3の重みと、を合成することを特徴とする付記項1に記載の視差値導出装置。
〔付記項3〕
前記合成手段は、前記第1の基準領域のコスト値のうちの前記第1の重みと、前記第2の基準領域の前記経路コスト値のうちの前記第2の重みとを合成することで前記基準画像上の所定の経路における経路コスト値を算出することを特徴とする付記項2に記載の視差値導出装置。
1 視差値導出装置
2 本体部
10a 撮像装置
10b 撮像装置
20a 信号変換装置
20b 信号変換装置
30 画像処理装置
310 コスト算出部(算出手段の一例)
320 コスト合成部(合成手段の一例)
330 視差値導出部(導出手段の一例)
特開2006−090896号公報 特開2012−181142号公報

Claims (14)

  1. 第1の撮像位置から撮像された基準画像における基準領域と、第2の撮像位置から撮像された比較画像における、前記基準領域に対応する対応領域を含む指定の範囲内の複数の領域各々と、のコスト値を算出する算出手段と、
    前記算出手段により算出された、前記基準画像における第1の基準領域のコスト値のうちの第1の重みと、前記基準画像における前記第1の基準領域の周辺の第2の基準領域のコスト値のうちで前記第1の重みよりも少ない第2の重みと、を合成する合成手段と、
    前記合成手段による合成によって得られた合成コスト値に基づいて、前記所定の基準領域において撮像されている対象の視差値を導出する導出手段と、
    を有することを特徴とする視差値導出装置。
  2. 前記合成手段は、前記第1の基準領域のコスト値のうちの第1の重みと、前記第2の基準領域のコスト値のうちで前記第1の重みよりも少ない第2の重みと、前記基準画像における前記第1の基準領域から第2の基準領域までの距離よりも前記第1の基準領域から遠い距離に位置する第3の基準領域のコスト値のうちで前記第2の重みよりも少ない第3の重みと、を合成することを特徴とする請求項1に記載の視差値導出装置。
  3. 前記合成手段は、前記算出手段によって算出された前記コスト値に基づいて前記基準画像上の所定の経路における経路コスト値を算出し、各経路における経路コスト値を合計することで前記合成コスト値を出力することを特徴とする請求項1又は2に記載の視差値導出装置。
  4. 前記合成手段は、前記第1の基準領域のコスト値のうちの前記第1の重みと、前記第2の基準領域のコスト値のうちの前記第2の重みとを合成することで前記基準画像上の所定の経路における経路コスト値を算出することを特徴とする請求項3に記載の視差値導出装置。
  5. 前記各経路における前記第1及び第2の重みは、前記第1の重みよりも少ない前記第2の重みの条件を満たす範囲内で、前記経路毎に変更可能であることを特徴とする請求項4に記載の視差値導出装置。
  6. 前記各経路における前記第1及び第2の重みは、前記第1の重みよりも少ない前記第2の重みの条件を満たす範囲内で、前記撮像された基準画像のフレームデータ毎に変更可能であることを特徴とする請求項4又は5に記載の視差値導出装置。
  7. 請求項1乃至6のいずれか一項に記載の視差値導出装置を備えたことを特徴とする移動体。
  8. 前記移動体は、車両又はロボットであることを特徴とする請求項7に記載の移動体。
  9. 請求項1乃至6のいずれか一項に記載の視差値導出装置を備えたことを特徴とするロボット。
  10. 前記ロボットは、固定設置される工業用ロボットであることを特徴とする請求項9に記載のロボット。
  11. 第1の撮像位置から撮像された基準画像における基準領域と、第2の撮像位置から撮像された比較画像における、前記基準領域に対応する対応領域を含む指定の範囲内の複数の領域各々と、のコスト値を算出する算出ステップと、
    前記算出ステップにより算出された、前記基準画像における第1の基準領域のコスト値のうちの第1の重みと、前記基準画像における前記第1の基準領域の周辺の第2の基準領域のコスト値のうちで前記第1の重みよりも少ない第2の重みと、を合成する合成ステップと、
    前記合成ステップによる合成によって得られた合成コスト値に基づいて、前記所定の基準領域において撮像されている対象の視差値を導出する導出ステップと、
    を実行することを特徴とする視差値導出方法。
  12. 第1の撮像位置から撮像された基準画像における基準領域と、第2の撮像位置から撮像された比較画像における、前記基準領域に対応する対応領域を含む指定の範囲内の複数の領域各々と、のコスト値を算出する算出ステップと、
    前記算出ステップにより算出された、前記基準画像における第1の基準領域のコスト値のうちの第1の重みと、前記基準画像における前記第1の基準領域の周辺の第2の基準領域のコスト値のうちで前記第1の重みよりも少ない第2の重みと、を合成する合成ステップと、
    前記合成ステップによる合成によって得られた合成コスト値に基づいて、前記所定の基準領域において撮像されている対象の視差値を導出する導出ステップと、
    を実行することを特徴とする視差値の生産方法。
  13. コンピュータに、請求項11又は12に記載の方法を実行させることを特徴とするプログラム。
  14. 第1の撮像位置から撮像された基準画像における基準領域と、第2の撮像位置から撮像された比較画像における、前記基準領域に対応する対応領域を含む指定の範囲内の複数の領域各々と、のコスト値を算出する算出手段と、
    前記算出手段により算出された、前記基準画像における所定の基準領域の周辺の基準領域の一致度と、前記基準画像における前記所定の基準領域の一致度の所定の重みとを合成する合成手段と、
    前記合成手段により合成された一致度に基づいて、前記所定の基準領域において撮像されている対象の視差値を導出して、前記基準画像または前記比較画像中の物体の認識を行う前記物体認識装置に出力する導出手段と、を備え、
    前記導出手段が導出する視差値で示される前記物体認識装置が認識する物体に対応する領域は、前記重みが小さいほど小さくなる
    を有することを特徴とする視差値導出装置。
JP2015051955A 2014-03-20 2015-03-16 視差値導出装置、移動体、ロボット、視差値導出方法、視差値の生産方法及びプログラム Pending JP2015195019A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015051955A JP2015195019A (ja) 2014-03-20 2015-03-16 視差値導出装置、移動体、ロボット、視差値導出方法、視差値の生産方法及びプログラム
EP15159794.5A EP2922026B1 (en) 2014-03-20 2015-03-19 Disparity deriving apparatus, method and carrier medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014058716 2014-03-20
JP2014058716 2014-03-20
JP2015051955A JP2015195019A (ja) 2014-03-20 2015-03-16 視差値導出装置、移動体、ロボット、視差値導出方法、視差値の生産方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2015195019A true JP2015195019A (ja) 2015-11-05

Family

ID=52780388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015051955A Pending JP2015195019A (ja) 2014-03-20 2015-03-16 視差値導出装置、移動体、ロボット、視差値導出方法、視差値の生産方法及びプログラム

Country Status (2)

Country Link
EP (1) EP2922026B1 (ja)
JP (1) JP2015195019A (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002267441A (ja) * 2001-03-07 2002-09-18 Fuji Heavy Ind Ltd ステレオマッチング方法および監視装置
JP2006090896A (ja) * 2004-09-24 2006-04-06 Fuji Heavy Ind Ltd ステレオ画像処理装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005060640A2 (en) * 2003-12-15 2005-07-07 Sarnoff Corporation Method and apparatus for object tracking prior to imminent collision detection
GB0708676D0 (en) * 2007-05-04 2007-06-13 Imec Inter Uni Micro Electr A Method for real-time/on-line performing of multi view multimedia applications
JP5682065B2 (ja) 2011-03-02 2015-03-11 独立行政法人産業技術総合研究所 ステレオ画像処理装置及びステレオ画像処理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002267441A (ja) * 2001-03-07 2002-09-18 Fuji Heavy Ind Ltd ステレオマッチング方法および監視装置
JP2006090896A (ja) * 2004-09-24 2006-04-06 Fuji Heavy Ind Ltd ステレオ画像処理装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HEIKO HIRSCHMULLER: "Accurate and Efficient Stereo Processing by Semi-Global Matching and Mutual Information", 2005 IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION(CVPR'05), JPN6019005280, 2005, US, ISSN: 0004237442 *
MATTHIAS MICHAEL ET AL.: "Real-time Stereo Vision: Optimizing Semi-Global Matching", 2013 IEEE INTELIGENT VEHICLES SYMPOSIUM(IV), JPN6019005282, 2013, US, pages 1197 - 1202, XP032501967, ISSN: 0004237443, DOI: 10.1109/IVS.2013.6629629 *

Also Published As

Publication number Publication date
EP2922026A1 (en) 2015-09-23
EP2922026B1 (en) 2024-05-08

Similar Documents

Publication Publication Date Title
JP6417886B2 (ja) 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム
JP6561512B2 (ja) 視差値導出装置、移動体、ロボット、視差値導出方法、視差値生産方法及びプログラム
JP6565188B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP5926228B2 (ja) 自律車両用の奥行き検知方法及びシステム
WO2017138245A1 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP6306735B2 (ja) ステレオカメラ装置及びステレオカメラ装置を備える車両
JP6589313B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP6337504B2 (ja) 画像処理装置、移動体、ロボット、機器制御方法およびプログラム
JP6544257B2 (ja) 情報処理システム、情報処理方法及び情報処理プログラム
JP6455164B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP2016152027A (ja) 画像処理装置、画像処理方法およびプログラム
JP2008309637A (ja) 障害物計測方法、障害物計測装置及び障害物計測システム
JP6543935B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP6561511B2 (ja) 視差値導出装置、移動体、ロボット、視差値生産導出方法、視差値の生産方法及びプログラム
JP6519138B2 (ja) 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム
JP6515547B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値生産方法、及びプログラム
JP2015195019A (ja) 視差値導出装置、移動体、ロボット、視差値導出方法、視差値の生産方法及びプログラム
JP6442911B2 (ja) 視差値導出装置、移動体、ロボット、視差値導出方法、及びプログラム
JP2016095229A (ja) 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム
JP6459482B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP6701738B2 (ja) 視差値導出装置、視差値導出方法及びプログラム
JP2015179065A (ja) 情報処理システム、情報処理方法、プログラム、および情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191105

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200324