JP6561512B2 - 視差値導出装置、移動体、ロボット、視差値導出方法、視差値生産方法及びプログラム - Google Patents
視差値導出装置、移動体、ロボット、視差値導出方法、視差値生産方法及びプログラム Download PDFInfo
- Publication number
- JP6561512B2 JP6561512B2 JP2015051957A JP2015051957A JP6561512B2 JP 6561512 B2 JP6561512 B2 JP 6561512B2 JP 2015051957 A JP2015051957 A JP 2015051957A JP 2015051957 A JP2015051957 A JP 2015051957A JP 6561512 B2 JP6561512 B2 JP 6561512B2
- Authority
- JP
- Japan
- Prior art keywords
- value
- parallax
- region
- predetermined
- parallax value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
- G06T2207/20032—Median filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30236—Traffic on road, railway or crossing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0088—Synthesising a monoscopic image signal from stereoscopic images, e.g. synthesising a panoramic or high resolution monoscopic image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
Description
まず、図1乃至図6を用いて、SGM(Semi-Global Matching)法を用いた測距方法の概略について説明する。なお、SGM法に関しては、非特許文献(Accurate and Efficient Stereo Processing by Semi-Global Matching and Mutual Information)に開示されているため、以下では概略を説明する。
図1を用いて、ステレオ画像法により、ステレオカメラから物体に対する視差を導き出し、この視差を示す視差値によって、ステレオカメラから物体までの距離を測定する原理について説明する。なお、図1は、撮像装置から物体までの距離を導き出す原理の説明図である。また、以下では、説明を簡略化するため、複数の画素からなる所定領域ではなく、一画素単位で説明する。
まず、図1で示される撮像装置10aおよび撮像装置10bによって撮像された各画像を、それぞれ基準画像Iaおよび比較画像Ibとする。なお、図1では、撮像装置10aおよび撮像装置10bが平行等位に設置されているものとする。図1において、3次元空間内の物体E上の点Sは、撮像装置10aおよび撮像装置10bの同一水平線上の位置に写像される。すなわち、各画像中の点Sは、基準画像Ia中の点Sa(x,y)および比較画像Ib中の点Sb(X,y)において撮像される。このとき、視差値Δは、撮像装置10a上の座標における点Sa(x,y)と撮像装置10b上の座標における点Sb(X,y)とを用いて、(式1)のように表される。
ここで、図1のような場合には、基準画像Ia中の点Sa(x,y)と撮像レンズ11aから撮像面上におろした垂線の交点との距離をΔaにし、比較画像Ib中の点Sb(X,y)と撮像レンズ11bから撮像面上におろした垂線の交点との距離をΔbにすると、視差値Δ=Δa+Δbとなる。
また、視差値Δを用いることで、撮像装置10a,10bと物体Eとの間の距離Zを導き出すことができる。具体的には、距離Zは、撮像レンズ11aの焦点位置と撮像レンズ11bの焦点位置とを含む面から物体E上の特定点Sまでの距離である。図1に示されるように、撮像レンズ11a及び撮像レンズ11bの焦点距離f、撮像レンズ11aと撮像レンズ11bとの間の長さである基線長B、及び視差値Δを用いて、(式2)により、距離Zを算出することができる。
この(式2)により、視差値Δが大きいほど距離Zは小さく、視差値Δが小さいほど距離Zは大きくなる。
続いて、図2乃至図6を用いて、SGM法を用いた測距方法について説明する。なお、図2(a)は基準画像、図2(b)は(a)に対する高密度視差画像、図2(c)は(a)に対するエッジ視差画像を示す概念図である。ここで、基準画像は、物体が輝度によって示された画像である。高密度視差画像は、SGM法によって、基準画像から導き出された画像であり、基準画像の各座標における視差値を示した画像である。エッジ視差画像は、従来から用いられているブロックマッチング法によって導き出された画像であり、基準画像のエッジ部のような比較的テクスチャの強い部分のみの視差値を示した画像である。
まず、図3及び図4を用いて、コスト値C(p,d)の算出方法について説明する。図3(a)は基準画像における基準画素を示す概念図、図3(b)は(a)の基準画素に対して比較画像における対応画素の候補を順次シフトしながら(ずらしながら)コスト値を算出する際の概念図である。図4は、シフト量毎のコスト値を示すグラフである。ここで、対応画素は、基準画像内の基準画素に最も類似する比較画像内の画素である。なお、以降、C(p,d)は、C(x,y,d)を表すものとして説明する。
次に、図5及び図6を用いて、合成コスト値Ls(p,d)の算出方法について説明する。図5は、合成コスト値を導き出すための概念図である。図6は、視差値毎の合成コスト値を示す合成コスト曲線のグラフである。本実施形態における合成コスト値の算出方法は、コスト値C(p,d)の算出だけでなく、所定の基準画素p(x,y)の周辺の画素p’(x’,y’)を基準画素とした場合のコスト値を、基準画素p(x,y)におけるコスト値C(p,d)に集約させて、合成コスト値Ls(p,d)を算出する。
ここで、(式3)において、rは、集約方向の方向ベクトルを示し、x方向およびy方向の2成分を有する。min{}は、最小値を求める関数である。Lrmin(p−r)は、pをr方向に1画素シフトした座標において、シフト量dを変化させた際のLr(p−r,d)の最小値を示す。なお、Lrは、(式3)に示されているように再帰的に適用される。また、P1及びP2は、予め実験により定められた固定パラメータであり、経路上で隣接する基準画素の視差値Δが連続になりやすいようなパラメータになっている。例えば、P1=48、P2=96である。
以下、図面を用いて、本実施形態の具体的な説明を行う。ここでは、自動車に搭載される物体認識システム1について説明する。
まず、図7乃至図9用いて、本実施形態の全体構成について説明する。
図7及び図8を用いて、本実施形態の物体認識システム1の外観構成を説明する。なお、図7(a)は本発明の一実施形態に係る物体認識システムを搭載した自動車の側面を表す概略図、図7(b)は自動車の正面を示す概略図である。図8は、物体認識システムの概観図である。
次に、図9を用いて、物体認識システム1の全体のハードウェア構成について説明する。なお、図9は、物体認識システムの全体のハードウェア構成図である。
次に、図3、図9及び図10を用いて、視差値導出装置1の主要部のハードウェア構成について説明する。なお、図10は、視差値導出装置の主要部のハードウェア構成図である。
次に、図11乃至図16を用いて、本実施形態の処理又は動作を説明する。ここでは、視差値Δの導出方法について説明する。なお、図11は、本実施形態の視差導出方法の処理を示したフローチャートである。
以上説明したように本実施形態によれば、視差値に対してメディアンフィルタを適用することで、極端に視差値が高い又は低い画素を平均化することで、より正確な視差値を導出することができるという効果を奏する。
上記実施形態では、コスト値Cは「非類似度」として示されているが、「類似度」として示されてもよい。この場合、コスト値Cの最小値は最大値に置き換え、合成コスト値Lsの最小値は最大値に置き換えられる。
上記実施形態では、以下に示すような発明が開示されている。
対象を撮像した第1の撮像手段によって得られた基準画像及び前記対象を撮像した第2の撮像手段によって得られた比較画像から、前記対象に対する視差を示す視差値を導出する視差値導出装置であって、
前記基準画像内の基準領域の輝度値と、前記比較画像において前記基準領域に基づくエピポーラ線上でシフトさせることでシフト量毎に特定される対応領域の候補の各輝度値との各非類似度を算出する算出手段と、
前記算出手段によって算出された前記各非類似度を前記シフト量毎に合成して、基準画像内の所定の経路における経路コスト値を算出し、各経路における経路コスト値を合計することで前記シフト量毎に各合成コスト値を出力する合成手段と、
前記出力された各合成コスト値のうち最小値となる合成コスト値のシフト量を、前記基準領域における視差値として導出することで、前記基準画像内の各領域を前記基準領域として導出した各視差値を出力する導出手段と、
前記基準画像内の各領域のうち所定の領域を中央とする複数の領域に対して空間フィルタを適用することで、前記所定の領域における視差値を補正する補正手段と、
を有することを特徴とする視差値導出装置。
付記項1に記載の視差値導出装置であって、
前記基準画像内の各領域のうち特定の領域において、前記シフト量毎に出力された前記各合成コスト値のうち最小の極小値と2番目に小さい極小値との差が所定値よりも小さいかを判断する判断手段を有し、
前記補正手段は、前記判断手段によって前記差が前記所定値よりも小さいと判断された場合には、前記空間フィルタの適用対象から前記特定の領域を外して、前記視差値を補正することを特徴とする付記項1に記載の視差値導出装置。
前記算出手段が非類似度に代えて類似度を算出する場合に、前記導出手段は、前記各合成コスト値のうち最小値に代えて最大値となる合成コスト値のシフト量を、前記基準領域における視差値として導出することを特徴とする付記項1に記載の視差値導出装置。
前記算出手段が非類似度に代えて類似度を算出する場合に、前記判断手段は、前記基準画像内の各領域のうち特定の領域において、前記シフト量毎に出力された前記各合成コスト値のうち最小の極小値に代えて最大の極大値と、2番目に小さい極小値に代えて2番目に大きい極大値との差が所定値よりも小さいかを判断することを特徴とする付記項4に記載2に記載の視差値導出装置。
2 本体部
10a 撮像装置
10b 撮像装置
20a 信号変換装置
20b 信号変換装置
30 画像処理装置
310 コスト算出部〔算出手段の一例〕
320 コスト合成部〔合成手段の一例〕
330 視差値導出部〔導出手段の一例〕
330 (判断部)〔判断手段の一例〕
Claims (12)
- 第1の撮像位置から撮像された基準画像における基準領域と、第2の撮像位置から撮像された比較画像における、前記基準領域に対応する対応領域を含む指定の範囲内の複数の領域各々と、のコスト値を算出する算出手段と、
前記算出手段により算出された、前記基準画像における所定の基準領域の周辺の基準領域のコスト値と、前記基準画像における前記所定の基準領域のコスト値と、を合成する合成手段と、
前記合成手段により合成されたコスト値に基づいて、前記所定の基準領域において撮像されている対象の視差値を導出する導出手段と、
前記基準画像内の各領域のうち所定の領域を含む複数の領域に対して空間フィルタを適用することで、前記所定の領域における視差値を補正する補正手段と、
を備え、
前記補正手段は、前記基準画像内の各領域のうち特定の領域において、前記合成されたコスト値のうち、前記視差値の導出に用いられる極値を含む2つの極値の差が所定値よりも小さい場合には、前記空間フィルタの適用対象から前記特定の領域を外して、前記視差値を補正することを特徴とする視差値導出装置。 - 前記基準画像内の各領域のうち特定の領域において、前記合成されたコスト値のうち、前記視差値の導出に用いられる極値を含む2つの極値の差が所定値よりも小さいかを判断する判断手段を有し、
前記判断手段によって前記差が前記所定値よりも小さいと判断された場合には、前記補正手段は、前記空間フィルタの適用対象から前記特定の領域を外して、前記視差値を補正することを特徴とする、請求項1に記載の視差値導出装置。 - 前記判断手段は、前記基準画像内の各経路のうち特定の経路における特定の領域のみにおいて、前記判断を行うことを特徴とする請求項2に記載の視差値導出装置。
- 前記所定値は変更可能であることを特徴とする請求項1乃至3のいずれか一項に記載の視差値導出装置。
- 請求項1乃至4のいずれか一項に記載の視差値導出装置を備えたことを特徴とする移動体。
- 前記移動体は、車両又はロボットであることを特徴とする請求項5に記載の移動体。
- 請求項1乃至4のいずれか一項に記載の視差値導出装置を備えたことを特徴とするロボット。
- 前記ロボットは、固定設置される工業用ロボットであることを特徴とする請求項7に記載のロボット。
- 第1の撮像位置から撮像された基準画像における基準領域と、第2の撮像位置から撮像された比較画像における、前記基準領域に対応する対応領域を含む指定の範囲内の複数の領域各々と、のコスト値を算出する算出ステップと、
前記算出ステップにより算出された、前記基準画像における所定の基準領域の周辺の基準領域のコスト値と、前記基準画像における前記所定の基準領域のコスト値と、を合成する合成ステップと、
前記合成ステップにより合成されたコスト値に基づいて、前記所定の基準領域において撮像されている対象の視差値を導出する導出ステップと、
前記基準画像内の各領域のうち所定の領域を含む複数の領域に対して空間フィルタを適用することで、前記所定の領域における視差値を補正する補正ステップと、
を実行する視差値導出方法であって、
前記補正ステップにおいて、前記基準画像内の各領域のうち特定の領域において、前記合成されたコスト値のうち、前記視差値の導出に用いられる極値を含む2つの極値の差が所定値よりも小さい場合には、前記空間フィルタの適用対象から前記特定の領域を外して、前記視差値を補正することを特徴とする視差値導出方法。 - 第1の撮像位置から撮像された基準画像における基準領域と、第2の撮像位置から撮像された比較画像における、前記基準領域に対応する対応領域を含む指定の範囲内の複数の領域各々と、のコスト値を算出する算出ステップと、
前記算出ステップにより算出された、前記基準画像における所定の基準領域の周辺の基準領域のコスト値と、前記基準画像における前記所定の基準領域のコスト値と、を合成する合成ステップと、
前記合成ステップにより合成されたコスト値に基づいて、前記所定の基準領域において撮像されている対象の視差値を導出する導出ステップと、
前記基準画像内の各領域のうち所定の領域を含む複数の領域に対して空間フィルタを適用することで、前記所定の領域における視差値を補正する補正ステップと、
を実行する視差値生産方法であって、
前記補正ステップにおいて、前記基準画像内の各領域のうち特定の領域において、前記合成されたコスト値のうち、前記視差値の導出に用いられる極値を含む2つの極値の差が所定値よりも小さい場合には、前記空間フィルタの適用対象から前記特定の領域を外して、前記視差値を補正することを特徴とする視差値生産方法。 - コンピュータに、請求項9又は10に記載の方法を実行させることを特徴とするプログラム。
- 第1の撮像位置から撮像された基準画像における基準領域と、第2の撮像位置から撮像された比較画像における、前記基準領域に対応する対応領域を含む指定の範囲内の複数の領域各々と、のコスト値を算出する算出手段と、
前記算出手段により算出された、前記基準画像における所定の基準領域の周辺の基準領域のコスト値と、前記基準画像における前記所定の基準領域のコスト値と、を合成する合成手段と、
前記合成手段により合成されたコスト値に基づいて、前記所定の基準領域において撮像されている対象の視差値を導出する導出手段と、
前記基準画像内の各領域のうち所定の領域を含む複数の領域に対して、前記合成されたコスト値のうち、前記視差値の導出に用いられる極値を含む2つの極値の差と所定値との比較結果に基づいて前記複数の領域のうちの少なくとも1つを除外したうえで空間フィルタを適用することで前記所定の領域における視差値を補正して、前記基準画像または前記比較画像中の物体の認識を行う前記物体認識装置に出力する補正手段と、を備え、
前記導出手段が導出する視差値で示される前記物体認識装置が認識する物体に対応する領域は、前記所定値が大きいほど小さくなることを特徴とする視差値導出装置。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015051957A JP6561512B2 (ja) | 2014-03-27 | 2015-03-16 | 視差値導出装置、移動体、ロボット、視差値導出方法、視差値生産方法及びプログラム |
US14/662,519 US9898823B2 (en) | 2014-03-27 | 2015-03-19 | Disparity deriving apparatus, movable apparatus, robot, method of deriving disparity, method of producing disparity, and storage medium |
EP15160970.8A EP2930688A1 (en) | 2014-03-27 | 2015-03-26 | Disparity deriving apparatus, movable apparatus, robot, method of deriving disparity, method of producing disparity, and carrier medium |
CN201510134914.1A CN104952064B (zh) | 2014-03-27 | 2015-03-26 | 视差值计算装置、物体识别系统、视差值计算方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014066057 | 2014-03-27 | ||
JP2014066057 | 2014-03-27 | ||
JP2015051957A JP6561512B2 (ja) | 2014-03-27 | 2015-03-16 | 視差値導出装置、移動体、ロボット、視差値導出方法、視差値生産方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015194487A JP2015194487A (ja) | 2015-11-05 |
JP6561512B2 true JP6561512B2 (ja) | 2019-08-21 |
Family
ID=53058966
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015051957A Expired - Fee Related JP6561512B2 (ja) | 2014-03-27 | 2015-03-16 | 視差値導出装置、移動体、ロボット、視差値導出方法、視差値生産方法及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US9898823B2 (ja) |
EP (1) | EP2930688A1 (ja) |
JP (1) | JP6561512B2 (ja) |
CN (1) | CN104952064B (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10269131B2 (en) * | 2015-09-10 | 2019-04-23 | Kabushiki Kaisha Toshiba | Image processing apparatus and image processing method |
US9626590B2 (en) * | 2015-09-18 | 2017-04-18 | Qualcomm Incorporated | Fast cost aggregation for dense stereo matching |
CN105704472A (zh) * | 2016-01-13 | 2016-06-22 | 青岛海信电器股份有限公司 | 一种识别儿童用户的电视控制方法和系统 |
CN105763917B (zh) * | 2016-02-22 | 2019-09-20 | 青岛海信电器股份有限公司 | 一种终端开机的控制方法和系统 |
JP6585006B2 (ja) * | 2016-06-07 | 2019-10-02 | 株式会社東芝 | 撮影装置および車両 |
CN109314774B (zh) * | 2016-07-06 | 2021-05-25 | 深圳市大疆创新科技有限公司 | 用于立体成像的系统和方法 |
KR101856344B1 (ko) * | 2016-08-22 | 2018-06-25 | 현대자동차주식회사 | 스테레오 영상 정합을 통한 시차맵 생성 시스템 및 방법 |
US10818025B2 (en) | 2017-01-26 | 2020-10-27 | Samsung Electronics Co., Ltd. | Stereo matching method and apparatus |
JP6878219B2 (ja) * | 2017-09-08 | 2021-05-26 | 株式会社東芝 | 画像処理装置および測距装置 |
CN109074661A (zh) * | 2017-12-28 | 2018-12-21 | 深圳市大疆创新科技有限公司 | 图像处理方法和设备 |
CN111284490B (zh) * | 2018-12-06 | 2021-06-04 | 海信集团有限公司 | 车载双目相机检测前车溜车的方法及车载双目相机 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100524077B1 (ko) * | 2003-11-13 | 2005-10-26 | 삼성전자주식회사 | 중간 영상 합성을 위한 시간적 평활화 장치 및 방법 |
JP4554316B2 (ja) | 2004-09-24 | 2010-09-29 | 富士重工業株式会社 | ステレオ画像処理装置 |
KR20060063265A (ko) * | 2004-12-07 | 2006-06-12 | 삼성전자주식회사 | 영상 처리 방법 및 장치 |
KR100801968B1 (ko) * | 2007-02-06 | 2008-02-12 | 광주과학기술원 | 변위를 측정하는 방법, 중간화면 합성방법과 이를 이용한다시점 비디오 인코딩 방법, 디코딩 방법, 및 인코더와디코더 |
JP5682065B2 (ja) | 2011-03-02 | 2015-03-11 | 独立行政法人産業技術総合研究所 | ステレオ画像処理装置及びステレオ画像処理方法 |
JP5760559B2 (ja) | 2011-03-18 | 2015-08-12 | 株式会社リコー | ステレオカメラ装置、視差画像生成方法 |
US8897546B2 (en) * | 2011-09-29 | 2014-11-25 | Texas Instruments Incorporated | Semi-global stereo correspondence processing with lossless image decomposition |
JP5752618B2 (ja) * | 2012-02-10 | 2015-07-22 | トヨタ自動車株式会社 | ステレオ視差算出装置 |
-
2015
- 2015-03-16 JP JP2015051957A patent/JP6561512B2/ja not_active Expired - Fee Related
- 2015-03-19 US US14/662,519 patent/US9898823B2/en active Active
- 2015-03-26 EP EP15160970.8A patent/EP2930688A1/en not_active Withdrawn
- 2015-03-26 CN CN201510134914.1A patent/CN104952064B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015194487A (ja) | 2015-11-05 |
US20150279045A1 (en) | 2015-10-01 |
CN104952064A (zh) | 2015-09-30 |
CN104952064B (zh) | 2018-06-08 |
EP2930688A1 (en) | 2015-10-14 |
US9898823B2 (en) | 2018-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6561512B2 (ja) | 視差値導出装置、移動体、ロボット、視差値導出方法、視差値生産方法及びプログラム | |
JP6417886B2 (ja) | 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム | |
JP5926228B2 (ja) | 自律車両用の奥行き検知方法及びシステム | |
JP6565188B2 (ja) | 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム | |
WO2017138245A1 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
JP6589313B2 (ja) | 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム | |
JP6337504B2 (ja) | 画像処理装置、移動体、ロボット、機器制御方法およびプログラム | |
JP6306735B2 (ja) | ステレオカメラ装置及びステレオカメラ装置を備える車両 | |
JP6455164B2 (ja) | 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム | |
JP2016152027A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP6543935B2 (ja) | 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム | |
JP6561511B2 (ja) | 視差値導出装置、移動体、ロボット、視差値生産導出方法、視差値の生産方法及びプログラム | |
JP6519138B2 (ja) | 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム | |
JPWO2017090097A1 (ja) | 車両用外界認識装置 | |
JP6515547B2 (ja) | 視差値導出装置、機器制御システム、移動体、ロボット、視差値生産方法、及びプログラム | |
JP6442911B2 (ja) | 視差値導出装置、移動体、ロボット、視差値導出方法、及びプログラム | |
JP2016095229A (ja) | 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム | |
JP2015195019A (ja) | 視差値導出装置、移動体、ロボット、視差値導出方法、視差値の生産方法及びプログラム | |
JP6701738B2 (ja) | 視差値導出装置、視差値導出方法及びプログラム | |
JP6459482B2 (ja) | 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム | |
JP6064648B2 (ja) | 画像処理装置、画像処理方法、画像処理プログラム、画像処理システム及び移動装置 | |
JP2014164397A (ja) | 画像処理装置、画像処理方法、画像処理システム、画像処理プログラム及び移動装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190306 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190625 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190708 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6561512 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |