JP2011243194A - 対応点探索のための画像処理方法 - Google Patents

対応点探索のための画像処理方法 Download PDF

Info

Publication number
JP2011243194A
JP2011243194A JP2011097193A JP2011097193A JP2011243194A JP 2011243194 A JP2011243194 A JP 2011243194A JP 2011097193 A JP2011097193 A JP 2011097193A JP 2011097193 A JP2011097193 A JP 2011097193A JP 2011243194 A JP2011243194 A JP 2011243194A
Authority
JP
Japan
Prior art keywords
image
patch
image patch
patches
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011097193A
Other languages
English (en)
Other versions
JP5178875B2 (ja
Inventor
Eggert Julian
ジュリアン・エガート
Einek Nil
ニル・アイネッケ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Research Institute Europe GmbH
Original Assignee
Honda Research Institute Europe GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Research Institute Europe GmbH filed Critical Honda Research Institute Europe GmbH
Publication of JP2011243194A publication Critical patent/JP2011243194A/ja
Application granted granted Critical
Publication of JP5178875B2 publication Critical patent/JP5178875B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

【課題】
対応点探索において、NCCフィルタリングに関するジレンマを解決する。
【解決手段】
画像パッチ間の類似性を比較する方法であって、それぞれが少なくとも一つの画像パッチを供給する少なくとも2つの画像供給源から、少なくとも2つの画像パッチを受信するステップと、受信された画像パッチを比較するステップと、を有し、前記比較するステップは、各画像パッチから複数の対応関係にある部分画像ペアを抽出するステップと、すべての前記部分画像ペアの間で正規化局所類似度スコアを算出するステップと、すべての前記部分画像ペアの局所類似度スコアの総和を計算して総マッチングスコアを算出するステップと、総マッチングスコアを画像パッチの類似度指標として用いて、総マッチングスコアに基づき、対応関係を持つ類似画像パッチを決定するステップとを有する。

【選択図】図6

Description

本発明は、広くステレオカメラからの画像(映像を含む)を処理する分野に関し、特に、異なる画像間の対応関係の推定及び/又は探索を行うための画像処理に関する。例えば本発明は、ステレオカメラ・システムにおける左右のステレオ画像間の対応点探索に用いられる。この探索は、物体の奥行きや距離、即ち左右のステレオカメラを相互に連結する平面から両ステレオカメラの撮影範囲に存在する物体までの距離に、直接的に関係する。
立体的奥行きの計算は、コンピュータビジョンの重要な分野である。開発されたいくつかのアルゴリズムの中で、普及しているのは従来型の相関計算に基づくアルゴリズムである。その主な理由は、相関法に基づくアルゴリズムが、拡散プロセスやグラフカットを用いるより精巧なアルゴリズムと比べて、実施及び取り扱いが容易であることに加え、複雑な計算を要しないことにある。以下では、上記従来型アプローチに用いる新しい2段階マッチングコスト、すなわち加算正規化相互相関(SNCC)について説明する。この新しいコスト関数は、第1段階において正規化相関を実行し、第2段階においてその相関値の総計を算出する。この新しい方法は、効率的に実施することができ、かつ、高コントラストの外れ値に対する感度が低いことから、上記従来型アプローチの性能を実質的に改善することができるのみならず、そのレベルを最先端手法と競合する水準にまで引き上げることができる。
ステレオ処理は、コンピュータビジョンにおいて最も集中的に研究されている領域の1つである。最近30年間に、種々のアプローチが開発されている。現在における最も先端的なアプローチは、確率伝搬法(belief propagation)(非特許文献1、2)、動的計画法(dynamic programming)(非特許文献3、4)、又は、グラフカット(graph-cut)(非特許文献5)を用いる方法である。
しかし、従来型の相関計算に基づくステレオ画像処理は、特にリアルタイムシステムにおいて、今なお一般的なツールとなっている(非特許文献6、7、8)。この従来型のステレオ処理アプローチの主たる欠点は、最先端アプローチに比べて深さ不連続性(又は奥行き不連続部分:depth discontinuities)が不鮮明になることである。不鮮明さの程度は、画像パッチの相関に用いられるマッチングコストに依存する。この従来型ステレオ処理に最も一般的に用いられるているマッチングコストは、SAD(the sum of absolute difference)、及び、SSD(the sum of squared difference)である。
これらのマッチングコストでは、対応する画素の輝度が不変であること、すなわち、左右の画像間の対応する画素における色彩又はグレイ値は同じである、という仮定を置いている。このため、これらのマッチングコストは、実用途においては、2つのカメラの視野間で照明が変化すると効果的に動作しないことが多い。この影響を低減する方法は、一般的には、ガウシアンフィルタのラプラシアンを適用すること、又は、実際のステレオ計算の前に各画像において平均輝度を減算することである。
また、SAD及びSSDは、対応関係にある画素に対して不良な相関値を生じる可能性がある。これを補償するため、BirchfieldとTomasiは、サンプリング非依存型計算を提案している(非特許文献9)。しかし、種々のマッチングコストの比較報告(非特許文献10)によれば、これらの対策を行っても、SAD及びSSDは、輝度変化を直接的に考慮に入れる他のマッチングコストより劣るとされている。
輝度変化を考慮する標準的なマッチングコストの1つは、正規化相互相関(normalized cross-correlation :NCC)である。このマッチングコストは、画素輝度のバイアス及び線形利得を考慮に入れる。さらに、NCCは、ガウシアン雑音の補償に最適であり、相関値が区間[−1,1]に限定されるため、不良マッチを棄却するための閾値の選択が容易となる。NCCの主たる欠点は、他のマッチングコストと比べて深さ不連続性が非常に不鮮明となることである。
他の重要なコスト関数として、「ランク変換」及び「センサス変換」がある(非特許文献11)。「ランク変換」の考え方の主要な点は、各画素の輝度を、ある一定範囲の近傍における輝度のランクに置き換えることである。このランク変換は、他のコスト関数と比較して、画像間で起こり得る照明変化をほとんど除去し、深さエッジの不鮮明さを減少させる。実際のランク変換は、ステレオ画像の前処理に過ぎず、通常は、その後にSAD又はSSDを用いたステレオ計算が行われる。非特許文献10に示されている6つのコスト関数の比較では、ランク変換は、いくつかの光強度変化に関して、相関ベースのステレオ画像についての最良のコスト関数であるとされている。
「センサス変換」は、ランク変換の拡張であり、画素を、ランクに置き換えるのではなく、近傍にあるどの画素がアンカー画素より小さいかを符号化する2値フィンガープリントで置き換える。この場合、マッチングコストは、このような2つのフィンガープリント間のハミング距離である。
以下では、正規化相関(NCC)がなぜ他のマッチングコストより不連続性の深さを不鮮明にしてしまう傾向を持つのか、加算正規化相互相関(SNCC)がなぜこの問題を解消できるのか、それらの理由について説明する。また、ボックスフィルタを用いればNCC及びSNCCを効率的に実施することができることを示す。
Yang, Q., Wang, L., Yang, R., Stewenius, H., Nister, D.: Stereo matching with color−weighted correlation, hierarchical belief propagation, and occlusion handling. IEEE Transactions on Pattern Analysis and Machine Intelligence 31 (2008) 492−504 Banno, A., Ikeuchi, K.: Disparity map refinement and 3d surface smoothing via directed anisotropic diffusion. In: 3−D Digital Imaging and Modeling. (2009) 1870−1877 Hirschmuller, H.: Accurate and efficient stereo processing by semi−global matching and mutual information. In: IEEE Computer Society Conference on Computer Vision and Pattern Recognition. (2005) II: 807−814 Deng, Y., Lin, X.: A fast line segment based dense stereo algorithm using tree dynamic programming. In: ECCV. (2006) III: 201−212 Kolmogorov, V., Zabih, R.: Multi−camera scene reconstruction via graph cuts. In: European Conference on Computer Vision. (2002) III: 82−96 Wersing, H., Kirstein, S., Goetting, M., Brandl, H., Dunn, M., Mikhailova, I., Goerick, C., Steil, J.J., Ritter, H., Koerner, E.: Online learning of objects in a biologically motivated visual architecture. International Journal of Neural Systems 17 (2007) 219−230 Oniga, F., Nedevschi, S., Meinecke. M., To, T.B.: Road surface and obstacle detection based on elevation maps from dense stereo. In: IEEE Intelligent Transportation Systems Conference. (2007) 859−865 Hirschmuller, H., Innocent, P.R., Garibaldi, J.M.: Real−time correlation−based stereo vision with reduced border errors. International Journal of Computer Vision 47 (2002) 229−246 Birchfield, S., Tomasi, C.: A pixel dissimilarity measure that is insensitive to image sampling. IEEE Transactions on Pattern Analysis and Machine Intelligence 20 (1998) 401−406 Hirschmuller, I−I., Scharstein. D.: Evaluation of cost functions for stereo matching. In: IEEE Computer Society Conference on Computer Vision and Pattern Recognition. (2007) Zabih, R., Woodfill, J.: Non−parametric local transforms for computing visual correspondence. In: Proceedings of ECCV. (1994) 151−158 Scharstein, D., Szeliski, R.: A taxonomy and evaluation of dense two−frame stereo correspondence algorithms. International Journal of Computer Vision 47 (2002) 7−42 Fua, P.: A parallel stereo algorithm that produces dense depth maps and preserves image features. Machine Vision and Applications 6 (1993) 35−49 Hirschmuller, H., Scharstein, D.: Evaluation of stereo matching costs on images with radiometric diffferences. PAMI 31 (2009) 1582−1599
〔正規化相関(NCC)の問題点〕
2つのカメラ画像I(左)及びI(右)から抜き出した2つの画像パッチに対して、正規化相互相関(NCC)を次式で定義する。
ここで、
である。
上式において、xは左パッチのアンカー点の画素位置であり、p(x)は左画像パッチの画素座標の集合であり、p(x+d)は右画像パッチの画像座標の集合である。即ちdは、左画像パッチと右画像パッチの間の視差を示している。また、|p(x)|は、p(x)の要素の個数である。
前述したように、NCCは不連続部分において奥行きを曖昧にする傾向がある。その理由は、深さの不連続部分では強いコントラストを示すことが多く、相関値は、最も強いコントラストから最も大きな影響を受けるためである。この効果は正規化を行うために生じる。各パッチp(x)において輝度値は次式により正規化される。
この正規化のため、高コントラストエッジ付近での低コントラスト構造が見えなくなる(抑制される)。この抑制現象を可視化するため、非特許文献12では、高コントラスト矩形(輝度10000)をミドルベリー・ステレオ・ベンチマークの左ビーナス画像に加え、種々のフィルタサイズ又はパッチサイズを用いて、この画像に正規化式(3)を適用した。そのフィルタリングの結果として得られた画像を図1に示す。これらの画像から、高コントラストの矩形がその周囲にある構造を見えなくしてしまう現象を確認することができる。なお、当該見えなくなる範囲(サイズ)は、パッチサイズにより定まる。
高コントラストエッジは支配的な構造であるため、この抑制効果によって、高コントラストエッジの付近にあるすべてのパッチは、このエッジと同じ視差を持つものとされてしまう。この構造に合わせて調整を行わない限り、誤差が大きくなったり、相関値が小さくなることになる。図2aは、このビーナス風景の左画像の切り抜きを示している。白色矩形のパッチ部分について、視差(シフト量)を変えながら、図2bに示す右画像との相関をとった。図2cは、これらの視差と相関値との関係を示す。実測した奥行きによればおよそ8画素(水平線で示す)であるにも関わらず、このプロットでは、視差がおよそ13画素であるときに対応関係が最良となっている。図2bの実線矩形は、最良の対応関係を示したパッチの位置を示す。この対応関係の誤りの原因は、輝度の高い新聞と暗い背景との境界部分にある、輝度差の大きいコントラストエッジである。新聞の視差がおよそ13画素であるので、その新聞の境界を取り囲むすべてのパッチは、視差が13画素のときに対応関係が最良となったのである。
すなわち、上述の観察は、強いコントラストによって正規化相互相関(NCC)にバイアスがかかることを示している。したがって、NCCをステレオ処理に用いる場合には、パッチサイズを小さくすることが必要である。しかしながら、パッチサイズを小さくすると、奥行き方向に雑音の多い画像となる。
即ち、NCCにおいて深さ不連続性が不鮮明となる原因は、NCCが高コントラストに対して敏感であることによる。このため、本発明では、対応関係を持つ類似度の高い画像パッチを特定するために、画像パッチ間のこの感度を低下させる新しい2段階相関法を用いる。第1段階において小さいパッチサイズを用いて正規化相互相関を算出した後、第2段階において相関係数を加算する。
即ち、本発明では、NCCフィルタリングに関する上記ジレンマを解決するため、2段階フィルタリングを用いる。
上記目的は、独立請求項に示した方法やシステムによって達成される。従属請求項には、有利な実施形態を示す。
一つの実施形態では、この発明は、コンピュータによって実施される、ステレオカメラ・システムから取り込まれた2つの画像パッチ間の類似性を比較する方法であり、この方法は、ステレオカメラの撮影範囲にある物体の奥行き推定値を計算するのに好適である。この方法は、それぞれが少なくとも一つの画像パッチを供給する少なくとも2つの視覚センサ、例えばステレオカメラから、少なくとも2つの画像パッチを受信するステップと、受信した画像パッチを比較するステップにより構成される。ここで、当該比較するステップは、各画像パッチから複数の対応関係にある部分画像ペアを抽出するステップと、すべての部分画像ペア間で正規化局所類似度スコア(normalized local similarity score)を算出するステップと、すべての部分画像ペア間の正規化局所類似度スコアの総和を計算して総マッチングスコアを算出するステップと、総マッチングスコアを画像パッチの類似度指標として用いて、当該総マッチングスコアに基づき、対応関係を持つ類似画像パッチを決定するステップとで構成される。
他の実施形態では、この発明は、画像パッチ間の類似性を比較するためにコンピュータにより実施される方法であって、それぞれが少なくとも一つの画像パッチを供給する少なくとも2つの画像供給源から、少なくとも2つの画像パッチを受信するステップと、、受信した画像パッチを比較するステップにより構成される。ここで、当該比較するステップは、各画像パッチから複数の対応関係にある部分画像ペアを抽出するステップと、すべての部分画像ペア間で正規化局所類似度スコア(normalized local similarity score)を算出するステップと、すべての部分画像ペア間の正規化局所類似度スコアの総和を計算して総マッチングスコアを算出するステップと、総マッチングスコアを画像パッチの類似度指標として用いるステップとで構成される。
なお、各画像パッチの部分画像は、互いに重なり合っていてもよい。
また、正規化局所類似度スコアは、正規化相互相関(NCC)又は(加重ウィンドウを使用する)加重NCCを使用して算出することができる。この算出処理は、各部分画像について平均値と標準偏差を算出するステップと、正規化相互相関係数を算出するステップとで構成される。
さらに、画像パッチと、リストされた他のパッチとを比較して、当該リスト中の最大類似パッチを見出すことができる。
少なくとも2台の画像供給源は、少なくとも2台のカメラで構成することができ、一方のカメラ画像からの画像パッチと他方のカメラ画像からの画像パッチとを比較して、対応関係を持つ画像パッチを特定することができる。
また、視差に基づく奥行き値は、上記算出されたパッチ類似度を用いて推定することができる。
さらに、画像パッチは、ロボット又は自動車に搭載された一つ又は複数のカメラから抽出することができる。
正規化局所類似度スコアは、局所マッチング指標を与えるNCCマッチングにより算出することができる。この場合、総マッチングスコアは局所マッチング指標を使用して算出することができ、総マッチングスコアを算出することにより、局所計算から生じる雑音が抑制される。
また、総マッチングスコアは、局所マッチングスコアの平均化、加重平均化、勝者独り勝ち選択、又は、メジアン選択により算出することができる。
さらに、画像パッチは任意のデータベクトルとすることができる。画像パッチは、数値を付した個別の要素で構成することができる。
上記個別の要素に付す数値は、グレイスケールで表わした画素値とすることができる。
画像パッチは、複数の層又は複数の次元で構成されるものとすることができる。
画像パッチは、RGB画像パッチとすることができる。
少なくとも2台の画像供給源は、1台のカメラから異なる時刻において取得した画像とすることができる。
また、ある時刻における画像パッチを他の時刻における画像パッチと比較して、対応関係を持つ画像パッチを特定することができる。
さらに、上記算出されたパッチ類似度は、画像パッチに基づく動き推定に用いることができる。
画像供給源の一方は、物体を描写するテンプレート画像パッチとすることができる。この場合、テンプレート画像パッチはデータベース及び/又はメモリからロードされ、このテンプレート画像パッチと、第2の又は別の画像供給源から抽出された画像パッチとを比較することにより、当該画像内の物体が特定される。なお、 テンプレート画像パッチは、事前に取得しておくことができる。
この方法は、物体の時間変化を追跡するため、物体追跡手法と同様の予測と確認の繰り返し処理を行う時間的フレームワークを備えたシステムに組み込まれ、予測関数により取得され選択された画像パッチ集合に限定して類似度計算を実行することことができる。
また、平均化処理及びフィルタリング処理は、例えば、分離可能なフィルタ又はボックスフィルタを用いることにより、最適化することができる。
他の実施形態では、この発明は、少なくとも1台のカメラと、計算ユニットとを備え、上述したいずれかの方法を実行して、奥行き推定、動き推定、物体検出、及び/又は、物体追跡を行うシステムを装備する、ロボット、陸上車両、航空車両、海上車両、又は、宇宙車両である。
更に他の実施形態では、この発明は、自車両に備えたステレオカメラの撮影範囲内の少なくとも1つの物体についての奥行き推定値を計算するため、上述したいずれかの方法を実行するドライバ支援システムを備えた車両である。
更に他の実施形態では、この発明は、コンピュータで実行されることにより前述の方法を実施するコンピュータ・プログラムである。
センサは、少なくとも2台のカメラとすることができ、一のカメラ画像からの画像パッチと他のカメラ画像からの画像パッチとを比較することにより、対応関係を有する画像パッチが特定される。
他の実施形態では、この発明は、画像パッチ間の類似性を比較する方法であって、該方法は、異なる時刻に抽出された少なくとも2つの画像パッチをセンサから受信するステップと、該受信した画像パッチを比較するステップと、を有し、前記比較するステップは、受信した各画像パッチから対応関係にある複数の部分画像ペアを抽出するステップと、全ての前記部分画像ペア間の正規化局所類似度スコアを算出するステップと、全ての前記部分画像ペア間の正規化局所類似度スコアの総和を計算して総マッチングスコアを算出するステップと、総マッチングスコアを画像パッチの類似度指標として用いて、総マッチングスコアに基づき対応関係を持つ画像パッチを特定するステップと、により構成される。
画像パッチは、一つの移動カメラから異なる時刻に抽出するものとすることができ、この場合には、一の時刻に抽出された画像パッチと他の時刻に抽出された画像パッチとを比較して、対応関係を持つ画像パッチを特定することができる。
また、算出したパッチ類似度を用いて、画像パッチに基づく動き推定を行うことができる。
更に他の実施形態では、この発明は、物体を描写するテンプレート画像パッチとセンサから取得した画像パッチとの間の類似性を比較する方法であって、該方法は、センサから少なくとも1つの画像パッチを受信するステップと、受信した画像パッチをテンプレートパッチと比較するステップと、を有し、前記比較するステップは、テンプレート画像パッチとセンサから受信した画像パッチから複数の対応関係にある部分画像ペアを抽出するステップと、全ての前記部分画像ペア間の正規化局所類似度スコアを算出するステップと、全ての前記部分画像ペアの正規化局所類似度スコアの総和を計算することにより、総マッチングスコアを算出するステップと、総マッチングスコアを画像パッチの類似度指標として用いて、総マッチングスコアに基づき、テンプレートパッチに対し対応関係を持つ画像パッチを決定して、画像内のテンプレート物体を特定するステップと、により構成される。ここで、テンプレート画像は、予め他の手段によって取得され、データベース又はメモリからロードされるものとする。
この方法は、時間的フレームワークを持つシステムに組み込んで、物体の時間的変化を追跡することができる。これにより、類似度計算を、時間的フレームワークにより予測された少数のパッチ集合に限定して実行することができる。
更に他の実施形態では、この発明は、上述した方法を実行するシステムを備えたロボット又は自律車両である。
以下に示す説明及び図面により、本発明のさらなる具体的手段及び機能を明らかにする。
この新しい方法は、効率的に実施することができ、かつ、高コントラストの外れ値に対する感度が低いことから、上記従来型アプローチの性能を実質的に改善することができるのみならず、そのレベルを最先端手法と競合する水準にまで引き上げることができる。
左上画像は極めて高いコントラストを持つ矩形を付した左ビーナス画像であり、中央上から右下までの画像は、それぞれフィルタサイズ3、9、21、55、149として平均値を正規化した画像、及び標準偏差を正規化した画像である。フィルタサイズが大きいほど、高コントラスト矩形の近傍が抑制されることがわかる。 (a)及び(b)は、ビーナス風景の左ステレオ画像及び右ステレオ画像から切り抜いた画像である。(a)の中の矩形パッチを用い、視差を変化させて右画像との相関値を算出した。ここでは、視差とは、比較対象であるパッチ間のx方向における相対的な位置ずれ量をいう。(c)及び(d)は、それぞれ、NCC及びSNCCの結果である。(b)には、NCCによる最良マッチングパッチが実線矩形により、SNCCによる最良マッチングパッチが破線矩形により描かれている。(c)及び(d)の垂直線は、実際の視差を示している。 ビーナス、ツクバ、テディ、及び、コーンの風景を写した左ステレオ画像である。 対応関係が検出された注目領域(非オクルージョン領域:nonocc)と深さ不連続性を生じた注目領域(disc)についての、従来のステレオ画像処理による処理結果を示す図である。ここで、左列が非オクルージョン領域における結果を示し、右列が深さ不連続性が生じた領域における結果を示している。各プロットは、本発明の2段階マッチングSNCCと、SADと、NCCと、RTにおける、パッチ・ウィンドウ・サイズに対する不良画素の割合を示している。 上から順に、ビーナス、ツクバ、テディ及びコーンの風景の視差マップである。左列は、実測に基づく奥行きデータを示し、右列は、従来型ステレオ法に対するSNCCの適用結果を示している。輝度が奥行きを表わしており、近い画素は明るく、遠い画素は暗く示されている。 2つの画像パッチP1及びP2についてNCCを算出する際の処理を示すフロー図である。まず、各パッチについて平均と標準偏差が算出され、次に、平均及び標準偏差を用いて各パッチの値が正規化された後、最後にマッチングスコアが算出される。 2つの画像パッチP1及びP2についてSNCCを算出する際の処理を示すフロー図である。まず、画像パッチから、対応関係にある部分画像が抽出される。上左部分に示すように、部分画像は互いに重なり合っていてもよい。次に、すべての部分画像ペアについてNCCを算出し、局所類似度スコアを得る。最後に、局所類似度スコアの総和を算出し、入力パッチの総マッチングスコアを得る。
NCCフィルタリングに関する上記ジレンマを解決するため、2段階フィルタリングを用いる。
図7は、「加算正規化相互相関」(SNCC)と呼ぶ2段階フィルタリングの処理フローである。第1のステップでは、画像パッチ(A)が部分画像(B)に分割される。図7左上のはめ込み図(B')に示すように、これらの部分画像は重なり合っていてもよい。また、2つのパッチは同様に分割されるので、一のパッチの各部分画像は、それぞれ、他のパッチの中に、対応する部分画像を有している(C)。
第2のステップでは、対応関係にある各部分画像ペアが、NCC計算(D)の処理に与えられる。図7に示すNCCと書かれた各ボックスは、図6に示す処理に置き代えることができる。これにより、各部分画像ペアの局所類似度スコアを得ることができる。これらのスコアは、第3のステップ(E)において加算され、総マッチングスコアが算出される。最後に、類似度評価(F)の処理が行われる。
上記加算はいくつかの方法で行うことができる。最も簡単な方法は、局所マッチングスコアの平均化処理である。この平均化処理は、重みづけを行うことにより加重平均化処理となる。他の方法は、勝者独り勝ちスキーム処理、即ち、最良局所スコアの選択、又は、メジアンの選択(即ち、局所スコアをソートして、中央値を選択すること)である。上記加算の方法としては、上記のほか、個別数値の集合からその総和を算出する関数であれば、どのような関数を用いてもよい。
上述したように、図6は、本発明のNCC算出部分の処理を示している。対応関係にある2つの部分画像P’及びP’が与えられると(A)、まず、各部分画像の平均値と標準偏差が算出される(B)。次に、各部分画像内の値から、平均値が減算された後、分散により除算されて、各部分画像内の値が正規化される(C)。最後に、画素毎の乗算と、その後に続く平均化のための加算とにより、部分画像ペアの類似性を示す局所マッチングスコアが得られる(D)。
NCCでは、非常に小さいサイズの部分画像、例えば3×3や5×5の正方形の部分画像が用いられる。これにより、画像内の微小構造が保存され、加算ステップにより評価における雑音を低減することができる。これは、新しい類似度スコア関数が、次式で定義されることを意味する。
ここで、ρ”は相関算出式(1)によって定義され、p’(x)は加算フィルタの画素座標の集合である。
NCC算出処理と同様の例えば3×3サイズの部分画像を用いて、図2aから抽出されたパッチに新しいマッチングコストを適用する。これらの相関値(図2d)を、標準的なNCCの結果(図2c)と比較すると、特性の改善が認められる。新しいSNCC手段を用いると、強いコントラストエッジの影響は、第2のピークとして残存してはいるものの、劇的に低減されている。SNCCの最良マッチングパッチは、図2bに破線矩形として描かれている。この破線矩形を見ると、SNCCの最良マッチングパッチは、NCCの最良マッチングパッチ(実線矩形)より、目標パッチに近いことがわかる。
〔計算複雑性〕
従来型のステレオ処理に加算正規化相互相関(SNCC)を用いた場合の計算複雑性は、O(nd)である。ここで、nは画素数であり、dは視差の数である。このステレオ処理は、ボックスフィルタを用いて、正規化相互相関の算出と加算処理を行うことにより実行することができる。NCCフィルタリングに際しボックスフィルタをどのように用いるかを示すため、まず、相関式(1)を次のように書き換える。
この式は、左右のステレオ画像の両方について、予め平均及び標準偏差を算出しておくことができることを示している。各視差について残っている処理は、上式の中の加算項である。事前計算フェーズにおいて平均及び標準偏差について同様の加算処理が行われる場合、この加算処理にボックスフィルタを適用することができる。SNCCの第2段階における相関値の加算処理も、ボックスフィルタを用いて行われる。
一つの視差について1画素のマッチングコストを計算する際には、全部で6回の乗算、4回の加算、及び、5回の減算を必要とする(但し、事前計算フェーズを含まない)。ボックスフィルタを用いるため、これら演算の回数は、使用するフィルタサイズには依存しない。しかし、本発明の方法におけるこの利点は、任意形状の、非ボックス形のパッチにも当てはまる。
本発明の方法を、ステレオカメラにおける奥行きの推定に適用し、当該方法の性能を評価した。ここでは、ミドルベリー・ステレオ・デプス・ベンチマーク画像(図3)を使用した。視覚的に比較できるように、図5に、視差マップ(右列)を実測値マップ(左列)と共に示した。視差マップの品質は非常に良好であり、SNCCを用いて大幅な改善が図れることがわかる。
本発明は、加算正規化相互相関(SNCC)、即ち、従来型のステレオ画像計算のためのコスト関数に係るものである。この加算・正規化相関は2段階アプローチであり、第1段階では、微小なフィルタを用いて正規化相関(NCC)を実行し、第2段階では、結果として得られた相関係数の総和を算出する。この2段階処理により、NCCが一般的傾向として持つ、奥行き不連続性の不鮮明さを低減することができる。これらの効果は、実験により確認されている。SNCC方法と、広く用いられているコスト関数とを比較すると(下表及び図4を参照)、SNCCは、従来型のステレオ・アプローチの性能を著しく改善することが分かる。
さらに、SNCCは、ボックスフィルタを用いることにより、非常に効率的に実施することができる。ボックスフィルタを用いると、ステレオマップをO(nd)により計算することができる。なお、SNCCは、従来型のオプティカル・フロー・アルゴリズムも改善することができる。これは、当該アルゴリズムが、ステレオ計算と非常に似ているためである。また、SNCCは、NCCを使用する種々の用途のうち、高コントラストの外れ値の存在下では機能しないというNCCの特性により悪い影響を被っている、いかなる用途にも使用することができる。例えば、視覚追跡や物体検出の用途も、この新しいコスト関数の恩恵を受けることができる。
〔さらなる実施形態〕
本発明に係るSNCCは、上記と同様の手法により、種々の時間間隔で取得されたカメラ画像に基づく動き推定にも用いることができる。ステレオ処理との相違点は、対応関係にある画像パッチが水平方向にシフトするだけでなく、一方のカメラ画像から他方のカメラ画像まで任意にシフトすることである。このため、多数の画像パッチを比較することとなるが、処理方法は全体として同じである。
本発明に係るSNCCは、上記と同様の手法により、物体を表現するテンプレート画像パッチを用いて物体検出に用いることができる。このテンプレート画像パッチは、予め他の手段により取得され、データベース又はメモリからロードされる。ステレオ処理との相違点は、種々の画像から抽出された画像パッチを比較するのではなく、1つの画像から抽出された画像パッチと、物体を表現するテンプレート画像パッチとを比較することである。ただし、類似度スコアを計算するSNCCの処理は同じである。
本発明に係るSNCCは、上記と同様の手法により、時間的フレームワークにおける物体追跡に用いることができる。このようなフレームワークは、ある特定の座標系における物体位置や速度、さらには、より高次の運動パラメータを追跡する。この座標には、例えば、カメラの相対座標やワールド座標を用いることができる。物体に関するこれらの運動パラメータから、時間と共に変化するその後の当該物体の位置を予測することができる。さらに、時間的追跡フレームワークは、例えば、画像テンプレートを用いて、物体の外観も追跡する。この場合には、運動パラメータと物体テンプレートを最新状態に維持するべく、現在における既知の物体運動パラメータに基づいて行われた予測を確認し修正する必要がある。このため、予測された位置周辺の画像パッチの集合を、現在の物体テンプレートと比較しなければならない。時間的フレームワークは、最良マッチング画像パッチを用いて、運動パラメータと物体テンプレートを更新することができる。
〔要約〕
・正規化相互相関(NCC)は、多数の用途(ステレオ計算、動き計算、追跡、汎用パターンマッチングなど)における標準的なマッチング規準である。
・NCCは、2つのパターンPとPとの間のマッチングスコアrを計算する。このマッチングスコアは、バイアス及び線形利得に対する不変性を持つ。
・より大きいパターンをマッチングする場合、NCCは、低コントラスト構造の影響よりも高コントラスト構造の影響を大きく受ける傾向を持つ。このため、低コントラスト構造がマッチしなくても(マッチしても)、高コントラスト構造だけがマッチすれば(マッチしなければ)、誤って良好な(不良な)マッチングとなることが多い。
・特に、高コントラスト構造の僅かな部分に起因して、上述のようなミスマッチングが発生してしまう。
・NCCの問題は、2段階マッチングを適用することにより解決される。
・マッチングの対象である2つのパターンについて、マッチングプロセスをローカル・プロセスとグローバル・プロセスに分解する。ローカルプロセスは、局所マッチング指標を与えるNCCマッチングによって支配される。これらの局所マッチング指標は、依然として、上述したのと同じ高コントラスト問題に陥る傾向があるが、この影響は局所領域に限定される。パターンの分割部分や重なり部分が、このような局所領域となり得る。
・グローバル・プロセスは、局所指標を考慮して、実際のマッチングスコアを計算する。これは、平均化、勝者独り勝ち選択、又は、メジアン選択によって行われる。グローバル・プロセスは、局所プロセスから生じる雑音を抑制する。2段階マッチングによれば、すべての要素がマッチングスコアに同等の寄与をもたらすようになるので、高コントラスト構造の問題点が解消する。
・ランク順序符号化も、大きなパターンについての高コントラスト構造の影響を低減しようとするが、NCCに関連しない全く異なる方式で機能する。
・請求項では、画像パッチに適用する形態で本発明に係る方法を記述しているが、この方法は任意のデータベクトルについても同様に適用することができる。
・データベクトル又は画像パッチは、数値、例えば、グレイスケールの画素値をもつ個別の要素により構成される。
・さらに、画像パッチは、複数の層又は複数の次元、例えば、RGB画像パッチによって構成することもできる。
・画像パッチの部分画像やデータベクトルの部分ベクトルは、画像パッチやデータベクトルの要素の部分集合である。

Claims (24)

  1. コンピュータにより実行される、ステレオカメラ・システムから取得された2つの画像パッチ間の類似性を比較する方法であって、
    それぞれが少なくとも一つの画像パッチを供給する少なくとも2つの視覚センサから、少なくとも2つの画像パッチを受信するステップと、
    受信した画像パッチを比較するステップとを有し、
    前記比較するステップは、
    各画像パッチから複数の対応関係にある部分画像ペアを抽出するステップと、
    すべての前記部分画像ペア間で正規化局所類似度スコアを算出するステップと、
    すべての前記部分画像ペア間の前記正規化局所類似度スコアを総和を計算して総マッチングスコアを算出するステップと、
    前記総マッチングスコアを画像パッチの類似度指標として用い、前記総マッチングスコアに基づき、対応関係を持つ類似画像パッチを決定するステップと、
    を有する方法。
  2. コンピュータにより実行される、画像パッチ間の類似性を比較する方法であって、
    それぞれが少なくとも一つの画像パッチを供給する少なくとも2つの画像供給源から、少なくとも2つの画像パッチを受信するステップと、
    受信した画像パッチを比較するステップとを有し、
    前記比較するステップは、
    各画像パッチから複数の対応関係にある部分画像ペアを抽出するステップと、
    すべての前記部分画像ペア間で正規化局所類似度スコアを算出するステップと、
    すべての前記部分画像ペア間の前記正規化局所類似度スコアを総和を計算して総マッチングスコアを算出するステップと、
    前記総マッチングスコアを画像パッチの類似度指標として用いるステップと、
    を有する方法。
  3. 各画像パッチの前記部分画像が互いに重なり合っている、請求項2に記載の方法。
  4. 前記正規化局所類似度スコアを計算するステップは、
    前記各部分画像の平均と標準偏差を算出するステップと、
    正規化相互相関係数を算出するステップと、
    を有し、
    正規化相互相関(NCC)、及び/又は、加重ウィンドウを使用する加重NCCを用いて、前記正規化局所類似度スコアを計算する、請求項2又は3に記載の方法。
  5. 一の画像パッチを、リストされた他の画像パッチと比較することにより、最も類似度の高い画像パッチを特定する、請求項1乃至4のいずれかに記載の方法。
  6. 前記少なくとも2台の画像供給源は少なくとも2台のカメラであり、一方のカメラ画像からの前記画像パッチを、他方のカメラ画像からの前記画像パッチと比較して、対応関係を持つ画像パッチを特定する、請求項1乃至6のいずれかに記載の方法。
  7. 視差に基づく奥行き値が、前記算出したパッチ類似度を用いて推定される、請求項1乃至6のいずれかに記載の方法。
  8. 前記画像パッチは、ロボット又は自動車に搭載された1台又は複数台のカメラから抽出される、請求項1乃至8のいずれかに記載の方法。
  9. 正規化局所類似度スコアが、局所マッチング指標を与えるNCCマッチングによって算出され、
    前記総マッチングスコアは、前記局所マッチング指標を使用して算出され、
    前記総マッチングスコアの算出により局所計算から生じる雑音が抑制される、
    請求項1乃至9のいずれかに記載の方法。
  10. 前記総マッチングスコアが、局所マッチングスコアの平均化、加重平均化、勝者独り勝ち選択、又は、メジアン選択により算出される、請求項1乃至9のいずれかに記載の方法。
  11. 前記画像パッチは任意のデータベクトルである、請求項1乃至11のいずれかに記載の方法。
  12. 前記画像パッチは、数値が付された個別の要素で構成される、請求項1乃至11のいずれかに記載の方法。
  13. 前記個別の要素に付された数値は、グレイスケールで表わした画素値である、請求項12に記載の方法。
  14. 前記画像パッチは、複数の層又は複数の次元で構成される、請求項1乃至13のいずれかに記載の方法。
  15. 前記画像パッチは、RGB画像パッチである、請求項1乃至14のいずれかに記載の方法。
  16. 前記少なくとも2台の画像供給源は、一つのカメラから異なる時刻に取得した画像である、請求項1乃至15のいずれかに記載の方法。
  17. ある時刻における前記画像パッチを、他の時刻における画像パッチと比較して、対応関係を持つ画像パッチを特定する、請求項16に記載の方法。
  18. 前記算出されたパッチ類似度が、画像パッチに基づく動き推定に用いられる、請求項1乃至17のいずれかに記載の方法。
  19. 一方の画像供給源は、データベース及び/又はメモリからロードされる、物体を描写したテンプレート画像パッチであり、該テンプレート画像パッチと第2又は別の画像供給源から抽出された画像パッチとを比較して、前記画像内の物体を特定する、請求項1乃至18のいずれかに記載の方法。
  20. 物体の時間変化を追跡するため、物体追跡手法と同様の予測と確認を繰り返し実行する時間的フレームワークを備えたシステムに組み込まれ、予測関数により取得され選択された画像パッチ集合に限定して類似度計算を実行する、請求項1乃至19のいずれかに記載の方法。
  21. 平均化処理とフィルタリング処理とが、分離可能なフィルタ及び/又はボックスフィルタを用いて最適化される、請求項1乃至20のいずれかに記載の方法。
  22. 少なくとも1台のカメラと、計算ユニットとを備え、請求項1乃至21のいずれかに記載の方法を実行して、奥行き推定、動き推定、物体検出、及び/又は、物体追跡を行うシステムを装備する、ロボット、陸上車両、航空車両、海上車両、又は、宇宙車両。
  23. 自車両に備えたステレオカメラの撮影範囲内の少なくとも1つの物体についての奥行き推定値を計算するため、請求項1乃至21のいずれかに記載の方法を実行するドライバ支援システムを備えた車両。
  24. コンピュータで実行されることにより、請求項1乃至21のいずれかに記載の方法を実施するコンピュータ・プログラム。
JP2011097193A 2010-05-14 2011-04-25 対応点探索のための画像処理方法 Expired - Fee Related JP5178875B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
EP10162822 2010-05-14
EP10162822.0 2010-05-14
EP10173087.7 2010-08-17
EP10173087.7A EP2386998B1 (en) 2010-05-14 2010-08-17 A Two-Stage Correlation Method for Correspondence Search

Publications (2)

Publication Number Publication Date
JP2011243194A true JP2011243194A (ja) 2011-12-01
JP5178875B2 JP5178875B2 (ja) 2013-04-10

Family

ID=42719248

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011097193A Expired - Fee Related JP5178875B2 (ja) 2010-05-14 2011-04-25 対応点探索のための画像処理方法

Country Status (3)

Country Link
US (1) US9208576B2 (ja)
EP (1) EP2386998B1 (ja)
JP (1) JP5178875B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013190421A (ja) * 2012-03-14 2013-09-26 Honda Motor Co Ltd 車両において通行物体位置検出を向上する方法
JP2015133108A (ja) * 2014-01-10 2015-07-23 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH 関連する画像を分析する方法、画像処理システム、そのシステムを備える乗り物、及びコンピュータプログラム製品
JP2016109587A (ja) * 2014-12-08 2016-06-20 株式会社日本自動車部品総合研究所 画像処理装置
US9508152B2 (en) 2012-01-11 2016-11-29 Samsung Electronics Co., Ltd. Object learning and recognition method and system
JP2016198297A (ja) * 2015-04-10 2016-12-01 キヤノン株式会社 光音響装置および画像処理方法
JP2017182606A (ja) * 2016-03-31 2017-10-05 セコム株式会社 特徴量抽出装置

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9294690B1 (en) * 2008-04-10 2016-03-22 Cyan Systems, Inc. System and method for using filtering and pixel correlation to increase sensitivity in image sensors
JP5824953B2 (ja) * 2011-08-09 2015-12-02 株式会社ソシオネクスト 画像処理装置、画像処理方法及び撮像装置
KR20130024504A (ko) * 2011-08-31 2013-03-08 삼성전기주식회사 삼차원 카메라 시스템 및 주시각 조정 방법
US9373040B2 (en) * 2011-11-01 2016-06-21 Google Inc. Image matching using motion manifolds
KR101875532B1 (ko) * 2011-11-23 2018-07-11 엘지이노텍 주식회사 계층적 스테레오 매칭 장치 및 방법
GB2507558A (en) * 2012-11-05 2014-05-07 Toshiba Res Europ Ltd Image processing with similarity measure of two image patches
EP2757524B1 (en) 2013-01-16 2018-12-19 Honda Research Institute Europe GmbH Depth sensing method and system for autonomous vehicles
US8958651B2 (en) 2013-05-30 2015-02-17 Seiko Epson Corporation Tree-model-based stereo matching
EP2960858B1 (en) 2014-06-25 2018-08-08 Honda Research Institute Europe GmbH Sensor system for determining distance information based on stereoscopic images
CN104463899B (zh) * 2014-12-31 2017-09-22 北京格灵深瞳信息技术有限公司 一种目标对象检测、监控方法及其装置
US9630319B2 (en) 2015-03-18 2017-04-25 Irobot Corporation Localization and mapping using physical features
JP2017099616A (ja) * 2015-12-01 2017-06-08 ソニー株式会社 手術用制御装置、手術用制御方法、およびプログラム、並びに手術システム
DE102016207089A1 (de) 2016-04-26 2017-10-26 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Vergleichen zweier Karten mit darin hinterlegten Landmarken
DE102016123058A1 (de) 2016-11-30 2018-05-30 Connaught Electronics Ltd. Optischer Fluss mit Konfidenzschätzung
US10671881B2 (en) * 2017-04-11 2020-06-02 Microsoft Technology Licensing, Llc Image processing system with discriminative control
EP3506205A1 (en) 2017-12-27 2019-07-03 Thomson Licensing Method and apparatus for depth-map estimation
CN110881117A (zh) * 2018-09-06 2020-03-13 杭州海康威视数字技术股份有限公司 一种画面间区域映射方法、装置及多相机观测系统
CN111080689B (zh) * 2018-10-22 2023-04-14 杭州海康威视数字技术股份有限公司 确定面部深度图的方法和装置
CN112199998B (zh) * 2020-09-09 2023-06-20 浙江大华技术股份有限公司 一种人脸识别方法、装置、设备及介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04299474A (ja) * 1991-03-27 1992-10-22 Nec Corp 画像マッチング方式
JP2009104366A (ja) * 2007-10-23 2009-05-14 Suzuki Motor Corp ステレオ画像処理方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6219462B1 (en) * 1997-05-09 2001-04-17 Sarnoff Corporation Method and apparatus for performing global image alignment using any local match measure
US6970591B1 (en) * 1999-11-25 2005-11-29 Canon Kabushiki Kaisha Image processing apparatus
US6606406B1 (en) * 2000-05-04 2003-08-12 Microsoft Corporation System and method for progressive stereo matching of digital images
WO2003007125A2 (en) * 2001-07-12 2003-01-23 Icontrol Transactions, Inc. Secure network and networked devices using biometrics
US7706633B2 (en) * 2004-04-21 2010-04-27 Siemens Corporation GPU-based image manipulation method for registration applications
WO2006002320A2 (en) * 2004-06-23 2006-01-05 Strider Labs, Inc. System and method for 3d object recognition using range and intensity
US7929728B2 (en) * 2004-12-03 2011-04-19 Sri International Method and apparatus for tracking a movable object
WO2006074310A2 (en) * 2005-01-07 2006-07-13 Gesturetek, Inc. Creating 3d images of objects by illuminating with infrared patterns
US8331615B2 (en) * 2007-08-01 2012-12-11 The Board Of Trustees Of The University Of Illinois Match, expand, and filter technique for multi-view stereopsis
US20090172606A1 (en) * 2007-12-31 2009-07-02 Motorola, Inc. Method and apparatus for two-handed computer user interface with gesture recognition
US8155452B2 (en) * 2008-10-08 2012-04-10 Harris Corporation Image registration using rotation tolerant correlation method
US8442304B2 (en) * 2008-12-29 2013-05-14 Cognex Corporation System and method for three-dimensional alignment of objects using machine vision
US8823775B2 (en) * 2009-04-30 2014-09-02 Board Of Regents, The University Of Texas System Body surface imaging
US8861842B2 (en) * 2010-02-05 2014-10-14 Sri International Method and apparatus for real-time pedestrian detection for urban driving

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04299474A (ja) * 1991-03-27 1992-10-22 Nec Corp 画像マッチング方式
JP2009104366A (ja) * 2007-10-23 2009-05-14 Suzuki Motor Corp ステレオ画像処理方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
CSNB201000851001; ブラッドスキー ゲェアリー: 詳解 OpenCV -コンピュータビジョンライブラリを使った画像処理・認識 第3版, 20100224, pp.341-343, 株式会社オライリー・ジャパン *
CSNG200400257009; 斉藤 文彦: 'ブロック照合投票処理を用いた遮へいに強い画像マッチング' 電子情報通信学会論文誌 D-II Vol.J84-D-II, No.10, 20011001, pp.2270-2279, 社団法人電子情報通信学会 *
CSNG200900474007; 山城 容一朗: 'ビューシーケンスに基づく照明変化に頑健な屋内外ナビゲーション' 日本ロボット学会誌 Vol.27, No.7, 20090915, pp.66-71, 社団法人日本ロボット学会 *
JPN6012020120; 斉藤 文彦: 'ブロック照合投票処理を用いた遮へいに強い画像マッチング' 電子情報通信学会論文誌 D-II Vol.J84-D-II, No.10, 20011001, pp.2270-2279, 社団法人電子情報通信学会 *
JPN6012020124; ブラッドスキー ゲェアリー: 詳解 OpenCV -コンピュータビジョンライブラリを使った画像処理・認識 第3版, 20100224, pp.341-343, 株式会社オライリー・ジャパン *
JPN6012020126; 山城 容一朗: 'ビューシーケンスに基づく照明変化に頑健な屋内外ナビゲーション' 日本ロボット学会誌 Vol.27, No.7, 20090915, pp.66-71, 社団法人日本ロボット学会 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9508152B2 (en) 2012-01-11 2016-11-29 Samsung Electronics Co., Ltd. Object learning and recognition method and system
US10163215B2 (en) 2012-01-11 2018-12-25 Samsung Electronics Co., Ltd. Object learning and recognition method and system
US10867405B2 (en) 2012-01-11 2020-12-15 Samsung Electronics Co., Ltd. Object learning and recognition method and system
JP2013190421A (ja) * 2012-03-14 2013-09-26 Honda Motor Co Ltd 車両において通行物体位置検出を向上する方法
JP2015133108A (ja) * 2014-01-10 2015-07-23 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH 関連する画像を分析する方法、画像処理システム、そのシステムを備える乗り物、及びコンピュータプログラム製品
JP2016109587A (ja) * 2014-12-08 2016-06-20 株式会社日本自動車部品総合研究所 画像処理装置
US10033981B2 (en) 2014-12-08 2018-07-24 Denso Corporation Image processing apparatus
JP2016198297A (ja) * 2015-04-10 2016-12-01 キヤノン株式会社 光音響装置および画像処理方法
JP2017182606A (ja) * 2016-03-31 2017-10-05 セコム株式会社 特徴量抽出装置

Also Published As

Publication number Publication date
JP5178875B2 (ja) 2013-04-10
EP2386998A1 (en) 2011-11-16
EP2386998B1 (en) 2018-07-11
US20110279652A1 (en) 2011-11-17
US9208576B2 (en) 2015-12-08

Similar Documents

Publication Publication Date Title
JP5178875B2 (ja) 対応点探索のための画像処理方法
US11562498B2 (en) Systems and methods for hybrid depth regularization
Einecke et al. A two-stage correlation method for stereoscopic depth estimation
US8199977B2 (en) System and method for extraction of features from a 3-D point cloud
CN107844750A (zh) 一种水面全景图像目标检测识别方法
Lo et al. Joint trilateral filtering for depth map super-resolution
WO2012100225A1 (en) Systems and methods for generating a three-dimensional shape from stereo color images
Cherian et al. Accurate 3D ground plane estimation from a single image
Lo et al. Depth map super-resolution via Markov random fields without texture-copying artifacts
Saygili et al. Adaptive stereo similarity fusion using confidence measures
Xu et al. Real-time stereo vision system at nighttime with noise reduction using simplified non-local matching cost
KR20150053438A (ko) 스테레오 매칭 시스템과 이를 이용한 시차 맵 생성 방법
Srikakulapu et al. Depth estimation from single image using defocus and texture cues
Zhang et al. Target tracking for mobile robot platforms via object matching and background anti-matching
CN107680083B (zh) 视差确定方法和视差确定装置
CN113723432B (zh) 一种基于深度学习的智能识别、定位追踪的方法及系统
Kröhnert Automatic waterline extraction from smartphone images
Fan et al. Collaborative three-dimensional completion of color and depth in a specified area with superpixels
Tran et al. Variational disparity estimation framework for plenoptic images
Liu et al. A novel method for stereo matching using Gabor Feature Image and Confidence Mask
Kim et al. A high quality depth map upsampling method robust to misalignment of depth and color boundaries
Morales et al. Kalman-filter based spatio-temporal disparity integration
Mehltretter et al. Illumination invariant dense image matching based on sparse features
Hamzah et al. Gradient Magnitude Differences and Guided Filter for Stereo Video Matching Algorithm
Pereira Nunes et al. A mosaicking technique for object identification in underwater environments

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130108

R150 Certificate of patent or registration of utility model

Ref document number: 5178875

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees