JP2008107860A - 画像対間の変換を推定する方法、画像を表現する方法、並びにこの方法のための装置、制御装置、及びコンピュータプログラム - Google Patents
画像対間の変換を推定する方法、画像を表現する方法、並びにこの方法のための装置、制御装置、及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2008107860A JP2008107860A JP2006170319A JP2006170319A JP2008107860A JP 2008107860 A JP2008107860 A JP 2008107860A JP 2006170319 A JP2006170319 A JP 2006170319A JP 2006170319 A JP2006170319 A JP 2006170319A JP 2008107860 A JP2008107860 A JP 2008107860A
- Authority
- JP
- Japan
- Prior art keywords
- image
- points
- transformation
- local
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 128
- 230000009466 transformation Effects 0.000 title claims abstract description 128
- 238000004590 computer program Methods 0.000 title claims 2
- 238000000844 transformation Methods 0.000 claims abstract description 33
- 238000011524 similarity measure Methods 0.000 claims description 32
- 238000013519 translation Methods 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 15
- 238000006243 chemical reaction Methods 0.000 claims description 12
- 230000001419 dependent effect Effects 0.000 claims description 2
- 230000006872 improvement Effects 0.000 abstract description 3
- 230000003252 repetitive effect Effects 0.000 abstract 1
- 230000014616 translation Effects 0.000 description 15
- 238000004422 calculation algorithm Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 238000013459 approach Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 8
- 238000007781 pre-processing Methods 0.000 description 7
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 238000013507 mapping Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000011084 recovery Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000005311 autocorrelation function Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 230000006641 stabilisation Effects 0.000 description 2
- 238000011105 stabilization Methods 0.000 description 2
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000002620 method output Methods 0.000 description 1
- 238000001000 micrograph Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002285 radioactive effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/35—Determination of transform parameters for the alignment of images, i.e. image registration using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
【課題】高精度及びロバスト性が、変更された対数極座標空間でのRST変換パラメータの局所推定と、特徴点の選択の制御と、RANSAC推定器による反復大域改良との組み合わせにより実現する。
【解決手段】画像対間の変換を推定する方法は、画像の複数の領域の局所変換を推定して、推定変換セットを導出することと、当該推定局所変換のサブセットを画像の推定大域変換として選択することを含む。
【選択図】 図1
【解決手段】画像対間の変換を推定する方法は、画像の複数の領域の局所変換を推定して、推定変換セットを導出することと、当該推定局所変換のサブセットを画像の推定大域変換として選択することを含む。
【選択図】 図1
Description
本発明は、画像レジストレーションの方法及び装置に関する。画像レジストレーションとは、2つ以上の画像の、たとえば回転、平行移動、及びスケーリングを使用した幾何学的な位置合わせを指す。画像は、たとえば、異なるセンサにより、異なる視点から、又は異なる時間において等の、異なる条件下で撮影された同じシーンに関連し得る。画像レジストレーションの目的の1つは、画像セットを同じ構成で提示することによって画像セットの解析を容易にすることである。医用撮像、衛星画像の解析、及び画像シーケンス安定化を含め、画像レジストレーションには多くの用途がある。
従来技術による画像レジストレーション方法としては、画像強度分布に基づく方法と、エッジ、角(corner)、閉境界領域等の画像内の特徴を使用する特徴ベースの方法とが挙げられる。
局所構造情報(特徴)の位置特定が一般に、画像強度分布に基づく位置特定よりも正確であるため、特徴ベースの画像レジストレーション法が多くの場合に使用される。特徴ベースの手法は、アフィン変換又は視点変換等の複雑な画像間変換を処理することができる。この手法によっては、異なる性質の画像のレジストレーションも可能である。特徴ベースの方法に共通した欠点は、いくつかの特徴がたとえば局所変換(歪み)又は大きな照度変化により欠損する場合に、上手くいかないことがあることである。すべての特徴ベースのマッチング法の極めて重要なポイントは、画像間で考えられるすべての変換に対して不変の区別的で且つロバストな特徴記述に頼ることである。
レジストレーションする画像の多様性及び発生し得る劣化の種類が様々であることにより、すべてのレジストレーション作業に適用することが可能な普遍的な方法を設計することは困難である。あらゆる方法が、想定される種類の画像間の幾何学的変換のみならず、放射性変形及び雑音による破損も考慮にいれるべきである。他の設計要因としては、要求されるレジストレーション精度及びさらなる用途依存要件が挙げられる。
それにもかかわらず、レジストレーション法の多くは、以下のステップから成る。
○特徴検出。きわだった区別的な特徴(閉境界領域、エッジ、輪郭、線の交点、角等)が手動で又は自動的に検出される。後続処理のために、これらの特徴は通常、関心点と呼ばれるそれぞれの代表点(たとえば、重心、終線点、区別的な点)で表される。
○特徴マッチング。このステップでは、ソース画像で検出された特徴とターゲット画像で検出された特徴との間の対応が確立される。各種特徴記述子及び類似性測度が特徴間の空間的関係に対する制約と共に、この目的で使用される。
○変換モデル推定。或る画像(ソース画像)を別の画像(ターゲット画像)に位置合わせするいわゆる写像関数の種類及びパラメータが、推定される。写像関数のパラメータは、確立された特徴の対応性に基づいて計算される。
○特徴検出。きわだった区別的な特徴(閉境界領域、エッジ、輪郭、線の交点、角等)が手動で又は自動的に検出される。後続処理のために、これらの特徴は通常、関心点と呼ばれるそれぞれの代表点(たとえば、重心、終線点、区別的な点)で表される。
○特徴マッチング。このステップでは、ソース画像で検出された特徴とターゲット画像で検出された特徴との間の対応が確立される。各種特徴記述子及び類似性測度が特徴間の空間的関係に対する制約と共に、この目的で使用される。
○変換モデル推定。或る画像(ソース画像)を別の画像(ターゲット画像)に位置合わせするいわゆる写像関数の種類及びパラメータが、推定される。写像関数のパラメータは、確立された特徴の対応性に基づいて計算される。
ソース画像及びターゲット画像において検出された特徴は、それぞれの近傍の画像強度値、特徴の空間分布、又は特徴の象徴的な記述に基づいてマッチングすることができる。方法によっては、特徴の対応性を探している間に同時に写像関数のパラメータを推定し、そうして第2のレジストレーションステップ及び第3のレジストレーションステップを結合するものもある。
主に特徴間の空間的関係に基づく方法は、通常、検出された特徴が曖昧な場合、又は検出された特徴の近傍が局所的に歪んでいる場合に適用される。関心点間の距離及びそれらの空間的分布についての情報を利用する。Shih-Hsu Chang他著「Fast Algorithm For Point Pattern Matching: Invariant To Translations, Rotations And Scale Changes」(Pattern Recognition, Vol. 30, No.2, pp.311-320, 1997)では、特定の変換後に、ソース画像内の特徴に隣接する所与の範囲内に入るターゲット画像内の特徴数が評価される。次いで、最高得点を有する変換パラメータが、有効推定値として設定される。
Manjunath他著「A contour-based approach to multisensor image registration」(IEEE Transactions on Image Processing, vol. 4, no.3, pp.320-334, Mar. 1995)には、領域境界及び他の濃いエッジをマッチングプリミティブとして使用する2つの輪郭ベースの方法が提示されている。第1の輪郭マッチングアルゴリズムは、連鎖コード相関及びその他の不変モーメント等の形状類似性基準に基づく。閉輪郭及び開輪郭に沿ったきわだったセグメントは、別個にマッチングされる。この方法は、ランドサット衛星及びスポット衛星からの光学画像等の、輪郭情報がよく保存されている画像対の場合に上手くいく。能動輪郭モデルに基づく柔軟な輪郭マッチング方式を提案している。光学画像からの輪郭を初期状況として使用して、SAR画像内の正確な輪郭位置が、能動輪郭モデルを適用することによって得られる。
空間的関係を利用する方法の代替として、特徴の対応性は、好ましくは、予想される画像の変形に対して不変であるべき記述を使用して推定することができる。最も類似する不変記述を有する、ソース画像及びターゲット画像からの特徴が、対応対として対にされる。不変記述の種類の選択は、特徴特性及び画像の想定される幾何学的変形に依存する。最もよくマッチする特徴対を求めて特徴記述子空間内を探索する際には、通常、しきい値処理を使用する最小距離規則が適用される。Guest他著「Robust point correspondence applied to two- and three-dimensional image registration」(IEEE Transaction on Pattern Analysis and Machine Intelligence 23 (2001) 165-179)では、特徴に対する可能なマッチの信頼性に従って特徴を選択することが提案されている。Hsieh他著「Image registration using a new edge-based approach」(Computer Vision and Image Understanding 67 (1997) 112-130)の研究では、回転差を補償するために線特徴点について計算された角度ヒストグラムを使用する。回転差を除去した後、特徴点対応性が相互相関によって見つけられる。
米国特許第6738532号明細書には、低減解像度変換空間に基づく画像レジストレーション方法が記載されている。回転パラメータ及び平行移動パラメータが階層的枠組みで回復される。粗解像度では、回転角度は、複数の回転を適用し、画像間に最良の類似性を与える角度を選択することによって回復される。平行移動は、回転で位置合わせされた画像間の平行移動の離散したセットを使用して同様に回復される。細かい位置合わせが、局所制御点マッチングにより実現する。
米国特許第6373970号明細書には、画像間の回転、スケール、及び平行移動をレジストレーションする別の方法が記載されている。この方法は、フーリエ位相マッチングを使用する別の変形であり、ソース画像及びターゲット画像の両方に大域的に適用される。
米国特許第6694064号明細書には、空中写真モザイクを作成する関心点ベースの方法が記載されている。点マッチングのタスクは、ジオリファレンス(geo-reference)についての外部情報を用いることによって大幅に簡易化される。このような情報は、画像重複エリアを判断する助けとなり、探索に対して強力な制約を与える。
米国特許出願公開第2003/0030638号明細書には、2Dオブジェクトを含む画像の視点レジストレーション方法が記載されている。この方法は、高位特徴(線、平行対、交点)に基づくビュー間の視点変換(ホモグラフィ)のロバストな推定に基づく。
本発明は、特徴対応性又はエリア相関に基づく従来の手法が上手くいかない、又は信頼性の低い推定値を提供しがちな、未知の条件下で得られた(異なる時間に異なる視点から、かつ場合によっては異なるセンサを使用して得られたものを含む)2つの画像のレジストレーション問題に対処する。
すべての先端技術の関心点検出方法の主な欠点は、不正確な検出(すなわち、位置特定誤差)による関心点位置の不正確性である。位置特定誤差によって局所類似性測度が低くなり、効果のない特徴マッチングに繋がる。本発明の一態様によれば、変更された(modified)対数極座標変換を使用する局所マッチングが導入される。これは、解析から点近傍を除外することによって位置特定誤差を低減することができる。
殆どすべてのレジストレーション方法が、画像スケーリング係数について先験的な仮定を行う。通常、スケーリング係数は、[0.5..2]の区間に属する。大半の実際のケースはこの仮定を満たすが、いくつかのレジストレーションタスク(特に異なるセンサまたはマルチフォーカス用途の場合)では、スケールにより大きな多様性が必要なことがある。対数極座標変換を用いる方法は、スケーリング係数に対して比較的敏感ではない。Wolberg他著「Image Registration For Perspective Deformation Recovery」(Proc. SPIE, Automatic Target Recognition, Orlando, 2000)によれば、Xiea他著「An IDL/ENVI implementation of the FFT-based algorithm for automatic image registration」(Computers & Geosciences 29 (2003) 1045-1055)に記載される方法等、対数極座標変換を周波数領域において使用する方法が、最高で2のスケーリング係数を有する画像を首尾良くレジストレーションすることができる。Wolberg他著「Image Registration For Perspective Deformation Recovery」(Proc. SPIE, Automatic Target Recognition, Orlando, 2000)に記載される別の方法は、10未満の大域スケーリング係数を有するアフィンモデルをレジストレーションすることができる。この方法は、画像領域で働き、平行移動、回転、及びスケール空間において4D全探索を使用し、計算的に高価である。本発明の一態様によれば、対数極座標変換は、各関心点において局所的に使用される。これにより、大きなスケーリング係数のみならず(最高で8のスケーリング係数を有する画像をレジストレーションすることができる)、より複雑な変換(たとえば、視点モデル)も回復する可能性が与えられる。容易にレジストレーションすることができる単純な変換のセットが、複雑性によりレジストレーションが難しいより複雑な変換を局所的にサポートする。
多くのレジストレーション方法、特に関心点マッチングに基づく方法は、画像間の幾何学的関係(たとえば、おおよその重複エリア、平行移動、回転角度…)についての先験的な知識を利用する。このような制約は、ターゲット関心点のサブセットを特定の1つの基準点に対して可能性のあるマッチとして選択するのを助ける。たとえば、ロバストな推定法(RANSAC等)では、通常、組み合わせの複雑性によりすべての特徴マッチを探索することは不可能であるため、このような場合ではさらなる制約が必要である。本発明の実施の形態は、変換に関するいかなる特定の制約にも頼る必要がない。これは、この方法が画像間の変換についてのいかなる予備知識もなしに画像をレジストレーションすることが可能な場合に最も普遍的なケースである。
既知のレジストレーション方法の大半は、幾何学的な変換の不正確な推定値を提供し、したがって不良なレジストレーションを提供する。これは、多くの特徴ベースのレジストレーション方法において、ソース特徴点(すなわち、第1の画像内の特徴点)が、これらの点が画像内にどのように分布するかを考えることなく特徴点リストから繰り返し選択されるためである。このような手法の主な欠点は、ソース点がリストに配置される際にソース点間の空間的関係が失われることである。たとえば、ソース点のかなりの部分が画像の同じ部分にまとまっている場合がある。これは、変換モデルが画像の一部のみをよく補間する場合に不良なレジストレーション結果に繋がる恐れがある。本発明の一態様によれば、すべてのソース点が、最初の数点が画像の大部分をカバーするように並べ替えられ、これにより回復変換モデルの補間属性がよりよくなる。
本発明の諸態様について添付の特許請求の範囲に記す。
本発明の一態様によれば、画像間の大域的パラメトリック変換(たとえば、視点変換、アフィン変換、又は他の変換)は、回転−スケール−平行移動(RST)変換の局所推定のセットから推定される。これらの局所RST変換は、対数極座標での特に変更された相関を使用して関心点の対応する対から推定される。局所変換のサブセットはロバストな推定法により選択され、異常値により偏らない大域的変換がそれから計算される。
第1のステップにおいて、関心(特徴)点が、ソース画像及びターゲット画像の両方で検出される。これは、ソース画像及びターゲット画像の角強度マップの局所的極大を検出することによって実現する。2つのリストが、ソース画像及びターゲット画像の特徴点を使用して作成される。リスト内の点は、顕著な特徴はすべてリストの上部に向けて配置されるように、それぞれの角強度測度に従って並べられ(ソートされ)、さらに、画像内のそれぞれの相対位置に従っても並べられる(ソートされる)。この目的は、リスト内で近くにある点が、画像内で互いに可能な限り離れて配置されるように画像内の特徴点の良好な空間分布を得ることである。一実施の形態では、これは、メインリストを構築する前に、画像をタイル処理し、各タイル内の特徴点を独立してソートすることにより実現する。
第2のステップにおいて、局所RST変換が推定される。これは、周波数領域又は画像領域での処理により実現することができる。最初に、局所前処理が、各関心点を中心とした画像領域に対して行われる。点位置特定誤差に敏感ではない、変更された対数極座標変換が適用される。これは、円形の画像領域を長方形画像に変換する。これらの画像は、周波数領域処理が使用されるか、又は画像領域での処理が使用されるかに応じてFFTを計算するか、又は積分画像を計算することによりさらに前処理される。これらの画像をlogFFT局所記述子又はlogInt局所記述子と呼ぶことにする。
正しいマッチング対を見つけるために、投票手順が使用される。可能性のある各点対(ソース画像から1つ、及びターゲット画像から1つ)が、それぞれのlogFFT局所記述子又はlogINT局所記述子と共に考慮され、局所RST変換のパラメータが回復される。各点対がこれらの回復されたパラメータに投票し、次いで投票のクラスタを使用して正しいマッチングする点の対を特定する。
十分な数の点がマッチする場合、アルゴリズムはいくつかの探索制約を生成する。次いで、ロバストな推定器、たとえばRANSACをマッチした点に適用して、大域変換パラメータを推定する。重複エリア及び探索制約が推定され、記憶される。マッチングは、新しい制約セットに対して繰り返し続けられ、結果としてより高速な処理及びより正確な結果に繋がる。マッチングは、終了基準のセットが満たされた場合に終了する。
本発明の実施の形態の利点には、以下が含まれる。
高精度及びロバスト性が、変更された対数極座標空間でのRST変換パラメータの局所推定と、特徴点の選択の制御と、RANSAC推定器による反復大域改良との組み合わせにより実現する。
画像間の幾何学的関係についての知識は必要ない。本発明の実施の形態は、画像間の変換についてのいかなる先験的な知識もなしに画像をレジストレーションすることができる。しかし、わかっている場合、探索制約を組み込んで処理をさらに加速することができる。
高速収束は、特徴強度及び空間的関係に基づく重要度ソートと組みあわせた多重解像度関心点検出戦略による。関心点は、複数の画像スケールを使用して検出することができ、したがって、有意な特異点のみが特徴マッチングに保持されることが保証される。空間的並べ替えにより、リスト内の近傍点が、互いに可能な限り離れて配置された、異なる画像タイルに属する点リストが生成される。これにより、リストからの数点でも、画像の大部分をカバーすることが保証される。各点の強度測度に従って点をソートすることにより、有意且つ異なる条件下で認識可能な画像構造のみがまずマッチすることが保証され、これは、通常数回のみの繰り返し後という、レジストレーションアルゴリズムの極めて高速な収束に繋がる。
本発明の実施の形態は、照度又は強度のばらつき、又は強度の局所的歪み等、異なる画像歪みに対して強力なロバスト性を提供する。これは、変換推定値のオーバーコンプリート集合(over-complete set)を与える局所マッチングにより実現し、このオーバーコンプリート集合から大域変換が導出される。局所レジストレーションに使用される相関係数又は位相相関等の類似性測度は、加法的及び乗法的な強度変化に対して不変であるため、非線形強度差を有する異なる条件下で撮影された画像をレジストレーションすることができる。
画像変化又は異なる変換を経ている複数領域に対するロバスト性。大域画像変換モデルが、局所変換のセットから推定される。次いで、クラスタ化ベースの手法がロバストな推定器と組みあわせられて適用され、局所レジストレーションモデルの異常値のないサブセット及び対応する点のセットが見つけられ、これを標準最小二乗推定手順に直接使用することができ、結果として正確な(サブピクセル精度)変換モデルが得られる。
本発明の実施の形態について、添付図面を参照しながら説明する。
本発明の一実施形態によれば、第1の画像、すなわちソース画像が第2の画像、すなわちターゲット画像とレジストレーションされる。ソース画像及びターゲット画像は、異なる条件下で撮影されるが、2つの画像間の関係に関する先験的な他の情報は必要ない。本方法は、ソース画像とターゲット画像の間に推定される射影変換を、ソース画像及びターゲット画像のそれぞれの内の関心点のセット及びこれらの関心点セット間の対応性と共に出力する。
図1に示すように、本方法は、ソース画像及びターゲット画像内の関心点抽出ステップ(ステップ1.1)、ソース画像およびターゲット画像内の関心点(特徴)のマッチングステップ(ステップ1.2)、及びマッチした関心点を使用してのソース画像とターゲット画像の間の変換推定ステップ(ステップ1.3)を含む。
より具体的には、実施形態の方法は、
1.(スケール空間及び角検出器を使用して)関心点を抽出するステップと、
2.角強度及び位置に従って関心点を順序付けるステップと、
3.各関心点周囲の円形領域をとり、(変更された)対数極空間に変換するステップと、
4.局所回転スケール平行移動(RST)変換を前提として、変更された対数極座標変換及び類似性測度を使用して関心点をマッチングするステップであって、回転範囲及びスケール値に基づいて投票方式を使用して最良のマッチングを特定する、関心点をマッチングするステップと、
5.異常値を拒絶するステップと、
6.マッチした関心点(のサブセット)を使用して、視点変換を求めるステップと
を含む。
1.(スケール空間及び角検出器を使用して)関心点を抽出するステップと、
2.角強度及び位置に従って関心点を順序付けるステップと、
3.各関心点周囲の円形領域をとり、(変更された)対数極空間に変換するステップと、
4.局所回転スケール平行移動(RST)変換を前提として、変更された対数極座標変換及び類似性測度を使用して関心点をマッチングするステップであって、回転範囲及びスケール値に基づいて投票方式を使用して最良のマッチングを特定する、関心点をマッチングするステップと、
5.異常値を拒絶するステップと、
6.マッチした関心点(のサブセット)を使用して、視点変換を求めるステップと
を含む。
この実施形態では、より詳細に後述するように、関心点はスケール空間角検出器を使用して抽出され、関心点のマッチングは、対数極座標変換及び異常値拒絶を使用したロバストなポイントマッチングであり、変換の推定は、最小二乗推定を使用した大域視点変換回復を含む。
この実施形態では、関心特徴は角であり、関心点は角検出器を使用して抽出される。画像の角を検出する方法の考察については、E. Sojka著「A new algorithm for direct corner detection in digital images」(Technical report, Faculty of Electrical Engineering and Computer Science, Technical University of Ostrava, September 2002)に見出すことができる。さらに、ソース画像及びターゲット画像内の関心点は、スケール空間表現を使用して抽出される。スケール空間表現は、画像の異なる解像度レベルのセットである。Mikolajczyk及びSchmid著「Indexing based on scale invariant interest points」(ICCV, 2001)には、関心点と併せてスケール空間表現の考察が含まれている。
関心点抽出方法を図2に示す。
本方法は、ある窓と、画像の列及び行に平行な方向にシフトした窓との間の、グレー値差を測定する信号の自己相関関数に基づく。
式中、I(x,y)は画像関数であり、(xk,yk)は、(x,y)を中心とした窓W内の点であり、G(xk,yk)は、画像強度に重み付けするために使用されるガウス関数である。自己相関関数(1)から、自己相関行列(2)が、テイラー展開に基づく一次近似を使用して導出される。この行列は、点(x,y)の周囲の窓W内の信号の導関数を平均する。
この行列は、局所近傍の属性を反映する。この行列のランクが2であり、両方の固有値が大きい場合、関心点が検出される。ランク1の行列はエッジを示し、ランク0の行列は同質領域(homogeneous region)を示す。行列Aの固有値の抽出を回避するために、関心点の強度が、パラメータフリー測度(3)により測定され、これについては、Sojka他著「A new algorithm for direct corner detection in digital images」(Technical report , Faculty of Electrical Engineering and Computer Science, Technical University of Ostrava, September 2002)に説明されている。
(2)の計算は、画像及びその導関数のスケール空間表現に基づく:
式中、G(σ)、Gx(σ)、Gy(σ)は、ガウスカーネル及びその導関数である。
スケール空間導関数(4)を使用して、スケール空間自己相関行列A(x,y,σ)を計算する(ブロック2.1)。原画像I(x,y)の各ピクセル毎に、強度測度S(x,y,σ)のスケール空間表現(ブロック2.2)が、(3)を使用して計算される。σ=σ’を有する別のガウスカーネルを使用して、窓にわたって合算される導関数を重み付ける。次いで、異なるスケールσ1、σ2、…、σnに対応するいくつかの強度測度が組み合わせられて、最終強度測度になる(ブロック2.3)。組み合わせる最も単純な方法は、強度測度をピクセル毎に乗算することである。
この強度測度は、σ1、σ2、…、σnパラメータによって与えられる選択されたスケールレベルに対して不変の関心点のみを強調する。
可能性のあるすべての関心点は、強度測度の局所的極大として検出される(ブロック2.4)。この手順後、初期点リストが形成される。特徴強度及び空間的関係に基づく重要度ソート手順が、初期リストに適用される。このリスト内の点は、走査線順にソートされる。次いで、点は強度測度に従ってソートされるため(ブロック2.5)、すべての強い特徴はリストの上部に配置される。強度測度がしきい値未満であるリストの最後からの弱い特徴は、除去される。画像内での点の良好な空間分布を保証するために、リストは、リスト内の近傍点が異なる画像タイルに属し、互いに可能な限り離れて配置されるように並べ替えられる(ブロック2.6)。この手順を図3に示す。
好ましい一実施形態では、以下のパラメータ:σ1=0.5、σ2=1、σ3=2、σ’i=2σiを有する3つのスケールレベルが使用される。局所的極大探索の場合、11×11ピクセル窓が使用される。局所的極大を関心点として受け入れるしきい値としては、10が選択される。空間的並べ替えの場合、画像は256ピクセル(幅及び高さ共に)に等しいサイズのタイルに分割される。
ソース画像及びターゲット画像内の関心点が上述したように抽出された後、局所点マッチングが実行されて、ソース画像内のどの関心点がターゲット画像内のどの関心点に対応するかを求める。これは、局所位置合わせ(すなわち、関心点に対して局所)を使用して実行され、画像内の関心点を中心とした領域の対数極座標変換のマッチングに基づく。
図4は、従来の(単一スケールの)抽出方法の結果と比較したマルチスケール関心点抽出の一例を示す。単一スケール版では、σ1=0.5である1つのみのガウスカーネルが使用された。マルチスケール実施態様では、3つのスケールレベルパラメータ、局所的極大探索用の窓、及び局所的極大を受け入れる際のしきい値は上記の通りである。
図4a、図4c及び図4eは単一スケール手法を表し、図4b、図4d、及び図4fはマルチスケール手法を表す。図4a及び図4bでは、十字が関心点を示す。図4c及び図4dは、強度測度を画像として示す。図4e及び図4fは、図4c及び図4dの長方形のエリアに対応する強度測度を面として示す。
単一スケール版とマルチスケール版との比較は、
・雑音の多い多くの関心点が、マルチスケール手法を使用して抑圧され、
・マルチスケール手法は、小さな局所角を保存し、
・マルチスケール手法は、有意な角特徴(たとえば、図4(a)、図4(b)の円形エリアを参照のこと)を検出し、サンプルスケール手法では欠落する顕著な角を検出する
ことを示す。
・雑音の多い多くの関心点が、マルチスケール手法を使用して抑圧され、
・マルチスケール手法は、小さな局所角を保存し、
・マルチスケール手法は、有意な角特徴(たとえば、図4(a)、図4(b)の円形エリアを参照のこと)を検出し、サンプルスケール手法では欠落する顕著な角を検出する
ことを示す。
最も強い特徴がまず失敗確率の低いマッチとマッチングされ、最初の数個の対応点対が画像の重複エリアの良好な空間カバレージを有するため、点マッチングの結果の解析(後述する方法を使用して)は、多解像度特徴検出並びに特徴強度及び空間的関係に基づく重要度ソートからの恩恵を示す。
点マッチング手順には、十分な数の点がマッチしたときに自動的に割り込むことができる。上述した属性により、画像レジストレーションの後続ステップの信頼性があり且つロバストな結果が保証される。
ソース画像及びターゲット画像内の関心点が上述したように抽出された後、局所点マッチングが実行されて、ソース画像内のどの関心点がターゲット画像内のどの関心点に対応するかが求められる。これは局所位置合わせ(すなわち、関心点に対して局所)を使用して行われ、画像内の関心点を中心とした領域の対数極座標変換のマッチングに基づく。
ロバストな局所点マッチングは2つの仮定に頼る。すなわち、(1)画像が検出可能な特徴を含み、これらの特徴のサブセットが両方の画像において共通し、且つ(2)両方の画像を4パラメータ動きモデル(幾何学的変換)により局所的に位置合わせ可能である。
レジストレーション中の両方の画像において抽出された関心点から正しいマッチング対を見つけるために、汎用ハフ変換(Generalized Hough Transform)と同様の投票手法を用いる。可能性のある点対毎に、これらの点を含む小さな画像領域が考慮され、これらの領域間の局所RST変換のパラメータが推定される。各点対がこれらの回復されたパラメータに投票し、次いで、投票の集まりを使用して正しい点対が特定される。2点間の類似性測度を得るには、平行移動、回転、及びスケールを含む4パラメータモデルのみが使用される。これが局所変換の正確な近似を与えることが見出された。領域間の平行移動は、点座標差から直接導出される。回転及びスケールは変数パラメータとしてみなされるため、領域類似性測度はこれらの2つの変数にのみ依存する。
本方法の作業の流れを図5に示し、その主要ブロックを以下に要約し、その後、本方法のステップのうちのいくつかについてより詳細に説明する。
本方法の全般的な戦略は特徴ベースであるが、個々の点間の類似性をマッチングするために、エリアベースの手法が使用される。方法は、先端技術の正規化相互相関技法及び位相相関技法を含む任意のエリアベースの類似性測度に適合する。
局所前処理(ステップ5.1)が、各関心点を中心とした円形画像領域に対して行われる。まず、変更された対数極座標変換が適用され、後述のように、円形領域を矩形領域に変換する。さらなる前処理は、どの種類のエリアベースの類似性測度が使用されるかに依存する。
相関係数を計算するために、窓平均値及び分散を含む2つの浮動小数点2Dアレイが作成される。これらの2Dアレイは、積分画像に基づく既知の技法を使用して計算される。
位相相関を計算するために、高速フーリエ変換が適用される。
探索制約を使用して、計算コストを低減する。提案する方法では、探索制約は、ソース画像点からターゲット画像領域への近似写像である。このような制約は、ステップ5.2において、ターゲット関心点のサブセットを特定の1つのソース点に対する可能性のあるマッチとして選択するのを助ける。
特定のソース点について、制約は空である場合があり、これは、その点が画像重複エリアに属さないことを意味する。このような点は、ステップ5.9においてマッチングに選択されない。
提案する方法は、いかなる特定の初期探索制約にも頼る必要がない(図5)。先験的な制約がなくてもよく、この場合、すべてのターゲット関心点セットが、ソース点のマッチング候補とみなされる。これは、本方法が、画像間の変換についていかなる先験的な知識もなしに画像をレジストレーションすることができる最も普遍的なケースである。しかし、いくつかの事前制約がわかっている場合、その事前制約を本方法に組み込むことができ(ステップ5.2)、その結果、計算負荷が低減する。このような制約は、近似画像変換モデル及びモデルパラメータについての先験的な知識から生じ得る。
十分な数の点がマッチした場合(ステップ5.5及び5.6)、提案するアルゴリズムは事後的探索制約を生成する(ステップ5.7)。マッチした点を使用して変換モデルを推定し(ロバストな推定方法が使用される)、この変換モデルから、重複エリア及び探索制約が更新される。マッチングは新しい制約を使用して続けられ、その結果、処理は高速化する。
ステップ5.8が、マッチングプロセスを終了すべきときを判断する。上述したように、アルゴリズムは、対応点のセット及び変換モデルパラメータを繰り返し更新する。推定プロセスは、以下の条件のうちの1つが満たされるときに終了する。
・すべてのソース点がマッチした
・十分な数のソース点がマッチし、推定画像重複エリアの大部分をカバーする
・変換パラメータがいくつかの最近の繰り返し中で安定している(変化していない)
・すべてのソース点がマッチした
・十分な数のソース点がマッチし、推定画像重複エリアの大部分をカバーする
・変換パラメータがいくつかの最近の繰り返し中で安定している(変化していない)
ステップ5.2は、以下のような投票方式に基づいてロバストなマッチングを行う。
(xi,yi)、i=1…N1及び(x’j,y’j)、j=1…N2を2つの所与の画像において検出された2つの関心点セットとする。但し、N1及びN2はソースI1(x,y)及びターゲットI2(x,y)の画像のそれぞれの点の総数である。探索制約を満たす各点対(i,j)毎に、回転角度θ及びスケールsに依存する類似性測度Cijの関数(θ,s)が計算される。この類似性関数は、パラメータの離散値に対して計算される。
式中、Nθ、Nsは、回転・スケールパラメータ空間での離散値の数を決定する。(8)において、S(…)は、スケール値を[0,Ns−1]の区間から離散値slのセットに写像する関数である。
パラメータ値のセットにわたる類似性関数(7)、(8)が計算されると、最良の類似性測度を与える値が選択される:
又はインデックスの観点では、
である。
(9)をすべての対(i,j)、j=1…N2[i]について繰り返し、次のように最高の類似性測度を有するM個の候補j1、j2、…、jMのセットを選択する:
いくつかの候補を保持すること(M>1)は、正しいマッチングが常に最高の類似性測度に繋がるわけではないため、最良のマッチングのみを保持することと(M=1)比較してより上手くいく。図6は、高い類似性測度を与える可能性が高い画像フラグメントの一例を示す。図6に示すように、これらの可能性のある候補j1、j2、j3はi番目の関心点に高い類似性測度を与える。真の対(i、j2)の類似性測度は、最高でない場合もある。
この理由は、大きな時間の変化又は視点の変化であり得る。したがって、いくつかの最良候補が保持され、投票手順によりあらゆる曖昧さの解消が助けられる。
投票方式自体(ブロック5.3)は、すべてのソース関心点(i=1…N1)の最良の類似性測度(9)についての証拠を蓄積する2DアレイA(k,l)として編成される:
正しいマッチングはクラスタ(累積器でのピーク)を生成し、クラスタの位置は、回転パラメータ及びスケールパラメータに対応する(ブロック5.4):
好ましい実施形態では、回転・スケール累積器の幅及び高さには、FFTの有効な実施のために2のべき乗が選択され、以下の値、すなわち、Ns=32、Nθ=64が使用され、3つの最良の候補(M=3)が、点マッチングプロセスにおいて各ソース点毎に保持される。
ピーク位置を得た後、可能性のあるすべての関心点対が調べられ、クラスタに寄与する対のみが後続処理のために記憶される(ブロック5.5)。図7は、このステップの一例を示す。
図7は、パラメータ空間でのクラスタ化を使用した初期関心点マッチングを示す。図7(a)は、回転・スケールパラメータ空間でのクラスタを示し、図7(b)、図7(c)はパラメータ空間での主要クラスタに寄与する点対を示し、図7(b)は基準画像であり、図7(c)はターゲット画像である。画像間の大きな変換(スケール=4、回転=90度)に留意する。
上記要約を参照して、変更された対数極座標画像変換を含む前処理ステップについて以下説明する。
対数極座標変換は、いくつかのコンピュータビジョンシステムにおいて使用される既知の空間変異画像符号化方式である[Yeung及びBarnes著「Active Monocular Fixation using the Log-Polar Sensor」(Proceedings of the 2003 Australasian Conference on Robotics & Automation, 2003)]。対数極座標(α,ρ)への変換を用いて、相互の画像回転及びスケーリングを普遍的な様式で処理する[Wolberg他著「Robust Image Registration Using Log-Polar Transform」(Proc. of IEEE Intl. Conf. on Image Processing, Sep. 2000)]。この変換は、関心点(xi,yi)を中心としたすべての画像領域に適用される。
式中、
である。
変換(12)、(13)は実際には逆対数極座標変換であり、これを実際に使用して順変換を実施する。
ターゲット画像が、角度θ*だけ回転し、係数s*だけスケーリングされ、或るシフトパラメータだけ平行移動した基準画像であると考える。その場合、ターゲット画像の変換(12)は、以下
と書くことができ、式中、(x’i,y’i)は(xi,yi)に対応する関心点の位置であり、
である。
式(14)、(15)は、(x,y)座標の原点を中心としたあらゆるスケーリング及び回転が、(α,ρ)座標でのシフトで表されることを示す。これを図8において例証する。
図8(a)は、第3の関心点を中心とした図7(b)からの基準画像の対数極座標変換を示し、図8(b)は、第3の関心点を中心とした図7(c)からのターゲット画像の対数極座標変換を示す。破線長方形は、通常の相互相関探索による画像(a)と画像(b)とのマッチングの結果を示す。最大相関係数は0.80に等しい。長方形の位置は、回転角度及びスケールの対数に対応する。ターゲット画像での周期的なα軸に沿った探索を簡単にするために、α値に[0;4π)の区間が使用される。
角位置特定誤差があると、対数極座標変換済み画像において大きな一様エリアが生じる。図9(a)は、位置が画像内の実際の角からシフトした関心点の例を示す。図9(b)は、対数局座標変換が、半径方向の直線及び同心円を座標軸に平行な直線に写像することを示す。図9(c)は、図9(a)からの画像の対数極座標変換の結果を示す。画像の上部にある大きな一様エリアに留意する。
変更された対数極座標変換。図10(a)は、変更された変換が、半径方向の直線及び同心円を座標軸に平行な線に写像するが、座標系原点付近のエリアを考慮に入れないことを示す。図10(b)は、第3の関心点を中心とした図7(b)からの基準画像の変換を示す(図8(a)と比較されたい)。図10(c)は、第3の関心点を中心とした図7(c)からのターゲット画像の変換を示す(図8(b)と比較されたい)。破線長方形は、通常の相互相関探索による画像(b)と画像(c)とのマッチングの結果を示す。最大相関係数は0.88に等しい。
提案する方法では、対数極座標変換は、径座標(radial coordinate)のゼロレベルをシフトすることによりさらに改良される。この主な根本的理由は、関心点検出器が常に角の実際の位置を与えるわけではないことである。関心点の位置は、関心点の位置が画像内の実際の角(図9(a))からシフトされた図9aに示すように、実際の角の位置からランダムにシフトする場合がある。これは、変換により中心円(図9(b)の暗いエリア)及び周辺円を同じ数のサンプルに写像するため、対数極座標画像(図9(c))において大きな一様エリアをもたらす。この一様エリアは、画像領域についての新しい情報を含まず、類似性測度へのその寄与は低いか、又はマイナスでさえあり得る。したがって、変更された対数極座標変換は、非ゼロ半径方向値r0(図10(a))から始まり、変換は依然として(12)(13)のように見えるが、r及びr*の式は、
である。
この変更は、実際に、点マッチング結果の大幅な改良をもたらす。図10(b)、図10(c)は、変更された対数極座標変換を使用した点マッチングの一例を示す。図8と同じ関心点対を使用した。マッチング結果(回転及びスケール)は似ているが、類似性測度(相関係数)のピークは、変更された対数極座標変換の場合にはるかに顕著である。変更された変換のこの属性は系統的(systematic)であり、関心点検出器が画像での視点の変化及び時間の変化によりわずかに異なる点位置を与える場合に、よりロバストな点マッチングになる。
好ましい実施形態では、値r0=5のピクセルが、変更された対数極座標変換の原点のシフトを定義するパラメータに使用され、変更された対数極座標変換の逆変換のパラメータは、対数極座標画像の次元が回転・スケール累積器の次元と等しくなるように選択される:m0=Nθ、mmax=Nθ−1、n0=Ns、nmax=Ns−1。
対数極座標変換の計算は、式(12)、(13*)について予め計算されたルックアップテーブルを使用し、非整数座標値を有するピクセルに双一次補間を使用することにより非常に効率的に行われる:
式中、Ilpは対数極座標画像であり、Ibは原画像であり、インデックスbは、非整数座標を有する値が双一次補間を使用して得られることを意味し、(xi,yi)は関心点の座標であり、Lx、Lyは、次の、変更された対数極座標変換の逆変換のルックアップテーブルである:
(17)において、mmax、nmaxは、結果生じる画像のサイズを定義するパラメータであり、m0、n0は、対数極座標画像の角度分解能及び半径方向分解能を定義するパラメータである。
関数(8)はここで、(15)及び(17)から特定することができる。これは、離散パラメータ軸を画像間のスケールに写像する:
上記を参照すると、RST変換下の関心点をマッチングする方法及び投票方式を使用して正しいマッチングを選択することについて以下説明する。未知の変換下の点をマッチングするには、関心点を中心とした画像領域間のいくつかのロバストな類似性測度が必要である。このセクションでは、一方は画像領域にあり、他方は周波数領域にある2つの類似性測度について説明する。これらの方法は相関係数及び位相相関であり、両方とも、コンピュータビジョンの学問で広く研究されている既知の従来技術である。本実施形態の変形例は、原画像領域を使用することに代えて、前セクションで説明した対数極座標変換された画像領域を使用することを含む。これは、類似性測度のみならず、局所変換パラメータ(未知の回転及びスケール)の推定値も相関関数面(図11)内の最大ピークの位置として与える。
図11は、類似性測度を画像及び面として示す。図11(a)は相関係数を示し、図11(b)は位相相関を示す。
任意の点対(i,j)の類似性を測定するために、対応する対数極座標画像IiとIjとの間の相関係数が使用される:
式中、
は、合算が基準画像Iiのすべてのピクセルにわたって行われることを意味し、
は、基準画像内のピクセルの総数である。
(18)の解析から、項
のみが(i,j)対に依存して変化しており、他のすべての項は局所前処理ブロック(ブロック5.1)において事前に計算できることを見て取ることができる。
対数極座標画像は、角度領域において周期的である。(17)から、I(n,m)=I(n+n0,m)ということになる。本発明の場合、式(18)を、パラメータnの周期性を考慮に入れるように変更する必要がある。以下の手順を使用して、局所変換を推定する。
1.局所前処理段階(ブロック5.1)。
1.1 1つの周期を有する基準対数極座標画像を作成する、すなわち(17)においてnmax=n0−1である。
1.2 2つの周期を有するターゲット対数極座標画像を作成する、すなわち(17)においてnmax=2*n0−1。スケールパラメータ領域も、いくつかの探索エリアを可能にするように拡張される。m=0,…,mmax+Nθ、但し、Nθは(7)において定義される。
1.3 すべての基準画像について、(18)を使用して
1.局所前処理段階(ブロック5.1)。
1.1 1つの周期を有する基準対数極座標画像を作成する、すなわち(17)においてnmax=n0−1である。
1.2 2つの周期を有するターゲット対数極座標画像を作成する、すなわち(17)においてnmax=2*n0−1。スケールパラメータ領域も、いくつかの探索エリアを可能にするように拡張される。m=0,…,mmax+Nθ、但し、Nθは(7)において定義される。
1.3 すべての基準画像について、(18)を使用して
を計算する。
1.4 すべてのターゲット画像及び回転・スケール領域からのすべてのインデックス(k,l)について、(18)を使用して
1.4 すべてのターゲット画像及び回転・スケール領域からのすべてのインデックス(k,l)について、(18)を使用して
を計算する。
2.マッチング段階(ブロック5.2の部分)
2.1 (7)〜(9*)を使用して最良の変換パラメータを探索する。
代替として、対数極座標画像の周期性により、実質上、位相相関を類似性測度として使用することができる。理想的な場合では、2つの対応する対数極座標画像Ii及びIjは、平行移動(k*,l*)のみ異なり、したがって、
Ii(m,n)=Ij(m+k*,n+l*)
である。
2.マッチング段階(ブロック5.2の部分)
2.1 (7)〜(9*)を使用して最良の変換パラメータを探索する。
代替として、対数極座標画像の周期性により、実質上、位相相関を類似性測度として使用することができる。理想的な場合では、2つの対応する対数極座標画像Ii及びIjは、平行移動(k*,l*)のみ異なり、したがって、
Ii(m,n)=Ij(m+k*,n+l*)
である。
標準位相相関
を適用する。式中、F(f)は画像fの2Dフーリエ変換であり、F*(f)はF(f)の複素共役であり、平行移動値でのパルス関数が得られる:
Cij(k,l)=δ(k−k*,l−l*)
Cij(k,l)=δ(k−k*,l−l*)
実際には、位相相関の結果は、図11(b)に示すものと同様であり、平行移動値は、最高のピークを見つけることによって位置特定することができる。
位相相関に基づく類似性測度を計算するために、以下のアルゴリズムを使用する。
1.局所前処理段階(ブロック5.1)。
1.1 (17)を使用し、nmaxを2のべき乗から1を引いたものに設定して基準対数極座標画像及びターゲット対数極座標画像を作成する。Ilp(n,m)はm>mmaxの場合にゼロで埋められるため、Ilpの垂直サイズは2のべき乗であり、2nmaxよりも大きい。
1.2 すべての対数極座標画像に対して高速フーリエ変換(FFT)を行う:F(Ii)=FFT(Ii)。
1.3 FFTの結果を正規化する:Fn(Ii)=F(Ii)/|F(Ii)|。
2. マッチング段階(ブロック5.2の部分)
2.1 すべての点対について、以下のように(19)を計算する:Fn(Ii)及びFn(Ij)のそれぞれでの同じ座標からの各複素ピクセル値(ai,bi)及び(aj,bj)について、以下
1.局所前処理段階(ブロック5.1)。
1.1 (17)を使用し、nmaxを2のべき乗から1を引いたものに設定して基準対数極座標画像及びターゲット対数極座標画像を作成する。Ilp(n,m)はm>mmaxの場合にゼロで埋められるため、Ilpの垂直サイズは2のべき乗であり、2nmaxよりも大きい。
1.2 すべての対数極座標画像に対して高速フーリエ変換(FFT)を行う:F(Ii)=FFT(Ii)。
1.3 FFTの結果を正規化する:Fn(Ii)=F(Ii)/|F(Ii)|。
2. マッチング段階(ブロック5.2の部分)
2.1 すべての点対について、以下のように(19)を計算する:Fn(Ii)及びFn(Ij)のそれぞれでの同じ座標からの各複素ピクセル値(ai,bi)及び(aj,bj)について、以下
のように位相のみの複素画像を得る。
2.2 逆フーリエ変換を位相画像に施し、最高のピークを探索する(9*)。
2.2 逆フーリエ変換を位相画像に施し、最高のピークを探索する(9*)。
クラスタ化ベースの点マッチングを前セクションで説明したように行った後であってもやはり、対応する点のセットは誤ったマッチ(異常値)を有し得る。これらの異常値は変換パラメータの推定を大きく妨げる恐れがあるため、画像間の変換を計算する前に特定すべきである。
上記要約を参照して、変換モデルを推定するステップについて以下説明する。
以下の、2つの画像間の視点変換モデルを使用する。
G=H=0、I=1の場合、変換はアフィンである(22)。制約:A=sa、B=sb、C=−sb、D=sa、a2+b2=1を係数に課すことにより、(22)がRST変換(23)になり、したがって、6パラメータアフィン変換及び4パラメータRST変換がこの方法によって暗黙的に扱われる。
A=E=1、B=D=0を使用することによりアフィン変換をさらに単純化することで、最も単純な2パラメータ平行移動変換(24)になり、これもまた提案する方法によって暗黙的に扱われる。
変換(21)は8つの独立パラメータを有し(パラメータはすべてIで割ることができる)、これは4つの対応する点から求めることができる(四辺形−四辺形写像)。これらの点について、(21)を8線形式系として書き換えることができ、任意の標準の方法で解くことができる。
(21)のパラメータを計算する従来技術による別の効率的な方法がある。これは、一般的な四辺形−四辺形変換を、図12に示すように四辺形−正方形及び正方形−四辺形への2つの単純な変換に分解することに基づく。これらの単純な変換は象徴的に(symbolically)導出されるため、4点に基づく(21)の解は純粋に象徴的であり、単純な8×8システムソルバよりもはるかに高速である。この実施は、単純な算術演算のみから成る。
一般的な射影変換は、2つの単純な変換の合成として導出される。
2つの単純な変換の合成としての一般的な射影変換の導出。
RANSACアルゴリズムを対応する点のセットに適用して、射影変換及びこの変換に整合する正常(inlier)対応性を推定し、そうしてRANSAC手順の一環として上述したように異常値を拒絶する。RANSACは、たとえば、Chum, O.、Matas, J.及びKittler, J著「Locally Optimised RANSAC」(DAGM 2003)に説明されている既知の手順である。
1.すべての入力された対応(input correspondences)が、ランダムに選択される4点サンプルのセットとして編成される。
2.このような各サンプルが、画像間の視点変換を決定する。
3.各サンプルが、正常対応性(すなわち、変換を満たすもの)の数により変換に投票する。
4.最大数の正常値を有する変換が真の変換であるとみなされる。
5.解が見つけられた場合、サンプル選択プロセスが終了し、異常値の割合のしきい値が使用される。
RANSACアルゴリズムを対応する点のセットに適用して、射影変換及びこの変換に整合する正常(inlier)対応性を推定し、そうしてRANSAC手順の一環として上述したように異常値を拒絶する。RANSACは、たとえば、Chum, O.、Matas, J.及びKittler, J著「Locally Optimised RANSAC」(DAGM 2003)に説明されている既知の手順である。
1.すべての入力された対応(input correspondences)が、ランダムに選択される4点サンプルのセットとして編成される。
2.このような各サンプルが、画像間の視点変換を決定する。
3.各サンプルが、正常対応性(すなわち、変換を満たすもの)の数により変換に投票する。
4.最大数の正常値を有する変換が真の変換であるとみなされる。
5.解が見つけられた場合、サンプル選択プロセスが終了し、異常値の割合のしきい値が使用される。
最終変換(本方法の結果)は、すべての正常な対応を使用して既知の最小二乗推定により計算され、これは完璧に働き、RANSACがすべての異常値を拒絶し正常値のみが残る場合に、正確且つ満足のいく最適な推定を与える。
提案する方法の態様に対する多くの代替の実施態様が存在する。たとえば、異なる探索制約を枠組みに組み込み、結果としてより高速に収束することができる。本方法が一連の画像に適用される場合(たとえば、画像シーケンス又は映像シーケンスに対処する場合)、前のフレームで確立された画像レジストレーションの結果及び探索制約を続くフレームに伝えることができる。
さらに、多くの異なる類似性測度を特徴点局所マッチングにインプリメントすることができる。セクション5.3.7において説明した相関係数及び位相相関は2つの可能性にすぎず、他の多くの代替形態が存在する。
多解像度手法は、特徴抽出及び/又はマッチング段階において適用することも可能である。
本発明の実施形態の応用例としては、衛星画像、航空画像、医療画像、又は顕微鏡画像のレジストレーション、画像又は映像からのパノラマ及びモザイクの作成、及び画像シーケンス安定化が挙げられる。
本明細書において、画像という用語は、文脈から明らかな場合を除き全体画像又は画像の領域を意味する。同様に、画像の領域は全体画像を意味することができる。画像はフレーム又はフィールドを含み、静止画像、フィルム若しくは映像等の一連の画像内の画像、又は関連する画像群内の画像に関連する。
画像は、グレースケール画像、カラー画像、又は別の種類のマルチスペクトル画像、たとえば、IR、UV、他の電磁画像、若しくは音響画像等であってもよい。
本発明は、適した装置を使用して電気信号を処理することによって実施されることが好ましい。
本発明は、適するソフトウェア及び/又はハードウェアの変更を行った、たとえばコンピュータシステムにおいて実施することができる。たとえば、本発明は、プロセッサ又は制御装置等の制御手段又は処理手段、メモリ、磁気記憶装置、CD、DVD等の画像記憶手段を含むデータ記憶手段、ディスプレイ、モニタ、又はプリンタ等のデータ出力手段、キーボード等のデータ入力手段、及びスキャナ等の画像入力手段、又は追加の構成要素と併せてこのような構成要素の任意の組み合わせを有するコンピュータ或いは同様のものを使用して実施することができる。本発明の態様は、ソフトウェア及び/又はハードウェアの形態で提供することができ、或いはチップ等の特定用途向け装置又は特定用途向けモジュールを提供することができる。本発明の一実施形態による装置でのシステムの構成要素は、たとえばインターネットを介して、他の構成要素から離れて提供してもよい。
Claims (41)
- 画像対間の変換を推定する方法であって、
前記画像の複数の領域の局所変換を推定して、推定変換のセットを導出することと、
前記推定局所変換のサブセットを前記画像の推定大域変換として選択することと
を含む、画像対間の変換を推定する方法。 - 前記局所変換の推定は、平行移動に加えて、又は平行移動以外の、回転及び/又はスケール変化等の動きを推定することができる、請求項1に記載の方法。
- 前記局所変換の推定は、2つより多いパラメータを有するパラメトリックモデルを含む、請求項1又は2に記載の方法。
- 推定変換の前記セットを使用してさらなる処理をすることであって、それによって少なくとも1つの大域変換を導出する、さらなる処理をすることを含む、請求項1〜3のいずれか一項に記載の方法。
- 前記さらなる処理は、RANSAC等のロバストな推定器を使用することを含む、請求項4に記載の方法。
- 前記さらなる処理は、最小二乗推定をさらに含む、請求項5に記載の方法。
- 領域を比較するために類似性測度を使用することを含む、請求項1〜6のいずれか一項に記載の方法。
- 回転及びスケールに対して不変の類似性測度を使用することを含む、請求項7に記載の方法。
- 変換パラメータの推定に前記類似性測度を使用する、請求項7又は8に記載の方法。
- 前記類似性測度は相関係数又は位相相関を含む、請求項7〜9のいずれか一項に記載の方法。
- 第1の画像内の複数の領域のそれぞれについて、前記領域と第2の画像内の複数の領域のそれぞれとを比較して、複数の類似性測度を導出することを含む、請求項7〜10のいずれか一項に記載の方法。
- 前記第1の画像内の前記領域のそれぞれについて、最高の類似性測度を有するM個の領域を前記第2の画像から選択することを含み、M>1である、請求項11に記載の方法。
- 投票方式又は累積器を前記複数の局所推定変換に使用し、前記サブセットを選択する、請求項1〜12のいずれか一項に記載の方法。
- 前記選択されたM個の領域を前記投票方式に使用することを含む、請求項12に従属する請求項13に記載の方法。
- 前記局所変換の推定は、特徴点又は関心点を含む領域、並びに前記領域及び点のマッチングを含む、請求項1〜14のいずれか一項に記載の方法。
- 前記局所変換の推定は、前記第1の画像内の複数の点のそれぞれについて、前記点及び周囲の局所領域を、前記第2の画像内の複数の点のそれぞれ及び周囲の局所画像と、マッチングすることを含む、請求項15に記載の方法。
- 選択されたサブセットを使用して、前記第1の画像及び前記第2の画像内の対応するマッチングする点の対を選択することを含む、請求項15又は16に記載の方法。
- 信頼測度がそれぞれに関連付けられた前記特徴点又は関心点を、信頼測度及び前記画像内の位置に基づいて順序付けることを含む、請求項15〜17のいずれか一項に記載の方法。
- 前記局所変換を回転スケール平行移動変換として推定することを含む、請求項1〜18のいずれか一項に記載の方法。
- 探索制約を使用して前記変換推定を繰り返すこと、及び、前記探索制約を変更することを含む、請求項1〜19のいずれか一項に記載の方法。
- 前記画像領域の変更された対数極座標変換を使用することを含み、対数極座標変換は半径方向値r0から開始するエリアに適用され、r0>0である、請求項1〜20のいずれか一項に記載の方法。
- 前記画像のマルチスケール表現を使用する、請求項1〜21のいずれか一項に記載の方法。
- 画像を表現する方法であって、信頼測度がそれぞれに関連付けられた複数の特徴点又は関心点を、信頼度及び前記画像内の位置の両方に基づいて順序付けることを含む、画像を表現する方法。
- 前記点はマッチングを目的として順序付けられる、請求項23に記載の方法。
- 前記位置に基づいて順序付けることは、点間の距離に基づいて順序付けることである、請求項23又は24に記載の方法。
- 前記点は、点間の距離の大きい順に順序付けられる、請求項25に記載の方法。
- 前記点は、信頼度の高い順に順序付けられる、請求項23〜26のいずれか一項に記載の方法。
- 初期点は、前記画像全体を通しての前記点の空間分布を表す、請求項23〜27のいずれか一項に記載の方法。
- 前記画像を領域に分けること、及び、前記点を信頼度及び領域に従って順序付けることを含む、請求項23〜28のいずれか一項に記載の方法。
- 前記点を各領域内で信頼度に従って順序付けした後、領域によって順序付けすることを含む、請求項29に記載の方法。
- 前記信頼測度は、前記特徴点又は関心点の強度を反映する、請求項23〜30のいずれか一項に記載の方法。
- 前記信頼測度は、前記特徴点又は関心点が別の画像の特徴点又は関心点とマッチする確率を反映する、請求項23〜31のいずれか一項に記載の方法。
- 変更された対数極座標変換を使用して画像を表現する方法であって、対数極座標変換は半径方向値r0から開始するエリアに適用され、r0>0である、画像を表現する方法。
- 前記変更された対数極座標変換は、その逆変換が式(12)及び式(13*)の形態のものである、請求項33に記載の方法。
- 請求項23〜34のいずれか一項に従って導出された前記画像の表現を使用して、画像対をマッチングする方法。
- 画像対間の変換を推定するための、請求項35に記載の方法。
- 前記画像の複数の領域の局所変換を推定して、推定変換のセットを導出することと、
前記推定局所変換のサブセットを前記画像の推定大域変換として選択することと
を含む、請求項36に記載の方法。 - 請求項2〜22のいずれか一項の特徴をさらに含む、請求項36又は37に記載の方法。
- 請求項1〜38のいずれか一項に記載の方法を実行する装置。
- 請求項1〜38のいずれか一項に記載の方法を実行するようにプログラムされた制御装置。
- 請求項1〜38のいずれか一項に記載の方法を実行するためのコンピュータプログラム、システム、又はコンピュータ可読記憶媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP05253802A EP1736928A1 (en) | 2005-06-20 | 2005-06-20 | Robust image registration |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008107860A true JP2008107860A (ja) | 2008-05-08 |
Family
ID=35335735
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006170319A Withdrawn JP2008107860A (ja) | 2005-06-20 | 2006-06-20 | 画像対間の変換を推定する方法、画像を表現する方法、並びにこの方法のための装置、制御装置、及びコンピュータプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US7961982B2 (ja) |
EP (1) | EP1736928A1 (ja) |
JP (1) | JP2008107860A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012086285A (ja) * | 2010-10-15 | 2012-05-10 | Seiko Epson Corp | 追跡ロボット装置、追跡ロボット制御方法、追跡ロボット制御プログラム、ホモグラフィー行列取得装置、ホモグラフィー行列取得方法、およびホモグラフィー行列取得プログラム |
JP2013008364A (ja) * | 2011-06-22 | 2013-01-10 | Boeing Co:The | 画像の表示 |
JP2014509535A (ja) * | 2011-03-18 | 2014-04-21 | ゼンゾモトリック インストルメンツ ゲゼルシャフト フュア イノベイティブ ゼンゾリク ミット ベシュレンクテル ハフツング | 注視点マッピング方法および装置 |
JP2014238751A (ja) * | 2013-06-10 | 2014-12-18 | 独立行政法人産業技術総合研究所 | 画像生成装置及び画像生成方法 |
JP2015503778A (ja) * | 2011-12-24 | 2015-02-02 | エコール ドゥ テクノロジー スペリウールEcole De Technologie Superieure | ノイズに対して堅牢な画像レジストレーション方法およびシステム |
Families Citing this family (71)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2899344B1 (fr) * | 2006-04-03 | 2008-08-15 | Eads Astrium Sas Soc Par Actio | Procede de restitution de mouvements de la ligne de visee d'un instrument optique |
US20080144124A1 (en) * | 2006-10-13 | 2008-06-19 | Ramin Samadani | Auxiliary information for reconstructing digital images processed through print-scan channels |
US8068697B2 (en) * | 2006-10-19 | 2011-11-29 | Broadcom Corporation | Real time video stabilizer |
GB0625455D0 (en) * | 2006-12-20 | 2007-01-31 | Mitsubishi Electric Inf Tech | Graph-based multiple panorama extraction from unordered image sets |
US8290304B2 (en) * | 2007-02-23 | 2012-10-16 | Lockheed Martin Corporation | Iterative region-based automated control point generation |
US9214030B2 (en) * | 2007-05-07 | 2015-12-15 | Thomson Licensing | Method and apparatus for processing video sequences |
WO2009019617A2 (en) * | 2007-05-28 | 2009-02-12 | The University Of Western Ontario | 3d tissue model formation from non-parallel 2d images |
US8150098B2 (en) * | 2007-12-20 | 2012-04-03 | Eastman Kodak Company | Grouping images by location |
US8497905B2 (en) | 2008-04-11 | 2013-07-30 | nearmap australia pty ltd. | Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features |
US8675068B2 (en) | 2008-04-11 | 2014-03-18 | Nearmap Australia Pty Ltd | Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features |
FR2931277B1 (fr) * | 2008-05-19 | 2010-12-31 | Ecole Polytech | Procede et dispositif de reconnaissance invariante-affine de formes |
JP4852591B2 (ja) * | 2008-11-27 | 2012-01-11 | 富士フイルム株式会社 | 立体画像処理装置、方法及び記録媒体並びに立体撮像装置 |
JP5290867B2 (ja) * | 2009-05-25 | 2013-09-18 | キヤノン株式会社 | 画像検索装置およびその方法 |
US8558899B2 (en) * | 2009-11-16 | 2013-10-15 | The Aerospace Corporation | System and method for super-resolution digital time delay and integrate (TDI) image processing |
DE102010005265A1 (de) * | 2010-01-20 | 2011-07-21 | Testo AG, 79853 | Verfahren zur überlagerten Darstellung korrespondierender Bilder und Bildaufnahmevorrichtung |
US8306274B2 (en) * | 2010-05-25 | 2012-11-06 | The Aerospace Corporation | Methods for estimating peak location on a sampled surface with improved accuracy and applications to image correlation and registration |
EP2617012B1 (en) | 2010-09-16 | 2015-06-17 | Mor Research Applications Ltd. | Method and system for analyzing images |
US9088673B2 (en) | 2010-09-24 | 2015-07-21 | Hewlett-Packard Development Company, L.P. | Image registration |
US9449024B2 (en) * | 2010-11-19 | 2016-09-20 | Microsoft Technology Licensing, Llc | File kinship for multimedia data tracking |
US8368774B2 (en) | 2010-11-22 | 2013-02-05 | The Aerospace Corporation | Imaging geometries for scanning optical detectors with overlapping fields of regard and methods for providing and utilizing same |
TW201224952A (en) * | 2010-12-06 | 2012-06-16 | Inst Information Industry | Image recognition method and computer program product thereof |
FR2969801A1 (fr) * | 2010-12-23 | 2012-06-29 | Thales Sa | Procede de representation d'une erreur de localisation et dispositif associe |
US8666195B1 (en) * | 2011-03-15 | 2014-03-04 | Google Inc. | Image alignment |
US8917322B2 (en) * | 2011-04-01 | 2014-12-23 | Lockheed Martin Corporation | Method and apparatus for digital video latency reduction by real-time warping |
US8582821B1 (en) * | 2011-05-23 | 2013-11-12 | A9.Com, Inc. | Tracking objects between images |
US9396583B2 (en) | 2011-07-22 | 2016-07-19 | Thales | Method of modelling buildings on the basis of a georeferenced image |
CN102955942A (zh) * | 2011-08-30 | 2013-03-06 | 鸿富锦精密工业(深圳)有限公司 | 被拍摄物体的影像定位系统及方法 |
JP5844884B2 (ja) * | 2011-09-28 | 2016-01-20 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
US9378431B2 (en) * | 2011-11-18 | 2016-06-28 | Metaio Gmbh | Method of matching image features with reference features and integrated circuit therefor |
US9165187B2 (en) | 2012-01-12 | 2015-10-20 | Kofax, Inc. | Systems and methods for mobile image capture and processing |
US10146795B2 (en) | 2012-01-12 | 2018-12-04 | Kofax, Inc. | Systems and methods for mobile image capture and processing |
US9501700B2 (en) | 2012-02-15 | 2016-11-22 | Xactware Solutions, Inc. | System and method for construction estimation using aerial images |
CN102819839B (zh) * | 2012-07-19 | 2015-06-03 | 北京市遥感信息研究所 | 多特征多级别的红外与高光谱图像的高精度配准方法 |
CN102800099B (zh) * | 2012-07-19 | 2015-02-18 | 北京市遥感信息研究所 | 多特征多级别的可见光与高光谱图像高精度配准方法 |
US20140086464A1 (en) | 2012-09-21 | 2014-03-27 | Mim Software Inc. | Dynamic local registration system and method |
CA2887763C (en) * | 2012-10-05 | 2023-10-10 | Eagle View Technologies, Inc. | Systems and methods for relating images to each other by determining transforms without using image acquisition metadata |
CN102920436A (zh) * | 2012-10-25 | 2013-02-13 | 深圳先进技术研究院 | 利用霍夫变换的肌肉图像处理方法 |
ITTO20120986A1 (it) | 2012-11-14 | 2014-05-15 | St Microelectronics Srl | Procedimento per l'estrazione di informazioni distintive da un flusso di frame video digitali, sistema e prodotto informatico relativi |
US10127636B2 (en) * | 2013-09-27 | 2018-11-13 | Kofax, Inc. | Content-based detection and three dimensional geometric reconstruction of objects in image and video data |
US10140511B2 (en) | 2013-03-13 | 2018-11-27 | Kofax, Inc. | Building classification and extraction models based on electronic forms |
US9355312B2 (en) | 2013-03-13 | 2016-05-31 | Kofax, Inc. | Systems and methods for classifying objects in digital images captured using mobile devices |
IL226751A (en) * | 2013-06-04 | 2014-06-30 | Elbit Systems Ltd | A method and system for coordinating imaging sensors |
AU2014295972B2 (en) | 2013-08-02 | 2018-10-11 | Xactware Solutions, Inc. | System and method for detecting features in aerial images using disparity mapping and segmentation techniques |
CN103455992B (zh) * | 2013-09-11 | 2015-12-23 | 中国科学院电子学研究所 | 拼接航空多元并扫图像的方法 |
US9386235B2 (en) | 2013-11-15 | 2016-07-05 | Kofax, Inc. | Systems and methods for generating composite images of long documents using mobile video data |
CN103679676A (zh) * | 2013-12-02 | 2014-03-26 | 西北工业大学 | 基于多层次词袋聚类的快速无序图像拼接方法 |
CN103700080B (zh) * | 2013-12-06 | 2016-08-03 | 北京工业大学 | 基于Skinner概率自动机的图像误匹配对去除方法 |
CN103761454B (zh) * | 2014-01-23 | 2017-02-08 | 南昌航空大学 | 基于蛋白点多维特征的两凝胶图像间蛋白点匹配方法 |
US9760788B2 (en) | 2014-10-30 | 2017-09-12 | Kofax, Inc. | Mobile document detection and orientation based on reference object characteristics |
EP3048558A1 (en) * | 2015-01-21 | 2016-07-27 | Application Solutions (Electronics and Vision) Ltd. | Object detecting method and object detecting apparatus |
CN104751465A (zh) * | 2015-03-31 | 2015-07-01 | 中国科学技术大学 | 一种基于lk光流约束的orb图像特征配准方法 |
CN104766319B (zh) * | 2015-04-02 | 2017-06-13 | 西安电子科技大学 | 提升夜间拍照图像配准精度的方法 |
US10242285B2 (en) | 2015-07-20 | 2019-03-26 | Kofax, Inc. | Iterative recognition-guided thresholding and data extraction |
TWI582710B (zh) * | 2015-11-18 | 2017-05-11 | Bravo Ideas Digital Co Ltd | The method of recognizing the object of moving image and the interactive film establishment method of automatically intercepting target image |
CN108475433B (zh) | 2015-11-20 | 2021-12-14 | 奇跃公司 | 用于大规模确定rgbd相机姿势的方法和系统 |
CN105809693B (zh) * | 2016-03-10 | 2018-11-16 | 西安电子科技大学 | 基于深度神经网络的sar图像配准方法 |
US11347979B2 (en) * | 2016-03-10 | 2022-05-31 | Peking University Shenzhen Graduate School | MCMC framework-based sub-hypergraph matching method and device |
CN106488123A (zh) * | 2016-10-18 | 2017-03-08 | 安徽协创物联网技术有限公司 | 一种基于全景相机的窄视场双相机影像拼接方法 |
US11010630B2 (en) * | 2017-04-27 | 2021-05-18 | Washington University | Systems and methods for detecting landmark pairs in images |
US10803350B2 (en) | 2017-11-30 | 2020-10-13 | Kofax, Inc. | Object detection and image cropping using a multi-detector approach |
CN108694411B (zh) * | 2018-04-03 | 2022-02-25 | 南昌奇眸科技有限公司 | 一种识别相似图像的方法 |
CN108763265B (zh) * | 2018-04-03 | 2022-02-08 | 南昌奇眸科技有限公司 | 一种基于分块检索的图像识别方法 |
CN109358646B (zh) * | 2018-07-26 | 2020-11-24 | 北京航空航天大学 | 带有乘性噪声的导弹自主编队队形随机控制系统建模方法 |
CN109584250B (zh) * | 2018-11-28 | 2022-09-20 | 哈工大机器人(合肥)国际创新研究院 | 一种鲁棒的视觉区域自动划分标注的方法 |
CN109949350B (zh) * | 2019-03-11 | 2021-03-02 | 中国矿业大学(北京) | 一种基于形态不变特征的多时相点云自动配准方法 |
CN110288639B (zh) * | 2019-06-21 | 2020-05-15 | 深圳职业技术学院 | 一种用于计算机图像辅助虚拟拼接系统 |
CN112633045A (zh) * | 2019-10-09 | 2021-04-09 | 华为技术有限公司 | 一种障碍物检测方法、装置、设备及介质 |
US11094113B2 (en) | 2019-12-04 | 2021-08-17 | Geomni, Inc. | Systems and methods for modeling structures using point clouds derived from stereoscopic image pairs |
CN112465881B (zh) * | 2020-11-11 | 2024-06-04 | 常州码库数据科技有限公司 | 一种改进的鲁棒性点配准方法及系统 |
CN112861672B (zh) * | 2021-01-27 | 2022-08-05 | 电子科技大学 | 一种基于光学-sar异源遥感图像匹配方法 |
CN112990228B (zh) * | 2021-03-05 | 2024-03-29 | 浙江商汤科技开发有限公司 | 图像特征匹配方法和相关装置、设备及存储介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5613013A (en) * | 1994-05-13 | 1997-03-18 | Reticula Corporation | Glass patterns in image alignment and analysis |
US6373970B1 (en) | 1998-12-29 | 2002-04-16 | General Electric Company | Image registration using fourier phase matching |
US6694064B1 (en) | 1999-11-19 | 2004-02-17 | Positive Systems, Inc. | Digital aerial image mosaic method and apparatus |
US6738532B1 (en) | 2000-08-30 | 2004-05-18 | The Boeing Company | Image registration using reduced resolution transform space |
US20030030638A1 (en) | 2001-06-07 | 2003-02-13 | Karl Astrom | Method and apparatus for extracting information from a target area within a two-dimensional graphical object in an image |
WO2005027491A2 (en) * | 2003-09-05 | 2005-03-24 | The Regents Of The University Of California | Global motion estimation image coding and processing |
JP4686762B2 (ja) * | 2005-06-07 | 2011-05-25 | 独立行政法人産業技術総合研究所 | 三次元形状の位置あわせ方法及びプログラム |
-
2005
- 2005-06-20 EP EP05253802A patent/EP1736928A1/en not_active Withdrawn
-
2006
- 2006-06-19 US US11/454,974 patent/US7961982B2/en not_active Expired - Fee Related
- 2006-06-20 JP JP2006170319A patent/JP2008107860A/ja not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012086285A (ja) * | 2010-10-15 | 2012-05-10 | Seiko Epson Corp | 追跡ロボット装置、追跡ロボット制御方法、追跡ロボット制御プログラム、ホモグラフィー行列取得装置、ホモグラフィー行列取得方法、およびホモグラフィー行列取得プログラム |
JP2014509535A (ja) * | 2011-03-18 | 2014-04-21 | ゼンゾモトリック インストルメンツ ゲゼルシャフト フュア イノベイティブ ゼンゾリク ミット ベシュレンクテル ハフツング | 注視点マッピング方法および装置 |
JP2013008364A (ja) * | 2011-06-22 | 2013-01-10 | Boeing Co:The | 画像の表示 |
JP2015503778A (ja) * | 2011-12-24 | 2015-02-02 | エコール ドゥ テクノロジー スペリウールEcole De Technologie Superieure | ノイズに対して堅牢な画像レジストレーション方法およびシステム |
JP2014238751A (ja) * | 2013-06-10 | 2014-12-18 | 独立行政法人産業技術総合研究所 | 画像生成装置及び画像生成方法 |
Also Published As
Publication number | Publication date |
---|---|
US7961982B2 (en) | 2011-06-14 |
EP1736928A1 (en) | 2006-12-27 |
US20070003165A1 (en) | 2007-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008107860A (ja) | 画像対間の変換を推定する方法、画像を表現する方法、並びにこの方法のための装置、制御装置、及びコンピュータプログラム | |
EP3382644B1 (en) | Method for 3d modelling based on structure from motion processing of sparse 2d images | |
JP6430064B2 (ja) | データを位置合わせする方法及びシステム | |
Xiong et al. | A critical review of image registration methods | |
US7916919B2 (en) | System and method for segmenting chambers of a heart in a three dimensional image | |
EP2081133A1 (en) | System and method for deformable object recognition | |
US10460472B2 (en) | System and method for model adaptation | |
CN104463066B (zh) | 一种商品外包装一维条形码快速定位识别方法 | |
Ghannam et al. | Cross correlation versus mutual information for image mosaicing | |
Moradi et al. | Deformable registration using scale space keypoints | |
Misra et al. | Feature based remote sensing image registration techniques: a comprehensive and comparative review | |
Okorie et al. | Region-based image registration for remote sensing imagery | |
Chen et al. | A novel Fourier descriptor based image alignment algorithm for automatic optical inspection | |
Byun et al. | Registration of 3D scan data using image reprojection | |
Peng et al. | A practical two-step image registration method for two-dimensional images | |
JP2007140729A (ja) | 物品の位置及び姿勢を検出する方法および装置 | |
Alkaabi et al. | Iterative corner extraction and matching for mosaic construction | |
Shark et al. | Development and evaluation of fast branch-and-bound algorithm for feature matching based on line segments | |
Alnagdawi et al. | ORB-PC feature-based image registration | |
Wang et al. | A vision-based 2D-3D registration system | |
Parmar et al. | An efficient technique for subpixel accuracy using integrated feature based image registration | |
Ju | A Novel Approach to Robust LiDAR/Optical Imagery Registration | |
Gabarda et al. | A new Rényi entropy-based local image descriptor for object recognition | |
Abbas et al. | Robust feature matching in terrestrial image sequences | |
Najafi et al. | Image Registration by Affine-ORB on SAR and UAV Images to Find Object Geolocation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090617 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20111209 |