JP5066279B2 - マルチスケールの有向パッチ(multi−scaleorientedpatches)を使用したマルチ画像特徴(feature)のマッチング - Google Patents

マルチスケールの有向パッチ(multi−scaleorientedpatches)を使用したマルチ画像特徴(feature)のマッチング Download PDF

Info

Publication number
JP5066279B2
JP5066279B2 JP2011155049A JP2011155049A JP5066279B2 JP 5066279 B2 JP5066279 B2 JP 5066279B2 JP 2011155049 A JP2011155049 A JP 2011155049A JP 2011155049 A JP2011155049 A JP 2011155049A JP 5066279 B2 JP5066279 B2 JP 5066279B2
Authority
JP
Japan
Prior art keywords
descriptor
vector
feature
feature point
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011155049A
Other languages
English (en)
Other versions
JP2011204280A (ja
Inventor
ブラウン マシュー
スツェルスキー リチャード
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2011204280A publication Critical patent/JP2011204280A/ja
Application granted granted Critical
Publication of JP5066279B2 publication Critical patent/JP5066279B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G1/00Storing articles, individually or in orderly arrangement, in warehouses or magazines
    • B65G1/02Storage devices
    • B65G1/14Stack holders or separators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2201/00Indexing codes relating to handling devices, e.g. conveyors, characterised by the type of product or load being conveyed or handled
    • B65G2201/02Articles
    • B65G2201/0214Articles of special size, shape or weigh
    • B65G2201/022Flat

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本発明は場面(scene)の複数の画像間で対応する点を特定する方法に関し、より詳細には特徴を迅速に抽出し、場面の部分的に重複する多くの画像間の相関性(correspondences)を検出するシステムおよびプロセスに関する。
画像内の対応する特徴の検出は、一般に画像マッチングと呼ばれており、複数の画像から情報を抽出しようとするほとんどすべての映像アプリケーションに必須のコンポーネントである。画像マッチングの初期の研究は、2つの陣営(camps)、すなわち特徴ベースの方法と直接的な方法に分かれていた。特徴ベースの方法では、エッジやコーナーのように突出した特徴を抽出し、わずかな局所情報(たとえば小さな画像パッチの相関関係)を使用して一致を確定する[8]。入手できるわずかな画像データを使用する特徴ベースの方法とは対照的に、直接的な方法ではすべてのピクセル値を使用して繰り返し画像を整合しようとする[1、9]。マッチングと認識へのその他のアプローチでは、不変の要素(invariants)を使用してオブジェクトの特徴を明らかにする。場合によってはこの目的を達成するための基本的な枠組みを確立する[14、15]。
こうしたアプローチの共通点として不変の特徴があり、突出した特徴の周囲にある大量の局所画像データを使用してインデックス作成とマッチングのための不変の記述子(descriptors)を作成する。この領域の最初の研究は、シュミット(Schmid)とモール(Mohr)によって行われ[16]、ガウスの微分(Gaussianderivatives)の突出(jet)を利用してハリスのコーナー(Harris corner)を中心とする回転に対して不変の記述子(rotationally invariantdescriptor)を構成する。ロー(Lowe)は、このアプローチを拡張してスケールに対する不変性を導入した[10、11]。他の研究者は、アフィン変換(affinetransformations)に対して不変の特徴を開発した[3、20、5]。特徴点(interestpoint)の検出方法には、ハリスのコーナーまたはガウスの微分(DOG:Difference−of−Gaussians)の最大値のように標準的な特徴検出方法から、最大安定領域(maximallystable regions)[12]や安定局所位相構造(stablelocal phase structures)[7]のようにより複雑な方法までさまざまである。
一般に、特徴点の抽出と記述子のマッチングは2つの基本的なステップと見なされており、特徴点の繰り返し精度(repeatability)[17]と記述子のパフォーマンス[13]に関するさまざまな技術を評価する場合に何らかの進展が見られた。また、動きの構造(structurefrom motion)[19]とパノラマイメージング(panoramicimaging)[6]のコンテキストにおけるマルチビューマッチングへの強制的な適用もある。しかし、今日までこうした手順で特徴を迅速に検出し、場面の部分的に重複する多くの画像間の相関性を検出する機能を提供するものはない。
本明細書の以上と以下の各節の説明で、角括弧内の数字は関連のさまざまな文献の参照を示していることに留意されたい。たとえば、こうした参照は「参考文献[1]」または単に「[1]」で表される。複数の参考文献を表す場合は、たとえば[2、3]のように複数の数字を角括弧で囲む。個々の数字に対応する出版物が記載された参考文献のリストは、以下の実施形態の節(DetailedDescription section)の終わりに示している。
本発明は、不変の特徴の新しいクラスに基づいて場面の複数の画像間で対応する点を特定するシステムおよびプロセスを対象とする。本システムおよびプロセスは、特徴を迅速に抽出し、場面の部分的に重複する多くの画像間の相関性を検出する機能を備えている。本技術は、画像ステッチ(imagestitching)やビデオ安定化(video stabilization)のための画像相関性の検出にきわめて有効である。また、ビデオの特徴追跡や複数画像からの3次元モデルの構築などの一般的なマルチ画像の相関性にも拡張できる。
より詳細には、本システムおよびプロセスには、まずさまざまな解像度の各画像において特徴点を特定する操作が含まれる。特徴点は、その画像内の位置がその点を中心とするあらかじめ指定されたサイズのピクセル近傍内のピクセルに起因する少なくとも1つの属性で定義される点である。さらに、個々の特徴点はその点を中心とするピクセル近傍内のピクセルに起因する少なくとも1つの属性(点の位置の定義に使用した属性と同じでもよいし、別の属性でもよい)に基づいて一意の向きを割り当てることができる点である。この第2の近傍は、点の位置の定義に使用したものと同じサイズの近傍でもよいし、別のサイズの近傍でもよい。
特徴点が特定されると、特徴点ごとに記述子が確立する。この記述子は、画像の位置、向き、スケールの変化に対しても、この点を中心とする領域内のピクセルの輝度(intensity)に対しても、実質的に不変である形で各点を特徴付ける。次に、画像間で実質的に一致する記述子の集合が特定される。異なる画像中に現れる、一致する記述子の集合に関連付けられた特徴点は、対応する点(すなわち、場面の同一の要素を表す点)として指定される。
画像ごとに特徴点を特定する操作に関して、この操作はまず画像の解像度のピラミッドを作成することで実行できる。ピラミッドの各レベルで、コーナー特徴を代表する画像内の位置を特定する。たとえば、本システムおよびプロセスの試験済みの実施形態では、いわゆるハリスのコーナー特徴を採用した。コーナー特徴の位置を特定する1つの方法は、その位置を中心とした所定の最小近傍半径のピクセル近傍内で局所的に最大のコーナー強度(cornerstrength)を示し、所定の最小強度の閾値を超えるコーナーの位置を特徴ごとに特定することである。特定されたコーナー位置の総数が所定の最大値を超える場合は、近傍半径を所定の整数値だけ増分し、前回特定された各位置のコーナー強度が現在考察中のピクセル近傍でも依然として局所的な最大値をとるかどうか、さらに依然として最小強度の閾値を超えるかどうかを判断する。両方の条件を満たさない場合は、コーナーの位置が考察の対象から外される。すべてのコーナーの位置についての再検討が完了すると、総数が最大許容値を超えているかどうかをもう一度判断する。超えている場合は、半径を増分して前述の手順をもう一度繰り返す。コーナーの位置の数が最大許容数以内になるまでこの繰り返しのプロセスを継続する。この時点で、残っている特定された位置は別のコーナー特徴を代表する点として指定される。残っているコーナー特徴の位置については、それぞれ考察の対象となる特定された位置を中心とする所定のサイズの局所的な近傍に適合する2次元の正方形(2Dquadratic)の面で最大強度を示す位置を特徴に割り当てることで、各特徴の位置を調整できる。
残っているコーナー特徴には向きも割り当てられる。本システムおよびプロセスの試験済みの実施形態において、この操作はぼかし勾配(brurred gradient)のアプローチを使用して実行される。最終的に、残っているコーナー特徴のそれぞれについて特定された位置は、該当するコーナー特徴に関して計算された向きの個別の特徴点として指定される。
各特徴点の記述子を生成する操作に関して、この操作を実行するためには、まず考察対象の特徴点の位置を中心とする特徴点と同じ向きの所定のサイズpxpの記述子領域を確立する。次に、記述子領域より小さい所定のサイズdxdの記述子ベクトルが構成され、この領域内のピクセルの輝度に関する双線形補間を使用して領域のサンプリングが行われる。ただし、適切なピラミッドレベルからサンプリングすることで、エイリアシングを回避する。これで、記述子ベクトルがゲインとバイアスに関して標準化され、標準化された記述子ベクトルに対してハール(Haar)のウェーブレットの変換が行われ、変換ベクトルが生成される。
画像間で実質的に一致する記述子を検出する操作に関して、一般にこの操作は変換された各記述子ベクトルを特徴空間(featurespace)内の所定の数の近傍領域とマッチングすることで実行される。このタスクを実行する1つの方法は、まず変換された個々の記述子ベクトルの最初の3つの非ゼロウェーブレット係数から3次元ハッシュテーブルを作成することである。次に、ハッシュテーブルの各ビン(bin)について、ビン内で検出される3係数ベクトル(three−coefficientvector)間の距離を計算する。3係数ベクトルのそれぞれが順に選択され、計算した距離に基づいて、同じビンに含まれるが選択されたベクトルと同じ画像には関連付けられていないその所定の数の近傍領域が特定される。これで、一致ベクトル候補(potentiallymatching vectors)の集合が構成される。こうした各集合内のベクトルに関連付けられた特徴点は、画像間で対応する点として指定される。本マッチング手順の試験済みの実施形態において、ハッシュテーブルは次元あたり10個のビンを備え、各ビンの範囲は半分が重複するように構成されている。各ベクトルの所定の数の近傍領域を特定する代わりに、一致ベクトル候補の集合を構成せずに、考察中のベクトルに関連付けられた画像以外の各画像に関連付けられた同じビン内にある近傍領域を画像ごとに所定の最大数まで特定してもよいことに留意されたい。
一致ベクトル候補の各集合に含まれるベクトルに関連付けられた特徴点を対応する点として指定する操作において、誤って特定された一致を除去できる。このためには、一般に3係数ベクトルに関連付けられた特徴点が実際に同じベクトル集合内の別の3係数ベクトルに関連付けられた特徴点に対応しない場合は、一致ベクトルの候補としての考察対象からその3係数ベクトルを除外する必要がある。この操作はさまざまな方法で実行できる。1つの方法では、一致ベクトルの集合ごとに、まず集合のアウトライア(outlier)の距離を計算し、次にこの集合内の任意の一致ベクトルについて計算した距離がアウトライアの距離の約65%を超えるかどうかを判断する。一致ベクトルの距離がアウトライアの距離の約65%を超えることがわかった場合は、対応する画像点としての考察からこれを除外する。この除去戦略は、アウトライアの距離に基づく拘束条件(outlierdistance constraint)を使用したアウトライア除去(outlierrejection)と呼ばれる。誤った一致ベクトルを集合から除去する別の方法は、標準の幾何学的アウトライア除去手順を実行し、アウトライアであることが判明したベクトルに対応する点として関連付けられた特徴点を除去することである。本質的に、この幾何学的アウトライア除去手順には、2つの画像間ですべての点が最もよく一致する変換を検出する操作と、変換したときに所定の許容範囲内に対応しない点を除去する操作が含まれる。前述の除去技法の両方を採用することもできる。たとえば、本システムおよびプロセスの試験済みの実施形態においては、まずアウトライアの距離に基づく拘束条件を使用した除去戦略が採用され、続いて幾何学的アウトライア除去手順が採用された。
以上に説明した効果に加えて、本発明のその他の利点は、以下の実施形態に関する説
明と添付の図面を関連付けて参照することで明らかになるであろう。
本発明の特定の機能、態様、および利点は、以下の実施形態の説明、前述の請求項、および添付の図面に関連して理解が深まるであろう。
本発明を実装するための例示的なシステムを構成する汎用コンピューティングデバイスを示す図である。 本発明による、同じ場面の複数の画像間で対応する点を特定するプロセス全体を示す流れ図である。 調和平均の特徴点検出関数のアイソコンター(isocontour)とハリス関数およびシャイ−トマシ(Shi−Tomasi)関数のアイソコンターとを比較するグラフである。 サブピクセルの局所化を行った場合と行わない場合の特徴点の反復性を示すグラフである。 本発明に従って、記述子ベクトルを生成するプロセスを示す流れ図である。 本発明に従って、記述子ベクトルを生成するプロセスを示す流れ図である。 本発明に従って、記述子ベクトルを生成するプロセスを示す流れ図である。 山の場面の画像を示す図である。ピークの頂上にある特徴点に関連する記述子領域を白いボックスで示し、特徴点の位置をボックスの中心の白いドットで示しており、特徴点から伸びる線でこの点に割り当てられた向きを示している。 図6の記述子領域から構成される8x8の記述子を示す図である。 共通する部分のある2つの山の場面を示す図である。アウトライア除去プロセスを実行する前に特定された画像間の対応する位置は、白いドットで示されている。 共通する部分のある2つの山の場面を示す図である。アウトライア除去プロセスを実行する前に特定された画像間の対応する位置は、白いドットで示されている。 図8Aと同じ画像を示す図である。アウトライアの距離に基づく拘束条件を採用したアウトライア除去技法を適用した後である。 図8Bと同じ画像を示す図である。アウトライアの距離に基づく拘束条件を採用したアウトライア除去技法を適用した後である。 図9Aと同じ画像を示す図である。幾何学ベースのアウトライア除去技法を適用した後である。 図9Bと同じ画像を示す図である。幾何学ベースのアウトライア除去技法を適用した後である。 図5A〜図5Cによって生成された記述子ベクトルを使用して、場面の画像間の対応する点を検出するプロセスを示す流れ図である。
以下に示す本発明の好ましい実施形態の説明では、本明細書の要素となる添付の図面を参照する。こうした図面には、本発明を実施できる特定の実施形態が例として示されている。本発明の範囲を逸脱しない限り、他の実施形態を利用できること、および構造上の変更を適用できることは言うまでもない。
1.0 コンピューティング環境
本発明の好ましい実施形態について説明する前に、本発明を実装できる適切なコンピューティング環境の簡単かつ一般的に説明する。
図1は、適切なコンピューティングシステム環境100を示している。コンピューティングシステム環境100は適切なコンピューティング環境の1つの例にすぎず、本発明の使い方または機能の範囲に関するいかなる制限を示すものでもない。また、コンピューティング環境100は、例示的なオペレーティング環境100に示すコンポーネントの1つまたは組合わせに関して、依存性も要件もないものとする。
本発明は、他のさまざまな汎用または専用のコンピューティングシステム環境または構成にも適用できる。本発明の使用に適した周知のコンピューティングシステム、環境、および/または構成の例には、パーソナルコンピュータ、サーバーコンピュータ、ハンドヘルドまたはラップトップデバイス、マルチプロセッサシステム、マイクロプロセッサベースのシステム、セットトップボックス、プログラム可能な家庭用電子機器、ネットワークPC、ミニコンピュータ、メインフレームコンピュータ、前述の任意のシステムまたはデバイスを含む分散コンピューティング環境などが含まれるが、これらに限定はされない。
本発明は、プログラムモジュールのようにコンピュータで実行可能な命令をコンピュータで実行する一般的なコンテキストで説明できる。一般に、プログラムモジュールには、特定のタスクを実行したり、特定の抽象データ型を実装したりするルーチン、プログラム、オブジェクト、コンポーネント、データ構造などがある。本発明は、通信ネットワークを介してリンクするリモート処理装置でタスクを実行する分散コンピューティング環境でも実施できる。分散コンピューティング環境では、メモリ記憶装置を含むローカルとリモートの両方のコンピュータ記憶媒体にプログラムモジュールを格納できる。
図1を参照すると、本発明を実施する例示的なシステムに、コンピュータ110の形で汎用コンピューティングデバイスが配置されている。コンピュータ110のコンポーネントには、処理装置120、システムメモリ130、さまざまなシステムコンポーネント(システムメモリや処理装置120など)を接続するシステムバス121が含まれるが、それらに限定はされない。システムバス121は、さまざまなバスアーキテクチャの任意の1つを使用したメモリバスまたはメモリコントローラ、周辺バス、ローカルバスを含む各種バス構造のいずれでもよい。こうしたアーキテクチャには、例として、ISA(IndustryStandard Architecture)バス、MCA(MicroChannel Architecture)バス、EISA(EnhancedISA)バス、VESA(Video ElectronicsStandards Association)ローカルバス、PCI(PeripheralComponent Interconnect)バス(メザニン(Mezzanine)バスとも呼ばれる)が含まれるが、これらに限定はされない。
コンピュータ110は、通常はさまざまなコンピュータ可読媒体を備えている。コンピュータ可読媒体は、コンピュータ110からアクセスできる任意の使用可能な媒体でよい。揮発性と不揮発性の両方、および取り外し可能と不可能の両方の媒体が含まれる。例として、コンピュータ可読媒体にはコンピュータ記憶媒体および通信媒体を含めてもよいが、これらに限定はされない。コンピュータ記憶媒体には、コンピュータ可読の命令、データ構造、プログラムモジュール、またはその他のデータなどの情報を記憶する任意の方法または技術で組み込まれた、揮発性と不揮発性の両方、および取り外し可能と不可能の両方の媒体が含まれる。コンピュータ記憶媒体には、RAM、ROM、EEPROM、フラッシュメモリなどのメモリ技術、CDROM、デジタル多用途ディスク(DVD:digital versatile disk)などの光ディスク記憶装置、磁気カセット、磁気テープ、磁気ディスクなどの磁気記憶装置、または必要な情報を格納でき、コンピュータ110からアクセスできる他の任意の媒体が含まれるが、これらに限定はされない。通信媒体は、搬送波やその他の搬送メカニズムのような変調データ信号に含まれるコンピュータ可読の命令、データ構造、プログラムモジュール、またはその他のデータなどを具体化したものであり、任意の情報伝達媒体を含む。「変調データ信号」という用語は、信号内の情報を符号化するように、1つまたは複数の特徴を設定または変更された信号を意味する。例として、通信媒体には、有線ネットワーク、直接ワイヤ接続などの有線媒体と、音、RF、赤外線などの無線媒体が含まれるが、これらに限定はされない。上記の任意の組合わせも、コンピュータ可読媒体の範囲内に含まれるものとする。
システムメモリ130には、読み取り専用メモリ(ROM:read only memory)131やランダムアクセスメモリ(RAM:randomaccess memory)132のように揮発性および/または不揮発性メモリという形をとるコンピュータ記憶媒体が含まれる。起動時などにコンピュータ110内のエレメント間の情報転送を支援する基本ルーチンを含む基本入出力システム133(BIOS:basicinput/output system)は、通常はROM131に格納される。RAM 132には、通常はプロセッシングユニット520から直ちにアクセスできる、かつ/またはプロセッシングユニット120で現在操作しているデータおよび/またはプログラムモジュールが格納される。例として、図1にはオペレーティングシステム134、アプリケーションプログラム135、その他のプログラムモジュール136、およびプログラムデータ137が示すが、これには限定されない。
コンピュータ110には、その他の取り外し可能/不可能、揮発性/不揮発性のコンピュータ記憶媒体を含めてもよい。単に例として、図1に取り外し不可能な不揮発性の磁気媒体の読み出しまたは書き込みを行うハードディスクドライブ141、取り外し可能な不揮発性の磁気ディスク152の読み出しまたは書き込みを行う磁気ディスクドライブ151、CDROMや他の光媒体のような取り外し可能な不揮発性の光ディスク156の読み出しまたは書き込みを行う光ディスクドライブ155を示す。例示的なオペレーティング環境で使用できる上記以外の取り外し可能/不可能、揮発性/不揮発性のコンピュータ記憶媒体には、磁気テープカセット、フラッシュメモリカード、デジタル多用途ディスク、デジタルビデオテープ、ソリッドステートRAM、ソリッドステートROMなどが含まれるが、それらに限定はされない。ハードディスクドライブ141は、通常はインターフェース140などの取り外し不可能なメモリインターフェースを介してシステムバス121に接続し、磁気ディスクドライブ151と光ディスクドライブ155は、通常はインターフェース150などの取り外し可能なメモリインターフェースを介してシステムバス121に接続する。
図1に示す前述のドライブとこれに対応するコンピュータ記憶媒体には、コンピュータ可読の命令、データ構造、プログラムモジュールなど、コンピュータ110のデータを格納できる。たとえば、図1を参照すると、ハードディスクドライブ141にオペレーティングシステム144、アプリケーションプログラム145、その他のプログラムモジュール146、およびプログラムデータ147が格納されている。ただし、こうしたコンポーネントは、オペレーティングシステム134、アプリケーションプログラム135、その他のプログラムモジュール136、およびプログラムデータ137と同じでもよいし、異なっていてもよい。ここでは、オペレーティングシステム144、アプリケーションプログラム145、その他のプログラムモジュール146、およびプログラムデータ147には異なる番号を付けて、少なくとも別の複製であることを示している。ユーザーは、キーボード162やポインティングデバイス161などの入力装置(一般に、マウス、トラックボール、またはタッチパッドと呼ばれる)を使用してコンピュータ110にコマンドや情報を入力できる。他の入力装置(図示せず)には、マイクロフォン、ジョイスティック、ゲームパッド、サテライトディッシュ、スキャナなどを含めてもよい。これらの入力装置および他の入力装置は、多くの場合にシステムバス121に接続されたユーザー入力インターフェース160を介して処理装置120に接続するが、パラレルポート、ゲームポート、USB(universalserial bus)のような他のインターフェースやバス構造によって接続してもよい。モニタ191または他のタイプの表示装置も、ビデオインターフェース190のようなインターフェースを介してシステムバス121に接続される。さらに、コンピュータには出力インターフェース195を介してスピーカー197やプリンタ196など、モニタ以外の出力周辺装置を接続できる。本発明において特に重要であるが、一連の画像193をキャプチャできるカメラ192(デジタル/電子的スチール(still)カメラまたはビデオカメラ、またはフィルムスキャナ/フォトスキャナ(film/photographicscanner))を、パーソナルコンピュータ110の入力装置として備えていてもよい。さらに、パーソナルコンピュータ110の入力装置として1台のカメラが図示されているが、複数台のカメラを備えていてもよい。1台または複数台のカメラの画像193は、適切なカメラインターフェース194を介してコンピュータ110に入力される。このインターフェース194はシステムバス121に接続され、それによって画像をRAM132またはコンピュータ110に関連付けられた他のデータ記憶装置のいずれかにルーティングでき、格納できる。ただし、画像データは前述のコンピュータ可読媒体のいずれかからコンピュータ110に入力することもでき、カメラ192を使用する必要はない。
コンピュータ110は、リモートコンピュータ180のような1台または複数台のリモートコンピュータへの論理接続を使用してネットワーク環境で動作できる。リモートコンピュータ180は、パーソナルコンピュータ、サーバー、ルータ、ネットワークPC、ピアデバイス、または他の一般のネットワークノードでよい。通常は、コンピュータ110に関連して上で説明したエレメントの多くまたはすべてが含まれるが、図1にはメモリ記憶装置181のみを示す。図1に示す論理接続には、ローカルエリアネットワーク(LAN:localarea network)171とワイドエリアネットワーク(WAN:widearea network)173が含まれるが、他のネットワークを含めてもよい。このようなネットワーキング環境は、職場、企業規模のコンピュータネットワーク、イントラネット、およびインターネットではごく一般的である。
LANネットワーキング環境で使用した場合、コンピュータ110はLAN171にネットワークインターフェースまたはアダプタ170を介して接続する。WANネットワーキング環境で使用する場合、コンピュータ110は一般にインターネットなどのWAN173を介して通信を確立するためのモデム172またはその他の手段を備えている。モデム172(内蔵または外付け)は、ユーザー入力インターフェース160または他の適切なメカニズムを使用してシステムバス121に接続できる。ネットワーク環境では、コンピュータ110またはその一部に関連して記述したプログラムモジュールをリモートメモリ記憶装置に格納できる。例として、図1にメモリデバイス181に格納されたリモートアプリケーションプログラム185を示すが、これには限定されない。図示されたネットワーク接続が例示的なものであり、コンピュータ間の通信リンクを確立する他の手段を使用してもよいことは言うまでもない。
2.0 マルチ画像特徴マッチングのシステムおよびプロセス
例示的な動作環境について説明してきたが、本実施形態の節では、この後に本発明を実施するプログラムモジュールについて説明する。一般に、本発明によるシステムおよびプロセスには、場面を構成する複数の画像間で対応する点を特定する操作が含まれる。通常、これは図2のハイレベル(high−level)流れ図に示すように、以下のプロセス操作によって実現する。まず、画像ごとにさまざまな解像度で特徴点が特定される(プロセス操作200)。特徴点は、画像内の位置がその点を中心とするあらかじめ指定されたサイズのピクセル近傍内のピクセルに起因する(attributable)少なくとも1つの属性で定義される点である。さらに、個々の特徴点はその点を中心とするピクセル近傍内のピクセルに起因する少なくとも1つの属性(点の位置の定義に使用した属性と同じでもよいし、別の属性でもよい)に基づいて一意の向きを割り当てることのできる点である。この第2の近傍は、点の位置の定義に使用したものと同じ所定のサイズの近傍でもよいし、別のサイズの近傍でもよい。
特徴点が特定されると、プロセス操作202で特徴点ごとに記述子が確立する。この記述子は、画像の位置、向き、スケールの変化に対しても、この点の位置と向きを定義するためのピクセルの輝度の変化に対しても、実質的に不変である形で各点を特徴付ける。次に、画像間で実質的に一致する記述子の集合が特定される(プロセス操作204)。最終的に、プロセス操作206で、一致する記述子の集合に関連付けられた、異なる画像中に現れる特徴点は、対応する点(つまり、場面の同じ要素を表す点)として指定される。
まず、前述の特徴記述子で表される不変の特徴の新しいクラス(一般に、輝度値のバイアス/ゲイン標準化パッチ(bias/gainnormalized patch of intensity values)である)について説明し、続いて特徴マッチングスキーマについて説明する。
2.1 マルチスケール指向(Multi−ScaleOriented)の特徴
マルチスケールの有向特徴は、4つの幾何学的なパラメータと2つの光度測定のパラメータによって特徴付けられる。幾何学的なパラメータは、t、t、θ、l、すなわち画像内の領域またはパッチの中心の位置x、y、向き、スケールである。光度測定のパラメータは、α、β、すなわちパッチのゲインとバイアスである。こうした表現が指定されると、パッチのマッチングを行う6パラメータのシンプルなモデルが採用され、正しい一致と誤った一致に関するノイズ統計が分析される。これで、特徴ごとのアウトライアの距離に基づくシンプルな一致検証手順が得られる。より詳細には、対応する画像パッチ間の変換は次のように表される。
I’(x’)=αI(x)+β+e (1)
ただし、x’=Ax+t、
である。エラーeはイメージングのノイズとモデリングのエラーを表す。
特徴の中心の位置x、yは、この変換が適切に定義された(well defined)点、すなわちI(x)の自動相関(autocorrelation)がピークに達している点に一致すると考えられる。こうした点の候補は、特徴点と呼ばれる。特徴を比較するために、原則的に2つの画像の位置同士の変換パラメータの最尤推定値を計算できる。ガウスのノイズ(Gaussiannoise)を想定すると、非線形最小二乗問題を解くことでこの操作を繰り返し実行できる。ただし、効率を上げるために、各特徴を前述のモデルの不変要素で特徴付け、2つの特徴間のモデルパラメータに関する閉じた形の近似を使用してもよい。エラーeに関する統計を使用して、一致が正しいか誤りかを検証できる。
2.1.1 特徴点
画像内には位置と向きの両方で特徴付けできる多くの点が存在するが[17]、本システムおよびプロセスの試験済みの実施形態について選択した特徴点は、いわゆるハリスのコーナーに関連付けられる。こうしたハリスのコーナーに一致する特徴点は、次のようにして検出される。入力画像I(x,y)のそれぞれについて、低レベルのP(x,y)=I(x,y)と、以下のように高レベルのスムージングと二段抽出(subsampling)の操作に関連するによって画像ピラミッドが構成される。
lはピラミッドのレベル、gσ(x,y)は標準偏差σのガウスカーネルを表す。二段抽出率(subsamplingrate)s=2とピラミッドスムージングσ=1.0は、このピラミッド構成手順の試験済みの実施形態に適切に採用されている。ただし、一般にはsとして約1.1から3.0までの値を使用し、σとして約0.55から1.5までの値を使用する。特徴点は、ピラミッドの各レベルから抽出される。レベル1と位置(x,y)のハリス行列(Harrismatrix)は、次のようにスムージングされた勾配(gradients)の外積である。
ただし、∇σは以下のようにスケールσでの空間微分(spatialderivative)である。
σf(x,y)∇f(x,y)*gσ(x,y) (4)
試験済みの実施形態において、積分(integration)スケールはσ=1.5に設定され、微分スケールσ=1.0に設定された。以下のコーナー検出関数が使用された。
これは、Hの固有値(λ、λ)の調和平均である。試験済みの実施形態において、特徴点は、コーナー強度fHM(x,y)が局所領域中の極大値となり、その値が閾値10.0を超える所に位置すると仮定した。ただし、一般にはσとして約0.5から2.5までの値を使用でき、σdとして約0.5から2.5までの値を使用できる。閾値は0以上の任意の値でよいことに留意されたい。前述の周囲の近傍のサイズについて簡単に説明する。
前述の特徴点検出関数選択の理由は、Hと局所相関関数との関係によって理解できる。画像I(x)に関して、1次テーラー展開(Taylorexpansion)によって以下の局所的な自動相関が得られる。
特徴点は、自動相関関数のピークに位置する。これは、すべての単位ベクトルuについてe(u)が大きいことを意味する。つまり、Hの両方の固有値が大きいという要件と同等である。
特徴点の位置を検出するには、調和平均関数(harmonic mean function)以外のコーナー検出関数も使用できることに留意されたい。たとえば、いわゆるハリスの関数(すなわち、f=λλ−0.04(λ+λ=detH−0.04(tr H))とShi−Tomasiの関数(すなわち、fST=min(λ,λ))を代用してもよい。図3では、調和平均の特徴点検出関数のアイソコンター(isocontour)と、その他の関数のアイソコンターとを比較している。すべての検出関数において、2つの固有値が大きいことが要求される。予備試験(Preliminaryexperiments)により、3つの検出機能のそれぞれは概ね同じ性能を示すので、ほとんど同様に利用できることがわかっている。
2.1.1.1 適応非極大抑制(AdaptiveNon−Maximal Suppression)
計算上の問題により、画像ごとに固定数の特徴点を生成するのが望ましい。画像内で空間的に適切に分散する特徴点を選択するために、適応非極大抑制の戦略を利用できる。より詳細には、特徴点はコーナー強度fHMに基づいて抑制され、半径rピクセルの近傍内で最大のもののみが保持される。画像からほぼ一定数nipの特徴点を抽出するために、非極大抑制半径rを検索できる。試験済みの実施形態において、初期値r=rinit=4.0を使用する。ただし、これはほぼ1から15までの範囲である。ここで、各画像からnipを超えない特徴点が抽出されるような連続する整数値がrの最大値として検索される。試験済みの実施形態ではnip=500である。ただし、一般にこの値は画像のサイズと状態(nature)によって、最小で約10から最大で数千に及ぶ。前述の方法で特徴点を空間的に分散すると、最大のコーナー強度に基づいて選択するのとは対照的に、画像の一致の脱落が少なくなる。
2.1.1.2 サブピクセルの精度
2次元の正方形を局所的な近傍内のコーナー強度関数に適合させ、その最大値を検出することで、特徴点をサブピクセルの精度で配置し、よりよい結果を得ることができる。より詳細に記述すると以下のようになる。
ただし、xは位置(x,y)を表し、f(x)=fHM(x)はコーナー強度の測定値である。試験済みの実施形態では、3x3の近傍が使用された。以下のように、ピクセルの相違を使用して3x3の近傍から微分が計算される。
したがって、サブピクセル位置のコンポーネントxとyは次のように計算される。
繰り返し精度は、変換された位置がある許容値まで正しい特徴点の割合として定義できる。前述の手順を使用してサブピクセルの局所化を行った場合と行わない場合の特徴点の繰り返し精度を図4に示す。サブピクセルの局所化によって繰り返し精度は約5%向上することに注目されたい。
2.1.2 向き
各特徴点には向きθがある。ただし、向きベクトル
は次に示すスムージングされた局所的な勾配から得られる。
試験済みの実施形態で使用した向きの積分スケールは、σo=4.5である。動きのフィールド(motionfield)ul(x,y)が画像全体でスムーズに変化し、向きの評価が特徴点位置のエラーに左右されないようにするために、大きな微分スケールが望ましい。ただし、一般に向きの積分スケールは約2.0から7.0までである。
本システムおよびプロセスの試験済みの実施形態では、ぼかし局所勾配(blurredlocal gradient)のアプローチを使用して個々の特徴点の向きを確定したが、その他の方法を利用してもよい。たとえば、向きを測定する方法には行列Hの勾配ヒストグラムまたは固有ベクトルの最大値を使用する方法がある。
2.1.3 記述子ベクトル
向きのある特徴点(x,y,l,θ)のそれぞれについて、記述子領域は検出スケールで(atthe detection scale)サイズpxpピクセルのベクトルのパッチである。パッチは、中心が(x,y)、向きが角度θである。このpxpの記述子領域から、サイズdxdピクセルの記述子ベクトルが構成される。試験済みの実施形態ではp=40、d=8である。ただし、一般にpは画像サイズの約0.1から10%であり、dはつり合いのとれる値である。図6に山の場面を示す。ここでは、ピークの頂上にある特徴点に関連付けられた記述子領域が白いボックスで示されている。特徴点の位置をボックスの中心の白いドットで示しており、特徴点から伸びる線でこの点に割り当てられた向きを示している。図7は、図6の記述子領域から構成される8x8の記述子を示す図である。特徴点と向きを表すラインは、この図でも白で示されている。
サンプリング時のエイリアシング/ブラーリングを回避するために、記述子はピラミッドレベルでサンプリングされる。これは、概ねピクセルあたり1回のサンプリングになる。これを実行する1つの方法は、検出スケールを超えるレベルlsのレベルから記述子をサンプリングすることである。
記述子ベクトルは、双線形補間を使用してサンプリングされる。
たとえば、試験済みの実施形態ではp=40、d=8、s=2であるが、l=2レベルから記述子をサンプリングする。ただし、特徴点はレベルlで検出されたと仮定する。これで、
から記述子をサンプリングすることになる。ただし、代わりにp’l+1(x,y)(ただし
、すなわちブラーリングはするがダウンサンプリング(downsampling)はしない)からサンプリングする別の手順を使用すると、よりよい結果を得られる。さらに、小さなゲインでも、
からのサンプリングによって作成される。
2.1.3.1 標準化
次に、記述子ベクトルは以下のように平均が0で標準偏差が1になるように標準化される。
=(d’−μ)/σ (12)
ただし、d’、i∈{1...d}は記述子ベクトルの要素であり、
である。これで、特徴はアフィン変換に対して強度(バイアスとゲイン)が不変になる。
2.1.3.2 ハールのウェーブレット変換(Wavelet.Transform)
最後に、dxdの記述子ベクトルdi上でハールの変換が実行され、ウェーブレット係数ciを含むd2次元の記述子ベクトルを構成する。ハールのウェーブレットの直交性属性により、距離が維持される(以下)。
したがって、2乗和の差の意味で近傍領域は変更されない。ただし、この後で(shortly)説明するインデックス戦略には、最初の3つの非ゼロウェーブレット係数c、c、cが使用される。
2.1.4 記述子生成プロセスの概要
特徴点を定義するハリスのコーナー特徴と、各特徴の向きを確定するぼかし局所勾配のアプローチを使用した本システムおよびプロセスの実施形態に従って特徴点ごとに記述子を生成する技術に関する以上の説明は、図5A〜Cのプロセス流れ図に要約される。このプロセスは、画像内の特徴点を特定する操作で開始される。より詳細には、画像ごとに画像解像度のピラミッドを構成する(プロセス操作500)。次に、まだ選択されていないピラミッドレベルを選択し(プロセス操作502)、選択したレベルで個々のハリスのコーナーの位置を特定する(プロセス操作504)。次に、まだ選択されていないハリスのコーナーの1つを選択し(プロセス操作506)、コーナーの位置を表す特徴点を中心とした所定の最小近傍半径のピクセル近傍内で、選択したコーナーのコーナー強度が局所的な最大値かどうかを判断する(プロセス操作508)。選択したコーナーのコーナー強度が局所的な最大値の場合は、さらにこのコーナー強度が所定の最小強度閾値を超えるかどうかを判断する(プロセス操作510)。その場合は、選択したコーナーをコーナーの候補として指定し(プロセス操作512)、他のコーナー(ある場合)について考察する。一方、コーナー強度が局所的な最大値でない場合、またはコーナー強度が所定の最小強度閾値を超えないことが確認された場合は、選択したコーナーを考察の対象から除外し、他のコーナー(ある場合)について考察する。このように、いずれの場合も次の操作では考察対象としてまだ選択されていないコーナーがあるかどうかを判断する(プロセス操作514)。考察するコーナーが残っている場合は、前述のプロセスをプロセス操作506から繰り返す。それ以外の場合、プロセスはプロセス操作516に進み、ここで最後に使用した近傍半径を所定の整数値だけ増分する(たとえば1ずつ)。ここで、コーナーの候補のそれぞれについて、前述のスクリーニング手順を繰り返す。具体的には、まだ選択されていないコーナーの候補を選択し(プロセス操作518)、そのコーナー強度が現在の近傍半径の値で定義されるピクセル近傍内の局所的な最大値かどうかを判断する(プロセス操作520)。選択したコーナー候補のコーナー強度が局所的な最大値の場合は、さらにそれが所定の最小強度閾値を超えるかどうかを判断する(プロセス操作522)。その場合は、選択したコーナーを引き続きコーナーの候補として指定し(プロセス操作524)、他のコーナー(ある場合)について考察する。一方、コーナー強度が局所的な最大値でない場合、またはコーナー強度が所定の最小強度閾値を超えないことが確認された場合は、選択したコーナー候補を考察の対象から除外し、他のコーナー候補(ある場合)について考察する。このように、いずれの場合も次の操作では考察対象としてまだ選択されていないコーナー候補があるかどうかを判断する(プロセス操作526)。考察するコーナーが残っている場合は、前述のプロセスの一部がプロセス操作518から繰り返される。考察するコーナーが残っていない場合は、次に引き続きコーナー候補として指定されているコーナーの数がまだ所定の最大許容値を超えるかどうかを判断する(プロセス操作528)。コーナー候補の最大許容値を超える場合は、コーナー候補の数が最大許容値以下になるまで、必要に応じてプロセス操作516から528を繰り返す。
許容数のコーナー候補が残ると、プロセスは残っているコーナー候補のそれぞれの位置を定義する点を考察対象の画像の特徴点として指定する操作に進む(プロセス操作530)。次に、まだ選択されていない特徴点を選択し(プロセス操作532)、その位置を調整する。より詳細には、プロセス操作534で特徴点の位置を、選択した点を中心とする所定のサイズの局所的な近傍に適合する2次元の正方形(2Dquadratic)の面で最大強度を示す「位置」として指定する。
選択した特徴点の調整された位置が確定した場合は、この点の向きを指定する(プロセス操作536)。前述のように、本発明の試験済みの実施形態において、この操作はぼかし勾配(brurred gradient)のアプローチを使用して実施している。次に、選択した特徴点の位置と向きを使用して、この点の記述子ベクトルを生成する。この操作を実行するためには、まず特徴点の位置を中心とする特徴点と同じ向きを向いた所定のサイズpxpの記述子領域(またはパッチ)を確立する(プロセス操作538)。ここで、前述のように、強度の値をサンプリングする双線形補間を使用して記述子領域から所定のサイズdxdの小規模な記述子ベクトルが構成される(プロセス操作540)。次に、この記述子ベクトルを標準化し(プロセス操作542)、ハールのウェーブレット変換を実行する(プロセス操作544)。変換された記述子ベクトルは、選択した特徴点の記述子を表す。ここで、まずまだ選択されていないコーナー候補が残っているかどうかを判断し、他の特徴点についてこのプロセスを実行する(プロセス操作546)。ある場合は、すべての特徴点が関連の変換コンポーネントされた記述子ベクトルを備えるまで、必要に応じてプロセス操作532から546を繰り返す。
最後に、まずまだ選択されていないピラミッドレベルが残っているかどうかを判断し、画像ピラミッドの他のすべての解像度レベルについて記述子生成プロセスを繰り返す(プロセス操作548)。残っている場合は、必要に応じてプロセス操作502から548を繰り返す。完了すると、画像ピラミッド各レベルの特徴点のそれぞれについて、変換された記述子ベクトルが関連付けられている。前述のようにして特定された特徴点の向きを計算し、変換された記述子ベクトルを生成する代わりに、別のアプローチとして、バッチ方式ですべての特徴点を特定し、その向きを指定し、変換された記述子ベクトルを生成することもできる。
2.2 特徴マッチング
場面の画像の集合に属するn個すべての画像から抽出されたマルチスケールの有向パッチが与えられた場合に、特徴マッチングの目標はすべての画像間で幾何学的に一貫した一致を検出することである。このタスクを実行するには、まず特徴マッチングの確率モデルを開発する。このモデルから、特徴の一致を検証するためのシンプルな拘束条件が得られる。これは「アウトライアの距離に基づく拘束条件」と呼ばれる。さらに、アウトライアの距離に基づく拘束条件と同時に、またはその代わりとして幾何学的拘束条件を適用してアウトライアを除去し、画像の一致を検出することもできる。
2.2.1 特徴マッチングのための確率モデル
トレーニングデータから正しい一致と誤った一致のエラーの分布p(eimage)を計算し、これを使用して特定の特徴の一致
が正しいか誤りかを確率的に判断できることが理想的である。
ただし、画像ベースのエラー、
image=|I’(x’)−(αI(x)+β)| (14)
は、特徴の一致が正しいか誤りかを判断するための評価基準(metric)として適切ではない。実際に、|eimage|の値は正しい一致の場合と誤った一致の場合とで区別がない場合が多いので、一致が正しいか誤りかを判断するための閾値をとして|eimage|を指定できないことがわかっている。
コントラスト(contrast)の変化によるパッチの近傍領域の一致に関連するエラーも問題である。正しい一致のエラーと誤った一致のエラーとの間には常に明らかな差があり、エラーのスケールは著しく変動することがわかっている。特に、コントラストの高いパッチではエラーが大きく、コントラストの低いパッチではエラーが小さい。したがって、コントラストの低いパッチが含まれる場合は、正しい一致と誤った一致の区別が難しくなる。
考えられるソリューションの1つは、コントラストに関してパッチを標準化することである。これは、特徴空間におけるエラーの計算(以下)と同等である。
featureの分布は正しい一致と誤った一致でより異なっているが、明らかな閾値はない。したがって、一致のエラーのサイズは単に比較する問題ではないと思われる。高周波数コンテンツ(highfrequency content)も重要であると考えられている。たとえば、勾配の大きな特徴は位置決め不良によるエラーが大きい。
ただし、個々の特徴ベースでは、正しい一致と誤った一致に対応する特徴距離の二峰性分布が存在することがわかっている。実際に、誤った一致のクエリ(query)からの距離はほとんど一定であると思われる。この現象は、シェル属性(shellproperty)として知られる高次元空間の属性に関連付けられると考えられる。
高次元では、超球の体積(volume of a hypersphere)のほとんどは外側のシェルに集中している。つまり、ガウス分布のような一般的な分布では、確率質量(probabilitymass)のほとんどは外側のシェルに位置する。d次元超立方体内に一様に分布する点の集合について考察する。中心から距離rの範囲内にある点の数は、空間の境界に達するまでrで増大し、境界に達すると急速に減少する。dが増大すると、ほとんどすべての点が特定のクエリ点から同じ距離にある、つまりクエリから一定の距離にある薄いシェル内に存在することになる。ただし、この距離の値は空間内のクエリ点の位置によって変わることに留意されたい。たとえば、端に近い点は中心の点より距離が大きい。
Loweが提案するように[11]、第1の近傍領域(1−NN)の距離に基づく閾値は信頼できないが、第1の近傍領域の距離と第2の近傍領域の距離の比e1−NN/e2−NNは、一致が正しいかどうかを判断するための適切な評価基準である。マルチ画像マッチングの場合は、複数の正しい一致が存在する可能性があるので、代わりに比eeoutlierが検査される。ただし、eiは考察する一致の距離、eoutlierはアウトライアの距離である。特徴あたり最大k個の一致i∈{1...k}が存在すること、およびアウトライアの距離が近傍領域k+1からk+noの平均の距離として計算されることが仮定される。ベイズ(Bayes)の決定規則(decisionrule)を使用して一致を次のように分類できる。
correct(e/eoutlier)>Pincorreet(e/eoutlier) (16)
これで、次の場合に特徴の正しい一致が区分されることになる。
e<0.65xeoutlier (17)
これは「アウトライアの距離に基づく拘束条件」と呼ばれる。最適なeoutlierの計算方法に関する問題が残る。
σ’xefeature=eimageなので、アウトライアの距離を基準とする相対的な距離は特徴空間内では画像ベースの距離と同じである。したがって、特徴空間画像の距離を比較し、アウトライアの距離に基づく拘束条件を適用するだけでよく、ペアごとにα、βを計算する必要がないという利点がある。
2.2.2 アウトライア除去を使用した特徴マッチング
特徴マッチング手順は、事前に計算された記述子ベクトルのそれぞれへの近傍領域の高速近似で開始される。こうした近傍領域ベクトルは、画像間で一致する点の候補を表している。次に、本特徴マッチング技術の試験済みの実施形態では、2段階のアプローチを使用して誤った一致を除去する。具体的には、前述のアウトライアの距離に基づく拘束条件を使用して誤った一致点を除去する非幾何学的なアウトライア除去技術を使用する。最終的に、標準の幾何学的アウトライア除去技術を使用して、まだ誤った一致点が残っている場合はさらにこれを除去する。ただし、前述のように、要求される精度や本特徴マッチング技術を採用するシステムの処理上の制限によっては、こうしたアウトライア除去技術のいずれかを省略してもよい。
2.2.2.1 ウェーブレットインデックスを使用した高速近似近傍領域(FastApproximate NearestNeighbors)
すべての画像から特徴を抽出し、それぞれを特徴空間内のk個の近似近傍領域にマッチングする。高速近似近傍領域の計算は、ハッシュテーブルを使用して特徴にインデックス付けすることで実行される。ハッシュテーブルは3次元であり、各次元は最初の3つの非ゼロウェーブレット係数c、c、cに対応する。こうした値は、パッチの
の推定値である。試験済みの実施形態ではk=4であり、ハッシュテーブルは次元あたりb=10個のビンを備えている(各次元の平均からの標準偏差±nσ=3を対象とする)。ビンは半分が重複しているので、ビンの幅
の範囲内のデータは一致することが保証される。真の近傍領域は3つの次元のいずれかの外側
に存在する可能性がある(ただし、確率は低い)ので、これらは近似近傍領域である。個々の記述子ベクトルをビン内のすべての特徴とマッチングし、k個の近似近傍領域を選択する。ここで、次に説明するように、アウトライアの距離に基づく拘束条件を使用して正しい一致が検証され、アウトライアが除去される。特徴間の距離を使用して近傍領域を決定することに留意されたい。試験済みの実施形態において、こうした距離は64次元の特徴ベクトルの二乗差の和で求められる。
2.2.2.2 アウトライアの距離に基づく拘束条件を使用したアウトライア除去
誤った一致はほとんどすべてについてクエリ点からの距離(アウトライアの距離)がほぼ同等であるが、正しい一致はイメージングと検出のノイズによってのみ異なるので、前述のシェル属性をアウトライア除去戦略の基準として利用できる。アウトライアの距離を推定する1つの方法として、各画像の2−NN距離の平均値または最小値に一致させることが考えられる。計算したアウトライアの距離から、アウトライアの距離に基づく拘束条件を使用して誤った一致の数を削減できる。より詳細には、考察対象ベクトルの近傍領域の1つとして検出されたベクトルの考察対象ベクトルからの距離がアウトライアの距離の65%以内にある場合は、このベクトルは一致点に関連付けられていると見なされる。ベクトルの距離がアウトライアの距離の約65%を超える場合、このベクトルに対応する点は一致点とは見なされない。
2.2.2.3 幾何学的拘束条件を使用したアウトライア除去
アウトライアの距離に基づく拘束条件を使用して一致の候補が調整された場合は、一致に関する幾何学的拘束条件を使用して一致をさらに調整することができる。基本的に、このためには、残っている一致点が場面の画像に実際に対応するかどうかを標準的な方法で判断する操作が必要である。画像が1つの点から取得され、場面が静的な場合は、パノラマ式の運動モデル(panoramicmotion model)(ホモグラフィー(homography))が適している。画像が移動カメラから取得され、場面が静的な場合は、完全な3次元運動モデル(full3D motion model)(基本行列(fundamental matrix))が適している。複数のオブジェクトまたは移動するオブジェクトを扱うより複雑な運動モデルを開発してもよい。自動パノラマステッチでは、[6]に示すようにパノラマ式の運動モデルと確率モデルによるマッチングを選択するのが適切である。1つの画像内の点が場面の同じ要素を表す別の画像内の点と実際に一致しないと判断した場合は、この点が一致点の集合から除去される。
2.2.3 特徴マッチングプロセスの概要
3次元ハッシュテーブルと少なくとも一部はアウトライアの距離に基づく拘束条件に基づくアウトライア除去とを使用した本システムおよびプロセスの実施形態に従って、場面の一連の画像間で対応する点を特定する特徴マッチング技術に関する以上の説明は、図11のプロセス流れ図に要約される。このプロセスは、変換された記述子ベクトルのそれぞれを、特徴空間におけるその所定の数の近傍領域とマッチングする操作で開始される。より詳細には、変換された個々の記述子ベクトルの最初の3つの非ゼロウェーブレット係数から3次元ハッシュテーブルを生成する(プロセス操作1100)。前述のように、本特徴マッチング手順の試験済みの実施形態において、ハッシュテーブルは次元あたり10個のビンを備えており、各ビンの範囲は半分が重複する。ここで、ハッシュテーブルの各ビン内にある3係数ベクトル間の距離を計算する(プロセス操作1102)。次に、記述子ベクトルのそれぞれについて、こうした距離を使用して、考察対象のベクトルと同じ画像内にはないが同じビンに含まれるその所定の数の近傍領域を特定する(プロセス操作1104a)。ここで、特徴マッチング技術の別の実施形態では、次の操作1104bをプロセス操作1104aで置き換えていることに注目する。すなわち、記述子ベクトルのそれぞれについて、その他の各画像から同じビン内の近傍領域を所定の最大数まで特定する。操作1104aと1104bが交換可能であることは、図11の破線のボックスで示されている。
各記述子ベクトルの近傍領域が特定された場合は、まだ選択されていないベクトルを選択する(プロセス操作1106)。これで、関連の特徴点が選択したベクトルに関連する特徴点に実際に対応しない選択したベクトルの近傍領域記述子ベクトルは考察の対象から外される。より詳細には、本特徴マッチング技術の試験済みの実施形態において、この操作は前述のように2段階で実行される。第1段階(プロセス操作1108)は、アウトライアの距離に基づく拘束条件を使用したアウトライア除去と呼ばれており、対応しない可能性の高い点を除去する迅速な手順である。第2段階(プロセス操作1110)は、アウトライアの距離に基づく拘束条件を使用したアウトライア除去と呼ばれており、対応しない可能性の高い点を除去する迅速な手順である。ただし、第1段階で多くの誤った一致が除去されると、第2段階の処理の必要性は最小になる。本質的に、第2段階の幾何学ベースのアウトライア除去手順では、2つの画像間ですべての点の最適なマッチングを行う変換を検出する操作と、変換したときに特定の許容範囲内に対応しない点を除去する操作が実行される。図8Aと8Bは、アウトライア除去プロセスの効果(value)の例を示している。2つの図は、共通する部分のある2つの山の場面を示しており、アウトライア除去プロセスを実行する前に特定された画像間の対応する位置を白いドットで示している(587個の一致)。図9Aおよび9Bは、図8Aおよび8Bと同じ画像を示しており、それぞれ、アウトライアの距離に基づく拘束条件を使用したアウトライア除去技法を適用した後である。ここで242個のアウトライアが除去され、345個の一致が残っている。図10Aおよび10Bは、図9Aおよび9Bと同じ画像を示しており、それぞれ幾何学ベースのアウトライア除去技法を適用した後である。さらに34のアウトライアが特定されて除去され、最終的に画像間で合計311個の対応する点が残っている。
本特徴マッチング技術の特定の適用において、第1段階のアウトライア除去手順で十分に正しい結果が得られる場合は、必要に応じて第2段階を省略してもよい。逆に、処理コストが問題でない場合は、第2段階の幾何学ベースのアウトライア除去手順を単独で使用し、第1段階を省略してもよい。
第1のアウトライア除去手順に関して、試験済みの実施形態ではこのためにまず選択した記述子ベクトルとその近傍領域との距離を計算する操作を実行し、次に選択した記述子ベクトルとそのいずれかの近傍領域との距離がアウトライアの距離の約65%以上であるかどうかを判断する操作を実行する。近傍領域ベクトルから選択されたベクトルまでの距離がアウトライアの距離の約65%以上であると判断した場合は、必ず選択されたベクトルに関連付けられた特徴点を表す考察の対象からこれを除外する。
アウトライア除去手順が完了すると、選択したベクトルの近傍領域として特定された記述子ベクトルに関連付けられており、考察の対象から外されていない特徴点のそれぞれは、選択されたベクトルに関連付けられた特徴点に対応する点として指定される(プロセス操作1112)。次に、その他の記述子ベクトルのそれぞれについて前述のプロセスを実行し、まずまだ選択されていないベクトルが残っているかどうかを判断し、その他の画像内の対応する点を特定する(プロセス操作1114)。残っている場合は、すべてのベクトルが処理されるまで、必要に応じてプロセス操作1106から1114を繰り返す。すべてのベクトルが選択され、処理されると、手順は終了する。
3.0 参考文献
141 ハードディスクドライブ
151 磁気ディスクドライブ
155 光ディスクドライブ
193 一連の画像

Claims (11)

  1. コンピュータによって、場面の複数の画像間で対応する点を特定するための方法であって、該方法は、コンピュータにより実行される以下の各ステップ、即ち、
    各画像内の特徴点をさまざまな解像度で特定するステップであって、前記点を表す画像内の位置は、前記点を中心とする第1の所定のサイズの近傍領域内のピクセルに起因する少なくとも1つの属性で定義され、前記点を中心とする第2の所定のサイズの近傍領域内のピクセルに起因する少なくとも1つの属性に基づく一意の向きを割り当てられる、ステップと、
    前記特徴点のそれぞれについて、画像の位置、向き、スケールの変化、および前記点の位置と向きを定義するためのピクセルの輝度の変化に対して不変の形で各点を特徴付ける記述子を生成するステップと、
    前記画像間で一致する記述子を検出するステップと、
    異なる画像中に現れる一致する記述子の各集合に関連付けられた前記特徴点を対応する点として指定するステップと
    を備え
    前記特徴点のそれぞれについて記述子を生成する前記ステップは、
    考察対象である前記特徴点の位置を中心とし、前記特徴点と同じ向きの所定のサイズpxpの記述子領域を確立するステップと、
    前記記述子領域から前記領域内のピクセル輝度値の双線形補間を使用してピクセルあたり1回のサンプリングになるようにサンプリングした前記記述子領域より小さい所定のサイズdxdの記述子ベクトルを構成するステップと、
    前記記述子ベクトルを標準化するステップと、
    前記記述子ベクトルに対してハールのウェーブレット変換を実行して変換ベクトルを生成するステップと
    を備え、
    前記画像間で一致する記述子を検出するステップは、前記変換された記述子ベクトルを、特徴空間内の所定の数の近傍領域とマッチングするステップを備え、
    前記変換された記述子ベクトルをマッチングする前記ステップは、
    各変換された記述子ベクトルの所定の数(n個)のウェーブレット係数から3次元ハッシュテーブルを生成してn係数ベクトルのハッシュテーブルを構成するステップと、
    前記ハッシュテーブルのビンのそれぞれについて、考察対象の前記ビン内で検出される個々のn係数ベクトル間の距離を計算するステップと、
    n係数ベクトルのそれぞれについて、前記同じビン内にあるが前記考察対象のベクトルと同じ前記画像には関連付けられていない前記計算された距離に基づいてその所定の数の近傍領域を特定し、一致ベクトル候補の集合を構成するステップと、
    前記一致ベクトル候補の集合のそれぞれに属する前記ベクトルに関連付けられた前記特徴点を、前記関連の画像内で前記場面の前記同じ要素を表す対応する点として指定するステップと
    を備える、
    ことを特徴とする方法。
  2. 前記ハッシュテーブルは次元あたり10個のビンを備えており、各ビンは半分の領域が重複することと、前記所定の数(n個)のウェーブレット係数は3係数ベクトルのハッシュテーブルを構成する最初の3つの非ゼロ係数を備えることを特徴とする請求項に記載の方法。
  3. 一致ベクトル候補の集合のそれぞれに属する前記ベクトル関連付けられた前記特徴点を対応する点として指定する前記ステップは、
    一致ベクトル候補ベクトルのそれぞれについて、関連の特徴点が同じベクトル集合に属する別の3係数ベクトルに関連付けられた別の画像内の特徴点に実際には対応しない一致ベクトル候補として前記3係数ベクトルを考察対象から除外するステップと、
    一致ベクトル候補の各集合内に残っている前記3係数ベクトルのそれぞれについて、前記ベクトルに関連付けられた前記特徴点を前記関連の画像内の対応する点として指定するステップと
    を備えることを特徴とする請求項に記載の方法。
  4. 一致ベクトルの集合のそれぞれについて、関連の特徴点が前記同じベクトル集合に属する別の前記3係数ベクトルに関連付けられた別の画像内の特徴点に実際に対応しない一致ベクトル候補として前記3係数ベクトルを考察対象から除去する前記ステップは、
    考察対象である一致ベクトルの集合のアウトライアの距離を計算するステップと、
    任意の前記一致ベクトルについて計算した前記距離が前記アウトライアの距離の65%を超えるかどうかを判断するステップと、
    一致ベクトルの距離が前記アウトライアの距離の65%を超えると判断した場合は、必ず前記ベクトルに対応する点として関連付けられた前記特徴点を除外するステップと
    を備えることを特徴とする請求項に記載の方法。
  5. 一致ベクトルの集合のそれぞれについて、関連の特徴点が前記同じベクトル集合に属する別の前記3係数ベクトルに関連付けられた別の画像内の特徴点に実際に対応しない一致ベクトル候補として3係数ベクトルを考察対象から除去する前記ステップは、
    幾何学的アウトライア除去手順を実行するステップと、
    アウトライアであると判断された対応する点として任意のベクトルに関連付けられた特徴点を除外するステップと
    を備えることを特徴とする請求項に記載の方法。
  6. コンピュータによって、場面の複数の画像間で対応する点を特定するための方法であって、該方法は、コンピュータにより実行される以下の各ステップ、即ち、
    各画像内の特徴点をさまざまな解像度で特定するステップであって、前記点を表す画像内の位置は、前記点を中心とする第1の所定のサイズの近傍領域内のピクセルに起因する少なくとも1つの属性で定義され、前記点を中心とする第2の所定のサイズの近傍領域内のピクセルに起因する少なくとも1つの属性に基づく一意の向きを割り当てられる、ステップと、
    前記特徴点のそれぞれについて、画像の位置、向き、スケールの変化、および前記点の位置と向きを定義するためのピクセルの輝度の変化に対して不変の形で各点を特徴付ける記述子を生成するステップと、
    前記画像間で一致する記述子を検出するステップと、
    異なる画像中に現れる一致する記述子の各集合に関連付けられた前記特徴点を対応する点として指定するステップと
    を備え、
    前記特徴点のそれぞれについて記述子を生成する前記ステップは、
    考察対象である前記特徴点の位置を中心とし、前記特徴点と同じ向きの所定のサイズpxpの記述子領域を確立するステップと、
    前記記述子領域から前記領域内のピクセル輝度値の双線形補間を使用してピクセルあたり1回のサンプリングになるようにサンプリングした前記記述子領域より小さい所定のサイズdxdの記述子ベクトルを構成するステップと、
    前記記述子ベクトルを標準化するステップと、
    前記記述子ベクトルに対してハールのウェーブレット変換を実行して変換ベクトルを生成するステップと
    を備え、
    前記画像間で一致する記述子を検出するステップは、前記変換された記述子ベクトルを、特徴空間内の所定の数の近傍領域とマッチングするステップを備え、
    前記変換された記述子ベクトルをマッチングする前記ステップは、
    変換された記述子ベクトルのそれぞれについて最初の3つの非ゼロウェーブレット係数から3次元ハッシュテーブルを生成して3係数ベクトルのハッシュテーブルを構成するステップと、
    前記ハッシュテーブルの各ビンについて、考察対象の前記ビン内で検出される3係数ベクトルのそれぞれの間の前記距離を計算するステップと、
    3係数ベクトルのそれぞれについて、考察対象の前記ベクトルに関連付けられた前記画像を除く各画像に個々に関連付けられた前記同じビン内で検出される前記近傍領域を、前記計算された距離に基づいて画像ごとの所定の数まで特定し、一致ベクトル候補の集合を構成するステップと、
    一致ベクトル候補の集合のそれぞれに属する前記ベクトルに関連付けられた前記特徴点を、前記関連の画像内で前記場面の前記同じ要素を表す対応する点として指定するステップと
    を備える
    ことを特徴とする方法。
  7. 前記ハッシュテーブルは次元あたり10個のビンを備えており、さらに各ビンは半分の重複領域を備えることを特徴とする請求項6に記載の方法。
  8. 場面の複数の画像間で対応する点を特定するシステムであって、
    汎用コンピューティングデバイスと、
    前記コンピューティングデバイスで実行可能なプログラムモジュールを備えるコンピュータプログラムであって、前記コンピューティングデバイスは前記コンピュータプログラムの前記プログラムモジュールによって指示されて、
    各特徴点をピクセルの所定の属性によって構成されるパターンに基づいて割り当てられる位置と向きによって定義して、各画像内の対応する点の候補を表す特徴点を特定し、
    前記特徴点のそれぞれについて、画像の位置、向き、スケールの変化、および前記点の位置と向きを定義するためのピクセルのバイアスとゲインの変化に対して不変である形で各点を特徴付ける記述子を生成し、
    前記画像間で一致する記述子を検出し、
    異なる画像中に現れる一致する記述子の集合に関連付けられた前記特徴点を対応する点として指定する
    コンピュータプログラムと
    を備え
    前記特徴点のそれぞれについて記述子を生成する前記プログラムモジュールは、特徴点ごとに、
    (a)前記特徴点の位置を中心とし、前記特徴点と同じ向きの所定のサイズpxpの記述子領域を確立するサブモジュールと、
    (b)前記記述子領域から前記領域内の輝度値に関する双線形補間のサンプリングを使用して、より小さい所定のサイズdxdの記述子ベクトルを構成するサブモジュールと、
    (c)前記記述子ベクトルをバイアスとゲインに関して標準化するサブモジュールと、
    (d)前記標準化された記述子ベクトルに対してハールのウェーブレット変換を適用して前記考察対象の特徴点の前記記述子を構成するサブモジュールと
    を備え
    前記画像間で一致する記述子を検出する前記プログラムモジュールは、
    (e)各特徴点の最初の3つの非ゼロウェーブレット係数から3次元ハッシュテーブルを生成するサブモジュールと、
    (f)前記ハッシュテーブルのビンごとに、各記述子間の距離を計算するサブモジュールと、
    (g)まだ選択されていない記述子を選択するサブモジュールと、
    (h)前記同じビン内にあるが前記選択された記述子と前記同じ画像には関連付けられていない所定の数の前記選択された記述子の近傍領域を特定するサブモジュールと、
    (i)前記選択された記述子とその近傍領域のアウトライアの距離を計算するサブモジュールと、
    (j)前記選択された記述子とその近傍領域のそれぞれとの前記計算された距離は前記アウトライアの距離の65%未満かどうかを個々に判断するサブモジュールと、
    (k)前記選択された記述子とその近傍領域の1つとの前記計算された距離は前記アウトライアの距離の65%未満である場合は、必ず前記近傍領域の記述子を前記選択された記述子に関する一致記述子として指定するサブモジュールと、
    (l)幾何学ベースのアウトライア除去手順を実行し、前記選択された記述子に一致するとして指定された記述子に対応する任意の特徴点は、前記選択された記述子の前記特徴点の位置に対応しないかどうかを判断するサブモジュールと、
    (m)前記選択された記述子に一致するとして指定された任意の記述子が前記選択された記述子の特徴点の位置に対応しない場合に一致記述子から除外するサブモジュールと、
    (n)残っているすべての記述子について処理が完了するまで、サブモジュール(g)から(m)を繰り返すサブモジュールと
    を備える、
    ことを特徴とするシステム。
  9. 場面の複数の画像間で対応する点を特定するシステムであって、
    汎用コンピューティングデバイスと、
    前記コンピューティングデバイスで実行可能なプログラムモジュールを備えるコンピュータプログラムであって、前記コンピューティングデバイスは前記コンピュータプログラムの前記プログラムモジュールによって指示されて、
    各特徴点をピクセルの所定の属性によって構成されるパターンに基づいて割り当てられる位置と向きによって定義して、各画像内の対応する点の候補を表す特徴点を特定し、
    前記特徴点のそれぞれについて、画像の位置、向き、スケールの変化、および前記点の位置と向きを定義するためのピクセルのバイアスとゲインの変化に対して不変である形で各点を特徴付ける記述子を生成し、
    前記画像間で一致する記述子を検出し、
    異なる画像中に現れる一致する記述子の集合に関連付けられた前記特徴点を対応する点として指定する
    コンピュータプログラムと
    を備え、
    前記特徴点のそれぞれについて記述子を生成する前記プログラムモジュールは、特徴点ごとに、
    (a)前記特徴点の位置を中心とし、前記特徴点と同じ向きの所定のサイズpxpの記述子領域を確立するサブモジュールと、
    (b)前記記述子領域から前記領域内の輝度値に関する双線形補間のサンプリングを使用して、より小さい所定のサイズdxdの記述子ベクトルを構成するサブモジュールと、
    (c)前記記述子ベクトルをバイアスとゲインに関して標準化するサブモジュールと、
    (d)前記標準化された記述子ベクトルに対してハールのウェーブレット変換を適用して前記考察対象の特徴点の前記記述子を構成するサブモジュールと
    を備え
    前記画像間で一致する記述子を検出する前記プログラムモジュールは、
    (e)各特徴点記述子の最初の3つの非ゼロウェーブレット係数から3次元ハッシュテーブルを生成するサブモジュールと、
    (f)前記ハッシュテーブルのビンごとに、各記述子間の距離を計算するサブモジュールと、
    (g)まだ選択されていない記述子を選択するサブモジュールと、
    (h)前記同じビン内にあるが前記選択された記述子と同じ画像には関連付けられていない所定の数の前記選択された記述子の近傍領域を特定するサブモジュールと、
    (i)前記選択された記述子とその近傍領域のアウトライアの距離を計算するサブモジュールと、
    (j)前記選択された記述子とその近傍領域のそれぞれとの前記計算された距離は前記アウトライアの距離の65%未満かどうかを個々に判断するサブモジュールと、
    (k)前記選択された記述子とその近傍領域の1つとの前記計算された距離は前記アウトライアの距離の65%未満である場合は、必ず近傍領域記述子を前記選択された記述子に関する一致記述子として指定するサブモジュールと、
    (l)残っているすべての記述子について処理が完了するまで、サブモジュール(g)から(k)を繰り返すサブモジュールと
    を備える
    ことを特徴とするシステム。
  10. 場面の複数の画像間で対応する点を特定するシステムであって、
    汎用コンピューティングデバイスと、
    前記コンピューティングデバイスで実行可能なプログラムモジュールを備えるコンピュータプログラムであって、前記コンピューティングデバイスは前記コンピュータプログラムの前記プログラムモジュールによって指示されて、
    各特徴点をピクセルの所定の属性によって構成されるパターンに基づいて割り当てられる位置と向きによって定義して、各画像内の対応する点の候補を表す特徴点を特定し、
    前記特徴点のそれぞれについて、画像の位置、向き、スケールの変化、および前記点の位置と向きを定義するためのピクセルのバイアスとゲインの変化に対して不変である形で各点を特徴付ける記述子を生成し、
    前記画像間で一致する記述子を検出し、
    異なる画像中に現れる一致する記述子の集合に関連付けられた前記特徴点を対応する点として指定する
    コンピュータプログラムと
    を備え、
    前記特徴点のそれぞれについて記述子を生成する前記プログラムモジュールは、特徴点ごとに、
    (a)前記特徴点の位置を中心とし、前記特徴点と同じ向きの所定のサイズpxpの記述子領域を確立するサブモジュールと、
    (b)前記記述子領域から前記領域内の輝度値に関する双線形補間のサンプリングを使用して、より小さい所定のサイズdxdの記述子ベクトルを構成するサブモジュールと、
    (c)前記記述子ベクトルをバイアスとゲインに関して標準化するサブモジュールと、
    (d)前記標準化された記述子ベクトルに対してハールのウェーブレット変換を適用して前記考察対象の特徴点の前記記述子を構成するサブモジュールと
    を備え
    前記画像間で一致する記述子を検出する前記プログラムモジュールは、
    (e)各特徴点の最初の3つの非ゼロウェーブレット係数から3次元ハッシュテーブルを生成するサブモジュールと、
    (f)前記ハッシュテーブルのビンごとに、各記述子間の距離を計算するサブモジュールと、
    (g)まだ選択されていない記述子を選択するサブモジュールと、
    (h)前記同じビン内にあるが前記選択された記述子と同じ画像に関連付けられていない所定の数の前記選択された記述子の近傍領域を特定するサブモジュールと、
    (i)幾何学ベースのアウトライア除去手順を実行し、前記近傍領域記述子に対応するどの特徴点が前記選択された記述子の特徴点の位置に対応するかを判断するサブモジュールと、
    (j)前記近傍領域記述子に対応する前記特徴点の位置に対応すると判断した場合にのみ、近傍領域記述子を前記選択された記述子に関する一致記述子として指定するサブモジュールと、
    (k)残っているすべての記述子についての処理が完了するまで、サブモジュール(g)から(j)を繰り返すサブモジュールと
    を備える
    ことを特徴とするシステム。
  11. コンピュータに請求項1〜7の何れか1つに記載のステップを実行させるためのプログラムを記録したコンピュータ可読記録媒体
JP2011155049A 2004-04-27 2011-07-13 マルチスケールの有向パッチ(multi−scaleorientedpatches)を使用したマルチ画像特徴(feature)のマッチング Expired - Fee Related JP5066279B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/833,760 2004-04-27
US10/833,760 US7382897B2 (en) 2004-04-27 2004-04-27 Multi-image feature matching using multi-scale oriented patches

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005129813A Division JP4838532B2 (ja) 2004-04-27 2005-04-27 マルチスケールの有向パッチ(multi−scaleorientedpatches)を使用したマルチ画像特徴(feature)のマッチング

Publications (2)

Publication Number Publication Date
JP2011204280A JP2011204280A (ja) 2011-10-13
JP5066279B2 true JP5066279B2 (ja) 2012-11-07

Family

ID=34939532

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2005129813A Expired - Fee Related JP4838532B2 (ja) 2004-04-27 2005-04-27 マルチスケールの有向パッチ(multi−scaleorientedpatches)を使用したマルチ画像特徴(feature)のマッチング
JP2011155049A Expired - Fee Related JP5066279B2 (ja) 2004-04-27 2011-07-13 マルチスケールの有向パッチ(multi−scaleorientedpatches)を使用したマルチ画像特徴(feature)のマッチング

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2005129813A Expired - Fee Related JP4838532B2 (ja) 2004-04-27 2005-04-27 マルチスケールの有向パッチ(multi−scaleorientedpatches)を使用したマルチ画像特徴(feature)のマッチング

Country Status (7)

Country Link
US (1) US7382897B2 (ja)
EP (1) EP1594078B1 (ja)
JP (2) JP4838532B2 (ja)
KR (1) KR101117837B1 (ja)
CN (1) CN100426321C (ja)
AT (1) ATE413659T1 (ja)
DE (1) DE602005010781D1 (ja)

Families Citing this family (182)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8035612B2 (en) * 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US8300042B2 (en) 2001-06-05 2012-10-30 Microsoft Corporation Interactive video display system using strobed light
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
AU2003301043A1 (en) 2002-12-13 2004-07-09 Reactrix Systems Interactive directed light/sound system
WO2005041579A2 (en) 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
EP1676442A2 (en) 2003-10-24 2006-07-05 Reactrix Systems, Inc. Method and system for managing an interactive video display system
US9128519B1 (en) 2005-04-15 2015-09-08 Intellectual Ventures Holding 67 Llc Method and system for state-based control of objects
US8081822B1 (en) * 2005-05-31 2011-12-20 Intellectual Ventures Holding 67 Llc System and method for sensing a feature of an object in an interactive video display
US7865492B2 (en) * 2005-09-28 2011-01-04 Nokia Corporation Semantic visual search engine
US11604847B2 (en) 2005-10-26 2023-03-14 Cortica Ltd. System and method for overlaying content on a multimedia content element based on user interest
US11003706B2 (en) 2005-10-26 2021-05-11 Cortica Ltd System and methods for determining access permissions on personalized clusters of multimedia content elements
US10380267B2 (en) 2005-10-26 2019-08-13 Cortica, Ltd. System and method for tagging multimedia content elements
US8326775B2 (en) 2005-10-26 2012-12-04 Cortica Ltd. Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof
US10193990B2 (en) 2005-10-26 2019-01-29 Cortica Ltd. System and method for creating user profiles based on multimedia content
US10180942B2 (en) 2005-10-26 2019-01-15 Cortica Ltd. System and method for generation of concept structures based on sub-concepts
US10621988B2 (en) 2005-10-26 2020-04-14 Cortica Ltd System and method for speech to text translation using cores of a natural liquid architecture system
US11032017B2 (en) 2005-10-26 2021-06-08 Cortica, Ltd. System and method for identifying the context of multimedia content elements
US11403336B2 (en) 2005-10-26 2022-08-02 Cortica Ltd. System and method for removing contextually identical multimedia content elements
US20160321253A1 (en) 2005-10-26 2016-11-03 Cortica, Ltd. System and method for providing recommendations based on user profiles
US11216498B2 (en) 2005-10-26 2022-01-04 Cortica, Ltd. System and method for generating signatures to three-dimensional multimedia data elements
US10387914B2 (en) 2005-10-26 2019-08-20 Cortica, Ltd. Method for identification of multimedia content elements and adding advertising content respective thereof
US10380623B2 (en) 2005-10-26 2019-08-13 Cortica, Ltd. System and method for generating an advertisement effectiveness performance score
US9384196B2 (en) 2005-10-26 2016-07-05 Cortica, Ltd. Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof
US8818916B2 (en) 2005-10-26 2014-08-26 Cortica, Ltd. System and method for linking multimedia data elements to web pages
US10776585B2 (en) 2005-10-26 2020-09-15 Cortica, Ltd. System and method for recognizing characters in multimedia content
US10372746B2 (en) 2005-10-26 2019-08-06 Cortica, Ltd. System and method for searching applications using multimedia content elements
US11019161B2 (en) 2005-10-26 2021-05-25 Cortica, Ltd. System and method for profiling users interest based on multimedia content analysis
US9372940B2 (en) 2005-10-26 2016-06-21 Cortica, Ltd. Apparatus and method for determining user attention using a deep-content-classification (DCC) system
US10742340B2 (en) 2005-10-26 2020-08-11 Cortica Ltd. System and method for identifying the context of multimedia content elements displayed in a web-page and providing contextual filters respective thereto
US9646005B2 (en) 2005-10-26 2017-05-09 Cortica, Ltd. System and method for creating a database of multimedia content elements assigned to users
US10848590B2 (en) 2005-10-26 2020-11-24 Cortica Ltd System and method for determining a contextual insight and providing recommendations based thereon
US10614626B2 (en) 2005-10-26 2020-04-07 Cortica Ltd. System and method for providing augmented reality challenges
US10607355B2 (en) 2005-10-26 2020-03-31 Cortica, Ltd. Method and system for determining the dimensions of an object shown in a multimedia content item
US10691642B2 (en) 2005-10-26 2020-06-23 Cortica Ltd System and method for enriching a concept database with homogenous concepts
US10585934B2 (en) 2005-10-26 2020-03-10 Cortica Ltd. Method and system for populating a concept database with respect to user identifiers
US8098277B1 (en) 2005-12-02 2012-01-17 Intellectual Ventures Holding 67 Llc Systems and methods for communication between a reactive video system and a mobile communication device
WO2007068748A1 (fr) * 2005-12-14 2007-06-21 France Telecom Procede de caracterisation d'une region d'interet dans une image, signal representatif d'une image, procede de comparaison d'images, dispositifs et programme d'ordinateur correspondants
US8467570B2 (en) * 2006-06-14 2013-06-18 Honeywell International Inc. Tracking system with fused motion and object detection
US10733326B2 (en) 2006-10-26 2020-08-04 Cortica Ltd. System and method for identification of inappropriate multimedia content
US20100092093A1 (en) * 2007-02-13 2010-04-15 Olympus Corporation Feature matching method
US7970226B2 (en) * 2007-04-23 2011-06-28 Microsoft Corporation Local image descriptors
US8126275B2 (en) * 2007-04-24 2012-02-28 Microsoft Corporation Interest point detection
EP2147392A1 (en) * 2007-05-08 2010-01-27 Eidgenössische Technische Zürich Method and system for image-based information retrieval
US8073259B1 (en) 2007-08-22 2011-12-06 Adobe Systems Incorporated Method and apparatus for image feature matching in automatic image stitching
KR101141087B1 (ko) 2007-09-14 2012-07-12 인텔렉츄얼 벤처스 홀딩 67 엘엘씨 제스처-기반 사용자 상호작용의 프로세싱
KR101347598B1 (ko) * 2007-10-12 2014-01-07 삼성전자주식회사 영상 변환 방법 및 장치
US8159682B2 (en) 2007-11-12 2012-04-17 Intellectual Ventures Holding 67 Llc Lens system
AU2007240236A1 (en) * 2007-12-11 2009-06-25 Canon Kabushiki Kaisha Correlatability analysis for sparse alignment
GB0800364D0 (en) 2008-01-09 2008-02-20 Mitsubishi Electric Inf Tech Feature-based signatures for image identification
CN101488224B (zh) * 2008-01-16 2011-01-19 中国科学院自动化研究所 基于相关性度量的特征点匹配方法
US8259163B2 (en) 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
GB0807411D0 (en) * 2008-04-23 2008-05-28 Mitsubishi Electric Inf Tech Scale robust feature-based indentfiers for image identification
US8233715B2 (en) * 2008-04-28 2012-07-31 Microsoft Corporation Probabilistic intensity similarity measure based on noise distributions
US8824801B2 (en) * 2008-05-16 2014-09-02 Microsoft Corporation Video processing
FR2931277B1 (fr) * 2008-05-19 2010-12-31 Ecole Polytech Procede et dispositif de reconnaissance invariante-affine de formes
WO2009148731A1 (en) * 2008-06-02 2009-12-10 Massachusetts Institute Of Technology Fast pattern classification based on a sparse transform
US8595218B2 (en) 2008-06-12 2013-11-26 Intellectual Ventures Holding 67 Llc Interactive display management systems and methods
US8559726B2 (en) * 2008-08-22 2013-10-15 Hewlett-Packard Development Company, L.P. Image analysis based on pixel brightness grouping
US8363973B2 (en) * 2008-10-01 2013-01-29 Fuji Xerox Co., Ltd. Descriptor for image corresponding point matching
JP4687772B2 (ja) * 2008-11-06 2011-05-25 ソニー株式会社 画像処理装置、画像処理方法、プログラム
KR101323439B1 (ko) 2008-11-12 2013-10-29 보드 오브 트러스티스 오브 더 리랜드 스탠포드 주니어 유니버시티 특징 디스크립터를 표현하고 식별하는 방법, 장치 및 컴퓨터 판독가능 저장 매체
US8374442B2 (en) * 2008-11-19 2013-02-12 Nec Laboratories America, Inc. Linear spatial pyramid matching using sparse coding
US8406507B2 (en) * 2009-01-14 2013-03-26 A9.Com, Inc. Method and system for representing image patches
WO2010101186A1 (ja) * 2009-03-04 2010-09-10 公立大学法人大阪府立大学 画像検索方法、画像検索プログラム及び画像登録方法
US8818024B2 (en) 2009-03-12 2014-08-26 Nokia Corporation Method, apparatus, and computer program product for object tracking
US20100246969A1 (en) * 2009-03-25 2010-09-30 Microsoft Corporation Computationally efficient local image descriptors
US8611695B1 (en) * 2009-04-27 2013-12-17 Google Inc. Large scale patch search
US8391634B1 (en) 2009-04-28 2013-03-05 Google Inc. Illumination estimation for images
KR101016656B1 (ko) * 2009-05-19 2011-02-25 주식회사신도리코 스캔 기능을 구비한 화상 형성 장치 및 이의 스캔 방법
US7953245B2 (en) * 2009-08-18 2011-05-31 General Electric Company System, method and program product for camera-based object analysis
KR101594113B1 (ko) * 2009-10-09 2016-02-16 삼성전자주식회사 스케일을 고려한 이미지 패치 추적 장치 및 방법
US9710491B2 (en) 2009-11-02 2017-07-18 Microsoft Technology Licensing, Llc Content-based image search
US20110106798A1 (en) * 2009-11-02 2011-05-05 Microsoft Corporation Search Result Enhancement Through Image Duplicate Detection
US8433140B2 (en) * 2009-11-02 2013-04-30 Microsoft Corporation Image metadata propagation
WO2011061709A1 (en) * 2009-11-19 2011-05-26 Nokia Corporation Method and apparatus for tracking and recognition with rotation invariant feature descriptors
WO2011069021A2 (en) 2009-12-02 2011-06-09 Qualcomm Incorporated Improving performance of image recognition algorithms by pruning features, image scaling, and spatially constrained feature matching
TWI402479B (zh) * 2009-12-15 2013-07-21 Ind Tech Res Inst 深度感測方法及應用其之系統
CN101840507B (zh) * 2010-04-09 2012-07-18 江苏东大金智建筑智能化系统工程有限公司 基于角点特征不变量和图论聚类的目标跟踪方法
EP2591444A1 (en) * 2010-07-06 2013-05-15 LTU Technologies Method and apparatus for obtaining a symmetry invariant descriptor from a visual patch of an image
US8792728B2 (en) * 2010-09-27 2014-07-29 Hewlett-Packard Development Company, L.P. Near-duplicate image detection
US8798393B2 (en) 2010-12-01 2014-08-05 Google Inc. Removing illumination variation from images
US9147260B2 (en) * 2010-12-20 2015-09-29 International Business Machines Corporation Detection and tracking of moving objects
TWI411969B (zh) * 2010-12-24 2013-10-11 Ind Tech Res Inst 紋理特徵點比對方法及系統
US8565482B2 (en) 2011-02-28 2013-10-22 Seiko Epson Corporation Local difference pattern based local background modeling for object detection
US8810640B2 (en) * 2011-05-16 2014-08-19 Ut-Battelle, Llc Intrinsic feature-based pose measurement for imaging motion compensation
JP6112624B2 (ja) * 2011-08-02 2017-04-12 ビューズアイキュー インコーポレイテッドViewsIQ Inc. デジタル顕微鏡撮像の装置及び方法
US9141871B2 (en) * 2011-10-05 2015-09-22 Carnegie Mellon University Systems, methods, and software implementing affine-invariant feature detection implementing iterative searching of an affine space
KR101913336B1 (ko) * 2011-10-06 2018-10-31 삼성전자주식회사 이동 장치 및 그 제어 방법
EP2780861A1 (en) * 2011-11-18 2014-09-24 Metaio GmbH Method of matching image features with reference features and integrated circuit therefor
AU2011253913A1 (en) 2011-12-08 2013-06-27 Canon Kabushiki Kaisha Band-based patch selection with a dynamic grid
KR101912748B1 (ko) * 2012-02-28 2018-10-30 한국전자통신연구원 확장성을 고려한 특징 기술자 생성 및 특징 기술자를 이용한 정합 장치 및 방법
FR2989198A1 (fr) * 2012-04-06 2013-10-11 St Microelectronics Grenoble 2 Procede et dispositif de detection d'un objet dans une image
EP2859505A1 (en) * 2012-06-07 2015-04-15 Thomson Licensing Image descriptor for media content
JP2015527764A (ja) * 2012-06-08 2015-09-17 ノキア コーポレイション マルチ・フレーム画像キャリブレータ
AU2012244383A1 (en) * 2012-11-05 2014-05-22 Canon Kabushiki Kaisha Real-time line feed measurement of inkjet printer
US9674543B2 (en) 2012-11-14 2017-06-06 Samsung Electronics Co., Ltd. Method for selecting a matching block
CN103034864A (zh) * 2012-12-12 2013-04-10 惠州学院 一种基于颜色阈值与角点检测的视频横幅识别方法
CN103106394A (zh) * 2012-12-24 2013-05-15 厦门大学深圳研究院 一种视频监控中的人体行为识别方法
US9361538B2 (en) * 2012-12-26 2016-06-07 Microsoft Technology Licensing, Llc Real time photometric edge description
KR20140102038A (ko) * 2013-02-13 2014-08-21 삼성전자주식회사 영상 정합 장치 및 영상 정합 방법
US9488469B1 (en) 2013-04-22 2016-11-08 Cognex Corporation System and method for high-accuracy measurement of object surface displacement using a laser displacement sensor
CN103310439B (zh) * 2013-05-09 2016-01-20 浙江大学 一种基于尺度空间的图像最稳极值区域检测方法
JP6062825B2 (ja) * 2013-08-09 2017-01-18 株式会社デンソーアイティーラボラトリ 特徴点抽出装置、特徴点抽出方法、及び特徴点抽出プログラム
US9129189B2 (en) 2013-08-14 2015-09-08 Qualcomm Incorporated Performing vocabulary-based visual search using multi-resolution feature descriptors
US9053365B2 (en) * 2013-09-16 2015-06-09 EyeVerify, Inc. Template update for biometric authentication
US9460515B2 (en) 2013-10-25 2016-10-04 Ricoh Co., Ltd. Processing of light fields by transforming to scale and depth space
JP6260215B2 (ja) * 2013-11-13 2018-01-17 富士通株式会社 特徴点追跡装置、及び、特徴点追跡方法
US9400939B2 (en) 2014-04-13 2016-07-26 International Business Machines Corporation System and method for relating corresponding points in images with different viewing angles
JP6363863B2 (ja) 2014-04-15 2018-07-25 キヤノン株式会社 情報処理装置および情報処理方法
CN103927767B (zh) * 2014-04-18 2018-05-04 北京智谷睿拓技术服务有限公司 图像处理方法及图像处理装置
CN104021174A (zh) * 2014-05-30 2014-09-03 北京合辉信息技术有限公司 根据片段图像获取完整资源的方法、系统与应用
KR102238693B1 (ko) 2014-06-20 2021-04-09 삼성전자주식회사 포인트 클라우드에서 특징 영역을 추출하는 방법 및 장치
CN105224582B (zh) * 2014-07-03 2018-11-09 联想(北京)有限公司 信息处理方法和设备
US9491452B2 (en) * 2014-09-05 2016-11-08 Intel Corporation Camera calibration
KR102281184B1 (ko) * 2014-11-20 2021-07-23 삼성전자주식회사 영상 보정 방법 및 장치
US9811760B2 (en) * 2015-07-31 2017-11-07 Ford Global Technologies, Llc Online per-feature descriptor customization
WO2017059581A1 (en) * 2015-10-09 2017-04-13 SZ DJI Technology Co., Ltd. Salient feature based vehicle positioning
US9955861B2 (en) 2015-10-16 2018-05-01 Ricoh Company, Ltd. Construction of an individual eye model using a plenoptic camera
KR101711589B1 (ko) * 2015-12-08 2017-03-02 연세대학교 산학협력단 초해상도 기법 기반 사전 생성 방법 및 이를 이용한 영상 확대 방법 및 그 장치
US11195043B2 (en) * 2015-12-15 2021-12-07 Cortica, Ltd. System and method for determining common patterns in multimedia content elements based on key points
WO2017105641A1 (en) * 2015-12-15 2017-06-22 Cortica, Ltd. Identification of key points in multimedia data elements
US11836650B2 (en) * 2016-01-27 2023-12-05 Microsoft Technology Licensing, Llc Artificial intelligence engine for mixing and enhancing features from one or more trained pre-existing machine-learning models
US11868896B2 (en) * 2016-01-27 2024-01-09 Microsoft Technology Licensing, Llc Interface for working with simulations on premises
US10664766B2 (en) 2016-01-27 2020-05-26 Bonsai AI, Inc. Graphical user interface to an artificial intelligence engine utilized to generate one or more trained artificial intelligence models
US11841789B2 (en) 2016-01-27 2023-12-12 Microsoft Technology Licensing, Llc Visual aids for debugging
US11775850B2 (en) 2016-01-27 2023-10-03 Microsoft Technology Licensing, Llc Artificial intelligence engine having various algorithms to build different concepts contained within a same AI model
US10043070B2 (en) * 2016-01-29 2018-08-07 Microsoft Technology Licensing, Llc Image-based quality control
US10136116B2 (en) 2016-03-07 2018-11-20 Ricoh Company, Ltd. Object segmentation from light field data
US9886652B2 (en) 2016-03-15 2018-02-06 Microsoft Technology Licensing, Llc Computerized correspondence estimation using distinctively matched patches
CN107240126B (zh) * 2016-03-28 2020-11-20 华天科技(昆山)电子有限公司 阵列图像的校准方法
US10778707B1 (en) * 2016-05-12 2020-09-15 Amazon Technologies, Inc. Outlier detection for streaming data using locality sensitive hashing
TWI610271B (zh) * 2016-07-11 2018-01-01 龍華科技大學 結合小波轉換及角點偵測建立單張影像深度圖的裝置及其方法
US10121262B2 (en) 2016-12-20 2018-11-06 Canon Kabushiki Kaisha Method, system and apparatus for determining alignment data
US10346717B1 (en) * 2017-04-19 2019-07-09 The United States Of America As Represented By The Secretary Of The Navy System and method for thresholding of local image descriptors
US11010630B2 (en) * 2017-04-27 2021-05-18 Washington University Systems and methods for detecting landmark pairs in images
CN107273923B (zh) * 2017-06-02 2020-09-29 浙江理工大学 一种纺织面料摩擦声波辨别器的构建方法
WO2019008581A1 (en) 2017-07-05 2019-01-10 Cortica Ltd. DETERMINATION OF DRIVING POLICIES
WO2019012527A1 (en) 2017-07-09 2019-01-17 Cortica Ltd. ORGANIZATION OF DEPTH LEARNING NETWORKS
US10846562B2 (en) * 2018-01-12 2020-11-24 Arizona Board Of Regents On Behalf Of Arizona State University Systems and methods for image matching
CN108304870B (zh) * 2018-01-30 2021-10-08 河南理工大学 点线特征融合的错误匹配剔除方法
CN109003331A (zh) * 2018-06-13 2018-12-14 东莞时谛智能科技有限公司 一种图像重构方法
US10846544B2 (en) 2018-07-16 2020-11-24 Cartica Ai Ltd. Transportation prediction system and method
US10839694B2 (en) 2018-10-18 2020-11-17 Cartica Ai Ltd Blind spot alert
US11181911B2 (en) 2018-10-18 2021-11-23 Cartica Ai Ltd Control transfer of a vehicle
US11126870B2 (en) 2018-10-18 2021-09-21 Cartica Ai Ltd. Method and system for obstacle detection
US20200133308A1 (en) 2018-10-18 2020-04-30 Cartica Ai Ltd Vehicle to vehicle (v2v) communication less truck platooning
US11700356B2 (en) 2018-10-26 2023-07-11 AutoBrains Technologies Ltd. Control transfer of a vehicle
US10789535B2 (en) 2018-11-26 2020-09-29 Cartica Ai Ltd Detection of road elements
CN109567600B (zh) * 2018-12-05 2020-12-01 江西书源科技有限公司 家用净水机的配件自动识别方法
CN109697692B (zh) * 2018-12-29 2022-11-22 安徽大学 一种基于局部结构相似的特征匹配方法
CN109934777B (zh) * 2019-01-09 2023-06-02 深圳市三宝创新智能有限公司 图像局部不变特征提取方法、装置、计算机设备及存储介质
CN109840529B (zh) * 2019-02-01 2022-12-09 安徽大学 一种基于局部敏感置信度评估的图像匹配方法
US11643005B2 (en) 2019-02-27 2023-05-09 Autobrains Technologies Ltd Adjusting adjustable headlights of a vehicle
US11285963B2 (en) 2019-03-10 2022-03-29 Cartica Ai Ltd. Driver-based prediction of dangerous events
US11694088B2 (en) 2019-03-13 2023-07-04 Cortica Ltd. Method for object detection using knowledge distillation
US11132548B2 (en) 2019-03-20 2021-09-28 Cortica Ltd. Determining object information that does not explicitly appear in a media unit signature
US10796444B1 (en) 2019-03-31 2020-10-06 Cortica Ltd Configuring spanning elements of a signature generator
US10789527B1 (en) 2019-03-31 2020-09-29 Cortica Ltd. Method for object detection using shallow neural networks
US11222069B2 (en) 2019-03-31 2022-01-11 Cortica Ltd. Low-power calculation of a signature of a media unit
US11488290B2 (en) 2019-03-31 2022-11-01 Cortica Ltd. Hybrid representation of a media unit
US10776669B1 (en) 2019-03-31 2020-09-15 Cortica Ltd. Signature generation and object detection that refer to rare scenes
CN111009001A (zh) * 2019-09-17 2020-04-14 哈工大机器人(中山)无人装备与人工智能研究院 一种图像配准方法、装置、设备及存储介质
US10748022B1 (en) 2019-12-12 2020-08-18 Cartica Ai Ltd Crowd separation
US11593662B2 (en) 2019-12-12 2023-02-28 Autobrains Technologies Ltd Unsupervised cluster generation
CN113159081B (zh) * 2020-01-23 2024-06-21 华为技术有限公司 一种图像处理方法以及相关设备
US11397869B2 (en) * 2020-03-04 2022-07-26 Zerofox, Inc. Methods and systems for detecting impersonating social media profiles
US11590988B2 (en) 2020-03-19 2023-02-28 Autobrains Technologies Ltd Predictive turning assistant
US11827215B2 (en) 2020-03-31 2023-11-28 AutoBrains Technologies Ltd. Method for training a driving related object detector
US11625843B2 (en) * 2020-06-24 2023-04-11 Bluebeam, Inc. Systems and methods for automatic alignment of drawings
CN111915645B (zh) * 2020-07-14 2021-08-27 珠海大横琴科技发展有限公司 影像匹配方法、装置、计算机设备及计算机可读存储介质
US11756424B2 (en) 2020-07-24 2023-09-12 AutoBrains Technologies Ltd. Parking assist
CN112633081B (zh) * 2020-12-07 2022-07-01 深圳市来科计算机科技有限公司 一种复杂场景下的特定物体识别方法
CN112598740B (zh) * 2020-12-29 2022-04-15 中交第二公路勘察设计研究院有限公司 一种大范围多视倾斜影像连接点快速精确匹配方法
CN113095371B (zh) * 2021-03-22 2023-01-17 北京大学 一种面向三维重建的特征点匹配方法及系统
CN113298720B (zh) * 2021-04-21 2022-08-19 重庆邮电大学 一种自适应的重叠图像旋转方法
CN114299462B (zh) * 2021-12-28 2024-04-23 湖北工业大学 一种基于锚点图像的地下停车场多尺度场景识别方法
CN114526682B (zh) * 2022-01-13 2023-03-21 华南理工大学 一种基于图像特征增强数字体图像相关法的变形测量方法
CN114782724B (zh) * 2022-06-17 2022-11-08 联宝(合肥)电子科技有限公司 一种图像匹配方法、装置、电子设备及存储介质
CN114821128B (zh) * 2022-06-24 2022-09-09 北京科技大学 一种尺度自适应的模板匹配方法
CN117237680B (zh) * 2023-08-18 2024-03-12 暨南大学 一种基于异质模型拟合的多源图像匹配方法及系统
CN117676136B (zh) * 2023-11-16 2024-06-14 广州群接龙网络科技有限公司 一种群接龙数据处理方法及系统

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2688911B1 (fr) * 1992-02-24 1994-07-29 Robert Pierre Procede de creation de la signature d'un objet represente sur une image numerique, du type consistant a definir au moins un calibre dimensionnel caracteristique dudit objet, et procede correspondant de verification de la signature d'un objet.
JP3212777B2 (ja) * 1993-10-28 2001-09-25 三菱電機株式会社 画像処理装置
US6038349A (en) * 1995-09-13 2000-03-14 Ricoh Company, Ltd. Simultaneous registration of multiple image fragments
US6009437A (en) * 1997-03-25 1999-12-28 Nec Research Institute, Inc. Linear fitting with missing data: applications to structure-from-motion and to characterizing intensity images
US6711293B1 (en) * 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image
US6553150B1 (en) * 2000-04-25 2003-04-22 Hewlett-Packard Development Co., Lp Image sequence compression featuring independently coded regions
GB2367966B (en) * 2000-10-09 2003-01-15 Motorola Inc Method and apparatus for determining regions of interest in images and for image transmission
JP4502303B2 (ja) * 2001-07-05 2010-07-14 株式会社リコー 画像処理装置
US7146057B2 (en) * 2002-07-10 2006-12-05 Northrop Grumman Corporation System and method for image analysis using a chaincode
CN1152341C (zh) * 2002-08-27 2004-06-02 上海交通大学 房屋数字地图自动生成方法
CN1168047C (zh) * 2002-12-19 2004-09-22 上海交通大学 遥感图像的非线性配准方法
JP4492036B2 (ja) * 2003-04-28 2010-06-30 ソニー株式会社 画像認識装置及び方法、並びにロボット装置

Also Published As

Publication number Publication date
CN1776716A (zh) 2006-05-24
CN100426321C (zh) 2008-10-15
JP2005317020A (ja) 2005-11-10
JP4838532B2 (ja) 2011-12-14
EP1594078A2 (en) 2005-11-09
US20050238198A1 (en) 2005-10-27
EP1594078B1 (en) 2008-11-05
KR20060047552A (ko) 2006-05-18
JP2011204280A (ja) 2011-10-13
DE602005010781D1 (de) 2008-12-18
ATE413659T1 (de) 2008-11-15
EP1594078A3 (en) 2006-08-09
US7382897B2 (en) 2008-06-03
KR101117837B1 (ko) 2012-03-15

Similar Documents

Publication Publication Date Title
JP5066279B2 (ja) マルチスケールの有向パッチ(multi−scaleorientedpatches)を使用したマルチ画像特徴(feature)のマッチング
Liu et al. Gift: Learning transformation-invariant dense visual descriptors via group cnns
Yang et al. Daisy filter flow: A generalized discrete approach to dense correspondences
US8712156B2 (en) Comparison of visual information
US8897572B2 (en) Fast subspace projection of descriptor patches for image recognition
US20130089260A1 (en) Systems, Methods, and Software Implementing Affine-Invariant Feature Detection Implementing Iterative Searching of an Affine Space
JP5602940B2 (ja) 事前計算されたスケール空間からのデイジー記述子生成
JP5261501B2 (ja) 不変の視覚場面及び物体の認識
US8798377B2 (en) Efficient scale-space extraction and description of interest points
WO2011069021A2 (en) Improving performance of image recognition algorithms by pruning features, image scaling, and spatially constrained feature matching
JP2007334795A (ja) 情報処理装置および方法、並びにプログラム
US20150302270A1 (en) A method of providing a feature descriptor for describing at least one feature of an object representation
Wu et al. Direct pose estimation for planar objects
Nakazawa Noise stable image registration using random resample consensus
Hwang et al. Real-Time 2D Orthomosaic Mapping from Drone-Captured Images Using Feature-Based Sequential Image Registration
KR101627974B1 (ko) 영상 블러에 강인한 영상 특징 기술자 생성 방법 및 장치
Cardoso et al. Image stitching using non-extensive statistics
Olsson Lens Distortion Correction Without Camera Access
Goel et al. Automatic co-registration of aerial and satellite imagery using optimized minimum distance thresholds for matching
Balmashnova et al. Content-based image retrieval by means of scale-space top-points and differential invariants
Son et al. Fast affine-invariant image matching based on global Bhattacharyya measure with adaptive tree
Card Qualitative image based localization in a large building
Goshin et al. Guided Sampling Method for Hypothesis Generation in Image Stitching
Elibol et al. Mismatched image identification using histogram of loop closure error for feature-based optical mapping
Badr et al. SIFT-EST-a SIFT-based feature matching algorithm using homography estimation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110811

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120712

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120810

R150 Certificate of patent or registration of utility model

Ref document number: 5066279

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150817

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees