JP2005317020A - マルチスケールの有向パッチ(multi−scaleorientedpatches)を使用したマルチ画像フィーチャ(feature)のマッチング - Google Patents

マルチスケールの有向パッチ(multi−scaleorientedpatches)を使用したマルチ画像フィーチャ(feature)のマッチング Download PDF

Info

Publication number
JP2005317020A
JP2005317020A JP2005129813A JP2005129813A JP2005317020A JP 2005317020 A JP2005317020 A JP 2005317020A JP 2005129813 A JP2005129813 A JP 2005129813A JP 2005129813 A JP2005129813 A JP 2005129813A JP 2005317020 A JP2005317020 A JP 2005317020A
Authority
JP
Japan
Prior art keywords
descriptor
interest
point
vector
corner
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005129813A
Other languages
English (en)
Other versions
JP4838532B2 (ja
Inventor
Mathew Brown
ブラウン マシュー
Richard Szeliski
スツェルスキー リチャード
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2005317020A publication Critical patent/JP2005317020A/ja
Application granted granted Critical
Publication of JP4838532B2 publication Critical patent/JP4838532B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G1/00Storing articles, individually or in orderly arrangement, in warehouses or magazines
    • B65G1/02Storage devices
    • B65G1/14Stack holders or separators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2201/00Indexing codes relating to handling devices, e.g. conveyors, characterised by the type of product or load being conveyed or handled
    • B65G2201/02Articles
    • B65G2201/0214Articles of special size, shape or weigh
    • B65G2201/022Flat

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Abstract

【課題】 場面の複数の画像間で対応するポイントを特定するためのシステムおよびプロセスを提供すること。
【解決手段】 本システムおよびプロセスには、不変のフィーチャの新しいクラスに基づくマルチビューマッチングフレームワークが含まれる。フィーチャは、ぼかし局所勾配を使用してスケール空間(scale−space)内に向きを指定してハリスのコーナーに配置される。これで、フィーチャ記述子をサンプリングする類似性不変フレーム(similarity invariant frame)が定義される。実際に構成される記述子は、輝度値のバイアス/ゲイン標準化パッチである。マッチングは、低周波数のハールのウェーブレット係数のインデックスを使用する高速の最近傍の手順で実行される。パッチのマッチングを行う6パラメータの場面プルなモデルを使用して、正しい一致と誤った一致に関するノイズ統計を分析する。この結果、フィーチャごとのアウトライアの距離に基づく場面プルな一致検証手順が得られる。
【選択図】 図2

Description

本発明は場面(scene)の複数の画像間で対応するポイントを特定する方法に関し、より詳細にはフィーチャを迅速に抽出し、場面の部分的に重複する多くの画像間の相関性(correspondences)を検出するシステムおよびプロセスに関する。
画像内の対応するフィーチャの検出は、一般に画像マッチングと呼ばれており、複数の画像から情報を抽出しようとするほとんどすべての映像アプリケーションに必須のコンポーネントである。画像マッチングの初期の研究は、2つの陣営(camps)、すなわちフィーチャベースの方法と直接的な方法に分かれていた。フィーチャベースの方法では、エッジやコーナーのように突出したフィーチャを抽出し、わずかな局所情報(たとえば小さな画像パッチの相関関係)を使用して一致を確定する[8]。入手できるわずかな画像データを使用するフィーチャベースの方法とは対照的に、直接的な方法ではすべてのピクセル値を使用して繰り返し画像を整合しようとする[1、9]。マッチングと認識へのその他のアプローチでは、不変の要素(invariants)を使用してオブジェクトの特徴を明らかにする。場合によってはこの目的を達成するための基本的な枠組みを確立する[14、15]。
こうしたアプローチの共通点として不変のフィーチャがあり、突出したフィーチャの周囲にある大量の局所画像データを使用してインデックス作成とマッチングのための不変の記述子(descriptors)を作成する。この領域の最初の研究は、シュミット(Schmid)とモール(Mohr)によって行われ[16]、ガウスの微分(Gaussian derivatives)の突出(jet)を利用してハリスのコーナー(Harris corner)を中心とする回転に対して不変の記述子(rotationally invariant descriptor)を構成する。ロー(Lowe)は、このアプローチを拡張してスケールに対する不変性を導入した[10、11]。他の研究者は、アフィン変換(affine transformations)に対して不変のフィーチャを開発した[3、20、5]。関心ポイント(interest point)の検出方法には、ハリスのコーナーまたはガウスの微分(DOG:Difference−of−Gaussians)の最大値のように標準的なフィーチャ検出方法から、最大安定領域(maximally stable regions)[12]や安定局所位相構造(stable local phase structures)[7]のようにより複雑な方法までさまざまである。
一般に、関心ポイントの抽出と記述子のマッチングは2つの基本的なステップと見なされており、関心ポイントの繰り返し精度(repeatability)[17]と記述子のパフォーマンス[13]に関するさまざまな技術を評価する場合に何らかの進展が見られた。また、動きの構造(structure from motion)[19]とパノラマ画像ング(panoramic imaging)[6]のコンテキストにおけるマルチビューマッチングへの強制的な適用もある。しかし、今日までこうした手順でフィーチャを迅速に検出し、場面の部分的に重複する多くの画像間の相関性を検出する機能を提供するものはない。
本明細書の以上と以下の各節の説明で、角括弧内の数字は関連のさまざまな文献の参照を示していることに留意されたい。たとえば、こうした参照は「参考文献[1]」または単に「[1]」で表される。複数の参考文献を表す場合は、たとえば[2、3]のように複数の数字を角括弧で囲む。個々の数字に対応する出版物が記載された参考文献のリストは、以下の実施形態の節(Detailed Description section)の終わりに示している。
本発明は、不変のフィーチャの新しいクラスに基づいて場面の複数の画像間で対応するポイントを特定するシステムおよびプロセスを対象とする。本システムおよびプロセスは、フィーチャを迅速に抽出し、場面の部分的に重複する多くの画像間の相関性を検出する機能を備えている。本技術は、画像ステッチ(image stitching)やビデオ安定化(video stabilization)のための画像相関性の検出にきわめて有効である。また、ビデオのフィーチャ追跡や複数画像からの3次元モデルの構築などの一般的なマルチ画像の相関性にも拡張できる。
より詳細には、本システムおよびプロセスには、まずさまざまな解像度の各画像において関心ポイントを特定する操作が含まれる。関心ポイントは、その画像内の位置がそのポイントを中心とするあらかじめ指定されたサイズのピクセル近傍内のピクセルに起因する少なくとも1つのプロパティで定義されるポイントである。さらに、個々の関心ポイントはそのポイントを中心とするピクセル近傍内のピクセルに起因する少なくとも1つのプロパティ(ポイントの位置の定義に使用したプロパティと同じでもよいし、別のプロパティでもよい)に基づいて一意の向きを割り当てることができるポイントである。この第2の近傍は、ポイントの位置の定義に使用したものと同じサイズの近傍でもよいし、別のサイズの近傍でもよい。
関心ポイントが特定されると、関心ポイントごとに記述子が確立する。この記述子は、画像の位置、向き、スケールの変化に対しても、このポイントを中心とする領域内のピクセルの輝度(intensity)に対しても、実質的に不変である形で各ポイントを特徴付ける。次に、画像間で実質的に一致する記述子の集合が特定される。さまざまな画像に表示される、一致する記述子の集合に関連付けられた関心ポイントは、対応するポイント(すなわち、場面の同一の要素を表すポイント)として指定される。
画像ごとに関心ポイントを特定する操作に関して、この操作はまず画像の解像度のピラミッドを作成することで実行できる。ピラミッドの各レベルで、コーナーフィーチャを代表する画像内の位置を特定する。たとえば、本システムおよびプロセスの試験済みの実施形態では、いわゆるハリスのコーナーフィーチャを採用した。コーナーフィーチャの位置を特定する1つの方法は、その位置を中心とした所定の最小近傍半径のピクセル近傍内で局所的に最大のコーナー強度(corner strength)を示し、所定の最小強度のしきい値を超えるコーナーの位置をフィーチャごとに特定することである。特定されたコーナー位置の総数が所定の最大値を超える場合は、近傍半径を所定の整数値だけ増分し、前回特定された各位置のコーナー強度が現在考察中のピクセル近傍でも依然として局所的な最大値をとるかどうか、さらに依然として最小強度のしきい値を超えるかどうかを判断する。両方の条件を満たさない場合は、コーナーの位置が考察の対象から外される。すべてのコーナーの位置についての再検討が完了すると、総数が最大許容値を超えているかどうかをもう一度判断する。超えている場合は、半径を増分して前述の手順をもう一度繰り返す。コーナーの位置の数が最大許容数以内になるまでこの繰り返しのプロセスを継続する。この時点で、残っている特定された位置は別のコーナーフィーチャを代表するポイントとして指定される。残っているコーナーフィーチャの位置については、それぞれ考察の対象となる特定された位置を中心とする所定のサイズの局所的な近傍に適合する2次元の正方形(2D quadratic)の面で最大強度を示す位置をフィーチャに割り当てることで、各フィーチャの位置を調整できる。
残っているコーナーフィーチャには向きも割り当てられる。本システムおよびプロセスの試験済みの実施形態において、この操作はぼかし勾配(blurred gradient)のアプローチを使用して実行される。最終的に、残っているコーナーフィーチャのそれぞれについて特定された位置は、該当するコーナーフィーチャに関して計算された向きの個別の関心ポイントとして指定される。
各関心ポイントの記述子を生成する操作に関して、この操作を実行するためには、まず考察対象の関心ポイントの位置を中心とする関心ポイントと同じ向きの所定のサイズpxpの記述子領域を確立する。次に、記述子領域より小さい所定のサイズdxdの記述子ベクトルが構成され、この領域内のピクセルの輝度に関する双線形補間を使用して領域のサンプリングが行われる。ただし、適切なピラミッドレベルからサンプリングすることで、エイリア場面グを回避する。これで、記述子ベクトルがゲインとバイアスに関して標準化され、標識化された記述子ベクトルに対してハール(Haar)のウェーブレットの変換が行われ、変換ベクトルが生成される。
画像間で実質的に一致する記述子を検出する操作に関して、一般にこの操作は変換された各記述子ベクトルをフィーチャ空間(feature space)内の所定の数の最近傍とマッチングすることで実行される。このタスクを実行する1つの方法は、まず変換された個々の記述子ベクトルの最初の3つの非ゼロウェーブレット係数から3次元ハッシュテーブルを作成することである。次に、ハッシュテーブルの各ビン(bin)について、ビン内で検出される3係数ベクトル(three−coefficient vector)間の距離を計算する。3係数ベクトルのそれぞれが順に選択され、計算した距離に基づいて、同じビンに含まれるが選択されたベクトルと同じ画像には関連付けられていないその所定の数の最近傍が特定される。これで、一致ベクトル候補(potentially matching vectors)の集合が構成される。こうした各集合内のベクトルに関連付けられた関心ポイントは、画像間で対応するポイントとして指定される。本マッチング手順の試験済みの実施形態において、ハッシュテーブルは次元あたり10個のビンを備え、各ビンの範囲は半分が重複するように構成されている。各ベクトルの所定の数の最近傍を特定する代わりに、一致ベクトル候補の集合を構成せずに、考察中のベクトルに関連付けられた画像以外の各画像に関連付けられた同じビン内にある最近傍を画像ごとに所定の最大数まで特定してもよいことに留意されたい。
一致ベクトル候補の各集合に含まれるベクトルに関連付けられた関心ポイントを対応するポイントとして指定する操作において、誤って特定された一致を除去できる。このためには、一般に3係数ベクトルに関連付けられた関心ポイントが実際に同じベクトル集合内の別の3係数ベクトルに関連付けられた関心ポイントに対応しない場合は、一致ベクトルの候補としての考察対象からその3係数ベクトルを除外する必要がある。この操作はさまざまな方法で実行できる。1つの方法では、一致ベクトルの集合ごとに、まず集合のアウトライア(outlier)の距離を計算し、次にこの集合内の任意の一致ベクトルについて計算した距離がアウトライアの距離の約65%を超えるかどうかを判断する。一致ベクトルの距離がアウトライアの距離の約65%を超えることがわかった場合は、対応する画像ポイントとしての考察からこれを除外する。この除去戦略は、アウトライアの距離に基づく拘束条件(outlier distance constraint)を使用したアウトライア除去(outlier rejection)と呼ばれる。誤った一致ベクトルを集合から除去する別の方法は、標準の幾何学的アウトライア除去手順を実行し、アウトライアであることが判明したベクトルに対応するポイントとして関連付けられた関心ポイントを除去することである。本質的に、この幾何学的アウトライア除去手順には、2つの画像間ですべてのポイントが最もよく一致する変換を検出する操作と、変換したときに所定の許容範囲内に対応しないポイントを除去する操作が含まれる。前述の除去技法の両方を採用することもできる。たとえば、本システムおよびプロセスの試験済みの実施形態においては、まずアウトライアの距離に基づく拘束条件を使用した除去戦略が採用され、続いて幾何学的アウトライア除去手順が採用された。
以上に説明した効果に加えて、本発明のその他の利点は、以下の実施形態に関する説
明と添付の図面を関連付けて参照することで明らかになるであろう。
本発明の特定の機能、態様、および利点は、以下の実施形態の説明、前述の請求項、および添付の図面に関連して理解が深まるであろう。
以下に示す本発明の好ましい実施形態の説明では、本明細書の要素となる添付の図面を参照する。こうした図面には、本発明を実施できる特定の実施形態が例として示されている。本発明の範囲を逸脱しない限り、他の実施形態を利用できること、および構造上の変更を適用できることは言うまでもない。
1.0 コンピューティング環境
本発明の好ましい実施形態について説明する前に、本発明を実装できる適切なコンピューティング環境の簡単かつ一般的に説明する。
図1は、適切なコンピューティングシステム環境100を示している。コンピューティングシステム環境100は適切なコンピューティング環境の1つの例にすぎず、本発明の使い方または機能の範囲に関するいかなる制限を示すものでもない。また、コンピューティング環境100は、例示的なオペレーティング環境100に示すコンポーネントの1つまたは組合わせに関して、依存性も要件もないものとする。
本発明は、他のさまざまな汎用または専用のコンピューティングシステム環境または構成にも適用できる。本発明の使用に適した周知のコンピューティングシステム、環境、および/または構成の例には、パーソナルコンピュータ、サーバーコンピュータ、ハンドヘルドまたはラップトップデバイス、マルチプロセッサシステム、マイクロプロセッサベースのシステム、セットトップボックス、プログラム可能な家庭用電子機器、ネットワークPC、ミニコンピュータ、メインフレームコンピュータ、前述の任意のシステムまたはデバイスを含む分散コンピューティング環境などが含まれるが、これらに限定はされない。
本発明は、プログラムモジュールのようにコンピュータで実行可能な命令をコンピュータで実行する一般的なコンテキストで説明できる。一般に、プログラムモジュールには、特定のタスクを実行したり、特定の抽象データ型を実装したりするルーチン、プログラム、オブジェクト、コンポーネント、データ構造などがある。本発明は、通信ネットワークを介してリンクするリモート処理装置でタスクを実行する分散コンピューティング環境でも実施できる。分散コンピューティング環境では、メモリ記憶装置を含むローカルとリモートの両方のコンピュータ記憶媒体にプログラムモジュールを格納できる。
図1を参照すると、本発明を実施する例示的なシステムに、コンピュータ110の形で汎用コンピューティングデバイスが配置されている。コンピュータ110のコンポーネントには、処理装置120、システムメモリ130、さまざまなシステムコンポーネント(システムメモリや処理装置120など)を接続するシステムバス121が含まれるが、それらに限定はされない。システムバス121は、さまざまなバスアーキテクチャの任意の1つを使用したメモリバスまたはメモリコントローラ、周辺バス、ローカルバスを含む各種バス構造のいずれでもよい。こうしたアーキテクチャには、例として、ISA(Industry Standard Architecture)バス、MCA(Micro Channel Architecture)バス、EISA(Enhanced ISA)バス、VESA(Video Electronics Standards Association)ローカルバス、PCI(Peripheral Component Interconnect)バス(メザニン(Mezzanine)バスとも呼ばれる)が含まれるが、これらに限定はされない。
コンピュータ110は、通常はさまざまなコンピュータ可読媒体を備えている。コンピュータ可読媒体は、コンピュータ110からアクセスできる任意の使用可能な媒体でよい。揮発性と不揮発性の両方、および取り外し可能と不可能の両方の媒体が含まれる。例として、コンピュータ可読媒体にはコンピュータ記憶媒体および通信媒体を含めてもよいが、これらに限定はされない。コンピュータ記憶媒体には、コンピュータ可読の命令、データ構造、プログラムモジュール、またはその他のデータなどの情報を記憶する任意の方法または技術で組み込まれた、揮発性と不揮発性の両方、および取り外し可能と不可能の両方の媒体が含まれる。コンピュータ記憶媒体には、RAM、ROM、EEPROM、フラッシュメモリなどのメモリ技術、CD ROM、デジタル多用途ディスク(DVD:digital versatile disk)などの光ディスク記憶装置、磁気カセット、磁気テープ、磁気ディスクなどの磁気記憶装置、または必要な情報を格納でき、コンピュータ110からアクセスできる他の任意の媒体が含まれるが、これらに限定はされない。通信媒体は、搬送波やその他の搬送メカニズムのような変調データ信号に含まれるコンピュータ可読の命令、データ構造、プログラムモジュール、またはその他のデータなどを具体化したものであり、任意の情報伝達媒体を含む。「変調データ信号」という用語は、信号内の情報を符号化するように、1つまたは複数のフィーチャを設定または変更された信号を意味する。例として、通信媒体には、有線ネットワーク、直接ワイヤ接続などの有線媒体と、音、RF、赤外線などの無線媒体が含まれるが、これらに限定はされない。上記の任意の組合わせも、コンピュータ可読媒体の範囲内に含まれるものとする。
システムメモリ130には、読み取り専用メモリ(ROM:read only memory)131やランダムアクセスメモリ(RAM:random access memory)132のように揮発性および/または不揮発性メモリという形をとるコンピュータ記憶媒体が含まれる。起動時などにコンピュータ110内のエレメント間の情報転送を支援する基本ルーチンを含む基本入出力システム133(BIOS:basic input/output system)は、通常はROM 131に格納される。RAM 132には、通常はプロセッ場面グユニット520から直ちにアクセスできる、かつ/またはプロセッ場面グユニット120で現在操作しているデータおよび/またはプログラムモジュールが格納される。例として、図1にはオペレーティングシステム134、アプリケーションプログラム135、その他のプログラムモジュール136、およびプログラムデータ137が示すが、これには限定されない。
コンピュータ110には、その他の取り外し可能/不可能、揮発性/不揮発性のコンピュータ記憶媒体を含めてもよい。単に例として、図1に取り外し不可能な不揮発性の磁気媒体の読み出しまたは書き込みを行うハードディスクドライブ141、取り外し可能な不揮発性の磁気ディスク152の読み出しまたは書き込みを行う磁気ディスクドライブ151、CD ROMや他の光媒体のような取り外し可能な不揮発性の光ディスク156の読み出しまたは書き込みを行う光ディスクドライブ155を示す。例示的なオペレーティング環境で使用できる上記以外の取り外し可能/不可能、揮発性/不揮発性のコンピュータ記憶媒体には、磁気テープカセット、フラッシュメモリカード、デジタル多用途ディスク、デジタルビデオテープ、ソリッドステートRAM、ソリッドステートROMなどが含まれるが、それらに限定はされない。ハードディスクドライブ141は、通常はインターフェース140などの取り外し不可能なメモリインターフェースを介してシステムバス121に接続し、磁気ディスクドライブ151と光ディスクドライブ155は、通常はインターフェース150などの取り外し可能なメモリインターフェースを介してシステムバス121に接続する。
図1に示す前述のドライブとこれに対応するコンピュータ記憶媒体には、コンピュータ可読の命令、データ構造、プログラムモジュールなど、コンピュータ110のデータを格納できる。たとえば、図1を参照すると、ハードディスクドライブ141にオペレーティングシステム144、アプリケーションプログラム145、その他のプログラムモジュール146、およびプログラムデータ147が格納されている。ただし、こうしたコンポーネントは、オペレーティングシステム134、アプリケーションプログラム135、その他のプログラムモジュール136、およびプログラムデータ137と同じでもよいし、異なっていてもよい。ここでは、オペレーティングシステム144、アプリケーションプログラム145、その他のプログラムモジュール146、およびプログラムデータ147には異なる番号を付けて、少なくとも別の複製であることを示している。ユーザーは、キーボード162やポインティングデバイス161などの入力装置(一般に、マウス、トラックボール、またはタッチパッドと呼ばれる)を使用してコンピュータ110にコマンドや情報を入力できる。他の入力装置(図示せず)には、マイクロフォン、ジョイスティック、ゲームパッド、サテライトディッシュ、スキャナなどを含めてもよい。これらの入力装置および他の入力装置は、多くの場合にシステムバス121に接続されたユーザー入力インターフェース160を介して処理装置120に接続するが、パラレルポート、ゲームポート、USB(universal serial bus)のような他のインターフェースやバス構造によって接続してもよい。モニタ191または他のタイプの表示装置も、ビデオインターフェース190のようなインターフェースを介してシステムバス121に接続される。さらに、コンピュータには出力インターフェース195を介してスピーカー197やプリンタ196など、モニタ以外の出力周辺装置を接続できる。本発明において特に重要であるが、一連の画像193をキャプチャできるカメラ192(デジタル/電子的スチール(still)カメラまたはビデオカメラ、またはフィルムスキャナ/フォトスキャナ(film/photographic scanner))を、パーソナルコンピュータ110の入力装置として備えていてもよい。さらに、パーソナルコンピュータ110の入力装置として1台のカメラが図示されているが、複数台のカメラを備えていてもよい。1台または複数台のカメラの画像193は、適切なカメラインターフェース194を介してコンピュータ110に入力される。このインターフェース194はシステムバス121に接続され、それによって画像をRAM 132またはコンピュータ110に関連付けられた他のデータ記憶装置のいずれかにルーティングでき、格納できる。ただし、画像データは前述のコンピュータ可読媒体のいずれかからコンピュータ110に入力することもでき、カメラ192を使用する必要はない。
コンピュータ110は、リモートコンピュータ180のような1台または複数台のリモートコンピュータへの論理接続を使用してネットワーク環境で動作できる。リモートコンピュータ180は、パーソナルコンピュータ、サーバー、ルータ、ネットワークPC、ピアデバイス、または他の一般のネットワークノードでよい。通常は、コンピュータ110に関連して上で説明したエレメントの多くまたはすべてが含まれるが、図1にはメモリ記憶装置181のみを示す。図1に示す論理接続には、ローカルエリアネットワーク(LAN:local area network)171とワイドエリアネットワーク(WAN:wide area network)173が含まれるが、他のネットワークを含めてもよい。このようなネットワーキング環境は、職場、企業規模のコンピュータネットワーク、イントラネット、およびインターネットではごく一般的である。
LANネットワーキング環境で使用した場合、コンピュータ110はLAN 171にネットワークインターフェースまたはアダプタ170を介して接続する。WANネットワーキング環境で使用する場合、コンピュータ110は一般にインターネットなどのWAN 173を介して通信を確立するためのモデム172またはその他の手段を備えている。モデム172(内蔵または外付け)は、ユーザー入力インターフェース160または他の適切なメカニズムを使用してシステムバス121に接続できる。ネットワーク環境では、コンピュータ110またはその一部に関連して記述したプログラムモジュールをリモートメモリ記憶装置に格納できる。例として、図1にメモリデバイス181に格納されたリモートアプリケーションプログラム185を示すが、これには限定されない。図示されたネットワーク接続が例示的なものであり、コンピュータ間の通信リンクを確立する他の手段を使用してもよいことは言うまでもない。
2.0 マルチ画像フィーチャマッチングのシステムおよびプロセス
例示的な動作環境について説明してきたが、本実施形態の節では、この後に本発明を実施するプログラムモジュールについて説明する。一般に、本発明によるシステムおよびプロセスには、場面を構成する複数の画像間で対応するポイントを特定する操作が含まれる。通常、これは図2のハイレベル(high−level)流れ図に示すように、以下のプロセス操作によって実現する。まず、画像ごとにさまざまな解像度で関心ポイントが特定される(プロセス操作200)。関心ポイントは、画像内の位置がそのポイントを中心とするあらかじめ指定されたサイズのピクセル近傍内のピクセルに起因する(attributable)少なくとも1つのプロパティで定義されるポイントである。さらに、個々の関心ポイントはそのポイントを中心とするピクセル近傍内のピクセルに起因する少なくとも1つのプロパティ(ポイントの位置の定義に使用したプロパティと同じでもよいし、別のプロパティでもよい)に基づいて一意の向きを割り当てることのできるポイントである。この第2の近傍は、ポイントの位置の定義に使用したものと同じ所定のサイズの近傍でもよいし、別のサイズの近傍でもよい。
関心ポイントが特定されると、プロセス操作202で関心ポイントごとに記述子が確立する。この記述子は、画像の位置、向き、スケールの変化に対しても、このポイントの位置と向きを定義するためのピクセルの輝度の変化に対しても、実質的に不変である形で各ポイントを特徴付ける。次に、画像間で実質的に一致する記述子の集合が特定される(プロセス操作204)。最終的に、プロセス操作206で、一致する記述子の集合に関連付けられた、さまざまな画像に表示される関心ポイントは、対応するポイント(つまり、場面の同じ要素を表すポイント)として指定される。
まず、前述のフィーチャ記述子で表される不変のフィーチャの新しいクラス(一般に、輝度値のバイアス/ゲイン標準化パッチ(bias/gain normalized patch of intensity values)である)について説明し、続いてフィーチャマッチングスキーマについて説明する。
2.1 マルチスケール指向(Multi−Scale Oriented)のフィーチャ
マルチスケールの有向フィーチャは、4つの幾何学的なパラメータと2つの光度測定のパラメータによって特徴付けられる。幾何学的なパラメータは、t1、t2、θ、l、すなわち画像内の領域またはパッチの中心の位置x、y、向き、スケールである。光度測定のパラメータは、α、β、すなわちパッチのゲインとバイアスである。こうした表現が指定されると、パッチのマッチングを行う6パラメータの場面プルなモデルが採用され、正しい一致と誤った一致に関するノイズ統計が分析される。これで、フィーチャごとのアウトライアの距離に基づく場面プルな一致検証手順が得られる。より詳細には、対応する画像パッチ間の変換は次のように表される。
I’(x’)=αI(x)+β+e (1)
ただし、x’=Ax+t、
Figure 2005317020
である。エラーeは画像ングのノイズとモデリングのエラーを表す。
フィーチャの中心の位置x、yは、この変換が適切に定義された(well defined)ポイント、すなわちI(x)の自動相関(autocorrelation)がピークに達しているポイントに一致すると考えられる。こうしたポイントの候補は、関心ポイントと呼ばれる。フィーチャを比較するために、原則的に2つの画像の位置ト同士の変換パラメータの最尤推定値を計算できる。ガウスのノイズ(Gaussian noise)を想定すると、非線形最小二乗問題を解くことでこの操作を繰り返し実行できる。ただし、効率を上げるために、各フィーチャを前述のモデルの不変要素で特徴付け、2つのフィーチャ間のモデルパラメータに関する閉じた形の近似を使用してもよい。エラーeに関する統計を使用して、一致が正しいか誤りかを検証できる。
2.1.1 関心ポイント
画像内には位置と向きの両方で特徴付けできる多くのポイントが存在するが[17]、本システムおよびプロセスの試験済みの実施形態について選択した関心ポイントは、いわゆるハリスのコーナーに関連付けられる。こうしたハリスのコーナーに一致する関心ポイントは、次のようにして検出される。入力画像I(x,y)のそれぞれについて、低レベルのP(x,y)=I(x,y)と、以下のように高レベルのスムージングと二段抽出(subsampling)の操作に関連するによって画像ピラミッドが構成される。
Figure 2005317020
lはピラミッドのレベル、gσ(x,y)は標準偏差σのガウスカーネルを表す。二段抽出率(subsampling rate)s=2とピラミッドスムージングσ=1.0は、このピラミッド構成手順の試験済みの実施形態に適切に採用されている。ただし、一般にはsとして約1.1から3.0までの値を使用し、σとして約0.55から1.5までの値を使用する。関心ポイントは、ピラミッドの各レベルから抽出される。レベル1と位置(x,y)のハリス行列(Harris matrix)は、次のようにスムージングされた勾配(gradients)の外積である。
Figure 2005317020
ただし、∇σは以下のようにスケールσでの空間微分(spatial derivative)である。
σf(x,y)∇f(x,y)*gσ(x,y) (4)
試験済みの実施形態において、積分(integration)スケールはσ=1.5に設定され、微分スケールσ=1.0に設定された。以下のコーナー検出関数が使用された。
Figure 2005317020
これは、Hの固有値(λ1、λ2)の調和平均である。試験済みの実施形態において、関心ポイントはコーナー強度fHM(x,y)は周囲の近傍の局所的な最大値であり、しきい値10.0を超えている。ただし、一般にはσとして約0.5から2.5までの値を使用でき、σdとして約0.5から2.5までの値を使用できる。しきい値は0以上の任意の値でよいことに留意されたい。前述の周囲の近傍のサイズについて簡単に説明する。
前述の関心ポイント検出関数選択の理由は、Hと局所相関関数との関係によって理解できる。画像I(x)に関して、1次テーラー展開(Taylor expansion)によって以下の局所的な自動相関が得られる。
Figure 2005317020
関心ポイントは、自動相関関数のピークに位置する。これは、すべての単位ベクトルuについてe(u)が大きいことを意味する。つまり、Hの両方の固有値が大きいという要件と同等である。
関心ポイントの位置を検出するには、調和平均関数(harmonic mean function)以外のコーナー検出関数も使用できることに留意されたい。たとえば、いわゆるハリスの関数(すなわち、f=λλ−0.04(λ+λ=det H−0.04(tr H))とシャイ−トマシの関数(すなわち、fST=min(λ,λ))を代用してもよい。図3では、調和平均の関心ポイント検出関数のアイソコンター(isocontour)をその他の関数のアイソコンターとを比較している。すべての検出関数において、2つの固有値が大きいことが要求される。予備試験(Preliminary experiments)により、3つの検出機能のそれぞれは概ね同じ性能を示すので、ほとんど同様に利用できることがわかっている。
2.1.1.1 適応非極大抑制(Adaptive Non−Maximal Suppression)
計算上の問題により、画像ごとに固定数の関心ポイントを生成するのが望ましい。画像内で空間的に適切に分散する関心ポイントを選択するために、適応非極大抑制の戦略を利用できる。より詳細には、関心ポイントはコーナー強度fHMに基づいて抑制され、半径rピクセルの近傍内で最大のもののみが保持される。画像からほぼ一定数nipの関心ポイントを抽出するために、非極大抑制半径rを検索できる。試験済みの実施形態において、初期値r=rinit=4.0を使用する。ただし、これはほぼ1から15までの範囲である。ここで、各画像からnipを超えない関心点が抽出されるような連続する整数値がrの最大値として検索される。試験済みの実施形態ではnip=500である。ただし、一般にこの値は画像のサイズと状態(nature)によって、最小で約10から最大で数千に及ぶ。前述の方法で関心ポイントを空間的に分散すると、最大のコーナー強度に基づいて選択するのとは対照的に、画像の一致の脱落が少なくなる。
2.1.1.2 サブピクセルの精度
2次元の正方形を局所的な近傍内のコーナー強度関数に適合させ、その最大値を検出することで、関心ポイントをサブピクセルの精度で配置し、よりよい結果を得ることができる。より詳細に記述すると以下のようになる。
Figure 2005317020
ただし、xは位置(x,y)を表し、f(x)=fHM(x)はコーナー強度の測定値である。試験済みの実施形態では、3x3の近傍が使用された。以下のように、ピクセルの相違を使用して3x3の近傍から微分が計算される。
Figure 2005317020
したがって、サブピクセル位置のコンポーネントxとyは次のように計算される。
Figure 2005317020
繰り返し精度は、変換された位置がある許容値まで正しい関心ポイントの割合として定義できる。前述の手順を使用してサブピクセルの局所化を行った場合と行わない場合の関心ポイントの繰り返し精度を図4に示す。サブピクセルの局所化によって繰り返し精度は約5%向上することに注目されたい。
2.1.2 向き
各関心ポイントには向きθがある。ただし、向きベクトル
Figure 2005317020
は次に示すスムージングされた局所的な勾配から得られる。
Figure 2005317020
試験済みの実施形態で使用した向きの積分スケールは、σ=4.5である。動きのフィールド(motion field)ul(x,y)が画像全体でスムーズに変化し、向きの評価が関心ポイント位置のエラーに左右されないようにするために、大きな微分スケールが望ましい。ただし、一般に向きの積分スケールは約2.0から7.0までである。
本システムおよびプロセスの試験済みの実施形態ではぼかし局所勾配(blurred local gradient)のアプローチを使用して個々の関心ポイントの向きを確定したが、その他の方法を利用してもよい。たとえば、向きを測定する方法には行列Hの勾配ヒストグラムまたは固有ベクトルの最大値を使用する方法がある。
2.1.3 記述子ベクトル
向きのある関心ポイント(x,y,l,θ)のそれぞれについて、記述子領域は検出スケールで(at the detection scale)サイズpxpピクセルのベクトルのパッチである。パッチは、中心が(x,y)、向きが角度θである。このpxpの記述子領域から、サイズdxdピクセルの記述子ベクトルが構成される。試験済みの実施形態ではp=40、d=8である。ただし、一般にpは画像サイズの約0.1から10%であり、dはつり合いのとれる値である。図6に山の場面を示す。ここでは、ピークの頂上にある関心ポイントに関連付けられた記述子領域が白いボックスで示されている。関心ポイントの位置をボックスの中心の白いドットで示しており、関心ポイントから伸びる線でこのポイントに割り当てられた向きを示している。図7は、図6の記述子領域から構成される8x8の記述子を示す図である。関心ポイントと向きを表すラインは、この図でも白で示されている。
サンプリング時のエイリア場面グ/ブラーリングを回避するために、記述子はピラミッドレベルでサンプリングされる。これは、概ねピクセルあたり1度のサンプリングになる。これを実行する1つの方法は、検出スケールを超えるレベルlのレベルから記述子をサンプリングすることである。
Figure 2005317020
記述子ベクトルは、双線形補間を使用してサンプリングされる。
たとえば、試験済みの実施形態ではp=40、d=8、s=2であるが、l=2レベルから記述子をサンプリングする。ただし、関心ポイントはレベルlで検出されたと仮定する。これで、
Figure 2005317020
から記述子をサンプリングすることになる。ただし、代わりにp’l+1(x,y)(ただし
Figure 2005317020
、すなわちブラーリングはするがダウンサンプリング(downsampling)はしない)からサンプリングする別の手順を使用すると、よりよい結果を得られる。さらに、小さなゲインでも、
Figure 2005317020
からのサンプリングによって作成される。
2.1.3.1 標準化
次に、記述子ベクトルは以下のように平均が0で標準偏差が1になるように標準化される。
=(d’−μ)/σ (12)
ただし、d’、iε{1..d}は記述子ベクトルの要素であり、
Figure 2005317020
Figure 2005317020
である。これで、フィーチャはアフィン変換に対して強度(バイアスとゲイン)が不変になる。
2.1.3.2 ハールのウェーブレット変換(Wavelet.Transform)
最後に、dxdの記述子ベクトルd上でハールの変換が実行され、ウェーブレット係数cを含むd次元の記述子ベクトルを構成する。ハールのウェーブレットの直交性プロパティにより、距離が維持される(以下)。
Figure 2005317020
したがって、2乗和の差の意味で最近傍は変更されない。ただし、この後で(shortly)説明するインデックス戦略には、最初の3つの非ゼロウェーブレット係数c、c、cが使用される。
2.1.4 記述子生成プロセスの概要
関心ポイントを定義するハリスのコーナーフィーチャと、各フィーチャの向きを確定するぼかし局所勾配のアプローチを使用した本システムおよびプロセスの実施形態に従って関心ポイントごとに記述子を生成する技術に関する以上の説明は、図5A〜Cのプロセス流れ図に要約される。このプロセスは、画像内の関心ポイントを特定する操作で開始される。より詳細には、画像ごとに画像解像度のピラミッドを構成する(プロセス操作500)。次に、まだ選択されていないピラミッドレベルを選択し(プロセス操作502)、選択したレベルで個々のハリスのコーナーの位置を特定する(プロセス操作504)。次に、まだ選択されていないハリスのコーナーの1つを選択し(プロセス操作506)、コーナーの位置を表す関心ポイントを中心とした所定の最小近傍半径のピクセル近傍内で、選択したコーナーのコーナー強度が局所的な最大値かどうかを判断する(プロセス操作508)。選択したコーナーのコーナー強度が局所的な最大値の場合は、さらにこのコーナー強度が所定の最小強度しきい値を超えるかどうかを判断する(プロセス操作510)。その場合は、選択したコーナーをコーナーの候補として指定し(プロセス操作512)、他のコーナー(ある場合)について考察する。一方、コーナー強度が局所的な最大値でない場合、またはコーナー強度が所定の最小強度しきい値を超えないことが確認された場合は、選択したコーナーを考察の対象から除外し、他のコーナー(ある場合)について考察する。このように、いずれの場合も次の操作では考察対象としてまだ選択されていないコーナーがあるかどうかを判断する(プロセス操作514)。考察するコーナーが残っている場合は、前述のプロセスをプロセス操作506から繰り返す。それ以外の場合、プロセスはプロセス操作516に進み、ここで最後に使用した近傍半径を所定の整数値だけ増分する(たとえば1ずつ)。ここで、コーナーの候補のそれぞれについて、前述のスクリーニング手順を繰り返す。具体的には、まだ選択されていないコーナーの候補を選択し(プロセス操作518)、そのコーナー強度が現在の近傍半径の値で定義されるピクセル近傍内の局所的な最大値かどうかを判断する(プロセス操作520)。選択したコーナー候補のコーナー強度が局所的な最大値の場合は、さらにそれが所定の最小強度しきい値を超えるかどうかを判断する(プロセス操作522)。その場合は、選択したコーナーを引き続きコーナーの候補として指定し(プロセス操作524)、他のコーナー(ある場合)について考察する。一方、コーナー強度が局所的な最大値でない場合、またはコーナー強度が所定の最小強度しきい値を超えないことが確認された場合は、選択したコーナー候補を考察の対象から除外し、他のコーナー候補(ある場合)について考察する。このように、いずれの場合も次の操作では考察対象としてまだ選択されていないコーナー候補があるかどうかを判断する(プロセス操作526)。考察するコーナーが残っている場合は、前述のプロセスの一部がプロセス操作518から繰り返される。考察するコーナーが残っていない場合は、次に引き続きコーナー候補として指定されているコーナーの数がまだ所定の最大許容値を超えるかどうかを判断する(プロセス操作528)。コーナー候補の最大許容値を超える場合は、コーナー候補の数が最大許容値以下になるまで、必要に応じてプロセス操作516から528を繰り返す。
許容数のコーナー候補が残ると、プロセスは残っているコーナー候補のそれぞれの位置を定義するポイントを考察対象の画像の関心ポイントとして指定する操作に進む(プロセス操作530)。次に、まだ選択されていない関心ポイントを選択し(プロセス操作532)、その位置を調整する。より詳細には、プロセス操作534で関心ポイントの位置を、選択したポイントを中心とする所定のサイズの局所的な近傍に適合する2次元の正方形(2D quadratic)の面で最大強度を示す「位置」として指定する。
選択した関心ポイントの調整された位置が確定した場合は、このポイントの向きを指定する(プロセス操作536)。前述のように、本発明の試験済みの実施形態において、この操作はぼかし勾配のアプローチを使用して実している。次に、選択した関心ポイントの位置と向きを使用して、このポイントの記述子ベクトルを生成する。この操作を実行するためには、まず関心ポイントの位置を中心とする関心ポイントと同じ向きを向いた所定のサイズpxpの記述子領域(またはパッチ)を確立する(プロセス操作538)。ここで、前述のように、強度の値をサンプリングする双線形補間を使用して記述子領域から所定のサイズdxdの小規模な記述子ベクトルが構成される(プロセス操作540)。次に、この記述子ベクトルを標準化し(プロセス操作542)、ハールのウェーブレット変換を実行する(プロセス操作544)。変換された記述子ベクトルは、選択した関心ポイントの記述子を表す。ここで、まずまだ選択されていないコーナー候補が残っているかどうかを判断し、他の関心ポイントについてこのプロセスを実行する(プロセス操作546)。ある場合は、すべての関心ポイントが関連の変換コンポーネントされた記述子ベクトルを備えるまで、必要に応じてプロセス操作532から546を繰り返す。
最後に、まずまだ選択されていないピラミッドレベルが残っているかどうかを判断し、画像ピラミッドの他のすべての解像度レベルについて記述子生成プロセスを繰り返す(プロセス操作548)。残っている場合は、必要に応じてプロセス操作502から548を繰り返す。完了すると、画像ピラミッド各レベルの関心ポイントのそれぞれについて、変換された記述子ベクトルが関連付けられている。前述のようにして特定された関心ポイントの向きを計算し、変換された記述子ベクトルを生成する代わりに、別のアプローチとして、バッチ方式ですべての関心ポイントを特定し、その向きを指定し、変換された記述子ベクトルを生成することもできる。
2.2 フィーチャマッチング
場面の画像の集合に属するn個すべての画像から抽出されたマルチスケールの有向パッチが与えられた場合に、フィーチャマッチングの目標はすべての画像間で幾何学的に一貫した一致を検出することである。このタスクを実行するには、まずフィーチャマッチングの確率モデルを開発する。このモデルから、フィーチャの一致を検証するための場面プルな拘束条件が得られる。これは「アウトライアの距離に基づく拘束条件」と呼ばれる。さらに、アウトライアの距離に基づく拘束条件と同時に、またはその代わりとして幾何学的拘束条件を適用してアウトライアを除去し、画像の一致を検出することもできる。
2.2.1 フィーチャマッチングのための確率モデル
トレーニングデータから正しい一致と誤った一致のエラーの分布p(eimage)を計算し、これを使用して特定のフィーチャの一致
Figure 2005317020
が正しいか誤りかを確率的に判断できることが理想的である。
ただし、画像ベースのエラー、
image=|I’(x’)−(αI(x)+β)| (14)
は、フィーチャの一致が正しいか誤りかを判断するための評価基準(metric)として適切ではない。実際に、|eimage|の値は正しい一致の場合と誤った一致の場合とで区別がない場合が多いので、一致が正しいか誤りかを判断するためのしきい値をとして|eimage|を指定できないことがわかっている。
コントラスト(contrast)の変化によるパッチの最近傍の一致に関連するエラーも問題である。正しい一致のエラーと誤った一致のエラーとの間には常に明らかな差があり、エラーのスケールは著しく変動することがわかっている。特に、コントラストの高いパッチではエラーが大きく、コントラストの低いパッチではエラーが小さい。したがって、コントラストの低いパッチが含まれる場合は、正しい一致と誤った一致の区別が難しくなる。
考えられるソリューションの1つは、コントラストに関してパッチを標準化することである。これは、フィーチャ空間におけるエラーの計算(以下)と同等である。
Figure 2005317020
featureの分布は正しい一致と誤った一致でより異なっているが、明らかなしきい値はない。したがって、一致のエラーのサイズは単に比較する問題ではないと思われる。高周波数コンテンツ(high frequency content)も重要であると考えられている。たとえば、勾配の大きなフィーチャは位置決め不良によるエラーが大きい。
ただし、個々のフィーチャベースでは、正しい一致と誤った一致に対応するフィーチャ距離の二峰性分布が存在することがわかっている。実際に、誤った一致のクエリ(query)からの距離はほとんど一定であると思われる。この現象は、シェルプロパティ(shell property)として知られる高次元空間のプロパティに関連付けられると考えられる。
高次元では、超球の体積(volume of a hypersphere)のほとんどは外側のシェルに集中している。つまり、ガウス分布のような一般的な分布では、確率質量(probability mass)のほとんどは外側のシェルに位置する。d次元超立方体内に一様に分布するポイントの集合について考察する。中心から距離rの範囲内にある点の数は、空間の境界に達するまでrで増大し、境界に達すると急速に減少する。dが増大すると、ほとんどすべてのポイントが特定のクエリポイントから同じ距離にある、つまりクエリから一定の距離にある薄いシェル内に存在することになる。ただし、この距離の値は空間内のクエリポイントの位置によって変わることに留意されたい。たとえば、端に近いポイントは中心のポイントより距離が大きい。
ローが提案するように[11]、第1の最近傍(1−NN)の距離に基づくしきい値は信頼できないが、第1の最近傍の距離と第2の最近傍の距離の比e1−NN/e2−NNは、一致が正しいかどうかを判断するための適切な評価基準である。マルチ画像マッチングの場合は、複数の正しい一致が存在する可能性があるので、代わりに比e/eoutlierが検査される。ただし、eは考察する一致の距離、eoutlierはアウトライアの距離である。フィーチャあたり最大k個の一致iε{1..k}が存在すること、およびアウトライアの距離が最近傍k+1からk+nの平均の距離として計算されることが仮定される。ベイズ(Bayes)の決定規則(decision rule)を使用して一致を次のように分類できる。
correct(e/eoutlier)>Pincorreet(e/eoutlier) (16)
これで、次の場合にフィーチャの正しい一致が区分されることになる。
e<0.65xeoutlier (17)
これは「アウトライアの距離に基づく拘束条件」と呼ばれる。最適なeoutlierの計算方法に関する問題が残る。
σ’xefeature=eimageなので、アウトライアの距離を基準とする相対的な距離はフィーチャ空間内では画像ベースの距離と同じである。したがって、フィーチャ空間画像の距離を比較し、アウトライアの距離に基づく拘束条件を適用するだけでよく、ペアごとにα、βを計算する必要がないという利点がある。
2.2.2 アウトライア除去を使用したフィーチャマッチング
フィーチャマッチング手順は、事前に計算された記述子ベクトルのそれぞれへの最近傍の高速近似で開始される。こうした最近傍ベクトルは、画像間で一致するポイントの候補を表している。次に、本フィーチャマッチング技術の試験済みの実施形態では、2段階のアプローチを使用して誤った一致を除去する。具体的には、前述のアウトライアの距離に基づく拘束条件を使用して誤った一致ポイントを除去する非幾何学的なアウトライア除去技術を使用する。最終的に、標準の幾何学的アウトライア除去技術を使用して、まだ誤った一致ポイントが残っている場合はさらにこれを除去する。ただし、前述のように、要求される精度や本フィーチャマッチング技術を採用するシステムの処理上の制限によっては、こうしたアウトライア除去技術のいずれかを省略してもよい。
2.2.2.1 ウェーブレットインデックスを使用した高速近似最近傍(Fast Approximate Nearest Neighbors)
すべての画像からフィーチャを抽出し、それぞれをフィーチャ空間内のk個の近似最近傍にマッチングする。高速近似最近傍の計算は、ハッシュテーブルを使用してフィーチャにインデックス付けすることで実行される。ハッシュテーブルは3次元であり、各次元は最初の3つの非ゼロウェーブレット係数c、c、cに対応する。こうした値は、パッチの
Figure 2005317020
の推定値である。試験済みの実施形態ではk=4であり、ハッシュテーブルは次元あたりb=10個のビンを備えている(各次元の平均からの標準偏差±nσ=3を対象とする)。ビンは半分が重複しているので、ビンの幅
Figure 2005317020
Figure 2005317020
の範囲内のデータは一致することが保証される。真の最近傍は3つの次元のいずれかの外側
Figure 2005317020
に存在する可能性がある(ただし、確率は低い)ので、これらは近似最近傍である。個々の記述子ベクトルをビン内のすべてのフィーチャとマッチングし、k個の近似最近傍を選択する。ここで、次に説明するように、アウトライアの距離に基づく拘束条件を使用して正しい一致が検証され、アウトライアが除去される。フィーチャ間の距離を使用して最近傍を決定することに留意されたい。試験済みの実施形態において、こうした距離は64次元のフィーチャベクトルの二乗差の和で求められる。
2.2.2.2 アウトライアの距離に基づく拘束条件を使用したアウトライア除去
誤った一致はほとんどすべてについてクエリポイントからの距離(アウトライアの距離)がほぼ同等であるが、正しい一致は画像ングと検出のノイズによってのみ異なるので、前述のシェルプロパティをアウトライア除去戦略の基準として利用できる。アウトライアの距離を推定する1つの方法として、各画像の2−NN距離の平均値または最小値に一致させることが考えられる。計算したアウトライアの距離から、アウトライアの距離に基づく拘束条件を使用して誤った一致の数を削減できる。より詳細には、考察対象ベクトルの最近傍の1つとして検出されたベクトルの考察対象ベクトルからの距離がアウトライアの距離の65%以内にある場合は、このベクトルは一致ポイントに関連付けられていると見なされる。ベクトルの距離がアウトライアの距離の約65%を超える場合、このベクトルに対応するポイントは一致ポイントとは見なされない。
2.2.2.3 幾何学的拘束条件を使用したアウトライア除去
アウトライアの距離に基づく拘束条件を使用して一致の候補が調整された場合は、一致に関する幾何学的拘束条件を使用して一致をさらに調整することができる。基本的に、このためには、残っている一致ポイントが場面の画像に実際に対応するかどうかを標準的な方法で判断する操作が必要である。画像が1つのポイントから取得され、場面が静的な場合は、パノラマ式の運動モデル(panoramic motion model)(ホモグラフィー(homography))が適している。画像が移動カメラから取得され、場面が静的な場合は、完全な3次元運動モデル(full 3D motion model)(基本行列(fundamental matrix))が適している。複数のオブジェクトまたは移動するオブジェクトを扱うより複雑な運動モデルを開発してもよい。自動パノラマステッチでは、[6]に示すようにパノラマ式の運動モデルと確率モデルによるマッチングを選択するのが適切である。1つの画像内のポイントが場面の同じ要素を表す別の画像内のポイントと実際に一致しないと判断した場合は、このポイントが一致ポイントの集合から除去される。
2.2.3 フィーチャマッチングプロセスの概要
3次元ハッシュテーブルと少なくとも一部はアウトライアの距離に基づく拘束条件に基づくアウトライア除去とを使用した本システムおよびプロセスの実施形態に従って、場面の一連の画像間で対応するポイントを特定するフィーチャマッチング技術に関する以上の説明は、図11のプロセス流れ図に要約される。このプロセスは、変換された記述子ベクトルのそれぞれを、フィーチャ空間におけるその所定の数の最近傍とマッチングする操作で開始される。より詳細には、変換された個々の記述子ベクトルの最初の3つの非ゼロウェーブレット係数から3次元ハッシュテーブルを生成する(プロセス操作1100)。前述のように、本フィーチャマッチング手順の試験済みの実施形態において、ハッシュテーブルは次元あたり10個のビンを備えており、各ビンの範囲は半分が重複する。ここで、ハッシュテーブルの各ビン内にある3係数ベクトル間の距離を計算する(プロセス操作1102)。次に、記述子ベクトルのそれぞれについて、こうした距離を使用して、考察対象のベクトルと同じ画像内にはないが同じビンに含まれるその所定の数の最近傍を特定する(プロセス操作1104a)。ここで、フィーチャマッチング技術の別の実施形態では、次の操作1104bをプロセス操作1104aで置き換えていることに注目する。すなわち、記述子ベクトルのそれぞれについて、その他の各画像から同じビン内の最近傍を所定の最大数まで特定する。操作1104aと1104bが交換可能であることは、図11の破線のボックスで示されている。
各記述子ベクトルの最近傍が特定された場合は、まだ選択されていないベクトルを選択する(プロセス操作1106)。これで、関連の関心ポイントが選択したベクトルに関連する関心ポイントに実際に対応しない選択したベクトルの最近傍記述子ベクトルは考察の対象から外される。より詳細には、本フィーチャマッチング技術の試験済みの実施形態において、この操作は前述のように2段階で実行される。第1段階(プロセス操作1108)は、アウトライアの距離に基づく拘束条件を使用したアウトライア除去と呼ばれており、対応しない可能性の高いポイントを除去する迅速な手順である。第2段階(プロセス操作1110)は、アウトライアの距離に基づく拘束条件を使用したアウトライア除去と呼ばれており、対応しない可能性の高いポイントを除去する迅速な手順である。ただし、第1段階で多くの誤った一致が除去されると、第2段階の処理の必要性は最小になる。本質的に、第2段階の幾何学ベースのアウトライア除去手順では、2つの画像間ですべてのポイントの最適なマッチングを行う変換を検出する操作と、変換したときに特定の許容範囲内に対応しないポイントを除去する操作が実行される。図8Aと8Bは、アウトライア除去プロセスの効果(value)の例を示している。2つの図は、共通する部分のある2つの山の場面を示しており、アウトライア除去プロセスを実行する前に特定された画像間の対応する位置を白いドットで示している(587個の一致)。図9Aおよび9Bは、図8Aおよび8Bと同じ画像を示しており、それぞれ、アウトライアの距離に基づく拘束条件を使用したアウトライア除去技法を適用した後である。ここで242個のアウトライアが除去され、345個の一致が残っている。図10Aおよび10Bは、図9Aおよび9Bと同じ画像を示しており、それぞれ幾何学ベースのアウトライア除去技法を適用した後である。さらに34のアウトライアが特定されて除去され、最終的に画像間で合計311個の対応するポイントが残っている。
本フィーチャマッチング技術の特定の適用において、第1段階のアウトライア除去手順で十分に正しい結果が得られる場合は、必要に応じて第2段階を省略してもよい。逆に、処理コストが問題でない場合は、第2段階の幾何学ベースのアウトライア除去手順を単独で使用し、第1段階を省略してもよい。
第1のアウトライア除去手順に関して、試験済みの実施形態ではこのためにまず選択した記述子ベクトルとその最近傍との距離を計算する操作を実行し、次に選択した記述子ベクトルとそのいずれかの最近傍との距離がアウトライアの距離の約65%以上であるかどうかを判断する操作を実行する。最近傍ベクトルから選択されたベクトルまでの距離がアウトライアの距離の約65%以上であると判断した場合は、必ず選択されたベクトルに関連付けられた関心ポイントを表す考察の対象からこれを除外する。
アウトライア除去手順が完了すると、選択したベクトルの最近傍として特定された記述子ベクトルに関連付けられており、考察の対象から外されていない関心ポイントのそれぞれは、選択されたベクトルに関連付けられた関心ポイントに対応するポイントとして指定される(プロセス操作1112)。次に、その他の記述子ベクトルのそれぞれについて前述のプロセスを実行し、まずまだ選択されていないベクトルが残っているかどうかを判断し、その他の画像内の対応するポイントを特定する(プロセス操作1114)。残っている場合は、すべてのベクトルが処理されるまで、必要に応じてプロセス操作1106から1114を繰り返す。すべてのベクトルが選択され、処理されると、手順は終了する。
3.0 参考文献
Figure 2005317020
Figure 2005317020
Figure 2005317020
本発明を実装するための例示的なシステムを構成する汎用コンピューティングデバイスを示す図である。 本発明による、同じ場面の複数の画像間で対応するポイントを特定するプロセス全体を示す流れ図である。 調和平均の関心ポイント検出関数のアイソコンター(isocontour)とハリス関数およびシャイ−トマシ(Shi−Tomasi)関数のアイソコンターとを比較するグラフである。 サブピクセルの局所化を行った場合と行わない場合の関心ポイントの反復性を示すグラフである。 本発明に従って、記述子ベクトルを生成するプロセスを示す流れ図である。 本発明に従って、記述子ベクトルを生成するプロセスを示す流れ図である。 本発明に従って、記述子ベクトルを生成するプロセスを示す流れ図である。 山の場面の画像を示す図である。ピークの頂上にある関心ポイントに関連する記述子領域を白いボックスで示し、関心ポイントの位置をボックスの中心の白いドットで示しており、関心ポイントから伸びる線でこのポイントに割り当てられた向きを示している。 図6の記述子領域から構成される8x8の記述子を示す図である。 共通する部分のある2つの山の場面を示す図である。アウトライア除去プロセスを実行する前に特定された画像間の対応する位置は、白いドットで示されている。 共通する部分のある2つの山の場面を示す図である。アウトライア除去プロセスを実行する前に特定された画像間の対応する位置は、白いドットで示されている。 図8Aと同じ画像を示す図である。アウトライアの距離に基づく拘束条件を採用したアウトライア除去技法を適用した後である。 図8Bと同じ画像を示す図である。アウトライアの距離に基づく拘束条件を採用したアウトライア除去技法を適用した後である。 図9Aと同じ画像を示す図である。幾何学ベースのアウトライア除去技法を適用した後である。 図9Bと同じ画像を示す図である。幾何学ベースのアウトライア除去技法を適用した後である。 図5A〜図5Cによって生成された記述子ベクトルを使用して、場面の画像間の対応するポイントを検出するプロセスを示す流れ図である。
符号の説明
141 ハードディスクドライブ
151 磁気ディスクドライブ
155 光ディスクドライブ
193 一連の画像

Claims (23)

  1. 場面の複数の画像間で対応するポイントを特定するための、コンピュータに実装するプロセスであって、コンピュータを使用して、
    各画像内の関心ポイントをさまざまな解像度で特定するプロセス操作であって、前記ポイントを表す画像内の位置は、前記ポイントを中心とする第1の所定のサイズの最近傍内のピクセルに起因する少なくとも1つのプロパティで定義され、前記ポイントを中心とする第2の所定のサイズの最近傍内のピクセルに起因する少なくとも1つのプロパティに基づく一意の向きを割り当てられるプロセス操作と、
    前記関心ポイントのそれぞれについて、画像の位置、向き、スケールの変化、および前記ポイントの位置と向きを定義するためのピクセルの輝度の変化に対して実質的に不変の形で各ポイントを特徴付ける記述子を生成するプロセス操作と、
    前記画像間で実質的に一致する記述子を検出するプロセス操作と、
    さまざまな画像内に表示される一致する記述子の各集合に関連付けられた前記関心ポイントを対応するポイントとして指定するプロセス操作とを備えることを特徴とするプロセス。
  2. 各画像内の関心ポイントを特定する前記プロセス操作は、画像ごとに、
    画像解像度ピラミッドを構成する操作と、前記ピラミッドのレベルごとに、
    コーナーフィーチャを代表する考察対象の画像内の位置を特定する操作と、
    各コーナーフィーチャの前記向きを特定する操作と、
    各コーナーフィーチャの前記特定された位置を個別の関心ポイントとして指定する操作と、
    各コーナーフィーチャの前記特定された向きを前記フィーチャに関連付けられた前記関心ポイントに割り当てる操作とを備えることを特徴とする請求項1に記載のプロセス。
  3. コーナーフィーチャを代表する考察対象の画像内の位置を特定する前記プロセス操作は、
    各コーナーフィーチャの位置を特定する操作であって、前記コーナーフィーチャは前記位置を中心とする所定の最小近傍半径のピクセル近傍の局所的な最大値であるコーナー強度を示しており、所定の最小強度しきい値を超える操作と、
    前記近傍半径を所定の整数値だけ増分し、前記前に特定された位置でコーナー強度が現在考察対象であるピクセル近傍でも依然として局所的な最大値であり、依然として前記所定の最小強度しきい値を超えている位置を特定する操作と、
    前記特定された位置の数が所定の最大値を超えない範囲で増分と第2の特定の操作を繰り返す操作と、
    残っている特定された位置のそれぞれを個別のコーナーフィーチャの代表として指定する操作とを備えることを特徴とする請求項2に記載のプロセス。
  4. 各コーナーフィーチャの前記特定された位置を個別の関心ポイントとして指定する前記プロセス操作は、考察の対象となる前記特定された位置を中心とする所定のサイズの局所的な近傍に適合する2次元の正方形(2D quadratic)の面で最大強度を示す位置を個々の関心ポイントの位置として指定する操作を備えることを特徴とする請求項2に記載のプロセス。
  5. 各コーナーフィーチャの前記向きを特定するプロセス操作は、ぼかし勾配のアプローチを使用して各コーナーフィーチャの向きを特定する操作を備えることを特徴とする請求項2に記載のプロセス。
  6. 各コーナーフィーチャはハリスのコーナーであることを特徴とする請求項2に記載のプロセス。
  7. 前記関心ポイントのそれぞれについて記述子を生成する前記プロセス操作は、
    考察対象である前記関心ポイントの位置を中心とし、前記関心ポイントと同じ向きの所定のサイズpxpの記述子領域を確立する操作と、
    前記記述子領域から前記領域内のピクセル輝度値の双線形補間を使用してピクセルあたり約1度のサンプリングになるようにサンプリングした前記記述子領域より小さい所定のサイズdxdの記述子ベクトルを構成する操作と、
    前記記述子ベクトルを標準化する操作と、
    前記記述子ベクトルに対してハールのウェーブレット変換を実行して変換ベクトルを生成する操作とを備えることを特徴とする請求項1に記載のプロセス。
  8. 前記画像間で実質的に一致する記述子を検出するプロセス操作は、前記変換された記述子ベクトルを、フィーチャ空間内の所定の数の最近傍とマッチングする操作を備えることを特徴とする請求項7に記載のプロセス。
  9. 前記変換された記述子ベクトルをマッチングする前記プロセス操作は、
    各変換された記述子ベクトルの所定の数(n個)のウェーブレット係数から3次元ハッシュテーブルを生成してn係数ベクトルのハッシュテーブルを構成する操作と、
    前記ハッシュテーブルのビンのそれぞれについて、考察対象の前記ビン内で検出される個々のn係数ベクトル間の距離を計算する操作と、
    n係数ベクトルのそれぞれについて、前記同じビン内にあるが前記考察対象のベクトルと同じ前記画像には関連付けられていない前記計算された距離に基づいてその所定の数の最近傍を特定し、一致ベクトル候補の集合を構成する操作と、
    前記一致ベクトル候補の集合のそれぞれに属する前記ベクトルに関連付けられた前記関心ポイントを、前記関連の画像内で前記場面の前記同じ要素を表す対応するポイントとして指定する操作とを備えることを特徴とする請求項8に記載のプロセス。
  10. 前記ハッシュテーブルは次元あたり10個のビンを備えており、各ビンは半分の領域が重複することと、前記所定の数(n個)のウェーブレット係数は3係数ベクトルのハッシュテーブルを構成する最初の3つの非ゼロ係数を備えることを特徴とする請求項9に記載のプロセス。
  11. 一致ベクトル候補の集合のそれぞれに属する前記ベクトル関連付けられた前記関心ポイントを対応するポイントとして指定する前記プロセス操作は、
    一致ベクトル候補ベクトルのそれぞれについて、関連の関心ポイントが同じベクトル集合に属する別の3係数ベクトルに関連付けられた別の画像内の関心ポイントに実際には対応しない一致ベクトル候補として前記3係数ベクトルを考察対象から除外する操作と、
    一致ベクトル候補の各集合内に残っている前記3係数ベクトルのそれぞれについて、前記ベクトルに関連付けられた前記関心ポイントを前記関連の画像内の対応するポイントとして指定する操作とを備えることを特徴とする請求項9に記載のプロセス。
  12. 一致ベクトルの集合のそれぞれについて、関連の関心ポイントが前記同じベクトル集合に属する別の前記3係数ベクトルに関連付けられた別の画像内の関心ポイントに実際に対応しない一致ベクトル候補として前記3係数ベクトルを考察対象から除去する前記プロセス操作は、
    考察対象である一致ベクトルの集合のアウトライアの距離を計算する操作と、
    任意の前記一致ベクトルについて計算した前記距離が前記アウトライアの距離の約65%を超えるかどうかを判断する操作と、
    一致ベクトルの距離が前記アウトライアの距離の約65%を超えると判断した場合は、必ず前記ベクトルに対応するポイントとして関連付けられた前記関心ポイントを除外する操作とを備えることを特徴とする請求項11に記載のプロセス。
  13. 一致ベクトルの集合のそれぞれについて、関連の関心ポイントが前記同じベクトル集合に属する別の前記3係数ベクトルに関連付けられた別の画像内の関心ポイントに実際に対応しない一致ベクトル候補として3係数ベクトルを考察対象から除去する前記プロセス操作は、
    幾何学的アウトライア除去手順を実行する操作と、
    アウトライアであると判断された対応するポイントとして任意のベクトルに関連付けられた関心ポイントを除外する操作とを備えることを特徴とする請求項11に記載のプロセス。
  14. 前記変換された記述子ベクトルをマッチングする前記プロセス操作は、
    変換された記述子ベクトルのそれぞれについて最初の3つの非ゼロウェーブレット係数から3次元ハッシュテーブルを生成して3係数ベクトルのハッシュテーブルを構成する操作と、
    前記ハッシュテーブルの各ビンについて、考察対象の前記ビン内で検出される3係数ベクトルのそれぞれの間の前記距離を計算する操作と、
    3係数ベクトルのそれぞれについて、考察対象の前記ベクトルに関連付けられた前記画像を除く各画像に個々に関連付けられた前記同じビン内で検出される前記最近傍を、前記計算された距離に基づいて画像ごとの所定の数まで特定し、一致ベクトル候補の集合を構成する操作と、
    一致ベクトル候補の集合のそれぞれに属する前記ベクトルに関連付けられた前記関心ポイントを、前記関連の画像内で前記場面の前記同じ要素を表す対応するポイントとして指定する操作とを備えることを特徴とする請求項8に記載のプロセス。
  15. 前記ハッシュテーブルは次元あたり10個のビンを備えており、さらに各ビンは半分の重複領域を備えることを特徴とする請求項14に記載のプロセス。
  16. 前記第1と第2の所定のサイズの近傍が同じサイズであることを特徴とする請求項1に記載のプロセス操作。
  17. 場面の複数の画像間で対応するポイントを特定するシステムであって、
    汎用コンピューティングデバイスと、
    前記コンピューティングデバイスで実行可能なプログラムモジュールを備えるコンピュータプログラムであって、前記コンピューティングデバイスは前記コンピュータプログラムの前記プログラムモジュールによって指示されて、
    各画像内の対応するポイントの候補を表す関心ポイントを特定する操作であって、各関心ポイントをピクセルの所定のプロパティによって構成されるパターンに基づいて割り当てられる位置と向きによって定義する操作し、
    前記関心ポイントのそれぞれについて、画像の位置、向き、スケールの変化、および前記ポイントの位置と向きを定義するためのピクセルのバイアスとゲインの変化に対して実質的に不変である形で各ポイントを特徴付ける記述子を生成し、
    前記画像間で実質的に一致する記述子を検出し、
    さまざまな画像に表示される一致する記述子の集合に関連付けられた前記関心ポイントを対応するポイントとして指定するコンピュータプログラムと
    を備えることを特徴とするシステム。
  18. 関心ポイントを特定する前記プログラムモジュールは、画像ごとに、
    (a) 画像解像度ピラミッドを構成するサブモジュールと、
    (b) まだ選択されていないピラミッドレベルを選択するサブモジュールと、
    (c) 前記選択されたレベルで発生する各ハリスのコーナーの位置を特定するサブモジュールと、
    (d) まだ選択されていないハリスのコーナーを選択するサブモジュールと、
    (e) 前記選択されたハリスのコーナーのコーナー強度が前記コーナーの位置を表すポイントを中心とする所定の最小近傍半径のピクセル近傍内で局所的な最大値であるかどうか、および所定の最小強度しきい値を超えるかどうかを判断するサブモジュールと、
    (f) 前記コーナー強度が局所的な最大値であり、所定の最小強度しきい値を超える場合は、必ずこのコーナーをコーナーの候補として指定するサブモジュールと、
    (g) まだ選択されていないハリスのコーナーが残っているかどうかを判断し、コーナーが残っている場合は必ずすべてのコーナーに関する処理が完了するまでサブモジュール(d)から(g)を繰り返すサブモジュールと、
    (h) 最後に使用した近傍半径を所定の整数値だけ増分するサブモジュールと、
    (i) まだ選択されていないコーナー候補を選択するサブモジュールと、
    (j) 前記選択したコーナー候補のコーナー強度が所定の最小強度しきい値を超えるかどうか、および前記選択したコーナー候補の位置を表すポイントを中心とし、現在の近傍半径でサイズを定義するピクセル近傍内で局所的な最大値であるかどうかを判断するサブモジュールと、
    (k) 前記コーナー強度が局所的な最大値であり、前記所定の最小強度しきい値を超える場合は必ずそのコーナーの候補としての指定を維持し、それ以外の場合は前記指定を解除するサブモジュールと、
    (l) まだ選択されていないコーナー候補があるかどうかを判断し、コーナーが残っている場合はすべてのコーナー候補の処理が完了するまでサブモジュール(i)から(l)を繰り返すサブモジュールと、
    (m) 引き続きコーナー候補として指定されるハリスのコーナーの数が所定の最大許容値を超えるかどうかを判断するサブモジュールと、
    (n) 前記コーナー候補の数が前記所定の最大許容値を超える場合は、前記コーナー候補の数が前記所定の最大許容値を超えなくなるまでサブモジュール(h)から(n)を繰り返すサブモジュールと、
    (o) 残っているコーナー候補の位置を定義するポイントを、前記考察対象の画像の関心ポイントとして指定するサブモジュールと、
    (p) 各関心ポイントの位置を前記選択されたポイントを中心とする所定のサイズの局所的な近傍に適合する2次元の正方形の面で最高の輝度になるポイントとして指定することで、各関心ポイントの位置を調整するサブモジュールと、
    (q) 各関心ポイントにぼかし勾配のアプローチを使用して向きを割り当てるサブモジュールと、
    (r) 前記ピラミッドレベルのすべてについて処理が完了するまで、サブモジュール(b)から(q)を繰り返すサブモジュールとを備えることを特徴とする請求項17に記載のシステム。
  19. 前記関心ポイントのそれぞれについて記述子を生成する前記プログラムモジュールは、関心ポイントごとに、
    (a) 前記関心ポイントの位置を中心とし、前記関心ポイントと同じ向きの所定のサイズpxpの記述子領域を確立するサブモジュールと、
    (b) 前記記述子領域から前記領域内の輝度値に関する双線形補間のサンプリングを使用して、より小さい所定のサイズdxdの記述子ベクトルを構成するサブモジュールと、
    (c) 前記記述子ベクトルをバイアスとゲインに関して標準化するサブモジュールと、
    (d) 前記標準化された記述子ベクトルに対してハールのウェーブレット変換を適用して前記考察対象の関心ポイントの前記記述子を構成するサブモジュールとを備えることを特徴とする請求項17に記載のシステム。
  20. 前記画像間で実質的に一致する記述子を検出する前記プログラムモジュールは、
    (e) 各関心ポイントの最初の3つの非ゼロウェーブレット係数から3次元ハッシュテーブルを生成するサブモジュールと、
    (f) 前記ハッシュテーブルのビンごとに、各記述子間の距離を計算するサブモジュールと、
    (g) まだ選択されていない記述子を選択するサブモジュールと、
    (h) 前記同じビン内にあるが前記選択された記述子と前記同じ画像には関連付けられていない所定の数の前記選択された記述子の最近傍を特定するサブモジュールと、
    (i) 前記選択された記述子とその最近傍のアウトライアの距離を計算するサブモジュールと、
    (j) 前記選択された記述子とその最近傍のそれぞれとの前記計算された距離は前記アウトライアの距離の約65%未満かどうかを個々に判断するサブモジュールと、
    (k) 前記選択された記述子とその最近傍の1つとの前記計算された距離は前記アウトライアの距離の約65%未満である場合は、必ず前記最近傍の記述子を前記選択された記述子に関する一致記述子として指定するサブモジュールと、
    (l) 幾何学ベースのアウトライア除去手順を実行し、前記選択された記述子に一致するとして指定された記述子に対応する任意の関心ポイントは、前記選択された記述子の前記関心ポイントの位置に実質的に対応しないかどうかを判断するサブモジュールと、
    (m) 前記選択された記述子に一致するとして指定された任意の記述子が前記選択された記述子の関心ポイントの位置に実質的に対応しない場合に一致記述子から除外するサブモジュールと、
    (n) 残っているすべての記述子について処理が完了するまで、サブモジュール(g)から(m)を繰り返すサブモジュールとを備えることを特徴とする請求項19に記載のシステム。
  21. 前記画像間で実質的に一致する記述子を検出する前記プログラムモジュールは、
    (e) 各関心ポイント記述子の最初の3つの非ゼロウェーブレット係数から3次元ハッシュテーブルを生成するサブモジュールと、
    (f) 前記ハッシュテーブルのビンごとに、各記述子間の距離を計算するサブモジュールと、
    (g) まだ選択されていない記述子を選択するサブモジュールと、
    (h) 前記同じビン内にあるが前記選択された記述子と同じ画像には関連付けられていない所定の数の前記選択された記述子の最近傍を特定するサブモジュールと、
    (i) 前記選択された記述子とその最近傍のアウトライアの距離を計算するサブモジュールと、
    (j) 前記選択された記述子とその最近傍のそれぞれとの前記計算された距離は前記アウトライアの距離の約65%未満かどうかを個々に判断するサブモジュールと、
    (k) 前記選択された記述子とその最近傍の1つとの前記計算された距離は前記アウトライアの距離の約65%未満である場合は、必ず最近傍記述子を前記選択された記述子に関する一致記述子として指定するサブモジュールと、
    (l) 残っているすべての記述子について処理が完了するまで、サブモジュール(g)から(k)を繰り返すサブモジュールとを備えることを特徴とする請求項19に記載のシステム。
  22. 前記画像間で実質的に一致する記述子を検出する前記プログラムモジュールは、
    (e) 各関心ポイントの最初の3つの非ゼロウェーブレット係数から3次元ハッシュテーブルを生成するサブモジュールと、
    (f) 前記ハッシュテーブルのビンごとに、各記述子間の距離を計算するサブモジュールと、
    (g) まだ選択されていない記述子を選択するサブモジュールと、
    (h) 前記同じビン内にあるが前記選択された記述子と同じ画像に関連付けられていない所定の数の前記選択された記述子の最近傍を特定するサブモジュールと、
    (i) 幾何学ベースのアウトライア除去手順を実行し、前記最近傍記述子に対応するどの関心ポイントが前記選択された記述子の関心ポイントの位置に実質的に対応するかを判断するサブモジュールと、
    (j) 前記最近傍記述子に対応する前記関心ポイントの位置に実質的に対応すると判断した場合にのみ、最近傍記述子を前記選択された記述子に関する一致記述子として指定するサブモジュールと、
    (k) 残っているすべての記述子についての処理が完了するまで、サブモジュール(g)から(j)を繰り返すサブモジュールとを備えることを特徴とする請求項19に記載のシステム。
  23. 場面の複数の画像間で対応するポイントを特定するコンピュータ可読命令を格納するコンピュータ可読媒体であって、前記コンピュータ可読命令は、
    各画像内の対応するポイントの候補を表す関心ポイントを特定する操作であって、各関心ポイントは前記位置を中心とする近傍内のピクセルに関する所定のプロパティで構成される一意のパターンで特定できる画像内の位置に対応する操作と、
    各関心ポイントに位置を割り当てる操作であって、前記位置は前記位置を中心とする近傍内のピクセルに関する所定のプロパティで構成される一意のパターンから抽出される操作と、
    前記関心ポイントのそれぞれについて、画像の位置、向き、スケールの変化、および前記ポイントの前記位置と向きを定義するためのピクセルのバイアスとゲインの変化に対して、実質的に不変の形で記述子を生成する操作と、
    前記画像間で実質的に一致する記述子を検出する操作と、
    さまざまな画像に表示される前記一致する記述子の集合に関連付けられた前記関心ポイントを、一致するポイントとして指定する操作とを備えることを特徴とするコンピュータ可読媒体。
JP2005129813A 2004-04-27 2005-04-27 マルチスケールの有向パッチ(multi−scaleorientedpatches)を使用したマルチ画像特徴(feature)のマッチング Expired - Fee Related JP4838532B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/833,760 US7382897B2 (en) 2004-04-27 2004-04-27 Multi-image feature matching using multi-scale oriented patches
US10/833,760 2004-04-27

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011155049A Division JP5066279B2 (ja) 2004-04-27 2011-07-13 マルチスケールの有向パッチ(multi−scaleorientedpatches)を使用したマルチ画像特徴(feature)のマッチング

Publications (2)

Publication Number Publication Date
JP2005317020A true JP2005317020A (ja) 2005-11-10
JP4838532B2 JP4838532B2 (ja) 2011-12-14

Family

ID=34939532

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2005129813A Expired - Fee Related JP4838532B2 (ja) 2004-04-27 2005-04-27 マルチスケールの有向パッチ(multi−scaleorientedpatches)を使用したマルチ画像特徴(feature)のマッチング
JP2011155049A Expired - Fee Related JP5066279B2 (ja) 2004-04-27 2011-07-13 マルチスケールの有向パッチ(multi−scaleorientedpatches)を使用したマルチ画像特徴(feature)のマッチング

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2011155049A Expired - Fee Related JP5066279B2 (ja) 2004-04-27 2011-07-13 マルチスケールの有向パッチ(multi−scaleorientedpatches)を使用したマルチ画像特徴(feature)のマッチング

Country Status (7)

Country Link
US (1) US7382897B2 (ja)
EP (1) EP1594078B1 (ja)
JP (2) JP4838532B2 (ja)
KR (1) KR101117837B1 (ja)
CN (1) CN100426321C (ja)
AT (1) ATE413659T1 (ja)
DE (1) DE602005010781D1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010086540A (ja) * 2008-10-01 2010-04-15 Fuji Xerox Co Ltd 特徴記述子ベクトル生成方法、システムおよびプログラム
CN101840507A (zh) * 2010-04-09 2010-09-22 江苏东大金智建筑智能化系统工程有限公司 基于角点特征不变量和图论聚类的目标跟踪方法
JP2010273315A (ja) * 2009-05-19 2010-12-02 Shindorico Co Ltd スキャン機能を備えた画像形成装置及びこのスキャン方法
KR20110002043A (ko) * 2008-04-23 2011-01-06 미쓰비시덴키 가부시키가이샤 이미지 식별을 위한 스케일 안정적 특징-기반 식별자
JP2011511340A (ja) * 2008-01-09 2011-04-07 ミツビシ・エレクトリック・アールアンドディー・センター・ヨーロッパ・ビーヴィ 画像識別のための特徴ベースの識別特性(signature)
JP2012515399A (ja) * 2009-01-14 2012-07-05 エーナイン・ドット・コム インコーポレイテッド 画像パッチを表現するための方法及びシステム
JP2014529922A (ja) * 2011-08-02 2014-11-13 ビューズアイキュー インコーポレイテッドViewsIQ Inc. デジタル顕微鏡撮像の装置及び方法
JP2015035191A (ja) * 2013-08-09 2015-02-19 株式会社デンソーアイティーラボラトリ 特徴点抽出装置、特徴点抽出方法、及び特徴点抽出プログラム
JP2016100899A (ja) * 2014-11-20 2016-05-30 三星電子株式会社Samsung Electronics Co.,Ltd. 映像補正方法及び装置
JP2017535980A (ja) * 2014-09-05 2017-11-30 インテル・コーポレーション カメラキャリブレーション
JP2018077862A (ja) * 2013-09-16 2018-05-17 アイベリファイ インコーポレイテッド バイオメトリック認証のための特徴抽出およびマッチングおよびテンプレート更新

Families Citing this family (171)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8300042B2 (en) 2001-06-05 2012-10-30 Microsoft Corporation Interactive video display system using strobed light
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
WO2004055776A1 (en) 2002-12-13 2004-07-01 Reactrix Systems Interactive directed light/sound system
WO2005041579A2 (en) 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
EP1676442A2 (en) 2003-10-24 2006-07-05 Reactrix Systems, Inc. Method and system for managing an interactive video display system
US9128519B1 (en) 2005-04-15 2015-09-08 Intellectual Ventures Holding 67 Llc Method and system for state-based control of objects
US8081822B1 (en) * 2005-05-31 2011-12-20 Intellectual Ventures Holding 67 Llc System and method for sensing a feature of an object in an interactive video display
US7865492B2 (en) * 2005-09-28 2011-01-04 Nokia Corporation Semantic visual search engine
US9646005B2 (en) 2005-10-26 2017-05-09 Cortica, Ltd. System and method for creating a database of multimedia content elements assigned to users
US11403336B2 (en) 2005-10-26 2022-08-02 Cortica Ltd. System and method for removing contextually identical multimedia content elements
US10621988B2 (en) 2005-10-26 2020-04-14 Cortica Ltd System and method for speech to text translation using cores of a natural liquid architecture system
US10742340B2 (en) 2005-10-26 2020-08-11 Cortica Ltd. System and method for identifying the context of multimedia content elements displayed in a web-page and providing contextual filters respective thereto
US10193990B2 (en) 2005-10-26 2019-01-29 Cortica Ltd. System and method for creating user profiles based on multimedia content
US11032017B2 (en) 2005-10-26 2021-06-08 Cortica, Ltd. System and method for identifying the context of multimedia content elements
US10614626B2 (en) 2005-10-26 2020-04-07 Cortica Ltd. System and method for providing augmented reality challenges
US10848590B2 (en) 2005-10-26 2020-11-24 Cortica Ltd System and method for determining a contextual insight and providing recommendations based thereon
US10585934B2 (en) 2005-10-26 2020-03-10 Cortica Ltd. Method and system for populating a concept database with respect to user identifiers
US8818916B2 (en) 2005-10-26 2014-08-26 Cortica, Ltd. System and method for linking multimedia data elements to web pages
US11216498B2 (en) 2005-10-26 2022-01-04 Cortica, Ltd. System and method for generating signatures to three-dimensional multimedia data elements
US10380623B2 (en) 2005-10-26 2019-08-13 Cortica, Ltd. System and method for generating an advertisement effectiveness performance score
US10776585B2 (en) 2005-10-26 2020-09-15 Cortica, Ltd. System and method for recognizing characters in multimedia content
US11019161B2 (en) 2005-10-26 2021-05-25 Cortica, Ltd. System and method for profiling users interest based on multimedia content analysis
US10607355B2 (en) 2005-10-26 2020-03-31 Cortica, Ltd. Method and system for determining the dimensions of an object shown in a multimedia content item
US10380267B2 (en) 2005-10-26 2019-08-13 Cortica, Ltd. System and method for tagging multimedia content elements
US9372940B2 (en) 2005-10-26 2016-06-21 Cortica, Ltd. Apparatus and method for determining user attention using a deep-content-classification (DCC) system
US10691642B2 (en) 2005-10-26 2020-06-23 Cortica Ltd System and method for enriching a concept database with homogenous concepts
US10387914B2 (en) 2005-10-26 2019-08-20 Cortica, Ltd. Method for identification of multimedia content elements and adding advertising content respective thereof
US11604847B2 (en) 2005-10-26 2023-03-14 Cortica Ltd. System and method for overlaying content on a multimedia content element based on user interest
US11003706B2 (en) 2005-10-26 2021-05-11 Cortica Ltd System and methods for determining access permissions on personalized clusters of multimedia content elements
US10372746B2 (en) 2005-10-26 2019-08-06 Cortica, Ltd. System and method for searching applications using multimedia content elements
US9384196B2 (en) 2005-10-26 2016-07-05 Cortica, Ltd. Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof
US20160321253A1 (en) 2005-10-26 2016-11-03 Cortica, Ltd. System and method for providing recommendations based on user profiles
US8326775B2 (en) 2005-10-26 2012-12-04 Cortica Ltd. Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof
US10180942B2 (en) 2005-10-26 2019-01-15 Cortica Ltd. System and method for generation of concept structures based on sub-concepts
US8098277B1 (en) 2005-12-02 2012-01-17 Intellectual Ventures Holding 67 Llc Systems and methods for communication between a reactive video system and a mobile communication device
WO2007068748A1 (fr) * 2005-12-14 2007-06-21 France Telecom Procede de caracterisation d'une region d'interet dans une image, signal representatif d'une image, procede de comparaison d'images, dispositifs et programme d'ordinateur correspondants
US8467570B2 (en) * 2006-06-14 2013-06-18 Honeywell International Inc. Tracking system with fused motion and object detection
US10733326B2 (en) 2006-10-26 2020-08-04 Cortica Ltd. System and method for identification of inappropriate multimedia content
US20100092093A1 (en) * 2007-02-13 2010-04-15 Olympus Corporation Feature matching method
US7970226B2 (en) * 2007-04-23 2011-06-28 Microsoft Corporation Local image descriptors
US8126275B2 (en) * 2007-04-24 2012-02-28 Microsoft Corporation Interest point detection
JP2010530998A (ja) * 2007-05-08 2010-09-16 アイトゲネーシッシュ テヒニッシュ ホーホシューレ チューリッヒ 画像ベース情報検索の方法およびシステム
US8073259B1 (en) 2007-08-22 2011-12-06 Adobe Systems Incorporated Method and apparatus for image feature matching in automatic image stitching
EP2188737A4 (en) 2007-09-14 2011-05-18 Intellectual Ventures Holding 67 Llc PROCESSING BREAKFAST USER INTERACTIONS
KR101347598B1 (ko) * 2007-10-12 2014-01-07 삼성전자주식회사 영상 변환 방법 및 장치
US8159682B2 (en) 2007-11-12 2012-04-17 Intellectual Ventures Holding 67 Llc Lens system
AU2007240236A1 (en) * 2007-12-11 2009-06-25 Canon Kabushiki Kaisha Correlatability analysis for sparse alignment
CN101488224B (zh) * 2008-01-16 2011-01-19 中国科学院自动化研究所 基于相关性度量的特征点匹配方法
US8259163B2 (en) 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
US8233715B2 (en) * 2008-04-28 2012-07-31 Microsoft Corporation Probabilistic intensity similarity measure based on noise distributions
US8824801B2 (en) * 2008-05-16 2014-09-02 Microsoft Corporation Video processing
FR2931277B1 (fr) * 2008-05-19 2010-12-31 Ecole Polytech Procede et dispositif de reconnaissance invariante-affine de formes
US8553984B2 (en) * 2008-06-02 2013-10-08 Massachusetts Institute Of Technology Fast pattern classification based on a sparse transform
US8595218B2 (en) 2008-06-12 2013-11-26 Intellectual Ventures Holding 67 Llc Interactive display management systems and methods
WO2010021633A1 (en) * 2008-08-22 2010-02-25 Hewlett-Packard Development Company, L.P. Image analysis method and system
JP4687772B2 (ja) * 2008-11-06 2011-05-25 ソニー株式会社 画像処理装置、画像処理方法、プログラム
EP2359272B1 (en) 2008-11-12 2023-07-26 Nokia Corporation Method and apparatus for representing and identifying feature descriptors utilizing a compressed histogram of gradients
US8374442B2 (en) * 2008-11-19 2013-02-12 Nec Laboratories America, Inc. Linear spatial pyramid matching using sparse coding
WO2010101186A1 (ja) * 2009-03-04 2010-09-10 公立大学法人大阪府立大学 画像検索方法、画像検索プログラム及び画像登録方法
US8818024B2 (en) 2009-03-12 2014-08-26 Nokia Corporation Method, apparatus, and computer program product for object tracking
US20100246969A1 (en) * 2009-03-25 2010-09-30 Microsoft Corporation Computationally efficient local image descriptors
US8611695B1 (en) * 2009-04-27 2013-12-17 Google Inc. Large scale patch search
US8391634B1 (en) 2009-04-28 2013-03-05 Google Inc. Illumination estimation for images
US7953245B2 (en) * 2009-08-18 2011-05-31 General Electric Company System, method and program product for camera-based object analysis
KR101594113B1 (ko) * 2009-10-09 2016-02-16 삼성전자주식회사 스케일을 고려한 이미지 패치 추적 장치 및 방법
US8433140B2 (en) * 2009-11-02 2013-04-30 Microsoft Corporation Image metadata propagation
US9710491B2 (en) 2009-11-02 2017-07-18 Microsoft Technology Licensing, Llc Content-based image search
US20110106798A1 (en) * 2009-11-02 2011-05-05 Microsoft Corporation Search Result Enhancement Through Image Duplicate Detection
KR101399804B1 (ko) * 2009-11-19 2014-05-27 보드 오브 트러스티스 오브 더 리랜드 스탠포드 주니어 유니버시티 회전 불변형 특징 디스크립터를 이용한 추적 및 인식을 위한 방법 및 장치
CN102763123B (zh) 2009-12-02 2015-03-25 高通股份有限公司 通过使查询图像和模型图像中的检测到的关键点成群集而进行特征匹配
TWI402479B (zh) * 2009-12-15 2013-07-21 Ind Tech Res Inst 深度感測方法及應用其之系統
WO2012004626A1 (en) * 2010-07-06 2012-01-12 Ltu Technologies Method and apparatus for obtaining a symmetry invariant descriptor from a visual patch of an image
US8792728B2 (en) * 2010-09-27 2014-07-29 Hewlett-Packard Development Company, L.P. Near-duplicate image detection
US8798393B2 (en) 2010-12-01 2014-08-05 Google Inc. Removing illumination variation from images
US9147260B2 (en) * 2010-12-20 2015-09-29 International Business Machines Corporation Detection and tracking of moving objects
TWI411969B (zh) * 2010-12-24 2013-10-11 Ind Tech Res Inst 紋理特徵點比對方法及系統
US8565482B2 (en) 2011-02-28 2013-10-22 Seiko Epson Corporation Local difference pattern based local background modeling for object detection
US8810640B2 (en) * 2011-05-16 2014-08-19 Ut-Battelle, Llc Intrinsic feature-based pose measurement for imaging motion compensation
US9141871B2 (en) * 2011-10-05 2015-09-22 Carnegie Mellon University Systems, methods, and software implementing affine-invariant feature detection implementing iterative searching of an affine space
KR101913336B1 (ko) * 2011-10-06 2018-10-31 삼성전자주식회사 이동 장치 및 그 제어 방법
CN104221031B (zh) * 2011-11-18 2019-06-11 苹果公司 将影像特征与参考特征相匹配之方法及其所用集成电路
AU2011253913A1 (en) 2011-12-08 2013-06-27 Canon Kabushiki Kaisha Band-based patch selection with a dynamic grid
KR101912748B1 (ko) * 2012-02-28 2018-10-30 한국전자통신연구원 확장성을 고려한 특징 기술자 생성 및 특징 기술자를 이용한 정합 장치 및 방법
FR2989198A1 (fr) * 2012-04-06 2013-10-11 St Microelectronics Grenoble 2 Procede et dispositif de detection d'un objet dans une image
US20150127648A1 (en) * 2012-06-07 2015-05-07 Thomson Licensing Image descriptor for media content
WO2013182873A1 (en) * 2012-06-08 2013-12-12 Nokia Corporation A multi-frame image calibrator
AU2012244383A1 (en) * 2012-11-05 2014-05-22 Canon Kabushiki Kaisha Real-time line feed measurement of inkjet printer
US9674543B2 (en) 2012-11-14 2017-06-06 Samsung Electronics Co., Ltd. Method for selecting a matching block
CN103034864A (zh) * 2012-12-12 2013-04-10 惠州学院 一种基于颜色阈值与角点检测的视频横幅识别方法
CN103106394A (zh) * 2012-12-24 2013-05-15 厦门大学深圳研究院 一种视频监控中的人体行为识别方法
US9361538B2 (en) * 2012-12-26 2016-06-07 Microsoft Technology Licensing, Llc Real time photometric edge description
KR20140102038A (ko) * 2013-02-13 2014-08-21 삼성전자주식회사 영상 정합 장치 및 영상 정합 방법
US9488469B1 (en) 2013-04-22 2016-11-08 Cognex Corporation System and method for high-accuracy measurement of object surface displacement using a laser displacement sensor
CN103310439B (zh) * 2013-05-09 2016-01-20 浙江大学 一种基于尺度空间的图像最稳极值区域检测方法
US9117144B2 (en) 2013-08-14 2015-08-25 Qualcomm Incorporated Performing vocabulary-based visual search using multi-resolution feature descriptors
US9460515B2 (en) 2013-10-25 2016-10-04 Ricoh Co., Ltd. Processing of light fields by transforming to scale and depth space
JP6260215B2 (ja) * 2013-11-13 2018-01-17 富士通株式会社 特徴点追跡装置、及び、特徴点追跡方法
US9400939B2 (en) 2014-04-13 2016-07-26 International Business Machines Corporation System and method for relating corresponding points in images with different viewing angles
JP6363863B2 (ja) 2014-04-15 2018-07-25 キヤノン株式会社 情報処理装置および情報処理方法
CN103927767B (zh) * 2014-04-18 2018-05-04 北京智谷睿拓技术服务有限公司 图像处理方法及图像处理装置
CN104021174A (zh) * 2014-05-30 2014-09-03 北京合辉信息技术有限公司 根据片段图像获取完整资源的方法、系统与应用
KR102238693B1 (ko) 2014-06-20 2021-04-09 삼성전자주식회사 포인트 클라우드에서 특징 영역을 추출하는 방법 및 장치
CN105224582B (zh) * 2014-07-03 2018-11-09 联想(北京)有限公司 信息处理方法和设备
US9811760B2 (en) * 2015-07-31 2017-11-07 Ford Global Technologies, Llc Online per-feature descriptor customization
JP2018504652A (ja) * 2015-10-09 2018-02-15 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 顕著特徴ベースの移動体測位
US9955861B2 (en) 2015-10-16 2018-05-01 Ricoh Company, Ltd. Construction of an individual eye model using a plenoptic camera
KR101711589B1 (ko) * 2015-12-08 2017-03-02 연세대학교 산학협력단 초해상도 기법 기반 사전 생성 방법 및 이를 이용한 영상 확대 방법 및 그 장치
US11195043B2 (en) * 2015-12-15 2021-12-07 Cortica, Ltd. System and method for determining common patterns in multimedia content elements based on key points
US11037015B2 (en) * 2015-12-15 2021-06-15 Cortica Ltd. Identification of key points in multimedia data elements
US11841789B2 (en) 2016-01-27 2023-12-12 Microsoft Technology Licensing, Llc Visual aids for debugging
US11836650B2 (en) * 2016-01-27 2023-12-05 Microsoft Technology Licensing, Llc Artificial intelligence engine for mixing and enhancing features from one or more trained pre-existing machine-learning models
US11868896B2 (en) * 2016-01-27 2024-01-09 Microsoft Technology Licensing, Llc Interface for working with simulations on premises
US10586173B2 (en) 2016-01-27 2020-03-10 Bonsai AI, Inc. Searchable database of trained artificial intelligence objects that can be reused, reconfigured, and recomposed, into one or more subsequent artificial intelligence models
US11775850B2 (en) 2016-01-27 2023-10-03 Microsoft Technology Licensing, Llc Artificial intelligence engine having various algorithms to build different concepts contained within a same AI model
US10043070B2 (en) * 2016-01-29 2018-08-07 Microsoft Technology Licensing, Llc Image-based quality control
US10136116B2 (en) 2016-03-07 2018-11-20 Ricoh Company, Ltd. Object segmentation from light field data
US9886652B2 (en) 2016-03-15 2018-02-06 Microsoft Technology Licensing, Llc Computerized correspondence estimation using distinctively matched patches
CN107240126B (zh) * 2016-03-28 2020-11-20 华天科技(昆山)电子有限公司 阵列图像的校准方法
US10778707B1 (en) * 2016-05-12 2020-09-15 Amazon Technologies, Inc. Outlier detection for streaming data using locality sensitive hashing
TWI610271B (zh) * 2016-07-11 2018-01-01 龍華科技大學 結合小波轉換及角點偵測建立單張影像深度圖的裝置及其方法
US10121262B2 (en) 2016-12-20 2018-11-06 Canon Kabushiki Kaisha Method, system and apparatus for determining alignment data
US10346717B1 (en) * 2017-04-19 2019-07-09 The United States Of America As Represented By The Secretary Of The Navy System and method for thresholding of local image descriptors
US11010630B2 (en) * 2017-04-27 2021-05-18 Washington University Systems and methods for detecting landmark pairs in images
CN107273923B (zh) * 2017-06-02 2020-09-29 浙江理工大学 一种纺织面料摩擦声波辨别器的构建方法
US11760387B2 (en) 2017-07-05 2023-09-19 AutoBrains Technologies Ltd. Driving policies determination
US11899707B2 (en) 2017-07-09 2024-02-13 Cortica Ltd. Driving policies determination
US10846562B2 (en) * 2018-01-12 2020-11-24 Arizona Board Of Regents On Behalf Of Arizona State University Systems and methods for image matching
CN108304870B (zh) * 2018-01-30 2021-10-08 河南理工大学 点线特征融合的错误匹配剔除方法
CN109003331A (zh) * 2018-06-13 2018-12-14 东莞时谛智能科技有限公司 一种图像重构方法
US10846544B2 (en) 2018-07-16 2020-11-24 Cartica Ai Ltd. Transportation prediction system and method
US10839694B2 (en) 2018-10-18 2020-11-17 Cartica Ai Ltd Blind spot alert
US11126870B2 (en) 2018-10-18 2021-09-21 Cartica Ai Ltd. Method and system for obstacle detection
US20200133308A1 (en) 2018-10-18 2020-04-30 Cartica Ai Ltd Vehicle to vehicle (v2v) communication less truck platooning
US11181911B2 (en) 2018-10-18 2021-11-23 Cartica Ai Ltd Control transfer of a vehicle
US11700356B2 (en) 2018-10-26 2023-07-11 AutoBrains Technologies Ltd. Control transfer of a vehicle
US10789535B2 (en) 2018-11-26 2020-09-29 Cartica Ai Ltd Detection of road elements
CN109567600B (zh) * 2018-12-05 2020-12-01 江西书源科技有限公司 家用净水机的配件自动识别方法
CN109697692B (zh) * 2018-12-29 2022-11-22 安徽大学 一种基于局部结构相似的特征匹配方法
CN109934777B (zh) * 2019-01-09 2023-06-02 深圳市三宝创新智能有限公司 图像局部不变特征提取方法、装置、计算机设备及存储介质
CN109840529B (zh) * 2019-02-01 2022-12-09 安徽大学 一种基于局部敏感置信度评估的图像匹配方法
US11643005B2 (en) 2019-02-27 2023-05-09 Autobrains Technologies Ltd Adjusting adjustable headlights of a vehicle
US11285963B2 (en) 2019-03-10 2022-03-29 Cartica Ai Ltd. Driver-based prediction of dangerous events
US11694088B2 (en) 2019-03-13 2023-07-04 Cortica Ltd. Method for object detection using knowledge distillation
US11132548B2 (en) 2019-03-20 2021-09-28 Cortica Ltd. Determining object information that does not explicitly appear in a media unit signature
US11488290B2 (en) 2019-03-31 2022-11-01 Cortica Ltd. Hybrid representation of a media unit
US10796444B1 (en) 2019-03-31 2020-10-06 Cortica Ltd Configuring spanning elements of a signature generator
US10789527B1 (en) 2019-03-31 2020-09-29 Cortica Ltd. Method for object detection using shallow neural networks
US10776669B1 (en) 2019-03-31 2020-09-15 Cortica Ltd. Signature generation and object detection that refer to rare scenes
US11222069B2 (en) 2019-03-31 2022-01-11 Cortica Ltd. Low-power calculation of a signature of a media unit
CN111009001A (zh) * 2019-09-17 2020-04-14 哈工大机器人(中山)无人装备与人工智能研究院 一种图像配准方法、装置、设备及存储介质
US10748022B1 (en) 2019-12-12 2020-08-18 Cartica Ai Ltd Crowd separation
US11593662B2 (en) 2019-12-12 2023-02-28 Autobrains Technologies Ltd Unsupervised cluster generation
CN113159081B (zh) * 2020-01-23 2024-06-21 华为技术有限公司 一种图像处理方法以及相关设备
US11397869B2 (en) * 2020-03-04 2022-07-26 Zerofox, Inc. Methods and systems for detecting impersonating social media profiles
US11590988B2 (en) 2020-03-19 2023-02-28 Autobrains Technologies Ltd Predictive turning assistant
US11827215B2 (en) 2020-03-31 2023-11-28 AutoBrains Technologies Ltd. Method for training a driving related object detector
US11625843B2 (en) 2020-06-24 2023-04-11 Bluebeam, Inc. Systems and methods for automatic alignment of drawings
CN111915645B (zh) * 2020-07-14 2021-08-27 珠海大横琴科技发展有限公司 影像匹配方法、装置、计算机设备及计算机可读存储介质
US11756424B2 (en) 2020-07-24 2023-09-12 AutoBrains Technologies Ltd. Parking assist
CN112633081B (zh) * 2020-12-07 2022-07-01 深圳市来科计算机科技有限公司 一种复杂场景下的特定物体识别方法
CN112598740B (zh) * 2020-12-29 2022-04-15 中交第二公路勘察设计研究院有限公司 一种大范围多视倾斜影像连接点快速精确匹配方法
CN113095371B (zh) * 2021-03-22 2023-01-17 北京大学 一种面向三维重建的特征点匹配方法及系统
CN113298720B (zh) * 2021-04-21 2022-08-19 重庆邮电大学 一种自适应的重叠图像旋转方法
CN114299462B (zh) * 2021-12-28 2024-04-23 湖北工业大学 一种基于锚点图像的地下停车场多尺度场景识别方法
CN114526682B (zh) * 2022-01-13 2023-03-21 华南理工大学 一种基于图像特征增强数字体图像相关法的变形测量方法
CN114782724B (zh) * 2022-06-17 2022-11-08 联宝(合肥)电子科技有限公司 一种图像匹配方法、装置、电子设备及存储介质
CN114821128B (zh) * 2022-06-24 2022-09-09 北京科技大学 一种尺度自适应的模板匹配方法
CN117237680B (zh) * 2023-08-18 2024-03-12 暨南大学 一种基于异质模型拟合的多源图像匹配方法及系统
CN117676136B (zh) * 2023-11-16 2024-06-14 广州群接龙网络科技有限公司 一种群接龙数据处理方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129770A (ja) * 1993-10-28 1995-05-19 Mitsubishi Electric Corp 画像処理装置
JP2003018403A (ja) * 2001-07-05 2003-01-17 Ricoh Co Ltd 画像処理装置
US6711293B1 (en) * 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2688911B1 (fr) * 1992-02-24 1994-07-29 Robert Pierre Procede de creation de la signature d'un objet represente sur une image numerique, du type consistant a definir au moins un calibre dimensionnel caracteristique dudit objet, et procede correspondant de verification de la signature d'un objet.
US6038349A (en) * 1995-09-13 2000-03-14 Ricoh Company, Ltd. Simultaneous registration of multiple image fragments
US6009437A (en) * 1997-03-25 1999-12-28 Nec Research Institute, Inc. Linear fitting with missing data: applications to structure-from-motion and to characterizing intensity images
US6553150B1 (en) * 2000-04-25 2003-04-22 Hewlett-Packard Development Co., Lp Image sequence compression featuring independently coded regions
GB2367966B (en) * 2000-10-09 2003-01-15 Motorola Inc Method and apparatus for determining regions of interest in images and for image transmission
US7146057B2 (en) * 2002-07-10 2006-12-05 Northrop Grumman Corporation System and method for image analysis using a chaincode
CN1152341C (zh) * 2002-08-27 2004-06-02 上海交通大学 房屋数字地图自动生成方法
CN1168047C (zh) * 2002-12-19 2004-09-22 上海交通大学 遥感图像的非线性配准方法
JP4492036B2 (ja) * 2003-04-28 2010-06-30 ソニー株式会社 画像認識装置及び方法、並びにロボット装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129770A (ja) * 1993-10-28 1995-05-19 Mitsubishi Electric Corp 画像処理装置
US6711293B1 (en) * 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image
JP2003018403A (ja) * 2001-07-05 2003-01-17 Ricoh Co Ltd 画像処理装置

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011511340A (ja) * 2008-01-09 2011-04-07 ミツビシ・エレクトリック・アールアンドディー・センター・ヨーロッパ・ビーヴィ 画像識別のための特徴ベースの識別特性(signature)
US8660385B2 (en) 2008-01-09 2014-02-25 Mitsubishi Electric Corporation Feature-based signatures for image identification
US8831355B2 (en) 2008-04-23 2014-09-09 Mitsubishi Electric Corporation Scale robust feature-based identifiers for image identification
KR101649766B1 (ko) * 2008-04-23 2016-08-19 미쓰비시덴키 가부시키가이샤 이미지 식별을 위한 스케일 안정적 특징-기반 식별자
JP2011519090A (ja) * 2008-04-23 2011-06-30 ミツビシ・エレクトリック・アールアンドディー・センター・ヨーロッパ・ビーヴィ 画像識別のためのスケールにロバストな特徴に基づく識別子
KR20110002043A (ko) * 2008-04-23 2011-01-06 미쓰비시덴키 가부시키가이샤 이미지 식별을 위한 스케일 안정적 특징-기반 식별자
JP2010086540A (ja) * 2008-10-01 2010-04-15 Fuji Xerox Co Ltd 特徴記述子ベクトル生成方法、システムおよびプログラム
JP2012515399A (ja) * 2009-01-14 2012-07-05 エーナイン・ドット・コム インコーポレイテッド 画像パッチを表現するための方法及びシステム
US9721182B2 (en) 2009-01-14 2017-08-01 A9.Com, Inc. Method and system for matching an image using normalized feature vectors
US8958629B2 (en) 2009-01-14 2015-02-17 A9.Com, Inc. Method and system for matching an image using image patches
US9530076B2 (en) 2009-01-14 2016-12-27 A9.Com, Inc. Method and system for matching an image using normalized feature vectors
JP2010273315A (ja) * 2009-05-19 2010-12-02 Shindorico Co Ltd スキャン機能を備えた画像形成装置及びこのスキャン方法
CN101840507A (zh) * 2010-04-09 2010-09-22 江苏东大金智建筑智能化系统工程有限公司 基于角点特征不变量和图论聚类的目标跟踪方法
JP2014529922A (ja) * 2011-08-02 2014-11-13 ビューズアイキュー インコーポレイテッドViewsIQ Inc. デジタル顕微鏡撮像の装置及び方法
JP2015035191A (ja) * 2013-08-09 2015-02-19 株式会社デンソーアイティーラボラトリ 特徴点抽出装置、特徴点抽出方法、及び特徴点抽出プログラム
JP2018077862A (ja) * 2013-09-16 2018-05-17 アイベリファイ インコーポレイテッド バイオメトリック認証のための特徴抽出およびマッチングおよびテンプレート更新
JP2017535980A (ja) * 2014-09-05 2017-11-30 インテル・コーポレーション カメラキャリブレーション
JP2016100899A (ja) * 2014-11-20 2016-05-30 三星電子株式会社Samsung Electronics Co.,Ltd. 映像補正方法及び装置
US11140374B2 (en) 2014-11-20 2021-10-05 Samsung Electronics Co., Ltd. Method and apparatus for calibrating image

Also Published As

Publication number Publication date
KR20060047552A (ko) 2006-05-18
EP1594078B1 (en) 2008-11-05
JP2011204280A (ja) 2011-10-13
US7382897B2 (en) 2008-06-03
ATE413659T1 (de) 2008-11-15
KR101117837B1 (ko) 2012-03-15
JP4838532B2 (ja) 2011-12-14
US20050238198A1 (en) 2005-10-27
JP5066279B2 (ja) 2012-11-07
CN100426321C (zh) 2008-10-15
DE602005010781D1 (de) 2008-12-18
EP1594078A3 (en) 2006-08-09
EP1594078A2 (en) 2005-11-09
CN1776716A (zh) 2006-05-24

Similar Documents

Publication Publication Date Title
JP4838532B2 (ja) マルチスケールの有向パッチ(multi−scaleorientedpatches)を使用したマルチ画像特徴(feature)のマッチング
US8712156B2 (en) Comparison of visual information
US9141871B2 (en) Systems, methods, and software implementing affine-invariant feature detection implementing iterative searching of an affine space
US8897572B2 (en) Fast subspace projection of descriptor patches for image recognition
US8126206B2 (en) Image processing apparatus, image processing method, and program
US10311595B2 (en) Image processing device and its control method, imaging apparatus, and storage medium
JP5261501B2 (ja) 不変の視覚場面及び物体の認識
US9691003B2 (en) Keypoint descriptor generation by complex wavelet analysis
US8798377B2 (en) Efficient scale-space extraction and description of interest points
EP2801054A1 (en) Method and system for comparing images
Zhang et al. Fine localization and distortion resistant detection of multi-class barcode in complex environments
Bellavia et al. Progressive keypoint localization and refinement in image matching
JP5865687B2 (ja) 画像特徴量抽出装置およびそのプログラム
KR101627974B1 (ko) 영상 블러에 강인한 영상 특징 기술자 생성 방법 및 장치
Hwang et al. Real-Time 2D Orthomosaic Mapping from Drone-Captured Images Using Feature-Based Sequential Image Registration
Pusztai et al. Quantitative Affine Feature Detector Comparison based on Real-World Images Taken by a Quadcopter.
Cardoso et al. Image stitching using non-extensive statistics
Fan Automatic registration of multi-modal airborne imagery
Balmashnova et al. Content-based image retrieval by means of scale-space top-points and differential invariants
Patil et al. A Robust Image Mosaicing Using Improved SIFT Technique
Son et al. Fast affine-invariant image matching based on global Bhattacharyya measure with adaptive tree
Elibol et al. Mismatched image identification using histogram of loop closure error for feature-based optical mapping
Card Qualitative image based localization in a large building
Badr et al. SIFT-EST-a SIFT-based feature matching algorithm using homography estimation
Viitaniemi et al. Region matching techniques for spatial bag of visual words based image category recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080421

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090901

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20091008

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110224

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110713

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110902

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110930

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141007

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4838532

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees