JP6435048B2 - 画像照合装置、画像照合方法、及びプログラム - Google Patents

画像照合装置、画像照合方法、及びプログラム Download PDF

Info

Publication number
JP6435048B2
JP6435048B2 JP2017527421A JP2017527421A JP6435048B2 JP 6435048 B2 JP6435048 B2 JP 6435048B2 JP 2017527421 A JP2017527421 A JP 2017527421A JP 2017527421 A JP2017527421 A JP 2017527421A JP 6435048 B2 JP6435048 B2 JP 6435048B2
Authority
JP
Japan
Prior art keywords
pair
provisional
points
image
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017527421A
Other languages
English (en)
Other versions
JPWO2017006852A1 (ja
Inventor
小萌 武
小萌 武
柏野 邦夫
邦夫 柏野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2017006852A1 publication Critical patent/JPWO2017006852A1/ja
Application granted granted Critical
Publication of JP6435048B2 publication Critical patent/JP6435048B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/457Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、画像照合装置、画像照合方法、及びプログラムに係り、特に、画像間の類似度を求めるための画像照合装置、画像照合方法、及びプログラムに関する。
本願は、2015年7月6日に、日本に出願された特願2015−135297号に基づき優先権を主張し、その内容をここに援用する。
局所特徴量に基づく画像照合は、2枚の入力画像から抽出した多数の特徴点から局所特徴量を算出し、第1画像の特徴点と第2画像の特徴点とを比較し、局所特徴量の類似度が高いか否かを判定する技術である。画像照合によって、同一画像検索や類似画像検索、又は画像認識等の課題が実現可能となる。以下、第1画像と、第1画像に写っている物体と異なる物体を写した第2画像のペアを、非関連画像と呼ぶ。第1画像と、第1画像に写っている物体と同一の物体を写した第2画像のペアを、関連画像と呼ぶ。既存技術では、2枚の非関連画像に対して、市松模様のような繰り返しパターンや肌理の細かい模様等が両方の画像に含まれる場合、画像の間で誤って合致する特徴点が多く存在するため、非関連画像が関連画像であると誤認されることが多い。
前記問題の影響を抑えるために、空間関係や幾何変換等の整合性を考慮した画像照合装置が発明されている。空間関係とは、特徴点の間の近接関係や相対位置関係等のことである。以下、2枚の画像の間において、局所特徴量の類似度が高い特徴点のペアを、暫定対応点と呼ぶ。幾何変換とは、暫定対応点を構成した2点の特徴点の幾何特性から算出した線形変換パラメータや変位ベクトル等のことである。以下、暫定対応点のうち、空間関係や幾何変換等の制約条件を満たすものを、正対応点と呼ぶ。
非特許文献1、2に開示されている画像照合装置は、入力画像内の特徴点の位置座標空間における近傍を探索する処理と、近傍同士となる特徴点のペアから相対位置ベクトルを算出する処理と、相対位置ベクトルを量子化する処理と、特徴点の局所特徴量を量子化する処理と、量子化の結果に基づいて転置インデックスを作成する処理と、転置インデックスによって正対応点のペアを同定する処理と、正対応点のペアに基づいて画像間の類似度を算出する処理によって構成される。非特許文献3に開示されている画像照合装置は、入力画像間の暫定対応点から拡大縮小、回転、変位を表す幾何変換パラメータを算出する処理と、幾何変換パラメータを量子化する処理と、量子化の結果に基づいて投票ヒストグラムを作成する処理と、投票ヒストグラムに基づいて画像間の類似度を算出する処理によって構成されている。
Zhen Liu, Houqiang Li, Wengang Zhou, and Qi Tian. Embedding spatial context information into inverted file for large-scale image retrieval. In ACM Multimedia, pp.199-208, 2012. Xiaomeng Wu and Kunio Kashino. Image retrieval based on anisotropic scaling and shearing invariant geometric coherence. In ICPR, pp. 3951-3956, 2014. Yannis S. Avrithis and Giorgos Tolias. Hough pyramid matching: Speeded-up geometry re-ranking for large scale image retrieval. International Journal of Computer Vision, Vol. 107, No. 1, pp. 1-19, 2014.
非特許文献1、2に開示されている画像照合装置は、入力画像内の特徴点のペアに着目し、「近接関係の整合性」と「相対位置関係の整合性」、計2種類の空間関係の制約を用いて正対応点のペアを同定する。非特許文献3に開示されている画像照合装置は、入力画像間の暫定対応点に着目し、「拡大縮小倍率の整合性」、「回転角度の整合性」、「変位ベクトルの整合性」、計3種類の幾何変換の制約を用いて誤って合致した暫定対応点を除去する。以下、空間関係の制約と幾何変換の制約を総じて空間制約と呼ぶ。前記既存技術では、正対応点の同定に用いる空間制約の数と種類が限られているため、誤って合致した暫定対応点への識別力が不充分な場合が多い。量子化の解像度を上げるなど、空間制約の強度を強制的に高める方法が考えられるが、正対応点の探索漏れや過剰除去等が生じる。正対応点の探索漏れ等を回避しつつ、誤って合致した暫定対応点への識別力をいかに高められるかが、本発明で解決する第1の課題である。
空間関係の制約と幾何変換の制約を結合すれば、前記課題を解決できるが、既存技術では、両方を組み合わせるのが困難である。例えば、非特許文献1、2に開示されている画像照合装置は、暫定対応点を抽出する前に、入力画像内の特徴点のペアに着目し、そのペアから空間関係の特徴量を算出する。この技術を利用する段階では、暫定対応点がまだ抽出されていないため、幾何変換パラメータの算出が不可能である。従って、この技術に幾何変換の制約を加えることが不可能である。一方、非特許文献3に開示されている画像照合装置は、暫定対応点を抽出した後に、入力画像間の暫定対応点に着目し、幾何変換パラメータを算出する。その後、各単一の暫定対応点を、その幾何変換パラメータに相当するパラメータ区間に投票し、投票ヒストグラムを作成する。この投票は、各単一の暫定対応点でなければできないのに対して、空間関係の特徴量の算出は、少なくとも二つの対応点がなければできない。従って、この技術に空間関係の制約を加えることが不可能である。
空間関係の制約を用いる画像照合装置(非特許文献1、2)は、入力画像内の特徴点のペアを対象に特徴量算出とインデックス作成を行うため、画像照合の際に必要となるメモリ使用量と探索空間の大きさ(探索の所要時間の長さ)が特徴点のペアの数に比例する。例えば、千枚の画像がデータベースにある場合、メモリ使用量が約8GBであり、百万枚の画像の場合、約8TBとなる。探索の正確性を犠牲にせず、メモリ使用量と探索空間(探索の所要時間)をいかに抑制できるかが、本発明で解決する第2の課題である。
本発明は、上記課題を解決するために成されたものであり、非関連画像間の特徴点の合致数が高く、関連画像間の幾何変換が大きい場合でも、正確且つ高速に画像を照合することができる画像照合装置、方法、及びプログラムを提供することを目的とする。
本発明の第1の実施態様は、入力画像のペア間において対応する特徴点のペアである複数の暫定対応点を抽出する暫定対応点抽出部と、前記暫定対応点抽出部によって抽出された前記暫定対応点の組み合わせである前記暫定対応点のペアの各々について、前記暫定対応点の幾何変換パラメータの比較又は差分に基づく、拡大縮小倍率の整合性に関する制約条件、回転角度の整合性に関する制約条件、及び相対位置関係の整合性に関する制約条件の全てに基づいて前記入力画像のペア間の類似度を評価する空間検証部と、を含む画像照合装置である。
本発明の第2の実施態様は、上記第1の実施態様の画像照合装置において、前記暫定対応点のペアの各々から、前記暫定対応点のペアにおける前記特徴点それぞれのk近傍の前記特徴点の集合に基づいて、近傍同士となる前記暫定対応点のペアを抽出するK近傍探索部を更に含み、前記空間検証部は、前記K近傍探索部によって抽出された、近傍同士となる前記暫定対応点のペアの各々に対する制約条件の全てに基づいて前記入力画像のペア間の類似度を評価する。
本発明の第3の実施態様は、上記第1又は第2の実施態様の画像照合装置において、前記拡大縮小倍率の整合性に関する制約条件は、前記暫定対応点のペアをなす第1及び第2の暫定対応点における前記特徴点と前記入力画像のペアをなす第1及び第2の入力画像とに関し、前記第1の入力画像内における前記特徴点のスケールの大小関係と、前記第2の入力画像内における前記特徴点のスケールの大小関係とにおいて、前記第1又は第2の暫定対応点のいずれか一方の前記特徴点のスケールがともに大きいか、又は、前記第1の暫定対応点における前記特徴点のスケールの大小関係と、前記第2の暫定対応点における前記特徴点のスケールの大小関係とにおいて、前記第1又は第2の入力画像のいずれか一方の前記特徴点のスケールがともに大きいことである。
本発明の第4の実施態様は、上記第1から第3の実施態様のいずれか一つの画像照合装置において、前記回転角度の整合性に関する制約条件は、前記暫定対応点のペアをなす第1及び第2の暫定対応点における前記特徴点と前記入力画像のペアをなす第1及び第2の入力画像とに関し、前記第1の入力画像における前記第1の暫定対応点の特性角と前記第2の入力画像における前記第1の暫定対応点の特性角との差である第1の回転角度と、前記第1の入力画像における前記第2の暫定対応点の特性角と前記第2の入力画像における前記第2の暫定対応点の特性角との差である第2の回転角度との差分の絶対値が予め定められた第1の閾値より小さいことである。
本発明の第5の実施態様は、上記第1から第4の実施態様のいずれか一つの画像照合装置において、前記相対位置関係の整合性に関する制約条件は、前記暫定対応点のペアをなす第1及び第2の暫定対応点それぞれの前記特徴点と前記入力画像のペアをなす第1及び第2の入力画像とに関し、前記第1の入力画像における前記第1の暫定対応点の前記特徴点と前記第2の暫定対応点の前記特徴点との位置の差を示す第1の相対位置ベクトルと、前記第2の入力画像における前記第1の暫定対応点の前記特徴点と前記第2の暫定対応点の前記特徴点との位置の差を示す第2の相対位置ベクトルとの差分である差分ベクトルの長さの最大値が予め定められた第2の閾値より小さいこと、前記第1及び第2の相対位置ベクトルを極座標に変換して得られる動径それぞれが予め定められた第3の閾値より大きいこと、及び、前記第1及び第2の相対位置ベクトルを極座標に変換して得られる偏角の差分の絶対値が予め定められた第4の閾値より小さいこと、である。
本発明の第6の実施態様は、上記第1から第5の実施態様のいずれか一つの画像照合装置において、前記空間検証部は、前記拡大縮小倍率の整合性に関する制約条件、前記回転角度の整合性に関する制約条件、及び前記相対位置関係の整合性に関する制約条件の全てを満たす前記暫定対応点のペアに基づいて、前記入力画像のペア間の類似度を評価する。
本発明の第7の実施態様は、暫定対応点抽出部及び空間検証部を含む画像照合装置における画像照合方法であって、前記暫定対応点抽出部によって、入力画像のペア間において対応する特徴点のペアである複数の暫定対応点を抽出し、前記空間検証部によって、前記暫定対応点抽出部によって抽出された前記暫定対応点の組み合わせである前記暫定対応点のペアの各々について、前記暫定対応点の幾何変換パラメータの比較又は差分に基づく、拡大縮小倍率の整合性に関する制約条件、回転角度の整合性に関する制約条件、及び相対位置関係の整合性に関する制約条件の全てに基づいて前記入力画像のペア間の類似度を評価する、画像照合方法である。
本発明の第8の実施態様は、上記第7の実施態様の画像照合方法において、前記画像照合装置は更にK近傍探索部を含み、前記K近傍探索部によって、前記暫定対応点のペアの各々から、前記暫定対応点のペアにおける前記特徴点それぞれのk近傍の前記特徴点の集合に基づいて、近傍同士となる前記暫定対応点のペアを抽出し、前記空間検証部は、前記K近傍探索部によって抽出された、近傍同士となる前記暫定対応点のペアの各々に対する制約条件の全てに基づいて前記入力画像のペア間の類似度を評価する。
本発明の第9の実施態様は、上記第7又は第8の実施態様の画像照合方法において、前記拡大縮小倍率の整合性に関する制約条件は、前記暫定対応点のペアをなす第1及び第2の暫定対応点における前記特徴点と前記入力画像のペアをなす第1及び第2の入力画像とに関し、前記第1の入力画像内における前記特徴点のスケールの大小関係と、前記第2の入力画像内における前記特徴点のスケールの大小関係とにおいて、前記第1又は第2の暫定対応点のいずれか一方の前記特徴点のスケールがともに大きいか、又は、前記第1の暫定対応点における前記特徴点のスケールの大小関係と、前記第2の暫定対応点における前記特徴点のスケールの大小関係とにおいて、前記第1又は第2の入力画像のいずれか一方の前記特徴点のスケールがともに大きいことである。
本発明の第10の実施態様は、上記第7から第9の実施態様のいずれか一つの画像照合方法において、前記回転角度の整合性に関する制約条件は、前記暫定対応点のペアをなす第1及び第2の暫定対応点における前記特徴点と前記入力画像のペアをなす第1及び第2の入力画像とに関し、前記第1の入力画像における前記第1の暫定対応点の特性角と前記第2の入力画像における前記第1の暫定対応点の特性角との差である第1の回転角度と、前記第1の入力画像における前記第2の暫定対応点の特性角と前記第2の入力画像における前記第2の暫定対応点の特性角との差である第2の回転角度との差分の絶対値が予め定められた第1の閾値より小さいことである。
本発明の第11の実施態様は、上記第7から第10の実施態様のいずれか一つの画像照合方法において、前記相対位置関係の整合性に関する制約条件は、前記暫定対応点のペアをなす第1及び第2の暫定対応点それぞれの前記特徴点と前記入力画像のペアをなす第1及び第2の入力画像とに関し、前記第1の入力画像における前記第1の暫定対応点の前記特徴点と前記第2の暫定対応点の前記特徴点との位置の差を示す第1の相対位置ベクトルと、前記第2の入力画像における前記第1の暫定対応点の前記特徴点と前記第2の暫定対応点の前記特徴点との位置の差を示す第2の相対位置ベクトルとの差分である差分ベクトルの長さの最大値が予め定められた第2の閾値より小さいこと、前記第1及び第2の相対位置ベクトルを極座標に変換して得られる動径それぞれが予め定められた第3の閾値より大きいこと、及び、前記第1及び第2の相対位置ベクトルを極座標に変換して得られる偏角の差分の絶対値が予め定められた第4の閾値より小さいこと、である。
本発明の第12の実施態様は、上記第7から第11の実施態様のいずれか一つの画像照合方法において、前記空間検証部は、前記拡大縮小倍率の整合性に関する制約条件、前記回転角度の整合性に関する制約条件、及び前記相対位置関係の整合性に関する制約条件の全てを満たす前記暫定対応点のペアに基づいて、前記入力画像のペア間の類似度を評価する。
本発明に係るプログラムは、コンピュータを、上記第1から第6の実施態様のいずれか一つの画像照合装置を構成する各部として機能させるためのプログラムである。
本発明の画像照合装置、画像照合方法、及びプログラムによれば、暫定対応点のペアの各々について、暫定対応点の幾何変換パラメータの比較又は差分に基づく、拡大縮小倍率の整合性に関する制約条件、回転角度の整合性に関する制約条件、及び相対位置関係の整合性に関する制約条件の全てを満たすか否かを判定し、全ての制約条件を満たすと判定された暫定対応点のペアの数を、入力画像のペア間の類似度として出力することにより、非関連画像間の特徴点の合致数が高く、関連画像間の幾何変換が大きい場合でも、正確且つ高速に画像を照合することができる、という効果が得られる。
本発明の実施の形態に係る画像照合装置の構成を示すブロック図である。 本発明の実施の形態に係る画像照合装置の暫定対応点抽出部の構成を示すブロック図である。 本発明の実施の形態に係る画像照合装置の空間検証部の構成を示すブロック図である。 本発明の実施の形態に係る画像照合装置における画像照合処理ルーチンを示すフローチャートである。 本発明の実施の形態に係る画像照合装置における空間制約を検証する処理の流れを示すフローチャートである。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<本発明の実施の形態の概要>
「局所特徴量の類似性」を使用し、入力画像の特徴点から先に暫定対応点を抽出する。その後、暫定対応点のペアに着目し、「拡大縮小倍率の整合性」、「回転角度の整合性」、「相対位置関係の整合性」、計3種類の空間制約からなる全ての制約条件を満たす、画像間の暫定対応点のペアを、正対応点のペアと判定する。また、幾何変換の制約を用いるには、各単一の暫定対応点に依存する投票の処理(ハフ変換)ではなく、暫定対応点のペアに着目し、幾何変換パラメータの差分又は比較に基づいて制約条件を設計する。このように、先に暫定対応点を抽出し、その後、暫定対応点のペアに着目することによって、空間関係の制約と幾何変換の制約を組み合わせることが可能となる。空間関係の制約と幾何変換の制約を結合することで、空間制約の数と種類を増やし、上記第1の課題を解決する。
また、入力画像間の暫定対応点に対して、特徴点から位置座標空間において最も近いk個の特徴点を用いて、近傍同士となる暫定対応点のペアを探し出す。空間制約の条件を満たすか否かを検証する際に、全ての暫定対応点のペアを対象にするのではなく、近傍同士となる暫定対応点のペアのみに対して、空間制約を用いて、制約条件を満たす暫定対応点のペアを正対応点のペアと判定する。上記の非特許文献1、2に開示されている画像照合装置のように特徴点のペアを対象にするのではなく、「局所特徴量の類似性」に基づいて暫定対応点を先に同定し、次に暫定対応点のペアを対象に空間制約の条件を満たすか否かを検証する。
また、暫定対応点を抽出する際に、特徴点のデータを転置インデックスに組み込むだけで良く、特徴点のペアのデータをインデックスに組み込む必要がなくなる。特徴点のペアに比べて、特徴点の数がはるかに少ないため、画像照合の際に必要となるメモリ使用量が小さくなる。一方、全ての暫定対応点のペアを対象にするのではなく、位置座標空間において近傍同士となる暫定対応点のペアのみを対象にすることによって、空間制約の条件検証の回数を低く抑制すると共に、探索空間を小さく、探索の所要時間を短くし、上記第2の課題を解決する。
<本発明の実施の形態に係る画像照合装置の構成>
次に、本発明の実施の形態に係る画像照合装置の構成について説明する。図1に示すように、本発明の実施の形態に係る画像照合装置100は、CPUと、RAMと、後述する画像照合処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この画像照合装置100は、機能的には図1に示すように、入力部10と、演算部20と、出力部50とを備えている。
演算部20は、入力画像のペアから暫定対応点を抽出する暫定対応点抽出部22と、暫定対応点に対して位置座標空間における特徴点のk近傍を用いて、近傍同士となる暫定対応点のペアを探索するK近傍探索部24と、近傍同士となる暫定対応点のペアから正対応点のペアを同定する空間検証部26とを含んで構成されている。本発明の実施形態による画像照合装置100は、2枚の入力画像を入力とし、正対応点のペアの数を画像間の類似度として出力する。
<暫定対応点抽出部>
図2は、暫定対応点抽出部22の構成の一例を示すブロック図である。暫定対応点抽出部22は、入力画像から特徴点を抽出し、特徴点の集合を算出する特徴点抽出部30、32と、特徴点集合から局所特徴量集合を算出する局所特徴量算出部34、36と、事前に作成したビジュアルワード辞書に基づいて局所特徴量集合をビジュアルワードの集合に量子化するベクトル量子化部38、40と、2枚の入力画像から得られたビジュアルワードの集合から同一のビジュアルワードが指定された特徴点のペアを暫定対応点集合として探索するビジュアルワード探索部42とを含んで構成される。暫定対応点抽出部22は、2枚の入力画像と事前に作成したビジュアルワード辞書を入力とし、暫定対応点の集合を出力する。
特徴点抽出部30は、入力画像のペアのうちの第1画像から特徴点を抽出し特徴点の集合を出力する。本実施形態では、非特許文献4に開示されている Hessian Affine Region Detector を用いる。
[非特許文献4]:Krystian Mikolajczyk and Cordelia Schmid. Scale & affine invariant interest point detectors. International Journal of Computer Vision, Vol. 60, No. 1, pp. 63-86, 2004.
具体的には、特徴点抽出部30は、入力画像のペアのうちの第1画像を入力とし、特徴点の集合を出力する。各特徴点は、スケール(Scale)と特性角(Characteristic Angle)及び2次元の位置座標として表される。本実施の形態では、入力画像から抽出した特徴点の集合Pにある各特徴点p∈Pにおいて、スケールをσ(p)で、特性角をθ(p)で、2次元の位置座標をt(p)=[x(p) y(p)]で表す。
特徴点抽出部32は、入力画像のペアのうちの第2画像を入力とし、特徴点抽出部30と同様に、特徴点を抽出し、特徴点の集合を出力する。
局所特徴量算出部34は、特徴点抽出部30から出力された特徴点の集合を入力とし、特徴点の集合に含まれる各特徴点から局所特徴量を算出し、局所特徴量の集合を出力する。本実施形態では、非特許文献5に開示されている Scale-Invariant Feature Transform (SIFT)を用いて局所特徴量を算出する。各局所特徴量は、128次元のベクトルとして表される。
[非特許文献5]:David G. Lowe. Distinctive image features from scale invariant keypoints. International Journal of Computer Vision, Vol. 60, No. 2, pp. 91-110, 2004.
局所特徴量算出部36は、特徴点抽出部32によって出力された特徴点の集合を入力とし、局所特徴量算出部34と同様に、局所特徴量の集合を出力する。
ベクトル量子化部38は、事前に作成したビジュアルワード辞書に基づいて、局所特徴量算出部34によって出力された局所特徴量の集合に含まれる各局所特徴量をビジュアルワードに量子化する。ビジュアルワード辞書とは、多数の画像から算出した局所特徴量をクラスタリングして得られた、クラスタのID(ビジュアルワード)と平均ベクトルを格納する配列(集合)である。本実施形態では、ビジュアルワード辞書を作成する方法として、事前に約5千枚の画像を用意し、画像から算出した局所特徴量を近似k平均法(非特許文献6を参照)によってクラスタリングする。
[非特許文献6]:James Philbin, Ondrej Chum, Michael Isard, Josef Sivic, and Andrew Zisserman. Object retrieval with large vocabularies and fast spatial matching. In CVPR, 2007.
具体的には、ベクトル量子化部38は、局所特徴量算出部34によって出力された局所特徴量の集合とビジュアルワード辞書を入力とし、入力画像のペアのうちの第1画像から算出した局所特徴量とビジュアルワード辞書にあるクラスタの平均ベクトルとを比較し、ベクトル間のユークリッド距離が最短のクラスタのIDをビジュアルワードとして該当する特徴点に指定し、ビジュアルワードの集合を出力する。
本実施形態では、ユークリッド距離が最短のクラスタのIDを探索する方法として、非特許文献7に開示されている近似最近傍探索法 Randomized KD-tree を用いる。
[非特許文献7]:Marius Muja and David G. Lowe. Fast approximate nearest neighbors with automatic algorithm configuration. In VISAPP, pp. 331-340, 2009.
各ビジュアルワードは、整数として表される。具体的に、各特徴点p∈Pにおいて、指定されたビジュアルワードをu(p)で表す。
ベクトル量子化部40は、局所特徴量算出部36によって出力された局所特徴量の集合とビジュアルワード辞書を入力とし、ベクトル量子化部38と同様に、ビジュアルワードの集合を出力する。
ビジュアルワード探索部42は、2枚の入力画像から得られたビジュアルワードの集合を入力とし、2枚の入力画像から得られたビジュアルワードの集合から同一のビジュアルワードが指定された特徴点のペア(暫定対応点)を探索し、暫定対応点の集合を出力する。本実施形態では、大規模画像データベース検索を想定し、転置インデックスを作成し、それに基づく探索方法を用いる。各暫定対応点は、1個のビジュアルワードと、暫定対応点を構成した2点の特徴点のスケールと特性角及び2次元の位置座標として表される。具体的に、2枚の入力画像から抽出した特徴点の集合をPとQで、暫定対応点の集合をCで、各暫定対応点c∈Cをc=(p;q)で表す。C⊆P×Qは、式(1)によって得られる。P×Qは、PとQの直積集合である。
Figure 0006435048
各暫定対応点c∈Cは、式(2)として表される。
Figure 0006435048
<K近傍探索部>
K近傍探索部24は、暫定対応点の集合を入力とし、暫定対応点に対して、位置座標空間における特徴点のk近傍を用いて、近傍同士となる暫定対応点のペアを探索し、近傍同士となる暫定対応点のペアの集合を出力する。本実施形態では、上記非特許文献7に開示されている近似最近傍探索法 Randomized KD-tree を用いる。具体的に、暫定対応点のペアを(ca;cb)で、暫定対応点をca=(pa;qa)とcb=(pb;qb)で、特徴点のk近傍の集合をN(・)で表す。「近接関係の整合性」の空間制約hは、式(3)として表される。[・]は、アイバーソンの記法で、角括弧中の条件が真ならば1で偽ならば0である。「∧」は、論理積を表す。
Figure 0006435048
近傍同士となる暫定対応点のペアの集合G⊆Cは、式(4)によって得られる。C=C×Cは、CとCの直積集合である。
Figure 0006435048
<空間検証部>
図3は、空間検証部26の構成の一例を示すブロック図である。空間検証部26は、拡大縮小倍率検証部44、回転角度検証部46、及び相対位置関係検証部48を含んで構成されている。検証部の順序は、任意に変更できる。空間検証部26は、K近傍探索部24によって出力された、近傍同士となる暫定対応点のペアの集合を入力とし、正対応点のペアの数を2枚の入力画像の間の類似度として出力する。
拡大縮小倍率検証部44は、暫定対応点のペアが、暫定対応点の幾何変換パラメータの比較に基づく、「拡大縮小倍率の整合性」の空間制約の条件を満たすか否かを検証する。本実施形態では、暫定対応点のペアにおいて、入力画像内の特徴点のスケールの大小関係が等しいか否かを検証し、入力画像間の特徴点のスケールの大小関係が等しいか否かを検証する。具体的に、入力画像内の特徴点のスケールの大小関係に基づく制約条件h’σは式(5)で、入力画像間の特徴点のスケールの大小関係に基づく制約条件h”σは式(6)で表す。
Figure 0006435048
「拡大縮小倍率の整合性」の空間制約hσは、式(7)として表される。暫定対応点のペア(ca;cb)において、hσ(ca;cb)=1の場合に真と判定し、hσ(ca;cb)=0の場合に偽と判定する。「∨」は、論理和を表す。
Figure 0006435048
回転角度検証部46は、暫定対応点のペアが、暫定対応点の幾何変換パラメータの差分に基づく「回転角度の整合性」の空間制約の条件を満たすか否かを検証する。本実施形態では、暫定対応点のペアにおいて、2点の暫定対応点から算出される回転角度の差分の絶対値が事前に設定した閾値εθより小さいか否かを検証する。具体的に、暫定対応点の回転角度をθ(c)=θ(p)−θ(q)で算出する。「回転角度の整合性」の空間制約hθは、式(8)として表される。暫定対応点のペア(ca;cb)において、hθ(ca;cb)=1の場合に真と判定し、hθ(ca;cb)=0の場合に偽と判定する。
Figure 0006435048
相対位置関係検証部48は、暫定対応点のペアが、暫定対応点の幾何変換パラメータの比較又は差分に基づく「相対位置関係の整合性」の空間制約の条件を満たすか否かを検証する。本実施形態では、暫定対応点のペアにおいて、後述する第1制約条件及び第2制約条件からなる計2種類の制約条件の組み合わせを「相対位置関係の整合性」の空間制約として用いる。第1制約条件の検証では、2枚の入力画像内における特徴点間の相対位置ベクトルを算出し、相対位置ベクトルの差分ベクトルの長さの最大値が事前に設定した閾値εより小さいか否かを検証する。具体的に、入力画像にある2点の特徴点pとpにおいて、pからpへ向かう相対位置ベクトルは、式(9)で算出する。
Figure 0006435048
M(p)は、特徴点pの幾何特性を表す行列で、式(10)で算出する。
Figure 0006435048
第1制約条件h’は、式(11)として表される。||・||は、ユークリッドノルムを表す。
Figure 0006435048
第2制約条件の検証では、相対位置ベクトルを極座標(動径と偏角)に変換し、動径と事前に設定した閾値との大小関係が等しいか否かを検証し、偏角の差分の絶対値が事前に設定した閾値εαより小さいか否かを検証する。具体的に、相対位置ベクトルvの動径をρで、偏角をαで表す。第2制約条件h”は、式(12)として表される。
Figure 0006435048
「相対位置関係の整合性」の空間制約hは、式(13)として表される。暫定対応点のペア(ca;cb)において、h(ca;cb)=1の場合に真と判定し、h(ca;cb)=0の場合に偽と判定する。
Figure 0006435048
上述したように、空間検証部26は、K近傍探索部24によって出力された、近傍同士となる暫定対応点のペアの集合を入力とし、正対応点のペアの数を2枚の入力画像の間の類似度として出力する。本実施形態では、正対応点のペアの同定に用いる空間制約の集合をH={hσ,hθ,h}で表す。正対応点のペアの集合^Gは、式(14)によって得られる。
Figure 0006435048
正対応点のペアの数は、^Gの要素の個数|^G|によって得られ、出力部50により出力される。
<本発明の実施の形態に係る画像照合装置の作用>
次に、本発明の実施の形態に係る画像照合装置100の作用について説明する。入力部10によって、入力画像のペア、及びビジュアルワード辞書を受け付けると、画像照合装置100は、図4に示す画像照合処理ルーチンを実行する。
まず、ステップS100では、入力画像のペアのうちの第1画像の特徴点の集合を抽出する。ステップS102では、上記ステップS100で抽出された第1画像の特徴点の集合に含まれる各特徴点について局所特徴量を抽出し、局所特徴量の集合を出力する。
ステップS104では、ビジュアルワード辞書と、上記ステップS102で抽出された各特徴点の局所特徴量とに基づいて、第1画像の特徴点の集合について、局所特徴量の集合をビジュアルワードに量子化する。
そして、ステップS106では、入力画像のペアのうちの第2画像の特徴点の集合を抽出する。ステップS108では、上記ステップS106で抽出された第2画像の特徴点の集合に含まれる各特徴点について局所特徴量を抽出し、局所特徴量の集合を出力する。
ステップS110では、ビジュアルワード辞書と、上記ステップS108で抽出された各特徴点の局所特徴量とに基づいて、第2画像の特徴点の集合について、局所特徴量の集合をビジュアルワードに量子化する。
次のステップS112では、上記ステップS104で得られた、第1画像の特徴点の集合に含まれる各特徴点についてのビジュアルワードと、上記ステップS110で得られた、第2画像の特徴点の集合に含まれる各特徴点についてのビジュアルワードとに基づいて、暫定対応点の集合を抽出する。
ステップS114では、上記ステップS112で抽出された暫定対応点の集合から、各特徴点について求められるk近傍の集合に基づいて、上記式(3)に従って、近傍同士となる暫定対応点のペアの集合を抽出する。
ステップS116では、上記ステップS114で抽出された、近傍同士となる暫定対応点のペアの集合から、暫定対応点ペアを選択する。
ステップS118では、上記ステップS116で選択された暫定対応点ペアについて、拡大縮小倍率の整合性に関する制約条件、回転角度の整合性に関する制約条件、及び相対位置関係の整合性に関する制約条件の全てを満たすか否かを判定し、正対応点のペアであるか誤対応点のペアであるかを判定する。
そして、ステップS120では、近傍同士となる暫定対応点のペアの集合に含まれる、全ての暫定対応点ペアについて、上記ステップS118の処理を実行したか否かを判定する。上記ステップS118の処理を実行していない暫定対応点ペアが存在する場合には、上記ステップS116へ戻り、当該暫定対応点ペアを選択する。一方、近傍同士となる暫定対応点のペアの集合に含まれる、全ての暫定対応点ペアについて、上記ステップS118の処理を実行した場合には、ステップS112において、正対応点のペアの数を入力画像のペア間の類似度として出力部50により出力し、画像照合処理ルーチンを終了する。
上記ステップS118は、図5に示す処理ルーチンによって実現される。
ステップS130では、上記ステップS116で選択された暫定対応点ペアについて、上記式(7)に従って、拡大縮小倍率の整合性に関する制約条件を満たすか否かを判定する。拡大縮小倍率の整合性に関する制約条件を満たす場合には、ステップS132へ移行する。一方、拡大縮小倍率の整合性に関する制約条件を満たさない場合には、ステップS138へ移行し、誤対応点のペアであると判断する。
ステップS132では、上記ステップS116で選択された暫定対応点ペアについて、上記式(8)に従って、回転角度の整合性に関する制約条件を満たすか否かを判定する。回転角度の整合性に関する制約条件を満たす場合には、ステップS134へ移行する。一方、回転角度の整合性に関する制約条件を満たさない場合には、ステップS138へ移行し、誤対応点のペアであると判断する。
ステップS134では、上記ステップS116で選択された暫定対応点ペアについて、上記式(13)に従って、相対位置関係の整合性に関する制約条件を満たすか否かを判定する。相対位置関係の整合性に関する制約条件を満たす場合には、ステップS136へ移行し、正対応点のペアであると判断する。一方、相対位置関係の整合性に関する制約条件を満たさない場合には、ステップS138へ移行し、誤対応点のペアであると判断する。
以上説明したように、本発明に実施の形態に係る画像照合装置によれば、非関連画像間の特徴点の合致数が高く、関連画像間の幾何変換が大きい場合でも、正確且つ高速に画像を照合することができる。
また、空間関係の制約と幾何変換の制約を結合し、正対応点のペアの同定に用いる空間制約の数と種類を増やすことによって、正対応点の探索漏れや過剰除去等を回避しつつ、誤合致した暫定対応点を除去することで画像間の識別力を高めることが可能となる。
また、「局所特徴量の類似性」に基づいて暫定対応点を先に同定し、次に暫定対応点のペアのみを対象に空間制約の条件を満たすか否かを検証することによって、画像照合の際に必要となるメモリ使用量をより低く抑制可能である。
また、位置座標空間において近傍同士となる暫定対応点のペアのみを対象にすることで、空間制約の条件検証の回数をより低く(探索空間をより小さく)抑制可能である。
なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、上述した実施の形態では、近傍同士となる暫定対応点のペアの集合を抽出して、近傍同士となる暫定対応点のペアの各々について、全ての制約条件を満たすか否かを判定する場合を例に説明したが、これに限定されるものではない。近傍同士となる暫定対応点のペアの集合を抽出せずに、全ての暫定対応点のペアの各々について、全ての制約条件を満たすか否かを判定するようにしてもよい。
本発明は、非関連画像間の特徴点の合致数が高く、関連画像間の幾何変換が大きい場合でも、正確且つ高速に画像を照合することが不可欠な用途にも適用できる。
10 入力部
20 演算部
22 暫定対応点抽出部
24 近傍探索部
26 空間検証部
30、32 特徴点抽出部
34、36 局所特徴量算出部
38、40 ベクトル量子化部
42 ビジュアルワード探索部
44 拡大縮小倍率検証部
46 回転角度検証部
48 相対位置関係検証部
50 出力部
100 画像照合装置

Claims (13)

  1. 入力画像のペア間において対応する特徴点のペアである複数の暫定対応点を抽出する暫定対応点抽出部と、
    前記暫定対応点抽出部によって抽出された前記暫定対応点の組み合わせである前記暫定対応点のペアの各々について、前記暫定対応点の幾何変換パラメータの比較又は差分に基づく、拡大縮小倍率の整合性に関する制約条件、回転角度の整合性に関する制約条件、及び相対位置関係の整合性に関する制約条件の全てに基づいて前記入力画像のペア間の類似度を評価する空間検証部と、
    を含む画像照合装置。
  2. 前記暫定対応点のペアの各々から、前記暫定対応点のペアにおける前記特徴点それぞれのk近傍の前記特徴点の集合に基づいて、近傍同士となる前記暫定対応点のペアを抽出するK近傍探索部を更に含み、
    前記空間検証部は、前記K近傍探索部によって抽出された、近傍同士となる前記暫定対応点のペアの各々に対する制約条件の全てに基づいて前記入力画像のペア間の類似度を評価する、
    請求項1記載の画像照合装置。
  3. 前記拡大縮小倍率の整合性に関する制約条件は、
    前記暫定対応点のペアをなす第1及び第2の暫定対応点における前記特徴点と前記入力画像のペアをなす第1及び第2の入力画像とに関し、
    前記第1の入力画像内における前記特徴点のスケールの大小関係と、前記第2の入力画像内における前記特徴点のスケールの大小関係とにおいて、前記第1又は第2の暫定対応点のいずれか一方の前記特徴点のスケールがともに大きいか、又は、
    前記第1の暫定対応点における前記特徴点のスケールの大小関係と、前記第2の暫定対応点における前記特徴点のスケールの大小関係とにおいて、前記第1又は第2の入力画像のいずれか一方の前記特徴点のスケールがともに大きいことである、
    請求項1記載の画像照合装置。
  4. 前記回転角度の整合性に関する制約条件は、
    前記暫定対応点のペアをなす第1及び第2の暫定対応点における前記特徴点と前記入力画像のペアをなす第1及び第2の入力画像とに関し、
    前記第1の入力画像における前記第1の暫定対応点の特性角と前記第2の入力画像における前記第1の暫定対応点の特性角との差である第1の回転角度と、前記第1の入力画像における前記第2の暫定対応点の特性角と前記第2の入力画像における前記第2の暫定対応点の特性角との差である第2の回転角度との差分の絶対値が予め定められた第1の閾値より小さいことである、
    請求項1記載の画像照合装置。
  5. 前記相対位置関係の整合性に関する制約条件は、
    前記暫定対応点のペアをなす第1及び第2の暫定対応点それぞれの前記特徴点と前記入力画像のペアをなす第1及び第2の入力画像とに関し、
    前記第1の入力画像における前記第1の暫定対応点の前記特徴点と前記第2の暫定対応点の前記特徴点との位置の差を示す第1の相対位置ベクトルと、前記第2の入力画像における前記第1の暫定対応点の前記特徴点と前記第2の暫定対応点の前記特徴点との位置の差を示す第2の相対位置ベクトルとの差分である差分ベクトルの長さの最大値が予め定められた第2の閾値より小さいこと、
    前記第1及び第2の相対位置ベクトルを極座標に変換して得られる動径それぞれが予め定められた第3の閾値より大きいこと、及び、
    前記第1及び第2の相対位置ベクトルを極座標に変換して得られる偏角の差分の絶対値が予め定められた第4の閾値より小さいこと、である、
    請求項1に記載の画像照合装置。
  6. 前記空間検証部は、前記拡大縮小倍率の整合性に関する制約条件、前記回転角度の整合性に関する制約条件、及び前記相対位置関係の整合性に関する制約条件の全てを満たす前記暫定対応点のペアに基づいて、前記入力画像のペア間の類似度を評価する、
    請求項1記載の画像照合装置。
  7. 暫定対応点抽出部及び空間検証部を含む画像照合装置における画像照合方法であって、
    前記暫定対応点抽出部によって、入力画像のペア間において対応する特徴点のペアである複数の暫定対応点を抽出し、
    前記空間検証部によって、前記暫定対応点抽出部によって抽出された前記暫定対応点の組み合わせである前記暫定対応点のペアの各々について、前記暫定対応点の幾何変換パラメータの比較又は差分に基づく、拡大縮小倍率の整合性に関する制約条件、回転角度の整合性に関する制約条件、及び相対位置関係の整合性に関する制約条件の全てに基づいて前記入力画像のペア間の類似度を評価する、
    画像照合方法。
  8. 前記画像照合装置は更にK近傍探索部を含み、
    前記K近傍探索部によって、前記暫定対応点のペアの各々から、前記暫定対応点のペアにおける前記特徴点それぞれのk近傍の前記特徴点の集合に基づいて、近傍同士となる前記暫定対応点のペアを抽出し、
    前記空間検証部は、前記K近傍探索部によって抽出された、近傍同士となる前記暫定対応点のペアの各々に対する制約条件の全てに基づいて前記入力画像のペア間の類似度を評価する、
    請求項7記載の画像照合方法。
  9. 前記拡大縮小倍率の整合性に関する制約条件は、
    前記暫定対応点のペアをなす第1及び第2の暫定対応点における前記特徴点と前記入力画像のペアをなす第1及び第2の入力画像とに関し、
    前記第1の入力画像内における前記特徴点のスケールの大小関係と、前記第2の入力画像内における前記特徴点のスケールの大小関係とにおいて、前記第1又は第2の暫定対応点のいずれか一方の前記特徴点のスケールがともに大きいか、又は、
    前記第1の暫定対応点における前記特徴点のスケールの大小関係と、前記第2の暫定対応点における前記特徴点のスケールの大小関係とにおいて、前記第1又は第2の入力画像のいずれか一方の前記特徴点のスケールがともに大きいことである、
    請求項7記載の画像照合方法。
  10. 前記回転角度の整合性に関する制約条件は、
    前記暫定対応点のペアをなす第1及び第2の暫定対応点における前記特徴点と前記入力画像のペアをなす第1及び第2の入力画像とに関し、
    前記第1の入力画像における前記第1の暫定対応点の特性角と前記第2の入力画像における前記第1の暫定対応点の特性角との差である第1の回転角度と、前記第1の入力画像における前記第2の暫定対応点の特性角と前記第2の入力画像における前記第2の暫定対応点の特性角との差である第2の回転角度との差分の絶対値が予め定められた第1の閾値より小さいことである、
    請求項7記載の画像照合方法。
  11. 前記相対位置関係の整合性に関する制約条件は、
    前記暫定対応点のペアをなす第1及び第2の暫定対応点それぞれの前記特徴点と前記入力画像のペアをなす第1及び第2の入力画像とに関し、
    前記第1の入力画像における前記第1の暫定対応点の前記特徴点と前記第2の暫定対応点の前記特徴点との位置の差を示す第1の相対位置ベクトルと、前記第2の入力画像における前記第1の暫定対応点の前記特徴点と前記第2の暫定対応点の前記特徴点との位置の差を示す第2の相対位置ベクトルとの差分である差分ベクトルの長さの最大値が予め定められた第2の閾値より小さいこと、
    前記第1及び第2の相対位置ベクトルを極座標に変換して得られる動径それぞれが予め定められた第3の閾値より大きいこと、及び、
    前記第1及び第2の相対位置ベクトルを極座標に変換して得られる偏角の差分の絶対値が予め定められた第4の閾値より小さいこと、である、
    請求項7記載の画像照合方法。
  12. 前記空間検証部は、前記拡大縮小倍率の整合性に関する制約条件、前記回転角度の整合性に関する制約条件、及び前記相対位置関係の整合性に関する制約条件の全てを満たす前記暫定対応点のペアに基づいて、前記入力画像のペア間の類似度を評価する、
    請求項7記載の画像照合方法。
  13. コンピュータを、請求項1記載の画像照合装置を構成する各部として機能させるためのプログラム。
JP2017527421A 2015-07-06 2016-07-01 画像照合装置、画像照合方法、及びプログラム Active JP6435048B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015135297 2015-07-06
JP2015135297 2015-07-06
PCT/JP2016/069609 WO2017006852A1 (ja) 2015-07-06 2016-07-01 画像照合装置、画像照合方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2017006852A1 JPWO2017006852A1 (ja) 2017-12-28
JP6435048B2 true JP6435048B2 (ja) 2018-12-05

Family

ID=57685519

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017527421A Active JP6435048B2 (ja) 2015-07-06 2016-07-01 画像照合装置、画像照合方法、及びプログラム

Country Status (4)

Country Link
US (1) US10572766B2 (ja)
EP (1) EP3301641B1 (ja)
JP (1) JP6435048B2 (ja)
WO (1) WO2017006852A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102173244B1 (ko) * 2019-12-10 2020-11-03 (주)인펙비전 Surf 특징점 추적 기반 영상 안정화 시스템

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3499455A4 (en) * 2016-08-08 2019-07-10 Panasonic Intellectual Property Management Co., Ltd. INTERCLASSE AND METHOD FOR DISPLAYING COLLATION RESULT
JP6814178B2 (ja) * 2018-06-11 2021-01-13 日本電信電話株式会社 物体検出装置、方法、及びプログラム
CN110909778B (zh) * 2019-11-12 2023-07-21 北京航空航天大学 一种基于几何一致性的图像语义特征匹配方法
US11830238B2 (en) 2019-11-22 2023-11-28 Nippon Telegraph And Telephone Corporation Identification device, identification method, and identification program
JP7377159B2 (ja) * 2020-04-30 2023-11-09 株式会社デンソー 個体識別システム、個体識別プログラム、及び記録媒体
JP7377162B2 (ja) * 2020-04-30 2023-11-09 株式会社デンソー 個体識別システム
CN112581595B (zh) * 2020-12-02 2023-12-19 中国人民解放军战略支援部队航天工程大学 一种多视角卫星影像一致性分析方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100488685B1 (ko) * 2002-08-22 2005-05-11 한국과학기술원 자동 영상등록 및 보정을 위한 영상 처리방법
JP4492036B2 (ja) 2003-04-28 2010-06-30 ソニー株式会社 画像認識装置及び方法、並びにロボット装置
US8189925B2 (en) * 2009-06-04 2012-05-29 Microsoft Corporation Geocoding by image matching
WO2012114401A1 (ja) * 2011-02-23 2012-08-30 日本電気株式会社 特徴点照合装置、特徴点照合方法、および特徴点照合プログラムが格納された非一時的なコンピュータ可読媒体
FR2972281B1 (fr) * 2011-03-02 2013-04-12 Univ Aix Marseille Procede et systeme pour estimer une similarite entre deux images binaires
US9875386B2 (en) * 2011-11-15 2018-01-23 Futurewei Technologies, Inc. System and method for randomized point set geometry verification for image identification
US20150169993A1 (en) * 2012-10-01 2015-06-18 Google Inc. Geometry-preserving visual phrases for image classification using local-descriptor-level weights
US8929602B2 (en) * 2013-01-31 2015-01-06 Seiko Epson Corporation Component based correspondence matching for reconstructing cables
US9245201B1 (en) * 2013-03-15 2016-01-26 Excelis Inc. Method and system for automatic registration of images
US9087381B2 (en) * 2013-11-13 2015-07-21 Thomas Tsao Method and apparatus for building surface representations of 3D objects from stereo images
JP6126979B2 (ja) * 2013-12-11 2017-05-10 日本電信電話株式会社 特徴選択装置、方法、及びプログラム
EP3089108B1 (en) 2013-12-26 2022-02-02 Nec Corporation Image processing device, subject identification method and program
CN107077590B (zh) * 2014-10-13 2021-03-30 意大利电信股份公司 用于比较视频镜头的方法和系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102173244B1 (ko) * 2019-12-10 2020-11-03 (주)인펙비전 Surf 특징점 추적 기반 영상 안정화 시스템

Also Published As

Publication number Publication date
WO2017006852A1 (ja) 2017-01-12
EP3301641A1 (en) 2018-04-04
EP3301641B1 (en) 2020-08-26
EP3301641A4 (en) 2019-01-23
JPWO2017006852A1 (ja) 2017-12-28
US10572766B2 (en) 2020-02-25
US20180197044A1 (en) 2018-07-12

Similar Documents

Publication Publication Date Title
JP6435048B2 (ja) 画像照合装置、画像照合方法、及びプログラム
Sattler et al. Image Retrieval for Image-Based Localization Revisited.
US8533162B2 (en) Method for detecting object
US10339409B2 (en) Method and a device for extracting local features of a three-dimensional point cloud
Ganapathi et al. Geometric statistics-based descriptor for 3D ear recognition
Das et al. A robust method for detecting copy-move image forgery using stationary wavelet transform and scale invariant feature transform
JP4721829B2 (ja) 画像検索方法及び装置
JP2015007919A (ja) 異なる視点の画像間で高精度な幾何検証を実現するプログラム、装置及び方法
JP5986681B2 (ja) モデルの形状記述子を生成する方法及び装置
Jaafar et al. New copy-move forgery detection algorithm
JP2009032109A (ja) 文書画像検索方法、文書画像登録方法、そのプログラムおよび装置
Nguyen et al. Ellipse detection through decomposition of circular arcs and line segments
JP6092012B2 (ja) 物体識別システムおよび物体識別方法
JP6322593B2 (ja) 画像照合装置、及び方法
JP4320439B2 (ja) 線図形マッチング方法
Manandhar et al. Feature repetitiveness similarity metrics in visual search
Baccour et al. A comparative study of a fuzzy similarity measure aggregated with fuzzy implications applied to shape recognition
JP6320806B2 (ja) 三次元モデル検索方法、及び三次元モデル検索システム
JP6095559B2 (ja) 特徴抽出装置、方法、及びプログラム
CN106649624B (zh) 基于全局关系一致性约束的局部特征点验证方法
Yang et al. A Robust Scheme for 3D Point Cloud Copy Detection
JP6946959B2 (ja) 同一性判定装置、局所特徴抽出装置、方法、及びプログラム
Devi et al. Clustering Based Feature Extraction for Image Forgery Detection
Pae¹ et al. Pattern Matching for Industrial Object Recognition Using Geometry Based Vector Mapping Descriptor
Yin et al. A Scale Normalization Algorithm Based on MR-GDS for Archaeological Fragments Reassembly

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181109

R150 Certificate of patent or registration of utility model

Ref document number: 6435048

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150