JP2013016073A - Image collation device, image collation method and computer program - Google Patents
Image collation device, image collation method and computer program Download PDFInfo
- Publication number
- JP2013016073A JP2013016073A JP2011149428A JP2011149428A JP2013016073A JP 2013016073 A JP2013016073 A JP 2013016073A JP 2011149428 A JP2011149428 A JP 2011149428A JP 2011149428 A JP2011149428 A JP 2011149428A JP 2013016073 A JP2013016073 A JP 2013016073A
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature vector
- value
- upper limit
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、画像照合装置、画像照合方法及びコンピュータプログラムに関し、特に、二つの画像が類似するか否かを判定する画像照合装置、画像照合方法及びコンピュータプログラムに関する。 The present invention relates to an image collation apparatus, an image collation method, and a computer program, and more particularly, to an image collation apparatus, an image collation method, and a computer program that determine whether two images are similar.
画像照合技術は、テンプレートマッチング、ブロック動き補償、画像圧縮、ステレオビジョン等の、多くの画像を用いたアプリケーションにおける重要な技術の一つである。最近は、画像の近似コピー検出、画像マイニング及びその画像アノテーションへの応用等、大規模な画像/映像データベースにおける画像照合技術の新しいアプリケーションについても研究が開始されている。 Image matching technology is one of important technologies in applications using many images, such as template matching, block motion compensation, image compression, and stereo vision. Recently, research has also begun on new applications of image matching technology in large-scale image / video databases, such as approximate copy detection of images, image mining and its application to image annotation.
一般に、画像照合の方法として、画素値の差の絶対値の合計(SAD:Sum of Absolute Difference)、画素値の差の二乗の合計(SSD:Sum of Squared Difference)、正規化相互相関(NCC:Normalized Cross-Correlation)等が用いられている。特に、NCCは、画像間の輝度のずれ、コントラストの違い等による影響が少なく、輝度の補正等がなされた画像間の照合にも適している。例えば、水平方向をx軸、垂直方向をy軸とする画像I1と画像I2についてのNCC値は、式(1)で定義される。
そこで、例えば、非特許文献1には、NCCに基づくテンプレートマッチング処理を高速化するための技術が開示されている。非特許文献1に開示された技術は、画像全体に対してテンプレートをずらしながらスキャンする場合、畳み込み演算を用いて各位置での照合結果を求める。一方、空間領域間の畳み込み演算は、周波数領域間での単純な掛け算に変換できるので、空間領域のデータを高速フーリエ変換(FFT:Fast Fourie Transform)を用いて周波数領域に変換することにより処理を高速化できる。しかし、この技術はある画像に対してテンプレートをスキャンする場合には効果的であるが、複数の画像に対して照合をする場合は各画像に対してFFT及び逆FFTを行う必要があり、かえって処理が遅くなるおそれがある。
Thus, for example, Non-Patent
一方、非特許文献2には、NCCの演算処理を効率化するための技術として、MSEA(multilevel successive elimination algorithm)が開示されている。非特許文献2に開示された技術では、式(2)に示すCauchy-Schwarzの不等式に基づいてNCCの上限値が算出される。
画像I1と画像I2についてブロック内画素数がmである、n個のブロックに分割した場合、式(1)のNCC値は、ブロックの番号i(1≦i≦n)及びブロック内の画素の番号j(1≦j≦m)を用いて式(3)で表される。
非特許文献2に開示された技術を用いることにより、高速に画像照合を実施することができる。しかしながら、非特許文献2に開示されたNCCの上限値は、NCC値より大きくなりすぎる場合がある。その場合、照合する二画像のNCC値が低いにも関わらず、その二画像の類似性が高いと判定するおそれがあった。
By using the technique disclosed in Non-Patent
そこで、本発明の目的は、画像照合を高速に実施するとともに、画像の類似性を高精度に判定することが可能な画像照合装置、画像照合方法及びそのような画像照合方法をコンピュータに実行させるコンピュータプログラムを提供することにある。 SUMMARY OF THE INVENTION An object of the present invention is to execute an image matching at a high speed and to cause a computer to execute an image matching device, an image matching method, and such an image matching method that can determine the similarity of images with high accuracy. To provide a computer program.
本発明に係る画像照合装置は、第1画像を複数のブロックに分割し、第2画像を第1画像と同数のブロックに分割する画像分割部と、第1画像及び第2画像のそれぞれについて、各ブロックに含まれる画素の正規化画素値の総和及び各ブロックに含まれる画素の正規化画素値の二乗和に基づき、第1画像の特徴ベクトル及び第2画像の特徴ベクトルを算出する特徴ベクトル算出部と、ラグランジュの未定乗算決定法を利用して2つの画像の正規化相互相関値を求める式から導いた2つの画像の正規化相互相関の上限値を算出する式を用いて、算出された第1画像の特徴ベクトル及び第2画像の特徴ベクトルに基づき、第1画像と第2画像の正規化相互相関の上限値を算出する上限値算出部と、上限値が第1の閾値以上であるか否かに基づいて第1画像と第2画像を照合する第1照合部と、を有する。 An image collation device according to the present invention divides a first image into a plurality of blocks, and divides the second image into the same number of blocks as the first image, and each of the first image and the second image, Feature vector calculation for calculating the feature vector of the first image and the feature vector of the second image based on the sum of the normalized pixel values of the pixels included in each block and the square sum of the normalized pixel values of the pixels included in each block And an equation for calculating the upper limit value of the normalized cross-correlation between the two images derived from the equation for obtaining the normalized cross-correlation value between the two images using the Lagrange's undetermined multiplication determination method. An upper limit calculation unit that calculates an upper limit value of the normalized cross-correlation between the first image and the second image based on the feature vector of the first image and the feature vector of the second image, and the upper limit value is greater than or equal to the first threshold value Based on whether or not It has a first matching portion for matching the first image and the second image.
さらに、本発明に係る画像照合装置において、特徴ベクトル算出部は、mをブロック内の画素数、nをブロックの数、φi,jを第1画像におけるi番目のブロック内のj番目の画素の画素値、φaveを第1画像の全画素の画素値の平均値として、次のベクトルξxを第1画像の特徴ベクトルとして算出し、
さらに、本発明に係る画像照合装置において、上限値が第1の閾値以上である第1画像と第2画像の正規化相互相関値を算出する正規化相互相関値算出部と、正規化相互相関値が第1の閾値以下の値である第2の閾値以上であるか否かに基づいて第1画像と第2画像を詳細に照合する第2照合部と、をさらに有することが好ましい。 Furthermore, in the image collation device according to the present invention, a normalized cross-correlation value calculation unit that calculates a normalized cross-correlation value between the first image and the second image whose upper limit value is equal to or greater than the first threshold, and normalized cross-correlation It is preferable to further include a second collation unit that collates the first image and the second image in detail based on whether or not the value is equal to or greater than a second threshold that is a value equal to or less than the first threshold.
また、本発明に係る画像照合方法は、第1画像を複数のブロックに分割するステップと、第1画像について、各ブロックに含まれる画素の正規化画素値の総和及び各ブロックに含まれる画素の正規化画素値の二乗和に基づき、第1画像の特徴ベクトルを算出するステップと、第2画像を第1画像と同数のブロックに分割するステップと、第2画像について、各ブロックに含まれる画素の正規化画素値の総和及び各ブロックに含まれる画素の正規化画素値の二乗和に基づき、第2画像の特徴ベクトルを算出するステップと、ラグランジュの未定乗算決定法を利用して2つの画像の正規化相互相関値を求める式から導いた2つの画像の正規化相互相関の上限値を算出する式を用いて、算出された第1画像の特徴ベクトル及び第2画像の特徴ベクトルに基づき、第1画像と第2画像の正規化相互相関の上限値を算出するステップと、上限値が第1の閾値以上であるか否かに基づいて第1画像と第2画像を照合するステップと、を含む。 The image collating method according to the present invention includes a step of dividing the first image into a plurality of blocks, a sum of normalized pixel values of pixels included in each block, and a pixel included in each block. A step of calculating a feature vector of the first image based on a sum of squares of normalized pixel values, a step of dividing the second image into the same number of blocks as the first image, and a pixel included in each block with respect to the second image Calculating a feature vector of the second image based on the sum of the normalized pixel values of the pixel and the square sum of the normalized pixel values of the pixels included in each block, and two images using Lagrange's undetermined multiplication determination method The feature vector of the first image and the feature vector of the second image calculated using the formula for calculating the upper limit value of the normalized cross-correlation of the two images derived from the formula for obtaining the normalized cross-correlation value of And calculating the upper limit value of the normalized cross-correlation between the first image and the second image, and collating the first image with the second image based on whether the upper limit value is equal to or greater than the first threshold value. Steps.
さらに、本発明に係る画像照合方法において、第1画像の特徴ベクトルを算出するステップにおいて、mをブロック内の画素数、nをブロックの数、φi,jを第1画像におけるi番目のブロック内のj番目の画素の画素値、φaveを第1画像の全画素の画素値の平均値として、次のベクトルξxを第1画像の特徴ベクトルとして算出し、
さらに、本発明に係る画像照合方法において、上限値が第1の閾値以上である第1画像と第2画像の正規化相互相関値を算出するステップと、正規化相互相関値が第1の閾値以下の値である第2の閾値以上であるか否かに基づいて第1画像と第2画像を詳細に照合するステップと、をさらに有することが好ましい。 Furthermore, in the image matching method according to the present invention, a step of calculating a normalized cross-correlation value between the first image and the second image whose upper limit value is equal to or greater than a first threshold value, and the normalized cross-correlation value is a first threshold value. It is preferable that the method further includes a step of comparing the first image and the second image in detail based on whether or not the second value is equal to or greater than a second value which is the following value.
また、本発明に係るコンピュータプログラムは、第1画像を複数のブロックに分割するステップと、第1画像について、各ブロックに含まれる画素の正規化画素値の総和及び各ブロックに含まれる画素の正規化画素値の二乗和に基づき、第1画像の特徴ベクトルを算出するステップと、第2画像を第1画像と同数のブロックに分割するステップと、第2画像について、各ブロックに含まれる画素の正規化画素値の総和及び各ブロックに含まれる画素の正規化画素値の二乗和に基づき、第2画像の特徴ベクトルを算出するステップと、ラグランジュの未定乗算決定法を利用して2つの画像の正規化相互相関値を求める式から導いた2つの画像の正規化相互相関の上限値を算出する式を用いて、算出された第1画像の特徴ベクトル及び第2画像の特徴ベクトルに基づき、第1画像と第2画像の正規化相互相関の上限値を算出するステップと、上限値が第1の閾値以上であるか否かに基づいて第1画像と第2画像を照合するステップと、をコンピュータに実行させる。 The computer program according to the present invention also includes a step of dividing the first image into a plurality of blocks, a sum of normalized pixel values of pixels included in each block, and a normalization of pixels included in each block. A step of calculating a feature vector of the first image based on the sum of squares of the pixel values, a step of dividing the second image into the same number of blocks as the first image, and for the second image, the pixels included in each block Based on the sum of normalized pixel values and the sum of squares of normalized pixel values of pixels included in each block, a step of calculating a feature vector of the second image, and using Lagrange's undetermined multiplication determination method, Using the equation for calculating the upper limit value of the normalized cross-correlation between the two images derived from the equation for obtaining the normalized cross-correlation value, the calculated feature vector of the first image and the second image Calculating an upper limit value of the normalized cross-correlation between the first image and the second image based on the characteristic vector; and determining whether the first image and the second image are based on whether the upper limit value is greater than or equal to the first threshold value. And causing the computer to execute the matching step.
本発明によれば、画像照合を高速に実施するとともに、画像の類似性を高精度に判定することが可能な画像照合装置、画像照合方法及びそのような画像照合方法をコンピュータに実行させるコンピュータプログラムを提供することができる。 According to the present invention, an image collation apparatus, an image collation method, and a computer program for causing a computer to execute such an image collation method can perform image collation at high speed and determine the similarity of images with high accuracy. Can be provided.
以下、本発明に係る画像照合装置、画像照合方法及びコンピュータプログラムについて図を参照しつつ説明する。但し、本発明の技術的範囲はそれらの実施の形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶ点に留意されたい。 Hereinafter, an image matching apparatus, an image matching method, and a computer program according to the present invention will be described with reference to the drawings. However, it should be noted that the technical scope of the present invention is not limited to these embodiments, but extends to the invention described in the claims and equivalents thereof.
図1は、本発明を適用した画像照合装置の概略構成を示す図である。図1に示すように、画像照合装置1は、インターフェース部11、記憶部12、表示部13及び制御部20を有する。以下、画像照合装置1の各部について詳細に説明する。
FIG. 1 is a diagram showing a schematic configuration of an image collating apparatus to which the present invention is applied. As illustrated in FIG. 1, the
インターフェース部11は、例えばインターネット、電話回線網(携帯端末回線網、一般電話回線網を含む)、イントラネット等のネットワークを介して他のコンピュータ等と画像データ及び各種のデータを送受信する通信インターフェースであり、接続するネットワークの通信インターフェース回路を有する。また、インターフェース部11は、例えばUSB等のシリアルバスに準じるインターフェース回路を有し、フラッシュメモリ等を接続し、そのフラッシュメモリ等から画像データ及び各種のデータを取得するようにしてもよい。インターフェース部11は、制御部20と接続されており、制御部20により制御される。
The interface unit 11 is a communication interface that transmits and receives image data and various data to and from other computers via a network such as the Internet, a telephone line network (including a mobile terminal line network and a general telephone line network), and an intranet. And a communication interface circuit of a network to be connected. Further, the interface unit 11 may include an interface circuit conforming to a serial bus such as a USB, for example, and may be connected to a flash memory or the like to acquire image data and various data from the flash memory or the like. The interface unit 11 is connected to the
記憶部12は、RAM、ROM等のメモリ装置、ハードディスク等の固定ディスク装置、又はフレキシブルディスク、光ディスク等の可搬用の記憶装置等を有する。また、記憶部12には、画像照合装置1の各種処理に用いられるコンピュータプログラム、データベース、テーブル等が格納される。記憶部12は、制御部20と接続され、インターフェース部11を介して取得した画像データを格納するとともに、制御部20により画像データについてなされた演算結果を格納する。
The
制御部20は、複数の画像について特徴ベクトルを算出し、各画像が類似するか否かを判定する。そのために、制御部20は、第1画像取得部21、第1画像分割部22、第1特徴ベクトル算出部23、第2画像取得部24、第2画像分割部25、第2特徴ベクトル算出部26、上限値算出部27及び第1照合部28を有する。また、制御部20は、インターフェース部11、記憶部12及び表示部13と接続され、インターフェース部11のデータ送受信制御、記憶部12の制御、表示部13の表示制御等を行う。制御部20は、予め記憶部12に記憶されているプログラムに基づいて動作する。あるいは、制御部20は、集積回路、マイクロプロセッサ、ファームウェア等で構成されてもよい。
The
図2は、画像照合装置1による画像照合処理の動作を示すフローチャートである。以下、図2に示したフローチャートを参照しつつ、画像照合処理の動作を説明する。なお、以下に説明する動作のフローは、予め記憶部12に記憶されているプログラムに基づき主に制御部20により画像照合装置1の各要素と協同して実行される。
FIG. 2 is a flowchart showing the operation of image collation processing by the
最初に、第1画像取得部21は、インターフェース部11を介して、外部のコンピュータ、フラッシュメモリ等から画像を取得し(以下、第1画像取得部21が取得した画像を第1画像と称する)、記憶部12に保存する(ステップS201)。
First, the first
次に、第1画像分割部22は、記憶部12に保存された第1画像を読み出し、第1画像を所定サイズの複数のブロックに分割する(ステップS202)。例えば、第1画像分割部22は、352×240画素の画像を22×15画素の256ブロックに分割する。
Next, the first
図3は、ブロック毎に分割した画像の例を示す模式図である。図3の例では、画像300を、各ブロックの画素数がmであるn個のブロックに分割した画像310を示す。
FIG. 3 is a schematic diagram illustrating an example of an image divided for each block. The example of FIG. 3 shows an
次に、第1特徴ベクトル算出部23は、第1画像について、分割したブロックに含まれる画素の正規化画素値の総和及び各ブロックに含まれる画素の正規化画素値の二乗和に基づく特徴ベクトルを算出し、第1画像と関連付けて記憶部12に保存する(ステップS203)。
Next, for the first image, the first feature
画像x、画像yについてブロック内画素数がmである、n個のブロックに分割した場合のNCC値を、ブロックの番号i(1≦i≦n)及びブロック内の画素の番号j(1≦j≦m)を用いて式(11)で定義する。
画像x及び画像yの各画素の正規化画素値xi,j及びyi,jを式(12)で定義する。
式(11)のNCC値は、式(12)の正規化画素値xi,j及びyi,jを用いて式(14)で表される。
また、画像xのi番目のグループにおける正規化画素値xi,jの総和及び二乗和並びに画像yのi番目のグループにおける正規化画素値yi,jの総和及び二乗和を式(15)〜(18)で定義する。
以下、ラグランジュの未定乗数決定法を利用して式(14)から2つの画像のNCCの厳密な上限値を算出する式を求める。本実施形態では、式(21)の関数の極値問題を考える。
ここで、式(24)が成立すると仮定すると、xi,j、yi,jは式(25)で求められる。
まず、式(22)から式(28)が得られる。
つまり、NCCの上限値UBは式(34)で与えられ、NCCの下限値LBは式(35)で与えられる。
一方、式(34)の上限値UBは、式(36)に示されるように、式(37)、(38)で示される特徴ベクトルξxとξyの内積となる。
次に、第2画像取得部24は、インターフェース部11を介して、外部のコンピュータ、フラッシュメモリ等から画像を取得し(以下、第2画像取得部24が取得した画像を第2画像と称する)、記憶部12に保存する(ステップS204)。
Next, the second
次に、第2画像分割部25は、記憶部12に保存された第2画像を読み出し、第1画像を分割したブロックとそれぞれ同サイズ、同数の複数のブロックに分割する(ステップS205)。
Next, the second
次に、第2特徴ベクトル算出部26は、第2画像について、分割したブロックに含まれる画素の正規化画素値の総和及び各ブロックに含まれる画素の正規化画素値の二乗和に基づく特徴ベクトル、つまり式(38)の特徴ベクトルξyを算出し、第2画像と関連付けて記憶部12に保存する(ステップS206)。
Next, for the second image, the second feature
次に、上限値算出部27は、式(36)に示すように特徴ベクトルξx、ξyの内積を算出して、上限値UBを求める(ステップS207)。
Next, the
次に、第1照合部28は、上限値UBが所定の閾値θ1以上であるか否かに基づいて第1画像と前記第2画像を照合する。まず、第1照合部28は、上限値UBが閾値θ1以上であるか否かを判定する(ステップS208)。この閾値θ1は、NCCを用いて二つの画像が類似するか否かを判定するときに、NCC値と比較する閾値θ0(−1≪θ0<1)と同じ値である。あるいは、閾値θ1は、閾値θ0より大きい値としてもよい。
Next, the
第1照合部28は、上限値UBが閾値θ1以上である場合、第1画像が第2画像と類似すると判定し(ステップS209)、一連のステップを終了する。一方、第1照合部28は、上限値UBが閾値θ1未満である場合、第1画像が第2画像と類似しないと判定し(ステップS210)、一連のステップを終了する。
The
例えば、画像照合装置1は、類似すると判定した画像のペアを利用者が確認できるように、表示部13に表示する。あるいは、画像照合装置1は、類似すると判定した画像のペアの情報をインターフェース部11を介して外部のコンピュータ(不図示)に通知してもよい。
For example, the
なお、上限値UBと下限値LBの間の範囲が狭いほど、上限値UBは、NCC値をより正確に近似していることになる。上限値UBと下限値LBの間の範囲は、式(34)、(35)から、式(39)により求めることができる。
つまり、上限値UBと下限値LBの間の範囲を狭くするためには、各ブロック内部の正規化画素値の分散を小さくするか、一ブロック内の画素数mを小さくする必要がある。しかし、一ブロック内の画素数mを小さくすると、ブロック数nが大きくなり、特徴ベクトルξxとξyの次元数が大きくなるため、現実的でない。従って、同一ブロック内の画素の間の正規化画素値の差が可能な限り小さくなるように各ブロックを構成し、各ブロック内部の正規化画素値の分散を小さくすることが好ましい。一般に、画像のマルコフ性により、近傍の画素の(正規化)画素値は、非常に近い値をもつことが知られている。従って、例えばブロックの形状を、長方形、特に正方形に近い形にすることにより、各ブロック内の画素の画素値を近付け、上限値UBをよりNCC値に近似させることができる。 That is, in order to narrow the range between the upper limit value UB and the lower limit value LB, it is necessary to reduce the dispersion of normalized pixel values within each block or to reduce the number m of pixels in one block. However, if the number of pixels m in one block is reduced, the number of blocks n increases and the number of dimensions of the feature vectors ξ x and ξ y increases, which is not practical. Therefore, it is preferable to configure each block so that the difference in normalized pixel values between pixels in the same block is as small as possible, and to reduce the variance of normalized pixel values within each block. In general, it is known that the (normalized) pixel values of neighboring pixels have very close values due to the Markov nature of the image. Therefore, for example, by making the shape of the block a rectangle, especially a shape close to a square, the pixel values of the pixels in each block can be brought closer, and the upper limit value UB can be more approximated to the NCC value.
なお、MSEAにより算出されるNCCの上限値UBMSEAは、式(5)から式(45)のように表される。
以上詳述したように、図2に示したフローチャートに従って動作することによって、画像照合装置1は、元の情報量(数万程度の画素数)から大幅に圧縮した(数十〜百程度の)特徴ベクトル(すなわち低次元特徴量)を用いて、画像の類似性を高速かつ高精度に判定することが可能となった。
As described above in detail, by operating according to the flowchart shown in FIG. 2, the
なお、画像照合装置1は、照合する二画像のサイズが異なる場合、二画像のサイズを同一サイズに正規化することにより、サイズの異なる二画像についても低次元特徴量を用いた画像照合をすることができる。
Note that, when the two images to be collated are different in size, the
図4は、制御部の他の例を示す概略構成図である。図4に示す制御部30は、図1に示す制御部20の代わりに用いることが可能である。図4に示す制御部30は、図1に示す制御部20の各部に加えて、NCC値算出部31と第2照合部32を有する。
FIG. 4 is a schematic configuration diagram illustrating another example of the control unit. The
図5は、図4に示す制御部30を用いる画像照合装置1による詳細な画像照合処理の動作を示すフローチャートである。以下、図5に示したフローチャートを参照しつつ、詳細な画像照合処理の動作を説明する。なお、以下に説明する動作のフローは、予め記憶部12に記憶されているプログラムに基づき主に制御部30により画像照合装置1の各要素と協同して実行される。また、図5に示したフローチャートは、図2に示したフローチャートにより、類似すると判定された画像のペアに対して実行される。
FIG. 5 is a flowchart showing a detailed image matching process operation by the
最初に、NCC値算出部31は、類似すると判定された第1画像と第2画像について式(11)を用いてNCC値を算出する(ステップS501)。
First, the NCC
次に、第2照合部32は、NCC値算出部31により算出されたNCC値が所定の閾値θ0(例えば0.9)以上であるか否かに基づいて第1画像と第2画像を詳細に照合する。まず、第2照合部32は、NCC値が閾値θ0以上であるか否かを判定する(ステップS502)。なお、上述した通り、この閾値θ0は閾値θ1以下の値の閾値である。
Next, the
第2照合部32は、NCC値が閾値θ0以上である場合、第1画像と第2画像は類似すると判定し(ステップS503)、一連のステップを終了する。一方、第2照合部23は、NCC値が閾値θ0未満である場合、第1画像と第2画像は類似しないと判定し(ステップS504)、一連のステップを終了する。
If the NCC value is equal to or greater than the threshold value θ 0 , the
例えば、画像照合装置1は、図5に示したフローチャートにより類似すると判定した画像のペアを表示部13に表示する。あるいは、画像照合装置1は、図5に示したフローチャートにより類似すると判定した画像のペアの情報をインターフェース部11を介して外部のコンピュータ(不図示)に通知してもよい。
For example, the
なお、制御部20は、第1画像取得部21と第2画像取得部24の代わりに、第1画像及び第2画像の何れをも取得できる画像取得部を備えることもできる。また、第1画像分割部22と第2画像分割部25の代わりに第1画像及び第2画像の何れをも所定のブロックに分割できる画像分割部を備えることもできる。さらに、第1特徴ベクトル算出部23と第2特徴ベクトル算出部26の代わりに第1画像の特徴ベクトル及び第2画像の特徴ベクトルの何れをも算出できる特徴ベクトル算出部を備えることもできる。
The
また、ステップS204〜S206の第2画像に対する処理は、ステップS201〜S203の第1画像に対する処理より前に実施してもよい。また、画像照合装置1が複数のCPUを備えること等により、並列処理が可能な場合には、ステップS204〜S206の第2画像に対する処理と、ステップS201〜S203の第1画像に対する処理を並列に実施してもよい。
Further, the processing for the second image in steps S204 to S206 may be performed before the processing for the first image in steps S201 to S203. In addition, when the
以上詳述したように、図5に示したフローチャートに従って動作することによって、画像照合装置1は、低次元空間での類似性が高い(NCCの上限値UBが閾値θ1以上の)画像のペアのうち、オリジナル空間での類似性が低い(NCC値が閾値θ0未満の)画像のペアを取り除く(クレンジングする)ことができる。これにより、画像照合装置1は、ある画像のペアに対して低負荷で類似性を判定しておき、その判定において類似性が高いと判定した画像のペアのみについて高負荷で高精度に類似性を判定するので、効率よく画像を照合できるようになった。
As described above in detail, by operating according to the flowchart shown in FIG. 5, the
図6は、画像照合装置を画像検索サーバに適用する場合の制御部の概略構成図である。図6に示す制御部40は、図1に示す制御部20又は図4に示す制御部30の代わりに用いることが可能である。図6に示す制御部40は、図4に示す制御部30の各部に加えて、インデックス判定部41を有する。なお、以下では、第1画像を事前に記憶部12に格納された照合元の画像とし、第2画像を外部のコンピュータ(不図示)等から検索を要求された問合せ画像として説明する。
FIG. 6 is a schematic configuration diagram of a control unit when the image matching device is applied to an image search server. The
図7は、図6に示す制御部40を用いる画像照合装置1による画像の取得処理の動作を示すフローチャートである。以下、図7に示したフローチャートを参照しつつ、画像取得処理の動作を説明する。なお、以下に説明する動作のフローは、予め記憶部12に記憶されているプログラムに基づき主に制御部40により画像照合装置1の各要素と協同して実行される。
FIG. 7 is a flowchart showing the operation of the image acquisition process by the
図7に示すフローチャートでは、画像照合装置1は、第1画像の取得のみを実施し、第1画像と第2画像の照合処理は、後述するフローチャートで説明する。図7に示すステップS701〜S703の処理は、図2に示すステップS201〜S203の処理と同じであるため、説明を省略する。
In the flowchart illustrated in FIG. 7, the
第1特徴ベクトル算出部23は、第1画像について特徴ベクトルを算出すると、算出した特徴ベクトルに基づいて多次元インデックスを作成する(ステップS704)。
When calculating the feature vector for the first image, the first feature
式(48)、(49)に示すように、式(37)、(38)で求められる特徴ベクトルξx、ξyのノルムは1になる。
従って、画像照合装置1は、特徴ベクトルξxとξyの内積を算出する代わりに、特徴ベクトルξxとξyのユークリッド空間における距離探索を行うことにより、式(52)の条件を満たす画像のペアを抽出することができる。
この場合、画像照合装置1は、ユークリッド距離を用いた距離探索をサポートする、多次元データに対するインデキシング技術(Bohm, C., Berchtold, S., Keim, D. A., September 2001. Searching in high-dimensional spaces: Index structures for improving the performance of multimedia databases. ACM Computing Surveys 33 (3), 322-373.)を適用することができ、画像照合のさらなる高速化を図ることができる。画像照合装置1は、多次元インデキシング技術として、例えば、木構造を用いるANN(Approximate Nearest Neighbors)(Arya, S., Mount, D. M., Netanyahu, N. S., Silverman, R., Wu, A. Y., November 1998. An optimal algorithm for approximate nearest neighbor searching fixed dimensions. J. ACM 45, 891-923.)、ハッシュを用いるLSH(Locality Sensitive Hashing)(Andoni, A., Indyk, P., 2008. Near-optimal hashing algorithms for approximate nearest neighbor in high dimensions. Commun. ACM 51 (1), 117-122.)、階層的ベクトル量子化(Nister, D., Stewenius, H., 2006. Scalable recognition with a vocabulary tree. In: Proc. of CVPR. Vol. 2. pp. 2161-2168.)、ベクトル量子化及びスカラー量子化(ハミングエンベディング)(Douze, M., Je´gou, H., Sandhawalia, H., Amsaleg, L., Schmid, C., 2009. Evaluation of gist descriptors for web-scale image search. In: Proceeding of the ACM International Conference on Image and Video Retrieval. CIVR ’09. ACM, New York, NY, USA, pp. 19:1-19:8.)等の、高次元空間におけるk近傍法(k−NN探索)を用いた技術を利用できる。
In this case, the
例えば、多次元インデキシング技術としてLSHを利用する場合、第1特徴ベクトル算出部23は、特徴ベクトルに対して、予め定められた複数のハッシュ関数を用いて複数のハッシュ値を算出し、多次元インデックスとする。
For example, when LSH is used as a multidimensional indexing technique, the first feature
あるいは、多次元インデキシング技術としてANNを利用する場合、画像照合装置1は、特徴ベクトルについての特徴空間を予め所定の領域に分割しておく。そして、第1特徴ベクトル算出部23は、特徴ベクトルが属する特徴空間の領域を多次元インデックスとする。
Or when using ANN as a multidimensional indexing technique, the
第1特徴ベクトル算出部23は、多次元インデックスを作成すると、第1画像と関連付けて記憶部12に格納し(ステップS705)、一連のステップを終了する。
When the first feature
図8は、画像照合装置1が画像検索サーバとして動作する場合の画像照合処理の動作を示すフローチャートである。以下、図8に示したフローチャートを参照しつつ、画像照合処理の動作を説明する。なお、以下に説明する動作のフローは、予め記憶部12に記憶されているプログラムに基づき主に制御部40により画像照合装置1の各要素と協同して実行される。
FIG. 8 is a flowchart showing the operation of the image matching process when the
なお、図8に示すステップS801〜S803の処理は、図2に示すステップS204〜S206の処理と同じであるため、説明を省略する。ただし、多次元インデキシング技術としてLSHを利用する場合、第2特徴ベクトル算出部26は、ステップS803で第2画像について特徴ベクトルを算出した後、その特徴ベクトルについて、第1画像の特徴ベクトルに対してハッシュ値を算出したのと同一の、複数のハッシュ関数を用いて複数のハッシュ値を算出する。
Note that the processing in steps S801 to S803 shown in FIG. 8 is the same as the processing in steps S204 to S206 shown in FIG. However, when LSH is used as the multidimensional indexing technique, the second feature
ステップS804〜S808の処理は、記憶部12に格納された全ての第1画像に対して各画像毎に実施される。
The processes in steps S804 to S808 are performed for each image on all the first images stored in the
ステップS804において、インデックス判定部41は、第2特徴ベクトル算出部26により第2画像について特徴ベクトルが算出されると、記憶部12から第1画像の特徴ベクトル及び多次元インデックスを読み出す(ステップS804)。
In step S804, when the second feature
次に、インデックス判定部41は、第1画像の特徴ベクトルと第2画像の特徴ベクトルが多次元インデックスに基づく条件を満たしているか否かを判定する(ステップS805)。
Next, the
例えば、多次元インデキシング技術としてLSHを利用する場合、インデックス判定部41は、記憶部12から読み出した第1画像の特徴ベクトルのハッシュ値が、第2画像の特徴ベクトルの対応するハッシュ値と所定数(例えば、全ハッシュ値のうちの半数)以上一致するか否かにより、多次元インデックスに基づく条件を満たしているか否かを判定する。
For example, when LSH is used as the multidimensional indexing technique, the
あるいは、多次元インデキシング技術としてANNを利用する場合、インデックス判定部41は、第1画像の特徴ベクトルが属する特徴空間の領域が、第2画像の特徴ベクトルとのユークリッド距離が(2−2θ1)以下となる部分を含むか否かにより、多次元インデックスに基づく条件を満たしているか否かを判定する。
Alternatively, when ANN is used as the multidimensional indexing technique, the
インデックス判定部41が多次元インデックスに基づく条件を満たしていると判定した場合、第1照合部28は、第1画像の特徴ベクトルと第2画像の特徴ベクトルのユークリッド距離が式(51)の条件を満たすか否かを判定する(ステップS806)。
When the
第1照合部28は、式(51)の条件が満たされている場合、その第1画像を第2画像に類似する画像の候補(以下、類似画像候補と称する)として抽出する(ステップS807)。
If the condition of formula (51) is satisfied, the
一方、ステップS805でインデックス判定部41が多次元インデックスに基づく条件が満たされていないと判定した場合、ステップS806で第1照合部28が式(51)の条件が満たされていないと判定した場合、又は、ステップS807で第1照合部28が類似画像候補を抽出した場合、制御部40は、第2画像を全ての第1画像と比較したか否かを判定する(ステップS808)。
On the other hand, when the
制御部40は、まだ第2画像と比較していない第1画像がある場合、ステップS804〜S807の処理を繰り返し、全ての第2画像と第1画像との比較が完了すると、一連のステップを終了する。
When there is a first image that has not yet been compared with the second image, the
制御部40は、図8のフローチャートを終了した後、さらに、図5に示したフローチャートを実施し、第2画像の類似画像候補として抽出した第1画像についてNCC値を用いて詳細に画像照合を行う。そして、制御部40は、第2画像と類似すると判定した第1画像の情報をインターフェース部11を介して検索を要求したコンピュータに通知する。あるいは、制御部40は、図8のフローチャートにより類似画像候補として抽出した第1画像の情報をインターフェース部11を介して検索を要求したコンピュータに通知してもよい。
After completing the flowchart of FIG. 8, the
以上詳述したように、図8に示したフローチャートに従って動作することによって、画像照合装置1は、画像検索サーバとして動作し、複数の画像に対する画像照合を高速かつ高精度に実施することが可能となった。また、所定の画像を複数の画像と照合する場合に多次元インデックス構造を利用して照合処理を高速化することが可能となった。
As described in detail above, by operating according to the flowchart shown in FIG. 8, the
以下、本実施形態の低次元変換方法による類似画像の抽出精度について説明する。複数の画像Ii 1を有する画像セットIS1(IS1={Ii 1})と複数の画像Ii 2を有する画像セットIS2(IS2={Ii 2})において、NCC値が閾値θ0より大きくなる画像のペアの集合IIPSは、式(53)のように表される。
上述した通り、NCC値は上限値UB以下となるので、上限値UBがθ0以下である場合、NCC値は確実にθ0以下となり、対応する画像のペアは確実にIIPSに含まれないと判断できる。つまり、式(55)の関係が成立し、IIPSに含まれる画像のペアがIIPS'から取りこぼされることはない。
一方、IIPSに対してIIPS'が大きくなりすぎると、類似しない画像まで類似画像として抽出していることになり、類似画像の抽出精度が低いということになる。このように、低次元変換の効果及び抽出した画像の類似性は、類似画像の抽出精度(以下、プレシジョンと称する)と、類似画像の非取りこぼし率(以下、リコールと称する)を用いて評価することができる。式(56)はプレシジョンの算出式であり、式(57)はリコールの算出式である。
図9は、本実施形態及び他の低次元変換方法においてリコールを100%にしたときのプレシジョンを表すグラフである。図9では、他の低次元変換方法としてMSEAと、離散コサイン変換(DCT:Discrete Cosine Transform)が用いられる。 FIG. 9 is a graph showing the precision when the recall is set to 100% in the present embodiment and other low-dimensional conversion methods. In FIG. 9, MSEA and Discrete Cosine Transform (DCT) are used as other low-dimensional transform methods.
図9に示すグラフ900において、グラフ901は本実施形態によるプレシジョンを示し、グラフ902はMSEAによるプレシジョンを示し、グラフ903はDCTによるプレシジョンを示す。グラフ900の横軸は各低次元変換における特徴量(特徴ベクトル)の次元数を示し、縦軸はプレシジョンを示す。なお、図9は、1時間のビデオからランダムに選択された1万フレームの画像と他の1時間のビデオからランダムに選択された1万フレームの画像についてのプレシジョンを示す。この二つの異なる1時間のビデオは、異なった日の同じ時間帯に同じチャンネルで放送された映像であり、オープニング、エンディングの画像等、同一の画像が幾つか含まれている。各画像は352×240画素の画像であり、閾値θ0及びθ1は0.9に設定されている。
In the
式(5)の上限値UBMSEAは、式(58)に示すように、式(59)、(60)で示される特徴ベクトルの内積で表される。
図10は、DCTを用いた低次元変換方法を説明するための概略図である。DCTを用いた低次元変換方法では、まず、各画像の正規化画像を所定のブロックに分割し、二次元DCTにより周波数成分に変換する。図10のブロック1000内の各要素(a0、a1、a2、...)は、二次元DCTにより変換されたDCT係数を示す。図10に示すように、二次元DCTにより変換されたDCT係数は、MPEG、JPEG等で用いられるジグザグスキャンにより低周波数成分側から順に並べられる。そして、式(61)に示すように、低周波数成分側から順に選択されたDCT係数による特徴ベクトルがDCTによる低次元特徴量となる。
DCTにより変換された周波数成分の全パワーは元の画像のパワーと一致する。つまり、全DCT係数を用いて計算したユークリッド距離がNCC値に対応するので、DCT係数の一部(又は全部)を用いて計算したユークリッド距離が(2−2θ0)以下である場合、NCC値がθ0以上となることはない。そこで、この方法では、式(62)に示すように、それぞれのDCT成分がai、biである二つの画像の特徴ベクトルのユークリッド距離を求め、ユークリッド距離が(2−2θ1)(θ1≧θ0)以下となる二画像を類似画像として抽出する。
なお、図9に示すグラフ900では、式(62)に示すユークリッド距離が(2−2θ1)以下となる画像のペアの集合をIIPS'とし、NCC値がθ0以上となる画像のペアの集合をIIPSとしてプレシジョン及びリコールを算出している。
In the
図9に示すように、(特に次元数が低い場合)プレシジョンは必ずしも高くない。プレシジョンは、最も高くても15%未満であり(次元数が1024の場合)、次元数が64の場合は5〜6%まで落ちる。また、DCTによるプレシジョンは、本実施形態によるプレシジョンとほとんど同じ値であるが、MSEAによるプレシジョンは、極めて低い値となる。 As shown in FIG. 9, the precision is not necessarily high (especially when the number of dimensions is low). The precision is at most less than 15% (when the number of dimensions is 1024), and when the number of dimensions is 64, the precision drops to 5 to 6%. The precision based on DCT is almost the same value as the precision according to the present embodiment, but the precision based on MSEA is extremely low.
一方、例えば、NCCの上限値UBについての閾値θ1をNCC値についての閾値θ0より大きい値にすると(つまり、類似画像を正確にフィルタリングするのではなく、近似的にフィルタリングすると)、リコールは100%にならなくなるが、プレシジョンを高くすることができる。 On the other hand, for example, if the threshold value θ 1 for the upper limit value UB of the NCC is set to a value larger than the threshold value θ 0 for the NCC value (that is, if the similar image is not filtered accurately but filtered approximately), the recall is performed. Although it does not become 100%, the precision can be increased.
図11(a)は、本実施形態及び他の低次元変換方法においてリコールを100%以下にしたときのリコールとプレシジョンの関係のグラフを示し、図11(b)は、その拡大図を示す。図11(a)、(b)に示すグラフ1100、1110では、他の低次元変換方法として、MSEAと、DCTと、正規化輝度ヒストグラム(以下、NIH(Normalized intensity histograms)と称する)が用いられる。
FIG. 11A shows a graph of the relationship between recall and precision when the recall is made 100% or less in this embodiment and other low-dimensional conversion methods, and FIG. 11B shows an enlarged view thereof. In
図12は、NIHを用いた低次元変換方法を説明するための概略図である。NIHを用いた低次元変換方法では、まず、各画像の正規化画像1200を(2×2、3×3等の)サブ領域1210に分割し、各サブ領域について、一定範囲毎に量子化した正規化輝度のヒストグラム1220を算出する。そして、式(63)に示すように、全てのサブ領域のヒストグラムの分布値ai,j(iはサブ領域の番号、jは各ヒストグラムの量子化レベルの番号)を順番に並べたベクトルがNIHによる低次元特徴量となる。
また、この方法では、サブ領域の数と正規化輝度の量子化レベルを変更することにより、特徴量の次元数を変更することができる。例えば、サブ領域を2×2にし、正規化輝度の量子化を4レベルにした場合、特徴量の次元数は、2×2×4となる。NIHを用いて類似画像を抽出する場合、NCCの上限値は算出されないのでNCC値が閾値θ0以上になる画像のペアの集合IIPSに対するリコールは100%とならないが、リコール及びプレシジョンが非常に高くなることが知られている。 In this method, the number of dimensions of the feature quantity can be changed by changing the number of sub-regions and the quantization level of the normalized luminance. For example, if the sub-region is 2 × 2 and the normalized luminance quantization is 4 levels, the number of dimensions of the feature amount is 2 × 2 × 4. When similar images are extracted using NIH, the upper limit value of NCC is not calculated, so the recall for the set IIPS of image pairs whose NCC value is equal to or greater than the threshold θ 0 does not become 100%, but the recall and precision are very high. It is known to be.
なお、図11に示すグラフ1100では、式(64)に示すユークリッド距離が(2−2θ1)以下となる画像のペアの集合をIIPS'とし、NCC値がθ0以上の画像のペアの集合をIIPSとしてプレシジョン及びリコールを算出している。
In the
図11(a)、(b)に示すグラフ1100において、「prop 16D」、「prop 64D」、「prop 256D」、「prop 1024D」のグラフは、本実施形態の低次元変換方法で特徴量次元数がそれぞれ16、64、256、1024のときのリコールとプレシジョンの関係を示す。また、「DCT 5D」、「DCT 44D」、「DCT 209D」のグラフは、DCTによる低次元変換方法で特徴量次元数がそれぞれ5、44、209のときのリコールとプレシジョンの関係を示す。また、「NIH 2×2×4」、「NIH 4×4×4」、「NIH 4×4×8」のグラフは、NIHによる低次元変換方法で特徴量次元数がそれぞれ2×2×4、4×4×4、4×4×8のときのリコールとプレシジョンの関係を示す。また、「MSEA 16D」、「MSEA 64D」、「MSEA 512D」のグラフは、MSEAによる低次元変換方法で特徴量次元数がそれぞれ16、64、512のときのリコールとプレシジョンの関係を示す。グラフ1100、1110の横軸はリコールの値を示し、縦軸はプレシジョンの値を示す。
In the
図11(a)、(b)に示すように、本実施形態の低次元変換方法では、特徴量次元数が64と256の場合、リコールを97%に保ちつつ、プレシジョンが70%以上となる。特に、リコールが非常に高い(95%以上)場合、DCT、NIH、MSEAよりプレシジョンが高くなる。 As shown in FIGS. 11A and 11B, in the low-dimensional conversion method of the present embodiment, when the feature quantity dimension is 64 and 256, the recall is maintained at 97% and the precision becomes 70% or more. . In particular, when the recall is very high (95% or more), the precision is higher than DCT, NIH, and MSEA.
図13(a)は、図11(a)とは異なる画像セットのペア(それぞれ、類似する放送映像から取得した1万画像)についてのリコールとプレシジョンの関係のグラフを示し、図13(b)は、その拡大図を示す。図13(a)、(b)のグラフ1300、1310では、ほとんど全てのタイプで、図11(a)、(b)のグラフ1100、1110より高いリコールとプレシジョンの組合せが得られる。図13(b)に示すように、本実施形態の低次元変換方法で特徴量次元数が1024又は256のときに最も高いパフォーマンスが得られ、次いでMSEAによる低次元変換方法で特徴量次元数が512のとき、本実施形態の低次元変換方法で特徴量次元数が64又は16のとき、MSEAによる低次元変換方法で特徴量次元数が64のときの順に高いパフォーマンスが得られる。一方、DCTによる低次元変換方法では、あまり高いパフォーマンスが得られない。また、MSEAによる低次元変換方法で特徴量次元数が16の場合のパフォーマンスは、本実施形態の低次元変換方法で特徴量次元数が16の場合より非常に低くなる。つまり、本実施形態の低次元変換方法は、全ての特徴量次元数において、他の低次元変換方法より高いパフォーマンスを得ることができる。
FIG. 13A shows a graph of the relationship between recall and precision for a pair of image sets different from FIG. 11A (10,000 images respectively obtained from similar broadcast images), and FIG. Shows an enlarged view thereof. In
図14(a)、(b)、(c)、(d)は、それぞれリコールを0.95、0.97、0.98、0.99に固定したときの各低次元変換方法での特徴量次元数とプレシジョンの関係のグラフを示す。図14(a)、(b)、(c)、(d)に示すグラフ1400、1410、1420、1430において、それぞれ、グラフ1401、1411、1421、1431は本実施形態の低次元変換方法でのプレシジョンを示し、グラフ1402、1412、1422、1432はMSEAによる低次元変換方法でのプレシジョンを示し、グラフ1403、1413、1423、1433はDCTによる低次元変換方法でのプレシジョンを示し、グラフ1404、1414、1424、1434はNIHによる低次元変換方法でのプレシジョンを示す。グラフ1400〜1430の横軸は特徴量次元数を示し、縦軸はプレシジョンを示す。
14 (a), (b), (c), and (d) are features of each low-dimensional conversion method when the recall is fixed at 0.95, 0.97, 0.98, and 0.99, respectively. The graph of the relation between quantity dimension number and precision is shown. In
図14(a)〜(d)に示すように、リコールを非常に高い値にした場合、本実施形態の低次元変換方法でのプレシジョンは、他の低次元変換方法でのプレシジョンより高くなることが明らかである。図14(d)に示すように、リコールが0.99の場合、本実施形態の低次元変換方法では、DCTによる低次元変換方法よりわずかにパフォーマンスが低くなるが、この場合、そもそもプレシジョンが0.14以下であり、極めて低い。また、例えば、図14(a)に示すように、リコールが0.95の場合、本実施形態の低次元変換方法において、特徴量次元数が低い方が高いパフォーマンスを示している(特徴量次元数が64、128、256の方が、特徴量次元数が512のときよりもプレシジョンが高い)。類似した現象がMSEAでもみられる(特徴量次元数が16、32、64の方が、特徴量次元数が128のときよりもプレシジョンが高い)。これは、これらの方法が複数ブロックへ分割するものであるためと考えられる。そのため、リコールを100%としない場合、適切なサイズのブロックに分割する必要がある。図14(a)〜(d)から、本実施形態の低次元変換方法でのプレシジョンは、特徴量次元数が64のとき、すなわち、分割するブロック数が32のとき、最も高くなると考えられる。 As shown in FIGS. 14A to 14D, when the recall is set to a very high value, the precision in the low-dimensional conversion method of the present embodiment is higher than the precision in other low-dimensional conversion methods. Is clear. As shown in FIG. 14D, when the recall is 0.99, the low-dimensional conversion method of the present embodiment is slightly lower in performance than the low-dimensional conversion method using DCT. In this case, however, the precision is zero in the first place. .14 or less, which is extremely low. Further, for example, as shown in FIG. 14A, when the recall is 0.95, in the low-dimensional conversion method of the present embodiment, the lower the feature quantity dimension, the higher the performance (feature quantity dimension). Numbers of 64, 128, and 256 have higher precision than when the number of feature dimensions is 512). A similar phenomenon is also observed in MSEA (the number of feature quantity dimensions is 16, 32, and 64 is higher than that when the feature quantity dimension is 128). This is considered because these methods divide into a plurality of blocks. Therefore, when the recall is not 100%, it is necessary to divide the block into appropriate size blocks. 14A to 14D, the precision in the low-dimensional conversion method of this embodiment is considered to be highest when the feature quantity dimension number is 64, that is, when the number of blocks to be divided is 32.
図15(a)〜(d)は、図14(a)〜(d)とは異なる画像セットのペアについて、それぞれリコールを0.95、0.97、0.98、0.99に固定したときの各低次元変換方法での特徴量次元数とプレシジョンの関係のグラフを示す。図15(a)、(b)、(c)、(d)に示すグラフ1500、1510、1520、1530において、それぞれ、グラフ1501、1511、1521、1531は本実施形態の低次元変換方法でのプレシジョンを示し、グラフ1502、1512、1522、1532はMSEAによる低次元変換方法でのプレシジョンを示し、グラフ1503、1513、1523、1533はDCTによる低次元変換方法でのプレシジョンを示し、グラフ1504、1514、1524、1534はNIHによる低次元変換方法でのプレシジョンを示す。グラフ1500〜1530の横軸は特徴量次元数を示し、縦軸はプレシジョンを示す。
15 (a) to 15 (d), recalls are fixed at 0.95, 0.97, 0.98, and 0.99, respectively, for pairs of image sets different from FIGS. 14 (a) to (d). The graph of the relationship between the number of feature dimensions and the precision in each low-dimensional conversion method is shown. In
図15(a)〜(d)に示すグラフ1500〜1530では、プレシジョンが比較的高くなっている。例えば、図15(d)では、リコールが0.99に固定されているにも関わらず、プレシジョンは略0.6となる。図15(a)〜(c)に示すように、リコールが比較的低い(0.95〜0.98)場合、本実施形態の低次元変換方法とMSEAによる低次元変換方法はDCT及びNIHによる低次元変換方法よりパフォーマンスがよい。一方、図15(d)に示すように、リコールが高い(0.99)場合、本実施形態の低次元変換方法とDCT及びNIHによる低次元変換方法はMSEAによる低次元変換方法よりパフォーマンスが高い。つまり、全体として、本実施形態の低次元変換方法は他の低次元変換方法より高いパフォーマンスを得ることができる。
In the
以上、図9、図11(a)、(b)、図13(a)、(b)、図14(a)〜(d)、図15(a)〜(d)を用いて説明したように、本実施形態の低次元変換方法を用いることにより、他の低次元変換方法より高精度に類似性の高い画像を抽出することが可能となる。 As described above, it has been described with reference to FIGS. 9, 11A, 11B, 13A, 13B, 14A to 14D, and 15A to 15D. In addition, by using the low-dimensional conversion method of the present embodiment, it is possible to extract images having high similarity with higher accuracy than other low-dimensional conversion methods.
本実施形態の低次元変換方法では、ラグランジュの未定乗数決定法を用いてNCCの上限値を算出する。これにより、NCC値が上限値に近いとき、そのNCCの微分係数は非常に0に近くなり、上限値から離れているとき、微分係数は0から離れる。そのため、NCC値が上限値に近い(リコールが高い)場合、上限値をわずかに大きくしても、微分係数が0に近いのでリコールは大きく変化しない。一方、NCC値が上限値から離れている場合、微分係数は0から離れているので、プレシジョンは大幅に増加する。これにより、本実施形態の低次元変換方法では、リコールを高く保ちつつ、プレシジョンを高くできると考えられる。 In the low-dimensional conversion method of this embodiment, the upper limit value of NCC is calculated using Lagrange's undetermined multiplier determination method. Thereby, when the NCC value is close to the upper limit value, the differential coefficient of the NCC is very close to 0, and when the NCC value is far from the upper limit value, the differential coefficient is away from 0. Therefore, when the NCC value is close to the upper limit value (recall is high), even if the upper limit value is slightly increased, the recall does not change greatly because the differential coefficient is close to 0. On the other hand, when the NCC value is far from the upper limit value, the differential coefficient is far from 0, so that the precision is greatly increased. Thereby, in the low-dimensional conversion method of this embodiment, it is considered that the precision can be increased while keeping the recall high.
図16は、本実施形態による照合処理の時間を示す表である。図16の表1600は、それぞれ1万画像(352×240画素)からなる二つの画像セットにおいて、全ての画像ペアの組合せについて特徴ベクトルのユークリッド距離により全数照合したときの時間を示す。なお、この時間には、特徴ベクトルの算出時間は含まれない。 FIG. 16 is a table showing the verification processing time according to the present embodiment. A table 1600 in FIG. 16 shows the time when all the combinations of all image pairs in the two image sets each including 10,000 images (352 × 240 pixels) are collated by the Euclidean distance of the feature vector. This time does not include the time for calculating the feature vector.
表1600の行1610と行1630は低次元特徴量による照合処理を、行1620と行1640は低次元特徴量による照合処理及びそれにより抽出した類似画像のペアに対するNCCによる照合処理を示す。また、行1610と行1620ではリコールが100%になるようにし(低次元特徴量による照合処理における閾値θ1=NCCによる照合処理における閾値θ0=0.9)、行1630と行1640ではリコールが95%になるようにしている(θ1>θ0)。各行において、さらに特徴量の次元数毎に処理結果が示される。一方、列1650は特徴量次元数を、列1660はプレシジョンを、列1670はリコールを、列1680は処理時間(秒)をそれぞれ示す。
行1610と行1630に示すように、照合処理時間は、概ね特徴量の次元数に比例している。これに基づくと、全ての画像ペアの組合せについてNCCによる照合処理(つまり、352×240次元の演算)を実施した場合、約40時間かかると考えられる。リコールが100%の場合、行1610に示すようにプレシジョン値は比較的低くなり、類似画像として多くの画像が抽出されるため、行1620に示すようにNCCによる照合処理時間は非常に長くなる。一方、リコールが95%の場合、行1630に示すようにプレシジョンが大幅に高くなるため、類似画像の抽出数が抑制され、行1640に示すようにNCCによる照合処理時間はあまり長くならない。従って、わずかにリコールを減少させる(95%)のがリーズナブルであると考えられる。
As shown in
なお、上述したように、行1610と行1630の照合処理時間は、特徴量の次元数に応じて異なるものであり、本実施形態とMSEAとで差は生じない。また、1万画像(352×240画素)について、本実施形態に基づく低次元特徴量の算出時間とMSEAに基づく低次元特徴量の算出時間は、その次元数に関わらず、それぞれ、約35秒と約32秒であり、ほとんど差がなかった。つまり、次元数が同じ場合、本実施形態の低次元変換方法とMSEAによる低次元変換方法とで類似画像を抽出するのにかかる時間は、ほとんど同じとなる。一方、本実施形態の低次元変換方法では、MSEAによる低次元変換方法より、類似画像として抽出する画像のペアが少なくなるので、その後のNCCによる照合処理時間は短くなり、トータルの照合時間は短くなる。
Note that, as described above, the matching processing times of the
図17は、画像照合装置を画像符号化装置に適用する場合の例を示す概略構成図である。図17に示す画像照合装置2は、図1に示す画像照合装置1の各部に加えて画像入力部53を有する。また、画像照合装置2の制御部60は、インテグラル画像生成部61、符号化処理部62、画像分割部63、特徴ベクトル算出部64、上限値算出部65、第1照合部66、NCC値算出部67及び第2照合部68を有する。なお、画像分割部63は、図1に示す第1画像分割部22と第2画像分割部25の機能を備え、特徴ベクトル算出部64は、図1に示す第1特徴ベクトル算出部23と第2特徴ベクトル算出部26の機能を備える。
FIG. 17 is a schematic configuration diagram illustrating an example in which the image matching device is applied to an image encoding device. An
画像入力部53は、CCD、CMOS等の光電変換器で構成された2次元検出器と、その2次元検出器上に撮影対象の像を結像する結像光学系等を有する。画像入力部53は、一定の時間間隔(例えば1/30秒)毎に撮影を行い、撮影画像を、例えば352×240画素のデジタル画像に変換し、そのデジタル画像を記憶部52に記憶する。
The image input unit 53 includes a two-dimensional detector composed of a photoelectric converter such as a CCD or a CMOS, and an imaging optical system that forms an image to be photographed on the two-dimensional detector. The image input unit 53 captures images at regular time intervals (for example, 1/30 seconds), converts the captured image into a digital image of 352 × 240 pixels, for example, and stores the digital image in the
図18は、図17に示す画像照合装置2による画像の符号化処理の動作を示すフローチャートである。以下、図18に示したフローチャートを参照しつつ、画像符号化処理の動作を説明する。なお、以下に説明する動作のフローは、予め記憶部52に記憶されているプログラムに基づき主に制御部60により画像照合装置2の各要素と協同して実行される。
FIG. 18 is a flowchart showing the operation of the image encoding process by the
最初に、画像入力部53は、撮影対象を撮影した画像をデジタル画像に変換し、そのデジタル画像を記憶部52に記憶する(ステップS1801)。 First, the image input unit 53 converts an image obtained by shooting the shooting target into a digital image, and stores the digital image in the storage unit 52 (step S1801).
次に、インテグラル画像生成部61は、記憶部12に保存されたデジタル画像を読み出し、インテグラル画像を生成し、記憶部52に記憶する(ステップS1802)。
Next, the integral
デジタル画像及びインテグラル画像の水平方向をx軸、垂直方向をy軸とし、デジタル画像の座標(a、b)における正規化画素値をI(a、b)とする。インテグラル画像生成部67は、各画素が式(65)、(66)からなるインテグラル画像(Viola, P., Jones, M., May 2004. Robust real-time face detection. International Journal of Computer Vision 57 (2), 137-154.)をそれぞれ生成する。
図19は、インテグラル画像を説明するための概略図である。例えば、インテグラル画像1900において、座標(x1、y1)、(x1、y2)、(x2、y1)、(x2、y2)で囲まれた領域Dの正規化画素値の総和と正規化画素値の二乗和は、それぞれ、式(67)、(68)により算出することができる。
次に、符号化処理部62は、記憶部12に保存されたデジタル画像を読み出し、デジタル画像のフォーマット(画素数)変換、8×8画素、16×16画素等の符号化ブロックへの分割等の符号化前処理を実施する(ステップS1803)。
Next, the
以下のステップS1804〜S1814の処理は、符号化ブロック毎に実施される。まず、画像分割部63は、符号化ブロックをさらに所定サイズの複数のブロックに分割する(ステップS1804)。例えば、画像分割部63は、16×16画素の画像を4×4画素の16ブロックに分割する。
The following steps S1804 to S1814 are performed for each coding block. First, the
次に、特徴ベクトル算出部64は、インテグラル画像を用いて、符号化ブロックについて、式(37)に示す特徴ベクトルを算出し、符号化ブロックと関連付けて記憶部12に保存する(ステップS1805)。
Next, the feature
次に、上限値算出部65は、記憶部12から照合元ブロックの特徴ベクトルを取得する(ステップS1806)。
Next, the upper
この照合元ブロックは、例えば、1フレーム前のデジタル画像における各符号化ブロックである。なお、前方向予測だけでなく、後方向予測も用いる場合、上限値算出部65は、1フレーム後のデジタル画像における各符号化ブロックも照合元ブロックとして用いる。
This verification source block is, for example, each encoded block in the digital image one frame before. When using not only forward prediction but also backward prediction, the upper
次に、上限値算出部65は、符号化ブロックの特徴ベクトルと照合元ブロックの特徴ベクトルの内積を算出して、符号化ブロックと照合元ブロックについて、NCCの上限値UBを求める(ステップS1807)。
Next, the upper
次に、第1照合部66は、符号化ブロックと照合元ブロックについての上限値UBが閾値θ1以上であるか否かを判定する(ステップS1808)。
Next, the
上限値UBが閾値θ1以上である場合、第1照合部65は、その照合元ブロックを符号化ブロックと類似すると判定し、NCC値算出部67は、その符号化ブロックと照合元ブロックについてNCC値を算出する(ステップS1809)。
When the upper limit UB is equal to or greater than the threshold value θ 1 , the
次に、第2照合部68は、NCC値算出部67が算出したNCC値がその符号化ブロックについて算出されたNCC値のうち最大であるか否かを判定する(ステップS1810)。
Next, the
NCC値算出部67が算出したNCC値がその符号化ブロックについて算出されたNCC値のうち最大である場合、第2照合部68は、その照合元ブロックを動き検出用ブロックとして記憶部52に記憶(すでに記憶されている場合、更新)する(ステップS1811)。
When the NCC value calculated by the NCC
一方、上限値UBが閾値θ1未満である場合、NCC値算出部67が算出したNCC値がその符号化ブロックについて算出されたNCC値のうち最大でない場合、又は、第2照合部68が照合元ブロックを動き検出用ブロックとして記憶部52に記憶した場合、制御部60は、符号化ブロックを全ての照合元ブロックと比較したか否かを判定する(ステップS1812)。
On the other hand, when the upper limit value UB is less than the threshold θ 1 , the NCC value calculated by the NCC
制御部60は、まだ比較していない照合元ブロックがある場合、ステップS1807〜S1811の処理を繰り返し、全ての照合元ブロックとの比較が完了すると、符号化処理部62は、記憶部52に記憶された動き検出用ブロックの候補を用いて動き補償を行う。また、符号化処理部62は、DCT変換、量子化等の符号化処理を実施する(ステップS1813)。
When there is a collation source block that has not been compared yet, the
次に、制御部60は、全ての符号化ブロックの符号化処理が完了したか否かを判定する(ステップS1814)。全ての符号化ブロックの符号化処理が完了していない場合、ステップS1803〜S1813の処理を繰り返し、全ての符号化ブロックの符号化処理が完了すると、制御部60は、一連のステップを終了する。
Next, the
このようにして符号化されたデータは、インターフェース部51を介して、外部のデコード装置(不図示)に送信される。
The encoded data is transmitted to an external decoding device (not shown) via the
なお、第2照合部68は、符号化ブロックと全ての照合元ブロックについての上限値UBが閾値θ1未満であった場合は、その符号化ブロックに類似する照合元ブロックが存在しないと判断し、任意の照合元ブロックを動き検出用ブロックとして選択する。あるいは、その場合、上限値UBが最も高かった照合元ブロックを動き検出用ブロックとして選択してもよい。
Note that the
以上詳述したように、図18に示したフローチャートに従って動作することによって、画像照合装置2は、画像符号化装置として動作し、高速に動き検出処理を実施することが可能となった。また、インテグラル画像を用いて特徴量算出処理を高速化することが可能となった。また、本実施形態による方法は、スライディングウィンドウに基づく探索(Wei, S.-D., Lai, S.-H., 2007. Efficient normalized cross correlation based on adaptive multilevel successive elimination. In: Proceedings of the 8th Asian conference on Computer vision - Volume Part I. ACCV’07. Springer-Verlag, Berlin, Heidelberg, pp. 638-646.)とも親和性が高い。
As described above in detail, by operating according to the flowchart shown in FIG. 18, the
1、2 画像照合装置
11、51 インターフェース部
12、52 記憶部
20、30、40、60 制御部
21 第1画像取得部
22 第1画像分割部
23 第1特徴ベクトル算出部
24 第2画像取得部
25 第2画像分割部
26 第2特徴ベクトル算出部
27、65 上限値算出部
28、66 第1照合部
31、67 NCC値算出部
32、68 第2照合部
41 インデックス判定部
53 画像入力部
61 インテグラル画像生成部
62 符号化処理部
63 画像分割部
64 特徴ベクトル算出部
DESCRIPTION OF
Claims (7)
前記第1画像及び前記第2画像のそれぞれについて、各ブロックに含まれる画素の正規化画素値の総和及び各ブロックに含まれる画素の正規化画素値の二乗和に基づき、前記第1画像の特徴ベクトル及び前記第2画像の特徴ベクトルを算出する特徴ベクトル算出部と、
ラグランジュの未定乗算決定法を利用して2つの画像の正規化相互相関値を求める式から導いた2つの画像の正規化相互相関の上限値を算出する式を用いて、算出された前記第1画像の特徴ベクトル及び前記第2画像の特徴ベクトルに基づき、前記第1画像と前記第2画像の正規化相互相関の上限値を算出する上限値算出部と、
前記上限値が第1の閾値以上であるか否かに基づいて前記第1画像と前記第2画像を照合する第1照合部と、
を有することを特徴とする画像照合装置。 An image dividing unit for dividing the first image into a plurality of blocks and dividing the second image into the same number of blocks as the first image;
For each of the first image and the second image, the feature of the first image is based on the sum of the normalized pixel values of the pixels included in each block and the square sum of the normalized pixel values of the pixels included in each block. A feature vector calculation unit for calculating a vector and a feature vector of the second image;
The first calculated by using an equation for calculating an upper limit value of normalized cross-correlation between two images derived from an equation for obtaining a normalized cross-correlation value between two images using Lagrange's undetermined multiplication determination method. An upper limit calculation unit that calculates an upper limit of the normalized cross-correlation between the first image and the second image based on a feature vector of the image and a feature vector of the second image;
A first collation unit that collates the first image with the second image based on whether the upper limit is equal to or greater than a first threshold;
An image collating apparatus comprising:
前記正規化相互相関値が前記第1の閾値以下の値である第2の閾値以上であるか否かに基づいて前記第1画像と前記第2画像を詳細に照合する第2照合部と、をさらに有する、請求項1または2に記載の画像照合装置。 A normalized cross-correlation value calculating unit that calculates a normalized cross-correlation value between the first image and the second image, the upper limit value being equal to or greater than the first threshold;
A second collation unit that collates the first image and the second image in detail based on whether or not the normalized cross-correlation value is equal to or greater than a second threshold value that is equal to or less than the first threshold value; The image collating device according to claim 1, further comprising:
前記第1画像について、各ブロックに含まれる画素の正規化画素値の総和及び各ブロックに含まれる画素の正規化画素値の二乗和に基づき、前記第1画像の特徴ベクトルを算出するステップと、
第2画像を前記第1画像と同数のブロックに分割するステップと、
前記第2画像について、各ブロックに含まれる画素の正規化画素値の総和及び各ブロックに含まれる画素の正規化画素値の二乗和に基づき、前記第2画像の特徴ベクトルを算出するステップと、
ラグランジュの未定乗算決定法を利用して2つの画像の正規化相互相関値を求める式から導いた2つの画像の正規化相互相関の上限値を算出する式を用いて、算出された前記第1画像の特徴ベクトル及び前記第2画像の特徴ベクトルに基づき、前記第1画像と前記第2画像の正規化相互相関の上限値を算出するステップと、
前記上限値が第1の閾値以上であるか否かに基づいて前記第1画像と前記第2画像を照合するステップと、
を含むことを特徴とする画像照合方法。 Dividing the first image into a plurality of blocks;
Calculating a feature vector of the first image based on a sum of normalized pixel values of pixels included in each block and a square sum of normalized pixel values of pixels included in each block for the first image;
Dividing the second image into the same number of blocks as the first image;
Calculating a feature vector of the second image based on a sum of normalized pixel values of pixels included in each block and a square sum of normalized pixel values of pixels included in each block for the second image;
The first calculated by using an equation for calculating an upper limit value of normalized cross-correlation between two images derived from an equation for obtaining a normalized cross-correlation value between two images using Lagrange's undetermined multiplication determination method. Calculating an upper limit value of normalized cross-correlation between the first image and the second image based on a feature vector of the image and a feature vector of the second image;
Collating the first image with the second image based on whether the upper limit is greater than or equal to a first threshold;
The image collation method characterized by including this.
前記正規化相互相関値が前記第1の閾値以下の値である第2の閾値以上であるか否かに基づいて前記第1画像と前記第2画像を詳細に照合するステップと、をさらに有する、請求項4または5に記載の画像照合方法。 Calculating a normalized cross-correlation value between the first image and the second image, the upper limit value being equal to or greater than the first threshold;
Further comprising: collating the first image with the second image in detail based on whether the normalized cross-correlation value is greater than or equal to a second threshold that is less than or equal to the first threshold. The image collating method according to claim 4 or 5.
前記第1画像について、各ブロックに含まれる画素の正規化画素値の総和及び各ブロックに含まれる画素の正規化画素値の二乗和に基づき、前記第1画像の特徴ベクトルを算出するステップと、
第2画像を前記第1画像と同数のブロックに分割するステップと、
前記第2画像について、各ブロックに含まれる画素の正規化画素値の総和及び各ブロックに含まれる画素の正規化画素値の二乗和に基づき、前記第2画像の特徴ベクトルを算出するステップと、
ラグランジュの未定乗算決定法を利用して2つの画像の正規化相互相関値を求める式から導いた2つの画像の正規化相互相関の上限値を算出する式を用いて、算出された前記第1画像の特徴ベクトル及び前記第2画像の特徴ベクトルに基づき、前記第1画像と前記第2画像の正規化相互相関の上限値を算出するステップと、
前記上限値が第1の閾値以上であるか否かに基づいて前記第1画像と前記第2画像を照合するステップと、
をコンピュータに実行させることを特徴とするコンピュータプログラム。 Dividing the first image into a plurality of blocks;
Calculating a feature vector of the first image based on a sum of normalized pixel values of pixels included in each block and a square sum of normalized pixel values of pixels included in each block for the first image;
Dividing the second image into the same number of blocks as the first image;
Calculating a feature vector of the second image based on a sum of normalized pixel values of pixels included in each block and a square sum of normalized pixel values of pixels included in each block for the second image;
The first calculated by using an equation for calculating an upper limit value of normalized cross-correlation between two images derived from an equation for obtaining a normalized cross-correlation value between two images using Lagrange's undetermined multiplication determination method. Calculating an upper limit value of normalized cross-correlation between the first image and the second image based on a feature vector of the image and a feature vector of the second image;
Collating the first image with the second image based on whether the upper limit is greater than or equal to a first threshold;
A computer program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011149428A JP5713398B2 (en) | 2011-07-05 | 2011-07-05 | Image collation device, image collation method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011149428A JP5713398B2 (en) | 2011-07-05 | 2011-07-05 | Image collation device, image collation method, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013016073A true JP2013016073A (en) | 2013-01-24 |
JP5713398B2 JP5713398B2 (en) | 2015-05-07 |
Family
ID=47688697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011149428A Expired - Fee Related JP5713398B2 (en) | 2011-07-05 | 2011-07-05 | Image collation device, image collation method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5713398B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015534165A (en) * | 2012-09-11 | 2015-11-26 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Devices and methods for augmented reality applications |
JP2018514879A (en) * | 2015-05-13 | 2018-06-07 | ウニヴェルジテート・ビーレフェルトUniversitat Bielefeld | Floor processing device and navigation method thereof, and group of floor processing devices and overall navigation method thereof |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09330402A (en) * | 1996-06-12 | 1997-12-22 | Nippon Telegr & Teleph Corp <Ntt> | Template matching method |
JPH11296653A (en) * | 1998-04-06 | 1999-10-29 | Sanyo Electric Co Ltd | Image processor and human body detector using the same |
-
2011
- 2011-07-05 JP JP2011149428A patent/JP5713398B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09330402A (en) * | 1996-06-12 | 1997-12-22 | Nippon Telegr & Teleph Corp <Ntt> | Template matching method |
JPH11296653A (en) * | 1998-04-06 | 1999-10-29 | Sanyo Electric Co Ltd | Image processor and human body detector using the same |
Non-Patent Citations (2)
Title |
---|
CSNG200500224005; 井上 光平、浦浜 喜一: '"画像間相関の上限に基づくフィルタリング検索"' 電子情報通信学会技術研究報告 Vol.103, No.450, 20031113, p.23-28, 社団法人電子情報通信学会 * |
JPN6015006425; 井上 光平、浦浜 喜一: '"画像間相関の上限に基づくフィルタリング検索"' 電子情報通信学会技術研究報告 Vol.103, No.450, 20031113, p.23-28, 社団法人電子情報通信学会 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015534165A (en) * | 2012-09-11 | 2015-11-26 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Devices and methods for augmented reality applications |
US10038892B2 (en) | 2012-09-11 | 2018-07-31 | Qualcomm Incorporated | Device and method for augmented reality applications |
JP2018514879A (en) * | 2015-05-13 | 2018-06-07 | ウニヴェルジテート・ビーレフェルトUniversitat Bielefeld | Floor processing device and navigation method thereof, and group of floor processing devices and overall navigation method thereof |
Also Published As
Publication number | Publication date |
---|---|
JP5713398B2 (en) | 2015-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6333190B2 (en) | How to query a video database | |
Redondi et al. | Compress-then-analyze vs. analyze-then-compress: Two paradigms for image analysis in visual sensor networks | |
CN110781350B (en) | Pedestrian retrieval method and system oriented to full-picture monitoring scene | |
CN110717411A (en) | Pedestrian re-identification method based on deep layer feature fusion | |
US20140079286A1 (en) | Method and apparatus of object recognition | |
Zhang et al. | A joint compression scheme of video feature descriptors and visual content | |
US8805067B2 (en) | Scalable feature descriptor extraction and matching method and system | |
ITMI20121210A1 (en) | A METHOD AND AN APPARATUS FOR THE EXTRACTION OF DESCRIPTORS FROM VIDEO CONTENT, PREFERABLY FOR SEARCH AND RETRIEVAL PURPOSE | |
US9430718B1 (en) | Efficient local feature descriptor filtering | |
US20100114871A1 (en) | Distance Quantization in Computing Distance in High Dimensional Space | |
Satoh | Simple low-dimensional features approximating NCC-based image matching | |
Haldar et al. | Content based image retrieval using histogram, color and edge | |
Nian et al. | Efficient near-duplicate image detection with a local-based binary representation | |
Chiu et al. | Time-series linear search for video copies based on compact signature manipulation and containment relation modeling | |
JP5713398B2 (en) | Image collation device, image collation method, and computer program | |
Naveen Kumar et al. | High performance algorithm for content-based video retrieval using multiple features | |
Bekhet et al. | Video matching using DC-image and local features | |
Cheng et al. | Sparse representations based distributed attribute learning for person re-identification | |
Guru et al. | Histogram based split and merge framework for shot boundary detection | |
Nie et al. | Key-frame based robust video hashing using isometric feature mapping | |
Phalke et al. | A systematic review of near duplicate video retrieval techniques | |
Jia et al. | Fast face hallucination with sparse representation for video surveillance | |
Kim et al. | Frame-level matching of near duplicate videos based on ternary frame descriptor and iterative refinement | |
Sudha et al. | Reducing semantic gap in video retrieval with fusion: A survey | |
Chiu et al. | Efficient video segment matching for detecting temporal-based video copies |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140606 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150305 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5713398 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |