JP2012103758A - Local feature amount calculation device and method therefor, and corresponding point search device and method therefor - Google Patents

Local feature amount calculation device and method therefor, and corresponding point search device and method therefor Download PDF

Info

Publication number
JP2012103758A
JP2012103758A JP2010249142A JP2010249142A JP2012103758A JP 2012103758 A JP2012103758 A JP 2012103758A JP 2010249142 A JP2010249142 A JP 2010249142A JP 2010249142 A JP2010249142 A JP 2010249142A JP 2012103758 A JP2012103758 A JP 2012103758A
Authority
JP
Japan
Prior art keywords
local feature
voting
pixel
feature amount
main axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010249142A
Other languages
Japanese (ja)
Other versions
JP5289412B2 (en
Inventor
Mitsuru Abe
満 安倍
Yuichi Yoshida
悠一 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2010249142A priority Critical patent/JP5289412B2/en
Publication of JP2012103758A publication Critical patent/JP2012103758A/en
Application granted granted Critical
Publication of JP5289412B2 publication Critical patent/JP5289412B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a local feature amount calculation device capable of calculating a local feature amount at high-speed.SOLUTION: A local feature amount calculation device 1 comprises: a feature point neighbor region extraction unit 11 for extracting a feature point p and a neighbor region NR set for the neighborhood of the feature point p, from an image TP; a direction intensity calculation unit 12 for calculating an edge gradient direction θ and an edge intensity m of each pixel in the neighbor region NR, respectively; a main axis direction detection unit 13 for detecting a main axis direction v in the neighbor region NR; and a local feature amount calculation unit 16 for calculating a local feature amount d of the feature point p by voting the edge intensity of an attention pixel according to a corrected edge gradient direction acquired by correcting the edge gradient direction θ of the attention pixel according to the main axis direction v, for a vote cell to which the attention pixel belongs among vote cells of a rotated vote cell pattern CP' acquired by rotating a reference vote cell pattern by an angle corresponding to the main axis direction v.

Description

本発明は、画像の局所特徴量を算出するための局所特徴量算出装置及び局所特徴量算出方法、並びに局所特徴量算出装置を用いた対応点探索装置及び局所特徴量算出方法を用いた対応点探索方法に関する。   The present invention relates to a local feature amount calculation device and a local feature amount calculation method for calculating a local feature amount of an image, a corresponding point search device using the local feature amount calculation device, and a corresponding point using the local feature amount calculation method. It relates to a search method.

従来、画像処理の分野では、2つの画像の間の対応点を探索する対応点探索処理が多用されている。図22は、2つの画像の間の対応点を示す図である。このように、複数の画像の間の対応点を探索することで、入力画像に対応する画像を画像データベースの中から検索したり、異なる視点で撮影された被写体の複数の画像を対応付けてその被写体の三次元形状を復元したりすることが可能となる。   Conventionally, in the field of image processing, corresponding point search processing for searching for corresponding points between two images has been frequently used. FIG. 22 is a diagram illustrating corresponding points between two images. In this way, by searching for corresponding points between a plurality of images, an image corresponding to the input image is searched from the image database, or a plurality of images of subjects photographed from different viewpoints are associated with each other. It is possible to restore the three-dimensional shape of the subject.

2つの画像の間の対応点を探索するために、局所特徴量を用いることができる。局所特徴量とは、注目ピクセルの周辺領域のテクスチャパターンを特徴付ける量であり、D次元のベクトルで表される。周辺のテクスチャパターンが似ているピクセルは、類似する局所特徴量を持つことになる。このため、例えば、第1及び第2の画像のそれぞれのピクセルについて局所特徴量を求めて、それらの局所特徴量を比較することで、第1の画像の当該ピクセルと第2の画像の当該ピクセルとが対応するピクセル(対応点)であるか否かを判断できる。   Local feature quantities can be used to search for corresponding points between two images. The local feature amount is an amount that characterizes the texture pattern of the peripheral region of the target pixel, and is represented by a D-dimensional vector. Pixels with similar peripheral texture patterns have similar local features. For this reason, for example, a local feature amount is obtained for each pixel of the first and second images, and the local feature amount is compared, whereby the pixel of the first image and the pixel of the second image are compared. Can be determined whether or not the corresponding pixel (corresponding point).

図23は、局所特徴量を用いた画像検索を説明するための図である。局所特徴量を用いた対応点探索によって、以下のように画像検索を行うことができる(例えば、非特許文献1を参照)。画像検索の目的は、入力画像に対応する画像を画像データベースから検索することである。まず、画像データベースに登録されている複数の画像の各々について、特徴点を抽出して、各特徴点の局所特徴量を求めておく。検索の対象となる画像(入力画像)が入力されると、その入力画像からも特徴点を抽出して、各特徴点について局所特徴量を求める。そして、入力画像の複数の特徴点のうちの1つに注目し、この注目特徴点が有する局所特徴量に最も近い局所特徴量を画像データベース内から検索する。そして、見つかった局所特徴量が属する画像に一票を投じる。この処理を入力画像中のすべての特徴点について繰り返し、最も多くの投票を受けた画像を検索結果とする。   FIG. 23 is a diagram for explaining image search using local feature amounts. Image search can be performed as follows by the corresponding point search using the local feature amount (see, for example, Non-Patent Document 1). The purpose of image retrieval is to retrieve an image corresponding to the input image from the image database. First, feature points are extracted from each of a plurality of images registered in the image database, and local feature amounts of the feature points are obtained. When an image to be searched (input image) is input, feature points are also extracted from the input image, and local feature amounts are obtained for each feature point. Then, paying attention to one of the plurality of feature points of the input image, the local feature amount closest to the local feature amount of the feature point of interest is searched from the image database. Then, a vote is cast on the image to which the found local feature amount belongs. This process is repeated for all feature points in the input image, and the image that received the most votes is used as the search result.

また、局所特徴量を用いた対応点探索によって、以下のように、異なる視点で撮影された複数の画像から三次元形状を復元できる(例えば、非特許文献2を参照)。まず、撮影対象を複数の撮影位置から撮影して得られた複数の画像から2つを選択し、その2つの画像の間の対応点を求める。この対応点探索を複数の画像のすべての組み合わせについて行なう。次に、対応点の情報を手がかりとして、各画像の撮影位置パラメータと、撮影対象の形状パラメータをバンドル調整により求める。   In addition, a three-dimensional shape can be restored from a plurality of images taken from different viewpoints by searching for corresponding points using local feature amounts (see, for example, Non-Patent Document 2). First, two are selected from a plurality of images obtained by shooting a shooting target from a plurality of shooting positions, and corresponding points between the two images are obtained. This corresponding point search is performed for all combinations of a plurality of images. Next, using the information on the corresponding points as a clue, the shooting position parameter of each image and the shape parameter of the shooting target are obtained by bundle adjustment.

局所特徴量を求める代表的な手法として、SIFT(Scale Invariant Feature Transform)(例えば、非特許文献3及び特許文献1を参照)やSURF(Speeded Up Robust Features)(例えば、非特許文献4を参照)が知られている。SIFT及びSURFでは、画像が回転していても、また、画像のスケールが異なっていても、これらの変化に不変な(影響されない)局所特徴量を計算できる。従って、2つの画像の間の対応点を探索する際に、画像が回転していても、また、画像のスケールが異なっていても、適切に画像間の対応点を求めることができる。   As typical methods for obtaining local feature amounts, SIFT (Scale Invariant Feature Transform) (for example, see Non-Patent Document 3 and Patent Document 1) and SURF (Speeded Up Robust Features) (for example, see Non-Patent Document 4) It has been known. In SIFT and SURF, even if the image is rotated or the scale of the image is different, it is possible to calculate local feature amounts that are invariant (not affected) by these changes. Therefore, when searching for corresponding points between two images, the corresponding points between the images can be appropriately obtained even if the images are rotated or the scales of the images are different.

以下、SIFTを例に、局所特徴量の算出手法を説明する。図24は、SIFTによる局所特徴量の算出処理のフロー図である。また、図25〜28は、SIFTによる局特徴量の算出処理を説明するための図である。局所特徴量算出処理では、まず、図25(a)に示すように、画像TPから特徴点p及びその特徴点を中心として設定される近傍領域NRが抽出される(ステップS71)。特徴点pが複数ある場合には、それぞれの特徴点pに対して、近傍領域NRが設定される。この特徴点p及び近傍領域NRの抽出処理では、DoGフィルタにより、特徴点pの位置とともに、画像のスケール情報を出力する。このスケール情報に応じて特徴点pを中心とする近傍領域NRを切り出すことで、スケール不変性を実現する。   Hereinafter, a technique for calculating a local feature amount will be described using SIFT as an example. FIG. 24 is a flowchart of a local feature amount calculation process using SIFT. 25 to 28 are diagrams for explaining the calculation process of the station feature amount by SIFT. In the local feature amount calculation process, first, as shown in FIG. 25A, a feature point p and a neighboring region NR set around the feature point are extracted from the image TP (step S71). When there are a plurality of feature points p, the neighborhood region NR is set for each feature point p. In the extraction process of the feature point p and the neighboring region NR, the scale information of the image is output together with the position of the feature point p by the DoG filter. Scale invariance is realized by cutting out the neighboring region NR centered on the feature point p in accordance with the scale information.

次に、主軸の方向を求める(ステップS72)。主軸の計算処理では、各特徴点pについて設定されたそれぞれの近傍領域NRに対して、以下の処理を適用する。まず、図25(c)、(d)に示すように、近傍領域NR内の各ピクセルについて、x方向及びy方向の微分値を計算して、エッジ強度m(x,y)とエッジ勾配方向θ(x,y)を求める。ここで、エッジ強度m(x,y)には、特徴点pを中心とするガウス窓G(x,y,σ)(図25(b)参照)によって重み付けをして、重み付けエッジ強度mhat(x,y)を得る。これにより、近傍領域NR中の中央のピクセルほど重要な情報を持つとみなされる。   Next, the direction of the spindle is obtained (step S72). In the calculation processing of the main axis, the following processing is applied to each neighboring region NR set for each feature point p. First, as shown in FIGS. 25C and 25D, the differential values in the x direction and the y direction are calculated for each pixel in the neighboring region NR, and the edge intensity m (x, y) and the edge gradient direction are calculated. θ (x, y) is obtained. Here, the edge strength m (x, y) is weighted by a Gaussian window G (x, y, σ) (see FIG. 25B) centered on the feature point p, and the weighted edge strength mhat ( x, y). Thereby, it is considered that the central pixel in the neighboring region NR has important information.

次に、エッジ勾配方向ヒストグラムを生成する。具体的には、各ピクセルのエッジ勾配方向を36通りに量子化し、該当する方向に重み付けエッジ強度mhat(x,y)投票する。このようにして、近傍領域NR中のすべてのピクセルについて、エッジ勾配方向の量子化及び重み付けエッジ強度の投票をすることで、図25(e)に示すようなエッジ勾配方向ヒストグラムを得る。次に、この勾配方向ヒストグラムから最大値を検出して、最大値を有する方向の左右の値を用いて二次関数をフィッティングして、その極大に対応する方向を主軸の方向vとする。   Next, an edge gradient direction histogram is generated. Specifically, 36 edge gradient directions of each pixel are quantized, and the weighted edge strength mhat (x, y) is voted in the corresponding direction. In this way, the edge gradient direction histogram as shown in FIG. 25E is obtained by quantizing the edge gradient direction and voting the weighted edge strength for all the pixels in the neighboring region NR. Next, the maximum value is detected from the gradient direction histogram, and a quadratic function is fitted using the left and right values in the direction having the maximum value, and the direction corresponding to the maximum is set as the direction v of the main axis.

次に、近傍領域内のテクスチャパターンを回転補正する(ステップS73)。この回転補正では、ステップS72で求めた主軸方向vが基準方向RDと一致するように、近傍領域NR内のテクスチャパターンを回転させる。図26は、基準方向が水平右方向である例を示している。近傍領域NRを回転した後の各ピクセルの値は、周辺ピクセルを線形補間することで求める。回転されたテクスチャパターンに対しては、新たな近傍領域NR’を設定する。   Next, the rotation of the texture pattern in the vicinity region is corrected (step S73). In this rotation correction, the texture pattern in the neighboring region NR is rotated so that the principal axis direction v obtained in step S72 matches the reference direction RD. FIG. 26 shows an example in which the reference direction is the horizontal right direction. The value of each pixel after rotating the neighboring region NR is obtained by linearly interpolating the surrounding pixels. A new neighboring region NR ′ is set for the rotated texture pattern.

次に、局所特徴量を算出する(ステップS74)。局所特徴量を算出するために、まず、回転補正されたテクスチャパターンに対して新たに設定された近傍領域NR’の各ピクセルについて、再度、x方向及びy方向の微分値を計算し、図27(a)に示すように、エッジ勾配方向及びエッジ強度を求める。なお、図27において、矢印の方向はエッジ勾配方向を表しており、矢印の長さはエッジ強度を表している。   Next, a local feature amount is calculated (step S74). In order to calculate the local feature amount, first, the differential values in the x direction and the y direction are calculated again for each pixel in the neighborhood region NR ′ newly set with respect to the texture pattern subjected to the rotation correction. As shown in (a), the edge gradient direction and the edge strength are obtained. In FIG. 27, the arrow direction represents the edge gradient direction, and the arrow length represents the edge strength.

次に、各ピクセルのエッジ勾配方向を8通りに量子化するとともに、図27(b)に示すように、近傍領域を4×4に分割して、16の投票セルVCを定義する。図27(b)の例では、2×2のピクセルで1つの投票セルVCを形成している。そして、各投票セルVCについて、8方向の勾配方向ヒストグラムを求める。以上の演算より、16×8=128次元の特徴ベクトルが得られる。この特徴ベクトルの長さを1に正規化すると、局所特徴量が得られる。   Next, the edge gradient directions of each pixel are quantized into eight ways, and the neighborhood region is divided into 4 × 4 to define 16 voting cells VC as shown in FIG. In the example of FIG. 27B, one voting cell VC is formed by 2 × 2 pixels. Then, eight gradient direction histograms are obtained for each voting cell VC. From the above calculation, a feature vector of 16 × 8 = 128 dimensions is obtained. When the length of this feature vector is normalized to 1, a local feature amount is obtained.

以上のようにして、回転不変性及びスケール不変性を有する局所特徴量を得ることができる。なお、上記はSIFTによる局所特徴量の算出処理であるが、SURFも同様の考え方に基づいている。   As described above, a local feature amount having rotation invariance and scale invariance can be obtained. Although the above is the local feature amount calculation processing by SIFT, SURF is also based on the same concept.

米国特許第6711293号公報U.S. Pat. No. 6,711,293 "Improving bag-of-features for large scale image search", International Journal of computer vision, 2010"Improving bag-of-features for large scale image search", International Journal of computer vision, 2010 "Unsupervised 3D object recognition and reconstruction in unordered datasets," International Conference on 3-D Digital Imaging and Modeling (3DIM 2005)"Unsupervised 3D object recognition and reconstruction in unordered datasets," International Conference on 3-D Digital Imaging and Modeling (3DIM 2005) "Distinctive image features from scale-invariant keypoints," International Journal of Computer Vision, 60, 2 (2004)"Distinctive image features from scale-invariant keypoints," International Journal of Computer Vision, 60, 2 (2004) Herbert Bay, Andreas Ess, Tinne Tuytelaars, Luc Van Gool, "SURF: Speeded Up Robust Features", Computer Vision and Image Understanding (CVIU), Vol. 110, No. 3, pp. 346-359, 2008Herbert Bay, Andreas Ess, Tinne Tuytelaars, Luc Van Gool, "SURF: Speeded Up Robust Features", Computer Vision and Image Understanding (CVIU), Vol. 110, No. 3, pp. 346-359, 2008

SIFTは、局所特徴量の実行速度が遅いという問題がある。また、SURFはSIFTの計算速度を改善した手法であるが、それでも携帯端末のような低スペックのハードウェアで動作させられるほどのパフォーマンスは得られない。このように実行速度が遅いのには、次の2つの要因があると考えられる。   SIFT has a problem that the execution speed of local features is slow. SURF is a technique that improves the calculation speed of SIFT, but it still does not provide performance sufficient to operate with low-spec hardware such as a portable terminal. It can be considered that there are the following two factors for the slow execution speed.

1つ目の要因は、SIFTやSURFによる局所特徴量算出処理では、主軸方向vを求めるために近傍領域NRの各ピクセルについて微分計算を行い、求めた主軸方向vに基づいてテクスチャパターンを回転補正して、回転補正された後の新たな近傍領域NR’の各ピクセルついて、局所特徴量を算出するために、再び微分計算を行っていることである。即ち、主軸を求めるための微分計算と局所特徴量を求めるための微分計算とは、類似した処理であるにもかかわらず、それぞれが独立に行われている。   The first factor is that in the local feature amount calculation processing by SIFT or SURF, in order to obtain the principal axis direction v, differential calculation is performed for each pixel in the neighboring region NR, and the texture pattern is rotationally corrected based on the obtained principal axis direction v. Then, the differential calculation is performed again to calculate the local feature amount for each pixel in the new neighboring region NR ′ after the rotation correction. That is, the differential calculation for determining the main axis and the differential calculation for determining the local feature amount are performed independently, although they are similar processes.

2つの目の要因は、テクスチャパターンを回転補正するための計算が膨大な量になっていることである。テクスチャパターンの回転補正の計算にはサブピクセル単位での線形補間処理が必要であり、膨大な浮動小数点計算を伴うので、計算量は多くなる。   The second factor is a huge amount of calculation for rotationally correcting the texture pattern. Calculation of texture pattern rotation correction requires linear interpolation processing in units of sub-pixels and involves a huge amount of floating-point calculations, which increases the amount of calculation.

そこで、本発明は、局所特徴量を高速に算出できる局所特徴量算出装置及び方法、並びにそれらを利用した対応点探索装置及び方法を提供することを目的とする。   Therefore, an object of the present invention is to provide a local feature amount calculating apparatus and method capable of calculating a local feature amount at high speed, and a corresponding point searching apparatus and method using them.

本発明の局所特徴量算出装置は、画像の局所特徴量を算出する局所特徴量算出装置であって、前記画像から特徴点及び前記特徴点の近傍に設定される近傍領域を抽出する特徴点近傍領域抽出部と、前記近傍領域内の各ピクセルの方向及びその方向の強度をそれぞれ算出する方向強度計算部と、前記近傍領域の主軸方向を検出する主軸方向検出部と、前記各ピクセルについて、基準投票セルパターンを前記主軸方向に応じた角度で回転させて得られる回転済投票セルパターンの投票セルのうちの当該ピクセルが属する投票セルに対して、前記方向強度計算部にて算出された当該ピクセルの方向を前記主軸方向に応じて補正して得られる補正済方向に従って、前記方向強度計算部にて算出された当該ピクセルの方向の強度を投票することで、前記特徴点の局所特徴量を求める局所特徴量算出部とを備えた構成を有している。   The local feature amount calculation apparatus according to the present invention is a local feature amount calculation device that calculates a local feature amount of an image, and extracts a feature point and a neighborhood region set in the vicinity of the feature point from the image. For each pixel, a region extraction unit, a direction intensity calculation unit that calculates the direction of each pixel in the neighboring region and the intensity of that direction, a principal axis direction detection unit that detects the principal axis direction of the neighboring region, and the respective pixels The pixel calculated by the direction intensity calculation unit for the voting cell to which the pixel belongs among the voting cells of the rotated voting cell pattern obtained by rotating the voting cell pattern at an angle corresponding to the principal axis direction. In accordance with the corrected direction obtained by correcting the direction according to the main axis direction, voting the intensity of the direction of the pixel calculated by the direction intensity calculation unit, It has a configuration in which a local feature amount calculation unit for obtaining the local feature quantity of feature points.

この構成により、回転不変性を実現するために、特徴点の近傍領域のテクスチャパターンを回転させた上で新たに設定した投票セルパターンのセルに投票をするのではなく、投票セルパターンを回転させて、その回転した投票セルパターン(回転済投票セルパターン)の投票セルに投票を行なうので、テクスチャパターンを回転させるための膨大な浮動小数点計算を伴うサブピクセル単位の線形補間処理が不要となり、局所特徴量の算出を高速化できる。なお、特徴点近傍領域抽出部は、画像を構成するピクセルのうちの所定の条件を満たすピクセルのみを特徴点として抽出してもよいし、画像のすべてのピクセルを特徴点としてもよい。また、主軸方向検出部は、画像を生成する際の撮像装置に備えられたジャイロセンサ、地磁気センサ、重力センサ等の検出値に基づいて検出してよい。   With this configuration, in order to achieve rotation invariance, the voting cell pattern is rotated instead of voting on the newly set voting cell pattern cell after rotating the texture pattern in the vicinity of the feature point. Thus, voting is performed on the voting cells of the rotated voting cell pattern (rotated voting cell pattern), so that sub-pixel linear interpolation processing with enormous floating point calculation for rotating the texture pattern is not necessary, The calculation of the feature amount can be speeded up. Note that the feature point neighboring region extraction unit may extract only pixels satisfying a predetermined condition among pixels constituting the image as feature points, or may use all pixels of the image as feature points. Further, the main axis direction detection unit may detect based on detection values of a gyro sensor, a geomagnetic sensor, a gravity sensor, and the like provided in the imaging device when generating an image.

また、上記の局所特徴量算出装置において、前記主軸方向検出部は、前記方向強度計算部にて算出された前記近傍領域中の複数のピクセルの方向及びその方向の強度に基づいて、前記近傍領域の主軸方向を検出する。   Further, in the above-described local feature amount calculation device, the principal axis direction detection unit is configured to determine the neighborhood region based on the direction of the plurality of pixels in the neighborhood region calculated by the direction strength calculation unit and the intensity in the direction. Detects the main shaft direction.

上述のように、本発明の局所特徴量算出装置は、回転不変性を実現するために、テクスチャパターンを回転させるのではなく、投票セルパターンを回転させて、各ピクセルの方向を補正した上で投票を行なうので、回転後のテクスチャパターンについて再度各ピクセルの方向及びその方向の強度を計算することが不要になり、方向強度計算部で算出された各ピクセルの方向及びその方向の強度は、主軸方向の検出にも利用でき、かつ局所特徴量の算出にも利用できる。これにより、各ピクセルの方向及びその方向の強度を算出するための微分計算は一度で済み、局所特徴量の算出を高速化できる。   As described above, the local feature amount calculation apparatus according to the present invention corrects the direction of each pixel by rotating the voting cell pattern instead of rotating the texture pattern in order to realize rotation invariance. Since voting is performed, it becomes unnecessary to calculate the direction of each pixel and the intensity of the direction again for the rotated texture pattern. The direction of each pixel and the intensity of the direction calculated by the direction intensity calculation unit are the main axes. It can be used for direction detection, and can also be used for calculation of local features. Thereby, the differential calculation for calculating the direction of each pixel and the intensity of the direction is sufficient, and the calculation of the local feature amount can be speeded up.

また、上記の局所特徴量算出装置は、さらに、前記ピクセルの方向を量子化する方向量子化部を備え、前記主軸方向検出部は、前記方向量子化部にて量子化されたピクセルの方向に従って当該ピクセルの方向の強度を投票することで、方向ヒストグラムを生成し、前記方向ヒストグラムのピーク近傍を曲線近似して、当該曲線の極大に対応する方向を前記主軸方向として検出する。   The local feature amount calculation apparatus further includes a direction quantization unit that quantizes the direction of the pixel, and the principal axis direction detection unit follows the direction of the pixel quantized by the direction quantization unit. By voting the intensity of the direction of the pixel, a direction histogram is generated, the vicinity of the peak of the direction histogram is approximated by a curve, and the direction corresponding to the maximum of the curve is detected as the main axis direction.

この構成により、量子化された方向ごとに強度を累積して、強度の累積値が最も大きい方向を主軸方向として検出できる。また、ヒストグラムのピークを曲線近似してその極大を主軸方向とするので、実数の主軸方向を得ることができる。なお、主軸方向は、ピクセルの方向を量子化した際の量子化数(整数)で表現されてもよいし、ラジアンで表現されてもよい。   With this configuration, the intensity is accumulated for each quantized direction, and the direction with the largest accumulated intensity value can be detected as the principal axis direction. Further, since the peak of the histogram is approximated by a curve and the maximum is set as the main axis direction, a real main axis direction can be obtained. The principal axis direction may be expressed by a quantization number (integer) when the pixel direction is quantized, or may be expressed in radians.

また、上記の局所特徴量算出装置は、さらに、前記基準投票セルパターンを、前記主軸方向に応じた角度だけ回転させることで、前記回転済投票セルパターンを生成する投票セルパターン生成部を備える。   In addition, the local feature amount calculation device further includes a voting cell pattern generation unit that generates the rotated voting cell pattern by rotating the reference voting cell pattern by an angle corresponding to the main axis direction.

この構成によれば、主軸方向に対応して回転された回転済投票セルパターンを生成できる。   According to this structure, the rotated voting cell pattern rotated corresponding to the main axis direction can be generated.

また、上記の局所特徴量算出装置は、さらに、前記方向強度計算部にて算出されたピクセルの方向を、前記主軸方向に応じて補正するための方向補正パターンを生成する方向補正パターン生成部を備え、前記局所特徴量算出部は、前記方向補正パターンを用いて、各ピクセルの方向を補正することで、前記補正済方向を得る。   The local feature amount calculation device further includes a direction correction pattern generation unit that generates a direction correction pattern for correcting the direction of the pixel calculated by the direction intensity calculation unit according to the principal axis direction. The local feature amount calculation unit obtains the corrected direction by correcting the direction of each pixel using the direction correction pattern.

この構成により、主軸方向に対応してピクセルの方向を補正するので、回転済投票セルパターンに投票するための適切な方向を取得できる。   With this configuration, since the direction of the pixel is corrected corresponding to the main axis direction, an appropriate direction for voting on the rotated voting cell pattern can be acquired.

また、上記の局所特徴量算出装置は、さらに、前記ピクセルの方向を量子化する方向量子化部を備え、前記主軸方向検出部は、前記方向量子化部にて量子化されたピクセルの方向に従って当該ピクセルの方向の強度を投票することで、方向ヒストグラムを生成し、前記方向ヒストグラムにて極大値を有する方向を前記主軸方向として検出する。   The local feature amount calculation apparatus further includes a direction quantization unit that quantizes the direction of the pixel, and the principal axis direction detection unit follows the direction of the pixel quantized by the direction quantization unit. A direction histogram is generated by voting the intensity of the direction of the pixel, and a direction having a maximum value is detected as the main axis direction in the direction histogram.

この構成によれば、量子化された方向ごとにその方向の強度を累積して、強度の累積値が最も大きい方向を主軸方向として検出できる。また、ヒストグラムにて極大値を有する方向を主軸方向とするので、離散化された主軸方向を得ることができる。なお、主軸方向は、ピクセルの方向を量子化した際の量子化数(整数)で表現されてもよいし、ラジアンで表現されてもよい。   According to this configuration, the intensity in each direction is accumulated for each quantized direction, and the direction having the largest accumulated intensity value can be detected as the main axis direction. Also, since the direction having the maximum value in the histogram is the main axis direction, the discretized main axis direction can be obtained. The principal axis direction may be expressed by a quantization number (integer) when the pixel direction is quantized, or may be expressed in radians.

また、上記の局所特徴量算出装置は、さらに、前記主軸方向検出部にて検出され得る複数の主軸方向にそれぞれ対応する複数の角度で前記基準投票セルパターンを回転させて得られた複数の投票セルパターンを記憶した投票セルパターンテーブルを備え、前記局所特徴量算出部は、前記投票セルパターンテーブルに記憶された投票セルパターンのうちの前記主軸方向に対応する投票セルパターンを前記回転済投票セルパターンとして使用して、前記局所特徴量を算出する。   Further, the local feature amount calculation device further includes a plurality of votes obtained by rotating the reference voting cell pattern at a plurality of angles respectively corresponding to a plurality of principal axis directions that can be detected by the principal axis direction detection unit. A voting cell pattern table in which cell patterns are stored, wherein the local feature amount calculation unit includes voting cell patterns corresponding to the main axis direction among the voting cell patterns stored in the voting cell pattern table as the rotated voting cells; The local feature amount is calculated using the pattern.

上記のように、主軸方向が離散化された値として得られる場合には、各主軸方向に対応する回転済投票セルパターンを予め用意しておいてテーブル化することができる。上記の構成により、そのようなテーブルを用いて、主軸方向が得られたときに、その主軸方向に対応する回転済投票セルパターンをテーブルから選択することで、投票セルパターンをその都度計算で求める必要がなくなるので、処理を高速化できる。また、投票セルパターンに記憶させておく回転済投票セルパターンを近傍領域と同じ大きさとすれば、各ピクセルが投票すべき投票セルを、それぞれ1度のメモリアクセス(テーブルのルックアップ)だけで得ることができる。   As described above, when the spindle direction is obtained as a discretized value, a rotated voting cell pattern corresponding to each spindle direction can be prepared in advance and tabulated. With the above configuration, when a spindle direction is obtained using such a table, a voting cell pattern is obtained by calculation each time by selecting a rotated voting cell pattern corresponding to the spindle direction from the table. Since it is not necessary, the processing can be speeded up. Further, if the rotated voting cell pattern stored in the voting cell pattern is the same size as the neighboring area, each voting cell to be voted by each pixel is obtained only by one memory access (table lookup). be able to.

また、上記の局所特徴量算出装置は、さらに、前記主軸方向検出部にて検出され得る複数の主軸方向にそれぞれ対応する複数の角度で前記基準投票セルパターンを回転させて得られた複数の投票セルパターンのうちの、パターンの形状が互いに重複しない複数の代表投票セルパターンを記憶した代表投票セルパターンテーブルと、前記主軸方向に従って前記代表投票セルパターンのセル番号を変換するためのセル番号変換テーブルとを備え、前記局所特徴量算出部は、前記投票セルパターンテーブルに記憶された前記代表投票セルパターンのうちの前記主軸方向に対応する代表投票セルパターンのセル番号を、前記セル番号変換テーブルを参照して、前記主軸方向に従って変換することで、前記方向の強度を投票する投票セルを決定する。   Further, the local feature amount calculation device further includes a plurality of votes obtained by rotating the reference voting cell pattern at a plurality of angles respectively corresponding to a plurality of principal axis directions that can be detected by the principal axis direction detection unit. Among the cell patterns, a representative voting cell pattern table storing a plurality of representative voting cell patterns whose patterns do not overlap each other, and a cell number conversion table for converting the cell numbers of the representative voting cell patterns according to the main axis direction And the local feature amount calculation unit calculates a cell number of the representative voting cell pattern corresponding to the main axis direction among the representative voting cell patterns stored in the voting cell pattern table, and the cell number conversion table. Referring to the voting cell for voting the strength of the direction by converting according to the direction of the main axis.

基準投票セルパターンが点対称の形状を有する場合には、それを回転させると、パターン形状が同じである回転済投票セルパターンが周期的に出現する。上記の構成は、この周期性を利用して、投票セルパターンテーブルの圧縮を図ったものである。即ち、パターン形状が重複する複数の回転済投票セルパターンについては、その1つのみを代表投票セルパターンとして投票セルパターンテーブルに記憶しておき、代表投票セルパターンとパターン形状が同じであるがセルの番号が異なる主軸方向については、代表投票セルパターンの投票セル番号を変換することで、当該主軸方向の回転済セルパターンを得ることができる。   If the reference voting cell pattern has a point-symmetric shape, when it is rotated, rotated voting cell patterns having the same pattern shape appear periodically. The above configuration uses the periodicity to compress the voting cell pattern table. That is, for a plurality of rotated voting cell patterns having overlapping pattern shapes, only one of them is stored as a representative voting cell pattern in the voting cell pattern table, and the pattern shape is the same as the representative voting cell pattern. For the spindle directions having different numbers, the rotated cell pattern in the spindle direction can be obtained by converting the voting cell number of the representative voting cell pattern.

また、上記の局所特徴量算出装置は、さらに、前記主軸方向検出部にて検出され得る複数の主軸方向の各々について、前記方向量子化部にて量子化された方向に対する前記補正済方向が規定された方向補正テーブルを備え、前記局所特徴量算出部は、前記方向補正テーブルを参照することで、前記主軸方向に従って、前記方向量子化部にて量子化された方向に対応する前記補正済方向を取得する。   Further, in the local feature amount calculation device, the corrected direction with respect to the direction quantized by the direction quantization unit is defined for each of a plurality of principal axis directions that can be detected by the main axis direction detection unit. The local feature amount calculation unit refers to the direction correction table, and the corrected direction corresponding to the direction quantized by the direction quantization unit according to the principal axis direction by referring to the direction correction table. To get.

ピクセルの方向についても、主軸方向が離散的に得られる場合には、テーブルを用意しておくことができる。上記の構成により、そのようなテーブルを用いて各ピクセルの方向を補正するので、各ピクセルについて、それぞれ1度のメモリアクセス(テーブルのルックアップ)だけで補正済方向を得ることができ、処理を高速化できる。   As for the pixel direction, a table can be prepared if the principal axis direction can be obtained discretely. With the above configuration, since the direction of each pixel is corrected using such a table, the corrected direction can be obtained for each pixel by only one memory access (table lookup). Speed can be increased.

また、上記の局所特徴量算出装置は、さらに、前記主軸方向検出部にて検出され得る複数の主軸方向のうちの、前記方向量子化部にて量子化された方向に対する前記補正済方向が同一の周期を有する主軸方向を1グループとして、各グループについて、前記方向量子化部にて量子化された方向に対する代表補正済方向が規定された代表方向補正テーブルと、前記主軸方向に従って前記代表方向補正テーブルの前記代表補正済方向を変換するための方向変換テーブルと、前記局所特徴量算出部は、前記代表方向補正テーブルに規定された前記代表補正済方向のうちの、前記主軸方向及び前記方向量子化部にて量子化された方向に対応する代表補正済方向を、前記方向変換テーブルを参照して、前記主軸方向に従って変換することで、前記補正済方向を取得する。   In the local feature amount calculation device, the corrected direction with respect to the direction quantized by the direction quantization unit among the plurality of main axis directions that can be detected by the main axis direction detection unit is the same. A representative direction correction table in which a representative corrected direction with respect to the direction quantized by the direction quantization unit is defined for each group, and the representative direction correction according to the main axis direction. A direction conversion table for converting the representative corrected direction of the table, and the local feature amount calculation unit include the main axis direction and the direction quantum of the representative corrected directions defined in the representative direction correction table. By converting a representative corrected direction corresponding to the direction quantized by the conversion unit according to the main axis direction with reference to the direction conversion table, the corrected To get the direction.

方向補正テーブルにおいても、補正済方向が周期性を有する場合には、テーブルを圧縮できる。上記の構成により、補正済方向が同一の周期を有する主軸方向を1グループとして、各グループにつき代表の補正済方向のみを記憶しておき、実際に方向を補正する場合には、代表補正方向テーブルを参照して、主軸方向に従って代表補正方向を求めるとともに、主軸方向に従って、得られた代表補正方向を変換することで、補正済方向を得ることができる。   Also in the direction correction table, when the corrected direction has periodicity, the table can be compressed. With the above configuration, when the main axis direction having the same period of the corrected direction is regarded as one group, only the representative corrected direction is stored for each group, and when the direction is actually corrected, the representative correction direction table Referring to FIG. 5, the corrected direction can be obtained by obtaining the representative correction direction according to the main axis direction and converting the obtained representative correction direction according to the main axis direction.

また、上記の局所特徴量算出装置において、前記局所特徴量算出部は、前記各ピクセルについて、当該ピクセルが複数の前記投票セルに属する場合に、当該ピクセルにおいて各投票セルが占める割合に応じて、当該複数の前記投票セルに当該ピクセルの方向の強度を投票する。   Further, in the above-described local feature quantity calculation device, the local feature quantity calculation unit, for each pixel, when the pixel belongs to a plurality of voting cells, according to the proportion of each voting cell in the pixel, Vote the intensity in the direction of the pixel to the plurality of voting cells.

投票セルパターンにおいては、各ピクセルがいずれか1つの投票セルのみに属するように投票セルを設定することができるが、そうすると、回転済投票セルパターンの回転角の違いによって、投票セルの境界付近では誤差が生じることになる。上記の構成により、1つのピクセルを複数の投票セルに属するようにすることで、回転済投票セルパターンの回転角によらずに正確な投票値を得ることができる。   In the voting cell pattern, it is possible to set the voting cell so that each pixel belongs to only one voting cell. However, in the vicinity of the voting cell boundary due to the difference in the rotation angle of the rotated voting cell pattern. An error will occur. With the above configuration, by making one pixel belong to a plurality of voting cells, an accurate voting value can be obtained regardless of the rotation angle of the rotated voting cell pattern.

また、上記の局所特徴量算出装置において、前記方向は、ピクセルのエッジ勾配方向であり、前記方向の強度は、ピクセルのエッジ強度である。   In the local feature amount calculation apparatus, the direction is a pixel edge gradient direction, and the intensity in the direction is a pixel edge intensity.

この構成により、方向及びその強度は、ピクセルを微分することで得ることができる。   With this configuration, the direction and its intensity can be obtained by differentiating the pixels.

また、上記の局所特徴量算出装置において、前記局所特徴量算出部は、前記方向の強度を投票する投票セルの大きさに応じて前記方向の強度に重み付けをして投票する。   Further, in the above-described local feature quantity calculation device, the local feature quantity calculation unit weights the direction strength according to the size of the voting cell for voting the direction strength and votes.

上述のように、投票セルパターンにおいては、各ピクセルがいずれか1つの投票セルのみに属するように投票セルを設定することができるが、そうすると、同じ投票セルの面積が回転済投票セルパターンの回転角の違いによって異なることが生じる。上記の構成により、投票セルの大きさに応じて投票する強度に重み付けをするので、上記のように回転済投票セルパターンの回転角の違いによる同一の投票セルへの投票の累積値の誤差を緩和できる。   As described above, in the voting cell pattern, it is possible to set the voting cell so that each pixel belongs to only one voting cell, but the area of the same voting cell is rotated by the rotated voting cell pattern. Different things occur due to the difference in corners. According to the above configuration, the voting strength is weighted according to the size of the voting cell, so that the error of the cumulative value of voting to the same voting cell due to the difference in the rotation angle of the rotated voting cell pattern as described above can be obtained. Can be relaxed.

また、上記の局所特徴量算出装置において、前記方向強度計算部は、前記特徴点に近いピクセルほど重みを重くした重み付けをして前記方向の強度を算出する。   In the local feature amount calculation device, the direction intensity calculation unit calculates the intensity in the direction by weighting a pixel closer to the feature point with a higher weight.

この構成により、近傍領域において、特徴点に近いピクセルほど重要なピクセルであるとみなされる。   With this configuration, a pixel closer to a feature point is regarded as a more important pixel in the vicinity region.

本発明の別の態様は、複数の画像の間の対応点を探索する対応点探索装置であって、上記のいずれかに記載の局所特徴量算出装置と、前記局所特徴量算出装置を用いて算出した前記複数の画像のそれぞれの局所特徴量を互いに比較することで前記複数の画像の間の対応点を探索する対応点探索部とを備えた構成を有している。   Another aspect of the present invention is a corresponding point search device that searches for corresponding points between a plurality of images, using the local feature amount calculation device described above and the local feature amount calculation device. And a corresponding point search unit that searches for corresponding points between the plurality of images by comparing the calculated local feature amounts of the plurality of images with each other.

この構成により、複数の画像の間の対応点を探索するために、高速に局所特徴量を算出できる。   With this configuration, the local feature amount can be calculated at high speed in order to search for corresponding points between a plurality of images.

本発明のさらに別の態様は、画像の局所特徴量を算出する局所特徴量算出方法であって、前記画像から特徴点を抽出する特徴点抽出ステップと、前記特徴点の近傍に近傍領域を設定する近傍領域設定ステップと、前記近傍領域内の各ピクセルの方向を算出する方向算出ステップと、前記近傍領域内の各ピクセルの方向の強度を算出する強度算出ステップと、前記近傍領域内の複数のピクセルの前記方向及び前記方向の強度に基づいて、当該近傍領域の主軸方向を検出する主軸方向検出ステップと、基準投票セルパターンを前記主軸方向に応じた角度で回転させて回転済投票セルパターンを取得する投票セルパターン回転ステップと、各ピクセルの前記方向を前記主軸方向に応じて補正して補正済方向を取得する方向補正ステップと、前記近傍領域内の各ピクセルについて、前記回転済投票セルパターンの投票セルのうちの当該ピクセルが属する投票セルに対して、前記補正済方向に従って、当該ピクセルの前記方向の強度を投票することで、前記特徴点の局所特徴量を求める局所特徴量算出ステップとを含む構成を有している。   Still another aspect of the present invention is a local feature amount calculation method for calculating a local feature amount of an image, the feature point extracting step for extracting a feature point from the image, and setting a neighborhood region in the vicinity of the feature point A neighboring area setting step, a direction calculating step for calculating the direction of each pixel in the neighboring area, an intensity calculating step for calculating the intensity in the direction of each pixel in the neighboring area, and a plurality of areas in the neighboring area Based on the direction of the pixel and the intensity of the direction, a main axis direction detecting step for detecting the main axis direction of the neighboring region, and rotating the reference voting cell pattern by an angle according to the main axis direction A voting cell pattern rotation step to be acquired, a direction correction step of correcting the direction of each pixel according to the principal axis direction to acquire a corrected direction, and the vicinity For each pixel in the area, voting the intensity of the pixel in the direction according to the corrected direction with respect to the voting cell to which the pixel belongs among the voting cells of the rotated voting cell pattern. And a local feature amount calculating step for obtaining the local feature amount.

この構成によっても、回転不変性を実現するために、特徴点の近傍領域のテクスチャパターンを回転させた上で新たに設定した投票セルパターンのセルに投票をするのではなく、投票セルパターンを回転させて、その回転した投票セルパターン(回転済投票セルパターン)の投票セルに投票を行なうので、テクスチャパターンを回転させるための膨大な浮動小数点計算を伴うサブピクセル単位の線形補間処理が不要となり、局所特徴量の算出を高速化できる。なお、上記の各ステップは、必ずしも記載の順に実行されなくてもよい。上記のステップの一部が並行して実行され、又は、上記のステップの一部が記載の順とは異なる順に実行されてもよい。   Even with this configuration, in order to realize rotation invariance, the voting cell pattern is rotated instead of voting on the newly set voting cell pattern cell after rotating the texture pattern in the vicinity of the feature point. Then, since voting is performed on the voting cells of the rotated voting cell pattern (rotated voting cell pattern), linear interpolation processing in units of subpixels with a huge floating point calculation for rotating the texture pattern becomes unnecessary. The local feature amount can be calculated at high speed. Note that the above steps need not be executed in the order described. Some of the above steps may be performed in parallel, or some of the above steps may be performed in a different order than described.

本発明のさらに別の態様は、画像の局所特徴量を算出する局所特徴量算出方法であって、前記画像から特徴点を抽出する特徴点抽出ステップと、前記特徴点の近傍に近傍領域を設定する近傍領域設定ステップと、前記近傍領域内の各ピクセルの方向を算出する方向算出ステップと、前記近傍領域内の各ピクセルの前記方向を量子化する方向量子化ステップと、前記近傍領域内の各ピクセルの方向の強度を算出する強度算出ステップと、前記方向量子化ステップにて量子化されたピクセルの方向に従って当該ピクセルの方向の強度を投票することで、方向ヒストグラムを生成し、前記方向ヒストグラムにて極大値を有する方向を前記近傍領域の主軸方向として検出する主軸方向検出ステップと、前記近傍領域内の各ピクセルについて、前記主軸方向検出ステップにて検出され得る複数の主軸方向にそれぞれ対応する複数の角度で基準投票セルパターンを回転させて得られた複数の投票セルパターンを記憶した投票セルパターンテーブルを参照して、前記主軸方向に対応する投票セルパターンにおける、当該ピクセルが属する投票セルを決定する投票セル決定ステップと、前記近傍領域内の各ピクセルについて、前記主軸方向検出ステップにて検出され得る複数の主軸方向の各々について、前記方向量子化ステップにて量子化された方向に対する補正済方向が規定された方向補正テーブルを参照して、前記主軸方向及び前記方向量子化ステップにて量子化された方向に対応する補正済方向を取得する方向補正ステップと、前記近傍領域内の各ピクセルについて、前記投票セル決定ステップにて決定された投票セルに対して、前記補正済方向に従って、当該ピクセルの前記方向の強度を投票することで、前記特徴点の局所特徴量を求める局所特徴量算出ステップとを含む構成を有している。   Still another aspect of the present invention is a local feature amount calculation method for calculating a local feature amount of an image, the feature point extracting step for extracting a feature point from the image, and setting a neighborhood region in the vicinity of the feature point A neighboring region setting step, a direction calculating step for calculating a direction of each pixel in the neighboring region, a direction quantization step for quantizing the direction of each pixel in the neighboring region, and each of the neighboring region in the neighboring region A direction histogram is generated by voting the intensity of the direction of the pixel according to the direction of the pixel quantized in the intensity calculation step for calculating the intensity of the pixel direction and the direction quantization step, and the direction histogram A main axis direction detecting step for detecting a direction having a maximum value as a main axis direction of the neighboring area, and for each pixel in the neighboring area, the main axis Referring to a voting cell pattern table storing a plurality of voting cell patterns obtained by rotating a reference voting cell pattern at a plurality of angles respectively corresponding to a plurality of main axis directions that can be detected in the direction detecting step, the main axis A voting cell determination step for determining a voting cell to which the pixel belongs in a voting cell pattern corresponding to a direction, and for each of a plurality of principal axis directions that can be detected in the principal axis direction detection step for each pixel in the neighboring region. , Corrected with respect to the direction of the principal axis and the direction quantized in the direction quantization step with reference to the direction correction table in which the corrected direction with respect to the direction quantized in the direction quantization step is defined A direction correction step for obtaining a direction, and a voting cell determination step for each pixel in the neighboring region. A local feature amount calculating step for determining a local feature amount of the feature point by voting the intensity of the pixel in the direction according to the corrected direction. is doing.

この構成によっても、回転不変性を実現するために、特徴点の近傍領域のテクスチャパターンを回転させた上で新たに設定した投票セルパターンのセルに投票をするのではなく、投票セルパターンを回転させて、その回転した投票セルパターン(回転済投票セルパターン)の投票セルに投票を行なうので、テクスチャパターンを回転させるための膨大な浮動小数点計算を伴うサブピクセル単位の線形補間処理が不要となり、局所特徴量の算出を高速化できる。また、主軸方向が離散的な値としてえられるので、回転済投票セルパターンはテーブルを利用することにより取得でき、また、各ピクセルの方向もテーブルを用いて補正できるので、局所特徴量の算出をより高速化できる。なお、投票セルパターンテーブル及び方向補正テーブルは、圧縮されたテーブルと変換テーブルとの組合せであってもよい。また、上記の各ステップは、必ずしも記載の順に実行されなくてもよい。上記のステップの一部が並行して実行され、又は、上記のステップの一部が記載の順とは異なる順に実行されてもよい。   Even with this configuration, in order to realize rotation invariance, the voting cell pattern is rotated instead of voting on the newly set voting cell pattern cell after rotating the texture pattern in the vicinity of the feature point. Then, since voting is performed on the voting cells of the rotated voting cell pattern (rotated voting cell pattern), linear interpolation processing in units of subpixels with a huge floating point calculation for rotating the texture pattern becomes unnecessary. The local feature amount can be calculated at high speed. In addition, since the main axis direction is obtained as a discrete value, the rotated voting cell pattern can be obtained by using a table, and the direction of each pixel can also be corrected by using the table. It can be faster. The voting cell pattern table and the direction correction table may be a combination of a compressed table and a conversion table. Further, the above steps need not be executed in the order described. Some of the above steps may be performed in parallel, or some of the above steps may be performed in a different order than described.

本発明のさらに別の態様は、複数の画像の間の対応点を探索する対応点探索方法であって、上記の局所特徴量算出方法で前記複数の画像のそれぞれの局所特徴量を算出する局所特徴量算出ステップと、前記局所特徴量算出ステップで算出された前記複数の画像のそれぞれの局所特徴量を互いに比較することで前記複数の画像の間の対応点を探索する対応点探索ステップとを含む構成を有している。   Still another aspect of the present invention is a corresponding point search method for searching for corresponding points between a plurality of images, wherein the local feature amounts of the plurality of images are calculated by the local feature amount calculation method described above. A feature amount calculating step, and a corresponding point searching step of searching for corresponding points between the plurality of images by comparing each local feature amount of the plurality of images calculated in the local feature amount calculating step. It has the composition which includes.

この構成によっても、複数の画像の間の対応点を探索するために、高速に局所特徴量を算出できる。なお、上記の各ステップは、必ずしも記載の順に実行されなくてもよい。上記のステップの一部が並行して実行され、又は、上記のステップの一部が記載の順とは異なる順に実行されてもよい。   Even with this configuration, in order to search for corresponding points between a plurality of images, the local feature amount can be calculated at high speed. Note that the above steps need not be executed in the order described. Some of the above steps may be performed in parallel, or some of the above steps may be performed in a different order than described.

本発明のさらに別の態様は、上記のいずれかの方法を演算処理装置に実行させるためのプログラムである。   Yet another embodiment of the present invention is a program for causing an arithmetic processing device to execute any one of the above methods.

本発明によれば、回転不変性を実現するために、特徴点の近傍領域のテクスチャパターンを回転させた上で新たに設定した投票セルパターンのセルに投票をするのではなく、投票セルパターンを回転させて、その回転した投票セルパターンの投票セルに投票を行なうので、テクスチャパターンを回転させるための膨大な浮動小数点計算を伴うサブピクセル単位の線形補間処理が不要となり、局所特徴量の算出を高速化できる。   According to the present invention, in order to realize rotation invariance, instead of voting on a cell of the newly set voting cell pattern after rotating the texture pattern in the vicinity of the feature point, the voting cell pattern Rotating and voting on the voting cell of the rotated voting cell pattern eliminates the need for sub-pixel linear interpolation with enormous floating-point calculations to rotate the texture pattern, and calculates local features Speed can be increased.

本発明の第1の実施の形態の局所特徴量算出装置の構成を示すブロック図The block diagram which shows the structure of the local feature-value calculation apparatus of the 1st Embodiment of this invention. 本発明の第1の実施の形態の入力画像における特徴点及び近傍領域を示す図The figure which shows the feature point and vicinity area | region in the input image of the 1st Embodiment of this invention 本発明の第1の実施の形態の入力画像を多段階に縮小したピラミッド画像を示す図The figure which shows the pyramid image which reduced the input image of the 1st Embodiment of this invention in multiple steps 本発明の第1の実施の形態のエッジ勾配方向の量子化を説明するグラフThe graph explaining the quantization of the edge gradient direction according to the first embodiment of the present invention 本発明の第1の実施の形態のエッジ勾配方向のヒストグラムを示すグラフThe graph which shows the histogram of the edge gradient direction of the 1st Embodiment of this invention 本発明の第1の実施の形態の投票セルパターン(主軸方向0度)を示す図The figure which shows the voting cell pattern (0 degree of main axis directions) of the 1st Embodiment of this invention 本発明の第1の実施の形態の投票セルパターン(主軸方向22.5度)を示す図The figure which shows the voting cell pattern (main axis direction 22.5 degree | times) of the 1st Embodiment of this invention 本発明の第1の実施の形態の投票セルパターンを入力画像に重ねた様子を示す図The figure which shows a mode that the voting cell pattern of the 1st Embodiment of this invention was superimposed on the input image 本発明の第1の実施の形態の局所特徴量を示すベクトルを説明するための図The figure for demonstrating the vector which shows the local feature-value of the 1st Embodiment of this invention 本発明の第1の実施の形態の局所特徴量算出方法のフロー図The flowchart of the local feature-value calculation method of the 1st Embodiment of this invention 本発明の第2の実施の形態の局所特徴量算出装置の構成を示すブロック図The block diagram which shows the structure of the local feature-value calculation apparatus of the 2nd Embodiment of this invention. 本発明の第2の実施の形態の主軸の各方向に対応する各投票セルパターンを示す図The figure which shows each voting cell pattern corresponding to each direction of the main axis | shaft of the 2nd Embodiment of this invention. 本発明の第2の実施の形態の投票セルパターンテーブルを示す図The figure which shows the voting cell pattern table of the 2nd Embodiment of this invention. 本発明の第2の実施の形態の圧縮された投票セルパターンテーブルを示す図The figure which shows the compressed voting cell pattern table of the 2nd Embodiment of this invention 本発明の第2の実施の形態の投票セルパターンを決定するための圧縮用変換テーブルを示す図The figure which shows the conversion table for compression for determining the voting cell pattern of the 2nd Embodiment of this invention 本発明の第2の実施の形態の方向補正テーブルを示す図The figure which shows the direction correction table of the 2nd Embodiment of this invention. 本発明の第2の実施の形態の圧縮された方向補正テーブルを示す図The figure which shows the compressed direction correction table of the 2nd Embodiment of this invention. 本発明の第2の実施の形態の方向補正を行うための圧縮用変換テーブルを示す図The figure which shows the conversion table for compression for performing the direction correction of the 2nd Embodiment of this invention. 本発明の第2の実施の形態の局所特徴量算出方法のフロー図Flow chart of the local feature amount calculation method of the second embodiment of the present invention 本発明の第2の実施の形態の1つのピクセルについて複数の投票セルに投票をする処理を説明する図The figure explaining the process which votes for several voting cells about one pixel of the 2nd Embodiment of this invention 本発明の第3の実施の形態の対応点探索装置の構成を示すブロック図The block diagram which shows the structure of the corresponding point search apparatus of the 3rd Embodiment of this invention. 本発明の第3の実施の形態の対応点探索方法のフロー図The flowchart of the corresponding point search method of the 3rd Embodiment of this invention 2つの画像の間の対応点を示す図Diagram showing corresponding points between two images 局所特徴量を用いた画像検索を説明するための図Diagram for explaining image search using local features SIFTによる局特徴量の算出処理のフロー図Flow chart of calculation process of station feature value by SIFT SIFTによる局特徴量の算出処理を説明するための図The figure for demonstrating the calculation process of the station feature-value by SIFT SIFTによる局特徴量の算出処理を説明するための図The figure for demonstrating the calculation process of the station feature-value by SIFT SIFTによる局特徴量の算出処理を説明するための図The figure for demonstrating the calculation process of the station feature-value by SIFT

以下、本発明の実施の形態について図面を参照しながら説明する。以下に説明する実施の形態は、単なる例示であって、発明を限定するものではない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The embodiments described below are merely examples and do not limit the invention.

(第1の実施の形態)
図1は、本発明の第1の実施の形態の局所特徴量算出装置1の構成を示すブロック図である。局所特徴量算出装置1は、特徴点近傍領域抽出部11と、方向強度計算部12と、主軸方向検出部13と、投票セルパターン生成部14と、方向補正パターン生成部15と、局所特徴量算出部16とを備えている。局所特徴量算出装置1は、ハードウェアとして図1に示す構成が実現されてもよいし、演算処理装置にソフトウェア(コンピュータプログラム)が実装されることで図1に示す構成が実現されてもよい。局所特徴量算出装置1は、画像を入力して、その画像中の局所特徴量を出力する。
(First embodiment)
FIG. 1 is a block diagram showing a configuration of a local feature quantity calculation device 1 according to the first embodiment of this invention. The local feature amount calculation device 1 includes a feature point neighborhood region extraction unit 11, a direction strength calculation unit 12, a spindle direction detection unit 13, a voting cell pattern generation unit 14, a direction correction pattern generation unit 15, and a local feature amount. And a calculation unit 16. The local feature quantity calculation device 1 may implement the configuration shown in FIG. 1 as hardware, or may implement the configuration shown in FIG. 1 by installing software (computer program) in the arithmetic processing device. . The local feature quantity calculation device 1 inputs an image and outputs a local feature quantity in the image.

特徴点近傍領域抽出部11には、画像TPが入力される。特徴点近傍領域抽出部11は、対象画像を構成するピクセルの中から所定の条件を満たすピクセルを特徴点pとして抽出する。特徴点を抽出するための条件は、再現性の高い抽出が行えるように決定される。例えば、コーナー点(角)を抽出するアルゴリズム(コーナディテクタ)を用いて、特徴点を抽出できる。   An image TP is input to the feature point neighboring region extraction unit 11. The feature point neighboring region extraction unit 11 extracts a pixel satisfying a predetermined condition from the pixels constituting the target image as the feature point p. The conditions for extracting feature points are determined so that extraction with high reproducibility can be performed. For example, feature points can be extracted using an algorithm (corner detector) that extracts corner points (corners).

このように、入力画像を構成する複数のピクセルのうちの一部のピクセルのみを特徴点として抽出することで、入力画像のうちの一部のピクセルのみについて局所特徴量が求められるので、局所特徴量を用いた対応点探索では、高速に対応点を探索できる。一方、入力画像のすべてのピクセルを特徴点として抽出してもよい。この場合には、画像間の密な対応を得られることが期待できる。   In this way, by extracting only some of the plurality of pixels constituting the input image as feature points, local feature amounts can be obtained for only some of the pixels in the input image. In the corresponding point search using the quantity, the corresponding point can be searched at high speed. On the other hand, all pixels of the input image may be extracted as feature points. In this case, it can be expected that close correspondence between images can be obtained.

特徴点近傍領域抽出部11は、抽出された特徴点pの近傍の所定の領域を近傍領域NRとして設定してこれを抽出する。本実施の形態では、特徴点を中心とするW×Wピクセルの正方形の領域を近傍領域NRとする。図2は、特徴点近傍領域抽出部11によって、抽出された特徴点p〜p及び特徴点pの近傍領域をNRを示す図である。なお、近傍領域の形状は、正方形に限らず、円、長方形等の他の形状であってもよい。 The feature point neighborhood region extraction unit 11 sets a predetermined region near the extracted feature point p as the neighborhood region NR and extracts it. In the present embodiment, a square region of W × W pixels centering on the feature point is set as the neighborhood region NR. 2, the feature point neighboring region extraction unit 11, the extracted region in the vicinity of the feature point p 1 ~p 6 and the feature point p 1 is a diagram showing an NR 1. Note that the shape of the neighborhood region is not limited to a square, and may be another shape such as a circle or a rectangle.

特徴点近傍領域抽出部11は、図3に示すように、画像TPを多段階に縮小したピラミッド画像を求め、各縮尺の画像に対して同一の条件で、それぞれ独立に特徴点を抽出して近傍領域を定義してもよい。図3は、縮尺をs分の1として多段階に縮小したピラミッド画像を示している。こうすることで、スケール不変性を有し、スケールの相違に影響を受けない局所特徴量を求めることができる。また、特徴点近傍領域抽出部11は、DoGフィルタにより、特徴点とともにスケール情報を取得して、このスケール情報に応じて近傍領域を切り出してもよい。これによってもスケール不変性を有する局所特徴量を求めることができる。   As shown in FIG. 3, the feature point neighboring region extraction unit 11 obtains a pyramid image obtained by reducing the image TP in multiple stages, and extracts feature points independently from each other under the same conditions for each scale image. A neighborhood region may be defined. FIG. 3 shows a pyramid image reduced in multiple stages with a scale of 1 / s. By doing so, it is possible to obtain a local feature amount that has scale invariance and is not affected by the difference in scale. Moreover, the feature point vicinity area | region extraction part 11 may acquire scale information with a feature point with a DoG filter, and may cut out a vicinity area according to this scale information. This also makes it possible to obtain local feature quantities having scale invariance.

上記のようにして、特徴点近傍領域抽出部11は、1つの入力画像から、一般的には複数の特徴点p〜pを抽出し、各特徴点について近傍領域NRを設定する。そして、局所特徴量算出装置1は、各特徴点について、それぞれ局所特徴量を算出する。以下、方向強度計算部12、主軸方向検出部13、投票セルパターン生成部14、方向補正パターン生成部15、及び局所特徴量算出部16について説明するが、特徴点近傍領域抽出部11にて複数の特徴点p〜pが抽出された場合には、複数の特徴点p〜pの各々に対して、上記各部12〜16が以下に説明する処理を行う。以下の説明では、1つの特徴点について、その局所特徴量を求めるための処理を説明する。 As described above, the feature point neighboring region extraction unit 11 generally extracts a plurality of feature points p 1 to p N from one input image, and sets the neighborhood region NR for each feature point. And the local feature-value calculation apparatus 1 calculates a local feature-value about each feature point, respectively. Hereinafter, the direction intensity calculation unit 12, the spindle direction detection unit 13, the voting cell pattern generation unit 14, the direction correction pattern generation unit 15, and the local feature quantity calculation unit 16 will be described. When the feature points p 1 to p N are extracted, the respective units 12 to 16 perform the processing described below for each of the plurality of feature points p 1 to p N. In the following description, a process for obtaining a local feature amount of one feature point will be described.

方向強度計算部12は、近傍領域NR内の各ピクセルの方向及びその方向の強度を算出する。ここで、本発明において、ピクセルの「方向」は、当該ピクセルの周辺を含めた小領域における画素値の分布の偏りを表す。また、「方向の強度」は、その偏りの度合い、即ち「方向」の信頼度を表す。「方向」及び「方向の強度」は、典型的には、ピクセルの画素値を微分することでそのピクセルのエッジ情報を求め、そのエッジ情報に基づいて求めることができる。即ち、ピクセルをx方向及びy方向に微分することで、エッジ情報としてエッジ勾配方向及びエッジ強度を求めることができ、このエッジ勾配方向を当該ピクセルの「方向」とし、このエッジ強度を当該ピクセルの「方向の強度」とすることができる。本実施の形態では、ピクセルの「方向」及び「方向の強度」として、それぞれエッジ勾配方向及びエッジ強度を採用する。具体的には、以下の通りである。以下、(x,y)は、画像上の座標を表す。 The direction intensity calculator 12 calculates the direction of each pixel in the neighborhood region NR and the intensity in that direction. Here, in the present invention, the “direction” of a pixel represents a bias in the distribution of pixel values in a small region including the periphery of the pixel. The “direction strength” represents the degree of bias, that is, the reliability of the “direction”. The “direction” and the “direction intensity” can typically be obtained based on the edge information obtained by differentiating the pixel value of the pixel to obtain the edge information of the pixel. That is, by differentiating the pixel in the x direction and the y direction, the edge gradient direction and the edge strength can be obtained as edge information. The edge gradient direction is set as the “direction” of the pixel, and the edge strength is set to the pixel. It can be “direction strength”. In the present embodiment, the edge gradient direction and the edge strength are adopted as the “direction” and “direction strength” of the pixel, respectively. Specifically, it is as follows. Hereinafter, (x, y) T represents coordinates on the image.

まず、座標(x,y)のピクセルのx方向微分f(x,y)及びy方向微分f(x,y)を、それぞれ式(1)及び式(2)によって求める。
First, the x-direction derivative f x (x, y) and the y-direction derivative f y (x, y) of the pixel at the coordinates (x, y) are obtained by Expression (1) and Expression (2), respectively.

そして、これらのx方向微分f(x,y)及びy方向微分f(x,y)を用いて、エッジ勾配方向θ(x,y)及びエッジ強度m(x,y)を、それぞれ式(3)及び式(4)によって求める。
但し、式(3)によれば、エッジ勾配方向は、第一象限と第三象限、及び第二象限と第四象限とを区別できないことになる。従って、x方向微分f(x,y)及びy方向微分f(x,y)の符号を参照して、適切に補正をすることで、エッジ勾配方向として0〜2πの方向を求める。以下、記載を簡略化するために、アークタンジェントはすべて0〜2πの値を出力するものとする。
Then, using these x-direction derivative f x (x, y) and y-direction derivative f y (x, y), the edge gradient direction θ (x, y) and the edge intensity m (x, y) are respectively determined. It calculates | requires by Formula (3) and Formula (4).
However, according to Equation (3), the edge gradient direction cannot distinguish the first quadrant and the third quadrant, and the second quadrant and the fourth quadrant. Thus, with reference to the sign of the x-direction differential f x (x, y) and y directional derivative f y (x, y), by appropriately corrected, obtaining the direction of 0~2π as the edge gradient direction. Hereinafter, in order to simplify the description, all arctangents output values of 0 to 2π.

方向強度計算部12は、式(4)で求めたエッジ強度を用いて、式(5)により重み付きエッジ強度mhat(x,y)を求める。なお、p=(p,pは特徴点の位置である。また、「hat」は、式中の「^」を表している。
ここで、関数w(x,y)は重みであり、例えば、平均を(0,0)、共分散行列を
とする二次元ガウス分布を用いることができる。これにより、中心のピクセルほど重要であるとみなされることになる。
The direction strength calculation unit 12 obtains the weighted edge strength mhat (x, y) by the equation (5) using the edge strength obtained by the equation (4). Note that p = (p x , p y ) T is the position of the feature point. “Hat” represents “^” in the formula.
Here, the function w (x, y) is a weight, for example, the average is (0, 0) T ,
A two-dimensional Gaussian distribution can be used. This means that the center pixel is considered as important.

なお、方向強度計算部12で求めた重み付きエッジ強度mhat(x,y)は、後段の主軸方向検出部13及び局所特徴量算出部16にてそれぞれ用いられるが、主軸方向検出用と局所特徴量算出用とで、それぞれ異なる重みw(x,y)を用いて、主軸方向検出用の重み付きエッジ強度と局所特徴量算出用の重み付きエッジ強度とをそれぞれ別々に求めてもよい。また、重み付けをしていないエッジ強度m(x,y)をそのまま用いて主軸方向を検出し、局所特徴量を算出することももちろん可能である。   The weighted edge strength mhat (x, y) obtained by the direction strength calculation unit 12 is used by the main axis direction detection unit 13 and the local feature amount calculation unit 16 in the subsequent stage, respectively. The weighted edge strength for detecting the principal axis direction and the weighted edge strength for calculating the local feature amount may be separately obtained by using different weights w (x, y) for the amount calculation. Of course, it is also possible to detect the principal axis direction using the unweighted edge strength m (x, y) as it is to calculate the local feature amount.

方向強度計算部12は、近傍領域NRの各ピクセルについて、上記のようにしてエッジ勾配方向θ(x,y)及び重み付けエッジ強度mhat(x,y)を算出し、それらを主軸方向検出部13及び局所特徴量算出部16に出力する。   The direction intensity calculation unit 12 calculates the edge gradient direction θ (x, y) and the weighted edge intensity mhat (x, y) for each pixel in the neighboring region NR as described above, and uses them to calculate the principal axis direction detection unit 13. And output to the local feature amount calculation unit 16.

主軸方向検出部13は、主軸方向を検出する。このために、主軸方向検出部13は、まず、エッジ勾配方向θ(x,y)を式(6)によって量子化する。
ここで、式(6)の右辺は、エッジ勾配方向θ(x,y)を0からN−1にスカラー量子化する関数であり、例えば、式(7)を採用することができる。
この式(7)を例えばN=4の場合についてグラフに表すと、図4のようになる。なお、実験の結果、N=40程度が好適であることがわかっている。
The main shaft direction detector 13 detects the main shaft direction. For this purpose, the principal axis direction detection unit 13 first quantizes the edge gradient direction θ (x, y) according to equation (6).
Here, the right side of Expression (6) is a function that performs scalar quantization of the edge gradient direction θ (x, y) from 0 to N−1. For example, Expression (7) can be employed.
If this equation (7) is represented in a graph for N = 4, for example, it is as shown in FIG. As a result of experiments, it has been found that N = 40 is preferable.

主軸方向検出部13は、近傍領域NR内の各ピクセルのエッジ勾配方向θ(x,y)を量子化すると、その量子化されたエッジ勾配方向θhat(x,y)と、方向強度計算部12から得た重み付けエッジ強度mhat(x,y)とを用いて、式(8)に従って、エッジ勾配方向のヒストグラムh(k)を求める。
なお、式(8)において、Sは、式(9)で与えられる。
式(8)に示すように、エッジ勾配方向ヒストグラムの投票値には、重み付けエッジ強度hat(x,y)が用いられる。図5は、式(8)によって得られたエッジ勾配方向ヒストグラムの例を示すグラフである。
When the principal axis direction detection unit 13 quantizes the edge gradient direction θ (x, y) of each pixel in the neighboring region NR, the quantized edge gradient direction θhat (x, y) and the direction intensity calculation unit 12 Using the weighted edge strength mhat (x, y) obtained from the above, the histogram h (k) in the edge gradient direction is obtained according to the equation (8).
In Equation (8), S k is given by Equation (9).
As shown in Expression (8), the weighted edge strength hat (x, y) is used as the vote value of the edge gradient direction histogram. FIG. 5 is a graph showing an example of the edge gradient direction histogram obtained by Expression (8).

主軸方向検出部13は、このエッジ勾配方向ヒストグラムh(k)から主軸を求める。本実施の形態では、主軸方向検出部13は、ヒストグラムh(k)のピーク近傍を放物線近似し、その放物線のピークをラジアンで表したものを主軸vとする。主軸vは実数であり、従ってこれをvrealと表記する。なお、後述するように、別の実施の形態では、ヒストグラムのピークをそのまま主軸vとする。この場合、主軸vは、離散的な値、即ち0〜N−1の整数値又はそれをラジアンに変換した値であるので、これをvintegerと表記して、vrealと区別する。 The main axis direction detection unit 13 obtains the main axis from the edge gradient direction histogram h (k). In the present embodiment, the main axis direction detection unit 13 approximates the vicinity of the peak of the histogram h (k) as a parabola, and sets the parabola peak in radians as the main axis v. The main axis v is a real number, and is therefore expressed as v real . As will be described later, in another embodiment, the peak of the histogram is directly used as the main axis v. In this case, since the main axis v is a discrete value, that is, an integer value of 0 to N−1 or a value obtained by converting it into radians, this is expressed as v integer and distinguished from v real .

主軸方向検出部13は、エッジ勾配方向ヒストグラムh(k)にピークが複数存在する場合には、複数の主軸方向を検出してもよい。この場合には、主軸方向の数だけ局所特徴量が与えられることになり、局所特徴量を用いた対応点探索において探索性能が向上する。主軸方向検出部13は、検出した主軸方向vrealを投票セルパターン生成部14及び方向補正パターン生成部15出力する。 The main axis direction detector 13 may detect a plurality of main axis directions when there are a plurality of peaks in the edge gradient direction histogram h (k). In this case, local feature amounts are given by the number in the main axis direction, and search performance is improved in the corresponding point search using the local feature amounts. The main axis direction detection unit 13 outputs the detected main axis direction v real to the voting cell pattern generation unit 14 and the direction correction pattern generation unit 15.

投票セルパターン生成部14は、基準セルパターンCPを主軸方向vrealに応じた角度で回転させる。換言すると、投票セルパターン生成部14は、基準投票セルパターンCPの基準方向EDが主軸方向vrealの方向と一致するように投票セルパターンCPを回転させる。回転後の投票セルパターンを回転済投票セルパターンという。投票セルパターンとしては、上記の背景技術で説明したSIFTの場合と同様に、4×4のグリッド上に区分けされた投票セルからなるものを採用することもできるが、本実施の形態では、図6A及び図6Bに示すように、円を円周に沿って3つの領域に区分けして、更にそうしてできた2つのドーナツ状の領域を半径方向に8等分して区分して投票セルを形成した投票セルパターンを採用する。投票セルパターンCPの各投票セルVCには順に投票セル番号が与えられている。 The voting cell pattern generation unit 14 rotates the reference cell pattern CP at an angle corresponding to the principal axis direction vreal . In other words, the voting cell pattern generation unit 14 rotates the voting cell pattern CP so that the reference direction ED of the reference voting cell pattern CP matches the direction of the principal axis direction vreal . The rotated voting cell pattern is called a rotated voting cell pattern. As the voting cell pattern, as in the case of the SIFT described in the background art above, a pattern composed of voting cells divided on a 4 × 4 grid can be adopted. As shown in FIGS. 6A and 6B, the voting cell is formed by dividing the circle into three regions along the circumference, and further dividing the two donut-shaped regions so divided into eight equal parts in the radial direction. The voting cell pattern formed is used. Each voting cell VC of the voting cell pattern CP is given a voting cell number in order.

基準投票セルパターンは、その中心が特徴点の位置になるように設定され、回転済投票セルパターンは、基準投票セルパターンをその中心を視点として回転することで得られる。中心のセルには投票セル番号「0」が与えられ、その外側のドーナツ状領域では、基準投票セルパターンの右側の投票セルから反時計回りに順に「1」〜「8」の投票セル番号が与えられ、最外側のドーナツ状領域では、基準投票セルパターンの右側の投票セルから反時計回りに順に「9」〜「16」の投票セル番号が与えられる。換言すれば、外側のドーナツ状領域において投票セル番号が右側の投票セルから反時計回りに順に「1」〜「8」となり、最外側のドーナツ状領域において投票セル番号が基準投票セルパターンの右側の投票セルから反時計回りに順に「9」〜「16」となる投票セルパターンが本実施の形態の基準投票セルパターンであり、これを回転させたものが回転済投票セルパターンである。基準投票セルパターンの基準方向RDは、投票セル0、投票セル1、及び投票セル9の中心を通る方向とされる。   The reference voting cell pattern is set so that the center thereof is the position of the feature point, and the rotated voting cell pattern is obtained by rotating the reference voting cell pattern with the center as the viewpoint. A voting cell number “0” is given to the center cell, and voting cell numbers “1” to “8” are sequentially counterclockwise from the voting cell on the right side of the reference voting cell pattern in the outer donut-shaped region. In the outermost donut-shaped region, voting cell numbers “9” to “16” are given in order counterclockwise from the voting cell on the right side of the reference voting cell pattern. In other words, the voting cell numbers in the outer donut-shaped region are “1” to “8” in order from the right voting cell in the counterclockwise direction, and the voting cell number is the right side of the reference voting cell pattern in the outermost donut-shaped region. The voting cell patterns that are “9” to “16” in order from the voting cells in the counterclockwise direction are the reference voting cell patterns of the present embodiment, and the rotated voting cell patterns are the rotated ones. The reference direction RD of the reference voting cell pattern is a direction passing through the centers of the voting cell 0, the voting cell 1, and the voting cell 9.

図6Aは、主軸方向vrealが水平右方向である場合に、基準方向RDが主軸vrealに重なるようにされた回転済投票セルパターンCP’(即ち、基準投票セルパターンから回転されていない)であり、図6Bは、主軸方向vrealが22.5度であるときに、その主軸方向vrealに基準方向RDが一致するよう回転させられた回転済投票セルパターンCP’である。 FIG. 6A shows a rotated voting cell pattern CP ′ (ie, not rotated from the reference voting cell pattern) in which the reference direction RD overlaps the main axis v real when the main axis direction v real is the horizontal right direction. FIG. 6B shows a rotated voting cell pattern CP ′ that is rotated so that the reference direction RD coincides with the main axis direction v real when the main axis direction v real is 22.5 degrees.

図7は、回転済投票セルパターンCP’を画像TP上に重ねた様子を示す図である。図7の例では、主軸方向vrealは20度であり、回転済投票セルパターンCP’は、その基準方向RDが主軸vrealの方向に一致するように回転されている。各ピクセルについて投票を行う場合には、当該ピクセルが属する投票セルに投票をすることになる。 FIG. 7 is a diagram showing a state where the rotated voting cell pattern CP ′ is overlaid on the image TP. In the example of FIG. 7, the main axis direction v real is 20 degrees, and the rotated voting cell pattern CP ′ is rotated so that the reference direction RD coincides with the direction of the main axis v real . When voting for each pixel, the voting cell to which the pixel belongs is voted.

主軸方向vrealがラジアン表現されている場合には、基準投票セルパターンCPの基準方向RDが主軸方向vrealの方向に一致するよう回転された回転済投票セルパターンCP’は、式(10)で表される。即ち、投票セルパターン生成部14は、式(10)に主軸vrealを代入することで、主軸vrealに従って回転された投票セルパターンCP’を生成する。なお、(p,pは、特徴点pの位置である。
When the principal axis direction v real is radian representation rotated rotated already voted cell patterns CP to the reference direction RD of the reference voting cell pattern CP coincides with the direction of the main axis v real 'has the formula (10) It is represented by That is, the vote cell pattern generation unit 14, by substituting the principal axis v real in equation (10), to produce a by voting cell pattern CP 'rotates in accordance spindle v real. Note that (p x , p y ) T is the position of the feature point p.

この式(10)にピクセルの座標(x,y)を代入することで、当該ピクセルが投票すべき投票セルが決定される。なお、式(10)において、r、r、rは、それぞれ、図6A及び図6Bに示した投票セルパターンにおける投票セル0の半径、投票セル1〜8の外周の半径(投票セル9〜16の内周の半径)、投票セル9〜16の外周の半径である。例えば、近傍領域NRのサイズが25×25のサイズであるときは、r=3、r=8、r=12などを選べばよい。投票セルパターン生成部14は、生成した回転済投票セルパターンCP’を局所特徴量算出部16に出力する。 By substituting the coordinates (x, y) of the pixel into this equation (10), the voting cell that the pixel should vote is determined. In Equation (10), r 1 , r 2 , and r 3 are respectively the radius of the voting cell 0 and the radius of the outer periphery of the voting cells 1 to 8 (voting cells) in the voting cell patterns shown in FIGS. 6A and 6B. 9-16, the radius of the outer periphery of the voting cells 9-16. For example, when the size of the neighborhood region NR is 25 × 25, r 1 = 3, r 2 = 8, r 3 = 12, etc. may be selected. The voting cell pattern generation unit 14 outputs the generated rotated voting cell pattern CP ′ to the local feature amount calculation unit 16.

方向補正パターン生成部15は、主軸方向vrealに応じて、エッジ勾配方向θ(x,y)を補正するための方向補正パターンを生成する。方向補正パターンは、式(11)で表される。
式(11)から明らかなように、方向補正パターンは、主軸方向vrealの基準方向RDからの傾きを打ち消すように、エッジ勾配方向θ(x,y)を補正するための補正パターンである。方向補正パターン生成部15は、生成した方向補正パターンを局所特徴量算出部16に出力する。
The direction correction pattern generation unit 15 generates a direction correction pattern for correcting the edge gradient direction θ (x, y) according to the main axis direction vreal . The direction correction pattern is expressed by Expression (11).
As is clear from Equation (11), the direction correction pattern is a correction pattern for correcting the edge gradient direction θ (x, y) so as to cancel the inclination of the main axis direction v real from the reference direction RD. The direction correction pattern generation unit 15 outputs the generated direction correction pattern to the local feature amount calculation unit 16.

局所特徴量算出部16は、方向強度計算部12で算出された近傍領域内の各ピクセルのエッジ勾配方向θ(x,y)と重み付きエッジ強度mhat(x,y)、投票セルパターン生成部14で生成された回転済投票セルパターンCP’、及び方向補正パターン生成部15で生成された方向補正パターンを入力して、これらを用いて局所特徴量dを求める。具体的には、局所特徴量算出部16は、近傍領域NR内の各ピクセルのエッジ勾配方向θ(x,y)を方向補正パターンで補正して補正済エッジ勾配方向を得る。そして、補正済エッジ勾配方向に従って、回転済投票セルパターンCP’に重み付きエッジ強度mhat(x,y)を投票することで局所特徴量dを求める。   The local feature quantity calculation unit 16 includes an edge gradient direction θ (x, y) and weighted edge strength mhat (x, y) of each pixel in the neighboring area calculated by the direction strength calculation unit 12, and a voting cell pattern generation unit. The rotated voting cell pattern CP ′ generated in 14 and the direction correction pattern generated in the direction correction pattern generation unit 15 are input, and the local feature amount d is obtained using these. Specifically, the local feature amount calculation unit 16 corrects the edge gradient direction θ (x, y) of each pixel in the neighboring region NR with the direction correction pattern to obtain a corrected edge gradient direction. Then, according to the corrected edge gradient direction, the local feature amount d is obtained by voting the weighted edge strength mhat (x, y) on the rotated voting cell pattern CP ′.

局所特徴量算出部60は、投票に際して、まず、各ピクセルのエッジ勾配方向θ(x,y)を方向補正パターンで補正して補正済エッジ勾配方向を得て、それを8通りに量子化する。図6A及び図6Bに示すように、本実施の形態の回転済投票セルパターンCP’は、合計17個の投票セルを有する。よって、各投票セルにおいて8方向のヒストグラムを生成し、それらを連結して局所特徴量dとすると、局所特徴量は、17×8=136次元となる。なお、ヒストグラムの生成において投票するのは、各ピクセルの重み付きエッジ強度mhat(x,y)である。   When voting, the local feature quantity calculation unit 60 first corrects the edge gradient direction θ (x, y) of each pixel with a direction correction pattern to obtain a corrected edge gradient direction, and quantizes it in eight ways. . As shown in FIGS. 6A and 6B, the rotated voting cell pattern CP ′ of the present embodiment has a total of 17 voting cells. Therefore, if a histogram in eight directions is generated in each voting cell and connected to form a local feature amount d, the local feature amount is 17 × 8 = 136 dimensions. Note that the weighted edge strength mhat (x, y) of each pixel is voted in the generation of the histogram.

局所特徴量をd=(d,d,・・・,d135というベクトル表記で記載すると、diは式(12)で求められる。
このSiは、式(13)で与えられる。
また、式(13)のindex(x,y)は、式(14)で求められる。
If the local feature amount is described by a vector notation d = (d 0 , d 1 ,..., D 135 ) T , d i is obtained by Expression (12).
This S i is given by equation (13).
Further, the index (x, y) of the equation (13) is obtained by the equation (14).

なお、式(14)のvoting_cell_patternvreal(x,y)は、式(10)で示したものである。また、式(14)のdirection_offsetvreal(θ(x,y))は、式(11)で示したものであり、関数quantize(θ,8)には、式(7)を採用する。 In addition, voting_cell_pattern value (x, y) in Expression (14) is represented by Expression (10). Further, direction_offset real (θ (x, y)) in equation (14) is shown in equation (11), and equation (7) is adopted as function quantize (θ, 8).

式(14)によれば、局所特徴量d=(d,d,・・・,d135)において、d,d,・・・,dは、投票セル0に投票された8つの方向のそれぞれの投票累積値であり、d,d,・・・,d15は、投票セル1に投票された8つの方向のそれぞれの投票累積値であり、d16,d17,・・・,d23は、投票セル2に投票された8つの方向のそれぞれの投票累積値であり、以下同様である。これを図で説明すると、図8の通りである。 According to the equation (14), d 0 , d 1 ,..., D 7 are voted to the voting cell 0 in the local feature amount d = (d 0 , d 1 ,..., D 135 ). The voting cumulative values in the eight directions are d 8 , d 9 ,..., D 15 are the voting cumulative values in the eight directions voted to the voting cell 1, and d 16 , d 17. , · · ·, d 23 are each voting cumulative value of the eight directions found in the voting cell 2, and so forth. This will be described with reference to FIG.

次に、局所特徴量算出装置1にて実行される局所特徴量算出方法を説明する。局所特徴量算出方法は、ハードウェアで構成された局所特徴量算出装置1が実行するものであってもよいし、演算処理装置に実装されて局所特徴量算出装置1を構成するソフトウェア(コンピュータプログラム)が実行するものであってもよい。図9は、本実施の形態の局所特徴量算出方法のフロー図である。本実施の形態の局所特徴量算出方法は、入力された画像から局所特徴量を算出する。   Next, a local feature quantity calculation method executed by the local feature quantity calculation apparatus 1 will be described. The local feature quantity calculation method may be executed by the local feature quantity calculation apparatus 1 configured by hardware, or software (computer program) that is implemented in the arithmetic processing device and configures the local feature quantity calculation apparatus 1. ) May be executed. FIG. 9 is a flowchart of the local feature amount calculation method of the present embodiment. The local feature amount calculation method according to the present embodiment calculates a local feature amount from an input image.

まず、特徴点近傍領域抽出部11は、画像TPから特徴点pを抽出する(ステップS11)。次に、特徴点近傍領域抽出部11は、特徴点pの近傍に近傍領域NRを設定する(ステップS12)。そして、特徴点近傍領域抽出部11は、特徴点p及び近傍領域NRを方向強度計算部12に出力する。方向強度計算部12は、近傍領域NR内の各ピクセルをx方向及びy方向にそれぞれ微分することで、近傍領域NR内の各ピクセルについて、エッジ勾配方向θ(x,y)を算出し(ステップS13)、重み付きエッジ強度mhat(x,y)を算出する(ステップS14)。なお、ステップS13とステップS14は、いずれが先に行なわれてもよく、並行して行なわれてもよい。   First, the feature point neighborhood region extraction unit 11 extracts a feature point p from the image TP (step S11). Next, the feature point neighborhood region extraction unit 11 sets a neighborhood region NR in the vicinity of the feature point p (step S12). Then, the feature point neighborhood region extraction unit 11 outputs the feature point p and the neighborhood region NR to the direction strength calculation unit 12. The direction intensity calculation unit 12 calculates the edge gradient direction θ (x, y) for each pixel in the neighboring region NR by differentiating each pixel in the neighboring region NR in the x direction and the y direction (step) S13) The weighted edge strength mhat (x, y) is calculated (step S14). Note that either step S13 or step S14 may be performed first or in parallel.

次に、主軸方向検出部13は、エッジ勾配方向θ(x,y)を量子化する(ステップS15)。そして、主軸方向検出部13は、近傍領域NR内のピクセルの量子化されたエッジ勾配方向θhat(x,y)に重み付きエッジ強度mhat(x,y)を投票することで、エッジ勾配方向ヒストグラムを生成する(ステップS16)。主軸方向検出部13は、その勾配方向ヒストグラムのピーク付近において曲線フィッティングを行い、その曲線の極大に対応する方向(実数)を近傍領域NRの主軸方向vrealとして検出する(ステップS17)。 Next, the principal axis direction detection unit 13 quantizes the edge gradient direction θ (x, y) (step S15). Then, the principal axis direction detection unit 13 votes the edge gradient direction histogram by voting the weighted edge strength mhat (x, y) to the quantized edge gradient direction θhat (x, y) of the pixels in the neighboring region NR. Is generated (step S16). Main axis direction detecting unit 13 performs curve fitting near the peak of the gradient direction histogram to detect the direction (real number) corresponding to the maximum of the curve as a main axis direction v real proximity area NR (step S17).

投票セルパターン生成部14は、主軸方向検出部13から主軸方向vrealを取得して、基準投票セルパターンPCを主軸方向vrealに応じた角度で回転させて、回転済投票セルパターンPCを生成する(ステップS18)。また、方向補正パターン生成部15は、主軸方向vrealに応じた方向補正パターンを生成する(ステップS19)。なお、ステップS18とステップS19は、いずれが先に行なわれてもよく、並行して行なわれてもよい。 The voting cell pattern generation unit 14 acquires the main axis direction v real from the main axis direction detection unit 13, and rotates the reference voting cell pattern PC at an angle corresponding to the main axis direction v real to generate a rotated voting cell pattern PC. (Step S18). Further, the direction correction pattern generation unit 15 generates a direction correction pattern corresponding to the main axis direction vreal (step S19). Note that either step S18 or step S19 may be performed first or in parallel.

局所特徴量算出部16には、方向強度計算部12からエッジ勾配方向θhat(x,y)及び重み付きエッジ強度mhat(x,y)が入力され、投票セルパターン生成部14から回転済投票セルパターンPC’が入力され、方向補正パターン生成部15から方向補正パターンが入力される。局所特徴量算出部16は、近傍領域NR内の各ピクセルについて、エッジ勾配方向θhat(x,y)を方向補正パターンに従って補正して、補正済エッジ勾配方向を取得する(ステップS20)。局所特徴量算出部16は、近傍領域NR内の各ピクセルについて、回転済投票セルパターンPC’の投票セルのうちの、当該ピクセルが属する投票セルに対して、補正済エッジ勾配方向に従って、当該ピクセルの重み付きエッジ強度mhat(x,y)を投票する(ステップS21)。これにより、特徴点pの局所特徴量dが求まる。   The local feature amount calculation unit 16 receives the edge gradient direction θhat (x, y) and the weighted edge strength mhat (x, y) from the direction strength calculation unit 12, and the rotated voting cell from the voting cell pattern generation unit 14. The pattern PC ′ is input, and the direction correction pattern is input from the direction correction pattern generation unit 15. The local feature amount calculation unit 16 corrects the edge gradient direction θhat (x, y) according to the direction correction pattern for each pixel in the neighboring region NR, and acquires a corrected edge gradient direction (step S20). For each pixel in the neighboring region NR, the local feature amount calculation unit 16 determines the pixel according to the corrected edge gradient direction with respect to the voting cell to which the pixel belongs among the voting cells of the rotated voting cell pattern PC ′. The weighted edge strength mhat (x, y) is voted (step S21). Thereby, the local feature amount d of the feature point p is obtained.

以上説明したように、本実施の形態では、回転不変性を実現するために、従来技術のように、特徴点pの近傍領域NRのテクスチャパターンを回転させた上で新たに設定した投票セルパターンのセルに投票をするのではなく、基準投票セルパターンCPを回転させて、その回転した投票セルパターン(回転済投票セルパターンCP’)の投票セルに投票を行なうので、テクスチャパターンを回転させるための膨大な浮動小数点計算を伴うサブピクセル単位の線形補間処理が不要となり、局所特徴量の算出を高速化できる。   As described above, in this embodiment, in order to realize rotation invariance, a voting cell pattern newly set after rotating the texture pattern in the vicinity region NR of the feature point p as in the prior art. In order to rotate the texture pattern, the reference voting cell pattern CP is rotated and the voting cell of the rotated voting cell pattern (rotated voting cell pattern CP ′) is voted. This eliminates the need for linear interpolation processing in units of subpixels accompanied by a huge amount of floating point calculations, and can speed up the calculation of local features.

また、上述のように、回転不変性を実現するために、テクスチャパターンを回転させるのではなく、基準投票セルパターンを回転させて、かつ、各ピクセルの方向を補正した上で投票を行なうので、従来技術のように回転後のテクスチャパターンについて再度各ピクセルの方向及びその方向の強度を計算することが不要になり、方向強度計算部12で算出された各ピクセルのエッジ勾配方向及びエッジ強度は、主軸方向vrealの検出にも、局所特徴量の算出にも利用できる。これにより、各ピクセルの方エッジ勾配方向及びエッジ強度を算出するための微分計算は一度で済み、局所特徴量の算出を高速化できる。 In addition, as described above, in order to realize the rotation invariance, instead of rotating the texture pattern, the reference voting cell pattern is rotated and the voting is performed after correcting the direction of each pixel. It is not necessary to calculate the direction of each pixel and the intensity of the direction again for the rotated texture pattern as in the prior art, and the edge gradient direction and edge intensity of each pixel calculated by the direction intensity calculation unit 12 are It can be used for detecting the principal axis direction vreal and for calculating the local feature amount. Thereby, the differential calculation for calculating the direction of the edge gradient and the edge strength of each pixel is only required once, and the calculation of the local feature amount can be speeded up.

(第2の実施の形態)
図10は、本発明の第2の実施の形態の局所特徴量算出装置の構成を示すブロック図である。本実施の形態の局所特徴量算出装置2は、特徴点近傍領域抽出部21と、方向強度計算部22と、主軸方向検出部23と、局所特徴量算出部26とを備えている。局所特徴量算出装置2は、ハードウェアとして図10に示す構成が実現されてもよいし、演算処理装置にソフトウェアが実装されることで図10に示す構成が実現されてもよい。
(Second Embodiment)
FIG. 10 is a block diagram showing a configuration of a local feature quantity calculating apparatus according to the second embodiment of this invention. The local feature quantity calculation device 2 of the present embodiment includes a feature point vicinity region extraction unit 21, a direction strength calculation unit 22, a main axis direction detection unit 23, and a local feature quantity calculation unit 26. The local feature quantity calculation device 2 may implement the configuration shown in FIG. 10 as hardware, or may implement the configuration shown in FIG. 10 by installing software in the arithmetic processing device.

特徴点近傍領域抽出部21は第1の実施の形態の特徴点近傍領域抽出部11と同様にして、入力された画像TPから特徴点pを抽出して、各特徴点pに対して近傍領域NRを設定する。方向強度計算部22も第1の実施の形態の方向強度計算部12と同様に、近傍領域NR内の各ピクセルについて、x方向及びy方向に微分をすることで、「方向」及び「方向の強度」として、エッジ勾配方向θ(x,y)及びエッジ強度m(x,y)を算出する。   The feature point neighborhood region extraction unit 21 extracts feature points p from the input image TP in the same manner as the feature point neighborhood region extraction unit 11 of the first embodiment, and the neighborhood region for each feature point p. Set NR. Similarly to the direction intensity calculation unit 12 of the first embodiment, the direction intensity calculation unit 22 differentiates each pixel in the neighboring region NR in the x direction and the y direction, thereby obtaining “direction” and “direction direction”. As the “strength”, the edge gradient direction θ (x, y) and the edge strength m (x, y) are calculated.

第1の実施の形態では、主軸方向検出部13が、方向強度計算部22にて求められた、近傍領域NR内のピクセルのエッジ勾配方向θ(x,y)を式(6)により量子化したが、本実施の形態では、方向強度計算部22がこの量子化を行い、方向強度計算部22は、量子化されたエッジ勾配方向θhat(x,y)を主軸方向検出部23及び局所特徴量算出部26に出力する。方向強度計算部22は、エッジ強度については、第1の実施の形態の方向強度計算部12と同様に、重み付けエッジ強度mhat(x,y)を求めて、主軸方向検出部23及び局所特徴量算出部26に出力する。   In the first embodiment, the principal axis direction detection unit 13 quantizes the edge gradient direction θ (x, y) of the pixels in the neighboring region NR obtained by the direction intensity calculation unit 22 using Equation (6). However, in this embodiment, the direction intensity calculation unit 22 performs this quantization, and the direction intensity calculation unit 22 uses the quantized edge gradient direction θhat (x, y) as the main axis direction detection unit 23 and the local feature. It outputs to the quantity calculation part 26. For the edge strength, the direction strength calculation unit 22 obtains the weighted edge strength mhat (x, y) as in the direction strength calculation unit 12 of the first embodiment, and the main axis direction detection unit 23 and the local feature amount. It outputs to the calculation part 26.

主軸方向検出部23は、方向強度計算部22から量子化されたエッジ勾配方向θhat(x,y)及び重み付けエッジ強度mhat(x,y)を取得して、式(8)、(9)によりエッジ勾配方向のヒストグラムh(k)を求める。そして、ヒストグラムh(k)のピークを主軸方向vintegerとする(図5参照)。この主軸方向vintegerは、0〜N−1のいずれかの整数値、即ち離散的な値である。なお、主軸方向検出部30は、この整数値をラジアンに変換してもよい。この場合にも、主軸vintegerとしてのラジアンは離散的な値をとる。主軸方向検出部23は、離散的な値である主軸vintegerを局所特徴量算出部26に出力する。 The principal axis direction detection unit 23 obtains the quantized edge gradient direction θhat (x, y) and the weighted edge strength mhat (x, y) from the direction intensity calculation unit 22, and uses the equations (8) and (9). A histogram h (k) in the edge gradient direction is obtained. Then, the peak of the histogram h (k) is set as the main axis direction v integer (see FIG. 5). The main axis direction v integer is an integer value of 0 to N−1, that is, a discrete value. The main shaft direction detection unit 30 may convert this integer value into radians. Also in this case, radians as the main axis v integer take discrete values. The main axis direction detection unit 23 outputs the main axis v integer that is a discrete value to the local feature amount calculation unit 26.

本実施の形態の局所特徴量算出装置2は、第1の実施の形態の局所特徴量算出装置1と比較すると、第1の実施の形態の投票セルパターン生成部14及び方向補正パターン生成部15を備えていない。これは、本実施の形態では、主軸方向検出部23にて、主軸方向が離散的な値として検出されるので、回転された投票セルパターンや方向補正パターンはテーブル化することができ、第1の実施の形態のように、検出された主軸方向に基づいてその都度回転済投票セルパターンや方向補正パターンを生成(計算)する必要がないからである。本実施の形態の局所特徴量算出部26は、その中に投票セル決定部24及び方向補正部25を備えている。   Compared with the local feature quantity calculation device 1 of the first embodiment, the local feature quantity calculation device 2 of the present embodiment has a voting cell pattern generation unit 14 and a direction correction pattern generation unit 15 of the first embodiment. Not equipped. In this embodiment, since the main shaft direction is detected as a discrete value by the main shaft direction detector 23, the rotated voting cell pattern and the direction correction pattern can be tabulated. This is because it is not necessary to generate (calculate) a rotated voting cell pattern or a direction correction pattern each time based on the detected main axis direction as in the embodiment. The local feature amount calculation unit 26 of the present embodiment includes a voting cell determination unit 24 and a direction correction unit 25 therein.

まず、投票セル決定部24について説明する。投票セル決定部24は、主軸方向検出部23から得た主軸vintegerに従って投票セルパターンを決定し、決定した投票セルパターンを参照して、注目ピクセルの位置に対応する投票セル番号を取得する。 First, the voting cell determination unit 24 will be described. The voting cell determination unit 24 determines a voting cell pattern according to the main axis v integer obtained from the main axis direction detection unit 23, refers to the determined voting cell pattern, and acquires a voting cell number corresponding to the position of the target pixel.

図11は、基準投票セルパターンPCと、各主軸方向vintegerに対応する回転済投票セルパターンPC’を示している。投票セルパターンは、図6A及び図6Bに示した投票セルパターンと同じ形状であり、投票セルは0〜16までの17個である。セル番号の付与の仕方も図6A及び図6Bと同じである。 FIG. 11 shows a reference voting cell pattern PC and a rotated voting cell pattern PC ′ corresponding to each main axis direction v integer . The voting cell pattern has the same shape as the voting cell pattern shown in FIGS. 6A and 6B, and there are 17 voting cells from 0 to 16. The method of assigning cell numbers is the same as in FIGS. 6A and 6B.

上述のように、主軸方向vintegerは0〜N−1に離散化されており、その種類は有限(0〜N−1)であるので、それに対応する回転済投票セルパターンの種類も有限(0〜N−1)である。よって、これらの有限の回転済投票セルパターンをテーブル化しておけば、主軸方向vintegerが与えられたときに、テーブルから投票セルパターンを読み出すことで、当該主軸方向vintegerに対応する角度で回転された回転済投票セルパターンを取得できる。 As described above, the main axis direction v integer is discretized from 0 to N-1, and the types thereof are finite (0 to N-1). Therefore, the types of rotated vote cell patterns corresponding thereto are also finite ( 0 to N-1). Therefore, if these finite rotated voting cell patterns are tabulated, when the main axis direction v integer is given, the voting cell pattern is read from the table and rotated at an angle corresponding to the main axis direction v integer. The rotated voting cell pattern thus obtained can be acquired.

図12は、投票セルパターンテーブルの例を示す図である。図12は、N=40、W=25である場合を示している。各回転済投票セルパターンPC’は、近傍領域NRの大きさW×W(=25×25)と同じ大きさを有する。即ち、W×W内の各ピクセルに、当該ピクセルが所属する投票セルの番号が与えられている。なお、円の外側には、セル番号「−1」が与えられ、投票はされない。図12の例では、1つのピクセルに対して1つの投票セルが割り当てられている。   FIG. 12 is a diagram illustrating an example of a voting cell pattern table. FIG. 12 shows a case where N = 40 and W = 25. Each rotated voting cell pattern PC ′ has the same size as the size W × W (= 25 × 25) of the neighboring region NR. That is, the number of the voting cell to which the pixel belongs is given to each pixel in W × W. The cell number “−1” is given outside the circle, and no voting is performed. In the example of FIG. 12, one voting cell is assigned to one pixel.

投票セル決定部24に、図12に示す投票セルパターンテーブルを保存しておくことで、主軸方向検出部23から主軸方向vintegerが与えられると、投票セル決定部24は、その主軸方向vintegerに対応する回転済投票セルパターンを選択して、各ピクセルの座標に従って、投票セルを決定する。 By storing the voting cell pattern table shown in FIG. 12 in the voting cell determining unit 24, when the main axis direction v integer is given from the main axis direction detecting unit 23, the voting cell determining unit 24 selects the main axis direction v integer. The rotated voting cell pattern corresponding to is selected, and the voting cell is determined according to the coordinates of each pixel.

基準投票セルパターンが点対称の形状を有する場合は、それを所定のステップ幅で回転させると、パターン形状が同じである回転済投票セルパターンが周期的に出現する。従って、この場合には、セル番号変換テーブルを用いることで、投票セルパターンテーブルを圧縮できる。   When the reference voting cell pattern has a point-symmetric shape, when it is rotated with a predetermined step width, rotated voting cell patterns having the same pattern shape appear periodically. Therefore, in this case, the voting cell pattern table can be compressed by using the cell number conversion table.

本実施の形態では、投票セルパターンは点対象であり、ステップ数はN=40であるので、パターン形状が同じである回転済投票セルパターンが、45度ごと(5ステップごと)に周期的に出現する。よって、投票セルパターンテーブルを圧縮できる。即ち、主軸vinteger=5〜39の投票セルパターンは、主軸vinteger=0〜4の投票セルパターンを用いて表現でき、これにより、投票セルパターンのテーブルを8分の1圧縮できる。例えば、主軸vinteger=5〜9の投票セルパターンは、主軸vinteger=0〜4の投票セルパターンを用いて、式(15)で表現できる。
In this embodiment, the voting cell pattern is a dot object, and the number of steps is N = 40. Therefore, the rotated voting cell pattern having the same pattern shape is periodically every 45 degrees (every 5 steps). Appear. Therefore, the voting cell pattern table can be compressed. That is, the voting cell pattern with the main axis v integer = 5 to 39 can be expressed by using the voting cell pattern with the main axis v integer = 0 to 4, and the voting cell pattern table can be compressed by 1/8. For example, the voting cell pattern of the main axis v integer = 5 to 9 can be expressed by the formula (15) using the voting cell pattern of the main axis v integer = 0 to 4.

そこで、本実施の形態では、投票セル決定部24には、実際には、図10に示すように、代表投票セルパターンテーブル241が設けられ、図13に示すように、図11の主軸vinteger=0〜4の投票セルパターンのみが代表投票セルパターンとして記憶されている。換言すれば、代表セルパターンテーブル241には、パターンの形状が互いに重複しない複数の代表投票セルパターンのみが記憶されている。本実施の形態では、主軸方向Vinteger=0、1、2、3、4に対応する5種類の回転済投票セルパターンが代表投票セルパターンとなる。そして、投票セル決定部24には、さらに図14に示すセル番号変換テーブル(compress)242が保存されている。 Therefore, in the present embodiment, the voting cell determining unit 24 is actually provided with a representative voting cell pattern table 241 as shown in FIG. 10, and as shown in FIG. 13, the main axis v integer of FIG. Only voting cell patterns of 0 to 4 are stored as representative voting cell patterns. In other words, the representative cell pattern table 241 stores only a plurality of representative voting cell patterns whose patterns do not overlap each other. In the present embodiment, five types of rotated voting cell patterns corresponding to the main axis direction V integer = 0, 1, 2, 3, 4 are representative voting cell patterns. The voting cell determination unit 24 further stores a cell number conversion table (compress A ) 242 shown in FIG.

投票セル決定部24は、主軸方向vintegerが与えられると、まず、図13の代表投票セルパターンテーブル241を参照して、5種類の代表投票セルパターンのうちの当該主軸方向vintegerに該当する代表投票セルパターンを選択する。そして、その代表投票セルパターンにおいて、注目ピクセルの座標が属する投票セルのセル番号を得る。次に、図13の圧縮用変換テーブル242を参照して、得られた投票セルのセル番号を変換する。 When the voting cell determining unit 24 is given the main axis direction v integer , first, the voting cell determining unit 24 refers to the representative voting cell pattern table 241 in FIG. 13 and corresponds to the main axis direction v integer of the five types of representative voting cell patterns. A representative voting cell pattern is selected. Then, in the representative voting cell pattern, the cell number of the voting cell to which the coordinate of the pixel of interest belongs is obtained. Next, the cell number of the obtained voting cell is converted with reference to the compression conversion table 242 of FIG.

例えば、主軸方向vinteger=18である近傍領域において、特徴点を中心とする座標が(−4,2)である注目ピクセルについては、主軸方向vintegerが「18」であるので、図13の左から4番目の代表投票セルパターンが選択され、注目ピクセルの座標が(−4,2)であるので、セル番号「4」が得られる。このセル番号「4」を、図14に示すセル番号変換テーブル242の第4行第5列を参照することで、「1」に変換する。これにより、この注目ピクセルの投票セルは、投票セル1であると決定される。 For example, in the vicinity region where the main axis direction v integer = 18, for the pixel of interest whose coordinates around the feature point are (−4, 2), the main axis direction v integer is “18”, so FIG. Since the fourth representative voting cell pattern from the left is selected and the coordinates of the pixel of interest are (−4, 2), the cell number “4” is obtained. This cell number “4” is converted to “1” by referring to the fourth row and fifth column of the cell number conversion table 242 shown in FIG. Thereby, the voting cell of this pixel of interest is determined to be voting cell 1.

なお、さらに、投票セルパターンの第1象限、第2象限、第3象限及び第4象限が相似形である場合は、これに着目して、図12に示す投票セルパターンテーブルをさらに4分の1に圧縮できる。   Furthermore, if the first quadrant, the second quadrant, the third quadrant, and the fourth quadrant of the voting cell pattern are similar, paying attention to this, the voting cell pattern table shown in FIG. 1 can be compressed.

次に、方向補正部25について説明する。方向補正部25は、方向強度計算部22から得た、近傍領域内の各ピクセルについての、量子化されたエッジ勾配方向θhat(x,y)と、主軸方向検出部23から得た主軸方向vintegerを用いて、そのエッジ勾配方向を補正する。 Next, the direction correction unit 25 will be described. The direction correction unit 25 obtains the quantized edge gradient direction θhat (x, y) for each pixel in the neighboring region obtained from the direction intensity calculation unit 22 and the principal axis direction v obtained from the principal axis direction detection unit 23. The edge gradient direction is corrected using an integer .

上述のように、本実施の形態では、主軸方向vintegerは0〜N−1に離散化されており、その種類は有限(0〜N−1)であり、また、エッジ勾配方向θhat(x,y)も離散的な値であるので、主軸方向vintegerとエッジ勾配方向θhat(x,y)の組合せに対応する補正済エッジ勾配方向をテーブル化することができる。このようなテーブルを用意しておくことで、主軸方向vintegerが与えられたときに、テーブルからエッジ勾配方向を読み出すことで、当該主軸方向vintegerに応じて補正された補正済エッジ勾配方向を取得できる。 As described above, in the present embodiment, the main axis direction v integer is discretized from 0 to N−1, the type is finite (0 to N−1), and the edge gradient direction θhat (x , Y) is also a discrete value, so that the corrected edge gradient direction corresponding to the combination of the principal axis direction v integer and the edge gradient direction θhat (x, y) can be tabulated. By preparing such a table, when the spindle direction v integer is given, the edge gradient direction is read from the table, so that the corrected edge gradient direction corrected according to the spindle direction v integer is obtained. You can get it.

図15は、方向補正テーブルの例を示す図である。図15は、N=40の場合を示している。方向補正部25に、図15に示す方向補正テーブルを保存しておくことで、方向補正部25は、主軸方向vintegerと量子化されたエッジ勾配方向θhat(x,y)が与えられると、図15の方向補正テーブルを参照することで、0〜7の8方向のいずれかを補正済エッジ勾配方向として求めることができる。 FIG. 15 is a diagram illustrating an example of the direction correction table. FIG. 15 shows a case where N = 40. By storing the direction correction table shown in FIG. 15 in the direction correction unit 25, the direction correction unit 25 is given the principal axis direction v integer and the quantized edge gradient direction θhat (x, y). By referring to the direction correction table in FIG. 15, any one of the eight directions 0 to 7 can be obtained as the corrected edge gradient direction.

図15から分かるように、方向補正テーブルにおいて、エッジ勾配方向θhat(x,y)に対する補正済エッジ勾配方向の変化は、周期性を有する。従って、この周期性を利用して、テーブルを圧縮することができる。本実施の形態では、N=40であるので、圧縮用変換テーブルを用いることで、図15の方向補正テーブルを8分の1に圧縮できる。即ち、主軸vinteger=5〜40の場合のエッジ勾配方向(0〜7)は、主軸vinteger=0〜4の部分のテーブルから求めることができる。例えば、主軸vinteger=5〜9の場合は、主軸vinteger=0〜4の部分の方向補正テーブルを用いて、式(16)で表現できる。
As can be seen from FIG. 15, in the direction correction table, the change in the corrected edge gradient direction with respect to the edge gradient direction θhat (x, y) has periodicity. Therefore, the table can be compressed using this periodicity. In this embodiment, since N = 40, the direction correction table of FIG. 15 can be compressed to 1/8 by using the compression conversion table. That is, the edge gradient direction (0 to 7) in the case of the main axis v integer = 5 to 40 can be obtained from the table of the portion of the main axis v integer = 0 to 4. For example, when the main axis v integer = 5 to 9, it can be expressed by Expression (16) using the direction correction table of the main axis v integer = 0 to 4.

そこで、本実施の形態では、方向補正部25には、実際には、図10に示すように、代表方向補正テーブル251が設けられ、この代表方向補正テーブル251では、図16に示すように、図15のテーブルのうちのvinteger=0〜4の部分のみが、代表補正済エッジ勾配方向として規定されている。換言すれば、代表方向補正テーブル251では、エッジ勾配方向θhat(x,y)に対する補正済エッジ勾配方向が同一の周期を有する主軸方向(例えば、主軸方向vinteger=0、5、10、15、20、25、30、35)で1グループとされ、各グループについて、1行の代表補正済エッジ勾配方向のみが規定されている。本実施の形態では、主軸方向vinteger=0、1、2、3、4に対応する補正済エッジ勾配方向(図15の第1行〜第5行)が代表補正済エッジ勾配方向として代表方向補正テーブル251に規定されている。そして、方向補正部25には、さらに図17に示す方向変換テーブル(compress)252が保存されている。 Therefore, in the present embodiment, the direction correction unit 25 is actually provided with a representative direction correction table 251 as shown in FIG. 10, and in this representative direction correction table 251, as shown in FIG. Only the portion of v integer = 0 to 4 in the table of FIG. 15 is defined as the representative corrected edge gradient direction. In other words, in the representative direction correction table 251, the corrected edge gradient direction with respect to the edge gradient direction θhat (x, y) has the same period (for example, main axis direction v integer = 0, 5, 10, 15, 20, 25, 30, 35), one group is defined, and only one row of representative corrected edge gradient directions is defined for each group. In the present embodiment, the corrected edge gradient direction (first to fifth rows in FIG. 15) corresponding to the principal axis direction v integer = 0, 1, 2, 3, 4 is the representative corrected edge gradient direction as the representative direction. It is defined in the correction table 251. The direction correction unit 25 further stores a direction conversion table (compress B ) 252 shown in FIG.

方向補正部25は、主軸vintegerと量子化されたエッジ勾配方向θhat(x,y)が与えられると、図16に示す代表方向補正テーブル251を参照することで0〜8のいずれかの方向を取得し、次に、図17に示す方向変換テーブル252でそれを変換することで、補正済エッジ勾配方向を取得する。例えば、主軸vinteger=18、エッジ勾配方向θhat(x,y)=10である注目ピクセルについては、図16の代表方向補正テーブル251の第4行第11列から「1」が得られ、次に図16の方向変換テーブル252の第4行第2列から、補正済エッジ方向勾配として「6」を得る。方向補正部25は、上記のようにして、近傍領域NRの各ピクセルに対して、補正済エッジ勾配方向として0〜7のいずれかの方向を取得する。 When the main axis v integer and the quantized edge gradient direction θhat (x, y) are given, the direction correction unit 25 refers to the representative direction correction table 251 shown in FIG. Next, the corrected edge gradient direction is acquired by converting it using the direction conversion table 252 shown in FIG. For example, “1” is obtained from the fourth row and the eleventh column of the representative direction correction table 251 in FIG. 16 for the pixel of interest with the main axis v integer = 18 and the edge gradient direction θhat (x, y) = 10. Further, “6” is obtained as the corrected edge direction gradient from the fourth row and second column of the direction conversion table 252 of FIG. As described above, the direction correction unit 25 acquires any one of 0 to 7 as the corrected edge gradient direction for each pixel in the neighboring region NR.

局所特徴量算出部26は、投票セル決定部24にて投票セルが決定され、方向補正部25にて補正済エッジ勾配方向が得られると、そのピクセルのエッジ強度を投票する。局所特徴量算出部26は、このような投票処理を近傍領域NRのすべてのピクセルについて行うことで、局所特徴量d=(d,d,・・・,d135を得る。局所特徴量diは、式で表すと式(17)の通りである。 When the voting cell is determined by the voting cell determination unit 24 and the corrected edge gradient direction is obtained by the direction correction unit 25, the local feature amount calculation unit 26 votes the edge strength of the pixel. The local feature quantity calculation unit 26 obtains a local feature quantity d = (d 0 , d 1 ,..., D 135 ) T by performing such voting processing for all the pixels in the neighborhood region NR. The local feature amount d i is expressed by an equation (17).

ここで、式(17)のSは、式(18)で与えられる。
また、式(18)のindex(x,y)は、式(19)で与えられる。
Here, S i in equation (17) is given by equation (18).
Also, index (x, y) in equation (18) is given by equation (19).

次に、本実施の形態の局所特徴量算出方法を説明する。本実施の形態の局所特徴量算出方法は、入力された画像から局所特徴量を算出する。局所特徴量算出方法は、ハードウェアで構成された局所特徴量算出装置2が実行するものであってもよいし、演算処理装置に実装されて局所特徴量算出装置2を構成するソフトウェア(コンピュータプログラム)が実行するものであってもよい。図18は、本実施の形態の局所特徴量算出方法のフロー図である。   Next, the local feature amount calculation method of the present embodiment will be described. The local feature amount calculation method according to the present embodiment calculates a local feature amount from an input image. The local feature amount calculation method may be executed by the local feature amount calculation device 2 configured by hardware, or software (computer program) that is mounted on the arithmetic processing device and configures the local feature amount calculation device 2. ) May be executed. FIG. 18 is a flowchart of the local feature amount calculation method of the present embodiment.

特徴点近傍領域抽出部21は、画像TPから特徴点pを抽出する(ステップS31)。次に、特徴点近傍領域抽出部21は、特徴点pの近傍に近傍領域NRを設定する(ステップS32)。そして、特徴点近傍領域抽出部21は、特徴点p及び近傍領域NRを方向強度計算部22に出力する。方向強度計算部22は、近傍領域NR内の各ピクセルをx方向及びy方向にそれぞれ微分することで、近傍領域NR内の各ピクセルについて、エッジ勾配方向θ(x,y)を算出し(ステップS33)、それを量子化して、量子化されたエッジ勾配方向θhat(x,y)を求める(ステップS34)。方向強度計算部22は、また、近傍領域NR内の各ピクセルについて、重み付きエッジ強度mhat(x,y)を算出する(ステップS35)。 なお、ステップS33及びそれに続くステップS34と、ステップS35とは、いずれが先に行なわれてもよく、並行して行なわれてもよい。   The feature point vicinity region extraction unit 21 extracts a feature point p from the image TP (step S31). Next, the feature point neighborhood region extraction unit 21 sets a neighborhood region NR in the vicinity of the feature point p (step S32). Then, the feature point neighborhood region extraction unit 21 outputs the feature point p and the neighborhood region NR to the direction strength calculation unit 22. The direction intensity calculation unit 22 calculates the edge gradient direction θ (x, y) for each pixel in the neighboring region NR by differentiating each pixel in the neighboring region NR in the x direction and the y direction (step) S33), and quantize it to obtain the quantized edge gradient direction θhat (x, y) (step S34). The direction intensity calculator 22 also calculates a weighted edge intensity mhat (x, y) for each pixel in the neighboring region NR (step S35). Note that any of step S33 and subsequent step S34 and step S35 may be performed first or in parallel.

次に、主軸方向検出部23は、近傍領域NR内のピクセルの量子化されたエッジ勾配方向θhat(x,y)に重み付きエッジ強度mhat(x,y)を投票することで、エッジ勾配方向ヒストグラムを生成する(ステップS36)。主軸方向検出部23は、その勾配方向ヒストグラムにて極大値を有するエッジ勾配方向(離散化された値)を近傍領域NRの主軸方向vintegerとして検出し、局所特徴量算出部26に出力する(ステップS37)。 Next, the principal axis direction detection unit 23 votes the edge gradient direction by voting the weighted edge strength mhat (x, y) to the quantized edge gradient direction θhat (x, y) of the pixels in the neighboring region NR. A histogram is generated (step S36). The principal axis direction detection unit 23 detects the edge gradient direction (discretized value) having the maximum value in the gradient direction histogram as the principal axis direction v integer of the neighboring region NR, and outputs the detected value to the local feature amount calculation unit 26 ( Step S37).

局所特徴量算出部26には、方向強度計算部22から量子化されたエッジ勾配方向θhat(x,y)及び重み付きエッジ強度mhat(x,y)が入力され、主軸方向検出部23から主軸方向vintegerが入力される。局所特徴量算出部26は、近傍領域NR内の各ピクセルについて、投票セルパターンテーブルを参照して、主軸方向vintegerに対応する投票セルパターンにおける、注目ピクセルが属する投票セルを決定する(ステップS38)。 The local feature quantity calculation unit 26 receives the edge gradient direction θhat (x, y) and the weighted edge strength mhat (x, y) quantized from the direction intensity calculation unit 22, and receives the spindle from the main axis direction detection unit 23. A direction v integer is input. The local feature quantity calculation unit 26 refers to the voting cell pattern table for each pixel in the neighboring region NR and determines a voting cell to which the pixel of interest belongs in the voting cell pattern corresponding to the main axis direction v integer (step S38). ).

なお、局所特徴量算出部26において、投票セル決定部24に図12に示す投票セルパターンテーブルが記憶されている場合には、ステップS38では、その投票セルパターンテーブルを参照して投票セルを決定する。一方、投票セル決定部24に、図13に示す代表投票セルパターンテーブル241及び図14に示すセル番号変換テーブル242が記憶されている場合(図10の場合)には、ステップS38では、投票セルパターンテーブルとして、代表セルパターンテーブル241とセル番号変換テーブル242を参照して、投票セルを決定する。   When the voting cell pattern table shown in FIG. 12 is stored in the voting cell determination unit 24 in the local feature amount calculation unit 26, the voting cell is determined with reference to the voting cell pattern table in step S38. To do. On the other hand, when the representative voting cell pattern table 241 shown in FIG. 13 and the cell number conversion table 242 shown in FIG. 14 are stored in the voting cell determination unit 24 (in the case of FIG. 10), in step S38, the voting cell The voting cell is determined by referring to the representative cell pattern table 241 and the cell number conversion table 242 as the pattern table.

局所特徴量算出部26は、近傍領域NR内の各ピクセルについて、方向補正テーブルを参照して、主軸方向vinteger及び量子化されたエッジ勾配方向θhat(x,)に対応する補正済エッジ勾配方向を取得する(ステップS39)。 The local feature amount calculation unit 26 refers to the direction correction table for each pixel in the neighborhood region NR, and corrects the edge gradient direction corresponding to the principal axis direction v integer and the quantized edge gradient direction θhat (x,). Is acquired (step S39).

なお、局所特徴量算出部26において、方向補正部25に図15に示す方向補正テーブルが記憶される場合には、ステップS39では、その方向補正テーブルを参照して、補正済エッジ勾配方向を取得する。一方、方向補正部25に図16に示す代表方向補正テーブル251及び図17に示す方向変換テーブル252が記憶される場合(図10の場合)には、ステップS39では、代表方向補正テーブル251及び方向変換テーブル252を参照して、補正済エッジ勾配方向を取得する。なお、ステップS38とステップS39とは、いずれが先に行なわれてもよく、並行して行なわれてもよい。   If the direction correction table shown in FIG. 15 is stored in the direction correction unit 25 in the local feature amount calculation unit 26, the corrected edge gradient direction is obtained with reference to the direction correction table in step S39. To do. On the other hand, when the representative direction correction table 251 shown in FIG. 16 and the direction conversion table 252 shown in FIG. 17 are stored in the direction correction unit 25 (in the case of FIG. 10), in step S39, the representative direction correction table 251 and the direction are displayed. With reference to the conversion table 252, the corrected edge gradient direction is acquired. Note that either step S38 or step S39 may be performed first or in parallel.

次に、局所特徴量算出部26は、近傍領域NR内の各ピクセルについて、ステップS38にて決定された投票セルに対して、ステップS39で得られた補正済エッジ勾配方向に従って、注目ピクセルの重み付きエッジ強度mhat(x,y)を投票する(ステップS40)これにより、特徴点pの局所特徴量dが求まる。   Next, for each pixel in the neighboring region NR, the local feature amount calculation unit 26 applies the weight of the pixel of interest according to the corrected edge gradient direction obtained in step S39 for the voting cell determined in step S38. The attached edge strength mhat (x, y) is voted (step S40), whereby the local feature amount d of the feature point p is obtained.

以上説明したように、本実施の形態においても、回転不変性を実現するために、従来技術のように、特徴点pの近傍領域NRのテクスチャパターンを回転させた上で新たに設定した投票セルパターンのセルに投票をするのではなく、主軸方向に応じて回転された回転済投票セルパターンCP’の投票セルに投票を行なうので、テクスチャパターンを回転させるための膨大な浮動小数点計算を伴うサブピクセル単位の線形補間処理が不要となり、局所特徴量の算出を高速化できる。   As described above, also in the present embodiment, in order to realize the rotation invariance, the voting cell newly set after rotating the texture pattern in the vicinity region NR of the feature point p as in the prior art. Instead of voting on the cell of the pattern, voting is performed on the voting cell of the rotated voting cell pattern CP ′ rotated in accordance with the main axis direction, so that a sub that involves a huge floating point calculation for rotating the texture pattern The linear interpolation processing for each pixel is not necessary, and the local feature amount can be calculated at high speed.

また、上述のように、回転不変性を実現するために、テクスチャパターンを回転させるのではなく、回転済基準投票セルパターンに対して、各ピクセルの方向を補正した上で投票を行なうので、従来技術のように回転後のテクスチャパターンについて再度各ピクセルの方向及びその方向の強度を計算することが不要になり、方向強度計算部22で算出された各ピクセルのエッジ勾配方向及びエッジ強度は、主軸方向vintegerの検出にも、局所特徴量の算出にも利用できる。これにより、各ピクセルの方エッジ勾配方向及びエッジ強度を算出するための微分計算は一度で済み、局所特徴量の算出を高速化できる。 Also, as described above, in order to realize rotation invariance, instead of rotating the texture pattern, voting is performed after correcting the direction of each pixel with respect to the rotated reference voting cell pattern. It is not necessary to calculate the direction of each pixel and the intensity of the direction again for the rotated texture pattern as in the technique, and the edge gradient direction and the edge strength of each pixel calculated by the direction intensity calculation unit 22 are the main axes. It can be used for detecting the direction v integer and for calculating the local feature amount. Thereby, the differential calculation for calculating the direction of the edge gradient and the edge strength of each pixel is only required once, and the calculation of the local feature amount can be speeded up.

また、本実施の形態では、主軸方向vintegerが離散化された値として得られるので、各主軸方向に対応する回転済投票セルパターンを予め用意しておいてテーブル化することができ、そのようなテーブルを用いて、主軸方向vintegerが得られたときに、その主軸方向vintegerに対応する回転済投票セルパターンをテーブルから選択することで、投票セルパターンをその都度計算で求める必要がなくなるので、処理を高速化できる。 Further, in the present embodiment, since the main axis direction v integer is obtained as a discretized value, a rotated voting cell pattern corresponding to each main axis direction can be prepared in advance and tabulated. When the main axis direction v integer is obtained using a simple table, by selecting the rotated voting cell pattern corresponding to the main axis direction v integer from the table, it is not necessary to calculate the voting cell pattern each time. Therefore, the processing can be speeded up.

さらに、本実施の形態では、基準投票セルパターンが点対称の形状を有するので、この周期性を利用して、投票セルパターンテーブルの圧縮でき、必要なメモリ容量を小さくできる。本実施の形態で示した程度のテーブルであれば、CPUのキャッシュに入れることができ、処理を一段と高速化できる。   Furthermore, in this embodiment, since the reference voting cell pattern has a point-symmetric shape, the voting cell pattern table can be compressed using this periodicity, and the required memory capacity can be reduced. If the table is of the extent shown in the present embodiment, it can be put in the CPU cache and the processing can be further speeded up.

また、本実施の形態では、ピクセルのエッジ勾配方向についても、テーブルを用意しておくことができ、そのようなテーブルを用いて各ピクセルのエッジ勾配方向を補正するので、処理を高速化できる。   Further, in this embodiment, a table can be prepared for the edge gradient direction of the pixel, and the edge gradient direction of each pixel is corrected using such a table, so that the processing can be speeded up.

さらに、本実施の形態では、補正済エッジ勾配方向が周期性を有するので、方向補正テーブルも圧縮でき、必要なメモリ容量を小さくできる。本実施の形態で示した程度のテーブルであれば、CPUのキャッシュに入れることができ、処理を一段と高速化できる。   Furthermore, in this embodiment, since the corrected edge gradient direction has periodicity, the direction correction table can also be compressed, and the required memory capacity can be reduced. If the table is of the extent shown in the present embodiment, it can be put in the CPU cache and the processing can be further speeded up.

なお、上記の第2の実施の形態の投票セルパターンでは、各ピクセルがいずれか1つの投票セルのみに属するように投票セルが設定されているので、回転済投票セルパターンの回転角の違いによって同じ投票セルの面積が異なることが生じる。例えば、図12を参照すると、主軸方向vinteger=0のときの投票セル1の面積は21ピクセルであるが、主軸方向vinteger=0のときの投票セル1の面積は20ピクセルであり、同じ投票セルであるにもかかわらず、回転済投票セルパターンの回転角の違いによって、両面積は僅かに異なっている。そうすると、同じ画像であっても、主軸方向が異なることで、同一のセルにエッジ強度を投票するピクセルの数が、一方は多くなり、他方は少なくなるので、その投票セルの累積値にも誤差が生じる。 In the voting cell pattern of the second embodiment, each voting cell is set so that each pixel belongs to only one voting cell. Therefore, depending on the rotation angle of the rotated voting cell pattern, The same voting cell may have different areas. For example, referring to FIG. 12, the area of the voting cell 1 when the main axis direction v integer = 0 is 21 pixels, but the area of the voting cell 1 when the main axis direction v integer = 0 is 20 pixels, which is the same. Despite being a voting cell, both areas are slightly different due to the difference in the rotation angle of the rotated voting cell pattern. Then, even if the images are the same, the number of pixels that vote the edge strength for the same cell increases because one of the principal axes is different, and the other decreases. Occurs.

この点を考慮して、局所特徴量算出部26は、投票セルの大きさに応じて重み付きエッジ強度にさらに重み付けをして投票してもよい。例えば、面積の逆数をこの重みとすることができる。これにより、回転角の違いによる投票セルの面積の相違の影響を受けることのない局所特徴量を求めることができる。   In consideration of this point, the local feature amount calculation unit 26 may vote by further weighting the weighted edge strength according to the size of the voting cell. For example, the reciprocal of the area can be used as this weight. Thereby, the local feature-value which is not influenced by the difference in the area of a voting cell by the difference in a rotation angle can be calculated | required.

また、上記の第2の実施の形態の投票セルパターンは、各ピクセルがいずれか1つの投票セルのみに属するように投票セルが設定されていたので、回転済投票セルパターンの回転角の違いによって、投票セルの境界付近では誤差が生じることになる。   In the voting cell pattern of the second embodiment, the voting cell is set so that each pixel belongs to only one voting cell. Therefore, depending on the rotation angle of the rotated voting cell pattern, An error occurs near the boundary of the voting cell.

この点を考慮して、局所特徴量算出部26は、投票セルの境界に位置するピクセルについては、図19(c)に示すように、投票セルパターンを実線で引いて、その実線に掛かるピクセルについては、実践によって分けられた面積に応じて、複数の投票セルに投票をしてもよい。図19(a)は、図12に示す主軸方向vinteger=0の回転済投票セルパターンであり、図19(b)及び(c)は、その一部(投票セル15と投票セル16との境界部分)を拡大した図である。図19(b)は、誤差を考慮しない例であり、図19(c)は誤差を緩和する例である。 In consideration of this point, the local feature amount calculation unit 26 draws a voting cell pattern with a solid line for pixels located on the boundary of the voting cell, and draws the pixel on the solid line as shown in FIG. For, a plurality of voting cells may be voted according to the area divided by practice. FIG. 19A is a rotated voting cell pattern with the main axis direction v integer = 0 shown in FIG. 12, and FIGS. 19B and 19C show a part of them (the voting cell 15 and the voting cell 16 It is the figure which expanded the boundary part. FIG. 19B is an example in which no error is taken into account, and FIG. 19C is an example in which the error is relaxed.

図19(c)において、例えば左上のピクセルについては、その60%が投票セル15に属しており、その40%が投票セル16に属している。よって、このセルについては、その重み付きエッジ強度mhat(x,y)の60%を投票セル15に投票し、40%を投票セル16に投票する。このように、1つのピクセルを複数の投票セルに属するようにすることで、回転済投票セルパターンの回転角によらずに正確な投票値を得ることができる。   In FIG. 19C, for example, for the upper left pixel, 60% thereof belongs to the voting cell 15 and 40% thereof belongs to the voting cell 16. Therefore, for this cell, 60% of the weighted edge strength mhat (x, y) is voted for the voting cell 15, and 40% is voted for the voting cell 16. Thus, by making one pixel belong to a plurality of voting cells, an accurate voting value can be obtained regardless of the rotation angle of the rotated voting cell pattern.

(第3の実施の形態)
次に、上記の第1又は第2の実施の形態の局所特徴量算出装置を採用した対応点探索装置を第3の実施の形態として説明する。図20は、第3の実施の形態の対応点探索装置3の構成を示すブロック図である。図20に示すように、対応点探索装置3は、局所特徴量算出装置100と対応点探索部31とを備えている。対応点探索装置3は、ハードウェアとして図20に示す構成が実現されてもよいし、演算処理装置にソフトウェアが実装されることで図20に示す構成が実現されてもよい。
(Third embodiment)
Next, a corresponding point search device that employs the local feature quantity calculation device of the first or second embodiment will be described as a third embodiment. FIG. 20 is a block diagram illustrating a configuration of the corresponding point search apparatus 3 according to the third embodiment. As illustrated in FIG. 20, the corresponding point search device 3 includes a local feature amount calculation device 100 and a corresponding point search unit 31. The corresponding point search device 3 may implement the configuration shown in FIG. 20 as hardware, or may implement the configuration shown in FIG. 20 by installing software in the arithmetic processing device.

局所特徴量算出装置100として、第1の実施の形態の局所特徴量算出装置1又は第2の実施の形態の局所特徴量算出装置2のいずれかを採用する。局所特徴量算出装置100には、第1の画像及び第2の画像が入力され、それぞれについて局所特徴量を算出して、対応点探索部31に出力する。対応点探索部31は、第1の画像の局所特徴量と第2の画像の局所特徴量とを比較して、特徴点を探索する。   As the local feature quantity calculation apparatus 100, either the local feature quantity calculation apparatus 1 of the first embodiment or the local feature quantity calculation apparatus 2 of the second embodiment is adopted. The local feature amount calculation apparatus 100 receives the first image and the second image, calculates a local feature amount for each, and outputs the local feature amount to the corresponding point search unit 31. The corresponding point search unit 31 searches for a feature point by comparing the local feature amount of the first image with the local feature amount of the second image.

なお、対応点探索装置3は、画像を検索するシステムにおいて、入力画像と画像データベースに保存された画像との対応点を探索する装置として応用でき、また、異なる視点で撮影された第1画像と第2の画像から三次元形状を復元するシステムにおいて、第1画像と第2の画像の対応点を探索する装置としても応用でき、さらに別のシステムにも応用可能である。   Note that the corresponding point search device 3 can be applied as a device for searching for corresponding points between an input image and an image stored in an image database in a system for searching for an image, and a first image captured from a different viewpoint. The system for restoring the three-dimensional shape from the second image can be applied as an apparatus for searching for corresponding points between the first image and the second image, and can also be applied to another system.

図21は、本実施の形態の対応点探索方法のフロー図である。対応点探索方法は、ハードウェアで構成された対応点探索装置3が実行するものであってもよいし、演算処理装置に実装されて対応点探索装置3を構成するソフトウェア(コンピュータプログラム)が実行するものであってもよい。   FIG. 21 is a flowchart of the corresponding point search method of the present embodiment. The corresponding point search method may be executed by the corresponding point search device 3 configured by hardware, or executed by software (computer program) that is mounted on the arithmetic processing device and configures the corresponding point search device 3. You may do.

対応点の探索では、まず、局所特徴量算出装置100が、第1の画像の局所特徴量を算出し(ステップS51)、次に、第2の画像の局所特徴量を算出する(ステップS52)。ステップS51及びステップS52には、第1の実施の形態の局所特徴量算出方法又は第2の実施の形態の局所特徴量算出方法のいずれかを採用することができる。次に、対応点探索部31は、第1の画像の局所特徴量と第2の画像の局所特徴量とを比較して、対応点を探索する(ステップS53)。   In the search for corresponding points, first, the local feature quantity calculation device 100 calculates the local feature quantity of the first image (step S51), and then calculates the local feature quantity of the second image (step S52). . In step S51 and step S52, either the local feature value calculation method of the first embodiment or the local feature value calculation method of the second embodiment can be adopted. Next, the corresponding point search unit 31 compares the local feature amount of the first image with the local feature amount of the second image, and searches for a corresponding point (step S53).

以上のように、第1ないし第3の実施の形態によれば、局所特徴量の算出において、回転不変性を実現するために、特徴点の近傍領域のテクスチャパターンを回転させた上で新たに設定した投票セルパターンのセルに投票をするのではなく、投票セルパターンを回転させて、その回転した投票セルパターン(回転済投票セルパターン)の投票セルに投票を行なうので、テクスチャパターンを回転させるための膨大な浮動小数点計算を伴うサブピクセル単位の線形補間処理が不要となり、処理を高速化でき、その結果、対応点検索の処理も高速化できる。   As described above, according to the first to third embodiments, in order to realize the rotation invariance in the calculation of the local feature amount, the texture pattern in the region near the feature point is rotated and newly added. Instead of voting on the cell of the set voting cell pattern, the voting cell pattern is rotated and the voting cell of the rotated voting cell pattern (rotated voting cell pattern) is voted, so the texture pattern is rotated. This eliminates the need for a sub-pixel linear interpolation process with a huge floating-point calculation, thereby speeding up the process and, as a result, speeding up the corresponding point search process.

また、第1ないし第3の実施の形態によれば、従来の局所特徴量算出アルゴリズムであるSIFTやSURFよりもアルゴリズムが簡素になるので、局所特徴量算出装置をハードウェア化するときに、回路規模を小さくでき、コストを削減できる。また、ソフトウェアとして実装する場合にも、実行バイナリ大きさを小さくできるので、様々なアプリケーションに組み込み易いという利点がある。よって、上記の実施の形態の局所特徴量算出装置をハードウェア化する場合もソフトウェア実装する場合も、モバイル機器やローエンドの機器に好適に実装できる。   In addition, according to the first to third embodiments, the algorithm becomes simpler than the conventional local feature quantity calculation algorithms SIFT and SURF. The scale can be reduced and the cost can be reduced. Also, when implemented as software, the size of the executable binary can be reduced, so that there is an advantage that it can be easily incorporated into various applications. Therefore, whether the local feature amount calculation apparatus of the above-described embodiment is implemented as hardware or software, it can be suitably implemented in a mobile device or a low-end device.

なお、上記の実施の形態において、ピクセルの「方向」及び「方向の強度」は、エッジ情報に基づくものには限られない。「方向」及び「方向の強度」は、ウェーブレット変換やガボール変換によって求めることもできる。また、大量の画像について、エッジ勾配方向やエッジ強度をデータベースス化して学習させることで、新たな画像が入力された場合に、このデータベースを用いてエッジ勾配方向やエッジ強度を求めてもよい。   In the above embodiment, the “direction” and “direction intensity” of a pixel are not limited to those based on edge information. The “direction” and “direction strength” can also be obtained by wavelet transformation or Gabor transformation. Further, when a new image is input by learning a database of edge gradient directions and edge strengths for a large number of images, the edge gradient directions and edge strengths may be obtained using this database.

また、上記の実施の形態において、重み付きエッジ強度mhat(x,y)を求める際の重みは、w(x,y)=1として複数の画像について局所特徴量を求めておき、そこから得られた統計量に応じて、重みw(x,y)を決め直してもよい。例えば、特定の投票セルに強い値が集中する傾向がある場合には、その部分の重みを小さくすることで、各投票セルの寄与率を調整できる。   In the above embodiment, the weight for obtaining the weighted edge strength mhat (x, y) is obtained by obtaining local feature amounts for a plurality of images with w (x, y) = 1. The weight w (x, y) may be re-determined according to the obtained statistic. For example, when a strong value tends to concentrate on a specific voting cell, the contribution ratio of each voting cell can be adjusted by reducing the weight of that portion.

また、上記の実施の形態において、主軸方向は、画像情報(エッジ勾配方向及びエッジ強度画像)に基づいて検出されたが、主軸方向は、これに限られず、生成する際の撮像装置に備えられたジャイロセンサ、地磁気センサ、又は重力センサの検出値に基づいて検出されてもよく、また、大量の画像について、主軸方向をデータベースス化して学習させることで、新たな画像が入力された場合に、このデータベースを用いて主軸方向が検出されてもよい。   In the above embodiment, the principal axis direction is detected based on image information (edge gradient direction and edge intensity image). However, the principal axis direction is not limited to this, and is provided in an imaging apparatus when generating. May be detected based on the detected values of a gyro sensor, a geomagnetic sensor, or a gravity sensor, or when a new image is input by learning a database of the main axis direction for a large number of images. The main shaft direction may be detected using this database.

本発明は、局所特徴量の算出を高速化できるという効果を有し、画像の局所特徴量を算出するための局所特徴量算出装置及び局所特徴量算出方法、並びに局所特徴量算出装置を用いた対応点探索装置及び局所特徴量算出方法を用いた対応点探索方法等として有用である。   The present invention has the effect of speeding up the calculation of local feature values, and uses a local feature value calculation device, a local feature value calculation method, and a local feature value calculation device for calculating a local feature value of an image. This is useful as a corresponding point search method using a corresponding point search device and a local feature amount calculation method.

1 局所特徴量算出装置
11 特徴点近傍領域抽出部
12 方向強度計算部
13 主軸方向検出部
14 投票セルパターン生成部
15 方向補正パターン生成部
16 局所特徴量算出部
2 局所特徴量算出装置
21 特徴点近傍領域抽出部
22 方向強度計算部
23 主軸方向検出部
24 投票セル決定部
241 代表投票セルパターンテーブル
242 セル番号変換テーブル
25 方向補正部
251 代表方向補正部
252 方向変換テーブル
26 局所特徴量算出部
3 対応点探索装置
100 局所特徴量算出装置
31 対応点探索部
DESCRIPTION OF SYMBOLS 1 Local feature-value calculation apparatus 11 Feature point vicinity area extraction part 12 Direction intensity | strength calculation part 13 Main axis direction detection part 14 Voting cell pattern generation part 15 Direction correction pattern generation part 16 Local feature-value calculation part 2 Local feature-value calculation apparatus 21 Feature point Neighboring region extraction unit 22 Direction intensity calculation unit 23 Spindle direction detection unit 24 Voting cell determination unit 241 Representative voting cell pattern table 242 Cell number conversion table 25 Direction correction unit 251 Representative direction correction unit 252 Direction conversion table 26 Local feature amount calculation unit 3 Corresponding point search device 100 Local feature amount calculation device 31 Corresponding point search unit

Claims (20)

画像の局所特徴量を算出する局所特徴量算出装置であって、
前記画像から特徴点及び前記特徴点の近傍に設定される近傍領域を抽出する特徴点近傍領域抽出部と、
前記近傍領域内の各ピクセルの方向及びその方向の強度をそれぞれ算出する方向強度計算部と、
前記近傍領域の主軸方向を検出する主軸方向検出部と、
前記各ピクセルについて、基準投票セルパターンを前記主軸方向に応じた角度で回転させて得られる回転済投票セルパターンの投票セルのうちの当該ピクセルが属する投票セルに対して、前記方向強度計算部にて算出された当該ピクセルの方向を前記主軸方向に応じて補正して得られる補正済方向に従って、前記方向強度計算部にて算出された当該ピクセルの方向の強度を投票することで、前記特徴点の局所特徴量を求める局所特徴量算出部と、
を備えたことを特徴とする局所特徴量算出装置。
A local feature amount calculation device for calculating a local feature amount of an image,
A feature point neighborhood extraction unit for extracting feature points and neighborhood regions set in the vicinity of the feature points from the image;
A direction intensity calculator for calculating the direction of each pixel in the neighboring area and the intensity of the direction, respectively;
A main axis direction detector for detecting the main axis direction of the vicinity region;
For each of the pixels, the directional strength calculating unit applies the voting cell to which the pixel belongs among the voting cells of the rotated voting cell pattern obtained by rotating the reference voting cell pattern at an angle according to the principal axis direction. In accordance with the corrected direction obtained by correcting the direction of the pixel calculated in accordance with the principal axis direction, voting the intensity of the pixel direction calculated by the direction intensity calculation unit, the feature point A local feature amount calculation unit for obtaining a local feature amount of
The local feature-value calculation apparatus characterized by having provided.
前記主軸方向検出部は、前記方向強度計算部にて算出された前記近傍領域中の複数のピクセルの方向及びその方向の強度に基づいて、前記近傍領域の主軸方向を検出することを特徴とする請求項1に記載の局所特徴量算出装置。   The main axis direction detection unit detects the main axis direction of the neighboring area based on the direction of the plurality of pixels in the neighboring area calculated by the direction intensity calculation unit and the intensity in the direction. The local feature amount calculation apparatus according to claim 1. さらに、前記ピクセルの方向を量子化する方向量子化部を備え、
前記主軸方向検出部は、前記方向量子化部にて量子化されたピクセルの方向に従って当該ピクセルの方向の強度を投票することで、方向ヒストグラムを生成し、前記方向ヒストグラムのピーク近傍を曲線近似して、当該曲線の極大に対応する方向を前記主軸方向として検出することを特徴とする請求項1又は2に記載の局所特徴量算出装置。
Furthermore, a direction quantization unit for quantizing the direction of the pixel is provided,
The main axis direction detection unit generates a direction histogram by voting the intensity of the direction of the pixel according to the direction of the pixel quantized by the direction quantization unit, and approximates a curve near the peak of the direction histogram. The local feature amount calculation apparatus according to claim 1, wherein a direction corresponding to the maximum of the curve is detected as the main axis direction.
さらに、前記基準投票セルパターンを、前記主軸方向に応じた角度だけ回転させることで、前記回転済投票セルパターンを生成する投票セルパターン生成部を備えることを特徴とする請求項1ないし3のいずれかに記載の局所特徴量算出装置。   4. The voting cell pattern generation unit configured to generate the rotated voting cell pattern by rotating the reference voting cell pattern by an angle corresponding to the main axis direction. 5. The local feature-value calculation apparatus of crab. さらに、前記方向強度計算部にて算出されたピクセルの方向を、前記主軸方向に応じて補正するための方向補正パターンを生成する方向補正パターン生成部を備え、
前記局所特徴量算出部は、前記方向補正パターンを用いて、各ピクセルの方向を補正することで、前記補正済方向を得ることを特徴とする請求項1ないし4のいずれかに記載の局所特徴量算出装置。
Furthermore, a direction correction pattern generation unit that generates a direction correction pattern for correcting the direction of the pixel calculated by the direction intensity calculation unit according to the principal axis direction,
The local feature according to claim 1, wherein the local feature amount calculation unit obtains the corrected direction by correcting the direction of each pixel using the direction correction pattern. Quantity calculation device.
さらに、前記ピクセルの方向を量子化する方向量子化部を備え、
前記主軸方向検出部は、前記方向量子化部にて量子化されたピクセルの方向に従って当該ピクセルの方向の強度を投票することで、方向ヒストグラムを生成し、前記方向ヒストグラムにて極大値を有する方向を前記主軸方向として検出することを特徴とする請求項1又は2に記載の局所特徴量算出装置。
Furthermore, a direction quantization unit for quantizing the direction of the pixel is provided,
The main axis direction detection unit generates a direction histogram by voting the intensity of the direction of the pixel according to the direction of the pixel quantized by the direction quantization unit, and has a maximum value in the direction histogram. The local feature amount calculation apparatus according to claim 1, wherein the local feature amount is detected as the main axis direction.
さらに、前記主軸方向検出部にて検出され得る複数の主軸方向にそれぞれ対応する複数の角度で前記基準投票セルパターンを回転させて得られた複数の投票セルパターンを記憶した投票セルパターンテーブルを備え、
前記局所特徴量算出部は、前記投票セルパターンテーブルに記憶された投票セルパターンのうちの前記主軸方向に対応する投票セルパターンを前記回転済投票セルパターンとして使用して、前記局所特徴量を算出することを特徴とする請求項6に記載の局所特徴量算出装置。
Furthermore, a voting cell pattern table storing a plurality of voting cell patterns obtained by rotating the reference voting cell pattern at a plurality of angles respectively corresponding to a plurality of main shaft directions that can be detected by the main shaft direction detecting unit is provided. ,
The local feature amount calculation unit calculates the local feature amount by using a voting cell pattern corresponding to the main axis direction among the voting cell patterns stored in the voting cell pattern table as the rotated voting cell pattern. The local feature amount calculation apparatus according to claim 6, wherein:
さらに、前記主軸方向検出部にて検出され得る複数の主軸方向にそれぞれ対応する複数の角度で前記基準投票セルパターンを回転させて得られた複数の投票セルパターンのうちの、パターンの形状が互いに重複しない複数の代表投票セルパターンを記憶した代表投票セルパターンテーブルと、
前記主軸方向に従って前記代表投票セルパターンのセル番号を変換するためのセル番号変換テーブルと、
を備え、
前記局所特徴量算出部は、前記投票セルパターンテーブルに記憶された前記代表投票セルパターンのうちの前記主軸方向に対応する代表投票セルパターンのセル番号を、前記セル番号変換テーブルを参照して、前記主軸方向に従って変換することで、前記方向の強度を投票する投票セルを決定することを特徴とする請求項6に記載の局所特徴量算出装置。
Furthermore, among the plurality of voting cell patterns obtained by rotating the reference voting cell pattern at a plurality of angles respectively corresponding to a plurality of main shaft directions that can be detected by the main shaft direction detecting unit, the shapes of the patterns are mutually A representative voting cell pattern table storing a plurality of representative voting cell patterns that do not overlap, and
A cell number conversion table for converting a cell number of the representative voting cell pattern according to the main axis direction;
With
The local feature amount calculation unit refers to the cell number conversion table for the cell number of the representative voting cell pattern corresponding to the main axis direction among the representative voting cell patterns stored in the voting cell pattern table, The local feature amount calculation apparatus according to claim 6, wherein a voting cell for voting the intensity in the direction is determined by performing conversion according to the main axis direction.
さらに、前記主軸方向検出部にて検出され得る複数の主軸方向の各々について、前記方向量子化部にて量子化された方向に対する前記補正済方向が規定された方向補正テーブルを備え、
前記局所特徴量算出部は、前記方向補正テーブルを参照することで、前記主軸方向に従って、前記方向量子化部にて量子化された方向に対応する前記補正済方向を取得することを特徴とする請求項6ないし8のいずれかに記載の局所特徴量算出装置。
Further, for each of a plurality of principal axis directions that can be detected by the principal axis direction detection unit, a direction correction table in which the corrected direction with respect to the direction quantized by the direction quantization unit is defined,
The local feature amount calculation unit obtains the corrected direction corresponding to the direction quantized by the direction quantization unit according to the principal axis direction by referring to the direction correction table. The local feature-value calculation apparatus in any one of Claim 6 thru | or 8.
さらに、前記主軸方向検出部にて検出され得る複数の主軸方向のうちの、前記方向量子化部にて量子化された方向に対する前記補正済方向が同一の周期を有する主軸方向を1グループとして、各グループについて、前記方向量子化部にて量子化された方向に対する代表補正済方向が規定された代表方向補正テーブルと、
前記主軸方向に従って前記代表方向補正テーブルの前記代表補正済方向を変換するための方向変換テーブルと、
前記局所特徴量算出部は、前記代表方向補正テーブルに規定された前記代表補正済方向のうちの、前記主軸方向及び前記方向量子化部にて量子化された方向に対応する代表補正済方向を、前記方向変換テーブルを参照して、前記主軸方向に従って変換することで、前記補正済方向を取得することを特徴とする請求項6ないし8のいずれかに記載の局所特徴量算出装置。
Further, among the plurality of main axis directions that can be detected by the main axis direction detection unit, the main axis directions in which the corrected direction with respect to the direction quantized by the direction quantization unit has the same period are grouped, For each group, a representative direction correction table in which a representative corrected direction with respect to the direction quantized by the direction quantization unit is defined,
A direction conversion table for converting the representative corrected direction of the representative direction correction table according to the main axis direction;
The local feature amount calculation unit calculates a representative corrected direction corresponding to the principal axis direction and the direction quantized by the direction quantization unit among the representative corrected directions defined in the representative direction correction table. The local feature amount calculation apparatus according to claim 6, wherein the corrected direction is acquired by referring to the direction conversion table and performing conversion according to the main axis direction.
前記局所特徴量算出部は、前記各ピクセルについて、当該ピクセルが複数の前記投票セルに属する場合に、当該ピクセルにおいて各投票セルが占める割合に応じて、当該複数の前記投票セルに当該ピクセルの方向の強度を投票することを特徴とする請求項1ないし10のいずれかに記載の局所特徴量算出装置。   The local feature amount calculation unit, for each pixel, when the pixel belongs to a plurality of the voting cells, the direction of the pixel to the plurality of voting cells according to a ratio of each voting cell in the pixel The local feature amount calculation apparatus according to claim 1, wherein the voting strength is voted. 前記方向は、ピクセルのエッジ勾配方向であり、前記方向の強度は、ピクセルのエッジ強度であることを特徴とする請求項1ないし11のいずれかに記載の局所特徴量算出装置。   12. The local feature amount calculation apparatus according to claim 1, wherein the direction is an edge gradient direction of a pixel, and the intensity in the direction is an edge intensity of the pixel. 前記局所特徴量算出部は、前記方向の強度を投票する投票セルの大きさに応じて前記方向の強度に重み付けをして投票することを特徴とする請求項1ないし12のいずれかに記載の局所特徴量算出装置。   The said local feature-value calculation part weights the intensity | strength of the said direction according to the magnitude | size of the voting cell which votes the intensity | strength of the said direction, and votes. Local feature amount calculation device. 前記方向強度計算部は、前記特徴点に近いピクセルほど重みを重くした重み付けをして前記方向の強度を算出することを特徴とする請求項1ないし13のいずれかに記載の局所特徴量算出装置。   14. The local feature amount calculation apparatus according to claim 1, wherein the direction intensity calculation unit calculates the intensity in the direction by weighting a pixel closer to the feature point with a higher weight. . 複数の画像の間の対応点を探索する対応点探索装置であって、
請求項1ないし14のいずれかに記載の局所特徴量算出装置と、
前記局所特徴量算出装置を用いて算出した前記複数の画像のそれぞれの局所特徴量を互いに比較することで前記複数の画像の間の対応点を探索する対応点探索部と、
を備えたことを特徴とする対応点探索装置。
A corresponding point search device for searching for corresponding points between a plurality of images,
The local feature amount calculation apparatus according to any one of claims 1 to 14,
A corresponding point search unit that searches for corresponding points between the plurality of images by comparing the local feature amounts of the plurality of images calculated using the local feature amount calculating device;
Corresponding point search device characterized by comprising:
画像の局所特徴量を算出する局所特徴量算出方法であって、
前記画像から特徴点を抽出する特徴点抽出ステップと、
前記特徴点の近傍に近傍領域を設定する近傍領域設定ステップと、
前記近傍領域内の各ピクセルの方向を算出する方向算出ステップと、
前記近傍領域内の各ピクセルの方向の強度を算出する強度算出ステップと、
前記近傍領域内の複数のピクセルの前記方向及び前記方向の強度に基づいて、当該近傍領域の主軸方向を検出する主軸方向検出ステップと、
基準投票セルパターンを前記主軸方向に応じた角度で回転させて回転済投票セルパターンを取得する投票セルパターン回転ステップと、
各ピクセルの前記方向を前記主軸方向に応じて補正して補正済方向を取得する方向補正ステップと、
前記近傍領域内の各ピクセルについて、前記回転済投票セルパターンの投票セルのうちの当該ピクセルが属する投票セルに対して、前記補正済方向に従って、当該ピクセルの前記方向の強度を投票することで、前記特徴点の局所特徴量を求める局所特徴量算出ステップと、
を含むことを特徴とする局所特徴量算出方法。
A local feature amount calculation method for calculating a local feature amount of an image,
A feature point extracting step of extracting feature points from the image;
A neighborhood region setting step for setting a neighborhood region in the vicinity of the feature point;
A direction calculating step for calculating the direction of each pixel in the neighboring region;
An intensity calculating step for calculating the intensity in the direction of each pixel in the neighboring area;
A main axis direction detecting step for detecting a main axis direction of the neighboring area based on the direction of the plurality of pixels in the neighboring area and the intensity of the direction;
A voting cell pattern rotating step for obtaining a rotated voting cell pattern by rotating a reference voting cell pattern at an angle according to the main axis direction;
A direction correction step of correcting the direction of each pixel according to the principal axis direction to obtain a corrected direction;
For each pixel in the neighborhood region, voting the intensity of the pixel in the direction according to the corrected direction for the voting cell to which the pixel belongs among the voting cells of the rotated voting cell pattern, A local feature amount calculating step for obtaining a local feature amount of the feature point;
The local feature-value calculation method characterized by including.
画像の局所特徴量を算出する局所特徴量算出方法であって、
前記画像から特徴点を抽出する特徴点抽出ステップと、
前記特徴点の近傍に近傍領域を設定する近傍領域設定ステップと、
前記近傍領域内の各ピクセルの方向を算出する方向算出ステップと、
前記近傍領域内の各ピクセルの前記方向を量子化する方向量子化ステップと、
前記近傍領域内の各ピクセルの方向の強度を算出する強度算出ステップと、
前記方向量子化ステップにて量子化されたピクセルの方向に従って当該ピクセルの方向の強度を投票することで、方向ヒストグラムを生成し、前記方向ヒストグラムにて極大値を有する方向を前記近傍領域の主軸方向として検出する主軸方向検出ステップと、
前記近傍領域内の各ピクセルについて、前記主軸方向検出ステップにて検出され得る複数の主軸方向にそれぞれ対応する複数の角度で基準投票セルパターンを回転させて得られた複数の投票セルパターンを記憶した投票セルパターンテーブルを参照して、前記主軸方向に対応する投票セルパターンにおける、当該ピクセルが属する投票セルを決定する投票セル決定ステップと、
前記近傍領域内の各ピクセルについて、前記主軸方向検出ステップにて検出され得る複数の主軸方向の各々について、前記方向量子化ステップにて量子化された方向に対する補正済方向が規定された方向補正テーブルを参照して、前記主軸方向及び前記方向量子化ステップにて量子化された方向に対応する補正済方向を取得する方向補正ステップと、
前記近傍領域内の各ピクセルについて、前記投票セル決定ステップにて決定された投票セルに対して、前記補正済方向に従って、当該ピクセルの前記方向の強度を投票することで、前記特徴点の局所特徴量を求める局所特徴量算出ステップと、
を含むことを特徴とする局所特徴量算出方法。
A local feature amount calculation method for calculating a local feature amount of an image,
A feature point extracting step of extracting feature points from the image;
A neighborhood region setting step for setting a neighborhood region in the vicinity of the feature point;
A direction calculating step for calculating the direction of each pixel in the neighboring region;
A direction quantization step of quantizing the direction of each pixel in the neighborhood region;
An intensity calculating step for calculating the intensity in the direction of each pixel in the neighboring area;
A direction histogram is generated by voting the intensity of the direction of the pixel according to the direction of the pixel quantized in the direction quantization step, and the direction having the maximum value in the direction histogram is set as the principal axis direction of the neighboring region. A spindle direction detection step to detect as
A plurality of voting cell patterns obtained by rotating a reference voting cell pattern at a plurality of angles respectively corresponding to a plurality of main axis directions that can be detected in the main axis direction detecting step for each pixel in the vicinity region are stored. A voting cell determination step for determining a voting cell to which the pixel belongs in the voting cell pattern corresponding to the principal axis direction with reference to a voting cell pattern table;
A direction correction table in which a corrected direction for the direction quantized in the direction quantization step is defined for each of a plurality of main axis directions that can be detected in the main axis direction detection step for each pixel in the neighborhood region. A direction correction step for obtaining a corrected direction corresponding to the principal axis direction and the direction quantized in the direction quantization step;
For each pixel in the neighboring region, the voting cell determined in the voting cell determination step is voted for the intensity of the pixel in the direction according to the corrected direction, thereby local features of the feature point. A local feature amount calculating step for obtaining a quantity;
The local feature-value calculation method characterized by including.
請求項16又は17に記載の局所特徴量算出方法を演算処理装置に実行させるためのプログラム。   A program for causing an arithmetic processing device to execute the local feature amount calculation method according to claim 16. 複数の画像の間の対応点を探索する対応点探索方法であって、
請求項16又は17に記載の局所特徴量算出方法で前記複数の画像のそれぞれの局所特徴量を算出する局所特徴量算出ステップと、
前記局所特徴量算出ステップで算出された前記複数の画像のそれぞれの局所特徴量を互いに比較することで前記複数の画像の間の対応点を探索する対応点探索ステップと、
を含むことを特徴とする対応点探索方法。
A corresponding point search method for searching for corresponding points between a plurality of images,
A local feature amount calculating step of calculating a local feature amount of each of the plurality of images by the local feature amount calculating method according to claim 16 or 17,
Corresponding point search step for searching corresponding points between the plurality of images by comparing each local feature amount of the plurality of images calculated in the local feature amount calculating step;
Corresponding point search method characterized by including.
請求項19に記載の対応点探索方法を演算処理装置に実行させるためのプログラム。   A program for causing an arithmetic processing unit to execute the corresponding point search method according to claim 19.
JP2010249142A 2010-11-05 2010-11-05 Local feature amount calculation apparatus and method, and corresponding point search apparatus and method Active JP5289412B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010249142A JP5289412B2 (en) 2010-11-05 2010-11-05 Local feature amount calculation apparatus and method, and corresponding point search apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010249142A JP5289412B2 (en) 2010-11-05 2010-11-05 Local feature amount calculation apparatus and method, and corresponding point search apparatus and method

Publications (2)

Publication Number Publication Date
JP2012103758A true JP2012103758A (en) 2012-05-31
JP5289412B2 JP5289412B2 (en) 2013-09-11

Family

ID=46394116

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010249142A Active JP5289412B2 (en) 2010-11-05 2010-11-05 Local feature amount calculation apparatus and method, and corresponding point search apparatus and method

Country Status (1)

Country Link
JP (1) JP5289412B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104121852A (en) * 2013-04-26 2014-10-29 株式会社三丰 Edge measurement video tool with robust edge discrimination margin
JP2015026110A (en) * 2013-07-24 2015-02-05 オリンパス株式会社 Image processing device, image processing method and image processing program
KR20150031333A (en) * 2012-07-09 2015-03-23 시스벨 테크놀로지 에스.알.엘. Method for transforming an image descriptor based on a gradient histogram and relative image processing apparatus
JP2016115133A (en) * 2014-12-15 2016-06-23 エヌ・ティ・ティ・コムウェア株式会社 Information processing device, information processing method, and program
JP2016118924A (en) * 2014-12-19 2016-06-30 Kddi株式会社 Feature descriptor creation device, feature description device, and program
JP2017518556A (en) * 2015-03-31 2017-07-06 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド Image display method and apparatus
JP2018113080A (en) * 2014-05-06 2018-07-19 ナント・ホールデイングス・アイ・ピー・エル・エル・シー Image feature detection utilizing edge vector
JP2020107232A (en) * 2018-12-28 2020-07-09 株式会社デンソーテン Adhering matter detection device and adhering matter detection method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004326693A (en) * 2003-04-28 2004-11-18 Sony Corp Image recognition device and method as well as robot device
JP2008257649A (en) * 2007-04-09 2008-10-23 Denso Corp Image recognition apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004326693A (en) * 2003-04-28 2004-11-18 Sony Corp Image recognition device and method as well as robot device
JP2008257649A (en) * 2007-04-09 2008-10-23 Denso Corp Image recognition apparatus

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG201000872001; 藤吉 弘亘: '画像局所特徴量SIFTと最近のアプローチ' 人工知能学会誌 第25巻 第6号, 20101101, p.753-760, (社)人工知能学会 *
JPN6013023737; 藤吉 弘亘: '画像局所特徴量SIFTと最近のアプローチ' 人工知能学会誌 第25巻 第6号, 20101101, p.753-760, (社)人工知能学会 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019040612A (en) * 2012-07-09 2019-03-14 ニュー ラック グローバル リミテッド Method for transformation of image descriptor based on gradient histogram and relative image processing apparatus
KR20150031333A (en) * 2012-07-09 2015-03-23 시스벨 테크놀로지 에스.알.엘. Method for transforming an image descriptor based on a gradient histogram and relative image processing apparatus
KR102193177B1 (en) 2012-07-09 2020-12-21 뉴 럭 글로벌 리미티드 Method for transforming an image descriptor based on a gradient histogram and relative image processing apparatus
US10713523B2 (en) 2012-07-09 2020-07-14 New Luck Global Limited Method for transforming an image descriptor based on a gradient histogram and relative image processing apparatus
CN104121852A (en) * 2013-04-26 2014-10-29 株式会社三丰 Edge measurement video tool with robust edge discrimination margin
CN104121852B (en) * 2013-04-26 2018-07-24 株式会社三丰 The edge metering video frequency tool of surplus is differentiated using robust edge
JP2015026110A (en) * 2013-07-24 2015-02-05 オリンパス株式会社 Image processing device, image processing method and image processing program
JP2018113080A (en) * 2014-05-06 2018-07-19 ナント・ホールデイングス・アイ・ピー・エル・エル・シー Image feature detection utilizing edge vector
JP2016115133A (en) * 2014-12-15 2016-06-23 エヌ・ティ・ティ・コムウェア株式会社 Information processing device, information processing method, and program
JP2016118924A (en) * 2014-12-19 2016-06-30 Kddi株式会社 Feature descriptor creation device, feature description device, and program
JP2017518556A (en) * 2015-03-31 2017-07-06 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド Image display method and apparatus
JP2020107232A (en) * 2018-12-28 2020-07-09 株式会社デンソーテン Adhering matter detection device and adhering matter detection method
JP7234630B2 (en) 2018-12-28 2023-03-08 株式会社デンソーテン Deposit detection device

Also Published As

Publication number Publication date
JP5289412B2 (en) 2013-09-11

Similar Documents

Publication Publication Date Title
JP5289412B2 (en) Local feature amount calculation apparatus and method, and corresponding point search apparatus and method
US8774508B2 (en) Local feature amount calculating device, method of calculating local feature amount, corresponding point searching apparatus, and method of searching corresponding point
CN112446327B (en) Remote sensing image target detection method based on non-anchor frame
JP5703312B2 (en) Efficient scale space extraction and description of feature points
Davarzani et al. Scale-and rotation-invariant texture description with improved local binary pattern features
CN102713938A (en) Scale space normalization technique for improved feature detection in uniform and non-uniform illumination changes
CN111797744B (en) Multimode remote sensing image matching method based on co-occurrence filtering algorithm
Zhang et al. 3-D deep feature construction for mobile laser scanning point cloud registration
CN103310233A (en) Similarity mining method of similar behaviors between multiple views and behavior recognition method
Yan et al. Multi-scale difference map fusion for tamper localization using binary ranking hashing
JP2011508323A (en) Permanent visual scene and object recognition
Wu et al. Remote sensing image registration based on local structural information and global constraint
CN113177592A (en) Image segmentation method and device, computer equipment and storage medium
CN105631860B (en) Image point extracting method of the same name based on partial ordering's direction histogram description
CN104268550A (en) Feature extraction method and device
CN113435479A (en) Feature point matching method and system based on regional feature expression constraint
Qu et al. An algorithm of image mosaic based on binary tree and eliminating distortion error
Wu et al. Semantic aware sport image resizing jointly using seam carving and warping
Torre-Ferrero et al. 3D point cloud registration based on a purpose-designed similarity measure
Li et al. GPU-based parallel optimization for real-time scale-invariant feature transform in binocular visual registration
Ahmadian et al. Single image super-resolution with self-organization neural networks and image laplace gradient operator
JP2022140857A (en) Methods and apparatus for processing image data for machine vision
CN113066015A (en) Multi-mode remote sensing image rotation difference correction method based on neural network
CN106682672A (en) Method and device for acquiring feature descriptor of hyper-spectral image
EP2631845B1 (en) Local feature amount calculating device, method of calculating local feature amount, corresponding point searching apparatus, and method of searching corresponding point

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130604

R150 Certificate of patent or registration of utility model

Ref document number: 5289412

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250