JP2013182416A - Feature amount extraction device, feature amount extraction method, and feature amount extraction program - Google Patents

Feature amount extraction device, feature amount extraction method, and feature amount extraction program Download PDF

Info

Publication number
JP2013182416A
JP2013182416A JP2012045780A JP2012045780A JP2013182416A JP 2013182416 A JP2013182416 A JP 2013182416A JP 2012045780 A JP2012045780 A JP 2012045780A JP 2012045780 A JP2012045780 A JP 2012045780A JP 2013182416 A JP2013182416 A JP 2013182416A
Authority
JP
Japan
Prior art keywords
image
smoothing
image group
feature amount
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012045780A
Other languages
Japanese (ja)
Inventor
Toshiaki Inoue
俊明 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2012045780A priority Critical patent/JP2013182416A/en
Publication of JP2013182416A publication Critical patent/JP2013182416A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately extract a feature amount of an input image with a small operation amount.SOLUTION: A feature amount extraction device smooths an input image input from outside to generate a smoothed image group. The smoothed image group is spatially differentiated to generate a differential image group. Then, a feature amount of the input image is extracted on the basis of the differential image group, and is output to the outside. A differential image is generated by spatial differentiation, thereby enabling accurate feature amount extraction with a small operation amount.

Description

本発明は、画像の回転や拡大縮小などの変化に対して不変な局所特徴量を抽出する方法であるSIFT(Scale−Invariant Feature Transform)に関する。   The present invention relates to SIFT (Scale-Invariant Feature Transform), which is a method for extracting local feature amounts that are invariant to changes such as image rotation and enlargement / reduction.

非特許文献1は、SIFTによる特徴量抽出方法について記載している。具体的に、非特許文献1の方法は、入力画像を平滑化し、平滑化画像群から差分手段により微分画像群を生成し、微分画像群から特徴量を算出している。   Non-Patent Document 1 describes a feature quantity extraction method by SIFT. Specifically, in the method of Non-Patent Document 1, the input image is smoothed, a differential image group is generated from the smoothed image group by the difference means, and the feature amount is calculated from the differential image group.

特許文献1は、複数のオブジェクトを含むオブジェクト画像から、検出対象となるモデルを抽出する画像認識装置およびその方法、並びにそのような画像認識機能を搭載したロボット装置に関する発明を記載している。   Patent Literature 1 describes an invention relating to an image recognition apparatus and method for extracting a model to be detected from an object image including a plurality of objects, and a robot apparatus equipped with such an image recognition function.

八木、斎藤編、「コンピュータビジョン最先端ガイド2」、アドコムメディア社、pp.5-29、2010年6月19日発行Yagi, Saito, “Computer Vision Advanced Guide 2”, Adcom Media, pp.5-29, published on June 19, 2010

特許第4492036号公報Japanese Patent No. 4492036

非特許文献1は、微分画像群の生成に、LoG(Laplacian of Gaussian)フィルタの近似であるDoG(Difference of Gaussian)フィルタを用いているため、微分画像の画素値(微分係数)の精度がLoGフィルタによる結果に比べて劣化するという問題がある。すなわち微分画像の極値(極大値または極小値)として検出されるキーポイント候補の精度、さらには抽出される特徴量の精度も劣化するという問題がある。   Since Non-Patent Document 1 uses a DoG (Difference of Gaussian) filter that is an approximation of a LoG (Laplacian of Gaussian) filter to generate a differential image group, the accuracy of the pixel value (differential coefficient) of the differential image is LoG. There is a problem that the result is deteriorated as compared with the result of the filter. That is, there is a problem that the accuracy of the key point candidate detected as the extreme value (maximum value or minimum value) of the differential image, and further, the accuracy of the extracted feature value deteriorates.

一方、特許文献1では、平滑化画像からの微分画像の生成にDoGフィルタを用いれば先行技術1と同様の問題が生じる。また入力からの微分画像の生成にLoGフィルタを用いれば、平滑化画像の生成とは別に入力画像とLoGフィルタとの畳み込み演算を行う必要があり、演算量が増大するという問題がある。   On the other hand, in Patent Document 1, if a DoG filter is used to generate a differential image from a smoothed image, the same problem as in Prior Art 1 occurs. If a LoG filter is used to generate a differential image from an input, it is necessary to perform a convolution operation between the input image and the LoG filter separately from the generation of the smoothed image, which increases the amount of calculation.

本発明の解決しようとする課題としては、上記のものが一例として挙げられる。本発明は、入力画像の特徴量を少ない演算量で高精度に抽出することを目的とする。   Examples of the problem to be solved by the present invention include the above. An object of the present invention is to extract a feature amount of an input image with high accuracy with a small amount of calculation.

請求項1に記載の発明は、特徴量抽出装置であって、入力画像を平滑化して平滑化画像群を生成する平滑化手段と、前記平滑化画像群を空間微分して微分画像群を生成する微分手段と、前記微分画像群に基づいて、前記入力画像の特徴量を抽出し出力する特徴量抽出手段と、を備えることを特徴とする。   The invention according to claim 1 is a feature quantity extraction device, wherein a smoothing unit that smoothes an input image to generate a smoothed image group, and a differential image group is generated by spatially differentiating the smoothed image group. And a feature quantity extraction means for extracting and outputting a feature quantity of the input image based on the differential image group.

請求項8に記載の発明は、特徴量抽出装置により実行される特徴量抽出方法であって、入力画像を平滑化して平滑化画像群を生成する平滑化工程と、前記平滑化画像群を空間微分して微分画像群を生成する微分工程と、前記微分画像群に基づいて、前記入力画像の特徴量を抽出し出力する特徴量抽出工程と、を有することを特徴とする。   The invention according to claim 8 is a feature quantity extraction method executed by a feature quantity extraction device, wherein a smoothing step of smoothing an input image to generate a smoothed image group, and the smoothed image group as a space A differentiation step of differentiating to generate a differential image group; and a feature amount extraction step of extracting and outputting a feature amount of the input image based on the differential image group.

請求項9に記載の発明は、コンピュータにより実行される特徴量抽出プログラムであって、入力画像を平滑化して平滑化画像群を生成する平滑化手段、前記平滑化画像群を空間微分して微分画像群を生成する微分手段、前記微分画像群に基づいて、前記入力画像の特徴量を抽出し出力する特徴量抽出手段、として前記コンピュータを機能させる。   The invention according to claim 9 is a feature amount extraction program executed by a computer, smoothing means for smoothing an input image to generate a smoothed image group, and spatially differentiating the derivative of the smoothed image group The computer is caused to function as a differentiation unit that generates an image group, and a feature amount extraction unit that extracts and outputs a feature amount of the input image based on the differential image group.

第1実施例に係る特徴量抽出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the feature-value extraction apparatus which concerns on 1st Example. 第2実施例に係る特徴量抽出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the feature-value extraction apparatus which concerns on 2nd Example. 第3実施例に係る特徴量抽出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the feature-value extraction apparatus which concerns on 3rd Example. 非特許文献による特徴量抽出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the feature-value extraction apparatus by a nonpatent literature. 第1の変形例に係る特徴量抽出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the feature-value extraction apparatus which concerns on a 1st modification. 第2の変形例に係る特徴量抽出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the feature-value extraction apparatus which concerns on a 2nd modification. 第3の変形例に係る特徴量抽出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the feature-value extraction apparatus which concerns on a 3rd modification. 第4の変形例に係る特徴量抽出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the feature-value extraction apparatus which concerns on a 4th modification. 第5の変形例に係る特徴量抽出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the feature-value extraction apparatus which concerns on a 5th modification.

本発明の好適な実施形態では、特徴量抽出装置は、入力画像を平滑化して平滑化画像群を生成する平滑化手段と、前記平滑化画像群を空間微分して微分画像群を生成する微分手段と、前記微分画像群に基づいて、前記入力画像の特徴量を抽出し出力する特徴量抽出手段と、を備える。   In a preferred embodiment of the present invention, the feature quantity extraction device includes a smoothing unit that smoothes an input image to generate a smoothed image group, and a differential that generates a differential image group by spatially differentiating the smoothed image group. And a feature quantity extraction means for extracting and outputting the feature quantity of the input image based on the differential image group.

上記の特徴量抽出装置は、外部から入力された入力画像を平滑化し、平滑化画像群を生成する。平滑化画像群は空間微分され、微分画像群が生成される。そして、微分画像群に基づいて入力画像の特徴量が抽出され、外部へ出力される。空間微分で微分画像を生成することにより、少ない演算量で高精度な特徴量抽出が可能となる。好適な例では、前記微分手段は、ラプラシアンフィルタ手段である。   The feature amount extraction apparatus smoothes an input image input from the outside, and generates a smoothed image group. The smoothed image group is spatially differentiated to generate a differentiated image group. And the feature-value of an input image is extracted based on a differential image group, and is output outside. By generating a differential image by spatial differentiation, highly accurate feature extraction can be performed with a small amount of computation. In a preferred example, the differentiating means is a Laplacian filter means.

上記の特徴量抽出装置の一態様は、前記微分手段から出力された微分画像の画素値を増幅して前記特徴量抽出手段に入力する増幅手段を備える。微分画像の画素値、即ち微分係数を増幅することにより、多くの特徴量を抽出することが可能となる。   One aspect of the above feature quantity extraction device includes amplification means for amplifying the pixel value of the differential image output from the differentiation means and inputting it to the feature quantity extraction means. By amplifying the pixel value of the differential image, that is, the differential coefficient, it is possible to extract many feature amounts.

上記の特徴量抽出装置の他の一態様は、前記入力画像をグレースケールに変換し、前記平滑化手段に入力するグレースケール変換手段を備える。この態様では、複数の色成分を有する入力画像を、色成分毎に別々に処理する必要がないため、処理量を減少させることができる。   Another aspect of the feature amount extraction apparatus includes a gray scale conversion unit that converts the input image into a gray scale and inputs the converted image to the smoothing unit. In this aspect, since it is not necessary to separately process an input image having a plurality of color components for each color component, the processing amount can be reduced.

上記の特徴量抽出装置の他の一態様は、前記入力画像の色空間を変換し、色空間変換後の入力画像を前記平滑化手段に入力する色空間変換手段を備える。この態様では、有効な特徴量の抽出を行うのに適した色空間を選択することができる。   Another aspect of the feature amount extraction apparatus includes a color space conversion unit that converts a color space of the input image and inputs the input image after the color space conversion to the smoothing unit. In this aspect, it is possible to select a color space suitable for extracting effective feature amounts.

上記の特徴量抽出装置の他の一態様は、前記入力画像の色空間を変換する色空間変換手段と、色空間変換後の入力画像から1つの色成分を抽出して前記平滑化手段に入力する色成分抽出手段と、を備える。この態様では、複数の色成分を有する色空間の入力画像から、有効な特徴量の抽出を行うのに適した色成分を選択して特徴量の抽出を行うことができる。   Another aspect of the feature amount extraction apparatus is a color space conversion unit that converts a color space of the input image, and extracts one color component from the input image after the color space conversion and inputs the color component to the smoothing unit. Color component extraction means. In this aspect, it is possible to extract a feature amount by selecting a color component suitable for extracting an effective feature amount from an input image in a color space having a plurality of color components.

上記の特徴量抽出装置の他の一態様は、前記入力画像の色空間を変換する色空間変換手段と、色空間変換後の入力画像から複数の色成分を抽出する色成分抽出手段と、抽出された複数の色成分について任意の演算を行い前記平滑化手段に入力する演算手段と、を備える。好適な例では、演算手段は、任意の演算として平均を算出する。この態様では、複数の色成分を有する色空間の入力画像から、有効な特徴量の抽出を行うのに適した複数の色成分を選択して特徴量の抽出を行うことができる。   Another aspect of the feature amount extraction apparatus includes a color space conversion unit that converts a color space of the input image, a color component extraction unit that extracts a plurality of color components from the input image after the color space conversion, and an extraction Arithmetic means for performing an arbitrary calculation on the plurality of color components and inputting the result to the smoothing means. In a preferred example, the calculation means calculates an average as an arbitrary calculation. In this aspect, it is possible to extract a feature quantity by selecting a plurality of color components suitable for extracting an effective feature quantity from an input image in a color space having a plurality of color components.

本発明の他の好適な実施形態は、特徴量抽出装置により実行される特徴量抽出方法であって、入力画像を平滑化して平滑化画像群を生成する平滑化工程と、前記平滑化画像群を空間微分して微分画像群を生成する微分工程と、前記微分画像群に基づいて、前記入力画像の特徴量を抽出し出力する特徴量抽出工程と、を有する。   Another preferred embodiment of the present invention is a feature amount extraction method executed by a feature amount extraction apparatus, which smoothes an input image to generate a smoothed image group, and the smoothed image group A differential process for generating a differential image group by spatial differentiation, and a feature quantity extraction process for extracting and outputting a feature quantity of the input image based on the differential image group.

上記の特徴量抽出方法では、外部から入力された入力画像が平滑化され、平滑化画像群が生成される。平滑化画像群は空間微分され、微分画像群が生成される。そして、微分画像群に基づいて、入力画像の特徴量が抽出され、外部へ出力される。空間微分で微分画像を生成することにより、少ない演算量で高精度な特徴量抽出が可能となる。   In the above feature quantity extraction method, an input image input from the outside is smoothed, and a smoothed image group is generated. The smoothed image group is spatially differentiated to generate a differentiated image group. Based on the differential image group, the feature amount of the input image is extracted and output to the outside. By generating a differential image by spatial differentiation, highly accurate feature extraction can be performed with a small amount of computation.

本発明の他の好適な実施形態は、コンピュータにより実行される特徴量抽出プログラムであって、入力画像を平滑化して平滑化画像群を生成する平滑化手段、前記平滑化画像群を空間微分して微分画像群を生成する微分手段、前記微分画像群に基づいて、前記入力画像の特徴量を抽出し出力する特徴量抽出手段、として前記コンピュータを機能させる。   Another preferred embodiment of the present invention is a feature amount extraction program executed by a computer, comprising: smoothing means for smoothing an input image to generate a smoothed image group; and spatially differentiating the smoothed image group. The computer is caused to function as differentiation means for generating a differential image group, and feature quantity extraction means for extracting and outputting the feature quantity of the input image based on the differential image group.

上記の特徴量抽出プログラムをコンピュータ上で実行することにより、外部から入力された入力画像が平滑化され、平滑化画像群が生成される。平滑化画像群は空間微分され、微分画像群が生成される。そして、微分画像群に基づいて、入力画像の特徴量が抽出され、外部へ出力される。空間微分で微分画像を生成することにより、少ない演算量で高精度な特徴量抽出が可能となる。好適な例では、上記のプログラムは記憶媒体に記憶される。   By executing the above feature quantity extraction program on a computer, an input image input from the outside is smoothed, and a smoothed image group is generated. The smoothed image group is spatially differentiated to generate a differentiated image group. Based on the differential image group, the feature amount of the input image is extracted and output to the outside. By generating a differential image by spatial differentiation, highly accurate feature extraction can be performed with a small amount of computation. In a preferred example, the above program is stored in a storage medium.

以下、図面を参照して本発明の好適な実施例について説明する。なお、以下に説明する実施例及び変形例に係る特徴量抽出装置において、各手段は集積回路などによるハードウェアにより実現することができ、また、コンピュータ上で実行されるソフトウェア(プログラム)により実現することもできる。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In the feature quantity extraction apparatus according to the embodiments and modifications described below, each unit can be realized by hardware such as an integrated circuit, and also realized by software (program) executed on a computer. You can also

[第1実施例]
図1は、第1実施例に係る特徴量抽出装置の構成を示す。第1実施例に係る特徴量抽出装置は、画像入力手段11と、平滑化手段12と、空間微分手段13と、キーポイント検出・処理・記述手段14と、特徴量出力手段15と、を備える。
[First embodiment]
FIG. 1 shows the configuration of a feature quantity extraction apparatus according to the first embodiment. The feature quantity extraction apparatus according to the first embodiment includes an image input means 11, a smoothing means 12, a spatial differentiation means 13, a key point detection / processing / description means 14, and a feature quantity output means 15. .

画像入力手段11には、カメラなどの撮像デバイスで撮影された画像やハードディスクなどの記録デバイスに格納された画像が入力される。画像入力手段11は、その入力画像を受け取り、平滑化手段12に出力する。平滑化手段12は、画像入力手段12から入力された画像から複数の平滑化画像を生成し、それら複数の平滑化画像からなる平滑化画像群を空間微分手段13に出力する。   The image input means 11 receives an image taken by an imaging device such as a camera or an image stored in a recording device such as a hard disk. The image input means 11 receives the input image and outputs it to the smoothing means 12. The smoothing unit 12 generates a plurality of smoothed images from the image input from the image input unit 12 and outputs a smoothed image group including the plurality of smoothed images to the spatial differentiating unit 13.

空間微分手段13は、平滑化画像群を受け取り、複数の微分画像からなる微分画像群を生成してキーポイント検出・処理・記述手段14に出力する。キーポイント検出・処理・記述手段14は、例えば多次元ベクトルで表現される特徴量を抽出し、特徴量出力手段15に出力する。特徴量出力手段15は、キーポイント検出・処理・記述手段14から入力された特徴量を、記録デバイスやディスプレイ、又は、ほかの処理を行う処理部へ出力する。   The spatial differentiation means 13 receives the smoothed image group, generates a differential image group composed of a plurality of differential images, and outputs it to the key point detection / processing / description means 14. The key point detection / processing / description unit 14 extracts a feature amount expressed by, for example, a multidimensional vector and outputs the feature amount to the feature amount output unit 15. The feature quantity output unit 15 outputs the feature quantity input from the keypoint detection / processing / description unit 14 to a recording device, a display, or a processing unit that performs other processing.

次に、第1実施例による特徴量抽出処理について詳しく説明する。   Next, the feature amount extraction process according to the first embodiment will be described in detail.

カメラなどの撮像デバイスで撮影された画像やハードディスクなどの記録デバイスに格納された入力画像は、画像入力手段11によって取り込まれ、取り込まれた画像から平滑化手段12によって平滑化度合いの異なる複数の画像である平滑化画像群が生成される。平滑化画像の生成は、例えば式(1)に示すように入力画像とガウス関数との畳み込み演算で行われる。   An image captured by an imaging device such as a camera or an input image stored in a recording device such as a hard disk is captured by the image input unit 11, and a plurality of images having different smoothing levels by the smoothing unit 12 from the captured image. A smoothed image group is generated. The generation of the smoothed image is performed by a convolution operation between the input image and a Gaussian function, for example, as shown in Expression (1).

Figure 2013182416
Figure 2013182416

ここでLは平滑化画像、Gはガウス関数、Iは入力画像、(x,y)と(u,v)は2次元座標、σは平滑化度合いである。平滑化画像群は、1枚の入力画像から式(1)のσの値を変えながら生成された平滑化度合いの異なる複数の画像からなる。 Here, L is a smoothed image, G is a Gaussian function, I is an input image, (x, y) and (u, v) are two-dimensional coordinates, and σ is a smoothing degree. The smoothed image group is composed of a plurality of images with different degrees of smoothing generated while changing the value of σ in Expression (1) from one input image.

次に、空間微分手段13によって、平滑化画像群のそれぞれの画像に対して空間微分が施され、微分画像群が生成される。ここで空間微分手段13はどのようなものでもよいが、例えば式(2)に示すようにラプラシアン演算(空間に関する2次微分)を平滑化画像に施してもよい。   Next, the spatial differentiation means 13 performs spatial differentiation on each image of the smoothed image group to generate a differential image group. Here, any spatial differentiation means 13 may be used, but for example, Laplacian calculation (secondary differentiation with respect to space) may be performed on the smoothed image as shown in Expression (2).

Figure 2013182416
Figure 2013182416

ここで、Dは微分画像、σはガウス関数の平滑化度合い、kは任意の定数、Lは平滑化画像、(x、y)は2次元座標である。微分画像群は、平滑化画像群のそれぞれの画像に対して空間微分を施して得られた画像からなる。 Here, D is a differential image, σ is a smoothing degree of a Gaussian function, k is an arbitrary constant, L is a smoothed image, and (x, y) is a two-dimensional coordinate. The differential image group consists of images obtained by performing spatial differentiation on each image of the smoothed image group.

次に、キーポイント検出・処理・記述手段14によって、微分画像群からキーポイント候補(特徴量抽出の対象となる画像上の位置の候補)が検出される。さらに、適当な手法によって特徴量として不適切なキーポイント候補が削除され、有効なキーポイントに対して例えば多次元ベクトルからなる特徴量が記述されて特徴量出力手段15へ出力される。   Next, the key point detection / processing / description means 14 detects key point candidates (candidates of positions on the image to be subjected to feature extraction) from the differential image group. Further, an inappropriate key point candidate as a feature quantity is deleted by an appropriate method, and a feature quantity composed of, for example, a multidimensional vector is described for the valid key point and output to the feature quantity output means 15.

特徴量出力手段15は、キーポイント検出・処理・記述手段14から出力された特徴量を、例えば記録デバイスへ蓄積するか、ディスプレイへ表示するか、あるいは他の処理へ出力する。   The feature quantity output means 15 stores the feature quantity output from the key point detection / processing / description means 14 in, for example, a recording device, displays it on a display, or outputs it to other processing.

キーポイント検出・処理・記述手段14による処理には、例えば非特許文献1:「コンピュータビジョン最先端ガイド2」(アドコムメディア社、2010年6月19日発行)の10ページから17ページに詳細に説明されている手法を適用することができる。以下、その概要を説明する。   For the processing by the key point detection / processing / description means 14, for example, Non-Patent Document 1: “Computer Vision State-of-the-Art Guide 2” (Adcom Media, published on June 19, 2010), page 10 to page 17, will be described in detail. The described technique can be applied. The outline will be described below.

キーポイント検出・処理・記述手段14は、(a)キーポイント候補検出処理、(b)キーポイントローカライズ処理とオリエンテーション算出処理、(c)特徴量記述処理、という3つのステップからなる。   The key point detection / processing / description means 14 includes three steps: (a) key point candidate detection processing, (b) key point localization processing and orientation calculation processing, and (c) feature amount description processing.

(a)キーポイント候補検出処理
キーポイント候補検出処理は、空間微分手段13により生成された微分画像群からキーポイントの候補を検出する処理である。すなわち平滑化度合いσで式1により平滑化した画像(平滑化画像σとする)に対応する微分画像(微分画像σとする)上の注目画素pに対し、pおよびpに隣接する8個の画素を含む領域(pを中心とした9画素の矩形領域)をとる。さらに微分画像σと隣接する2つの微分画像σi±1のそれぞれについても同様に上記矩形領域に対応する9画素をとり、pの値(微分係数)と合計26個の隣接画素の値を比較し、pの値が最大または最小である場合に注目画素pを平滑化画像σの1つのキーポイント候補とする。この処理を微分画像群の全てに対して行うことで全てのキーポイント候補を決定する。自然画像では通常キーポイント候補は多数検出される。
(A) Key Point Candidate Detection Process The key point candidate detection process is a process for detecting key point candidates from the differential image group generated by the spatial differentiator 13. That is, adjacent to p and p with respect to the pixel of interest p on the differential image (referred to as differential image σ i ) corresponding to the image smoothed by Equation 1 with the smoothing degree σ i (referred to as smoothed image σ i ). An area including 8 pixels (a rectangular area of 9 pixels centered on p) is taken. Further takes two 9 pixels corresponding to the same manner the rectangular region for each of the differential image sigma i ± 1 adjacent to the differential image sigma i, the values of (derivative) and a total of 26 pieces of adjacent pixels p In comparison, when the value of p is maximum or minimum, the target pixel p is set as one key point candidate of the smoothed image σ i . All key point candidates are determined by performing this process on all the differential images. Many natural keypoint candidates are detected in a natural image.

(b)キーポイントローカライズ処理とオリエンテーション算出処理
キーポイントローカライズ処理は、検出されたキーポイント候補から特徴量として適切でないものを削除し有効なキーポイント候補のみを選択する処理である。すなわち、(i)ヘッセ行列を用いたエッジ上のキーポイント候補の削除、(ii)パラボラフィッティングによるキーポイント位置のサブピクセル推定、(iii)低コントラストのキーポイント削除、により有効なキーポイント候補を選択する。
(B) Key Point Localization Process and Orientation Calculation Process The key point localization process is a process for selecting only valid key point candidates by deleting those that are not suitable as feature quantities from the detected key point candidates. That is, (i) deletion of key point candidates on the edge using the Hessian matrix, (ii) sub-pixel estimation of the key point position by parabola fitting, and (iii) deletion of key points with low contrast. select.

オリエンテーション算出処理は、キーポイントローカライズ処理で選択された有効なキーポイント候補に対してそれぞれ特有のオリエンテーション(方向)を算出し、属性として付与することで画像の回転に不変な特徴量の抽出を可能にする処理である。すなわち、平滑化画像上のキーポイントの位置を中心として適当な矩形領域をとり、矩形領域内の全画素について輝度勾配を算出し、輝度勾配に関するヒストグラムを算出し、最頻値をとる勾配方向(36方向に量子化された角度)をそのキーポイントのオリエンテーションとする。   The orientation calculation process calculates the unique orientation (direction) for each valid keypoint candidate selected in the keypoint localization process, and assigns it as an attribute to extract features that are invariant to image rotation It is a process to make. That is, an appropriate rectangular area is taken around the position of the key point on the smoothed image, a luminance gradient is calculated for all the pixels in the rectangular area, a histogram relating to the luminance gradient is calculated, and the gradient direction ( (An angle quantized in 36 directions) is set as the orientation of the key point.

(c)特徴量記述処理
特徴量記述処理は、選択された有効なキーポイントとそのオリエンテーションを用いて特徴量を記述する処理である。すなわち、特徴量を記述する平滑化画像σ上のキーポイントを中心として平滑化度合いσを半径とする円が内接する矩形領域をとり、矩形領域をまずキーポイントのオリエンテーション方向に回転する。さらに矩形領域を4×4ブロックに分割し、ブロック毎にオリエンテーションの算出と同様の方法で輝度勾配を算出し、8方向に量子化された勾配方向ヒストグラムを作成する。特徴量は4×4=16ブロックについて8方向の勾配方向ヒストグラムを作成することで、128次元のベクトルとして記述される。この特徴量は画像に回転や拡大縮小があっても不変のベクトル量であり、また各特徴量のベクトルの長さを正規化することにより、画像の明るさの変化に関しても影響の少ない特徴量となる。
(C) Feature Quantity Description Process The feature quantity description process is a process for describing a feature quantity using a selected effective key point and its orientation. That is, a rectangular area inscribed by a circle having a radius of the smoothing degree σ i around the key point on the smoothed image σ i describing the feature amount is taken, and the rectangular area is first rotated in the orientation direction of the key point. Further, the rectangular area is divided into 4 × 4 blocks, the luminance gradient is calculated for each block in the same manner as the orientation calculation, and a gradient direction histogram quantized in 8 directions is created. The feature amount is described as a 128-dimensional vector by creating a gradient histogram in 8 directions for 4 × 4 = 16 blocks. This feature quantity is an invariant vector quantity even if the image is rotated or scaled. By normalizing the length of each feature quantity vector, the feature quantity has little effect on changes in image brightness. It becomes.

[第2実施例]
図2は、第2実施例に係る特徴量抽出装置の構成を示す。図2に示すように、第2実施例に係る特徴量抽出装置は、第1実施例に係る特徴量抽出装置において、空間微分手段13をラプラシアンフィルタ手段13aとして構成したものである。
[Second Embodiment]
FIG. 2 shows the configuration of the feature quantity extraction apparatus according to the second embodiment. As shown in FIG. 2, the feature amount extraction apparatus according to the second embodiment is the same as the feature amount extraction apparatus according to the first embodiment except that the spatial differentiation means 13 is configured as a Laplacian filter means 13a.

第2実施例では、画像入力手段11から平滑化手段12まで、およびキーポイント検出・処理・記述手段14から特徴量出力手段15までは第1実施例と同様の処理であるため、第2実施例の特徴部分であるラプラシアンフィルタ手段13aの処理についてのみ説明する。   In the second embodiment, since the processing from the image input means 11 to the smoothing means 12 and the processing from the key point detection / processing / description means 14 to the feature amount output means 15 are the same as those in the first embodiment, the second embodiment Only the processing of the Laplacian filter means 13a, which is a characteristic part of the example, will be described.

ラプラシアンフィルタ手段13aは、式(1)に示す平滑化手段12によって生成された平滑化画像を受け取ると、式(3)に示す演算によって微分画像を生成し、キーポイント検出・処理・記述手段14に出力する。   When the Laplacian filter means 13a receives the smoothed image generated by the smoothing means 12 shown in Expression (1), the Laplacian filter means 13a generates a differential image by the operation shown in Expression (3), and detects the key point detection / processing / description means 14. Output to.

Figure 2013182416
Figure 2013182416

ここで、LiおよびDiはそれぞれ平滑化度合いσに対応する平滑化画像および微分画像、(x、y)は2次元座標であり、式(3)により平滑化画像群(Li,i≧1)に対応する微分画像群(Di,i≧1)が生成される。 Here, Li and Di are respectively a smoothed image and a differential image corresponding to the smoothing degree σ i , and (x, y) are two-dimensional coordinates, and a smoothed image group (Li, i ≧ 1) is obtained by Expression (3). ) Is generated corresponding to the differential image group (Di, i ≧ 1).

[第3実施例]
図3は、第3実施例に係る特徴量抽出装置の構成を示す。図3に示すように、第3実施例に係る特徴量抽出装置は、第1実施例又は第2実施例と同様の構成に加えて、キーポイント検出・処理・記述手段14の前段に増幅手段16を備える。
[Third embodiment]
FIG. 3 shows the configuration of the feature quantity extraction apparatus according to the third embodiment. As shown in FIG. 3, the feature quantity extraction apparatus according to the third embodiment has the same configuration as that of the first embodiment or the second embodiment, and an amplification unit in front of the keypoint detection / processing / description unit 14. 16.

第3実施例では、画像入力手段11から微分手段12まで、およびキーポイント検出・処理・記述手段14から特徴量出力手段15までは、第1実施例及び第2実施例と同様の処理であるため、第3実施例の特徴部分である増幅手段16の処理についてのみ説明する。   In the third embodiment, the processing from the image input means 11 to the differentiation means 12 and the key point detection / processing / description means 14 to the feature quantity output means 15 are the same as those in the first and second embodiments. Therefore, only the processing of the amplification means 16 that is a characteristic part of the third embodiment will be described.

増幅手段16は、空間微分手段13によって生成された式(2)に示す微分画像、または、ラプラシアンフィルタ手段13aによって生成された式(3)に示す微分画像を入力とし、微分画像の各画素の値(微分係数)を適当な演算により増幅することによって増幅画像を生成し、キーポイント検出・処理・記述手段14に出力する。増幅手段16は例えば式(4)のようなものでもよい。   The amplifying means 16 receives as input the differential image shown in Expression (2) generated by the spatial differentiating means 13 or the differential image shown in Expression (3) generated by the Laplacian filter means 13a. An amplified image is generated by amplifying the value (differential coefficient) by an appropriate calculation, and is output to the keypoint detection / processing / description means 14. For example, the amplifying means 16 may be as shown in Equation (4).

Figure 2013182416
Figure 2013182416

ここで、D’,D’は増幅画像、αは増幅率(任意の定数)、Dは微分画像、L、Lは平滑化画像、kは任意の定数(k>1)であり、(D’,D,L)および(D’,L)はそれぞれ平滑化度合いσおよびσに対応している。 Here, D ′ and D i ′ are amplified images, α is an amplification factor (arbitrary constant), D is a differential image, L and L i are smoothed images, k is an arbitrary constant (k> 1), (D ′, D, L) and (D i ′, L i ) correspond to the smoothing degrees σ and σ i , respectively.

微分係数を増幅することにより、キーポイント検出処理においてより多くのキーポイント候補を検出することができ、これに伴いより多くの有効なキーポイント候補も得られる。その結果、より多くの特徴量を抽出することが可能になる。   By amplifying the differential coefficient, more key point candidates can be detected in the key point detection process, and more effective key point candidates can be obtained accordingly. As a result, it is possible to extract more feature amounts.

[先行技術との比較]
非特許文献1は、SIFTによる特徴量抽出方法について記載したものであり、図4に示すように、(図示されない)外部から画像を入力して複数の平滑化画像からなる平滑化画像群を出力する平滑化手段22と、平滑化画像群を入力して微分画像群を出力する差分手段23と、微分画像群を入力して特徴量を算出するキーポイント検出・処理・記述手段24とで構成される。
[Comparison with prior art]
Non-Patent Document 1 describes a feature amount extraction method using SIFT. As shown in FIG. 4, an image is input from the outside (not shown) and a smoothed image group including a plurality of smoothed images is output. Smoothing means 22 for inputting, a difference means 23 for inputting a smoothed image group and outputting a differential image group, and a key point detection / processing / description means 24 for inputting a differential image group and calculating a feature quantity. Is done.

ここで、本発明に関連する部分は、平滑化手段によって生成された平滑化画像群から差分手段によって微分画像群を生成し、キーポイント検出・処理・記述手段に出力する部分であり、式(5)に示すように平滑化度合いの異なる平滑化画像の差分により簡単に微分画像を生成している。   Here, the part related to the present invention is a part for generating a differential image group by the difference means from the smoothed image group generated by the smoothing means and outputting it to the key point detection / processing / description means, As shown in 5), the differential image is easily generated based on the difference between the smoothed images having different smoothing degrees.

Figure 2013182416
Figure 2013182416

ここで、Dは微分画像、Lは平滑化画像、Gはガウス関数、(x、y)および(u,v)は2次元座標、σは平滑化度合い、kは定数である。特に式(5)において、[ ]内はDoG(Difference of Gaussian)フィルタと呼ばれる(非特許文献のp.7〜8を参照)。 Here, D is a differential image, L is a smoothed image, G is a Gaussian function, (x, y) and (u, v) are two-dimensional coordinates, σ is a smoothing degree, and k is a constant. In particular, in Formula (5), the inside of [] is called a DoG (Difference of Gaussian) filter (refer p.7-8 of a nonpatent literature).

特許文献1は、複数のオブジェクトを含むオブジェクト画像から、検出対象となるモデルを抽出する画像認識装置およびその方法、並びにそのような画像認識機能を搭載したロボット装置に関する発明である。具体的に、オブジェクト画像およびモデル画像について、それぞれの特徴点を抽出する特徴点抽出部と、抽出された特徴点から特徴量を記述する特徴量保持部と、それぞれの特徴量から類似度の高い(オブジェクト画像とモデル画像で対応する可能性の高い特徴点ペア)を生成する特徴量比較部で構成される(特許文献1の図1およびパラグラフ0026を参照)。   Patent Document 1 is an invention related to an image recognition apparatus and method for extracting a model to be detected from an object image including a plurality of objects, and a robot apparatus equipped with such an image recognition function. Specifically, for an object image and a model image, a feature point extraction unit that extracts each feature point, a feature amount holding unit that describes a feature amount from the extracted feature points, and a high similarity from each feature amount A feature amount comparison unit that generates (a feature point pair that is highly likely to correspond between an object image and a model image) is configured (see FIG. 1 of Patent Document 1 and paragraph 0026).

ここで、本発明に関連する部分は、特徴点抽出部においてガウス関数を用いてオブジェクト画像およびモデル画像の多重解像度ピラミッド(平滑化画像群)を生成し、DoGフィルタまたはLoG(Laplacian of Gaussian)フィルタを用いて微分画像群を生成するところである(段落0029〜0032を参照)。DoGフィルタは式(5)に相当するものであり、LoGフィルタは式(6)が用いられる。   Here, a part related to the present invention is to generate a multi-resolution pyramid (smoothed image group) of an object image and a model image using a Gaussian function in a feature point extraction unit, and perform a DoG filter or a LoG (Laplacian of Gaussian) filter. Is used to generate a differential image group (see paragraphs 0029 to 0032). The DoG filter corresponds to Equation (5), and Equation (6) is used for the LoG filter.

Figure 2013182416
Figure 2013182416

ここで、fはLoGフィルタ、Dは微分画像、Iは入力画像、(x、y)および(u,v)は2次元座標、σは平滑化度合いである。 Here, f is a LoG filter, D is a differential image, I is an input image, (x, y) and (u, v) are two-dimensional coordinates, and σ is a smoothing degree.

非特許文献1は、平滑化手段によって生成された平滑化画像群に対して、式(5)に示す差分手段により微分画像群を生成し、キーポイント検出・処理・記述手段に与る構成である。これに対し、第1〜第3実施例は、差分手段の代わりに式(2)に示す空間微分手段13または式(3)に示すラプラシアンフィルタ手段13aにより微分画像群を生成し、キーポイント検出・処理・記述手段14に与える構成となっている。   Non-Patent Document 1 has a configuration in which a differential image group is generated by the difference means shown in Equation (5) for the smoothed image group generated by the smoothing means, and applied to the key point detection / processing / description means. is there. On the other hand, in the first to third embodiments, a differential image group is generated by the spatial differentiating means 13 shown in the expression (2) or the Laplacian filter means 13a shown in the expression (3) instead of the difference means, and the key point is detected. The configuration is given to the processing / description means 14.

また、特許文献1では、多重解像度ピラミッド(平滑化画像群)に対してDoGフィルタを用いるか、あるいは入力画像に対してLoGフィルタを用いて微分画像群を生成している。DoGフィルタは式(5)に相当するものであり、LoGフィルタは式(6)に相当するものである。これに対し、第1〜第3実施例では、平滑化画像に対して式(2)に示す空間微分手段13または式(3)に示すラプラシアンフィルタ手段13aによって微分画像群を生成し、キーポイント検出・処理・記述手段14に与える構成となっている。   In Patent Document 1, a DoG filter is used for a multi-resolution pyramid (smoothed image group) or a differential image group is generated using a LoG filter for an input image. The DoG filter corresponds to Equation (5), and the LoG filter corresponds to Equation (6). On the other hand, in the first to third embodiments, a differential image group is generated for the smoothed image by the spatial differentiating means 13 shown in the equation (2) or the Laplacian filter means 13a shown in the equation (3), and the key points are generated. The detection / processing / description means 14 is provided.

次に、先行技術の問題点と本発明の実施例で得られる効果を説明するために、DoGフィルタとLoGフィルタの関係について詳細に説明する。   Next, in order to explain the problems of the prior art and the effects obtained by the embodiment of the present invention, the relationship between the DoG filter and the LoG filter will be described in detail.

DoGフィルタやLoGフィルタに用いられるガウス関数(式(1))は、式(7)に示す拡散方程式を満たす。   The Gaussian function (formula (1)) used for the DoG filter or LoG filter satisfies the diffusion equation shown in formula (7).

Figure 2013182416
Figure 2013182416

ここで、Gはガウス関数、σは平滑化度合い、(x,y)は2次元座標である。式(7)の左辺をσについて離散化すると式(8)の近似関係が得られる(kは任意の定数)。 Here, G is a Gaussian function, σ is a smoothing degree, and (x, y) is a two-dimensional coordinate. When the left side of Equation (7) is discretized with respect to σ, the approximate relationship of Equation (8) is obtained (k is an arbitrary constant).

Figure 2013182416
Figure 2013182416

ここで、式(8)の左辺は式(5)に相当するDoGフィルタ、右辺の∇Gは式(6)に相当するLoGフィルタであり、式(8)はDoGフィルタがLoGフィルタの近似になっていることを意味する。式(8)の両辺に対して入力画像Iとの畳み込み演算を行うことにより、式(9)の近似関係が得られる。 Here, the left side of Expression (8) is a DoG filter corresponding to Expression (5), ∇ 2 G on the right side is a LoG filter corresponding to Expression (6), and Expression (8) is an approximation of the DoG filter as a LoG filter. Means that By performing a convolution operation with the input image I on both sides of Equation (8), the approximate relationship of Equation (9) is obtained.

Figure 2013182416
Figure 2013182416

ここで、式(9)の左辺の各項は平滑化画像、左辺および右辺は微分画像に相当する。 Here, each term on the left side of Equation (9) corresponds to a smoothed image, and the left and right sides correspond to a differential image.

非特許文献1の問題点は、微分画像群の生成に、LoGフィルタの近似であるDoGフィルタ(式(9)の左辺または式(5))を用いているため、微分画像の画素値(微分係数)の精度がLoGフィルタによる結果(式(9)の右辺)に比べて劣化することである。すなわち微分画像の極値(極大値または極小値)として検出されるキーポイント候補の精度、さらには抽出される特徴量の精度も劣化するという問題がある。   The problem of Non-Patent Document 1 is that the DoG filter (the left side of Equation (9) or Equation (5)) that is an approximation of the LoG filter is used to generate the differential image group. The accuracy of the coefficient is deteriorated as compared with the result (the right side of the equation (9)) by the LoG filter. That is, there is a problem that the accuracy of the key point candidate detected as the extreme value (maximum value or minimum value) of the differential image, and further, the accuracy of the extracted feature value deteriorates.

これに対して第1〜第3実施例では、LoGフィルタに相当する結果を用いるため、微分画像をより高精度に生成することができ、結果的に特徴量の抽出精度も向上する。   On the other hand, in the first to third embodiments, since the result corresponding to the LoG filter is used, the differential image can be generated with higher accuracy, and the extraction accuracy of the feature amount is improved as a result.

特許文献1の問題点は、平滑化画像からの微分画像の生成にDoGフィルタ(式(9)の左辺または式(5))を用いれば先行技術1と同様の問題が生じ、入力からの微分画像の生成にLoGフィルタ(式9の右辺または式6)を用いれば、平滑化画像の生成とは別に入力画像とLoGフィルタとの畳み込み演算を行う必要があり、演算量が増大するということである。   The problem of Patent Document 1 is that if a DoG filter (the left side of Expression (9) or Expression (5)) is used to generate a differential image from a smoothed image, the same problem as in Prior Art 1 occurs, and the differential from the input If the LoG filter (the right side of Equation 9 or Equation 6) is used for image generation, it is necessary to perform a convolution operation between the input image and the LoG filter separately from the generation of the smoothed image, which increases the amount of calculation. is there.

これに対して第1〜第3実施例では、式(9)の右辺について、   On the other hand, in the first to third embodiments, the right side of Expression (9) is

Figure 2013182416
Figure 2013182416

の関係を見出すことにより、直接的にLoGフィルタとの畳み込み演算を行わずに、平滑化画像どうしの加減算のみで微分画像を生成することができるため、演算量の増加を抑えられるという利点がある。 By finding the relationship, it is possible to generate a differential image only by adding and subtracting between smoothed images without directly performing a convolution operation with the LoG filter, so that an increase in the amount of calculation can be suppressed. .

すなわち、第1〜第3実施例は、非特許文献1よりも高精度で、かつ、特許文献1よりも演算量の少ない特徴量抽出方法を与えるものである。   That is, the first to third embodiments provide a feature amount extraction method that is more accurate than Non-Patent Document 1 and has a smaller amount of calculation than Patent Document 1.

[変形例]
以下、本発明による特徴量抽出装置の変形例について説明する。
[Modification]
Hereinafter, modifications of the feature quantity extraction device according to the present invention will be described.

(第1変形例)
図5は第1変形例の構成を示す。第1変形例では、画像入力手段11と平滑化手段12の間に、画像入力手段11の出力を入力とするグレースケール変換手段17を設け、グレースケール変換手段17の出力を平滑化手段12に与えることを特徴とする。グレースケール変換手段17は、例えば入力画像がRGB色空間(3チャンネルの画像)で表現されている場合には、画素毎に式(11)の演算を施すものでもよい。
(First modification)
FIG. 5 shows a configuration of the first modification. In the first modification, a gray scale conversion unit 17 that receives the output of the image input unit 11 as an input is provided between the image input unit 11 and the smoothing unit 12, and the output of the gray scale conversion unit 17 is supplied to the smoothing unit 12. It is characterized by giving. For example, when the input image is expressed in an RGB color space (3-channel image), the grayscale conversion unit 17 may perform the calculation of Expression (11) for each pixel.

Figure 2013182416
Figure 2013182416

ここで、iはグレースケール画像の画素値、(r、g、b)はそれぞれ入力画像の画素値である。 Here, i is the pixel value of the grayscale image, and (r, g, b) are the pixel values of the input image.

第1変形例では、画像入力手段11と平滑化手段12の間に、グレースケール変換手段17を設けている。グレースケール変換手段17を用いることにより、複数チャンネル(カラー)からなる任意の色空間の入力画像について色成分を考慮した1チャンネルの階調値を持つ画像に変換することができ、複数チャンネルの入力画像を別々に処理する必要がないために処理量の増大を抑えることができる。   In the first modification, a gray scale conversion unit 17 is provided between the image input unit 11 and the smoothing unit 12. By using the gray scale conversion means 17, an input image in an arbitrary color space composed of a plurality of channels (colors) can be converted into an image having a gradation value of one channel in consideration of color components. Since it is not necessary to process images separately, an increase in processing amount can be suppressed.

(第2変形例)
図6は第2変形例の構成を示す。第2変形例では、画像入力手段11と平滑化手段12の間に、画像入力手段11の出力を入力とする色空間変換手段31と、色空間変換手段3の出力を入力とする色成分抽出手段32と、色成分抽出手段32の出力を入力とする色成分混合手段33を設け、色成分混合手段33の出力を平滑化手段12に与えることを特徴とする。
(Second modification)
FIG. 6 shows the configuration of the second modification. In the second modification, between the image input means 11 and the smoothing means 12, a color space conversion means 31 that receives the output of the image input means 11 and a color component extraction that uses the output of the color space conversion means 3 as an input. Means 32 and a color component mixing means 33 that receives the output of the color component extraction means 32 are provided, and the output of the color component mixing means 33 is given to the smoothing means 12.

第2変形例では、画像入力手段11と平滑化手段12の間に、色空間変換手段31、色成分抽出手段32、および色成分混合手段33を設けている。色空間変換手段31により入力画像の色空間から任意の色空間(通常複数チャンネルをもつ)に変換し、色成分抽出手段33によって任意の色成分を抽出できるようにすることで、その後の処理(平滑化手段12からキーポイント検出・処理・記述手段14)において、有効な特徴量抽出を行うのに適した色空間および色成分画像を選択することができ、さらに色成分混合手段33によって第1変形例と同様の効果が得られる。   In the second modification, a color space conversion unit 31, a color component extraction unit 32, and a color component mixing unit 33 are provided between the image input unit 11 and the smoothing unit 12. The color space conversion unit 31 converts the color space of the input image into an arbitrary color space (usually having a plurality of channels), and the color component extraction unit 33 can extract an arbitrary color component. In the key point detection / processing / description means 14) from the smoothing means 12, a color space and color component image suitable for performing effective feature extraction can be selected. The same effect as the modified example can be obtained.

(第3変形例)
図7は第3変形例の構成を示す。第3変形例では、画像入力手段11と平滑化手段12の間に、画像入力手段の出力を入力とするHSV色空間変換手段41と、HSV色空間変換手段41の出力を入力とするV成分抽出手段42を設け、V成分抽出手段42の出力を平滑化手段12に与えることを特徴とする。例えばRGB色空間からHSV色空間への変換は、
http://opencv.jp/opencv-1.1.0/document/opencvref_cv_filters.html#decl_cvCvtColor
に記載の方法を用いてもよい。
(Third Modification)
FIG. 7 shows the configuration of the third modification. In the third modification, between the image input unit 11 and the smoothing unit 12, the HSV color space conversion unit 41 that receives the output of the image input unit and the V component that receives the output of the HSV color space conversion unit 41 are input. An extraction means 42 is provided, and the output of the V component extraction means 42 is given to the smoothing means 12. For example, conversion from RGB color space to HSV color space is
http://opencv.jp/opencv-1.1.0/document/opencvref_cv_filters.html#decl_cvCvtColor
May be used.

第3変形例では、画像入力手段11と平滑化手段12の間に、HSV色空間変換手段41およびV成分抽出手段42を設けている。平滑化画像をV成分(明度)の画像から生成することにより、第1変形例と同様の効果が得られる。   In the third modification, an HSV color space conversion unit 41 and a V component extraction unit 42 are provided between the image input unit 11 and the smoothing unit 12. By generating the smoothed image from the image of the V component (lightness), the same effect as in the first modification can be obtained.

なお、図7の例では、HSVの成分のうちのV成分を用いているが、その代わりにH成分又はS成分を用いてもよい。また、色空間としては、HSV色空間以外の色空間を利用してもよい。   In the example of FIG. 7, the V component of the HSV components is used, but an H component or an S component may be used instead. Further, a color space other than the HSV color space may be used as the color space.

(第4変形例)
図8は第4変形例の構成を示す。第4変形例では、画像入力手段11と平滑化手段12の間に、画像入力手段の出力を入力とするHSV色空間変換手段51と、HSV色空間変換手段51の出力を入力とする(S,V)成分抽出手段52と、(S,V)成分抽出手段52の出力を入力とする(S,V)成分単純平均手段53を設け、(S,V)単純平均手段53の出力を平滑化手段12に与えることを特徴とする。(S,V)成分単純平均手段53は、例えば画素毎に式(12)を施すものでもよい。
(Fourth modification)
FIG. 8 shows the configuration of the fourth modification. In the fourth modified example, between the image input unit 11 and the smoothing unit 12, the output of the HSV color space conversion unit 51 that receives the output of the image input unit and the output of the HSV color space conversion unit 51 are input (S , V) component extraction means 52 and (S, V) component simple average means 53 which receives the output of (S, V) component extraction means 52 as inputs, and smoothes the output of (S, V) simple average means 53. It is characterized by being provided to the conversion means 12. For example, the (S, V) component simple average means 53 may apply the equation (12) for each pixel.

Figure 2013182416
Figure 2013182416

ここで、iは単純平均された画像の画素値、sおよびvはそれぞれHSV空間における画素のs成分およびv成分の画素値である。 Here, i is a pixel value of a simple averaged image, and s and v are pixel values of the s component and v component of the pixel in the HSV space, respectively.

第4変形例では、画像入力手段11と平滑化手段12の間に、HSV色空間変換手段51、(S,V)成分抽出手段52、および(S,V)成分単純平均手段53を設けている。第2変形例における色空間変換手段32を入力画像の色空間からHSV色空間へ変換する処理とし、色成分抽出手段32を(H,S,V)成分から(S,V)成分画像を選択する処理とし、色成分混合手段33を式(12)によりS成分画像とV成分画像の単純平均を行う処理に置き換えることで、第2変形例と同様の効果が得られる。   In the fourth modification, an HSV color space conversion unit 51, an (S, V) component extraction unit 52, and an (S, V) component simple average unit 53 are provided between the image input unit 11 and the smoothing unit 12. Yes. The color space conversion means 32 in the second modification is a process for converting from the color space of the input image to the HSV color space, and the color component extraction means 32 selects the (S, V) component image from the (H, S, V) component. By replacing the color component mixing unit 33 with a process for performing a simple average of the S component image and the V component image using the equation (12), the same effect as in the second modification can be obtained.

(第5変形例)
図9は、第5変形例の構成を示す。第5変形例では、画像入力手段11と平滑化手段12の間に、画像入力手段の出力を入力とするHSV色空間変換手段51と、HSV色空間変換手段51の出力を入力とする(S,V)成分抽出手段52と、(S,V)成分抽出手段52の出力を入力とする(S,V)成分2乗平均手段54を設け、(S,V)成分2乗平均手段54の出力を平滑化手段12に与えることを特徴とする。(S,V)成分2乗平均手段54は、例えば画素毎に式(13)を施すものでもよい。なお、式(13)において、i,s,vは式(12)と同様である。
(5th modification)
FIG. 9 shows the configuration of the fifth modification. In the fifth modification, between the image input means 11 and the smoothing means 12, the output of the HSV color space conversion means 51 that receives the output of the image input means and the output of the HSV color space conversion means 51 are input (S , V) component extraction means 52 and (S, V) component mean square means 54, which receives the output of the (S, V) component extraction means 52 as inputs, are provided. The output is supplied to the smoothing means 12. The (S, V) component mean square means 54 may, for example, apply the equation (13) for each pixel. In equation (13), i, s, and v are the same as in equation (12).

Figure 2013182416
Figure 2013182416

第5変形例では、画像入力手段11と平滑化手段12の間に、HSV色空間変換手段51、(S,V)成分抽出手段52、および(S,V)成分2乗平均手段54を設けている。第4変形例における(S,V)成分単純平均手段53を、式(13)によりS成分とV成分の2乗平均を行う処理とすることで、第4変形例と同様の効果が得られる。   In the fifth modification, an HSV color space conversion unit 51, an (S, V) component extraction unit 52, and an (S, V) component mean square unit 54 are provided between the image input unit 11 and the smoothing unit 12. ing. The (S, V) component simple average means 53 in the fourth modified example is a process for performing the root mean square of the S component and the V component according to the equation (13), thereby obtaining the same effect as in the fourth modified example. .

本発明は、特徴量を用いた画像認識技術、画像監視技術、および画像編集技術とこれらの技術を組み込んだソフトウェアやハードウェア、たとえばコンピュータシステムや車載機器、オーディオビジュアル機器、ゲーム機器、およびディジタルサイネージ機器などに利用可能である。   The present invention relates to an image recognition technique, an image monitoring technique, an image editing technique, and software and hardware incorporating these techniques, such as a computer system, an in-vehicle device, an audio-visual device, a game device, and a digital signage. It can be used for equipment.

11 画像入力手段
12 平滑化手段
13 空間微分手段
13a ラプラシアンフィルタ手段
14 キーポイント検出・処理・記述手段
15 特徴量出力手段
DESCRIPTION OF SYMBOLS 11 Image input means 12 Smoothing means 13 Spatial differentiation means 13a Laplacian filter means 14 Keypoint detection / processing / description means 15 Feature quantity output means

Claims (10)

入力画像を平滑化して平滑化画像群を生成する平滑化手段と、
前記平滑化画像群を空間微分して微分画像群を生成する微分手段と、
前記微分画像群に基づいて、前記入力画像の特徴量を抽出し出力する特徴量抽出手段と、
を備えることを特徴とする特徴量抽出装置。
Smoothing means for smoothing an input image to generate a smoothed image group;
Differential means for spatially differentiating the smoothed image group to generate a differential image group;
Feature quantity extraction means for extracting and outputting the feature quantity of the input image based on the differential image group;
A feature quantity extraction device comprising:
前記微分手段は、ラプラシアンフィルタ手段であることを特徴とする請求項1に記載の特徴量抽出装置。   The feature amount extraction apparatus according to claim 1, wherein the differentiating unit is a Laplacian filter unit. 前記微分手段から出力された微分画像の画素値を増幅して前記特徴量抽出手段に入力する増幅手段を備えることを特徴とする請求項1又は2に記載の特徴量抽出装置。   The feature amount extraction apparatus according to claim 1, further comprising an amplifying unit that amplifies the pixel value of the differential image output from the differentiating unit and inputs the amplified pixel value to the feature amount extracting unit. 前記入力画像をグレースケールに変換し、前記平滑化手段に入力するグレースケール変換手段を備えることを特徴とする請求項1乃至3のいずれか一項に記載の特徴量抽出装置。   4. The feature quantity extraction device according to claim 1, further comprising a gray scale conversion unit that converts the input image into a gray scale and inputs the converted image to the smoothing unit. 5. 前記入力画像の色空間を変換し、色空間変換後の入力画像を前記平滑化手段に入力する色空間変換手段を備えることを特徴とする請求項1乃至3のいずれか一項に記載の特徴量抽出装置。   The color space conversion means for converting the color space of the input image and inputting the input image after the color space conversion to the smoothing means, The characteristic according to any one of claims 1 to 3, Quantity extraction device. 前記入力画像の色空間を変換する色空間変換手段と、
色空間変換後の入力画像から1つの色成分を抽出して前記平滑化手段に入力する色成分抽出手段と、
を備えることを特徴とする請求項1乃至3のいずれか一項に記載の特徴量抽出装置。
Color space conversion means for converting the color space of the input image;
Color component extraction means for extracting one color component from the input image after color space conversion and inputting it to the smoothing means;
The feature quantity extraction device according to any one of claims 1 to 3, further comprising:
前記入力画像の色空間を変換する色空間変換手段と、
色空間変換後の入力画像から複数の色成分を抽出する色成分抽出手段と、
抽出された複数の色成分について任意の演算を行い前記平滑化手段に入力する演算手段と、
を備えることを特徴とする請求項1乃至3のいずれか一項に記載の特徴量抽出装置。
Color space conversion means for converting the color space of the input image;
Color component extraction means for extracting a plurality of color components from the input image after color space conversion;
Arithmetic means for performing an arbitrary calculation on the plurality of extracted color components and inputting to the smoothing means;
The feature quantity extraction device according to any one of claims 1 to 3, further comprising:
特徴量抽出装置により実行される特徴量抽出方法であって、
入力画像を平滑化して平滑化画像群を生成する平滑化工程と、
前記平滑化画像群を空間微分して微分画像群を生成する微分工程と、
前記微分画像群に基づいて、前記入力画像の特徴量を抽出し出力する特徴量抽出工程と、
を有することを特徴とする特徴量抽出方法。
A feature amount extraction method executed by a feature amount extraction apparatus,
A smoothing step of smoothing the input image to generate a smoothed image group;
A differentiation step of spatially differentiating the smoothed image group to generate a differential image group;
A feature amount extraction step of extracting and outputting a feature amount of the input image based on the differential image group;
A feature quantity extraction method characterized by comprising:
コンピュータにより実行される特徴量抽出プログラムであって、
入力画像を平滑化して平滑化画像群を生成する平滑化手段、
前記平滑化画像群を空間微分して微分画像群を生成する微分手段、
前記微分画像群に基づいて、前記入力画像の特徴量を抽出し出力する特徴量抽出手段、として前記コンピュータを機能させることを特徴とする特徴量抽出プログラム。
A feature extraction program executed by a computer,
Smoothing means for smoothing an input image to generate a smoothed image group;
Differentiating means for generating a differential image group by spatially differentiating the smoothed image group,
A feature quantity extraction program for causing the computer to function as feature quantity extraction means for extracting and outputting a feature quantity of the input image based on the differential image group.
請求項9に記載の特徴量抽出プログラムを記憶した記憶媒体。   A storage medium storing the feature quantity extraction program according to claim 9.
JP2012045780A 2012-03-01 2012-03-01 Feature amount extraction device, feature amount extraction method, and feature amount extraction program Pending JP2013182416A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012045780A JP2013182416A (en) 2012-03-01 2012-03-01 Feature amount extraction device, feature amount extraction method, and feature amount extraction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012045780A JP2013182416A (en) 2012-03-01 2012-03-01 Feature amount extraction device, feature amount extraction method, and feature amount extraction program

Publications (1)

Publication Number Publication Date
JP2013182416A true JP2013182416A (en) 2013-09-12

Family

ID=49273020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012045780A Pending JP2013182416A (en) 2012-03-01 2012-03-01 Feature amount extraction device, feature amount extraction method, and feature amount extraction program

Country Status (1)

Country Link
JP (1) JP2013182416A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015225664A (en) * 2014-05-28 2015-12-14 廣達電腦股▲分▼有限公司 Information taking-in device and information taking-in method
JP2017219984A (en) * 2016-06-07 2017-12-14 大日本印刷株式会社 Image retrieval system, image dictionary creation system, image processing system and program
JP2019520662A (en) * 2016-04-14 2019-07-18 アデル ビルジサヤール ヒズメトレリ ヴィイー ティカレット エイ.エス. Content-based search and retrieval of trademark images

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005128619A (en) * 2003-10-21 2005-05-19 Konica Minolta Holdings Inc Object measurement apparatus, object measurement method, and program
JP2010108476A (en) * 2008-10-03 2010-05-13 Sony Corp Learning apparatus and method, recognition apparatus and method, program, and recording medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005128619A (en) * 2003-10-21 2005-05-19 Konica Minolta Holdings Inc Object measurement apparatus, object measurement method, and program
JP2010108476A (en) * 2008-10-03 2010-05-13 Sony Corp Learning apparatus and method, recognition apparatus and method, program, and recording medium

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
JPN6015048937; 市村 直幸: '"密なエッジサンプリングに基づく局所不変特徴量による対応付け"' 電子情報通信学会技術研究報告 Vol.109, No.88, 20090611, pp.71-76, 社団法人電子情報通信学会 *
JPN6015048939; 瓶子 義晴、山中 高夫: '"一般物体認識における色情報の活用手法の検討"' 情報処理学会 シンポジウム 画像の認識・理解シンポジウム(MIRU) 2011 , 20110720, pp.323-330, 情報処理学会 *
JPN6015048942; 市村 直幸: '"正規化LoG関数の近似に基づく局所不変特徴量の抽出"' 情報処理学会研究報告 Vol.2008, No.27, 20080310, pp.449-456, 社団法人情報処理学会 *
JPN6015048945; 市村 直幸: '"近似LoGフィルタを用いた局所不変特徴量の抽出"' 電子情報通信学会技術研究報告 Vol.108, No.328, 20081120, pp.243-250, 社団法人電子情報通信学会 *
JPN6015048948; 藤吉 弘亘: '"Gradientベースの特徴抽出 -SIFTとHOG-"' 情報処理学会研究報告 Vol.2007, No.87, 20070903, pp.211-224, 社団法人情報処理学会 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015225664A (en) * 2014-05-28 2015-12-14 廣達電腦股▲分▼有限公司 Information taking-in device and information taking-in method
JP2019520662A (en) * 2016-04-14 2019-07-18 アデル ビルジサヤール ヒズメトレリ ヴィイー ティカレット エイ.エス. Content-based search and retrieval of trademark images
JP2017219984A (en) * 2016-06-07 2017-12-14 大日本印刷株式会社 Image retrieval system, image dictionary creation system, image processing system and program

Similar Documents

Publication Publication Date Title
US10388018B2 (en) Image processing apparatus, image processing method, and storage medium
US20130315470A1 (en) Body measurement
JP6716996B2 (en) Image processing program, image processing apparatus, and image processing method
CN107945221B (en) Three-dimensional scene feature expression and high-precision matching method based on RGB-D image
US9524445B2 (en) Methods and systems for suppressing non-document-boundary contours in an image
US10692215B2 (en) Image processing apparatus, image processing method, and storage medium
US20140050411A1 (en) Apparatus and method for generating image feature data
US9245194B2 (en) Efficient line detection method
JP6317725B2 (en) System and method for determining clutter in acquired images
EP3300025A1 (en) Image processing device and image processing method
WO2017163384A1 (en) Data processing device, data processing method, and data processing program
KR101478709B1 (en) Method and apparatus for extracting and generating feature point and feature descriptor rgb-d image
CN110598795A (en) Image difference detection method and device, storage medium and terminal
Sidhu Improved canny edge detector in various color spaces
JP5656768B2 (en) Image feature extraction device and program thereof
JP2011150483A (en) Image processing device
JP2014123230A (en) Image processor, image processing method, and program
JP2013182416A (en) Feature amount extraction device, feature amount extraction method, and feature amount extraction program
CN104655041B (en) A kind of industrial part contour line multi-feature extraction method of additional constraint condition
US9098746B2 (en) Building texture extracting apparatus and method thereof
JP2012048326A (en) Image processor and program
JP2016058018A (en) Image processing method, image processing program and image processor
KR101546200B1 (en) Method and Device for Matching Correspondaence Point of Multi Spectral Images
Bhatia et al. Accurate corner detection methods using two step approach
Sintunata et al. Skeleton extraction in cluttered image based on Delaunay triangulation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151208

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160405