JP2013037539A - Image feature amount extraction device and program thereof - Google Patents

Image feature amount extraction device and program thereof Download PDF

Info

Publication number
JP2013037539A
JP2013037539A JP2011173193A JP2011173193A JP2013037539A JP 2013037539 A JP2013037539 A JP 2013037539A JP 2011173193 A JP2011173193 A JP 2011173193A JP 2011173193 A JP2011173193 A JP 2011173193A JP 2013037539 A JP2013037539 A JP 2013037539A
Authority
JP
Japan
Prior art keywords
feature
occurrence
local
feature point
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011173193A
Other languages
Japanese (ja)
Other versions
JP5656768B2 (en
Inventor
Yoshihiko Kawai
吉彦 河合
Masato Fujii
真人 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2011173193A priority Critical patent/JP5656768B2/en
Publication of JP2013037539A publication Critical patent/JP2013037539A/en
Application granted granted Critical
Publication of JP5656768B2 publication Critical patent/JP5656768B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve accuracy of general object recognition by grasping outline of feature in consideration of compatibility between local feature amounts.SOLUTION: An image feature amount extraction device includes: an edge detection part 20 for detecting edge components from frame image data; a feature point detection part 30 for detecting feature points from the frame image data; a local feature vector generation part 40 for generating local feature vectors by connecting a plurality of feature amounts generated by changing the area of a peripheral area with respect to the feature points detected by the feature point detection part 30 on the basis of the edge components detected by the edge detection part 20; and a co-occurrence feature vector generation part 50 for generating co-occurrence feature vectors based on the spatial co-occurrence of the local feature vectors generated by the local feature vector generation part 40 with respect to the feature points.

Description

本発明は、画像特徴量抽出装置およびそのプログラムに関する。   The present invention relates to an image feature amount extraction apparatus and a program thereof.

画像から「自動車」や「花」といった一般的なオブジェクトを検出する一般物体認識技術が知られている(例えば、非特許文献1参照)。この一般物体認識技術は、情報処理装置が、一般名称により表現される物体を画像から認識する技術である。この一般物体認識技術は、視覚語(Visual Words)のクラスタである語彙を生成するための学習手続と、生成された語彙に基づいて特徴ベクトルを算出する算出手続とによって実現される。学習手続では、情報処理装置は、学習用の画像データから局所特徴量を算出し、局所特徴量のクラスタ分析処理を実行し、各クラスタの重心ベクトルを視覚語として選択する。また、算出手続では、情報処理装置は、画像認識の対象である画像データから局所特徴量を算出し、距離が最も近い視覚語に各局所特徴量を割り当てる。次に、情報処理装置は、視覚語の出現頻度ヒストグラムを算出し、この出現頻度ヒストグラムを画像の特徴ベクトルとする。   A general object recognition technique for detecting a general object such as “car” or “flower” from an image is known (see, for example, Non-Patent Document 1). This general object recognition technology is a technology in which an information processing apparatus recognizes an object represented by a general name from an image. This general object recognition technique is realized by a learning procedure for generating a vocabulary that is a cluster of visual words (Visual Words) and a calculation procedure for calculating a feature vector based on the generated vocabulary. In the learning procedure, the information processing apparatus calculates a local feature amount from learning image data, executes a cluster analysis process of the local feature amount, and selects a centroid vector of each cluster as a visual word. In the calculation procedure, the information processing apparatus calculates a local feature amount from image data that is a target of image recognition, and assigns each local feature amount to a visual word having the shortest distance. Next, the information processing apparatus calculates an appearance frequency histogram of visual words, and uses the appearance frequency histogram as a feature vector of the image.

G. Csurka, C. R. Dance, Lixin Fan, J. Willamowski, C. Bray, “Visual Categorization with Bags of Keypoints”, Proc. ECCV Workshop on Statistical Learning in Computer Vision, pp. 59-74, 2004.G. Csurka, C. R. Dance, Lixin Fan, J. Willamowski, C. Bray, “Visual Categorization with Bags of Keypoints”, Proc. ECCV Workshop on Statistical Learning in Computer Vision, pp. 59-74, 2004.

上記の一般物体認識技術は、特徴点間の関係性を一切考慮せず独立に扱うものである。また、この一般物体認識技術では、学習用の画像データから抽出された局所特徴量がクラスタ分析によって量子化されるため、情報の一部分が欠落する。
よって、従来の一般物体認識技術では、局所特徴量間の適合性を考慮していないことにより、一般名称により表現される物体、すなわち、一般的なオブジェクトの概略の特徴を捉えることが困難であった。
本発明は、上記の問題点に鑑みてなされたものであり、局所特徴量間の適合性を考慮し、概略の特徴を捉えて一般物体認識の精度を向上することができる、画像特徴量抽出装置およびそのプログラムを提供することを目的とする。
The general object recognition technique described above is handled independently without considering any relationship between feature points. In this general object recognition technique, a local feature amount extracted from image data for learning is quantized by cluster analysis, so that a part of information is lost.
Therefore, in the conventional general object recognition technology, it is difficult to capture the general feature of the object represented by the general name, that is, the general object, because the compatibility between the local feature quantities is not considered. It was.
The present invention has been made in view of the above-described problems, and considers the compatibility between local feature amounts, and can capture general features to improve the accuracy of general object recognition. An object is to provide an apparatus and a program thereof.

[1]上記の課題を解決するため、本発明の一態様である画像特徴量抽出装置は、フレーム画像データからエッジ成分を検出するエッジ検出部と、前記フレーム画像データから特徴点を検出する特徴点検出部と、前記エッジ検出部が検出した前記エッジ成分に基づき、前記特徴点検出部が検出した前記特徴点に対する周辺領域の面積を変化させて生成した複数の特徴量を連結して局所特徴量を生成する局所特徴量生成部と、前記特徴点に対して、前記局所特徴量生成部が生成した前記局所特徴量の空間的な共起に基づく共起特徴量を生成する共起特徴量生成部と、を備えることを特徴とする。
ここで、エッジ成分は、フレーム画像データにおける画素ごとの、エッジの強度を示すエッジ強度と、エッジの方向を示すエッジ方向とを含むデータである。また、特徴点検出部は、例えば、グリッドサンプリング処理によってフレーム画像上の特徴点の位置を求める。特徴点に対する周辺領域は、例えば、特徴点を中心とした当該特徴点の局所領域である。
このように構成したことにより、本発明の一態様である画像特徴量抽出装置は、フレーム画像データから検出した特徴点の周辺領域、つまり局所領域における局所特徴量の共起に基づいて、画像の内容を特徴付ける特徴量を生成して得ることができる。
したがって、本発明の一態様によれば、局所特徴量間の適合性を考慮し、概略の特徴を捉えて一般物体認識の精度を向上することができる。
[1] In order to solve the above-described problem, an image feature amount extraction device according to an aspect of the present invention includes an edge detection unit that detects an edge component from frame image data, and a feature that detects a feature point from the frame image data. Based on the edge component detected by the point detection unit and the edge detection unit, a local feature is obtained by connecting a plurality of feature amounts generated by changing the area of the surrounding area with respect to the feature point detected by the feature point detection unit A local feature generating unit that generates a quantity, and a co-occurrence feature that generates a co-occurrence feature based on a spatial co-occurrence of the local feature generated by the local feature generating unit with respect to the feature point And a generating unit.
Here, the edge component is data including edge strength indicating edge strength and edge direction indicating edge direction for each pixel in the frame image data. The feature point detection unit obtains the position of the feature point on the frame image by, for example, grid sampling processing. The peripheral region with respect to the feature point is, for example, a local region of the feature point with the feature point as the center.
With this configuration, the image feature amount extraction device according to one aspect of the present invention is based on the co-occurrence of local feature amounts in a peripheral region of feature points detected from frame image data, that is, a local region. It can be obtained by generating a feature amount that characterizes the content.
Therefore, according to an aspect of the present invention, it is possible to improve the accuracy of general object recognition by capturing approximate features in consideration of compatibility between local feature amounts.

[2]上記[1]記載の画像特徴量抽出装置において、前記フレーム画像データを分割して得られる複数のブロックそれぞれについて、前記共起特徴量生成部が生成した、前記ブロックに含まれる特徴点の共起特徴量の平均値である平均共起特徴量を計算し、前記複数のブロックすべてについての前記平均共起特徴量を連結することにより、前記フレーム画像データ全体の特徴量を生成する特徴量生成部をさらに備えたことを特徴とする。
[3]上記[1]または[2]記載の画像特徴量抽出装置において、前記局所特徴量生成部は、前記エッジ検出部が検出した前記エッジ成分に基づき、前記特徴点検出部が検出した前記特徴点に基づく前記所定の周辺領域の面積を変化させて生成した複数のエッジ方向ヒストグラムを連結して局所特徴量を生成することを特徴とする。
[4]上記[1]または[2]記載の画像特徴量抽出装置において、前記局所特徴量生成部は、前記エッジ検出部が検出した前記エッジ成分に基づき、前記特徴点検出部が検出した前記特徴点に基づく前記所定の周辺領域の面積を変化させて生成した複数のローカルバイナリパターンの頻度ヒストグラムを連結して局所特徴量を生成することを特徴とする。
[2] The feature point included in the block generated by the co-occurrence feature amount generation unit for each of a plurality of blocks obtained by dividing the frame image data in the image feature amount extraction device according to [1] above Calculating an average co-occurrence feature amount that is an average value of the co-occurrence feature amounts of the plurality of blocks, and connecting the average co-occurrence feature amounts for all the plurality of blocks to generate a feature amount of the entire frame image data A quantity generation unit is further provided.
[3] In the image feature amount extraction apparatus according to [1] or [2], the local feature amount generation unit is configured to detect the feature point detection unit based on the edge component detected by the edge detection unit. A local feature amount is generated by connecting a plurality of edge direction histograms generated by changing an area of the predetermined peripheral region based on a feature point.
[4] In the image feature amount extraction apparatus according to [1] or [2], the local feature amount generation unit is configured to detect the feature point detection unit based on the edge component detected by the edge detection unit. A local feature amount is generated by concatenating frequency histograms of a plurality of local binary patterns generated by changing the area of the predetermined peripheral region based on a feature point.

[5]上記の課題を解決するため、本発明の一態様であるプログラムは、コンピュータを、フレーム画像データからエッジ成分を検出するエッジ検出部と、前記フレーム画像データから特徴点を検出する特徴点検出部と、前記エッジ検出部が検出した前記エッジ成分に基づき、前記特徴点検出部が検出した前記特徴点に対する周辺領域の面積を変化させて生成した複数の特徴量を連結して局所特徴量を生成する局所特徴量生成部と、前記特徴点に対して、前記局所特徴量生成部が生成した前記局所特徴量の空間的な共起に基づく共起特徴量を生成する共起特徴量生成部と、として機能させる。
[6]上記[5]記載のプログラムにおいて、前記コンピュータを、前記フレーム画像データを分割して得られる複数のブロックそれぞれについて、前記共起特徴量生成部が生成した、前記ブロックに含まれる特徴点の共起特徴量の平均値である平均共起特徴量を計算し、前記複数のブロックすべてについての前記平均共起特徴量を連結することにより、前記フレーム画像データ全体の特徴量を生成する特徴量生成部としてさらに機能させる。
[5] In order to solve the above-described problem, a program according to one aspect of the present invention includes a computer, an edge detection unit that detects an edge component from frame image data, and a feature inspection that detects a feature point from the frame image data. Based on the edge component detected by the output unit and the edge detection unit, a local feature amount is obtained by connecting a plurality of feature amounts generated by changing the area of the surrounding area with respect to the feature point detected by the feature point detection unit. And a co-occurrence feature generation unit that generates a co-occurrence feature amount based on a spatial co-occurrence of the local feature amount generated by the local feature amount generation unit for the feature point Function as part.
[6] In the program according to [5], the computer includes the feature points included in the blocks generated by the co-occurrence feature amount generation unit for each of a plurality of blocks obtained by dividing the frame image data. Calculating an average co-occurrence feature amount that is an average value of the co-occurrence feature amounts of the plurality of blocks, and connecting the average co-occurrence feature amounts for all the plurality of blocks to generate a feature amount of the entire frame image data It further functions as a quantity generator.

本発明によれば、局所特徴量間の適合性を考慮し、概略の特徴を捉えて一般物体認識の精度を向上することができる。   According to the present invention, it is possible to improve the accuracy of general object recognition by capturing general features in consideration of compatibility between local feature amounts.

本発明の一実施形態である画像特徴量抽出装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the image feature-value extraction apparatus which is one Embodiment of this invention. 特徴点検出部が実行するグリッドサンプリング処理において適用される格子を、フレーム画像に対応させて模式的に表した図である。It is the figure which represented typically the grating | lattice applied in the grid sampling process which a feature point detection part performs corresponding to a frame image. 特徴点に対する局所領域に基づき求めたエッジ方向ヒストグラムを模式的に示す図である。It is a figure which shows typically the edge direction histogram calculated | required based on the local area | region with respect to a feature point. 値が異なる3つの分散σそれぞれに対応する3つのエッジ方向ヒストグラムを連結した場合の局所特徴ベクトルを、模式的に示す図である。It is a figure which shows typically the local feature vector at the time of connecting the three edge direction histograms corresponding to each of three dispersion | distribution (sigma) from which a value differs. 一の特徴点とその周辺に存在する他の特徴点との共起関係を説明するための図である。It is a figure for demonstrating the co-occurrence relationship of one feature point and the other feature point which exists in the periphery. 同実施形態における共起特徴ベクトル生成部が実行する共起特徴ベクトルの生成処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the generation process of the co-occurrence feature vector which the co-occurrence feature vector generation part in the embodiment performs. 同実施形態における特徴ベクトル生成部が平均共起特徴ベクトルを生成する場合の、フレーム画像の分割の例を模式的に示した図である。It is the figure which showed typically the example of the division | segmentation of a frame image in case the feature vector generation part in the embodiment produces | generates an average co-occurrence feature vector.

以下、本発明を実施するための形態について、図面を参照して詳細に説明する。
[1 構成]
図1は、本発明の一実施形態である画像特徴量抽出装置の機能構成を示すブロック図である。同図が示すように、画像特徴量抽出装置1は、画像データ取得部10と、エッジ検出部20と、特徴点検出部30と、局所特徴ベクトル生成部(局所特徴量生成部)40と、共起特徴ベクトル生成部(共起特徴量生成部)50と、特徴ベクトル生成部(特徴量生成部)60とを備える。
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.
[1 Configuration]
FIG. 1 is a block diagram showing a functional configuration of an image feature quantity extraction apparatus according to an embodiment of the present invention. As shown in the figure, the image feature quantity extraction device 1 includes an image data acquisition unit 10, an edge detection unit 20, a feature point detection unit 30, a local feature vector generation unit (local feature quantity generation unit) 40, A co-occurrence feature vector generation unit (co-occurrence feature amount generation unit) 50 and a feature vector generation unit (feature amount generation unit) 60 are provided.

画像データ取得部10は、図示しない外部装置から供給される画像データを取り込む。画像データは、静止画像データまたは動画像データである。画像データが静止画像データである場合、画像データ取得部10は、取り込んだ画像データをフレーム画像データとしてエッジ検出部20に供給する。また、画像データが動画像データである場合、画像データ取得部10は、取り込んだ動画像データからキーフレームを検出し、このキーフレームのデータをフレーム画像データとして、順次またはあらかじめ決定された所定フレーム数おきにエッジ検出部20に供給する。
外部装置は、例えば、撮影装置や記録装置である。
The image data acquisition unit 10 takes in image data supplied from an external device (not shown). The image data is still image data or moving image data. When the image data is still image data, the image data acquisition unit 10 supplies the captured image data to the edge detection unit 20 as frame image data. When the image data is moving image data, the image data acquisition unit 10 detects a key frame from the captured moving image data, and uses the data of the key frame as frame image data in order or a predetermined frame determined in advance. It is supplied to the edge detection unit 20 every few numbers.
The external device is, for example, a photographing device or a recording device.

エッジ検出部20は、画像データ取得部10から供給されるフレーム画像データを取り込み、このフレーム画像データからエッジ成分を検出し、このエッジ成分を特徴点検出部30に供給する。エッジ成分は、画素ごとの、エッジの強度を示すエッジ強度と、エッジの方向を示すエッジ方向とを含むデータである。エッジ検出部20によるエッジの検出処理については後述する。   The edge detection unit 20 takes in the frame image data supplied from the image data acquisition unit 10, detects an edge component from the frame image data, and supplies the edge component to the feature point detection unit 30. The edge component is data including edge strength indicating edge strength and edge direction indicating edge direction for each pixel. The edge detection process by the edge detection unit 20 will be described later.

特徴点検出部30は、フレーム画像から画像の特徴点を検出する。具体的には、例えば、特徴点検出部30は、エッジ検出部20から供給されるエッジ成分を取り込み、グリッドサンプリング処理によってフレーム画像上の特徴点の位置を求め、各画素のエッジ成分と各特徴点の位置を示す特徴点位置情報とを局所特徴ベクトル生成部40に供給する。特徴点位置情報は、例えば、各特徴点に対応する画素の座標値である。グリッドサンプリング処理は、フレーム画像に対応させた所定の格子(グリッド)の各格子点に対応する画素を特徴点として検出する処理である。特徴点検出部30による特徴点の検出処理については後述する。   The feature point detection unit 30 detects a feature point of the image from the frame image. Specifically, for example, the feature point detection unit 30 takes in the edge component supplied from the edge detection unit 20, obtains the position of the feature point on the frame image by grid sampling processing, the edge component of each pixel and each feature Feature point position information indicating the position of the point is supplied to the local feature vector generation unit 40. The feature point position information is, for example, the coordinate value of the pixel corresponding to each feature point. The grid sampling process is a process of detecting pixels corresponding to each grid point of a predetermined grid (grid) corresponding to the frame image as feature points. The feature point detection process by the feature point detection unit 30 will be described later.

なお、特徴点検出部30は、グリッドサンプリング処理以外にも、例えばSIFT(Scale−Invariant Feature Transform)処理を実行することによって特徴点を検出してもよい。   Note that the feature point detection unit 30 may detect the feature points by executing, for example, a SIFT (Scale-Invariant Feature Transform) process in addition to the grid sampling process.

局所特徴ベクトル生成部40は、特徴点検出部30から供給される、各画素のエッジ成分と特徴点位置情報とを取り込む。局所特徴ベクトル生成部40は、エッジ成分に基づいて、特徴点ごとの局所特徴ベクトル(局所特徴量)を生成し、これら局所特徴ベクトルを共起特徴ベクトル生成部50に供給する。局所特徴ベクトルは、特徴点に対する周辺領域、具体的には、特徴点を中心とした当該特徴点の局所領域の面積を変化させて生成した複数のエッジ方向ヒストグラムを連結して得られる特徴ベクトルである。特徴点の局所領域は、特徴点を含みその周辺の領域である。エッジ方向ヒストグラムは、横軸に階級ごとのエッジ方向、縦軸に度数をとって、エッジ方向の度数分布を表すものである。局所特徴ベクトル生成部40による局所特徴ベクトルの生成処理については後述する。   The local feature vector generation unit 40 takes in the edge component and feature point position information of each pixel supplied from the feature point detection unit 30. The local feature vector generation unit 40 generates a local feature vector (local feature amount) for each feature point based on the edge component, and supplies these local feature vectors to the co-occurrence feature vector generation unit 50. A local feature vector is a feature vector obtained by concatenating a plurality of edge direction histograms generated by changing the area of a peripheral region with respect to a feature point, specifically, the area of the local region of the feature point around the feature point. is there. The local region of the feature point is a region around the feature point. The edge direction histogram represents the frequency distribution in the edge direction with the horizontal axis representing the edge direction for each class and the vertical axis representing the frequency. The local feature vector generation processing by the local feature vector generation unit 40 will be described later.

共起特徴ベクトル生成部50は、局所特徴ベクトル生成部40から供給される、特徴点ごとの局所特徴ベクトルを取り込む。共起特徴ベクトル生成部50は、特徴点ごとに、当該特徴点に対する局所特徴ベクトルの空間的な共起に基づく共起特徴ベクトル(共起特徴量)を生成し、この共起特徴ベクトルを特徴ベクトル生成部60に供給する。共起特徴ベクトル生成部50による共起特徴ベクトルの生成処理については後述する。   The co-occurrence feature vector generation unit 50 takes in the local feature vector for each feature point supplied from the local feature vector generation unit 40. The co-occurrence feature vector generation unit 50 generates, for each feature point, a co-occurrence feature vector (co-occurrence feature amount) based on the spatial co-occurrence of the local feature vector with respect to the feature point, and features the co-occurrence feature vector. This is supplied to the vector generation unit 60. The co-occurrence feature vector generation processing by the co-occurrence feature vector generation unit 50 will be described later.

特徴ベクトル生成部60は、共起特徴ベクトル生成部50から供給される共起特徴ベクトルを取り込む。特徴ベクトル生成部60は、フレーム画像を分割して得られる複数のブロックそれぞれについて、当該ブロックに含まれる特徴点の共起特徴ベクトルの平均ベクトルである平均共起特徴ベクトル(平均共起特徴量)を計算する。特徴ベクトル生成部60は、上記の複数のブロックすべてについての平均共起特徴ベクトルを連結し、フレーム画像全体の特徴ベクトル(特徴量)として出力する。特徴ベクトル生成部60による特徴ベクトルの生成処理については後述する。   The feature vector generation unit 60 takes in the co-occurrence feature vector supplied from the co-occurrence feature vector generation unit 50. The feature vector generation unit 60, for each of a plurality of blocks obtained by dividing the frame image, an average co-occurrence feature vector (average co-occurrence feature amount) that is an average vector of co-occurrence feature vectors of feature points included in the block. Calculate The feature vector generation unit 60 concatenates the average co-occurrence feature vectors for all the plurality of blocks, and outputs the result as a feature vector (feature amount) of the entire frame image. The feature vector generation processing by the feature vector generation unit 60 will be described later.

[2 処理]
[2−1.エッジの検出処理]
エッジ検出部20は、画像データ取得部10から供給されるフレーム画像データを取り込むと、例えば、ソーベルフィルタ(Sobel Filter)を適用し、下記の(1)式により、フレーム画像データにおける各画素のエッジ成分を計算する。ただし、同式において、フレーム画像データに対応する座標系は、例えば、フレーム画像の左上端の画素の位置を原点とし、水平方向をx軸、垂直方向をy軸とした直交座標系である(以下同様)。また、m(x,y)は注目画素(x,y)におけるエッジ強度、θ(x,y)は注目画素(x,y)におけるエッジ方向を表す。また、Δxは輝度勾配のx軸方向成分、Δyは輝度勾配のy軸方向成分である。
[2 processing]
[2-1. Edge detection process]
When the edge detection unit 20 captures the frame image data supplied from the image data acquisition unit 10, for example, a Sobel filter is applied and each pixel in the frame image data is expressed by the following equation (1). Calculate edge components. However, in the equation, the coordinate system corresponding to the frame image data is, for example, an orthogonal coordinate system in which the position of the upper left pixel of the frame image is the origin, the horizontal direction is the x axis, and the vertical direction is the y axis ( The same applies below). Further, m (x, y) represents the edge intensity at the target pixel (x, y), and θ (x, y) represents the edge direction at the target pixel (x, y). Δx is the x-axis direction component of the luminance gradient, and Δy is the y-axis direction component of the luminance gradient.

Figure 2013037539
Figure 2013037539

なお、エッジ検出部20には、ソーベルフィルタ以外にも、例えば、プレウィットフィルタ(Prewitt Filter)、ラプラシアンフィルタ(Laplacian Filter)等を適用してもよい。   In addition to the Sobel filter, for example, a Prewitt filter, a Laplacian filter, or the like may be applied to the edge detection unit 20.

[2−2.特徴点の検出処理]
図2は、特徴点検出部30が実行するグリッドサンプリング処理において適用される格子を、フレーム画像に対応させて模式的に表した図である。同図において、Pは、フレーム画像2に対応させた格子のうちの一格子点である。格子点それぞれに対応する画素が特徴点である。なお、同図においては、図を見易くするために、各格子点を丸印で表している。また、格子点間距離(グリッドサイズ)として、x軸方向の格子点間距離をGとし、y軸方向の格子点間距離をGとする。GとGとは、略同一(同一を含む)の値である。
[2-2. Feature point detection process]
FIG. 2 is a diagram schematically showing a grid applied in the grid sampling process executed by the feature point detection unit 30 in association with the frame image. In the figure, P is one grid point among the grids corresponding to the frame image 2. A pixel corresponding to each grid point is a feature point. In the figure, each lattice point is indicated by a circle to make the drawing easier to see. Further, as a distance between grid points (grid size), a distance between grid points in the x-axis direction is set as G x, and a distance between grid points in the y-axis direction is set as G y . G x and G y are substantially the same (including the same) values.

特徴点検出部30は、エッジ検出部20から供給される各画素のエッジ成分を取り込むと、同図に示すように、フレーム画像2に対応させた格子の各格子点に対応する画素の位置を特徴点の位置として検出する。
同図のように、一定の画素間隔で特徴点を得ることにより、特徴点検出部30は、画像の特性によらず一定数の特徴点を得ることができる。
When the feature point detection unit 30 takes in the edge component of each pixel supplied from the edge detection unit 20, the feature point detection unit 30 determines the position of the pixel corresponding to each grid point of the grid corresponding to the frame image 2 as shown in FIG. Detect as feature point position.
As shown in the figure, by obtaining feature points at constant pixel intervals, the feature point detection unit 30 can obtain a certain number of feature points regardless of the characteristics of the image.

[2−3.局所特徴ベクトルの生成処理]
局所特徴ベクトル生成部40は、特徴点検出部30から供給される、各画素のエッジ成分と特徴点位置情報とを取り込むと、エッジ成分に基づいて、特徴点ごとに、当該特徴点に対する局所領域からエッジ方向ヒストグラムを生成する。
具体的には、例えば、局所特徴ベクトル生成部40は、特徴点ごとに、分散σのガウス窓を用いた空間的重み付けを適用してエッジ方向ヒストグラムを計算する。エッジ方向θ(x,y)をn方向に量子化する場合、ガウス窓の分散σに対するエッジ方向ヒストグラムhσは、下記の式(2)として表される。
ただし、G(u,v,σ)は、座標(x+u,y+v)におけるエッジ強度m(x+u,y+v)に対する重み係数である。G(u,v,σ)は、座標(x+u,y+v)が座標(x,y)から離れるほど小さな重み係数となるガウス窓である。また、δ(θ(x,y))は、量子化されたθ(x,y)がi番目のビンに属する場合には“1”、それ以外の場合には“0(ゼロ)”とする関数である。
[2-3. Local feature vector generation process]
When the local feature vector generation unit 40 takes in the edge component and feature point position information of each pixel supplied from the feature point detection unit 30, the local feature vector generation unit 40 performs local region for the feature point for each feature point based on the edge component. To generate an edge direction histogram.
Specifically, for example, the local feature vector generation unit 40 calculates an edge direction histogram by applying spatial weighting using a Gaussian window with variance σ for each feature point. When the edge direction θ (x, y) is quantized in the n direction, the edge direction histogram h σ with respect to the variance σ of the Gaussian window is expressed as the following equation (2).
Here, G (u, v, σ) is a weighting factor for the edge strength m (x + u, y + v) at the coordinates (x + u, y + v). G (u, v, σ) is a Gaussian window having a smaller weight coefficient as the coordinate (x + u, y + v) is further away from the coordinate (x, y). Δ i (θ (x, y)) is “1” when the quantized θ (x, y) belongs to the i-th bin, and “0 (zero)” otherwise. Is a function.

Figure 2013037539
Figure 2013037539

図3は、特徴点に対する局所領域に基づき求めたエッジ方向ヒストグラムを模式的に示す図である。同図における上側の図は、一特徴点におけるエッジ方向θ(x,y)をn方向(n=8)に量子化する場合の、分散σのガウス窓を表している。また、同図における下側の図は、局所特徴ベクトル生成部40が、上記分散σのガウス窓を用いた空間的重み付けを適用して計算したエッジ方向ヒストグラムを表している。このエッジ方向ヒストグラムは、横軸にビン数を8とした階級ごとのエッジ方向θ、縦軸に度数をとって、エッジ方向θの度数分布を表している。   FIG. 3 is a diagram schematically illustrating an edge direction histogram obtained based on a local region with respect to a feature point. The upper diagram in the figure represents a Gaussian window of variance σ when the edge direction θ (x, y) at one feature point is quantized in the n direction (n = 8). In addition, the lower diagram in the figure shows an edge direction histogram calculated by the local feature vector generation unit 40 by applying spatial weighting using a Gaussian window with the variance σ. This edge direction histogram represents a frequency distribution in the edge direction θ, with the horizontal axis representing the edge direction θ for each class with 8 bins and the vertical axis representing the frequency.

次に、局所特徴ベクトル生成部40は、下記の式(3)に表すように、それぞれ値が異なる複数の分散σごとに、エッジ方向ヒストグラムhσiを計算し、これら複数のエッジ方向ヒストグラムhσiを連結することにより、特徴点(x,y)に対する局所特徴ベクトルgx,yを取得する。同式において、σはガウス窓の分散の初期値、sは分散σを変化させる割合である。 Next, the local feature vector generation unit 40 calculates an edge direction histogram h σi for each of a plurality of variances σ i each having a different value, as represented by the following expression (3), and the plurality of edge direction histograms h: By connecting σi , the local feature vector g x, y for the feature point (x, y) is obtained. In the equation, σ 0 is an initial value of variance of the Gaussian window, and s is a rate of changing the variance σ i .

Figure 2013037539
Figure 2013037539

図4は、値が異なる3つの分散σそれぞれに対応する3つのエッジ方向ヒストグラムを連結した場合の局所特徴ベクトルを、模式的に示す図である。同図における上側の図は、一特徴点に対する、分散σ,σ,σ(σ<σ<σ)のガウス窓を表している。また、同図における下側の図は、局所特徴ベクトル生成部40が、分散σに対するエッジ方向ヒストグラムhσ1と、分散σに対するエッジ方向ヒストグラムhσ2と、分散σに対するエッジ方向ヒストグラムhσ3とを連結し、局所特徴ベクトルgx,yとしている。 FIG. 4 is a diagram schematically showing local feature vectors when three edge direction histograms corresponding to three variances σ having different values are connected. The upper diagram in the figure represents a Gaussian window with variances σ 1 , σ 2 , and σ 3123 ) for one feature point. Further, the lower diagram in the figure, the local feature vector generating unit 40, an edge direction histogram h .sigma.1 for distributed sigma 1, variance sigma edge direction histogram h .sigma. @ 2 for 2, the edge direction histogram h .sigma.3 the dispersion sigma 3 And the local feature vector g x, y .

[2−4.共起特徴ベクトルの生成処理]
共起特徴ベクトル生成部50は、局所特徴ベクトル生成部40から供給される、特徴点ごとの局所特徴ベクトルを取り込むと、特徴点ごとに、当該特徴点に対する局所特徴ベクトルgx,yの空間的な共起に基づいて共起特徴ベクトルを計算する。特徴点(x,y)と特徴点(x+u,y+v)との共起特徴量Uを下記の式(4)として表す。
[2-4. Co-occurrence feature vector generation process]
When the co-occurrence feature vector generation unit 50 takes in the local feature vector for each feature point supplied from the local feature vector generation unit 40 , the spatial feature vector g x, y for the feature point is spatially extracted for each feature point. A co-occurrence feature vector is calculated based on the co-occurrence. A co-occurrence feature amount U between the feature point (x, y) and the feature point (x + u, y + v) is expressed as the following equation (4).

Figure 2013037539
Figure 2013037539

共起特徴ベクトル生成部50による式(4)の計算によって求められるUx,y,u,vは、行数および列数がgx,yの次元数に等しい正方行列となるが、共起特徴ベクトル生成部50は、この正方行列を一次元ベクトルの形式U’に変換して計算に適用する。 U x, y, u, v obtained by the calculation of equation (4) by the co-occurrence feature vector generation unit 50 is a square matrix in which the number of rows and the number of columns are equal to the number of dimensions of g x, y. The feature vector generation unit 50 converts this square matrix into a one-dimensional vector format U ′ and applies it to the calculation.

図5は、一の特徴点とその周辺に存在する他の特徴点との共起関係を説明するための図である。同図は、座標値が(x,y)である特徴点Aと、この特徴点Aとの共起特徴量を求めるべき他の特徴点(18個の特徴点)との位置関係を示している。同図は、特徴点Aを中心として3格子分の半径を有する略半円に相当する特徴点を示している。このように、特徴点Aを中心とする一方の略半円のみを計算対象とした場合、特徴点Aに対する一方の略半円の点対象となる他方の略半円を、計算対象から外すことができる。
同図に示すように、共起特徴ベクトル生成部50は、特徴点Aに対し、自特徴点(特徴点A)と特徴点Aの周辺に存在する18個の特徴点とのそれぞれについての共起特徴量U’を計算する。次に、共起特徴ベクトル生成部50は、計算の結果得た19個の共起特徴量U’を連結することによって、特徴点Aに対する共起特徴ベクトルを生成する。
FIG. 5 is a diagram for explaining the co-occurrence relationship between one feature point and other feature points existing in the vicinity thereof. The figure shows the positional relationship between a feature point A having a coordinate value of (x, y) and other feature points (18 feature points) for which a co-occurrence feature amount of the feature point A is to be obtained. Yes. The figure shows a feature point corresponding to a substantially semicircle having a radius of 3 lattices with the feature point A as the center. In this way, when only one approximate semicircle centered on the feature point A is the target of calculation, the other approximate semicircle that is the target of one approximate semicircle with respect to the feature point A is excluded from the target of calculation. Can do.
As shown in the figure, the co-occurrence feature vector generation unit 50 performs, for the feature point A, the common feature point (feature point A) and each of the 18 feature points existing around the feature point A. The feature amount U ′ is calculated. Next, the co-occurrence feature vector generation unit 50 generates a co-occurrence feature vector for the feature point A by connecting the 19 co-occurrence feature amounts U ′ obtained as a result of the calculation.

なお、図5において、特徴点Aを中心とする半径は、3格子分に限られるものではない。また、一の特徴点に対して共起関係を求める他の特徴点の分布の形状は、図5の略半円形に限らず、例えば、矩形であってもよい。   In FIG. 5, the radius around the feature point A is not limited to three grids. Further, the shape of the distribution of other feature points for which the co-occurrence relationship is obtained with respect to one feature point is not limited to the substantially semicircular shape in FIG. 5 and may be, for example, a rectangle.

図6は、共起特徴ベクトル生成部50が実行する共起特徴ベクトルの生成処理の手順を示すフローチャートである。
共起特徴ベクトル生成部50は、局所特徴ベクトル生成部40から供給される、特徴点ごとの局所特徴ベクトルを取り込むと、同図のフローチャートの処理を開始する。
まず、ステップS1において、共起特徴ベクトル生成部50は、フレーム画像データにおいて、未処理の特徴点があるか否かを判定する。そして、共起特徴ベクトル生成部50は、未処理の特徴点があると判定した場合(S1:YES)は、一の未処理の特徴点を指定してステップS2の処理に移す。一方、共起特徴ベクトル生成部50は、全ての特徴点についての処理が完了していると判定した場合(S1:NO)は、本フローチャートの処理を終了させる。
FIG. 6 is a flowchart illustrating a procedure of co-occurrence feature vector generation processing executed by the co-occurrence feature vector generation unit 50.
When the co-occurrence feature vector generation unit 50 takes in the local feature vector for each feature point supplied from the local feature vector generation unit 40, the process of the flowchart of FIG.
First, in step S1, the co-occurrence feature vector generation unit 50 determines whether there is an unprocessed feature point in the frame image data. If the co-occurrence feature vector generation unit 50 determines that there is an unprocessed feature point (S1: YES), it designates one unprocessed feature point and proceeds to the process of step S2. On the other hand, if the co-occurrence feature vector generation unit 50 determines that the processing has been completed for all the feature points (S1: NO), the processing of this flowchart is terminated.

ステップS2において、共起特徴ベクトル生成部50は、指定した一の特徴点に対し、参照していない周辺の特徴点があるか否かを判定する。具体的には、共起特徴ベクトル生成部50は、例えば図5における特徴点Aと特徴点Aの周辺に存在する18個の特徴点とのうち、指定した一の特徴点である特徴点Aに対して参照していない特徴点があるか否かを判定する。そして、共起特徴ベクトル生成部50は、参照していない周辺の特徴点があると判定した場合(S2:YES)は、一の未参照の特徴点を指定してステップS3の処理に移し、周辺の特徴点全てについて参照したと判定した場合(S2:NO)はステップS4の処理に移す。   In step S <b> 2, the co-occurrence feature vector generation unit 50 determines whether there is a peripheral feature point that is not referred to for the specified one feature point. Specifically, the co-occurrence feature vector generation unit 50, for example, the feature point A that is one designated feature point among the feature point A in FIG. 5 and 18 feature points existing around the feature point A. It is determined whether or not there are feature points that are not referenced. If the co-occurrence feature vector generation unit 50 determines that there are peripheral feature points that are not referenced (S2: YES), it designates one unreferenced feature point and proceeds to the process of step S3. If it is determined that all the peripheral feature points have been referred to (S2: NO), the process proceeds to step S4.

ステップS3において、共起特徴ベクトル生成部50は、指定した一の特徴点に対し、この特徴点と、指定した一の未処理の特徴点との共起特徴量U’を計算し、その後ステップS2の処理に戻す。
ステップS4において、共起特徴ベクトル生成部50は、計算の結果得たすべての共起特徴量U’を連結することによって、指定した一の特徴点に対する共起特徴ベクトルを生成し、その後ステップS1の処理に戻す。
In step S3, the co-occurrence feature vector generation unit 50 calculates a co-occurrence feature amount U ′ between the feature point and the designated one unprocessed feature point for the designated one feature point, and then the step Return to the process of S2.
In step S4, the co-occurrence feature vector generation unit 50 generates a co-occurrence feature vector for the specified one feature point by concatenating all the co-occurrence feature amounts U ′ obtained as a result of the calculation, and then step S1. Return to processing.

[2−5.特徴ベクトルの生成処理]
図7(a),(b)は、特徴ベクトル生成部60が平均共起特徴ベクトルを生成する場合の、フレーム画像の分割の例を模式的に示した図である。同図(a)は、フレーム画像をx軸方向において3等分し、ブロック7a,7b,7cに分割した例である。また、同図(b)は、フレーム画像をx軸方向およびy軸方向それぞれにおいて2等分し、ブロック7d,7e,7f,7gに分割した例である。
特徴ベクトル生成部60は、共起特徴ベクトル生成部50から供給される共起特徴ベクトルを取り込むと、同図(a)または同図(b)に示すようにフレーム画像を分割して得られる複数のブロックそれぞれについて、当該ブロックに含まれる特徴点の共起特徴ベクトルの平均ベクトルである平均共起特徴ベクトルを計算する。次に、特徴ベクトル生成部60は、計算したすべての平均共起特徴ベクトルを連結し、フレーム画像全体の特徴ベクトルとして出力する。
[2-5. Feature vector generation process]
7A and 7B are diagrams schematically illustrating an example of frame image division when the feature vector generation unit 60 generates an average co-occurrence feature vector. FIG. 6A shows an example in which the frame image is divided into three equal parts in the x-axis direction and divided into blocks 7a, 7b, and 7c. FIG. 5B shows an example in which the frame image is divided into two equal parts in the x-axis direction and the y-axis direction and divided into blocks 7d, 7e, 7f, and 7g.
When the feature vector generation unit 60 takes in the co-occurrence feature vectors supplied from the co-occurrence feature vector generation unit 50, the feature vector generation unit 60 obtains a plurality of frames obtained by dividing the frame image as shown in FIG. For each block, an average co-occurrence feature vector that is an average vector of co-occurrence feature vectors of feature points included in the block is calculated. Next, the feature vector generation unit 60 concatenates all the calculated average co-occurrence feature vectors and outputs them as feature vectors of the entire frame image.

以上、詳述したとおり、本発明の一実施形態である画像特徴量抽出装置1は、外部から供給される画像データを取り込んでフレーム画像データを取得し、このフレーム画像データからエッジ成分を検出し、また特徴点を検出する。そして、画像特徴量抽出装置1は、エッジ成分に基づいて、特徴点に基づく所定の局所領域の面積を変化させて生成した複数の特徴量を連結して局所特徴ベクトルを生成する。ここで、複数の特徴量は、例えば、複数のエッジ方向ヒストグラムである。そして、画像特徴量抽出装置1は、特徴点に対して、複数の局所特徴ベクトルの空間的な共起に基づく共起特徴ベクトルを生成する。そして、画像特徴量抽出装置1は、フレーム画像データを分割して得られる複数のブロックそれぞれについて、ブロックに含まれる特徴点の共起特徴ベクトルの平均ベクトルである平均共起特徴ベクトルを計算し、複数のブロックすべてについての平均共起特徴ベクトルを連結することにより、フレーム画像データ全体の特徴ベクトルを生成する。   As described above in detail, the image feature amount extraction apparatus 1 according to an embodiment of the present invention acquires frame image data by taking in image data supplied from the outside, and detects edge components from the frame image data. Also, feature points are detected. Then, the image feature amount extraction apparatus 1 generates a local feature vector by connecting a plurality of feature amounts generated by changing the area of a predetermined local region based on the feature point based on the edge component. Here, the plurality of feature amounts are, for example, a plurality of edge direction histograms. Then, the image feature quantity extraction device 1 generates a co-occurrence feature vector based on the spatial co-occurrence of a plurality of local feature vectors for the feature points. Then, the image feature quantity extraction device 1 calculates, for each of a plurality of blocks obtained by dividing the frame image data, an average co-occurrence feature vector that is an average vector of co-occurrence feature vectors of feature points included in the block, A feature vector of the entire frame image data is generated by concatenating the average co-occurrence feature vectors for all of the plurality of blocks.

このように構成したことにより、本実施形態である画像特徴量抽出装置1は、フレーム画像データから検出した特徴点の周辺領域、つまり局所領域における局所特徴ベクトルの共起に基づいて、画像の内容を特徴付ける特徴ベクトルを生成して得ることができる。
したがって、本実施形態によれば、局所特徴量間の適合性を考慮し、概略の特徴を捉えて一般物体認識の精度を向上することができる。
With this configuration, the image feature quantity extraction apparatus 1 according to the present embodiment is based on the co-occurrence of local feature vectors in the peripheral area of the feature points detected from the frame image data, that is, the local area. Can be obtained by generating a feature vector characterizing.
Therefore, according to the present embodiment, it is possible to improve the accuracy of general object recognition by capturing approximate features in consideration of compatibility between local feature amounts.

なお、上述した画像特徴量抽出装置1が出力する特徴ベクトルは、例えば、ラベルが付与された学習データとともに、画像データからのオブジェクトの認識に利用されたり、特徴ベクトル間のマッチングによって類似画像の検索に利用されたりすることができる。   Note that the feature vector output by the image feature quantity extraction device 1 described above is used for recognition of an object from image data, for example, together with learning data provided with a label, or search for similar images by matching between feature vectors. Or can be used.

また、第1実施形態では、局所特徴ベクトル生成部40は、特徴点検出部30から供給される、各画素のエッジ成分と特徴点位置情報とを取り込んで、エッジ成分に基づいて、特徴点ごとに、当該特徴点に対する局所領域からエッジ方向ヒストグラムを計算するようにした。
これ以外にも、局所特徴ベクトル生成部40は、エッジ方向ヒストグラムの代わりに、ローカルバイナリパターンの頻度ヒストグラムを計算して用いてもよい。
Further, in the first embodiment, the local feature vector generation unit 40 takes in the edge component and feature point position information of each pixel supplied from the feature point detection unit 30 and, for each feature point, based on the edge component. In addition, the edge direction histogram is calculated from the local region for the feature point.
In addition to this, the local feature vector generation unit 40 may calculate and use a frequency histogram of a local binary pattern instead of the edge direction histogram.

具体的には、局所特徴ベクトル生成部40は、特徴点ごとに、分散σのガウス窓を用いた空間的重み付けを適用してローカルバイナリパターンの頻度ヒストグラムを計算する。エッジ方向θ(x,y)をn方向に量子化する場合、ガウス窓の分散σに対するローカルバイナリパターンの頻度ヒストグラムl(エル)σは、下記の式(5)として表される。
ただし、G(u,v,σ)は、座標(x+u,y+v)におけるエッジ強度m(x+u,y+v)に対する重み係数であり、座標(x+u,y+v)が座標(x,y)から離れるほど小さな重み係数となるガウス窓である。また、LBP(x,y)は、座標値が(x,y)である画素におけるローカルバイナリパターンの値を表す。δ(LBP(x,y))は、ローカルバイナリパターン値がiならば“1”を、それ以外の場合には“0(ゼロ)”とする関数である。
Specifically, the local feature vector generation unit 40 calculates the frequency histogram of the local binary pattern by applying spatial weighting using a Gaussian window with variance σ for each feature point. When the edge direction θ (x, y) is quantized in the n direction, the frequency histogram l (el) σ of the local binary pattern with respect to the variance σ of the Gaussian window is expressed as the following equation (5).
However, G (u, v, σ) is a weighting coefficient for the edge intensity m (x + u, y + v) at the coordinate (x + u, y + v), and is smaller as the coordinate (x + u, y + v) is farther from the coordinate (x, y). It is a Gaussian window that becomes a weighting factor. LBP (x, y) represents the value of the local binary pattern in the pixel whose coordinate value is (x, y). δ i (LBP (x, y)) is a function that sets “1” if the local binary pattern value is i, and “0 (zero)” otherwise.

Figure 2013037539
Figure 2013037539

また、上述した実施形態である画像特徴量抽出装置の一部の機能をコンピュータで実現するようにしてもよい。この場合、その制御機能を実現するためのプログラム(画像特徴量抽出プログラム)をコンピュータ読み取り可能な記録媒体に記録し、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませて、このコンピュータシステムが実行することによって実現してもよい。なお、このコンピュータシステムとは、オペレーティング・システム(Operating System;OS)や周辺装置のハードウェアを含むものである。また、コンピュータ読み取り可能な記録媒体とは、フレキシブルディスク、光磁気ディスク、光ディスク、メモリカード等の可搬型記録媒体、コンピュータシステムに備えられる磁気ハードディスクやソリッドステートドライブ等の記憶装置のことをいう。さらに、コンピュータ読み取り可能な記録媒体とは、インターネット等のコンピュータネットワーク、および電話回線や携帯電話網を介してプログラムを送信する場合の通信回線のように、短時間の間、動的にプログラムを保持するもの、さらには、その場合のサーバ装置やクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持するものを含んでもよい。また上記のプログラムは、前述した機能の一部を実現するためのものであってもよく、さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせにより実現するものであってもよい。   Moreover, you may make it implement | achieve a part of function of the image feature-value extraction apparatus which is embodiment mentioned above with a computer. In this case, a program (image feature amount extraction program) for realizing the control function is recorded on a computer-readable recording medium, the program recorded on the recording medium is read into the computer system, and the computer system It may be realized by executing. This computer system includes an operating system (OS) and hardware of peripheral devices. The computer-readable recording medium is a portable recording medium such as a flexible disk, a magneto-optical disk, an optical disk, or a memory card, and a storage device such as a magnetic hard disk or a solid state drive provided in the computer system. Furthermore, a computer-readable recording medium dynamically holds a program for a short time, such as a computer network such as the Internet, and a communication line when transmitting a program via a telephone line or a cellular phone network. In addition, a server that holds a program for a certain period of time, such as a volatile memory inside a computer system serving as a server device or a client in that case, may be included. Further, the above program may be for realizing a part of the above-described functions, and further, may be realized by combining the above-described functions with a program already recorded in the computer system. Good.

以上、本発明の実施の形態について図面を参照して詳述したが、具体的な構成はその実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計等も含まれる。   As mentioned above, although embodiment of this invention was explained in full detail with reference to drawings, the specific structure is not restricted to that embodiment, The design of the range which does not deviate from the summary of this invention, etc. are included.

1 画像特徴量抽出装置
10 画像データ取得部
20 エッジ検出部
30 特徴点検出部
40 局所特徴ベクトル生成部(局所特徴量生成部)
50 共起特徴ベクトル生成部(共起特徴量生成部)
60 特徴ベクトル生成部(特徴量生成部)
DESCRIPTION OF SYMBOLS 1 Image feature-value extraction apparatus 10 Image data acquisition part 20 Edge detection part 30 Feature point detection part 40 Local feature vector generation part (local feature-value generation part)
50 Co-occurrence feature vector generation unit (co-occurrence feature value generation unit)
60 feature vector generator (feature quantity generator)

Claims (6)

フレーム画像データからエッジ成分を検出するエッジ検出部と、
前記フレーム画像データから特徴点を検出する特徴点検出部と、
前記エッジ検出部が検出した前記エッジ成分に基づき、前記特徴点検出部が検出した前記特徴点に対する周辺領域の面積を変化させて生成した複数の特徴量を連結して局所特徴量を生成する局所特徴量生成部と、
前記特徴点に対して、前記局所特徴量生成部が生成した前記局所特徴量の空間的な共起に基づく共起特徴量を生成する共起特徴量生成部と、
を備えることを特徴とする画像特徴量抽出装置。
An edge detector for detecting edge components from the frame image data;
A feature point detector for detecting a feature point from the frame image data;
Based on the edge component detected by the edge detection unit, a local feature amount is generated by connecting a plurality of feature amounts generated by changing the area of a peripheral region with respect to the feature point detected by the feature point detection unit A feature quantity generator;
A co-occurrence feature amount generating unit that generates a co-occurrence feature amount based on a spatial co-occurrence of the local feature amount generated by the local feature amount generation unit with respect to the feature point;
An image feature quantity extraction apparatus comprising:
前記フレーム画像データを分割して得られる複数のブロックそれぞれについて、前記共起特徴量生成部が生成した、前記ブロックに含まれる特徴点の共起特徴量の平均値である平均共起特徴量を計算し、前記複数のブロックすべてについての前記平均共起特徴量を連結することにより、前記フレーム画像データ全体の特徴量を生成する特徴量生成部
をさらに備えたことを特徴とする請求項1記載の画像特徴量抽出装置。
For each of a plurality of blocks obtained by dividing the frame image data, an average co-occurrence feature amount that is an average value of co-occurrence feature amounts of feature points included in the block, generated by the co-occurrence feature amount generation unit, The feature amount generation unit for generating a feature amount of the entire frame image data by calculating and concatenating the average co-occurrence feature amounts for all of the plurality of blocks. Image feature quantity extraction device.
前記局所特徴量生成部は、前記エッジ検出部が検出した前記エッジ成分に基づき、前記特徴点検出部が検出した前記特徴点に基づく前記所定の周辺領域の面積を変化させて生成した複数のエッジ方向ヒストグラムを連結して局所特徴量を生成する
ことを特徴とする請求項1または2記載の画像特徴量抽出装置。
The local feature generation unit generates a plurality of edges generated by changing an area of the predetermined peripheral region based on the feature point detected by the feature point detection unit based on the edge component detected by the edge detection unit. The image feature quantity extraction apparatus according to claim 1, wherein the local feature quantity is generated by connecting the direction histograms.
前記局所特徴量生成部は、前記エッジ検出部が検出した前記エッジ成分に基づき、前記特徴点検出部が検出した前記特徴点に基づく前記所定の周辺領域の面積を変化させて生成した複数のローカルバイナリパターンの頻度ヒストグラムを連結して局所特徴量を生成する
ことを特徴とする請求項1または2記載の画像特徴量抽出装置。
The local feature amount generation unit is configured to generate a plurality of local regions generated by changing an area of the predetermined peripheral region based on the feature point detected by the feature point detection unit based on the edge component detected by the edge detection unit. The image feature quantity extraction apparatus according to claim 1 or 2, wherein the local feature quantity is generated by connecting frequency histograms of binary patterns.
コンピュータを、
フレーム画像データからエッジ成分を検出するエッジ検出部と、
前記フレーム画像データから特徴点を検出する特徴点検出部と、
前記エッジ検出部が検出した前記エッジ成分に基づき、前記特徴点検出部が検出した前記特徴点に対する周辺領域の面積を変化させて生成した複数の特徴量を連結して局所特徴量を生成する局所特徴量生成部と、
前記特徴点に対して、前記局所特徴量生成部が生成した前記局所特徴量の空間的な共起に基づく共起特徴量を生成する共起特徴量生成部と、
として機能させるためのプログラム。
Computer
An edge detector for detecting edge components from the frame image data;
A feature point detector for detecting a feature point from the frame image data;
Based on the edge component detected by the edge detection unit, a local feature amount is generated by connecting a plurality of feature amounts generated by changing the area of a peripheral region with respect to the feature point detected by the feature point detection unit A feature quantity generator;
A co-occurrence feature amount generating unit that generates a co-occurrence feature amount based on a spatial co-occurrence of the local feature amount generated by the local feature amount generation unit with respect to the feature point;
Program to function as.
前記コンピュータを、
前記フレーム画像データを分割して得られる複数のブロックそれぞれについて、前記共起特徴量生成部が生成した、前記ブロックに含まれる特徴点の共起特徴量の平均値である平均共起特徴量を計算し、前記複数のブロックすべてについての前記平均共起特徴量を連結することにより、前記フレーム画像データ全体の特徴量を生成する特徴量生成部
としてさらに機能させるための請求項5記載のプログラム。
The computer,
For each of a plurality of blocks obtained by dividing the frame image data, an average co-occurrence feature amount that is an average value of co-occurrence feature amounts of feature points included in the block, generated by the co-occurrence feature amount generation unit, The program according to claim 5, wherein the program further functions as a feature amount generation unit that generates a feature amount of the entire frame image data by calculating and connecting the average co-occurrence feature amounts for all the plurality of blocks.
JP2011173193A 2011-08-08 2011-08-08 Image feature extraction device and program thereof Active JP5656768B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011173193A JP5656768B2 (en) 2011-08-08 2011-08-08 Image feature extraction device and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011173193A JP5656768B2 (en) 2011-08-08 2011-08-08 Image feature extraction device and program thereof

Publications (2)

Publication Number Publication Date
JP2013037539A true JP2013037539A (en) 2013-02-21
JP5656768B2 JP5656768B2 (en) 2015-01-21

Family

ID=47887102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011173193A Active JP5656768B2 (en) 2011-08-08 2011-08-08 Image feature extraction device and program thereof

Country Status (1)

Country Link
JP (1) JP5656768B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2470065A1 (en) * 2013-12-18 2014-06-20 Universidad De La Rioja System and procedure to automatically determine the number of flowers of an inflorescence (Machine-translation by Google Translate, not legally binding)
JP2018077862A (en) * 2013-09-16 2018-05-17 アイベリファイ インコーポレイテッド Feature extraction, matching, and template update for biometric authentication
JP2018107651A (en) * 2016-12-27 2018-07-05 セコム株式会社 Imaging apparatus
KR20180112654A (en) * 2017-04-04 2018-10-12 한국전자통신연구원 Method and apparatus for processing feature information of composite image
JP2019095996A (en) * 2017-11-21 2019-06-20 日本電信電話株式会社 Feature quantity deriving device, derivation method, and program
US10402449B2 (en) 2014-03-18 2019-09-03 Rakuten, Inc. Information processing system, information processing method, and information processing program
JP2019212284A (en) * 2018-06-04 2019-12-12 株式会社デンソー Feature amount extraction device, feature amount extraction method and substance recognition device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10004A (en) * 1853-09-06 Improvement in iron car-brakes
US10008A (en) * 1853-09-13 India-rtjbbee
US11005A (en) * 1854-06-06 Berth-knee former
JP2011118832A (en) * 2009-12-07 2011-06-16 Toyota Central R&D Labs Inc Image feature extracting device, image processing apparatus, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10004A (en) * 1853-09-06 Improvement in iron car-brakes
US10008A (en) * 1853-09-13 India-rtjbbee
US11005A (en) * 1854-06-06 Berth-knee former
JP2011118832A (en) * 2009-12-07 2011-06-16 Toyota Central R&D Labs Inc Image feature extracting device, image processing apparatus, and program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018077862A (en) * 2013-09-16 2018-05-17 アイベリファイ インコーポレイテッド Feature extraction, matching, and template update for biometric authentication
US10664700B2 (en) 2013-09-16 2020-05-26 EyeVerify Inc. Feature extraction and matching for biometric authentication
US10726260B2 (en) 2013-09-16 2020-07-28 EyeVerify Inc. Feature extraction and matching for biometric authentication
ES2470065A1 (en) * 2013-12-18 2014-06-20 Universidad De La Rioja System and procedure to automatically determine the number of flowers of an inflorescence (Machine-translation by Google Translate, not legally binding)
US10402449B2 (en) 2014-03-18 2019-09-03 Rakuten, Inc. Information processing system, information processing method, and information processing program
JP2018107651A (en) * 2016-12-27 2018-07-05 セコム株式会社 Imaging apparatus
KR20180112654A (en) * 2017-04-04 2018-10-12 한국전자통신연구원 Method and apparatus for processing feature information of composite image
KR102075708B1 (en) * 2017-04-04 2020-02-11 한국전자통신연구원 Method and apparatus for processing feature information of composite image
JP2019095996A (en) * 2017-11-21 2019-06-20 日本電信電話株式会社 Feature quantity deriving device, derivation method, and program
JP2019212284A (en) * 2018-06-04 2019-12-12 株式会社デンソー Feature amount extraction device, feature amount extraction method and substance recognition device
JP7322418B2 (en) 2018-06-04 2023-08-08 株式会社デンソー Feature quantity extraction device, feature quantity extraction method, and object recognition device

Also Published As

Publication number Publication date
JP5656768B2 (en) 2015-01-21

Similar Documents

Publication Publication Date Title
US20230117712A1 (en) Feature density object classification, systems and methods
US10210415B2 (en) Method and system for recognizing information on a card
JP5656768B2 (en) Image feature extraction device and program thereof
US9053388B2 (en) Image processing apparatus and method, and computer-readable storage medium
US9754192B2 (en) Object detection utilizing geometric information fused with image data
WO2019033569A1 (en) Eyeball movement analysis method, device and storage medium
JP2010176380A (en) Information processing device and method, program, and recording medium
JP2008530700A (en) Fast object detection method using statistical template matching
JPWO2012077287A1 (en) Posture state estimation apparatus and posture state estimation method
CN109816694B (en) Target tracking method and device and electronic equipment
JP5936561B2 (en) Object classification based on appearance and context in images
KR20150126768A (en) Method for composing image and electronic device thereof
WO2017197593A1 (en) Apparatus, method and computer program product for recovering editable slide
KR20120044484A (en) Apparatus and method for tracking object in image processing system
JP2015184054A (en) Identification device, method, and program
Balaji et al. Cardiac view classification using speed up robust features
JP6086491B2 (en) Image processing apparatus and database construction apparatus thereof
US10002291B2 (en) Method and system of identifying fillable fields of an electronic form
JP5865687B2 (en) Image feature extraction device and program thereof
CN110070490A (en) Image split-joint method and device
Ye et al. Reading labels of cylinder objects for blind persons
JP5051671B2 (en) Information processing apparatus, information processing method, and program
KR101741761B1 (en) A classification method of feature points required for multi-frame based building recognition
JP4812743B2 (en) Face recognition device, face recognition method, face recognition program, and recording medium recording the program
JP2011170554A (en) Object recognition device, object recognition method, and object recognition program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141028

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141125

R150 Certificate of patent or registration of utility model

Ref document number: 5656768

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250