JP2008102856A - Pattern identification device and pattern identification method - Google Patents

Pattern identification device and pattern identification method Download PDF

Info

Publication number
JP2008102856A
JP2008102856A JP2006286653A JP2006286653A JP2008102856A JP 2008102856 A JP2008102856 A JP 2008102856A JP 2006286653 A JP2006286653 A JP 2006286653A JP 2006286653 A JP2006286653 A JP 2006286653A JP 2008102856 A JP2008102856 A JP 2008102856A
Authority
JP
Japan
Prior art keywords
vector
identification
feature
dimensional
feature vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006286653A
Other languages
Japanese (ja)
Inventor
Pranata Sugiri
プラナタ スギリ
Heen Chaakeen
へーン チャーケーン
Daisuke Takeuchi
大介 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2006286653A priority Critical patent/JP2008102856A/en
Publication of JP2008102856A publication Critical patent/JP2008102856A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a pattern identification device and a pattern identification method capable of identifying a class of the pattern with high precision in smaller operation load. <P>SOLUTION: A dimension extension part 220 extends the dimension of feature vector of a learning sample by linear combination of a component. An identification vector learning part 230 generates the identification vector of high dimension capable of linearly separating the feature vector from the feature vector of the high dimension. A dimension reduction part 240 describes the identification vector of the low dimension, where the dimension of the identification vector of the high dimension is reduced, on a reference table and sets up an index value associated with the feature vector of the low dimension. An index calculation part 420 calculates the index value based on the feature vector of an input image. A linear identification device 430 searches the reference table for the index value, acquires the corresponding identification vector of the low dimension, executes inner product operation with the feature vector of the input image, and outputs the identification result. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、入力パターンの種類を識別するパターン識別装置およびパターン識別方法に係り、特に、学習サンプルの特徴量に基づいて生成された識別ベクトルを用いるパターン識別装置およびパターン識別方法に関する。   The present invention relates to a pattern identification device and a pattern identification method for identifying the type of an input pattern, and more particularly to a pattern identification device and a pattern identification method using an identification vector generated based on a feature amount of a learning sample.

パターン識別の技術は、画像解析や音声解析など、様々な分野で利用されている。多くのパターン識別では、まず、区分けしようとするパターンの種類(以下「クラス」という)ごとにパターンの学習サンプルを用意し、学習サンプルから特徴量を抽出して、抽出した特徴量に基づいて識別ベクトルを生成する(たとえば非特許文献1参照)。以下、この処理を「学習」という。そして、パターン識別の対象となる入力パターンから特徴量を抽出し、学習段階で生成した識別ベクトルを用いて、入力パターンがいずれのクラスに属するかを判定する。以下、この処理を「識別」という。   Pattern identification technology is used in various fields such as image analysis and voice analysis. In many pattern identifications, first, a pattern learning sample is prepared for each type of pattern to be classified (hereinafter referred to as a “class”), and feature quantities are extracted from the learning samples and identified based on the extracted feature quantities. A vector is generated (see, for example, Non-Patent Document 1). Hereinafter, this process is referred to as “learning”. Then, a feature amount is extracted from the input pattern to be subjected to pattern identification, and it is determined to which class the input pattern belongs using the identification vector generated in the learning stage. Hereinafter, this process is referred to as “identification”.

従来のパターン識別では、学習段階と識別段階とで、同じ次元空間を用いる。高次元空間を用いる場合、高い精度で学習を行うことができるというメリットがある。また、低次元空間を用いる場合、識別段階で行われる内積演算を高速化することができるというメリットがある。
Bernhard Scholkopf, Alexander Smola, and Klaus‐Robert Muller, “Nonlinear component analysis as a kernel eigenvalue problem”, Neural Computation, 1998
In the conventional pattern identification, the same dimensional space is used in the learning stage and the identification stage. When a high-dimensional space is used, there is an advantage that learning can be performed with high accuracy. Further, when a low-dimensional space is used, there is an advantage that the inner product calculation performed at the identification stage can be speeded up.
Bernhard Scholkopf, Alexander Smola, and Klaus-Robert Muller, “Nonlinear component analysis as a kernel eigenvalue problem”, Natural Comp 98

しかしながら、一方では、高次元空間を用いる場合、識別段階で行われる内積演算に時間が掛かり、識別処理速度が低下するという問題がある。また、低次元空間を用いる場合、学習サンプルのパターンの学習が困難となり、高次元空間を用いた場合と同等の識別精度を得るためには識別ベクトルの複雑なセットが必要となり、やはり識別処理速度が低下するという問題がある。   However, on the other hand, when a high-dimensional space is used, there is a problem that the inner product calculation performed in the identification stage takes time, and the identification processing speed decreases. In addition, when using a low-dimensional space, it becomes difficult to learn the pattern of the learning sample, and a complicated set of identification vectors is required to obtain the same classification accuracy as when using a high-dimensional space. There is a problem that decreases.

リアルタイムアプリケーションや、リソースの限られたアプリケーションにおいては、演算負荷の高い処理や、多くのメモリを必要とする処理を実行することは難しい。したがって、できるだけ演算負荷を抑えた状態でより高精度なパターン識別を実現できることが望ましい。   In a real-time application or an application with limited resources, it is difficult to execute a process with a high calculation load or a process that requires a lot of memory. Therefore, it is desirable that more accurate pattern identification can be realized with the calculation load suppressed as much as possible.

本発明は、かかる点に鑑みてなされたものであり、より少ない演算負荷で、高精度にパターンのクラスを識別することができるパターン識別装置およびパターン識別方法を提供する。   The present invention has been made in view of this point, and provides a pattern identification apparatus and a pattern identification method that can identify a class of a pattern with high accuracy with a smaller calculation load.

本発明のパターン識別装置は、入力パターンから特徴ベクトルを抽出する特徴抽出部と、入力パターンの種類を識別するための識別ベクトルと、特徴空間を分割した分割領域と、を対応付けて記述した参照テーブルから、前記特徴抽出部により抽出される特徴ベクトルが属する分割領域に対応する識別ベクトルを取得し、取得した識別ベクトルと前記入力パターンの特徴ベクトルとの内積演算を実行して前記入力パターンの種類を識別する識別部とを具備する構成を採る。   The pattern identification device of the present invention is a reference in which a feature extraction unit that extracts a feature vector from an input pattern, an identification vector for identifying the type of the input pattern, and a divided region obtained by dividing the feature space are associated with each other From the table, an identification vector corresponding to the divided region to which the feature vector extracted by the feature extraction unit belongs is obtained, and an inner product operation between the acquired identification vector and the feature vector of the input pattern is executed, and the type of the input pattern And a discriminating unit for identifying the.

また、本発明のパターン識別装置は、学習サンプルから所定の次元の特徴ベクトルを抽出するサンプル特徴抽出部と、前記学習サンプルの特徴ベクトルの成分を線形結合して次元を拡張した高次元特徴ベクトルを生成する次元拡張部と、高次元特徴ベクトルに基づいてパターンの種類を識別するための高次元識別ベクトルを生成する識別ベクトル学習部と、高次元識別ベクトルの次元を縮退して前記所定の次元の識別ベクトルを生成し、特徴空間を分割した複数の分割領域のうち、基となる特徴ベクトルが属する分割領域と対応付けて前記識別ベクトルを記述した参照テーブルを作成する次元縮退部と、を有する学習部と、入力パターンから前記所定の次元の特徴ベクトルを抽出する特徴抽出部と、前記学習装置が作成した参照テーブルから前記入力パターンの特徴ベクトルが属する分割領域に対応する識別ベクトルを取得し、取得した識別ベクトルと前記入力パターンの特徴ベクトルとの内積演算を実行して前記入力パターンの種類を識別する線形識別部と、を有するパターン識別部とを具備する構成を採る。   Further, the pattern identification device of the present invention includes a sample feature extraction unit that extracts a feature vector of a predetermined dimension from a learning sample, and a high-dimensional feature vector in which the dimension is expanded by linearly combining the feature vector components of the learning sample. A dimension extension unit to generate, an identification vector learning unit for generating a high-dimensional identification vector for identifying a pattern type based on a high-dimensional feature vector, and a dimension of the predetermined dimension by degenerating the dimension of the high-dimensional identification vector A dimension reduction unit that generates an identification vector and creates a reference table describing the identification vector in association with a divided region to which a base feature vector belongs among a plurality of divided regions obtained by dividing the feature space. A feature extraction unit that extracts a feature vector of the predetermined dimension from an input pattern, and a reference table created by the learning device A linear identification unit that acquires an identification vector corresponding to a divided region to which the feature vector of the input pattern belongs, and that performs an inner product operation of the acquired identification vector and the feature vector of the input pattern to identify the type of the input pattern; And a pattern identification unit having

本発明のパターン識別方法は、入力パターンから特徴ベクトルを抽出する特徴抽出ステップと、入力パターンの種類を識別するための識別ベクトルと、特徴空間を分割した分割領域と、を対応付けて記述した参照テーブルから、前記特徴抽出ステップで抽出した特徴ベクトルが属する分割領域に対応する識別ベクトルを取得する識別ベクトル取得ステップと、前記識別ベクトル取得ステップで取得した識別ベクトルと前記特徴抽出ステップで抽出した特徴ベクトルとの内積演算を実行して、前記入力パターンの種類を識別するパターン識別ステップとを有するようにした。   In the pattern identification method of the present invention, a feature extraction step for extracting a feature vector from an input pattern, an identification vector for identifying the type of the input pattern, and a divided region obtained by dividing the feature space are described in association with each other An identification vector acquisition step for acquiring an identification vector corresponding to a divided region to which the feature vector extracted in the feature extraction step belongs, a discrimination vector acquired in the identification vector acquisition step, and a feature vector extracted in the feature extraction step. And a pattern identification step for identifying the type of the input pattern.

また、本発明のパターン識別方法は、学習サンプルから所定の次元の特徴ベクトルを抽出するサンプル特徴抽出ステップと、特徴ベクトルの成分を線形結合して次元を拡張した高次元特徴ベクトルを生成する次元拡張ステップと、高次元特徴ベクトルに基づいてパターンの種類を識別するための高次元識別ベクトルを生成する識別ベクトル学習ステップと、高次元識別ベクトルの次元を縮退して前記所定の次元の識別ベクトルを生成し、特徴空間を分割した複数の分割領域のうち、基となる特徴ベクトルが属する分割領域と対応付けて前記識別ベクトルを記述した参照テーブルを作成する次元縮退ステップと、入力パターンから前記所定の次元の特徴ベクトルを抽出する特徴抽出ステップと、参照テーブルから前記特徴抽出ステップで抽出した特徴ベクトルが属する分割領域に対応する識別ベクトルを取得する識別ベクトル取得ステップと、前記識別ベクトル取得ステップで取得した識別ベクトルと前記特徴抽出ステップで抽出した特徴ベクトルとの内積演算を実行して前記入力パターンの種類を識別するパターン識別ステップとを有するようにした。   In addition, the pattern identification method of the present invention includes a sample feature extraction step for extracting a feature vector of a predetermined dimension from a learning sample, and a dimension extension for generating a high-dimensional feature vector by extending the dimension by linearly combining the components of the feature vector An identification vector learning step for generating a high-dimensional identification vector for identifying a pattern type based on the high-dimensional feature vector, and generating the identification vector of the predetermined dimension by degenerating the dimension of the high-dimensional identification vector A dimension reduction step of creating a reference table describing the identification vector in association with a divided region to which a base feature vector belongs among a plurality of divided regions obtained by dividing the feature space; and the predetermined dimension from an input pattern A feature extraction step for extracting feature vectors of the feature and a feature extraction step from the reference table An identification vector acquisition step for acquiring an identification vector corresponding to a divided region to which the feature vector belongs, an inner product operation of the identification vector acquired in the identification vector acquisition step and the feature vector extracted in the feature extraction step, and the input And a pattern identification step for identifying the type of pattern.

本発明によれば、より少ない演算負荷で、高精度にパターンの種類を識別することができる。すなわち、特徴空間における特徴ベクトルが属する領域ごとに識別ベクトルを使い分けることができるため、たとえば、学習段階で得た高次元の識別ベクトルを、特徴ベクトルが属する領域ごとに識別精度を保った状態で低次元化し、低次元化された識別ベクトルのうち適切なものを用いてパターン識別を実施することが可能となる。   According to the present invention, the type of pattern can be identified with high accuracy with a smaller calculation load. In other words, since the identification vector can be selectively used for each region to which the feature vector belongs in the feature space, for example, a high-dimensional identification vector obtained in the learning stage is reduced in a state where the identification accuracy is maintained for each region to which the feature vector belongs. Pattern identification can be performed using an appropriate one of the dimensionalized and reduced dimension identification vectors.

以下、本発明の一実施の形態について、図面を参照して詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施の形態に係るパターン識別システムの構成を示すブロック図である。   FIG. 1 is a block diagram showing a configuration of a pattern identification system according to an embodiment of the present invention.

図1において、パターン識別システム100は、学習装置200、情報格納装置300、および識別装置400を有する。このパターン識別システム100は、入力画像のパターンを識別することによって入力画像からオブジェクトを検出する装置であり、たとえば、車の後方に人がいないかどうかをカメラ画像から判別する事故防止システムに用いられるものである。以下、オブジェクト検出のためにあらかじめ定められたパターンの種類をクラスという。   In FIG. 1, the pattern identification system 100 includes a learning device 200, an information storage device 300, and an identification device 400. The pattern identification system 100 is an apparatus that detects an object from an input image by identifying the pattern of the input image, and is used, for example, in an accident prevention system that determines from the camera image whether there is a person behind the car. Is. Hereinafter, types of patterns predetermined for object detection are referred to as classes.

学習装置200は、入力画像のクラスを識別するための識別ベクトルの学習を行う。学習装置200は、サンプル特徴抽出部210、次元拡張部220、識別ベクトル学習部230、および次元縮退部240を有する。   The learning device 200 learns an identification vector for identifying a class of an input image. The learning apparatus 200 includes a sample feature extraction unit 210, a dimension extension unit 220, an identification vector learning unit 230, and a dimension reduction unit 240.

サンプル特徴抽出部210は、クラスごとに用意された画像の学習サンプルから特徴を抽出して低次元の特徴ベクトル(以下「低次元特徴ベクトル」という)を生成し、次元拡張部220へ出力する。   The sample feature extraction unit 210 extracts features from the learning sample of the image prepared for each class to generate a low-dimensional feature vector (hereinafter referred to as “low-dimensional feature vector”), and outputs it to the dimension extension unit 220.

次元拡張部220は、低次元特徴ベクトルの次元を拡張させて高次元の特徴ベクトル(以下「高次元特徴ベクトル」)を生成し、識別ベクトル学習部230へ出力する。   The dimension extension unit 220 generates a high-dimensional feature vector (hereinafter, “high-dimensional feature vector”) by extending the dimension of the low-dimensional feature vector, and outputs it to the identification vector learning unit 230.

識別ベクトル学習部230は、高次元特徴ベクトルに基づいて高次元の識別ベクトル(以下「高次元識別ベクトル」という)を生成し、次元縮退部240へ出力する。   The identification vector learning unit 230 generates a high-dimensional identification vector (hereinafter referred to as “high-dimensional identification vector”) based on the high-dimensional feature vector, and outputs it to the dimension reduction unit 240.

次元縮退部240は、高次元識別ベクトルの次元を縮退させて低次元の識別ベクトル(以下「低次元識別ベクトル」)を複数生成し、生成した低次元識別ベクトルを記述した参照テーブルを生成する。そして、次元縮退部240は、生成した参照テーブルを、情報格納装置300に格納する。   The dimension reduction unit 240 generates a plurality of low-dimensional identification vectors (hereinafter referred to as “low-dimensional identification vectors”) by reducing the dimension of the high-dimensional identification vector, and generates a reference table describing the generated low-dimensional identification vector. Then, the dimension reduction unit 240 stores the generated reference table in the information storage device 300.

情報格納装置300は、フラッシュメモリなどの情報記録媒体を備えており、学習装置200によって格納された参照テーブルを保持する。   The information storage device 300 includes an information recording medium such as a flash memory, and holds a reference table stored by the learning device 200.

識別装置400は、学習装置200による学習結果である参照テーブルを用いて、入力画像のクラスを識別する。識別装置400は、画像特徴抽出部410、インデックス算出部420、および線形識別器430を有する。   The identification device 400 identifies a class of the input image using a reference table that is a learning result by the learning device 200. The identification device 400 includes an image feature extraction unit 410, an index calculation unit 420, and a linear classifier 430.

画像特徴抽出部410は、入力画像の特徴を抽出して低次元特徴ベクトルを生成し、インデックス算出部420および線形識別器430のそれぞれへ出力する。   The image feature extraction unit 410 extracts features of the input image to generate a low-dimensional feature vector, and outputs the low-dimensional feature vector to each of the index calculation unit 420 and the linear classifier 430.

インデックス算出部420は、低次元特徴ベクトルに基づいて、情報格納装置300に格納されている参照テーブルを検索するための数値である参照テーブルインデックス(以下単に「インデックス値」という)を算出し、算出したインデックス値を線形識別器430へ出力する。   The index calculation unit 420 calculates a reference table index (hereinafter simply referred to as “index value”), which is a numerical value for searching the reference table stored in the information storage device 300, based on the low-dimensional feature vector. The index value is output to the linear discriminator 430.

線形識別器430は、インデックス値を用いて参照テーブルから適切な低次元識別ベクトルを検索し、検索した低次元識別ベクトルを用いて低次元特徴ベクトルのクラスを識別して、入力画像の識別結果として出力する。   The linear classifier 430 searches for an appropriate low-dimensional identification vector from the reference table using the index value, identifies a class of the low-dimensional feature vector using the searched low-dimensional identification vector, and uses it as an identification result of the input image. Output.

図1に示す学習装置200および識別装置400は、図示しないが、それぞれCPU(central processing unit)、制御プログラムを格納したROM(read only memory)などの記憶媒体、RAM(random access memory)などの作業用メモリを有する。すなわち、それぞれのCPUが制御プログラムを実行することで、上記した各部の機能は実現される。   The learning device 200 and the identification device 400 shown in FIG. 1 are not shown, but work such as a CPU (central processing unit), a storage medium such as a ROM (read only memory) storing a control program, and a RAM (random access memory). A memory. That is, the functions of the respective units described above are realized by the CPUs executing the control program.

たとえば、上記した車の事故防止システムに本実施の形態のパターン識別システム100を適用する場合、学習結果は同タイプの車に共通で使用することができる。このため、学習装置200は車の生産者側に配置され、参照テーブルを格納済みの情報格納装置300および識別装置400は個々の車本体に配置される。   For example, when the pattern identification system 100 of the present embodiment is applied to the above-described vehicle accident prevention system, the learning result can be commonly used for the same type of vehicle. For this reason, the learning device 200 is arranged on the car producer side, and the information storage device 300 and the identification device 400 in which the reference table has been stored are arranged in each car body.

まず、学習装置200の各部の動作について、詳細に説明を行う。   First, the operation of each unit of the learning apparatus 200 will be described in detail.

学習段階において、学習サンプルが、学習装置200のサンプル特徴抽出部210へ入力される。学習サンプルは、複数のピクセルにより構成されるディジタル画像データであり、クラスごとに用意される。たとえば、上記した監視カメラの例では、人物が映っている画像の画像サンプル群と、人物が映っていない画像サンプル群とが用意され、それぞれを別のクラスに属する画像としてサンプル特徴抽出部210へ入力される。   In the learning stage, the learning sample is input to the sample feature extraction unit 210 of the learning device 200. The learning sample is digital image data composed of a plurality of pixels, and is prepared for each class. For example, in the example of the monitoring camera described above, an image sample group of an image showing a person and an image sample group not showing a person are prepared, and the images belong to different classes to the sample feature extraction unit 210. Entered.

ここでは、画像に存在するエッジを検出し、画像全体におけるエッジ方向の分布情報を用いて、画像に人物が映っているか否かを判別する場合を例として説明を行う。したがって、サンプル特徴抽出部210は、エッジ方向の分布情報に対応する特徴量を、学習サンプルから抽出する。   Here, an example will be described in which an edge existing in an image is detected and it is determined whether or not a person is reflected in the image using edge direction distribution information in the entire image. Therefore, the sample feature extraction unit 210 extracts a feature amount corresponding to the distribution information in the edge direction from the learning sample.

ここでは、水平方向または垂直方向においてピクセル値の変化の度合い(勾配)が大きい部分を、画像のエッジ部分として扱う。サンプル特徴抽出部210は、学習サンプルの各ピクセル位置に対して、水平方向におけるピクセル値の差(以下単に「水平勾配」という)、および垂直方向におけるピクセル値の差(以下単に「垂直勾配」という)を求める。水平勾配Dおよび垂直勾配Dは、ピクセル位置(x,y)におけるピクセル値をPx,yとすると、たとえば、それぞれ以下の式(1)、(2)に従って算出することができる。
= Px+1,y − Px−1,y ・・・・・・(1)
= Px,y+1− Px,y−1 ・・・・・・(2)
Here, a portion where the degree of change (gradient) in the pixel value in the horizontal direction or the vertical direction is large is treated as an edge portion of the image. The sample feature extraction unit 210 has a pixel value difference in the horizontal direction (hereinafter simply referred to as “horizontal gradient”) and a pixel value difference in the vertical direction (hereinafter simply referred to as “vertical gradient”) for each pixel position of the learning sample. ) The horizontal gradient D x and the vertical gradient D y can be calculated according to the following formulas (1) and (2), respectively , assuming that the pixel value at the pixel position (x, y) is P x, y .
Dx = Px + 1, y - Px -1, y (1)
D y = P x, y + 1 −P x, y−1 (2)

これら水平勾配Dおよび垂直勾配Dは、正と負のいずれであるかによって、ピクセル値の変化の向きをも示す値となる。サンプル特徴抽出部210は、エッジの方向を示す情報を保持した状態で、ピクセル値の変化の向きを示す情報を除去するために、水平勾配Dおよび垂直勾配Dを、以下に示すアルゴリズム(3)を用いて、Gx+‐Gx−‐Gy空間へ写像する。
if (Dy = 0)
Gx = abs(Dx);
else if (Dy < 0)
Gx = −Dx;
else
Gx = Dx;
Gy = abs(Dy);
if (Gx > 0)
Gx+ = Gx;
Gx− = 0;
else
Gx+ = 0;
Gx− = −Gx; ……(3)
These horizontal gradient Dx and vertical gradient Dy are values indicating the direction of change in pixel value depending on whether the gradient is positive or negative. In order to remove the information indicating the change direction of the pixel value while holding the information indicating the direction of the edge, the sample feature extraction unit 210 uses the following algorithm (shown below) for the horizontal gradient D x and the vertical gradient D y. 3) to map to Gx + -Gx--Gy space.
if (Dy = 0)
Gx = abs (Dx);
else if (Dy <0)
Gx = −Dx;
else
Gx = Dx;
Gy = abs (Dy);
if (Gx> 0)
Gx + = Gx;
Gx− = 0;
else
Gx + = 0;
Gx − = − Gx; (3)

図2は、サンプル特徴抽出部210による特徴量の写像の様子を示す説明図である。サンプル特徴抽出部210は、D‐D空間211に特徴量として一連の点を得たとき、まずG‐G空間212へ変換し、最終的にG ‐G ‐G空間213へと変換する。 FIG. 2 is an explanatory diagram showing how the feature amount is mapped by the sample feature extraction unit 210. When the sample feature extraction unit 210 obtains a series of points as a feature amount in the D x -D y space 211, the sample feature extraction unit 210 first converts the point into the G y -G x space 212, and finally G x + -G x -- G. Convert to y space 213.

サンプル特徴抽出部210は、D‐D空間211におけるβ(β<180)度の勾配と、(180−β)度の勾配とを区別するため、Gを、G とG -とに分けるようにしている。たとえば、D‐D空間211における45度の勾配と135度の勾配は、G ‐G ‐G空間213では、区別して扱われる。これにより、画像のエッジの方向を右上がりと左上がりとで区別することができる。 The sample feature extraction unit 210 distinguishes a gradient of β (β <180) degrees and a gradient of (180−β) degrees in the D x -D y space 211 from G x , G x +, and G x. - so that divided into a. For example, a gradient of 45 degrees and a gradient of 135 degrees in the D x -D y space 211 are treated separately in the G x + -G x -- G y space 213. Thereby, the direction of the edge of the image can be distinguished from rising to the right and rising to the left.

一方、サンプル特徴抽出部210は、G の値をとるかG -の値をとるかによって、エッジの方向が右上がりか左上がりかを区別できるため、GについてはGのように分けない。すなわち、サンプル特徴抽出部210は、β度の勾配と(180+β)度の勾配とを区別しない。たとえば、G ‐G ‐G空間213では、D‐D空間211における45度の勾配と225度の勾配は同様に扱われる。 On the other hand, the sample feature extraction unit 210, G x take the value of G x + - depending takes a value of, for the edge direction can distinguish whether the upper right or left-side up, as G x for G y Not divided. That is, the sample feature extraction unit 210 does not distinguish between a gradient of β degrees and a gradient of (180 + β) degrees. For example, in the G x + -G x -- G y space 213, the 45 degree gradient and the 225 degree gradient in the D x -D y space 211 are treated in the same way.

このように、サンプル特徴抽出部210は、学習サンプルのそれぞれのピクセル位置に対して、G ‐G ‐G空間213での座標を、調整勾配G 、G -、およびGとして算出する。調整勾配G 、G -、およびGは、学習サンプルの各ピクセル位置におけるエッジの有無およびエッジの方向に対応した値となる。 Thus, the sample feature extraction unit 210, for each pixel location of the learning samples, G x + -G x - coordinate in -G y space 213, adjusts the gradient G x +, G x -, and It is calculated as the G y. The adjustment gradients G x + , G x , and G y are values corresponding to the presence / absence of an edge and the direction of the edge at each pixel position of the learning sample.

サンプル特徴抽出部210は、算出した調整勾配G 、G -、およびGから、3つの学習サンプルの特徴量x、x、xを決定する。ここでは、サンプル特徴抽出部210は、たとえば、学習サンプルの画像全体についてのエッジ方向の分布情報を特徴量として抽出する関数Fを用いて、以下の式(4)〜(6)に従って学習サンプルの特徴量x、x、xを算出する。
= F(G ) ……(4)
= F(G ) ……(5)
= F(G) ……(6)
The sample feature extraction unit 210 determines the feature amounts x 0 , x 1 , and x 2 of the three learning samples from the calculated adjustment gradients G x + , G x , and G y . Here, the sample feature extraction unit 210 uses, for example, a function F that extracts, as a feature amount, distribution information in the edge direction for the entire learning sample image, according to the following equations (4) to (6). The feature quantities x 0 , x 1 , x 2 are calculated.
x 0 = F (G x + ) ...... (4)
x 1 = F (G x ) (5)
x 2 = F (G y ) (6)

さらに、サンプル特徴抽出部210は、特徴量x〜xを用いて、以下の式(7)に従って低次元特徴ベクトルxを生成する。
x=[x ……(7)
Furthermore, the sample feature extraction unit 210 generates a low-dimensional feature vector x according to the following equation (7) using the feature amounts x 0 to x 2 .
x = [x 0 x 1 x 2 ] T (7)

各ピクセル位置のG ‐G ‐G空間213における勾配は、そのピクセル位置におけるエッジの方向に対応し、その値はエッジの強さに対応している。したがって、低次元特徴ベクトルxは、学習サンプルの画像全体におけるエッジ方向の分布情報を示す特徴ベクトルとなる。 The gradient in the G x + -G x -- G y space 213 at each pixel position corresponds to the edge direction at that pixel position, and its value corresponds to the edge strength. Therefore, the low-dimensional feature vector x is a feature vector indicating distribution information in the edge direction in the entire learning sample image.

サンプル特徴抽出部210は、生成した低次元特徴ベクトルxを、図1に示す次元拡張部220へ出力する。   The sample feature extraction unit 210 outputs the generated low-dimensional feature vector x to the dimension extension unit 220 shown in FIG.

次元拡張部220は、低次元特徴ベクトルxの成分である特徴量x〜xを線形結合することにより、低次元特徴ベクトルxよりも次元を拡張した高次元特徴ベクトルを、拡張部分が対象対かつスパースベクトルとなるように生成する。具体的には、次元拡張部220は、以下の式(8)を用いて、拡張された特徴量(以下「拡張特徴量」という)を生成する。
= x
= x
= x
= f(z−z)
= f(−z+z)
= f(z−z)
= f(−z+z)
= f(2z−z)
= f(-2z+z)
= f(2z−z)
10 = f(−2z+z)
11 = f(z−2z)
12 = f(−z+2z)
13 = f(z−2z)
14 = f(−z+2z) ……(8)
The dimension extension unit 220 targets a high-dimensional feature vector whose dimension is extended from the low-dimensional feature vector x by linearly combining the feature quantities x 0 to x 2 that are components of the low-dimensional feature vector x. Generate a pair and sparse vector. Specifically, the dimension extension unit 220 generates an extended feature amount (hereinafter referred to as “extended feature amount”) using the following equation (8).
z 0 = x 0
z 1 = x 1
z 2 = x 2
z 3 = f (z 0 -z 2)
z 4 = f (−z 0 + z 2 )
z 5 = f (z 1 -z 2)
z 6 = f (−z 1 + z 2 )
z 7 = f (2z 0 -z 2)
z 8 = f (-2z 0 + z 2)
z 9 = f (2z 1 -z 2)
z 10 = f (-2z 1 + z 2)
z 11 = f (z 0 -2z 2)
z 12 = f (-z 0 + 2z 2)
z 13 = f (z 1 -2z 2)
z 14 = f (-z 1 + 2z 2) ...... (8)

ただし、関数f(α)は、数学的に、以下の式(9)で表されるものとする。
f(α) = α (α>0)
f(α) = 0 (α≦0) ……(9)
However, the function f (α) is mathematically expressed by the following formula (9).
f (α) = α (α> 0)
f (α) = 0 (α ≦ 0) (9)

そして、次元拡張部220は、生成した拡張特徴量z〜z14を用いて、以下の式(10)に従って高次元特徴ベクトルzを生成する。
z = [z … z121314 ……(10)
Then, the dimension extension unit 220 generates a high-dimensional feature vector z according to the following equation (10) using the generated extended feature quantities z 0 to z 14 .
z = [z 0 z 1 z 2 ... z 12 z 13 z 14 ] T (10)

このようにして生成される15次元の高次元特徴ベクトルzは、関数f(α)により、その成分の約半分が値「0」であるスパースベクトルとなる。また、高次元特徴ベクトルzの各成分は、いずれも負の値ではなく、ほとんどが、一方が値「0」のときに他方が「0」以上となる対象対となる。たとえば、z>zの場合には、z = z−z>0、z = 0であり、逆にz≦zの場合には、z = 0、z = z−z>0である。 The 15-dimensional high-dimensional feature vector z generated in this way is a sparse vector in which about half of its components are the value “0” by the function f (α). In addition, each component of the high-dimensional feature vector z is not a negative value, and most of the components are target pairs in which one is a value “0” and the other is “0” or more. For example, when z 0 > z 2 , z 3 = z 0 −z 2 > 0 and z 4 = 0, and conversely when z 0 ≦ z 2 , z 3 = 0 and z 4 = z 2 −z 0 > 0.

なお、次元拡張部220は、式(8)〜(10)を用いて生成したベクトルを正規化し、正規化されたベクトルを高次元特徴ベクトルzとして出力するようにしてもよい。この正規化は、具体的には、式(8)〜(10)を用いて生成したベクトルの各成分を、ベクトルの成分の合計で除することによって実現される。   Note that the dimension extension unit 220 may normalize the vector generated using the equations (8) to (10) and output the normalized vector as the high-dimensional feature vector z. Specifically, this normalization is realized by dividing each component of the vector generated using the equations (8) to (10) by the sum of the vector components.

式(8)から明らかなように、特徴空間であるG ‐G ‐G空間213における低次元特徴ベクトルxの勾配に応じて、つまり特徴空間を分割した複数の分割領域のうちいずれの分割領域に低次元特徴ベクトルxが属するかによって、拡張特徴量z〜z14の値は変化する。また、上記したように、低次元特徴ベクトルxの特徴空間における勾配は、学習サンプルの画像全体におけるエッジ方向の分布情報に対応している。すなわち、高次元特徴ベクトルzは、学習サンプルの画像全体におけるエッジ方向の分布を示す情報となる。 As apparent from the equation (8), according to the gradient of the low-dimensional feature vector x in the G x + -G x -- G y space 213 that is the feature space, that is, among the plurality of divided regions obtained by dividing the feature space. Depending on which divided region the low-dimensional feature vector x belongs to, the values of the extended feature quantities z 0 to z 14 change. As described above, the gradient in the feature space of the low-dimensional feature vector x corresponds to the edge direction distribution information in the entire learning sample image. That is, the high-dimensional feature vector z is information indicating the distribution of the edge direction in the entire learning sample image.

次に、識別ベクトル学習部230は、学習サンプルから得られた高次元特徴ベクトルzに基づいて、入力画像のクラスを識別するための高次元識別ベクトルを学習する。ここで、高次元識別ベクトルの学習とは、クラスごとに、そのクラスに属する画像から抽出された高次元特徴ベクトルzを識別するための線形識別関数を学習し、その重みパラメータを高次元識別ベクトルの成分として決定することである。このような線形識別関数の決定手法としては、各種の既知の技術を適用することが可能である。   Next, the identification vector learning unit 230 learns a high-dimensional identification vector for identifying the class of the input image based on the high-dimensional feature vector z obtained from the learning sample. Here, the learning of the high-dimensional identification vector means that for each class, a linear identification function for identifying a high-dimensional feature vector z extracted from an image belonging to the class is learned, and the weight parameter is used as the high-dimensional identification vector. It is to be determined as a component of As such a linear discriminant function determination method, various known techniques can be applied.

具体的には、識別ベクトル学習部230は、たとえば、アダブースト(AdaBoost)アルゴリズムを実行すればよい。アダブーストアルゴリズムの詳細については、たとえば、Paul Viola and MICHAEL JONES, “Robust Real‐time Object Detection”, International Journal of Computer Vision, 2002 に記載されているため、ここでの説明を省略する。   Specifically, the identification vector learning unit 230 may execute an AdaBoost algorithm, for example. Details of the Adaboost algorithm are described in, for example, Paul Viola and MICHAEL JONES, “Robust Real-time Object Detection”, International Journal of Computer Vision, 2002, and thus the description thereof is omitted.

識別ベクトル学習部230で生成される高次元識別ベクトルbは、以下の式(11)で示すことができる。
b = [b … b121314 ……(11)
The high-dimensional identification vector b generated by the identification vector learning unit 230 can be expressed by the following equation (11).
b = [b 0 b 1 b 2 ... b 12 b 13 b 14 ] T (11)

ここで、従来のパターン識別で実行されるパターン識別について説明する。従来のパターン識別では、学習段階で仮に上記した高次元識別ベクトルbが生成されたとすると、識別結果yを得るために、識別段階において以下の式(12)に示す内積演算が実行される。
y = z・b
= [z … z121314
・[b … b121314
= z+z+ … +z1414 ……(12)
Here, the pattern identification performed by the conventional pattern identification will be described. In conventional pattern identification, if the above-described high-dimensional identification vector b is generated in the learning stage, an inner product operation shown in the following equation (12) is executed in the identification stage in order to obtain the identification result y.
y = z · b
= [Z 0 z 1 z 2 ... z 12 z 13 z 14 ] T
[B 0 b 1 b 2 ... b 12 b 13 b 14 ] T
= Z 0 b 0 + z 1 b 1 + ... + z 14 b 14 ...... (12)

すなわち、従来のパターン識別では、15次元の内積演算が実行される。ところが、上記したように、このような高次元の内積演算を行うと、識別処理に時間が掛かるという問題がある。一方で、たとえば低次元特徴ベクトルxから生成した低次元識別ベクトルを用いて同等の識別性能を得ようとしても、上記したように、やはり識別処理に時間が掛かってしまう。   That is, in conventional pattern identification, a 15-dimensional inner product operation is executed. However, as described above, when such a high-dimensional inner product operation is performed, there is a problem that it takes time for the identification processing. On the other hand, for example, even if it is attempted to obtain the same identification performance using a low-dimensional identification vector generated from the low-dimensional feature vector x, as described above, the identification process still takes time.

そこで、本実施の形態のパターン識別システム100では、高次元特徴ベクトルzの各成分が特徴量x、x、およびxの線形結合であることを利用して、高次元識別ベクトルbの次元を縮退させ、識別性能を維持した状態で識別処理の高速化を実現する。 Therefore, in the pattern identification system 100 according to the present embodiment, the components of the high-dimensional identification vector b are obtained using the fact that each component of the high-dimensional feature vector z is a linear combination of the feature quantities x 0 , x 1 , and x 2 . The speed of the identification process is realized while reducing the dimensions and maintaining the identification performance.

たとえば、低次元特徴ベクトルxにおいて、x> 2x、x > 2xのとき、拡張特徴量z〜z14のうち、z、z、z、z10、z12、およびz14は、関数f(α)により、それぞれ値「0」となる。したがって、識別結果yを算出するための式(12)は、以下に示す式(13)のように変形が可能である。
y = z・b
= z+z+z+z+z+z+z+z1111
+z1313
= x(b+b+b+b11)+x(b+b+b+b13)+x(b−b−b−b−b−b11−b13
= x+x+x
= [x・[p
= x・p ……(13)
For example, in the low-dimensional feature vector x, when x 0 > 2x 2 and x 1 > 2x 2 , z 4 , z 6 , z 8 , z 10 , z 12 , and out of the extended feature quantities z 0 to z 14 , and z 14 is the function f (alpha), the respective value of "0". Therefore, the equation (12) for calculating the identification result y can be modified as the following equation (13).
y = z · b
= Z 0 b 0 + z 1 b 1 + z 2 b 2 + z 3 b 3 + z 5 b 5 + z 7 b 7 + z 9 b 9 + z 11 b 11
+ Z 13 b 13
= X 0 (b 0 + b 3 + b 7 + b 11) + x 1 (b 1 + b 5 + b 9 + b 13) + x 2 (b 2 -b 3 -b 5 -b 7 -b 9 -b 11 -b 13)
= X 0 p 0 + x 1 p 1 + x 2 p 2
= [X 0 x 1 x 2 ] T · [p 0 p 1 p 2 ] T
= X · p …… (13)

ただし、このとき、ベクトルpの各成分p、p、およびpは、それぞれ以下の式(14)で示される値となる。
= b+b+b+b11
= b+b+b+b13
= b−b−b−b−b−b11−b13 ……(14)
However, at this time, each component p 0 , p 1 , and p 2 of the vector p has a value represented by the following expression (14).
p 0 = b 0 + b 3 + b 7 + b 11
p 1 = b 1 + b 5 + b 9 + b 13
p 2 = b 2 -b 3 -b 5 -b 7 -b 9 -b 11 -b 13 ...... (14)

すなわち、元の低次元特徴ベクトルxとベクトルpとの3次元の内積演算により、高次元特徴ベクトルzと高次元識別ベクトルbとの15次元の内積演算と同一の識別結果を得ることができる。低次元特徴ベクトルxとベクトルpとの内積演算を、従来の内積演算に置き換えることにより、識別性能を維持した状態で、識別段階における識別処理を格段に高速化できることは明らかである。   That is, the same identification result as the 15-dimensional inner product operation of the high-dimensional feature vector z and the high-dimensional identification vector b can be obtained by the three-dimensional inner product operation of the original low-dimensional feature vector x and the vector p. It is clear that the identification process in the identification stage can be significantly speeded up while maintaining the identification performance by replacing the inner product calculation of the low-dimensional feature vector x and the vector p with the conventional inner product calculation.

しかしながら、ベクトルpをその都度算出すると、識別処理を効果的に高速化することができない。一方で、ベクトルpは、上記したように、特徴空間における低次元特徴ベクトルxの属する分割領域(以下、単に「領域」という)に応じて異なる値をとる。そこで、本実施の形態のパターン識別システム100は、学習段階において、ベクトルpが異なる値をとる領域のすべてについてベクトルpの値をあらかじめ算出しておき、識別段階において、入力画像ごとに適切なベクトルpの値を用いる。高次元識別ベクトルbを基に構築した3次元のベクトルpを、以下、低次元識別ベクトルpという。   However, if the vector p is calculated each time, the identification process cannot be effectively accelerated. On the other hand, as described above, the vector p takes different values depending on the divided region (hereinafter, simply referred to as “region”) to which the low-dimensional feature vector x belongs in the feature space. Therefore, the pattern identification system 100 according to the present embodiment calculates the value of the vector p in advance for all the regions where the vector p takes different values in the learning stage, and in the identification stage, an appropriate vector for each input image. The value of p is used. Hereinafter, the three-dimensional vector p constructed based on the high-dimensional identification vector b is referred to as a low-dimensional identification vector p.

学習装置200の次元縮退部240は、すべての低次元識別ベクトルpの値を特徴空間の領域に対応付けて記述した参照テーブルを生成する。   The dimension reduction unit 240 of the learning device 200 generates a reference table in which all the values of the low-dimensional identification vector p are described in association with the feature space region.

図3は、次元縮退部240によって生成される参照テーブルの内容を示す説明図である。   FIG. 3 is an explanatory diagram showing the contents of the reference table generated by the dimension reduction unit 240.

図3に示すように、参照テーブル350は、参照テーブルインデックス、低次元識別ベクトルpの成分p、p、およびpのフィールドを持つ複数のレコードから構成されている。参照テーブルインデックスには、6ビットの値が記述される。低次元識別ベクトルpの成分p、p、およびpのフィールドには、図3に示す式を用いて算出される値がそれぞれ記述される。 As shown in FIG. 3, the reference table 350 is composed of a plurality of records having a reference table index, components p 0 , p 1 , and p 2 fields of the low-dimensional identification vector p. A 6-bit value is described in the reference table index. In the fields of the components p 0 , p 1 , and p 2 of the low-dimensional identification vector p, values calculated using the formula shown in FIG. 3 are described.

参照テーブル350の各レコードは、それぞれ特徴空間における異なる領域に対応し、それぞれ異なる値の低次元識別ベクトルpに対応している。なお、図3では、各レコードの低次元識別ベクトルpの成分p〜pには、算出に用いられる式を記載しているが、高次元識別ベクトルbの成分b〜b14の値は既知であることから、実際には数値が記述されることはいうまでもない。 Each record of the reference table 350 corresponds to a different area in the feature space, and corresponds to a low-dimensional identification vector p having a different value. In FIG. 3, although the formulas used for calculation are described in the components p 0 to p 2 of the low-dimensional identification vector p of each record, the values of the components b 0 to b 14 of the high-dimensional identification vector b Needless to say, a numerical value is actually described because is already known.

参照テーブルインデックスは、識別装置400側で低次元識別ベクトルpを検索するためのキーとなる情報である。参照テーブルインデックスの値は、低次元識別ベクトルpの成分p〜pの算出に用いられる式に対応して設定されているが、これについては後に詳しく説明する。 The reference table index is information serving as a key for searching the low-dimensional identification vector p on the identification device 400 side. The value of the reference table index is set corresponding to an expression used for calculating the components p 0 to p 2 of the low-dimensional identification vector p, which will be described in detail later.

次元縮退部240は、各レコードに数値を記述して参照テーブル350を生成すると、図1に示す情報格納装置300に格納する。   When the dimension reduction unit 240 generates a reference table 350 by describing a numerical value in each record, the dimension reduction unit 240 stores the reference table 350 in the information storage device 300 shown in FIG.

次に、識別装置400の各部の動作について、詳細に説明を行う。   Next, the operation of each unit of the identification device 400 will be described in detail.

識別段階では、クラス分類の対象となる画像が、サンプル特徴抽出部210へ入力される。この入力画像も、学習パターンと同様に、複数のピクセルにより構成されるディジタル画像データでる。   In the identification stage, an image to be classified is input to the sample feature extraction unit 210. This input image is also digital image data composed of a plurality of pixels, like the learning pattern.

サンプル特徴抽出部210は、入力画像から特徴を抽出して低次元特徴ベクトルxを生成し、インデックス算出部420および線形識別器430へ出力する。この低次元特徴ベクトルxの生成処理は、上記したサンプル特徴抽出部210と同様であり、たとえば、上記した式(1)、(2)、アルゴリズム(3)〜(7)が用いられる。サンプル特徴抽出部210で生成される低次元特徴ベクトルxは、たとえば以下の式(15)で表される。
x=[x ……(15)
The sample feature extraction unit 210 extracts features from the input image to generate a low-dimensional feature vector x, and outputs the low-dimensional feature vector x to the index calculation unit 420 and the linear classifier 430. The generation process of the low-dimensional feature vector x is the same as that of the sample feature extraction unit 210 described above, and, for example, the above formulas (1) and (2) and algorithms (3) to (7) are used. The low-dimensional feature vector x generated by the sample feature extraction unit 210 is expressed by the following equation (15), for example.
x = [x 0 x 1 x 2 ] T (15)

インデックス算出部420は、低次元特徴ベクトルxを入力するごとに、線形識別器430が適切な低次元識別ベクトルpを検索するためのインデックス値を算出するインデックス算出処理を実行する。   Each time the low-dimensional feature vector x is input, the index calculation unit 420 executes an index calculation process in which the linear classifier 430 calculates an index value for searching for an appropriate low-dimensional identification vector p.

図4は、インデックス算出部420によるインデックス算出処理の流れを示すフローチャートである。   FIG. 4 is a flowchart showing the flow of index calculation processing by the index calculation unit 420.

ステップS1000において、インデックス算出部420は、インデックス値として6ビットを用意し、すべてのビットを値「0」に設定する。これにより、インデックス値は、初期状態として「000000」に設定される。また、インデックス算出部420は、低次元特徴ベクトルxから、特徴量x〜xを抽出する。 In step S1000, the index calculation unit 420 prepares 6 bits as an index value and sets all bits to the value “0”. Thereby, the index value is set to “000000” as an initial state. Also, the index calculation unit 420 extracts feature amounts x 0 to x 2 from the low-dimensional feature vector x.

次に、ステップS1050において、インデックス算出部420は、特徴量xが特徴量xよりも大きいか否かを判断する。これは、特徴量xと特徴量xのどちらが値「0」であるかの判断と等価である。インデックス算出部420は、特徴量xが特徴量xよりも大きい場合には(S1050:YES)、ステップS1100へ進み、特徴量xが特徴量x以下の場合には(S1050:NO)、ステップS1100を経ずにそのままステップS1150へ進む。 Next, in step S1050, the index calculation unit 420, characteristic amount x 0 determines whether greater than the characteristic amounts x 2. This is equivalent to determining which of the feature quantity x 3 and the feature quantity x 4 is the value “0”. Index calculating unit 420, when the feature quantity x 0 is greater than the characteristic amount x 2 (S1050: YES), the process proceeds to step S1100, if the feature quantity x 0 is equal to or less than the characteristic amounts x 2 (S1050: NO ), The process proceeds to step S1150 without going through step S1100.

ステップS1100において、インデックス算出部420は、インデックス値の最初のビット(たとえば最下位ビット)を値「1」に設定し、ステップS1150へ進む。   In step S1100, the index calculation unit 420 sets the first bit (for example, the least significant bit) of the index value to the value “1”, and proceeds to step S1150.

ステップS1150において、インデックス算出部420は、特徴量xが特徴量xよりも大きいか否かを判断する。これは、特徴量xと特徴量xのどちらが値「0」であるかの判断と等価である。インデックス算出部420は、特徴量xが特徴量xよりも大きい場合には(S1150:YES)、ステップS1200へ進み、特徴量xが特徴量x以下の場合には(S1150:NO)、ステップS1200を経ずにそのままステップS1250へ進む。 In step S 1150, the index calculation unit 420, the feature amount x 1 determines whether greater than the characteristic amounts x 2. This is equivalent to determining which of the feature quantity x 5 and the feature quantity x 6 is the value “0”. Index calculating unit 420, if the feature quantities x 1 greater than the characteristic amount x 2 (S1150: YES), the process proceeds to step S1200, if the feature amount x 1 of the following characteristic quantity x 2 (S1150: NO ), Without proceeding to step S1200, the process proceeds to step S1250.

ステップS1200において、インデックス算出部420は、インデックス値の2番目のビット(たとえば最下位から2番目のビット)を値「1」に設定し、ステップS1250へ進む。   In step S1200, the index calculation unit 420 sets the second bit (for example, the second bit from the least significant bit) of the index value to the value “1”, and proceeds to step S1250.

ステップS1250において、インデックス算出部420は、特徴量xの2倍が特徴量xよりも大きいか否かを判断する。これは、特徴量xと特徴量xのどちらが値「0」であるかの判断と等価である。インデックス算出部420は、特徴量xの2倍が特徴量xよりも大きい場合には(S1250:YES)、ステップS1300へ進み、特徴量xの2倍が特徴量x以下の場合には(S1250:NO)、ステップS1300を経ずにそのままステップS1350へ進む。 In step S1250, the index calculation unit 420 is twice the characteristic amount x 0 determines whether greater than the characteristic amounts x 2. This is equivalent to determining which of the feature quantity x 7 and the feature quantity x 8 is the value “0”. Index calculating unit 420, when twice the characteristic amount x 0 is greater than the characteristic amount x 2 (S1250: YES), the process proceeds to step S1300, if twice the characteristic amount x 0 is equal to or less than the characteristic amounts x 2 (S1250: NO), the process proceeds directly to step S1350 without passing through step S1300.

ステップS1300において、インデックス算出部420は、インデックス値の3番目のビット(たとえば最下位から3番目のビット)を値「1」に設定し、ステップS1350へ進む。   In step S1300, the index calculation unit 420 sets the third bit (for example, the third bit from the least significant bit) of the index value to the value “1”, and proceeds to step S1350.

ステップS1350において、インデックス算出部420は、特徴量xの2倍が特徴量xよりも大きいか否かを判断する。これは、特徴量xと特徴量x10のどちらが値「0」であるかの判断と等価である。インデックス算出部420は、特徴量xの2倍が特徴量xよりも大きい場合には(S1350:YES)、ステップS1400へ進み、特徴量xの2倍が特徴量x以下の場合には(S1350:NO)、ステップS1400を経ずにそのままステップS1450へ進む。 In step S1350, the index calculation unit 420 is twice the characteristic amounts x 1 determines whether greater than the characteristic amounts x 2. This is equivalent to determining which of the feature quantity x 9 and the feature quantity x 10 is the value “0”. Index calculating unit 420, when twice the characteristic amounts x 1 is greater than the characteristic amount x 2 (S1350: YES), the process proceeds to step S1400, if twice the characteristic amounts x 1 is less than the feature quantity x 2 (S1350: NO), the process proceeds directly to step S1450 without passing through step S1400.

ステップS1400において、インデックス算出部420は、インデックス値の4番目のビット(たとえば最下位から4番目のビット)を値「1」に設定し、ステップS1450へ進む。   In step S1400, index calculation unit 420 sets the fourth bit (for example, the fourth bit from the least significant bit) of the index value to the value “1”, and proceeds to step S1450.

ステップS1450において、インデックス算出部420は、特徴量xが特徴量xの2倍よりも大きいか否かを判断する。これは、特徴量x11と特徴量x12のどちらが値「0」であるかの判断と等価である。インデックス算出部420は、特徴量xが特徴量xの2倍よりも大きい場合には(S1450:YES)、ステップS1500へ進み、特徴量xが特徴量xの2倍以下の場合には(S1450:NO)、ステップS1500を経ずにそのままステップS1550へ進む。 In step S1450, the index calculation unit 420, characteristic amount x 0 determines whether greater than 2 times the characteristic amounts x 2. This is equivalent to determining which of the feature quantity x 11 and the feature quantity x 12 is the value “0”. Index calculating unit 420, when the feature quantity x 0 is greater than 2 times the characteristic amounts x 2 (S1450: YES), the process proceeds to step S1500, if the feature amount x 0 is equal to or less than 2 times the characteristic amounts x 2 (S1450: NO), the process proceeds directly to step S1550 without passing through step S1500.

ステップS1500において、インデックス算出部420は、インデックス値の5番目のビット(たとえば最下位から5番目のビット)を値「1」に設定し、ステップS1550へ進む。   In step S1500, the index calculation unit 420 sets the fifth bit (for example, the fifth bit from the least significant bit) of the index value to the value “1”, and proceeds to step S1550.

ステップS1550において、インデックス算出部420は、特徴量xが特徴量xの2倍よりも大きいか否かを判断する。これは、特徴量x13と特徴量x14のどちらが値「0」であるかの判断と等価である。インデックス算出部420は、特徴量xが特徴量xの2倍よりも大きい場合には(S1550:YES)、ステップS1600へ進み、特徴量xが特徴量xの2倍以下の場合には(S1550:NO)、ステップS1600を経ずにそのまま一連の処理を終了する。 In step S1550, the index calculation unit 420, the feature amount x 1 determines whether greater than 2 times the characteristic amounts x 2. This is equivalent to determining which of the feature value x 13 and the feature value x 14 is the value “0”. Index calculating unit 420, if the feature quantities x 1 is greater than 2 times the characteristic amounts x 2 (S1550: YES), the process proceeds to step S1600, if the feature amount x 1 of less than twice the characteristic amounts x 2 (S1550: NO), a series of processing is ended without going through step S1600.

ステップS1600において、インデックス算出部420は、インデックス値の6番目のビット(たとえば最上位ビット)を値「1」に設定し、一連の処理を終了する。   In step S1600, the index calculation unit 420 sets the sixth bit (for example, the most significant bit) of the index value to the value “1”, and ends the series of processes.

このようなインデックス算出処理によって算出されるインデックス値は、低次元特徴ベクトルxにおける値「0」の配置パターンに対応したものとなる。学習装置200の次元縮退部240は、図3に示す参照テーブル350を生成する際に、上記インデックス算出処理の結果と対応するように、あらかじめ参照テーブルインデックスの値と低次元識別ベクトルpの算出に用いる式とを対応付けている。したがって、ある低次元特徴ベクトルxから算出されたインデックス値に一致する参照テーブルインデックスに対応付けて記述された低次元識別ベクトルpは、その低次元特徴ベクトルxに適切なものとなっている。   The index value calculated by such an index calculation process corresponds to the arrangement pattern of the value “0” in the low-dimensional feature vector x. When generating the reference table 350 shown in FIG. 3, the dimension reduction unit 240 of the learning device 200 calculates the reference table index value and the low-dimensional identification vector p in advance so as to correspond to the result of the index calculation process. The formula to be used is associated. Therefore, the low-dimensional identification vector p described in association with the reference table index that matches the index value calculated from a certain low-dimensional feature vector x is appropriate for the low-dimensional feature vector x.

たとえば、低次元特徴ベクトルxにおいて、x > 2x、x> 2xのとき、インデックス算出部420は、「111111」を設定する。また、既に説明したように、x > 2x、x > 2xのときには、識別結果yは、式(13)を用いて演算することができる。したがって、図3に示すように、参照テーブル350のうち、式(14)に示すベクトルpの各成分p〜pが記述された最下行のレコードには、参照テーブルインデックス「111111」が設定されている。 For example, in the low-dimensional feature vector x, when x 0 > 2x 2 and x 1 > 2x 2 , the index calculation unit 420 sets “111111”. As already described, when x 0 > 2x 2 and x 1 > 2x 2 , the identification result y can be calculated using Expression (13). Therefore, as shown in FIG. 3, in the reference table 350, the reference table index “111111” is set in the bottom row record in which the components p 0 to p 2 of the vector p shown in Expression (14) are described. Has been.

線形識別器430は、低次元インデックス算出部420からインデックス値を入力すると、情報格納装置300に格納された参照テーブル350の参照テーブルインデックスで、そのインデックス値を検索する。そして、該当するレコードの低次元識別ベクトルpを取得し、画像特徴抽出部410から入力された低次元特徴ベクトルxとの内積演算を実行し、識別結果を出力する。この識別結果は、上記したように、高次元特徴ベクトルzと高次元識別ベクトルbとの内積演算による識別結果と同一となる。   When the linear identifier 430 receives an index value from the low-dimensional index calculation unit 420, the linear identifier 430 searches the reference table index of the reference table 350 stored in the information storage device 300 for the index value. Then, the low-dimensional identification vector p of the corresponding record is acquired, an inner product operation with the low-dimensional feature vector x input from the image feature extraction unit 410 is executed, and an identification result is output. As described above, this identification result is the same as the identification result obtained by the inner product calculation of the high-dimensional feature vector z and the high-dimensional identification vector b.

このような参照テーブル350を用いる手法により、本実施の形態のパターン識別システム100では、15次元の特徴ベクトルを用いて学習を行うにもかかわらず、識別処理の際に必要な乗算演算および加算演算は、それぞれわずか3回ずつに抑えられている。これは、従来の手法では必要とされる乗算演算および加算演算の回数がそれぞれ15回であるのと比較して、大幅に演算付加を低減するものである。すなわち、本実施の形態のパターン識別システム100は、識別性能を維持した状態で、識別段階における識別処理を従来よりも格段に高速化することができる。   With the method using the reference table 350, the pattern identification system 100 according to the present embodiment uses the 15-dimensional feature vector to perform learning, but the multiplication operation and addition operation necessary for the identification process are performed. Are limited to only three times each. This significantly reduces the addition of operations compared to the number of multiplication operations and addition operations required in the conventional method being 15 each. That is, the pattern identification system 100 according to the present embodiment can remarkably speed up the identification process in the identification stage while maintaining the identification performance.

なお、以上説明したパターン識別システム100では、画像全体から特徴を抽出するとしたが、これに限るものではない。たとえば、サンプル特徴抽出部210は、入力された学習サンプルの画像を、特徴の抽出の単位となる領域に分割し、分割領域ごとに特徴を抽出して低次元特徴ベクトルxを生成するようにしてもよい。   In the pattern identification system 100 described above, features are extracted from the entire image. However, the present invention is not limited to this. For example, the sample feature extraction unit 210 divides the input learning sample image into regions that are units of feature extraction, and extracts features for each divided region to generate a low-dimensional feature vector x. Also good.

以下、学習サンプルの画像を複数領域に分割して学習を行う場合について説明する。   Hereinafter, a case where learning is performed by dividing an image of a learning sample into a plurality of regions will be described.

図5は、学習サンプルの分割の様子の一例を示す説明図である。図5に示すように、サンプル特徴抽出部210は、学習サンプル500を、複数のサブブロック510により構成されるブロック520に分割する。ブロック520の個数および1つのブロック520を構成するサブブロック510の個数は、任意とすることができる。   FIG. 5 is an explanatory diagram showing an example of how learning samples are divided. As illustrated in FIG. 5, the sample feature extraction unit 210 divides the learning sample 500 into blocks 520 including a plurality of sub-blocks 510. The number of blocks 520 and the number of sub-blocks 510 constituting one block 520 can be arbitrary.

たとえば、ブロック520を32×32のピクセルサイズとし、各ブロック520を構成するサブブロック510の個数を2×2とすることができる。この場合、各サブブロック510は、16×16のピクセルサイズとなる。   For example, the block 520 can have a pixel size of 32 × 32, and the number of sub-blocks 510 constituting each block 520 can be 2 × 2. In this case, each sub-block 510 has a pixel size of 16 × 16.

また、隣り合うブロック520で、それぞれのブロック520を構成する一部のサブブロック520が重なるように、学習サンプル500を分割してもよい。この場合、ブロック520が重なり合う部分に位置するサブブロック520は、複数のブロック520に属することになる。   Further, the learning sample 500 may be divided so that adjacent sub-blocks 520 overlap with some of the sub-blocks 520 constituting each block 520. In this case, the sub-block 520 located in the overlapping portion of the blocks 520 belongs to a plurality of blocks 520.

サンプル特徴抽出部210は、各ピクセル位置の調整勾配G 、G -、およびGを算出した後、サブブロック510全体についてのエッジ方向の分布情報を示す低次元特徴ベクトルxを、たとえば上記した式(4)〜(7)を用いて生成する。 After calculating the adjustment gradients G x + , G x , and G y of each pixel position, the sample feature extraction unit 210 calculates a low-dimensional feature vector x indicating distribution information in the edge direction for the entire sub-block 510, for example, It produces | generates using above-described Formula (4)-(7).

サンプル特徴抽出部210は、ブロック520レベルにおいて、同一ブロック520に属する各サブブロック510の高次元特徴ベクトルzを連結する。すなわち、図5に示すようにブロック520が2×2のサブブロック510により構成される場合には、高次元特徴ベクトルzは60次元となる。また、上記した式(8)に示す線形結合よりもさらに多くの線形結合を行うことによって、より多くの成分を有する高次元特徴ベクトルzを生成することも可能である。このように、複数のピクセルを含む領域単位で特徴量を抽出することにより、領域単位での識別処理が可能となる。ブロック520およびサブブロック510のサイズは、パターン識別の内容に応じて、適切な値を適用すればよい。   The sample feature extraction unit 210 concatenates the high-dimensional feature vectors z of the sub-blocks 510 belonging to the same block 520 at the block 520 level. That is, as shown in FIG. 5, when the block 520 is composed of 2 × 2 sub-blocks 510, the high-dimensional feature vector z has 60 dimensions. Also, it is possible to generate a high-dimensional feature vector z having more components by performing more linear combinations than the linear combination shown in the above equation (8). In this manner, by extracting feature amounts in units of regions including a plurality of pixels, identification processing in units of regions becomes possible. Appropriate values may be applied to the sizes of the block 520 and the sub-block 510 in accordance with the contents of pattern identification.

以上説明したように、本実施の形態によれば、学習段階において、特徴ベクトルを、成分の線形結合により次元を拡張し、高次元の特徴ベクトルから、クラスごとに特徴ベクトルを線形分離可能な高次元の識別ベクトルを生成する。そして、高次元の識別ベクトルの次元を縮退して低次元の識別ベクトルを生成するとともに、特徴空間における低次元の特徴ベクトルが属する領域と対応付けて設定したインデックス値を付して低次元の識別ベクトルを記述した参照テーブルを生成する。一方、識別段階において、入力画像から抽出した低次元の特徴ベクトルに基づいてインデックス値を算出し、参照テーブルでインデックス値を検索する。そして、該当する低次元の識別ベクトルを取得し、入力画像から抽出した低次元の特徴ベクトルとの内積演算を実行して識別結果を出力する。これにより、高次元空間で学習を行い、低次元空間で識別を行うことが可能となる。すなわち、より少ない演算負荷で、高精度にパターンのクラスを識別することができる。また、スパースなベクトルである高次元の特徴ベクトルを生成することにより、特徴ベクトルのある要素が「0」以上の値を持つかどうかを判別するだけでクラスの識別が可能となるため、識別性能を向上させることができる。さらに、ほとんどの成分が対称対である高次元の特徴ベクトルを生成することにより、インデックス値のビット数を最小限とすることができ、インデックス値を簡単に算出することができる。すなわち、識別処理のさらなる高速化を図ることができる。   As described above, according to the present embodiment, in the learning stage, the feature vector is expanded in dimension by linear combination of components, and the feature vector can be linearly separated for each class from the high-dimensional feature vector. Generate a dimensional identification vector. Then, the dimension of the high-dimensional identification vector is degenerated to generate a low-dimensional identification vector, and the low-dimensional identification is performed with an index value set in association with the region to which the low-dimensional feature vector belongs in the feature space. Generate a reference table describing vectors. On the other hand, in the identification stage, an index value is calculated based on a low-dimensional feature vector extracted from the input image, and the index value is searched with a reference table. Then, a corresponding low-dimensional identification vector is acquired, an inner product operation with a low-dimensional feature vector extracted from the input image is executed, and an identification result is output. As a result, learning can be performed in a high-dimensional space and identification can be performed in a low-dimensional space. That is, the pattern class can be identified with high accuracy with a smaller calculation load. In addition, by generating a high-dimensional feature vector that is a sparse vector, it becomes possible to identify a class simply by determining whether an element of the feature vector has a value of “0” or more. Can be improved. Furthermore, by generating a high-dimensional feature vector in which most components are symmetrical pairs, the number of bits of the index value can be minimized, and the index value can be easily calculated. That is, it is possible to further speed up the identification process.

なお、以上説明した実施の形態を、パターン識別システムを、車の前方の歩行者や他車をカメラ画像から検出するシステムや、運転者の顔の方向を検出するシステムに適用してもよい。   In addition, you may apply embodiment described above to the system which detects a pedestrian and other vehicles ahead of a vehicle from a camera image, and the system which detects a driver | operator's face direction.

また、以上説明した実施の形態では、画像データのピクセル値から特徴ベクトルを抽出する画像レベルのパターン認識について説明したが、音声データ、テキストデータ、その他のデータに対する各種のパターン認識に本発明を適用できることはいうまでもない。   In the above-described embodiments, image level pattern recognition for extracting feature vectors from pixel values of image data has been described. However, the present invention is applied to various pattern recognition for speech data, text data, and other data. Needless to say, it can be done.

さらに、参照テーブルを格納した情報格納部をインターネットなどのネットワーク上に配置し、ネットワークを介して識別装置を情報格納部にアクセスさせ、参照テーブルを取得して保持させるようにしてもよい。また、学習装置、情報格納部、および識別装置を1つの装置に組み込むことにより、パターン識別装置を構成することも可能である。   Furthermore, an information storage unit storing the reference table may be arranged on a network such as the Internet, and the identification device may access the information storage unit via the network to acquire and hold the reference table. It is also possible to configure a pattern identification device by incorporating the learning device, the information storage unit, and the identification device into one device.

本発明に係るパターン識別装置およびパターン識別方法は、より少ない演算負荷で、高精度にパターンのクラスを識別することができるパターン識別装置およびパターン識別方法として有用である。   The pattern identification device and the pattern identification method according to the present invention are useful as a pattern identification device and a pattern identification method that can identify a pattern class with high accuracy with a smaller calculation load.

本発明の一実施の形態に係るパターン識別システムの構成を示すブロック図The block diagram which shows the structure of the pattern identification system which concerns on one embodiment of this invention 本実施の形態における特徴量の写像の様子を示す説明図Explanatory drawing which shows the mode of the feature-value mapping in this Embodiment 本実施の形態における参照テーブルの内容を示す説明図Explanatory drawing which shows the content of the reference table in this Embodiment 本実施の形態におけるインデックス算出処理の流れを示すフローチャートThe flowchart which shows the flow of the index calculation process in this Embodiment 本実施の形態における学習サンプルの分割の様子の一例を示す説明図Explanatory drawing which shows an example of the mode of the division | segmentation of the learning sample in this Embodiment

符号の説明Explanation of symbols

100 パターン識別システム
200 学習装置
210 サンプル特徴抽出部
220 次元拡張部
230 識別ベクトル学習部
240 次元縮退部
300 情報格納装置
400 識別装置
410 画像特徴抽出部
420 インデックス算出部
430 線形識別器
DESCRIPTION OF SYMBOLS 100 Pattern identification system 200 Learning apparatus 210 Sample feature extraction part 220 Dimension expansion part 230 Identification vector learning part 240 Dimension reduction part 300 Information storage apparatus 400 Identification apparatus 410 Image feature extraction part 420 Index calculation part 430 Linear identifier

Claims (14)

入力パターンから特徴ベクトルを抽出する特徴抽出部と、
入力パターンの種類を識別するための識別ベクトルと、特徴空間を分割した分割領域と、を対応付けて記述した参照テーブルから、前記入力パターンの特徴ベクトルが属する分割領域に対応する識別ベクトルを取得し、取得した識別ベクトルと前記入力パターンの特徴ベクトルとの内積演算を実行して前記入力パターンの種類を識別する識別部と、
を有するパターン識別装置。
A feature extraction unit for extracting feature vectors from the input pattern;
An identification vector corresponding to the divided region to which the feature vector of the input pattern belongs is obtained from a reference table in which an identification vector for identifying the type of the input pattern and a divided region obtained by dividing the feature space are described in association with each other. An identification unit that identifies the type of the input pattern by performing an inner product operation between the acquired identification vector and the feature vector of the input pattern;
A pattern identification device.
前記参照テーブルを格納した情報格納部、をさらに有する、
請求項1記載のパターン識別装置。
An information storage unit storing the reference table;
The pattern identification device according to claim 1.
前記識別部は、
前記参照テーブルを格納した情報格納装置にアクセスし、情報格納装置から参照テーブルを取得して保持する、
請求項1記載のパターン識別装置。
The identification unit is
Accessing the information storage device storing the reference table, obtaining and holding the reference table from the information storage device,
The pattern identification device according to claim 1.
前記特徴ベクトルは、所定の次元のベクトルであり、
前記参照テーブルに記述された識別ベクトルは、学習サンプルの特徴ベクトルの成分を線形結合することにより次元を拡張した高次元特徴ベクトルを生成し、高次元特徴ベクトルに基づいて生成された高次元識別ベクトルを前記所定の次元に縮退することによって得られたベクトルである、
請求項1記載のパターン識別装置。
The feature vector is a vector of a predetermined dimension,
The identification vector described in the reference table is a high-dimensional identification vector generated based on the high-dimensional feature vector by generating a high-dimensional feature vector with expanded dimensions by linearly combining the components of the feature vector of the learning sample. Is a vector obtained by reducing to the predetermined dimension,
The pattern identification device according to claim 1.
前記参照テーブルは、前記識別ベクトルの基となる前記高次元特徴ベクトルの各成分の値に対応し、前記特徴空間における同一の分割領域に属する特徴ベクトルから生成された高次元特徴ベクトルで同一の値をとるインデックス値を、識別ベクトルのインデックスとして記述し、
前記識別部は、
前記高次元特徴ベクトルと同様の次元拡張を前記入力パターンの特徴ベクトルに対して行った場合の前記インデックス値を算出するインデックス算出部と、
前記インデックス算出部が算出したインデックス値を前記参照テーブルで検索し、該当する識別ベクトルと前記入力パターンの特徴ベクトルとの内積演算を実行して前記入力パターンの種類を識別する線形識別器と、
を有する請求項4記載のパターン識別装置。
The reference table corresponds to the value of each component of the high-dimensional feature vector that is the basis of the identification vector, and has the same value in a high-dimensional feature vector generated from a feature vector belonging to the same divided region in the feature space. The index value that takes is described as the index of the identification vector,
The identification unit is
An index calculation unit that calculates the index value when the dimension extension similar to the high-dimensional feature vector is performed on the feature vector of the input pattern;
A linear discriminator for searching the index value calculated by the index calculation unit in the reference table, and performing an inner product operation of a corresponding identification vector and a feature vector of the input pattern to identify the type of the input pattern;
The pattern identification device according to claim 4, comprising:
前記特徴空間は、画像に存在するエッジの方向に対応する3次元空間であり、
前記特徴ベクトルは、入力画像に存在するエッジの方向に応じた成分を有する3次元のベクトルである、
請求項1記載のパターン識別装置。
The feature space is a three-dimensional space corresponding to the direction of edges existing in the image,
The feature vector is a three-dimensional vector having a component corresponding to the direction of an edge existing in the input image.
The pattern identification device according to claim 1.
請求項1記載のパターン識別装置で用いられる参照テーブルを作成する識別ベクトル学習装置であって、
学習サンプルから特徴ベクトルを抽出するサンプル特徴抽出部と、
前記学習サンプルの特徴ベクトルの成分を線形結合して次元を拡張した高次元特徴ベクトルを生成する次元拡張部と、
高次元特徴ベクトルに基づいて、パターンの種類を識別するための高次元識別ベクトルを生成する識別ベクトル学習部と、
高次元識別ベクトルを前記所定の次元に縮退して識別ベクトルを生成し、特徴空間を分割した複数の分割領域のうち、基となる特徴ベクトルが属する分割領域と対応付けて識別ベクトルを記述した参照テーブルを作成する次元縮退部と、
を有する識別ベクトル学習装置。
An identification vector learning device for creating a reference table used in the pattern identification device according to claim 1,
A sample feature extraction unit for extracting a feature vector from a learning sample;
A dimension extension unit for generating a high-dimensional feature vector in which dimensions are extended by linearly combining the feature vector components of the learning sample;
An identification vector learning unit that generates a high-dimensional identification vector for identifying a pattern type based on the high-dimensional feature vector;
A reference in which an identification vector is described in association with a divided region to which a base feature vector belongs among a plurality of divided regions obtained by degenerating a high-dimensional identification vector to the predetermined dimension and dividing the feature space A dimension reduction part for creating a table;
An identification vector learning apparatus having
学習サンプルから所定の次元の特徴ベクトルを抽出するサンプル特徴抽出部と、前記学習サンプルの特徴ベクトルの成分を線形結合して次元を拡張した高次元特徴ベクトルを生成する次元拡張部と、高次元特徴ベクトルに基づいてパターンの種類を識別するための高次元識別ベクトルを生成する識別ベクトル学習部と、高次元識別ベクトルの次元を縮退して前記所定の次元の識別ベクトルを生成し、特徴空間を分割した複数の分割領域のうち、基となる特徴ベクトルが属する分割領域と対応付けて前記識別ベクトルを記述した参照テーブルを作成する次元縮退部と、を有する学習部と、
入力パターンから前記所定の次元の特徴ベクトルを抽出する特徴抽出部と、前記学習装置が作成した参照テーブルから前記入力パターンの特徴ベクトルが属する分割領域に対応する識別ベクトルを取得し、取得した識別ベクトルと前記入力パターンの特徴ベクトルとの内積演算を実行して前記入力パターンの種類を識別する線形識別部と、を有するパターン識別部と、
を具備するパターン識別装置。
A sample feature extraction unit that extracts a feature vector of a predetermined dimension from a learning sample, a dimension extension unit that generates a high-dimensional feature vector in which dimensions are expanded by linearly combining the feature vector components of the learning sample, and a high-dimensional feature An identification vector learning unit for generating a high-dimensional identification vector for identifying a pattern type based on a vector, and generating a predetermined dimension identification vector by degenerating the dimension of the high-dimensional identification vector and dividing the feature space A dimension reduction unit that creates a reference table describing the identification vector in association with a divided region to which a base feature vector belongs among the plurality of divided regions;
A feature extraction unit that extracts the feature vector of the predetermined dimension from the input pattern; and an identification vector corresponding to a divided region to which the feature vector of the input pattern belongs from a reference table created by the learning device; A linear discriminator for identifying the type of the input pattern by performing an inner product operation between the input vector and the feature vector of the input pattern,
A pattern identification device comprising:
前記次元縮退部は、
前記識別ベクトルの基となる前記高次元特徴ベクトルの各成分の値に対応し、前記特徴空間における同一の分割領域に属する特徴ベクトルから生成された高次元特徴ベクトルで同一の値をとるインデックス値を、識別ベクトルのインデックスとして記述し、
前記線形識別部は、
前記高次元特徴ベクトルと同様の次元拡張を前記入力パターンの特徴ベクトルに対して行った場合の前記インデックス値を算出するインデックス算出部と、前記インデックス算出部が算出したインデックス値を前記参照テーブルで検索し、該当する識別ベクトルと前記入力パターンの特徴ベクトルとの内積演算を実行して前記入力パターンの種類を識別する線形識別器と、を有する、
請求項8記載のパターン識別装置。
The dimension reduction part is:
An index value that corresponds to the value of each component of the high-dimensional feature vector that is the basis of the identification vector and that takes the same value in a high-dimensional feature vector that is generated from feature vectors that belong to the same divided region in the feature space. , As an identification vector index,
The linear identification unit includes:
An index calculation unit that calculates the index value when the same dimension extension as the high-dimensional feature vector is performed on the feature vector of the input pattern, and searches the reference table for the index value calculated by the index calculation unit And a linear discriminator for identifying the type of the input pattern by performing an inner product operation of the corresponding identification vector and the feature vector of the input pattern,
The pattern identification device according to claim 8.
前記特徴空間は、画像に存在するエッジの方向に対応する3次元空間であり、
前記特徴ベクトルは、画像に存在するエッジの方向に応じた成分を有する3次元のベクトルである、
請求項8記載のパターン識別装置。
The feature space is a three-dimensional space corresponding to the direction of edges existing in the image,
The feature vector is a three-dimensional vector having a component corresponding to the direction of an edge existing in the image.
The pattern identification device according to claim 8.
学習サンプルから抽出された所定の次元の特徴ベクトルの成分を線形結合することにより次元を拡張した高次元特徴ベクトルを生成し、高次元特徴ベクトルに基づいて生成された入力パターンの種類を識別するための高次元識別ベクトルの次元を縮退して得られた前記所定の次元の識別ベクトルを記述するとともに、識別ベクトルの基となる高次元特徴ベクトルの各成分の値に対応し、特徴空間を分割した分割領域のうち同一の分割領域に属する特徴ベクトルから生成された高次元特徴ベクトルで同一の値をとるインデックス値を、識別ベクトルのインデックスとして記述した参照テーブルを格納する、情報格納装置。   To generate high-dimensional feature vectors with expanded dimensions by linearly combining the components of feature vectors of a predetermined dimension extracted from the training sample, and to identify the type of input pattern generated based on the high-dimensional feature vectors The identification vector of the predetermined dimension obtained by degenerating the dimension of the high-dimensional identification vector is described, and the feature space is divided corresponding to the value of each component of the high-dimensional feature vector that is the basis of the identification vector An information storage device that stores a reference table that describes, as an index of an identification vector, an index value that takes the same value in a high-dimensional feature vector generated from a feature vector belonging to the same divided region among the divided regions. 入力パターンから特徴ベクトルを抽出する特徴抽出ステップと、
入力パターンの種類を識別するための識別ベクトルと、特徴空間を分割した分割領域と、を対応付けて記述した参照テーブルから、前記特徴抽出ステップで抽出した特徴ベクトルが属する分割領域に対応する識別ベクトルを取得する識別ベクトル取得ステップと、
前記識別ベクトル取得ステップで取得した識別ベクトルと前記特徴抽出ステップで抽出した特徴ベクトルとの内積演算を実行して、前記入力パターンの種類を識別するパターン識別ステップと、
を有するパターン識別方法。
A feature extraction step of extracting a feature vector from the input pattern;
An identification vector corresponding to a divided region to which the feature vector extracted in the feature extraction step belongs from a reference table in which an identification vector for identifying the type of the input pattern and a divided region obtained by dividing the feature space are described in association with each other An identification vector obtaining step for obtaining
A pattern identification step for identifying the type of the input pattern by performing an inner product operation of the identification vector acquired in the identification vector acquisition step and the feature vector extracted in the feature extraction step;
A pattern identification method.
前記参照テーブルが、前記識別ベクトルの基となる前記高次元特徴ベクトルの各成分の値に対応し、前記特徴空間における同一の分割領域に属する特徴ベクトルから生成された高次元特徴ベクトルで同一の値をとるインデックス値を、識別ベクトルのインデックスとして記述したものであるとき、
前記識別ベクトル取得ステップは、
前記高次元特徴ベクトルと同様の次元拡張を前記特徴抽出ステップで抽出した特徴ベクトルに対して行った場合の前記インデックス値を算出するインデックス算出ステップと、
前記インデックス算出ステップで算出したインデックス値を前記参照テーブルで検索するインデックス検索ステップと、
を有する請求項12記載のパターン識別方法。
The reference table corresponds to the value of each component of the high-dimensional feature vector that is the basis of the identification vector, and has the same value in the high-dimensional feature vector generated from the feature vectors belonging to the same divided area in the feature space When the index value that takes is described as the index of the identification vector,
The identification vector acquisition step includes
An index calculation step for calculating the index value when the same dimension extension as the high-dimensional feature vector is performed on the feature vector extracted in the feature extraction step;
An index search step of searching the reference table for the index value calculated in the index calculation step;
The pattern identification method according to claim 12, comprising:
学習サンプルから所定の次元の特徴ベクトルを抽出するサンプル特徴抽出ステップと、
特徴ベクトルの成分を線形結合して次元を拡張した高次元特徴ベクトルを生成する次元拡張ステップと、
高次元特徴ベクトルに基づいてパターンの種類を識別するための高次元識別ベクトルを生成する識別ベクトル学習ステップと、
高次元識別ベクトルの次元を縮退して前記所定の次元の識別ベクトルを生成し、特徴空間を分割した複数の分割領域のうち、基となる特徴ベクトルが属する分割領域と対応付けて前記識別ベクトルを記述した参照テーブルを作成する次元縮退ステップと、
入力パターンから前記所定の次元の特徴ベクトルを抽出する特徴抽出ステップと、
参照テーブルから前記特徴抽出ステップで抽出した特徴ベクトルが属する分割領域に対応する識別ベクトルを取得する識別ベクトル取得ステップと、
前記識別ベクトル取得ステップで取得した識別ベクトルと前記特徴抽出ステップで抽出した特徴ベクトルとの内積演算を実行して前記入力パターンの種類を識別するパターン識別ステップと、
を有するパターン識別方法。
A sample feature extraction step for extracting a feature vector of a predetermined dimension from the learning sample;
A dimension extension step for generating a high-dimensional feature vector by extending the dimensions by linearly combining the components of the feature vector;
An identification vector learning step for generating a high-dimensional identification vector for identifying a pattern type based on the high-dimensional feature vector;
A dimension of a high-dimensional identification vector is reduced to generate an identification vector of the predetermined dimension, and among the plurality of divided areas obtained by dividing the feature space, the identification vector is associated with a divided area to which a base feature vector belongs. A dimension reduction step to create the described reference table;
A feature extraction step of extracting a feature vector of the predetermined dimension from an input pattern;
An identification vector obtaining step for obtaining an identification vector corresponding to a divided region to which the feature vector extracted in the feature extraction step belongs from a reference table;
A pattern identification step for identifying the type of the input pattern by performing an inner product operation of the identification vector acquired in the identification vector acquisition step and the feature vector extracted in the feature extraction step;
A pattern identification method.
JP2006286653A 2006-10-20 2006-10-20 Pattern identification device and pattern identification method Pending JP2008102856A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006286653A JP2008102856A (en) 2006-10-20 2006-10-20 Pattern identification device and pattern identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006286653A JP2008102856A (en) 2006-10-20 2006-10-20 Pattern identification device and pattern identification method

Publications (1)

Publication Number Publication Date
JP2008102856A true JP2008102856A (en) 2008-05-01

Family

ID=39437121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006286653A Pending JP2008102856A (en) 2006-10-20 2006-10-20 Pattern identification device and pattern identification method

Country Status (1)

Country Link
JP (1) JP2008102856A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018166273A1 (en) * 2017-03-17 2018-09-20 北京京东尚科信息技术有限公司 Method and apparatus for matching high-dimensional image feature
JP2019057139A (en) * 2017-09-21 2019-04-11 日本電気株式会社 Operation management system, monitoring server, method and program
US11049045B2 (en) 2015-11-18 2021-06-29 Honda Motor Co., Ltd. Classification apparatus, robot, and classification method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11049045B2 (en) 2015-11-18 2021-06-29 Honda Motor Co., Ltd. Classification apparatus, robot, and classification method
WO2018166273A1 (en) * 2017-03-17 2018-09-20 北京京东尚科信息技术有限公司 Method and apparatus for matching high-dimensional image feature
US11210555B2 (en) 2017-03-17 2021-12-28 Beijing Jingdong Shangke Information Technology Co., Ltd. High-dimensional image feature matching method and device
JP2019057139A (en) * 2017-09-21 2019-04-11 日本電気株式会社 Operation management system, monitoring server, method and program

Similar Documents

Publication Publication Date Title
CN105741312B (en) Destination object tracking and equipment
CN104200228B (en) Recognizing method and system for safety belt
JP2006172437A (en) Method for determining position of segment boundary in data stream, method for determining segment boundary by comparing data subset with vicinal data subset, program of instruction executable by computer, and system or device for identifying boundary and non-boundary in data stream
EP2234388B1 (en) Object detection apparatus and method
JP6511982B2 (en) Driving operation discrimination device
Al-Qershi et al. Enhanced block-based copy-move forgery detection using k-means clustering
CN111401099B (en) Text recognition method, device and storage medium
JP2011053953A (en) Image processing apparatus and program
US8027978B2 (en) Image search method, apparatus, and program
CN111753592A (en) Traffic sign recognition method, traffic sign recognition device, computer equipment and storage medium
JP2017084349A (en) Memory with set operation function and method for set operation processing using the memory
JP2009163682A (en) Image discrimination device and program
CN111325265B (en) Detection method and device for tampered image
CN112541394A (en) Black eye and rhinitis identification method, system and computer medium
CN112434555A (en) Key value pair region identification method and device, storage medium and electronic equipment
Ahmed et al. Traffic sign detection and recognition model using support vector machine and histogram of oriented gradient
JP2008102856A (en) Pattern identification device and pattern identification method
CN109685061A (en) The recognition methods of mathematical formulae suitable for structuring
CN113888586A (en) Target tracking method and device based on correlation filtering
KR101584091B1 (en) Multi-view object detection method using shared local features
CN112990368B (en) Polygonal structure guided hyperspectral image single sample identification method and system
CN113837015A (en) Face detection method and system based on feature pyramid
Santoshi et al. Pedestrian with direction detection using the combination of decision tree learning and SVM
CN111325194A (en) Character recognition method, device and equipment and storage medium
JP4396328B2 (en) Image similarity calculation system, image search system, image similarity calculation method, and image similarity calculation program