JP2008102856A - Pattern identification device and pattern identification method - Google Patents
Pattern identification device and pattern identification method Download PDFInfo
- Publication number
- JP2008102856A JP2008102856A JP2006286653A JP2006286653A JP2008102856A JP 2008102856 A JP2008102856 A JP 2008102856A JP 2006286653 A JP2006286653 A JP 2006286653A JP 2006286653 A JP2006286653 A JP 2006286653A JP 2008102856 A JP2008102856 A JP 2008102856A
- Authority
- JP
- Japan
- Prior art keywords
- vector
- identification
- feature
- dimensional
- feature vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、入力パターンの種類を識別するパターン識別装置およびパターン識別方法に係り、特に、学習サンプルの特徴量に基づいて生成された識別ベクトルを用いるパターン識別装置およびパターン識別方法に関する。 The present invention relates to a pattern identification device and a pattern identification method for identifying the type of an input pattern, and more particularly to a pattern identification device and a pattern identification method using an identification vector generated based on a feature amount of a learning sample.
パターン識別の技術は、画像解析や音声解析など、様々な分野で利用されている。多くのパターン識別では、まず、区分けしようとするパターンの種類(以下「クラス」という)ごとにパターンの学習サンプルを用意し、学習サンプルから特徴量を抽出して、抽出した特徴量に基づいて識別ベクトルを生成する(たとえば非特許文献1参照)。以下、この処理を「学習」という。そして、パターン識別の対象となる入力パターンから特徴量を抽出し、学習段階で生成した識別ベクトルを用いて、入力パターンがいずれのクラスに属するかを判定する。以下、この処理を「識別」という。 Pattern identification technology is used in various fields such as image analysis and voice analysis. In many pattern identifications, first, a pattern learning sample is prepared for each type of pattern to be classified (hereinafter referred to as a “class”), and feature quantities are extracted from the learning samples and identified based on the extracted feature quantities. A vector is generated (see, for example, Non-Patent Document 1). Hereinafter, this process is referred to as “learning”. Then, a feature amount is extracted from the input pattern to be subjected to pattern identification, and it is determined to which class the input pattern belongs using the identification vector generated in the learning stage. Hereinafter, this process is referred to as “identification”.
従来のパターン識別では、学習段階と識別段階とで、同じ次元空間を用いる。高次元空間を用いる場合、高い精度で学習を行うことができるというメリットがある。また、低次元空間を用いる場合、識別段階で行われる内積演算を高速化することができるというメリットがある。
しかしながら、一方では、高次元空間を用いる場合、識別段階で行われる内積演算に時間が掛かり、識別処理速度が低下するという問題がある。また、低次元空間を用いる場合、学習サンプルのパターンの学習が困難となり、高次元空間を用いた場合と同等の識別精度を得るためには識別ベクトルの複雑なセットが必要となり、やはり識別処理速度が低下するという問題がある。 However, on the other hand, when a high-dimensional space is used, there is a problem that the inner product calculation performed in the identification stage takes time, and the identification processing speed decreases. In addition, when using a low-dimensional space, it becomes difficult to learn the pattern of the learning sample, and a complicated set of identification vectors is required to obtain the same classification accuracy as when using a high-dimensional space. There is a problem that decreases.
リアルタイムアプリケーションや、リソースの限られたアプリケーションにおいては、演算負荷の高い処理や、多くのメモリを必要とする処理を実行することは難しい。したがって、できるだけ演算負荷を抑えた状態でより高精度なパターン識別を実現できることが望ましい。 In a real-time application or an application with limited resources, it is difficult to execute a process with a high calculation load or a process that requires a lot of memory. Therefore, it is desirable that more accurate pattern identification can be realized with the calculation load suppressed as much as possible.
本発明は、かかる点に鑑みてなされたものであり、より少ない演算負荷で、高精度にパターンのクラスを識別することができるパターン識別装置およびパターン識別方法を提供する。 The present invention has been made in view of this point, and provides a pattern identification apparatus and a pattern identification method that can identify a class of a pattern with high accuracy with a smaller calculation load.
本発明のパターン識別装置は、入力パターンから特徴ベクトルを抽出する特徴抽出部と、入力パターンの種類を識別するための識別ベクトルと、特徴空間を分割した分割領域と、を対応付けて記述した参照テーブルから、前記特徴抽出部により抽出される特徴ベクトルが属する分割領域に対応する識別ベクトルを取得し、取得した識別ベクトルと前記入力パターンの特徴ベクトルとの内積演算を実行して前記入力パターンの種類を識別する識別部とを具備する構成を採る。 The pattern identification device of the present invention is a reference in which a feature extraction unit that extracts a feature vector from an input pattern, an identification vector for identifying the type of the input pattern, and a divided region obtained by dividing the feature space are associated with each other From the table, an identification vector corresponding to the divided region to which the feature vector extracted by the feature extraction unit belongs is obtained, and an inner product operation between the acquired identification vector and the feature vector of the input pattern is executed, and the type of the input pattern And a discriminating unit for identifying the.
また、本発明のパターン識別装置は、学習サンプルから所定の次元の特徴ベクトルを抽出するサンプル特徴抽出部と、前記学習サンプルの特徴ベクトルの成分を線形結合して次元を拡張した高次元特徴ベクトルを生成する次元拡張部と、高次元特徴ベクトルに基づいてパターンの種類を識別するための高次元識別ベクトルを生成する識別ベクトル学習部と、高次元識別ベクトルの次元を縮退して前記所定の次元の識別ベクトルを生成し、特徴空間を分割した複数の分割領域のうち、基となる特徴ベクトルが属する分割領域と対応付けて前記識別ベクトルを記述した参照テーブルを作成する次元縮退部と、を有する学習部と、入力パターンから前記所定の次元の特徴ベクトルを抽出する特徴抽出部と、前記学習装置が作成した参照テーブルから前記入力パターンの特徴ベクトルが属する分割領域に対応する識別ベクトルを取得し、取得した識別ベクトルと前記入力パターンの特徴ベクトルとの内積演算を実行して前記入力パターンの種類を識別する線形識別部と、を有するパターン識別部とを具備する構成を採る。 Further, the pattern identification device of the present invention includes a sample feature extraction unit that extracts a feature vector of a predetermined dimension from a learning sample, and a high-dimensional feature vector in which the dimension is expanded by linearly combining the feature vector components of the learning sample. A dimension extension unit to generate, an identification vector learning unit for generating a high-dimensional identification vector for identifying a pattern type based on a high-dimensional feature vector, and a dimension of the predetermined dimension by degenerating the dimension of the high-dimensional identification vector A dimension reduction unit that generates an identification vector and creates a reference table describing the identification vector in association with a divided region to which a base feature vector belongs among a plurality of divided regions obtained by dividing the feature space. A feature extraction unit that extracts a feature vector of the predetermined dimension from an input pattern, and a reference table created by the learning device A linear identification unit that acquires an identification vector corresponding to a divided region to which the feature vector of the input pattern belongs, and that performs an inner product operation of the acquired identification vector and the feature vector of the input pattern to identify the type of the input pattern; And a pattern identification unit having
本発明のパターン識別方法は、入力パターンから特徴ベクトルを抽出する特徴抽出ステップと、入力パターンの種類を識別するための識別ベクトルと、特徴空間を分割した分割領域と、を対応付けて記述した参照テーブルから、前記特徴抽出ステップで抽出した特徴ベクトルが属する分割領域に対応する識別ベクトルを取得する識別ベクトル取得ステップと、前記識別ベクトル取得ステップで取得した識別ベクトルと前記特徴抽出ステップで抽出した特徴ベクトルとの内積演算を実行して、前記入力パターンの種類を識別するパターン識別ステップとを有するようにした。 In the pattern identification method of the present invention, a feature extraction step for extracting a feature vector from an input pattern, an identification vector for identifying the type of the input pattern, and a divided region obtained by dividing the feature space are described in association with each other An identification vector acquisition step for acquiring an identification vector corresponding to a divided region to which the feature vector extracted in the feature extraction step belongs, a discrimination vector acquired in the identification vector acquisition step, and a feature vector extracted in the feature extraction step. And a pattern identification step for identifying the type of the input pattern.
また、本発明のパターン識別方法は、学習サンプルから所定の次元の特徴ベクトルを抽出するサンプル特徴抽出ステップと、特徴ベクトルの成分を線形結合して次元を拡張した高次元特徴ベクトルを生成する次元拡張ステップと、高次元特徴ベクトルに基づいてパターンの種類を識別するための高次元識別ベクトルを生成する識別ベクトル学習ステップと、高次元識別ベクトルの次元を縮退して前記所定の次元の識別ベクトルを生成し、特徴空間を分割した複数の分割領域のうち、基となる特徴ベクトルが属する分割領域と対応付けて前記識別ベクトルを記述した参照テーブルを作成する次元縮退ステップと、入力パターンから前記所定の次元の特徴ベクトルを抽出する特徴抽出ステップと、参照テーブルから前記特徴抽出ステップで抽出した特徴ベクトルが属する分割領域に対応する識別ベクトルを取得する識別ベクトル取得ステップと、前記識別ベクトル取得ステップで取得した識別ベクトルと前記特徴抽出ステップで抽出した特徴ベクトルとの内積演算を実行して前記入力パターンの種類を識別するパターン識別ステップとを有するようにした。 In addition, the pattern identification method of the present invention includes a sample feature extraction step for extracting a feature vector of a predetermined dimension from a learning sample, and a dimension extension for generating a high-dimensional feature vector by extending the dimension by linearly combining the components of the feature vector An identification vector learning step for generating a high-dimensional identification vector for identifying a pattern type based on the high-dimensional feature vector, and generating the identification vector of the predetermined dimension by degenerating the dimension of the high-dimensional identification vector A dimension reduction step of creating a reference table describing the identification vector in association with a divided region to which a base feature vector belongs among a plurality of divided regions obtained by dividing the feature space; and the predetermined dimension from an input pattern A feature extraction step for extracting feature vectors of the feature and a feature extraction step from the reference table An identification vector acquisition step for acquiring an identification vector corresponding to a divided region to which the feature vector belongs, an inner product operation of the identification vector acquired in the identification vector acquisition step and the feature vector extracted in the feature extraction step, and the input And a pattern identification step for identifying the type of pattern.
本発明によれば、より少ない演算負荷で、高精度にパターンの種類を識別することができる。すなわち、特徴空間における特徴ベクトルが属する領域ごとに識別ベクトルを使い分けることができるため、たとえば、学習段階で得た高次元の識別ベクトルを、特徴ベクトルが属する領域ごとに識別精度を保った状態で低次元化し、低次元化された識別ベクトルのうち適切なものを用いてパターン識別を実施することが可能となる。 According to the present invention, the type of pattern can be identified with high accuracy with a smaller calculation load. In other words, since the identification vector can be selectively used for each region to which the feature vector belongs in the feature space, for example, a high-dimensional identification vector obtained in the learning stage is reduced in a state where the identification accuracy is maintained for each region to which the feature vector belongs. Pattern identification can be performed using an appropriate one of the dimensionalized and reduced dimension identification vectors.
以下、本発明の一実施の形態について、図面を参照して詳細に説明する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
図1は、本発明の一実施の形態に係るパターン識別システムの構成を示すブロック図である。 FIG. 1 is a block diagram showing a configuration of a pattern identification system according to an embodiment of the present invention.
図1において、パターン識別システム100は、学習装置200、情報格納装置300、および識別装置400を有する。このパターン識別システム100は、入力画像のパターンを識別することによって入力画像からオブジェクトを検出する装置であり、たとえば、車の後方に人がいないかどうかをカメラ画像から判別する事故防止システムに用いられるものである。以下、オブジェクト検出のためにあらかじめ定められたパターンの種類をクラスという。
In FIG. 1, the
学習装置200は、入力画像のクラスを識別するための識別ベクトルの学習を行う。学習装置200は、サンプル特徴抽出部210、次元拡張部220、識別ベクトル学習部230、および次元縮退部240を有する。
The
サンプル特徴抽出部210は、クラスごとに用意された画像の学習サンプルから特徴を抽出して低次元の特徴ベクトル(以下「低次元特徴ベクトル」という)を生成し、次元拡張部220へ出力する。
The sample
次元拡張部220は、低次元特徴ベクトルの次元を拡張させて高次元の特徴ベクトル(以下「高次元特徴ベクトル」)を生成し、識別ベクトル学習部230へ出力する。
The
識別ベクトル学習部230は、高次元特徴ベクトルに基づいて高次元の識別ベクトル(以下「高次元識別ベクトル」という)を生成し、次元縮退部240へ出力する。
The identification
次元縮退部240は、高次元識別ベクトルの次元を縮退させて低次元の識別ベクトル(以下「低次元識別ベクトル」)を複数生成し、生成した低次元識別ベクトルを記述した参照テーブルを生成する。そして、次元縮退部240は、生成した参照テーブルを、情報格納装置300に格納する。
The
情報格納装置300は、フラッシュメモリなどの情報記録媒体を備えており、学習装置200によって格納された参照テーブルを保持する。
The
識別装置400は、学習装置200による学習結果である参照テーブルを用いて、入力画像のクラスを識別する。識別装置400は、画像特徴抽出部410、インデックス算出部420、および線形識別器430を有する。
The
画像特徴抽出部410は、入力画像の特徴を抽出して低次元特徴ベクトルを生成し、インデックス算出部420および線形識別器430のそれぞれへ出力する。
The image
インデックス算出部420は、低次元特徴ベクトルに基づいて、情報格納装置300に格納されている参照テーブルを検索するための数値である参照テーブルインデックス(以下単に「インデックス値」という)を算出し、算出したインデックス値を線形識別器430へ出力する。
The
線形識別器430は、インデックス値を用いて参照テーブルから適切な低次元識別ベクトルを検索し、検索した低次元識別ベクトルを用いて低次元特徴ベクトルのクラスを識別して、入力画像の識別結果として出力する。
The
図1に示す学習装置200および識別装置400は、図示しないが、それぞれCPU(central processing unit)、制御プログラムを格納したROM(read only memory)などの記憶媒体、RAM(random access memory)などの作業用メモリを有する。すなわち、それぞれのCPUが制御プログラムを実行することで、上記した各部の機能は実現される。
The
たとえば、上記した車の事故防止システムに本実施の形態のパターン識別システム100を適用する場合、学習結果は同タイプの車に共通で使用することができる。このため、学習装置200は車の生産者側に配置され、参照テーブルを格納済みの情報格納装置300および識別装置400は個々の車本体に配置される。
For example, when the
まず、学習装置200の各部の動作について、詳細に説明を行う。
First, the operation of each unit of the
学習段階において、学習サンプルが、学習装置200のサンプル特徴抽出部210へ入力される。学習サンプルは、複数のピクセルにより構成されるディジタル画像データであり、クラスごとに用意される。たとえば、上記した監視カメラの例では、人物が映っている画像の画像サンプル群と、人物が映っていない画像サンプル群とが用意され、それぞれを別のクラスに属する画像としてサンプル特徴抽出部210へ入力される。
In the learning stage, the learning sample is input to the sample
ここでは、画像に存在するエッジを検出し、画像全体におけるエッジ方向の分布情報を用いて、画像に人物が映っているか否かを判別する場合を例として説明を行う。したがって、サンプル特徴抽出部210は、エッジ方向の分布情報に対応する特徴量を、学習サンプルから抽出する。
Here, an example will be described in which an edge existing in an image is detected and it is determined whether or not a person is reflected in the image using edge direction distribution information in the entire image. Therefore, the sample
ここでは、水平方向または垂直方向においてピクセル値の変化の度合い(勾配)が大きい部分を、画像のエッジ部分として扱う。サンプル特徴抽出部210は、学習サンプルの各ピクセル位置に対して、水平方向におけるピクセル値の差(以下単に「水平勾配」という)、および垂直方向におけるピクセル値の差(以下単に「垂直勾配」という)を求める。水平勾配Dxおよび垂直勾配Dyは、ピクセル位置(x,y)におけるピクセル値をPx,yとすると、たとえば、それぞれ以下の式(1)、(2)に従って算出することができる。
Dx = Px+1,y − Px−1,y ・・・・・・(1)
Dy = Px,y+1− Px,y−1 ・・・・・・(2)
Here, a portion where the degree of change (gradient) in the pixel value in the horizontal direction or the vertical direction is large is treated as an edge portion of the image. The sample
Dx = Px + 1, y - Px -1, y (1)
D y = P x, y + 1 −P x, y−1 (2)
これら水平勾配Dxおよび垂直勾配Dyは、正と負のいずれであるかによって、ピクセル値の変化の向きをも示す値となる。サンプル特徴抽出部210は、エッジの方向を示す情報を保持した状態で、ピクセル値の変化の向きを示す情報を除去するために、水平勾配Dxおよび垂直勾配Dyを、以下に示すアルゴリズム(3)を用いて、Gx+‐Gx−‐Gy空間へ写像する。
if (Dy = 0)
Gx = abs(Dx);
else if (Dy < 0)
Gx = −Dx;
else
Gx = Dx;
Gy = abs(Dy);
if (Gx > 0)
Gx+ = Gx;
Gx− = 0;
else
Gx+ = 0;
Gx− = −Gx; ……(3)
These horizontal gradient Dx and vertical gradient Dy are values indicating the direction of change in pixel value depending on whether the gradient is positive or negative. In order to remove the information indicating the change direction of the pixel value while holding the information indicating the direction of the edge, the sample
if (Dy = 0)
Gx = abs (Dx);
else if (Dy <0)
Gx = −Dx;
else
Gx = Dx;
Gy = abs (Dy);
if (Gx> 0)
Gx + = Gx;
Gx− = 0;
else
Gx + = 0;
Gx − = − Gx; (3)
図2は、サンプル特徴抽出部210による特徴量の写像の様子を示す説明図である。サンプル特徴抽出部210は、Dx‐Dy空間211に特徴量として一連の点を得たとき、まずGy‐Gx空間212へ変換し、最終的にGx +‐Gx −‐Gy空間213へと変換する。
FIG. 2 is an explanatory diagram showing how the feature amount is mapped by the sample
サンプル特徴抽出部210は、Dx‐Dy空間211におけるβ(β<180)度の勾配と、(180−β)度の勾配とを区別するため、Gxを、Gx +とGx -とに分けるようにしている。たとえば、Dx‐Dy空間211における45度の勾配と135度の勾配は、Gx +‐Gx −‐Gy空間213では、区別して扱われる。これにより、画像のエッジの方向を右上がりと左上がりとで区別することができる。
The sample
一方、サンプル特徴抽出部210は、Gx +の値をとるかGx -の値をとるかによって、エッジの方向が右上がりか左上がりかを区別できるため、GyについてはGxのように分けない。すなわち、サンプル特徴抽出部210は、β度の勾配と(180+β)度の勾配とを区別しない。たとえば、Gx +‐Gx −‐Gy空間213では、Dx‐Dy空間211における45度の勾配と225度の勾配は同様に扱われる。
On the other hand, the sample
このように、サンプル特徴抽出部210は、学習サンプルのそれぞれのピクセル位置に対して、Gx +‐Gx −‐Gy空間213での座標を、調整勾配Gx +、Gx -、およびGyとして算出する。調整勾配Gx +、Gx -、およびGyは、学習サンプルの各ピクセル位置におけるエッジの有無およびエッジの方向に対応した値となる。
Thus, the sample
サンプル特徴抽出部210は、算出した調整勾配Gx +、Gx -、およびGyから、3つの学習サンプルの特徴量x0、x1、x2を決定する。ここでは、サンプル特徴抽出部210は、たとえば、学習サンプルの画像全体についてのエッジ方向の分布情報を特徴量として抽出する関数Fを用いて、以下の式(4)〜(6)に従って学習サンプルの特徴量x0、x1、x2を算出する。
x0 = F(Gx +) ……(4)
x1 = F(Gx −) ……(5)
x2 = F(Gy) ……(6)
The sample
x 0 = F (G x + ) ...... (4)
x 1 = F (G x − ) (5)
x 2 = F (G y ) (6)
さらに、サンプル特徴抽出部210は、特徴量x0〜x2を用いて、以下の式(7)に従って低次元特徴ベクトルxを生成する。
x=[x0 x1 x2]T ……(7)
Furthermore, the sample
x = [x 0 x 1 x 2 ] T (7)
各ピクセル位置のGx +‐Gx −‐Gy空間213における勾配は、そのピクセル位置におけるエッジの方向に対応し、その値はエッジの強さに対応している。したがって、低次元特徴ベクトルxは、学習サンプルの画像全体におけるエッジ方向の分布情報を示す特徴ベクトルとなる。 The gradient in the G x + -G x -- G y space 213 at each pixel position corresponds to the edge direction at that pixel position, and its value corresponds to the edge strength. Therefore, the low-dimensional feature vector x is a feature vector indicating distribution information in the edge direction in the entire learning sample image.
サンプル特徴抽出部210は、生成した低次元特徴ベクトルxを、図1に示す次元拡張部220へ出力する。
The sample
次元拡張部220は、低次元特徴ベクトルxの成分である特徴量x0〜x2を線形結合することにより、低次元特徴ベクトルxよりも次元を拡張した高次元特徴ベクトルを、拡張部分が対象対かつスパースベクトルとなるように生成する。具体的には、次元拡張部220は、以下の式(8)を用いて、拡張された特徴量(以下「拡張特徴量」という)を生成する。
z0 = x0
z1 = x1
z2 = x2
z3 = f(z0−z2)
z4 = f(−z0+z2)
z5 = f(z1−z2)
z6 = f(−z1+z2)
z7 = f(2z0−z2)
z8 = f(-2z0+z2)
z9 = f(2z1−z2)
z10 = f(−2z1+z2)
z11 = f(z0−2z2)
z12 = f(−z0+2z2)
z13 = f(z1−2z2)
z14 = f(−z1+2z2) ……(8)
The
z 0 = x 0
z 1 = x 1
z 2 = x 2
z 3 = f (z 0 -z 2)
z 4 = f (−z 0 + z 2 )
z 5 = f (z 1 -z 2)
z 6 = f (−z 1 + z 2 )
z 7 = f (2z 0 -z 2)
z 8 = f (-2z 0 + z 2)
z 9 = f (2z 1 -z 2)
z 10 = f (-2z 1 + z 2)
z 11 = f (z 0 -2z 2)
z 12 = f (-z 0 + 2z 2)
z 13 = f (z 1 -2z 2)
z 14 = f (-z 1 + 2z 2) ...... (8)
ただし、関数f(α)は、数学的に、以下の式(9)で表されるものとする。
f(α) = α (α>0)
f(α) = 0 (α≦0) ……(9)
However, the function f (α) is mathematically expressed by the following formula (9).
f (α) = α (α> 0)
f (α) = 0 (α ≦ 0) (9)
そして、次元拡張部220は、生成した拡張特徴量z0〜z14を用いて、以下の式(10)に従って高次元特徴ベクトルzを生成する。
z = [z0 z1 z2 … z12 z13 z14]T ……(10)
Then, the
z = [z 0 z 1 z 2 ... z 12 z 13 z 14 ] T (10)
このようにして生成される15次元の高次元特徴ベクトルzは、関数f(α)により、その成分の約半分が値「0」であるスパースベクトルとなる。また、高次元特徴ベクトルzの各成分は、いずれも負の値ではなく、ほとんどが、一方が値「0」のときに他方が「0」以上となる対象対となる。たとえば、z0>z2の場合には、z3 = z0−z2>0、z4 = 0であり、逆にz0≦z2の場合には、z3 = 0、z4 = z2−z0>0である。 The 15-dimensional high-dimensional feature vector z generated in this way is a sparse vector in which about half of its components are the value “0” by the function f (α). In addition, each component of the high-dimensional feature vector z is not a negative value, and most of the components are target pairs in which one is a value “0” and the other is “0” or more. For example, when z 0 > z 2 , z 3 = z 0 −z 2 > 0 and z 4 = 0, and conversely when z 0 ≦ z 2 , z 3 = 0 and z 4 = z 2 −z 0 > 0.
なお、次元拡張部220は、式(8)〜(10)を用いて生成したベクトルを正規化し、正規化されたベクトルを高次元特徴ベクトルzとして出力するようにしてもよい。この正規化は、具体的には、式(8)〜(10)を用いて生成したベクトルの各成分を、ベクトルの成分の合計で除することによって実現される。
Note that the
式(8)から明らかなように、特徴空間であるGx +‐Gx −‐Gy空間213における低次元特徴ベクトルxの勾配に応じて、つまり特徴空間を分割した複数の分割領域のうちいずれの分割領域に低次元特徴ベクトルxが属するかによって、拡張特徴量z0〜z14の値は変化する。また、上記したように、低次元特徴ベクトルxの特徴空間における勾配は、学習サンプルの画像全体におけるエッジ方向の分布情報に対応している。すなわち、高次元特徴ベクトルzは、学習サンプルの画像全体におけるエッジ方向の分布を示す情報となる。 As apparent from the equation (8), according to the gradient of the low-dimensional feature vector x in the G x + -G x -- G y space 213 that is the feature space, that is, among the plurality of divided regions obtained by dividing the feature space. Depending on which divided region the low-dimensional feature vector x belongs to, the values of the extended feature quantities z 0 to z 14 change. As described above, the gradient in the feature space of the low-dimensional feature vector x corresponds to the edge direction distribution information in the entire learning sample image. That is, the high-dimensional feature vector z is information indicating the distribution of the edge direction in the entire learning sample image.
次に、識別ベクトル学習部230は、学習サンプルから得られた高次元特徴ベクトルzに基づいて、入力画像のクラスを識別するための高次元識別ベクトルを学習する。ここで、高次元識別ベクトルの学習とは、クラスごとに、そのクラスに属する画像から抽出された高次元特徴ベクトルzを識別するための線形識別関数を学習し、その重みパラメータを高次元識別ベクトルの成分として決定することである。このような線形識別関数の決定手法としては、各種の既知の技術を適用することが可能である。
Next, the identification
具体的には、識別ベクトル学習部230は、たとえば、アダブースト(AdaBoost)アルゴリズムを実行すればよい。アダブーストアルゴリズムの詳細については、たとえば、Paul Viola and MICHAEL JONES, “Robust Real‐time Object Detection”, International Journal of Computer Vision, 2002 に記載されているため、ここでの説明を省略する。
Specifically, the identification
識別ベクトル学習部230で生成される高次元識別ベクトルbは、以下の式(11)で示すことができる。
b = [b0 b1 b2 … b12 b13 b14]T ……(11)
The high-dimensional identification vector b generated by the identification
b = [b 0 b 1 b 2 ... b 12 b 13 b 14 ] T (11)
ここで、従来のパターン識別で実行されるパターン識別について説明する。従来のパターン識別では、学習段階で仮に上記した高次元識別ベクトルbが生成されたとすると、識別結果yを得るために、識別段階において以下の式(12)に示す内積演算が実行される。
y = z・b
= [z0 z1 z2 … z12 z13 z14]T
・[b0 b1 b2 … b12 b13 b14]T
= z0b0+z1b1+ … +z14b14 ……(12)
Here, the pattern identification performed by the conventional pattern identification will be described. In conventional pattern identification, if the above-described high-dimensional identification vector b is generated in the learning stage, an inner product operation shown in the following equation (12) is executed in the identification stage in order to obtain the identification result y.
y = z · b
= [Z 0 z 1 z 2 ... z 12 z 13 z 14 ] T
[B 0 b 1 b 2 ... b 12 b 13 b 14 ] T
= Z 0 b 0 + z 1 b 1 + ... + z 14 b 14 ...... (12)
すなわち、従来のパターン識別では、15次元の内積演算が実行される。ところが、上記したように、このような高次元の内積演算を行うと、識別処理に時間が掛かるという問題がある。一方で、たとえば低次元特徴ベクトルxから生成した低次元識別ベクトルを用いて同等の識別性能を得ようとしても、上記したように、やはり識別処理に時間が掛かってしまう。 That is, in conventional pattern identification, a 15-dimensional inner product operation is executed. However, as described above, when such a high-dimensional inner product operation is performed, there is a problem that it takes time for the identification processing. On the other hand, for example, even if it is attempted to obtain the same identification performance using a low-dimensional identification vector generated from the low-dimensional feature vector x, as described above, the identification process still takes time.
そこで、本実施の形態のパターン識別システム100では、高次元特徴ベクトルzの各成分が特徴量x0、x1、およびx2の線形結合であることを利用して、高次元識別ベクトルbの次元を縮退させ、識別性能を維持した状態で識別処理の高速化を実現する。
Therefore, in the
たとえば、低次元特徴ベクトルxにおいて、x0> 2x2、x1 > 2x2のとき、拡張特徴量z0〜z14のうち、z4、z6、z8、z10、z12、およびz14は、関数f(α)により、それぞれ値「0」となる。したがって、識別結果yを算出するための式(12)は、以下に示す式(13)のように変形が可能である。
y = z・b
= z0b0+z1b1+z2b2+z3b3+z5b5+z7b7+z9b9+z11b11
+z13b13
= x0(b0+b3+b7+b11)+x1(b1+b5+b9+b13)+x2(b2−b3−b5−b7−b9−b11−b13)
= x0p0+x1p1+x2p2
= [x0 x1 x2]T・[p0 p1 p2]T
= x・p ……(13)
For example, in the low-dimensional feature vector x, when x 0 > 2x 2 and x 1 > 2x 2 , z 4 , z 6 , z 8 , z 10 , z 12 , and out of the extended feature quantities z 0 to z 14 , and z 14 is the function f (alpha), the respective value of "0". Therefore, the equation (12) for calculating the identification result y can be modified as the following equation (13).
y = z · b
= Z 0 b 0 + z 1 b 1 + z 2 b 2 + z 3 b 3 + z 5 b 5 + z 7 b 7 + z 9 b 9 + z 11 b 11
+ Z 13 b 13
= X 0 (b 0 + b 3 + b 7 + b 11) + x 1 (b 1 + b 5 + b 9 + b 13) + x 2 (b 2 -b 3 -b 5 -b 7 -b 9 -b 11 -b 13)
= X 0 p 0 + x 1 p 1 + x 2 p 2
= [X 0 x 1 x 2 ] T · [p 0 p 1 p 2 ] T
= X · p …… (13)
ただし、このとき、ベクトルpの各成分p0、p1、およびp2は、それぞれ以下の式(14)で示される値となる。
p0 = b0+b3+b7+b11
p1 = b1+b5+b9+b13
p2 = b2−b3−b5−b7−b9−b11−b13 ……(14)
However, at this time, each component p 0 , p 1 , and p 2 of the vector p has a value represented by the following expression (14).
p 0 = b 0 + b 3 + b 7 + b 11
p 1 = b 1 + b 5 + b 9 + b 13
p 2 = b 2 -b 3 -b 5 -b 7 -b 9 -b 11 -b 13 ...... (14)
すなわち、元の低次元特徴ベクトルxとベクトルpとの3次元の内積演算により、高次元特徴ベクトルzと高次元識別ベクトルbとの15次元の内積演算と同一の識別結果を得ることができる。低次元特徴ベクトルxとベクトルpとの内積演算を、従来の内積演算に置き換えることにより、識別性能を維持した状態で、識別段階における識別処理を格段に高速化できることは明らかである。 That is, the same identification result as the 15-dimensional inner product operation of the high-dimensional feature vector z and the high-dimensional identification vector b can be obtained by the three-dimensional inner product operation of the original low-dimensional feature vector x and the vector p. It is clear that the identification process in the identification stage can be significantly speeded up while maintaining the identification performance by replacing the inner product calculation of the low-dimensional feature vector x and the vector p with the conventional inner product calculation.
しかしながら、ベクトルpをその都度算出すると、識別処理を効果的に高速化することができない。一方で、ベクトルpは、上記したように、特徴空間における低次元特徴ベクトルxの属する分割領域(以下、単に「領域」という)に応じて異なる値をとる。そこで、本実施の形態のパターン識別システム100は、学習段階において、ベクトルpが異なる値をとる領域のすべてについてベクトルpの値をあらかじめ算出しておき、識別段階において、入力画像ごとに適切なベクトルpの値を用いる。高次元識別ベクトルbを基に構築した3次元のベクトルpを、以下、低次元識別ベクトルpという。
However, if the vector p is calculated each time, the identification process cannot be effectively accelerated. On the other hand, as described above, the vector p takes different values depending on the divided region (hereinafter, simply referred to as “region”) to which the low-dimensional feature vector x belongs in the feature space. Therefore, the
学習装置200の次元縮退部240は、すべての低次元識別ベクトルpの値を特徴空間の領域に対応付けて記述した参照テーブルを生成する。
The
図3は、次元縮退部240によって生成される参照テーブルの内容を示す説明図である。
FIG. 3 is an explanatory diagram showing the contents of the reference table generated by the
図3に示すように、参照テーブル350は、参照テーブルインデックス、低次元識別ベクトルpの成分p0、p1、およびp2のフィールドを持つ複数のレコードから構成されている。参照テーブルインデックスには、6ビットの値が記述される。低次元識別ベクトルpの成分p0、p1、およびp2のフィールドには、図3に示す式を用いて算出される値がそれぞれ記述される。 As shown in FIG. 3, the reference table 350 is composed of a plurality of records having a reference table index, components p 0 , p 1 , and p 2 fields of the low-dimensional identification vector p. A 6-bit value is described in the reference table index. In the fields of the components p 0 , p 1 , and p 2 of the low-dimensional identification vector p, values calculated using the formula shown in FIG. 3 are described.
参照テーブル350の各レコードは、それぞれ特徴空間における異なる領域に対応し、それぞれ異なる値の低次元識別ベクトルpに対応している。なお、図3では、各レコードの低次元識別ベクトルpの成分p0〜p2には、算出に用いられる式を記載しているが、高次元識別ベクトルbの成分b0〜b14の値は既知であることから、実際には数値が記述されることはいうまでもない。 Each record of the reference table 350 corresponds to a different area in the feature space, and corresponds to a low-dimensional identification vector p having a different value. In FIG. 3, although the formulas used for calculation are described in the components p 0 to p 2 of the low-dimensional identification vector p of each record, the values of the components b 0 to b 14 of the high-dimensional identification vector b Needless to say, a numerical value is actually described because is already known.
参照テーブルインデックスは、識別装置400側で低次元識別ベクトルpを検索するためのキーとなる情報である。参照テーブルインデックスの値は、低次元識別ベクトルpの成分p0〜p2の算出に用いられる式に対応して設定されているが、これについては後に詳しく説明する。
The reference table index is information serving as a key for searching the low-dimensional identification vector p on the
次元縮退部240は、各レコードに数値を記述して参照テーブル350を生成すると、図1に示す情報格納装置300に格納する。
When the
次に、識別装置400の各部の動作について、詳細に説明を行う。
Next, the operation of each unit of the
識別段階では、クラス分類の対象となる画像が、サンプル特徴抽出部210へ入力される。この入力画像も、学習パターンと同様に、複数のピクセルにより構成されるディジタル画像データでる。
In the identification stage, an image to be classified is input to the sample
サンプル特徴抽出部210は、入力画像から特徴を抽出して低次元特徴ベクトルxを生成し、インデックス算出部420および線形識別器430へ出力する。この低次元特徴ベクトルxの生成処理は、上記したサンプル特徴抽出部210と同様であり、たとえば、上記した式(1)、(2)、アルゴリズム(3)〜(7)が用いられる。サンプル特徴抽出部210で生成される低次元特徴ベクトルxは、たとえば以下の式(15)で表される。
x=[x0 x1 x2]T ……(15)
The sample
x = [x 0 x 1 x 2 ] T (15)
インデックス算出部420は、低次元特徴ベクトルxを入力するごとに、線形識別器430が適切な低次元識別ベクトルpを検索するためのインデックス値を算出するインデックス算出処理を実行する。
Each time the low-dimensional feature vector x is input, the
図4は、インデックス算出部420によるインデックス算出処理の流れを示すフローチャートである。
FIG. 4 is a flowchart showing the flow of index calculation processing by the
ステップS1000において、インデックス算出部420は、インデックス値として6ビットを用意し、すべてのビットを値「0」に設定する。これにより、インデックス値は、初期状態として「000000」に設定される。また、インデックス算出部420は、低次元特徴ベクトルxから、特徴量x0〜x2を抽出する。
In step S1000, the
次に、ステップS1050において、インデックス算出部420は、特徴量x0が特徴量x2よりも大きいか否かを判断する。これは、特徴量x3と特徴量x4のどちらが値「0」であるかの判断と等価である。インデックス算出部420は、特徴量x0が特徴量x2よりも大きい場合には(S1050:YES)、ステップS1100へ進み、特徴量x0が特徴量x2以下の場合には(S1050:NO)、ステップS1100を経ずにそのままステップS1150へ進む。
Next, in step S1050, the
ステップS1100において、インデックス算出部420は、インデックス値の最初のビット(たとえば最下位ビット)を値「1」に設定し、ステップS1150へ進む。
In step S1100, the
ステップS1150において、インデックス算出部420は、特徴量x1が特徴量x2よりも大きいか否かを判断する。これは、特徴量x5と特徴量x6のどちらが値「0」であるかの判断と等価である。インデックス算出部420は、特徴量x1が特徴量x2よりも大きい場合には(S1150:YES)、ステップS1200へ進み、特徴量x1が特徴量x2以下の場合には(S1150:NO)、ステップS1200を経ずにそのままステップS1250へ進む。
In
ステップS1200において、インデックス算出部420は、インデックス値の2番目のビット(たとえば最下位から2番目のビット)を値「1」に設定し、ステップS1250へ進む。
In step S1200, the
ステップS1250において、インデックス算出部420は、特徴量x0の2倍が特徴量x2よりも大きいか否かを判断する。これは、特徴量x7と特徴量x8のどちらが値「0」であるかの判断と等価である。インデックス算出部420は、特徴量x0の2倍が特徴量x2よりも大きい場合には(S1250:YES)、ステップS1300へ進み、特徴量x0の2倍が特徴量x2以下の場合には(S1250:NO)、ステップS1300を経ずにそのままステップS1350へ進む。
In step S1250, the
ステップS1300において、インデックス算出部420は、インデックス値の3番目のビット(たとえば最下位から3番目のビット)を値「1」に設定し、ステップS1350へ進む。
In step S1300, the
ステップS1350において、インデックス算出部420は、特徴量x1の2倍が特徴量x2よりも大きいか否かを判断する。これは、特徴量x9と特徴量x10のどちらが値「0」であるかの判断と等価である。インデックス算出部420は、特徴量x1の2倍が特徴量x2よりも大きい場合には(S1350:YES)、ステップS1400へ進み、特徴量x1の2倍が特徴量x2以下の場合には(S1350:NO)、ステップS1400を経ずにそのままステップS1450へ進む。
In step S1350, the
ステップS1400において、インデックス算出部420は、インデックス値の4番目のビット(たとえば最下位から4番目のビット)を値「1」に設定し、ステップS1450へ進む。
In step S1400,
ステップS1450において、インデックス算出部420は、特徴量x0が特徴量x2の2倍よりも大きいか否かを判断する。これは、特徴量x11と特徴量x12のどちらが値「0」であるかの判断と等価である。インデックス算出部420は、特徴量x0が特徴量x2の2倍よりも大きい場合には(S1450:YES)、ステップS1500へ進み、特徴量x0が特徴量x2の2倍以下の場合には(S1450:NO)、ステップS1500を経ずにそのままステップS1550へ進む。
In step S1450, the
ステップS1500において、インデックス算出部420は、インデックス値の5番目のビット(たとえば最下位から5番目のビット)を値「1」に設定し、ステップS1550へ進む。
In step S1500, the
ステップS1550において、インデックス算出部420は、特徴量x1が特徴量x2の2倍よりも大きいか否かを判断する。これは、特徴量x13と特徴量x14のどちらが値「0」であるかの判断と等価である。インデックス算出部420は、特徴量x1が特徴量x2の2倍よりも大きい場合には(S1550:YES)、ステップS1600へ進み、特徴量x1が特徴量x2の2倍以下の場合には(S1550:NO)、ステップS1600を経ずにそのまま一連の処理を終了する。
In step S1550, the
ステップS1600において、インデックス算出部420は、インデックス値の6番目のビット(たとえば最上位ビット)を値「1」に設定し、一連の処理を終了する。
In step S1600, the
このようなインデックス算出処理によって算出されるインデックス値は、低次元特徴ベクトルxにおける値「0」の配置パターンに対応したものとなる。学習装置200の次元縮退部240は、図3に示す参照テーブル350を生成する際に、上記インデックス算出処理の結果と対応するように、あらかじめ参照テーブルインデックスの値と低次元識別ベクトルpの算出に用いる式とを対応付けている。したがって、ある低次元特徴ベクトルxから算出されたインデックス値に一致する参照テーブルインデックスに対応付けて記述された低次元識別ベクトルpは、その低次元特徴ベクトルxに適切なものとなっている。
The index value calculated by such an index calculation process corresponds to the arrangement pattern of the value “0” in the low-dimensional feature vector x. When generating the reference table 350 shown in FIG. 3, the
たとえば、低次元特徴ベクトルxにおいて、x0 > 2x2、x1> 2x2のとき、インデックス算出部420は、「111111」を設定する。また、既に説明したように、x0 > 2x2、x1 > 2x2のときには、識別結果yは、式(13)を用いて演算することができる。したがって、図3に示すように、参照テーブル350のうち、式(14)に示すベクトルpの各成分p0〜p2が記述された最下行のレコードには、参照テーブルインデックス「111111」が設定されている。
For example, in the low-dimensional feature vector x, when x 0 > 2x 2 and x 1 > 2x 2 , the
線形識別器430は、低次元インデックス算出部420からインデックス値を入力すると、情報格納装置300に格納された参照テーブル350の参照テーブルインデックスで、そのインデックス値を検索する。そして、該当するレコードの低次元識別ベクトルpを取得し、画像特徴抽出部410から入力された低次元特徴ベクトルxとの内積演算を実行し、識別結果を出力する。この識別結果は、上記したように、高次元特徴ベクトルzと高次元識別ベクトルbとの内積演算による識別結果と同一となる。
When the
このような参照テーブル350を用いる手法により、本実施の形態のパターン識別システム100では、15次元の特徴ベクトルを用いて学習を行うにもかかわらず、識別処理の際に必要な乗算演算および加算演算は、それぞれわずか3回ずつに抑えられている。これは、従来の手法では必要とされる乗算演算および加算演算の回数がそれぞれ15回であるのと比較して、大幅に演算付加を低減するものである。すなわち、本実施の形態のパターン識別システム100は、識別性能を維持した状態で、識別段階における識別処理を従来よりも格段に高速化することができる。
With the method using the reference table 350, the
なお、以上説明したパターン識別システム100では、画像全体から特徴を抽出するとしたが、これに限るものではない。たとえば、サンプル特徴抽出部210は、入力された学習サンプルの画像を、特徴の抽出の単位となる領域に分割し、分割領域ごとに特徴を抽出して低次元特徴ベクトルxを生成するようにしてもよい。
In the
以下、学習サンプルの画像を複数領域に分割して学習を行う場合について説明する。 Hereinafter, a case where learning is performed by dividing an image of a learning sample into a plurality of regions will be described.
図5は、学習サンプルの分割の様子の一例を示す説明図である。図5に示すように、サンプル特徴抽出部210は、学習サンプル500を、複数のサブブロック510により構成されるブロック520に分割する。ブロック520の個数および1つのブロック520を構成するサブブロック510の個数は、任意とすることができる。
FIG. 5 is an explanatory diagram showing an example of how learning samples are divided. As illustrated in FIG. 5, the sample
たとえば、ブロック520を32×32のピクセルサイズとし、各ブロック520を構成するサブブロック510の個数を2×2とすることができる。この場合、各サブブロック510は、16×16のピクセルサイズとなる。
For example, the
また、隣り合うブロック520で、それぞれのブロック520を構成する一部のサブブロック520が重なるように、学習サンプル500を分割してもよい。この場合、ブロック520が重なり合う部分に位置するサブブロック520は、複数のブロック520に属することになる。
Further, the
サンプル特徴抽出部210は、各ピクセル位置の調整勾配Gx +、Gx -、およびGyを算出した後、サブブロック510全体についてのエッジ方向の分布情報を示す低次元特徴ベクトルxを、たとえば上記した式(4)〜(7)を用いて生成する。
After calculating the adjustment gradients G x + , G x − , and G y of each pixel position, the sample
サンプル特徴抽出部210は、ブロック520レベルにおいて、同一ブロック520に属する各サブブロック510の高次元特徴ベクトルzを連結する。すなわち、図5に示すようにブロック520が2×2のサブブロック510により構成される場合には、高次元特徴ベクトルzは60次元となる。また、上記した式(8)に示す線形結合よりもさらに多くの線形結合を行うことによって、より多くの成分を有する高次元特徴ベクトルzを生成することも可能である。このように、複数のピクセルを含む領域単位で特徴量を抽出することにより、領域単位での識別処理が可能となる。ブロック520およびサブブロック510のサイズは、パターン識別の内容に応じて、適切な値を適用すればよい。
The sample
以上説明したように、本実施の形態によれば、学習段階において、特徴ベクトルを、成分の線形結合により次元を拡張し、高次元の特徴ベクトルから、クラスごとに特徴ベクトルを線形分離可能な高次元の識別ベクトルを生成する。そして、高次元の識別ベクトルの次元を縮退して低次元の識別ベクトルを生成するとともに、特徴空間における低次元の特徴ベクトルが属する領域と対応付けて設定したインデックス値を付して低次元の識別ベクトルを記述した参照テーブルを生成する。一方、識別段階において、入力画像から抽出した低次元の特徴ベクトルに基づいてインデックス値を算出し、参照テーブルでインデックス値を検索する。そして、該当する低次元の識別ベクトルを取得し、入力画像から抽出した低次元の特徴ベクトルとの内積演算を実行して識別結果を出力する。これにより、高次元空間で学習を行い、低次元空間で識別を行うことが可能となる。すなわち、より少ない演算負荷で、高精度にパターンのクラスを識別することができる。また、スパースなベクトルである高次元の特徴ベクトルを生成することにより、特徴ベクトルのある要素が「0」以上の値を持つかどうかを判別するだけでクラスの識別が可能となるため、識別性能を向上させることができる。さらに、ほとんどの成分が対称対である高次元の特徴ベクトルを生成することにより、インデックス値のビット数を最小限とすることができ、インデックス値を簡単に算出することができる。すなわち、識別処理のさらなる高速化を図ることができる。 As described above, according to the present embodiment, in the learning stage, the feature vector is expanded in dimension by linear combination of components, and the feature vector can be linearly separated for each class from the high-dimensional feature vector. Generate a dimensional identification vector. Then, the dimension of the high-dimensional identification vector is degenerated to generate a low-dimensional identification vector, and the low-dimensional identification is performed with an index value set in association with the region to which the low-dimensional feature vector belongs in the feature space. Generate a reference table describing vectors. On the other hand, in the identification stage, an index value is calculated based on a low-dimensional feature vector extracted from the input image, and the index value is searched with a reference table. Then, a corresponding low-dimensional identification vector is acquired, an inner product operation with a low-dimensional feature vector extracted from the input image is executed, and an identification result is output. As a result, learning can be performed in a high-dimensional space and identification can be performed in a low-dimensional space. That is, the pattern class can be identified with high accuracy with a smaller calculation load. In addition, by generating a high-dimensional feature vector that is a sparse vector, it becomes possible to identify a class simply by determining whether an element of the feature vector has a value of “0” or more. Can be improved. Furthermore, by generating a high-dimensional feature vector in which most components are symmetrical pairs, the number of bits of the index value can be minimized, and the index value can be easily calculated. That is, it is possible to further speed up the identification process.
なお、以上説明した実施の形態を、パターン識別システムを、車の前方の歩行者や他車をカメラ画像から検出するシステムや、運転者の顔の方向を検出するシステムに適用してもよい。 In addition, you may apply embodiment described above to the system which detects a pedestrian and other vehicles ahead of a vehicle from a camera image, and the system which detects a driver | operator's face direction.
また、以上説明した実施の形態では、画像データのピクセル値から特徴ベクトルを抽出する画像レベルのパターン認識について説明したが、音声データ、テキストデータ、その他のデータに対する各種のパターン認識に本発明を適用できることはいうまでもない。 In the above-described embodiments, image level pattern recognition for extracting feature vectors from pixel values of image data has been described. However, the present invention is applied to various pattern recognition for speech data, text data, and other data. Needless to say, it can be done.
さらに、参照テーブルを格納した情報格納部をインターネットなどのネットワーク上に配置し、ネットワークを介して識別装置を情報格納部にアクセスさせ、参照テーブルを取得して保持させるようにしてもよい。また、学習装置、情報格納部、および識別装置を1つの装置に組み込むことにより、パターン識別装置を構成することも可能である。 Furthermore, an information storage unit storing the reference table may be arranged on a network such as the Internet, and the identification device may access the information storage unit via the network to acquire and hold the reference table. It is also possible to configure a pattern identification device by incorporating the learning device, the information storage unit, and the identification device into one device.
本発明に係るパターン識別装置およびパターン識別方法は、より少ない演算負荷で、高精度にパターンのクラスを識別することができるパターン識別装置およびパターン識別方法として有用である。 The pattern identification device and the pattern identification method according to the present invention are useful as a pattern identification device and a pattern identification method that can identify a pattern class with high accuracy with a smaller calculation load.
100 パターン識別システム
200 学習装置
210 サンプル特徴抽出部
220 次元拡張部
230 識別ベクトル学習部
240 次元縮退部
300 情報格納装置
400 識別装置
410 画像特徴抽出部
420 インデックス算出部
430 線形識別器
DESCRIPTION OF
Claims (14)
入力パターンの種類を識別するための識別ベクトルと、特徴空間を分割した分割領域と、を対応付けて記述した参照テーブルから、前記入力パターンの特徴ベクトルが属する分割領域に対応する識別ベクトルを取得し、取得した識別ベクトルと前記入力パターンの特徴ベクトルとの内積演算を実行して前記入力パターンの種類を識別する識別部と、
を有するパターン識別装置。 A feature extraction unit for extracting feature vectors from the input pattern;
An identification vector corresponding to the divided region to which the feature vector of the input pattern belongs is obtained from a reference table in which an identification vector for identifying the type of the input pattern and a divided region obtained by dividing the feature space are described in association with each other. An identification unit that identifies the type of the input pattern by performing an inner product operation between the acquired identification vector and the feature vector of the input pattern;
A pattern identification device.
請求項1記載のパターン識別装置。 An information storage unit storing the reference table;
The pattern identification device according to claim 1.
前記参照テーブルを格納した情報格納装置にアクセスし、情報格納装置から参照テーブルを取得して保持する、
請求項1記載のパターン識別装置。 The identification unit is
Accessing the information storage device storing the reference table, obtaining and holding the reference table from the information storage device,
The pattern identification device according to claim 1.
前記参照テーブルに記述された識別ベクトルは、学習サンプルの特徴ベクトルの成分を線形結合することにより次元を拡張した高次元特徴ベクトルを生成し、高次元特徴ベクトルに基づいて生成された高次元識別ベクトルを前記所定の次元に縮退することによって得られたベクトルである、
請求項1記載のパターン識別装置。 The feature vector is a vector of a predetermined dimension,
The identification vector described in the reference table is a high-dimensional identification vector generated based on the high-dimensional feature vector by generating a high-dimensional feature vector with expanded dimensions by linearly combining the components of the feature vector of the learning sample. Is a vector obtained by reducing to the predetermined dimension,
The pattern identification device according to claim 1.
前記識別部は、
前記高次元特徴ベクトルと同様の次元拡張を前記入力パターンの特徴ベクトルに対して行った場合の前記インデックス値を算出するインデックス算出部と、
前記インデックス算出部が算出したインデックス値を前記参照テーブルで検索し、該当する識別ベクトルと前記入力パターンの特徴ベクトルとの内積演算を実行して前記入力パターンの種類を識別する線形識別器と、
を有する請求項4記載のパターン識別装置。 The reference table corresponds to the value of each component of the high-dimensional feature vector that is the basis of the identification vector, and has the same value in a high-dimensional feature vector generated from a feature vector belonging to the same divided region in the feature space. The index value that takes is described as the index of the identification vector,
The identification unit is
An index calculation unit that calculates the index value when the dimension extension similar to the high-dimensional feature vector is performed on the feature vector of the input pattern;
A linear discriminator for searching the index value calculated by the index calculation unit in the reference table, and performing an inner product operation of a corresponding identification vector and a feature vector of the input pattern to identify the type of the input pattern;
The pattern identification device according to claim 4, comprising:
前記特徴ベクトルは、入力画像に存在するエッジの方向に応じた成分を有する3次元のベクトルである、
請求項1記載のパターン識別装置。 The feature space is a three-dimensional space corresponding to the direction of edges existing in the image,
The feature vector is a three-dimensional vector having a component corresponding to the direction of an edge existing in the input image.
The pattern identification device according to claim 1.
学習サンプルから特徴ベクトルを抽出するサンプル特徴抽出部と、
前記学習サンプルの特徴ベクトルの成分を線形結合して次元を拡張した高次元特徴ベクトルを生成する次元拡張部と、
高次元特徴ベクトルに基づいて、パターンの種類を識別するための高次元識別ベクトルを生成する識別ベクトル学習部と、
高次元識別ベクトルを前記所定の次元に縮退して識別ベクトルを生成し、特徴空間を分割した複数の分割領域のうち、基となる特徴ベクトルが属する分割領域と対応付けて識別ベクトルを記述した参照テーブルを作成する次元縮退部と、
を有する識別ベクトル学習装置。 An identification vector learning device for creating a reference table used in the pattern identification device according to claim 1,
A sample feature extraction unit for extracting a feature vector from a learning sample;
A dimension extension unit for generating a high-dimensional feature vector in which dimensions are extended by linearly combining the feature vector components of the learning sample;
An identification vector learning unit that generates a high-dimensional identification vector for identifying a pattern type based on the high-dimensional feature vector;
A reference in which an identification vector is described in association with a divided region to which a base feature vector belongs among a plurality of divided regions obtained by degenerating a high-dimensional identification vector to the predetermined dimension and dividing the feature space A dimension reduction part for creating a table;
An identification vector learning apparatus having
入力パターンから前記所定の次元の特徴ベクトルを抽出する特徴抽出部と、前記学習装置が作成した参照テーブルから前記入力パターンの特徴ベクトルが属する分割領域に対応する識別ベクトルを取得し、取得した識別ベクトルと前記入力パターンの特徴ベクトルとの内積演算を実行して前記入力パターンの種類を識別する線形識別部と、を有するパターン識別部と、
を具備するパターン識別装置。 A sample feature extraction unit that extracts a feature vector of a predetermined dimension from a learning sample, a dimension extension unit that generates a high-dimensional feature vector in which dimensions are expanded by linearly combining the feature vector components of the learning sample, and a high-dimensional feature An identification vector learning unit for generating a high-dimensional identification vector for identifying a pattern type based on a vector, and generating a predetermined dimension identification vector by degenerating the dimension of the high-dimensional identification vector and dividing the feature space A dimension reduction unit that creates a reference table describing the identification vector in association with a divided region to which a base feature vector belongs among the plurality of divided regions;
A feature extraction unit that extracts the feature vector of the predetermined dimension from the input pattern; and an identification vector corresponding to a divided region to which the feature vector of the input pattern belongs from a reference table created by the learning device; A linear discriminator for identifying the type of the input pattern by performing an inner product operation between the input vector and the feature vector of the input pattern,
A pattern identification device comprising:
前記識別ベクトルの基となる前記高次元特徴ベクトルの各成分の値に対応し、前記特徴空間における同一の分割領域に属する特徴ベクトルから生成された高次元特徴ベクトルで同一の値をとるインデックス値を、識別ベクトルのインデックスとして記述し、
前記線形識別部は、
前記高次元特徴ベクトルと同様の次元拡張を前記入力パターンの特徴ベクトルに対して行った場合の前記インデックス値を算出するインデックス算出部と、前記インデックス算出部が算出したインデックス値を前記参照テーブルで検索し、該当する識別ベクトルと前記入力パターンの特徴ベクトルとの内積演算を実行して前記入力パターンの種類を識別する線形識別器と、を有する、
請求項8記載のパターン識別装置。 The dimension reduction part is:
An index value that corresponds to the value of each component of the high-dimensional feature vector that is the basis of the identification vector and that takes the same value in a high-dimensional feature vector that is generated from feature vectors that belong to the same divided region in the feature space. , As an identification vector index,
The linear identification unit includes:
An index calculation unit that calculates the index value when the same dimension extension as the high-dimensional feature vector is performed on the feature vector of the input pattern, and searches the reference table for the index value calculated by the index calculation unit And a linear discriminator for identifying the type of the input pattern by performing an inner product operation of the corresponding identification vector and the feature vector of the input pattern,
The pattern identification device according to claim 8.
前記特徴ベクトルは、画像に存在するエッジの方向に応じた成分を有する3次元のベクトルである、
請求項8記載のパターン識別装置。 The feature space is a three-dimensional space corresponding to the direction of edges existing in the image,
The feature vector is a three-dimensional vector having a component corresponding to the direction of an edge existing in the image.
The pattern identification device according to claim 8.
入力パターンの種類を識別するための識別ベクトルと、特徴空間を分割した分割領域と、を対応付けて記述した参照テーブルから、前記特徴抽出ステップで抽出した特徴ベクトルが属する分割領域に対応する識別ベクトルを取得する識別ベクトル取得ステップと、
前記識別ベクトル取得ステップで取得した識別ベクトルと前記特徴抽出ステップで抽出した特徴ベクトルとの内積演算を実行して、前記入力パターンの種類を識別するパターン識別ステップと、
を有するパターン識別方法。 A feature extraction step of extracting a feature vector from the input pattern;
An identification vector corresponding to a divided region to which the feature vector extracted in the feature extraction step belongs from a reference table in which an identification vector for identifying the type of the input pattern and a divided region obtained by dividing the feature space are described in association with each other An identification vector obtaining step for obtaining
A pattern identification step for identifying the type of the input pattern by performing an inner product operation of the identification vector acquired in the identification vector acquisition step and the feature vector extracted in the feature extraction step;
A pattern identification method.
前記識別ベクトル取得ステップは、
前記高次元特徴ベクトルと同様の次元拡張を前記特徴抽出ステップで抽出した特徴ベクトルに対して行った場合の前記インデックス値を算出するインデックス算出ステップと、
前記インデックス算出ステップで算出したインデックス値を前記参照テーブルで検索するインデックス検索ステップと、
を有する請求項12記載のパターン識別方法。 The reference table corresponds to the value of each component of the high-dimensional feature vector that is the basis of the identification vector, and has the same value in the high-dimensional feature vector generated from the feature vectors belonging to the same divided area in the feature space When the index value that takes is described as the index of the identification vector,
The identification vector acquisition step includes
An index calculation step for calculating the index value when the same dimension extension as the high-dimensional feature vector is performed on the feature vector extracted in the feature extraction step;
An index search step of searching the reference table for the index value calculated in the index calculation step;
The pattern identification method according to claim 12, comprising:
特徴ベクトルの成分を線形結合して次元を拡張した高次元特徴ベクトルを生成する次元拡張ステップと、
高次元特徴ベクトルに基づいてパターンの種類を識別するための高次元識別ベクトルを生成する識別ベクトル学習ステップと、
高次元識別ベクトルの次元を縮退して前記所定の次元の識別ベクトルを生成し、特徴空間を分割した複数の分割領域のうち、基となる特徴ベクトルが属する分割領域と対応付けて前記識別ベクトルを記述した参照テーブルを作成する次元縮退ステップと、
入力パターンから前記所定の次元の特徴ベクトルを抽出する特徴抽出ステップと、
参照テーブルから前記特徴抽出ステップで抽出した特徴ベクトルが属する分割領域に対応する識別ベクトルを取得する識別ベクトル取得ステップと、
前記識別ベクトル取得ステップで取得した識別ベクトルと前記特徴抽出ステップで抽出した特徴ベクトルとの内積演算を実行して前記入力パターンの種類を識別するパターン識別ステップと、
を有するパターン識別方法。 A sample feature extraction step for extracting a feature vector of a predetermined dimension from the learning sample;
A dimension extension step for generating a high-dimensional feature vector by extending the dimensions by linearly combining the components of the feature vector;
An identification vector learning step for generating a high-dimensional identification vector for identifying a pattern type based on the high-dimensional feature vector;
A dimension of a high-dimensional identification vector is reduced to generate an identification vector of the predetermined dimension, and among the plurality of divided areas obtained by dividing the feature space, the identification vector is associated with a divided area to which a base feature vector belongs. A dimension reduction step to create the described reference table;
A feature extraction step of extracting a feature vector of the predetermined dimension from an input pattern;
An identification vector obtaining step for obtaining an identification vector corresponding to a divided region to which the feature vector extracted in the feature extraction step belongs from a reference table;
A pattern identification step for identifying the type of the input pattern by performing an inner product operation of the identification vector acquired in the identification vector acquisition step and the feature vector extracted in the feature extraction step;
A pattern identification method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006286653A JP2008102856A (en) | 2006-10-20 | 2006-10-20 | Pattern identification device and pattern identification method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006286653A JP2008102856A (en) | 2006-10-20 | 2006-10-20 | Pattern identification device and pattern identification method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008102856A true JP2008102856A (en) | 2008-05-01 |
Family
ID=39437121
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006286653A Pending JP2008102856A (en) | 2006-10-20 | 2006-10-20 | Pattern identification device and pattern identification method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008102856A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018166273A1 (en) * | 2017-03-17 | 2018-09-20 | 北京京东尚科信息技术有限公司 | Method and apparatus for matching high-dimensional image feature |
JP2019057139A (en) * | 2017-09-21 | 2019-04-11 | 日本電気株式会社 | Operation management system, monitoring server, method and program |
US11049045B2 (en) | 2015-11-18 | 2021-06-29 | Honda Motor Co., Ltd. | Classification apparatus, robot, and classification method |
-
2006
- 2006-10-20 JP JP2006286653A patent/JP2008102856A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11049045B2 (en) | 2015-11-18 | 2021-06-29 | Honda Motor Co., Ltd. | Classification apparatus, robot, and classification method |
WO2018166273A1 (en) * | 2017-03-17 | 2018-09-20 | 北京京东尚科信息技术有限公司 | Method and apparatus for matching high-dimensional image feature |
US11210555B2 (en) | 2017-03-17 | 2021-12-28 | Beijing Jingdong Shangke Information Technology Co., Ltd. | High-dimensional image feature matching method and device |
JP2019057139A (en) * | 2017-09-21 | 2019-04-11 | 日本電気株式会社 | Operation management system, monitoring server, method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105741312B (en) | Destination object tracking and equipment | |
CN104200228B (en) | Recognizing method and system for safety belt | |
JP2006172437A (en) | Method for determining position of segment boundary in data stream, method for determining segment boundary by comparing data subset with vicinal data subset, program of instruction executable by computer, and system or device for identifying boundary and non-boundary in data stream | |
EP2234388B1 (en) | Object detection apparatus and method | |
JP6511982B2 (en) | Driving operation discrimination device | |
Al-Qershi et al. | Enhanced block-based copy-move forgery detection using k-means clustering | |
CN111401099B (en) | Text recognition method, device and storage medium | |
JP2011053953A (en) | Image processing apparatus and program | |
US8027978B2 (en) | Image search method, apparatus, and program | |
CN111753592A (en) | Traffic sign recognition method, traffic sign recognition device, computer equipment and storage medium | |
JP2017084349A (en) | Memory with set operation function and method for set operation processing using the memory | |
JP2009163682A (en) | Image discrimination device and program | |
CN111325265B (en) | Detection method and device for tampered image | |
CN112541394A (en) | Black eye and rhinitis identification method, system and computer medium | |
CN112434555A (en) | Key value pair region identification method and device, storage medium and electronic equipment | |
Ahmed et al. | Traffic sign detection and recognition model using support vector machine and histogram of oriented gradient | |
JP2008102856A (en) | Pattern identification device and pattern identification method | |
CN109685061A (en) | The recognition methods of mathematical formulae suitable for structuring | |
CN113888586A (en) | Target tracking method and device based on correlation filtering | |
KR101584091B1 (en) | Multi-view object detection method using shared local features | |
CN112990368B (en) | Polygonal structure guided hyperspectral image single sample identification method and system | |
CN113837015A (en) | Face detection method and system based on feature pyramid | |
Santoshi et al. | Pedestrian with direction detection using the combination of decision tree learning and SVM | |
CN111325194A (en) | Character recognition method, device and equipment and storage medium | |
JP4396328B2 (en) | Image similarity calculation system, image search system, image similarity calculation method, and image similarity calculation program |