JP2016071684A - Pattern recognition device, pattern learning device, pattern learning method, and pattern learning program - Google Patents
Pattern recognition device, pattern learning device, pattern learning method, and pattern learning program Download PDFInfo
- Publication number
- JP2016071684A JP2016071684A JP2014201180A JP2014201180A JP2016071684A JP 2016071684 A JP2016071684 A JP 2016071684A JP 2014201180 A JP2014201180 A JP 2014201180A JP 2014201180 A JP2014201180 A JP 2014201180A JP 2016071684 A JP2016071684 A JP 2016071684A
- Authority
- JP
- Japan
- Prior art keywords
- parameter
- pattern
- function
- transformation matrix
- feature transformation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、パターン認識装置、パターン学習装置、パターン学習方法およびパターン学習プログラムに関する。 The present invention relates to a pattern recognition device, a pattern learning device, a pattern learning method, and a pattern learning program.
音声や画像などのパターンをコンピュータに認識させる場合に用いるパターン識別器において、認識速度および認識精度の向上のために識別関数のパラメータを適正化するパターン学習を行なう。パターン学習として、特に、特徴選択および特徴変換の学習が行なわれる。 In a pattern discriminator used when a computer recognizes a pattern such as a voice or an image, pattern learning for optimizing the parameters of the discrimination function is performed in order to improve recognition speed and recognition accuracy. In particular, feature selection and feature conversion learning are performed as pattern learning.
ここで、特徴選択とは、入力パターンから得られたd個の特徴から識別に有効な特徴を少数個選択するもので、従来から総当たり法、前向き逐次特徴選択法、および後ろ向き逐次特徴選択法などが知られている(非特許文献1、p.153)。一方、特徴変換とは、d次元特徴空間を識別に有効なより低次元空間に変換する処理であり、従来から主成分分析や判別分析などが知られている(非特許文献1、p.95)。
Here, the feature selection is to select a small number of features effective for discrimination from d features obtained from the input pattern. Conventionally, the round-robin method, the forward sequential feature selection method, and the backward sequential feature selection method. Are known (Non-Patent
また、評価関数を設定して特徴変換パラメータを更新する機械学習に基づく方法も知られている。評価関数にパラメータのL1ノルムを正則化項として加えた“Lasso”と呼ばれる方法では、多くのパラメータの値がゼロとなるスパースな特徴変換を行うことができる(非特許文献2)。さらに、いくつかのパラメータをグループ化してLassoを行うことで、グループごとに値をゼロとする“Group Lasso”と呼ばれる方法も提案されており(非特許文献3)、この方法を使うことで特徴選択と特徴変換との同時最適化を行うことができる。例えば、特許文献1には、ニューラルネットワークのパラメータを、L1ノルムを正則化項として加えた評価関数により収束させて適正化する技術が開示されている。
In addition, a method based on machine learning in which an evaluation function is set and a feature conversion parameter is updated is also known. In a method called “Lasso” in which the L1 norm of a parameter is added as a regularization term to an evaluation function, sparse feature conversion in which many parameter values are zero can be performed (Non-patent Document 2). Furthermore, a method called “Group Lasso” is proposed in which several parameters are grouped and Lasso is performed to make the value zero for each group (Non-patent Document 3). Simultaneous optimization of selection and feature conversion can be performed. For example,
しかしながら、上記文献に記載の技術では、識別関数のパラメータの1つである特徴変換行列を更新するたびに各要素が際限なくゼロに近づくため、評価関数の最小解に到達できない。例えば、識別関数の損失項が特徴変換行列を定数倍しても同じ値をとるように定義されている場合には、特徴変換行列が安定して求まらないため、パターン認識精度の向上には限界がある。 However, with the technique described in the above-mentioned document, every time the feature transformation matrix that is one of the parameters of the discriminant function is updated, each element approaches zero indefinitely, so the minimum solution of the evaluation function cannot be reached. For example, if the loss term of the discriminant function is defined to take the same value even if the feature transformation matrix is multiplied by a constant, the feature transformation matrix cannot be obtained stably, which improves pattern recognition accuracy. There are limits.
本発明の目的は、上述の課題を解決する技術を提供することにある。 The objective of this invention is providing the technique which solves the above-mentioned subject.
上記目的を達成するため、本発明に係るパターン学習装置は、
パターン認識に用いる識別関数のパラメータの初期値を入力する初期値入力手段と、
学習用の入力ベクトルに基づいて、前記識別関数を評価する評価関数における認識誤りに相当する損失項を計算する損失計算手段と、
前記評価関数における正則化項を計算する正則化計算手段と、
前記損失項と前記正則化項との総和が減少するように、前記識別関数のパラメータを更新するパラメータ更新手段と、
前記パラメータ更新手段による更新後の前記識別関数のパラメータを出力するパラメータ出力手段と、
を備え、
前記正則化計算手段は、前記識別関数の特徴変換行列を用いたノルムの比で定義される正則化項を計算する。
In order to achieve the above object, a pattern learning apparatus according to the present invention includes:
An initial value input means for inputting an initial value of a parameter of an identification function used for pattern recognition;
A loss calculating means for calculating a loss term corresponding to a recognition error in the evaluation function for evaluating the discriminant function based on an input vector for learning;
Regularization calculation means for calculating a regularization term in the evaluation function;
Parameter updating means for updating the parameters of the discriminant function so that the sum of the loss term and the regularization term decreases;
Parameter output means for outputting the parameters of the discrimination function after being updated by the parameter update means;
With
The regularization calculation means calculates a regularization term defined by a norm ratio using a feature transformation matrix of the discriminant function.
上記目的を達成するため、本発明に係るパターン認識装置は、
上記パターン学習装置を有するパターン認識装置であって、
前記識別関数のパラメータの初期値および前記パラメータ出力手段が出力した前記更新後の前記識別関数のパラメータを格納する認識辞書と、
前記初期値および前記学習用の入力ベクトルに基づいて、前記パターン学習装置に前記更新後の前記識別関数のパラメータを生成させるパラメータ生成指示手段と、
入力された認識対象の入力ベクトルに基づいて、前記更新後の前記識別関数のパラメータを用いた前記識別関数によりクラス識別を行なうクラス識別手段と、
を備える。
In order to achieve the above object, a pattern recognition apparatus according to the present invention includes:
A pattern recognition device having the pattern learning device,
A recognition dictionary for storing initial values of parameters of the discriminant function and parameters of the discriminant function after the update output by the parameter output means;
Based on the initial value and the input vector for learning, parameter generation instructing means for causing the pattern learning device to generate parameters of the updated identification function;
Class identification means for performing class identification by the identification function using the parameter of the identification function after the update based on the input recognition target input vector;
Is provided.
上記目的を達成するため、本発明に係るパターン学習方法は、
パターン認識に用いる識別関数のパラメータの初期値を入力する初期値入力ステップと、
学習用の入力ベクトルに基づいて、前記識別関数を評価する評価関数における認識誤りに相当する損失項を計算する損失計算ステップと、
前記評価関数における正則化項を計算する正則化計算ステップと、
前記損失項と前記正則化項との総和が減少するように、前記識別関数のパラメータを更新するパラメータ更新ステップと、
前記パラメータ更新ステップにおいて更新後の前記識別関数のパラメータを出力するパラメータ出力ステップと、
を含み、
前記正則化計算ステップにおいては、前記識別関数の特徴変換行列を用いたノルムの比で定義される正則化項を計算する。
In order to achieve the above object, a pattern learning method according to the present invention includes:
An initial value input step for inputting an initial value of a parameter of a discrimination function used for pattern recognition;
A loss calculating step for calculating a loss term corresponding to a recognition error in the evaluation function for evaluating the discriminant function based on an input vector for learning;
A regularization calculation step for calculating a regularization term in the evaluation function;
A parameter updating step for updating the parameters of the discriminant function so that the sum of the loss term and the regularization term decreases;
A parameter output step for outputting the parameter of the discriminant function after the update in the parameter update step;
Including
In the regularization calculation step, a regularization term defined by a norm ratio using a feature transformation matrix of the discriminant function is calculated.
上記目的を達成するため、本発明に係るパターン学習プログラムは、
パターン認識に用いる識別関数のパラメータの初期値を入力する初期値入力ステップと、
学習用の入力ベクトルに基づいて、前記識別関数を評価する評価関数における認識誤りに相当する損失項を計算する損失計算ステップと、
前記評価関数における正則化項を計算する正則化計算ステップと、
前記損失項と前記正則化項との総和が減少するように、前記識別関数のパラメータを更新するパラメータ更新ステップと、
前記パラメータ更新ステップにおいて更新後の前記識別関数のパラメータを出力するパラメータ出力ステップと、
をコンピュータに実行させるパターン学習プログラムであって、
前記正則化計算ステップにおいては、前記識別関数の特徴変換行列を用いたノルムの比で定義される正則化項を計算する。
In order to achieve the above object, a pattern learning program according to the present invention includes:
An initial value input step for inputting an initial value of a parameter of a discrimination function used for pattern recognition;
A loss calculating step for calculating a loss term corresponding to a recognition error in the evaluation function for evaluating the discriminant function based on an input vector for learning;
A regularization calculation step for calculating a regularization term in the evaluation function;
A parameter updating step for updating the parameters of the discriminant function so that the sum of the loss term and the regularization term decreases;
A parameter output step for outputting the parameter of the discriminant function after the update in the parameter update step;
A pattern learning program for causing a computer to execute
In the regularization calculation step, a regularization term defined by a norm ratio using a feature transformation matrix of the discriminant function is calculated.
本発明によれば、損失項の形によらず評価関数を最小化する解に到達させ、特徴選択と特徴変換との同時適正化を行なって、パターン認識精度を向上することができる。 According to the present invention, it is possible to improve the pattern recognition accuracy by reaching a solution that minimizes the evaluation function regardless of the form of the loss term and simultaneously optimizing feature selection and feature conversion.
以下に、図面を参照して、本発明の実施の形態について例示的に詳しく説明する。ただし、以下の実施の形態に記載されている構成要素は単なる例示であり、本発明の技術範囲をそれらのみに限定する趣旨のものではない。なお、本明細書で使用する「特徴変換行列」は認識対象パターンを表わす入力ベクトルの次元数を特徴選択と特徴変換とをまとめて行ない認識精度次元数を減らすための行列である。
[第1実施形態]
本発明の第1実施形態としてのパターン学習装置100について、図1を用いて説明する。パターン学習装置100は、パターン認識に用いる識別関数のパラメータを更新する装置である。
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. However, the constituent elements described in the following embodiments are merely examples, and are not intended to limit the technical scope of the present invention only to them. Note that the “feature transformation matrix” used in this specification is a matrix for reducing the number of recognition accuracy dimensions by collectively performing feature selection and feature transformation on the dimensionality of an input vector representing a recognition target pattern.
[First Embodiment]
A
図1に示すように、パターン学習装置100は、初期値入力部101と、損失計算部102と、正則化計算部103と、パラメータ更新部104と、パラメータ出力部105と、を含む。初期値入力部101は、パターン認識に用いる識別関数のパラメータの初期値を入力する。損失計算部102は、学習用の入力ベクトルに基づいて、識別関数を評価する評価関数における認識誤りに相当する損失項を計算する。正則化計算部103は、評価関数における正則化項を計算する。パラメータ更新部104は、損失項と正則化項との総和が減少するように、識別関数のパラメータを更新する。パラメータ出力部105は、パラメータ更新部104による更新後の識別関数のパラメータを出力する。ここで、正則化計算部103は、識別関数の特徴変換行列を用いたノルムの比103aで定義される正則化項を計算する。
As shown in FIG. 1, the
本実施形態によれば、損失項の形によらず評価関数を最小化する解に到達させ、特徴選択と特徴変換との同時適正化を行なって、パターン認識精度を向上することができる。 According to the present embodiment, it is possible to improve the pattern recognition accuracy by reaching a solution that minimizes the evaluation function regardless of the form of the loss term, and performing simultaneous optimization of feature selection and feature conversion.
[第2実施形態]
次に、本発明の第2実施形態に係るパターン学習部を含むパターン認識装置について説明する。本実施形態に係るパターン学習部は、評価関数の正則化項を識別関数の特徴変換行列を用いたノルムの比で定義することにより、特徴変換行列の適正化、すなわち、認識精度を向上し、かつ、特徴変換行列のスパース化を行なう。本実施形態においては、評価関数の正則化項を識別関数の特徴変換行列の列を用いたノルムの比で定義する。
[Second Embodiment]
Next, a pattern recognition apparatus including a pattern learning unit according to the second embodiment of the present invention will be described. The pattern learning unit according to the present embodiment defines the regularization term of the evaluation function by the norm ratio using the feature transformation matrix of the discrimination function, thereby improving the optimization of the feature transformation matrix, that is, the recognition accuracy, In addition, the feature transformation matrix is sparse. In the present embodiment, the regularization term of the evaluation function is defined by the norm ratio using the sequence of the feature transformation matrix of the discriminant function.
《前提技術》
本実施形態の特徴を明瞭にするため、パターン学習の前提技術について簡単に説明する。まず、特徴選択と特徴変換とについて具体的に説明する。
《Prerequisite technology》
In order to clarify the features of the present embodiment, a prerequisite technique for pattern learning will be briefly described. First, feature selection and feature conversion will be specifically described.
(特徴選択)
図6Aは、前提技術における特徴選択610を説明するための図である。特徴選択610は、d次元の入力ベクトルxの要素のうち、いくつかの要素を抜きだしたq次元(q<d)のベクトルzを作る処理であり、q×d行列Sで記述できる。ただし、行列Sの各行は1つの要素のみ“1”であり、他の要素は“0”である。
(Feature selection)
FIG. 6A is a diagram for explaining
(特徴変換)
図6Bは、前提技術における特徴選択後の特徴変換620を説明するための図である。特徴変換620は、q次元のベクトルzをさらに低次元のp次元(p<q)に線形変換する処理であり、p×q行列Aで記述される。
(Feature conversion)
FIG. 6B is a diagram for describing
(特徴変換行列)
図6Cは、前提技術における特徴選択および特徴変換を行なう特徴変換行列630を説明するための図である。図6Cに示すように、図6Bの行列Sと行列Aとはまとめることができ、これを特徴変換行列Bと表記すると、図6Cに黒で示したように、いくつかの列ベクトルについては要素の値が全て“0”となっている。これは、行列Sのスパース性に起因しており、ベクトルyはその列ベクトルに対応するベクトルxの要素値の影響を受けない、つまり特徴選択によって選ばれないことを意味する。
(Feature transformation matrix)
FIG. 6C is a diagram for describing a
この場合に、行列Sを求めてから行列Aを設計すると、認識に重要な特徴が特徴選択で選ばれなかった場合は認識精度が低下する。したがって、特徴変換行列Bを直接、最適化することが望ましい。前提技術では、“Group Lasso”によってこれを実現している。すなわち、認識誤りに相当する損失項と特徴変換行列Bのパラメータからなる正則化項を合わせた評価関数の値が小さくなるように、特徴変換行列Bを更新する。 In this case, if the matrix A is designed after obtaining the matrix S, the recognition accuracy is reduced if a feature important for recognition is not selected by feature selection. Therefore, it is desirable to directly optimize the feature transformation matrix B. In the base technology, this is achieved by “Group Lasso”. That is, the feature transformation matrix B is updated so that the value of the evaluation function combining the loss term corresponding to the recognition error and the regularization term composed of the parameters of the feature transformation matrix B becomes smaller.
具体的には(数式1)を最小化する。
(パターン学習)
図6Dは、前提技術におけるパターン学習部640の機能構成を示すブロック図である。
(Pattern learning)
FIG. 6D is a block diagram illustrating a functional configuration of the
パターン学習部640は、初期値入力部601と、損失計算部602と、正則化計算部603と、評価値算出部(加算部)604と、パラメータ更新部605と、パラメータ出力部606と、を備える。
The
初期値入力部601は、特徴変換行列の初期値(および、参照ベクトル)を入力する。損失計算部602は、選択部621と、識別関数演算部622と、損失算出部623とを有し、評価関数の損失項を計算する。選択部621は、特徴変換行列の初期値入力と更新中の特徴変換行列の入力とを選択する。識別関数演算部622は、特徴変換行列および参照ベクトルを使用して、学習用の入力ベクトルから最小距離の参照ベクトルに基づいて識別クラスを判別する。そして、損失算出部623は、識別クラスの判別の正否と間違いの程度を累積した、損失項の値を算出する。
The initial
正則化計算部603は、選択部631とL1ノルム算出部635とを有し、特徴変換行列の列ベクトルを用いたL1ノルムを計算する。選択部631は、特徴変換行列の初期値入力と更新中の特徴変換行列の入力とを選択する。L1ノルム算出部635は、特徴変換行列の列ベクトルを累積したL1ノルムを正則化項の値として算出する。
The
評価関数値算出部(加算部)604は、損失項の値と正則化項の値とを加算して、評価関数の値を算出する。パラメータ更新部605は、終了条件を満たさなければ、評価関数の値が減るように特徴変換行列を更新して、再度、評価関数の値を算出する。パラメータ更新部605は、終了条件を満たせば、パラメータ出力部606を経由して最適化されスパース化された特徴変換行列を出力する。
The evaluation function value calculation unit (addition unit) 604 adds the value of the loss term and the value of the regularization term to calculate the value of the evaluation function. If the end condition is not satisfied, the
(前提技術の課題)
ところが、上記前提技術では、識別関数のパラメータの1つである特徴変換行列を更新するたびに各要素が際限なくゼロに近づくため、評価関数の最小解に到達できない。例えば、識別関数の損失項が特徴変換行列を定数倍しても同じ値をとるように定義されている場合には、特徴変換行列が安定して求まらないため、パターン認識精度の向上には限界がある。
(Issues of prerequisite technologies)
However, in the above-mentioned base technology, every time the feature transformation matrix that is one of the parameters of the discriminant function is updated, each element approaches zero indefinitely, so that the minimum solution of the evaluation function cannot be reached. For example, if the loss term of the discriminant function is defined to take the same value even if the feature transformation matrix is multiplied by a constant, the feature transformation matrix cannot be obtained stably, which improves pattern recognition accuracy. There are limits.
すなわち、損失項がパラメータの定数倍に対して不変ということは、パラメータθを用いて計算した損失項の値と、パラメータをk倍したθ’を用いて計算した損失項の値が等しいということである。その場合のL1ノルムは、 That is, the fact that the loss term is invariant to a constant multiple of the parameter means that the value of the loss term calculated using the parameter θ is equal to the value of the loss term calculated using θ ′ obtained by multiplying the parameter by k. It is. In that case, the L1 norm is
《本実施形態における解決策》
本実施形態においては、ノルム比で正則化項を定義する。例えば、L1ノルム(数式4)とL2ノルム(数式5)とを用いると、
<< Solution in this embodiment >>
In this embodiment, the regularization term is defined by the norm ratio. For example, using the L1 norm (Formula 4) and the L2 norm (Formula 5),
《本実施形態のパターン学習部を有するパターン認識装置》
図2は、本実施形態に係るパターン学習部240を含むパターン認識装置200の機能構成を示すブロック図である。なお、本実施形態においては、パターン認識装置200を独立した装置として説明するが、情報処理装置内にパターン認識部として組み込まれた構成でもよい。
<< Pattern Recognition Apparatus Having Pattern Learning Unit of Present Embodiment >>
FIG. 2 is a block diagram illustrating a functional configuration of the
パターン認識装置200は、パラメータ初期値生成部210と、認識辞書220と、クラス識別部230と、パターン学習部240と、を備える。
The
パラメータ初期値生成部210は、初期値生成用の入力ベクトルに基づいて、パラメータの初期化、本実施形態の識別関数では特徴変換行列と参照ベクトルとの初期値を生成する。なお、初期値生成用の入力ベクトルは本パターン認識装置200によってクラス識別する対象パターンに対応する典型的な入力ベクトルが望ましいが、それに限定されない。認識辞書220は、パターン認識装置200で使用する、識別関数や評価関数、あるいは、初期パラメータや更新パラメータを格納する。クラス識別部230は、識別関数を用いて、パターン学習中は学習用入力ベクトルに基づいて、パターン認識中は認識対象パターンの入力ベクトルに基づいて、距離が最短の参照ベクトルを含むクラスへのクラス識別を行なう。クラス識別部230は、パターン学習中はパターン学習部240のクラス識別結果と損失とを通知する。一方、クラス識別部230は、パターン認識中はクラス識別結果を外部に出力する。
The parameter initial
パターン学習部240は、認識辞書220からパラメータである特徴変換行列の初期値を取得して、クラス識別部230からのクラス識別結果と損失とを取得する。そして、繰り返し特徴変換行列の要素を評価関数値が小さくなるように変更し、収束した時点における特徴変換行列を求めて認識辞書220に保存する。
The
なお、図2においては、認識対象パターンの入力ベクトルはパターン認識装置200の外部で生成される構成としたが、パターン認識装置200内において取得したパターン情報(画像や音声など)から特徴抽出と量子化や正規化などを行なって入力ベクトルを生成してもよい。
In FIG. 2, the input vector of the recognition target pattern is generated outside the
(認識辞書)
図3は、本実施形態に係る認識辞書220の構成を示す図である。なお、図3には、識別関数のパラメータのみを図示し、識別関数や評価関数などは省略する。
(Recognition dictionary)
FIG. 3 is a diagram showing a configuration of the
認識辞書220には、特徴変換行列と参照ベクトルとを含むパラメータ初期値301と、パターン学習部240で最適化した特徴変換行列からなるパラメータ更新値302と、終了条件の正否303と、を記憶する。なお、終了条件は、パラメータの更新回数や更新による評価関数値の変化量などを条件とする。
The
《パターン学習部の機能構成》
図4は、本実施形態に係るパターン学習部240の機能構成を示すブロック図である。なお、パターン学習部240は、単独でも装置あるいはICチップとして製造して市場に提供可能であり、独立したパターン学習装置と称してもよい。パターン学習部240は、パターン認識装置200のパラメータ生成指示に基づいて、動作する。
<Functional configuration of pattern learning unit>
FIG. 4 is a block diagram illustrating a functional configuration of the
図4を参照すると、パターン学習部240は、初期値入力部401と、損失計算部402と、正則化計算部403と、評価値算出部(加算部)404と、パラメータ更新部405と、パラメータ出力部406と、を備える。
Referring to FIG. 4, the
初期値入力部401は、特徴変換行列の初期値(および、参照ベクトル)を入力する。損失計算部402は、選択部421と、識別関数演算部422と、損失算出部423とを有し、評価関数の損失項を計算する。選択部421は、特徴変換行列の初期値入力と更新中の特徴変換行列の入力とを選択する。識別関数演算部422は、特徴変換行列および参照ベクトルを使用して、学習用の入力ベクトルから最小距離の参照ベクトルに基づいて識別クラスを判別する。そして、損失算出部423は、識別クラスの判別の正否と間違いの程度を累積した、損失項の値を算出する。
The initial
正則化計算部403は、選択部431と、Lvノルム算出部432と、Lwノルム算出部433と、Lv/Lw算出部434とを有し、特徴変換行列の列ベクトルを用いた正則化項を計算する。選択部431は、特徴変換行列の初期値入力と更新中の特徴変換行列の入力とを選択する。Lvノルム算出部432は、特徴変換行列の列ベクトルの長さ(ノルム)をv乗して累積した後に(1/v)乗したLvノルムを算出する。Lwノルム算出部433は、特徴変換行列の列ベクトルの長さ(ノルム)をw乗して累積した後に(1/w)乗したLwノルムを算出する(v,wは実数、v<w)。Lv/Lw算出部434は、正則化項の値として、(Lvノルム/Lwノルム)を算出する。
The
評価関数値算出部(加算部)404は、損失項の値と正則化項の値とを加算して、評価関数の値を算出する。パラメータ更新部405は、終了条件を満たさなければ、評価関数の値が減るように特徴変換行列を更新して、再度、評価関数の値を算出する。パラメータ更新部405は、終了条件を満たせば、パラメータ出力部406を経由して最適化されスパース化された特徴変換行列を出力する。
The evaluation function value calculation unit (addition unit) 404 adds the value of the loss term and the value of the regularization term to calculate the value of the evaluation function. If the end condition is not satisfied, the
(パラメータ更新部)
図5Aは、本実施形態に係るパラメータ更新部405の構成を示すブロック図である。なお、図5Aは、評価関数値の変化値が閾値より小さい場合に、最適値に収束した終了条件とする構成を示す。しかしながら、終了条件がこれに限らず、更新回数を終了条件としてもよい。
(Parameter update part)
FIG. 5A is a block diagram illustrating a configuration of the
パラメータ更新部405は、特徴変換行列更新部501と、評価関数値記憶部502と、評価関数変化値算出部503と、終了条件判定部504と、を有する。特徴変換行列更新部501は、初期値または学習中の特徴変換行列を受信して、評価関数の値が小さくなるように特徴変換行列の要素を更新する。評価関数値記憶部502は、更新前の評価関数値を記憶する。評価関数変化値算出部503は、更新前の評価関数値から更新後の評価関数値への変化値(減少値)を算出する。終了条件判定部504は、変化値(減少値)を閾値αと比較して、変化値(減少値)が閾値αより小さければパラメータ更新終了として、更新した特徴変換行列をパラメータ出力部406に送出する。一方、評価関数値の変化値(減少値)が閾値α以上の場合は、更新した特徴変換行列を損失計算部402および正則化計算部403に戻して、パターン学習処理を継続する。
The
(パラメータテーブル)
図5Bは、本実施形態に係るパラメータ更新部405におけるパラメータテーブル510の構成を示す図である。パラメータテーブル510は、パラメータ更新部405において学習中にデータ保持のために使用される。
(Parameter table)
FIG. 5B is a diagram showing a configuration of the parameter table 510 in the
パラメータテーブル510は、前の特徴変換行列511と、更新した特徴変換行列512と、前の評価関数算出値513と、新しい評価関数算出値514と、評価関数値の変化値515と、閾値α516と、終了条件正否517と、を記憶する。
The parameter table 510 includes a previous
《パターン認識装置のハードウェア構成》
図7は、本実施形態に係るパターン学習部240を含むパターン認識装置200のハードウェア構成を示すブロック図である。なお、図7において、パターン学習部240に関連する要素のみを選択すれば、パターン学習装置として動作する。
<< Hardware configuration of pattern recognition device >>
FIG. 7 is a block diagram illustrating a hardware configuration of the
図7で、CPU(Central Processing Unit)710は演算制御用のプロセッサであり、プログラムを実行することで図2のパターン認識装置200の機能構成部、あるいは、パターン学習部240の機能構成部を実現する。ROM(Read Only Memory)720は、初期データおよびプログラムなどの固定データおよびプログラムを記憶する。また、通信制御部730は、ネットワークを介して認識対象のパターンを受信し、認識結果を送信する。あるいは、通信制御部730は、識別関数や評価関数、あるいは、プログラムを取得するために使用される。なお、CPU710は1つに限定されず、複数のCPUであっても、あるいは画像処理用のGPU(Graphic Processin Unit)を含んでもよい。また、通信制御部730は、CPU710とは独立したCPUを有して、RAM(Random Access Memory)740の領域に送受信データを書き込みあるいは読み出しするのが望ましい。また、RAM740とストレージ750との間でデータを転送するDMAC(Direct Memory Access Unit)を設けるのが望ましい(図示なし)。さらに、入出力インタフェース760は、CPU710とは独立したCPUを有して、RAM740の領域に入出力データを書き込みあるいは読み出しするのが望ましい。したがって、CPU710は、RAM740にデータが受信あるいは転送されたことを認識してデータを処理する。また、CPU710は、処理結果をRAM740に準備し、後の送信あるいは転送は通信制御部730やDMAC、あるいは入出力インタフェース760に任せる。
In FIG. 7, a CPU (Central Processing Unit) 710 is a processor for arithmetic control, and by executing a program, the functional configuration unit of the
RAM740は、CPU710が一時記憶のワークエリアとして使用するランダムアクセスメモリである。RAM740には、本実施形態の実現に必要なデータを記憶する領域が確保されている。学習用入力ベクトル741は、パターン認識装置200のパターン学習部240が使用する学習用のベクトルである。新しい評価関数算出値514は、更新中の現在パラメータ744に基づいて算出された評価関数値であり、損失値と正規化値とを含む。前の評価関数算出値513は、更新前の識別関数のパラメータに基づいて算出された評価関数値である。現在パラメータ744は、更新中の識別関数のパラメータであり、終了条件を満足した場合には最終の最適パラメータとなる。評価関数変化値745は、前の評価関数算出値513から評価関数算出値514への変化値(減少値)である。閾値746は、終了条件として評価関数変化値745と比較する値である。終了条件フラグ747は、評価関数変化値745が閾値746より小さい場合に終了を示し、評価関数変化値745が閾値746以上の場合に継続を示す、フラグである。なお、終了条件を回数とする場合には、更新回数と、閾値としての回数とが記憶されることになる。
The
ストレージ750には、データベースや各種のパラメータ、あるいは本実施形態の実現に必要な以下のデータまたはプログラムが記憶されている。識別関数751は、本パターン認識装置200が使用する、特徴変換行列と参照ベクトルとを含むクラス識別用の関数の定義である。評価関数752は、損失項の定義と正規化項の定義を含む関数の定義である。初期値算出アルゴリズム753は、識別関数751のパラメータである特徴変換行列と参照ベクトルとの初期値を生成するアルゴリズムである。初期値754は、初期値算出アルゴリズム753に従って生成された特徴変換行列と参照ベクトルとの初期値である。更新値755は、パターン学習部240の処理に従って更新された特徴変換行列と参照ベクトルとの更新値である。
The
ストレージ750には、以下のプログラムが格納される。パターン認識プログラム756は、本パターン認識装置200によるパターン認識を実行するプログラムである。パターン学習モジュール757は、パターン学習部240の処理を実現するモジュールである。評価関数算出モジュール758は、識別関数によるパターン認識を本実施形態の評価関数を使用して評価するモジュールである。パラメータ更新モジュール759は、評価関数算出モジュール758による評価結果に応じて、パラメータ、本実施形態においては特徴変換行列を更新するモジュールである。
The
入出力インタフェース760は、入出力機器との入出力データをインタフェースする。入出力インタフェース760には、本パターン認識装置200に認識対象あるいは学習用のパターンを入力するパターン入力部761と、認識結果を出力する認識結果出力部762と、が接続される。なお、表示部や操作部なども接続されてよいが、省略する。
The input /
なお、図7のRAM740やストレージ750には、パターン認識装置200が有する汎用の機能や他の実現可能な機能に関連するプログラムやデータは図示されていない。
Note that the
《パターン認識装置の処理手順》
図8は、本実施形態に係るパターン認識装置200の処理手順を示すフローチャートである。このフローチャートは、図7のCPU710がRAM740を使用しながら実行し、図2のパターン認識装置200の機能構成部を実現する。
<< Processing procedure of pattern recognition device >>
FIG. 8 is a flowchart showing a processing procedure of the
パターン認識装置200は、ステップS801において、識別関数のパラメータである特徴変換行列および参照ベクトルの初期値を生成する。なお、特徴変換行列の初期化としては、学習用のデータを用いて評価関数が十分大きな値となるよう初期値を求めて、認識辞書220に保持する。パターン認識装置200は、ステップS803において、学習用の入力ベクトルを用いて評価関数を小さくするように特徴変換行列を更新するパターン学習を行ない、最適化した特徴変換行列を認識辞書220に格納する。そして、パターン認識装置200は、ステップS805において、認識辞書220に格納された最適化された特徴変換行列と参照ベクトルをパラメータとして用いて、識別関数に基づきパターン認識(最短距離の参照ベクトルを含むフラス識別)を実行する。
In step S801, the
パターン認識装置200は、ステップS807において、さらにパターン認識する対象パターンがあるか否かを判定する。まだ対象パターンがあれば、ステップS805のパターン認識を繰り返す。対象パターンが無くなれば、処理を終了する。
In step S807, the
なお、図8においては、パターン学習処理を最初にしたのみであるが、パターン認識処理の途中で再度パターン学習処理を行なってもよい。この場合は、一定時間間隔、あるいは、認識処理回数ごとに、あるいは、パターン認識率の低下を認知した場合に、最近のパターン認識対象の入力ベクトルを使用して行なう。 In FIG. 8, the pattern learning process is only performed first, but the pattern learning process may be performed again during the pattern recognition process. In this case, the input is performed using the latest pattern recognition target input vector at regular time intervals, at every recognition processing count, or when a decrease in the pattern recognition rate is recognized.
(パターン学習処理)
図9は、本実施形態に係るパターン学習処理(S803)の手順を示すフローチャートである。このフローチャートは、図7のCPU710がRAM740を使用しながら実行し、図4のパターン学習部240の機能構成部を実現する。
(Pattern learning process)
FIG. 9 is a flowchart showing the procedure of the pattern learning process (S803) according to the present embodiment. This flowchart is executed by the
パターン認識装置200は、ステップS901において、識別関数のパラメータである特徴変換行列および参照ベクトルの初期値を認識辞書220から取得する。ここで、初期値としては、評価関数の値が十分大きな値が設定される。パターン認識装置200は、ステップS903において、パターン認識対象に対応して識別関数のパラメータを適正化する学習用の入力ベクトルを取得する。学習用の入力ベクトルは外部から提供されても、認識辞書220にパターン認識対象に対応して格納されていてもよい。
In step S <b> 901, the
パターン認識装置200は、ステップS905において、学習用の入力ベクトルを用いて識別関数を計算してクラス識別処理をし、損失を累積して認識誤りに相当する評価関数の損失項の値を算出する。パターン認識装置200は、ステップS907において、特徴変換行列の列要素によるノルムの比で定義される正則化項の値を算出する。パターン認識装置200は、ステップS909において、損失項の値と正則化項の値との総和から評価関数の値を求める。
In step S905, the
パターン認識装置200は、ステップS911において、初期値あるいは以前の評価関数の値と、ステップS909で算出した新たな評価関数の値を比較する。初期値あるいは以前の評価関数の値より新たな評価関数の値が小さく、かつ、本例では閾値αよりも小さくなっていれば、ステップS913に進む。パターン認識装置200は、ステップS913において、新たな評価関数の値を認識辞書220に比較基準として保持すると共に、評価関数の値がさらに小さくなるように特徴変換行列を更新して、ステップS905に戻る。初期値あるいは以前の評価関数の値より新たな評価関数の値が小さくない、または、閾値αよりも小さくなっていなければ、ステップS915に進む。パターン認識装置200は、ステップS915において、現在の収束した更新パラメータを認識辞書220に出力し、パターン学習部240の処理を終了する。
In step S911, the
なお、ステップS911の終了条件は、更新回数としてもよい。あるいは、他の終了条件を設定してもよい。 Note that the termination condition in step S911 may be the number of updates. Alternatively, other end conditions may be set.
《ノルム比に基づく正則化の効果》
図10は、本実施形態に係るノルム比に基づく正則化の例を示す図である。図10に基づいて、本実施形態において、正則化項をノルム比により定義する効果を説明する。なお、識別関数の損失項が特徴変換行列を定数倍しても同じ値をとるように定義されている場合に、ノルム比により定義された正則化項も変化しないので、安定して最小解に向かうことは、先に説明した。図10においては、ノルム比により定義された正則化項による、さらなる効果を説明する。図10においては、ノルムの要素が2の場合の例を示すが、要素が2個より多い場合も同様の効果を奏するものである。
《Effect of regularization based on norm ratio》
FIG. 10 is a diagram illustrating an example of regularization based on the norm ratio according to the present embodiment. Based on FIG. 10, an effect of defining the regularization term by the norm ratio in the present embodiment will be described. Note that when the loss term of the discriminant function is defined to take the same value even if the feature transformation matrix is multiplied by a constant, the regularization term defined by the norm ratio does not change. I explained earlier. In FIG. 10, the further effect by the regularization term defined by the norm ratio is demonstrated. FIG. 10 shows an example in which the norm element is 2, but the same effect can be obtained when there are more than two elements.
図10において、XY平面に示したのはノルム比の等高線であり、Z軸がノルム比の値を示している。ノルム比はX軸上あるいはY軸上の場合に最小値“1”をとるので、図に丸と矢印で示したように、どこからスタートしたとしてもノルム比を最小化させていくと、XとYとのいずれかが“0”になる。 In FIG. 10, the contour line of the norm ratio is shown on the XY plane, and the Z axis shows the value of the norm ratio. Since the norm ratio takes the minimum value “1” on the X axis or the Y axis, as indicated by the circles and arrows in the figure, if the norm ratio is minimized no matter where it starts, X and One of Y becomes “0”.
図10のように、ノルム比が||θ||1/||θ||2の場合に、次の範囲の値となる。XとYとが等しい、あるいは、XとYとの差が各値に比較して非常に小さい場合、ノルム比は最大で2/21/2=21/2≒1.4となる。一方、XとYのいずれかが“0”になる、あるいは、“0”に近くなると、ノルム比は1/11/2=1となる。すなわち、1.4≧ノルム比≧1の間で、XとYのいずれかが“0”に近付くとノルム比は“1”に向かって減少していき、XとYのいずれかが“0”になった時点で、“1”に収束する。 As shown in FIG. 10, when the norm ratio of || θ || 1 / || θ || 2, the values in the following ranges. If X and Y are equal, or if the difference between X and Y is very small compared to each value, the norm ratio is 2/2 1/2 = 2 1/2 ≈1.4 at the maximum. On the other hand, when either X or Y becomes “0” or becomes close to “0”, the norm ratio becomes 1/1 1/2 = 1. That is, between 1.4 ≧ norm ratio ≧ 1, when either X or Y approaches “0”, the norm ratio decreases toward “1”, and either X or Y becomes “0”. When it becomes “”, it converges to “1”.
したがって、識別関数のパラメータの1つである特徴変換行列の更新は、本実施形態においては、1要素を残して他の要素が“0”になれば、それ以降、ノルム比は小さくならないので、際限なく全要素を“0”にすることはない。一方、ノルム比が||θ||2/||θ||1の場合、1≧ノルム比>0.7(≒21/2/2=1/21/2)の間となり、XとYのいずれかが“0”に近付くとノルム比は“1”に向かって上昇する。このように、ノルム比の要素の値が“0”になることでスパース化されるには、ノルム比の分子をLvノルム、分母をLwノルムとすると、v<wであるのが望ましい。なお、本実施形態においては、評価関数の最小化が学習の基準になっており、この場合はv<wでないとスパース化できないが、逆に、評価関数の最大化が学習の基準になっている場合は、v>wでないとスパース化できなくなる。 Therefore, the update of the feature transformation matrix, which is one of the parameters of the discriminant function, in the present embodiment, if the remaining elements become “0” with one element remaining, the norm ratio will not decrease thereafter. All elements are never set to “0”. On the other hand, when the norm ratio is || θ || 2 / || θ || 1 , it is between 1 ≧ norm ratio> 0.7 (≈2 1/2 / 2 = 1/2 1/2 ), and X When either of Y and Y approaches “0”, the norm ratio increases toward “1”. Thus, in order to be sparse when the value of the element of the norm ratio becomes “0”, it is desirable that v <w where the numerator of the norm ratio is Lv norm and the denominator is Lw norm. In this embodiment, minimization of the evaluation function is the learning criterion. In this case, sparse conversion is possible unless v <w, but conversely, maximization of the evaluation function is the learning criterion. If it is v> w, it cannot be sparse.
《具体的な構成》
次に、具体的なパターン認識およびパターン学習の構成および動作を説明する。ここで、学習用データであるd次元の入力ベクトルを{xn,tn|n = 1,…,N}、パターン識別器として用いるd次元の参照ベクトルを{yk|k = 1,…,K}と表記する。xnはn番目のサンプル、tnはxnの正解クラス、Nはサンプル数、Kはクラス数である。
<Specific configuration>
Next, a specific configuration and operation of pattern recognition and pattern learning will be described. Here, the d-dimensional input vector as learning data is {x n , t n | n = 1,..., N}, and the d-dimensional reference vector used as a pattern discriminator is {y k | k = 1,. , K}. correct class of x n is the n-th sample, t n is x n, N is the number of samples, K is the number of class.
クラスωkの識別関数を、次式(数式7)と定義する。
評価関数を、次式(数式8)で定義する。
入力xnに対する損失は、次式(数式9)で定義する。
そして、(数式8)に示した評価関数の値を計算し、それの値が減少するように特徴変換行列を更新する。例えば、最急降下法に従えば、特徴変換行列の全ての要素について、次式(数式13)と更新する。 Then, the value of the evaluation function shown in (Formula 8) is calculated, and the feature transformation matrix is updated so that the value decreases. For example, according to the steepest descent method, the following equation (Equation 13) is updated for all elements of the feature transformation matrix.
以下、上記具体的な定義を、パターン認識装置200およびパターン学習部240に適用した場合の構成および動作を簡単に説明する。なお、参照番号やステップ番号は、図2および図4の機能構成図の参照番号、図8および図9のフローチャートのステップ番号と同じとし、上記具体的な定義を挿入する。
Hereinafter, a configuration and operation when the above specific definition is applied to the
(パターン認識装置の具体例)
図11Aは、本実施形態に係るパターン学習部240を含むパターン認識装置200の具体的な構成を示すブロック図である。
(Specific example of pattern recognition device)
FIG. 11A is a block diagram illustrating a specific configuration of the
パラメータ初期値生成部210は、初期化として、クラスごとの入力ベクトルの平均を参照ベクトルykとして設定し、特徴変換行列については、主成分分析で得られる固有ベクトルφiを、固有値の大きい順にp個選んでB0=(φ1,…,φp)Tと設定する。
The parameter initial
認識辞書220は、初期値として、B0とykとを保持し、パターン学習により特徴変換行列B0を更新して、最適なパターン認識が可能な値に収束した特徴変換行列Bzを格納する。
The
クラス識別部230は、識別関数(数式7)を用いて、パターン学習中は学習用入力ベクトルに基づいて、パターン認識中は認識対象パターンの入力ベクトルに基づいて、距離が最短の参照ベクトルを含むクラスへのクラス識別を行ない、パターン学習部240のクラス識別結果と損失とを通知する。一方、パターン認識中はクラス識別結果を外部に出力する。
The
パターン学習部240は、認識辞書220からパラメータである特徴変換行列の初期値B0を取得して、クラス識別部230からのクラス識別結果と損失とを取得する。そして、繰り返し特徴変換行列の要素を評価関数(数式8)の値が小さくなるように変更し(数式13参照)、収束した時点における特徴変換行列を求めて認識辞書220に保存する。
The
(パターン学習部の具体例))
図11Bは、本実施形態に係るパターン学習部240の具体的な構成を示すブロック図である。
(Specific example of pattern learning unit))
FIG. 11B is a block diagram illustrating a specific configuration of the
初期値入力部401は、特徴変換行列および参照ベクトルの初期値(B0、yk)を入力する。損失計算部402において、選択部421は、特徴変換行列の初期値入力B0と更新中の特徴変換行列の入力とを選択する。識別関数演算部422は、特徴変換行列および参照ベクトルを使用して、学習用の入力ベクトルから識別関数(数式7)を演算して最小距離の参照ベクトルに基づいて識別クラスを判別する。そして、損失算出部423は、識別クラスの判別の正否と間違いの程度を累積した、損失項(数式9参照)の値を算出する。
The initial
正則化計算部403において、選択部431は、特徴変換行列の初期値入力と更新中の特徴変換行列の入力とを選択する。L1ノルム算出部432は、(数式11)に従ってL1ノルムを算出する。L2ノルム算出部433は、(数式12)に従ってL2ノルムを算出する。L1/L2算出部434は、正則化項の値としてノルム比(数式6参照)を算出する。
In the
評価関数値算出部(加算部)404は、損失項の値と正則化項の値とを加算して、評価関数(数式8)の値を算出する。パラメータ更新部405は、終了条件を満たさなければ、評価関数の値が減るように特徴変換行列を更新して(数式13参照)、再度、評価関数の値を算出する。パラメータ更新部405は、終了条件を満たせば、パラメータ出力部406を経由して最適化されスパース化された特徴変換行列Bzを出力する。
The evaluation function value calculation unit (addition unit) 404 adds the value of the loss term and the value of the regularization term to calculate the value of the evaluation function (Formula 8). If the end condition is not satisfied, the
(パターン認識装置の処理手順)
図12Aは、本実施形態に係るパターン学習部240を含むパターン認識装置200の具体的な処理手順を示すフローチャートである。
(Processing procedure of pattern recognition device)
FIG. 12A is a flowchart showing a specific processing procedure of the
パターン認識装置200は、ステップS801において、特徴変換行列および参照ベクトルの初期値(B0、yk)を生成して、認識辞書220に保持する。ステップS803において、学習用の入力ベクトルを用いて評価関数(数式8)を小さくするように特徴変換行列を更新するパターン学習を行ない、最適化した特徴変換行列Bzを認識辞書220に格納する。そして、ステップS805において、認識辞書220に格納された最適化された特徴変換行列Bzと参照ベクトルykとをパラメータとして用いて、識別関数(数式7)に基づきパターン認識(最短距離の参照ベクトルに基づくクラス識別)を実行する。
In step S < b> 801, the
パターン認識装置200は、ステップS807において、さらにパターン認識する対象パターンがあるか否かを判定する。まだ対象パターンがあれば、ステップS805のパターン認識を繰り返す。対象パターンが無くなれば、処理を終了する。
In step S807, the
(パターン学習処理)
図12Bは、本実施形態に係るパターン学習処理(S803)の具体的な手順を示すフローチャートである。
(Pattern learning process)
FIG. 12B is a flowchart showing a specific procedure of the pattern learning process (S803) according to the present embodiment.
パターン認識装置200は、ステップS901において、特徴変換行列および参照ベクトルの初期値(B0、yk)を認識辞書220から取得する。ステップS903において、学習用の入力ベクトル(x1、x2、…、xN)を取得する。ステップS905において、入力ベクトル(x1、x2、…、xN)を用いて識別関数(数式7)を計算してクラス識別処理をし、損失を累積して認識誤りに相当する評価関数の損失項(数式8の右辺第1項)の値を算出する。ステップS907において、特徴変換行列の列要素によるノルムの比で定義される正則化項(数式8の右辺第2項)の値を算出する。ステップS909において、損失項の値と正則化項の値との総和から評価関数(数式8)の値を求める。
In step S < b> 901, the
パターン認識装置200は、ステップS911において、初期値あるいは以前の評価関数の値Liと、ステップS909で算出した新たな評価関数の値Li+1を比較する。初期値あるいは以前の評価関数の値Liより新たな評価関数の値Li+1が小さく、かつ、本例では閾値αよりも小さくなっていれば、ステップS913に進む。ステップS913において、新たな評価関数の値を認識辞書220に比較基準として保持すると共に、評価関数の値がさらに小さくなるように特徴変換行列を更新して(数式13参照)、ステップS905に戻る。初期値あるいは以前の評価関数の値より新たな評価関数の値が小さくない、または、閾値αよりも小さくなっていなければ、ステップS915において、現在の収束した特徴変換行列Bzを認識辞書220に出力し、パターン学習部240の処理を終了する。
なお、ステップS911の終了条件は、更新回数としてもよい。あるいは、他の終了条件を設定してもよい。 Note that the termination condition in step S911 may be the number of updates. Alternatively, other end conditions may be set.
本実施形態によれば、損失項の形によらず評価関数を最小化する解に到達させ、特徴選択と特徴変換との同時適正化を行なって、パターン認識精度を向上することができる。 According to the present embodiment, it is possible to improve the pattern recognition accuracy by reaching a solution that minimizes the evaluation function regardless of the form of the loss term, and performing simultaneous optimization of feature selection and feature conversion.
すなわち、本実施形態においては、特徴変換行列の列ベクトルをGroup Lassoによってスパース化するため、特徴選択と特徴変換行列を同時に最適化でき、認識精度がより向上する。特に、損失項が特徴変換行列の定数倍に対して不変であっても、正則化項をノルム比で定義することにより、評価関数を最小化する解に到達でき、特徴選択と特徴変換の同時最適化が行える。 That is, in this embodiment, since the column vector of the feature transformation matrix is sparse by Group Lasso, the feature selection and the feature transformation matrix can be optimized simultaneously, and the recognition accuracy is further improved. In particular, even if the loss term is invariant to a constant multiple of the feature transformation matrix, by defining the regularization term with a norm ratio, a solution that minimizes the evaluation function can be reached, and feature selection and feature transformation can be performed simultaneously. Optimization can be performed.
本実施形態のパターン認識装置およびパターン学習部は、認識誤りに相当する量として計算される損失項と、辞書の要素値で定義されるノルム比で計算される正則化項の和が減るように特徴変換行列を更新するよう動作する。このような構成を採用し、特徴選択と特徴変換を同時最適化することにより、認識精度を改善することができる。 The pattern recognition apparatus and the pattern learning unit of the present embodiment reduce the sum of a loss term calculated as an amount corresponding to a recognition error and a regularization term calculated by a norm ratio defined by a dictionary element value. Operates to update the feature transformation matrix. By adopting such a configuration and simultaneously optimizing feature selection and feature conversion, recognition accuracy can be improved.
[第3実施形態]
次に、本発明の第3実施形態に係るパターン学習部を含むパターン認識装置について説明する。本実施形態に係るパターン学習部を含むパターン認識装置は、上記第2実施形態と比べると、特徴変換行列の列ベクトルおよび行ベクトルをGroup Lassoによってスパース化する点で異なる。すなわち、本実施形態の正則化項は、列ベクトルを要素とするノルム比と、行ベクトルを要素とするノルム比とを含む。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
[Third Embodiment]
Next, a pattern recognition apparatus including a pattern learning unit according to the third embodiment of the present invention will be described. The pattern recognition apparatus including the pattern learning unit according to the present embodiment is different from the second embodiment in that the column vector and the row vector of the feature transformation matrix are sparse by Group Lasso. That is, the regularization term of this embodiment includes a norm ratio having a column vector as an element and a norm ratio having a row vector as an element. Since other configurations and operations are the same as those of the second embodiment, the same configurations and operations are denoted by the same reference numerals, and detailed description thereof is omitted.
本実施形態においては、第2実施形態と同じ識別関数を用い、評価関数を次式(数式14)で定義する。
第3項は、次式(数式15および数式16)のように定義する。
本実施形態においても、第2実施形態と同様に、初期化として、クラスごとの入力ベクトルの平均を参照ベクトルykとして設定し、特徴変換行列については、主成分分析で得られる固有ベクトルφiを、固有値の大きい順にp個選んでB=(φ1,…,φp)Tと設定する。しかし、本実施形態においては、(数式14)に示した評価関数の値を計算し、それの値が減少するように特徴変換行列を最急降下法などで更新した後、評価関数を計算しなおす処理を繰り返す。終了条件は、事前に繰り返し回数を決めておいてもよいし、評価関数の変化がある値以下になった時点で処理を終了しても構わない。 Also in the present embodiment, as in the second embodiment, as an initialization, the average of the input vectors for each class is set as the reference vector y k , and the eigenvector φ i obtained by the principal component analysis is set for the feature transformation matrix. Then, select p in descending order of eigenvalues and set B = (φ 1 ,..., Φ p ) T. However, in this embodiment, the value of the evaluation function shown in (Formula 14) is calculated, and the feature conversion matrix is updated by the steepest descent method so that the value decreases, and then the evaluation function is recalculated. Repeat the process. As the end condition, the number of repetitions may be determined in advance, or the process may be ended when the evaluation function changes below a certain value.
《パターン学習部の正則化計算部》
図13は、本実施形態に係る正則化計算部1303の構成を示す図である。なお、図13において、図4の正則化計算部403と同様の機能構成部には同じ参照番号を付して、説明を省略する。
<Regularization calculation part of pattern learning part>
FIG. 13 is a diagram illustrating a configuration of the
行のLvノルム算出部1332は、特徴変換行列の行ベクトルの長さ(ノルム)をv乗して累積した後に(1/v)乗したLvノルムを算出する。行のLwノルム算出部1333は、特徴変換行列の行ベクトルの長さ(ノルム)をw乗して累積した後に(1/w)乗したLwノルムを算出する(v<w)。行のLv/Lw算出部1334は、第3項の正則化項の値として、行の(Lvノルム/Lwノルム)を算出する。正則化項生成部(加算部)1335は、列の(Lvノルム/Lwノルム)と行の(Lvノルム/Lwノルム)とを加算して、正則化項の値とする(数式14参照)。なお、列の(Lvノルム/Lwノルム)と行の(Lvノルム/Lwノルム)とを、評価関数値算出部(加算部)404において損失項と加算してもよい。
The row Lv
(パターン学習処理)
図14は、本実施形態に係るパターン学習処理(S1403)の手順を示すフローチャートである。本実施形態においては、図14の手順により図9の手順を代替する。このフローチャートは、図7のCPU710がRAM740を使用しながら実行し、パターン学習部の機能構成部を実現する。なお、図14において、図9と同様のステップには同じステップ番号を付して、説明を省略する。
(Pattern learning process)
FIG. 14 is a flowchart showing the procedure of the pattern learning process (S1403) according to the present embodiment. In the present embodiment, the procedure of FIG. 9 is replaced by the procedure of FIG. This flowchart is executed by the
パターン認識装置200は、ステップS1407において、損失項として、{λ(||θ||1/||θ||2)+η(||ξ||1/||ξ||2)}を算出する。
In step S1407, the
本実施形態によれば、特徴変換行列の列ベクトルだけでなく行ベクトルもGroup Lassoによってスパース化する。そのため、特徴選択と特徴変換行列の最適化だけでなく、変換後のベクトル次元数も最適化できるため、よりコンパクトな特徴変換行列を作ることができる。これにより、認識精度の向上ばかりでなく、認識処理の高速化も行える。 According to the present embodiment, not only the column vector of the feature transformation matrix but also the row vector is sparse by Group Lasso. Therefore, not only feature selection and feature transformation matrix optimization, but also the number of vector dimensions after transformation can be optimized, so that a more compact feature transformation matrix can be created. Thereby, not only the recognition accuracy can be improved, but also the recognition process can be accelerated.
[第4実施形態]
次に、本発明の第4実施形態に係るパターン学習部を含むパターン認識装置について説明する。本実施形態に係るパターン学習部を含むパターン認識装置は、上記第2実施形態および第3実施形態と比べると、本実施形態の評価関数を用いて特徴変換行列と共に参照ベクトルも最適化する点で異なる。その他の構成および動作は、第2実施形態または第3実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
[Fourth Embodiment]
Next, a pattern recognition apparatus including a pattern learning unit according to the fourth embodiment of the present invention will be described. Compared with the second embodiment and the third embodiment, the pattern recognition apparatus including the pattern learning unit according to the present embodiment optimizes the reference vector together with the feature transformation matrix using the evaluation function of the present embodiment. Different. Since other configurations and operations are the same as those of the second embodiment or the third embodiment, the same configurations and operations are denoted by the same reference numerals, and detailed description thereof is omitted.
(認識辞書)
図15は、本実施形態に係る認識辞書1520の構成を示す図である。なお、図15において、図3と同様の構成要素には同じ参照番号を付して、説明を省略する。また、図15には、識別関数のパラメータのみを図示し、識別関数や評価関数などは省略する。
(Recognition dictionary)
FIG. 15 is a diagram showing the configuration of the
認識辞書1520には、パターン学習部240で最適化した特徴変換行列と参照ベクトルからなるパラメータ更新値1502を記憶する。
The
(パターン学習処理)
図16は、本実施形態に係るパターン学習処理(S1603)の手順を示すフローチャートである。本実施形態においては、図16の手順により図9の手順を代替する。このフローチャートは、図7のCPU710がRAM740を使用しながら実行し、パターン学習部の機能構成部を実現する。なお、図16において、図9と同様のステップには同じステップ番号を付して、説明を省略する。
(Pattern learning process)
FIG. 16 is a flowchart showing the procedure of the pattern learning process (S1603) according to this embodiment. In the present embodiment, the procedure of FIG. 9 is substituted by the procedure of FIG. This flowchart is executed by the
パターン認識装置200は、ステップS911において、特徴変換行列Bの最適値に収束すると、ステップS1615において、特徴変換行列Bの最適値に収束した時点の評価関数値を記憶する。パターン認識装置200は、ステップS1617において、参照ベクトルykを更新する。なお、参照ベクトルykの更新は、損失項を小さくする方向であることが望ましい。パターン認識装置200は、ステップS1619において、参照ベクトルの最適値を取得したか否かを判定する。ステップS1619においては、例えば、参照ベクトルを更新した後に、特徴変換行列Bを最適値に収束した時点の評価関数の値の中で最小の値に収束した参照ベクトルを選択する。参照ベクトルの最適値を取得したなら、パターン認識装置200は、ステップS1623において、その時に特徴変換行列Bの最適値と参照ベクトルykの最適値とを認識辞書220に格納する。
When the
一方、参照ベクトルの最適値を取得していないなら、パターン認識装置200は、ステップS1621において、特徴変換行列を初期化する。そして、パターン認識装置200は、ステップS905に戻り、特徴変換行列Bの最適値を探す。なお、ステップS1621における特徴変換行列の初期化は必須ではなく、現在の特徴変換行列の値を用いてステップSS905に戻ってもよい。
On the other hand, if the optimum value of the reference vector has not been acquired, the
本実施形態によれば、特徴変換行列の最適値に加えて、参照ベクトルの最適化が実現され、認識精度のより一層の向上が達成できる。 According to this embodiment, in addition to the optimum value of the feature transformation matrix, the optimization of the reference vector is realized, and the recognition accuracy can be further improved.
[第5実施形態]
次に、本発明の第5実施形態に係るパターン学習部を含むパターン認識装置について説明する。本実施形態に係るパターン学習部を含むパターン認識装置は、上記第2実施形態乃至第4実施形態と比べると、パターン認識装置においてパターン学習部とは別途に参照ベクトルの初期化において最適化する点で異なる。その他の構成および動作は、第2実施形態、第3実施形態または第4実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
[Fifth Embodiment]
Next, a pattern recognition apparatus including a pattern learning unit according to the fifth embodiment of the present invention will be described. The pattern recognition apparatus including the pattern learning unit according to the present embodiment is optimized in the initialization of the reference vector separately from the pattern learning unit in the pattern recognition apparatus as compared with the second to fourth embodiments. It is different. Since other configurations and operations are the same as those of the second embodiment, the third embodiment, or the fourth embodiment, the same configurations and operations are denoted by the same reference numerals, and detailed description thereof is omitted.
《パターン認識装置の機能構成》
図17は、本実施形態に係るパターン学習部240を含むパターン認識装置1700の機能構成を示すブロック図である。なお、図17において、図2と同様の機能構成部には同じ参照番号を付して、説明を省略する。
<Functional configuration of pattern recognition device>
FIG. 17 is a block diagram showing a functional configuration of a
参照ベクトル更新部1750は、パラメータ初期値生成部210において生成された参照ベクトルykを、最適な位置に更新する。かかる参照ベクトルykの更新方向は、初期値生成用の入力ベクトルや、学習用入力ベクトルを用いて、本実施形態の識別関数および評価関数に基づいて行なってもよいし、既存の参照ベクトルykの最適化によって実行してもよい。
The reference vector update unit 1750 updates the reference vector y k generated by the parameter initial
本実施形態においては、特徴変換行列の最適化に使用する参照ベクトルを、クラスごとの入力ベクトルの平均を参照ベクトルykとして設定した後に、参照ベクトル更新部1750において参照ベクトルykを最適な位置に更新するので、認識精度のより一層の向上が達成できる。 In this embodiment, after setting the reference vector used for optimizing the feature transformation matrix as the reference vector y k as the average of the input vectors for each class, the reference vector update unit 1750 sets the reference vector y k to the optimal position. Since it is updated, the recognition accuracy can be further improved.
《パターン認識装置の処理手順》
図18は、本実施形態に係るパターン認識装置1700の処理手順を示すフローチャートである。このフローチャートは、図7のCPU710がRAM740を使用しながら実行し、図18のパターン認識装置1700の機能構成部を実現する。なお、図18において、図8と同様のステップには同じステップ番号を付して、説明を省略する。
<< Processing procedure of pattern recognition device >>
FIG. 18 is a flowchart showing a processing procedure of the
パターン認識装置1700は、ステップS1802において、ステップS801で生成された参照ベクトルを最適な位置に更新する処理を行なって、認識辞書220に保持する。
In step S1802, the
本実施形態によれば、最適化された参照ベクトルに基づいて特徴変換行列の最適値を行なうので、認識精度のより一層の向上が達成できる。 According to the present embodiment, since the optimum value of the feature transformation matrix is performed based on the optimized reference vector, the recognition accuracy can be further improved.
[他の実施形態]
本発明の活用例として、画像中に含まれる対象物を自動検出する検出装置や、検出装置をコンピュータに実現するためのプログラムなどの用途が挙げられる。
[Other Embodiments]
Applications of the present invention include applications such as a detection device that automatically detects an object included in an image and a program for realizing the detection device on a computer.
なお、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。また、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステムまたは装置も、本発明の範疇に含まれる。 In addition, although this invention was demonstrated with reference to embodiment, this invention is not limited to the said embodiment. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention. In addition, a system or an apparatus in which different features included in each embodiment are combined in any way is also included in the scope of the present invention.
また、本発明は、複数の機器から構成されるシステムに適用されてもよいし、単体の装置に適用されてもよい。さらに、本発明は、実施形態の機能を実現するパターン認識プログラムやパターン学習プログラムが、システムあるいは装置に直接あるいは遠隔から供給される場合にも適用可能である。したがって、本発明の機能をコンピュータで実現するために、コンピュータにインストールされるプログラム、あるいはそのプログラムを格納した媒体、そのプログラムをダウンロードさせるWWW(World Wide Web)サーバも、本発明の範疇に含まれる。特に、少なくとも、上述した実施形態に含まれる処理ステップをコンピュータに実行させるプログラムを格納した非一時的コンピュータ可読媒体(non-transitory computer readable medium)は本発明の範疇に含まれる。 In addition, the present invention may be applied to a system composed of a plurality of devices, or may be applied to a single device. Furthermore, the present invention is also applicable to a case where a pattern recognition program or a pattern learning program that realizes the functions of the embodiment is supplied directly or remotely to a system or apparatus. Therefore, in order to realize the functions of the present invention on a computer, a program installed in the computer, a medium storing the program, and a WWW (World Wide Web) server that downloads the program are also included in the scope of the present invention. . In particular, at least a non-transitory computer readable medium storing a program for causing a computer to execute the processing steps included in the above-described embodiments is included in the scope of the present invention.
[実施形態の他の表現]
上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
パターン認識に用いる識別関数のパラメータの初期値を入力する初期値入力手段と、
学習用の入力ベクトルに基づいて、前記識別関数を評価する評価関数における認識誤りに相当する損失項を計算する損失計算手段と、
前記評価関数における正則化項を計算する正則化計算手段と、
前記損失項と前記正則化項との総和が減少するように、前記識別関数のパラメータを更新するパラメータ更新手段と、
前記パラメータ更新手段による更新後の前記識別関数のパラメータを出力するパラメータ出力手段と、
を備え、
前記正則化計算手段は、前記識別関数の特徴変換行列を用いたノルムの比で定義される正則化項を計算する、パターン学習装置。
(付記2)
前記特徴変換行列は、入力ベクトルの要素を選択することにより次元を減らす特徴選択と、前記入力ベクトルを線形変換して次元を減らす特徴変換と、を行なう行列である、付記1に記載のパターン学習装置。
(付記3)
前記正則化項が、前記特徴変換行列の列ベクトルを用いたノルムの比で定義される付記1または2に記載のパターン学習装置。
(付記4)
前記正則化項が、前記特徴変換行列の行ベクトルを用いたノルムの比で定義される付記1乃至3のいずれか1項に記載のパターン学習装置。
(付記5)
分子をLvノルムとし、分母をLwノルムとする場合(v, wは実数)、wがvより大きいノルムの比を前記正則化項とする、付記1乃至4のいずれか1項に記載のパターン学習装置。
(付記6)
前記正則化項は、分子をL1ノルムとし、分母をL2ノルムとする、ノルムの比を用いる、付記5に記載のパターン学習装置。
(付記7)
前記識別関数は、前記パラメータの初期値として、前記特徴変換行列と、入力ベクトルのクラス識別に用いる参照ベクトルと、を有し、
前記パラメータ更新手段は、所定の参照ベクトルに基づいて、前記特徴変換行列を変更する、付記1乃至6のいずれか1項に記載のパターン学習装置。
(付記8)
前記識別関数は、前記パラメータの初期値として、前記特徴変換行列と、入力ベクトルのクラス識別に用いる参照ベクトルと、を有し、
前記パラメータ更新手段は、前記参照ベクトルと前記特徴変換行列とを変更する、付記1乃至6のいずれか1項に記載のパターン学習装置。
(付記9)
前記損失項は、前記特徴変換行列を定数倍しても同じ値をとるように、分子と分母とに前記特徴変換行列を含む間違いやすさを表わす量の関数として定義される、付記1乃至8のいずれか1項に記載のパターン学習装置。
(付記10)
前記識別関数のパラメータの初期値を生成する初期値生成手段を、さらに備え、
前記初期値生成手段は、クラスごとの入力ベクトルの平均を参照ベクトルとして設定し、主成分分析で得られる固有ベクトルφiを固有値の大きい順にp個選んで特徴変換行列B=(φ1,…,φp)Tと設定する、付記1乃至9のいずれか1項に記載のパターン学習装置。
(付記11)
付記1乃至10のいずれか1項に記載のパターン学習装置を有するパターン認識装置であって、
前記識別関数のパラメータの初期値および前記パラメータ出力手段が出力した前記更新後の前記識別関数のパラメータを格納する認識辞書と、
前記初期値および前記学習用の入力ベクトルに基づいて、前記パターン学習装置に前記更新後の前記識別関数のパラメータを生成させるパラメータ生成指示手段と、
入力された認識対象の入力ベクトルに基づいて、前記更新後の前記識別関数のパラメータを用いた前記識別関数によりクラス識別を行なうクラス識別手段と、
を備えるパターン認識装置。
(付記12)
前記パラメータ生成指示手段は、前記識別関数のパラメータとして前記特徴変換行列を更新させ、
前記識別関数のパラメータである参照ベクトルを更新させる参照ベクトル更新手段を、さらに備える付記11に記載のパターン認識装置。
(付記13)
前記識別関数のパラメータの初期値を生成する初期値生成手段を、さらに備え、
前記初期値生成手段は、クラスごとの入力ベクトルの平均を参照ベクトルとして設定し、主成分分析で得られる固有ベクトルφiを固有値の大きい順にp個選んで特徴変換行列B=(φ1,…,φp)Tと設定する、付記11または12に記載のパターン認識装置。
(付記14)
パターン認識に用いる識別関数のパラメータの初期値を入力する初期値入力ステップと、
学習用の入力ベクトルに基づいて、前記識別関数を評価する評価関数における認識誤りに相当する損失項を計算する損失計算ステップと、
前記評価関数における正則化項を計算する正則化計算ステップと、
前記損失項と前記正則化項との総和が減少するように、前記識別関数のパラメータを更新するパラメータ更新ステップと、
前記パラメータ更新ステップにおいて更新後の前記識別関数のパラメータを出力するパラメータ出力ステップと、
を含み、
前記正則化計算ステップにおいては、前記識別関数の特徴変換行列を用いたノルムの比で定義される正則化項を計算する、パターン学習方法。
(付記15)
前記識別関数のパラメータの初期値を生成する初期値生成ステップを、さらに含み、
前記初期値生成ステップにおいては、クラスごとの入力ベクトルの平均を参照ベクトルとして設定し、主成分分析で得られる固有ベクトルφiを固有値の大きい順にp個選んで特徴変換行列B=(φ1,…,φp)Tと設定する、付記14に記載のパターン学習方法。
(付記16)
付記14または15のパターン学習方法を含むパターン認識方法であって、
前記初期値および前記学習用の入力ベクトルに基づいて、前記パターン学習方法により前記更新後の前記識別関数のパラメータを生成させるパラメータ生成指示ステップと、
入力された認識対象の入力ベクトルに基づいて、前記更新後の前記識別関数のパラメータを用いた前記識別関数によりクラス識別を行なうクラス識別ステップと、
を含むパターン認識方法。
(付記17)
前記パラメータ生成指示ステップにおいては、前記識別関数のパラメータとして前記特徴変換行列を更新させ、
前記識別関数のパラメータである参照ベクトルを更新させる参照ベクトル更新ステップを、さらに含む付記16に記載のパターン認識方法。
(付記18)
パターン認識に用いる識別関数のパラメータの初期値を入力する初期値入力ステップと、
学習用の入力ベクトルに基づいて、前記識別関数を評価する評価関数における認識誤りに相当する損失項を計算する損失計算ステップと、
前記評価関数における正則化項を計算する正則化計算ステップと、
前記損失項と前記正則化項との総和が減少するように、前記識別関数のパラメータを更新するパラメータ更新ステップと、
前記パラメータ更新ステップにおいて更新後の前記識別関数のパラメータを出力するパラメータ出力ステップと、
をコンピュータに実行させるパターン学習プログラムであって、
前記正則化計算ステップにおいては、前記識別関数の特徴変換行列を用いたノルムの比で定義される正則化項を計算する、パターン学習プログラム。
(付記19)
前記識別関数のパラメータの初期値を生成する初期値生成ステップを、さらに含み、
前記初期値生成ステップにおいては、クラスごとの入力ベクトルの平均を参照ベクトルとして設定し、主成分分析で得られる固有ベクトルφiを固有値の大きい順にp個選んで特徴変換行列B=(φ1,…,φp)Tと設定する、付記18に記載のパターン学習プログラム。
(付記20)
付記18または19のパターン学習プログラムを含むパターン認識プログラムであって、
前記初期値および前記学習用の入力ベクトルに基づいて前記パターン学習プログラムを実行させ、前記更新後の前記識別関数のパラメータを生成させるパラメータ生成指示ステップと、
入力された認識対象の入力ベクトルに基づいて、前記更新後の前記識別関数のパラメータを用いた前記識別関数によりクラス識別を行なうクラス識別ステップと、
をコンピュータに実行させるパターン認識プログラム。
(付記21)
前記パラメータ生成指示ステップにおいては、前記識別関数のパラメータとして前記特徴変換行列を更新させ、
前記識別関数のパラメータである参照ベクトルを更新させる参照ベクトル更新ステップを、さらにコンピュータに実行させる付記20に記載のパターン認識プログラム。
[Other expressions of embodiment]
A part or all of the above-described embodiment can be described as in the following supplementary notes, but is not limited thereto.
(Appendix 1)
An initial value input means for inputting an initial value of a parameter of an identification function used for pattern recognition;
A loss calculating means for calculating a loss term corresponding to a recognition error in the evaluation function for evaluating the discriminant function based on an input vector for learning;
Regularization calculation means for calculating a regularization term in the evaluation function;
Parameter updating means for updating the parameters of the discriminant function so that the sum of the loss term and the regularization term decreases;
Parameter output means for outputting the parameters of the discrimination function after being updated by the parameter update means;
With
The regularization calculation means is a pattern learning device that calculates a regularization term defined by a norm ratio using a feature transformation matrix of the discriminant function.
(Appendix 2)
The pattern learning according to
(Appendix 3)
The pattern learning apparatus according to
(Appendix 4)
The pattern learning device according to any one of
(Appendix 5)
The pattern according to any one of
(Appendix 6)
The pattern learning device according to appendix 5, wherein the regularization term uses a norm ratio in which a numerator is an L1 norm and a denominator is an L2 norm.
(Appendix 7)
The discriminant function includes, as initial values of the parameters, the feature transformation matrix and a reference vector used for class discrimination of an input vector,
The pattern learning device according to any one of
(Appendix 8)
The discriminant function includes, as initial values of the parameters, the feature transformation matrix and a reference vector used for class discrimination of an input vector,
The pattern learning device according to any one of
(Appendix 9)
The loss term is defined as a function of an amount representing an error probability including the feature transformation matrix in the numerator and the denominator so that the same value is obtained even if the feature transformation matrix is multiplied by a constant. The pattern learning device according to any one of the above.
(Appendix 10)
An initial value generating means for generating an initial value of the parameter of the discriminant function;
The initial value generating means sets an average of input vectors for each class as a reference vector, selects p eigenvectors φ i obtained by principal component analysis in descending order of eigenvalues, and a feature transformation matrix B = (φ 1 ,... The pattern learning device according to any one of
(Appendix 11)
A pattern recognition apparatus having the pattern learning apparatus according to any one of
A recognition dictionary for storing initial values of parameters of the discriminant function and parameters of the discriminant function after the update output by the parameter output means;
Based on the initial value and the input vector for learning, parameter generation instructing means for causing the pattern learning device to generate parameters of the updated identification function;
Class identification means for performing class identification by the identification function using the parameter of the identification function after the update based on the input recognition target input vector;
A pattern recognition apparatus comprising:
(Appendix 12)
The parameter generation instruction means updates the feature transformation matrix as a parameter of the discriminant function,
The pattern recognition apparatus according to
(Appendix 13)
An initial value generating means for generating an initial value of the parameter of the discriminant function;
The initial value generating means sets an average of input vectors for each class as a reference vector, selects p eigenvectors φ i obtained by principal component analysis in descending order of eigenvalues, and a feature transformation matrix B = (φ 1 ,... The pattern recognition device according to
(Appendix 14)
An initial value input step for inputting an initial value of a parameter of a discrimination function used for pattern recognition;
A loss calculating step for calculating a loss term corresponding to a recognition error in the evaluation function for evaluating the discriminant function based on an input vector for learning;
A regularization calculation step for calculating a regularization term in the evaluation function;
A parameter updating step for updating the parameters of the discriminant function so that the sum of the loss term and the regularization term decreases;
A parameter output step for outputting the parameter of the discriminant function after the update in the parameter update step;
Including
In the regularization calculation step, a pattern learning method of calculating a regularization term defined by a norm ratio using a feature transformation matrix of the discriminant function.
(Appendix 15)
An initial value generating step of generating an initial value of a parameter of the discriminant function;
In the initial value generation step, an average of input vectors for each class is set as a reference vector, and p eigenvectors i obtained by principal component analysis are selected in descending order of eigenvalues, and feature transformation matrix B = (φ 1 ,. , φ p ) T , The pattern learning method according to appendix 14.
(Appendix 16)
A pattern recognition method including the pattern learning method according to appendix 14 or 15,
Based on the initial value and the input vector for learning, a parameter generation instruction step for generating the updated parameters of the discriminant function by the pattern learning method;
A class identifying step for performing class identification by the identification function using the parameters of the updated identification function based on the input recognition target input vector;
A pattern recognition method including:
(Appendix 17)
In the parameter generation instruction step, the feature transformation matrix is updated as a parameter of the discrimination function,
The pattern recognition method according to appendix 16, further comprising a reference vector update step of updating a reference vector that is a parameter of the discrimination function.
(Appendix 18)
An initial value input step for inputting an initial value of a parameter of a discrimination function used for pattern recognition;
A loss calculating step for calculating a loss term corresponding to a recognition error in the evaluation function for evaluating the discriminant function based on an input vector for learning;
A regularization calculation step for calculating a regularization term in the evaluation function;
A parameter updating step for updating the parameters of the discriminant function so that the sum of the loss term and the regularization term decreases;
A parameter output step for outputting the parameter of the discriminant function after the update in the parameter update step;
A pattern learning program for causing a computer to execute
In the regularization calculation step, a pattern learning program that calculates a regularization term defined by a norm ratio using a feature transformation matrix of the discriminant function.
(Appendix 19)
An initial value generating step of generating an initial value of a parameter of the discriminant function;
In the initial value generation step, an average of input vectors for each class is set as a reference vector, and p eigenvectors i obtained by principal component analysis are selected in descending order of eigenvalues, and feature transformation matrix B = (φ 1 ,. , φ p ) The pattern learning program according to appendix 18, which is set as T.
(Appendix 20)
A pattern recognition program including the pattern learning program according to appendix 18 or 19,
A parameter generation instruction step for causing the pattern learning program to be executed based on the initial value and the input vector for learning, and generating a parameter of the discriminant function after the update;
A class identifying step for performing class identification by the identification function using the parameters of the updated identification function based on the input recognition target input vector;
A pattern recognition program that causes a computer to execute.
(Appendix 21)
In the parameter generation instruction step, the feature transformation matrix is updated as a parameter of the discrimination function,
The pattern recognition program according to appendix 20, further causing a computer to execute a reference vector update step of updating a reference vector that is a parameter of the discrimination function.
Claims (10)
学習用の入力ベクトルに基づいて、前記識別関数を評価する評価関数における認識誤りに相当する損失項を計算する損失計算手段と、
前記評価関数における正則化項を計算する正則化計算手段と、
前記損失項と前記正則化項との総和が減少するように、前記識別関数のパラメータを更新するパラメータ更新手段と、
前記パラメータ更新手段による更新後の前記識別関数のパラメータを出力するパラメータ出力手段と、
を備え、
前記正則化計算手段は、前記識別関数の特徴変換行列を用いたノルムの比で定義される正則化項を計算する、パターン学習装置。 An initial value input means for inputting an initial value of a parameter of an identification function used for pattern recognition;
A loss calculating means for calculating a loss term corresponding to a recognition error in the evaluation function for evaluating the discriminant function based on an input vector for learning;
Regularization calculation means for calculating a regularization term in the evaluation function;
Parameter updating means for updating the parameters of the discriminant function so that the sum of the loss term and the regularization term decreases;
Parameter output means for outputting the parameters of the discrimination function after being updated by the parameter update means;
With
The regularization calculation means is a pattern learning device that calculates a regularization term defined by a norm ratio using a feature transformation matrix of the discriminant function.
前記パラメータ更新手段は、所定の参照ベクトルに基づいて、前記特徴変換行列を変更する、請求項1乃至5のいずれか1項に記載のパターン学習装置。 The discriminant function includes, as initial values of the parameters, the feature transformation matrix and a reference vector used for class discrimination of an input vector,
The pattern learning device according to claim 1, wherein the parameter update unit changes the feature transformation matrix based on a predetermined reference vector.
前記パラメータ更新手段は、前記参照ベクトルと前記特徴変換行列とを変更する、請求項1乃至5のいずれか1項に記載のパターン学習装置。 The discriminant function includes, as initial values of the parameters, the feature transformation matrix and a reference vector used for class discrimination of an input vector,
The pattern learning device according to claim 1, wherein the parameter update unit changes the reference vector and the feature transformation matrix.
前記識別関数のパラメータの初期値および前記パラメータ出力手段が出力した前記更新後の前記識別関数のパラメータを格納する認識辞書と、
前記初期値および前記学習用の入力ベクトルに基づいて、前記パターン学習装置に前記更新後の前記識別関数のパラメータを生成させるパラメータ生成指示手段と、
入力された認識対象の入力ベクトルに基づいて、前記更新後の前記識別関数のパラメータを用いた前記識別関数によりクラス識別を行なうクラス識別手段と、
を備えるパターン認識装置。 A pattern recognition device comprising the pattern learning device according to claim 1,
A recognition dictionary for storing initial values of parameters of the discriminant function and parameters of the discriminant function after the update output by the parameter output means;
Based on the initial value and the input vector for learning, parameter generation instructing means for causing the pattern learning device to generate parameters of the updated identification function;
Class identification means for performing class identification by the identification function using the parameter of the identification function after the update based on the input recognition target input vector;
A pattern recognition apparatus comprising:
学習用の入力ベクトルに基づいて、前記識別関数を評価する評価関数における認識誤りに相当する損失項を計算する損失計算ステップと、
前記評価関数における正則化項を計算する正則化計算ステップと、
前記損失項と前記正則化項との総和が減少するように、前記識別関数のパラメータを更新するパラメータ更新ステップと、
前記パラメータ更新ステップにおいて更新後の前記識別関数のパラメータを出力するパラメータ出力ステップと、
を含み、
前記正則化計算ステップにおいては、前記識別関数の特徴変換行列を用いたノルムの比で定義される正則化項を計算する、パターン学習方法。 An initial value input step for inputting an initial value of a parameter of a discrimination function used for pattern recognition;
A loss calculating step for calculating a loss term corresponding to a recognition error in the evaluation function for evaluating the discriminant function based on an input vector for learning;
A regularization calculation step for calculating a regularization term in the evaluation function;
A parameter updating step for updating the parameters of the discriminant function so that the sum of the loss term and the regularization term decreases;
A parameter output step for outputting the parameter of the discriminant function after the update in the parameter update step;
Including
In the regularization calculation step, a pattern learning method of calculating a regularization term defined by a norm ratio using a feature transformation matrix of the discriminant function.
学習用の入力ベクトルに基づいて、前記識別関数を評価する評価関数における認識誤りに相当する損失項を計算する損失計算ステップと、
前記評価関数における正則化項を計算する正則化計算ステップと、
前記損失項と前記正則化項との総和が減少するように、前記識別関数のパラメータを更新するパラメータ更新ステップと、
前記パラメータ更新ステップにおいて更新後の前記識別関数のパラメータを出力するパラメータ出力ステップと、
をコンピュータに実行させるパターン学習プログラムであって、
前記正則化計算ステップにおいては、前記識別関数の特徴変換行列を用いたノルムの比で定義される正則化項を計算する、パターン学習プログラム。 An initial value input step for inputting an initial value of a parameter of a discrimination function used for pattern recognition;
A loss calculating step for calculating a loss term corresponding to a recognition error in the evaluation function for evaluating the discriminant function based on an input vector for learning;
A regularization calculation step for calculating a regularization term in the evaluation function;
A parameter updating step for updating the parameters of the discriminant function so that the sum of the loss term and the regularization term decreases;
A parameter output step for outputting the parameter of the discriminant function after the update in the parameter update step;
A pattern learning program for causing a computer to execute
In the regularization calculation step, a pattern learning program that calculates a regularization term defined by a norm ratio using a feature transformation matrix of the discriminant function.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014201180A JP6409463B2 (en) | 2014-09-30 | 2014-09-30 | Pattern recognition device, pattern learning device, pattern learning method, and pattern learning program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014201180A JP6409463B2 (en) | 2014-09-30 | 2014-09-30 | Pattern recognition device, pattern learning device, pattern learning method, and pattern learning program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016071684A true JP2016071684A (en) | 2016-05-09 |
JP6409463B2 JP6409463B2 (en) | 2018-10-24 |
Family
ID=55864789
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014201180A Active JP6409463B2 (en) | 2014-09-30 | 2014-09-30 | Pattern recognition device, pattern learning device, pattern learning method, and pattern learning program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6409463B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019123642A1 (en) * | 2017-12-22 | 2019-06-27 | 日本電気株式会社 | Image recognition system, method, and program, and parameter-learning system, method, and program |
WO2020209086A1 (en) * | 2019-04-11 | 2020-10-15 | 日本電信電話株式会社 | Data analysis device, data analysis method, and data analysis program |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011096010A1 (en) * | 2010-02-02 | 2011-08-11 | 株式会社 東芝 | Pattern recognition device |
-
2014
- 2014-09-30 JP JP2014201180A patent/JP6409463B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011096010A1 (en) * | 2010-02-02 | 2011-08-11 | 株式会社 東芝 | Pattern recognition device |
Non-Patent Citations (1)
Title |
---|
HUI ZOU, TREVOR HASTIE: "Regularization and variable selection via the elastic net", J. R. STATIST. SOC. B(2005) 67, PART 2, vol. Vol.67, Part2, JPN7018002934, 2005, pages 301 - 320, ISSN: 0003867380 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019123642A1 (en) * | 2017-12-22 | 2019-06-27 | 日本電気株式会社 | Image recognition system, method, and program, and parameter-learning system, method, and program |
JPWO2019123642A1 (en) * | 2017-12-22 | 2020-11-19 | 日本電気株式会社 | Image recognition systems, methods and programs, and parameter learning systems, methods and programs |
JP7031686B2 (en) | 2017-12-22 | 2022-03-08 | 日本電気株式会社 | Image recognition systems, methods and programs, as well as parameter learning systems, methods and programs |
US11334772B2 (en) | 2017-12-22 | 2022-05-17 | Nec Corporation | Image recognition system, method, and program, and parameter-training system, method, and program |
WO2020209086A1 (en) * | 2019-04-11 | 2020-10-15 | 日本電信電話株式会社 | Data analysis device, data analysis method, and data analysis program |
Also Published As
Publication number | Publication date |
---|---|
JP6409463B2 (en) | 2018-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220036194A1 (en) | Deep neural network optimization system for machine learning model scaling | |
Hara et al. | Making tree ensembles interpretable: A bayesian model selection approach | |
Xie et al. | Implicit block diagonal low-rank representation | |
US9002101B2 (en) | Recognition device, recognition method, and computer program product | |
CN108446741B (en) | Method, system and storage medium for evaluating importance of machine learning hyper-parameter | |
Jin et al. | Rc-darts: Resource constrained differentiable architecture search | |
CN111882026B (en) | Optimizing an unsupervised generation countermeasure network by potential spatial regularization | |
JP5207870B2 (en) | Dimension reduction method, pattern recognition dictionary generation device, and pattern recognition device | |
CN113313053B (en) | Image processing method, device, apparatus, medium, and program product | |
Lee et al. | Visual question answering over scene graph | |
JP2022078310A (en) | Image classification model generation method, device, electronic apparatus, storage medium, computer program, roadside device and cloud control platform | |
Xu et al. | Graphical modeling for multi-source domain adaptation | |
WO2016125500A1 (en) | Feature transformation device, recognition device, feature transformation method and computer readable recording medium | |
WO2019155523A1 (en) | Classifier forming device, classifier forming method, and non-transitory computer-readable medium for storing program | |
JP6409463B2 (en) | Pattern recognition device, pattern learning device, pattern learning method, and pattern learning program | |
CN114170465A (en) | Attention mechanism-based 3D point cloud classification method, terminal device and storage medium | |
Sidaoui et al. | Binary tree multi-class SVM based on OVA approach and variable neighbourhood search algorithm | |
CN113762005B (en) | Feature selection model training and object classification methods, devices, equipment and media | |
Liu et al. | Focusformer: Focusing on what we need via architecture sampler | |
CN110555099B (en) | Computer-implemented method and apparatus for language processing using neural networks | |
Chen et al. | Switching poisson gamma dynamical systems | |
Ahmed et al. | Branchconnect: Image categorization with learned branch connections | |
Rafati et al. | Trust-region minimization algorithm for training responses (TRMinATR): The rise of machine learning techniques | |
Dzwinel et al. | 2-d embedding of large and high-dimensional data with minimal memory and computational time requirements | |
Yang et al. | Self-ordering point clouds |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170807 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180706 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180828 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180910 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6409463 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |