JP2014153763A - Pattern recognition device, pattern recognition method and pattern recognition program - Google Patents
Pattern recognition device, pattern recognition method and pattern recognition program Download PDFInfo
- Publication number
- JP2014153763A JP2014153763A JP2013020611A JP2013020611A JP2014153763A JP 2014153763 A JP2014153763 A JP 2014153763A JP 2013020611 A JP2013020611 A JP 2013020611A JP 2013020611 A JP2013020611 A JP 2013020611A JP 2014153763 A JP2014153763 A JP 2014153763A
- Authority
- JP
- Japan
- Prior art keywords
- recognition
- pattern
- posterior probability
- unit
- pattern recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Character Discrimination (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明の実施形態は、パターン認識装置、パターン認識方法、及びパターン認識プログラムに関する。 Embodiments described herein relate generally to a pattern recognition apparatus, a pattern recognition method, and a pattern recognition program.
従来から、入力された文字、音声、又は画像などを自動的に分類するパターン認識技術が知られている。このようなパターン認識の分野では、二次形式の形の識別関数が多く用いられている。これらの識別関数には、最近傍決定法及びその実現手段の学習ベクトル量子化、複合類似度及びその派生系である部分空間法、カーネル部分空間法、相互部分空間法、類似ベイズ法(修正二次識別関数)、球面擬似ベイズ法などがある。 Conventionally, a pattern recognition technique for automatically classifying input characters, sounds, images, or the like is known. In the field of such pattern recognition, a discriminant function in the form of a quadratic form is often used. These discriminant functions include the nearest neighbor determination method and the learning vector quantization of its means of realization, the composite similarity and its derivative subspace method, kernel subspace method, mutual subspace method, similarity Bayes method (modified two Order discriminant function), and spherical pseudo Bayes method.
しかしながら、従来のパターン認識技術は、用いる識別関数が確率的な意味を有していない。そのため、従来のパターン認識技術では、言語モデルによる知識処理などの他の分野との相性が悪く、システム全体の性能が低下する。 However, in the conventional pattern recognition technology, the discriminant function used does not have a probabilistic meaning. Therefore, the conventional pattern recognition technology is not compatible with other fields such as knowledge processing using a language model, and the performance of the entire system is lowered.
実施形態に係るパターン認識装置は、入力パターンから特徴ベクトルを抽出する抽出部と、前記特徴ベクトルに対する識別関数値を計算する第1計算部と、前記識別関数値から、前記入力パターンの分類先に相当する認識分類ごとの事後確率を計算する第2計算部と、前記事後確率に基づき、前記入力パターンを前記認識分類のいずれかに分類する認識部と、を備える。 The pattern recognition apparatus according to the embodiment includes an extraction unit that extracts a feature vector from an input pattern, a first calculation unit that calculates a discrimination function value for the feature vector, and a classification destination of the input pattern from the discrimination function value. A second calculation unit that calculates a posterior probability for each corresponding recognition classification; and a recognition unit that classifies the input pattern into one of the recognition classifications based on the posterior probability.
以下に、添付図面を参照して、パターン認識装置、パターン認識方法、及びパターン認識プログラムの実施形態を詳細に説明する。 Hereinafter, embodiments of a pattern recognition apparatus, a pattern recognition method, and a pattern recognition program will be described in detail with reference to the accompanying drawings.
[第1の実施形態]
<装置構成>
図1は、本実施形態に係るパターン認識装置100の構成例を示す図である。図1に示すように、本実施形態に係るパターン認識装置100は、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、及びRAM(Random Access Memory)103などを備えている。また、パターン認識装置100は、外部記憶装置104、入力装置105、表示装置106、及び通信IF(Interface)107などを備えている。本実施形態に係るパターン認識装置100は、各ハードウェアがバスBを介して接続されている。
[First Embodiment]
<Device configuration>
FIG. 1 is a diagram illustrating a configuration example of a
CPU101は、装置全体の制御や搭載機能を実現する演算装置である。ROM102は、例えば、機能を実現するプログラムや機能設定のデータなどが格納されている不揮発性の半導体メモリである。RAM103は、プログラムやデータが読み出され一時保持される揮発性の半導体メモリである。よって、CPU101は、例えば、ROM102から、プログラムやデータをRAM103上に読み出し、処理を実行することで、装置全体の制御や搭載機能を実現する。
The
外部記憶装置104は、例えば、HDD(Hard Disk Drive)やメモリカード(Memory Card)などの不揮発性の記憶装置である。なお、外部記憶装置104には、フレキシブルディスク(FD)、CD(Compact Disk)、及びDVD(Digital Versatile Disk)などの記録媒体も含まれる。入力装置105は、例えば、テンキー、タッチパネル、又はキーボードなどであり、パターン認識装置100に各操作信号を入力するのに用いられる。表示装置106は、例えば、ディスプレイなどであり、パターン認識装置100による処理結果を表示する。通信IF107は、パターン認識装置100を所定のデータ伝送路に接続するインタフェースである。これにより、パターン認識装置100は、通信IF107を介して、他の機器とデータ通信を行うことができる。
The
以上のように、本実施形態では、上記構成により、入力信号を自動分類するパターン認識機能を提供することができる。 As described above, according to the present embodiment, a pattern recognition function for automatically classifying input signals can be provided by the above configuration.
<パターン認識機能>
本実施形態に係るパターン認識機能について説明する。本実施形態に係るパターン認識装置100は、入力パターンから特徴ベクトルを抽出する。パターン認識装置100は、特徴ベクトルに対する識別関数の値(以下「識別関数値」という)を計算する。パターン認識装置100は、確率的な意味を有する確率尺度に変換するための変換パラメータ(以下「尤度変換パラメータ」という)に基づき、識別関数値を事後確率に変換し、入力パターンの分類先に相当する認識分類ごとの事後確率を計算する。パターン認識装置100は、事後確率に基づき、入力パターンを認識分類のいずれかに分類する。本実施形態に係るパターン認識装置100は、このようなパターン認識機能を有している。
<Pattern recognition function>
The pattern recognition function according to this embodiment will be described. The
従来のパターン認識技術では、二次形式の形の識別関数が用いられているが、用いる識別関数が確率的な意味を必ずしも有していない。そのため、従来のパターン認識技術では、言語モデルによる知識処理などの他の分野との相性が悪く、システム全体の性能が低下する。 In the conventional pattern recognition technique, a discriminant function in a quadratic form is used, but the discriminant function used does not necessarily have a probabilistic meaning. Therefore, the conventional pattern recognition technology is not compatible with other fields such as knowledge processing using a language model, and the performance of the entire system is lowered.
そこで、本実施形態に係るパターン認識機能では、上記識別関数が、いずれもガウス分布の対数尤度(尤度の自然対数)の近似とみなせる点に着目し、識別関数一般について統一した取り扱いの方法を提案する。さらに、本実施形態に係るパターン認識機能では、事後確率によって学習指標を与えることで、初期値に依存せず収束を保証し、逐次パターン学習する仕組みを提案する。 Therefore, in the pattern recognition function according to the present embodiment, focusing on the fact that any of the above discriminant functions can be regarded as an approximation of the logarithmic likelihood (natural logarithm of likelihood) of a Gaussian distribution, a handling method unified with respect to discriminant functions in general Propose. Furthermore, in the pattern recognition function according to the present embodiment, a mechanism is proposed in which convergence is guaranteed without depending on the initial value by providing a learning index based on a posteriori probability, and sequential pattern learning is performed.
以下に、本実施形態に係るパターン認識機能の構成とその動作について説明する。図2は、本実施形態に係るパターン認識機能の構成例を示す図である。図2に示すように、本実施形態に係るパターン認識機能は、信号入力部11、特徴抽出部12、識別関数計算部(第1計算部)13、事後確率計算部(第2計算部)14、認識部15、及び認識結果破棄部16などを有している。本実施形態では、これらの各機能部の動作により、パターン認識の基本機能(以上便宜上「基本機能」という)を実現する。また、本実施形態に係るパターン認識機能は、尤度変換パラメータ更新部(第1更新部)17と辞書更新部(第2更新部)18などを有している。本実施形態では、これらの各機能部の動作により、認識結果に基づくパターン学習機能(以下便宜上「学習機能」という)を実現する。
The configuration and operation of the pattern recognition function according to this embodiment will be described below. FIG. 2 is a diagram illustrating a configuration example of the pattern recognition function according to the present embodiment. As shown in FIG. 2, the pattern recognition function according to the present embodiment includes a signal input unit 11, a
《基本機能》
信号入力部11は、認証対象である入力パターンを入力信号として受け付ける。認証対象である入力パターンには、文字、音声、又は画像などがあり、入力信号には、これらのデジタル情報や、これらのデジタル情報に対して所定の信号処理(例えば「2値化」)を施した前処理のデジタル情報などが相当する。
<Basic functions>
The signal input unit 11 receives an input pattern to be authenticated as an input signal. The input pattern to be authenticated includes characters, sounds, images, and the like, and the input signal is subjected to a predetermined signal process (for example, “binarization”) on the digital information and the digital information. This corresponds to preprocessed digital information.
特徴抽出部12は、入力パターンから特徴ベクトルを抽出する。特徴抽出部12は、信号入力部11からの入力信号を一定次元の数ベクトルに変換する。特徴抽出部12は、入力信号に対して、長さや量子化レベルを正規化するなどの前処理を実行し、前処理後の信号値を得る。特徴抽出部12は、前処理後の信号値に対して、ガウシアンフィルタなどのフィルタ処理やフーリエ変換などの変換処理を実行し、フィルタ/変換処理後の信号値を得る。その結果、特徴抽出部12は、前処理後の信号値やフィルタ/変換処理後の信号値を成分とするベクトルを出力することで、特徴ベクトルを抽出する。
The
なお、このとき抽出される特徴ベクトルは、すべてノルムが1となるように正規化してもよい。また、特徴抽出部12は、複数の入力信号それぞれに対して特徴ベクトルを抽出したり、1つの入力信号にランダムに生成したノイズなどの相異なる変動を加えたりするなどして、特徴ベクトルを複数抽出してもよい。また、特徴抽出部12は、これらの方法によって抽出された特徴ベクトルを、仮の特徴ベクトルとして扱い、後述する正定値カーネルによって再生核ヒルベルト空間上の特徴ベクトルに変換することとしてもよい。
The feature vectors extracted at this time may be normalized so that the norm is 1. The
識別関数計算部13は、特徴ベクトルに対する識別関数値を計算する。識別関数計算部13は、特徴抽出部12により抽出された特徴ベクトルの認識分類(以下「カテゴリ」という)に対する識別関数値を計算する。
The
例えば、識別関数計算部13は、最近傍決定法による識別関数を用いて識別関数値f(i)(x)を計算する。このときの識別関数は、例えば、認識辞書保持部93が保持する認識辞書のプロトタイプ数を各カテゴリに対して1とする場合、入力された特徴ベクトルxのカテゴリiに対して、
となる。
For example, the
It becomes.
また、識別関数計算部13は、部分空間法及び複合類似度法による識別関数を用いて識別関数値f(i)(x)を計算してもよい。このときの識別関数は、例えば部分空間法においては、認識辞書保持部93が保持する認識辞書のカテゴリiに対応する部分空間の正規直交基底をr1 (i) ,・・・,rh (i)とする場合、
また複合類似度法においては前記部分空間の直交補空間の正規直交基底rh+1 (i) ,・・・,rD (i)及び追加のパラメータλ1 (i),・・・,λD (i)を用いて
となる(式中の「・」は標準内積を表す)。なお、入力された特徴ベクトルは、||x||=1と正規化されているものとする。
Further, the discriminant
The composite similarity method the orthonormal basis of the orthogonal complement subspace r h + 1 in (i), ···, r D (i) and additional parameters λ 1 (i), ···, λ D ( with i)
(“•” in the formula represents a standard inner product). It is assumed that the input feature vector is normalized as || x || = 1.
また、識別関数計算部13は、同様に相互部分空間法による識別関数を用いて識別関数値f(i)(x)を計算してもよい。このときの識別関数は、例えば、入力された複数の特徴ベクトルxを主成分分析し、得られた入力部分空間をWとする場合、
となる。
Similarly, the discriminant
It becomes.
また、識別関数計算部13は、カーネル部分空間法による識別関数を用いて識別関数値f(i)(x)を計算してもよい。このときの識別関数は、例えば、仮の特徴ベクトルをx、学習データをr1 (i),・・・,rN (i)、それに付随するパラメータをα1 (i),・・・,αN (i)とする場合、
となる。このとき正定値カーネルK(・,・)は、仮の特徴ベクトルxから再生核ヒルベルト空間上への写像を与えており、この写像先を特徴ベクトルxとして取り扱える。また、上記以外の場合も、識別関数は、一般的に値が小さいほど、カテゴリとの類似性が高くなる実数値の関数として統一的に取り扱うことができる。
Further, the discriminant
It becomes. At this time, the positive definite kernel K (.,.) Gives a mapping from the temporary feature vector x to the reproduction kernel Hilbert space, and can handle this mapping destination as the feature vector x. In other cases as well, the discriminant function can generally be handled uniformly as a real-valued function in which the smaller the value, the higher the similarity to the category.
このように、本実施形態に係る基本機能では、識別関数一般について統一した取り扱い方法を提案する。 As described above, the basic function according to the present embodiment proposes a unified handling method for the discrimination function in general.
なお、認識辞書保持部93は、パターン認識装置100が備える記憶装置の所定の記憶領域に相当し、認識対象の各カテゴリに対する識別関数のパラメータ(識別関数値f(i)(x)の計算に用いるパラメータ)が登録されている認識辞書を保持している。認識辞書の値は、後述する辞書更新部18により更新され、学習結果が反映される。また、認識辞書の初期値は、例えば、上記識別関数の種別に従って、予め定めることができる。
The recognition
事後確率計算部14は、識別関数値f(i)(x)を事後確率に変換し、各カテゴリの事後確率を計算する。事後確率計算部14は、尤度変換パラメータ保持部92が保持する尤度変換パラメータに基づき、識別関数計算部13により計算された識別関数値f(i)(x)をカテゴリごとの事後確率に変換する。なお、尤度変換パラメータ保持部92は、パターン認識装置100が備える記憶装置の所定の記憶領域に相当し、確率的な意味を有する確率尺度に変換するための尤度変換パラメータを保持している。尤度変換パラメータは、後述する尤度変換パラメータ更新部17により更新され、学習結果が反映される。
The posterior
事後確率計算部14は、尤度変換パラメータ保持部92が保持する尤度変換パラメータ(q(i),w(i))を用いた
により、対数尤度l(i)(d)を計算する。なお、式中のd(i)は、識別関数計算部13により計算された識別関数値f(i)(x)であり、全てのカテゴリをまとめてd:=(d(1),・・・,d(c))Tと表せる(c:カテゴリ数、T:転置)。このときの尤度変換パラメータ(q(i),w(i))は、カテゴリによらず、一定の値としてもよい。
The posterior
To calculate the log likelihood l (i) (d). In addition, d (i) in the formula is the discriminant function value f (i) (x) calculated by the
また、事後確率計算部14は、当該カテゴリ以外の識別関数も考慮して、w(i)をc次元ベクトル値とする
により、対数尤度l(i)(d)を計算してもよい。
In addition, the posterior
Thus, the log likelihood l (i) (d) may be calculated.
上記各識別関数は、全てガウス分布における対数尤度の近似とみなせる。このことから、本実施形態に係る事後確率計算部14が有する対数尤度l(i)(d)の計算モデルは、一般の識別関数を適切にモデル化したものとみなせる。
Each of the above discriminant functions can be regarded as an approximation of log likelihood in Gaussian distribution. From this, the calculation model of the log likelihood l (i) (d) which the posterior
次に事後確率計算部14は、計算した対数尤度l(i)(d)を用いた
により、事後確率P(i)(d)を計算する。なお、式中のL(i)(d)は、尤度L(d)=exp(l(i)(d))である。
Next, the posterior
To calculate the posterior probability P (i) (d). Note that L (i) (d) in the equation is likelihood L (d) = exp (l (i) (d)).
また、事後確率計算部14は、各カテゴリの事前確率がp(i)の形で与えられる場合、
により、事後確率P(i)(d)を計算してもよい。
Further, the posterior
Thus, the posterior probability P (i) (d) may be calculated.
また、事後確率計算部14は、入力パターンの分布する空間の次元数がカテゴリごとに異なる可能性を考慮して、対数尤度l(i)(d)を微小領域で近似的に積分した値
を用いて、事後確率P(i)(d)を計算してもよい。なお、式中のE(i)はカテゴリiの分布の次元数を表し、εは微小領域の大きさを表す。これらの値は、予め定められた正の定数である。また、VE (i)(ε)はE(i)次元体積である。また、E(i),VE (i)(ε)は、例えば、部分空間法の場合、
となる。
In addition, the posterior
May be used to calculate the posterior probability P (i) (d). In the equation, E (i) represents the number of dimensions of the distribution of category i, and ε represents the size of the minute region. These values are predetermined positive constants. V E (i) (ε) is an E (i) dimensional volume. Further, E (i) and V E (i) (ε) are, for example, in the case of the subspace method,
It becomes.
認識部15は、事後確率P(i)(d)に基づき、入力パターンをカテゴリのいずれかに分類し、パターン認識する。認識部15は、事後確率計算部14により計算された事後確率P(i)(d)が最大となるカテゴリiに、入力パターンを分類する。認識部15は、入力パターンの分類を認識結果として、認識結果保持部91に格納する。なお、認識結果保持部91は、パターン認識装置100が備える記憶装置の所定の記憶領域に相当する。
The
認識結果破棄部16は、認識部15の認識結果(入力パターンの分類結果)が適切か否かを検証し、認識結果が不適切な場合、該当した認識結果を破棄する。このとき認識結果破棄部16は、事後確率P(i)(d)が最大となるカテゴリiが認識結果として適切か否かを検証する。事後確率計算部14により計算された事後確率P(i)(d)には、次のような可能性が含まれる。事後確率P(i)(d)の最大値Pmax(以下「最大事後確率Pmax」という)が十分大きくない場合には、誤った認識結果である可能性が高いと考えられる。また、カテゴリの最大尤度Lmaxや全カテゴリの尤度を合計した全尤度Lallが小さい場合には、例えば、文字を認識するパターン認識に対して、文字以外(画像など)が入力されるなど、認識対象以外のパターンが誤って入力された可能性が高いと考えられる。なお、最大尤度Lmaxは、入力パターンがカテゴリに分類された場合に推定される分類条件の尤度の最大値に相当し、全尤度Lallは、推定される分類条件の尤度の合計値に相当する。
The recognition
そこで、本実施形態では、認識結果破棄部16が、不適切な認識結果を破棄するための指標R(d)(以下「破棄指標R(d)」という)が定義された
により、認識結果を検証する。なお、式中のa,b,c,d,e,fは予め定められた非負の定数であり、lmax,lallは最大尤度Lmax,全尤度Lallの対数である。
Therefore, in this embodiment, an index R (d) (hereinafter referred to as “discard index R (d)”) for the recognition
Thus, the recognition result is verified. In the formula, a, b, c, d, e, and f are predetermined non-negative constants, and l max and l all are logarithms of the maximum likelihood L max and the total likelihood L all .
認識結果破棄部16は、検証結果に基づき、不適切な認識結果を破棄する。具体的には、認識結果破棄部16は、破棄指標R(d)が、予め定められた閾値以上か否かを判定し、認識結果を検証する。認識結果破棄部16は、破棄指標R(d)が閾値以上の場合、不適切な認識結果と判断する。その結果、認識結果破棄部16は、認識結果保持部91にアクセスし、該当データを消去することで、不適切な認識結果を破棄する。
The recognition
このように、本実施形態に係る基本機能では、事後確率P(i)(d)によって入力パターンを認識し、不適切な認識結果を破棄する。これにより、本実施形態に係る基本機能では、確率的な意味を有していない識別関数を用いる従来のパターン認識の問題点(言語モデルによる知識処理などの他の分野との相性の悪さ)を改善することができる。その結果、本実施形態に係る基本機能では、システム全体の性能を向上することができる。 As described above, in the basic function according to the present embodiment, the input pattern is recognized by the posterior probability P (i) (d), and the inappropriate recognition result is discarded. As a result, the basic function according to the present embodiment solves the problems of conventional pattern recognition that uses a discriminant function that does not have a probabilistic meaning (incompatibility with other fields such as knowledge processing using a language model). Can be improved. As a result, the basic function according to the present embodiment can improve the performance of the entire system.
《学習機能》
尤度変換パラメータ更新部17は、事後確率P(i)(d)を計算する際に用いる尤度変換パラメータ(q(i),w(i))を更新する。尤度変換パラメータ更新部17は、予め用意しておいたパターン学習のデータ(以下「学習データ」という)に対して、
で計算された事後確率の値L(X)を評価する。なお、ynはn番目の学習データが属するカテゴリであり、dnはn番目の識別関数値である。
《Learning function》
The likelihood conversion
The value L (X) of the posterior probability calculated in (1) is evaluated. Incidentally, y n is the category to which belongs the n-th training data, d n is the n-th classification function value.
尤度変換パラメータ更新部17は、評価結果に基づき、事後確率の値L(X)が増大するように、尤度変換パラメータ(q(i),w(i))を更新する。このとき尤度変換パラメータ更新部17は、尤度変換パラメータ保持部92にアクセスし、所定の記憶領域に保持された値(q(i),w(i))を、事後確率の値L(X)が増大するような値に更新する。
The likelihood conversion
また、尤度変換パラメータ更新部17は、事後確率の値L(X)を尤度変換パラメータ(q(i),w(i))の関数とみなし、対数を取り、勾配法による
により、更新値を計算する。なお、δiynは
で定義されるクロネッカーのデルタ記号であり、βは予め定められたパターン学習用の正の係数(以下「学習係数」という)である。また、尤度変換パラメータ(q(i),w(i))は、更新を繰り返すことで最適値に収束することから、初期値を無作為に定めてもよい。
The likelihood conversion
The update value is calculated by Note that δ iyn is
Is a Kronecker delta symbol defined by ## EQU1 ## where β is a predetermined positive coefficient for pattern learning (hereinafter referred to as “learning coefficient”). In addition, since the likelihood conversion parameters (q (i) , w (i) ) converge to the optimum values by repeating the update, the initial values may be determined randomly.
辞書更新部18は、認識対象の各カテゴリに対する識別関数のパラメータが登録されている認識辞書を更新する。辞書更新部18は、予め用意しておいた学習データに対して、認識辞書の値r(i)を評価する。辞書更新部18は、評価結果に基づき、事後確率の値L(X)が増大するように、認識辞書の値r(i)を更新する。このとき辞書更新部18は、認識辞書保持部93にアクセスし、所定の記憶領域に保持された値r(i)を、事後確率の値L(X)が増大するような値に更新する。このとき辞書更新部18は、例えば、カテゴリごとのプロトタイプ数1の最近傍決定法による場合、
により、更新値を計算する。
The
The update value is calculated by
このように、本実施形態に係る学習機能では、事後確率P(i)(d)によって学習指標を与え、初期値に依存せず収束を保証するパターン学習を逐次行う。その結果、本実施形態に係る学習機能では、パターン学習にかかる時間を軽減することができる。 Thus, in the learning function according to the present embodiment, a learning index is given by the posterior probability P (i) (d), and pattern learning that guarantees convergence is sequentially performed without depending on the initial value. As a result, the learning function according to the present embodiment can reduce the time required for pattern learning.
このような本実施形態に係るパターン認識機能は、パターン認識装置100において、パターン認識プログラムが実行され、上記各機能部が連携動作することで実現される。
Such a pattern recognition function according to the present embodiment is realized by executing a pattern recognition program in the
本実施形態に係るパターン認識プログラムは、実行環境であるパターン認識装置100(コンピュータ)が読み取り可能な外部記憶装置104に、インストール可能な形式又は実行可能な形式のファイルで記録され提供される。パターン認識プログラムは、上記各機能部を含むモジュール構成となっており、CPU101が外部記憶装置104からプログラムを読み出し実行することで、RAM103上に各機能部が生成される。なお、パターン認識プログラムの提供方法は、この限りでない。例えば、パターン認識プログラムを、インターネットなどに接続された機器に格納し、通信IF107を介して、ネットワーク経由でダウンロードする方法であってもよい。また、パターン認識プログラムを、ROM102などに予め組み込んで提供する方法であってもよい。
The pattern recognition program according to the present embodiment is recorded and provided in a file in an installable format or an executable format in an
なお、上記には、本実施形態に係るパターン認識機能が、パターン認識プログラム(ソフトウェア)の実行により実現される例を説明したが、この限りでない。例えば、上記各機能部の一部又は全部を、ハードウェアロジック(回路など)の実装により実現してもよい。 In addition, although the example which implement | achieved the pattern recognition function based on this embodiment by execution of a pattern recognition program (software) was demonstrated above, it is not this limitation. For example, a part or all of the above functional units may be realized by mounting hardware logic (circuit or the like).
以下に、本実施形態に係るパターン認識プログラム実行時の処理(各機能部の連携動作)について、フローチャートを用いて説明する。 In the following, processing at the time of executing the pattern recognition program according to the present embodiment (cooperation operation of each functional unit) will be described using a flowchart.
図3は、本実施形態に係るパターン認識時の処理手順例を示すフローチャートである。図3に示すように、本実施形態に係るパターン認識装置100では、上記各機能部が以下のような処理手順により連携動作する。
FIG. 3 is a flowchart illustrating an example of a processing procedure during pattern recognition according to the present embodiment. As shown in FIG. 3, in the
信号入力部11は、認証対象である入力パターンの入力信号を受け付ける(ステップS101)。 The signal input unit 11 receives an input signal of an input pattern to be authenticated (step S101).
これを受けて特徴抽出部12は、入力パターンの入力信号から特徴ベクトルxを抽出する(ステップS102)。このとき特徴抽出部12は、まず、信号入力部11からの入力信号に対して、長さや量子化レベルを正規化するなどの前処理を実行し、前処理後の信号値を得る。次に特徴抽出部12は、前処理後の信号値に対して、ガウシアンフィルタなどのフィルタ処理やフーリエ変換などの変換処理を実行し、フィルタ/変換処理後の信号値を得る。その結果、特徴抽出部12は、前処理後の信号値やフィルタ/変換処理後の信号値を成分とするベクトルを出力することで、特徴ベクトルxを抽出する。
In response to this, the
これを受けて識別関数計算部13は、特徴ベクトルxに対する識別関数値f(i)(x)を計算する(ステップS103)。このとき識別関数計算部13は、最近傍決定法、部分空間法及び複合類似度法、相互部分空間法、カーネル部分空間法などのいずれかの識別関数を用いて、特徴抽出部12により抽出された特徴ベクトルxのカテゴリiに対する識別関数値f(i)(x)を計算する。識別関数計算部13は、認識辞書保持部93にアクセスし、認識辞書保持部93が保持する識別関数のパラメータを用いて、識別関数値f(i)(x)を計算する。
In response to this, the
これを受けて事後確率計算部14は、識別関数値f(i)(x)を事後確率に変換し、各カテゴリの事後確率P(i)(d)を計算する(ステップS104)。このとき事後確率計算部14は、尤度変換パラメータ(q(i),w(i))に基づき、識別関数計算部13により計算された識別関数値f(i)(x)をカテゴリごとの事後確率P(i)(d)に変換する。事後確率計算部14は、まず、尤度変換パラメータ(q(i),w(i))を用いた計算式により、対数尤度l(i)(d)を計算する。事後確率計算部14は、尤度変換パラメータ保持部92にアクセスし、尤度変換パラメータ保持部92が保持する尤度変換パラメータ(q(i),w(i))を用いて、対数尤度l(i)(d)を計算する。次に事後確率計算部14は、計算した対数尤度l(i)(d)を用いた計算式により、事後確率P(i)(d)を計算する。
In response to this, the posterior
これを受けて認識部15は、事後確率P(i)(d)に基づき、入力パターンをカテゴリのいずれかに分類し、パターン認識する(ステップS105)。このとき認識部15は、事後確率計算部14により計算された事後確率P(i)(d)が最大となるカテゴリiに、入力パターンを分類する。その結果、認識部15は、入力パターンの分類を認識結果として、認識結果保持部91に格納する。
Receiving this, the
これを受けて認識結果破棄部16は、事後確率P(i)(d)が最大となるカテゴリiが認識結果(入力パターンの分類先)として適切か否かを判定する(ステップS106)。このとき認識結果破棄部16は、不適切な認識結果を破棄するための破棄指標R(d)が閾値以上か否かを判定することで、認識結果が適切か否かを判定する。
In response to this, the recognition
その結果、認識結果破棄部16は、破棄指標R(d)が閾値以上で、適切な認識結果でない(不適切な認識結果)と判定した場合(ステップS106:NO)、認識結果保持部91にアクセスし、該当データを消去することで、不適切な認識結果を破棄する(ステップS107)。このように、本実施形態に係るパターン認識装置100は、事後確率P(i)(d)によって入力パターンを認識し、不適切な認識結果を破棄する。
As a result, when the recognition
一方、認識結果破棄部16が、破棄指標R(d)が閾値未満で、適切な認識結果と判定した場合(ステップS106:YES)、認識結果は破棄されない。
On the other hand, when the recognition
これを受けて尤度変換パラメータ更新部17は、事後確率P(i)(d)を計算する際に用いる尤度変換パラメータ(q(i),w(i))を更新する(ステップS108)。このとき尤度変換パラメータ更新部17は、まず、予め用意しておいた学習データに対して、所定の計算式により計算された事後確率の値L(X)を評価する。次に尤度変換パラメータ更新部17は、評価結果に基づき、事後確率の値L(X)が増大するように、尤度変換パラメータ(q(i),w(i))を更新する。具体的には、尤度変換パラメータ更新部17は、尤度変換パラメータ保持部92にアクセスし、尤度変換パラメータ保持部92が保持する値(q(i),w(i))を、事後確率の値L(X)が増大するような値に更新する。
In response to this, the likelihood conversion
これを受けて辞書更新部18は、予め定めておいた設定値に基づき、パターン学習を実行するか否かを判定する(ステップS109)。
In response to this, the
その結果、辞書更新部18は、実行する旨の設定に従い、パターン学習を実行すると判定した場合(ステップS109:YES)、認識辞書を更新する(ステップS110)。このとき辞書更新部18は、予め用意しておいた学習データに対して、認識辞書の値r(i)を評価する。次に辞書更新部18は、評価結果に基づき、事後確率の値L(X)が増大するように、認識辞書の値r(i)を更新する。具体的には、辞書更新部18は、認識辞書保持部93にアクセスし、認識辞書保持部93が保持する値r(i)を、事後確率の値L(X)が増大するような値に更新する。このように、本実施形態に係るパターン認識装置100は、事後確率P(i)(d)によって学習指標を与え、初期値に依存せず収束を保証するパターン学習を逐次行う。
As a result, the
なお、辞書更新部18が、実行しない旨の設定で、パターン学習を実行しないと判定した場合(ステップS109:NO)、認識辞書は更新されない。
Note that if the
<まとめ>
以上のように、本実施形態に係るパターン認識装置100によれば、特徴抽出部12が、入力パターンから特徴ベクトルxを抽出する。次に識別関数計算部13が、特徴ベクトルxに対する識別関数値f(i)(x)を計算する。次に事後確率計算部14が、尤度変換パラメータ(q(i),w(i))に基づき、識別関数値f(i)(x)を事後確率に変換し、カテゴリごとの事後確率P(i)(d)を計算する。次に認識部15が、事後確率P(i)(d)に基づき、入力パターンをカテゴリのいずれかに分類する。
<Summary>
As described above, according to the
これによって、本実施形態に係るパターン認識装置100では、事後確率P(i)(d)によって入力パターンが認識され、不適切な認識結果が破棄される。これにより、本実施形態に係るパターン認識装置100は、確率的な意味を有していない識別関数を用いる従来のパターン認識の問題点(他の分野との相性の悪さ)を改善することができる。具体的には、本実施形態に係るパターン認識装置100は、確率的な意味を有する事後確率P(i)(d)を用いてパターン認識を行うことで、複数認識の統合や統合学習が容易となり、認識精度の高精度化が期待でき、システム全体の性能を向上することができる。
Thereby, in the
また、本実施形態に係るパターン認識装置100では、事後確率P(i)(d)によって学習指標が与えられ、初期値に依存せず収束が保証されたパターン学習が逐次行われる。これにより、本実施形態に係るパターン認識装置100は、パターン学習にかかる時間を軽減することができる。
In the
なお、上記実施形態では、パターン認識装置100が備える記憶装置の所定の記憶領域が、認識結果保持部91、尤度変換パラメータ保持部92、及び認識辞書保持部93などに相当する構成例を示したが、この限りでない。認識結果、尤度変換パラメータ、及び認識辞書などは、例えば、記録媒体などのような、パターン認識装置100が読み取り可能な外部記憶装置104の所定の記憶領域に保持されていてもよい。
In the above embodiment, a configuration example in which the predetermined storage area of the storage device included in the
また、上記実施形態では、パターン認識装置100が、尤度変換パラメータ更新部17と辞書更新部18などの学習機能を有する構成例を示したが、この限りでない。学習機能は、パターン認識装置100と異なる機器が実現してもよい。具体的には、パターン認識装置100と異なる機器が、尤度変換パラメータ更新部17と辞書更新部18などを有する構成であってもよい。この場合、パターン認識装置100は、通信IF107を介して、尤度変換パラメータ更新部17と辞書更新部18などを有する機器とデータ通信を行う。これにより、パターン認識装置100が実現する基本機能とパターン認識装置100と異なる機器が実現する学習機能とを連携動作させ、本実施形態に係るパターン認識機能を実現できる。
Moreover, although the
最後に、本発明の実施形態を説明したが、上記実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。上記新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上記実施形態やその変形は、発明の範囲や要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれる。 Finally, although the embodiment of the present invention has been described, the above embodiment is presented as an example, and is not intended to limit the scope of the invention. The novel embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. The above-described embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalent scope thereof.
11 信号入力部
12 特徴抽出部
13 識別関数計算部
14 事後確率計算部
15 認識部
16 認識結果破棄部
17 尤度変換パラメータ更新部
18 辞書更新部
91 認識結果保持部
92 尤度変換パラメータ保持部
93 認識辞書保持部
DESCRIPTION OF SYMBOLS 11
Claims (8)
前記特徴ベクトルに対する識別関数値を計算する第1計算部と、
前記識別関数値から、前記入力パターンの分類先に相当する認識分類ごとの事後確率を計算する第2計算部と、
前記事後確率に基づき、前記入力パターンを前記認識分類のいずれかに分類する認識部と、
を備えることを特徴とするパターン認識装置。 An extractor for extracting feature vectors from the input pattern;
A first calculation unit for calculating a discriminant function value for the feature vector;
A second calculation unit that calculates a posterior probability for each recognition classification corresponding to a classification destination of the input pattern from the identification function value;
A recognition unit that classifies the input pattern into one of the recognition classifications based on the posterior probability;
A pattern recognition apparatus comprising:
さらに備えることを特徴とする請求項1に記載のパターン認識装置。 The discriminant function value by the second calculation unit is evaluated so that the posterior probability calculated for learning data of pattern learning prepared in advance is increased based on the evaluation result. A first updating unit for updating a conversion parameter used when converting from the posterior probability to the posterior probability,
The pattern recognition apparatus according to claim 1, further comprising:
さらに備えることを特徴とする請求項1に記載のパターン認識装置。 Discards the recognition result of the recognition unit that classifies the input pattern into the recognition classification that maximizes the posterior probability and discards the inappropriate recognition result based on the verification result. Part
The pattern recognition apparatus according to claim 1, further comprising:
不適切な前記認識結果を破棄するための破棄指標が、予め定められた閾値以上か否かを判定し、前記破棄指標が前記閾値以上の場合、前記認識結果を破棄することを特徴とする請求項3に記載のパターン認識装置。 The discarding unit
It is determined whether or not a discard index for discarding the inappropriate recognition result is equal to or greater than a predetermined threshold, and when the discard index is equal to or greater than the threshold, the recognition result is discarded. Item 4. The pattern recognition device according to Item 3.
前記事後確率が最大となる前記認識分類の最大事後確率、前記入力パターンが前記認識分類に分類された場合に推定される分類条件の尤度が最大となる前記認識分類の最大尤度、及び全ての前記認識分類の尤度を合計した全尤度に基づき、前記破棄指標を計算することを特徴とする請求項4に記載のパターン認識装置。 The discarding unit
A maximum posterior probability of the recognition classification that maximizes the posterior probability, a maximum likelihood of the recognition classification that maximizes a likelihood of a classification condition estimated when the input pattern is classified into the recognition classification, and The pattern recognition apparatus according to claim 4, wherein the discard index is calculated based on a total likelihood obtained by summing up the likelihoods of all the recognition classifications.
さらに備えることを特徴とする請求項1に記載のパターン認識装置。 The discriminant function value by the first calculation unit is evaluated so that the posterior probability calculated with respect to the learning data of pattern learning prepared in advance is increased based on the evaluation result. A second updating unit for updating a recognition dictionary in which parameters used for the calculation are registered,
The pattern recognition apparatus according to claim 1, further comprising:
前記特徴ベクトルに対する識別関数値を計算する第1計算工程と、
前記識別関数値から、前記入力パターンの分類先に相当する認識分類ごとの事後確率を計算する第2計算工程と、
前記事後確率に基づき、前記入力パターンを前記認識分類のいずれかに分類する認識工程と、
を含むことを特徴とするパターン認識方法。 An extraction process for extracting feature vectors from the input pattern;
A first calculation step of calculating a discriminant function value for the feature vector;
A second calculation step of calculating a posterior probability for each recognition classification corresponding to the classification destination of the input pattern from the identification function value;
A recognition step of classifying the input pattern into one of the recognition classifications based on the posterior probability;
A pattern recognition method comprising:
入力パターンから特徴ベクトルを抽出する抽出部と、
前記特徴ベクトルに対する識別関数値を計算する第1計算部と、
前記識別関数値から、前記入力パターンの分類先に相当する認識分類ごとの事後確率を計算する第2計算部と、
前記事後確率に基づき、前記入力パターンを前記認識分類のいずれかに分類する認識部と、
して機能させるパターン認識プログラム。 Computer
An extractor for extracting feature vectors from the input pattern;
A first calculation unit for calculating a discriminant function value for the feature vector;
A second calculation unit that calculates a posterior probability for each recognition classification corresponding to a classification destination of the input pattern from the identification function value;
A recognition unit that classifies the input pattern into one of the recognition classifications based on the posterior probability;
Pattern recognition program to make it function.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013020611A JP6062273B2 (en) | 2013-02-05 | 2013-02-05 | Pattern recognition apparatus, pattern recognition method, and pattern recognition program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013020611A JP6062273B2 (en) | 2013-02-05 | 2013-02-05 | Pattern recognition apparatus, pattern recognition method, and pattern recognition program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016208790A Division JP6282711B2 (en) | 2016-10-25 | 2016-10-25 | Pattern recognition apparatus, pattern recognition method, and pattern recognition program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014153763A true JP2014153763A (en) | 2014-08-25 |
JP6062273B2 JP6062273B2 (en) | 2017-01-18 |
Family
ID=51575620
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013020611A Expired - Fee Related JP6062273B2 (en) | 2013-02-05 | 2013-02-05 | Pattern recognition apparatus, pattern recognition method, and pattern recognition program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6062273B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016181474A1 (en) * | 2015-05-11 | 2016-11-17 | 株式会社東芝 | Pattern recognition device, pattern recognition method and program |
JP2019016268A (en) * | 2017-07-10 | 2019-01-31 | コニカミノルタ株式会社 | Image processing apparatus, image processing method and image processing program |
US11443552B2 (en) | 2016-03-17 | 2022-09-13 | Kabushiki Kaisha Toshiba | Image pattern similarity calculation device and recognition device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002251592A (en) * | 2001-02-22 | 2002-09-06 | Toshiba Corp | Learning method for pattern recognition dictionary |
JP2008097452A (en) * | 2006-10-13 | 2008-04-24 | Toshiba Corp | Word recognition method and word recognition program |
JP2009129253A (en) * | 2007-11-26 | 2009-06-11 | Toshiba Corp | Pattern recognition apparatus, pattern recognition program and pattern recognition method |
-
2013
- 2013-02-05 JP JP2013020611A patent/JP6062273B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002251592A (en) * | 2001-02-22 | 2002-09-06 | Toshiba Corp | Learning method for pattern recognition dictionary |
JP2008097452A (en) * | 2006-10-13 | 2008-04-24 | Toshiba Corp | Word recognition method and word recognition program |
JP2009129253A (en) * | 2007-11-26 | 2009-06-11 | Toshiba Corp | Pattern recognition apparatus, pattern recognition program and pattern recognition method |
Non-Patent Citations (2)
Title |
---|
浜村倫行, 外2名: ""解析的単語認識における事後確率を用いた評価関数"", 電子情報通信学会論文誌, vol. 第J91−D巻, 第9号, JPN6016033899, 1 September 2008 (2008-09-01), JP, pages 2325 - 2333, ISSN: 0003437740 * |
窪田進, 外2名: ""リジェクトを考慮した競合学習のための最小識別リスク基準"", 電子情報通信学会技術研究報告, vol. 第100巻, 第701号, JPN6016033902, 8 March 2001 (2001-03-08), JP, pages 53 - 60, ISSN: 0003437741 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016181474A1 (en) * | 2015-05-11 | 2016-11-17 | 株式会社東芝 | Pattern recognition device, pattern recognition method and program |
US10366312B2 (en) | 2015-05-11 | 2019-07-30 | Kabushiki Kaisha Toshiba | Pattern recognition device, pattern recognition method, and computer program product |
US11443552B2 (en) | 2016-03-17 | 2022-09-13 | Kabushiki Kaisha Toshiba | Image pattern similarity calculation device and recognition device |
JP2019016268A (en) * | 2017-07-10 | 2019-01-31 | コニカミノルタ株式会社 | Image processing apparatus, image processing method and image processing program |
Also Published As
Publication number | Publication date |
---|---|
JP6062273B2 (en) | 2017-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110472675B (en) | Image classification method, image classification device, storage medium and electronic equipment | |
JP6928371B2 (en) | Classifier, learning method of classifier, classification method in classifier | |
US10949701B2 (en) | Method, apparatus and storage medium for recognizing character | |
Walia et al. | Secure multimodal biometric system based on diffused graphs and optimal score fusion | |
US10796098B2 (en) | Instruction understanding system and instruction understanding method | |
CN112784670A (en) | Object detection based on pixel differences | |
US20200065573A1 (en) | Generating variations of a known shred | |
US20100290700A1 (en) | Information processing device and method, learning device and method, programs, and information processing system | |
EP2828793A1 (en) | Rotation-free recognition of handwritten characters | |
CA3153146A1 (en) | Adversarial network for transforming handwritten text | |
CN113220839B (en) | Intention identification method, electronic equipment and computer readable storage medium | |
WO2019201295A1 (en) | File identification method and feature extraction method | |
JP6062273B2 (en) | Pattern recognition apparatus, pattern recognition method, and pattern recognition program | |
US10373028B2 (en) | Pattern recognition device, pattern recognition method, and computer program product | |
Lee et al. | Using discrete probabilities with Bhattacharyya measure for SVM-based speaker verification | |
CN110717407A (en) | Human face recognition method, device and storage medium based on lip language password | |
JP2014228995A (en) | Image feature learning device, image feature learning method and program | |
JP6282711B2 (en) | Pattern recognition apparatus, pattern recognition method, and pattern recognition program | |
CN111353514A (en) | Model training method, image recognition method, device and terminal equipment | |
CN113778256A (en) | Electronic equipment with touch screen and touch unlocking method thereof | |
US20100239168A1 (en) | Semi-tied covariance modelling for handwriting recognition | |
CN112257689A (en) | Training and recognition method of face recognition model, storage medium and related equipment | |
CN107533672A (en) | Pattern recognition device, mode identification method and program | |
KR102213177B1 (en) | Apparatus and method for recognizing speech in robot | |
Palazón-González et al. | On hidden Markov models and cyclic strings for shape recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150914 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20151102 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161025 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6062273 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |