JPH08106295A - パターン認識方法及び装置 - Google Patents

パターン認識方法及び装置

Info

Publication number
JPH08106295A
JPH08106295A JP6241255A JP24125594A JPH08106295A JP H08106295 A JPH08106295 A JP H08106295A JP 6241255 A JP6241255 A JP 6241255A JP 24125594 A JP24125594 A JP 24125594A JP H08106295 A JPH08106295 A JP H08106295A
Authority
JP
Japan
Prior art keywords
pattern
feature
class
pattern recognition
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6241255A
Other languages
English (en)
Other versions
JP2690027B2 (ja
Inventor
Hideyuki Watanabe
秀行 渡辺
Takeshi Yamaguchi
毅 山口
Shigeru Katagiri
滋 片桐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR ONSEI HONYAKU TSUSHIN KENKYUSHO KK
ATR Interpreting Telecommunications Research Laboratories
Original Assignee
ATR ONSEI HONYAKU TSUSHIN KENKYUSHO KK
ATR Interpreting Telecommunications Research Laboratories
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR ONSEI HONYAKU TSUSHIN KENKYUSHO KK, ATR Interpreting Telecommunications Research Laboratories filed Critical ATR ONSEI HONYAKU TSUSHIN KENKYUSHO KK
Priority to JP6241255A priority Critical patent/JP2690027B2/ja
Priority to US08/493,719 priority patent/US5754681A/en
Publication of JPH08106295A publication Critical patent/JPH08106295A/ja
Application granted granted Critical
Publication of JP2690027B2 publication Critical patent/JP2690027B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 学習段階に用いられない未知なる入力パター
ンを従来例に比較してより正確に認識することができ、
より高い認識精度を有するパターン認識方法及び装置を
提供する。 【構成】 入力されたパターンを所定の複数の類の1つ
に分類して認識するパターン認識方法において、入力さ
れたパターンを、各類の特徴を強調するように各類に対
応した変換パラメータを用いて特徴変換処理を実行する
ことにより各類に対応した複数の特徴空間のベクトルに
変換し、変換した複数の特徴空間のベクトルに対してそ
れぞれ、各類の類似性尺度を示す判別関数を用いて判別
関数の値を計算し、計算した複数の判別関数の値に基づ
いて入力されたパターンが属する類を選択することによ
りパターン認識を実行し、学習用パターンに基づいて、
特徴変換処理の変換パラメータと判別関数とをパターン
認識の誤り確率が最小になるように学習させて設定す
る。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、例えば、音声、文字、
画像などのある類又はクラスに属する数値表現が可能な
パターンを認識して、類に分類するためのパターン認識
方法及び装置に関する。
【0002】
【従来の技術】音声認識や文字認識、画像認識などのパ
ターン認識は基本的に、音声、文字、又は画像などの認
識対象を数量的に観測した量であるパターンを予め設定
された類又はクラスに分類して対応付ける問題と捉えら
れる。パターン認識は、基本的には、図2に示すよう
に、特徴抽出部1と、分類部2とから構成される。ここ
で、特徴抽出部1は、認識にとって不必要な情報まで含
んだ高次元の観測量を含む音声、文字又は画像などの入
力パターンを、当該パターン認識にとって必要な類固有
の特性を表現する低次元の情報である特徴量に変換す
る。次いで、分類部2は、変換された特徴量を所定の類
に分類して対応づけて分類結果を出力する。
【0003】分類部2は、基本的には、図3に示すよう
に、複数K個の判別関数器3−1乃至3−Kと選択器4
を備え、入力された特徴量の各類への帰属度又は各類の
類似性尺度を表す「判別関数」を予め定めておき、この
判別関数の値が最大又は最小になる類に入力パターンを
対応づけることによって分類処理が実行される。すなわ
ち、入力パターンの特徴ベクトルxは、それぞれ所定の
判別関数を有する各判別関数器3−1乃至3−Kに入力
され、各判別関数器3−1乃至3−Kはそれぞれ所定の
判別関数を用いて判別関数値を計算して選択器4に出力
する。選択器4は、複数K個の判別関数値のうち所定の
最大値又は最小値の判別関数値を選択して、選択した判
別関数値を出力した判別関数器が示す類の情報を分類結
果として出力する。このように、パターン認識は従来、
属している類が既知の学習標本集合を用いて各判別関数
器3−1乃至3−Kの判別関数を学習させ、必ずしも学
習標本の集合に含まれない新たな未知標本を認識するこ
とで行なわれる。
【0004】また、従来、入力パターンを所定の特徴空
間に変換する特徴変換部1は、図4に示すように、複数
K個の判別関数器3−1乃至3−Kに対して1個のみ設
けられる。すなわち、特徴空間は、すべての類に対して
共通に与えられる。ここで、特徴抽出部1の特徴変換
は、分類部2の判別関数の設定と独立に先験的に設定さ
れ、分類部2の判別関数はこの特徴抽出部1によって得
られる特徴空間が与えられた後に設定される。
【0005】パターン認識においては、各種の優れた特
徴抽出法が多数提案され、実用化されている。KL変換
や重判別分析に代表される統計的・線形的特徴抽出法
は、数理的基盤の充実性と計算の簡便さにより、主に文
字・画像認識の分野で広く用いられている(例えば、エ
ルッキ・オヤ著,小川英光,佐藤誠共訳,“パターン認
識と部分空間法”,産業図書,1986年(以下、参考
文献1という。)、又は鳥脇純一郎著,“認識工学”,
テレビジョン学会編,コロナ社,1993年(以下、参
考文献2という。)参照。)。特に、音声認識分野にお
ける音声特徴抽出法として、フーリエ変換に基づく短時
間パワースペクトルや線形予測分析(LPC)法、ケプ
ストラム法等が知られている(例えば、L.Rabiner及び
B.H. Juang,“Fundamentals of Speech Recognition”,
Prentice-Hall International Inc., 1993年(以
下、参考文献3という。)参照。)。これらは、類の分
類に必要な音声の言語的特徴を比較的低次元で効率良く
表現できる方法であるため、現在の音声認識装置におけ
る特徴抽出法としてしばしば使用されている。
【0006】
【発明が解決しようとする課題】しかしながら、実際の
パターン認識システムの使用環境においては、同一の類
においても、これらの優れた特徴量はさまざまな要因に
より変動する。例えば音声認識においては、例えば発声
速度の違いや調音結合などの性別の違いや話者の違い、
例えば背景雑音などの音響的な環境の違いが重要な変動
要因としてあげられ、このことは、音声認識装置の不特
定話者に対する性能の劣化や、耐雑音性の低下の要因と
なる。実際の状況においては、音声認識装置の学習に用
いられる学習標本とは異なる未知標本に対して良好な認
識性能を有する音声認識装置の学習が本質的に重要であ
る。そのためには、各類における特徴量の統計的変動の
解析が重要である。従来、特徴量の変動を表現するため
の基本的な技法として、各類に複数の標準パターンであ
るテンプレートを割り当てる方法、いわゆるマルチテン
プレート法がよく用いられている。学習ベクトル量子化
(LVQ)などの複数のテンプレートとの距離で分類す
る手法(例えば、S.Katagiri,C.H.Lee,及びB.H. Juang,
“New discriminative training algorithms based on
the generalized probabilistic descent method”,Pro
ceedings of 1991 IEEE Workshop on Neural Networks
for Signal Processing,pp.299-308,プリンストン,ニ
ュージャージー州,米国,1991年9月(以下、参考
文献4という。)参照。)や、混合ガウス分布による隠
れマルコフモデル(HMM)に基づく手法(例えば、参
考文献3、又はX.D. Huang,Y. Ariki及びM.A.Jack,“Hi
dden Marcov Models for Speech Recognition”,Edinbu
rgh University Press, Edinburgh,1990年(以下、
参考文献5という。)参照。)などが、この方法に含ま
れる。これらのマルチテンプレート法では、ばらつきを
良く表現する目的でテンプレートの数を増加させた場
合、同時に調節すべきパラメータの数が増大するため、
有限個の学習標本に過度にパラメータが調節されてしま
って過学習となり、未知標本の認識精度が劣化する問題
が生ずる。このため、パラメータ数を極力減らし、学習
標本の認識精度を抑制することにより未知標本の認識精
度劣化を抑える手段がよくとられる。しかし、パラメー
タ数の最適化は難しい問題であり、通常発見的に行なわ
れる。
【0007】図4の従来例のパターン認識装置は、分類
部2と独立に経験的に学習される特徴抽出部1を用い
て、しかも先験的に与えられる判別関数を用いる。こう
して得られるパターン認識結果は、特徴抽出と判別関数
とのいずれもが、パターン認識の目標である認識誤りの
最小化というパターン認識の本来の目的との一貫性が無
いものであるために、認識精度の観点から最適であるこ
とは保証されず、認識精度が比較的低いという問題点が
あった。しかも、パターン認識装置は本質的には、学習
段階に用いられない未知なる入力パターンを正確に認識
することが望まれるが、先験的に与えられる特徴抽出と
判別関数とを用いるパターン認識が正確に認識できる入
力パターンは原理的には、高々学習用段階に用いられる
入力パターンのみである。これらの経験的又は先験的な
特徴学習及び計量学習に基づく方法は、認識結果との一
貫性がないため、未知なるパターンに対する学習の耐性
の向上に関する合理的な対策、具体的には数理的な対策
がきわめて難しいという問題点があった。
【0008】本発明の目的は以上の問題点を解決し、学
習段階に用いられない未知なる入力パターンを従来例に
比較してより正確に認識することができ、より高い認識
精度を有するパターン認識方法及び装置を提供すること
にある。
【0009】
【課題を解決するための手段】本発明に係る請求項1記
載のパターン認識方法は、入力されたパターンを所定の
複数の類の1つに分類して認識するパターン認識方法に
おいて、入力されたパターンを、上記各類の特徴を強調
するように上記各類に対応した所定の変換パラメータを
用いて特徴変換処理を実行することにより上記各類に対
応した複数の特徴空間のベクトルに変換し、上記変換し
た複数の特徴空間のベクトルに対してそれぞれ、上記各
類の類似性尺度を示す所定の判別関数を用いて判別関数
の値を計算し、上記計算した上記各類に対応する複数の
判別関数の値に基づいて上記入力されたパターンが属す
る類を選択することによりパターン認識を実行し、所定
の学習用パターンに基づいて、上記特徴変換処理の変換
パラメータと、上記判別関数とを、パターン認識の誤り
確率が最小になるように学習させて設定することを特徴
とする。
【0010】また、請求項2記載のパターン認識方法
は、請求項1記載のパターン認識方法において、上記特
徴変換処理は、入力されたパターンを、所定の基底ベク
トルに対して写像しかつ所定の実数を乗算することによ
り上記各類に対応した複数の特徴空間のベクトルに線形
変換することを特徴とする。さらに、請求項3記載のパ
ターン認識方法は、請求項1又は2記載のパターン認識
方法において、上記判別関数は、上記各類の類似性尺度
を示す所定の2次判別関数であることを特徴とする。ま
たさらに、請求項4記載のパターン認識方法は、請求項
1、2又は3記載のパターン認識方法において、所定の
学習用パターンに基づいて、上記特徴変換処理の変換パ
ラメータと、上記判別関数とを、確率的降下定理を用い
る適応的最小化法を用いてパターン認識の誤り確率が最
小になるように適応化することを特徴とする。
【0011】本発明に係る請求項5記載のパターン認識
装置は、入力されたパターンを所定の複数の類の1つに
分類して認識するパターン認識装置において、上記複数
の類毎に設けられ、入力されたパターンを、上記各類の
特徴を強調するように上記各類に対応した所定の変換パ
ラメータを用いて特徴変換処理を実行することにより上
記各類に対応した複数の特徴空間のベクトルにそれぞれ
変換する複数の特徴変換手段と、上記複数の類毎に設け
られ、上記複数の特徴変換手段によって変換された複数
の特徴空間のベクトルに対してそれぞれ、上記各類の類
似性尺度を示す所定の判別関数を用いて判別関数の値を
それぞれ計算する複数の判別関数手段と、上記複数の判
別関数手段によって計算された上記各類に対応する複数
の判別関数の値に基づいて上記入力されたパターンが属
する類を選択することによりパターン認識を実行する選
択手段と、所定の学習用パターンに基づいて、上記複数
の特徴変換処理の変換パラメータと、上記複数の判別関
数とを、パターン認識の誤り確率が最小になるように学
習させて設定する学習制御手段とを備えたことを特徴と
する。
【0012】また、請求項6記載のパターン認識装置
は、請求項5記載のパターン認識装置において、上記複
数の特徴変換手段はそれぞれ、入力されたパターンを、
所定の基底ベクトルに対して写像しかつ所定の実数を乗
算することにより上記各類に対応した複数の特徴空間の
ベクトルに線形変換することを特徴とする。さらに、請
求項7記載のパターン認識装置は、請求項5又は6記載
のパターン認識装置において、上記複数の判別関数手段
の判別関数はそれぞれ、上記各類の類似性尺度を示す所
定の2次判別関数であることを特徴とする。またさら
に、請求項8記載のパターン認識装置は、請求項5、6
又は7記載のパターン認識装置において、上記学習制御
手段は、所定の学習用パターンに基づいて、上記複数の
特徴変換処理の変換パラメータと、上記複数の判別関数
手段の判別関数とを、確率的降下定理を用いる適応的最
小化法を用いてパターン認識の誤り確率が最小になるよ
うに適応化することを特徴とする。
【0013】また、請求項9記載のパターン認識装置
は、請求項5乃至8のうちの1つに記載のパターン認識
装置において、さらに、入力された音声を音声信号に変
換して出力する信号変換手段と、上記信号変換手段から
出力される音声信号を所定の音声の特徴パラメータに変
換して変換した特徴パラメータを、もしくは上記音声信
号を、パターンとして上記複数の特徴変換手段及び上記
学習制御手段に出力する特徴抽出手段とを備え、上記入
力された音声を認識することを特徴とする。さらに、請
求項10記載のパターン認識装置は、請求項9記載のパ
ターン認識装置において、上記特徴抽出手段は、上記信
号変換手段から出力される音声信号に対して、線形予測
分析を行ってLPCケプストラム係数ベクトルに変換し
てパターンとして上記複数の特徴変換手段及び上記学習
制御手段に出力することを特徴とする。またさらに、請
求項11記載のパターン認識装置は、請求項5、6又は
7記載のパターン認識装置において、さらに、文字又は
画像をドット画像データに変換してパターンとして上記
複数の特徴変換手段及び上記学習制御手段に出力する画
像変換手段を備え、上記文字又は画像を認識することを
特徴とする。
【0014】
【作用】請求項1記載のパターン認識方法においては、
入力されたパターンを、上記各類の特徴を強調するよう
に上記各類に対応した所定の変換パラメータを用いて特
徴変換処理を実行することにより上記各類に対応した複
数の特徴空間のベクトルに変換し、上記変換した複数の
特徴空間のベクトルに対してそれぞれ、上記各類の類似
性尺度を示す所定の判別関数を用いて判別関数の値を計
算し、上記計算した上記各類に対応する複数の判別関数
の値に基づいて上記入力されたパターンが属する類を選
択することによりパターン認識を実行し、所定の学習用
パターンに基づいて、上記特徴変換処理の変換パラメー
タと、上記判別関数とを、パターン認識の誤り確率が最
小になるように学習させて設定する。従って、本発明に
よれば、パターン認識装置の学習用パターンとは異なる
未知のパターンに対して精度の高いパターン認識装置の
学習のための新しい方法を提供し、類固有の特徴を効果
的に表現する特徴計量空間、すなわち、類固有の判別関
数の計量を識別的に、すなわち認識誤りが減少するよう
に学習することができる。それ故、従来全ての類で共通
の特徴空間で類別評価が行なわれていたのに対して、本
発明では、類の特徴を表現する各類固有の空間で評価が
行なわれるため、未知のパターンに対しても変動要因が
抑制され、認識性能が向上し、従来に比較して高い認識
精度を得ることができる。
【0015】また、請求項2記載のパターン認識方法に
おいては、上記特徴変換処理は、好ましくは、入力され
たパターンを、所定の基底ベクトルに対して写像しかつ
所定の実数を乗算することにより上記各類に対応した複
数の特徴空間のベクトルに線形変換する。さらに、請求
項3記載のパターン認識方法においては、上記判別関数
は、好ましくは、上記各類の類似性尺度を示す所定の2
次判別関数である。またさらに、請求項4記載のパター
ン認識方法においては、好ましくは、所定の学習用パタ
ーンに基づいて、上記特徴変換処理の変換パラメータ
と、上記判別関数とを、確率的降下定理を用いる適応的
最小化法を用いてパターン認識の誤り確率が最小になる
ように適応化する。
【0016】請求項5記載のパターン認識装置において
は、上記複数の特徴変換手段はそれぞれ、入力されたパ
ターンを、上記各類の特徴を強調するように上記各類に
対応した所定の変換パラメータを用いて特徴変換処理を
実行することにより上記各類に対応した複数の特徴空間
のベクトルにそれぞれ変換する。次いで、上記複数の判
別関数手段は、上記複数の特徴変換手段によって変換さ
れた複数の特徴空間のベクトルに対してそれぞれ、上記
各類の類似性尺度を示す所定の判別関数を用いて判別関
数の値をそれぞれ計算する。そして、上記選択手段は、
上記複数の判別関数手段によって計算された上記各類に
対応する複数の判別関数の値に基づいて上記入力された
パターンが属する類を選択することによりパターン認識
を実行する。さらに、上記学習制御手段は、所定の学習
用パターンに基づいて、上記複数の特徴変換処理の変換
パラメータと、上記複数の判別関数とを、パターン認識
の誤り確率が最小になるように学習させて設定する。従
って、本発明によれば、パターン認識装置の学習用パタ
ーンとは異なる未知のパターンに対して精度の高いパタ
ーン認識装置の学習のための新しいパターン認識装置を
提供し、類固有の特徴を効果的に表現する特徴計量空
間、すなわち、類固有の判別関数の計量を識別的に、す
なわち認識誤りが減少するように学習することができ
る。それ故、従来全ての類で共通の特徴空間で類別評価
が行なわれていたのに対して、本発明では、類の特徴を
表現する各類固有の空間で評価が行なわれるため、未知
のパターンに対しても変動要因が抑制され、認識性能が
向上し、従来に比較して高い認識精度を得ることができ
る。
【0017】また、請求項6記載のパターン認識装置に
おいては、上記複数の特徴変換手段はそれぞれ、好まし
くは、入力されたパターンを、所定の基底ベクトルに対
して写像しかつ所定の実数を乗算することにより上記各
類に対応した複数の特徴空間のベクトルに線形変換す
る。さらに、請求項7記載のパターン認識装置において
は、上記複数の判別関数手段の判別関数はそれぞれ、好
ましくは、上記各類の類似性尺度を示す所定の2次判別
関数である。またさらに、請求項8記載のパターン認識
装置においては、上記学習制御手段は、好ましくは、所
定の学習用パターンに基づいて、上記複数の特徴変換処
理の変換パラメータと、上記複数の判別関数手段の判別
関数とを、確率的降下定理を用いる適応的最小化法を用
いてパターン認識の誤り確率が最小になるように適応化
する。
【0018】また、請求項9記載のパターン認識装置に
おいては、上記信号変換手段は、入力された音声を音声
信号に変換して出力し、上記特徴抽出手段は、上記信号
変換手段から出力される音声信号を所定の音声の特徴パ
ラメータに変換して変換した特徴パラメータを、もしく
は上記音声信号を、パターンとして上記複数の特徴変換
手段及び上記学習制御手段に出力する。ここで、学習用
音声を上記信号変換手段に入力することにより、上記学
習制御手段により学習処理が実行され、その後、未知の
音声を上記信号変換手段に入力することにより入力され
た未知の音声を認識することができる。さらに、請求項
10記載のパターン認識装置においては、上記特徴抽出
手段は、好ましくは、上記信号変換手段から出力される
音声信号に対して、線形予測分析を行ってLPCケプス
トラム係数ベクトルに変換してパターンとして上記複数
の特徴変換手段及び上記学習制御手段に出力する。この
とき、請求項9記載のパターン認識装置と同様に、学習
処理及び未知の音声認識を行うことができる。またさら
に、請求項11記載のパターン認識装置においては、上
記画像変換手段は、文字又は画像をドット画像データに
変換してパターンとして上記複数の特徴変換手段及び上
記学習制御手段に出力する。ここで、学習用文字又は画
像を上記画像変換手段に入力することにより、上記学習
制御手段により学習処理が実行され、その後、未知の文
字又は画像を上記画像変換手段に入力することにより入
力された未知の文字又は画像を認識することができる。
【0019】
【実施例】以下、図面を参照して本発明に係る実施例に
ついて説明する。 (1)パターン認識装置の構成 図1に、音声認識装置として用いられる本実施例のパタ
ーン認識装置を示す。本実施例のパターン認識装置は、
学習用パターンに基づいて装置パラメータの学習を行う
学習モードと、未知のパターンに対して認識処理を実行
する認識モードとを有し、図1に示すように、マイクロ
ホン200と、特徴抽出部201と、複数K個の特徴変
換部10−1乃至10−Kと、複数K個の判別関数器1
1−1乃至11−Kと、選択器12と、パラメータ学習
制御部20とを備える。特に、本実施例のパターン認識
装置は、パターン認識の分類を行う複数の類毎に、1つ
の特徴変換部と1つの判別関数器との対を設け、しかも
各類毎の特徴変換部の特徴変換のパラメータと判別関数
器の判別関数のパラメータとを、該当する類の特徴に対
応し類の特徴を認識するように、すなわちパターン認識
の誤り確率が最小になるように適応化して学習して設定
するパラメータ学習制御部20を備えたことを特徴とす
る。
【0020】マイクロホン200は、入力音声を音声信
号に変換して特徴抽出部201に出力する。次いで、特
徴抽出部201は、入力された音声信号を所定のサンプ
リング周波数でかつ所定の量子化ビット数で音声データ
にA/D変換した後、変換された音声データに対して例
えば線形予測分析(LPC)を実行して、例えば32次
元LPCケプストラム係数などの音声の特徴パラメータ
のベクトルを抽出し、入力パターンxとして特徴変換部
10−1乃至10−Kとパラメータ学習制御部20とに
出力する。各特徴変換部10−1乃至10−Kはそれぞ
れ、パラメータ学習制御部20によって変更可能であっ
て各判別関数器11−1乃至11−Kに対応した特徴変
換のための所定の特徴変換のパラメータを有し、入力パ
ターンxに対して対応する類の特徴を強調するための特
徴変換の処理を実行することによって、入力パターンx
を特徴ベクトルys(s=1,2,…,K)に変換して
対応する判別関数器11−1乃至11−Kに出力する。
ここで、特徴変換の処理は、図6を参照して詳細後述す
るように、入力パターンxを対応する類Ciの特徴を表
わす類特徴軸である基底ベクトルに対して正射影して写
像し、かつ所定の実数を乗算することにより拡大又は縮
小する。これによって、類固有の本質的な特徴を表わす
特徴計量空間において入力パターンxを評価することが
できるように特徴ベクトルysに変換する。
【0021】さらに、判別関数器11−1乃至11−K
はそれぞれ、パラメータ学習制御部20によって変更可
能であって所定の類に対する類似性尺度又は類の帰属度
を示す所定の判別関数を有し、入力された特徴ベクトル
sに対する判別関数値gs(ys)(s=1,2,…,
K)を計算して選択器12に出力する。選択器12は、
入力される複数K個の判別関数値gs(ys)の中で最小
値の判別関数値を出力した判別関数器(11−1乃至1
1−Kのうちの1つ)に対応する類の情報を分類結果と
して出力する。
【0022】パラメータ学習制御部20は、学習モード
において動作され、入力される学習用入力パターンxに
基づいて、特徴変換部10−1乃至10−Kの特徴変換
のパラメータと、判別関数器11−1乃至11−Kの判
別関数のパラメータとを、該当する類の特徴に対応し類
の特徴を認識するように、すなわちパターン認識の誤り
確率が最小になるように学習して設定する。言い換えれ
ば、上記各パラメータは、各類間のパターン分離度が高
くなるように適応化される。上記学習モードの後に認識
モードに設定し、入力音声をマイクロホン200に入力
させ、特徴抽出部201と、特徴変換部10−1乃至1
0−Kと、判別関数器11−1乃至11−Kと、選択器
12を動作させてパターン認識を実行する。
【0023】なお、特徴抽出部201と、複数K個の特
徴変換部10−1乃至10−Kと、複数K個の判別関数
器11−1乃至11−Kと、選択器12と、パラメータ
学習制御部20とは、好ましくは、マイクロコンピュー
タなどの電気的ディジタル計算機によって構成される。
【0024】すなわち、本実施例では、パターン認識に
とって重要な類の特徴計量空間を形成する判別関数の計
量の学習方法を開示する。最も簡単な計量の学習方法と
して、各類毎に、学習標本集合の主成分分析を行ない、
より高位の主成分を与える軸を示す固有ベクトルほど類
内の変動要因に対応すると見なし、より低位の主成分に
対する軸を類特徴を表現する座標軸として用いることが
考えられる。判別関数が2次判別関数である場合、この
学習方法により得られる判別関数は、ガウス型判別関数
又はマハラノビス距離と本質的に等しいものとなる。こ
の学習方法は、与えられた訓練標本集合の変動要因を良
く表現する手段として有効であるが、各類での学習が他
の類と独立に行なわれ、認識誤りを起こしやすい標本分
布の端の部分、すなわち類の境界付近の調整が不十分で
あるため、最適な識別を与える計量が得られる保証はな
い。そこで、本発明に係る実施例においては、認識結果
に基づく学習を導入し、類に関して識別的に計量を学習
する方法を用い、具体的には、最小分類誤り/一般化確
率的降下法を学習方法として用いる。以下、この最小誤
り学習による計量の学習法を識別的計量学習法と呼ぶ。
【0025】(2)統計的パターン認識の概要及び計量
の役割 (2−1)ベイズ決定理論によるパターン認識 ここでは、自然数d次元の入力パターンx∈Rdを複数
K個の類{Css=1 Kに分類する課題を取り扱う。類Cs
は、例えば音声認識においては音素や単語などの言語的
カテゴリに対応する。文字認識装置においては、類Cs
はそれぞれの文字であり、画像認識装置においては、類
sは予め決められた画像パターンである。これら文字
又は画像パターンは例えばドット画像データの形式で表
される。また、入力パターンxは、例えば連続音声波形
から分類の対象となる部分を切り出したもの、もしくは
その切り出された波形を特徴抽出した、短時間パワース
ペクトル、LPC係数などの特徴パラメータに対応す
る。認識決定規則C(x)を、次の数1に示すように、
入力パターン空間Rdから類Csの特徴計量空間である類
空間{Css=1 Kへの写像として定義する。
【0026】
【数1】C(x):Rd⇒{Cs}s=1 K
【0027】この認識決定規則C(x)は、従来、図3
に示すように、xを既に特徴抽出過程を経た特徴量と
し、特徴量を分類する過程と見なされるのが一般的であ
るが、本実施例では、(a)上記の一般的な場合、並び
に、(b)入力パターンxを観測量と考え、入力パター
ンxから特徴量を抽出する過程とその特徴量を分類する
過程の両方を含む場合とを考える。ここで、類Ckに属
している入力パターンxが認識された場合の損失をlk
(C(x))とする。損失lk(C(x))は次の数2
を満足する。
【0028】
【数2】lk(C(x))=0,C(x)=Ckのとき lk(C(x))≫0,C(x)≠Ckのとき
【0029】この損失lk(C(x))は、パターン認
識装置の認識結果に基づく行動の危険性を反映するよう
に設定されるものである。本実施例では、学習目的が認
識誤り率最小化にあるので、正解認識の場合の損失を0
とし、誤認識の場合の損失を1に設定する、次の数3の
0−1損失を用いる。
【0030】
【数3】lk(C(x))=0,C(x)=Ckのとき lk(C(x))=1,C(x)≠Ckのとき
【0031】全てのパターンに対する損失、すなわち損
失の期待値である期待損失は次の数4で与えられる。
【0032】
【数4】
【0033】ここで、p(x,Ck)は入力パターンx
と類Ckとの間の同時確率密度を表わす。特に、損失lk
が数3の0−1損失の場合、期待損失L(C(x))は
認識誤り確率に対応する。ベイズ決定理論に基づく統計
的パターン認識では、期待損失L(C(x))が最小と
なる決定規則C(x)を有するパターン認識装置が最適
であると考える(例えば、参考文献2、又はR.O.Duda及
びP.E.Hart,“Pattern Classification and Scene Ana
lysis”,New York:John,Wiley & Sons,1973年(以
下、参考文献7という。)参照。)。すなわち、学習標
本の集合を用いて期待損失L(C(x))が最小になる
ような決定規則C(x)を求めることでパターン認識装
置が学習される。しかしながら、学習標本がいくら多く
とも有限個であるため、真に最適なパターン認識装置の
学習は困難である。従って、実際のパターン認識装置の
学習問題は、限られた量の学習パターン{xn;n=
1,2,…,N}を用いて、全てのパターンに対する期
待損失L(C(x))をできるだけ小さくするような決
定規則C(x)を求める問題となる。ベイズ決定理論に
基づく具体的なパターン認識装置の学習方法は、次に示
す最大事後確率決定法(ベイズ法)及び判別関数法の2
種に大別される。
【0034】(2−1−1)最大事後確率決定法(ベイ
ズ法) 数4の期待損失を次の数5のように書き直すことができ
る。
【0035】
【数5】
【0036】ここで、Pr(Ck│x)はパターンxが
与えられたという条件下での類Ckの事後確率であり、
p(x)はパターンxの出現確率密度関数である。この
数5から明らかなように、パターンxが与えられたと
き、そのパターンxを数5の{}内の部分が最小になる
類C(x)に対応づけるような決定規則が、L(C
(x))を最小にすることがわかる。すなわち、期待損
失を最小にする決定規則C(x)は次の数6で与えられ
る。
【0037】
【数6】
【0038】ここで、数6の右辺のargminは、そ
の右にある値が最小になるときのsの値である。上記数
6の決定規則はベイズ決定規則と言われる(例えば、参
考文献2及び7参照。)。特に、数3で与えられる0−
1損失の場合、数6は次の数7に帰着する。
【0039】
【数7】
【0040】ここで、数7の右辺のargmaxは、そ
の右にある値が最大になるときのsの値である。すなわ
ち、最大の事後確率を与える類Ciに入力パターンxを
割り当てる決定規則が、誤り確率最小のパターン認識装
置を実現することになる。この規則を、特に、最大事後
確率決定規則という。ベイズの定理より、数7の決定規
則は次の数8と等価である。
【0041】
【数8】
【0042】ここで、Pr(Cs)は類Csの事前確率p
(x│Cs)は類Csにおけるパターンxの条件付確率密
度関数である。以上により、ベイズ決定規則は、各類の
事前確率及び各類におけるパターンの条件付確率密度関
数で構成される判別関数を用いることにより類別するも
のであることがわかる。上記の決定規則は、正確な事前
確率及び条件付確率密度関数が与えられている場合の
み、誤り確率最小の認識が可能である。しかしながら、
実際は、これらの真値を得ることは困難であってほとん
ど不可能である。そこで、有限個の学習標本からこれら
の確率密度を推定する手段を用いる。これが最大事後確
率決定法(ベイズ法)の学習原理である。属している類
が既知の学習標本が与えられているとして、各類Cs
事前確率Pr(Cs)及び条件付確率密度関数p(x│
s)を、それらの確率モデルPr(Cs|ηs)及びp
(x|Cs,λs)に基づいて推定する。ここで、ηs
びλsはそれぞれ事前確率及び条件付確率密度関数のモ
デルの推定パラメータである。結局、ベイズ法では、ま
ず、確率モデルである事前確率モデル及び条件付確率密
度関数モデルの関数を予め指定し、学習標本を用いてモ
デルの未知パラメータを推定することでパターン認識装
置が学習され、次の数9に従って未知の入力パターンの
認識が実行される。
【0043】
【数9】
【0044】モデルの適合には通常、最尤推定法などの
統計的推定法(例えば、参考文献7、及び坂元慶行,石
黒真木夫,北川源四郎共著,“情報量統計学”,情報科
学講座A.5.4,共立出版,1983年(以下、参考
文献8という。)参照。)が適用される。しかしなが
ら、上述の分類法には2つの大きな問題点がある。1つ
は、最適な確率モデルの関数の決定が困難なことがあげ
られる。最も簡単なモデルとしては単一ガウス分布が考
えられるが、実際の入力パターンの分布は、もっと複雑
である。そこで、各類において平均ベクトル(すなわ
ち、いわゆるテンプレート)を複数個与え、複数のガウ
ス分布を組み合わせて複雑な分布を表現する、混合ガウ
ス型関数がよく用いられる(例えば、参考文献5参
照。)。ところが、複雑な分布を表現するために混合数
を増加させると、同時に推定すべきパラメータ数も増大
し、モデルが有限個の学習標本を過度に忠実に表現して
しまうため、未知標本に対する識別性能が劣化する問題
が起こる。これを過学習という。そこで、テンプレート
数を適当数に定めつつパラメータの個数を減らす手段と
して、対角共分散行列を指定する発見的な方法や情報量
規準(例えば、参考文献8参照。)を適用する手法がよ
くとられるが、確率分布の推定精度が極度に劣化するた
め、最小誤り認識の実現がさらに困難となる。もう一つ
の問題点は、確率分布の推定精度と認識誤り率との非一
貫性である。上述のように、学習標本は有限個であるた
め、推定確率分布はほとんど必ず真の分布との誤差を伴
う。誤認識は実質的に類境界付近で起こると考えられる
が、ベイズ法は類境界から離れた学習標本が密集してい
る部分に忠実にモデルを合わす傾向にあり、誤差のしわ
寄せが類境界付近に集中することもあり得る。すなわ
ち、確率分布の推定精度の改善が誤り率の最小化に直接
寄与しているとは言えないのである。従って、本発明に
係る実施例においては、当該最大事後確率決定法(ベイ
ズ法)を用いず、次の判別関数法を用いる。
【0045】(2−1−2)判別関数法 判別関数法は、入力パターンの各類への帰属度を示す尺
度である判別関数を定め、学習標本の認識結果がもたら
す損失を最小にするように判別関数を学習することによ
ってパターン認識装置の学習を行なう方法である。上述
のベイズ法と比べて、判別関数法は、損失又は認識誤り
率の最小化を直接目指した学習法であると言える。判別
関数法では、決定規則として次の数10又は数11を与
える。
【0046】
【数10】 または、
【数11】
【0047】すなわち、決定規則C(x)が関数集合g
(x)={gs(x)}s=1 Kで表現される。ここで、gs
(x)は判別関数と呼ばれ、入力パターンxの類Cs
帰属度を表わすものである。数10はパターンxを最大
の判別関数の値を示す類に対応づける決定規則であり、
判別関数として類似度を示す確率モデルや2つのベクト
ルの角度を採用した場合が例としてあげられる。一方、
数11はパターンxの判別関数の値を示す類に割り当て
る決定規則であり、類参照ベクトルとの距離を判別関数
として適用した場合がその例である。すなわち、確率モ
デルに限定されたベイズ法と異なり、判別関数法ではよ
り広い範囲の関数を指定することができる。
【0048】パターン認識装置の学習は、属している類
が既知の学習標本集合{xn;n=1,2,…,N}を
用いて期待損失L(C(x))をなるべく小さくするよ
うな判別関数集合g(x)を学習することで行なわれ
る。ただし、この汎関数最小化問題を直接解くのは困難
であるため、通常は判別関数の形状gs(x;Θ)を設
定し、パラメータΘを推定することで学習が行なわれ
る。判別関数法に基づくパターン認識装置の学習におい
ては、損失関数lk(x;Θ)=lk(g(x;Θ))の
定式化と目的関数の期待損失の最小化手法が重要な問題
である。最小分類誤り/一般化確率的降下法は、その基
礎的な方法が、例えば、B.H.Juang及びS.Katagiri,“Di
scriminative learning for minimum error classifica
tion”,IEEETransation on Signal Processing,Vol.4
0,No.12,pp.3043-3054,1992年12月(以下、参考
文献6という。)において開示されている。この最小分
類誤り/一般化確率的降下法は、決定規則C(x)及び
損失関数lk(x;Θ)の滑らかである1階微分可能な
関数による定式化を実現し、勾配法などの実際的な最小
化手法の適用を可能にしたパターン認識装置の学習方法
である。
【0049】判別関数法による学習は、直観的に言えば
認識誤りがなるべく起こらなくなるように判別関数を修
正することで行なわれる。これは、誤認識が起こりやす
い類境界の精度向上が行なわれることを意味しており、
確率モデルの適合に基づくベイズ法と比較して、判別関
数法は認識精度向上に本質的な部分の学習を行なうこと
がわかる。従って、本発明に係る本実施例においては、
パターン認識装置を判別関数法を用いて学習を実行す
る。
【0050】しかしながら、判別関数法においても、学
習標本と異なる未知標本に対する認識精度の低下の問題
は深刻である。例えば、マルチテンプレート型距離分類
器(LVQ:例えば参考文献4参照。)に代表される距
離尺度に基づく分類法において、パターンの類内のばら
つきを表現すべく類参照ベクトルであるテンプレートの
個数を増加させた場合、ベイズ法における混合ガウス関
数の場合と同様に、学習標本に対する過学習の問題が起
こる。通常、テンプレートの個数(又はパラメータの自
由度)は発見的に定められるが、このことは、学習標本
と未知標本の認識精度の差の減少に寄与しても、未知標
本の認識精度の向上を合理的に行なうことにはならな
い。
【0051】(2−2)判別関数の計量の役割 統計的パターン認識においては、学習標本とは異なる未
知標本に対する認識精度の向上が本質的に重要な問題で
ある。このことは、例えば不特定話者音声認識や雑音環
境下での音声認識など、認識にとって不要な変動が含ま
れやすい実環境において最も重要な課題である。上述の
ベイズ法、判別関数法いずれにおいても、未知標本の認
識精度劣化を防ぐためにしばしば良くとられる手段は、
学習標本に対する認識精度を犠牲にすることによるもの
である。しかしながら、このことは上述した通り、未知
標本の認識精度の向上を合理的に行なう方法とは言えな
い。
【0052】標本の違いに独立でかつ高精度なパターン
認識装置学習のためには、有限の学習標本から、類の特
徴を効率的に表現する何らかの属性を学習するのが良い
と考えられる。ここでは、類内の変動が少ない特徴計量
空間の学習を考える。従来例の図4においては、特徴計
量空間は全ての類に対して共通に与えられる。しかしな
がら、全ての類において変動が少ない共通の特徴計量空
間を得ることは困難であると思われる。そこで、全ての
類で共通の特徴計量空間で類別評価を行う図4の従来例
に代わり、本実施例では、図1に示すように、類固有の
特徴をよく表現する特徴計量空間を各類毎に設けるよう
に構成する。これは、類別評価を各類固有の空間で行う
ように、類固有の判別関数の「計量」を学習する問題と
捉えることができる。
【0053】この学習が実現できれば、未知標本と各類
との類似性を評価するとき、パターン認識によって本質
的ではない変動を抑制することができるとともに、図5
に示すように、各類固有の特徴を効果的に表現するよう
な特徴計量空間で類別評価を行うことができる。すなわ
ち、元の空間では、類#1のパターンと類#2のパター
ンとがランダムに存在しているが、類#1の特徴計量空
間においては、類#1に属するパターンが所定の範囲内
のロケーションに位置し類#1の類別評価を容易に実行
することができる一方、類#2の特徴計量空間において
は、類#2に属するパターンが所定の範囲内のロケーシ
ョンに位置し類#2の類別評価を容易に実行することが
できる。この「計量」の数学的定義及びその学習方法を
次に詳細に述べる。
【0054】(3)計量の学習 (3−1)計量の定式化 まず、次の数12により、原始パターン空間Xから類C
sの特徴計量空間Ysへの線形変換Lisを定義する。この
線形変換は図1の特徴変換部10−1乃至10−Kにお
いて実行される。
【0055】
【数12】ys=Lis(x) =Φss Tx, s=1,2,…,K
【数13】Φs=diag(φs,1 φs,2 … φs,d)
【数14】Vs=[vs,1s,2 … vs,d], Vs Ts=I
【0056】ここで、上付きTは行列の転置を表し、d
iag( )は対角行列を表わす。Iは単位行列であ
る。上記式の変換の役割は、2次元(d=2)の場合で
あって図6から容易に理解できる。直交行列Vsの各列
ベクトルは、d次元ベクトル空間の1つの正規直交基底
ベクトルである。変換後のベクトルysのi番目成分
は、入力パターンxをi番目の基底ベクトルvs,iの方
向に正射影し、さらに、図6で図示していないが、実数
φs,iで乗算することで拡大又は縮小する(すなわち、
伸縮する)ことにより得られる。以下、ベクトルvs,i
及び実数φs,iをそれぞれ、類Csにおけるi番目の類特
徴軸及び伸縮パラメータと呼ぶ。図6の例では、原始パ
ターン空間Xは直交する2つの軸X1,X2で表され、O
Pで表される入力パターンxが、直交する2つの基底ベ
クトルvs,1及びvs,2からなる線形変換後の特徴計量空
間に変換される。ここで、基底ベクトルvs,1に変換さ
れた成分OQは│vs,1 Tx│で表される一方、基底ベク
トルvs,2に変換された成分ORは│vs,2 Tx│で表さ
れる。
【0057】類特徴軸と伸縮パラメータは、各類毎に個
別に学習することができる。また、絶対値の小さい伸縮
パラメータに対応する軸上の成分は、類似性評価にあま
り反映されない。従って、各類において、パターン認識
にとって本質的ではない変動を表す軸を、この小さい値
の伸縮パラメータを有する類特徴軸に対応させることに
より、類固有の本質的特徴を表す特徴計量空間に重点を
おいた評価がなされることとなる。すなわち、類別評価
が各類固有の特徴計量空間内で行なわれ、標本の違いに
よる類別評価の変動を少なくすることができる。
【0058】空間{vs,ii=1 d及び空間{φs,ii=1 d
はともに、類Csにおける類似性の「計り方」を与える
ものである。よって、これらを「計量」と称することと
し、特徴ベクトルysが動く空間Ysを「類Csの特徴計
量空間」と呼ぶことにする。本実施例において示すパタ
ーン認識装置の学習方法は、一般的に適用されている分
類部2の学習パラメータとともに、この計量も同時に学
習するものである。すなわち、本実施例では、特徴変換
部10−1乃至10−Kと判別関数器11−1乃至11
−Kの両方を学習させる。
【0059】(3−2)取り扱う判別関数 各類における特徴計量空間上での類似性尺度としては、
一般に、種々の測度が適用可能である。すなわち、類似
性尺度の選択と計量の学習は独立に考察することができ
る。最も簡単でかつ最も汎用性の高い測度として、ユー
クリッド距離尺度があげられる。これを原始パターン空
間Xから眺めた場合、s番目の類Cs(s=1,2,
…,K)に対する判別関数が、次の数15の2次判別関
数で与えられる。
【0060】
【数15】
【0061】ここで、
【数16】As=VsΛss T
【数17】Λs=Φs 2
【数18】rs=[rs,1s,2 … rs,dT
【数19】Θ={Θ1,…,ΘK
【数20】Θs={rs,Φs,Vs
【0062】ここで、数15の第2式の右辺の││・│
2はベクトルのユークリッドノルムの2乗を表し、d
etは行列式を表し、rsは類Csの参照ベクトルであ
る。類Csに関するパターン認識装置のパラメータΘ
sは、類参照ベクトルrs及び計量(Φs,Vs)である。
ε及びδはともに予め決められた非負の定数である。ε
は判別関数が負にならないようにするための定数であ
る。すなわち、ε≧1とすれば判別関数は常に非負とな
る。また、δAsは学習のときに行列Asが零行列になら
ないための制約項である。なお、rs及びAsとしてそれ
ぞれ類Csにおける平均ベクトル及び共分散行列の逆行
列を採用した場合、判別関数は、ε=1かつδ=0のと
きマハラノビス距離に対応し、ε=0かつδ=1のと
き、判別関数はガウス型判別関数となる。すなわち、上
記数15の判別関数は、一般的に適用されている判別関
数の基盤となるものである。ここでは、好ましい場合と
して、分類器として上述の2次判別関数分類器を用い
る。
【0063】(3−3)主成分分析による計量の学習 最も簡単な計量の学習法として、同じ類に属する学習標
本集合の主成分分析を各類において行なう方法が考えら
れる。主成分分析は、多変量データの集合から、成分の
分散を最大にするような直交軸を探索するデータ解析法
(例えば、参考文献1及び2参照。)である。これによ
り各類における変動要因の主成分方向を抽出することが
できる。まず、類Csにおける類標本平均μs及び類標本
共分散行列Rsは次の数21及び数22で表される。
【0064】
【数21】
【数22】
【0065】ここで、xn (s)は類Csに属する学習標本
であり、Nsはその個数を表わす。また、次の数23を
用いて、類標本共分散行列Rsを固有値分解する。
【0066】
【数23】Rs=EsΓss T
【数24】Γs=diag(γs,1 γs,2 … γs,d)
【数25】Es=[es,1s,2 … es,d], Es Ts=I
【0067】主成分軸は、類標本共分散行列Rsの固有
ベクトル{es,ii=1 dにより与えられる。各固有ベク
トルに対応する固有値{γs,ii=1 dは、標本をその固
有ベクトルの方向に正射影した成分の標本分散に等し
い。従って、各類における類標本共分散行列の大きい固
有値に対応する固有ベクトルが、その類における標本の
ばらつきを表現する軸であると見なせる。ここで、計量
(Φs,Vs)は次の数26で表される。
【0068】
【数26】Φs=Γs -1/2
【数27】Vs=Es
【0069】これは、伸縮パラメータとして共分散行列
の固有値の逆数の平方根を指定しており、より低位の主
成分の固有ベクトルを類特徴を表現する基底軸であると
見なすことに帰着する。結果として、中心ベクトルrs
として類標本平均μsをとり、特徴計量空間内の距離尺
度をユークリッド距離とした場合、主成分分析に基づく
2次判別関数は、本質的には従来のガウス型判別関数又
はマハラノビス距離と等しいものとなる。すなわち、ガ
ウス型判別関数は、各類の計量を学習標本の類独自の統
計分析から求めた場合の2次判別関数と見なすことがで
きる。
【0070】(3−4)最小誤り認識に基づく識別的な
計量の学習 主成分分析方法は、入力パターンの情報圧縮手法として
統計学的に精度の高い方法である。しかしながら、各類
での学習が他の類と独立に行なわれ、学習標本が密集し
ている部分で計量が忠実に学習される傾向があり、実質
的に認識誤りを起こしやすい標本分布の端の部分、すな
わち類の境界付近の調整が不十分であるため、未知標本
に対して最適な識別を与える計量が得られる保証はな
い。そこで、上述した判別関数法に基づく学習法、すな
わち類に関して識別的に計量を学習する方法を用いる。
ここでは、最小分類誤り/一般化確率的降下法による学
習を行なう。簡単のため、この学習法を識別的計量学習
法と呼ぶ。
【0071】(3−4−1)識別的計量学習法の概要 上述したように、判別関数法はパターン認識装置の期待
損失、すなわち誤認識確率の最小化を直接目指したパタ
ーン認識装置学習を行なうものである。この学習法で
は、損失関数lk(x;Θ)の定式化、及び目的関数で
ある期待損失の最小化手法が重要な問題である。損失関
数は、分類器の分類結果に基づく行動の危険性をうまく
反映するものであることが望ましく、特に、最小誤りパ
ターン認識装置の学習を目標とする場合は、数3で与え
られる0−1損失が、誤認識確率と対応して一貫してい
る。しかしながら、この0−1損失に基づく目的関数が
学習パラメータΘに関して非平滑であり、すなわち1階
微分不可能であるため、効率的な最適化手法である勾配
法が適用不可能であり、この損失関数は実際的観点から
見て不適切である。そこで、0−1損失に代わる、より
解析的に扱いやすい損失関数として、パーセプトロン損
失や自乗誤差損失がよく適用される(例えば、参考文献
7参照。)。これらの損失は、目的関数が微分可能とな
るため勾配法が適用可能であるという利点を有するが、
誤認識確率最小化との一貫性がなく、最適なパターン認
識装置の学習に対して不十分である。
【0072】上述の2つの問題点である、目的関数の非
平滑性と、認識誤り率最小化との非一貫性とを同時に解
決する方法が、最小分類誤り/一般化確率的降下法であ
る。最小分類誤り/一般化確率的降下法は、以下の2段
階の定型化により、認識誤り確率最小化との一貫性を持
つ平滑な損失関数の定式化を実現することができる。い
ま、類Ckに属している入力パターンxの類別を考え
る。まず、類別決定の正誤を表す測度、誤分類測度dk
(x;Θ)を定義する。ここでは、次に示すLpノルム
形式の測度を採用する。すなわち、数10の最大判別関
数決定規則の場合、誤分類測度dk(x;Θ)は次の数
28で定義される一方、数11の最小判別関数決定規則
の場合、誤分類測度dk(x;Θ)は次の数29で定義
される。
【0073】
【数28】
【数29】
【0074】いずれの場合も、学習定数ηが十分大きい
場合、誤分類測度dk(x;Θ)≦0は正解分類に対応
し、誤分類測度dk(x;Θ)>0は誤分類に対応す
る。すなわち、これらの誤分類測度は、類別決定規則を
関数の形で表現したものであり、かつパラメータΘに関
して平滑であって1次微分可能である。次に、数3の0
−1損失を模擬するような、平滑な0−1損失を定義す
る。これも、種々の定式化が可能であるが、ここでは次
の数30で定義されるシグモイド関数を用いる。
【0075】
【数30】lk(x;Θ) =lk(dk(x;Θ)) =1/(1+exp{−α(dk(x;Θ)−β)}), α>0
【0076】この損失関数の値は、十分大きなα及び絶
対値の十分小さなβに対して、誤分類測度dk(x;
Θ)≦0、すなわち正解分類の場合で0になる一方、誤
分類測度dk(x;Θ)>0、すなわち誤分類の場合で
1に十分近くなる。従って、この損失関数が0−1損失
関数の良好な近似であり、結果的に目的関数が認識誤り
確率を十分に近似するものとなることがわかる。また、
この損失関数は誤分類測度dk関して平滑であって1次
微分可能であるため、パラメータΘに関しても平滑であ
って1次微分可能である。定数αを変更することによ
り、認識誤り確率との近似性と平滑性を調節することが
できる。以上により定式化された損失関数で形成される
目的関数の最小化問題を考える。この最小化方法は2種
に大別される。1つは、入手可能な学習標本の集合{x
n;n=1,2,…,N}の全てに対する次の数31の
経験的平均損失の最小化を最急降下法などの勾配法によ
りバッチ処理的に行なう方法が考えられる。
【0077】
【数31】
【0078】数31において、1(・)は関数値として
1又は0をとる関数である。最小化方法のもう1つは、
学習標本の集合から属している類が既知の1標本を無作
為に抽出し、それに対する損失が小さくなるようにパラ
メータΘの調整を行なう適応処理的方法である。与えら
れた有限の学習標本の集合を用いる限り、この両者の差
異は小さい。しかしながら、後者の適応型調整機構は、
学習段階では扱うことのできなかった新しい利用状況に
分類器を適応させることができるという著しい潜在的可
能性を有している。本実施例において用いる最小分類誤
り/一般化確率的降下法では、以下に示す適応型最小化
方法を用いる。適応型最小化方法では、自然数t回目の
イテレーションにおいて、パラメータΘの更新は次の3
2により行なわれる。
【0079】
【数32】Θ(t)=Θ(t-1)+ΔΘ(xt,Ck,Θ(t-1))
【0080】ここで、パラメータΘ(t)はt回目のイテ
レーションにおけるパラメータの値であり、ΔΘ( )
はパラメータの修正量であり、xt及びCkはそれぞれ、
無作為に与えられた学習標本及びそれが属している類を
表わす。この更新式に従う調整機構は、新しい標本が与
えられるたびに期待損失が小さくなるようにパターン認
識装置が学習され、かつ、期待損失の最小化を常に目指
しているものであることが望まれるが、これらの要求に
対する数理的基盤は、以下に示す確率的降下定理により
与えられる。
【0081】<確率的降下定理>与えられた標本xt
類Ckに属している場合、パラメータの修正量ΔΘを次
の数33により設定する。
【0082】
【数33】ΔΘ(xt,Ck,Θ(t-1))=−εtH∇Θl
k(xt;Θ(t-1))
【0083】ここで、∇ΘはパラメータΘによる偏微分
を表し、修正係数εtは十分小さな正の定数であり、H
は正定値行列である。このとき、十分小さなεtに対し
て期待損失L(Θ)が各イテレーションにおいて平均的
に減少する。すなわち、次の数34が成立する。
【0084】
【数34】E{L(Θ(t))−L(Θ(t-1))}≦0
【0085】さらに、もし無作為に抽出された標本の無
限個列{xt;t=1,2,…}が学習に用いられ、か
つ、εtが次の数35に従うならば、数32及び数33
に従って生成されるパラメータ列{Θ(t);t=1,
2,…}は期待損失L(Θ)の少なくとも局所的最小点
Θ*に確率1で収束する。
【0086】
【数35】
【0087】当初、上記の定理は固定次元のパターンの
場合においてのみ与えられていたが、音声パターンな
ど、標本により次元が変化するパターンに対する上記の
定理の拡張もなされている。以上により、パターン認識
の誤り確率である期待損失又は誤認識確率の最小化と一
貫した平滑な損失関数の定式化及び実際的な適応的最適
化方法の定型化がなされた。
【0088】(3−4−2)制約条件なしの最適化 属している類が既知の学習標本の集合{xt;t=1,
2,…,N}を用いて、数15で与えられる2次判別関
数に対して、学習パラメータΘs={rs,Φs,Vs
(s=1,2,…,K)、すなわち中心ベクトルと計量
を、最小分類誤り/一般化確率的降下法により学習す
る。しかしながら、rsとΦsの修正は容易であるが、V
sは、直交行列であるという制約条件が課せられるた
め、このままでは修正が難しい。そこで、直交行列Vs
を次の数36で表現する。
【0089】
【数36】Vs=U1,2s,1,2)U1,3s,1,3)…
d-1,ds,d-1,d)
【0090】ここで、d×dの行列Up,q(θ)(p<
q)は次の数37で与えられる。
【0091】
【数37】
【0092】すなわち、行列Up,q(θ)は、(p,
p)成分と(q,q)成分がcosθであり、(p,
q)成分がsinθであり、(q,p)成分が−sin
θであり、それ以外は対角成分が1で非対角成分が0の
d次直交行列である。この行列Up,q(θ)はヤコビの
回転(Jacobi Rotation)と呼ばれ、d次元ベクトルの
p軸成分とq軸成分をそれらの軸により生成される平面
上で角度θだけ回転させる演算子である(例えば、G.H.
Golub及びC.F.Van Loan,“Matrix Computations,TheJoh
ns Hopkins University Press,1989年(以下、参考
文献9という。)参照。)。数36は、直交行列を全て
の組合せの軸対に対応するヤコビの回転(Jacobi Rotat
ion)で表現することを表している。その組合せの個数
は直交行列Vsの自由度と同じd(d−1)/2であ
り、直交行列Vsそのものを制約条件の下で修正する代
わりに角度(θs,p,q)を調節すれば良いことがわか
る。以上により、最小分類誤り/一般化確率的降下法に
より調節されるパラメータは以下の3種となる。
【0093】
【数38】rs=[rs,1s,2 … rs,dT∈Rd
【数39】φs=[φs,1 φs,2 … φs,dT∈Rd
【数40】θs=[θs,1,2 θs,1,3 … θs,d-1,d
T∈Rd(d-1)/2, s=1,2,…,K
【0094】(3−4−3)識別的計量学習法の初期化 最小分類誤り/一般化確率的降下法の最適化手法は勾配
法に基づいており、パラメータ列が初期値により様々な
局所的最適解に収束する。従って、なるべく大域的最適
解に近い初期値を与えることが望まれる。rsの初期値
s (0)としては、通常の距離尺度と同様に、類の標本平
均ベクトルμsを与えるのが妥当と考えられる。計量の
初期値(Φs (0),Vs (0))としては、一様重みとデカル
ト座標系(Φs (0)=I,Vs (0)=I)、もしくは、上述
の主成分分析によるもの(Φs (0)=Γ-1/2,Vs (0)=E
s)が考えられる。前者はユークリッド距離に対応し、
後者はガウス型判別関数又はマハラノビス距離に対応す
る。特に、後者は主成分分析により得られる値であるこ
とから、統計的に良好な初期値であると考えられる。従
って、本実施例では後者を用いる。しかしながら、主成
分分析による初期化の場合、直交行列の初期値V
s (0)(=Es)に対応するパラメータθsの初期設定が困
難である。そこで、類Csにおける座標系を初期値Vs
(0)だけ回転させる。
【0095】
【数41】g(x;Θs) =(Vs (0)Tx−ps)TsΦs 2s T(Vs (0)Tx−ps)+lo
gdet(εI+δΦs -2)
【数42】ps=Vs (0)Ts
【数43】Ws=Vs (0)Ts
【0096】ここで、Wsは明らかに直交行列であり、
直交行列Wsを改めて数36と同様に次の数44で表現
する。
【0097】
【数44】Ws=U1,2(θs,1,2)U1,3(θs,1,3)…
d-1,d(θs,d-1,d
【0098】このとき、直交行列Wsの初期値W
s (0)は、次の数45のように表わすことができる。
【0099】
【数45】Ws (0)=Vs (0)Ts (0)=I
【0100】従って、パラメータθsの初期値をすべて
1に設定すればよいこととなる。以上により、調整され
るパラメータΘs(s=1,2,…,K)は次の数46
乃至数48で表される。
【0101】
【数46】ps=[ps,1s,2 … ps,dT∈Rd
【数47】φs=[φs,1 φs,2 … φs,dT∈Rd
【数48】θs=[θs,1,2 θs,1,3 … θs,d-1,dT
d(d-1)/2
【0102】そして、それらの初期値は次の数49乃至
数52で与えられる。
【0103】
【数49】ps (0)=Vs (0)Tμs
【数50】φs,i (0)=1/√(γs,i), i=1,2,…,d
【数51】θs,p,q (0)=1, p<q; p=1,2,…,d−1; q=2,3,…,d
【数52】Vs (0)=Es
【0104】(3−4−4)DMD更新式の導出 最小分類誤り/一般化確率的降下法において、正解の類
がCkである学習標本xtが与えられたときのパラメータ
修正値は、数33で与えられる。損失関数としてシグモ
イド関数を適用する場合、損失関数の勾配は鎖則により
次の数53乃至数54で表される。
【0105】
【数53】∇Θlk(x;Θ)=(∂lk(dk)/∂dk)∇Θ
k(x;Θ)
【数54】∇Θlk(x;Θ)=αlk(x;Θ){1−l
k(x;Θ)}∇Θdk(x;Θ)
【0106】ここで、∇Θdk(x;Θ)は次の数55及
び数56で与えられる。
【0107】
【数55】∇Θdk(x;Θ)=[∇Θ1k(x;Θ) ∇Θ
2k(x;Θ)…∇ΘKk(x;Θ)]
【数56】∇Θsk(x;Θ)=ρk,s(x;Θ)(∂g
(x;Θs)/∂Θs),s=1,2,…,K
【0108】
【数57】
【0109】さらに、判別関数g(x;Θs)の勾配は
次の数58乃至数62で与えられる。
【0110】
【数58】∂g(x;Θs)/∂ps=−2WsΦs 2s T(V
s (0)Tx−ps)
【数59】∂g(x;Θs)/∂φs,i =2φs,i│ωs,i T(Vs (0)Tx−ps)│2−{2δ/φs,i
(εφs,i 2+δ)}
【数60】Ws=[ωs,1,ωs,2,…,ωs,d]
【数61】∂g(x;Θs)/∂θs,p,q =2(Vs (0)Tx−ps)T(∂Ws/∂θs,p,qs 2s T(V
s (0)Tx−ps)
【数62】∂Ws/∂θs,p,q =U1,2s,1,2)…Up,q-1s,p,q-1) (∂Up,qs,p,q)/∂θs,p,q)Up,q+1s,p,q+1)…
d-1,ds,d-1,d)
【0111】結局、識別的計量学習法におけるパラメー
タΘs=(ps,φs,θs)(s=1,2,…,K)の更
新式は数32、数33及び数54乃至数62から次の数
63乃至数65が得られる。
【0112】
【数63】ps (t) =ps (t-1) +2εtαlk(xt(t-1){1−lk(xt(t-1))}ρk,
s(xt(t-1))×Ws (t-1)Φs (t-1)exp2s (t-1)T(Vs
(0)Tt−ps (t-1)
【数64】φs,i (t) =φs,i (t-1) −2εtαlk(xt(t-1){1−lk(xt(t-1))}ρk,
s(xt(t−1))×[φs,i (t-1)│ws,i (t-1)T(V
s (0)Tt-ps (t-1))│2−δ/{φs,i (t-1)(εφs,i
(t-1)exp2+δ)}], i=1,2,…,d
【数65】θs,p,q (t) =θs,p,q (t-1) −2εtαlk(xt(t-1){1−lk(xt(t-1))}ρk,
s(xt(t-1))×(Vs (0)Tt-ps (t-1))T(∂Ws/∂
θs,p,q)(t-1)Φs (t-1)exp2s (t-1)T (Vs (0)Tt-ps (t-1)), p=1,2,…,d−1; q=2,3,…,d; p<q
【0113】ここで、上付きのtは繰り返しステップの
番号を表わす。また、上付きのexp2は2乗を示す。
k(xt(t-1)は数29及び数30から得られ、ρk,s
(xt(t-1))は数57から得られ、そして(∂Ws/∂θ
s,p,q)(t-1)は数62のθs,p,qにθs,p,q (t-1)を代入す
ることにより得られる。なお、ここで、簡単化のため数
33における重み正定値行列Hを単位行列としている。
正定値行列Hを適当に定めることにより、各パラメータ
の更新の度合いに重み付けをすることができる。パラメ
ータpsを調整することにより各類の最適な中心ベクト
ルrsが得られ、パラメータθsを調整することにより各
類の最適な正規直交軸Vsが得られ、そしてφsを調整す
ることにより各類の各特徴軸に対する最適な伸縮パラメ
ータが得られる。
【0114】結局、パラメータ学習制御部20によって
実行される識別的計量学習法の基本アルゴリズムである
パラメータ学習処理を図7に示す。
【0115】図7に示すように、まず、ステップS1に
おいて、数49乃至数52を用いてパラメータの初期化
を実行し、かつイテレーションパラメータtを1に初期
化する。次いで、ステップS2において、属している類
kが既知である学習標本xtを無作為に抽出する。そし
て、ステップS3,S4,S5において、抽出された学
習標本xtに基づいて、各パラメータの値を計算する、
すなわち、ステップS3では、数15を用いて判別関数
g(xt;Θs (t-1))の値を計算し、ステップS4で
は、数29を用いて誤分類測度dk(xt;Θ(t-1))を
計算し、ステップS5では、数30を用いて損失lk
(t-1)を計算する。さらに、ステップS6において、パ
ラメータΘを、数32と数33と数54から導出された
次の数66を用いて更新する。
【0116】
【数66】Θ(t)=Θ(t-1)−εtHαlk (t-1){1−lk
(t-1)}∇Θdk(xt;Θ(t-1))
【0117】ここで、パラメータΘは、Θ1,Θ2,…,
ΘKからなる列ベクトルの行列で表され、パラメータΘs
は、ps,φs,θs(s=1,2,…,K)からなる列
ベクトルの行列で表される。また、∇Θdk(xt;Θ
(t-1))は、∇Θ1k(xt;Θ(t-1)),∇Θ2k(xt;Θ
(t-1)),…,∇ΘKk(xt;Θ(t-1))からなる列ベクト
ルの行列で表される。さらに、∇Θsk(xt;Θ(t-1))
は次の数67で表される。
【0118】
【数67】∇Θsk(xt;Θ(t-1))=ρk,s(xt;Θ
(t-1))∇Θsg(xt;Θ(t-1))
【0119】ここで、ρk,s(xt;Θ(t-1))は数57で
表される。また、∇Θsg(xt;Θ(t-1))は、Θs=Θs
(t-1)のときの∂g(xt;Θs)/∂ps,∂g(xt;Θs)
/∂φs,∂g(xt;Θs)/∂θsからなる列ベクトルの
行列で表される。ただし、∂g(xt;Θs)/∂psは数
58で表され、∂g(xt;Θs)/∂φsは、それぞれ数
59で表される∂g(xt;Θs)/∂φs,1,∂g(xt
Θs)/∂φs,2,…,∂g(xt;Θs)/∂φs,dからなる
列ベクトルの行列で表される。さらに、∂g(xt;Θs)
/∂θsは、それぞれ数61でp<qかつp及びqが
1,2,…,dの範囲で表される∂g(xt;Θs)/∂θ
s,1,2,∂g(xt;Θs)/∂θs,1,3,…,∂g(xt;Θ
s)/∂θs,d-1,dからなる列ベクトルの行列で表され
る。
【0120】さらに、ステップS7において、判定条件
を満足するか否かが判断され、満足する場合、パラメー
タ学習の適応化が終了したと判断して当該パラメータ学
習処理を終了する。一方、満足しない場合は、ステップ
S8においてイテレーションパラメータtに1を加算し
て更新し、ステップS2に進んで上記の処理を繰り返
す。なお、判定条件としては、繰り返し回数tが予め定
められた回数に達した時点で終了してもよいし、もしく
は、学習標本の集合に対する平均損失の減少度が決めら
れた値より小さくなった時点で終了してもよい。詳細後
述するシミュレーションにおいては前者を用いる。
【0121】(4)シミュレーション 本実施例のパターン認識装置を用いて、最も基本的な不
特定話者の日本語5母音の認識シミュレーションを行っ
た。このシミュレーションの目的は、識別的計量学習法
の実現可能性を確証することにある。従来の一般的なマ
ハラノビス距離尺度に基づくパターン認識装置、および
マルチテンプレート距離分類器の代表であるLVQパタ
ーン認識装置との比較により、本実施例で用いた識別的
計量学習法の有効性を実証する。
【0122】このシミュレーションにおいては、ラベル
付きの属している類が既知のパターンを以下「トーク
ン」と呼ぶ。母音のトークンとしては、男性36人と女
性34人を含む70人の話者が発声した512個の孤立
単語を、サンプリング周波数12KHz及び量子化16
bitで標本化しかつ量子化した音声データを用いる。
各母音セグメントの中心部分から前後10msecのフ
レーム、すなわちフレーム長20msecに対してハミ
ング窓を乗算して切り出し、LPCケプストラム分析を
行ない、そのケプストラム係数をパターン認識装置の入
力トークン、すなわち入力パターンとする。当該シミュ
レーションでは、LPC次数及びケプストラム次数をと
もに32としている。すなわち、各々の入力トークンは
32次元の単一ケプストラムベクトルである。70人の
話者のうちの50人のデータをパターン認識装置の学習
標本セットとして用い、残りの20人のうちそれぞれ1
0人を2種類のテストセットとし、それぞれのテスト認
識をテスト1及びテスト2と呼ぶ。学習用トークンの個
数は約7500であり、各テストセットにおけるトーク
ンの個数は約1500である。このシミュレーションに
おけるパターン認識装置のパラメータを最適化するため
の学習処理は以下の通りである。
【0123】まず、50人の512個の学習用孤立単語
発生音声データから各母音に対応する音声波形データを
切り出し、5母音のいずれかである属する類の情報を付
加して、学習用音声波形データセットとする。次いで、
この学習用音声波形データセットの各音声波形を、本実
施例のパターン認識装置に特徴抽出部201に入力す
る。特徴抽出部201は、入力された学習用音声波形デ
ータセットの各音声波形を32次元LPCケプストラム
係数ベクトルxn(n=1,2,…,N)に変換してパ
ターン学習制御部20に出力する。そして、当該パター
ン認識装置を学習モードに設定し、パターン学習制御部
20は、図7のパラメータ学習処理を実行する。ここ
で、s=1,2,…,5でありK=5である。学習処理
が終了した後、当該パターン認識装置を認識モードに設
定し、特徴抽出部201と、特徴変換部10−1乃至1
0−Kと、判別関数器11−1乃至11−Kと、選択器
12とを動作させて、学習セットに対するパターン認識
処理と、テスト1及びテスト2とを実行する。表1に当
該シミュレーションの結果を示す。ここでは、2次判別
関数に基づく識別的計量学習法を用いる分類器(以下、
本実施例の特徴変換部と判別関数器とをあわせて、DM
D分類器という。)を備えた本実施例のパターン認識装
置と、従来のマハラノビス距離分類器と、ユークリッド
距離に基づく複数のテンプレートを有する従来のLVQ
分類器とによる音声認識の誤り率を示す。
【0124】
【表1】 日本語5母音のタスクにおける音声認識の誤り率 ─────────────────────────────────── 学習セット テスト1 テスト2 ─────────────────────────────────── DMD分類器 3.84% 8.78% 10.59% ─────────────────────────────────── マハラノビス距離分類器 8.80% 13.10% 15.42% ─────────────────────────────────── LVQ分類器 10.51% 10.93% 15.62% (1個のテンプレート) ─────────────────────────────────── LVQ分類器 5.00% 14.38% 12.93% (8個のテンプレート) ─────────────────────────────────── LVQ分類器 3.46% 16.41% 13.40% (16個のテンプレート) ───────────────────────────────────
【0125】表1から明らかなように、テストデータに
対して、本実施例のDMD分類器が従来のマハラノビス
距離分類器、従来のLVQ分類器のいずれよりも高い音
声認識精度を示している。また、1個のテンプレートを
用いた場合であっても、各類に個別の特徴計量空間を持
たせる本実施例のDMD分類器は、従来のLVQ分類器
のテンプレートの個数を増加させた場合に比較して、パ
ターン認識装置の頑健性を増大させることがわかる。
【0126】(5)本実施例の識別的計量学習法と他の
方法との相違点 (3−3)主成分分析による計量の学習の項で上述した
ように、各類ごとに学習標本集合の主成分分析を行なう
方法が計量の学習の最も簡単である方法としてあげられ
る。2次判別関数に基づく分類器の場合、ガウス型判別
関数又はマハラノビス距離が主成分分析に基づく計量学
習法で学習された判別関数の代表としてあげられる。し
かしながら、上述したように、主成分分析は、各類独立
に学習が行なわれ、他の類の影響を考慮せずに計量が学
習されるため、認識誤り最小化というパターン認識装置
本来の目的に対して不十分である。このことは、上記の
シミュレーション結果でも実証されている。
【0127】最近、最小分類誤り/一般化確率的降下法
の学習に基づくガウス分布型隠れマルコフモデル(HM
M)音声パターン認識装置が、高精度の音声認識を実現
する方法として注目されつつある(例えば、W.Chou,B.
H.Juang,及びC.H.Lee“Segmental GPD training of HMM
based speech recognizer”,Proceedings of ICASSP9
2,Vol.1,pp.473-476,1992年(以下、参考文献10
という。)、もしくは、D.Rainton及びS.Sagayama,“Mi
nimum error classification training of HMMs--- imp
lementation details and experimental results”,Jap
anese AcousticSociety Japan,(E),Vol.13,No.6,pp.379
-387,1992年11月(以下、参考文献11とい
う。)参照。)。従来、一般化確率的降下法の適用を可
能にするため、対角共分散行列のガウス分布しか取り扱
うことができず、また、パターン変動をモデリングする
ため、各類において複数の対角共分散ガウス分布を割り
当てる混合ガウス分布型HMMが専ら採用されている。
これは結局、各類において複数の参照ベクトルを割り当
てるマルチテンプレート型距離分類器(LVQ)と本質
的に同じものである。しかしながら、(2−1−1)最
大事後確率決定法及び(2−1−2)判別関数法の項で
上述したように、単一ガウス分布を有する参照ベクトル
の個数の増加と未知標本に対する耐性はトレードオフの
関係にあるため、未知標本の認識に対する最適な参照ベ
クトルの個数の決定が困難である。容易に推察されるよ
うに、2次判別関数に基づく識別的計量学習法は、本質
的に2次判別関数に基づいているガウス分布型HMM分
類器に応用可能である。特に、類特徴軸である直交行列
sの調整を可能にしたことは、対角行列に限らない、
一般の共分散行列のガウス分布を有するHMMの最小分
類誤り/一般化確率的降下法による最適化を可能にす
る。識別的計量学習法によって各類個別の特徴計量空間
を学習する手段が、複数の参照ベクトルを割り当てる手
段に比較して、未知標本に対する認識精度を向上させる
ことが、上記のシミュレーション結果で示されている。
このことは、今後、HMM音声パターン認識装置の未知
標本に対する耐性を考える上での新しい知見を与えるも
のと考えられる。
【0128】識別的計量学習法における各類個別の線形
変換Lisは、特徴抽出過程と見なすこともできる。最近
提案された識別的特徴抽出法(A.Biem及びS. Katagiri,
“Feature extraction based on minimum classificati
on error/generalized probabilistic descent metho
d”,Proceedings of ICASSP 93,Vol.2,pp.275-278,19
93年4月(以下、参考文献12という。)参照。)
は、特徴抽出過程と分類過程の両方を最小分類誤り/一
般化確率的降下法で統一的に学習するものであり、認識
誤り最小化という認識器本来の目的に対する両過程の不
整合を解決する方法である。しかしながら、当該識別的
特徴抽出法では、全ての類に対して共通の特徴空間が与
えられるのに対し、本実施例で用いる識別的計量学習法
では各類個別の特徴計量空間が与えられる。また、参考
文献12では各ケプストラム係数の重みのみの最適化を
行なっているが、識別的計量学習法では重みのみならず
特徴計量空間の直交座標軸も調整が可能である。この点
で、識別的計量学習法は上記識別的特徴抽出法と異な
る。
【0129】識別的計量学習法と同様に、各類個別に特
徴空間を持たせてパターンを分類する分類法として、部
分空間法(参考文献1参照。)、及びその関連した手法
である複合類似度法(飯島泰蔵著,“パターン認識理
論”,森北出版,1989年(以下、参考文献13とい
う。)参照。)、学習部分空間法(参考文献1参
照。)、混合類似度法(参考文献13参照。)が提案さ
れている。これら4つの手法は、類特徴を表現する「部
分空間」を各類ごとに割り当て、入力パターンの各類部
分空間への「正射影」を判別関数として採用する方法で
ある。ただし、複合類似度法及び混合類似度法では、部
分空間の各基底ベクトルに対して重みを与えている。こ
こでは簡単のため、これら4手法を射影分類法と総称す
ることとする。
【0130】識別的計量学習法と射影分類法は、取り扱
う入力パターンの種類が根本的に異なる。正射影を判別
関数とする射影分類法は、定数倍しても帰属する類が変
化しないようなパターンに対してのみ適用可能である。
一方、距離関数に基づく識別的計量学習法は、上記のよ
うなパターンに対しても大きさで正規化することによ
り、任意の種類のパターンを取り扱うことができる。す
なわち射影分類法は、原音声波形や画像パターン、パワ
ースペクトルなどには適用できるが、対数パワースペク
トル、ケプストラム、及びLPC係数などには適用不可
能である。しかしながら、本実施例で用いる識別的計量
学習法は、上記のいずれのパターンも取り扱える。ま
た、類特徴軸の取り扱い方が、識別的計量学習法と射影
分類法で異なる。射影分類法では、類特徴軸は類のテン
プレートとしての意味合いが強く、識別的計量学習法
(又はLVQ分類器)における参照ベクトルに対応す
る。一方、本実施例の識別的計量学習法は、類特徴軸を
原始パターン空間から各類特徴計量空間への写像として
取り扱っている。言い換えれば、射影分類法ではLVQ
分類器と同様に、類テンプレートのみが学習されるのに
対し、本実施例の識別的計量学習法ではテンプレートと
特徴計量空間の両方が学習される。
【0131】(6)効果 以上説明したように、本実施例においては、パターン認
識装置の学習標本とは異なる未知標本に対して精度の高
いパターン認識装置の学習のための新しい方法として、
類固有の特徴を効果的に表現する特徴計量空間、すなわ
ち、類固有の判別関数の計量を識別的に、すなわち認識
誤りが減少するように学習する方法である識別的計量学
習法を用いる。従って、従来全ての類で共通の特徴空間
で類別評価が行なわれていたのに対して、本実施例にお
いては、類の特徴を表現する各類固有の特徴計量空間で
評価が行なわれるため、未知標本に対しても変動要因が
抑制され、認識性能が向上する。また、本実施例の構成
は比較的簡単である。認識率最大化を目的としたパター
ン分類器の学習法として有効性が知られている最小分類
誤り/一般化確率的降下法を適用することにより、真に
認識に本質的な判別式の計量が得られる。
【0132】(7)変形例 以上の実施例においては、音声認識装置に適用するため
のパターン認識装置について説明したが、本発明はこれ
に限らず、文字認識装置や画像認識装置に適用してもよ
い。なお、文字認識装置や画像認識装置の場合には、図
1のマイクロホン200及び特徴抽出部201に代え
て、用紙上に手書き、タイプ又は印字された文字、もし
くは画像パターンなどの画像をドット画像データに変換
してパターンとして特徴変換部10−1乃至10−K及
びパラメータ学習制御部20に出力するイメージスキャ
ナーを備える。この場合、予め設定された学習用文字又
は画像パターンを用いて学習させた後、文字認識又は画
像認識を行うことができる。なお、音声認識装置におい
て、特徴抽出部201を設けず、マイクロホン200で
得られる音声信号波形をA/D変換して得られた音声デ
ータを、そのまま入力パターンとして用いてもよい。
【0133】以上の実施例において、特徴抽出部201
は、入力される音声信号を32次元LPCケプストラム
係数ベクトルに変換しているが、本発明はこれに限ら
ず、音声認識装置の場合、パワースペクトル、対数パワ
ースペクトルなどの他の音声の特徴パラメータに変換し
て入力パターンxとして用いてもよい。
【0134】以上の実施例においては、各類の類似性尺
度を示す判別関数として2次判別関数を用いているが、
本発明はこれに限らず、以下に示す判別関数を用いても
よい。 (a)類毎に中心ベクトルを複数個与えて、入力された
パターンと各中心ベクトルとの間の距離を、参考文献4
と同様な方法で表した判別関数を用いる。 (b)入力されたパターンと参照パターンとの自然数n
次元における特徴パラメータなどのベクトル間の角度を
表わす判別関数を用いる。 (c)類毎にパターンの確率密度関数を与えて、入力さ
れたパターンの密度関数の値である尤度を表わす判別関
数を用いる。
【0135】以上の実施例においては、選択器12は、
複数K個の判別関数値の中で最小値の判別関数値を出力
した判別関数器に対応する類の情報を分類結果として出
力しているが、本発明はこれに限らず、判別関数値が大
きいときに類の類似性尺度が高いときは、複数K個の判
別関数値の中で最大値の判別関数値を出力した判別関数
器に対応する類の情報を分類結果として出力するように
構成される。
【0136】
【発明の効果】以上詳述したように本発明に係る請求項
1記載のパターン認識方法によれば、入力されたパター
ンを、上記各類の特徴を強調するように上記各類に対応
した所定の変換パラメータを用いて特徴変換処理を実行
することにより上記各類に対応した複数の特徴空間のベ
クトルに変換し、上記変換した複数の特徴空間のベクト
ルに対してそれぞれ、上記各類の類似性尺度を示す所定
の判別関数を用いて判別関数の値を計算し、上記計算し
た上記各類に対応する複数の判別関数の値に基づいて上
記入力されたパターンが属する類を選択することにより
パターン認識を実行し、所定の学習用パターンに基づい
て、上記特徴変換処理の変換パラメータと、上記判別関
数とを、パターン認識の誤り確率が最小になるように学
習させて設定する。従って、本発明によれば、パターン
認識装置の学習用パターンとは異なる未知のパターンに
対して精度の高いパターン認識装置の学習のための新し
い方法を提供し、類固有の特徴を効果的に表現する特徴
計量空間、すなわち、類固有の判別関数の計量を識別的
に、すなわち認識誤りが減少するように学習することが
できる。それ故、従来全ての類で共通の特徴空間で類別
評価が行なわれていたのに対して、本発明では、類の特
徴を表現する各類固有の空間で評価が行なわれるため、
未知のパターンに対しても変動要因が抑制され、認識性
能が向上し、従来に比較して高い認識精度を得ることが
できる。
【0137】また、本発明に係る請求項5記載のパター
ン認識装置によれば、入力されたパターンを所定の複数
の類の1つに分類して認識するパターン認識装置におい
て、上記複数の類毎に設けられ、入力されたパターン
を、上記各類の特徴を強調するように上記各類に対応し
た所定の変換パラメータを用いて特徴変換処理を実行す
ることにより上記各類に対応した複数の特徴空間のベク
トルにそれぞれ変換する複数の特徴変換手段と、上記複
数の類毎に設けられ、上記複数の特徴変換手段によって
変換された複数の特徴空間のベクトルに対してそれぞ
れ、上記各類の類似性尺度を示す所定の判別関数を用い
て判別関数の値をそれぞれ計算する複数の判別関数手段
と、上記複数の判別関数手段によって計算された上記各
類に対応する複数の判別関数の値に基づいて上記入力さ
れたパターンが属する類を選択することによりパターン
認識を実行する選択手段と、所定の学習用パターンに基
づいて、上記複数の特徴変換処理の変換パラメータと、
上記複数の判別関数とを、パターン認識の誤り確率が最
小になるように学習させて設定する学習制御手段とを備
える。従って、本発明によれば、パターン認識装置の学
習用パターンとは異なる未知のパターンに対して精度の
高いパターン認識装置の学習のための新しいパターン認
識装置を提供し、類固有の特徴を効果的に表現する特徴
計量空間、すなわち、類固有の判別関数の計量を識別的
に、すなわち認識誤りが減少するように学習することが
できる。それ故、従来全ての類で共通の特徴空間で類別
評価が行なわれていたのに対して、本発明では、類の特
徴を表現する各類固有の空間で評価が行なわれるため、
未知のパターンに対しても変動要因が抑制され、認識性
能が向上し、従来に比較して高い認識精度を得ることが
できる。
【0138】また、請求項9記載のパターン認識装置に
よれば、上記信号変換手段は、入力された音声を音声信
号に変換して出力し、上記特徴抽出手段は、上記信号変
換手段から出力される音声信号を所定の音声の特徴パラ
メータに変換して変換した特徴パターンを、もしくは上
記音声信号を、パターンとして上記複数の特徴変換手段
及び上記学習制御手段に出力する。ここで、学習用音声
を上記信号変換手段に入力することにより、上記学習制
御手段により学習処理が実行され、その後、未知の音声
を上記信号変換手段に入力することにより入力された未
知の音声を、従来に比較して高い認識精度で認識するこ
とができる。
【0139】さらに、請求項11記載のパターン認識装
置によれば、上記画像変換手段は、文字又は画像をドッ
ト画像データに変換してパターンとして上記複数の特徴
変換手段及び上記学習制御手段に出力する。ここで、学
習用文字又は画像を上記画像変換手段に入力することに
より、上記学習制御手段により学習処理が実行され、そ
の後、未知の文字又は画像を上記画像変換手段に入力す
ることにより入力された未知の文字又は画像を、従来に
比較して高い認識精度で認識することができる。
【図面の簡単な説明】
【図1】 本発明に係る一実施例であるパターン認識装
置のブロック図である。
【図2】 従来例のパターン認識装置のブロック図であ
る。
【図3】 図2の分類部2のブロック図である。
【図4】 図3の分類部2を用いた従来例のパターン認
識装置である。
【図5】 図1の実施例において元の1つの空間を2つ
の特徴計量空間に分類したときの各パターンを示す説明
図である。
【図6】 図1の特徴変換部10−1乃至10−Kの動
作を示す図である。
【図7】 図1のパラメータ学習制御部10によって実
行されるパラメータ学習処理を示すフローチャートであ
る。
【符号の説明】
10−1乃至10−K…特徴変換部、 11−1乃至11−K…判別関数器、 12…選択器、 20…パラメータ学習制御部、 100…パターン認識装置、 200…マイクロホン、 201…特徴抽出部。
─────────────────────────────────────────────────────
【手続補正書】
【提出日】平成7年6月16日
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】0055
【補正方法】変更
【補正内容】
【0055】
【数12】ys=Lis(x) =Φss Tx, s=1,2,…,K
【数13】Φs=diag(φs,1 φs,2 … φs,d)
【数14】Vs=[vs,1s,2 … vs,d], Vs Ts=I
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】0056
【補正方法】変更
【補正内容】
【0056】ここで、上付きTは行列の転置を表し、d
iag( )は対角行列を表わす。Iは単位行列であ
る。上記式の変換の役割は、2次元(d=2)の場合で
あって図6から容易に理解できる。直交行列Vsの各列
ベクトルは、d次元ベクトル空間の1つの正規直交基底
ベクトルである。変換後のベクトルysのi番目成分
は、入力パターンxをi番目の基底ベクトルvs,iの方
向に正射影し、さらに、図6で図示していないが、実数
φs,iで乗算することで拡大又は縮小する(すなわち、
伸縮する)ことにより得られる。以下、ベクトルvs,i
及び実数φs,iをそれぞれ、類Csにおけるi番目の類特
徴軸及び伸縮パラメータと呼ぶ。図6の例では、原始パ
ターン空間Xは直交する2つの軸X1,X2で表され、O
Pで表される入力パターンxが、直交する2つの基底ベ
クトルvs,1及びvs,2からなる線形変換後の特徴計量空
間に変換される。ここで、基底ベクトルvs,1に変換さ
れた成分OQは│vs,1 Tx│で表される一方、基底ベク
トルvs,2に変換された成分ORは│vs,2 Tx│で表さ
れる。
【手続補正3】
【補正対象書類名】明細書
【補正対象項目名】0058
【補正方法】変更
【補正内容】
【0058】空間{vs,ii=1 d及び空間{φs,ii=1 d
はともに、類Csにおける類似性の「計り方」を与える
ものである。よって、これらを「計量」と称することと
し、特徴ベクトルysが動く空間Ysを「類Csの特徴計
量空間」と呼ぶことにする。本実施例において示すパタ
ーン認識装置の学習方法は、一般的に適用されている分
類部2の学習パラメータとともに、この計量も同時に学
習するものである。すなわち、本実施例では、特徴変換
部10−1乃至10−Kと判別関数器11−1乃至11
−Kの両方を学習させる。
【手続補正4】
【補正対象書類名】明細書
【補正対象項目名】0061
【補正方法】変更
【補正内容】
【0061】ここで、
【数16】As=VsΛss T
【数17】Λs=Φs 2
【数18】rs=[rs,1s,2 … rs,dT
【数19】Θ={Θ1,…,ΘK
【数20】Θs={rs,Φs,Vs
【手続補正5】
【補正対象書類名】明細書
【補正対象項目名】0066
【補正方法】変更
【補正内容】
【0066】
【数23】Rs=EsΓss T
【数24】Γs=diag(γs,1 γs,2 … γs,d)
【数25】Es=[es,1s,2 … es,d], Es Ts=I
【手続補正6】
【補正対象書類名】明細書
【補正対象項目名】0067
【補正方法】変更
【補正内容】
【0067】主成分軸は、類標本共分散行列Rsの固有
ベクトル{es,ii=1 dにより与えられる。各固有ベク
トルに対応する固有値{γs,ii=1 dは、標本をその固
有ベクトルの方向に正射影した成分の標本分散に等し
い。従って、各類における類標本共分散行列の大きい固
有値に対応する固有ベクトルが、その類における標本の
ばらつきを表現する軸であると見なせる。ここで、計量
(Φs,Vs)は次の数26で表される。
【手続補正7】
【補正対象書類名】明細書
【補正対象項目名】0089
【補正方法】変更
【補正内容】
【0089】
【数36】Vs=U1,2s,1,2)U1,3s,1,3)…U
d-1,ds,d−1,d
【手続補正8】
【補正対象書類名】明細書
【補正対象項目名】0090
【補正方法】変更
【補正内容】
【0090】ここで、d×dの行列Up,q(θ)(p
<q)は次の数37で与えられる。
【手続補正9】
【補正対象書類名】明細書
【補正対象項目名】0092
【補正方法】変更
【補正内容】
【0092】すなわち、行列Up,q(θ)は、(p,
p)成分と(q,q)成分がcosθであり、(p,
q)成分がsinθであり、(q,p)成分が−sin
θであり、それ以外は対角成分が1で非対角成分が0の
d次直交行列である。この行列Up,q(θ)はヤコビの
回転(Jacobi Rotation)と呼ばれ、d次元ベクトルの
p軸成分とq軸成分をそれらの軸により生成される平面
上で角度θだけ回転させる演算子である(例えば、G.H.
Golub及びC.F.Van Loan,“Matrix Computations,TheJoh
ns Hopkins University Press,1989年(以下、参考
文献9という。)参照。)。数36は、直交行列を全て
の組合せの軸対に対応するヤコビの回転(Jacobi Rotat
ion)で表現することを表している。その組合せの個数
は直交行列Vsの自由度と同じd(d−1)/2であ
り、直交行列Vsそのものを制約条件の下で修正する代
わりに角度(θs,p,q)を調節すれば良いことがわか
る。以上により、最小分類誤り/一般化確率的降下法に
より調節されるパラメータは以下の3種となる。
【手続補正10】
【補正対象書類名】明細書
【補正対象項目名】0093
【補正方法】変更
【補正内容】
【0093】
【数38】rs=[rs,1s,2 … rs,dT∈Rd
【数39】φs=[φs,1 φs,2 … φs,dT∈Rd
【数40】θs=[θs,1,2 θs,1,3 … θs,d-1,d
T∈Rd(d-1)/2, s=1,2,…,K
【手続補正11】
【補正対象書類名】明細書
【補正対象項目名】0097
【補正方法】変更
【補正内容】
【0097】
【数44】Ws=U1,2(θs,1,2)U1,3(θs,1,3)…
d-1,d(θs,d-1,d
【手続補正12】
【補正対象書類名】明細書
【補正対象項目名】0101
【補正方法】変更
【補正内容】
【0101】
【数46】ps=[ps,1s,2 … ps,dT∈Rd
【数47】φs=[φs,1 φs,2 … φs,dT∈Rd
【数48】θs=[θs,1,2 θs,1,3 … θs,d-1,dT
d(d−1)/2
【手続補正13】
【補正対象書類名】明細書
【補正対象項目名】0103
【補正方法】変更
【補正内容】
【0103】
【数49】p (0)=Vs (0)Tμs
【数50】φs,i (0)=1/√(γs,i), i=1,2,…,d
【数51】θs,p,q (0)=1, p<q; p=1,2,…,d−1; q=2,3,…,d
【数52】Vs (0)=E
【手続補正14】
【補正対象書類名】明細書
【補正対象項目名】0107
【補正方法】変更
【補正内容】
【0107】
【数55】∇Θd(x;Θ)=[∇Θ1k(x;Θ) ∇
Θ2k(x;Θ)…∇ΘKk(x;Θ)]
【数56】∇Θsk(x;Θ)=ρk,s(x;Θ)(∂g
(x;Θs)/∂Θs), s=1,2,…,K
【手続補正15】
【補正対象書類名】明細書
【補正対象項目名】0110
【補正方法】変更
【補正内容】
【0110】
【数58】∂g(x;Θs)/∂ps=−2WsΦs 2s T(V
s (0)Tx−ps)
【数59】∂g(x;Θs)/∂φs,i =2φs,i│ωs,i T(Vs (0)Tx−ps)│2−{2δ/φs,i
(εφs,i 2+δ)}
【数60】Ws=[ωs,1,ωs,2,…,ωs,d]
【数61】∂g(x;Θs)/∂θs,p,q =2(Vs (0)Tx−ps)T(∂Ws/∂θs,p,qs 2s T(V
s (0)Tx−ps)
【数62】∂Ws/∂θs,p,q =U1,2s,1,2)…Up,q-1s,p,q-1) (∂Up,qs,p,q)/∂θs,p,q)Up,q+1s,p,q+1)…
d-1,ds,d−1,d
【手続補正16】
【補正対象書類名】明細書
【補正対象項目名】0112
【補正方法】変更
【補正内容】
【0112】
【数63】p (t) =ps (t-1)+2εtαlk(xt(t-1)){1−lk(xt
(t-1))}ρk,s(xt(t-1))×Ws (t-1)Φs (t-1)exp2s
(t-1)T(Vs (0)Tt−ps (t-1)
【数64】φs,i (t) =φs,i (t-1)−2εtαlk(xt(t-1)){1−lk(xt;
Θ(t-1))}ρk,s(xt(t-1))×[φs,i (t-1)│ws,i
(t-1)T(Vs (0)Tt-ps (t-1))│2−δ/{φs,i (t-1)
φs,i (t-1)exp2+δ)}], i=1,2,…,d
【数65】θs,p,q (t) =θs,p,q (t-1)−2εtαlk(xt(t-1)){1−lk(x
t(t-1))}ρk,s(xt(t-1))×(Vs (0)Tt-ps
(t-1))T(∂Ws/∂θs,p,q)(t-1)Φs (t-1)exp2s (t-1)T (Vs (0)Tt-ps (t-1)), p=1,2,…,d−1; q=2,3,…,d; p<q
【手続補正17】
【補正対象書類名】明細書
【補正対象項目名】0113
【補正方法】変更
【補正内容】
【0113】ここで、上付きのtは繰り返しステップの
番号を表わす。また、上付きのexp2は2乗を示す。
k(xt(t-1))は数29及び数30から得られ、ρ
k,s(xt(t-1))は数57から得られ、そして(∂Ws/
∂θs,p,q)(t-1)は数62のθs, p,qにθs,p,q (t-1)を代
入することにより得られる。なお、ここで、簡単化のた
め数33における重み正定値行列Hを単位行列としてい
る。正定値行列Hを適当に定めることにより、各パラメ
ータの更新の度合いに重み付けをすることができる。パ
ラメータpsを調整することにより各類の最適な中心ベ
クトルrsが得られ、パラメータθsを調整することによ
り各類の最適な正規直交軸Vsが得られ、そしてφsを調
整することにより各類の各特徴軸に対する最適な伸縮パ
ラメータが得られる。
【手続補正18】
【補正対象書類名】明細書
【補正対象項目名】0118
【補正方法】変更
【補正内容】
【0118】
【数67】∇Θsk(xt;Θ(t-1))=ρk,s(xt;Θ
(t-1))∇Θsg(xt;Θ(t−1)
【手続補正19】
【補正対象書類名】明細書
【補正対象項目名】0119
【補正方法】変更
【補正内容】
【0119】ここで、ρk,s(xt;Θ(t-1))は数5
7で表される。また、∇Θsg(xt;Θ(t -1))は、Θs
Θs (t-1)のときの∂g(xt;Θs)/∂ps,∂g(xt
Θs)/∂φs,∂g(xt;Θs)/∂θsからなる列ベクト
ルの行列で表される。ただし、∂g(xt;Θs)/∂ps
は数58で表され、∂g(xt;Θs)/∂φsは、それぞ
れ数59で表される∂g(xt;Θs)/∂φs,1,∂g(x
t;Θs)/∂φs,2,…,∂g(xt;Θs)/∂φs,dから
なる列ベクトルの行列で表される。さらに、∂g(xt
Θs)/∂θsは、それぞれ数61でp<qかつp及びq
が1,2,…,dの範囲で表される∂g(xt;Θs)/∂
θs,1,2,∂g(xt;Θs)/∂θs,1,3,…,∂g(xt
Θs)/∂θs,d-1,dからなる列ベクトルの行列で表され
る。
【手続補正20】
【補正対象書類名】明細書
【補正対象項目名】図7
【補正方法】変更
【補正内容】
【図7】 図1のパラメータ学習制御部20によって実
行されるパラメータ学習処理を示すフローチャートであ
る。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 山口 毅 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール音声翻 訳通信研究所内 (72)発明者 片桐 滋 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール音声翻 訳通信研究所内

Claims (11)

    【特許請求の範囲】
  1. 【請求項1】 入力されたパターンを所定の複数の類の
    1つに分類して認識するパターン認識方法において、 入力されたパターンを、上記各類の特徴を強調するよう
    に上記各類に対応した所定の変換パラメータを用いて特
    徴変換処理を実行することにより上記各類に対応した複
    数の特徴空間のベクトルに変換し、上記変換した複数の
    特徴空間のベクトルに対してそれぞれ、上記各類の類似
    性尺度を示す所定の判別関数を用いて判別関数の値を計
    算し、上記計算した上記各類に対応する複数の判別関数
    の値に基づいて上記入力されたパターンが属する類を選
    択することによりパターン認識を実行し、 所定の学習用パターンに基づいて、上記特徴変換処理の
    変換パラメータと、上記判別関数とを、パターン認識の
    誤り確率が最小になるように学習させて設定することを
    特徴とするパターン認識方法。
  2. 【請求項2】 上記特徴変換処理は、入力されたパター
    ンを、所定の基底ベクトルに対して写像しかつ所定の実
    数を乗算することにより上記各類に対応した複数の特徴
    空間のベクトルに線形変換することを特徴とする請求項
    1記載のパターン認識方法。
  3. 【請求項3】 上記判別関数は、上記各類の類似性尺度
    を示す所定の2次判別関数であることを特徴とする請求
    項1又は2記載のパターン認識方法。
  4. 【請求項4】 所定の学習用パターンに基づいて、上記
    特徴変換処理の変換パラメータと、上記判別関数とを、
    確率的降下定理を用いる適応的最小化法を用いてパター
    ン認識の誤り確率が最小になるように適応化することを
    特徴とする請求項1、2又は3記載のパターン認識方
    法。
  5. 【請求項5】 入力されたパターンを所定の複数の類の
    1つに分類して認識するパターン認識装置において、 上記複数の類毎に設けられ、入力されたパターンを、上
    記各類の特徴を強調するように上記各類に対応した所定
    の変換パラメータを用いて特徴変換処理を実行すること
    により上記各類に対応した複数の特徴空間のベクトルに
    それぞれ変換する複数の特徴変換手段と、 上記複数の類毎に設けられ、上記複数の特徴変換手段に
    よって変換された複数の特徴空間のベクトルに対してそ
    れぞれ、上記各類の類似性尺度を示す所定の判別関数を
    用いて判別関数の値をそれぞれ計算する複数の判別関数
    手段と、 上記複数の判別関数手段によって計算された上記各類に
    対応する複数の判別関数の値に基づいて上記入力された
    パターンが属する類を選択することによりパターン認識
    を実行する選択手段と、 所定の学習用パターンに基づいて、上記複数の特徴変換
    処理の変換パラメータと、上記複数の判別関数とを、パ
    ターン認識の誤り確率が最小になるように学習させて設
    定する学習制御手段とを備えたことを特徴とするパター
    ン認識装置。
  6. 【請求項6】 上記複数の特徴変換手段はそれぞれ、入
    力されたパターンを、所定の基底ベクトルに対して写像
    しかつ所定の実数を乗算することにより上記各類に対応
    した複数の特徴空間のベクトルに線形変換することを特
    徴とする請求項5記載のパターン認識装置。
  7. 【請求項7】 上記複数の判別関数手段の判別関数はそ
    れぞれ、上記各類の類似性尺度を示す所定の2次判別関
    数であることを特徴とする請求項5又は6記載のパター
    ン認識装置。
  8. 【請求項8】 上記学習制御手段は、所定の学習用パタ
    ーンに基づいて、上記複数の特徴変換処理の変換パラメ
    ータと、上記複数の判別関数手段の判別関数とを、確率
    的降下定理を用いる適応的最小化法を用いてパターン認
    識の誤り確率が最小になるように適応化することを特徴
    とする請求項5、6又は7記載のパターン認識装置。
  9. 【請求項9】 上記パターン認識装置はさらに、 入力された音声を音声信号に変換して出力する信号変換
    手段と、 上記信号変換手段から出力される音声信号を所定の音声
    の特徴パラメータに変換して変換した特徴パラメータ
    を、もしくは上記音声信号を、パターンとして上記複数
    の特徴変換手段及び上記学習制御手段に出力する特徴抽
    出手段とを備え、 上記入力された音声を認識することを特徴とする請求項
    5乃至8のうちの1つに記載のパターン認識装置。
  10. 【請求項10】 上記特徴抽出手段は、上記信号変換手
    段から出力される音声信号に対して、線形予測分析を行
    ってLPCケプストラム係数ベクトルに変換してパター
    ンとして上記複数の特徴変換手段及び上記学習制御手段
    に出力することを特徴とする請求項9記載のパターン認
    識装置。
  11. 【請求項11】 上記パターン認識装置はさらに、 文字又は画像をドット画像データに変換してパターンと
    して上記複数の特徴変換手段及び上記学習制御手段に出
    力する画像変換手段を備え、 上記文字又は画像を認識することを特徴とする請求項
    5、6又は7記載のパターン認識装置。
JP6241255A 1994-10-05 1994-10-05 パターン認識方法及び装置 Expired - Fee Related JP2690027B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP6241255A JP2690027B2 (ja) 1994-10-05 1994-10-05 パターン認識方法及び装置
US08/493,719 US5754681A (en) 1994-10-05 1995-06-22 Signal pattern recognition apparatus comprising parameter training controller for training feature conversion parameters and discriminant functions

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6241255A JP2690027B2 (ja) 1994-10-05 1994-10-05 パターン認識方法及び装置

Publications (2)

Publication Number Publication Date
JPH08106295A true JPH08106295A (ja) 1996-04-23
JP2690027B2 JP2690027B2 (ja) 1997-12-10

Family

ID=17071525

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6241255A Expired - Fee Related JP2690027B2 (ja) 1994-10-05 1994-10-05 パターン認識方法及び装置

Country Status (2)

Country Link
US (1) US5754681A (ja)
JP (1) JP2690027B2 (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08123473A (ja) * 1994-10-28 1996-05-17 Sony Corp 音韻ラベル化装置
JPH08123462A (ja) * 1994-10-27 1996-05-17 Sony Corp 音声認識装置
WO1998036372A1 (en) * 1997-02-14 1998-08-20 Hewlett-Packard Company Method and apparatus for recognizing patterns
US6671404B1 (en) 1997-02-14 2003-12-30 Hewlett-Packard Development Company, L.P. Method and apparatus for recognizing patterns
JP2007114413A (ja) * 2005-10-19 2007-05-10 Toshiba Corp 音声非音声判別装置、音声区間検出装置、音声非音声判別方法、音声区間検出方法、音声非音声判別プログラムおよび音声区間検出プログラム
WO2008004559A1 (fr) * 2006-07-06 2008-01-10 Asahi Glass Company, Limited système de groupage, et dispositif d'évaluation de type de défaut
WO2008044582A1 (en) * 2006-09-27 2008-04-17 Sharp Kabushiki Kaisha Method and apparatus for locating speech keyword and speech recognition system
JP2008139747A (ja) * 2006-12-05 2008-06-19 Nippon Telegr & Teleph Corp <Ntt> 音響モデルパラメータ更新処理方法、音響モデルパラメータ更新処理装置、プログラム、記録媒体
JP2009282685A (ja) * 2008-05-21 2009-12-03 Sony Corp 情報処理装置、情報処理方法、およびプログラム
US7634140B2 (en) 2002-02-27 2009-12-15 Nec Corporation Pattern feature selection method, classification method, judgment method, program, and device
JP2011103111A (ja) * 2009-11-10 2011-05-26 Inst For Information Industry 視聴覚を結合した動作認識システムおよびその認識方法
JP2011118883A (ja) * 2009-12-04 2011-06-16 Mitsubishi Electric Research Laboratories Inc 局所的学習のためのトレーニング点の近傍を選択するための方法
WO2011086643A1 (ja) * 2010-01-14 2011-07-21 日本電気株式会社 パターン認識装置、パターン認識方法及びパターン認識用プログラム
US8099277B2 (en) 2006-09-27 2012-01-17 Kabushiki Kaisha Toshiba Speech-duration detector and computer program product therefor
JP2012164008A (ja) * 2011-02-03 2012-08-30 Toshiba Corp 手書き単語認識装置および手書き単語認識用モデル学習装置
US8380500B2 (en) 2008-04-03 2013-02-19 Kabushiki Kaisha Toshiba Apparatus, method, and computer program product for judging speech/non-speech
WO2016125500A1 (ja) * 2015-02-06 2016-08-11 日本電気株式会社 特徴変換装置、認識装置、特徴変換方法及びコンピュータ読み取り可能記録媒体
JP2018163474A (ja) * 2017-03-24 2018-10-18 大日本印刷株式会社 照合装置、カード発行機
JP2021015098A (ja) * 2019-07-16 2021-02-12 株式会社東芝 部分放電診断装置、部分放電診断方法、学習装置、学習方法、部分放電診断システム及びコンピュータプログラム

Families Citing this family (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997008685A2 (en) * 1995-08-28 1997-03-06 Philips Electronics N.V. Method and system for pattern recognition based on dynamically constructing a subset of reference vectors
JP3536471B2 (ja) * 1995-09-26 2004-06-07 ソニー株式会社 識別装置および識別方法、並びに音声認識装置および音声認識方法
US6134537A (en) 1995-09-29 2000-10-17 Ai Ware, Inc. Visualization and self organization of multidimensional data through equalized orthogonal mapping
WO1997036227A2 (en) * 1996-03-28 1997-10-02 Philips Electronics N.V. Method and computer system for processing a set of data elements on a sequential processor
US5920644A (en) * 1996-06-06 1999-07-06 Fujitsu Limited Apparatus and method of recognizing pattern through feature selection by projecting feature vector on partial eigenspace
JP3702978B2 (ja) * 1996-12-26 2005-10-05 ソニー株式会社 認識装置および認識方法、並びに学習装置および学習方法
US6178261B1 (en) * 1997-08-05 2001-01-23 The Regents Of The University Of Michigan Method and system for extracting features in a pattern recognition system
JP3584458B2 (ja) * 1997-10-31 2004-11-04 ソニー株式会社 パターン認識装置およびパターン認識方法
US6104835A (en) * 1997-11-14 2000-08-15 Kla-Tencor Corporation Automatic knowledge database generation for classifying objects and systems therefor
US6233555B1 (en) * 1997-11-25 2001-05-15 At&T Corporation Method and apparatus for speaker identification using mixture discriminant analysis to develop speaker models
US6058206A (en) * 1997-12-01 2000-05-02 Kortge; Chris Alan Pattern recognizer with independent feature learning
US6112021A (en) * 1997-12-19 2000-08-29 Mitsubishi Electric Information Technology Center America, Inc, (Ita) Markov model discriminator using negative examples
US6229923B1 (en) * 1998-01-21 2001-05-08 Xerox Corporation Method and system for classifying and processing of pixels of image data
US6192353B1 (en) * 1998-02-09 2001-02-20 Motorola, Inc. Multiresolutional classifier with training system and method
US6269334B1 (en) * 1998-06-25 2001-07-31 International Business Machines Corporation Nongaussian density estimation for the classification of acoustic feature vectors in speech recognition
US6317517B1 (en) * 1998-11-30 2001-11-13 Regents Of The University Of California Statistical pattern recognition
US6671661B1 (en) * 1999-05-19 2003-12-30 Microsoft Corporation Bayesian principal component analysis
ATE256894T1 (de) * 1999-07-26 2004-01-15 Marti Nelson Cancer Res Founda Trainierbares, anpassungfähiges fokussiertes replikatornetzwerk zur datenanalyse
US6581033B1 (en) * 1999-10-19 2003-06-17 Microsoft Corporation System and method for correction of speech recognition mode errors
US6535641B1 (en) * 1999-10-28 2003-03-18 The United States Of America As Represented By The Secretary Of The Navy Class specific classifier
US7055737B1 (en) 2000-06-22 2006-06-06 Sony Coporation Electronic network and method for obtaining topic-specific information regarding a product
JP4596196B2 (ja) * 2000-08-02 2010-12-08 ソニー株式会社 ディジタル信号処理方法、学習方法及びそれらの装置並びにプログラム格納媒体
US6847731B1 (en) * 2000-08-07 2005-01-25 Northeast Photo Sciences, Inc. Method and system for improving pattern recognition system performance
US7529666B1 (en) * 2000-10-30 2009-05-05 International Business Machines Corporation Minimum bayes error feature selection in speech recognition
US6795804B1 (en) * 2000-11-01 2004-09-21 International Business Machines Corporation System and method for enhancing speech and pattern recognition using multiple transforms
US6847918B2 (en) * 2000-12-14 2005-01-25 Siemens Corporate Research, Inc. Method and apparatus for providing predictive maintenance of a device by using markov transition probabilities
US7613634B2 (en) * 2000-12-21 2009-11-03 Sony Corporation Method and system for performing electronic retailing
US7038690B2 (en) * 2001-03-23 2006-05-02 Microsoft Corporation Methods and systems for displaying animated graphics on a computing device
US7239324B2 (en) * 2001-03-23 2007-07-03 Microsoft Corporation Methods and systems for merging graphics for display on a computing device
US7149256B2 (en) * 2001-03-29 2006-12-12 Quellan, Inc. Multilevel pulse position modulation for efficient fiber optic communication
US7307569B2 (en) * 2001-03-29 2007-12-11 Quellan, Inc. Increasing data throughput in optical fiber transmission systems
DE60238602D1 (de) * 2001-04-04 2011-01-27 Quellan Inc Verfahren und system zum decodieren von mehrpegelsignalen
US20030030873A1 (en) * 2001-05-09 2003-02-13 Quellan, Inc. High-speed adjustable multilevel light modulation
JP3845553B2 (ja) * 2001-05-25 2006-11-15 インターナショナル・ビジネス・マシーンズ・コーポレーション データベースにおけるドキュメントのリトリーブ・ランク付けを実行するコンピュータ・システム、およびプログラム
US7212580B2 (en) * 2002-02-15 2007-05-01 Quellan, Inc. Multi-level signal clock recovery technique
US6816101B2 (en) * 2002-03-08 2004-11-09 Quelian, Inc. High-speed analog-to-digital converter using a unique gray code
US7130776B2 (en) * 2002-03-25 2006-10-31 Lockheed Martin Corporation Method and computer program product for producing a pattern recognition training set
US20030198478A1 (en) * 2002-04-23 2003-10-23 Quellan, Inc. Method and system for generating and decoding a bandwidth efficient multi-level signal
US7424425B2 (en) * 2002-05-19 2008-09-09 International Business Machines Corporation Optimization of detection systems using a detection error tradeoff analysis criterion
JP2004013681A (ja) * 2002-06-10 2004-01-15 Bosu & K Consulting Kk 名刺情報管理システム
US7082394B2 (en) * 2002-06-25 2006-07-25 Microsoft Corporation Noise-robust feature extraction using multi-layer principal component analysis
AU2003256569A1 (en) * 2002-07-15 2004-02-02 Quellan, Inc. Adaptive noise filtering and equalization
US7243063B2 (en) * 2002-07-17 2007-07-10 Mitsubishi Electric Research Laboratories, Inc. Classifier-based non-linear projection for continuous speech segmentation
AU2003287628A1 (en) 2002-11-12 2004-06-03 Quellan, Inc. High-speed analog-to-digital conversion with improved robustness to timing uncertainty
KR100571813B1 (ko) * 2003-07-28 2006-04-17 삼성전자주식회사 로컬 선형변환함수를 이용한 특징벡터 추출방법과 이를이용한 영상인식방법 및 장치
US7050388B2 (en) * 2003-08-07 2006-05-23 Quellan, Inc. Method and system for crosstalk cancellation
US7804760B2 (en) * 2003-08-07 2010-09-28 Quellan, Inc. Method and system for signal emulation
EP1687929B1 (en) * 2003-11-17 2010-11-10 Quellan, Inc. Method and system for antenna interference cancellation
US7305132B2 (en) * 2003-11-19 2007-12-04 Mitsubishi Electric Research Laboratories, Inc. Classification in likelihood spaces
US7616700B2 (en) 2003-12-22 2009-11-10 Quellan, Inc. Method and system for slicing a communication signal
WO2006032261A1 (de) * 2004-09-21 2006-03-30 Imedos Gmbh Verfahren und vorrichtung zur retinalen gefässanalyse anhand digitaler bilder
US7725079B2 (en) 2004-12-14 2010-05-25 Quellan, Inc. Method and system for automatic control in an interference cancellation device
US7522883B2 (en) 2004-12-14 2009-04-21 Quellan, Inc. Method and system for reducing signal interference
US20070076001A1 (en) * 2005-09-30 2007-04-05 Brand Matthew E Method for selecting a low dimensional model from a set of low dimensional models representing high dimensional data based on the high dimensional data
US20070239675A1 (en) * 2006-03-29 2007-10-11 Microsoft Corporation Web search media service
JP5078991B2 (ja) 2006-04-26 2012-11-21 ケラン エルエルシー 通信チャネルからの放射性放出を削減する方法とシステム
US7599898B2 (en) * 2006-10-17 2009-10-06 International Business Machines Corporation Method and apparatus for improved regression modeling
US7880607B2 (en) * 2006-12-15 2011-02-01 Motorola, Inc. Intelligent risk management system for first responders
US8423364B2 (en) * 2007-02-20 2013-04-16 Microsoft Corporation Generic framework for large-margin MCE training in speech recognition
US8386254B2 (en) * 2007-05-04 2013-02-26 Nuance Communications, Inc. Multi-class constrained maximum likelihood linear regression
US7936906B2 (en) * 2007-06-15 2011-05-03 Microsoft Corporation Face recognition using discriminatively trained orthogonal tensor projections
US8843370B2 (en) * 2007-11-26 2014-09-23 Nuance Communications, Inc. Joint discriminative training of multiple speech recognizers
US7979363B1 (en) * 2008-03-06 2011-07-12 Thomas Cecil Minter Priori probability and probability of error estimation for adaptive bayes pattern recognition
US8218880B2 (en) 2008-05-29 2012-07-10 Microsoft Corporation Linear laplacian discrimination for feature extraction
WO2010019831A1 (en) * 2008-08-14 2010-02-18 21Ct, Inc. Hidden markov model for speech processing with training method
US8024152B2 (en) * 2008-09-23 2011-09-20 Microsoft Corporation Tensor linear laplacian discrimination for feature extraction
US20100239168A1 (en) * 2009-03-20 2010-09-23 Microsoft Corporation Semi-tied covariance modelling for handwriting recognition
US20100246941A1 (en) * 2009-03-24 2010-09-30 Microsoft Corporation Precision constrained gaussian model for handwriting recognition
US8396286B1 (en) * 2009-06-25 2013-03-12 Google Inc. Learning concepts for video annotation
US8452778B1 (en) 2009-11-19 2013-05-28 Google Inc. Training of adapted classifiers for video categorization
US8452763B1 (en) 2009-11-19 2013-05-28 Google Inc. Extracting and scoring class-instance pairs
US8369611B2 (en) 2010-04-22 2013-02-05 Microsoft Corporation Compact handwriting recognition
US9087297B1 (en) 2010-12-17 2015-07-21 Google Inc. Accurate video concept recognition via classifier combination
PL399698A1 (pl) * 2012-06-27 2014-01-07 Voice Lab Spólka Z Ograniczona Odpowiedzialnoscia Sposób doboru zlozonosci dyskretnego modelu akustycznego w systemie automatycznego rozpoznawania mowy
CN102930297B (zh) * 2012-11-05 2015-04-29 北京理工大学 基于增强耦合hmm的语音-视觉融合的情感识别方法
US9240184B1 (en) * 2012-11-15 2016-01-19 Google Inc. Frame-level combination of deep neural network and gaussian mixture models
US9471853B2 (en) * 2014-05-19 2016-10-18 Jinling Institute Of Technology Method and apparatus for image processing
CN107110743B (zh) * 2015-01-21 2019-12-10 三菱电机株式会社 检查数据处理装置以及检查数据处理方法
CN105046279B (zh) * 2015-08-07 2018-05-15 合肥工业大学 一种模拟电路故障模式分类方法
US20170076209A1 (en) * 2015-09-14 2017-03-16 Wellaware Holdings, Inc. Managing Performance of Systems at Industrial Sites
US10489589B2 (en) * 2016-11-21 2019-11-26 Cylance Inc. Anomaly based malware detection
US11238409B2 (en) 2017-09-29 2022-02-01 Oracle International Corporation Techniques for extraction and valuation of proficiencies for gap detection and remediation
US20200097879A1 (en) * 2018-09-25 2020-03-26 Oracle International Corporation Techniques for automatic opportunity evaluation and action recommendation engine
US11367034B2 (en) 2018-09-27 2022-06-21 Oracle International Corporation Techniques for data-driven correlation of metrics

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0792673B2 (ja) * 1984-10-02 1995-10-09 株式会社東芝 認識用辞書学習方法
JP2598723B2 (ja) * 1990-06-28 1997-04-09 大日本スクリーン製造株式会社 網点画像作成装置
US5239594A (en) * 1991-02-12 1993-08-24 Mitsubishi Denki Kabushiki Kaisha Self-organizing pattern classification neural network system
US5479570A (en) * 1992-10-06 1995-12-26 Matsushita Electric Industrial Co., Ltd. Learning and recognition machine
US5440662A (en) * 1992-12-11 1995-08-08 At&T Corp. Keyword/non-keyword classification in isolated word speech recognition
US5602938A (en) * 1994-05-20 1997-02-11 Nippon Telegraph And Telephone Corporation Method of generating dictionary for pattern recognition and pattern recognition method using the same

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08123462A (ja) * 1994-10-27 1996-05-17 Sony Corp 音声認識装置
JPH08123473A (ja) * 1994-10-28 1996-05-17 Sony Corp 音韻ラベル化装置
WO1998036372A1 (en) * 1997-02-14 1998-08-20 Hewlett-Packard Company Method and apparatus for recognizing patterns
US6671404B1 (en) 1997-02-14 2003-12-30 Hewlett-Packard Development Company, L.P. Method and apparatus for recognizing patterns
KR100494261B1 (ko) * 1997-02-14 2005-06-13 휴렛-팩커드 컴퍼니(델라웨어주법인) 패턴 인식 장치 및 방법
US7634140B2 (en) 2002-02-27 2009-12-15 Nec Corporation Pattern feature selection method, classification method, judgment method, program, and device
JP2007114413A (ja) * 2005-10-19 2007-05-10 Toshiba Corp 音声非音声判別装置、音声区間検出装置、音声非音声判別方法、音声区間検出方法、音声非音声判別プログラムおよび音声区間検出プログラム
WO2008004559A1 (fr) * 2006-07-06 2008-01-10 Asahi Glass Company, Limited système de groupage, et dispositif d'évaluation de type de défaut
JP5120254B2 (ja) * 2006-07-06 2013-01-16 旭硝子株式会社 クラスタリングシステムおよび欠陥種類判定装置
US8255215B2 (en) 2006-09-27 2012-08-28 Sharp Kabushiki Kaisha Method and apparatus for locating speech keyword and speech recognition system
WO2008044582A1 (en) * 2006-09-27 2008-04-17 Sharp Kabushiki Kaisha Method and apparatus for locating speech keyword and speech recognition system
JP2010504553A (ja) * 2006-09-27 2010-02-12 シャープ株式会社 音声キーワードの特定方法、装置及び音声識別システム
US8099277B2 (en) 2006-09-27 2012-01-17 Kabushiki Kaisha Toshiba Speech-duration detector and computer program product therefor
JP2008139747A (ja) * 2006-12-05 2008-06-19 Nippon Telegr & Teleph Corp <Ntt> 音響モデルパラメータ更新処理方法、音響モデルパラメータ更新処理装置、プログラム、記録媒体
US8380500B2 (en) 2008-04-03 2013-02-19 Kabushiki Kaisha Toshiba Apparatus, method, and computer program product for judging speech/non-speech
JP2009282685A (ja) * 2008-05-21 2009-12-03 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2011103111A (ja) * 2009-11-10 2011-05-26 Inst For Information Industry 視聴覚を結合した動作認識システムおよびその認識方法
JP2011118883A (ja) * 2009-12-04 2011-06-16 Mitsubishi Electric Research Laboratories Inc 局所的学習のためのトレーニング点の近傍を選択するための方法
WO2011086643A1 (ja) * 2010-01-14 2011-07-21 日本電気株式会社 パターン認識装置、パターン認識方法及びパターン認識用プログラム
CN102713945A (zh) * 2010-01-14 2012-10-03 日本电气株式会社 模式识别器、模式识别方法以及用于模式识别的程序
JPWO2011086643A1 (ja) * 2010-01-14 2013-05-16 日本電気株式会社 パターン認識装置、パターン認識方法及びパターン認識用プログラム
US20130129220A1 (en) * 2010-01-14 2013-05-23 Nec Corporation Pattern recognizer, pattern recognition method and program for pattern recognition
US8750628B2 (en) 2010-01-14 2014-06-10 Nec Corporation Pattern recognizer, pattern recognition method and program for pattern recognition
JP5621787B2 (ja) * 2010-01-14 2014-11-12 日本電気株式会社 パターン認識装置、パターン認識方法及びパターン認識用プログラム
JP2012164008A (ja) * 2011-02-03 2012-08-30 Toshiba Corp 手書き単語認識装置および手書き単語認識用モデル学習装置
WO2016125500A1 (ja) * 2015-02-06 2016-08-11 日本電気株式会社 特徴変換装置、認識装置、特徴変換方法及びコンピュータ読み取り可能記録媒体
US10482351B2 (en) 2015-02-06 2019-11-19 Nec Corporation Feature transformation device, recognition device, feature transformation method and computer readable recording medium
JP2018163474A (ja) * 2017-03-24 2018-10-18 大日本印刷株式会社 照合装置、カード発行機
JP2021015098A (ja) * 2019-07-16 2021-02-12 株式会社東芝 部分放電診断装置、部分放電診断方法、学習装置、学習方法、部分放電診断システム及びコンピュータプログラム

Also Published As

Publication number Publication date
US5754681A (en) 1998-05-19
JP2690027B2 (ja) 1997-12-10

Similar Documents

Publication Publication Date Title
JP2690027B2 (ja) パターン認識方法及び装置
Reynolds Gaussian mixture models.
US8346551B2 (en) Method for adapting a codebook for speech recognition
EP0966736B1 (en) Method for discriminative training of speech recognition models
Bellegarda et al. The metamorphic algorithm: A speaker mapping approach to data augmentation
US11450332B2 (en) Audio conversion learning device, audio conversion device, method, and program
US8515758B2 (en) Speech recognition including removal of irrelevant information
KR20040037180A (ko) 학습 모델 부분들을 사용하는 안면 인식 시스템 및 방법
Li et al. Large margin HMMs for speech recognition
JPH05257492A (ja) 音声認識方式
US6449591B1 (en) Learning apparatus, learning method, recognition apparatus, recognition method, and recording medium
WO2007105409A1 (ja) 標準パタン適応装置、標準パタン適応方法および標準パタン適応プログラム
CN108154186B (zh) 一种模式识别方法和装置
Inoue et al. Exploitation of unlabeled sequences in hidden Markov models
Hammami et al. Tree distribution classifier for automatic spoken arabic digit recognition
JP2852298B2 (ja) 標準パターン適応化方式
US5828998A (en) Identification-function calculator, identification-function calculating method, identification unit, identification method, and speech recognition system
Juang et al. Discriminative training
US20050021337A1 (en) HMM modification method
Zhang et al. Latent variable speaker adaptation of gaussian mixture weights and means
Li et al. A constrained joint optimization method for large margin HMM estimation
Mohammadi et al. Eigenvoice speaker adaptation with minimal data for statistical speech synthesis systems using a MAP approach and nearest-neighbors
Zablotskiy et al. GMM parameter estimation by means of EM and genetic algorithms
Shinoda Speaker adaptation techniques for speech recognition using probabilistic models
Shakhnovsky et al. Non-negative matrix factorization for audio source separation

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees