JP2852298B2 - 標準パターン適応化方式 - Google Patents
標準パターン適応化方式Info
- Publication number
- JP2852298B2 JP2852298B2 JP2203437A JP20343790A JP2852298B2 JP 2852298 B2 JP2852298 B2 JP 2852298B2 JP 2203437 A JP2203437 A JP 2203437A JP 20343790 A JP20343790 A JP 20343790A JP 2852298 B2 JP2852298 B2 JP 2852298B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- category
- feature parameter
- similarity
- standard
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000006978 adaptation Effects 0.000 title claims description 79
- 238000000034 method Methods 0.000 title claims description 66
- 238000012937 correction Methods 0.000 claims description 27
- 238000003909 pattern recognition Methods 0.000 claims description 7
- 238000012935 Averaging Methods 0.000 claims description 6
- 238000012986 modification Methods 0.000 claims description 2
- 230000004048 modification Effects 0.000 claims description 2
- 239000013598 vector Substances 0.000 description 43
- 238000013139 quantization Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 238000005315 distribution function Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012567 pattern recognition method Methods 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
Landscapes
- Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Description
【発明の詳細な説明】 [産業上の利用分野] 本発明は音声認識などで用いられる標準パターンのパ
ターンマッチングに基づくパターン認識装置において、
少量の学習用データから標準パターンを学習する標準パ
ターン学習方式に関する。
ターンマッチングに基づくパターン認識装置において、
少量の学習用データから標準パターンを学習する標準パ
ターン学習方式に関する。
[従来の技術] 現在、音声認識方式として、隠れマルコフモデル(Hi
dden Markov Model,以下HMMとする)が広く使われてい
る。HMMの詳細については、例えば、「確率モデルによ
る音声認識」中川聖一著、1988年、電子情報通信学会
(以下文献1とする)に詳しく解説されている。HMMで
は、いくつかの状態を用意し、その状態と、各々の状態
の遷移確率、および各々の状態でのシンボルの出現確率
を標準パターンとして蓄える。入力パターンと標準パタ
ーンとの整合性を表す尤度値は、標準パターンであるHM
Mが入力パターンのシンボル列を生成する確率で与えら
れる。
dden Markov Model,以下HMMとする)が広く使われてい
る。HMMの詳細については、例えば、「確率モデルによ
る音声認識」中川聖一著、1988年、電子情報通信学会
(以下文献1とする)に詳しく解説されている。HMMで
は、いくつかの状態を用意し、その状態と、各々の状態
の遷移確率、および各々の状態でのシンボルの出現確率
を標準パターンとして蓄える。入力パターンと標準パタ
ーンとの整合性を表す尤度値は、標準パターンであるHM
Mが入力パターンのシンボル列を生成する確率で与えら
れる。
このHMMを用いる方式においては、各状態間の遷移確
率および各状態でのシンボルの出現確率を、学習データ
から推測する学習アルゴリズム(バウム・ウエルチのア
ルゴリズム)が存在する。HMMを用いる音声認識におい
ては、話者が予め発声した学習データを用いて、この学
習アルゴリズムにより標準パターンを作成する。
率および各状態でのシンボルの出現確率を、学習データ
から推測する学習アルゴリズム(バウム・ウエルチのア
ルゴリズム)が存在する。HMMを用いる音声認識におい
ては、話者が予め発声した学習データを用いて、この学
習アルゴリズムにより標準パターンを作成する。
このHMMを用いる音声認識では、高い認識率を得るた
めには多くの学習用データで学習することが必要であ
り、話者の負担が大きくなる。この話者の負担をを軽減
するために、少ない学習用データを用いて、予め登録さ
れている標準話者の標準パターンを未知話者に適応させ
る話者適応化方式がこれまでにいくつか考案されてき
た。話者適応化方式の詳細については、「音声認識にお
ける話者適応化技術」、古井貞煕著、テレビジョン学会
誌、Vol.43,No.9,1989,pp929−934(以下文献2とす
る)に解説されている。
めには多くの学習用データで学習することが必要であ
り、話者の負担が大きくなる。この話者の負担をを軽減
するために、少ない学習用データを用いて、予め登録さ
れている標準話者の標準パターンを未知話者に適応させ
る話者適応化方式がこれまでにいくつか考案されてき
た。話者適応化方式の詳細については、「音声認識にお
ける話者適応化技術」、古井貞煕著、テレビジョン学会
誌、Vol.43,No.9,1989,pp929−934(以下文献2とす
る)に解説されている。
音声認識における話者適応化方式には、例えば「マル
チテンプレートと話者適応化による音声認識」、古井貞
煕著、日本音響学会平成元年度春季研究発表会講演論文
集、第2巻、6−10号にあげられているようなベクトル
量子化を用いたものがある。この話者適応化方式は予め
登録されている符号帳と新しい話者の符号帳の要素間の
対応関係(マッピング)を学習用データを用いて求め、
話者に適応した符号帳に置き換えている。
チテンプレートと話者適応化による音声認識」、古井貞
煕著、日本音響学会平成元年度春季研究発表会講演論文
集、第2巻、6−10号にあげられているようなベクトル
量子化を用いたものがある。この話者適応化方式は予め
登録されている符号帳と新しい話者の符号帳の要素間の
対応関係(マッピング)を学習用データを用いて求め、
話者に適応した符号帳に置き換えている。
また、ベクトル量子化を用いない話者適応化方式のう
ち、対応する学習用データが存在しない標準パターンを
も適応化する重回帰解析を用いる話者適応化方式が、ア
イ・イー・イー・イー トランザクションズ オン ア
コースティクス、スピーチ、アンド シグナル プロセ
シング(IEEE Transactions on Acoustics,Speech,and
Signal Processing)、S.Furui、アメリカ合衆国、第28
巻、第2号、1980年、129ページ、(以下文献3とす
る)の中に「A Training Procedure for Isolated Word
Recognition Systems」と題して示されている。この話
者適応化方式では、予め多数の話者の標準パターンの発
声データを用いて標準パターン間の対応関係を求めてお
き、この対応関係を用いて学習データが存在しない標準
パターンを適応化している。
ち、対応する学習用データが存在しない標準パターンを
も適応化する重回帰解析を用いる話者適応化方式が、ア
イ・イー・イー・イー トランザクションズ オン ア
コースティクス、スピーチ、アンド シグナル プロセ
シング(IEEE Transactions on Acoustics,Speech,and
Signal Processing)、S.Furui、アメリカ合衆国、第28
巻、第2号、1980年、129ページ、(以下文献3とす
る)の中に「A Training Procedure for Isolated Word
Recognition Systems」と題して示されている。この話
者適応化方式では、予め多数の話者の標準パターンの発
声データを用いて標準パターン間の対応関係を求めてお
き、この対応関係を用いて学習データが存在しない標準
パターンを適応化している。
[発明が解決しようとする課題] ベクトル量子化を用いた話者適応化では、ベクトル量
子化に付随する量子化誤差が存在するため高い認識性能
が得にくいという欠点がある。
子化に付随する量子化誤差が存在するため高い認識性能
が得にくいという欠点がある。
また、ベクトル量子化を用いない音声認識における話
者適応化方式としては文献3にあげた方法があるが、こ
の方法には、標準パターン間の対応関係を求める際に多
くの話者の大量の発声データが必要になるという欠点が
ある。
者適応化方式としては文献3にあげた方法があるが、こ
の方法には、標準パターン間の対応関係を求める際に多
くの話者の大量の発声データが必要になるという欠点が
ある。
本発明の目的は、多くの話者による多量の発声データ
を必要としない、高精度な話者適応化方式を提供するこ
とにある。
を必要としない、高精度な話者適応化方式を提供するこ
とにある。
[課題を解決するための手段] 本発明に係る第1の標準パターン適応化方式は、教師
あり話者適応化において、標準パターンとのパターンマ
ッチングに基づくパターン認識を行なう際に、各カテゴ
リの標準パターンを特徴づける特徴パラメータを、前記
特徴パルメータに対応する複数の要素を有する学習用デ
ータを用いて修正する標準パターン適応化方式であっ
て、 各カテゴリの標準パターンの作成に用いた標準データ
の要素と前記学習用データの要素を1対1に対応付けデ
ータ要素組を作成するデータ対応付け手段と、 前記学習用データ中に対応する前記要素が存在するデ
ータ有りカテゴリにおける前記特徴パラメータと、同一
のカテゴリの標準データの要素との類似度を計算し出力
する類似度出力手段と、 前記データ有りカテゴリ内のそれぞれのデータ要素組
の標準データ要素と学習用データ要素との差分を、前記
類似度を重みとして加重平均したものを、データ有りカ
テゴリ特徴パラメータ差分として出力するデータ有りカ
テゴリ特徴パラメータ差分出力手段と、 前記データ有りカテゴリに対する前記特徴パラメータ
に前記データ有り特徴パラメータ差分を加え、その結果
をデータ有りカテゴリ修正特徴パラメータとして出力す
るデータ有りカテゴリ修正特徴パラメータ出力手段と から構成されることを特徴とする。
あり話者適応化において、標準パターンとのパターンマ
ッチングに基づくパターン認識を行なう際に、各カテゴ
リの標準パターンを特徴づける特徴パラメータを、前記
特徴パルメータに対応する複数の要素を有する学習用デ
ータを用いて修正する標準パターン適応化方式であっ
て、 各カテゴリの標準パターンの作成に用いた標準データ
の要素と前記学習用データの要素を1対1に対応付けデ
ータ要素組を作成するデータ対応付け手段と、 前記学習用データ中に対応する前記要素が存在するデ
ータ有りカテゴリにおける前記特徴パラメータと、同一
のカテゴリの標準データの要素との類似度を計算し出力
する類似度出力手段と、 前記データ有りカテゴリ内のそれぞれのデータ要素組
の標準データ要素と学習用データ要素との差分を、前記
類似度を重みとして加重平均したものを、データ有りカ
テゴリ特徴パラメータ差分として出力するデータ有りカ
テゴリ特徴パラメータ差分出力手段と、 前記データ有りカテゴリに対する前記特徴パラメータ
に前記データ有り特徴パラメータ差分を加え、その結果
をデータ有りカテゴリ修正特徴パラメータとして出力す
るデータ有りカテゴリ修正特徴パラメータ出力手段と から構成されることを特徴とする。
本発明に係る第2の標準パターン適応化方式(請求項
1に相当)は、前述した第1の標準パターン適応化方式
であって、 前記学習用データ中に対応する要素が存在しないデー
タ無しカテゴリの前記特徴パラメータと、前記データ有
りカテゴリの前記特徴パラメータとの類似度を計算し出
力する特徴パラメータ間類似度出力手段と、 前記特徴パラメータ間類似度を重みとして、前記デー
タ有りカテゴリに対する前記修正特徴パラメータと修正
前の前記特徴パラメータとの差分を、前記データ無しカ
テゴリに関して加重平均した結果を、データ無しカテゴ
リ特徴パラメータ差分として出力するデータ無しカテゴ
リ特徴パラメータ差分出力手段と、 前記データ無しカテゴリの前記特徴パラメータに、同
一のカテゴリの前記データ無しカテゴリ特徴パラメータ
差分を加え、その結果をデータ無しカテゴリ修正特徴パ
ラメータとして出力するデータ無しカテゴリ修正特徴パ
ラメータ出力手段と を含んで構成されることを特徴とする。
1に相当)は、前述した第1の標準パターン適応化方式
であって、 前記学習用データ中に対応する要素が存在しないデー
タ無しカテゴリの前記特徴パラメータと、前記データ有
りカテゴリの前記特徴パラメータとの類似度を計算し出
力する特徴パラメータ間類似度出力手段と、 前記特徴パラメータ間類似度を重みとして、前記デー
タ有りカテゴリに対する前記修正特徴パラメータと修正
前の前記特徴パラメータとの差分を、前記データ無しカ
テゴリに関して加重平均した結果を、データ無しカテゴ
リ特徴パラメータ差分として出力するデータ無しカテゴ
リ特徴パラメータ差分出力手段と、 前記データ無しカテゴリの前記特徴パラメータに、同
一のカテゴリの前記データ無しカテゴリ特徴パラメータ
差分を加え、その結果をデータ無しカテゴリ修正特徴パ
ラメータとして出力するデータ無しカテゴリ修正特徴パ
ラメータ出力手段と を含んで構成されることを特徴とする。
本発明に係る第3の標準パターン適応化方式(請求項
2に相当)は、前述した第1の標準パターン適応化方式
であって、 前記学習用データ中に対応する要素が存在しないデー
タ無しカテゴリの前記特徴パラメータと、前記データ有
りカテゴリの前記特徴パラメータとの類似度を表すパラ
メータを計算し主力する特徴パラメータ間類似度出力手
段と、 前記特徴量パラメータ間類似度を重みとして、前記テ
ータ有りカテゴリの前記特徴パラメータを前記データ無
しカテゴリに関して加重平均した結果を、データ無しカ
テゴリ修正特徴パラメータとして出力するデータ無しカ
テゴリ修正特徴パラメータ出力手段と、 を含んで構成されることを特徴とする。
2に相当)は、前述した第1の標準パターン適応化方式
であって、 前記学習用データ中に対応する要素が存在しないデー
タ無しカテゴリの前記特徴パラメータと、前記データ有
りカテゴリの前記特徴パラメータとの類似度を表すパラ
メータを計算し主力する特徴パラメータ間類似度出力手
段と、 前記特徴量パラメータ間類似度を重みとして、前記テ
ータ有りカテゴリの前記特徴パラメータを前記データ無
しカテゴリに関して加重平均した結果を、データ無しカ
テゴリ修正特徴パラメータとして出力するデータ無しカ
テゴリ修正特徴パラメータ出力手段と、 を含んで構成されることを特徴とする。
本発明に係る第4の標準パターン適応化方式(請求項
3に相当)は、 標準パターンとのパターンマッチングに基づくパター
ン認識を行なう際に、各カテゴリの標準パターンを特徴
づける特徴パラメータを、前記特徴パラメータに対応す
る複数の要素を有する少数の学習用データを用いて修正
する標準パターン適応化方式であって、 前記学習用データ中に対応する要素が存在するデータ
有りカテゴリにおける前記特徴パラメータと、同一のカ
テゴリの学習用データの要素との類似度を計算し出力す
る類似度出力手段と、 前記データ有りカテゴリ内の学習データ要素を、前記
類似度を重みとして加重平均したものを、データ有りカ
テゴリ修正特徴パラメータとして出力するデータ有りカ
テゴリ修正特徴パラメータ出力手段と、 前記データ有りカテゴリの前記修正特徴パラメータと
同一のカテゴリの特徴パラメータの差分を出力する特徴
パラメータ差分出力手段と、 前記学習用データ中に対応する要素が存在しないデー
タ無しカテゴリの前記特徴パラメータと前記データ有り
カテゴリの前記特徴パラメータとの類似度を表すパラメ
ータを計算し出力する特徴パラメータ間類似度出力手段
と、 前記特徴パラメータ間類似度を重みとして、前記デー
タ有りカテゴリの前記修正特徴パラメータと同一のカテ
ゴリの修正前の前記特徴パラメータとの差分を、前記デ
ータ無しカテゴリに関して加重平均した結果を、データ
無しカテゴリ特徴パラメータ差分として出力するデータ
無しカテゴリ特徴パラメータ差分出力手段と、 前記データ無しカテゴリの前記特徴パラメータに、同
一のカテゴリの前記データ無しカテゴリ特徴パラメータ
差分を加え、その結果をデータ無し修正特徴パラメータ
として出力するデータ無しカテゴリ修正特徴パラメータ
出力手段と、 から構成されることを特徴とする。
3に相当)は、 標準パターンとのパターンマッチングに基づくパター
ン認識を行なう際に、各カテゴリの標準パターンを特徴
づける特徴パラメータを、前記特徴パラメータに対応す
る複数の要素を有する少数の学習用データを用いて修正
する標準パターン適応化方式であって、 前記学習用データ中に対応する要素が存在するデータ
有りカテゴリにおける前記特徴パラメータと、同一のカ
テゴリの学習用データの要素との類似度を計算し出力す
る類似度出力手段と、 前記データ有りカテゴリ内の学習データ要素を、前記
類似度を重みとして加重平均したものを、データ有りカ
テゴリ修正特徴パラメータとして出力するデータ有りカ
テゴリ修正特徴パラメータ出力手段と、 前記データ有りカテゴリの前記修正特徴パラメータと
同一のカテゴリの特徴パラメータの差分を出力する特徴
パラメータ差分出力手段と、 前記学習用データ中に対応する要素が存在しないデー
タ無しカテゴリの前記特徴パラメータと前記データ有り
カテゴリの前記特徴パラメータとの類似度を表すパラメ
ータを計算し出力する特徴パラメータ間類似度出力手段
と、 前記特徴パラメータ間類似度を重みとして、前記デー
タ有りカテゴリの前記修正特徴パラメータと同一のカテ
ゴリの修正前の前記特徴パラメータとの差分を、前記デ
ータ無しカテゴリに関して加重平均した結果を、データ
無しカテゴリ特徴パラメータ差分として出力するデータ
無しカテゴリ特徴パラメータ差分出力手段と、 前記データ無しカテゴリの前記特徴パラメータに、同
一のカテゴリの前記データ無しカテゴリ特徴パラメータ
差分を加え、その結果をデータ無し修正特徴パラメータ
として出力するデータ無しカテゴリ修正特徴パラメータ
出力手段と、 から構成されることを特徴とする。
本発明に係る第5の標準パターン適応化方式(請求項
4に相当)は、前述した第4の標準パターン適応化方式
であって、 前記特徴パラメータ間類似度を重みとして、前記デー
タ有りカテゴリの前記特徴パラメータを前記データ無し
カテゴリに関して加重平均した結果を、データ無しカテ
ゴリ修正特徴パラメータとして出力するデータ無しカテ
ゴリ修正特徴パラメータ出力手段、 を含んで構成されることを特徴とする。
4に相当)は、前述した第4の標準パターン適応化方式
であって、 前記特徴パラメータ間類似度を重みとして、前記デー
タ有りカテゴリの前記特徴パラメータを前記データ無し
カテゴリに関して加重平均した結果を、データ無しカテ
ゴリ修正特徴パラメータとして出力するデータ無しカテ
ゴリ修正特徴パラメータ出力手段、 を含んで構成されることを特徴とする。
[作 用] 以下に本発明に係る第1の教師あり話者適応化におけ
る標準パターン適応化方式の作用について説明する。こ
こでは文献1の69ページの(3.3.2)節にあげてあるよ
うなHMMを具体例としてあげ、これに従って説明する。
以下の説明での用語の記号、意味は文献1と同一であ
る。HMMとしては状態のベクトル出力確率密度分布関数
を単一ガウス分布関数としたものを考える。ここでは、
HMMの各状態にカテゴリを対応づける。また、各々の状
態にi(i=1…N8:N8は状態の総数)の標準パターン
を特徴づける特徴パラメータとしては、ガウス分布の平
均ベクトルμi、ガウス分布の分散▲σ2 i▼、各状態
i、j間の遷移確率aijがある。ここでは、そのうち、
ガウス分布の平均ベクトルμiを適応化することとし、
状態iの適応前の平均ベクトルをμiとし、適応後の平
均ベクトルを で表す。
る標準パターン適応化方式の作用について説明する。こ
こでは文献1の69ページの(3.3.2)節にあげてあるよ
うなHMMを具体例としてあげ、これに従って説明する。
以下の説明での用語の記号、意味は文献1と同一であ
る。HMMとしては状態のベクトル出力確率密度分布関数
を単一ガウス分布関数としたものを考える。ここでは、
HMMの各状態にカテゴリを対応づける。また、各々の状
態にi(i=1…N8:N8は状態の総数)の標準パターン
を特徴づける特徴パラメータとしては、ガウス分布の平
均ベクトルμi、ガウス分布の分散▲σ2 i▼、各状態
i、j間の遷移確率aijがある。ここでは、そのうち、
ガウス分布の平均ベクトルμiを適応化することとし、
状態iの適応前の平均ベクトルをμiとし、適応後の平
均ベクトルを で表す。
まず、適応前のHMMを作成するのに用いた標準話者の
発声データを用意する。そして、同じ内容を発声した未
知話者の発声データを用意する。前者を標準データ、後
者を学習用データと名付ける。この場合、それぞれのデ
ータは時系列データであり、それを構成している要素は
各フレームのデータである。各フレームのデータは平均
ベクトルと同じ次元数をもったベクトルである。
発声データを用意する。そして、同じ内容を発声した未
知話者の発声データを用意する。前者を標準データ、後
者を学習用データと名付ける。この場合、それぞれのデ
ータは時系列データであり、それを構成している要素は
各フレームのデータである。各フレームのデータは平均
ベクトルと同じ次元数をもったベクトルである。
発声内容をHMMの状態列で記述することにより、HMMの
全状態の中で、標準データに対応する要素が存在する状
態と存在しない状態とにカテゴリを区別することができ
る。標準データに対応する要素が存在する状態の集合を
Aとし、そこに含まれる状態の平均ベクトルは上付添字
Aをつけて表す。また、標準データ内に対応する要素が
存在しない状態の集合をBとし、そこに含まれる状態の
平均ベクトルは上付添字Bをつけて表す。学習用データ
に対応するデータが存在する状態の適応後の平均ベクト
ル を、以下のように求める。
全状態の中で、標準データに対応する要素が存在する状
態と存在しない状態とにカテゴリを区別することができ
る。標準データに対応する要素が存在する状態の集合を
Aとし、そこに含まれる状態の平均ベクトルは上付添字
Aをつけて表す。また、標準データ内に対応する要素が
存在しない状態の集合をBとし、そこに含まれる状態の
平均ベクトルは上付添字Bをつけて表す。学習用データ
に対応するデータが存在する状態の適応後の平均ベクト
ル を、以下のように求める。
同じ内容の発声の標準データと学習用データをDPマッ
チング等の手法を用いてマッチングし、標準データの要
素と学習用データの要素を1対1に対応させるデータ対
応付けを行なう。DPマッチングのパスのとり方によって
は、1対多、あるいは、多対1対応が生ずることがある
が、その際は、複数のベクトルを平均化するなどの操作
を行ない、1対1対応を作る。
チング等の手法を用いてマッチングし、標準データの要
素と学習用データの要素を1対1に対応させるデータ対
応付けを行なう。DPマッチングのパスのとり方によって
は、1対多、あるいは、多対1対応が生ずることがある
が、その際は、複数のベクトルを平均化するなどの操作
を行ない、1対1対応を作る。
次に、文献1に記載のビタビアルゴリズムあるいはそ
の他の自動セグメンテーションの方法を用いて、標準デ
ータのセグメンテーションを行ない、標準データの要素
がそれぞれHMMのどの状態に属しているかを決定するカ
テゴリ分類を行なう。
の他の自動セグメンテーションの方法を用いて、標準デ
ータのセグメンテーションを行ない、標準データの要素
がそれぞれHMMのどの状態に属しているかを決定するカ
テゴリ分類を行なう。
DPマッチングおよび、セグメンテーションの作業は、
学習用データが複数の離散発声からなっている場合、そ
の発声数について行なう。
学習用データが複数の離散発声からなっている場合、そ
の発声数について行なう。
次に、このマッチングしたデータの要素の組にそれぞ
れ標準データの要素の対応している状態のラベルをつけ
る。このようにして得られた状態iのラベルのk番目の
要素の組を構成する、標準データおよび学習用データの
要素を次のように表す。
れ標準データの要素の対応している状態のラベルをつけ
る。このようにして得られた状態iのラベルのk番目の
要素の組を構成する、標準データおよび学習用データの
要素を次のように表す。
Xik,Yik k=1,…,Ni (1) ここでXは標準データの要素、Yは学習用データの要
素を表す。Niは状態iに対応する学習用データの要素の
数である。
素を表す。Niは状態iに対応する学習用データの要素の
数である。
次に、各状態の平均ベクトル▲μA i▼と標準データの
要素Xikとの類似度▲wA ik▼を求める。類似度として
は、たとえば、特徴パラメータ空間上での▲μA i▼,Xik
の距離に関する関数を用いる。例えば、次式のようにベ
クトル空間上での両者の距離は巾乗を用いる。
要素Xikとの類似度▲wA ik▼を求める。類似度として
は、たとえば、特徴パラメータ空間上での▲μA i▼,Xik
の距離に関する関数を用いる。例えば、次式のようにベ
クトル空間上での両者の距離は巾乗を用いる。
ここでmは適当な数である。距離としては、簡単には
ユークリッド距離があるが、これに限らず、内積など、
様々な量を距離として用いることができる。mを正にと
ると、両者が距離が増加するにつれて、類似度は減少す
る。m=0とすると、状態の平均ベクトルとその状態に
対応する標準データの要素との類似度はすべての標準デ
ータについて等しくなる。この他にも類似度として距離
dに関する関数をとった例として、式(3)の代わり
に、 なども考えられる。ここで、c1,c2は定数である。ま
た、関数としては、平均ベクトル▲μA i▼との距離の近
い、K個の(Kは負でない整数)の要素Xikのみについ
て、類似度を出力し、その他の要素の類似度は0にする
ような関数も考えられる。この他、類似度として▲μA i
▼,Xik間の特徴パラメータ間の距離を用いた様々な形の
関数が考えられるが、それらも本特許の権利の範囲内で
ある。
ユークリッド距離があるが、これに限らず、内積など、
様々な量を距離として用いることができる。mを正にと
ると、両者が距離が増加するにつれて、類似度は減少す
る。m=0とすると、状態の平均ベクトルとその状態に
対応する標準データの要素との類似度はすべての標準デ
ータについて等しくなる。この他にも類似度として距離
dに関する関数をとった例として、式(3)の代わり
に、 なども考えられる。ここで、c1,c2は定数である。ま
た、関数としては、平均ベクトル▲μA i▼との距離の近
い、K個の(Kは負でない整数)の要素Xikのみについ
て、類似度を出力し、その他の要素の類似度は0にする
ような関数も考えられる。この他、類似度として▲μA i
▼,Xik間の特徴パラメータ間の距離を用いた様々な形の
関数が考えられるが、それらも本特許の権利の範囲内で
ある。
以上の準備の後、各状態での適応後と適応前の平均ベ
クトルの差分ベクトル▲ΔA i▼を次のように求める。
クトルの差分ベクトル▲ΔA i▼を次のように求める。
ここで、類似度として、式(3)で計算したものを用
いるとすると、▲ΔA i▼は、m→0でデータの差分を平
均したものに近づき、m→∞で状態の平均ベクトルにも
っとも近い標準データとその対応する学習用データの差
分に近づく。この▲ΔA i▼はデータ有りカテゴリ特徴パ
ラメータ差分である。
いるとすると、▲ΔA i▼は、m→0でデータの差分を平
均したものに近づき、m→∞で状態の平均ベクトルにも
っとも近い標準データとその対応する学習用データの差
分に近づく。この▲ΔA i▼はデータ有りカテゴリ特徴パ
ラメータ差分である。
この▲ΔA i▼を用い、データ有りカテゴリ修正特徴パ
ラメータである適応後の平均ベクトルは次式で求められ
る。
ラメータである適応後の平均ベクトルは次式で求められ
る。
以上の作業をすべてのi∈Aについて行なう。
以上が本発明に係る第1の標準パターン適応化方式の
説明である。この方式は、同じ状態の標準データと学習
用データの要素間の差分は揺らぎの小さい量であるが、
同一の状態に対応する要素の揺らぎの大きい場合に有効
である。
説明である。この方式は、同じ状態の標準データと学習
用データの要素間の差分は揺らぎの小さい量であるが、
同一の状態に対応する要素の揺らぎの大きい場合に有効
である。
本発明に係る第2の標準パターン適応化方式は、第1
の発明において適応後の平均ベクトル が求められた後に、学習用データに対応するデータが存
在しない状態の適応後の平均ベクトル を、次のように求める。
の発明において適応後の平均ベクトル が求められた後に、学習用データに対応するデータが存
在しない状態の適応後の平均ベクトル を、次のように求める。
ある状態i∈Bについて以下の作業を行なう。まず、
平均ベクトル▲μB i▼と、集合Aに属する状態の学習前
の平均ベクトル▲μA j▼との特徴パラメータ間類似度▲
wB ij▼をすべてのjについて求める。ここで▲wB ij▼
は、例えばベクトル空間上での平均ベクトル▲μB i▼、
▲μA j▼間の距離▲dB ij▼を求め、その逆数をとる。
具体的に式に書くと、 ここでlは負でない定数である。また、ここでは、1列
のみ挙げたが、類似度▲wB ij▼は▲wA ik▼の場合と同
様に、距離dに関する関数を適当に選ぶことができる。
平均ベクトル▲μB i▼と、集合Aに属する状態の学習前
の平均ベクトル▲μA j▼との特徴パラメータ間類似度▲
wB ij▼をすべてのjについて求める。ここで▲wB ij▼
は、例えばベクトル空間上での平均ベクトル▲μB i▼、
▲μA j▼間の距離▲dB ij▼を求め、その逆数をとる。
具体的に式に書くと、 ここでlは負でない定数である。また、ここでは、1列
のみ挙げたが、類似度▲wB ij▼は▲wA ik▼の場合と同
様に、距離dに関する関数を適当に選ぶことができる。
この類似度を用い、標準データに対応する要素がない
状態での適応後と適応前の平均ベクトルの挙分ベクトル
▲ΔB i▼を求める。
状態での適応後と適応前の平均ベクトルの挙分ベクトル
▲ΔB i▼を求める。
この▲ΔB i▼はデータ無しカテゴリ特徴パラメータ差
分である。ここで類似度として、式(8)で計算したも
のを用いるとすると、▲ΔB i▼はl→0で▲μA j▼の適
応後と適応前の差分をすべてのj∈Aについて平均した
ものに近づき、l→∞で状態iの平均ベクトルにもっと
も近い状態▲μA i▼の平均ベクトルの適応後と適応前の
差分に近づく。
分である。ここで類似度として、式(8)で計算したも
のを用いるとすると、▲ΔB i▼はl→0で▲μA j▼の適
応後と適応前の差分をすべてのj∈Aについて平均した
ものに近づき、l→∞で状態iの平均ベクトルにもっと
も近い状態▲μA i▼の平均ベクトルの適応後と適応前の
差分に近づく。
この▲ΔB i▼を用い、適応後の平均ベクトル、すなわ
ち、データ無しカテゴリ修正特徴パラメータは次式で求
められる。
ち、データ無しカテゴリ修正特徴パラメータは次式で求
められる。
この手続きはデータ無しカテゴリ特徴パラメータ出力
手段に対応する。これらの計算をすべてのi∈Bについ
て行なうことにより、学習用データに対応するデータが
存在しない状態の平均ベクトルが話者適応化される。
手段に対応する。これらの計算をすべてのi∈Bについ
て行なうことにより、学習用データに対応するデータが
存在しない状態の平均ベクトルが話者適応化される。
以上が本発明に係る第2の標準パターン適応化方式の
説明である。この装置は、同じ状態の標準話者の特徴パ
ラメータと未知話者の特徴パラメータとの差分は揺らぎ
の小さい量であるが、特徴パラメータ自体が揺らぎの大
きい場合に有効である。また、この装置は、上で述べた
第1の標準パターン適応化方式の有効性をも合わせ持
つ。
説明である。この装置は、同じ状態の標準話者の特徴パ
ラメータと未知話者の特徴パラメータとの差分は揺らぎ
の小さい量であるが、特徴パラメータ自体が揺らぎの大
きい場合に有効である。また、この装置は、上で述べた
第1の標準パターン適応化方式の有効性をも合わせ持
つ。
本発明に係る第3の標準パターン適応化方式では、式
(9)、式(10)の代わりに次式、 を用いる。この式により、標準データに対応する要素の
存在しない状態の適応後の平均ベクトルが求められる。
上の第2の標準パターン適応化方式と異なり、同じ状態
の標準話者の特徴パラメータと未知話者の特徴パラメー
タとの差分は揺らぎの大きい量であり、特徴パラメータ
自体が揺らぎの小さい場合に有効である。
(9)、式(10)の代わりに次式、 を用いる。この式により、標準データに対応する要素の
存在しない状態の適応後の平均ベクトルが求められる。
上の第2の標準パターン適応化方式と異なり、同じ状態
の標準話者の特徴パラメータと未知話者の特徴パラメー
タとの差分は揺らぎの大きい量であり、特徴パラメータ
自体が揺らぎの小さい場合に有効である。
また、本発明に係る第4の標準パターン適応化方式で
は、(5)、(6)式のかわりに、 を用いる。この式で学習データに対応する要素が存在す
る状態の適応後の平均ベクトルを求めることができる。
そして、学習データに対応するデータが存在しない状態
i∈Bに対しては、式(9)、式(10)を用いる。この
装置は、同じ状態の標準データと学習用データの要素間
の差分は揺らぎの大きい量であるが、同一の状態に対応
する要素の揺らぎの小さい場合、かつ、同じ状態の標準
話者の特徴パラメータと未知話者の特徴パラメータとの
差分は揺らぎの小さい量であるが、特徴パラメータ自体
が揺らぎの大きい場合に有効である。
は、(5)、(6)式のかわりに、 を用いる。この式で学習データに対応する要素が存在す
る状態の適応後の平均ベクトルを求めることができる。
そして、学習データに対応するデータが存在しない状態
i∈Bに対しては、式(9)、式(10)を用いる。この
装置は、同じ状態の標準データと学習用データの要素間
の差分は揺らぎの大きい量であるが、同一の状態に対応
する要素の揺らぎの小さい場合、かつ、同じ状態の標準
話者の特徴パラメータと未知話者の特徴パラメータとの
差分は揺らぎの小さい量であるが、特徴パラメータ自体
が揺らぎの大きい場合に有効である。
また、本発明に係る第5の標準パターン適応化方式で
は、学習データに対応するデータが存在する状態に対し
ては、式(12)を用い、学習データに対応するデータが
存在しない状態に対しては、式(11)を用いる。この装
置は、同じ状態の標準データと学習用データの要素間の
差分は揺らぎの大きい量であるが、同一の状態に対応す
る要素が揺らぎの小さい場合、かつ、同じ状態の標準話
者の特徴パラメータと未知話者の特徴パラメータの差分
は揺らぎの大きい量であるが、特徴パラメータ自体が揺
らぎの小さい場合に有効である。
は、学習データに対応するデータが存在する状態に対し
ては、式(12)を用い、学習データに対応するデータが
存在しない状態に対しては、式(11)を用いる。この装
置は、同じ状態の標準データと学習用データの要素間の
差分は揺らぎの大きい量であるが、同一の状態に対応す
る要素が揺らぎの小さい場合、かつ、同じ状態の標準話
者の特徴パラメータと未知話者の特徴パラメータの差分
は揺らぎの大きい量であるが、特徴パラメータ自体が揺
らぎの小さい場合に有効である。
以上、認識方式としてHMMを具体的な例としてあげ本
発明の作用の説明を行った。上の説明から容易にわかる
ように、本発明においてはベクトル量子化を用いていな
いので、それにともなう誤差が生じない。また文献3に
あげられた話者適応化方式と違い、多数話者の大量の発
声データを必要とするということはない。
発明の作用の説明を行った。上の説明から容易にわかる
ように、本発明においてはベクトル量子化を用いていな
いので、それにともなう誤差が生じない。また文献3に
あげられた話者適応化方式と違い、多数話者の大量の発
声データを必要とするということはない。
また、本方式は上述した話者適応以外にも、雑音下の
発声に対する適応、マイクの違いに対する適応、同一話
者での発声時期の違いに対する適応、分析条件の違いに
対する適応、その他、様々な環境の変化に対する適応に
用いることが可能であり、それらの適応も本発明の権利
の範囲内である。
発声に対する適応、マイクの違いに対する適応、同一話
者での発声時期の違いに対する適応、分析条件の違いに
対する適応、その他、様々な環境の変化に対する適応に
用いることが可能であり、それらの適応も本発明の権利
の範囲内である。
なお、本発明は標準パターンとのパターンマッチング
に基づく様々なパターン認識方式に対しても全く同様に
適用することができる。
に基づく様々なパターン認識方式に対しても全く同様に
適用することができる。
[実施例] 以下、本発明について図面を参照して説明する。第1
図は本発明に係る第2の標準パターン学習化方式の一実
施例を示すフローチャートである。本実施例では認識方
式として文献1に述べているような単一ガウス分布HMM
を用いている。ここではμi,σi,aijで表されるある話
者のHMMを適応化させ、 を求めることとする。これは作用の中で説明した計算例
に対応しており、変数などの標記はそこで与えられたも
のと同一のものを用いることとする。以下、第1図に示
すフローチャートの処理の流れに沿って説明する。
図は本発明に係る第2の標準パターン学習化方式の一実
施例を示すフローチャートである。本実施例では認識方
式として文献1に述べているような単一ガウス分布HMM
を用いている。ここではμi,σi,aijで表されるある話
者のHMMを適応化させ、 を求めることとする。これは作用の中で説明した計算例
に対応しており、変数などの標記はそこで与えられたも
のと同一のものを用いることとする。以下、第1図に示
すフローチャートの処理の流れに沿って説明する。
ステップ101では入力として標準話者のHMM、標準話者
HMMの作成に用いた標準データ、および、未知話者の学
習用データを読み込む。
HMMの作成に用いた標準データ、および、未知話者の学
習用データを読み込む。
ステップ102で適応前の標準話者HMMを保存する。
ステップ103では学習データの個数についてのカウン
タの初期設定を行なう。
タの初期設定を行なう。
ステップ104は標準データと学習用データとのDPマッ
チングを行ない、標準データのフレームと学習用データ
のフレームとの1対1の対応をつけるデータ対応づけ手
段となっている。
チングを行ない、標準データのフレームと学習用データ
のフレームとの1対1の対応をつけるデータ対応づけ手
段となっている。
ステップ105の処理は標準データのセグメンテーショ
ンを行ない、データがどの状態に属するかを定めてい
る。
ンを行ない、データがどの状態に属するかを定めてい
る。
ステップ106でカウントを1増やし、単語数Nwまでス
テップ104からステップ106の計算を行なう。
テップ104からステップ106の計算を行なう。
ステップ108からステップ116までは、学習用データに
対応するデータが存在する状態の平均ベクトルの適応を
行なう部分である。ステップ108ではカウンタの初期設
定を行なう。ステップ109では、状態iには対応する学
習用データが存在するかどうかを判断している。ステッ
プ110では、カウンタの初期化を行ない、ステップ111は
状態iに対応する学習用データの要素について、距離d
ik、さらに、重みWikを計算する類似度出力手段となっ
ている。ステップ112でカウンタを1増やし、データ数N
iまでステップ111からステップ112の計算を行なう。ス
テップ114は、式(5)に従って、Δiの計算を行なう
部分で、データ有りカテゴリ特徴パラメータ差分出力手
段となっている。ステップ115は、式(6)に従って、
適応後の平均ベクトル を求めるデータ有りカテゴリ修正特徴パラメータ出力手
段となっている。ステップ116でカウンタを1増やし、
全状態数N8についてステップ109からステップ116の作業
を行なう。
対応するデータが存在する状態の平均ベクトルの適応を
行なう部分である。ステップ108ではカウンタの初期設
定を行なう。ステップ109では、状態iには対応する学
習用データが存在するかどうかを判断している。ステッ
プ110では、カウンタの初期化を行ない、ステップ111は
状態iに対応する学習用データの要素について、距離d
ik、さらに、重みWikを計算する類似度出力手段となっ
ている。ステップ112でカウンタを1増やし、データ数N
iまでステップ111からステップ112の計算を行なう。ス
テップ114は、式(5)に従って、Δiの計算を行なう
部分で、データ有りカテゴリ特徴パラメータ差分出力手
段となっている。ステップ115は、式(6)に従って、
適応後の平均ベクトル を求めるデータ有りカテゴリ修正特徴パラメータ出力手
段となっている。ステップ116でカウンタを1増やし、
全状態数N8についてステップ109からステップ116の作業
を行なう。
ステップ118からステップ123までは、学習用データに
対応するデータが存在しない状態の平均ベクトルの適応
を行なう部分である。ステップ118ではカウンタの初期
設定を行なう。ステップ119は、状態iには対応する学
習データが存在するかどうかを判断している。ステップ
120では、カウンタの初期化を行ない、ステップ121は、
状態jには対応する学習データが存在するかどうかを判
断し、存在している場合にはステップ122において距離d
ij、さらに、重みwijを計算する。ステップ122は特徴パ
ラメータ間類似度出力手段となっている。ステップ123
ではカウンタを1増やし、全状態数N8までステップ121
からステップ123の計算を繰り返す。
対応するデータが存在しない状態の平均ベクトルの適応
を行なう部分である。ステップ118ではカウンタの初期
設定を行なう。ステップ119は、状態iには対応する学
習データが存在するかどうかを判断している。ステップ
120では、カウンタの初期化を行ない、ステップ121は、
状態jには対応する学習データが存在するかどうかを判
断し、存在している場合にはステップ122において距離d
ij、さらに、重みwijを計算する。ステップ122は特徴パ
ラメータ間類似度出力手段となっている。ステップ123
ではカウンタを1増やし、全状態数N8までステップ121
からステップ123の計算を繰り返す。
ステップ125は、式(9)に従って、▲ΔB i▼の計算
を行なう。データ無しカテゴリ特徴パラメータ差分出力
手段となっている。ステップ126は、式(10)に従っ
て、▲μB i▼の計算を行なうデータ無しカテゴリ修正特
徴パラメータ出力手段となっている。ステップ127でカ
ウンタを1増やし、全状態数N8までステップ118からス
テップ127の処理を繰り返す。
を行なう。データ無しカテゴリ特徴パラメータ差分出力
手段となっている。ステップ126は、式(10)に従っ
て、▲μB i▼の計算を行なうデータ無しカテゴリ修正特
徴パラメータ出力手段となっている。ステップ127でカ
ウンタを1増やし、全状態数N8までステップ118からス
テップ127の処理を繰り返す。
ステップ129では適応化されたHMMを出力している。
本発明に係る第1の標準パターン適応化方式は、上で
説明した第2の標準パターン適応化方式において第1図
のステップ118から128を除いたものと同一である。
説明した第2の標準パターン適応化方式において第1図
のステップ118から128を除いたものと同一である。
本発明に係る第3の標準パターン適応化方式は、図1
のステップ125を除き、ステップ126の、式(10)を式
(11)に置き替えれば、後の部分は上で述べた第2の標
準パターン適応化方式のフローチャートに示した処理と
全く同様の処理を用いることで実現可能である。
のステップ125を除き、ステップ126の、式(10)を式
(11)に置き替えれば、後の部分は上で述べた第2の標
準パターン適応化方式のフローチャートに示した処理と
全く同様の処理を用いることで実現可能である。
本発明に係る第4の標準パターン適応化方式は、図1
のステップ104、ステップ114を除き、ステップ115にお
いて、式(6)の代わりに式(12)を用いれば、後の部
分は上で述べた第2の標準パターン適応化方式のフロー
チャートに示した処理と全く同様の処理を用いることで
実現可能である。
のステップ104、ステップ114を除き、ステップ115にお
いて、式(6)の代わりに式(12)を用いれば、後の部
分は上で述べた第2の標準パターン適応化方式のフロー
チャートに示した処理と全く同様の処理を用いることで
実現可能である。
本発明に係る第5の標準パターン適応化方式は、図1
のステップ104、ステップ114を除き、ステップ115にお
いて、式(6)の代わりに式(12)を用い、ステップ12
5を除き、ステップ126の、式(10)を式(11)に置き替
えれば、後の部分は上で述べた第2の標準パターン適応
化方式のフローチャートに示した処理と全く同様の処理
を用いることで実現可能である。
のステップ104、ステップ114を除き、ステップ115にお
いて、式(6)の代わりに式(12)を用い、ステップ12
5を除き、ステップ126の、式(10)を式(11)に置き替
えれば、後の部分は上で述べた第2の標準パターン適応
化方式のフローチャートに示した処理と全く同様の処理
を用いることで実現可能である。
[発明の効果] 以上述べたように本発明によれば、未知話者が発声し
た少ない学習用データにより学習データに含まれない標
準パターンも教師あり話者適応化が可能である。また、
ベクトル量子化を用いていないから量子化誤差の混入が
ないため、精度の高い標準パターンを作成することが可
能になる。これら2点より高い認識性能を有するパター
ン認識を実現できる。
た少ない学習用データにより学習データに含まれない標
準パターンも教師あり話者適応化が可能である。また、
ベクトル量子化を用いていないから量子化誤差の混入が
ないため、精度の高い標準パターンを作成することが可
能になる。これら2点より高い認識性能を有するパター
ン認識を実現できる。
第1図は本発明に係る標準パターン適応化方式のフロー
チャートを示す図である。
チャートを示す図である。
Claims (4)
- 【請求項1】教師あり話者適応化において、標準パター
ンとのパターンマッチングに基づくパターン認識を行う
際に、各カテゴリの標準ターンを特徴づける特徴パラメ
ータを、前記特徴パラメータに対応する複数の要素を有
する学習用データを用いて修正する標準パターン適応化
方式であって、各カテゴリの標準パターンの作成に用い
た標準データの要素と前記学習用データの要素を1対1
に対応付け、データ要素組を作成するデータ対応付け手
段と、前記学習用データ中に対応する前記要素が存在す
るデータ有りカテゴリにおける前記特徴パラメータと、
同一のカテゴリの標準データの要素との類似度を計算し
出力する類似度出力手段と、前記データ有りカテゴリ内
のそれぞれのデータ要素組の標準データ要素と学習用デ
ータ要素との差分を、前記類似度を重みとして加重平均
したものを、データ有りカテゴリ特徴パラメータ差分と
して出力するデータ有りカテゴリ特徴パラメータ差分出
力手段と、前記データ有りカテゴリに対する前記特徴パ
ラメータに前記データ有り特徴パラメータ差分を加え、
その結果をデータ有りカテゴリ修正特徴パラメータとし
て出力するデータ有りカテゴリ修正特徴パラメータ出力
手段とから構成される標準パターン適応化方式におい
て、 前記学習用データ中に対応する要素が存在しないデータ
無しカテゴリの前記特徴パラメータと、前記データ有り
カテゴリの前記特徴パラメータとの類似度を計算し出力
する特徴パラメータ間類似度出力手段と、 前記特徴パラメータ間類似度を重みとして、前記データ
有りカテゴリに対する前記修正特徴パラメータと修正前
の前記特徴パラメータとの差分を、前記データ無しカテ
ゴリに関して加重平均した結果を、データ無しカテゴリ
特徴パラメータ差分として出力するデータ無しカテゴリ
特徴パラメータ差分出力手段と、 前記データ無しカテゴリの前記特徴パラメータに、同一
のカテゴリの前記データ無しカテゴリ特徴パラメータ差
分を加え、その結果をデータ無しカテゴリ修正特徴パラ
メータとして出力するデータ無しカテゴリ修正特徴パラ
メータ出力手段とを含んで構成されることを特徴とする
標準パターン適応化方式。 - 【請求項2】教師あり話者適応化において、標準パター
ンとのパターンマッチングに基づくパターン認識を行う
際に、各カテゴリの標準パターンを特徴づける特徴パラ
メータを、前記特徴パラメータに対応する複数の要素を
有する学習用データを用いて修正する標準パターン適応
化方式であって、各カテゴリの標準パターンの作成に用
いた標準データの要素と前記学習用データの要素を1対
1に対応付け、データ要素組を作成するデータ対応付け
手段と、前記学習用データ中に対応する前記要素が存在
するデータ有りカテゴリにおける前記特徴パラメータ
と、同一のカテゴリの標準データの要素との類似度を計
算し出力する類似度出力手段と、前記データ有りカテゴ
リ内のそれぞれの要素組の標準データ要素と学習用デー
タ要素との差分を、前記類似度を重みとして加重平均し
たものを、データ有りカテゴリ特徴パラメータ差分とし
て出力するデータ有りカテゴリ特徴パラメータ差分出力
手段と、前記データ有りカテゴリに対する前記特徴パラ
メータに前記データ有り特徴パラメータ差分を加え、そ
の結果をデータ有りカテゴリ修正特徴パラメータとして
出力するデータ有りカテゴリ修正特徴パラメータ出力手
段とから構成される標準パターン適応化方式において、 前記学習用データ中に対応する要素が存在しないデータ
無しカテゴリの前記特徴パラメータと、前記データ有り
カテゴリの前記特徴パラメータとの類似度を表すパラメ
ータを計算し出力する特徴パラメータ間類似度出力手段
と、 前記特徴量パラメータ間類似度を重みとして、前記デー
タ有りカテゴリの前記特徴パラメータを前記データ無し
カテゴリに関して加重平均した結果を、データ無しカテ
ゴリ修正特徴パラメータとして出力するデータ無しカテ
ゴリ修正特徴パラメータ出力手段と、 を含んで構成されることを特徴とする標準パターン適応
化方式。 - 【請求項3】標準パターンとのパターンマッチングに基
づくパターン認識を行う際に、各カテゴリの標準パター
ンを特徴づける特徴パラメータを、前記特徴パラメータ
に対応する複数の要素を有する少数の学習用データを用
いて修正する標準パターン適応化方式において、 前記学習用データ中に対応する要素が存在するデータ有
りカテゴリにおける前記特徴パラメータと、同一のカテ
ゴリの学習用データの要素との類似度を計算し出力する
類似度出力手段と、 前記データ有りカテゴリ内の学習データ要素を、前記類
似度を重みとして加重平均したものを、データ有りカテ
ゴリ修正特徴パラメータとして出力するデータ有りカテ
ゴリ修正特徴パラメータ出力手段と、 前記データ有りカテゴリの前記修正特徴パラメータと同
一のカテゴリの特徴パラメータの差分を出力する特徴パ
ラメータ差分出力手段と、 前記学習用データ中に対応する要素が存在しないデータ
無しカテゴリの前記特徴パラメータと前記データ有りカ
テゴリの前記特徴パラメータとの類似度を表すパラメー
タを計算し出力する特徴パラメータ間類似度出力手段
と、 前記特徴パラメータ間類似度を重みとして、前記データ
有りカテゴリの前記修正特徴パラメータと同一のカテゴ
リの修正前の前記特徴パラメータとの差分を、前記デー
タ無しカテゴリに関して加重平均した結果を、データ無
しカテゴリ特徴パラメータ差分として出力するデータ無
しカテゴリ特徴パラメータ差分出力手段と、 前記データ無しカテゴリの前記特徴パラメータに、同一
のカテゴリの前記データ無しカテゴリ特徴パラメータ差
分を加え、その結果をデータ無し修正特徴パラメータと
して出力するデータ無しカテゴリ修正特徴パラメータ出
力手段と、 から構成されることを特徴とする標準パターンの適応化
方式。 - 【請求項4】請求項3に記載の標準パターン適応化方式
において、 前記特徴パラメータ間類似度を重みとして、前記データ
有りカテゴリの前記特徴パラメータを前記データ無しカ
テゴリに関して加重平均した結果を、データ無しカテゴ
リ修正特徴パラメータとして出力するデータ無しカテゴ
リ修正特徴パラメータ出力手段 を含んで構成されることを特徴とする標準パターン適応
化方式。
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2203437A JP2852298B2 (ja) | 1990-07-31 | 1990-07-31 | 標準パターン適応化方式 |
| EP91112872A EP0469577B1 (en) | 1990-07-31 | 1991-07-31 | Reference pattern adapting device trainable by a small number of training patterns |
| US07/738,641 US5274737A (en) | 1990-07-31 | 1991-07-31 | Reference pattern adapting device trainable by a small number of training patterns |
| DE69119993T DE69119993T2 (de) | 1990-07-31 | 1991-07-31 | Durch eine kleine Anzahl von Leitmustern lernfähige Referenzmusteranpassungsvorrichtung |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2203437A JP2852298B2 (ja) | 1990-07-31 | 1990-07-31 | 標準パターン適応化方式 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH0486899A JPH0486899A (ja) | 1992-03-19 |
| JP2852298B2 true JP2852298B2 (ja) | 1999-01-27 |
Family
ID=16474085
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2203437A Expired - Fee Related JP2852298B2 (ja) | 1990-07-31 | 1990-07-31 | 標準パターン適応化方式 |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US5274737A (ja) |
| EP (1) | EP0469577B1 (ja) |
| JP (1) | JP2852298B2 (ja) |
| DE (1) | DE69119993T2 (ja) |
Families Citing this family (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3114468B2 (ja) * | 1993-11-25 | 2000-12-04 | 松下電器産業株式会社 | 音声認識方法 |
| JP2692581B2 (ja) * | 1994-06-07 | 1997-12-17 | 日本電気株式会社 | 音響カテゴリ平均値計算装置及び適応化装置 |
| JP2768274B2 (ja) * | 1994-09-08 | 1998-06-25 | 日本電気株式会社 | 音声認識装置 |
| US5960395A (en) * | 1996-02-09 | 1999-09-28 | Canon Kabushiki Kaisha | Pattern matching method, apparatus and computer readable memory medium for speech recognition using dynamic programming |
| JP3156668B2 (ja) | 1998-06-19 | 2001-04-16 | 日本電気株式会社 | 音声認識装置 |
| ATE239966T1 (de) * | 2000-11-07 | 2003-05-15 | Ericsson Telefon Ab L M | Anwendung von referenzdaten für spracherkennung |
| US7814040B1 (en) | 2006-01-31 | 2010-10-12 | The Research Foundation Of State University Of New York | System and method for image annotation and multi-modal image retrieval using probabilistic semantic models |
| US7937349B2 (en) * | 2006-11-09 | 2011-05-03 | Pucher Max J | Method for training a system to specifically react on a specific input |
| WO2009038822A2 (en) * | 2007-05-25 | 2009-03-26 | The Research Foundation Of State University Of New York | Spectral clustering for multi-type relational data |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| FR2554623B1 (fr) * | 1983-11-08 | 1986-08-14 | Texas Instruments France | Procede d'analyse de la parole independant du locuteur |
| US4926488A (en) * | 1987-07-09 | 1990-05-15 | International Business Machines Corporation | Normalization of speech by adaptive labelling |
-
1990
- 1990-07-31 JP JP2203437A patent/JP2852298B2/ja not_active Expired - Fee Related
-
1991
- 1991-07-31 EP EP91112872A patent/EP0469577B1/en not_active Expired - Lifetime
- 1991-07-31 DE DE69119993T patent/DE69119993T2/de not_active Expired - Fee Related
- 1991-07-31 US US07/738,641 patent/US5274737A/en not_active Expired - Lifetime
Non-Patent Citations (1)
| Title |
|---|
| 平田,中川「連続出力分布型HMMにおける話者適応化の日本語音韻認識による評価」信学技報SP90−16,pp.57−64(1990) |
Also Published As
| Publication number | Publication date |
|---|---|
| DE69119993D1 (de) | 1996-07-11 |
| JPH0486899A (ja) | 1992-03-19 |
| EP0469577B1 (en) | 1996-06-05 |
| DE69119993T2 (de) | 1996-11-07 |
| EP0469577A2 (en) | 1992-02-05 |
| EP0469577A3 (en) | 1992-04-01 |
| US5274737A (en) | 1993-12-28 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3053711B2 (ja) | 音声認識装置およびそのトレーニング方法ならびに装置 | |
| US5812975A (en) | State transition model design method and voice recognition method and apparatus using same | |
| JP5418223B2 (ja) | 音声分類装置、音声分類方法、および音声分類用プログラム | |
| US6125345A (en) | Method and apparatus for discriminative utterance verification using multiple confidence measures | |
| Ganapathiraju et al. | Applications of support vector machines to speech recognition | |
| EP0966736B1 (en) | Method for discriminative training of speech recognition models | |
| US5754681A (en) | Signal pattern recognition apparatus comprising parameter training controller for training feature conversion parameters and discriminant functions | |
| US7672847B2 (en) | Discriminative training of hidden Markov models for continuous speech recognition | |
| JP4590692B2 (ja) | 音響モデル作成装置及びその方法 | |
| EP1465154B1 (en) | Method of speech recognition using variational inference with switching state space models | |
| CN1129485A (zh) | 信号分析装置 | |
| JP3001037B2 (ja) | 音声認識装置 | |
| JP2007047818A (ja) | 最適化された部分的確率混合共通化を用いる音声認識のための方法および装置 | |
| McDermott et al. | Prototype-based minimum classification error/generalized probabilistic descent training for various speech units | |
| JP6031316B2 (ja) | 音声認識装置、誤り修正モデル学習方法、及びプログラム | |
| US6868381B1 (en) | Method and apparatus providing hypothesis driven speech modelling for use in speech recognition | |
| WO2007105409A1 (ja) | 標準パタン適応装置、標準パタン適応方法および標準パタン適応プログラム | |
| JP2852298B2 (ja) | 標準パターン適応化方式 | |
| KR100574769B1 (ko) | 최우법을 포함한 고유음성에 기초한 화자 및 환경 적응 방법 | |
| JP5288378B2 (ja) | 音響モデルの話者適応装置及びそのためのコンピュータプログラム | |
| JPH064097A (ja) | 話者認識方法 | |
| JP3536471B2 (ja) | 識別装置および識別方法、並びに音声認識装置および音声認識方法 | |
| WO2018169772A2 (en) | Quality feedback on user-recorded keywords for automatic speech recognition systems | |
| JPH01204099A (ja) | 音声認識装置 | |
| JP3044741B2 (ja) | 標準パターン学習方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071120 Year of fee payment: 9 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081120 Year of fee payment: 10 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081120 Year of fee payment: 10 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091120 Year of fee payment: 11 |
|
| LAPS | Cancellation because of no payment of annual fees |