JP2002372987A - 音響モデル学習装置、音響モデル学習方法、およびそのプログラム - Google Patents

音響モデル学習装置、音響モデル学習方法、およびそのプログラム

Info

Publication number
JP2002372987A
JP2002372987A JP2001179125A JP2001179125A JP2002372987A JP 2002372987 A JP2002372987 A JP 2002372987A JP 2001179125 A JP2001179125 A JP 2001179125A JP 2001179125 A JP2001179125 A JP 2001179125A JP 2002372987 A JP2002372987 A JP 2002372987A
Authority
JP
Japan
Prior art keywords
learning
maximum likelihood
acoustic model
state sequence
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001179125A
Other languages
English (en)
Other versions
JP4779239B2 (ja
Inventor
Masaru Takano
優 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2001179125A priority Critical patent/JP4779239B2/ja
Publication of JP2002372987A publication Critical patent/JP2002372987A/ja
Application granted granted Critical
Publication of JP4779239B2 publication Critical patent/JP4779239B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 観測された音声サンプルのうち音響モデルの
作成に有用なものだけを抽出し、信頼性の高い音響モデ
ルを作成する音響モデル学習装置、音響モデル学習方
法、およびプログラムを提供する。 【解決手段】 再評価部104は、音声分析部101に
より抽出された学習用音声の特徴量と、フォワード・バ
ックワード計算部103により算出された対応確率と、
重み計算部106により算出された重み係数Rt と、に
基づいて統計量を算出し、音響モデルの再推定を行い、
出力音響モデルを出力する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、音響モデル学習装
置、音響モデル学習方法、およびそのプログラムに関
し、特に、音声サンプルの特性に応じて音声サンプルに
重み付けを行い、信頼性の高い音響モデルを作成する音
響モデル学習装置、音響モデル学習方法、およびそのプ
ログラムに関する。
【0002】
【従来の技術】音響モデル学習装置は、実際の音声を用
いて、音声認識に使用される音響モデルを学習すること
が多い。一般に、学習される音響モデルとして、Hid
denMarkov Model(隠れマルコフモデ
ル、以下、HMMとする)が用いられる。また、HMM
における状態を表す確率分布としては、連続混合分布が
用いられる場合が多い。また、多くの場合、HMMの学
習には、フォワード・バックワード法が用いられる。上
記のようなHMMによる音響モデルのパラメータの推定
について記載されている文献としては、Lawranc
e Labiner,Biing−Hwang Jua
ng 「Fundamentals ofSpeech
Recognition 1993 p.333〜
p.389」(以下、従来例1)があった。
【0003】従来例1では、HMMに用いられる連続混
合確率分布を構成する複数の確率分布それぞれに、連続
混合確率分布における混合比を示す混合重みを付加して
いた。
【0004】以下、フォワード・バックワード法を用い
たHMMにおけるパラメータの計算方法について説明す
る。
【0005】時刻(フレーム)tごとの特徴量をO
t (tは1以上T以下の整数)とすると、フォワード・
バックワード法におけるフォワード確率αは、以下に示
す(式1.1)および(式1.2)により示される。
【0006】
【数1】
【0007】なお、フォワード確率α(t,i)は、特
徴量Ot を観測し、状態Si にある確率を示す。同様
に、フォワード確率α(1,i)は、特徴量O1 を観測
し、状態Si にある確率、フォワード確率α(t+1,
j)は、特徴量Ot+1 を観測し、状態Sj にある確率を
示す。
【0008】また、状態遷移確率aijは、状態Si から
状態Sj へ遷移する確率を表す。観測確率b(i,
1 )は、状態Si に遷移する際に、フレームtにおけ
る特徴量Ot が観測される確率を示す。
【0009】また、フォワード・バックワード法におけ
るバックワード確率βは、以下に示す(式2.1)およ
び(式2.2)により示される。
【0010】
【数2】
【0011】なお、バックワード確率β(t,i)は、
フレームtにおいて状態Si にあり、以後フレーム(t
+1)において特徴量Ot+1 を観測する確率を示す。フ
レームTは、最終状態におけるフレームを表す。
【0012】また、フォワード・バックワード法におけ
る対応確率γは、フォワード確率αとバックワード確率
βとに基づいて、計算される。対応確率γは、以下に示
す(式3.1)により示される。
【0013】
【数3】
【0014】なお、対応確率γ(t,j,k)は、フレ
ームtに状態Sj に遷移した際、状態Sj におけるk番
目の混合分布要素において特徴量Ot を観測する確率で
ある。また、N(Ot ,μjk,Ujk)は、状態Sj のk
番目の混合分布要素で、モデル化される特徴量がOt
平均ベクトルがμjk、共分散行列がUjkの確率分布であ
る。また、cjkは、N(Ot ,μjk,Ujk)に対する混
合重み係数である。
【0015】また、HMMにおける状態Sj のk番目の
混合分布要素のパラメータである混合重みcjk、平均ベ
クトルμ(t,j,k)、および共分散行列U(j,
k)の各平均は、以下に示す(式4.1)、(式4.
2)、および(式4.3)により計算される。
【0016】
【数4】
【0017】なお、混合重みcjkは、HMMにおける状
態Sj のk番目の混合分布要素に対する混合重みであ
る。また、平均ベクトルμ(t,j,k)は、HMMに
おける状態Sj のk番目の混合分布要素の平均ベクトル
である。また、共分散行列U(j,k)は、HMMにお
ける状態Sj のk番目の混合分布要素の共分散行列であ
る。また、Vk は、文字列Vにおける所定の文字を示
す。また、(Ot −μjk)’は、ベクトル(Ot
μjk)の対置ベクトルを表す。
【0018】また、特開平5−232989号公報が開
示するところの音響モデルの話者適応化法(以下、従来
例2)では、HMMに用いられる連続混合確率分布を構
成する複数の確率分布それぞれの混合比を決める重み係
数だけを再推定していた。
【0019】また、特開平10−11086号公報が開
示するところの隠れマルコフモデルの計算方式(以下、
従来例3)には、フォワードバックワード法を用いたH
MMの計算方式が記載されていた。
【0020】
【発明が解決しようとする課題】一般に、信頼性の高い
確率モデルの学習には、大量の音声データが必要とな
る。特に、不特定話者用の音響モデルには、話者の個人
差による音声の変動を吸収する必要がある。従って、不
特定話者用の音響モデルには、話者の発声による音声デ
ータが多数必要となる。しかしながら、大量の音声サン
プルを収集する際には、話者の誤発声あるいは低品質の
音声が混入する可能性がある。
【0021】さらに、確率モデル(音響モデル)の推定
を行う場合に、以下に示すような問題が生じてしまう。
通常、音声データを収集する際、話者の自然な発声によ
る音声データを得る必要がある。従って、音声データと
して収集される話者の発声内容は、実際に存在する単語
が用いられる。また、実際に存在する単語を構成する音
素(文字)の分布には必然的に偏りが生じる。例えば、
日本語の場合は、母音、特に「あ」の出現頻度が非常に
高い。確率モデルを推定する場合、確率分布を推定する
サンプル数によって確率分布の信頼性に格差が生じてし
まう。従って、単語を構成する音素を音響モデルを構築
する音声データとして用いる場合、音素の出現頻度の偏
りを修正する必要がある。
【0022】本発明は、上記問題点に鑑みてなされたも
のであり、従来例1、従来例2、および従来例2と従来
例3とを組み合わせたものにおいてHMMの各混合分布
要素に付加されている重みに加え、収集した音声サンプ
ルの特性に応じて設定された重み係数を、音声サンプル
の各フレームにさらに付加することによって、特定の音
声サンプルあるいは音声サンプルの特定部分を音響モデ
ルの学習の際に増幅あるいは除去し、音声サンプルを構
成する音素の出現頻度の偏りを修正し、信頼性の高い音
響モデルを提供する音響モデル学習装置を提供すること
を目的とする。
【0023】
【課題を解決するための手段】かかる目的を達成するた
め、請求項1記載の発明は、入力される学習用音声から
フレームごとに特徴量を抽出する音声分析手段と、所定
の音声からフレームごとに抽出された特徴量を示す確率
分布を用いて、所定の音声におけるフレームごとに分割
された所定の音声の断片を状態として表現し、状態を構
成単位とする入力音響モデルと、学習用音声の内容を示
す文字列情報である正解列と、に基づいて、入力音響モ
デルにおける状態に正解列を割り当てた状態列の情報で
ある学習用辞書を生成する辞書生成手段と、辞書生成手
段により生成された学習用辞書を参照し、学習用音声の
特徴量と入力音響モデルにおける状態との対応確率を学
習用音声のフレームごとに算出する対応確率算出手段
と、所定の文字列を用いて、入力音響モデルにより表現
される状態あるいは複数の状態からなる状態列を、学習
用音声のフレームごとに最尤に割り当て、所定の最尤状
態列を生成する最尤状態列生成手段と、最尤状態列生成
手段により生成された所定の最尤状態列に基づいて、対
応確率に重み付けする際に付加する係数である重み係数
を、学習用音声のフレームごとに算出する重み計算手段
と、対応確率算出手段により算出された対応確率と、重
み計算手段により算出された重み係数と、音声分析手段
により算出された特徴量と、に基づいて統計量を算出
し、算出した統計量に基づいて、入力音響モデルのパラ
メータを再推定し、出力音響モデルを作成する再評価手
段と、を有することを特徴とする。
【0024】また、請求項2記載の発明によれば、請求
項1記載の音響モデル学習装置において、再評価手段
は、学習用音声のフレームごとの対応確率に、重み係数
を乗算し、学習用音声のフレームごとの対応確率に重み
付けを行い、重み付けされた対応確率を用いて統計量を
算出し、算出した統計量に基づいて、入力音響モデルの
パラメータを再推定し、出力音響モデルを作成すること
を特徴とする。
【0025】また、請求項3記載の発明によれば、請求
項1または2記載の音響モデル学習装置において、重み
計算手段は、最尤状態列生成手段により、学習用辞書を
用いて生成された最尤状態列を第1の最尤状態列とし、
任意の文字列を用いて生成された最尤状態列を第2の最
尤状態列とした場合、学習用音声のフレームごとに、第
1の最尤状態列と第2の最尤状態列とを比較し、比較に
基づいて、学習用音声のフレームごとに重み係数を算出
することを特徴とする。
【0026】また、請求項4記載の発明によれば、請求
項3記載の音響モデル学習装置において、重み計算手段
は、学習用音声のフレームごとに、第1の最尤状態列と
第2の最尤状態列とを比較し、割り当てられた状態ある
いは複数の状態からなる状態列が一致したフレームでは
重み係数を1とし、互いに異なるフレームでは重み係数
を1より小さな値として算出することを特徴とする。
【0027】また、請求項5記載の発明によれば、請求
項3記載の音響モデル学習装置において、重み計算手段
は、学習用音声のフレームごとに、第1の最尤状態列と
第2の最尤状態列とを比較し、割り当てられた状態ある
いは複数の状態からなる状態列が一致したフレームでは
重み係数を1とし、互いに異なるフレームでは重み係数
を1より大きな値として算出することを特徴とする。
【0028】また、請求項6記載の発明によれば、請求
項1から5のいずれか1項に記載の音響モデル学習装置
において、重み計算手段は、割り当てられた状態ごと
に、算出した重み係数の和をそれぞれ算出し、算出した
重み係数の和が、それぞれ等しい値となるように算出し
た重み係数を設定することを特徴とする。
【0029】また、請求項7記載の発明は、入力される
学習用音声からフレームごとに特徴量を抽出する音声分
析工程と、所定の音声からフレームごとに抽出された特
徴量を示す確率分布を用いて、所定の音声におけるフレ
ームごとに分割された所定の音声の断片を状態として表
現し、状態を構成単位とする入力音響モデルと、学習用
音声の内容を示す文字列情報である正解列と、に基づい
て、入力音響モデルにおける状態に正解列を割り当てた
状態列の情報である学習用辞書を生成する辞書生成工程
と、辞書生成工程により生成された学習用辞書を参照
し、学習用音声の特徴量と入力音響モデルにおける状態
との対応確率を学習用音声のフレームごとに算出する対
応確率算出工程と、所定の文字列を用いて、入力音響モ
デルにより表現される状態あるいは複数の状態からなる
状態列を、学習用音声のフレームごとに最尤に割り当
て、所定の最尤状態列を生成する最尤状態列生成工程
と、最尤状態列生成工程により生成された所定の最尤状
態列に基づいて、対応確率に重み付けする際に付加する
係数である重み係数を、学習用音声のフレームごとに算
出する重み計算工程と、対応確率算出工程により算出さ
れた対応確率と、重み計算工程により算出された重み係
数と、音声分析工程により算出された特徴量と、に基づ
いて統計量を算出し、算出した統計量に基づいて、入力
音響モデルのパラメータを再推定し、出力音響モデルを
作成する再評価工程と、を有することを特徴とする音響
モデル学習方法。
【0030】また、請求項8記載の発明によれば、請求
項7記載の音響モデル学習方法において、再評価工程
は、学習用音声のフレームごとの対応確率に、重み係数
を乗算し、学習用音声のフレームごとの対応確率に重み
付けを行い、重み付けされた対応確率を用いて統計量を
算出し、算出した統計量に基づいて、入力音響モデルの
パラメータを再推定し、出力音響モデルを作成すること
を特徴とする。
【0031】また、請求項9記載の発明によれば、請求
項7または8記載の音響モデル学習方法において、重み
計算工程は、最尤状態列生成工程により、学習用辞書を
用いて生成された最尤状態列を第1の最尤状態列とし、
任意の文字列を用いて生成された最尤状態列を第2の最
尤状態列とした場合、学習用音声のフレームごとに、第
1の最尤状態列と第2の最尤状態列とを比較し、比較に
基づいて、学習用音声のフレームごとに重み係数を算出
することを特徴とする。
【0032】また、請求項10記載の発明によれば、請
求項9記載の音響モデル学習方法において、重み計算工
程は、学習用音声のフレームごとに、第1の最尤状態列
と第2の最尤状態列とを比較し、割り当てられた状態あ
るいは複数の状態からなる状態列が一致したフレームで
は重み係数を1とし、互いに異なるフレームでは重み係
数を1より小さな値として算出することを特徴とする。
【0033】また、請求項11記載の発明によれば、請
求項9記載の音響モデル学習方法において、重み計算工
程は、学習用音声のフレームごとに、第1の最尤状態列
と第2の最尤状態列とを比較し、割り当てられた状態あ
るいは複数の状態からなる状態列が一致したフレームで
は重み係数を1とし、互いに異なるフレームでは重み係
数を1より大きな値として算出することを特徴とする。
【0034】また、請求項12記載の発明によれば、請
求項7から11のいずれか1項に記載の音響モデル学習
方法において、重み計算工程は、割り当てられた状態ご
とに、算出した重み係数の和をそれぞれ算出し、算出し
た重み係数の和が、それぞれ等しい値となるように算出
した重み係数を設定することを特徴とする。
【0035】また、請求項13記載の発明は、入力され
る学習用音声からフレームごとに特徴量を抽出する音声
分析処理と、所定の音声からフレームごとに抽出された
特徴量を示す確率分布を用いて、所定の音声におけるフ
レームごとに分割された所定の音声の断片を状態として
表現し、状態を構成単位とする入力音響モデルと、学習
用音声の内容を示す文字列情報である正解列と、に基づ
いて、入力音響モデルにおける状態に正解列を割り当て
た状態列の情報である学習用辞書を生成する辞書生成処
理と、辞書生成処理により生成された学習用辞書を参照
し、学習用音声の特徴量と入力音響モデルにおける状態
との対応確率を学習用音声のフレームごとに算出する対
応確率算出処理と、所定の文字列を用いて、入力音響モ
デルにより表現される状態あるいは複数の状態からなる
状態列を、学習用音声のフレームごとに最尤に割り当
て、所定の最尤状態列を生成する最尤状態列生成処理
と、最尤状態列生成処理により生成された所定の最尤状
態列に基づいて、対応確率に重み付けする際に付加する
係数である重み係数を、学習用音声のフレームごとに算
出する重み計算処理と、対応確率算出処理により算出さ
れた対応確率と、重み計算処理により算出された重み係
数と、音声分析処理により算出された特徴量と、に基づ
いて統計量を算出し、算出した統計量に基づいて、入力
音響モデルのパラメータを再推定し、出力音響モデルを
作成する再評価処理と、を実行させることを特徴とす
る。
【0036】また、請求項14記載の発明によれば、請
求項13記載のプログラムにおいて、再評価処理は、学
習用音声のフレームごとの対応確率に、重み係数を乗算
し、学習用音声のフレームごとの対応確率に重み付けを
行い、重み付けされた対応確率を用いて統計量を算出
し、算出した統計量に基づいて、入力音響モデルのパラ
メータを再推定し、出力音響モデルを作成することを特
徴とする。
【0037】また、請求項15記載の発明によれば、請
求項13または14記載のプログラムにおいて、重み計
算処理は、最尤状態列生成処理により、学習用辞書を用
いて生成された最尤状態列を第1の最尤状態列とし、任
意の文字列を用いて生成された最尤状態列を第2の最尤
状態列とした場合、学習用音声のフレームごとに、第1
の最尤状態列と第2の最尤状態列とを比較し、比較に基
づいて、学習用音声のフレームごとに重み係数を算出す
ることを特徴とする。
【0038】また、請求項16記載の発明によれば、請
求項15記載のプログラムにおいて、重み計算処理は、
学習用音声のフレームごとに、第1の最尤状態列と第2
の最尤状態列とを比較し、割り当てられた状態あるいは
複数の状態からなる状態列が一致したフレームでは重み
係数を1とし、互いに異なるフレームでは重み係数を1
より小さな値として算出することを特徴とする。
【0039】また、請求項17記載の発明によれば、請
求項15記載の音響モデル学習装置において、重み計算
処理は、学習用音声のフレームごとに、第1の最尤状態
列と第2の最尤状態列とを比較し、割り当てられた状態
あるいは複数の状態からなる状態列が一致したフレーム
では重み係数を1とし、互いに異なるフレームでは重み
係数を1より大きな値として算出することを特徴とす
る。
【0040】また、請求項18記載の発明によれば、請
求項13から17のいずれか1項に記載の音響モデル学
習装置において、重み計算処理は、割り当てられた状態
ごとに、算出した重み係数の和をそれぞれ算出し、算出
した重み係数の和が、それぞれ等しい値となるように算
出した重み係数を設定することを特徴とする。
【0041】
【発明の実施の形態】(第1の実施形態)図1は、本発
明の第1の実施形態における音響モデル学習装置の構成
を示す図である。以下、図1を用いて、本実施形態にお
ける音響モデル学習装置の構成について説明する。な
お、本実施形態では、音響モデルとして連続混合確率分
布によるHMMを用いる。上記の音響モデルでは、所定
の音声からフレームごとに抽出された特徴量を示す確率
分布を用いることによって、上記のフレームごとに分割
された音声の断片が状態として表現され、その状態が構
成単位となる。
【0042】音響モデル学習装置は、音声分析部101
と、辞書部102と、フォワード・バックワード計算部
103と、再評価部104と、ビタビ計算部105と、
重み計算部106と、を有する。以下、図1を用いて音
響モデル学習装置の各部位について説明する。
【0043】音声分析部101には、音響モデルの学習
に用いられる音声情報である学習用音声が入力される。
なお、上記の学習用音声は、ビタビ計算部105にも入
力される。
【0044】音声分析部101は、入力された学習用音
声を所定周期ごとに区切り、その区間を「フレーム」と
して、フレームごとに学習用音声の周波数分析を行う。
上記の分析の結果抽出されたフレームごとの学習用音声
の(音響的)特徴量は、フォワード・バックワード計算
部103および再評価部104に入力される。なお、特
徴量としては、音声のパワーを用いてもよいし、パワー
の変化量、ケプストラム、あるいはケプストラム変化量
等を用いてもよい。
【0045】辞書部102には、音響モデルおよび正解
列が入力される。上記の正解列は、所定の入力手段(図
示せず)により入力される文字列の情報としてもよい。
所定の入力手段は、音声分析部101およびビタビ計算
部105に入力された学習用音声の内容を示す文字情報
を正解列として辞書部102に入力する。
【0046】また、辞書部102は、入力された音響モ
デル(以下、入力音響モデル)と入力された正解列とに
基づいて、サブワードモデルによる学習用辞書を作成
し、格納する。なお、サブワードモデルによる学習用辞
書とは、入力された正解列(例えば、実際に存在する単
語等)を、音素あるいは音節単位(サブワード単位)等
に分割した状態列の情報である。また、辞書部102
は、学習用辞書とは別に、任意の文字列の情報である
「任意の文字列を表す辞書」を予め格納している。
【0047】フォワード・バックワード計算部103
は、辞書部102に格納されている学習用辞書を参照
し、音声分析部101により抽出された学習用音声の特
徴量と、入力された入力音響モデルと、に基づいて、フ
ォワード・バックワード法によるフォワード確率とバッ
クワード確率とを算出する。さらに、フォワード・バッ
クワード計算部103は、算出したフォワード確率とバ
ックワード確率とに基づいて、学習用音声の特徴量と入
力音響モデルの状態との間の対応確率を算出する。フォ
ワード・バックワード計算部103は、算出した対応確
率を再評価部104へ出力する。
【0048】フォワード・バックワード計算部103
は、入力された学習用音声から変換されたフレームtご
との特徴量をOt (tは1以上T以下の整数)として、
フォワード確率αを、以下に示す(式1.1)および
(式1.2)に基づいて算出する。また、フォワード・
バックワード計算部103は、バックワード確率βを、
(式2.1)および(式2.2)により示されている式
に基づいて算出する。
【0049】また、フォワード・バックワード計算部1
03は、算出したフォワード確率αとバックワード確率
βとを用いて、対応確率γを、(式3.1)により示さ
れる式に基づいて算出する。
【0050】ビタビ計算部105には、音声分析部10
1と同様の学習用音声が入力される。また、ビタビ計算
部105には、辞書部102を介して入力音響モデルが
入力される。
【0051】ビタビ計算部105は、入力された学習用
音声を所定時間(フレーム)ごとに分割する。次に、ビ
タビ計算部105は、所定の文字情報を参照して、上記
の各フレームに入力音響モデルに基づく状態あるいは複
数の状態からなる状態列を最尤に割り当て、ビタビマッ
チング(Viterbi Matching)を行い、
所定の最尤状態列を作成する。
【0052】重み計算部106は、ビタビ計算部105
により複数種類の所定の文字情報を参照して作成された
複数種類の最尤状態列に基づいて重み係数Rt を算出す
る。
【0053】再評価部104は、重み計算部106によ
り算出された重み係数Rt と、フォワード・バックワー
ド計算部103により算出された対応確率と、音声分析
部101により抽出された特徴量と、フォワード・バッ
クワード計算部103を介して入力された入力音響モデ
ルと、に基づいて、音響モデルの各状態の統計量(混合
重み、平均ベクトル、および共分散行列の各平均)を計
算する。再評価部104は、抽出された統計量に基づい
て、入力音響モデルの各パラメータ(混合重み、平均ベ
クトル、および共分散行列の各平均)を再評価する。再
評価部104は、入力音響モデルの各パラメータの再評
価に基づいて、音響モデルを作成する。再評価部104
は、作成した音響モデルを、出力音響モデルとして出力
する。
【0054】再評価部104は、対応確率γに重み係数
t を積算して重み付けを行う。再評価部104は、重
み付けされた対応確率γ・Rt を用いて、混合重み
jk、平均ベクトルμ(t,j,k)、および共分散行
列U(j,k)の各平均を統計量として算出する。上記
の統計量は、以下に示す(式5.1)、(式5.2)、
および(式5.3)により与えられる。
【0055】
【数5】
【0056】なお、混合重みcjkは、HMMにおける状
態Sj のk番目の混合分布要素に対する混合重みであ
る。また、平均ベクトルμ(t,j,k)は、HMMに
おける状態Sj のk番目の混合分布要素の平均ベクトル
である。また、共分散行列U(j,k)は、HMMにお
ける状態Sj のk番目の混合分布要素の共分散行列であ
る。また、Vk は、文字列Vにおける所定の文字を示
す。また、(Ot −μjk)’は、ベクトル(Ot
μjk)の対置ベクトルを表す。
【0057】図2は、本発明の第1の実施形態における
入力音響モデルが表現可能な音素セットを示す図であ
る。また、図3は、本発明の第1の実施形態における音
響モデル学習装置が作成する学習用辞書を示す図であ
る。また、図4は、本発明の第1の実施形態における重
み係数Rt を示す図である。また、図9は、本発明の第
1の実施形態における音響モデル学習装置の動作の流れ
を示すフローチャートである。以下、図1〜4を用い、
図9に沿って本実施形態における音響モデル学習装置の
動作について説明する。
【0058】本実施形態では、学習用音声の一例とし
て、所定の話者による「加藤今太郎(かとうこんたろ
う)」の発声を用いる。また、本実施形態では、入力音
響モデル(初期モデル)として、上記の所定の話者によ
る「かとうこんたろう」の発声を、「さとうこんたろ
う」と認識する音響モデルが与えられたとする。
【0059】なお、HMMでは、1状態に対応する音声
の長さは可変であり、ビタビマッチング等を用いること
により、HMMにおける最尤な状態系列が得られる。し
かしながら、本実施形態では、簡単のために、入力音声
は14フレームの音声であり、1フレームにつき1状態
が割り当てられているものとする。
【0060】まず、所定の制御手段(図示せず)は、学
習用音声が音声分析部101に入力されたか否かを判断
する(ステップS901)。学習用音声が音声分析部1
01に入力されていないと判断された場合(ステップS
901/No)、ステップS901の工程が繰り返され
る。
【0061】学習用音声が音声分析部101に入力され
たと判断された場合(ステップS901/Yes)、音
声分析部101は、フレームごとに学習用音声の周波数
を分析し、その分析した学習用音声の周波数に基づいて
学習用音声の特徴量を抽出する(ステップS902)。
抽出した学習用音声の特徴量は、フォワード・バックワ
ード計算部103および再評価部104へ出力される。
【0062】次に、所定の制御手段は、正解列および入
力音響モデルが辞書部102に入力されたか否かを判断
する(ステップS903)。正解列および入力音響モデ
ルが入力されていないと判断された場合(ステップS9
03/No)、ステップS903の工程が繰り返され
る。
【0063】正解列および入力音響モデルが辞書部10
2に入力されたと判断された場合(ステップS903/
Yes)、辞書部102は、入力された正解列と入力音
響モデルとに基づいて学習用辞書を作成し、作成した学
習用辞書を格納する(ステップS904)。
【0064】ここで、図2および図3を用いて、辞書部
102が学習用辞書を作成する工程について説明する。
図2には、本実施形態における入力音響モデルが表現で
きる音素の列(音素セット)が示されている。上記の音
素セットは、入力音響モデルに含まれている。辞書部1
02は、上記の音素セットを用いて、学習用音声「かと
うこんたろう」を「k−a−t−o−u−k−o−ng
−t−a−r−o−u」と音素単位に分割する。分割し
た音素を、状態Si (iは1以上13以下の整数)にそ
れぞれ割り当て、図3に示されるような状態列、すなわ
ち学習用音声に対応する学習用辞書を作成する。辞書部
102は、作成した学習用辞書を格納する。
【0065】辞書部102による学習用辞書作成後、フ
ォワード・バックワード計算部103は、辞書部102
により作成された学習用辞書を参照し、音声分析部10
1により抽出された特徴量に基づいて、フォワード確率
およびバックワード確率を算出する(ステップS90
5)。
【0066】次に、フォワード・バックワード計算部1
03は、算出したフォワード確率とバックワード確率と
に基づいて対応確率を算出する(ステップS906)。
【0067】所定の制御手段は、音声分析部101に入
力された学習用音声と同様の学習用音声がビタビ計算部
105に入力されたか否かを判断する。また、所定の制
御手段は、入力音響モデルが辞書部102を介してビタ
ビ計算部105に入力されたか否かを判断する(ステッ
プS907)。学習用音声および入力音響モデルがビタ
ビ計算部105に入力されていないと判断された場合
(ステップS907/No)、ステップS907の工程
が繰り返される。
【0068】学習用音声および入力音響モデルがビタビ
計算部105に入力されたと判断された場合(ステップ
S907/Yes)、ビタビ計算部105は、入力され
た学習用音声および入力音響モデルを用い、辞書部10
2により作成された学習用辞書を参照して、ビタビマッ
チングにより最尤状態列を生成する(ステップS90
8)。なお、学習用辞書を参照して生成された上記の最
尤状態列を第1の最尤状態列とする。
【0069】さらに、ビタビ計算部105は、入力され
た学習用音声および入力音響モデルを用い、辞書部10
2に格納されている任意の文字列を表す辞書を参照し
て、ビタビマッチングにより最尤状態列を生成する(ス
テップS909)。なお、任意の文字を表す辞書を参照
して生成された上記の最尤状態列を第2の最尤状態列と
する。
【0070】次に、重み計算部106は、ビタビ計算部
105により生成された第1の最尤状態列の各状態と第
2の最尤状態列の各状態を比較し、以下に示す(式6.
1)および(式6.2)により与えられる重み係数Rt
を算出する(ステップS910)。なお、重み係数Rt
は、学習用音声の各フレームにそれぞれ対応するように
算出される。
【0071】
【数6】
【0072】話者による誤発声あるいは品質の低い音声
を学習用音声として用いた場合、入力された正解列と入
力音響モデルにより認識される学習用音声との間で差異
が発生する可能性、つまり、入力された学習用音声によ
る所定の言語単位(例えば、音素単位、音節単位等)の
音声サンプルが音響モデルにより誤認識される可能性が
高い。上記の誤認識された音声サンプルが出力音響モデ
ルに大きく反映しないようすることによって、信頼性の
高い出力音響モデルを得ることが可能となる。
【0073】重み計算部106は、第1の最尤状態列に
おける各状態と、第2の最尤状態列における各状態と、
をフレームごとに比較し、上記の(式6.1)および
(式6.2)に基づいて重み係数Rt を算出する。
【0074】(式6.1)は、所定のフレームにおい
て、第1の最尤状態列と第2の最尤状態列との間に差異
が発生した場合の重み係数Rt を与える式であり、上記
の場合、重み係数Rt は「0」として算出される。
【0075】(式6.2)は、全てのフレームにおい
て、第1の最尤状態列と第2の最尤状態列とが一致した
場合の重み係数Rt を与える式であり、上記の場合、重
み係数Rt は「1」として算出される。
【0076】話者の誤発声等により学習用音声の品質が
低下した場合、その品質低下が生じた部分に対応するフ
レームに割り当てられている第1の最尤状態列の状態
と、第2の最尤状態列の状態との間に差異が発生する。
従って、信頼性の高い出力音響モデルを得るためには、
上記の差異が生じた部分が出力音響モデルに反映されな
いようにする必要がある。
【0077】本実施形態では、学習用音声における高品
質部分(所定のフレームにおいて第1の最尤状態列の状
態と第2の最尤状態列とが一致した状態)の重み係数R
t を「1」とし、低品質部分の重み係数Rt を高品質部
分の重み係数Rt よりも低い値である「0」とすること
によって、学習用音声の低品質部分、すなわち学習用音
声が入力音響モデルにより誤認識されている部分が出力
音響モデルに反映されないようにしている。
【0078】本実施形態における入力音響モデルでは、
学習用音声「かとうこんたろう」は、「さとうこんたろ
う」と認識される。上記のような場合、「か」の部分が
実際にどのような発声であったか不明であるが、「か」
の部分における音素「k」が入力音響モデルにより誤認
識されている。音素「k」のモデルが正しく認識される
出力音響モデルを作成するためには、「か」の部分の音
素「k」が出力音響モデルに反映しないように設定され
る必要がある。
【0079】図14は、(式6.1)および(式6.
2)により図3の学習用辞書に与えられる重み係数Rt
を示す図である。Rt (t=1〜13)は、それぞれS
i (i=1〜13)における重み係数である。図14に
示されているように、「か」の部分の音素「k」(=S
1 )における重み係数R1 を「0」とし、他の音素(S
2 〜S13)における重み係数R2 〜R13を「1」とする
ことによって、「か」の部分の音素「k」が出力音響モ
デルに反映しないようにすることが可能となり、信頼性
の高い音響モデルを作成することが可能となる。
【0080】なお、本実施形態では、重み係数R1
「0」とすることにより、「か」の部分の音素「k」が
出力音響モデルに反映しないようにしたが、重み係数R
1 を「0以上1未満の任意の値」に設定することによっ
て、「か」の部分の音素「k」が出力音響モデルに与え
る影響を調整することが可能となる。
【0081】以下、再び図9のフローチャートに沿って
音響モデル学習装置の動作について説明を進める。再評
価部104は、重み計算部106により算出された重み
係数Rt と、音声分析部101により抽出された特徴量
と、フォワード・バックワード計算部103により算出
された対応確率と、に基づいて、音響モデルの各統計量
(混合重み、平均ベクトル、および共分散行列の各平
均)を算出する(ステップS911)。
【0082】再評価部104は、音響モデルの各統計量
算出後、算出した統計量に基づいて、フォワード・バッ
クワード計算部103を介して入力された入力音響モデ
ルの各パラメータ(混合重み分布、平均ベクトル、およ
び共分散行列の各平均)を再評価し、出力音響モデルを
作成する(ステップS912)。作成された出力音響モ
デルは、再評価部104から出力される(ステップS9
13)。出力音響モデル出力後、音響モデル学習装置
は、動作を終了する。
【0083】(第2の実施形態)以下、特記しない限
り、本発明の第2の実施形態における音響モデル学習装
置の構成および動作は、本発明の第1の実施形態におけ
る音響モデル学習装置の構成および動作と同様であると
する。
【0084】一般に、騒音環境が学習用音声の品質を低
下させる場合、学習用音声の誤認識は、単一の音素にと
どまらず、その音素の周辺音素にも影響を与える。第1
の実施形態では、重み係数Rt を音素ごとに設定してい
たが、環境騒音などの理由により複数の音素にわたって
誤認識される場合、音節単位で重み付けを行うことによ
って、より信頼性の高い出力音響モデルを作成すること
が可能となる。
【0085】図5は、本発明の第2の実施形態における
重み係数Rt を示す図である。第1の実施形態と同様に
重み係数Rt (t=1〜13)は、それぞれ図3におけ
る状態Si (i=1〜13)に対応する。
【0086】第1の実施形態では、「か」の音素「k」
(=S1 )の重み係数R1 を「0」に設定していた。本
実施形態では、学習用音声「かとうこんたろう」におけ
る音節「か(k−a)」において、品質が低下し、第1
の最尤状態列と第2の最尤状態列との間に差異が生じて
いる。上記のように音節単位で学習用音声の品質低下が
生じている場合、「か」の音素「k」(=S1 )の重み
係数R1 と、音素「a」(=S2 )の重み係数R2 と、
をそれぞれ「0」に設定することによって、音素「k」
(=S1 )の重み係数R1 のみを「0」とする場合と比
較して、より信頼性の高い出力音響モデルを作成するこ
とが可能となる。
【0087】なお、本実施形態では、重み係数R1 およ
びR2 を「0」とすることにより、「か」の部分の音素
「k」および音素「a」が出力音響モデルに反映しない
ようにしたが、重み係数R1 およびR2 を「0以上1未
満の任意の値」に設定することによって、「か」の部分
の音素「k」および音素「a」が出力音響モデルに与え
る影響を調整することが可能となる。
【0088】(第3の実施形態)以下、特記しない限
り、本発明の第3の実施形態における音響モデル学習装
置の構成および動作は、本発明の第1の実施形態におけ
る音響モデル学習装置の構成および動作と同様であると
する。
【0089】第2の実施形態では、騒音環境による学習
用音声の誤認識は、単一の音素にとどまらず、その音素
の周辺音素にも影響を与える場合について説明した。第
2の実施形態では、重み係数Rt を音節ごとに設定して
いたが、環境騒音などの理由により誤認識される音素の
範囲が音節単位よりもさらに広い範囲にわたって存在す
る場合、重み付けする音素の範囲を音節単位よりもさら
に拡大し、単語単位とすることによって、より信頼性の
高い出力音響モデルを作成することが可能となる。
【0090】図6は、本発明の第3の実施形態における
重み係数Rt を示す図である。第1の実施形態と同様に
重み係数Rt (t=1〜13)は、それぞれ図3におけ
る状態Si (i=1〜13)に対応する。
【0091】第1の実施形態では、「か」の音素「k」
(=S1 )の重み係数R1 を「0」に設定していた。ま
た、第2の実施形態では、「か」の音素「k」(=
1 )の重み係数R1 と、音素「a」(=S2 )の重み
係数R2 と、をそれぞれ「0」に設定していた。本実施
形態では、学習用音声「かとうこんたろう」における単
語「かとう(k−a−t−o−u)」において、品質が
低下し、第1の最尤状態列と第2の最尤状態列との間に
差異が生じている。上記のように単語単位で学習用音声
の品質低下が生じている場合、単語「かとう(k−a−
t−o−u)」における音素「k」(=S1 )、音素
「a」(=S2 )、音素「t」(=S3 )、音素「o」
(=S4 )、および音素「u」(=S5 )それぞれに対
応する重み係数R1 〜R5 を「0」とすることによっ
て、音素単位あるいは音節単位で重み係数Rt を「0」
とする場合と比較して、より信頼性の高い出力音響モデ
ルを作成することが可能となる。
【0092】なお、本実施形態では、重み係数R1 〜R
5 を「0」とすることにより、「かとう」の部分の音素
「k−a−t−o−u」が出力音響モデルに反映しない
ようにしたが、重み係数R1 〜R5 を0以上1未満の任
意の値に設定することによって、「かとう」の部分の音
素「k−a−t−o−u」が出力音響モデルに与える影
響を調整することが可能となる。
【0093】(第4の実施形態)以下、特記しない限
り、本発明の第4の実施形態における音響モデル学習装
置の構成および動作は、本発明の第1の実施形態におけ
る音響モデル学習装置の構成および動作と同様であると
する。
【0094】上記の第1から第3の実施形態では、第1
の最尤状態列と第2の最尤状態列との間で差異が生じた
部分(学習用音声の品質が低下した部分)の重み係数R
t を「0」に設定し、出力音響モデルに反映されないよ
うにしていた。本実施形態における音響モデル学習装置
は、学習用音声における誤発声あるいは品質の低い音声
が生じた部分を発声の一変化として積極的に取り入れ、
学習用音声の高品質部分よりも高い重み係数Rt を設定
することによって、低品質の学習用音声のサンプル数を
増加させ、低品質の学習用音声に対する認識性能を向上
させる。
【0095】図7は、本発明の第4の実施形態における
重み係数Rt を示す図である。図7に示される重み係数
t は、以下に示す(式7.1)および(式7.2)に
より与えられる。
【0096】
【数7】
【0097】本実施形態では、第1の実施形態と同様
に、所定の話者により入力された「かとうこんたろう」
という学習用音声を、「さとうこんたろう」と認識する
音響モデルが入力される。第1の実施形態では、「か」
の音素「k」(=S1 )に対応する重み係数R1
「0」に設定し、出力音響モデルに反映しないようにす
ることによって、信頼性の高い出力音響モデルを作成し
ていた。本実施形態では、第1の最尤状態列と第2の最
尤状態列との間で差異が発生した「か」の音素「k」
(=S1 )に、第1の最尤状態列と第2の最尤状態列と
の間で一致した他の音素に設定された「重み係数Rt
1(t=2〜13)」よりも高い「重み係数R1=1
0」を設定する。
【0098】上記のように、「重み係数R1 =10」と
設定することによって、十分に学習されていない稀な特
徴と考えられる「か」の音素「k」(=S1 )を、他の
音素よりも出力音響モデルに大きく反映させることが可
能となる。
【0099】なお、本実施形態では、重み係数Rt によ
る重み付けを音素単位で行ったが、第2の実施形態のよ
うに音節単位で行ってもよいし、第3の実施形態のよう
に単語単位で行ってもよい。
【0100】また、本実施形態では、正解列と入力音響
モデルにより認識された学習用音声との間で差異が生じ
た音素に対応する重み係数Rt を「10」としたが、正
解列と学習用音声との間で一致した音素と比較して大き
な数値であれば、差異が生じた音素に対応する重み係数
t は、他の値であってもよい。
【0101】(第5の実施形態)以下、特記しない限
り、本発明の第5の実施形態における音響モデル学習装
置の構成および動作は、本発明の第1の実施形態におけ
る音響モデル学習装置の構成および動作と同様であると
する。
【0102】統計モデルの信頼性は、統計モデルのパラ
メータ学習に用いられた音声サンプル(音素、音節、あ
るいは単語)の量により大きく影響される。従って、各
音響モデルにおける信頼性を均一化するためには、入力
される各音声サンプルの量に著しい偏りが生じないよう
にする必要がある。
【0103】本実施形態では、第1の最尤状態列におけ
る各状態ごとの重み係数Rt の和を一定にし、入力され
る所定の言語単位(音素、音節、あるいは単語等)の各
音声サンプルにおけるサンプル数を均一化する。
【0104】図10は、本発明の第5の実施形態におけ
る音響モデル学習装置の動作の流れを示すフローチャー
トである。以下、図1を用い、図10に沿って、本実施
形態における音響モデル学習装置の動作について説明す
る。
【0105】本実施形態では、第1の実施形態と同様
に、学習用音声の一例として、所定の話者による「加藤
今太郎(かとうこんたろう)」の発声を用いる。
【0106】まず、所定の制御手段(図示せず)は、学
習用音声が音声分析部101に入力されたか否かを判断
する(ステップS1001)。学習用音声が音声分析部
101に入力されていないと判断された場合(ステップ
S1001/No)、ステップS1001の工程が繰り
返される。
【0107】学習用音声が音声分析部101に入力され
たと判断された場合(ステップS1001/Yes)、
音声分析部101は、フレームごとに学習用音声の周波
数を分析し、その分析した学習用音声の周波数に基づい
て学習用音声の特徴量を抽出する(ステップS100
2)。抽出した学習用音声の特徴量は、フォワード・バ
ックワード計算部103および再評価部104へ出力さ
れる。
【0108】次に、所定の制御手段は、正解列および入
力音響モデルが辞書部102に入力されたか否かを判断
する(ステップS1003)。正解列および入力音響モ
デルが入力されていないと判断された場合(ステップS
1003/No)、ステップS1003の工程が繰り返
される。
【0109】正解列および入力音響モデルが辞書部10
2に入力されたと判断された場合(ステップS1003
/Yes)、辞書部102は、入力された正解列と入力
音響モデルとに基づいて学習用辞書を作成し、作成した
学習用辞書を格納する(ステップS1004)。
【0110】辞書部102による学習用辞書作成後、フ
ォワード・バックワード計算部103は、辞書部102
により作成された学習用辞書を参照し、音声分析部10
1により抽出された特徴量に基づいて、フォワード確率
およびバックワード確率を算出する(ステップS100
5)。
【0111】次に、フォワード・バックワード計算部1
03は、算出したフォワード確率とバックワード確率と
に基づいて対応確率を算出する(ステップS100
6)。
【0112】所定の制御手段は、音声分析部101に入
力された学習用音声と同様の学習用音声がビタビ計算部
105に入力されたか否かを判断する。また、所定の制
御手段は、入力音響モデルが辞書部102を介してビタ
ビ計算部105に入力されたか否かを判断する(ステッ
プS1007)。学習用音声および入力音響モデルがビ
タビ計算部105に入力されていないと判断された場合
(ステップS1007/No)、ステップS1007の
工程が繰り返される。
【0113】学習用音声および入力音響モデルがビタビ
計算部105に入力されたと判断された場合(ステップ
S1007/Yes)、ビタビ計算部105は、入力さ
れた学習用音声および入力音響モデルを用い、辞書部1
02により作成された学習用辞書を参照して、ビタビマ
ッチングにより最尤状態列を生成する(ステップS10
08)。なお、学習用辞書を参照して生成された上記の
最尤状態列を第1の最尤状態列とする。
【0114】次に、重み計算部106は、ビタビ計算部
105により生成された第1の最尤状態列の各状態を参
照し、以下に示す(式8.1)、(式9.1)、(式
9.2)、および(式9.3)に基づいて、重み係数R
t を算出する(ステップS1009)。
【0115】
【数8】
【0116】
【数9】
【0117】本実施形態では、上記の(式8.1)で与
えられる条件により、学習用音声を構成する同一の音声
サンプル(音素、音節、あるいは単語単位)が割り当て
られている状態ごとに重み係数Rt の和をとり、重み係
数Rt の和が等しくなるように、重み係数Rt を算出す
ることによって、各音声サンプルがそれぞれ出力音響モ
デルに与える影響が均一になる。
【0118】本実施形態では、本発明の第1の実施形態
と同様に図3に示される学習用辞書が生成されるとす
る。図8は、本発明の第5の実施形態における重み係数
t を示す図である。図8に示される重み係数Rt は、
上記の(式9.1)、(式9.2)および(式9.3)
に基づいて設定されている。なお、図8における重み係
数Rt (t=1〜13)は、図3に示されている状態S
i (i=1〜13)にそれぞれ対応している。
【0119】本実施形態では、割り当てられたフレーム
の値が小さなものから順に、学習用音声を構成する音素
を観測した場合、初めて観測された種類の音素に対応す
る重み係数Rt を「1」とし、以前観測された種類の音
素に対応する重み係数Rt を「0」としている。
【0120】以下、図3および図8を用いて説明する
と、例えば、S6 の音素「k」は、すでにS1 において
観測されているので重み係数R6 は「0」に設定されて
いる。一方、S11の音素「r」は、S1 〜S10において
観測されていないので重み係数R11は「1」に設定され
ている。
【0121】上記のように重み係数Rt が算出されるこ
とによって、同一種類の音素に付加されている重み係数
t の和は、それぞれ「1」となり、各音素が音声サン
プルとして収集される回数が均等となる。
【0122】以下、再び図10のフローチャートに沿っ
て音響モデル学習装置の動作について説明を進める。再
評価部104は、重み計算部106により算出された重
み係数Rt と、音声分析部101により抽出された特徴
量と、フォワード・バックワード計算部103により算
出された対応確率と、に基づいて、音響モデルの各統計
量(混合重み、平均ベクトル、および共分散行列の各平
均)を算出する(ステップS1010)。
【0123】再評価部104は、音響モデルの各統計量
算出後、算出した統計量に基づいて、フォワード・バッ
クワード計算部103を介して入力された入力音響モデ
ルの各パラメータ(混合重み分布、平均ベクトル、およ
び共分散行列の各平均)を再評価し、出力音響モデルを
作成する(ステップS1011)。作成された出力音響
モデルは、再評価部104から出力される(ステップS
1012)。出力音響モデル出力後、音響モデル学習装
置は、動作を終了する。
【0124】本実施形態では、以上説明したように、同
一の音声サンプル(音素、音節、あるいは単語)が割り
当てられた状態ごとの重み係数Rt の和を一定とするこ
とによって、各音声サンプル(音素、音節、あるいは単
語単位)のサンプル量および出力音響モデルに与える影
響を均一化し、信頼性の高い出力音響モデルを作成する
ことを可能としている。
【0125】また、音響モデル学習装置は、入力される
学習用音声からフレームごとに特徴量を抽出する音声分
析処理と、所定の音声からフレームごとに抽出された特
徴量を示す確率分布を用いて、所定の音声におけるフレ
ームごとの特徴量を状態として表現し、状態を構成単位
とする入力音響モデルと、学習用音声の内容を示す文字
列情報である正解列と、に基づいて、入力音響モデルに
おける状態に正解列を割り当てた状態列の情報である学
習用辞書を生成する辞書生成処理と、辞書生成処理によ
り生成された学習用辞書を参照し、学習用音声の特徴量
と入力音響モデルにおける状態との対応確率を学習用音
声のフレームごとに算出する対応確率算出処理と、所定
の文字列を用いて、入力音響モデルにより表現される状
態あるいは複数の状態からなる状態列を、学習用音声の
フレームごとに最尤に割り当て、所定の最尤状態列を生
成する最尤状態列生成処理と、最尤状態列生成処理によ
り生成された所定の最尤状態列に基づいて、対応確率に
重み付けする際に付加する係数である重み係数を、学習
用音声のフレームごとに算出する重み計算処理と、対応
確率算出処理により算出された対応確率と、重み計算処
理により算出された重み係数と、音声分析処理により算
出された特徴量と、に基づいて統計量を算出し、算出し
た統計量に基づいて、入力音響モデルのパラメータを再
推定し、出力音響モデルを作成する再評価処理と、を行
う。上記の処理は、音響モデル学習装置が有するコンピ
ュータプログラムにより実行されるが、上記のプログラ
ムは、光ディスクあるいは磁気ディスク等の記録媒体に
記録され、上記の記録媒体からロードされるようにして
もよい。
【0126】なお、上記の実施形態は本発明の好適な実
施の一例であり、本発明の実施形態は、これに限定され
るものではなく、本発明の要旨を逸脱しない範囲におい
て種々変形して実施することが可能となる。
【0127】
【発明の効果】以上説明したように、本発明は、学習用
音声のフレームごとに重み係数を算出し、上記の重み係
数による重み付けを出力音響モデルに反映させることに
よって、観測された音声サンプルのうち音響モデルの作
成に有用なものだけを抽出し、信頼性の高い音響モデル
を作成することが可能となる。
【0128】また、本発明は、品質の高い所定の言語単
位(音素、音節、あるいは単語等)の音声サンプルの重
み付け係数を「1」とし、品質の低い音声サンプルの重
み付け係数を「0」とすることによって、品質の低い音
声サンプルが出力音響モデルに反映しないようにするこ
とが可能となる。
【0129】また、本発明は、品質の高い所定の言語単
位の音声サンプルの重み付け係数を「1」とし、品質の
低い音声サンプルの重み付け係数を「1より大きな任意
の値」とすることによって、品質の低い音声サンプルに
対する音声認識の精度が高い出力音響モデルを作成する
ことが可能となる。
【0130】また、本発明は、同一の音声サンプル(音
素、音節、あるいは単語)が割り当てられた状態ごとの
重み係数の和を一定とすることによって、各音声サンプ
ル(音素、音節、あるいは単語単位)のサンプル量およ
び出力音響モデルに与える影響を均一化し、信頼性の高
い出力音響モデルを作成することが可能となる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態における音響モデル学
習装置の構成を示す図である。
【図2】本発明の第1の実施形態における入力音響モデ
ルが表現可能な音素セットを示す図である。
【図3】本発明の第1の実施形態における音響モデル学
習装置が作成する学習用辞書を示す図である。
【図4】本発明の第1の実施形態における重み係数Rt
を示す図である。
【図5】本発明の第2の実施形態における重み係数Rt
を示す図である。
【図6】本発明の第3の実施形態における重み係数Rt
を示す図である。
【図7】本発明の第4の実施形態における重み係数Rt
を示す図である。
【図8】本発明の第5の実施形態における重み係数Rt
を示す図である。
【図9】本発明の第1の実施形態における音響モデル学
習装置の動作の流れを示すフローチャートである。
【図10】本発明の第5の実施形態における音響モデル
学習装置の動作の流れを示すフローチャートである。
【符号の説明】
101 音声分析部 102 辞書部 103 フォワード・バックワード計算部 104 再評価部 105 ビタビ計算部 106 重み計算部

Claims (18)

    【特許請求の範囲】
  1. 【請求項1】 入力される学習用音声からフレームごと
    に特徴量を抽出する音声分析手段と、 所定の音声からフレームごとに抽出された特徴量を示す
    確率分布を用いて、前記所定の音声のフレームごとに分
    割された前記所定の音声の断片を状態として表現し、該
    状態を構成単位とする入力音響モデルと、前記学習用音
    声の内容を示す文字列情報である正解列と、に基づい
    て、前記入力音響モデルにおける前記状態に前記正解列
    を割り当てた状態列の情報である学習用辞書を生成する
    辞書生成手段と、 該辞書生成手段により生成された学習用辞書を参照し、
    前記学習用音声の特徴量と前記入力音響モデルにおける
    状態との対応確率を前記学習用音声のフレームごとに算
    出する対応確率算出手段と、 所定の文字列を用いて、前記入力音響モデルにより表現
    される前記状態あるいは複数の前記状態からなる状態列
    を、前記学習用音声のフレームごとに最尤に割り当て、
    所定の最尤状態列を生成する最尤状態列生成手段と、 該最尤状態列生成手段により生成された所定の最尤状態
    列に基づいて、前記対応確率に重み付けする際に付加す
    る係数である重み係数を、前記学習用音声のフレームご
    とに算出する重み計算手段と、 前記対応確率算出手段により算出された対応確率と、前
    記重み計算手段により算出された重み係数と、前記音声
    分析手段により算出された特徴量と、に基づいて統計量
    を算出し、該算出した統計量に基づいて、前記入力音響
    モデルのパラメータを再推定し、出力音響モデルを作成
    する再評価手段と、 を有することを特徴とする音響モデル学習装置。
  2. 【請求項2】 前記再評価手段は、 前記学習用音声のフレームごとの前記対応確率に、前記
    重み係数を乗算し、前記学習用音声のフレームごとの対
    応確率に重み付けを行い、該重み付けされた対応確率を
    用いて前記統計量を算出し、該算出した統計量に基づい
    て、前記入力音響モデルのパラメータを再推定し、前記
    出力音響モデルを作成することを特徴とする請求項1記
    載の音響モデル学習装置。
  3. 【請求項3】 前記重み計算手段は、前記最尤状態列生
    成手段により、前記学習用辞書を用いて生成された最尤
    状態列を第1の最尤状態列とし、任意の文字列を用いて
    生成された最尤状態列を第2の最尤状態列とした場合、 前記学習用音声のフレームごとに、前記第1の最尤状態
    列と前記第2の最尤状態列とを比較し、該比較に基づい
    て、前記学習用音声のフレームごとに前記重み係数を算
    出することを特徴とする請求項1または2記載の音響モ
    デル学習装置。
  4. 【請求項4】 前記重み計算手段は、 前記学習用音声のフレームごとに、前記第1の最尤状態
    列と前記第2の最尤状態列とを比較し、前記割り当てら
    れた状態あるいは複数の状態からなる状態列が一致した
    フレームでは前記重み係数を1とし、互いに異なるフレ
    ームでは前記重み係数を1より小さな値として算出する
    ことを特徴とする請求項3記載の音響モデル学習装置。
  5. 【請求項5】 前記重み計算手段は、 前記学習用音声のフレームごとに、前記第1の最尤状態
    列と前記第2の最尤状態列とを比較し、前記割り当てら
    れた状態あるいは複数の状態からなる状態列が一致した
    フレームでは前記重み係数を1とし、互いに異なるフレ
    ームでは前記重み係数を1より大きな値として算出する
    ことを特徴とする請求項3記載の音響モデル学習装置。
  6. 【請求項6】 前記重み計算手段は、 前記割り当てられた状態ごとに、算出した前記重み係数
    の和をそれぞれ算出し、該算出した重み係数の和が、そ
    れぞれ等しい値となるように前記算出した重み係数を設
    定することを特徴とする請求項1から5のいずれか1項
    に記載の音響モデル学習装置。
  7. 【請求項7】 入力される学習用音声からフレームごと
    に特徴量を抽出する音声分析工程と、 所定の音声からフレームごとに抽出された特徴量を示す
    確率分布を用いて、前記所定の音声におけるフレームご
    とに分割された前記所定の音声の断片を状態として表現
    し、該状態を構成単位とする入力音響モデルと、前記学
    習用音声の内容を示す文字列情報である正解列と、に基
    づいて、前記入力音響モデルにおける前記状態に前記正
    解列を割り当てた状態列の情報である学習用辞書を生成
    する辞書生成工程と、 該辞書生成工程により生成された学習用辞書を参照し、
    前記学習用音声の特徴量と前記入力音響モデルにおける
    状態との対応確率を前記学習用音声のフレームごとに算
    出する対応確率算出工程と、 所定の文字列を用いて、前記入力音響モデルにより表現
    される前記状態あるいは複数の前記状態からなる状態列
    を、前記学習用音声のフレームごとに最尤に割り当て、
    所定の最尤状態列を生成する最尤状態列生成工程と、 該最尤状態列生成工程により生成された所定の最尤状態
    列に基づいて、前記対応確率に重み付けする際に付加す
    る係数である重み係数を、前記学習用音声のフレームご
    とに算出する重み計算工程と、 前記対応確率算出工程により算出された対応確率と、前
    記重み計算工程により算出された重み係数と、前記音声
    分析工程により算出された特徴量と、に基づいて統計量
    を算出し、該算出した統計量に基づいて、前記入力音響
    モデルのパラメータを再推定し、出力音響モデルを作成
    する再評価工程と、 を有することを特徴とする音響モデル学習方法。
  8. 【請求項8】 前記再評価工程は、 前記学習用音声のフレームごとの前記対応確率に、前記
    重み係数を乗算し、前記学習用音声のフレームごとの対
    応確率に重み付けを行い、該重み付けされた対応確率を
    用いて前記統計量を算出し、該算出した統計量に基づい
    て、前記入力音響モデルのパラメータを再推定し、前記
    出力音響モデルを作成することを特徴とする請求項7記
    載の音響モデル学習方法。
  9. 【請求項9】 前記重み計算工程は、 前記最尤状態列生成工程により、前記学習用辞書を用い
    て生成された最尤状態列を第1の最尤状態列とし、任意
    の文字列を用いて生成された最尤状態列を第2の最尤状
    態列とした場合、 前記学習用音声のフレームごとに、前記第1の最尤状態
    列と前記第2の最尤状態列とを比較し、該比較に基づい
    て、前記学習用音声のフレームごとに前記重み係数を算
    出することを特徴とする請求項7または8記載の音響モ
    デル学習方法。
  10. 【請求項10】 前記重み計算工程は、 前記学習用音声のフレームごとに、前記第1の最尤状態
    列と前記第2の最尤状態列とを比較し、前記割り当てら
    れた状態あるいは複数の状態からなる状態列が一致した
    フレームでは前記重み係数を1とし、互いに異なるフレ
    ームでは前記重み係数を1より小さな値として算出する
    ことを特徴とする請求項9記載の音響モデル学習方法。
  11. 【請求項11】 前記重み計算工程は、 前記学習用音声のフレームごとに、前記第1の最尤状態
    列と前記第2の最尤状態列とを比較し、前記割り当てら
    れた状態あるいは複数の状態からなる状態列が一致した
    フレームでは前記重み係数を1とし、互いに異なるフレ
    ームでは前記重み係数を1より大きな値として算出する
    ことを特徴とする請求項9記載の音響モデル学習方法。
  12. 【請求項12】 前記重み計算工程は、 前記割り当てられた状態ごとに、算出した前記重み係数
    の和をそれぞれ算出し、該算出した重み係数の和が、そ
    れぞれ等しい値となるように前記算出した重み係数を設
    定することを特徴とする請求項7から11のいずれか1
    項に記載の音響モデル学習方法。
  13. 【請求項13】 入力される学習用音声からフレームご
    とに特徴量を抽出する音声分析処理と、 所定の音声からフレームごとに抽出された特徴量を示す
    確率分布を用いて、前記所定の音声におけるフレームご
    とに分割された前記所定の音声の断片を状態として表現
    し、該状態を構成単位とする入力音響モデルと、前記学
    習用音声の内容を示す文字列情報である正解列と、に基
    づいて、前記入力音響モデルにおける前記状態に前記正
    解列を割り当てた状態列の情報である学習用辞書を生成
    する辞書生成処理と、 該辞書生成処理により生成された学習用辞書を参照し、
    前記学習用音声の特徴量と前記入力音響モデルにおける
    状態との対応確率を前記学習用音声のフレームごとに算
    出する対応確率算出処理と、 所定の文字列を用いて、前記入力音響モデルにより表現
    される前記状態あるいは複数の前記状態からなる状態列
    を、前記学習用音声のフレームごとに最尤に割り当て、
    所定の最尤状態列を生成する最尤状態列生成処理と、 該最尤状態列生成処理により生成された所定の最尤状態
    列に基づいて、前記対応確率に重み付けする際に付加す
    る係数である重み係数を、前記学習用音声のフレームご
    とに算出する重み計算処理と、 前記対応確率算出処理により算出された対応確率と、前
    記重み計算処理により算出された重み係数と、前記音声
    分析処理により算出された特徴量と、に基づいて統計量
    を算出し、該算出した統計量に基づいて、前記入力音響
    モデルのパラメータを再推定し、出力音響モデルを作成
    する再評価処理と、 を実行させるためのプログラム。
  14. 【請求項14】 前記再評価処理は、 前記学習用音声のフレームごとの前記対応確率に、前記
    重み係数を乗算し、前記学習用音声のフレームごとの対
    応確率に重み付けを行い、該重み付けされた対応確率を
    用いて前記統計量を算出し、該算出した統計量に基づい
    て、前記入力音響モデルのパラメータを再推定し、前記
    出力音響モデルを作成することを特徴とする請求項13
    記載のプログラム。
  15. 【請求項15】 前記重み計算処理は、 前記最尤状態列生成処理により、前記学習用辞書を用い
    て生成された最尤状態列を第1の最尤状態列とし、任意
    の文字列を用いて生成された最尤状態列を第2の最尤状
    態列とした場合、 前記学習用音声のフレームごとに、前記第1の最尤状態
    列と前記第2の最尤状態列とを比較し、該比較に基づい
    て、前記学習用音声のフレームごとに前記重み係数を算
    出することを特徴とする請求項13または14記載のプ
    ログラム。
  16. 【請求項16】 前記重み計算処理は、 前記学習用音声のフレームごとに、前記第1の最尤状態
    列と前記第2の最尤状態列とを比較し、前記割り当てら
    れた状態あるいは複数の状態からなる状態列が一致した
    フレームでは前記重み係数を1とし、互いに異なるフレ
    ームでは前記重み係数を1より小さな値として算出する
    ことを特徴とする請求項15記載のプログラム。
  17. 【請求項17】 前記重み計算処理は、 前記学習用音声のフレームごとに、前記第1の最尤状態
    列と前記第2の最尤状態列とを比較し、前記割り当てら
    れた状態あるいは複数の状態からなる状態列が一致した
    フレームでは前記重み係数を1とし、互いに異なるフレ
    ームでは前記重み係数を1より大きな値として算出する
    ことを特徴とする請求項15記載の音響モデル学習装
    置。
  18. 【請求項18】 前記重み計算処理は、 前記割り当てられた状態ごとに、算出した前記重み係数
    の和をそれぞれ算出し、該算出した重み係数の和が、そ
    れぞれ等しい値となるように前記算出した重み係数を設
    定することを特徴とする請求項13から17のいずれか
    1項に記載の音響モデル学習装置。
JP2001179125A 2001-06-13 2001-06-13 音響モデル学習装置、音響モデル学習方法、およびそのプログラム Expired - Fee Related JP4779239B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001179125A JP4779239B2 (ja) 2001-06-13 2001-06-13 音響モデル学習装置、音響モデル学習方法、およびそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001179125A JP4779239B2 (ja) 2001-06-13 2001-06-13 音響モデル学習装置、音響モデル学習方法、およびそのプログラム

Publications (2)

Publication Number Publication Date
JP2002372987A true JP2002372987A (ja) 2002-12-26
JP4779239B2 JP4779239B2 (ja) 2011-09-28

Family

ID=19019731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001179125A Expired - Fee Related JP4779239B2 (ja) 2001-06-13 2001-06-13 音響モデル学習装置、音響モデル学習方法、およびそのプログラム

Country Status (1)

Country Link
JP (1) JP4779239B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005241716A (ja) * 2004-02-24 2005-09-08 Kawai Musical Instr Mfg Co Ltd 自然楽器の楽音判定装置におけるモデル作成装置およびモデル作成用プログラム
JP2007322984A (ja) * 2006-06-05 2007-12-13 Nippon Telegr & Teleph Corp <Ntt> モデル学習方法、情報抽出方法、モデル学習装置、情報抽出装置、モデル学習プログラム、情報抽出プログラム、およびそれらプログラムを記録した記録媒体
JP2008129527A (ja) * 2006-11-24 2008-06-05 Nippon Telegr & Teleph Corp <Ntt> 音響モデル生成装置、方法、プログラム及びその記録媒体
JP2009210829A (ja) * 2008-03-04 2009-09-17 Nippon Hoso Kyokai <Nhk> 音響モデル学習装置およびプログラム
JP2010055030A (ja) * 2008-08-29 2010-03-11 Nippon Hoso Kyokai <Nhk> 音響処理装置およびプログラム
JP2013214016A (ja) * 2012-04-04 2013-10-17 Nippon Telegr & Teleph Corp <Ntt> 音響モデル性能評価装置とその方法とプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0612090A (ja) * 1992-06-26 1994-01-21 Nec Corp 音声学習方式
JP2000305589A (ja) * 1999-04-16 2000-11-02 Kobe Steel Ltd 適応型音声認識装置,音声処理装置,及びペット玩具

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0612090A (ja) * 1992-06-26 1994-01-21 Nec Corp 音声学習方式
JP2000305589A (ja) * 1999-04-16 2000-11-02 Kobe Steel Ltd 適応型音声認識装置,音声処理装置,及びペット玩具

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005241716A (ja) * 2004-02-24 2005-09-08 Kawai Musical Instr Mfg Co Ltd 自然楽器の楽音判定装置におけるモデル作成装置およびモデル作成用プログラム
JP4609921B2 (ja) * 2004-02-24 2011-01-12 株式会社河合楽器製作所 自然楽器の楽音判定装置におけるモデル作成装置およびモデル作成用プログラム
JP2007322984A (ja) * 2006-06-05 2007-12-13 Nippon Telegr & Teleph Corp <Ntt> モデル学習方法、情報抽出方法、モデル学習装置、情報抽出装置、モデル学習プログラム、情報抽出プログラム、およびそれらプログラムを記録した記録媒体
JP2008129527A (ja) * 2006-11-24 2008-06-05 Nippon Telegr & Teleph Corp <Ntt> 音響モデル生成装置、方法、プログラム及びその記録媒体
JP4705557B2 (ja) * 2006-11-24 2011-06-22 日本電信電話株式会社 音響モデル生成装置、方法、プログラム及びその記録媒体
JP2009210829A (ja) * 2008-03-04 2009-09-17 Nippon Hoso Kyokai <Nhk> 音響モデル学習装置およびプログラム
JP2010055030A (ja) * 2008-08-29 2010-03-11 Nippon Hoso Kyokai <Nhk> 音響処理装置およびプログラム
JP2013214016A (ja) * 2012-04-04 2013-10-17 Nippon Telegr & Teleph Corp <Ntt> 音響モデル性能評価装置とその方法とプログラム

Also Published As

Publication number Publication date
JP4779239B2 (ja) 2011-09-28

Similar Documents

Publication Publication Date Title
Ghai et al. Literature review on automatic speech recognition
US8019602B2 (en) Automatic speech recognition learning using user corrections
EP1447792B1 (en) Method and apparatus for modeling a speech recognition system and for predicting word error rates from text
US7366669B2 (en) Acoustic model creation method as well as acoustic model creation apparatus and speech recognition apparatus
JPH06110493A (ja) 音声モデルの構成方法及び音声認識装置
KR20060050361A (ko) 음성 분류 및 음성 인식을 위한 은닉 조건부 랜덤 필드모델
KR101014086B1 (ko) 음성 처리 장치 및 방법, 및 기록 매체
JP3092491B2 (ja) 記述長最小基準を用いたパターン適応化方式
CN112349289A (zh) 一种语音识别方法、装置、设备以及存储介质
JP2004226982A (ja) 隠れ軌跡隠れマルコフモデルを使用した音声認識の方法
CN117043857A (zh) 用于英语发音评估的方法、设备和计算机程序产品
JP5180800B2 (ja) 統計的発音変異モデルを記憶する記録媒体、自動音声認識システム及びコンピュータプログラム
Metze Articulatory features for conversational speech recognition
Ling An acoustic model for English speech recognition based on deep learning
JP4779239B2 (ja) 音響モデル学習装置、音響モデル学習方法、およびそのプログラム
Azim et al. Large vocabulary Arabic continuous speech recognition using tied states acoustic models
JP4283133B2 (ja) 音声認識装置
EP4068279B1 (en) Method and system for performing domain adaptation of end-to-end automatic speech recognition model
Toledano et al. Initialization, training, and context-dependency in HMM-based formant tracking
Fung et al. Pronunciation modeling of Mandarin casual speech
JP2004139033A (ja) 音声合成方法、音声合成装置および音声合成プログラム
Wester Pronunciation variation modeling for Dutch automatic speech recognition
JP2003345388A (ja) 音声認識装置、音声認識方法、および、音声認識プログラム
Shukla Keywords Extraction and Sentiment Analysis using Automatic Speech Recognition
Dessalegn Syllable based speaker independent Continous speech recognition for Afan Oromo

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080514

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110607

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110620

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140715

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4779239

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees