JP3171107B2 - 音声認識装置 - Google Patents
音声認識装置Info
- Publication number
- JP3171107B2 JP3171107B2 JP13095696A JP13095696A JP3171107B2 JP 3171107 B2 JP3171107 B2 JP 3171107B2 JP 13095696 A JP13095696 A JP 13095696A JP 13095696 A JP13095696 A JP 13095696A JP 3171107 B2 JP3171107 B2 JP 3171107B2
- Authority
- JP
- Japan
- Prior art keywords
- syllable
- recognition result
- average
- length
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Description
【0001】
【発明の属する技術分野】本発明は音声認識装置に関
し、特に、音節などの音響的単位の継続時間長を用いた
音声認識装置に関する。
し、特に、音節などの音響的単位の継続時間長を用いた
音声認識装置に関する。
【0002】
【従来の技術】従来、DP(動的計画法)マッチング
や、隠れマルコフモデル(hidden Markov model;「H
MM」という)を用いた音声認識装置が実用化されてい
る。ここでDPマッチングを簡単に説明すると、例えば
標準パターンと入力音声との音声区間全体にわたったス
ペクトル距離を計算する際に、両者の同じ音素同士が対
応するように時間軸を伸縮する時間軸正規化を行うため
のものである。またHMMは、各単語あるいは各音素ご
とに少数の状態からなる推移図(マルコフモデル)を構
成し、入力音声がいずれのモデルによって生成された可
能性が最も大きいかを調べて認識する方法であり、この
時観測されるのは推移によって生じるスペクトル列であ
って状態そのものは観測されないことから「隠れ」と呼
ばれている。各モデルについて、学習サンプルを用いて
各状態でのスペクトルパラメータの生起確率と状態間の
推移確率を推定しておき、認識時には、入力音声を各モ
デルにあてはめて入力音声を生成する確率が最も高いモ
デルを選択して認識結果とする。
や、隠れマルコフモデル(hidden Markov model;「H
MM」という)を用いた音声認識装置が実用化されてい
る。ここでDPマッチングを簡単に説明すると、例えば
標準パターンと入力音声との音声区間全体にわたったス
ペクトル距離を計算する際に、両者の同じ音素同士が対
応するように時間軸を伸縮する時間軸正規化を行うため
のものである。またHMMは、各単語あるいは各音素ご
とに少数の状態からなる推移図(マルコフモデル)を構
成し、入力音声がいずれのモデルによって生成された可
能性が最も大きいかを調べて認識する方法であり、この
時観測されるのは推移によって生じるスペクトル列であ
って状態そのものは観測されないことから「隠れ」と呼
ばれている。各モデルについて、学習サンプルを用いて
各状態でのスペクトルパラメータの生起確率と状態間の
推移確率を推定しておき、認識時には、入力音声を各モ
デルにあてはめて入力音声を生成する確率が最も高いモ
デルを選択して認識結果とする。
【0003】このDPマッチングや隠れマルコフモデル
を用いた音声認識装置において、音節などのサブワード
を認識単位として、入力パターンと標準パターンとのマ
ッチングを行なう場合、各認識単位の継続時間長の情報
を用いて認識性能の向上を図る方法がある。例えば、音
韻ごとの継続時間長の最大値と最小値を予め設定してお
いて、これによりマッチング区間を制約する方法が一般
に知られている。
を用いた音声認識装置において、音節などのサブワード
を認識単位として、入力パターンと標準パターンとのマ
ッチングを行なう場合、各認識単位の継続時間長の情報
を用いて認識性能の向上を図る方法がある。例えば、音
韻ごとの継続時間長の最大値と最小値を予め設定してお
いて、これによりマッチング区間を制約する方法が一般
に知られている。
【0004】以下、この種の従来の技術について図7を
参照して説明する。
参照して説明する。
【0005】図7を参照すると、入力音声は音声認識部
701に入力され、特徴ベクトルの時系列に変換され
る。音声認識部701は、単語辞書702中の各単語に
ついて、辞書702に書かれた読みの情報に基づいて音
韻標準パターン703を連結した単語標準パターンと、
特徴ベクトルの時系列に変換された入力音声との照合を
DPマッチングを用いて行なう。その際、各音韻の継続
時間長の最大、最小値を音韻継続時間長情報704から
読み出し、音韻の継続時間がその範囲外となるマッチン
グは禁止する。マッチングの結果、距離が最小となる単
語を、認識結果として出力する。
701に入力され、特徴ベクトルの時系列に変換され
る。音声認識部701は、単語辞書702中の各単語に
ついて、辞書702に書かれた読みの情報に基づいて音
韻標準パターン703を連結した単語標準パターンと、
特徴ベクトルの時系列に変換された入力音声との照合を
DPマッチングを用いて行なう。その際、各音韻の継続
時間長の最大、最小値を音韻継続時間長情報704から
読み出し、音韻の継続時間がその範囲外となるマッチン
グは禁止する。マッチングの結果、距離が最小となる単
語を、認識結果として出力する。
【0006】音韻の継続時間の最大値、最小値は、音韻
ラベルのつけられた学習データを用いて、予め求めてお
く。これにより、時間軸の極端な伸縮による不適切なマ
ッチングが排除される。また、例えば「おばあさん」と
「おばさん」のように、違いが、主に、音韻の継続時間
長にある単語同士の認識が容易になり、認識性能が向上
する。
ラベルのつけられた学習データを用いて、予め求めてお
く。これにより、時間軸の極端な伸縮による不適切なマ
ッチングが排除される。また、例えば「おばあさん」と
「おばさん」のように、違いが、主に、音韻の継続時間
長にある単語同士の認識が容易になり、認識性能が向上
する。
【0007】
【発明が解決しようとする課題】上記した従来の方法
は、ある決められた速度で発声される場合には有効であ
るが、音韻あるいは音節の継続時間長の最大値、最小値
は発生速度によって変わる。すなわち、上記従来の方法
においては、音韻の継続時間長の最大値、最小値として
予め決めた値を固定して用いるため、発声速度の変動に
弱い(すなわち認識性能が該変動の影響を受け易い)と
いう問題点を有している。
は、ある決められた速度で発声される場合には有効であ
るが、音韻あるいは音節の継続時間長の最大値、最小値
は発生速度によって変わる。すなわち、上記従来の方法
においては、音韻の継続時間長の最大値、最小値として
予め決めた値を固定して用いるため、発声速度の変動に
弱い(すなわち認識性能が該変動の影響を受け易い)と
いう問題点を有している。
【0008】従って、本発明は、上記事情に鑑みてなさ
れたものであって、その目的は、継続時間長を利用する
ことにより認識性能が高く、しかも発声速度の変動に強
い音声認識装置を提供することにある。
れたものであって、その目的は、継続時間長を利用する
ことにより認識性能が高く、しかも発声速度の変動に強
い音声認識装置を提供することにある。
【0009】
【課題を解決するための手段】前記目的を達成するた
め、本発明に係る音声認識装置は、認識すべき入力音声
から平均音節長を求め、その平均音節長と認識結果候補
の各音節の継続時間長に基づいて、認識結果候補からの
選択あるいは認識結果の修正を行なうことを特徴として
いる。
め、本発明に係る音声認識装置は、認識すべき入力音声
から平均音節長を求め、その平均音節長と認識結果候補
の各音節の継続時間長に基づいて、認識結果候補からの
選択あるいは認識結果の修正を行なうことを特徴として
いる。
【0010】本発明に係る音声認識装置は、入力音声を
認識し、複数の認識結果候補を、各音節の継続時間長の
情報を付加して、出力する音声認識手段と、前記入力音
声から音節境界候補を求める音節境界候補検出手段と、
前記音節境界候補から平均音節長を求める平均音節長推
定手段と、前記認識結果候補と前記平均音節長とに基づ
いて前記複数の認識結果候補から認識結果を選択する候
補選択手段と、を含む。
認識し、複数の認識結果候補を、各音節の継続時間長の
情報を付加して、出力する音声認識手段と、前記入力音
声から音節境界候補を求める音節境界候補検出手段と、
前記音節境界候補から平均音節長を求める平均音節長推
定手段と、前記認識結果候補と前記平均音節長とに基づ
いて前記複数の認識結果候補から認識結果を選択する候
補選択手段と、を含む。
【0011】また、本発明に係る音声認識装置は、入力
音声を認識し、複数の認識結果候補を、音節ごとのセグ
メンテーション又は各音節の継続時間長の情報を付加し
て、出力する音声認識手段と、前記認識結果の各候補に
ついて平均音節長を求める平均音節長推定手段と、前記
認識結果候補と前記平均音節長とに基づいて前記複数の
認識結果候補から認識結果を選択する候補選択手段と、
を含む。
音声を認識し、複数の認識結果候補を、音節ごとのセグ
メンテーション又は各音節の継続時間長の情報を付加し
て、出力する音声認識手段と、前記認識結果の各候補に
ついて平均音節長を求める平均音節長推定手段と、前記
認識結果候補と前記平均音節長とに基づいて前記複数の
認識結果候補から認識結果を選択する候補選択手段と、
を含む。
【0012】本発明によれば、平均音節長を用いて認識
結果の候補の選択あるいは修正を行なうため、認識時に
時間軸の極端な伸縮による不適切なマッチングをした候
補は棄却あるいは修正されて認識性能が向上し、さらに
平均音節長を入力音声自身から求めているので、発声速
度の変動の影響を受けにくい。
結果の候補の選択あるいは修正を行なうため、認識時に
時間軸の極端な伸縮による不適切なマッチングをした候
補は棄却あるいは修正されて認識性能が向上し、さらに
平均音節長を入力音声自身から求めているので、発声速
度の変動の影響を受けにくい。
【0013】
【発明の実施の形態】本発明の実施の形態について図面
を参照して以下に説明する。
を参照して以下に説明する。
【0014】本発明の第1の実施の形態を図1を参照し
て説明する。図1は、本発明の第1の実施の形態の構成
をブロック図にて示したものである。
て説明する。図1は、本発明の第1の実施の形態の構成
をブロック図にて示したものである。
【0015】入力音声は音声認識部101に入力され、
特徴ベクトルの時系列に変換される。音声認識部101
は、単語辞書102中の各単語について、単語辞書10
2に書かれた読みの情報に基づいて音節標準パターン1
03を連結した単語標準パターンと、特徴ベクトルの時
系列に変換された入力音声との照合を行ない、照合スコ
アおよび音節ごとのセグメンテーションを求める。照合
には、例えばDPマッチングを用いることができる。あ
るいは、音節標準パターンを隠れマルコフモデルで表
し、照合にはビタビアルゴリズムを用いることもでき
る。
特徴ベクトルの時系列に変換される。音声認識部101
は、単語辞書102中の各単語について、単語辞書10
2に書かれた読みの情報に基づいて音節標準パターン1
03を連結した単語標準パターンと、特徴ベクトルの時
系列に変換された入力音声との照合を行ない、照合スコ
アおよび音節ごとのセグメンテーションを求める。照合
には、例えばDPマッチングを用いることができる。あ
るいは、音節標準パターンを隠れマルコフモデルで表
し、照合にはビタビアルゴリズムを用いることもでき
る。
【0016】そして、照合結果のスコアに基づいて複数
の認識結果候補を選択し、照合スコアと各音節の継続時
間長の情報つきで候補選択部106に出力する。各音節
の継続時間長は、音節ごとのセグメンテーション情報か
ら容易に計算できる。
の認識結果候補を選択し、照合スコアと各音節の継続時
間長の情報つきで候補選択部106に出力する。各音節
の継続時間長は、音節ごとのセグメンテーション情報か
ら容易に計算できる。
【0017】例えば「おばあさん」と発声した場合の、
認識結果候補の一例を図2に示す。なお、音声認識部1
01では、単語辞書とともに構文規則を用いて、文ある
いは文節の連続音声認識を行なうこともできる。
認識結果候補の一例を図2に示す。なお、音声認識部1
01では、単語辞書とともに構文規則を用いて、文ある
いは文節の連続音声認識を行なうこともできる。
【0018】一方、図1を再び参照して、入力音声は音
節境界検出部104にも入力され、音節境界検出部10
4はパワーなどの情報を用いて音節境界の位置の候補を
求め、平均音節長推定部105に出力する。
節境界検出部104にも入力され、音節境界検出部10
4はパワーなどの情報を用いて音節境界の位置の候補を
求め、平均音節長推定部105に出力する。
【0019】音節境界候補の一例を図3に示す。音節境
界候補には誤った音節境界が含まれていたり、正しい音
節境界が含まれていなかったりすることがあるが、平均
音節長推定部105(図1参照)では、各音節の継続時
間長がほぼ一定であることを利用して、音節境界候補の
情報を基に入力音声の平均音節長を推定する。
界候補には誤った音節境界が含まれていたり、正しい音
節境界が含まれていなかったりすることがあるが、平均
音節長推定部105(図1参照)では、各音節の継続時
間長がほぼ一定であることを利用して、音節境界候補の
情報を基に入力音声の平均音節長を推定する。
【0020】隣り合う音節境界候補の間の区間を音声区
間候補とみたとき、他の音節区間候補の時間長と比べて
極端に長い音節区間候補は、実際にはその中に複数の音
節が含まれると考えられ、また極端に短い音節区間候補
は、隣接する音節区間候補と合わせて1音節分であると
考えられる。
間候補とみたとき、他の音節区間候補の時間長と比べて
極端に長い音節区間候補は、実際にはその中に複数の音
節が含まれると考えられ、また極端に短い音節区間候補
は、隣接する音節区間候補と合わせて1音節分であると
考えられる。
【0021】例えば、図3に示した、音節境界候補の一
例の場合、第2の音節境界候補と第3の音節境界候補の
間の区間(240〜540msecの区間)には、実際
には2音節含まれると考えられる。これを考慮すると、
図3の例では、平均音節長は約150msecと推定さ
れる。具体的には、例えば以下に説明するような方法で
平均音節長を推定する。
例の場合、第2の音節境界候補と第3の音節境界候補の
間の区間(240〜540msecの区間)には、実際
には2音節含まれると考えられる。これを考慮すると、
図3の例では、平均音節長は約150msecと推定さ
れる。具体的には、例えば以下に説明するような方法で
平均音節長を推定する。
【0022】音節長と音節数と最初の音節の開始点を仮
定すると、全ての音節境界が決まるので、これと音声境
界検出部104の出力した音節境界候補とを比較し、そ
の類似度を求める。
定すると、全ての音節境界が決まるので、これと音声境
界検出部104の出力した音節境界候補とを比較し、そ
の類似度を求める。
【0023】類似度は、音節境界候補の挿入、脱落、位
置のずれに対するペナルティーを予め設定しておくこと
により計算される。
置のずれに対するペナルティーを予め設定しておくこと
により計算される。
【0024】音節長、音節数、最初の音節の開始点を変
化させて、類似度が最も大きいものを求め、そのときの
音節長を平均音節長する。平均音節長の推定には、それ
以前の発声に対して推定された平均音節長を利用し、こ
の平均音節長と当該発声の平均音節長の差を類似度を求
める際に、ペナルティーとして加えることもできる。
化させて、類似度が最も大きいものを求め、そのときの
音節長を平均音節長する。平均音節長の推定には、それ
以前の発声に対して推定された平均音節長を利用し、こ
の平均音節長と当該発声の平均音節長の差を類似度を求
める際に、ペナルティーとして加えることもできる。
【0025】候補選択部106では、音声認識部101
が出力した各候補について、その照合スコアの順に、各
音節の継続時間長が、平均音節長推定部105で求めた
平均音節長に基づいて決まる最小継続時間と最大継続時
間の間にあるか否かを調べる。
が出力した各候補について、その照合スコアの順に、各
音節の継続時間長が、平均音節長推定部105で求めた
平均音節長に基づいて決まる最小継続時間と最大継続時
間の間にあるか否かを調べる。
【0026】そして、継続時間長がこの範囲内にない音
節が一つでもある場合には、その候補を棄却する。
節が一つでもある場合には、その候補を棄却する。
【0027】全ての音節について、継続時間長が上記範
囲内にある候補が見つかったら、これを認識結果として
出力し、選択を終了する。
囲内にある候補が見つかったら、これを認識結果として
出力し、選択を終了する。
【0028】最小継続時間と最大継続時間は、例えば平
均音節長との差あるいは比が予め決めた値であるように
設定する。この差あるいは比は、音節ごとに共通の値を
用いることもできるが、より精密には、音節の種類ごと
に異なる値を用いることもできる。
均音節長との差あるいは比が予め決めた値であるように
設定する。この差あるいは比は、音節ごとに共通の値を
用いることもできるが、より精密には、音節の種類ごと
に異なる値を用いることもできる。
【0029】例えば、ある入力音声に対し、図2に示し
たような複数の認識結果候補が得られ、平均音節長が1
50msecと推定されたものとする。図2を参照し
て、各認識結果候補毎に、音節及び該音節の長さ情報が
格納されている。最小継続時間および最大継続時間は、
平均音節長との差30msec以内として設定されると
すると、最小継続時間は120msec、最大継続時間
は180msecとなる。
たような複数の認識結果候補が得られ、平均音節長が1
50msecと推定されたものとする。図2を参照し
て、各認識結果候補毎に、音節及び該音節の長さ情報が
格納されている。最小継続時間および最大継続時間は、
平均音節長との差30msec以内として設定されると
すると、最小継続時間は120msec、最大継続時間
は180msecとなる。
【0030】そして、図2に示した複数の認識結果候補
のうち、第1候補は、第2音節(310msec)が最
大継続時間(180msec)を越えるため棄却され、
第2候補が選ばれて認識結果として出力される。
のうち、第1候補は、第2音節(310msec)が最
大継続時間(180msec)を越えるため棄却され、
第2候補が選ばれて認識結果として出力される。
【0031】また、候補選択部106は以下のように構
成することもできる。すなわち、音声認識部101が出
力した各候補について、各音節ごとにその継続時間長と
平均音節長推定部105で求めた平均音節長に基づいて
継続時間スコアを求める。
成することもできる。すなわち、音声認識部101が出
力した各候補について、各音節ごとにその継続時間長と
平均音節長推定部105で求めた平均音節長に基づいて
継続時間スコアを求める。
【0032】これらの継続時間スコアと、音声認識部1
01で求めた照合スコアから候補の総合スコアを求め、
総合スコアの最も高い候補を認識結果として出力する。
継続時間スコアの求め方としては、例えば音節の継続時
間に関する分布を平均音節長に基づいて定め、その分布
をもとに各音節の継続時間に対する尤度として求めるこ
とができる。継続時間の分布は、例えば分散が予め音節
の種類ごとに定められたガウス分布と仮定して、その平
均値を平均音節長とすることにより決めることができ
る。
01で求めた照合スコアから候補の総合スコアを求め、
総合スコアの最も高い候補を認識結果として出力する。
継続時間スコアの求め方としては、例えば音節の継続時
間に関する分布を平均音節長に基づいて定め、その分布
をもとに各音節の継続時間に対する尤度として求めるこ
とができる。継続時間の分布は、例えば分散が予め音節
の種類ごとに定められたガウス分布と仮定して、その平
均値を平均音節長とすることにより決めることができ
る。
【0033】次に、本発明の第2の実施の形態を説明す
る。図4は、本発明の第2の実施の形態の構成をブロッ
ク図にて示したものである。
る。図4は、本発明の第2の実施の形態の構成をブロッ
ク図にて示したものである。
【0034】図4を参照すると、入力音声は音声認識部
401に入力され、音声認識部401は、前記第1の実
施の形態の場合と同様にして照合を行ない、複数の認識
結果候補をその照合スコアと音節ごとのセグメンテーシ
ョンの情報つきで、候補選択部405と平均音節長推定
部404に、照合スコアの順に順次出力する。
401に入力され、音声認識部401は、前記第1の実
施の形態の場合と同様にして照合を行ない、複数の認識
結果候補をその照合スコアと音節ごとのセグメンテーシ
ョンの情報つきで、候補選択部405と平均音節長推定
部404に、照合スコアの順に順次出力する。
【0035】平均音節長推定部404では、認識結果の
各候補ごとに、そのセグメンテーションによる音節の境
界を、前記第1の実施の形態における音節境界候補と同
様に扱うことにより、入力音声の平均音節長を推定す
る。
各候補ごとに、そのセグメンテーションによる音節の境
界を、前記第1の実施の形態における音節境界候補と同
様に扱うことにより、入力音声の平均音節長を推定す
る。
【0036】なお、平均音節長の推定は、音節境界の相
対的な位置関係のみからでも行なえるので、認識結果候
補に付加する情報として、音節ごとのセグメンテーショ
ンのかわりに各音節の継続時間長の情報を用いてもよ
い。
対的な位置関係のみからでも行なえるので、認識結果候
補に付加する情報として、音節ごとのセグメンテーショ
ンのかわりに各音節の継続時間長の情報を用いてもよ
い。
【0037】候補選択部405では、認識結果候補ごと
に、セグメンテーションより求められる各音節の継続時
間長が、平均音節長推定部404で求めた平均音節長に
基づいて決まる最小継続時間と最大継続時間の間にある
か否かを調べる。
に、セグメンテーションより求められる各音節の継続時
間長が、平均音節長推定部404で求めた平均音節長に
基づいて決まる最小継続時間と最大継続時間の間にある
か否かを調べる。
【0038】継続時間長がこの範囲内にない音節が一つ
でもある場合には、その候補を棄却する。全ての音節に
ついて、その継続時間長が範囲内にある候補が見つかっ
たら、それを認識結果として出力し、選択を終了する。
でもある場合には、その候補を棄却する。全ての音節に
ついて、その継続時間長が範囲内にある候補が見つかっ
たら、それを認識結果として出力し、選択を終了する。
【0039】候補選択部405の動作は、平均音節長が
音節候補ごとに異なることを除き、前記第1の実施の形
態の場合と同様である。
音節候補ごとに異なることを除き、前記第1の実施の形
態の場合と同様である。
【0040】また、第1位の候補について求めた平均音
節長を、その他の候補についても用いることもできる。
節長を、その他の候補についても用いることもできる。
【0041】さらに、前記第1の実施の形態で説明した
ように、各認識結果候補について継続時間スコアを求め
て、総合スコアにより選択することもできる。
ように、各認識結果候補について継続時間スコアを求め
て、総合スコアにより選択することもできる。
【0042】次に、本発明の第3の実施の形態を説明す
る。図5は、本発明の第3の実施の形態の構成をブロッ
ク図にて示したものである。
る。図5は、本発明の第3の実施の形態の構成をブロッ
ク図にて示したものである。
【0043】図5を参照すると、入力音声は音声認識部
501に入力され、特徴ベクトルの時系列に変換され
る。音声認識部501は、音節標準パターン503と音
節列接続規則502を用いて、入力音声を任意の音節列
として認識する。
501に入力され、特徴ベクトルの時系列に変換され
る。音声認識部501は、音節標準パターン503と音
節列接続規則502を用いて、入力音声を任意の音節列
として認識する。
【0044】ここで、音節接続規則は、例えば「『ん』
は連続せず、語頭にも現れない」、「『っ』のあとに母
音はこない」、などの日本語の音節の一般的な接続規則
を表したものであり、好ましくは有限状態ネットワーク
により表現することができる。
は連続せず、語頭にも現れない」、「『っ』のあとに母
音はこない」、などの日本語の音節の一般的な接続規則
を表したものであり、好ましくは有限状態ネットワーク
により表現することができる。
【0045】ネットワークの各遷移に、確率を付与する
こともできる。
こともできる。
【0046】音声認識部501は、有限状態ネットワー
ク制御の連続音声認識アルゴリズムにより認識を行な
い、最もスコアのよい音節列を仮認識結果として、音節
ごとのセグメンテーションの情報つきで、認識結果修正
部506と平均音節長推定部505に出力する。
ク制御の連続音声認識アルゴリズムにより認識を行な
い、最もスコアのよい音節列を仮認識結果として、音節
ごとのセグメンテーションの情報つきで、認識結果修正
部506と平均音節長推定部505に出力する。
【0047】平均音節長推定部505では、仮認識結果
のセグメンテーション情報をもとに、前記第2の実施の
形態と同様に、入力音声の平均音節長を推定する。
のセグメンテーション情報をもとに、前記第2の実施の
形態と同様に、入力音声の平均音節長を推定する。
【0048】認識結果修正部506では、仮認識結果に
ついて、セグメンテーションより求められる各音節の継
続時間長と、平均音節長推定部で求めた平均音節長を比
較する。継続時間長と平均音節長の比が予め定めた一定
の範囲にない場合は、音節列修正規則504を参照し
て、その音節あるいは隣接する音節を含む音節列を別の
音節あるいは音節列に置き換えることにより、仮認識結
果を修正する。修正した結果得られた文字列を、認識結
果として出力する。
ついて、セグメンテーションより求められる各音節の継
続時間長と、平均音節長推定部で求めた平均音節長を比
較する。継続時間長と平均音節長の比が予め定めた一定
の範囲にない場合は、音節列修正規則504を参照し
て、その音節あるいは隣接する音節を含む音節列を別の
音節あるいは音節列に置き換えることにより、仮認識結
果を修正する。修正した結果得られた文字列を、認識結
果として出力する。
【0049】本発明の第3の実施の形態における音節列
修正規則の一例を図6に示す。
修正規則の一例を図6に示す。
【0050】図6を参照して、音節列修正規則は、分割
規則と併合規則からなる。継続時間長が平均音節長の2
倍程度以上の場合には、分割規則にしたがい、その音節
を修正後の音節列に置き換える。
規則と併合規則からなる。継続時間長が平均音節長の2
倍程度以上の場合には、分割規則にしたがい、その音節
を修正後の音節列に置き換える。
【0051】また、継続時間長が平均音節長の半分程度
以下で、隣接する音節の継続時間長と合わせてほぼ平均
音節長となるような音節については、併合規則に従い、
当該音節と隣接する音節をまとめて1音節に置き換え
る。
以下で、隣接する音節の継続時間長と合わせてほぼ平均
音節長となるような音節については、併合規則に従い、
当該音節と隣接する音節をまとめて1音節に置き換え
る。
【0052】図6では、非常に簡単な音節列修正規則の
例を示したが、実際には継続時間長や前後の音節環境に
より規則の適用に制約や優先条件を付けたり、より複雑
な修正規則を与えたりすることも可能である。
例を示したが、実際には継続時間長や前後の音節環境に
より規則の適用に制約や優先条件を付けたり、より複雑
な修正規則を与えたりすることも可能である。
【0053】本発明の第3の実施の形態において、平均
音節長を仮認識結果から求めるかわりに、前記第1の実
施の形態と同様に、音節境界検出部を設け、その出力す
る音節境界候補から求めることも可能である。
音節長を仮認識結果から求めるかわりに、前記第1の実
施の形態と同様に、音節境界検出部を設け、その出力す
る音節境界候補から求めることも可能である。
【0054】なお、上記した本発明の実施の形態では、
音声の認識単位および継続時間長を求める単位として音
節を用いたが、音節に限らず、音素や半音節など任意の
音響的単位を用いることができる。
音声の認識単位および継続時間長を求める単位として音
節を用いたが、音節に限らず、音素や半音節など任意の
音響的単位を用いることができる。
【0055】また、本発明においては、音声の認識単位
と継続時間長を求める単位は必ずしも同じである必要は
なく、例えば音声の認識単位として音素を用い、継続時
間長を求める単位として音節を用いることもできる。さ
らに、平均音節長を求める際に、音節境界候補から求め
る替わりに、例えば音節の母音の中心部の候補から求め
ることもできる。
と継続時間長を求める単位は必ずしも同じである必要は
なく、例えば音声の認識単位として音素を用い、継続時
間長を求める単位として音節を用いることもできる。さ
らに、平均音節長を求める際に、音節境界候補から求め
る替わりに、例えば音節の母音の中心部の候補から求め
ることもできる。
【0056】
【発明の効果】以上説明したように、本発明によれば、
発声速度の変動によらず、音節等の継続時間を利用した
高性能な認識が可能な音声認識装置を実現したものであ
る。
発声速度の変動によらず、音節等の継続時間を利用した
高性能な認識が可能な音声認識装置を実現したものであ
る。
【図1】本発明の第1の実施形態を示すブロック図であ
る。
る。
【図2】本発明の第1の実施形態における認識結果候補
の一例を示す図である。
の一例を示す図である。
【図3】本発明の第1の実施形態における音節境界候補
の一例を示す図である。
の一例を示す図である。
【図4】本発明の第2の実施形態を示すブロック図であ
る。
る。
【図5】本発明の第3の実施形態を示すブロック図であ
る。
る。
【図6】本発明の第3の実施形態における音声修正規則
の一例を示す図である。
の一例を示す図である。
【図7】従来例のブロック図である。
101 音声認識部 102 単語辞書 103 音節標準パターン 104 音節境界検出部 105 平均音節長推定部 106 候補選択部
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI G10L 3/00 561F (56)参考文献 特開 昭60−73598(JP,A) 特開 平6−301400(JP,A) 特開 平5−197386(JP,A) 特開 平4−121792(JP,A) 特開 昭63−44699(JP,A) 特開 昭61−240299(JP,A) 特開 昭61−175700(JP,A) 特開 昭58−102999(JP,A) 特開 昭57−181600(JP,A) 特開 昭63−44699(JP,A) 特開 昭60−188999(JP,A) 特開 昭64−49096(JP,A) 特許3114389(JP,B2) 特公 平7−66276(JP,B2) 特公 昭63−16766(JP,B2) 特公 平7−19159(JP,B2) 日本音響学会平成3年度秋季研究発表 会講演論文集▲I▼,2−P−9,滝沢 由実外「連続音声認識における音節継続 時間の予想法について」,p.155−156 (平成3年10月2日発行) 日本音響学会平成4年度秋季研究発表 会講演論文集▲I▼,2−Q−22,滝沢 由実外「連続音声における近傍音節を考 慮した音節継続時間予想法」,p.215 −216(平成4年10月5日発行) 日本音響学会平成5年度春季研究発表 会講演論文集▲I▼,2−4−2,滝沢 由実外「音節を認識単位とした単語認識 における音節継続時間予測法」,p.21 −23(平成5年3月17日発行) (58)調査した分野(Int.Cl.7,DB名) G10L 15/00 - 17/00 JICSTファイル(JOIS)
Claims (10)
- 【請求項1】入力音声から求められた音節境界候補ある
いは入力音声の認識結果候補から平均音節長を求める平
均音節長推定手段と、 前記 入力音声に対する認識結果候補から前記認識結果候
補の各音節の継続時間長と前記求められた平均音節長と
に基づいて認識結果を選択する候補選択手段とを備えた
ことを特徴とする音声認識装置。 - 【請求項2】入力音声を認識し、複数の認識結果候補
を、各音節の継続時間長の情報を付加して、出力する音
声認識手段と、 前記入力音声から音節境界候補を求める音節境界候補検
出手段と、 前記音節境界候補から平均音節長を求める平均音節長推
定手段と、 前記認識結果候補と前記平均音節長とに基づいて前記複
数の認識結果候補から認識結果を選択する候補選択手段
と、 を含むことを特徴とする音声認識装置。 - 【請求項3】入力音声を認識し、複数の認識結果候補
を、音節ごとのセグメンテーション又は各音節の継続時
間長の情報を付加して、出力する音声認識手段と、 前記認識結果の各候補について平均音節長を求める平均
音節長推定手段と、 前記認識結果候補と前記平均音節長とに基づいて前記複
数の認識結果候補から認識結果を選択する候補選択手段
と、 を含むことを特徴とする音声認識装置。 - 【請求項4】前記平均音節長推定手段にて認識結果の各
候補についてそれぞれ平均音節長を求めるかわりに、最
上位の認識結果候補について求めた平均音節長を全ての
認識結果候補に対して用いることを特徴とする請求項3
記載の音声認識装置。 - 【請求項5】前記平均音節長推定手段が、過去の入力音
声に対して求めた平均音節長の情報を保持し、これを併
用して入力音声の平均音節長を求めることを特徴とする
請求項2〜4のいずれか一に記載の音声認識装置。 - 【請求項6】前記候補選択手段が、平均音節長から全音
節共通、又は、音節の種類ごとに、音節の最大継続時間
長と最小継続時間長の少なくとも一方を求め、前記最大
継続時間長と最小継続時間長の少なくとも一方の値に基
づいて認識結果候補の各候補を棄却するか否かを判定
し、棄却されない候補のうちの最上位候補を認識結果と
する、 ことを特徴とする請求項2〜5のいずれか一に記載の音
声認識装置。 - 【請求項7】前記音声認識手段が、認識結果候補に、そ
の照合スコアの情報を付加して出力し、 前記候補選択手段が、前記認識結果候補の各候補につい
て、その各音節の継続時間長と平均音節長に基づいて継
続時間スコアを求め、前記認識結果候補の各候補の前記
照合スコアと前記継続時間スコアとに基づき前記認識結
果候補から認識結果を選択する、 ことを特徴とする請求項2〜5のいずれか一に記載の音
声認識装置。 - 【請求項8】入力音声の認識結果に各音節の継続時間長
の情報を付加して出力する音声認識手段と、 前記 入力音声に対する認識結果を、前記認識結果に付加
された各音節の継続時間長と、前記入力音声から求めた
平均音節長と、音節列修正規則とに基づいて、修正して
出力する手段と、を備えたことを特徴とする音声認識装
置。 - 【請求項9】入力音声を認識して、仮の認識結果を各音
節の継続時間長の情報を付加して出力する音声認識手段
と、 前記入力音声から音節境界候補を求める音節境界候補検
出手段と、 前記音節境界候補から平均音節長を求める平均音節長推
定手段と、 前記仮の認識結果と前記平均音節長と音節列修正規則と
に基づき、前記仮の認識結果を修正して認識結果を求め
る認識結果修正手段と、 を含むことを特徴とする音声認識装置。 - 【請求項10】入力音声を認識し、仮の認識結果を音節
ごとのセグメンテーション又は各音節の継続時間長の情
報を付加して出力する音声認識手段と、 前記仮認識結果から平均音節長を求める平均音節長推定
手段と、 前記仮の認識結果と前記平均音節長と音節列修正規則と
に基づき、前記仮の認識結果を修正して認識結果を求め
る認識結果修正手段と、 を含むことを特徴とする音声認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP13095696A JP3171107B2 (ja) | 1996-04-26 | 1996-04-26 | 音声認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP13095696A JP3171107B2 (ja) | 1996-04-26 | 1996-04-26 | 音声認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH09292899A JPH09292899A (ja) | 1997-11-11 |
JP3171107B2 true JP3171107B2 (ja) | 2001-05-28 |
Family
ID=15046574
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP13095696A Expired - Fee Related JP3171107B2 (ja) | 1996-04-26 | 1996-04-26 | 音声認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3171107B2 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001175276A (ja) * | 1999-12-17 | 2001-06-29 | Denso Corp | 音声認識装置及び記録媒体 |
US6535851B1 (en) * | 2000-03-24 | 2003-03-18 | Speechworks, International, Inc. | Segmentation approach for speech recognition systems |
KR100682909B1 (ko) * | 2004-12-23 | 2007-02-15 | 삼성전자주식회사 | 음성 인식 방법 및 장치 |
JP4861941B2 (ja) * | 2007-09-19 | 2012-01-25 | 株式会社エヌ・ティ・ティ・データ | 書き起こし内容確認方法、書き起こし内容確認装置、コンピュータプログラム |
JP4809913B2 (ja) * | 2009-07-06 | 2011-11-09 | 日本電信電話株式会社 | 音素分割装置、方法及びプログラム |
JP4809918B2 (ja) * | 2009-09-01 | 2011-11-09 | 日本電信電話株式会社 | 音素分割装置、方法及びプログラム |
DE112013001772B4 (de) | 2013-11-29 | 2020-02-13 | Mitsubishi Electric Corporation | Spracherkennungssystem |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3114389B2 (ja) | 1991-10-02 | 2000-12-04 | 松下電器産業株式会社 | 音声認識装置 |
-
1996
- 1996-04-26 JP JP13095696A patent/JP3171107B2/ja not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3114389B2 (ja) | 1991-10-02 | 2000-12-04 | 松下電器産業株式会社 | 音声認識装置 |
Non-Patent Citations (3)
Title |
---|
日本音響学会平成3年度秋季研究発表会講演論文集▲I▼,2−P−9,滝沢由実外「連続音声認識における音節継続時間の予想法について」,p.155−156(平成3年10月2日発行) |
日本音響学会平成4年度秋季研究発表会講演論文集▲I▼,2−Q−22,滝沢由実外「連続音声における近傍音節を考慮した音節継続時間予想法」,p.215−216(平成4年10月5日発行) |
日本音響学会平成5年度春季研究発表会講演論文集▲I▼,2−4−2,滝沢由実外「音節を認識単位とした単語認識における音節継続時間予測法」,p.21−23(平成5年3月17日発行) |
Also Published As
Publication number | Publication date |
---|---|
JPH09292899A (ja) | 1997-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5953701A (en) | Speech recognition models combining gender-dependent and gender-independent phone states and using phonetic-context-dependence | |
JP5282737B2 (ja) | 音声認識装置および音声認識方法 | |
JP4195428B2 (ja) | 多数の音声特徴を利用する音声認識 | |
JP4301102B2 (ja) | 音声処理装置および音声処理方法、プログラム、並びに記録媒体 | |
US10319373B2 (en) | Information processing device, information processing method, computer program product, and recognition system | |
US6374219B1 (en) | System for using silence in speech recognition | |
US6317711B1 (en) | Speech segment detection and word recognition | |
US6490555B1 (en) | Discriminatively trained mixture models in continuous speech recognition | |
WO2001022400A1 (en) | Iterative speech recognition from multiple feature vectors | |
JP4340685B2 (ja) | 音声認識装置及び音声認識方法 | |
EP0903730A2 (en) | Search and rescoring method for a speech recognition system | |
JP6481939B2 (ja) | 音声認識装置および音声認識プログラム | |
JP3171107B2 (ja) | 音声認識装置 | |
JP2003208195A5 (ja) | ||
WO2003060878A1 (fr) | Appareil de reconnaissance de la parole continue, procede de reconnaissance de la parole continue, programme de reconnaissance de la parole continue et support d'enregistrement de programme | |
Jiang et al. | Vocabulary-independent word confidence measure using subword features. | |
KR20210052563A (ko) | 문맥 기반의 음성인식 서비스를 제공하기 위한 방법 및 장치 | |
JP2001312293A (ja) | 音声認識方法およびその装置、並びにコンピュータ読み取り可能な記憶媒体 | |
JP4391179B2 (ja) | 話者認識システム及び方法 | |
JP3042455B2 (ja) | 連続音声認識方式 | |
JP3104900B2 (ja) | 音声認識方法 | |
JPH1097275A (ja) | 大語彙音声認識装置 | |
JP3368989B2 (ja) | 音声認識方法 | |
KR101037801B1 (ko) | 부단위 인식을 이용한 핵심어 검출 방법 | |
JP3894419B2 (ja) | 音声認識装置、並びにこれらの方法、これらのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20010220 |
|
LAPS | Cancellation because of no payment of annual fees |