JP2943445B2 - 音声認識方法 - Google Patents
音声認識方法Info
- Publication number
- JP2943445B2 JP2943445B2 JP3234388A JP23438891A JP2943445B2 JP 2943445 B2 JP2943445 B2 JP 2943445B2 JP 3234388 A JP3234388 A JP 3234388A JP 23438891 A JP23438891 A JP 23438891A JP 2943445 B2 JP2943445 B2 JP 2943445B2
- Authority
- JP
- Japan
- Prior art keywords
- speech
- similarity
- vector
- time
- dictionary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Description
ものである。
うための音声標準パターンの作成には、予め多くの話者
が認識対象単語を発声したデータを用い、人間が目視な
どで音声区間を切出して、それらを統計的に処理してい
た。不特定話者を対象とした音声認識は、たとえば、”
ワードスポッティング手法を用いた不特定話者・少数語
向け音声認識装置”(電子通信情報学会 SP88ー1
8)に記載された構成が知られている。
語辞書を作成するために、実際に330名の話者が発声
した音声データを使用している。330名が10数字を
発声した音声データに対して人間がスペクトル波形など
を参考にして目視で音声区間を切出して、分析時間毎に
得られる特徴パラメータ(LPCケプストラム係数)の
時系列を求め、各単語毎に決められた発声時間になるよ
うに線形に音声データの圧縮を行ない330名分のデー
タの絶対値によって単語の標準パターンを作成する。未
知入力音声とこのようにして作成した標準パターンとの
照合を統計的距離尺度であるマハラノビス距離を用いて
行なうことによって、不特定話者の音声認識を可能にし
ている。
パターンとの照合、比較を行なうことによって、不特定
話者のスペクトル変動を統計的に吸収しようという考え
方に基づいている。しかし、統計的距離尺度のための標
準パターン作成には、1つの認識単語に対して数百名以
上の話者が発声したデータが必要である。
て、マルチ標準パターンを用いる方法がある。この方法
は、多くのデータを分析して、それらの中から代表的な
ものを複数個選択し、複数の標準パターンと未知入力の
照合を行なうことによって不特定話者のスペクトル変動
に対処しようとするものである。しかし、この方法にお
いても、複数の標準パターンを作成するためには、数百
名のデータの収集と分析を必要とする。
法のような構成では、認識対象音声の標準パターン作成
には、データの収集、音声区間の切出しなどの膨大な作
業量があり、そのために容易に認識対象音声を変更でき
ないという課題を有していた。
から数名の少数話者が発声した、音韻環境を考慮した単
語セットから音声片のパターンを切出して、それを接続
することによって認識対象音声の標準パターンを作成
し、これを用いて不特定話者の音声の認識を可能にする
方法に関するもので、容易に認識対象音声を変更出来る
音声認識方法を提供することを目的とするものである。
の本発明の考え方は次のようなものである。
られ、その振動音が喉頭、咽頭、舌、あご、唇など(こ
れらを調音器官と呼ぶ)で形成される声道を通る間に様
々な変調をうけて口から音声として出力される。ア、
イ、ウなどの音韻性は声道の形状として与えられる。無
声音は音源が声帯でない場合もあるが、音韻性はやはり
声道の形状で決められる。ところが、声道を形成する
喉、舌、歯、あご、唇などの形状や寸法は人ごとに微妙
に異なっているし、声帯の大きさも性別や年齢で異な
る。このために、人ごとの声の違いが生じることにな
る。つまり、人の違いによる声の差異は調音器官の違い
によるところが大きい。
なく、単語や文として発せられるとき、声道の形が時間
的に変化する。すなわち、声道の時間的変化によって言
葉が形成される。たとえば、「赤い」(akai)と発
声する場合、声道は、あごが開き舌の後方に狭めのある
/a/の発声から喉頭部の閉鎖と急激な開放を伴う破裂
音/k/に移り、さらに再び/a/の形状に戻ってから
徐々に舌を唇側に移動し、口を閉じた/i/に移る。こ
のような声道の変化パターンは発声しようとしている言
葉によって決るものであり、人の違いによる差異は少な
いと考えられる。
の形状とその時間的な変化に分割して考えると、前者の
みが話者によって異なり、後者は話者による差は小さい
と見なすことが出来る。従って、静的な声道の形状の違
いに基づく差異を何等かの方法で正規化できれば、不特
定話者の認識が可能となる。
音声信号中では周波数スペクトルの違いとして表現され
る。周波数スペクトルを話者間で正規化する最も単純な
方法は、音素や音節をなど短時間の音声標準パターンと
のマッチングを行なって、クラス分けをすることであ
る。不特定話者用として作成された汎用的な標準パター
ンを用いれば話者の違いに大きく左右されない類似度情
報を得ることが出来る。すなわち、スペクトルをパター
ンマッチングによって類似度情報に変換することは、話
者間の差異を軽減することに相当する。
異が少ないのであるから、1名から数名の少数話者の情
報を用いれば十分である。従って、少数話者の発声した
単語や文節などの発声から得られる類似度情報の時間パ
ターンを辞書に登録すれば、それは不特定話者用の辞書
になる。
成するための本発明の技術的解決手段は、1名から数名
の話者が発声した、音韻環境を考慮した単語セットを分
析して得られる特徴パラメータと、予め多数の話者で作
成したn種類の音素などの標準パターンと分析時間(1
フレーム)毎にマッチングを行ない、得られるn次元の
類似度ベクトルの時系列から音声片パターンを切出して
音声片辞書として登録しておき、また認識対象辞書の各
項目にはこの音声片辞書に登録された音声片パターンを
接続して作成したものを登録しておき、認識させたい入
力音声も同様にn種類の音素などの標準パターンとマッ
チングを行ない、得られるn次元の類似度ベクトルの時
系列を求め、前記音声片を接続して作成した認識対象辞
書の各項目との照合を行なうことによって不特定話者の
音声認識を行なうものである。
少数の話者が発声した音韻環境を考慮した単語セットを
分析して得られる特徴パラメータに対して多数の話者で
作成したn種類の音素や音節などの標準パターンとの類
似度を単位時間(フレーム)毎に求める。この類似度は
多数の話者で作成した汎用性のある標準パターンとのマ
ッチング結果なので、n種類の類似度値の相対関係は個
人性の影響を受けにくい。
パラメータとして使用すれば不特定話者に対して有効で
ある。この単語セットから音声片パターンを切出して音
声片辞書として登録する。そして、単語などを表現する
認識対象辞書の各項目は音声片辞書に登録されている音
声片パターンを接続して類似度系列で作成しておく。
手順を記しておいても良い。認識時には入力音声から得
られる類似度ベクトルの時系列と認識対象辞書の各項目
に登録されている音声片から作成された類似度ベクトル
の時系列パターンとを照合することにより、不特定話者
の音声を認識することができる。
頼できるものを1つだけ用いるのではなく、複数の候補
(すなわちn種類の類似度値)を用いているのでより高
い認識率を得ることが出来る。
ば、認識対象音声を変更しても常に同じものが使用でき
る。また、認識対象辞書項目を変更して他の音声を認識
出来るようにする(すなわち認識語いの変更)には、音
声片辞書に登録されている音声片パターンを接続して認
識対象辞書の各項目を作成し登録するだけで良い。した
がって、簡単な手続きで不特定話者の音声認識が可能で
あり、更に、語いの変更などに対して柔軟性のある認識
装置の実現が可能になる。
る。
ット(530単語セット)を2名の話者が発声し、音声
片としてCV(子音+母音)とVC(母音+子音)を使
用し、時系列パターンを接続して認識対象辞書項目を作
成し、入力音声とDPマッチングを行ない認識する場合
について説明する。
おいて、1は音響分析部、2は特徴パラメータ抽出部、
3は類似度計算部、4は標準パターン格納部、5はパラ
メータ系列作成部、6は音声片辞書格納部、7は認識対
象辞書項目作成部、8は認識対象辞書格納部、9は認識
部である。
して音声片辞書格納部6に登録する方法について説明を
行なう。
響分析部1で分析時間(フレームと呼ぶ、本実施例では
1フレーム=10msec)毎に線形予測係数(LP
C)を求める。次に、特徴パラメータ抽出部2で、LP
Cケプストラム係数(C0〜C8まで9個)を求める。
標準パターン格納部4には 、予め多くの話者が発声し
たデータから作成した20種類の音素標準パターンを格
納している。
/i/,/e/,/j/,/w/,/m/,/n/,
/,/s/,/c/,/p/,/t/,/k/の20個
の音素標準パターンを使用する。音素標準パターンは各
音素の特徴部(その音素の特徴をよく表現する時間的な
位置)を目視によって正確に検出し、この特徴フレーム
を中心とした特徴パラメータの時間パターンを使用して
作成する。
フレームの前8フレーム、後3フレーム、計12フレー
ム分のLPCケプストラム係数(C0〜C8)を1次元
にしたパラメータ系列
列を示す。
LPCケプストラム係数である。多くのデータに対して
パラメータ系列を抽出し、各要素の平均値ベクトル
ルは(数2)のようになる。
パターンは複数フレームの特徴パラメータを使用してい
る。すなわちパラメータの時間的動きを考慮して標準パ
ターンを作成しているのが特徴である。
算のためのマハラノビス距離dpは(数3)で表され
る。
単な式に展開できる。
(数4)を用いる。
標準パターン格納部4にあらかじめ格納されている。
出部で得られた特徴パラメータ(LPCケプストラム係
数)と類似度計算部3でフレーム毎に類似度計算を行な
う。類似度計算部の結果から、パラメータ時系列作成部
5で類似度ベクトルの時系列を求める。類似度ベクトル
の時系列の例を図2に示す。
合の例で、横軸が時間方向で縦軸が各時間における類似
度を示す。/a/の標準パターンについて説明すると、
入力を1フレームずつシフトさせながら標準パターンと
マッチングを行ない類似度の時系列を求める。図2の例
では、40,46,68,60,42,1,4,6,20,40,65,81,64,49,15,1
0,14,16が類似度の時系列である。この類似度を20個
の音素標準パターン全てに対して同様に求める。類似度
ベクトルは図2の斜線で示した部分を指す。図2で示し
たような類似度ベクトルの時系列を認識部9に送る。
の話者が発声した、音韻環境を考慮した単語セットの音
声を分析し上記の20個の標準パターンとフレーム毎に
類似度計算を行なった結果得られる類似度ベクトルの時
系列(図2と同様な形式のもの)から子音から母音へ遷
移する部分を切出したCVパターンと逆に母音から子音
へ遷移する部分を切出したVCパターンが格納されてい
る。
間がスペクトル情報などを参考に音素の位置があらかじ
めラベル付けされている。この音素ラベルにしたがって
CVは子音の中心フレームから後続母音の中心フレーム
まで、VCは母音の中心フレームから子音の中心フレー
ムまで切出しを行ない音声片辞書格納部6に登録する。
母音と子音の中心フレームを境界にすると子音から母
音、母音から子音に音声が遷移する情報を有効に取り入
れることが出来るので高い認識率を得ることが出来る。
図3の(1)に「朝日」(/asahi/)、(2)に
「酒」(/sake/)、(3)に「パーク」(/pa
aku/)の場合CVとVCの切出し方の例を示す。図
に示すように/asahi/の場合は、語頭の/a/,
語中の/as/,/sa/,/ah/,/hi/,と語
尾の/i/の6個の音声片から構成されている。/sa
ke/の場合は、語頭の/sa/,語中の/ak/,/
ke/,語尾の/e/の4個の音声片から構成されてい
る。/paaku/の場合は語頭の/pa/,語中の/
aa/、/ak/、/ku/、語尾の/u/の5個の音
声片から構成されている。
まま音声片辞書として音声片辞書格納部に格納する。同
じ音声片が2個出現した場合は、2個の同一音声片同士
でDPマッチングを行ない時間整合を行なう。たとえ
ば、音声片/ak/は/sake/と/paaku/の
単語から切出される。切出された音声片によって持続時
間長が異なるので、DPマッチング法で時間整合を行な
う。図4に時間整合の例を示す。時間整合することによ
って、同じ音素の区間(/a/,/k/)が整合するよ
うになる。この時間的に整合したフレーム間で各類似度
の平均値を求める。この平均化した類似度ベクトルを音
声片辞書として登録する。3個以上の場合は、同じ作業
を繰返し複数個の平均化した類似度ベクトルの時系列を
作成し音声片辞書に登録する。
ムの類似度ベクトル
フレームとが時間的に整合する場合は、新しく類似度ベ
クトル
類似度ベクトルとして登録する。こうすることによっ
て、音声片辞書の精度を向上させ、より高い認識率を得
ることが出来る。
辞書項目が与えられると音声片辞書格納部から各辞書項
目を作成するのに必要なCV・VCパターンを取り出し
て接続を行ない認識対象辞書の各項目パターンを作成し
辞書格納部8に登録する。たとえば「赤い」(/aka
i/)という辞書項目を作成するには語頭の/a/,/
ak/,/ka/,/ai/と語尾の/i/の5つのC
V・VCパターンを接続して作成する。たとえば、語頭
の/a/は/asahi/と発声した音声データから切
出された語頭の/a/のパターンを使用し、語中の/a
k/は/sake/と発声したデータから切出された語
中の/ak/のパターンを使用する。
ンを作成するにはあらかじめ切出されたCV・VCパタ
ーンが登録されている音声片辞書格納部6から必要なC
V・VCを取り出して接続を行ない認識対象辞書の各項
目パターンを作成し認識対象辞書格納部8に格納する。
認識部9では、認識対象辞書格納部8にある類似度ベク
トルの時系列と入力音声を分析して得られる類似度ベク
トルの時系列パターンとをマッチングし最もスコアの大
きい辞書項目を認識結果とする。
ルの時系列そのものではなく音声片を接続する手順のみ
を記述したものを格納しておいても良い。そして入力と
の類似度計算のとき、この手順にしたがって類似度ベク
トルを合成しても良い。マッチング方法として本実施例
ではDPマッチングを行なう。DPマッチングを行なう
漸化式の例を(数8)に示す。
長さをIフレーム、第iフレームと第jフレームの距離
関数をl(i,j),累積類似度をg(i,j)とす
る。
クリッド距離、重み付ユークリッド距離、相関余弦距離
などが使用できる。本実施例では、距離尺度として相関
余弦を用いた場合について説明を行なう。入力音声のi
フレームにおける類似度ベクトル
ル
(数11)の様になる。
の動作について説明する。あらかじめ多数の話者で作成
した音素標準パターンは標準パターン格納部4に格納さ
れている。認識対象音声を1名または数名の少数話者が
発声し、分析して得られた類似度ベクトルの時系列から
CV・VCパターンを切出したパターンが音声片辞書格
納部6に登録されている。認識対象辞書項目は、認識対
象辞書項目作成部7でCV・VCパターンを接続して作
成を行ない認識対象辞書格納部8に格納する。
響分析部1で分析し、特徴パラメータ抽出部2でLPC
ケプストラム係数を求める。このLPCケプストラム係
数と標準パターンとのマッチングを類似度計算部3でフ
レームごとに行ない、パラメータ系列作成部5で類似度
ベクトルの時系列を求める(図2の形式のもの)。この
類似度ベクトルの時系列と認識対象辞書格納部8に格納
されいる各辞書項目の類似度ベクトルの時系列とを認識
部9でDPマッチングを行ない最も類似度の大きい辞書
項目を認識結果とする。
ル)を用いる場合は、切出された各CV、VCのパター
ンに対してHMMの学習を行ないCVとVCを基本単位
とするHMMを作成する。辞書項目は、このCVとVC
を基本単位とするHMMを接続することによって作成し
認識を行なう。
る特徴パラメータをそのまま使用せずに、多数の話者の
音声データで作成した標準パターンとの類似度計算から
得られる類似度ベクトルを入力ベクトルとしDP法など
で認識を行なうことによって1名または数名の少数話者
の発声した音声データから切出したCV・VCパターン
を接続した辞書項目を作成するするだけで不特定話者の
音声を認識することが出来るようになる。
(母音+子音+母音)またはCV、VC、VCVを任意
に組み合せたものであっても良い。
ついて、図5を用いて説明を行なう。図5において、1
0は音響分析部、11は特徴パラメータ抽出部、12は
類似度計算部、13は標準パターン格納部、14は回帰
係数計算部、15はパラメータ系列作成部、16は音声
片辞書格納部、17は認識対象辞書項目作成部、18は
認識対象辞書格納部、19は認識部である。
同様に類似度ベクトルの時系列を類似度計算部12で求
める。各類似度の時系列に対して類似度の時間的変化量
である回帰係数(n個)を回帰係数計算部14でフレー
ム毎に求める。回帰係数は、フレームの前後2フレーム
の類似度値(計5フレームの類似度値)の最小2乗近似
直線の傾き(類似度の時間的変化量)を使用する。
明を行なう。たとえば、音素/a/の標準パターンで説
明すると、入力を1フレームずつシフトさせながら/a
/の標準パターンとマッチングを行ない類似度の時系列
を求める。このフレーム毎の類似度をプロットしたのが
図6である。図6において横軸がフレーム、縦軸が類似
度である。第iフレームを中心に第i−2から第i+2
フレームの最小二乗直線の傾きを求め、これを第iフレ
ームにおける類似度の時間変化量(回帰係数)とする。
回帰係数を求める式を(数12)に示す。
ムに対して求める。また、他の標準パターンに対しても
同様にして回帰係数を全フレームに対して求める。この
フレーム毎に求められたn次元の類似度ベクトルとn次
元の回帰係数ベクトルの両方をパラメータとして認識を
行なう。前記実施例では、入力音声のiフレームにおけ
る類似度ベクトルと辞書のjフレームにおける類似度ベ
クトルの距離として(数2)の相関距離を使用してい
た。回帰係数を併用した場合の距離関数l(i,j)
は,(数13)を用いる。
帰係数ベクトル
トル
0.4から0.6がよい。以上の相関余弦を用いて前記
実施例と同様の方法でDPマッチングを行ない類似度を
求め最も類似度の大きい辞書項目を認識結果とする。
徴パラメータをそのまま使用せずに、いったん多数の話
者の音声データで作成した標準パターンとのマッチング
によって、類似度と類似度の回帰係数に変換し、これら
を入力ベクトルとしDP法などで認識を行なうことによ
って、1名または数名の少数の話者の発声した音声デー
タから切出したCVとVCパターンを辞書として登録し
これを接続して辞書項目を作成するだけで不特定話者の
音声を認識することが出来るようになる。
た20名のデータを用いて認識実験を行なった。音声片
は2名の話者が音韻環境を考慮した530単語を発声し
たデータからCV・VCを切出したものを辞書として登
録し、20名の発声した212単語を認識する実験を行
なった。類似度ベクトルと回帰係数ベクトルを併用する
と、94.3%の単語認識率が得られた。
チング距離尺度として各標準パターンの共分散行列を共
通化したマハラノビス距離について述べたが、それに限
定されるものではなく、ベイズ判定に基づく距離、マハ
ラノビス距離、ニューラルネット、HMM(隠れマルコ
フモデル)、LVQ(学習ベクトル量子化)を用いても
同じ効果が得られる。
られた特徴パラメータに対して予め多くの話者で作成し
たn種類の標準パターンとの類似度計算を行なって類似
度を求め、n次元の類似度ベクトルまたはn次元の類似
度ベクトルとn次元の類似度の時間的変化量ベクトルを
音声認識のための特徴パラメータとすることによって、
1名から数名の少数の話者が音韻環境を考慮した単語セ
ットを発声した音声データから音声片パターンを切出し
て音声片辞書として登録しこの音声片パターンを接続し
て辞書項目を作成するだけで、不特定話者の音声を認識
することが出来る手段を提供するものである。したがっ
て、1人または数名の少数の話者が発声した音韻環境を
考慮した単語セットの音声データから音声片パターンを
切出して音声片辞書として1度作成しておけば、自由に
辞書が作成できるので辞書変更が極めて容易である。こ
のように本発明は不特定話者用音声認識装置の性能向上
およびいろいろな用途へ適用するための柔軟性の向上に
対して極めて大きく貢献することができる。
具現化する装置の機能ブロック図
クトルの時系列を示す模式図
V・VCパターンの一例を説明する模式図 (2)第1の実施例における音声認識方法のCV・VC
パターンの他の例を説明する模式図 (3)第1の実施例における音声認識方法のCV・VC
パターンのもう一つの例を説明する模式図
名の話者の登録音声片に対する時間整合を説明する模式
図
具現化する装置の機能ブロック図
Claims (11)
- 【請求項1】予め、音韻環境を考慮した単語セットを1
名から数名の少数の話者が発声し、分析時間(フレー
ム)毎に得られるm個の特徴パラメータと、多数の話者
で作成したn種類の標準パターンとのマッチングを行な
いn個の類似度をフレーム毎に求め、この類似度ベクト
ルで作成した時系列パターンから音声片を切出して音声
片辞書として登録しておき、更に前記音声片辞書の音声
片を接続して作成した類似度ベクトルの時系列パターン
または音声片の接続手順を各認識対象項目ごとに作成し
て認識対象辞書に格納しておき、認識時には入力音声を
同様にして分析して得られるm個の特徴パラメータと、
前記n種類の標準パターンとのマッチングを行なってn
次元の類似度ベクトルの時系列を求め、認識対象辞書の
各項目に登録されている類似度ベクトルの時系列パター
ンまたは音声片の接続手順に従って合成された類似度ベ
クトルの時系列パターンを照合することによって、辞書
に登録した話者およびその他の話者の入力音声を認識す
ることを特徴とする音声認識方法。 - 【請求項2】予め、音韻環境を考慮した単語セットを1
名から数名の少数の話者が発声し、分析時間(フレー
ム)毎に得られるm個の特徴パラメータと、多数の話者
で作成したn種類の標準パターンとのマッチングを行な
いn個の類似度とn個の類似度の時間変化量をフレーム
毎に求め、この類似度ベクトルと類似度の時間変化量ベ
クトルで作成した時系列パターンから音声片を切出して
音声片辞書として登録しておき、更に認識対象辞書の各
項目を前記音声片辞書の音声片を接続して作成した類似
度ベクトルの時系列パターンまたは音声片の接続手順を
各認識対象項目ごとに作成して認識対象辞書に格納して
おき、認識時には、入力音声を同様にして分析して得ら
れるm個の特徴パラメータと、前記n種類の標準パター
ンとマッチングを行ないn次元の類似度ベクトルとn次
元の類似度の時間変化量ベクトルの時系列を求め、認識
対象辞書の各項目に登録されている類似度ベクトルと類
似度の時間変化量ベクトルの時系列パターンまたは音声
片の接続手順にしたがって合成された類似度ベクトルと
類似度の時間変化量ベクトルの時系列パターンを照合す
ることによって、辞書に登録した話者およびその他の話
者の入力音声を認識することを特徴とする音声認識方
法。 - 【請求項3】音声片として、子音+母音、母音+子音、
母音+子音+母音またはこれらの任意の組合せのいずれ
かを用いることを特徴とする請求項1または2記載の音
声認識方法。 - 【請求項4】音声片パターンとして切出された類似度ベ
クトルの時系列パターンまたは類似度ベクトルと類似度
の時間変化量ベクトルの時系列パターンを接続すること
によって認識対象辞書の各項目を作成し、入力音声とD
Pマッチングを行なって認識することを特徴とする請求
項1または2記載の音声認識方法。 - 【請求項5】音声片として切出された類似度ベクトルの
時系列パターンまたは類似度ベクトルと類似度の時間変
化量ベクトルの時系列パターンに対してHMM(隠れマ
ルコフモデル)を適用して認識を行なうことを特徴とす
る請求項1または2記載の音声認識方法。 - 【請求項6】同一の認識対象音声を2名以上の話者が発
声し、それぞれ分析して得られる類似度ベクトルの時系
列パターンに対して、DPマッチングによって話者間の
時間整合を行ない、時間的に整合したフレーム間で各類
似度の平均値を求めその平均値の時系列パターンから切
出した音声片を音声片辞書に登録することを特徴とする
請求項1記載の音声認識方法。 - 【請求項7】類似度の時間変化情報として回帰係数を用
いることを特徴とする請求項2記載の音声認識方法。 - 【請求項8】同一の認識対象音声を2名以上の話者が発
声し、それぞれ分析して得られるn次元類似度ベクトル
とn次元回帰係数ベクトルの時系列に対して、DPマッ
チングによって話者間の時間整合を行ない,時間的に整
合したフレーム間で各類似度と各類似度の時間変化量の
平均値を求めその平均値の時系列パターンから切出した
音声片を辞書に登録することを特徴とする請求項2記載
の音声認識方法。 - 【請求項9】類似度ベクトル間または類似度の時間変化
ベクトル間の距離を求める距離尺度として、ユークリッ
ド距離、重み付ユークリッド距離、相関余弦を用いるこ
とを特徴とする請求項1または2記載の音声認識方法。 - 【請求項10】標準パターンとして音素、音節、半音
節、音素片などの音響学的な基本単位に基づくカテゴリ
ーの標準パターンを使用することを特徴とする請求項1
または2記載の音声認識方法。 - 【請求項11】標準パターンとのマッチングの距離尺度
として、ベイズ判定に基づく距離、マハラノビス距離、
各標準パターンの共分散行列を共通化したマハラノビス
距離、ニューラルネット、HMM(隠れマルコフモデ
ル)、LVQ(学習ベクトル量子化)を用いることを特
徴とする請求項1または2記載の音声認識方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3234388A JP2943445B2 (ja) | 1991-01-25 | 1991-09-13 | 音声認識方法 |
US07/808,692 US5345536A (en) | 1990-12-21 | 1991-12-17 | Method of speech recognition |
EP91121856A EP0492470B1 (en) | 1990-12-21 | 1991-12-19 | Method of speech recognition |
DE69127961T DE69127961T2 (de) | 1990-12-21 | 1991-12-19 | Verfahren zur Spracherkennung |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP747791 | 1991-01-25 | ||
JP3-7477 | 1991-01-25 | ||
JP3234388A JP2943445B2 (ja) | 1991-01-25 | 1991-09-13 | 音声認識方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0588692A JPH0588692A (ja) | 1993-04-09 |
JP2943445B2 true JP2943445B2 (ja) | 1999-08-30 |
Family
ID=26341779
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3234388A Expired - Lifetime JP2943445B2 (ja) | 1990-12-21 | 1991-09-13 | 音声認識方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2943445B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3114468B2 (ja) | 1993-11-25 | 2000-12-04 | 松下電器産業株式会社 | 音声認識方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS597998A (ja) * | 1982-07-06 | 1984-01-17 | 日本電気株式会社 | 連続音声認識装置 |
JPS60164800A (ja) * | 1984-02-07 | 1985-08-27 | 松下電器産業株式会社 | 音声認識装置 |
JPS61137199A (ja) * | 1984-12-07 | 1986-06-24 | 日本電信電話株式会社 | 単語音声の認識方法 |
JPS61236598A (ja) * | 1985-04-12 | 1986-10-21 | 株式会社リコー | 単語音声登録方式 |
JPH0823758B2 (ja) * | 1988-02-24 | 1996-03-06 | 日本電信電話株式会社 | 話者適応形音声認識装置 |
-
1991
- 1991-09-13 JP JP3234388A patent/JP2943445B2/ja not_active Expired - Lifetime
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3114468B2 (ja) | 1993-11-25 | 2000-12-04 | 松下電器産業株式会社 | 音声認識方法 |
Also Published As
Publication number | Publication date |
---|---|
JPH0588692A (ja) | 1993-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Arora et al. | Automatic speech recognition: a review | |
US6553342B1 (en) | Tone based speech recognition | |
Razak et al. | Quranic verse recitation recognition module for support in j-QAF learning: A review | |
US20010010039A1 (en) | Method and apparatus for mandarin chinese speech recognition by using initial/final phoneme similarity vector | |
Ranjan et al. | Isolated word recognition using HMM for Maithili dialect | |
Unnibhavi et al. | LPC based speech recognition for Kannada vowels | |
Fu et al. | A survey on Chinese speech recognition | |
JP5300000B2 (ja) | 調音特徴抽出装置、調音特徴抽出方法、及び調音特徴抽出プログラム | |
JP2943445B2 (ja) | 音声認識方法 | |
JP2943473B2 (ja) | 音声認識方法 | |
Hase et al. | Speech Recognition: A Concise Significance | |
JP2879989B2 (ja) | 音声認識方法 | |
JP2574557B2 (ja) | 音声認識方法 | |
Shafie et al. | Sequential classification for articulation and Co-articulation classes of Al-Quran syllables pronunciations based on GMM-MLLR | |
JP3277522B2 (ja) | 音声認識方法 | |
JP2692382B2 (ja) | 音声認識方法 | |
Huckvale | 14 An Introduction to Phonetic Technology | |
JP3289670B2 (ja) | 音声認識方法および音声認識装置 | |
JP3115016B2 (ja) | 音声認識方法および装置 | |
Wu et al. | Integration of phonetic and prosodic information for robust utterance verification | |
Wilcox et al. | 15.4 Speech Recognition | |
JP2862306B2 (ja) | 音声認識装置 | |
JPH0675589A (ja) | 音声認識方法 | |
Mohammed et al. | Robust automatic speech recognition system: hmm versus sparse | |
Grebenskaya et al. | Speaker clustering in speech recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080625 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090625 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100625 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100625 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110625 Year of fee payment: 12 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120625 Year of fee payment: 13 |
|
EXPY | Cancellation because of completion of term | ||
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120625 Year of fee payment: 13 |