JPH0573087A - 音声認識方法 - Google Patents
音声認識方法Info
- Publication number
- JPH0573087A JPH0573087A JP3234386A JP23438691A JPH0573087A JP H0573087 A JPH0573087 A JP H0573087A JP 3234386 A JP3234386 A JP 3234386A JP 23438691 A JP23438691 A JP 23438691A JP H0573087 A JPH0573087 A JP H0573087A
- Authority
- JP
- Japan
- Prior art keywords
- similarity
- pattern
- dictionary
- vector
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
徴パラメータとする音声認識方法で、無声化や音便化に
対しても高い認識率を得ることを目的とする。 【構成】 認識部11で認識対象辞書格納部10の辞書
パターンとDPマッチングを行ない最も類似度の大きい
辞書項目を認識結果とする。このとき、母音の無声化や
連続母音の音便化のような発声変形が起こり得る辞書に
ついて、少数話者の発声による実際に発声変形が起こっ
たパターンと起こらなかったパターンから切出した音声
片を接続してその部分のみ認識対象辞書をマルチパター
ンとして認識対象辞書文字列格納部8に持ち、認識時に
は入力音声との類似度の大きくなるどちらか一方のパタ
ーンを選択して類似度を求めて認識する。
Description
音声を機械認識する音声認識方法に関するものである。
つとして、少数話者が発声した音声片データをモデルと
する本発明の基本となる手法が、本出願人によって提示
されている(特願平3−7477号、平成3年1月25
日出願)。
る。図7において、1は音響分析部、2は特徴パラメー
タ抽出部、3は類似度計算部、4は標準パターン格納
部、5は回帰係数計算部、6はパラメータ系列作成部、
7は音声片辞書格納部、9は認識対象辞書作成部、10
は認識対象辞書格納部、11は認識部である。
その動作について説明する。まず、少数話者が発声した
音声データを用いて音声片辞書を作成する。音韻環境を
考慮した単語セットを少数話者が発声した音声を、音響
分析部1で分析時間(フレーム)毎に分析し、特徴パラ
メータ抽出部2でLPCケプストラム係数を求める。こ
れに対し、標準パターン格納部4に格納されている予め
多数の話者で作成した音素標準パタ−ンと1フレームず
つシフトさせながらマッチングし、フレーム毎に音素類
似度ベクトルを求める。そして回帰係数計算部5で音素
類似度ベクトルの時間的変化量である回帰係数ベクトル
をフレーム毎に求め、パラメータ系列作成部6ではこの
音素類似度ベクトルとその回帰係数ベクトルの大きさを
それぞれ1に正規化し、その時系列をパラメータ系列と
する。
数のCV、VCパターンが出現する場合には時間整合を
行って平均化したパターンを音声片辞書格納部7に登録
する。
項目が与えられると音声片辞書格納部7から各辞書項目
を作成するのに必要なCV・VCパターンを取り出して
接続を行ない、認識対象辞書の各項目パターンを作成し
辞書格納部10に登録する。
同様の音響分析を行い、特徴パラメータを抽出し、音素
標準パタ−ンとマッチングを行って音素類似度を求め、
さらに回帰係数を求め、パラメータ系列を作成する。次
に認識部11において認識対象辞書格納部10に格納さ
れている辞書パターンとDPマッチングを行い、類似度
を求めもっとも大きな類似度をもつ辞書を認識結果とす
る。
よびVCパターンを辞書の文字列通りにただ接続しただ
けでは、入力音声に母音の無声化などの発声変形があっ
た場合に対処できなかった。例えば、「薬」(/kus
uri/)という単語に対して、/<KU/-/US/-/SU/-/UR/
-/RI/-/I>/のようにCV、VCパターンを接続した場
合、入力音声の「くすり」の「く」が無声化(/K/,/u/
(無声化母音),/S/,/U/,/R/,/I/)した場合、辞書とのD
Pマッチングの際、その部分でのスコアが低くなり誤認
識の原因となっていた。同様に「先生」のような単語は
「せんせい」と発声する場合と「せんせー」と発声する
場合があり、辞書を文字列から/<SE/-/ENN/-/NNS/-/SE/
-/EI/-/I>/(/NN/は「ん」を表す)と接続した場合は、
「せんせー」と発声しとき語尾においてマッチングスコ
アが低くなり誤認識の原因となっていた。
いパターンとを予め用意することは、発声変形するかし
ないかは発声してみないとわからないため、相当量の音
声データを収録、分析する必要があり、実際上困難であ
った。
と辞書音声のDPマッチングは処理の簡単化のため入力
軸を基本軸としている場合が多く、連続音声中から認識
対象単語を検出するスポッティングが困難であるという
欠点があった。
声化や音便化等の入力音声の発声変形に対しても高い認
識率を得ることを目的とする。
に、本発明は、予め、音韻環境を考慮した単語セットを
1名から数名の少数の話者が発声し、分析時間(フレー
ム)毎にm個の特徴パラメータを求め多数の話者で作成
したn種類の標準パターンとのマッチングを行ないn個
の類似度とn個の類似度の時間変化量をフレーム毎に求
め、この類似度ベクトルと類似度の時間変化量ベクトル
で作成した時系列パターンから音声片を切出して音声片
辞書として登録しておき、更に音声片辞書の音声片を接
続して作成した類似度ベクトルと類似度の時間変化量ベ
クトルの時系列パターンまたは音声片の接続手順を各認
識対象項目ごとに作成して認識対象辞書に格納してお
き、認識時には、入力音声を同様にして分析して得られ
るm個の特徴パラメータと、n種類の標準パターンとマ
ッチングを行ないn次元の類似度ベクトルとn次元の類
似度の時間変化量ベクトルの時系列を求め、認識対象辞
書の各項目に登録されている類似度ベクトルと類似度の
時間変化量ベクトルの時系列パターンまたは音声片の接
続手順にしたがって合成された類似度ベクトルと類似度
の時間変化量ベクトルの時系列パターンを照合すること
によって、辞書に登録した話者およびその他の話者の入
力音声を認識すると共に、母音の無声化や連続母音の音
便化のような発声変形が起こり得る辞書について、少数
話者の発声による実際に発声変形が起こったパターンと
起こらなかったパターンから切出した音声片を接続して
その部分のみ認識対象辞書をマルチパターンとして持
ち、認識時には入力音声との類似度の大きくなるどちら
か一方のパターンを選択して類似度を求めて認識するよ
うに構成されている。
て無声化しやすい母音の部分を、母音が有声のCV、V
Cパターンと、母音が無声化したCV、VCパターンと
のマルチパターンとすることにより、入力音声の母音が
無声化しても認識率が低下しなくなる。また同様に「え
い」/「えー」などの音便化に対しても辞書パターンを
マルチパターンにすることにより、入力音声の発声変形
に対しても高い認識率が得られる。
次のようなものである。
た母音/I/,/U/や無声子音に続く語尾の母音/I/,/U/は無
声化しやすいことがわかっている。即ち、認識したい単
語の文字系列から無声化が起こり得る母音がわかるた
め、その母音を含むCV(子音+母音)パターン、VC
(母音+子音)パターンに対して少数話者が発声した母
音が有声のCV、VCパターンと母音が無声化したC
V、VCパターンを用意し、その部分に対して辞書パタ
ーンを有声パターンと無声パターンのマルチパターンに
し、入力音声の母音の無声化に対処する。
特徴パラメータとして認識する方法では、標準パターン
作成のためのデータ量が少なくて済むため、発声変形し
たパターンを集めることは比較的容易である。例えば
「薬」という単語に対しては/<KU/-/US/-/SU/-/UR/-/RI
/-/I>/の/<KU/,/US/が無声化しやすいため、実際に/<KU
/や/US/が無声化したデータから/<Ku/,/uS/を切り出
し、これらを[ /<KU/-/US// /<Ku/-/uS/ ]のような
マルチパターンとして接続して辞書を作成する(ただ
し"["と"]"はそれらに囲まれていてかつ"/"で区切ら
れたパターンのどちらか一方を選択することを意味す
る)。
対しても辞書パターンをマルチパターンにすることによ
り発声変形に対処する。
声化しやすい母音の部分を、母音が有声のCV、VCパ
ターンと、母音が無声化したCV、VCパターンとのマ
ルチパターンとすることにより、入力音声の母音が無声
化しても認識率が低下しなくなる。また同様に「えい」
/「えー」などの音便化に対しても辞書パターンをマル
チパターンにすることにより、入力音声の発声変形に対
しても高い認識率が得られる。
照しながら説明する。図1は、本発明の一実施例におけ
る音声認識方法の構成を表すブロック結線図である。
図7に示した本発明の基礎となる音声認識方法の構成と
同じであるので、同一構成部分には同一番号を付してあ
る。図7の構成と異なるのは、無声化しやすい母音およ
び音便化しやすい連続母音に予め異なる符号を付した認
識対象文字列を格納する認識対象辞書文字列格納部8を
設け、認識対象辞書作成部9において、辞書文字列に従
って無声化しやすい母音および音便化しやすい連続母音
についてCV、VCパターンをマルチパターンとして接
続したパターンを作成し、認識対象辞書格納部10に登
録する部分である。
その動作について説明する。入力音声が入力されると音
響分析部1で分析時間(フレームと呼ぶ。本実施例では
1フレーム=10msec)毎に線形予測係数(LP
C)を求める。次に、特徴パラメータ抽出部2で、LP
Cケプストラム係数(C0〜C8まで9個)を求める。標
準パターン格納部4には 、予め多くの話者が発声した
データから作成した20種類の音素標準パターンが格納
されている。音素標準パタ−ンとしては、/a/,/o/,/u/,
/i/,/e/,/j/,/w/,/m/,/n/,
k/の20個の音素標準パターンを使用する。音素標準パ
ターンは、各音素の特徴部(その音素の特徴をよく表現
する時間的な位置)を目視によって正確に検出し、この
特徴フレームを中心とした特徴パラメータの時間パター
ンを使用して作成される。
徴フレームの前8フレーム、後3フレーム、計12フレ
ーム分のLPCケプストラム係数(C0〜C8)を1次元に
したパラメータ系列
系列を示す。
LPCケプストラム係数である。多くのデータに対して
パラメータ系列を抽出し、各要素の平均値ベクトル
クトルは、(数2)のようになる。
ームの特徴パラメータを使用している。即ち、パラメー
タの時間的動きを考慮して標準パターンを作成されてい
るのが特徴である。
算のためのマハラノビス距離dpは、(数3)で表され
る。
簡単な式に展開できる。
類似度を求める。
り、標準パターン格納部4に予め格納されている。
出部で得られた特徴パラメータ(LPCケプストラム係
数)と類似度計算部3でフレーム毎に類似度計算を行な
う。類似度計算部の結果から、パラメータ時系列作成部
6で類似度ベクトルの時系列を求める。類似度ベクトル
の時系列の例を図2に示す。図2は「赤い」(aka
i)と発声した場合の例で、横軸が時間方向で縦軸が各
時間における類似度を示す。/a/の標準パターンについ
て説明すると、入力を1フレームずつシフトさせながら
標準パターンとマッチングを行ない、類似度の時系列を
求める。図2の例では、40,46,68,60,42,1,4,6,20,40,6
5,81,64,49,15,10,14,16が類似度の時系列である。この
類似度を20個の音素標準パターン全てに対して同様に
求める。図2の斜線で示した部分は1フレームにおける
類似度ベクトルを指す。
列に対して類似度の時間的変化量である回帰係数(n
個)をフレーム毎に求める。回帰係数は、フレームの前
後2フレームの類似度値(計5フレームの類似度値)の
最小2乗近似直線の傾き(類似度の時間的変化量)を使
用する。図3を用いて類似度の回帰係数について説明を
行なう。例えば、音素/a/の標準パターンで説明する
と、入力を1フレームずつシフトさせながら/a/の標準
パターンとマッチングを行ない、類似度の時系列を求め
る。このフレーム毎の類似度をプロットしたのが図3で
ある。
度である。第iフレームを中心に第i-2から第i+2フレー
ムの最小二乗直線の傾きを求め、これを第iフレームに
おける類似度の時間変化量(回帰係数)とする。回帰係
数を求める式を(数5)に示す。
ムに対して求める。また、他の音素標準パターンに対し
ても同様にして回帰係数を全フレームにわたって求め
る。
系列および回帰係数ベクトル時系列を認識部11へ送
る。
した単語セットを予め一人の話者が発声した音声を分析
し、上記の20個の標準パターンとフレーム毎に類似度
計算を行い、その結果得られる類似度ベクトルの時系列
とその回帰係数ベクトルの時系列(図2と同様な形式の
もの)から、子音から母音へ遷移する部分を切出し、複
数個得られた同一の子音−母音の組合せを互いにDPマ
ッチングにより時間的整合を図って平均化したCVパタ
ーンと、逆に母音から子音へ遷移する部分を切出した複
数の同一母音−子音の組合せをDPマッチングにより時
間的整合を図って平均化したVCパターンが格納されて
いる。長母音および連続母音の母音中心から母音中心ま
でのVVパターンも含まれている。
ペクトル情報などを参考に目視により音素の位置が予め
ラベル付けされている。この音素ラベルに従ってCVは
子音の中心から後続母音の中心フレームまで、VCは母
音の中心フレームから後続子音の中心フレームまで、V
Vは前の母音の中心フレームから後の母音の中心フレー
ムまで、それぞれ切出しを行ない、音声片辞書格納部7
に登録する。母音の中心フレームを境界にすると子音か
ら母音、母音から子音に音声が遷移する情報を有効に取
り入れることが出来るので高い認識率を得ることができ
る。図4の(1)に「朝日」(/asahi/)、(2)に
「酒」(/sake/)、(3)に「パーク」(/paa
ku/)の場合のCVとVCとVVの切出し方の例を示
す。
は、/<A/、/AS/,/SA/,/AH/,/HI/と/I>/(ただし、記号"
<",">"はそれぞれ語頭、語尾を表し、語中のパターンと
は区別する。)の6個の音声片から構成されている。/
sake/の場合は、/<SA/,/AK/,/KE/,/E>/の4個の音
声片から構成されている。/paaku/の場合は、/<
PA/,/AA/,/AK/,/KU/,/U>/の5個の音声片から構成され
ている。音韻環境を考慮した単語セット中に1個しか出
現しない音声片は、そのまま音声片辞書に登録する。複
数出現する音声片はDPマッチングにより時間整合を行
い、この時間的に整合したフレーム間で各類似度とその
回帰係数の平均値を求める。この平均化した類似度ベク
トルとその回帰係数ベクトルの時系列をCV、VCパタ
ーンとして音声片辞書に登録する。発声話者が2名以上
で同一音声片を複数話者が発声した場合も同様に時間整
合を行い平均化したパターンを登録する。このように複
数のパターンを平均化することによって、音声片辞書の
精度を向上させ、より高い認識率を得ることができる。
たい単語や文章などの文字列を格納してある。このとき
無声化しやすい母音および音便化しやすい連続母音に予
め異なる符号を付すが、一般に次のような場合に母音が
無声化することがわかっている。 ・無声子音+母音(/I/または/U/)+無声子音のときの
/I/または/U/ ・無声子音+母音(/I/または/U/)が語尾または息の切
れ目の直前にきて、その拍のアクセントが低いときの/I
/または/U/ ・アクセントが低い語頭の/KA/,/KO/で次に同音のアク
セントのある拍がくるときの/KA/,/KO/ ・アクセントの低い語頭の/HA/,/HO/の次に母音の/A/ま
たは/O/を含む拍がくるときの/HA/,/HO/ ・無声子音+母音(/I/または/U/)+/M/または/N/また
は/NN/(撥音)のときの/I/または/U/ このような無声化規則を用いて無声化しやすい母音に対
し、予め認識対象辞書文字列に異なる符号を付してお
く。本実施例では次のような無声化規則について説明を
行う。 (1) 無声子音+母音(/I/または/U/)+無声子音のとき
の/I/または/U/をそれぞれ/I./,/U./と書く。 (2) 無声子音+母音(/I/または/U/)が語尾にくるとき
の/I/または/U/をそれぞれ/I./,/U./と書く。また、母
音の音便化には「えい」と「えー」、「おう」と「お
ー」などがあるが、本実施例では次の規則について説明
を行う。 (3) /EI/または/EE/は/EI+/と書く。
て、例えば「計画」という単語に対しては、 K E I+K A K U. 「薬」という単語に対しては、 K U.S U R I という文字列が認識対象辞書文字列格納部8に格納され
ている。
項目が与えられると音声片辞書格納部から各辞書項目を
作成するのに必要なCV・VCパターンを取り出して接
続を行ない、認識対象辞書の各項目パターンを作成し辞
書格納部10に登録する。例えば「赤い」(/akai
/)という辞書項目を作成するには/<A/,/AK/,/KA/,/A
I,/I>/の5つのCV・VCパターンを接続して作成す
る。例えば、/<A/は/asahi/と発声した音声デー
タから切出された/<A/のパターンを使用する。また/AK/
は/sake/と発声したデータから切出された/AK/の
パターンと/paaku/と発声したデータから切出さ
れた/AK/のパターンとをDPマッチングにより時間整合
を行って平均化した/AK/のパターンを使用する。このよ
うに/akai/という単語パターンを作成するには予
め切出されたCV・VCパターンが登録されている音声
片辞書格納部7から必要なCV・VCを取り出して接続
を行ない、認識対象辞書の各項目パターンを作成して認
識対象辞書格納部10に格納する。
号を付した辞書文字列に従い、無声化しやすい母音(/I.
/,/U./)について音声片辞書格納部7に格納されている
母音が無声化したCV、VCと無声化していないCV、
VCパターンをマルチパターンとして接続し、辞書パタ
ーンを作成する。音便化しやすい連続母音(/EI+/)につ
いても同様に音便化した場合としない場合のVV、VC
パターンをマルチパターンとして接続し、辞書パターン
を作成する。
ターンには次のようなラベル Label = L1 L2 L3 ・・・ Ln ・・・ LN が付加されている。ただし、Lnは (1) CV、VCのシンボル(/KA/,/OB/,/AA/,/Pu/な
ど) (2) 分岐制御子("[","/","]"の三種類) のどちらか一方を表しており、分岐制御子は次のような
意味を持つと定義する。"["と"]"はそれらに囲まれて
いてかつ"/"で区切られたパターンのどちらか一方を選
択する。例えば、辞書文字列に「薬」(K U.S U R I )
という単語があった場合、辞書パターンのラベルは L1 L2 L3 L4 L5 L6 L7 L8 L9 L10 L11 [ /<KU/ /US/ / /<Ku/ /uS/ ] /SU/ /UR/ /RI/ /I>/ と表される。そしてこのラベルに従い、CV、VCのシ
ンボルであるラベルに対して音素類似度ベクトルとその
回帰係数ベクトルの時系列を、分岐制御子であるラベル
に対して2フレームに相当する空白を並べたものを辞書
パターンとする。
に対する辞書パターンを表す図を示す。このようにC
V、VCの音素類似度ベクトルとその回帰係数ベクトル
の時系列を接続したものが辞書パターンとなる。
にある類似度ベクトルおよびその回帰係数ベクトルの時
系列と、入力音声を分析して得られる類似度ベクトルお
よび回帰係数ベクトルの時系列パターンとをマッチング
し、最もスコアの大きい辞書項目を認識結果とする。認
識対象辞書格納部10には、類似度ベクトルとその回帰
係数ベクトルの時系列そのものではなく音声片を接続す
る手順のみを記述したものを格納しておいても良い。そ
して入力との類似度計算のとき、この手順に従って類似
度ベクトルとその回帰係数ベクトルを合成しても良い。
マッチング方法としてはDPマッチングを用いる。DP
マッチングを行なう漸化式の例を(数6)に示す。ここ
で、辞書の長さをIフレーム、入力の長さをJフレーム、
第iフレームと第jフレームの距離関数をl(i,j),累積
類似度をg(i,j)とする。
ッド距離、重み付ユークリッド距離、相関余弦距離など
が使用できる。本実施例では距離関数l(i,j)の距離尺
度として相関余弦を用いるので、この場合について説明
を行なう。入力音声のjフレームにおける類似度ベクト
ルを(数7)とし、
を(数8)とし、
クトルを(数9)とし、
ルを(数10)とすると、
11)のようになる。
り、0.4から0.6がよい。認識部11において入力
音声とのDPマッチング時に、ラベルに分岐制御子が表
れたときは"["と"]"に囲まれた"/"で区切られたパタ
ーンの累積類似度の大きい方を選択するようにする。こ
のときのDPマッチングの方法について以下に説明す
る。
とした非対称DPとする。本実施例における一部マルチ
パターンを持つ辞書とのDPマッチングのアルゴリズム
について以下に示す。なお、iフレーム目のラベルLnをL
BL(i)と書く。例えば図5においてLBL(1)は分岐制御子"
["、LBL(3)はシンボル"/<KU/"である。
下くりかえし 辞書フレームi=1からi=Iまでiを1ずつ増やしながら以
下くりかえし [I]LBL(i)が分岐制御子であった場合 (1)LBL(i)="["のとき ラベル"["の前2フレーム分の累積類似度をg(i,j)、
g(i+1,j)に書く。
g(i+1,j)に書く。
ルを L1 [ L3 / L5 ] とすると、始端からL3の終端までの長さ(音声片L1のフ
レーム数+音声片L2のフレーム数)と、始端からL5の終
端までの長さ(音声片L1のフレーム数+音声片L5のフレ
ーム数)の平均長とし、L3とL5のどちらが選択されたと
しても、それ以降の経路長はこの平均長を用いて計算す
る。
似度を経路の長さで正規化した値と、ラベル"]"の1つ
前のフレームの累積類似度を経路の長さで正規化した値
を比較し、大きい方の値に経路の平均長を掛けた値をg
(i+1,j)に書く。
似度を経路の長さで正規化した値と、ラベル"]"の2つ
前のフレームの累積類似度を経路の長さで正規化した値
を比較し、大きい方の値に経路の平均長を掛けた値をg
(i,j)に書く。
あった場合 ・(数12)の漸化式によって辞書軸側を基本軸とした
非対称DPマッチング計算を行う。
ターンに対する類似度とする。
により、辞書が一部マルチパターンとなっても辞書軸を
基本軸としてDPマッチングを行うことができ、単語の
スポッティングが可能となる。また入力音声1フレーム
に対する辞書音声の始端から終端までの累積類似度計算
を、入力音声に対してフレーム同期して行えば、リアル
タイムにマッチングを行うことができ、ハード化に適し
ている。
0名の音声データの認識評価実験を行った。音声片であ
るCV、VCは音韻環境を考慮した535単語を発声し
た前記20名とは異なる話者2名(男女各1名)の音声
データ中から切出し、複数個出現したCV、VCは出現
した個数分DPマッチングによる時間整合を行い平均化
したパターンを用いた。その結果、無声化母音および連
続母音の音便化を考慮しなかった場合、94.25%の
認識率であったものが、無声化母音および連続母音の音
便化の可能性のある部分がマルチパターンとなるように
CV、VCを接続した辞書を用いた場合、94.95%
の認識率が得られ、0.7%の向上が見られた。
ら発声変形するパターンと発声変形しないパターンとを
予め用意しておき、発声変形しやすい箇所のみマルチパ
ターンをもつ辞書にすることにより入力音声の無声化、
音便化に対しても高い認識率が得られる。さらに辞書軸
を基本軸とし、マルチパターンのどちらを選択してもマ
ルチパターンとなっている部分の2つの継続長の平均値
を継続長として用いることにより計算が簡略化し、スポ
ッティングが行いやすくなった。
=0.5とし、音素類似度とその回帰係数を1:1の割
合で混ぜた距離を用いたが、w=0として音素類似度の
みとしてもある程度高い認識率が得られ、計算量が削減
できる。
パタ−ンに対する類似度を特徴パラメータとすることに
より、無声化しやすい母音や音便化しやすい連続母音な
ど発声変形しやすい箇所について、その部分だけ辞書を
マルチパターンとして持ち、認識時には入力音声との類
似度の大きくなるどちらか一方のパターンを選択して類
似度を求めて認識することにより、入力音声の無声化、
音便化に対しても高い認識率が得られるものである。
作成に少数の発声データがあればよいため、実際に発声
変形が起こったパターンと起こらなかったパターンを用
意することは比較的容易であり実現しやすいものであ
る。
対する入力音声の類似度をDPマッチングにより求める
際、辞書軸を基本軸とし、そのマルチパターンのどちら
を選択してもマルチパターンとなっている部分の2つの
継続長の平均値を継続長として用いることにより、計算
を簡略化してスポッティングに適したDPマッチングを
高速に行うことができる。
ブロック結線図
明する概念図
ーンを説明する概念図
を表す概念図
法を説明する概念図
ブロック結線図
Claims (4)
- 【請求項1】予め、音韻環境を考慮した単語セットを1
名から数名の少数の話者が発声し、分析時間(フレー
ム)毎にm個の特徴パラメータを求め多数の話者で作成
したn種類の標準パターンとのマッチングを行ないn個
の類似度とn個の類似度の時間変化量をフレーム毎に求
め、この類似度ベクトルと類似度の時間変化量ベクトル
で作成した時系列パターンから音声片を切出して音声片
辞書として登録しておき、更に前記音声片辞書の音声片
を接続して作成した類似度ベクトルと類似度の時間変化
量ベクトルの時系列パターンまたは音声片の接続手順を
各認識対象項目ごとに作成して認識対象辞書に格納して
おき、認識時には、入力音声を同様にして分析して得ら
れるm個の特徴パラメータと、前記n種類の標準パター
ンとマッチングを行ないn次元の類似度ベクトルとn次
元の類似度の時間変化量ベクトルの時系列を求め、認識
対象辞書の各項目に登録されている類似度ベクトルと類
似度の時間変化量ベクトルの時系列パターンまたは音声
片の接続手順にしたがって合成された類似度ベクトルと
類似度の時間変化量ベクトルの時系列パターンを照合す
ることによって、辞書に登録した話者およびその他の話
者の入力音声を認識すると共に、母音の無声化や連続母
音の音便化のような発声変形が起こり得る辞書につい
て、少数話者の発声による実際に発声変形が起こったパ
ターンと起こらなかったパターンから切出した音声片を
接続してその部分のみ認識対象辞書をマルチパターンと
して持ち、認識時には入力音声との類似度の大きくなる
どちらか一方のパターンを選択して類似度を求めて認識
することを特徴とする音声認識方法。 - 【請求項2】n次元の類似度ベクトルの時系列と、その
時間的変化量を求めたn次元の時間的変化量ベクトルの
時系列を併用したことを特徴とする請求項1記載の音声
認識方法。 - 【請求項3】一部マルチパターンを持つ辞書に対する入
力音声の類似度を求める際に、辞書軸を基本軸とし、マ
ルチパターンの各々の継続長が異なる場合にそれらの平
均値を当該部の継続長として用いることにより計算を簡
略化して、スポッティング可能なDPマッチングを行う
ことを特徴とする請求項1又は2記載の音声認識方法。 - 【請求項4】音声片として、CV(子音+母音)パター
ン、VC(母音+子音)パターン、VCV(母音+子音
+母音)パターン、またはCV、VC、VCVの任意の
組合せのパターンのいずれかを用いることを特徴とする
請求項1から3のいずれかに記載の音声認識方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23438691A JP3277522B2 (ja) | 1991-09-13 | 1991-09-13 | 音声認識方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23438691A JP3277522B2 (ja) | 1991-09-13 | 1991-09-13 | 音声認識方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0573087A true JPH0573087A (ja) | 1993-03-26 |
JP3277522B2 JP3277522B2 (ja) | 2002-04-22 |
Family
ID=16970189
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP23438691A Expired - Lifetime JP3277522B2 (ja) | 1991-09-13 | 1991-09-13 | 音声認識方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3277522B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009008055A1 (ja) * | 2007-07-09 | 2009-01-15 | Fujitsu Limited | 音声認識装置、音声認識方法、および、音声認識プログラム |
CN116705058A (zh) * | 2023-08-04 | 2023-09-05 | 贝壳找房(北京)科技有限公司 | 多模语音任务的处理方法、电子设备及可读存储介质 |
-
1991
- 1991-09-13 JP JP23438691A patent/JP3277522B2/ja not_active Expired - Lifetime
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009008055A1 (ja) * | 2007-07-09 | 2009-01-15 | Fujitsu Limited | 音声認識装置、音声認識方法、および、音声認識プログラム |
JPWO2009008055A1 (ja) * | 2007-07-09 | 2010-09-02 | 富士通株式会社 | 音声認識装置、音声認識方法、および、音声認識プログラム |
US8738378B2 (en) | 2007-07-09 | 2014-05-27 | Fujitsu Limited | Speech recognizer, speech recognition method, and speech recognition program |
CN116705058A (zh) * | 2023-08-04 | 2023-09-05 | 贝壳找房(北京)科技有限公司 | 多模语音任务的处理方法、电子设备及可读存储介质 |
CN116705058B (zh) * | 2023-08-04 | 2023-10-27 | 贝壳找房(北京)科技有限公司 | 多模语音任务的处理方法、电子设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP3277522B2 (ja) | 2002-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Al-Qatab et al. | Arabic speech recognition using hidden Markov model toolkit (HTK) | |
EP2048655B1 (en) | Context sensitive multi-stage speech recognition | |
EP2888669B1 (en) | Method and system for selectively biased linear discriminant analysis in automatic speech recognition systems | |
WO2008033095A1 (en) | Apparatus and method for speech utterance verification | |
JPH07146699A (ja) | 音声認識方法 | |
US20010010039A1 (en) | Method and apparatus for mandarin chinese speech recognition by using initial/final phoneme similarity vector | |
Razak et al. | Quranic verse recitation recognition module for support in j-QAF learning: A review | |
Ranjan et al. | Isolated word recognition using HMM for Maithili dialect | |
JP2955297B2 (ja) | 音声認識システム | |
JP3403838B2 (ja) | 句境界確率計算装置および句境界確率利用連続音声認識装置 | |
JP5300000B2 (ja) | 調音特徴抽出装置、調音特徴抽出方法、及び調音特徴抽出プログラム | |
Ijima et al. | Prosody Aware Word-Level Encoder Based on BLSTM-RNNs for DNN-Based Speech Synthesis. | |
JP2001312293A (ja) | 音声認識方法およびその装置、並びにコンピュータ読み取り可能な記憶媒体 | |
JP3277522B2 (ja) | 音声認識方法 | |
JP2943473B2 (ja) | 音声認識方法 | |
Kaur et al. | On developing an automatic speech recognition system for commonly used english words in indian english | |
JPH09114482A (ja) | 音声認識のための話者適応化方法 | |
Adam et al. | Analysis of Momentous Fragmentary Formants in Talaqi-like Neoteric Assessment of Quran Recitation using MFCC Miniature Features of Quranic Syllables | |
JP2943445B2 (ja) | 音声認識方法 | |
Manjunath et al. | Improvement of phone recognition accuracy using source and system features | |
JPH08211893A (ja) | 音声認識装置 | |
JP3289670B2 (ja) | 音声認識方法および音声認識装置 | |
Takahashi et al. | Isolated word recognition using pitch pattern information | |
JP3457578B2 (ja) | 音声合成を用いた音声認識装置および音声認識方法 | |
JP2862306B2 (ja) | 音声認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080215 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090215 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100215 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100215 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110215 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120215 Year of fee payment: 10 |
|
EXPY | Cancellation because of completion of term | ||
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120215 Year of fee payment: 10 |