JPH06324699A - 連続音声認識装置 - Google Patents

連続音声認識装置

Info

Publication number
JPH06324699A
JPH06324699A JP5132861A JP13286193A JPH06324699A JP H06324699 A JPH06324699 A JP H06324699A JP 5132861 A JP5132861 A JP 5132861A JP 13286193 A JP13286193 A JP 13286193A JP H06324699 A JPH06324699 A JP H06324699A
Authority
JP
Japan
Prior art keywords
cepstrum
recognition
voice
feature amount
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5132861A
Other languages
English (en)
Inventor
Toshihiro Isobe
俊洋 磯部
Noriya Murakami
憲也 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
N T T DATA TSUSHIN KK
NTT Data Corp
Original Assignee
N T T DATA TSUSHIN KK
NTT Data Communications Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by N T T DATA TSUSHIN KK, NTT Data Communications Systems Corp filed Critical N T T DATA TSUSHIN KK
Priority to JP5132861A priority Critical patent/JPH06324699A/ja
Publication of JPH06324699A publication Critical patent/JPH06324699A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【目的】 連続音声認識装置において、認識のための処
理量を出来るだけ減らして実時間サービスが可能な程度
に処理時間を短縮すると共に、実用に耐えられる十分に
高い認識精度を確保する。 【構成】 入力された連続音声の全音声区間から、抽出
装置33がまず、ケプストラムを抽出し、このケプスト
ラムに基づいて照合装置36が入力音声の認識を行う。
この認識結果は尤度差算出装置316に送られ、ここ
で、第1候補と第2以下の候補との間の尤度差が算出さ
れる。次に、この尤度差が所定しきい値以下の音声区間
についてのみ、抽出装置33によりΔケプストラム及び
ΔΔケプストラムが抽出される。そして、照合装置36
ががその音声区間についてケプストラム、Δケプストラ
ム及びΔΔケプストラムに基づいて認識処理を行う。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、連続音声認識装置に関
するものであり、特に、実時間サービスを行うシステム
に好適に適用される連続音声認識装置に関するものであ
る。
【0002】
【従来の技術】図1は、従来の混合連続分布型HMMを用
いた連続音声認識装置の構成を示す。図2は第1図に示
した連続音声認識装置の処理過程を表わすフローチャー
トである。
【0003】図1において、音声入力装置11はマイク
ロホン等であり、入力された音声を電気信号に変換す
る。アナログ/ディジタル変換装置12は、音声入力装
置11からの音声波形信号をアナログ形式からディジタ
ル形式へ変換して、正規化などの信号処理を行う。
【0004】ケプストラム、Δケプストラム、ΔΔケプ
ストラム抽出装置13は、ディジタル信号に変換された
入力音声の線形予測分析を行い、ケプストラム、Δケプ
ストラム、ΔΔケプストラムを抽出する。
【0005】CPU14は本装置全体の制御を行うもの
である。メモリ15にはCPU14が必要とするプログ
ラム、データ等が格納されている。
【0006】標準認識辞書照合装置16は、出力確率算
出部17とビタビ演算部18とから構成されている。ま
た、標準認識辞書格納部19は、ケプストラム平均値、
分散値格納部110、Δケプストラム平均値、分散値格
納部111、ΔΔケプストラム平均値、分散値格納部1
12及び状態遷移確率格納部113とから構成されてい
る。
【0007】照合装置16の出力確率算出部17は、標
準認識辞書格納部19中のケプストラム平均値、分散値
格納部110、Δケプストラム平均値、分散値格納部1
11、及びΔΔケプストラム平均値、分散値格納部11
2に保存されているパラメータと、入力音声から抽出さ
れたケプストラム、Δケプストラム、ΔΔケプストラム
とを用いてケプストラム出力確率、Δケプストラム出力
確率、ΔΔケプストラム出力確率、及びその合計の出力
確率を算出する。
【0008】照合装置16のビタビ演算部18は、出力
確率算出部17で算出した合計出力確率と、標準認識辞
書格納部19中の状態遷移確率格納部113に保存され
ているパラメータとを用いて、ビタビ演算を行い、算出
される確率の大小に基づいて認識結果を出力する。ここ
で、状態遷移確率には、認識辞書の学習時に、学習デー
タのケプストラム、Δケプストラム、ΔΔケプストラム
の合計出力確率をもとに推定された値を用いる。
【0009】
【発明が解決しようとする課題】上述のように従来の連
続音声認識装置では、認識精度を上げるために、ケプス
トラム、Δケプストラム及びΔΔケプストラムといった
複数種類の特徴量を用いて、これらの特徴量を入力音声
から抽出した後、それぞれの特徴量ごとに出力確率を算
出し、そして、その合計出力確率を用いてビタビ演算を
行なう。
【0010】このような複数の特徴量を用いた出力確率
の算出処理は処理量が多く、装置全体の処理量の約90
%を占める。このため、認識結果を出力するまでに長い
時間を要し、実時間サービスを行うシステムには適用し
難いという問題がある。
【0011】また、処理量を削減するために、部分的に
使用する特徴量の種類を減少させることも考えられる
が、単純に特徴量の種類を削減すると認識精度の低下を
招くという問題がある。
【0012】本発明は上記事情に鑑みてなされたもの
で、その目的とするところは、連続音声認識において、
認識のための処理量を出来るだけ減らして実時間サービ
スが可能な程度に処理時間を短縮すると共に、実用に耐
えられる十分に高い認識精度を確保することにある。
【0013】
【課題を解決するための手段】本発明の連続音声認識装
置は、入力された連続音声の全音声区間から、第1の種
類の特徴量を抽出する第1の特徴量抽出手段と、抽出さ
れた第1種類の特徴量に基づいて、入力連続音声を認識
する第1の認識手段と、この第1の認識手段による認識
結果を評価することにより、入力連続音声から一部の音
声区間を検出する音声区間検出手段と、この検出された
音声区間から、第2の種類の特徴量を抽出する第2の特
徴量抽出手段と、抽出された第1の特徴量と第2の種類
の特徴量とに基づいて、入力連続音声を認識する第2の
認識手段とを備える。
【0014】
【作用】上記構成によれば、入力音声の全音声区間につ
いて、まず、第1種類の特徴量を用いて認識が行われ、
続いて、識別性の比較的低い一部の音声区間についての
み、更に第2種類の特徴量も加味して認識が行われる。
【0015】従って、全種類の特徴量を全音声区間につ
いて使用する従来技術に比較し、処理量が減少して処理
速度が上がると共に、第2種類の特徴量を用いる音声区
間の選択を適切に行えば、従来技術と同等の高い認識率
が維持できる。
【0016】
【実施例】以下、本発明の実施例を図面に基づいて詳細
に説明する。
【0017】図3に本発明に従う混合連続分布型HMM連
続音声認識装置の一実施例の構成を示す。図4は、この
実施例の動作を示すフローチャートである。
【0018】図3において、音声入力装置31は例えば
マイクロホンであり、入力された音声を電気信号に変換
する(図4、ステップS41)。アナログ/ディジタル
変換装置32は、入力装置31からの音声波形信号をア
ナログ形式からディジタル形式へと変換し、正規化など
の必要な前処理を行う(図4、ステップS42)。
【0019】CPU34は本音声認識装置全体の制御を
行い、メモリ35にはCPU34の必要とするプログラ
ム、データ等が格納されている。
【0020】ケプストラム、Δケプストラム、ΔΔケプ
ストラム抽出装置33は、CPU34の制御下で、A/
D変換装置32からのディジタル化された音声波形信号
の線形予測分析を行い、この信号の各音声区間につい
て、まず、ケプストラムを抽出する(図4、ステップS
43)。
【0021】以下に詳しく述べるように、この音声認識
装置では、まず、このケプストラムのみを用いて音声認
識が行われる(図4、ステップS44、S45)。この
ケプストラムに基づく認識結果において、第1候補と第
2候補以下との尤度差が全ての音声区間に関して所定の
しきい値以上であれば、この認識結果が最終的な認識結
果として出力される(図4、ステップS53)。
【0022】しかし、上記尤度差が所定しきい値以下で
ある音声区間が存在する場合には、その音声区間につい
て、抽出装置33は更に、入力音声波形信号からΔケプ
ストラムとΔΔケプストラムとを抽出する(図4、ステ
ップS47,48)。そして、ケプストラムとΔケプス
トラムとΔΔケプストラムとに基づいて、再度音声認識
が行われ(図4、ステップS49)、その結果が最終的
な認識結果として出力される(図4、ステップS5
3)。
【0023】標準認識辞書平均値、分散値格納部39
は、ケプストラム平均値、分散値格納部310と、Δケ
プストラム平均値、分散値格納部311と、ΔΔケプス
トラム平均値、分散値格納部312とを備える。これら
格納部310、311、312にはそれぞれ、予め用意
された種々の単語のケプストラム、Δケプストラム、Δ
Δケプストラムの平均値と分散値とが格納されている。
【0024】標準認識辞書状態遷移確率格納部313
は、ケプストラム単独用状態遷移確率格納部314と、
3特徴量使用状態遷移確率格納部315とを備える。3
特徴量使用状態遷移確率格納部315は、認識辞書の学
習時に、学習データの ケプストラム、Δケプストラ
ム、ΔΔケプストラムの3特徴量の合計出力確率をもと
に推定された状態遷移確率を格納したもので、図1の従
来装置の状態遷移確率格納部113と同様のものであ
る。また、ケプストラム単独用状態遷移確率格納部31
3は、認識辞書の学習時に、学習データのケプストラム
のみの出力確率をもとに推定された遷移確率を格納した
ものであり、その推定計算の方法は3特徴量使用用状態
遷移確率のそれと同様である。
【0025】標準認識辞書照合装置36は、出力確率算
出部37とビタビ演算部38とを備える。
【0026】出力確率算出部37は、CPU34の制御
下で、まず、標準認識辞書平均値、分散値格納部39中
のケプストラム平均値、分散値格納部310に保存され
ているパラメータと、抽出装置13によって入力音声波
形信号から抽出されたケプストラムとを用いて、ケプス
トラム出力確率を算出する(図4、ステップS44)。
【0027】ビタビ演算部38は、CPU34の制御下
で、出力確率算出部37によって算出されたケプストラ
ム出力確率と、標準認識辞書状態遷移確率格納部313
中のケプストラム単独用状態遷移確率格納部314に保
存されているパラメータとを用いて、ビタビ演算を行
い、算出された確率の大小から認識結果(つまり、第1
候補、第2候補、第3候補、…というような候補の列
挙)を出力する(ステップS45)。
【0028】この、ケプストラムのみを用いた認識結果
はCPU34に送られる。CPU34は、この認識結果
を候補尤度差算出装置316に送る。
【0029】候補尤度差算出装置316は入力音声の全
区間に対して上記のケプストラムのみを用いた認識結果
の第1候補と第2候補以下との間の尤度の差の算出処理
を行い、算出された尤度差が所定のしきい値以上である
か未満であるかを判定し、判定結果をCPU34返す
(図4、ステップS46)。
【0030】この判定結果を受けたCPU34は、第1
候補と第2候補以下との間の尤度差が全ての音声区間に
ついて所定しきい値以上であれば、ケプストラムのみを
用いた認識結果を最終的な認識結果として出力する。一
方、上記尤度差が所定しきい値未満である音声区間が存
在すれば、CPU34は、その音声区間に関して、抽出
装置33に指令してΔケプストラムとΔΔケプストラム
とを更に算出させ(図4、ステップS47,48)、そ
して、この算出されたΔケプストラムとΔΔケプストラ
ムを標準認識辞書照合装置36に送って、ケプストラ
ム、Δケプストラム、及びΔΔケプストラムの3特徴量
を用いて更なる認識処理を行わせる(図4、ステップS
49からS52)。
【0031】この更なる認識処理では、出力確率算出部
37は、Δケプストラム平均値、分散値格納部311、
及びΔΔケプストラム平均値、分散値格納部312に保
存されているパラメータと、ケプストラム抽出装置33
で算出されたΔケプストラムとΔΔケプストラムとを用
いて、Δケプストラム出力確率とΔΔケプストラム出力
確率とを算出し(図4ステップS49,50)、そし
て、それら2つの算出値と先に算出したケプストラム出
力確率とを含めた合計出力確率を算出する(図4、ステ
ップS51)。このケプストラム、Δケプストラム、Δ
Δケプストラムの合計出力確率はビタビ演算部38に送
られる。ビタビ演算部38は、この合計出力確率と、3
特徴量使用用状態遷移確率格納部315に保存されてい
るパラメータとを用いて、ビタビ演算を再度行い(ステ
ップS52)、算出された確率の大小から認識結果を決
定する。
【0032】この認識結果はCPU34に送られ、最終
的な認識結果として出力される(図4、ステップS5
3)。
【0033】以下に、標準辞書照合認識装置36及び候
補尤度差算出装置316の動作を更に詳しく説明する。
【0034】標準認識辞書照合装置36は、ケプストラ
ム、Δケプストラム、ΔΔケプストラム抽出装置33か
ら得られる時間Tの入力音声波形信号のケプストラムの
時系列 Y(1,T) = {y1,y2,…,yT}と、標準認識辞書平均
値、分散値格納部39の単語辞書群のケプストラムの時
系列 W(1,N) = {w(1),w(2),…,w(N)}との照合を行い、
次の(1)式の右辺が最大値をとるような単語w(n)を選
択して認識結果R(1,M)= {w(m1),w(m2),…,w(mM)}とす
る。
【0035】 P(R(1,M)|Y(1,T)) = max (P(w(m1)|Y(1,t1))×P(w(m2)|Y(t1,t2)× …×P(w(mM)|Y(tM-1,T)) (1) ここに、Y(t1,t2)は入力音声の時刻t1から時刻t2までの
区間のケプストラムの時系列を表わし、P(w(m2)|Y(t1,t
2))は入力音声の時刻t1から時刻t2までの区間のケプス
トラム時系列を単語w(m2)の認識辞書もケプストラム時
系列と照合したときの合致度を表わす条件付確率であ
る。
【0036】候補尤度差算出装置316はこの結果を受
けて、次の(2)式に表わすようにそれぞれの単語の条
件付確率を該当する音声区間長で正規化した値に基づい
て、次の(3)式に従って第1候補と第2候補以下との
間の尤度差を算出する。
【0037】 L(n,i) = P(w(mni)|Y(tn-1,tn)) / (tn-tn-1) (2) D(n,i,i+1) = L(n,i) - L(n,i+1) (3) ここに、L(n,i)は入力音声の時刻tn-1から時刻tnにおけ
る認識結果の第i候補の尤度であり、D(n,i,i+1)は入力
音声の時刻tn-1から時刻tnにおける認識結果の第i候補
と第i+1候補との間の尤度差である。
【0038】このようにして、候補尤度差算出装置31
6は、連続音声認識結果に含まれる単語の、該当する区
間における、第1候補と第2候補以下との尤度差を算出
する。その結果、この尤度差が所定のしきい値以下であ
る時間区間については、Δケプストラム及びΔΔケプス
トラムについても(1)式と同様な計算が行われ、それ
ぞれの条件付確率が求められる。そして、それらΔケプ
ストラム及びΔΔケプストラムの確率とケプストラムの
確率との合計確率に基づいて、(2)式と同様な計算が
行われて、最終的な認識結果が決定される。
【0039】図5は、この実施例を用いて行った連続数
字認識実験によって得られた認識率と第1候補と第2候
補との尤度差についてのしきい値との関係を表わしてい
る。図6は、同実験における処理時間比率と第1候補と
第2候補の尤度差のしきい値との関係を表わしている。
【0040】図5、6において、尤度差しきい値が0の
場合は、全ての音声区間にケプストラムのみを用いて音
声認識を行なったことを意味し、また、尤度差しきい値
が無限大の場合は、全ての音声区間にケプストラム、Δ
ケプストラム、ΔΔケプストラムを用いたことを意味し
ている。また、図6において、処理時間比率は全ての音
声区間についてケプストラム、Δケプストラム、ΔΔケ
プストラムを用いて音声認識を行なった場合を100パ
ーセントとしている。
【0041】上記の実験結果から、尤度差しきい値を約
0.02から約0.06の間の適当な値に設定すれば、実用に耐
えられる十分高い認識率と、かなりの処理時間短縮効果
とが得られる。例えば、尤度差しきい値を0.04に設定し
た場合、全ての音声区間にケプストラム、Δケプストラ
ム、ΔΔケプストラムを用いて音声認識を行なった場合
に比較して、実質的に同等の認識率が得られると共に、
70パーセント程度まで処理時間を短縮できる。
【0042】このように、上記実施例によれば、入力音
声における識別性の高い区間においてはケプストトラム
のみで認識を行い、識別性の低い区間においてはケプス
トラム、Δケプストラム、及びΔΔケプストラムを組み
合わせて認識を行うことによって、高い認識率を保ちな
がら、認識処理時間を低減することが可能となる。
【0043】以上、本発明の一実施例を説明したが、本
発明の範囲はこの実施例のみに限定されるわけではな
く、その要旨を逸脱しない範囲で種々の変形態様で実施
することができる。
【0044】例えば、特徴量として、入力音声のケプス
トラム、Δケプストラム、ΔΔケプストラムに代えて、
或いは併用して入力音声のパワー、Δパワー、ΔΔパワ
ーを用いることもできる。また、識別性の高い音声区間
について2種以上の幾つかの特徴量を使用し、識別性の
低い音声区間については、より多い種類の特徴量を使用
するようにしてもよい。
【0045】
【発明の効果】以上説明したように、本発明によれば、
連続音声認識装置において、入力音声の全区間に対して
所定種類の特徴量を使用して認識処理を行うと共に、そ
れでは十分な認識率を得ることの難しい識別性の比較的
低い音声区間についてのみ、より多い種類数の特徴量を
使用して認識処理を行うようにしているので、高い認識
率を維持しながら、処理時間を短縮できるという効果が
得られる。
【図面の簡単な説明】
【図1】 従来の混合連続分布型HMM連続音声認識装置
の構成を示す図である。
【図2】 従来の混合連続分布型HMM連続音声認識装置
における処理過程を示すフローチャートである。
【図3】 本発明に係る混合連続分布型HMM連続音声認
識装置の一実施例の構成を示す図である。
【図4】 同実施例における処理過程を示すフローチャ
ートである。
【図5】 同実施例を用いて行なった連続数字認識実験
における認識率と第1候補と第2候補以下の尤度差のし
きい値との関係を表わす図である。
【図6】 同実験における認識処理時間比率と第1候補
と第2候補以下の尤度差のしきい値との関係を表わすグ
ラフである。
【符号の説明】
31 音声入力装置 32 アナログ/ディジタル変換装置 33 ケプストラム、Δケプストラム、ΔΔケプストラ
ム抽出装置 34 CPU 35 メモリ 36 標準認識辞書照合装置 37 出力確率算出部 38 ビタビ演算部 39 標準認識辞書平均値、分散値格納部 310 ケプストラム平均値、分散値格納部 311 Δケプストラム平均値、分散値格納部 312 ΔΔケプストラム平均値、分散値格納部 313 標準認識辞書状態遷移確率格納部 314 ケプストラム単独用状態遷移確率格納部 315 3特徴量使用用状態遷移確率格納部 316 候補尤度差算出装置

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 入力された連続音声の全音声区間から、
    第1の種類の特徴量を抽出する第1の特徴量抽出手段
    と、 前記抽出された前記第1種類の特徴量に基づいて、前記
    入力された連続音声を認識する第1の認識手段と、 前記第1の認識手段による認識結果を評価することによ
    り、前記入力された連続音声について一部の音声区間を
    検出する音声区間検出手段と、 前記検出された音声区間から、前記第1の種類とは異な
    る第2の種類の特徴量を抽出する第2の特徴量抽出手段
    と、 前記抽出された第1の特徴量と前記第2の種類の特徴量
    とに基づいて、前記入力された連続音声を認識する第2
    の認識手段とを備えることを特徴とする連続音声認識装
    置。
  2. 【請求項2】 請求項1に記載の装置において、 前記第1種類の特徴量及び第2種類の特徴量は、それぞ
    れ、ケプストラム、Δケプストラム、ΔΔケプストラ
    ム、パワー、Δパワー、ΔΔパワーの種類群中から選ば
    れた1種類以上の特徴量であることを特徴とする連続音
    声認識装置。
  3. 【請求項3】 請求項1に記載の装置において、 前記音声区間検出手段が、 前記第1認識手段からの認識結果に含まれる第1候補と
    第2以下の候補との間の尤度差を算出する手段と、 前記尤度差と所定のしきい値との比較により、前記識別
    性の低い音声区間を検出する手段とを有することを特徴
    とする連続音声認識装置。
  4. 【請求項4】 請求項3に記載の装置において、 前記しきい値が0.02から0.06の範囲から選ばれることを
    特徴とする連続音声認識装置。
JP5132861A 1993-05-11 1993-05-11 連続音声認識装置 Pending JPH06324699A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5132861A JPH06324699A (ja) 1993-05-11 1993-05-11 連続音声認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5132861A JPH06324699A (ja) 1993-05-11 1993-05-11 連続音声認識装置

Publications (1)

Publication Number Publication Date
JPH06324699A true JPH06324699A (ja) 1994-11-25

Family

ID=15091254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5132861A Pending JPH06324699A (ja) 1993-05-11 1993-05-11 連続音声認識装置

Country Status (1)

Country Link
JP (1) JPH06324699A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008044582A1 (en) * 2006-09-27 2008-04-17 Sharp Kabushiki Kaisha Method and apparatus for locating speech keyword and speech recognition system
WO2009147927A1 (ja) * 2008-06-06 2009-12-10 株式会社レイトロン 音声認識装置、音声認識方法および電子機器
JP4734771B2 (ja) * 2001-06-12 2011-07-27 ソニー株式会社 情報抽出装置及び方法
JP2017102612A (ja) * 2015-11-30 2017-06-08 富士通株式会社 情報処理装置、活動状態検出プログラムおよび活動状態検出方法
WO2024117569A1 (ko) * 2022-11-30 2024-06-06 한국전자기술연구원 음향 이벤트별 지속시간을 고려한 음향 이벤트 인식 장치 및 방법

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4734771B2 (ja) * 2001-06-12 2011-07-27 ソニー株式会社 情報抽出装置及び方法
WO2008044582A1 (en) * 2006-09-27 2008-04-17 Sharp Kabushiki Kaisha Method and apparatus for locating speech keyword and speech recognition system
JP2010504553A (ja) * 2006-09-27 2010-02-12 シャープ株式会社 音声キーワードの特定方法、装置及び音声識別システム
US8255215B2 (en) 2006-09-27 2012-08-28 Sharp Kabushiki Kaisha Method and apparatus for locating speech keyword and speech recognition system
WO2009147927A1 (ja) * 2008-06-06 2009-12-10 株式会社レイトロン 音声認識装置、音声認識方法および電子機器
JPWO2009147927A1 (ja) * 2008-06-06 2011-10-27 株式会社レイトロン 音声認識装置、音声認識方法および電子機器
JP5467043B2 (ja) * 2008-06-06 2014-04-09 株式会社レイトロン 音声認識装置、音声認識方法および電子機器
JP2017102612A (ja) * 2015-11-30 2017-06-08 富士通株式会社 情報処理装置、活動状態検出プログラムおよび活動状態検出方法
WO2024117569A1 (ko) * 2022-11-30 2024-06-06 한국전자기술연구원 음향 이벤트별 지속시간을 고려한 음향 이벤트 인식 장치 및 방법

Similar Documents

Publication Publication Date Title
US5862519A (en) Blind clustering of data with application to speech processing systems
US6317711B1 (en) Speech segment detection and word recognition
JPH09127972A (ja) 連結数字の認識のための発声識別立証
US7072835B2 (en) Method and apparatus for speech recognition
JP3496706B2 (ja) 音声認識方法及びそのプログラム記録媒体
JPH06324699A (ja) 連続音声認識装置
CN110875044B (zh) 一种基于字相关得分计算的说话人识别方法
US7043430B1 (en) System and method for speech recognition using tonal modeling
KR101229108B1 (ko) 단어별 신뢰도 문턱값에 기반한 발화 검증 장치 및 그 방법
JP2853418B2 (ja) 音声認識方法
JPH08314490A (ja) ワードスポッティング型音声認識方法と装置
JP2001083978A (ja) 音声認識装置
JP3207378B2 (ja) 音声認識方法
JPH1097269A (ja) 音声検出装置及び方法
JP3007357B2 (ja) 音声認識装置の辞書更新方式
JP2506730B2 (ja) 音声認識方法
JPH0997095A (ja) 音声認識装置
JP2577891B2 (ja) 単語音声予備選択装置
JPH0632006B2 (ja) 音声認識装置
JPH07281692A (ja) 音声認識装置
JPH09305195A (ja) 音声認識装置および音声認識方法
KR20000040573A (ko) 화자독립 고립단어 음성인식기의 오인식 방지장치 및 방법
JP3105708B2 (ja) 音声認識装置
JP3293191B2 (ja) 音声認識装置
CN112528629A (zh) 语句通顺度判别方法及系统