JPS63223796A - 音声認識方法 - Google Patents

音声認識方法

Info

Publication number
JPS63223796A
JPS63223796A JP62059407A JP5940787A JPS63223796A JP S63223796 A JPS63223796 A JP S63223796A JP 62059407 A JP62059407 A JP 62059407A JP 5940787 A JP5940787 A JP 5940787A JP S63223796 A JPS63223796 A JP S63223796A
Authority
JP
Japan
Prior art keywords
similarity
voice
noise
speech
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP62059407A
Other languages
English (en)
Other versions
JP2705061B2 (ja
Inventor
泰助 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP62059407A priority Critical patent/JP2705061B2/ja
Publication of JPS63223796A publication Critical patent/JPS63223796A/ja
Priority to US07/385,525 priority patent/US4984275A/en
Priority to US07/777,713 priority patent/US5220609A/en
Application granted granted Critical
Publication of JP2705061B2 publication Critical patent/JP2705061B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 産業上の利用分野 本発明は人間の声を機械に認識させる音声認識方法に関
するものである。
従来の技術 近年音声認識技術の開発が活発に行なわれ、商品化され
ているが、これらのほとんどは声を登録した人のみを認
識対象とする特定話者用である。
特定話者用の装置は認識すべき言葉をあらかじめ装置に
登録する手間を要するため、連続的に長時間使用する場
合を除けば、使用者にとって大きな負担となる。これに
対し、声の登録を必要とせず、使い勝手のよい不特定話
者用の認識技術の研究が最近では精力的に行なわれるよ
うになった。
音声認識方法を一般的に言うと、入力音声と辞書中に格
納しである標準的な音声(これらはパラメータ化しであ
る)のパターンマツチングを行なって、類似度が最も高
い辞書中の音声を認識結果として出力するということで
ある。この場合、入力音声と辞書中の音声が物理的に全
く同じものならば問題はないわけであるが、一般には同
一音声であっても、人が違ったり、言い方が違っている
ため、全く同じにはならない。
人の違い、言い力の違いなどは、物理的にはスペクトル
の特徴の違いと時間的な特徴の違いとして表現される。
すなわら、調音器官([]1、舌、のどなど)の形状は
人ごとに異な−)でいるので、人が違えば同じ言葉でも
スペクトル形状は異なる。
また早口で発声するか、ゆっくり発声するかによって時
間的な特徴は異なる。
不特定話者用の認識技術では、このようなスペクトルお
よびその時間的変動を正規化して、標準パターンと比較
する必要がある。
不特定話者の音声認識に有効な方法として、本出願人等
は既にパラメータの時系列情報と統計的距離尺度を併用
する方法を提案している(二矢田池:′′簡単な不特定
話者用音声認識方法゛″1日本音響学会講演論文集、!
−1−4(昭和61年3月))ので、その方法を以下に
説明する。
この方法は、パターンマツチング法を用いて、音声を騒
音中からスボンティングすることによ、)で、音声の認
識を行なうと同時に音声区間をも検出することができる
まず、パターンマツチングに用いている距離尺度(統計
的距離尺度)について説明する。
入力単語音声長をJフレームに線形伸縮し、1フレーム
あたりのパラメータベクトルをXjとすると、入力ベク
トルXは次のようになる。
X= (xl 、 x2、−・・、XJ)ここで、各X
Jはp次元のベクトルである。
単語ωk(に;1,2.・・・・・、に)の標準パター
ンとして、平均値ベクトルをμk、共分散行列をWkと
すると、事後確率P(ωklX)  を最大とする単語
を認識結果とすればよい。
べ・イズの定理より P(ωkl X)=P(ωh )・P(Xlωk)/P
(X)(1)右辺第1項のP(ωk)は定数と見なせる
。正規分布を仮定すると、第2項は −9−吉 P(Xlωk)=(2π)  1wJ  2・exp(
−172(X 4k)−W+c ・(X−μk)l (
2)゛分母項P(X)は入力パラメータが同一ならば定
数と見做ぜるが、異なる入力に対して相互比較するとき
は、定数にならない。ここでは、py+が平均(直μX
、共分散行列Wxの正規分布に従うものと仮定する。
一  −1 P(Xl= (2π)21 Wx l 2・exp (
−1/2 (X−μX)・w;1・(X−px)l  
(3)(1)の対数をとり、定数項を省略して、これを
Lkと置くと、 Lk:=(X−μk)−wk+1(X−μ5c)−(X
−px)* WX  ・(X−px)+eog lWk
 l  (Iota l Wx I  (4)ここで、
Wk、Wxを全て共通と置きWとする。
すなわち、 W−(W1+w2+−・−−−−Nvk+Wz)/(K
+1)    (5)として(4)式を展開すると、 Lk=sb −Asc −x            
(6)ただし、 Ak=2(W  ’  *pk−W  ’−μx)  
     fカF3に=pk #W  #pk−px 
11W  −px   (8)(6)式は計算漬が少な
い1次判別式である。ここで、(四式を次のように変形
する。
すなわち、Lkはフレームごとの部分類似度められる。
次に、上記の距離尺度を用いて、騒音中から音声をスポ
ツティングして認識する方法と、計算量の削減法につい
て説明する。
音声を確実に含む十分長い区間を対象として、この中に
種々の部分区間を設定して、各単語との類似度を(9)
式によって求め、全ての部分区間を通して類似度が最大
となる単語を認識結果とすればよい。この類似度計算を
そのまま実行すると計算量が膨大となるが、単語の持続
時間を考慮して部分区間長を制限し、また計算の途中で
部分類似度量を削減できる。第4図は本方法の説明図で
ある。
入力と単語にの照合を行う場合、部分区間長(k)  
    (st) n(n、<。< n e )を標準パターン長Jに線形
伸縮し、フレームごとに終端固定で類似度を計算してい
く様子を示している。類似度はQR上の点Tから出発し
てPで終るルートに沿って(9)式で計算される。した
がって、1フレームあたりの類似度計算は全て△PQR
内で行われる。ところで(9)式(DxJは、区間長n
を伸縮した後の第Jフレーム成分なので、対応する入力
フレーム1゛が存在する。そこで入力ベクトルを用いて
、d(k)を次のように表現できる。
(k)      (h) d(+°、j)=aj°xI         (10
)ただし、1°=ヨーrn(J)+1    (11)
ここで、rn(j)は単語長nとJの線形伸縮を関係づ
ける関数である。したがって、入力の各フレームと、(
k)との部分類似度が予め求められていれば、(9)式
は1゛ の関係を有する部分類似度を選択して加算する
ことによって簡単に計算できる。ところで、△PQRは
1フレームごとに右へ移動するので、ps上でa(k)
とxl  の部分類似度を計算して、それを△PQSに
相当する分だけメモリに蓄積し、フレームごとにシフト
するように構成しておけば、必要な類似度は全てメモリ
内にあるので、部分類似度を求める演算が大幅に省略で
き、計算量が非常に少なくなる。
第5図は従来例の実現方法を説明した、機能ブロック図
である。未知入力音声信号はAD変換部10で、8にH
z  サンプリングされて12ビツトのディジタル信号
に変換される。音響分析部11は10 m5ec (1
フレーム)ごとに入力信号のLPG分析を行ない、10
次の線形予測係数と残差パワーを求める。特徴パラメー
タ抽出部12は、線形予測係数と残差パワーを用いて、
LPCケプストラム係数01〜C5とパワー項COを特
徴パラメータとして求める。したがって、フレームごと
の特徴ベクトルXは xt= (co、 ct +・・−・C5)     
  (12)である。なお、LPG分析とLPCケプス
トラム係数の抽出法に関しては、例えばJ、D、マーケ
ル、A、)−1,グレイ著、鈴木久喜訳「音声の線形予
測」に詳しく記述されているので、省略する。
フレーム同期信号発生部13は、1orrr9ecごと
のタイミング信号(フレーム信号)を発生する部分であ
り、認識処理はフレーム信号に同期して行なわれる。
標準パターン選択部18は、1フレームの期間に、標準
パターン格納部17に格納されている単語ナンバー、k
=1.2.・・・・・・にを次々と選択してゆく。部分
類似度計算部21では、選択された標(k) の部分類似度’ (+、J)を計算する。
(J=1.2.・・・・・・J) 計算した部分類似度は類似度バッファ22へ送出して蓄
積する。類似度バッファ22は、新しい入力が入ると、
一番古い情報が消滅する構成になっている。
区間候補設定部15は選択された単語ナンバーごとに、
その単語の最小長n と最大長1(k)を設(+c) $              6 定する。時間伸縮テーブル24には(11)式の関係が
テーブル形式で格納されており、単語長nとフレーム」
を指定するとそれに対応する量゛が求よる。n(k)り
n≦、 (k)の範囲の各々の単語長nに対1−   
     e してi′を読出し、それに相当する部分類似度(k) d(1’、J)、J = 1.2.  ・・・Jを類似
度バッファ22から読み出す。類似度加算部23はぬる
。類似度比較部20は、求めたLkと一時記・億19の
内容を比較し、類似度が大きい(距離が小さい)方を一
時記憶19に記録する。
このようにしで、フレ・−ムj=1□  から始め、標
準パターンに−1に対してn(1)≦n≦n(1)の範
s           6 囲で最大類似度L  (rnmx)を求め、次にに’=
2としてn(2)<i≦n(2)の範囲で求めたし  
と8−      e               
2L′’(mix)  を比較して類似度の最大値を求
め、このようにしてに−にまで同様な手順を繰返して最
大類似度L  、(rnax)  とその時の単語ナン
バーk゛を一時記憶19に記憶する。次にI=Io+△
Cとして同様な手順を繰返して、最終フレームl ==
音に到達した時に一時記憶に残されている単語ナンバー
k = k mが認識結果である。また、最大類似度が
得られた時のフ1ノ一ムナンバーi = l m ト単
語長n ’−” n mを一時記憶19に蓄清し、更新
するようにしておけば、認識結果と同時に、その時の音
声区間を結果として求めることができる。音声区間はi
rn−nm〜Imである。
発明が解決しようとする問題点 かかる方法における問題点は、音声を確実に含む↑−分
長い区間を対象として、この中の取り得るす−<ての音
声区間とパターン・マツチングを実行さセるため、音声
の前後の環境−ノイズを含む音声区間で、最大の類似度
となり、誤認識の大きな要因になる。
本発明の目的は上記問題点を解決するもので、音声を確
実に含む十分長い区間の中から取り得る音声区間が、パ
ワー情報からみて、不自然であれば、その音声区間で、
類似度を減少させることに。
より、高い認識率を有する音声認識方法を提供するもの
である。
問題点を解決するための手段 本発明は、上記目的を達成するもので、パワー情報があ
るいき値θN以下であれば、入力音声から抽出された特
徴パラメータを既存のノイズ晧パラメータに置き換えて
、取り得るすべての音声区間に対して、各単語の標準パ
ターンと距離計算又は類似度計算を行ない、その中で最
小の距離又は最大の類似度を示す単語を認識単語とする
ものである。
作  用 本発明の認識方法の場合、パワー情報がいき値θに以下
の”クレームを含む音声区間においでは、各単語の標準
パターンとの距離又は類似度が、ノイズ・パラメータと
1部マツチングさセるため、大きくなり又は下がり、認
識されにくくなる。
このことにより、低レベル輸ハワーの環境ノイズの時間
的変動に無関係に認識が行なわれるため、竜話背声認識
の場合の、回線ノイズの影響を受けにくくなる。また、
音声認識装置を製造する場合、音声入力部のアナログ回
路による低レベルな回路、ノイズに対しても、距離計算
時に、既存ノイズ・パラメータに置換されるため、認識
結果に無関係になり、全く影響を受けない。これにより
、製造時のアナログ回路の調整が回路ノイズ・レベルを
ある一定値以下におさえればよく、非常に楽になる。
実施例 以下に本発明の実施例を図面を用いで1詳細に説明する
。第1図は本発明の一実施例における音声認識方法の具
現fヒを示す機能ブロック図である。
まず本実施例の基本的な認識の考え方は、従来例に」−
げた方式とほぼ同じである。すなわち、未知入力音声信
号はAD変換部110で、8にHzサンプリングされて
、12ピツF・のディジタル信号に変換される。音響分
析部111は、10m5ec(1フレーム)ごとに入力
信号のLPG分析を行ない、10次の線形予測係数と残
差パワーを求める。特徴パラメータ抽出部112は、線
形予測係数と残差パワーを用いて、LPGケプストラム
係数C1〜C9とパワー項CQを特徴パラメータとして
求める。したがって、フレーム毎の特徴ベクトルXは、 xt == (C□ 、 CI 、 −−c9 )  
    (14)である。なお、LPG分析とLPCケ
プストラム係数の抽出法に関しては、例えばJ、 D、
マーケル、A、 H,グレイ著、鈴木久喜訳「音声の線
形予測」に詳しく記述されているので省略する。
フレーム同期信号発生部113は、1Q1yIscごと
のタイミング信号(フレーム信号)を発生する部分であ
り、認識処理はフレーム信号に同期して行なわれる。
標準パターン選択部116は、1フレームの期間に、標
準パターン格納部115に格納されて(する単語ナンバ
ーに=1.2・・・・・・ にを次々と選択してゆく。
部分類似度計算部114では、選択され(k)(k)t
−xl  (J =1.2−J)  (15)’(1,
J)=”J 計算した部分類似度は類似度ノ(ツファ119へ送出し
て蓄積する。類似度)(ツファ119Cよ、新しい入力
が入ると、一番古い情報が消滅する構成暑こなっている
区間候補設定部117は、選択された単語ナンバーごと
に、その単語の最小長n(k)と最大炎、(k)$  
           ・ を設定する。時間伸縮テーブル118には(11)式の
関係がテーブル形式で格納されており、単語長それに対
応するI′が求まる。1(k)<、≦n(k)の$−・ 範囲の各々の単語長iに対して1° を読み出し、(k
) それに相当する部分類似度d(69,J)、」=1,2
・・・・・Jを類似度バッファ119から読み出す。類
似度加算部120は、 る。類似度比較部121は、求めたLkと今までのフレ
ームで一大の類似度を格納している一時記憶122の内
容と比較し、類似度が大きい(距離が小さい)方を一時
記憶122に記録する。
このようにして、フレーム1=IQから始め、標準パタ
ーンに=1に対して、1(1)≦n≦n(1)のs  
        e 範囲で最大類似度max(L、)  を求め、次にh=
2として、(2)<、≦n(2)の範囲で求めたmax
S −e (Llo)とm@z (L ” )を比較して類似度の
最大値を求め、このようにしてに=にまで同様な手順を
繰返して最大類似度max (L 10)とその時の単
に’ 語ナンバーに゛を一時記憶122に記憶する。次に!=
10+△1 として同様な手順を繰返して、最終フレー
ム1=目こ到達した時に一時記憶122に残されている
単語ナンバーk = k mが認識結果である。
次に、上記説明における−0から1までの走査区間決定
方法とノイズ・パターンうめ込み法について説明する。
第2図は、走査開始(類似度比較部以後の開始)10フ
レームと認識完了(走査終了)lフレームと音声との関
係を表わしたものである。
本実施例においては、走査区間の始端はノfワー情報で
求め、終端はパワー情報と類似度情報を併用して求め、
ノイズ・パターンのうめ込みは、/<ワー情報を利用す
る。パワー情報による方法ζよ、人の声の方が周囲の騒
音よりも大き0ことを利用する方法であるが、人の声の
大きさは環境に影響されるので、声の大きさのレベルを
そのまま利用しても良い結果は得られない。しかし、人
の発声は、静かな環境では小さく、やかましい環境では
大きくなる傾向があるので、信号対ノイズ比(SZN比
)を用いれば、環境騒音の影響をあまり受けずに音声を
検出できる。パワー計算部123は、フレーム毎にパワ
ー(対数値)を計算する。
以下ノイズeレベル学習部124、パワー比較部125
について説明する。
第3図において、実線はパワー(対数値)の時間変化を
示す。この例ではa、b、cの3つのパワーピークが生
じているが、このうち1はノイズによる不要なピークで
あるとする。破線はノイズの平均レベル(PN) 、細
線はノイズの平均レベルより常にθK(dB)だけ大き
い、閾値レベル(PK)、また一点鎖線はノイズの平均
レベルより常にθN(dB)だけ大きい、閾値レベル(
Pθ)である。ノイズの平均レベルPNは次のようにし
て求める。パワー値をPとすると ただし、Pmは閾値レベル以下のパワーレベルヲ有する
第mフレームパワー値である。すなわちPNは閾値レベ
ル以下(ノイズレベル)のフレームの平均値であり、こ
の直はノイズ・1ノベル学習部124で求める。このよ
うにすると、第3図の破線で示すように、ノイズの平均
レベルPNf、t/fワー値を平滑化した波形となる。
また閾値レベルPθ、PKは である。
第3図を例として音声検出およびノイズ・パターン置換
の方法を説明する。信号の始まり部におけるパワーを初
期ノ・イズレベルとし、式(16)によってノイズの平
均レベルPNを求めながら、ノ<ワーレベルPと閾値レ
ベルPθを比較してゆく。最初のパワーピークaはPθ
以下であるので、音声として検出されない。パワーピー
クbの立上りのW分dでパワーレベルが19以上になる
と式(16)の操作を中止し、以後P=Pθになるまで
PNおよびPθを一定に保つ。モしてeからfにかけて
P≦Pθとなるので式(16)の操作を行なう。fから
9まではPDPθであるからPN、Pθは一定となる。
結果としてp>pθとなる区間B、Dを音声が存在する
区間とする。
ノイズ−パターン置換は、パワー比較部125で判定さ
れる。すなわち、第3図で、pzpにのフレーム、即ち
h以前、■〜f、に以降のαで表わされる領域において
は、音声の部分ではないと見做し、P>PKのフレーム
、即ちh〜1、j〜にのβで表わされる領域においては
、音声の部分と見做す。
P≦Pにのフレームにおいては、ノイズ・パラメータ格
納部126より、ノイズ・パラメータX六−(g□、n
l・−n 9 ) を送出し、(14)式のxtの特徴パラメータのかわり
に、xtを用いて、部分類似度計算(15)式を行なう
ノイズ・パラメータとして、標準パターンとの部分類似
度が小さくなるようなパラメータを選択することにより
、ノイズ区間を含むような音声区間で、最大類似度を出
す誤認識を防止することができる。例えば、10数字の
認識の時、「ゴ」が「ゼロ」に、または「ヨン」が「サ
ン」に誤認識される場合がよくある。この場合「ゴ」の
語頭のノイズの部分と「ゼロ」の子音2と似ている場合
、または「ヨン−1の語頭のノイズが子音Sと似ている
場合である。これらの場合、その認識環境に関係なく、
一定のノイズ会パターンがうめ込まれるため、上記の誤
認識を防ぐことができる。
走査区間設定部127では、第2図のIQ走査開始を、
PンPθの時点(第3図のd点)で行ない、1は一度p
>pθになってからP≦PθがHフレーム継続し、それ
までの最大類似度が、あるいき値以上になっていれば、
終了1に達する。
従来例に述べた、音声区間を決定せず、音声らしき所の
周辺において、考丸られる音声区間すべての中から、最
大類似度を求める方法においては、一般的に、パワー情
報を用いて、音角区間を決定し、標準パターンとマツチ
ングする方式よりも騒音レベルが高い場合や非定常なノ
イズが混入する場合は、強いと言えるが、逆に、騒音が
スベク1−ル的に、音声と似かよった場合弱くなる。本
実施例の場合ノイズ会パターンうめ込み方式を用いるこ
とによりこの弱さを浦、っている。また、認識装置を天
竜生産する場合音声入力部のアナログ回路の製作−調整
においで、12ビットのAD変換器が常にゼロになるよ
うな、アナログ回路を製作・調整するのは、至難のわざ
であるが本実施例のノイズ−パターンうめ込み方式を使
え(J:、ノイズ・パワーをあるいき値以内にするよう
にアナログ回路を調整すればよく、調整が非常に簡単に
なるという効果がある。
発明の効果 以上要するに本発明は、音声を確実に含む十分長い区間
の中から、取り得る音声区間がパワー情報からみて不自
然であれば、入力音声から抽出した特徴パラメータを、
既存のノイズ会パラメータと置き換えて、その音声区間
で類似度を減少させるようにした音声認識方法を提供す
るもので、騒音や製造のばらつき等の環境要素の変動に
強く、高い認識率が得られる利点を有する。
【図面の簡単な説明】
弔1図は本発明の一実施例における音声認識方法を具現
化する機能ブロック図、第2図は本実施例における標準
パターンとのマツチングを行う開始、終了時期と音声と
の関係図、第3図は本実施例におけるパワー情報を用い
たノイズ・パターンうめ込みタイミングと走査区間決定
のための音声有無決定法を説明するパワーレベル図、第
4図は標準パターンとのパ多−ンマツチング法を説明し
た概念図、第5図は従来例の方法を説明した機能ブロッ
ク図である。 110・・・・・・AD変換部、111・・・・・・音
響分析部、112・・・・・・特徴パラメータ抽出部、
113・・・・・・フレーム同期信号発生部、114・
・・・・・部分類似度計算部、115・・・・・・標準
パターン格納部、116・・・・・・標準パターン選択
部、117・・・・・・区間候補設定部、118・・・
・・・時間伸縮テーブル、119・・・・・類似度バッ
ファ、120・・・・・・類似度加算部、121・・・
・・・類似度比較部、122・・・・・・一時記憶、1
23・・・・・・パワー計算部、124・・・・・・ノ
イズ・レベル学習部、125・・・・・パワー比較部、
126・・・・・・ノイズ・パラメータ格納部、127
・・・・・走査区間設定部。 代理人の氏名 弁理士 中 尾 敏 男 ほか1名第2
図 第3図 第 41!1 1−〜

Claims (4)

    【特許請求の範囲】
  1. (1)音声とその前後の騒音を含む未知入力信号からパ
    ワー情報を用いて音声の存在を検出し、検出した時点を
    基準点として、基準点と基準点からN(N_1≦N≦N
    _2)だけ離れた区間の未知入力信号を区間長Lに線形
    伸縮し、伸縮した区間の特徴パラメータを抽出し、前記
    パワー情報を用いて、確実に音声が存在しない部分には
    、前記特徴パラメータを既知のノイズ・パラメータに置
    換し、この置換を含む特徴パラメータと認識対象とする
    複数の音声の標準パターンとの類似度又は距離をそれぞ
    れ求めて比較し、このような操作をNをN_1からN_
    2まで変化させて行ない、さらに基準点を単位区間ずつ
    ずらせながら同様の操作を行なって類似度又は距離を次
    々と求めて比較してゆき、パワー情報の動きを用いて求
    めた音声の持続時間と類似度の時間的な変化を併用して
    決定した処理終了時点へ基準点が到達した時における、
    全ての基準点そして全ての時間伸縮に対して最大類似度
    又は最小距離を得る標準パターンに対応する音声を認識
    結果として出力することを特徴とする音声認識方法。
  2. (2)音声信号とノイズの比率を用いて音声の有/無を
    検出することを特徴とする特許請求の範囲第1項記載の
    音声認識方法。
  3. (3)未知入力信号の特徴パラメータと各音声の標準パ
    ターンとの類似度又は距離を統計的距離尺度を用いて計
    算することを特徴とする特許請求の範囲第1項記載の音
    声認識方法。
  4. (4)統計的距離尺度が、事後確率に基づく尺度、一次
    判別関数、二次判別関数、コハラノビス距離、ベイズ判
    定、複合類似度に基づく尺度のうちいずれかであること
    を特徴とする特許請求の範囲第3項記載の音声認識方法
JP62059407A 1987-03-13 1987-03-13 音声認識方法 Expired - Fee Related JP2705061B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP62059407A JP2705061B2 (ja) 1987-03-13 1987-03-13 音声認識方法
US07/385,525 US4984275A (en) 1987-03-13 1989-07-27 Method and apparatus for speech recognition
US07/777,713 US5220609A (en) 1987-03-13 1991-10-21 Method of speech recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62059407A JP2705061B2 (ja) 1987-03-13 1987-03-13 音声認識方法

Publications (2)

Publication Number Publication Date
JPS63223796A true JPS63223796A (ja) 1988-09-19
JP2705061B2 JP2705061B2 (ja) 1998-01-26

Family

ID=13112394

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62059407A Expired - Fee Related JP2705061B2 (ja) 1987-03-13 1987-03-13 音声認識方法

Country Status (1)

Country Link
JP (1) JP2705061B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003536108A (ja) * 2000-06-05 2003-12-02 モトローラ・インコーポレイテッド 分散型音声認識プロセス及びシステムにおける伝送エラーの影響を緩和する方法及び装置
WO2008114448A1 (ja) * 2007-03-20 2008-09-25 Fujitsu Limited 音声認識システム、音声認識プログラムおよび音声認識方法
JP2015135437A (ja) * 2014-01-17 2015-07-27 日本電信電話株式会社 モデル推定装置、雑音抑圧装置、音声強調装置、これらの方法及びプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59161782A (ja) * 1983-03-04 1984-09-12 Matsushita Electric Ind Co Ltd パタ−ン・マツチング方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59161782A (ja) * 1983-03-04 1984-09-12 Matsushita Electric Ind Co Ltd パタ−ン・マツチング方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003536108A (ja) * 2000-06-05 2003-12-02 モトローラ・インコーポレイテッド 分散型音声認識プロセス及びシステムにおける伝送エラーの影響を緩和する方法及び装置
WO2008114448A1 (ja) * 2007-03-20 2008-09-25 Fujitsu Limited 音声認識システム、音声認識プログラムおよび音声認識方法
JP2015135437A (ja) * 2014-01-17 2015-07-27 日本電信電話株式会社 モデル推定装置、雑音抑圧装置、音声強調装置、これらの方法及びプログラム

Also Published As

Publication number Publication date
JP2705061B2 (ja) 1998-01-26

Similar Documents

Publication Publication Date Title
US6411933B1 (en) Methods and apparatus for correlating biometric attributes and biometric attribute production features
JP2007133414A (ja) 音声の識別能力推定方法及び装置、ならびに話者認証の登録及び評価方法及び装置
JP2001517325A (ja) 認識システム
JPH1083194A (ja) 話し手照合システムのための2段階群選択方法
US7212965B2 (en) Robust parameters for noisy speech recognition
US11929058B2 (en) Systems and methods for adapting human speaker embeddings in speech synthesis
JPS63223796A (ja) 音声認識方法
JP2006235243A (ja) 音響信号分析装置及び音響信号分析プログラム
TWI297487B (en) A method for speech recognition
JP4461557B2 (ja) 音声認識方法および音声認識装置
JPH06289891A (ja) 音声認識装置
JPS63223798A (ja) 音声認識方法
JP4603727B2 (ja) 音響信号分析方法及び装置
Koolwaaij Automatic speaker verification in telephony: a probabilistic approach
JPS6378200A (ja) 音声認識方法
Kuah et al. A neural network-based text independent voice recognition system
Chaudhary Short-term spectral feature extraction and their fusion in text independent speaker recognition: A review
JPS62111293A (ja) 音声認識方法
JP2710045B2 (ja) 音声認識方法
JP2004139049A (ja) 話者正規化方法及びそれを用いた音声認識装置
Al Hindawi et al. The exploitation of Multiple Feature Extraction Techniques for Speaker Identification in Emotional States under Disguised Voices
JP2882088B2 (ja) 音声認識方法
Thevagumaran et al. Enhanced Feature Aggregation for Deep Neural Network Based Speaker Embedding
JPH11212587A (ja) 音声認識における雑音適応方法
JPH01260497A (ja) 音声認識方法

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees