JPH0225898A - 音声認識装置 - Google Patents

音声認識装置

Info

Publication number
JPH0225898A
JPH0225898A JP63176703A JP17670388A JPH0225898A JP H0225898 A JPH0225898 A JP H0225898A JP 63176703 A JP63176703 A JP 63176703A JP 17670388 A JP17670388 A JP 17670388A JP H0225898 A JPH0225898 A JP H0225898A
Authority
JP
Japan
Prior art keywords
dictionary
pattern
orthogonalized
orthogonal
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63176703A
Other languages
English (en)
Inventor
Tsuneo Nitta
恒雄 新田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP63176703A priority Critical patent/JPH0225898A/ja
Priority to US07/378,780 priority patent/US4979213A/en
Publication of JPH0225898A publication Critical patent/JPH0225898A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) 本発明は特定のグループ構成員により共通に利用でき、
上記グループ構成員からの少ない学習パターンで高い認
識性能を得ることのできる音声認識装置に関する。
(従来の技術) 音声による情報の入出力は人間にとって自然性が高く、
マン争マシン・インターフエ・−スとして優れた利点を
存することから従来より種々研究されている。現在、実
用化されている音声認識装置の殆んどは単語音声を認識
する方式のもので、。
一般的には第3図に示すように構成されている。
この装置は発声入力された音声を電気信号に変換して取
込み、バンド・バス・フィルタ等からなる音響分析部1
にて音響分析し、始端・終端検出部2にてその単語音声
区間を検出する。そして入力音声の上記単語音声区間の
音響分析データ(特徴情報;音声パターン)と、標準パ
ターン辞書3に予め登録されている認識対象単語の各標
準パターンとの類似度や距離等をパターン・マツチング
部4にて計算し、その計算結果を判定部5にて判定して
、例えば類偏度値の最も高い標準パターンのカテゴリ名
を前記入力音声に対する認識結果として求めるものとな
っている。
しかしこのようにパターンφマツチング法による音声認
識では入力音声パターンと予め登録されている標準パタ
ーンとの時間軸方向のずれ(パターン変形)が問題とな
る。そこで従来では、専ら線形伸縮や動的計画法(DP
)に代表される非線形伸縮等により、上述した時間軸方
向のずれに対する課題を解消している。
一方、このようなパターン・マツチング法とは別に、予
め収集された学習パターンから直交化辞書を作成し、こ
の直交化辞書を用いて音声認識する方式(部分空間法)
が提唱されている。この方式は第4図にその構成例を示
すように、音響分析されて音声区間検出された音声パタ
ーンから、標本点抽出部6にて上記音声区間を等分割し
た所定点数の標本点を抽出12て[特徴ベクトルの数×
標本点数〕で示される標本パターンを求める。このよう
な標本パターンを認識対象とするカテゴリ毎に所定数ず
つ収集してパターン蓄積部7に格納する。そしてグラム
・シュミット(O8)直交化部8において、上記パター
ン蓄積部7に収集された所定数(3個以上)の標本パタ
ーンを用い、以下に示す手順で直交化辞書9を作成する
即ち、上記直交化辞書9の作成は、各カテゴリ毎にその
カテゴリのm回目の学習パターンをaIllとし、3回
発声された学習パターンを用いる場合には、 ■ 1回目の学習データa1を第1軸の辞書b1とし、 b   ma                   
      ・・・(1)!■ これを直交化辞@9に登録する。
■ 2回目の学習データa2からグラム・シュミットの
直交化式を用い、 なる計算を行い、1lb211が一定値より大きい場合
、これを第2軸の辞書b2として前記直交化辞書9に登
録する。但し、(・)は内積、1111はノルムを示す
■ そして3回目の学習データa3から、なる計算を行
い、1lb311が一定値より大きい場合、これを第3
軸の辞@b3として前記直交化辞@9に登録する。但し
、第2軸の辞書が求められていない場合には、上記(2
)式の計算を行う。
以上の■〜■の処理を各カテゴリについて繰返し実行し
て直交化辞書9を予め形成しておく。
類似度計算部lOは上述した如く作成された直交化辞!
9と、入力音声パターンXとの間でとして、カテゴリi
の直交化辞書b  との間の1、「 類似度を計算するものである。これらの各カテゴリiに
ついて求められた類似度値に従って上記入力音声パター
ンXが認識される。尚、上記カテゴリiの直交化辞書す
、 は予め正規化されたものIr であり、K1はカナ51月の辞書の個数(軸数)を示し
ている。
このようなOS直交化を用いることにより、その認識性
能の大幅な向上が図られている。また微分フィルタを用
いて時間軸方向および周波数方向の変動を吸収した直交
化辞書を作成し、更にその認識性能の向上を図ることも
試みられている。
ところがこの種の装置にあっては、専ら特定の話者に対
して標準音声辞書の作成が行なわれる。
この為、別の話者が上記音声認識装置を利用しようとす
る場合には、その都度、音声辞書を変更する必要が生じ
た。そこで多数の話者から数多くの学習パターンを収集
して直交化辞書を作成することが考えられているが、そ
の辞書作成が徒に複雑化し、認識性能の高い辞書を得る
ことが困難化する等の不具合が生じた。
(発明が解決しようとする問題点) このように従来の直交化辞書を用いた部分空間法による
音声認識にあっては、複数の話者から収集された学習パ
ターンから如何にし゛C性能の高い直交化辞書を効率良
く作成するかと云う点で課題が残されている。また直交
化辞書の作成に必要な複数の話者の学習パターンを如何
にして効率良く収集し、直交化辞書を作成するかと云う
点でも問題があった。
本発明はこのような事情を考慮してなされたもので、そ
の目的とするところは、複数の話者から収集される少な
い学習パターンにて認識性能の高い直交化辞書を効率的
に作成し、複数の利用者にて共通に利用可能な認識性能
の高い音声認識装置を提供することにある。
[発明の構成コ (問題点を解決するための手段) 本発明は入力音声を分析°処理して求められる入力音声
パターンと、予め収集された学習パターンに基いて作成
されている直交化辞書との間で類似度を計算して上記入
力音声を認識する音声認識装置に係わり、 個々の富者毎に収集された学習パターンの平均パターン
からそのボカシ処理パターンと微分処理パターンとをそ
れぞれ求める手段とを備え、1人目の話者の学習パター
ンから求められた上記ボカシ処理パターンと微分処理パ
ターンとから直交化辞書の基本となる直交軸を決定した
後、2人目以降の話者の学習バタ・−ンから求められた
上記ボカシ処理パターンと微分処理パターンとから、既
に辞書登録されている直交化辞書の各軸と直交する新た
な軸を決定し、この新たな軸のパターンを直交化辞書と
して登録するか否かを、例えばそのノルム値から判定し
て前記直交化辞書を構築していくようにしたことを特徴
とするものである。
(作用) 本発明によれば、1人目の話者から収集された学習パタ
ーンから求められるボカシ処理パターンと微分処理パタ
ーンとから直交化辞書の基本となる直交軸が決定されて
辞書の作成が行なわれ、その辞書登録がなされた後、2
人目以降の話者から収集された学習パターンに基づく辞
書作成に際しては、既に作成されて辞書登録されている
直交化辞書の各軸と直交する軸が求められ、この新たな
軸についての辞書が上記個別話者の学習パターンから求
められる。そしてそのノルムの値を判定することによっ
て辞書に追加登録するか否かが調べられ、辞書として有
用な場合にのみ前記直交化辞書への追加辞N登録が行な
われる。
この結果、複数の話者の学習パターンから、そのパター
ン変動要素を効率良く表現した直交化辞書を構築してい
くことが可能となり、認識性能の高い直交化辞書を得る
ことが可能となる。しかも基本となる直交軸の辞書に対
して、個別話者の変動パターンを直交ベクトルの組に効
率良く組入れて辞書表現することが可能となるので、そ
の計算量を少なくし、簡易に効率良く辞書を作成してい
くことが可能となる。
(実施例) 以下、図面を参照して本発明の一実施例につき説明する
第1図は本発明の一実施例に係る音声認識装置の概略構
成図で、第4図に示した従来装置と同一部分には同一符
号を付して示しである。
この実施例装置が特徴とするところは、パターン蓄積部
7に蓄積された学習パターンを用いて直交化辞書9を作
成する手段として、平均パターン計算部8a、ボカシ処
理部8b、微分処理部8c、1α直交クトル計算部8d
、および直交ベクトル登録判定部8cとからなる直交化
辞書作成部8を設けた点にある。
この直交化辞書作成部8により、第2図にその処理概念
を模式的に示すように1人目の話者から収集された学習
パターンから求められる平均パターンのボカシ処理パタ
ーン(平滑化パターン)と微分処理パターンとに従って
直交化辞書の基本となる直交軸が決定され、最初の辞書
が作成されて直交化辞書9に辞書登録される。その後、
2人目以降の話者から収集された学習パターンがら同様
にして求められるボカシ処理パターン(平滑化バターン
)と微分処理パターンとに従って、既に登録されている
直交化辞書の各軸に直交する軸の辞書が求められ、辞書
登録される。
即ち、この直交化辞書作成部8における平均パターン計
算部8aは、複数の話者毎にその話者から収集されてパ
ターン蓄積部7に蓄積されている学習パターンの平均パ
ターンを〜1算するものであり、ボカシ処理部8bは上
記平均パターンに対してボカシ処理を施し、上記平均パ
ターンを時間軸方向に平滑化したボカシ処理パターンを
求めるものである。また微分処理部8cは上記平均パタ
ーンを微分処理するもので、上記平均パターンを時間軸
方向に微分してなる微分処理パターンを求めている。
直交ベクトル計算部8dは先ず1人目の話者の学習パタ
ーンから求められた上記ボカシ処理パターンと微分処理
パターンとに従って直交化辞書の基本となる直交軸を決
定し、最初の辞書を作成して直交化辞:t19に辞書登
録する。その後、2人目以降の各話者の学習パターンか
ら求められた上記ボカシ処理パターンと微分処理パター
ンとに従って、上記基本軸に直交する輔(既に登録され
ている辞書の各軸にそれぞれ直交する軸)の辞書を求め
、この辞書を登録するか否かを直交ベクトル登録判定部
8eにて逐次判定1.ながう前記直交化辞書9に追加登
録して行くことで、認識性能の高い直交化辞書9を構築
していくものとなっている。
この直交化辞書作成部8における直交化辞書9の作成に
ついて更に詳しく説明すると、パターン蓄積部7に収集
される学習パターンとしては、例えばj  (−1,2
,〜6)で示される6点の音響分析された特徴ベクトル
からなり、その音声区間をk(−0,1,2,〜11)
として11等分する12個の標本点に亙って採取したデ
ータ系列として与えられる。
前記直交化辞書作成部8は、先ず辞書登録対象とするカ
テゴリiについて1人目の話者がら順に3個づつ学習パ
ターンを収集する。しかる後、1人目の話者から順に収
集される学習パターン中のm番目の学習パターンをaI
IIU、k)としたとき、先ず1人目の話者の学習パタ
ーンに基づいて直交化辞書9を次のようにして作成して
いる。
■ 先ず、平均パターン計算部8aにて1人目の話者の
カテゴリiの学習パターンam(j、k)から、その平
均パターンA(j、k)を [j−1,2,〜 IEf、  k−ロ、!、2.〜 
+73として求める。
■ しかる後、士述した如く求めた平均パターンA(j
、k)を用いて、ボカシ処理部8bにてbl(j、k)
   (j、に−1)    (j、k)   (j、
に+1)−1A        +2本A      
 +A[j=1.2.〜1B、  k−1,2,〜16
]         ・・・(6)なるボカシ(平滑化
)演算を施し、ボヵシ処理パターンbI(j、k)を求
める。直交ベクトル計算部8dはこのようにして求めら
れるボカシ処理パターンbl(j、k)を第1軸の辞書
b40.k)とし、基本軸の1つとして直交化辞書′9
に登録する。つまりこの辞” bl(j、k)は前記平
均パターンA   を時間(j、k) 軸方向に平滑化したものとして求められ、直交化辞i!
F9の基準となる第1軸の辞書データとなる。
■ しかる後、微分処理部8cにて前記平均パターンA
(j、k)を用い、 一−A     +A b2(j、k)    U、に−1)    U、に→
1)[j=1,2.〜16.に−1,2,〜16]  
       ・・・(7)なる微分演算を施し、微分
処理パターンb2(j=k)を求める。直交ベクトル計
算部8dはこの微分処理パターンb2(j、k)を前記
直交化辞書の今1つの基本軸としての第2軸の辞書b 
  とし、これを2 (j 、 k) 正規化した後に前記直交化辞M9に登録する。この第2
軸の辞@b2(j、k)は前述した平均パターンA(j
、k)を時間軸方向に微分したものとなる。
尚、このようにして計算される第2軸の辞書b2(j、
k)は、前記第1軸の辞書1)1(j、k)に対して完
全には直交していないことから、 82(j、k)= b2(j、k) (bz(j、k)   l(j、k))bl(j、k)
番 b なる再直交化処理を施し、この再直交化された辞書デー
タB2(j、k)を正規化後、新たな第2軸の辞書b2
(j、k)として前記直交化辞@9に登録するようにし
ても良い。
またここでは第2軸まで作成する例を示すが、更に2次
微分を行なう等し、て3軸以降の辞書を基本軸の直交化
辞書として作成することも勿論可能である。
■ しかる後、上述した如く最初の話者の学習パターン
から求められた直交化辞書を基本とし、直交ベクトル計
算部8dにて2人目の話者の学習パターンに従って上記
直交化辞書に直交する付加辞書を次のようにして作成す
る。
即ち、この付加辞書の作成は、2人目の話者の学習パタ
ーンに従って、先ず前述した平均パターンA(j、k)
の計算と、この平均パターンに対するボカシ演算処理と
微分演算処理とをそれぞれ実行し、前記パターン蓄積部
7に収集された学習パターンam(j、k)についての
ボカシ処理パターンCtおよび微分処理パターンC2と
をそれぞれ求める。
そして既に求められている直交化辞書の軸数をPとした
とき [n = 1.2+〜p  、  m −1,2]なる
ダグラシュミットの直交化式を演算1.て行われる。そ
してこの新しく求められた2人目の話者の特徴的変動を
表現する直交ベクトル(付加辞書)b  を直交ベクト
ル登録判定部8eに与え、そのpm ノルムllb   11が所定値よりも大きいか否かを
P十m 判定する。そしてそのノルム値が所定値よりも大きい場
合、これをパターン変動を吸収するに有用な付加辞書で
あるとしてパターン正規化処理を施した後に前記直交化
辞89に登録する。
以上の■〜■の処理を各カテゴリ毎に繰返し実行するこ
とによって各カテゴリiについての直交化辞書9が作成
される。そして1人目の話者の学習パターンからその基
本軸が決定された直交化辞書へのイ・1加辞書の追加登
録がなされ、その充実化が図られ゛る。
次に3人目以降の話者からの学習パターンを用いた辞書
作成については、パターン蓄積部7に格納された学習パ
ターンについて上述した■に示される処理だけを実行す
る。つまり前記パターン蓄積部7に収集された学習パタ
ーンal(J、k)について、そのボカシ処理パターン
C1と微分処理パターンC2とを求めた後、既に求めら
れている直交化辞書の各軸に直交する新たな軸の辞書を
前述したグラムシュミットの直交化式に従って求める。
そしてこの新しく求められた直交ベクトル新たな軸の辞
M)b  直交化ベクトル登録判定部8eにi1m 与え、そのノルムllb   IIが所定値より大きい
p+IIl か否かを調べる。モしてノルムlb   IIの値がa
l 所定値より大きい場合、これを新たに登録すべき辞書と
して、パターン正規化処理を施したのち、前記直交化辞
書9に登録する。
以上のようにして複数の話者の学習パターンから最初に
求められる直交軸の辞書を基本として、個々の話者から
求められる学習パターンに従う直交ベクトルを順次辞書
登録して直交化辞89を構築していく。この結果、一定
の人数範囲内であれば、その全ての登録話者の入力音声
パターンに対して認識性能の高い直交化辞、!F9を得
ることが可能となり、その認識性能の向上を図ることが
可能となる。
また上述したように簡単な演算処理によって新たな軸の
辞書を逐次作成していくので、その処理負担が非常に軽
く、複数の話者に適応し得る直交化辞書9を効率的に作
成することが可能となる等の効果が奏せられる。
次表は男性5名1女性3名から数字音声と人名からなる
30語の音声データをそれぞれ13回に亙って収集;7
、そのうちの3回分を学習用、残り10回分を認識性能
評価に用いた実験例を示すものである。
表 尚、この表における話者Aは比較的性能の悪い話者であ
り、話者Bは性能の良い話者である。またこれらの結果
は、10名の話者の全てが辞書登録を終えた時点での直
交化辞書セットを用いたときの認識性能を示している。
尚、参考として上記話者A、Bが単独で、所謂特定話者
で直交化辞書(4輔)を作成したときの認識性能はそれ
ぞれ92.5%、 98.3%であった。
この実験データに示されるように、本方式によればlO
名程度の登録話者に対して上述した如く直交化辞M9を
作成することで、その登録順序に拘らず全ての登録話者
に対して安定に、また比較的訪い性能で音声認識し得る
ことが明らかとなった。
尚、本発明は上述した実施例に限定されるものではない
。ここでは最初に複数の登録記者から2輔の直交化辞書
を作成する例について説明したが、更に多くの軸数の基
本直交化辞書を作成することも可能である。この場合、
直交化フィルタの係数と17では幾・っかのバリエーシ
ョンが考えられるが、要は学習パターンを平滑、1次微
分、2次微分。
・・・等すれば良いものであり、種々変形して実施する
ことができる。また学習パターンの次元数等も特に限定
されるものでもない。更には新たに作成する辞書の軸数
も学習パターン数に応じて定めれば良く、グラムシュミ
ット以外の直交化法を用いて辞書を作成することも可能
である。その他、本発明はその要旨を逸脱しない範囲で
変形して実施可能である。
[発明の効果] 以上説明したように本発明によれば複数の話者から収集
した学習パターンを用いて、これらの話者に対応可能な
直交化辞書を簡易に、且つ性能良(生成していくことが
可能なので、少ない学習パターンでパターンの変動を効
果的に表現1.た辞書を得ることができ、その認識性能
の向上を図り得る等の実用上多大なる効果を奏する。
【図面の簡単な説明】
第1図は本発明の一実施例に係る音声認識装置の概略構
成図、第2図は実施例装置における直交化辞書作成の概
念を模式的に示す図、第3図および第4図はそれぞれ従
来の音声認識装置の概略構成を示す図である。 1・・・音響分析部、2・・・始端・終端検出部、5・
・・判定部、6・・・標本点抽出部、7・・・パターン
蓄積部、8・・・直交化辞書作成部、9・・・直交化辞
書、1o・・・類似度演算部、8a・・・平均パターン
計算部、8b・・・ボカシ処理部、8c・・・微分処理
部、8d・・・直交ベクトル計算部、8o・・・直交ベ
クトル登録判定部。 出願人代理人 弁理士 鈴江武彦 1、事件の表示 特願昭63−176703号 2、発明の名称 音  声  認  識  装  置 3、補正をする者 事件との関係 特許出願人 (307)  株式会社 東 芝 4、代理人 東京都千代田区霞が関3丁目7番2号 5、自発補正 7、補正の内容 (1)  明細書、第4頁第17行目にrbl−alJ
とあるをrbl−a1/11 bllllと訂正する。 (2)同、第4頁第18行目に「登録する。」とある次
に「但し、+111はノルムを示す。」なる文章を加入
する。 (3)同、第5頁第1行目に示す式を下記の通り訂正す
る。 記 b  −a  −(a  −bl) b、    −(
2)(4)同、第5頁第3行目に「これを第2軸」とあ
るを[b2をII b 2IIで正規化した後、第2軸
」と訂正する。 (5)同、第5頁第4〜5行目に「内積、1111はノ
ルムを示す。」とあるを「内積である。」と訂正する。 (6)同、第5頁第7行目に示す式を下記の通り訂正す
る。 記 b  −a  −Σ (a  −b  )b   −(
3)3  2 、.13   ta   m(7)同、
第5頁第9行目に「これを第3軸」とあるを「、3を1
lb311で正規化した後、第3軸」と訂正する。 (8)同、第5頁第11行目に「計算を行う。」とある
を「計算(但し、a 2−a a )を行う。」と1」
圧する。 (9)同、第13頁第6行目にr [j−1,2,〜1
B。 k−0,1,2,〜17]」とあるをr cj−i、2
.〜6.に、−0゜1.2.〜11]」と訂正する。 (10)同、第13頁第11行目にr [j=1.2.
〜1G。 k−1,,2,〜16]」とあるをr [j−1,2,
〜8.に−0,1゜2、〜10コ」と訂正する。 (11)同、第13頁第15行目に「第1軸」とあるを
「図示しない正規化回路で正規化した後に第1軸」と訂
正する。 (12)同、第14頁第4行目にr [j−L2.〜t
a。 k−1,2,〜1B]」とあるをr [j−1,2,〜
8.に−0,i。 2、〜10]」と訂正する。 (13)  同、第15頁末行に示す式を下記の通り訂
正する。 に己 ? b       ma     −Σ   (a   
 争 b    )bPpm       ra   
  、1       m        n    
   n(14)同、第18頁に示す表中の項目に「1
0人目」とあるを「8人目」と訂正する。 (15)同、第18頁下から2行目、および第19頁第
6行目にそれぞれ「10名」とあるを「8名」と訂正す
る。

Claims (1)

  1. 【特許請求の範囲】 入力音声を分析処理して求められる入力音声パターンと
    、予め収集された複数話者の学習パターンに基いて作成
    されている直交化辞書との間で類似度を計算して上記入
    力音声を認識する音声認識装置において、 個々の話者毎にその話者から求められた複数の学習パタ
    ーンの平均パターンを求め、この平均パターンからその
    ボカシ処理パターンと微分処理パターンとをそれぞれ求
    める手段とを備え、 1人目の話者の学習パターンから求められた上記ボカシ
    処理パターンと微分処理パターンとから直交化辞書の基
    本となる直交軸を決定した後、2人目以降の話者の学習
    パターンから求められた上記ボカシ処理パターンと微分
    処理パターンとから、既に登録されている辞書の軸と直
    交する新たな軸を決定し、この新たな軸の辞書を登録す
    るか否かを判定して前記直交化辞書を構築する手段を備
    えたことを特徴とする音声認識装置。
JP63176703A 1988-07-15 1988-07-15 音声認識装置 Pending JPH0225898A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP63176703A JPH0225898A (ja) 1988-07-15 1988-07-15 音声認識装置
US07/378,780 US4979213A (en) 1988-07-15 1989-07-12 Orthogonalized dictionary speech recognition apparatus and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63176703A JPH0225898A (ja) 1988-07-15 1988-07-15 音声認識装置

Publications (1)

Publication Number Publication Date
JPH0225898A true JPH0225898A (ja) 1990-01-29

Family

ID=16018273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63176703A Pending JPH0225898A (ja) 1988-07-15 1988-07-15 音声認識装置

Country Status (2)

Country Link
US (1) US4979213A (ja)
JP (1) JPH0225898A (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2091754C (en) * 1990-09-28 2002-01-29 Patrick W. Elliot Method of, and system for, coding analogue signals
US5915236A (en) * 1992-11-13 1999-06-22 Dragon Systems, Inc. Word recognition system which alters code executed as a function of available computational resources
US6092043A (en) * 1992-11-13 2000-07-18 Dragon Systems, Inc. Apparatuses and method for training and operating speech recognition systems
US5428707A (en) * 1992-11-13 1995-06-27 Dragon Systems, Inc. Apparatus and methods for training speech recognition systems and their users and otherwise improving speech recognition performance
US5845246A (en) * 1995-02-28 1998-12-01 Voice Control Systems, Inc. Method for reducing database requirements for speech recognition systems
JP2738403B2 (ja) * 1995-05-12 1998-04-08 日本電気株式会社 音声認識装置
JPH10143191A (ja) * 1996-11-13 1998-05-29 Hitachi Ltd 音声認識システム
US7412387B2 (en) * 2005-01-18 2008-08-12 International Business Machines Corporation Automatic improvement of spoken language
WO2013088707A1 (ja) * 2011-12-16 2013-06-20 日本電気株式会社 辞書学習装置、パターン照合装置、辞書学習方法および記憶媒体

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58129684A (ja) * 1982-01-29 1983-08-02 Toshiba Corp パタ−ン認識装置
JPS58130393A (ja) * 1982-01-29 1983-08-03 株式会社東芝 音声認識装置
JPS5972496A (ja) * 1982-10-19 1984-04-24 株式会社東芝 単音識別装置
JPS59121100A (ja) * 1982-12-28 1984-07-12 株式会社東芝 連続音声認識装置
JPS59121098A (ja) * 1982-12-28 1984-07-12 株式会社東芝 連続音声認識装置

Also Published As

Publication number Publication date
US4979213A (en) 1990-12-18

Similar Documents

Publication Publication Date Title
EP0085545B1 (en) Pattern recognition apparatus and method for making same
Rajisha et al. Performance analysis of Malayalam language speech emotion recognition system using ANN/SVM
JPH0225898A (ja) 音声認識装置
Van Leeuwen et al. Channel-dependent gmm and multi-class logistic regression models for language recognition
JPS6128998B2 (ja)
JPS6273391A (ja) パタ−ン認識学習装置
JPH0225899A (ja) 音声認識装置
JPH01277297A (ja) 音声認識装置
Chiba et al. A speaker-independent word-recognition system using multiple classification functions
JP2514985B2 (ja) 音声認識方式
CN111292741A (zh) 智能语音交互机器人
JP2856429B2 (ja) 音声認識方式
Kwee-Bo Pattern Recognition Methods for Emotion Recognition with speech signal
Karacı et al. Recognition of human speech using q-Bernstein polynomials
EP0311022B1 (en) Speech recognition apparatus and method thereof
JP4236502B2 (ja) 音声認識装置
JP2514986B2 (ja) 音声認識方式
JPH0777998A (ja) 連続単語音声認識装置
JP2514983B2 (ja) 音声認識方式
JPH0211919B2 (ja)
JPS6274188A (ja) 主成分分析装置
JP2656239B2 (ja) 音声認識学習方式
JPH0646360B2 (ja) 音声認識方法
JPS60147797A (ja) 音声認識装置
JPS63291100A (ja) 音声認識の方法