JP2602271B2 - 連続音声中の子音識別方式 - Google Patents

連続音声中の子音識別方式

Info

Publication number
JP2602271B2
JP2602271B2 JP63055322A JP5532288A JP2602271B2 JP 2602271 B2 JP2602271 B2 JP 2602271B2 JP 63055322 A JP63055322 A JP 63055322A JP 5532288 A JP5532288 A JP 5532288A JP 2602271 B2 JP2602271 B2 JP 2602271B2
Authority
JP
Japan
Prior art keywords
consonant
likelihood
crossing
distance
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP63055322A
Other languages
English (en)
Other versions
JPH01229299A (ja
Inventor
晋太 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP63055322A priority Critical patent/JP2602271B2/ja
Publication of JPH01229299A publication Critical patent/JPH01229299A/ja
Application granted granted Critical
Publication of JP2602271B2 publication Critical patent/JP2602271B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】 [概要] 母音から子音及び子音から母音への渡り部分の特徴を
抽出して子音を識別する連続音声中の子音識別方式に関
し、 少ない学習データで高い認識性能を得ることを目的と
し、 VC渡り部パターンの抽出による子音識別に加え、VC渡
りパターンを抽出した後に時間軸上で反転して仮想的な
CV渡り部パターンに変換し、VC渡りについてもCV渡りと
同じ識別論理を適用し、CV渡りとVC渡りの識別結果を総
合判断して最終的な識別結果を得るように構成する。
[産業上の利用分野] 本発明は、母音から子音及び子音から母音への渡りの
特徴を抽出して子音を識別する連続音声中の子音識別方
式に関する。
話者が特定されない連続音声中の子音を識別する方式
としては、CV環境による方式とVCV環境による方式が知
られている。
まずCV環境による子音識別方式にあっては、例えば日
本語のCV(CVは単音節を意味し、Cは子音、Vは母音を
意味する)の音声データを予め全て用意し(約101種
類)、子音の識別論理をこれらのCV音声データから学習
し、識別時に学習により得られた子音識別理論を適用す
る。
ここで、子音の識別に必要な特徴量は主に子音から母
音へのCV渡り部分に存在しており、従って、このCV渡り
部分の音声データにより子音識別に必要な論理を学習す
る。
識別論理としては、CV渡りの種類が多い時には統計的
な処理として知られた最尤法が有効であり、尤度関数法
がよく用いられる。またCVの種類が少ない場合には、パ
ターンマッチング法(DPマッチング法等)が用いられ
る。
[従来の技術] 第4図は最尤法による従来の子音識別方式の構成図で
ある。
第4図において、20はマイクであり、話者の音声を電
気信号に変換する。マイク20からの音声信号は音声分析
部22に与えられる。音声分析部22は音声信号をデジタル
信号に変換し、更に数ミリから数十ミリ秒のフレーム毎
にスペクトル分析する。このスペクトル分析にはFFT
(高速フーリエ変換)による方法がよく用いられる。FF
Tで得られたスペクトル成分は更にm個の周波数帯域に
分割され、[f1,f2,・・・fm]というベクトルに変換さ
れる。
音声分析部22からの周波数分割ベクトル[f1,f2・・
・fm]はCV渡り抽出部10に与えられる。CV渡り抽出部10
は、スペクトル分析された音声信号(スベクトルパター
ン)より子音から母音にかけての渡り部パターンを抽出
する。例えば子音はパワーが小さく母音はパワーが大き
いことを利用し、連続音声中のパワーの極小点を子音開
始点として検出し、その子音開始点から時間軸で後へ一
定のnフレーム分のスペクトルを抽出してCV渡り部パタ
ーンとする。
ここでCV渡り抽出部10に入力される1フレームのスペ
クトルを ai=[f1,f2,・・・,fm] というベクトルで現わすものとする。但し、iはフレー
ム番号である。従ってCV渡り抽出部10で抽出されるCV渡
り部パターンは、 [aj,aj+1,・・・・,aj+n−1] というスペクトルを時間順に並べた新しいベクトルで表
記できる。ここで、jは子音の開始フレームのフレーム
番号である。
CV渡り抽出部10で抽出されたCV渡り部パターンは子音
識別部24に与えられる。子音識別部24には子音識別のた
めの尤度関数を記憶した尤度関数記憶部26が設けられ
る。
ここで、尤度関数とは、与えられたベクトルがその子
音である尤もらしさを与える関数である。子音識別のた
めには、全子音数をMとすると、M個の尤度関数を記憶
しておく必要がある。
尤度関数は、例えば以下の方法で求めることができ
る。
あるカテゴリの子音のパターンベクトルを学習データ
として多数集め、そのベクトルの分布が正規分布である
と仮定し、学習データより子音のパターンべクトルの平
均ベクトルと共分散マトリクスを計算することにより子
音の正規分布関数を求め、この正規分布関数を子音の尤
度関数とする。
子音識別部24はCV渡り抽出部10から与えられるCV渡り
部パターンベクトルに対し尤度関数記憶部26に記憶され
た尤度関数を用いて子音の識別を行なう。即ち、CV渡り
部パターンにつき各子音カテゴリ毎の尤度を演算し、各
カテゴリのうちの最も大きな尤度をもつ子音カテゴリが
識別結果となる。
一方、VCV環境による子音識別方式は、第4図のCV渡
り抽出部10がVCV渡り抽出部となり、また尤度関数記憶
部26にはVCVの学習データに基づいて得られた尤度関数
が記憶されることになり、その他の点はCV環境による方
式の場合と同じになる。
[発明が解決しようとする課題] しかしながら、従来のCV環境による子音識別方式には
次の問題がある。
CV環境による子音識別方式では、日本語の場合、約10
1種類の各CVについて尤度関数が信頼度高く得られる個
数の学習データを集めればよい。例えば尤度関数が信頼
度高く得られる個数を20個とすると、合計で2020発声の
学習データを集めればよい。
しかし、連続音声中のCVは、その前にある母音Vによ
り影響を受け、必ずしもその子音の特徴を明確に示さな
い。このためCV環境による方式では高い認識性能が得ら
れないという致命的な問題点をもっている。
そこで、CV環境による方式の問題点の可決策として、
CVの前の母音Vも全て考慮に入れたVCV環境による方式
が有効となる。
しかし、VCV環境による方式にあっては、母音Vが5
種類、CVが101種類としても、全部で505種類ものVCVを
学習データとして用意する必要があり、更に尤度関数が
信頼性高く得られるためには全部で10100個以上のVCV発
声が必要となり、実現が非常に困難である。
ところで、連続音声中のCVは、その前にある母音Vに
より影響を受けて必ずしもその子音の特徴を明白に示さ
ないが、どうして人間は正しく子音を知覚できるのかを
考察すると、人間はVCV環境におけるVC渡りからも子音
に関する特徴を抽出しているといえる。例えば、英語の
「at」という単語での語尾の「t」は発声されないこと
があるが、連続音声中では「t」が知覚される。これは
「a」から「t」へのVC渡り部分が母音の「a」の部分
に含まれており、このVC渡り部分が知覚に影響を及ぼす
ためである。
VCV環境による方式によれば、このVC渡りも利用でき
る訳であるが、前述したように、学習データが余りにも
膨大であるため、実現が困難である。
このようなCV及びVCV環境による方式の問題点は、パ
ターンマッチング法を用いた場合にも同様である。
本発明は、このような従来の問題点に鑑みてなされた
もので、VC渡りがCV渡りを時間的に逆にした関係にある
点に着目し、少ない学習データで高い認識性能を達成す
る連続音声中の子音認識装置を提供することを目的とす
る。
[課題を解決するための手段] 第1図は本発明の原理説明図である。
第1図において、音声分析された音声分析データ(ス
ペクトルパターン)からCV渡り抽出部10により音声の子
音Cから母音VへのCV渡り部パターンが抽出され、同時
にVC渡り抽出部12により音声の母音Vから子音CへのVC
渡り部パターンが抽出される。
VC渡り抽出部12で抽出されたVC渡り部パターンは時間
反転部14により時間軸上で反転され、仮想的なCV渡り部
パターンに変換される。このため、VC渡り部パターンは
以後、仮想的なCV渡りパターンとして取扱われることに
なる。
CV渡り部抽出部10から得られたCV渡り部パターンは類
似度演算部16で各子音カテゴリ毎のCV渡りの類似度が演
算され、時間反転部14から得られた仮想的なCV渡り部パ
ターンについても同様に類似度演算部16で各子音カテゴ
リ毎のCV渡りの類似度を演算し、それをVC渡り類似度と
する。
類似度演算部16で演算されたCV渡りの類似度及びVC渡
りの類似度は判定部18で総合的に判断され、入力音声中
の子音の識別結果が得られる。
類似度演算部16は、最尤法による子音識別のため、予
め記憶された尤度関数に基づいてCV渡りの尤度及びVC渡
りの尤度を各子音カテゴリ毎に演算する。
また類似度演算部16は、パターンマッチング法による
子音識別のため、予め記憶された基準パターンとのマッ
チングによりCV渡りでの距離及びVC渡りでの距離を各子
音カテゴリ毎に演算する。
判定部18は、類似度演算部16からCV渡り及びVC渡りの
尤度が得られたときには尤度判断により子音を識別判断
し、CV渡り及びVC渡りの距離が得られたときには距離判
断により子音を識別判断し、識別結果を出力する。
[作用] このような本発明の連続音声中の子音識別方式にあっ
ては、例えば最尤法による子音識別を例にとると、CV渡
り部パターンの抽出結果に基づく尤度関数を用いた子音
カテゴリ毎の尤度の演算に加え、VC渡り部がCV渡り部を
時間軸で反転した関係にあることを前提に、VC渡り部パ
ターンを抽出した後に時間反転して仮想的なCV渡り部パ
ターンに変換し、その結果、VC渡りの子音識別について
も従来のCV渡りの識別論理をそのまま適用して結果とし
てVC渡りでの各子音カテゴリ毎の尤度を演算することが
できる。
そして、最終判断は、CV渡りの尤度とVC渡りの尤度を
総合判断して識別結果を得ることができ、VCV環境によ
る方式と同等の高い識別性能が得られる。
また最尤法による子音識別に用いる尤度関数は、CV渡
り部パターンの尤度を演算するに必要な尤度関数を学習
データから求めておけばよいため、VCV環境による方式
に要求される尤度関数を求める膨大な学習データに比べ
CV環境による方式の学習データの発声数で済むことか
ら、少ない学習データによって高い認識性能が得られ
る。
これらの点は、パターンマッチングによる子音識別の
場合にも同様である。
[実施例] 第2図は最尤法による識別論理を例にとって本発明の
一実施例を示した実施例構成図である。
第2図において、20はマイクであり、不特定の話者の
音声を電気信号に変換する。マイク20からの音声信号は
音声分析部22に与えられる。音声分析部22は音声信号を
デジタル信号に変換し、更に数ミリから数十ミリ秒のフ
レーム毎にスペクトル分析する。このスペクトル分析に
はFFTが用いられ、FFTにより分析されたスペクトル成分
は更にm個の周波数帯域に分割され、 [f1,f2,・・・・,fm] というベクトルに変換されて分析結果が出力される。
音声分析部22からの周波数分割ベクトル [f1,f2,・・・・,fm] はCV渡り抽出部10に与えられる。CV渡り抽出部10はスペ
クトル分析された音声信号(スペクトルパターン)によ
り子音Cから母音Vにかけての渡り部パターンを抽出す
る。例えば、子音はパワーが小さく、母音はパワーが大
きいことを利用し、連続音声中のパワーの極小点を子音
開始点として検出し、検出された子音開始点から時間軸
上で後へ一定のnフレーム分のスペクトルを抽出してCV
渡り部パターンとする。
ここで、CV渡り抽出部10に音声分析部22より与えられ
る1フレームのスペクトルaiは、 ai=[f1,f2,・・・,fm] で表記され(但し、iはフレーム番号)、従って、CV渡
り抽出部10で抽出されるCV渡り部パターンは、 [aj,aj+1,・・・・aj+n−1] というスペクトルを時間順に並べたベクトルで表記され
る。ここで、jは子音の開始フレームのフレーム番号で
ある。
CV渡り抽出部10で抽出されたCV渡り部パターンはCV尤
度演算部16−1に与えられる。CV尤度演算部16−1に対
しては、最尤法による子音識別のための尤度関数を記憶
した尤度関数記憶部26が設けられる。
尤度関数記憶部26に予め記憶される尤度関数は、各カ
テゴリの子音のパターンベクトルを学習データとして多
数集め、そのベクトルの分布が正規分布であると仮定
し、学習データより子音のパターンベクトルの平均ベク
トルと共分散マトリクスを計算することにより、各子音
カテゴリ毎の正規分布関数を求め、この正規分布関数を
子音の尤度関数として記憶する。尤度関数記憶部26に記
憶される尤度関数を求めるための学習データは日本語の
場合、約101種類の各CVについて尤度関数が信頼性高く
得られる個数の学習データを集めればよく、例えば尤度
関数が信頼度高く得られる個数を20個とすると、合計で
2020発生の学習データを集めればよい。
以上の構成は第4図に示した従来のCV環境における方
式と同じであるが、これに加えて本発明にあっては、CV
渡り抽出部12、時間反転部14、VC尤度演算部16−2、及
び判定部18が新たに設けられる。
即ち、VC渡り抽出部12に対しては音声分析部22で得ら
れたスペクトルパターンが与えられ、VC渡り抽出部12は
母音Vから子音CへのVC渡り部パターンを抽出する。こ
のVC渡り部パターンの抽出は、例えば子音はパワーが小
さく、母音はパワーが大きいことを利用し、連続音声中
のパワーの極小点を子音開始点として検出し、検出した
子音開始点から時間軸上の前へ一定のnフレーム分のス
ペクトルを抽出してVC渡り部パターンとする。
ここで、1フレームのスペクトルを、 bi=[f1,f2,・・・・,fm] と表記すると、VC渡り抽出部12で抽出されるVC渡り部パ
ターンは、 [bj−n+1,・・・・,bj−1,bj] というスペクトルを時間順に並べた新しいベクトルで表
記できる。尚、jは子音の開始フレームのフレーム番号
である。
VC渡り抽出部12で抽出されたVC渡り部パターンは時間
反転部14に与えられる。時間反転部14はVC渡り抽出部12
で求めたVC渡り部パターンを時間軸上で反転する。具体
的には、 [bj−n+1,・・・・,bj−1,bj] というVC渡り部パターンを、 [bj,bj−1,・・・・bj−n+1] という仮想的なCV渡りパターンに変換する。
時間反転部14で変換された仮想的なCV渡りパターン [bj,bj−1,・・・・,bj−n+1] はVC尤度演算部16−2に与えられる。VC尤度演算部16−
2はCV尤度演算部16−1と同様、時間反転部14から与え
られた仮想的なCV渡り部パターンに対し、尤度関数記憶
部26に記憶された尤度関数を用いて各子音カテゴリ毎の
尤度を演算し、この演算結果をVC渡りの尤度として出力
する。
CV尤度演算部16−1及びVC尤度演算部16−2で演算さ
れたCV渡り及びVC渡りの各子音カテゴリ毎の尤度は判定
部18に与えられ、CV渡りの尤度とVC渡りの尤度を総合的
に判断して子音を識別する。
この判定部18による識別処理は次のモード1〜6のい
ずれかの判定処理が行なわれる。
[モード1] CV渡り及びVC渡りの中でもっとも大きな尤度を示す子
音カテゴリを識別結果とする。
[モード2] CV渡りとVC渡りの尤度を子音カテゴリ毎に合計した新
たな尤度を演算し、この合計尤度の中でもっとも大きい
値をもつカテゴリを識別結果とする。
[モード3] CV渡りの尤度が予め定めた閾値より大きい場合はCV渡
りの尤度のみにより子音を識別し、閾値以下の場合はVC
渡りの尤度のみで子音を識別する。
[モード4] VC渡りでの尤度が予め定めた閾値以上大きい場合はVC
渡りの尤度のみで子音を識別し、閾値より小さい場合は
CV渡りの尤度のみで子音を識別する。
[モード5] CV渡りで最大となる第1位の尤度と2番目に大きい値
をもつ第2位の尤度との差が予め定めた閾値以上大きい
場合はCV渡りの尤度のみで子音を識別し、差が閾値より
小さい場合はVC渡りの尤度のみで子音を識別する。
[モード6] VC渡りで最大値をもつ第1位の尤度と、2番目に大き
い値をもつ第2位の尤度との差が予め定めた閾値以上大
きい場合はVC渡りの尤度のみで子音を識別し、差が閾値
より小さい場合はCV渡りの尤度のみで子音を識別する。
このような判定部18におけるモード1〜6の判定処理
にあっては、モード1及びモード2がCV渡り及びVC渡り
の両者を相互判断していることから、VCV環境による方
式と略同等な高い識別性能が得られる点でもっとも望ま
しい。
一方、モード3〜6にあっては、例えばモード1又は
モード2による判定では十分な識別結果が得られない場
合のオプション的な処理として用いることが望ましい。
第3図はパターンマッチング法を例にとって本発明の
他の実施例を示した実施例構成図である。
第3図において、マイク20、音声分析部22、CV渡り抽
出部10、VC渡り抽出部12及び時間判定部14は第2図の実
施例と同じであり、パターンマッチング法による識別論
理を適用するための距離演算部16−3,16−4、CV渡り辞
書28及び判定部18の構成が異なる。
即ち、パターンマッチング法を用いた第3図の実施例
にあっては、CV渡り抽出部10より得られたCV渡り部パタ
ーンについてCV距離演算部16−3において、CV渡り辞書
28に予め記憶された基準パターンとの距離を各子音カテ
ゴリ毎に演算し、また、VC距離演算部16−4において、
時間反転部14より得られた仮想的なCV渡り部パターンに
ついてCV渡り辞書28の基準パターンを用いてVC渡りの距
離を演算する。
CV及びVC距離演算部16−3,16−4で演算されたCV渡り
の距離及びVC渡りの距離は判定部18に与えられ、両者の
相互判断により最終的な識別結果を得る。
距離演算部16−3及び16−4における距離の演算は、
例えばDPマッチング法が用いられる。
判定部18におけるCV渡り及びVC渡りの距離に基づく判
定処理は、次のモード1〜6のいずれかにより行なわれ
る。
[モード1] CV渡り及びVC渡りの中で最小距離を示す子音カテゴリ
を識別結果とする。
[モード2] CV渡りとVC渡りの距離を子音カテゴリ毎に合計した新
たな距離を演算し、この合計距離が最小となる子音カテ
ゴリを識別結果とする。
[モード3] CV渡りでの距離が予め定めた閾値より小さい場合はCV
渡りの距離のみで子音を識別し、閾値以上の場合はVC渡
りの距離のみで子音を識別する。
[モード4] VC渡りでの距離が予め定めた閾値より小さい場合はVC
渡りの距離のみで子音を識別し、閾値以上の場合はCV渡
りの距離のみで子音を識別する。
[モード5] CV渡りでの最小値となる第1位の距離と2番目に小さ
い第2位の距離との差が予め定めた閾値より大きい場合
はCV渡りの距離のみで子音を識別し、差が閾値より小さ
い場合はVC渡りの距離のみで子音を識別する。
[モード6] CV渡りでの最小距離となる第1位の距離と2番目に小
さい第2位の距離との差が予め定めた閾値以上大きい場
合はVC渡りの距離のみで子音を識別し、差が閾値より小
さい場合はCV渡りの距離のみで子音を識別する。
この第3図の判定部18によるCV渡り及びVC渡りの距離
に基づく子音識別の処理についてもモード1及びモード
2はCV渡りとVC渡りの両方を判断することから、従来の
VCV環境における方式と同等な高い識別性能を得ること
ができ、従って実用上はモード1又はモード2の判定処
理を行なうことが望ましい。一方、モード3〜6につい
ては、モード1又はモード2では良好な識別性能が得ら
れない場合にオプション的に使用することが望ましい。
更に、CV渡り辞書28に記憶する基準パターンを作り出
すために使用する学習データについては従来のCV環境に
おける方式と同程度の少ない学習データを集めるだけで
よい。
[発明の効果] 以上説明してきたように本発明によれば、CV渡り及び
VC渡りの両方の特徴を利用することにより高い子音識別
性能が実現でき、同時にVCV環境による方式のように膨
大な数の学習データに基づく尤度関数やマッチング基準
パターンの登録が不要となり、システム構成をより簡略
化することができる。
【図面の簡単な説明】
第1図は本発明の原理説明図; 第2図は本発明の一実施例を示した実施例構成図; 第3図は本発明の他の実施例を示した実施例構成図; 第4図は従来方式の構成図である。 図中、 10:CV渡り抽出部 12:VC渡り抽出部 14:時間反転部 16:類似度演算部 16−1:VC尤度演算部 16−2:VC尤度演算部 16−3:CV距離演算部 16−4:VC距離演算部 18:判定部 20:マイク 22:音声分析部

Claims (15)

    (57)【特許請求の範囲】
  1. 【請求項1】母音(V)から子音(C)へのVC渡り部及
    び子音(C)から母音(V)へのCV渡り部から特徴を抽
    出して連続音声中の子音を識別する子音識別方式に於い
    て、 入力音声の子音(C)から母音(V)へのCV渡り部パタ
    ーンを抽出するCV渡り部抽出部(10)と; 入力音声の母音(V)から子音(C)へのVC渡り部パタ
    ーンを抽出するVC渡り部抽出部(12)と; 該VC渡り部抽出部(12)で抽出されたVC渡り部パターン
    を時間軸で反転して仮想的なCV渡り部パターンを発生す
    る時間判定部(14)と; 前記CV渡り部抽出部(10)から得られたCV渡り部パター
    ンについて各子音カテゴリ毎のCV渡りの類似度を演算す
    ると共に、前記仮想的なCV渡り部について各子音カテゴ
    リ毎のVC渡りの類似度を演算する類似度演算部(16)
    と; 該類似度演算部(16)から出力されたCV渡り部及びVC渡
    り部の類似度に基づいて入力音声中の子音を識別判断す
    る判定部(18)と; を備えたことを特徴とする連続音声中の子音識別方式。
  2. 【請求項2】前記類似度演算部(16)は、CV渡りの尤度
    関数を各子音カテゴリ毎に記憶した尤度関数記憶部(2
    6)と、該尤度関数記憶部(26)の尤度関数に基づいて
    前記CV渡り部パターンからVC渡りの尤度及び仮想的なCV
    渡り部パターンからVC渡りの尤度を各子音カテゴリ毎に
    演算する尤度演算部(16−1,16−2)とを備えたことを
    特徴とする請求項1記載の連続音声中の子音識別方式。
  3. 【請求項3】前記判定部(18)は、CV渡り及びVC渡りの
    中で最も大きな尤度を示す子音カテゴリを識別結果とし
    て出力することを特徴とする請求項2記載の連続音声中
    の子音識別方式。
  4. 【請求項4】前記判定部(18)は、CV渡りとVC渡りの尤
    度を子音カテゴリ毎に合計した新たな尤度を演算し、該
    合計尤度の最も大きいカテゴリを識別結果として出力す
    ることを特徴とする請求項2記載の連続音声中の子音識
    別方式。
  5. 【請求項5】前記判定部(18)は、CV渡りの尤度が予め
    定めた閾値より大きい場合はCV渡りの尤度のみにより子
    音を識別し、前記閾値以下の場合はVC渡りの尤度のみで
    子音を識別することを特徴とする請求項2記載の連続音
    声中の子音識別方式。
  6. 【請求項6】前記判定部(18)は、VC渡りの尤度が予め
    定めた閾値以上大きい場合はVC渡りの尤度のみで子音を
    識別し、前記閾値より小さい場合はCV渡りの尤度のみで
    子音を識別することを特徴とする請求項2記載の連続音
    声中の子音識別方式。
  7. 【請求項7】前記判定部(18)は、CV渡りでの最大尤度
    と2番目に大きい第2位尤度との差が予め定めた閾値以
    上大きい場合はCV渡りの尤度のみで子音を識別し、前記
    閾値より小さい場合はVC渡りの尤度のみで子音を識別す
    ることを特徴とする請求項2記載の連続音声中の子音識
    別方式。
  8. 【請求項8】前記判定部(18)は、VC渡りでの最大尤度
    と2番目に大きい第2位尤度との差が予め定めた閾値以
    上大きい場合は、VC渡りの尤度のみで子音を識別し、前
    記閾値より小さい場合はCV渡りの尤度のみで子音を識別
    することを特徴とする請求項2記載の連続音声中の子音
    識別方式。
  9. 【請求項9】前記類似度演算部(16)は、CV渡りの基準
    パターンを各子音カテゴリ毎に記憶したCV渡り辞書(2
    8)と、該CV渡り辞書(28)の基準パターンと前記CV渡
    り部パターンとのマッチングによるCV渡りの距離及び前
    記仮想的なCV渡り部パターンとのマッチングによるVC渡
    り部の距離を各子音カテゴリ毎に演算する距離演算部
    (16−3,16−4)とを備えたことを特徴とする請求項記
    載の連続音声中の子音識別方式。
  10. 【請求項10】前記判定部(18)は、CV渡り及びVC渡り
    の中で最小距離を示す子音カテゴリを識別結果として出
    力する請求項9記載の連続音声中の子音識別方式。
  11. 【請求項11】前記判定部(18)は、CV渡りとVC渡りの
    距離を子音カテゴリ毎に合計した新たな距離を演算し、
    該合計距離が最小となる子音カテゴリを識別結果として
    出力する請求項9記載の連続音声中の子音識別方式。
  12. 【請求項12】前記判定部(18)は、CV渡りでの距離が
    予め定めた閾値より小さい場合は、CV渡りの距離のみで
    子音を識別し、前記閾値以上の場合はVC渡りの距離のみ
    で子音を識別することを特徴とする請求項9記載の連続
    音声中の子音識別方式。
  13. 【請求項13】前記判定部(18)は、VC渡りでの距離が
    予め定めた閾値より小さい場合はVC渡り距離のみで子音
    を識別し、前記閾値以上の場合はCV渡りの距離のみで子
    音を識別することを特徴とする請求項9記載の連続音声
    中の子音識別方式。
  14. 【請求項14】前記判定部(18)は、CV渡りでの最小距
    離と2番目に小さい第2位距離との差が予め定めた閾値
    より大きい場合は、CV渡りの距離のみで子音を識別し、
    前記閾値より小さい場合にはVC渡りの距離のみで子音を
    識別することを特徴とする請求項9記載の連続音声中の
    子音識別方式。
  15. 【請求項15】前記判定部(18)は、VC渡りでの最小距
    離と2番目に小さい第2位距離の差が予め定めた閾値以
    上大きい場合はVC渡りの距離のみで子音を識別し、前記
    閾値より小さい場合はCV渡りの距離のみで子音を識別す
    ることを特徴とする請求項9記載の連続音声中の子音識
    別方式。
JP63055322A 1988-03-09 1988-03-09 連続音声中の子音識別方式 Expired - Fee Related JP2602271B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63055322A JP2602271B2 (ja) 1988-03-09 1988-03-09 連続音声中の子音識別方式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63055322A JP2602271B2 (ja) 1988-03-09 1988-03-09 連続音声中の子音識別方式

Publications (2)

Publication Number Publication Date
JPH01229299A JPH01229299A (ja) 1989-09-12
JP2602271B2 true JP2602271B2 (ja) 1997-04-23

Family

ID=12995310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63055322A Expired - Fee Related JP2602271B2 (ja) 1988-03-09 1988-03-09 連続音声中の子音識別方式

Country Status (1)

Country Link
JP (1) JP2602271B2 (ja)

Also Published As

Publication number Publication date
JPH01229299A (ja) 1989-09-12

Similar Documents

Publication Publication Date Title
US5596679A (en) Method and system for identifying spoken sounds in continuous speech by comparing classifier outputs
US5638486A (en) Method and system for continuous speech recognition using voting techniques
US5812973A (en) Method and system for recognizing a boundary between contiguous sounds for use with a speech recognition system
AU684214B2 (en) System for recognizing spoken sounds from continuous speech and method of using same
EP0504485A2 (en) A speaker-independent label coding apparatus
JPH02238495A (ja) 時系列信号認識装置
US5101434A (en) Voice recognition using segmented time encoded speech
US5295190A (en) Method and apparatus for speech recognition using both low-order and high-order parameter analyzation
Raghib et al. Emotion analysis and speech signal processing
Kamble et al. Emotion recognition for instantaneous Marathi spoken words
Jeyalakshmi et al. HMM and K-NN based automatic musical instrument recognition
Kenai et al. A new architecture based VAD for speaker diarization/detection systems
Goyal et al. Issues and challenges of voice recognition in pervasive environment
JP2602271B2 (ja) 連続音声中の子音識別方式
Büker et al. Double compressed AMR audio detection using long-term features and deep neural networks
EP0177854B1 (en) Keyword recognition system using template-concatenation model
Manchanda et al. Hybrid approach of feature extraction and vector quantization in speech recognition
Hossan et al. Speaker recognition utilizing distributed DCT-II based Mel frequency cepstral coefficients and fuzzy vector quantization
JP3029803B2 (ja) 音声認識のための単語モデル生成装置及び音声認識装置
KR19990015122A (ko) 음성 인식 방법
JPH01255000A (ja) 音声認識システムに使用されるテンプレートに雑音を選択的に付加するための装置及び方法
Ludena-Choez et al. NMF-based temporal feature integration for acoustic event classification.
Gulzar et al. An improved endpoint detection algorithm using bit wise approach for isolated, spoken paired and Hindi hybrid paired words
Tashan et al. Two stage speaker verification using self organising map and multilayer perceptron neural network
Kido et al. Spoken word recognition system for unlimited speakers

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees