JPH0237600B2 - - Google Patents
Info
- Publication number
- JPH0237600B2 JPH0237600B2 JP56022920A JP2292081A JPH0237600B2 JP H0237600 B2 JPH0237600 B2 JP H0237600B2 JP 56022920 A JP56022920 A JP 56022920A JP 2292081 A JP2292081 A JP 2292081A JP H0237600 B2 JPH0237600 B2 JP H0237600B2
- Authority
- JP
- Japan
- Prior art keywords
- voice
- input
- parcor
- speech
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 230000002194 synthesizing effect Effects 0.000 claims 3
- 230000015572 biosynthetic process Effects 0.000 abstract description 23
- 238000003786 synthesis reaction Methods 0.000 abstract description 23
- 230000002452 interceptive effect Effects 0.000 abstract 1
- 230000003595 spectral effect Effects 0.000 description 4
- 238000000034 method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011109 contamination Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrically Operated Instructional Devices (AREA)
Description
【発明の詳細な説明】
[産業上の利用分野]
本発明は、特徴パラメータを用いる音声認識部
及び音声合成部を備える音声入出力装置に関す
る。
及び音声合成部を備える音声入出力装置に関す
る。
[従来の技術]
近年、音声処理技術の進歩に伴い、例えば
EDN.(1979,11,20p.p.159―167)のように音声
認識の機能と音声合成の機能とを有する音声応答
等の音声入出力装置が実用化されてきているが、
合成音声の出力中に音声を入力して認識処理をす
る必要がある場合に、例えば実開昭55―79399や
実開昭55―125700の様に、所望の入力音声に応答
中の出力音声が混入してもともと認識したい音声
の認識率が低下してしまうのを防ぐために、入力
した音声波形から合成した音声波形を差し引くも
のはあつた。
EDN.(1979,11,20p.p.159―167)のように音声
認識の機能と音声合成の機能とを有する音声応答
等の音声入出力装置が実用化されてきているが、
合成音声の出力中に音声を入力して認識処理をす
る必要がある場合に、例えば実開昭55―79399や
実開昭55―125700の様に、所望の入力音声に応答
中の出力音声が混入してもともと認識したい音声
の認識率が低下してしまうのを防ぐために、入力
した音声波形から合成した音声波形を差し引くも
のはあつた。
しかし、入力音声から合成音声を除去する際に
音声波形そのものを用いると、合成音声が出力さ
れてから入力されるまでの時間的遅延によるタイ
ミングのずれから残査が大きくなつてしまい、入
力音声から合成音声を除去することができないと
いう欠点があつた。
音声波形そのものを用いると、合成音声が出力さ
れてから入力されるまでの時間的遅延によるタイ
ミングのずれから残査が大きくなつてしまい、入
力音声から合成音声を除去することができないと
いう欠点があつた。
上記欠点を解決するためには、音声の出力部と
入力部の距離や環境など、複雑な要素を含めて計
算し、デイレイ回路を新たに設けなければならな
かつた。
入力部の距離や環境など、複雑な要素を含めて計
算し、デイレイ回路を新たに設けなければならな
かつた。
[目 的]
本発明は、認識したい音声に自らの装置が出力
した合成音声が混入したものを入力した場合に、
合成音声を除去してもともと認識したい音声のみ
とし、認識率を上げるべく、符号化された音声情
報を用いた音声入出力装置を提供することを目的
とする。
した合成音声が混入したものを入力した場合に、
合成音声を除去してもともと認識したい音声のみ
とし、認識率を上げるべく、符号化された音声情
報を用いた音声入出力装置を提供することを目的
とする。
本発明は、合成音声が出力されてから自らの装
置に入力されるまでの時間的遅延を、考慮するこ
となく簡単な構成で認識したい音声のみを取り出
し、高い認識率で認識することができる音声入出
力装置を提供することを目的とする。
置に入力されるまでの時間的遅延を、考慮するこ
となく簡単な構成で認識したい音声のみを取り出
し、高い認識率で認識することができる音声入出
力装置を提供することを目的とする。
[実施例]
以下に図面を参照して本発明を詳細に説明す
る。まず、従来のこの種の音声入出力装置の概略
構成を第1図に示す。第1図の従来の音声入出力
装置においては、入力音声に対する音声認識装置
(図中鎖線より下)と音声応答装置(図中鎖線よ
り上)との間に、音声よる入力情報を処理して音
声により応答する出力情報を作成するための情報
処理装置が介在するが、図面には、音声変換に関
しては全く別系統をなす音声応答装置と音声認識
装置とのみを分離して示してある。また、音声応
答装置としては、いわゆるPARCOR型すなわち
偏自己相関型の音声合成装置を使用した場合の回
路構成を示してあるが、音声合成の形態は特徴パ
ラメータを用いたものであればいかなるものでで
あつてもよい。図示の構成による従来の音声入出
力装置においては、図中の鎖線より上に示す音声
応答装置において、音声にて応答すべき音源デー
タを音源データレジスタ1に記憶させると共に、
PARCOR型音声合成を行なうためのPARCOR係
数をPARCOR係数レジスタ2に格納しておき、
音源データレジスタ1から読み出してて供給した
音源データにより変調したパルス列信号を音源回
路3にて発生させ、そのパルス列信号を
PARCOR合成演算器4に供給して、PARCOR係
数レジスタ2から読み出して印加したPARCOR
型音声合成のための演算処理を施して音源データ
に対応した音声を表わすデジタル信号をデジタル
―アナログ変換器5に供給して変換したアナログ
音声信号を合成音声出力端子6から取り出し、ス
ピーカ(図示せず)に供給して所要の応答出力音
声を発生させる。
る。まず、従来のこの種の音声入出力装置の概略
構成を第1図に示す。第1図の従来の音声入出力
装置においては、入力音声に対する音声認識装置
(図中鎖線より下)と音声応答装置(図中鎖線よ
り上)との間に、音声よる入力情報を処理して音
声により応答する出力情報を作成するための情報
処理装置が介在するが、図面には、音声変換に関
しては全く別系統をなす音声応答装置と音声認識
装置とのみを分離して示してある。また、音声応
答装置としては、いわゆるPARCOR型すなわち
偏自己相関型の音声合成装置を使用した場合の回
路構成を示してあるが、音声合成の形態は特徴パ
ラメータを用いたものであればいかなるものでで
あつてもよい。図示の構成による従来の音声入出
力装置においては、図中の鎖線より上に示す音声
応答装置において、音声にて応答すべき音源デー
タを音源データレジスタ1に記憶させると共に、
PARCOR型音声合成を行なうためのPARCOR係
数をPARCOR係数レジスタ2に格納しておき、
音源データレジスタ1から読み出してて供給した
音源データにより変調したパルス列信号を音源回
路3にて発生させ、そのパルス列信号を
PARCOR合成演算器4に供給して、PARCOR係
数レジスタ2から読み出して印加したPARCOR
型音声合成のための演算処理を施して音源データ
に対応した音声を表わすデジタル信号をデジタル
―アナログ変換器5に供給して変換したアナログ
音声信号を合成音声出力端子6から取り出し、ス
ピーカ(図示せず)に供給して所要の応答出力音
声を発生させる。
一方、図中の鎖線より下に示す音声認識装置に
おいては、音声入力端子7に供給したマイクロホ
ン(図示せず)からのアナログ音声信号をアナロ
グ―デジタル変換器8に導いてデジタル音声信号
に変換し、そのデジタル音声信号を、入力音声出
力端子11を介して音声認識器12に供給し、入
力音声が表わす音声情報の認識を行なう。
おいては、音声入力端子7に供給したマイクロホ
ン(図示せず)からのアナログ音声信号をアナロ
グ―デジタル変換器8に導いてデジタル音声信号
に変換し、そのデジタル音声信号を、入力音声出
力端子11を介して音声認識器12に供給し、入
力音声が表わす音声情報の認識を行なう。
上述のような構成による従来の音声入出力装置
において、音声応答装置によりスピーカから音声
出力音声を発生している最中に、そのスピーカか
ら十分に離隔されていないマイクロホンにより音
声認識装置に対する入力音声信号が供給される
と、その入力信号中には、音声応答装置からの合
成音声出力信号がまわりに込んで混入し、したが
つて、所要の入力音声に対する正確な音声認識を
行なうことが困難となり、音声認識率が著しく低
下するという結果になつていた。
において、音声応答装置によりスピーカから音声
出力音声を発生している最中に、そのスピーカか
ら十分に離隔されていないマイクロホンにより音
声認識装置に対する入力音声信号が供給される
と、その入力信号中には、音声応答装置からの合
成音声出力信号がまわりに込んで混入し、したが
つて、所要の入力音声に対する正確な音声認識を
行なうことが困難となり、音声認識率が著しく低
下するという結果になつていた。
従来の音声入出力装置におけるかかる入出力音
声の混入による音声認識率の低下を防止する様に
した本発明音声入出力装置の回路構成の例を第2
図に示す。図示の回路構成は、第2図を第1図と
対比すれば明らかな様に、第1図に示した従来装
置の回路構成における音声認識装置中のアナログ
―デジタル変換器8と入力音声出力端子11との
間にPARCOR逆フイルタ9と音源逆フイルタ1
0との従属接続を介挿しそのPARCOR逆フイル
タ9に音声応答装置中のPARCOR係数レジスタ
2からのPARCOR係数を印加するとともに、音
源逆フイルタ10には音声応答装置中の音源デー
タレジスタ1からの音源データを印化する様にし
たものであり、従来装置の回路構成に対してかか
る構成要素を追加することにより、音声認識装置
の入力音声に混入した音声応答装置の出力音声成
分を除去するようにしたものである。
声の混入による音声認識率の低下を防止する様に
した本発明音声入出力装置の回路構成の例を第2
図に示す。図示の回路構成は、第2図を第1図と
対比すれば明らかな様に、第1図に示した従来装
置の回路構成における音声認識装置中のアナログ
―デジタル変換器8と入力音声出力端子11との
間にPARCOR逆フイルタ9と音源逆フイルタ1
0との従属接続を介挿しそのPARCOR逆フイル
タ9に音声応答装置中のPARCOR係数レジスタ
2からのPARCOR係数を印加するとともに、音
源逆フイルタ10には音声応答装置中の音源デー
タレジスタ1からの音源データを印化する様にし
たものであり、従来装置の回路構成に対してかか
る構成要素を追加することにより、音声認識装置
の入力音声に混入した音声応答装置の出力音声成
分を除去するようにしたものである。
ここで、PARCOR合成演算器4と、PARCOR
逆フイルタ9について詳細に説明する。
逆フイルタ9について詳細に説明する。
まず、PARCOR合成演算器4は、ラテイス型
の合成フイルタを複数個縦列に接続したもので、
各段に与えられるPARCOR係数を用いて、入力
信号であるインパルス列やランダム雑音に対して
スペクトル特性を与え、音声波形を生成する。こ
れに対し、PARCOR逆フイルタ9は、ラテイス
型の分析フイルタを複数個縦続接続したものであ
るが、分析する時と違つてPARCOR係数kを予
め与え、与えられたPARCOR係数kの分だけス
ペクトル特性を入力信号から濾波する機能を有す
る。従つて、PARCOR逆フイルタ9への入力信
号がPARCOR合成演算器4により生成された合
成音声の時は、PARCOR逆フイルタ9に
PARCOR合成演算器4に与えたものと同じ
PARCOR係数kを与えれば、PARCOR合成演算
器4によつて取り除かれ、PARCOR逆フイルタ
9からの出力信号は、PARCOR合成演算器4に
入力されたインパルス列のみとなる。
の合成フイルタを複数個縦列に接続したもので、
各段に与えられるPARCOR係数を用いて、入力
信号であるインパルス列やランダム雑音に対して
スペクトル特性を与え、音声波形を生成する。こ
れに対し、PARCOR逆フイルタ9は、ラテイス
型の分析フイルタを複数個縦続接続したものであ
るが、分析する時と違つてPARCOR係数kを予
め与え、与えられたPARCOR係数kの分だけス
ペクトル特性を入力信号から濾波する機能を有す
る。従つて、PARCOR逆フイルタ9への入力信
号がPARCOR合成演算器4により生成された合
成音声の時は、PARCOR逆フイルタ9に
PARCOR合成演算器4に与えたものと同じ
PARCOR係数kを与えれば、PARCOR合成演算
器4によつて取り除かれ、PARCOR逆フイルタ
9からの出力信号は、PARCOR合成演算器4に
入力されたインパルス列のみとなる。
ここで、第2図における信号の流れを、音源が
インパルス列であり、PARCOR合成演算器4か
らの出力が有声音となる場合について説明する。
音源回路3は、音源データレジスタ1より供給さ
れるピツチ情報に基づいてインパルス列を生成
し、PARCOR合成演算器4に送る。PARCOR合
成演算器4は、PARCOR係数レジスタ2より供
給されるPARCOR係数kを用いて、音源回路3
より入力されたインパルス列にスペクトル情報を
付加し、合成音声を生成、出力する。このとき、
PARCOR逆フイルタ9にもPARCOR係数レジス
タ2より、PARCOR合成演算器4に与えられた
のと同一のPARCOR係数を供給するので、
PARCOR逆フイルタ9は実音声に合成音声が加
えられた入力信号中から、PARCOR合成演算器
4が付加したのと同一のスペクトル特性を除去す
る。すると、PARCOR逆フイルタ9からの出力
信号は、認識すべき実音声に音源回路3が生成し
たインパルス列が重畳したものだけとなる。音源
データレジスタ1から、音源回路3に供給された
のと同一のピツチ情報を音源逆フイルタ10にも
供給するので、PARCOR逆フイルタ9より出力
される信号から、音源回路3が生成したインパル
ス列だけが音源逆フイルタ10によつて除去さ
れ、認識すべき実音声だけが残る。すなわち、
PARCOR合成演算器4からの合成音声が、認識
すべき実音声に重畳しても合成音声だけを除去す
ることができる。
インパルス列であり、PARCOR合成演算器4か
らの出力が有声音となる場合について説明する。
音源回路3は、音源データレジスタ1より供給さ
れるピツチ情報に基づいてインパルス列を生成
し、PARCOR合成演算器4に送る。PARCOR合
成演算器4は、PARCOR係数レジスタ2より供
給されるPARCOR係数kを用いて、音源回路3
より入力されたインパルス列にスペクトル情報を
付加し、合成音声を生成、出力する。このとき、
PARCOR逆フイルタ9にもPARCOR係数レジス
タ2より、PARCOR合成演算器4に与えられた
のと同一のPARCOR係数を供給するので、
PARCOR逆フイルタ9は実音声に合成音声が加
えられた入力信号中から、PARCOR合成演算器
4が付加したのと同一のスペクトル特性を除去す
る。すると、PARCOR逆フイルタ9からの出力
信号は、認識すべき実音声に音源回路3が生成し
たインパルス列が重畳したものだけとなる。音源
データレジスタ1から、音源回路3に供給された
のと同一のピツチ情報を音源逆フイルタ10にも
供給するので、PARCOR逆フイルタ9より出力
される信号から、音源回路3が生成したインパル
ス列だけが音源逆フイルタ10によつて除去さ
れ、認識すべき実音声だけが残る。すなわち、
PARCOR合成演算器4からの合成音声が、認識
すべき実音声に重畳しても合成音声だけを除去す
ることができる。
なお、音声応答装置から音声出力が発生してい
ない期間に関しては、音源データレジスタ1およ
びPARCOR係数レジスタ2に、例えば「無声音
情報」を入力して記憶させておき、音声認識装置
の入力音声に音声応答装置からの合成出力音声が
全く混入しない状態においてはPARCOR逆フイ
ルタ9および音源逆フイルタ10がともに実質的
に不作動状態になつてそれぞれの入力信号をその
まま通過させるようにする。これにより入力音声
信号に何らの影響も与えないようにすることがで
きる。
ない期間に関しては、音源データレジスタ1およ
びPARCOR係数レジスタ2に、例えば「無声音
情報」を入力して記憶させておき、音声認識装置
の入力音声に音声応答装置からの合成出力音声が
全く混入しない状態においてはPARCOR逆フイ
ルタ9および音源逆フイルタ10がともに実質的
に不作動状態になつてそれぞれの入力信号をその
まま通過させるようにする。これにより入力音声
信号に何らの影響も与えないようにすることがで
きる。
以上の説明から明らかなように、本発明によれ
ば、音声入出力装置において音声による応答がな
されているか否かには拘りなく、入力音声に対し
て正確な音声認識を行うことが可能となる。
ば、音声入出力装置において音声による応答がな
されているか否かには拘りなく、入力音声に対し
て正確な音声認識を行うことが可能となる。
なお、以上の説明においては、音声応答装置に
おける音声合成を専らPARCOR方式によつて行
うようにしたが、この例に限定されることなく、
応答用の音声情報を表す特徴パラメータによつて
音声合成を行う任意の音声合成方式を用いた場合
にも、同様に本発明を適用しうる事勿論である。
おける音声合成を専らPARCOR方式によつて行
うようにしたが、この例に限定されることなく、
応答用の音声情報を表す特徴パラメータによつて
音声合成を行う任意の音声合成方式を用いた場合
にも、同様に本発明を適用しうる事勿論である。
[効 果]
本発明は、認識したい音声に自らの装置が出力
した合成音声が混入したものを入力した場合に、
合成音声を除去してもともと認識したい音声のみ
とし、認識率を上げるべく、符号化された音声情
報を用いた音声入出力装置を提供する。
した合成音声が混入したものを入力した場合に、
合成音声を除去してもともと認識したい音声のみ
とし、認識率を上げるべく、符号化された音声情
報を用いた音声入出力装置を提供する。
本発明は、合成音声が出力されてから自らの装
置に入力されるまでの時間的遅延を、考慮するこ
となく簡単な構成で認識したい音声のみを取り出
し、高い認識率で認識することができる。
置に入力されるまでの時間的遅延を、考慮するこ
となく簡単な構成で認識したい音声のみを取り出
し、高い認識率で認識することができる。
第1図は従来の音声入出力装置の回路構成を示
すブロツク線図、第2図は本発明音声入出力装置
の回路構成の例を示すブロツク線図である。 1…音源データレジスタ、2…PARCOR係数
レジスタ、3…音源回路、4…PARCOR合成演
算器、5…デジタル―アナログ変換器、6…合成
音声出力端子、7…音声入力端子、8…アナログ
―デジタル変換器、9…PARCOR逆フイルタ、
10…音源逆フイルタ、11…入力音声出力端
子、12…音声認識器。
すブロツク線図、第2図は本発明音声入出力装置
の回路構成の例を示すブロツク線図である。 1…音源データレジスタ、2…PARCOR係数
レジスタ、3…音源回路、4…PARCOR合成演
算器、5…デジタル―アナログ変換器、6…合成
音声出力端子、7…音声入力端子、8…アナログ
―デジタル変換器、9…PARCOR逆フイルタ、
10…音源逆フイルタ、11…入力音声出力端
子、12…音声認識器。
Claims (1)
- 【特許請求の範囲】 1 パラメータで表わされた音声情報に従つて音
声を合成する合成手段、 前記合成手段により合成された前記音声を出力
する出力手段、 音声を入力する入力手段、 前記パラメータで表わされた音声情報により係
数を定めた分析フイルタを用いて前記入力手段よ
り入力された音声から前記出力手段より出力され
た音声を除去する除去手段を有することを特徴と
する音声入出力装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP56022920A JPS57138696A (en) | 1981-02-20 | 1981-02-20 | Voice input/output apparatus |
US06/347,634 US4459674A (en) | 1981-02-20 | 1982-02-10 | Voice input/output apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP56022920A JPS57138696A (en) | 1981-02-20 | 1981-02-20 | Voice input/output apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS57138696A JPS57138696A (en) | 1982-08-27 |
JPH0237600B2 true JPH0237600B2 (ja) | 1990-08-24 |
Family
ID=12096071
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP56022920A Granted JPS57138696A (en) | 1981-02-20 | 1981-02-20 | Voice input/output apparatus |
Country Status (2)
Country | Link |
---|---|
US (1) | US4459674A (ja) |
JP (1) | JPS57138696A (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH069000B2 (ja) * | 1981-08-27 | 1994-02-02 | キヤノン株式会社 | 音声情報処理方法 |
US4556944A (en) * | 1983-02-09 | 1985-12-03 | Pitney Bowes Inc. | Voice responsive automated mailing system |
EP0235127B2 (en) * | 1985-09-03 | 1993-05-05 | Motorola, Inc. | Hands-free control system for a radiotelephone |
JP3219093B2 (ja) * | 1986-01-03 | 2001-10-15 | モトロ−ラ・インコ−ポレ−テッド | 外部のボイシングまたはピッチ情報を使用することなく音声を合成する方法および装置 |
US4980919A (en) * | 1987-02-17 | 1990-12-25 | Tsai Yu Ching | Message card type of language practising set for children |
US5171930A (en) * | 1990-09-26 | 1992-12-15 | Synchro Voice Inc. | Electroglottograph-driven controller for a MIDI-compatible electronic music synthesizer device |
JP3254994B2 (ja) * | 1995-03-01 | 2002-02-12 | セイコーエプソン株式会社 | 音声認識対話装置および音声認識対話処理方法 |
US5832440A (en) * | 1996-06-10 | 1998-11-03 | Dace Technology | Trolling motor with remote-control system having both voice--command and manual modes |
KR100201256B1 (ko) * | 1996-08-27 | 1999-06-15 | 윤종용 | 음성을 이용한 차량 시동 제어장치 |
US6236969B1 (en) | 1998-07-31 | 2001-05-22 | Jonathan P. Ruppert | Wearable telecommunications apparatus with voice/speech control features |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS53105303A (en) * | 1977-02-25 | 1978-09-13 | Hitachi Ltd | Preprocessing system for audio recognition |
-
1981
- 1981-02-20 JP JP56022920A patent/JPS57138696A/ja active Granted
-
1982
- 1982-02-10 US US06/347,634 patent/US4459674A/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPS57138696A (en) | 1982-08-27 |
US4459674A (en) | 1984-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US4864620A (en) | Method for performing time-scale modification of speech information or speech signals | |
JP2763322B2 (ja) | 音声処理方法 | |
US4754485A (en) | Digital processor for use in a text to speech system | |
DE3883034D1 (de) | System zur sprachsynthese. | |
US5956671A (en) | Apparatus and methods for shift invariant speech recognition | |
JPH0237600B2 (ja) | ||
US5452398A (en) | Speech analysis method and device for suppyling data to synthesize speech with diminished spectral distortion at the time of pitch change | |
US4825384A (en) | Speech recognizer | |
JPH05307395A (ja) | 音声合成装置 | |
JP2001249676A (ja) | 雑音が付加された周期波形の基本周期あるいは基本周波数の抽出方法 | |
JPH04116700A (ja) | 音声分析・合成装置 | |
JPH04295897A (ja) | 神経回路網モデルによる音声認識方法 | |
JPH0194398A (ja) | 音声標準パターンの作成方法 | |
JP4313740B2 (ja) | 残響除去方法、プログラムおよび記録媒体 | |
JPH11327598A (ja) | ヘリウム音声修復装置 | |
JPS61273599A (ja) | 音声認識装置 | |
JPS59168494A (ja) | 音声合成方式 | |
ATE378673T1 (de) | System und verfahren zur sprecherunabhängigen echtzeitspracherkennung | |
JPS635398A (ja) | 音声分析方式 | |
JPS61262800A (ja) | 音声符号化方式 | |
Yang et al. | Automatic estimation of formant and voice source parameters using a subspace based algorithm | |
Pannirselvam et al. | Comparative Study on Preprocessing Techniques on Automatic Speech Recognition for Tamil Language | |
JP2003345373A (ja) | 音声合成装置及び音声明瞭化方法 | |
Shirai et al. | Pitch contour control in Japanese conversational speech | |
JPS60144799A (ja) | 自動通訳装置 |