JPH04116700A - 音声分析・合成装置 - Google Patents
音声分析・合成装置Info
- Publication number
- JPH04116700A JPH04116700A JP2237545A JP23754590A JPH04116700A JP H04116700 A JPH04116700 A JP H04116700A JP 2237545 A JP2237545 A JP 2237545A JP 23754590 A JP23754590 A JP 23754590A JP H04116700 A JPH04116700 A JP H04116700A
- Authority
- JP
- Japan
- Prior art keywords
- sound source
- band
- noise
- harmonic
- white noise
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000002194 synthesizing effect Effects 0.000 title claims abstract description 4
- 230000005236 sound signal Effects 0.000 claims abstract description 26
- 230000015572 biosynthetic process Effects 0.000 claims description 30
- 238000003786 synthesis reaction Methods 0.000 claims description 30
- 230000003595 spectral effect Effects 0.000 claims description 24
- 238000000034 method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 7
- 238000001228 spectrum Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 210000001260 vocal cord Anatomy 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
[産業上の利用分野]
本発明は、音声信号をデジタル伝送あるいは蓄積すると
きに用いる音声分析・合成装置の改良に関するものであ
る。
きに用いる音声分析・合成装置の改良に関するものであ
る。
[従来の技術]
入力音声信号を低ビツトレートで符号化する方法として
、一定時間の分析フレーム(以下、フレームと略す)毎
にスペクトル包絡分析して得られる音声合成フィルタを
、有声音の場合はピッチ周期間隔のインパルス列、無声
音の場合は白色雑音て駆動するボコーダ方式か知られて
おり、例えば“ディジタル音声処理”古井貞煕著 pp
、55、図4.14、東海大学出版会、1985年9月
25日により報告されている。
、一定時間の分析フレーム(以下、フレームと略す)毎
にスペクトル包絡分析して得られる音声合成フィルタを
、有声音の場合はピッチ周期間隔のインパルス列、無声
音の場合は白色雑音て駆動するボコーダ方式か知られて
おり、例えば“ディジタル音声処理”古井貞煕著 pp
、55、図4.14、東海大学出版会、1985年9月
25日により報告されている。
第3図および第4図は、上記文献と同様の構成を表す図
であり、第3図は分析部を、第4図は合成部を表す。第
3図において、(1)は入力音声信号、(2)はこの入
力音声信号(1)からスペクトル包絡を表すパラメータ
を求めるスペクトル包絡分析手段、(3)はこのスペク
トル包絡分析手段(2)により出力されるスペクトル包
絡パラメータ、(22)は入力音声信号(1)のフレー
ムのピッチ周期を求めるピッチ周期抽出手段、(23)
はこのピッチ周期抽出手段(22)によって求められた
ピッチ周期、(24)は入力音声信号(1)のフレーム
の有声・無声を判定する有声・無声判定手段、(25)
はこの有声・無声判定手段(24)の出力である有声・
無声情報でこれらにより分析部(1)を構成する。
であり、第3図は分析部を、第4図は合成部を表す。第
3図において、(1)は入力音声信号、(2)はこの入
力音声信号(1)からスペクトル包絡を表すパラメータ
を求めるスペクトル包絡分析手段、(3)はこのスペク
トル包絡分析手段(2)により出力されるスペクトル包
絡パラメータ、(22)は入力音声信号(1)のフレー
ムのピッチ周期を求めるピッチ周期抽出手段、(23)
はこのピッチ周期抽出手段(22)によって求められた
ピッチ周期、(24)は入力音声信号(1)のフレーム
の有声・無声を判定する有声・無声判定手段、(25)
はこの有声・無声判定手段(24)の出力である有声・
無声情報でこれらにより分析部(1)を構成する。
第4図において、(20)は音声の周波数的な特徴を付
与する音声合成フィルタ手段、(21)はこの音声合成
フィルタ手段(20)で合成された合成音声、(26)
は上記ピッチ周期(23)によりピッチ周期間隔のイン
パルス列を生成するインパルス列生成手段、(27)は
このインパルス列生成手段(26)の出力であるインパ
ルス列、(28)は白色雑音生成手段、(29)はこの
白色雑音生成手段(28)の出力である白色雑音、(3
0)は上記有声・無声情報(25)により上記音声合成
フィルタ手段(20)に入力させる信号を上記インパル
ス列(27)と上記白色雑音(29)とに切り替える切
り替えスイッチでこれらにより合成部(II)を構成す
る。
与する音声合成フィルタ手段、(21)はこの音声合成
フィルタ手段(20)で合成された合成音声、(26)
は上記ピッチ周期(23)によりピッチ周期間隔のイン
パルス列を生成するインパルス列生成手段、(27)は
このインパルス列生成手段(26)の出力であるインパ
ルス列、(28)は白色雑音生成手段、(29)はこの
白色雑音生成手段(28)の出力である白色雑音、(3
0)は上記有声・無声情報(25)により上記音声合成
フィルタ手段(20)に入力させる信号を上記インパル
ス列(27)と上記白色雑音(29)とに切り替える切
り替えスイッチでこれらにより合成部(II)を構成す
る。
次に、従来装置の動作を説明する。
まず、分析部(I)について説明する。
スペクトル包絡分析手段(2)は、入力音声信号(1)
を入力とし、スペクトル包絡を表すパラメータを求め、
これをスペクトル包絡パラメータ(3)として出力する
。ピッチ周期抽出手段(22)は、入力音声信号(1)
を入力とし、該フレームのピッチ周期を求め、これをピ
ッチ周期(23)として出力する。有声・無声判別手段
(24)は入力音声信号(1)を入力とし、該フレーム
の有声・無声判定を行いその結果を有声・無声情報(2
5)として出力する。
を入力とし、スペクトル包絡を表すパラメータを求め、
これをスペクトル包絡パラメータ(3)として出力する
。ピッチ周期抽出手段(22)は、入力音声信号(1)
を入力とし、該フレームのピッチ周期を求め、これをピ
ッチ周期(23)として出力する。有声・無声判別手段
(24)は入力音声信号(1)を入力とし、該フレーム
の有声・無声判定を行いその結果を有声・無声情報(2
5)として出力する。
次に合成部(II)を説明する。
切り替えスイッチ(30)は、有声・無声情報(25)
が有声音の場合はインパルス列生成手段(26)に、無
声音の場合は白色雑音生成手段(28)に接続される。
が有声音の場合はインパルス列生成手段(26)に、無
声音の場合は白色雑音生成手段(28)に接続される。
該フレームが有声音の場合、インパルス列生成手段(2
6)はピッチ周期(23)を入力とし、ピッチ周期間隔
のインパルス列を生成し、これをインパルス列(27)
として音声合成フィルタ手段(20)に出力する。無声
音の場合、白色雑音生成手段(28)は白色雑音を生成
し、これを白色雑音(29)として音声合成フィルタ手
段(20)に出力する。音声合成フィルタ手段(20)
は、入力されたスペクトル包絡パラメータ(3)から該
当する音声合成フィルタを求め、該フレームが有声音の
場合インパルス列(27)で、無声音の場合白色雑音(
29)で、このフィルタを駆動して音声を合成し、これ
を合成音声(21)として出力する。
6)はピッチ周期(23)を入力とし、ピッチ周期間隔
のインパルス列を生成し、これをインパルス列(27)
として音声合成フィルタ手段(20)に出力する。無声
音の場合、白色雑音生成手段(28)は白色雑音を生成
し、これを白色雑音(29)として音声合成フィルタ手
段(20)に出力する。音声合成フィルタ手段(20)
は、入力されたスペクトル包絡パラメータ(3)から該
当する音声合成フィルタを求め、該フレームが有声音の
場合インパルス列(27)で、無声音の場合白色雑音(
29)で、このフィルタを駆動して音声を合成し、これ
を合成音声(21)として出力する。
[発明が解決しようとする課題]
以上説明したように、従来装置では音声信号を有声音、
無声音の2つに分類し、有声音の場合ピッチ周期間隔の
インパルス列を、無声音の場合白色雑音を音声合成フィ
ルタ手段の駆動音源としている。このようにインパルス
列や白色雑音を単独で駆動音源とすると、有声音の立ち
上がりや立ち下がり、有声音から無声音の渡りの部分や
、声帯波雑音の多い話者の音声の場合には音声の過渡部
だけでなく定常母音部でも、合成音の音質が劣化するこ
とがあった。
無声音の2つに分類し、有声音の場合ピッチ周期間隔の
インパルス列を、無声音の場合白色雑音を音声合成フィ
ルタ手段の駆動音源としている。このようにインパルス
列や白色雑音を単独で駆動音源とすると、有声音の立ち
上がりや立ち下がり、有声音から無声音の渡りの部分や
、声帯波雑音の多い話者の音声の場合には音声の過渡部
だけでなく定常母音部でも、合成音の音質が劣化するこ
とがあった。
本発明は上記課題の解消を行うものである。
[課題を解決するための手段]
本発明の音声分析・合成装置は、分析部に入力音声信号
を複数の周波数帯域に分割し、各帯域に含まれる調波成
分と雑音成分の比率を求める帯域別雑音比推定手段と、
入力された音声信号から調波音源のパラメータを求め音
源パラメータとして出力する音源パラメータ抽出手段と
を備え、合成部に上記音源パラメータより調波音源を求
め出力する調波音源生成手段と、白色雑音を出力する白
色雑音生成手段と、各帯域毎に調波音源と白色雑音の振
幅比をその帯域の雑音振幅比に調整し、駆動音源として
出力する帯域別振幅調整手段を備えたものである。
を複数の周波数帯域に分割し、各帯域に含まれる調波成
分と雑音成分の比率を求める帯域別雑音比推定手段と、
入力された音声信号から調波音源のパラメータを求め音
源パラメータとして出力する音源パラメータ抽出手段と
を備え、合成部に上記音源パラメータより調波音源を求
め出力する調波音源生成手段と、白色雑音を出力する白
色雑音生成手段と、各帯域毎に調波音源と白色雑音の振
幅比をその帯域の雑音振幅比に調整し、駆動音源として
出力する帯域別振幅調整手段を備えたものである。
[作用コ
本発明における帯域別雑音比推定手段は、入力音声信号
を複数の周波数帯域に分割し、各帯域に含まれる調波成
分と雑音成分の振幅比を求め、帯域別雑音比として出力
し、音源パラメータ抽出手段は入力された音声信号から
調波音源のパラメータを求め音源パラメータとして出力
し、調波音源生成手段は音源パラメータより調波音源を
生成し、白色雑音生成手段は白色雑音を生成する。振幅
調整手段は、各帯域の調波成分と雑音成分の振幅比にし
たがって、前記調波音源と前記白色雑音の振幅を調整し
、これを重ね合わせたものを駆動音源とする。
を複数の周波数帯域に分割し、各帯域に含まれる調波成
分と雑音成分の振幅比を求め、帯域別雑音比として出力
し、音源パラメータ抽出手段は入力された音声信号から
調波音源のパラメータを求め音源パラメータとして出力
し、調波音源生成手段は音源パラメータより調波音源を
生成し、白色雑音生成手段は白色雑音を生成する。振幅
調整手段は、各帯域の調波成分と雑音成分の振幅比にし
たがって、前記調波音源と前記白色雑音の振幅を調整し
、これを重ね合わせたものを駆動音源とする。
「実施例〕
(実施例1)
以下、本発明の一実施例を第1図について説明する。
第1図は本発明の分析部(1)の一実施例を示す構成図
、第2図は本発明の合成部(II)の一実施例を示す構
成図である。第1閣において、(1)は入力音声信号、
(2)はこの人力音声信号(1)の線形予測分析を行い
スペクトル包絡パラメータを求めるスペクトル包絡分析
手段、(3)はそのスペクトル包絡パラメータ、(4)
は上記スペクトル包絡分析手段(2)で線形予測分析に
よって求められた振幅、(5)は上記入力音声信号(1
)から音源パラメータを求める音源パラメータ抽出手段
、(6)はその音源パラメータ、(7)は上記入力音声
信号(1)の帯域毎に雑音成分の比率を求める帯域別雑
音比推定手段、(8)はその帯域別雑音比で、これらに
より分析部(1)を構成している。
、第2図は本発明の合成部(II)の一実施例を示す構
成図である。第1閣において、(1)は入力音声信号、
(2)はこの人力音声信号(1)の線形予測分析を行い
スペクトル包絡パラメータを求めるスペクトル包絡分析
手段、(3)はそのスペクトル包絡パラメータ、(4)
は上記スペクトル包絡分析手段(2)で線形予測分析に
よって求められた振幅、(5)は上記入力音声信号(1
)から音源パラメータを求める音源パラメータ抽出手段
、(6)はその音源パラメータ、(7)は上記入力音声
信号(1)の帯域毎に雑音成分の比率を求める帯域別雑
音比推定手段、(8)はその帯域別雑音比で、これらに
より分析部(1)を構成している。
第2図において、(9)は上記音源パラメータ(6)か
らインパルス列を生成し調波音源として出力する調波音
源生成手段、(1o)はその調波音源、(11)は白色
雑音生成手段、(12)はこの白色雑音生成手段(11
)で生成された白色雑音、(13)は上記帯域別雑音比
(8)に対応する帯域毎に、上記調波音源(1o)と上
記白色雑音(12)の振幅比を上記帯域別雑音比(8)
に従って調整して駆動音源を求める帯域別振幅調整手段
で、振幅調整手段(14)、帯域フィルタ(16)、駆
動音源生成手段(18)から構成される。なお(15)
は振幅調整手段(14)の出力である振幅調整音源、(
17)は帯域フィルタ(16)の出力である帯域別駆動
音源、(19)は駆動音源生成手段(18)の出力であ
る駆動音源である。(20)は上記スペクトル包絡パラ
メータ(3)と駆動音源(19)から音声を合成する音
声合成フィルタ手段、(21)はその出力である合成音
声であり、これらにより合成部(n)構成している。
らインパルス列を生成し調波音源として出力する調波音
源生成手段、(1o)はその調波音源、(11)は白色
雑音生成手段、(12)はこの白色雑音生成手段(11
)で生成された白色雑音、(13)は上記帯域別雑音比
(8)に対応する帯域毎に、上記調波音源(1o)と上
記白色雑音(12)の振幅比を上記帯域別雑音比(8)
に従って調整して駆動音源を求める帯域別振幅調整手段
で、振幅調整手段(14)、帯域フィルタ(16)、駆
動音源生成手段(18)から構成される。なお(15)
は振幅調整手段(14)の出力である振幅調整音源、(
17)は帯域フィルタ(16)の出力である帯域別駆動
音源、(19)は駆動音源生成手段(18)の出力であ
る駆動音源である。(20)は上記スペクトル包絡パラ
メータ(3)と駆動音源(19)から音声を合成する音
声合成フィルタ手段、(21)はその出力である合成音
声であり、これらにより合成部(n)構成している。
以上のように構成された装置にあって、まず分析部(1
)の動作を説明する。
)の動作を説明する。
スペクトル包絡分析手段(2)では、スペクトル包絡を
分析する方法として、例えば、入力音声信号(1)の線
形予測分析を行い線形予測フィルタパラメータを求め、
これをスペクトル包絡パラメータ(3)として出力し、
また、入力音声信号(1)を線形予測逆フィルタリング
することにより得られる線形予測残差信号(以下、残差
信号と略す)の振幅を求め、これを振幅(4)として出
力する。音源パラメータ抽出手段(5)は、入力音声信
号(1)を入力とじ、音源パラメータとして、例えば、
ピッチ周期を求め、音源パラメータ(6)を出力する。
分析する方法として、例えば、入力音声信号(1)の線
形予測分析を行い線形予測フィルタパラメータを求め、
これをスペクトル包絡パラメータ(3)として出力し、
また、入力音声信号(1)を線形予測逆フィルタリング
することにより得られる線形予測残差信号(以下、残差
信号と略す)の振幅を求め、これを振幅(4)として出
力する。音源パラメータ抽出手段(5)は、入力音声信
号(1)を入力とじ、音源パラメータとして、例えば、
ピッチ周期を求め、音源パラメータ(6)を出力する。
帯域別雑音比推定手段(7)は、入力音声信号(1)を
入力とし、有限M個の帯域毎に、音声信号に対する雑音
成分の比率を求め、これを帯域別雑音比(8)として出
力する。
入力とし、有限M個の帯域毎に、音声信号に対する雑音
成分の比率を求め、これを帯域別雑音比(8)として出
力する。
帯域別雑音比(8)を推定する方法として例えば次の■
〜■の手順によるものがある。
〜■の手順によるものがある。
■入力音声信号(1)を線形予測逆フィルタリングして
残差信号を求める。
残差信号を求める。
■この残差信号にNポイントのD F T (Disc
retFourier Transform)をして、
対数パワースペクトルを求める。
retFourier Transform)をして、
対数パワースペクトルを求める。
■対数パワースペクトルを逆DFTして残差信号のケプ
ストラムを求める。
ストラムを求める。
■次に残差信号のケプストラムについて、K次までの低
次のケプストラムとピッチ周期に相当する点の前後数ポ
イントのケプストラムのみを残しその他の成分を0とす
る、いわゆるリフタリング処理を行い、これをDFTす
ることで周波数領域での推定調波成分を求める。
次のケプストラムとピッチ周期に相当する点の前後数ポ
イントのケプストラムのみを残しその他の成分を0とす
る、いわゆるリフタリング処理を行い、これをDFTす
ることで周波数領域での推定調波成分を求める。
■この推定調波成分と対数パワースペクトルとの差を有
限M個の帯域毎に求め、これを帯域別雑音比(g (m
):m=1、M)とする。
限M個の帯域毎に求め、これを帯域別雑音比(g (m
):m=1、M)とする。
合成部(II)では、調波音源生成手段(9)に、音源
パラメータ(6)か入力され、ピッチ周期間隔のインパ
ルス列を生成し、これを調波音源(10)として出力す
る。又、白色雑音生成手段(11)は、白色雑音を生成
し、これを白色雑音(12)として出力する。帯域別振
幅調整手段(13)には、まず振幅調整手段(14)に
振幅(4)、帯域別雑音比(8)、調波音源(10)、
白色雑音(12)が入力される。振幅調整手段(14)
は、M個の帯域別雑音比g (m)(m=1、M)を用
いて、調波音源(10)と白色雑音(12)の振幅比が
1−g(m)対g (m)となるように調整したM個の
振幅調整音源を生成し、振幅調整音源(15)として出
力する。帯域フィルタ(16)は、帯域別雑音比推定手
段(7)で設定した各周波数帯域を通過域とするM個の
バンドパスフィルタで構成され、入力されたM個の振幅
調整音源(15)に、各々の対応する周波数帯域を通過
域とするフィルタリングを行い、M個の帯域別駆動音源
を求め、これを帯域別駆動音源(17)として出力する
。駆動音源生成手段(18)は入力されたM個の帯域別
駆動音源(17)を重ね合わせることにより駆動音源を
求め、これを駆動音源(19)として出力する。音声合
成フィルタ手段(20)は、帯域別振幅調整手段(13
)より入力された駆動音源(19)で、スペクトル包絡
パラメータ(3)より計算される音声合成フィルタを駆
動して音声を合成し、これを合成音声(21)として出
力する。
パラメータ(6)か入力され、ピッチ周期間隔のインパ
ルス列を生成し、これを調波音源(10)として出力す
る。又、白色雑音生成手段(11)は、白色雑音を生成
し、これを白色雑音(12)として出力する。帯域別振
幅調整手段(13)には、まず振幅調整手段(14)に
振幅(4)、帯域別雑音比(8)、調波音源(10)、
白色雑音(12)が入力される。振幅調整手段(14)
は、M個の帯域別雑音比g (m)(m=1、M)を用
いて、調波音源(10)と白色雑音(12)の振幅比が
1−g(m)対g (m)となるように調整したM個の
振幅調整音源を生成し、振幅調整音源(15)として出
力する。帯域フィルタ(16)は、帯域別雑音比推定手
段(7)で設定した各周波数帯域を通過域とするM個の
バンドパスフィルタで構成され、入力されたM個の振幅
調整音源(15)に、各々の対応する周波数帯域を通過
域とするフィルタリングを行い、M個の帯域別駆動音源
を求め、これを帯域別駆動音源(17)として出力する
。駆動音源生成手段(18)は入力されたM個の帯域別
駆動音源(17)を重ね合わせることにより駆動音源を
求め、これを駆動音源(19)として出力する。音声合
成フィルタ手段(20)は、帯域別振幅調整手段(13
)より入力された駆動音源(19)で、スペクトル包絡
パラメータ(3)より計算される音声合成フィルタを駆
動して音声を合成し、これを合成音声(21)として出
力する。
(実施例2)
上記実施例では、調波成分を表す音源として、ピッチ周
期間隔のインパルス列を用いたが、声帯波形を近似した
モデル等を使用し、そのモデルのパラメータを用いるこ
とも可能である。
期間隔のインパルス列を用いたが、声帯波形を近似した
モデル等を使用し、そのモデルのパラメータを用いるこ
とも可能である。
[発明の効果コ
本発明によれば、入力音声信号を有限M個に帯域分割し
、各周波数帯域毎に調波成分と雑音成分の振幅比を求め
、各帯域における調波音源と白色雑音の振幅をその振幅
比に調整したので、原音声に含まれる調波成分と雑音成
分の混在している状態を精度よく表すことができインパ
ルス列や白色雑音を単独で駆動音源とすると合成音声の
音質が劣化する有声音の立ち上がりや立ち下がり、有声
音から無声音への渡りの部分や、声帯波雑音の多い話者
の音声等において、合成音声の音質が向上する効果を有
する。
、各周波数帯域毎に調波成分と雑音成分の振幅比を求め
、各帯域における調波音源と白色雑音の振幅をその振幅
比に調整したので、原音声に含まれる調波成分と雑音成
分の混在している状態を精度よく表すことができインパ
ルス列や白色雑音を単独で駆動音源とすると合成音声の
音質が劣化する有声音の立ち上がりや立ち下がり、有声
音から無声音への渡りの部分や、声帯波雑音の多い話者
の音声等において、合成音声の音質が向上する効果を有
する。
第1図は本発明の分析部の一実施例を表す構成図、第2
図は本発明の合成部の一実施例を表す構成図、第3図は
従来のボコーダ方式による音声分析部の構成図、第4図
は従来のボコーダ方式による音声合成部の構成図である
。 図中、(1)は入力音声信号、(2)はスペクトル包絡
分析手段、(3)はスペクトル包絡パラメータ、(4)
は振幅、(5)は音源パラメータ抽出手段、(6)は音
源パラメータ、(7)は帯域別雑音比推定手段、(8)
は帯域別雑音比、(9)は調波音源生成手段、(10)
は調波音源、(11)は白色雑音生成手段、(12)は
白色雑音、(13)は帯域別振幅調整手段、(14)は
振幅調整手段、(15)は振幅調整音源、(16)は帯
域フィルタ、(17)は帯域別駆動音源、(18)は駆
動音源生成手段、(19)は駆動音源、(20)は音声
合成フィルタ手段、(21)は合成音声、(22)はピ
ッチ周期抽出手段、(23)はピッチ周期、(24)は
有声・無声判定手段、(25)は有声・無声情報、(2
6)はインパルス列生成手段、(27)はインパルス列
、(28)は白色雑音生成手段、(29)は白色雑音、
(30)は切り替えスイッチである。 なお、図中同一符号は同一または相当部分を示す。
図は本発明の合成部の一実施例を表す構成図、第3図は
従来のボコーダ方式による音声分析部の構成図、第4図
は従来のボコーダ方式による音声合成部の構成図である
。 図中、(1)は入力音声信号、(2)はスペクトル包絡
分析手段、(3)はスペクトル包絡パラメータ、(4)
は振幅、(5)は音源パラメータ抽出手段、(6)は音
源パラメータ、(7)は帯域別雑音比推定手段、(8)
は帯域別雑音比、(9)は調波音源生成手段、(10)
は調波音源、(11)は白色雑音生成手段、(12)は
白色雑音、(13)は帯域別振幅調整手段、(14)は
振幅調整手段、(15)は振幅調整音源、(16)は帯
域フィルタ、(17)は帯域別駆動音源、(18)は駆
動音源生成手段、(19)は駆動音源、(20)は音声
合成フィルタ手段、(21)は合成音声、(22)はピ
ッチ周期抽出手段、(23)はピッチ周期、(24)は
有声・無声判定手段、(25)は有声・無声情報、(2
6)はインパルス列生成手段、(27)はインパルス列
、(28)は白色雑音生成手段、(29)は白色雑音、
(30)は切り替えスイッチである。 なお、図中同一符号は同一または相当部分を示す。
Claims (1)
- 音声信号をスペクトル包絡情報を表すパラメータと音
源信号に分離する分析部と、この分析部で分離されたス
ペクトル包絡情報を表すパラメータと音源信号により音
声合成を行う合成部とからなる音声分析・合成装置にお
いて、分析部に、入力音声信号からスペクトル包絡情報
を表すパラメータを求めるスペクトル包絡分析手段と、
入力音声信号を有限M個の周波数帯域に分割し、各周波
数帯域に含まれる雑音成分の比率を求め、帯域別雑音比
として出力する帯域別雑音比推定手段と、入力された音
声信号から調波音源のパラメータを求め音源パラメータ
として出力する音源パラメータ抽出手段を備え、合成部
に、この音源パラメータ抽出手段から出力された音源パ
ラメータより調波音源を求める調波音源生成手段と、白
色雑音を出力する白色雑音生成手段と、各周波数帯域毎
に、前記調波音源生成手段から出力される調波音源と前
記白色雑音生成手段より出力される白色雑音の振幅比を
前記帯域別雑音比推定手段より出力される帯域別雑音比
に従って調整して駆動音源を求める帯域別振幅調整手段
と、この帯域別振幅調整手段より出力される駆動音源で
前記スペクトル包絡情報より求められる音声合成フィル
タを駆動して音声を合成する音声合成フィルタ手段を備
えることを特徴とした音声分析・合成装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2237545A JP2841797B2 (ja) | 1990-09-07 | 1990-09-07 | 音声分析・合成装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2237545A JP2841797B2 (ja) | 1990-09-07 | 1990-09-07 | 音声分析・合成装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH04116700A true JPH04116700A (ja) | 1992-04-17 |
JP2841797B2 JP2841797B2 (ja) | 1998-12-24 |
Family
ID=17016918
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2237545A Expired - Fee Related JP2841797B2 (ja) | 1990-09-07 | 1990-09-07 | 音声分析・合成装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2841797B2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001051698A (ja) * | 1999-08-06 | 2001-02-23 | Yrp Kokino Idotai Tsushin Kenkyusho:Kk | 音声符号化復号方法および装置 |
WO2003096325A1 (en) * | 2002-05-07 | 2003-11-20 | Sony Corporation | Coding method, coding device, decoding method, and decoding device |
KR100744352B1 (ko) * | 2005-08-01 | 2007-07-30 | 삼성전자주식회사 | 음성 신호의 하모닉 성분을 이용한 유/무성음 분리 정보를추출하는 방법 및 그 장치 |
JP2009058708A (ja) * | 2007-08-31 | 2009-03-19 | Internatl Business Mach Corp <Ibm> | 音声処理システム、方法及びプログラム |
JP2012048154A (ja) * | 2010-08-30 | 2012-03-08 | Toshiba Corp | 音声合成装置、音声合成方法およびプログラム |
JP2014109669A (ja) * | 2012-11-30 | 2014-06-12 | Kddi Corp | 音声合成装置、音声合成方法および音声合成プログラム |
-
1990
- 1990-09-07 JP JP2237545A patent/JP2841797B2/ja not_active Expired - Fee Related
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001051698A (ja) * | 1999-08-06 | 2001-02-23 | Yrp Kokino Idotai Tsushin Kenkyusho:Kk | 音声符号化復号方法および装置 |
WO2003096325A1 (en) * | 2002-05-07 | 2003-11-20 | Sony Corporation | Coding method, coding device, decoding method, and decoding device |
US7428489B2 (en) | 2002-05-07 | 2008-09-23 | Sony Corporation | Encoding method and apparatus, and decoding method and apparatus |
KR100744352B1 (ko) * | 2005-08-01 | 2007-07-30 | 삼성전자주식회사 | 음성 신호의 하모닉 성분을 이용한 유/무성음 분리 정보를추출하는 방법 및 그 장치 |
US7778825B2 (en) | 2005-08-01 | 2010-08-17 | Samsung Electronics Co., Ltd | Method and apparatus for extracting voiced/unvoiced classification information using harmonic component of voice signal |
JP2009058708A (ja) * | 2007-08-31 | 2009-03-19 | Internatl Business Mach Corp <Ibm> | 音声処理システム、方法及びプログラム |
US8812312B2 (en) | 2007-08-31 | 2014-08-19 | International Business Machines Corporation | System, method and program for speech processing |
JP2012048154A (ja) * | 2010-08-30 | 2012-03-08 | Toshiba Corp | 音声合成装置、音声合成方法およびプログラム |
JP2014109669A (ja) * | 2012-11-30 | 2014-06-12 | Kddi Corp | 音声合成装置、音声合成方法および音声合成プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2841797B2 (ja) | 1998-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8073688B2 (en) | Voice processing apparatus and program | |
JPH05307399A (ja) | 音声分析方式 | |
US5369730A (en) | Speech synthesizer | |
JPH04116700A (ja) | 音声分析・合成装置 | |
JP2012208177A (ja) | 帯域拡張装置及び音声補正装置 | |
JPH05307395A (ja) | 音声合成装置 | |
JP3197975B2 (ja) | ピッチ制御方法及び装置 | |
JP3201268B2 (ja) | 音声通信装置 | |
JP3035939B2 (ja) | 音声分析合成装置 | |
JPH07261798A (ja) | 音声分析合成装置 | |
JP3282595B2 (ja) | 音声符号化・復号化装置及び通信装置 | |
JPS62102294A (ja) | 音声符号化方式 | |
JPH03132699A (ja) | 音声合成用デバイス | |
JP2650355B2 (ja) | 音声分析合成装置 | |
JPS60260100A (ja) | 音声合成器 | |
JP2973966B2 (ja) | 音声通信装置 | |
JPH0690638B2 (ja) | 音声分析方式 | |
JPS61259300A (ja) | 音声合成方式 | |
JPS5965895A (ja) | 音声合成方法 | |
JPH02247700A (ja) | 音声合成装置 | |
KR100322704B1 (ko) | 음성신호의지속시간변경방법 | |
JPH10232699A (ja) | Lpcボコーダ | |
JPH11102199A (ja) | 音声通信装置 | |
JPH01187000A (ja) | 音声合成装置 | |
JP2000242287A (ja) | 発声補助装置およびプログラム記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |