JP2004233624A - Voice synthesizer - Google Patents
Voice synthesizer Download PDFInfo
- Publication number
- JP2004233624A JP2004233624A JP2003021683A JP2003021683A JP2004233624A JP 2004233624 A JP2004233624 A JP 2004233624A JP 2003021683 A JP2003021683 A JP 2003021683A JP 2003021683 A JP2003021683 A JP 2003021683A JP 2004233624 A JP2004233624 A JP 2004233624A
- Authority
- JP
- Japan
- Prior art keywords
- formant
- output
- voice
- waveform data
- selector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
【0001】
【発明が属する技術分野】
本発明は、複数のフォルマントを合成して音声を合成することができる音声合成装置に関するものである。
【0002】
【従来の技術】
従来の音声合成装置の一例としては、数msないし数十msの短時間の音声を定常と見なして数個の正弦波の和で音声を表現することを原理としている。そして、正弦波を発生する正弦波発生器の位相をピッチ周期でリセットすることにより有声音を形成すると共に、正弦波発生器の位相初期化タイミングをランダムにすることによりスペクトルを広げて無声音を形成する音声合成装置が知られていた(例えば、特許文献1参照)。
【0003】
【特許文献1】
特公昭58−53351号公報
【0004】
【発明が解決しようとする課題】
しかしながら、従来の音声合成装置が合成することのできる音声の品位は低くリアリティがないという問題点があった。
そこで、本発明は、高品位の音声を合成することができる音声合成装置を提供することを目的としている。
【0005】
【課題を解決するための手段】
上記目的を達成するために、本発明の音声合成装置は、所望のフォルマント中心周波数および所望のフォルマントレベルを有するフォルマントをそれぞれ形成する複数のフォルマント形成部を備え、該複数のフォルマント形成部で形成された複数のフォルマントを合成することにより音声を合成する音声合成装置であって、前記複数のフォルマント形成部のそれぞれが、複数種類の波形形状の中から所望の波形形状を指定する波形形状指定手段と、前記複数種類の波形形状に対応した複数の波形データを記憶する波形データ記憶手段と、前記フォルマント中心周波数に対応したレートで変化するアドレスを発生して、前記波形形状指定手段で指定された波形形状に対応した波形データを前記波形データ記憶手段から読み出す波形データ読み出し手段と、前記ピッチ周期に対応したタイミング毎に急速に減衰するとともに減衰後に急速に立ち上がる形状のエンベロープ信号を形成し、該形成したエンベロープ信号を前記波形データ読み出し手段により前記波形データ記憶手段から読み出された波形データに付与するエンベロープ付与手段とを備えている。
【0006】
また、上記本発明の音声合成装置において、前記複数のフォルマント形成部により形成された複数のフォルマントを合成することにより有声音が合成されるようにしてもよい。
【0007】
このような本発明によれば、複数のフォルマント形成部により所望のフォルマント中心周波数および所望のフォルマントレベルをそれぞれ有するフォルマントを形成し、形成された複数のフォルマントを合成することにより音声を合成している。そして、フォルマントを形成する波形データにピッチ周期のエンベロープ信号を付与するようにしている。これにより、フォルマントにピッチ感を有させることができ、高品位のリアリティのある音声を合成することができるようになる。また、有声音フォルマントを形成する波形データにピッチ周期のエンベロープ信号を付与することにより、有声音フォルマントにピッチ感を有させることができる。
【0008】
【発明の実施の形態】
本発明の実施の形態の音源装置と兼用される音声合成装置の構成を示すブロック図を図1に示す。
図1に示す音声合成装置1は、複数種類の波形形状の波形データを記憶している波形データ記憶部と、この波形データ記憶部から所定の波形データを読み出す読み出し手段を少なくとも備える9つの波形テーブルボイス(WTボイス)部10a,10b,10c,10d,10e,10f,10g,10h,10iと、WTボイス部10a〜10iから出力される波形データをミキシングするミキシング手段11から構成され、ミキシング手段11からは発生された楽音あるいは合成された音声が出力される。この場合、WTボイス部10a〜10iに各種パラメータとして楽音パラメータおよび音声パラメータが供給されており、楽音/音声の発生指示をする音声モードフラグ(HVMODE)が楽音の発生を指示(HVMODE=0)していた場合は、楽音パラメータが選択されてWTボイス部10a〜10iで使用される。そして、選択された楽音パラメータに基づいてWTボイス部10a〜10iから発生された複数の楽音の波形データが出力され、ミキシング手段11から最大9音からなる楽音が出力される。
【0009】
そして、楽音/音声の発生指示をする音声モードフラグ(HVMODE)が音声の発生を指示(HVMODE=1)していた場合は、音声パラメータが選択されてWTボイス部10a〜10iで使用される。そして、選択された音声パラメータに基づいてWTボイス部10a〜10iから有声音ピッチ信号、有声音フォルマントあるいは無声音フォルマントを形成する波形データが出力され、有声音フォルマントおよび無声音フォルマントを形成している波形データがミキシング手段11で合成されることにより1つの音声が出力される。なお、HVMODEのHVはHuman Voiceの略である。また、U/Vは無声音(Unvoiced Sound)/有声音(Voiced Sound)指示フラグであり、HVMODE=1およびU/V=0が供給されている場合は、WTボイス部10b〜10iから有声音のフォルマントを形成する波形データが出力される。また、HVMODE=1およびU/V=0が供給されているWTボイス部10aからは、有声音のピッチ周期とされる有声音ピッチ信号が出力され、波形データは利用されない。WTボイス部10aから出力された有声音ピッチ信号はWTボイス部10b〜10iに供給されて、有声音フォルマントを形成する波形データの位相が、有声音ピッチ信号の周期毎にリセットされるようになる。また、有声音フォルマントのエンベロープ形状が有声音ピッチ信号の周期に対応したものとなる。これにより、有声音フォルマントにピッチ感を有させることができる。
【0010】
そして、WTボイス部10b〜10iにHVMODE=1およびU/V=1が供給されている場合は、WTボイス部10b〜10iから無声音のフォルマントを形成する波形データが出力される。また、HVMODE=1およびU/V=1が供給されているWTボイス部10aからの出力は利用されない。このように、HVMODE=1とすると、WTボイス部10b〜10iにより有声音フォルマントあるいは無声音フォルマントのフォルマントを最大8フォルマント出力することができる。
【0011】
ここで、音声について説明すると、音声の元になるのは声帯の振動であるが、声帯の振動は発音する言葉が違ってもほとんど変化することはない。口の開け方や喉の形などによって生じる共振や共鳴、そしてそれに付随する摩擦音や破裂音などが声帯の振動に付け加えられることでさまざまな音声になっている。このような音声には、特定の周波数領域にスペクトルが集中しているフォルマントと呼ばれる部分が周波数軸上で複数箇所存在している。このフォルマントの中央の周波数、あるいは、振幅最大の周波数がフォルマント中心周波数である。音声に含まれるフォルマントの数や、各フォルマントの中心周波数や振幅、帯域幅などは音声の性質を決める要素であり、音声を出す人の性別や体格、年齢などによって大きく異なるようになる。また、音声では発音する言葉の種類ごとに特徴的なフォルマントの組み合わせが決まっており、フォルマントの組み合わせは声質に関わることはない。フォルマントの種類を大別すると、有声音を合成するためのピッチ感を持った有声音フォルマントと、無声音を合成するためのピッチ感を持たない無声音フォルマントとなる。なお、有声音とは、発音する際に声帯が振動する音声であり、有声音には、母音と半母音、そしてバ行、ガ行、マ行、ラ行などで使用される有声子音が含まれる。また、無声音とは、発音する際に声帯が振動しない音声であり、ハ行、力行、サ行などの子音が無声音に該当する。
【0012】
図1に示す構成の本発明にかかる音源装置と兼用される音声合成装置1において、楽音を発生する際には、HVMODE=0としてWTボイス部10a〜10iのそれぞれで複数の楽音を発生するようにしている。すなわち、最大9音からなる楽音を発生することができる。
音声を合成する際には、HVMODE=1として合成する有声音あるいは無声音の音声に対応する有声音フォルマントあるいは無声音フォルマントをWTボイス部10b〜10iにより形成するようにしている。この場合、合成される音声は最大8つのフォルマントの組み合わせとなる。例えば、合成される音声が有声音の場合は、WTボイス部10b〜10iにU/V=0が供給されて、供給されている音声パラメータに基づく有声音フォルマントがそれぞれWTボイス部10b〜10iにより形成される。この際に、WTボイス部10aにはU/V=0が供給されて、WTボイス部10aは供給されている音声パラメータに基づいて有声音ピッチ信号を発生する。この有声音ピッチ信号はWTボイス部10b〜10iに供給されて、出力される有声音フォルマントを形成する波形データの位相が有声音ピッチ信号の周期毎にリセットされる。また、有声音フォルマントのエンベロープ形状が有声音ピッチ信号の周期に対応したものとなる。これによりピッチ感を持った有声音フォルマントがWTボイス部10b〜10iにより形成されるようになる。
【0013】
また、合成される音声が無声音の場合は、WTボイス部10b〜10iにHVMODE=1およびU/V=1が供給されて、供給されている音声パラメータに基づく無声音フォルマントがそれぞれWTボイス部10b〜10iにより形成される。後述するように、無声音の場合にはノイズが付与された無声音フォルマントとされる。これにより、高品質のリアリティのある音声を合成することができる。なお、無声音を合成する場合はWTボイス10aの出力は利用されない。
【0014】
音声合成装置1におけるWTボイス部10a〜10iの構成は同じ構成とされており、WTボイス部10として以下にその構成を説明する。図2は、WTボイス部10の概略構成を示すブロック図である。なお、図2以降において、(WT)、(有声音フォルマント)、(無声音フォルマント)の表記は、そのパラメータがそれぞれ、楽音、有声音フォルマント、無声音フォルマントを生成するためのパラメータであることを示している。
図2において、位相データ発生器(PG:Phase Generator)20は、発生すべき楽音のピッチあるいは有声音ピッチ信号、有声音フォルマント中心周波数、無声音フォルマント中心周波数のいずれかに対応する位相データを発生している。PG20には、音声モードフラグ(HVMODE)、無声音/有声音指示フラグ(U/V)のフラグ情報と、楽音パラメータとして楽音のオクターブ情報BLOCK(WT)、楽音の周波数情報FNUM(WT)が供給されている。さらに、音声パラメータとして、有声音ピッチ信号のオクターブ情報BLOCK(有声音ピッチ)、有声音ピッチ信号の周波数情報FNUM(有声音ピッチ)、あるいは、有声音フォルマントのオクターブ情報BLOCK(有声音フォルマント)、有声音フォルマントの周波数情報FNUM(有声音フォルマント)、無声音フォルマントのオクターブ情報BLOCK(無声音フォルマント)、無声音フォルマントの周波数情報FNUM(無声音フォルマント)の各パラメータが供給されている。PG20において、供給されている各種パラメータがフラグ情報により選択されて、選択したパラメータに基づいて発生すべき楽音の音程あるいは有声音ピッチ信号、有声音フォルマント中心周波数、無声音フォルマント中心周波数のいずれかに対応する位相データが発生されている。
【0015】
PG20の詳細構成を図3に示す。図3においてセレクタ30では、U/Vフラグの状態に応じて有声音ピッチ信号あるいは有声音フォルマントの周波数情報FNUMと、無声音フォルマントの周波数情報FNUMとのいずれかが選択されてセレクタ31に出力される。セレクタ31では、HVMODEフラグの状態に応じて楽音の周波数情報FNUM(WT)と、セレクタ30から出力される音声関連の周波数情報FNUMとのいずれかが選択されてシフター34に出力され、セレクタ31から出力される周波数情報FNUMがシフター34にセットされる。また、セレクタ32では、U/Vフラグの状態に応じて有声音ピッチ信号あるいは有声音フォルマントのオクターブ情報BLOCKと、無声音フォルマントのオクターブ情報BLOCKとのいずれかが選択されてセレクタ33に出力される。セレクタ33では、HVMODEフラグの状態に応じて楽音のオクターブ情報BLOCK(WT)と、セレクタ32から出力される音声関連のオクターブ情報BLOCKとのいずれかが選択されてシフター34にシフト情報として出力され、シフター34にセットされている周波数情報FNUMがオクターブ情報BLOCKに応じてシフトされる。これにより、発生すべき楽音の音程、有声音ピッチ信号、有声音フォルマントの中心周波数、無声音フォルマントの中心周波数のいずれかを発生するためのオクターブの加味された位相データがPG出力としてPG20から出力される。
【0016】
図2に戻りPG20からのPG出力は、アドレス発生器(ADG:Address Generator)21に入力され、PG出力とされる位相データを累算することにより、波形データ記憶部(WAVE TABLE)22から所望の波形形状の波形データを読み出すための読み出しアドレスを発生している。ADG21には、音声モードフラグ(HVMODE)、無声音/有声音指示フラグ(U/V)のフラグ情報と、楽音パラメータとしてスタートアドレスSA(WT)、ループポイントLP(WT)、エンドポイントEP(WT)が供給され、さらに、音声パラメータとして、有声音フォルマントを形成するに適した波形を選択するための波形選択(WS)信号と、楽音および音声に共通の発音開始を指示するキーオン(KeyOn)信号が供給されている。
【0017】
楽音を発生する場合には、HVMODE=0としてキーオン信号の開始タイミングでスタートアドレスSA(WT)がADG21から出力され、スタートアドレスSA(WT)で示される波形データ記憶部22の位置から波形データの読み出しが開始される。そして、PG20からの位相データを累算していくことによりエンドポイントEP(WT)までの読み出しアドレスが、楽音の音程に応じたレートで変化するようにADG21から順次出力される。これにより、エンドポイントEP(WT)で示される波形データ記憶部22の位置までの波形データのサンプルが楽音の音程に応じたレートで順次読み出される。次いで、ループポイントLP(WT)に相当する読み出しアドレスがADG21から出力され、さらにPG20からの位相データを累算していくことによりエンドポイントEP(WT)までの読み出しアドレスが楽音の音程に応じたレートで変化しながらADG21から順次出力される。これにより、ループポイントLP(WT)で示される波形データ記憶部22の位置からエンドポイントEP(WT)で示される波形データ記憶部22の位置までの波形データのサンプルが楽音の音程に応じたレートで順次読み出される。ループポイントLP(WT)からエンドポイントEP(WT)までの読み出しアドレスは、キーオン信号により発音停止されるまで繰り返し発生される。これにより、キーオン信号で示される発音開始から発音停止までの所望の波形データを、楽音の音程に応じたレートで波形データ記憶部22から読み出すことができる。
【0018】
また、音声を合成する際には、HVMODE=1としてキーオン信号の開始タイミングでWS(有声音フォルマント)信号で示されるスタートアドレス、あるいは、予め定められている無声音フォルマント用のスタートアドレスで示される波形データ記憶部22の位置から波形データの読み出しが開始される。そして、PG20からの位相データを累算していくことにより固定とされているアドレス範囲の読み出しアドレスが、有声音フォルマントあるいは無声音フォルマントの中心周波数に応じたレートで変化するようADG21から順次出力される。これにより、波形データのサンプルが波形データ記憶部22から有声音フォルマントあるいは無声音フォルマントの中心周波数に応じたレートで順次読み出されるようになる。なお、WTボイス部10aにおいては、PG20からの位相データを累算した累算値が有声音ピッチ周期で予め定められている所定の値(定数値)に達するようになり、定数値に達した際に有声音ピッチ信号(パルス信号)が出力されるようになる。
【0019】
このようなADG21の詳細構成を図4に示す。図4においてPG20からの位相データは累算器(ACC:Accumulator)41に入力されて、クロック毎に累算されることにより読み出しアドレスの増分値が生成される。この読み出しアドレスの増分値は、セレクタ46を介して加算器47に供給され加算器47においてスタートアドレスが加算されて読み出しアドレスが生成され、ADG出力としてADG21から出力される。
ADG21において、HVMODE=0とされて楽音を発生する際の動作を説明する。HVMODE=0とされると、アンドゲートANDが閉じるためオアゲートORから出力されるキーオン信号(KeyOn)のみによって累算器41は初期値にリセットされ、PG20から供給される発生すべき楽音の音程に応じた位相データの累算を開始する。この累算はクロック毎に行われ、その累算値bはセレクタ46および減算器43に出力される。
【0020】
減算器43にデータaを供給するセレクタ42はHVMODE=0とされていることからエンドポイントEP(WT)をデータaとして選択し減算器43に出力する。これにより、減算器43で演算された減算値(a−b)が出力され、減算値(a−b)のMSBが除外された振幅値|a−b|が加算器45に供給される。また、減算値(a−b)が負となった際に“1”となるMSB(Most Significant Bit)信号が選択信号としてセレクタ46に供給されると共に、累算器41にロード信号として供給される。MSB信号は、減算値(a−b)が負になった際に“1”になることから、セレクタ46は累算値bがエンドポイントEP(WT)を超えるまでは累算値bを加算器47に出力する。加算器47に加算データを供給するセレクタ50は、HVMODE=0とされていることからスタートアドレスSA(WT)を選択して加算器47に出力する。これにより、スタートアドレスSA(WT)が加算された累算値bがADG出力として出力される。累算値bはクロック毎に位相データが累算されて、位相データのレートで変化することから、ADG出力である読み出しアドレスも位相データに応じて変化していくようになる。
【0021】
そして、累算値bがエンドポイントEP(WT)を超えた際にMSB信号は“1”に変化することから、セレクタ46は加算器45から出力されるデータcを出力するようになる。データcは、HVMODE=0とされていることからセレクタ44において選択されたループポイントLP(WT)に、加算器45において減算値(a−b)のMSBが除外された振幅値|a−b|が加算された演算値とされる。これにより、加算器47から出力されるADG出力は振幅値|a−b|で補正されたループポイントLP(WT)の読み出しアドレスとなる。また、MSB信号が“1”に変化することから累算器41にロード信号が供給されて、累算器41にデータcがロードされるようになる。すると、MSB信号が“0”に戻ることから累算器41から出力されるデータcがセレクタ46から出力されるようになる。そして、累算器41からはクロック毎に位相データがデータcに加算された累算値bが出力されることから、ADG出力はほぼループポイントLP(WT)の読み出しアドレスから位相データに応じたレートで変化していくようになる。
【0022】
この場合のADG出力をグラフで図示して説明すると、ADG出力は図5に示すようになる。すなわち、キーオン信号が印加されるとスタートアドレスSA(WT)が出力され、位相データに応じたレートで変化しながら読み出しアドレスが上昇していきスタートアドレスSA(WT)からエンドポイント(EP)分増分された際に、スタートアドレスSA(WT)にループポイント(LP)を加算した値に戻り、以降は、スタートアドレスSA(WT)にループポイント(LP)を加算した値からエンドポイント(EP)分増分されるまでの読み出しアドレスを繰り返し発生するようになる。この際の読み出しアドレスの変化は、位相データに応じたレートとなる。そして、キーオン信号により発音停止された際にADG出力は停止されるようになる。このADG出力である読み出しアドレスにより波形データ記憶部22から読み出された波形データは、位相データに応じた周波数となる。なお、スタートアドレスSA(WT)により波形データ記憶部22から読み出される波形データの種類を選択することができることから、例えば、WTボイス部10a〜10i毎にスタートアドレスSA(WT)を選択することにより、WTボイス部10a〜10i毎の音色を異ならせることができるようになる。
【0023】
次に、ADG21がWTボイス部10aのアドレス発生器であって、HVMODE=1およびU/V=0とされて有声音ピッチ信号を発生する際の動作を説明する。HVMODE=1およびU/V=0とされると、アンドゲートANDが開くが、WTボイス10aには有声音ピッチ信号が供給されていないため、オアゲートORからはキーオン信号のみが出力される。従って、累算器41はキーオン信号により初期値にリセットされ、PG20から供給される発生すべき有声音ピッチ信号に応じた位相データの累算を開始する。この累算はクロック毎に行われ、その累算値bはセレクタ46および減算器43に出力される。減算器43にデータaを供給するセレクタ42はHVMODE=1とされていることからあらかじめ定められている定数値をデータaとして選択し減算器43に出力する。これにより、減算器43で演算された減算値(a−b)が出力され、減算値(a−b)のMSBが除外された振幅値|a−b|が加算器45に供給される。
【0024】
また、減算値(a−b)のMSB信号が選択信号としてセレクタ46に供給されると共に、累算器41にロード信号として供給される。MSB信号は、減算値(a−b)が負の値になった際、すなわち累算値が定数値に達した際に“1”になり、累算器41にロード信号として供給されて、累算器41にデータcがロードされるようになる。データcは、HVMODE=1とされていることからセレクタ44において選択された“0”に、加算器45において減算値(a−b)のMSBが除外された振幅値|a−b|が加算された演算値とされる。累算器41が次のクロックでデータcに位相データを加算すると、MSB信号は“0”になる。このようにして、MSB信号はPG20から供給された有声音ピッチパラメータに基づく位相データに応じた周期、すなわち有声音ピッチの周期で発生されるようになる。そこで、HVMODE=1およびU/V=0が供給されたWTボイス10aでは、このMSB信号を有声音ピッチ信号として出力している。有声音ピッチ信号をグラフで図示すると図7に示すように有声音ピッチの周期を有するパルス信号となる。この場合において、WTボイス部10aからはADG出力も出力されるが、このADG出力は読み出しアドレスとして使用しない。
【0025】
次に、ADG21において、HVMODE=1およびU/V=0とされて有声音フォルマントを発生する際の動作を説明する。HVMODE=1およびU/V=0とされると、ゲートNOTの作用によりアンドゲートANDが開くためオアゲートORから出力される有声音ピッチ信号およびキーオン信号によって累算器41は初期値にリセットされ、PG20から供給される発生すべき有声音フォルマントの中心周波数に応じた位相データの累算を開始する。アンドゲートANDには、WTボイス部10aから出力される図7に示す有声音ピッチ信号が供給されている。累算器41の累算はクロック毎に行われ、その累算値bはセレクタ46および減算器43に出力される。減算器43にデータaを供給するセレクタ42はHVMODE=1とされていることから、あらかじめ定められている定数値をデータaとして選択し減算器43に出力する。定数値とするのはフォルマントを形成する波形データのデータ量が固定値とされているからである。そして、減算器43で演算された減算値(a−b)が出力され、減算値(a−b)のMSBが除外された振幅値|a−b|が加算器45に供給される。
【0026】
また、減算値(a−b)のMSB信号が選択信号としてセレクタ46に供給されると共に、累算器41にロード信号として供給される。MSB信号は、減算値(a−b)が負の値になった際に“1”になることから、セレクタ46は累算値bが定数値を超えるまでは累算値bを加算器47に出力する。加算器47に加算データを供給するセレクタ50は、HVMODE=1とされていることからセレクタ49の出力を選択して加算器47に出力する。また、セレクタ49はU/V=0とされていることから、スタートアドレス発生器48から出力される有声音フォルマントを形成する選択された波形データのスタートアドレスSA(WS)をセレクタ49に出力している。さらに、スタートアドレス発生器48は、有声音フォルマントを形成するに適した波形を選択するよう入力されている波形選択(WS)信号に応じて波形データを選択するよう波形データ記憶部22上のスタートアドレスSAを出力している。これにより、加算器47においてスタートアドレスSA(WS)に累算値bが加算され、ADG出力として出力される。累算値bはクロック毎に位相データが累算されて位相データに応じたレートで変化していくことから、ADG出力である有声音フォルマントを形成する波形データを読み出す読み出しアドレスも位相データに応じたレートで変化していくようになる。
【0027】
そして、累算が進んで累算値が定数値に達すると、減算値(a−b)が負の値となってMSB信号が“1”になり、セレクタ46に供給される。すると、セレクタ46からデータcが出力されるようになるが、データcは、HVMODE=1とされていることからセレクタ44において選択された“0”に、加算器45において減算値(a−b)のMSBが除外された振幅値|a−b|が加算された演算値とされる。これにより、加算器47から出力されるADG出力は振幅値|a−b|の読み出しアドレスとなる。また、MSB信号は累算器41にロード信号として供給されて、累算器41にデータcがロードされるようになる。そして、次のクロックで位相データがデータcに加算されると、MSB信号が“0”に戻ることから累算器41から出力されるデータbがセレクタ46から出力されるようになる。累算器41における位相データの累算はクロック毎に行われ、ADG出力はスタートアドレスSA(WS)から位相データに応じたレートで変化していき、定数値分だけ増分した際に再びスタートアドレスSA(WS)に戻ることから、ADG出力はスタートアドレスSA(WS)から定数値分増分されるまでの読み出しアドレスを繰り返すようになる。この場合の位相データは有声音フォルマントの中心周波数に基づいていることから、読み出しアドレスは有声音フォルマントの中心周波数に応じたレートで変化するようになる。さらに、累算器41はWTボイス部10aから出力される有声音ピッチ信号により初期値にリセットされることから、ADG出力は有声音ピッチの周期毎にリセットされ、ADG信号を読み出しアドレスとして波形データ記憶部22から読み出した波形データにより形成される所定の中心周波数を有する有声音フォルマントに、ピッチ感を有させることができるようになる。
【0028】
この場合のADG出力をグラフで図示すると、図6に示すようになる。すなわち、キーオン信号が印加されると有声音フォルマントを形成させる波形データを選択するWS信号に対応したスタートアドレスSA(WS)が出力される。そして、累算器41の作用により有声音フォルマントの中心周波数に応じたレートで変化する読み出しアドレスが上昇していきスタートアドレスSA(WS)が定数値分増分された際に、スタートアドレスSA(WS)に戻り、以降は、スタートアドレスSA(WS)から定数値分増分した値までの読み出しアドレスを繰り返し発生するようになる。このADG出力により、波形データ記憶部22から選択された波形データを読み出すと、読み出された波形データにより所定の中心周波数の有声音フォルマントが形成されるようになる。そして、キーオン信号により発音停止された際にADG出力は停止されるようになる。なお、スタートアドレスSA(WS)すなわちWS(有声音フォルマント)信号により波形データ記憶部22から読み出される波形データの種類を選択することができ、これにより形成される有声音フォルマントのフォルマントを変化させることができる。また、図6では、累算器41がWTボイス部10aから出力される有声音ピッチ信号により初期値にリセットされることは図示していない。
【0029】
次に、ADG21において、HVMODE=1およびU/V=1とされて無声音フォルマントを発生する際の動作を説明する。HVMODE=1およびU/V=1とされると、アンドゲートANDがゲートNOTの作用により閉じるためオアゲートORから出力されるキーオン信号によってのみ累算器41は初期値にリセットされ、PG20から供給される発生すべき無声音フォルマントの中心周波数に応じた位相データの累算を開始する。この累算はクロック毎に行われ、その累算値bはセレクタ46および減算器43に出力される。減算器43にデータaを供給するセレクタ42はHVMODE=1とされていることからあらかじめ定められている定数値をデータaとして選択し減算器43に出力する。定数値とするのはフォルマントを形成する波形データのデータ量が固定値とされているからである。そして、減算器43で演算された減算値(a−b)が出力され、減算値(a−b)のMSBが除外された振幅値|a−b|が加算器45に供給される。
【0030】
また、減算値(a−b)のMSB信号が選択信号としてセレクタ46に供給されると共に、累算器41にロード信号として供給される。MSB信号は、減算値(a−b)が負の値になった際に“1”になることから、セレクタ46は累算値bが定数値を超えるまでは累算値bを加算器47に出力する。加算器47に加算データを供給するセレクタ50は、HVMODE=1とされていることからセレクタ49の出力を選択して加算器47に出力する。また、セレクタ49はU/V=1とされていることから、サイン波の波形データのスタートアドレスSA(サイン)をセレクタ49に出力している。これは、サイン波が無声音フォルマントを形成するのに適しているからである。これにより、加算器47においてスタートアドレスSA(サイン)に累算値bが加算され、ADG出力として出力される。累算値bはクロック毎に位相データが累算されて無声音フォルマントの中心周波数に応じたレートで変化していくことから、ADG出力である無声音フォルマントを形成する波形データを読み出す読み出しアドレスも無声音フォルマントの中心周波数に応じたレートで変化していくようになる。
【0031】
そして、累算値bが定数値を超えた際にMSB信号は“1”に変化することから、セレクタ46は加算器45から出力されるデータcを出力するようになる。データcは、HVMODE=1とされていることからセレクタ44において選択された“0”に、加算器45において減算値(a−b)のMSBが除外された振幅値|a−b|が加算された演算値とされる。これにより、加算器47から出力されるADG出力は振幅値|a−b|の読み出しアドレスとなる。また、MSB信号は累算器41にロード信号として供給されて、累算器41にデータcがロードされるようになる。そして、次のクロックで位相データがデータcに加算されると、MSB信号が“0”に戻ることから累算器41から出力されるデータbがセレクタ46から出力されるようになる。累算器41における位相データの累算は、クロック毎に行われADG出力はスタートアドレスSA(サイン)から位相データに応じたレートで変化していき、定数値分だけ増分した際に再びスタートアドレスSA(サイン)に戻ることから、ADG出力はスタートアドレスSA(サイン)から定数値分増分されるまでの読み出しアドレスを繰り返すようになる。この場合の位相データは無声音フォルマントの中心周波数に基づいていることから、読み出しアドレスは無声音フォルマントの中心周波数に応じたレートで変化するようになる。このADG信号を読み出しアドレスとして波形データ記憶部22から読み出した波形データにより、所定の中心周波数を有する無声音フォルマントが形成される。
【0032】
この場合のADG出力をグラフで図示すると、図8に示すようになる。すなわち、キーオン信号が印加されると無声音フォルマントを形成させるサイン波の波形データのスタートアドレスSA(サイン)が出力され、累算器41の作用により無声音フォルマントの中心周波数に応じたレートで変化する読み出しアドレスが上昇していきスタートアドレスSA(サイン)が定数値分増分された際に、スタートアドレスSA(サイン)に戻り、以降は、スタートアドレスSA(サイン)から定数値分増分した値までの読み出しアドレスを繰り返し発生するようになる。このADG出力により、波形データ記憶部22からサイン波の波形データを読み出すと、読み出された波形データにより所定の中心周波数の無声音フォルマントが形成されるようになる。そして、キーオン信号により発音停止された際にADG出力は停止されるようになる。
【0033】
ここで、波形データ記憶部22に記憶されている有声音フォルマントあるいは無声音フォルマントを形成するための複数種類の波形データの波形形状の一例を図14に示す。
図14では、波形データ記憶部22に32種類の波形形状の波形データが記憶されている例が示されており、WS(有声音フォルマント)信号として“0”をセットすると、0番のサイン波が読み出されるようになり、例えばWS(有声音フォルマント)信号として“16”をセットすると、16番の三角波が読み出されるようになる。また、スタートアドレスSA(サイン)は0番のサイン波の波形データ記憶部22上のスタートアドレスとされている。これらの32種類の波形データのデータ量は固定とされており、このデータ量に前記した定数値が対応している。従って、ADG21から出力されるADG出力により32種類の波形データのいずれかを読み出すと、選択された波形形状の波形データが発音停止されるまで繰り返し読み出されるようになる。
【0034】
図2に戻り波形データ記憶部22から読み出された波形データは乗算器23に供給され、エンベロープ発生器(EG)24により発生されたエンベロープ信号が乗算される。EG24には、音声モードフラグ(HVMODE)、無声音/有声音指示フラグ(U/V)のフラグ情報と、楽音パラメータとしてアタックレートAR(WT)、ディケイレートDR(WT)、サスティンレートSR(WT)、リリースレートRR(WT)、サスティンレベルSL(WT)が供給され、さらに、楽音および音声に共通の発音開始を指示するキーオン(KeyOn)信号が供給されている。
【0035】
このようなエンベロープ発生器(EG)24の詳細構成を示すブロック図を図9に示す。
楽音を発生する場合には図9に示すEG24において、HVMODE=0としてセレクタ60においてアタックレートAR(WT)を選択してセレクタ61へ出力し、セレクタ63においてディケイレートDR(WT)を選択してセレクタ61へ出力し、セレクタ64においてリリースレートRR(WT)を選択してセレクタ61へ出力する。さらに、セレクタ61にはサスティンレートSR(WT)が入力されている。セレクタ61は、ステート制御部66により制御されてアタック、ディケイ、サスティン、リリースの各ステート毎に当該ステートのエンベロープパラメータを選択して出力する。ステート制御部66には、キーオン信号、音声モードフラグ(HVMODE)が供給されると共に、サスティンレベルSL(WT)信号が入力されている。また、WTボイス部10aから出力される有声音ピッチ信号、無声音/有声音指示フラグ(U/V)も供給されているが、これらは使用されない。セレクタ61からステートに応じて出力されるエンベロープパラメータは累算器(ACC)65により累算されてエンベロープが生成されてEG出力として出力されると共に、ステート制御部66に供給される。ステート制御部66は、EG出力のレベルからステートを判断することができる。累算器65ではキーオン信号の開始タイミングで累算をスタートする。
【0036】
この場合のEG出力をグラフで図示すると、図10に示すようになる。すなわち、ステート制御部66および累算器65に供給されているキーオン信号が立ち上がると、ステート制御部66は発音開始と判断してセレクタ61から発音開始時のステートであるアタック用のアタックレートAR(WT)のパラメータを出力させる。このアタックレートAR(WT)のパラメータは、累算器65においてクロック毎に累算されEG出力は図10に示すARのように急速に上昇していく。そして、EG出力のレベルが例えば0dBに達すると、ステート制御部66はステートがディケイに移行したと判断してセレクタ61からディケイレートDR(WT)のパラメータを出力させる。このディケイレートDR(WT)のパラメータは、累算器65においてクロック毎に累算されEG出力は図10に示すDRのように急速に下降していく。
【0037】
EG出力が下降していき、EG出力のレベルがサスティンレベルSL(WT)に達すると、ステート制御部66はそのことを検出してステートがサスティンに移行したと判断し、セレクタ61からサスティンレートSR(WT)のパラメータを出力させる。出力されたサスティンレートSR(WT)のパラメータは、累算器65においてクロック毎に累算されEG出力は図10に示すSRのように緩やかな傾斜で下降していく。ステート制御部66は、キーオン信号が立ち下がるまではサスティンを継続させ、ここで、キーオン信号が立ち下がりステート制御部66が発音停止と判断すると、セレクタ61からリリースレートRR(WT)のパラメータを出力させる。出力されたリリースレートRR(WT)のパラメータは、累算器65においてクロック毎に累算されEG出力は図10に示すRRのように急速に傾斜で下降していき発音が停止されるようになる。
【0038】
次に、音声における有声音フォルマントを発生する場合には図9に示すEG24において、HVMODE=1およびU/V=0としてセレクタ60において初期ステート用の急速立ち上げレートを選択してセレクタ61へ出力し、セレクタ62でU/V=0に応じて選択された中間ステート用の定数値をセレクタ63において選択してセレクタ61へ出力し、セレクタ64において終了ステート用の急速減衰レートを選択してセレクタ61へ出力する。さらに、セレクタ61にはサスティンレートSR(WT)が入力されているが、このパラメータは使用されない。セレクタ61は、ステート制御部66により制御されて初期、中間、終了の各ステート毎に当該ステートのエンベロープパラメータを選択して出力する。ステート制御部66には、キーオン信号、WTボイス部10aから出力される有声音ピッチ信号、音声モードフラグ(HVMODE)、無声音/有声音指示フラグ(U/V)のフラグ情報が供給されている。また、サスティンレベルSL(WT)信号が供給されているが、この場合は使用されない。セレクタ61からステートに応じて出力されるエンベロープパラメータは累算器(ACC)65によりクロック毎に累算されてエンベロープが生成されてEG出力として出力されると共に、ステート制御部66に供給される。ステート制御部66は、EG出力のレベルからステートを判断することができる。累算器65ではキーオン信号の開始タイミングで累算をスタートする。
【0039】
この場合のEG出力をグラフで図示すると、図11に示すようになる。すなわち、ステート制御部66および累算器65に供給されているキーオン信号が立ち上がると、ステート制御部66は発音開始と判断してセレクタ61から初期ステート用の急速立ち上げレートのパラメータを出力させる。この急速立ち上げレートのパラメータは、累算器65においてクロック毎に累算されEG出力は図11に示すように急激に上昇していく。そして、EG出力のレベルが所定レベルに達すると、ステート制御部66は中間ステートに移行したと判断してセレクタ61から中間ステート用の定数値のパラメータを出力させる。この定数値のパラメータは、累算器65においてクロック毎に累算されEG出力は図11に示すように緩やかに下降していく。
【0040】
ここで、ステート制御部66に図7に示す有声音ピッチ信号が入力されると、ステート制御部66はセレクタ61を制御して急速立ち下げレートのパラメータを選択して累算器65に出力する。この急速立ち下げレートのパラメータは、累算器65においてクロック毎に累算されEG出力は図11に示すように急激に下降していく。そして、EG出力のレベルが所定の最低レベルに達すると、ステート制御部66はセレクタ61を制御して急速立ち下げレートのパラメータを再び選択して累算器65に出力する。この急速立ち上げレートのパラメータは、累算器65においてクロック毎に累算されEG出力は図11に示すように急激に上昇していく。そして、EG出力のレベルが所定レベルに達すると、ステート制御部66は中間ステートに移行したと判断してセレクタ61から中間ステート用の定数値のパラメータを出力させる。以下、同様の動作が繰り返し行われる。このように、有声音ピッチの周期を有するエンベロープとされるため、このエンベロープが乗算器23で乗算された波形データにピッチ感を与えることができるようになる。
【0041】
また、キーオン信号が立ち下がりステート制御部66が発音停止と判断すると、ステート制御部66はセレクタ61を制御して急速立ち下げレートのパラメータを選択して累算器65に出力する。この急速立ち下げレートのパラメータは、累算器65においてクロック毎に累算されEG出力は急激に下降していき発音が停止されるようになる。
【0042】
次に、音声における無声音フォルマントを発生する場合には図9に示すEG24において、HVMODE=1およびU/V=1としてセレクタ60において初期ステート用の急速立ち上げレートを選択してセレクタ61へ出力し、セレクタ62でU/V=1に応じて選択された中間ステート用の“0”をセレクタ63において選択してセレクタ61へ出力し、セレクタ64において終了ステート用の急速減衰レートを選択してセレクタ61へ出力する。さらに、セレクタ61にはサスティンレートSR(WT)が入力されているが、このパラメータは使用されない。セレクタ61は、ステート制御部66により制御されて初期、中間、終了の各ステート毎に当該ステートのエンベロープパラメータを選択して出力する。ステート制御部66には、キーオン信号、音声モードフラグ(HVMODE)、無声音/有声音指示フラグ(U/V)のフラグ情報が供給されている。また、WTボイス部10aから出力される有声音ピッチ信号およびサスティンレベルSL(WT)信号が供給されているが、この場合は使用されない。セレクタ61からステートに応じて出力されるエンベロープパラメータは累算器(ACC)65により累算されてエンベロープが生成されてEG出力として出力されると共に、ステート制御部66に供給される。ステート制御部66は、EG出力のレベルからステートを判断することができる。累算器65ではキーオン信号の開始タイミングで累算をスタートする。
【0043】
この場合のEG出力をグラフで図示すると、図12に示すようになる。すなわち、ステート制御部66および累算器65に供給されているキーオン信号が立ち上がると、ステート制御部66は発音開始と判断してセレクタ61から初期ステート用の急速立ち上げレートのパラメータを出力させる。この急速立ち上げレートのパラメータは、累算器65においてクロック毎に累算されEG出力は図12に示すように急激に上昇していく。そして、EG出力のレベルが所定レベルに達すると、ステート制御部66は中間ステートに移行したと判断してセレクタ61から中間ステート用の“0”のパラメータを出力させる。これにより、累算器65から出力されるEG出力は図12に示すように、その値を維持するようになる。ここで、キーオン信号が立ち下がりステート制御部66が発音停止と判断すると、ステート制御部66はセレクタ61を制御して急速立ち下げレートのパラメータを選択して累算器65に出力する。この急速立ち下げレートのパラメータは、累算器65においてクロック毎に累算されEG出力は図12に示すように急激に下降していき発音が停止されるようになる。
なお、図10ないし図12に示すEG出力では直線的に変化しているエンベロープを形成するようにしたが、曲線的に変化するエンベロープを発生するようにしてもよい。また、EG24の出力を波形データに乗算する乗算器23は後述する加算器25の後段に配置してもよい。
【0044】
図2に戻り乗算器23においてエンベロープが乗算された波形データは、加算器25に供給されてノイズ発生部26により発生されたノイズが加算される。ノイズは、例えばホワイトノイズとされる。この場合、ノイズ発生部26には音声モードフラグ(HVMODE)、無声音/有声音指示フラグ(U/V)のフラグ情報が供給されており、HVMODE=1およびU/V=1とされて無声音フォルマントを発生する際にのみノイズを発生するようにしている。従って、加算器25においては無声音フォルマントを形成するエンベロープが乗算された波形データにのみノイズが加算されて出力されるようになる。
【0045】
ここで、ノイズ発生部26の詳細構成を図13に示す。図13に示すように、ノイズ発生部26におけるホワイトノイズ発生器70から発生されたホワイトノイズは、4段のローパスフィルタ(LPF1,LPF2,LPF3,LPF4)71,72,73,74により帯域制限される。そして、ローパスフィルタ74の出力は乗算器75においてノイズのレベルが調整され、セレクタ76に入力される。セレクタ76はアンドゲート(AND)77の出力により選択されており、アンドゲート77はHVMODE=1およびU/V=1とされて無声音フォルマントを発生する際にセレクタ76において乗算器75から出力されるノイズを出力している。また、HVMODE=1およびU/V=1のいずれかが“0”とされて楽音あるいは有声音フォルマントを発生する際には、アンドゲート77の出力によりセレクタ76からはノイズに代えて“0”が出力される。これにより、加算器25においては無声音フォルマントを形成するエンベロープが乗算された波形データにのみノイズが加算されて出力されるようになる。
【0046】
ローパスフィルタ71〜74は同様の構成とされており、代表としてローパスフィルタ71の構成が図13に示されている。ローパスフィルタ71において、ホワイトノイズ発生器70から入力されたホワイトノイズは、遅延回路70aにより1サンプル時間遅延され係数乗算器70bにおいて所定の係数が乗算され加算器70dに入力される。また、入力されたホワイトノイズは係数乗算器70cにおいて所定の係数が乗算され加算器70dに入力されて、係数乗算器70bの出力に加算される。加算器70dの出力がローパスフィルタ出力となる。このような構成の、例えば4段のローパスフィルタ71〜74によりホワイトノイズの帯域制限を行うことにより、音声における耳につく感じを抑制することができるようになる。なお、乗算器75におけるノイズレベルのレベル調整は必ずしも必要なものではなく、省略するようにしてもよい。
【0047】
図2に戻り加算器25から出力された波形データは、乗算器27に供給されて出力レベルが調整される。乗算器27には、音声モードフラグ(HVMODE)、無声音/有声音指示フラグ(U/V)のフラグ情報と、楽音の出力レベルを示すレベル(WT)、有声音フォルマントの出力レベルを示すレベル(有声音フォルマント)、無声音フォルマントの出力レベルを示すレベル(無声音フォルマント)が供給されている。そして、HVMODE=0とされて楽音を発生する場合には、乗算器27においてレベル(WT)が乗算されて楽音の波形データの出力レベルが調整される。また、HVMODE=1、U/V=0とされて有声音フォルマントを発生する場合には、乗算器27においてレベル(有声音フォルマント)が乗算されて有声音フォルマントを形成する波形データの出力レベルが調整される。これにより、有声音フォルマントのレベルが所定のレベルとなる。さらに、HVMODE=1、U/V=1とされて無声音フォルマントを発生する場合には、乗算器27においてレベル(無声音フォルマント)が乗算されて無声音フォルマントを形成する波形データの出力レベルが調整される。これにより、無声音フォルマントのレベルが所定のレベルとなる。
【0048】
以上の説明では、本発明にかかる音源装置と兼用される音声合成装置は9つの波形データ記憶部を有するWTボイス部から構成したが、これに限るものではなく9未満でも9を超えるWTボイス部としてもよい。9を超えるWTボイス部とすると、楽音の同時発音数を増加させることができると共に、合成するフォルマント数を増加することができ種々の音声を合成することができる。
また、本発明にかかる音源装置と兼用される音声合成装置は、音声モードフラグ(HVMODE)で楽音を指定した場合には、複数のWTボイス部は楽音形成部として機能し、音声モードフラグ(HVMODE)で音声を指定した場合には、複数のWTボイス部はフォルマント形成部として機能するようになる。また、音声モードフラグ(HVMODE)を音声に固定することにより、専用の音声合成装置として使用することができる。
【0049】
【発明の効果】
本発明は以上説明したように、複数の波形テーブルボイス部である複数のフォルマント形成部により所望のフォルマント中心周波数および所望のフォルマントレベルをそれぞれ有するフォルマントを形成し、形成された複数のフォルマントを合成することにより音声を合成している。そして、フォルマントを形成する波形データにピッチ周期のエンベロープ信号を付与するようにしている。これにより、フォルマントにピッチ感を有させることができ、高品位のリアリティのある音声を合成することができるようになる。また、有声音フォルマントを形成する波形データにピッチ周期のエンベロープ信号を付与することにより、有声音フォルマントにピッチ感を有させることができる。
【0050】
また、複数の波形テーブルボイス部から楽音パラメータに基づいて出力される波形データを、ミキシングすることにより複数の楽音を発生することができ、複数の波形テーブルボイス部から音声パラメータに基づいて出力される有声音フォルマントあるいは無声音フォルマントを形成する波形データを合成することにより音声を合成することができる。このように、複数の波形テーブルボイス部を楽音発生と音声合成とで兼用することができるため、本発明の音声合成装置は音源装置と兼用することができるようになる。
【図面の簡単な説明】
【図1】本発明の実施の形態の音源装置と兼用される音声合成装置の構成を示すブロック図である。
【図2】本発明の実施の形態の音源装置と兼用される音声合成装置におけるWTボイス部の概略構成を示すブロック図である。
【図3】本発明の実施の形態の音源装置と兼用される音声合成装置における位相データ発生器の詳細構成を示すブロック図である。
【図4】本発明の実施の形態の音源装置と兼用される音声合成装置におけるアドレス発生器の詳細構成を示すブロック図である。
【図5】本発明の実施の形態の音源装置と兼用される音声合成装置におけるアドレス発生器のADG出力の一例を示すグラフである。
【図6】本発明の実施の形態の音源装置と兼用される音声合成装置におけるアドレス発生器のADG出力の他の例を示すグラフである。
【図7】本発明の実施の形態の音源装置と兼用される音声合成装置におけるアドレス発生器の有声音ピッチ信号の波形を示す図である。
【図8】本発明の実施の形態の音源装置と兼用される音声合成装置におけるアドレス発生器のADG出力のさらに他の例を示すグラフである。
【図9】本発明の実施の形態の音源装置と兼用される音声合成装置におけるエンベロープ発生器の詳細構成を示すブロック図である。
【図10】本発明の実施の形態の音源装置と兼用される音声合成装置におけるエンベロープ発生器のEG出力の一例を示すグラフである。
【図11】本発明の実施の形態の音源装置と兼用される音声合成装置におけるエンベロープ発生器のEG出力の他の例を示すグラフである。
【図12】本発明の実施の形態の音源装置と兼用される音声合成装置におけるエンベロープ発生器のEG出力のさらに他の例を示すグラフである。
【図13】本発明の実施の形態の音源装置と兼用される音声合成装置におけるノイズ発生部の詳細構成を示すブロック図である。
【図14】本発明の実施の形態の音源装置と兼用される音声合成装置における波形データ記憶部に記憶されている有声音フォルマントあるいは無声音フォルマントを形成するための複数種類の波形データの波形形状の一例を示す図である。
【符号の説明】
1 音声合成装置、10 WTボイス部、10a,10b,10c,10d,10e,10f,10g,10h,10i WTボイス部、11 ミキシング手段、20 位相データ発生器、21 アドレス発生器、22 波形データ記憶部、23 乗算器、25 加算器、26 ノイズ発生部、27 乗算器、30 セレクタ、31 セレクタ、32 セレクタ、33 セレクタ、34 シフター、41 累算器、42 セレクタ、43 減算器、44 セレクタ、45 加算器、46 セレクタ、47 加算器、48 スタートアドレス発生器、49 セレクタ、50 セレクタ、60 セレクタ、61 セレクタ、62 セレクタ、63セレクタ、64 セレクタ、65 累算器、66 ステート制御部、70 ホワイトノイズ発生器、70a 遅延回路、70b 係数乗算器、70c 係数乗算器、70d 加算器、71,72,73,74 ローパスフィルタ、75 乗算器、76 セレクタ、77 アンドゲート、AR アタックレート、BLOCK オクターブ情報、DR ディケイレート、EP エンドポイント、FNUM周波数情報、LP ループポイント、RR リリースレート、SA スタートアドレス、SL サスティンレベル、SR サスティンレート[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a speech synthesizer capable of synthesizing speech by synthesizing a plurality of formants.
[0002]
[Prior art]
As an example of a conventional speech synthesizer, it is based on the principle that speech in a short time of several ms to several tens of ms is regarded as stationary and speech is represented by the sum of several sine waves. Then, the voiced sound is formed by resetting the phase of the sine wave generator that generates the sine wave at the pitch cycle, and the spectrum is expanded by randomizing the phase initialization timing of the sine wave generator to form an unvoiced sound. There is known a speech synthesizer that performs the following (for example, see Patent Document 1).
[0003]
[Patent Document 1]
Japanese Patent Publication No. 58-53351
[Problems to be solved by the invention]
However, there is a problem that the quality of speech that can be synthesized by the conventional speech synthesizer is low and there is no reality.
Therefore, an object of the present invention is to provide a speech synthesizer capable of synthesizing high-quality speech.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, a voice synthesizing device of the present invention includes a plurality of formant forming units each forming a formant having a desired formant center frequency and a desired formant level, and is formed by the plurality of formant forming units. A voice synthesizer that synthesizes voice by synthesizing a plurality of formants, wherein each of the plurality of formant forming units specifies a desired waveform shape from among a plurality of types of waveform shapes, and A waveform data storage means for storing a plurality of waveform data corresponding to the plurality of types of waveform shapes; and an address changing at a rate corresponding to the formant center frequency, and a waveform designated by the waveform shape designation means. Reading waveform data corresponding to a shape from the waveform data storage means And an envelope signal having a shape that rapidly attenuates at each timing corresponding to the pitch period and rises rapidly after the attenuation, and reads the formed envelope signal from the waveform data storage unit by the waveform data reading unit. And envelope providing means for providing the obtained waveform data.
[0006]
Further, in the above-described voice synthesizer of the present invention, a voiced sound may be synthesized by synthesizing a plurality of formants formed by the plurality of formant forming units.
[0007]
According to the present invention, a formant having a desired formant center frequency and a desired formant level is respectively formed by the plurality of formant forming sections, and the formed plural formants are synthesized to synthesize a voice. . Then, an envelope signal having a pitch cycle is added to waveform data forming a formant. As a result, the formant can be given a sense of pitch, and high-quality, realistic voice can be synthesized. Further, by giving an envelope signal of a pitch period to waveform data forming a voiced sound formant, the voiced sound formant can have a sense of pitch.
[0008]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a block diagram showing a configuration of a speech synthesizer used also as a sound source device according to an embodiment of the present invention.
The
[0009]
If the voice mode flag (HVMODE) for instructing generation of a musical tone / voice indicates that voice is to be generated (HVMODE = 1), voice parameters are selected and used in the
[0010]
When HVMODE = 1 and U / V = 1 are supplied to the
[0011]
Here, to explain the voice, the source of the voice is the vibration of the vocal cords, but the vibration of the vocal cords hardly changes even if the words to be pronounced are different. Resonance and resonance caused by the way the mouth is opened and the shape of the throat, and the accompanying fricatives and plosives are added to the vibrations of the vocal cords to produce various sounds. In such speech, there are a plurality of portions called formants in which the spectrum is concentrated in a specific frequency region on the frequency axis. The center frequency of this formant or the frequency with the largest amplitude is the formant center frequency. The number of formants included in the voice, the center frequency, amplitude, and bandwidth of each formant are factors that determine the characteristics of the voice, and vary greatly depending on the gender, physique, age, and the like of the person who outputs the voice. In addition, a combination of formants characteristic of each type of words to be pronounced in a voice is determined, and the combination of formants does not affect voice quality. The types of formants are roughly classified into a voiced sound formant having a sense of pitch for synthesizing voiced sounds and an unvoiced sound formant without a sense of pitch for synthesizing unvoiced sounds. The voiced sound is a voice in which the vocal cords vibrate when it is pronounced, and the voiced sound includes vowels and semi-vowels, and voiced consonants used in ba-, ga-, ma-, and la-lines. . The unvoiced sound is a sound in which the vocal cords do not vibrate when being pronounced, and consonants such as c-line, power-line, and sub-line correspond to the unvoiced sound.
[0012]
In the
When synthesizing voices, the
[0013]
When the synthesized voice is an unvoiced sound, HVMODE = 1 and U / V = 1 are supplied to the
[0014]
The configurations of the
In FIG. 2, a phase data generator (PG: Phase Generator) 20 generates phase data corresponding to the pitch of a musical tone to be generated or a voiced pitch signal, a voiced sound formant center frequency, or an unvoiced sound formant center frequency. ing. The
[0015]
The detailed configuration of the
[0016]
Returning to FIG. 2, a PG output from the
[0017]
When a musical tone is generated, the start address SA (WT) is output from the
[0018]
When synthesizing voice, the start address indicated by the WS (voiced sound formant) signal at the start timing of the key-on signal with HVMODE = 1, or the waveform indicated by the start address for a predetermined unvoiced sound formant Reading of the waveform data is started from the position of the
[0019]
The detailed configuration of such an
The operation of the
[0020]
The
[0021]
When the accumulated value b exceeds the end point EP (WT), the MSB signal changes to “1”, so that the
[0022]
The ADG output in this case will be illustrated and described with a graph. The ADG output is as shown in FIG. That is, when the key-on signal is applied, the start address SA (WT) is output, and the read address rises while changing at a rate corresponding to the phase data, and is incremented by the end point (EP) from the start address SA (WT). Is returned to the value obtained by adding the loop point (LP) to the start address SA (WT), and thereafter, from the value obtained by adding the loop point (LP) to the start address SA (WT), for the end point (EP) The read address up to the increment is repeatedly generated. The change of the read address at this time has a rate corresponding to the phase data. Then, when the sound generation is stopped by the key-on signal, the ADG output is stopped. The waveform data read from the waveform
[0023]
Next, the operation when the
[0024]
The MSB signal of the subtraction value (ab) is supplied to the
[0025]
Next, the operation of the
[0026]
The MSB signal of the subtraction value (ab) is supplied to the
[0027]
When the accumulation proceeds and the accumulated value reaches a constant value, the subtraction value (ab) becomes a negative value, the MSB signal becomes “1”, and is supplied to the
[0028]
A graph of the ADG output in this case is as shown in FIG. That is, when a key-on signal is applied, a start address SA (WS) corresponding to a WS signal for selecting waveform data for forming a voiced sound formant is output. Then, the read address changing at a rate corresponding to the center frequency of the voiced sound formant is increased by the operation of the accumulator 41, and when the start address SA (WS) is incremented by a constant value, the start address SA (WS) is increased. ), The read address from the start address SA (WS) to a value incremented by a constant value is repeatedly generated. When the selected waveform data is read from the waveform
[0029]
Next, the operation of the
[0030]
The MSB signal of the subtraction value (ab) is supplied to the
[0031]
When the accumulated value b exceeds the constant value, the MSB signal changes to “1”, so that the
[0032]
A graph of the ADG output in this case is as shown in FIG. That is, when the key-on signal is applied, the start address SA (sine) of the waveform data of the sine wave for forming the unvoiced sound formant is output, and the readout changes at a rate corresponding to the center frequency of the unvoiced sound formant by the operation of the accumulator 41. When the address increases and the start address SA (sign) is incremented by a constant value, the address returns to the start address SA (sign), and thereafter, reading is performed from the start address SA (sign) to a value incremented by a constant value. Addresses are repeatedly generated. When the waveform data of the sine wave is read from the waveform
[0033]
Here, an example of the waveform shape of a plurality of types of waveform data for forming a voiced sound formant or an unvoiced sound formant stored in the waveform
FIG. 14 shows an example in which waveform data of 32 types of waveforms are stored in the waveform
[0034]
Returning to FIG. 2, the waveform data read from the waveform
[0035]
FIG. 9 is a block diagram showing a detailed configuration of such an envelope generator (EG) 24.
When a musical tone is generated, in the
[0036]
FIG. 10 shows a graph of the EG output in this case. That is, when the key-on signal supplied to the
[0037]
When the EG output decreases and the level of the EG output reaches the sustain level SL (WT), the
[0038]
Next, when generating a voiced sound formant in the voice, the
[0039]
FIG. 11 shows a graph of the EG output in this case. That is, when the key-on signal supplied to the
[0040]
Here, when the voiced sound pitch signal shown in FIG. 7 is input to the
[0041]
When the key-on signal falls and the
[0042]
Next, when generating an unvoiced sound formant in voice, the
[0043]
FIG. 12 shows a graph of the EG output in this case. That is, when the key-on signal supplied to the
Although the EG output shown in FIGS. 10 to 12 forms an envelope that changes linearly, an envelope that changes in a curve may be generated. Further, the
[0044]
Returning to FIG. 2, the waveform data multiplied by the envelope in the
[0045]
Here, the detailed configuration of the
[0046]
The low-
[0047]
Returning to FIG. 2, the waveform data output from the
[0048]
In the above description, the voice synthesizing device which is also used as the sound source device according to the present invention is composed of the WT voice unit having nine waveform data storage units. However, the present invention is not limited to this. It may be. If the number of WT voice parts exceeds 9, the number of simultaneous tones of musical tones can be increased, the number of formants to be synthesized can be increased, and various voices can be synthesized.
Further, in the voice synthesizing device which is also used as the sound source device according to the present invention, when a tone is designated by the voice mode flag (HVMODE), the plurality of WT voice parts function as a tone generating unit, and the voice mode flag (HVMODE) When a voice is specified in ()), the plurality of WT voice units function as a formant forming unit. Also, by fixing the voice mode flag (HVMODE) to voice, it can be used as a dedicated voice synthesizer.
[0049]
【The invention's effect】
As described above, the present invention forms a formant having a desired formant center frequency and a desired formant level by a plurality of formant forming sections, which are a plurality of waveform table voice sections, and synthesizes the formed formants. This synthesizes voice. Then, an envelope signal having a pitch cycle is added to waveform data forming a formant. As a result, the formant can be given a sense of pitch, and high-quality, realistic voice can be synthesized. Further, by giving an envelope signal of a pitch period to waveform data forming a voiced sound formant, the voiced sound formant can have a sense of pitch.
[0050]
Also, a plurality of musical tones can be generated by mixing waveform data output from a plurality of waveform table voice units based on musical tone parameters, and output from the plurality of waveform table voice units based on voice parameters. A voice can be synthesized by synthesizing waveform data forming a voiced sound formant or an unvoiced sound formant. As described above, since a plurality of waveform table voice sections can be used for both generation of musical sounds and voice synthesis, the voice synthesis apparatus of the present invention can also be used as a sound source apparatus.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a speech synthesizer that is also used as a sound source device according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a schematic configuration of a WT voice unit in the voice synthesizing device used also as the sound source device according to the embodiment of the present invention.
FIG. 3 is a block diagram showing a detailed configuration of a phase data generator in the voice synthesizing device used also as the sound source device according to the embodiment of the present invention.
FIG. 4 is a block diagram showing a detailed configuration of an address generator in the voice synthesizing device used also as the sound source device according to the embodiment of the present invention.
FIG. 5 is a graph showing an example of an ADG output of an address generator in the voice synthesizing device used also as the sound source device according to the embodiment of the present invention.
FIG. 6 is a graph showing another example of the ADG output of the address generator in the speech synthesizer used also as the sound source device according to the embodiment of the present invention.
FIG. 7 is a diagram showing a waveform of a voiced sound pitch signal of an address generator in a voice synthesizing device used also as a sound source device according to an embodiment of the present invention.
FIG. 8 is a graph showing still another example of the ADG output of the address generator in the speech synthesizer used also as the sound source device according to the embodiment of the present invention.
FIG. 9 is a block diagram showing a detailed configuration of an envelope generator in the speech synthesizer used also as the sound source device according to the embodiment of the present invention.
FIG. 10 is a graph showing an example of an EG output of an envelope generator in the voice synthesizing device used also as the sound source device according to the embodiment of the present invention.
FIG. 11 is a graph showing another example of the EG output of the envelope generator in the voice synthesizer used also as the sound source device according to the embodiment of the present invention.
FIG. 12 is a graph showing still another example of the EG output of the envelope generator in the voice synthesizing device used also as the sound source device according to the embodiment of the present invention.
FIG. 13 is a block diagram illustrating a detailed configuration of a noise generating unit in the voice synthesizing device used also as the sound source device according to the embodiment of the present invention.
FIG. 14 is a diagram showing waveform shapes of a plurality of types of waveform data for forming a voiced sound formant or an unvoiced sound formant stored in a waveform data storage unit in a speech synthesizer used also as a sound source apparatus according to an embodiment of the present invention. It is a figure showing an example.
[Explanation of symbols]
DESCRIPTION OF
Claims (2)
前記複数のフォルマント形成部のそれぞれが、
複数種類の波形形状の中から所望の波形形状を指定する波形形状指定手段と、
前記複数種類の波形形状に対応した複数の波形データを記憶する波形データ記憶手段と、
前記フォルマント中心周波数に対応したレートで変化するアドレスを発生して、前記波形形状指定手段で指定された波形形状に対応した波形データを前記波形データ記憶手段から読み出す波形データ読み出し手段と、
前記ピッチ周期に対応したタイミング毎に急速に減衰するとともに減衰後に急速に立ち上がる形状のエンベロープ信号を形成し、該形成したエンベロープ信号を前記波形データ読み出し手段により前記波形データ記憶手段から読み出された波形データに付与するエンベロープ付与手段と、
を備えることを特徴とする音声合成装置。A voice synthesizer that includes a plurality of formant forming units each forming a formant having a desired formant center frequency and a desired formant level, and synthesizes a voice by synthesizing a plurality of formants formed by the plurality of formant forming units. And
Each of the plurality of formant forming units,
Waveform shape designating means for designating a desired waveform shape from a plurality of types of waveform shapes;
Waveform data storage means for storing a plurality of waveform data corresponding to the plurality of types of waveform shapes,
A waveform data reading unit that generates an address that changes at a rate corresponding to the formant center frequency and reads waveform data corresponding to the waveform shape specified by the waveform shape specification unit from the waveform data storage unit;
A waveform read out from the waveform data storage means by the waveform data reading means by forming an envelope signal having a shape which rapidly attenuates at each timing corresponding to the pitch period and rises rapidly after the attenuation. An envelope assigning means for assigning to the data,
A speech synthesis device comprising:
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003021683A JP3915704B2 (en) | 2003-01-30 | 2003-01-30 | Speech synthesizer |
US10/765,379 US7424430B2 (en) | 2003-01-30 | 2004-01-26 | Tone generator of wave table type with voice synthesis capability |
EP04001856A EP1443493A1 (en) | 2003-01-30 | 2004-01-28 | Tone generator of wave table type with voice synthesis capability |
KR1020040005697A KR100602979B1 (en) | 2003-01-30 | 2004-01-29 | Voice source device and voice synthesis device |
TW093102192A TWI240914B (en) | 2003-01-30 | 2004-01-30 | Tone generator of wave table type with voice synthesis capability |
CNU2004200023397U CN2706830Y (en) | 2003-01-30 | 2004-01-30 | Sound source apparatus |
CNB2004100053293A CN100561574C (en) | 2003-01-30 | 2004-01-30 | The control method of sonic source device and sonic source device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003021683A JP3915704B2 (en) | 2003-01-30 | 2003-01-30 | Speech synthesizer |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004233624A true JP2004233624A (en) | 2004-08-19 |
JP3915704B2 JP3915704B2 (en) | 2007-05-16 |
Family
ID=32950953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003021683A Expired - Fee Related JP3915704B2 (en) | 2003-01-30 | 2003-01-30 | Speech synthesizer |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3915704B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010061569A1 (en) * | 2008-11-26 | 2010-06-03 | パナソニック株式会社 | Voice output device |
-
2003
- 2003-01-30 JP JP2003021683A patent/JP3915704B2/en not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010061569A1 (en) * | 2008-11-26 | 2010-06-03 | パナソニック株式会社 | Voice output device |
JP5541162B2 (en) * | 2008-11-26 | 2014-07-09 | パナソニック株式会社 | Audio output device |
US8798288B2 (en) | 2008-11-26 | 2014-08-05 | Panasonic Corporation | Voice output device |
Also Published As
Publication number | Publication date |
---|---|
JP3915704B2 (en) | 2007-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4067762B2 (en) | Singing synthesis device | |
JP2006215204A (en) | Voice synthesizer and program | |
US7424430B2 (en) | Tone generator of wave table type with voice synthesis capability | |
JP2564641B2 (en) | Speech synthesizer | |
JP4214842B2 (en) | Speech synthesis apparatus and speech synthesis method | |
JP4844623B2 (en) | CHORAL SYNTHESIS DEVICE, CHORAL SYNTHESIS METHOD, AND PROGRAM | |
JP4304934B2 (en) | CHORAL SYNTHESIS DEVICE, CHORAL SYNTHESIS METHOD, AND PROGRAM | |
JP3915704B2 (en) | Speech synthesizer | |
JP3307283B2 (en) | Singing sound synthesizer | |
JP3915703B2 (en) | Speech synthesizer | |
JP3797333B2 (en) | Sound source device having speech synthesis function | |
JP5092905B2 (en) | Singing synthesis apparatus and program | |
JP2004233621A (en) | Speech synthesizer | |
JP6011039B2 (en) | Speech synthesis apparatus and speech synthesis method | |
EP2634769B1 (en) | Sound synthesizing apparatus and sound synthesizing method | |
JP2001117578A (en) | Device and method for adding harmony sound | |
JPH11126080A (en) | Waveform data processing method | |
JPH08137470A (en) | Frequency characteristic controller for musical tone signal | |
JPH1031496A (en) | Musical sound generating device | |
JP2004061753A (en) | Method and device for synthesizing singing voice | |
JP5782751B2 (en) | Speech synthesizer | |
JP3414119B2 (en) | Music synthesizer | |
JP2004144814A (en) | Method and device for breath sound synthesis and program | |
JP2004287350A (en) | Voice conversion device, sound effect giving device, and program | |
JPH0364880B2 (en) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040521 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060711 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060919 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061024 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070129 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110216 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120216 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130216 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140216 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |