JP3883780B2 - 音声合成装置 - Google Patents

音声合成装置 Download PDF

Info

Publication number
JP3883780B2
JP3883780B2 JP2000130918A JP2000130918A JP3883780B2 JP 3883780 B2 JP3883780 B2 JP 3883780B2 JP 2000130918 A JP2000130918 A JP 2000130918A JP 2000130918 A JP2000130918 A JP 2000130918A JP 3883780 B2 JP3883780 B2 JP 3883780B2
Authority
JP
Japan
Prior art keywords
voice
data
speech
basic
storage unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000130918A
Other languages
English (en)
Other versions
JP2001312290A (ja
Inventor
達也 三次
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2000130918A priority Critical patent/JP3883780B2/ja
Publication of JP2001312290A publication Critical patent/JP2001312290A/ja
Application granted granted Critical
Publication of JP3883780B2 publication Critical patent/JP3883780B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、ナビゲーションシステム、またはパーソナルコンピュータなどの電子機器に用いられ、所望の人の音声により音声出力する音声合成装置に関するものである。
【0002】
【従来の技術】
図3は例えば特開昭63−212995号公報に示された従来の音声合成装置を示す機能ブロック図であり、図において、1は入力文字列の音韻記号系列、アクセント、およびイントネーションを解析する文字列解析部、2は単語辞書である。3は母音の特徴を表すターゲット特徴パラメータファイル4、および子音の特徴を表す時系列特徴パラメータファイル5からなる特徴パラメータファイル、6は音韻制御規則と韻律制御規則からなる規則ファイルである。7は特徴パラメータファイル3、および規則ファイル6を参照して、文字列解析部1から入力された音韻記号系列、アクセントおよびイントネーションによる音声合成に必要なパラメータを生成する規則制御部、8は規則制御部7から入力されたパラメータに基づいて音声合成を行い、入力文字列に応じた規則合成音声を出力する音声合成器である。
【0003】
次に動作について説明する。
図3において、文字列解析部1は、任意の入力文字列が入力されると、文字列全体の構文解釈を行い、文字列全体のイントネーションを決定する。また、単語辞書2を参照して、入力文字列に含まれる単語を検索し、文字列内の各単語のアクセント、および音韻記号系列を決定する。
規則制御部7は、母音の特徴を表すターゲット特徴パラメータファイル4、および子音の特徴を表す時系列特徴パラメータファイル5からなる特徴パラメータファイル3、音韻を結合させるための音韻制御規則、および韻律を制御するための韻律制御規則からなる規則ファイル6を参照して、文字列解析部1から入力された文字列全体のイントネーション、文字列の音韻記号系列、および文字列のアクセントに応じた、文字列の音韻特徴パラメータ、各音韻間のピッチ値、各音韻パワー、および継続時間長などの音声合成に必要なパラメータを生成する。
音声合成器8は、規則制御部7から入力された各パラメータに基づいて音声合成を行い、入力文字列に応じた規則合成音声を出力する。
以上説明した音声合成装置において、音韻の個人性を表すパラメータは、母音の特徴を表すターゲット特徴パラメータファイル4、および子音の特徴を表す時系列特徴パラメータファイル5からなる特徴パラメータファイル3に含まれている。
【0004】
【発明が解決しようとする課題】
従来の音声合成装置は以上のように構成されているので、音韻の個人性を表すパラメータが特徴パラメータファイル3に記憶されているが、これは音韻の結合を良好にするために利用されるものであり、従来の音声合成装置では、好みの人の音声の特徴に応じた合成音声を出力することができないなどの課題があった。
【0005】
この発明は上記のような課題を解決するためになされたもので、所望の人の音声を入力することで、その所望の人の音声の特徴に応じた合成音声を出力する音声合成装置を得ることを目的とする。
【0006】
【課題を解決するための手段】
この発明に係る音声合成装置は、所望の音声を入力する音声入力部と、音声入力部により入力された所望の音声の音声波形を音声データとして記憶する音声データ記憶部と、基本となる音声波形が基本音声データとして予め記憶された基本音声データ記憶部と、音声データ記憶部に記憶された音声データの音声波形と基本音声データ記憶部に記憶された基本音声データの音声波形との比較に基づいて入力された音声データの音声特徴データを分析するスペクトラム分析部と、基本音声データ記憶部に記憶された基本音声データを基本としてそれらの音素辺毎の音声波形が基本音素辺データとして予め記憶された基本音素辺データ記憶部と、基本音素辺データ記憶部に記憶された基本音素辺データを分析された音声特徴データに応じて波形整形して合成音素辺データを生成する合成音素辺データ生成部と、生成された合成音素辺データからテキストデータに応じた合成音素辺データを抽出して音声合成する音声合成部と、音声合成された音声データを出力する音声出力部とを備えたものである。
【0007】
この発明に係る音声合成装置は、スペクトラム分析部により分析された音声特徴データを記憶する音声特徴データ記憶部と、音声特徴データ記憶部に既に記憶された音声特徴データをスペクトラム分析部により新たに分析された音声特徴データに応じて学習して、その学習された音声特徴データをその音声特徴データ記憶部に記憶させる音声特徴データ学習部とを備えたものである。
【0008】
この発明に係る音声合成装置は、音声特徴データ記憶部に既に記憶された音声特徴データとスペクトラム分析部により新たに分析された音声特徴データとを照合して、一致が認められた場合に、既に記憶された音声特徴データを新たに分析された音声特徴データに応じて学習し、その学習した音声特徴データをその音声特徴データ記憶部に記憶させ、一致が認められない場合に、新たに分析された音声特徴データをそのままその音声特徴データ記憶部に記憶させる音声特徴データ学習部と、基本音声データ記憶部に記憶された基本音声データを基本としてそれらの音素辺毎の音声波形が基本音素辺データとして予め記憶された基本音素辺データ記憶部と、基本音素辺データ記憶部に記憶された基本音素辺データを音声特徴データ記憶部に記憶された複数の音声特徴データ毎にそれぞれ応じて波形整形して合成音素辺データを生成する合成音素辺データ生成部と、生成された複数の合成音素辺データを記憶する合成音素辺データ記憶部と、記憶された複数の合成音素辺データのうちのいずれかを選択する合成音素辺データ選択部と、選択された合成音素辺データからテキストデータに応じた合成音素辺データを抽出して音声合成する音声合成部とを備えたものである。
【0009】
この発明に係る音声合成装置は、音声合成部において、テキストデータに応じて合成音素辺データまたは基本音素辺データを抽出して音声合成するようにしたものである。
【0010】
【発明の実施の形態】
以下、この発明の実施の一形態を説明する。
実施の形態1.
図1はこの発明の実施の形態1による音声合成装置を示す機能ブロック図であり、図において、11は所望の音声を入力する音声入力部、12はその音声入力部11により入力された音声データを記憶する音声データ記憶部である。13は基本音声データを記憶した基本音声データ記憶部、14は基本音声データに基づいて音声データの音声特徴データを分析するスペクトラム分析部、15はスペクトラム分析部14により分析された音声特徴データを記憶する音声特徴データ記憶部である。
16は音声特徴データ記憶部15に既に記憶された音声特徴データとスペクトラム分析部14により新たに分析された音声特徴データとを照合して、一致が認められた場合に、既に記憶された音声特徴データを新たに分析された音声特徴データに応じて学習し、その学習した音声特徴データを音声特徴データ記憶部15に記憶させ、一致が認められない場合に、新たに分析された音声特徴データをそのまま音声特徴データ記憶部15に記憶させる音声特徴データ学習部である。
【0011】
17は基本音素辺データを記憶した基本音素辺データ記憶部、18はその基本音素辺データを音声特徴データ記憶部15に記憶された複数の音声特徴データ毎にそれぞれ応じて波形整形して合成音素辺データを生成する合成音素辺データ生成部、19はその合成音素辺データ生成部18により生成された複数の合成音素辺データを記憶する合成音素辺データ記憶部である。20は合成音素辺データ記憶部19に記憶された複数の合成音素辺データのうちのいずれかを選択する合成音素辺データ選択部、21は合成音素辺データ選択部20により選択された合成音素辺データまたは基本音素辺データ記憶部17に記憶された基本音素辺データからテキストデータ22に応じた合成音素辺データまたは基本音素辺データを抽出して音声合成する音声合成部、23は音声合成部21により音声合成された音声データを出力する音声出力部である。
【0012】
次に動作について説明する。
図1において、基本音声データ記憶部13には、基本となる音声波形が基本音声データとして予め記憶されている。この基本音声データとしては、例えば、アナウンサーの声などを基本として、その音声波形を記憶しても良い。
また、基本音素辺データ記憶部17には、基本となる音素辺毎の音声波形が基本音素辺データとして予め記憶されている。この基本音素辺データとしては、基本音声データ記憶部13に記憶された基本音声データがアナウンサーの声である場合には、そのアナウンサーの声を基本として、それら音素辺毎の音声波形を記憶する。ここで、音素辺とは、言葉を組み立てる上での音声単位であり、例えば、「今日は」という言葉であれば、「こ」、「ん」、「に」、「ち」、「は」のそれぞれの音声単位が音素辺である。基本音素辺データ記憶部17には、日常用いられる言葉に対応した様々な基本音素辺データが記憶されている。
【0013】
そして、この音声合成装置の利用者が、好みの人の音声の特徴に応じた合成音声を出力させたい場合には、音声入力部11から好みの人の音声を入力する。この音声入力部11は、マイクロホンなどによって構成されたものである。また、好みの人の音声は、通常の話し言葉、あるいは書物などを読んでもらって、その音声を入力するようにしても良い。音声データ記憶部12は、その音声入力部11により入力された音声データを記憶する。
スペクトラム分析部14は、基本音声データ記憶部13に記憶された基本音声データに基づいて、音声データ記憶部12に記憶された音声データの音声特徴データを分析する。
図2はスペクトラム分析部および音声特徴データ学習部の処理を示すフローチャートであり、スペクトラム分析部14では、音声データの音声波形から音声スペクトラムを生成して、基本音声データの音声波形から生成された基本音声スペクトラムとのピッチ分析(ST1)、および周波数分布分析(ST2)を行い、それら基本音声データを基準としたピッチ差分、および周波数分布差分を入力された音声データの音声特徴データとして出力する。
【0014】
音声特徴データ学習部16は、そのスペクトラム分析部14から入力されたピッチ差分、および周波数分布差分を音声特徴データ記憶部15に記憶する(ST4)。
ここで、音声特徴データ学習部16では、スペクトラム分析部14からのピッチ差分、および周波数分布差分の入力が今回が初回であったので、それらピッチ差分、および周波数分布差分をそのまま音声特徴データ記憶部15に記憶したが、音声特徴データ記憶部15に既にピッチ差分、および周波数分布差分が記憶されている場合には、スペクトラム分析部14から入力されたピッチ差分、および周波数分布差分と、音声特徴データ記憶部15に既に記憶されたピッチ差分、および周波数分布差分とを照合して、所定範囲内の類似度であれば一致と認める(ST3)。そして、その一致が認められた既に記憶されたピッチ差分、および周波数分布差分を音声特徴データ記憶部15から抽出して、その既に記憶されていたピッチ差分、および周波数分布差分と、スペクトラム分析部14から入力されたピッチ差分、および周波数分布差分とを平均演算する(ST5)。この平均演算は、次式により演算される。
Pa={Pr(n+1)+P}/(n+2)
Fa={Fr(n+1)+F}/(n+2)
但し、Pa:平均演算されたピッチ差分
Pr:音声特徴データ記憶部から抽出したピッチ差分
n :過去に平均演算された回数
P :スペクトラム分析部から新たに入力されたピッチ差分
Fa:平均演算された周波数分布差分
Fr:音声特徴データ記憶部から抽出した周波数分布差分
F :スペクトラム分析部から新たに入力された周波数分布差分
この平均演算されたピッチ差分Pa、および周波数分布差分Faと、過去に平均演算された回数nに1を加えた値を平均演算された回数として、音声特徴データ記憶部15に記憶させる(ST6)。
なお、ST3の照合により、類似度が所定範囲内でない場合は、一致していないと判断して、スペクトラム分析部14から入力されたピッチ差分、および周波数分布差分をそのまま音声特徴データ記憶部15に記憶させる(ST4)。
このようにして、音声特徴データ学習部16は、音声入力部11への好みの人の音声入力が初回の場合は、その入力された音声に応じた音声特徴データを音声特徴データ記憶部15に記憶させ、同一の好みの人の音声入力があった場合は、その入力された音声に応じて、音声特徴データ記憶部15に記憶された音声特徴データを学習させ、さらに、他の好みの人の音声入力があった場合は、その入力された音声に応じた音声特徴データを音声特徴データ記憶部15に別途記憶させる。よって、複数人の好みの人の音声入力に応じた音声特徴データを記憶できると共に、それぞれの音声特徴データは、該当する好みの人の音声入力の回数に応じて、より近似させることができる。
【0015】
合成音素辺データ生成部18は、基本音素辺データ記憶部17に記憶された基本音素辺データを音声特徴データ記憶部15に記憶された音声特徴データに応じて波形整形して合成音素辺データを生成する。上述したように、基本音素辺データ記憶部17には、基本となる音素辺毎の音声波形が基本音素辺データとして予め記憶されている。この様々な基本音素辺データを音声特徴データ記憶部15に記憶されたピッチ差分、および周波数分布差分に応じて波形整形して、好みの人の音声に近似する様々な合成音素辺データを生成する。そして、合成音素辺データ生成部18により生成された合成音素辺データは、合成音素辺データ記憶部19に記憶される。
なお、音声特徴データ記憶部15に、複数人の好みの人の音声入力に応じた複数の音声特徴データが記憶されている場合には、この合成音素辺データ記憶部19には、複数人分の合成音素辺データがそれぞれ記憶されることになる。
【0016】
合成音素辺データ選択部20は、合成音素辺データ記憶部19に記憶された複数の合成音素辺データのうちのいずれかを選択する。すなわち、複数人の好みの人のうち、利用者が聴きたい好みの人に応じた合成音素辺データを選択する。
音声合成部21は、合成音素辺データ選択部20により選択された合成音素辺データからテキストデータ22に応じた合成音素辺データを抽出して音声合成する。ここで、テキストデータ22とは、音声出力させたい言葉を文字列としたものであり、例えば、ナビゲーションシステムとして、この音声合成装置を利用する場合には、「100メートル先の○○交差点を右折します。」などを文字列として、予め記憶したものである。よって、この場合、音声合成部21では、その文字列を音素辺毎に分解して、分解した音素辺毎に該当する合成音素辺データをそれぞれ抽出して、それら抽出した合成音素辺データを合成する。
音声出力部23は、音声合成部21により音声合成された音声データを出力する。この音声出力部23は、スピーカーなどにより構成されるものであり、上述の例では、「100メートル先の○○交差点を右折します。」などを利用者が聴きたい好みの人の音声の特徴に応じた合成音声を出力する。
なお、音声合成部21は、音声合成の際に、合成音素辺データだけではテキストデータ22に応じた音声合成を満たすことができない場合には、基本音素辺データ記憶部17に記憶された基本音素辺データから抽出して、その抽出した基本音素辺データを利用することで、テキストデータ22に応じた音声合成を満たすようにしても良い。
【0017】
以上のように、この実施の形態1によれば、好みの人の音声を入力することで、好みの人の音声の特徴に応じた合成音声を出力することができる。
また、好みの人の音声入力の回数に応じて、より近似した好みの人の音声の特徴に応じた合成音声を出力することができる。
さらに、複数人の好みの人の音声から利用者が聴きたい好みの人を選択して、その選択した人の音声の特徴に応じた合成音声を出力することができる。
さらに、音声合成部21では、音声合成の際に基本音素辺データ記憶部17に記憶された基本音素辺データを合成音素辺データのバックアップとして用いることができ、より信頼性の高い合成音声を出力することができる。
【0018】
【発明の効果】
以上のように、この発明によれば、所望の音声を入力する音声入力部と、音声入力部により入力された所望の音声の音声波形を音声データとして記憶する音声データ記憶部と、基本となる音声波形が基本音声データとして予め記憶された基本音声データ記憶部と、音声データ記憶部に記憶された音声データの音声波形と基本音声データ記憶部に記憶された基本音声データの音声波形との比較に基づいて入力された音声データの音声特徴データを分析するスペクトラム分析部と、基本音声データ記憶部に記憶された基本音声データを基本としてそれらの音素辺毎の音声波形が基本音素辺データとして予め記憶された基本音素辺データ記憶部と、基本音素辺データ記憶部に記憶された基本音素辺データを分析された音声特徴データに応じて波形整形して合成音素辺データを生成する合成音素辺データ生成部と、生成された合成音素辺データからテキストデータに応じた合成音素辺データを抽出して音声合成する音声合成部と、音声合成された音声データを出力する音声出力部とを備えるように構成したので、所望の音声の入力により、テキストデータに応じた所望の音声の特徴に応じた合成音声を出力することができる効果が得られる。
【0019】
また、この発明によれば、スペクトラム分析部により分析された音声特徴データを記憶する音声特徴データ記憶部と、音声特徴データ記憶部に既に記憶された音声特徴データをスペクトラム分析部により新たに分析された音声特徴データに応じて学習して、その学習された音声特徴データをその音声特徴データ記憶部に記憶させる音声特徴データ学習部とを備えるように構成したので、音声特徴データ学習部により、所望の音声の入力回数に応じて、より近似した所望の音声の特徴に応じた合成音声を出力することができる効果が得られる。
【0020】
さらに、この発明によれば、音声特徴データ記憶部に既に記憶された音声特徴データとスペクトラム分析部により新たに分析された音声特徴データとを照合して、一致が認められた場合に、既に記憶された音声特徴データを新たに分析された音声特徴データに応じて学習し、その学習した音声特徴データをその音声特徴データ記憶部に記憶させ、一致が認められない場合に、新たに分析された音声特徴データをそのままその音声特徴データ記憶部に記憶させる音声特徴データ学習部と、基本音声データ記憶部に記憶された基本音声データを基本としてそれらの音素辺毎の音声波形が基本音素辺データとして予め記憶された基本音素辺データ記憶部と、基本音素辺データ記憶部に記憶された基本音素辺データを音声特徴データ記憶部に記憶された複数の音声特徴データ毎にそれぞれ応じて波形整形して合成音素辺データを生成する合成音素辺データ生成部と、生成された複数の合成音素辺データを記憶する合成音素辺データ記憶部と、記憶された複数の合成音素辺データのうちのいずれかを選択する合成音素辺データ選択部と、選択された合成音素辺データからテキストデータに応じた合成音素辺データを抽出して音声合成する音声合成部とを備えるように構成したので、音声特徴データ学習部により、所望の音声の入力回数に応じて、より近似した所望の音声の特徴に応じた合成音声を出力することができる。また、複数人の所望の音声から利用者が聴きたい所望の音声を選択して、その選択した音声の特徴に応じた合成音声を出力することができる効果が得られる。
【0021】
さらに、この発明によれば、音声合成部において、テキストデータに応じて合成音素辺データまたは基本音素辺データを抽出して音声合成するように構成したので、音声合成部では、音声合成の際に基本音素辺データを合成音素辺データのバックアップとして用いることができ、より信頼性の高い合成音声を出力することができる効果が得られる。
【図面の簡単な説明】
【図1】 この発明の実施の形態1による音声合成装置を示す機能ブロック図である。
【図2】 スペクトラム分析部および音声特徴データ学習部の処理を示すフローチャートである。
【図3】 従来の音声合成装置を示す機能ブロック図である。
【符号の説明】
11 音声入力部、12 音声データ記憶部、13 基本音声データ記憶部、14 スペクトラム分析部、15 音声特徴データ記憶部、16 音声特徴データ学習部、17 基本音素辺データ記憶部、18 合成音素辺データ生成部、19 合成音素辺データ記憶部、20 合成音素辺データ選択部、21 音声合成部、22 テキストデータ、23 音声出力部。

Claims (4)

  1. 所望の音声を入力する音声入力部と、上記音声入力部により入力された所望の音声の音声波形を音声データとして記憶する音声データ記憶部と、基本となる音声波形が基本音声データとして予め記憶された基本音声データ記憶部と、上記音声データ記憶部に記憶された音声データの音声波形と上記基本音声データ記憶部に記憶された基本音声データの音声波形との比較に基づいて上記音声入力部により入力された音声データの音声特徴データを分析するスペクトラム分析部と、上記基本音声データ記憶部に記憶された基本音声データを基本としてそれらの音素辺毎の音声波形が基本音素辺データとして予め記憶された基本音素辺データ記憶部と、上記基本音素辺データ記憶部に記憶された基本音素辺データを上記スペクトラム分析部により分析された音声特徴データに応じて波形整形して合成音素辺データを生成する合成音素辺データ生成部と、上記合成音素辺データ生成部により生成された合成音素辺データからテキストデータに応じた合成音素辺データを抽出して音声合成する音声合成部と、上記音声合成部により音声合成された音声データを出力する音声出力部とを備えた音声合成装置。
  2. 所望の音声を入力する音声入力部と、上記音声入力部により入力された所望の音声の音声波形を音声データとして記憶する音声データ記憶部と、基本となる音声波形が基本音声データとして予め記憶された基本音声データ記憶部と、上記音声データ記憶部に記憶された音声データの音声波形と上記基本音声データ記憶部に記憶された基本音声データの音声波形との比較に基づいて上記音声入力部により入力された音声データの音声特徴データを分析するスペクトラム分析部と、上記スペクトラム分析部により分析された音声特徴データを記憶する音声特徴データ記憶部と、上記音声特徴データ記憶部に既に記憶された音声特徴データを上記スペクトラム分析部により新たに分析された音声特徴データに応じて学習して、その学習された音声特徴データをその音声特徴データ記憶部に記憶させる音声特徴データ学習部と、上記基本音声データ記憶部に記憶された基本音声データを基本としてそれらの音素辺毎の音声波形が基本音素辺データとして予め記憶された基本音素辺データ記憶部と、上記基本音素辺データ記憶部に記憶された基本音素辺データを上記音声特徴データ記憶部に記憶された音声特徴データに応じて波形整形して合成音素辺データを生成する合成音素辺データ生成部と、上記合成音素辺データ生成部により生成された合成音素辺データからテキストデータに応じた合成音素辺データを抽出して音声合成する音声合成部と、上記音声合成部により音声合成された音声データを出力する音声出力部とを備えた音声合成装置。
  3. 所望の音声を入力する音声入力部と、上記音声入力部により入力された所望の音声の音声波形を音声データとして記憶する音声データ記憶部と、基本となる音声波形が基本音声データとして予め記憶された基本音声データ記憶部と、上記音声データ記憶部に記憶された音声データの音声波形と上記基本音声データ記憶部に記憶された基本音声データの音声波形との比較に基づいて上記音声入力部により入力された音声データの音声特徴データを分析するスペクトラム分析部と、上記スペクトラム分析部により分析された音声特徴データを記憶する音声特徴データ記憶部と、上記音声特徴データ記憶部に既に記憶された音声特徴データと上記スペクトラム分析部により新たに分析された音声特徴データとを照合して、一致が認められた場合に、既に記憶された音声特徴データを新たに分析された音声特徴データに応じて学習し、その学習した音声特徴データをその音声特徴データ記憶部に記憶させ、一致が認められない場合に、新たに分析された音声特徴データをそのままその音声特徴データ記憶部に記憶させる音声特徴データ学習部と、上記基本音声データ記憶部に記憶された基本音声データを基本としてそれらの音素辺毎の音声波形が基本音素辺データとして予め記憶された基本音素辺データ記憶部と、上記基本音素辺データ記憶部に記憶された基本音素辺データを上記音声特徴データ記憶部に記憶された複数の音声特徴データ毎にそれぞれ応じて波形整形して合成音素辺データを生成する合成音素辺データ生成部と、上記合成音素辺データ生成部により生成された複数の合成音素辺データを記憶する合成音素辺データ記憶部と、上記合成音素辺データ記憶部に記憶された複数の合成音素辺データのうちのいずれかを選択する合成音素辺データ選択部と、上記合成音素辺データ選択部により選択された合成音素辺データからテキストデータに応じた合成音素辺データを抽出して音声合成する音声合成部と、上記音声合成部により音声合成された音声データを出力する音声出力部とを備えた音声合成装置。
  4. 音声合成部は、テキストデータに応じて合成音素辺データまたは基本音素辺データを抽出して音声合成することを特徴とする請求項1から請求項3のうちのいずれか1項記載の音声合成装置。
JP2000130918A 2000-04-28 2000-04-28 音声合成装置 Expired - Fee Related JP3883780B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000130918A JP3883780B2 (ja) 2000-04-28 2000-04-28 音声合成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000130918A JP3883780B2 (ja) 2000-04-28 2000-04-28 音声合成装置

Publications (2)

Publication Number Publication Date
JP2001312290A JP2001312290A (ja) 2001-11-09
JP3883780B2 true JP3883780B2 (ja) 2007-02-21

Family

ID=18639913

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000130918A Expired - Fee Related JP3883780B2 (ja) 2000-04-28 2000-04-28 音声合成装置

Country Status (1)

Country Link
JP (1) JP3883780B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006030609A (ja) * 2004-07-16 2006-02-02 Yamaha Corp 音声合成データ生成装置、音声合成装置、音声合成データ生成プログラム及び音声合成プログラム
JP2015158573A (ja) * 2014-02-24 2015-09-03 株式会社デンソーアイティーラボラトリ 車両用音声応答システム、及び音声応答プログラム

Also Published As

Publication number Publication date
JP2001312290A (ja) 2001-11-09

Similar Documents

Publication Publication Date Title
US7979274B2 (en) Method and system for preventing speech comprehension by interactive voice response systems
US6470316B1 (en) Speech synthesis apparatus having prosody generator with user-set speech-rate- or adjusted phoneme-duration-dependent selective vowel devoicing
US20050119890A1 (en) Speech synthesis apparatus and speech synthesis method
JP2008545995A (ja) ハイブリッド音声合成装置、方法および用途
JPH10116089A (ja) 音声合成用の基本周波数テンプレートを収容する韻律データベース
JP2000163088A (ja) 音声合成方法および装置
US9552806B2 (en) Sound synthesizing apparatus
JPH1138989A (ja) 音声合成装置及び方法
JP2006227589A (ja) 音声合成装置および音声合成方法
JPH0887296A (ja) 音声合成装置
JP2001034280A (ja) 電子メール受信装置および電子メールシステム
JPH05113795A (ja) 音声合成装置
JP3883780B2 (ja) 音声合成装置
JPH0887297A (ja) 音声合成システム
Petrushin et al. Whispered speech prosody modeling for TTS synthesis
JPH08335096A (ja) テキスト音声合成装置
JP3437064B2 (ja) 音声合成装置
JPH05100692A (ja) 音声合成装置
JPH05224689A (ja) 音声合成装置
JP2642617B2 (ja) 音声合成装置
JP4260071B2 (ja) 音声合成方法、音声合成プログラム及び音声合成装置
JP3575919B2 (ja) テキスト音声変換装置
JPH05224688A (ja) テキスト音声合成装置
JP3522005B2 (ja) 音声合成装置
KR20040015605A (ko) 가상노래 합성장치 및 방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060407

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060906

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061115

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091124

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101124

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111124

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees