JP2010066422A - 音声合成装置、音声合成方法、及びプログラム - Google Patents

音声合成装置、音声合成方法、及びプログラム Download PDF

Info

Publication number
JP2010066422A
JP2010066422A JP2008231612A JP2008231612A JP2010066422A JP 2010066422 A JP2010066422 A JP 2010066422A JP 2008231612 A JP2008231612 A JP 2008231612A JP 2008231612 A JP2008231612 A JP 2008231612A JP 2010066422 A JP2010066422 A JP 2010066422A
Authority
JP
Japan
Prior art keywords
information
phoneme
speech
prosody
speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008231612A
Other languages
English (en)
Other versions
JP5164041B2 (ja
Inventor
Minoru Tsuzaki
実 津崎
Shinsuke Sakai
信輔 坂井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2008231612A priority Critical patent/JP5164041B2/ja
Publication of JP2010066422A publication Critical patent/JP2010066422A/ja
Application granted granted Critical
Publication of JP5164041B2 publication Critical patent/JP5164041B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Machine Translation (AREA)

Abstract

【課題】部分的に発話速度を変更することができる音声合成装置を提供する。
【解決手段】コーパスベースの音声合成装置1であって、テキスト情報と当該テキスト情報の一部に対する速度に関する情報である速度情報とが記憶されるテキスト情報記憶部11と、前記テキスト情報に対応する音素列と、当該音素列の各音素の持続時間に関する情報である持続時間情報を少なくとも含む情報である韻律情報とが記憶される韻律情報記憶部13と、前記速度情報に応じて前記韻律情報を変更する韻律情報変更部14と、前記音素列と、韻律情報変更部14による変更後の韻律情報とを用いて音声信号を生成する音声信号生成部15と、音声信号生成部15が生成した音声信号を出力する音声信号出力部16とを備える。
【選択図】図1

Description

本発明は、コーパスベースの音声合成装置等に関する。
従来の音声合成装置において、発話速度を変換する技術が確立されてきている(例えば、特許文献1参照)。したがって、状況の切迫度などに応じて、発話速度の速い音声を出力することもできる。
特開2007−279975号公報
しかしながら、従来の音声合成装置においては、音声の全体について一様に発話速度を変更することしかできなかった。その結果、例えば、発話速度を速くしてしまうことによって、人名や地名、数詞、キーワードなどの正確に聞き取る必要のある部分の聞き取りが阻害されてしまうことがあった。これは人間の聴覚的な特性上避けられないことである。したがって、基本的には発話速度増加の要請と明瞭度の維持は一様な発話速度変換によっては両立し得ない。
一般的に言えば、従来の音声合成装置では、部分的に発話速度を変更することができず、そのため、聞き手にとって聞きやすい発話速度となる音声を出力することが困難であった。
本発明は、上記問題点を解決するためになされたものであり、部分的に発話速度を変更することが可能な音声合成装置等を提供することを目的とする。
上記目的を達成するため、本発明による音声合成装置は、コーパスベースの音声合成装置であって、テキスト情報と、当該テキスト情報の一部に対する速度に関する情報である速度情報とが記憶されるテキスト情報記憶部と、前記テキスト情報に対応する音素列と、当該音素列の各音素の持続時間に関する情報である持続時間情報を少なくとも含む情報である韻律情報とが記憶される韻律情報記憶部と、前記速度情報に応じて前記韻律情報を変更する韻律情報変更部と、前記音素列と、前記韻律情報変更部による変更後の韻律情報とを用いて音声信号を生成する音声信号生成部と、前記音声信号生成部が生成した音声信号を出力する音声信号出力部と、を備えたものである。
このような構成により、速度情報を設定することによって、テキスト情報の一部の速度を他の部分に比べて速くしたり、遅くしたりすることができる。その結果、例えば、テキスト情報の重要な部分は遅いスピードで読み上げられ、重要でない部分は速いスピードで読み上げられるように設定することも可能となる。
また、本発明による音声合成装置では、前記音声信号生成部は、素片接続合成法により音声信号を生成してもよく、HMM合成法により音声信号を生成してもよい。
このような構成により、素片接続合成法やHMM合成法での音声合成を行うことができる。
また、本発明による音声合成装置では、前記テキスト情報から音素列、及び当該音素列に対応する韻律情報を生成し、前記韻律情報記憶部に蓄積する音素列・韻律情報生成部をさらに備えてもよい。
このような構成により、テキスト情報からの音素列、韻律情報の生成、速度情報に応じた韻律情報の変更、音素列、韻律情報を用いた音声信号の生成の一連の処理を音声合成装置において行うことができるようになる。
また、本発明による音声合成装置では、前記韻律情報は、前記音素列の各音素の基本周波数情報を含んでもよく、前記音素列の各音素のパワースペクトル情報を含んでもよい。
このような構成により、基本周波数情報や、パワースペクトル情報を含む韻律情報を用いて、音声合成を行うことができる。
本発明による音声合成装置等によれば、部分的に発話速度を変更することができ、その結果、例えば、聞き手にとって聞きやすい発話速度の音声信号を出力することが可能となりうる。
以下、本発明による音声合成装置について、実施の形態を用いて説明する。なお、以下の実施の形態において、同じ符号を付した構成要素及びステップは同一または相当するものであり、再度の説明を省略することがある。
(実施の形態1)
本発明の実施の形態1による音声合成装置について、図面を参照しながら説明する。本実施の形態による音声合成装置は、部分的に発話速度を変更することができるものである。
図1は、本実施の形態による音声合成装置1の構成を示すブロック図である。本実施の形態による音声合成装置1は、テキスト情報記憶部11と、音素列・韻律情報生成部12と、韻律情報記憶部13と、韻律情報変更部14と、音声信号生成部15と、音声信号出力部16とを備える。
テキスト情報記憶部11では、テキスト情報と、そのテキスト情報の一部に対する速度に関する情報である速度情報とが記憶される。このテキスト情報は、本実施の形態による音声合成装置1での音声合成の対象となるテキスト情報である。また、速度情報は、速度に関する情報であれば、例えば、「速い」「遅い」等の情報であってもよく、「2倍」「0.5倍」等の情報であってもよく、あるテキストの読み上げ時間を示す情報(例えば、「10時30分」を5秒で読み上げる旨の情報)であってもよく、キーワードの読み上げスピードを他のキーワードでないテキストよりも遅くするというルールがある場合には、どのテキストがキーワードであるのかを示す情報であってもよい。また、速度情報は、テキスト情報全体に対する速度に関する情報を含んでいてもよい。速度情報は、テキスト情報のどの部分に対する速度に関する情報であるのかが明らかになるように記述されることが好適である。速度情報は、例えば、XML等のマークアップ言語を用いて記述されてもよく、あるいは、その他の方法によって記述されてもよい。
テキスト情報記憶部11にテキスト情報や速度情報が記憶される過程は問わない。例えば、記録媒体を介してテキスト情報や速度情報がテキスト情報記憶部11で記憶されるようになってもよく、通信回線等を介して送信されたテキスト情報や速度情報がテキスト情報記憶部11で記憶されるようになってもよく、あるいは、入力デバイスを介して入力されたテキスト情報や速度情報がテキスト情報記憶部11で記憶されるようになってもよい。テキスト情報記憶部11での記憶は、RAM等における一時的な記憶でもよく、あるいは、長期的な記憶でもよい。テキスト情報記憶部11は、所定の記録媒体(例えば、半導体メモリや磁気ディスク、光ディスクなど)によって実現されうる。
音素列・韻律情報生成部12は、テキスト情報記憶部11で記憶されているテキスト情報から音素列、及びその音素列に対応する韻律情報を生成し、韻律情報記憶部13に蓄積する。音素列・韻律情報生成部12は、例えば、テキスト情報に対して形態素解析や漢字カナ変換、アクセント処理等を行い、さらに、それらを元にして韻律情報を生成する。韻律情報は、テキスト情報に対応する音素列の各音素の持続時間に関する情報である持続時間情報を少なくもと含んでいる。持続時間情報は、結果として各音素の持続時間が分かるのであれば、どのような情報であってもよい。持続時間情報は、例えば、持続時間そのものを示す情報であってもよく、各音素の開始時刻を示すものであってもよく(この場合には、ある音素の開始時刻と、その音素に後続する次の音素の開始時刻とを用いることによって持続時間を算出することができる)、あるいは、各音素の開始時刻と終了時刻とを示すものであってもよい(この場合には、ある音素の開始時刻と終了時刻とを用いることによって持続時間を算出することができる)。また、韻律情報には、音素列の各音素の基本周波数情報が含まれてもよく、音素列の各音素のパワースペクトル情報が含まれてもよい。パワースペクトル情報は、例えば、音韻性を示す情報である25次元のケプストラム情報であってもよい。ケプストラム情報は、メルケプストラム情報であってもよい。韻律情報に含まれる全部の情報、あるいは、一部の情報は、フレーム単位の情報であってもよい。例えば、韻律情報に含まれる基本周波数情報と、パワースペクトル情報は、5msごとのフレーム単位の情報であってもよい。この場合であっても、先頭からのフレーム数をカウントすることによって、各フレームがどの音素に対応しているのかを知ることができうる。音素列・韻律情報生成部12は、韻律モデルを用いて音素列や、韻律情報を生成してもよい。その韻律モデルを学習するために用いられる音声コーパスは、例えば、後述する音声信号生成部15が素片接続合成法により音声信号を生成する際に用いる音声コーパスや、音声信号生成部15がHMM(Hidden Markov Model,隠れマルコフモデル)合成法により音声信号を生成する際に用いるモデルの学習で用いられた音声コーパスと同じものであってもよく、あるいは、異なっていてもよい。なお、テキスト情報から音素列と、韻律情報とを生成する方法はすでに公知であり、その詳細な説明を省略する。
韻律情報記憶部13では、音素列・韻律情報生成部12が生成した、テキスト情報に対応する音素列と、その音素列の各音素に対応する韻律情報とが記憶される。韻律情報記憶部13での記憶は、RAM等における一時的な記憶でもよく、あるいは、長期的な記憶でもよい。韻律情報記憶部13は、所定の記録媒体(例えば、半導体メモリや磁気ディスク、光ディスクなど)によって実現されうる。
韻律情報変更部14は、テキスト情報記憶部11で記憶されている速度情報に応じて、韻律情報記憶部13で記憶されている韻律情報を変更する。この変更によって、速度情報で示される速度となるように韻律情報が変更されることになる。なお、例えば、テキスト情報記憶部11に記憶されているテキスト情報及び速度情報が、XML等のタグ付きテキストで記述されている場合には、韻律情報変更部14は、タグ解釈を行い、速度を変更しない部分と、速度を変更する部分とを特定し、また、速度を変更する箇所についてはどれぐらい速度を変更するのかを特定してもよい。韻律情報に含まれる持続時間情報が、各音素の開始時刻を示す場合であって、速度情報によって一部のテキストに対応する速度を速くすることが示される場合には、韻律情報変更部14は、その一部のテキストの読み上げ速度が速くなるように、その一部のテキストに対応する各音素の開始時刻を変更する処理を行う。なお、その開始時刻の変更に伴って、速度が変更されない音素の開始時刻がずらされることもある。
また、韻律情報に含まれる基本周波数情報等がフレーム単位の情報である場合には、各フレームの基本周波数情報等について補間処理を行い、その補間後の波形における速度の変更対象となる区間について速度の変更に応じた伸縮を行った後に、元のフレームレートで再サンプリングを行うことによって、速度情報に応じた変更を行うことができる。この処理は、速度の変更対象となる区間についてのみ行ってもよく、あるいは、全体について行ってもよい。後者の場合には、速度の変更対象となる区間と、そうでない区間との間で生じうる誤差をなくすことができうる。なお、結果として同様のことを行うのであれば、異なる方法によって行ってもよい。例えば、補間処理を行った後に、速度の変更対象となる区間については、変更後の速度に合わせて変更したレートでサンプリングを行うようにしてもよい。なお、このようなサンプリングレートを変換する処理は、例えば、MATLAB(登録商標)などのソフトウェアを用いて容易に行うことができる。
また、音素列には、ポーズが含まれており、韻律情報にポーズに対応する持続時間情報も含まれている場合に、韻律情報変更部14は、ポーズに対応する持続時間情報を変更してもよく、しなくてもよい。後者の場合には、ポーズの持続時間については、あらかじめ音素列・韻律情報生成部12が生成した長さのままにすることができる。
音声信号生成部15は、音素列と、韻律情報変更部14による変更後の韻律情報とを用いて音声信号を生成する。なお、音声信号生成部15は、コーパスベースの音声合成を行うものである。音声信号生成部15は、素片接続合成法により音声信号を生成してもよく、あるいは、HMM合成法により音声信号を生成してもよい。なお、素片接続合成法による音声合成では、音声コーパスから抽出された音声素片であって、韻律情報に適合した音声素片をつなげることによって音声合成が行われる。音声合成の方法が素片接続合成法である場合には、韻律情報に含まれる持続時間情報がマークファイルと呼ばれ、基本周波数情報がF0ファイルと呼ばれ、パワースペクトル情報がケプストラムファイルと呼ばれることがある。また、HMM合成法による音声合成では、音声コーパスからモデルが学習され、その学習されたモデルを用いて音声合成が行われる。音声合成の方法がHMM合成法である場合には、韻律情報に含まれる持続時間情報がフルコンテキストラベルファイルと呼ばれることがある。なお、音素列と韻律情報を用いて音声合成を行う方法はすでに公知であり、その詳細な説明を省略する。例えば、素片接続合成法を用いた音声合成システムとしては、ATRが開発したXIMERAが知られている。また、HMM合成法を用いた音声合成システムとしては、HTS(http://hts.sp.nitech.ac.jp/)が知られている。
音声信号出力部16は、音声信号生成部15が生成した音声信号を出力する。ここで、この出力は、例えば、所定の機器への通信回線を介した送信でもよく、スピーカによる音声出力でもよく、記録媒体への蓄積でもよく、他の構成要素への引き渡しでもよい。なお、音声信号出力部16は、出力を行うデバイス(例えば、通信デバイスやスピーカなど)を含んでもよく、あるいは含まなくてもよい。また、音声信号出力部16は、ハードウェアによって実現されてもよく、あるいは、それらのデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。
なお、テキスト情報記憶部11と、韻律情報記憶部13とは、同一の記録媒体によって実現されてもよく、あるいは、別々の記録媒体によって実現されてもよい。前者の場合には、テキスト情報等を記憶している領域がテキスト情報記憶部11となり、韻律情報等を記憶している領域が韻律情報記憶部13となる。
また、テキスト情報記憶部11において、テキスト情報と、速度情報とは、同一の記録媒体に記憶されてもよく、あるいは、別々の記録媒体に記憶されてもよい。また、韻律情報記憶部13において、音素列と、韻律情報とは、同一の記録媒体に記憶されてもよく、あるいは、別々の記録媒体に記憶されてもよい。
次に、本実施の形態による音声合成装置1の動作について、図2のフローチャートを用いて説明する。
(ステップS101)音素列・韻律情報生成部12は、音声合成の一連の処理を開始するかどうか判断する。そして、音声合成の一連の処理を開始する場合には、ステップS102に進み、そうでない場合には、処理を開始すると判断するまでステップS101の処理を繰り返して実行する。音素列・韻律情報生成部12は、例えば、音声合成の一連の処理を開始する旨の指示を受け付けた場合に、その処理を開始すると判断してもよく、あるいは、テキスト情報記憶部11に新たなテキスト情報と速度情報とが蓄積されたタイミングで、音声合成の一連の処理を開始すると判断してもよく、その他のタイミングで、音声合成の一連の処理を開始すると判断してもよい。
(ステップS102)音素列・韻律情報生成部12は、テキスト情報記憶部11で記憶されているテキスト情報を読み出し、そのテキスト情報に対して形態素解析等を行うことによって音素列を生成し、また、その音素列の各音素に対応する韻律情報を生成する。そして、音素列・韻律情報生成部12は、生成した音素列と、韻律情報とを韻律情報記憶部13に蓄積する。
(ステップS103)韻律情報変更部14は、テキスト情報記憶部11で記憶されている速度情報を用いて、韻律情報記憶部13で記憶されている韻律情報を変更する。この処理によって、韻律情報で示される各音素の長さが、速度情報に対応したものとなる。この処理の詳細については図3のフローチャートを用いて後述する。
(ステップS104)音声信号生成部15は、韻律情報記憶部13で記憶されている音素列と韻律情報とを用いて音声信号を生成する。
(ステップS105)音声信号出力部16は、音声信号生成部15が生成した音声信号を出力する。そして、ステップS101に戻る。
なお、図2のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。
図3は、図2のフローチャートにおける韻律情報の変更(ステップS103)の処理の詳細を示すフローチャートである。
(ステップS201)韻律情報変更部14は、テキスト情報記憶部11で記憶されている速度情報を参照し、韻律情報記憶部13で記憶されている音素列のうち、速度を変更する音素を特定する。韻律情報変更部14は、例えば、速度情報を用いて速度を変更する対象となるテキストの部分を特定し、そのテキストの部分に対応する音素列の部分を特定することによって、速度を変更する音素の特定を行ってもよい。また、音素を特定するとは、例えば、特定対象となる音素にフラグを設定することであってもよく、特定対象となる音素を識別する情報を記録媒体に蓄積することであってもよい。ここで、例えば、テキスト情報記憶部11に記憶されているテキスト情報及び速度情報が、XML等のタグ付きテキストで記述されている場合には、韻律情報変更部14は、タグ解釈を行うことによって、速度を変更する対象となるテキストの部分を特定してもよい。
(ステップS202)韻律情報変更部14は、カウンタiを1に設定する。
(ステップS203)韻律情報変更部14は、i番目の音素が、速度を変更する音素であるかどうか判断する。すなわち、韻律情報変更部14は、i番目の音素がステップS201で特定された音素であるかどうか判断する。そして、速度を変更する音素である場合、すなわち、ステップS201で特定された音素である場合には、ステップS204に進み、そうでない場合には、ステップS205に進む。
(ステップS204)韻律情報変更部14は、i番目の音素に対応する韻律情報を、その音素の速度が速度情報に対応するものとなるように変更する。例えば、韻律情報に含まれる持続時間情報が持続時間そのものを示す場合には、韻律情報変更部14は、i番目の音素に対応する持続時間情報を変更する。速度情報によって速度をA倍にすることが示されている場合には、韻律情報変更部14は、その持続時間情報を1/A倍にする。また、例えば、韻律情報に含まれる持続時間情報が開始時刻を示す場合には、韻律情報変更部14は、(i+1)番目の音素に対応する持続時間情報(開始時刻)を変更する。速度情報によって速度をA倍にすることが示されている場合には、韻律情報変更部14は、i番目の音素の開始時刻と、(i+1)番目の音素の開始時刻との差が1/A倍となるように、(i+1)番目の音素の開始時刻を変更する。なお、この場合には、(i+1)番目の開始時刻の変更に伴って、後続する(i+2)番目以降の音素の開始時刻もずれることになる(これらは単なる平行移動である)。したがって、韻律情報変更部14は、後続する(i+2)番目以降の音素の開始時刻も、順次変更する。持続時間情報に終了時刻が含まれる場合にも、同様にして終了時刻の変更を行うことができる。また、速度情報が読み上げ時間を示す情報である場合には、韻律情報変更部14は、例えば、韻律情報に含まれる持続時間情報を用いて、速度の変更対象となるテキストの領域の読み上げ時間を算出し、その算出した読み上げ時間が速度情報の示す読み上げ時間となるために、持続時間を何倍にしなければならないかを算出し、その算出した倍率を用いて、上述のようにして韻律情報を変更する処理を行ってもよい。
(ステップS205)韻律情報変更部14は、カウンタiを1だけインクリメントする。
(ステップS206)韻律情報変更部14は、韻律情報記憶部13でi番目の音素が記憶されているかどうか判断する。そして、記憶されている場合には、ステップS203に戻り、そうでない場合には、図2のフローチャートに戻る。
なお、図3のフローチャートでは、持続時間情報の変更についてのみ説明したが、前述のように、韻律情報に所定のフレームレートでサンプリングされた基本周波数情報等が含まれる場合には、それらの情報についても順次変更する必要がある。したがって、図4を用いて、その方法について簡単に説明する。
図4は、所定のフレームレートでサンプリングされた情報(以下の説明では、「変更対象情報」とする。変更対象情報は、例えば、基本周波数情報やパワースペクトル情報である)に対する速度情報に応じた変更処理を示すフローチャートである。
(ステップS301)韻律情報変更部14は、テキスト情報記憶部11で記憶されている速度情報を参照し、韻律情報記憶部13で記憶されている変更対象情報のうち、速度を変更するフレームを特定する。韻律情報変更部14は、例えば、ステップS201と同様にして速度を変更する音素を特定し、その音素に対応するフレームを特定することによって、変更対象となるフレームを特定してもよい。
(ステップS302)韻律情報変更部14は、変更対象情報の補間を行う。この補間については、線形補間やスプライン補間など各種の方法が知られており、それらの各種の補間方法を用いることができうる。
(ステップS303)韻律情報変更部14は、ステップS301で特定したフレームに対応する補間後の変更対象情報の領域を、速度情報に応じて伸縮する。その結果、変更対象情報の長さが、速度情報に対応したものとなる。
(ステップS304)韻律情報変更部14は、伸縮後の変更対象情報をあらかじめ決められているフレームレートで再サンプリングする。そして、この再サンプリング後の情報を、変更後の変更対象情報とする。
なお、変更対象情報のうち、全体の先頭のフレームと、速度を変更する対象となる先頭のフレームとの間は、ステップS302〜S304の処理を行っても変更されないため、それらのフレームについては、ステップS302〜S304の処理を行わなくてもよい。
また、前述のように、ステップS303,S304の処理は、速度を変更するフレームについてのみ変更後の速度に対応したフレームレートで再サンプリングする処理と同じになる。したがって、ステップS303,S304の処理に代えて、そのような処理を行うようにしてもよい。このように、結果としてステップS302〜S304と同様の処理、すなわち、フレームレートを変更する処理を行うことができるのであれば、ステップS302〜S304の処理に代えて、その処理を行うようにしてもよい。
韻律情報に所定のフレームレートでサンプリングされた基本周波数情報等が含まれる場合には、韻律情報変更部14は、図3で示される一連の処理と共に、図4で示される一連の処理を行うことによって、その基本周波数等の情報についても速度情報に応じた変更の処理を行ってもよい。なお、図3で示される一連の処理と、図4で示される一連の処理とを実行する順序は問わない。一方、韻律情報に所定のフレームレートでサンプリングされた基本周波数情報等が含まれない場合には、韻律情報変更部14は、図3で示される一連の処理のみを行えばよいことになる。
次に、本実施の形態による音声合成装置1の動作について、具体例を用いて説明する。
この具体例では、素片接続合成法により音声合成を行う場合について説明する。この具体例において、テキスト情報記憶部11では、図5で示されるテキスト情報と、速度情報とが記憶されているものとする。図5中のタグが速度情報である。「fast」タグによって、「次の東京行きのぞみ100号は10時30分に8番線から発車の予定です」の全体の話速を速くすることが示されている。また、「keyword」タグによって、「10時30分に」の部分がキーワードであることが示されている。この具体例では、話速を速くする場合には話速を2倍にする、と決まっているものとする。また、この具体例では、キーワードの部分の話速を変化させないと決まっているものとする。
まず、ユーザがキーボードやマウス等の入力デバイスを操作することによって、音声合成の処理を開始する指示を入力したとする。すると、音素列・韻律情報生成部12は、音声合成を開始すると判断し(ステップS101)、音素列と、その音素列に対応した韻律情報を生成し、それらを韻律情報記憶部13に蓄積する(ステップS102)。図6は、韻律情報記憶部13に蓄積された音素列と、韻律情報に含まれる持続時間情報である開始時間との対応を示す図である。図6で示されるように、各音素に、持続時間情報である開始時間が対応付けられている。例えば、音素「ts」は、0.105秒から開始されることが分かる。保護フラグについては後述する。なお、音素「sil」は、空白に対応する音素であり、音素「pau」は、ポーズに対応する音素である。また、基本周波数情報や、パワースペクトル情報であるケプストラム情報も韻律情報記憶部13で記憶されているものとする。
次に、韻律情報変更部14は、テキスト情報記憶部11で記憶されている速度情報を用いて、韻律情報を変更する(ステップS103)。具体的には、韻律情報変更部14は、図5のテキスト情報と速度情報とを参照し、タグ解釈を行うことによって、文の全体を2倍の速度にするが、「10時30分に」の部分は速度を変更しない旨を解釈する。そして、その速度を変更しない「10時30分に」に対応する音素列「juujisaNjuQpuNni」の各音素に対応付けて図7で示されるように保護フラグ「*」を設定する(ステップS201)。この保護フラグは、速度を変更しないことを示すフラグである。したがって、保護フラグの設定されていない各音素が、速度を変更する音素となる。
その後、韻律情報変更部14は、1番目の音素「sil」が変更対象であると判断し(ステップS202,S203)、その音素「sil」の開始時刻「0」と、2番目の音素「ts」の開始時刻「0.105」との差「0.105」が1/2の「0.0525」となるように、2番目の音素「ts」の開始時刻を「0.0525」に変更する。また、それに応じて、後続する3番目の音素「u」以降の各音素の開始時刻を、「0.0525」だけ減少させる(ステップS204)。
韻律情報変更部14は、次に2番目の音素「ts」が変更対象であると判断し(ステップS205,S206,S203)、その音素「ts」の開始時刻「0.0525」と、3番目の音素「u」の開始時刻「0.1275」との差「0.075」が1/2の「0.0375」となるように、3番目の音素「u」の開始時刻を「0.09」に変更する。また、それに応じて、後続する4番目の音素「g」以降の各音素の開始時刻を、「0.0375」だけ減少させる(ステップS204)。
このような処理を順次繰り返すことによって、各音素に対応する開始時刻を変更する。ただし、「10時30分に」に対応する音素列「juujisaNjuQpuNni」の各音素、すなわち、保護フラグ「*」の設定されている各音素については、その変更の処理を行わない(ステップS203)。図8は、その処理の後の開始時刻と音素との対応を示す図である。図8において、開始時刻は、小数点以下3桁までを示している(4桁目を落としている)。
韻律情報変更部14は、また、基本周波数情報についても速度情報に応じた変更を行う。具体的には、韻律情報変更部14は、「10時30分に」の音素列「juujisaNjuQpuNni」に対応する基本周波数情報のフレームを特定する(ステップS301)。その特定は、図7と同様に、保護フラグを各フレームに設定することによって行ってもよい。そして、韻律情報変更部14は、基本周波数情報の先頭から後端までの補間を行う(ステップS302)。その後、韻律情報変更部14は、「10時30分に」の音素列「juujisaNjuQpuNni」に対応するフレームでないフレームに対応する領域の基本周波数情報を、時間軸方向に1/2に圧縮し(ステップS303)、元のフレームレートで再サンプリングする(ステップS304)。その結果、例えば、図9で示されるように、変更後の基本周波数情報(図9の右側)は、変更前の基本周波数情報(図9の左側)の各フレームを1個おきに間引いたものとなる。
なお、韻律情報変更部14は、ケプストラム情報についても、基本周波数情報と同様にして速度情報に応じた変更を行うものとする(ステップS301〜S304)。
次に、音声信号生成部15は、音素列と、変更後の韻律情報とを用いて音声合成を行い(ステップS104)、音声信号出力部16は、その音声合成された音声信号を音声出力する(ステップS105)。その結果、図10で示されるように、ユーザは、「10時30分に」は、通常の長さであるが、「次の東京行きのぞみ100号は」と、「8番線から発車の予定です」は、通常の半分の長さに圧縮された音声を聞くことになる。したがって、全体の音声の長さを短くすることができると共に、重要であると考えられる「10時30分に」は、より正確に聞くことができるようにすることができうる。
図11は、「次の東京行きのぞみ100号は10時30分に8番線から発車の予定です」に対応する、速度情報に応じた変更を行っていない通常の音声信号と、速度情報に応じた変更を行った変更後の音声信号とを比較するための波形図である。図11において、実線が通常の音声信号を示しており、破線が変更後の音声信号を示している。なお、真ん中のあたりでは、両音声信号が重なっているが、その領域が「10時30分に」に対応する領域である。
この具体例では、素片接続合成法により音声合成を行う場合について説明したが、HMM合成法により音声合成を行う場合にも、同様にして速度情報に応じた変更を行うことができる。図12は、HMM合成法の場合における韻律情報の一例を示すものである。図12で示される韻律情報は、フルコンテキストラベルファイルと呼ばれるものの一部であり、各音素の開始時刻と、終了時刻、音素、品詞情報等が対応付けられている。音素のフィールドでは、音素が次のようにして示されている。
(2個前の音素)^(1個前の音素)−(注目している音素)+(1個後の音素)=(2個後の音素)
したがって、例えば、3番目のレコードの音素のフィールドでは、2個前の音素が「sil」であり、1個前の音素が「ts」であり、3番目のレコードに対応する音素が「u」であり、1個後の音素が「g」であり、2個後の音素が「i」であることが示されている。
また、品詞情報等のフィールドでは、品詞情報、フレーズ内での位置、単語内での位置、単語の音節数などの情報が含まれている。このように、韻律情報には、持続時間情報や、基本周波数情報、パワースペクトル情報以外に、品詞や活用形、活用型に関する情報、先行する音素や後続する音素、音素のアクセント句内でのモーラ位置等の情報が含まれていてもよい。
韻律情報変更部14が図12で示される情報を変更する場合にも、図3のフローチャートを用いて説明した処理を実行することによって、開始時刻や終了時刻を変更することができ、速度情報に応じた変更を実現することができる。
以上のように、本実施の形態による音声合成装置1によれば、韻律情報変更部14が速度情報に応じて韻律情報を変更するため、テキスト情報の一部を、ユーザ等が指定した速度情報に対応する速度で読み上げることができるようになる。その結果、例えば、通常と同じ内容のテキストについては速いスピードで読み上げ、通常と異なる内容のテキストについては遅いスピードで読み上げるようにすることができる。そのため、通常と異なる内容について聞き逃すことを防止することができうる。具体的には、音声による自動観光案内や、博物館、美術館、展示会場などにおける出展物の解説、駅や公共機関における放送などの際に、地名や人名、時刻などの情報については遅いスピードで読み上げるように設定することで、それらの情報の聞き逃しを回避することが期待できる。また、家庭用ゲーム機や家庭電化製品の使用法を音声で説明する場合に、利用の回数に応じていつもと同じ内容については速いスピードで読み上げ、そうでない内容、すなわち、新規な内容については遅いスピードで読み上げるようにしてもよい。この場合には、例えば、出力された音声信号に対応するテキスト情報の履歴を保持しておき、あらかじめ決められた回数以上出力されている音声信号に対応するテキスト情報の部分については、他の部分に比べて速いスピードで読み上げられるように速度情報を変更する速度情報変更部(図示せず)を備えてもよい。なお、結果として、あらかじめ決められた回数以上出力されている音声信号に対応するテキスト情報の部分が、他の部分に比べて速いスピードで読み上げられるのであれば、速度情報の設定は問わない。例えば、速く読み上げるテキスト情報の部分について、速く読み上げる旨の速度情報を設定してもよく、あるいは、遅く読み上げるテキスト情報の部分について、遅く読み上げる旨の速度情報を設定してもよい。
なお、本実施の形態では、音声合成装置1において、テキスト情報から音素列と、韻律情報とを生成する場合について説明したが、そうでなくてもよい。例えば、音声合成装置1以外の装置において音素列と韻律情報とが生成され、その音素列等の情報が韻律情報記憶部13で記憶されるようになってもよい。その場合には、音声合成装置1は、音素列・韻律情報生成部12を備えていなくてもよい。また、その場合には、韻律情報記憶部13に音素列等が記憶される過程は問わない。例えば、記録媒体を介して音素列等が韻律情報記憶部13で記憶されるようになってもよく、あるいは、通信回線等を介して送信された音素列等が韻律情報記憶部13で記憶されるようになってもよい。
また、上記実施の形態では、音声合成装置1がスタンドアロンである場合について説明したが、音声合成装置1は、スタンドアロンの装置であってもよく、サーバ・クライアントシステムにおけるサーバ装置であってもよい。後者の場合には、出力部は、通信回線を介して情報を出力してもよい。
また、上記実施の形態において、各処理または各機能は、単一の装置または単一のシステムによって集中処理されることによって実現されてもよく、あるいは、複数の装置または複数のシステムによって分散処理されることによって実現されてもよい。
また、上記実施の形態において、各構成要素が実行する処理に関係する情報、例えば、各構成要素が受け付けたり、取得したり、選択したり、生成したり、送信したり、受信したりした情報や、各構成要素が処理で用いるしきい値や数式、アドレス等の情報等は、上記説明で明記していない場合であっても、図示しない記録媒体において、一時的に、あるいは長期にわたって保持されていてもよい。また、その図示しない記録媒体への情報の蓄積を、各構成要素、あるいは、図示しない蓄積部が行ってもよい。また、その図示しない記録媒体からの情報の読み出しを、各構成要素、あるいは、図示しない読み出し部が行ってもよい。
また、上記実施の形態において、各構成要素等で用いられる情報、例えば、各構成要素が処理で用いるしきい値やアドレス、各種の設定値等の情報がユーザによって変更されてもよい場合には、上記説明で明記していない場合であっても、ユーザが適宜、それらの情報を変更できるようにしてもよく、あるいは、そうでなくてもよい。それらの情報をユーザが変更可能な場合には、その変更は、例えば、ユーザからの変更指示を受け付ける図示しない受付部と、その変更指示に応じて情報を変更する図示しない変更部とによって実現されてもよい。その図示しない受付部による変更指示の受け付けは、例えば、入力デバイスからの受け付けでもよく、通信回線を介して送信された情報の受信でもよく、所定の記録媒体から読み出された情報の受け付けでもよい。
また、上記実施の形態において、音声合成装置1に含まれる2以上の構成要素が通信デバイスや入力デバイス等を有する場合に、2以上の構成要素が物理的に単一のデバイスを有してもよく、あるいは、別々のデバイスを有してもよい。
また、上記実施の形態において、各構成要素は専用のハードウェアにより構成されてもよく、あるいは、ソフトウェアにより実現可能な構成要素については、プログラムを実行することによって実現されてもよい。例えば、ハードディスクや半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現され得る。なお、上記実施の形態における音声合成装置1を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、コーパスベースの音声合成装置としてコンピュータを機能させるためのプログラムであって、コンピュータを、テキスト情報と当該テキスト情報の一部に対する速度に関する情報である速度情報とが記憶されるテキスト情報記憶部で記憶される前記速度情報に応じて、前記テキスト情報に対応する音素列と当該音素列の各音素の持続時間に関する情報である持続時間情報を少なくとも含む情報である韻律情報とが記憶される韻律情報記憶部で記憶される前記韻律情報を変更する韻律情報変更部、前記音素列と、前記韻律情報変更部による変更後の韻律情報とを用いて音声信号を生成する音声信号生成部、前記音声信号生成部が生成した音声信号を出力する音声信号出力部、として機能させるためのものである。
なお、上記プログラムにおいて、上記プログラムが実現する機能には、ハードウェアでしか実現できない機能は含まれない。例えば、情報を出力する出力部などにおけるモデムやインターフェースカードなどのハードウェアでしか実現できない機能は、上記プログラムが実現する機能には少なくとも含まれない。
また、このプログラムは、サーバなどからダウンロードされることによって実行されてもよく、所定の記録媒体(例えば、CD−ROMなどの光ディスクや磁気ディスク、半導体メモリなど)に記録されたプログラムが読み出されることによって実行されてもよい。また、このプログラムは、プログラムプロダクトを構成するプログラムとして用いられてもよい。
また、このプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。
図13は、上記プログラムを実行して、上記実施の形態による音声合成装置1を実現するコンピュータの外観の一例を示す模式図である。上記実施の形態は、コンピュータハードウェア及びその上で実行されるコンピュータプログラムによって実現されうる。
図13において、コンピュータシステム900は、CD−ROM(Compact Disk Read Only Memory)ドライブ905、FD(Floppy(登録商標) Disk)ドライブ906を含むコンピュータ901と、キーボード902と、マウス903と、モニタ904とを備える。
図14は、コンピュータシステム900の内部構成を示す図である。図14において、コンピュータ901は、CD−ROMドライブ905、FDドライブ906に加えて、MPU(Micro Processing Unit)911と、ブートアッププログラム等のプログラムを記憶するためのROM912と、MPU911に接続され、アプリケーションプログラムの命令を一時的に記憶すると共に、一時記憶空間を提供するRAM(Random Access Memory)913と、アプリケーションプログラム、システムプログラム、及びデータを記憶するハードディスク914と、MPU911、ROM912等を相互に接続するバス915とを備える。なお、コンピュータ901は、LANへの接続を提供する図示しないネットワークカードを含んでいてもよい。
コンピュータシステム900に、上記実施の形態による音声合成装置1の機能を実行させるプログラムは、CD−ROM921、またはFD922に記憶されて、CD−ROMドライブ905、またはFDドライブ906に挿入され、ハードディスク914に転送されてもよい。これに代えて、そのプログラムは、図示しないネットワークを介してコンピュータ901に送信され、ハードディスク914に記憶されてもよい。プログラムは実行の際にRAM913にロードされる。なお、プログラムは、CD−ROM921やFD922、またはネットワークから直接、ロードされてもよい。
プログラムは、コンピュータ901に、上記実施の形態による音声合成装置1の機能を実行させるオペレーティングシステム(OS)、またはサードパーティプログラム等を必ずしも含んでいなくてもよい。プログラムは、制御された態様で適切な機能(モジュール)を呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいてもよい。コンピュータシステム900がどのように動作するのかについては周知であり、詳細な説明は省略する。
また、本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。
以上より、本発明による音声合成装置等によれば、部分的に発話速度を変更することができるという効果が得られ、例えば、自動観光案内や、博物館、美術館、展示会場などにおける出展物の解説、駅や公共機関における放送などの音声合成システム等において有用である。
本発明の実施の形態1による音声合成装置の構成を示すブロック図 同実施の形態による音声合成装置の動作を示すフローチャート 同実施の形態による音声合成装置の動作を示すフローチャート 同実施の形態による音声合成装置の動作を示すフローチャート 同実施の形態におけるテキスト情報と速度情報との一例を示す図 同実施の形態における音素列と韻律情報の一例を示す図 同実施の形態における音素列と韻律情報の一例を示す図 同実施の形態における音素列と韻律情報の一例を示す図 同実施の形態における韻律情報の一例を示す図 同実施の形態における韻律情報の変更について説明するための図 同実施の形態における韻律情報の変更の前後の音声信号の一例を示す図 同実施の形態における音素列と韻律情報の一例を示す図 同実施の形態におけるコンピュータシステムの外観の一例を示す模式図 同実施の形態におけるコンピュータシステムの構成の一例を示す図
符号の説明
1 音声合成装置
11 テキスト情報記憶部
12 韻律情報生成部
13 韻律情報記憶部
14 韻律情報変更部
15 音声信号生成部
16 音声信号出力部

Claims (9)

  1. コーパスベースの音声合成装置であって、
    テキスト情報と、当該テキスト情報の一部に対する速度に関する情報である速度情報とが記憶されるテキスト情報記憶部と、
    前記テキスト情報に対応する音素列と、当該音素列の各音素の持続時間に関する情報である持続時間情報を少なくとも含む情報である韻律情報とが記憶される韻律情報記憶部と、
    前記速度情報に応じて前記韻律情報を変更する韻律情報変更部と、
    前記音素列と、前記韻律情報変更部による変更後の韻律情報とを用いて音声信号を生成する音声信号生成部と、
    前記音声信号生成部が生成した音声信号を出力する音声信号出力部と、を備えた音声合成装置。
  2. 前記音声信号生成部は、素片接続合成法により音声信号を生成する、請求項1記載の音声合成装置。
  3. 前記音声信号生成部は、HMM合成法により音声信号を生成する、請求項1記載の音声合成装置。
  4. 前記音素列には、ポーズが含まれており、
    前記韻律情報には、前記ポーズに対応する持続時間情報も含まれており、
    前記韻律情報変更部は、ポーズに対応する持続時間情報を変更しない、請求項1から請求項3のいずれか記載の音声合成装置。
  5. 前記テキスト情報から音素列、及び当該音素列に対応する韻律情報を生成し、前記韻律情報記憶部に蓄積する音素列・韻律情報生成部をさらに備えた、請求項1から請求項4のいずれか記載の音声合成装置。
  6. 前記韻律情報は、前記音素列の各音素の基本周波数情報を含む、請求項1から請求項5のいずれか記載の音声合成装置。
  7. 前記韻律情報は、前記音素列の各音素のパワースペクトル情報を含む、請求項1から請求項6のいずれか記載の音声合成装置。
  8. コーパスベースの音声合成方法であって、
    テキスト情報と当該テキスト情報の一部に対する速度に関する情報である速度情報とが記憶されるテキスト情報記憶部で記憶されている前記速度情報に応じて、前記テキスト情報に対応する音素列と当該音素列の各音素の持続時間に関する情報である持続時間情報を少なくとも含む情報である韻律情報とが記憶される韻律情報記憶部で記憶されている前記韻律情報を変更する韻律情報変更ステップと、
    前記音素列と、前記韻律情報変更ステップでの変更後の韻律情報とを用いて音声信号を生成する音声信号生成ステップと、
    前記音声信号生成ステップで生成した音声信号を出力する音声信号出力ステップと、を備えた音声合成方法。
  9. コーパスベースの音声合成装置としてコンピュータを機能させるためのプログラムであって、
    コンピュータを、
    テキスト情報と当該テキスト情報の一部に対する速度に関する情報である速度情報とが記憶されるテキスト情報記憶部で記憶される前記速度情報に応じて、前記テキスト情報に対応する音素列と当該音素列の各音素の持続時間に関する情報である持続時間情報を少なくとも含む情報である韻律情報とが記憶される韻律情報記憶部で記憶される前記韻律情報を変更する韻律情報変更部、
    前記音素列と、前記韻律情報変更部による変更後の韻律情報とを用いて音声信号を生成する音声信号生成部、
    前記音声信号生成部が生成した音声信号を出力する音声信号出力部、として機能させるためのプログラム。
JP2008231612A 2008-09-10 2008-09-10 音声合成装置、音声合成方法、及びプログラム Expired - Fee Related JP5164041B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008231612A JP5164041B2 (ja) 2008-09-10 2008-09-10 音声合成装置、音声合成方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008231612A JP5164041B2 (ja) 2008-09-10 2008-09-10 音声合成装置、音声合成方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2010066422A true JP2010066422A (ja) 2010-03-25
JP5164041B2 JP5164041B2 (ja) 2013-03-13

Family

ID=42192074

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008231612A Expired - Fee Related JP5164041B2 (ja) 2008-09-10 2008-09-10 音声合成装置、音声合成方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP5164041B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012159683A (ja) * 2011-01-31 2012-08-23 Toshiba Corp 電子機器
WO2014069220A1 (ja) * 2012-10-31 2014-05-08 Necカシオモバイルコミュニケーションズ株式会社 再生装置、設定装置、再生方法およびプログラム
CN113178188A (zh) * 2021-04-26 2021-07-27 平安科技(深圳)有限公司 语音合成方法、装置、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06337876A (ja) * 1993-05-28 1994-12-06 Toshiba Corp 文章読み上げ装置
JPH08179789A (ja) * 1994-12-26 1996-07-12 Sharp Corp 音声情報表示装置
JPH10210154A (ja) * 1996-12-31 1998-08-07 At & T Corp ボイスメッセージの明瞭度を向上する方法
JPH10274999A (ja) * 1997-03-31 1998-10-13 Sanyo Electric Co Ltd 文書読み上げ装置
JP2003208192A (ja) * 2002-01-17 2003-07-25 Canon Inc 文書処理装置、文書読み上げ速度制御方法、記憶媒体、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06337876A (ja) * 1993-05-28 1994-12-06 Toshiba Corp 文章読み上げ装置
JPH08179789A (ja) * 1994-12-26 1996-07-12 Sharp Corp 音声情報表示装置
JPH10210154A (ja) * 1996-12-31 1998-08-07 At & T Corp ボイスメッセージの明瞭度を向上する方法
JPH10274999A (ja) * 1997-03-31 1998-10-13 Sanyo Electric Co Ltd 文書読み上げ装置
JP2003208192A (ja) * 2002-01-17 2003-07-25 Canon Inc 文書処理装置、文書読み上げ速度制御方法、記憶媒体、及びプログラム

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
CSNG200500348006; 小林 隆夫 Takao KOBAYASHI: 'コーパスベース音声合成技術の動向[IV] Technology Trends in Corpus-based Speech Synthesis [IV]' 電子情報通信学会誌 第87巻 第4号 THE JOURNAL OF THE INSTITUTE OF ELECTRONICS,INFORMATION AND CO , 2004, p.322-327, 社団法人電子情報通信学会 DENSHI-JOHO-TSUSHIN-GAKK *
CSNG200700179015; 河井 恒 Hisashi KAWAI: '大規模コーパスを用いた音声合成システムXIMERA XIMERA: A Concatenative Speech Synthesis System' 電子情報通信学会論文誌 (J89-D) 第12号 THE IEICE TRANSACTIONS ON INFORMATION AND SYSTEMS , 20061201, p.2688-2698, 社団法人電子情報通信学会 THE INSTITUTE OF ELECTRO *
CSNJ201110016463; 平井 俊男 Toshio Hirai: 'コーパス・ベース多言語音声合成システムXIMERA' 日本音響学会 2006年 春季研究発表会講演論文集CD-ROM [CD-ROM] , 20060314, p.333-334, 社団法人日本音響学会 *
JPN6012040599; 河井 恒 Hisashi KAWAI: '大規模コーパスを用いた音声合成システムXIMERA XIMERA: A Concatenative Speech Synthesis System' 電子情報通信学会論文誌 (J89-D) 第12号 THE IEICE TRANSACTIONS ON INFORMATION AND SYSTEMS , 20061201, p.2688-2698, 社団法人電子情報通信学会 THE INSTITUTE OF ELECTRO *
JPN6012040600; 平井 俊男 Toshio Hirai: 'コーパス・ベース多言語音声合成システムXIMERA' 日本音響学会 2006年 春季研究発表会講演論文集CD-ROM [CD-ROM] , 20060314, p.333-334, 社団法人日本音響学会 *
JPN6012040601; 小林 隆夫 Takao KOBAYASHI: 'コーパスベース音声合成技術の動向[IV] Technology Trends in Corpus-based Speech Synthesis [IV]' 電子情報通信学会誌 第87巻 第4号 THE JOURNAL OF THE INSTITUTE OF ELECTRONICS,INFORMATION AND CO , 2004, p.322-327, 社団法人電子情報通信学会 DENSHI-JOHO-TSUSHIN-GAKK *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012159683A (ja) * 2011-01-31 2012-08-23 Toshiba Corp 電子機器
US8538758B2 (en) 2011-01-31 2013-09-17 Kabushiki Kaisha Toshiba Electronic apparatus
US9047858B2 (en) 2011-01-31 2015-06-02 Kabushiki Kaisha Toshiba Electronic apparatus
WO2014069220A1 (ja) * 2012-10-31 2014-05-08 Necカシオモバイルコミュニケーションズ株式会社 再生装置、設定装置、再生方法およびプログラム
CN104756181A (zh) * 2012-10-31 2015-07-01 Nec卡西欧移动通信株式会社 回放装置、设置装置、回放方法及程序
JPWO2014069220A1 (ja) * 2012-10-31 2016-09-08 日本電気株式会社 再生装置、設定装置、再生方法およびプログラム
US9728201B2 (en) 2012-10-31 2017-08-08 Nec Corporation Playback apparatus, setting apparatus, playback method, and program
CN104756181B (zh) * 2012-10-31 2017-10-27 日本电气株式会社 回放装置、设置装置、回放方法及程序
CN113178188A (zh) * 2021-04-26 2021-07-27 平安科技(深圳)有限公司 语音合成方法、装置、设备及存储介质
CN113178188B (zh) * 2021-04-26 2024-05-28 平安科技(深圳)有限公司 语音合成方法、装置、设备及存储介质

Also Published As

Publication number Publication date
JP5164041B2 (ja) 2013-03-13

Similar Documents

Publication Publication Date Title
JP3224000B2 (ja) テキスト−音声変換システム
JP6078964B2 (ja) 音声対話システム及びプログラム
EP3065130B1 (en) Voice synthesis
EP3321927A1 (en) Voice interaction method and voice interaction device
CN112102811B (zh) 一种合成语音的优化方法、装置及电子设备
JP2013072903A (ja) 合成辞書作成装置および合成辞書作成方法
CN112037755A (zh) 一种基于音色克隆的语音合成方法、装置及电子设备
JP5164041B2 (ja) 音声合成装置、音声合成方法、及びプログラム
US9484014B1 (en) Hybrid unit selection / parametric TTS system
CN112037757A (zh) 一种歌声合成方法、设备及计算机可读存储介质
JP6170384B2 (ja) 音声データベース生成システム、音声データベース生成方法、及びプログラム
JP2009122381A (ja) 音声合成装置、音声合成方法およびそのプログラム
JP6314828B2 (ja) 韻律モデル学習装置、韻律モデル学習方法、音声合成システム、および韻律モデル学習プログラム
JP6179884B2 (ja) Wfst作成装置、音声認識装置、音声翻訳装置、wfst作成方法、およびプログラム
JP6486582B2 (ja) 電子機器、音声制御方法、およびプログラム
CN113421571A (zh) 一种语音转换方法、装置、电子设备和存储介质
JP4963345B2 (ja) 音声合成方法及び音声合成プログラム
JP6251219B2 (ja) 合成辞書作成装置、合成辞書作成方法および合成辞書作成プログラム
JPH08248993A (ja) 音韻時間長制御方法
EP1589524B1 (en) Method and device for speech synthesis
CN113421544B (zh) 歌声合成方法、装置、计算机设备及存储介质
JP4872690B2 (ja) 音声合成方法、音声合成プログラム、音声合成装置
JP2987089B2 (ja) 音声素片作成方法および音声合成方法とその装置
EP1640968A1 (en) Method and device for speech synthesis
JP2001350491A (ja) 音声処理方法および装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121210

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151228

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5164041

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees