JP5726822B2 - 音声合成装置、方法及びプログラム - Google Patents

音声合成装置、方法及びプログラム Download PDF

Info

Publication number
JP5726822B2
JP5726822B2 JP2012180446A JP2012180446A JP5726822B2 JP 5726822 B2 JP5726822 B2 JP 5726822B2 JP 2012180446 A JP2012180446 A JP 2012180446A JP 2012180446 A JP2012180446 A JP 2012180446A JP 5726822 B2 JP5726822 B2 JP 5726822B2
Authority
JP
Japan
Prior art keywords
parameter
prosodic
prosody
normalization
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012180446A
Other languages
English (en)
Other versions
JP2014038208A (ja
Inventor
橘 健太郎
健太郎 橘
籠嶋 岳彦
岳彦 籠嶋
眞弘 森田
眞弘 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012180446A priority Critical patent/JP5726822B2/ja
Priority to CN201310357397.5A priority patent/CN103594082A/zh
Publication of JP2014038208A publication Critical patent/JP2014038208A/ja
Application granted granted Critical
Publication of JP5726822B2 publication Critical patent/JP5726822B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Description

本発明の実施形態は、音声合成装置、方法及びプログラムに関する。
任意の文章から人工的に音声信号を作り出すことをテキスト音声合成という。通常、テキスト音声合成は、テキスト解析、合成パラメータ生成及び音声合成の3つの段階によって行われる。
典型的なテキスト音声合成システムでは、まず、テキスト解析部が、入力されたテキストに形態素解析及び構文解析などを行って、言語情報を出力する。言語情報は、テキストの読みに対応する音声記号列、韻律制御の単位となるアクセント句の情報、アクセントの位置、品詞などを含む。次に、合成パラメータ生成部が、上記言語情報に基づき韻律制御辞書を参照して韻律制御を行って、合成パラメータを生成する。合成パラメータは、基本周波数パターン(F0パターン)・音韻継続時間・パワーなどの韻律パラメータと、音素記号列などの音韻パラメータとから構成される。そして、音声合成部が、上記合成パラメータに従って合成音声を生成する。
このようなテキスト音声合成では、人間が文章を読み上げるときのような調子(いわゆる朗読調)の音声を合成することが普通であったが、近年、多様な韻律的特徴を実現するための手法が多く提案されている。例えば、複数の韻律パラメータ間で内挿処理を行って新たな韻律パラメータを生成し、これを用いて合成音を生成することによって、多様な韻律的特徴をもった合成音を提供する手法が提案されている。
しかし、この手法では、韻律パラメータ間の関係によっては(例えば、韻律パラメータの特徴量の間に大きな相違があった場合に)、内挿の結果に不具合が生じることがある。例えば、韻律パラメータとしてF0パターンを例にとると、男性である対象話者の韻律パラメータと女性話者の韻律パラメータの間で内挿を行った場合に、F0パターンは一般的に女性の方が高いので、内挿により生成された韻律パターンのF0平均値は、該対象話者(男性話者)のF0パターン平均値よりも高くなってしまう。その結果、生成された韻律パラメータからは対象話者らしさが失われる。
特開2001−242882号公報
多様な韻律的特徴をもつ合成音を生成することができる音声合成技術であって且つ対象話者らしさを保つこともできるものは知られていなかった。
本実施形態は、多様な韻律的特徴をもつ合成音を生成することができ且つ対象話者らしさを保つこともできる音声合成装置、方法及びプログラムを提供することを目的とする。
実施形態によれば、テキスト解析部、辞書記憶部、韻律パラメータ生成部、正規化部、韻律パラメータ内挿部、音声合成部を備える。テキスト解析部は、入力されたテキストを解析して、言語情報を出力する。辞書記憶部は、対象話者の韻律制御辞書及び1又は複数の基準話者の韻律制御辞書を記憶する。韻律パラメータ生成部は、前記言語情報に基づいて、前記対象話者の韻律制御辞書を参照して第1の韻律パラメータを生成するとともに、前記1又は複数の基準話者の韻律制御辞書をそれぞれ用いて1又は複数の第2の韻律パラメータを生成する。正規化部は、正規化パラメータに基づいて、前記1又は複数の第2の韻律パラメータをそれぞれ正規化処理する。韻律パラメータ内挿部は、重み情報に基づいて、前記第1の韻律パラメータ及び正規化処理された前記1又は複数の第2の韻律パラメータを内挿処理して、第3の韻律パラメータを生成する。音声合成部は、前記第3の韻律パラメータに従って、合成音声を生成する。
また、実施形態によれば、テキスト解析部、辞書記憶部、韻律パラメータ生成部、韻律パラメータ内挿部、正規化部、音声合成部を備える。テキスト解析部は、入力されたテキストを解析して、言語情報を出力する。辞書記憶部は、対象話者の韻律制御辞書及び1又は複数の基準話者の韻律制御辞書を記憶する。韻律パラメータ生成部は、前記言語情報に基づいて、前記対象話者の韻律制御辞書を参照して第1の韻律パラメータを生成するとともに、前記1又は複数の基準話者の韻律制御辞書をそれぞれ用いて1又は複数の第2の韻律パラメータを生成する。韻律パラメータ内挿部は、重み情報に基づいて、前記第1の韻律パラメータ及び前記1又は複数の第2の韻律パラメータを内挿処理して、第3の韻律パラメータを生成する。正規化部は、正規化パラメータに基づいて、前記第3の韻律パラメータを正規化処理する。音声合成部は、正規化処理された前記第3の韻律パラメータに従って、合成音声を生成する。
第1の実施形態の音声合成装置の基本的なブロック図。 第1の実施形態の第1の構成例のブロック図。 第1の実施形態の音声合成装置の動作例を示すフローチャート。 平均値に基づく正規化手法を説明するための図。 ダイナミックレンジに基づく正規化手法を説明するための図。 重み調整の一例を示す図。 内挿について説明するための図。 外挿について説明するための図。 内挿処理について説明するための図。 外挿処理について説明するための図。 第1の実施形態の第2の構成例のブロック図。 第2の実施形態の音声合成装置の基本的なブロック図。 第2の実施形態の第1の構成例のブロック図。 第2の実施形態の音声合成装置の動作例を示すフローチャート。 第2の実施形態の第2の構成例のブロック図。
以下、図面を参照しながら本発明の実施形態に係る音声合成装置について詳細に説明する。なお、以下の実施形態では、同一の番号を付した部分については同様の動作を行うものとして、重ねての説明を省略する。
(第1の実施形態)
第1の実施形態について説明する。
以下で詳しく述べるように、第1の実施形態は、韻律パラメータの内挿処理の前に正規化処理を行うものであり、第2の実施形態は、韻律パラメータの内挿処理の後で正規化処理を行うものである。
図1に、第1の実施形態の音声合成装置のブロック図の一例を示す。
図1に示されるように、本実施形態の音声合成装置は、テキスト解析部1、韻律制御辞書記憶部2、合成パラメータ生成部3、内挿処理の前に正規処理を行う正規化部(以下、第1の正規化部と記述する)4、合成パラメータ内挿部5、音声合成部6を備える。
なお、図1は、合成パラメータのうちの韻律パラメータに関する構成を中心に示してあり、他のパラメータ又は情報に関する部分は適宜省略している。この点は他の各図についても同様である。以下の説明も、韻律パラメータを中心に行う。
また、以下では、韻律パラメータに関する処理について具体例を用いて説明する場合には、F0パターンを例にとる。
本実施形態では正規化パラメータの生成等について様々な構成例が有り得る。以下、幾つかの構成例について順に説明する。本実施形態の音声合成装置の各部の詳細については、以下の説明の中で述べる。
(第1の実施形態の第1の構成例)
まず、本実施形態の第1の構成例について説明する。
図2に、本構成例の音声合成装置のブロック図を示す。
図2に示されるように、本構成例の音声合成装置は、テキスト解析部1、韻律制御辞書記憶部2、合成パラメータ生成部3、正規化パラメータ生成部7、第1の正規化部4、合成パラメータ内挿部5、音声合成部6を備えている。
以下、各部について説明する。
テキスト解析部1は、入力されたテキスト(文字列)に対して、言語的な処理(例えば形態素解析及び構文解析)を行って、言語情報101を生成する。
言語情報は、例えばテキストの読みに対応する音声記号列、韻律制御の単位となるアクセント句の情報、アクセントの位置、品詞などのような、合成パラメータの生成に必要な種々の情報を含む。
韻律制御辞書記憶部2は、1個の対象話者の韻律制御辞書及びn個の基準話者の韻律制御辞書を記憶する。ここで、nは、1以上の任意の数である。対象話者の韻律制御辞書は、対象話者の韻律を制御するためのパラメータを含む。また、一つの基準話者の韻律制御辞書は、一つの基準話者の韻律を制御するためのパラメータを含む。なお、対象話者の韻律制御辞書と基準話者の韻律制御辞書とで、構成上の相違はない。
韻律制御辞書は、より具体的には、例えば、合成音声のF0パターン・音韻継続時間長・パワー・ポーズなどのような韻律を制御するために参照するものであり、例えば、F0パターンの典型的な変化パターン、アクセント成分・音韻継続時間長・パワー・ポーズ長などの制御量の統計的なモデルのパラメータ、或いは、決定木で表現されるルールなどが考えられる(ただし、これらに制限されるものではない)。
なお、韻律制御辞書記憶部2に複数の対象話者の韻律制御辞書を記憶しておき、いずれの対象話者の韻律制御辞書を使用するかを(例えばユーザの指示により)選択できるようにしても良い。また、使用する対象話者以外の対象話者の韻律制御辞書を、基準話者の韻律制御辞書として使用することも可能である。
合成パラメータ生成部3は、言語情報101に基づいて、対象話者の韻律制御辞書を参照して、対象話者の合成パラメータ(音韻パラメータ及び第1の韻律パラメータ)を生成するとともに、同様に、言語情報101に基づいて、各基準話者の韻律制御辞書を参照して、各基準話者の合成パラメータ(音韻パラメータ及び第2の韻律パラメータ)をそれぞれ生成する。韻律パラメータ生成部は、合成パラメータ生成部3の一部である。
合成パラメータは、韻律パラメータと、音韻パラメータとから構成される。韻律パラメータは、例えば基本周波数パターン(F0パターン)、音韻継続時間及びパワー・ポーズなどの合成音声の韻律を特徴付けるパラメータの集合である。音韻パラメータは、例えば、音素記号列などである。
なお、韻律パラメータは、話者ごとに変化し得るものであり、話者ごとに生成される。これに対して、音韻パラメータは、通常、話者にかかわらず同一になる。ただし、音韻パラメータの生成が話者ごとに行われても構わない。また、一旦、音韻パラメータが生成された後は、音韻パラメータの生成が省略されても良い。
正規化パラメータ生成部7は、対象話者の韻律パラメータ(第1の韻律パラメータ)301及び1又は複数の基準話者の韻律パラメータ(第2の韻律パラメータ)302に基づいて、所定の正規化パラメータ701を生成する。正規化パラメータ701は、基準話者の韻律パラメータごとに、生成される。
第1の正規化部4は、生成された各々の基準話者の韻律パラメータ302に対して、それぞれ、正規化パラメータ701に基づく正規化処理を行う。
ここで、正規化処理とは、例えば、個々の基準話者の韻律パラメータ302の一つ以上の特徴量と、対象話者の韻律パラメータ301のそれとを、所定の閾値まで近付ける(或いは、一致させる)処理である。特徴量は、例えば、平均値、分散、ダイナミックレンジなどが考えられる。
複数種類の韻律パラメータについて正規化処理を行う場合には、各種類の韻律パラメータごとに、正規化パラメータ701を生成する。
合成パラメータ内挿部5は、任意の重み情報901に基づいて、対象話者の韻律パラメータ(第1の韻律パラメータ)301及び各々の基準話者の正規化処理された韻律パラメータ(正規化処理された第2の韻律パラメータ)401に内挿処理を行って、第3の韻律パラメータを生成し、第3の韻律パラメータと上記音韻パラメータとからなる合成パラメータ501を出力する。韻律パラメータ内挿部は、合成パラメータ内挿部5の一部である。
ここで、韻律パラメータの内挿処理とは、例えば、複数の韻律パラメータ間で加重平均などの処理を行うことによって、それら韻律パラメータの中間的な韻律パラメータを生成する処理である。ただし、ここで使用する語句「内挿処理」は、重みが正のみの場合だけでなく、負の重みがある場合(いわゆる、外挿処理)をも含む。負の重みがある場合、生成された韻律パラメータは、いずれかの話者の韻律パラメータの特徴をより強調したようなものとなることも有り得る。なお、以下の説明において、負の重みがある場合の内挿処理を、重みが正のみの場合の内挿処理と区別して説明するために、外挿処理という語句を使用することがある。
また、内挿処理は、全種類の韻律パラメータに対して行っても良いし、一部のパラメータ(例えば、F0パターンのみ)に対して行っても良い。内挿処理しない韻律パラメータについては、例えば、対象話者の韻律パラメータをそのまま採用しても良い。
また、内挿処理する全種類の韻律パラメータについて、正規化処理をも行うようにしても良いし、内挿処理する韻律パラメータの一部についてのみ正規化処理をも行うようにしても良い。
また、韻律パラメータの種類にかかわらずに共通に、内挿の際の重みを指定するようにしても良い。例えば、F0パターンと音韻継続時間長とで、内挿の際の重みを同一としても良い。あるいは、各種類の韻律パラメータごとに内挿の際の重みを指定するようにしても良い。例えば、F0パターンと音韻継続時間長とでは、内挿の際の重みが異なるようにしても良い。
なお、例えば、重み情報は、一文にわたって一定であっても良い。或いは、重み情報が文中で変化するようにしても良い。
音声合成部6は、合成パラメータ501により指定された音韻情報及び韻律情報に従って、合成音声を生成する。
次に、図3を参照しながら、本構成例の動作例について説明する。
ここでは、韻律パラメータの具体例としてF0パターンを用いるが、前述のようにこれに制限されるものではない。
まず、テキスト解析部1が、言語情報101を生成する(ステップS1)。
次に、合成パラメータ生成部3が、言語情報101に基づいて、対象話者の韻律制御辞書及び一つ以上の基準話者の韻律制御辞書を参照して、各話者の合成パラメータをそれぞれ生成する(ステップS2)。
なお、F0パターンを制御する辞書(F0パターン制御辞書)は、韻律制御辞書内に記憶されている。韻律制御辞書の構成としては、例えば、アクセント句単位でF0の代表パターンが記憶されていて、生成された言語情報101に基づいて、F0の代表パターンを選択する構成が考えられる。
次に、正規化パラメータ生成部7が、各基準話者の韻律パラメータごとに、正規化パラメータ701を動的に生成する(ステップS3)。
次に、第1の正規化部4が、正規化パラメータ701を用いて、各基準話者の韻律パラメータ302をそれぞれ正規化処理する(ステップS4)。
ここで、正規化パラメータ生成及び正規化処理の具体例について説明する。
正規化処理としては、例えば、F0パターンの平均値を用いる方法がある。例えば、基準話者のF0パターンの平均値を基準として、対象話者のF0パターンの平均値との差分(或いは、例えば、該差分に所定の閾値を加算した値、或いは、該差分に所定の閾値を乗算した値、など)を、正規化パラメータとすることが考えられる。例えば、図4において、41は対象話者のF0パターンの軌跡、42は基準話者のF0パターンの軌跡、43は対象話者のF0パターンの平均、44は基準話者のF0パターンの平均をそれぞれ表すものとすると、正規化パラメータは、例えば、差分d(=対象話者のF0パターンの平均43−基準話者のF0パターンの平均44)である。この場合、基準話者のF0パターンに、差分dを加算することによって、正規化処理された基準話者のF0パターンを生成する。これによって、対象話者のF0パターンの平均43と基準話者のF0パターンの平均44とを、一致させることができる。
また、例えば、正規化パラメータを、差分d+閾値Threとする場合には、基準話者のF0パターンに、差分d+閾値Threを加算することによって、正規化処理された基準話者のF0パターンを生成する。これによって、対象話者のF0パターンの平均と基準話者のF0パターンの平均とを、閾値Threの差まで近付けることができる。図4中の45は、対象話者のF0パターンの平均43に閾値Threを加算したレベルを示し、46は正規化処理された基準話者のF0パターンを示す。
例えば、対象話者が男性であり、基準話者が女性の場合に、女性話者のF0パターンの平均が、男性話者のF0パターンの平均に一致するように(又は、近付くように)、正規化される。これによって、対象話者らしさを保つことができる。
他の正規化処理としては、例えば、F0パターンのダイナミックレンジを用いる方法がある。例えば、上記の平均値をダイナミックレンジに変え、上記の差分を比率に変えて処理する方法がある。例えば、図5において、51は対象話者のF0パターンの軌跡、52は基準話者のF0パターンの軌跡、53は対象話者のF0パターンのダイナミックレンジ、54は基準話者のF0パターンのダイナミックレンジをそれぞれ表すものとする。この場合、まず、対象話者のF0パターンの最大値と最小値からダイナミックレンジ53を算出するとともに、基準話者のF0パターンの最大値と最小値からダイナミックレンジ54を算出する。次に、算出された基準話者のダイナミックレンジ54を基準として、対象話者のダイナミックレンジ53との比率αを計算して、正規化パラメータを求める。そして、基準話者のF0パターン51に比率αを乗算することによって、正規化処理された基準話者のF0パターンを生成する。これによって、正規化処理された基準話者のF0パターンのダイナミックレンジと対象話者のF0パターンのダイナミックレンジとを一致させることができる。図5中の55は、正規化処理された対象話者のF0パターンのダイナミックレンジを示し、56は正規化処理された基準話者のF0パターンを示す。
なお、平均値を用いる場合と同様に、上記の比率を更に調整しても良い。例えば、上記の比率に対して更に所定の閾値を加算又は乗算することによって、正規化パラメータを求めても良い。
また、F0パターンの平均値とダイナミックレンジの両方を用いて正規化処理を行っても良い。
これらの他にも種々の正規化処理方法が可能である。
次に、合成パラメータ内挿部5が、対象話者の韻律パラメータ301と各々の基準話者の正規化処理された韻律パラメータ401とを、任意の重み情報901に基づいて、内挿処理する(ステップS5)。
なお、重みは、各々の合成パラメータ(各々の話者)に対応して一つずつ設定される。重みの指定方法には、様々な方法を使用することができ、特に制限はない。個々の重みの値をそれぞれ入力するようにしても良いし、調整バーなどのグラフィカルユーザインタフェース(GUI)を利用しても良い。
図6に、基準話者が1人の場合の重み選択用GUIの一例を示す。図6の例において、61が調整バーである。この調整バー61を任意の位置に移動させることにより、対象話者と基準話者との内挿比を任意に変更することが可能である(左端が対象話者に対応し、右端が基準話者に対応する)。なお、図6の例において、例えば、対象話者を62に位置付け、基準話者を63に位置付けることによって、外挿比を指定することも可能である。
基準話者が2人の場合にも、GUIが利用可能である。この場合、例えば、GUI画面上で、三角形の各頂点に対応付けて対象話者と第1の基準話者と第2の基準話者の画像を表示し、ユーザがポインタで三角形の内部又は外部の任意の位置を指し示し、各三角形の頂点の位置とポインタの位置との関係によって、重みを特定することができる。
ここで、基準話者が1人の場合を例にとって、韻律パラメータの内挿について説明する。前述のように、ここでの内挿は、重みが正のみである場合と、負の重みがある場合の両方を含む。
図7は、正の重みによる内挿を示している。ここで、tgtは対象話者を示し、stdは基準話者を示し、intは、対象話者の重みがm、基準話者の重みnの場合の内挿点を示す。ここで、m≧0、n≧0である。
図8は、いわゆる外挿の様子を示している。ここで、extは、対象話者の重みがm、基準話者の重みnの場合の外挿を示す。ここで、m≧0、n≦0である。
なお、図8は、基準話者が強調される外挿であるが、対象話者が強調される外挿点も可能である。その場合には、m≦0、n≧0になる。
図9に、基準話者が1人の場合の韻律パラメータの内挿の例を示す。図9において、91が対象話者のF0パターンであり、92が基準話者のF0パターンであり、93がそれらにより内挿処理されたF0パターンである。図9のように対象話者と基準話者をm:nで内挿する場合は、次の式(1)で表現することができる。
Figure 0005726822
図10に、基準話者が1人の場合の韻律パラメータの外挿の例を示す。図10において、101が対象話者のF0パターンであり、102が基準話者のF0パターンであり、103がそれらにより外挿されたF0パターンである。図10のように対象話者と基準話者をm:nで外挿する場合は、次の式(2)で表現することができる。
Figure 0005726822
もう一つの外挿は、次の式(3)で表現することができる。
Figure 0005726822
なお、基準話者がn人の場合の内挿(外挿も含む)は、例えば、次の式(4)で表現することができる。ここで、stdiは、第iの基準話者を示し、w0は対象話者の重みを示し、wiは、第iの基準話者の重みを示す。
Figure 0005726822
以上の他にも、様々な内挿(外挿を含む)方法が可能である。
なお、重み情報901は、ユーザが入力する形態、他のプログラム(プロセス)から与える形態、テキストの所定の単位(例えば、文単位、文の構成要素単位)ごとに付与する形態、テキスト解析部1がテキストを解析することによって生成する形態など、種々の形態が可能である。
最後に、音声合成部6が、合成パラメータ501により指定された音韻情報及び韻律情報に従って、合成音声を生成する(ステップS6)。
以上説明したように、本実施形態によれば、韻律パラメータの内挿処理の前に、韻律パラメータの正規化処理を行うので、多様な或いは対象話者の好みに合った韻律的特徴をもつ合成音を生成することができ且つ対象話者らしさを保つこともできる。
(第1の実施形態の第2の構成例)
次に、本実施形態の第2の構成例について説明する。
ここでは、第1の実施形態の第1の構成例と相違する点を中心に説明する。
図11に、本構成例の音声合成装置のブロック図を示す。
第1の構成例(図2)との相違は、正規化パラメータ生成部7にある。
本構成例の動作例は、基本的には図3と同様である。ただし、本構成例では、ステップS3の正規化パラメータ生成は、ステップS2の前又はステップS1の前に行っても良い。また、図3のフローチャートの最初の実行時に(或いは、他の処理において)、一旦、正規化パラメータが生成されたならば、これを正規化パラメータ記憶部(図示せず)に記憶しておいて、その後の図3のフローチャートの実行時には、ステップS3の正規化パラメータ生成を省略するようにしても良い。
本構成例の正規化パラメータ生成部7は、対象話者の韻律制御辞書と1又は複数の基準話者の韻律制御辞書から、それぞれに対応する正規化パラメータを静的に生成する。
具体的には、例えば、対象話者の韻律制御辞書に格納されている全ての代表のF0パターンの平均値を算出するとともに、基準話者の韻律制御辞書に格納されている全ての代表のF0パターンの平均値を算出する。そして、それら平均値に基づいて、第1の構成例と同様に、正規化パラメータを求める。
例えば、第1の構成例で述べたように、それら平均値の差分を算出し、更に必要に応じて所定の閾値を加算又は乗算することによって、正規化パラメータを算出する。或いは、例えば、基準話者の平均値を基準として、対象話者の平均値との比率を算出して、所定の閾値を加算又は乗算することによって、正規化パラメータとすることも考えられる。また、第1の構成例と同様に、平均値及び差分の代わりにダイナミックレンジ及び比率を用いることも考えられる。
(第1の実施形態の第3の構成例)
次に、本実施形態の第3の構成例について説明する。
ここでは、本実施形態の第1及び第2の構成例と相違する点を中心に説明する。
第1及び第2の構成例では、対象話者ごとに、対象話者の韻律パラメータを基準として、正規化パラメータを求め、該正規化パラメータに基づいて、韻律パラメータを正規化処理した。その代わりに、対象話者の韻律パラメータ以外の基準を用いても良い。例えば、対象話者のF0パターンの平均値の代わりに、指定されたF0パターンの平均値を基準にしても良い。
この場合には、対象話者についても、基準話者と同様に、指定されたF0パターンの平均値に基づいて、正規化パラメータを求め、該正規化パラメータに基づいて、韻律パラメータを正規化処理する。
(第1の実施形態の第4の構成例)
次に、本実施形態の第3の構成例について説明する。
ここでは、本実施形態の第1〜第3の構成例と相違する点を中心に説明する。
図1及び図11の構成では、正規化パラメータ生成部7を備えているが、外部から正規化パラメータを取得するようにすることも可能である。この場合には、正規化パラメータ生成部7は不要になり、図1と同様の構成で良い。
(第2の実施形態)
以下、第2の実施形態について説明する。
第1の実施形態は、正規化処理に続いて内挿処理を行うものであったが、第2の実施形態は、内挿処理に続いて正規化処理を行うものである。
本実施形態では、第1の実施形態と相違する点を中心に説明する。
図12に、第2の実施形態の音声合成装置のブロック図の一例を示す。
図12に示されるように、本実施形態の音声合成装置は、テキスト解析部1、韻律制御辞書記憶部2、合成パラメータ生成部3、合成パラメータ内挿部5、内挿処理の後に正規処理を行う正規化部(以下、第2の正規化部と記述する)8、音声合成部6を備える。
本実施形態も、韻律パラメータの具体例としてF0パターンを用いて説明する。
第1の実施形態との相違点は、本実施形態の合成パラメータ内挿部5及び第2の正規化部8である。合成パラメータ内挿部5は、正規化処理の前に、対象話者の韻律制御辞書から生成された韻律パラメータ301と各基準話者の韻律制御辞書から生成された韻律パラメータ302とを任意の重み情報901に基づいて、内挿処理する。第2の正規化部8は、内挿処理された韻律パラメータを所定の正規化パラメータによって正規化処理する。
本実施形態では正規化パラメータの生成等について様々な構成例が有り得る。以下、幾つかの構成例について順に説明する。
(第2の実施形態の第1の構成例)
まず、本実施形態の第1の構成例について説明する。
図13に、本構成例の音声合成装置のブロック図を示す。
図13に示されるように、本構成例の音声合成装置は、テキスト解析部1、韻律制御辞書記憶部2、合成パラメータ生成部3、合成パラメータ内挿部5、正規化パラメータ生成部7、第2の正規化部8、音声合成部6を備えている。
以下、各部について説明する。
テキスト解析部1及び言語情報101については、第1の実施形態と同様である。
韻律制御辞書記憶部2、対象話者の韻律制御辞書及び基準話者の韻律制御辞書については、第1の実施形態と同様である。
合成パラメータ生成部3は、言語情報101に基づいて、それぞれの韻律制御辞書を参照して、対象話者の合成パラメータ(音韻パラメータ及び第1の韻律パラメータ)と、各基準話者の合成パラメータ(音韻パラメータ及び第2の韻律パラメータ)とをそれぞれ生成する。韻律パラメータ生成部は、合成パラメータ生成部3の一部である。
合成パラメータ内挿部5は、任意の重み情報901に基づいて、対象話者の韻律パラメータ301及び各々の基準話者の韻律パラメータ302に内挿処理を行って、第3の韻律パラメータを生成し、第3の韻律パラメータと上記音韻パラメータとからなる合成パラメータ502を出力する。韻律パラメータ内挿部は、合成パラメータ内挿部5の一部である。
正規化パラメータ生成部7は、第1の実施形態で説明したような方法により、内挿処理された韻律パラメータ502を基準として、対象話者の韻律パラメータ301から、正規化パラメータ702を生成する。
第2の正規化部8は、第1の実施形態で説明したような方法により、内挿処理された韻律パラメータ502に対して、正規化パラメータ702に基づく正規化処理を行い、正規化処理された第3の韻律パラメータと上記音韻パラメータとからなる合成パラメータ801を出力する。
音声合成部6は、合成パラメータ801により指定された音韻情報及び韻律情報に従って、合成音声を生成する。
次に、図14を参照しながら、本構成例の動作例について説明する。
ここでは、韻律パラメータの具体例としてF0パターンを用いるが、前述のようにこれに制限されるものではない。
まず、テキスト解析部1が、言語情報101を生成する(ステップS11)。
次に、合成パラメータ生成部3が、言語情報101に基づいて、対象話者の韻律制御辞書及び一つ以上の基準話者の韻律制御辞書を参照して、各話者の合成パラメータをそれぞれ生成する(ステップS12)。
次に、合成パラメータ内挿部5が、対象話者の韻律パラメータ301と各々の基準話者の韻律パラメータ302とを、任意の重み情報901に基づいて、内挿処理する(ステップS13)。
次に、正規化パラメータ生成部7が、内挿処理された韻律パラメータ502について、正規化パラメータ702を動的に生成する(ステップS14)。例えば、第1の実施形態で説明した基準話者が1人の場合の方法において、基準話者の韻律パラメータ302を内挿処理された韻律パラメータ502に置き換えればよい。
次に、第2の正規化部8が、正規化パラメータ702を用いて、内挿処理された韻律パラメータ502を正規化処理する(ステップS15)。例えば、第1の実施形態で説明した基準話者が1人の場合の方法において、基準話者の韻律パラメータ302を内挿処理された韻律パラメータ502に置き換えればよい。
最後に、音声合成部6が、合成パラメータ801で指定された音韻情報及び韻律情報に従って、合成音声を生成する(ステップS16)。
以上説明したように、本実施形態によれば、韻律パラメータの内挿処理の後で、韻律パラメータの正規化処理を行うので、多様な或いは対象話者の好みに合った韻律的特徴をもつ合成音を生成することができ且つ対象話者らしさを保つこともできる。
(第2の実施形態の第2の構成例)
次に、本実施形態の第2の構成例について説明する。
ここでは、第2の実施形態の第1の構成例と相違する点を中心に説明する。
図15に、本構成例の音声合成装置のブロック図を示す。
第1の構成例(図13)との相違は、正規化パラメータ生成部7にある。
本構成例の動作例は、基本的には図14と同様である。ただし、本構成例では、ステップS14の正規化パラメータ生成は、ステップS13の前又はステップS12の前又はステップS11の前に行っても良い。また、図14のフローチャートの最初の実行時に(或いは、他の処理において)、一旦、正規化パラメータが生成されたならば、これを正規化パラメータ記憶部(図示せず)に記憶しておいて、その後の図14のフローチャートの実行時には、ステップS3の正規化パラメータ生成を省略するようにしても良い。
本構成例の正規化パラメータ生成部7は、第1の実施形態の第2の構成例と同様に、対象話者の韻律制御辞書と1又は複数の基準話者の韻律制御辞書から、正規化パラメータを静的に生成する。具体的には、例えば、対象話者の韻律制御辞書に格納されている全ての代表のF0パターンの平均値を算出するとともに、全話者の韻律制御辞書に格納されている全ての代表のF0パターンの平均値(或いは、予め仮定された重み付けによる加重平均値)を算出する。そして、それら平均値に基づいて、第1の構成例と同様に、正規化パラメータを求める。また、例えば、ダイナミックレンジを用いても良い。
(第2の実施形態の第3の構成例)
次に、本実施形態の第3の構成例について説明する。
ここでは、本実施形態の第1及び第2の構成例と相違する点を中心に説明する。
第1及び第2の構成例では、対象話者の韻律パラメータを基準として、正規化パラメータを求め、該正規化パラメータに基づいて、韻律パラメータを正規化処理した。その代わりに、対象話者の韻律パラメータ以外の基準を用いても良い。例えば、対象話者のF0パターンの平均値の代わりに、指定されたF0パターンの平均値を基準にしても良い。
(第2の実施形態の第4の構成例)
次に、本実施形態の第3の構成例について説明する。
ここでは、本実施形態の第1〜第3の構成例と相違する点を中心に説明する。
図13及び図15の構成では、正規化パラメータ生成部7を備えているが、外部から正規化パラメータを取得するようにすることも可能である。この場合には、正規化パラメータ生成部7は不要になり、図12と同様の構成で良い。
なお、本実施形態では、代表パターンに基づくモデルを想定して説明したが、例えば、隠れマルコフモデルに基づく音声合成に代表されるソースフィルタ型音声合成において、声道モデルなど、他のモデルを使用することも可能である。この場合には、韻律制御辞書、合成パラメータ生成、正規化パラメータ生成などを適宜修正すれば良い。
例えば、第1の実施形態において、正規化パラメータ生成部は、対象話者の韻律制御辞書に対応する所定の韻律パラメータ統計量と、基準話者の韻律制御辞書に対応する所定の韻律パラメータ統計量とに基づいて、正規化パラメータを生成するようにしても良い。
また、例えば、第2の実施形態において、正規化パラメータ生成部は、対象話者の韻律制御辞書に対応する所定の韻律パラメータ統計量と、基準話者の韻律制御辞書に対応する所定の韻律パラメータ統計量とに基づいて(或いは、更に、重み情報に基づいて)、第2の正規化パラメータを生成するようにしても良い。
以上説明したように、実施形態によれば、韻律パラメータの内挿処理の前又は後に、韻律パラメータの正規化処理を行うので、多様な韻律的特徴をもつ合成音を生成することができ且つ対象話者らしさを保つこともできる。
また、上述の実施形態の中で示した処理手順に示された指示は、ソフトウェアであるプログラムに基づいて実行されることが可能である。汎用の計算機システムが、このプログラムを予め記憶しておき、このプログラムを読み込むことにより、上述した実施形態の音声合成装置による効果と同様な効果を得ることも可能である。上述の実施形態で記述された指示は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク、ハードディスクなど)、光ディスク(CD−ROM、CD−R、CD−RW、DVD−ROM、DVD±R、DVD±RWなど)、半導体メモリ、またはこれに類する記録媒体に記録される。コンピュータまたは組み込みシステムが読み取り可能な記録媒体であれば、その記憶形式は何れの形態であってもよい。コンピュータは、この記録媒体からプログラムを読み込み、このプログラムに基づいてプログラムに記述されている指示をCPUで実行させれば、上述した実施形態の音声合成装置と同様な動作を実現することができる。もちろん、コンピュータがプログラムを取得する場合または読み込む場合はネットワークを通じて取得または読み込んでもよい。
また、記録媒体からコンピュータや組み込みシステムにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワーク等のMW(ミドルウェア)等が本実施形態を実現するための各処理の一部を実行してもよい。
さらに、本実施形態における記録媒体は、コンピュータあるいは組み込みシステムと独立した媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶または一時記憶した記録媒体も含まれる。
また、記録媒体は1つに限られず、複数の媒体から本実施形態における処理が実行される場合も、本実施形態における記録媒体に含まれ、媒体の構成は何れの構成であってもよい。
なお、本実施形態におけるコンピュータまたは組み込みシステムは、記録媒体に記憶されたプログラムに基づき、本実施形態における各処理を実行するためのものであって、パソコン、マイコン等の1つからなる装置、複数の装置がネットワーク接続されたシステム等の何れの構成であってもよい。
また、本実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本実施形態における機能を実現することが可能な機器、装置を総称している。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1…テキスト解析部、2…韻律制御辞書記憶部、3…合成パラメータ生成部、4…第1の正規化部、5…合成パラメータ内挿部、6…音声合成部、7…正規化パラメータ生成部、8…第2の正規化部。

Claims (13)

  1. 入力されたテキストを解析して、言語情報を出力するテキスト解析部と、
    対象話者の韻律制御辞書及び1又は複数の基準話者の韻律制御辞書を記憶する辞書記憶部と、
    前記言語情報に基づいて、前記対象話者の韻律制御辞書を用いて第1の韻律パラメータを生成するとともに、前記1又は複数の基準話者の韻律制御辞書をそれぞれ用いて1又は複数の第2の韻律パラメータを生成する韻律パラメータ生成部と、
    正規化パラメータに基づいて、前記1又は複数の第2の韻律パラメータをそれぞれ正規化処理する正規化部と、
    重み情報に基づいて、前記第1の韻律パラメータ及び正規化処理された前記1又は複数の第2の韻律パラメータを内挿処理して、第3の韻律パラメータを生成する韻律パラメータ内挿部と、
    前記第3の韻律パラメータに従って、合成音声を生成する音声合成部とを備えたことを特徴とする音声合成装置。
  2. 前記第1の韻律パラメータ及び前記1又は複数の第2の韻律パラメータに基づいて、前記正規化パラメータを生成する正規化パラメータ生成部を更に備えたことを特徴とする請求項1に記載の音声合成装置。
  3. 前記対象話者の韻律制御辞書に対応する所定の韻律パラメータ統計量及び前記1又は複数の基準話者の韻律制御辞書に対応する所定の韻律パラメータ統計量に基づいて、前記正規化パラメータを生成する正規化パラメータ生成部を更に備えたことを特徴とする請求項1に記載の音声合成装置。
  4. 前記正規化パラメータは、予め設定されたパラメータであることを特徴とする請求項1に記載の音声合成装置。
  5. 前記正規化部は、前記第1の韻律パラメータをも正規化処理するものであり、
    前記韻律パラメータ内挿部は、正規化処理された前記第1の韻律パラメータ及び正規化処理された前記1又は複数の第2の韻律パラメータを内挿処理するものである請求項1に記載の音声合成装置。
  6. 入力されたテキストを解析して、言語情報を出力するテキスト解析部と、
    対象話者の韻律制御辞書及び1又は複数の基準話者の韻律制御辞書を記憶する辞書記憶部と、
    前記言語情報に基づいて、前記対象話者の韻律制御辞書を用いて第1の韻律パラメータを生成するとともに、前記1又は複数の基準話者の韻律制御辞書をそれぞれ用いて1又は複数の第2の韻律パラメータを生成する韻律パラメータ生成部と、
    重み情報に基づいて、前記第1の韻律パラメータ及び前記1又は複数の第2の韻律パラメータを内挿処理して、第3の韻律パラメータを生成する韻律パラメータ内挿部と、
    正規化パラメータに基づいて、前記第3の韻律パラメータを正規化処理する正規化部と、
    正規化処理された前記第3の韻律パラメータに従って、合成音声を生成する音声合成部とを備えたことを特徴とする音声合成装置。
  7. 前記第1の韻律パラメータ及び生成された前記第3の韻律パラメータに基づいて、前記正規化パラメータを生成する正規化パラメータ生成部を更に備えたことを特徴とする請求項6に記載の音声合成装置。
  8. 前記対象話者の韻律制御辞書に対応する所定の韻律パラメータ統計量及び前記1又は複数の基準話者の韻律制御辞書に対応する所定の韻律パラメータ統計量並びに前記重み情報に基づいて、前記正規化パラメータを生成する正規化パラメータ生成部を更に備えたことを特徴とする請求項6に記載の音声合成装置。
  9. 前記正規化パラメータは、予め設定されたパラメータであることを特徴とする請求項6に記載の音声合成装置。
  10. 音声合成装置の音声合成方法において、
    テキスト解析部が、入力されたテキストを解析して、言語情報を出力するステップと、
    辞書記憶部が、対象話者の韻律制御辞書及び1又は複数の基準話者の韻律制御辞書を記憶するステップと、
    韻律パラメータ生成部が、前記言語情報に基づいて、前記対象話者の韻律制御辞書を用いて第1の韻律パラメータを生成するとともに、前記1又は複数の基準話者の韻律制御辞書をそれぞれ用いて1又は複数の第2の韻律パラメータを生成するステップと、
    正規化部が、正規化パラメータに基づいて、前記1又は複数の第2の韻律パラメータをそれぞれ正規化処理するステップと、
    韻律パラメータ内挿部が、重み情報に基づいて、前記第1の韻律パラメータ及び正規化処理された前記1又は複数の第2の韻律パラメータを内挿処理して、第3の韻律パラメータを生成するステップと、
    音声合成部が、前記第3の韻律パラメータに従って、合成音声を生成するステップとを有することを特徴とする音声合成方法。
  11. 音声合成装置の音声合成方法において、
    テキスト解析部が、入力されたテキストを解析して、言語情報を出力するステップと、
    辞書記憶部が、対象話者の韻律制御辞書及び1又は複数の基準話者の韻律制御辞書を記憶するステップと、
    韻律パラメータ生成部が、前記言語情報に基づいて、前記対象話者の韻律制御辞書を用いて第1の韻律パラメータを生成するとともに、前記1又は複数の基準話者の韻律制御辞書をそれぞれ用いて1又は複数の第2の韻律パラメータを生成するステップと、
    韻律パラメータ内挿部が、重み情報に基づいて、前記第1の韻律パラメータ及び前記1又は複数の第2の韻律パラメータを内挿処理して、第3の韻律パラメータを生成するステップと、
    正規化部が、正規化パラメータに基づいて、前記第3の韻律パラメータを正規化処理するステップと、
    音声合成部が、正規化処理された前記第3の韻律パラメータに従って、合成音声を生成するステップとを有することを特徴とする音声合成方法。
  12. コンピュータを音声合成装置として機能させるためのプログラムにおいて、
    入力されたテキストを解析して、言語情報を出力するテキスト解析部と、
    対象話者の韻律制御辞書及び1又は複数の基準話者の韻律制御辞書を記憶する辞書記憶部と、
    前記言語情報に基づいて、前記対象話者の韻律制御辞書を用いて第1の韻律パラメータを生成するとともに、前記1又は複数の基準話者の韻律制御辞書をそれぞれ用いて1又は複数の第2の韻律パラメータを生成する韻律パラメータ生成部と、
    正規化パラメータに基づいて、前記1又は複数の第2の韻律パラメータをそれぞれ正規化処理する正規化部と、
    重み情報に基づいて、前記第1の韻律パラメータ及び正規化処理された前記1又は複数の第2の韻律パラメータを内挿処理して、第3の韻律パラメータを生成する韻律パラメータ内挿部と、
    前記第3の韻律パラメータに従って、合成音声を生成する音声合成部とをコンピュータに機能させるためのプログラム。
  13. コンピュータを音声合成装置として機能させるためのプログラムにおいて、
    入力されたテキストを解析して、言語情報を出力するテキスト解析部と、
    対象話者の韻律制御辞書及び1又は複数の基準話者の韻律制御辞書を記憶する辞書記憶部と、
    前記言語情報に基づいて、前記対象話者の韻律制御辞書を用いて第1の韻律パラメータを生成するとともに、前記1又は複数の基準話者の韻律制御辞書をそれぞれ用いて1又は複数の第2の韻律パラメータを生成する韻律パラメータ生成部と、
    重み情報に基づいて、前記第1の韻律パラメータ及び前記1又は複数の第2の韻律パラメータを内挿処理して、第3の韻律パラメータを生成する韻律パラメータ内挿部と、
    正規化パラメータに基づいて、前記第3の韻律パラメータを正規化処理する正規化部と、
    正規化処理された前記第3の韻律パラメータに従って、合成音声を生成する音声合成部とをコンピュータに機能させるためのプログラム。
JP2012180446A 2012-08-16 2012-08-16 音声合成装置、方法及びプログラム Active JP5726822B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012180446A JP5726822B2 (ja) 2012-08-16 2012-08-16 音声合成装置、方法及びプログラム
CN201310357397.5A CN103594082A (zh) 2012-08-16 2013-08-16 声音合成装置、方法以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012180446A JP5726822B2 (ja) 2012-08-16 2012-08-16 音声合成装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2014038208A JP2014038208A (ja) 2014-02-27
JP5726822B2 true JP5726822B2 (ja) 2015-06-03

Family

ID=50084189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012180446A Active JP5726822B2 (ja) 2012-08-16 2012-08-16 音声合成装置、方法及びプログラム

Country Status (2)

Country Link
JP (1) JP5726822B2 (ja)
CN (1) CN103594082A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9472182B2 (en) * 2014-02-26 2016-10-18 Microsoft Technology Licensing, Llc Voice font speaker and prosody interpolation
WO2017046887A1 (ja) * 2015-09-16 2017-03-23 株式会社東芝 音声合成装置、音声合成方法、音声合成プログラム、音声合成モデル学習装置、音声合成モデル学習方法及び音声合成モデル学習プログラム
CN111128116B (zh) * 2019-12-20 2021-07-23 珠海格力电器股份有限公司 一种语音处理方法、装置、计算设备及存储介质
CN112509552B (zh) * 2020-11-27 2023-09-26 北京百度网讯科技有限公司 语音合成方法、装置、电子设备和存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2951514B2 (ja) * 1993-10-04 1999-09-20 株式会社エイ・ティ・アール音声翻訳通信研究所 声質制御型音声合成装置
JPH09244693A (ja) * 1996-03-07 1997-09-19 N T T Data Tsushin Kk 音声合成方法及び装置
JP3361066B2 (ja) * 1998-11-30 2003-01-07 松下電器産業株式会社 音声合成方法および装置
JP3513071B2 (ja) * 2000-02-29 2004-03-31 株式会社東芝 音声合成方法及び音声合成装置
JP2008545995A (ja) * 2005-03-28 2008-12-18 レサック テクノロジーズ、インコーポレーテッド ハイブリッド音声合成装置、方法および用途
JP4246790B2 (ja) * 2006-06-05 2009-04-02 パナソニック株式会社 音声合成装置
JP4455610B2 (ja) * 2007-03-28 2010-04-21 株式会社東芝 韻律パタン生成装置、音声合成装置、プログラムおよび韻律パタン生成方法
JPWO2010050103A1 (ja) * 2008-10-28 2012-03-29 日本電気株式会社 音声合成装置
JP5275102B2 (ja) * 2009-03-25 2013-08-28 株式会社東芝 音声合成装置及び音声合成方法

Also Published As

Publication number Publication date
JP2014038208A (ja) 2014-02-27
CN103594082A (zh) 2014-02-19

Similar Documents

Publication Publication Date Title
US20140052447A1 (en) Speech synthesis apparatus, method, and computer-readable medium
JP4738057B2 (ja) ピッチパターン生成方法及びその装置
JP5631915B2 (ja) 音声合成装置、音声合成方法、音声合成プログラムならびに学習装置
JP6802958B2 (ja) 音声合成システム、音声合成プログラムおよび音声合成方法
JP6483578B2 (ja) 音声合成装置、音声合成方法およびプログラム
JP2005164749A (ja) 音声合成方法、音声合成装置および音声合成プログラム
JP2007249212A (ja) テキスト音声合成のための方法、コンピュータプログラム及びプロセッサ
US9147392B2 (en) Speech synthesis device and speech synthesis method
JP2008242317A (ja) 韻律パタン生成装置、音声合成装置、プログラムおよび韻律パタン生成方法
JP2010230699A (ja) 音声合成装置、プログラム、及び方法
JP2014038282A (ja) 韻律編集装置、方法およびプログラム
JP5726822B2 (ja) 音声合成装置、方法及びプログラム
JP5807921B2 (ja) 定量的f0パターン生成装置及び方法、f0パターン生成のためのモデル学習装置、並びにコンピュータプログラム
JP2016151736A (ja) 音声加工装置、及びプログラム
JPWO2016103652A1 (ja) 音声処理装置、音声処理方法、およびプログラム
JP6330069B2 (ja) 統計的パラメトリック音声合成のためのマルチストリームスペクトル表現
JP6786065B2 (ja) 音声評定装置、音声評定方法、教師変化情報の生産方法、およびプログラム
WO2010050103A1 (ja) 音声合成装置
JP5930738B2 (ja) 音声合成装置及び音声合成方法
JP6433063B2 (ja) 音声加工装置、及びプログラム
JP5874639B2 (ja) 音声合成装置、音声合成方法及び音声合成プログラム
JP2001242882A (ja) 音声合成方法及び音声合成装置
JP6400526B2 (ja) 音声合成装置、その方法、およびプログラム
JP2009122381A (ja) 音声合成装置、音声合成方法およびそのプログラム
JP4841339B2 (ja) 韻律補正装置、音声合成装置、韻律補正方法、音声合成方法、韻律補正プログラム、および、音声合成プログラム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131219

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131226

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140109

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140624

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150401

R151 Written notification of patent or utility model registration

Ref document number: 5726822

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350