JP2003337592A - 音声合成方法及び音声合成装置及び音声合成プログラム - Google Patents

音声合成方法及び音声合成装置及び音声合成プログラム

Info

Publication number
JP2003337592A
JP2003337592A JP2002146162A JP2002146162A JP2003337592A JP 2003337592 A JP2003337592 A JP 2003337592A JP 2002146162 A JP2002146162 A JP 2002146162A JP 2002146162 A JP2002146162 A JP 2002146162A JP 2003337592 A JP2003337592 A JP 2003337592A
Authority
JP
Japan
Prior art keywords
parameter
voice
speech
emotion
designated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002146162A
Other languages
English (en)
Inventor
Ryutaro Tokuda
龍太郎 徳田
Takehiko Kagoshima
岳彦 籠嶋
Takeshi Hirabayashi
剛 平林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2002146162A priority Critical patent/JP2003337592A/ja
Publication of JP2003337592A publication Critical patent/JP2003337592A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】人の感情、発話スタイル、個性などの発話特性
の異なる様々な音声を柔軟にしかも容易に合成すること
ができる音声合成方法及び装置を提供する。 【解決手段】テキストを解析することによって得られる
言語情報を基に標準的な発話特性を有する音声の韻律的
な特徴を表した第1のパラメータを求めるとともに、言
語情報と指定された発話特性とを基に、指定された発話
特性に対応する韻律的な特徴を表すよう、第1のパラメ
ータを補正するための第2のパラメータを求め、音声の
韻律的な特徴を制御するための音声の単位としての韻律
制御単位毎に、少なくとも第1および第2のパラータを
重畳して、指定された発話特性に対応する韻律的な特徴
を表す第3のパラメータを生成し、この第3のパラメー
タを基に、指定された発話特性に対応する合成音声を生
成する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、人の感情や個性、
発話スタイルなどの発話特性の付与された合成音声の生
成方法および装置に関する。
【0002】
【従来の技術】任意の文章から人工的に音声信号を作り
出すことをテキスト音声合成という。このようなテキス
ト音声合成では、人間が文章を読み上げるような調子
(いわゆる朗読調)の音声を合成することが普通であっ
たが、近年、感情や発話スタイルの違いや、方言、なま
りなどの人の個性の違いなどを発話特性として付与した
合成音声を生成する方法が提案されている。
【0003】例えば、第1の従来技術として、特開20
01−242882号公報に記載された「音声合成方法
及び音声合成装置」では、複数の韻律制御辞書部を用い
て生成された韻律パラメータを、任意の重みで内挿処理
して韻律パラメータを生成し、その韻律パラメータを用
いて音声合成を行うことで、多種多様な韻律的特徴を持
つ合成音声を生成する方法が開示されている。
【0004】この第1の従来技術に類似するものとし
て、特開平10−11083号公報に記載されたテキス
ト音声変換装置もある。
【0005】また、第2の従来技術として、感情の付与
された音声を合成するための、特開平5−100692
号公報に記載された「音声合成装置」がある。この装置
は、予め種々の感情に対応する韻律パラメータのレベル
の組み合わせを記憶手段(音声制御パラメータ記憶部)
に記憶しておき、「明朗」、「落胆」、「怒り」等の感
情毎にこれら組み合わせを読み出し、レベル設定手段に
一括設定することで、個々のレベル設定の煩雑さを回避
して種々の発話スタイルを容易に実現しようとするもの
である。
【0006】また、第3の従来技術として、特開平7−
244496号公報に記載された「テキスト朗読装置」
がある。この装置は、予め感情毎の韻律パラメータ変更
情報と、操作対象韻律パラメータの変更限度情報を保持
しておき、音韻毎にパラメータ変更限度に従って韻律パ
ラメータを操作することで、必要以上の操作による合成
音声の品質劣化を防止しようとするものである。
【0007】
【発明が解決しようとする課題】第1の従来技術では、
例えば個人性を保ったまま、基準となる韻律パラメータ
に指定した発話特性を付与する場合、指定した発話特性
を持つ韻律制御辞書部は基準となる韻律制御辞書部と同
一人物のものを用意しなければならないので、この場合
に複数の人物の発話特性を制御するには人物毎に複数の
韻律制御辞書部を用意する必要があり、韻律制御辞書部
作成に手間がかかるという問題があった。
【0008】また、第2と第3の従来技術のように、基
準となる韻律パラメータに発話特性を付与するための発
話特性制御パラメータを、予め発話特性ごとに文中で一
定に設定しておく構成では、パラメータ変更情報の生成
に言語情報を用いることが出来ないので、文中の言語情
報によって変化する発話特性特有の韻律を表現できない
という問題があった。
【0009】そこで、本発明は、上記問題点に鑑みてな
されたものであり、人の感情や個性、発話スタイルなど
の発話特性の異なる様々な音声を柔軟にしかも容易に合
成することができる音声合成方法及び音声合成装置を提
供することを目的とする。
【0010】
【課題を解決するための手段】本発明は、入力されたテ
キストと指定された発話特性に対応する音声の韻律的な
特徴を表す韻律パラメータを生成して、指定された発話
特性に対応する合成音声を生成するものであって、前記
テキストを解析することによって得られる言語情報を基
に、標準的な発話特性を有する音声の韻律的な特徴を表
した第1のパラメータを求めるとともに、少なくとも前
記言語情報と前記指定された発話特性とを基に、当該指
定された発話特性に対応する韻律的な特徴を表すよう、
前記第1のパラメータを補正するための第2のパラメー
タを求め、音声の韻律的な特徴を制御するための音声の
単位としての韻律制御単位毎に、少なくとも前記第1お
よび第2のパラータを重畳して、前記指定された発話特
性に対応する韻律的な特徴を表す第3のパラメータを生
成し、この第3のパラメータを基に、前記指定された発
話特性に対応する合成音声を生成することを特徴とす
る。
【0011】本発明によれば、標準的な発話特性を有す
る音声の韻律的な特徴を表した第1のパラメータを人の
感情や個性、発話スタイルなどの発話特性の違いに応じ
て補正するための第2のパラメータを求めるための辞書
と、それを選択するための規則を作成・記憶しておくだ
けで、人の感情や個性、発話スタイルなどの発話特性の
違いに応じた様々な韻律的な特徴を表すパラメータ(上
記第3のパラメータ)を生成することができ、この第3
のパラメータを用いて、発話特性の異なる様々な音声を
柔軟にしかも容易に合成することができる。
【0012】
【発明の実施の形態】以下、本発明の実施形態について
図面を参照して説明する。
【0013】図1は、本実施形態に係る音声合成装置の
機能構成例を示したブロック図である。
【0014】図1に示す音声合成装置では、人の平静時
の発話特性を基準とし、それに対し、怒っているとき、
喜んでいるとき、悲しんでいるときなどの発話特性を
「感情」として、指定するようになっている。そして、
この指定された感情に対応する韻律的な特徴をもつ音声
を合成するようになっている。
【0015】図1に示した音声合成装置は、テキスト解
析部10、韻律パラメータ生成部12、感情制御パラメ
ータ生成部13、感情付き韻律パラメータ生成部17、
音声合成部19、韻律制御辞書部11、例えば、「怒
り」や「喜び」などの各種感情毎の複数(例えば、図1
では、3つ)の感情制御辞書部14a〜14c(以下、
これらを区別する必要がない場合(例えば共通点を説明
する場合)には、感情制御辞書部14と呼ぶことがあ
る)、音声素片辞書部18から構成されている。
【0016】韻律制御辞書部11、感情制御辞書部14
a〜14c、音声素片辞書部18は、例えば、ROMな
どの半導体メモリなどに上記各辞書を記憶させて構成さ
れたものである。
【0017】以下、図4に示す、テキストが入力されて
から当該テキストに対応する合成音声が生成されるまで
の処理の流れに沿って、上記各部について説明する。
【0018】ユーザは、テキストを入力するとともに、
所望の感情102と、例えば、1つの文に、所望の感情
を複数指定するときには、そのそれぞれに対する重み1
03とを入力する。
【0019】例えば、「この宝くじ当たっている、これ
で一生遊んで暮らせるよ」というテキスト対応の音声
に、「驚き」と「喜び」といった2つの感情をのせる場
合、図6に示すように、「驚き」と「喜び」という各感
情に対する重みの変化を入力するようにしてもよい。
【0020】テキスト解析部10は、入力されたテキス
ト101に対して、形態素解析や構文解析などを行い、
言語情報104を生成する(図4のステップS1)。言
語情報104は、例えば、図7に示すように、韻律制御
の単位となる例えばアクセント句毎の、テキストの読み
に対応する音声記号列や、アクセントの位置(アクセン
ト型)、品詞など、韻律パラメータの生成に必要な様々
な情報を含んでいる。なお、言語情報104には、さら
に、図8に示すような、各アクセント句を構成する各音
素について、その音素の前や後に存在する音素、アクセ
ント型なども含まれている。
【0021】テキスト解析部10で生成された言語情報
104は、韻律パラメータ生成部12と感情制御パラメ
ータ生成部13に送られる。
【0022】韻律パラメータ生成部12は、言語情報1
04に従って、韻律制御辞書部11を参照して基準韻律
パラメータ109を生成する(ステップS2)。
【0023】韻律パラメータは、音声の韻律的な特徴を
表した情報であって、例えば、ここでは、各音素の時間
的な長さを表した音韻継続時間長や、基本周波数(以下
ではF0と簡単に表記することもある)の時間経過に伴
う変化を表したパターン(基本周波数(F0)パター
ン)を例にとり説明する。
【0024】すなわち、韻律パラメータ生成部12で
は、感情の表れていない平静時の音声の韻律的な特徴を
表した基準韻律パラメータとして、上記音韻継続時間長
に対応する基準時間長と、上記F0パターンに対応する
基準パターンと、当該基準パターンの基本周波数の高さ
の平均値を表した基準オフセットとを生成する。
【0025】感情制御パラメータ生成部13は、各種感
情毎に設けられた複数の感情制御辞書部14のうち、指
定された感情102に対応する感情制御辞書部14を用
いて、当該指定された感情102に対応するよう、基準
韻律パラメータを補正するための感情制御パラメータを
生成する(ステップS3)。ここで生成される感情制御
パラメータは、上記韻律パラメータ生成部13で生成さ
れる基準韻律パラメータに対応して、入力されたテキス
トに対応する音声で指定された感情102を表現させる
ための音韻継続時間を生成することのできる、上記基準
時間長に重畳すべき差分時間と、入力されたテキストに
対応する音声で指定された感情102を表現させるため
のF0パターンを生成することのできる、上記基準パタ
ーンに重畳すべき差分パターンと、入力されたテキスト
に対応する音声で指定された感情102を表現させるた
めのF0パターンを生成することのできる、上記基準オ
フセットに重畳すべきオフセット差分とを生成する。
【0026】感情付き韻律パラメータ生成部17は、基
準韻律パラメータ109に表されている基準となる韻律
的な特徴に、感情制御パラメータ110に表されてい
る、指定された感情に対応する韻律的な特徴を重畳し
て、感情付き韻律パラメータ111を生成する(ステッ
プS4)。
【0027】音声合成部19は、感情付き韻律パラメー
タ111に従って、音声素片辞書部18を参照して、入
力されたテキスト101と、入力された感情102とに
応じた合成音声113を生成し、出力する(ステップS
5、ステップS6)。
【0028】図2は、図1の韻律パラメータ生成部12
と韻律制御辞書部11の構成例を示したもので、韻律パ
ラメータ生成部12は、基準パターン選択部41と、基
準オフセット生成部42と基準時間長生成部46とから
構成されており、韻律制御辞書部11は、代表パターン
辞書部43と代表パターン選択規則部44とオフセット
生成規則部45と音韻継続時間長生成規則部47とから
構成されている。
【0029】代表パターン辞書部43には、例えばアク
セント句単位の基準となる標準的な(典型的な)複数の
F0パターン(代表パターン)が記憶されている。
【0030】図9に複数個(ここでは、例えば5つ)の
アクセント句毎の代表パターンの具体例を示す。縦軸は
対数スケールの基本周波数を表している。また、横軸は
時間に相当するが、1音節の長さが「1」となるように
正規化されているため、1目盛りが1音節に対応する。
【0031】基準パターン選択部41は、言語情報10
4に含まれる各アクセント句毎に、代表パターン選択規
則部44に記憶されて規則に従って、代表パターン辞書
部43に格納されている代表パターンのうち、当該アク
セント句に最適な代表パターンを選択する。ここで選択
された各アクセント句毎の代表パターンを、ここでは、
基準パターン401と呼ぶ。
【0032】なお、例えば、図7、図8に示したような
言語情報から、例えばアクセント句に、当該アクセント
句に最適な代表パターンを選択するための規則は代表パ
ターン選択規則部44に記憶されている。この規則は、
何らかの公知の機械学習手法を用いて生成することがで
き、例えば、従来と同様、言語情報に含まれる各アクセ
ント句についての音韻記号列、アクセント型、品詞、係
り先などから最適な代表パターンに辿り着けるように構
築された決定木形式のものであってもよい。
【0033】基準オフセット生成部42は、オフセット
生成規則部45に記憶されている規則に従って、言語情
報104に含まれる各アクセント句毎に、当該アクセン
ト句に対応する基本周波数の平均的な高さを指定するオ
フセット値を求める。ここで求められた各アクセント句
毎のオフセット値を、ここでは、基準オフセット402
と呼ぶ。
【0034】なお、例えば、図7、図8に示したような
言語情報から、例えばアクセント句に、当該アクセント
句に対応する基本周波数の基準オフセットを求めるため
の規則はオフセット生成規則部45に記憶されている。
この規則は、何らかの公知の機械学習手法を用いて生成
することができ、例えば、従来と同様、言語情報に含ま
れる各アクセント句についての音韻記号列、アクセント
型、品詞、係り先などから最適なオフセット値(基準オ
フセット)に辿り着けるように構築された決定木形式の
ものであってもよい。あるいは、数量化I類などの数量
化手法を用いて、基準オフセットを求めてもよい。
【0035】基準時間長生成部46は、音韻継続時間長
生成規則部47に記憶されている規則に従って、言語情
報104に含まれる各アクセント句毎に、当該アクセン
ト句を構成する各音素の時間的な長さである音韻継続時
間長を求める。ここで求められた各音素毎の音韻継続時
間長を、ここでは基準時間長403と呼ぶ。
【0036】なお、図7、図8に示したような言語情報
から、例えばアクセント句に、当該アクセント句を構成
する各音素について基準時間長を求めるための規則は音
韻継続時間長生成規則部47に記憶されている。この規
則は、何らかの公知の機械学習手法を用いて生成するこ
とができ、例えば、従来と同様、言語情報に含まれる、
例えば、各アクセント句のモーラ数や品詞、当該アクセ
ント句を構成する各音素について、当該音素の前や後に
存在する音素や、アクセント型などから基準時間長に辿
り着けるように構築された決定木形式のものであっても
よい。あるいは、数量化I類などの数量化手法を用い
て、基準時間長を求めてもよい。
【0037】基準パターン選択部41で選択された各ア
クセント句毎の基準パターン401と、基準オフセット
生成部42で生成された各アクセント句毎の基準オフセ
ット402と、基準時間長生成部46で生成された各ア
クセント句毎の基準時間長403は、基準韻律パラメー
タ109として感情付き韻律パラメータ生成部17へ出
力される。
【0038】図3は、図1の感情制御パラメータ生成部
13と感情制御辞書部14の構成例を示したもので、感
情制御パラメータ生成部13は、差分パラメー生成部5
1とオフセット差分生成部52と差分時間長生成部56
とから構成されており、複数の感情のそれぞれに対応す
る感情制御辞書部14は、差分パターン辞書部53と差
分パターン選択規則部54とオフセット差分生成規則部
55と差分時間長生成規則部57とから構成されてい
る。
【0039】各感情に対応する差分パターン辞書部53
には、例えば、アクセント句単位の複数の差分パターン
が記憶されている。
【0040】図10に複数個(ここでは、例えば5つ)
のアクセント句毎の差分パターンの具体例を示す。縦軸
は対数スケールの基本周波数を表している。また、横軸
は時間に相当するが、1音節の長さが「1」となるよう
に正規化されているため、1目盛りが1音節に対応す
る。
【0041】差分パターン生成部51は、言語情報10
4に含まれる各アクセント句毎に、指定された感情10
2に対応する感情制御辞書部14の差分パターン選択規
則部54に記憶されて規則に従って、差分パターン辞書
部53に格納されている差分パターンのうち、当該アク
セント句に最適な差分パターンを選択する。ここで選択
された各アクセント句毎の差分パターンを、ここでは、
差分パターン501と呼ぶ。
【0042】なお、例えば、図7、図8に示したような
言語情報から、例えばアクセント句に、当該アクセント
句に最適な差分パターンを選択するための規則は差分パ
ターン選択規則部54に記憶されている。この規則は、
何らかの公知の機械学習手法を用いて生成することがで
き、例えば、従来と同様、言語情報に含まれる各アクセ
ント句についての音韻記号列、アクセント型、品詞、係
り先などから最適な差分パターンに辿り着けるように構
築された決定木形式のものであってもよい。
【0043】なお、所望の感情を複数指定するときに
は、それとともに、図6に示したように、各感情のそれ
ぞれに対する重み103も入力するようになっている。
重み103は、指定されたn個(nは複数)の感情のそ
れぞれに対応する、所定時間(例えば、音節や音素など
の単位長さ)毎の、n個の重み値(重み係数)の組で表
されている。
【0044】例えば、図6に示したように、「当たって
いる」という発声部分では、「驚き」と「喜び」の2つ
の感情に対する重みが音節毎に変化するように指定され
ていて、例えば、音節「る」では、「驚き」と「喜び」
に対し、重みの値として、全体が「1」に対し「0.
5」がそれぞれ指定されている。
【0045】このように、複数の感情が指定されている
ときは、アクセント句毎に、指定された複数の感情のそ
れぞれに対応する選択された差分パターンのそれぞれ
に、各感情に対し指定された重みの値でウエートをつけ
ることにより加重平均を求めて、それを当該アクセント
句の差分パターン501とする。
【0046】オフセット差分生成部52は、指定された
感情102に対応する感情制御辞書部14のオフセット
差分生成規則部55に記憶されている規則に従って、言
語情報104に含まれる各アクセント句毎に、当該アク
セント句に対応する基本周波数の平均的な高さを、指定
された感情102に対応するように補正するためのオフ
セット差分を求める。ここで求められた各アクセント句
毎のオフセット差分を、ここでは、オフセット差分40
2と呼ぶ。
【0047】なお、例えば、図7、図8に示したような
言語情報から、例えばアクセント句に、当該アクセント
句に対応するオフセット差分を求めるための規則はオフ
セット差分生成規則部45に記憶されている。この規則
は、何らかの公知の機械学習手法を用いて生成すること
ができ、例えば、従来と同様、言語情報に含まれる各ア
クセント句についての音韻記号列、アクセント型、品
詞、係り先などから最適なオフセット差分に辿り着ける
ように構築された決定木形式のものであってもよい。あ
るいは、数量化I類などの数量化手法を用いて、オフセ
ット差分を求めてもよい。
【0048】なお、複数の感情が指定されているとき
は、アクセント句毎に、指定された複数の感情のそれぞ
れに対応する、生成されたオフセット差分のそれぞれ
に、各感情に対し指定された重みの値でウエートをつけ
ることにより加重平均を求めて、それを当該アクセント
句のオフセット差分502とする。
【0049】差分時間長生成部56は、指定された感情
102に対応する感情制御辞書部14の差分時間長生成
規則部57に記憶されている規則に従って、言語情報1
04に含まれる各アクセント句毎に、当該アクセント句
を構成する各音素の時間的な長さである音韻継続時間長
を補正するための差分時間長を求める。ここで求められ
た各音素毎の差分時間長を、ここでは差分時間長503
と呼ぶ。
【0050】なお、図7、図8に示したような言語情報
から、例えばアクセント句に、当該アクセント句を構成
する各音素について差分時間長を求めるための規則は差
分時間長生成規則部57に記憶されている。この規則
は、何らかの公知の機械学習手法を用いて生成すること
ができ、例えば、従来と同様、言語情報に含まれる、例
えば、各アクセント句のモーラ数や品詞、当該アクセン
ト句を構成する各音素について、当該音素の前や後に存
在する音素や、アクセント型などから差分時間長に辿り
着けるように構築された決定木形式のものであってもよ
い。あるいは、数量化I類などの数量化手法を用いて、
差分時間長を求めてもよい。
【0051】なお、複数の感情が指定されているとき
は、アクセント句毎に、当該アクセント句を構成する各
音素に対し、指定された複数の感情のそれぞれに対応す
る差分時間長のそれぞれに、各感情に対し指定された重
みの値でウエートをつけることにより加重平均を求め
て、それを音素毎の差分時間長503とする。
【0052】差分パターン生成部51で生成された各ア
クセント句毎の差分パターン501と、オフセット差分
生成部52で生成された各アクセント句毎のオフセット
差分502と、差分時間長生成部56で生成された各ア
クセント句毎の差分時間長503は、感情制御パラメー
タ110として感情付き韻律パラメータ生成部17へ出
力される。
【0053】図11は、図1の感情付き韻律パラメータ
生成部17の構成例を示したもので、パターン重畳部8
1と時間長重畳部82とオフセット重畳部83とオフセ
ット制御部84とF0パターン変形部85から構成され
ている。
【0054】パターン重畳部81は、韻律パターン生成
部12から出力された基準パターン401と、感情制御
パラメータ生成部13から出力された差分パターン50
1とを重畳して、アクセント句毎の第1の感情付きF0
パターン805を生成する。例えば、対数スケールで表
された両者の基本周波数同士で加算することで、アクセ
ント句毎の第1の感情付きF0パターン805を生成す
る。
【0055】時間長重畳部82は、韻律パターン生成部
12から出力された基準時間長403と、感情制御パラ
メータ生成部13から出力された差分時間長503とを
重畳(ここでは、両者を加算)して、各アクセント句を
構成する各音節毎の感情付き音韻継続時間長807を生
成する。
【0056】オフセット重畳部83は、韻律パターン生
成部12から出力された基準オフセット402と、感情
制御パラメータ生成部13から出力されたオフセット差
分502とを重畳して、アクセント句毎の感情付きオフ
セット806を生成する。例えば、対数スケールで表さ
れた両者の基本周波数同士で加算することで、アクセン
ト句毎の感情付きオフセット805を生成する。
【0057】オフセット制御部84は、パターン重畳部
81で生成された、アクセント句毎の第1の感情付きF
0パターン805の基本周波数の平均的な高さを感情付
きオフセット806で調節する。すなわち、第1の感情
付きF0パターン805を、感情付きオフセット806
に従って周波数軸上で平行移動させることで、アクセン
ト句毎の第1の感情付きF0パターンの基本周波数の平
均的な高さが、各アクセント句毎に生成された感情付き
オフセット806になるように調節して、その結果とし
て、アクセント句毎の第2の感情付きF0パターン80
8を出力する。
【0058】F0パターン変形部85は、第2の感情付
きF0パターン808を感情付き音韻継続時間長807
に従って時間軸方向に線形伸縮を行う。このとき、音節
単位で全体を伸縮しても良いし、子音と母音の継続時間
長に従って、部分的に伸縮するようにしても良い。F0
パターン変形部85は、さらに、言語情報104から基
準パターン401あるいは第2の感情付きF0パターン
808の周波数方向の伸縮率を推定し、第2の感情付き
F0パターン808を周波数軸方向に線形伸縮するよう
にしてもよい。なお、伸縮率の推定には、従来と同様、
数量化I類などの公知の数量化手法を用いることができ
る。
【0059】このようにして、F0パターン変形部85
は、第2の感情付きF0パターン808を少なくとも時
間軸方向に伸縮して第3の感情付きF0パターン809
を生成する。この第3の感情付きF0パターン809
は、さらに、上記したように、周波数軸方向に伸縮され
ていてもよい。
【0060】F0パターン変形部85から出力される第
3の感情付きF0パターン809と、時間長重畳部82
から出力される感情付き音韻継続時間長807と、オフ
セット重畳部83から出力される感情付きオフセット8
06は、感情付き韻律パラメー111として音声合成部
19へ出力される。
【0061】次に、図5に示すフローチャートを参照し
て、図3に示した感情付き韻律パラメータ生成部17に
おける感情付き韻律パラメータの生成処理動作(図4の
ステップS4)について、より具体的に説明する。
【0062】すなわち、ここでは、入力されたテキスト
101が「昨日のこと/まだ/許したわけじゃ/ないか
ら」というテキスト101が入力したときの場合を例に
とり、このテキストに対応する音声に「怒り」の感情を
のせる場合を例にとり、図12、図13を参照しなが
ら、図5に示したフローチャートに従って説明を行う。
【0063】上記テキストの各アクセント句「昨日のこ
と」「まだ」「許したわけじゃ」「ないから」につい
て、韻律パラメータ生成部12で求められた基準パター
ンを図12(a)に示し、上記各アクセント句に対し、
感情制御パラメータ生成部13で求められた「怒り」に
対応する差分パターンを図12(b)に示す。
【0064】また、上記テキストの「昨日のこと」とい
うアクセント句を構成する各音素に対し、韻律パラメー
タ生成部12、感情制御パラメータ生成部13のそれぞ
れで求められた基準時間長と差分時間長を図13に示
す。
【0065】この場合、感情付き韻律パラメータ生成部
17のパターン重畳部81は、図12(a)に示した基
準パターン401と図12(b)に示した差分パターン
501とを重畳して、図12(c)に示したような第1
の感情付きF0パターンを生成する(ステップS1
1)。
【0066】一方、時間長重畳情部82は、図13に示
したような、各音素毎の基準時間長403と差分時間長
503を重畳(加算)して、同じく図13に示したよう
な各音素毎の感情付き音韻継続時間長807を生成する
(ステップS12)。
【0067】また、オフセット重畳部83は、各アクセ
ント句毎の基準オフセット402とオフセット差分50
2とを重畳して、アクセント句毎の感情付きオフセット
806を生成する(ステップS13)。
【0068】次に、オフセット制御部84は、図12
(c)に示したような、アクセント句毎の第1の感情付
きF0パターンを、対数スケールで表された周波数軸上
で感情付きオフセット806だけ並行移動させて、図1
2(d)に示したようなアクセント毎の第2の感情付き
F0パターン808を生成する(ステップS14)。
【0069】さらに、F0パターン変形部85は、図1
2(d)に示した第2の感情付きF0パターンの時間軸
方向を図13に示したような感情付き音韻継続時間長に
従って伸縮させて、第3の感情付きF0パターン809
を生成する(ステップS15)。
【0070】以上のようにして生成された感情付き韻律
パラメータ111を基に、音声合成部19は、音声素片
辞書部18を参照して、入力されたテキスト101と、
入力された感情102とに対応した合成音声113を生
成し、出力する。なお、音声合成部19における上記音
声合成のため手法は、従来技術を用いればよく、また、
本発明の要旨ではないので説明は省略する。
【0071】以上説明したように、上記実施形態に係
る、入力されたテキストと指定された感情に対応する音
声の韻律的な特徴を表す韻律パラメータを生成して、指
定された感情に対応する合成音声を生成する音声合成装
置は、入力されたテキストを解析することによって得ら
れる言語情報を基に、感情の表れていない平静時の音声
の韻律的な特徴を表した第1のパラメータ(基準韻律パ
ラメータ)と、指定された感情に対応して、第1のパラ
メータを補正するための第2のパラメータ(感情制御パ
ラメータ)とを求めて、少なくとも、音声の韻律的な特
徴を制御するための音声の単位としての韻律制御単位
(例えばアクセント句単位)毎に、第1のパラータと第
2のパラメータとを重畳することにより、当該指定され
た感情に対応する第3のパラメータ(感情付き韻律パラ
メータ)を生成し、この第3のパラメータを基に、指定
された感情に対応する合成音声を生成することにより、
所望の感情に対応する音声を容易に合成することができ
る。
【0072】なお、上記実施形態では、発話特性が、感
情である場合を例にとり説明したが、この場合に限ら
ず、発話スタイル(読み上げ調・会話調など)や、方
言、なまりなどの人の個性であってもよい。この場合
も、上記実施形態の説明において、「感情」に対応する
部分が「発話スタイル」、「個性」に置き変わるだけ
で、所望の感情に対応する感情付き韻律パラメータを生
成する場合と全く同様にして、指定された所望の発話ス
タイル、個性に対応する韻律パラメータを生成して、所
望の発話スタイル、個性に対応する合成音声を生成する
ことができる。
【0073】この場合、上記実施形態における感情制御
辞書14は、異なる複数の発話スタイルあるいは個性の
それぞれに応じて設けられた、各発話スタイルあるいは
個性を表現するために基準韻律パラメータを補正するた
めのパラメータ、すなわち、発話スタイル制御パラメー
タあるいは個性制御パラメータなるものを記憶した発話
スタイル制御辞書あるいは個性制御辞書に置き換わる。
また、感情制御パラメータ生成部13は発話制御パラメ
ータ生成部あるいは個性制御パラメータ生成部に、感情
付き韻律パラメータ生成部17は発話スタイル付き韻律
パラメータ生成部あるいは個性付き韻律パラメータ生成
部に置き換わる。
【0074】そして、入力されたテキスト101を解析
することによって得られる言語情報104を基に、韻律
パラメータ生成部12では、発話スタイルや個性の表れ
ていない標準的な音声の韻律的な特徴を表した基準韻律
パラメータ109を求め、少なくとも言語情報と指定さ
れた発話スタイルあるいは個性とを基に、個性制御パラ
メータ生成部では、当該指定された発話スタイルあるい
は個性に対応するよう、基準韻律パラメータを補正する
ための発話スタイル制御パラメータあるいは個性制御パ
ラメータを求める。
【0075】発話スタイル制御パラメータあるいは個性
付き韻律パラメータ生成部では、音声の韻律的な特徴を
制御するための音声の単位としての韻律制御単位毎に、
少なくとも基準韻律パラメータと発話スタイル制御パラ
メータあるいは個性制御パラメータを重畳して、指定さ
れた発話スタイルあるいは個性に対応する韻律的な特徴
を表す発話スタイル付き韻律パラメータあるいは個性付
き韻律パラメータを生成し、音声合成部19では、この
発話スタイル付き韻律パラメータあるいは個性付き韻律
パラメータを基に、指定された発話スタイルあるいは個
性に対応する合成音声を生成する。
【0076】また、上記実施形態では、1つの韻律制御
辞書11に対応する、例えば、ある1つの個性の音声の
基準韻律パラメータについて、異なる感情を表現する場
合を例にとり説明した。図1に示した構成において、こ
れとは異なる個性の音声について、上記同様、異なる感
情を表現する際には、韻律制御辞書11を所望の個性の
音声に対応する他の韻律制御辞書11で置き換えればよ
い。このように、個人対応に韻律制御辞書11が異なっ
ていても、感情制御辞書14は1組あればよい。1組の
感情制御辞書14があれば、各個性の全ての基準韻律パ
ラメータに対応することができるのである。従って、辞
書作成の手間と辞書の記憶領域に割り当てるメモリ容量
を削減することができる。
【0077】また、上記実施形態では、感情対応に基準
韻律パラメータを補正するための差分を感情制御パラメ
ータとして用いる場合について説明したが、この場合に
限らず、感情制御パラメータとして、相対値を用いるよ
うにしてもよい。
【0078】また、上記実施形態では、代表パターンに
基づく基本周波数制御モデルを用いて説明したが、この
他に、いわゆる藤崎モデルのような、パターンを関数近
似するモデルなど種々の基本周波数制御モデルを用いる
ことが可能である。
【0079】また、上記実施形態では、第1の感情付き
F0パターン805に対し、まず、オフセットを調節
(制御)してから、変形を行っているが、この場合に限
らず、変形を行ってから、オフセットを調節するように
してもよい。
【0080】また、上記実施形態に係る本発明の手法
は、韻律パラメータとして、基本周波数パターンと音韻
継続時間長を例にとり説明したが、この場合に限らず、
パワーやポーズなどであっても、上記同様に適用可能で
ある。
【0081】また、上記実施形態では、F0パターンを
周波数軸上で平行移動させるためのオフセットとして、
F0パターンの平均値を用いる場合について説明した
が、この場合に限らず、オフセットとして、F0パター
ンの最大値あるいはF0パターンの誤差を最小にする最
適な移動量を用いるようにしてもよい。
【0082】このように、上記実施形態によれば、基準
となる韻律パラメータに感情、発話特性、人の個性など
の発話特性を付与するために、言語情報を用いて韻律制
御単位毎に発話特性制御パラメータを生成することで、
文中の言語情報による韻律の変化を表現した多種多様な
発話特性を持つ音声合成を生成できる。
【0083】本発明の実施の形態に記載した本発明の手
法は、コンピュータに実行させることのできるプログラ
ムとして、磁気ディスク(フロッピー(登録商標)ディ
スク、ハードディスクなど)、光ディスク(CD−RO
M、DVDなど)、半導体メモリなどの記録媒体に格納
して頒布することもできる。すなわち、図1において、
テキスト解析部10,韻律パラメータ生成部12,感情
制御パラメータ生成部13,感情付き韻律パラメータ生
成部17,音声合成部19の上記処理動作をプログラム
として記述し、それをコンピュータに実行させることも
できる。
【0084】なお、本発明は、上記実施形態に限定され
るものではなく、実施段階ではその要旨を逸脱しない範
囲で種々に変形することが可能である。さらに、上記実
施形態には種々の段階の発明は含まれており、開示され
る複数の構成用件における適宜な組み合わせにより、種
々の発明が抽出され得る。例えば、実施形態に示される
全構成要件から幾つかの構成要件が削除されても、発明
が解決しようとする課題の欄で述べた課題(の少なくと
も1つ)が解決でき、発明の効果の欄で述べられている
効果(のなくとも1つ)が得られる場合には、この構成
要件が削除された構成が発明として抽出され得る。
【0085】
【発明の効果】以上説明したように、本発明によれば、
人の感情、発話スタイル、個性などの発話特性の異なる
様々な音声を柔軟にしかも容易に合成することができ
る。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る音声合成装置の構成
例を示した図。
【図2】韻律パラメータ生成部12と韻律制御辞書部1
1の構成例を示した図。
【図3】感情制御パラメータ生成部13と感情制御辞書
部14の構成例を示した図。
【図4】図1の音声合成装置の処理動作を説明するため
のフローチャート。
【図5】感情付き韻律パラメータを生成する際の処理動
作を説明するためのフローチャート。
【図6】複数の異なる感情が指定されたときに、当該複
数の感情のそれぞれについての重みをテキスト中で変化
させて指定する場合を説明するための図。
【図7】言語情報の具体例を示した図。
【図8】言語情報の具体例を示した図。
【図9】アクセント句毎の代表パターンの具体例を示し
た図。
【図10】アクセント句毎の差分パターンの具体例を示
した図。
【図11】感情付き韻律パラメータ生成部の構成例を示
した図。
【図12】感情付き韻律パラメータの1つである第3の
感情付きF0パターンの生成処理動作を説明するための
図。
【図13】感情付き韻律パラメータの他の1つである感
情付き音韻継続時間長の生成処理動作を説明するための
図。
【符号の説明】
10…テキスト解析部 11…韻律制御辞書部 12…韻律パラメータ生成部 13…発話特性(感情、個性、発話スタイル)制御パラ
メータ生成部 14…発話特性(感情、個性、発話スタイル)制御辞書
部 17…発話特性(感情、個性、発話スタイル)付き韻律
パラメータ生成部 18…音声素片辞書部 19…音声合成部 41…基準パターン生成部 42…基準オフセット生成部 43…代表パターン辞書部 44…代表パターン選択規則部 45…オフセット生成規則部 46…基準時間長生成部 47…音韻継続時間長生成規則部 51…差分パターン生成部 52…オフセット差分生成部 53…差分パターン辞書部 54…差分パターン選択規則部 55…オフセット差分生成規則部 56…差分時間長生成部 57…差分時間長生成規則部 81…パターン重畳部 82…時間長重畳部 83…オフセット重畳部 84…オフセット制御部 85…F0パターン変形部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 平林 剛 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 Fターム(参考) 5D045 AA07

Claims (12)

    【特許請求の範囲】
  1. 【請求項1】入力されたテキストと指定された発話特性
    に対応する音声の韻律的な特徴を表す韻律パラメータを
    生成して、指定された発話特性に対応する合成音声を生
    成する音声合成方法であって、 前記テキストを解析することによって得られる言語情報
    を基に、標準的な発話特性を有する音声の韻律的な特徴
    を表した第1のパラメータを求めるとともに、少なくと
    も前記言語情報と前記指定された発話特性とを基に、当
    該指定された発話特性に対応する韻律的な特徴を表すよ
    う、前記第1のパラメータを補正するための第2のパラ
    メータを求め、 音声の韻律的な特徴を制御するための音声の単位として
    の韻律制御単位毎に、少なくとも前記第1および第2の
    パラータを重畳して、前記指定された発話特性に対応す
    る韻律的な特徴を表す第3のパラメータを生成し、この
    第3のパラメータを基に、前記指定された発話特性に対
    応する合成音声を生成することを特徴とする音声合成方
    法。
  2. 【請求項2】前記発話特性は、感情、人の個性、発話ス
    タイルのうちのいずれか1つであることを特徴とする請
    求項1記載の音声合成方法。
  3. 【請求項3】前記第3のパラメータとして、前記指定さ
    れた発話特性に対応する音声の基本周波数の時間的変化
    を表した基本周波数パターンと、音素の時間的な長さで
    ある音韻継続時間長を生成することを特徴とする請求項
    1記載の音声合成方法。
  4. 【請求項4】入力されたテキストと指定された感情に対
    応する音声の韻律的な特徴を表す韻律パラメータを生成
    して、指定された感情に対応する合成音声を生成する音
    声合成方法であって、 前記テキストを解析することによって得られる言語情報
    を基に、感情の表れていない平静時の音声の韻律的な特
    徴を表した第1のパラメータを求めるとともに、少なく
    とも前記言語情報と前記指定された感情とを基に、当該
    指定された感情に対応するよう、前記第1のパラメータ
    を補正するための第2のパラメータを求め、 音声の韻律的な特徴を制御するための音声の単位として
    の韻律制御単位毎に、少なくとも前記第1および第2の
    パラータを重畳して、前記指定された感情に対応する韻
    律的な特徴を表す第3のパラメータを生成し、この第3
    のパラメータを基に、前記指定された感情に対応する合
    成音声を生成することを特徴とする音声合成方法。
  5. 【請求項5】異なる複数の感情と、この複数の感情のそ
    れぞれに対応する重みとが指定されたとき、 前記言語情報と前記指定された複数の感情と当該複数の
    感情のそれぞれに対応する重みを基に、前記第2のパラ
    メータを生成することを特徴とする請求項4記載の音声
    合成方法。
  6. 【請求項6】入力されたテキストと指定された発話特性
    に対応する音声の韻律的な特徴を表す韻律パラメータを
    生成して、指定された発話特性に対応する合成音声を生
    成する音声合成装置であって、 前記テキストを解析することによって得られる言語情報
    を基に、標準的な発話特性を有する音声の韻律的な特徴
    を表した第1のパラメータを求める第1の手段と、 少なくとも前記言語情報と前記指定された発話特性を基
    に、前記指定された発話特性に対応する韻律的な特徴を
    表すよう、前記第1のパラメータを補正するための第2
    のパラメータを求める第2の手段と、 音声の韻律的な特徴を制御するための音声の単位として
    の韻律制御単位毎に、少なくとも前記第1および第2の
    パラータを重畳して、前記指定された発話特性に対応す
    る韻律的な特徴を表す第3のパラメータを生成する生成
    手段と、 前記第3のパラメータを基に、前記指定された発話特性
    に対応する合成音声を生成する音声合成手段と、 を具備したことを特徴とする音声合成装置。
  7. 【請求項7】入力されたテキストと指定された感情に対
    応する音声の韻律的な特徴を表す韻律パラメータを生成
    して、指定された感情に対応する合成音声を生成する音
    声合成装置であって、 前記テキストを解析することによって得られる言語情報
    を基に、感情の表れていない平静時の音声の韻律的な特
    徴を表した第1のパラメータを求める第1の手段と、 少なくとも前記言語情報と前記指定された感情とを基
    に、当該指定された感情に対応するよう、前記第1のパ
    ラメータを補正するための第2のパラメータを求める第
    2の手段と、 音声の韻律的な特徴を制御するための音声の単位として
    の韻律制御単位毎に、少なくとも前記第1および第2の
    パラータを重畳して、前記指定された感情に対応する韻
    律的な特徴を表す第3のパラメータを生成する生成手段
    と、 前記第3のパラメータを基に、前記指定された感情に対
    応する合成音声を生成する音声合成手段と、 を具備したことを特徴とする音声合成装置。
  8. 【請求項8】入力されたテキストと指定された人の個性
    に対応する音声の韻律的な特徴を表す韻律パラメータを
    生成して、指定された個性に対応する合成音声を生成す
    る音声合成装置であって、 前記テキストを解析することによって得られる言語情報
    を基に、個性の表れていない標準的な音声の韻律的な特
    徴を表した第1のパラメータを求める第1の手段と、 少なくとも前記言語情報と前記指定された個性とを基
    に、当該指定された個性に対応するよう、前記第1のパ
    ラメータを補正するための第2のパラメータを求める第
    2の手段と、 音声の韻律的な特徴を制御するための音声の単位として
    の韻律制御単位毎に、少なくとも前記第1および第2の
    パラータを重畳して、前記指定された個性に対応する韻
    律的な特徴を表す第3のパラメータを生成する生成手段
    と、 前記第3のパラメータを基に、前記指定された個性に対
    応する合成音声を生成する音声合成手段と、 を具備したことを特徴とする音声合成装置。
  9. 【請求項9】感情の表れていない平静時の音声の韻律的
    な特徴を表した複数の標準パラメータを記憶する第1の
    記憶手段と複数の感情のそれぞれに対応して設けられ、
    各感情に対応するよう、前記第1のパラメータを補正す
    るための複数の補正パラメータを記憶した第2の記憶手
    段と、 をさらに具備し、 前記第1の手段は、前記第1の記憶手段に記憶された標
    準パラメータのうち、前記言語情報を基に、前記テキス
    トに対応する標準パラメータを選択することにより前記
    第1のパラメータを求め、 前記第2の手段は、前記第2の記憶手段に記憶された補
    正パラメータのうち、 少なくとも、前記言語情報を基に前記指定された感情と
    前記テキストに対応する補正パラメータを選択すること
    により前記第2のパラメータを求めることを特徴とする
    請求項7記載の音声合成装置。
  10. 【請求項10】異なる複数の感情と、この複数の感情の
    それぞれに対応する重みとが指定されたとき、 前記第2の手段は、前記言語情報と前記指定された複数
    の感情と当該複数の感情のそれぞれに対応する重みを基
    に、前記第2のパラメータを生成することを特徴とする
    請求項7記載の音声合成装置。
  11. 【請求項11】個性の表れていない標準的な音声の韻律
    的な特徴を表した複数の標準パラメータを記憶する第1
    の記憶手段と複数の個性のそれぞれに対応して設けら
    れ、各個性に対応するよう、前記第1のパラメータを補
    正するための複数の補正パラメータを記憶した第2の記
    憶手段と、 をさらに具備し、 前記第1の手段は、前記第1の記憶手段に記憶された標
    準パラメータのうち、前記言語情報を基に、前記テキス
    トに対応する標準パラメータを選択することにより前記
    第1のパラメータを求め、 前記第2の手段は、前記第2の記憶手段に記憶された補
    正パラメータのうち、少なくとも、前記言語情報を基に
    前記指定された個性と前記テキストに対応する補正パラ
    メータを選択することにより前記第2のパラメータを求
    めることを特徴とする請求項8記載の音声合成装置。
  12. 【請求項12】入力されたテキストと指定された発話特
    性に対応する音声の韻律的な特徴を表す韻律パラメータ
    を生成して、指定された発話特性に対応する合成音声を
    生成する音声合成プログラムであって、 コンピュータに、 前記テキストを解析することによって得られる言語情報
    を基に、標準的な発話特性を有する音声の韻律的な特徴
    を表した第1のパラメータを求める第1のステップと、 少なくとも前記言語情報と前記指定された発話特性を基
    に、前記指定された発話特性に対応する韻律的な特徴を
    表すよう、前記第1のパラメータを補正するための第2
    のパラメータを求める第2のステップと、 音声の韻律的な特徴を制御するための音声の単位として
    の韻律制御単位毎に、少なくとも前記第1および第2の
    パラータを重畳して、前記指定された発話特性に対応す
    る韻律的な特徴を表す第3のパラメータを生成する第3
    のステップと、 前記第3のパラメータを基に、前記指定された感情に対
    応する合成音声を生成する第4のステップと、 を実行させる音声合成プログラム。
JP2002146162A 2002-05-21 2002-05-21 音声合成方法及び音声合成装置及び音声合成プログラム Pending JP2003337592A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002146162A JP2003337592A (ja) 2002-05-21 2002-05-21 音声合成方法及び音声合成装置及び音声合成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002146162A JP2003337592A (ja) 2002-05-21 2002-05-21 音声合成方法及び音声合成装置及び音声合成プログラム

Publications (1)

Publication Number Publication Date
JP2003337592A true JP2003337592A (ja) 2003-11-28

Family

ID=29705232

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002146162A Pending JP2003337592A (ja) 2002-05-21 2002-05-21 音声合成方法及び音声合成装置及び音声合成プログラム

Country Status (1)

Country Link
JP (1) JP2003337592A (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006123539A1 (ja) * 2005-05-18 2006-11-23 Matsushita Electric Industrial Co., Ltd. 音声合成装置
JP2006330060A (ja) * 2005-05-23 2006-12-07 Univ Waseda 音声合成装置、音声処理装置、およびプログラム
WO2008147755A1 (en) * 2007-05-24 2008-12-04 Microsoft Corporation Personality-based device
JP2009139949A (ja) * 2007-12-04 2009-06-25 Toshiba Corp 差分韻律適応モデルのトレーニング方法及び装置、差分韻律適応モデルの生成方法及び装置、韻律推定方法及び装置、音声合成方法及び装置
JP2010032599A (ja) * 2008-07-25 2010-02-12 Yamaha Corp 音声処理装置およびプログラム
WO2010137385A1 (ja) 2009-05-28 2010-12-02 インターナショナル・ビジネス・マシーンズ・コーポレーション 話者適応のための基本周波数の移動量学習装置、基本周波数生成装置、移動量学習方法、基本周波数生成方法及び移動量学習プログラム
JP2014115547A (ja) * 2012-12-12 2014-06-26 Mitsubishi Electric Corp 発話特性付与装置、発話特性付与方法、音声合成装置および音声合成方法
JP2016066088A (ja) * 2012-03-14 2016-04-28 株式会社東芝 音声合成方法、装置及びプログラム
JP2016142936A (ja) * 2015-02-03 2016-08-08 株式会社日立超エル・エス・アイ・システムズ 音声合成用データ作成方法、及び音声合成用データ作成装置
JP2017203963A (ja) * 2016-05-13 2017-11-16 日本放送協会 音声加工装置、及びプログラム
CN111199724A (zh) * 2019-12-31 2020-05-26 出门问问信息科技有限公司 一种信息处理方法、设备及计算机可读存储介质
CN111767740A (zh) * 2020-06-23 2020-10-13 北京字节跳动网络技术有限公司 音效添加方法和装置、存储介质和电子设备
CN114974208A (zh) * 2022-06-20 2022-08-30 青岛大学 一种中文语音合成方法、装置、电子设备、存储介质

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006123539A1 (ja) * 2005-05-18 2006-11-23 Matsushita Electric Industrial Co., Ltd. 音声合成装置
US8073696B2 (en) 2005-05-18 2011-12-06 Panasonic Corporation Voice synthesis device
JP2006330060A (ja) * 2005-05-23 2006-12-07 Univ Waseda 音声合成装置、音声処理装置、およびプログラム
US8131549B2 (en) 2007-05-24 2012-03-06 Microsoft Corporation Personality-based device
WO2008147755A1 (en) * 2007-05-24 2008-12-04 Microsoft Corporation Personality-based device
US8285549B2 (en) 2007-05-24 2012-10-09 Microsoft Corporation Personality-based device
JP2009139949A (ja) * 2007-12-04 2009-06-25 Toshiba Corp 差分韻律適応モデルのトレーニング方法及び装置、差分韻律適応モデルの生成方法及び装置、韻律推定方法及び装置、音声合成方法及び装置
JP2010032599A (ja) * 2008-07-25 2010-02-12 Yamaha Corp 音声処理装置およびプログラム
WO2010137385A1 (ja) 2009-05-28 2010-12-02 インターナショナル・ビジネス・マシーンズ・コーポレーション 話者適応のための基本周波数の移動量学習装置、基本周波数生成装置、移動量学習方法、基本周波数生成方法及び移動量学習プログラム
US8744853B2 (en) 2009-05-28 2014-06-03 International Business Machines Corporation Speaker-adaptive synthesized voice
JP2016066088A (ja) * 2012-03-14 2016-04-28 株式会社東芝 音声合成方法、装置及びプログラム
JP2014115547A (ja) * 2012-12-12 2014-06-26 Mitsubishi Electric Corp 発話特性付与装置、発話特性付与方法、音声合成装置および音声合成方法
JP2016142936A (ja) * 2015-02-03 2016-08-08 株式会社日立超エル・エス・アイ・システムズ 音声合成用データ作成方法、及び音声合成用データ作成装置
JP2017203963A (ja) * 2016-05-13 2017-11-16 日本放送協会 音声加工装置、及びプログラム
CN111199724A (zh) * 2019-12-31 2020-05-26 出门问问信息科技有限公司 一种信息处理方法、设备及计算机可读存储介质
CN111767740A (zh) * 2020-06-23 2020-10-13 北京字节跳动网络技术有限公司 音效添加方法和装置、存储介质和电子设备
CN114974208A (zh) * 2022-06-20 2022-08-30 青岛大学 一种中文语音合成方法、装置、电子设备、存储介质
CN114974208B (zh) * 2022-06-20 2024-05-31 青岛大学 一种中文语音合成方法、装置、电子设备、存储介质

Similar Documents

Publication Publication Date Title
JP3913770B2 (ja) 音声合成装置および方法
JP4125362B2 (ja) 音声合成装置
JP3910628B2 (ja) 音声合成装置、音声合成方法およびプログラム
JPH10153998A (ja) 補助情報利用型音声合成方法、この方法を実施する手順を記録した記録媒体、およびこの方法を実施する装置
JP2005164749A (ja) 音声合成方法、音声合成装置および音声合成プログラム
JP2007140002A (ja) 音声合成装置,音声合成方法,およびコンピュータプログラム
JP2003337592A (ja) 音声合成方法及び音声合成装置及び音声合成プログラム
JP2009139677A (ja) 音声処理装置及びそのプログラム
JPH0632020B2 (ja) 音声合成方法および装置
JPH0887296A (ja) 音声合成装置
JP6013104B2 (ja) 音声合成方法、装置、及びプログラム
JP3728173B2 (ja) 音声合成方法、装置および記憶媒体
JP3513071B2 (ja) 音声合成方法及び音声合成装置
JP3437064B2 (ja) 音声合成装置
JP5175422B2 (ja) 音声合成における時間幅を制御する方法
JP3625426B2 (ja) 音声合成装置
JPH0580791A (ja) 音声規則合成装置および方法
JP3785892B2 (ja) 音声合成装置及び記録媒体
JPH07140996A (ja) 音声規則合成装置
JP3742206B2 (ja) 音声合成方法及び装置
JP2003330482A (ja) 基本周波数パターン生成方法、基本周波数パターン生成装置、音声合成方法、音声合成装置、基本周波数パターン生成プログラムおよび音声合成プログラム
JP3113101B2 (ja) 音声合成装置
JPH11249676A (ja) 音声合成装置
JP2004054063A (ja) 基本周波数パターン生成方法、基本周波数パターン生成装置、音声合成装置、基本周波数パターン生成プログラムおよび音声合成プログラム
JP3241582B2 (ja) 韻律制御装置及び方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050726

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051122