JP4945465B2 - 音声情報処理装置及びその方法 - Google Patents
音声情報処理装置及びその方法 Download PDFInfo
- Publication number
- JP4945465B2 JP4945465B2 JP2008012800A JP2008012800A JP4945465B2 JP 4945465 B2 JP4945465 B2 JP 4945465B2 JP 2008012800 A JP2008012800 A JP 2008012800A JP 2008012800 A JP2008012800 A JP 2008012800A JP 4945465 B2 JP4945465 B2 JP 4945465B2
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- temporary
- fundamental frequency
- expansion
- representative
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000010365 information processing Effects 0.000 title claims description 22
- 238000000034 method Methods 0.000 title description 24
- 230000008602 contraction Effects 0.000 claims description 82
- 230000006870 function Effects 0.000 claims description 34
- 238000004364 calculation method Methods 0.000 claims description 15
- 230000015572 biosynthetic process Effects 0.000 claims description 13
- 238000003786 synthesis reaction Methods 0.000 claims description 13
- 238000011156 evaluation Methods 0.000 claims description 7
- 230000002194 synthesizing effect Effects 0.000 claims description 5
- 230000007423 decrease Effects 0.000 claims description 2
- 238000003672 processing method Methods 0.000 claims 2
- 230000003247 decreasing effect Effects 0.000 claims 1
- 230000002996 emotional effect Effects 0.000 claims 1
- 238000012905 input function Methods 0.000 claims 1
- 101100274346 Drosophila melanogaster mora gene Proteins 0.000 description 34
- 238000012986 modification Methods 0.000 description 17
- 230000004048 modification Effects 0.000 description 17
- 238000012545 processing Methods 0.000 description 13
- 239000011159 matrix material Substances 0.000 description 10
- 238000013507 mapping Methods 0.000 description 8
- 238000010606 normalization Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000012935 Averaging Methods 0.000 description 4
- 238000003066 decision tree Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000001939 inductive effect Effects 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000011002 quantification Methods 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/15—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
Description
以下、本発明の第1の実施形態の代表パターン学習装置を図1〜図15に基づいて説明する。
本実施形態の代表パターン学習装置の構成について図1に基づいて説明する。図1は、代表パターン学習装置を示すブロック図である。
まず、入力となる学習用の音声データ11の一例を図3に示す。
次に、仮子集合作成部1は、音声データ11を入力として、アクセント句毎の基本周波数パターンの集合に対して、アクセント句に対応する前記コンテキストの分類項目に基づく分類規則により複数に分類して、仮子集合を作成する(ステップS1)。
図4は、仮子集合作成部1による複数の仮子集合402の一例であり、図4中の仮子集合402の一例について詳しく説明する。
ここで、仮分類規則は、用いているコンテキストの各値が取り得る値及び範囲に関するサブ分類規則の組合せから自動的に作成することが可能である。
次に、代表パターン長決定部2は、作成された仮子集合毎に作成される仮の代表パターンの長さである仮代表パターン長を決定する(ステップS2)。
次に、伸縮比率計算部3は、代表パターン長決定部2により決定した仮代表パターン長と仮代表パターン長に合わせるための伸縮区間を有する韻律制御単位の典型的なパターンであるモデルパターンベクトルeとから、モデルパターン伸縮区間に関する伸縮比率Φを計算する(ステップS3)。
ここで、モデルパターンは、仮子集合に含まれる仮代表パターンの親集合、祖先集合から決定される。
図5右は、伸縮比率計算部3による伸縮比率計算の一例である。モデルパターン501を作成する仮代表パターン長(Lc=15)に合わせるよう伸縮比率を計算するものであり、符号505は前記伸縮区間に対して計算された伸縮比率である。
この伸縮区間の伸縮比率は、例えば、以下のようにして計算できる。
なお、上記のモデルベクトルは一例であり、「伸縮区間」の始端は、「アクセント核音韻」としてもよいし、「アクセント核後続隣接音韻」としてもよいし、アクセント核に後続する2音韻目の音韻である「アクセント核後続2音韻目」としてもよい。
次に、伸縮部4は、伸縮区間における伸縮比率を用いて、モデルパターンベクトルeを伸縮する(ステップS4)。
次に、代表パターン作成部5は、仮子集合作成部1により作成された基本周波数パターンの子集合毎に、伸縮したモデルパターンを事前知識として用いる統計的処理を行うことによって所定の仮代表パターン長となる仮代表パターンを作成する(ステップS5)。
本実施形態では、仮代表パターンの時系列点での特徴となる統計量を平均値とし、統計的な処理をモデルパターンをバイアス(基準)とする一般的な平均化としている。図5は、本実施形態により生成される仮代表パターン(図5中の符号512参照)の一例である。
以上の仮代表パターン生成に関する方法は、これらの正規化(伸縮)処理を関数f(・)、基本周波数パターンをベクトルpiで表すと、正規化により得られる正規化基本周波数パターンベクトルriは次の式(3)で表すことができる。
次に、子集合決定部6は、全ての基本周波数パターンの仮子集合に対応する仮代表パターンが作成された後、基本周波数パターンの仮子集合と仮代表パターンとの間で定義される歪み量に基づいて子集合を決定する(ステップS6)。本実施形態では、各時系列点での2乗誤差の総和を歪み量としている。
まず、仮子集合作成部1で作成された仮子集合について、基本周波数パターン毎に対応する仮代表パターンを選択し、前記基本周波数パターンを目標にして仮代表パターンを変形し、合成基本周波数パターンを作成する。
図8は、本実施形態での仮代表パターンの変形の一例である。
次に、ある仮子集合を作成した分類xにより得られた基本周波数パターンの仮子集合の1つをGとする。
次に、代表パターン記憶部13は、前記決定した子集合に対応する仮代表パターンを正式な代表パターンとして記憶し、規則記憶部14は、前記決定した子集合に対応するコンテキストに基づいた分類を記憶する(ステップS7)。
このように、本実施形態に係る代表パターン学習装置によれば、言語属性などから成るコンテキストにより階層的にクラスタリングされた基本周波数パターンから仮代表パターンを作成するときに、作成する仮代表パターン長に合わせるための伸縮区間を有する典型的なパターンであるモデルパターンを伸縮し事前知識として用いる統計的な処理を行う。
以下では、これまで説明してきた事項に対する変更例について説明する。
音声データに備えられる基本周波数パターンは、基本周波数そのものの系列、もしくは、音の高さを知覚する際の人間の聴覚特性を考慮した対数基本周波数の系列を用いることができる。
モデルパターンは、基本周波数パターンを備える音声データが小さいときに、大量な基本周波数パターンを備える他音声データ中の特定のN型アクセントの基本周波数パターンを平均化することにより得られる典型的なN型アクセントパターンを用いることもできる。
仮代表パターンの時系列点の統計量は、基本周波数パターンの時系列点に対してモデルパターンを事前知識として用いた統計的な処理を行うことによって得られるものであって、前記時系列点の平均値、分散値、標準偏差値のうち少なくとも1つ用いることができる。
仮代表パターンの変形は、目標とする基本周波数パターンに対して、横軸(継続時間長に合わせた時間軸)方向の伸縮、基本周波数の変化に合わせた縦軸(周波数軸)方向の伸縮、縦軸(周波数軸)方向のオフセットに合わせた周波数軸方向の移動、これらの組合せのうち少なくとも1つを用いることができる。
さらに、目標とする基本周波数パターンが未知の時、つまり、音声合成などで本変形を行う場合は、仮代表パターンをベクトルcとしたとき、変形を行う関数(h(・))は、伸縮を行う行列<Di>と周波数軸方向の移動を行う値と<bi>、そして、周波数軸方向の伸縮を行う値<gi>を用いて、次の式(8)で表すことができる。
基本周波数パターンの仮子集合と仮代表パターンとの間で定義される歪み量は、各時系列点での2乗誤差の総和を計算する方法もある。
モデルパターンを事前知識として用いる統計的処理は、式(3)、式(4)で示したようなモデルパターンを伸縮しバイアスとし一般的な平均の計算をして仮代表パターンを生成する方法もある。
韻律制御単位は、入力コンテキストに対応する音声の韻律的特徴を制御するための単位であり、代表ベクトルの容量にも関連するとできる。
コンテキストは、規則合成器で用いられるような情報のうち抑揚に影響を与えると考えられる情報、例えば、「アクセント型」、「モーラ数」、「音韻の種類」、「アクセント句境界のポーズの有無」、「文中でのアクセント句の位置」、「品詞」、「係り先といったテキストを解析することにより得られる先行、後続、2先行、2後続、前記韻律制御単位に関する言語情報」、または「所定の属性のうち少なくとも1つの値」などを、用いることもある。
音韻は、例えば前記装置の実装における都合などから、「モーラ」、「音節」、「音素」、「半音素」、或いは「HMM等により1音素を複数に分割した単位」などを、柔軟に用いることもある。
伸縮比率計算部3は、図9に示すように、式(1)中のwを小さな値として、伸縮区間の中央付近をより伸張するようなものを計算することもできる。
次に、本発明の第2の実施形態の仮代表パターン出力装置について図16〜図18に基づいて説明する。
図16は、本実施形態に係る代表パターン出力装置の構成を示すブロック図である。
次に、図16〜図18を用いて、本実施形態に係る代表パターン出力装置の動作について説明する。
ここで一般に音声合成などでの利用を想定した実施形態では、選択された代表パターン1803を基に、合成音声パラメータである基本周波数パターンを作成するよう各代表パターンの変形が行われる。例えば、第1の実施形態で述べた通り、変形を行う際必要となるサブパラメータ(時間軸伸縮を行う行列<D>、周波数軸方向の移動を行う値<b>、周波数軸方向の伸縮を行う値<g>など)が必要となる。
このように、本実施形態に係る代表パターン出力装置によれば、言語属性などから成るコンテキストにより階層的にクラスタリングされた基本周波数パターンから代表パターンを作成するときに、作成する仮代表パターン長に合わせるための伸縮区間を有する典型的なパターンであるモデルパターンを伸縮し事前知識として用いる統計的な処理を行うことにより作成された代表パターン、分類規則を用いて、入力コンテキストに対する代表パターンを選択することで、信頼性の高い代表パターンを選択することができ、頑健、かつ、より自然な抑揚を表現可能な基本周波数パターン(合成音声パラメータ)を生成することできる。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
2 代表パターン長決定部
3 伸縮比率決定部
4 伸縮部
5 代表パターン作成部
6 子集合決定部
11 音声データ
12 モデルパターン
13 代表パターン記憶部
14 規則記憶部
Claims (14)
- テキスト音声合成に用いられる韻律制御単位毎の基本周波数パターンを正規化したパターンである代表パターンと、前記代表パターンを用いて前記テキスト音声合成するときに用いる分類規則とを学習する音声情報処理装置であって、
韻律制御単位毎の複数の前記基本周波数パターンと、前記各基本周波数パターンに対応するコンテキストを含む学習用の音声データが入力される入力部と、
前記音声データの前記各基本周波数パターンについて、前記各基本周波数パターンに対応する前記コンテキストの分類項目に基いて、前記基本周波数パターンを分類して、前記基本周波数パターンが属する仮子集合を作成する集合作成部と、
前記各仮子集合に属する前記基本周波数パターンから求める仮代表パターンの長さである仮代表パターン長を決定するパターン長決定部と、
前記仮代表パターン長に長さを合わせるための伸縮区間を有するモデルパターンを設定するパターン設定部と、
前記仮代表パターン長と前記モデルパターンの長さとが一致するように、前記モデルパターンの前記伸縮区間の伸縮比率を計算する比率計算部と、
前記伸縮比率に基づいて前記モデルパターンの前記伸縮区間を伸縮する伸縮部と、
前記伸縮したモデルパターンと前記仮子集合に属する前記基本周波数パターンとを合成して、前記仮代表パターン長を有する前記仮代表パターンを、前記仮子集合毎に作成するパターン作成部と、
前記仮子集合に属する前記基本周波数パターンと前記仮代表パターンとの間の歪み量を求め、前記歪み量が閾値より小さい前記子集合を求める集合決定部と、
前記求めた子集合に対応する前記仮代表パターンを、前記代表パターンとして記憶するパターン記憶部と、
前記求めた子集合に対応する前記コンテキストの分類項目を、前記代表パターンの分類規則として記憶する規則記憶部と、
を有する音声情報処理装置。 - 前記パターン設定部は、
前記仮子集合の親集合、または、祖先集合に属する前記基本周波数パターンを用いて前記モデルパターンを設定する、
請求項1記載の音声情報処理装置。 - 前記比率計算部は、
前記伸縮区間の始端から前記伸縮区間の終端にかけて単調増加した後に単調減少する伸縮比率の系列、
または、前記始端から前記終端にかけて単調減少した後に単調増加する伸縮比率の系列に基づいて算出する、
請求項1記載の音声情報処理装置。 - 前記伸縮区間の始端は、アクセント核音韻、アクセント核後続隣接音韻、または、アクセント核後続2音韻目であり、
前記伸縮区間の終端は、前記韻律制御単位の終端音韻、前記韻律制御単位の終端先行隣接音韻、または、前記韻律制御単位の終端先行2音韻目である、
請求項1記載の音声情報処理装置。 - 前記代表パターンと前記分類規則を用いて、前記韻律制御単位毎のコンテキストに応じた代表パターンを選択する選択部をさらに有する、
請求項1記載の音声情報処理装置。 - 前記パターン作成部は、
前記基本周波数パターンの時系列点における値を、平均、分散、標準偏差、これらを組み合わせたうち少なくとも1つを用いて前記仮代表パターンを計算する、
請求項1記載の音声情報処理装置。 - 前記パターン作成部は、
(1)前記モデルパターンを基準として、前記基本周波数パターンを平均して計算すること、
(2)前記モデルパターンを基準として、前記基本周波数パターンを分散を計算すること、
(3)前記モデルパターンを基準として、前記基本周波数パターンの前記歪み評価関数を最大化、または、最少化するように計算すること、
または、(4)前記モデルパターンを基準として、前記基本周波数パターンの前記歪み評価関数を準最適化することにより、
前記仮代表パターンを合成する、
請求項1記載の音声情報処理装置。 - 前記集合決定部は、
(1)前記基本周波数パターンと前記仮代表パターンとの各時系列点における値の2乗誤差の総和、
(2)前記基本周波数パターンと前記仮代表パターンとの各時系列点における値の重み付け2乗誤差の総和、
(3)前記基本周波数パターンと前記仮代表パターンとの各時系列点における値の2乗誤差の最大値、
(4)前記基本周波数パターンと前記仮代表パターンとの各時系列点における値の分散値の総和、
(5)前記基本周波数パターンと前記仮代表パターンとの各時系列点における値の重み付け分散値の総和、
(6)前記基本周波数パターンと前記仮代表パターンとの各時系列点における値の分散値の最大値、
(7)前記基本周波数パターンと前記仮代表パターンとの各時系列点における値の対数尤度の総和、
(8)前記基本周波数パターンと前記仮代表パターンとの各時系列点における値の重み付け対数尤度の総和、
または、(9)前記基本周波数パターンと前記仮代表パターンとの各時系列点における値の対数尤度の最大値を、
前記歪み量として用いる、
請求項1記載の音声情報処理装置。 - 前記韻律制御単位は、文、呼気段落、アクセント句、形態素、単語、モーラ、音節、音素、半音素、HMMにより1音素を複数に分割した単位のうち少なくとも1つ、または、これらの組合せたもののうち少なくとも1つである、
請求項1記載の音声情報処理装置。 - 前記コンテキストに分類項目は、テキストを解析することにより得られる前記韻律制御単位に関する言語情報、または、任意の属性のうち少なくとも1つである、
請求項1記載の音声情報処理装置。 - 前記属性は、プロミネンスに関する情報、発話スタイルの情報、質問、断定、強調の意図を表す情報、疑い、関心、落胆、感心の心的態度を表す情報のうち少なくとも1つである、
請求項10記載の音声情報処理装置。 - 前記音韻は、モーラ、音節、音素、半音素、HMMにより1音素を複数に分割した単位のうち少なくとも1つである、
請求項4記載の音声情報処理装置。 - テキスト音声合成に用いられる韻律制御単位毎の基本周波数パターンを正規化したパターンである代表パターンと、前記代表パターンを用いて前記テキスト音声合成するときに用いる分類規則とを学習する音声情報処理方法であって、
韻律制御単位毎の複数の前記基本周波数パターンと、前記各基本周波数パターンに対応するコンテキストを含む学習用の音声データが入力される入力ステップと、
前記音声データの前記各基本周波数パターンについて、前記各基本周波数パターンに対応する前記コンテキストの分類項目に基いて、前記基本周波数パターンを分類して、前記基本周波数パターンが属する仮子集合を作成する集合作成ステップと、
前記各仮子集合に属する前記基本周波数パターンから求める仮代表パターンの長さである仮代表パターン長を決定するパターン長決定ステップと、
前記仮代表パターン長に長さを合わせるための伸縮区間を有するモデルパターンを設定するパターン設定ステップと、
前記仮代表パターン長と前記モデルパターンの長さとが一致するように、前記モデルパターンの前記伸縮区間の伸縮比率を計算する比率計算ステップと、
前記伸縮比率に基づいて前記モデルパターンの前記伸縮区間を伸縮する伸縮ステップと、
前記伸縮したモデルパターンと前記仮子集合に属する前記基本周波数パターンとを合成して、前記仮代表パターン長を有する前記仮代表パターンを、前記仮子集合毎に作成するパターン作成ステップと、
前記仮子集合に属する前記基本周波数パターンと前記仮代表パターンとの間の歪み量を求め、前記歪み量が閾値より小さい前記子集合を求める集合決定ステップと、
前記求めた子集合に対応する前記仮代表パターンを、前記代表パターンとして記憶するパターン記憶ステップと、
前記求めた子集合に対応する前記コンテキストの分類項目を、前記代表パターンの分類規則として記憶する規則記憶ステップと、
を有する音声情報処理方法。 - テキスト音声合成に用いられる韻律制御単位毎の基本周波数パターンを正規化したパターンである代表パターンと、前記代表パターンを用いて前記テキスト音声合成するときに用いる分類規則とを学習する音声情報処理プログラムであって、
韻律制御単位毎の複数の前記基本周波数パターンと、前記各基本周波数パターンに対応するコンテキストを含む学習用の音声データが入力される入力機能と、
前記音声データの前記各基本周波数パターンについて、前記各基本周波数パターンに対応する前記コンテキストの分類項目に基いて、前記基本周波数パターンを分類して、前記基本周波数パターンが属する仮子集合を作成する集合作成機能と、
前記各仮子集合に属する前記基本周波数パターンから求める仮代表パターンの長さである仮代表パターン長を決定するパターン長決定機能と、
前記仮代表パターン長に長さを合わせるための伸縮区間を有するモデルパターンを設定するパターン設定機能と、
前記仮代表パターン長と前記モデルパターンの長さとが一致するように、前記モデルパターンの前記伸縮区間の伸縮比率を計算する比率計算機能と、
前記伸縮比率に基づいて前記モデルパターンの前記伸縮区間を伸縮する伸縮機能と、
前記伸縮したモデルパターンと前記仮子集合に属する前記基本周波数パターンとを合成して、前記仮代表パターン長を有する前記仮代表パターンを、前記仮子集合毎に作成するパターン作成機能と、
前記仮子集合に属する前記基本周波数パターンと前記仮代表パターンとの間の歪み量を求め、前記歪み量が閾値より小さい前記子集合を求める集合決定機能と、
前記求めた子集合に対応する前記仮代表パターンを、前記代表パターンとして記憶するパターン記憶機能と、
前記求めた子集合に対応する前記コンテキストの分類項目を、前記代表パターンの分類規則として記憶する規則記憶機能と、
をコンピュータによって実現する音声情報処理プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008012800A JP4945465B2 (ja) | 2008-01-23 | 2008-01-23 | 音声情報処理装置及びその方法 |
US12/358,660 US8160882B2 (en) | 2008-01-23 | 2009-01-23 | Speech information processing apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008012800A JP4945465B2 (ja) | 2008-01-23 | 2008-01-23 | 音声情報処理装置及びその方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009175345A JP2009175345A (ja) | 2009-08-06 |
JP4945465B2 true JP4945465B2 (ja) | 2012-06-06 |
Family
ID=40877144
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008012800A Expired - Fee Related JP4945465B2 (ja) | 2008-01-23 | 2008-01-23 | 音声情報処理装置及びその方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US8160882B2 (ja) |
JP (1) | JP4945465B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4455633B2 (ja) * | 2007-09-10 | 2010-04-21 | 株式会社東芝 | 基本周波数パターン生成装置、基本周波数パターン生成方法及びプログラム |
JP5457706B2 (ja) * | 2009-03-30 | 2014-04-02 | 株式会社東芝 | 音声モデル生成装置、音声合成装置、音声モデル生成プログラム、音声合成プログラム、音声モデル生成方法および音声合成方法 |
US9558734B2 (en) * | 2015-06-29 | 2017-01-31 | Vocalid, Inc. | Aging a text-to-speech voice |
CN105529023B (zh) * | 2016-01-25 | 2019-09-03 | 百度在线网络技术(北京)有限公司 | 语音合成方法和装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7006881B1 (en) * | 1991-12-23 | 2006-02-28 | Steven Hoffberg | Media recording device with remote graphic user interface |
JP3667950B2 (ja) * | 1997-09-16 | 2005-07-06 | 株式会社東芝 | ピッチパターン生成方法 |
JP3771565B2 (ja) | 1997-11-28 | 2006-04-26 | 松下電器産業株式会社 | 基本周波数パタン生成装置、基本周波数パタン生成方法、及びプログラム記録媒体 |
US7392185B2 (en) * | 1999-11-12 | 2008-06-24 | Phoenix Solutions, Inc. | Speech based learning/training system using semantic decoding |
US9076448B2 (en) * | 1999-11-12 | 2015-07-07 | Nuance Communications, Inc. | Distributed real time speech recognition system |
US7725307B2 (en) * | 1999-11-12 | 2010-05-25 | Phoenix Solutions, Inc. | Query engine for processing voice based queries including semantic decoding |
JP4417892B2 (ja) * | 2005-07-27 | 2010-02-17 | 株式会社東芝 | 音声情報処理装置、音声情報処理方法および音声情報処理プログラム |
-
2008
- 2008-01-23 JP JP2008012800A patent/JP4945465B2/ja not_active Expired - Fee Related
-
2009
- 2009-01-23 US US12/358,660 patent/US8160882B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US20090187408A1 (en) | 2009-07-23 |
JP2009175345A (ja) | 2009-08-06 |
US8160882B2 (en) | 2012-04-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5457706B2 (ja) | 音声モデル生成装置、音声合成装置、音声モデル生成プログラム、音声合成プログラム、音声モデル生成方法および音声合成方法 | |
JP6499305B2 (ja) | 音声合成装置、音声合成方法、音声合成プログラム、音声合成モデル学習装置、音声合成モデル学習方法及び音声合成モデル学習プログラム | |
JP4738057B2 (ja) | ピッチパターン生成方法及びその装置 | |
JP3667950B2 (ja) | ピッチパターン生成方法 | |
JP6293912B2 (ja) | 音声合成装置、音声合成方法およびプログラム | |
JP3910628B2 (ja) | 音声合成装置、音声合成方法およびプログラム | |
KR20070077042A (ko) | 음성처리장치 및 방법 | |
JP2007249212A (ja) | テキスト音声合成のための方法、コンピュータプログラム及びプロセッサ | |
CN108831435B (zh) | 一种基于多情感说话人自适应的情感语音合成方法 | |
JP5929909B2 (ja) | 韻律生成装置、音声合成装置、韻律生成方法および韻律生成プログラム | |
CN110364140A (zh) | 歌声合成模型的训练方法、装置、计算机设备以及存储介质 | |
JP5807921B2 (ja) | 定量的f0パターン生成装置及び方法、f0パターン生成のためのモデル学習装置、並びにコンピュータプログラム | |
JP4945465B2 (ja) | 音声情報処理装置及びその方法 | |
JP4455633B2 (ja) | 基本周波数パターン生成装置、基本周波数パターン生成方法及びプログラム | |
CN106157948B (zh) | 一种基频建模方法及系统 | |
JP2006276493A (ja) | 韻律パターン生成装置および韻律パターン生成方法ならびに韻律パターン生成プログラム | |
JP4417892B2 (ja) | 音声情報処理装置、音声情報処理方法および音声情報処理プログラム | |
JP6840124B2 (ja) | 言語処理装置、言語処理プログラムおよび言語処理方法 | |
JP5393546B2 (ja) | 韻律作成装置及び韻律作成方法 | |
JP2004226505A (ja) | ピッチパタン生成方法、音声合成方法とシステム及びプログラム | |
JP4034751B2 (ja) | 音声合成装置、音声合成方法および音声合成プログラム | |
JP6137708B2 (ja) | 定量的f0パターン生成装置、f0パターン生成のためのモデル学習装置、並びにコンピュータプログラム | |
WO2012115212A1 (ja) | 音声合成システム、音声合成方法、および音声合成プログラム | |
JP2006189723A (ja) | 基本周波数パターン生成装置、基本周波数パターン生成方法及びプログラム | |
Khorram et al. | Context-dependent deterministic plus stochastic model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101019 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120207 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120305 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4945465 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150309 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 Free format text: JAPANESE INTERMEDIATE CODE: R313114 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |