JP2009047837A - 音声合成方法及びその装置 - Google Patents
音声合成方法及びその装置 Download PDFInfo
- Publication number
- JP2009047837A JP2009047837A JP2007212809A JP2007212809A JP2009047837A JP 2009047837 A JP2009047837 A JP 2009047837A JP 2007212809 A JP2007212809 A JP 2007212809A JP 2007212809 A JP2007212809 A JP 2007212809A JP 2009047837 A JP2009047837 A JP 2009047837A
- Authority
- JP
- Japan
- Prior art keywords
- speech
- formant
- unit
- parameter
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001308 synthesis method Methods 0.000 title claims abstract description 24
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 46
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 45
- 230000004927 fusion Effects 0.000 claims description 60
- 238000009499 grossing Methods 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 2
- 230000006870 function Effects 0.000 description 47
- 239000011295 pitch Substances 0.000 description 40
- 238000000034 method Methods 0.000 description 34
- 238000012545 processing Methods 0.000 description 31
- 238000001228 spectrum Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 230000002194 synthesizing effect Effects 0.000 description 6
- 230000006866 deterioration Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000000877 morphologic effect Effects 0.000 description 3
- 230000001755 vocal effect Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 230000029058 respiratory gaseous exchange Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- MQJKPEGWNLWLTK-UHFFFAOYSA-N Dapsone Chemical compound C1=CC(N)=CC=C1S(=O)(=O)C1=CC=C(N)C=C1 MQJKPEGWNLWLTK-UHFFFAOYSA-N 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/06—Elementary speech units used in speech synthesisers; Concatenation rules
- G10L13/07—Concatenation rules
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrophonic Musical Instruments (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
【解決手段】目標音声に対応する音韻系列を合成単位で区切って、複数のセグメントを求め、音声素片記憶部42から、目標音声に対応する韻律情報を基に、複数のセグメントのそれぞれに対し、韻律的な特徴が一致、または、類似する複数の音声素片を選択し、選択された複数の音声素片のそれぞれのフレームに対して、ホルマント周波数を含むホルマントパラメータを生成し、複数の音声素片のそれぞれのフレームに対応するホルマントパラメータから、フレーム毎に融合ホルマントパラメータを求め、フレーム毎の融合ホルマントパラメータから、各セグメントに対応する融合音声素片をそれぞれ求め、セグメント毎の融合音声素片を接続することによって合成音声を生成する。
【選択図】図2
Description
以下、本発明の第1の実施形態のテキスト音声合成装置について、図1〜図19に基づいて説明する。
図1は、本実施形態に係るテキスト音声合成装置の構成を示すブロック図である。
図2は、図1の音声合成部4の構成例を示すブロック図である。
音声素片記憶部42には、大量の音声素片が蓄積されており、合成音声を生成する際に用いる音声の単位(合成単位)の音声素片が記憶されている。
音素環境記憶部43には、音声素片記憶部42に記憶されている音声素片の音素環境の情報(以下、「音素環境情報」と呼ぶ)が記憶されている。
ホルマントパラメータ記憶部44には、ホルマントパラメータ作成部41において作成されたホルマントパラメータが蓄積されている。「ホルマントパラメータ」とはホルマント周波数と、各ホルマントの形状を表すパラメータで構成されるものである。
音韻系列・韻律情報入力部45には、韻律処理部3から出力された目標音声の音韻系列及び韻律情報が入力される。
音声素片選択部46は、入力音韻系列を合成単位で区切ることにより得られる複数のセグメントのそれぞれに対し、入力韻律情報と、音声素片の音素環境に含まれる韻律情報との歪みの度合いを推定し、前記歪みの度合いを最小化するように音声素片記憶部42に記憶されている音声素片の中から音声素片を選択する。
音声素片融合部47は、音声素片選択部46において選択された複数の音声素片に関して、ホルマントパラメータ作成部41において作成されたホルマントパラメータを融合し、融合されたホルマントパラメータから融合音声素片を生成する。
融合音声素片編集・接続部48は、融合音声素片の系列を入力韻律情報に基づいて変形及び接続して、合成音声の音声波形を生成する。
図3は、音声合成部4における処理の流れを示すフローチャートである。
音声素片記憶部42には、図4に示すように、各音素の音声信号の波形が当該音素を識別するための音声素片番号と共に記憶されている。
ホルマントパラメータ作成部44では、音声素片記憶部42に記憶されている各音声素片を入力としてホルマントパラメータを作成する。図6はホルマントパラメータ作成部41における処理の流れを示すフローチャートである。
ステップS411において、音声素片記憶部42からの入力が有声音のセグメントの場合、音声素片を複数の音声フレームと呼ばれる音声素片よりも小さな単位に分割する処理を行う。
次に、図6のステップS412において、ステップS411で切り出された音声素片のピッチ波形毎にホルマントパラメータを求める。図8(d)は、切り出されたピッチ波形434それぞれに対して作成されたホルマントパラメータ435を示している。
上記で作成したホルマントパラメータをホルマントパラメータ記憶部44に記憶させる。この場合にホルマントパラメータ系列は、当該音素の素片番号に対応付けて記憶されている。
図2の音韻系列・韻律情報入力部45には、音韻の情報として、テキスト音声合成のために入力テキストの形態素解析・構文解析後、更にアクセントやイントネーション処理を行って得られた韻律情報と音韻系列が入力される。
音声素片選択部46では、コスト関数に基づいて音声素片系列を求める。
コスト関数は次のように定める。
サブコスト関数は、音声素片記憶部42に記憶されている音声素片を用いて合成音声を生成したときに生ずる当該合成音声の目標音声に対する歪みの度合いを推定するためのコストを算出するためのものである。当該コストを算出するために、ここでは、具体的には、当該音声素片を使用することによって生じる合成音声の目標音声に対する歪みの度合いを推定する目標コストと、当該音声素片を他の音声素片と接続したときに生じる当該合成音声の目標音声に対する歪みの度合いを推定する接続コストという2種類のサブコストを用いる。
図3のステップS401では、上記の式(1)〜(5)に示したコスト関数を使って2段階で1セグメント当たり(すなわち、1合成単位当たり)複数の音声素片を選択する。詳細を図11のフローチャートに示す。
例えば、図12に示すように、入力音韻系列が「ts・i・i・s・a・・・・」であるとする。この場合、合成単位は、音素「ts」、「i」、「i」、「s」、「a」、・・・のそれぞれに対応し、これら音素のそれぞれが1つのセグメントに対応する。図12では、入力された音韻系列中の3番目の音素「i」に対応するセグメントを注目セグメントとし、この注目セグメントについて、複数の音声素片を求める場合を示している。この3番目の音素「i」に対応するセグメント以外のセグメントに対しては、最適素片系列中の音声素片461a、461b、461d、461e・・・を固定する。
次に、図3のステップS402における音声素片融合部47の処理について説明する。
ステップS471において、まず行われるのは、音声素片選択部46において選択された各セグメント中のM個の音声素片に対応するホルマントパラメータをホルマントパラメータ記憶部44から抽出する。この場合にホルマントパラメータ系列は、音声素片の素片番号に対応付けて記憶されているため、それに基づいて抽出する。
ステップS471では、上記のように抽出した、当該セグメント中のM個の音声素片それぞれのホルマントパラメータ系列の中で、最もホルマントパラメータの数が多いものに合わせて、M個全てのホルマントパラメータ系列中のホルマントパラメータの数が同じになるようにする。このときに、ホルマントパラメータの数が少ないホルマントパラメータの系列については、ホルマントパラメータを複製して、ホルマントパラメータの数をそろえる。
ステップS472では、ステップS471において音声素片の各音声フレームに対応するホルマントパラメータの数を揃えられたホルマントパラメータを各々融合する。図15はホルマントパラメータを融合するステップS472の処理の流れを示したフローチャートである。
図16は、M個(例えば、ここでは、2個)の音声素片中のフレームのホルマントパラメータ485、486をステップS481で計算された融合コスト関数を基に、ステップS482で似た形状のホルマントを対応付け、ステップS483で仮想ホルマントに対応付け、ステップS484においてホルマントパラメータを融合して融合ホルマントパラメータ487を作成するまでの流れを示したものである。
次に、図13のステップS473では、ステップS472で融合された融合ホルマントパラメータ系列g1から融合ピッチ波形系列h1を生成する。
ステップS403において、融合音声素片編集・接続部48は、ステップS402で求めた、セグメント毎の融合音声素片を、入力韻律情報に従って変形し、接続することで音声波形を生成する。
ここで、本実施形態と、従来の複数素片選択・融合型の音声合成手法との違いについて説明する。
次に、第2の実施形態に係る音声合成部4について説明する。図20は、第2の実施形態に係る音声合成部4の構成例を示したものである。
次に、第3の実施形態に係る音声素片融合部47について説明する。
次に、第4の実施形態に係る音声素片融合部47について説明する。図22は音声素片融合部47における処理の流れを示すフローチャートである。図13の相対応する部分に同一の参照符号を付して相違点を中心に説明する。
本発明は上記各実施形態に限らず、その主旨を逸脱しない限り種々に変更することができる。
2 言語処理部
3 韻律処理部
4 音声合成部
5 音声波形出力部
Claims (14)
- 目標音声に対応する音韻系列を合成単位で区切って、複数のセグメントを求める分割ステップと、
1つ以上のフレームから構成された音声素片が複数格納された音声素片記憶部から、前記目標音声に対応する韻律情報を基に、前記複数のセグメントのそれぞれに対し、韻律的な特徴が一致、または、類似する複数の音声素片を選択する選択ステップと、
前記選択された複数の音声素片のそれぞれのフレームに対して、少なくとも一つのホルマント周波数を含む一つのホルマントパラメータを生成するパラメータ生成ステップと、
前記複数の音声素片のそれぞれのフレームに対応する一つの前記ホルマントパラメータから、前記フレーム毎に融合ホルマントパラメータを求める融合ステップと、
前記フレーム毎の前記融合ホルマントパラメータから、前記各セグメントに対応する融合音声素片をそれぞれ求める融合音声素片生成ステップと、
前記セグメント毎の融合音声素片を接続することによって合成音声を生成する合成ステップと、
を有する音声合成方法。 - 前記パラメータ生成ステップは、予め記憶された複数のホルマントパラメータから、前記選択された複数の音声素片のそれぞれに対応するホルマントパラメータを抽出する、
請求項1記載の音声合成方法。 - 前記パラメータ生成ステップは、前記選択された音声素片に対応する前記ホルマントパラメータを生成する、
請求項1記載の音声合成方法。 - 前記ホルマントパラメータは、前記ホルマント周波数と、前記音声素片のホルマントの形状を表す形状パラメータを含む、
請求項1記載の音声合成方法。 - 前記形状パラメータは、少なくとも窓関数、位相、パワーを含む、
請求項1記載の音声合成方法。 - 前記形状パラメータは、少なくともパワー、ホルマント帯域幅を含む、
請求項1記載の音声合成方法。 - 前記パラメータ生成ステップは、前記選択された複数の音声素片のフレームの数が互いに異なるときは、前記フレームの数が一致するように対応付けする、
請求項1記載の音声合成方法。 - 前記融合ステップは、前記対応付けしたホルマントパラメータに含まれるホルマント周波数の数が互いに異なるときは、前記ホルマント周波数の数が一致するように対応付けする、
請求項1記載の音声合成方法。 - 前記融合ステップは、
前記ホルマント周波数を対応付けするときは、前記ホルマントパラメータ間の各ホルマント周波数の類似度を推定し、
前記類似度が任意の閾値より大きいときは、前記類似度が大きい前記ホルマント周波数同士を対応付けし、
前記類似度が前記閾値より小さいときは、前記対応付けしたいホルマント周波数と、同一のホルマント周波数でパワーが0のホルマントを仮想ホルマントとして作成し、
前記対応付けしたいホルマント周波数と前記仮想ホルマントのホルマント周波数を対応付ける、
請求項8記載の音声合成方法。 - 前記融合音声素片生成ステップは、
前記複数の音声素片のそれぞれの前記ホルマントパラメータに含まれるホルマント周波数、パワー、位相から正弦波をそれぞれ生成し、
前記正弦波に窓関数をかけることによって前記複数の音声素片のそれぞれのホルマント波形を生成し、
前記複数の音声素片のそれぞれのホルマント波形を加算して、前記フレーム毎のピッチ波形を生成し、
前記各フレームのピッチ波形を重畳することで前記融合音声素片を生成する、
請求項5記載の音声合成方法。 - 前記融合ステップにおいて、
前記ホルマントパラメータに含まれるホルマント周波数の変化を平滑化する、
請求項1記載の音声合成方法。 - 前記選択ステップは、
前記合成音声を前記音声素片群を用いて生成したときに生ずる、前記合成音声の前記目標音声に対する歪みの度合いを推定し、
前記歪み度合いが小さくなるように、前記複数のセグメントのそれぞれに対し前記複数の音声素片を選択する、
請求項1記載の音声合成方法。 - 目標音声に対応する音韻系列を合成単位で区切って、複数のセグメントを求める分割部と、
1つ以上のフレームから構成された音声素片が複数格納された音声素片記憶部から、前記目標音声に対応する韻律情報を基に、前記複数のセグメントのそれぞれに対し、韻律的な特徴が一致、または、類似する複数の音声素片を選択する選択部と、
前記選択された複数の音声素片のそれぞれのフレームに対して、少なくとも一つのホルマント周波数を含む一つのホルマントパラメータを生成するパラメータ生成部と、
前記複数の音声素片のそれぞれのフレームに対応する一つの前記ホルマントパラメータから、前記フレーム毎に融合ホルマントパラメータを求める融合部と、
前記フレーム毎の前記融合ホルマントパラメータから、前記各セグメントに対応する融合音声素片をそれぞれ求める融合音声素片生成部と、
前記セグメント毎の融合音声素片を接続することによって合成音声を生成する合成部と、
を有する音声合成装置。 - 目標音声に対応する音韻系列を合成単位で区切って、複数のセグメントを求める分割機能と、
1つ以上のフレームから構成された音声素片が複数格納された音声素片記憶部から、前記目標音声に対応する韻律情報を基に、前記複数のセグメントのそれぞれに対し、韻律的な特徴が一致、または、類似する複数の音声素片を選択する選択機能と、
前記選択された複数の音声素片のそれぞれのフレームに対して、少なくとも一つのホルマント周波数を含む一つのホルマントパラメータを生成するパラメータ生成機能と、
前記複数の音声素片のそれぞれのフレームに対応する一つの前記ホルマントパラメータから、前記フレーム毎に融合ホルマントパラメータを求める融合機能と、
前記フレーム毎の前記融合ホルマントパラメータから、前記各セグメントに対応する融合音声素片をそれぞれ求める融合音声素片生成機能と、
前記セグメント毎の融合音声素片を接続することによって合成音声を生成する合成機能と、
をコンピュータによって実現する音声合成プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007212809A JP4469883B2 (ja) | 2007-08-17 | 2007-08-17 | 音声合成方法及びその装置 |
US12/222,725 US8175881B2 (en) | 2007-08-17 | 2008-08-14 | Method and apparatus using fused formant parameters to generate synthesized speech |
CNA2008102154865A CN101369423A (zh) | 2007-08-17 | 2008-08-15 | 语音合成方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007212809A JP4469883B2 (ja) | 2007-08-17 | 2007-08-17 | 音声合成方法及びその装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009047837A true JP2009047837A (ja) | 2009-03-05 |
JP4469883B2 JP4469883B2 (ja) | 2010-06-02 |
Family
ID=40363649
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007212809A Expired - Fee Related JP4469883B2 (ja) | 2007-08-17 | 2007-08-17 | 音声合成方法及びその装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8175881B2 (ja) |
JP (1) | JP4469883B2 (ja) |
CN (1) | CN101369423A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012001457A1 (en) * | 2010-06-28 | 2012-01-05 | Kabushiki Kaisha Toshiba | Method and apparatus for fusing voiced phoneme units in text-to-speech |
CN113763931A (zh) * | 2021-05-07 | 2021-12-07 | 腾讯科技(深圳)有限公司 | 波形特征提取方法、装置、计算机设备及存储介质 |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5238205B2 (ja) * | 2007-09-07 | 2013-07-17 | ニュアンス コミュニケーションズ,インコーポレイテッド | 音声合成システム、プログラム及び方法 |
US9311929B2 (en) * | 2009-12-01 | 2016-04-12 | Eliza Corporation | Digital processor based complex acoustic resonance digital speech analysis system |
JP5320363B2 (ja) * | 2010-03-26 | 2013-10-23 | 株式会社東芝 | 音声編集方法、装置及び音声合成方法 |
CN102184731A (zh) * | 2011-05-12 | 2011-09-14 | 北京航空航天大学 | 一种韵律类和音质类参数相结合的情感语音转换方法 |
CN102270449A (zh) * | 2011-08-10 | 2011-12-07 | 歌尔声学股份有限公司 | 参数语音合成方法和系统 |
US9997154B2 (en) * | 2014-05-12 | 2018-06-12 | At&T Intellectual Property I, L.P. | System and method for prosodically modified unit selection databases |
JP6392012B2 (ja) * | 2014-07-14 | 2018-09-19 | 株式会社東芝 | 音声合成辞書作成装置、音声合成装置、音声合成辞書作成方法及び音声合成辞書作成プログラム |
EP3625791A4 (en) * | 2017-05-18 | 2021-03-03 | Telepathy Labs, Inc. | TEXT-SPEECH SYSTEM AND PROCESS BASED ON ARTIFICIAL INTELLIGENCE |
CN107945786B (zh) * | 2017-11-27 | 2021-05-25 | 北京百度网讯科技有限公司 | 语音合成方法和装置 |
RU2692051C1 (ru) | 2017-12-29 | 2019-06-19 | Общество С Ограниченной Ответственностью "Яндекс" | Способ и система для синтеза речи из текста |
KR102637341B1 (ko) * | 2019-10-15 | 2024-02-16 | 삼성전자주식회사 | 음성 생성 방법 및 장치 |
CN110634490B (zh) * | 2019-10-17 | 2022-03-11 | 广州国音智能科技有限公司 | 一种声纹鉴定方法、装置和设备 |
CN111564153B (zh) * | 2020-04-02 | 2021-10-01 | 湖南声广科技有限公司 | 广播电台智能主播音乐节目系统 |
CN111681639B (zh) * | 2020-05-28 | 2023-05-30 | 上海墨百意信息科技有限公司 | 一种多说话人语音合成方法、装置及计算设备 |
CN113409762B (zh) * | 2021-06-30 | 2024-05-07 | 平安科技(深圳)有限公司 | 情感语音合成方法、装置、设备及存储介质 |
CN113793591B (zh) * | 2021-07-07 | 2024-05-31 | 科大讯飞股份有限公司 | 语音合成方法及相关装置和电子设备、存储介质 |
US20230335110A1 (en) * | 2022-04-19 | 2023-10-19 | Google Llc | Key Frame Networks |
CN116798405B (zh) * | 2023-08-28 | 2023-10-24 | 世优(北京)科技有限公司 | 语音合成方法、装置、存储介质和电子设备 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3828132A (en) * | 1970-10-30 | 1974-08-06 | Bell Telephone Labor Inc | Speech synthesis by concatenation of formant encoded words |
US4979216A (en) * | 1989-02-17 | 1990-12-18 | Malsheen Bathsheba J | Text to speech synthesis system and method using context dependent vowel allophones |
ATE277405T1 (de) * | 1997-01-27 | 2004-10-15 | Microsoft Corp | Stimmumwandlung |
US7251607B1 (en) | 1999-07-06 | 2007-07-31 | John Peter Veschi | Dispute resolution method |
JP3732793B2 (ja) | 2001-03-26 | 2006-01-11 | 株式会社東芝 | 音声合成方法、音声合成装置及び記録媒体 |
US7251601B2 (en) | 2001-03-26 | 2007-07-31 | Kabushiki Kaisha Toshiba | Speech synthesis method and speech synthesizer |
US7010488B2 (en) * | 2002-05-09 | 2006-03-07 | Oregon Health & Science University | System and method for compressing concatenative acoustic inventories for speech synthesis |
GB2392592B (en) * | 2002-08-27 | 2004-07-07 | 20 20 Speech Ltd | Speech synthesis apparatus and method |
JP4080989B2 (ja) * | 2003-11-28 | 2008-04-23 | 株式会社東芝 | 音声合成方法、音声合成装置および音声合成プログラム |
JP2008545995A (ja) * | 2005-03-28 | 2008-12-18 | レサック テクノロジーズ、インコーポレーテッド | ハイブリッド音声合成装置、方法および用途 |
-
2007
- 2007-08-17 JP JP2007212809A patent/JP4469883B2/ja not_active Expired - Fee Related
-
2008
- 2008-08-14 US US12/222,725 patent/US8175881B2/en not_active Expired - Fee Related
- 2008-08-15 CN CNA2008102154865A patent/CN101369423A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012001457A1 (en) * | 2010-06-28 | 2012-01-05 | Kabushiki Kaisha Toshiba | Method and apparatus for fusing voiced phoneme units in text-to-speech |
CN113763931A (zh) * | 2021-05-07 | 2021-12-07 | 腾讯科技(深圳)有限公司 | 波形特征提取方法、装置、计算机设备及存储介质 |
CN113763931B (zh) * | 2021-05-07 | 2023-06-16 | 腾讯科技(深圳)有限公司 | 波形特征提取方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US8175881B2 (en) | 2012-05-08 |
US20090048844A1 (en) | 2009-02-19 |
JP4469883B2 (ja) | 2010-06-02 |
CN101369423A (zh) | 2009-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4469883B2 (ja) | 音声合成方法及びその装置 | |
JP4080989B2 (ja) | 音声合成方法、音声合成装置および音声合成プログラム | |
JP4551803B2 (ja) | 音声合成装置及びそのプログラム | |
JP5159325B2 (ja) | 音声処理装置及びそのプログラム | |
JP4241762B2 (ja) | 音声合成装置、その方法、及びプログラム | |
JP4406440B2 (ja) | 音声合成装置、音声合成方法及びプログラム | |
JP2008033133A (ja) | 音声合成装置、音声合成方法および音声合成プログラム | |
JP2010009034A (ja) | 歌声合成パラメータデータ推定システム | |
JP2000172285A (ja) | フィルタパラメ―タとソ―ス領域において独立にクロスフェ―ドを行う半音節結合型のフォルマントベ―スのスピ―チシンセサイザ | |
US20040030555A1 (en) | System and method for concatenating acoustic contours for speech synthesis | |
JP3732793B2 (ja) | 音声合成方法、音声合成装置及び記録媒体 | |
JP2009133890A (ja) | 音声合成装置及びその方法 | |
JP3728173B2 (ja) | 音声合成方法、装置および記憶媒体 | |
JP5930738B2 (ja) | 音声合成装置及び音声合成方法 | |
JP5874639B2 (ja) | 音声合成装置、音声合成方法及び音声合成プログラム | |
JP4247289B1 (ja) | 音声合成装置、音声合成方法およびそのプログラム | |
JP2005004104A (ja) | 規則音声合成装置及び規則音声合成方法 | |
JP5106274B2 (ja) | 音声処理装置、音声処理方法及びプログラム | |
JP4476855B2 (ja) | 音声合成装置及びその方法 | |
JP3727885B2 (ja) | 音声素片生成方法と装置及びプログラム、並びに音声合成方法と装置 | |
JP2011141470A (ja) | 素片情報生成装置、音声合成システム、音声合成方法、及び、プログラム | |
JP4034751B2 (ja) | 音声合成装置、音声合成方法および音声合成プログラム | |
JP2006084854A (ja) | 音声合成装置、音声合成方法および音声合成プログラム | |
JP3576792B2 (ja) | 音声情報処理方法 | |
WO2013014858A1 (ja) | ピッチパタン生成方法、ピッチパタン生成装置、音声合成装置およびピッチパタン生成プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090710 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090804 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091002 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100202 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100301 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130305 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130305 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140305 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |