JP2006048056A - 混合言語テキスト音声合成 - Google Patents
混合言語テキスト音声合成 Download PDFInfo
- Publication number
- JP2006048056A JP2006048056A JP2005226493A JP2005226493A JP2006048056A JP 2006048056 A JP2006048056 A JP 2006048056A JP 2005226493 A JP2005226493 A JP 2005226493A JP 2005226493 A JP2005226493 A JP 2005226493A JP 2006048056 A JP2006048056 A JP 2006048056A
- Authority
- JP
- Japan
- Prior art keywords
- text
- syllable
- boundary
- word
- natural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000015572 biosynthetic process Effects 0.000 title claims abstract description 19
- 238000003786 synthesis reaction Methods 0.000 title claims abstract description 16
- 238000000034 method Methods 0.000 claims abstract description 34
- 230000011218 segmentation Effects 0.000 claims description 15
- 230000005284 excitation Effects 0.000 claims description 9
- 125000006850 spacer group Chemical group 0.000 claims description 8
- 230000006872 improvement Effects 0.000 claims description 4
- 238000010281 constant-current constant-voltage charging Methods 0.000 claims description 3
- 230000002194 synthesizing effect Effects 0.000 claims description 2
- 238000010606 normalization Methods 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000009499 grossing Methods 0.000 description 3
- 101000713310 Homo sapiens Sodium bicarbonate cotransporter 3 Proteins 0.000 description 2
- 102100036911 Sodium bicarbonate cotransporter 3 Human genes 0.000 description 2
- 125000002015 acyclic group Chemical group 0.000 description 2
- UXUFTKZYJYGMGO-CMCWBKRRSA-N (2s,3s,4r,5r)-5-[6-amino-2-[2-[4-[3-(2-aminoethylamino)-3-oxopropyl]phenyl]ethylamino]purin-9-yl]-n-ethyl-3,4-dihydroxyoxolane-2-carboxamide Chemical compound O[C@@H]1[C@H](O)[C@@H](C(=O)NCC)O[C@H]1N1C2=NC(NCCC=3C=CC(CCC(=O)NCCN)=CC=3)=NC(N)=C2N=C1 UXUFTKZYJYGMGO-CMCWBKRRSA-N 0.000 description 1
- 241001672694 Citrus reticulata Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 210000001072 colon Anatomy 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/06—Elementary speech units used in speech synthesisers; Concatenation rules
Abstract
【解決手段】混合言語テキスト音声合成のための方法は、二つの言語の混合言語テキストを受信するステップ(220)を含む。次に、テキスト列内のテキストを、(i)音節に基づく文字の文字列であって、その文字のそれぞれが単一音節を表す文字列か、(ii)アルファベットの文字によって形成された一つまたはそれ以上の単語からなる単語列であってその単語のいくつかは二以上の音節を表す単語列、のいずれかに分割するステップを含む。音節に基づく文字のそれぞれに発音ユニットが割り当てられ(240)、単語のそれぞれに音素が割り当てられる(260)。発音ユニットと音素の両方に対する個々の音響ユニットが、選択され(250,270)、連結され(275)、合成(285)される。
【選択図】図2
Description
少なくとも二つの言語の混合言語テキスト列を受信するステップと、
前記テキスト列内のテキストを、(i)音節に基づく文字の少なくとも一つの文字列であって、前記文字のそれぞれが単一音節を表す文字列、および(ii)アルファベットの文字によって形成された一つまたはそれ以上の単語からなる少なくとも一つの単語列であって、前記単語の少なくともいくつかは二以上の音節を表す単語列のいずれかに、分割するステップと、
前記音節に基づく文字のそれぞれに発音ユニットを割り当てるステップと、
前記単語のそれぞれに音素を割り当てるステップであって、該音素の一つまたはそれ以
上が個々の音節を形成するステップと、
前記発音ユニットと音素の両方に対して個々の音響ユニットを選択するステップと、
前記個々の音響ユニットを連結して、前記混合テキスト列に対応する順序を有する連結順序音響ユニットにするステップと、
前記連結順序音響ユニットを用いて音声合成を行うステップとを備える。
前記一次言語からなるテキストは、前記二次言語のテキストの位置を示す一つまたはそれ以上のダミースペーサを含むのが好ましい。
形容詞+名詞は、自然境界を与える、
数字+量は、自然境界を与える、
動詞+名詞は、自然境界を与える、
副詞+動詞は、自然境界を与える、
名詞+名詞は、自然境界を与える、
数字+名詞は、自然境界を与える、
動詞+動詞は、自然境界を与える、および
名詞+接続詞+名詞は、自然境界を与える
ことを含む。
前記音節の境界を特定するステップは、VCVの場合には、V|CVとなる;VVの場合には、V|Vとなる;VCCVの場合には、VC|CV(CCがCGの中にない場合)となる;VCCVの場合には、V|CCV(CCがCGの中にある場合)となる;VCCCVの場合には、VC|CCVとなる;VCCCVの場合にはVC|CCCVとなるというルールを有するのが適切である。前記「|」は音節の境界を表す。
前記連結順序音響ユニットは、連結境界における音響ユニットに関する励起信号をマージすることを含む改善が施されるのが適切である。
図1は無線電話の形態の電子装置100を示す。この電子装置100は、一般的にタッチスクリーンまたは代替的には表示スクリーンとキーボードであるユーザーインターフェース104に、バス103によって動作可能に接続された装置プロセッサ102を備えている。
単語列1(SOW1)−> ブランク1:「mention 」
単語列2(SOW2)−> ブランク2:「Watson」
単語列3(SOW3)−> ブランク3:「Chicago 」
単語列4(SOW4)−> ブランク4:「APEC」
以上から、漢字が英単語よりも多いので、一次言語は中国語となり、二次言語は英語となる。このことは、音節に基づく文字(SBC)列の中で英単語がブランクとして表されているので、明らかである。このように、一次言語からなるテキストは、二次言語のテキストの位置を示す一つまたはそれ以上のダミースペーサ(ブランク1からブランク4までの空白)を含んでいる。
(240)を実行する。割り当てステップ(240)は本質的に3つのサブステップに分けられる。それら3つのサブステップは、(a)テキストの解析、(b)句の境界の決定、および(c)発音ユニットの特定である。
正規化は、数字および句読点などの特別な文字に対して有用である。正規化は、ルールを用いて、特別な意味を持つ特別な文字、またはこれらの特別な文字の文脈に因って異なり得る対応する発音ユニットを有する特別な文字を特定する。従って、正規化は特別文字からなる正規化文字を提供する。また、正規化はルールベースによってもたらされる。その一部は以下の通りである。
ドットルール:
終止符は、「上海是中国最大的城市之一.」などの文の終わりである。
小数点は、「点」という音を有するように正規化される。例えば、1.234は、一点二三四。
URL内のドットは「ドット」という音を有するように正規化される。例えば、www.mot.com (www 点m ot 点com ,www ドットmot ドットcom )
分数フラグ: 2/3(三分之二)
日付フラグ: 97/10(九七年十月,October, 1997 )
コンマルール:
数識別子: 123,456(十二万三千四百五十六,one hundred twenty three thousand three hundred fifty six )
数列ルール
数字: 123456(一二三四五六,one two three four five six )
サブステップ(b)の句の境界の決定は、当業者にとって明らかなように、最大マッチングを使って、予測的な単語のまとまりの形成(フレージング)を行う。句の境界を決定する目的は、最大一致単語(MMW)列内の句読点によって明確に特定されない自然境界(自然音声休止)を特定することである。予測的な単語のまとまりの形成は音声パターンの一部に基づいており、以下のルール、すなわち、
形容詞+名詞は、自然境界を与える、
数字+量は、自然境界を与える、
動詞+名詞は、自然境界を与える、
副詞+動詞は、自然境界を与える、
名詞+名詞は、自然境界を与える、
数字+名詞は、自然境界を与える
動詞+動詞は、自然境界を与える、および
名詞+接続詞+名詞は、自然境界を与える。
というルールを有する。
名詞+名詞ルールは繰り返して用いられるので、連続した三つ以上の名詞も自然境界を与える(例えば、名詞+名詞+名詞、名詞+名詞+名詞+名詞、など)。また、動詞+動詞ルールも繰り返し用いられる。
SBC2に対して、セグメント化後は、
フレージング後は、
「ブランク2 | 是|一位 成功 的 商人」となる。
SBC3に対して、セグメント化後は、
フレージング後は、
不揮発性メモリ120に記憶されている音声インベントリ内のユニットが、韻律位置と文脈情報において目標発音ユニットと一致した場合には、このユニットが選択される。例えば、
サブステップ(b)の句の境界の決定は、参照によって本明細書に援用される、出願番号第03132708.7号にて出願された中国特許出願に記載されたプロセスによって行われる。要約すると、句の境界は、統計的解析と、90,000を超える転写の大量のトレーニングセットから選択される経験則とによって決定される。これらの経験則は不揮発性メモリ120に記憶されている。句の境界の目的は、句読点によって明確に特定されない自然境界(自然音声休止)を特定することである。
プ(c)の文字から音への変換は、参照によって本明細書に援用される、出願番号第03132709.5号にて出願された中国特許出願に記載されたプロセスによって行われる。しかしながら、要約すれば、文字から音への変換サブステップは、単語をサブワードに分割するステップを含み、サブワードは、少なくとも二つの文字からなる一つまたはそれ以上のサブワードを有するサブワードシーケンスを形成する。サブワードシーケンスは、選択した単語を構成するであろうすべての可能なサブワードの解析によって決定される。この解析は、非循環有向グラフ(Direct Acyclic Graph:DAG)の構築によって行われる。
子音(C)は以下のサブワードのいずれかで構成される:
TS,b,ch,d,dh,f,g,hh, k,l,m,n,ng, , p,r,s,sh,t,th, v,w,y,z,zh
母音(V)は以下のサブワードのいずれかで構成される:
aa,ae,ao,aw,ax, ay,eh,er, ey,ih,iy,ow,oy,uh,uw
子音群(CG)は以下のサブワードのいずれかで構成される:
bl,br,by,dr,dy,fl,fr,fy,gl,gr,gw,gy,kl,kr,kw,ky,ly,my,ny,pl,pr,py,sk,sl,sm,sn,sp,st,tr.
境界ルール2:VVの場合は、V|Vとなる。
境界ルール3:VCCVの場合は、VC|CV(CCがCGの中にない場合)となる。
境界ルール4:VCCVの場合は、V|CCV(CCがCGの中にある場合)となる。
境界ルール5:VCCCVの場合は、VC|CCVとなる。
境界ルール6:VCCCCVの場合は、VC|CCCVとなる。
ここで、「|」は音節の境界を表す。
クラス1:規則的子音+母音、半母音+母音、鼻音+母音。規則的子音には、閉鎖音、摩擦音、歯音などがある。
クラス2:クラス1+鼻音/半母音。
クラス3:サブCV。これはクラス1またはクラス2の一部である。
クラス4:頭子音(consonant initial) と頭子音群(consonant initial group) 。頭子音は音節の頭音(syllable initial)として働く子音であり、頭子音群は主として閉鎖音とそれに続く歯音(例えば、s+t)をいう。
クラス5:末子音(consonant final) と末子音群(consonant final group) 。
ッチ推定値OT[i]はまた、ビットストリームの適応遅延パラメータから得られる。当業者にとって明らかなように、一つの音響ユニットはいくつかのフレームで構成することができる。上記3つのパラメータは各音響ユニットに対してフレーム毎に示される。また、各フレームに対して、パラメータLSP[i]はベクトルであり、10要素を含み、その要素の例は、[1227,2027,3884,9108,12892,16454,19866,23019,26304,29553]である。また、パラメータExc[i][j]は240要素を含むベクトルであり、その要素の例は、[0,0,−1,−3,0,2,4,10,6,−1,…]であり、パラメータOT[i]は範囲[40,150]内の整数、例えば78である。
(a)二つの隣接音響ユニットの連結境界における各フレームのピッチ推定値OT[i]を平滑化する。境界における二つのユニットのピッチ値を線形的に補間して、平滑化した新たな値、(前方または先行ユニットの最終フレームに対する)OT[T]と、(次のユニットの開始フレームに対する)OT[Hu]を得る。
実施態様の詳細な説明は、当業者に、本発明の好ましい典型的な実施態様を実施するのを可能にする説明を提供する。特許請求の範囲に述べられたような本発明の精神と範囲から逸脱することなしに、要素の機能と配置において種々の変更を行うことができることは明らかである。
Claims (15)
- 混合言語テキスト音声合成のための方法であって、
少なくとも二つの言語の混合言語テキスト列を受信するステップと、
前記テキスト列内のテキストを、(i)音節に基づく文字の少なくとも一つの文字列であって、前記文字のそれぞれが単一音節を表す文字列、および(ii)アルファベット文字によって形成された一つまたはそれ以上の単語からなる少なくとも一つの単語列であって、前記単語の少なくともいくつかは二つ以上の音節を表す単語列、のうちのいずれかに分割するステップと、
前記音節に基づく文字のそれぞれに発音ユニットを割り当てるステップと、
前記単語のそれぞれに音素を割り当てるステップであって、該音素の一つまたはそれ以上が個々の音節を形成するステップと、
前記発音ユニットと音素の両方に対して個々の音響ユニットを選択するステップと、
前記個々の音響ユニットを連結して、前記混合テキスト列に対応する順序を有する連結順序音響ユニットにするステップと、
前記連結順序音響ユニットを用いて音声合成を行うステップとを備えることを特徴とする方法。 - 前記テキスト分割ステップは、前記二つの言語のいずれが一次言語であり、いずれが二次言語であるかを特定することを特徴とする請求項1に記載の方法。
- 前記一次言語からなるテキストは、前記二次言語のテキストの位置を示す一つまたはそれ以上のダミースペーサを含むことを特徴とする請求項1に記載の方法。
- 前記発音ユニット割り当てステップは、辞書の中の単語が、音節に基づく文字のテキストの最も多くの連続した文字が一致するセグメントと一致するように最大マッチングを行うことによるセグメント化を含み、該セグメント化は最大一致単語を提供することを特徴とする請求項1に記載の方法。
- 前記音響ユニット割り当てステップは、句読点によって明確に特定されない自然音声休止を特定するために、前記最大一致単語に対する句の境界を決定するステップを含むことを特徴とする請求項4に記載の方法。
- 前記音響ユニット割り当てステップは、各文字に対する発音ユニットを、その文字が最大一致単語のいずれを構成するかを考慮しながら特定するステップを含むことを特徴とする請求項5に記載の方法。
- 前記発音ユニットのそれぞれに関する韻律情報があることを特徴とする請求項6に記載の方法。
- 前記音素割り当てステップは、句読点によって明確に特定されない一つまたはそれ以上の自然境界を特定するステップを含むことを特徴とする請求項6に記載の方法。
- 前記自然境界は、音声パターンの一部に基づく予測的な単語のまとまりの形成によって特定されることを特徴とする請求項8に記載の方法。
- 前記音声パターンの一部は、ルールを用いて特定され、該ルールは、
形容詞+名詞は、自然境界を与える、
数字+量は、自然境界を与える、
動詞+名詞は、自然境界を与える、
副詞+動詞は、自然境界を与える、
名詞+名詞は、自然境界を与える、
数字+名詞は、自然境界を与える、
動詞+動詞は、自然境界を与える、および
名詞+接続詞+名詞は、自然境界を与える
ことを含むことを特徴とする請求項9に記載の方法。 - 前記音素割り当てステップは、単語を、サブワードシーケンスを形成するサブワードに分割するステップと、音節の境界を特定するステップであって、それにより、サブワードまたは音素を個々の音節に割り当てるステップを含むことを特徴とする請求項8に記載の方法。
- 前記音節の境界を特定するステップは、各サブワードを子音(C)、母音(V)、および子音群(CG)に特定するステップを含むのが好ましいことを特徴とする請求項11に記載の方法。
- 前記音節の境界を特定するステップは、
VCVの場合には、V|CVとなる;VVの場合には、V|Vとなる;VCCVの場合には、VC|CV(CCがCGの中にない場合)となる;VCCVの場合には、V|CCV(CCがCGの中にある場合)となる;VCCCVの場合には、VC|CCVとなる;VCCCVの場合にはVC|CCCVとなるというルールを有し、
前記「|」は音節の境界を表すことを特徴とする請求項11に記載の方法。 - 連結の間、前記音響ユニットが、二次言語のテキストの位置を示すそれぞれのダミースペーサの中に挿入されることを特徴とする請求項1に記載の方法。
- 前記連結順序音響ユニットに対して、連結境界における音響ユニットに関連する励起信号をマージすることを含む改善が行われることを特徴とする請求項11に記載の方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2004100558885A CN1731510B (zh) | 2004-08-05 | 2004-08-05 | 混合语言文语转换 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006048056A true JP2006048056A (ja) | 2006-02-16 |
JP4473193B2 JP4473193B2 (ja) | 2010-06-02 |
Family
ID=35963851
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005226493A Active JP4473193B2 (ja) | 2004-08-05 | 2005-08-04 | 混合言語テキスト音声合成方法および音声合成装置 |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP4473193B2 (ja) |
KR (1) | KR20060049290A (ja) |
CN (1) | CN1731510B (ja) |
SG (1) | SG119357A1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012118720A (ja) * | 2010-11-30 | 2012-06-21 | Fujitsu Ltd | 言語処理装置、音声合成装置、言語処理方法及び言語処理プログラム |
CN107481713A (zh) * | 2017-07-17 | 2017-12-15 | 清华大学 | 一种混合语言语音合成方法及装置 |
KR20180025559A (ko) * | 2016-09-01 | 2018-03-09 | 에스케이텔레콤 주식회사 | 발음 사전 학습 방법 및 장치 |
JP2018128607A (ja) * | 2017-02-09 | 2018-08-16 | ヤマハ株式会社 | 音声処理方法および音声処理装置 |
CN112735378A (zh) * | 2020-12-29 | 2021-04-30 | 科大讯飞股份有限公司 | 泰语语音合成方法、装置以及设备 |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150364127A1 (en) * | 2014-06-13 | 2015-12-17 | Microsoft Corporation | Advanced recurrent neural network based letter-to-sound |
CN106462579B (zh) | 2014-10-15 | 2019-09-27 | 微软技术许可有限责任公司 | 为选定上下文构造词典 |
CN104517605B (zh) * | 2014-12-04 | 2017-11-28 | 北京云知声信息技术有限公司 | 一种用于语音合成的语音片段拼接系统和方法 |
CN105989833B (zh) * | 2015-02-28 | 2019-11-15 | 讯飞智元信息科技有限公司 | 多语种混语文本字音转换方法及系统 |
CN106297764B (zh) * | 2015-05-27 | 2019-07-30 | 科大讯飞股份有限公司 | 一种多语种混语文本处理方法及系统 |
CN105096953B (zh) * | 2015-08-11 | 2019-03-12 | 东莞市凡豆信息科技有限公司 | 实现多语种混合使用的语音识别方法 |
CN106098056B (zh) * | 2016-06-14 | 2022-01-07 | 腾讯科技(深圳)有限公司 | 一种语音新闻的处理方法、新闻服务器及系统 |
CN108305611B (zh) * | 2017-06-27 | 2022-02-11 | 腾讯科技(深圳)有限公司 | 文本转语音的方法、装置、存储介质和计算机设备 |
CN109086026B (zh) * | 2018-07-17 | 2020-07-03 | 阿里巴巴集团控股有限公司 | 播报语音的确定方法、装置和设备 |
EP3955243A3 (en) * | 2018-10-11 | 2022-05-11 | Google LLC | Speech generation using crosslingual phoneme mapping |
CN110211562B (zh) * | 2019-06-05 | 2022-03-29 | 达闼机器人有限公司 | 一种语音合成的方法、电子设备及可读存储介质 |
CN110797005B (zh) * | 2019-11-05 | 2022-06-10 | 百度在线网络技术(北京)有限公司 | 韵律预测方法、装置、设备和介质 |
CN111179904B (zh) * | 2019-12-31 | 2022-12-09 | 出门问问创新科技有限公司 | 混合文语转换方法及装置、终端和计算机可读存储介质 |
CN111292720B (zh) * | 2020-02-07 | 2024-01-23 | 北京字节跳动网络技术有限公司 | 语音合成方法、装置、计算机可读介质及电子设备 |
CN112652294B (zh) * | 2020-12-25 | 2023-10-24 | 深圳追一科技有限公司 | 语音合成方法、装置、计算机设备和存储介质 |
CN112735373B (zh) * | 2020-12-31 | 2024-05-03 | 科大讯飞股份有限公司 | 语音合成方法、装置、设备及存储介质 |
CN113160792B (zh) * | 2021-01-15 | 2023-11-17 | 广东外语外贸大学 | 一种多语种的语音合成方法、装置和系统 |
-
2004
- 2004-08-05 CN CN2004100558885A patent/CN1731510B/zh active Active
-
2005
- 2005-08-01 SG SG200504796A patent/SG119357A1/en unknown
- 2005-08-04 KR KR1020050071348A patent/KR20060049290A/ko not_active Application Discontinuation
- 2005-08-04 JP JP2005226493A patent/JP4473193B2/ja active Active
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012118720A (ja) * | 2010-11-30 | 2012-06-21 | Fujitsu Ltd | 言語処理装置、音声合成装置、言語処理方法及び言語処理プログラム |
KR20180025559A (ko) * | 2016-09-01 | 2018-03-09 | 에스케이텔레콤 주식회사 | 발음 사전 학습 방법 및 장치 |
KR102615290B1 (ko) | 2016-09-01 | 2023-12-15 | 에스케이텔레콤 주식회사 | 발음 사전 학습 방법 및 장치 |
JP2018128607A (ja) * | 2017-02-09 | 2018-08-16 | ヤマハ株式会社 | 音声処理方法および音声処理装置 |
CN107481713A (zh) * | 2017-07-17 | 2017-12-15 | 清华大学 | 一种混合语言语音合成方法及装置 |
CN107481713B (zh) * | 2017-07-17 | 2020-06-02 | 清华大学 | 一种混合语言语音合成方法及装置 |
CN112735378A (zh) * | 2020-12-29 | 2021-04-30 | 科大讯飞股份有限公司 | 泰语语音合成方法、装置以及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN1731510A (zh) | 2006-02-08 |
JP4473193B2 (ja) | 2010-06-02 |
KR20060049290A (ko) | 2006-05-18 |
SG119357A1 (en) | 2006-02-28 |
CN1731510B (zh) | 2010-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4473193B2 (ja) | 混合言語テキスト音声合成方法および音声合成装置 | |
US6778962B1 (en) | Speech synthesis with prosodic model data and accent type | |
US7460997B1 (en) | Method and system for preselection of suitable units for concatenative speech | |
US6990450B2 (en) | System and method for converting text-to-voice | |
US6862568B2 (en) | System and method for converting text-to-voice | |
US7233901B2 (en) | Synthesis-based pre-selection of suitable units for concatenative speech | |
US6871178B2 (en) | System and method for converting text-to-voice | |
EP1668628A1 (en) | Method for synthesizing speech | |
JP5198046B2 (ja) | 音声処理装置及びそのプログラム | |
Badino et al. | Language independent phoneme mapping for foreign TTS | |
Bettayeb et al. | Speech synthesis system for the holy quran recitation. | |
CN115101046A (zh) | 一种特定说话人语音合成方法和装置 | |
RU2320026C2 (ru) | Преобразование буквы в звук для синтезированного произношения сегмента текста | |
Huckvale et al. | Spoken language conversion with accent morphing | |
WO2008056590A1 (fr) | Dispositif de synthèse texte-parole, programme et procédé de synthèse texte-parole | |
US7451087B2 (en) | System and method for converting text-to-voice | |
JP3366253B2 (ja) | 音声合成装置 | |
JP3006240B2 (ja) | 音声合成方法および装置 | |
JPH08263499A (ja) | 自動翻訳装置及び自動通訳装置 | |
Khamdamov et al. | Syllable-Based Reading Model for Uzbek Language Speech Synthesizers | |
JP3414326B2 (ja) | 音声合成用辞書登録装置及び方法 | |
JP2016122033A (ja) | 記号列生成装置、音声合成装置、音声合成システム、記号列生成方法、及びプログラム | |
JPH05210482A (ja) | 発音辞書管理方法 | |
JPH06168265A (ja) | 言語処理装置および音声合成装置 | |
Piorkowska et al. | Conversion of Textual Information to Speech for Polish Language |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090127 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20090427 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20090501 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090727 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100202 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100304 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130312 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4473193 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130312 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130312 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140312 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |