JP5768093B2 - 音声処理システム - Google Patents
音声処理システム Download PDFInfo
- Publication number
- JP5768093B2 JP5768093B2 JP2013149244A JP2013149244A JP5768093B2 JP 5768093 B2 JP5768093 B2 JP 5768093B2 JP 2013149244 A JP2013149244 A JP 2013149244A JP 2013149244 A JP2013149244 A JP 2013149244A JP 5768093 B2 JP5768093 B2 JP 5768093B2
- Authority
- JP
- Japan
- Prior art keywords
- speech
- feature vector
- expression
- model
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title description 5
- 239000013598 vector Substances 0.000 claims description 122
- 238000000034 method Methods 0.000 claims description 99
- 230000015572 biosynthetic process Effects 0.000 claims description 87
- 238000003786 synthesis reaction Methods 0.000 claims description 86
- 230000014509 gene expression Effects 0.000 claims description 84
- 238000012549 training Methods 0.000 claims description 79
- 238000003066 decision tree Methods 0.000 claims description 43
- 238000009826 distribution Methods 0.000 claims description 35
- 238000000605 extraction Methods 0.000 claims description 22
- 238000013507 mapping Methods 0.000 claims description 20
- 238000004422 calculation algorithm Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 13
- 238000010801 machine learning Methods 0.000 claims description 11
- 239000000203 mixture Substances 0.000 claims description 6
- 238000001308 synthesis method Methods 0.000 claims description 5
- 230000001131 transforming effect Effects 0.000 claims 1
- 230000008451 emotion Effects 0.000 description 24
- 230000008569 process Effects 0.000 description 23
- 238000013528 artificial neural network Methods 0.000 description 17
- 239000002131 composite material Substances 0.000 description 16
- 230000001419 dependent effect Effects 0.000 description 16
- 238000007476 Maximum Likelihood Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 238000013216 cat model Methods 0.000 description 9
- 230000009466 transformation Effects 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 8
- 238000004138 cluster model Methods 0.000 description 5
- 230000002996 emotional effect Effects 0.000 description 5
- 238000000638 solvent extraction Methods 0.000 description 5
- 238000013518 transcription Methods 0.000 description 5
- 230000035897 transcription Effects 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
Description
この出願は、2012年7月18日付け提出の英国特許出願第1212783.3号に基づくものであり、また、その優先権の利益を主張する。そして、その内容の全体が参照によって本明細書に組み込まれる。
本明細書で一般に説明される実施形態は、音声処理システム及び方法に関係する。
必要条件1−音声データを所与として、関連する合成特徴は、この音声データの表現情報をキャッチする。
必要条件2−表現合成特徴に記録される表現情報は、同一の表現力(expressiveness)をもつ音声を生成するために、合成ステージで使用される。すなわち、合成特徴は、合成パラメータを決定する。
(2)訓練文の表現言語特徴及び訓練文のCAT重みセットΛiが所与として、繰り返しiのためのNN(すなわち、NNi)は、最小二乗誤差基準を使用して訓練される。
(3)入力として訓練文の表現言語特徴を使用して、NNiは、訓練文の出力CAT重みセットOiを生成する。
(4)Λi+1=Oi. 訓練データの尤度を最大にするように、所与のΛi+1がCAT規範的モデルMi+1を再訓練する。
(5)i=i+1. アルゴリズムが収束したならば、6へ進む。そうでなければ、2に進む。
(6)終了
上記のプロセスによってNN及びCATモデルが一緒に更新され、それは合成ステージにおけるパフォーマンスを向上させることができる。
(1)sup_sent:管理された訓練(supervised training)により生成される文ベースのCAT重み
(2)sup_grp:管理された訓練により生成されるグループ・ベースのCAT重み
(3)nn_sent:提案方法により生成される文ベースのCAT重み
(4)nn_grp:提案方法により生成されるグループ・ベースのCAT重み
(5)rand:訓練文からランダムに選択されるCAT重み
表1に表現力テストの結果が示される。
幾つかの実施形態において、表現合成特徴空間は、音声の合成において使用されるべきコンポーネントに対する重みを含む。
Spectrum:1つのストリーム、5つの状態、状態ごとに1つの木×3クラス
LogF0:3つのストリーム、ストリームごとに5つの状態、状態及びストリームごとに、1つの木×3クラス
BAP:1つのストリーム、5つの状態、状態ごとに1つの木×3クラス
継続期間:1つのストリーム、5つの状態、1つの木×3クラス(各木は、すべての状態にわたって共有される)
合計:3×26=78の決定木
上記に関して、次の重みが、声特性(voice characteristic)(例えば話者又は表現)ごとに、各々のストリームに適用される。
Spectrum:1つのストリーム、5つの状態、ストリームごとに1つの重み×3クラス
LogF0:3つのストリーム、ストリームごとに5つの状態、ストリームごとに1つの重み×3クラス
BAP:1つのストリーム、5つの状態、ストリームごとに1つの重み×3クラス
継続時間:1つのストリーム、5つの状態、状態及びストリームごとに1つの重み×3クラス
合計:3×10=30の重み
この例で示されるように、異なる決定木(spectrum)に同一の重みを割り当てること、あるいは、同一の決定木(継続時間)に2以上の重みを割り当てること、又は、任意の他の組み合せが、可能である。本明細書で使用されるように、同一の重みが適用されるべき決定木は、サブクラスターを形成するために考慮される。
Claims (20)
- テキスト音声合成方法において、前記方法は、
入力テキストを受信することと、
前記入力テキストを、音響単位のシーケンスに分割することと、
音響モデルを使用して、前記音響単位のシーケンスを、音声ベクトルのシーケンスに変換することと、ここで、前記モデルは、音響単位を音声ベクトルに関連付ける確率分布を記述する複数のモデル・パラメータを有する、
前記音声ベクトルのシーケンスを音声として出力すること、
を含み、
前記方法は、
第1の空間において構成される表現言語特徴ベクトルを生成するために前記入力テキストから表現特徴を抽出することと、前記表現言語特徴ベクトルを、第2の空間において構成される表現合成特徴ベクトルにマッピングすることによって、
前記モデル・パラメータのうちの少なくとも一部を決定することを更に含む、
方法。 - 前記表現言語特徴ベクトルを表現合成特徴ベクトルにマッピングすることは、機械学習アルゴリズムを使用することを含む、請求項1に記載の方法。
- 前記第2の空間は多次元連続空間である、請求項1に記載の方法。
- 前記入力テキストから前記表現特徴を抽出することは、複数の抽出プロセスを含み、
前記複数の抽出プロセスは、前記テキストの異なる複数の情報レベルにおいて実行される、請求項1に記載の方法。 - 前記異なる複数の情報レベルは、単語ベースの言語特徴ベクトルを生成するための単語ベースの言語特徴抽出レベル、フルコンテキストフォンベースの言語特徴を生成するためのフルコンテキストフォンベースの言語特徴抽出レベル、品詞(POS)ベースの特徴を生成するためのPOSベースの言語特徴抽出レベル及びナレーションスタイル情報を生成するためのナレーションスタイルベースの言語特徴抽出レベルから選択される、請求項4に記載の方法。
- 前記複数の抽出プロセスのそれぞれが、特徴ベクトルを生成し、
前記方法は、前記第2の空間にマッピングするための言語特徴ベクトルを生成するために、前記異なる複数の情報レベルから生成される複数の前記言語特徴ベクトルを連結することを更に含む、請求項4に記載の方法。 - 前記表現言語特徴ベクトルを表現合成特徴ベクトルにマッピングすることは、前記異なる複数の情報レベルのそれぞれに対応する複数の階層的なステージを含む、請求項4に記載の方法。
- 前記マッピングはフルコンテキスト情報を使用する、請求項1に記載の方法。
- 前記音響モデルは、前記入力テキストからフルコンテキスト情報を受信し、この情報は、前記音響モデルにおける前記表現合成特徴ベクトルから得られる前記モデル・パラメータと結合される、請求項1に記載の方法。
- 前記音響モデルの前記モデル・パラメータは、同一のタイプの複数のモデル・パラメータの重み付き加算として表され、各重みは、前記第2の空間において表される、請求項1に記載の方法。
- 前記同一のタイプの複数のモデル・パラメータの重み付き加算として表される前記モデル・パラメータは、ガウス分布の平均である、請求項10に記載の方法。
- 前記同一のタイプの複数のパラメータがクラスター化され、前記表現合成特徴ベクトルが、それぞれのクラスターごとの重みを含む、請求項10に記載の方法。
- それぞれのクラスターは、少なくとも一つの決定木を含み、前記決定木は、言語上の変動、音声上の変動又は韻律上の変動のうちの少なくとも一つに関連する質問に基づく、請求項12に記載の方法。
- 前記クラスターの前記決定木の間に、構造における相違が存在する、請求項13に記載の方法。
- テキスト音声合成システムを訓練する方法において、前記方法は、
訓練データを受信することと、ここで、前記訓練データは、テキストのデータと該テキストのデータに対応する音声データを含む、
第1の空間において構成される表現言語特徴ベクトルを生成するために、入力した前記テキストから表現特徴を抽出することと、
前記音声データから表現特徴を抽出し、第2の空間において構成される表現合成特徴ベクトルを生成することと、
機械学習アルゴリズムを訓練することを含み、
前記機械学習アルゴリズムの訓練の入力は、表現言語特徴ベクトルであり、前記訓練の出力は、前記訓練の入力に対応する表現合成特徴ベクトルである、
方法。 - 前記方法は、前記表現合成特徴ベクトルを音声合成装置に出力することを更に含み、
前記音声合成装置は、音響モデルを含み、ここで、前記モデルは、音響単位を音声ベクトルに関連付ける確率分布を記述する複数のモデル・パラメータを有する、請求項15に記載の方法。 - 前記音響モデルのパラメータ及び前記機械学習アルゴリズムが一緒に訓練される、請求項16に記載の方法。
- 前記音響モデルの前記モデル・パラメータは、同一のタイプの複数のモデル・パラメータの重み付き加算として表され、各重みは、前記第2の空間において表され、前記第2の空間において表される各重み及び前記機械学習アルゴリズムが一緒に訓練される、請求項16に記載の方法。
- テキスト音声合成装置において、前記装置は、
入力テキストを受信するための受信部と、
プロセッサと、
音声出力とを含み、
前記プロセッサは、
前記入力テキストを、音響単位のシーケンスに分割し、
音響モデルを使用して、前記音響単位のシーケンスを、音声ベクトルのシーケンスに変換するように構成され、ここで、前記モデルは、音響単位を音声ベクトルに関連付ける確率分布を記述する複数のモデル・パラメータを含む、
前記音声出力は、前記音声ベクトルのシーケンスを音声として出力するように構成され、
前記プロセッサは、
第1の空間において構成される表現言語特徴ベクトルを生成するために前記入力テキストから表現特徴を抽出することと、前記表現言語特徴ベクトルを、第2の空間において構成される表現合成特徴ベクトルにマッピングすることによって、
前記モデル・パラメータのうちの少なくとも一部を決定するように更に構成される、
装置。 - コンピュータをテキスト音声合成装置として機能させるためのプログラムであって、
前記プログラムは、
前記コンピュータに、入力テキストを受信させ、
前記コンピュータに、前記入力テキストを、音響単位のシーケンスに分割させ、
前記コンピュータに、音響モデルを使用して、前記音響単位のシーケンスを、音声ベクトルのシーケンスに変換させ、ここで、前記モデルは、音響単位を音声ベクトルに関連付ける確率分布を記述する複数のモデル・パラメータを有する、
前記コンピュータに、前記音声ベクトルのシーケンスを音声として出力させるように構成され、
前記プログラムは、
前記コンピュータに、第1の空間において構成される表現言語特徴ベクトルを生成するために前記入力テキストから表現特徴を抽出することと、前記表現言語特徴ベクトルを、第2の空間において構成される表現合成特徴ベクトルにマッピングすることによって、前記モデル・パラメータのうちの少なくとも一部を決定させるように更に構成される、プログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB1212783.3 | 2012-07-18 | ||
GB1212783.3A GB2505400B (en) | 2012-07-18 | 2012-07-18 | A speech processing system |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015122790A Division JP2015180966A (ja) | 2012-07-18 | 2015-06-18 | 音声処理システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014056235A JP2014056235A (ja) | 2014-03-27 |
JP5768093B2 true JP5768093B2 (ja) | 2015-08-26 |
Family
ID=46799804
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013149244A Active JP5768093B2 (ja) | 2012-07-18 | 2013-07-18 | 音声処理システム |
JP2015122790A Abandoned JP2015180966A (ja) | 2012-07-18 | 2015-06-18 | 音声処理システム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015122790A Abandoned JP2015180966A (ja) | 2012-07-18 | 2015-06-18 | 音声処理システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20140025382A1 (ja) |
JP (2) | JP5768093B2 (ja) |
CN (1) | CN103578462A (ja) |
GB (1) | GB2505400B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015180966A (ja) * | 2012-07-18 | 2015-10-15 | 株式会社東芝 | 音声処理システム |
Families Citing this family (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9558743B2 (en) * | 2013-03-15 | 2017-01-31 | Google Inc. | Integration of semantic context information |
GB2517503B (en) | 2013-08-23 | 2016-12-28 | Toshiba Res Europe Ltd | A speech processing system and method |
US9286897B2 (en) * | 2013-09-27 | 2016-03-15 | Amazon Technologies, Inc. | Speech recognizer with multi-directional decoding |
KR102222122B1 (ko) * | 2014-01-21 | 2021-03-03 | 엘지전자 주식회사 | 감성음성 합성장치, 감성음성 합성장치의 동작방법, 및 이를 포함하는 이동 단말기 |
US9846836B2 (en) * | 2014-06-13 | 2017-12-19 | Microsoft Technology Licensing, Llc | Modeling interestingness with deep neural networks |
US10127901B2 (en) * | 2014-06-13 | 2018-11-13 | Microsoft Technology Licensing, Llc | Hyper-structure recurrent neural networks for text-to-speech |
CN105869641A (zh) * | 2015-01-22 | 2016-08-17 | 佳能株式会社 | 语音识别装置及语音识别方法 |
US20160300573A1 (en) * | 2015-04-08 | 2016-10-13 | Google Inc. | Mapping input to form fields |
US20160343366A1 (en) * | 2015-05-19 | 2016-11-24 | Google Inc. | Speech synthesis model selection |
JP6580911B2 (ja) * | 2015-09-04 | 2019-09-25 | Kddi株式会社 | 音声合成システムならびにその予測モデル学習方法および装置 |
CN105206258B (zh) * | 2015-10-19 | 2018-05-04 | 百度在线网络技术(北京)有限公司 | 声学模型的生成方法和装置及语音合成方法和装置 |
CN105185372B (zh) * | 2015-10-20 | 2017-03-22 | 百度在线网络技术(北京)有限公司 | 个性化多声学模型的训练方法、语音合成方法及装置 |
CN105355193B (zh) * | 2015-10-30 | 2020-09-25 | 百度在线网络技术(北京)有限公司 | 语音合成方法和装置 |
CN106708789B (zh) * | 2015-11-16 | 2020-07-14 | 重庆邮电大学 | 一种文本处理方法及装置 |
CN105529023B (zh) * | 2016-01-25 | 2019-09-03 | 百度在线网络技术(北京)有限公司 | 语音合成方法和装置 |
JP6523998B2 (ja) * | 2016-03-14 | 2019-06-05 | 株式会社東芝 | 読み上げ情報編集装置、読み上げ情報編集方法およびプログラム |
US11205103B2 (en) | 2016-12-09 | 2021-12-21 | The Research Foundation for the State University | Semisupervised autoencoder for sentiment analysis |
CN106971709B (zh) | 2017-04-19 | 2021-10-15 | 腾讯科技(上海)有限公司 | 统计参数模型建立方法和装置、语音合成方法和装置 |
EP3393083B1 (en) * | 2017-04-20 | 2021-09-29 | Nokia Technologies Oy | Method and device for configuring a data transmission and processing system |
JP6806619B2 (ja) * | 2017-04-21 | 2021-01-06 | 株式会社日立ソリューションズ・テクノロジー | 音声合成システム、音声合成方法、及び音声合成プログラム |
KR102071582B1 (ko) | 2017-05-16 | 2020-01-30 | 삼성전자주식회사 | 딥 뉴럴 네트워크(Deep Neural Network)를 이용하여 문장이 속하는 클래스(class)를 분류하는 방법 및 장치 |
WO2018212584A2 (ko) * | 2017-05-16 | 2018-11-22 | 삼성전자 주식회사 | 딥 뉴럴 네트워크를 이용하여 문장이 속하는 클래스를 분류하는 방법 및 장치 |
CN107481713B (zh) * | 2017-07-17 | 2020-06-02 | 清华大学 | 一种混合语言语音合成方法及装置 |
CN107452369B (zh) * | 2017-09-28 | 2021-03-19 | 百度在线网络技术(北京)有限公司 | 语音合成模型生成方法和装置 |
CN107464554B (zh) * | 2017-09-28 | 2020-08-25 | 百度在线网络技术(北京)有限公司 | 语音合成模型生成方法和装置 |
JP6647475B2 (ja) * | 2017-11-29 | 2020-02-14 | 三菱電機株式会社 | 言語処理装置、言語処理システムおよび言語処理方法 |
CN108417205B (zh) * | 2018-01-19 | 2020-12-18 | 苏州思必驰信息科技有限公司 | 语义理解训练方法和系统 |
CN110599998B (zh) * | 2018-05-25 | 2023-08-18 | 阿里巴巴集团控股有限公司 | 一种语音数据生成方法及装置 |
CN109192200B (zh) * | 2018-05-25 | 2023-06-13 | 华侨大学 | 一种语音识别方法 |
KR102136464B1 (ko) * | 2018-07-31 | 2020-07-21 | 전자부품연구원 | 어텐션 메커니즘 기반의 오디오 분할 방법 |
KR102147496B1 (ko) * | 2018-08-30 | 2020-08-25 | 네이버 주식회사 | 유사 댓글의 연속 입력을 차단하기 위한 방법 및 시스템 |
CN111048062B (zh) * | 2018-10-10 | 2022-10-04 | 华为技术有限公司 | 语音合成方法及设备 |
CN109308892B (zh) * | 2018-10-25 | 2020-09-01 | 百度在线网络技术(北京)有限公司 | 语音合成播报方法、装置、设备及计算机可读介质 |
KR20200119217A (ko) * | 2019-04-09 | 2020-10-19 | 네오사피엔스 주식회사 | 사용자 인터페이스를 통해 텍스트에 대한 합성 음성을 생성하는 방법 및 시스템 |
CN110097890B (zh) * | 2019-04-16 | 2021-11-02 | 北京搜狗科技发展有限公司 | 一种语音处理方法、装置和用于语音处理的装置 |
US11417313B2 (en) | 2019-04-23 | 2022-08-16 | Lg Electronics Inc. | Speech synthesizer using artificial intelligence, method of operating speech synthesizer and computer-readable recording medium |
WO2020235696A1 (ko) * | 2019-05-17 | 2020-11-26 | 엘지전자 주식회사 | 스타일을 고려하여 텍스트와 음성을 상호 변환하는 인공 지능 장치 및 그 방법 |
CN111862984B (zh) * | 2019-05-17 | 2024-03-29 | 北京嘀嘀无限科技发展有限公司 | 一种信号输入方法、装置、电子设备和可读存储介质 |
CN111383628B (zh) * | 2020-03-09 | 2023-08-25 | 第四范式(北京)技术有限公司 | 一种声学模型的训练方法、装置、电子设备及存储介质 |
US11322133B2 (en) * | 2020-07-21 | 2022-05-03 | Adobe Inc. | Expressive text-to-speech utilizing contextual word-level style tokens |
CN111833843B (zh) | 2020-07-21 | 2022-05-10 | 思必驰科技股份有限公司 | 语音合成方法及系统 |
CN113112987B (zh) * | 2021-04-14 | 2024-05-03 | 北京地平线信息技术有限公司 | 语音合成方法、语音合成模型的训练方法及装置 |
CN113823257B (zh) * | 2021-06-18 | 2024-02-09 | 腾讯科技(深圳)有限公司 | 语音合成器的构建方法、语音合成方法及装置 |
CN115831089B (zh) * | 2021-12-27 | 2023-12-01 | 北京百度网讯科技有限公司 | 声学特征的确定方法、装置、设备、介质及产品 |
CN114613353B (zh) * | 2022-03-25 | 2023-08-08 | 马上消费金融股份有限公司 | 语音合成方法、装置、电子设备及存储介质 |
CN115098647B (zh) * | 2022-08-24 | 2022-11-01 | 中关村科学城城市大脑股份有限公司 | 用于文本表征的特征向量生成方法、装置和电子设备 |
CN115457931B (zh) * | 2022-11-04 | 2023-03-24 | 之江实验室 | 一种语音的合成方法、装置、设备及存储介质 |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0772900A (ja) * | 1993-09-02 | 1995-03-17 | Nippon Hoso Kyokai <Nhk> | 音声合成の感情付与方法 |
US6324532B1 (en) * | 1997-02-07 | 2001-11-27 | Sarnoff Corporation | Method and apparatus for training a neural network to detect objects in an image |
JP3159242B2 (ja) * | 1997-03-13 | 2001-04-23 | 日本電気株式会社 | 感情生成装置およびその方法 |
US5913194A (en) * | 1997-07-14 | 1999-06-15 | Motorola, Inc. | Method, device and system for using statistical information to reduce computation and memory requirements of a neural network based speech synthesis system |
US6236966B1 (en) * | 1998-04-14 | 2001-05-22 | Michael K. Fleming | System and method for production of audio control parameters using a learning machine |
US6327565B1 (en) * | 1998-04-30 | 2001-12-04 | Matsushita Electric Industrial Co., Ltd. | Speaker and environment adaptation based on eigenvoices |
US6178402B1 (en) * | 1999-04-29 | 2001-01-23 | Motorola, Inc. | Method, apparatus and system for generating acoustic parameters in a text-to-speech system using a neural network |
WO2002067194A2 (en) * | 2001-02-20 | 2002-08-29 | I & A Research Inc. | System for modeling and simulating emotion states |
CN1156819C (zh) * | 2001-04-06 | 2004-07-07 | 国际商业机器公司 | 由文本生成个性化语音的方法 |
JP2003233388A (ja) * | 2002-02-07 | 2003-08-22 | Sharp Corp | 音声合成装置および音声合成方法、並びに、プログラム記録媒体 |
JP2004086001A (ja) * | 2002-08-28 | 2004-03-18 | Sony Corp | 会話処理装置、および会話処理方法、並びにコンピュータ・プログラム |
US7313523B1 (en) * | 2003-05-14 | 2007-12-25 | Apple Inc. | Method and apparatus for assigning word prominence to new or previous information in speech synthesis |
US8073696B2 (en) * | 2005-05-18 | 2011-12-06 | Panasonic Corporation | Voice synthesis device |
JP5031269B2 (ja) * | 2005-05-30 | 2012-09-19 | 京セラ株式会社 | 文書表示装置及び文書読み上げ方法 |
WO2007098560A1 (en) * | 2006-03-03 | 2007-09-07 | The University Of Southern Queensland | An emotion recognition system and method |
US7716221B2 (en) * | 2006-06-02 | 2010-05-11 | Behrens Clifford A | Concept based cross media indexing and retrieval of speech documents |
US8024193B2 (en) * | 2006-10-10 | 2011-09-20 | Apple Inc. | Methods and apparatus related to pruning for concatenative text-to-speech synthesis |
JP4455610B2 (ja) * | 2007-03-28 | 2010-04-21 | 株式会社東芝 | 韻律パタン生成装置、音声合成装置、プログラムおよび韻律パタン生成方法 |
JP2009025658A (ja) * | 2007-07-20 | 2009-02-05 | Oki Electric Ind Co Ltd | 音声合成装置、音声合成システム |
US8229729B2 (en) * | 2008-03-25 | 2012-07-24 | International Business Machines Corporation | Machine translation in continuous space |
KR101181785B1 (ko) * | 2008-04-08 | 2012-09-11 | 가부시키가이샤 엔.티.티.도코모 | 미디어 처리 서버 장치 및 미디어 처리 방법 |
US8401849B2 (en) * | 2008-12-18 | 2013-03-19 | Lessac Technologies, Inc. | Methods employing phase state analysis for use in speech synthesis and recognition |
JP5574344B2 (ja) * | 2009-03-09 | 2014-08-20 | 国立大学法人豊橋技術科学大学 | 1モデル音声認識合成に基づく音声合成装置、音声合成方法および音声合成プログラム |
JP5457706B2 (ja) * | 2009-03-30 | 2014-04-02 | 株式会社東芝 | 音声モデル生成装置、音声合成装置、音声モデル生成プログラム、音声合成プログラム、音声モデル生成方法および音声合成方法 |
GB2484615B (en) * | 2009-06-10 | 2013-05-08 | Toshiba Res Europ Ltd | A text to speech method and system |
JP5293460B2 (ja) * | 2009-07-02 | 2013-09-18 | ヤマハ株式会社 | 歌唱合成用データベース生成装置、およびピッチカーブ生成装置 |
US8682649B2 (en) * | 2009-11-12 | 2014-03-25 | Apple Inc. | Sentiment prediction from textual data |
CN101770454A (zh) * | 2010-02-13 | 2010-07-07 | 武汉理工大学 | 短文本特征空间扩展方法 |
GB2478314B (en) * | 2010-03-02 | 2012-09-12 | Toshiba Res Europ Ltd | A speech processor, a speech processing method and a method of training a speech processor |
GB2480108B (en) * | 2010-05-07 | 2012-08-29 | Toshiba Res Europ Ltd | A speech processing method an apparatus |
CN102385858B (zh) * | 2010-08-31 | 2013-06-05 | 国际商业机器公司 | 情感语音合成方法和系统 |
TWI413104B (zh) * | 2010-12-22 | 2013-10-21 | Ind Tech Res Inst | 可調控式韻律重估測系統與方法及電腦程式產品 |
JP3173022U (ja) * | 2011-11-01 | 2012-01-19 | サイバークローン株式会社 | 音声合成を伴う動く画像システム |
GB2505400B (en) * | 2012-07-18 | 2015-01-07 | Toshiba Res Europ Ltd | A speech processing system |
-
2012
- 2012-07-18 GB GB1212783.3A patent/GB2505400B/en active Active
-
2013
- 2013-07-15 US US13/941,968 patent/US20140025382A1/en not_active Abandoned
- 2013-07-18 JP JP2013149244A patent/JP5768093B2/ja active Active
- 2013-07-18 CN CN201310301682.5A patent/CN103578462A/zh active Pending
-
2015
- 2015-06-18 JP JP2015122790A patent/JP2015180966A/ja not_active Abandoned
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015180966A (ja) * | 2012-07-18 | 2015-10-15 | 株式会社東芝 | 音声処理システム |
Also Published As
Publication number | Publication date |
---|---|
JP2015180966A (ja) | 2015-10-15 |
CN103578462A (zh) | 2014-02-12 |
GB2505400A (en) | 2014-03-05 |
JP2014056235A (ja) | 2014-03-27 |
GB2505400B (en) | 2015-01-07 |
GB201212783D0 (en) | 2012-08-29 |
US20140025382A1 (en) | 2014-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5768093B2 (ja) | 音声処理システム | |
US10140972B2 (en) | Text to speech processing system and method, and an acoustic model training system and method | |
KR102401512B1 (ko) | 기계학습을 이용한 텍스트-음성 합성 방법, 장치 및 컴퓨터 판독가능한 저장매체 | |
JP6246777B2 (ja) | 音声合成方法、装置及びプログラム | |
JP6092293B2 (ja) | テキスト読み上げシステム | |
JP5398909B2 (ja) | テキスト音声合成方法及びシステム | |
Takaki et al. | Speaker adaptation of various components in deep neural network based speech synthesis | |
JP3919475B2 (ja) | 話者特徴抽出装置および話者特徴抽出方法、音声認識装置、並びに、プログラム記録媒体 | |
JP6594251B2 (ja) | 音響モデル学習装置、音声合成装置、これらの方法及びプログラム | |
Chen et al. | Polyglot speech synthesis based on cross-lingual frame selection using auditory and articulatory features | |
Rashmi et al. | Hidden Markov Model for speech recognition system—a pilot study and a naive approach for speech-to-text model | |
JP2017167526A (ja) | 統計的パラメトリック音声合成のためのマルチストリームスペクトル表現 | |
Patil et al. | Hidden-Markov-model based statistical parametric speech synthesis for Marathi with optimal number of hidden states | |
JP6220733B2 (ja) | 音声分類装置、音声分類方法、プログラム | |
KR101890303B1 (ko) | 가창 음성 생성 방법 및 그에 따른 장치 | |
JP4705535B2 (ja) | 音響モデル作成装置及び音声認識装置並びに音響モデル作成プログラム | |
Mohanty et al. | Double ended speech enabled system in Indian travel & tourism industry | |
Coto-Jiménez et al. | Speech Synthesis Based on Hidden Markov Models and Deep Learning. | |
Ekpenyong et al. | Intelligent Speech Features Mining for Robust Synthesis System Evaluation | |
Singh | Speech Synthesis Using Linear Dynamical Models | |
Razavi et al. | On the Application of Automatic Subword Unit Derivation and Pronunciation Generation for Under-Resourced Language ASR: A Study on Scottish Gaelic | |
Chanjaradwichai et al. | Tree-based context clustering using speech recognition features for acoustic model training of speech synthesis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140619 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140722 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140922 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150303 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150424 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150526 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150622 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5768093 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313114 Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |