JP7194779B2 - 音声合成方法及び対応するモデルのトレーニング方法、装置、電子機器、記憶媒体、並びにコンピュータプログラム - Google Patents
音声合成方法及び対応するモデルのトレーニング方法、装置、電子機器、記憶媒体、並びにコンピュータプログラム Download PDFInfo
- Publication number
- JP7194779B2 JP7194779B2 JP2021103443A JP2021103443A JP7194779B2 JP 7194779 B2 JP7194779 B2 JP 7194779B2 JP 2021103443 A JP2021103443 A JP 2021103443A JP 2021103443 A JP2021103443 A JP 2021103443A JP 7194779 B2 JP7194779 B2 JP 7194779B2
- Authority
- JP
- Japan
- Prior art keywords
- style
- training
- information
- text
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims description 305
- 238000000034 method Methods 0.000 title claims description 47
- 238000001308 synthesis method Methods 0.000 title claims description 17
- 238000004590 computer program Methods 0.000 title claims description 8
- 230000015572 biosynthetic process Effects 0.000 claims description 148
- 238000003786 synthesis reaction Methods 0.000 claims description 148
- 230000006870 function Effects 0.000 claims description 50
- 230000015654 memory Effects 0.000 claims description 18
- 230000002194 synthesizing effect Effects 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 25
- 230000003595 spectral effect Effects 0.000 description 15
- 230000008569 process Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000003993 interaction Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 230000007774 longterm Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 241000699666 Mus <mouse, genus> Species 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Electrically Operated Instructional Devices (AREA)
- Electrophonic Musical Instruments (AREA)
Description
合成対象音声のスタイル情報、音色情報、及び処理対象テキストの内容情報を取得することと、
予めトレーニングされた音声合成モデルで、前記スタイル情報、前記音色情報、及び前記処理対象テキストの内容情報に基づいて、前記処理対象テキストの音響特徴情報を生成することと、
前記処理対象テキストの音響特徴情報に基づいて、前記処理対象テキストの音声を合成することと、を含んでいる音声合成方法を提供している。
複数のトレーニングデータを収集し、各前記トレーニングデータには、合成対象音声のトレーニングスタイル情報、トレーニング音色情報、トレーニングテキストの内容情報、前記トレーニングスタイル情報に対応するトレーニングスタイルで前記トレーニングテキストの内容情報を表現したスタイル特徴情報、及び前記トレーニングスタイル情報に対応するトレーニングスタイルと前記トレーニング音色情報に対応するトレーニング音色とで前記トレーニングテキストの内容情報を表現した目標音響特徴情報が含まれることと、
前記複数のトレーニングデータを利用して前記音声合成モデルをトレーニングすることと、を含む音声合成モデルのトレーニング方法を提供している。
合成対象音声のスタイル情報、音色情報、及び処理対象テキストの内容情報を取得するための取得モジュールと、
予めトレーニングされた音声合成モデルで、前記スタイル情報、前記音色情報、及び前記処理対象テキストの内容情報に基づいて、前記処理対象テキストの音響特徴情報を生成するための生成モジュールと、
前記処理対象テキストの音響特徴情報に基づいて前記処理対象テキストの音声を合成するための合成モジュールと、を含んでいる音声合成装置を提供している。
複数のトレーニングデータを収集するための収集モジュールであって、各前記トレーニングデータには、合成対象音声のトレーニングスタイル情報、トレーニング音色情報、トレーニングテキストの内容情報、前記トレーニングスタイル情報に対応するトレーニングスタイルで前記トレーニングテキストの内容情報を表現したスタイル特徴情報、及び前記トレーニングスタイル情報に対応するトレーニングスタイルと前記トレーニング音色情報に対応するトレーニング音色とで前記トレーニングテキストの内容情報を表現した目標音響特徴情報が含まれる収集モジュールと、
前記複数のトレーニングデータを利用して前記音声合成モデルをトレーニングするためのトレーニングモジュールと、を含む音声合成モデルのトレーニング装置を提供している。
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されるメモリと、を含む電子機器であって、
前記メモリには、前記少なくとも1つのプロセッサによって実行されるコマンドが記憶されており、
前記コマンドが前記少なくとも1つのプロセッサによって実行されることで、前記少なくとも1つのプロセッサが上記の方法を実行することができる、電子機器を提供している。
(b)予測音響特徴情報と目標音響特徴情報とに基づいて、音響特徴損失関数を構築する;
(c)スタイル損失関数と再構成損失関数とに基づいて、総合損失関数を生成する。
合成対象音声のスタイル情報、音色情報、及び処理対象テキストの内容情報を取得するための取得モジュール801と、
予めトレーニングされた音声合成モデルで、スタイル情報、音色情報、及び処理対象テキストの内容情報に基づいて、処理対象テキストの音響特徴情報を生成するための生成モジュール802と、
処理対象テキストの音響特徴情報に基づいて、処理対象テキストの音声を合成するための合成モジュール803と、を含んでいる音声合成装置800を提供している。
音声合成モデルにおける内容エンコーダーで、処理対象テキストの内容情報を符号化することで、内容符号化特徴を取得するための内容符号化手段8021と、
音声合成モデルにおけるスタイルエンコーダーで、処理対象テキストの内容情報とスタイル情報とを符号化することで、スタイル符号化特徴を取得するためのスタイル符号化手段8022と、
音声合成モデルにおける音色エンコーダーで音色情報を符号化することで、音色符号化特徴を取得するための音色符号化手段8023と、
音声合成モデルにおけるデコーダーで、内容符号化特徴、スタイル符号化特徴及び音色符号化特徴に基づいて復号し、処理対象テキストの音響特徴情報を生成するための復号手段8024と、を備えている。
ユーザの入力スタイルの説明情報を取得し、入力スタイルの説明情報に応じて、予め設定されたスタイルテーブルから入力スタイルに対応するスタイル識別子を合成対象音声のスタイル情報として取得し、
あるいは、入力スタイルで表現したオーディオ情報を取得し、オーディオ情報から入力スタイルの音色情報を合成対象音声のスタイル情報として抽出するために用いられる。
複数のトレーニングデータを収集するための収集モジュール1001であって、各トレーニングデータには、合成対象音声のトレーニングスタイル情報、トレーニング音色情報、トレーニングテキストの内容情報、トレーニングスタイル情報に対応するトレーニングスタイルでトレーニングテキストの内容情報を表現したスタイル特徴情報、及びトレーニングスタイル情報に対応するトレーニングスタイルとトレーニング音色情報に対応するトレーニング音色とでトレーニングテキストの内容情報を表現した目標音響特徴情報が含まれる収集モジュール1001と、
複数のトレーニングデータを利用して音声合成モデルをトレーニングするためのトレーニングモジュール1002と、を備えている音声合成モデルのトレーニング装置1000を提供している。
各トレーニングデータについて、音声合成モデルにおける内容エンコーダー、スタイルエンコーダー、及び音色エンコーダーで、それぞれトレーニングデータにおけるトレーニングテキストの内容情報、トレーニングスタイル情報、及びトレーニング音色情報を符号化することで、トレーニング内容符号化特徴、トレーニングスタイル符号化特徴、及びトレーニング音色符号化特徴を順次に取得するための符号化手段10021と、
音声合成モデルにおけるスタイル抽出器で、トレーニングテキストの内容情報及びトレーニングスタイル情報に対応するトレーニングスタイルでトレーニングテキストの内容情報を表現したスタイル特徴情報に基づいて、目標トレーニングスタイル符号化特徴を抽出するための抽出手段10022と、
音声合成モデルにおけるデコーダーで、トレーニング内容符号化特徴、目標トレーニングスタイル符号化特徴、及びトレーニング音色符号化特徴に基づいて復号し、トレーニングテキストの予測音響特徴情報を生成するための復号手段10023と、
トレーニングスタイル符号化特徴、目標トレーニングスタイル符号化特徴、予測音響特徴情報、及び目標音響特徴情報に基づいて、総合損失関数を構築するための構築手段10024と、
総合損失関数が収束しなければ、総合損失関数が収束する傾向にあるように、内容エンコーダー、スタイルエンコーダー、音色エンコーダー、スタイル抽出器、及びデコーダーのパラメータを調整するための調整手段10025とを備えている。
トレーニングスタイル符号化特徴と目標トレーニングスタイル符号化特徴とに基づいて、スタイル損失関数を構築し、
予測音響特徴情報と目標音響特徴情報とに基づいて、再構成損失関数を構築し、
スタイル損失関数と再構成損失関数とに基づいて、総合損失関数を生成するために用いられる。
Claims (14)
- 音声合成装置で実行される音声合成方法であって、
合成対象音声のスタイル情報、音色情報、及び処理対象テキストの内容情報を取得することと、
予めトレーニングされた音声合成モデルで、前記スタイル情報、前記音色情報、及び前記処理対象テキストの内容情報に基づいて、前記処理対象テキストの音響特徴情報を生成することと、
前記処理対象テキストの音響特徴情報に基づいて、前記処理対象テキストの音声を合成することと、を含んでおり、
予めトレーニングされた音声合成モデルで、前記スタイル情報、前記音色情報、及び前記処理対象テキストの内容情報に基づいて、前記処理対象テキストの音響特徴情報を生成することは、
前記音声合成モデルにおける内容エンコーダーで、前記処理対象テキストの内容情報を符号化することで、内容符号化特徴を取得することと、
前記音声合成モデルにおけるスタイルエンコーダーで、前記処理対象テキストの内容情報と前記スタイル情報とを符号化することで、スタイル符号化特徴を取得することと、
前記音声合成モデルにおける音色エンコーダーで前記音色情報を符号化することで、音色符号化特徴を取得することと、
前記音声合成モデルにおけるデコーダーで、前記内容符号化特徴、前記スタイル符号化特徴、及び前記音色符号化特徴に基づいて復号し、前記処理対象テキストの音響特徴情報を生成することと、を含んでいる、
音声合成方法。 - 合成対象音声のスタイル情報を取得することは、
ユーザの入力スタイルの説明情報を取得し、前記入力スタイルの説明情報に応じて、予め設置されたスタイルテーブルから前記入力スタイルに対応するスタイル識別子を前記合成対象音声のスタイル情報として取得すること、
或いは、入力スタイルで表現したオーディオ情報を取得し、前記オーディオ情報から前記入力スタイルの情報を前記合成対象音声のスタイル情報として抽出することを含んでいる、
請求項1に記載の方法。 - 複数のトレーニングデータを収集し、各前記トレーニングデータには、合成対象音声のトレーニングスタイル情報、トレーニング音色情報、トレーニングテキストの内容情報、前記トレーニングスタイル情報に対応するトレーニングスタイルで前記トレーニングテキストの内容情報を表現したスタイル特徴情報、及び前記トレーニングスタイル情報に対応するトレーニングスタイルと前記トレーニング音色情報に対応するトレーニング音色とで前記トレーニングテキストの内容情報を表現した目標音響特徴情報が含まれることと、
前記複数のトレーニングデータを利用して音声合成モデルをトレーニングすることと、を含んでいる、
音声合成モデルのトレーニング方法。 - 前記複数のトレーニングデータを利用して前記音声合成モデルをトレーニングすることは、
各前記トレーニングデータについて、前記音声合成モデルにおける内容エンコーダー、スタイルエンコーダー、及び音色エンコーダーで、それぞれ前記トレーニングデータにおける前記トレーニングテキストの内容情報、前記トレーニングスタイル情報、及び前記トレーニング音色情報を符号化することで、トレーニング内容符号化特徴、トレーニングスタイル符号化特徴、及びトレーニング音色符号化特徴を順次に取得することと、
前記音声合成モデルにおけるスタイル抽出器で、前記トレーニングテキストの内容情報及び前記トレーニングスタイル情報に対応するトレーニングスタイルで前記トレーニングテキストの内容情報を表現したスタイル特徴情報に基づいて、目標トレーニングスタイル符号化特徴を抽出することと、
前記音声合成モデルにおけるデコーダーで、前記トレーニング内容符号化特徴、前記目標トレーニングスタイル符号化特徴、及び前記トレーニング音色符号化特徴に基づいて復号し、前記トレーニングテキストの予測音響特徴情報を生成することと、
前記トレーニングスタイル符号化特徴、前記目標トレーニングスタイル符号化特徴、前記予測音響特徴情報、及び前記目標音響特徴情報に基づいて、総合損失関数を構築することと、
前記総合損失関数が収束しなければ、前記総合損失関数が収束する傾向にあるように、前記内容エンコーダー、前記スタイルエンコーダー、前記音色エンコーダー、前記スタイル抽出器、及び前記デコーダーのパラメータを調整することとを含んでいる、
請求項3に記載の方法。 - 前記トレーニングスタイル符号化特徴、前記目標トレーニングスタイル符号化特徴、前記予測音響特徴情報、及び前記目標音響特徴情報に基づいて、総合損失関数を構築することは、
前記トレーニングスタイル符号化特徴と前記目標トレーニングスタイル符号化特徴とに基づいて、スタイル損失関数を構築することと、
前記予測音響特徴情報と前記目標音響特徴情報とに基づいて、再構成損失関数を構築することと、
前記スタイル損失関数と前記再構成損失関数とに基づいて、前記総合損失関数を生成することと、を含んでいる、
請求項4に記載の方法。 - 合成対象音声のスタイル情報、音色情報、及び処理対象テキストの内容情報を取得するための取得モジュールと、
予めトレーニングされた音声合成モデルで、前記スタイル情報、前記音色情報、及び前記処理対象テキストの内容情報に基づいて、前記処理対象テキストの音響特徴情報を生成するための生成モジュールと、
前記処理対象テキストの音響特徴情報に基づいて前記処理対象テキストの音声を合成するための合成モジュールと、を含んでいる、
音声合成装置。 - 前記生成モジュールは、
前記音声合成モデルにおける内容エンコーダーで、前記処理対象テキストの内容情報を符号化することで、内容符号化特徴を取得するための内容符号化手段と、
前記音声合成モデルにおけるスタイルエンコーダーで、前記処理対象テキストの内容情報と前記スタイル情報とを符号化することで、スタイル符号化特徴を取得するためのスタイル符号化手段と、
前記音声合成モデルにおける音色エンコーダーで前記音色情報を符号化することで、音色符号化特徴を取得するための音色符号化手段と、
前記音声合成モデルにおけるデコーダーで、前記内容符号化特徴、前記スタイル符号化特徴、及び前記音色符号化特徴に基づいて復号し、前記処理対象テキストの音響特徴情報を生成するための復号手段と、を含んでいる、
請求項6に記載の装置。 - 前記取得モジュールは、
ユーザの入力スタイルの説明情報を取得し、前記入力スタイルの説明情報に応じて、予め設置されたスタイルテーブルから前記入力スタイルに対応するスタイル識別子を前記合成対象音声のスタイル情報として取得し、
或いは、入力スタイルで表現したオーディオ情報を取得し、前記オーディオ情報から前記入力スタイルの情報を前記合成対象音声のスタイル情報として抽出するために用いられる、
請求項6または7に記載の装置。 - 複数のトレーニングデータを収集するための収集モジュールであって、各前記トレーニングデータには、合成対象音声のトレーニングスタイル情報、トレーニング音色情報、トレーニングテキストの内容情報、前記トレーニングスタイル情報に対応するトレーニングスタイルで前記トレーニングテキストの内容情報を表現したスタイル特徴情報、及び前記トレーニングスタイル情報に対応するトレーニングスタイルと前記トレーニング音色情報に対応するトレーニング音色とで前記トレーニングテキストの内容情報を表現した目標音響特徴情報が含まれる収集モジュールと、
前記複数のトレーニングデータを利用して音声合成モデルをトレーニングするためのトレーニングモジュールと、を含む、
音声合成モデルのトレーニング装置。 - 前記トレーニングモジュールは、
各前記トレーニングデータについて、前記音声合成モデルにおける内容エンコーダー、スタイルエンコーダー、及び音色エンコーダーで、それぞれ前記トレーニングデータにおける前記トレーニングテキストの内容情報、前記トレーニングスタイル情報、及び前記トレーニング音色情報を符号化することで、トレーニング内容符号化特徴、トレーニングスタイル符号化特徴、及びトレーニング音色符号化特徴を順次に取得するための符号化手段と、
前記音声合成モデルにおけるスタイル抽出器で、前記トレーニングテキストの内容情報及び前記トレーニングスタイル情報に対応するトレーニングスタイルで前記トレーニングテキストの内容情報を表現したスタイル特徴情報に基づいて、目標トレーニングスタイル符号化特徴を抽出するための抽出手段と、
前記音声合成モデルにおけるデコーダーで、前記トレーニング内容符号化特徴、前記目標トレーニングスタイル符号化特徴、及び前記トレーニング音色符号化特徴に基づいて復号し、前記トレーニングテキストの予測音響特徴情報を生成するための復号手段と、
前記トレーニングスタイル符号化特徴、前記目標トレーニングスタイル符号化特徴、前記予測音響特徴情報、及び前記目標音響特徴情報に基づいて、総合損失関数を構築するための構築手段と、
前記総合損失関数が収束しなければ、前記総合損失関数が収束する傾向にあるように、前記内容エンコーダー、前記スタイルエンコーダー、前記音色エンコーダー、前記スタイル抽出器、及び前記デコーダーのパラメータを調整するための調整手段とを含んでいる、
請求項9に記載の装置。 - 前記構築手段は、
前記トレーニングスタイル符号化特徴と前記目標トレーニングスタイル符号化特徴とに基づいて、スタイル損失関数を構築し、
前記予測音響特徴情報と前記目標音響特徴情報とに基づいて、再構成損失関数を構築し、
前記スタイル損失関数と前記再構成損失関数とに基づいて、前記総合損失関数を生成するために用いられる、
請求項10に記載の装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されるメモリと、を含む電子機器であって、
前記メモリには、前記少なくとも1つのプロセッサによって実行されるコマンドが記憶されており、
前記コマンドが前記少なくとも1つのプロセッサによって実行されることで、前記少なくとも1つのプロセッサが請求項1乃至請求項2、または請求項3乃至請求項5のいずれか一項に記載の方法を実行することができる、
電子機器。 - コンピュータに請求項1乃至請求項2、または請求項3乃至請求項5のいずれか一項に記載の方法を実行させるためのコンピュータコマンドが記憶されている、
非一時的なコンピュータ読取可能な記憶媒体。 - プロセッサによって実行される時に、請求項1乃至請求項2、または請求項3乃至請求項5のいずれか一項に記載の方法が実行されるコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011253104.5 | 2020-11-11 | ||
CN202011253104.5A CN112365881A (zh) | 2020-11-11 | 2020-11-11 | 语音合成方法及对应模型的训练方法、装置、设备与介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021157193A JP2021157193A (ja) | 2021-10-07 |
JP7194779B2 true JP7194779B2 (ja) | 2022-12-22 |
Family
ID=74515939
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021103443A Active JP7194779B2 (ja) | 2020-11-11 | 2021-06-22 | 音声合成方法及び対応するモデルのトレーニング方法、装置、電子機器、記憶媒体、並びにコンピュータプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11769482B2 (ja) |
JP (1) | JP7194779B2 (ja) |
KR (1) | KR20210124104A (ja) |
CN (1) | CN112365881A (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111145720B (zh) * | 2020-02-04 | 2022-06-21 | 清华珠三角研究院 | 一种将文本转换成语音的方法、系统、装置和存储介质 |
CN112365874B (zh) * | 2020-11-17 | 2021-10-26 | 北京百度网讯科技有限公司 | 语音合成模型的属性注册、装置、电子设备与介质 |
CN113096625A (zh) * | 2021-03-24 | 2021-07-09 | 平安科技(深圳)有限公司 | 多人佛乐生成方法、装置、设备及存储介质 |
CN113838448B (zh) * | 2021-06-16 | 2024-03-15 | 腾讯科技(深圳)有限公司 | 一种语音合成方法、装置、设备及计算机可读存储介质 |
CN113539236B (zh) * | 2021-07-13 | 2024-03-15 | 网易(杭州)网络有限公司 | 一种语音合成方法和装置 |
CN113314097B (zh) * | 2021-07-30 | 2021-11-02 | 腾讯科技(深圳)有限公司 | 语音合成方法、语音合成模型处理方法、装置和电子设备 |
CN113838450B (zh) * | 2021-08-11 | 2022-11-25 | 北京百度网讯科技有限公司 | 音频合成及相应的模型训练方法、装置、设备及存储介质 |
CN113744713A (zh) * | 2021-08-12 | 2021-12-03 | 北京百度网讯科技有限公司 | 一种语音合成方法及语音合成模型的训练方法 |
CN113689868B (zh) * | 2021-08-18 | 2022-09-13 | 北京百度网讯科技有限公司 | 一种语音转换模型的训练方法、装置、电子设备及介质 |
CN113724687B (zh) * | 2021-08-30 | 2024-04-16 | 深圳市神经科学研究院 | 基于脑电信号的语音生成方法、装置、终端及存储介质 |
CN114299915A (zh) * | 2021-11-09 | 2022-04-08 | 腾讯科技(深圳)有限公司 | 语音合成方法及相关设备 |
CN114141228B (zh) * | 2021-12-07 | 2022-11-08 | 北京百度网讯科技有限公司 | 语音合成模型的训练方法、语音合成方法和装置 |
CN114333762B (zh) * | 2022-03-08 | 2022-11-18 | 天津大学 | 基于表现力的语音合成方法、系统、电子设备及存储介质 |
CN114822495B (zh) * | 2022-06-29 | 2022-10-14 | 杭州同花顺数据开发有限公司 | 声学模型训练方法、装置及语音合成方法 |
CN116030792B (zh) * | 2023-03-30 | 2023-07-25 | 深圳市玮欧科技有限公司 | 用于转换语音音色的方法、装置、电子设备和可读介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018146803A (ja) | 2017-03-06 | 2018-09-20 | 日本放送協会 | 音声合成装置及びプログラム |
US20200342852A1 (en) | 2018-01-11 | 2020-10-29 | Neosapience, Inc. | Speech translation method and system using multilingual text-to-speech synthesis model |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105304080B (zh) * | 2015-09-22 | 2019-09-03 | 科大讯飞股份有限公司 | 语音合成装置及方法 |
CN106920547B (zh) * | 2017-02-21 | 2021-11-02 | 腾讯科技(上海)有限公司 | 语音转换方法和装置 |
CN107464554B (zh) * | 2017-09-28 | 2020-08-25 | 百度在线网络技术(北京)有限公司 | 语音合成模型生成方法和装置 |
CN107705783B (zh) * | 2017-11-27 | 2022-04-26 | 北京搜狗科技发展有限公司 | 一种语音合成方法及装置 |
CN110599998B (zh) * | 2018-05-25 | 2023-08-18 | 阿里巴巴集团控股有限公司 | 一种语音数据生成方法及装置 |
US10741169B1 (en) * | 2018-09-25 | 2020-08-11 | Amazon Technologies, Inc. | Text-to-speech (TTS) processing |
CN109754779A (zh) * | 2019-01-14 | 2019-05-14 | 出门问问信息科技有限公司 | 可控情感语音合成方法、装置、电子设备及可读存储介质 |
WO2020153717A1 (en) * | 2019-01-22 | 2020-07-30 | Samsung Electronics Co., Ltd. | Electronic device and controlling method of electronic device |
KR102057927B1 (ko) | 2019-03-19 | 2019-12-20 | 휴멜로 주식회사 | 음성 합성 장치 및 그 방법 |
CN110288973B (zh) * | 2019-05-20 | 2024-03-29 | 平安科技(深圳)有限公司 | 语音合成方法、装置、设备及计算机可读存储介质 |
US11373633B2 (en) * | 2019-09-27 | 2022-06-28 | Amazon Technologies, Inc. | Text-to-speech processing using input voice characteristic data |
CN111326136B (zh) * | 2020-02-13 | 2022-10-14 | 腾讯科技(深圳)有限公司 | 语音处理方法、装置、电子设备及存储介质 |
CN111402842B (zh) * | 2020-03-20 | 2021-11-19 | 北京字节跳动网络技术有限公司 | 用于生成音频的方法、装置、设备和介质 |
CN111899719A (zh) * | 2020-07-30 | 2020-11-06 | 北京字节跳动网络技术有限公司 | 用于生成音频的方法、装置、设备和介质 |
CN111883149B (zh) * | 2020-07-30 | 2022-02-01 | 四川长虹电器股份有限公司 | 一种带情感和韵律的语音转换方法及装置 |
-
2020
- 2020-11-11 CN CN202011253104.5A patent/CN112365881A/zh active Pending
-
2021
- 2021-06-22 JP JP2021103443A patent/JP7194779B2/ja active Active
- 2021-09-03 KR KR1020210117980A patent/KR20210124104A/ko not_active Application Discontinuation
- 2021-09-29 US US17/489,616 patent/US11769482B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018146803A (ja) | 2017-03-06 | 2018-09-20 | 日本放送協会 | 音声合成装置及びプログラム |
US20200342852A1 (en) | 2018-01-11 | 2020-10-29 | Neosapience, Inc. | Speech translation method and system using multilingual text-to-speech synthesis model |
Also Published As
Publication number | Publication date |
---|---|
US20220020356A1 (en) | 2022-01-20 |
US11769482B2 (en) | 2023-09-26 |
CN112365881A (zh) | 2021-02-12 |
JP2021157193A (ja) | 2021-10-07 |
KR20210124104A (ko) | 2021-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7194779B2 (ja) | 音声合成方法及び対応するモデルのトレーニング方法、装置、電子機器、記憶媒体、並びにコンピュータプログラム | |
KR102484967B1 (ko) | 음성 전환 방법, 장치 및 전자 기기 | |
JP7335298B2 (ja) | 音声合成モデルの属性登録方法、装置、電子機器、記憶媒体及びコンピュータプログラム | |
CN112365882B (zh) | 语音合成方法及模型训练方法、装置、设备及存储介质 | |
JP7259197B2 (ja) | モデルトレーニング方法、音声合成方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
JP7490804B2 (ja) | 非同期デコーダでエンド・ツー・エンド音声認識をストリーミングするためのシステムおよび方法 | |
CN110473516B (zh) | 语音合成方法、装置以及电子设备 | |
CN112365880B (zh) | 语音合成方法、装置、电子设备及存储介质 | |
CN110619867B (zh) | 语音合成模型的训练方法、装置、电子设备及存储介质 | |
CN112542155B (zh) | 歌曲合成方法及模型训练方法、装置、设备与存储介质 | |
CN112270920A (zh) | 一种语音合成方法、装置、电子设备和可读存储介质 | |
CN112365877A (zh) | 语音合成方法、装置、电子设备和存储介质 | |
WO2022106654A2 (en) | Methods and systems for video translation | |
JP7335569B2 (ja) | 音声認識方法、装置及び電子機器 | |
US20220068265A1 (en) | Method for displaying streaming speech recognition result, electronic device, and storage medium | |
JP7216065B2 (ja) | 音声認識方法及び装置、電子機器並びに記憶媒体 | |
CN117063228A (zh) | 用于灵活流式和非流式自动语音识别的混合模型注意力 | |
Soni et al. | Deep Learning Technique to generate lip-sync for live 2-D Animation | |
CN117273147A (zh) | 电子面板上生成图案的方法、装置、电子设备和存储介质 | |
CN118212908A (zh) | 音频生成方法、装置及电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210622 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220621 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220822 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221212 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7194779 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |