JP7106680B2 - ニューラルネットワークを使用したターゲット話者の声でのテキストからの音声合成 - Google Patents
ニューラルネットワークを使用したターゲット話者の声でのテキストからの音声合成 Download PDFInfo
- Publication number
- JP7106680B2 JP7106680B2 JP2020564447A JP2020564447A JP7106680B2 JP 7106680 B2 JP7106680 B2 JP 7106680B2 JP 2020564447 A JP2020564447 A JP 2020564447A JP 2020564447 A JP2020564447 A JP 2020564447A JP 7106680 B2 JP7106680 B2 JP 7106680B2
- Authority
- JP
- Japan
- Prior art keywords
- speaker
- neural network
- voice
- speech
- audio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 111
- 230000015572 biosynthetic process Effects 0.000 title description 19
- 238000003786 synthesis reaction Methods 0.000 title description 19
- 239000013598 vector Substances 0.000 claims description 86
- 238000012549 training Methods 0.000 claims description 49
- 238000012795 verification Methods 0.000 claims description 37
- 238000000034 method Methods 0.000 claims description 32
- 238000003860 storage Methods 0.000 claims description 20
- 230000006403 short-term memory Effects 0.000 claims description 4
- 230000015654 memory Effects 0.000 description 35
- 238000004891 communication Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 10
- 238000004590 computer program Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 210000002569 neuron Anatomy 0.000 description 6
- 238000013518 transcription Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 230000002194 synthesizing effect Effects 0.000 description 5
- 230000035897 transcription Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L2013/021—Overlap-add techniques
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Telephonic Communication Services (AREA)
- Circuit For Audible Band Transducer (AREA)
- User Interface Of Digital Computer (AREA)
- Machine Translation (AREA)
Description
図1は、ターゲット話者の声で音声を合成できる例示的な音声システム100を示すブロック図である。音声合成システム100は、1つまたは複数の場所にある1つまたは複数のコンピュータ上のコンピュータプログラムとして実装することができる。音声合成システム100は、ターゲット話者のオーディオ表現とともに入力テキストを受信し、一連のニューラルネットワークを介して入力を処理し、ターゲット話者の声で入力テキストに対応する音声を生成する。例えば、音声合成システム100が、「こんにちは、私の名前はジョン・ドゥであり、テスト目的でこの音声のサンプルを提供している」と言っているジョン・ドゥの5秒間のオーディオとともに本のページのテキストを入力として受信した場合、これらの入力を処理して、ジョン・ドゥの声で当該ページの口述のナレーションを生成できる。別の例では、音声合成システム100が、別の本からナレーションするジェーン・ドゥ(Jane Doe)の6秒間のオーディオとともに本のページのテキストを入力として受信した場合、これらの入力を処理して、ジェーン・ドゥの声でページの口述のナレーションを生成できる。
システムは、話者を互いに区別するようにトレーニングされた話者検証ニューラルネットワークにオーディオ表現を提供することによって話者埋め込みベクトルを生成する(415)。例えば、話者検証ニューラルネットワークはLSTMニューラルネットワークにすることができ、話者埋め込みベクトルはLSTMニューラルネットワークの隠れ層の出力にすることができる。
一部の実装形態では、スペクトログラム生成ニューラルネットワークは、話者検証ニューラルネットワークとは別にトレーニングされてよい。
一部の実装形態では、システムは、ターゲット話者の声で話された入力テキストのオーディオ表現をボコーダに提供して、ターゲット話者の声で話された入力テキストの時間領域表現を生成する。システムは、再生用の時間領域表現をユーザに提供できる。
Claims (15)
- ターゲット話者の音声のオーディオ表現を取得することと、
音声が前記ターゲット話者の声で合成される入力テキストを取得することと、
話者を互いに区別するようにトレーニングされた話者検証ニューラルネットワークに前記オーディオ表現を提供することによって話者埋め込みベクトルを生成することと、
前記入力テキストと前記話者埋め込みベクトルとを、オーディオ表現を生成するために参照話者の声を使用してトレーニングされたスペクトログラム生成ニューラルネットワークに提供することによって、前記ターゲット話者の前記声で話される前記入力テキストのオーディオ表現を生成することと、
出力用に前記ターゲット話者の前記声で話された前記入力テキストの前記オーディオ表現を提供することと、を含み、
前記話者検証ニューラルネットワークは、埋め込み空間内で互いに近接している同じ話者からの音声のオーディオ表現の話者埋め込みベクトルを生成するようにトレーニングされているとともに、互いに離れた異なる話者からの音声のオーディオ表現の話者埋め込みベクトルを生成するようにトレーニングされている、コンピュータ実装方法。 - ターゲット話者の音声のオーディオ表現を取得することと、
音声が前記ターゲット話者の声で合成される入力テキストを取得することと、
話者を互いに区別するようにトレーニングされた話者検証ニューラルネットワークに前記オーディオ表現を提供することによって話者埋め込みベクトルを生成することと、
前記入力テキストと前記話者埋め込みベクトルとを、オーディオ表現を生成するために参照話者の声を使用してトレーニングされたスペクトログラム生成ニューラルネットワークに提供することによって、前記ターゲット話者の前記声で話される前記入力テキストのオーディオ表現を生成することと、
出力用に前記ターゲット話者の前記声で話された前記入力テキストの前記オーディオ表現を提供することと、を含み、
前記話者埋め込みベクトルは、前記話者検証ニューラルネットワークまたは前記スペクトログラム生成ニューラルネットワークのトレーニング中に使用される話者埋め込みベクトルとは異なる、コンピュータ実装方法。 - ターゲット話者の音声のオーディオ表現を取得することと、
音声が前記ターゲット話者の声で合成される入力テキストを取得することと、
話者を互いに区別するようにトレーニングされた話者検証ニューラルネットワークに前記オーディオ表現を提供することによって話者埋め込みベクトルを生成することと、
前記入力テキストと前記話者埋め込みベクトルとを、オーディオ表現を生成するために参照話者の声を使用してトレーニングされたスペクトログラム生成ニューラルネットワークに提供することによって、前記ターゲット話者の前記声で話される前記入力テキストのオーディオ表現を生成することと、
出力用に前記ターゲット話者の前記声で話された前記入力テキストの前記オーディオ表現を提供することと、を含み、
前記スペクトログラム生成ニューラルネットワークのトレーニング中に、前記話者検証ニューラルネットワークのパラメータが固定されている、コンピュータ実装方法。 - 前記話者検証ニューラルネットワークは、前記スペクトログラム生成ニューラルネットワークとは別にトレーニングされる、請求項1~3のいずれか一項に記載の方法。
- 前記話者検証ニューラルネットワークは長短期記憶(LSTM)ニューラルネットワークである、請求項1~4のいずれか一項に記載の方法。
- 前記話者埋め込みベクトルを生成することは、
前記オーディオ表現の複数の重なり合うスライディングウィンドウを前記話者検証ニューラルネットワークに提供して、複数の個別のベクトル埋め込みを生成することと、
前記複数の個別のベクトル埋め込みの平均を計算することにより、前記話者埋め込みベクトルを生成することと、を含む、請求項1~5のいずれか一項に記載の方法。 - 出力用に前記ターゲット話者の前記声で話された前記入力テキストの前記オーディオ表現を提供することは、
前記ターゲット話者の前記声で話された前記入力テキストの前記オーディオ表現をボコーダに提供して、前記ターゲット話者の前記声で話された前記入力テキストの時間領域表現を生成することと、
再生用の前記時間領域表現をユーザに提供することと、を含む、請求項1~6のいずれか一項に記載の方法。 - 前記ボコーダはボコーダニューラルネットワークである、請求項7に記載の方法。
- 前記スペクトログラム生成ニューラルネットワークは、音素または書記素入力のシーケンスからメルスペクトログラムを予測するようにトレーニングされたシーケンスツーシーケンスアテンションニューラルネットワークである、請求項1~8のいずれか一項に記載の方法。
- 前記スペクトログラム生成ニューラルネットワークは、エンコーダニューラルネットワーク、アテンション層、およびデコーダニューラルネットワークを含む、請求項9に記載の方法。
- 前記スペクトログラム生成ニューラルネットワークは、前記話者埋め込みベクトルを、前記アテンション層への入力として提供される前記エンコーダニューラルネットワークの出力と連結する、請求項10に記載の方法。
- 話者を互いに区別するように話者検証ニューラルネットワークをトレーニングすることと、
入力テキストのオーディオ表現を生成するために複数の参照話者の声を使用してスペクトログラム生成ニューラルネットワークをトレーニングすることと、を含む音声合成で使用するためにニューラルネットワークをトレーニングするコンピュータ実装方法であって、
前記話者検証ニューラルネットワークは、埋め込み空間内で互いに近接している同じ話者からの音声のオーディオ表現の話者埋め込みベクトルを生成するようにトレーニングされているとともに、互いに離れた異なる話者からの音声のオーディオ表現の話者埋め込みベクトルを生成するようにトレーニングされている、コンピュータ実装方法。 - 話者を互いに区別するように話者検証ニューラルネットワークをトレーニングすることと、
入力テキストのオーディオ表現を生成するために複数の参照話者の声を使用してスペクトログラム生成ニューラルネットワークをトレーニングすることと、を含む音声合成で使用するためにニューラルネットワークをトレーニングするコンピュータ実装方法であって、
前記スペクトログラム生成ニューラルネットワークのトレーニング中に、前記話者検証ニューラルネットワークのパラメータが固定されている、コンピュータ実装方法。 - 1つまたは複数のコンピュータと、命令を記憶する1つまたは複数の記憶デバイスとを含むシステムであって、前記命令は、前記1つまたは複数のコンピュータにより実行されるとき、前記1つまたは複数のコンピュータに請求項1~13のいずれか一項に記載の方法の動作を実行させる、システム。
- 命令を記憶する1つまたは複数のコンピュータ可読記憶媒体であって、前記命令は、1つまたは複数のコンピュータにより実行されるとき、前記1つまたは複数のコンピュータに請求項1~13のいずれか一項に記載の方法の動作を実行させる、1つまたは複数のコンピュータ可読媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022112158A JP7427723B2 (ja) | 2018-05-17 | 2022-07-13 | ニューラルネットワークを使用したターゲット話者の声でのテキストからの音声合成 |
JP2024008676A JP2024038474A (ja) | 2018-05-17 | 2024-01-24 | ニューラルネットワークを使用したターゲット話者の声でのテキストからの音声合成 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862672835P | 2018-05-17 | 2018-05-17 | |
US62/672,835 | 2018-05-17 | ||
PCT/US2019/032815 WO2019222591A1 (en) | 2018-05-17 | 2019-05-17 | Synthesis of speech from text in a voice of a target speaker using neural networks |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022112158A Division JP7427723B2 (ja) | 2018-05-17 | 2022-07-13 | ニューラルネットワークを使用したターゲット話者の声でのテキストからの音声合成 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021524063A JP2021524063A (ja) | 2021-09-09 |
JP7106680B2 true JP7106680B2 (ja) | 2022-07-26 |
Family
ID=66770584
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020564447A Active JP7106680B2 (ja) | 2018-05-17 | 2019-05-17 | ニューラルネットワークを使用したターゲット話者の声でのテキストからの音声合成 |
JP2022112158A Active JP7427723B2 (ja) | 2018-05-17 | 2022-07-13 | ニューラルネットワークを使用したターゲット話者の声でのテキストからの音声合成 |
JP2024008676A Pending JP2024038474A (ja) | 2018-05-17 | 2024-01-24 | ニューラルネットワークを使用したターゲット話者の声でのテキストからの音声合成 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022112158A Active JP7427723B2 (ja) | 2018-05-17 | 2022-07-13 | ニューラルネットワークを使用したターゲット話者の声でのテキストからの音声合成 |
JP2024008676A Pending JP2024038474A (ja) | 2018-05-17 | 2024-01-24 | ニューラルネットワークを使用したターゲット話者の声でのテキストからの音声合成 |
Country Status (6)
Country | Link |
---|---|
US (3) | US11488575B2 (ja) |
EP (1) | EP3776530A1 (ja) |
JP (3) | JP7106680B2 (ja) |
KR (2) | KR20230043250A (ja) |
CN (2) | CN112689871B (ja) |
WO (1) | WO2019222591A1 (ja) |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3948848B1 (en) * | 2019-03-29 | 2023-07-19 | Microsoft Technology Licensing, LLC | Speaker diarization with early-stop clustering |
US11222621B2 (en) * | 2019-05-23 | 2022-01-11 | Google Llc | Variational embedding capacity in expressive end-to-end speech synthesis |
KR102430020B1 (ko) | 2019-08-09 | 2022-08-08 | 주식회사 하이퍼커넥트 | 단말기 및 그것의 동작 방법 |
US11501787B2 (en) * | 2019-08-22 | 2022-11-15 | Google Llc | Self-supervised audio representation learning for mobile devices |
GB2590509B (en) * | 2019-12-20 | 2022-06-15 | Sonantic Ltd | A text-to-speech synthesis method and system, and a method of training a text-to-speech synthesis system |
US11430431B2 (en) | 2020-02-06 | 2022-08-30 | Tencent America LLC | Learning singing from speech |
CN113470615B (zh) * | 2020-03-13 | 2024-03-12 | 微软技术许可有限责任公司 | 跨讲话者风格转移语音合成 |
CN111369968B (zh) * | 2020-03-19 | 2023-10-13 | 北京字节跳动网络技术有限公司 | 语音合成方法、装置、可读介质及电子设备 |
CN111583903B (zh) * | 2020-04-28 | 2021-11-05 | 北京字节跳动网络技术有限公司 | 语音合成方法、声码器训练方法、装置、介质及电子设备 |
CN111951778B (zh) * | 2020-07-15 | 2023-10-17 | 天津大学 | 一种低资源下利用迁移学习进行情感语音合成的方法 |
CN111862934B (zh) * | 2020-07-24 | 2022-09-27 | 思必驰科技股份有限公司 | 语音合成模型的改进方法和语音合成方法及装置 |
CN112116903B (zh) * | 2020-08-17 | 2024-09-13 | 北京大米科技有限公司 | 语音合成模型的生成方法、装置、存储介质及电子设备 |
WO2022078634A1 (en) * | 2020-10-15 | 2022-04-21 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio generator and methods for generating an audio signal and training an audio generator |
CN114938679A (zh) * | 2020-11-03 | 2022-08-23 | 微软技术许可有限责任公司 | 文本到语音模型和个性化模型生成的话音的受控训练和使用 |
CN112489620B (zh) * | 2020-11-20 | 2022-09-09 | 北京有竹居网络技术有限公司 | 语音合成方法、装置、可读介质及电子设备 |
US20220165247A1 (en) * | 2020-11-24 | 2022-05-26 | Xinapse Co., Ltd. | Method for generating synthetic speech and speech synthesis system |
CN112614479B (zh) * | 2020-11-26 | 2022-03-25 | 北京百度网讯科技有限公司 | 训练数据的处理方法、装置及电子设备 |
JP7254114B2 (ja) * | 2020-12-18 | 2023-04-07 | ハイパーコネクト リミテッド ライアビリティ カンパニー | 音声合成装置およびその方法 |
CN112802448B (zh) * | 2021-01-05 | 2022-10-11 | 杭州一知智能科技有限公司 | 一种新音色生成的语音合成方法和系统 |
CN113781993B (zh) * | 2021-01-20 | 2024-09-24 | 北京沃东天骏信息技术有限公司 | 定制音色歌声的合成方法、装置、电子设备和存储介质 |
CN112908293B (zh) * | 2021-03-11 | 2022-08-02 | 浙江工业大学 | 一种基于语义注意力机制的多音字发音纠错方法及装置 |
CN113450773A (zh) * | 2021-05-11 | 2021-09-28 | 多益网络有限公司 | 视频记录文稿生成方法、装置、存储介质以及电子设备 |
US20220383850A1 (en) * | 2021-05-31 | 2022-12-01 | Brock Daily | System and method for posthumous dynamic speech synthesis using neural networks and deep learning |
CN113409765B (zh) * | 2021-06-11 | 2024-04-26 | 北京搜狗科技发展有限公司 | 一种语音合成方法、装置和用于语音合成的装置 |
CN113571039B (zh) * | 2021-08-09 | 2022-04-08 | 北京百度网讯科技有限公司 | 语音转换方法、系统、电子设备及可读存储介质 |
CN113808572B (zh) * | 2021-08-18 | 2022-06-17 | 北京百度网讯科技有限公司 | 语音合成方法、装置、电子设备和存储介质 |
CN113488057B (zh) * | 2021-08-18 | 2023-11-14 | 山东新一代信息产业技术研究院有限公司 | 面向康养的对话实现方法及系统 |
CN113870837A (zh) * | 2021-09-27 | 2021-12-31 | 平安科技(深圳)有限公司 | 语音合成模型的训练方法、装置、设备及可读存储介质 |
CN113724684B (zh) * | 2021-10-19 | 2024-06-14 | 南京航空航天大学 | 一种空中交通管制指令的语音合成方法及系统 |
WO2023089634A1 (en) * | 2021-11-16 | 2023-05-25 | Gan Studio Inc | Seamless multimedia integration |
US11908454B2 (en) | 2021-12-01 | 2024-02-20 | International Business Machines Corporation | Integrating text inputs for training and adapting neural network transducer ASR models |
WO2023209762A1 (ja) * | 2022-04-25 | 2023-11-02 | 日本電信電話株式会社 | 学習装置、変換装置、方法及びプログラム |
CN115220608B (zh) * | 2022-09-20 | 2022-12-20 | 深圳市人马互动科技有限公司 | 互动小说中多媒体数据的处理方法及装置 |
WO2024069726A1 (ja) * | 2022-09-27 | 2024-04-04 | 日本電信電話株式会社 | 学習装置、変換装置、学習方法、変換方法及びプログラム |
WO2024176673A1 (ja) * | 2023-02-22 | 2024-08-29 | 国立大学法人大阪大学 | プログラム、情報処理方法、情報処理装置、及びロボット |
CN116564276B (zh) * | 2023-04-23 | 2024-06-25 | 内蒙古工业大学 | 一种基于双判别器生成对抗网络的蒙古语语音识别方法 |
CN116312466B (zh) * | 2023-05-23 | 2023-08-15 | 澳克多普有限公司 | 基于少量样本的说话人适应方法、语音翻译方法和系统 |
CN117219050A (zh) * | 2023-09-08 | 2023-12-12 | 中国人民解放军战略支援部队航天工程大学 | 一种基于深度生成对抗网络的文本生成视频系统 |
CN118314877B (zh) * | 2024-04-26 | 2024-10-15 | 荣耀终端有限公司 | 个性化语音合成方法、音频模型的训练方法和电子设备 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6988066B2 (en) * | 2001-10-04 | 2006-01-17 | At&T Corp. | Method of bandwidth extension for narrow-band speech |
WO2010008722A1 (en) * | 2008-06-23 | 2010-01-21 | John Nicholas Gross | Captcha system optimized for distinguishing between humans and machines |
CN105283916B (zh) * | 2013-06-11 | 2019-06-07 | 株式会社东芝 | 电子水印嵌入装置、电子水印嵌入方法及计算机可读记录介质 |
JP6622505B2 (ja) | 2015-08-04 | 2019-12-18 | 日本電信電話株式会社 | 音響モデル学習装置、音声合成装置、音響モデル学習方法、音声合成方法、プログラム |
JP6463710B2 (ja) * | 2015-10-16 | 2019-02-06 | グーグル エルエルシー | ホットワード認識 |
US10607601B2 (en) * | 2017-05-11 | 2020-03-31 | International Business Machines Corporation | Speech recognition by selecting and refining hot words |
US10354656B2 (en) * | 2017-06-23 | 2019-07-16 | Microsoft Technology Licensing, Llc | Speaker recognition |
US10872596B2 (en) * | 2017-10-19 | 2020-12-22 | Baidu Usa Llc | Systems and methods for parallel wave generation in end-to-end text-to-speech |
-
2019
- 2019-05-17 CN CN201980033235.1A patent/CN112689871B/zh active Active
- 2019-05-17 EP EP19728819.4A patent/EP3776530A1/en not_active Withdrawn
- 2019-05-17 KR KR1020237009867A patent/KR20230043250A/ko not_active Application Discontinuation
- 2019-05-17 WO PCT/US2019/032815 patent/WO2019222591A1/en unknown
- 2019-05-17 JP JP2020564447A patent/JP7106680B2/ja active Active
- 2019-05-17 US US17/055,951 patent/US11488575B2/en active Active
- 2019-05-17 CN CN202410971021.1A patent/CN118711564A/zh active Pending
- 2019-05-17 KR KR1020207035508A patent/KR102514990B1/ko active IP Right Grant
-
2022
- 2022-07-13 JP JP2022112158A patent/JP7427723B2/ja active Active
- 2022-07-19 US US17/813,361 patent/US11848002B2/en active Active
-
2023
- 2023-11-30 US US18/525,475 patent/US20240112667A1/en active Pending
-
2024
- 2024-01-24 JP JP2024008676A patent/JP2024038474A/ja active Pending
Non-Patent Citations (3)
Title |
---|
Ehsan VARIANI, et al.,Deep neural networks for small footprint text-dependent speaker verification,ICASSP 2014,IEEE,2014年05月,pp.4052-4056 |
Quan WANG, et al.,Speaker Diarization with LSTM,ICASSP 2018,IEEE,2018年04月,pp.5239-5243 |
Wei PING, et al.,Deep Voice 3: Scaling Text-to-Speech with Convolutional Sequence Learning,ICLR 2018,2018年02月,pp.1-16 |
Also Published As
Publication number | Publication date |
---|---|
US11848002B2 (en) | 2023-12-19 |
WO2019222591A1 (en) | 2019-11-21 |
CN112689871A (zh) | 2021-04-20 |
CN112689871B (zh) | 2024-08-02 |
JP2024038474A (ja) | 2024-03-19 |
KR20210008510A (ko) | 2021-01-22 |
KR102514990B1 (ko) | 2023-03-27 |
US20210217404A1 (en) | 2021-07-15 |
JP2021524063A (ja) | 2021-09-09 |
EP3776530A1 (en) | 2021-02-17 |
US20220351713A1 (en) | 2022-11-03 |
CN118711564A (zh) | 2024-09-27 |
JP2022137201A (ja) | 2022-09-21 |
JP7427723B2 (ja) | 2024-02-05 |
US11488575B2 (en) | 2022-11-01 |
KR20230043250A (ko) | 2023-03-30 |
US20240112667A1 (en) | 2024-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7106680B2 (ja) | ニューラルネットワークを使用したターゲット話者の声でのテキストからの音声合成 | |
CN111489734B (zh) | 基于多说话人的模型训练方法以及装置 | |
CN108573693B (zh) | 文本到语音系统和方法以及其存储介质 | |
US20230064749A1 (en) | Two-Level Speech Prosody Transfer | |
US11664011B2 (en) | Clockwork hierarchal variational encoder | |
WO2020215666A1 (zh) | 语音合成方法、装置、计算机设备及存储介质 | |
CN106688034B (zh) | 具有情感内容的文字至语音转换 | |
JP2022107032A (ja) | 機械学習を利用したテキスト音声合成方法、装置およびコンピュータ読み取り可能な記憶媒体 | |
Wali et al. | Generative adversarial networks for speech processing: A review | |
CN112786007A (zh) | 语音合成方法、装置、可读介质及电子设备 | |
JP2024505076A (ja) | 多様で自然なテキスト読み上げサンプルを生成する | |
CN116601702A (zh) | 一种用于多说话者和多语言语音合成的端到端神经系统 | |
CN114255740A (zh) | 语音识别方法、装置、计算机设备和存储介质 | |
CN114242093A (zh) | 语音音色转换方法、装置、计算机设备和存储介质 | |
KR20220070979A (ko) | 발화 스타일 인코딩 네트워크 이용한 스타일 음성 합성 장치 및 음성 합성 방법 | |
JP2021099454A (ja) | 音声合成装置、音声合成プログラム及び音声合成方法 | |
CN117597728A (zh) | 使用未完全训练的文本到语音模型的个性化和动态的文本到语音声音克隆 | |
US11335321B2 (en) | Building a text-to-speech system from a small amount of speech data | |
US20240304175A1 (en) | Speech modification using accent embeddings | |
Hatem et al. | Human Speaker Recognition Based Database Method | |
KR102457822B1 (ko) | 자동 통역 장치 및 그 방법 | |
Louw | Neural speech synthesis for resource-scarce languages | |
Iglesias et al. | Voice personalization and speaker de-identification in speech processing systems | |
CN114822492A (zh) | 语音合成方法及装置、电子设备、计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220331 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220614 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220713 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7106680 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |