JP7181332B2 - 音声変換方法、装置及び電子機器 - Google Patents
音声変換方法、装置及び電子機器 Download PDFInfo
- Publication number
- JP7181332B2 JP7181332B2 JP2021051620A JP2021051620A JP7181332B2 JP 7181332 B2 JP7181332 B2 JP 7181332B2 JP 2021051620 A JP2021051620 A JP 2021051620A JP 2021051620 A JP2021051620 A JP 2021051620A JP 7181332 B2 JP7181332 B2 JP 7181332B2
- Authority
- JP
- Japan
- Prior art keywords
- speech
- acoustic
- network
- model
- content information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000006243 chemical reaction Methods 0.000 title claims description 119
- 238000000034 method Methods 0.000 title claims description 61
- 238000012549 training Methods 0.000 claims description 21
- 230000015654 memory Effects 0.000 claims description 20
- 239000011159 matrix material Substances 0.000 claims description 15
- 238000000605 extraction Methods 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 11
- 238000013528 artificial neural network Methods 0.000 claims description 10
- 230000000306 recurrent effect Effects 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 7
- 230000002194 synthesizing effect Effects 0.000 claims description 6
- 230000015572 biosynthetic process Effects 0.000 claims description 5
- 238000003786 synthesis reaction Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000002452 interceptive effect Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000008451 emotion Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000033764 rhythmic process Effects 0.000 description 3
- 241000699666 Mus <mouse, genus> Species 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
- G10L21/007—Changing voice quality, e.g. pitch or formants characterised by the process used
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
- G10L21/007—Changing voice quality, e.g. pitch or formants characterised by the process used
- G10L21/013—Adapting to target pitch
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
- G10L21/007—Changing voice quality, e.g. pitch or formants characterised by the process used
- G10L21/013—Adapting to target pitch
- G10L2021/0135—Voice conversion or morphing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Biomedical Technology (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Telephonic Communication Services (AREA)
- User Interface Of Digital Computer (AREA)
- Electrically Operated Instructional Devices (AREA)
- Machine Translation (AREA)
Description
本出願の実施例によれば、本出願は、コンピュータプログラムを提供し、コンピュータプログラムは、コンピュータに本出願によって提供される音声変換方法を実行させる。
Claims (17)
- 第1のユーザのソース音声と第2のユーザの参照音声を取得するステップと、
前記ソース音声から第1の音声コンテンツ情報と第1の音響特性を抽出するステップと、
前記参照音声から第2の音響特性を抽出するステップと、
前記第1の音声コンテンツ情報、前記第1の音響特性及び前記第2の音響特性を予めトレーニングされた音声変換モデルに入力して、再構成された第3の音響特性を取得するステップであって、前記予めトレーニングされた音声変換モデルは第3のユーザの音声に基づいてトレーニングして取得されるステップと、
前記第3の音響特性に基づいてターゲット音声を合成するステップと、
前記第3のユーザの第1の音声と第2の音声を取得するステップと、
前記第1の音声から第2の音声コンテンツ情報と第4の音響特性を抽出するステップと、
前記第2の音声から第5の音響特性を抽出するステップと、
前記第2の音声コンテンツ情報、前記第4の音響特性及び前記第5の音響特性をトレーニング対象の音声変換モデルに入力して、再構成された第6の音響特性を取得するステップと、
前記第6の音響特性と前記第4の音響特性との相違に基づいて、前記トレーニング対象の音声変換モデルにおけるモデルパラメータを調整し、前記第6の音響特性と前記第4の音響特性との相違が予め設定されたトレーニング終了条件を満たすまで、前記第3のユーザの第1の音声と第2の音声を取得するステップに戻り、最後にモデルパラメータを調整した後の前記トレーニング対象の音声変換モデルを前記予めトレーニングされた音声変換モデルとして決定するステップと、
を含む音声変換方法。 - 前記ソース音声から第1の音声コンテンツ情報を抽出するステップが、
前記ソース音声を予めトレーニングされた多言語自動音声認識モデルに入力して、音声事後確率行列を取得するステップと、
前記音声事後確率行列を前記第1の音声コンテンツ情報とするステップと、
を含む請求項1に記載の音声変換方法。 - 前記第1の音響特性、前記第2の音響特性及び前記第3の音響特性がメル特徴である請求項1に記載の音声変換方法。
- 前記音声変換モデルが隠れ変数ネットワーク、音色ネットワーク及び再構成ネットワークを含み、前記第1の音声コンテンツ情報、前記第1の音響特性及び前記第2の音響特性を予めトレーニングされた音声変換モデルに入力して、再構成された第3の音響特性を取得するステップが、
前記第1の音響特性を前記隠れ変数ネットワークに入力して、基本周波数エネルギーパラメータを取得するステップと、
前記第2の音響特性を前記音色ネットワークに入力して、音色パラメータを取得するステップと、
前記第1の音声コンテンツ情報、前記基本周波数エネルギーパラメータ及び前記音色パラメータを前記再構成ネットワークに入力して、前記第3の音響特性を取得するステップと、
を含む請求項1に記載の音声変換方法。 - 前記第1の音響特性を前記隠れ変数ネットワークに入力して、基本周波数エネルギーパラメータを取得するステップが、前記第1の音響特性を前記隠れ変数ネットワークに入力し、前記隠れ変数ネットワークがフレームスケールで前記第1の音響特性を圧縮し、圧縮された第1の音響特性から基本周波数エネルギーパラメータを抽出するステップを含む請求項4に記載の音声変換方法。
- 前記第2の音響特性を前記音色ネットワークに入力して、音色パラメータを取得するステップが、前記第2の音響特性を前記音色ネットワークに入力し、前記音色ネットワークがディープリカレントニューラルネットワーク及び変分オートエンコーダによって前記第2の音響特性を抽象化して、前記音色パラメータを取得するステップを含む請求項4に記載の音声変換方法。
- 前記第1の音声コンテンツ情報、前記基本周波数エネルギーパラメータ及び前記音色パラメータを前記再構成ネットワークに入力して、前記第3の音響特性を取得するステップが、前記第1の音声コンテンツ情報、前記基本周波数エネルギーパラメータ及び前記音色パラメータを前記再構成ネットワークに入力し、前記再構成ネットワークがディープリカレントニューラルネットワークによって前記第1の音声コンテンツ情報、前記基本周波数エネルギーパラメータ及び前記音色パラメータに対して音響特性再構成を行って、前記第3の音響特性を取得するステップを含む請求項4に記載の音声変換方法。
- 第1のユーザのソース音声と第2のユーザの参照音声を取得するための取得モジュールと、
前記ソース音声から第1の音声コンテンツ情報と第1の音響特性を抽出するための第1の抽出モジュールと、
前記参照音声から第2の音響特性を抽出するための第2の抽出モジュールと、
前記第1の音声コンテンツ情報、前記第1の音響特性及び前記第2の音響特性を予めトレーニングされた音声変換モデルに入力して、再構成された第3の音響特性を取得するための変換モジュールであって、前記予めトレーニングされた音声変換モデルは第3のユーザの音声に基づいてトレーニングして取得される変換モジュールと、
前記第3の音響特性に基づいてターゲット音声を合成するための合成モジュールと、
モデルトレーニングモジュールと、
を備え、
該モデルトレーニングモジュールが、
前記第3のユーザの第1の音声と第2の音声を取得し、
前記第1の音声から第2の音声コンテンツ情報と第4の音響特性を抽出し、
前記第2の音声から第5の音響特性を抽出し、
前記第2の音声コンテンツ情報、前記第4の音響特性及び前記第5の音響特性をトレーニング対象の音声変換モデルに入力して、再構成された第6の音響特性を取得し、
前記第6の音響特性と前記第4の音響特性との相違に基づいて、前記トレーニング対象の音声変換モデルにおけるモデルパラメータを調整し、前記第6の音響特性と前記第4の音響特性との相違が予め設定されたトレーニング終了条件を満たすまで、前記第3のユーザの第1の音声と第2の音声を取得するステップに戻り、最後にモデルパラメータを調整した後の前記トレーニング対象の音声変換モデルを前記予めトレーニングされた音声変換モデルとして決定する音声変換装置。 - 前記第1の抽出モジュールが、
前記ソース音声を予めトレーニングされた多言語自動音声認識モデルに入力して、音声事後確率行列を取得し、
前記音声事後確率行列を前記第1の音声コンテンツ情報とする請求項8に記載の音声変換装置。 - 前記第1の音響特性、前記第2の音響特性及び前記第3の音響特性がメル特徴である請求項8に記載の音声変換装置。
- 前記音声変換モデルは隠れ変数ネットワーク、音色ネットワーク及び再構成ネットワークを含み、前記変換モジュールが、
前記第1の音響特性を前記隠れ変数ネットワークに入力して、基本周波数エネルギーパラメータを取得するための第1の入力ユニットと、
前記第2の音響特性を前記音色ネットワークに入力して、音色パラメータを取得するための第2の入力ユニットと、
前記第1の音声コンテンツ情報、前記基本周波数エネルギーパラメータ及び前記音色パラメータを前記再構成ネットワークに入力して、前記第3の音響特性を取得するための第3の入力ユニットと、
を備える請求項8に記載の音声変換装置。 - 前記第1の入力ユニットが、前記第1の音響特性を前記隠れ変数ネットワークに入力し、前記隠れ変数ネットワークがフレームスケールで前記第1の音響特性を圧縮し、圧縮された第1の音響特性から基本周波数エネルギーパラメータを抽出する請求項11に記載の音声変換装置。
- 前記第2の入力ユニットが、前記第2の音響特性を前記音色ネットワークに入力し、前記音色ネットワークがディープリカレントニューラルネットワーク及び変分オートエンコーダによって前記第2の音響特性を抽象化して、前記音色パラメータを取得する請求項11に記載の音声変換装置。
- 前記第3の入力ユニットが、前記第1の音声コンテンツ情報、前記基本周波数エネルギーパラメータ及び前記音色パラメータを前記再構成ネットワークに入力し、前記再構成ネットワークがディープリカレントニューラルネットワークによって前記第1の音声コンテンツ情報、前記基本周波数エネルギーパラメータ及び前記音色パラメータに対して音響特性再構成を行って、前記第3の音響特性を取得する請求項11に記載の音声変換装置。
- 少なくとも1つのプロセッサと、
該少なくとも1つのプロセッサと通信可能に接続されるメモリと、
を備え、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が、前記少なくとも1つのプロセッサが請求項1から7のいずれか一項に記載の音声変換方法を実行できるように、前記少なくとも1つのプロセッサによって実行される電子機器。 - コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令が、コンピュータに請求項1から7のいずれか一項に記載の音声変換方法を実行させる非一時的なコンピュータ読み取り可能な記憶媒体。 - コンピュータに請求項1から7のいずれか一項に記載の音声変換方法を実行させるコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011025400.X | 2020-09-25 | ||
CN202011025400.XA CN112259072A (zh) | 2020-09-25 | 2020-09-25 | 语音转换方法、装置和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021103328A JP2021103328A (ja) | 2021-07-15 |
JP7181332B2 true JP7181332B2 (ja) | 2022-11-30 |
Family
ID=74234043
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021051620A Active JP7181332B2 (ja) | 2020-09-25 | 2021-03-25 | 音声変換方法、装置及び電子機器 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210280202A1 (ja) |
EP (1) | EP3859735A3 (ja) |
JP (1) | JP7181332B2 (ja) |
KR (1) | KR102484967B1 (ja) |
CN (1) | CN112259072A (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113066498B (zh) * | 2021-03-23 | 2022-12-30 | 上海掌门科技有限公司 | 信息处理方法、设备和介质 |
CN113314101B (zh) * | 2021-04-30 | 2024-05-14 | 北京达佳互联信息技术有限公司 | 一种语音处理方法、装置、电子设备及存储介质 |
CN113223555A (zh) * | 2021-04-30 | 2021-08-06 | 北京有竹居网络技术有限公司 | 视频生成方法、装置、存储介质及电子设备 |
CN113409767B (zh) * | 2021-05-14 | 2023-04-25 | 北京达佳互联信息技术有限公司 | 一种语音处理方法、装置、电子设备及存储介质 |
CN113345411B (zh) * | 2021-05-31 | 2024-01-05 | 多益网络有限公司 | 一种变声方法、装置、设备和存储介质 |
CN113345454B (zh) * | 2021-06-01 | 2024-02-09 | 平安科技(深圳)有限公司 | 语音转换模型的训练、应用方法、装置、设备及存储介质 |
CN113470622B (zh) * | 2021-09-06 | 2021-11-19 | 成都启英泰伦科技有限公司 | 一种可将任意语音转换成多个语音的转换方法及装置 |
CN113823300B (zh) * | 2021-09-18 | 2024-03-22 | 京东方科技集团股份有限公司 | 语音处理方法及装置、存储介质、电子设备 |
CN113782052A (zh) * | 2021-11-15 | 2021-12-10 | 北京远鉴信息技术有限公司 | 一种音色转换方法、装置、电子设备及存储介质 |
CN114267352B (zh) * | 2021-12-24 | 2023-04-14 | 北京信息科技大学 | 一种语音信息处理方法及电子设备、计算机存储介质 |
CN114360558B (zh) * | 2021-12-27 | 2022-12-13 | 北京百度网讯科技有限公司 | 语音转换方法、语音转换模型的生成方法及其装置 |
CN114255737B (zh) * | 2022-02-28 | 2022-05-17 | 北京世纪好未来教育科技有限公司 | 语音生成方法、装置、电子设备 |
CN115294963A (zh) * | 2022-04-12 | 2022-11-04 | 阿里巴巴达摩院(杭州)科技有限公司 | 语音合成模型产品 |
US20230335109A1 (en) * | 2022-04-19 | 2023-10-19 | Tencent America LLC | Techniques for disentangled variational speech representation learning for zero-shot voice conversion |
CN114678032B (zh) * | 2022-04-24 | 2022-09-27 | 北京世纪好未来教育科技有限公司 | 一种训练方法、语音转换方法及装置和电子设备 |
US20230386479A1 (en) * | 2022-05-27 | 2023-11-30 | Tencent America LLC | Techniques for improved zero-shot voice conversion with a conditional disentangled sequential variational auto-encoder |
CN115457969A (zh) * | 2022-09-06 | 2022-12-09 | 平安科技(深圳)有限公司 | 基于人工智能的语音转换方法、装置、计算机设备及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019109306A (ja) | 2017-12-15 | 2019-07-04 | 日本電信電話株式会社 | 音声変換装置、音声変換方法及びプログラム |
JP2019215500A (ja) | 2018-06-14 | 2019-12-19 | 日本電信電話株式会社 | 音声変換学習装置、音声変換装置、方法、及びプログラム |
JP2020027193A (ja) | 2018-08-13 | 2020-02-20 | 日本電信電話株式会社 | 音声変換学習装置、音声変換装置、方法、及びプログラム |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100198577A1 (en) * | 2009-02-03 | 2010-08-05 | Microsoft Corporation | State mapping for cross-language speaker adaptation |
US9798653B1 (en) * | 2010-05-05 | 2017-10-24 | Nuance Communications, Inc. | Methods, apparatus and data structure for cross-language speech adaptation |
US9564120B2 (en) * | 2010-05-14 | 2017-02-07 | General Motors Llc | Speech adaptation in speech synthesis |
US9922641B1 (en) * | 2012-10-01 | 2018-03-20 | Google Llc | Cross-lingual speaker adaptation for multi-lingual speech synthesis |
JP5817854B2 (ja) * | 2013-02-22 | 2015-11-18 | ヤマハ株式会社 | 音声合成装置およびプログラム |
US9195656B2 (en) * | 2013-12-30 | 2015-11-24 | Google Inc. | Multilingual prosody generation |
US9542927B2 (en) * | 2014-11-13 | 2017-01-10 | Google Inc. | Method and system for building text-to-speech voice from diverse recordings |
CN104575487A (zh) * | 2014-12-11 | 2015-04-29 | 百度在线网络技术(北京)有限公司 | 一种语音信号的处理方法及装置 |
US9842105B2 (en) * | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US9754580B2 (en) * | 2015-10-12 | 2017-09-05 | Technologies For Voice Interface | System and method for extracting and using prosody features |
US10176819B2 (en) * | 2016-07-11 | 2019-01-08 | The Chinese University Of Hong Kong | Phonetic posteriorgrams for many-to-one voice conversion |
CN107863095A (zh) * | 2017-11-21 | 2018-03-30 | 广州酷狗计算机科技有限公司 | 音频信号处理方法、装置和存储介质 |
CN111566655B (zh) * | 2018-01-11 | 2024-02-06 | 新智株式会社 | 多种语言文本语音合成方法 |
CN109192218B (zh) * | 2018-09-13 | 2021-05-07 | 广州酷狗计算机科技有限公司 | 音频处理的方法和装置 |
US11068668B2 (en) * | 2018-10-25 | 2021-07-20 | Facebook Technologies, Llc | Natural language translation in augmented reality(AR) |
KR102495888B1 (ko) * | 2018-12-04 | 2023-02-03 | 삼성전자주식회사 | 사운드를 출력하기 위한 전자 장치 및 그의 동작 방법 |
CN111508511A (zh) * | 2019-01-30 | 2020-08-07 | 北京搜狗科技发展有限公司 | 实时变声方法及装置 |
CN110097890B (zh) * | 2019-04-16 | 2021-11-02 | 北京搜狗科技发展有限公司 | 一种语音处理方法、装置和用于语音处理的装置 |
DK3726856T3 (da) * | 2019-04-17 | 2023-01-09 | Oticon As | Høreanordning omfattende en nøgleordsdetektor og en egen stemme-detektor |
CN110288975B (zh) * | 2019-05-17 | 2022-04-22 | 北京达佳互联信息技术有限公司 | 语音风格迁移方法、装置、电子设备及存储介质 |
US10997970B1 (en) * | 2019-07-30 | 2021-05-04 | Abbas Rafii | Methods and systems implementing language-trainable computer-assisted hearing aids |
CN110781394A (zh) * | 2019-10-24 | 2020-02-11 | 西北工业大学 | 一种基于多源群智数据的个性化商品描述生成方法 |
CN110970014B (zh) * | 2019-10-31 | 2023-12-15 | 阿里巴巴集团控股有限公司 | 语音转换、文件生成、播音、语音处理方法、设备及介质 |
CN111247584B (zh) * | 2019-12-24 | 2023-05-23 | 深圳市优必选科技股份有限公司 | 语音转换方法、系统、装置及存储介质 |
CN111223474A (zh) * | 2020-01-15 | 2020-06-02 | 武汉水象电子科技有限公司 | 一种基于多神经网络的语音克隆方法和系统 |
CN111326138A (zh) * | 2020-02-24 | 2020-06-23 | 北京达佳互联信息技术有限公司 | 语音生成方法及装置 |
US11881210B2 (en) * | 2020-05-05 | 2024-01-23 | Google Llc | Speech synthesis prosody using a BERT model |
US11514888B2 (en) * | 2020-08-13 | 2022-11-29 | Google Llc | Two-level speech prosody transfer |
CN114203147A (zh) * | 2020-08-28 | 2022-03-18 | 微软技术许可有限责任公司 | 用于文本到语音的跨说话者样式传递以及用于训练数据生成的系统和方法 |
-
2020
- 2020-09-25 CN CN202011025400.XA patent/CN112259072A/zh active Pending
-
2021
- 2021-03-25 JP JP2021051620A patent/JP7181332B2/ja active Active
- 2021-05-25 US US17/330,126 patent/US20210280202A1/en not_active Abandoned
- 2021-06-09 EP EP21178557.1A patent/EP3859735A3/en not_active Withdrawn
- 2021-08-10 KR KR1020210105264A patent/KR102484967B1/ko active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019109306A (ja) | 2017-12-15 | 2019-07-04 | 日本電信電話株式会社 | 音声変換装置、音声変換方法及びプログラム |
JP2019215500A (ja) | 2018-06-14 | 2019-12-19 | 日本電信電話株式会社 | 音声変換学習装置、音声変換装置、方法、及びプログラム |
JP2020027193A (ja) | 2018-08-13 | 2020-02-20 | 日本電信電話株式会社 | 音声変換学習装置、音声変換装置、方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP3859735A3 (en) | 2022-01-05 |
US20210280202A1 (en) | 2021-09-09 |
KR102484967B1 (ko) | 2023-01-05 |
CN112259072A (zh) | 2021-01-22 |
KR20210106397A (ko) | 2021-08-30 |
JP2021103328A (ja) | 2021-07-15 |
EP3859735A2 (en) | 2021-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7181332B2 (ja) | 音声変換方法、装置及び電子機器 | |
JP7194779B2 (ja) | 音声合成方法及び対応するモデルのトレーニング方法、装置、電子機器、記憶媒体、並びにコンピュータプログラム | |
CN112131988B (zh) | 确定虚拟人物唇形的方法、装置、设备和计算机存储介质 | |
CN104252861B (zh) | 视频语音转换方法、装置和服务器 | |
CN108831437B (zh) | 一种歌声生成方法、装置、终端和存储介质 | |
US10217260B1 (en) | Real-time lip synchronization animation | |
JP2021196598A (ja) | モデルトレーニング方法、音声合成方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
CN112309365B (zh) | 语音合成模型的训练方法、装置、存储介质以及电子设备 | |
US20220076657A1 (en) | Method of registering attribute in speech synthesis model, apparatus of registering attribute in speech synthesis model, electronic device, and medium | |
CN115082602B (zh) | 生成数字人的方法、模型的训练方法、装置、设备和介质 | |
JP7395553B2 (ja) | 文章翻訳方法、装置、電子機器及び記憶媒体 | |
JP7167106B2 (ja) | 口形特徴予測方法、装置及び電子機器 | |
KR20190005103A (ko) | 전자기기의 웨이크업 방법, 장치, 디바이스 및 컴퓨터 가독 기억매체 | |
KR101426214B1 (ko) | 텍스트 대 스피치 변환을 위한 방법 및 시스템 | |
JP7331044B2 (ja) | 情報処理方法、装置、システム、電子機器、記憶媒体およびコンピュータプログラム | |
US20230326369A1 (en) | Method and apparatus for generating sign language video, computer device, and storage medium | |
US20230015112A1 (en) | Method and apparatus for processing speech, electronic device and storage medium | |
JP7216065B2 (ja) | 音声認識方法及び装置、電子機器並びに記憶媒体 | |
JP2022020062A (ja) | 特徴情報のマイニング方法、装置及び電子機器 | |
WO2020167304A1 (en) | Real-time lip synchronization animation | |
CN111768756B (zh) | 信息处理方法、装置、车辆和计算机存储介质 | |
EP3846164A2 (en) | Method and apparatus for processing voice, electronic device, storage medium, and computer program product | |
CN117253477A (zh) | 一种基于llm大模型及rpa的语音智能控制系统及方法 | |
CN114093341A (zh) | 数据处理方法、装置及介质 | |
CN117877487A (zh) | 语音识别系统、方法、电子设备和计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210325 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220721 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7181332 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |