JP7356597B2 - 歌声変換 - Google Patents
歌声変換 Download PDFInfo
- Publication number
- JP7356597B2 JP7356597B2 JP2022545341A JP2022545341A JP7356597B2 JP 7356597 B2 JP7356597 B2 JP 7356597B2 JP 2022545341 A JP2022545341 A JP 2022545341A JP 2022545341 A JP2022545341 A JP 2022545341A JP 7356597 B2 JP7356597 B2 JP 7356597B2
- Authority
- JP
- Japan
- Prior art keywords
- computer
- singing voice
- phonemes
- network
- sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000006243 chemical reaction Methods 0.000 title description 16
- 238000000034 method Methods 0.000 claims description 40
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 7
- 230000009467 reduction Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 20
- 239000010410 layer Substances 0.000 description 18
- 230000006870 function Effects 0.000 description 11
- 230000015654 memory Effects 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 230000001419 dependent effect Effects 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 4
- 238000007726 management method Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 239000000835 fiber Substances 0.000 description 3
- 230000008520 organization Effects 0.000 description 3
- 230000001755 vocal effect Effects 0.000 description 3
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 238000012384 transportation and delivery Methods 0.000 description 2
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000009172 bursting Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000002346 layers by function Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000013439 planning Methods 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/027—Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H7/00—Instruments in which the tones are synthesised from a data store, e.g. computer organs
- G10H7/08—Instruments in which the tones are synthesised from a data store, e.g. computer organs by calculating functions or polynomial approximations to evaluate amplitudes at successive sample points of a tone waveform
- G10H7/10—Instruments in which the tones are synthesised from a data store, e.g. computer organs by calculating functions or polynomial approximations to evaluate amplitudes at successive sample points of a tone waveform using coefficients or parameters stored in a memory, e.g. Fourier coefficients
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
- G10L21/007—Changing voice quality, e.g. pitch or formants characterised by the process used
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/041—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal based on mfcc [mel -frequency spectral coefficients]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/315—Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
- G10H2250/455—Gensound singing voices, i.e. generation of human voices for musical applications, vocal singing sounds or intelligible words at a desired pitch or with desired vocal effects, e.g. by phoneme synthesis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
- G10L13/047—Architecture of speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/06—Elementary speech units used in speech synthesisers; Concatenation rules
- G10L13/07—Concatenation rules
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
- G10L21/007—Changing voice quality, e.g. pitch or formants characterised by the process used
- G10L21/013—Adapting to target pitch
- G10L2021/0135—Voice conversion or morphing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Mathematical Physics (AREA)
- Quality & Reliability (AREA)
- Spectroscopy & Molecular Physics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Algebra (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Machine Translation (AREA)
- User Interface Of Digital Computer (AREA)
- Diaphragms For Electromechanical Transducers (AREA)
- Information Transfer Between Computers (AREA)
Description
本出願は、その全体が参照により本出願に明示的に組み込まれる2020年2月13日に出願された米国特許出願第16/789,674号に対する優先権を主張する。
オンデマンドセルフサービス:クラウドコンシューマは、サービスプロバイダとの人的なやりとりを必要とせずに、必要に応じて自動的に、サーバの時間やネットワークストレージなどのコンピューティング能力を一方的にプロビジョニングすることができる。
広域ネットワークアクセス:能力は、ネットワーク経由で利用可能であり、異種のシン又はシッククライアントプラットフォーム(例えば、携帯電話、ラップトップ、及びPDA)による使用を促進する標準メカニズムを通じてアクセスされる。
リソースプーリング:プロバイダのコンピューティングリソースは、マルチテナントモデルを使用して複数のコンシューマにサービスを提供するためにプールされ、様々な物理リソースと仮想リソースが、需要に応じて動的に割り当てられ、再割り当てされる。コンシューマは、一般に、提供されたリソースの正確な位置に関する制御や知識を持たないが、より高いレベルの抽象化(例えば、国、州、データセンタ)で位置を指定できる場合があるという点で、位置の独立性の感覚がある。
迅速な拡張性(Rapid elasticity):能力は、場合によっては自動的に、迅速にスケールアウトし、迅速にスケールインするために、迅速にかつ弾力的にプロビジョニングされることができる。コンシューマにとって、プロビジョニングに利用可能な能力はしばしば無制限であるように見え、いつでも任意の量で購入できる。
測定されるサービス(Measured service):クラウドシステムは、サービスのタイプ(例えば、ストレージ、処理、帯域幅、及びアクティブなユーザアカウント)に適したあるレベルの抽象化で計量能力(metering capability)機能を利用することにより、自動的にリソースの使用を制御し、最適化する。リソースの使用を監視し、制御し、報告して、利用サービスのプロバイダとコンシューマの両方に透明性を提供することができる。
サービスとしてのソフトウェア(SaaS):コンシューマに提供される能力は、クラウドインフラ上で動作するプロバイダのアプリケーションを利用することである。アプリケーションは、Webブラウザ(例えば、Webベースの電子メール)のようなシンクライアントインターフェースを介して、さまざまなクライアントデバイスからアクセスできる。コンシューマは、ネットワーク、サーバ、オペレーティングシステム、ストレージ、さらには個々のアプリケーション機能を含む基盤にあるクラウドインフラストラクチャを管理又は制御しないが、限られたユーザ固有のアプリケーション構成設定の可能性のある例外がある。
サービスとしてのプラットフォーム(PaaS):コンシューマに提供される能力は、プロバイダがサポートするプログラミング言語及びツールを使用して作成された、コンシューマが作成又は取得したアプリケーションをクラウドインフラストラクチャ上に展開することである。コンシューマは、ネットワーク、サーバ、オペレーティングシステム、ストレージを含む基盤となるクラウドインフラストラクチャを管理又は制御しないが、展開されたアプリケーションや、場合によってはアプリケーションホスティング環境の構成に対する制御を有する。
サービスとしてのインフラストラクチャ(laaS):コンシューマに提供される機能は、処理、ストレージ、ネットワーク、及びその他の基本的なコンピューティングリソースをプロビジョニングすることであり、コンシューマは、オペレーティングシステム及びアプリケーションを含むことができる任意のソフトウェアを展開及び実行することができる。コンシューマは、基盤となるクラウドインフラストラクチャを管理又は制御しないが、オペレーティングシステム、ストレージ、展開されたアプリケーション、及び場合によっては選択されたネットワークコンポーネント(例えば、ホストファイアウォール)の限定された制御を有する。
プライベートクラウド:クラウドインフラストラクチャは組織のためだけに運用される。組織又は第三者によって管理され、オンプレミス(on-premises)又はオフプレミス(off-premises)に存在し得る。
コミュニティクラウド:クラウドインフラストラクチャは、いくつかの組織で共有され、共通の関心事(例えば、ミッション、セキュリティ要件、ポリシー、及びコンプライアンスの考慮事項)を持つ特定のコミュニティをサポートする。組織又は第三者によって管理され、オンプレミス又はオフプレミスに存在し得る。
パブリッククラウド:クラウドインフラストラクチャは、一般の人々又は大規模な業界団体が利用できるようにされ、クラウドサービスを販売する組織によって所有される。
ハイブリッドクラウド:クラウドインフラストラクチャは、ユニークなエンティティのままであるが、データとアプリケーションの移植性(例えば、クラウド間の負荷分散のためのクラウドバースト)を可能にする標準化された又は独自の技術によって結合されている2つ以上のクラウド(プライベート、コミュニティ、パブリック)の構成である。
Claims (10)
- 第1の歌声を第2の歌声に変換する方法であって:
コンピュータによって、前記第1の歌声に対応する1つ又は複数の音素に関連付けられたコンテキストをエンコーディングすることと;
前記コンピュータによって、エンコーディングされた前記コンテキストに基づいて前記1つ又は複数の音素を1つ又は複数のターゲット音響フレームに位置合わせすることと;
前記コンピュータによって、位置合わせされた前記音素及び前記ターゲット音響フレームから、再帰的ニューラルネットワークによって1つ又は複数のメルスペクトログラム特徴を再帰的に生成することであって、前記再帰的ニューラルネットワークへの入力は、前記1つ又は複数の音素のシーケンス、前記1つ又は複数の音素の各々に関連付けられる継続時間、基本周波数、二乗平均平方根誤差値、及び話者に関連付けられるアイデンティティを含む、生成することと;
前記コンピュータによって、生成された前記メルスペクトログラム特徴を用いて、前記第1の歌声に対応するサンプルを前記第2の歌声に対応するサンプルに変換することと;を含む、
方法。 - 前記エンコーディングすることは:
前記1つ又は複数の音素のシーケンスを受信することと;
受信した前記音素のシーケンスに関連付けられた連続的表現を含む1つ又は複数の隠れ状態のシーケンスを出力することと;を含む、
請求項1に記載の方法。 - 前記1つ又は複数の音素を前記1つ又は複数のターゲット音響フレームに位置合わせすることは:
前記隠れ状態の出力されたシーケンスを前記第1の歌声に対応する情報と連結することと;
完全に接続された層を使用して連結された前記出力されたシーケンスに次元低減を適用することと;
各音素に関連付けられる継続時間に基づいて、次元低減された前記出力されたシーケンスを拡張することと;
拡張された前記出力されたシーケンスを前記ターゲット音響フレームに位置合わせすることと;を含む、
請求項2に記載の方法。 - 1つ又は複数のフレームに位置合わせされた隠れ状態を、フレームレベル、二乗平均平方根誤差値、及び全てのフレームに関連付けられた相対位置と連結することをさらに含む、
請求項3に記載の方法。 - 前記各音素の前記継続時間は、1つ又は複数の入力音素及び1つ又は複数の音響特徴に対して実行されるフォースアライメントから得られる、
請求項4に記載の方法。 - 前記1つ又は複数のメルスペクトログラム特徴を再帰的に生成することは:
前記1つ又は複数のターゲット音響フレームと位置合わせされた1つ又は複数のエンコーディングされた隠れ状態からアテンションコンテキストを計算することと;
計算された前記アテンションコンテキストにCBHG技法を適用することと;を含む、
請求項1に記載の方法。 - 前記メルスペクトログラム特徴に関連付けられる損失値が最小化される、
請求項6に記載の方法。 - 前記第1の歌声は、並列データなしに且つ前記第1の歌声に関連付けられるコンテンツを変えることなく、前記第2の歌声に変換される
請求項1に記載の方法。 - 第1の歌声を第2の歌声に変換するコンピュータシステムであって、前記コンピュータシステムは:
コンピュータプログラムコードを記憶するように構成された1つ又は複数のコンピュータ可読非一時的記憶媒体と;
前記コンピュータプログラムコードにアクセスし、前記コンピュータプログラムコードによって、請求項1乃至8のいずれか1項に記載の方法を実行するように構成された1つ又は複数のコンピュータプロセッサと;を有する、
システム。 - 第1の歌声を第2の歌声に変換するためのコンピュータプログラムであって、前記コンピュータプログラムは、1つ又は複数のコンピュータプロセッサに、請求項1乃至8のいずれか1項に記載の方法を実行させる、
コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/789,674 US11183168B2 (en) | 2020-02-13 | 2020-02-13 | Singing voice conversion |
US16/789,674 | 2020-02-13 | ||
PCT/US2021/017057 WO2021162982A1 (en) | 2020-02-13 | 2021-02-08 | Singing voice conversion |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023511604A JP2023511604A (ja) | 2023-03-20 |
JP7356597B2 true JP7356597B2 (ja) | 2023-10-04 |
Family
ID=77272794
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022545341A Active JP7356597B2 (ja) | 2020-02-13 | 2021-02-08 | 歌声変換 |
Country Status (6)
Country | Link |
---|---|
US (2) | US11183168B2 (ja) |
EP (1) | EP4062397A4 (ja) |
JP (1) | JP7356597B2 (ja) |
KR (1) | KR20220128417A (ja) |
CN (1) | CN114981882A (ja) |
WO (1) | WO2021162982A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11183168B2 (en) * | 2020-02-13 | 2021-11-23 | Tencent America LLC | Singing voice conversion |
US11495200B2 (en) * | 2021-01-14 | 2022-11-08 | Agora Lab, Inc. | Real-time speech to singing conversion |
CN113674735B (zh) * | 2021-09-26 | 2022-01-18 | 北京奇艺世纪科技有限公司 | 声音转换方法、装置、电子设备及可读存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013008471A1 (ja) | 2011-07-14 | 2013-01-17 | パナソニック株式会社 | 声質変換システム、声質変換装置及びその方法、声道情報生成装置及びその方法 |
WO2018159612A1 (ja) | 2017-02-28 | 2018-09-07 | 国立大学法人電気通信大学 | 声質変換装置、声質変換方法およびプログラム |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6836761B1 (en) * | 1999-10-21 | 2004-12-28 | Yamaha Corporation | Voice converter for assimilation by frame synthesis with temporal alignment |
JP4246792B2 (ja) * | 2007-05-14 | 2009-04-02 | パナソニック株式会社 | 声質変換装置および声質変換方法 |
US8729374B2 (en) | 2011-07-22 | 2014-05-20 | Howling Technology | Method and apparatus for converting a spoken voice to a singing voice sung in the manner of a target singer |
WO2013133768A1 (en) * | 2012-03-06 | 2013-09-12 | Agency For Science, Technology And Research | Method and system for template-based personalized singing synthesis |
US9183830B2 (en) * | 2013-11-01 | 2015-11-10 | Google Inc. | Method and system for non-parametric voice conversion |
JP6392012B2 (ja) * | 2014-07-14 | 2018-09-19 | 株式会社東芝 | 音声合成辞書作成装置、音声合成装置、音声合成辞書作成方法及び音声合成辞書作成プログラム |
US10176819B2 (en) | 2016-07-11 | 2019-01-08 | The Chinese University Of Hong Kong | Phonetic posteriorgrams for many-to-one voice conversion |
US10008193B1 (en) * | 2016-08-19 | 2018-06-26 | Oben, Inc. | Method and system for speech-to-singing voice conversion |
US10896669B2 (en) | 2017-05-19 | 2021-01-19 | Baidu Usa Llc | Systems and methods for multi-speaker neural text-to-speech |
CN111201565A (zh) * | 2017-05-24 | 2020-05-26 | 调节股份有限公司 | 用于声对声转换的系统和方法 |
KR102473447B1 (ko) * | 2018-03-22 | 2022-12-05 | 삼성전자주식회사 | 인공지능 모델을 이용하여 사용자 음성을 변조하기 위한 전자 장치 및 이의 제어 방법 |
JP7147211B2 (ja) * | 2018-03-22 | 2022-10-05 | ヤマハ株式会社 | 情報処理方法および情報処理装置 |
US20200388270A1 (en) * | 2019-06-05 | 2020-12-10 | Sony Corporation | Speech synthesizing devices and methods for mimicking voices of children for cartoons and other content |
US11183168B2 (en) * | 2020-02-13 | 2021-11-23 | Tencent America LLC | Singing voice conversion |
-
2020
- 2020-02-13 US US16/789,674 patent/US11183168B2/en active Active
-
2021
- 2021-02-08 WO PCT/US2021/017057 patent/WO2021162982A1/en unknown
- 2021-02-08 CN CN202180009251.4A patent/CN114981882A/zh active Pending
- 2021-02-08 EP EP21754052.5A patent/EP4062397A4/en not_active Withdrawn
- 2021-02-08 JP JP2022545341A patent/JP7356597B2/ja active Active
- 2021-02-08 KR KR1020227028203A patent/KR20220128417A/ko not_active Application Discontinuation
- 2021-10-14 US US17/501,182 patent/US11721318B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013008471A1 (ja) | 2011-07-14 | 2013-01-17 | パナソニック株式会社 | 声質変換システム、声質変換装置及びその方法、声道情報生成装置及びその方法 |
WO2018159612A1 (ja) | 2017-02-28 | 2018-09-07 | 国立大学法人電気通信大学 | 声質変換装置、声質変換方法およびプログラム |
Non-Patent Citations (2)
Title |
---|
Xin Chen et. al.,Singing voice conversion with non-parallel data,arxiv.org,2019年03月11日,https://arxiv.org/pdf/1903.04124.pdf |
Yuxuan Wang et. al.,Tacotron: Towards End-to-End Speech Synthesis,arxiv.org,2018年03月24日,https://arxiv.org/pdf/1703.10135.pdf |
Also Published As
Publication number | Publication date |
---|---|
EP4062397A4 (en) | 2023-11-22 |
KR20220128417A (ko) | 2022-09-20 |
CN114981882A (zh) | 2022-08-30 |
US11721318B2 (en) | 2023-08-08 |
WO2021162982A1 (en) | 2021-08-19 |
EP4062397A1 (en) | 2022-09-28 |
US20210256958A1 (en) | 2021-08-19 |
JP2023511604A (ja) | 2023-03-20 |
US11183168B2 (en) | 2021-11-23 |
US20220036874A1 (en) | 2022-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7356597B2 (ja) | 歌声変換 | |
US11842728B2 (en) | Training neural networks to predict acoustic sequences using observed prosody info | |
JP7361120B2 (ja) | 音響単語埋め込みを使用した直接音響単語音声認識における未知語の認識 | |
US11682379B2 (en) | Learnable speed control of speech synthesis | |
JP2023517004A (ja) | ピッチ敵対的ネットワークを用いた教師なし歌唱音声変換 | |
JP2022173132A (ja) | コンピュータ実装方法、コンピュータプログラム、およびコンピュータシステム(メタデータを組み込むトランスフォーマによるエンコーディング) | |
US20220343904A1 (en) | Learning singing from speech | |
US20220310092A1 (en) | Multi-look enhancement modeling and application for keyword spotting | |
JP2024522329A (ja) | テキスト転写を伴わない全体的な韻律スタイルの変換 | |
WO2022177631A1 (en) | Structure self-aware model for discourse parsing on multi-party dialogues | |
CN118176539A (zh) | 基于rnn-t的全球英语模型的训练数据序列 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220726 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230828 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230912 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230922 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7356597 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |