JP2021148942A - Voice quality conversion system and voice quality conversion method - Google Patents
Voice quality conversion system and voice quality conversion method Download PDFInfo
- Publication number
- JP2021148942A JP2021148942A JP2020048518A JP2020048518A JP2021148942A JP 2021148942 A JP2021148942 A JP 2021148942A JP 2020048518 A JP2020048518 A JP 2020048518A JP 2020048518 A JP2020048518 A JP 2020048518A JP 2021148942 A JP2021148942 A JP 2021148942A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- ppg
- conversion
- model
- voice quality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 204
- 238000000034 method Methods 0.000 title claims abstract description 48
- 230000000877 morphologic effect Effects 0.000 claims description 20
- 230000010365 information processing Effects 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 4
- 230000008569 process Effects 0.000 description 27
- 230000015572 biosynthetic process Effects 0.000 description 23
- 238000003786 synthesis reaction Methods 0.000 description 23
- 238000000605 extraction Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 238000012549 training Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 7
- 238000010276 construction Methods 0.000 description 6
- 239000013598 vector Substances 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 208000031968 Cadaver Diseases 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 210000000056 organ Anatomy 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000001755 vocal effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- OSXPVFSMSBQPBU-UHFFFAOYSA-N 2-(2-carboxyethoxycarbonyl)benzoic acid Chemical compound OC(=O)CCOC(=O)C1=CC=CC=C1C(O)=O OSXPVFSMSBQPBU-UHFFFAOYSA-N 0.000 description 1
- 101100072002 Arabidopsis thaliana ICME gene Proteins 0.000 description 1
- 101100166455 Neurospora crassa (strain ATCC 24698 / 74-OR23-1A / CBS 708.71 / DSM 1257 / FGSC 987) ccg-4 gene Proteins 0.000 description 1
- 101150114608 PPG1 gene Proteins 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 210000000867 larynx Anatomy 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 229920001451 polypropylene glycol Polymers 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Abstract
Description
本発明は、声質変換システムおよび声質変換方法に係り、特に、音声の声質変換を行うにあたって、安定して高い音質の音質変換を可能にする声質変換システムおよび声質変換方法に関する。 The present invention relates to a voice quality conversion system and a voice quality conversion method, and more particularly to a voice quality conversion system and a voice quality conversion method that enable stable and high-quality sound quality conversion when performing voice quality conversion of voice.
近年、音声認識、機械翻訳、対話生成などの技術が飛躍的に向上してきたことを背景に、音声翻訳、音声対話サービス、サービスロボットなどの人工知能による音声コミュニケーションの実用化が急激に進んできた。その中に、声質変換(VC: Voice Conversion)技術が重要な技術の一つとして注目されている。声質変換とは、ある話者(source speaker)の発話に対して、含まれる発話内容と話し方を変えずに、別の話者(target speaker)の声に聞こえるように音声を編集する技術である。 In recent years, with the dramatic improvement in technologies such as voice recognition, machine translation, and dialogue generation, the practical application of voice communication by artificial intelligence such as voice translation, voice dialogue service, and service robot has rapidly progressed. .. Among them, voice conversion (VC) technology is attracting attention as one of the important technologies. Voice conversion is a technology that edits the voice of one speaker (source speaker) so that it can be heard by another speaker (target speaker) without changing the content of the utterance and the way of speaking. ..
近年、各社サービスロボットのプロトタイプが次々と開発され、PoC(概念実証)が実施されている。このようなサービスロボットにおいては、音声認識や音声合成の技術は必須のものとなる。しかしながら、実環境(特に空港や駅など)では音声認識の精度が悪く、対話成功率が非常に低いという問題が生じる。このような結果、サービスロボットでの実戦配備が先延ばしとなり、リアルデータの蓄積ができなくなり、サービスロボットの市場成長を阻害する原因の一つとなっている。そこで、ロボットによる接客サービスの品質向上のために、音声認識や意図理解の精度向上研究と並行して、自動応答とオペレータ対応が連携した、ハイブリッド音声対話サービスが構想されている。 In recent years, prototypes of service robots of each company have been developed one after another, and PoC (proof of concept) is being carried out. In such service robots, speech recognition and speech synthesis techniques are indispensable. However, in the actual environment (especially at airports and train stations), the accuracy of voice recognition is poor, and there is a problem that the success rate of dialogue is very low. As a result, the actual deployment of service robots has been postponed, and real data cannot be accumulated, which is one of the causes that hinder the market growth of service robots. Therefore, in order to improve the quality of customer service by robots, a hybrid voice dialogue service is being conceived in which automatic response and operator response are linked in parallel with research on improving the accuracy of voice recognition and intention understanding.
この構想を実現するためには、TTS(Text To Speech)で生成した自動対応音声とオペレータの肉声とがシームレスに切り替えられるため、オペレータの声をロボットの声に変換する声質変換技術が不可欠となる。 In order to realize this concept, the automatic response voice generated by TTS (Text To Speech) and the operator's real voice can be seamlessly switched, so a voice quality conversion technology that converts the operator's voice into the robot's voice is indispensable. ..
このような声質変換技術については、例えば、非特許文献1に、音素事後確率(PPG:Phonetic Posterior Gram)を用いて声質変換を行うことが論じられている。 Regarding such a voice quality conversion technique, for example, Non-Patent Document 1 discusses that voice quality conversion is performed using a phonetic posterior probability (PPG).
従来の声質変換技術では、入力音声の収録環境によって、声質変換の性能が著しく低下するなどといった課題があったが、非特許文献1に記載された声質変換技術は、そのような課題を解決することを意図している。非特許文献1の記載された技術は、入力音声の話者性と収録環境音を取り除き、音声認識で学習した音響モデルを用いて、音声特徴量を発話内容にかかわる情報のみが含まれるPPGに変換することによって、安定した声質変換を実現しようとするものである。 The conventional voice quality conversion technology has a problem that the performance of voice quality conversion is remarkably deteriorated depending on the recording environment of the input voice, but the voice quality conversion technology described in Non-Patent Document 1 solves such a problem. Is intended to be. The technique described in Non-Patent Document 1 removes the speaker nature of the input voice and the recording environment sound, and uses an acoustic model learned by voice recognition to convert the voice feature amount into a PPG containing only information related to the utterance content. By converting, it is intended to realize stable voice quality conversion.
しかしながら、日本語音声認識で用いる音響モデルから生成されたPPGは、日本語音素の音素事後確率であり、調音構造に関係しない韻律情報や非周期成分情報などの情報は含まれていないとされている。そのため、日本語PPGのみから基本周波数(F0)(音響特徴量の一つ、音声のインパルス列の間隔の逆数と定義される。声の高さに相当する)を推測することは難しい。従来研究では、声道構造に関係するMCEP(メルケプトラム係数、メルケプトラムは、人の聴覚特性に合わせて低周波領域を細かくサンプリングする手法)のみをPPGで変換し、韻律情報(ピッチなど)は線形変換する手法で変換する。そして、別々に変換したパラメータを使って音声を再構築する。しかし、声質変換においては別々で生成した音声パラメータを用いた場合、声質変換音質の劣化につながりやすいと、一般的知られている。特に、F0の抽出が非常に不安定であるため、安定した声質変換ができなかった。 However, the PPG generated from the acoustic model used in Japanese speech recognition is the phoneme posterior probability of Japanese phonemes, and it is said that it does not include information such as prosodic information and aperiodic component information that are not related to the tone structure. There is. Therefore, it is difficult to estimate the fundamental frequency (F0) (one of the acoustic features, the reciprocal of the interval of the impulse train of the voice, which corresponds to the pitch of the voice) only from the Japanese PPG. In conventional research, only MCEP (merkeptrum coefficient, merkeptrum is a method of finely sampling the low frequency region according to human auditory characteristics) related to vocal tract structure is converted by PPG, and prosodic information (pitch, etc.) is linearly converted. Convert by the method of. Then, the audio is reconstructed using the separately converted parameters. However, it is generally known that when voice parameters generated separately are used in voice quality conversion, it tends to lead to deterioration of voice quality conversion sound quality. In particular, since the extraction of F0 was very unstable, stable voice quality conversion could not be performed.
本発明の目的は、音声の声質変換を行うにあたって、安定して高い音質の音質変換を可能にする声質変換システムおよび声質変換方法を提供することにある。 An object of the present invention is to provide a voice quality conversion system and a voice quality conversion method that enable stable and high-quality sound quality conversion in performing voice quality conversion of voice.
本発明の声質変換システムの構成は、好ましくは、情報処理装置により、入力音声から声質を変換した合成音声を出力する声質変換システムであって、声質変換用データ作成装置と、声質変換装置とを備え、声質変換用データ作成装置は、単語辞書とテキストと音声情報を対応付けた音声コーパスとを入力して、PPG変換モデルを生成するPPG(音素事後確率)モデル学習部と、音声コーパスとPPG変換モデルを入力して音声パラメータ生成モデルを生成する音声パラメータ生成モデル学習部とよりなり、PPG変換モデル学習部は、単語辞書から韻律情報付き辞書を生成し、音声コーパスに含まれるテキストを形態素解析して、形態素解析の結果と、韻律情報付き辞書に基づいて、韻律情報付き音素配列を生成し、韻律情報付き音素配列と、音声コーパスに含まれる音声情報の特徴量解析の結果として出力される音声特徴量とから、音響モデルを生成し、音響モデルを学習して、PPG変換モデルを生成し、音声パラメータ生成モデル学習部は、PPG変換モデルと音声コーパスより、PPG変換モデルに対応するPPGを生成し、音声コーパスに含まれる音声情報から音声パラメータを抽出し、生成されたPPGと音声パラメータを学習して、音声パラメータ生成モデルを生成し、声質変換装置は、入力音声とPPG変換モデル学習部が生成したPPG変換モデルと音声パラメータ生成モデル学習部が生成した音声パラメータ生成モデルとを入力し、音声コーパスに含まれる音声情報の特徴量解析の結果として出力される音声特徴量とPPG変換モデルとに基づいて、PPGを生成し、生成したPPGと音声パラメータ生成モデルに基づいて、音声パラメータを生成し、音声パラメータによる音声の波形を生成して、出力音声として出力するようにしたものである。 The configuration of the voice quality conversion system of the present invention is preferably a voice quality conversion system that outputs a synthetic voice obtained by converting voice quality from input voice by an information processing device, and comprises a voice quality conversion data creation device and a voice quality conversion device. The voice quality conversion data creation device includes a PPG (speech post-probability) model learning unit that generates a PPG conversion model by inputting a word dictionary, a voice corpus that associates text with voice information, and a voice corpus and PPG. It consists of a voice parameter generation model learning unit that inputs a conversion model and generates a voice parameter generation model. The PPG conversion model learning unit generates a dictionary with rhyme information from a word dictionary and morphologically analyzes the text contained in the voice corpus. Then, based on the result of the morphological analysis and the dictionary with the rhyme information, the phonetic sequence with the rhyme information is generated, and the phonetic sequence with the rhyme information and the feature quantity analysis of the speech information contained in the speech corpus are output. An acoustic model is generated from the voice feature amount, the sound model is learned, and a PPG conversion model is generated. The voice parameter generation model learning unit uses the PPG conversion model and the voice corpus to generate a PPG corresponding to the PPG conversion model. Generates, extracts voice parameters from voice information contained in the voice corpus, learns the generated PPG and voice parameters, generates a voice parameter generation model, and the voice quality conversion device is an input voice and PPG conversion model learning unit. Input the PPG conversion model generated by the voice parameter generation model and the voice parameter generation model generated by the learning unit, and the voice feature amount and the PPG conversion model output as a result of the feature amount analysis of the voice information included in the voice corpus. Based on the above, a PPG is generated, a voice parameter is generated based on the generated PPG and a voice parameter generation model, a voice waveform based on the voice parameter is generated, and the voice is output as an output voice.
本発明によれば、音声の声質変換を行うにあたって、安定して高い音質の音質変換を可能にする声質変換システムおよび声質変換方法を提供することができる。 According to the present invention, it is possible to provide a voice quality conversion system and a voice quality conversion method that enable stable and high-quality sound quality conversion in performing voice quality conversion of voice.
以下、本発明に係る各実施形態を、図1ないし図11を用いて説明する。 Hereinafter, each embodiment of the present invention will be described with reference to FIGS. 1 to 11.
〔実施形態1〕
先ず、図1および図3を用いて声質変換システムの構成を説明する。
一般的な声質変換システムは、図1に示されるように、声質変換用データ作成装置200と、声質変換装置100により構成されている。声質変換用データ作成装置200は、音声コーパス10から声質変換用データ20を生成装置する装置である。声質変換装置100は、その声質変換用データ20を用いて、入力音声30から所望の声質を有する合成音声40に変換して出力する装置である。
[Embodiment 1]
First, the configuration of the voice quality conversion system will be described with reference to FIGS. 1 and 3.
As shown in FIG. 1, a general voice quality conversion system includes a voice quality conversion
音声コーパス10は、音声ファイルとテキストを対応付けたデータである。声質変換用データ20は、PPG変換モデル1〜PPG変換モデルNと、音声パラメータ生成モデルである(詳細は後述)。
The
以下では、各装置の機能構成とそれによる処理を主体として述べるが、それらの機能構成部は、ハードウェアとして実現してもよいし、ソフトウェアプログラムとして実現されてもよい。 In the following, the functional configuration of each device and the processing by the functional configuration will be mainly described, but the functional configuration unit may be realized as hardware or as a software program.
また、以下の説明では、学習時に日本語音声コーパスを例にしているが、ほかの自然言語、あるいは、複数言語の混じっている音声コーパスも用いても処理可能である。ただし、その場合は、その言語に対応したプログラム・データを用いなければならない。 Further, in the following explanation, the Japanese voice corpus is taken as an example at the time of learning, but processing can also be performed by using another natural language or a voice corpus in which a plurality of languages are mixed. However, in that case, the program data corresponding to the language must be used.
さらに、以下の説明では、声質変換手法として、例えば、DNN(Deep Neural Network:深層ニューラルネットワーク)を用いることを前提にして説明しているが、他の統計ベース手法を用いてもよい。 Further, in the following description, for example, DNN (Deep Neural Network) is used as the voice quality conversion method, but other statistics-based methods may be used.
次に、図2を用いて声質変換装置のハードウェア構成について説明する。
声質変換装置100は、一般的な情報処理装置で実現でき、図2に示されるように、例えば、補助記憶装置101と、音声入力I/F(InterFace)102と、CPU103と、主メモリ104と、音声出力I/F105とからなり、それらがバス107により接続された形態である。
Next, the hardware configuration of the voice quality conversion device will be described with reference to FIG.
The voice
CPU103は、声質変換装置100の各部を制御し、主記憶装置104に必要なプログラムをロードして実行する。
主メモリ104は、通常、RAMなどの揮発メモリで構成され、CPU102が実行するプログラム、参照するデータが記憶される。
The
The
音声入力I/F102は、マイクなどと接続されて、音声信号を入力するためのインターフェースである。
音声出力I/F103は、スピーカなどと接続されて、音声信号を入力するためのインターフェースである。
The voice input I /
The audio output I /
音声の入出力は、例えば、WAVEファイルやMP3ファイルのようにコード化された音声データを入出力するようにしてもよい。 For audio input / output, for example, encoded audio data such as a WAVE file or an MP3 file may be input / output.
補助記憶装置101は、HDD(Hard Disk Drive)やSSD(Solid State Drive)などの大容量の記憶容量を有する記憶装置である。
補助記憶装置101には、図示しなかったが、本実施形態の声質変換装置100の機能を実行するためのプログラムである特徴量解析プログラム、PPG抽出プログラム、マージプログラム、音声パラメータ生成プログラム、波形生成プログラムがインストールされている。
The
Although not shown in the
特徴量解析プログラム、PPG抽出プログラム、マージプログラム、音声パラメータ生成プログラム、波形生成プログラムは、それぞれ特徴量解析部、PPG抽出部、マージ部、音声パラメータ生成部、波形生成部の機能を実行するプログラムである。なお、これらの機能部の処理の詳細については、後述する。 The feature quantity analysis program, PPG extraction program, merge program, voice parameter generation program, and waveform generation program are programs that execute the functions of the feature quantity analysis section, PPG extraction section, merge section, voice parameter generation section, and waveform generation section, respectively. be. The details of the processing of these functional units will be described later.
また、補助記憶装置101には、声質変換装置100で使用される各種データが格納される。声質変換装置100で使用される各種データには、後述するように、音声特徴量、PPG、音声パラメータ生成モデル、音声パラメータがある。
Further, the
同様に、声質変換用データ作成装置200も、図2の声質変換装置100と同様の構成を有する情報処理装置で実現することができる。
Similarly, the voice quality conversion
声質変換用データ作成装置200の補助記憶装置101には、図示しなかったが、本実施形態の声質変換用データ作成装置200の機能を実行するためのプログラムであるPPG変換モデル学習プログラム、音声パラメータ生成モデル学習プログラムがインストールされている。
Although not shown in the
PPG変換モデル学習プログラム、音声パラメータ生成モデル学習プログラムは、それぞれPPG変換モデル学習部、音声パラメータ生成モデル学習部の機能を実行するプログラムである。なお、これらの機能部の処理の詳細については、後述する。 The PPG conversion model learning program and the voice parameter generation model learning program are programs that execute the functions of the PPG conversion model learning unit and the voice parameter generation model learning unit, respectively. The details of the processing of these functional units will be described later.
また、補助記憶装置101には、声質変換用データ作成装置200で使用される各種データが格納される。声質変換用データ作成装置200で使用される各種データには、後述するように、単語辞書、音声コーパス、音声パラメータ生成モデルがある。
Further, the
声質変換装置100は、例えば、カーナビゲーション装置、携帯電話機、パーソナルコンピュータ等のデバイスに、声質変換ユニットとして組み込まれている。そのため、図2に示した各ハードウェアは、声質変換装置100が組み込まれたデバイスにより実現してもよいし、声質変換用データ作成装置200と声質変換装置100が組み込まれたデバイスとは別個に設けられていてもよい。
The voice
声質変換に関するすべての機能を一つあるいは二つのデバイスだけで実現してもよいが、図3に示す変形例のように、サーバ330とクライアント端末400(図3では、400A、400Bと表記)が、ネットワーク5により相互接続されたシステムでも実現することができる。
All the functions related to voice quality conversion may be realized by only one or two devices, but as shown in the modified example shown in FIG. 3, the server 330 and the client terminal 400 (denoted as 400A and 400B in FIG. 3) , It can also be realized in a system interconnected by the
この場合には、クライアント端末400は、音声入力I/F402、音声出力I/F405と、通信I/F406を有し、クライアント端末400側で音声を受付け、声質変換に関する機能の一部または全部をサーバ300側で担当し、必要なデータをサーバ300側の通信I/F306とクライアント端末400の通信I/F405でやりとりするようにしてもよい。
In this case, the client terminal 400 has a voice input I /
次に、図4ないし図8を用いて実施形態1に係る声質変換システムの機能と処理について説明する。
先ず、図4を用いて声質変換データ装置の機能構成とデータフローについて説明する。
声質変換用データ作成装置200は、図4に示されるように、機能構成として、PPG変換モデル学習部210と音声パラメータ生成モデル学習部220を有している。
Next, the functions and processing of the voice quality conversion system according to the first embodiment will be described with reference to FIGS. 4 to 8.
First, the functional configuration and data flow of the voice quality conversion data device will be described with reference to FIG.
As shown in FIG. 4, the voice quality conversion
PPG変換モデル学習部210は、単語辞書500と音声コーパス510を用いた学習により、PPG変換モデル(詳細は後述)700を生成する機能部である。
The PPG conversion
PPG(音素事後確率)とは、非特許文献1に定義されているように、ある発話におけるそれぞれの音素クラスに対する事後確率(非特許文献1では、時間−音素クラスの事後確率の表現行列)である。 PPG (phoneme posterior probability) is, as defined in Non-Patent Document 1, the posterior probability for each phoneme class in a certain utterance (in Non-Patent Document 1, the expression matrix of the time-phoneme class posterior probability). be.
音声パラメータ生成モデル学習部220は、生成用音声コープス(音声コープス510とデータ構造は同じ)520とPPG変換モデル600より、音声パラメータ生成モデルを生成する機能部である。
The voice parameter generation
次に、図5を用いてPPG変換モデル学習部の機能とデータフローの詳細について説明する。
PPG変換モデル学習部210では、上述のように単語辞書500と音声コーパス510を用いた学習により、PPG変換モデル700を生成する。このPPG変換モデル700は、入力音声30から発話内容と発話スタイル情報を含むPPGに変換するモデルである。このPPG変換モデル学習部210は、図5に示されるように、形態素解析部211、言語モデル学習部212、特徴量解析部213、辞書読み拡張部214、形態素配列拡張部215、音素配列&音響モデル学習部216、言語モデル考慮音響モデル学習部217のサブ機能部により構成されている。
Next, the function of the PPG conversion model learning unit and the details of the data flow will be described with reference to FIG.
The PPG conversion
形態素解析部211、言語モデル学習部212、特徴量解析部213、辞書読み拡張部214、形態素配列拡張部215、音素配列&音響モデル学習部216、言語モデル考慮音響モデル学習部217は、それぞれ、PPG変換モデル学習プログラムのサブルーチンとして、形態素解析プログラム、言語モデル学習プログラム、特徴量解析プログラム、辞書読み拡張プログラム、形態素配列拡張プログラム、音素配列&音響モデル学習プログラム、言語モデル考慮音響モデル学習プログラムを実行することにより実現することができる。
The
形態素解析部211は、事前に用意した単語辞書500を用いて、テキストを形態素単位に分割する機能部である。ここで、形態素とは、言語学上で意味を有する最小の表現単位である。この形態素解析部211の機能を実現するために、一般的に使われているMeCabや茶筌などのOSS(Open Source Software)の形態素解析ツールを利用することができる。
The
単語辞書500には、必ずその言語における読みが用意してあるものとする。そして、形態素解析部211により、入力したテキストに対して、読み情報付き形態素配列600が生成される。
It is assumed that the
なお、本実施形態の説明で、形態素解析部211に「単語辞書」を入力するとしたが、辞書の単位は必ず単語ではなく、フレーズや文でもよい。
In the description of this embodiment, it is assumed that the "word dictionary" is input to the
ここで、一例を示すと、テキスト「これは箸です。」に対して、形態素解析した結果は、図6Aに示されるようになり、一方、テキスト「これは橋です。」に対して、形態素解析した結果は、図6Bに示されるようになる。 Here, to give an example, the result of morphological analysis for the text "This is chopsticks" is shown in Fig. 6A, while the text "This is a bridge" is morphologically analyzed. The result of the analysis is shown in FIG. 6B.
言語モデル学習部212は、形態素解析部211から生成された読み情報付き形態素配列600を用いて、言語モデル学習を行い、言語モデルを作成する機能部である。言語モデル学習では、一般的にN−gramと呼ばれる言語モデルが使われることが多い。N−gramとは、任意の文字列や文書を、N個の連続した文字で分割する手法である。なお、近年、RNN(Recurrent Neural Network:再帰型ニューラルネットワーク)を用いた言語モデルなども使われるようになっている。
The language
特徴量解析部213は、音声コーパス520に含まれている音声から、特徴量を抽出する機能部である。音声コーパス520は、図5に示されるように、発話テキスト521と音声522を一対一に対応付けたデータである。音声の特徴量としては、一般的に、MFCCがよく使われているが、一部、LF0などの韻律情報を用いる研究も存在する。MFCC(Mel Frequency Ceastral Coefficient:メル周波数ケプストラム係数)は、対数ケプストラム(声道成分に由来した周波数特性を表現する)の低次成分に対して、ヒトの周波数知覚特性を考慮した重み付けをした特徴量である。LF0は、基本周波数F0の対数である。
The feature amount analysis unit 213 is a functional unit that extracts a feature amount from the voice included in the
本実施形態で用いる特徴量は、どのような特徴量を用いてもよいが、最低限、調音情報と韻律情報を含まれている必要がある。すなわち、MFCCを用いる場合は、低次元のみを用いる場合は、韻律情報が含まれていないため、全次元(16kHzの音声の場合は、全40次元)を用いることが推奨される。 Any feature amount may be used as the feature amount used in the present embodiment, but at a minimum, it is necessary to include tone information and prosodic information. That is, when MFCC is used, it is recommended to use all dimensions (40 dimensions in the case of 16 kHz voice) because prosodic information is not included when only low dimensions are used.
ここで、調音(articulation)とは、喉頭以上の器官の形や動きによって発声器官内の空気の流れを制御したり、発声器官内で発生する音声の共鳴の仕方を変化させたり、新たな音を発生あるいは追加したりして、さまざまな母音や子音を発生させることである。また、韻律(prosody)とは、発話において現れる音声学的性質で、抑揚あるいは音調、強勢、音長、リズムなどのその言語の一般的な書記記録からは予測されないものをいう。 Here, articulation is a new sound that controls the flow of air in the vocal organs by the shape and movement of organs above the larynx, changes the way the voices that are generated in the vocal organs resonate, and so on. To generate or add various vowels and consonants. Prosody is a phonetic property that appears in speech and is not predicted from general clerk records of the language, such as intonation or tone, emphatic consonant, length, and rhythm.
辞書読み拡張部214は、事前に用意されている形態素解析用の単語辞書500に付与されている読み情報(音素情報)に対して、韻律シンボルを加えて、韻律情報付き音素に拡張し、韻律情報付き音素辞書602を生成する。なお、日本語の場合は、読み情報として音節を与えられることもあるので、以降単に「音素」と書いた場合でも、「音節」を指すこともあるものとする。ここで、言語学において、音素(phoneme)とは、ある個別言語の中で、同じとみなされる音の集まりをいい、音節(syllable)とは、連続する言語音を区切る文節単位の一種である。
The dictionary
この韻律情報付き音素は、各言語の特徴に合わせる必要があり、言語情報を担う韻律情報を定義することが必要である。例えば、日本語のような高低アクセント言語では、音節間F0の相対位置がアクセントの区別に重要な手がかりとなっているため、すべての母音にHigh Pitchを意味する「H」とLow Pitch を意味する「L」をつけることができる。一方では、中国語のような声調(tone)言語では、音節内のF0パターンが意味の理解に重要な役割を果たしているため、母音音素に4つの声調シンボルとして(いわゆる普通話の場合)、数字1〜5(軽声、第1声〜第4声)をつけることができる。さらに、アクセントの変形(中国語では変調)のことを考慮し、同じ単語に対しても、複数の韻律パターンを登録することにより、実際に音声の韻律変化を正確にとらえることができる。 This phoneme with prosody information needs to be matched to the characteristics of each language, and it is necessary to define the prosodic information that bears the linguistic information. For example, in a pitch-accent language such as Japanese, the relative position of F0 between syllables is an important clue to distinguish accents, so all vowels mean "H", which means High Pitch, and Low Pitch. "L" can be added. On the other hand, in a tone language such as Chinese, the F0 pattern in a syllable plays an important role in understanding the meaning, so the number 1 is used as four tone symbols for vowel phonemes (in the case of so-called putonghua). ~ 5 (light voice, 1st to 4th voices) can be added. Furthermore, by registering a plurality of prosodic patterns for the same word in consideration of the deformation of the accent (modulation in Chinese), it is possible to actually accurately capture the prosodic change of the voice.
一例としては、単語「橋」に対して、拡張前は、「表記=橋;読み=/ハ/+/シ/」となっているとして、拡張後は、上記の日本語の場合の韻律シンボルを付加し、「表記=橋;読み1=/ハL/+/シH/:読み2=/ハH/+/シH/」に拡張し、すべての話しうるアクセント型をリストする。一方、単語「箸」に対しては、拡張前は「表記=箸;読み=/ハ/+/シ/」となっていることに対して、拡張後は「表記=箸;読み1=/ハH/+/シL/:読み2=/ハH/+/シしH/」に拡張する。 As an example, for the word "bridge", before expansion, it is assumed that "notation = bridge; reading = / ha / + / shi /", and after expansion, the prosodic symbol in the above Japanese case. Is added and expanded to "Notation = Bridge; Reading 1 = / Ha L / + / Shi H /: Reading 2 = / Ha H / + / Shi H /" to list all the accent types that can be spoken. On the other hand, for the word "chopsticks", "notation = chopsticks; reading = / ha / + / shi /" before expansion, whereas "notation = chopsticks; reading 1 = /" after expansion. C H / + / C Chopsticks L /: Reading 2 = / C Chopsticks / + / Chopsticks H / ”.
すなわち、従来では、単語辞書500から音素配列を生成するのみであったが、本実施形態では、韻律情報付き辞書602により、韻律情報付き音素配列603を生成する。そのため、従来では音素配列だけでは一意に特定できない同音異義語に対しても、アクセントの違いによって、特定することができるようになる。すなわち、韻律情報付き音素を導入することにより、音声認識時に韻律情報を考慮することとなり、音響モデルの出力であるPPGには韻律情報が含まれることになる。
That is, conventionally, only the phoneme sequence is generated from the
形態素配列拡張部215は、形態素の読みを複数に展開し、すべての読みうるパターンを用意し、韻律情報付き音素配列603に変換する機能部である。
The morpheme
例えば、「これは橋です。」に対して、「/コL/+/レH/+/ワH/+/ハL/+/シH/+/デH/+/スL/」や「/コL/+/レH/+/ワH/+/ハH/+/シH/+/デH/+/スL/」に展開される。音素配列の数は、各単語に登録されている全読み数の組み合わせとなる。 For example, in contrast to "This is a bridge." It is expanded to "/ co L / + / re H / + / wa H / + / ha H / + / shi H / + / de H / + / sl /". The number of phoneme sequences is a combination of the total number of readings registered for each word.
音素配列決定&音響モデル学習部216は、形態素配列拡張部215が生成した複数の韻律情報付き音素配列603から、最も確率の高い組み合わせを決定したうえ、各音素の特徴(音声特徴量であるMFCCの平均と分散)を計算し、音響モデル620を生成する機能部である。一般的に、最適系列の決定にHMM(Hidden Markov Model:隠れマルコフモデル)がよく使われているが、音響モデルの学習では、DNNを用いることが主流となっている。
The phoneme arrangement determination & acoustic
言語モデル考慮音響モデル学習部213は、言語モデル学習部212が生成した言語モデル610と、音素配列決定&音響モデル学習部210が生成した音響モデル620を用いて、音声コーパス520に対してエラー率最小化の基準で再学習を行い、PPG変換モデル700を生成する機能部である。このように学習したPPG変換モデル700は、言語情報の伝達に必要な韻律情報を表現できるため、言語の特徴によって、表現できる韻律情報が異なる。
The language model consideration acoustic model learning unit 213 uses the
例えば、高低アクセント言語(音節間のF0相対位置が単語の区別に寄与する言語)である日本語なら広域(複数シラブルにまたいだ範囲)のF0変動、声調言語(音節内のF0パターンの形状の違いが単語の区別に寄与する言語)である中国語なら局所的な(音節内の)F0変動をとらえることができる。それに対して、強弱アクセント言語である英語では音の強弱を表現することができると考えられる。 For example, in the case of Japanese, which is a pitch-accent language (a language in which the relative position of F0 between syllables contributes to the distinction of words), F0 fluctuation over a wide area (a range that spans multiple syllables) and tonal language (the shape of the F0 pattern within a syllable) In Chinese, where differences contribute to the distinction of words), local (intrasyllable) F0 fluctuations can be captured. On the other hand, in English, which is a strong and weak accent language, it is thought that the strength of sound can be expressed.
次に、図7を用いて音声パラメータ生成モデル学習部の機能とデータフローの詳細について説明する。
音声パラメータ生成モデル学習部220では、上述のように、生成用音声コープス520とPPG変換モデル700より、音声パラメータ生成モデル1000を生成する機能部である。
Next, the function of the voice parameter generation model learning unit and the details of the data flow will be described with reference to FIG. 7.
As described above, the voice parameter generation
音声パラメータ生成モデル学習部220は、図7に示されるように、PPG抽出部221、PPGマージ部222、音声パラメータ抽出部223、音声モデル学習部224、特徴量解析部225のサブ機能部で構成されている。
As shown in FIG. 7, the voice parameter generation
PPG抽出部221、PPGマージ部222、音声パラメータ抽出部223、モデル学習部224、特徴量解析部225は、それぞれ、音声パラメータ生成モデル学習プログラムのサブルーチンとして、PPG抽出プログラム、PPGマージプログラム、音声パラメータ抽出プログラム、音声モデル学習プログラム、特徴量解析プログラムを実行することにより実現することができる。
The
PPG抽出部221は、図5で説明したPPG変換モデル学習部210で得られたPPG変換モデル700(図7では、PPG変換モデル1:700−1〜PPG変換モデルN:700−Nと表記)を用いて、生成用音声コーパス511から特徴量解析部225により取り出された音声特徴量640に対して、PPG800(図7では、PPG1:800−1〜PPGN:800−Nと表記)を抽出する機能部である。なお、特徴量解析部225は、図5に示した特徴量解析部213と同様である。ここで、複数のPPG変換モデルを用いることによって、正確な韻律表現が可能となる。具体的には、音節をまたいでゆっくり変化するF0の動きを表現できる日本語PPGと、音節内の局所的なF0変化をとらえられる中国語PPGとを組み合わせることにより、F0パターンを充実して表現することができる。すなわち、複数の特徴の異なる言語を組み合わせることによって、入力音声のどの特徴を出力音声に残したいのかを、デザインすることができる。この点で、本発明者の実証では、日本語、中国語、英語の3言語を用いることにより、発音の強弱や発話のイントネーションを精度よく再現できることを確認することができた。
The
PPGマージ部222は、PPG抽出部221から得られた複数のPPG800を一つのベクトルにマージする機能部である。ここでは、単に複数のベクトルをつなげ合わせて、次元数の大きなベクトルにすることも考えられるが、AutoEncoderなどの次元圧縮技術を使って、小さいベクトルに圧縮することもできる。
The
音声パラメータ抽出部223は、生成用音声コーパス511の音声から音声合成用の音声パラメータ223を抽出する。この部分は、一般的に、音声合成にも使われている技術であり、StraightやWorldなどのOSSを利用すれば、高品質な合成音声を得ることができる。
The voice
音声モデル学習部224は、同じ音声から抽出され、PPGマージ部222によりマージされたPPG800と音声パラメータ抽出部223が抽出した音声パラメータ900に対して、変換用DNNの学習により、音声パラメータ生成モデル1000を生成する。すなわち、入力がPPG800と音声パラメータ900であり、その出力として、入力した音声パラメータ900の音声パラメータ生成モデル1000が得られる。一般的に音声のような時系列信号に対しては、Bi−LSTM(Bidirectional Long Short Term Memory:双方向長期短期記憶)を用いたほうがより高い性能が得られる。
The voice
次に、図8を用いて声質変換装置の機能とデータフローについて説明する。
声質変換装置100は、図8に示されるように、特徴量解析部110、PPG抽出部111、PPGマージ部112、音声パラメータ生成部113、波形生成部114を有している。
Next, the function and data flow of the voice quality conversion device will be described with reference to FIG.
As shown in FIG. 8, the voice
特徴量解析部110は、図5に示した声質変換用データ作成装置200のPPG変換モデル学習部210の特徴量解析部213と同じ機能構成部である。PPG抽出部111とPPGマージ部112は、図7に示した声質変換用データ作成装置200の音声パラメータ生成モデル学習部210のPPG抽出部221とPPGマージ部222と、それぞれ同じ機能構成部である。
The feature
音声パラメータ生成部113は、声質変換用データ作成装置200の音声パラメータ生成モデル学習部210で得られた音声パラメータ生成モデル1000と、入力音声30とPPG変換モデル700から得られたPPG800を入力し、音声パラメータ900を生成する。音声パラメータ900は、例えば、音声の高さに相当する基本周波数、音色に相当するスペクトル包絡、有声音のかすれに相当する非周期性指標(Aperiodicity)がある。
The voice
波形生成部(ボコーダーともいう)114は、生成された音声パラメータ900を用いて、音声波形を生成し、変換した音声を出力音声40として出力する。
The waveform generation unit (also referred to as a vocoder) 114 generates a voice waveform using the generated
本実施形態の声質変換システムによれば、韻律情報を含んだPPG変換モデルによって、PPGを生成し、そのPPGを用いて音声パラメータを生成する。したがって、その音声パラメータによった声質変換により、話者の言語特有の韻律が考慮され、安定して高い音質の音質変換が可能となる。 According to the voice quality conversion system of the present embodiment, PPG is generated by a PPG conversion model including prosodic information, and voice parameters are generated using the PPG. Therefore, the voice quality conversion based on the voice parameters takes into consideration the prosody peculiar to the speaker's language, and enables stable and high-quality sound conversion.
〔実施形態2〕
以下、本発明の実施形態2を、図9を用いて説明する。
本実施形態では、実施形態1に示した声質変換装置を用いた応用の一つとして、敵対的生成ネットワーク(GAN:Generative adversarial network)学習を用いた音声特徴量学習システムの処理とそのデータフローを説明する。
[Embodiment 2]
Hereinafter, Embodiment 2 of the present invention will be described with reference to FIG.
In the present embodiment, as one of the applications using the voice quality conversion device shown in the first embodiment, the processing of the voice feature learning system using the hostile generative network (GAN) learning and its data flow are described. explain.
本実施形態の音声特徴量学習システムは、敵対的生成ネットワークに基づいた学習を行うものであり、Generator Training Stage Generator Training StageとDiscriminator Training Stageの二つの段階よりなる。 The voice feature learning system of the present embodiment performs learning based on a hostile generation network, and comprises two stages of a Generator Training Stage, a Generator Training Stage, and a Discriminator Training Stage.
本実施形態の音声特徴量学習システムは、異なる発話者から収録した多言語音声コーパス2010から、統一した声質の音声特徴量を抽出することができるシステムである。これにより最適化された音声特徴量を用いて、マルチリンガル音声合成システムを構築することができる。
The voice feature learning system of the present embodiment is a system capable of extracting voice features with a unified voice quality from a
先ず、音声特徴量学習システムでは、言語が異なり、声質も異なる多言語音声コーパス2010(図9では、音声コーパス2010−1,音声コーパス2010−2,…と表記)から、実施形態1の声質変換装置100による声質変換処理150を実行し、各々の言語に対して、目標の声質Zを有する多言語音声コーパス2060(図9では、音声コーパス2060−1,音声コーパス2060−2,…と表記)を生成する。
First, in the voice feature amount learning system, the voice quality conversion of the first embodiment is performed from the multilingual voice corpus 2010 (indicated as voice corpus 2010-1, voice corpus 2010-2, ... In FIG. 9) having different languages and voice qualities. The voice
一方、音声特徴量学習システムでは、Generator Training Stageで、多言語音声コーパス2010から言語特徴量解析処理2002により、言語特徴量2020を生成し、音声特徴量解析処理2003により、収録音声の音声特徴量2030を生成する。
On the other hand, in the voice feature learning system, the Generator Training Stage generates the
次に、その言語特徴量2020と収録音声の音声特徴量2030を入力してモデル学習処理2000を行い、Generator(生成ネットワーク)による処理2001によって結果を出力する。Generatorによる処理2001では、ノイズを含んだデータによる合成音声特徴量2040を出力する。いわば、次に説明するDiscriminator(識別ネットワーク)をだますようなデータを生成する。
Next, the
また、Discriminator Training Stageでは、目標の声質Zを有する多言語音声コーパス2060から、言語特徴量解析処理2006により、変換後音声の音声特徴量2050を生成する。そして、Generator2001が生成した合成音声の特徴量2040と変換後音声の音声特徴量2050を入力してモデル学習処理2005を実行し、その結果をDiscriminatorに出力する。Discriminatorによる処理2004では、その真偽を識別し、真偽を判定するラベルを生成して、Generator Training Stageのモデル学習処理2000にフィードバックする。これによって、Generatorによる処理2001によって、自然でかつ声質Zの話者の声質に近い音声特徴量を生成することができる。
Further, in the Discriminator Training Stage, the
すなわち、このGenerator Training Stageと、Discriminator Training Stageを反復し、お互いの学習処理をループ処理させることにより、高い音質を維持したターゲットの声質Zの合成音声の音声特徴量を得ることができ、その音声特徴量を用いて複数の言語をサポートするターゲット話者の多言語音声合成システムを構築可能となる。 That is, by repeating this Generator Training Stage and the Discriminator Training Stage and looping each other's learning processing, it is possible to obtain the voice feature amount of the synthetic voice of the target voice quality Z that maintains high sound quality, and that voice. It is possible to construct a multilingual speech synthesis system for target speakers that supports multiple languages using feature quantities.
本の実施形態においては、声質変換装置100に用いるPPGは、多言語音声コーパス2010に含まれる全ての言語のPPGをマージするものを利用することが望ましい。例えば、日中英の3言語バイリンガル音声合成システムを構築する場合は、図8に示したPPG抽出部において、日本語PPG、中国語PPG、英語PPGを抽出することが望ましい。
In the embodiment of the book, it is desirable that the PPG used for the voice
なお、本実施形態の説明には、入力とする多言語音声コーパス2010には複数言語と複数の声質を含まれているものとして説明したが、単一言語単一声質でもよい。その場合には、音声合成の声質カスタマイズの効果を得ることができる。
In the description of the present embodiment, it is assumed that the input
〔実施形態3〕
以下、本発明に係る実施形態3を、図10を用いて説明する。
本実施形態では、実施形態1の声質変換装置100を用いた応用の一つとして、マルチリンガル音声合成システムを生成する処理について説明する。
先ず、言語が異なり、声質も異なる多言語音声コーパス3010(図10では、音声コーパス3010−1,音声コーパス3010−2,…と表記)から、実施形態1の声質変換装置100による声質変換処理150を実行し、各々の言語に対して、目標の声質Zを有する多言語音声コーパス3020(図9では、音声コーパス3020−1,音声コーパス3020−2,…と表記)を生成する。
[Embodiment 3]
Hereinafter, the third embodiment according to the present invention will be described with reference to FIG.
In this embodiment, a process of generating a multilingual speech synthesis system will be described as one of the applications using the voice
First, from the multilingual voice corpus 3010 (denoted as voice corpus 3010-1, voice corpus 3010-2, ... In FIG. 10) having different languages and voice qualities, the voice
次に、多言語音声コーパス3020より、言語特徴量解析処理3001により、言語特徴量3030を生成し、音声特徴量解析処理3002により、収録音声の音声特徴量3040を生成する。
そして、それらを入力とする合成システム構築処理3000により、マルチリンガル音声合成システム3050を構築する。
Next, from the
Then, the multilingual
この音声合成システムを構築処理では、合成システム構築処理3000の合成手法によらず、音声合成システムを構築することができる。
In the construction process of this speech synthesis system, the speech synthesis system can be constructed regardless of the synthesis method of the synthesis
なお、本実施形態の説明には、入力とする多言語音声コーパス2010には複数言語と複数の声質を含まれているものとして説明したが、単一言語単一声質でもよい。その場合には、音声合成の声質カスタマイズの効果を得ることができる。
In the description of the present embodiment, it is assumed that the input
〔実施形態4〕
以下、本発明に係る実施形態4を、図11を用いて説明する。
図11は、声質変換により変換された音声コーパスを用いて、入力テキストに対する音声合成をするシステムを構築する処理の流れとデータフローを示す図である。
本実施形態の処理は、音声合成システム構築処理と音声合成処理の二段階よりなる。
[Embodiment 4]
Hereinafter, the fourth embodiment according to the present invention will be described with reference to FIG.
FIG. 11 is a diagram showing a process flow and a data flow for constructing a system for synthesizing speech with respect to input text using a speech corpus converted by voice quality conversion.
The process of this embodiment includes two stages of a speech synthesis system construction process and a speech synthesis process.
先ず、音声合成システム構築処理では、言語が異なり、声質も異なる多言語音声コーパス4010(図10では、音声コーパス4010−1,音声コーパス4010−2,…と表記)から、言語特徴量解析処理4001により、言語特徴量4020を生成し、音声特徴量解析処理4002により、収録音声の音声特徴量4030を生成する。
そして、それらを入力とする合成システム構築処理4000により、マルチリンガル音声合成システム5000を構築する。
First, in the speech synthesis system construction process, the language
Then, the multilingual
次に、音声合成処理では、音声合成システム5000に入力テキスト5010を入力して、合成音声5020を生成し、それを入力して、実施形態1の声質変換装置100の声質変換処理150により、目標とする声質Zの合成音声5030を出力する。
Next, in the speech synthesis processing, the
本実施形態では、言語が異なり、声質も異なる多言語音声コーパス4010から、入力テキストに対応した統一した声質Zの声質の合成音声を出力することができる。
In the present embodiment, it is possible to output a synthetic voice of voice quality Z having a unified voice quality corresponding to the input text from the
なお、本実施形態の説明には、入力とする多言語音声コーパス2010には複数言語と複数の声質を含まれているものとして説明したが、単一言語単一声質でもよい。その場合には、音声合成の声質カスタマイズの効果を得ることができる。
In the description of the present embodiment, it is assumed that the input
Claims (8)
声質変換用データ作成装置と、
声質変換装置とを備え、
前記声質変換用データ作成装置は、
単語辞書とテキストと音声情報を対応付けた音声コーパスとを入力して、PPG変換モデルを生成するPPG(音素事後確率)モデル学習部と、
音声コーパスと前記PPG変換モデルを入力して音声パラメータ生成モデルを生成する音声パラメータ生成モデル学習部とよりなり、
前記PPG変換モデル学習部は、
前記単語辞書から韻律情報付き辞書を生成し、
前記音声コーパスに含まれるテキストを形態素解析して、形態素解析の結果と、前記韻律情報付き辞書に基づいて、韻律情報付き音素配列を生成し、
前記韻律情報付き音素配列と、前記音声コーパスに含まれる音声情報の特徴量解析の結果として出力される音声特徴量とから、音響モデルを生成し、
前記音響モデルを学習して、前記PPG変換モデルを生成し、
前記音声パラメータ生成モデル学習部は、
前記PPG変換モデルと音声コーパスより、前記PPG変換モデルに対応するPPGを生成し、
前記音声コーパスに含まれる音声情報から音声パラメータを抽出し、
前記生成されたPPGと前記音声パラメータを学習して、音声パラメータ生成モデルを生成し、
前記声質変換装置は、前記入力音声と前記PPG変換モデル学習部が生成したPPG変換モデルと前記音声パラメータ生成モデル学習部が生成した音声パラメータ生成モデルとを入力し、
前記音声コーパスに含まれる音声情報の特徴量解析の結果として出力される音声特徴量と前記PPG変換モデルとに基づいて、PPGを生成し、
生成した前記PPGと前記音声パラメータ生成モデルに基づいて、音声パラメータを生成し、
前記音声パラメータによる音声の波形を生成して、出力音声として出力することを特徴とする声質変換システム。 A voice quality conversion system that outputs synthetic voice that is obtained by converting voice quality from input voice using an information processing device.
A data creation device for voice quality conversion and
Equipped with a voice conversion device
The voice quality conversion data creation device is
A PPG (phoneme posterior probability) model learning unit that generates a PPG conversion model by inputting a word dictionary, a voice corpus that associates text with voice information, and
It consists of a voice corpus and a voice parameter generation model learning unit that inputs the PPG conversion model and generates a voice parameter generation model.
The PPG conversion model learning unit
A dictionary with prosodic information is generated from the word dictionary,
The text contained in the speech corpus is morphologically analyzed, and a phoneme sequence with prosody information is generated based on the result of the morphological analysis and the dictionary with prosody information.
An acoustic model is generated from the phoneme sequence with prosodic information and the speech features output as a result of the feature analysis of the speech information included in the speech corpus.
The acoustic model is trained to generate the PPG conversion model, and the PPG conversion model is generated.
The voice parameter generation model learning unit
From the PPG conversion model and the voice corpus, a PPG corresponding to the PPG conversion model is generated.
Voice parameters are extracted from the voice information included in the voice corpus, and
By learning the generated PPG and the voice parameter, a voice parameter generation model is generated.
The voice quality conversion device inputs the input voice, the PPG conversion model generated by the PPG conversion model learning unit, and the voice parameter generation model generated by the voice parameter generation model learning unit.
PPG is generated based on the voice feature amount output as a result of the feature amount analysis of the voice information included in the voice corpus and the PPG conversion model.
A voice parameter is generated based on the generated PPG and the voice parameter generation model.
A voice quality conversion system characterized in that a voice waveform based on the voice parameters is generated and output as output voice.
前記音響モデルと前記言語モデルの学習により、前記PPG変換モデルを生成することを特徴とする請求項1記載の声質変換システム。 The PPG conversion model learning unit morphologically analyzes the text of the voice corpus, performs language model learning, generates a language model, and then generates a language model.
The voice quality conversion system according to claim 1, wherein the PPG conversion model is generated by learning the acoustic model and the language model.
前記声質変換システムは、
声質変換用データ作成装置と、
声質変換装置とを備え、
前記声質変換用データ作成装置が、単語辞書とテキストと音声情報を対応付けた音声コーパスとを入力して、PPG変換モデルを生成するPPG(音素事後確率)モデル学習ステップと、
前記声質変換用データ作成装置が、音声コーパスと前記PPG変換モデルを入力して音声パラメータ生成モデルを生成する音声パラメータ生成モデル学習ステップとを有し、
前記PPG変換モデル学習ステップは、
前記声質変換用データ作成装置が、前記単語辞書から韻律情報付き辞書を生成するステップと、
前記声質変換用データ作成装置が、前記音声コーパスに含まれるテキストを形態素解析して、形態素解析の結果と、前記韻律情報付き辞書に基づいて、韻律情報付き音素配列を生成するステップと、
前記声質変換用データ作成装置が、前記韻律情報付き音素配列と、前記音声コーパスに含まれる音声情報の特徴量解析の結果として出力される音声特徴量とから、音響モデルを生成するステップと、
前記声質変換用データ作成装置が、前記音響モデルを学習して、前記PPG変換モデルを生成するステップとからなり、
前記音声パラメータ生成モデル学習ステップは、
前記声質変換用データ作成装置が、前記PPG変換モデルと音声コーパスより、前記PPG変換モデルに対応するPPGを生成するステップと、
前記声質変換用データ作成装置が、前記音声コーパスに含まれる音声情報から音声パラメータを抽出するステップと、
前記声質変換用データ作成装置が、前記生成されたPPGと前記音声パラメータを学習して、音声パラメータ生成モデルを生成するステップとからなり、
前記声質変換装置が、前記入力音声と前記PPG変換モデル学習ステップにより生成されたPPG変換モデルと前記音声パラメータ生成モデル学習ステップにより生成された音声パラメータ生成モデルとを入力するステップと、
前記声質変換装置が、前記音声コーパスに含まれる音声情報の特徴量解析の結果として出力される音声特徴量と前記PPG変換モデルとに基づいて、PPGを生成するステップと、
前記声質変換装置が、生成した前記PPGと前記音声パラメータ生成モデルに基づいて、音声パラメータを生成するステップと、
前記声質変換装置が、前記音声パラメータによる音声の波形を生成して、出力音声として出力するステップとを有することを特徴とする声質変換方法。 It is a voice quality conversion method that performs voice quality conversion by a voice quality conversion system that outputs synthetic voice obtained by converting voice quality from input voice by an information processing device.
The voice quality conversion system
A data creation device for voice quality conversion and
Equipped with a voice conversion device
The PPG (phoneme posterior probability) model learning step in which the voice quality conversion data creation device inputs a word dictionary and a voice corpus in which text and voice information are associated to generate a PPG conversion model, and
The voice quality conversion data creation device has a voice corpus and a voice parameter generation model learning step for inputting the PPG conversion model and generating a voice parameter generation model.
The PPG conversion model learning step
A step in which the voice quality conversion data creation device generates a dictionary with prosodic information from the word dictionary,
A step in which the voice quality conversion data creation device performs morphological analysis of the text contained in the voice corpus and generates a phoneme sequence with prosody information based on the result of the morphological analysis and the dictionary with prosody information.
A step in which the voice quality conversion data creation device generates an acoustic model from the phoneme array with prosodic information and the voice feature amount output as a result of the feature amount analysis of the voice information included in the voice corpus.
The voice quality conversion data creation device includes a step of learning the acoustic model and generating the PPG conversion model.
The voice parameter generation model learning step
A step in which the voice quality conversion data creation device generates a PPG corresponding to the PPG conversion model from the PPG conversion model and the voice corpus.
A step in which the voice quality conversion data creation device extracts voice parameters from voice information included in the voice corpus, and
The voice quality conversion data creation device includes a step of learning the generated PPG and the voice parameter to generate a voice parameter generation model.
A step in which the voice quality conversion device inputs the input voice, a PPG conversion model generated by the PPG conversion model learning step, and a voice parameter generation model generated by the voice parameter generation model learning step.
A step in which the voice quality conversion device generates a PPG based on a voice feature amount output as a result of a feature amount analysis of voice information included in the voice corpus and the PPG conversion model.
A step of generating a voice parameter based on the generated PPG and the voice parameter generation model by the voice quality conversion device.
A voice quality conversion method, characterized in that the voice quality conversion device includes a step of generating a voice waveform according to the voice parameter and outputting it as an output voice.
前記音響モデルと前記言語モデルの学習により、前記PPG変換モデルを生成するステップとからなることを特徴とする請求項5記載の声質変換方法。 The PPG conversion model learning step includes a step of morphologically analyzing the text of the voice corpus, a step of performing language model learning based on the result of the morphological analysis, and a step of generating a language model.
The voice quality conversion method according to claim 5, further comprising a step of generating the PPG conversion model by learning the acoustic model and the language model.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020048518A JP7406418B2 (en) | 2020-03-19 | 2020-03-19 | Voice quality conversion system and voice quality conversion method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020048518A JP7406418B2 (en) | 2020-03-19 | 2020-03-19 | Voice quality conversion system and voice quality conversion method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021148942A true JP2021148942A (en) | 2021-09-27 |
JP7406418B2 JP7406418B2 (en) | 2023-12-27 |
Family
ID=77848520
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020048518A Active JP7406418B2 (en) | 2020-03-19 | 2020-03-19 | Voice quality conversion system and voice quality conversion method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7406418B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022046731A (en) * | 2021-06-22 | 2022-03-23 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | Voice generation method, device, electronic apparatus, and storage medium |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10176819B2 (en) | 2016-07-11 | 2019-01-08 | The Chinese University Of Hong Kong | Phonetic posteriorgrams for many-to-one voice conversion |
JP7360814B2 (en) | 2019-05-21 | 2023-10-13 | 株式会社 ディー・エヌ・エー | Audio processing device and audio processing program |
-
2020
- 2020-03-19 JP JP2020048518A patent/JP7406418B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022046731A (en) * | 2021-06-22 | 2022-03-23 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | Voice generation method, device, electronic apparatus, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP7406418B2 (en) | 2023-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Isewon et al. | Design and implementation of text to speech conversion for visually impaired people | |
EP0688011B1 (en) | Audio output unit and method thereof | |
JP6266372B2 (en) | Speech synthesis dictionary generation apparatus, speech synthesis dictionary generation method, and program | |
Mache et al. | Review on text-to-speech synthesizer | |
WO2019245916A1 (en) | Method and system for parametric speech synthesis | |
GB2296846A (en) | Synthesising speech from text | |
Hamad et al. | Arabic text-to-speech synthesizer | |
O'Shaughnessy | Modern methods of speech synthesis | |
JP7406418B2 (en) | Voice quality conversion system and voice quality conversion method | |
Raghavendra et al. | A multilingual screen reader in Indian languages | |
Chettri et al. | Nepali text to speech synthesis system using esnola method of concatenation | |
Khalil et al. | Arabic speech synthesis based on HMM | |
Charoenrattana et al. | Pali Speech Synthesis using HMM | |
Houidhek et al. | Evaluation of speech unit modelling for HMM-based speech synthesis for Arabic | |
Ekpenyong et al. | Tone modelling in Ibibio speech synthesis | |
Sulír et al. | Development of the Slovak HMM-based tts system and evaluation of voices in respect to the used vocoding techniques | |
Nair et al. | Indian text to speech systems: A short survey | |
JP2018041116A (en) | Voice synthesis device, voice synthesis method, and program | |
Ng | Survey of data-driven approaches to Speech Synthesis | |
Jayasankar et al. | Word and syllable based concatenative model of text to speech synthesis of Tamil language | |
Datta et al. | Epoch Synchronous Overlap Add (ESOLA) | |
Kaur et al. | BUILDING AText-TO-SPEECH SYSTEM FOR PUNJABI LANGUAGE | |
Narupiyakul et al. | A stochastic knowledge-based Thai text-to-speech system | |
Davaatsagaan et al. | Diphone-based concatenative speech synthesis system for mongolian | |
Mahmud et al. | A novel training based Concatenative Bangla Speech Synthesizer model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220714 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230711 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230901 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7406418 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |