JP6649210B2 - Speech synthesis learning device, method, and program - Google Patents

Speech synthesis learning device, method, and program Download PDF

Info

Publication number
JP6649210B2
JP6649210B2 JP2016168356A JP2016168356A JP6649210B2 JP 6649210 B2 JP6649210 B2 JP 6649210B2 JP 2016168356 A JP2016168356 A JP 2016168356A JP 2016168356 A JP2016168356 A JP 2016168356A JP 6649210 B2 JP6649210 B2 JP 6649210B2
Authority
JP
Japan
Prior art keywords
speech
neural network
learning
data
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016168356A
Other languages
Japanese (ja)
Other versions
JP2018036413A (en
Inventor
卓弘 金子
卓弘 金子
弘和 亀岡
弘和 亀岡
薫 平松
薫 平松
柏野 邦夫
邦夫 柏野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016168356A priority Critical patent/JP6649210B2/en
Publication of JP2018036413A publication Critical patent/JP2018036413A/en
Application granted granted Critical
Publication of JP6649210B2 publication Critical patent/JP6649210B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Machine Translation (AREA)

Description

本発明は、音声合成学習装置、方法、及びプログラムに係り、特に、音声を合成するための音声合成学習装置、方法、及びプログラムに関する。   The present invention relates to a speech synthesis learning device, a method, and a program, and particularly to a speech synthesis learning device, a method, and a program for synthesizing speech.

音声の声帯音源情報(基本周波数や非周期性指標など)や声道スペクトル情報を表す特徴量は、STRAIGHTやメル一般化ケプストラム分析(Mel-Generalized Cepstral Analysis; MGC)などの音声分析手法により得ることができる。多くのテキスト音声合成システムや音声変換システムでは、このような音声特徴量の系列を入力テキストや変換元音声から予測し、ボコーダ方式に従って音声信号を生成するアプローチがとられる。   Features representing vocal vocal sound source information (fundamental frequency, aperiodicity index, etc.) and vocal tract spectrum information can be obtained by speech analysis methods such as STRAIGHT and Mel-Generalized Cepstral Analysis (MGC). Can be. In many text-to-speech synthesis systems and speech conversion systems, an approach is used in which such a sequence of speech features is predicted from an input text or a conversion source speech, and a speech signal is generated according to a vocoder method.

既存のボコーダ方式の音声合成では、声帯音源情報や声道スペクトル情報のような音声特徴量系列を、ボコーダを用いて変換することによって音声を生成する。図35に、ボコーダ方式の音声合成の処理の概念図を示す。なお、ここで述べたボコーダとは、人間の発声のメカニズムに関する知見を元に、音の生成過程をモデル化したものである。例えば、ボコーダの代表的なモデルとして、ソースフィルターモデルがあるが、このモデルでは、音の生成過程を音源(ソース)とデジタルフィルターの二つによって説明している。具体的には、ソースから生じる音声信号(パルス信号で表される)に対してデジタルフィルターを随時適用していくことによって、声が生成されるとしている。このように、ボコーダ方式の音声合成では、発声のメカニズムを抽象的にモデル化して表現しているため、音声をコンパクト(低次元)に表現することができる。一方で、抽象化した結果、音声の自然さが失われて、ボコーダ特有の機械的な音質となることが多い。   In the existing vocoder-based speech synthesis, speech is generated by converting a speech feature amount sequence such as vocal cord source information or vocal tract spectrum information using a vocoder. FIG. 35 shows a conceptual diagram of a vocoder-type speech synthesis process. The vocoder described here is a model of a sound generation process based on knowledge about the mechanism of human vocalization. For example, a typical model of a vocoder is a source filter model. In this model, a sound generation process is described by using a sound source (source) and a digital filter. Specifically, it is stated that voice is generated by applying a digital filter to a voice signal (represented by a pulse signal) generated from the source as needed. As described above, in the vocoder-based speech synthesis, the utterance mechanism is abstractly modeled and expressed, so that the speech can be expressed in a compact (low-dimensional) manner. On the other hand, as a result of the abstraction, the naturalness of the voice is lost, often resulting in mechanical sound quality unique to the vocoder.

Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, DavidWarde-Farley, Sherjil Ozairy,Aaron Courville, Yoshua Bengio, "Generative Adversarial Nets," 2014.Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, DavidWarde-Farley, Sherjil Ozairy, Aaron Courville, Yoshua Bengio, "Generative Adversarial Nets," 2014. Emily Denton, Soumith Chintala, Arthur Szlam, Rob Fergus, "Deep Generative Image Modelsusing a Laplacian Pyramid of Adversarial Networks," 2015.Emily Denton, Soumith Chintala, Arthur Szlam, Rob Fergus, "Deep Generative Image Models using a Laplacian Pyramid of Adversarial Networks," 2015.

入力テキストや変換元音声から適切な音声特徴量を予測する問題は一種の回帰(機械学習)問題であり、特に限られた数の学習サンプルしか得られない状況ではコンパクト(低次元)な特徴量表現となっている方が統計的な予測において有利である。多くのテキスト音声合成システムや音声変換システムにおいて(波形やスペクトルを直接予測しようとするのではなく)音声特徴量を用いたボコーダ方式が用いられるのはこの利点を活かすためである。一方で、ボコーダ方式によって生成される音声はボコーダ特有の機械的な音質となることが多く、このことが従来のテキスト音声合成システムや音声変換システムにおける音質の潜在的な限界を与えている。   The problem of predicting appropriate speech features from input text and source speech is a kind of regression (machine learning) problem, especially when only a limited number of training samples are available, compact (low-dimensional) features. Representation is advantageous in statistical prediction. A vocoder method using a speech feature amount (rather than trying to directly predict a waveform or spectrum) is used in many text-to-speech synthesis systems and speech conversion systems in order to take advantage of this advantage. On the other hand, speech generated by the vocoder method often has mechanical sound quality unique to the vocoder, which imposes a potential limit on sound quality in conventional text-to-speech synthesis systems and speech conversion systems.

本発明は、上記問題点を解決するために成されたものであり、より自然な音声を合成することができるニューラルネットワークを学習できる音声合成学習装置、方法、及びプログラムを提供することを目的とする。   The present invention has been made to solve the above problems, and has as its object to provide a speech synthesis learning apparatus, method, and program capable of learning a neural network capable of synthesizing a more natural speech. I do.

上記目的を達成するために、第1の発明に係る音声合成学習装置は、任意の音声データ又は音声特徴量系列から音声を合成するニューラルネットワークを学習する音声合成学習装置であって、入力された音声データ又は音声特徴量系列と、学習用の真の音声データとを入力とし、前記音声データ又は音声特徴量系列から合成音声データを生成する生成器としてのニューラルネットワークと、前記生成された前記合成音声データが、真の音声データと同一の分布に従うか否かを識別する識別器としてニューラルネットワークとを備え、前記生成器としてのニューラルネットワークと、前記識別器としてのニューラルネットワークとが、互いに競合する最適化条件に従って学習を行う学習部を含んで構成されている。   In order to achieve the above object, a speech synthesis learning device according to a first invention is a speech synthesis learning device for learning a neural network for synthesizing speech from arbitrary speech data or a speech feature amount sequence. A neural network as a generator that receives speech data or a speech feature amount sequence and true learning speech data as input and generates synthesized speech data from the speech data or the speech feature amount sequence; A neural network is provided as a discriminator for discriminating whether or not the speech data follows the same distribution as the true speech data.The neural network as the generator and the neural network as the discriminator compete with each other. It is configured to include a learning unit that performs learning according to optimization conditions.

また、第1の発明に係る音声合成学習装置において、前記学習部は、音声データを音声分析して得た、音声特徴量系列から音声を合成するボコーダに用いられる音声特徴量系列と、学習用の真の音声データとを入力とし、前記音声特徴量系列から合成された合成音声データを生成する前記生成器としてのニューラルネットワークと、前記識別器としてのニューラルネットワークとが、互いに競合する最適化条件に従って学習を行うようにしてもよい。   Further, in the speech synthesis learning device according to the first invention, the learning unit includes a speech feature amount sequence used for a vocoder that synthesizes speech from a speech feature amount sequence obtained by speech analysis of speech data; And the neural network as the generator and the neural network as the discriminator, which generate synthesized speech data synthesized from the speech feature amount sequence, using the real speech data of The learning may be performed according to the following.

また、第1の発明に係る音声合成学習装置において、前記学習部は、音声特徴量系列から音声を合成して得た、音声信号又は音声スペクトル系列と、学習用の真の音声データとを入力とし、前記音声信号又は音声スペクトル系列から合成された合成音声データを生成する前記生成器としてのニューラルネットワークと、前記識別器としてのニューラルネットワークとが、互いに競合する最適化条件に従って学習を行うようにしてもよい。   Further, in the speech synthesis learning device according to the first invention, the learning unit inputs a speech signal or a speech spectrum sequence obtained by synthesizing a speech from a speech feature amount sequence and true speech data for learning. The neural network as the generator that generates synthesized voice data synthesized from the voice signal or the voice spectrum series, and the neural network as the discriminator perform learning according to mutually competing optimization conditions. You may.

また、第1の発明に係る音声合成学習装置において、前記学習部は、音声データを入力として予め学習されたニューラルネットワークであるAuto Encoderから出力される音声特徴量系列と、学習用の真の音声データとを入力とし、前記音声特徴量系列から合成された合成音声データを生成する前記生成器としてのニューラルネットワークと、前記識別器としてのニューラルネットワークとが、互いに競合する最適化条件に従って学習を行うようにしてもよい。   Further, in the speech synthesis learning device according to the first invention, the learning unit includes a speech feature amount sequence output from an Auto Encoder which is a pre-trained neural network with speech data as input, and a learning true speech. The neural network as the generator and the neural network as the discriminator that generate synthesized speech data synthesized from the speech feature amount sequence using data as input, perform learning according to the mutually conflicting optimization conditions. You may do so.

第2の発明に係る音声合成学習装置は、任意の音声データ又は音声特徴量系列から音声を合成するニューラルネットワークを学習する音声合成学習装置であって、入力された音声データ又は音声特徴量系列と、学習用の真の音声データとを入力とし、前記音声データ又は音声特徴量系列から合成音声データを生成する生成器としてのニューラルネットワークを備え、前記生成器としてのニューラルネットワークが、前記合成音声データと、学習用の真の音声データとの距離を表す目的関数を最適化するように学習を行う学習部を含んで構成されている。   A speech synthesis learning device according to a second invention is a speech synthesis learning device for learning a neural network for synthesizing speech from arbitrary speech data or a speech feature amount sequence. A real network for learning, and a neural network as a generator for generating synthesized voice data from the voice data or the voice feature amount sequence, wherein the neural network as the generator includes the synthesized voice data. And a learning unit that performs learning so as to optimize an objective function representing a distance from true learning speech data.

また、第2の発明に係る音声合成学習装置において、前記学習部は、音声データを音声分析して得た、音声特徴量系列から音声を合成するボコーダに用いられる音声特徴量系列と、学習用の真の音声データとを入力とし、前記音声特徴量系列から合成された合成音声データを生成する前記生成器としてのニューラルネットワークが、前記目的関数を最適化するように学習を行うようにしてもよい。   Further, in the speech synthesis learning device according to the second invention, the learning unit includes a speech feature amount sequence obtained by analyzing speech data and used for a vocoder that synthesizes speech from the speech feature amount sequence. And the neural network as the generator that generates synthesized speech data synthesized from the speech feature amount sequence by inputting the true speech data of the above and performs learning so as to optimize the objective function. Good.

また、第2の発明に係る音声合成学習装置において、前記学習部は、音声特徴量系列から音声を合成して得た、音声信号又は音声スペクトル系列と、学習用の真の音声データとを入力とし、前記音声信号又は音声スペクトル系列から合成された合成音声データを生成する前記生成器としてのニューラルネットワークが、前記目的関数を最適化するように学習を行うようにしてもよい。   Further, in the speech synthesis learning device according to the second invention, the learning unit inputs a speech signal or a speech spectrum sequence obtained by synthesizing a speech from a speech feature amount sequence and true speech data for learning. The neural network as the generator that generates synthesized voice data synthesized from the voice signal or the voice spectrum sequence may perform learning so as to optimize the objective function.

また、第2の発明に係る音声合成学習装置において、前記学習部は、音声データを入力として予め学習されたニューラルネットワークであるAuto Encoderから出力される音声特徴量系列と、学習用の真の音声データとを入力とし、前記音声特徴量系列から合成された合成音声データを生成する前記生成器としてのニューラルネットワークが、前記目的関数を最適化するように学習を行うようにしてもよい。   Further, in the speech synthesis learning device according to the second invention, the learning unit may include a speech feature amount sequence output from an auto-encoder which is a neural network previously trained with speech data as input, and a learning true speech. A neural network as the generator that receives data as input and generates synthesized speech data synthesized from the speech feature amount sequence may perform learning so as to optimize the objective function.

本発明の音声合成学習装置、方法、及びプログラムによれば、入力された音声データ又は音声特徴量系列と、学習用の真の音声データとを入力とし、音声データ又は音声特徴量系列から合成音声データを生成する生成器としてのニューラルネットワークと、合成音声データが、真の音声データと同一の分布に従うか否かを識別する識別器としてニューラルネットワークとを備え、生成器としてのニューラルネットワークと、識別器としてのニューラルネットワークとが、互いに競合する最適化条件に従って学習を行うことにより、より自然な音声を合成することができるニューラルネットワークを学習できる、という効果が得られる。   According to the speech synthesis learning apparatus, method, and program of the present invention, input speech data or a speech feature amount sequence and true speech data for learning are input, and synthesized speech is obtained from the speech data or the speech feature amount sequence. A neural network as a generator for generating data; and a neural network as a discriminator for discriminating whether or not the synthesized speech data follows the same distribution as the true speech data. By performing learning according to optimization conditions that compete with each other, the neural network as a device can learn a neural network that can synthesize more natural speech.

また、本発明の音声合成学習装置、方法、及びプログラムによれば、入力された音声データ又は音声特徴量系列と、学習用の真の音声データとを入力とし、音声データ又は音声特徴量系列から合成音声データを生成する生成器としてのニューラルネットワークを備え、生成器としてのニューラルネットワークが、合成音声データと、学習用の真の音声データとの距離を表す目的関数を最適化するように学習を行うことにより、より自然な音声を合成することができるニューラルネットワークを学習できる、という効果が得られる。   According to the speech synthesis learning device, method and program of the present invention, the input speech data or speech feature amount sequence and the true speech data for learning are input, and the speech data or the speech feature amount sequence is used. It has a neural network as a generator that generates synthesized speech data, and the neural network as a generator performs learning so as to optimize the objective function that represents the distance between the synthesized speech data and the true speech data for learning. By doing so, an effect is obtained that a neural network capable of synthesizing a more natural voice can be learned.

本発明の第1の実施の形態の処理の概念図である。FIG. 4 is a conceptual diagram of a process according to the first embodiment of this invention. 本発明の第1の実施の形態に係る音声合成装置の構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of a speech synthesis device according to a first embodiment of the present invention. 本発明の第1の実施の形態の学習処理の概念図である。FIG. 3 is a conceptual diagram of a learning process according to the first embodiment of this invention. 本発明の第1及び第2の実施の形態に係る音声合成装置における学習処理ルーチンを示すフローチャートである。9 is a flowchart illustrating a learning processing routine in the speech synthesis device according to the first and second embodiments of the present invention. 本発明の第1及び第2の実施の形態に係る音声合成装置における生成処理ルーチンを示すフローチャートである。9 is a flowchart illustrating a generation processing routine in the speech synthesis device according to the first and second embodiments of the present invention. 本発明の第2の実施の形態の処理の概念図である。FIG. 9 is a conceptual diagram of a process according to a second embodiment of the present invention. 本発明の第2の実施の形態に係る音声合成装置の構成を示すブロック図である。It is a block diagram showing the composition of the speech synthesis device concerning a 2nd embodiment of the present invention. 本発明の第2の実施の形態の学習処理の概念図である。It is a conceptual diagram of the learning process of the second embodiment of the present invention. 本発明の第3の実施の形態の処理の概念図である。FIG. 14 is a conceptual diagram of a process according to a third embodiment of the present invention. 本発明の第3の実施の形態に係る音声合成装置の構成を示すブロック図である。It is a block diagram showing the composition of the speech synthesis device concerning a 3rd embodiment of the present invention. 本発明の第3の実施の形態の学習処理の概念図である。It is a conceptual diagram of the learning process of the 3rd Embodiment of this invention. 本発明の第3及び第4の実施の形態に係る音声合成装置における学習処理ルーチンを示すフローチャートである。It is a flow chart which shows a learning processing routine in a speech synthesizer concerning a 3rd and a 4th embodiment of the present invention. 本発明の第3及び第4の実施の形態に係る音声合成装置における生成処理ルーチンを示すフローチャートである。It is a flow chart which shows a generation processing routine in a speech synthesizer concerning a 3rd and a 4th embodiment of the present invention. 本発明の第4の実施の形態の処理の概念図である。FIG. 14 is a conceptual diagram of a process according to a fourth embodiment of the present invention. 本発明の第4の実施の形態に係る音声合成装置の構成を示すブロック図である。It is a block diagram showing the composition of the speech synthesis device concerning a 4th embodiment of the present invention. 本発明の第4の実施の形態の学習処理の概念図である。It is a conceptual diagram of the learning process of the fourth embodiment of the present invention. 本発明の第5の実施の形態の概念図である。It is a conceptual diagram of a 5th embodiment of the present invention. 本発明の第5の実施の形態に係る音声合成装置の構成を示すブロック図である。It is a block diagram showing the composition of the speech synthesis device concerning a 5th embodiment of the present invention. 本発明の第5の実施の形態に係る音声合成装置における学習処理ルーチンを示すフローチャートである。It is a flow chart which shows a learning processing routine in a speech synthesizer concerning a 5th embodiment of the present invention. 本発明の第5の実施の形態に係る音声合成装置における生成処理ルーチンを示すフローチャートである。It is a flow chart which shows a generation processing routine in a speech synthesizer concerning a 5th embodiment of the present invention. 実験例における第3の実施の形態の学習方法の実装例を示す図である。It is a figure showing an example of implementation of a learning method of a 3rd embodiment in an example of an experiment. 実験例における第4の実施の形態の学習方法の実装例を示す図である。It is a figure showing an example of implementation of a learning method of a 4th embodiment in an example of an experiment. 実験例における第3の実施の形態の生成方法の実装例を示す図である。It is a figure showing an example of implementation of a generation method of a 3rd embodiment in an example of an experiment. 実験例における第4の実施の形態の生成方法の実装例を示す図である。It is a figure showing an example of implementation of a generation method of a 4th embodiment in an example of an experiment. 実験例における第3の実施の形態のネットワーク構造を示す図である。It is a figure showing the network structure of a 3rd embodiment in an example of an experiment. 実験例における第4の実施の形態のネットワーク構造を示す図である。It is a figure showing the network structure of a 4th embodiment in an example of an experiment. 実験例における入出力の元になった音声信号の波形の例を示す図である。FIG. 9 is a diagram illustrating an example of a waveform of an audio signal that is a source of input and output in an experimental example. Volume changeの実験結果を示す図である。It is a figure showing an experiment result of Volume change. Pre-emphasisの実験結果を示す図である。It is a figure which shows the experimental result of Pre-emphasis. LPCの実験結果を示す図である。It is a figure showing an experimental result of LPC. LPC+pulseの実験結果を示す図である。It is a figure showing an experimental result of LPC + pulse. 実験例における第1の実施の形態のネットワーク構造を示す図である。FIG. 3 is a diagram illustrating a network structure according to the first embodiment in an experimental example. 実験例における第2の実施の形態のネットワーク構造を示す図である。It is a figure showing the network structure of a 2nd embodiment in an example of an experiment. 実験例における第1及び第2の実施の形態の手法による音声復元の結果を示す図である。FIG. 11 is a diagram illustrating a result of audio restoration by the methods of the first and second embodiments in an experimental example. ボコーダ方式の音声合成の処理の概念図である。FIG. 4 is a conceptual diagram of a vocoder-based speech synthesis process.

以下、図面を参照して本発明の実施の形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<本発明の第1の実施の形態に係る概要> <Overview according to First Embodiment of the Present Invention>

まず、本発明の第1の実施の形態における概要を説明する。   First, an outline of the first embodiment of the present invention will be described.

既存のボコーダ方式の音声合成は、人間の発声メカニズムに関する知見を元に、音の生成過程を抽象的にモデル化したものであり、音声特徴量系列から音声データ(音声信号または音声スペクトル系列、以降同様)を再現することについて直接最適化したものではない。   Existing vocoder-based speech synthesis abstractly models the sound generation process based on knowledge of the human vocalization mechanism, and converts speech data from speech feature sequences to speech data (speech signals or speech spectrum sequences. Is not directly optimized for reproducing the same.

本発明の第1の実施の形態では、音声特徴量系列と音声データのマッピングについて直接最適化を行うことによって、この問題を解決する。処理の概念図を図1に示す。入力された音声特徴量系列に対して、音声特徴量系列と音声データのマッピングについて最適化されたニューラルネットワークを適用することによって、目的となる音声データを得ることができる。なお、この際、音声データとして音声信号を用いた場合は、そのまま目的音声信号が得られる。一方、音声データとして音声スペクトル系列を用いた場合は、出力も音声スペクトル系列になる。その場合は、位相復元をすることによって、目的音声信号が得られる。位相復元の手法としては、例えば、Griffin Limなどがある。   In the first embodiment of the present invention, this problem is solved by directly optimizing the mapping between the audio feature sequence and the audio data. FIG. 1 shows a conceptual diagram of the processing. By applying a neural network optimized for mapping of the audio feature amount sequence and the audio data to the input audio feature amount sequence, target audio data can be obtained. At this time, when an audio signal is used as the audio data, the target audio signal can be obtained as it is. On the other hand, when a voice spectrum sequence is used as voice data, the output is also a voice spectrum sequence. In that case, the target audio signal can be obtained by performing the phase restoration. As a method of the phase restoration, for example, there is Griffin Lim.

<本発明の第1の実施の形態に係る音声合成装置の構成> <Configuration of the speech synthesis device according to the first embodiment of the present invention>

次に、本発明の第1の実施の形態に係る音声合成装置の構成について説明する。図2に示すように、本発明の第1の実施の形態に係る音声合成装置100は、CPUと、RAMと、後述する学習処理ルーチン及び生成処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この音声合成装置100は、機能的には図2に示すように入力部10と、演算部20と、出力部90とを備えている。   Next, the configuration of the speech synthesizer according to the first embodiment of the present invention will be described. As shown in FIG. 2, the speech synthesizer 100 according to the first embodiment of the present invention stores a CPU, a RAM, a program for executing a learning process routine and a generation process routine described below, and various data. And a computer including the ROM. The speech synthesizer 100 functionally includes an input unit 10, an arithmetic unit 20, and an output unit 90, as shown in FIG.

入力部10は、学習データとして、人間の音声データxを受け付ける。また、入力部10は、合成音声データの生成対象となる任意の音声特徴量系列fを受け付ける。   The input unit 10 receives human voice data x as learning data. Further, the input unit 10 receives an arbitrary voice feature amount sequence f for which synthetic voice data is to be generated.

演算部20は、学習部30と、ニューラルネットワーク記憶部40と、生成部50とを含んで構成されている。   The calculation unit 20 includes a learning unit 30, a neural network storage unit 40, and a generation unit 50.

学習部30は、以下に説明するように、音声データxを音声分析して得た、ボコーダに用いられる音声特徴量系列fと、学習用の真の音声データxとを入力とし、音声特徴量系列fから、合成された合成音声データ

を生成する生成器としてのニューラルネットワークを備え、生成器としてのニューラルネットワークが、合成音声データ

と、学習用の真の音声データxとの距離を表す目的関数を最適化するように学習を行う。
As described below, the learning unit 30 receives a voice feature amount sequence f used for a vocoder and a true voice data x for learning obtained by voice analysis of the voice data x, and Synthesized speech data synthesized from sequence f

Is provided with a neural network as a generator for generating the synthesized speech data.

Learning is performed so as to optimize an objective function representing a distance from the real speech data x for learning.

学習部30は、まず、入力部10で受け付けた音声データxに対して、音声分析をすることによって、音声特徴量系列fを得る。ここで得た音声特徴量系列fに対して、元となる真の音声データxが生成されるようにニューラルネットワークを学習する。具体的には、音声特徴量系列fをニューラルネットワークに入力すると、合成音声データ

が出力されるが、真の音声データxと出力される合成音声データ

とを、ある距離指標に対して距離が最小化するように、ニューラルネットワークの重みを最適化すればよい。なお、ここで述べた距離指標とは、例えば最小二乗誤差などである。距離指標として最小二乗誤差の場合、目的関数Lは以下の(1)式で表される。
The learning unit 30 first obtains a voice feature amount sequence f by performing voice analysis on the voice data x received by the input unit 10. The neural network is learned so that the original true voice data x is generated for the voice feature amount sequence f obtained here. Specifically, when the speech feature amount sequence f is input to the neural network, the synthesized speech data

Is output, but the synthesized voice data is output as true voice data x.

The weight of the neural network may be optimized so that the distance is minimized for a certain distance index. The distance index described here is, for example, a least square error. For the minimum square error as a distance indicator, the objective function L 2 is expressed by the following equation (1).

・・・(1) ... (1)

図3に第1の実施の形態の学習処理の概念図を示す。   FIG. 3 is a conceptual diagram of the learning process according to the first embodiment.

上記(1)式の目的関数を最適化するように学習された生成器としてのニューラルネットワークはニューラルネットワーク記憶部40に記憶される。   The neural network as a generator that has been learned so as to optimize the objective function of the above equation (1) is stored in the neural network storage unit 40.

生成部50は、入力部10で受け付けた任意の音声特徴量系列fを、ニューラルネットワーク記憶部40に記憶されているニューラルネットワークに入力し、ニューラルネットワークから出力される、合成された合成音声データ

を、出力部90に出力する。
The generation unit 50 inputs an arbitrary speech feature amount sequence f received by the input unit 10 to a neural network stored in the neural network storage unit 40, and synthesizes synthesized speech data output from the neural network.

Is output to the output unit 90.

<本発明の第1の実施の形態に係る音声合成装置の作用> <Operation of the speech synthesizer according to the first embodiment of the present invention>

次に、本発明の第1の実施の形態に係る音声合成装置100の作用について説明する。音声合成装置100は、以下に説明する学習処理ルーチンと生成処理ルーチンを実行する。   Next, the operation of the speech synthesizer 100 according to the first embodiment of the present invention will be described. The speech synthesizer 100 executes a learning processing routine and a generation processing routine described below.

まず、学習処理ルーチンについて説明する。入力部10において学習データとして、人間の音声データxを受け付けると、音声合成装置100は、図4に示す学習処理ルーチンを実行する。   First, the learning processing routine will be described. When the input unit 10 receives human voice data x as learning data, the voice synthesizer 100 executes a learning processing routine shown in FIG.

まず、ステップS100では、入力部10で受け付けた音声データxを音声分析し、音声特徴量系列fを得る。   First, in step S100, the voice data x received by the input unit 10 is subjected to voice analysis to obtain a voice feature amount sequence f.

次に、ステップS102では、ステップS100で得た音声特徴量系列fと、入力部10で受け付けた音声データxとを入力とし、上記(1)式に従って、音声特徴量系列fから合成された合成音声データ

を生成する生成器としてのニューラルネットワークが、合成音声データ

と、音声データxとの距離を表す目的関数を最適化するように学習を行い、学習されたニューラルネットワークを、ニューラルネットワーク記憶部40に記憶して処理を終了する。
Next, in step S102, the speech feature amount sequence f obtained in step S100 and the speech data x received by the input unit 10 are input, and the speech feature amount sequence f is synthesized from the speech feature amount sequence f according to the above equation (1). Audio data

Neural network as a generator to generate

Then, learning is performed so as to optimize the objective function representing the distance from the voice data x, the learned neural network is stored in the neural network storage unit 40, and the process is terminated.

次に、生成処理ルーチンについて説明する。入力部10において合成音声データの生成対象となる任意の音声特徴量系列fを受け付けると、音声合成装置100は、図5に示す生成処理ルーチンを実行する。   Next, a generation processing routine will be described. When the input unit 10 receives an arbitrary voice feature amount sequence f for which synthetic voice data is to be generated, the voice synthesizer 100 executes a generation processing routine shown in FIG.

ステップS200では、入力部10で受け付けた任意の音声特徴量系列fを、ニューラルネットワーク記憶部40に記憶されているニューラルネットワークに入力し、ニューラルネットワークから出力される、合成された合成音声データ

を、出力部90に出力して処理を終了する。
In step S200, an arbitrary speech feature amount sequence f received by the input unit 10 is input to a neural network stored in the neural network storage unit 40, and synthesized speech data output from the neural network is synthesized.

Is output to the output unit 90, and the process ends.

以上説明したように、本発明の第1の実施の形態に係る音声合成装置によれば、音声特徴量系列fと、学習用の真の音声データxとを入力として、上記(1)式に従って、音声特徴量系列fから合成された合成音声データ

を生成する生成器としてのニューラルネットワークが、合成音声データ

と、学習用の真の音声データxとの距離を表す目的関数を最適化するように学習を行うことにより、より自然な音声を合成することができるニューラルネットワークを学習できる。
As described above, according to the speech synthesizer according to the first embodiment of the present invention, the speech feature amount sequence f and the true speech data x for learning are input, and the speech feature sequence f is calculated according to the above equation (1). Synthesized speech data synthesized from the speech feature amount sequence f

Neural network as a generator to generate

Then, learning is performed so as to optimize an objective function indicating a distance from the true speech data x for learning, whereby a neural network capable of synthesizing a more natural speech can be learned.

また、学習したニューラルネットワークを用いて音声を合成することにより、音声特徴量系列から、より自然な音声を合成することができる。   Further, by synthesizing speech using the learned neural network, a more natural speech can be synthesized from the speech feature amount sequence.

<本発明の第2の実施の形態に係る概要> <Overview according to Second Embodiment of the Present Invention>

次に、本発明の第2の実施の形態における概要を説明する。   Next, an outline of the second embodiment of the present invention will be described.

第1の実施の形態は、声を音声特徴量系列のみから再現するものであったが、第2の実施の形態では、ニューラルネットワークの入力として、新たに自然性成分を加えることによって、音声の自然さを表現する。処理の概念図を図6に示す。なお、ここで述べた音声特徴量系列は、音声分析によって得られたものであるが、自然性成分は、それとは独立に与えるもの(例えば、乱数)である。   In the first embodiment, the voice is reproduced only from the speech feature amount sequence. However, in the second embodiment, the speech is reproduced by adding a new natural component as an input to the neural network. Express nature. FIG. 6 shows a conceptual diagram of the processing. Note that the speech feature amount series described here is obtained by speech analysis, but the natural component is given independently (for example, a random number).

<本発明の第2の実施の形態に係る音声合成装置の構成> <Configuration of Speech Synthesis Device According to Second Embodiment of the Present Invention>

次に、本発明の第2の実施の形態に係る音声合成装置の構成について説明する。なお、第1の実施の形態と同様となる箇所については同一符号を付して説明を省略する。   Next, the configuration of a speech synthesizer according to a second embodiment of the present invention will be described. The same parts as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.

図7に示すように、本発明の第2の実施の形態に係る音声合成装置200は、CPUと、RAMと、後述する学習処理ルーチン及び生成処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この音声合成装置200は、機能的には図7に示すように入力部10と、演算部220と、出力部90とを備えている。   As shown in FIG. 7, the speech synthesizer 200 according to the second embodiment of the present invention stores a CPU, a RAM, a program for executing a learning processing routine and a generation processing routine described below, and various data. And a computer including the ROM. The speech synthesizer 200 functionally includes the input unit 10, the arithmetic unit 220, and the output unit 90 as shown in FIG.

演算部220は、学習部230と、ニューラルネットワーク記憶部40と、生成部250とを含んで構成されている。   The operation unit 220 includes a learning unit 230, a neural network storage unit 40, and a generation unit 250.

学習部230は、以下に説明するように、音声データxを音声分析して得た、ボコーダに用いられる音声特徴量系列fと、予め与えられた自然性成分zと、学習用の真の音声データxとを入力とし、音声特徴量系列fから、合成された合成音声データ

(合成音声信号又は合成音声スペクトル系列)を生成する生成器としてのニューラルネットワークと、合成音声データ

が、真の音声データと同一の分布に従うか否かを識別する識別器としてのニューラルネットワークとを備え、生成器としてのニューラルネットワークと、識別器としてのニューラルネットワークとが、互いに競合する最適化条件に従って学習を行う。
As described below, the learning unit 230 performs a voice analysis on the voice data x and obtains a voice feature amount sequence f used for a vocoder, a given natural component z, and a real voice for learning. Data x is input and synthesized speech data synthesized from the speech feature amount series f.

A neural network as a generator for generating (synthesized speech signal or synthesized speech spectrum sequence), and synthesized speech data

Has a neural network as a discriminator for discriminating whether or not it follows the same distribution as the true voice data, and a neural network as a generator and a neural network as a discriminator compete with each other in an optimization condition. Learn according to.

学習部230は、まず、入力部10で受け付けた音声データxに対して、音声特徴量系列fを得る。ここで得た音声特徴量系列fと、自然性成分zと、学習用の真の音声データxとに基づいて、元となる真の音声データxが生成されるように生成器としてのニューラルネットワークを学習する。なお、ここで音声特徴量系列fについては、一部を変形したものを用いても良い。具体的には、音声特徴量系列の代表的なものの一つとして、基本周波数があるが、これをランダムに定数倍したものを用いても良い。また、自然性成分zは、ある分布(例えば、一様分布)に従って生成した乱数である。   The learning unit 230 first obtains a voice feature amount sequence f for the voice data x received by the input unit 10. A neural network as a generator such that the original true speech data x is generated based on the speech feature amount sequence f obtained here, the natural component z, and the true speech data x for learning. To learn. Here, the voice feature amount series f may be partially modified. Specifically, there is a fundamental frequency as one of the representative speech feature quantity sequences, but a fundamental frequency may be randomly multiplied by a constant. The natural component z is a random number generated according to a certain distribution (for example, a uniform distribution).

また、真の音声データxと、生成器としてのニューラルネットワークにより生成される合成音声データ

とに基づいて、合成音声データが真の音声データであるか否かを識別する識別器としてのニューラルネットワークを学習する。この識別器としてのニューラルネットワークは、入力された合成音声データが真のものであるか合成されたものであるかの識別を行い、その結果を出力するものである。
Also, true voice data x and synthetic voice data generated by a neural network as a generator

, A neural network as a discriminator for discriminating whether or not the synthesized speech data is true speech data is learned. The neural network as this discriminator discriminates whether the input synthesized speech data is true or synthesized, and outputs the result.

本実施の形態では、生成器としてのニューラルネットワーク、及び識別器としてのニューラルネットワークの評価関数を以下(2)式に従って最適化する。(2)式で、Gは生成器(Generator)を表し、Dは識別器(Discriminator)を表す。(2)式では、識別器は、真の音声と合成音声をなるべく識別できるように、評価関数を最大化し、一方で、生成器は、合成音声をなるべく識別器が真の音声と識別するように、評価関数を最小化する。識別器と生成器が競争をしながら最適化が進む。   In the present embodiment, the evaluation functions of the neural network as the generator and the neural network as the discriminator are optimized according to the following equation (2). In the equation (2), G represents a generator, and D represents a discriminator. In equation (2), the discriminator maximizes the evaluation function so as to be able to discriminate between the true speech and the synthesized speech as much as possible, while the generator makes the discriminator discriminate the synthesized speech from the true speech as much as possible. Then, the evaluation function is minimized. Optimization proceeds while the discriminator and the generator compete.

・・・(2) ... (2)

図8に第2の実施の形態の学習処理の概念図を示す。   FIG. 8 is a conceptual diagram of the learning process according to the second embodiment.

上記(2)式の評価関数を最適化するように学習された、生成器としてのニューラルネットワーク及び識別器としてのニューラルネットワークはニューラルネットワーク記憶部40に記憶される。   The neural network as a generator and the neural network as a discriminator, which have been learned to optimize the evaluation function of the above equation (2), are stored in the neural network storage unit 40.

なお、以下(3)式のように、音声特徴量系列fも考慮した識別器(Discriminator)を用いた評価関数を最適化するように、生成器としてのニューラルネットワーク及び識別器としてのニューラルネットワークを学習しても良い。   It should be noted that a neural network as a generator and a neural network as a discriminator are optimized so as to optimize an evaluation function using a discriminator (Discriminator) that also considers a speech feature amount sequence f as in the following equation (3). You may learn.

・・・(3) ... (3)

また、ニューラルネットワークを学習するときに、第1の実施の形態の手法を用いて、生成器としてのニューラルネットワークをPre-trainingしてもよい。   When learning a neural network, the neural network as a generator may be pre-trained using the method of the first embodiment.

生成部250は、入力部10で受け付けた任意の音声特徴量系列fと、予め与えられた自然性成分zとを、ニューラルネットワーク記憶部40に記憶されているニューラルネットワークに入力し、ニューラルネットワークから出力される、合成された合成音声データ

を、出力部90に出力する。
The generation unit 250 inputs an arbitrary speech feature amount sequence f received by the input unit 10 and a natural component z given in advance to a neural network stored in the neural network storage unit 40. Output synthesized speech data

Is output to the output unit 90.

<本発明の第2の実施の形態に係る音声合成装置の作用> <Operation of the speech synthesizer according to the second embodiment of the present invention>

次に、本発明の第2の実施の形態に係る音声合成装置200の作用について説明する。音声合成装置200は、以下に説明する学習処理ルーチンと生成処理ルーチンを実行する。   Next, the operation of the speech synthesizer 200 according to the second embodiment of the present invention will be described. The speech synthesizer 200 executes a learning processing routine and a generation processing routine described below.

まず、学習処理ルーチンについて説明する。入力部10において学習データとして、人間の音声データxを受け付けると、音声合成装置200は、上記図4に示す学習処理ルーチンを実行する。   First, the learning processing routine will be described. When the input unit 10 receives human voice data x as learning data, the voice synthesizer 200 executes the learning processing routine shown in FIG.

第2の実施の形態の学習処理ルーチンでは、ステップS102において、ステップS100で得られた音声特徴量系列fと、予め与えられた自然性成分zと、入力部10により受け付けた音声データxとを入力とし、上記(2)式に従って、生成器としてのニューラルネットワークと、識別器としてのニューラルネットワークとが、互いに競合する最適化条件に従って学習を行い、学習されたニューラルネットワークを、ニューラルネットワーク記憶部40に記憶して処理を終了する。   In the learning processing routine according to the second embodiment, in step S102, the speech feature amount sequence f obtained in step S100, the natural component z given in advance, and the speech data x received by the input unit 10 are used. As inputs, the neural network as a generator and the neural network as a discriminator perform learning according to mutually competing optimization conditions in accordance with the above equation (2), and store the learned neural network in a neural network storage unit 40. And the process ends.

第2の実施の形態の生成処理ルーチンでは、上記図5に示すように、ステップS200において、入力部10で受け付けた任意の音声特徴量系列fと、予め与えられた自然性成分zとを、ニューラルネットワーク記憶部40に記憶されているニューラルネットワークに入力し、ニューラルネットワークから出力される、合成された合成音声データ

を、出力部90に出力して処理を終了する。
In the generation processing routine according to the second embodiment, as shown in FIG. 5 described above, in step S200, an arbitrary speech feature amount sequence f received by the input unit 10 and a natural component z given in advance are calculated. Synthesized synthesized speech data input to the neural network stored in the neural network storage unit 40 and output from the neural network

Is output to the output unit 90, and the process ends.

以上説明したように、本発明の第2の実施の形態に係る音声合成装置によれば、音声特徴量系列fと、自然性成分zと、学習用の真の音声データxとを入力とし、上記(2)式に従って、音声特徴量系列fから合成された合成音声データ

を生成する生成器としてのニューラルネットワークと、合成音声データ

が、真の音声データxと同一の分布に従うか否かを識別する識別器としてのニューラルネットワークとが、互いに競合する最適化条件に従って学習を行うことにより、より自然な音声を合成することができるニューラルネットワークを学習できる。
As described above, according to the speech synthesizer according to the second embodiment of the present invention, the speech feature amount sequence f, the natural component z, and the true speech data x for learning are input, Synthesized speech data synthesized from the speech feature amount sequence f according to the above equation (2)

Neural network as a generator for generating speech and synthesized speech data

However, a neural network as a discriminator for discriminating whether or not it follows the same distribution as the true speech data x performs learning according to mutually competing optimization conditions, so that a more natural speech can be synthesized. Learn neural networks.

また、学習した生成器としてのニューラルネットワークを用いて音声を合成することにより、より自然な音声を合成することができる。   Further, by synthesizing speech using a neural network as a learned generator, a more natural speech can be synthesized.

<本発明の第3の実施の形態に係る概要> <Overview according to Third Embodiment of the Present Invention>

次に、本発明の第3の実施の形態における概要を説明する。   Next, an outline of a third embodiment of the present invention will be described.

第1及び第2の実施の形態は、音声特徴量系列と高音質音声の間のマッピングを行うものであり、既存のボコーダの代わりになる技術である。一方、第3の実施の形態は、音声特徴量系列から一度合成した音声と高品質音声の間のマッピングを行う方法である。ここで、音声特徴量系列から一度音声を合成するためには、既存のボコーダ、あるいは、第1及び第2の実施の形態を用いれば良い。処理の概念図を図9に示す。   The first and second embodiments perform mapping between a speech feature amount sequence and high-quality sound speech, and are techniques that can replace an existing vocoder. On the other hand, the third embodiment is a method of performing mapping between speech once synthesized from a speech feature amount sequence and high quality speech. Here, in order to synthesize speech once from the speech feature amount sequence, an existing vocoder or the first and second embodiments may be used. FIG. 9 shows a conceptual diagram of the processing.

音声特徴量系列が与えられると、まずボコーダ、あるいは、第1又は第2の実施の形態の手法で学習した生成器としてのニューラルネットワークを用いることによって中間音声信号を得る。この中間音声信号を、ニューラルネットワークに入力し、変換することによって、目的となる音声データを得る。   When a speech feature amount sequence is given, an intermediate speech signal is obtained by using a vocoder or a neural network as a generator learned by the method of the first or second embodiment. The intermediate audio signal is input to a neural network and converted to obtain target audio data.

<本発明の第3の実施の形態に係る音声合成装置の構成> <Configuration of Speech Synthesis Device According to Third Embodiment of the Present Invention>

次に、本発明の第3の実施の形態に係る音声合成装置の構成について説明する。なお、第2の実施の形態と同様となる箇所については同一符号を付して説明を省略する。   Next, the configuration of a speech synthesizer according to a third embodiment of the present invention will be described. The same parts as those in the second embodiment are denoted by the same reference numerals, and description thereof is omitted.

図10に示すように、本発明の第3の実施の形態に係る音声合成装置300は、CPUと、RAMと、後述する学習処理ルーチン及び生成処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この音声合成装置300は、機能的には図10に示すように入力部10と、演算部320と、出力部90とを備えている。   As shown in FIG. 10, the speech synthesizer 300 according to the third embodiment of the present invention stores a CPU, a RAM, a program for executing a learning processing routine and a generation processing routine described below, and various data. And a computer including the ROM. The speech synthesizer 300 functionally includes the input unit 10, the arithmetic unit 320, and the output unit 90 as shown in FIG.

演算部320は、学習部330と、ニューラルネットワーク記憶部40と、中間音声変換部332と、生成部350とを含んで構成されている。   The calculation unit 320 includes a learning unit 330, a neural network storage unit 40, an intermediate voice conversion unit 332, and a generation unit 350.

学習部330は、以下に説明するように、音声データxを音声分析して得た音声特徴量系列から音声を合成して得た、中間音声データx’(中間音声信号又は中間音声スペクトル系列)と、自然性成分zと、学習用の真の音声データxとを入力とし、中間音声データx’から、合成された合成音声データ

を生成する生成器としてのニューラルネットワークを備え、生成器としてのニューラルネットワークが、合成音声データ

と、学習用の真の音声データxとの距離を表す目的関数を最適化するように学習を行う。
As described below, the learning unit 330 synthesizes the speech from the speech feature amount sequence obtained by speech analysis of the speech data x, and obtains the intermediate speech data x ′ (intermediate speech signal or intermediate speech spectrum sequence). , A natural component z, and true speech data x for learning, and synthesized speech data synthesized from the intermediate speech data x ′.

Is provided with a neural network as a generator for generating the synthesized speech data.

Learning is performed so as to optimize an objective function representing a distance from the real audio data x for learning.

学習部330は、まず、入力部10で受け付けた音声データxに対して、音声特徴量系列fを得る。ここで得た音声特徴量系列fと、自然性成分zとを、上記第2の実施の形態と同様に学習された生成器としてのニューラルネットワークに入力することによって中間音声データx’を得る。そして、中間音声データx’に対して、元となる真の音声データxが生成されるように生成器としてのニューラルネットワークを学習する。具体的には、中間音声データx’をニューラルネットワークに入力すると、音声データ

が出力されるが、真の音声データxと出力される合成音声データ

とを、ある距離指標に対して距離が最小化するように、ニューラルネットワークの重みを最適化すればよい。なお、ここで述べた距離指標とは、例えば最小二乗誤差などである。距離指標として最小二乗誤差の場合、目的関数Lは以下の(1)式で表される。
The learning unit 330 first obtains a voice feature amount sequence f for the voice data x received by the input unit 10. The speech feature quantity sequence f and the natural component z obtained here are input to a neural network as a generator trained in the same manner as in the second embodiment to obtain intermediate speech data x '. Then, a neural network as a generator is learned with respect to the intermediate audio data x 'such that the original true audio data x is generated. Specifically, when the intermediate audio data x ′ is input to the neural network, the audio data

Is output, but the synthesized voice data is output as true voice data x.

The weight of the neural network may be optimized so that the distance is minimized for a certain distance index. The distance index described here is, for example, a least square error. For the minimum square error as a distance indicator, the objective function L 2 is expressed by the following equation (1).

・・・(4) ... (4)

図11に第3の実施の形態の学習処理の概念図を示す。   FIG. 11 is a conceptual diagram of the learning process according to the third embodiment.

上記(4)式の目的関数を最適化するように学習された生成器としてのニューラルネットワークはニューラルネットワーク記憶部40に記憶される。   The neural network as a generator that has been learned so as to optimize the objective function of the above equation (4) is stored in the neural network storage unit 40.

中間音声変換部332は、入力部10で受け付けた任意の音声特徴量系列fを、第2の実施の形態のニューラルネットワーク(図示省略)に入力することによって中間音声データx’(中間音声信号又は中間音声スペクトル系列)を得る。   The intermediate voice conversion unit 332 inputs an arbitrary voice feature amount sequence f received by the input unit 10 to the neural network (not shown) of the second embodiment, thereby generating intermediate voice data x ′ (an intermediate voice signal or Intermediate speech spectrum sequence).

生成部350は、中間音声変換部332によって得られた中間音声データx’を、ニューラルネットワーク記憶部40に記憶されているニューラルネットワークに入力し、合成された合成音声データ

を出力部90に出力する。
The generation unit 350 inputs the intermediate voice data x ′ obtained by the intermediate voice conversion unit 332 to the neural network stored in the neural network storage unit 40, and synthesizes the synthesized voice data.

Is output to the output unit 90.

<本発明の第3の実施の形態に係る音声合成装置の作用> <Operation of the speech synthesizer according to the third embodiment of the present invention>

次に、本発明の第3の実施の形態に係る音声合成装置300の作用について説明する。音声合成装置300は、以下に説明する学習処理ルーチンと生成処理ルーチンを実行する。   Next, the operation of the speech synthesizer 300 according to the third embodiment of the present invention will be described. The speech synthesizer 300 executes a learning processing routine and a generation processing routine described below.

まず、学習処理ルーチンについて説明する。入力部10において学習データとして、人間の音声データxを受け付けると、音声合成装置300は、図12に示す学習処理ルーチンを実行する。   First, the learning processing routine will be described. When the input unit 10 receives human voice data x as learning data, the voice synthesizer 300 executes a learning process routine shown in FIG.

まず、ステップS300では、入力部10で受け付けた音声データxを音声分析し、音声特徴量系列fを得る。   First, in step S300, the voice data x received by the input unit 10 is voice-analyzed to obtain a voice feature amount sequence f.

次に、ステップS302では、ステップS300で得た音声特徴量系列fと、自然性成分zと、入力部10で受け付けた音声データxとを入力とし、第2の実施の形態と同様に学習された生成器としてのニューラルネットワークに入力することによって中間音声データx’(中間音声信号又は中間音声スペクトル系列)を得る。   Next, in step S302, the speech feature amount sequence f obtained in step S300, the natural component z, and the speech data x received by the input unit 10 are input, and learning is performed in the same manner as in the second embodiment. The intermediate speech data x '(intermediate speech signal or intermediate speech spectrum sequence) is obtained by inputting the signal to a neural network as a generator.

ステップS304では、ステップS302で得た、中間音声データx’と、入力部10で受け付けた音声データxとを入力とし、上記(4)式に従って、中間音声データx’から合成された合成音声データ

を生成する生成器としてのニューラルネットワークが、目的関数を最適化するように学習を行い、学習されたニューラルネットワークを、ニューラルネットワーク記憶部40に記憶して処理を終了する。
In step S304, the intermediate voice data x 'obtained in step S302 and the voice data x received by the input unit 10 are input, and the synthesized voice data synthesized from the intermediate voice data x' according to the above equation (4).

The neural network as a generator for generating the learning performs learning so as to optimize the objective function, stores the learned neural network in the neural network storage unit 40, and ends the processing.

次に、生成処理ルーチンについて説明する。入力部10において合成音声データの生成対象となる任意の音声特徴量系列fを受け付けると、音声合成装置300は、図13に示す生成処理ルーチンを実行する。   Next, a generation processing routine will be described. When the input unit 10 receives an arbitrary voice feature amount sequence f for which synthetic voice data is to be generated, the voice synthesizer 300 executes a generation processing routine shown in FIG.

ステップS400では、入力部10で受け付けた任意の音声特徴量系列fを、第2の実施の形態と同様に学習された生成器としてのニューラルネットワーク(図示省略)に入力することによって中間音声データx’を得る。   In step S400, an arbitrary speech feature amount sequence f received by the input unit 10 is input to a neural network (not shown) as a learned generator in the same manner as in the second embodiment, so that the intermediate speech data x Get '.

ステップS402では、ステップS400で得た中間音声データx’を、ニューラルネットワーク記憶部40に記憶されているニューラルネットワークに入力し、合成された合成音声データ

を出力部90に出力して処理を終了する。
In step S402, the intermediate voice data x 'obtained in step S400 is input to the neural network stored in the neural network storage unit 40, and the synthesized voice data is synthesized.

Is output to the output unit 90, and the process ends.

以上説明したように、本発明の第3の実施の形態に係る音声合成装置によれば、音声特徴量系列から音声を合成して得た、中間音声データx’と、学習用の真の音声データとを入力とし、上記(4)式に従って、中間音声データx’から合成された合成音声データ

を生成する生成器としてのニューラルネットワークが、目的関数を最適化するように学習を行うことにより、より自然な音声を合成することができるニューラルネットワークを学習できる。
As described above, according to the speech synthesizer according to the third embodiment of the present invention, the intermediate speech data x ′ obtained by synthesizing speech from the speech feature amount sequence and the true speech for learning are used. And the synthesized speech data synthesized from the intermediate speech data x ′ according to the above equation (4).

The neural network as a generator for generating the learning can perform learning so as to optimize the objective function, thereby learning a neural network capable of synthesizing a more natural speech.

また、学習したニューラルネットワークを用いて音声を合成することにより、より自然な音声を合成することができる。   Further, by synthesizing speech using the learned neural network, a more natural speech can be synthesized.

なお、中間音声データに変換するために、第2の実施の形態と同様に学習されたニューラルネットワークを用いる場合を例に説明したが、これに限定されるものではなく、ボコーダ、あるいは、第1の実施の形態と同様に学習されたニューラルネットワークを用いて、音声特徴量系列を、中間音声データに変換するようにしてもよい。   Note that the case where a neural network trained in the same manner as in the second embodiment is used for conversion to intermediate voice data has been described as an example, but the present invention is not limited to this, and a vocoder or a first vocoder may be used. A speech feature amount sequence may be converted to intermediate speech data using a neural network learned in the same manner as in the embodiment.

また、中間音声データに変換するために、第1又は第2の実施の形態と同様に学習されたニューラルネットワークを用いた場合には、本実施の形態における学習処理を行った後、学習されたニューラルネットワークをPre-trainingとみなして、全体のニューラルネットワークを改めて最適化するようにしてもよい。   When a neural network that has been trained in the same manner as in the first or second embodiment is used to convert to intermediate voice data, the learning process is performed after the learning process in this embodiment is performed. The neural network may be regarded as pre-training, and the entire neural network may be optimized again.

<本発明の第4の実施の形態に係る概要> <Overview according to Fourth Embodiment of the Present Invention>

次に、本発明の第4の実施の形態における概要を説明する。   Next, an outline of a fourth embodiment of the present invention will be described.

第3の実施の形態は、中間音声データから自然な音声へ直接変換するものであったが、第4実施の形態は、中間音声データに自然性成分を加えて本物らしい音声に変換するものである。処理の概念図を図14に示す。なお、ここで述べた自然性成分は、合成音声とは独立に与えるもの(例えば、乱数)である。   In the third embodiment, intermediate sound data is directly converted into natural sound. In the fourth embodiment, natural sound components are added to the intermediate sound data to convert the sound into genuine sound. is there. FIG. 14 shows a conceptual diagram of the processing. The natural component described here is given independently of the synthesized speech (for example, a random number).

<本発明の第4の実施の形態に係る音声合成装置の構成> <Configuration of Speech Synthesis Device According to Fourth Embodiment of the Present Invention>

次に、本発明の第4の実施の形態に係る音声合成装置の構成について説明する。なお、第3の実施の形態と同様となる箇所については同一符号を付して説明を省略する。   Next, the configuration of a speech synthesizer according to a fourth embodiment of the present invention will be described. The same parts as those in the third embodiment are denoted by the same reference numerals, and description thereof is omitted.

図15に示すように、本発明の第4の実施の形態に係る音声合成装置400は、CPUと、RAMと、後述する学習処理ルーチン及び生成処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この音声合成装置400は、機能的には図15に示すように入力部10と、演算部420と、出力部90とを備えている。   As shown in FIG. 15, the speech synthesizer 400 according to the fourth embodiment of the present invention stores a CPU, a RAM, a program for executing a learning process routine and a generation process routine described later, and various data. And a computer including the ROM. The speech synthesizer 400 functionally includes the input unit 10, the operation unit 420, and the output unit 90 as shown in FIG.

演算部420は、学習部430と、ニューラルネットワーク記憶部40と、中間音声変換部332と、生成部450とを含んで構成されている。   The calculation unit 420 includes a learning unit 430, a neural network storage unit 40, an intermediate speech conversion unit 332, and a generation unit 450.

学習部430は、以下に説明するように、音声データxを音声分析して得た音声特徴量系列から音声を合成して得た、中間音声データx’(中間音声信号又は中間音声スペクトル系列)と、中間音声データx’に対応する自然性成分zと、学習用の真の音声データxとを入力とし、中間音声データx’から、合成された合成音声データを生成する生成器としてのニューラルネットワークと、合成音声データ

が、真の音声データxと同一の分布に従うか否かを識別する識別器とを備え、生成器としてのニューラルネットワークと、識別器としてのニューラルネットワークとが、互いに競合する最適化条件に従って学習を行う。
The learning unit 430, as described below, synthesizes speech from a speech feature amount sequence obtained by speech analysis of the speech data x, and obtains intermediate speech data x ′ (intermediate speech signal or intermediate speech spectrum sequence). If, 'a natural component z 2 corresponding to, and inputs the true voice data x for learning, the intermediate audio data x' intermediate audio data x from as generator for generating a synthesized synthesized speech data Neural network and synthesized speech data

Comprises a discriminator for discriminating whether or not it follows the same distribution as the true voice data x. A neural network as a generator and a neural network as a discriminator perform learning according to mutually competing optimization conditions. Do.

学習部430は、まず、入力部10で受け付けた音声データxに対して、音声特徴量系列fを得る。ここで得た音声特徴量系列fと、音声特徴量系列fに対応する自然性成分zとを、上記第2の実施の形態と同様に学習された生成器としてのニューラルネットワークに入力することによって中間音声データx’を得る。ここで得た中間音声データx’と、自然性成分zと、学習用の真の音声データxとに基づいて、元となる真の音声データxが生成されるように生成器としてのニューラルネットワークを学習する。なお、ここで音声特徴量系列fについては、一部を変形したものを用いても良い。具体的には、音声特徴量系列の代表的なものの一つとして、基本周波数があるが、これをランダムに定数倍したものを用いても良い。また、自然性成分z及び自然性成分zは、ある分布(例えば、一様分布)に従って生成した乱数である。 The learning unit 430 first obtains a voice feature amount sequence f for the voice data x received by the input unit 10. Here the audio feature amount sequence f obtained, and a natural component z 1 corresponding to the audio feature amount sequence f, be entered into the neural network as a generator learned as in the second embodiment To obtain intermediate audio data x ′. An intermediate voice data x 'obtained here, the natural component z 2, based on the true voice data x for learning, neural as generator as true speech data x to be based is generated Learn the network. Here, the voice feature amount series f may be partially modified. Specifically, there is a fundamental frequency as one of the representative speech feature quantity sequences, but a fundamental frequency may be randomly multiplied by a constant. Also, the natural component z 1 and natural component z 2 are distributed (e.g., uniform distribution) a random number generated according to.

また、真の音声データxと、生成器としてのニューラルネットワークにより生成される合成音声データ

とに基づいて、真の音声データxと同一の分布に従うか否かを識別する識別器としてのニューラルネットワークを学習する。この識別器としてのニューラルネットワークは、入力された音声データが真のものであるか合成されたものであるかの識別を行い、その結果を出力するものである。
Also, true voice data x and synthetic voice data generated by a neural network as a generator

, A neural network as a discriminator for determining whether or not the distribution follows the same distribution as the true voice data x is learned. The neural network as the discriminator discriminates whether the input speech data is true or synthesized, and outputs the result.

本実施の形態では、生成器としてのニューラルネットワーク、及び識別器としてのニューラルネットワークの評価関数を、以下(5)式に従って最適化する。(5)式で、Gは生成器(Generator)を表し、Dは識別器(Discriminator)を表す。(5)式では、識別器は、真の音声と合成音声をなるべく識別できるように、評価関数を最大化し、一方で、生成器は、合成音声をなるべく識別器が真の音声と識別するように、評価関数を最小化する。識別器と生成器が競争をしながら最適化が進む。   In the present embodiment, the evaluation functions of the neural network as the generator and the neural network as the discriminator are optimized according to the following equation (5). In the equation (5), G represents a generator, and D represents a discriminator. In equation (5), the discriminator maximizes the evaluation function so as to be able to discriminate the true speech from the synthesized speech as much as possible, while the generator makes the discriminator discriminate the synthesized speech from the true speech as much as possible. Then, the evaluation function is minimized. Optimization proceeds while the discriminator and the generator compete.

・・・(5) ... (5)

図16に第4の実施の形態の学習処理の概念図を示す。   FIG. 16 shows a conceptual diagram of the learning processing according to the fourth embodiment.

上記(5)式の評価関数を最適化するように学習された、生成器としてのニューラルネットワーク及び識別器としてのニューラルネットワークはニューラルネットワーク記憶部40に記憶される。   The neural network as a generator and the neural network as a discriminator, which have been learned so as to optimize the evaluation function of the above equation (5), are stored in the neural network storage unit 40.

なお、以下(6)式のように、中間音声データx’も考慮した識別器(Discriminator)を用いた評価関数を最適化するように、生成器としてのニューラルネットワーク及び識別器としてのニューラルネットワークを学習しても良い。   It should be noted that a neural network as a generator and a neural network as a discriminator are optimized so as to optimize the evaluation function using a discriminator (Discriminator) in consideration of the intermediate voice data x ′ as in the following equation (6). You may learn.

・・・(6) ... (6)

また、ニューラルネットワークを学習するときに、第3の実施の形態の手法を用いて、生成器としてのニューラルネットワークをPre-trainingしてもよい。   When learning a neural network, the neural network as a generator may be pre-trained by using the method of the third embodiment.

生成部450は、中間音声変換部332によって得られた中間音声データx’と、予め与えられた自然性成分zとを、ニューラルネットワーク記憶部40に記憶されているニューラルネットワークに入力し、合成された合成音声データ

を出力部90に出力する。
Generating unit 450 includes an intermediate audio data x 'obtained by the intermediate voice conversion unit 332 inputs the natural component z 2 previously given, the neural network is stored in the neural network memory section 40, synthesis Synthesized speech data

Is output to the output unit 90.

<本発明の第4の実施の形態に係る音声合成装置の作用> <Operation of the speech synthesizer according to the fourth embodiment of the present invention>

次に、本発明の第4の実施の形態に係る音声合成装置400の作用について説明する。音声合成装置400は、以下に説明する学習処理ルーチンと生成処理ルーチンを実行する。   Next, the operation of the speech synthesizer 400 according to the fourth embodiment of the present invention will be described. The speech synthesizer 400 executes a learning processing routine and a generation processing routine described below.

まず、学習処理ルーチンについて説明する。入力部10において学習データとして、人間の音声データxを受け付けると、音声合成装置400は、上記図12に示す学習処理ルーチンを実行する。   First, the learning processing routine will be described. When the input unit 10 receives human voice data x as learning data, the voice synthesizer 400 executes the learning processing routine shown in FIG.

第4の実施の形態の学習処理ルーチンでは、ステップS304において、ステップS302で得られた中間音声データx’と、自然性成分zと、入力部10により受け付けた音声データxとを入力とし、上記(5)式に従って、生成器としてのニューラルネットワークと、識別器としてのニューラルネットワークとが、互いに競合する最適化条件に従って学習を行い、学習されたニューラルネットワークを、ニューラルネットワーク記憶部40に記憶して処理を終了する。 In the learning processing routine of the fourth embodiment, and in step S304, the intermediate audio data x 'obtained in step S302, the input and natural component z 2, and the audio data x accepted by the input unit 10, According to the above equation (5), the neural network as the generator and the neural network as the discriminator perform learning according to mutually competing optimization conditions, and store the learned neural network in the neural network storage unit 40. To end the processing.

第4の実施の形態の生成処理ルーチンでは、上記図13に示すように、ステップS402において、ステップS400で得た中間音声データx’と、自然性成分zとを、ニューラルネットワーク記憶部40に記憶されているニューラルネットワークに入力し、合成された合成音声データ

を出力部90に出力して処理を終了する。
The generation processing routine of the fourth embodiment, as shown in FIG. 13, in step S402, the intermediate audio data x 'obtained in step S400, a natural component z 2, the neural network memory section 40 Synthesized speech data input to the stored neural network and synthesized

Is output to the output unit 90, and the process ends.

第4の実施の形態の生成処理ルーチンは、第3の実施の形態と同様であるため説明を省略する。   The generation processing routine of the fourth embodiment is the same as that of the third embodiment, and a description thereof will not be repeated.

以上説明したように、本発明の第4の実施の形態に係る音声合成装置によれば、音声特徴量系列から音声を合成して得た、中間音声データx’と、自然性成分zと、学習用の真の音声データxとを入力とし、上記(5)式に従って、中間音声データx’から、合成された合成音声データ

を生成する生成器としてのニューラルネットワークと、合成音声データ

が、真の音声データxと同一の分布に従うか否かを識別する識別器としてのニューラルネットワークとが、互いに競合する最適化条件に従って学習を行うことにより、より自然な音声を合成することができるニューラルネットワークを学習できる。
As described above, according to the speech synthesizer according to the fourth embodiment of the present invention, the intermediate speech data x ′ obtained by synthesizing the speech from the speech feature amount sequence, the natural component z 2 , , Real speech data x for learning, and synthesized speech data synthesized from the intermediate speech data x ′ according to the above equation (5).

Neural network as a generator for generating speech and synthesized speech data

However, a neural network as a discriminator for discriminating whether or not it follows the same distribution as the true speech data x performs learning according to mutually competing optimization conditions, so that a more natural speech can be synthesized. Learn neural networks.

また、学習した生成器としてのニューラルネットワークを用いて音声を合成することにより、より自然な音声を合成することができる。   Further, by synthesizing speech using a neural network as a learned generator, a more natural speech can be synthesized.

なお、中間音声データに変換するために、第2の実施の形態と同様に学習されたニューラルネットワークを用いる場合を例に説明したが、これに限定されるものではなく、ボコーダ、あるいは、第1の実施の形態と同様に学習されたニューラルネットワークを用いて、音声特徴量系列を、中間音声データに変換するようにしてもよい。   Note that the case where a neural network trained in the same manner as in the second embodiment is used for conversion to intermediate voice data has been described as an example, but the present invention is not limited to this, and a vocoder or a first vocoder may be used. A speech feature amount sequence may be converted to intermediate speech data using a neural network learned in the same manner as in the embodiment.

また、中間音声データに変換するために、第1又は第2の実施の形態と同様に学習されたニューラルネットワークを用いた場合には、本実施の形態における学習処理を行った後、学習されたニューラルネットワークをPre-trainingとみなして、全体のニューラルネットワークを改めて最適化するようにしてもよい。   When a neural network that has been trained in the same manner as in the first or second embodiment is used to convert the data into intermediate voice data, the learning process is performed after the learning process in this embodiment is performed. The neural network may be regarded as pre-training, and the entire neural network may be optimized again.

<本発明の第5の実施の形態に係る概要> <Overview according to Fifth Embodiment of the Present Invention>

次に、本発明の第5の実施の形態における概要を説明する。   Next, an outline of a fifth embodiment of the present invention will be described.

第1〜第4の実施の形態で用いる音声特徴量系列としては、例えば、既存の音声分析によって得られるものを使うこともできるが、ニューラルネットワークによって得られた音声特徴量系列を入力として用いることもできる。なぜなら、第1〜第4の実施の形態は、データドリブンに音声特徴量系列と音声信号のマッピングを学習するものであるからである。   As the speech feature sequence used in the first to fourth embodiments, for example, a speech feature sequence obtained by existing speech analysis can be used, but a speech feature sequence obtained by a neural network is used as an input. Can also. This is because the first to fourth embodiments learn the mapping of the audio feature amount sequence and the audio signal in a data-driven manner.

<本発明の第5の実施の形態に係る音声合成装置の構成> <Configuration of Speech Synthesis Device According to Fifth Embodiment of the Present Invention>

次に、本発明の第5の実施の形態に係る音声合成装置の構成について説明する。なお、第2の実施の形態と同様の構成となる箇所については同一符号を付して説明を省略する。   Next, the configuration of a speech synthesizer according to a fifth embodiment of the present invention will be described. Note that portions having the same configuration as in the second embodiment are denoted by the same reference numerals, and description thereof is omitted.

図18に示すように、本発明の第5の実施の形態に係る音声合成装置500は、CPUと、RAMと、後述する学習処理ルーチン及び生成処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この音声合成装置500は、機能的には図18に示すように入力部510と、演算部520と、出力部90とを備えている。   As shown in FIG. 18, the speech synthesizer 500 according to the fifth embodiment of the present invention stores a CPU, a RAM, a program for executing a learning processing routine and a generation processing routine described below, and various data. And a computer including the ROM. This speech synthesizer 500 functionally includes an input unit 510, a calculation unit 520, and an output unit 90 as shown in FIG.

入力部510は、学習データとして、人間の音声データxを受け付ける。また、入力部510は、合成音声データの生成対象となる任意の音声データを受け付ける。   The input unit 510 receives human voice data x as learning data. Further, input unit 510 accepts arbitrary audio data to be a target of generating synthetic audio data.

演算部520は、音声特徴量生成部528と、学習部530と、ニューラルネットワーク記憶部40と、音声特徴量変換部532と、生成部250とを含んで構成されている。   The calculation unit 520 is configured to include a voice feature value generation unit 528, a learning unit 530, the neural network storage unit 40, a voice feature value conversion unit 532, and a generation unit 250.

音声特徴量生成部528は、入力部510で受け付けた音声データxを、予め学習されたニューラルネットワークであるAuto Encoderに入力し、Auto Encoderから出力された音声特徴量系列fを学習部530に出力する。ここで用いるニューラルネットワークは、予め学習したVariational Auto Encoderであってもよい。   The audio feature generation unit 528 inputs the audio data x received by the input unit 510 to an Auto Encoder, which is a neural network that has been learned in advance, and outputs the audio feature sequence f output from the Auto Encoder to the learning unit 530. I do. The neural network used here may be a previously learned Variational Auto Encoder.

学習部530は、音声特徴量生成部528から出力された音声特徴量系列fと、自然性成分zと、学習用の真の音声データxとを入力とし、音声特徴量系列fから、合成された合成音声データを生成する生成器としてのニューラルネットワークと、合成音声データ

が、真の音声データxと同一の分布に従うか否かを識別する識別器としてのニューラルネットワークとを備え、第2の実施の形態と同様の処理によって生成器としてのニューラルネットワークと、識別器としてのニューラルネットワークとが、互いに競合する最適化条件に従って学習を行うようにすればよい。
The learning unit 530 receives the speech feature amount sequence f output from the speech feature amount generation unit 528, the naturalness component z, and the true speech data x for learning, and is synthesized from the speech feature amount sequence f. Neural network as a generator for generating synthesized speech data, and synthesized speech data

Has a neural network as a discriminator for discriminating whether or not it follows the same distribution as the true voice data x, and a neural network as a generator and a discriminator as a discriminator by the same processing as in the second embodiment. May be learned in accordance with optimization conditions that compete with each other.

図15に第5の実施の形態の学習処理の概念図を示す。   FIG. 15 shows a conceptual diagram of the learning processing according to the fifth embodiment.

音声特徴量生成部532は、入力部510で受け付けた合成音声データの生成対象となる任意の音声データを、音声特徴量生成部528と同様に、予め学習されたニューラルネットワークであるAuto Encoderに入力し、Auto Encoderから出力された音声特徴量系列fを生成部250に出力する。   Like the speech feature generation unit 528, the speech feature generation unit 532 inputs arbitrary speech data to be subjected to generation of the synthesized speech data received by the input unit 510 to the Auto Encoder which is a pre-trained neural network. Then, the audio feature amount sequence f output from the Auto Encoder is output to the generation unit 250.

なお、第5の実施の形態の他の構成は、第2の実施の形態と同様となるため説明を省略する。   Note that the other configuration of the fifth embodiment is the same as that of the second embodiment, and a description thereof will not be repeated.

また、第5の実施の形態において、学習部530は、第2の実施の形態と同様の処理を行う場合について説明したが、これに限定されるものではない。例えば、学習部530は、音声特徴量生成部528から出力された音声特徴量系列fと、学習用の真の音声データxとを入力とし、第1の実施の形態と同様の処理によって、生成器としてのニューラルネットワークを学習するようにしてもよい。また、音声特徴量生成部528から出力された音声特徴量系列fから、第3の実施の形態と同様の処理によって中間音声データx’を得て、得られた中間音声データx’と、学習用の真の音声データxとを入力とし、生成器としてのニューラルネットワークを学習するようにしてもよい。また、音声特徴量生成部528から出力された音声特徴量系列fと、自然性成分zとから、第4の実施の形態と同様の処理によって中間音声データx’を得て、得られた中間音声データx’と、自然性成分zと、学習用の真の音声データxとを入力とし、生成器としてのニューラルネットワーク、又は、生成器及び識別器としてのニューラルネットワークを学習するようにしてもよい。 Further, in the fifth embodiment, the case where the learning unit 530 performs the same processing as that of the second embodiment has been described, but the present invention is not limited to this. For example, the learning unit 530 receives the speech feature amount sequence f output from the speech feature amount generation unit 528 and the true speech data x for learning, and generates the same by the same processing as in the first embodiment. A neural network as a vessel may be learned. Further, from the audio feature amount sequence f output from the audio feature amount generation unit 528, the intermediate audio data x 'is obtained by the same processing as in the third embodiment, and the obtained intermediate audio data x' and learning May be used as input, and a neural network as a generator may be learned. Further, the audio feature amount sequence f output from the audio feature amount generating unit 528, from the natural components z 1 Prefecture, to obtain intermediate speech data x 'by the fourth same processing as the embodiment of the resulting an intermediate voice data x ', a natural component z 2, and inputs the real audio data x for training the neural network as a generator, or a neural network as a generator and classifier so as to learn You may.

<本発明の第5の実施の形態に係る音声合成装置の作用> <Operation of Speech Synthesis Device According to Fifth Embodiment of the Present Invention>

次に、本発明の第5の実施の形態に係る音声合成装置500の作用について説明する。音声合成装置500は、以下に説明する学習処理ルーチンと生成処理ルーチンを実行する。なお、第2の実施の形態と同様となる箇所については同一符号を付して説明を省略する。   Next, the operation of the speech synthesizer 500 according to the fifth embodiment of the present invention will be described. The speech synthesizer 500 executes a learning processing routine and a generation processing routine described below. The same parts as those in the second embodiment are denoted by the same reference numerals, and description thereof is omitted.

まず、学習処理ルーチンについて説明する。入力部510において学習データとして、人間の音声データxを受け付けると、音声合成装置500は、図19に示す学習処理ルーチンを実行する。   First, the learning processing routine will be described. When the input unit 510 receives human voice data x as learning data, the voice synthesizer 500 executes a learning processing routine shown in FIG.

ステップS500では、入力部510で受け付けた音声データxを、予め学習されたニューラルネットワークであるAuto Encoderに入力し、Auto Encoderから出力された音声特徴量系列fを学習部530に出力する。   In step S500, the audio data x received by the input unit 510 is input to an Auto Encoder, which is a neural network learned in advance, and the audio feature amount sequence f output from the Auto Encoder is output to the learning unit 530.

ステップS102では、ステップS500で得られた音声特徴量系列fと、予め与えられた自然性成分zと、入力部510により受け付けた音声データxとを入力とし、上記(2)式に従って、生成器としてのニューラルネットワークと、識別器としてのニューラルネットワークとが、互いに競合する最適化条件に従って学習を行い、学習されたニューラルネットワークを、ニューラルネットワーク記憶部40に記憶して処理を終了する。   In step S102, the speech feature value sequence f obtained in step S500, the natural component z given in advance, and the speech data x received by the input unit 510 are input, and the generator is generated according to the above equation (2). And the neural network as a discriminator perform learning in accordance with mutually competing optimization conditions, store the learned neural network in the neural network storage unit 40, and end the process.

次に、生成処理ルーチンについて説明する。入力部510において合成音声データの生成対象となる音声データを受け付けると、音声合成装置500は、図20に示す生成処理ルーチンを実行する。   Next, a generation processing routine will be described. When the input unit 510 receives voice data to be a target of generating synthesized voice data, the voice synthesizer 500 executes a generation processing routine shown in FIG.

ステップS500では、入力部510で受け付けた音声データを、予め学習されたニューラルネットワークであるAuto Encoderに入力し、Auto Encoderから出力された音声特徴量系列fを生成部250に出力する。   In step S500, the audio data received by the input unit 510 is input to an Auto Encoder, which is a neural network learned in advance, and the audio feature amount sequence f output from the Auto Encoder is output to the generation unit 250.

なお、第5の実施の形態の他の作用は、第2の実施の形態と同様であるため説明を省略する。   Note that other operations of the fifth embodiment are the same as those of the second embodiment, and thus the description is omitted.

以上説明したように、本発明の第5の実施の形態に係る音声合成装置によれば、音声データxを、予め学習されたニューラルネットワークであるAuto Encoderに入力し、Auto Encoderから出力された音声特徴量系列fを出力し、出力された音声特徴量系列fと、自然性成分zと、学習用の真の音声データxとを入力とし、上記(2)式に従って、音声特徴量系列fから合成された合成音声データ

を生成する生成器としてのニューラルネットワークと、合成音声データ

が、真の音声データxと同一の分布に従うか否かを識別する識別器とが、互いに競合する最適化条件に従って学習を行うことにより、より自然な音声を合成することができるニューラルネットワークを学習できる。
As described above, according to the speech synthesizer according to the fifth embodiment of the present invention, the speech data x is input to the Auto Encoder, which is a neural network learned in advance, and the speech output from the Auto Encoder The feature amount sequence f is output, and the output speech feature amount sequence f, the natural component z, and the true speech data x for learning are input, and the speech feature amount sequence f is obtained from the speech feature amount sequence f according to the above equation (2). Synthesized voice data synthesized

Neural network as a generator for generating speech and synthesized speech data

Learns a neural network capable of synthesizing a more natural speech by performing learning according to optimization conditions that compete with each other, and a discriminator that determines whether or not the distribution follows the same distribution as the true speech data x. it can.

また、学習した生成器としてのニューラルネットワークを用いて音声を合成することにより、より自然な音声を合成することができる。   Further, by synthesizing speech using a neural network as a learned generator, a more natural speech can be synthesized.

<実験結果1> <Experimental result 1>

第3及び第4の実施の形態の有効性を示すために、一実現方法を用いて、実験を行った。   To demonstrate the effectiveness of the third and fourth embodiments, an experiment was performed using one realization method.

実験データ実験用のデータとして、ATR Speech Dataのうち話者1人の115会話文を用いた。このデータのうち90%のデータをモデルの学習用に用い、残りの10%のデータをテスト用に用いた。なお、音声信号のサンプリング周波数は16,000Hzである。   Experimental data As the data for the experiment, 115 conversation sentences of one speaker in ATR Speech Data were used. 90% of this data was used for training the model, and the remaining 10% was used for testing. Note that the sampling frequency of the audio signal is 16,000 Hz.

第3及び第4の実施の形態では、生成器の入力としては、Vocoderまたは、それと同等の入出力を持ったニューラルネットワークによって生成した音声信号または音声スペクトル系列を用いている。本実験では、これらのうちVocoderを用いて音声信号の生成を行い、それに対して、以下で述べる前処理を行うことによって得た音声スペクトル系列x’を入力とした。具体的な分析合成の手法としてはLPC分析合成を用いた。この分析合成によって生成した音を元の音声信号のような本物の声に変換することが、ニューラルネットワークで構成される生成器の目指す役割である。   In the third and fourth embodiments, a speech signal or a speech spectrum sequence generated by a vocoder or a neural network having equivalent inputs and outputs is used as the input of the generator. In this experiment, a voice signal was generated using the Vocoder, and a voice spectrum sequence x 'obtained by performing preprocessing described below was input thereto. As a specific analytical synthesis method, LPC analytical synthesis was used. The purpose of a generator composed of a neural network is to convert the sound generated by the analysis and synthesis into a real voice such as an original voice signal.

前述した前処理とは、以下のような処理である。まず一つ一つの音声信号に対して短時間フーリエ変換(STFT)を適用し、複素スペクトル系列に変換した。この際、フーリエ変換の窓幅は512、シフト幅は128とした。また、窓関数としては、ブラックマン窓を用いた。次に複素スペクトル系列の絶対値をとり、振幅スペクトル系列に変換した。さらに、この振幅スペクトルに対して、底が10の対数スペクトルをとり、20倍することで、振幅の対数スペクトルに変換した。最後に、この処理によって得られたスペクトル系列に対して、ある一定フレーム分を切り出し、それを生成器の入力として用いた。実験では、フレームの切り出す長さとしては21とした。   The pre-processing described above is the following processing. First, a short-time Fourier transform (STFT) was applied to each audio signal to convert it into a complex spectrum sequence. At this time, the window width of the Fourier transform was 512, and the shift width was 128. A Blackman window was used as the window function. Next, the absolute value of the complex spectrum series was taken and converted to an amplitude spectrum series. The amplitude spectrum was converted to a logarithmic spectrum of amplitude by taking a logarithmic spectrum with a base of 10 and multiplying by 20. Finally, a certain frame was cut out from the spectrum sequence obtained by this processing and used as an input to the generator. In the experiment, the cut-out length of the frame was set to 21.

また、生成器の出力としては、入力と同じ振幅の対数スペクトルが得られるため、それを音声信号に戻すために以下の処理を行った。まず、最初に振幅の対数スペクトルに対して、20で割って、そこで得られた値を乗数として10の冪乗を求めることで、振幅スペクトルに変換した。それに対して、Griffin Limを用いて位相復元を行い、音声信号に変換した。   In addition, since the logarithmic spectrum having the same amplitude as the input was obtained as the output of the generator, the following processing was performed to return it to the audio signal. First, the logarithmic spectrum of the amplitude was first divided by 20, and the obtained value was used as a multiplier to find a power of 10, thereby converting the spectrum into an amplitude spectrum. On the other hand, the phase was restored using Griffin Lim and converted to an audio signal.

図21に第3の実施の形態の学習方法の実装例を示し、図22に第4の実施の形態の学習方法の実装例を示す。   FIG. 21 shows an implementation example of the learning method according to the third embodiment, and FIG. 22 shows an implementation example of the learning method according to the fourth embodiment.

図23に第3の実施の形態の生成方法の実装例を示し、図24に第4の実施の形態の生成方法の実装例を示す。   FIG. 23 shows an implementation example of the generation method according to the third embodiment, and FIG. 24 shows an implementation example of the generation method according to the fourth embodiment.

ネットワーク構造としては、第3及び第4の実施の形態の生成器・識別器ともに隠れ層は3層、それぞれの層のユニット数は500、結合の仕方は、Fully Connectedのものを用いた。図25、図26のそれぞれに、第3及び第4の実施の形態の具体的なネットワーク構造を示す。   As the network structure, both the generator and the discriminator of the third and fourth embodiments have three hidden layers, the number of units in each layer is 500, and the connection method is Fully Connected. FIGS. 25 and 26 show specific network structures of the third and fourth embodiments, respectively.

本手法の目的は、分析合成音を本物の声に近い音に変換することであるが、提案したフレームワークの有効性を示すために、合成音として以下の4つを想定した。   The purpose of this method is to convert the synthesized synthesized sound into a sound close to the real voice. To demonstrate the effectiveness of the proposed framework, the following four synthesized sounds were assumed.

1.Volume change:n元の音を半分にした音
2.Pre-emphasis:元の音の高音強調を行った音
3.LPC:LPC分析合成音
4.LPC+pulse:LPC分析で得たLPCと一定間隔をおいて(128サンプルごと)発生したpulse信号を合成して生成した音
1.Volume change: n original sound halved
2.Pre-emphasis: sound with treble emphasis on the original sound
3.LPC: LPC analysis synthesized sound
4.LPC + pulse: Sound generated by combining LPC obtained by LPC analysis with pulse signal generated at regular intervals (every 128 samples)

図27に入出力の元になった音声信号の波形の例を示す。   FIG. 27 shows an example of a waveform of an audio signal that is a source of input / output.

図28にVolume changeの実験結果を示す。音声信号の波形データの振幅の大きさに着目すると、合成音は元の音の半分になっているが、第3及び第4の実施の形態の手法を用いると、いずれの場合も元の音と同等の振幅を再現できていることが分かる。   FIG. 28 shows the experimental results of Volume change. Focusing on the magnitude of the amplitude of the waveform data of the audio signal, the synthesized sound is half of the original sound, but using the methods of the third and fourth embodiments, the original sound It can be seen that the same amplitude as that of can be reproduced.

図29にPre-emphasisの実験結果を示す。音声スペクトル系列に着目すると、合成音は元の音と比べて、低周波数領域の値が小さくなっているが、第3及び第4の実施の形態の手法を用いると、元の音と同等の大きさ位に戻っていることがわかる。また、音声信号の波形データの振幅に着目すると、合成音は元の音と比べて全体的に小さくなっているが、第3及び第4の実施の形態の手法を用いると、いずれの場合も元の音と同等の振幅を再現できていることが分かる。   FIG. 29 shows the experimental results of Pre-emphasis. Focusing on the voice spectrum series, the synthesized sound has a lower value in the low frequency region than the original sound, but using the methods of the third and fourth embodiments, the same value as the original sound is obtained. It turns out that it has returned to the size order. In addition, when focusing on the amplitude of the waveform data of the audio signal, the synthesized sound is generally smaller than the original sound. It can be seen that the same amplitude as the original sound can be reproduced.

図30にLPCの実験結果を示す。音声スペクトル系列に着目すると、合成音は元の音と比べて、最低周波数領域(0)に値があり、また、高周波数領域にも値が広がっているという特徴があるが、第3及び第4の実施の形態の手法を用いると、元の音と同等の形状に戻っていることが分かる。また、音声信号の波形データの振幅に着目すると、合成音は元の音と比べて全体的に大きくなっているが、第3及び第4の実施の形態の手法を用いると、いずれの場合も元の音と同等の振幅を再現できていることが分かる。   FIG. 30 shows the experimental results of LPC. Focusing on the speech spectrum series, the synthesized sound has a characteristic that the value is lower in the lowest frequency region (0) and is wider in the higher frequency region as compared with the original sound. It can be seen that using the method of the fourth embodiment returns to the same shape as the original sound. Also, when focusing on the amplitude of the waveform data of the audio signal, the synthesized sound is generally louder than the original sound, but using the methods of the third and fourth embodiments, It can be seen that the same amplitude as the original sound can be reproduced.

図31にLPC+pulseの実験結果を示す。音声スペクトル系列に着目すると、合成音は元の音と比べて、等間隔の縞乗になっているという特徴があるが、第3及び第4の実施の形態の手法を用いると、いずれの場合もと合成音と比較して元の音に近い形状に戻っていることが分かる。   FIG. 31 shows the experimental results of LPC + pulse. Paying attention to the audio spectrum series, the synthesized sound has a characteristic that it is an evenly spaced striped power as compared with the original sound, but using the methods of the third and fourth embodiments, It can be seen that the shape returns to a shape closer to the original sound as compared to the original synthesized sound.

<実験結果2>
次に第1及び第2の実施の形態の実験結果を示す。
<Experimental result 2>
Next, experimental results of the first and second embodiments will be described.

実験データまずデータセットとしては、前述した第3及び第4の実施の形態に関する実験と同じものを用いた。第1及び第2の実施の形態では、入力としては音声特徴量系列を用いるが、本実験では、LPC分析によって得た音声特徴量を用いた。具体的には、ピッチとLPCを用いた。ピッチは1フレームあたり1次元の特徴量であり、LPCはLPC分析時の次数を25としたため、26次元の特徴量である。そのため、両者を合わせると1次元あたり27次元の特徴量になる。出力としては、振幅の対数スペクトルを用いた。また、本実験では実際に処理を行うデータのフレームの長さは1とした。最終的には、音声信号を得ることが目的であり、そのためには出力として得られた振幅の対数スペクトルから音声信号を復元することが必要である。その方法としては、先の第3及び第4の実施の形態に関する実験の項で述べた方法と同様の方法を用いた。   Experimental Data First, as a data set, the same data set as used in the experiments relating to the third and fourth embodiments was used. In the first and second embodiments, a speech feature amount sequence is used as input, but in this experiment, a speech feature amount obtained by LPC analysis was used. Specifically, pitch and LPC were used. The pitch is a one-dimensional feature amount per frame, and the LPC is a 26-dimensional feature amount because the order at the time of LPC analysis is 25. Therefore, the sum of the two becomes a 27-dimensional feature amount per dimension. As an output, a logarithmic spectrum of the amplitude was used. In this experiment, the frame length of the data to be actually processed was 1. Ultimately, the purpose is to obtain an audio signal, and for that purpose, it is necessary to restore the audio signal from the logarithmic spectrum of the amplitude obtained as an output. As the method, a method similar to the method described in the experimental section regarding the third and fourth embodiments was used.

図32、図33に第1及び第2の実施の形態のネットワーク構造の実装例を示す。ネットワーク構造としては、第1及び第2の実施の形態ともに隠れ層3層、それぞれの層のユニット数は500、層の結合の仕方はFully Connectedとした。   FIGS. 32 and 33 show implementation examples of the network structure of the first and second embodiments. Regarding the network structure, the first and second embodiments both have three hidden layers, the number of units in each layer is 500, and the way of connecting the layers is Fully Connected.

図34に、第1及び第2の実施の形態の手法による音声復元の結果を示す。これからは、入力に用いている音声特徴量は27次元であるが、それに対して、第1及び第2の実施の形態のネットワークを用いることによって、元の音と似た特徴の持つ調和構造(スペクトルの縞模様)が再現できていることが分かる。   FIG. 34 shows the result of audio restoration by the methods of the first and second embodiments. From now on, the speech feature amount used for input is 27-dimensional. On the other hand, by using the networks of the first and second embodiments, a harmonic structure having features similar to the original sound ( It can be seen that the spectrum stripe pattern) was reproduced.

なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。   The present invention is not limited to the above-described embodiment, and various modifications and applications can be made without departing from the gist of the present invention.

例えば、上述した実施の形態では、ニューラルネットワークの学習を行う学習部と、音声の合成を行う生成部とを含む音声合成装置として構成していたが、これに限定されるものではなく、学習部を含む音声合成学習装置と、生成部を含む音声合成装置のそれぞれに分けて構成してもよい。   For example, in the above-described embodiment, the speech synthesizer is configured to include the learning unit that learns the neural network and the generation unit that synthesizes the speech. However, the present invention is not limited to this. , And a speech synthesis device including a generation unit.

また、上述した実施の形態におけるニューラルネットワークには、CNNやRNNなども用いることができる。   Moreover, CNN, RNN, or the like can also be used for the neural network in the above-described embodiment.

10、510 入力部
20、220、320、420、520 演算部
30、230、330、430、530 学習部
40 ニューラルネットワーク記憶部
50、250、350、450 生成部
90 出力部
100、200、300、400、500 音声合成装置
332 中間音声変換部
528、532 音声特徴量生成部
10, 510 Input unit 20, 220, 320, 420, 520 Operation unit 30, 230, 330, 430, 530 Learning unit 40 Neural network storage unit 50, 250, 350, 450 Generation unit 90 Output unit 100, 200, 300, 400, 500 voice synthesizer 332 intermediate voice converters 528, 532 voice feature generator

Claims (4)

任意の音声データ又は音声特徴量系列から音声を合成するニューラルネットワークを学習する音声合成学習装置であって、
入力された音声データ又は音声特徴量系列と、学習用の真の音声データとを入力とし、前記音声データ又は音声特徴量系列から合成音声データを生成する生成器としてのニューラルネットワークと、前記生成された前記合成音声データが、真の音声データと同一の分布に従うか否かを識別する識別器としてニューラルネットワークとを備え、前記生成器としてのニューラルネットワークと、前記識別器としてのニューラルネットワークとが、互いに競合する最適化条件に従って学習を行う学習部
を含む音声合成学習装置。
A speech synthesis learning device for learning a neural network that synthesizes speech from arbitrary speech data or a speech feature amount sequence,
A neural network as a generator that receives input voice data or voice feature amount sequence and true voice data for learning and generates synthesized voice data from the voice data or voice feature amount sequence; The synthesized speech data further includes a neural network as a discriminator for discriminating whether or not the speech data follows the same distribution as true speech data, and the neural network as the generator and the neural network as the discriminator, A speech synthesis learning device that includes a learning unit that performs learning according to mutually competing optimization conditions.
前記学習部は、音声データを音声分析して得た、音声特徴量系列から音声を合成するボコーダに用いられる音声特徴量系列と、学習用の真の音声データとを入力とし、前記音声特徴量系列から合成された合成音声データを生成する前記生成器としてのニューラルネットワークと、前記識別器としてのニューラルネットワークとが、互いに競合する最適化条件に従って学習を行う請求項1に記載の音声合成学習装置。   The learning unit receives, as input, a speech feature amount sequence used for a vocoder that synthesizes speech from a speech feature amount sequence obtained by speech analysis of speech data and true speech data for learning. The speech synthesis learning device according to claim 1, wherein the neural network as the generator that generates synthesized speech data synthesized from the sequence and the neural network as the discriminator perform learning according to mutually competing optimization conditions. . 前記学習部は、音声特徴量系列から音声を合成して得た、音声信号又は音声スペクトル系列と、学習用の真の音声データとを入力とし、前記音声信号又は音声スペクトル系列から合成された合成音声データを生成する前記生成器としてのニューラルネットワークと、前記識別器としてのニューラルネットワークとが、互いに競合する最適化条件に従って学習を行う請求項1に記載の音声合成学習装置。   The learning unit receives a speech signal or a speech spectrum sequence obtained by synthesizing speech from a speech feature amount sequence and true speech data for learning as inputs, and synthesizes the speech signal or speech spectrum sequence. The speech synthesis learning device according to claim 1, wherein the neural network as the generator that generates speech data and the neural network as the discriminator perform learning according to mutually competing optimization conditions. 前記学習部は、音声データを入力として予め学習されたニューラルネットワークであるAuto Encoderから出力される音声特徴量系列と、学習用の真の音声データとを入力とし、前記音声特徴量系列から合成された合成音声データを生成する前記生成器としてのニューラルネットワークと、前記識別器としてのニューラルネットワークとが、互いに競合する最適化条件に従って学習を行う請求項1に記載の音声合成学習装置。   The learning unit receives a speech feature amount sequence output from an Auto Encoder, which is a neural network previously learned by inputting speech data, and a true speech data for learning, and is synthesized from the speech feature amount sequence. The speech synthesis learning device according to claim 1, wherein the neural network as the generator that generates the synthesized speech data and the neural network as the discriminator perform learning according to mutually competing optimization conditions.
JP2016168356A 2016-08-30 2016-08-30 Speech synthesis learning device, method, and program Active JP6649210B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016168356A JP6649210B2 (en) 2016-08-30 2016-08-30 Speech synthesis learning device, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016168356A JP6649210B2 (en) 2016-08-30 2016-08-30 Speech synthesis learning device, method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019149850A Division JP6722810B2 (en) 2019-08-19 2019-08-19 Speech synthesis learning device

Publications (2)

Publication Number Publication Date
JP2018036413A JP2018036413A (en) 2018-03-08
JP6649210B2 true JP6649210B2 (en) 2020-02-19

Family

ID=61567398

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016168356A Active JP6649210B2 (en) 2016-08-30 2016-08-30 Speech synthesis learning device, method, and program

Country Status (1)

Country Link
JP (1) JP6649210B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2754920C1 (en) * 2020-08-17 2021-09-08 Автономная некоммерческая организация поддержки и развития науки, управления и социального развития людей в области разработки и внедрения искусственного интеллекта "ЦифровойТы" Method for speech synthesis with transmission of accurate intonation of the cloned sample

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7124373B2 (en) * 2018-03-23 2022-08-24 カシオ計算機株式会社 LEARNING DEVICE, SOUND GENERATOR, METHOD AND PROGRAM
JP6973304B2 (en) * 2018-06-14 2021-11-24 日本電信電話株式会社 Speech conversion learning device, speech converter, method, and program
US10891949B2 (en) 2018-09-10 2021-01-12 Ford Global Technologies, Llc Vehicle language processing
WO2020062217A1 (en) 2018-09-30 2020-04-02 Microsoft Technology Licensing, Llc Speech waveform generation
JP7274184B2 (en) * 2019-01-11 2023-05-16 ネイバー コーポレーション A neural vocoder that implements a speaker-adaptive model to generate a synthesized speech signal and a training method for the neural vocoder
CN109754782B (en) * 2019-01-28 2020-10-09 武汉恩特拉信息技术有限公司 Method and device for distinguishing machine voice from natural voice

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01276200A (en) * 1988-04-28 1989-11-06 Hitachi Ltd Speech synthesizing device
JPH03125200A (en) * 1989-10-09 1991-05-28 Nippon Telegr & Teleph Corp <Ntt> Voice synthesizing method
WO2017168870A1 (en) * 2016-03-28 2017-10-05 ソニー株式会社 Information processing device and information processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2754920C1 (en) * 2020-08-17 2021-09-08 Автономная некоммерческая организация поддержки и развития науки, управления и социального развития людей в области разработки и внедрения искусственного интеллекта "ЦифровойТы" Method for speech synthesis with transmission of accurate intonation of the cloned sample
WO2022039636A1 (en) * 2020-08-17 2022-02-24 Автономная некоммерческая организация поддержки и развития науки, управления и социального развития людей в области разработки и внедрения искусственного интеллекта "ЦифровойТы" Method for synthesizing speech and transmitting the authentic intonation of a clonable sample

Also Published As

Publication number Publication date
JP2018036413A (en) 2018-03-08

Similar Documents

Publication Publication Date Title
JP6649210B2 (en) Speech synthesis learning device, method, and program
JP5631915B2 (en) Speech synthesis apparatus, speech synthesis method, speech synthesis program, and learning apparatus
US20230036020A1 (en) Text-to-Speech Synthesis Method and System, a Method of Training a Text-to-Speech Synthesis System, and a Method of Calculating an Expressivity Score
JP6876642B2 (en) Speech conversion learning device, speech conversion device, method, and program
Wu et al. Quasi-periodic WaveNet: An autoregressive raw waveform generative model with pitch-dependent dilated convolution neural network
JP7124373B2 (en) LEARNING DEVICE, SOUND GENERATOR, METHOD AND PROGRAM
GB2603776A (en) Methods and systems for modifying speech generated by a text-to-speech synthesiser
JP5807921B2 (en) Quantitative F0 pattern generation device and method, model learning device for F0 pattern generation, and computer program
JP2015161774A (en) Sound synthesizing method and sound synthesizing device
CN111667805A (en) Extraction method, device, equipment and medium of accompaniment music
JPWO2016042626A1 (en) Audio processing apparatus, audio processing method, and program
JP6722810B2 (en) Speech synthesis learning device
CN116168678A (en) Speech synthesis method, device, computer equipment and storage medium
JP6578544B1 (en) Audio processing apparatus and audio processing method
JP2020013008A (en) Voice processing device, voice processing program, and voice processing method
JP6400526B2 (en) Speech synthesis apparatus, method thereof, and program
JP2020134920A (en) Speech processor and speech processing method
JP6902759B2 (en) Acoustic model learning device, speech synthesizer, method and program
JP2020204755A (en) Speech processing device and speech processing method
CN111862931A (en) Voice generation method and device
Yoneyama et al. High-Fidelity and Pitch-Controllable Neural Vocoder Based on Unified Source-Filter Networks
JP6587308B1 (en) Audio processing apparatus and audio processing method
JP7079455B1 (en) Acoustic model learning devices, methods and programs, as well as speech synthesizers, methods and programs
Pan et al. PVGAN: A Pathological Voice Generation Model Incorporating a Progressive Nesting Strategy
US20230260503A1 (en) Sound synthesis method, sound synthesis apparatus, and recording medium storing instructions to perform sound synthesis method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180821

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190618

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200116

R150 Certificate of patent or registration of utility model

Ref document number: 6649210

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150