JP2017151225A - Basic frequency pattern prediction device, method, and program - Google Patents

Basic frequency pattern prediction device, method, and program Download PDF

Info

Publication number
JP2017151225A
JP2017151225A JP2016032413A JP2016032413A JP2017151225A JP 2017151225 A JP2017151225 A JP 2017151225A JP 2016032413 A JP2016032413 A JP 2016032413A JP 2016032413 A JP2016032413 A JP 2016032413A JP 2017151225 A JP2017151225 A JP 2017151225A
Authority
JP
Japan
Prior art keywords
time
fundamental frequency
probability distribution
speech
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016032413A
Other languages
Japanese (ja)
Other versions
JP6472005B2 (en
Inventor
弘和 亀岡
Hirokazu Kameoka
弘和 亀岡
宏 田中
Hiroshi Tanaka
宏 田中
智基 戸田
Tomoki Toda
智基 戸田
哲 中村
Satoru Nakamura
哲 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nara Institute of Science and Technology NUC
Nippon Telegraph and Telephone Corp
Original Assignee
Nara Institute of Science and Technology NUC
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nara Institute of Science and Technology NUC, Nippon Telegraph and Telephone Corp filed Critical Nara Institute of Science and Technology NUC
Priority to JP2016032413A priority Critical patent/JP6472005B2/en
Publication of JP2017151225A publication Critical patent/JP2017151225A/en
Application granted granted Critical
Publication of JP6472005B2 publication Critical patent/JP6472005B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To estimate an optimum Fpattern corresponding to a spectrum feature amount sequence, while taking into consideration the restriction of the physical generation process of the Fpattern.SOLUTION: A learning part 30 learns to make the standard large, which is shown by using a parameter of a first probability distribution that models a relationship between a spectrum feature amount vector of each time of a day of a source speech and a basic frequency of each time of a day of a target speech, and the parameter of a second probability distribution that models a basic frequency pattern generation process. The conversion processing part 30 predicts the basic frequency of each time of a day of the target speech corresponding to the source speech of the prediction object from the spectrum feature amount vector of each time of a day extracted from time series data of the source speech of the prediction target so that the standard shown by the first probability distribution and the second probability distribution becomes large.SELECTED DRAWING: Figure 5

Description

本発明は、基本周波数パターン予測装置、方法、及びプログラムに係り、特に、ソース音声から、ターゲット音声の基本周波数パターンを予測する基本周波数パターン予測装置、方法、及びプログラムに関する。   The present invention relates to a fundamental frequency pattern prediction apparatus, method, and program, and more particularly, to a fundamental frequency pattern prediction apparatus, method, and program for predicting a fundamental frequency pattern of a target voice from a source voice.

他者とのコミュニケーションにおいて音声は利便性に優れた手段ではあるが、時として物理的制約により様々な障壁が必然的にもたらされる。例えば、発声器官の内、わずか一か所でも正常に動作しなくなると、深刻な発声障害を患い、音声コミュニケーションに支障をきたす。また、音声生成という物理的行為は、秘匿性の高い意思伝達には不向きであるし、周囲の騒音に脆弱である。これらの障壁を無くすためには、身体的制約を超えて発声器官を動作させて音声を生成したり、適切な発音動作を指定して音声を生成したり、聴取困難なほど微かな音声発声時の発声器官動作から通常音声を生成するなど、物理的・身体的制約を超えた音声生成機能の拡張が必要である。   In communication with others, voice is a convenient means, but sometimes physical barriers inevitably cause various barriers. For example, if even one of the vocal organs does not operate normally, it suffers from serious vocal disturbances and hinders voice communication. Moreover, the physical action of voice generation is not suitable for highly confidential communication and is vulnerable to ambient noise. In order to eliminate these barriers, voices can be generated by moving the vocal organs beyond physical constraints, voices can be generated by specifying an appropriate pronunciation, or when voices are so fine that it is difficult to hear It is necessary to expand the speech generation function beyond physical and physical constraints, such as generating normal speech from the vocal organ movements.

例えば、喉頭癌などで喉頭を失った喉頭摘出者に対して、残存器官を用いた代替発声法により生成される自然性に乏しい音声を、より自然な音声へと変換する発声補助技術が提案されている(非特許文献1〜非特許文献3を参照)。この他にも、非可聴つぶやき音声を自然な音声に変換する技術も提案されており、秘匿性に優れた通話技術としての応用が期待されている。上述の技術はいずれも音声のスペクトル特徴量系列から自然音声の基本周波数(F0) パターンを予測する問題を扱っている点で共通しており、学習処理と変換処理で構成される。学習処理では、対象音声(前者であれば電気音声、後者であれば非可聴つぶやき音声)と通常音声の同一発話データを用いる。まず各離散時刻(以後、フレーム)において、前後数フレームから得られる対象音声のスペクトル特徴量と、通常音声の対数F0とその動的成分(時間微分または時間差分)を抽出し、スペクトル距離尺度に基づく動的時間伸縮によりこれらを対応付けた結合ベクトルを得る。これをパラレルデータと呼ぶ。各フレームのパラレルデータを用い、対象音声のスペクトル特徴量と通常音声の対数F0 の静的・動的成分の結合確率密度関数を混合正規分布モデル(Gaussian Mixture Model; GMM)で表現する。GMM のパラメータはExpectation-Maximization アルゴリズムにより学習することができる。変換処理では、学習されたGMM を用いて、系列内変動を考慮した最尤系列変換法により、対象音声のスペクトル特徴量系列から通常音声のF0 パターンへと変換することができる。 For example, for laryngectomy patients who have lost their larynx due to laryngeal cancer, etc., voice assist technology has been proposed to convert less natural speech generated by alternative vocalization methods using residual organs into more natural speech. (See Non-Patent Document 1 to Non-Patent Document 3). In addition to this, a technique for converting a non-audible murmur voice into a natural voice has been proposed, and application as a call technique with excellent secrecy is expected. All of the above-mentioned techniques are common in that they deal with the problem of predicting the fundamental frequency (F 0 ) pattern of natural speech from the spectral feature quantity sequence of speech, and are composed of learning processing and conversion processing. In the learning process, the same speech data of the target voice (electric voice in the former case, non-audible murmur voice in the latter case) and normal voice is used. First, at each discrete time (hereinafter referred to as a frame), the spectral features of the target speech obtained from several frames before and after, the logarithm F 0 of the normal speech and its dynamic component (time differential or time difference) are extracted, and the spectral distance measure. A combined vector corresponding to these is obtained by dynamic time expansion and contraction based on. This is called parallel data. Using the parallel data of each frame, the spectral probability of the target speech and the combined probability density function of the static and dynamic components of the logarithm F 0 of the normal speech are expressed by a mixed normal distribution model (GaMMian Mixture Model; GMM). GMM parameters can be learned using the Expectation-Maximization algorithm. In the conversion process, the learned GMM can be used to convert the spectral feature quantity sequence of the target speech into the F 0 pattern of the normal speech by the maximum likelihood sequence conversion method considering intra-sequence variation.

Keigo Nakamura, Tomoki Toda, Hiroshi Saruwatari, Kiyohiro Shikano, "Speaking-aid systems using GMM-based voice conversion for electrolaryngeal speech," Speech Communication, vol. 54, no. 1, pp. 134-146, 2012.Keigo Nakamura, Tomoki Toda, Hiroshi Saruwatari, Kiyohiro Shikano, "Speaking-aid systems using GMM-based voice conversion for electrolaryngeal speech," Speech Communication, vol. 54, no. 1, pp. 134-146, 2012. Kou Tanaka, Tomoki Toda, Graham Neubig, Sakriani Sakti, Satoshi Nakamura, "A hybrid approach to electrolaryngeal speech enhancement based on noise reduction and statistical excitation generation," IEICE Transactions on Information and Systems, vol. E97-D, no. 6, pp. 1429-1437, Jun. 2014.Kou Tanaka, Tomoki Toda, Graham Neubig, Sakriani Sakti, Satoshi Nakamura, "A hybrid approach to electrolaryngeal speech enhancement based on noise reduction and statistical excitation generation," IEICE Transactions on Information and Systems, vol.E97-D, no. 6, pp. 1429-1437, Jun. 2014. Kou Tanaka, Tomoki Toda, Graham Neubig, Sakriani Sakti, Satoshi Nakamura, "Direct F0 controlof an electrolarynx based on statistical excitation feature prediction and its evaluation through simulation," Proc. INTERSPEECH, pp. 31-35, Sep. 2014.Kou Tanaka, Tomoki Toda, Graham Neubig, Sakriani Sakti, Satoshi Nakamura, "Direct F0 controlof an electrolarynx based on statistical excitation feature prediction and its evaluation through simulation," Proc. INTERSPEECH, pp. 31-35, Sep. 2014. Hirokazu Kameoka, Jonathan Le Roux, Yasunori Ohishi, "A statistical model of speech F0 contours," ISCA Tutorial and Research Workshop on Statistical And Perceptual Audition (SAPA 2010), pp. 43-48, Sep. 2010.Hirokazu Kameoka, Jonathan Le Roux, Yasunori Ohishi, "A statistical model of speech F0 contours," ISCA Tutorial and Research Workshop on Statistical And Perceptual Audition (SAPA 2010), pp. 43-48, Sep. 2010. Kota Yoshizato, Hirokazu Kameoka, Daisuke Saito, Shigeki Sagayama, "Hidden Markov convolutive mixture model for pitch contour analysis of speech," in Proc. The 13th Annual Conference of the International Speech Communication Association (Interspeech 2012), Sep. 2012.Kota Yoshizato, Hirokazu Kameoka, Daisuke Saito, Shigeki Sagayama, "Hidden Markov convolutive mixture model for pitch contour analysis of speech," in Proc.The 13th Annual Conference of the International Speech Communication Association (Interspeech 2012), Sep. 2012.

従来技術では、学習処理や変換処理において音声のF0 パターンの物理的な生成過程を考慮したモデルが用いられていなかったため、物理的に人間が発声しえないような不自然なF0 パターンを生成することが起こりえた。この問題に対し、F0パターンの物理的な生成過程を考慮した予測を行うことで、より自然なF0 パターンを生成できる可能性がある。 In the prior art, a model that takes into account the physical generation process of the voice F 0 pattern was not used in the learning process or conversion process, so an unnatural F 0 pattern that could not be physically spoken by humans was used. It could happen. To solve this problem, by performing prediction in consideration of the physical process of generating F 0 pattern, it may be possible to generate a more natural F 0 pattern.

F0パターンは声帯に張力を与える甲状軟骨の運動によって生み出されており、非特許文献4、5ではその制御機構の確率モデルに基づき、フレーズ・アクセント指令と呼ぶ甲状軟骨の運動に関係するパラメータを推定する技術が提案されている。この技術では,フレーズ・アクセント指令の時系列の生成プロセスを隠れマルコフモデル(HMM) により表現した点がポイントの一つであり,HMM のトポロジーの設計や遷移確率の学習を通して、指令列に関する言語学的ないし先験的な知識をパラメータ推定に組み込むことが可能である。 The F 0 pattern is generated by the movement of the thyroid cartilage that gives tension to the vocal cords. In Non-Patent Documents 4 and 5, parameters related to the movement of the thyroid cartilage called phrase / accent command are based on the probability model of the control mechanism. An estimation technique has been proposed. In this technology, the time series generation process of the phrase / accent command is expressed by a hidden Markov model (HMM). One of the points is the linguistics about the command sequence through the design of the topology of the HMM and learning of the transition probability. Or a priori knowledge can be incorporated into the parameter estimation.

本発明は、上記事情を鑑みてなされたものであり、F0 パターンの物理的な生成過程の制約を考慮しながらスペクトル特徴量系列に対応する最適なF0パターンを推定することができる基本周波数パターン予測装置、方法、及びプログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, the fundamental frequency can be estimated optimal F 0 pattern corresponding to the spectral feature amount sequence taking into account the constraints of the physical process of generating F 0 pattern An object is to provide a pattern prediction apparatus, method, and program.

上記の目的を達成するために本発明に係る基本周波数パターン予測装置は、学習サンプルのソース音声の時系列データとターゲット音声の時系列データとからなるパラレルデータを入力として、前記ソース音声の時系列データから抽出される各時刻のスペクトル特徴量ベクトルと、前記ターゲット音声の時系列データから抽出される、各時刻の基本周波数とに基づいて、前記ソース音声の各時刻のスペクトル特徴量ベクトルと、前記ターゲット音声の各時刻の基本周波数との間の関係をモデル化した第1確率分布のパラメータ、及び基本周波数パターン生成過程をモデル化した第2確率分布のパラメータを、前記第1確率分布と前記第2確率分布とを用いて表される規準を大きくするように学習する学習部と、予測対象のソース音声の時系列データを入力として、前記予測対象のソース音声の時系列データから抽出される各時刻のスペクトル特徴量ベクトルと、前記学習部によって学習された前記第1確率分布のパラメータと前記第2確率分布のパラメータとに基づいて、前記規準を大きくするように、前記予測対象のソース音声に対応する前記ターゲット音声の各時刻の基本周波数を予測する変換処理部と、を含んで構成されている。   In order to achieve the above object, a fundamental frequency pattern predicting apparatus according to the present invention receives, as input, parallel data composed of time series data of source speech of a learning sample and time series of target speech, and the time series of the source speech. Based on the spectral feature vector at each time extracted from the data and the fundamental frequency at each time extracted from the time-series data of the target speech, the spectral feature vector at each time of the source speech, A parameter of a first probability distribution that models the relationship between the fundamental frequencies at each time of the target speech, and a parameter of a second probability distribution that models the fundamental frequency pattern generation process are the first probability distribution and the first probability distribution. A learning unit that learns to increase a criterion expressed using a two-probability distribution, and a time series of a source speech to be predicted Data, the spectral feature vector at each time extracted from the time-series data of the source speech to be predicted, the parameters of the first probability distribution and the second probability distribution learned by the learning unit And a conversion processing unit that predicts a fundamental frequency at each time of the target speech corresponding to the source speech to be predicted so as to increase the criterion based on the parameter.

本発明に係る基本周波数パターン予測方法は、学習部と、変換処理部とを含む基本周波数パターン予測装置における基本周波数パターン予測方法であって、前記学習部が、学習サンプルのソース音声の時系列データとターゲット音声の時系列データとからなるパラレルデータを入力として、前記ソース音声の時系列データから抽出される各時刻のスペクトル特徴量ベクトルと、前記ターゲット音声の時系列データから抽出される、各時刻の基本周波数とに基づいて、前記ソース音声の各時刻のスペクトル特徴量ベクトルと、前記ターゲット音声の各時刻の基本周波数との間の関係をモデル化した第1確率分布のパラメータ、及び基本周波数パターン生成過程をモデル化した第2確率分布のパラメータを、前記第1確率分布と前記第2確率分布とを用いて表される規準を大きくするように学習し、前記変換処理部が、予測対象のソース音声の時系列データを入力として、前記予測対象のソース音声の時系列データから抽出される各時刻のスペクトル特徴量ベクトルと、前記学習部によって学習された前記第1確率分布のパラメータと前記第2確率分布のパラメータとに基づいて、前記規準を大きくするように、前記予測対象のソース音声に対応する前記ターゲット音声の各時刻の基本周波数を予測する。   A fundamental frequency pattern prediction method according to the present invention is a fundamental frequency pattern prediction method in a fundamental frequency pattern prediction apparatus including a learning unit and a conversion processing unit, wherein the learning unit is time-series data of source speech of a learning sample. And time data extracted from the time-series data of the target sound and the time-series data of the target sound, and the time-series data of the target sound. Based on the fundamental frequency of the source speech, a parameter of the first probability distribution modeling the relationship between the spectral feature quantity vector at each time of the source speech and the fundamental frequency at each time of the target speech, and a fundamental frequency pattern The parameters of the second probability distribution modeling the generation process are the first probability distribution and the second probability distribution. Each time extracted from the time-series data of the prediction target source speech, using the time-series data of the source speech to be predicted as an input, the conversion processing unit learns to increase the criterion expressed using Corresponding to the source speech to be predicted so as to increase the criterion on the basis of the spectral feature quantity vector and the parameters of the first probability distribution and the second probability distribution learned by the learning unit. The fundamental frequency at each time of the target speech to be predicted is predicted.

本発明に係るプログラムは、上記の基本周波数パターン予測装置の各部としてコンピュータを機能させるためのプログラムである。   A program according to the present invention is a program for causing a computer to function as each unit of the above-described basic frequency pattern prediction apparatus.

以上説明したように、本発明の基本周波数パターン予測装置、方法、及びプログラムによれば、ソース音声の各時刻のスペクトル特徴量ベクトルとターゲット音声の各時刻の基本周波数との間の関係をモデル化した第1確率分布のパラメータ、及び基本周波数パターン生成過程をモデル化した第2確率分布のパラメータを、前記第1確率分布と前記第2確率分布とを用いて表される規準を大きくするように学習し、予測対象のソース音声の時系列データから抽出される各時刻のスペクトル特徴量ベクトルから、第1確率分布と第2確率分布とを用いて表される規準を大きくするように、予測対象のソース音声に対応するターゲット音声の各時刻の基本周波数を予測することにより、F0 パターンの物理的な生成過程の制約を考慮しながらスペクトル特徴量系列に対応する最適なF0パターンを推定することができる、という効果が得られる。 As described above, according to the fundamental frequency pattern predicting apparatus, method, and program of the present invention, the relationship between the spectral feature vector at each time of the source speech and the fundamental frequency at each time of the target speech is modeled. The criterion expressed using the first probability distribution and the second probability distribution is increased for the first probability distribution parameter and the second probability distribution parameter obtained by modeling the fundamental frequency pattern generation process. The prediction target is learned so as to increase the criterion expressed using the first probability distribution and the second probability distribution from the spectral feature quantity vector at each time extracted from the time series data of the source speech to be predicted. spectrum of by predicting the fundamental frequency of the target time sound corresponding to the source voice, taking into account the constraints of the physical process of generating F 0 pattern It is possible to estimate the optimal F 0 pattern corresponding to Le feature amount sequence, the effect is obtained that.

HMMの状態遷移ネットワークの一例を説明するための図である。It is a figure for demonstrating an example of the state transition network of HMM. HMMの状態遷移ネットワークの一例を説明するための図である。It is a figure for demonstrating an example of the state transition network of HMM. HMMの状態遷移ネットワークの一例を説明するための図である。It is a figure for demonstrating an example of the state transition network of HMM. 状態の分割を説明するための図である。It is a figure for demonstrating the division | segmentation of a state. 本発明の第1の実施の形態に係る基本周波数パターン予測装置の構成を示す概略図である。It is the schematic which shows the structure of the fundamental frequency pattern prediction apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る基本周波数パターン予測装置の学習部の構成を示す概略図である。It is the schematic which shows the structure of the learning part of the fundamental frequency pattern prediction apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る基本周波数パターン予測装置の変換処理部の構成を示す概略図である。It is the schematic which shows the structure of the conversion process part of the fundamental frequency pattern prediction apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る基本周波数パターン予測装置における学習処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the learning process routine in the fundamental frequency pattern prediction apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る基本周波数パターン予測装置における基本周波数パターン予測処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the fundamental frequency pattern prediction process routine in the fundamental frequency pattern prediction apparatus which concerns on the 1st Embodiment of this invention. 本発明の第2の実施の形態に係る基本周波数パターン予測装置における学習処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the learning process routine in the fundamental frequency pattern prediction apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施の形態に係る基本周波数パターン予測装置の学習部の構成を示す概略図である。It is the schematic which shows the structure of the learning part of the fundamental frequency pattern prediction apparatus which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施の形態に係る基本周波数パターン予測装置における学習処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the learning process routine in the fundamental frequency pattern prediction apparatus which concerns on the 3rd Embodiment of this invention. 実験結果を示す図である。It is a figure which shows an experimental result.

以下、図面を参照して本発明の実施の形態を詳細に説明する。本発明で提案する技術は、音声の特徴量系列から基本周波数パターンを予測し、原音声の基本周波数パターンを予測した基本周波数パターンに置き換えることで音声の自然性を向上させることを目的とした音声処理技術である。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The technique proposed in the present invention predicts a fundamental frequency pattern from a feature sequence of speech and replaces the fundamental frequency pattern of the original speech with the predicted fundamental frequency pattern to improve speech naturalness. Processing technology.

<関連技術1:スペクトル特徴量系列からのF0 パターン予測方法>
まず、スペクトル特徴量系列からのF0 パターン予測方法について説明する。
<Related technology 1: F 0 pattern prediction method from spectral feature sequence>
First, the F 0 pattern prediction method from the spectral feature quantity sequence will be described.

上記非特許文献1〜非特許文献3では、スペクトル特徴量系列からF0 パターンを予測する方法が提案されている。当該従来手法はスペクトル特徴量系列とF0 パターンの同時確率分布モデルのパラメータを学習する処理と学習した当該モデルを用いて所与のスペクトル特徴量系列からF0 パターンに変換する処理からなる。 Non-Patent Document 1 to Non-Patent Document 3 propose a method for predicting an F 0 pattern from a spectrum feature amount sequence. The conventional method consists of the process of converting from a given spectral feature amount sequence in F 0 pattern using the model trained with the processing for learning the parameters of the joint probability distribution model of the spectral feature amount sequence and F 0 pattern.

<学習処理>
ソース音声(例えば電気音声)とターゲット音声(例えば自然音声)のパラレルデータが与えられているものとする。ソース音声のスペクトル特徴量ベクトルをc[k] とし,ターゲット音声の対数F0 とその動的成分(時間微分または時間差分)の結合ベクトル(F0 特徴量と呼ぶ。)をq[k] = (y[k];Δy[k])T とする。ここでk は離散時刻のインデックスである。音声特徴量c[k] としては例えば時刻k を中心とした前後数フレーム分のメルケプストラム(ベクトル)の系列を連結したベクトルに対し主成分分析により次元圧縮を行ったものを用いる。本手法ではc[k] とq[k] の同時確率分布を混合正規分布モデル(Gaussian Mixture Model; GMM)
<Learning process>
It is assumed that parallel data of a source sound (for example, electric sound) and a target sound (for example, natural sound) is given. The spectral feature vector of the source speech is c [k], and the combined vector (called F 0 feature) of the logarithm F 0 of the target speech and its dynamic component (time differential or time difference) is q [k] = (y [k]; Δy [k]) T. Where k is an index of discrete time. As the speech feature value c [k], for example, a vector obtained by performing dimension compression by principal component analysis on a vector obtained by connecting a series of mel cepstrum (vector) for several frames around the time k is used. In this method, the joint probability distribution (Gaussian Mixture Model; GMM) of the joint probability distribution of c [k] and q [k] is used.

でモデル化し、学習処理では所与のパラレルデータ{c[k]; q[k]}K k=1 から当該GMM のパラメータ(各正規分布の重み,平均、分散共分散行列)を学習する。ただし、N(x;μ,Σ) は、xの確率密度関数が平均がμ、分散共分散行列がΣの正規分布で与えられることを意味する。 In the learning process, the GMM parameters (weight, mean, variance-covariance matrix) of the GMM are learned from given parallel data {c [k]; q [k]} K k = 1 . However, N (x; μ, Σ) means that the probability density function of x is given by a normal distribution having an average of μ and a variance-covariance matrix of Σ.

GMM のパラメータはExpectation-Maximization (EM) アルゴリズムにより推定することができる。学習したGMM パラメータをγとすると、条件付分布P(q[k]|c[k],γ) はスペクトル特徴量c[k] からF0 特徴量q[k] を予測するための分布と見ることができ、 GMM parameters can be estimated by the Expectation-Maximization (EM) algorithm. If the learned GMM parameter is γ, the conditional distribution P (q [k] | c [k], γ) is a distribution for predicting the F 0 feature q [k] from the spectrum feature c [k]. Can see,

のようにP(c[k],q[k]|γ) と同様にGMM で与えられる。ただし、 As in P (c [k], q [k] | γ), it is given by GMM. However,

でありe(q|c) mおよびD(q|c) mAnd e (q | c) m and D (q | c) m are

で与えられる。 Given in.

<変換処理>
変換処理では。所与のスペクトル特徴量系列
<Conversion processing>
In the conversion process. A given spectral feature series

の下で,最尤のF0パターン Maximum likelihood F 0 pattern under

を以下の式(8)により求めることが目的である。 Is obtained by the following equation (8).

ただし、   However,

であり、Wはyとqの関係を記述した変換行列(定数)である。ここで、P(q|c,γ) は学習処理により学習したパラメータγで与えられるGMM であり、 W is a transformation matrix (constant) describing the relationship between y and q. Here, P (q | c, γ) is a GMM given by the parameter γ learned by the learning process,

で与えられる。ただし、m= (m1,...,mK) であり、mk は時刻k におけるGMMの成分インデックスを表す。ここで、P(q[k]|c[k],γ) が Given in. Here, m = (m 1 ,..., M K ), and m k represents the component index of the GMM at time k. Where P (q [k] | c [k], γ) is

により近似できるとする。式(12)より、^mkは、データc[k]を生成したらしい確率が最も高い正規分布のインデックスを意味する。よって、式(9)よりP(q|c,m,^γ)はすべてのkについて Can be approximated by From equation (12), ^ m k means a normal distribution index having the highest probability of generating data c [k]. Therefore, from equation (9), P (q | c, m, ^ γ) is for all k.

の積をとったもので与えられる。式(11)の近似によりP(q|c,γ)は It is given by taking the product of By approximation of equation (11), P (q | c, γ) is

を連結したベクトルe(q|c)を平均、 The vector e (q | c) concatenated with

を対角成分としたブロック対角行列D(q|c) を分散共分散行列とした正規分布 Distribution with block diagonal matrix D (q | c) as a variance-covariance matrix

となる。これにq=Wyを代入し、yの分布となるように正規化すると、 It becomes. Substituting q = Wy into this and normalizing to be the distribution of y,

となるため、 So that

のようにyの条件付き分布を得る。よって、式(8)の解は、 A conditional distribution of y is obtained as follows. Therefore, the solution of equation (8) is

となる。 It becomes.

<関連技術2:F0パターン生成過程モデル>
次に、F0パターン生成過程の確率モデルについて説明する。
<Related technology 2: F 0 pattern generation process model>
Next, a probability model of the F 0 pattern generation process will be described.

音声のF0パターンの生成過程を記述したモデルに、藤崎の基本周波数(F0)パターン生成過程モデル(藤崎モデル)が知られている(非特許文献6)。 Fujisaki's fundamental frequency (F 0 ) pattern generation process model (Fujisaki model) is known as a model that describes the F 0 pattern generation process of speech (Non-patent Document 6).

[非特許文献6]:H. Fujisaki, "In Vocal Physiology: Voice Production, Mechanisms and Functions," Raven Press, 1988. [Non-Patent Document 6]: H. Fujisaki, “In Vocal Physiology: Voice Production, Mechanisms and Functions,” Raven Press, 1988.

藤崎モデルとは、甲状軟骨の運動によるF0 パターンの生成過程を説明した物理モデルである。藤崎モデルでは、甲状軟骨の二つの独立な運動(平行移動運動と回転運動)にそれぞれ伴う声帯の伸びの合計がF0の時間的変化をもたらすと解釈され、声帯の伸びとF0パターンの対数値y(t) が比例関係にあるという仮定に基づいてF0パターンがモデル化される。甲状軟骨の平行移動運動によって生じるF0パターンxp(t)をフレーズ成分、回転運動によって生じるF0 パターンxa(t) をアクセント成分と呼ぶ。藤崎モデルでは、音声のF0 パターンy(t) は、これらの成分に声帯の物理的制約によって決まるベースライン成分b を足し合わせたものとして、 The Fujisaki model is a physical model describing the process of generating F 0 pattern due to the motion of the thyroid cartilage. The Fujisaki model, the total elongation of the vocal cords with each two independent movement of the thyroid cartilage (translational motion and rotational motion) is interpreted to result temporal variation of F 0, pairs of elongation and F 0 pattern of the vocal cords The F 0 pattern is modeled on the assumption that the numerical value y (t) is proportional. The F 0 pattern x p (t) generated by the translational motion of the thyroid cartilage is called a phrase component, and the F 0 pattern x a (t) generated by the rotational motion is called an accent component. In the Fujisaki model, the F 0 pattern y (t) of speech is the sum of these components plus the baseline component b determined by the physical constraints of the vocal cords.

と表現される。これら二つの成分は二次の臨界制動系の出力と仮定され、 It is expressed as These two components are assumed to be the output of the second-order critical braking system,

と表される(* は時刻t に関する畳み込み演算)。ここでup(t) はフレーズ指令関数と呼ばれ、デルタ関数(フレーズ指令)の列からなり、ua(t) はアクセント指令関数と呼ばれ、矩形波(アクセント指令)の列からなる。これらの指令列には、発話の最初にはフレーズ指令が生起する、フレーズ指令は二連続で生起しない、異なる二つの指令は同時刻に生起しない、という制約条件がある。またαとβはそれぞれフレーズ制御機構、アクセント制御機構の固有角周波数であり、話者や発話内容によらず、おおよそα=3 rad/s、β=20 rad/s 程度であることが経験的に知られている。 (* Is a convolution operation with respect to time t). Here, u p (t) is called a phrase command function and consists of a sequence of delta functions (phrase commands), and u a (t) is called an accent command function and consists of a sequence of rectangular waves (accent commands). These command sequences have a constraint condition that a phrase command occurs at the beginning of an utterance, phrase commands do not occur twice in succession, and two different commands do not occur at the same time. Α and β are the natural angular frequencies of the phrase control mechanism and the accent control mechanism, respectively. It is experiential that α is approximately 3 rad / s and β is 20 rad / s, regardless of the speaker or utterance content. Known to.

<関連技術3:F0パターン生成過程モデルパラメータ推定法>
上述の藤崎モデルは以下のような確率モデルで記述することができる(非特許文献4、5、7参照)。
<Related technology 3: F 0 pattern generation process model parameter estimation method>
The above-mentioned Fujisaki model can be described by the following probability model (see Non-Patent Documents 4, 5, and 7).

[非特許文献7]:石原達馬, 吉里幸太, 亀岡弘和, 齋藤大輔, 嵯峨山茂樹, \音声基本周波数の藤崎モデル指令列の統計的語彙モデル," 日本音響学会2013 年春季研究発表会講演論文集, 1-7-9, pp. 283-286, Mar. 2013. [Non-Patent Document 7]: Tatsuma Ishihara, Kota Yoshizato, Hirokazu Kameoka, Daisuke Saito, Shigeki Hiyama, \ Statistical vocabulary model of the Fujisaki model command sequence of the fundamental speech frequency, "Lecture at the 2013 Acoustical Society of Japan Proceedings, 1-7-9, pp. 283-286, Mar. 2013.

まずフレーズ、アクセント指令関数のペアo[k] = (up[k], ua[k])T を出力するHMM を考える。ただし、k は離散時刻のインデックスを表す。状態出力分布は正規分布とし、各時刻の状態が与えられた下で First phrase, a pair o of accent command function [k] = (u p [ k], u a [k]) consider the HMM to output the T. Here, k represents an index of discrete time. The state output distribution is a normal distribution.

により指令関数ペアo[k] が生成されるものとする。ここで{skK k=1 はHMMの状態系列であり、平均ベクトルρ[k] はHMM の状態遷移の結果として定まる値である。具体的なHMM の構成の例を図1〜図3に示す。 The command function pair o [k] is generated by Here, {s k } K k = 1 is an HMM state sequence, and the average vector ρ [k] is a value determined as a result of the state transition of the HMM. Examples of specific HMM configurations are shown in FIGS.

図1に示すHMM の状態遷移ネットワークの例では、状態t = r0 においてμ(p) t [k] とμ(a) tはいずれも0 である。状態t = r0 からは状態p0 にのみ遷移することができ、状態t = p0においてμ(p) t [k] は非負値A(p)[k] をとり、μ(a) t は0 となる。状態t = p0 の次は状態r1 にのみ遷移することが許される。状態t = r0 同様、状態t = r1 においてμ(p) t [k] とμ(a) t はいずれも0 である。状態t = r1 からは状態a0,...,aN-1のいずれかにのみ遷移することができ、状態t = an においてμ(a) tは非負値A(a) n をとり、μ(p) t [k] は0 となる。状態t = anの次は状態r0 またはr1にのみ遷移することが許される。これよりμa[k] が矩形パルス列となることが保証される。 In the example of the state transition network of the HMM shown in FIG. 1, both μ (p) t [k] and μ (a) t are 0 in the state t = r 0 . The state t = r 0 can only transition to the state p 0 , and in the state t = p 0 , μ (p) t [k] takes a non-negative value A (p) [k], and μ (a) t Becomes 0. The transition after state t = p 0 is allowed only to state r 1 . Similar to state t = r 0 , μ (p) t [k] and μ (a) t are both 0 in state t = r 1 . A transition from state t = r 1 to only one of states a 0 , ..., a N-1 is possible, and in state t = a n μ (a) t is a non-negative value A (a) n Therefore, μ (p) t [k] is 0. Next state t = a n is allowed to transition only in the state r 0 or r 1. This guarantees that μ a [k] is a rectangular pulse train.

図2に示すHMMの状態遷移ネットワークの例では、状態t = r0 においてμ(p) t [k] とμ(a) tはいずれも0 である。状態t = r0 からは状態p0,...,pM-1のいずれかにのみ遷移することができ、状態t = pm においてμ(p) tは非負値A(p) m をとり、μ(a) t は0 となる。状態t = pm の次は状態r1にのみ遷移することが許される。状態t = r0 同様、状態t = r1 においてμ(p) t [k] とμ(a) t はいずれも0 である。状態t = r1 からは状態a0,...,aN-1のいずれかにのみ遷移することができ、状態t = an においてμ(a) tは非負値A(a) n をとり、μ(p) t は0 となる。状態t = anの次は状態r0 またはr1 にのみ遷移することが許される。これよりμa[k] が矩形パルス列となることが保証される。 In the example of the state transition network of the HMM shown in FIG. 2, both μ (p) t [k] and μ (a) t are 0 in the state t = r 0 . A transition from state t = r 0 to only one of states p 0 , ..., p M-1 is possible, and μ (p) t is a non-negative value A (p) m in state t = p m Therefore, μ (a) t becomes 0. Next state t = p m is allowed to transition only in state r 1. Similar to state t = r 0 , μ (p) t [k] and μ (a) t are both 0 in state t = r 1 . A transition from state t = r 1 to only one of states a 0 , ..., a N-1 is possible, and in state t = a n μ (a) t is a non-negative value A (a) n Therefore, μ (p) t becomes 0. Next state t = a n is allowed to transition only in the state r 0 or r 1. This guarantees that μ a [k] is a rectangular pulse train.

図3に示すHMMの状態遷移ネットワークの例では、それぞれの終点と始点が連結された複数のLeft-to-Right 型HMM からなる。図1、2と同様、状態t = rlにおいてμ(p) t [k] とμ(a) t はいずれも0 である。また、状態t = pm においてμ(p) tは非負値A(p) m をとり、μ(a) t は0 となる。状態t = anにおいてμ(a) tは非負値A(a) nをとり、μ(p) The example of the state transition network of the HMM shown in FIG. 3 is composed of a plurality of Left-to-Right type HMMs in which respective end points and start points are connected. Similar to Figure 1 and 2, both the state t = r l in μ (p) t [k] and mu (a) t is 0. The state t = In p m μ (p) t takes a nonnegative value A (p) m, μ ( a) t is 0. In the state t = a n μ (a) t takes a non-negative value A (a) n and μ (p)

tは0となる。 t is 0.

ρ[k]は、図1 の例では、以下の式(24)で表わされる。   In the example of FIG. 1, ρ [k] is expressed by the following equation (24).

また、図2, 3 の例では、ρ[k]は、以下の式(25)で表わされる。   2 and 3, ρ [k] is expressed by the following equation (25).

いずれの例においても、図4のようにそれぞれの状態を同じ出力分布をもついくつかの小状態に分割し、Left-to-Right 型の状態遷移経路を制約することで同一状態に停留する時間長の確率をパラメータ化することができる。図4 は状態an を分割した例である。例えばこの図のように全てのm≠0 に対してan,n′からan,n′+1 への状態遷移確率を1に設定することで,an,0からan,n′への遷移確率が状態an がn′ステップだけ持続する確率に対応し、アクセント指令の持続長の確率を設定したり学習したりできるようになる。同様にpm とrl も小状態に分割することで、フレーズ指令の持続長と指令間の間隔の長さの分布をパラメータ化することが可能になる。以後、状態集合を In either example, as shown in FIG. 4, the time for each state to stay in the same state by dividing it into several small states with the same output distribution and restricting the left-to-right state transition path Long probabilities can be parameterized. Figure 4 is an example of dividing the state a n. For example, by setting the state transition probability from a n, n ′ to a n, n ′ + 1 to 1 for all m ≠ 0 as shown in this figure, a n, 0 to a n, n ′ transition probabilities to correspond to the probability that state a n lasts only n 'step, it becomes possible or to learn to set the probability of persistence length of accent command. Similarly, by dividing p m and r l into small states, it becomes possible to parameterize the distribution of the duration of the phrase command and the length of the interval between commands. After that, the state set

と表記する。上記のHMM の構成は次のように書ける。 Is written. The configuration of the above HMM can be written as follows.

状態系列s = {skK k=1 が与えられたとき、このHMM はフレーズ指令関数up[k] とアクセント指令関数ua[k] のペアを出力する。式(18) と式(20) で示した通り、up[k] とua[k] にそれぞれgp[k] とga[k] が畳み込まれてフレーズ成分xp[k] とアクセント成分xa[k] が出力される。これを式で表すと、 When the state sequence s = {s k } K k = 1 is given, the HMM outputs a pair of a phrase command function u p [k] and an accent command function u a [k]. As shown in Eqs. (18) and (20), g p [k] and g a [k] are convolved with u p [k] and u a [k], respectively, and the phrase component x p [k] And the accent component x a [k] are output. This can be expressed as an expression:

と書ける(* は離散時刻k に関する畳み込み演算)。このとき,F0 パターンx[k] は (* Is a convolution operation for discrete time k). At this time, the F 0 pattern x [k] is

と三種類の成分の重ね合わせで書ける。ただしb は時刻によらないベースライン成分である。 And can be written by superimposing three kinds of components. Where b is a baseline component that does not depend on time.

また、実音声においては、いつも信頼のできるF0 の値が観測できるとは限らない。藤崎モデルのパラメータ推定を行うにあたっては、信頼のおける観測区間のF0 値のみを考慮に入れて、そうでない区間は無視することが望ましい。例えば音声の無声区間においては通常声帯の振動に伴う周期的な粗密波は観測されないので、仮に自動ピッチ抽出によって音声の無声区間から何らかの値がF0 の推定値として得られたとしても、その値を声帯から発せられる信号のF0 の値と見なすのは適当ではない。そこで、提案モデルに観測F0値の時刻k における不確かさの程度v2 n[k] を導入する。具体的には、観測F0 値y[k] を、真のF0 値x[k] とノイズ成分 In real speech, reliable F 0 values are not always observable. When estimating the parameters of the Fujisaki model, it is desirable to consider only the F 0 value of the reliable observation interval and ignore the other intervals. For example, in a voiceless section, periodic coarse / fine waves associated with normal vocal cord vibration are not observed, so even if some value is obtained as an estimated value of F 0 from the voiceless section by automatic pitch extraction, its value Is not considered to be the value of F 0 of a signal emitted from the vocal cords. Therefore, the degree of uncertainty v 2 n [k] at time k of the observed F 0 value is introduced into the proposed model. Specifically, the observed F 0 value y [k], the true F 0 value x [k] and the noise component

との重ね合わせで With overlay

と表現することで、信頼のおける区間かどうかに関わらず全ての観測区間を統一的に扱える。 This means that all observation intervals can be handled uniformly regardless of whether they are reliable intervals.

xn[k] を周辺化することで、出力値系列o = {o[k]}K k=1 が与えられたときのy = {y[k]}K k=1 の確率密度関数 Probability density function of y = {y [k]} K k = 1 given the output value sequence o = {o [k]} K k = 1 by marginalizing x n [k]

が得られる。状態系列s = {skK k=1 と指令の振幅を表すパラメータ Is obtained. State series s = {s k } K k = 1 and parameter indicating command amplitude

および遷移確率行列φ = (φi,j)I×I が与えられたとき、出力値系列o は And the transition probability matrix φ = (φ i, j ) I × I , the output value sequence o is

に従って生成される。また、P(s|φ) は状態遷移確率の積として Is generated according to P (s | φ) is the product of the state transition probabilities.

と書ける。ただし、 Can be written. However,

は初期状態がs1である確率をあらわす。式(30)、(32) および式(33) よりP(y,o,s|θ,φ) は Represents the probability that the initial state is s 1 . From equations (30), (32) and (33), P (y, o, s | θ, φ) is

と書ける。これをo に関して周辺化すると Can be written. If this is marginalized with respect to o,

が得られる。ただし、 Is obtained. However,





である。一方、s に関して周辺化すると It is. On the other hand, if you marginalize s

が得られる。ただし、Σs はあらゆる状態系列に関して和をとる操作を意味する。 Is obtained. However, Σ s means an operation for taking a sum for all state sequences.

<パラメータ推定アルゴリズム1>
yとoを完全データと見なすことで、式(35) を局所最大化するsとθ をExpectation-Maximization アルゴリズムにより探索することができる。導出は省略するが、
<Parameter estimation algorithm 1>
By regarding y and o as complete data, s and θ that locally maximize Equation (35) can be searched by the Expectation-Maximization algorithm. Although derivation is omitted,

が大きくなるようにsとθを更新するステップと、更新したsとθを用いて Updating s and θ so that becomes large, and using the updated s and θ

とRを And R

により更新するステップを繰り返すことで式(35) を単調増加させることができる(詳細は、上記非特許文献4参照)。 (35) can be monotonously increased by repeating the updating step according to the above (refer to Non-Patent Document 4 above for details).

具体的には、以下の初期設定、Eステップ、及びMステップが実行される。   Specifically, the following initial setting, E step, and M step are executed.

(初期設定)
sとθを初期設定する。
(Initial setting)
s and θ are initialized.

(E ステップ)
フレーズ成分、アクセント成分、ベースライン成分の条件付き期待値
(E step)
Conditional expected values for phrase, accent, and baseline components

と条件付き分散共分散行列Rを And the conditional covariance matrix R

により更新する。ただし、 Update with However,



である。また、Rにおける It is. Also in R

に対応するブロック対角成分を The block diagonal component corresponding to

とする。 And

すなわち、   That is,

である(* は以後用いないブロック成分である)。 (* Is a block component not used later).

(Mステップ)
Q(s,θ) が最大となる状態系列s= (s1,...,sK) を探索する。γp とγaは対角行
(M step)
A state series s = (s 1 ,..., S K ) that maximizes Q (s, θ) is searched. γ p and γ a are diagonal

列なので、 Since it is a column,



はいずれも Are both

のようにkごとの項の和の形で書ける。従って、Q(s,θ) はsに依らない項を除けば Can be written in the form of the sum of terms for every k. Therefore, Q (s, θ) is aside from terms that do not depend on s.

と書ける。従って、Q(s,θ) を最大にする状態系列s= (s1,...,sK)はViterbiアルゴリズムにより求めることができる(詳細は上記非特許文献4参照)。ただし、[・]k,k は行列のk 行k 列の要素、[・]kはベクトルの第k 要素を表す。 Can be written. Therefore, the state sequence s = (s 1 ,..., S K ) that maximizes Q (s, θ) can be obtained by the Viterbi algorithm (refer to Non-Patent Document 4 for details). Here, [·] k, k represents a k-by-k element of the matrix, and [·] k represents a k-th element of the vector.

続いて、Q(s,θ)を最大にするようにθを更新する。Q(s,θ)を最大にするθは、Q(s,θ)の各変数に関する偏微分を0 と置くことにより得られる(詳細は上記非特許文献4参照)。   Subsequently, θ is updated to maximize Q (s, θ). Θ that maximizes Q (s, θ) can be obtained by setting the partial differential for each variable of Q (s, θ) to 0 (for details, see Non-Patent Document 4 above).

また、推定された状態系列sから、状態遷移確率φが求められる。   Further, a state transition probability φ is obtained from the estimated state sequence s.

[第1の実施の形態]
<本発明の実施の形態の概要>
本発明の実施の形態の技術は、上述した関連技術1と同様、学習処理と変換処理からなるが、式(8) の代わりに関連技術1の確率分布と関連技術2の確率分布を"Expert"としたProduct-of-Experts (非特許文献9参照)を用いることにより,関連技術2のF0 パターン生成過程モデルにできるだけ即したF0 パターンをスペクトル特徴量から統計的に予測することを可能にする技術である。
[First Embodiment]
<Outline of Embodiment of the Present Invention>
The technique according to the embodiment of the present invention includes a learning process and a conversion process as in the related technique 1 described above. Instead of the expression (8), the probability distribution of the related technique 1 and the probability distribution of the related technique 2 are expressed as By using “Product-of-Experts” (see Non-Patent Document 9), it is possible to statistically predict F 0 patterns from spectral features that are as close as possible to the F0 pattern generation process model of Related Technology 2. Technology.

[非特許文献9]:G. E. Hinton, “Training Products of Experts by Minimizing Contrastive Divergence," Neural Computation, no. 14, no. 8, pp. 1771-1800, 2002. [Non-Patent Document 9]: G. E. Hinton, “Training Products of Experts by Minimizing Contrastive Divergence,” Neural Computation, no. 14, no. 8, pp. 1771-1800, 2002.

学習処理と変換処理では、後述するc、yの結合分布P(c,y,m,s|γ,θ,φ)を共通の規準とする。   In the learning process and the conversion process, a joint distribution P (c, y, m, s | γ, θ, φ) of c and y described later is used as a common criterion.

学習処理ではパラレルデータの学習サンプル{c[k],q[k]}K k=1が与えられた下でc,yの結合分布P(c,y,m,s|γ,θ,φ)ができるだけ大きくなるようにγ、θ、φを学習する。本実施の形態では、γと、θ、φとを別々に学習する。例えば、学習サンプルのF0 パターン{y[k]}K k=1が与えられた下で、上述した関連技術3のパラメータ推定アルゴリズム1を用いてP(y,s|θ,φ)ができるだけ大きくなるようにθとφを学習する。そして、θ、φを固定し、P(c,y,m,s|γ,θ,φ)ができるだけ大きくなるようにγを学習する。 In the learning process, a learning distribution {c [k], q [k]} K k = 1 of the parallel data is given, and the joint distribution P (c, y, m, s | γ, θ, φ of c, y is given. ) Is learned so as to be as large as possible. In the present embodiment, γ, θ, and φ are learned separately. For example, given the F 0 pattern {y [k]} K k = 1 of the learning sample, P (y, s | θ, φ) can be as much as possible using the parameter estimation algorithm 1 of the related technique 3 described above. Learn θ and φ to be large. Then, θ and φ are fixed, and γ is learned so that P (c, y, m, s | γ, θ, φ) becomes as large as possible.

なお、学習サンプルのフレーズ・アクセント指令データoが与えられる下では、上述した関連技術3を用いてP(o|θ、φ) ができるだけ大きくなるようにθとφを学習するようにしてもよい。   Under the condition that the phrase / accent command data o of the learning sample is given, the related technique 3 described above may be used to learn θ and φ so that P (o | θ, φ) is as large as possible. .

<システム構成>
次に、ソース音声のスペクトル特徴量系列から、ターゲット音声の基本周波数パターンを予測する基本周波数パターン予測装置に、本発明を適用した場合を例にして、本発明の実施の形態を説明する。
<System configuration>
Next, an embodiment of the present invention will be described by taking as an example a case where the present invention is applied to a fundamental frequency pattern prediction apparatus that predicts a fundamental frequency pattern of a target speech from a spectral feature quantity sequence of a source speech.

図5に示すように、本発明の第1の実施の形態に係る基本周波数パターン予測装置は、CPUと、RAMと、後述する学習処理ルーチン、及び基本周波数パターン予測処理ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータで構成され、機能的には次に示すように構成されている。   As shown in FIG. 5, the fundamental frequency pattern prediction apparatus according to the first embodiment of the present invention includes a CPU, a RAM, a learning processing routine, and a program for executing a fundamental frequency pattern prediction processing routine, which will be described later. The computer is provided with a ROM that stores the above, and is functionally configured as follows.

図5に示すように、基本周波数パターン予測装置100は、入力部10と、演算部20と、出力部90とを備えている。   As shown in FIG. 5, the fundamental frequency pattern prediction apparatus 100 includes an input unit 10, a calculation unit 20, and an output unit 90.

入力部10は、学習サンプルのソース音声(例えば電気音声)の時系列データとターゲット音声(例えば自然音声)の時系列データとからなるパラレルデータを受け付ける。また、入力部10は、予測対象のソース音声の時系列データを受け付ける。   The input unit 10 accepts parallel data composed of time-series data of the source sound (for example, electric sound) of the learning sample and time-series data of the target sound (for example, natural sound). In addition, the input unit 10 receives time-series data of the source audio to be predicted.

演算部20は、学習部30と、パラメータ記憶部40と、変換処理部50とを備えている。   The calculation unit 20 includes a learning unit 30, a parameter storage unit 40, and a conversion processing unit 50.

図6に示すように、学習部30は、特徴量抽出部32と、基本周波数系列抽出部34と、第1モデルパラメータ学習部36と、第2モデルパラメータ学習部38とを備えている。   As shown in FIG. 6, the learning unit 30 includes a feature amount extraction unit 32, a fundamental frequency series extraction unit 34, a first model parameter learning unit 36, and a second model parameter learning unit 38.

特徴量抽出部32は、入力部10によって受け付けた学習サンプルのソース音声の時系列データから、ソース音声のスペクトグラム特徴量ベクトルc[k]を抽出する。ここでk は離散時刻のインデックスである。例えば、非特許文献1〜3と同様に、時刻k を中心とした前後数フレーム分のメルケプストラム(ベクトル)の系列を連結したベクトルに対し主成分分析により次元圧縮を行ったものをc[k] として用いる。   The feature quantity extraction unit 32 extracts the source speech spectogram feature quantity vector c [k] from the time series data of the source speech of the learning sample received by the input unit 10. Where k is an index of discrete time. For example, as in Non-Patent Documents 1 to 3, a vector obtained by performing dimension compression by principal component analysis on a vector obtained by concatenating a series of mel cepstrum (vectors) for several frames around the time k is used as c [k ] Is used.

基本周波数系列抽出部34は、入力部10によって受け付けた学習サンプルのターゲット音声の時系列データから、ターゲット音声の各時刻kにおける基本周波数y[k]を抽出し、y = (y[1],..., y[K])Tとする。 The fundamental frequency series extraction unit 34 extracts the fundamental frequency y [k] at each time k of the target speech from the time series data of the target speech of the learning sample received by the input unit 10, and y = (y [1], ..., y [K]) T.

この基本周波数の抽出処理は、周知技術により実現でき、例えば、非特許文献8(H. Kameoka, "Statistical speech spectrum model incorporating all-pole vocal tract model and F0 contour generating process model," in Tech. Rep. IEICE, 2010, in Japanese.)に記載の手法を利用して、8msごとに基本周波数を抽出する。 This fundamental frequency extraction process can be realized by a well-known technique. For example, Non-Patent Document 8 (H. Kameoka, “Statistical speech spectrum model incorporating all-pole vocal tract model and F 0 contour generating process model,” in Tech. Rep. IEICE, 2010, in Japanese.) The fundamental frequency is extracted every 8 ms.

また、y とその動的成分(時間微分または時間差分)の結合ベクトル(F0 特徴量と呼ぶ。)をq[k] = (y[k],Δy[k])T とする。 Also, let q [k] = (y [k], Δy [k]) T be the combined vector (called F 0 feature) of y and its dynamic component (time derivative or time difference).

以上より、{c[k],q[k]}K k=1 というデータが得られる。 As described above, data {c [k], q [k]} K k = 1 is obtained.

第2モデルパラメータ学習部38は、基本周波数系列抽出部34によって抽出された各時刻kの基本周波数y[k]に基づいて、各時刻kの基本周波数y[k]と、隠れマルコフモデルの各時刻の状態からなる状態系列sとの組み合わせの確率分布である第2確率分布のパラメータを学習する。   The second model parameter learning unit 38, based on the fundamental frequency y [k] at each time k extracted by the fundamental frequency sequence extraction unit 34, each of the fundamental frequency y [k] at each time k and the hidden Markov model. A parameter of the second probability distribution, which is a probability distribution of a combination with the state series s composed of time states, is learned.

具体的には、第2モデルパラメータ学習部38は、上述した関連技術3のF0 パターン生成過程モデルパラメータ推定法のパラメータ推定アルゴリズム1に従って、F0パターン生成過程モデルのパラメータθ、φを学習する。 Specifically, the second model parameter learning unit 38 learns the parameters θ and φ of the F 0 pattern generation process model according to the parameter estimation algorithm 1 of the F 0 pattern generation process model parameter estimation method of the related technique 3 described above. .

もし学習サンプルのフレーズ指令系列とアクセント指令系列のペアのデータo = {okK k=1 が入手できるのであれば,o からθ、φを学習しても良い(HMM の通常の学習に相当)。学習したF0パターン生成過程モデルのパラメータを^θ、^φとする。 If data o = {o k } K k = 1 is available for the phrase command sequence and accent command sequence in the learning sample, θ and φ may be learned from o (for normal learning in HMM). Equivalent). Let the parameters of the learned F 0 pattern generation process model be ^ θ and ^ φ.

第1モデルパラメータ学習部36は、特徴量抽出部32によって抽出された各時刻kのスペクトル特徴量ベクトルc[k]と、基本周波数系列抽出部34によって抽出された各時刻kの基本周波数の結合ベクトルq[k]と、第2モデルパラメータ学習部38によって学習されたパラメータθ、φとに基づいて、c、yの結合分布P(c,y,m,s|γ,θ,φ)ができるだけ大きくなるように、ソース音声の各時刻のスペクトル特徴量ベクトルc[k]とターゲット音声の各時刻kの基本周波数の結合ベクトルq[k]との同時確率分布を表す混合正規分布である第1確率分布のパラメータγを学習する。   The first model parameter learning unit 36 combines the spectral feature vector c [k] at each time k extracted by the feature extraction unit 32 and the fundamental frequency at each time k extracted by the fundamental frequency sequence extraction unit 34. Based on the vector q [k] and the parameters θ and φ learned by the second model parameter learning unit 38, the combined distribution P (c, y, m, s | γ, θ, φ) of c and y is obtained. A mixed normal distribution representing a joint probability distribution of the spectral feature vector c [k] at each time of the source speech and the combined vector q [k] of the fundamental frequency at each time k of the target speech so as to be as large as possible. A parameter γ of one probability distribution is learned.

<学習・変換規準>
ここで、学習処理と変換処理で共通となる規準について説明する。
<Learning / Conversion Criteria>
Here, a standard common to the learning process and the conversion process will be described.

c、yの結合分布P(c,y,m,s|γ,θ,φ)は以下の形で与えられる。   The joint distribution P (c, y, m, s | γ, θ, φ) of c and y is given in the following form.


ただし、


However,

以上よりc、yの結合分布P(c,y,m,s|γ,θ,φ)は、GMMベースのF0パターン予測モデルとF0 パターン生成過程モデルの確率分布の積を正規化した分布と見なせ、ΛおよびΓは両モデルの寄与の大きさを表した行列である。いずれも任意の対角行列(定数)とする。他の変数については、上述した関連技術1と関連技術3 の記述と同様である。また、上記では分かりやすさのためGMM の成分インデックス系列とHMMの状態系列に依存する変数には上付き文字(m), (s) を付与している。 As described above, the combined distribution P (c, y, m, s | γ, θ, φ) of c and y has normalized the product of the probability distributions of the GMM-based F 0 pattern prediction model and the F 0 pattern generation process model. Λ and Γ are matrices representing the magnitudes of the contributions of both models. Both are arbitrary diagonal matrices (constants). Other variables are the same as those described in Related Technology 1 and Related Technology 3 described above. In addition, in the above, the superscripts (m) and (s) are given to variables depending on the GMM component index sequence and the HMM state sequence for the sake of simplicity.

<学習・変換処理のための統一的アルゴリズム>
次に、学習・変換処理のための統一的アルゴリズムについて説明する。
<Unified algorithm for learning and conversion>
Next, a unified algorithm for learning / conversion processing will be described.

学習処理も変換処理も同一規準を用いた最適化問題   Optimization problem using the same criterion for both learning and transformation

となり(固定する変数と推定する変数が異なるだけである)、qとuを潜在変数(隠れ変数)と扱うことでExpectation-Maximization アルゴリズムを適用することができる。y、c、q、uを完全データとすると,完全データに対する尤度関数は、以下のように書ける。 Thus, the Expectation-Maximization algorithm can be applied by treating q and u as latent variables (hidden variables). If y, c, q, and u are complete data, the likelihood function for the complete data can be written as follows.


ただし、

However,

式(92) を平方完成すると、P(c,y,m,s|γ,θ,φ)は、以下のように表される。   When the equation (92) is squarely completed, P (c, y, m, s | γ, θ, φ) is expressed as follows.



E ステップで、以下の式(100)、(101)に従って期待値を算出する。   In step E, the expected value is calculated according to the following equations (100) and (101).

Mステップで、   In M steps,

が最大となるように各変数を更新することでlogP(c,y,m,s|γ,θ,φ)を大きくすることができるので、E ステップとM ステップを繰り返すことで当該最適化問題の局所最適解を得ることができる。 LogP (c, y, m, s | γ, θ, φ) can be increased by updating each variable so that the maximum value is obtained. Therefore, the optimization problem can be obtained by repeating E step and M step. Can be obtained.

以上説明した原理に従って、第1モデルパラメータ学習部36は、第2モデルパラメータ学習部36で学習されたパラメータθ、φを固定して、特徴量抽出部32によって抽出された各時刻kのスペクトル特徴量ベクトルc[k]と、基本周波数系列抽出部34によって抽出された各時刻kの基本周波数の結合ベクトルq[k]と、に基づいて、EM(Expectation-Maximization)アルゴリズムにより、E ステップとM ステップを繰り返すことで、logP(c,y,m,s|γ,θ,φ)を大きくするように、第1確率分布のGMMのパラメータγを学習する。学習したGMM パラメータを^γとする。   In accordance with the principle described above, the first model parameter learning unit 36 fixes the parameters θ and φ learned by the second model parameter learning unit 36, and the spectral features at each time k extracted by the feature amount extraction unit 32. Based on the quantity vector c [k] and the combined vector q [k] of the fundamental frequency at each time k extracted by the fundamental frequency sequence extraction unit 34, an E step and an M are performed by an EM (Expectation-Maximization) algorithm. By repeating the steps, the GMM parameter γ of the first probability distribution is learned so as to increase logP (c, y, m, s | γ, θ, φ). Let the learned GMM parameter be ^ γ.

変換処理部50は、予測対象のソース音声の時系列データを入力として、ソース音声の時系列データから抽出される各時刻のスペクトル特徴量ベクトルと、第1モデルパラメータ学習部36によって学習された第1確率分布のパラメータγと、第2モデルパラメータ学習部38によって学習された第2確率分布のパラメータθ、φとに基づいて、EM(Expectation-Maximization)アルゴリズムにより、E ステップとM ステップを繰り返すことで、学習処理と共通の規準であるP(c,y,m,s|γ,θ,φ)を大きくするように、各時刻の基本周波数yと、各時刻kのスペクトル特徴量ベクトルを生成したらしい確率が最も高い正規分布のインデックスm、各時刻の状態からなる状態系列sを推定することにより、予測対象のソース音声に対応するターゲット音声の各時刻の基本周波数yを予測する。   The conversion processing unit 50 receives the time-series data of the source speech to be predicted as an input, the spectral feature vector at each time extracted from the time-series data of the source speech, and the first model parameter learning unit 36 learned the first time. Based on the parameter γ of one probability distribution and the parameters θ and φ of the second probability distribution learned by the second model parameter learning unit 38, the E step and the M step are repeated by an EM (Expectation-Maximization) algorithm. In order to increase P (c, y, m, s | γ, θ, φ), which is a criterion common to the learning process, the spectrum feature vector at each time k and the spectral feature vector at each time k is generated. The target sound corresponding to the source sound to be predicted is estimated by estimating the normal distribution index m having the highest probability and the state series s composed of the states at each time. To predict the fundamental frequency y of each time.

本実施の形態では、図7に示すように、変換処理部50は、特徴量抽出部52と、期待値算出部54と、変数更新部56と、収束判定部58とを備えている。   In the present embodiment, as illustrated in FIG. 7, the conversion processing unit 50 includes a feature amount extraction unit 52, an expected value calculation unit 54, a variable update unit 56, and a convergence determination unit 58.

特徴量抽出部52は、入力部10によって受け付けた予測対象のソース音声の時系列データから、特徴量抽出部32と同様に、ソース音声の各時刻kのスペクトグラム特徴量ベクトルc[k]を抽出する。   Similar to the feature quantity extraction unit 32, the feature quantity extraction unit 52 obtains the spectrogram feature quantity vector c [k] of the source speech at each time k from the time series data of the prediction target source voice received by the input unit 10. Extract.

期待値算出部54は、第1モデルパラメータ学習部36によって学習された第1確率分布のパラメータγと、第2モデルパラメータ学習部38によって学習された第2確率分布のパラメータθ、φと、特徴量抽出部52によって抽出された各時刻kのスペクトル特徴量ベクトルc[k]と、変数更新部56によって前回更新された各時刻の基本周波数y、各時刻kの正規分布のインデックスm、及び各時刻の状態からなる状態系列sとに基づいて、上記式(100)、式(101)に従って、期待値を算出する。   The expected value calculation unit 54 includes the parameter γ of the first probability distribution learned by the first model parameter learning unit 36, the parameters θ and φ of the second probability distribution learned by the second model parameter learning unit 38, and the feature The spectral feature vector c [k] at each time k extracted by the quantity extraction unit 52, the basic frequency y at each time last updated by the variable update unit 56, the index m of the normal distribution at each time k, and each Based on the state series s composed of time states, the expected value is calculated according to the above formulas (100) and (101).

変数更新部56は、期待値算出部54によって算出された期待値に基づいて、上記式(102)が最大となるように、各時刻の基本周波数yと、各時刻kの正規分布のインデックスmと、各時刻の状態からなる状態系列sとを更新する。   Based on the expected value calculated by the expected value calculation unit 54, the variable update unit 56 sets the basic frequency y at each time and the index m of the normal distribution at each time k so that the formula (102) becomes maximum. And the state series s composed of the states at the respective times are updated.

収束判定部58は、予め定められた収束判定条件を満たすまで、期待値算出部54及び変数更新部56による各処理を繰り返させる。収束判定条件としては、例えば、予め定められた繰り返し回数に到達することである。   The convergence determination unit 58 repeats each process performed by the expected value calculation unit 54 and the variable update unit 56 until a predetermined convergence determination condition is satisfied. The convergence determination condition is, for example, reaching a predetermined number of repetitions.

収束判定条件を満たしたときに、最終的に得られた各時刻kの基本周波数y[k]を、予測対象のソース音声に対応するターゲット音声の各時刻の基本周波数の予測結果として、出力部90により出力する。   When the convergence determination condition is satisfied, the fundamental frequency y [k] finally obtained at each time k is output as a prediction result of the fundamental frequency at each time of the target speech corresponding to the source speech to be predicted. 90 for output.

<基本周波数パターン予測装置の作用>
次に、本実施の形態に係る基本周波数パターン予測装置100の作用について説明する。まず、学習サンプルのソース音声の時系列データ及びターゲット音声の時系列データからなるパラレルデータが、基本周波数パターン予測装置100に入力されると、基本周波数パターン予測装置100において、図8に示す学習処理ルーチンが実行される。
<Operation of fundamental frequency pattern prediction device>
Next, the operation of basic frequency pattern prediction apparatus 100 according to the present embodiment will be described. First, when parallel data composed of time series data of source speech and target speech of a learning sample is input to the fundamental frequency pattern prediction device 100, the fundamental frequency pattern prediction device 100 performs the learning process shown in FIG. The routine is executed.

まず、ステップS101において、入力されたソース音声の時系列データを読み込み、   First, in step S101, input time-series data of the source sound is read,

各時刻kのスペクトル特徴量ベクトルc[k]を抽出する。ステップS102において、入力されたターゲット音声の時系列データを読み込み、ターゲット音声の各時刻kにおける基本周波数y[k]を抽出し、また、基本周波数y[k]とその動的成分の結合ベクトルq[k]を抽出する。 A spectral feature vector c [k] at each time k is extracted. In step S102, the time-series data of the input target speech is read, the fundamental frequency y [k] at each time k of the target speech is extracted, and the combined vector q of the fundamental frequency y [k] and its dynamic component is extracted. Extract [k].

ステップS104では、状態系列sと、各時刻における状態に応じたフレーズ指令の振幅及び各アクセント指令の振幅を表すパラメータθとを初期設定する。   In step S104, the state series s and the parameter θ representing the amplitude of the phrase command and the amplitude of each accent command corresponding to the state at each time are initialized.

そして、ステップS105において、上記式(49)、式(50)に従って、フレーズ成分、アクセント成分、ベースライン成分の条件付き期待値 ̄xと、条件付き分散共分散行列Rとを更新する。   In step S105, the conditional expected value  ̄x of the phrase component, the accent component, and the baseline component and the conditional variance-covariance matrix R are updated according to the above formulas (49) and (50).

次のステップS106では、上記ステップS104で初期設定された、又は後述するステップS107で前回更新されたパラメータθと、上記ステップS105で更新されたフレーズ成分、アクセント成分、ベースライン成分の条件付き期待値 ̄xと、条件付き分散共分散行列Rとに基づいて、上記式(63)式を用いて、Q(s,θ) を最大にする状態系列s= (s1,...,sK)をViterbiアルゴリズムにより求めて、状態系列sを更新する。 In the next step S106, the parameter θ initially set in step S104 or updated last time in step S107, which will be described later, and the conditional expected values of the phrase component, accent component, and baseline component updated in step S105. Based on  ̄x and the conditional covariance matrix R, the state sequence s = (s 1 ,..., S K , which maximizes Q (s, θ), using the above equation (63). ) Is obtained by the Viterbi algorithm, and the state sequence s is updated.

ステップS107では、上記ステップS106で更新された状態系列sと、上記ステップS105で更新されたフレーズ成分、アクセント成分、ベースライン成分の条件付き期待値 ̄xと、条件付き分散共分散行列Rとに基づいて、Q(s,θ)の各変数に関する偏微分を0 と置くことにより、Q(s,θ) を最大にするパラメータθを求めて、各時刻における状態に応じたフレーズ指令の振幅及び各アクセント指令の振幅を表すパラメータθを更新する。   In step S107, the state series s updated in step S106, the conditional expected value  ̄x of the phrase component, accent component, and baseline component updated in step S105, and the conditional variance-covariance matrix R are included. Based on this, the parameter θ that maximizes Q (s, θ) is obtained by setting the partial differential for each variable of Q (s, θ) to 0, and the amplitude of the phrase command corresponding to the state at each time and The parameter θ representing the amplitude of each accent command is updated.

ステップS108において、予め定められた収束判定条件を満たしたか否かを判定し、収束判定条件を満たしていない場合には、上記ステップS105へ戻る。一方、収束判定条件を満たした場合には、ステップS109へ進む。   In step S108, it is determined whether or not a predetermined convergence determination condition is satisfied. If the convergence determination condition is not satisfied, the process returns to step S105. On the other hand, when the convergence determination condition is satisfied, the process proceeds to step S109.

ステップS109では、上記ステップS101で抽出された各時刻kのスペクトル特徴量ベクトルc[k]と、上記ステップS102で抽出された各時刻kの基本周波数の結合ベクトルq[k]と、上記ステップS107で最終的に得られたパラメータθと、上記ステップS106で最終的に得られた状態系列sから求められる状態遷移確率φと、後述するステップS110で前回更新されたパラメータγとに基づいて、上記式(100)、式(101)に従って、期待値を算出する。   In step S109, the spectral feature vector c [k] at each time k extracted in step S101, the combined vector q [k] of the fundamental frequency at each time k extracted in step S102, and the above step S107. On the basis of the parameter θ finally obtained in step S10, the state transition probability φ obtained from the state sequence s finally obtained in step S106, and the parameter γ previously updated in step S110 described later. The expected value is calculated according to the equations (100) and (101).

ステップS110では、上記ステップS109で算出された期待値に基づいて、上記式(102)が最大となるように、パラメータγを更新する。   In step S110, the parameter γ is updated based on the expected value calculated in step S109 so that the equation (102) becomes maximum.

ステップS112において、予め定められた収束判定条件を満たしたか否かを判定し、収束判定条件を満たしていない場合には、上記ステップS109へ戻る。一方、収束判定条件を満たした場合には、ステップS113において、上記ステップS107で最終的に得られたパラメータθと、上記ステップS106で最終的に得られた状態系列sから求められる状態遷移確率φと、上記ステップS110で最終的に得られたパラメータγとを、パラメータ記憶部40に格納する。   In step S112, it is determined whether or not a predetermined convergence determination condition is satisfied. If the convergence determination condition is not satisfied, the process returns to step S109. On the other hand, when the convergence determination condition is satisfied, in step S113, the state transition probability φ obtained from the parameter θ finally obtained in step S107 and the state sequence s finally obtained in step S106. And the parameter γ finally obtained in step S110 is stored in the parameter storage unit 40.

次に、予測対象のソース音声の時系列データが、基本周波数パターン予測装置100に入力されると、基本周波数パターン予測装置100において、図9に示す基本周波数パターン予測処理ルーチンが実行される。   Next, when the time-series data of the source speech to be predicted is input to the fundamental frequency pattern predicting apparatus 100, the fundamental frequency pattern predicting process routine shown in FIG.

まず、ステップS121において、入力された予測対象のソース音声の時系列データを読み込み、各時刻kのスペクトル特徴量ベクトルc[k]を抽出する。   First, in step S121, the input time-series data of the target speech to be predicted is read, and the spectrum feature vector c [k] at each time k is extracted.

ステップS122において、パラメータ記憶部40に記憶されたパラメータγと、上記ステップS121で抽出された各時刻のスペクトル特徴量ベクトルc[k]とに基づいて、上記式(16)に従って、各時刻kの基本周波数y[k]を推定することにより、各時刻kの基本周波数y[k]を初期設定すると共に、各時刻kの基本周波数の結合ベクトルq[k]に初期値を設定する。また、各時刻kのスペクトル特徴量ベクトルc[k]を生成したらしい確率が最も高い正規分布のインデックス^mkと、状態系列sとに、初期値を設定する。 In step S122, based on the parameter γ stored in the parameter storage unit 40 and the spectral feature quantity vector c [k] at each time extracted in step S121, according to the above equation (16), at each time k. By estimating the fundamental frequency y [k], the fundamental frequency y [k] at each time k is initialized, and an initial value is set to the coupling vector q [k] of the fundamental frequency at each time k. In addition, initial values are set in the normal distribution index ^ m k having the highest probability that the spectral feature vector c [k] at each time k is generated and the state sequence s.

ステップS123では、上記ステップS121で抽出された各時刻kのスペクトル特徴量ベクトルc[k]と、各時刻kの基本周波数y[k]、各時刻kの基本周波数y[k]から得られる各時刻kの基本周波数の結合ベクトルq[k]と、パラメータ記憶部40に記憶されたパラメータθ、状態遷移確率φ、及びパラメータγとに基づいて、上記式(100)、式(101)に従って、期待値を算出する。   In step S123, the spectral feature vector c [k] at each time k extracted in step S121, the fundamental frequency y [k] at each time k, and the fundamental frequency y [k] at each time k are obtained. Based on the combination vector q [k] of the fundamental frequency at time k, the parameter θ, the state transition probability φ, and the parameter γ stored in the parameter storage unit 40, according to the above equations (100) and (101), Calculate the expected value.

ステップS124では、上記ステップS123で算出された期待値に基づいて、上記式(102)が最大となるように、各時刻kの基本周波数y[k]、各時刻kの正規分布のインデックス^mk、及び状態系列sを更新する。 In step S124, based on the expected value calculated in step S123, the fundamental frequency y [k] at each time k and the normal distribution index ^ m at each time k so that the equation (102) is maximized. k and state series s are updated.

そして、ステップS125において、予め定められた収束判定条件を満たしたか否かを判定し、収束判定条件を満たしていない場合には、上記ステップS123へ戻る。一方、収束判定条件を満たした場合には、ステップS126において、上記ステップS124で最終的に得られた各時刻kの基本周波数y[k]を、予測対象のソース音声に対応するターゲット音声の各時刻の基本周波数の予測結果として、出力部90により出力し、基本周波数パターン予測処理ルーチンを終了する。   In step S125, it is determined whether or not a predetermined convergence determination condition is satisfied. If the convergence determination condition is not satisfied, the process returns to step S123. On the other hand, when the convergence determination condition is satisfied, in step S126, the fundamental frequency y [k] at each time k finally obtained in step S124 is set to each of the target speech corresponding to the source speech to be predicted. As a result of prediction of the fundamental frequency of time, the output unit 90 outputs the result, and the fundamental frequency pattern prediction processing routine is finished.

以上説明したように、第1の実施の形態に係る基本周波数パターン予測装置によれば、基本周波数パターン生成過程をモデル化した第2確率分布のパラメータθ、φを学習し、ソース音声の各時刻のスペクトル特徴量ベクトルとターゲット音声の各時刻の基本周波数との間の関係をモデル化した第1確率分布のパラメータγを、第1確率分布と第2確率分布とを用いて表される規準P(c,y,m,s|γ,θ,φ)を大きくするように学習し、予測対象のソース音声の時系列データから抽出される各時刻のスペクトル特徴量ベクトルから、第1確率分布と第2確率分布とを用いて表される規準P(c,y,m,s|γ,θ,φ)を大きくするように、予測対象のソース音声に対応するターゲット音声の各時刻の基本周波数を予測することにより、F0 パターンの物理的な生成過程の制約を考慮しながらスペクトル特徴量系列に対応する最適なF0パターンを推定することができる As described above, according to the fundamental frequency pattern prediction apparatus according to the first embodiment, the parameters θ and φ of the second probability distribution modeling the fundamental frequency pattern generation process are learned, and each time of the source speech The parameter P of the first probability distribution that models the relationship between the spectral feature vector of the target speech and the fundamental frequency at each time of the target speech is expressed as a criterion P expressed using the first probability distribution and the second probability distribution. Learning to increase (c, y, m, s | γ, θ, φ), and from the spectral feature quantity vector at each time extracted from the time series data of the source speech to be predicted, the first probability distribution and The basic frequency at each time of the target speech corresponding to the source speech to be predicted so as to increase the criterion P (c, y, m, s | γ, θ, φ) expressed using the second probability distribution by predicting the physical of F 0 pattern It is possible to estimate the optimal F 0 pattern corresponding to the spectral feature amount sequence taking into account the constraints of the production process

[第2の実施の形態]
次に、本発明の第2の実施の形態に係る基本周波数パターン予測装置について説明する。なお、第1の実施の形態と同様の構成となる部分については同一符号を付して説明を省略する。
[Second Embodiment]
Next, a fundamental frequency pattern prediction apparatus according to the second embodiment of the present invention will be described. In addition, the same code | symbol is attached | subjected about the part which becomes the same structure as 1st Embodiment, and description is abbreviate | omitted.

第2の実施の形態では、第2の確率分布が、P(y,o|θ,φ)であり、パラメータθ、φを推定する方法が第1の実施の形態と異なっている。   In the second embodiment, the second probability distribution is P (y, o | θ, φ), and the method for estimating the parameters θ and φ is different from that in the first embodiment.

第2の実施の形態に係る基本周波数パターン予測装置の学習部30の第2モデルパラメータ学習部38によるパラメータを学習する原理について説明する。   The principle of learning parameters by the second model parameter learning unit 38 of the learning unit 30 of the fundamental frequency pattern prediction apparatus according to the second embodiment will be described.

まず、関連技術3のF0パターン生成過程モデルパラメータ推定法のパラメータ推定アルゴリズムについて説明する。 First, the parameter estimation algorithm of the F 0 pattern generation process model parameter estimation method of the related technique 3 will be described.

<パラメータ推定アルゴリズム2>
観測F0系列yが与えられたもとで、モデルパラメータθとoの事後確率P(o,θ|y)の局所最適解を求める反復アルゴリズムを以下に示す。状態系列sを隠れ変数とし、事後確率P(o,θ|y) が、
<Parameter estimation algorithm 2>
Given an observation F 0 sequence y, an iterative algorithm for obtaining a local optimal solution of the posterior probabilities P (o, θ | y) of model parameters θ and o is shown below. The state series s is a hidden variable, and the posterior probability P (o, θ | y) is

をsについて周辺化することで得られる点に注意すると、Q関数Q(o,θ,o´,θ´)は Note that the Q function Q (o, θ, o ′, θ ′) is


と置ける。ただし、

I can put it. However,

は定数項を除いて等しいことを表す。また、gb[k] = δ[k] (クロネッカーのデルタ) である。よって、P(sk = t|y,o´,θ´)をForward-Backward アルゴリズムにより計算するステップ、oとθについてQ(o,θ,o´,θ´)を増加させるステップを繰り返すことで、P(o,θ|y) が局所最大となる解を得ることができる。oはフレーズ・アクセント指令系列のペアであるため、Q(o,θ,o´,θ´)を増加させるステップにおいては、oの非負制約を考慮する必要がある。oの非負制約を満たしながらQ(o,θ,o´,θ´)を増加させるような更新則は以下により導くことができる。まず、Q(o,θ,o´,θ´)の下界はJensen の不等式より Represents equality except for the constant term. G b [k] = δ [k] (Kronecker delta). Therefore, the step of calculating P (s k = t | y, o ′, θ ′) by the Forward-Backward algorithm and the step of increasing Q (o, θ, o ′, θ ′) for o and θ are repeated. Thus, a solution in which P (o, θ | y) is locally maximum can be obtained. Since o is a phrase / accent command sequence pair, in the step of increasing Q (o, θ, o ′, θ ′), it is necessary to consider the non-negative constraint of o. An update rule that increases Q (o, θ, o ′, θ ′) while satisfying the non-negative constraint of o can be derived as follows. First, the lower bound of Q (o, θ, o ′, θ ′) is from Jensen's inequality.

のように設計することができる。また、i,k,l は、 Can be designed as follows. I, k, and l are

を満たす任意の変数である。従ってQ関数の下界は、  Any variable that satisfies So the lower bound of the Q function is



と表される。この下界関数をλi,k,l≧0 に関して最大化するステップとo に関して最大化するステップを交互に繰り返せばQ(o,θ,o´,θ´)を増加させることができる。いずれのステップの更新則も解析的に求めることができ、それぞれ It is expressed. Q (o, θ, o ′, θ ′) can be increased by alternately repeating the step of maximizing the lower bound function with respect to λ i, k, l ≧ 0 and the step of maximizing with respect to o 1. The update rule for any step can be determined analytically,

で表される。以上の反復が収束したあと、続けてθを更新する。更新式は、図1の場合、 It is represented by After the above iterations converge, θ is continuously updated. In the case of FIG.

図2、3の場合、   In the case of FIGS.

である。これらの更新値をo´とθ´に代入したのちに、P(sk = t|y,o´,θ´)の更新を再度行い、以後同様の処理を繰り返すことで事後確率P(o,θ|y)を単調増加させることができる。 It is. After substituting these update values for o ′ and θ ′, P (s k = t | y, o ′, θ ′) is updated again, and thereafter the same processing is repeated to thereby determine the posterior probability P (o , Θ | y) can be monotonously increased.

以上の反復アルゴリズムが収束した後、上述したパラメータ推定アルゴリズム1のViterbi アルゴリズムにより求まる最適なsを状態系列の推定結果とする。   After the above iterative algorithm has converged, the optimum s obtained by the Viterbi algorithm of the parameter estimation algorithm 1 described above is taken as the state sequence estimation result.

また、推定された状態系列sから、状態遷移確率φが求められる。   Further, a state transition probability φ is obtained from the estimated state sequence s.

以上説明した原理に従って、第2モデルパラメータ学習部38は、基本周波数系列抽出部34によって抽出された各時刻kの基本周波数y[k]に基づいて、各時刻kの基本周波数y[k]と、各時刻kにおける甲状軟骨の平行移動運動によって生じる基本周波数パターンを表すフレーズ指令up[k]及び甲状軟骨の回転運動によって生じる基本周波数パターンを表すアクセント指令ua[k]のペアからなる指令関数o[k]との組み合わせの確率分布である第2確率分布のパラメータθ、φを学習する。 In accordance with the principle described above, the second model parameter learning unit 38 determines the fundamental frequency y [k] at each time k based on the fundamental frequency y [k] at each time k extracted by the fundamental frequency sequence extraction unit 34. , A command composed of a pair of a phrase command u p [k] representing a fundamental frequency pattern generated by parallel movement of thyroid cartilage at each time k and an accent command u a [k] representing a fundamental frequency pattern generated by rotational motion of thyroid cartilage The parameters θ and φ of the second probability distribution, which is a probability distribution in combination with the function o [k], are learned.

第1モデルパラメータ学習部36は、上記第1の実施の形態と同様に、第2モデルパラメータ学習部36で学習されたパラメータθ、φを固定して、特徴量抽出部32によって抽出された各時刻kのスペクトル特徴量ベクトルc[k]と、基本周波数系列抽出部34によって抽出された各時刻kの基本周波数の結合ベクトルq[k]と、に基づいて、EM(Expectation-Maximization)アルゴリズムにより、E ステップとM ステップを繰り返すことで、logP(c,y,m,s|γ,θ,φ)を大きくするように、第1確率分布のGMMのパラメータγを学習する。学習したGMM パラメータを^γとする。   As in the first embodiment, the first model parameter learning unit 36 fixes the parameters θ and φ learned by the second model parameter learning unit 36 and extracts each of the features extracted by the feature amount extraction unit 32. Based on the spectral feature vector c [k] at time k and the combined vector q [k] of the fundamental frequency at each time k extracted by the fundamental frequency sequence extraction unit 34, an EM (Expectation-Maximization) algorithm is used. By repeating the E step and the M step, the GMM parameter γ of the first probability distribution is learned so as to increase logP (c, y, m, s | γ, θ, φ). Let the learned GMM parameter be ^ γ.

変換処理部50は、第1の実施の形態と同様に、予測対象のソース音声の時系列データを入力として、ソース音声の時系列データから抽出される各時刻のスペクトル特徴量ベクトルと、第1モデルパラメータ学習部36によって学習された第1確率分布のパラメータγと、第2モデルパラメータ学習部38によって学習された第2確率分布のパラメータθ、φとに基づいて、EM(Expectation-Maximization)アルゴリズムにより、E ステップとM ステップを繰り返すことで、学習処理と共通の規準であるP(c,y,m,s|γ,θ,φ)を大きくするように、各時刻の基本周波数yと、各時刻kのスペクトル特徴量ベクトルを生成したらしい確率が最も高い正規分布のインデックスm、各時刻の状態からなる状態系列sを推定することにより、予測対象のソース音声に対応するターゲット音声の各時刻の基本周波数yを予測する。   Similarly to the first embodiment, the conversion processing unit 50 receives the time-series data of the source speech to be predicted as an input, the spectral feature quantity vector at each time extracted from the time-series data of the source speech, and the first Based on the parameter γ of the first probability distribution learned by the model parameter learning unit 36 and the parameters θ and φ of the second probability distribution learned by the second model parameter learning unit 38, an EM (Expectation-Maximization) algorithm Thus, by repeating the E step and the M step, the basic frequency y at each time is set so as to increase P (c, y, m, s | γ, θ, φ), which is a standard common to the learning process, By estimating a normal distribution index m having the highest probability of generating a spectral feature vector at each time k and a state series s consisting of states at each time, the source to be predicted To predict the fundamental frequency y at each time of the target sound corresponding to the voice.

<基本周波数パターン予測装置の作用> <Operation of fundamental frequency pattern prediction device>

次に、第2の実施の形態に係る基本周波数パターン予測装置の作用について説明する。なお、第1の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。   Next, the operation of the fundamental frequency pattern prediction apparatus according to the second embodiment will be described. In addition, about the process similar to 1st Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

まず、学習サンプルのソース音声の時系列データ及びターゲット音声の時系列データからなるパラレルデータが、基本周波数パターン予測装置に入力されると、基本周波数パターン予測装置において、図10に示す学習処理ルーチンが実行される。   First, when parallel data including time series data of source speech and target speech of a learning sample is input to the fundamental frequency pattern prediction device, the learning processing routine shown in FIG. Executed.

まず、ステップS101において、入力されたソース音声の時系列データを読み込み、   First, in step S101, input time-series data of the source sound is read,

各時刻kのスペクトル特徴量ベクトルc[k]を抽出する。ステップS102において、入力されたターゲット音声の時系列データを読み込み、ターゲット音声の各時刻kにおける基本周波数y[k]を抽出し、また、基本周波数y[k]とその動的成分の結合ベクトルq[k]を抽出する。 A spectral feature vector c [k] at each time k is extracted. In step S102, the time-series data of the input target speech is read, the fundamental frequency y [k] at each time k of the target speech is extracted, and the combined vector q of the fundamental frequency y [k] and its dynamic component is extracted. Extract [k].

ステップS200では、指令系列oと、各時刻における状態に応じたフレーズ指令の振幅及び各アクセント指令の振幅を表すパラメータθとを初期設定する。また、ターゲット音声の時系列データに基づいて、有声区間、無声区間を特定し、各時刻kの基本周波数の不確かさの程度vn 2 [k]を推定する。 In step S200, the command series o and the parameter θ representing the amplitude of the phrase command and the amplitude of each accent command according to the state at each time are initialized. Further, based on the time series data of the target speech, the voiced and unvoiced sections are specified, and the degree of uncertainty v n 2 [k] of the fundamental frequency at each time k is estimated.

そして、ステップS201において、上記ステップS200で設定された指令系列oの初期値、または後述するステップS203で前回更新された指令系列oに基づいて、(k,t)の全ての組み合わせについて、事後確率P(sk=t|y,o′,θ′)を更新する。 In step S201, the posterior probabilities are calculated for all combinations of (k, t) based on the initial value of the command sequence o set in step S200 or the command sequence o updated last time in step S203 described later. Update P (s k = t | y, o ′, θ ′).

ステップS202では、上記ステップS200で設定された指令系列oの初期値、または後述するステップS203で前回更新された指令系列oに基づいて、(k、l)の全ての組み合わせについて、上記の式(71)に従って、補助変数λp,k,l、λa,k,l、λb,k,lを算出して更新する。 In step S202, based on the initial value of the command sequence o set in step S200 or the command sequence o updated last time in step S203, which will be described later, all the combinations of (k, l) 71), the auxiliary variables λ p, k, l , λ a, k, l , λ b, k, l are calculated and updated.

次のステップS203では、上記ステップS102で抽出されたされた基本周波数系列yと、上記ステップS200で算出された各時刻kの不確かさの程度vn 2 [k]と、上記ステップS201で更新された事後確率P(sk=t|y,o′,θ′)と、上記ステップS202で更新された補助変数λp,k,l、λa,k,l、λb,k,lとに基づいて、上記式(72)に従って、非負値である各時刻lのフレーズ指令up[l]及びアクセント指令ua[l]からなる指令系列oとベース成分ubとを更新する。 In the next step S203, the fundamental frequency sequence y extracted in step S102, the degree of uncertainty v n 2 [k] calculated in step S200, and updated in step S201 are updated. Posterior probability P (s k = t | y, o ′, θ ′) and auxiliary variables λ p, k, l , λ a, k, l , λ b, k, l updated in step S202 Based on the above, the command sequence o composed of the phrase command u p [l] and the accent command u a [l] at each time l which is a non-negative value and the base component u b are updated according to the above equation (72).

次のステップS204では、収束条件として、繰り返し回数sが、Sに到達したか否かを判定し、繰り返し回数sがSに到達していない場合には、収束条件を満足していないと判断して、上記ステップS202へ戻る。一方、繰り返し回数sがSに到達した場合には、収束条件を満足したと判断し、ステップS205で、上記ステップS203で更新された各時刻kのフレーズ指令up[k]及びアクセント指令ua[k]と、上記ステップS201で更新された事後確率P(sk=t|y,o′,θ′)とに基づいて、上記式(73)、式(74)、又は式(75)、式(76)に従って、各時刻kのフレーズ指令の振幅A(p)[k]、及び各位置nのアクセント指令の振幅Aa (a)を更新することにより、各時刻における状態に応じたフレーズ指令の振幅及び各アクセント指令の振幅を表すパラメータθを更新する。 In the next step S204, it is determined whether or not the number of repetitions s has reached S as the convergence condition. If the number of repetitions s has not reached S, it is determined that the convergence condition is not satisfied. Then, the process returns to step S202. On the other hand, when the number of repetitions s reaches S, it is determined that the convergence condition is satisfied, and in step S205, the phrase command u p [k] and the accent command u a at each time k updated in step S203 above. Based on [k] and the posterior probability P (s k = t | y, o ′, θ ′) updated in step S201, the above equation (73), equation (74), or equation (75) In accordance with the equation (76), the amplitude A (p) [k] of the phrase command at each time k and the amplitude A a (a) of the accent command at each position n are updated to correspond to the state at each time. The parameter θ representing the amplitude of the phrase command and the amplitude of each accent command is updated.

ステップS206において、予め定められた収束判定条件を満たしたか否かを判定し、収束判定条件を満たしていない場合には、上記ステップS201へ戻る。一方、収束判定条件を満たした場合には、ステップS207において、上記ステップS203で最終的に更新された指令系列oに基づいて、Viterbi アルゴリズムにより、状態系列sを推定する。また、推定された状態系列sから、状態遷移確率φを求める。   In step S206, it is determined whether or not a predetermined convergence determination condition is satisfied. If the convergence determination condition is not satisfied, the process returns to step S201. On the other hand, if the convergence determination condition is satisfied, in step S207, the state sequence s is estimated by the Viterbi algorithm based on the command sequence o finally updated in step S203. Further, the state transition probability φ is obtained from the estimated state sequence s.

そして、ステップS109では、上記ステップS101で抽出された各時刻kのスペクトル特徴量ベクトルc[k]と、上記ステップS102で抽出された各時刻kの基本周波数の結合ベクトルq[k]と、上記ステップS205で最終的に得られたパラメータθと、上記ステップS207で得られた状態遷移確率φと、後述するステップS110で前回更新されたパラメータγとに基づいて、上記式(100)、式(101)に従って、期待値を算出する。   In step S109, the spectral feature vector c [k] at each time k extracted in step S101, the combined vector q [k] of the fundamental frequency at each time k extracted in step S102, and the above Based on the parameter θ finally obtained in step S205, the state transition probability φ obtained in step S207, and the parameter γ updated last time in step S110 described later, the above equations (100), ( 101), an expected value is calculated.

ステップS110では、上記ステップS109で算出された期待値に基づいて、上記式(102)が最大となるように、パラメータγを更新する。   In step S110, the parameter γ is updated based on the expected value calculated in step S109 so that the equation (102) becomes maximum.

ステップS112において、予め定められた収束判定条件を満たしたか否かを判定し、収束判定条件を満たしていない場合には、上記ステップS109へ戻る。一方、収束判定条件を満たした場合には、ステップS113において、上記ステップS205で最終的に得られたパラメータθと、上記ステップS207で得られた状態遷移確率φと、上記ステップS110で最終的に得られたパラメータγとを、パラメータ記憶部40に格納する。   In step S112, it is determined whether or not a predetermined convergence determination condition is satisfied. If the convergence determination condition is not satisfied, the process returns to step S109. On the other hand, when the convergence determination condition is satisfied, in step S113, the parameter θ finally obtained in step S205, the state transition probability φ obtained in step S207, and finally in step S110. The obtained parameter γ is stored in the parameter storage unit 40.

次に、予測対象のソース音声の時系列データが、基本周波数パターン予測装置100に入力されると、基本周波数パターン予測装置100において、上記図9に示す基本周波数パターン予測処理ルーチンが実行され、予測対象のソース音声に対応するターゲット音声の各時刻の基本周波数の予測結果が、出力部90により出力される。   Next, when time-series data of source speech to be predicted is input to the fundamental frequency pattern prediction apparatus 100, the fundamental frequency pattern prediction apparatus 100 executes the fundamental frequency pattern prediction processing routine shown in FIG. The output unit 90 outputs the prediction result of the fundamental frequency at each time of the target sound corresponding to the target source sound.

以上説明したように、第2の実施の形態に係る基本周波数パターン予測装置によれば、基本周波数パターン生成過程をモデル化した第2確率分布のパラメータθ、φを学習し、ソース音声の各時刻のスペクトル特徴量ベクトルとターゲット音声の各時刻の基本周波数との間の関係をモデル化した第1確率分布のパラメータγを、第1確率分布と第2確率分布とを用いて表される規準P(c,y,m,s|γ,θ,φ)を大きくするように学習し、予測対象のソース音声の時系列データから抽出される各時刻のスペクトル特徴量ベクトルから、第1確率分布と第2確率分布とを用いて表される規準P(c,y,m,s|γ,θ,φ)を大きくするように、予測対象のソース音声に対応するターゲット音声の各時刻の基本周波数を予測することにより、F0 パターンの物理的な生成過程の制約を考慮しながらスペクトル特徴量系列に対応する最適なF0パターンを推定することができる As described above, according to the fundamental frequency pattern predicting apparatus according to the second embodiment, the parameters θ and φ of the second probability distribution modeling the fundamental frequency pattern generation process are learned, and each time of the source speech The parameter P of the first probability distribution that models the relationship between the spectral feature vector of the target speech and the fundamental frequency at each time of the target speech is expressed as a criterion P expressed using the first probability distribution and the second probability distribution. Learning to increase (c, y, m, s | γ, θ, φ), and from the spectral feature quantity vector at each time extracted from the time series data of the source speech to be predicted, the first probability distribution and The basic frequency at each time of the target speech corresponding to the source speech to be predicted so as to increase the criterion P (c, y, m, s | γ, θ, φ) expressed using the second probability distribution by predicting the physical of F 0 pattern It is possible to estimate the optimal F 0 pattern corresponding to the spectral feature amount sequence taking into account the constraints of the production process

[第3の実施の形態]
次に、本発明の第3の実施の形態に係る基本周波数パターン予測装置について説明する。なお、第1の実施の形態と同様の構成となる部分については同一符号を付して説明を省略する。
[Third Embodiment]
Next, a fundamental frequency pattern prediction apparatus according to the third embodiment of the present invention will be described. In addition, the same code | symbol is attached | subjected about the part which becomes the same structure as 1st Embodiment, and description is abbreviate | omitted.

第3の実施の形態では、パラメータγ、θ、φを推定する方法が第1の実施の形態と異なっている。   In the third embodiment, the method for estimating the parameters γ, θ, and φ is different from that in the first embodiment.

第3の実施の形態では、学習サンプルのF0 パターン{y[k]}K k=1が与えられた下で、P(c,y,m,s|γ,θ,φ)ができるだけ大きくなるように、パラメータγ、θ、φを同時に学習する。 In the third embodiment, P (c, y, m, s | γ, θ, φ) is as large as possible under the F 0 pattern {y [k]} K k = 1 of the learning sample. Thus, the parameters γ, θ, and φ are learned simultaneously.

図11に示すように、第3の実施の形態に係る基本周波数パターン予測装置の学習部30は、特徴量抽出部32と、基本周波数系列抽出部34と、モデルパラメータ学習部336とを備えている。   As shown in FIG. 11, the learning unit 30 of the fundamental frequency pattern prediction apparatus according to the third embodiment includes a feature amount extraction unit 32, a fundamental frequency sequence extraction unit 34, and a model parameter learning unit 336. Yes.

モデルパラメータ学習部336は、特徴量抽出部32によって抽出された各時刻kのスペクトル特徴量ベクトルc[k]と、基本周波数系列抽出部34によって抽出された各時刻kの基本周波数の結合ベクトルq[k]とに基づいて、c、yの結合分布P(c,y,m,s|γ,θ,φ)ができるだけ大きくなるように、ソース音声の各時刻のスペクトル特徴量ベクトルc[k]とターゲット音声の各時刻kの基本周波数の結合ベクトルq[k]との同時確率分布を表す混合正規分布である第1確率分布のパラメータγ、及び各時刻kの基本周波数y[k]と、隠れマルコフモデルの各時刻の状態からなる状態系列sとの組み合わせの確率分布である第2確率分布のパラメータθ、φを学習する。   The model parameter learning unit 336 combines the spectral feature vector c [k] at each time k extracted by the feature extraction unit 32 and the fundamental frequency combination vector q at each time k extracted by the fundamental frequency sequence extraction unit 34. Based on [k], the spectral feature vector c [k of the source speech at each time so that the combined distribution P (c, y, m, s | γ, θ, φ) of c and y is as large as possible. ] And the parameter γ of the first probability distribution, which is a mixed normal distribution representing the joint probability distribution of the fundamental frequency combined vector q [k] at each time k of the target speech, and the fundamental frequency y [k] at each time k Then, the parameters θ and φ of the second probability distribution, which is a probability distribution of a combination with the state series s consisting of the state at each time of the hidden Markov model, are learned.

具体的には、特徴量抽出部32によって抽出された各時刻kのスペクトル特徴量ベクトルc[k]と、基本周波数系列抽出部34によって抽出された各時刻kの基本周波数の結合ベクトルq[k]とに基づいて、EM(Expectation-Maximization)アルゴリズムにより、E ステップとM ステップを繰り返すことで、logP(c,y,m,s|γ,θ,φ)を大きくするように、第1確率分布のGMMのパラメータγ、及び第2確率分布のパラメータθ、φを学習する。   Specifically, the spectral feature quantity vector c [k] at each time k extracted by the feature quantity extraction unit 32 and the combined vector q [k] of the fundamental frequency at each time k extracted by the fundamental frequency series extraction unit 34. The first probability to increase logP (c, y, m, s | γ, θ, φ) by repeating the E step and the M step using an EM (Expectation-Maximization) algorithm. The GMM parameter γ of the distribution and the parameters θ and φ of the second probability distribution are learned.

変換処理部50は、第1の実施の形態と同様に、予測対象のソース音声の時系列データを入力として、ソース音声の時系列データから抽出される各時刻のスペクトル特徴量ベクトルと、モデルパラメータ学習部336によって学習された第1確率分布のパラメータγ、及び第2確率分布のパラメータθ、φとに基づいて、EM(Expectation-Maximization)アルゴリズムにより、E ステップとM ステップを繰り返すことで、学習処理と共通の規準であるP(c,y,m,s|γ,θ,φ)を大きくするように、各時刻の基本周波数yと、各時刻kのスペクトル特徴量ベクトルを生成したらしい確率が最も高い正規分布のインデックスm、各時刻の状態からなる状態系列sを推定することにより、予測対象のソース音声に対応するターゲット音声の各時刻の基本周波数yを予測する。   Similarly to the first embodiment, the conversion processing unit 50 receives the time series data of the source speech to be predicted as an input, the spectral feature quantity vector at each time extracted from the time series data of the source speech, and the model parameter Based on the first probability distribution parameter γ and the second probability distribution parameters θ and φ learned by the learning unit 336, learning is performed by repeating the E step and the M step by an EM (Expectation-Maximization) algorithm. Probability of generating the fundamental frequency y at each time and the spectral feature vector at each time k so as to increase P (c, y, m, s | γ, θ, φ), which is a standard common to the processing Is a normal frequency index m having the highest frequency, and a state sequence s composed of states at each time to estimate the fundamental frequency at each time of the target speech corresponding to the source speech to be predicted To predict.

<基本周波数パターン予測装置の作用>
次に、第3の実施の形態に係る基本周波数パターン予測装置の作用について説明する。なお、第1の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。
<Operation of fundamental frequency pattern prediction device>
Next, the operation of the fundamental frequency pattern prediction apparatus according to the third embodiment will be described. In addition, about the process similar to 1st Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

まず、学習サンプルのソース音声の時系列データ及びターゲット音声の時系列データからなるパラレルデータが、基本周波数パターン予測装置に入力されると、基本周波数パターン予測装置において、図12に示す学習処理ルーチンが実行される。   First, when parallel data including time series data of source speech and target speech of a learning sample is input to the fundamental frequency pattern prediction device, the learning process routine shown in FIG. Executed.

まず、ステップS101において、入力されたソース音声の時系列データを読み込み、各時刻kのスペクトル特徴量ベクトルc[k]を抽出する。ステップS102において、入力されたターゲット音声の時系列データを読み込み、ターゲット音声の各時刻kにおける基本周波数y[k]を抽出し、また、基本周波数y[k]とその動的成分の結合ベクトルq[k]を抽出する。   First, in step S101, input time series data of source speech is read, and a spectral feature vector c [k] at each time k is extracted. In step S102, the time-series data of the input target speech is read, the fundamental frequency y [k] at each time k of the target speech is extracted, and the combined vector q of the fundamental frequency y [k] and its dynamic component is extracted. Extract [k].

ステップS300では、状態系列sと、状態系列sから求められるパラメータφと、各時刻における状態に応じたフレーズ指令の振幅及び各アクセント指令の振幅を表すパラメータθと、パラメータγとを初期設定する。   In step S300, the state series s, the parameter φ obtained from the state series s, the parameter θ representing the amplitude of the phrase command and the amplitude of each accent command according to the state at each time, and the parameter γ are initialized.

そして、ステップS301において、上記ステップS101で抽出された各時刻kのスペクトル特徴量ベクトルc[k]と、上記ステップS102で抽出された各時刻kの基本周波数y[k]、各時刻kの基本周波数y[k]から得られる各時刻kの基本周波数の結合ベクトルq[k]と、初期設定された、又は後述するステップS302で前回更新されたパラメータθ、状態遷移確率φ、及びパラメータγとに基づいて、上記式(100)、式(101)に従って、期待値を算出する。   In step S301, the spectral feature vector c [k] at each time k extracted in step S101, the basic frequency y [k] at each time k extracted in step S102, and the basic at each time k. The combined vector q [k] of the fundamental frequency at each time k obtained from the frequency y [k], the parameter θ, the state transition probability φ, and the parameter γ that are initialized or updated last time in step S302 described later, Based on the above, the expected value is calculated according to the above formulas (100) and (101).

ステップS302では、上記ステップS301で算出された期待値に基づいて、上記式(102)が最大となるように、パラメータθ、状態系列s、状態系列sから求められる状態遷移確率φ、パラメータγを更新する。   In step S302, based on the expected value calculated in step S301, the parameter θ, the state sequence s, the state transition probability φ obtained from the state sequence s, and the parameter γ are set so that the equation (102) becomes maximum. Update.

そして、ステップS303において、予め定められた収束判定条件を満たしたか否かを判定し、収束判定条件を満たしていない場合には、上記ステップS301へ戻る。一方、収束判定条件を満たした場合には、ステップS113において、上記ステップS302で最終的に得られたパラメータθと、状態系列sから求められる状態遷移確率φと、パラメータγとを、パラメータ記憶部40に格納する。   In step S303, it is determined whether or not a predetermined convergence determination condition is satisfied. If the convergence determination condition is not satisfied, the process returns to step S301. On the other hand, when the convergence determination condition is satisfied, in step S113, the parameter θ finally obtained in step S302, the state transition probability φ obtained from the state sequence s, and the parameter γ are set to the parameter storage unit. 40.

次に、予測対象のソース音声の時系列データが、基本周波数パターン予測装置100に入力されると、基本周波数パターン予測装置100において、上記図9に示す基本周波数パターン予測処理ルーチンが実行され、予測対象のソース音声に対応するターゲット音声の各時刻の基本周波数の予測結果が、出力部90により出力される。   Next, when time-series data of source speech to be predicted is input to the fundamental frequency pattern prediction apparatus 100, the fundamental frequency pattern prediction apparatus 100 executes the fundamental frequency pattern prediction processing routine shown in FIG. The output unit 90 outputs the prediction result of the fundamental frequency at each time of the target sound corresponding to the target source sound.

以上説明したように、第3の実施の形態に係る基本周波数パターン予測装置によれば、ソース音声の各時刻のスペクトル特徴量ベクトルとターゲット音声の各時刻の基本周波数との間の関係をモデル化した第1確率分布のパラメータγ、及び基本周波数パターン生成過程をモデル化した第2確率分布のパラメータθ、φを、第1確率分布と第2確率分布とを用いて表される規準P(c,y,m,s|γ,θ,φ)を大きくするように学習し、予測対象のソース音声の時系列データから抽出される各時刻のスペクトル特徴量ベクトルから、第1確率分布と第2確率分布とを用いて表される規準P(c,y,m,s|γ,θ,φ)を大きくするように、予測対象のソース音声に対応するターゲット音声の各時刻の基本周波数を予測することにより、F0 パターンの物理的な生成過程の制約を考慮しながらスペクトル特徴量系列に対応する最適なF0パターンを推定することができる As described above, according to the fundamental frequency pattern predicting apparatus according to the third embodiment, the relationship between the spectrum feature vector at each time of the source speech and the fundamental frequency at each time of the target speech is modeled. The first probability distribution parameter γ and the second probability distribution parameters θ and φ modeling the fundamental frequency pattern generation process are expressed by a criterion P (c , y, m, s | γ, θ, φ), the first probability distribution and the second probability distribution are obtained from the spectral feature quantity vector at each time extracted from the time series data of the source speech to be predicted. The basic frequency at each time of the target speech corresponding to the source speech to be predicted is predicted so as to increase the criterion P (c, y, m, s | γ, θ, φ) expressed using the probability distribution. by physical raw F 0 pattern It is possible to estimate the optimal F 0 pattern corresponding to the spectral feature amount sequence taking into account the constraints of the process

<実験>
音声信号からスペクトル特徴量系列とF0 パターンおよびフレーズ・アクセント指令を抽出し、スペクトル特徴量系列とフレーズ・アクセント指令系列のペアデータを用いて学習処理により上記のモデルパラメータ(GMM のパラメータ)を学習したのちに、変換処理によりスペクトル特徴量系列をフレーズ・アセント指令系列に変換する実験を行い、変換されたフレーズ・アセント指令系列が元のF0 パターンをどの程度復元できているかを確認した。図13にその結果の例を示す。点線が、音声信号から推定されたF0パターンであり、破線が、スペクトル特徴量系列から変換されたフレーズ・アセント指令系列から得られたF0 パターンである。スペクトル特徴量にはF0の情報が多く含まれていないにもかかわらず概ね元のF0 パターンを復元できていることが確認できた。
<Experiment>
Spectral feature series, F 0 pattern, and phrase / accent command are extracted from the speech signal, and the above model parameters (GMM parameters) are learned by learning using pair data of the spectral feature series and phrase / accent command series. and the after, and conducted an experiment to convert the spectral feature amount sequence phrase ascent command sequence by the conversion process, the converted phrase ascent command sequence to confirm whether the possible extent restore the original F 0 pattern. FIG. 13 shows an example of the result. The dotted line is the F 0 pattern estimated from the speech signal, and the broken line is the F 0 pattern obtained from the phrase ascent command sequence converted from the spectral feature amount sequence. It was confirmed that the original F 0 pattern was reconstructed in spite of the fact that the spectral feature quantity did not contain much F 0 information.

なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。   Note that the present invention is not limited to the above-described embodiment, and various modifications and applications are possible without departing from the gist of the present invention.

例えば、上述の基本周波数パターン予測装置は、内部にコンピュータシステムを有しているが、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。   For example, although the basic frequency pattern prediction apparatus described above has a computer system inside, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. Shall be.

また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。   In the present specification, the embodiment has been described in which the program is installed in advance. However, the program can be provided by being stored in a computer-readable recording medium.

10 入力部
20 演算部
30 学習部
32 特徴量抽出部
34 基本周波数系列抽出部
36 第1モデルパラメータ学習部
38 第2モデルパラメータ学習部
40 パラメータ記憶部
50 変換処理部
52 特徴量抽出部
54 期待値算出部
56 変数更新部
58 収束判定部
90 出力部
100 基本周波数パターン予測装置
336 モデルパラメータ学習部
DESCRIPTION OF SYMBOLS 10 Input part 20 Calculation part 30 Learning part 32 Feature-value extraction part 34 Fundamental frequency series extraction part 36 1st model parameter learning part 38 2nd model parameter learning part 40 Parameter storage part 50 Conversion process part 52 Feature-value extraction part 54 Expected value Calculation unit 56 Variable update unit 58 Convergence determination unit 90 Output unit 100 Fundamental frequency pattern prediction device 336 Model parameter learning unit

Claims (8)

学習サンプルのソース音声の時系列データとターゲット音声の時系列データとからなるパラレルデータを入力として、前記ソース音声の時系列データから抽出される各時刻のスペクトル特徴量ベクトルと、前記ターゲット音声の時系列データから抽出される、各時刻の基本周波数とに基づいて、前記ソース音声の各時刻のスペクトル特徴量ベクトルと、前記ターゲット音声の各時刻の基本周波数との間の関係をモデル化した第1確率分布のパラメータ、及び基本周波数パターン生成過程をモデル化した第2確率分布のパラメータを、前記第1確率分布と前記第2確率分布とを用いて表される規準を大きくするように学習する学習部と、
予測対象のソース音声の時系列データを入力として、前記予測対象のソース音声の時系列データから抽出される各時刻のスペクトル特徴量ベクトルと、前記学習部によって学習された前記第1確率分布のパラメータと前記第2確率分布のパラメータとに基づいて、前記規準を大きくするように、前記予測対象のソース音声に対応する前記ターゲット音声の各時刻の基本周波数を予測する変換処理部と、
を含む基本周波数パターン予測装置。
Using parallel data composed of time-series data of source speech and target speech of the learning sample as input, a spectral feature vector at each time extracted from the time-series data of the source speech, and the time of the target speech Based on the fundamental frequency at each time extracted from the sequence data, the first modeled the relationship between the spectral feature quantity vector at each time of the source speech and the fundamental frequency at each time of the target speech. Learning for learning a parameter of a probability distribution and a parameter of a second probability distribution obtained by modeling a fundamental frequency pattern generation process so as to increase a criterion expressed using the first probability distribution and the second probability distribution. And
Using the time series data of the source speech to be predicted as an input, the spectral feature quantity vector at each time extracted from the time series data of the source speech to be predicted, and the parameters of the first probability distribution learned by the learning unit And a conversion processing unit that predicts a fundamental frequency at each time of the target speech corresponding to the source speech to be predicted so as to increase the criterion based on the parameters of the second probability distribution,
A fundamental frequency pattern prediction apparatus including:
前記第1確率分布を、前記ソース音声の各時刻のスペクトル特徴量ベクトルと前記ターゲット音声の各時刻の基本周波数と前記基本周波数の動的成分との同時確率分布を表す混合正規分布とし、
前記第2確率分布を、
各時刻の基本周波数と、
隠れマルコフモデルの各時刻の状態からなる状態系列、又は各時刻における甲状軟骨の平行移動運動によって生じる基本周波数パターンを表すフレーズ指令及び甲状軟骨の回転運動によって生じる基本周波数パターンを表すアクセント指令のペアからなる指令関数との組み合わせの確率分布とした請求項1記載の基本周波数パターン予測装置。
The first probability distribution is a mixed normal distribution representing a joint probability distribution of a spectral feature vector at each time of the source speech, a fundamental frequency at each time of the target speech, and a dynamic component of the fundamental frequency,
The second probability distribution is
The fundamental frequency of each time,
From a series of states consisting of states at each time of the Hidden Markov Model, or a pair of phrase commands representing the fundamental frequency pattern generated by the translational movement of the thyroid cartilage at each time and an accent command representing the fundamental frequency pattern generated by the rotational movement of the thyroid cartilage The fundamental frequency pattern prediction apparatus according to claim 1, wherein the probability distribution is a combination with a command function.
前記規準は、以下の式で表わされる請求項2記載の基本周波数パターン予測装置。
ただし、cは、前記ソース音声の各時刻のスペクトル特徴量ベクトルであり、yは、前記ターゲット音声の各時刻の基本周波数であり、mは、各時刻のスペクトル特徴量ベクトルを生成したらしい確率が最も高い正規分布のインデックスであり、sは、前記状態系列であり、γは、前記第1確率分布のパラメータであり、θは、各時刻における状態に応じたフレーズ指令の振幅及び各アクセント指令の振幅を表すパラメータであり、φは、状態遷移確率であり、qは、前記ターゲット音声の各時刻の基本周波数及び動的成分の結合ベクトルであり、uは、各時刻のフレーズ指令及びアクセント指令である。
The fundamental frequency pattern prediction apparatus according to claim 2, wherein the criterion is represented by the following expression.
Where c is a spectral feature vector at each time of the source speech, y is a fundamental frequency at each time of the target speech, and m is a probability that a spectral feature vector at each time has been generated. The index of the highest normal distribution, s is the state series, γ is a parameter of the first probability distribution, and θ is the amplitude of the phrase command and the accent command according to the state at each time. Is a parameter representing the amplitude, φ is the state transition probability, q is the combined vector of the fundamental frequency and dynamic component at each time of the target speech, u is the phrase command and accent command at each time is there.
前記学習部は、EM(Expectation-Maximization)アルゴリズムにより、前記第2確率分布から求められる、各時刻の基本周波数と、隠れマルコフモデルの各時刻の状態からなる状態系列との尤もらしさが大きくなるように、前記第2確率分布のパラメータとして、前記状態系列の状態遷移確率、及び各時刻における状態に応じたフレーズ指令の振幅及び各アクセント指令の振幅を表すパラメータを学習するか、又は
各時刻の基本周波数が与えられたときの、各時刻のフレーズ指令及びアクセント指令のペアからなる指令関数及び前記振幅を表すパラメータの対数事後確率を目的関数として、前記目的関数を増加させるように、前記第2確率分布のパラメータとして、前記状態系列の状態遷移確率、及び前記振幅を表すパラメータを、前記第2確率分布のパラメータとして学習する請求項1〜請求項3の何れか1項記載の基本周波数パターン予測装置。
The learning unit increases the likelihood of the fundamental frequency at each time and the state sequence including the state at each time of the hidden Markov model, obtained from the second probability distribution by an EM (Expectation-Maximization) algorithm. In addition, as a parameter of the second probability distribution, a parameter indicating the state transition probability of the state series, the phrase command amplitude according to the state at each time, and the amplitude of each accent command is learned, or the basic of each time When the frequency is given, the second probability is increased so that the objective function is increased with the logarithmic posterior probability of the command function including the phrase command and the accent command at each time and the parameter representing the amplitude as the objective function. As a distribution parameter, a state transition probability of the state series and a parameter representing the amplitude are set as the second probability component. The fundamental frequency pattern prediction apparatus according to claim 1, wherein learning is performed as a cloth parameter.
前記学習部は、前記学習された前記第2確率分布のパラメータを固定して、EM(Expectation-Maximization)アルゴリズムにより、前記規準が大きくなるように、前記第1確率分布のパラメータを学習する請求項4記載の基本周波数パターン予測装置。   The learning unit fixes the learned second probability distribution parameter, and learns the first probability distribution parameter by an EM (Expectation-Maximization) algorithm so that the criterion is increased. 4. The fundamental frequency pattern prediction apparatus according to 4. 前記変換処理部は、
前記予測対象のソース音声の時系列データから抽出される各時刻のスペクトル特徴量ベクトルと、前記学習部によって学習された前記第1確率分布のパラメータと前記第2確率分布のパラメータとに基づいて、EMアルゴリズムにより、前記規準を大きくするように、前記予測対象のソース音声に対応する前記ターゲット音声の各時刻の基本周波数、各時刻のスペクトル特徴量ベクトルを生成したらしい確率が最も高い正規分布のインデックス、及び前記状態系列を推定することにより、前記予測対象のソース音声に対応する前記ターゲット音声の各時刻の基本周波数を予測する請求項2記載の基本周波数パターン予測装置。
The conversion processing unit
Based on the spectral feature vector at each time extracted from the time-series data of the source speech to be predicted, the parameters of the first probability distribution and the parameters of the second probability distribution learned by the learning unit, A normal distribution index with the highest probability of generating a fundamental frequency at each time of the target speech corresponding to the source speech to be predicted and a spectral feature vector at each time so as to increase the criterion by the EM algorithm The basic frequency pattern prediction apparatus according to claim 2, wherein the fundamental frequency at each time of the target speech corresponding to the prediction target source speech is predicted by estimating the state sequence.
学習部と、変換処理部とを含む基本周波数パターン予測装置における基本周波数パターン予測方法であって、
前記学習部が、学習サンプルのソース音声の時系列データとターゲット音声の時系列データとからなるパラレルデータを入力として、前記ソース音声の時系列データから抽出される各時刻のスペクトル特徴量ベクトルと、前記ターゲット音声の時系列データから抽出される、各時刻の基本周波数とに基づいて、前記ソース音声の各時刻のスペクトル特徴量ベクトルと、前記ターゲット音声の各時刻の基本周波数との間の関係をモデル化した第1確率分布のパラメータ、及び基本周波数パターン生成過程をモデル化した第2確率分布のパラメータを、前記第1確率分布と前記第2確率分布とを用いて表される規準を大きくするように学習し、
前記変換処理部が、予測対象のソース音声の時系列データを入力として、前記予測対象のソース音声の時系列データから抽出される各時刻のスペクトル特徴量ベクトルと、前記学習部によって学習された前記第1確率分布のパラメータと前記第2確率分布のパラメータとに基づいて、前記規準を大きくするように、前記予測対象のソース音声に対応する前記ターゲット音声の各時刻の基本周波数を予測する
基本周波数パターン予測方法。
A fundamental frequency pattern prediction method in a fundamental frequency pattern prediction apparatus including a learning unit and a conversion processing unit,
The learning unit receives parallel data consisting of time series data of source speech and target speech time series data of a learning sample as input, and a spectral feature vector at each time extracted from the time series data of the source speech, Based on the fundamental frequency at each time extracted from the time series data of the target speech, the relationship between the spectral feature quantity vector at each time of the source speech and the fundamental frequency at each time of the target speech is The criterion expressed by using the first probability distribution and the second probability distribution is increased for the modeled first probability distribution parameter and the second probability distribution parameter modeling the fundamental frequency pattern generation process. To learn and
The conversion processing unit receives time series data of the source speech to be predicted as an input, a spectral feature quantity vector at each time extracted from the time series data of the source speech to be predicted, and the learning unit Based on the parameter of the first probability distribution and the parameter of the second probability distribution, the fundamental frequency for predicting the fundamental frequency at each time of the target speech corresponding to the prediction target source speech so as to increase the criterion Pattern prediction method.
請求項1〜請求項6の何れか1項に記載の基本周波数パターン予測装置の各部としてコンピュータを機能させるためのプログラム。   The program for functioning a computer as each part of the fundamental frequency pattern prediction apparatus of any one of Claims 1-6.
JP2016032413A 2016-02-23 2016-02-23 Basic frequency pattern prediction apparatus, method, and program Active JP6472005B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016032413A JP6472005B2 (en) 2016-02-23 2016-02-23 Basic frequency pattern prediction apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016032413A JP6472005B2 (en) 2016-02-23 2016-02-23 Basic frequency pattern prediction apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2017151225A true JP2017151225A (en) 2017-08-31
JP6472005B2 JP6472005B2 (en) 2019-02-20

Family

ID=59738981

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016032413A Active JP6472005B2 (en) 2016-02-23 2016-02-23 Basic frequency pattern prediction apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP6472005B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019144402A (en) * 2018-02-20 2019-08-29 日本電信電話株式会社 Voice conversion learning device, voice conversion device, method and program
JP2019144404A (en) * 2018-02-20 2019-08-29 日本電信電話株式会社 Voice conversion learning device, voice conversion device, method and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010137385A1 (en) * 2009-05-28 2010-12-02 インターナショナル・ビジネス・マシーンズ・コーポレーション Device for learning amount of movement of basic frequency for adapting to speaker, basic frequency generation device, amount of movement learning method, basic frequency generation method, and amount of movement learning program
JP2013171196A (en) * 2012-02-21 2013-09-02 Toshiba Corp Device, method and program for voice synthesis
JP2014134730A (en) * 2013-01-11 2014-07-24 Nippon Telegr & Teleph Corp <Ntt> Fundamental frequency model parameter estimation device, method and program
JP2015041081A (en) * 2013-08-23 2015-03-02 独立行政法人情報通信研究機構 Quantitative f0 pattern generation device, quantitative f0 pattern generation method, model learning device for f0 pattern generation, and computer program
JP2015041004A (en) * 2013-08-22 2015-03-02 日本電信電話株式会社 Fundamental frequency model parameter estimation device, method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010137385A1 (en) * 2009-05-28 2010-12-02 インターナショナル・ビジネス・マシーンズ・コーポレーション Device for learning amount of movement of basic frequency for adapting to speaker, basic frequency generation device, amount of movement learning method, basic frequency generation method, and amount of movement learning program
JP2013171196A (en) * 2012-02-21 2013-09-02 Toshiba Corp Device, method and program for voice synthesis
JP2014134730A (en) * 2013-01-11 2014-07-24 Nippon Telegr & Teleph Corp <Ntt> Fundamental frequency model parameter estimation device, method and program
JP2015041004A (en) * 2013-08-22 2015-03-02 日本電信電話株式会社 Fundamental frequency model parameter estimation device, method, and program
JP2015041081A (en) * 2013-08-23 2015-03-02 独立行政法人情報通信研究機構 Quantitative f0 pattern generation device, quantitative f0 pattern generation method, model learning device for f0 pattern generation, and computer program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
橋本浩弥、外3名: "基本周波数パターン生成過程モデルを用いた声質変換の高精度化に関する検討", 日本音響学会講演論文集, JPN6018049617, March 2011 (2011-03-01), pages pp.413−416 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019144402A (en) * 2018-02-20 2019-08-29 日本電信電話株式会社 Voice conversion learning device, voice conversion device, method and program
JP2019144404A (en) * 2018-02-20 2019-08-29 日本電信電話株式会社 Voice conversion learning device, voice conversion device, method and program

Also Published As

Publication number Publication date
JP6472005B2 (en) 2019-02-20

Similar Documents

Publication Publication Date Title
CN107615376B (en) Voice recognition device and computer program recording medium
WO2019163849A1 (en) Audio conversion learning device, audio conversion device, method, and program
US20230036020A1 (en) Text-to-Speech Synthesis Method and System, a Method of Training a Text-to-Speech Synthesis System, and a Method of Calculating an Expressivity Score
EP4266306A1 (en) A speech processing system and a method of processing a speech signal
Boruah et al. A study on HMM based speech recognition system
Nakamura et al. A mel-cepstral analysis technique restoring high frequency components from low-sampling-rate speech.
JP5807921B2 (en) Quantitative F0 pattern generation device and method, model learning device for F0 pattern generation, and computer program
Pamisetty et al. Prosody-tts: An end-to-end speech synthesis system with prosody control
JP6472005B2 (en) Basic frequency pattern prediction apparatus, method, and program
JP6468519B2 (en) Basic frequency pattern prediction apparatus, method, and program
WO2021229643A1 (en) Sound signal conversion model learning device, sound signal conversion device, sound signal conversion model learning method, and program
JP5885210B2 (en) Basic frequency model parameter estimation apparatus, method, and program
JP5474713B2 (en) Speech synthesis apparatus, speech synthesis method, and speech synthesis program
JP6137477B2 (en) Basic frequency model parameter estimation apparatus, method, and program
JP6142401B2 (en) Speech synthesis model learning apparatus, method, and program
US11798579B2 (en) Device, method, and program for analyzing speech signal
US20130117026A1 (en) Speech synthesizer, speech synthesis method, and speech synthesis program
Nakamura et al. Integration of spectral feature extraction and modeling for HMM-based speech synthesis
US20220139381A1 (en) Prediction device, prediction method, and program
JP2018097115A (en) Fundamental frequency model parameter estimation device, method, and program
JP6468518B2 (en) Basic frequency pattern prediction apparatus, method, and program
Nakashika et al. Voice conversion in time-invariant speaker-independent space
JP6665079B2 (en) Fundamental frequency model parameter estimation device, method, and program
Schnell et al. Neural VTLN for speaker adaptation in TTS
JP6137708B2 (en) Quantitative F0 pattern generation device, model learning device for F0 pattern generation, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20171208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190115

R150 Certificate of patent or registration of utility model

Ref document number: 6472005

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250