WO2020035999A1 - 学習データ生成装置、学習データ生成方法、及びプログラム - Google Patents

学習データ生成装置、学習データ生成方法、及びプログラム Download PDF

Info

Publication number
WO2020035999A1
WO2020035999A1 PCT/JP2019/024827 JP2019024827W WO2020035999A1 WO 2020035999 A1 WO2020035999 A1 WO 2020035999A1 JP 2019024827 W JP2019024827 W JP 2019024827W WO 2020035999 A1 WO2020035999 A1 WO 2020035999A1
Authority
WO
WIPO (PCT)
Prior art keywords
learning data
model
probability distribution
sequence
attribute label
Prior art date
Application number
PCT/JP2019/024827
Other languages
English (en)
French (fr)
Inventor
亮 増村
智大 田中
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to US17/267,867 priority Critical patent/US20210183368A1/en
Publication of WO2020035999A1 publication Critical patent/WO2020035999A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/187Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/19Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
    • G10L15/197Probabilistic grammars, e.g. word n-grams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/025Phonemes, fenemes or fenones being the recognition units

Definitions

  • the present invention relates to a learning data generation device, a learning data generation method, and a program for generating learning data for an acoustic model.
  • Speech recognition is being used in various environments, such as on smartphones and through robots.
  • the acoustic model be robust to various acoustic fluctuations in the real environment.
  • the acoustic fluctuation indicates various fluctuations of voice information due to noise environment characteristics, microphone characteristics, speaker characteristics, and the like.
  • it is effective to collect a large amount of learning data for an acoustic model including these acoustic fluctuation factors in a real environment and train the acoustic model.
  • the learning data for an acoustic model represents a data set including one or more pairs of a sound feature amount sequence of a voice and a phoneme sequence corresponding thereto.
  • Non-Patent Documents 1 and 2 disclose techniques for generating learning data by artificially adding acoustic fluctuation factors.
  • an acoustic feature sequence was added to the acoustic feature sequence of the training data according to the rules modeled in advance by hand and artificially added the acoustic variation factor, and the corresponding phoneme was created. Pairing with the series makes learning data created in a pseudo manner, which is used for learning the acoustic model.
  • An object of the present invention which has been made in view of such circumstances, is to provide a learning data generation device, a learning data generation method, and a program capable of automatically generating learning data without providing a manual rule. .
  • a learning data generation device is a learning data generation device that generates learning data for an acoustic model, and includes an attribute label according to a first probability distribution from a first model parameter group.
  • An attribute label stochastic generation model that generates a phoneme sequence according to a second probability distribution from a second model parameter group and the attribute label, a third model parameter group,
  • An attribute label and an acoustic feature sequence probabilistic generation model for generating an acoustic feature sequence according to a third probability distribution from the phoneme sequence.
  • a learning data generation method for generating learning data for an acoustic model, wherein the learning data generation method comprises the steps of: Generating an attribute label; generating a phoneme sequence from a second model parameter group and the attribute label according to a second probability distribution; and generating a phoneme sequence from a third model parameter group, the attribute label, and the phoneme sequence. And generating an acoustic feature sequence in accordance with the third probability distribution.
  • a program according to the present invention causes a computer to function as the learning data generating device.
  • FIG. 1 is a block diagram illustrating a configuration example of a learning data generation system 1 including a learning data generation device according to an embodiment of the present invention.
  • the learning data generation system 1 includes a model parameter learning device 10 and a learning data generation device 20, and uses the collected acoustic model attribute-labeled learning data and is not included in the attribute-labeled learning data. Automatically generate new learning data.
  • the acoustic model is a model that defines the probability of outputting a phoneme sequence when a certain acoustic feature amount sequence is input.
  • model parameter learning device 10 and the learning data generation device 20 are described separately, but these devices may be integrally formed. Therefore, the learning data generation device 20 may include each unit included in the model parameter learning device 10.
  • FIG. 2 is a block diagram showing a configuration example of the model parameter learning device 10.
  • the model parameter learning device 10 includes a learning data storage unit 11 and a model parameter learning unit 12.
  • the learning data storage unit 11 stores the collected learning data with attribute labels.
  • the attribute-labeled learning data is represented by the following equation.
  • T n is the length of the acoustic features sequence X n and phoneme sequences S n, different values by n.
  • the acoustic features include, for example, mel frequency cepstrum coefficients (MFCC), those obtained by performing conversion such as normalization, and those obtained by combining a plurality of temporally preceding and following features.
  • MFCC mel frequency cepstrum coefficients
  • the attribute label includes, for example, arbitrary information such as information indicating male or female and information indicating Japanese or foreign.
  • the model parameter learning unit 12 acquires the collected learning data with attribute labels recorded in the learning data storage unit 11, and obtains model parameter groups ⁇ 1, ⁇ 2 , ⁇ of three models provided in the learning data generation device 20. 3 and outputs it to the learning data generation device 20. Learning is performed based on the following formula. Note that these learnings differ depending on the definition of each probability distribution, but can be performed in any case using the following maximum likelihood criteria.
  • ⁇ with the symbol ⁇ means that ⁇ satisfies the right side (estimated by the maximum likelihood criterion by the right side).
  • FIG. 3 is a diagram showing a configuration example of the learning data generation device 20.
  • the learning data generation device 20 is a device that generates learning data for an acoustic model, and includes an attribute label stochastic generation model 21 that stochastically determines an attribute label, and a phoneme sequence that stochastically determines a phoneme sequence from an attribute label. It includes a stochastic generation model 22 and an acoustic feature sequence probabilistic generation model 23 that stochastically generates an acoustic feature sequence from an attribute label and a phoneme sequence.
  • T represents the frame length of the acoustic feature quantity sequence X and the phoneme sequence S, which can be manually determined in advance to a predetermined value (for example, 100) or automatically determined when the phoneme sequence S is generated. You can also.
  • the timing at which a specific phoneme is generated may be T, and can be assigned to, for example, the timing of a phoneme corresponding to silence.
  • Attribute label stochastic generation model 21 the stochastic effective from the model parameter groups theta 1 According to a first probability distribution, generates attribute labels a related sound to produce.
  • the generated attribute label a is output to a phoneme sequence stochastic generation model 22 and an acoustic feature amount sequence stochastic generation model 23.
  • the attribute label stochastic generation model 21 randomly determines one attribute label a from the first probability distribution by the following equation.
  • a categorical distribution can be used as the first probability distribution.
  • the entity of the model parameter groups theta 1 is a model parameter of the categorical distribution for attribute label a. Means that it is randomly generated according to the probability distribution. This random generation follows the SampleOne algorithm described below, for example.
  • the SampleOne algorithm is a known method for random sampling from a categorical distribution.
  • the SampleOne algorithm is an algorithm that randomly determines one value from a probability distribution, inputs a categorical distribution, and outputs a realized value of the probability distribution.
  • ⁇ 1 ) in the above example is an input will be described.
  • ⁇ 1 ) is in the form of a probability distribution called a categorical distribution.
  • a categorical distribution Assuming that a set of concrete realization values of the attribute label a is J and the number of types of realization values included in J is
  • P (a) t 1
  • P (a t 2
  • P (a t
  • P (a) has the following properties.
  • SampleOne of the attribute label a is based on a random number.
  • the random number value is set to rand.
  • P (a t 1
  • ⁇ 1 ), P (a t 2
  • ⁇ 1 ),..., P (a t
  • ⁇ 1 ) have specific numerical values.
  • rand-P (a t 1
  • ⁇ 1), rand-P (a t 1
  • ⁇ 1) -P (a t 2
  • ⁇ 1), rand-P (a t 1
  • ⁇ 1 ) ⁇ P (a t 3
  • the SampleOne algorithm can be said to be a data sample algorithm from an arbitrary categorical distribution.
  • the generated phoneme sequence S is output to the acoustic feature value sequence stochastic generation model 23 and also to the outside of the learning data generation device 20.
  • the generation of the phoneme sequence S is performed for each phoneme.
  • a distribution for example, a categorical distribution
  • Model parameter groups theta 2 varies depending on the model defined but, s 1, ⁇ , a model parameter capable of defining a categorical distribution for s t with s t-1, a.
  • Generation of phoneme s t is, according to the following equation.
  • a phoneme sequence S (s 1 ,..., S T ) can be generated.
  • T may be determined manually, or when automatically determined, T may be the time at which a predefined phoneme (for example, a phoneme representing silence) is generated.
  • the generated acoustic feature sequence X is output to the outside of the learning data generation device 20.
  • the generation of the acoustic feature sequence X is performed for each acoustic feature.
  • s 1 ,..., St , a, ⁇ 3 ) can be used.
  • a normal distribution can be used.
  • an average vector and a covariance matrix, which are parameters of the normal distribution may be obtained from s 1 ,..., S T ,, a, and ⁇ 3.
  • Network can be used.
  • Model parameter groups theta 3 is, s 1, ⁇ , s T , a, is possible to calculate the parameters of the distribution defined by theta 3 corresponds to the model parameters.
  • Generation of acoustic features x t follows the following equation.
  • Such a computer is realized by storing a program describing processing contents for realizing each function of the learning data generation device 20 in a storage unit of the computer, and reading and executing the program by a CPU of the computer. can do.
  • This program may be recorded on a computer-readable medium. If a computer-readable medium is used, it can be installed in a computer.
  • the computer-readable medium on which the program is recorded may be a non-transitory recording medium.
  • the non-transitory recording medium is not particularly limited, but may be, for example, a recording medium such as a CD-ROM or a DVD-ROM.
  • FIG. 4 is a flowchart illustrating an example of a procedure of a learning data generation method.
  • the model parameter learning unit 12 described above acquires the attribute labeled training data (step S101), 3 single model parameter groups theta 1, theta 2, to produce a theta 3 (step S102).
  • the attribute label stochastic generation model 21 described above from the model parameter groups theta 1, to generate the attribute label a accordance with a first probability distribution (step S103).
  • the phoneme sequence stochastic generation model 22 described above from the model parameter groups theta 2 and attribute labels a, generates a phoneme sequence S as training data in accordance with a second probability distribution (step S104).
  • the acoustic feature amount sequence X is generated as learning data from the model parameter group ⁇ 3 , the attribute label a, and the phoneme sequence S according to the third probability distribution by the above-described acoustic feature amount sequence stochastic generation model 23 ( Step S105).
  • the model parameter groups theta 1 in accordance with the first probability distribution generates attribute labels a
  • a phoneme sequence in accordance with the second probability distribution is generated from the model parameter group ⁇ 3 , the attribute label a, and the phoneme sequence S according to the third probability distribution. Therefore, according to the present invention, it is possible to artificially generate learning data (phoneme sequence S and acoustic feature sequence X) for an acoustic model only by stochastic behavior without manually giving a speech variation rule. It becomes possible.
  • an acoustic feature is obtained by artificially adding an acoustic variation factor to an acoustic feature sequence of collected learning data according to a rule previously modeled manually. Since it is a method of creating a quantity sequence and pairing it with a corresponding phoneme sequence, it was not possible to generate learning data for a phoneme sequence that does not exist in the collected learning data.
  • the model parameter groups ⁇ 1, ⁇ 2 , ⁇ 3 are generated from the collected attribute-labeled learning data (attribute labels, phoneme sequences, and acoustic feature sequences) based on the maximum likelihood criterion. Is done. Therefore, according to the present invention, it is possible to generate learning data (phoneme sequence and acoustic feature amount sequence) that does not exist in the collected learning data with attribute labels. Thus, it is possible to construct an acoustic model having high speech recognition performance.
  • the first probability distribution and the second probability distribution are preferably categorical distributions.
  • a categorical distribution is generally used as a distribution that models the generation of discrete values, and the parameters of the categorical distribution are output by a method such as using a neural network that outputs a softmax layer. Because you can do it.
  • the third probability distribution is preferably a normal distribution. The reason is that a normal distribution is generally used as a distribution that models the generation of continuous values, and parameters of the normal distribution can be output by a method such as using a neural network that outputs a mean and a variance. Because.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Machine Translation (AREA)

Abstract

人手によるルールを設けることなく、学習データを自動で生成する。音響モデル用学習データ生成装置20は、第1のモデルパラメータ群から、第1の確率分布に従い属性ラベルを生成する属性ラベル確率的生成モデル21と、第2のモデルパラメータ群および属性ラベルから、第2の確率分布に従い音素系列を生成する音素系列確率的生成モデル22と、第3のモデルパラメータ群、属性ラベル、および音素系列から、第3の確率分布に従い音響特徴量系列を生成する音響特徴量系列確率的生成モデル23と、を備える。

Description

学習データ生成装置、学習データ生成方法、及びプログラム
 本発明は、音響モデル用の学習データを生成する学習データ生成装置、学習データ生成方法、及びプログラムに関する。
 音声認識は、スマートフォン上やロボットなどを通して、様々な環境で利用されるようになってきている。このような実環境における音声認識の高度化においては、音響モデルが実環境の様々な音響的変動に頑健であることが求められる。音響的変動とは、雑音環境特性やマイク特性、話者特性などに起因する音声情報の様々な変動を表す。これらに頑健な音響モデルを構築するためには、これらの音響変動要因を含む音響モデル用の学習データを実環境で大量に集めて音響モデルを学習させることが有効である。ここで、音響モデル用の学習データは、音声の音響特徴量系列とそれに対応した音素系列の組を1つ以上含むデータ集合を表す。
 しかしながら、実際に音声認識システムを構築する際に、収集できる学習データの量はコストの問題で限られることが多いため、様々な変動要因に十分に頑健な音響モデルを学習することが困難な場合がしばしばある。この課題に対応するためのアプローチとして、学習データの疑似生成が有効であることが知られている。例えば、雑音環境特性に頑健にするためには、静穏環境下で収集した学習データの音響特徴量系列に雑音を人工的に付加することにより、疑似的に雑音環境下で収集した学習データを作り出すことができる。
 非特許文献1および非特許文献2には、音響変動要因を疑似的に加えて学習データを生成する技術が開示されている。これらの研究では、学習データの音響特徴量系列に対して、人手であらかじめモデル化したルールに従い音響変動要因を加えて疑似的に音響変動要因を加えた音響特徴量系列を作成し、対応する音素系列とペア化することで疑似的に作成した学習データとすることで、音響モデルの学習に利用している。
N. Jaitly and G. E. Hinton, "Vocal tract length perturbation (VTLP) improves speech recognition," In Proc. ICML. Workshop on Deep Learning for Audio, Speech and. Language, 2013. N. Kanda, R. Takeda, and Y. Obuchi, "Elastic spectral distortion for low resource speech recognition with deep neural networks," In Proc. IEEE Automatic Speech Recognition and Understanding Workshop (ASRU), pp. 309-314, 2013.
 しかしながら、従来の学習データを疑似生成する手法では、所定の音声変動ルールを人手で与えることが必要であり、学習データを自動で生成することができないという問題があった。
 かかる事情に鑑みてなされた本発明の目的は、人手によるルールを設けることなく、学習データを自動で生成することが可能な学習データ生成装置、学習データ生成方法、及びプログラムを提供することにある。
 上記課題を解決するため、本発明に係る学習データ生成装置は、音響モデル用の学習データを生成する学習データ生成装置であって、第1のモデルパラメータ群から、第1の確率分布に従い属性ラベルを生成する属性ラベル確率的生成モデルと、第2のモデルパラメータ群および前記属性ラベルから、第2の確率分布に従い音素系列を生成する音素系列確率的生成モデルと、第3のモデルパラメータ群、前記属性ラベル、および前記音素系列から、第3の確率分布に従い音響特徴量系列を生成する音響特徴量系列確率的生成モデルと、を備えることを特徴とする。
 また、上記課題を解決するため、本発明に係る学習データ生成方法は、音響モデル用の学習データを生成する学習データ生成方法であって、第1のモデルパラメータ群から、第1の確率分布に従い属性ラベルを生成するステップと、第2のモデルパラメータ群および前記属性ラベルから、第2の確率分布に従い音素系列を生成するステップと、第3のモデルパラメータ群、前記属性ラベル、および前記音素系列から、第3の確率分布に従い音響特徴量系列を生成するステップと、を含むことを特徴とする。
 また、上記課題を解決するため、本発明に係るプログラムは、コンピュータを、上記学習データ生成装置として機能させることを特徴とする。
 本発明によれば、人手によるルールなしに学習データを自動生成する枠組みを提供することができる。
本発明の一実施形態に係る学習データ生成装置を備える学習データ生成システムの構成例を示すブロック図である。 本発明の一実施形態に係る学習データ生成装置の構成例を示すブロック図である。 本発明の一実施形態に係る学習データ生成装置に入力するパラメータを生成するモデルパラメータ学習装置の構成例を示すブロック図である。 本発明の一実施形態に係る学習データ生成方法の手順の一例を示すフローチャートである。
 以下、本発明の一実施形態について、図面を参照して詳細に説明する。
 図1は、本発明の一実施形態に係る学習データ生成装置を備える学習データ生成システム1の構成例を示すブロック図である。学習データ生成システム1は、モデルパラメータ学習装置10と、学習データ生成装置20とを備え、収集済の音響モデル用の属性ラベル付き学習データを用いて、該属性ラベル付き学習データには含まれない学習データを新たに自動生成する。音響モデルとは、ある音響特徴量系列が入力された場合の音素系列が出力される確率を定義するモデルである。
 なお、本実施形態においては、モデルパラメータ学習装置10と学習データ生成装置20とを分けて記載しているが、これらの装置は一体的に形成されてもよい。したがって、学習データ生成装置20が、モデルパラメータ学習装置10が備える各部を備えていてもよい。
 図2は、モデルパラメータ学習装置10の構成例を示すブロック図である。モデルパラメータ学習装置10は、学習データ記憶部11と、モデルパラメータ学習部12とを備える。
 学習データ記憶部11は、収集した属性ラベル付き学習データを記憶する。収集した属性ラベル付き学習データは、音響特徴量系列X、音素系列S、および属性ラベルaの3つ組の集合であり、組の数をN(1≦n≦N、例えばN=10000)とすると、属性ラベル付き学習データは次式で表される。ここで、Tは音響特徴量系列Xや音素系列Sの長さであり、nによって異なる値となる。なお、音響特徴量としては、例えばメル周波数ケプストラム係数(MFCC)やそれに対して正規化等の変換をしたもの、時間的に前後する複数個の特徴量を結合したもの等の任意のものを含む。属性ラベルとしては、例えば男性か女性かを示す情報、日本人か外国人かを示す情報などの任意のものを含む。
Figure JPOXMLDOC01-appb-M000001
 モデルパラメータ学習部12は、学習データ記憶部11に記録された、収集済みの属性ラベル付き学習データを取得し、学習データ生成装置20が備える3つのモデルのモデルパラメータ群θ1,θ,θを学習し、学習データ生成装置20に出力する。学習は次式に示す基準で行う。なお、これらの学習は、それぞれの確率分布の定義によって異なるが、どの場合でも下記の最尤基準で行うことができる。ここで、記号^が付されたθは、右辺を満たす(右辺により最尤基準で推定された)θであることを意味する。
Figure JPOXMLDOC01-appb-M000002
 図3は、学習データ生成装置20の構成例を示す図である。学習データ生成装置20は、音響モデル用の学習データを生成する装置であり、確率的に属性ラベルを決定する属性ラベル確率的生成モデル21と、属性ラベルから確率的に音素系列を決定する音素系列確率的生成モデル22と、属性ラベルおよび音素系列から確率的に音響特徴量系列を生成する音響特徴量系列確率的生成モデル23とを備える。
 学習データ生成装置20は、学習データ生成装置20が備える3つのモデルのモデルパラメータ群θ1,θ,θを入力し、疑似的な学習データとして、音響特徴量系列X=(x,・・・,x)および音素系列S=(s,・・・,s)を生成して出力する。ここで、Tは音響特徴量系列X、音素系列Sのフレーム長を表し、人手によりあらかじめ所定の値(例えば100)に決定しておくこともできるし、音素系列Sの生成時に自動決定することもできる。自動決定する場合は、特定の音素が生成されたタイミングをTとすればよく、例えば無音に対応した音素のタイミングに割り当てることができる。
 属性ラベル確率的生成モデル21は、モデルパラメータ群θから第1の確率分布に従い確率的な施行により、生成したい音声に関する属性ラベルaを生成する。生成した属性ラベルaは、音素系列確率的生成モデル22および音響特徴量系列確率的生成モデル23に出力される。具体的には、属性ラベル確率的生成モデル21は次式により、第1の確率分布からランダムに1つの属性ラベルaを決定する。
Figure JPOXMLDOC01-appb-M000003
 第1の確率分布として、例えばカテゴリカル分布を用いることができる。この場合、モデルパラメータ群θの実体は、属性ラベルaについてのカテゴリカル分布のモデルパラメータである。~は確率分布に従い、ランダムに生成することを意味する。このランダムな生成は、例えば下記のSampleOneアルゴリズムに従う。なお、SampleOneアルゴリズムは、カテゴリカル分布からのランダムサンプリングにおいて公知の方法である。
 SampleOneアルゴリズムは、確率分布からランダムに1つの値を決定するアルゴリズムであり、カテゴリカル分布を入力して、確率分布の実現値を出力する。具体的に説明するために、前述の例であるP(a|θ)が入力である場合を扱う。P(a|θ)はカテゴリカル分布と呼ばれる確率分布の形となっている。属性ラベルaの具体的な実現値の集合をJとし、Jに含まれる実現値の種類数を|J|とすると、属性ラベルaの取り得る値は、t,t,・・・,t|J|となる。すなわち、t,t,・・・,t|J|が具体的な実現値であり、この集合がJである。Jは、確率分布のモデルパラメータが与えられれば自動的に決まる。具体的に、この確率分布は、P(a=t|θ),P(a=t|θ),・・・,P(a=t|J||θ)となっている。この時、P(a)は次の性質を有する。
Figure JPOXMLDOC01-appb-M000004
 この時、属性ラベルaのSampleOneは乱数に基づく。ここでは乱数値をrandとおく。P(a=t|θ),P(a=t|θ),・・・,P(a=t|J||θ)は具体的な数値を持っている。rand-P(a=t|θ),rand-P(a=t|θ)-P(a=t|θ),rand-P(a=t|θ)-P(a=t|θ)-P(a=t|θ)と順番に値を算出し、その値が0より小さくなった場合の値を出力する。例えば、次式が成立する場合には、tを出力する。このように、SampleOneアルゴリズムは、任意のカテゴリカル分布からのデータサンプルアルゴリズムといえる。
Figure JPOXMLDOC01-appb-M000005
 音素系列確率的生成モデル22は、モデルパラメータ群θおよび属性ラベル確率的生成モデル21により生成された属性ラベルaから、第2の確率分布に従い確率的な施行により、生成したい音声に関する音素系列S=(s,・・・,s)を生成する。生成した音素系列Sは、音響特徴量系列確率的生成モデル23に出力されるとともに、学習データ生成装置20の外部に出力される。
 音素系列Sの生成は、音素ごとに行われる。第2の確率分布として、P(s|s,・・・,st-1,a,θ)を定義する分布(例えばカテゴリカル分布)を用いることができる。P(s|s,・・・,st-1,a,θ)には任意の構造が利用できるが、例えばn-gramモデルやリカレントニューラルネットワークを用いることで定義できる。モデルパラメータ群θは定義したモデルにより異なるが、s,・・・,st-1,aを用いてsについてのカテゴリカル分布を定義することが可能なモデルパラメータとなる。音素sの生成は、次式に従う。
Figure JPOXMLDOC01-appb-M000006
 このランダムな生成は、前述のSampleOneアルゴリズムに従う。この処理は再帰的に行うことができ、音素st+1の生成時は生成した音素sを用いて次式に従う。
Figure JPOXMLDOC01-appb-M000007
 この処理をT回行うことによって、音素系列S=(s,・・・,s)を生成することができる。なお、Tは人手によって決定してもよいし、自動で決定する場合は、あらかじめ定義した音素(例えば、無音を表す音素)が生成した時間をTとしてもよい。
 音響特徴量系列確率的生成モデル23は、モデルパラメータ群θ、属性ラベル確率的生成モデル21により生成された属性ラベルa、および音素系列確率的生成モデル22により生成された音素系列S=(s,・・・,s)から、第3の確率分布に従い確率的な施行により、生成したい音声に関する音響特徴量系列X=(x,・・・,x)を生成する。生成した音響特徴量系列Xは、学習データ生成装置20の外部に出力される。
 音響特徴量系列Xの生成は、音響特徴量ごとに行われる。第3の確率分布として、P(x|s,・・・,s,a,θ)を定義する任意の連続空間の確率分布を利用でき、例えば正規分布を用いることができる。正規分布を用いる場合は、s,・・・,sT,,a,θから正規分布のパラメータである平均ベクトルと共分散行列を求めればよく、例えば非参考文献4のようなMixture Density Networkを用いることができる。モデルパラメータ群θは、s,・・・,s,a,θから定義した分布のパラメータを算出することがモデルパラメータに相当する。音響特徴量xの生成は次式に従う。
Figure JPOXMLDOC01-appb-M000008
 このランダムな生成は定義した確率分布により異なるが、例えば対角共分散行列を持つ正規分布の場合、次元ごとにボックス=ミュラー法を用いることで生成できる。ボックス=ミュラー法については公知の技術であるため、ここでは説明を省略する。この処理をt=1からTまで行うことにより、音響特徴量系列X=(x,・・・,x)を得ることができる。なお、Tは入力の音素系列の長さと一致することとする。
 なお、学習データ生成装置20として機能させるためにコンピュータを用いることも可能である。そのようなコンピュータは、学習データ生成装置20の各機能を実現する処理内容を記述したプログラムを該コンピュータの記憶部に格納しておき、該コンピュータのCPUによってこのプログラムを読み出して実行させることで実現することができる。
 また、このプログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータ読取り可能媒体を用いれば、コンピュータにインストールすることが可能である。ここで、プログラムが記録されたコンピュータ読取り可能媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD-ROMやDVD-ROMなどの記録媒体であってもよい。
 次に、本発明の一実施形態に係る学習データ生成方法について、図4を参照して説明する。図4は、学習データ生成方法の手順の一例を示すフローチャートである。
 まず、上述したモデルパラメータ学習部12により、属性ラベル付き学習データを取得し(ステップS101)、3つのモデルパラメータ群θ1,θ,θを生成する(ステップS102)。次に、上述した属性ラベル確率的生成モデル21により、モデルパラメータ群θから、第1の確率分布に従い属性ラベルaを生成する(ステップS103)。次に、上述した音素系列確率的生成モデル22により、モデルパラメータ群θおよび属性ラベルaから、第2の確率分布に従い音素系列Sを学習データとして生成する(ステップS104)。次に、上述した音響特徴量系列確率的生成モデル23により、モデルパラメータ群θ、属性ラベルa、および音素系列Sから、第3の確率分布に従い音響特徴量系列Xを学習データとして生成する(ステップS105)。
 以上説明したように、本発明では、モデルパラメータ群θから、第1の確率分布に従い属性ラベルaを生成し、モデルパラメータ群θおよび属性ラベルaから、第2の確率分布に従い音素系列を生成し、モデルパラメータ群θ、属性ラベルa、および音素系列Sから、第3の確率分布に従い音響特徴量系列Xを生成する。したがって、本発明によれば、音声変動ルールを人手で与えることなく、確率的なふるまいのみで、音響モデル用の学習データ(音素系列Sおよび音響特徴量系列X)を疑似的に生成することが可能となる。
 また、音響モデル用の学習データを疑似生成する従来の手法では、収集済みの学習データの音響特徴量系列に対して、人手であらかじめモデル化したルールに従い疑似的に音響変動要因を加えた音響特徴量系列を作成し、対応する音素系列とペア化する方法であるため、収集済みの学習データに存在しない音素系列についての学習データを生成することができなかった。その点、本発明では、モデルパラメータ群θ1,θ,θは、収集済みの属性ラベル付き学習データ(属性ラベル、音素系列、および音響特徴量系列)からそれぞれ最尤基準に基づいて生成される。したがって、本発明によれば、収集済みの属性ラベル付き学習データに存在しないような、学習データ(音素系列および音響特徴量系列)を生成することが可能となる。かくして、音声認識性能が高い音響モデルを構築することが可能となる。
 ここで、第1の確率分布および第2の確率分布は、カテゴリカル分布とするのが好適である。その理由は、離散値の生成をモデル化した分布として一般的にカテゴリカル分布が用いられており、ソフトマックス層を出力としたニューラルネットワークを用いるなどの方法により、カテゴリカル分布のパラメータを出力することができるからである。また、第3の確率分布は、正規分布とするのが好適である。その理由は、連続値の生成をモデル化した分布として一般的に正規分布が用いられており、平均と分散を出力とするニューラルネットワークを用いるなどの方法により正規分布のパラメータを出力することができるからである。
 上述の実施形態は代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば、実施形態の構成図に記載の複数の構成ブロックを1つに組み合わせたり、あるいは1つの構成ブロックを分割したりすることが可能である。
 1  学習データ生成システム
 10 モデルパラメータ学習装置
 11 学習データ記憶部
 12 モデルパラメータ学習部
 20 学習データ生成装置
 21 属性ラベル確率的生成モデル
 22 音素系列確率的生成モデル
 23 音響特徴量系列確率的生成モデル

Claims (6)

  1.  音響モデル用の学習データを生成する学習データ生成装置であって、
     第1のモデルパラメータ群から、第1の確率分布に従い属性ラベルを生成する属性ラベル確率的生成モデルと、
     第2のモデルパラメータ群および前記属性ラベルから、第2の確率分布に従い音素系列を生成する音素系列確率的生成モデルと、
     第3のモデルパラメータ群、前記属性ラベル、および前記音素系列から、第3の確率分布に従い音響特徴量系列を生成する音響特徴量系列確率的生成モデルと、
    を備えることを特徴とする学習データ生成装置。
  2.  前記第1のモデルパラメータ群、前記第2のモデルパラメータ群、および前記第3のモデルパラメータ群は、収集済みの属性ラベル、音素系列、および音響特徴量系列からそれぞれ最尤基準に基づいて生成されることを特徴とする、請求項1に記載の学習データ生成装置。
  3.  前記属性ラベル確率的生成モデルは、前記第1の確率分布からランダムに1つの値を決定するアルゴリズムを用いて前記属性ラベルを生成し、
     前記音素系列確率的生成モデルは、前記第2の確率分布からランダムに1つの値を決定するアルゴリズムを用いて前記音素系列を生成し、
     前記音響特徴量系列確率的生成モデルは、前記第3の確率分布からランダムに1つの値を決定するアルゴリズムを用いて前記音響特徴量系列を生成することを特徴とする、請求項1又は2に記載の学習データ生成装置。
  4.  前記第1の確率分布および前記第2の確率分布はカテゴリカル分布であり、
     前記第3の確率分布は正規分布であることを特徴とする、請求項1から3のいずれか一項に記載の学習データ生成装置。
  5.  音響モデル用の学習データを生成する学習データ生成方法であって、
     第1のモデルパラメータ群から、第1の確率分布に従い属性ラベルを生成するステップと、
     第2のモデルパラメータ群および前記属性ラベルから、第2の確率分布に従い音素系列を生成するステップと、
     第3のモデルパラメータ群、前記属性ラベル、および前記音素系列から、第3の確率分布に従い音響特徴量系列を生成するステップと、
    を含むことを特徴とする学習データ生成方法。
  6.  コンピュータを、請求項1から4のいずれか一項に記載の学習データ生成装置として機能させるためのプログラム。
     
PCT/JP2019/024827 2018-08-15 2019-06-21 学習データ生成装置、学習データ生成方法、及びプログラム WO2020035999A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/267,867 US20210183368A1 (en) 2018-08-15 2019-06-21 Learning data generation device, learning data generation method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-152956 2018-08-15
JP2018152956A JP7021437B2 (ja) 2018-08-15 2018-08-15 学習データ生成装置、学習データ生成方法、及びプログラム

Publications (1)

Publication Number Publication Date
WO2020035999A1 true WO2020035999A1 (ja) 2020-02-20

Family

ID=69525449

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/024827 WO2020035999A1 (ja) 2018-08-15 2019-06-21 学習データ生成装置、学習データ生成方法、及びプログラム

Country Status (3)

Country Link
US (1) US20210183368A1 (ja)
JP (1) JP7021437B2 (ja)
WO (1) WO2020035999A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03276198A (ja) * 1990-03-26 1991-12-06 Mitsubishi Electric Corp 音声認識装置
JP2014074732A (ja) * 2012-10-02 2014-04-24 Nippon Hoso Kyokai <Nhk> 音声認識装置、誤り修正モデル学習方法、及びプログラム
JP2015161927A (ja) * 2014-02-28 2015-09-07 国立研究開発法人情報通信研究機構 音響モデル生成装置、音響モデルの生産方法、およびプログラム
JP2016099507A (ja) * 2014-11-21 2016-05-30 日本電信電話株式会社 音響特徴量変換装置、音響モデル適応装置、音響特徴量変換方法、音響モデル適応方法、およびプログラム
US20170301347A1 (en) * 2016-04-13 2017-10-19 Malaspina Labs (Barbados), Inc. Phonotactic-Based Speech Recognition & Re-synthesis
JP2018072697A (ja) * 2016-11-02 2018-05-10 日本電信電話株式会社 音素崩れ検出モデル学習装置、音素崩れ区間検出装置、音素崩れ検出モデル学習方法、音素崩れ区間検出方法、プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3276198B2 (ja) 1993-04-23 2002-04-22 旭光学工業株式会社 内視鏡用注射具
US10846589B2 (en) * 2015-03-12 2020-11-24 William Marsh Rice University Automated compilation of probabilistic task description into executable neural network specification
US20190213284A1 (en) * 2018-01-11 2019-07-11 International Business Machines Corporation Semantic representation and realization for conversational systems
US11830485B2 (en) * 2018-12-11 2023-11-28 Amazon Technologies, Inc. Multiple speech processing system with synthesized speech styles
US11335347B2 (en) * 2019-06-03 2022-05-17 Amazon Technologies, Inc. Multiple classifications of audio data

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03276198A (ja) * 1990-03-26 1991-12-06 Mitsubishi Electric Corp 音声認識装置
JP2014074732A (ja) * 2012-10-02 2014-04-24 Nippon Hoso Kyokai <Nhk> 音声認識装置、誤り修正モデル学習方法、及びプログラム
JP2015161927A (ja) * 2014-02-28 2015-09-07 国立研究開発法人情報通信研究機構 音響モデル生成装置、音響モデルの生産方法、およびプログラム
JP2016099507A (ja) * 2014-11-21 2016-05-30 日本電信電話株式会社 音響特徴量変換装置、音響モデル適応装置、音響特徴量変換方法、音響モデル適応方法、およびプログラム
US20170301347A1 (en) * 2016-04-13 2017-10-19 Malaspina Labs (Barbados), Inc. Phonotactic-Based Speech Recognition & Re-synthesis
JP2018072697A (ja) * 2016-11-02 2018-05-10 日本電信電話株式会社 音素崩れ検出モデル学習装置、音素崩れ区間検出装置、音素崩れ検出モデル学習方法、音素崩れ区間検出方法、プログラム

Also Published As

Publication number Publication date
JP7021437B2 (ja) 2022-02-17
JP2020027211A (ja) 2020-02-20
US20210183368A1 (en) 2021-06-17

Similar Documents

Publication Publication Date Title
JP2017228160A (ja) 対話行為推定方法、対話行為推定装置及びプログラム
Lee et al. Ensemble of jointly trained deep neural network-based acoustic models for reverberant speech recognition
JP5634959B2 (ja) 雑音/残響除去装置とその方法とプログラム
JP6723120B2 (ja) 音響処理装置および音響処理方法
JP7218601B2 (ja) 学習データ取得装置、モデル学習装置、それらの方法、およびプログラム
JP6195548B2 (ja) 信号解析装置、方法、及びプログラム
JP2019074625A (ja) 音源分離方法および音源分離装置
WO2020045313A1 (ja) マスク推定装置、マスク推定方法及びマスク推定プログラム
JPWO2017146073A1 (ja) 声質変換装置、声質変換方法およびプログラム
KR20190032868A (ko) 음성인식 방법 및 그 장치
JP5974901B2 (ja) 有音区間分類装置、有音区間分類方法、及び有音区間分類プログラム
JP5994639B2 (ja) 有音区間検出装置、有音区間検出方法、及び有音区間検出プログラム
JP2016177344A (ja) 演算装置、演算方法およびプログラム
JP6244297B2 (ja) 音響スコア算出装置、その方法及びプログラム
JP5726790B2 (ja) 音源分離装置、音源分離方法、およびプログラム
WO2020035999A1 (ja) 学習データ生成装置、学習データ生成方法、及びプログラム
JP6499095B2 (ja) 信号処理方法、信号処理装置及び信号処理プログラム
JP5172536B2 (ja) 残響除去装置、残響除去方法、コンピュータプログラムおよび記録媒体
JP7359028B2 (ja) 学習装置、学習方法、および、学習プログラム
Zhuang et al. Multi-task joint-learning for robust voice activity detection
JP2005196020A (ja) 音声処理装置と方法並びにプログラム
JP2008064849A (ja) 音響モデル作成装置、その装置を用いた音声認識装置、これらの方法、これらのプログラム、およびこれらの記録媒体
JP6699945B2 (ja) 音響モデル学習装置、その方法、及びプログラム
WO2019208137A1 (ja) 音源分離装置、その方法、およびプログラム
JPWO2016092837A1 (ja) 音声処理装置、雑音抑圧装置、音声処理方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19849480

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19849480

Country of ref document: EP

Kind code of ref document: A1