JP2010175614A - Clustering calculation device, clustering calculation method, clustering calculation program, and computer readable recording medium recorded with the program - Google Patents
Clustering calculation device, clustering calculation method, clustering calculation program, and computer readable recording medium recorded with the program Download PDFInfo
- Publication number
- JP2010175614A JP2010175614A JP2009015338A JP2009015338A JP2010175614A JP 2010175614 A JP2010175614 A JP 2010175614A JP 2009015338 A JP2009015338 A JP 2009015338A JP 2009015338 A JP2009015338 A JP 2009015338A JP 2010175614 A JP2010175614 A JP 2010175614A
- Authority
- JP
- Japan
- Prior art keywords
- cluster
- time
- distribution
- calculation
- estimated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、話者数が未知である会話の録音データから話者数を推定する技術に関する。 The present invention relates to a technique for estimating the number of speakers from conversation recording data in which the number of speakers is unknown.
従来、複数話者の会話からなる録音データから、その会話に参加した話者数とさらに各話者の発話したタイミングを推定する問題が知られている。この問題やこの問題を解決する技術は、ダイアライゼーション(diarization)と呼ばれている。ダイアライゼーションは、簡単には「いつ、誰が発話したか」を自動推定する技術といえる。この技術の応用としては、会議データへのアノテーション(annotation)やそれを用いた検索、音声強調など幅広い用途が期待されている。 Conventionally, there has been known a problem of estimating the number of speakers participating in a conversation and the timing of each speaker speaking from recorded data consisting of conversations of a plurality of speakers. This problem and the technology that solves this problem are called diarization. Dialization can be said to be a technology that automatically estimates “when and who spoke”. As an application of this technology, a wide range of uses such as annotation to conference data, search using the same, and speech enhancement are expected.
既存のダイアライゼーションの解法は、大きく2つに分けることができる。第1の方法は、話者固有の声質を推定して話者を区別する方法であり、第2の方法は、話者の位置を推定する方法である。このうち、第1の方法(話者声質を利用する方法)では、各話者の声の特徴を抽出することで現在発話している話者を識別する。この第1の方法では、話者が移動したとしても話者を識別できるという利点があるが、複数の話者が同時に発話した場合には話者の識別が困難となるという欠点がある。 Existing dialytical solutions can be roughly divided into two. The first method is a method for estimating speaker-specific voice quality and distinguishing speakers, and the second method is a method for estimating a speaker position. Among these, in the first method (method using speaker voice quality), the speaker who is currently speaking is identified by extracting the voice characteristics of each speaker. This first method has an advantage that the speaker can be identified even if the speaker moves, but has a disadvantage that it becomes difficult to identify the speaker when a plurality of speakers speak at the same time.
第2の方法(話者位置に関する情報を利用する方法)は、話者の位置を推定することで話者数とその位置を推定する方法である(例えば、非特許文献1〜3参照)。非特許文献1〜3の手法では、マイクロホンアレーを用いて各話者の位置を推定することで話者の識別を行う。従って、非特許文献1〜3の手法は、話者が移動すると同一話者として識別することができないという欠点があるが、複数話者が同時に発話する場合でも各話者の発話行動を識別することができるという利点がある。
The second method (a method using information related to the speaker position) is a method of estimating the number of speakers and their positions by estimating the positions of the speakers (see, for example,
ダイアライゼーションでは、一般に、録音された音声データ中の発話者数は未知であり、推定しなければならない。また、第1の方法(話者声質を利用する方法)によるもの、第2の方法(話者位置に関する情報を利用する方法)によるものに関わらず、各話者を識別するためには、各話者を特徴づける量(パラメータ)を推定する必要がある。これは、いわゆるクラスタリングの問題に相当する。クラスタリングの問題とは、観測されたデータを適切な数のクラスタに分割し、各クラスタのパラメータを推定する問題である。ダイアライゼーションを単純にクラスタリングの問題に置き換えようとしても、そのクラスタ数とデータの分割は未知なので、パラメータと共に学習する必要がある。ダイアライゼーションの問題では、クラスタ数は「話者数」を表し、各クラスタのパラメータは「話者の特徴量」を表し、結果得られるデータの分割結果から「各話者の発話タイミング」が示唆されることになる。 In dialization, in general, the number of speakers in recorded audio data is unknown and must be estimated. In order to identify each speaker, regardless of whether the first method (method of using speaker voice quality) or the second method (method of using information on the speaker position) is used, The amount (parameter) that characterizes the speaker needs to be estimated. This corresponds to a so-called clustering problem. The clustering problem is a problem of dividing observed data into an appropriate number of clusters and estimating parameters of each cluster. Even if dialization is simply replaced with a clustering problem, the number of clusters and the division of data are unknown, so it is necessary to learn with parameters. In the problem of dialization, the number of clusters represents “the number of speakers”, the parameter of each cluster represents “the feature amount of the speakers”, and “the timing of each speaker's utterance” is suggested from the result of dividing the data obtained. Will be.
非特許文献1ではleader-followerアルゴリズムと呼ばれるクラスタリング手法を用いている。これは、逐次的なクラスタリング手法であり、少しずつサンプルを入力していきながらクラスタリングを行うものである。このクラスタリング手法では、クラスタリングの際に、新しく入力されたサンプルが既存のどのクラスタからも一定距離以上離れていた場合に、そのサンプルを中心として新しいクラスタを生成する。なお、leader-followerアルゴリズムについては、「R. O. Duda, P. E. Hart and D. G. Stork, “Pattern Classification”, John Wiley & Sons, 2001.」に記載されている。
Non-Patent
また、非特許文献3では、BIC基準と呼ばれる評価値を最大化するようなクラスタ数を選択する方法を提案している。この方法では、クラスタ数をKに設定してから実際にクラスタリングを行って評価値を計算し、次はクラスタ数をK+1に設定して評価値を計算する、ということを繰り返えして評価値を最大化するクラスタ数を探索する。
Non-Patent
ところで、クラスタ数未知のデータに対するクラスタリングモデルとして、ノンパラメトリックベイズモデルが、近年、多くの場面で利用されるようになってきた。例えば、ノンパラメトリックベイズモデルの1種であるDirichlet Process Mixture(DPM)は、クラスタ数と各サンプルのクラスタリングを確率的に同時に最適化することができる。従って、DPMは、既存のクラスタリングモデルのように、クラスタ数の最適化を簡単に実現できる点が大きな特徴である。このDPMにおいて、確率分布の連続的な時間変化をモデル化した拡張モデルとしては、dynamic Hierarchical Dirichlet Process(dHDP)と呼ばれるモデルが知られている(非特許文献4参照)。 By the way, as a clustering model for data with an unknown number of clusters, a non-parametric Bayes model has recently been used in many situations. For example, Dirichlet Process Mixture (DPM), which is one type of non-parametric Bayesian model, can simultaneously optimize the number of clusters and clustering of each sample at random. Therefore, DPM has a great feature in that optimization of the number of clusters can be easily realized like an existing clustering model. In this DPM, a model called dynamic Hierarchical Dirichlet Process (dHDP) is known as an extended model that models a continuous temporal change of a probability distribution (see Non-Patent Document 4).
従来のダイアライゼーションの研究において、例えば、非特許文献1に記載の手法は、計算が簡単で高速に実行できるが、新しいクラスタを生成するための距離閾値の設定が必要である。この閾値の設定によって、最終的に得られるクラスタリングとクラスタ数が決定される。一方で、クラスタ数やクラスタリング結果の推定値を真の値に近づけるという意味で、この閾値を最適化することは困難である。
In the conventional dialization research, for example, the method described in Non-Patent
また、例えば、非特許文献3に記載の方法は、実際には不適切なクラスタ数のもとでもクラスタリングを行う必要があり、処理の過程において、計算量や時間の観点からは大きな無駄が発生する。
In addition, for example, the method described in Non-Patent
したがって、従来のダイアライゼーションの研究では、話者数と話者の特徴を推定する部分、つまりクラスタリングの問題に改良の余地があった。また、ダイアライゼーションに対して、処理負荷の低減や処理の高速化が要望されている。さらに、従来のダイアライゼーションの研究では、dHDPやDPMなどのノンパラメトリックベイズモデルは、クラスタリングモデルとして採用されておらず、その適用方法が知られていなかった。 Therefore, in the conventional dialization research, there is room for improvement in the problem of clustering, which estimates the number of speakers and speaker characteristics. In addition, reduction of processing load and speeding up of processing are demanded for dialization. Furthermore, in conventional dialization research, nonparametric Bayes models such as dHDP and DPM have not been adopted as clustering models, and their application methods have not been known.
そこで、本発明では、前記した問題を解決し、ダイアライゼーションにおいて、話者数と各話者を特徴づけるパラメータを正確に推定するクラスタリング技術を提供することを目的とする。 Therefore, an object of the present invention is to provide a clustering technique for solving the above-described problems and accurately estimating the number of speakers and parameters characterizing each speaker in dialization.
前記目的を達成するために、本願発明者らは、ダイアライゼーションにおいて、話者数と各話者を特徴づけるパラメータを推定するクラスタリングにおいて種々検討を行った。その結果、クラスタ数やデータの分割、そしてパラメータを事後確率最大化の意味で同時に最適化できるモデルとしてノンパラメトリックベイズモデルを採用したときに、話者数を正確に推定できることを見出した。 In order to achieve the above object, the inventors of the present application have made various studies on clustering for estimating the number of speakers and parameters characterizing each speaker in dialization. As a result, we found that the number of speakers can be estimated accurately when the nonparametric Bayes model is adopted as a model that can simultaneously optimize the number of clusters, data division, and parameters in the sense of maximizing the posterior probability.
そこで、本発明に係るクラスタリング計算装置は、話者数が未知である会話の録音データから前記会話の話者数を推定するために、各話者を特徴付ける特徴量を抽出する特徴量抽出手段と、前記抽出された特徴量から前記各話者に対応する複数のクラスタを生成するときの複数の未知パラメータの値をそれぞれ推定するクラスタリング計算装置と、前記推定された複数のパラメータ値により前記会話の各話者を識別する識別手段とを有したダイアライゼーションシステムの前記クラスタリング計算装置であって、前記抽出された特徴量を読み込む読込手段と、前記読み込んだ特徴量をノンパラメトリックベイズモデルに対応したベクトルの観測量に変換する観測量生成手段と、前記変換された観測量の集合データを蓄積記憶する観測量記憶手段と、前記観測量の集合データから複数のクラスタをノンパラメトリックベイズモデルにより生成するときの複数のパラメータの事後分布の値をEMアルゴリズムによりそれぞれ推定および更新する事後分布推論手段と、前記推定および更新された複数のパラメータの事後分布の値を蓄積記憶する推定値記憶手段と、事前に設定された終了条件が成立したときに前記推定値記憶手段に記憶されている前記複数のパラメータの事後分布の最新の推定値を出力する出力制御手段と、を備えることを特徴とする。 Therefore, the clustering calculation apparatus according to the present invention includes a feature amount extraction unit that extracts a feature amount that characterizes each speaker in order to estimate the number of speakers in the conversation from recording data of the conversation in which the number of speakers is unknown. A clustering calculation device for estimating values of a plurality of unknown parameters when generating a plurality of clusters corresponding to each speaker from the extracted feature values, and a conversation calculation method using the estimated plurality of parameter values. A clustering calculation apparatus of a dialization system having identification means for identifying each speaker, the reading means for reading the extracted feature value, and a vector corresponding to the non-parametric Bayes model for the read feature value Observing amount generating means for converting the observed amount into the observed amount, and an observing amount storing means for accumulating and storing the set data of the converted observed amount Posterior distribution inference means for estimating and updating the posterior distribution values of a plurality of parameters by an EM algorithm when generating a plurality of clusters from the aggregated data of the observation amount by a nonparametric Bayes model, and the estimation and update The estimated value storage means for accumulating and storing the values of the posterior distributions of the plurality of parameters, and the latest of the posterior distributions of the plurality of parameters stored in the estimated value storage means when a preset termination condition is satisfied. Output control means for outputting the estimated value.
かかる構成によれば、クラスタリング計算装置は、会話の録音データから抽出された特徴量をノンパラメトリックベイズモデルに適応できるようにベクトルの観測量に変換することで生成した観測量の集合データを用いて、ノンパラメトリックベイズモデルに従った演算により、クラスタ数やデータの分割、そしてパラメータを事後確率最大化の意味で同時に最適化する。そして、クラスタリング計算装置は、この最適化において、EMアルゴリズムにより事後分布の推定および更新を繰り返し、蓄積記憶する。ここで、EMアルゴリズムは、局所最適解の計算アルゴリズムであるため、計算を繰り返すことで、ある1つの解に収束させることができる。また、ノンパラメトリックベイズモデルでは、予め準備した最大クラスタ数の個数のクラスタが最適化処理の過程で、有効なクラスタ数の個数に収束し、他のクラスタは、クラスタの混合比がほぼ0となる。このクラスタリング結果が得られれば、各クラスタへ帰属するサンプル数(観測量の個数)が計算できる。また、この各クラスタへ帰属するサンプル数を用いて各クラスタの混合比を計算可能である。さらに、この混合比により、有効なクラスタ数を決定することができる。ここで、クラスタ数は、会話の録音データ中の話者に対応しているので、話者数が決定できるようになる。また、これらクラスタリング結果と共に、それを用いた各種変数の推定値も同様に蓄積記憶することができる。そして、クラスタリング計算装置は、終了条件が成立したときに蓄積記憶されている最新の推定値を出力する。 According to such a configuration, the clustering calculation apparatus uses the observation amount set data generated by converting the feature amount extracted from the recording data of the conversation into the vector observation amount so that it can be applied to the nonparametric Bayes model. The number of clusters, data division, and parameters are optimized simultaneously in the sense of maximizing posterior probabilities through operations according to the nonparametric Bayes model. In this optimization, the clustering calculation apparatus repeatedly accumulates and stores the posterior distribution estimation and update using the EM algorithm. Here, since the EM algorithm is a calculation algorithm for a local optimum solution, it can be converged to a single solution by repeating the calculation. In the non-parametric Bayes model, the number of clusters prepared in advance converges to the number of effective clusters during the optimization process, and the cluster mixture ratio of other clusters becomes almost zero. . If this clustering result is obtained, the number of samples (number of observations) belonging to each cluster can be calculated. Further, the mixing ratio of each cluster can be calculated using the number of samples belonging to each cluster. Furthermore, the effective number of clusters can be determined by this mixing ratio. Here, since the number of clusters corresponds to the speakers in the recording data of the conversation, the number of speakers can be determined. In addition to the clustering results, estimated values of various variables using the clustering results can be accumulated and stored in the same manner. Then, the clustering calculation apparatus outputs the latest estimated value stored and stored when the end condition is satisfied.
また、本発明に係るクラスタリング計算装置は、前記事後分布推論手段が、前記EMアルゴリズムのEステップの処理として、dHDP(dynamic Hierarchical Dirichlet Process)モデルにおいて予め定められた事前分布、観測分布および最大クラスタ数と、ハイパーパラメータの設定値と、過去から推定対象の時刻までに変換された観測量の集合データと、過去から最新のMステップまでに推定された隠れ変数の事後分布の推定値とを読み込んで、過去分を含めた演算対象時刻ごと、かつ、クラスタごと、かつ、演算対象時刻別の全データごとに、前記クラスタと、混合比と、前記クラスタ分布の時間変化の程度を表す重みとに関するパラメータの事後分布の値を演算するEステップ用計算手段と、前記EMアルゴリズムのMステップの処理として、前記ハイパーパラメータの設定値と、過去から推定対象の時刻までに変換された観測量の集合データと、過去から最新のEステップまでに推定されたパラメータの事後分布の推定値とを読み込んで、過去分を含めた演算対象時刻ごと、かつ、演算対象時刻別の全データごとに、2種類の隠れ変数の事後分布の値を推定し、前記2種類の隠れ変数のうち、前記クラスタ分布の時間変化の程度を表す重みに関連付けられた第1隠れ変数の事後分布の値についてはクラスタごとに演算し、前記第1隠れ変数および前記混合比に関連付けられた第2隠れ変数の事後分布の値については、演算対象時刻から過去に遡及した時刻ごとに演算するMステップ用計算手段と、前記Eステップの処理と前記Mステップの処理とを交互に予め定められた回数だけ繰り返し実行させる制御を行う収束判定手段と、を備えることを特徴とする。 Further, in the clustering calculation apparatus according to the present invention, the posterior distribution inference means uses a pre-distribution, an observation distribution, and a maximum cluster predetermined in a dHDP (dynamic Hierarchical Dirichlet Process) model as the processing of the E step of the EM algorithm. Number, hyperparameter setting value, aggregated data of observations converted from the past to the estimation target time, and estimated values of the posterior distribution of hidden variables estimated from the past to the latest M steps And the cluster, the mixture ratio, and the weight representing the degree of time variation of the cluster distribution for each calculation target time including the past, for each cluster, and for all data for each calculation target time. As E step calculation means for calculating the value of the posterior distribution of parameters, and M step processing of the EM algorithm, Read the hyper parameter setting values, the aggregated data of the observed quantities converted from the past to the estimation target time, and the estimated values of the posterior distribution of the parameters estimated from the past to the latest E step. Estimate the value of the posterior distribution of two types of hidden variables for each calculation target time including the minute and for all data for each calculation target time, and change the time distribution of the cluster distribution among the two types of hidden variables The value of the posterior distribution of the first hidden variable associated with the weight representing the degree of the calculation is calculated for each cluster, and the value of the posterior distribution of the second hidden variable associated with the first hidden variable and the mixture ratio is calculated. The M step calculation means for calculating each time retroactively from the calculation target time, and the process of the E step and the process of the M step are alternately repeated a predetermined number of times. And a convergence determination means for performing control to execute the return.
かかる構成によれば、クラスタリング計算装置は、ノンパラメトリックベイズモデルのうちdHDPモデルに従った演算により、クラスタ数やデータの分割、そしてパラメータを事後確率最大化の意味で同時に最適化するためにEMアルゴリズムを用いる。また、dHDPモデルでは、ある時刻tにおけるパラメータ分布を、前の時刻t−1でのパラメータ分布と、当該時刻tでのパラメータ分布の変化量とを、時刻tにおける変化量の変化の割合(重み)で重ね合わせた分布として表現している。すなわち、dHDPでは、時刻に依存して分布が少しずつ変化するというモデルとなっている。クラスタリング計算装置のアルゴリズムは、ある時刻tにおけるパラメータ分布を、時刻tに実際に発話した発話者を構成しているものとして構築した。そのため、dHDPモデルは、話者の入れ替わり(turn-taking)によって観測量(サンプル)の分布が時間変化するダイアライゼーションのタスクにとって好都合の確率モデルとなった。したがって、話者の入れ替わりがある会話録音データから、未知の話者数と各話者を特徴づけるパラメータを正確に推定することができる。 According to such a configuration, the clustering calculation device uses an EM algorithm to simultaneously optimize the number of clusters, data division, and parameters in the sense of posterior probability maximization by calculation according to the dHDP model among nonparametric Bayes models. Is used. Further, in the dHDP model, the parameter distribution at a certain time t is defined as the parameter distribution at the previous time t−1 and the change amount of the parameter distribution at the time t as a change rate (weight) of the change amount at the time t. ). In other words, dHDP is a model in which the distribution changes little by little depending on time. The algorithm of the clustering calculation device was constructed assuming that the parameter distribution at a certain time t constitutes the speaker who actually spoke at time t. Therefore, the dHDP model has become a probabilistic model convenient for the task of dialization in which the distribution of observed quantities (samples) changes with time due to speaker turn-taking. Therefore, it is possible to accurately estimate the number of unknown speakers and the parameters characterizing each speaker from the conversation recording data with the change of speakers.
また、本発明に係るクラスタリング計算装置は、前記Eステップ用計算手段が、観測量の集合データと、隠れ変数の事後分布の推定値とについて、推定対象の時刻から事前に設定された定数または直前のMステップの推定値を反映した変動数分だけ過去に遡及した時刻のデータを読み込み、推定対象の時刻から事前に設定された設定値分だけ遡及した過去の時刻までを演算対象時刻として、前記クラスタと、前記混合比と、前記重みとに関するパラメータの事後分布の値を演算し、クラスタごとの演算のためにクラスタを更新する処理を実行するたびに、事前に設定された再推定すべきクラスタの判断基準に基づいて、推定処理対象のクラスタを再推定すべきか否か判別し、再推定すべきクラスタである場合に、前記混合比に関するパラメータの事後分布の値を演算し、前記Mステップ用計算手段が、観測量の集合データと、パラメータの事後分布の推定値とについて、推定対象の時刻から事前に設定された定数または直前のMステップの推定値を反映した変動数分だけ過去に遡及した時刻のデータを読み込み、推定対象の時刻から事前に設定された設定値分まで遡及した過去の時刻までを演算対象時刻として、前記第1隠れ変数および第2隠れ変数の事後分布の値を演算し、クラスタごとの演算のためにクラスタを更新する処理を実行するたびに、前記判断基準に基づいて、推定処理対象のクラスタを再推定すべきか否か判別し、再推定すべきクラスタである場合に、前記第1隠れ変数の事後分布の値を演算することを特徴とする。 Further, in the clustering calculation apparatus according to the present invention, the E-step calculation means is configured such that the observation amount set data and the estimated value of the posterior distribution of the hidden variable are constants set in advance from the estimation target time or immediately before The data of the time retroactively reflected by the number of fluctuations reflecting the estimated value of the M step is read, and the calculation target time is the time from the estimation target time to the past time retroactive by the preset set value. A cluster to be reestimated in advance every time the process of updating the cluster for the calculation of each cluster is performed by calculating the value of the posterior distribution of the parameters related to the cluster, the mixture ratio, and the weight On the basis of the determination criteria, it is determined whether or not the cluster to be estimated is to be re-estimated. The posterior distribution value is calculated, and the M-step calculating means sets a constant set in advance from the estimation target time or the immediately preceding M step for the observation amount set data and the estimated value of the posterior distribution of the parameter. The data of the time retroactively reflected by the number of fluctuations reflecting the estimated value of the first time is read, and the first hidden time is set as the calculation target time from the time of the estimation target to the time of the past retroactively to the set value set in advance. Whether the cluster to be estimated should be re-estimated based on the above judgment criteria every time the posterior distribution values of the variable and the second hidden variable are calculated and the process of updating the cluster for each cluster is executed. If the cluster is to be re-estimated, the value of the posterior distribution of the first hidden variable is calculated.
かかる構成によれば、クラスタリング計算装置は、EステップおよびMステップにおいて、推定対象の時刻から事前に定められた過去の一時点まで遡った観測量の集合データと、その演算に必要な推定値とを読み込み、当該推定対象の時刻から事前に定められた設定値分だけ過去に遡った過去の時刻までを演算対象時刻として、推定値を求める演算を行う。したがって、事前に過去の一時点や設定値を定めることなく、時間ステップの進展とともに推定すべき変数の個数が増加していくだけである場合と比べて、処理負荷の低減や処理の高速化を実現できる。また、クラスタリング計算装置は、EステップおよびMステップにおいて、クラスタごとの演算のためにクラスタを更新したときに、必要な場合にだけそのクラスタにおける推定値の再推定処理を行う。したがって、dHDPモデルにおいて予め設定される最大クラスタ数の個数のクラスタに関して、推定値の再推定処理を毎回実行する場合に比べて、処理負荷の低減や処理の高速化を実現できる。 According to such a configuration, the clustering calculation apparatus, in the E step and the M step, sets the observation amount set data that has been traced back to a predetermined point in time from the estimation target time, and the estimated value required for the calculation. , And the calculation for obtaining the estimated value is performed using the time up to the past as far as the set value determined in advance from the time of the estimation target as the calculation target time. Therefore, the processing load is reduced and the processing speed is increased compared to the case where the number of variables to be estimated increases with the progress of the time step without having to set a past point in time or set value in advance. it can. In addition, when the cluster is updated for the calculation for each cluster in the E step and the M step, the clustering calculation apparatus performs a re-estimation process of the estimated value in the cluster only when necessary. Therefore, the processing load can be reduced and the processing speed can be increased as compared with the case where the estimation value re-estimation process is executed every time for the maximum number of clusters set in advance in the dHDP model.
また、課題を解決するため、本発明に係るクラスタリング計算方法は、話者数が未知である会話の録音データから前記会話の話者数を推定するダイアライゼーションシステムにおいて、記憶手段と、読込手段と、観測量生成手段と、事後分布推論手段と、出力制御手段とを備えて、前記録音データから抽出された各話者を特徴付ける特徴量から前記各話者に対応する複数のクラスタを生成するときの複数の未知パラメータの値をそれぞれ推定するクラスタリング計算装置のクラスタリング計算方法であって、前記読込手段によって、前記抽出された特徴量を読み込む特徴量読込ステップと、前記観測量生成手段によって、前記読み込んだ特徴量をノンパラメトリックベイズモデルに対応したベクトルの観測量に変換し、前記変換された観測量の集合データを記憶手段に順次蓄積する観測量蓄積ステップと、前記事後分布推論手段によって、前記観測量の集合データから複数のクラスタをノンパラメトリックベイズモデルにより生成するときの複数のパラメータの事後分布の値をEMアルゴリズムによりそれぞれ推定し、当該推定値を前記記憶手段に順次格納および更新する事後分布推定ステップと、前記出力制御手段によって、事前に設定された終了条件が成立したときに前記記憶手段に記憶されている前記複数のパラメータの事後分布の最新の推定値を出力する推定値出力ステップと、を含んで実行することを特徴とする。 In order to solve the problem, the clustering calculation method according to the present invention includes a storage unit, a reading unit, and a dialing system for estimating the number of speakers of the conversation from the recording data of the conversation whose number of speakers is unknown. An observation amount generating means, a posteriori distribution inference means, and an output control means, and generating a plurality of clusters corresponding to each speaker from the feature quantity characterizing each speaker extracted from the recorded data A clustering calculation method of a clustering calculation apparatus for estimating the values of a plurality of unknown parameters respectively, wherein the reading means reads a feature quantity reading step, and the observation quantity generation means performs the reading Is converted into a vector observable corresponding to the nonparametric Bayes model, and the converted observable An observable amount accumulation step for sequentially accumulating the set data in the storage means; Each value is estimated by an EM algorithm, and the estimated value is sequentially stored and updated in the storage means, and when the end condition preset by the output control means is satisfied in the storage means. And an estimated value output step of outputting a latest estimated value of the posterior distribution of the plurality of parameters stored therein.
かかる手順によれば、クラスタリング計算方法において、クラスタリング計算装置は、まず、会話の録音データから抽出された特徴量を読み込み、ノンパラメトリックベイズモデルに適応できるようにベクトルの観測量に変換し、蓄積する。そして、クラスタリング計算装置は、生成した観測量の集合データを用いて、ノンパラメトリックベイズモデルに従った演算により、クラスタ数やデータの分割、そしてパラメータを事後確率最大化の意味で同時に最適化する。そして、クラスタリング計算装置は、この最適化において、EMアルゴリズムにより事後分布の推定および更新を繰り返し、蓄積記憶する。そして、クラスタリング計算装置は、終了条件が成立したときに蓄積記憶されている最新の推定値を出力する。 According to such a procedure, in the clustering calculation method, the clustering calculation apparatus first reads the feature amount extracted from the recording data of the conversation, converts it into a vector observation amount so as to be adaptable to the nonparametric Bayes model, and accumulates it. . Then, the clustering calculation apparatus simultaneously optimizes the number of clusters, the data division, and the parameters in the sense of maximizing the posterior probability by the calculation according to the nonparametric Bayes model using the generated aggregate data of the observation amount. In this optimization, the clustering calculation apparatus repeatedly accumulates and stores the posterior distribution estimation and update using the EM algorithm. Then, the clustering calculation apparatus outputs the latest estimated value stored and stored when the end condition is satisfied.
また、本発明に係るクラスタリング計算方法は、前記事後分布推論手段が、前記事後分布推定ステップにおいて、前記EMアルゴリズムのEステップの処理として、dHDPモデルにおいて予め定められた事前分布、観測分布および最大クラスタ数と、ハイパーパラメータの設定値と、過去から推定対象の時刻までに変換された観測量の集合データと、過去から最新のMステップまでに推定された隠れ変数の事後分布の推定値とを読み込んで、推定対象の時刻に過去分を含めた演算対象時刻ごと、かつ、クラスタごと、かつ、前記演算対象時刻別の全データごとに、前記クラスタと、混合比と、前記クラスタ分布の時間変化の程度を表す重みとに関するパラメータの事後分布の値を演算する段階と、前記EMアルゴリズムのMステップの処理として、前記ハイパーパラメータの設定値と、過去から推定対象の時刻までに変換された観測量の集合データと、過去から最新のEステップまでに推定されたパラメータの事後分布の推定値とを読み込んで、推定対象の時刻に過去分を含めた演算対象時刻ごと、かつ、前記演算対象時刻別の全データごとに、2種類の隠れ変数の事後分布の値を推定し、前記2種類の隠れ変数のうち、前記クラスタ分布の時間変化の程度を表す重みに関連付けられた第1隠れ変数の事後分布の値についてはクラスタごとに演算し、前記第1隠れ変数および前記混合比に関連付けられた第2隠れ変数の事後分布の値については、前記演算対象時刻から過去に遡及した時刻ごとに演算する段階とを含み、前記Eステップの処理と前記Mステップの処理とを交互に予め定められた回数だけ繰り返し実行することを特徴とする。 Further, in the clustering calculation method according to the present invention, the posterior distribution inference means, as the processing of the E step of the EM algorithm in the posterior distribution estimation step, a predistribution, an observation distribution, and a predetermined distribution determined in advance in the dHDP model. The maximum number of clusters, the set value of the hyper parameter, the aggregated data of observations converted from the past to the estimation target time, the estimated value of the posterior distribution of the hidden variables estimated from the past to the latest M steps, and For each calculation target time including the past in the estimation target time, for each cluster, and for each data for each calculation target time, the cluster, the mixture ratio, and the time of the cluster distribution A step of calculating a value of a posterior distribution of a parameter relating to a weight representing a degree of change, and a process of M step of the EM algorithm Then, the setting value of the hyper parameter, the collective data of the observation amount converted from the past to the estimation target time, and the estimated value of the posterior distribution of the parameter estimated from the past to the latest E step are read. Then, the value of the posterior distribution of the two types of hidden variables is estimated for each calculation target time including the past in the estimation target time and for all the data for each calculation target time, and the two types of hidden variables are estimated. Among the posterior distribution values of the first hidden variable associated with the weight representing the degree of temporal change of the cluster distribution is calculated for each cluster, and the second associated with the first hidden variable and the mixture ratio. The value of the posterior distribution of the hidden variable is calculated for each time retroactively from the calculation target time, and the process of the E step and the process of the M step are alternately predicted. Characterized in that it only repeatedly executed the number of times defined.
かかる手順によれば、クラスタリング計算方法において、クラスタリング計算装置は、ノンパラメトリックベイズモデルのうちdHDPモデルに従った演算により、クラスタ数やデータの分割、そしてパラメータを事後確率最大化の意味で同時に最適化するためにEMアルゴリズムを用いる。ここで、dHDPでは、時刻に依存して分布が少しずつ変化するというモデルとなっているため、話者の入れ替わり(turn-taking)によって観測量(サンプル)の分布が時間変化するダイアライゼーションのタスクにとって恰好の確率モデルである。したがって、話者の入れ替わりがある会話録音データから、未知の話者数と各話者を特徴づけるパラメータを正確に推定することができる。 According to such a procedure, in the clustering calculation method, the clustering calculation device simultaneously optimizes the number of clusters, the data division, and the parameters in the sense of maximizing the posterior probability by the calculation according to the dHDP model among the nonparametric Bayes models. To do this, the EM algorithm is used. Here, dHDP is a model in which the distribution changes little by little depending on the time, so a dialization task in which the observed quantity (sample) distribution changes with time due to the turn-taking of speakers. It is a good stochastic model. Therefore, it is possible to accurately estimate the number of unknown speakers and the parameters characterizing each speaker from the conversation recording data with the change of speakers.
また、本発明に係るクラスタリング計算方法は、前記事後分布推論手段が、前記Eステップにおいて、観測量の集合データと、隠れ変数の事後分布の推定値とについては、推定対象の時刻から事前に設定された定数または直前のMステップの推定値を反映した変動数分だけ過去に遡及した時刻のデータを読み込み、前記Mステップにおいて、観測量の集合データと、パラメータの事後分布の推定値とについては、推定対象の時刻から事前に設定された定数または直前のMステップの推定値を反映した変動数分だけ過去に遡及した時刻のデータを読み込むことを特徴とする。 Further, in the clustering calculation method according to the present invention, the posterior distribution inference means determines in advance from the time to be estimated about the set data of the observation amount and the estimated value of the posterior distribution of the hidden variable in the E step. The data of the retroactive time is read by the number of fluctuations reflecting the set constant or the estimated value of the previous M step, and in the M step, the aggregated data of the observation amount and the estimated value of the posterior distribution of the parameter are obtained. Is characterized in that it reads data at a time retroactive to the past by the number of fluctuations reflecting a constant set in advance or an estimated value of the immediately preceding M step from the estimation target time.
かかる手順によれば、クラスタリング計算方法において、EステップおよびMステップでは、当該推定対象の時刻から事前に定められた過去の一時点まで遡った観測量の集合データと、その演算に必要な推定値とを読みこむ。したがって、事前に過去の一時点を定めることなく、時間ステップの進展とともに推定すべき変数の個数が増加していくだけである場合と比べて、処理負荷の低減や処理の高速化を実現できる。 According to such a procedure, in the clustering calculation method, in the E step and the M step, the collective data of the observation amount traced back to a predetermined point in time from the time of the estimation target, and the estimated value necessary for the calculation And read. Therefore, the processing load can be reduced and the processing speed can be increased as compared to the case where the number of variables to be estimated is only increased with the progress of the time step without determining one point in the past in advance.
また、本発明に係るクラスタリング計算方法は、前記事後分布推論手段が、前記Eステップにおいて、推定対象の時刻から事前に設定された設定値分だけ遡及した過去の時刻までを演算対象時刻として、前記クラスタと、前記混合比と、前記重みとに関するパラメータの事後分布の値を演算し、前記Mステップにおいて、推定対象の時刻から事前に設定された設定値分まで遡及した過去の時刻までを演算対象時刻として、前記第1隠れ変数および第2隠れ変数の事後分布の値を演算することを特徴とする。 Further, in the clustering calculation method according to the present invention, the posterior distribution inference means uses, as the calculation target time, a past time that is retroactive by a set value set in advance from the estimation target time in the E step. Calculates the posterior distribution values of the parameters related to the cluster, the mixture ratio, and the weight, and in the M step, calculates from the estimation target time to a past set time retroactive to a preset value. As the target time, the value of the posterior distribution of the first hidden variable and the second hidden variable is calculated.
かかる手順によれば、クラスタリング計算方法において、EステップおよびMステップでは、当該推定対象の時刻から事前に定められた設定値分だけ過去に遡った過去の時刻までを演算対象時刻として、推定値を求める演算を行う。したがって、事前に設定値を定めることなく、時間ステップの進展とともに推定すべき変数の個数が増加していくだけである場合と比べて、処理負荷の低減や処理の高速化を実現できる。 According to such a procedure, in the clustering calculation method, in the E step and the M step, the estimated value is calculated using the estimation target time from the estimation target time to a past time traced back in the past by a predetermined set value. Perform the desired calculation. Therefore, the processing load can be reduced and the processing speed can be increased as compared with the case where the number of variables to be estimated is increased with the progress of the time step without setting the set value in advance.
また、本発明に係るクラスタリング計算方法は、前記事後分布推論手段が、前記Eステップにおいて、クラスタごとの演算のためにクラスタを更新する処理を実行するたびに、事前に設定された再推定すべきクラスタの判断基準に基づいて、推定処理対象のクラスタを再推定すべきか否か判別し、再推定すべきクラスタである場合にだけ、前記混合比に関するパラメータの事後分布の値を演算し、前記Mステップにおいて、クラスタごとの演算のためにクラスタを更新する処理を実行するたびに、前記判断基準に基づいて、推定処理対象のクラスタを再推定すべきか否か判別し、再推定すべきクラスタである場合にだけ、前記第1隠れ変数の事後分布の値を演算することを特徴とする。 In addition, the clustering calculation method according to the present invention performs a re-estimation that is set in advance every time the posterior distribution inference means executes a process of updating a cluster for calculation for each cluster in the E step. Based on the judgment criterion of the power cluster, it is determined whether or not the cluster to be estimated is to be re-estimated, and only when the cluster is to be re-estimated, the value of the posterior distribution of the parameter relating to the mixture ratio is calculated, In step M, each time a process for updating a cluster is performed for each cluster operation, it is determined whether or not the estimation target cluster should be re-estimated based on the determination criterion. Only in some cases, the value of the posterior distribution of the first hidden variable is calculated.
かかる手順によれば、クラスタリング計算方法において、EステップおよびMステップでは、クラスタごとの演算のためにクラスタを更新したときに、必要な場合にだけそのクラスタにおける推定値の再推定処理を行う。したがって、dHDPモデルにおいて予め設定される最大クラスタ数の個数のクラスタに関して、推定値の再推定処理を毎回実行する場合に比べて、処理負荷の低減や処理の高速化を実現できる。 According to such a procedure, in the clustering calculation method, in the E step and the M step, when the cluster is updated for the calculation for each cluster, the estimation value in the cluster is re-estimated only when necessary. Therefore, the processing load can be reduced and the processing speed can be increased as compared with the case where the estimation value re-estimation process is executed every time for the maximum number of clusters set in advance in the dHDP model.
また、本発明に係るクラスタリング計算プログラムは、前記いずれかのクラスタリング計算装置を構成する各手段としてコンピュータを機能させるためのプログラムである。このように構成されることにより、このプログラムをインストールされたコンピュータは、このプログラムに基づいた各機能を実現することができる。 A clustering calculation program according to the present invention is a program for causing a computer to function as each means constituting one of the clustering calculation apparatuses. By being configured in this way, a computer in which this program is installed can realize each function based on this program.
また、本発明に係るコンピュータ読み取り可能な記録媒体は、前記クラスタリング計算プログラムが記録されたことを特徴とする。このように構成されることにより、この記録媒体を装着されたコンピュータは、この記録媒体に記録されたプログラムに基づいた各機能を実現することができる。 The computer-readable recording medium according to the present invention is characterized in that the clustering calculation program is recorded. By being configured in this way, a computer equipped with this recording medium can realize each function based on a program recorded on this recording medium.
本発明によれば、ダイアライゼーションにおける話者クラスタリングの問題に対して、ノンパラメトリックベイズモデルを採用して、確率的なクラスタリングを用いることで、従来のようなパラメータの設定や探索によらずに容易に話者数を推定できる。また、本発明によれば、ノンパラメトリックベイズモデルを採用したので、クラスタ数やデータの分割、そしてパラメータを事後確率最大化の意味で同時に最適化できる。その結果、ダイアライゼーションにおいて、話者数と各話者を特徴づけるパラメータを正確に推定できる。 According to the present invention, the non-parametric Bayes model is used for the problem of speaker clustering in dialization, and probabilistic clustering is used, so that it is easy regardless of conventional parameter setting and search. The number of speakers can be estimated. Further, according to the present invention, since the non-parametric Bayes model is adopted, the number of clusters, data division, and parameters can be simultaneously optimized in the sense of maximizing the posterior probability. As a result, the number of speakers and parameters characterizing each speaker can be accurately estimated in dialization.
図面を参照して本発明のクラスタリング計算装置およびクラスタリング計算方法を実施するための形態(以下「実施形態」という)について詳細に説明する。以下では、推論原理の概略、ダイアライゼーションシステムの概略、クラスタリング計算方法の概要、計算アルゴリズム、クラスタリング計算装置について順次説明する。 An embodiment (hereinafter referred to as “embodiment”) for carrying out the clustering calculation apparatus and clustering calculation method of the present invention will be described in detail with reference to the drawings. Below, an outline of the inference principle, an outline of the dialization system, an outline of the clustering calculation method, a calculation algorithm, and a clustering calculation apparatus will be sequentially described.
[推論原理の概略]
本実施形態では、ノンパラメトリックベイズモデルの一種として、例えば、dHDPを用いることとする。ここでは、dHDPを簡単に説明する。dHDPの数学的なモデルを式(1)〜式(6)に示す。なお、DPM等の他のノンパラメトリックベイズモデルを用いてもよいことはもちろんである。DPMの詳細は、例えば、「上田修功、山田武士、“ノンパラメトリックベイズモデル”,応用数理,Vol. 17, No. 3, pp. 196-214, 2007.」に記載されている。
[Outline of inference principle]
In the present embodiment, for example, dHDP is used as a kind of nonparametric Bayes model. Here, dHDP will be briefly described. Equations (1) to (6) show mathematical models of dHDP. Of course, other non-parametric Bayes models such as DPM may be used. Details of DPM are described in, for example, “Osamu Ueda, Takeshi Yamada,“ Non-parametric Bayes Model ”, Applied Mathematics, Vol. 17, No. 3, pp. 196-214, 2007.”
ここで、〜は確率分布からのサンプリングを表す。また、DP(・)はDirichlet Process(無限次元分布)を表し、γ,α0,a0,b0は事前に設定するハイパーパラメータである。 Here, ~ represents sampling from the probability distribution. DP (·) represents a Dirichlet Process (infinite dimensional distribution), and γ, α 0 , a 0 , and b 0 are hyperparameters set in advance.
dHDPでは、まず、式(1)で離散無限個のパラメータ分布(クラスタ)G0を生成する。ダイアライゼーションにおいて、この分布G0は、データ全体を見たときの各発話者の発話割合と構成に相当する。DPMに代表されるノンパラメトリックベイズモデルでは、推定された解が自動的に少数のパラメータ(話者)からなる分布に集約される。 In dHDP, first, an infinite number of discrete parameter distributions (clusters) G 0 are generated using equation (1). In dialization, this distribution G 0 corresponds to the utterance ratio and composition of each utterer when viewing the entire data. In a non-parametric Bayes model typified by DPM, estimated solutions are automatically aggregated into a distribution consisting of a small number of parameters (speakers).
式(2)のHtは、時刻tでの話者分布の時間変化(分布変化)を表す。
式(3)のwtは、時刻tでの話者分布の時間変化の割合(程度)を表す。
式(5)のθt iは、時刻tでのクラスタのパラメータを表し、式(6)のxt iは、時刻tでのサンプル分布を表す。なお、iは、時刻tでのi番目のデータを示す。
H t in equation (2) represents the temporal change (distribution change) of the speaker distribution at time t.
W t in equation (3) represents the rate (degree) of temporal change in speaker distribution at time t.
Θ ti in equation (5) represents the parameter of the cluster at time t, and x ti in equation (6) represents the sample distribution at time t. Note that i indicates i-th data at time t.
式(4)におけるGtは、時刻tにおけるパラメータ分布である。ダイアライゼーションにおいて、分布Gtは、時刻tに実際に発話した発話者の構成を表現している。式(4)は、このGtを、時刻t−1での分布Gt-1と、時刻tでの分布変化を表すHtとをwtで重ね合わせた分布として表現したものである。よって、dHDPでは、各時刻でのサンプル分布(xt iの分布)に変動が許される。一方で、時刻に不変な分布であるG0も推定するため、全体を通した話者クラスタも学習されている。 G t in equation (4) is a parameter distribution at time t. In dialization, the distribution G t represents the configuration of the speaker who actually spoke at time t. Expression (4) expresses this G t as a distribution obtained by superimposing the distribution G t-1 at time t -1 and H t representing the distribution change at time t on w t . Therefore, the DHDP, variations in the sample distribution at each time (distribution of x ti) is allowed. On the other hand, since the G 0 is the time to invariant distribution also to estimate, it has also been learning speaker cluster through the whole.
さらに、dHDPでは、変化の割合であるwtも動的に学習されるので、話者が交代するときには、劇的に分布が代わり、そうでないときには、ほとんど分布が変化しないというように、変化の割合が一定でないデータのモデル化にも対応できる。このように、dHDPでは、時刻に依存して分布が少しずつ変化するというモデルとなっているため、話者の入れ替わり(turn-taking)によって観測量(サンプル)の分布が時間変化するダイアライゼーションのタスクにとって恰好の確率モデルとなっている。 In addition, in dHDP, w t, which is the rate of change, is also learned dynamically, so that the distribution changes dramatically when the speaker changes, and otherwise the distribution changes little. It can also support modeling of data whose ratio is not constant. In this way, dHDP is a model in which the distribution changes little by little depending on the time. Therefore, the distribution of observation (sample) changes with time due to the turn-taking of speakers. It is a good probability model for tasks.
[ダイアライゼーションシステムの概略]
図1は、本発明の実施形態に係るクラスタリング計算装置を含むダイアライゼーションシステムの概要を示す構成図である。本実施形態のダイアライゼーションは、前記した第2の方法(話者位置に関する情報を利用する方法)によるものとして説明する。予め、未知数話者による会話を録音し、ダイアライゼーションシステム1への入力とする。ここでは、室内101に3人の話者HA、HB、HCが図1のような定位置で会話したものとする。音声データ(会話の録音データ)102は時系列データとなる。
[Outline of Dialization System]
FIG. 1 is a configuration diagram showing an outline of a dialization system including a clustering calculation apparatus according to an embodiment of the present invention. The dialization of this embodiment will be described as being based on the second method described above (a method using information related to the speaker position). A conversation by an unknown number of speakers is recorded in advance and used as an input to the
ダイアライゼーションシステム1は、1つの大型コンピュータ、または、複数のコンピュータからなる。ここでは、ダイアライゼーションシステム1は、3つのコンピュータ、すなわち、特徴量抽出部2と、クラスタリング計算装置3と、識別部4とを備える。
The
特徴量抽出部2は、ノイズ除去のような前処理を行うと共に、ダイアライゼーションに適した各種特徴量を抽出するものである。特徴量抽出部2は、例えば、マイクロホンアレーから取得した録音データから、DOA(direction of arrival:音声到来方向)情報を抽出し、クラスタリング計算装置3に出力する。DOA情報(音声の到達角度)は、マイクに対してどの方向からどの程度の強さの音声信号が観測されたかを推定した量になっている。
The feature
クラスタリング計算装置3は、DOA情報に基づいてクラスタリング処理によって話者数と各話者を特徴づけるパラメータとを推定する。すなわち、クラスタリング計算装置3は、抽出した音声特徴量をクラスタリングし、クラスタ数と各クラスタのパラメータを推定する。クラスタリング計算装置3は、確率的なクラスタリングモデルを適用することで、クラスタ数やデータの分割、そしてパラメータを事後確率最大化の意味で同時に最適化する。
The
識別部4は、クラスタリング計算装置3で得られたクラスタリング結果(クラスタリング推定値)により、各時刻における話者の発話状態を識別する。この識別部4は、クラスタリング推定値を解析して、クラスタ数と、その位置とを、ユーザが識別できるような画面表示で提示する。
The
図1に例示したダイアライゼーション結果表示103のグラフでは、横軸が時刻(秒)、縦軸が方向(話者の位置)をそれぞれ示している。この例では、3人の話者HA、HB、HCに対応して、3つの方向に対して矩形波形が表示されている。各矩形波形の山となっている部分が各話者の発話(発言)を表している。まず話者HCが発言を終えると、次に話者HAが発言し、その発言途中に話者HCが再び発言し始めると、話者HAが黙り、話者HBが発言を開始する、というように、話者の入れ替わり(turn-taking)が生じていることがわかる。なお、2人の話者が同時に発話するタイミングも生じていることがわかる。
In the graph of the
[クラスタリング計算方法の概要]
ここでは、推論原理のダイアライゼーションへの導入と、クラスタリングモデルとについて説明する。
<推論原理のダイアライゼーションへの導入>
ここでは、クラスタリング計算装置3において、ノンパラメトリックベイズモデル(dHDP)を用いるため、その前段の特徴量抽出部2で抽出する特徴量を定式化する。時刻tにおいて、角度d(例えば、d=−180,−179,…,0,…,180)方向から聞こえてきた音声パワー(DOA情報)をft dとする。すなわち、各時刻tにおける音声パワーベクトルは
である。なお、d=−180の方向と、d=180の方向とは同じものである。
[Outline of clustering calculation method]
Here, the introduction of the inference principle to the dialization and the clustering model will be described.
<Introduction of inference principle into dialization>
Here, since the non-parametric Bayes model (dHDP) is used in the
It is. The direction of d = −180 and the direction of d = 180 are the same.
このパワーベクトルを、本実施形態で用いるクラスタリングモデルに適合するように、1次元ベクトルxt iの集合へと変換する。ここでは、各ft dについて、閾値定数τとパラメータμとを用いて、値g(d)をもつnt d個のサンプル集合を生成することとした。ここで、関数g(・)は、実装の都合に合わせて選択された適切なスケール関数を示す。例えば、関数g(・)は、[−180:180]→[−0.5:0.5]に変換する関数を用いることができる。また、nt dは、式(7)で定義する。なお、1次元に限らず、例えば、3次元ベクトルxt iの集合へ変換するように構成してもよい。 This power vector is converted into a set of one-dimensional vectors xti so as to conform to the clustering model used in this embodiment. Here, for each f td , n td sample sets having a value g (d) are generated using the threshold constant τ and the parameter μ. Here, the function g (•) indicates an appropriate scale function selected according to the convenience of implementation. For example, as the function g (•), a function that converts [−180: 180] → [−0.5: 0.5] can be used. N td is defined by equation (7). Note that the present invention is not limited to one dimension, and may be configured to convert into a set of three-dimensional vectors xti , for example.
式(7)の関数h(・)は、パワーの値に応じて何らかの正整数を返す関数であり、定数でもよい。本実施形態では、例えば、h=1を用いる。以上の量子化変換を全ての角度dに関して行い、時刻tの観測量をサンプル集合に集約する。 The function h (·) in Expression (7) is a function that returns some positive integer according to the power value, and may be a constant. In this embodiment, for example, h = 1 is used. The above quantization transformation is performed for all angles d, and the observation amount at time t is aggregated into a sample set.
本実施形態で扱うクラスタリング問題は、サンプル集合Xt={x1,…,xt}のクラスタリングと捉えることができる。人間の発話音声パワーは背景ノイズよりもはるかに大きいものとすれば、話者の位置を反映した値のサンプルが大量に観測されるため、主要なクラスタとして話者の位置が推定できるはずである。そこで、本実施形態のクラスタリング計算方法では、クラスタ数Kを推定しながら、同時に各サンプルxt iに対してどのクラスタに属するかを表す変数zt iの確率分布を求めること、さらにK個のクラスタに対応するパラメータΘ={θk}を求めることをそれぞれ行う。 The clustering problem handled in the present embodiment can be regarded as clustering of the sample set X t = {x 1 ,..., X t }. If the human speech power is much larger than the background noise, a large number of sample values reflecting the speaker's position will be observed, so the speaker's position should be able to be estimated as the main cluster. . Therefore, in the clustering calculation method of the present embodiment, while estimating the number of clusters K, the probability distribution of the variable z ti indicating which cluster belongs to each sample x ti is obtained at the same time, and further, K clusters are obtained. The corresponding parameters Θ = {θ k } are respectively obtained.
<クラスタリングモデル>
本実施形態では、計算量とアルゴリズムの簡易さとを考慮して、dHDP近似モデルを用いる。dHDP近似モデルの生成モデルは、以下の式(9)〜式(15)のようになる。なお、dHDP近似モデルについては、「I. Pruteanu-Malinici, L. Ren, J. Paisley, E. Wang and L. Carin, “Dynamic Hierarchical Dirichlet Process for Modeling Topics in Time-Stamped Documents”, IEEE Transactions on Pattern Analysis and Machine Intelligence, submitted, 2008.」に記載されている。
<Clustering model>
In this embodiment, the dHDP approximate model is used in consideration of the calculation amount and the simplicity of the algorithm. The generation model of the dHDP approximate model is expressed by the following formulas (9) to (15). For the dHDP approximation model, see “I. Pruteanu-Malinici, L. Ren, J. Paisley, E. Wang and L. Carin,“ Dynamic Hierarchical Dirichlet Process for Modeling Topics in Time-Stamped Documents ”, IEEE Transactions on Pattern. Analysis and Machine Intelligence, submitted, 2008. "
dHDP近似モデルでは、まず、最大クラスタ数Kを固定しておく。最大クラスタ数Kは、推定しようとしている話者数よりも充分大きい値(例えば、数十〜100)であればよい。実際には、「有効な」クラスタ数Keff(<K)なる個数のクラスタが、推定しようとしている話者に対応することとなる。「有効な」クラスタ数Keffについては、学習の結果、話者に対応しないそれ以外のクラスタの重み(混合比)が自動的にほぼ0になることを利用して判断することができる。すなわち「有効な」クラスタ数Keffは、推定の過程で自動的に決定される。 In the dHDP approximate model, first, the maximum number of clusters K is fixed. The maximum cluster number K may be a value sufficiently larger than the number of speakers to be estimated (for example, several tens to 100). In practice, the number of “effective” clusters K eff (<K) corresponds to the speaker to be estimated. The “effective” number of clusters K eff can be determined by utilizing the fact that the weight (mixing ratio) of other clusters that do not correspond to the speaker automatically becomes almost zero as a result of learning. That is, the “effective” number of clusters K eff is automatically determined in the estimation process.
≪式(9)、式(10)≫
dHDP近似モデルでは、式(9)で、K個のクラスタに対応するパラメータをサンプリングする。式(10)では、有限次元のDirichlet分布よりinnovation measure Ht(後記する式(16c)参照)のサンプリングを行う。より具体的には混合比πtをサンプリングする。これは、前記した式(4)より、式(16a)およびその変形式である式(16b)が導かれるため、時刻tにおける話者分布Gtは、時刻tまでに生成したH1:lの重ね合わせだけで表現できるからである。ここで、「H1:l」は、H1〜Hlを表す。
<< Formula (9), Formula (10) >>
In the dHDP approximate model, parameters corresponding to K clusters are sampled by Equation (9). In Expression (10), sampling of an innovation measure H t (see Expression (16c) described later) is performed from a finite-dimensional Dirichlet distribution. More specifically, the mixing ratio π t is sampled. This is because the equation (16a) and its modified equation (16b) are derived from the above equation (4), so that the speaker distribution G t at time t is H 1: l generated up to time t. This is because it can be expressed only by superimposing. Here, “H 1: l ” represents H 1 to H l .
≪式(11)、式(12)≫
dHDP近似モデルでは、続いて、式(11)により、話者分布Gtの時間変化の程度を表すwtをサンプリングして、このwtを用いて、式(12)で定義されるvtl(l=1,…,t)を計算する。ここで、時刻lは、時刻tとそれよりも過去の時刻とを表す。
<< Formula (11), Formula (12) >>
In dHDP approximate model, followed by the equation (11), by sampling the w t representing the degree of time change of the speaker distribution G t, using the w t, v tl defined by formula (12) (L = 1,..., T) is calculated. Here, time l represents time t and a past time.
≪式(13)≫
式(13)に示す隠れ変数dt iは、t次元の{0,1}ベクトルである(tは時刻、要素の値は0か1のみ)。隠れ変数dt iは、時刻tのときのt次元の要素のうち、l次元目の要素dt i lが1の値をもつものである(l≦t)。隠れ変数dt iのl次元目の要素dt i lは、時刻lでの分布変化Hlに対応する要素である。時刻lでの分布変化Hlは、時刻tのi番目のサンプルxt iをサンプルするための分布変化である。
<< Formula (13) >>
The hidden variable d ti shown in Expression (13) is a t-dimensional {0, 1} vector (t is time, element value is 0 or 1 only). The hidden variable d ti has a value of 1 in the l-dimensional element d til among the t-dimensional elements at time t (l ≦ t). The l-dimensional element d til of the hidden variable d ti is an element corresponding to the distribution change H l at time l. Distribution changing H l at time l is the distribution change for sample i th sample x ti of the time t.
≪式(14)≫
式(14)に示す隠れ変数zt iは、同様に、K次元の{0,1}ベクトルである。
隠れ変数zt iは、実際にサンプルxt iをサンプリングするクラスタ(パラメータ)kに対応するk次元目の要素zt i kにのみ1の値を持つ。
≪Formula (14) ≫
Similarly, the hidden variable z ti shown in Equation (14) is a K-dimensional {0, 1} vector.
The hidden variable z ti has a value of 1 only in the k-th element z tik corresponding to the cluster (parameter) k that actually samples the sample x ti .
≪式(15)≫
式(15)に示す観測量xt iは、与えられたクラスタ番号(k)に対応するパラメータθから生成される。式(15)は、前記した式(6)、式(8)と同様であって、別の表式である。
≪Formula (15) ≫
The observation amount x ti shown in the equation (15) is generated from the parameter θ corresponding to the given cluster number (k). Expression (15) is the same as Expression (6) and Expression (8) described above, and is another table expression.
≪観測分布と事前分布≫
dHDP近似モデルでは、式(15)に示す観測分布Fと、パラメータの事前分布H(式(9)参照)とを事前に定めておく必要がある。本実施形態では、一例として、観測分布Fが正規分布であり、かつ、パラメータの事前分布Hが共役事前分布であるようなNormal−Gamma分布を用いることにした。なお、Normal−Gamma分布については、参考文献1「C. M. ビショップ、“パターン認識と機械学習”、シュプリンガー・ジャパン、2007.」に記載されている。
≪Observation distribution and prior distribution≫
In the dHDP approximation model, the observation distribution F shown in Expression (15) and the parameter prior distribution H (see Expression (9)) must be determined in advance. In the present embodiment, as an example, a Normal-Gamma distribution in which the observation distribution F is a normal distribution and the parameter prior distribution H is a conjugate prior distribution is used. The Normal-Gamma distribution is described in
本実施形態でNormal−Gamma分布を採用した理由は、これらの分布を利用したdHDPの近似モデル解法は、従来発表されていない上、多くの分野に応用可能なモデルであり、最も実用性が高いと考えたからである。ただし、目的や実際のデータに則して、これらを別の分布にすることも可能である。 The reason why the Normal-Gamma distribution is adopted in the present embodiment is that the approximate model solution method of dHDP using these distributions has not been published so far, and is a model that can be applied to many fields, and has the highest practicality. Because I thought. However, it is possible to make these different distributions according to the purpose and actual data.
≪dHDP近似モデルのダイアライゼーションシステムへの適用≫
図1のダイアライゼーションシステム1では、式(9)〜式(15)に示すdHDP近似モデルにおいて、ダイアライゼーションの話者数(=クラスタ数)と各サンプルのクラスタリングを行い、各クラスタのパラメータ(=話者の位置)を推定することとした。
≪Application of dHDP approximation model to dialization system≫
In the
このうち、各サンプルのクラスタリングは、式(14)に示す隠れ変数zt iの分布p(zt i)を求めることに等しい。隠れ変数zt iは、各サンプルxt iに対してどのクラスタに属するかを表す変数なので、このクラスタリング結果が得られれば、各クラスタへ帰属するサンプル数(あるいはその期待値)が計算できる。また、この各クラスタへ帰属するサンプル数(あるいはその期待値)を用いて各クラスタkの混合比(後記するβk^)を計算可能である。さらに、この混合比(後記するβk^)により、「有効な」クラスタ数Keff(=話者数Keff)を決定することができる。また、クラスタリング結果が求まれば、各クラスタのパラメータ{θk}も容易に求めることができる。なお、本実施形態では、クラスタリング計算装置3によって、「有効な」クラスタ数Keff(=話者数Keff)の決定まで行うこととするが、識別部4がこの処理を行ってもよい。つまり、クラスタリング計算装置3によって、クラスタリング結果を得て、各クラスタのパラメータ{θk}を得て、識別部4によって、混合比(後記するβk^)を求め、「有効な」クラスタ数Keff(=話者数Keff)を決定するようにしてもよい。
Among these, clustering of each sample is equivalent to obtaining the distribution p (z ti ) of the hidden variable z ti shown in Expression (14). Since the hidden variable z ti is a variable that indicates which cluster belongs to each sample x ti , if this clustering result is obtained, the number of samples belonging to each cluster (or its expected value) can be calculated. Further, the mixing ratio (β k ^ described later) of each cluster k can be calculated using the number of samples belonging to each cluster (or its expected value). Further, the number of “effective” clusters K eff (= the number of speakers K eff ) can be determined based on the mixing ratio (β k ^ described later). If the clustering result is obtained, the parameter {θ k } of each cluster can be easily obtained. In this embodiment, the
[計算アルゴリズム]
計算アルゴリズムについては、以下、1)dHDPモデルのオンライン推定法、2)変分事後分布推論プロセス、3)観測モデルおよび事前分布の特定、4)推定結果とクラスタ数の決定方法、5)dHDPの高速化方法に分けて詳細に説明する。
[Calculation algorithm]
The calculation algorithms are as follows: 1) Online estimation method of dHDP model, 2) Variational posterior distribution inference process, 3) Identification of observation model and prior distribution, 4) Determination method of estimation result and number of clusters, 5) dHDP The details will be described separately for each speed-up method.
<1)dHDPモデルのオンライン推定法>
ここでは、具体的な推論アルゴリズムを示す。図2は、本発明の実施形態に係るクラスタリング計算方法の全体処理の流れを示すフローチャートである。図2は、クラスタリングの全体の推論プロセスを示したものである。ダイアライゼーションは、一般的にオンライン計算のプロセスである。しかしながら、dHDPモデルのオンライン推定方法は、従来研究されていない。本実施形態では、dHDPモデルのオンライン推定法を開発した。図2の符号201で示す推論プロセスは、そのオンライン推定法を示したものである。
<1) Online estimation method of dHDP model>
Here, a specific inference algorithm is shown. FIG. 2 is a flowchart showing the overall processing flow of the clustering calculation method according to the embodiment of the present invention. FIG. 2 shows the entire inference process of clustering. Dialization is generally an online calculation process. However, the online estimation method of the dHDP model has not been studied so far. In the present embodiment, an online estimation method for the dHDP model has been developed. The inference process denoted by reference numeral 201 in FIG. 2 shows the online estimation method.
オンライン推定法は、時刻T(1≦T≦Ttotal)ごとに行うものである。ここで、刻々と進展する推定対象のある時点の時刻をT、それらのうち最終時刻をTtotalとした。なお、以下では、過去を含めた演算対象時刻をtとする。過去にどこまで遡及するかについては予め定めておく。例えば、推定対象時刻T=5のとき、演算対象時刻t=1,2,3,4,5としたり、t=3,4,5としたりすることができる。この例では、t=1まで考慮することとする。 The online estimation method is performed every time T (1 ≦ T ≦ T total ). Here, the time at a certain point of the estimation target that progresses momentarily is T, and the final time is T total . In the following, it is assumed that the calculation target time including the past is t. It is determined in advance how far back in the past. For example, when the estimation target time T = 5, the calculation target time t = 1, 2, 3, 4, 5 or t = 3,4, 5 can be set. In this example, t = 1 is considered.
この推論プロセスでは、処理を開始すると、まず、Tを初期化する。すなわち、T=1とする(ステップS1)。そして、時刻1からTまでの隠れ変数およびパラメータ(隠れ変数・パラメータ)の推定値およびハイパーパラメータを入力する(ステップS2)。また、時刻1からT−1までの観測量(サンプル)を入力する(ステップS3)。また、時刻Tの音声パワーfTを入力する(ステップS4)。この時刻Tの音声パワーfTから、時刻Tの観測量{xT i}を生成して入力する(ステップS5)。また、時刻Tに対応する未知数(未知の隠れ変数・パラメータ)を初期化する(ステップS6)。
In this inference process, when processing is started, T is first initialized. That is, T = 1 is set (step S1). Then, the estimated values and hyperparameters of hidden variables and parameters (hidden variables / parameters) from
そして、隠れ変数・パラメータの変分事後分布を推定する(ステップS7)。推定後、Tをインクリメントする。すなわち、T←T+1とする(ステップS8)。そして、入力が終了したか否かを判別する(ステップS9)。入力が終了していない場合(ステップS9:No)、ステップS2に戻る。一方、例えば、最終時刻Ttotalを超えたときに、入力が終了したと判定し(ステップS9:Yes)、推定結果を出力する(ステップS10)。なお、ステップS2〜ステップS4の処理順序は、任意であり、並列処理してもよい。
また、ステップS6の処理は、ステップS7の前に行うのであれば処理順序は問わない。
Then, the variational posterior distribution of hidden variables / parameters is estimated (step S7). After estimation, T is incremented. That is, T ← T + 1 is set (step S8). And it is discriminate | determined whether the input was complete | finished (step S9). If the input has not ended (step S9: No), the process returns to step S2. On the other hand, for example, when the final time T total is exceeded, it is determined that the input is completed (step S9: Yes), and the estimation result is output (step S10). Note that the processing order of step S2 to step S4 is arbitrary, and may be processed in parallel.
Further, the processing order of step S6 is not limited as long as it is performed before step S7.
オンライン推定法を繰り返すことで、時刻ステップの進展と共に観測サンプル{xt i}が蓄積され、その都度変数を再推定する。時刻T−1の時点での推定結果は、次の時刻Tでの推定の初期値として利用される。 By repeating the online estimation method, observation samples {x ti } are accumulated as the time step progresses, and the variables are re-estimated each time. The estimation result at the time T-1 is used as an initial value for estimation at the next time T.
推論の目的は、全観測データが与えられた時に全未知変数({zt i},{dt i},w,{πt},{θk})の推定値を求めることである。これは、確率モデルの観点からは、全変数の事後分布を求めることに相当する。本実施形態では、dHDP近似モデルに対して変分ベイズ法による事後分布推定法(変分事後分布推定法)を示す。実際に求めたい事後分布は、式(17)であるが、変分法では、式(18)のように全変数が独立であると仮定した分布(変分事後分布)を推定する。 The purpose of inference is to obtain estimates of all unknown variables ({z ti }, {d ti }, w, {π t }, {θ k }) when all observation data are given. This is equivalent to obtaining the posterior distribution of all variables from the viewpoint of the probability model. In the present embodiment, a posterior distribution estimation method (variation posterior distribution estimation method) by the variational Bayes method is shown for the dHDP approximation model. The posterior distribution to be actually obtained is Equation (17), but the variation method estimates a distribution (variation posterior distribution) that assumes that all variables are independent as in Equation (18).
式(18)に示すq(・)は変分事後分布を表す。ここで、時刻Tまでの観測量が得られたとする。このとき、現在の時刻Tからの過去を含む時刻t(≦T)に関する変数の変分事後分布推定値q*は、式(19)〜式(23)のように表される。これら各変数の分布は、元の分布(式(9),式(10),式(11),式(13),式(14))からデータの情報が加わった分修正された形になる。ただし、式(19)は、観測モデルFやパラメータの事前分布Hに依存する。したがって、本実施形態では、式(19)に基づいて後記する式(36)を用いる。 Q (·) shown in Equation (18) represents a variational posterior distribution. Here, it is assumed that the observation amount up to time T is obtained. At this time, the variation posterior distribution estimated value q * of the variable relating to the time t (≦ T) including the past from the current time T is expressed as in Expression (19) to Expression (23). The distribution of each of these variables is corrected by adding data information from the original distribution (formula (9), formula (10), formula (11), formula (13), formula (14)). . However, Expression (19) depends on the observation model F and the parameter prior distribution H. Therefore, in the present embodiment, the following formula (36) is used based on the formula (19).
ただし、式(19)〜式(23)を同時に最適化することは困難なので、変分法においてはEMアルゴリズム(Expectation−Maximization algorithm)という様式に従った繰り返し計算による推定で各変数を個別に最適化する。EMアルゴリズムとは、複数の変数を同時最大化する計算手法であり、Eステップ(Expectation step)とMステップ(Maximization step)からなる計算ステップを相互に繰り返し計算することで全体最適化を行うものである。なお、EMアルゴリズムについては、前記した参考文献1に記載されている。
However, since it is difficult to optimize the equations (19) to (23) at the same time, in the variational method, each variable is optimized individually by estimation by iterative calculation according to the EM algorithm (Expectation-Maximization algorithm) format. Turn into. The EM algorithm is a calculation method that simultaneously maximizes a plurality of variables, and performs overall optimization by repeatedly calculating calculation steps including an E step (Expectation step) and an M step (Maximization step). is there. The EM algorithm is described in
<2)変分事後分布推論プロセス>
図3は、図2に示す変分事後分布推論手順を示すフローチャートであって、EMアルゴリズムを含んだ推論プロセスを示す。図3に示す推論プロセスでは、まず、時刻1からTまでのサンプル{x1:T}を入力する(ステップS21)。また、時刻1からTまでの隠れ変数・パラメータの推定値およびハイパーパラメータを入力する(ステップS22)。なお、ステップS21,S22の処理順序は任意である。
<2) Variational posterior distribution inference process>
FIG. 3 is a flowchart showing the variational post-distribution inference procedure shown in FIG. 2 and shows an inference process including the EM algorithm. In the inference process shown in FIG. 3, first, samples {x 1: T } from
そして、EMステップの繰り返し回数を表す識別子jを初期化する。すなわち、j=1とする(ステップS23)。そして、Eステップを計算する(ステップS24)。Eステップでは、時刻1からTまでのパラメータの推定値を更新する。続いて、Mステップを計算する(ステップS25)Mステップでは、時刻1からTまでの隠れ変数の推定値を更新する。
Then, an identifier j representing the number of repetitions of the EM step is initialized. That is, j = 1 is set (step S23). Then, the E step is calculated (step S24). In step E, the estimated parameter values from
そして、EMステップの繰り返し回数jをインクリメントする。すなわち、j←j+1とする(ステップS26)。そして、現在の繰り返し回数jが事前に設定されたしきい値(jmax)を超えたか否かを判別する。すなわち、j>jmaxとなったか否かを判別する(ステップS27)。j≦jmaxである場合(ステップS27:No)、ステップS24に戻る。一方、j>jmaxとなった場合(ステップS27:Yes)、時刻Tが事前に設定された設定値(適切な正整数tupdateの倍数)を超えたか否かを判別する。すなわち、Tが「tupdateの倍数」となったか否かを判別する(ステップS28)。 Then, the number of repetitions j of the EM step is incremented. That is, j ← j + 1 is set (step S26). Then, it is determined whether or not the current number of repetitions j has exceeded a preset threshold value (j max ). That is, it is determined whether j> j max is satisfied (step S27). If j ≦ j max (step S27: No), the process returns to step S24. On the other hand, if j> j max is satisfied (step S27: Yes), it is determined whether or not the time T has exceeded a preset setting value (a multiple of an appropriate positive integer t update ). That is, it is determined whether or not T is “a multiple of t update ” (step S28).
Tが「tupdateの倍数」となった場合(ステップS28:Yes)、ハイパーパラメータを更新し(ステップS29)、推定結果を保存する(ステップS30)。Tが「tupdateの倍数」ではない場合(ステップS28:No)、ステップS29をスキップして、推定結果を保存する(ステップS30)。 When T becomes “a multiple of t update ” (step S28: Yes), the hyperparameter is updated (step S29), and the estimation result is stored (step S30). When T is not “a multiple of t update ” (step S28: No), step S29 is skipped and the estimation result is stored (step S30).
このようにEステップ、Mステップをjmax回に渡って相互に繰り返し計算することで変分事後分布の式(19)〜式(23)を得ることができる。なお、これらは、Mステップにおいて演算される。 In this way, the E step and the M step are repeatedly calculated over j max times to obtain the variational posterior distribution equations (19) to (23). These are calculated in M steps.
本実施形態では、図3に示すようにステップS28〜S30の処理を行うことで、時間ステップTを適切な正整数tupdate回インクリメントするごとにハイパーパラメータを推定することとした。通常、ハイパーパラメータは事前に与える定数であるが、ステップS28〜S30の処理を実行することで、ハイパーパラメータが固定値である場合よりも精度を上げることができる。ハイパーパラメータの更新方法については、事後分布からのサンプリング方法など、様々な公知の手法を用いることができる。また、ハイパーパラメータ自身もEMアルゴリズムで推定することも可能である。 In the present embodiment, as shown in FIG. 3, the hyper parameter is estimated every time the time step T is incremented by an appropriate positive integer t update times by performing the processing of steps S <b> 28 to S <b> 30. Usually, the hyper parameter is a constant given in advance, but by executing the processing of steps S28 to S30, the accuracy can be improved as compared with the case where the hyper parameter is a fixed value. As a hyper parameter update method, various known methods such as a sampling method from a posterior distribution can be used. The hyperparameter itself can also be estimated by the EM algorithm.
≪Eステップ≫
Eステップの具体的な計算式は、以下の式(24)〜式(28)で表される。ここで、ψ(・)はプサイ関数(あるいはディガンマ関数)である。また、式(27)は、観測モデルFに依存する。したがって、本実施形態では、式(27)に基づいて後記する式(37)を用いる。
≪E step≫
A specific calculation formula of the E step is expressed by the following formulas (24) to (28). Here, ψ (·) is a psi function (or digamma function). Expression (27) depends on the observation model F. Therefore, in the present embodiment, the following formula (37) is used based on the formula (27).
Eステップでは、未知パラメータ(θ、π、w)に関わる推定値を再計算する。ここでEx[f(x)]は、変分分布上の期待値を示す。式(28)にその定義を示す。 In step E, the estimated values related to the unknown parameters (θ, π, w) are recalculated. Here, E x [f (x)] indicates an expected value on the variation distribution. The definition is shown in Equation (28).
図4は、図3に示すEステップの計算手順の一例を示すフローチャートである。Eステップでは、時刻Tまでに関係する全変数について再計算を行う。具体的には、Eステップでは、まず、時刻1からTまでのサンプル{x1:T}を入力する(ステップS31)。また、時刻1からTまでの隠れ変数・パラメータの推定値とハイパーパラメータ、最新のMステップの演算結果を入力する(ステップS32)。なお、ステップS31,S32の処理順序は任意である。
FIG. 4 is a flowchart showing an example of a calculation procedure of the E step shown in FIG. In step E, recalculation is performed for all variables related to time T. Specifically, in step E, first, samples {x 1: T } from
そして、過去を含む演算対象の時刻tを初期化する。すなわち、t=1とする(ステップS33)。そして、この演算対象の時刻tに対して、式(24)、式(25)を計算する(ステップS34)。次いで、クラスタの識別子kを初期化する。すなわち、k=1とする(ステップS35)。そして、この演算対象の時刻tおよびクラスタkに対して、式(26)を計算する(ステップS36)。さらに、時刻tにおけるデータの識別子iを初期化する。すなわち、i=1とする(ステップS37)。そして、時刻t、クラスタkのi番目のデータに対して、式(27)を計算する(ステップS38)。 Then, the calculation target time t including the past is initialized. That is, t = 1 is set (step S33). Then, the equations (24) and (25) are calculated for the time t to be calculated (step S34). Next, the cluster identifier k is initialized. That is, k = 1 is set (step S35). Then, the equation (26) is calculated for the time t and cluster k to be calculated (step S36). Further, the data identifier i at time t is initialized. That is, i = 1 is set (step S37). Then, the equation (27) is calculated for the i-th data of the cluster k at time t (step S38).
そして、時刻tにおけるデータの識別子iをインクリメントする。すなわち、i←i+1とする(ステップS39)。続いて、i>ntとなったか否かを判別する(ステップS40)。なお、ntは、式(8)に示した個数である。i≦ntである場合(ステップS40:No)、ステップS38に戻る。一方、i>ntとなった場合(ステップS40:Yes)、次のクラスタに更新する。すなわち、k←k+1とする(ステップS41)。そして、すべてのクラスタについて演算したか否かを判別する。すなわち、k>Kとなったか否かを判別する(ステップS42)。k≦Kである場合(ステップS42:No)、ステップS36に戻る。一方、k>Kとなった場合(ステップS42:Yes)、演算対象の時刻tを更新する。すなわち、t←t+1とする(ステップS41)。そして、演算対象の時刻tが推定対象の時刻Tとなったか否かを判別する。すなわち、t>Tとなったか否かを判別する(ステップS44)。t≦Tである場合(ステップS44:No)、ステップS34に戻る。一方、t>Tとなった場合(ステップS44:Yes)、推定対象の時刻TにおけるEステップの推定結果を保存する(ステップS45)。 Then, the data identifier i at time t is incremented. That is, i ← i + 1 is set (step S39). Subsequently, it is determined whether or not a i> n t (step S40). Here, n t is the number shown in Expression (8). If a i ≦ n t (step S40: No), the flow returns to step S38. On the other hand, when it is i> n t (step S40: Yes), and updates the next cluster. That is, k ← k + 1 is set (step S41). And it is discriminate | determined whether it calculated about all the clusters. That is, it is determined whether or not k> K is satisfied (step S42). If k ≦ K (step S42: No), the process returns to step S36. On the other hand, when k> K is satisfied (step S42: Yes), the calculation target time t is updated. That is, t ← t + 1 is set (step S41). And it is discriminate | determined whether the time t of calculation object became the time T of estimation object. That is, it is determined whether or not t> T is satisfied (step S44). If t ≦ T (step S44: No), the process returns to step S34. On the other hand, when t> T is satisfied (step S44: Yes), the estimation result of the E step at the estimation target time T is stored (step S45).
≪Mステップ≫
Mテップの具体的な計算式は、以下の式(29)〜式(32)で表される。Mステップでは、隠れ変数(zt,dt)に関わる推定値を再計算する。
≪M step≫
The specific calculation formula of M tep is expressed by the following formulas (29) to (32). In the M step, the estimated values related to the hidden variables (z t , d t ) are recalculated.
図5は、図3に示すMステップの計算手順の一例を示すフローチャートである。Mステップでも、Eステップと同様に、時刻Tまでに関係する全変数について再計算を行う。具体的には、Mステップでは、まず、時刻1からTまでのサンプル{x1:T}を入力する(ステップS51)。また、時刻1からTまでの隠れ変数・パラメータの推定値とハイパーパラメータ、最新のEステップの演算結果を入力する(ステップS52)。なお、ステップS51,S52の処理順序は任意である。
FIG. 5 is a flowchart showing an example of the calculation procedure of the M step shown in FIG. In the M step, as in the E step, recalculation is performed for all variables related to the time T. Specifically, in the M step, first, samples {x 1: T } from
以下、Eステップと同様な処理については、説明を適宜省略する。Mステップでは、まず、t=1(ステップS53)、i=1(ステップS54)、k=1(ステップS55)とした上で、前記した式(29)、式(30)を計算する(ステップS56)。その後、k←k+1として(ステップS57)、k>KとなるまでステップS56に戻る処理を繰り返す。k>Kとなった場合(ステップS58:Yes)、時刻の識別子lを初期化する。すなわち、l=1とする(ステップS59)。そして、時刻t、時刻l、クラスタkのi番目のデータに対して、式(31)、式(32)を計算する(ステップS60)。 Hereinafter, description of processes similar to those in step E will be omitted as appropriate. In the M step, first, t = 1 (step S53), i = 1 (step S54), k = 1 (step S55), and then the above equations (29) and (30) are calculated (steps). S56). Thereafter, k ← k + 1 is set (step S57), and the process of returning to step S56 is repeated until k> K. When k> K is satisfied (step S58: Yes), the time identifier l is initialized. That is, l = 1 is set (step S59). Then, equations (31) and (32) are calculated for the i-th data of time t, time l, and cluster k (step S60).
そして、時刻lをインクリメントする。すなわち、l←l+1とする(ステップS61)。過去から時刻tまでの時刻を示す時刻lについてのすべての演算が終わるまでステップS60に戻る処理を繰り返す。l>tとなった場合(ステップS62:Yes)、i←i+1とする(ステップS63)。そして、iについてのすべての演算が終わるまでステップS55に戻る処理を繰り返す。そして、i>ntとなった場合(ステップS64:Yes)、t←t+1とする(ステップS65)。さらに、tについてのすべての演算が終わるまでステップS54に戻る処理を繰り返す。そして、t>Tとなった場合(ステップS66:Yes)、推定結果を保存する(ステップS67)。 Then, the time l is incremented. That is, l ← l + 1 is set (step S61). The process of returning to step S60 is repeated until all calculations for time l indicating the time from the past to time t are completed. When l> t is satisfied (step S62: Yes), i ← i + 1 is set (step S63). And the process which returns to step S55 is repeated until all the calculations about i are completed. When it becomes i> n t (step S64: Yes), the t ← t + 1 (step S65). Further, the process of returning to step S54 is repeated until all calculations for t are completed. When t> T is satisfied (step S66: Yes), the estimation result is stored (step S67).
<3)観測モデルおよび事前分布の特定>
図3〜図5および式(19)〜式(27)を参照して説明した変分事後分布推論プロセスでは、観測モデルおよび事前分布を一般化した説明を行った。つまり、前記した式(19)および式(27)は、観測モデルF=p(xt i|θk)およびパラメータθkの事前分布Hに依存する。本実施形態では、観測モデルFを正規分布と仮定し、事前分布HとしてNormal−Gamma分布を仮定する。Normal−Gamma分布は、式(33)〜式(35)で表されるモデルである。
<3) Identification of observation model and prior distribution>
In the variational posterior distribution inference process described with reference to FIGS. 3 to 5 and equations (19) to (27), the observation model and the prior distribution are generalized. That is, the above-described equations (19) and (27) depend on the observation model F = p (x ti | θ k ) and the prior distribution H of the parameter θ k . In the present embodiment, the observation model F is assumed to be a normal distribution, and a Normal-Gamma distribution is assumed as the prior distribution H. The Normal-Gamma distribution is a model represented by Expression (33) to Expression (35).
このモデルの場合において、前記した式(19)および式(27)は、式(36)、式(37)でそれぞれ表される。また、式(36)、式(37)中のハイパーパラメータは、式(38)〜式(41)で表される。さらに、式(38)〜式(41)中の変数は、式(42a)〜式(42c)で表される。式(38)〜式(42)の演算は、Eステップの中で完了する。 In the case of this model, the above equations (19) and (27) are represented by equations (36) and (37), respectively. Moreover, the hyper parameter in Formula (36) and Formula (37) is represented by Formula (38)-Formula (41). Furthermore, the variables in the expressions (38) to (41) are expressed by the expressions (42a) to (42c). The calculations of equations (38) to (42) are completed in the E step.
<4)推定結果とクラスタ数の決定方法>
≪クラスタ数の決定方法≫
EMアルゴリズムでは、K個のクラスタを常に保持しているが、推定が進むと少数のクラスタのみに大きな混合比が付き、他のクラスタの大きさ(cluster size)はほぼ0となる。時刻tにおいてクラスタkへ振り分けられるサンプル数の期待値は、式(43)の定義により計算できる。
<4) Estimation method and number of clusters determination method>
≪How to determine the number of clusters≫
In the EM algorithm, K clusters are always held, but as the estimation proceeds, only a small number of clusters have a large mixing ratio, and the size of other clusters is almost zero. The expected value of the number of samples distributed to cluster k at time t can be calculated by the definition of equation (43).
本実施形態では、「有効な」クラスタ数Keffを、式(43)で定義した‖zt,k‖の時刻tに関する総和の比率で決定する。例えば、各クラスタkの混合比は、式(44a)で推定できる。このルールでは、式(44b)の条件が成立するならば、そのクラスタkが「有効な」クラスタであると判断することとする。 In the present embodiment, the “effective” number of clusters K eff is determined by the ratio of the sum total of time tz t, k時刻 defined by Expression (43). For example, the mixing ratio of each cluster k can be estimated by Expression (44a). In this rule, if the condition of Expression (44b) is satisfied, it is determined that the cluster k is an “effective” cluster.
このルールにおいて、そのようなクラスタkの総数を、「有効な」クラスタ数Keffとすることとする。このようにすれば、「有効な」クラスタ数が最大クラスタ数Kより小さくなること、すなわち、Keff<Kが保証される。 In this rule, let the total number of such clusters k be the “effective” number of clusters K eff . This guarantees that the “effective” number of clusters is smaller than the maximum number of clusters K, that is, K eff <K.
≪保存すべき推定結果≫
保存すべき推定結果としては、第1に、EMアルゴリズムで推定された各変数によって定められる変分事後分布である。また、第2に、クラスタリング結果を用いて求められる、「有効な」クラスタ数Keff、式(43)に示す‖zt,k‖、式(44a)に示すβk^などである。ここで、^は、文字βの上に付される記号を意味する。
特に、保存すべき推定結果として2番目に挙げたクラスタリング結果を用いて求められる推定量“「有効な」クラスタ数Keff、式(43)に示す‖zt,k‖、式(44a)に示すβk^”は、図1における識別部4で利用することが可能な重要な推定量である。なお、式(43)、式(44a)、式(44b)の演算は、Mステップの中で行う。
≪Estimated results to be saved≫
First, the estimation result to be stored is a variational posterior distribution determined by each variable estimated by the EM algorithm. Second, the number of “effective” clusters K eff obtained using the clustering result, ‖z t, kに shown in Equation (43), β k ^ shown in Equation (44a), and the like. Here, ^ means a symbol added on the character β.
In particular, the estimated amount “number of effective” clusters K eff obtained using the second clustering result as an estimation result to be stored, ‖z t, k ‖ shown in Equation (43), and Equation (44a) Β k ^ ”shown is an important estimation amount that can be used by the
<5)dHDPの高速化方法>
本実施形態のクラスタリング計算方法におけるオンライン推定方法では、図4や図5の処理の流れからも明らかなように、時間ステップの進展とともに推定すべき変数の数が増えていくことが特徴である。そのため、実時間性などを考慮して、計算省力化の技法を開発した。本実施形態では、dHDPを用いたオンライン話者クラスタリングのための計算高速化法として、大別して3種類の高速化法(高速化1、高速化2、高速化3)を用いることとした。
<5) dHDP speedup method>
The on-line estimation method in the clustering calculation method of the present embodiment is characterized in that the number of variables to be estimated increases as the time step progresses, as is apparent from the processing flow of FIG. 4 and FIG. Therefore, we developed a technique for labor saving in calculation considering real time characteristics. In this embodiment, three types of speed-up methods (speed-
≪高速化1:データの忘却≫
前記した式(16a)が意味することは、時刻tにおける話者分布Gtを計算するためには、時刻1≦l≦tの分布変化Hlが必要であるということである。従って、時刻1からの情報を保持し続ける必要があるので、時間ステップtが進むとともに推論の計算量が増大する。ここで、次の仮定を導入する。すなわち、時刻l<tで話者の入れ替わりが発生したとする。すると、この時点で話者分布Hが大きく変化することが予想される。これは、前記した式(4)において、wl≒1となってGl-1の影響がほぼ排除されることを意味する。このことと、前記した式(16a)および式(16b)とを照らし合わせると、vt1≒…≒vl(t-1)=0となる。従って、実際には、Gtの推論には、時刻lの分布変化Hl以降の分布のみしか関与しないことがわかる。このことから、分布選択を表す変数{dt i}の事後分布に相当するst i l(式(30)参照)も大部分が0となることが期待される。
≪Speedup 1: Forgetting data≫
The above equation (16a) means that the distribution change H l at time 1 ≦ l ≦ t is necessary to calculate the speaker distribution G t at time t. Therefore, since it is necessary to keep the information from
EMアルゴリズム中でsが存在する部分は、sと、定数あるいは別変数と、の掛け算となっているため、st i l=0となる部分については、計算する必要がない。従って、sに対応する変数にはアクセスしなくてよい。この考察より、ある適切な時間ステップ幅W1より過去の変数あるいは定数については、EM更新式中でアクセスしない(忘却する)ことによって計算時間を削減できる。 The part where s exists in the EM algorithm is a multiplication of s and a constant or another variable, so it is not necessary to calculate the part where s til = 0. Therefore, it is not necessary to access the variable corresponding to s. From this discussion, for the appropriate time past variables or constants than the step width W 1 that is not accessible in EM update equation (forgetting) can reduce the computational time by.
この時間ステップ幅W1の決定方法としては、事前に適切な定数を決めておく方法が最も簡便である。あるいは、この考察からの示唆より、次のような方法も考えることができる。すなわち、各時刻でのst iの推定結果より、st i 1=…=st i l=0となるlを見つけて、W1=t−lとする方法がある。そのようなlの見付け方としては、適切な閾値th(<1.0)に対して、式(45)の関係を満たす最大のlを探せばよい。この場合には、データを忘却する時間幅W1が推論結果に従って動的に変化することになる。 The method of determining the time step width W 1, a method of previously have determined the appropriate constants is most convenient. Alternatively, the following method can be considered from the suggestion from this consideration. That is, there is a method of finding l where s ti 1 =... = S til = 0 from the estimation result of s ti at each time and setting W 1 = t−l. As a method of finding such l, it is only necessary to find the maximum l satisfying the relationship of Expression (45) with respect to an appropriate threshold th (<1.0). In this case, the time width W 1 of forgetting the data is to dynamically vary according to the inference result.
≪高速化2:推定時間幅の制限≫
図2に示したオンライン推定法では、毎時刻Tにおいて全変数のEMアルゴリズム推定を行うものとして説明した。このことは、早い時刻ステップに関する変数については、何度もEM再推定を行っているということを意味する。EMアルゴリズムは、局所最適解の計算アルゴリズムであるため、計算を繰り返すと、ある1つの解に収束する。よって、早い時刻ステップに関わる変数については再推定をしなくとも、値が収束している可能性が高い。
≪Speedup 2: Estimated time width limit≫
In the online estimation method shown in FIG. 2, the EM algorithm is estimated for all variables at each time T. This means that the EM re-estimation is performed many times for the variable related to the early time step. Since the EM algorithm is a calculation algorithm for a local optimum solution, when the calculation is repeated, the EM algorithm converges to one solution. Therefore, there is a high possibility that the values related to the early time step have converged without re-estimation.
この考察より、EMアルゴリズムで再推定する変数を、適切な時間幅W2を使うことで、T−W2≦t≦Tの範囲の変数に制限することが可能であることがわかる。このことで、推定する変数の個数が、時間ステップTに対する線形増加とならないように、その個数を定数に保つことが可能となる。時間幅W2の決定方法としては、事前に適切な定数を決めておく方法が最も簡便である。 From this consideration, it can be seen that the variable re-estimated by the EM algorithm can be limited to a variable in the range of T−W 2 ≦ t ≦ T by using an appropriate time width W 2 . This makes it possible to keep the number of variables to be constant so that the number of variables to be estimated does not increase linearly with respect to time step T. The method for determining the time width W 2, a method of previously have determined the appropriate constants is most convenient.
≪高速化3:クラスタ変数再推定の制限≫
dHDPは、ノンパラメトリックベイズモデルなので、最大クラスタ数(K)の個数のクラスタを予めモデルに準備していたとしても、実際には、「有効な」クラスタ数Keff(<K)の個数のクラスタだけが実質的なクラスタとなり、他のクラスタは、混合比がほぼ0となるために消去されたような形式となる。この消去されたような形式のクラスタには、有効な情報がないため、そのようなクラスタを用いてパラメータや混合比の推定計算を行っても無駄なだけである。
≪Speedup 3: Limitation of cluster variable re-estimation≫
Since dHDP is a non-parametric Bayes model, even if the maximum number of clusters (K) is prepared in the model in advance, the number of “effective” clusters K eff (<K) is actually the number of clusters. Only the cluster becomes a substantial cluster, and the other clusters are erased because the mixing ratio is almost zero. Since there is no valid information in the deleted cluster, it is only useless to perform estimation calculation of parameters and mixing ratios using such a cluster.
このことから、前記した式(26)、式(27)、式(29)などクラスタごとの推定を行う変数(k)を用いて、実際にクラスタごとの変数再推定を行う演算処理では、その変数再推定の回数を確率的に(確率論に基づいて)低減することが考えられる。その方法は、例えば3種類挙げることができる。 From this, in the arithmetic processing that actually performs the variable re-estimation for each cluster using the variable (k) for estimating for each cluster such as the above-mentioned formula (26), formula (27), and formula (29), It is conceivable to reduce the number of variable re-estimations stochastically (based on probability theory). The method can mention three types, for example.
第1の低減法は、単純な方法として、全クラスタについて確率c(≦1.0)で毎回ランダムに、再推定するか否かを決定する方法である。
第2の低減法は、各クラスタkの混合比βk^(式(44)参照)に応じてEMアルゴリズムによる再推定を行う回数を増減する方法である。
第3の低減法は、前記した式(44b)の条件を満たす場合、つまり、対象のクラスタが「有効な」クラスタである場合には毎回再推定するが、それ以外の場合には、クラスタkを確率的に更新する方法である。
これらの低減法において、各クラスタkを更新する確率をpupdate(k)とおくと、第1〜第3の低減法は、それぞれ、式(46)〜式(48)のように表現できる。特に、第3の低減法は、推定精度をほとんど犠牲にせずに計算量をKeff/K程度に削減できる効果がある。
As a simple method, the first reduction method is a method for determining whether to re-estimate all clusters at random with a probability c (≦ 1.0) each time.
The second reduction method is a method of increasing or decreasing the number of re-estimations by the EM algorithm in accordance with the mixture ratio β k ^ (see equation (44)) of each cluster k.
The third reduction method re-estimates every time when the condition of the above-described equation (44b) is satisfied, that is, when the target cluster is an “effective” cluster, but in other cases, the cluster k Is a method of updating the probability.
In these reduction methods, if the probability of updating each cluster k is set as p update (k), the first to third reduction methods can be expressed as Equations (46) to (48), respectively. In particular, the third reduction method has an effect of reducing the calculation amount to about K eff / K without sacrificing estimation accuracy.
前記した3つの高速化方法(高速化1、高速化2、高速化3)をすべて使う場合のEMアルゴリズムの一例を図6および図7にそれぞれ示す。なお、これら3つの方法は、それぞれ独立に利用可能である。
An example of the EM algorithm in the case of using all the three speed-up methods (speed-
図6は、本発明の実施形態に係るクラスタリング計算方法におけるEステップの計算手順を示すフローチャートである。なお、図4のフローチャートと比較して異なる部分を太線及び破線で示し、説明を適宜省略して異なる処理について説明する。図6において、高速化1は、符号301で示すように、ステップS31A,S32Aからなる。ここでは、時刻T−W1からTまでのサンプル{xT-W1:T}を入力する(ステップS31A)。また、時刻T−W1からTまでの隠れ変数・パラメータの推定値とハイパーパラメータ、最新のMステップの演算結果を入力する(ステップS32A)。次いで、高速化2は、符号302で示すように、ステップS33Aからなる。ここでは、tの初期値を1の代わりに、t=T−W2とする(ステップS33A)。
FIG. 6 is a flowchart showing a calculation procedure of the E step in the clustering calculation method according to the embodiment of the present invention. In addition, a different part is shown with a thick line and a broken line compared with the flowchart of FIG. 4, description is abbreviate | omitted suitably and a different process is demonstrated. In FIG. 6, the
さらに、高速化3は、ステップS35に続いて行う処理であり、符号303で示すように、ステップS71,S72からなる。ここでは、[0,1]の一様乱数uを生成し(ステップS71)、pupdate(k)>uであるか否かを判別することとした(ステップS72)。pupdate(k)>uである場合(ステップS72:Yes)、前記したステップS36〜ステップS45を実行する。つまり、前記した式(26)および式(27)の計算を行う。ただし、ステップS42において、k≦Kである場合(ステップS42:No)、ステップS71に戻る。一方、ステップS72において、pupdate(k)≦uである場合(ステップS72:No)、前記したステップS36〜ステップS40をスキップして、ステップS41に進む。つまり、前記した式(26)および式(27)の計算を行わない。
Furthermore, the speed-
図7は、本発明の実施形態に係るクラスタリング計算方法におけるMステップの計算手順を示すフローチャートである。なお、図5のフローチャートと比較して異なる部分を太線及び破線で示し、説明を適宜省略して異なる処理について説明する。図7において、高速化1は、符号401で示すように、ステップS51A,S52Aからなる。ここでは、時刻T−W1からTまでのサンプル{xT-W1:T}を入力する(ステップS51A)。また、時刻T−W1からTまでの隠れ変数・パラメータの推定値とハイパーパラメータ、最新のEステップの演算結果を入力する(ステップS52A)。次いで、高速化2は、符号402で示すように、ステップS53Aからなる。ここでは、tの初期値を1の代わりに、t=T−W2とする(ステップS53A)。
FIG. 7 is a flowchart showing a calculation procedure of M steps in the clustering calculation method according to the embodiment of the present invention. Note that different parts compared to the flowchart of FIG. 5 are indicated by thick lines and broken lines, and description thereof will be omitted as appropriate. In FIG. 7, the
さらに、高速化3は、ステップS55に続いて行う処理であり、符号403で示すように、ステップS81,S82からなる。ここでは、[0,1]の一様乱数uを生成し(ステップS81)、pupdate(k)>uであるか否かを判別することとした(ステップS82)。pupdate(k)>uである場合(ステップS82:Yes)、前記したステップS56〜ステップS67を実行する。つまり、前記した式(29)〜式(32)の計算を行う。ただし、ステップS58において、k≦Kである場合(ステップS58:No)、ステップS81に戻る。一方、ステップS82において、pupdate(k)≦uである場合(ステップS82:No)、前記したステップS56をスキップして、ステップS57に進む。つまり、前記した式(29)および式(30)の計算を行わない。
Further, the
[クラスタリング計算装置]
図8は、本発明の実施形態に係るクラスタリング計算装置の構成の一例を示す機能ブロック図である。このクラスタリング計算装置3は、例えば、図2の推論プロセス等を実現するものであり、CPU等の演算装置と、メモリ、ハードディスク等の記憶装置(記憶手段)と、マウスやキーボード等の外部から情報の入力を検出する入力装置と、外部との各種情報の送受信を行うインタフェース装置と、LCD(Liquid Crystal Display)等の表示装置を備えたコンピュータと、このコンピュータにインストールされたプログラムとから構成される。
[Clustering calculator]
FIG. 8 is a functional block diagram showing an example of the configuration of the clustering calculation apparatus according to the embodiment of the present invention. The
クラスタリング計算装置3は、ハードウェア装置とソフトウェアとが協働することによって、前記したハードウェア資源がプログラムによって制御されることにより実現され、図8に示すように、記憶手段10と、以下CPUの機能として、変分事後分布推論部30と、パワーベクトル読込部21と、入力制御部22と、割当部23と、未知数初期化部24と、パワーベクトル書込部25と、観測量生成部26と、終了判定部27と、出力制御部28とを備えることとした。
The
<記憶手段>
記憶手段10は、ROM、RAM、HDD等からなる。記憶手段10は、プログラム記憶領域、設定データ記憶領域、演算データ一時記憶領域、推定結果記憶領域等に区分され、コマンド、データ、プログラム等各種情報を記憶する。例えば、推定結果記憶領域には、データとして、図9に示すように、未知数の事後分布推定値11、ハイパーパラメータ12、Eステップにおける推定値(まとめてEステップ13と表記した)、Mステップにおける推定値(まとめてMステップ14と表記した)、パワーベクトル15、観測量(サンプル)16が保存される。
<Storage means>
The
<変分事後分布推論部>
メインの変分事後分布推論部30は、例えば、図3、図6、図7の推論プロセスを実現するものであり、ここでは、Eステップ用計算部31と、Mステップ用計算部32と、EM収束判定部33と、パラメータ更新条件判定部34と、ハイパーパラメータ更新部35とを備えることとした。詳細は後記する。
<Variational posterior distribution reasoning section>
The main variational posterior distribution inference unit 30 implements, for example, the inference process of FIGS. 3, 6, and 7. Here, the E
<パワーベクトル読込部>
パワーベクトル読込部21は、推定対象の時刻Tにしたがって、パワーベクトルfTを順次読み込み、入力制御部22に渡す。
<Power vector reading part>
The power
<入力制御部>
入力制御部22は、パワーベクトルfTを取得すると、パワーベクトル書込部25にそのまま送ると共に、割当部23、未知数初期化部24、観測量生成部26および終了判定部27に対しては、それぞれ必要なコマンドを出力する。
<Input control unit>
When acquiring the power vector f T , the
<割当部>
割当部23は、入力制御部22からのコマンドにしたがって、そのときのT(=1,2,…)や、角度d(180,−179,…)に対応したiに応じて、前記した式(9)〜(14)の各未知数(パラメータ・隠れ変数)を順次生成し(初期値は例えば0)、記憶手段10において、未知数の事後分布推定値11として保存する。すなわち、割当部23は、推定すべき未知数にTとiとを割り当てる。この意味で、図9においては、Tとiの割当部23と表記した。なお、記憶手段10には、dHDP近似モデルで用いる各ハイパーパラメータ12の初期値が予め格納されている。
<Allocation unit>
According to the command from the
<未知数初期化部>
未知数初期化部24は、入力制御部22からのコマンドにしたがって、そのときのTや角度dに対応したiに応じて、Eステップ演算に用いるための、前記した式(24)〜(26)、(37)の左辺パラメータを順次生成し(初期値は例えば0)、記憶手段10において、Eステップ13の初期値として保存する。また、未知数初期化部24は、Mステップ演算に用いるための、式(29)〜(32)の左辺パラメータを順次生成し(初期値は例えば0)、記憶手段10において、Mステップ14の初期値として保存する。さらに、未知数初期化部24は、EM推定値の演算に用いるための、式(36),(20)〜(23)の左辺パラメータを順次生成し(初期値は例えば0)、記憶手段10において、未知数の事後分布推定値11に上書き保存する(更新する)。
<Unknown number initialization part>
The unknown
<パワーベクトル書込部>
パワーベクトル書込部25は、入力制御部22から取得したパワーベクトルfTを、記憶手段10において、パワーベクトル15として順次保存する。
<Power vector writing unit>
The power
<観測量生成部>
観測量生成部26は、入力制御部22からのコマンドにしたがって、そのときのTに応じて、記憶手段10から読み出したパワーベクトル15のデータの角度d毎のパワー値を、所定のルールに則って変換し、識別子i(個数nt)のデータに変換することで、観測量(サンプル)を生成し、記憶手段10に、観測量16として順次保存する。なお、本実施形態では、所定のルールとしては、前記した式(7)、式(8)を用いる。
<Observation generator>
In accordance with a command from the
<終了判定部>
終了判定部27は、入力制御部22からの入力信号(コマンド)が所定期間途絶えたときに、パワーベクトルfTの入力が終了したと判定し、出力制御部28に通知する。なお、本実施形態では、最終時刻Ttotalになったときに、入力が終了したと判定する。
<End determination unit>
<出力制御部>
出力制御部28は、終了通知を受け取ると、記憶手段10から、最終的な推定値として、未知数の事後分布推定値11を取得し、識別部4に出力する。
<Output control unit>
When the
[変分事後分布推論部の詳細]
≪Eステップ用計算部≫
Eステップ用計算部31は、処理時点のTに応じて、記憶手段10から、サンプル、ハイパーパラメータ、Mステップの演算結果等を、過去を含めた演算対象時刻t(t≦T)に関して読み出す。そして、Eステップ用計算部31は、処理時点のTに応じて、過去を含むすべての演算対象時刻t(t≦T)に関して、式(24)〜(26)、(37)を演算し、その演算結果を、記憶手段10にEステップ13として保存する。
[Details of variational posterior distribution reasoning section]
≪E step calculation section≫
The E
≪Mステップ用計算部≫
Mステップ用計算部32は、処理時点のTに応じて、記憶手段10から、サンプル、ハイパーパラメータ、Eステップの演算結果等を、過去を含めた演算対象時刻t(t≦T)に関して読み出す。そして、Mステップ用計算部32は、処理時点のTに応じて、過去を含むすべての演算対象時刻t(t≦T)に関して、式(29)〜(32)を演算し、その演算結果を、記憶手段10にMステップ14として保存する。そして、Mステップ用計算部32は、記憶手段10に保存されたこれらの演算結果を合わせて用いて、処理時点のTに応じて、過去を含むすべての演算対象時刻t(1≦t≦T)に関して、式(20)〜(23)、(36)を演算し、その演算結果を、記憶手段10に、未知数の事後分布推定値11として上書き保存する(更新する)。
≪M step calculation part≫
The calculation unit for
≪EM収束判定部≫
EM収束判定部33は、EステップとMステップを合わせた1セットの処理の繰り返し回数jのしきい値(jmax)に達したか否かを判定することで、EMアルゴリズムが収束したか否かを判別する。しきい値(jmax)は、予め設定される。EMアルゴリズムが収束していない場合、EM収束判定部33は、EステップとMステップとを繰り返す制御を行う。EMアルゴリズムが収束した場合、EM収束判定部33は、EステップとMステップとの処理を停止する制御を行う。本実施形態では、EM収束判定部33は、収束の如何に関わらず、その時点のTの値をパラメータ更新条件判定部34に通知することとした。
≪EM convergence judgment part≫
The EM
≪パラメータ更新条件判定部≫
パラメータ更新条件判定部34は、受け取った処理時点のTが、事前に設定された設定値(適切な正整数tupdateの倍数)と同じであるか否かを判別する。同じある場合には、パラメータ更新条件判定部34は、ハイパーパラメータ更新部35に通知する。
≪Parameter update condition judgment unit≫
The parameter update
≪ハイパーパラメータ更新部≫
ハイパーパラメータ更新部35は、通知を受けると、記憶手段10に保存されているハイパーパラメータ12を任意の方法で更新する。これにより、Eステップ用計算部31およびMステップ用計算部32は、処理時点のTが、予め設定された適切な正整数の倍数と同じである次のタイミングから、更新されたハイパーパラメータを用いることができる。なお、パラメータ更新条件判定部34およびハイパーパラメータ更新部35は、前記したステップS28〜S30の処理に対応している。ただし、これらの構成は、必ずしも備える必要はない。
≪Hyper parameter update part≫
When receiving the notification, the hyper
なお、クラスタリング計算装置3は、一般的なコンピュータを、クラスタリング計算装置3を構成する前記した各手段として機能させるプログラム(クラスタリング計算プログラム)により動作させることで実現することができる。このプログラムは、通信回線を介して提供することも可能であるし、CD−ROM等の記録媒体に書き込んで配布することも可能である。このプログラムをインストールされたコンピュータは、CPUが、ROM等に格納されたこのプログラムをRAMに展開することにより、クラスタリング計算装置3と同等の効果を奏することができる。
Note that the
本実施形態によれば、複数話者の会話からなる録音データから、その会話に参加した話者数、各話者の位置、さらに各話者の発話行動のタイミングを推定するダイアライゼーションにおける話者クラスタリングの問題に対して、確率的なクラスタリングを用いたので、従来のようなパラメータの設定や探索によらずに容易に話者数を推定できる。
また、本実施形態によれば、dHDP近似モデルを採用したことにより、時間ごとに発話に参加する話者が変化する状況も適切にモデリングできる。その結果、より精度の高い話者クラスタリングが実現できる。
さらに、本実施形態によれば、dHDPのオンライン推定法とその高速化法を用いることで、高速に推論を行うことが可能である。なお、精度と時間のトレードオフによって実時間推論も可能である。
According to this embodiment, the speakers in dialization that estimate the number of speakers who participated in the conversation, the positions of each speaker, and the timing of each speaker's utterance behavior from recorded data consisting of conversations of a plurality of speakers. Since probabilistic clustering is used for the clustering problem, the number of speakers can be easily estimated without using conventional parameter setting or searching.
Further, according to the present embodiment, by adopting the dHDP approximate model, it is possible to appropriately model the situation in which the speakers participating in the utterance change with time. As a result, more accurate speaker clustering can be realized.
Furthermore, according to the present embodiment, it is possible to perform inference at high speed by using the online estimation method of dHDP and its speed-up method. Real-time inference is also possible by a trade-off between accuracy and time.
以上、本発明の実施形態について説明したが、本発明はこれに限定されるものではなく、その趣旨を変えない範囲で実施することができる。例えば、クラスタリング計算装置3は、dHDP近似モデルにおいて、Normal−Gamma分布を仮定したが、別の分布を仮定してもよい。この場合、前記した式(36)、式(37)および関連する関係式と同様な計算式を、仮定された別の分布で改めて導出すればよい。
As mentioned above, although embodiment of this invention was described, this invention is not limited to this, It can implement in the range which does not change the meaning. For example, the
また、本実施形態では、クラスタリング計算装置3は、dHDP近似モデルにより推論するものとしたが、例えば、dHDPモデルや他のノンパラメトリックベイズモデルであってもよい。他のノンパラメトリックベイズモデルの場合、確率分布の連続的な時間変化をモデル化した分布であることが好ましい。
In the present embodiment, the
また、本実施形態では、話者の位置に基づいたクラスタリングを行うために、特徴量抽出部2では、一例として、マイクロホンアレーを用いてDOA情報(音声の到達角度)を抽出するものとしたが、ダイアライゼーションに適していれば、それ以外の様々な特徴量を抽出することが可能である。例えば、話者ごとの声質の特徴に基づいたクラスタリングをする場合にはMFCC特徴量(Mel Frequency Cepstrum Coefficient)などを抽出することができる。そして、このような特徴量であっても前記したアルゴリズムに適用することが可能である。
In the present embodiment, in order to perform clustering based on the position of the speaker, the feature
本発明の効果を確認するために本実施形態に係るクラスタリング計算装置の性能を測定した。まず、第1段階の実験として、設計されたとおりのクラスタ数と適切なパラメータとを持つクラスタリングが、dHDPによって実現できるか否かを検証する実験(クラスタリング検証実験)を行った。次に、第2段階の実験として、得られたクラスタ結果を用いたダイアライゼーション精度を評価する実験(DERによるダイアライゼーション精度の評価)を行った。前記2種類の実験では、人工音声データと実音声データとを用いてクラスタリング計算装置の性能を確認した。 In order to confirm the effect of the present invention, the performance of the clustering calculation apparatus according to the present embodiment was measured. First, as a first stage experiment, an experiment (clustering verification experiment) was performed to verify whether or not clustering having the number of clusters as designed and appropriate parameters can be realized by dHDP. Next, as a second stage experiment, an experiment (evaluation of dialization accuracy by DER) for evaluating the dialization accuracy using the obtained cluster result was performed. In the two types of experiments, the performance of the clustering calculation apparatus was confirmed using artificial voice data and real voice data.
<実験データ>
≪人工音声データ≫
人工音声データは、3人の発話者が交代で発話・非発話を切り替える状況をシミュレートしたデータである。この人工音声データは、64[msec]の時間ステップで計算されたDOAデータ(音声の到達角度のデータ)と、VAD(音声区間検出器)による音声・非音声判定結果とからなる。また、人工音声データは、ノイズがほとんど重畳しないデータである。各実験では、VADによる判定結果を用いて非音声区間を閾値処理で除外して422ステップの連続シーケンスの人工音声データを作成した。また、時間ステップごとのサンプル分布をある程度安定させるため、422ステップを数ステップごとに重複なくまとめて1つの長いメタステップとした。各実験では、5ステップのデータをまとめて1メタステップとし、メタステップのステップ数をt,Tに対応させた。よって、ステップ数はTtotal=ceil(422/5)=85である。ここで、ceilは切り上げを示す。この人工音声データには、複数の話者が同時に喋る区間も存在している。
<Experimental data>
≪Artificial voice data≫
Artificial voice data is data that simulates a situation in which three speakers switch between speaking and non-speaking in turn. This artificial voice data is composed of DOA data (voice arrival angle data) calculated at a time step of 64 [msec] and voice / non-voice judgment results by VAD (voice section detector). Artificial voice data is data on which almost no noise is superimposed. In each experiment, the non-speech section was excluded by threshold processing using the determination result by VAD, and artificial speech data of a continuous sequence of 422 steps was created. In addition, in order to stabilize the sample distribution for each time step to some extent, the 422 steps are combined every few steps without duplication to form one long meta step. In each experiment, 5 steps of data were combined into 1 metastep, and the number of metasteps corresponded to t and T. Therefore, the number of steps is T total = ceil (422/5) = 85. Here, ceil indicates rounding up. In the artificial voice data, there is a section where a plurality of speakers speak simultaneously.
人工音声データについての全時刻での平均パワーベクトルの分布を図9に示す。図9において、横軸は、DOAデータ、すなわち、音声到来方向角度[deg]を示し、縦軸は、時間平均パワー[dB]を示す。図9に示すように、各話者に対応するパワー分布の3つのピークを観察することができる。 FIG. 9 shows the distribution of the average power vector at all times for the artificial voice data. In FIG. 9, the horizontal axis indicates DOA data, that is, the voice arrival direction angle [deg], and the vertical axis indicates time average power [dB]. As shown in FIG. 9, three peaks of the power distribution corresponding to each speaker can be observed.
≪実音声データ≫
実音声データは、実際の複数話者の会話の様子を録音したデータである。実音声データとして、非特許文献1に記載されている4データを利用した。4データの詳細を表1に示す。表1において、CPはcrossword puzzleデータ、DCはdiscussionデータ、CNはconversationデータを表す。
≪Real voice data≫
The actual voice data is data that records the actual conversations of multiple speakers. Four data described in
実音声データは、どのデータも300秒の音声データである。これらの実音声データについての平均パワーベクトルの分布を図10にそれぞれ示す。図10の横軸および縦軸は、図9のグラフと同様である。ただし、時間平均パワーのオーダーは低い。 The actual voice data is 300 seconds of voice data. The distribution of the average power vector for these actual voice data is shown in FIG. The horizontal and vertical axes in FIG. 10 are the same as those in the graph of FIG. However, the order of time average power is low.
図10(a)に示すCP1と、図10(b)に示すCP2に関しては、表1に記載の発話者数「4」に対応するパワー分布のピークの個数も「4個」なので、比較的良好なクラスタリング結果が期待される。一方、図10(c)に示すDCと、図10(d)に示すCNに関しては、表1に記載の発話者数「3」に対応するパワー分布の3つのピークが明確には観察できないため、正しいクラスタ数の推定は困難を伴うことが予想される。 Regarding CP1 shown in FIG. 10A and CP2 shown in FIG. 10B, the number of peaks of the power distribution corresponding to the number of speakers “4” shown in Table 1 is also “4”. Good clustering results are expected. On the other hand, for the DC shown in FIG. 10C and the CN shown in FIG. 10D, the three peaks of the power distribution corresponding to the number of speakers “3” shown in Table 1 cannot be clearly observed. The estimation of the correct number of clusters is expected to be difficult.
[クラスタリング検証実験]
まず、第1段階として、クラスタリングの性能を確認した。ここでは、DPM(参考例1)とdHDP(実施例1)とによって、オンラインで話者クラスタの推定を行った。このクラスタリング検証実験では、最終時刻Ttotalにおいて、最終的な混合比が、チャンスレベル(1/K)を超えたクラスタのみを有効なクラスタとしてカウントすることで、最終的なクラスタリング結果を求めた。そして、得られたクラスタリング結果により、DPM(参考例1)とdHDP(実施例1)とを比較し、話者の分布と話者数に対応したクラスタリング結果が得られているか否かを判定した。なお、チャンスレベルは偶然の一致が起こる確率である。
[Clustering verification experiment]
First, as a first step, the performance of clustering was confirmed. Here, speaker clusters were estimated online using DPM (Reference Example 1) and dHDP (Example 1). In this clustering verification experiment, the final clustering result was obtained by counting only the clusters whose final mixing ratio exceeded the chance level (1 / K) at the final time T total as valid clusters. Then, based on the obtained clustering result, DPM (Reference Example 1) and dHDP (Example 1) are compared to determine whether or not a clustering result corresponding to the distribution of speakers and the number of speakers is obtained. . The chance level is the probability that a coincidence will occur.
≪人工音声データの場合≫
図9に示す人工音声データに対して、オンラインで、DPM(参考例1)とdHDP(実施例1)とを適用した結果を図11に示す。図11において、横軸は、DOAデータを、[−180:180]→[−0.5:0.5]に変換する関数を用いて無次元量に正規化した角度、すなわち、正規化角度を示す。また、縦軸は、確率密度関数(probabilistic density function:p. d. f)の値(無次元数)を示す。
≪For artificial voice data≫
FIG. 11 shows the result of applying DPM (Reference Example 1) and dHDP (Example 1) online to the artificial voice data shown in FIG. In FIG. 11, the horizontal axis represents an angle normalized to a dimensionless amount using a function for converting DOA data from [−180: 180] → [−0.5: 0.5], that is, a normalized angle. Indicates. The vertical axis represents the probability density function (probabilistic density function: pd f) value (dimensionless number).
図11(b)に示すdHDP(実施例1)の結果と、図9のグラフとの比較の結果、dHDPでは、正しいクラスタ数とパラメータを得ることができたことが分かる。一方、図11(a)に示すDPM(参考例1)の場合、クラスタ数が「1」となり、図9に示す人工音声データに対しては不適切な結果が得られたことを確認した。 As a result of comparison between the result of dHDP (Example 1) shown in FIG. 11B and the graph of FIG. 9, it can be seen that the correct number of clusters and parameters can be obtained in dHDP. On the other hand, in the case of DPM (Reference Example 1) shown in FIG. 11A, the number of clusters was “1”, and it was confirmed that an inappropriate result was obtained for the artificial voice data shown in FIG.
≪実音声データ(CP1、CP2)の場合≫
図10(a)に示す実音声データ(CP1)に対して、オンラインで、DPM(参考例2)とdHDP(実施例2)とを適用した結果を図12に示す。図12の各軸は、図11のグラフと同様である。図12(b)に示すdHDP(実施例2)の結果と、図10(a)のグラフとの比較の結果、dHDPでは、正しいクラスタ数とパラメータを得ることができたことが分かる。一方、図12(a)に示すDPM(参考例2)の場合、多数のクラスタに分かれてしまい、図10(a)に示すCP1に対しては不適切な結果が得られたことを確認した。なお、同様の傾向がCP2データに対しても確認された。このときのDPM(参考例3)とdHDP(実施例3)との結果の記述は省略した。
<< In case of real voice data (CP1, CP2) >>
FIG. 12 shows the result of applying DPM (Reference Example 2) and dHDP (Example 2) online to the actual voice data (CP1) shown in FIG. Each axis in FIG. 12 is the same as the graph in FIG. As a result of comparison between the result of dHDP (Example 2) shown in FIG. 12B and the graph of FIG. 10A, it can be seen that the correct number of clusters and parameters can be obtained in dHDP. On the other hand, in the case of DPM (Reference Example 2) shown in FIG. 12A, it was divided into a large number of clusters, and it was confirmed that an inappropriate result was obtained for CP1 shown in FIG. . A similar trend was confirmed for CP2 data. The description of the results of DPM (Reference Example 3) and dHDP (Example 3) at this time was omitted.
≪実音声データ(DC)の場合≫
図10(c)に示す実音声データ(DC)に対して、オンラインで、DPM(参考例4)とdHDP(実施例4)とを適用した結果を図13に示す。図13の各軸は、図11のグラフと同様である。図13(b)に示すdHDP(実施例4)の結果と、図10(c)のグラフや表1における発話者数との比較の結果、dHDPでは、話者数である3クラスタを得ることはできなかった。しかしながら、各クラスタのうち、サイズ数(図中のcluster size)の上位3つである、「cluster 4」、「cluster 6」、「cluster 14」の正規化角度の位置は、DCデータにおける話者の位置に対応することができた。ここで、サイズ数(図中のcluster size)は、前記した式(44)の右辺の分母で示される数値で定義した。なお、サイズ数の下位2つは、ノイズクラスタとなった。
≪In case of real voice data (DC) ≫
FIG. 13 shows the result of applying DPM (Reference Example 4) and dHDP (Example 4) online to the actual voice data (DC) shown in FIG. Each axis in FIG. 13 is the same as the graph in FIG. As a result of comparison between the result of dHDP (Example 4) shown in FIG. 13B and the number of speakers in the graph of FIG. 10C and Table 1, three clusters that are the number of speakers are obtained in dHDP. I couldn't. However, among the clusters, the positions of the normalized angles of “
一方、図13(a)に示すDPM(参考例4)の場合、より多くのクラスタに分かれてしまい、サイズ数上位3つのクラスタも話者の位置にそれぞれ対応することができなかった。この点からも、dHDP(実施例4)は、DPM(参考例4)によるクラスタリングに比してより正確なクラスタリングを実現できたと考えられる。なお、DPM(参考例4)の場合、各クラスタのうち、サイズ数の上位3つである、「cluster 2」、「cluster 4」、「cluster 5」の正規化角度の位置は、DCデータにおける話者の位置のうちの2つにしか対応できなかった。また、第4〜6位の位置でもあと1つの話者位置に対応できなかった。また、CNデータについては、DCデータと同様な傾向を有すると考えられる。
On the other hand, in the case of the DPM (Reference Example 4) shown in FIG. 13A, the cluster is divided into a larger number of clusters, and the top three clusters in the number of sizes cannot correspond to the positions of the speakers. From this point, it is considered that dHDP (Example 4) can realize more accurate clustering compared to clustering by DPM (Reference Example 4). In the case of DPM (Reference Example 4), the positions of the normalized angles of “
[DERによるダイアライゼーション精度の評価]
第1段階のクラスタリング検証実験に続いて、第2段階では、ダイアライゼーションのためのクラスタリングとしての性能を評価するため、DER(diarization error ratio)による評価を試みた。DERとはNISTが提案した話者識別能力の指標である。具体的には、DERは、全音声区間長に対して、以下の(1)〜(3)の3種類の誤識別区間がどれだけあったかを百分率で示したものである。DER値が少ないほど良いダイアライゼーションができた、という評価になる。
[Evaluation of dialization accuracy by DER]
Following the clustering verification experiment in the first stage, in the second stage, an evaluation by DER (diarization error ratio) was attempted in order to evaluate the performance as clustering for dialization. DER is an index of speaker identification ability proposed by NIST. Specifically, the DER indicates the percentage of the following three types of misidentification sections (1) to (3) with respect to the total speech section length. The smaller the DER value, the better the dialization.
(1)false alarm speaker time:誰も話していないのに、誰かが話したと誤検出した区間長
(2)missed speaker time:誰かが話しているのに、誰も話していないと判断した区間長
(3)speaker error time:誰かが話していることは正しく検出したが、話者を誤った区間長
(1) false alarm speaker time: the length of the section that was falsely detected that someone was speaking when no one was speaking (2) missed speaker time: the section where no one was speaking when someone was speaking Long (3) speaker error time: It is detected correctly that someone is speaking, but the speaker is wrong
なお、DERについての詳細は、下記URLに記載されている。
「NIST Speech group,”Spring2007(RT-07) Rich Transcription Meeting Recognition Evaluation Plan”,[online],[平成21年1月21日検索]、インターネット<URL:http://www.nist.gov/speech/tests/rt/2007/index.html>」
Details of DER are described in the following URL.
“NIST Speech group,“ Spring2007 (RT-07) Rich Transcription Meeting Recognition Evaluation Plan ”, [online], [searched on January 21, 2009], Internet <URL: http://www.nist.gov/speech /tests/rt/2007/index.html>"
第1段階のdHDPによるクラスタリングは、ダイアライゼーションのサブ問題でしかなく、そのままでは話者識別はできない。しかしながら、dHDPによるクラスタリングでは、各時刻におけるサンプル(=方向付きの音声パワーデータ)をクラスタリングしているため、各フレーム(時間ステップ)において各クラスタにアサインされたサンプル数を数えれば、所定の閾値を用いることで話者ごとの発声または非発声を決定することが可能である。そこで、前記した式(43)で定義した‖zt,k‖を用いて、各時刻における話者kの発話または非発話を、式(49)および式(50)に示すルールで決定した。なお、所定の閾値として式(49)に示したτDERは、適切な値に設定した。表1に示した各実音声データに対して、dHDP(実施例5、実施例6)について算出されたDERの結果を表2に示す。このDER値を非特許文献1における結果(比較例)と比較した。 Clustering by dHDP in the first stage is only a sub-problem of dialization, and speaker identification cannot be performed as it is. However, in the clustering by dHDP, the samples at each time (= directed sound power data) are clustered. Therefore, if the number of samples assigned to each cluster in each frame (time step) is counted, a predetermined threshold value is set. By using it, it is possible to determine utterance or non-voicing for each speaker. Therefore, the utterance or non-utterance of the speaker k at each time is determined according to the rules shown in Expression (49) and Expression (50) using ‖z t, k定義 defined in Expression (43). Note that τ DER shown in Expression (49) as a predetermined threshold was set to an appropriate value. Table 2 shows the DER results calculated for dHDP (Example 5 and Example 6) for each real voice data shown in Table 1. This DER value was compared with the result in Non-Patent Document 1 (comparative example).
表2において、比較例は、既存手法である非特許文献1の中で報告された最良の結果を示す。本発明のdHDPクラスタリングの結果(実施例5、実施例6)のうち、実施例5(naive)は、式(49)および式(50)に示すルールのみでDERを算出したときの値を示す。また、実施例6(heuristic)は、式(49)および式(50)に示すルール(識別則)に加え、1フレーム内(1時間ステップ内)での同時発話人数に上限の仮定をおくことで、非発話区間のfalse alarmを低減した実施例である。実施例6で採用した方法は、非特許文献1で最良の方法が得られた識別則と共通点を持っている。すなわち、実施例6は、式(49)に示したサンプル数閾値τDERと、同時発話人数の上限の仮定とに基づいて探索を行った結果である。そのため、実施例6は実施例5よりも良好な結果となった。さらに、実施例6は、同時発話人数の上限の仮定をした比較例と比較しても、明らかに、DER値として良好な値を示すことがわかる。
In Table 2, the comparative example shows the best result reported in
以上の検証実験および評価実験をまとめると、dHDPで解決されるのはサブ問題(第1段階)であるクラスタリングであるが、第2段階で、クラスタリングの過程で計算されるサンプルアサインメントzを用いることで、ダイアライゼーションの精度を示すDER指標の向上を実現可能である。すなわち、本発明によれば、dHDPでクラスタリングの問題を解決したことで、自然と良好なダイアライゼーションが可能となったと結論できる。 Summarizing the above verification experiment and evaluation experiment, it is clustering that is a sub-problem (first stage) that is solved by dHDP, but in the second stage, sample assignment z calculated in the clustering process is used. Thus, it is possible to improve the DER index indicating the accuracy of dialization. That is, according to the present invention, it can be concluded that a good dialization can be naturally achieved by solving the clustering problem with dHDP.
1 ダイアライゼーションシステム
2 特徴量抽出部(特徴量抽出手段)
3 クラスタリング計算装置
4 識別部(識別手段)
10 記憶手段(推定値記憶手段、観測量記憶手段)
21 パワーベクトル読込部(読込手段)
22 入力制御部
23 割当部
24 未知数初期化部
25 パワーベクトル書込部
26 観測量生成部(観測量生成手段)
27 終了判定部
28 出力制御部(出力制御手段)
30 変分事後分布推論部(事後分布推論手段)
31 Eステップ用計算部(Eステップ用計算手段)
32 Mステップ用計算部(Mステップ用計算手段)
33 EM収束判定部(収束判定手段)
34 ハイパーパラメータ更新条件判定部
35 ハイパーパラメータ更新部
1
3
10 storage means (estimated value storage means, observation amount storage means)
21 Power vector reading part (reading means)
22
27
30 Variational post-distribution reasoning section
31 E step calculation unit (E step calculation means)
32 M step calculation unit (M step calculation means)
33 EM convergence determination unit (convergence determination means)
34 Hyper parameter update
Claims (10)
前記抽出された特徴量を読み込む読込手段と、
前記読み込んだ特徴量をノンパラメトリックベイズモデルに対応したベクトルの観測量に変換する観測量生成手段と、
前記変換された観測量の集合データを蓄積記憶する観測量記憶手段と、
前記観測量の集合データから複数のクラスタをノンパラメトリックベイズモデルにより生成するときの複数のパラメータの事後分布の値をEMアルゴリズムによりそれぞれ推定および更新する事後分布推論手段と、
前記推定および更新された複数のパラメータの事後分布の値を蓄積記憶する推定値記憶手段と、
事前に設定された終了条件が成立したときに前記推定値記憶手段に記憶されている前記複数のパラメータの事後分布の最新の推定値を出力する出力制御手段と、
を備えることを特徴とするクラスタリング計算装置。 In order to estimate the number of speakers of the conversation from the recording data of the conversation whose number of speakers is unknown, feature amount extraction means for extracting a feature amount that characterizes each speaker, and each story from the extracted feature amount A clustering calculation device for estimating a plurality of unknown parameter values when generating a plurality of clusters corresponding to a speaker, and an identification means for identifying each speaker of the conversation based on the estimated plurality of parameter values. The clustering calculation device of the dialization system,
Reading means for reading the extracted feature value;
Observation amount generating means for converting the read feature amount into an observation amount of a vector corresponding to a nonparametric Bayes model;
Observation amount storage means for accumulating and storing the set of converted observation amounts;
Posterior distribution inference means for estimating and updating the posterior distribution values of a plurality of parameters when generating a plurality of clusters from the aggregated data of the observation amount by a nonparametric Bayes model, respectively, using an EM algorithm;
Estimated value storage means for accumulating and storing values of posterior distributions of the estimated and updated parameters;
Output control means for outputting a latest estimated value of the posterior distribution of the plurality of parameters stored in the estimated value storage means when a preset termination condition is satisfied;
A clustering calculation apparatus comprising:
前記EMアルゴリズムのEステップの処理として、dHDP(dynamic Hierarchical Dirichlet Process)モデルにおいて予め定められた事前分布、観測分布および最大クラスタ数と、ハイパーパラメータの設定値と、過去から推定対象の時刻までに変換された観測量の集合データと、過去から最新のMステップまでに推定された隠れ変数の事後分布の推定値とを読み込んで、過去分を含めた演算対象時刻ごと、かつ、クラスタごと、かつ、演算対象時刻別の全データごとに、前記クラスタと、混合比と、前記クラスタ分布の時間変化の程度を表す重みとに関するパラメータの事後分布の値を演算するEステップ用計算手段と、
前記EMアルゴリズムのMステップの処理として、前記ハイパーパラメータの設定値と、過去から推定対象の時刻までに変換された観測量の集合データと、過去から最新のEステップまでに推定されたパラメータの事後分布の推定値とを読み込んで、過去分を含めた演算対象時刻ごと、かつ、演算対象時刻別の全データごとに、2種類の隠れ変数の事後分布の値を推定し、前記2種類の隠れ変数のうち、前記クラスタ分布の時間変化の程度を表す重みに関連付けられた第1隠れ変数の事後分布の値についてはクラスタごとに演算し、前記第1隠れ変数および前記混合比に関連付けられた第2隠れ変数の事後分布の値については、演算対象時刻から過去に遡及した時刻ごとに演算するMステップ用計算手段と、
前記Eステップの処理と前記Mステップの処理とを交互に予め定められた回数だけ繰り返し実行させる制御を行う収束判定手段と、
を備えることを特徴とする請求項1に記載のクラスタリング計算装置。 The posterior distribution inference means is
As the processing of the E step of the EM algorithm, conversion is performed from the past to the estimation target time, the pre-distribution, observation distribution and maximum number of clusters determined in advance in the dHDP (dynamic Hierarchical Dirichlet Process) model, the set value of the hyperparameter Read the aggregate data of the observed quantity and the estimated value of the posterior distribution of the hidden variable estimated from the past to the latest M steps, and for each calculation target time including the past, for each cluster, and E step calculation means for calculating a value of a posterior distribution of a parameter related to the cluster, a mixture ratio, and a weight indicating a degree of temporal change of the cluster distribution, for all data for each calculation target time;
As the processing of the M step of the EM algorithm, the set value of the hyper parameter, the collective data of the observation amount converted from the past to the estimation target time, and the posterior of the parameter estimated from the past to the latest E step The estimated values of the distribution are read in, and the values of the posterior distributions of the two types of hidden variables are estimated for each calculation target time including the past and for every data for each calculation target time. Among the variables, the value of the posterior distribution of the first hidden variable associated with the weight representing the degree of temporal change of the cluster distribution is calculated for each cluster, and the first hidden variable and the mixture ratio associated with the mixture ratio are calculated. For the value of the posterior distribution of the two hidden variables, M step calculation means for calculating each time retroactively from the calculation target time,
Convergence determining means for performing control to repeatedly execute the process of the E step and the process of the M step alternately a predetermined number of times;
The clustering calculation apparatus according to claim 1, further comprising:
観測量の集合データと、隠れ変数の事後分布の推定値とについて、推定対象の時刻から事前に設定された定数または直前のMステップの推定値を反映した変動数分だけ過去に遡及した時刻のデータを読み込み、推定対象の時刻から事前に設定された設定値分だけ遡及した過去の時刻までを演算対象時刻として、前記クラスタと、前記混合比と、前記重みとに関するパラメータの事後分布の値を演算し、クラスタごとの演算のためにクラスタを更新する処理を実行するたびに、事前に設定された再推定すべきクラスタの判断基準に基づいて、推定処理対象のクラスタを再推定すべきか否か判別し、再推定すべきクラスタである場合に、前記混合比に関するパラメータの事後分布の値を演算し、
前記Mステップ用計算手段は、
観測量の集合データと、パラメータの事後分布の推定値とについて、推定対象の時刻から事前に設定された定数または直前のMステップの推定値を反映した変動数分だけ過去に遡及した時刻のデータを読み込み、推定対象の時刻から事前に設定された設定値分まで遡及した過去の時刻までを演算対象時刻として、前記第1隠れ変数および第2隠れ変数の事後分布の値を演算し、クラスタごとの演算のためにクラスタを更新する処理を実行するたびに、前記判断基準に基づいて、推定処理対象のクラスタを再推定すべきか否か判別し、再推定すべきクラスタである場合に、前記第1隠れ変数の事後分布の値を演算することを特徴とする請求項2に記載のクラスタリング計算装置。 The calculation means for the E step is:
For the collective data of observations and the estimated value of the posterior distribution of hidden variables, the time of retroactively reflecting the number of fluctuations reflecting the previously set constant or the estimated value of the previous M step from the estimation target time The data is read, and the posterior distribution values of the parameters related to the cluster, the mixture ratio, and the weight are calculated as the calculation target time from the estimation target time to the past time set in advance by the set value set in advance. Whether to re-estimate the target cluster for estimation based on the preset criteria for re-estimating the cluster each time it performs a calculation and updates the cluster for each cluster operation If the cluster is to be discriminated and re-estimated, the value of the posterior distribution of the parameter related to the mixture ratio is calculated,
The M step calculating means includes:
For the aggregated data of the observed quantities and the estimated values of the posterior distribution of parameters, the data of the time retroactively reflected by the number of fluctuations reflecting the constants set in advance from the estimated time or the estimated value of the previous M step And calculating the values of the posterior distributions of the first hidden variable and the second hidden variable from the estimation target time to the past set time set in advance as the calculation target time, for each cluster Each time the process of updating the cluster for the calculation of is performed, it is determined whether or not the estimation target cluster is to be reestimated based on the determination criterion. The clustering calculation apparatus according to claim 2, wherein a value of a posterior distribution of one hidden variable is calculated.
前記読込手段によって、前記抽出された特徴量を読み込む特徴量読込ステップと、
前記観測量生成手段によって、前記読み込んだ特徴量をノンパラメトリックベイズモデルに対応したベクトルの観測量に変換し、前記変換された観測量の集合データを記憶手段に順次蓄積する観測量蓄積ステップと、
前記事後分布推論手段によって、前記観測量の集合データから複数のクラスタをノンパラメトリックベイズモデルにより生成するときの複数のパラメータの事後分布の値をEMアルゴリズムによりそれぞれ推定し、当該推定値を前記記憶手段に順次格納および更新する事後分布推定ステップと、
前記出力制御手段によって、事前に設定された終了条件が成立したときに前記記憶手段に記憶されている前記複数のパラメータの事後分布の最新の推定値を出力する推定値出力ステップと、
を含んで実行することを特徴とするクラスタリング計算方法。 In a dialization system for estimating the number of speakers of the conversation from conversation recording data whose number of speakers is unknown, storage means, reading means, observation generation means, posterior distribution inference means, output control means, And a clustering calculation of a clustering calculation device for estimating values of a plurality of unknown parameters when generating a plurality of clusters corresponding to each speaker from a feature amount characterizing each speaker extracted from the recording data A method,
A feature amount reading step of reading the extracted feature amount by the reading means;
An observation amount accumulation step of converting the read feature amount into a vector observation amount corresponding to a non-parametric Bayes model by the observation amount generation unit, and sequentially storing the converted set of observation amounts in a storage unit;
The posterior distribution inference means estimates the posterior distribution values of a plurality of parameters when generating a plurality of clusters from the observation data set by a non-parametric Bayes model using an EM algorithm, and stores the estimated values in the memory A posteriori distribution estimation step for sequentially storing and updating the means;
An estimated value output step for outputting a latest estimated value of the posterior distribution of the plurality of parameters stored in the storage means when a preset end condition is satisfied by the output control means;
A clustering calculation method comprising:
前記事後分布推定ステップにおいて、
前記EMアルゴリズムのEステップの処理として、dHDPモデルにおいて予め定められた事前分布、観測分布および最大クラスタ数と、ハイパーパラメータの設定値と、過去から推定対象の時刻までに変換された観測量の集合データと、過去から最新のMステップまでに推定された隠れ変数の事後分布の推定値とを読み込んで、推定対象の時刻に過去分を含めた演算対象時刻ごと、かつ、クラスタごと、かつ、前記演算対象時刻別の全データごとに、前記クラスタと、混合比と、前記クラスタ分布の時間変化の程度を表す重みとに関するパラメータの事後分布の値を演算する段階と、
前記EMアルゴリズムのMステップの処理として、前記ハイパーパラメータの設定値と、過去から推定対象の時刻までに変換された観測量の集合データと、過去から最新のEステップまでに推定されたパラメータの事後分布の推定値とを読み込んで、推定対象の時刻に過去分を含めた演算対象時刻ごと、かつ、前記演算対象時刻別の全データごとに、2種類の隠れ変数の事後分布の値を推定し、前記2種類の隠れ変数のうち、前記クラスタ分布の時間変化の程度を表す重みに関連付けられた第1隠れ変数の事後分布の値についてはクラスタごとに演算し、前記第1隠れ変数および前記混合比に関連付けられた第2隠れ変数の事後分布の値については、前記演算対象時刻から過去に遡及した時刻ごとに演算する段階とを含み、
前記Eステップの処理と前記Mステップの処理とを交互に予め定められた回数だけ繰り返し実行することを特徴とする請求項4に記載のクラスタリング計算方法。 The posterior distribution inference means is
In the posterior distribution estimation step,
As the processing of the E step of the EM algorithm, a set of a prior distribution, observation distribution and maximum number of clusters determined in advance in the dHDP model, a set value of the hyperparameter, and an observation amount converted from the past to the estimation target time Read the data and the estimated value of the posterior distribution of the hidden variable estimated from the past to the latest M step, for each calculation target time including the past in the estimation target time, for each cluster, and Calculating the value of the posterior distribution of the parameter related to the cluster, the mixture ratio, and the weight representing the degree of temporal change of the cluster distribution for every data for each calculation target time;
As the processing of the M step of the EM algorithm, the set value of the hyper parameter, the collective data of the observation amount converted from the past to the estimation target time, and the posterior of the parameter estimated from the past to the latest E step The estimated value of the distribution is read, and the value of the posterior distribution of the two types of hidden variables is estimated for each calculation target time including the past in the estimation target time and for each data for each calculation target time. Of the two types of hidden variables, the value of the posterior distribution of the first hidden variable associated with the weight representing the degree of temporal change of the cluster distribution is calculated for each cluster, and the first hidden variable and the mixture The value of the posterior distribution of the second hidden variable associated with the ratio includes calculating each time retroactively from the calculation target time,
The clustering calculation method according to claim 4, wherein the processing of the E step and the processing of the M step are alternately and repeatedly executed a predetermined number of times.
前記Eステップにおいて、観測量の集合データと、隠れ変数の事後分布の推定値とについては、推定対象の時刻から事前に設定された定数または直前のMステップの推定値を反映した変動数分だけ過去に遡及した時刻のデータを読み込み、
前記Mステップにおいて、観測量の集合データと、パラメータの事後分布の推定値とについては、推定対象の時刻から事前に設定された定数または直前のMステップの推定値を反映した変動数分だけ過去に遡及した時刻のデータを読み込むことを特徴とする請求項5に記載のクラスタリング計算方法。 The posterior distribution inference means is
In the E step, the observation amount set data and the estimated value of the posterior distribution of the hidden variable are the number of fluctuations reflecting the constant set in advance from the estimation target time or the estimated value of the immediately preceding M step. Read the data of retroactive time,
In the M step, the observation amount set data and the estimated value of the posterior distribution of the parameter are past by the number of fluctuations reflecting the constant set in advance from the estimation target time or the estimated value of the immediately preceding M step. The clustering calculation method according to claim 5, wherein data at a time retroactively read is read.
前記Eステップにおいて、推定対象の時刻から事前に設定された設定値分だけ遡及した過去の時刻までを演算対象時刻として、前記クラスタと、前記混合比と、前記重みとに関するパラメータの事後分布の値を演算し、
前記Mステップにおいて、推定対象の時刻から事前に設定された設定値分まで遡及した過去の時刻までを演算対象時刻として、前記第1隠れ変数および第2隠れ変数の事後分布の値を演算することを特徴とする請求項5に記載のクラスタリング計算方法。 The posterior distribution inference means is
In the E step, the value of the posterior distribution of the parameters relating to the cluster, the mixture ratio, and the weight is calculated from the estimation target time to a past time that is retroactive by a set value set in advance. And
In the M step, calculating the values of the posterior distributions of the first hidden variable and the second hidden variable with the calculation target time from the estimation target time to the past set time set in advance. The clustering calculation method according to claim 5, wherein:
前記Eステップにおいて、クラスタごとの演算のためにクラスタを更新する処理を実行するたびに、事前に設定された再推定すべきクラスタの判断基準に基づいて、推定処理対象のクラスタを再推定すべきか否か判別し、再推定すべきクラスタである場合にだけ、前記混合比に関するパラメータの事後分布の値を演算し、
前記Mステップにおいて、クラスタごとの演算のためにクラスタを更新する処理を実行するたびに、前記判断基準に基づいて、推定処理対象のクラスタを再推定すべきか否か判別し、再推定すべきクラスタである場合にだけ、前記第1隠れ変数の事後分布の値を演算することを特徴とする請求項5に記載のクラスタリング計算方法。 The posterior distribution inference means is
Whether the estimation target cluster should be re-estimated based on a preset criterion for re-estimation of the cluster every time the process of updating the cluster for the computation for each cluster is executed in the E step. Only if it is a cluster to be re-estimated, calculate the value of the posterior distribution of the parameter related to the mixture ratio,
In the M step, each time a process for updating a cluster is performed for computation for each cluster, it is determined whether or not a cluster to be estimated is to be reestimated based on the determination criterion, and a cluster to be reestimated The clustering calculation method according to claim 5, wherein the value of the posterior distribution of the first hidden variable is calculated only when
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009015338A JP5022387B2 (en) | 2009-01-27 | 2009-01-27 | Clustering calculation apparatus, clustering calculation method, clustering calculation program, and computer-readable recording medium recording the program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009015338A JP5022387B2 (en) | 2009-01-27 | 2009-01-27 | Clustering calculation apparatus, clustering calculation method, clustering calculation program, and computer-readable recording medium recording the program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010175614A true JP2010175614A (en) | 2010-08-12 |
JP5022387B2 JP5022387B2 (en) | 2012-09-12 |
Family
ID=42706684
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009015338A Active JP5022387B2 (en) | 2009-01-27 | 2009-01-27 | Clustering calculation apparatus, clustering calculation method, clustering calculation program, and computer-readable recording medium recording the program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5022387B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012242590A (en) * | 2011-05-19 | 2012-12-10 | Nippon Telegr & Teleph Corp <Ntt> | Speaker classification device, speaker classification method, and program |
JP2014219557A (en) * | 2013-05-08 | 2014-11-20 | カシオ計算機株式会社 | Voice processing device, voice processing method, and program |
JP2018063313A (en) * | 2016-10-12 | 2018-04-19 | 日本電信電話株式会社 | The number of speakers estimation device, the number of speakers estimation method, and program |
JP2018189985A (en) * | 2018-08-02 | 2018-11-29 | 株式会社東芝 | Electronic equipment and method for controlling electronic equipment |
JP2022086961A (en) * | 2020-11-30 | 2022-06-09 | ネイバー コーポレーション | Speaker dialization method, system, and computer program using voice activity detection based on speaker embedding |
JP2022109867A (en) * | 2021-01-15 | 2022-07-28 | ネイバー コーポレーション | Speaker diarization method, system, and computer program coupled with speaker identification |
JP2022541380A (en) * | 2019-09-05 | 2022-09-26 | ザ・ジョンズ・ホプキンス・ユニバーシティ | Multi-speaker diarization of speech input using neural networks |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008203474A (en) * | 2007-02-20 | 2008-09-04 | Nippon Telegr & Teleph Corp <Ntt> | Multi-signal emphasizing device, method, program, and recording medium thereof |
-
2009
- 2009-01-27 JP JP2009015338A patent/JP5022387B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008203474A (en) * | 2007-02-20 | 2008-09-04 | Nippon Telegr & Teleph Corp <Ntt> | Multi-signal emphasizing device, method, program, and recording medium thereof |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012242590A (en) * | 2011-05-19 | 2012-12-10 | Nippon Telegr & Teleph Corp <Ntt> | Speaker classification device, speaker classification method, and program |
JP2014219557A (en) * | 2013-05-08 | 2014-11-20 | カシオ計算機株式会社 | Voice processing device, voice processing method, and program |
JP2018063313A (en) * | 2016-10-12 | 2018-04-19 | 日本電信電話株式会社 | The number of speakers estimation device, the number of speakers estimation method, and program |
JP2018189985A (en) * | 2018-08-02 | 2018-11-29 | 株式会社東芝 | Electronic equipment and method for controlling electronic equipment |
JP2022541380A (en) * | 2019-09-05 | 2022-09-26 | ザ・ジョンズ・ホプキンス・ユニバーシティ | Multi-speaker diarization of speech input using neural networks |
JP7340630B2 (en) | 2019-09-05 | 2023-09-07 | ザ・ジョンズ・ホプキンス・ユニバーシティ | Multi-speaker diarization of speech input using neural networks |
JP2022086961A (en) * | 2020-11-30 | 2022-06-09 | ネイバー コーポレーション | Speaker dialization method, system, and computer program using voice activity detection based on speaker embedding |
JP7273078B2 (en) | 2020-11-30 | 2023-05-12 | ネイバー コーポレーション | Speaker Diarization Method, System, and Computer Program Using Voice Activity Detection Based on Speaker Embedding |
JP2022109867A (en) * | 2021-01-15 | 2022-07-28 | ネイバー コーポレーション | Speaker diarization method, system, and computer program coupled with speaker identification |
JP7348445B2 (en) | 2021-01-15 | 2023-09-21 | ネイバー コーポレーション | Speaker diarization method, system, and computer program combined with speaker identification |
Also Published As
Publication number | Publication date |
---|---|
JP5022387B2 (en) | 2012-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11900947B2 (en) | Method and system for automatically diarising a sound recording | |
JP5022387B2 (en) | Clustering calculation apparatus, clustering calculation method, clustering calculation program, and computer-readable recording medium recording the program | |
JP5059115B2 (en) | Voice keyword identification method, apparatus, and voice identification system | |
CN105261357B (en) | Sound end detecting method based on statistical model and device | |
EP2609587B1 (en) | System and method for recognizing a user voice command in noisy environment | |
JP4590692B2 (en) | Acoustic model creation apparatus and method | |
JP5229219B2 (en) | Speaker selection device, speaker adaptation model creation device, speaker selection method, speaker selection program, and speaker adaptation model creation program | |
JP2010152751A (en) | Statistic model learning device, statistic model learning method and program | |
JP6845489B2 (en) | Speech processor, speech processing method, and speech processing program | |
JP2002358096A (en) | Method and device for training parameters of pattern recognition system exactly associated with one implemented transform example of one pattern from list | |
US20040122672A1 (en) | Gaussian model-based dynamic time warping system and method for speech processing | |
Naik et al. | Filter selection for speaker diarization using homomorphism: speaker diarization | |
JP5070591B2 (en) | Noise suppression device, computer program, and speech recognition system | |
JP2008298844A (en) | Noise suppressing device, computer program, and speech recognition system | |
Vavrek et al. | Query-by-example retrieval via fast sequential dynamic time warping algorithm | |
JP2008058876A (en) | Method of deducing sound signal segment, and device and program and storage medium thereof | |
JP7216348B2 (en) | Speech processing device, speech processing method, and speech processing program | |
Stafylakis et al. | A review of recent advances in speaker diarization with bayesian methods | |
WO2009122780A1 (en) | Adaptive speaker selection device, adaptive speaker selection method, and recording medium | |
Rahbar et al. | Independent-speaker isolated word speech recognition based on mean-shift framing using hybrid HMM/SVM classifier | |
Khan et al. | Word recognition in continuous speech with background noise based on posterior probability measure | |
JP2023004116A (en) | Utterance section detection device, utterance section detection method and utterance section detection device program | |
CN116978360A (en) | Voice endpoint detection method and device and computer equipment | |
Kim et al. | Rapid online adaptation based on transformation space model evolution | |
Gerazov et al. | Evaluation of Noise Robustness of ASR Features on a Subset of TIDigits Database |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101215 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20110819 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120123 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120316 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120612 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120615 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5022387 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150622 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |