JP7103235B2 - パラメタ算出装置、パラメタ算出方法、及び、パラメタ算出プログラム - Google Patents

パラメタ算出装置、パラメタ算出方法、及び、パラメタ算出プログラム Download PDF

Info

Publication number
JP7103235B2
JP7103235B2 JP2018568547A JP2018568547A JP7103235B2 JP 7103235 B2 JP7103235 B2 JP 7103235B2 JP 2018568547 A JP2018568547 A JP 2018568547A JP 2018568547 A JP2018568547 A JP 2018568547A JP 7103235 B2 JP7103235 B2 JP 7103235B2
Authority
JP
Japan
Prior art keywords
degree
class
data
calculated
dispersion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018568547A
Other languages
English (en)
Other versions
JPWO2018151124A1 (ja
Inventor
孝文 越仲
隆之 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2018151124A1 publication Critical patent/JPWO2018151124A1/ja
Application granted granted Critical
Publication of JP7103235B2 publication Critical patent/JP7103235B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、データを分類する基であるデータを提供するパラメタ算出装置等に関する。
非特許文献1には、パターン学習装置の一例が記載されている。該パターン学習装置は、話者の違いに基づき音声を分類する話者認識にて用いられる分類モデルを提供する。図10を参照しながら、該パターン学習装置が有する構成について説明する。図10は、非特許文献1に記載されているようなパターン学習装置が有する構成を示すブロック図である。
学習装置600は、学習部601と、クラスタリング部602と、第1目的関数計算部603と、パラメタ記憶部604と、音声データ記憶部605とを有する。
音声データ記憶部605には、音声データが格納されている。音声データは、たとえば、オーディオに関する複数のセグメントを含む集合である。
以降の説明において、音声データ記憶部605に格納されている音声データは、話者を識別する情報を表すクラスラベルが付与されていないとする。また、説明の便宜上、各セグメントは、1人の話者から発せられた音声のみを含むとする。たとえば、1つのセグメントが、2人以上の話者の音声を含んでいる場合には、話者セグメンテーション部(不図示)を用いて、当該セグメントを、1人の話者のみが含まれているセグメントに分割することによって、1人の話者から発せられた音声のみを含むセグメントを作成することができる。1人の話者から発せられた音声のみを含むセグメントを作成する処理については多くの方法が知られているので、ここでは、該処理に関する詳細な説明を省略する。
第1目的関数計算部603は、第1目的関数が表す処理に従い値を算出する。該第1目的関数が表す処理に従い算出された値は、クラスタリング部602における処理にて用いられる。
クラスタリング部602は、音声データ記憶部605に格納されている音声データを、第1目的関数が最大(または、最小)となるように分類し、該分類に応じたクラスラベル(以降、単に、「ラベル」とも表す)を音声データに対して付与する。
学習部601は、クラスタリング部602によって付与されたクラスラベルと、学習データとを処理対象として確率的線形判別分析(PLDA)を実行することにより、PLDAに関する分類モデル(以降、「PLDAモデル」と表す)に含まれているパラメタ(以降、「PLDAパラメタ」と表す)を推定する。PLDAは、Probabilistic_Linear_Discriminant_Analysisの略称を表す。PLDAモデルは、たとえば、音声データに関する話者を識別する場合に用いられるモデルである。
図11を参照しながら、学習部601が有する構成について詳細に説明する。図11は、学習部601が有する構成を示すブロック図である。
学習部601は、パラメタ初期化部611と、クラスベクトル推定部612と、パラメタ算出部613と、第2目的関数計算部614とを有する。
第2目的関数計算部614は、上述した第1目的関数とは異なる第2目的関数が表す処理に従い値を算出する処理を実行する。該第2目的関数が表す処理に従い算出された値は、パラメタ算出部613における処理にて用いられる。パラメタ初期化部611は、PLDAパラメタを初期化する。クラスベクトル推定部612は、クラスラベルと、音声データとに基づき、該音声データの特徴を表す話者クラスベクトルを推定する。パラメタ算出部613は、第2目的関数計算部614が算出する値が最大(または、最小)である場合におけるPLDAパラメタを算出する。
次に、学習装置600における処理について説明する。
クラスタリング部602は、第1目的関数計算部603によって算出された第1目的関数の値が最大(または、最小)となるように、音声データ記憶部605に格納されているセグメントを、所定の類似度に基づきクラスタリングすることによって、該セグメントが分類されたクラスタを作成する。該第1目的関数は、たとえば、上述したセグメント間の類似度に基づき定義される。類似度は、たとえば、ユークリッド距離、コサイン類似度等の類似の程度を表す指標である。クラスタリング部602は、第1目的関数に関する処理として、たとえば、クラスタに含まれているセグメント間の類似度を最大にする処理、異なるクラスタ間の類似度を最小にする処理、または、クラスラベルに関する情報利得(information_gain)を、情報理論に基づき導出された処理に従い最大にする。クラスタリング部602における処理に関しては、話者クラスタリングに適用可能な、種々の目的関数とその最適化アルゴリズムが知られているので、ここでは、詳細な説明を省略する。
学習部601は、クラスタリング部602が出力した分類結果(すなわち、オーディオセグメントごとに付与されたクラスラベル)を入力し、さらに、音声データ記憶部605に格納されている音声データを読み取る。学習部601は、読み取った音声データと、該音声データに関するクラスラベルとに基づき、最尤基準に従い教師付き学習処理を実行することによってPLDAパラメタを推定し、推定したPLDAパラメタを出力する。
また、特許文献1乃至特許文献3には、上述したようなモデルに関連した技術が開示されている。
特許文献1には、電子文書を複数のクラスに分類する文書分類装置が開示されている。該文書分類装置は、クラスを表すラベルが付与された電子文書に基づき、該ラベルが付与されていない電子文書に関する該ラベルを推定する。
特許文献2には、話者を判別する装置に対して、該装置が話者を推定する基である判別関数を出力する学習装置が開示されている。該判別関数は、所定のカーネル関数の線形和によって与えられている。該学習装置は、話者が与えられている学習データに基づき、該判別関数を構成している係数を算出する。
特許文献3には、画像データに関する特徴を表す特徴量を算出する特徴量算出装置が開示されている。該特徴量算出装置は、画像データを認識する認識装置に、算出した特徴量を出力する。
特開2015-176511号公報 特開2012-118668号公報 特開2010-271787号公報
Subhadeep Dey, Srikanth Madikeri, and Petr Motlicek, 「Information theoretic clustering for unsupervised domain-adaptation」, Proceedings of the 41st IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP_2016), March 2016.
しかし、非特許文献1等に記載されているような学習装置は、最尤という観点において、最適なPLDAパラメタを算出することができない。この理由は、該学習装置においては、PLDAパラメタを推定する場合の基準(たとえば、第2目的関数に関する基準)とは異なる基準(たとえば、第1目的関数に関する基準)に従い、未知のデータ(パターン)に関するクラスラベルが決定されるからである。この理由を具体的に説明する。
クラスタリング部602は、クラスタ内のオーディオセグメント間の類似度(最小化)や情報利得を最大化することを表す第1目的関数に従いクラスラベルを決定する。これに対し、パラメタ算出部613は、PLDAモデルに関する尤度等の第2目的関数に基づき、PLDAパラメタを算出する。したがって、第1目的関数と、第2目的関数とは異なっている。当該学習装置が複数の目的関数に従い処理を実行するので、当該学習装置によって算出されるPLDAパラメタは、学習データに対する最尤の観点から好適であるとは限らず、さらに、認識精度の観点からも好適であるとは限らない。
同様に、特許文献1乃至特許文献3に開示されたいずれの装置を用いたとしても、最尤の観点、または、認識精度の観点から、好適なパラメタが算出されるとは限らない。
そこで、本発明の目的の1つは、データを正確に分類する基となるモデルを作成することが可能なパラメタを算出するパラメタ算出装置等を提供することである。
本発明の1つの態様として、パラメタ算出装置は、
データと、所定の分布に従った値と、該データが分類されたクラス間の散らばり度と、該クラス内の散らばり度との間の関係性を表す関係性情報に関して、前記所定の分布に従った値を算出し、算出した値を複数含んでいるクラスベクトルを作成する作成手段と、
前記クラスベクトルと前記データとに基づき、前記データが1つクラスに分類される場合の分類のされやすさの程度を推定する推定手段と、
前記推定手段が算出した程度に基づき、前記データが前記関係性情報に適合している程度が高くなる場合における、前記クラス間の散らばり度と、前記クラス内の散らばり度とを算出する算出手段と
を備える。
また、本発明の他の態様として、パラメタ算出方法は、
情報処理装置によって、データと、所定の分布に従った値と、該データが分類されたクラス間の散らばり度と、該クラス内の散らばり度との間の関係性を表す関係性情報に関して、前記所定の分布に従った値を算出し、算出した値を複数含んでいるクラスベクトルを作成し、前記クラスベクトルと前記データとに基づき、前記データが1つクラスに分類される場合の分類のされやすさの程度を推定し、算出した程度に基づき、前記データが前記関係性情報に適合している程度が高くなる場合における、前記クラス間の散らばり度と、前記クラス内の散らばり度とを算出する。
また、本発明の他の態様として、パラメタ算出プログラムは、
データと、所定の分布に従った値と、該データが分類されたクラス間の散らばり度と、該クラス内の散らばり度との間の関係性を表す関係性情報に関して、前記所定の分布に従った値を算出し、算出した値を複数含んでいるクラスベクトルを作成する作成機能と、
前記クラスベクトルと前記データとに基づき、前記データが1つクラスに分類される場合の分類のされやすさの程度を推定する推定機能と、
前記推定機能によって算出された程度に基づき、前記データが前記関係性情報に適合している程度が高くなる場合における、前記クラス間の散らばり度と、前記クラス内の散らばり度とを算出する算出機能と
をコンピュータに実現させる。
さらに、同目的は、係るプログラムを記録するコンピュータが読み取り可能な記録媒体によっても実現される。
本発明に係るパラメタ算出装置等によれば、データを正確に分類する基となるモデルを作成することが可能なパラメタを算出することができる。
本発明の第1の実施形態に係るパラメタ算出装置が有する構成を示すブロック図である。 第1の実施形態に係る教師なし学習部が有する構成を示すブロック図である。 第1の実施形態に係るパラメタ算出装置における処理の流れを示すフローチャートである。 本発明の第2の実施形態に係るパラメタ算出装置が有する構成を示すブロック図である。 第2の実施形態に係る準教師付き学習部が有する構成を示すブロック図である。 第2の実施形態に係るパラメタ算出装置における処理の流れを示すフローチャートである。 本発明の第3の実施形態に係るパラメタ算出装置が有する構成を示すブロック図である。 第3の実施形態に係るパラメタ算出装置における処理の流れを示すフローチャートである。 本発明の各実施形態に係るパラメタ算出装置を実現可能な計算処理装置のハードウェア構成例を概略的に示すブロック図である。 パターン学習装置が有する構成を示すブロック図である。 学習部が有する構成を示すブロック図である。
まず、本願発明の理解を容易にするため、本願発明にて用いられている技術について詳細に説明する。
また、以降の説明においては、説明の便宜上、確率、尤度、分散等の数学的な用語を用いて説明するが、数学的に定義される指標とは異なる指標であってもよい。たとえば、確率は、事象が生じる生じやすさの程度を表す指標であってもよい。尤度は、たとえば、2つの事象の関連性(または、類似性、適合性等)を表す指標であってもよい。分散は、あるデータが散らばっている程度(散らばり度)を表す指標であってもよい。すなわち、本発明に係るパラメタ算出装置は、数学的な用語(たとえば、確率、尤度、分散)を用いて説明する処理に限定されない。
以降の説明においては、音声データ等のデータは、複数のクラスに分類されるとする。また、1つのクラスに属しているデータを「パターン」と表すこともある。たとえば、話者認識処理において、データは、たとえば、音声データを構成しているオーディオセグメントである。話者認識処理において、クラスは、たとえば、話者を表すクラスである。
クラスh(hは、自然数)に属しているパターン(学習データ)を、ある一定の次元数を有する実ベクトルであるxを用いて表す場合に、該学習データを式1のように表すことができる。
Figure 0007103235000001
ただし、μは、ある複数の数値を含む実ベクトルであり、たとえば、xの平均値を表す。yは、所定の分布(たとえば、後述する式2に示された多次元正規分布)に従う確率変数であり、クラスhに固有な潜在変数である。Vは、異なるクラス間の分散を表すパラメタを表す。εは、クラス内の分散を表す確率変数を表し、たとえば、式3(後述)に示された多次元正規分布に従うパラメタを表す。
Figure 0007103235000002
ただし、Iは、単位行列(identity_matrix)を表す。N(0,I)は、平均が0であり、かつ、分散が1である要素を複数含む多次元の正規分布を表す。
Figure 0007103235000003
ただし、Cは、xにおける各要素を用いて定義される共分散行列(covariance_matrix)を表す。N(0,C)は、平均が0であり、かつ、分散がCである要素を複数含む多次元の正規分布を表す。
式1乃至式3より、学習データxは、平均がμであり、分散が(C+VV)である正規分布に従う。この分散のうち、Cは、1つのクラスベクトルに関するノイズを表しているので、クラス内における分散として考えることができる。また、Vは、異なるベクトルに関して定義されているので、VVは、クラス間における分散として考えることができる。
式1乃至式3に基づきクラスを推定する基であるモデル(PLDAモデル)は、線形判別分析(Linear Discriminant Analysis:LDA)における確率モデルであると考えることができる。この場合に、PLDAパラメタは、式4に示すような、パラメタθを用いて規定される。
Figure 0007103235000004
パラメタθ(式4)は、たとえば、最尤基準(maximum_likelihood_criteria)に基づく教師付き学習(supervised_learning)に従った処理を実行することによって決定される。該処理においては、学習データ(すなわち、学習セットX=(x,x,・・・,x))、及び、各学習データに関連付けされたクラスラベル(すなわち、Z=(z,z,・・・,z))に基づき、パラメタθ(式4)が決定される。
パラメタθ(式4)のうち、μは、学習セットXに含まれている学習データxの平均として算出される。また、学習セットXがセンタリングされている場合(すなわち、学習セットXに含まれている学習データxの平均が0になるように移動されている場合)に、μは、0であってもよい。
パラメタθ(式4)の値を決定することによって、決定されたパラメタθを含むPLDAモデルに従い、各学習データに関するクラスを決定する認識処理が可能である。たとえば、学習データxと、学習データxとの間の類似度Sは、式5に示されているような処理に従い、2つの仮説H、及び、仮説Hに関する対数尤度比として算出される。
Figure 0007103235000005
ただし、仮説Hは、学習データxと、学習データxとが異なるクラスに属している(すなわち、異なるクラスベクトルを用いて表される)という仮説を表す。仮説Hは、学習データxと、学習データxとが同じクラスに属している(すなわち、同じクラスベクトルを用いて表される)という仮説を表す。「log」は、たとえば、ネイピア数を底とする対数関数を表す。「p」は、確率を表す。「p(A|B)」は、事象Bが生じる場合に事象Aが生じる条件付き確率を表す。類似度Sが大きな値であるほど、仮説Hが成立している可能性は高い。すなわち、この場合に、学習データxと、学習データxとが同じクラスに属している可能性は高い。類似度Sが小さな値であるほど、仮説Hが成立している可能性は高い。すなわち、この場合に、学習データxと、学習データxとが異なるクラスに属している可能性が高い。
次に、式1乃至式5を参照しながら説明したような処理に従い、パラメタ(式4)を算出する学習処理について説明する。
該学習処理においては、まず、パラメタ(式4)が初期化される。次に、初期化された(または、初期化後に更新された)パラメタ(式4)に基づき、学習データ(x,x,・・・,x)に対する話者クラスベクトル(y,y,・・・,y)の事後分布が推定される。ここで、Kは、話者クラスベクトルの個数を表す。次に、該話者クラスベクトルに基づき、目的関数(たとえば、パラメタ(式6)を含むPLDAモデルに学習データが適合している程度を表す尤度)が最大である場合(または、目的関数が増大する場合)におけるパラメタ(式6)が算出される。
潜在変数を伴う最尤推定に関するアルゴリズムとして広く知られる期待値最大化(Expectation-Maximization:EM)法に基づき、パラメタ(式6)の値が収束しない間、上述した処理が繰り返し実行される。
目的関数は、必ずしも、尤度である必要はなく、該尤度の下限を表す補助関数であってもよい。補助関数を用いることにより、尤度が単調に増加することが確実な更新処理手順が得られるので、効率的な学習が可能である。
次に、本発明を実施する実施形態について図面を参照しながら詳細に説明する。
<第1の実施形態>
図1を参照しながら、本発明の第1の実施形態に係るパラメタ算出装置が有する構成について詳細に説明する。図1は、本発明の第1の実施形態に係るパラメタ算出装置101が有する構成を示すブロック図である。
第1の実施形態に係るパラメタ算出装置101は、教師なし学習部102と、学習データ記憶部103と、パラメタ記憶部104とを有する。
学習データ記憶部103には、図10を参照しながら説明したような音声データ等の学習データが格納されている。パラメタ記憶部104には、音声データに関するモデルに含まれているパラメタ(後述する式6)の値が格納される。教師なし学習部102は、学習データ記憶部103に格納されている学習データに対して、式9乃至式11(後述)を参照しながら後述するような処理に従い、モデルに含まれているパラメタ(式6、たとえば、PLDAパラメタ)を算出する。
図2を参照しながら、第1の実施形態に係る教師なし学習部102が有する構成について詳細に説明する。図2は、第1の実施形態に係る教師なし学習部102が有する構成を示すブロック図である。
教師なし学習部102は、初期化部111と、クラスベクトル作成部112と、クラス推定部113と、パラメタ算出部114と、目的関数計算部115と、制御部116とを有する。
初期化部111は、教師なし学習部102が学習データを入力した場合に、パラメタ記憶部104に格納されているパラメタ(後述する式6)の値を初期化する。
目的関数計算部115は、所定の目的関数(たとえば、学習データが、式1に示されているような関係性に適合している程度を表す尤度)に示された処理に従い、該所定の目的関数の値を算出する。
パラメタ算出部114は、目的関数計算部115が該所定の目的関数に関して算出する値が増大する場合(または、該値が最大である場合)におけるパラメタ(後述する式6)を、式9乃至式11を参照しながら後述するような処理に従い算出する。
クラス推定部113は、パラメタ算出部114が算出したパラメタ(式6)を含むモデルに基づき、式8を参照しながら後述するような処理に従い、学習データ記憶部103に格納されている各学習データに関するクラスラベルを推定する。
クラスベクトル作成部112は、ステップS103に示された処理(図3を参照しながら後述する)に従い、各クラスに関するクラスベクトルを算出する。クラスベクトルは、たとえば、式1に示されたyであり、クラスごとに定義されている潜在変数(latent_variable)である。
パラメタ算出部114、クラス推定部113、及び、クラスベクトル作成部112等における処理(すなわち、図3におけるステップS103乃至ステップS106)は、たとえば、所定の目的関数の値が所定の値以下である場合に、交互に、かつ、繰り返し実行される。このような反復処理の結果、所定の目的関数が所定の値よりも大きい場合におけるパラメタ(式6)が算出される。
次に、図3を参照しながら、本発明の第1の実施形態に係るパラメタ算出装置101における処理について詳細に説明する。図3は、第1の実施形態に係るパラメタ算出装置101における処理の流れを示すフローチャートである。
パラメタ算出装置101は、学習データ記憶部103に格納されている学習データを含む学習セットX(=(x,x,・・・,x))を読み取る(ステップS101)。次に、初期化部111は、パラメタ記憶部104に格納されているパラメタ(式6)を初期化する(ステップS102)。
Figure 0007103235000006
ただし、Πは、各クラスに関する事前確率(π,π,・・・,π)を表し、「π+π+・・・+π=1」である。また、Kは、クラスの個数を表す。
初期化部111が初期化する処理は、たとえば、ある定数や、確率を表す値を設定する処理、総和が1であるような複数の値をそれぞれのパラメタに設定する処理、単位行列等を設定する処理、学習セットに関する平均、及び、分散を設定する処理であってもよい。または、初期化する処理は、主成分分析(principal_component_analysis)等の統計的な分析手順に従い算出される値を設定する処理等であってもよい。すなわち、初期化する処理は、上述した例に限定されない。
説明の便宜上、学習セットXは、センタリングされているとする。すなわち、式6において、学習セットXに含まれている各データの平均であるμは、0であるとする。学習セットXがセンタリングされていない場合には、図3に示された処理において、各データの平均値を算出すればよい。
クラスベクトル作成部112は、初期化部111が読み取った学習セットに基づき、クラスベクトルY(=(y,y,・・・,y))を算出する(ステップS103)。y(ただし、1≦i≦K)は、クラスiに関する値を表す。式2に示されているように、クラスベクトルが標準正規分布N(0,I)に従っている場合に、クラスベクトル作成部112は、たとえば、ボックスミュラー(Box-Muller’s_method)法等の乱数に基づく処理に従い複数の値を算出し、算出した該複数の値を含むクラスベクトルYを作成する。
クラスベクトル作成部112は、複数のクラスベクトルを作成してもよい。たとえば、クラスベクトル作成部112は、m(ただし、m≧2)個のクラスベクトル(すなわち、Y(1),Y(2),・・・,Y(m))を作成する。パラメタ算出装置101において、複数のクラスベクトルに関する処理を実行することによって、パラメタ(式6)に関して算出した値に関する計算論的な信頼性が増大する。また、クラスベクトル作成部112が乱数に基づきクラスベクトルを作成する理由の1つは、教師付き学習(supervised_learning)とは異なり、教師なし学習(unsupervised_learning)においては解析解を得るのが困難だからである。
クラス推定部113は、学習セットXに含まれている各学習データx(1≦i≦n)が、K個のクラスベクトルのうち、いずれのクラスに属しているのかを推定する(ステップS104)。ステップS104に関する処理を具体的に説明する。クラス推定部113は、式7に示されたパラメタを入力するとする。
Figure 0007103235000007
ただし、Vtempは、異なるクラス間の分散を表すパラメタを表す。Ctempは、クラス内における分散を表すパラメタに関する値を表す。Πtempは、上述したようなクラスに関する事前確率に関する値を表す。また、学習セットに関しては、上述したようなセンタリング処理が適用されているので、μに関する記載は、式7において省略されている。
クラス推定部113は、入力したパラメタ(式7)に関して、式8に示す処理に従い、m個のクラスベクトルY(j)(1≦j≦m)に関して、それぞれ、学習データxがクラスk(1≦k≦K)に属している確率を算出する。
Figure 0007103235000008
ただし、Y(j)=(y(j) ,y(j) ,・・・,y(j) )。「Zik=1」は、学習データxがクラスk(1≦k≦K)に属していることを表す。また、「exp」は、ネイピア数を底(base)とする指数関数を表す。また、Ctemp -1は、Ctempの逆行列を算出する処理を表す。ある文字の右上に付された文字「T」は、行と列とを転置する処理を表す。
ステップS104に示された処理の後に、パラメタ算出部114は、クラスベクトル作成部112が作成したクラスベクトルY、及び、クラス推定部113が推定した確率(式8)を入力し、式9乃至式11に示された処理に従い、パラメタ(式6)を求める(ステップS105)。
Figure 0007103235000009

Figure 0007103235000010

Figure 0007103235000011
ただし、「Σ」は、総和を算出する処理を表す。
尚、式9は、該音声データの特徴を表すクラス間の分散を表すパラメタを算出する処理を表す。式10は、クラス内の分散を算出する処理を表す。式11は、各クラスの事前分布を算出する処理を表す。
式9乃至式11に示された処理は、期待値最大化(Expectation-Maximization:EM)法に基づき得られた処理であり、得られているパラメタを前提として、目的関数(たとえば、尤度の下限として定義される補助関数)を最大化できることが保証されている。すなわち、パラメタ算出部114は、式9乃至式11に示された処理を実行することによって、所定の目的関数の値が増大する場合(または、該所定の目的関数の値が最大である場合)におけるパラメタ(式6)を算出する。
制御部116は、所定の収束判定条件を満たしているか否かを判定する(ステップS106)。所定の収束判定条件は、所定の目的関数の値の増加が所定の閾値よりも小さい、式9乃至式11に従い算出されたパラメタの変化量の合計が所定の閾値よりも小さい、式12(後述)に示された処理に従い算出されたクラス(すなわち、学習データxが属しているクラス)が変化しない等の条件である。
所定の収束判定条件を満たしていない場合に(ステップS106にてNO)、制御部116は、クラスベクトル作成部112、クラス推定部113、及び、パラメタ算出部114がそれぞれ算出した値に基づき、ステップS103乃至ステップS106に示された処理を実行するよう制御する。パラメタ算出部114は、たとえば、式12に示されているような処理に従い、学習データxが属しているクラスを算出してもよい。
Figure 0007103235000012
ただし、「max」は、以降に示される演算結果の値が最大である場合におけるクラスkを算出する処理を表す。
所定の収束判定条件を満たしている場合に(ステップS106にてYES)、教師なし学習部102は、所定の収束判定条件を満たしているパラメタ(式6)を、パラメタ記憶部104に格納する(ステップS107)。
上述した処理において、学習セットXに関するクラス数Kは、与えられていると仮定した。しかし、クラス数Kは、所定の処理に従い算出されてもよい。この場合に、パラメタ算出装置101は、所定の処理に従いクラス数Kを算出する個数算出部(不図示)を有する。該所定の処理は、たとえば、クラス数Kの所定の値を設定する処理であってもよい。所定の値と、真のクラス数とが異なる場合であっても、式1乃至式12を参照しながら説明したような、パラメタ(式6)の値は、所定の値と真のクラス数とが異なることによる大きな影響は受けない。
また、該所定の処理は、学習セットXに基づき、クラス数を推定する処理であってもよい。たとえば、個数算出部(不図示)は、所定の目的関数(PLDAモデルに学習データが適合している程度(たとえば、尤度))の値と、PLDAモデルに関する複雑さ(すなわち、クラス数)とに基づき、クラス数を算出する。クラス数を算出する処理は、たとえば、赤池情報量規準(Akaike’s_Information_Criterion)、または、最小記述長(minimum_description_length:MDL)に基づき、未知のデータに関するクラスを正確に予測するのに適したクラス数を算出する処理であってもよい。
所定の目的関数は、尤度、または、その下限よりも小さな値を算出する補助関数に限定されない。たとえば、該尤度が最大である場合におけるパラメタ(式6)を求める処理は、該パラメタ(式6)に関する事前確率が与えられた場合に定義される事後確率が最大である場合におけるパラメタ(式6)を求める処理、または、学習データに対するベイズ的な周辺確率が最大である場合におけるパラメタ(式6)を求める処理であってもよい。すなわち、パラメタ(式6)を求める処理は、上述した例に限定されない。
次に、本発明の第1の実施形態に係るパラメタ算出装置101に関する効果について説明する。
第1の実施形態に係るパラメタ算出装置101によれば、データを正確に分類する基となるモデルを作成することが可能なパラメタを算出することができる。この理由は、パラメタ算出装置101が1つの目的関数に従い処理されている場合に、該目的関数に従い算出される学習モデルが、ラベルを高精度に推定する基として適切であるからである。言い換えると、第1の実施形態に係るパラメタ算出装置101によれば、1つの目的関数(尤度等)の観点にて最適なパラメタ(式6)を得ることができる。この理由は、学習データにクラスラベルが割り当てられていない場合であっても、クラスベクトル作成部112、クラス推定部113、及び、パラメタ算出部114が、交互に処理しながら、目的関数計算部115が計算する目的関数の値が増大する場合(または、最大である場合)におけるパラメタ(式6)を求めるからである。
<第2の実施形態>
次に、上述した第1の実施形態を基本とする本発明の第2の実施形態について説明する。
以降の説明においては、本実施形態に係る特徴的な部分を中心に説明すると共に、上述した第1の実施形態と同様な構成については、同一の参照番号を付すことにより、重複する説明を省略する。
図4を参照しながら、本発明の第2の実施形態に係るパラメタ算出装置201が有する構成について詳細に説明する。図4は、本発明の第2の実施形態に係るパラメタ算出装置201が有する構成を示すブロック図である。
パラメタ算出装置201は、準教師付き学習(semi-supervised_learning)部202と、第1学習データ記憶部203と、第2学習データ記憶部204と、パラメタ記憶部104と、クラスラベル記憶部205とを有する。
第1学習データ記憶部203には、第1学習データが格納されている。第1学習データは、たとえば、図1を参照しながら説明したような学習データと同様なデータである。したがって、第1学習データ記憶部203は、図1における学習データ記憶部103を用いて実現することができる。
第2学習データ記憶部204には、第2学習データが格納されている。第2学習データは、たとえば、図1を参照しながら説明したような学習データと同様なデータである。したがって、第2学習データ記憶部204は、図1における学習データ記憶部103を用いて実現することができる。
クラスラベル記憶部205には、各第2学習データに関するクラスラベル(以降、単に「ラベル」とも表す)が格納されている。すなわち、クラスラベル記憶部205には、該第2学習データに関連付けされたクラスラベルが格納されている。該クラスラベルは、第2学習データが属しているクラスを表す情報である。
したがって、第1学習データは、ラベル付けされていないデータ(すなわち、「ラベルなしデータ」)である。第2学習データは、ラベル付けされているデータ(すなわち、「ラベル付きデータ」)である。
準教師付き学習部202は、図6を参照しながら後述するような処理に従い、ラベル付きデータと、ラベルなしデータとに基づき、モデルに含まれているパラメタ(式6)を推定する。
図5を参照しながら、第2の実施形態に係る準教師付き学習部202が有する構成について詳細に説明する。図5は、第2の実施形態に係る準教師付き学習部202が有する構成を示すブロック図である。
準教師付き学習部202は、初期化部111と、クラスベクトル作成部112と、クラス推定部213と、パラメタ算出部114と、目的関数計算部115と、制御部116とを有する。
準教師付き学習部202は、クラス推定部213以外の各構成要素に関しては、第1の実施形態に係る教師なし学習部102が有している構成と同様な構成を有している。準教師付き学習部202と、準教師付き学習部202とを比較すると、たとえば、教師なし学習部102がラベルなしデータを入力するのに対して、準教師付き学習部202が、ラベルなしデータと、ラベル付きデータとを入力する点が異なっている。
クラス推定部213は、ラベルなしデータ(すなわち、第1学習データ)のみに関して、式8を参照しながら上述したような処理に従い、学習データiがクラスkに属している確率を算出する。その後、クラス推定部213は、ラベル付きデータ(すなわち、第2学習データと、該第2学習データに関するラベル)に関して、該第2学習データに関連付けされているラベルが表すクラスに関する確率を「1」に設定し、該クラスと異なるクラスに関する確率を「0」に設定する。
クラス推定部213は、第2学習データに関連付けされているラベルが表すクラスに関する確率を第1値に設定し、該クラスと異なるクラスに関する確率を第2値に設定してもよい。この場合に、第1値は、第2値よりも大きな値であり、かつ、第1値と、第2値との和が1であればよい。第1値、及び、第2値は、所定の値である必要はなく、乱数(または、擬似乱数)であってもよい。クラス推定部213が設定する確率は、上述した例に限定されない。第1値、及び、第2値のうち、少なくともいずれかを乱数に従い算出することによって、過学習問題を低減することができるので、パラメタ算出装置201は、データを、より正確に分類する基となるモデルを作成することが可能なパラメタを算出することができる。
パラメタ算出部114は、クラス推定部213が算出した確率に対して、式9乃至式11に示された処理と同様な処理を実行することによって、パラメタ(式6)を算出する。すなわち、パラメタ算出部114は、ラベル付きデータと、ラベルなしデータとに関して算出された確率に基づき、式9乃至式11に示された処理と同様な処理を実行することによって、パラメタ(式6)を算出する。
次に、図6を参照しながら、本発明の第2の実施形態に係るパラメタ算出装置201における処理について詳細に説明する。図6は、第2の実施形態に係るパラメタ算出装置201における処理の流れを示すフローチャートである。
準教師付き学習部202は、ラベルなしデータと、ラベル付きデータとを含む学習セットを読み取る(ステップS101)。すなわち、準教師付き学習部202は、第1学習データ記憶部203からラベルなしデータ(すなわち、第1学習データ)を読み取り、第2学習データ記憶部204、及び、クラスラベル記憶部205から、ラベル付きデータ(すなわち、第2学習データ、及び、第2学習データに関連付けされたラベル)を読み取る。
初期化部111は、パラメタ(式6)を初期化する(ステップS102)。パラメタ(式6)を初期化する処理は、第1の実施形態にて上述した処理と同様な処理であってもよいし、異なる処理であってもよい。初期化部111は、たとえば、ラベル付きデータに対して、最尤基準に基づく教師付き学習を適用することによって、各パラメタ(式6)の値を算出し、算出した値をパラメタ(式6)の初期値として設定してもよい。
クラスベクトル作成部112は、図3を参照しながら上述した処理と同様な処理を実行することによって、クラスベクトルを作成する(ステップS103)。
クラス推定部213は、ラベルなしデータと、ラベル付きデータとに関して、それぞれ、クラスを推定する(ステップS204)。ステップS204における処理を具体的に説明すると、クラス推定部213は、第1学習データ(すなわち、ラベルなしデータ)について、式8を参照しながら説明したような処理に従い、第1学習データxがクラスkに属している確率を算出する。次に、クラス推定部213は、ラベル付きデータ(すなわち、第2学習データと、該第2学習データに関連付けされたクラスラベル)に関して、第2学習データxが、該クラスラベルが表すクラスに属している確率を1に設定する。クラス推定部213は、ラベル付きデータに関して、第2学習データxが、該クラスラベルが表すクラスと異なるクラスに属している確率を0に設定する。
パラメタ算出部114は、クラスベクトル作成部112が作成したクラスベクトルY、及び、クラス推定部213が推定した確率(式8)を入力し、式9乃至式11に示された処理に従いパラメタ(式6)を算出する。パラメタ算出部114は、式9乃至式11に示された処理を実行することによって、所定の目的関数が増大する(または、最大である)場合におけるパラメタ(式6)の値を算出する。ただし、この処理において、式9乃至式11に示されたiは、ラベル付きデータ、及び、ラベルなしデータを指し示す添え字である。
以降、ステップS106、及び、ステップS107に示された処理が実行される。
次に、本発明の第2の実施形態に係るパラメタ算出装置201に関する効果について説明する。
第2の実施形態に係るパラメタ算出装置201によれば、データを正確に分類する基となるモデルを作成することが可能なパラメタを算出することができる。この理由は、第1の実施形態にて説明した理由と同様な理由である。
第2の実施形態に係るパラメタ算出装置201によれば、ラベルを、より一層、正確に推定する基となるモデルを作成することができる。この理由は、ラベルなしデータと、ラベル付きデータとに基づき、パラメタ(式6)を算出するからである。この理由を、より具体的に説明する。
クラス推定部213は、第1学習データ(すなわち、ラベルなしデータ)があるクラスに属している確率を算出し、さらに、ラベル付きデータに関しては、該ラベルに従いあるクラスに属している確率を、図6を参照しながら上述したような処理に従い設定する。したがって、パラメタ算出装置201がラベルなしデータと、ラベル付きデータとに基づき、パラメタ(式6)を算出するので、ラベル付きデータの割合は、第1の実施形態に比べ増える。この結果、パラメタ算出装置201によれば、ラベルを、より一層、正確に推定する基となるパラメタ(式6)を算出することができる。
<第3の実施形態>
次に、本発明の第3の実施形態について説明する。
図7を参照しながら、本発明の第3の実施形態に係るパラメタ算出装置301が有する構成について詳細に説明する。図7は、本発明の第3の実施形態に係るパラメタ算出装置301が有する構成を示すブロック図である。
第3の実施形態に係るパラメタ算出装置301は、作成部302と、推定部303と、算出部304とを有する。
次に、図8を参照しながら、本発明の第3の実施形態に係るパラメタ算出装置301における処理について詳細に説明する。図8は、第3の実施形態に係るパラメタ算出装置301における処理の流れを示すフローチャートである。
作成部302は、たとえば、式1に例示されているような関係性を表す関係性情報に含まれているパラメタの値を入力する。該関係性情報は、話者が発した音声データ(たとえば、式1におけるx)と、所定の分布(たとえば、式2に例示された正規分布)に従った値(たとえば、式2におけるy)と、異なるクラス間の分散(たとえば、式1におけるV)と、クラス内の分散(たとえば、式1におけるε)との関係性を表す情報である。作成部302は、該関係性に関するパラメタの値として、該異なるクラス間の分散と、該クラス内の分散とを入力する。
作成部302は、該所定の分布に従った値を算出する(ステップS301)。作成部302は、たとえば、上述したようなボックスミュラー法に従い、所定の分布に関する分散を有する値を算出する。作成部302は、たとえば、該クラスの個数分の値を算出する。
推定部303は、該値と、音声データとに対して、ステップS104(図3)、または、ステップS204(図6)に示されている処理と同様な処理を実行することによって、該音声データが1つのクラスに分類される程度(たとえば、確率)を算出する(ステップS302)。式1に示された関係性情報においては、1つのクラスを、たとえば、クラス間の分散の係数(すなわち、y)が相互に類似している程度に基づき定義することができる。
次に、算出部304は、推定部303が算出した程度を入力し、入力した該程度を用いて式9乃至式11を参照しながら説明した処理を実行することによって、パラメタ(たとえば、クラス間の分散と、クラス内の分散)を算出する(ステップS303)。したがって、算出部304は、音声データが関係性情報に適合している程度が増大する(または、最大である)場合における、パラメタ(式6)を算出する。
パラメタ算出装置301は、たとえば、所定の回数分、図3に示された繰り返し処理(ステップS103乃至ステップS106)、または、図6に示された繰り返し処理(ステップS103、ステップS204、ステップS105、及び、ステップS106)を実行してもよい。または、パラメタ算出装置301は、たとえば、式12を参照しながら上述した処理と同様な処理を実行することによって、上述したような繰り返し処理を実行するか否かを判定してもよい。パラメタ算出装置301における処理は、上述した例に限定されない。
したがって、作成部302は、上述したようなクラスベクトル作成部112(図2、または、図5)が有する機能と同様な機能を用いて実現することができる。推定部303は、第1の実施形態に係るクラス推定部113、または、第2の実施形態に係るクラス推定部213が有する機能と同様な機能を用いて実現することができる。算出部304は、上述したようなパラメタ算出部114、目的関数計算部115、及び、制御部116(いずれも、図2または図5)が有する機能と同様な機能を用いて実現することができる。すなわち、パラメタ算出装置301は、第1の実施形態に係るパラメタ算出装置101(図1)、または、第2の実施形態に係るパラメタ算出装置201(図4)が有する機能と同様な機能を用いて実現することができる。
次に、本発明の第3の実施形態に係るパラメタ算出装置301に関する効果について説明する。
第3の実施形態に係るパラメタ算出装置301によれば、データを正確に分類する基となるモデルを作成することが可能なパラメタを算出することができる。この理由は、パラメタ算出装置301が1つの目的関数に基づき、モデルを構成しているパラメタ(式6)を算出するからである。言い換えると、異なる2つの目的関数に基づきパラメタを算出するよりも、1つの目的関数に従いパラメタを算出する方が、正確なモデルを作成できることが多いので、パラメタ算出装置301によれば、データを正確に分類する基となるモデルを作成することが可能なパラメタを算出することができる。
尚、上述した実施形態においては、音声データを例としてパラメタ算出装置における処理を説明したが、音声データは、顔画像等の画像データ、または、音声信号等の音声データとは異なるデータであってもよい。
たとえば、顔画像を認識する顔認識装置の場合に、学習セットXは、各顔画像から抽出した特徴点の座標データであり、クラスラベルZは、該顔画像と紐付けられる人物識別子(ID)である。顔認識装置は、これらのデータに基づき、PLDAモデルを作成する。
たとえば、話者認識装置の場合に、学習セットXは、音声信号から抽出された音響特徴量等の統計量データ(話者認識で広く用いられるGMMスーパーベクトルやi-vectorなど)であり、クラスラベルZは、音声を発声した話者のIDである。話者認識装置は、これらのデータに基づき、PLDAモデルを作成する。GMMは、Gaussian_mixture_modelの略称を表す。
すなわち、パラメタ算出装置は、上述した例に限定されない。
(ハードウェア構成例)
上述した本発明の各実施形態に係るパラメタ算出装置を、1つの計算処理装置(情報処理装置、コンピュータ)を用いて実現するハードウェア資源の構成例について説明する。但し、係るパラメタ算出装置は、物理的または機能的に少なくとも2つの計算処理装置を用いて実現されてもよい。また、係るパラメタ算出装置は、専用の装置として実現されてもよい。
図9は、本発明の各実施形態に係るパラメタ算出装置を実現可能な計算処理装置のハードウェア構成例を概略的に示すブロック図である。計算処理装置20は、中央処理演算装置(Central_Processing_Unit、以降「CPU」と表す)21、メモリ22、ディスク23、不揮発性記録媒体24、及び、通信インターフェース(以降、「通信IF」と表す)27を有する。計算処理装置20は、入力装置25、出力装置26に接続可能であってもよい。計算処理装置20は、通信IF27を介して、他の計算処理装置、及び、通信装置と情報を送受信することができる。
不揮発性記録媒体24は、コンピュータが読み取り可能な、たとえば、コンパクトディスク(Compact_Disc)、デジタルバーサタイルディスク(Digital_Versatile_Disc)である。また、不揮発性記録媒体24は、ユニバーサルシリアルバスメモリ(USBメモリ)、ソリッドステートドライブ(Solid_State_Drive)等であってもよい。不揮発性記録媒体24は、電源を供給しなくても係るプログラムを保持し、持ち運びを可能にする。不揮発性記録媒体24は、上述した媒体に限定されない。また、不揮発性記録媒体24の代わりに、通信IF27、及び、通信ネットワークを介して係るプログラムを持ち運びしてもよい。
すなわち、CPU21は、ディスク23に格納されているソフトウェア・プログラム(コンピュータ・プログラム:以下、単に「プログラム」と称する)を、実行する際にメモリ22にコピーし、演算処理を実行する。CPU21は、プログラム実行に必要なデータをメモリ22から読み取る。表示が必要な場合に、CPU21は、出力装置26に出力結果を表示する。外部からプログラムを入力する場合に、CPU21は、入力装置25からプログラムを読み取る。CPU21は、上述した図1、図2、図4、図5、または、図7に示す各部が表す機能(処理)に対応するところのメモリ22にあるパラメタ算出プログラム(図3、図6、または、図8)を解釈し実行する。CPU21は、上述した本発明の各実施形態において説明した処理を順次実行する。
すなわち、このような場合に、本発明の各実施形態は、係るパラメタ算出プログラムによっても成し得ると捉えることができる。さらに、係るパラメタ算出プログラムが記録されたコンピュータが読み取り可能な不揮発性の記録媒体によっても、本発明の各実施形態は成し得ると捉えることができる。
以上、上述した実施形態を模範的な例として本発明を説明した。しかし、本発明は、上述した実施形態には限定されない。すなわち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
この出願は、2017年2月17日に出願された日本出願特願2017-027584を基礎とする優先権を主張し、その開示の全てをここに取り込む。
101 パラメタ算出装置
102 教師なし学習部
103 学習データ記憶部
104 パラメタ記憶部
111 初期化部
112 クラスベクトル作成部
113 クラス推定部
114 パラメタ算出部
115 目的関数計算部
116 制御部
201 パラメタ算出装置
202 準教師付き学習部
203 第1学習データ記憶部
204 第2学習データ記憶部
205 クラスラベル記憶部
213 クラス推定部
301 パラメタ算出装置
302 作成部
303 推定部
304 算出部
20 計算処理装置
21 CPU
22 メモリ
23 ディスク
24 不揮発性記録媒体
25 入力装置
26 出力装置
27 通信IF
600 学習装置
601 学習部
602 クラスタリング部
603 第1目的関数計算部
604 パラメタ記憶部
605 音声データ記憶部
611 パラメタ初期化部
612 クラスベクトル推定部
613 パラメタ算出部
614 第2目的関数計算部

Claims (8)

  1. データと、所定の分布に従った値と、該データが分類されたクラス間の散らばり度と、該クラス内の散らばり度との間の関係性を表す関係性情報に関して、前記所定の分布に従った値を算出し、算出した値を複数含んでいるクラスベクトルを作成する作成手段と、
    前記クラスベクトルと前記データとに基づき、前記データが1つクラスに分類される場合の分類のされやすさの程度を推定する推定手段と、
    前記推定手段が算出した程度に基づき、前記データが前記関係性情報に適合している程度が高くなる場合における、前記クラス間の散らばり度と、前記クラス内の散らばり度とを算出する算出手段と
    前記適合している程度が、所定の値より大きいか否かを判定する制御手段と
    を備え、
    前記適合している程度が前記所定の値よりも小さい場合に、前記作成手段は、複数の前記クラスベクトルを作成し、前記推定手段は、前記作成手段が作成した前記複数の前記クラスベクトルに関して前記分類のされやすさの程度を算出し、前記算出手段は、前記推定手段が前記複数のクラスベクトルに関して算出した前記程度に基づき、前記クラス間の散らばり度と、前記クラス内の散らばり度とを算出し、前記制御手段は、前記適合している程度を、前記推定手段が前記複数のクラスベクトルに関して算出した前記分類のされやすさの程度を合計することによって算出す
    パラメタ算出装置。
  2. 前記推定手段は、前記クラス間の散らばり度、及び、前記クラス内の散らばり度を用いて表されるモデルに対して、前記データが適合している程度を表す事後確率が最大であることを表す目的関数に基づき、前記分類のされやすさの程度を推定する
    請求項1記載のパラメタ算出装置。
  3. 前記作成手段は、前記所定の分布に従った値を、乱数または擬似乱数を用いて算出する
    請求項1または請求項2に記載のパラメタ算出装置。
  4. 前記分類のされやすさの程度は、確率であり、
    前記推定手段は、前記データに関するクラスラベルに基づき、該データを該クラスラベルに分類する確率を1、該データを他のクラスラベルに分類する確率を0として算出する
    請求項1乃至請求項のいずれかに記載のパラメタ算出装置。
  5. 前記分類のされやすさの程度は、確率であり、
    前記推定手段は、前記データに関するクラスラベルに基づき、該データを該クラスラベルに分類する確率を第1値、該データを他のクラスラベルに分類する確率を、前記第1値よりも小さな値である第2値として算出する
    請求項1乃至請求項のいずれかに記載のパラメタ算出装置。
  6. 前記推定手段は、前記第1値、及び、前記第2値を、乱数または擬似乱数に従い算出する
    請求項に記載のパラメタ算出装置。
  7. 情報処理装置、データと、所定の分布に従った値と、該データが分類されたクラス間の散らばり度と、該クラス内の散らばり度との間の関係性を表す関係性情報に関して、前記所定の分布に従った値を算出し、算出した値を複数含んでいるクラスベクトルを作成し、前記クラスベクトルと前記データとに基づき、前記データが1つクラスに分類される場合の分類のされやすさの程度を推定し、算出した程度に基づき、前記データが前記関係性情報に適合している程度が高くなる場合における、前記クラス間の散らばり度と、前記クラス内の散らばり度とを算出し、前記適合している程度が、所定の値より大きいか否かを判定し、
    前記適合している程度が前記所定の値よりも小さい場合に、複数の前記クラスベクトルを作成し、作成した前記複数の前記クラスベクトルに関して前記分類のされやすさの程度を算出し、前記複数のクラスベクトルに関して算出した前記程度に基づき、前記クラス間の散らばり度と、前記クラス内の散らばり度とを算出し、前記適合している程度を、前記複数のクラスベクトルに関して算出した前記分類のされやすさの程度を合計することによって算出するパラメタ算出方法。
  8. データと、所定の分布に従った値と、該データが分類されたクラス間の散らばり度と、該クラス内の散らばり度との間の関係性を表す関係性情報に関して、前記所定の分布に従った値を算出し、算出した値を複数含んでいるクラスベクトルを作成する作成機能と、
    前記クラスベクトルと前記データとに基づき、前記データが1つクラスに分類される場合の分類のされやすさの程度を推定する推定機能と、
    前記推定機能によって算出された程度に基づき、前記データが前記関係性情報に適合している程度が高くなる場合における、前記クラス間の散らばり度と、前記クラス内の散らばり度とを算出する算出機能と
    前記適合している程度が、所定の値より大きいか否かを判定する制御機能と
    をコンピュータに実現させ
    前記適合している程度が前記所定の値よりも小さい場合に、前記作成機能は、複数の前記クラスベクトルを作成し、前記推定機能は、前記作成機能が作成した前記複数の前記クラスベクトルに関して前記分類のされやすさの程度を算出し、前記算出機能は、前記推定機能が前記複数のクラスベクトルに関して算出した前記程度に基づき、前記クラス間の散らばり度と、前記クラス内の散らばり度とを算出し、前記制御機能は、前記適合している程度を、前記推定機能が前記複数のクラスベクトルに関して算出した前記分類のされやすさの程度を合計することによって算出するパラメタ算出プログラム。
JP2018568547A 2017-02-17 2018-02-14 パラメタ算出装置、パラメタ算出方法、及び、パラメタ算出プログラム Active JP7103235B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017027584 2017-02-17
JP2017027584 2017-02-17
PCT/JP2018/004994 WO2018151124A1 (ja) 2017-02-17 2018-02-14 パラメタ算出装置、パラメタ算出方法、及び、パラメタ算出プログラムが記録された記録媒体

Publications (2)

Publication Number Publication Date
JPWO2018151124A1 JPWO2018151124A1 (ja) 2019-12-19
JP7103235B2 true JP7103235B2 (ja) 2022-07-20

Family

ID=63170259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018568547A Active JP7103235B2 (ja) 2017-02-17 2018-02-14 パラメタ算出装置、パラメタ算出方法、及び、パラメタ算出プログラム

Country Status (3)

Country Link
US (1) US20200019875A1 (ja)
JP (1) JP7103235B2 (ja)
WO (1) WO2018151124A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019087012A (ja) * 2017-11-07 2019-06-06 キヤノン株式会社 情報処理装置、情報処理方法、コンピュータプログラム、及び記憶媒体
CN115273170A (zh) * 2022-06-14 2022-11-01 青岛云天励飞科技有限公司 图像聚类方法、装置、设备及计算机可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060178887A1 (en) 2002-03-28 2006-08-10 Qinetiq Limited System for estimating parameters of a gaussian mixture model
JP2014078100A (ja) 2012-10-10 2014-05-01 Nippon Telegr & Teleph Corp <Ntt> 配信装置及びコンピュータプログラム
US20160027452A1 (en) 2014-07-28 2016-01-28 Sone Computer Entertainment Inc. Emotional speech processing
US20160042739A1 (en) 2014-08-07 2016-02-11 Nuance Communications, Inc. Fast speaker recognition scoring using i-vector posteriors and probabilistic linear discriminant analysis

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013182161A (ja) * 2012-03-02 2013-09-12 Yamaha Corp 音響処理装置およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060178887A1 (en) 2002-03-28 2006-08-10 Qinetiq Limited System for estimating parameters of a gaussian mixture model
JP2014078100A (ja) 2012-10-10 2014-05-01 Nippon Telegr & Teleph Corp <Ntt> 配信装置及びコンピュータプログラム
US20160027452A1 (en) 2014-07-28 2016-01-28 Sone Computer Entertainment Inc. Emotional speech processing
US20160042739A1 (en) 2014-08-07 2016-02-11 Nuance Communications, Inc. Fast speaker recognition scoring using i-vector posteriors and probabilistic linear discriminant analysis

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MAK, Man-Wai et al,Mixture of PLDA for Noise Robust I-Vector Speaker Verification,IEEE/ACM Transactions on Audio Speech and Language Processing (TASLP),Volume 24, Issue 1,米国,ACM,2016年01月,pp.130-142,<DOI: 10.1109/TASLP.2015.2499038>
VILLALBA, Jesus,Unsupervised Adaptation of SPLDA,arXiv preprint arXiv:1511.07421 [online],米国,Cornell University,2015年11月20日,インターネット:<URL: https://arxiv.org/abs/1511.07421>

Also Published As

Publication number Publication date
JPWO2018151124A1 (ja) 2019-12-19
US20200019875A1 (en) 2020-01-16
WO2018151124A1 (ja) 2018-08-23

Similar Documents

Publication Publication Date Title
EP3806089A1 (en) Mixed speech recognition method and apparatus, and computer readable storage medium
JP7414901B2 (ja) 生体検出モデルのトレーニング方法及び装置、生体検出の方法及び装置、電子機器、記憶媒体、並びにコンピュータプログラム
WO2019102884A1 (ja) ラベル生成装置、モデル学習装置、感情認識装置、それらの方法、プログラム、および記録媒体
US9031897B2 (en) Techniques for evaluation, building and/or retraining of a classification model
CN109360572B (zh) 通话分离方法、装置、计算机设备及存储介质
EP1465154B1 (en) Method of speech recognition using variational inference with switching state space models
US10210424B2 (en) Method and system for preprocessing images
WO2021008037A1 (zh) 基于A-BiLSTM神经网络的文本分类方法、存储介质及计算机设备
JP5704692B2 (ja) パターン分類装置の学習装置及びそのためのコンピュータプログラム
JP7103235B2 (ja) パラメタ算出装置、パラメタ算出方法、及び、パラメタ算出プログラム
WO2019163736A1 (ja) マスク推定装置、モデル学習装置、音源分離装置、マスク推定方法、モデル学習方法、音源分離方法及びプログラム
KR20190136578A (ko) 음성 인식 방법 및 장치
Fischer Training restricted boltzmann machines
JP4928193B2 (ja) 顔画像認識装置及び顔画像認識プログラム
CN111401440B (zh) 目标分类识别方法、装置、计算机设备及存储介质
CN113011532A (zh) 分类模型训练方法、装置、计算设备及存储介质
JP7173379B2 (ja) 話者認識システムおよびその使用方法
Blöbaum et al. Estimation of interventional effects of features on prediction
CN106297807B (zh) 训练声纹识别系统的方法和装置
JP2007249394A (ja) 顔画像認識装置及び顔画像認識プログラム
Lim et al. More powerful selective kernel tests for feature selection
WO2020173270A1 (zh) 用于分析数据的方法、设备和计算机存储介质
CN110796172A (zh) 金融数据的样本标签确定方法、装置及电子设备
EP1837807A1 (en) Pattern recognition method
JP7047665B2 (ja) 学習装置、学習方法及び学習プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190723

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210115

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20211020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220620

R151 Written notification of patent or utility model registration

Ref document number: 7103235

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151