JP2011065579A - 標準パタン学習装置、ラベル付与基準算出装置、標準パタン学習方法およびプログラム - Google Patents

標準パタン学習装置、ラベル付与基準算出装置、標準パタン学習方法およびプログラム Download PDF

Info

Publication number
JP2011065579A
JP2011065579A JP2009217804A JP2009217804A JP2011065579A JP 2011065579 A JP2011065579 A JP 2011065579A JP 2009217804 A JP2009217804 A JP 2009217804A JP 2009217804 A JP2009217804 A JP 2009217804A JP 2011065579 A JP2011065579 A JP 2011065579A
Authority
JP
Japan
Prior art keywords
learning
data
model
identification
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009217804A
Other languages
English (en)
Other versions
JP5387274B2 (ja
Inventor
Yoshifumi Onishi
祥史 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2009217804A priority Critical patent/JP5387274B2/ja
Publication of JP2011065579A publication Critical patent/JP2011065579A/ja
Application granted granted Critical
Publication of JP5387274B2 publication Critical patent/JP5387274B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】ラベルあり学習データとラベルなし学習データとを用いた識別モデルおよび生成モデルの統合学習において、識別モデルの性能を高める。
【解決手段】ラベルあり学習データと、ラベルなし学習データとを用いて、識別モデルと生成モデルとを当該2つのモデルのパラメタ間の乖離に対する罰則項を含んだ制約のもと統合的に学習する識別生成モデル統合学習手段500と、識別生成モデル統合学習手段500に与えられる各ラベルなし学習データに対して、識別生成モデル統合学習手段500により学習された識別モデルと生成モデルのそれぞれによりクラスの識別処理を行い、識別モデルと生成モデルの識別結果の差異に基づいて、追加ラベルの付与の必要度を示すラベル付与基準を算出するラベル付与基準算出手段501とを備える。
【選択図】図5

Description

本発明は、識別モデルと生成モデルとを用いて導出される標準パタンを学習する標準パタン学習装置、ラベル付与基準算出装置、標準パタン学習方法および標準パタン学習用プログラムに関する。
標準パタン学習システムの一例が、非特許文献1や非特許文献2に記載されている。非特許文献1や非特許文献2に記載された標準パタン学習システムは、概略次のように動作する。
すなわち、特徴量とその特徴量が属するクラスを示す教師ラベルが与えられたラベルあり学習データと、特徴量集合だけで教師ラベルは与えられていないデータ集合であるラベルなし学習データとを用いて識別・生成モデルを統合的に学習して、識別モデルのパラメタθと生成モデルのパラメタθ’を算出し、識別モデルのパラメタθを有する確率分布モデルを標準パタンとして出力する。
[データ集合]
以下の式(1)に示すように、特徴量xとそのxが属するクラスcが与えられたデータ集合をL、クラスラベル(教師ラベル)が与えられない特徴量の集合をUとし、ラベルあり学習データとしてLを、ラベルなし学習データとしてDをそれぞれ記憶する。なお、以下の式(2)に示すように、全データ集合はLとUの和集合でDとする。
L={x,c}、U={x} ・・・式(1)
D=L∪U・・・式(2)
[モデル]
また、識別モデルパラメタθ、生成モデルパラメタθ’が与えられた時、特徴量xとクラスcの同時出力確率分布qを、以下の式(3)のように定義する。
q(x,c|θ,θ’)=p(c|x,θ)p(x|θ’) ・・・式(3)
qは、式(3)の右辺より、識別モデルパラメタθを有し特徴量xが与えられた時のクラス出現確率分布を与える識別モデルと、生成モデルパラメタθ’を有し特徴量xの出現確率分布を与える生成モデルの積から構成されている。また、ベイズの定理より以下の式(4)、および確率分布の周辺化より以下の式(5)の関係が成立する。
Figure 2011065579
Figure 2011065579
さらに、以下の式(6)により、基本となる確率分布モデルは、クラスcと識別モデルパラメタθまたは生成モデルパラメタθ’が与えられた時の特徴量出力分布と、各クラス出現の事前分布との積である。
p(x,c|λ)=p(x|c,λ)p(c), λ=θorθ’ ・・・式(6)
すなわち、識別モデルパラメタθ、生成モデルパラメタθ’は、共に同じ確率モデル族p(x|c,λ)における、異なるパラメタ点を表していることとなる。
[学習]
式(3)で示したモデルqを用いて、識別モデルと生成モデルの学習を行う。本例では、以下に示す式(7)により、全データ集合Dが与えられた時の尤度が最大となるように、識別モデルパラメタθと生成モデルパラメタθ’を同時最適化する。
Figure 2011065579
ここで、p(θ,θ’)は、識別モデルと生成モデルの関係を表す事前知識であり、例えば、以下の式(8)に示すように、θの事前分布fとθ’の事前分布g、およびθとθ’の乖離に対する罰則項(この場合は分散σをもつモデル間距離‖θ−θ’‖に対する正規分布)で与えられる。
Figure 2011065579
識別モデルおよび生成モデルの統合学習においては、図4に示すように、クラスラベルが与えられたデータを識別モデルが、全データ特徴量の分布を生成モデルが表現し、さらに両モデルのパラメタが罰則項で関係づけられた構造となる。
学習されたパラメタはそれぞれ、識別モデルパラメタθ、生成モデルパラメタθ’として保存され、識別モデルパラメタを有する確率分布モデルを標準パタンとして出力する。
T.Minka, "discriminative models, not discriminative training", Technical report, Microsoft Research, Cambridge, UK, 2005 J.A.Lasserre, C.M.Bishop, T.P.Minka, "Principled Hybrids of Generative and Discriminative Models", IEEE Computer Society Conference on Computer Vision and Pattern Recognition(CVPR), vol.1, 2006, p.87-p.94
しかし、非特許文献1および非特許文献2に示された学習方法によると、式(4)の識別モデルを単体で学習する際の教師ラベルが必須であるという問題がある。また、クラス出現確率分布をモデル化しているため学習データが十分にない場合やクラスごとのデータに偏りが大きい場合に頑健な学習が難しいという問題がある。
例えば、与えられたラベルあり学習データとラベルなし学習データを用いて、識別モデルと生成モデルの統合学習を行うことにより、生成モデルパラメタから離れると罰則が与えられる制約のもと学習された識別モデルパラメタを有する標準パタンを学習するため、ラベルあり学習データが少ないクラスに対しては生成モデルのパラメタに近い値が選択されてしまう。このような場合に、識別モデルの性能が十分に得られないという問題がある。
そこで、本発明は、ラベルあり学習データとラベルなし学習データとを用いた識別モデルおよび生成モデルの統合学習において、識別モデルの性能を高めることができる標準パタン学習装置、ラベル付与基準算出装置、標準パタン学習方法および標準パタン学習用プログラムを提供することを目的とする。
本発明による標準パタン学習装置は、入力されたデータが属するクラスを識別するためのモデルである識別モデルと、クラスラベルに対してデータ出力の確率分布を求めるためのモデルである生成モデルとを用いて導出される、入力されたデータが属するクラスの情報であるクラスラベルに対するデータをモデル化した情報である標準パタンを学習する標準パタン学習装置であって、学習用に与えられるデータまたはその特徴量であってクラスラベルが付与されたデータまたはその特徴量であるラベルあり学習データと、学習用に与えられるデータまたはその特徴量であってクラスラベルが付与されていないデータまたはその特徴量であるラベルなし学習データとを用いて、識別モデルと生成モデルとを当該2つのモデルのパラメタ間の乖離に対する罰則項を含んだ制約のもと統合的に学習する識別生成モデル統合学習手段と、識別生成モデル統合学習手段に与えられる各ラベルなし学習データに対して、識別生成モデル統合学習手段により学習された識別モデルと生成モデルのそれぞれによりクラスの識別処理を行い、識別モデルと生成モデルの識別結果の差異に基づいて、追加ラベルの付与の必要度を示すラベル付与基準を算出するラベル付与基準算出手段とを備えたことを特徴とする。
また、本発明によるラベル付与基準算出装置は、入力されたデータが属するクラスを識別するためのモデルである識別モデルと、クラスラベルに対してデータ出力の確率分布を求めるためのモデルである生成モデルとを統合的に学習する学習装置に学習用に与えられるデータまたはその特徴量であって、当該データが属するクラスの情報であるクラスラベルが付与されていないデータまたはその特徴量であるラベルなし学習データに対して、学習装置によって学習された識別モデルと生成モデルのそれぞれによりクラスの識別処理を行い、識別モデルと生成モデルの識別結果の差異に基づいて、追加ラベルの付与の必要度を示すラベル付与基準を算出するラベル付与基準算出手段を備えたことを特徴とする。
また、本発明による標準パタン学習方法は、入力されたデータが属するクラスを識別するためのモデルである識別モデルと、クラスラベルに対してデータ出力の確率分布を求めるためのモデルである生成モデルとを用いて導出される、入力されたデータが属するクラスの情報であるクラスラベルに対するデータをモデル化した情報である標準パタンを学習するための標準パタン学習方法であって、学習用に与えられるデータまたはその特徴量であってクラスラベルが付与されたデータまたはその特徴量であるラベルあり学習データと、学習用に与えられるデータまたはその特徴量であってクラスラベルが付与されていないデータまたはその特徴量であるラベルなし学習データとを用いて、識別モデルと生成モデルとを当該2つのモデルのパラメタ間の乖離に対する罰則項を含んだ制約のもと統合的に学習し、識別モデルと生成モデルの統合学習用に与えられる各ラベルなし学習データに対して、学習結果として得られた識別モデルと生成モデルのそれぞれによりクラスの識別処理を行い、識別モデルと生成モデルの識別結果の差異に基づいて、追加ラベルの付与の必要度を示すラベル付与基準を算出することを特徴とする。
また、本発明による標準パタン学習用プログラムは、入力されたデータが属するクラスを識別するためのモデルである識別モデルと、クラスラベルに対してデータ出力の確率分布を求めるためのモデルである生成モデルとを用いて導出される、入力されたデータが属するクラスの情報であるクラスラベルに対するデータをモデル化した情報である標準パタンを学習するための標準パタン学習用プログラムであって、コンピュータに、学習用に与えられるデータまたはその特徴量であってクラスラベルが付与されたデータまたはその特徴量であるラベルあり学習データと、学習用に与えられるデータまたはその特徴量であってクラスラベルが付与されていないデータまたはその特徴量であるラベルなし学習データとを用いて、識別モデルと生成モデルとを当該2つのモデルのパラメタ間の乖離に対する罰則項を含んだ制約のもと統合的に学習する識別生成モデル統合学習処理と、識別生成モデル統合学習処理に与えられる各ラベルなし学習データに対して、識別生成モデル統合学習処理で学習された識別モデルと生成モデルのそれぞれによりクラスの識別処理を行い、識別モデルと生成モデルの識別結果の差異に基づいて、追加ラベルの付与の必要度を示すラベル付与基準を算出するラベル付与基準算出処理とを実行させることを特徴とする。
本発明によれば、ラベルあり学習データとラベルなし学習データとを用いた識別モデルおよび生成モデルの統合学習において、学習される識別モデルの性能を高めるのに有効な、ラベル付与基準を提示することができる。従って、識別モデルの性能を高めることができる。
本発明による標準パタン学習装置の構成例を示すブロックである。 本実施形態の標準パタン学習装置の動作の一例を示すフローチャートである。 クラス推定結果の場合分けの例を示す説明図である。 識別モデルと生成モデルの統合学習におけるモデル構造を説明するための説明図である。 本発明の概要を示すブロック図である。 本発明による標準パタン学習装置の他の構成例を示すブロック図である。
まず、本発明で使用する用語について説明する。標準パタンとは、入力されたデータに対して、そのデータが何であるかを自動的に認識するシステムにおいて、事前に与えられたデータとその教師ラベルとを用いて、各教師ラベルに対するデータをモデル化したものをいう。例えば、自動認識システムにおいて、属するクラスが未知の入力データに対して、標準パタンと比較して類似性を算出し、どのクラスに属するものかを推定するために用いられる。ここで、教師ラベルとは、学習データに与えられるクラスラベルであって、そのデータがそのクラスに属するかを示す情報をいう。なお、自動認識システムには、部分的に教師ラベルがないデータを含めて学習する形態も含む。
また、本発明では、標準パタンは、識別モデルと生成モデルのパラメタ間の乖離に対する罰則項を含んだ制約のもと、識別モデルと生成モデルの両方を学習する統合学習により、導出されるものとする。ここで、識別モデルとは、p(c|x,θ)で表されるような、データが入力されたときにクラスラベルが直接出力される確率分布モデルをいう。また、生成モデルとは、p(x|c,θ’)で表されるような、あるクラスラベルに対してデータ出力に対する確率分布モデルをいう。両モデルとも確率分布モデルであると一般化されるが、上述した数(3)〜(5)になるような関係があるものとする。また、モデルパラメタθ,θ’は、例えば、HMM(Hidden Markov Model)やGMM(Gaussian mixture model)といった確率分布モデルによって実現される識別モデルや生成モデルを一意に特定づける数値の集合をいう。
なお、両モデルが乖離するとは、同じ確率分布モデル族に属する識別モデルと生成モデルとの間で、各モデルが有するパラメタθ(識別モデルパラメタθ)とθ’(生成モデルパラメタθ’)の値が大きく異なる状況のことを指す。より具体的には、予め定められた範囲を超えた差分がでることをいう。
次に本発明を実施するための形態について図面を参照して説明する。図1は、本発明による標準パタン学習装置の構成例を示すブロックである。図1に示す標準パタン学習装置100は、ラベルあり学習データ記憶部110と、ラベルなし学習データ記憶部111と、識別・生成モデル統合学習部112と、識別モデルパラメタ記憶部113と、生成モデルパラメタ記憶部114と、ラベル付与基準算出部115と、追加ラベル付与基準出力部116と追加ラベル入力部117と、学習データ更新部118と、標準パタン出力部119とを備える。
標準パタン学習装置100は、これら各手段を実現するハードウェア、ソフトウェアおよびこれらの組み合わせにより実現される。例えば、パーソナルコンピュータによって実現可能である。
ラベルあり学習データ記憶部110は、学習データである特徴量を示す情報と、その特徴量が属するクラスの情報である教師ラベルとを対応づけて記憶する。すなわち、ラベルあり学習データ記憶部110は、教師ラベルが付与された特徴量を学習データとして記憶する。以下、ラベルあり学習データ記憶部110が記憶する学習データを、ラベルあり学習データを呼ぶ場合がある。
ラベルなし学習データ記憶部111は、学習データである特徴量を示す情報を記憶する。ラベルなし学習データ記憶部111に記憶される特徴量には、教師ラベルが付与されていない。以下、ラベルなし学習データ記憶部111が記憶する学習データを、ラベルなし学習データを呼ぶ場合がある。
識別・生成モデル統合学習部112は、ラベルあり学習データ記憶部110に記憶されているラベルあり学習データと、ラベルなし学習データ記憶部111に記憶されているラベルなし学習データとを用いて、識別モデルパラメタと生成モデルパラメタとを統合的に学習する。識別・生成モデル統合学習部112は、識別モデルパラメタと生成モデルパラメタの統合学習において、両モデル(識別モデルおよび生成モデル)が乖離すると罰則が与えられる制約のもと、それぞれのパラメタを算出することにより、両モデルを統合的に学習する。また、統合学習において求めたパラメタを、識別モデルパラメタ記憶部113と生成モデルパラメタ記憶部114とに記憶させる。
識別モデルパラメタ記憶部113は、識別モデルについての学習結果である識別モデルパラメタθを記憶する。生成モデルパラメタ記憶部114は、生成モデルについての学習結果である生成モデルパラメタθ’を記憶する。
ラベル付与基準算出部115は、ラベルなし学習データ記憶部111に記憶されている学習データに対して、識別・生成モデル統合学習部112により学習された識別モデルおよび生成モデルのそれぞれを用いてクラスの識別処理をしてクラスラベルを推定する。そして、両モデルによる推定結果が異なるデータについて追加ラベルを付与すべきであるとしてラベル付与基準を算出し、その結果を追加ラベル付与基準出力部116で出力する。
ここで、ラベル付与基準とは、該当するデータに新たにラベルを付与すべき旨(またはその度合い)を示すための情報であって、ラベルなし学習データの中から該当する一部のデータに対して付加される情報である。本実施形態では、両モデルでのラベル推定値の算出結果を比較処理することにより求める。
ラベル付与基準出力部116は、ラベル付与基準算出部115が算出した、ラベルなし学習データに対するラベル付与基準をユーザに提示可能なように出力する。
追加ラベル入力部117は、ラベル付与基準算出部115で算出された基準に従い、追加されたラベルを入力する。例えば、ユーザにラベル付与基準を提示し、ユーザがそのラベル付与基準により追加ラベルが必要であると示された学習データに対して、適当なラベルの情報を入力してもよい。そのような場合には、追加ラベル入力部117は、ユーザ操作に応じて、キーボードやファイル、通信等の入力手段を介してラベルの情報を入力すればよい。
学習データ更新部118は、この追加されたラベルと、それに対応するラベルなし学習データ(より具体的にはラベルなし学習データ記憶部111に記憶されている、ラベルが付与されていない特徴量を示す情報)とを合わせて、ラベルあり学習データ記憶部110に移動して、学習データを更新する。
標準パタン出力部119は、最終的に学習された識別モデルパラメタを有する確率分布モデルを標準パタンとして出力する。
なお、本実施形態において、ラベルあり学習データ記憶部110、ラベルなし学習データ記憶部111、識別モデルパラメタ記憶部113、生成モデルパラメタ記憶部114は、例えば、メモリなどの記憶装置によって実現される。なお、データベースシステムのように、その記憶装置に対するアクセス制御を行う制御手段を含んでいてもよい。また、識別・生成モデル統合学習部112、ラベル付与基準算出部115、学習データ更新部118は、例えば、CPU等のプログラムに従って動作する情報処理装置によって実現される。また、追加ラベル入力部117は、例えば、各種入力装置(マウス、キーボード、ファイル入力インタフェース、通信インタフェース等)とCPU等のプログラムに従って動作する情報処理装置とによって実現される。また、ラベル付与基準出力部116、標準パタン出力部119は、例えば、各種出力装置(ディスプレイ、ファイル出力インタフェース、通信インタフェース等)とCPU等のプログラムに従って動作する情報処理装置とによって実現される。
次に、本実施形態の動作について説明する。図2は、本実施形態の標準パタン学習装置の動作の一例を示すフローチャートである。図2に示す例では、まず識別・生成モデル統合学習部112は、与えられたラベルあり学習データとラベルなし学習データとを用いて、識別モデルと生成モデルとを統合的に学習する(ステップS101)。なお、学習処理については、別途、統合学習を行う既存の学習装置を利用して行うようにしてもよい。そのような場合には、学習結果としての両モデルのパラメタがそれぞれ、識別モデルパラメタ記憶部113と生成モデルパラメタ記憶部114とに記憶されるようになっていればよい。
学習結果としての両モデルのパラメタが得られると、標準パタン学習装置は、予め定めておいた標準パタンの出力基準を満たすまで、以下の処理を繰り返す(ステップS102のNo)。
まず、ラベル付与基準算出部115は、学習された両モデル(識別モデルと生成モデル)を用いて、ラベルなし学習データを識別する(ステップS103)。そして、両モデルの識別結果から、ラベル付与基準を算出する(ステップS104)。ラベル付与基準算出部115は、例えば、両モデルを用いて、ラベルなし学習データそれぞれに対してクラスの識別処理を行うことにより、学習データに付与されるクラスラベルを推定し、その推定結果が異なる学習データに対して、追加ラベルを付与すべき旨を示すラベル付与基準を与えればよい。
次に、ラベル付与基準出力部116は、ラベル付与基準算出部115が算出したラベルなし学習データに対するラベル付与基準をユーザに提示可能なように出力する(ステップS105)。なお、いずれのラベルなし学習データに対しても追加ラベルを付与すべきとするラベル付与基準が与えられなかった場合には、その旨を提示してそのまま処理を終了してもよい。
次いで、追加ラベル入力部117により、ラベル付与基準算出部115で算出された基準に従い、追加ラベルが入力されると(ステップS106のYes)、学習データ更新部118は、入力された追加ラベルを該当するラベルなし学習データに付与し、学習データを更新する(ステップS107,S108)。ここでは、ラベルなし学習データ記憶部111に記憶されている付与対象とされたラベルなし学習データに、入力された追加ラベルを付与してラベルあり学習データとし、ラベルなし学習データ記憶部111からラベルあり学習データ記憶部110に移動して記憶させる。
一方、いずれの学習データに対しても追加ラベルの付与を必要としない旨のラベル付与基準が算出された場合など、ラベル付与基準に従い追加ラベルの入力がない場合には(ステップS106のNo)、それまでの学習結果から特定される標準パタンを出力して処理を終了してもよい(ステップS109)。
他方、ステップS108において学習データを更新した場合には、更新された学習データを用いて、識別・生成モデル統合学習部112が、再度識別モデルと生成モデルの統合学習を行う(ステップS101に戻る)。学習データを更新することにより、識別・生成モデル統合学習において、識別モデル、生成モデルが異なるクラス推定結果を生じさせることができる。
なお、本実施形態では、学習データの更新に伴って、識別・生成モデル統合学習部112が、学習データ更新部118により更新された学習データ(ラベルあり学習データおよびラベルなし学習データ)を用いて、識別モデルパラメタと生成モデルパラメタとを同様に統合的に学習した後は、その学習結果に基づき、さらにラベル付与基準算出を行って、再度必要であれば追加ラベルを付与する。このようにして、標準パタンの出力基準を満たすまで、算出された基準に基づく追加ラベルの付与により更新された学習データを用いて識別・生成モデルの統合学習を繰り返し実行する。
標準パタンの出力基準としては、例えば、学習されたモデルのパラメタ移動量が所定の値まで小さくなるまで、または学習されたモデルの性能テストで所定の基準以上の性能が確保されるまで、あるいは追加ラベルの入力上限が指定された数に達するまで、といったものが考えられる。
学習データの更新に伴う統合学習の繰り返し処理の結果、標準パタンの出力基準を満たした場合には(ステップS102のYes)、それまでの学習結果から特定される標準パタンを出力して処理を終了する(ステップS109)。
以上のように、本実施形態によれば、与えられたラベルなし学習データに対して、学習されるモデルの性能を高めるのに有効なラベル付与基準を示すことができる。その理由は学習された両モデルを用いて推定したクラスラベルが異なるところは、クラス判別が困難な部分であり、その部分に教師ラベルを付与することは識別モデルの性能を高めるのに有効であるためである。またこれにより、ラベル付与基準で提示されたラベルを追加して識別・生成モデル統合学習を行うことで識別モデルの性能を効果的に高めることができる。
また、図3は、ラベル付与基準算出部115における、クラス推定結果の場合分けの例を示す説明図である。ラベル付与基準算出部115において、クラス推定結果が異なる結果となる場合については図3に示すように、生成モデルパラメタと識別モデルパラメタのどちらか一方のみ正解あるいは両方誤りの場合が含まれる。これらはいずれも学習が不十分な場合で、識別・生成モデル統合学習において、当該クラスのラベル付き学習データの追加が有効となる場合である。一方、共に結果は一致するが両方不正解となる場合については、これも学習データが不十分な場合であるが、識別・生成モデル統合学習特有のものでなく、識別モデルのみあるいは生成モデルのみの学習方式であってもデータ量が足りない場合に当たる。この場合はクラス推定結果の信頼度などが低い場合に教師ラベルを追加すればよいが、この技術は通常のモデル学習において考えられる技術であり、本発明と組み合わせることは容易である。
またさらに、ここで学習データ全体を途中で増減させない場合特に明らかなように、本発明においては全体の学習データは変わらず、そのなかで教師ラベルを付与すべき優先順位を示しそれに従って教師ラベルを追加して学習データ更新を行い識別・生成モデル統合学習を行っている。このため学習の目的関数は常に同一の基準が保たれており、矛盾しない学習基準を保ったまま、ラベル付与基準を提示して学習の効率を高めている。これにより従前の識別・生成モデル統合学習が獲得した問題点の回避、すなわち、学習に教師ラベルが必須である問題点と、クラス出現確率分布をモデル化しているため学習データが十分にない場合やクラスごとのデータに偏りが大きい場合に頑健な学習が難しい問題点の回避といった利点を保ったまま、さらに学習されるモデルの性能を効率的に高めることができる。
なお、教師ラベルを付与すべき優先順位とは、ラベルなし学習データ全体のうちの個々の学習データに対する優先順位(追加ラベルを付与すべき度合い)をいい、これは追加ラベル付与基準算出部115が求めた個々の学習データに対する追加ラベル付与基準によって示すことが可能なものである。すなわち、本実施形態によれば、追加ラベル付与基準によって指示されたデータに教師ラベルを付与するのが最も望ましいということをユーザに示すことができるので、ユーザは追加ラベル付与基準に従って教師ラベルを付与することで、ラベル付与コストを抑えつつ、最適なラベルを付与することが可能になる。
これは、教師ラベルなしの学習データを作成するのは容易だが、教師ラベルなしでは識別モデルを学習できないという前提状況の下、ラベル付き学習データを用いて識別モデルを学習するのが最も性能がよくなる方法ではあるが、その教師ラベル付き学習データを作成するのにコストがかかるという問題点を改善するものである。
このような前提状況において、低いコストで性能のよい識別モデルを学習するために、本実施形態では、学習データ全体に対してどのデータにラベルが付与されるべきかの制御を加えている。なお、学習方法の中心部分は変化を要しない。このため、内在させる学習方法により獲得される効果を損なわず、または学習の目的関数は常に同一の基準や矛盾しない学習基準を保ったまま、学習されるモデルの性能を高めることができる。
一方で、学習データにラベルを付与することはユーザに高コストを強いる問題であるところ、本実施形態によれば、満遍なくラベルを付与するのではなく、優先順位が示すところにラベルを付与すれば、もっとも低コストで効果が高いところにラベルを付与することができ、これにより低いコストで学習の効果を高められるといった新たな効果を付け加えることが可能となる。
次に、具体的な実施例を用いて本実施形態の動作を説明する。以下では、標準パタンとして、音声認識のための音響モデルを学習する場合を例に説明する。
特徴量xは、例えば、MFCC(Mel−Frequency Cepstrum Coefficient)系列を用いる。クラスラベルcは音素列とする。なお、音素単位としては、例えば、モノフォンやトライフォンを用いればよい。
ラベルあり学習データ記憶部110には、発話内容が書き起こされた音声データから導出された、特徴量xとクラスラベルcとが対応つけられて記憶されている。また、ラベルなし学習データ記憶部111には、発話内容の書き起こしが存在しない音声データから導出された特徴量xが記憶されている。一般に、学習データ構築において音声データの記録に比較して発話内容の書き起こしはコストが高いため、ラベルあり学習データのコストを抑えるべく、ラベルあり学習データの量はラベルなし学習データに比べて少なくてよい。ラベルあり学習データは、初期の学習のため一定量を事前に準備しておき、用いることとする。
識別・生成モデル統合学習部112が行う学習処理は、例えば、既に説明した非特許文献1、2に記載されている方法を用いてもよい。音声モデル学習の場合は、例えば、式(6)のp(x|c,λ)はHMMを用いてもよい。また、式(7)の最適化式を再急降下法や共役勾配法あるいは一般化EMアルゴリズム等で求めることにより、識別モデルパラメタθおよび生成モデルパラメタθ’を学習すればよい。
この場合、式(8)におけるfおよびgは、HMMのパラメタの事前分布であり、モデル間距離‖θ−θ’‖として、例えば、パラメタθ及びθ’を持つHMMのKL距離(Kullback Leibler距離)あるいはBhattacharyya距離を用いる。
ラベル付与基準算出部115は、ラベルなし学習データ記憶部111に記憶された音声データの特徴量xに対して、学習後のパラメタθをもつHMMと、学習後のパラメタθ’をもつHMMと用いて、連続音素認識や大語彙連続音声認識を行うことによりクラスラベルを推定し、両HMMで異なる結果が推定された音声データに対し、追加ラベルを付与すべきであるとしてラベル付与基準を算出する。ここで、音声データの場合には、一般に発話内容や発話ポーズなどで分離された文単位で取り扱われるので、両モデルでの認識結果も文単位で比較し、不一致度が高いもの(例えば、所定の数以上)に対し、追加ラベルを付与すべきであるとするラベル付与基準を定める。例えば、不一致度がある一定の基準以上であるものに対して、その不一致度をそのまま追加ラベル付与基準として用いてもよい。
追加ラベル付与基準出力部116では、ラベル付与基準算出部115で算出された追加ラベル付与基準に従い、追加ラベルを付与すべき対象とされたラベルなし学習データのリストを、不一致度(すなわち追加ラベル付与基準)が高い順に出力する。この際、不一致度の数値を併せて出力してもよい。
追加ラベル入力部117では、追加ラベル付与基準出力部116で出力されたリストに従い、例えば、ユーザ操作により指定された教師ラベルを入力する。教師ラベルが入力されると、該当する学習データを教師ラベルあり学習データに更新する。なお、教師ラベルが付与された学習データを入力するようにしてもよい。教師ラベルが付与された学習データとして、例えば、該当するラベルなし学習データの音声を書き起こし、音素列に変換されたものを使用してもよい。
学習データ更新部118では、ラベルが追加されたデータに対し、そのラベルと対応するラベルなし学習データ(すなわち、ラベルなし学習データ記憶部111に記憶された特徴量x)を、ラベルあり学習データ記憶部110に移動させることにより、学習データを更新する。
学習データを更新した場合には、続いてその更新された学習データを用いて、識別・生成モデル統合学習部112が統合学習を行う。このような処理を繰り返し、最終的に学習された識別モデルのHMMを標準パタンとして出力する。
例えば、繰り返すごとで学習されるHMMのパラメタ移動量が十分小さくなるまで、あるいは学習されたHMMの性能テストで十分な性能が確保されるまで、あるいは追加ラベルの入力上限を指定してそれに達するまで繰り返し実行してもよい。
なお、本実施例では、標準パタンとして音声認識のための音響モデルHMMを例に説明したが、話者検索のための話者モデルや、その他統計的パタン認識における標準パタンの学習方法としても利用することが可能である。
次に、本発明の概要について説明する。図5は、本発明の概要を示すブロック図である。図5に示す標準パタン学習装置は、識別モデルと生成モデルとを用いて導出される標準パタンを学習する標準パタン学習装置であって、識別生成モデル統合学習手段500と、ラベル付与基準算出手段501とを備える。
識別生成モデル統合学習手段500(例えば、識別・生成モデル統合学習部112)は、学習用に与えられるデータまたはその特徴量であってクラスラベルが付与されたデータまたはその特徴量であるラベルあり学習データと、学習用に与えられるデータまたはその特徴量であってクラスラベルが付与されていないデータまたはその特徴量であるラベルなし学習データとを用いて、識別モデルと生成モデルとを当該2つのモデルのパラメタ間の乖離に対する罰則項を含んだ制約のもと統合的に学習する。
ラベル付与基準算出手段501(例えば、ラベル付与基準算出部115)は、識別生成モデル統合学習手段500に与えられる各ラベルなし学習データに対して、識別生成モデル統合学習手段500により学習された識別モデルと生成モデルのそれぞれによりクラスの識別処理を行い、識別モデルと生成モデルの識別結果の差異に基づいて、追加ラベルの付与の必要度を示すラベル付与基準を算出する。
ラベル付与基準算出手段501は、例えば、推定結果が異なるデータについて追加にラベルを付与すべきであるとするラベル付与基準を算出してもよい。
また、図6は、本発明による標準パタン学習装置の他の構成例を示すブロック図である。図6に示すように、標準パタン学習装置は、さらにラベルあり学習データ記憶手段502と、ラベルなし学習データ記憶手段503と、学習データ更新手段504とを備えていてもよい。
ラベルあり学習データ記憶手段502(例えば、ラベルあり学習データ記憶部110)は、学習用に与えられるデータまたはその特徴量のうち、クラスラベルが付与されたデータまたはその特徴量であるラベルあり学習データを記憶する。
ラベルなし学習データ記憶手段503(例えば、ラベルなし学習データ記憶部111)は、学習用に与えられるデータまたはその特徴量のうち、クラスラベルが付与されていないデータまたはその特徴量であるラベルなし学習データを記憶する。
学習データ更新手段(例えば、学習データ更新部118)は、ラベル付与基準算出手段501が算出したラベル付与基準に従って追加されたラベルを該当するラベルなし学習データに付与してラベルあり学習データとし、ラベルあり学習データ記憶手段502およびラベルなし学習データ記憶手段503の記憶内容を更新する。
そのような構成の場合には、識別生成モデル統合学習手段500は、ラベルなし学習データ記憶手段503に記憶されているラベルなし学習データと、ラベルあり学習データ記憶手段502に記憶されているラベルあり学習データとを用いて、識別モデルと生成モデルとを学習してもよい。このようにすることによって、更新後の学習データに対しても特に意識せずに学習処理を行わせることができる。
また、識別生成モデル統合学習手段500は、学習データ更新手段504による学習データの更新に応じて、識別モデルと生成モデルの統合学習を繰り返し行ってもよい。そうすることによって、学習されるモデルの性能を高めることができる。
また、図6に示すように、標準パタン学習装置は、さらにラベル付与基準出力手段505と、ラベル情報入力手段506とを備えていてもよい。
ラベル付与基準出力手段505(例えば、追加ラベル付与基準ン出力部116)は、ラベル付与基準算出手段501が算出したラベル付与基準の情報をユーザに提示する。
ラベル情報入力手段506(例えば、追加ラベル入力部117)は、ユーザ操作に応じて、ラベル付与基準に従って追加されるラベルの情報を入力する。
そのような構成によれば、必要最低限のユーザコストで、最適なラベルを付与することができる。
なお、学習装置を別途備える場合には、本発明を標準パタン学習装置としてではなくラベル付与基準算出装置として実現させてもよい。そのような場合には、少なくとも識別モデルと、生成モデルとを統合的に学習する学習装置に学習用に与えられるラベルなし学習データに対して、該学習装置によって学習された識別モデルと生成モデルのそれぞれによりクラスの識別処理を行い、その識別結果の差異に基づいて、追加ラベルの付与の必要度を示すラベル付与基準を算出するラベル付与基準算出手段を備えていればよい。
本発明は、例えば、音声認識のための音響モデル学習や、話者検索のための話者モデル学習、その他統計的パタン認識における標準パタンの学習方法といった用途に適用可能である。
100 標準パタン学習装置
110 ラベルあり学習データ記憶部
111 ラベルなし学習データ記憶部
112 識別・生成モデル統合学習部
113 識別モデルパラメタ記憶部
114 生成モデルパラメタ記憶部
115 ラベル付与基準算出部
116 追加ラベル付与基準出力部
117 追加ラベル入力部
118 学習データ更新部
119 標準パタン出力部
500 識別生成モデル統合学習手段
501 ラベル付与基準算出手段
502 ラベルあり学習データ記憶手段
503 ラベルなし学習データ記憶手段
504 学習データ更新手段
505 ラベル付与基準出力手段
506 ラベル情報入力手段

Claims (10)

  1. 入力されたデータが属するクラスを識別するためのモデルである識別モデルと、クラスラベルに対してデータ出力の確率分布を求めるためのモデルである生成モデルとを用いて導出される、入力されたデータが属するクラスの情報であるクラスラベルに対するデータをモデル化した情報である標準パタンを学習する標準パタン学習装置であって、
    学習用に与えられるデータまたはその特徴量であってクラスラベルが付与されたデータまたはその特徴量であるラベルあり学習データと、学習用に与えられるデータまたはその特徴量であってクラスラベルが付与されていないデータまたはその特徴量であるラベルなし学習データとを用いて、識別モデルと生成モデルとを当該2つのモデルのパラメタ間の乖離に対する罰則項を含んだ制約のもと統合的に学習する識別生成モデル統合学習手段と、
    前記識別生成モデル統合学習手段に与えられる各ラベルなし学習データに対して、前記識別生成モデル統合学習手段により学習された識別モデルと生成モデルのそれぞれによりクラスの識別処理を行い、前記識別モデルと前記生成モデルの識別結果の差異に基づいて、追加ラベルの付与の必要度を示すラベル付与基準を算出するラベル付与基準算出手段とを備えた
    ことを特徴とする標準パタン学習装置。
  2. ラベル付与基準算出手段は、推定結果が異なるデータについて追加にラベルを付与すべきであるとするラベル付与基準を算出する
    請求項1に記載の標準パタン学習装置。
  3. 学習用に与えられるデータまたはその特徴量のうち、クラスラベルが付与されたデータまたはその特徴量であるラベルあり学習データを記憶するラベルあり学習データ記憶手段と、
    学習用に与えられるデータまたはその特徴量のうち、クラスラベルが付与されていないデータまたはその特徴量であるラベルなし学習データを記憶するラベルなし学習データ記憶手段と、
    ラベル付与基準算出手段が算出したラベル付与基準に従って追加されたラベルを該当するラベルなし学習データに付与してラベルあり学習データとし、前記ラベルあり学習データ記憶手段および前記ラベルなし学習データ記憶手段の記憶内容を更新する学習データ更新手段とを備え、
    識別生成モデル統合学習手段は、前記ラベルなし学習データ記憶手段に記憶されているラベルなし学習データと、前記ラベルあり学習データ記憶手段に記憶されているラベルあり学習データとを用いて、識別モデルと生成モデルとを学習する
    請求項1または請求項2に記載の標準パタン学習装置。
  4. 識別生成モデル統合学習手段は、学習データ更新手段による学習データの更新に応じて、識別モデルと生成モデルの統合学習を繰り返し行う
    請求項3に記載の標準パタン学習装置。
  5. ラベル付与基準算出手段が算出したラベル付与基準の情報をユーザに提示するラベル付与基準出力手段と、
    ユーザ操作に応じて、ラベル付与基準に従って追加されるラベルの情報を入力するラベル情報入力手段とを備えた
    請求項1から請求項4のうちのいずれか1項に記載の標準パタン学習装置。
  6. 入力されたデータが属するクラスを識別するためのモデルである識別モデルと、クラスラベルに対してデータ出力の確率分布を求めるためのモデルである生成モデルとを統合的に学習する学習装置に学習用に与えられるデータまたはその特徴量であって、当該データが属するクラスの情報であるクラスラベルが付与されていないデータまたはその特徴量であるラベルなし学習データに対して、前記学習装置によって学習された識別モデルと生成モデルのそれぞれによりクラスの識別処理を行い、前記識別モデルと前記生成モデルの識別結果の差異に基づいて、追加ラベルの付与の必要度を示すラベル付与基準を算出するラベル付与基準算出手段を備えた
    ことを特徴とするラベル付与基準算出装置。
  7. 入力されたデータが属するクラスを識別するためのモデルである識別モデルと、クラスラベルに対してデータ出力の確率分布を求めるためのモデルである生成モデルとを用いて導出される、入力されたデータが属するクラスの情報であるクラスラベルに対するデータをモデル化した情報である標準パタンを学習するための標準パタン学習方法であって、
    学習用に与えられるデータまたはその特徴量であってクラスラベルが付与されたデータまたはその特徴量であるラベルあり学習データと、学習用に与えられるデータまたはその特徴量であってクラスラベルが付与されていないデータまたはその特徴量であるラベルなし学習データとを用いて、識別モデルと生成モデルとを当該2つのモデルのパラメタ間の乖離に対する罰則項を含んだ制約のもと統合的に学習し、
    前記識別モデルと前記生成モデルの統合学習用に与えられる各ラベルなし学習データに対して、学習結果として得られた前記識別モデルと前記生成モデルのそれぞれによりクラスの識別処理を行い、前記識別モデルと前記生成モデルの識別結果の差異に基づいて、追加ラベルの付与の必要度を示すラベル付与基準を算出する
    ことを特徴とする標準パタン学習方法。
  8. 算出されたラベル付与基準に従って追加されたラベルを該当するラベルなし学習データに付与して、ラベルあり学習データとして更新する
    請求項7に記載の標準パタン学習方法。
  9. 入力されたデータが属するクラスを識別するためのモデルである識別モデルと、クラスラベルに対してデータ出力の確率分布を求めるためのモデルである生成モデルとを用いて導出される、入力されたデータが属するクラスの情報であるクラスラベルに対するデータをモデル化した情報である標準パタンを学習するための標準パタン学習用プログラムであって、
    コンピュータに、
    学習用に与えられるデータまたはその特徴量であってクラスラベルが付与されたデータまたはその特徴量であるラベルあり学習データと、学習用に与えられるデータまたはその特徴量であってクラスラベルが付与されていないデータまたはその特徴量であるラベルなし学習データとを用いて、識別モデルと生成モデルとを当該2つのモデルのパラメタ間の乖離に対する罰則項を含んだ制約のもと統合的に学習する識別生成モデル統合学習処理と、
    前記識別生成モデル統合学習処理に与えられる各ラベルなし学習データに対して、前記識別生成モデル統合学習処理で学習された識別モデルと生成モデルのそれぞれによりクラスの識別処理を行い、前記識別モデルと前記生成モデルの識別結果の差異に基づいて、追加ラベルの付与の必要度を示すラベル付与基準を算出するラベル付与基準算出処理とを
    実行させるための標準パタン学習用プログラム。
  10. コンピュータに、
    ラベル付与基準算出処理で算出されたラベル付与基準に従って追加されたラベルを該当するラベルなし学習データに付与して、ラベルあり学習データとして更新する学習データ更新処理を含む
    請求項9に記載の標準パタン学習用プログラム。
JP2009217804A 2009-09-18 2009-09-18 標準パタン学習装置、ラベル付与基準算出装置、標準パタン学習方法およびプログラム Active JP5387274B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009217804A JP5387274B2 (ja) 2009-09-18 2009-09-18 標準パタン学習装置、ラベル付与基準算出装置、標準パタン学習方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009217804A JP5387274B2 (ja) 2009-09-18 2009-09-18 標準パタン学習装置、ラベル付与基準算出装置、標準パタン学習方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2011065579A true JP2011065579A (ja) 2011-03-31
JP5387274B2 JP5387274B2 (ja) 2014-01-15

Family

ID=43951724

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009217804A Active JP5387274B2 (ja) 2009-09-18 2009-09-18 標準パタン学習装置、ラベル付与基準算出装置、標準パタン学習方法およびプログラム

Country Status (1)

Country Link
JP (1) JP5387274B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013161191A1 (ja) * 2012-04-26 2013-10-31 日本電気株式会社 保健指導対象者選定条件作成支援装置
WO2016084336A1 (ja) * 2014-11-27 2016-06-02 日本電気株式会社 追学習装置、追学習方法、および、記憶媒体
WO2018116921A1 (ja) * 2016-12-21 2018-06-28 日本電気株式会社 辞書学習装置、辞書学習方法、データ認識方法およびプログラム記憶媒体
CN112712795A (zh) * 2020-12-29 2021-04-27 北京有竹居网络技术有限公司 标注数据确定方法、装置、介质及电子设备
JP2021111101A (ja) * 2020-01-09 2021-08-02 Awl株式会社 機械学習システム、学習用データセット生成システム、及び機械学習プログラム
US11537930B2 (en) 2013-03-04 2022-12-27 Nec Corporation Information processing device, information processing method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008225907A (ja) * 2007-03-13 2008-09-25 Nippon Telegr & Teleph Corp <Ntt> 言語解析モデル学習装置、言語解析モデル学習方法、言語解析モデル学習プログラムならびにその記録媒体
JP2008292789A (ja) * 2007-05-25 2008-12-04 Nippon Telegr & Teleph Corp <Ntt> 学習データのラベル誤り候補抽出装置、その方法及びプログラム、その記録媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008225907A (ja) * 2007-03-13 2008-09-25 Nippon Telegr & Teleph Corp <Ntt> 言語解析モデル学習装置、言語解析モデル学習方法、言語解析モデル学習プログラムならびにその記録媒体
JP2008292789A (ja) * 2007-05-25 2008-12-04 Nippon Telegr & Teleph Corp <Ntt> 学習データのラベル誤り候補抽出装置、その方法及びプログラム、その記録媒体

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNJ201010037041; 岡谷 一宏 他: '共同学習における分類器の合意度を用いた追加データ選択法の提案' 2009年度人工知能学会全国大会(第23回)論文集 1C4-2, 20090619, pp.1-2, 社団法人人工知能学会 *
JPN6013044186; Julia A. Lasserre et al.: 'Principled Hybrids of Generative and Discriminative Models' Proceedings of the 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Vol.1, 20060622, pp.87-94, IEEE *
JPN6013044189; Tom Minka: 'Discriminative models, not Discriminative training' Technical Report , 20051017, Microsoct Research Cambridge *
JPN6013044192; 岡谷 一宏 他: '共同学習における分類器の合意度を用いた追加データ選択法の提案' 2009年度人工知能学会全国大会(第23回)論文集 1C4-2, 20090619, pp.1-2, 社団法人人工知能学会 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013161191A1 (ja) * 2012-04-26 2013-10-31 日本電気株式会社 保健指導対象者選定条件作成支援装置
JP5392444B1 (ja) * 2012-04-26 2014-01-22 日本電気株式会社 保健指導対象者選定条件作成支援装置
US11537930B2 (en) 2013-03-04 2022-12-27 Nec Corporation Information processing device, information processing method, and program
WO2016084336A1 (ja) * 2014-11-27 2016-06-02 日本電気株式会社 追学習装置、追学習方法、および、記憶媒体
JPWO2016084336A1 (ja) * 2014-11-27 2017-10-05 日本電気株式会社 追学習装置、追学習方法、および、追学習プログラム
WO2018116921A1 (ja) * 2016-12-21 2018-06-28 日本電気株式会社 辞書学習装置、辞書学習方法、データ認識方法およびプログラム記憶媒体
JPWO2018116921A1 (ja) * 2016-12-21 2019-10-31 日本電気株式会社 辞書学習装置、辞書学習方法、データ認識方法およびコンピュータプログラム
JP7095599B2 (ja) 2016-12-21 2022-07-05 日本電気株式会社 辞書学習装置、辞書学習方法、データ認識方法およびコンピュータプログラム
JP2021111101A (ja) * 2020-01-09 2021-08-02 Awl株式会社 機械学習システム、学習用データセット生成システム、及び機械学習プログラム
JP7437738B2 (ja) 2020-01-09 2024-02-26 Awl株式会社 機械学習システム、学習用データセット生成システム、及び機械学習プログラム
CN112712795A (zh) * 2020-12-29 2021-04-27 北京有竹居网络技术有限公司 标注数据确定方法、装置、介质及电子设备
CN112712795B (zh) * 2020-12-29 2024-04-02 北京有竹居网络技术有限公司 标注数据确定方法、装置、介质及电子设备

Also Published As

Publication number Publication date
JP5387274B2 (ja) 2014-01-15

Similar Documents

Publication Publication Date Title
JP5321596B2 (ja) 統計モデル学習装置、統計モデル学習方法、およびプログラム
JP6933264B2 (ja) ラベル生成装置、モデル学習装置、感情認識装置、それらの方法、プログラム、および記録媒体
Somervuo et al. Parametric representations of bird sounds for automatic species recognition
CN104424943B (zh) 语音处理系统和方法
US10008209B1 (en) Computer-implemented systems and methods for speaker recognition using a neural network
JP5387274B2 (ja) 標準パタン学習装置、ラベル付与基準算出装置、標準パタン学習方法およびプログラム
CN102411931B (zh) 用于大词汇量连续语音识别的深度信任网络
Dileep et al. GMM-based intermediate matching kernel for classification of varying length patterns of long duration speech using support vector machines
CN108885870A (zh) 用于通过将言语到文本系统与言语到意图系统组合来实现声音用户接口的系统和方法
CN109196495A (zh) 细粒度自然语言理解
Williams Multi-domain learning and generalization in dialog state tracking
US20100169093A1 (en) Information processing apparatus, method and recording medium for generating acoustic model
WO2004057574A1 (en) Sensor based speech recognizer selection, adaptation and combination
US11705105B2 (en) Speech synthesizer for evaluating quality of synthesized speech using artificial intelligence and method of operating the same
US11568863B1 (en) Skill shortlister for natural language processing
CN110428803B (zh) 一种基于发音属性的发音人国别识别模型建模方法及系统
CN114830139A (zh) 使用模型提供的候选动作训练模型
Yang et al. Modeling dynamics of expressive body gestures in dyadic interactions
Henter et al. Gaussian process dynamical models for nonparametric speech representation and synthesis
JPWO2007105409A1 (ja) 標準パタン適応装置、標準パタン適応方法および標準パタン適応プログラム
Roy et al. A survey of classification techniques in speech emotion recognition
Jeon et al. Automatic prosodic event detection using a novel labeling and selection method in co-training
US10978076B2 (en) Speaker retrieval device, speaker retrieval method, and computer program product
JP2012108429A (ja) 音声選択装置、発話選択装置、音声選択システム、音声選択方法および音声選択プログラム
Sarker et al. Emotion recognition from speech based on relevant feature and majority voting

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130923

R150 Certificate of patent or registration of utility model

Ref document number: 5387274

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150