JP7298174B2 - モデル学習装置、ラベル推定装置、それらの方法、およびプログラム - Google Patents
モデル学習装置、ラベル推定装置、それらの方法、およびプログラム Download PDFInfo
- Publication number
- JP7298174B2 JP7298174B2 JP2019022353A JP2019022353A JP7298174B2 JP 7298174 B2 JP7298174 B2 JP 7298174B2 JP 2019022353 A JP2019022353 A JP 2019022353A JP 2019022353 A JP2019022353 A JP 2019022353A JP 7298174 B2 JP7298174 B2 JP 7298174B2
- Authority
- JP
- Japan
- Prior art keywords
- label
- data
- index representing
- degree
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 58
- 230000006870 function Effects 0.000 claims description 11
- 238000012545 processing Methods 0.000 description 47
- 238000011156 evaluation Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 238000013500 data storage Methods 0.000 description 7
- 230000015654 memory Effects 0.000 description 6
- 238000012706 support-vector machine Methods 0.000 description 4
- 238000013398 bayesian method Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/065—Adaptation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0631—Creating reference templates; Clustering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Machine Translation (AREA)
- Electrically Operated Instructional Devices (AREA)
Description
[第1実施形態]
まず本発明の第1実施形態を説明する。
<構成>
図1に例示するように、本実施形態のモデル学習装置1は、学習ラベルデータ記憶部11、学習特徴データ記憶部12、ラベル推定部13、および学習部14を有する。ラベル推定部13は、初期値設定部131、スキル推定部132、ラベル期待値推定部133、および制御部134を有する。図3に例示するように、本実施形態のラベル推定装置15は、モデル記憶部151、および推定部152を有する。
モデル学習装置1によるモデル学習処理の前処理として、学習ラベルデータが学習ラベルデータ記憶部11に格納され、学習特徴データが記憶部12に格納される。学習ラベルデータは、複数の評価者それぞれによって付与された複数の学習特徴データ(データ)それぞれに対する印象値ラベル(ラベル)を表す情報である。学習特徴データは、ヒトが知覚可能な情報を表すデータ(例えば、音声データ、楽曲データ、テキストデータ、画像データ、動画データなど)であってもよいし、このようなヒトが知覚可能な情報の特徴量を表すデータであってもよい。印象値ラベルは、学習特徴データに対応する「ヒトが知覚可能な情報(例えば、音声、楽曲、テキスト、画像、動画など)」を知覚した評価者が自らの判断でその学習特徴データに対して付与した正解ラベルである。例えば、印象値ラベルは、学習特徴データに対応する「ヒトが知覚可能な情報」を知覚した評価者がその情報を評価して付与した評価結果を表す数値(例えば、印象を表す数値)である。
学習ラベルデータの例を図4、学習特徴データの例を図5に示す。ただし、これらは一例であって本発明を限定するものではない。
図4に例示した学習ラベルデータは、ラベルデータ番号i、データ番号y(i,0)、評価者番号y(i,1)、および正解ラベルに対応する(例えば、正解ラベルである)印象値ラベルy(i,2)(ラベル)を有する。ここで、ラベルデータ番号i∈{0,1,…,I}は、学習ラベルデータの各レコードを識別する番号である。データ番号y(i,0)∈{0,1,…,J}は各学習特徴データを識別する番号である。評価者番号y(i,1)∈{0,1,…,K}は、学習特徴データに対応する情報(ヒトが知覚可能な情報。例えば、音声)の評価を行う各評価者を識別する番号である。印象値ラベルy(i,2)∈{0,1,…,C}は、学習特徴データに対応する情報(ヒトが知覚可能な情報。例えば、音声)に対する評価者による評価結果を表す数値である。例えば、値の大きな印象値ラベルy(i,2)ほど評価が高くてもよいし、逆に値の小さな印象値ラベルy(i,2)ほど評価が高くてもよい。ただし、I,J,K,Cはそれぞれ2以上の整数である。図4の例では、各ラベルデータ番号iが、評価対象の学習特徴データを識別するデータ番号y(i,0)と、データ番号y(i,0)の学習特徴データに対する評価を行った評価者を識別する評価者番号y(i,1)と、データ番号y(i,0)の学習特徴データに対して評価者番号y(i,1)の評価者が行った評価結果を表す印象値ラベルy(i,2)と、が対応付けられている。図4に例示するように、少なくとも一部の学習特徴データでは、1つの学習特徴データに複数の評価者によって複数の印象値ラベルy(i,2)が付与されているものとする。図5の例では、複数のデータ番号j=y(i,0)∈{0,1,…,J}のそれぞれと、データ番号jの学習特徴データx(j)とが対応付けられている。図5の例の学習特徴データx(j)は、音声信号や音声信号から抽出された特徴を要素とするベクトル等の特徴量である。
次に、本実施形態のモデル学習処理を説明する。
≪ラベル推定部13の処理≫
モデル学習装置1(図1)のラベル推定部13の処理を説明する。
評価者がデータに正しくラベルを付与できる能力は一様ではなく、評価者ごとに異なる場合がある。ラベル推定部13は、評価者がデータに正しくラベルを付与できる能力、および、データに対する各ラベルの正しさの度合いを推定する。すなわち、ラベル推定部13は、複数の評価者それぞれによって付与された複数のデータそれぞれに対するラベルを表す情報(学習ラベルデータ)を入力とし、データ(学習特徴データ)に対する各ラベル(印象値ラベル)の正しさの度合いを表す指標を既知とみなし(データに対する各ラベルの正しさの度合いを表す指標が正しいとみなし)、評価者がデータに正しくラベルを付与できる能力を表す指標を更新する第1処理と、評価者がデータに正しくラベルを付与できる能力を表す指標を既知とみなし(評価者がデータに正しくラベルを付与できる能力を表す指標が正しいとみなし)、データに対する各ラベルの正しさの度合いを表す指標を更新する第2処理と、を交互に繰り返し、これによって得られたデータに対する各ラベルの正しさの度合いを表す指標をラベル期待値として出力する。第1処理および第2処理の繰り返し処理は、例えば、潜在変数を求めながら解を推定していくアルゴリズムに従って行われる。得られたラベル期待値は学習部14に送られる。
(1-a)「データに対する各ラベルの正しさの度合いを表す指標」が、データ番号j=y(i,0)∈{0,1,…,J}に対する印象値ラベルc=y(i,2)∈{0,1,…,C}が真のラベル(正しい印象値ラベル)である確率(データjに対する各ラベルcが真のラベルである確率)hj,cである。
(1-b)「評価者がデータに正しくラベルを付与できる能力を表す指標」が、真の印象値ラベルがc∈{0,1,…,C}であるデータ番号j=y(i,0)の情報(ヒトが知覚可能な情報。例えば、音声)に対して評価者番号k=y(i,1)の評価者が印象値ラベルc’∈{0,1,…,C}を付与する(真のラベルcのデータjに対して評価者kがラベルc’を付与する確率)確率ak,c,c’である。
(1-c)「第1処理」が、確率hj,cを用いて確率ak,c,c’と各ラベルc∈{0,1,…,C}の分布qcとを更新する処理である。
(1-d)「第2処理」が、確率ak,c,c’および分布qcを用いて確率hj,cを更新する処理である。
この例のラベル推定部13は、EMアルゴリズムによって確率ak,c,c’および分布qcと確率hj,cとを交互に推定し、各j∈{0,1,…,J}およびc∈{0,1,…,C}について最適な確率hj,cをラベル期待値として学習部14に出力する。ここでは、データ番号j∈{0,1,…,J}、評価者番号k∈{0,1,…,K}、印象値ラベルc∈{0,1,…,C}を用い、学習ラベルデータのレコードからなる集合A(α,β,γ)、および各集合A(α,β,γ)に属するレコードの個数N(α,β,γ)を以下のように定義する。
A(j,k,c)={i|y(i,0)=j∧y(i,1)=k∧y(i,2)=c,∀i}
N(j,k,c)=|A(j,k,c)|
A(*,k,c)={i|y(i,1)=k∧y(i,2)=c,∀i}
N(*,k,c)=|A(*,k,c)|
A(j,*,c)={i|y(i,0)=j∧y(i,2)=c,∀i}
N(j,*,c)=|A(j,*,c)|
A(j,k,*)={i|y(i,0)=j∧y(i,1)=k,∀i}
N(j,k,*)=|A(j,k,*)|
A(j,*,*)={i|y(i,0)=j,∀i}
N(j,*,*)=|A(j,*,*)|
A(*,k,*)={i|y(i,1)=k,∀i}
N(*,k,*)=|A(*,k,*)|
A(*,*,c)={i|y(i,2)=c,∀i}
N(*,*,c)=|A(*,*,c)|
A=A(*,*,*)={∀i}
N=N(*,*,*)=|A(*,*,*)|=I+1
ただし、*は任意を示すシンボルである。集合αに対する|α|は集合αに属する要素の個数を表す。
≪ステップS131≫
ラベル推定部13の初期値設定部131(図1)は、学習ラベルデータ記憶部11に格納された学習ラベルデータ(図4)を参照し、全てのデータ番号j∈{0,1,・・,J}および全ての印象値ラベルc∈{0,1,・・・,C}について確率hj,cの初期値を設定(初期化)して出力する。確率hj,cの初期値の設定方法には特に限定はないが、初期値設定部131は、例えば以下のように確率hj,cの初期値を設定する。
初期値設定部131から出力された確率hj,cの初期値はスキル推定部132に送られる。
スキル推定部132は、最新の確率hj,cを入力とし、以下の式(2)に従って確率ak,c,c’を推定(更新)して出力する。すなわち、スキル推定部132は、確率hj,cを既知(正しい)とみなして式(2)によって確率ak,c,c’を更新して出力する。
さらにスキル推定部132は、以下の式(3)に従って全ての印象値ラベルc∈{0,1,…,C}の分布(確率分布)qcを推定(更新)して出力する。すなわち、スキル推定部132は、確率hj,cを既知(正しい)とみなして式(3)によって分布qcを更新して出力する。
スキル推定部132で更新された新たな確率ak,c,c’および分布qcはラベル期待値推定部133に送られる。
ラベル期待値推定部133は、最新の確率ak,c,c’および分布qcを入力とし、以下の式(4)(5)に従って全てのデータ番号j∈{0,1,・・,J}および全ての印象値ラベルc∈{0,1,・・・,C}について確率hj,cを推定(更新)して出力する。すなわち、ラベル期待値推定部133は、確率ak,c,c’および分布qcを既知(正しい)とみなして式(4)(5)によって確率hj,cを更新して出力する。
ラベル期待値推定部133で更新された新たな確率hj,cはスキル推定部132に送られる。
制御部134は、終了条件を充足したか否かを判定する。終了条件に限定はなく、必要なレベルにまで確率hj,cが収束したことを判断できるものであれば、どのような条件を終了条件としてもよい。例えば、制御部134は、最新のステップS133の処理で更新された確率hj,cとその更新直前の確率hj,cとの差分Δhj,cが、全てのデータ番号j∈{0,1,・・,J}および全ての印象値ラベルc∈{0,1,・・・,C}について予め設定された正の閾値δを下回った場合(Δhj,c<δ)に終了条件を充足したと判断してもよい。その他、制御部134は、ステップS132およびS133の繰り返し回数が閾値を超えた場合に終了条件を充足したと判断してもよい。終了条件を充足していないと判断された場合にはステップS132に戻る。一方、終了条件を充足したと判断された場合、ラベル期待値推定部133は最新の確率hj,cをラベル期待値として学習部14に出力し、学習部14は以下のステップS14の処理を実行する。
≪ステップS14≫
学習部14は、全てのデータ番号j∈{0,1,・・,J}および全ての印象値ラベルc∈{0,1,・・・,C}について、学習特徴データ記憶部12から読み出した学習特徴データx(j)(複数のデータ)とラベル期待値推定部133から送られたラベル期待値(確率)hj,c(当該データに対する各ラベルの正しさの度合いを表す指標であるラベル期待値)との組を学習データとして用いた学習処理を行い、入力データxに対する印象値ラベルを推定するモデルλを特定する情報(例えば、モデルパラメータ)を得て出力する。入力データxは学習特徴データx(j)と同じ種別のデータであり、例えば学習特徴データx(j)と同じフォーマットのデータである。
ただし、y^(j)はx(j)に対するニューラルネットワークモデルの推定値y^(j)=f(x(j))であり、fがモデルλであり、学習部14はの交差エントロピー誤差を最小化するようにfを更新してモデルλを得る。なお、y^(j)の上付き添え字の「^」は、本来、式(6)のように「y」の真上に記載されるべきであるが、記載表記の制約上から「^」を「y」の右上に記載している。モデルλがSVM(support vector machine)のような認識モデルであってもよい。例えば、モデルλがSVMである場合、学習部14は、全てのデータ番号j∈{0,1,・・,J}について、学習特徴データ記憶部12から読み出した各学習特徴データx(j)からC+1個の学習特徴データx(j)を生成し、学習特徴データx(j)と印象値ラベルcとサンプル重みとするラベル期待値hj,cとの組み合わせ(x(j),0,h_j,0),(x(j),1,h_j,1),・・・,(x(j),C,h_j,C)を学習データとし、各学習データ点間の距離が最大となるマージン最大化超平面を求めるという基準でモデルλのパラメータを学習する。なお、ラベル期待値hj,cはSVMのサンプル重みに対応する。
次に、本実施形態の推定処理を説明する。
上述のようにモデル学習装置1から出力されたモデルλを特定する情報は、ラベル推定装置15(図3)のモデル記憶部151に格納される。推定部152には、上述した学習特徴データx(j)と同じ種別の入力データxが入力される。推定部152はモデル記憶部151からモデルλを特定する情報を読み込み、モデルλに対して入力データxを適用し、入力データxに対するラベルyを推定して出力する。推定部152は1つの入力データxに対して、1つのラベルyを出力してもよいし、複数のラベルyを出力してもよいし、複数のラベルyの確率を出力してもよい。
次に本発明の第2実施形態を説明する。以下では、既に説明した事項との相違点を中心に説明し、説明済みの事項については同じ参照番号を用いて説明を簡略化する。
第1実施形態では、EMアルゴリズムによって、「データに対する各ラベルの正しさの度合いを表す指標」である確率hj,cと、「評価者がデータに正しくラベルを付与できる能力を表す指標」である確率ak,c,c’とを交互に推定し、各j∈{0,1,…,J}およびc∈{0,1,…,C}について最適な確率hj,cをラベル期待値としていた。しかし、1つのデータ番号y(i,0)あたり(すなわち、学習特徴データあたり)の印象値ラベルy(i,2)の数が少ない場合、上述の推定過程において確率hj,cや確率ak,c,c’が急峻に局所解に陥り、本来の適切なラベル期待値が得られなくなる場合がある。例えば、C=5の例におけるステップS132およびS133(図2)の1回目の処理において、確率hj,cがhj,0=0,hj,1=0,hj,2=0,hj,3=1,hj,4=0,hj,5=0と一意に決定され、各確率ak,c,c’も0や1に一意に決定され、それ以降の繰り返しで確率hj,cやak,c,c’が更新されない状態になる場合がある。ただ、現実的には「データに対する各ラベルの正しさの度合いを表す指標」である確率hj,cや「評価者がデータに正しくラベルを付与できる能力を表す指標」である確率ak,c,c’が0や1といった決定的な値になることは考えにくい。そこで第2実施形態では、変分ベイズ法を用い、「評価者がデータに正しくラベルを付与できる能力」を単純な確率ではなく、ディレクレ分布に従った分布として定義する。これにより、局所解に急峻に陥らせることを防ぐ。
図6に例示するように、本実施形態のモデル学習装置2は、学習ラベルデータ記憶部11、学習特徴データ記憶部12、ラベル推定部23、および学習部14を有する。ラベル推定部23は、初期値設定部131、スキル推定部232、ラベル期待値推定部233、および制御部134を有する。
第1実施形態と同じ前処理が行われる。
次に、本実施形態のモデル学習処理を説明する。
≪ラベル推定部23の処理≫
モデル学習装置2(図6)のラベル推定部23の処理を説明する。
本実施形態では、一例として以下の(2-a)から(2-d)を満たす場合を例示する。しかし、これは本発明を限定するものではない。
(2-a)「データに対する各ラベルの正しさの度合いを表す指標」が、データ番号j=y(i,0)∈{0,1,…,J}に対する印象値ラベルc=y(i,2)∈{0,1,…,C}が真のラベル(正しい印象値ラベル)である確率(データjに対する各ラベルcが真のラベルである確率)hj,cである。
(2-b)「評価者がデータに正しくラベルを付与できる能力を表す指標」が、真の印象値ラベルc∈{0,1,…,C}のデータ番号j∈{0,1,…,J}の情報(ヒトが知覚可能な情報。例えば、音声)に対して評価者番号k∈{0,1,…,K}の評価者が正しくラベル付与できる度合いを表す確率分布(真のラベルcのデータjに対して評価者kが正しくラベル付与できる度合いを表す確率分布)を特定するディレクレ分布のパラメータμk,cである。
(2-c)「第1処理」が、確率hj,cを用いてパラメータμk,cと各ラベルc∈{0,1,…,C}の分布qcの確率分布を特定するディレクレ分布のパラメータρとを更新する処理である。
(2-d)「第2処理」は、パラメータμk,cおよびパラメータρを用いて確率hj,cを更新する処理である。
この例のラベル推定部23は、変分ベイズ法によってパラメータμk,cおよびρと確率hj,cとを交互に推定し、各j∈{0,1,…,J}およびc∈{0,1,…,C}について最適な確率hj,cをラベル期待値として学習部14に出力する。
≪ステップS131≫
ラベル推定部23の初期値設定部131(図6)は、第1実施形態で説明したステップS131の処理を実行し、確率hj,cの初期値を設定(初期化)して出力する。初期値設定部131から出力された確率hj,cの初期値はスキル推定部232に送られる。
スキル推定部232は、確率hj,cを用いてパラメータμk,cと各印象値ラベルc∈{0,1,…,C}の分布qcの確率分布を特定するパラメータρとを更新する。以下に詳細に説明する。
真の印象値ラベルc∈{0,1,…,C}のデータ番号j∈{0,1,…,J}の情報(ヒトが知覚可能な情報。例えば、音声)に対して評価者番号k∈{0,1,…,K}の評価者が正しくラベル付与できる度合いを表す確率分布ak,cをディレクレ分布に従って次の式(7)のように与える。
ここでμk,cは以下のようなディリクレ分布のパラメータである。
確率分布ak,cは以下のような分布である。μ(c’) k,cは0以上の実数である。
ak,c,c’は真の印象値ラベルc∈{0,1,…,C}のデータ番号j∈{0,1,…,J}の情報(ヒトが知覚可能な情報。例えば、音声)に対して評価者番号k∈{0,1,…,K}の評価者が印象値ラベルc’∈{0,1,…,C}を付与する確率を示している。ak,c,c’は0以上1以下の実数であって以下の関係を満たす。
またΓはガンマ関数である。
すなわち、スキル推定部232は、式(8)の右辺を新たなμ(c’) k,cとする。μ(c’) k,cの初期値に限定はないが、例えばμ(c’) k,cの初期値をμ(c’) k,c=1とする。なお、式(8)のように、「μ(c’) k,c」の下付き添え字の「k,c」は本来「(c’)」の真下に記載すべきであるが、記載表記の制約上、「(c’)」の右下に記載する場合がある。
ここでqはパラメータq=(q0,q1,…,qc’,…,qC)であり、ρはディリクレ分布のパラメータρ=(ρ0,ρ1,…,ρc’,…,ρC)である。qc’およびρc’は正実数である。
すなわち、スキル推定部232は、式(10)の右辺を新たなディリクレ分布のパラメータρcとする。ρcの初期値に限定はないが、例えばρcの初期値をρc=1とする。
スキル推定部232で更新された新たなμk,cおよびρはラベル期待値推定部233に送られる。
ラベル期待値推定部233は、最新のパラメータμk,cおよびパラメータρを入力とし、これらを用いて確率hj,cを以下の式(11)(12)のように推定(更新)して出力する。
ここでΨはディガンマ関数であり、ガンマ関数の逆関数を示す。ラベル期待値推定部233で更新された新たな確率hj,cはスキル推定部232に送られる。
第1実施形態で説明したように、制御部134は終了条件を充足したか否かを判定する。終了条件を充足していないと判断された場合にはステップS132に戻る。一方、終了条件を充足したと判断された場合、ラベル期待値推定部133は最新の確率hj,cをラベル期待値として学習部14に出力し、学習部14は第1実施形態で説明したステップS14の処理を実行する。その後実行される学習部14の処理およびラベル推定装置15による推定処理は、第1実施形態で説明した通りである。
図8は、評価者の総数を269名とし、1つのデータ番号y(i,0)に対応する音声ごとに2名ずつの評価者が音声の印象を「高/低」の2値で評価し、それらの評価結果を表す2値の印象値ラベルy(i,2)∈{0,1}を付与して得られた学習ラベルデータを用い、第1,2実施形態の方法で求めたラベル期待値hj,c(データ番号j∈{0,1,…,268}に対する印象値ラベルc∈{0,1}が真のラベルである確率hj,c)を例示した図である。印象値ラベルcは、1に近ければ近いほど印象が「高」であることを示し、0に近ければ近いほど印象が「低」を示す。縦軸の値は第1実施形態の方法(EMアルゴリズム)で推定されたラベル期待値(確率)hj,cを表し、横軸の値は第2実施形態の方法(変分ベイズ法)で推定されたラベル期待値(確率)hj,cを表す。図中の×マークは、そのデータ番号y(i,0)に対応する音声に対して2名の評価者が共に「低」の印象、すなわち印象値ラベルc=0を付した事象を表す。〇マークは、そのデータ番号y(i,0)に対応する音声に対して2名の評価者が共に「高」の印象、すなわち印象値ラベルc=1を付した事象を表す。△マークは、そのデータ番号y(i,0)に対応する音声に対して2名の評価者の印象が分かれた事象、すなわち、一方の評価者が印象値ラベルc=0を付し、他方の評価者が印象値ラベルc=1を付した事象を表す。この図から分かるように、横軸の値が0または1である事象が多く、第1実施形態の方法(EMアルゴリズム)で推定されたラベル期待値hj,cは1または0の局所解に収束することも多いことが分かる。一方、縦軸の値が0または1である事象は少なく、第2実施形態の方法(変分ベイズ法)で推定されたラベル期待値hj,cは局所解に収束することが少なく、ラベル期待値hj,cが0から1の間に広く分布していることが分かる。
なお、本発明は上述の実施形態に限定されるものではない。例えば、第1実施形態では、初期値設定部131が確率hj,cの初期値を設定し(ステップS131)、スキル推定部132が確率hj,cを用いて確率ak,c,c’および分布qcを更新する処理(ステップS132)を行った後に、ラベル期待値推定部133が確率ak,c,c’および分布qcを用いて確率hj,cを更新する処理(ステップS133)を行うことを繰り返した。この順序が最適であるが、スキル推定部132の処理とラベル期待値推定部133の処理との順序を入れ替えてもよい。すなわち、初期値設定部131が確率ak,c,c’および分布qcの初期値を設定し、ラベル期待値推定部133が確率ak,c,c’および分布qcを用いて確率hj,cを更新する処理(ステップS133)を行った後に、スキル推定部132が確率hj,cを用いて確率ak,c,c’および分布qcを更新する処理(ステップS132)を行うことを繰り返してもよい。この場合にも終了条件を満たした時点で最新の確率hj,cをラベル期待値hj,cとすればよい。確率ak,c,c’の初期値としては、データ番号jの「ヒトが知覚可能な情報(音声等)」に対して評価者番号kの評価者が付した印象値ラベルc’に対し、同じデータ番号jの「ヒトが知覚可能な情報(音声等)」に対して他の評価者が同じ評価値ラベルc’を付した数が多いほど大きくなる値(0以上1以下の値)を例示できる。分布qcの初期値としては1を例示できる。
15 ラベル推定装置
Claims (11)
- 複数のデータと、複数の評価者によって付与された前記複数のデータそれぞれに対する複数のラベルに基づく、前記データに対する各ラベルがどの程度正しく付与されたかの度合いを表す指標であるラベル期待値と、の組を学習データとして用いた学習処理を行い、入力データに対するラベルを推定するモデルを得る、モデル学習装置。
- 複数のデータと前記データに対する各ラベルの正しさの度合いを表す指標であるラベル期待値との組を学習データとして用いた学習処理を行い、入力データに対するラベルを推定するモデルを得、
前記ラベル期待値は、
複数の評価者それぞれによって付与された前記複数のデータそれぞれに対するラベルを表す情報を入力とし、
前記データに対する各ラベルの正しさの度合いを表す指標を既知とみなし、前記評価者が前記データに正しくラベルを付与できる能力を表す指標を更新する第1処理と、
前記評価者が前記データに正しくラベルを付与できる能力を表す指標を既知とみなし、前記データに対する各ラベルの正しさの度合いを表す指標を更新する第2処理と、
を交互に繰り返すことで得られた、前記データに対する各ラベルの正しさの度合いを表す指標である、モデル学習装置。 - 請求項2のモデル学習装置であって、
(1)前記データに対する各ラベルの正しさの度合いを表す指標は、前記データjに対する各ラベルcが真のラベルである確率hj,cであり、前記評価者が前記データに正しくラベルを付与できる能力を表す指標は、真のラベルcの前記データjに対して前記評価者kがラベルc’を付与する確率ak,c,c’であり、前記第1処理は、前記確率hj,cを用いて前記確率ak,c,c’と各ラベルcの分布qcとを更新する処理であり、前記第2処理は、前記確率ak,c,c’および前記分布qcを用いて前記確率hj,cを更新する処理である、または
(2)前記データに対する各ラベルの正しさの度合いを表す指標は、前記データjに対する各ラベルcが真のラベルである確率hj,cであり、前記評価者が前記データに正しくラベルを付与できる能力を表す指標は、真のラベルcの前記データjに対して前記評価者kが正しくラベル付与できる度合いを表す確率分布を特定するパラメータμk,cであり、前記第1処理は、前記確率hj,cを用いて前記パラメータμk,cと各ラベルcの分布qcの確率分布を特定するパラメータρとを更新する処理であり、前記第2処理は、前記パラメータμk,cおよび前記パラメータρを用いて前記確率hj,cを更新する処理である、モデル学習装置。 - 複数のデータと、複数の評価者によって付与された前記複数のデータそれぞれに対する複数のラベルに基づく、前記データに対する各ラベルがどの程度正しく付与されたかの度合いを表す指標であるラベル期待値と、の組を学習データとして用いた学習処理を行って得られたモデルに対して入力データを適用し、前記入力データに対するラベルを推定するラベル推定装置。
- 複数のデータと前記データに対する各ラベルの正しさの度合いを表す指標であるラベル期待値との組を学習データとして用いた学習処理を行って得られたモデルに対して入力データを適用し、前記入力データに対するラベルを推定し、
前記ラベル期待値は、
複数の評価者それぞれによって付与された前記複数のデータそれぞれに対するラベルを表す情報を入力とし、
前記データに対する各ラベルの正しさの度合いを表す指標を既知とみなし、前記評価者が前記データに正しくラベルを付与できる能力を表す指標を更新する第1処理と、
前記評価者が前記データに正しくラベルを付与できる能力を表す指標を既知とみなし、前記データに対する各ラベルの正しさの度合いを表す指標を更新する第2処理と、
を交互に繰り返すことで得られた、前記データに対する各ラベルの正しさの度合いを表す指標である、ラベル推定装置。 - 複数のデータと、複数の評価者によって付与された前記複数のデータそれぞれに対する複数のラベルに基づく、前記データに対する各ラベルがどの程度正しく付与されたかの度合いを表す指標であるラベル期待値と、の組を学習データとして用いた学習処理を行い、入力データに対するラベルを推定するモデルを得る、モデル学習方法。
- 複数のデータと前記データに対する各ラベルの正しさの度合いを表す指標であるラベル期待値との組を学習データとして用いた学習処理を行い、入力データに対するラベルを推定するモデルを得、
前記ラベル期待値は、
複数の評価者それぞれによって付与された前記複数のデータそれぞれに対するラベルを表す情報を入力とし、
前記データに対する各ラベルの正しさの度合いを表す指標を既知とみなし、前記評価者が前記データに正しくラベルを付与できる能力を表す指標を更新する第1処理と、
前記評価者が前記データに正しくラベルを付与できる能力を表す指標を既知とみなし、前記データに対する各ラベルの正しさの度合いを表す指標を更新する第2処理と、
を交互に繰り返すことで得られた、前記データに対する各ラベルの正しさの度合いを表す指標である、モデル学習方法。 - ラベル推定装置によるラベル推定方法であって、
複数のデータと、複数の評価者によって付与された前記複数のデータそれぞれに対する複数のラベルに基づく、前記データに対する各ラベルがどの程度正しく付与されたかの度合いを表す指標であるラベル期待値と、の組を学習データとして用いた学習処理を行って得られたモデルに対して入力データを適用し、前記入力データに対するラベルを推定するラベル推定方法。 - ラベル推定装置によるラベル推定方法であって、
複数のデータと前記データに対する各ラベルの正しさの度合いを表す指標であるラベル期待値との組を学習データとして用いた学習処理を行って得られたモデルに対して入力データを適用し、前記入力データに対するラベルを推定し、
前記ラベル期待値は、
複数の評価者それぞれによって付与された前記複数のデータそれぞれに対するラベルを表す情報を入力とし、
前記データに対する各ラベルの正しさの度合いを表す指標を既知とみなし、前記評価者が前記データに正しくラベルを付与できる能力を表す指標を更新する第1処理と、
前記評価者が前記データに正しくラベルを付与できる能力を表す指標を既知とみなし、前記データに対する各ラベルの正しさの度合いを表す指標を更新する第2処理と、
を交互に繰り返すことで得られた、前記データに対する各ラベルの正しさの度合いを表す指標である、ラベル推定方法。 - 請求項1から3の何れかのモデル学習装置としてコンピュータを機能させるためのプログラム。
- 請求項4または5のラベル推定装置としてコンピュータを機能させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019022353A JP7298174B2 (ja) | 2019-02-12 | 2019-02-12 | モデル学習装置、ラベル推定装置、それらの方法、およびプログラム |
PCT/JP2020/003061 WO2020166321A1 (ja) | 2019-02-12 | 2020-01-29 | モデル学習装置、ラベル推定装置、それらの方法、およびプログラム |
US17/429,875 US20220108217A1 (en) | 2019-02-12 | 2020-01-29 | Model learning apparatus, label estimation apparatus, method and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019022353A JP7298174B2 (ja) | 2019-02-12 | 2019-02-12 | モデル学習装置、ラベル推定装置、それらの方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020129322A JP2020129322A (ja) | 2020-08-27 |
JP7298174B2 true JP7298174B2 (ja) | 2023-06-27 |
Family
ID=72044865
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019022353A Active JP7298174B2 (ja) | 2019-02-12 | 2019-02-12 | モデル学習装置、ラベル推定装置、それらの方法、およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220108217A1 (ja) |
JP (1) | JP7298174B2 (ja) |
WO (1) | WO2020166321A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112529104B (zh) * | 2020-12-23 | 2024-06-18 | 东软睿驰汽车技术(沈阳)有限公司 | 一种车辆故障预测模型生成方法、故障预测方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018106662A (ja) | 2016-12-22 | 2018-07-05 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
JP2019022353A (ja) | 2017-07-19 | 2019-02-07 | 株式会社明電舎 | オフセット推定器、および、インバータ制御装置、および、オフセット推定方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009282686A (ja) * | 2008-05-21 | 2009-12-03 | Toshiba Corp | 分類モデル学習装置および分類モデル学習方法 |
JP2011203991A (ja) * | 2010-03-25 | 2011-10-13 | Sony Corp | 情報処理装置、情報処理方法、およびプログラム |
-
2019
- 2019-02-12 JP JP2019022353A patent/JP7298174B2/ja active Active
-
2020
- 2020-01-29 US US17/429,875 patent/US20220108217A1/en active Pending
- 2020-01-29 WO PCT/JP2020/003061 patent/WO2020166321A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018106662A (ja) | 2016-12-22 | 2018-07-05 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
JP2019022353A (ja) | 2017-07-19 | 2019-02-07 | 株式会社明電舎 | オフセット推定器、および、インバータ制御装置、および、オフセット推定方法 |
Non-Patent Citations (3)
Title |
---|
HINTON, Geoffrey et al.,"Distilling the Knowledge in a Neural Network" [online],arXiv,2015年03月,[2020年06月02日検索],インターネット<URL:https://arxiv.org/abs/1503.02531v1>,1503.02531v1 |
HINTON, Geoffrey et al.,"Distilling the Knowledge in a Neural Network",arXiv [online],2015年03月,[2020年06月02日検索],インターネット<URL:https://arxiv.org/abs/1503.02531v1>,1503.02531v1 |
鹿島 久嗣,ほか2名,"ヒューマンコンピュテーションとクラウドソーシング",株式会社講談社,2016年04月19日,ISBN 978-4-06-152913-7 |
Also Published As
Publication number | Publication date |
---|---|
JP2020129322A (ja) | 2020-08-27 |
WO2020166321A1 (ja) | 2020-08-20 |
US20220108217A1 (en) | 2022-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20190378044A1 (en) | Processing dynamic data within an adaptive oracle-trained learning system using curated training data for incremental re-training of a predictive model | |
JP7222274B2 (ja) | モデル学習装置、ラベル推定装置、それらの方法、およびプログラム | |
US20200302337A1 (en) | Automatic selection of high quality training data using an adaptive oracle-trained learning framework | |
CN109086654B (zh) | 手写模型训练方法、文本识别方法、装置、设备及介质 | |
US20220067588A1 (en) | Transforming a trained artificial intelligence model into a trustworthy artificial intelligence model | |
US20210319338A1 (en) | System and method for testing machine learning | |
CN113826125A (zh) | 使用无监督数据增强来训练机器学习模型 | |
US20210241156A1 (en) | System and method for machine learning architecture with adaptive importance sampling with normalizing flows | |
CN111340245B (zh) | 一种模型训练方法及系统 | |
US20220180250A1 (en) | Processing dynamic data within an adaptive oracle-trained learning system using dynamic data set distribution optimization | |
WO2021001517A1 (en) | Question answering systems | |
CN112836750A (zh) | 一种系统资源分配方法、装置及设备 | |
JP7298174B2 (ja) | モデル学習装置、ラベル推定装置、それらの方法、およびプログラム | |
CN115080749A (zh) | 一种基于自监督训练的弱监督文本分类方法、系统和装置 | |
CN111161238A (zh) | 图像质量评价方法及装置、电子设备、存储介质 | |
CN111737417B (zh) | 修正自然语言生成结果的方法和装置 | |
EP3619654B1 (en) | Continuous parametrizations of neural network layer weights | |
CN110059743B (zh) | 确定预测的可靠性度量的方法、设备和存储介质 | |
CN116956171A (zh) | 基于ai模型的分类方法、装置、设备及存储介质 | |
CN110717037A (zh) | 对用户分类的方法和装置 | |
US20240020531A1 (en) | System and Method for Transforming a Trained Artificial Intelligence Model Into a Trustworthy Artificial Intelligence Model | |
JP2020126141A (ja) | 音響モデル学習装置、音響モデル学習方法、プログラム | |
JP7315091B2 (ja) | モデル学習装置、その方法、およびプログラム | |
CN113656669A (zh) | 标签更新方法及装置 | |
CN112348045B (zh) | 神经网络的训练方法、训练装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220805 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230124 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230320 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230405 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230516 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230529 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7298174 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |