JP7298174B2 - モデル学習装置、ラベル推定装置、それらの方法、およびプログラム - Google Patents

モデル学習装置、ラベル推定装置、それらの方法、およびプログラム Download PDF

Info

Publication number
JP7298174B2
JP7298174B2 JP2019022353A JP2019022353A JP7298174B2 JP 7298174 B2 JP7298174 B2 JP 7298174B2 JP 2019022353 A JP2019022353 A JP 2019022353A JP 2019022353 A JP2019022353 A JP 2019022353A JP 7298174 B2 JP7298174 B2 JP 7298174B2
Authority
JP
Japan
Prior art keywords
label
data
index representing
degree
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019022353A
Other languages
English (en)
Other versions
JP2020129322A (ja
Inventor
歩相名 神山
哲 小橋川
厚志 安藤
亮 増村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2019022353A priority Critical patent/JP7298174B2/ja
Priority to PCT/JP2020/003061 priority patent/WO2020166321A1/ja
Priority to US17/429,875 priority patent/US20220108217A1/en
Publication of JP2020129322A publication Critical patent/JP2020129322A/ja
Application granted granted Critical
Publication of JP7298174B2 publication Critical patent/JP7298174B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0631Creating reference templates; Clustering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Machine Translation (AREA)
  • Electrically Operated Instructional Devices (AREA)

Description

本発明は、モデル学習およびラベル推定に関する。
電話音声の好感度(非特許文献1)や外国語の発音の良さ・流暢さ(非特許文献2)等の印象を評価して会話の技能を図るテストでは、音声に対して定量的な印象値(例えば、「良い」から「悪い」の5段階評価、好感度が「高い」から「低い」の5段階評価、自然さが「高い」から「低い」の5段階評価等)が付与される。
現在は、各技能の専門家が音声の印象を評価して印象値を付与し、合格・不合格の判定を行っている。しかし、音声の印象を自動推定して印象値が得られるようになると、それをテストの足切り判定等に活用したり、評価に不慣れな専門家(例えば評価者になりたての人物)への参考値として用いたりできる。
機械学習を用いてデータ(例えば、音声データ)に対するラベル(例えば、印象値)の自動推定を実現するためには、データとそのデータに付与されたラベルとの組みを学習データとした学習処理を行い、入力データに対するラベルを推定するモデルを生成すればよい。
しかし、評価者には個人差があり、またラベルを付与することに慣れていない評価者がデータにラベルを付与する場合もある。そのため、同じデータに対して異なる評価者が異なるラベルを付与することもある。
複数の評価者によるラベルの値を平均したようなラベルを推定するモデルを学習するためには、同一のデータに対して複数人の評価者がラベルを付与し、それらの値を平均したラベルと当該データとの組を学習データとすればよい。平均的なラベルを安定して推定できるようになるには、できるだけ多人数の評価者が同一のデータにラベルを付与するとよい。例えば、非特許文献3では同一のデータに対して10名の評価者がラベルを付与している。
F. Burkhardt, B. Schuller, B. Weiss and F. Weninger, "Would You Buy a Car From Me?" On the Likability of Telephone Voices," In Proc. Interspeech, pp. 1557 - 1560, 2011. Kei Ohta and Seiichi Nakagawa, "A statistical method of evaluating pronunciation proficiency for Japanese words," INTERSPEECH2005, pp. 2233 - 2236. 籠宮隆之,山住賢司,槙洋一,"印象評定データの概要", [online], [平成31年1月28日検索],インターネット<http://pj.ninjal.ac.jp/corpus_center/csj/manu-f/impression.pdf>
評価者の中には、評価能力の高い人物とそうではない人物が存在する。1データあたりの評価者が多い場合、評価能力の低い評価者が混在していても、評価能力の高い評価者が付与したラベルによって学習データのラベルはある程度正確なものに補正される。しかし、1データあたりの評価者が少ない場合、評価者の評価能力不足によって学習データのラベル誤りが大きくなり、精度の高いラベルを推定するモデルを学習できなくなる場合が生じる。
本発明はこのような点に鑑みてなされたものであり、1データあたりの評価者が少ない学習データを用いた場合であっても、高い精度でラベル推定を行うことが可能なモデルを学習できる技術を提供することである。
本発明では、複数のデータと前記データに対する各ラベルの正しさの度合いを表す指標であるラベル期待値との組を学習データとして用いた学習処理を行い、入力データに対するラベルを推定するモデルを得る。
本発明では、複数のデータとラベル期待値との組を学習データとして用いるため、1データあたりの評価者が少ない場合であっても、高い精度でラベル推定を行うことが可能なモデルを学習できる。
図1は第1実施形態のモデル学習装置の機能構成を例示したブロック図である。 図2は第1実施形態のモデル学習方法を例示するためのフロー図である。 図3は実施形態のラベル推定装置の機能構成を例示したブロック図である。 図4は実施形態の学習ラベルデータを例示するための図である。 図5は実施形態の学習特徴データを例示するための図である。 図6は第2実施形態のモデル学習装置の機能構成を例示したブロック図である。 図7は第2実施形態のモデル学習方法を例示するためのフロー図である。 図8は第1,2実施形態で推定されたラベル期待値を例示するための図である。
以下、図面を参照して本発明の実施形態を説明する。
[第1実施形態]
まず本発明の第1実施形態を説明する。
<構成>
図1に例示するように、本実施形態のモデル学習装置1は、学習ラベルデータ記憶部11、学習特徴データ記憶部12、ラベル推定部13、および学習部14を有する。ラベル推定部13は、初期値設定部131、スキル推定部132、ラベル期待値推定部133、および制御部134を有する。図3に例示するように、本実施形態のラベル推定装置15は、モデル記憶部151、および推定部152を有する。
<前処理>
モデル学習装置1によるモデル学習処理の前処理として、学習ラベルデータが学習ラベルデータ記憶部11に格納され、学習特徴データが記憶部12に格納される。学習ラベルデータは、複数の評価者それぞれによって付与された複数の学習特徴データ(データ)それぞれに対する印象値ラベル(ラベル)を表す情報である。学習特徴データは、ヒトが知覚可能な情報を表すデータ(例えば、音声データ、楽曲データ、テキストデータ、画像データ、動画データなど)であってもよいし、このようなヒトが知覚可能な情報の特徴量を表すデータであってもよい。印象値ラベルは、学習特徴データに対応する「ヒトが知覚可能な情報(例えば、音声、楽曲、テキスト、画像、動画など)」を知覚した評価者が自らの判断でその学習特徴データに対して付与した正解ラベルである。例えば、印象値ラベルは、学習特徴データに対応する「ヒトが知覚可能な情報」を知覚した評価者がその情報を評価して付与した評価結果を表す数値(例えば、印象を表す数値)である。
≪学習ラベルデータ・学習特徴データの例示≫
学習ラベルデータの例を図4、学習特徴データの例を図5に示す。ただし、これらは一例であって本発明を限定するものではない。
図4に例示した学習ラベルデータは、ラベルデータ番号i、データ番号y(i,0)、評価者番号y(i,1)、および正解ラベルに対応する(例えば、正解ラベルである)印象値ラベルy(i,2)(ラベル)を有する。ここで、ラベルデータ番号i∈{0,1,…,I}は、学習ラベルデータの各レコードを識別する番号である。データ番号y(i,0)∈{0,1,…,J}は各学習特徴データを識別する番号である。評価者番号y(i,1)∈{0,1,…,K}は、学習特徴データに対応する情報(ヒトが知覚可能な情報。例えば、音声)の評価を行う各評価者を識別する番号である。印象値ラベルy(i,2)∈{0,1,…,C}は、学習特徴データに対応する情報(ヒトが知覚可能な情報。例えば、音声)に対する評価者による評価結果を表す数値である。例えば、値の大きな印象値ラベルy(i,2)ほど評価が高くてもよいし、逆に値の小さな印象値ラベルy(i,2)ほど評価が高くてもよい。ただし、I,J,K,Cはそれぞれ2以上の整数である。図4の例では、各ラベルデータ番号iが、評価対象の学習特徴データを識別するデータ番号y(i,0)と、データ番号y(i,0)の学習特徴データに対する評価を行った評価者を識別する評価者番号y(i,1)と、データ番号y(i,0)の学習特徴データに対して評価者番号y(i,1)の評価者が行った評価結果を表す印象値ラベルy(i,2)と、が対応付けられている。図4に例示するように、少なくとも一部の学習特徴データでは、1つの学習特徴データに複数の評価者によって複数の印象値ラベルy(i,2)が付与されているものとする。図5の例では、複数のデータ番号j=y(i,0)∈{0,1,…,J}のそれぞれと、データ番号jの学習特徴データx(j)とが対応付けられている。図5の例の学習特徴データx(j)は、音声信号や音声信号から抽出された特徴を要素とするベクトル等の特徴量である。
<モデル学習処理>
次に、本実施形態のモデル学習処理を説明する。
≪ラベル推定部13の処理≫
モデル学習装置1(図1)のラベル推定部13の処理を説明する。
評価者がデータに正しくラベルを付与できる能力は一様ではなく、評価者ごとに異なる場合がある。ラベル推定部13は、評価者がデータに正しくラベルを付与できる能力、および、データに対する各ラベルの正しさの度合いを推定する。すなわち、ラベル推定部13は、複数の評価者それぞれによって付与された複数のデータそれぞれに対するラベルを表す情報(学習ラベルデータ)を入力とし、データ(学習特徴データ)に対する各ラベル(印象値ラベル)の正しさの度合いを表す指標を既知とみなし(データに対する各ラベルの正しさの度合いを表す指標が正しいとみなし)、評価者がデータに正しくラベルを付与できる能力を表す指標を更新する第1処理と、評価者がデータに正しくラベルを付与できる能力を表す指標を既知とみなし(評価者がデータに正しくラベルを付与できる能力を表す指標が正しいとみなし)、データに対する各ラベルの正しさの度合いを表す指標を更新する第2処理と、を交互に繰り返し、これによって得られたデータに対する各ラベルの正しさの度合いを表す指標をラベル期待値として出力する。第1処理および第2処理の繰り返し処理は、例えば、潜在変数を求めながら解を推定していくアルゴリズムに従って行われる。得られたラベル期待値は学習部14に送られる。
本実施形態では、一例として以下の(1-a)から(1-d)を満たす場合を例示する。しかし、これは本発明を限定するものではない。
(1-a)「データに対する各ラベルの正しさの度合いを表す指標」が、データ番号j=y(i,0)∈{0,1,…,J}に対する印象値ラベルc=y(i,2)∈{0,1,…,C}が真のラベル(正しい印象値ラベル)である確率(データjに対する各ラベルcが真のラベルである確率)hj,cである。
(1-b)「評価者がデータに正しくラベルを付与できる能力を表す指標」が、真の印象値ラベルがc∈{0,1,…,C}であるデータ番号j=y(i,0)の情報(ヒトが知覚可能な情報。例えば、音声)に対して評価者番号k=y(i,1)の評価者が印象値ラベルc’∈{0,1,…,C}を付与する(真のラベルcのデータjに対して評価者kがラベルc’を付与する確率)確率ak,c,c’である。
(1-c)「第1処理」が、確率hj,cを用いて確率ak,c,c’と各ラベルc∈{0,1,…,C}の分布qとを更新する処理である。
(1-d)「第2処理」が、確率ak,c,c’および分布qを用いて確率hj,cを更新する処理である。
この例のラベル推定部13は、EMアルゴリズムによって確率ak,c,c’および分布qと確率hj,cとを交互に推定し、各j∈{0,1,…,J}およびc∈{0,1,…,C}について最適な確率hj,cをラベル期待値として学習部14に出力する。ここでは、データ番号j∈{0,1,…,J}、評価者番号k∈{0,1,…,K}、印象値ラベルc∈{0,1,…,C}を用い、学習ラベルデータのレコードからなる集合A(α,β,γ)、および各集合A(α,β,γ)に属するレコードの個数N(α,β,γ)を以下のように定義する。
A(j,k,c)={i|y(i,0)=j∧y(i,1)=k∧y(i,2)=c,∀i}
N(j,k,c)=|A(j,k,c)|
A(*,k,c)={i|y(i,1)=k∧y(i,2)=c,∀i}
N(*,k,c)=|A(*,k,c)|
A(j,*,c)={i|y(i,0)=j∧y(i,2)=c,∀i}
N(j,*,c)=|A(j,*,c)|
A(j,k,*)={i|y(i,0)=j∧y(i,1)=k,∀i}
N(j,k,*)=|A(j,k,*)|
A(j,*,*)={i|y(i,0)=j,∀i}
N(j,*,*)=|A(j,*,*)|
A(*,k,*)={i|y(i,1)=k,∀i}
N(*,k,*)=|A(*,k,*)|
A(*,*,c)={i|y(i,2)=c,∀i}
N(*,*,c)=|A(*,*,c)|
A=A(*,*,*)={∀i}
N=N(*,*,*)=|A(*,*,*)|=I+1
ただし、*は任意を示すシンボルである。集合αに対する|α|は集合αに属する要素の個数を表す。
図2を用い、ラベル推定部13の処理の詳細を説明する。
≪ステップS131≫
ラベル推定部13の初期値設定部131(図1)は、学習ラベルデータ記憶部11に格納された学習ラベルデータ(図4)を参照し、全てのデータ番号j∈{0,1,・・,J}および全ての印象値ラベルc∈{0,1,・・・,C}について確率hj,cの初期値を設定(初期化)して出力する。確率hj,cの初期値の設定方法には特に限定はないが、初期値設定部131は、例えば以下のように確率hj,cの初期値を設定する。
Figure 0007298174000001

初期値設定部131から出力された確率hj,cの初期値はスキル推定部132に送られる。
≪ステップS132≫
スキル推定部132は、最新の確率hj,cを入力とし、以下の式(2)に従って確率ak,c,c’を推定(更新)して出力する。すなわち、スキル推定部132は、確率hj,cを既知(正しい)とみなして式(2)によって確率ak,c,c’を更新して出力する。
Figure 0007298174000002

さらにスキル推定部132は、以下の式(3)に従って全ての印象値ラベルc∈{0,1,…,C}の分布(確率分布)qを推定(更新)して出力する。すなわち、スキル推定部132は、確率hj,cを既知(正しい)とみなして式(3)によって分布qを更新して出力する。
Figure 0007298174000003

スキル推定部132で更新された新たな確率ak,c,c’および分布qはラベル期待値推定部133に送られる。
≪ステップS133≫
ラベル期待値推定部133は、最新の確率ak,c,c’および分布qを入力とし、以下の式(4)(5)に従って全てのデータ番号j∈{0,1,・・,J}および全ての印象値ラベルc∈{0,1,・・・,C}について確率hj,cを推定(更新)して出力する。すなわち、ラベル期待値推定部133は、確率ak,c,c’および分布qを既知(正しい)とみなして式(4)(5)によって確率hj,cを更新して出力する。
Figure 0007298174000004

Figure 0007298174000005

ラベル期待値推定部133で更新された新たな確率hj,cはスキル推定部132に送られる。
≪ステップS134≫
制御部134は、終了条件を充足したか否かを判定する。終了条件に限定はなく、必要なレベルにまで確率hj,cが収束したことを判断できるものであれば、どのような条件を終了条件としてもよい。例えば、制御部134は、最新のステップS133の処理で更新された確率hj,cとその更新直前の確率hj,cとの差分Δhj,cが、全てのデータ番号j∈{0,1,・・,J}および全ての印象値ラベルc∈{0,1,・・・,C}について予め設定された正の閾値δを下回った場合(Δhj,c<δ)に終了条件を充足したと判断してもよい。その他、制御部134は、ステップS132およびS133の繰り返し回数が閾値を超えた場合に終了条件を充足したと判断してもよい。終了条件を充足していないと判断された場合にはステップS132に戻る。一方、終了条件を充足したと判断された場合、ラベル期待値推定部133は最新の確率hj,cをラベル期待値として学習部14に出力し、学習部14は以下のステップS14の処理を実行する。
≪学習部14の処理≫
≪ステップS14≫
学習部14は、全てのデータ番号j∈{0,1,・・,J}および全ての印象値ラベルc∈{0,1,・・・,C}について、学習特徴データ記憶部12から読み出した学習特徴データx(j)(複数のデータ)とラベル期待値推定部133から送られたラベル期待値(確率)hj,c(当該データに対する各ラベルの正しさの度合いを表す指標であるラベル期待値)との組を学習データとして用いた学習処理を行い、入力データxに対する印象値ラベルを推定するモデルλを特定する情報(例えば、モデルパラメータ)を得て出力する。入力データxは学習特徴データx(j)と同じ種別のデータであり、例えば学習特徴データx(j)と同じフォーマットのデータである。
学習部14が行う学習処理の種別、および学習処理によって得られるモデルλの種別に限定はない。例えば、モデルλがニューラルネットワークモデルの場合、学習部14は交差エントロピー誤差を最小化するように学習を行えばよい。例えば、学習部14は次の式(6)の交差エントロピー誤差を最小化するように学習を行ってモデルλを得ればよい。
Figure 0007298174000006

ただし、y^(j)はx(j)に対するニューラルネットワークモデルの推定値y^(j)=f(x(j))であり、fがモデルλであり、学習部14はの交差エントロピー誤差を最小化するようにfを更新してモデルλを得る。なお、y^(j)の上付き添え字の「^」は、本来、式(6)のように「y」の真上に記載されるべきであるが、記載表記の制約上から「^」を「y」の右上に記載している。モデルλがSVM(support vector machine)のような認識モデルであってもよい。例えば、モデルλがSVMである場合、学習部14は、全てのデータ番号j∈{0,1,・・,J}について、学習特徴データ記憶部12から読み出した各学習特徴データx(j)からC+1個の学習特徴データx(j)を生成し、学習特徴データx(j)と印象値ラベルcとサンプル重みとするラベル期待値hj,cとの組み合わせ(x(j),0,h_j,0),(x(j),1,h_j,1),・・・,(x(j),C,h_j,C)を学習データとし、各学習データ点間の距離が最大となるマージン最大化超平面を求めるという基準でモデルλのパラメータを学習する。なお、ラベル期待値hj,cはSVMのサンプル重みに対応する。
<推定処理>
次に、本実施形態の推定処理を説明する。
上述のようにモデル学習装置1から出力されたモデルλを特定する情報は、ラベル推定装置15(図3)のモデル記憶部151に格納される。推定部152には、上述した学習特徴データx(j)と同じ種別の入力データxが入力される。推定部152はモデル記憶部151からモデルλを特定する情報を読み込み、モデルλに対して入力データxを適用し、入力データxに対するラベルyを推定して出力する。推定部152は1つの入力データxに対して、1つのラベルyを出力してもよいし、複数のラベルyを出力してもよいし、複数のラベルyの確率を出力してもよい。
[第2実施形態]
次に本発明の第2実施形態を説明する。以下では、既に説明した事項との相違点を中心に説明し、説明済みの事項については同じ参照番号を用いて説明を簡略化する。
第1実施形態では、EMアルゴリズムによって、「データに対する各ラベルの正しさの度合いを表す指標」である確率hj,cと、「評価者がデータに正しくラベルを付与できる能力を表す指標」である確率ak,c,c’とを交互に推定し、各j∈{0,1,…,J}およびc∈{0,1,…,C}について最適な確率hj,cをラベル期待値としていた。しかし、1つのデータ番号y(i,0)あたり(すなわち、学習特徴データあたり)の印象値ラベルy(i,2)の数が少ない場合、上述の推定過程において確率hj,cや確率ak,c,c’が急峻に局所解に陥り、本来の適切なラベル期待値が得られなくなる場合がある。例えば、C=5の例におけるステップS132およびS133(図2)の1回目の処理において、確率hj,cがhj,0=0,hj,1=0,hj,2=0,hj,3=1,hj,4=0,hj,5=0と一意に決定され、各確率ak,c,c’も0や1に一意に決定され、それ以降の繰り返しで確率hj,cやak,c,c’が更新されない状態になる場合がある。ただ、現実的には「データに対する各ラベルの正しさの度合いを表す指標」である確率hj,cや「評価者がデータに正しくラベルを付与できる能力を表す指標」である確率ak,c,c’が0や1といった決定的な値になることは考えにくい。そこで第2実施形態では、変分ベイズ法を用い、「評価者がデータに正しくラベルを付与できる能力」を単純な確率ではなく、ディレクレ分布に従った分布として定義する。これにより、局所解に急峻に陥らせることを防ぐ。
<構成>
図6に例示するように、本実施形態のモデル学習装置2は、学習ラベルデータ記憶部11、学習特徴データ記憶部12、ラベル推定部23、および学習部14を有する。ラベル推定部23は、初期値設定部131、スキル推定部232、ラベル期待値推定部233、および制御部134を有する。
<前処理>
第1実施形態と同じ前処理が行われる。
<モデル学習処理>
次に、本実施形態のモデル学習処理を説明する。
≪ラベル推定部23の処理≫
モデル学習装置2(図6)のラベル推定部23の処理を説明する。
本実施形態では、一例として以下の(2-a)から(2-d)を満たす場合を例示する。しかし、これは本発明を限定するものではない。
(2-a)「データに対する各ラベルの正しさの度合いを表す指標」が、データ番号j=y(i,0)∈{0,1,…,J}に対する印象値ラベルc=y(i,2)∈{0,1,…,C}が真のラベル(正しい印象値ラベル)である確率(データjに対する各ラベルcが真のラベルである確率)hj,cである。
(2-b)「評価者がデータに正しくラベルを付与できる能力を表す指標」が、真の印象値ラベルc∈{0,1,…,C}のデータ番号j∈{0,1,…,J}の情報(ヒトが知覚可能な情報。例えば、音声)に対して評価者番号k∈{0,1,…,K}の評価者が正しくラベル付与できる度合いを表す確率分布(真のラベルcのデータjに対して評価者kが正しくラベル付与できる度合いを表す確率分布)を特定するディレクレ分布のパラメータμk,cである。
(2-c)「第1処理」が、確率hj,cを用いてパラメータμk,cと各ラベルc∈{0,1,…,C}の分布qの確率分布を特定するディレクレ分布のパラメータρとを更新する処理である。
(2-d)「第2処理」は、パラメータμk,cおよびパラメータρを用いて確率hj,cを更新する処理である。
この例のラベル推定部23は、変分ベイズ法によってパラメータμk,cおよびρと確率hj,cとを交互に推定し、各j∈{0,1,…,J}およびc∈{0,1,…,C}について最適な確率hj,cをラベル期待値として学習部14に出力する。
図7を用い、ラベル推定部23の処理の詳細を例示する。
≪ステップS131≫
ラベル推定部23の初期値設定部131(図6)は、第1実施形態で説明したステップS131の処理を実行し、確率hj,cの初期値を設定(初期化)して出力する。初期値設定部131から出力された確率hj,cの初期値はスキル推定部232に送られる。
≪ステップS232≫
スキル推定部232は、確率hj,cを用いてパラメータμk,cと各印象値ラベルc∈{0,1,…,C}の分布qの確率分布を特定するパラメータρとを更新する。以下に詳細に説明する。
真の印象値ラベルc∈{0,1,…,C}のデータ番号j∈{0,1,…,J}の情報(ヒトが知覚可能な情報。例えば、音声)に対して評価者番号k∈{0,1,…,K}の評価者が正しくラベル付与できる度合いを表す確率分布ak,cをディレクレ分布に従って次の式(7)のように与える。
Figure 0007298174000007

ここでμk,cは以下のようなディリクレ分布のパラメータである。
Figure 0007298174000008

確率分布ak,cは以下のような分布である。μ(c’) k,cは0以上の実数である。
Figure 0007298174000009

k,c,c’は真の印象値ラベルc∈{0,1,…,C}のデータ番号j∈{0,1,…,J}の情報(ヒトが知覚可能な情報。例えば、音声)に対して評価者番号k∈{0,1,…,K}の評価者が印象値ラベルc’∈{0,1,…,C}を付与する確率を示している。ak,c,c’は0以上1以下の実数であって以下の関係を満たす。
Figure 0007298174000010

またΓはガンマ関数である。
以上に基づき、スキル推定部232は、最新の確率hj,cを入力とし、すべての評価者番号k∈{0,1,…,K}および印象値ラベルc,c’∈{0,1,…,C}について、式(7)に従って確率分布ak,cを特定するディリクレ分布のパラメータμk,cを以下の式(8)のように更新する。
Figure 0007298174000011

すなわち、スキル推定部232は、式(8)の右辺を新たなμ(c’) k,cとする。μ(c’) k,cの初期値に限定はないが、例えばμ(c’) k,cの初期値をμ(c’) k,c=1とする。なお、式(8)のように、「μ(c’) k,c」の下付き添え字の「k,c」は本来「(c’)」の真下に記載すべきであるが、記載表記の制約上、「(c’)」の右下に記載する場合がある。
同様に、すべての印象値ラベルc∈{0,1,…,C}の分布qの確率分布qをディレクレ分布に従って次の式(9)のように与える。
Figure 0007298174000012

ここでqはパラメータq=(q,q,…,qc’,…,q)であり、ρはディリクレ分布のパラメータρ=(ρ,ρ,…,ρc’,…,ρ)である。qc’およびρc’は正実数である。
以上に基づき、スキル推定部232は、最新の確率hj,cを入力とし、すべての印象値ラベルc∈{0,1,…,C}について、次の式(10)のようにディリクレ分布のパラメータρを更新する。
Figure 0007298174000013

すなわち、スキル推定部232は、式(10)の右辺を新たなディリクレ分布のパラメータρとする。ρの初期値に限定はないが、例えばρの初期値をρ=1とする。
スキル推定部232で更新された新たなμk,cおよびρはラベル期待値推定部233に送られる。
≪ステップS233≫
ラベル期待値推定部233は、最新のパラメータμk,cおよびパラメータρを入力とし、これらを用いて確率hj,cを以下の式(11)(12)のように推定(更新)して出力する。
Figure 0007298174000014

Figure 0007298174000015

ここでΨはディガンマ関数であり、ガンマ関数の逆関数を示す。ラベル期待値推定部233で更新された新たな確率hj,cはスキル推定部232に送られる。
≪ステップS134≫
第1実施形態で説明したように、制御部134は終了条件を充足したか否かを判定する。終了条件を充足していないと判断された場合にはステップS132に戻る。一方、終了条件を充足したと判断された場合、ラベル期待値推定部133は最新の確率hj,cをラベル期待値として学習部14に出力し、学習部14は第1実施形態で説明したステップS14の処理を実行する。その後実行される学習部14の処理およびラベル推定装置15による推定処理は、第1実施形態で説明した通りである。
[実験データ]
図8は、評価者の総数を269名とし、1つのデータ番号y(i,0)に対応する音声ごとに2名ずつの評価者が音声の印象を「高/低」の2値で評価し、それらの評価結果を表す2値の印象値ラベルy(i,2)∈{0,1}を付与して得られた学習ラベルデータを用い、第1,2実施形態の方法で求めたラベル期待値hj,c(データ番号j∈{0,1,…,268}に対する印象値ラベルc∈{0,1}が真のラベルである確率hj,c)を例示した図である。印象値ラベルcは、1に近ければ近いほど印象が「高」であることを示し、0に近ければ近いほど印象が「低」を示す。縦軸の値は第1実施形態の方法(EMアルゴリズム)で推定されたラベル期待値(確率)hj,cを表し、横軸の値は第2実施形態の方法(変分ベイズ法)で推定されたラベル期待値(確率)hj,cを表す。図中の×マークは、そのデータ番号y(i,0)に対応する音声に対して2名の評価者が共に「低」の印象、すなわち印象値ラベルc=0を付した事象を表す。〇マークは、そのデータ番号y(i,0)に対応する音声に対して2名の評価者が共に「高」の印象、すなわち印象値ラベルc=1を付した事象を表す。△マークは、そのデータ番号y(i,0)に対応する音声に対して2名の評価者の印象が分かれた事象、すなわち、一方の評価者が印象値ラベルc=0を付し、他方の評価者が印象値ラベルc=1を付した事象を表す。この図から分かるように、横軸の値が0または1である事象が多く、第1実施形態の方法(EMアルゴリズム)で推定されたラベル期待値hj,cは1または0の局所解に収束することも多いことが分かる。一方、縦軸の値が0または1である事象は少なく、第2実施形態の方法(変分ベイズ法)で推定されたラベル期待値hj,cは局所解に収束することが少なく、ラベル期待値hj,cが0から1の間に広く分布していることが分かる。
[その他の変形例等]
なお、本発明は上述の実施形態に限定されるものではない。例えば、第1実施形態では、初期値設定部131が確率hj,cの初期値を設定し(ステップS131)、スキル推定部132が確率hj,cを用いて確率ak,c,c’および分布qを更新する処理(ステップS132)を行った後に、ラベル期待値推定部133が確率ak,c,c’および分布qを用いて確率hj,cを更新する処理(ステップS133)を行うことを繰り返した。この順序が最適であるが、スキル推定部132の処理とラベル期待値推定部133の処理との順序を入れ替えてもよい。すなわち、初期値設定部131が確率ak,c,c’および分布qの初期値を設定し、ラベル期待値推定部133が確率ak,c,c’および分布qを用いて確率hj,cを更新する処理(ステップS133)を行った後に、スキル推定部132が確率hj,cを用いて確率ak,c,c’および分布qを更新する処理(ステップS132)を行うことを繰り返してもよい。この場合にも終了条件を満たした時点で最新の確率hj,cをラベル期待値hj,cとすればよい。確率ak,c,c’の初期値としては、データ番号jの「ヒトが知覚可能な情報(音声等)」に対して評価者番号kの評価者が付した印象値ラベルc’に対し、同じデータ番号jの「ヒトが知覚可能な情報(音声等)」に対して他の評価者が同じ評価値ラベルc’を付した数が多いほど大きくなる値(0以上1以下の値)を例示できる。分布qの初期値としては1を例示できる。
同様に、第2実施形態では、初期値設定部131が確率hj,cの初期値を設定し(ステップS131)、スキル推定部232が確率hj,cを用いてパラメータμk,cとパラメータρとを更新する処理(ステップS232)を行った後に、ラベル期待値推定部233がパラメータμk,cおよびパラメータρを用いて確率hj,cを更新する処理(ステップS233)を行うことを繰り返した。この順序が最適であるが、スキル推定部232の処理とラベル期待値推定部233の処理との順序を入れ替えてもよい。すなわち、初期値設定部131がパラメータμk,cとパラメータρとの初期値を設定し、ラベル期待値推定部233がパラメータμk,cおよびパラメータρを用いて確率hj,cを更新する処理(ステップS233)を行った後に、スキル推定部232が確率hj,cを用いてパラメータμk,cとパラメータρとを更新する処理(ステップS232)を行うことを繰り返してもよい。この場合にも終了条件を満たした時点で最新の確率hj,cをラベル期待値hj,cとすればよい。
その他、第1,2実施形態のラベル推定部13,23で得られたラベル期待値hj,cに代えて、ラベル推定部13,23とは異なる方法で得られたラベル期待値hj,cまたは外部から入力されたラベル期待値hj,cが学習部14に入力され、前述したステップS14の処理が実行されてもよい。
上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。
上記の各装置は、例えば、CPU(central processing unit)等のプロセッサ(ハードウェア・プロセッサ)およびRAM(random-access memory)・ROM(read-only memory)等のメモリ等を備える汎用または専用のコンピュータが所定のプログラムを実行することで構成される。このコンピュータは1個のプロセッサやメモリを備えていてもよいし、複数個のプロセッサやメモリを備えていてもよい。このプログラムはコンピュータにインストールされてもよいし、予めROM等に記録されていてもよい。また、CPUのようにプログラムが読み込まれることで機能構成を実現する電子回路(circuitry)ではなく、プログラムを用いることなく処理機能を実現する電子回路を用いて一部またはすべての処理部が構成されてもよい。1個の装置を構成する電子回路が複数のCPUを含んでいてもよい。
上述の構成をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。このプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体の例は、非一時的な(non-transitory)記録媒体である。このような記録媒体の例は、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等である。
このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。処理の実行時、このコンピュータは、自己の記憶装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。
コンピュータ上で所定のプログラムを実行させて本装置の処理機能が実現されるのではなく、これらの処理機能の少なくとも一部がハードウェアで実現されてもよい。
1,2 モデル学習装置
15 ラベル推定装置

Claims (11)

  1. 複数のデータと、複数の評価者によって付与された前記複数のデータそれぞれに対する複数のラベルに基づく、前記データに対する各ラベルがどの程度正しく付与されたかの度合いを表す指標であるラベル期待値と、の組を学習データとして用いた学習処理を行い、入力データに対するラベルを推定するモデルを得る、モデル学習装置。
  2. 複数のデータと前記データに対する各ラベルの正しさの度合いを表す指標であるラベル期待値との組を学習データとして用いた学習処理を行い、入力データに対するラベルを推定するモデルを得、
    前記ラベル期待値は、
    複数の評価者それぞれによって付与された前記複数のデータそれぞれに対するラベルを表す情報を入力とし、
    前記データに対する各ラベルの正しさの度合いを表す指標を既知とみなし、前記評価者が前記データに正しくラベルを付与できる能力を表す指標を更新する第1処理と、
    前記評価者が前記データに正しくラベルを付与できる能力を表す指標を既知とみなし、前記データに対する各ラベルの正しさの度合いを表す指標を更新する第2処理と、
    を交互に繰り返すことで得られた、前記データに対する各ラベルの正しさの度合いを表す指標である、モデル学習装置。
  3. 請求項のモデル学習装置であって、
    (1)前記データに対する各ラベルの正しさの度合いを表す指標は、前記データjに対する各ラベルcが真のラベルである確率hj,cであり、前記評価者が前記データに正しくラベルを付与できる能力を表す指標は、真のラベルcの前記データjに対して前記評価者kがラベルc’を付与する確率ak,c,c’であり、前記第1処理は、前記確率hj,cを用いて前記確率ak,c,c’と各ラベルcの分布qとを更新する処理であり、前記第2処理は、前記確率ak,c,c’および前記分布qを用いて前記確率hj,cを更新する処理である、または
    (2)前記データに対する各ラベルの正しさの度合いを表す指標は、前記データjに対する各ラベルcが真のラベルである確率hj,cであり、前記評価者が前記データに正しくラベルを付与できる能力を表す指標は、真のラベルcの前記データjに対して前記評価者kが正しくラベル付与できる度合いを表す確率分布を特定するパラメータμk,cであり、前記第1処理は、前記確率hj,cを用いて前記パラメータμk,cと各ラベルcの分布qの確率分布を特定するパラメータρとを更新する処理であり、前記第2処理は、前記パラメータμk,cおよび前記パラメータρを用いて前記確率hj,cを更新する処理である、モデル学習装置。
  4. 複数のデータと、複数の評価者によって付与された前記複数のデータそれぞれに対する複数のラベルに基づく、前記データに対する各ラベルがどの程度正しく付与されたかの度合いを表す指標であるラベル期待値と、の組を学習データとして用いた学習処理を行って得られたモデルに対して入力データを適用し、前記入力データに対するラベルを推定するラベル推定装置。
  5. 複数のデータと前記データに対する各ラベルの正しさの度合いを表す指標であるラベル期待値との組を学習データとして用いた学習処理を行って得られたモデルに対して入力データを適用し、前記入力データに対するラベルを推定し、
    前記ラベル期待値は、
    複数の評価者それぞれによって付与された前記複数のデータそれぞれに対するラベルを表す情報を入力とし、
    前記データに対する各ラベルの正しさの度合いを表す指標を既知とみなし、前記評価者が前記データに正しくラベルを付与できる能力を表す指標を更新する第1処理と、
    前記評価者が前記データに正しくラベルを付与できる能力を表す指標を既知とみなし、前記データに対する各ラベルの正しさの度合いを表す指標を更新する第2処理と、
    を交互に繰り返すことで得られた、前記データに対する各ラベルの正しさの度合いを表す指標である、ラベル推定装置。
  6. 複数のデータと、複数の評価者によって付与された前記複数のデータそれぞれに対する複数のラベルに基づく、前記データに対する各ラベルがどの程度正しく付与されたかの度合いを表す指標であるラベル期待値と、の組を学習データとして用いた学習処理を行い、入力データに対するラベルを推定するモデルを得る、モデル学習方法。
  7. 複数のデータと前記データに対する各ラベルの正しさの度合いを表す指標であるラベル期待値との組を学習データとして用いた学習処理を行い、入力データに対するラベルを推定するモデルを得、
    前記ラベル期待値は、
    複数の評価者それぞれによって付与された前記複数のデータそれぞれに対するラベルを表す情報を入力とし、
    前記データに対する各ラベルの正しさの度合いを表す指標を既知とみなし、前記評価者が前記データに正しくラベルを付与できる能力を表す指標を更新する第1処理と、
    前記評価者が前記データに正しくラベルを付与できる能力を表す指標を既知とみなし、前記データに対する各ラベルの正しさの度合いを表す指標を更新する第2処理と、
    を交互に繰り返すことで得られた、前記データに対する各ラベルの正しさの度合いを表す指標である、モデル学習方法。
  8. ラベル推定装置によるラベル推定方法であって、
    複数のデータと、複数の評価者によって付与された前記複数のデータそれぞれに対する複数のラベルに基づく、前記データに対する各ラベルがどの程度正しく付与されたかの度合いを表す指標であるラベル期待値と、の組を学習データとして用いた学習処理を行って得られたモデルに対して入力データを適用し、前記入力データに対するラベルを推定するラベル推定方法。
  9. ラベル推定装置によるラベル推定方法であって、
    複数のデータと前記データに対する各ラベルの正しさの度合いを表す指標であるラベル期待値との組を学習データとして用いた学習処理を行って得られたモデルに対して入力データを適用し、前記入力データに対するラベルを推定し、
    前記ラベル期待値は、
    複数の評価者それぞれによって付与された前記複数のデータそれぞれに対するラベルを表す情報を入力とし、
    前記データに対する各ラベルの正しさの度合いを表す指標を既知とみなし、前記評価者が前記データに正しくラベルを付与できる能力を表す指標を更新する第1処理と、
    前記評価者が前記データに正しくラベルを付与できる能力を表す指標を既知とみなし、前記データに対する各ラベルの正しさの度合いを表す指標を更新する第2処理と、
    を交互に繰り返すことで得られた、前記データに対する各ラベルの正しさの度合いを表す指標である、ラベル推定方法。
  10. 請求項1からの何れかのモデル学習装置としてコンピュータを機能させるためのプログラム。
  11. 請求項4または5のラベル推定装置としてコンピュータを機能させるためのプログラム。
JP2019022353A 2019-02-12 2019-02-12 モデル学習装置、ラベル推定装置、それらの方法、およびプログラム Active JP7298174B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019022353A JP7298174B2 (ja) 2019-02-12 2019-02-12 モデル学習装置、ラベル推定装置、それらの方法、およびプログラム
PCT/JP2020/003061 WO2020166321A1 (ja) 2019-02-12 2020-01-29 モデル学習装置、ラベル推定装置、それらの方法、およびプログラム
US17/429,875 US20220108217A1 (en) 2019-02-12 2020-01-29 Model learning apparatus, label estimation apparatus, method and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019022353A JP7298174B2 (ja) 2019-02-12 2019-02-12 モデル学習装置、ラベル推定装置、それらの方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020129322A JP2020129322A (ja) 2020-08-27
JP7298174B2 true JP7298174B2 (ja) 2023-06-27

Family

ID=72044865

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019022353A Active JP7298174B2 (ja) 2019-02-12 2019-02-12 モデル学習装置、ラベル推定装置、それらの方法、およびプログラム

Country Status (3)

Country Link
US (1) US20220108217A1 (ja)
JP (1) JP7298174B2 (ja)
WO (1) WO2020166321A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112529104A (zh) * 2020-12-23 2021-03-19 东软睿驰汽车技术(沈阳)有限公司 一种车辆故障预测模型生成方法、故障预测方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018106662A (ja) 2016-12-22 2018-07-05 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP2019022353A (ja) 2017-07-19 2019-02-07 株式会社明電舎 オフセット推定器、および、インバータ制御装置、および、オフセット推定方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009282686A (ja) * 2008-05-21 2009-12-03 Toshiba Corp 分類モデル学習装置および分類モデル学習方法
JP2011203991A (ja) * 2010-03-25 2011-10-13 Sony Corp 情報処理装置、情報処理方法、およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018106662A (ja) 2016-12-22 2018-07-05 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP2019022353A (ja) 2017-07-19 2019-02-07 株式会社明電舎 オフセット推定器、および、インバータ制御装置、および、オフセット推定方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HINTON, Geoffrey et al.,"Distilling the Knowledge in a Neural Network" [online],arXiv,2015年03月,[2020年06月02日検索],インターネット<URL:https://arxiv.org/abs/1503.02531v1>,1503.02531v1
HINTON, Geoffrey et al.,"Distilling the Knowledge in a Neural Network",arXiv [online],2015年03月,[2020年06月02日検索],インターネット<URL:https://arxiv.org/abs/1503.02531v1>,1503.02531v1
鹿島 久嗣,ほか2名,"ヒューマンコンピュテーションとクラウドソーシング",株式会社講談社,2016年04月19日,ISBN 978-4-06-152913-7

Also Published As

Publication number Publication date
WO2020166321A1 (ja) 2020-08-20
JP2020129322A (ja) 2020-08-27
US20220108217A1 (en) 2022-04-07

Similar Documents

Publication Publication Date Title
JP7222274B2 (ja) モデル学習装置、ラベル推定装置、それらの方法、およびプログラム
US10614373B1 (en) Processing dynamic data within an adaptive oracle-trained learning system using curated training data for incremental re-training of a predictive model
US20200302337A1 (en) Automatic selection of high quality training data using an adaptive oracle-trained learning framework
US20190354810A1 (en) Active learning to reduce noise in labels
US20220067588A1 (en) Transforming a trained artificial intelligence model into a trustworthy artificial intelligence model
US20210319338A1 (en) System and method for testing machine learning
CN113826125A (zh) 使用无监督数据增强来训练机器学习模型
US20210241156A1 (en) System and method for machine learning architecture with adaptive importance sampling with normalizing flows
CN111340245B (zh) 一种模型训练方法及系统
WO2021001517A1 (en) Question answering systems
JP6856503B2 (ja) 印象推定モデル学習装置、印象推定装置、印象推定モデル学習方法、印象推定方法、およびプログラム
JP7298174B2 (ja) モデル学習装置、ラベル推定装置、それらの方法、およびプログラム
US20220180250A1 (en) Processing dynamic data within an adaptive oracle-trained learning system using dynamic data set distribution optimization
CN111737417B (zh) 修正自然语言生成结果的方法和装置
CN110059743B (zh) 确定预测的可靠性度量的方法、设备和存储介质
CN111161238A (zh) 图像质量评价方法及装置、电子设备、存储介质
CN110717037A (zh) 对用户分类的方法和装置
US20240020531A1 (en) System and Method for Transforming a Trained Artificial Intelligence Model Into a Trustworthy Artificial Intelligence Model
JP2020126141A (ja) 音響モデル学習装置、音響モデル学習方法、プログラム
JP2019082847A (ja) データ推定装置、データ推定方法及びプログラム
JP7315091B2 (ja) モデル学習装置、その方法、およびプログラム
CN113656669A (zh) 标签更新方法及装置
Frazier et al. On consistency of approximate Bayesian computation
US20210110253A1 (en) Trustworthy predictions using deep neural networks based on adversarial calibration
CN112348161A (zh) 神经网络的训练方法、神经网络的训练装置和电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230529

R150 Certificate of patent or registration of utility model

Ref document number: 7298174

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150