JP6662301B2 - 学習装置、識別器、学習方法およびプログラム - Google Patents

学習装置、識別器、学習方法およびプログラム Download PDF

Info

Publication number
JP6662301B2
JP6662301B2 JP2016568362A JP2016568362A JP6662301B2 JP 6662301 B2 JP6662301 B2 JP 6662301B2 JP 2016568362 A JP2016568362 A JP 2016568362A JP 2016568362 A JP2016568362 A JP 2016568362A JP 6662301 B2 JP6662301 B2 JP 6662301B2
Authority
JP
Japan
Prior art keywords
dictionary
labeled
sample
loss
samples
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016568362A
Other languages
English (en)
Other versions
JPWO2016111241A1 (ja
Inventor
佐藤 敦
敦 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2016111241A1 publication Critical patent/JPWO2016111241A1/ja
Application granted granted Critical
Publication of JP6662301B2 publication Critical patent/JP6662301B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Description

本発明は、学習装置、識別器、学習方法および記録媒体に関する。
音声や画像などのコンテンツのパターンをコンピュータに認識させるときに用いる識別器に対し、パターンのサンプルを用いて学習を行う。このサンプルに対し、各サンプルが属するクラス(正解クラス)がラベル付けされていない場合に、該サンプルにラベル付けを行う方法として、能動学習が用いられている。
一般的には、最も識別結果の信頼度の低い(すなわち、間違えやすい)サンプルを選択し、選択したサンプルに対して、ユーザが正解クラスをラベル付けする。しかしながら、このラベル付けの作業をいつ終了すればよいのかわからないという問題があった。例えば、非特許文献1には、安定予測に基づいて能動学習を停止する方法が記載されている。
また、特許文献1には、ラベルが付与されていないサンプル(コンテンツ)に対し、ラベルの予測を行い、該予測したラベル(予測ラベル)の確信度を算出することが記載されている。ここで、予測ラベルの確信度とは、予測したラベルの確からしさを示す。そして、特許文献1には、予測ラベルの確信度が所定の閾値以上であるとき、能動学習を終了することが記載されている。
特開2011−203991号公報
Michael Bloodgood, K.Vijay-Shanker, "A Method for Stopping Active Learning Based on Stabilizing Predictions and the Need for User-Adjustable Stopping", Proceedings of the Thirteenth Conference on Computational Natural Language Learning, USA, Association for Computational Linguistics, June 2009, p. 39-47
しかしながら、上述のような技術では、能動学習の終了判定のための新たな学習と評価が発生するため、多くの処理時間を要するという問題がある。
本発明は、上記課題に鑑みてなされたものであり、その目的は、学習のための工数および処理時間をより改善する技術を提供することにある。
本発明の一態様に係る学習装置は、識別器に用いる辞書を更新する更新手段と、前記更新手段によって更新された辞書と、1以上のサンプルであって、ラベルが付与されたラベル付きサンプルとを用いて、前記ラベル付きサンプルの数に対する比を、該ラベル付きサンプル全体に対する損失として算出する算出手段と、前記損失を用いて、前記辞書の更新を行うか否かの判定を行う判定手段と、を備え、前記更新手段は、前記判定手段によって前記辞書の更新を行うと判定された場合、新たなラベル付きサンプルを加えた前記ラベル付きサンプルを用いて、前記辞書を更新し、前記判定手段は、前記更新された辞書を用いて算出された損失と、更新前の前記辞書を用いて前記新たなラベル付きサンプルを加える前の前記ラベル付きサンプル全体に対して算出された損失と、を用いて、前記辞書の更新を行うか否かの判定を行う。
また、本発明の一態様に係る学習方法は、識別器に用いる辞書を更新し、前記更新された辞書と、1以上のサンプルであって、ラベルが付与されたラベル付きサンプルとを用いて、前記ラベル付きサンプルの数に対する比を、該ラベル付きサンプル全体に対する損失として算出し、前記損失を用いて、前記辞書の更新を行うか否かの判定を行い、前記辞書の更新を行うと判定された場合に、新たな前記ラベル付きサンプルを加えたラベル付きサンプルを用いて、前記辞書を更新し、前記更新された辞書と、前記新たなラベル付きサンプルを加えた前記ラベル付きサンプルとを用いて、前記ラベル付きサンプルの数に対する比を、該ラベル付きサンプル全体に対する損失として算出し、前記更新された辞書を用いて算出された損失と、更新前の前記辞書を用いて前記新たなラベル付きサンプルを加える前の前記ラベル付きサンプル全体に対して算出された損失と、を用いて、前記辞書の更新を行うか否かの判定を行う。
また、上記学習装置によって、更新を行わないと判定された辞書を用いて、データの識別を行う識別器も、本発明の範疇に含まれる。
また、上記学習装置または学習方法を、コンピュータによって実現するコンピュータプログラム、およびそのコンピュータプログラムが格納されている、コンピュータ読み取り可能な記録媒体も、本発明の範疇に含まれる。
本発明によれば、学習のための工数および処理時間をより改善することができる。
本発明の第1の実施の形態に係る学習装置の機能構成の一例を示す機能ブロック図である。 本発明の第1の実施の形態に係る学習装置において、ラベル有サンプルの数の増加に対する、ラベル有サンプルの損失の変化の一例を示す図である。 本発明の第1の実施の形態に係る学習装置において、ラベル有サンプルの数が増加する毎に得られた認識辞書を用いて、ラベルが付与された評価用セットを認識したときのエラー率の一例を示す図である。 ラベル有サンプルの数の増加に対する、ラベル有サンプルの損失の変化の他の例を示す図である。 本発明の第1の実施の形態に係る学習装置の処理の流れの一例を示すフローチャートである。 本発明の第2の実施の形態に係る学習装置の機能構成の一例を示す機能ブロック図である。 本発明の第2の実施の形態に係る学習装置の処理の流れの一例を示すフローチャートである。 本発明の第3の実施の形態に係る学習装置の機能構成の一例を示す機能ブロック図である。 本発明の各実施の形態に係る学習装置を含むシステムの構成の一例を示す図である。 本発明の各実施の形態を実現可能なコンピュータ(情報処理装置)のハードウェア構成を例示的に説明する図である。
<第1の実施の形態>
本発明の第1の実施の形態について、図面を参照して詳細に説明する。図1は、本実施の形態に係る学習装置100の機能構成の一例を示す機能ブロック図である。なお、図面中の矢印の方向は、一例を示すものであり、ブロック間の信号の向きを限定するものではない。以降に参照する、他のブロック図においても同様に、図面中の矢印の方向は、一例を示すものであり、ブロック間の信号の向きを限定するものではない。図1に示す通り、本実施の形態に係る学習装置100は、選択部101と、取得部102と、更新部103と、算出部104と、比較部(判定部)105と、出力部106と、記憶部107とを備えている。
まず、本実施の形態において、学習に用いるサンプル(学習用データ)であって、ラベルが付与されていないサンプルの数をM個(Mは自然数)とする。また、ラベルが付与されたサンプルの数をN個(Nは自然数)とする。ここで、ラベルとは、各サンプルが属するクラスを示したものである。すなわち、ラベルが付与されたサンプルは、正しいクラス(正解クラスと呼ぶ)のラベルが付与されたサンプル(ラベル付きサンプル)といえる。以降の説明では、正解クラスのラベルが付与されたサンプルをラベル有サンプルと呼び、ラベルが付与されていないサンプルをラベル無サンプルと呼ぶ。また、正解クラスのラベルを正解ラベルとも呼ぶ。
また、本実施の形態では、学習装置100に入力された学習用データ(サンプル)が、記憶部107に格納されているものとして説明を行うが、学習用データは、後述する各部材に直接入力されるものであってもよい。
選択部101は、後述する比較部105からの指示に従って、記憶部107に格納された、学習装置100に入力された学習用データ(サンプル)から、ラベルを付与する対象となるサンプルを選択する。つまり、選択部101は、学習に用いるサンプルであって、ラベルが付与されていないサンプルから、ラベルを付与する対象となるサンプルを選択する。この学習用データの集合をサンプル集合Cとし、ラベル無サンプルの集合をサンプル集合Bとし、ラベル有サンプルの集合をサンプル集合Aとすると、サンプル集合Cは、サンプル集合Aとサンプル集合Bとの和集合となる。そして、サンプル集合Bに属するサンプルにラベルが付与されると、該ラベルが付与されたサンプルは、サンプル集合Aに属する。よって、サンプル集合Bに属するサンプルの数が1つ減ることになる。なお、選択部101が行うサンプルの選択方法については、後述する。
記憶部107には、学習装置100に入力された学習用データが格納されている。記憶部107は、各サンプルがサンプル集合Aに属するのか、サンプル集合Bに属するのかを示す情報が関連付けられた状態で、各サンプルを格納する。また、記憶部107は、サンプル集合Aに属することを示す情報が関連付けられた1以上のサンプルの夫々を、該サンプルに付与されたラベルが何であるかがわかる状態で格納する。
つまり、記憶部107は、集合に関する情報が関連付けられたサンプルを格納する。そして、記憶部107に格納されたサンプルのうち、集合に関する情報がサンプル集合Aを示すサンプルは、ラベルが関連付けられている。
また、記憶部107は、後述する辞書(パラメータ)、ラベル有サンプルの損失等を格納してもよい。
なお、記憶部107は、学習装置100内に内蔵されるものであってもよいし、学習装置100とは別個の記憶装置によって実現されるものであってもよい。
また、図1では、学習用データと、パラメータと、損失とが同じ記憶部に格納されているが、これらは、夫々異なる記憶部に格納されるものであってもよい。
取得部102は、ラベルが付与されたサンプルに関する情報を取得する。具体的には、選択部101が選択したサンプルに対して、ユーザがラベルを付与すると、取得部102は、このラベルが付与されたサンプルに関する情報を取得する。なお、取得部102は、例えば、ユーザが図示しない入力装置を用いて、ラベル無サンプルにラベルを付与した場合、この入力装置の操作情報に基づいて、ラベルが付与されたサンプル(ラベル有サンプル)に関する情報を取得してもよい。取得部102は、各サンプルにどのようなラベルが付与されたのかがわかる状態で、該サンプルに関する情報を取得する。
ラベルが付与されたサンプルは、ラベルが付与される前はサンプル集合Bに属している。したがって、取得部102は、ラベルが付与されたサンプルを、サンプル集合Bから削除し、サンプル集合Aに含める。つまり、取得部102は、記憶部107に格納されたサンプルに関連付けられた、集合に関する情報を、サンプル集合Bに関する情報からサンプル集合Aを示す情報に更新する。そして、取得部102は、記憶部107に格納された該サンプルに、ラベルを関連付ける。
そして、取得部102は、ラベルが付与されたサンプルに関する情報を取得したことを示す情報を更新部103に出力する。なお、取得部102は、記憶部107に格納されたサンプルに関連付けられた情報を更新したことを示す情報を、更新部103に出力してもよい。また、取得部102は、ラベルが付与されたサンプルに関する情報を取得したことを示す情報として、ラベル有サンプルの数Nを更新部103に出力してもよい。また、取得部102は、新しくラベルが付与されたサンプル、または、ラベルが付与されたサンプル全部(サンプル集合Aに属するラベル有サンプル)を記憶部107から取得し、更新部103に供給する構成であってもよい。
更新部103は、取得部102から、ラベルが付与されたサンプルに関する情報を取得したことを示す情報、新しくラベルが付与されたサンプル、または、ラベルが付与されたサンプル全部、を受信する。更新部103は、ラベルが付与されたサンプルに関する情報を取得したことを示す情報、または、新しくラベルが付与されたサンプルを受信した場合、記憶部107から、ラベル有サンプルを取得する。そして、更新部103は、サンプル集合Aに属するラベル有サンプルを用いて、自身および/または記憶部107に格納された辞書を更新する。ここで、辞書とは、識別器で、音声や画像などの所定のデータを識別するために使用するパラメータである。また、パラメータとは、特に限定されるものではないが、例えば、識別器によって特定のものと識別される代表的なパターンの特徴を示すものである。識別器は、このパラメータに基づいて、未知のデータを識別する。なお、辞書の更新方法については、後述する。
更新部103は、更新した辞書(識別器のパラメータ)を算出部104と、出力部106とに出力する。
算出部104は、更新部103からパラメータを受信する。また、算出部104は、記憶部107から、ラベル有サンプルを取得する。そして、算出部104は、パラメータと、記憶部107に格納されたラベル有サンプルとを用いて、ラベル有サンプルの損失を算出する。
ここで、N個のラベル有サンプル{x|n=1、・・・、N}の夫々に、ラベル{t|n=1、・・・、N}が付与されているとする。ここで、xは、ラベルが付与されたn(n=1、・・・、N)番目のサンプル(ラベル有サンプル)を示している。また、ラベルtは、ラベル有サンプルxに付与されたラベルであり、正解クラスを表すものである。
このとき、ラベル有サンプル全体に対する損失L(θ)を以下の式(1)で定義する。
Figure 0006662301
このように、ラベル有サンプル全体に対する損失は、ラベル有サンプルの数(N個)を分母に有する式によって表される。つまり、ラベル有サンプル全体に対する損失は、loss(x;θ)の和の、ラベル有サンプルの数に対する比を、算出することによって求められる。
式(1)において、θは、辞書(識別器のパラメータ)である。また、loss(x;θ)は、パラメータθを用いた時のベクトルxに対する損失(誤り具合)を表している。ここで、loss(x;θ)を、以下の式(2)のように定義する。
Figure 0006662301
ここで、Kはクラス数、1(・)は真偽値に応じて所定の値を返す指示関数である。本実施の形態では、この指示関数は、括弧内の条件式が真であれば1を返し、偽なら0を返す。また、ωは、k(k=1、・・・、K)番目のクラス(正解クラス)を示す。また、jは、1以上K以下の自然数である。また、rkj(x;θ)は、間違えやすさを表す尺度である。rkj(x;θ)の値が、負なら正認識、正なら誤認識を表す。このように、loss(x;θ)は、更新部103によって更新された辞書を用いて算出された、各ラベル有サンプルに対する損失である。このrkj(x;θ)は、以下の式(3)で定義される。
Figure 0006662301
ここで、g(x;θ)は、クラスωの識別関数を表す。だたし、識別関数の値は、正となる。そして、このg(x;θ)は、属する可能性が高いクラスほど、その値が大きくなるように定義される。したがって、g(x;θ)が最大となるクラスωが、識別器が判定するクラス(識別結果)となる。
また、式(2)において、f(・)は、間違えやすさに対する損失の量を決める正の単調増加関数であり、例えば、以下の式(4)で定義される。
Figure 0006662301
ここで、ξ(ξ>0)は、傾きを表すパラメータである。誤認識となるサンプルに対しては、大きな損失が与えられる。
以上のように、算出部104は、パラメータと、記憶部107に格納されたラベル有サンプルとを用いて、ラベル有サンプルの損失Lを算出する。
算出部104は、損失Lの算出に用いるラベル有サンプルの数Nを、記憶部107に格納されたラベル有サンプルの数を数えることにより、取得してもよいし、取得部102から更新部103を介して取得するものであってもよい。
そして、算出部104は、損失を算出した際のラベル有サンプルの数(この場合N個)に関連付けたラベル有サンプルの損失Lを比較部105に出力する。また、算出部104は、算出した損失Lを、該損失を算出した際のラベル有サンプルの数に関連付けて、記憶部107に格納してもよい。
比較部105は、算出部104からラベル有サンプルの数に関連付けられたラベル有サンプルの損失Lを受信する。ここで、本実施の形態に係る比較部105は、受信した損失Lを損失Lnewとし、受信した損失Lに関連付けられたラベル有サンプルの数より少ない数のラベル有サンプルの損失であって、算出部104が算出した損失を損失Loldとする。なお、受信した損失Lに関連付けられたラベル有サンプルの数より少ない数のラベル有サンプルの損失は、比較部105に格納されていてもよいし、記憶部107に格納されていてもよい。
比較部105は、損失Lnewと損失Loldとを比較することにより、辞書の更新を行うか否かの判定を行う。比較部105は、損失Loldが損失Lnewより大きい場合、辞書の更新を行わないと判定し、辞書を出力する指示を出力部106に出力する。また、比較部105は、以前に算出された損失Loldが受信した損失Lnew以下の場合、辞書の更新を行うと判定し、ラベルを付与する対象となるサンプルを選択する指示を、選択部101に出力する。
ここで、比較部105が比較する損失について説明する。本実施の形態では、比較部105は、ラベル有サンプルの数がNのときの損失Lを損失Lnewとし、ラベル有サンプルの数がN−1のときの損失LN−1を損失Loldとして、損失Lnewと損失Loldとを比較する。
出力部106は、比較部105から辞書を出力する指示を受け取る。また、出力部106は、更新部103から、更新部103が更新した辞書(パラメータ)を受け取る。そして、出力部106は、比較部105からの指示に基づき、更新部103から受け取った辞書を、例えば、識別器に出力する。この辞書は、算出部104が損失を算出する際に用いたパラメータである。なお、出力部106は、出力する辞書を、記憶部107から取得して、出力してもよい。
次に、ラベル有サンプルの数の増加に対する、ラベル有サンプルの損失の変化について、図2を用いて説明する。図2は、本実施の形態に係る学習装置100において、ラベル有サンプルの数の増加に対する、ラベル有サンプルの損失の変化の一例を示す図である。図2において、横軸は、ラベル有サンプルの数を示し、縦軸は、ラベル有サンプルの損失を示す。
ここで、ラベル有サンプルの数(N個)に反比例して損失が減少する理由について説明する。まず、上述した式(1)を、以下の式(5)のように書き換える。式(5)は、式(1)を簡略化した式であり、式(1)からθの表記を省いたものである。
Figure 0006662301
ここで、mは1以上N以下の任意の自然数である。nがm+1より大きい値のときに、xに対する損失であるloss(x)の値が、十分小さい値であるとすると、式(5)の右辺の第二項は十分小さな値になる。そのため、式(5)の右辺では、第一項が支配的となる。この場合、mとLとは、固定値であるため、損失LはNに反比例して減少する。
すなわち、識別結果の信頼度の低いサンプルに優先的に正解ラベルが付与された場合、ラベル有サンプルの数(N個)に反比例して損失が減少しはじめると、大きな損失を与えるようなサンプルはもう存在しないと考えられる。したがって、この損失Lは、正解クラスのラベル付けを行うという作業の終了を判定する指標となり得る。
図2に示す通り、本実施の形態に係る学習装置100によれば、能動学習によって、識別結果の信頼度の低いサンプルに優先的にラベルが付与されるため、初期段階(ラベル有サンプルの数が、より少ない場合)では損失が急増する。しかしながら、図2に示す通り、ラベル有サンプルの数が、ある値(図2においてはTH)を過ぎた時点から、ラベル有サンプルの数の増加に反比例して、損失の減少がはじまることがわかる。
ここで、ラベル有サンプルの数が増加する毎に得られた認識辞書を用いて、ラベルが付与された評価用のサンプル(評価用セットとも呼ぶ)を認識したときのエラー率を、図3を用いて説明する。図3は、本実施の形態に係る学習装置100において、ラベル有サンプルの数が増加する毎(段階と呼ぶ)に得られた認識辞書を用いて、ラベルが付与された評価用セットを認識したときのエラー率の一例を示す図である。図3において、横軸は、ラベル有サンプルの数を示し、縦軸は、エラー率を示す。なお、図3において、THは、図2において破線で示したラベル有サンプルの数(TH)と同様の値であり、図2において損失がラベル有サンプルの数に反比例して減少し始めた時点の、ラベル有サンプルの数を示す。
図3に示す通り、初期段階(ラベル有サンプルの数が、より少ない場合)ではエラー率が急減する。そして、ラベル有サンプルの数がある値(TH)以降は、エラー率は、ほぼ一定となる。
以上より、式(1)で定義される損失Lは、正解クラスのラベル付けを行うという作業の終了を判定する指標として、より好適であることがわかる。したがって、比較部105は、算出部104が損失Lを算出した際のラベル有サンプルの数Nが、図3に示す値THか否かを判定していると言える。つまり、比較部105は、損失Lがラベル有サンプルの数に反比例して減少し始める時点を判定していると言える。
また、式(1)を用いた損失の算出による効果を説明するために、式(1)の右辺における1/Nを省いた式を用いて算出された損失の一例を図4に示す。図4は、ラベル有サンプルの数の増加に対する、ラベル有サンプルの損失の変化の他の例を示す図である。図4において、横軸は、ラベル有サンプルの数を示し、縦軸は、ラベル有サンプルの損失を示す。なお、図4において、THは、図2において破線で示したラベル有サンプルの数(TH)と同様の値である。
式(1)の右辺における1/Nを省いた式を用いて算出された損失は、図4に示す通り、単純増加を続けて減少しない。したがって、学習装置100がラベル有サンプルの数を分母に有しない式を用いて、損失を算出した場合、正解クラスのラベル付けを行うという作業の終了の判定が難しくなる。したがって、本実施の形態に係る学習装置100の算出部104が損失を算出する際に用いる式が、式(1)に示すように、ラベル有サンプルの数(N個)を分母に有する式であることが好ましいことがわかる。
(学習装置100の処理の流れ)
次に、本実施の形態に係る学習装置100の処理の流れについて説明する。図5は、本実施の形態に係る学習装置100の処理の流れの一例を示すフローチャートである。
なお、前提条件として、クラスωの識別関数が以下の式(6)であるとする。
Figure 0006662301
ここで、zは入力データ、yはクラスωに関する識別器のパラメータである。したがって、識別器のパラメータθはθ={y|k=1、・・・、K}となる。ここで、Kはクラス数である。これにより、識別器は、入力データに対し、k=1、・・・、Kのそれぞれについて式(6)を算出し、式(6)が最大となるkの値を求める。そして、識別器は、該入力データをk番目のクラスωに識別する。
なお、識別関数は、式(6)に示した式に限定されるものではなく、任意の識別関数を用いてもよい。この場合であっても、学習装置100は、以下に説明する処理を好適に実行することができる。
また、以下に説明する処理を実行する前提条件として、正解クラスのラベルが付与されたサンプルを各クラス1個ずつ用意し、これをy(k=1、・・・、K)の初期値とする。この初期値からなるパラメータθは、更新部103に記憶されているとする。なお、上述したとおり、パラメータθは、記憶部107に格納されていてもよい。
また、この正解クラスのラベルが付与されたサンプルをラベル有サンプルとして、記憶部107に記憶する。これらのラベル有サンプルは、上述した、サンプル集合Aに属する。このとき、ラベル有サンプルの数Nは、N=Kとなる。
また、算出部104によって、式(1)を用いて算出される損失Lは、この時点では、算出されていない。そのため、以前に算出された損失Loldの値は、0とする。そして、この損失Loldは、比較部105に記憶されているとする。なお、上述したとおり、損失Loldは、記憶部107に格納されていてもよい。
また、記憶部107には、学習用データとして、M個のラベルが付与されていないサンプル(ラベル無サンプル){w|b=1、・・・、M}が格納されているとする。なお、上述したとおり、ラベル無サンプルは、サンプル集合Bに属する。
図5に示す通り、本実施の形態に係る学習装置100の選択部101は、記憶部107に格納されたラベル無サンプルから、ラベルを付与する対象となるサンプルを選択する。
具体的には、選択部101は、サンプル集合Bに属するラベル無サンプルの夫々に対し、式(6)を用いて、g(w;θ)を算出する。つまり、選択部101は、式(6)のzをwとして、ラベル無サンプルwの夫々に対して、g(w;θ)を算出する。
そして、選択部101は、ラベル無サンプルw毎に、式(6)が最大および2番目に大きくなるkを求める。ここで、式(6)が最大となるkの値をi(iは1からKまでの自然数)とし、式(6)が2番目に大きくなるkの値をj(jは、1からKまでの自然数)とする。そして、選択部101は、i番目のクラスωを1位のクラス(1位クラス)とし、j番目のクラスωを2位のクラス(2位クラス)とする。
そして、選択部101は、以下の式(7)を用いて、各ラベル無サンプルwに対し、rijを算出する。この式(7)は、上述した式(3)のxをwとしたものである。
Figure 0006662301
式(7)によって算出されるrijの値は必ず負となる。このrijの値が大きくなればなるほど、つまり、rijの値が0に近くなればなるほど、rijの算出に用いたラベル無サンプルwは、1位クラスと2位クラスとの違いが少ないサンプルである。つまり、このようなラベル無サンプルは、識別境界付近のサンプルであり、正解クラスではないクラスに判別されやすいサンプルであることを意味する。
したがって、選択部101は、サンプル集合Bに属するラベル無サンプルのうち、rijの値が最も大きいラベル無サンプルwを、ラベルを付与する対象となるサンプル(対象サンプルと呼ぶ)として選択する(ステップS1)。
この処理により、選択部101は、正解クラスではないクラスに判別されやすいラベル無サンプルを優先的に選ぶことができる。
次に、ステップS1で選択された対象サンプルに、ユーザが正解クラスをラベル付けすると、取得部102は、そのラベル付けされたサンプル(ラベル有サンプルxとする)に関する情報を取得する(ステップS2)。そして、取得部102は、記憶部107に記憶されている、このラベル有サンプルに関連付けられた情報を更新する。つまり、取得部102は、このラベル有サンプルxが属する集合を、サンプル集合Bからサンプル集合Aに変更し、該ラベル有サンプルxに付与されたラベルを該ラベル有サンプルxに関連付けて記憶部107に格納する(ステップS3)。
これにより、サンプル集合Bに属するラベル無サンプルの数Mは、1つ減り、サンプル集合Aに属するラベル有サンプルの数Nは1つ増える。
次に、更新部103が、サンプル集合Aを用いて、辞書(識別器のパラメータθ)を更新する。具体的には、更新部103は、式(1)の値が小さくなるように、以下の式(8)で示す最急降下法を用いて、パラメータθを更新する(ステップS4)。
Figure 0006662301
式(8)において、εは、0より大きい実数である。
次に、算出部104は、更新部103が更新したパラメータθと、記憶部107に格納されたラベル有サンプルxとを用いて、式(1)からラベル有サンプルの損失Lを算出する(ステップS5)。
そして、比較部105は、算出部104が算出した損失LをLnewとし、このLnewと、Loldとを比較する(ステップS6)。これにより、比較部105は、損失Lがラベル有サンプルの数に反比例して減少し始める時点を判定することができる。
そして、Lold≦Lnewの場合(ステップS6にてNO)、比較部105は、損失Lnewを保存する。具体的には、比較部105は、LoldにLnewを代入する(ステップS7)。そして、処理をステップS1に戻す。その後、選択部101は、新たに、記憶部107に格納されたラベル無サンプルから、ラベルを付与する対象となるサンプルを選択する(ステップS1)。
old>Lnewの場合(ステップS6にてYES)、出力部106は、現時点のパラメータθを、辞書として出力する(ステップS8)。
以上により、学習装置100は、学習処理を終了する。
(効果)
本実施の形態に係る学習装置100によれば、学習のための工数および処理時間をより改善することができる。
なぜならば、算出部104が、更新部103が更新した辞書と、1以上のラベル有サンプルとを用いて、ラベル有サンプルの数に対する比を、該ラベル有サンプル全体に対する損失として算出するからである。そして、比較部105が、この損失を用いて、辞書の更新を行うか否かの判定を行うからである。
ラベル有サンプルの数を分母に有する式によって求められる損失は、より大きな損失を与えるサンプルがなくなった時点で、ラベル有サンプルの数に反比例して損失が減少するという性質を有している。
一般的に、能動学習によって正解クラスをラベル付けする際、終了判定として識別器の安定性を評価する場合が多い。そのため、一般的な学習装置は、新たな学習や評価を行ったり、そのために必要な評価セットを別に用意したりする。したがって、一般的な学習装置は、学習のために、多くの工数や処理時間を要する場合が多い。
しかしながら、本実施の形態に係る学習装置100によれば、比較部105が、算出部104が算出した損失を用いて、辞書の更新の終了を判定する。そのため、本実施の形態に係る学習装置100は、能動学習における正解クラスのラベル付けの作業の終了判定のために、新たな学習や評価を行う必要が無い。また、本実施の形態に係る学習装置100は、そのために必要な評価セットを別に用意する必要もない。したがって、本実施の形態に係る学習装置100は、能動学習における正解クラスのラベル付け作業の終了判定を精度よく行うことができる。
このように、本実施の形態に係る学習装置100は、正解クラスのラベル付け作業の終了判定を精度よく行うことができるため、学習のための工数および処理時間をより改善することができる。
(変形例)
本実施の形態に係る学習装置100の比較部105が比較する損失の変形例について説明する。比較部105は、算出部104から、損失Lを受け取ると、該損失Lを含む1以上の損失(L、LN−1、・・・、LN−h(hはNより小さい任意の自然数))の平均を算出し、該平均をLnewとしてもよい。また、比較部105は、以前に算出された損失のうち、上記Lnewを算出する際に使用していない損失(LN−h−1、LN−h−2、・・・、LN−h−p(pはN−hより小さい任意の自然数))の平均を算出し、該平均をLoldとしてもよい。そして、比較部105は、上記LoldとLnewとを比較してもよい。
これにより、Lold>Lnewを満たすラベル有サンプルNの数が、第1の実施の形態に比べ、多くなる可能性がある。したがって、本変形例に係る学習装置100は、第1の実施の形態に係る学習装置100が出力する辞書よりも、更に、識別精度が高い辞書を出力することができる。
<第2の実施の形態>
次に、本発明の第2の実施の形態について説明する。前述した第1の実施の形態では、学習装置100の比較部105は、N個のラベル有サンプルに対する損失と、以前に算出された(N−1)個のラベル有サンプルに対する損失とを比較した。しかしながら、比較部105が比較する損失はこれに限定されるものではない。本実施の形態では、比較部105の動作の他の例について説明する。なお、説明の便宜上、前述した第1の実施の形態で説明した図面に含まれる部材と同じ機能を有する部材については、同じ符号を付し、その説明を省略する。
図6は、本実施の形態に係る学習装置200の機能構成の一例を示す機能ブロック図である。本実施の形態に係る学習装置200は、図6に示す通り、選択部101と、取得部102と、更新部103と、算出部104と、比較部(判定部)205と、出力部106と、記憶部107とを備える。
比較部205は、算出部104からラベル有サンプルの損失Lを受信する。そして、受信した損失L、並びに、比較部205および/または記憶部107に格納された、以前に算出部104によって算出された損失LN−1、・・・、LN−c(cはNより小さい任意の自然数)を用いて、以下の式(9)にて、XおよびYを算出する。
Figure 0006662301
ここで、qは、1からcまでの自然数である。
そして、比較部205は、算出したXとYとを用いて、XとYとの相関係数を、以下の式(10)を用いて算出する。
Figure 0006662301
ただし、μはX(q=1、・・・、c)の平均であり、μはY(q=1、・・・、c)の平均である。
ここで、損失Lが1/Nで減衰する場合、R=1となる。損失Lが1/Nで減衰していれば、{L、LN−1、・・・、LN−c}は、夫々、{α/N、α/(N−1)、・・・、α/(N−c)}となる。ここで、αは任意の正の実数である。したがって、{LN−1/LN、・・・、LN−c/L}は、夫々、{N/(N−1)、・・・、N/(N−c)}となる。
したがって、XとYとの相関が高い場合、Rは1に近い値になるため、ラベル有サンプルの損失も、1/Nに近い値で減衰していると判定することができる。以上により、相関係数Rは、正解クラスのラベル付けを行うという作業の終了を判定する指標として、より好適であることがわかる。
そして、比較部205は、Rと所定の閾値とを比較し、Rが所定の閾値より大きい場合、辞書を出力する指示を出力部106に出力する。また、比較部205は、Rが所定の閾値以下の場合、ラベルを付与する対象となるサンプルを選択する指示を、選択部101に出力する。なお、この所定の閾値は予めユーザによって設定されたものであってもよいし、学習によって設定されるものであってもよい。この所定の閾値は、損失Lがラベル有サンプルの数に反比例して減少し始める時点を判別するより適した値が設定されればよい。これにより、比較部205は、相関係数Rを用いて、損失Lがラベル有サンプルの数に反比例して減少し始める時点を判別していると言える。
(学習装置200の処理の流れ)
次に、本実施の形態に係る学習装置200の処理の流れについて説明する。図7は、本実施の形態に係る学習装置200の処理の流れの一例を示すフローチャートである。
なお、前提条件として、クラスωの識別関数が上述した式(6)であるとする。また、以下に説明する処理を実行する前提条件として、設定するパラメータθは、第1の実施の形態と同様であるとする。また、第1の実施の形態と同様に、記憶部107には、N個のラベル有サンプルおよびM個のラベル無サンプルが格納されているとする。
図7に示すステップS11〜ステップS15は、上述したステップS1〜ステップS5と同様であるため、説明を省略する。
ステップS15の終了後、比較部205は、算出部104が算出した損失Lを受け取り、式(9)および式(10)を用いて、XとYとの相関係数Rを算出する(ステップS16)。そして、比較部205は、算出した相関係数Rと所定の閾値とを比較する(ステップS17)。これにより、比較部205は、損失Lがラベル有サンプルの数に反比例して減少し始める時点を判別することができる。
そして、相関係数Rが所定の閾値以上の場合(ステップS17にてNO)、比較部205は、ステップS15で算出した損失Lを保存する。具体的には、比較部205は、次に相関係数Rを算出する際に、この損失Lを使用できるように、該損失Lを比較部205内および/または記憶部107に格納する(ステップS18)。そして、処理をステップS1に戻す。その後、選択部101は、新たに、記憶部107に格納されたラベル無サンプルから、ラベルを付与する対象となるサンプルを選択する(ステップS11)。
相関係数Rが所定の閾値より大きい場合(ステップS17にてYES)、出力部106は、現時点のパラメータθを、辞書として出力する(ステップS19)。
以上により、学習装置200は、学習処理を終了する。
このように、本実施の形態に係る学習装置200は、第1の実施の形態に係る学習装置100と同様に、損失Lがラベル有サンプルの数に反比例して減少し始める時点を判別することができる。したがって、本実施の形態に係る学習装置200は、第1の実施の形態に係る学習装置100と同様の効果を有することができる。
<第3の実施の形態>
本発明の第3の実施の形態について、図面を参照して説明する。本実施の形態では、本発明の課題を解決する最小の構成について説明を行う。図8は、本実施の形態に係る学習装置300の機能構成の一例を示す機能ブロック図である。
図8に示す通り、本実施の形態に係る学習装置300は、更新部303と、算出部304と、判定部305とを備えている。なお、学習装置300は、第1の実施の形態と同様に、記憶部107を備える構成であってもよい。
更新部303は、上述した更新部103に相当する。更新部303は、判定部305の判定結果に基づいて、識別器に用いる辞書を更新する。具体的には、更新部303は、判定部305によって、辞書の更新を行うと判定された場合、新たなラベル有サンプル(ラベル付きサンプル)を加えたラベル有サンプルを用いて、損失の値が収束するまでパラメータを変化させ、損失の値が収束した時点のパラメータ(辞書)に、識別器に用いる辞書を、更新する。
算出部304は、上述した算出部104に相当する。算出部304は、更新部303によって更新された辞書と、1以上のサンプルであって、ラベルが付与されたラベル有サンプルとを用いて、ラベル有サンプル全体に対する損失を算出する。なお、算出部304は、ラベル有サンプルの数に対する比を、ラベル有サンプル全体に対する損失として算出する。
判定部305は、上述した、比較部105または比較部205に相当する。判定部305は、算出部304が算出した損失を用いて、辞書の更新を行うか否かの判定を行う。そして、辞書の更新を行うと判定した場合、判定部305は、更新部303に判定結果を送信する。その後、判定部305は、辞書が更新される度に、更新された辞書を用いて算出された、新たなラベル有サンプルを加えたラベル有サンプル全体に対する損失と、更新前の辞書を用いて算出された、新たなラベル有サンプルを加える前のラベル有サンプル全体に対する損失とを用いて、辞書の更新を行うか否かの判定を行い、判定結果を更新部303に送信する。
以上により、本実施の形態に係る学習装置300は、第1の実施の形態に係る学習装置100と同様に、学習のための工数および処理時間をより改善することができる。
<システム構成>
次に、図9を参照して、上述した各実施の形態に係る学習装置(100、200、300)を含むシステムの構成について説明する。図9は、各実施の形態に係る学習装置(100、200、300)を含むシステムの構成の一例を示す図である。
図9に示す通り、システムは、識別器(識別装置)1と、学習装置(100、200、300)とを含む。識別器1は、学習装置(100、200)の出力部106から出力された辞書、または学習装置300において、更新しないと判定された際の辞書を用いて識別を行う。
このように、識別器は、各実施の形態に係る学習装置(100、200、300)から得られる辞書を用いて識別を行うことができる。
<ハードウェアの構成例>
ここで、上述した各実施の形態に係る学習装置(100、200、300)を実現可能なハードウェアの構成例について説明する。上述した学習装置(100、200、300)は、専用の装置として実現してもよいが、コンピュータ(情報処理装置)を用いて実現してもよい。
図10は、本発明の各実施の形態を実現可能なコンピュータ(情報処理装置)のハードウェア構成を例示する図である。
図10に示した情報処理装置(コンピュータ)10のハードウェアは、以下に示す部材を備える。
・CPU(Central Processing Unit)11、
・通信インタフェース(I/F)12、入出力ユーザインタフェース13、
・ROM(Read Only Memory)14、
・RAM(Random Access Memory)15、
・記憶装置17、及び
・コンピュータ読み取り可能な記憶媒体19のドライブ装置18。
また、これらはバス16を介して接続されている。入出力ユーザインタフェース13は、入力デバイスの一例であるキーボードや、出力デバイスとしてのディスプレイ等のマンマシンインタフェースである。通信インタフェース12は、上述した各実施の形態に係る装置(図1、図6および図8)が、外部装置と、通信ネットワーク20を介して通信するための一般的な通信手段である。係るハードウェア構成において、CPU11は、各実施の形態に係る学習装置(100、200、300)を実現する情報処理装置10について、全体の動作を司る。
上述した各実施の形態は、例えば、上記各実施の形態において説明した処理を実現可能なプログラム(コンピュータプログラム)を、図10に示す情報処理装置10に対して供給した後、そのプログラムを、CPU11に読み出して実行することによって達成される。なお、係るプログラムは、例えば、上記各実施の形態の説明において参照したフローチャート(図5、図7)に記載した各種処理や、或いは、図1、図6および図8に示したブロック図において当該装置内に示した各部(各ブロック)を実現可能なプログラムであってもよい。
また、情報処理装置10内に供給されたプログラムは、読み書き可能な一時記憶メモリ(15)またはハードディスクドライブ等の不揮発性の記憶装置(17)に格納されてもよい。即ち、記憶装置17において、プログラム群17Aは、例えば、上述した各実施の形態における学習装置(100、200、300)内に示した各部の機能を実現可能なプログラムである。また、各種の記憶情報17Bは、例えば、上述した各実施の形態における学習用データ、パラメータ、損失等である。ただし、情報処理装置10へのプログラムの実装に際して、個々のプログラム・モジュールの構成単位は、ブロック図(図1、図6および図8)に示した各ブロックの区分けには限定されず、当業者が実装に際して適宜選択してよい。
また、前記の場合において、当該装置内へのプログラムの供給方法は、以下のような現在では一般的な手順を採用することができる。
・CD(Compact Disc)−ROM、フラッシュメモリ等のコンピュータ読み取り可能な各種の記録媒体(19)を介して当該装置内にインストールする方法、
・インターネット等の通信回線(20)を介して外部よりダウンロードする方法。
そして、このような場合において、本発明の各実施の形態は、係るコンピュータプログラムを構成するコード(プログラム群17A)或いは係るコードが格納された記憶媒体(19)によって構成されると捉えることができる。
以上、本発明を、上述した模範的な実施の形態に適用した例として説明した。しかしながら、本発明の技術的範囲は、上述した各実施の形態に記載した範囲には限定されない。当業者には、係る実施の形態に対して多様な変更または改良を加えることが可能であることは明らかである。そのような場合、係る変更または改良を加えた新たな実施の形態も、本発明の技術的範囲に含まれ得る。そしてこのことは、請求の範囲に記載した事項から明らかである。
この出願は、2015年1月7日に出願された日本出願特願2015−001271を基礎とする優先権を主張し、その開示の全てをここに取り込む。
100 学習装置
101 選択部
102 取得部
103 更新部
104 算出部
105 比較部
106 出力部
107 記憶部
200 学習装置
205 比較部
300 学習装置
303 更新部
304 算出部
305 判定部
1 識別器

Claims (10)

  1. 識別器に用いる辞書を更新する更新手段と、
    前記更新手段によって更新された辞書と、1以上のサンプルであって、ラベルが付与されたラベル付きサンプルとを用いて、前記ラベル付きサンプルの数に対する比を、該ラベル付きサンプル全体に対する損失として算出する算出手段と、
    前記損失を用いて、前記辞書の更新を行うか否かの判定を行う判定手段と、を備え、
    前記更新手段は、前記判定手段によって前記辞書の更新を行うと判定された場合、新たなラベル付きサンプルを加えた前記ラベル付きサンプルを用いて、前記辞書を更新し、
    前記判定手段は、前記更新された辞書を用いて算出された損失と、更新前の前記辞書を用いて前記新たなラベル付きサンプルを加える前の前記ラベル付きサンプル全体に対して算出された損失と、を用いて、前記辞書の更新を行うか否かの判定を行う、ことを特徴とする学習装置。
  2. 前記判定手段は、前記更新された辞書を用いて算出された損失が、前記ラベル付きサンプルの数に反比例して減少している場合に、前記辞書の更新を行わないと判定する、ことを特徴とする請求項1に記載の学習装置。
  3. 前記判定手段は、前記更新された辞書を用いて算出された損失が、前記ラベル付きサンプルの数が一つ少ない数のときに前記算出手段が算出した過去の損失より小さい場合に、前記辞書の更新を行わないと判定する、ことを特徴とする請求項2に記載の学習装置。
  4. 前記判定手段は、前記更新された辞書を用いて算出された損失および所定数の過去の損失の平均が、前記所定数の過去の損失を算出するより更に前に、前記算出手段が算出した所定数の損失の平均より小さい場合に、前記辞書の更新を行わないと判定する、ことを特徴とする請求項2に記載の学習装置。
  5. 前記判定手段は、前記ラベル付きサンプルの数の、該ラベル付きサンプルの数が所定数少ない第1のサンプル数に対する比と、前記ラベル付きサンプル全体に対する損失に対する、前記ラベル付きサンプルの数が前記第1のサンプル数の際の損失の比との、相関関数を算出し、前記相関関数が所定の閾値より大きい場合、前記辞書の更新を行わないと判定する、ことを特徴とする請求項2に記載の学習装置。
  6. ラベルが付与されていないサンプルのうち、正解クラスではないクラスに判別されやすいサンプルを、ラベルを付与する対象のサンプルとして選択する選択手段と、
    前記選択手段によって選択された前記ラベルを付与する対象のサンプルに対してラベルが付与されると、前記ラベルを付与する対象のサンプルを含む、前記ラベル付きサンプルを取得する取得手段と、を更に備え、
    前記更新手段は、前記取得手段が取得した前記ラベル付きサンプルを用いて、前記辞書を更新する、ことを特徴とする請求項1から5の何れか1項に記載の学習装置。
  7. 前記判定手段が、前記辞書の更新を行わないと判定したとき、該辞書を出力する出力手段を更に備えることを特徴とする、請求項1から6の何れか1項に記載の学習装置。
  8. 請求項1から7の何れか1項に記載の学習装置において更新を行わないと判定された前記辞書を用いて、データの識別を行うことを特徴とする識別器。
  9. 識別器に用いる辞書を更新し、
    前記更新された辞書と、1以上のサンプルであって、ラベルが付与されたラベル付きサンプルとを用いて、前記ラベル付きサンプルの数に対する比を、該ラベル付きサンプル全体に対する損失として算出し、
    前記損失を用いて、前記辞書の更新を行うか否かの判定を行い、
    前記辞書の更新を行うと判定された場合に、新たな前記ラベル付きサンプルを加えたラベル付きサンプルを用いて、前記辞書を更新し、
    前記更新された辞書と、前記新たなラベル付きサンプルを加えた前記ラベル付きサンプルとを用いて、前記ラベル付きサンプルの数に対する比を、該ラベル付きサンプル全体に対する損失として算出し、
    前記更新された辞書を用いて算出された損失と、更新前の前記辞書を用いて前記新たなラベル付きサンプルを加える前の前記ラベル付きサンプル全体に対して算出された損失と、を用いて、前記辞書の更新を行うか否かの判定を行う、ことを特徴とする学習方法。
  10. 識別器に用いる辞書を更新する処理と、
    前記更新された辞書と、1以上のサンプルであって、ラベルが付与されたラベル付きサンプルとを用いて、前記ラベル付きサンプルの数に対する比を、該ラベル付きサンプル全体に対する損失として算出する処理と、
    前記損失を用いて、前記辞書の更新を行うか否かの判定を行う処理と、をコンピュータに実行させ、
    前記辞書を更新する処理は、前記辞書の更新を行うと判定された場合、新たな前記ラベル付きサンプルを加えた前記ラベル付きサンプルを用いて、前記辞書を更新する処理であり、
    前記辞書の更新を行うか否かの判定を行う処理は、前記更新された辞書を用いて算出された損失と、更新前の前記辞書を用いて前記新たなラベル付きサンプルを加える前の前記ラベル付きサンプル全体に対して算出された損失と、を用いて、前記辞書の更新を行うか否かの判定を行う処理であるプログラム。
JP2016568362A 2015-01-07 2016-01-05 学習装置、識別器、学習方法およびプログラム Active JP6662301B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015001271 2015-01-07
JP2015001271 2015-01-07
PCT/JP2016/000015 WO2016111241A1 (ja) 2015-01-07 2016-01-05 学習装置、識別器、学習方法および記録媒体

Publications (2)

Publication Number Publication Date
JPWO2016111241A1 JPWO2016111241A1 (ja) 2017-10-12
JP6662301B2 true JP6662301B2 (ja) 2020-03-11

Family

ID=56355934

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016568362A Active JP6662301B2 (ja) 2015-01-07 2016-01-05 学習装置、識別器、学習方法およびプログラム

Country Status (3)

Country Link
US (1) US11631025B2 (ja)
JP (1) JP6662301B2 (ja)
WO (1) WO2016111241A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7213138B2 (ja) * 2019-05-10 2023-01-26 株式会社日立システムズ 学習データ作成支援システムおよび学習データ作成支援方法
US12050866B2 (en) * 2020-12-13 2024-07-30 International Business Machines Corporation Maintenance of a data glossary

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060112028A1 (en) * 2004-11-24 2006-05-25 Weimin Xiao Neural Network and Method of Training
WO2008047835A1 (fr) 2006-10-19 2008-04-24 Nec Corporation Système, procédé et programme d'étude active
US7925505B2 (en) * 2007-04-10 2011-04-12 Microsoft Corporation Adaptation of language models and context free grammar in speech recognition
US8219511B2 (en) * 2009-02-24 2012-07-10 Microsoft Corporation Unbiased active learning
US8499008B2 (en) * 2009-07-24 2013-07-30 Yahoo! Inc. Mixing knowledge sources with auto learning for improved entity extraction
JP2011203991A (ja) 2010-03-25 2011-10-13 Sony Corp 情報処理装置、情報処理方法、およびプログラム
WO2014136316A1 (ja) * 2013-03-04 2014-09-12 日本電気株式会社 情報処理装置、情報処理方法、及びプログラム
US9122681B2 (en) 2013-03-15 2015-09-01 Gordon Villy Cormack Systems and methods for classifying electronic information using advanced active learning techniques
US9892238B2 (en) * 2013-06-07 2018-02-13 Scientific Design Company, Inc. System and method for monitoring a process

Also Published As

Publication number Publication date
US11631025B2 (en) 2023-04-18
US20170344908A1 (en) 2017-11-30
WO2016111241A1 (ja) 2016-07-14
JPWO2016111241A1 (ja) 2017-10-12

Similar Documents

Publication Publication Date Title
JP6941123B2 (ja) 適応型追加学習を用いた細胞のアノテーション法及びアノテーションシステム
US11537930B2 (en) Information processing device, information processing method, and program
WO2019151507A1 (ja) 学習装置、学習方法及び学習プログラム
EP2991003A2 (en) Method and apparatus for classification
JP7448562B2 (ja) 人工知能のための希な訓練データへの対処
US11527259B2 (en) Learning device, voice activity detector, and method for detecting voice activity
CN112784581B (zh) 文本纠错方法、装置、介质及电子设备
CN115810135A (zh) 样本分析的方法、电子设备、存储介质和程序产品
US10339471B2 (en) Ensemble based labeling
KR20210050087A (ko) 신뢰도 측정 방법 및 장치
JP6662301B2 (ja) 学習装置、識別器、学習方法およびプログラム
US11145308B2 (en) Symbol sequence estimation in speech
JP5989576B2 (ja) パターン識別装置、パターン識別方法、プログラム、学習装置および学習方法
CN112700766B (zh) 语音识别模型的训练方法及装置、语音识别方法及装置
JP4533160B2 (ja) 識別的学習方法、装置、プログラム、識別的学習プログラムを記録した記録媒体
WO2020166125A1 (ja) 翻訳用データ生成システム
KR101628602B1 (ko) 프로그램의 유사도를 판단하기 위한 유사도 판단 방법 및 유사도 판단 장치
JP6241790B2 (ja) 生成モデル作成装置、推定装置、それらの方法およびプログラム
JP5980142B2 (ja) 学習データ選択装置、識別的音声認識精度推定装置、学習データ選択方法、識別的音声認識精度推定方法、プログラム
CN111814813A (zh) 神经网络训练和图像分类方法与装置
KR20090065102A (ko) 어휘 디코딩 방법 및 장치
CN111883109B (zh) 语音信息处理及验证模型训练方法、装置、设备及介质
CN115240704A (zh) 音频识别方法、装置、电子设备和计算机程序产品
CN109710927B (zh) 命名实体的识别方法、装置、可读存储介质及电子设备
CN112347826B (zh) 一种基于强化学习的视频连续手语识别方法及系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170615

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200127

R150 Certificate of patent or registration of utility model

Ref document number: 6662301

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150