JP6962123B2 - ラベル推定装置及びラベル推定プログラム - Google Patents

ラベル推定装置及びラベル推定プログラム Download PDF

Info

Publication number
JP6962123B2
JP6962123B2 JP2017194441A JP2017194441A JP6962123B2 JP 6962123 B2 JP6962123 B2 JP 6962123B2 JP 2017194441 A JP2017194441 A JP 2017194441A JP 2017194441 A JP2017194441 A JP 2017194441A JP 6962123 B2 JP6962123 B2 JP 6962123B2
Authority
JP
Japan
Prior art keywords
input
output
variable
data
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017194441A
Other languages
English (en)
Other versions
JP2019067299A (ja
Inventor
良尚 石井
拓郎 沓名
峻 田口
圭祐 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2017194441A priority Critical patent/JP6962123B2/ja
Publication of JP2019067299A publication Critical patent/JP2019067299A/ja
Application granted granted Critical
Publication of JP6962123B2 publication Critical patent/JP6962123B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、ラベル推定装置及びラベル推定プログラムに関する。
センサあるいは通信技術の発達により、様々な対象のデータ収集が容易に可能となっている。一方において、機械学習技術の発達により、得られたデータの特徴を学習することが可能となり、これによりデータを複数の分類ラベル(カテゴリ)に分類することが可能になっている。
詳しくは、分類には学習モデルを用いた識別器を用いることができる。予め分類ラベルが既知のデータを使って、識別器で用いられている学習モデルを学習させることで、学習モデルにデータの特徴を学習させる。これにより、新たに得られたデータを当該識別器に入力することで、当該データの分類を行うことができるようになる。このように、データを複数の分類ラベルに分類することはラベル推定とも呼ばれる。
ラベル推定に用いられる識別器としては、学習モデルとしてニューラルネットワークを用いた識別器が知られている。あるいは、非特許文献1に記載されているようなオートエンコーダ(自己符号化器)を学習モデルとして用いた識別器を利用することも考えられる。
ニューラルネットワークを用いた識別器(以下「NN(Neural Network)識別器」と記載する)を用いたラベル推定の方法について説明する。図6は、NN識別器の構造を示す図である。ここでは、複数の入力変数x、x、x・・・を含む入力データのラベル推定を行う場合を考える。
NN識別器は、それぞれが複数のユニットを含む複数の層を含んで構成される。通常、最も入力側に位置する入力層、最も出力側に位置する出力層、及び、入力層と出力層の間に設けられる中間層(あるいは隠れ層とも呼ばれる)を含んで構成される。図6の例では、中間層は1層となっているが、中間層として複数の層を有していてもよい。
各入力変数は、入力層の各ユニットに入力される。各ユニットにおいては、各入力変数に対する重みw、w、w・・・、及びバイアスbが定義されている。各入力変数と対応する重みが掛け合わされた値の合計にバイアスを加算した値が当該ユニットの入力となる。つまり、入力層の1つのユニットに対する入力uは、
Figure 0006962123
で表される。ここで、Iは入力変数の数である。なお、ユニット毎に、重みw、w、w・・・と、バイアスbはそれぞれ異なるものであってよい。
各ユニットは、入力uに対する、活性化関数と呼ばれる関数fの出力を出力する。すなわち、各ユニットの出力zは、
z=f(u) ・・・(式2)
で表される。入力層の各ユニットからの出力は、中間層の各ユニットに入力される。すなわち、入力層の各ユニットと中間層の各ユニットは全結合される。
中間層の各ユニットは、入力層の各ユニットの出力を入力として、上記と同様の処理を行う。すなわち、中間層の各ユニットには、入力層の各ユニットに対する重みとバイアスが設定されている。中間層の各ユニットからの出力は、出力層の各ユニットに入力される。すなわち、中間層の各ユニットと出力層の各ユニットも全結合される。出力層の各ユニットも、中間層の各ユニットの出力を入力として、上記と同様の処理を行う。すなわち、出力層の各ユニットには、中間層の各ユニットに対する重みとバイアスが設定されている。
出力層の各ユニットの出力は、ソフトマックス関数に入力される。ソフトマックス関数とは、出力層の各ユニットの出力に基づいて、NN識別器に入力された入力データが各分類ラベルに属する確率を出力するものである。NN識別器においては、ソフトマックス関数の複数の出力が出力データの出力変数y、y、y・・・となっており、出力変数y、y、y・・・が、入力データの各分類ラベルに属する各確率を表すものとなる。具体的には、ソフトマックス関数は、以下の式で与えられる。
Figure 0006962123
ここで、yはk番目の出力変数であり、Mは出力層のユニット数であり、zj(k)はj(k)番目の出力層のユニットの出力値である。上式が示す通り、ソフトマックス関数により、出力層のk番目のユニットの出力がyに変換される。すなわち、ソフトマックス関数により、出力層の各ユニットの出力が各出力変数yに変換されている。
ソフトマックス関数の特徴としては、ソフトマックス関数の各出力の合計が1となることである。したがって、出力変数yが分類ラベルkに対応するものとするならば、出力変数yの値が、当該入力データが分類ラベルkに属する確率を表すものと解釈できる。分類ラベルが既知の入力データをNN識別器に入力し、その出力データにおいて、当該入力データの分類ラベルに対応する出力変数が最も大きくなるように、各層の各ユニットの重み及びバイアスが調整される(すなわち学習される)。
十分に学習されたNN識別器に入力データを入力することで、得られた各出力変数の値に基づいて、当該入力データのラベル推定を行うことができる。具体的には、入力データは、各出力変数のうち、最も値(確率)が大きかった出力変数(理想的には1)に対応する分類ラベルである、と推定することができる。例えば、複数の出力変数のうち、yが最も大きな値を示すならば、当該入力データは分類ラベル1に属するものであると推定できる。
次に、オートエンコーダを用いた識別器(以下「AE(Auto Encoder)識別器」と記載する)を用いたラベル推定の方法について説明する。図7は、AE識別器に用いられるオートエンコーダの構造を示す図である。ここでも、オートエンコーダの入力として複数の入力変数x、x、x・・・を含む入力データを入力する場合を考える。
ニューラルネットワークと同様に、オートエンコーダは、それぞれが複数のユニットを含む、入力層、1又は複数の層からなる中間層、及び出力層を含んで構成される。ニューラルネットワークと同様に、入力層の各ユニットと中間層の各ユニット、及び、中間層の各ユニットと出力層の各ユニットとは互いに全結合されている。なお、オートエンコーダにおいては、入力層のユニット数と出力層のユニット数は同じになっており、中間層のユニット数は、入力層又は出力層のユニット数に比して少なくなっている。
オートエンコーダの各ユニットは、ニューラルネットワークのユニットと同様に、各入力と対応する重み及びバイアスが設定されており、各入力と各重みとが掛け合わされた値の合計にバイアスを加算した値を入力とし、当該入力に対する活性化関数の出力を出力する。オートエンコーダは、特定の入力データを入力した場合に、出力層が出力する出力データが当該入力データと同じになるように(x=x’、x=x’、x=x’・・・となるように)各ユニットが学習されるという特徴を有する。
各入力変数と、それに対応する出力変数との差に基づいて、両者の誤差の大きさを示す再構成誤差が算出される。再構成誤差は、例えば、下記式(4)が示すように、各入力変数と各出力変数の差の2乗の平均値で算出される。
Figure 0006962123
ここで、Nは入力変数(又は出力変数)の数である。
オートエンコーダは、再構成誤差が小さくなるように学習される。これにより、十分に学習されたオートエンコーダは、特定の入力データが入力された場合、出力データとして当該入力データとほぼ同等のデータを出力することができるようになる。
なお、上述のように、オートエンコーダにおいては、入力層及び出力層のユニット数に対して中間層のユニット数が少なくなっている。つまり、中間層においては入力データがより低次元のデータで表現されていることになる。このように、オートエンコーダは、主に、入力データの特徴抽出(すなわち入力データの低次元化)という目的で利用される。
AE識別器においては、各分類ラベルに対応した複数のオートエンコーダが用意される。例えば、分類ラベル1に対応したオートエンコーダ1は、分類ラベル1の入力データが入力された場合に、当該入力データとほぼ同等の出力データを出力し(換言すればその他の分類ラベルの入力データに対しては入力データと同等の出力データを出力しない)、分類ラベル2に対応したオートエンコーダ2は、分類ラベル2の入力データが入力された場合に、当該入力データとほぼ同等の出力データを出力する。その上で、各分類ラベルに対応した複数のオートエンコーダに、ラベル推定の対象となる入力データを入力する。そして、各オートエンコーダの再構成誤差を比較し、再構成誤差が最も小さくなったオートエンコーダに対応する分類ラベルが、当該入力データの分類ラベルとして推定できる。
NN識別器とAE識別器に対しては、それぞれ問題点を指摘することができる。
まず、NN識別器については、入力データが各分類ラベルに属する確率のみが出力データとして出力されるために、複数の入力変数のうち、どの入力変数がラベル推定に影響したのかを把握することが困難となっている。このことに起因して、複数の入力変数の中に、ラベル推定には不必要な入力変数が混在している場合に、ラベル推定の精度が低下するという問題が生じ得る。
例えば、NN識別器が図8に示すような学習データで学習された場合を考える。図8(a)には、分類ラベルの1つである「低出力時データ」に分類された学習データの各入力変数(風速、温度誤差、外気温、外気圧など)が示され、図8(b)には、分類ラベルの1つである「中出力時データ」に分類された学習データの各入力変数が示されている。ここで、ラベル推定が必要な入力データとして、図9に示すように、風速が0.22[m/s]、温度誤差が2.2[℃]、外気温が33[℃]、外気圧が999[hPa]という入力データをラベル推定する場合を考える。この入力データの真の分類ラベルは「中出力時データ」であるとする。
しかしながら、図8(a)及び図8(b)の学習データを用いて学習されたNN識別器においては、本来ラベル推定に不要な入力変数である、外気温及び外気圧の値が影響して、誤って「低出力時データ」に分類されてしまう可能性が高くなってしまう。このようにして、ラベル推定の精度が低下し得る。
仮に、何らかの方法で、分類に不要な入力変数が特定できたとしても、各分類ラベル毎に、不要な入力変数が異なる場合がある。この場合、NN識別器においては、1つの識別器において各分類ラベルへの分類を行うために、各分類ラベル毎に不要な入力変数を選択することができない。
次に、AE識別器については、入力データを複数のオートエンコーダに入力し、各オートエンコーダの再構成誤差の値に基づいてラベル推定を行うが、各オートエンコーダの再構成誤差のスケールが一致していない場合、各オートエンコーダの再構成誤差の比較が成立せず、それに起因して、ラベル推定の精度が低下するという問題が生じる。
再構成誤差のスケールの不一致は、各オートエンコーダの習熟度の差によって生じるものである。例えば、分類ラベル1に対応したオートエンコーダ1は、習熟度が高く、分類ラベル1の入力データに近い出力データを出力しやすくなっており、分類ラベル2に対応したオートエンコーダ2は、習熟度が低く、分類ラベル2の入力データに近い出力データを出力しにくくなっている状態を考える。この場合、真の分類ラベルは分類ラベル2であるが分類ラベル1に近い内容の入力データが入力された場合、オートエンコーダ1の再構成誤差がオートエンコーダ2の再構成誤差よりも小さくなってしまう場合がある。この場合、当該入力データは、分類ラベル1に誤って分類されてしまう。このようにして、ラベル推定の精度が低下し得る。
本発明の目的は、NN識別器及びAE識別器が有するそれぞれの問題点を克服して、ラベル推定精度を向上させることにある。
本発明は、複数の分類ラベルに対応した複数の学習モデルであって、それぞれの前記学習モデルが、複数の入力変数を含む入力データに対して複数の出力変数を含む出力データを出力し、自学習モデルに対応する分類ラベルに属する入力データに対しては当該入力データの複数の入力変数と同等の値を複数の出力変数として有する出力データを出力し、自学習モデルに対応する分類ラベルに属さない入力データに対しては当該入力データの複数の入力変数とは異なる複数の出力変数を有する出力データを出力するように学習可能な複数の学習モデルと、前記複数の学習モデルそれぞれについて、各入力変数と、各入力変数に対応する出力変数との差を算出し、得られた複数の前記差に基づいて、入力データと出力データとの誤差の大きさを示す再構成誤差を算出する再構成誤差算出部と、前記複数の学習モデルそれぞれについて算出された複数の前記再構成誤差に基づいて、前記複数の分類ラベルそれぞれについて、前記入力データが当該分類ラベルに属する確率を算出する確率算出部と、を備え、前記複数の学習モデルそれぞれは、前記学習モデルに入力された前記複数の入力変数のうちの一部の入力変数であって予め定められた無考慮入力変数を考慮せずに前記複数の出力変数を出力し、前記再構成誤差算出部は、前記無考慮入力変数と、当該無考慮入力変数に対応する出力変数との差を考慮せずに前記再構成誤差を算出する、ことを特徴とするラベル推定装置である。
望ましくは、前記複数の学習モデルは、前記確率算出部が算出した複数の確率に基づいて、前記複数の確率のうち、入力データが属する分類ラベルに対応する確率が最大となるように学習される。
望ましくは、一の前記学習モデルに関する前記無考慮入力変数と、他の前記学習モデルに関する前記無考慮入力変数は、互いに異なる入力変数である。
また、本発明は、コンピュータを、複数の分類ラベルに対応した複数の学習モデルであって、それぞれの前記学習モデルが、複数の入力変数を含む入力データに対して複数の出力変数を含む出力データを出力し、自学習モデルに対応する分類ラベルに属する入力データに対しては当該入力データの複数の入力変数と同等の値を複数の出力変数として有する出力データを出力し、自学習モデルに対応する分類ラベルに属さない入力データに対しては当該入力データの複数の入力変数とは異なる複数の出力変数を有する出力データを出力するように学習可能な複数の学習モデルと、前記複数の学習モデルそれぞれについて、各入力変数と、各入力変数に対応する出力変数との差を算出し、得られた複数の前記差に基づいて、入力データと出力データとの誤差の大きさを示す再構成誤差を算出する再構成誤差算出部と、前記複数の学習モデルそれぞれについて算出された複数の前記再構成誤差に基づいて、前記複数の分類ラベルそれぞれについて、前記入力データが当該分類ラベルに属する確率を算出する確率算出部と、として機能させ、前記複数の学習モデルそれぞれは、前記学習モデルに入力された前記複数の入力変数のうちの一部の入力変数であって予め定められた無考慮入力変数を考慮せずに前記複数の出力変数を出力し、前記再構成誤差算出部は、前記無考慮入力変数と、当該無考慮入力変数に対応する出力変数との差を考慮せずに前記再構成誤差を算出する、ことを特徴とするラベル推定プログラムである。
本発明によれば、NN識別器及びAE識別器が有するそれぞれの問題点を克服して、ラベル推定精度を向上させることができる。
本実施形態に係るラベル推定装置の構成概略図である。 本実施形態に係る識別器の構成を示す構成概略図である。 特定の入力変数の重みが0に設定された場合におけるオートエンコーダの各ユニットの入力値と出力値を示す図である。 特定の入力変数の重みが0に設定された場合における各変数差を示す図である。 本実施形態に係るラベル推定装置の流れを示すフローチャートである。 ニューラルネットワークを用いた識別器の構成を示す構成概略図である。 オートエンコーダの構成を示す構成概略図である。 学習データの例を示す図である。 入力データの例を示す図である。
以下、本発明の実施形態について説明する。
図1には、本実施形態に係るラベル推定装置10の構成概略図が示されている。ラベル推定装置10としては一般的なコンピュータであってよく、あるいはサーバコンピュータであってもよい。
記憶部12は、例えばハードディスク、ROM(Read Only Memory)、あるいはRAM(Random Access Memory)などを含んで構成される。記憶部12には、ラベル推定に用いる学習モデル(後述)が記憶される。あるいは、当該学習モデルに含まれる各ユニットに対する重み及びバイアスが記憶される。また、記憶部12には、ラベル推定装置10の各部を動作させるためのラベル推定プログラムが記憶される。
通信部14は、例えばネットワークアダプタなどを含んで構成される。通信部14は、LAN(Local Area Network)やインターネットなどの通信回線を介して他の装置と通信する機能を発揮する。ラベル推定装置10がサーバコンピュータである場合には、通信部14は、ラベル推定装置10における処理結果を示す結果情報を他の装置に送信する。また、通信部14は、ラベル推定装置10の利用者(ユーザ)からの指示を示す指示情報をユーザ端末から受信する。
入力部16は、例えばキーボードあるいはマウスなどを含んで構成される。ラベル推定装置10が一般的なコンピュータである場合には、入力部16は、ユーザからの指示を受け付ける機能を発揮する。
表示部18は、例えば液晶パネルなどを含んで構成される。ラベル推定装置10が一般的なコンピュータである場合には、表示部18は、ラベル推定装置10における処理結果を示す結果情報を表示する機能を発揮する。
制御部20は、例えばCPU(Central Processing Unit)等を含んで構成される。制御部20は、記憶部12に記憶されたラベル推定プログラムに従って、ラベル推定装置10の各部を制御するものである。詳しくは、制御部20は、ラベル推定装置10上においてラベル推定を行うための識別器の構築処理、当該識別器に含まれる学習モデルの学習処理、学習された学習モデルを用いた識別器を利用したラベル推定処理などの各処理を実行する。
図2は、ラベル推定装置10上で動作する識別器の構成概略図である。図2に示される通り、本実施形態に係る識別器は、学習モデル部30、再構成誤差算出部32、符号反転部34、及び、確率算出部36を含んで構成される。これらの各部において、それぞれデータに対して処理が実行されるが、処理を実行する主体は、実質的には制御部20である。すなわち、学習モデル部30、再構成誤差算出部32、符号反転部34、及び、確率算出部36は、制御部20が発揮する機能の一部であると言える。
本実施形態に係る識別器には、複数の入力変数(x、x、x・・・)を有する入力データが入力されるものとする。入力データは、学習モデル部30に含まれる各オートエンコーダに入力される。
学習モデル部30は、複数の学習モデルとしての複数のオートエンコーダを含んで構成される。各オートエンコーダは、各分類ラベルに対応したものとなっている。例えば、ラベル1用オートエンコーダは、分類ラベル1に対応している。すなわち、オートエンコーダは、ラベル推定装置10が分類可能な分類ラベルの数だけ用意される。
学習モデル部30に含まれる各オートエンコーダの構成は、従来のオートエンコーダの構成と同様であってよい。すなわち、各オートエンコーダは、複数の入力変数を含む入力データに対して複数の出力変数(x’、x’、x’・・・)を含む出力データを出力する。
各オートエンコーダは、自オートエンコーダに対応する分類ラベルに属する入力データに対しては、当該入力データの複数の入力変数と同等の値を複数の出力変数として有する出力データを出力するように学習される。また、自オートエンコーダに対応する分類ラベルに属さない入力データに対しては、当該入力データの複数の入力変数とは異なる複数の出力変数を有する出力データを出力するように学習される。例えば、分類ラベル1に対応したラベル1用オートエンコーダは、分類ラベル1に属する入力データが入力された場合は、当該入力データと同等の出力データを出力するよう学習され(すなわち再構成誤差が小さくなるように学習され)、分類ラベル1に属さない入力データが入力された場合は、当該入力データとは異なった出力データを出力するように学習される(すなわち再構成誤差が大きくなるように学習される)。
再構成誤差算出部32は、複数のオートエンコーダそれぞれについて、入力データの入力変数と、当該入力変数に対応する出力変数との差である変数差を算出する。再構成誤差算出部32は、複数の入力変数に関する複数の変数差を算出する。例えば、入力データが入力変数x、x、x・・・を有し、ラベル1用オートエンコーダの出力データが出力変数x’11、x’12、x’13・・・を有するとすると、再構成誤差算出部32は、ラベル1用オートエンコーダについて、変数差として(x−x’11)、(x−x’12)、(x−x’13)・・・を算出する。同様に、ラベル2用オートエンコーダの出力データが出力変数x’21、x’22、x’23・・・を有するとすると、再構成誤差算出部32は、ラベル1用オートエンコーダについて、変数差として(x−x’21)、(x−x’22)、(x−x’23)・・・を算出する。このようにして、再構成誤差算出部32は、各オートエンコーダについて複数の変数差を算出する。
次いで、再構成誤差算出部32は、複数のオートエンコーダそれぞれについて、複数の変数差に基づいて、入力データと出力データとの誤差の大きさを示す再構成誤差を算出する。本実施形態では、再構成誤差算出部32は、複数の変数差の2乗の平均値を再構成誤差として算出する。すなわち、再構成誤差は上記式(4)で算出される。再構成誤差算出部32により、各オートエンコーダに対応した複数の再構成誤差が算出される。
符号反転部34は、再構成誤差算出部32が算出した複数の再構成誤差の符号(+−)を反転する。本実施形態においては、再構成誤差は必ず正の値となり、その値が小さい程、入力データが当該オートエンコーダに対応する分類ラベルに属している可能性が高いことを示す。符号反転部34が符号を反転することにより、反転後の再構成誤差の値が大きい程、入力データが当該オートエンコーダに対応する分類ラベルに属している可能性が高いことを示すようになる。符号の反転は、後段のソフトマックス関数が、入力が大きい程、当該入力に対応する確率が高く算出されるために実行される。
確率算出部36は、複数のオートエンコーダそれぞれについて算出された複数の再構成誤差であって、符号反転部34により符号が反転された複数の再構成誤差に基づいて、複数の分類ラベルそれぞれについて、入力データが当該分類ラベルに属する確率を算出する。
本実施形態においては、確率算出部36は、ソフトマックス関数により実現される。具体的には、各オートエンコーダの再構成誤差が符号反転されてソフトマックス関数に入力される。ソフトマックス関数は、これらの入力に対して、上記式(3)で示す出力データ(以後、各オートエンコーダの出力データと区別するために、ソフトマックス関数の出力データを最終出力データと記載する)を出力する。これにより、各出力変数y(以後、各オートエンコーダの出力変数と区別するために、ソフトマックス関数の出力変数yを最終出力変数yと記載する)が、入力データが各分類ラベルに属する確率を示すこととなる。例えば、最終出力変数yは、入力データが分類ラベル1に属する確率を示すものであり、最終出力変数yは、入力データが分類ラベル2に属する確率を示すものとなる。
本実施形態に係る識別器の構成については以上の通りである。本実施形態に係る識別器においては、分類ラベルが既知の学習用データを入力して、NN識別器と同様に、各最終出力変数yの値が、当該学習用データの分類ラベルを示すように、すなわち、学習用データが属する分類ラベルに対応する確率が最大となるように、各オートエンコーダが学習される。例えば、学習データの分類ラベル1であれば、当該学習データに対する最終出力変数(y、y、y・・・)が(1、0、0・・・)に近付くように学習される。具体的には、各オートエンコーダが有する各ユニットの重み及びバイアスが変更される。ここで、ある学習用データを用いた際に、当該学習用データの分類ラベルに対応するオートエンコーダ(上記例ではラベル1用オートエンコーダ)以外のオートエンコーダについても学習される点に留意されたい。
本実施形態に係る識別器の構成により、また上記のように各オートエンコーダが学習されることにより、各オートエンコーダの再構成誤差のスケールを一致させることが可能となっている。すなわち、従来のAE識別器が有していた各オートエンコーダの再構成誤差のスケールの不一致という問題を解消することができる。これにより、各オートエンコーダの再構成誤差の比較を好適に行うことが可能になり、ラベル推定の精度が向上する。
また、本実施形態に係る識別器においては、AE識別器と同様に、学習用データの分類ラベルに対応するオートエンコーダの再構成誤差のみを最小化するように学習される。
本実施形態に係る識別器によれば、再構成誤差算出部32は、各オートエンコーダに関する再構成誤差の算出の過程で、複数の変数差を算出している。この複数の変数差を確認することによって、ラベル推定に寄与した変数と特定することができる。例えば、分類ラベル1である学習用データを入力した際に、本実施形態に係る識別器によって、分類ラベル2に誤推定された場合を考える。すなわち、最終出力変数において、yの値が最も大きく算出された場合を考える。この場合、ラベル1用オートエンコーダに関する複数の変数差のうち、その値(差)が大きかった入力変数がラベル誤推定に大きく影響していると言える。
ラベル誤推定に大きく影響している入力変数が特定でき、且つ、特定された入力変数が当該分類ラベルの推定に不必要な入力変数であることが判明した場合、本実施形態に係る識別器においては、当該入力変数を考慮せずにラベル推定を行うことができる。
入力データを分類ラベル1にラベル推定するにあたり、入力変数xが不必要な入力変数である場合を例に説明する。この場合は、ラベル1用オートエンコーダは、入力変数xを考慮しない変数(本明細書においては「無考慮入力変数」と記載する)として、入力変数xを考慮せずに複数の出力変数x’11、x’12、x’13・・・を出力する。
上記処理をより具体的に説明する。図3は、ラベル1用オートエンコーダの一部の構成を示す図である。ラベル1用オートエンコーダにおいて入力変数xを無考慮入力変数とするために、ラベル1用オートエンコーダの入力層に含まれる各ユニットの入力変数xに関する重みが0に固定的に設定される。図3には、入力層のユニットA11の入力変数xに関する重みであるw12が0に設定され、入力層のユニットA21の入力変数xに関する重みであるw22が0に設定される様子が示されている。これにより、入力層の各ユニットに入力変数xが入力されたとしても、ラベル1用オートエンコーダは、入力変数xを考慮せず(無視して)各出力変数を出力することができる。
さらに、より確実に無考慮入力変数の影響を排除するために、再構成誤差算出部32は、ラベル1用オートエンコーダついて、無考慮入力変数である入力変数xと、当該無考慮入力変数に対応する出力変数x’との変数差を考慮せずに再構成誤差を算出する。
図4は、ラベル1用オートエンコーダの各変数差及び再構成誤差を示す概念図である。図4に示される通り、無考慮変数が入力変数xである場合、入力変数xと出力変数x’との変数差が0に固定的に設定される。これにより、無考慮入力変数である入力変数xに関する変数差を考慮せずに、ラベル1用オートエンコーダの再構成誤差を算出することができる。
以上のように、ラベル1用オートエンコーダについて、入力層に含まれる各ユニットの無考慮入力変数に関する重みが0に固定的に設定され、且つ、無考慮入力変数に関する変数差が0に固定的に設定されることで、無考慮入力変数を考慮せずにラベル1用オートエンコーダの再構成誤差を算出することができる。これにより、予め分かっている不必要な入力変数の影響が排除され、本質的な入力変数のみを考慮してラベル推定が行われるため、ラベル推定の精度を向上させることができる。
本実施形態における識別器においては、各ラベルに対応して複数のオートエンコーダが設けられていることから、無考慮入力変数はオートエンコーダ毎に(すなわち分類ラベル毎に)個別的に設定することが可能である。つまり、一のオートエンコーダに関する無考慮入力変数と、他のオートエンコーダに関する無考慮入力変数を互いに異なる入力変数とすることができる。例えば、ラベル1用オートエンコーダ(分類ラベル1)については入力変数xを無考慮入力変数とし、ラベル2用オートエンコーダ(分類ラベル2)については入力変数xを無考慮入力変数とすることができる。もちろん、1つのオートエンコーダについて、複数の入力変数が無考慮入力変数として設定されてもよいし、あるオートエンコーダについては全く無考慮入力変数が設定されなくてもよい。
無考慮入力変数を分類ラベル毎に個別的に設定することで、各分類ラベルに応じて、本質的な入力変数のみを選択してラベル推定を行うことが可能になる。
以下、図5に示すフローチャートに従って、本実施形態に係るラベル推定装置10の動作の流れを説明する。
ステップS10において、各分類ラベルについて無考慮入力変数が特定される。無考慮入力変数の特定方法は種々の方法がある。
例えば、ユーザが予め各分類ラベルについての無考慮入力変数を知っているのであれば、ユーザによって各分類ラベルについての無考慮入力変数を指定するようにしてもよい。
また、上述のように、本実施形態に係る識別器においては、各オートエンコーダに関する複数の変数差が算出されるため、当該複数の変数差に基づいて無考慮入力変数を特定するようにしてもよい。
具体例として、例えば、交差検証(CV(Cross Validation))における無考慮入力変数の特定方法を説明する。まず、ユーザが、学習用データを事前学習データとCVデータ(検証用データ)とに分類する。そして、事前学習データを用いて本実施形態に係る識別器を学習し、学習済みの識別器にCVデータを入力する。
CVデータの入力に対して出力データがラベル誤推定をした場合、ユーザの要求に応じて、制御部20は、当該CVデータの真の分類ラベルに対応するオートエンコーダの複数の入力変数に関する変数差のうち、誤差が大きい入力変数を抽出する。例えば、複数の変数差のうち誤差が大きかった上位数個の入力変数を抽出する。抽出された入力変数は通信部14から送信され、あるいは表示部18に表示されることで、ユーザに提示される。
ユーザは、ラベル推定装置10から提示された入力変数を確認し、それがラベル推定に不必要な入力変数であるか否かを確認する。不必要な入力変数であれば、ユーザは、当該入力変数を無考慮入力変数として設定する。あるいは、ユーザの確認を経ずに、変数差が大きく制御部20により抽出された入力変数を自動的に無考慮入力変数として特定するようにしてもよい。
ステップS12において、制御部20は、各オートエンコーダについて、入力層に含まれる各ユニットの、ステップS10で特定された無考慮入力変数に関する重みを0に固定的に設定する。また、制御部20は、各オートエンコーダについて、無考慮入力変数に関する変数差を0に固定的に設定する。これにより、本実施形態に係る識別器は、各分類ラベル毎に個別的に設定された無考慮入力変数を考慮せずに、ラベル推定を行うことができるようになる。
ステップS14において、ユーザは、複数の学習用データを本実施形態に係る識別器に入力し、制御部20は、学習用データに対する最終出力データに基づいて、各オートエンコーダを学習する。具体的には、最終出力データにおいて、既知である学習用データの分類ラベルの確率が最大となるように各オートエンコーダを学習する。
ステップS16において、各オートエンコーダの学習の最中にラベル誤推定があった場合、制御部20は、当該学習用データの真の分類ラベルに対応するオートエンコーダの複数の入力変数に関する変数差のうち、誤差が大きい入力変数を抽出してユーザに提示する。そして、提示された入力変数が無考慮入力変数であるとユーザに判断された場合には、当該入力変数が新たに無考慮入力変数として特定され、再度のステップS12で、新たに特定された無考慮入力変数に関する重みを0に、また変数差を0に固定的に設定する。なお、このような無考慮入力変数の特定は、学習時のみならず、実際のラベル推定処理(実運用時)において行われてもよい。
ステップS16において、新たな無考慮入力変数が発見されなかった場合には、処理を終了する。
図5に示したフローチャートの処理において学習された識別器に対して、ラベル推定の対象となる入力データが入力される。そして、当該入力データに対する最終出力データに基づいて、ラベル推定を行うことができる。具体的には、入力データは、最終出力データが有する最終出力変数y、y、y・・・のうち、値(確率)が最も大きい最終出力変数に対応する分類ラベルとして推定される。
以上、本発明に係る実施形態を説明したが、本発明は上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない限りにおいて種々の変更が可能である。
10 ラベル推定装置、12 記憶部、14 通信部、16 入力部、18 表示部、20 制御部、30 学習モデル部、32 再構成誤差算出部、34 符号反転部、36 確率算出部。

Claims (4)

  1. 複数の分類ラベルに対応した複数の学習モデルであって、それぞれの前記学習モデルが、複数の入力変数を含む入力データに対して複数の出力変数を含む出力データを出力し、自学習モデルに対応する分類ラベルに属する入力データに対しては当該入力データの複数の入力変数と同等の値を複数の出力変数として有する出力データを出力し、自学習モデルに対応する分類ラベルに属さない入力データに対しては当該入力データの複数の入力変数とは異なる複数の出力変数を有する出力データを出力するように学習可能な複数の学習モデルと、
    前記複数の学習モデルそれぞれについて、各入力変数と、各入力変数に対応する出力変数との差を算出し、得られた複数の前記差に基づいて、入力データと出力データとの誤差の大きさを示す再構成誤差を算出する再構成誤差算出部と、
    前記複数の学習モデルそれぞれについて算出された複数の前記再構成誤差に基づいて、前記複数の分類ラベルそれぞれについて、前記入力データが当該分類ラベルに属する確率を算出する確率算出部と、
    を備え、
    前記複数の学習モデルそれぞれは、前記学習モデルに入力された前記複数の入力変数のうちの一部の入力変数であって予め定められた無考慮入力変数を考慮せずに前記複数の出力変数を出力し、
    前記再構成誤差算出部は、前記無考慮入力変数と、当該無考慮入力変数に対応する出力変数との差を考慮せずに前記再構成誤差を算出する、
    ことを特徴とするラベル推定装置。
  2. 前記複数の学習モデルは、前記確率算出部が算出した複数の確率に基づいて、前記複数の確率のうち、入力データが属する分類ラベルに対応する確率が最大となるように学習される、
    ことを特徴とする請求項1に記載のラベル推定装置。
  3. 一の前記学習モデルに関する前記無考慮入力変数と、他の前記学習モデルに関する前記無考慮入力変数は、互いに異なる入力変数である、
    ことを特徴とする請求項に記載のラベル推定装置。
  4. コンピュータを、
    複数の分類ラベルに対応した複数の学習モデルであって、それぞれの前記学習モデルが、複数の入力変数を含む入力データに対して複数の出力変数を含む出力データを出力し、自学習モデルに対応する分類ラベルに属する入力データに対しては当該入力データの複数の入力変数と同等の値を複数の出力変数として有する出力データを出力し、自学習モデルに対応する分類ラベルに属さない入力データに対しては当該入力データの複数の入力変数とは異なる複数の出力変数を有する出力データを出力するように学習可能な複数の学習モデルと、
    前記複数の学習モデルそれぞれについて、各入力変数と、各入力変数に対応する出力変数との差を算出し、得られた複数の前記差に基づいて、入力データと出力データとの誤差の大きさを示す再構成誤差を算出する再構成誤差算出部と、
    前記複数の学習モデルそれぞれについて算出された複数の前記再構成誤差に基づいて、前記複数の分類ラベルそれぞれについて、前記入力データが当該分類ラベルに属する確率を算出する確率算出部と、
    として機能させ
    前記複数の学習モデルそれぞれは、前記学習モデルに入力された前記複数の入力変数のうちの一部の入力変数であって予め定められた無考慮入力変数を考慮せずに前記複数の出力変数を出力し、
    前記再構成誤差算出部は、前記無考慮入力変数と、当該無考慮入力変数に対応する出力変数との差を考慮せずに前記再構成誤差を算出する、
    ことを特徴とするラベル推定プログラム。
JP2017194441A 2017-10-04 2017-10-04 ラベル推定装置及びラベル推定プログラム Active JP6962123B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017194441A JP6962123B2 (ja) 2017-10-04 2017-10-04 ラベル推定装置及びラベル推定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017194441A JP6962123B2 (ja) 2017-10-04 2017-10-04 ラベル推定装置及びラベル推定プログラム

Publications (2)

Publication Number Publication Date
JP2019067299A JP2019067299A (ja) 2019-04-25
JP6962123B2 true JP6962123B2 (ja) 2021-11-05

Family

ID=66338471

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017194441A Active JP6962123B2 (ja) 2017-10-04 2017-10-04 ラベル推定装置及びラベル推定プログラム

Country Status (1)

Country Link
JP (1) JP6962123B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021029922A (ja) * 2019-08-29 2021-03-01 日本光電工業株式会社 被検者判別装置、被検者判別方法、コンピュータプログラム、および非一時的コンピュータ可読媒体
JP7318804B2 (ja) * 2020-03-27 2023-08-01 日本電気株式会社 類似度計算機、認証システム、類似度計算方法、類似度計算プログラムおよび類似度計算プログラムの生成方法
KR102249635B1 (ko) * 2020-11-06 2021-05-10 주식회사 웨이센 Ai 예측 모델을 이용한 2개의 예측 결과의 학습 데이터 추가 방법
KR102583586B1 (ko) * 2020-11-30 2023-10-05 성균관대학교산학협력단 Multi-class 데이터 잠재공간 분리를 위한 오토인코더 모델

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002342758A (ja) * 2001-05-15 2002-11-29 Osamu Hasegawa 視覚認識システム
JP6166981B2 (ja) * 2013-08-09 2017-07-19 日本放送協会 表情解析装置及び表情解析プログラム
JP5993897B2 (ja) * 2014-06-19 2016-09-14 ヤフー株式会社 特定装置、特定方法及び特定プログラム
WO2017073373A1 (ja) * 2015-10-30 2017-05-04 株式会社モルフォ 学習システム、学習装置、学習方法、学習プログラム、教師データ作成装置、教師データ作成方法、教師データ作成プログラム、端末装置及び閾値変更装置

Also Published As

Publication number Publication date
JP2019067299A (ja) 2019-04-25

Similar Documents

Publication Publication Date Title
JP6962123B2 (ja) ラベル推定装置及びラベル推定プログラム
JP7266674B2 (ja) 画像分類モデルの訓練方法、画像処理方法及び装置
WO2020008919A1 (ja) 機械学習装置及び方法
JPWO2018051841A1 (ja) モデル学習装置、その方法、及びプログラム
US20230385333A1 (en) Method and system for building training database using automatic anomaly detection and automatic labeling technology
WO2021208727A1 (zh) 基于人工智能的文本错误检测方法、装置、计算机设备
JP6867276B2 (ja) モデル学習装置、モデル学習方法、および、予測システム
CN108959474B (zh) 实体关系提取方法
JP7222274B2 (ja) モデル学習装置、ラベル推定装置、それらの方法、およびプログラム
CN108879732B (zh) 电力系统暂态稳定评估方法及装置
WO2023116111A1 (zh) 一种磁盘故障预测方法及装置
EP3683736A1 (en) Machine learning method, machine learning program, and machine learning apparatus
US10885593B2 (en) Hybrid classification system
CN110275928B (zh) 迭代式实体关系抽取方法
US20220327394A1 (en) Learning support apparatus, learning support methods, and computer-readable recording medium
CN112052663B (zh) 客服语句质检方法及相关设备
JPWO2019171416A1 (ja) 画像分類システム、画像分類方法および画像分類プログラム
JPWO2019180868A1 (ja) 画像生成装置、画像生成方法および画像生成プログラム
WO2023273570A1 (zh) 一种目标检测模型训练方法、目标检测方法及其相关设备
WO2020088338A1 (zh) 一种建立识别模型的方法及装置
US20240020531A1 (en) System and Method for Transforming a Trained Artificial Intelligence Model Into a Trustworthy Artificial Intelligence Model
CN113705092B (zh) 基于机器学习的疾病预测方法及装置
Bootkrajang et al. Learning a label-noise robust logistic regression: Analysis and experiments
CN113010687B (zh) 一种习题标签预测方法、装置、存储介质以及计算机设备
CN113379037A (zh) 一种基于补标记协同训练的偏多标记学习方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210811

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210927

R150 Certificate of patent or registration of utility model

Ref document number: 6962123

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150