JP2019144767A - 学習プログラム、学習方法および学習装置 - Google Patents

学習プログラム、学習方法および学習装置 Download PDF

Info

Publication number
JP2019144767A
JP2019144767A JP2018027256A JP2018027256A JP2019144767A JP 2019144767 A JP2019144767 A JP 2019144767A JP 2018027256 A JP2018027256 A JP 2018027256A JP 2018027256 A JP2018027256 A JP 2018027256A JP 2019144767 A JP2019144767 A JP 2019144767A
Authority
JP
Japan
Prior art keywords
learning
data
label
target data
learning target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018027256A
Other languages
English (en)
Other versions
JP7040104B2 (ja
Inventor
裕平 梅田
Yuhei Umeda
裕平 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018027256A priority Critical patent/JP7040104B2/ja
Priority to US16/275,487 priority patent/US20190258935A1/en
Publication of JP2019144767A publication Critical patent/JP2019144767A/ja
Application granted granted Critical
Publication of JP7040104B2 publication Critical patent/JP7040104B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Library & Information Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

【課題】学習結果の判定精度の劣化を抑制することを課題とする。【解決手段】学習装置は、学習対象のデータそれぞれに付された1または複数のラベルそれぞれに対し、学習対象のデータの属性または学習対象のデータと他の学習対象のデータとの関係に基づきスコアを設定する。そして、学習装置は、学習対象のデータそれぞれに付されたラベルに設定されたスコアを用いて、ニューラルネットワークに対する学習を行わせる。【選択図】図3

Description

本発明は、学習プログラム、学習方法および学習装置に関する。
ラベル付きデータを用いた教師あり学習に関する技術が知られている。ラベル付きデータを用いた教師あり学習において用いられるラベルは、別の観点でデータの種類がはっきりした確実なラベルであることもあるが、作業者の主観により人手で付与されたラベルであることもある。一般的に、ラベル付きデータは、正解が既知である正解付きデータとして学習に用いられるから、正例と負例との境界付近のデータについてもいずれかのラベルを付与され、学習が行われる。
図12は、一般的なラベル付与を説明する図である。図12の(a)に示すように、境界付近の曖昧なデータに対して、ラベルAとラベルBのいずれかを付与する必要がある場合、当該データの近傍のデータに付与されたラベルの多数決によって決定することが行われる。また、図12の(b)に示すように、境界付近の曖昧なデータに関しては、ラベルの確実性が低いので、学習データから除外することが行われる。
特開2015−166962号公報 特開2017−016414号公報
しかしながら、上記ラベルの付与方法では、学習結果の判定精度が劣化する場合がある。例えば、多数決を利用する手法では、ラベル付けが間違えていた場合、特に境界付近での誤差が大きくなる。また、ラベルが交じり合うことも多く、非線形性が高くなるので、判定器(分類器)の学習が難しい。除外する手法では、非線形性が低くなるので、学習はし易くなるが、境界付近が学習できないので、境界付近の判定精度が低下する。
一つの側面では、学習結果の判定精度の劣化を抑制することができる学習プログラム、学習方法および学習装置を提供することを目的とする。
第1の案では、学習プログラムは、コンピュータに、学習対象のデータそれぞれに付された1または複数のラベルそれぞれに対し、前記学習対象のデータの属性または前記学習対象のデータと他の学習対象のデータとの関係に基づき、スコアを設定する処理を実行させる。学習プログラムは、コンピュータに、前記学習対象のデータそれぞれに付されたラベルに設定されたスコアを用いて、ニューラルネットワークに対する学習を行わせる処理を実行させる。
一実施形態によれば、学習結果の判定精度の劣化を抑制することができる。
図1は、実施例1にかかる学習装置の全体例を説明する図である。 図2は、実施例1にかかる学習例を説明する図である。 図3は、実施例1にかかる学習装置の機能構成を示す機能ブロック図である。 図4は、学習データDBに記憶される情報の例を示す図である。 図5は、分布を用いたラベルの設定例を説明する図である。 図6は、近傍のデータの割合を用いたラベルの設定例を説明する図である。 図7は、データ間の距離を用いたラベルの設定例を説明する図である。 図8は、クラウドソーシングによるラベルの設定例を説明する図である。 図9は、処理の流れを示すフローチャートである。 図10は、効果を説明する図である。 図11は、ハードウェア構成例を説明する図である。 図12は、一般的なラベル付与を説明する図である。
以下に、本願の開示する学習プログラム、学習方法および学習装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
[全体構成]
図1は、実施例1にかかる学習装置の全体例を説明する図である。図1に示すように、実施例1にかかる学習装置10は、学習データのラベルに対してスコアを付与した後に、機械学習や深層学習(ディープラーニング(DL)・Deep Learning)などを用いた判別処理(学習処理)を実行して、学習データを事象ごとに正しく判別(分類)できるように、スコアを用いてニューラルネットワーク(NN:Neural Network)などを学習する。その後、学習結果を適用した学習モデルを用いることで、判別対象データの正確な事象(ラベル)の推定を実現する。なお、学習データには、画像、動画、文書、グラフなど様々なデータを採用することができる。
例えば、学習装置10は、NNを用いたモデルに対する学習を行う際に、学習対象のデータそれぞれに付された1または複数のラベルそれぞれに対し、データの属性またはデータと他のデータとの関係に基づきスコアを設定する。そして、学習装置10は、学習対象のデータそれぞれに付されたラベルに設定されたスコアを用いて、NNに対する学習を行わせる。
一般的に、NNの学習に各データに対して決定するラベルは、行列として保持する。しかし、従来から使用されていたSVM(Support Vector Machine)などのアルゴリズムが、ラベルを一つに決める必要があったこと、全学習データの認識スコアが正解ラベルに沿って1または0であることが最も望ましい状態であることから、複数のラベル成分に小数(分数)で値を設定することなく、1または0が設定されていた。
つまり、1か0か曖昧なデータであっても1か0のいずれかを設定する必要があった。言い換えると、ラベルAかラベルBか曖昧なデータであっても、いずれかのラベルを設定する必要があるので、当該データに対して、ラベルとして「ラベル(ラベルA=1.0、ラベルB=0.0)」または「ラベル(ラベルA=0.0、ラベルB=1.0)」を付与する必要があった。
そこで、実施例1では、ラベルが曖昧なデータについては、各ラベルである確率を各ラベルに対応した要素に付したラベルベクトルを与え、これらのラベルベクトルをもとに深層学習を実行する。すなわち、実施例1では、付与されるラベルが曖昧なデータに対しては、確率的なラベルベクトルで与え、ラベルの値を小数として学習させる。
[学習例]
次に、ラベルが曖昧な学習データの学習について説明する。図2は、実施例1にかかる学習例を説明する図である。ここでは、図2の(a)と(b)は、一般的な学習例を示し、図2の(c)は、実施例1による学習例を示す。
図2の(a)に示すように、「ラベルA=1.0、ラベルB=0.0」が付与されたデータをNNに入力し、出力が、ラベルAである確率が70%でラベルBである確率が30%であったとする。この場合、誤差逆伝搬法によってラベルAと判別されるようにNNの学習が実行されるが、学習データに設定されたラベルがある程度は正しかったことから、許容できる範囲内で正常にNNを学習することができる。
一方、図2の(b)に示すように、「ラベルA=1.0、ラベルB=0.0」が付与されたデータをNNに入力し、出力が、ラベルAである確率が40%でラベルBである確率が60%であったとする。この場合、学習データに設定されたラベルが間違っていた可能性が高いにも関わらず、誤差逆伝搬法によってラベルAと判別されるようにNNの学習が実行され、間違った方向にNNが学習されるので、判別精度の劣化を引き起こす。
これに対して、図2の(c)に示すように、「ラベルA=0.6、ラベルB=0.4」が付与されたデータをNNに入力し、出力が、ラベルAである確率が70%でラベルBである確率が30%であったとする。この場合、誤差逆伝搬法によってラベルAと判別されるようにNNの学習が実行されるが、学習データに設定されたラベルが正しかったことから、図2の(a)と比較してもより正常にNNを学習することができる。
このように、実施例1にかかる学習装置10は、ラベルが曖昧なデータに対しては、いずれかのラベルであると強制的に学習させるのではなく、曖昧さを残したまま、曖昧さを考慮した学習を実行することができる。したがって、学習装置10は学習結果の判定精度の劣化を抑制することができる。
[機能構成]
図3は、実施例1にかかる学習装置の機能構成を示す機能ブロック図である。図3に示すように、学習装置10は、通信部11と記憶部12と制御部20を有する。
通信部11は、他の装置との通信を制御する処理部であり、例えば通信インタフェースである。例えば、通信部11は、管理者の端末から、処理開始指示を受信する。また、通信部11は、管理者の端末等から、学習対象であるデータ(入力データ)を受信して入力データDB13に格納する。
記憶部12は、プログラムやデータを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどである。この記憶部12は、入力データDB13、学習データDB14、学習結果DB15を記憶する。
入力データDB13は、学習対象となる入力データを記憶するデータベースである。ここで記憶されるデータは、人手等によってラベルが設定されていてもよく、未設定であってもよい。なお、データは、管理者等によって格納することもでき、通信部11が受信して記憶することもできる。
学習データDB14は、学習対象の教師ありデータを記憶するデータベースである。具体的には、学習データDB14は、後述する制御部20によって、入力データDB13に記憶される入力データと当該入力データに設定されたラベルとを対応付けて記憶する。図4は、学習データDB14に記憶される情報の例を示す図である。図4に示すように、学習データDB14は、「データID、ラベル1、ラベル2、ラベル3」を対応付けて記憶する。図4の例では、データIDが「1」のデータには、「ラベル1、ラベル2、ラベル3」として「0.5、0、0.5」のラベルベクトルが設定されていることを示す。なお、ここで示したラベルベクトルの次元数や数値は、一例であり、任意に設定変更することができる。
学習結果DB15は、学習結果を記憶するデータベースである。例えば、学習結果DB15は、制御部20による学習データの判別結果(分類結果)、機械学習やディープラーニングによって学習された各種パラメータを記憶する。
制御部20は、学習装置10全体の処理を司る処理部であり、例えばプロセッサなどである。この制御部20は、設定部21と学習部22を有する。なお、設定部21と学習部22は、プロセッサなどが有する電子回路やプロセッサなどが実行するプロセスの一例である。
設定部21は、学習対象のデータそれぞれに付された1または複数のラベルそれぞれに対し、データの属性またはデータと他のデータとの関係に基づきスコアを設定する処理部である。具体的には、設定部21は、入力データDB13から各入力データを読み出し、各入力データに基づくスコアを算出する。そして、設定部21は、各入力データに対して、スコアを設定したラベルベクトルをラベルとして設定した学習データを生成する。その後、設定部21は、生成した学習データを学習データDB14に格納する。なお、入力データに人手等によるラベルが既に付与されている場合は、ラベルの補正が行われる。また、後述する処理によって、曖昧なデータについてだけラベルの再設定を行うこともでき、全データについてラベルの再設定を行うこともできる。
つまり、設定部21は、NNの学習において、ラベル付けされたデータの「確信度や信頼度」が「全て正しい」という前提をあてはめることによる弊害を、小数ラベル(ラベルベクトル)により解決する。ここで、設定部21が実行するラベルの設定方法の具体例について説明する。なお、ラベルが2つ(二次元)の場合を用いて説明するが、これに限定されるものではなく、三次元以上であっても同様に処理することができる。なお、一例としては、設定部21は、複数の管理者等のユーザによってラベルが異なるデータを曖昧なデータと判定することができる。
(手法1:分布)
まず、曖昧なデータの属性が複数の分布を含む混合分布に従う場合、混合分布における混合比率に基づきスコアを設定する例を説明する。つまり、各ラベルの発生がある分布に沿っていると仮定し、各ラベルの混合分布に基づいて決定する手法を説明する。この例では、各データ間の距離が定まっており、データ数は十分に存在し、曖昧なラベルも含めて全データにラベルが付与されているものとする。
図5は、分布を用いたラベルの設定例を説明する図である。この例は、同年代の身長と体重の数値から男女を識別する例である。身長と体重はセンサーで測定され、ラベル付けは目視で行う場合もしくは分布に沿って自動的に行う場合を考える。図5に示すように、正規化を行った身長と体重の分布は、正規分布に従うことが予想され、男性の方が身長および体重の平均が大きい。
図5の例では、女性の正規分布のみに沿うデータを丸印、男性の正規分布のみに沿うデータを点線の丸印で表す。例えば、設定部21は、正規分布が重複しない領域かつ女性の正規分布に属する領域のデータ(ID=1)に対しては、ラベルベクトル「ラベル1(女性)=1.0、ラベル2(男性)=0.0」を設定する。また、設定部21は、正規分布が重複しない領域かつ男性の正規分布に属する領域のデータ(ID=20)に対しては、ラベルベクトル「ラベル1(女性)=0.0、ラベル2(男性)=1.0」を設定する。
これらに対して、設定部21は、分布が重複する領域Pに属するデータ(ID=D)、すなわち曖昧なデータDに対しては、混合分布の割合等に基づくスコアをラベルとして設定する。例えば、設定部21は、女性分布上の値P2と男性分布上の値P1とを特定し、P0からP1までの距離(P1−P0)と、P0からP2までの距離(P2−P0)との割合を算出する。そして、設定部21は、「距離(P2−P0):距離(P1−P0)」=「6:4」と算出した場合、データDに対しては、ラベルベクトル「ラベル1(女性)=0.6、ラベル2(男性)=0.4」を設定する。
なお、設定部21は、両方の分布に属する各データ、言い換えると両方の分布に沿うデータを曖昧なデータと判定し、上記処理によってスコアを算出する。なお、割合の算出時は、合計が1になるように正規化することもできる。また、距離に限らず、値そのもの(図5では身長)の割合や比率などを用いることもできる。また、いずれかの分布に沿っているデータについては管理者等による人手でラベルを設定し、曖昧なデータのみに対して上記手法1によるラベル設定を実行することもできる。
(手法2:近傍データの割合)
次に、曖昧なデータの近傍のデータに付与されるラベルの割合に基づいて、曖昧なデータにラベルを設定する例を説明する。この例でも手法1と同様、各データ間の距離が定まっており、データ数は十分に存在し、曖昧なラベルも含めて全データにラベルが付与されているものとする。なお、データが三次元以上の場合には、全データ間の距離を計算し、MDS(Multi-Dimensional Scaling)などで二次元に次元圧縮する。
図6は、近傍のデータの割合を用いたラベルの設定例を説明する図である。この例は、機器の動作時の各部位の振動から、機器が正常か異常か判断し、各部位の振動データである各データに対して正常か異常などのラベルを設定する例である。機器の異常は経年劣化的に起こることから、正常と異常の境目の判断は不確実性が高い。また、境界付近で判断が曖昧であることが多く、正常と異常のデータはそれぞれ分布に従っているわけではない。
図6の例では、過去の事例や実際に発生した障害事例などから、正常値と判定されたデータを丸印、異常値と判定されたデータを点線の丸印で表す。例えば、設定部21は、正常値と判定されたデータ(ID=1)に対しては、ラベルベクトル「ラベル1(正常)=1.0、ラベル2(異常)=0.0」を設定する。また、設定部21は、異常値と判定されたデータ(ID=20)に対しては、ラベルベクトル「ラベル1(正常)=0.0、ラベル2(異常)=1.0」を設定する。
これらに対して、設定部21は、過去の事例等より、正常値か異常値かの判断ができない曖昧なデータ(ID=D)に対しては、圧縮空間上である閾値の距離内の近傍に存在する他のデータのラベルの割合に基づいてラベル設定を行う。なお、図6の丸印内の数字はデータIDを示す。
図6に示すように、設定部21は、MDSなどで得られるデータ間の距離を用いて、曖昧なデータDから任意の所定範囲Q内に存在するデータを特定する。そして、設定部21は、所定範囲Q内のデータのうち、データ1、3、5、10の4つのデータのラベルが「正常」であり、データ2、4、6、7、8、9の6つのデータのラベルが「異常」であることを特定する。すなわち、設定部21は、所定範囲Q内の近傍データの4割が「正常」で6割が「異常」と特定済みであると判定する。この結果、設定部21は、データDに対しては、ラベルベクトル「ラベル1(正常)=0.4、ラベル2(異常)=0.6」を設定する。
なお、設定部21は、管理者等のユーザによって正常か異常かの区別ができないと判定されたデータ、過去事例に基づき正常にも異常にも属さないと判定されたデータなどを曖昧なデータと判定することができる。なお、割合の算出時は、合計が1になるように正規化することもできる。また、正常か異常かを正確に判定されたデータについては管理者等による人手でラベルを設定し、曖昧なデータのみに対して上記手法2によるラベル設定を実行することもできる。
(手法3:データ間の距離)
次に、曖昧なデータの近傍のデータ間の距離に基づいて、曖昧なデータにラベルを設定する例を説明する。この例の条件は、手法2と同様とする。図7は、データ間の距離を用いたラベルの設定例を説明する図である。
図7に示すように、設定部21は、MDSなどで得られるデータ間の距離を用いて、曖昧なデータDから任意の所定範囲Q内に存在するデータを特定する。そして、設定部21は、所定範囲Q内のデータのうち、「正常」と識別された(正常のラベルのみが付与された)データ1、3、5、10の4つのデータを特定する。続いて、設定部21は、予め算出済みのデータ間の距離を用いて、データDとデータ1との距離w1、データDとデータ3との距離w3、データDとデータ5との距離w5、データDとデータ10との距離w10を算出する。その後、設定部21は、距離による重み(wの総和)として、「(1/w1)+(1/w3)+(1/w5)+(1/w10)」を算出する。なお、ここでは重みの算出に距離の逆数を用いたが、距離が近いほど大きくなる指標であれば逆数以外の指標を用いてもよい。
同様に、設定部21は、所定範囲Q内のデータのうち、「異常」と識別された(異常のラベルのみが付与された)データ2、4、6、7、8、9の6つのデータを特定する。続いて、設定部21は、予め算出済みのデータ間の距離を用いて、データDとデータ2との距離W2、データDとデータ4との距離W4、データDとデータ6との距離W6、データDとデータ7との距離W7、データDとデータ8との距離W8、データDとデータ9との距離W9を算出する。その後、設定部21は、距離による重み(Wの総和)として、「(1/W2)+(1/W4)+(1/W6)+(1/W7)+(1/W8)+(1/W9)」を算出する。
この結果、設定部21は、データDに対しては、ラベルベクトル「ラベル1(正常)、ラベル2(異常)」として「ラベル1(正常)=wの総和、ラベル2(異常)=Wの総和」を設定する。なお、距離の重みを考慮した算出手法は、一例であり、距離が近いほど重要視されるような手法であれば、どのような手法も採用することができる。また、距離による重みは、合計が1になるように正規化して算出することができる。また、手法2と手法3では、全データについて、上記で計算した確率(値)はなめらかな関数にならないため、各ラベルに対し応答曲面を作成し、各ラベルの応答曲面による値をベクトルのセル値に対応させることもできる。
(手法4:近傍データの割合)
次に、ラベル決定の参考となる情報が複数存在する場合に、参考情報で指示されるラベルの割合に基づいて、ラベルを設定する例を説明する。例えば、クラウドソーシング等によって複数の担当者にラベル付作業を依頼することが考えられる。この場合、それぞれのラベル付結果から各データのラベルを決定するが、曖昧なデータに関しては、各担当者によって付与されるラベルが異なる場合がある。
一般的には、多数決や担当者の信頼度によって決定されるが、必ずしも正しいラベルが付与されるとは限らない。そこで、設定部21は、ラベル付結果の割合に基づいてラベルベクトルを生成して設定する。
図8は、クラウドソーシングによるラベルの設定例を説明する図である。図8に示すように、データDに対して、担当者aがラベル1を付与し、担当者bがラベル1を付与し、担当者cがラベル1を付与し、担当者dがラベル2を付与し、担当者eがラベル1を付与したとする。この場合、設定部21は、各ラベルの設定合計数を計算し、ラベル1が「4」、ラベル2が「1」と算出する。そして、設定部21は、各ラベルの全体に対する割合「ラベル1、ラベル2」として「4/5=0.8、1/5=0.2」を算出する。この結果、設定部21は、データDに対しては、ラベルベクトル「ラベル1=0.8、ラベル2=0.2」を設定する。
なお、担当者の信頼度等によって、重み付けすることもできる。例えば、予め指定された担当者aの信頼度が閾値以上である場合に、担当者aについては、設定数が1つであっても2倍にして2として上記算出手法を実行することもできる。また、各参考情報で、指示するラベルが異なる場合、参考情報の重要度に応じて重みをつけ、各ラベルを指示する情報の重み付和を全体の重み付和で割った「各ラベルの重み付比率」を各ラベルに対する値とすることもできる。
図3に戻り、学習部22は、学習データDB14に記憶される学習データを用いてNNの学習を実行し、学習結果を学習結果DB15に格納する処理部である。図4の例では、学習部22は、ID=1のデータについてはラベルベクトル「ラベル1=0.5、ラベル2=0、ラベル3=0.5」を入力として学習を実行する。
[処理の流れ]
次に、上述したラベルベクトルの設定処理について説明する。図9は、処理の流れを示すフローチャートである。
図9に示すように、入力データが受信されて入力データDB13に格納されると(S101:Yes)、設定部21は、入力データDB13から1つの入力データを読み込む(S102)。
続いて、設定部21は、読み込んだ入力データが曖昧なデータに該当するか否かを判定し(S103)、曖昧なデータに該当する場合(S103:Yes)、入力データの属性や他データとの関係からスコアを算出する(S104)。そして、設定部21は、スコアに基づいたラベルベクトルを入力データに設定(付与)した学習データを生成して(S105)、学習データDB14に格納する(S106)。
一方、設定部21は、読み込んだ入力データが曖昧なデータに該当しない場合(S103:No)、入力データに対して既知のラベルを示すラベルベクトルを設定した学習データを生成して(S107)、学習データDB14に格納する(S106)。なお、曖昧ではない入力データにすでに付与されているラベルをそのまま用いることができる。
その後、全入力データに対してラベル(ラベルベクトル)が設定済みではなく、未設定の入力データが存在する場合(S108:No)、S102以降が実行される。
一方、全入力データに対してラベル(ラベルベクトル)が設定済みである場合(S108:Yes)、学習部22は、学習データDB14から各学習データを読み込み(S109)、各学習データのラベルベクトルをもとに学習を実行する(S110)。
[効果]
上述したように、学習装置10は、付与されたラベルが曖昧な場合に、確率的なラベルベクトルを与えることで深層学習を行い精度の高い学習を行うことができる。また、学習装置10は、ラベルを集約させることによる、判別速度の劣化や学習結果の判別精度の劣化を抑制することができる。
ここで、実施例1による手法と従来手法との比較を行った実験結果を説明する。まず、実験の条件を説明する。ここでは、10次元のベクトルデータを用い、第1成分が0.5以上か否かで正例か負例か分類する例で説明する。なお、曖昧なデータの条件として、第1成分が0.35から0.55の間のデータでは3割の確率でランダムにラベルを入れ替えることとする。
比較する手法は、そのままのラベルで学習する手法「一般法1」と、担当者の主観によってラベルを付け替えた「一般法2」、不確定な区間である(0.35から0.6)区間のデータを学習データから除去した「不確定除去」と、上記手法1から4のいずれかを用いた「実施例1」とする。
図10は、効果を説明する図である。図10では、各手法で学習データを生成した上で学習を実行し、その後に、学習結果を反映した学習モデルを用いて、判別対象データの判別を実行した結果を示す。図10に示すように、全体的な精度は、各手法とも精度の高い判別(分類)ができたが、不確定な範囲(0.35から0.6の区間)については、各手法とも精度が低下した。しかし、実施例1では、精度が低下したものの、依然として80%以上の精度を維持しており、高精度に判別できたことがわかる。したがって、実施例1は、他の手法と比較しても、劣化や学習結果の判別精度の劣化を抑制することができる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。また、実施例で説明した具体例、分布、数値などは、あくまで一例であり、任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[ハードウェア]
図11は、ハードウェア構成例を説明する図である。図11に示すように、学習装置10は、通信装置10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図11に示した各部は、バス等で相互に接続される。
通信装置10aは、ネットワークインタフェースカードなどであり、他のサーバとの通信を行う。HDD10bは、図3に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ10dは、図3に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図3等で説明した各機能を実行するプロセスを動作させる。すなわち、このプロセスは、学習装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、設定部21、学習部22等と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、設定部21、学習部22等と同様の処理を実行するプロセスを実行する。
このように学習装置10は、プログラムを読み出して実行することで学習方法を実行する情報処理装置として動作する。また、学習装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、学習装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
10 学習装置
11 通信部
12 記憶部
13 入力データDB
14 学習データDB
15 学習結果DB
20 制御部
21 設定部
22 学習部

Claims (6)

  1. コンピュータに、
    学習対象のデータそれぞれに付された1または複数のラベルそれぞれに対し、前記学習対象のデータの属性または前記学習対象のデータと他の学習対象のデータとの関係に基づき、スコアを設定し、
    前記学習対象のデータそれぞれに付されたラベルに設定されたスコアを用いて、ニューラルネットワークに対する学習を行わせる、
    処理を実行させる学習プログラム。
  2. 請求項1に記載の学習プログラムであって、前記コンピュータに、
    前記学習対象のデータの属性が複数の分布を含む混合分布に従う場合、前記混合分布における混合比率に基づき前記スコアを設定する処理を実行させる学習プログラム。
  3. 請求項1に記載の学習プログラムであって、前記コンピュータに、
    前記学習対象のデータから所定距離に位置する近接の学習対象のデータそれぞれを特定し、前記近接の学習対象のデータそれぞれに付されたラベルの割合に基づき、前記スコアを設定する処理を実行させる学習プログラム。
  4. 請求項1に記載の学習プログラムであって、前記コンピュータに、
    前記学習対象のデータから所定距離に位置する近接の学習対象のデータそれぞれを特定し、前記近接の学習対象のデータそれぞれに付されたラベルの割合と、前記学習対象のデータと前記近接の学習対象のデータそれぞれとの距離に応じた重みとを用いて、前記スコアを設定する処理を実行させる学習プログラム。
  5. コンピュータが、
    学習対象のデータそれぞれに付された1または複数のラベルそれぞれに対し、前記学習対象のデータの属性または前記学習対象のデータと他の学習対象のデータとの関係に基づき、スコアを設定し、
    前記学習対象のデータそれぞれに付されたラベルに設定されたスコアを用いて、ニューラルネットワークに対する学習を行わせる、
    処理を実行する学習方法。
  6. 学習対象のデータそれぞれに付された1または複数のラベルそれぞれに対し、前記学習対象のデータの属性または前記学習対象のデータと他の学習対象のデータとの関係に基づき、スコアを設定する設定部と、
    前記学習対象のデータそれぞれに付されたラベルに設定されたスコアを用いて、ニューラルネットワークに対する学習を行わせる学習部と、
    を有する学習装置。
JP2018027256A 2018-02-19 2018-02-19 学習プログラム、学習方法および学習装置 Active JP7040104B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018027256A JP7040104B2 (ja) 2018-02-19 2018-02-19 学習プログラム、学習方法および学習装置
US16/275,487 US20190258935A1 (en) 2018-02-19 2019-02-14 Computer-readable recording medium, learning method, and learning apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018027256A JP7040104B2 (ja) 2018-02-19 2018-02-19 学習プログラム、学習方法および学習装置

Publications (2)

Publication Number Publication Date
JP2019144767A true JP2019144767A (ja) 2019-08-29
JP7040104B2 JP7040104B2 (ja) 2022-03-23

Family

ID=67617915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018027256A Active JP7040104B2 (ja) 2018-02-19 2018-02-19 学習プログラム、学習方法および学習装置

Country Status (2)

Country Link
US (1) US20190258935A1 (ja)
JP (1) JP7040104B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021079440A1 (ja) * 2019-10-23 2021-04-29
WO2021130936A1 (ja) * 2019-12-25 2021-07-01 日本電気株式会社 時系列データ処理方法
JP2021111382A (ja) * 2019-12-30 2021-08-02 エヌイーシー ラボラトリーズ ヨーロッパ ゲーエムベーハー 弱教師に基づくオントロジーマッチング
WO2021193025A1 (ja) * 2020-03-25 2021-09-30 パナソニックIpマネジメント株式会社 データ生成方法、判定方法、プログラム、及び、データ生成システム
DE112020003798T5 (de) 2019-08-06 2022-05-25 Mitsubishi Electric Corporation Magnetische Sensorvorrichtung
JP7467595B2 (ja) 2020-03-10 2024-04-15 オリンパス株式会社 画像処理システム、画像処理装置、内視鏡システム、画像処理方法及びプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10706327B2 (en) * 2016-08-03 2020-07-07 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
US11892562B2 (en) * 2020-10-30 2024-02-06 KaiKuTek Inc. Impulse-like gesture recognition method, and impulse-like gesture recognition system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009110064A (ja) * 2007-10-26 2009-05-21 Toshiba Corp 分類モデル学習装置および分類モデル学習方法
JP2009282686A (ja) * 2008-05-21 2009-12-03 Toshiba Corp 分類モデル学習装置および分類モデル学習方法
JP2016505974A (ja) * 2012-12-21 2016-02-25 インサイドセールスドットコム インコーポレイテッドInsidesales.Com,Inc. インスタンス重み付け学習機械学習モデル
WO2017073373A1 (ja) * 2015-10-30 2017-05-04 株式会社モルフォ 学習システム、学習装置、学習方法、学習プログラム、教師データ作成装置、教師データ作成方法、教師データ作成プログラム、端末装置及び閾値変更装置
WO2017183242A1 (ja) * 2016-04-19 2017-10-26 ソニー株式会社 情報処理装置及び情報処理方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5479574A (en) * 1993-04-01 1995-12-26 Nestor, Inc. Method and apparatus for adaptive classification
US9552549B1 (en) * 2014-07-28 2017-01-24 Google Inc. Ranking approach to train deep neural nets for multilabel image annotation
US10127477B2 (en) * 2016-04-21 2018-11-13 Sas Institute Inc. Distributed event prediction and machine learning object recognition system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009110064A (ja) * 2007-10-26 2009-05-21 Toshiba Corp 分類モデル学習装置および分類モデル学習方法
JP2009282686A (ja) * 2008-05-21 2009-12-03 Toshiba Corp 分類モデル学習装置および分類モデル学習方法
JP2016505974A (ja) * 2012-12-21 2016-02-25 インサイドセールスドットコム インコーポレイテッドInsidesales.Com,Inc. インスタンス重み付け学習機械学習モデル
WO2017073373A1 (ja) * 2015-10-30 2017-05-04 株式会社モルフォ 学習システム、学習装置、学習方法、学習プログラム、教師データ作成装置、教師データ作成方法、教師データ作成プログラム、端末装置及び閾値変更装置
WO2017183242A1 (ja) * 2016-04-19 2017-10-26 ソニー株式会社 情報処理装置及び情報処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
得居誠也: "最適化から見たディープラーニングの考え方", オペレーションズ・リサーチ, vol. 第60巻 第4号, JPN6021047065, 1 April 2015 (2015-04-01), JP, pages 191 - 197, ISSN: 0004649039 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112020003798T5 (de) 2019-08-06 2022-05-25 Mitsubishi Electric Corporation Magnetische Sensorvorrichtung
JPWO2021079440A1 (ja) * 2019-10-23 2021-04-29
JP7276487B2 (ja) 2019-10-23 2023-05-18 富士通株式会社 作成方法、作成プログラム及び情報処理装置
WO2021130936A1 (ja) * 2019-12-25 2021-07-01 日本電気株式会社 時系列データ処理方法
JPWO2021130936A1 (ja) * 2019-12-25 2021-07-01
JP7239022B2 (ja) 2019-12-25 2023-03-14 日本電気株式会社 時系列データ処理方法
JP2021111382A (ja) * 2019-12-30 2021-08-02 エヌイーシー ラボラトリーズ ヨーロッパ ゲーエムベーハー 弱教師に基づくオントロジーマッチング
JP7060668B2 (ja) 2019-12-30 2022-04-26 エヌイーシー ラボラトリーズ ヨーロッパ ゲーエムベーハー 弱教師に基づくオントロジーマッチング
JP7467595B2 (ja) 2020-03-10 2024-04-15 オリンパス株式会社 画像処理システム、画像処理装置、内視鏡システム、画像処理方法及びプログラム
WO2021193025A1 (ja) * 2020-03-25 2021-09-30 パナソニックIpマネジメント株式会社 データ生成方法、判定方法、プログラム、及び、データ生成システム

Also Published As

Publication number Publication date
JP7040104B2 (ja) 2022-03-23
US20190258935A1 (en) 2019-08-22

Similar Documents

Publication Publication Date Title
JP2019144767A (ja) 学習プログラム、学習方法および学習装置
CN103513983A (zh) 用于预测性警报阈值确定工具的方法和系统
US11574147B2 (en) Machine learning method, machine learning apparatus, and computer-readable recording medium
CN114677565B (zh) 特征提取网络的训练方法和图像处理方法、装置
Vignotto et al. Extreme value theory for anomaly detection–the GPD classifier
US10496779B2 (en) Generating root cause candidates for yield analysis
CN110954734B (zh) 故障诊断方法、装置、设备和存储介质
WO2021111540A1 (ja) 評価方法、評価プログラム、および情報処理装置
CN111611390B (zh) 一种数据处理方法及装置
US20230096921A1 (en) Image recognition method and apparatus, electronic device and readable storage medium
CN113643260A (zh) 用于检测图像质量的方法、装置、设备、介质和产品
US20120328167A1 (en) Merging face clusters
US20230196109A1 (en) Non-transitory computer-readable recording medium for storing model generation program, model generation method, and model generation device
US20220334941A1 (en) Pattern extraction and rule generation apparatus, method, and program
CN110390344B (zh) 备选框更新方法及装置
CN112861962B (zh) 样本处理方法、装置、电子设备和存储介质
JP2019159918A (ja) クラスタリングプログラム、クラスタリング方法およびクラスタリング装置
JP7172067B2 (ja) 学習プログラム、学習方法および学習装置
CN114443493A (zh) 一种测试案例生成方法、装置、电子设备和存储介质
US10248875B2 (en) Method for automatically detecting and repairing biometric crosslinks
KR102137109B1 (ko) 로그 메시지의 패턴을 분류하는 방법 및 장치
CN112364688B (zh) 人脸聚类方法、装置、计算机设备和可读存储介质
US7797262B2 (en) Method and apparatus for evaluating the complexity of human-in-the-loop processes
CN110647519B (zh) 对测试样本中的缺失属性值进行预测的方法及装置
CN114116688B (zh) 数据处理与数据质检方法、装置及可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220221

R150 Certificate of patent or registration of utility model

Ref document number: 7040104

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150