JP7172067B2 - 学習プログラム、学習方法および学習装置 - Google Patents

学習プログラム、学習方法および学習装置 Download PDF

Info

Publication number
JP7172067B2
JP7172067B2 JP2018043605A JP2018043605A JP7172067B2 JP 7172067 B2 JP7172067 B2 JP 7172067B2 JP 2018043605 A JP2018043605 A JP 2018043605A JP 2018043605 A JP2018043605 A JP 2018043605A JP 7172067 B2 JP7172067 B2 JP 7172067B2
Authority
JP
Japan
Prior art keywords
label
learning
data
labels
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018043605A
Other languages
English (en)
Other versions
JP2019159612A (ja
Inventor
裕平 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018043605A priority Critical patent/JP7172067B2/ja
Priority to US16/286,638 priority patent/US20190279085A1/en
Publication of JP2019159612A publication Critical patent/JP2019159612A/ja
Application granted granted Critical
Publication of JP7172067B2 publication Critical patent/JP7172067B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/15Correlation function computation including computation of convolution operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Medical Informatics (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Description

本発明は、学習プログラム、学習方法および学習装置に関する。
従来から、ラベル付きデータを用いた教師あり学習が知られている。教師あり学習では、ラベル1であればその他のラベルではないなどのように、ラベルの付け方が排他的である。しかし、一般的に排他的にラベルが付けられない条件も存在する。例えば、犬好きか猫好きかのラベルを付与するときに、両方好きな人も存在するから、ラベルの付け方を排他的なものとするために、いずれか一方だけにラベル付けを行うことは、学習対象のデータとしても好ましくない。
近年では、排他的にラベルが付けられない条件下でも、識別器やラベル変換を用いて、排他的にラベル付けを行う技術が知られている。例えば、ラベル1に該当するか否かの2値分類識別器、ラベル2に該当するか否かの2値分類識別器のように、N個のラベル各々に対して識別器を生成する手法が知られている。
また、ラベルごとの組合せを新たなラベルとする手法が知られている。図11は、排他的ラベル変換を説明する図である。図11に示すように、ラベル1、ラベル2、ラベル3のすべてに該当するデータには、新たなラベルaを付与し、ラベル1とラベル2に該当するがラベル3には該当しないデータには、新たなラベルbを付与し、ラベル1とラベル3に該当するがラベル2には該当しないデータには、新たなラベルcを付与する。このように、ラベルの組合せごとに新たなラベルを付与した学習データを生成する。
特開2015-166962号公報 特開2017-016414号公報
しかしながら、上記技術では、ラベルを集約することによって、判別速度の劣化や学習結果の判別精度の劣化が発生し、学習精度が劣化する。例えば、識別器を生成する手法では、ラベル分の識別器が必要となるので、計算時間が増大し、識別時間も増大する。
また、新たなラベルを付与する手法では、もとのラベル数nに対して2のn乗のラベル数となるので、ラベル数が指数的に増加する。このため、学習に必要な学習データ数が膨大になり、学習時間も膨大になる。また、図11に示すように、全データのうち各ラベルに該当するデータの比率と、各ラベルの比率とを等価として処理すると、間違った学習を助長することもあり、学習精度が劣化する。
一つの側面では、排他的なラベルが付与された学習データによる学習を実行することができる学習プログラム、学習方法および学習装置を提供することを目的とする。
第1の案では、学習プログラムは、コンピュータに、学習対象のデータそれぞれに対して、1または複数のラベルを要素とするラベルベクトルを設定する処理を実行させる。学習プログラムは、コンピュータに、前記学習対象のデータと、前記学習対象のデータそれぞれに設定された前記ラベルベクトルを用いて、ニューラルネットワークを含む学習モデルに対する学習を行わせる処理を実行させる。
一実施形態によれば、排他的なラベルが付与された学習データによる学習を実行することができる。
図1は、実施例1にかかる学習装置の全体例を説明する図である。 図2は、実施例1にかかる学習装置の機能構成を示す機能ブロック図である。 図3は、学習データDBに記憶される情報の例を示す図である。 図4は、各ラベルの相関関係を示す図である。 図5は、ラベル設定の例を説明する図である。 図6は、ラベルベクトルの生成例を説明する図である。 図7は、ラベル設定の別例を説明する図である。 図8は、処理の流れを示すフローチャートである。 図9は、実験結果を説明する図である。 図10は、ハードウェア構成例を説明する図である。 図11は、排他的ラベル変換を説明する図である。
以下に、本願の開示する学習プログラム、学習方法および学習装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
[全体構成]
図1は、実施例1にかかる学習装置の全体例を説明する図である。図1に示すように、実施例1にかかる学習装置10は、学習データのラベルに対してスコアを付与した後に、深層学習(ディープラーニング(DL)・Deep Learning)などを用いた判別処理(学習処理)を実行して、学習データを正しく判別(分類)できるように、スコアを用いてニューラルネットワーク(NN:Neural Network)などを学習する。その後、学習結果を適用した学習モデルを用いることで、判別対象データの正確な事象(ラベル)の推定を実現する。なお、学習データには、画像、動画、文書、グラフなど様々なデータを採用することができる。
例えば、学習装置10は、NNを含む学習モデルに対する学習を行わせるコンピュータ装置であり、学習対象のデータと、学習対象のデータである学習データそれぞれに付された1または複数のラベルとを用いて、NNを含む学習モデルに対する学習を行わせる。
一般的に、NNを含む学習モデルの学習に各データに対して決定するラベルは、行列として保持する。しかし、従来から使用されていたSVM(Support Vector Machine)などのアルゴリズムが、ラベルを一つに決める必要があったこと、また、各データに対するラベルベクトルに対して正規分布を想定しているため、学習アルゴリズムも正規分布を仮定して作られており、正規分布とはならない複数ラベルを設定した学習は実行されてこなかった。
このようなことから、近年では、ラベル1でもありラベル2でもあるというものを学習できるようになることが求められている。そこで、実施例1にかかる学習装置10は、各データに各ラベルン確率値を加えて拡張型ラベルベクトルを組にし、そのデータを深層学習の出力目標値とする。すなわち、学習装置10は、各データにラベルごとの条件としてラベルベクトルを付与し、最適化の評価関数を全ラベルの条件が一致しているかの尺度とするので、排他的なラベルでも一括に学習することができる。なお、本実施例では、ラベル1に該当する場合に「ラベル1が〇(丸)」、ラベル1に該当しない場合に「ラベル1が×(バツ)」などと記載する場合がある。
[機能構成]
図2は、実施例1にかかる学習装置10の機能構成を示す機能ブロック図である。図2に示すように、学習装置10は、通信部11と記憶部12と制御部20を有する。
通信部11は、他の装置との通信を制御する処理部であり、例えば通信インタフェースである。例えば、通信部11は、管理者の端末から、処理開始指示を受信する。また、通信部11は、管理者の端末等から、学習対象であるデータ(入力データ)を受信して入力データDB13に格納する。
記憶部12は、プログラムやデータを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどである。この記憶部12は、入力データDB13、学習データDB14、学習結果DB15を記憶する。
入力データDB13は、学習対象となる入力データを記憶するデータベースである。ここで記憶されるデータは、人手等によってラベルが設定されていてもよく、未設定あってもよい。なお、データは、管理者等によって格納することもでき、通信部11が受信して記憶することもできる。
学習データDB14は、学習対象の教師ありデータを記憶するデータベースである。具体的には、学習データDB14は、後述する制御部20によって、入力データDB13に記憶される入力データと当該入力データに設定されたラベルとを対応付けて記憶する。図3は、学習データDB14に記憶される情報の例を示す図である。図3に示すように、学習データDB14は、「データID、ラベル1、ラベル2、ラベル3」を対応付けて記憶する。各ラベルは、排他的なラベルであり、例えばラベル1=猫好き、ラベル2=犬好き、ラベル3=鳥好きなどである。つまり、各ラベルが同時に成立する場合がある。
図3の例では、データIDが「1」のデータには、「ラベル1、ラベル2、ラベル3」として「1.0、0、1.0」のラベルベクトルが設定されていることを示す。つまり、データ1には、ラベル1とラベル3が設定されている。なお、ここで示したラベルベクトルの次元数や数値は、一例であり、任意に設定変更することができる。
学習結果DB15は、学習結果を記憶するデータベースである。例えば、学習結果DB15は、制御部20による学習データの判別結果(分類結果)、機械学習やディープラーニングによって学習された各種パラメータを記憶する。
制御部20は、学習装置10全体の処理を司る処理部であり、例えばプロセッサなどである。この制御部20は、設定部21と学習部22を有する。なお、設定部21と学習部22は、プロセッサなどが有する電子回路やプロセッサなどが実行するプロセスの一例である。
設定部21は、各入力データにラベルベクトルを付して学習データを生成し、学習データDB14に格納する処理部である。具体的には、設定部21は、各ラベルの相関を判定する。そして、設定部21は、相関がない場合には、各ラベルが独立していると仮定して、各ラベルを設定したラベルベクトルを設定する。一方、設定部21は、相関がある場合には、各ラベルの分布を最適化し、最適化した分布に基づく値を各ラベルに設定したラベルベクトルを設定する。
ここで、各種に手法について具体的に説明する。なお、各ラベルについて十分なデータ数がそろっているものとする。まず、設定部21は、相関性の判断を行う。具体的には、設定部21は、全体でラベル1の〇×(該当/非該当)の比率を算出する。例えば、設定部21は、全データのうち、ラベル1に該当するデータとラベル1に該当しないデータの比率を算出する。
次に、設定部21は、ラベル2が〇(該当)の中でラベル1の〇×(該当/非該当)の比率を算出する。例えば、設定部21は、ラベル2に該当するデータのうち、ラベル1にも該当するデータとラベル1には該当しないデータとの比率を算出する。そして、設定部21は、上記比率の差が閾値未満であれば、ラベル1とラベル2は独立すると判定する。一方、設定部21は、上記比率の差が閾値以上であれば、ラベル1とラベル2は相関関係にあると判定する。
例えば、ラベル間に相関がある場合とは、ラベル1が20歳以上か未満か、ラベル2が30歳以上か未満かのように、ラベル1からラベル2へ変化していくことがあり途中に両方のラベルになる場合などが該当する。このような場合に、単純に両方を1とすると学習が難しい場合がある。例えば、ネットワーク構造が単純(レイヤーやユニット数が少ない)なNNを用いた場合、相関性のものは一方が上がるともう一方は下がるという学習モデルになる。一方で、ネットワーク構造が複雑(レイヤーやユニット数が多い)なNNを用いた場合、相関性のものも独自に判断するようになるが、学習に時間がかかり、膨大な学習データも必要になる。
ここで、相関関係の整理を行った結果を図4に示す。図4は、各ラベルの相関関係を示す図である。図4は、ラベル1からラベル6の相関関係を示している。図4の場合、ラベル1とラベル3とに相関があり、ラベル4とラベル5とラベル6に相関があり、ラベル2が独立している。この場合、設定部21は、各データのラベル2について、他のラベルに関係なく、該当する場合は「1.0」を設定し、該当しない場合は「0.0」を設定する。
次に、相関がある各ラベルの値設定について説明する。ここでは、一例としてラベル1とラベル3の関係について説明する。図5は、ラベル設定の例を説明する図である。図5に示すように、設定部21は、ラベル1に該当するデータの分布とラベル2に該当するデータの分布が図5の(a)に示す分布になると仮定する。次に、設定部21は、図5の(b)に示すように、各分布の最低確率を設定する。この最低確率は、ユーザが設定する確率の最低値であり、各分布の端がノイズのようなもとの判断できる発生確率が設定される。
続いて、設定部21は、図5の(c)に示す各面積の比率とデータの比率とが同じになるように分布を最適化する。ここで、「面積a:面積b=ラベル1に該当するデータの中でラベル3も該当するデータ:ラベル1に該当するデータの中でラベル3には該当しないデータ」である。また、「面積c:面積d=ラベル3に該当するデータの中でラベル1も該当するデータ:ラベル3に該当するデータの中でラベル1には該当しないデータ」である。
その後、設定部21は、最適化された分布をもとにラベルベクトルを生成する。図6は、ラベルベクトルの生成例を説明する図である。図6に示すように、設定部21は、正規化後の分布から、ラベル1の最大値p、ラベル1の最小値t、ラベル3の最大値q、ラベル3の最小値s、交差値rを特定する。
そして、設定部21は、ラベル1にもラベルにも該当するデータに対して、ラベルベクトルの第1成分にr、ラベルベクトルの第2成分にrを設定したラベルベクトル「ラベル1=r、ラベル=r」を付与する。また、設定部21は、ラベル1には該当するがラベルには該当しないデータに対して、ラベルベクトルの第1成分にp、ラベルベクトルの第2成分にsを設定したラベルベクトル「ラベル1=p、ラベル=s」を付与する。また、設定部21は、ラベル1には該当しないがラベルには該当するデータに対して、ラベルベクトルの第1成分にq、ラベルベクトルの第2成分にtを設定したラベルベクトル「ラベル1=q、ラベル=t」を付与する。
なお、ここでは、2つのラベルに相関がある場合の例で説明したが、3つ以上のラベルに相関がある場合でも同様の手法でラベルベクトルを生成することができる。図7は、ラベル設定の別例を説明する図である。図7の(a)に示すように、設定部21は、ラベル4とラベル5とラベル6とのそれぞれの間に相関がある場合、二次元の3つの分布関数の重なりの体積をデータの比率とみなして、上述した図5から図6の処理を実行する。また、図7の(b)に示すように、設定部21は、ラベル4とラベル5に相関があり、ラベルとラベル6に相関があり、ラベル4とラベル6には相関がない関係の場合、3つの分布関数で同様の比率を考えることで、上述した図5から図6の処理を実行することができる。
このようにして、設定部21は、相関がある各ラベルに該当するデータの分布および発生確率に基づいた値を算出し、当該値を設定したラベルベクトルを生成して、各データにラベルベクトルを設定することができる。
図2に戻り、学習部22は、学習データDB14に記憶される学習データを用いてNNを含む学習モデルの学習を実行し、学習結果を学習結果DB15に格納する処理部である。図3の例では、学習部22は、ID=1のデータについてはラベルベクトル「ラベル1=1.0、ラベル2=0、ラベル3=1.0」を入力として学習を実行する。
[処理の流れ]
次に、上述したラベルベクトルの設定処理について説明する。図8は、処理の流れを示すフローチャートである。
図8に示すように、設定部21は、入力データが受信されて入力データDB13に格納されて、処理開始時の指示を受け付ける(S101:Yes)、設定対象となる各ラベルを読み込む(S102)。なお、設定対象のラベルは、ユーザの指定により特定することもでき、入力データにラベルが予め設定されている場合はそのラベルを読み込むことで特定できる。
続いて、設定部21は、上述した手法により各ラベルの相関関係を判定し(S103)、相関のあるラベルを抽出する(S104)。続いて、設定部21は、図5から図6で手法を用いて、ラベルの分布の生成および分布の最適化を実行する(S105)。そして、設定部21は、図7で説明した手法を用いて、最低化された分布をもとにラベルベクトルの各成分を算出する(S106)。
そして、設定部21は、S104からS106の処理が未処理である、相関のあるラベルが存在する場合(S107:Yes)、S104以降を繰り返す。一方、設定部21は、S104からS106の処理が未処理である、相関のあるラベルが存在しない場合(S107:No)、入力データDB13から各入力データを読み込む(S108)。
そして、設定部21は、各入力データにラベルベクトルを設定した学習データを生成して学習データDB14に格納する(S109)。具体的には、設定部21は、相関がない独立したラベルについてはそのままの値(該当(1.0)または非該当(0.0))を設定し、相関があるラベルについてはS106で生成された値を設定した、ラベルベクトルを生成して各入力データに付与する。
その後、学習部22は、学習データDB14から各学習データを読み込み(S110)、各学習データのラベルベクトルをもとに学習を実行する(S111)。
[効果]
上述したように、学習装置10は、NNを含む学習モデルの学習において、学習に用いることができるラベルが1つである、という制約に対応して、1つのデータに対するラベルを1つに集約することによる弊害を、データの分布に基づく確率などを設定したラベルベクトル(小数ラベル)により解決することができるので、ラベルを集約させることによる、判別速度の劣化や学習結果の判定精度劣化を抑制することができる。
ここで、実施例1による手法と従来手法との比較を行った実験結果を説明する。まず、実験の条件を説明する。ここでは、10次元のベクトルデータを生成し、各次元で乱数(0~1)を発生させて1200データを生成する。また、各要素で0.5以上か否かでラベルを生成する。具体的には、第1成分が0.5以上でラベル1を付与する。また、第1、5、7の各成分が0.5以上でそれ以外の成分が0.5未満であれば、ラベル1、5、7が付与される。相関性判定を行うと全ラベルが独立と判定されるものとする。
ここでは、実施例1による手法(実施例1)、排他的なラベルの組合せに新たにラベルを付与して1024ラベルを生成する手法(排他的ラベル化)、ラベルごとに識別器を用意して10個の識別器を用いる手法(複数識別器)で実験を行い、その結果を比較する。
図9は、実験結果を説明する図である。図9は、実施例1、排他ラベル化、複数識別機のそれぞれについて、全ラベル正答率、不正解ラベル最大数、各ラベル正答率、1データあたりの識別時間を示す。なお、全ラベル正答率は、全ラベルが正答した割合を示し、不正解ラベル最大数は、すべてのラベルが全て正解する全ラベル正解ではなかったデータのうち不正解だったラベルの最大数を示す。各ラベル正答率は、各ラベルについて正解した割合を合計したものであり、1データあたりの識別時間は、1つの識別対象のデータを処理するのにかかった時間である。
図9に示すように、排他ラベル化では、すべてのラベルが正答したデータはなく、すべてのラベルが誤答した場合もあり、正答率も低い。複数識別器と実施例1とでは、正答率に大きな差はない。しかし、複数識別器では、実施例1に比べて、約10倍の処理時間がかかった。このように、実施例1では、正答率の向上と処理時間の短縮との両方を実現することができる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。
[設定]
上記実施例では、相関や分布に基づく値をラベルベクトルに設定する例を説明したが、これに限定されるものではない。例えば、排他的なラベルについては、ユーザ等が設定した値、過去の履歴等に基づく値、統計学的に算出した値などの静的な値を設定することもできる。
[集約]
例えば、学習装置10は、相関があるラベルのうち、実施例1のような分布に基づいて各ラベルに値を設定するのではなく、いずれかのラベルだけを設定することもできる。図4の例で説明すると、学習装置10は、相関があるラベル1とラベル3のうちのいずれかのラベル、他のラベルと相関がないラベル2、相関があるラベル4から6のうちのいずれかのラベルだけを設定したラベルベクトルをデータに付与して学習することもできる。実施例1では、学習装置10は、ラベルベクトル「ラベル1,ラベル2,ラベル3,ラベル4,ラベル5」として「0.6,1.0,0.4,0.2,0.3,0.5」などのように設定するが、これに限らず、「1.0,1.0,0.0,0.0,1.0,0.0」などと設定することもできる。このようにすることで、ラベル集約にかかる処理時間の短縮を実現しつつ、学習データと集約ラベルの矛盾の発生を抑制し、学習精度の劣化を抑制できる。
また、全部のラベルを使用せずに、使用するラベルを予め整理することもできる。例えば、複数の類似するラベルを1つのラベルに集約することもできる。また、相関があるラベルをまとめて複数のグループを生成し、各グループから任意の1つのラベルを選択することもできる。このようにすることで、ラベル集約にかかる処理時間の短縮を実現しつつ、学習精度の劣化を抑制できる。
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。また、実施例で説明した具体例、分布、数値などは、あくまで一例であり、任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[ハードウェア]
図10は、ハードウェア構成例を説明する図である。図10に示すように、学習装置10は、通信装置10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図11に示した各部は、バス等で相互に接続される。
通信装置10aは、ネットワークインタフェースカードなどであり、他のサーバとの通信を行う。HDD10bは、図2に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ10dは、図2に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図2等で説明した各機能を実行するプロセスを動作させる。すなわち、このプロセスは、学習装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、設定部21、学習部22等と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、設定部21、学習部22等と同様の処理を実行するプロセスを実行する。
このように学習装置10は、プログラムを読み出して実行することで学習方法を実行する情報処理装置として動作する。また、学習装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、学習装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
このプログラムは、インターネットなどのネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO(Magneto-Optical disk)、DVD(Digital Versatile Disc)などのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することができる。
10 学習装置
11 通信部
12 記憶部
13 入力データDB
14 学習データDB
15 学習結果DB
20 制御部
21 設定部
22 学習部

Claims (6)

  1. 習対象のデータそれぞれに対して、複数のラベルを要素とするラベルベクトルであって、前記複数のラベルそれぞれの確率値が設定された前記ラベルベクトルを設定し、
    前記学習対象のデータそれぞれに対して、設定された前記ラベルベクトルにおける前記複数のラベルの全ての前記確率値を前記学習対象のデータがニューラルネットワークに入力された際の前記ニューラルネットワークの出力目標値とする最適化の評価関数に基づいて、前記ニューラルネットワークを含む学習モデルの機械学習を実行する、
    処理をコンピュータに実行させ
    前記学習対象のデータそれぞれに対して設定された前記ラベルベクトルの少なくとも一つにおいて、前記複数のラベルに設定された前記確率値のうち少なくとも2つが0以外の値である
    ことを特徴とする学習プログラム。
  2. 学習対象のデータそれぞれに対して、複数のラベルを要素とするラベルベクトルであって、前記複数のラベルそれぞれの確率値が設定された前記ラベルベクトルを設定し、
    前記学習対象のデータと設定された前記ラベルベクトルとを用いて、ニューラルネットワークを含む学習モデルに対する、前記ラベルベクトルを出力目標値とする機械学習を実行する処理をコンピュータに実行させる学習プログラムであって、
    前記設定する処理は、
    前記学習対象のデータそれぞれに設定する対象であるラベル間の相関関係を判定し、
    いずれかのラベルと前記相関関係があるラベルに対しては、前記相関関係に基づく前記確率値を設定し、いずれのラベルとも前記相関関係がないラベルについては、当該ラベルに該当するか否かを示す値を設定した前記ラベルベクトルを生成し、
    前記学習対象のデータそれぞれに対して前記ラベルベクトルを設定する、
    処理を含むことを特徴とする学習プログラム。
  3. 学習対象のデータそれぞれに対して、複数のラベルを要素とするラベルベクトルであって、前記複数のラベルそれぞれの確率値が設定された前記ラベルベクトルを設定し、
    前記学習対象のデータと設定された前記ラベルベクトルとを用いて、ニューラルネットワークを含む学習モデルに対する、前記ラベルベクトルを出力目標値とする機械学習を実行する処理をコンピュータに実行させる学習プログラムであって、
    前記複数のラベルは、第1のラベルと第2のラベルを有し、
    前記ラベルベクトルは、前記第1のラベルに対応する第1成分と前記第2のラベルに対応する第2成分とを有し、
    前記設定する処理は、
    前記第1のラベルと前記第2のラベルのとの相関関係を判定し、
    前記相関関係がない場合は、前記第1のラベルに該当する第1の学習対象のデータに対して、前記第1のラベルに該当することを示す値を前記第1成分に設定するとともに前記第2のラベルに該当しないことを示す値を前記第2成分に設定した前記ラベルベクトルを生成し、前記第2のラベルに該当する第2の学習対象のデータに対しては、前記第1のラベルに該当しないことを示す値を前記第1成分に設定するとともに前記第2のラベルに該当することを示す値を前記第2成分に設定した前記ラベルベクトルを生成し、
    前記相関関係がある場合は、前記第1成分および前記第2成分に、前記第1の学習対象のデータの第1の分布と前記第2の学習対象のデータの第2の分布に基づく前記確率値を設定した前記ラベルベクトルを生成する、
    処理を含むことを特徴とする学習プログラム。
  4. 前記設定する処理は、
    前記相関関係がある場合の前記ラベルベクトルの生成に際し、
    前記第1の分布において、前記第1のラベルに該当する前記第1の学習対象のデータの中で前記第2のラベルにも該当するデータ数を示す第1の面積と、前記第1のラベルに該当する前記第1の学習対象のデータの中で前記第2のラベルには該当しないデータ数を示す第2の面積との面積比である第1の面積比を算出し、
    前記第2の分布において、前記第2のラベルに該当する前記第2の学習対象のデータの中で前記第1のラベルにも該当するデータ数を示す第3の面積と、前記第2のラベルに該当する前記第2の学習対象のデータの中で前記第1のラベルには該当しないデータ数を示す第4の面積との面積比である第2の面積比を算出し、
    前記第1の面積比と前記第2の面積比とが同じ、かつ、前記第1の学習対象のデータと前記第2の学習対象のデータの数との比率とが同じになるように、前記第1の分布と前記第2の分布とを最適化し、
    前記最適化後の第1の分布における第1の最大値、第1の最小値と、前記最適化後の第2の分布における第2の最大値、第2の最小値、当該第1の分布と当該第2の分布との交差値とを特定し、
    前記第1のラベルにも前記第2のラベルにも該当する学習対象のデータに対して、前記第1成分と前記第2成分に前記交差値を設定した前記ラベルベクトルを生成し、
    前記第1のラベルには該当するが前記第2のラベルには該当しない学習対象のデータに対して、前記第1成分に前記第1の最大値、前記第2成分に前記第2の最小値を設定した前記ラベルベクトルを生成し、
    前記第1のラベルには該当しないが前記第2のラベルには該当する学習対象のデータに対して、前記第1成分に前記第2の最大値、前記第2成分に前記第1の最小値を設定した前記ラベルベクトルを生成する、
    処理を含むことを特徴とする、請求項3に記載の学習プログラム。
  5. 習対象のデータそれぞれに対して、複数のラベルを要素とするラベルベクトルであって、前記複数のラベルそれぞれの確率値が設定された前記ラベルベクトルを設定し、
    前記学習対象のデータそれぞれに対して、設定された前記ラベルベクトルにおける前記複数のラベルの全ての前記確率値を前記学習対象のデータがニューラルネットワークに入力された際の前記ニューラルネットワークの出力目標値とする最適化の評価関数に基づいて、前記ニューラルネットワークを含む学習モデルの機械学習を実行する
    処理をコンピュータが実行し、
    前記学習対象のデータそれぞれに対して設定された前記ラベルベクトルの少なくとも一つにおいて、前記複数のラベルに設定された前記確率値のうち少なくとも2つが0以外の値である
    ことを特徴とする学習方法。
  6. 学習対象のデータそれぞれに対して、複数のラベルを要素とするラベルベクトルであって、前記複数のラベルそれぞれの確率値が設定された前記ラベルベクトルを設定する設定部と、
    前記学習対象のデータそれぞれに対して、設定された前記ラベルベクトルにおける前記複数のラベルの全ての前記確率値を前記学習対象のデータがニューラルネットワークに入力された際の前記ニューラルネットワークの出力目標値とする最適化の評価関数に基づいて、前記ニューラルネットワークを含む学習モデルの機械学習を実行する学習部と
    を有し、
    前記学習対象のデータそれぞれに対して設定された前記ラベルベクトルの少なくとも一つにおいて、前記複数のラベルに設定された前記確率値のうち少なくとも2つが0以外の値である
    ことを特徴とする学習装置。
JP2018043605A 2018-03-09 2018-03-09 学習プログラム、学習方法および学習装置 Active JP7172067B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018043605A JP7172067B2 (ja) 2018-03-09 2018-03-09 学習プログラム、学習方法および学習装置
US16/286,638 US20190279085A1 (en) 2018-03-09 2019-02-27 Learning method, learning device, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018043605A JP7172067B2 (ja) 2018-03-09 2018-03-09 学習プログラム、学習方法および学習装置

Publications (2)

Publication Number Publication Date
JP2019159612A JP2019159612A (ja) 2019-09-19
JP7172067B2 true JP7172067B2 (ja) 2022-11-16

Family

ID=67842750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018043605A Active JP7172067B2 (ja) 2018-03-09 2018-03-09 学習プログラム、学習方法および学習装置

Country Status (2)

Country Link
US (1) US20190279085A1 (ja)
JP (1) JP7172067B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3807821A1 (en) * 2018-09-28 2021-04-21 Apple Inc. Distributed labeling for supervised learning
US11892562B2 (en) * 2020-10-30 2024-02-06 KaiKuTek Inc. Impulse-like gesture recognition method, and impulse-like gesture recognition system
US20220300557A1 (en) * 2021-03-16 2022-09-22 Adobe Inc. Quantifying and improving the performance of computation-based classifiers

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017201444A1 (en) 2016-05-20 2017-11-23 Google Llc Classifying input examples using a comparison set

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017201444A1 (en) 2016-05-20 2017-11-23 Google Llc Classifying input examples using a comparison set

Also Published As

Publication number Publication date
JP2019159612A (ja) 2019-09-19
US20190279085A1 (en) 2019-09-12

Similar Documents

Publication Publication Date Title
Baier et al. Efficient computation of time-bounded reachability probabilities in uniform continuous-time Markov decision processes
US11741363B2 (en) Computer-readable recording medium, method for learning, and learning device
JP7024515B2 (ja) 学習プログラム、学習方法および学習装置
JP7172067B2 (ja) 学習プログラム、学習方法および学習装置
JP6010133B2 (ja) 属性データ区間の分類
JP7040104B2 (ja) 学習プログラム、学習方法および学習装置
US11429863B2 (en) Computer-readable recording medium having stored therein learning program, learning method, and learning apparatus
US11556785B2 (en) Generation of expanded training data contributing to machine learning for relationship data
CN112633310A (zh) 具有改进的训练鲁棒性地对传感器数据进行分类的方法和系统
JP7268756B2 (ja) 劣化抑制プログラム、劣化抑制方法および情報処理装置
US11681922B2 (en) Performing inference and training using sparse neural network
JP7276488B2 (ja) 推定プログラム、推定方法、情報処理装置、再学習プログラムおよび再学習方法
CN113723070B (zh) 文本相似度模型训练方法、文本相似度检测方法及装置
CN115130536A (zh) 特征提取模型的训练方法、数据处理方法、装置及设备
Huang et al. Deep prototypical networks for imbalanced time series classification under data scarcity
JP2019028484A (ja) 属性識別装置、属性識別モデル学習装置、方法、及びプログラム
JP2019159835A (ja) 学習プログラム、学習方法および学習装置
Chelly et al. A fuzzy-rough data pre-processing approach for the dendritic cell classifier
CN117011751A (zh) 使用变换器网络分割视频图像序列
JP2022147502A (ja) 機械学習プログラム、機械学習方法および情報処理装置
JP6988828B2 (ja) 照合処理装置、照合処理方法、及び、照合処理プログラム
WO2024180746A1 (ja) 因果探索プログラム、因果探索方法および情報処理装置
US20230281275A1 (en) Identification method and information processing device
US20230342659A1 (en) Discrimination likelihood estimate for trained machine learning model
CN115829755B (zh) 交易风险的预测结果的解释方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221017

R150 Certificate of patent or registration of utility model

Ref document number: 7172067

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150