JP7024515B2 - 学習プログラム、学習方法および学習装置 - Google Patents

学習プログラム、学習方法および学習装置 Download PDF

Info

Publication number
JP7024515B2
JP7024515B2 JP2018043328A JP2018043328A JP7024515B2 JP 7024515 B2 JP7024515 B2 JP 7024515B2 JP 2018043328 A JP2018043328 A JP 2018043328A JP 2018043328 A JP2018043328 A JP 2018043328A JP 7024515 B2 JP7024515 B2 JP 7024515B2
Authority
JP
Japan
Prior art keywords
data
learning
label
unlabeled
labeled
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018043328A
Other languages
English (en)
Other versions
JP2019159576A (ja
Inventor
裕平 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018043328A priority Critical patent/JP7024515B2/ja
Priority to US16/285,222 priority patent/US11574147B2/en
Publication of JP2019159576A publication Critical patent/JP2019159576A/ja
Application granted granted Critical
Publication of JP7024515B2 publication Critical patent/JP7024515B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes

Description

本発明は、学習プログラム、学習方法および学習装置に関する。
ラベル付きデータを用いた深層学習(ディープラーニング・Deep Learning;DL)に関する技術が知られている。深層学習などでは、ラベルが付加された多くのラベル有りデータを用いるが、一般的には、ラベル有りデータは少数で、ラベルが付いていないラベル無しデータが数多くあることが多い。例えば、学習データとして時系列データを用いる場合、ログを監視しつつ、所定の事象が発生した場合にラベルを付加するが、十分なデータ量を取得するためには膨大な時間がかかり、所定の事象を引き起こすことが困難なこともある。
近年では、ラベル有りデータとラベル無しデータとを用いて学習を実行する半教師あり学習が知られており、半教師あり学習では、ラベル無しデータについてラベル有りデータを利用したラベルの付加が行われる。
例えば、ラベル有りデータとラベル無しデータとを含めてクラスタリングし、同じクラスタのデータは同じラベルになるように、ラベル無しデータにラベルを付与する分類器を用いる手法(手法1)が知られている。また、手法1等により得られる各クラスタ内で、ラベル有りデータとラベル無しデータとの類似度を算出し、各ラベル無しデータに対して、類似度が最も高いラベル有りデータのラベルを付加する手法(手法2)が知られている。また、2値分類で全体の分布と一方のラベルの分布がわかる程度のデータ数が存在する場合に、既知の分布に加算して全体の分布になるように、もう一方のデータの分布を計算し、計算で得られた分布に応じてラベル無しデータを分類する手法(手法3)が知られている。
特表2009-543254号公報 特開2014-049100号公報
しかしながら、上記技術では、ラベルの分離性が高くない場合やデータ分布が特定できる程度のデータ数がない場合、ラベル無しデータへのラベル付与が必ずしも正確ではなく、学習結果を用いた判定精度が劣化する。
例えば、手法1は、分離性が高くないデータを対象とする場合やクラスタリングを行うためのデータ構造などが未知である場合には、複数のクラスタに分類することができず、付加するラベルの正確性が劣化する。図10は、手法1によるクラスタリングを説明する図である。図10の例は、クラスタを分類する境界と、ラベル有りデータのみで分類する境界とが異なっている。この場合、正例と負例との境界が曖昧となり、分類されたクラスタに基づいてラベル無しデータに付加したラベルは、正確性に欠けるので、学習精度も劣化する。
手法2では、ある程度の分離性があっても、クラスタ2に属するラベル無しデータに最も類似度が高いラベル有りデータがクラスタ2内ではなくクラスタ1に存在するなど、クラスタの境界付近の精度が高くない。また、データ間に分離性がない場合は、各クラスタの境界付近の非線形性が強まり、学習が進まなくなる。図11は、手法2によるラベル設定を説明する図である。図11の例では、クラスタ2に属するラベル無しデータD1は、クラスタ1内のラベル有りデータAの方が近いにも関わらず、同じクラスタ2に属するラベル有りデータBのラベルが付加される。つまり、クラスタ内のデータを用いるという制限が優先されることで、ラベル設定の正確性が劣化し、学習精度も劣化する。
手法3では、全体のデータの分布と一定種のラベルのデータの分布が分かる程度のデータ数がない場合は、採用することができない。このように、上記手法では、ラベルごとにデータ発生の分布が分かれている分離性の仮定と、十分なデータ数とが前提となっており、これらの前提が満たされない場合は、性能を保障することが難しい。
一つの側面では、分離性のないラベルによる半教師あり学習による学習モデルの判定精度を向上させることができる学習プログラム、学習方法および学習装置を提供することを目的とする。
第1の案では、学習プログラムは、コンピュータに、複数のラベル無しデータそれぞれの、複数のラベル有りデータに用いられる複数のラベルそれぞれに対する距離に基づき、前記複数のラベル無しデータそれぞれに前記複数のラベルそれぞれに対するスコアを設定する処理を実行させる。学習プログラムは、コンピュータに、前記複数のラベル有りデータおよび前記複数のラベル有りデータ各々のラベルと、前記複数のラベル無しデータおよび前記複数のラベル無しデータそれぞれの前記複数のラベルに対するスコアを用いて、ニューラルネットワークを用いた学習モデルを学習させる処理を実行させる。
一実施形態によれば、分離性のないラベルによる半教師あり学習による学習モデルの判定精度を向上させることができる。
図1は、実施例1にかかる学習装置の全体例を説明する図である。 図2は、実施例1にかかるラベル設定例を説明する図である。 図3は、実施例1にかかる学習装置の機能構成を示す機能ブロック図である。 図4は、学習データDBに記憶される情報の例を示す図である。 図5は、データ間の距離に基づくラベルベクトルの設定例を説明する図である。 図6は、データ間の距離に応じた重み付けに基づくラベルベクトルの設定例を説明する図である。 図7は、処理の流れを示すフローチャートである。 図8は、効果を説明する図である。 図9は、ハードウェア構成例を説明する図である。 図10は、手法1によるクラスタリングを説明する図である。 図11は、手法2によるラベル設定を説明する図である。
以下に、本願の開示する学習プログラム、学習方法および学習装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
[全体構成]
図1は、実施例1にかかる学習装置の全体例を説明する図である。図1に示すように、実施例1にかかる学習装置10は、学習データのラベルに対してスコアを付与した後に、機械学習や深層学習(ディープラーニング・Deep Learning;DL)などを用いた判別処理(学習処理)を実行して、学習データを事象ごとに正しく判別(分類)できるように、スコアを用いてニューラルネットワーク(NN:Neural Network)などを学習する。その後、学習結果を適用した学習モデルを用いることで、判別対象データの正確な事象(ラベル)の推定を実現する。なお、学習データには、画像、動画、文書、グラフなど様々なデータを採用することができる。
具体的には、学習装置10は、複数のラベル有データと複数のラベル無データとを用いて学習モデルに対する学習を行わせる。このとき、学習装置10は、ラベル無データそれぞれの、ラベル有データに用いられた複数のラベルそれぞれに対する距離に基づき、ラベル無データそれぞれに複数のラベルそれぞれに対するスコアを設定する。そして、学習装置10は、複数のラベル有りデータおよび複数のラベル有りデータ各々のラベルと、複数のラベル無しデータおよび複数のラベル無しデータそれぞれの複数のラベルに対するスコアを用いて、ニューラルネットワークを用いた学習モデルを学習させる。
図2は、実施例1にかかるラベル設定例を説明する図である。通常の機械学習は、各データに対してどのラベルかを決定して入力する。DLは、目的関数として、各データと各ラベルの相関(例えばスコア)を利用する。例えば、ラベルの設定例としては、各データに対しそのデータのラベルの要素を1、それ以外の要素を0としたベクトルで与える。
具体的には、ラベル有りデータについては、ラベルとして、ラベルベクトル「ラベル1、ラベル2、ラベル3」を設定して学習が実行される。図2に示すように、ラベル1のラベル有りデータ1については、ラベルベクトル「1、0、0」が設定され、ラベル3のラベル有りデータ3については、ラベルベクトル「0、0、1」が設定され、ラベル2のラベル有りデータ4については、ラベルベクトル「0、1、0」が設定される。
一方で、ラベル無しデータについては、間違ったラベルを1つ付加すると、ラベルの不確かさにより学習に悪影響を及ぼすことが考えられる。そこで、学習装置10は、DLの学習データはラベルを付ける必要はなく可能性の確率で十分であることから、近傍のラベル有りデータのラベル比率に基づく仮のラベルの割合を、ラベル無しデータに付加して学習データとする。
つまり、図2の(a)に示すように、学習装置10は、ラベルAが付加されたラベル有りデータについては、ラベルベクトル「ラベルA(1.0)、ラベルB(0.0)」を設定してNNに入力し、誤差逆伝搬法によってラベルAと判別されるようにNNを学習させる。一方、図2の(b)に示すように、学習装置10は、ラベル無しデータについては、ラベルベクトル「ラベルA(0.6)、ラベルB(0.4)」を設定してNNに入力し、誤差逆伝搬法によって各ラベルの割合が判別の割合となるようにNNを学習させる。
このように、学習装置10は、半教師あり学習において、ラベル無しデータ(教師なしデータ)に対するラベル付加をクラスタリングで行うことによる弊害を、小数ラベルにより解決する。
[機能構成]
図3は、実施例1にかかる学習装置の機能構成を示す機能ブロック図である。図3に示すように、学習装置10は、通信部11と記憶部12と制御部20を有する。
通信部11は、他の装置との通信を制御する処理部であり、例えば通信インタフェースである。例えば、通信部11は、管理者の端末から、処理開始指示を受信する。また、通信部11は、管理者の端末等から、学習対象であるデータ(入力データ)を受信して入力データDB13に格納する。
記憶部12は、プログラムやデータを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどである。この記憶部12は、入力データDB13、学習データDB14、学習結果DB15を記憶する。
入力データDB13は、学習対象となる入力データを記憶するデータベースである。例えば、入力データDB13は、人手等によってラベルが設定された(付加された)ラベル有りの学習データであるラベル有りデータと、人手等によってラベルが設定されていないラベル無しの学習データであるラベル無しデータとを記憶する。なお、データは、管理者等によって格納することもでき、通信部11が受信して記憶することもできる。
学習データDB14は、学習対象のラベル有りデータを記憶するデータベースである。具体的には、学習データDB14は、後述する制御部20によって、ラベルがもともと付加されているラベル有りデータおよびラベルが付加されてないラベル無しデータそれぞれについて、ラベルベクトルが設定されたラベル有りデータ(教師有りデータ)を記憶する。
図4は、学習データDB14に記憶される情報の例を示す図である。図4に示すように、学習データDB14は、「データID、ラベル1、ラベル2、ラベル3」を対応付けて記憶する。図4の例では、データIDが「1」のデータには、「ラベル1、ラベル2、ラベル3」として「1.0、0、0」のラベルベクトルが設定されており、データIDが「2」のデータには、「ラベル1、ラベル2、ラベル3」として「0.6、0.4、0」のラベルベクトルが設定されていることを示す。なお、ここで示したラベルベクトルの次元数や数値は、一例であり、任意に設定変更することができる。
学習結果DB15は、学習結果を記憶するデータベースである。例えば、学習結果DB15は、制御部20による学習データの判別結果(分類結果)、機械学習やディープラーニングによって学習された各種パラメータを記憶する。
制御部20は、学習装置10全体の処理を司る処理部であり、例えばプロセッサなどである。この制御部20は、選別部21と設定部22と学習部23を有する。なお、選別部21と設定部22と学習部23は、プロセッサなどが有する電子回路やプロセッサなどが実行するプロセスの一例である。
選別部21は、入力データDB13に記憶されるデータそれぞれを、ラベルがもともと付加されているラベル有りデータか、ラベルが付加されていないラベル無しデータかのいずれかに選別する処理部である。具体的には、選別部21は、入力データDB13から入力データを読み出し、ラベルが付加されているか否かを判定する。そして、選別部21は、選別したラベル有りデータとラベル無しデータとを設定部22に通知したり、記憶部12に格納したりする。
設定部22は、選別部21によって選別された入力データに、ラベルベクトルを設定する処理部である。具体的には、設定部22は、ラベル有りデータについては、該当する要素のみに「1」を設定したラベルベクトルを生成し、ラベル無しデータについては、ラベル有りデータとの距離に基づくラベルベクトルを生成する。そして、設定部22は、ラベルベクトルを入力データに付加した学習データを生成して、学習データDB14に格納する。
例えば、設定部22は、ラベル1が設定されているラベル有りデータD1については、ラベルベクトル「ラベル1、ラベル2、ラベル3」として「1.0、0、0」を生成する。そして、設定部22は、ラベル有りデータD1「データ+ラベル1」のうち、ラベル1をラベルベクトルに置き換えたラベル有りデータD1「データ+ラベルベクトル(1.0、0、0)」を学習データとして、学習データDB14に格納する。
また、設定部22は、ラベル無しデータD2については、データ間の距離が近いものは似た性質(同じラベル)となると仮定し、距離の近いデータの割合を計算することで、確率的にラベルを推定する。つまり、設定部22は、ラベル無しデータD2について、ラベル有りデータにはじめから設定されるラベルのうち、どのラベルに近いかを距離をもとに計算する。そして、設定部22は、距離の近いラベルの割合等を用いたスコアを計算し、ラベル無しデータに設定することで、疑似的なラベルを付加した学習データを生成する。
図5は、データ間の距離に基づくラベルベクトルの設定例を説明する図である。図5に示すように、設定部22は、ラベル無しデータと、各ラベル有りデータ(ラベル付きデータ)との距離を、類似度や関連度を用いて算出する。そして、設定部22は、ラベル無しデータと距離が近い10個のラベル有りデータを抽出する。その後、設定部22は、抽出されたラベル付きデータのラベルを参照し、ラベル1が8個、ラベル2が2個、ラベル3が0個と計数する。
そして、設定部22は、ラベルベクトル「ラベル1、ラベル2、ラベル3」として「(8/10=0.8)、(2/10=0.2)、0/10=0」を算出する。この結果、設定部22は、ラベル無しデータD2について、ラベル無しデータD2「データ(ラベルなし)」に、ラベルベクトルを設定したラベル有りデータD2「データ+ラベルベクトル(0.8、0.2、0)」を学習データとして、学習データDB14に格納する。
次に、ラベルベクトルの設定について別例を説明する。図6は、データ間の距離に応じた重み付けに基づくラベルベクトルの設定例を説明する図である。図6に示すように、設定部22は、ラベル無しデータD2から任意の所定距離の範囲内にあるラベル有りデータとして、ラベル1が設定されたラベル有りデータ1、2、3、4、5と、ラベル2が設定されたラベル有りデータ6、7、8、9、10とを抽出する。
続いて、設定部22は、ラベル無しデータと、各ラベル有りデータ(ラベル付きデータ)との距離を、類似度や関連度を用いて算出する。具体的には、設定部22は、ラベル無しデータD2とラベル有りデータ1との距離d1、ラベル無しデータD2とラベル有りデータ2との距離d2、ラベル無しデータD2とラベル有りデータ3との距離d3、ラベル無しデータD2とラベル有りデータ4との距離d4、ラベル無しデータD2とラベル有りデータ5との距離d5を算出する。同様に、設定部22は、ラベル無しデータD2とラベル有りデータ6との距離d6、ラベル無しデータD2とラベル有りデータ7との距離d7、ラベル無しデータD2とラベル有りデータ8との距離d8、ラベル無しデータD2とラベル有りデータ9との距離d9、ラベル無しデータD2とラベル有りデータ10との距離d10を算出する。
その後、設定部22は、距離が近いほど大きい値となる関数(例えば正規分布の関数)であるf(x)を用意し、各ラベルに対しf(x)に距離を代入した結果の和を、全体の和で割った値を各ラベルの値とする。例えば、設定部22は、ラベル1については、「ラベル1のラベル値=((f(d1)+f(d2)+f(d3)+f(d4)+f(d5))/(f(d1)+f(d2)+f(d3)+f(d4)+f(d5)+f(d6)+f(d7)+f(d8)+f(d9)+f(d10)))」と算出する。同様に、設定部22は、ラベル2については、「ラベル2のラベル値=((f(d6)+f(d7)+f(d8)+f(d9)+f(d10))/(f(d1)+f(d2)+f(d3)+f(d4)+f(d5)+f(d6)+f(d7)+f(d8)+f(d9)+f(d10)))」と算出する。
そして、設定部22は、ラベルベクトルとして、ラベルベクトル「上記ラベル1のラベル値、上記ラベル2のラベル値、0」を生成する。この結果、設定部22は、ラベル無しデータD2について、ラベル無しデータD2「データ(ラベルなし)」に、ラベルベクトルを設定したラベル有りデータD2「データ+ラベルベクトル」を学習データとして、学習データDB14に格納する。なお、重みの算出は、距離が近いほど大きくなる指標であれば様々な手法を採用することができ、例えば距離の逆数の和をラベル値とすることもできる。また、ラベル有りデータが比較的少なく、不均等になっている場合、距離の近さが上位のデータであっても、影響が少ないものを含むことがあり、単純に割合をラベルベクトルにすると不具合となる場合がある。このような場合に、重みを用いる手法は、特に有効である。
なお、類似度は、ラベル無しデータに含まれる各要素と、ラベル有りデータに含まれる各要素との類似性を数値化した値の一例である。例えば、類似度としては、対象データ間の類似性を判断するために、対象データ間の距離によって特定される類似度を採用でき、ベクトルのコサイン類似度や2点間のユークリッド距離などを用いることができる。
関連度は、ラベル無しデータに含まれる各要素と、ラベル有りデータに含まれる各要素と一致性または相関性の一例であり、例えば相関度や言語データの同時出現頻度などである。また、類似度や関連度は、データの種類によって使い分けることができ、例えば文書データには類似度を用い、時系列データには相関度などを用いることができる。また、言語データの同時出現頻度とは、2つのデータ間で出現する全単語のうち共通する単語の割合であり、例えば2つのデータで重複した単語を除く合計20単語が出現し、5単語が共通する場合は「5/20」が当該頻度となる。なお、上記10個などの数値や所定距離の範囲等は、あくまで一例であり、任意に設定変更することができる。
図3に戻り、学習部23は、学習データDB14に記憶される学習データを用いてNNの学習を実行し、学習結果を学習結果DB15に格納する処理部である。図4の例では、学習部23は、ID=2のデータについてはラベルベクトル「ラベル1=0.6、ラベル2=0.4、ラベル3=0」を入力として学習を実行する。すなわち、学習部23は、もともとラベルが付加されていたラベル有りデータと、ラベルが付加されていないラベル無しデータとを用いた半教師有り学習の実行に際して、ラベル有りデータおよびラベル無しデータそれぞれに新たに設定されたラベルベクトルを用いた学習を実行する。
[処理の流れ]
次に、上述したラベルベクトルの設定処理について説明する。ここでは、一例として、入力データから学習データを生成した後に学習処理を実行する一連の流れを説明するが、これに限定されず、別々のフローで処理することもできる。
図7は、処理の流れを示すフローチャートである。図7に示すように、選別部21は、入力データが受信されて入力データDB13に格納されると(S101:Yes)、入力データDB13から各入力データを読み込む(S102)。続いて、選別部21は、各入力データを、ラベル有りデータとラベル無しデータとに選別(分類)する(S103)。
その後、設定部22は、選択された入力データを読み出し、読み出した入力データがラベル有りデータか否かを判定する(S104)。そして、設定部22は、読み出した入力データがラベル有りデータである場合(S104:Yes)、ラベル有りデータのラベル行列に、対応ラベル部分に1を設定し、非対応ラベル部分に0を設定したラベルベクトルを生成する(S105)。その後、設定部22は、ラベル有りデータに、ラベルベクトルを付加した学習データを生成する(S106)。
一方、設定部22は、読み出した入力データがラベル無しデータである場合(S104:No)、ラベル無しデータと各ラベル有りデータとの距離を算出し(S107)、周辺にあるラベル有りデータの各ラベルの割合を算出する(S108)。そして、設定部22は、ラベル行列に、ラベルの割合を設定したラベルベクトルを生成する(S109)。その後、設定部22は、ラベル無しデータに、ラベルベクトルを付加した学習データを生成する(S110)。
そして、設定部22は、S106またはS110を実行後、全入力データに対してS104からS110までの処理が終了して、学習データの生成が完了したか否かを判定する(S111)。ここで、設定部22は、未処理の入力データが存在し、学習データの生成が完了していない場合(S111:No)、S104以降を繰り返す。
一方、未処理の入力データが存在せず、学習データの生成が完了した場合(S111:Yes)、学習部23は、学習データDB14から各学習データを読み込み(S112)、各学習データのラベルベクトルをもとに学習を実行する(S113)。
[効果]
上述したように、学習装置10は、ラベルの分離性や分布の既知性を仮定することなく、大量のラベル無しデータに対して、各ラベルである可能性の確率が設定されるラベルベクトルを付加して、学習データとすることができる。したがって、学習装置10は、ラベル有りデータが少なくても、学習データを増やすことができ、DLの学習効率を向上させることができる。つまり、学習装置10は、分離性のないラベルによる半教師あり学習による学習モデルの判定精度を向上させることができる。
ここで、実施例1による手法と従来手法との比較を行った実験結果を説明する。まず、実験の条件を説明する。ここでは、学習データとして脳波データを用い、はじめからラベルが付加されているラベル有りデータを20個、ラベルが付加されていないラベル無しデータを600個用意し、各データは従来のクラスタリングによっては正確に分類することが難しいデータである。そして、実施例1にかかる学習装置10は、DTW(Dynamic Time Warping)距離を用いて、各ラベル無しデータに対して距離が近い上位5個のラベル有りデータを抽出し、抽出した5個のラベル有りデータのラベルの割合を用いたラベルベクトルを設定することとする。
図8は、効果を説明する図である。図8に示すように、はじめからラベルが付加されているラベル有りデータ(ラベル付きデータ)のみを用いて学習した場合の正答率は55%である。また、はじめからラベルが付加されているラベル有りデータ(ラベル付きデータ)と、従来の手法によって疑似的なラベルが付加されたラベル無しデータ(疑似的なラベル有りデータ)との両方を用いて半教師有り学習を実行した場合の正答率は74%である。そして、ラベル有りデータとラベル無しデータのそれぞれにラベルベクトルを付加し、ラベル無しデータにも正解ラベルを与えた実施例1の手法を用いて学習した場合の正答率は78%である。
したがって、実施例1にかかる手法は、他の手法と比較しても、学習結果の判別精度の劣化を抑制することができる。また、実施例1にかかる手法は、学習が進まなかった状態から、ラベルベクトルを加えることで学習を進めることができ、ラベル有りデータが少数の場合でも、DLの学習が進まない状況を改善できる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。
[ラベルベクトルの付加例]
上記実施例では、ラベルがもともと付加されているラベル有りデータに対してもラベルベクトルを設定する例を説明したが、これに限定されるわけではない。例えば、ラベルがもともと付加されているラベル有りデータについては、一般的なNNによる学習を実行し、ラベルがもともと付加されていないラベル無しデータについて、上記実施例1による手法を用いたスコア設定を実行することもできる。
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。また、実施例で説明した具体例、分布、数値などは、あくまで一例であり、任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[ハードウェア]
図9は、ハードウェア構成例を説明する図である。図9に示すように、学習装置10は、通信装置10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図9に示した各部は、バス等で相互に接続される。
通信装置10aは、ネットワークインタフェースカードなどであり、他のサーバとの通信を行う。HDD10bは、図3に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ10dは、図3に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図3等で説明した各機能を実行するプロセスを動作させる。すなわち、このプロセスは、学習装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、選別部21、設定部22、学習部23等と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、選別部21、設定部22、学習部23等と同様の処理を実行するプロセスを実行する。
このように学習装置10は、プログラムを読み出して実行することで学習方法を実行する情報処理装置として動作する。また、学習装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、学習装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
このプログラムは、インターネットなどのネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO(Magneto-Optical disk)、DVD(Digital Versatile Disc)などのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することができる。
10 学習装置
11 通信部
12 記憶部
13 入力データDB
14 学習データDB
15 学習結果DB
20 制御部
21 選別部
22 設定部
23 学習部

Claims (9)

  1. コンピュータに、
    複数のラベル無しデータそれぞれの、複数のラベル有りデータに用いられる複数のラベルそれぞれに対する距離に基づき、前記複数のラベル無しデータそれぞれに前記複数のラベルそれぞれに対するスコアを設定し、
    前記複数のラベル有りデータおよび前記複数のラベル有りデータ各々のラベルと、前記複数のラベル無しデータおよび前記複数のラベル無しデータそれぞれの前記複数のラベルに対するスコアを用いて、ニューラルネットワークを用いた学習モデルを学習させる
    処理を実行させる学習プログラム。
  2. 請求項1に記載の学習プログラムであって、前記コンピュータに、
    前記複数のラベル無しデータおよび前記複数のラベル有りデータのそれぞれについて、前記複数のラベル有りデータ各々のラベルと前記スコアとを用いたラベルベクトルを生成し、
    生成したラベルベクトルを用いて、前記学習モデルを学習させる処理を実行させる学習プログラム。
  3. 請求項1に記載の学習プログラムであって、前記コンピュータに、
    前記複数のラベル無しデータそれぞれについて、各ラベル無しデータから所定の距離に位置する複数のラベル有りデータそれぞれにもともと付加されている各ラベルの割合を、前記スコアとして設定する処理を実行させる学習プログラム。
  4. 請求項3に記載の学習プログラムであって、前記コンピュータに、
    前記複数のラベル無しデータそれぞれについて、前記所定の距離に位置する複数のラベル有りデータのうち距離が近いほど値を大きくする重みを用いて前記各ラベルの割合を算出する処理を実行させる学習プログラム。
  5. 請求項3または4に記載の学習プログラムであって、前記コンピュータに、
    前記複数のラベル有りデータそれぞれについて、該当するラベルに1を設定し、その他のラベルに0を設定したラベルベクトルを前記スコアとして設定し、
    前記複数のラベル無しデータそれぞれについて、前記各ラベルの割合を設定したラベルベクトルを前記スコアとして設定し、
    前記ラベルベクトルを用いて前記学習モデルを学習させる処理を実行させる学習プログラム。
  6. 請求項1に記載の学習プログラムであって、前記コンピュータに、
    前記複数のラベル無しデータそれぞれの、前記複数のラベル有りデータそれぞれに対する距離として、前記ラベル無しデータに含まれる各要素と、前記ラベル有りデータに含まれる各要素との類似性を数値化した、ベクトル空間上の距離または各要素によって特定されるデータ間の距離に基づく類似度を算出する処理を実行させる学習プログラム。
  7. 請求項1に記載の学習プログラムであって、前記コンピュータに、
    前記複数のラベル無しデータそれぞれの、前記複数のラベル有りデータそれぞれに対する距離として、前記ラベル無しデータに含まれる各要素と、前記ラベル有りデータに含まれる各要素と一致性または相関性である関連度を算出する処理を実行させる学習プログラム。
  8. コンピュータが、
    複数のラベル無しデータそれぞれの、複数のラベル有りデータに用いられる複数のラベルそれぞれに対する距離に基づき、前記複数のラベル無しデータそれぞれに前記複数のラベルそれぞれに対するスコアを設定し、
    前記複数のラベル有りデータおよび前記複数のラベル有りデータ各々のラベルと、前記複数のラベル無しデータおよび前記複数のラベル無しデータそれぞれの前記複数のラベルに対するスコアを用いて、ニューラルネットワークを用いた学習モデルを学習させる
    処理を実行する学習方法。
  9. 複数のラベル無しデータそれぞれの、複数のラベル有りデータに用いられる複数のラベルそれぞれに対する距離に基づき、前記複数のラベル無しデータそれぞれに前記複数のラベルそれぞれに対するスコアを設定する設定部と、
    前記複数のラベル有りデータおよび前記複数のラベル有りデータ各々のラベルと、前記複数のラベル無しデータおよび前記複数のラベル無しデータそれぞれの前記複数のラベルに対するスコアを用いて、ニューラルネットワークを用いた学習モデルを学習させる学習部と
    を有する学習装置。
JP2018043328A 2018-03-09 2018-03-09 学習プログラム、学習方法および学習装置 Active JP7024515B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018043328A JP7024515B2 (ja) 2018-03-09 2018-03-09 学習プログラム、学習方法および学習装置
US16/285,222 US11574147B2 (en) 2018-03-09 2019-02-26 Machine learning method, machine learning apparatus, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018043328A JP7024515B2 (ja) 2018-03-09 2018-03-09 学習プログラム、学習方法および学習装置

Publications (2)

Publication Number Publication Date
JP2019159576A JP2019159576A (ja) 2019-09-19
JP7024515B2 true JP7024515B2 (ja) 2022-02-24

Family

ID=67842640

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018043328A Active JP7024515B2 (ja) 2018-03-09 2018-03-09 学習プログラム、学習方法および学習装置

Country Status (2)

Country Link
US (1) US11574147B2 (ja)
JP (1) JP7024515B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7024515B2 (ja) * 2018-03-09 2022-02-24 富士通株式会社 学習プログラム、学習方法および学習装置
CN110851596B (zh) * 2019-10-11 2023-06-27 平安科技(深圳)有限公司 文本分类方法、装置及计算机可读存储介质
JP7464903B2 (ja) 2020-02-19 2024-04-10 京セラドキュメントソリューションズ株式会社 学習用データセット生成システム、学習用データセット生成サーバーおよび学習用データセット生成プログラム
US11615330B2 (en) * 2020-03-18 2023-03-28 Kyndryl, Inc. Virtual subject matter expert provisioning
CN113496277A (zh) 2020-04-03 2021-10-12 三星电子株式会社 用于检索图像的神经网络装置及其操作方法
JP7041374B2 (ja) * 2020-09-04 2022-03-24 ダイキン工業株式会社 生成方法、プログラム、情報処理装置、情報処理方法、及び学習済みモデル

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211693A (ja) 2008-02-29 2009-09-17 Fujitsu Ltd パターン識別装置およびパターン識別方法
US20130346346A1 (en) 2012-06-21 2013-12-26 Microsoft Corporation Semi-supervised random decision forests for machine learning
JP2017126158A (ja) 2016-01-13 2017-07-20 日本電信電話株式会社 2値分類学習装置、2値分類装置、方法、及びプログラム
JP2017167834A (ja) 2016-03-16 2017-09-21 セコム株式会社 学習データ選択装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5364578B2 (ja) 2006-07-12 2013-12-11 コファックス, インコーポレイテッド トランスダクティブデータ分類のための方法およびシステム、ならびに機械学習手法を用いたデータ分類方法
US8112421B2 (en) * 2007-07-20 2012-02-07 Microsoft Corporation Query selection for effectively learning ranking functions
US7860813B2 (en) * 2008-01-24 2010-12-28 Nec Laboratories America, Inc. Monitoring driving safety using semi-supervised sequential learning
JP6000767B2 (ja) 2012-09-04 2016-10-05 公立大学法人公立はこだて未来大学 学習装置、判別装置、行動状態判別システム、および判別方法
US10262272B2 (en) * 2014-12-07 2019-04-16 Microsoft Technology Licensing, Llc Active machine learning
US10535017B2 (en) * 2015-10-27 2020-01-14 Legility Data Solutions, Llc Apparatus and method of implementing enhanced batch-mode active learning for technology-assisted review of documents
US10699215B2 (en) * 2016-11-16 2020-06-30 International Business Machines Corporation Self-training of question answering system using question profiles
CN108154198B (zh) * 2018-01-25 2021-07-13 北京百度网讯科技有限公司 知识库实体归一方法、系统、终端和计算机可读存储介质
JP7024515B2 (ja) * 2018-03-09 2022-02-24 富士通株式会社 学習プログラム、学習方法および学習装置
US10726313B2 (en) * 2018-04-19 2020-07-28 Adobe Inc. Active learning method for temporal action localization in untrimmed videos
US10861064B2 (en) * 2018-06-12 2020-12-08 Exxonmobil Upstream Research Company Method and system for generating contradiction scores for petroleum geoscience entities within text using associative topic sentiment analysis
US10839394B2 (en) * 2018-10-26 2020-11-17 Microsoft Technology Licensing, Llc Machine learning system for taking control actions
US10885388B1 (en) * 2020-08-04 2021-01-05 Superb Ai Co., Ltd. Method for generating training data to be used for training deep learning network capable of analyzing images and auto labeling device using the same
US11113574B1 (en) * 2021-03-26 2021-09-07 StradVision, Inc. Methods for performing self-supervised learning of deep-learning based detection network by using deep Q-network and devices using the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211693A (ja) 2008-02-29 2009-09-17 Fujitsu Ltd パターン識別装置およびパターン識別方法
US20130346346A1 (en) 2012-06-21 2013-12-26 Microsoft Corporation Semi-supervised random decision forests for machine learning
JP2017126158A (ja) 2016-01-13 2017-07-20 日本電信電話株式会社 2値分類学習装置、2値分類装置、方法、及びプログラム
JP2017167834A (ja) 2016-03-16 2017-09-21 セコム株式会社 学習データ選択装置

Also Published As

Publication number Publication date
US20190279039A1 (en) 2019-09-12
US11574147B2 (en) 2023-02-07
JP2019159576A (ja) 2019-09-19

Similar Documents

Publication Publication Date Title
JP7024515B2 (ja) 学習プログラム、学習方法および学習装置
JP6781415B2 (ja) ニューラルネットワーク学習装置、方法、プログラム、およびパターン認識装置
US8620837B2 (en) Determination of a basis for a new domain model based on a plurality of learned models
KR20170016231A (ko) 사용자 인증을 위한 멀티-모달 퓨전 방법 및 사용자 인증 방법
JP7040104B2 (ja) 学習プログラム、学習方法および学習装置
CN110046634B (zh) 聚类结果的解释方法和装置
CN110134777B (zh) 问题去重方法、装置、电子设备和计算机可读存储介质
US11741363B2 (en) Computer-readable recording medium, method for learning, and learning device
CN108877947B (zh) 基于迭代均值聚类的深度样本学习方法
US20230195851A1 (en) Data classification system, data classification method, and recording medium
US20210224647A1 (en) Model training apparatus and method
Long et al. Learning to recognise unseen classes by a few similes
CN114048729A (zh) 医学文献评价方法、电子设备、存储介质和程序产品
CN111340057A (zh) 一种分类模型训练的方法及装置
JP7389389B2 (ja) 処理装置、処理方法および処理プログラム
AU2021304283A1 (en) Dataset-aware and invariant learning for face recognition
US20190286703A1 (en) Clustering program, clustering method, and clustering device for generating distributed representation of words
US20150332173A1 (en) Learning method, information conversion device, and recording medium
US20220366142A1 (en) Method of machine learning and information processing apparatus
JP7172067B2 (ja) 学習プログラム、学習方法および学習装置
CN114547264A (zh) 一种基于马氏距离和对比学习的新意图数据识别方法
Fu et al. Genetic programming based transfer learning for document classification with self-taught and ensemble learning
Xu et al. Robust bounded logistic regression in the class imbalance problem
CN109918905B (zh) 行为推论模型生成装置及其行为推论模型生成方法
CN111783088A (zh) 一种恶意代码家族聚类方法、装置和计算机设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220124

R150 Certificate of patent or registration of utility model

Ref document number: 7024515

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150