JP2020052644A - 学習方法、学習装置および学習プログラム - Google Patents

学習方法、学習装置および学習プログラム Download PDF

Info

Publication number
JP2020052644A
JP2020052644A JP2018180477A JP2018180477A JP2020052644A JP 2020052644 A JP2020052644 A JP 2020052644A JP 2018180477 A JP2018180477 A JP 2018180477A JP 2018180477 A JP2018180477 A JP 2018180477A JP 2020052644 A JP2020052644 A JP 2020052644A
Authority
JP
Japan
Prior art keywords
learning
correct
classifier
label
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018180477A
Other languages
English (en)
Other versions
JP7200571B2 (ja
Inventor
和 吉川
Kazu Yoshikawa
和 吉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018180477A priority Critical patent/JP7200571B2/ja
Publication of JP2020052644A publication Critical patent/JP2020052644A/ja
Application granted granted Critical
Publication of JP7200571B2 publication Critical patent/JP7200571B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】教師データが少ない場合におけるモデルの学習効率を向上させること。【解決手段】学習装置100は、入力データに対応する第一の正解ラベルを基にして、複数の第二の正解ラベルを、第一の正解ラベルに対応する第二の正解ラベルに制限した正解ラベル候補に変換する。学習装置100は、第一の正解ラベルが付与された入力データが入力された場合に、前記正解ラベル候補に基づいて前記モデルの学習を行う。学習装置100は、第二の正解ラベルが付与された入力データが入力された場合に、第二の正解ラベルに基づいてモデルの学習を行う。【選択図】図5

Description

本発明は、学習方法等に関する。
あるタスクに対してよい分類能力をもつ分類器Aがある場合に、この分類器Aをもとにして、同じタスクで分類クラスの定義を一部だけ追加および変更した分類器Bを学習(転移学習)する従来技術がある。
図8は、従来技術1を説明するための図である。従来技術1では、分類器Aの分類結果のクラスを更に細かく分類する分類器B1,B2を用意し、分類器Aの分類結果を用いて、分類器B1,B2を学習させる。前提として、分類器Aの学習に使った教師データは大量であり、分類器B1,B2の学習に使用する教師データは少量であるものとする。
分類器Aは、入力データを、クラス{スポーツ、政治、その他}のいずれか一つに分類する学習済みの分類器である。たとえば、分類器Aは、入力データ「鈴木メジャー4番」をクラス「スポーツ」に分類する。分類器Aは、入力データ「佐藤平昌で金メダル」をクラス「スポーツ」に分類する。分類器Aは、入力データ「eスポーツ大会開幕」をクラス「その他」に分類する。分類器Aは、入力データ「国会で予算案可決」をクラス「政治」に分類する。分類器Aは、入力データ「新型jPhone発表」をクラス「その他」に分類する。
分類器B1は、入力データを、クラス{スポーツ(オリンピック以外)、オリンピック}のいずれか一つに分類する分類器である。従来技術1では、入力データのうち、分類器Aにより、スポーツに分類された入力データと、クラス{スポーツ(オリンピック以外)、オリンピック}のいずれかと対応付けた教師データを、分類器B1に与えて学習を行う。
たとえば、入力データ「鈴木メジャー4番」は、分類器Aでクラス「スポーツ」に分類されている。このため、従来技術1は、入力データ「鈴木メジャー4番」と、クラス「スポーツ(オリンピック以外)」とを対応付けた教師データを、分類器B1に与えて学習させる。入力データ「佐藤平昌で金メダル」は、分類器Aでクラス「スポーツ」に分類されている。このため、従来技術1は、入力データ「佐藤平昌で金メダル」と、クラス「オリンピック」とを対応付けた教師データを、分類器B1に与えて学習させる。
分類器B2は、入力データを、クラス{政治、スポーツ(オリンピック以外)、その他}のいずれか一つに分類する分類器である。従来技術1は、入力データのうち、分類器Aにより、その他または政治に分類された入力データと、クラス{政治、スポーツ(オリンピック以外)、その他}のいずれかと対応付けた教師データを、分類器B2に与えて学習を行う。
たとえば、入力データ「eスポーツ大会開幕」は、分類器Aでクラス「その他」に分類されている。このため、従来技術1は、入力データ「eスポーツ大会開幕」とクラス「スポーツ(オリンピック以外)」とを対応付けた教師データを、分類器B2に与えて学習させる。入力データ「国会で予算案可決」は、分類器Aでクラス「政治」に分類されている。このため、従来技術1は、入力データ「国会で予算案可決」と、クラス「政治」とを対応付けた教師データを、分類器B2に与えて学習を行う。入力データ「新型jPhone発表」は、分類器Aでクラス「その他」に分類されている。このため、従来技術1は、入力データ「新型jPhone発表」と、クラス「その他」とを対応付けた教師データを、分類器B2に与えて学習を行う。
図9は、従来技術2を説明するための図である。従来技術2では、分類器Aの分類結果のクラスの情報を特徴量として、分類器Bを学習させる場合の教師データに用いる。前提として、分類器Aの学習に使った教師データは大量であり、分類器Bの学習に使用する教師データは少量であるものとする。
分類器Aは、入力データを、クラス{スポーツ、政治、その他}のいずれか一つに分類する学習済みの分類器である。分類器Bは、入力データを、クラス{スポーツ(オリンピック以外)、政治、オリンピック、その他}のいずれか一つに分類する分類器である。従来技術2では、分類器Bに教師データを与えて学習させる場合に、分類器Aによる分類結果を特徴量として与える。
たとえば、入力データ「鈴木メジャー4番」は、分類器Aでクラス「スポーツ」に分類されている。この場合には、特徴量「鈴木メジャー4番」および特徴量「スポーツ」を入力データとし、この入力データと、クラス「スポーツ(オリンピック以外)」とを対応付けた教師データを、分類器Bに与えて学習を行う。
上述した従来技術1、2以外にも、マルチタスク学習やLwF(Learning without Forgetting)等の技術がある。マルチタスク学習は、目的の分類器が解きたいタスクと関連のあるタスクを、モデルパラメータの一部を共有しながら学習することで、関連タスクの知識を使って分類性能を向上させるものである。LwFは、マルチタスク学習を応用し、学習済みの分類器の性能を落とさずに、新規タスクに適用させる技術である。
図10は、マルチタスク学習を説明するための図である。マルチタスク学習では、入力データが入力されると、中間層10で学習されたモデルパラメータθsに基づいて、入力データを中間表現データに変換する。モデルパラメータθsは、分類層11a,11b,11cで共有するパラメータとなる。また、マルチタスク学習では、分類層11a〜11cにはそれぞれ固有のパラメータθa、θb、θcを設定し、中間表現データとクラスとを対応付けた教師データを分類層11a〜11cにそれぞれ与えることで、各パラメータθa、θb、θcを学習する。
特開2015−38709号公報
しかしながら、上述した従来技術では、教師データが少ない場合におけるモデルの学習効率を向上させることができないという問題がある。
従来技術1では、分類基準を変更する度に、分類器が増え、モデルサイズが増大し、管理が煩雑となる。また、従来技術1では、分類器B1,B2がそれぞれ独立に学習されるため、分類器B1で学習した特徴と、B2で学習した特徴とが共有されない。
従来技術2では、従来技術1と同様にして、分類基準を変更する度に、分類器が増え、モデルサイズが増大する。また、従来技術2では、分類器Aの分類結果をあくまでも特徴量の一つとして取り扱うため、分類器Aと分類器Bとの既知のクラス間の関係を利用することができない。
また、マルチタスク学習やLwFでは、モデルパラメータの一部を共有しながら学習しているものの、各分類層11a〜11cはそれぞれ独立に学習することになるため、各分類層11a〜11c間のクラスの関係を利用することができない。
図11は、従来技術の問題を説明するための図である。以下に説明するように、分類器Aの分類結果を用いて分類器Bを学習した場合において、ある入力データを分類器Aに入力して正しい分類結果が得られても、ある入力データを分類器Bに入力した場合に、正しい分類結果が得られない場合がある。
分類器Aは、入力データを、クラス{スポーツ、政治}に分類する分類器である。図11において、入力データ20a,20bは、分類器Aを学習する場合に用いたものである。すなわち、入力データ20a「日本、男女ともに決勝へ−ショートトラックW杯」と、クラス「スポーツ」との組が、分類器Aの教師データである。また、入力データ20b「汚職事件で野党が審議要求」と、クラス「政治」との組が、分類器Aの教師データである。係る教師データにより学習された、分類器Aのクラスの境界を、境界30aとする。
分類器Bは、従来技術1、2またはマルチ学習と同様にして、分類器Aの分類結果を用いて転移学習した分類器である。分類器Bは、入力データを、クラス{スポーツ、政治、オリンピック}に分類する。図11において、入力データ21a,21b,21cは、分類器Bを学習する場合に用いたものである。すなわち、入力データ21a「ショートトラックリレーで日本3位」と、クラス「スポーツ」との組が、分類器Bの教師データである。入力データ21a「カジノ法案の審議に注目」と、クラス「政治」との組が、分類器Bの教師データである。入力データ21a「ショートトラック北朝鮮の妨害で審議」と、クラス「オリンピック」との組が、分類器Bの教師データである。係る教師データにより学習された、分類器Bのクラスの境界を、境界30a,30bとする。
ここで、テストデータ25「北朝鮮問題を集中審議へ」を分類器Aに入力した場合について説明する。分類器Aは、テストデータ25が特徴量「審議」を含んでいるため、テストデータ25を、クラス「政治」に分類する。この分類結果は正しい分類結果である。
一方、テストデータ25を分類器Bに入力した場合について説明する。分類器Bは、テストデータ25が特徴量「北朝鮮、審議」を含んでいるため、テストデータを、クラス「オリンピック」に分類する。この分類結果は誤った分類結果である。分類器Bの理想的な境界は、境界30c、30dによって、クラス{スポーツ、政治、オリンピック}を分類することである。これにより、テストデータ25をクラス「政治」に分類することができる。
1つの側面では、本発明は、教師データが少ない場合におけるモデルの学習効率を向上させることができる学習方法、学習装置および学習プログラムを提供することを目的とする。
第1の案では、コンピュータが、第一の正解ラベルが付与された入力データと、第一の正解ラベルとは異なる基準の正解ラベルとなる第二の正解ラベルが付与された入力データとを基にしてモデルの学習を行う場合において次の処理を行う。コンピュータは、入力データに対応する第一の正解ラベルを基にして、複数の第二の正解ラベルを、第一の正解ラベルに対応する第二の正解ラベルに制限した正解ラベル候補に変換する。コンピュータは、第一の正解ラベルが付与された入力データが入力された場合に、正解ラベル候補に基づいてモデルの学習を行う。コンピュータは、第二の正解ラベルが付与された入力データが入力された場合に、第二の正解ラベルに基づいてモデルの学習を行う。
第二の正解ラベル付きデータが少ないときに、第一の正解ラベル付きデータを用いて、第二の正解ラベル基準に基づくモデルの学習効率を向上させることができる。
図1は、本実施例に係る制約表の一例を示す図である。 図2は、教師データDを用いた学習方法を説明する図である。 図3は、教師データDを用いた学習方法を説明する図(1)である。 図4は、教師データDを用いた学習方法を説明する図(2)である。 図5は、本実施例に係る学習装置の構成を示す機能ブロック図である。 図6は、本実施例に係る学習装置の処理手順を示すフローチャートである。 図7は、本実施例に係る学習装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。 図8は、従来技術1を説明するための図である。 図9は、従来技術2を説明するための図である。 図10は、マルチタスク学習を説明するための図である。 図11は、従来技術の問題を説明するための図である。
以下に、本願の開示する学習方法、学習装置および学習プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
本実施例に係る学習装置の学習方法について説明する。前提として、分類器Aには大量の教師データが存在し、分類器Bには少量の教師データが存在するものとする。学習装置は、分類器Aと同じタスクで分類クラスの定義を一部だけ追加および変更した分類器Bを学習(転移学習)する。学習装置は、分類器Bの教師データと分類器Aの教師データとを併用し、共通部分の分類性能を維持しつつ変更部分を調整する。
学習装置に対する入力は、分類器Aのパラメータθ、分類器Aの教師データD(D=(X,Y))、分類器Bの教師データD(D=(X,Y))、制約表Tが含まれる。制約表Tは、分類器Aのクラスと分類器Bのクラスとの関係を定義する情報である。
図1は、本実施例に係る制約表の一例を示す図である。この制約表Tは、分類器Aのクラスと、分類器Bのクラスとの関係を示す。分類器Aのクラスを{スポーツ、政治、その他}とする。分類器Bのクラスを{スポーツ(オリンピック以外)、政治、オリンピック、その他}とする。「○」は、各クラスが対応関係にあり、「×」は、各クラスが対応関係にないことを示す。
図1において、分類器Aのクラス「スポーツ」は、分類器Bのクラス「スポーツ(オリンピック以外)、オリンピック」に対応しており、分類器Bのクラス「政治、その他」に対応していないことを示す。すなわち、分類器Aの教師データDを用いて分類器Bを学習する場合に、教師データDのクラスが「スポーツ」であるものは、クラスを「スポーツ(オリンピック以外)、オリンピック」に制限して学習を行う。
分類器Aのクラス「政治」は、分類器Bのクラス「政治」に対応しており、分類器Bのクラス「スポーツ(オリンピック以外)、オリンピック、その他」に対応していないことを示す。すなわち、分類器Aの教師データDを用いて分類器Bを学習する場合に、教師データDのクラスが「政治」であるものは、クラスを「政治」に制限して学習を行う。
分類器Aのクラス「その他」は、分類器Bのクラス「スポーツ(オリンピック以外)、その他」に対応しており、分類器Bのクラス「政治、オリンピック」に対応していないことを示す。すなわち、分類器Aの教師データDを用いて分類器Bを学習する場合に、教師データDのクラスが「その他」であるものは、クラスを「スポーツ(オリンピック以外)、その他」に制限して学習を行う。
図2は、教師データDを用いた学習方法を説明する図である。学習装置は、教師データDから入力データx(x∈X)と正解クラスy(y∈Y)との組をサンプリングし、分類器Bのパラメータを学習する。図2に示す例では、入力データxを「eスポーツに奨学金」とし、正解クラスyを「スポーツ(オリンピック以外)」とする。
分類器Bは、入力データxが入力されると、推定確率結果40aを出力する。推定確率結果40aには、各クラスの推定確率が含まれる。たとえば、クラス「スポーツ(オリンピック以外)」の推定確率は「0.1(10%)」である。ここで、入力データxの正解クラスyは「スポーツ(オリンピック以外)」である。このため、学習装置は、クラス「スポーツ(オリンピック以外)」の推定確率が他のクラスの推定確率よりも大きくなるように、損失計算を行い、分類器Bのパラメータを更新する。たとえば、学習装置は、損失計算への寄与Lを算出し、この寄与Lを小さくするパラメータを算出する。
図3は、教師データDを用いた学習方法を説明する図(1)である。学習装置は、教師データDから入力データx(x∈X)と正解クラスy(y∈Y)との組をサンプリングし、分類器Bのパラメータを学習する。図3に示す例では、入力データxを「佐藤平昌で金メダル」とし、正解クラスyを「スポーツ」とする。
分類器Bは、入力データxが入力されると、推定確率結果40bを出力する。推定確率結果40bには、各クラスの推定確率が含まれる。たとえば、クラス「スポーツ(オリンピック以外)」の推定確率は「0.6(60%)」である。ここで、入力データxの正解クラスyは「スポーツ」であるが、分類器Bのクラスには、クラス「スポーツ」が存在しないため、そのままでは、比較することができず、学習することができない。
図4は、教師データDを用いた学習方法を説明する図(2)である。学習装置は、図3で説明したような問題を解消するために、入力データx(x∈X)の正解クラスy(y∈Y)と、制約表Tとを基にして、正解クラスyと対応関係にある、正解クラス候補集合T(y)を生成する。たとえば、制約表Tによれば、分類器Aのクラス「スポーツ」と対応関係にある分類器Bのクラスは「スポーツ(オリンピック以外)、オリンピック」である。このため、正解クラス候補集合T(y)は、「スポーツ(オリンピック以外)、オリンピック」となる。すなわち、学習装置は、正解クラスyを、正解クラス候補集合T(y)に制限する。
学習装置は、分類器Bを学習する場合において、入力データ「佐藤平昌で金メダル」に対応する正解クラスを、正解クラス候補集合T(y)の「スポーツ(オリンピック以外)、オリンピック」とする。学習装置は、クラス「スポーツ(オリンピック以外)、オリンピック」の推定確率が他のクラスの推定確率よりも大きくなるように、損失計算を行い、分類器Bのパラメータを更新する。たとえば、学習装置は、損失計算への寄与Lを算出し、この寄与Lを小さくするパラメータを算出する。
上記のように、学習装置は、教師データDを用いて分類器Bの学習を行う場合に、教師データDの正解クラスyに対する推定確率が大きくなるような損失計算を行う。学習装置は、教師データDを用いて分類器Bの学習を行う場合に、教師データDの正解クラスyと、制約表Tとを基にして、正解クラス候補集合T(y)を生成し、正解クラス候補集合T(y)に対する推定確率が大きくなるような損失計算を行う。これによって、分類器Aには大量の教師データが存在し、分類器Bには少量の教師データしか存在しない場合であっても、分類器Aの教師データを、分類器Bの学習に用いることができるので、分類器Bの学習を効率的に行うことができる。
図5は、本実施例に係る学習装置の構成を示す機能ブロック図である。図5に示すように、この学習装置100は、通信部110と、入力部120と、表示部130と、記憶部140と、制御部150とを有する。
通信部110は、ネットワーク等を介して外部装置(図示略)とデータ通信を実行する処理部である。通信部は、通信装置の一例である。後述する制御部150は、通信部110を介して、外部装置との間でデータをやり取りする。たとえば、制御部150は、外部装置から、後述する第1教師データ141、第2教師データ、パラメータ143、制約表データ144を受信してもよい。
入力部120は、学習装置100に各種のデータを入力する入力装置である。入力部120は、キーボードやマウス、タッチパネル等に対応する。たとえば、ユーザは、入力部120を操作して、パラメータ143や、制約表データ144等の入力、分類を要求する入力データ等の入力を行ってもよい。
表示部130は、制御部160から出力される各種の情報を表示するための表示装置である。たとえば、表示部130は、液晶ディスプレイやタッチパネル等に対応する。たとえば、ユーザの入力装置に応答して、制御部150から出力される情報を表示する。
記憶部140は、第1教師データ141、第2教師データ142、パラメータ143、制約表データ144、学習結果モデル145を有する。記憶部140は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。
第1教師データ141は、分類器Aの教師データD(D=(X,Y))を有する。教師データDに含まれる入力データXは、式(1)に示されるものである。教師データDに含まれる正解クラスYは、式(2)に示されるものである。第1教師データ141に含まれる教師データDの量は、第2教師データ142に含まれる教師データDの量よりも多いものとする。
Figure 2020052644
Figure 2020052644
第2教師データ142は、分類器Bの教師データD(D=(X,Y))を有する。教師データDに含まれる入力データXは、式(3)に示されるものである。教師データDに含まれる正解クラスYは、式(4)に示されるものである。第2教師データ142に含まれる教師データDの量は、第2教師データ142に含まれる教師データDの量よりも少ないものとする。
Figure 2020052644
Figure 2020052644
パラメータ143は、学習済みの分類器Aに設定されているパラメータに対応する。なお、パラメータ143を、ユーザが設定してもよい。
制約表データ144は、図1で説明した制約表Tのデータに対応するものである。すなわち、制約表データ144は、分類器Aのクラスと、分類器Bのクラスとの対応関係を示すものである。
学習結果モデル145は、後述する制御部150のより学習される分類器Bのパラメータを含む情報である。
制御部150は、受付部151、変換部152、学習部153、分類部154を有する。制御部160は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などによって実現できる。また、制御部160は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによっても実現できる。
受付部151は、各種の情報を受け付ける処理部である。たとえば、受付部151は、外部装置から、第1教師データ141、第2教師データ142、パラメータ143、制約表データ144を受け付け、受け付けた各データ141〜144を、記憶部140に格納する。
変換部152は、後述する学習部153から、分類器Aの教師データDに含まれる正解クラスyを受け付けた場合に、制約表データ144を基にして、正解クラスyを、正解クラス候補集合T(y)を変換する処理部である。変換部152は、正解クラス候補集合T(y)を学習部153に出力する。
たとえば、変換部152は、学習部153から、正解クラスyとして「スポーツ」を取得したとする。この場合には、変換部152は、正解クラスyとして「スポーツ」に対応する正確クラス候補集合T(y)として、「スポーツ(オリンピック以外)、オリンピック」を生成する。
学習部153は、第1教師データ(教師データD)141または第2教師データ(教師データD)144、パラメータ143を基にして、分類器Bのパラメータを学習する処理部である。たとえば、学習部153は、教師データDに含まれる(x,y)または、教師データDに含まれる(x,y)を取得して、損失関数Lを算出し、損失関数Lの値が最小となるように、分類器Bのパラメータを学習する。学習部153は、学習した分類器Bのパラメータにより、学習結果モデル145を更新する。学習部153は、分類器Bのパラメータが収束し、学習が完了した場合に、学習結果モデル145の情報を、外部装置に通知してもよい。
損失関数Lは、式(5)に示すものとなる。式(5)に含まれるλは、元タスクの重みであり、事前に設定される。Lは、分類器Bのパラメータがθに設定されている場合において、入力データXを与えた場合の、正解クラスYの推定確率を示すものであり、式(6)により定義される。
Figure 2020052644
Figure 2020052644
は、分類器Bのパラメータがθに設定されている場合において、入力データXを与えた場合の、正解クラスYの推定確率を示すものであり、式(7)により定義される。ただし、式(7)における正解クラスYは、正解クラス候補集合T(y)により制限される(y∈T(y))。R(θ)は、分類器Bのパラメータの正則化項である。学習部153は、正解クラスyを、変換部152に通知して、正解クラス候補集合T(y)を取得する。
Figure 2020052644
図6は、本実施例に係る学習装置の処理手順を示すフローチャートである。図6に示すように、学習装置100の学習部153は、パラメータθを初期化する(ステップS101)。たとえば、学習部153は、ステップS101において、パラメータ143を、初期値とする。
学習部153は、L、L、N、Nの値をそれぞれ「0」に設定する(ステップS102)。学習部153は、第1教師データ141または第2教師データ142に含まれる{(x,y),・・・,(x,y)}から、n事例をサンプリングする(ステップS103)。学習部153は、i=1、・・・、nまで、ステップS104〜S109の処理を繰り返し実行する。
学習部153は、xがDからのデータである場合には(ステップS105,Yes)、ステップS106に移行する。一方、学習部153は、xがDからのデータでない場合には(ステップS105,No)、ステップS110に移行する。
学習部153は、変換部152から正解クラス候補集合T(y)を取得する(ステップS106)。学習部153は、Nをインクリメントする(ステップS107)。学習部153は、式(8)を基にしてLを更新する(ステップS108)。式(8)は、式(7)に対応するものである。
Figure 2020052644
学習部153は、Nをインクリメントする(ステップS110)。学習部153は、式(9)を基にしてLを更新する(ステップS111)。式(9)は、式(6)に対応するものである。
Figure 2020052644
ステップS112以降の処理について説明する。学習部153は、式(10)に基づいて損失関数Lを算出する(ステップS112)。学習部153は、損失関数Lの値が小さくなる方向に、パラメータθを更新する(ステップS113)。
Figure 2020052644
学習部153は、損失関数Lの値が収束したか否かを判定する(ステップS114)。学習部153は、損失関数Lの値が収束していない場合には(ステップS114,No)、ステップS102に移行する。
一方、学習部153は、損失関数Lの値が収束した場合には(ステップS114,Yes)、モデルを出力する(ステップS115)。たとえば、学習部153は、収束した時点の分類器Bのパラメータθを、学習結果モデル145に登録する。
図5の説明に戻る。分類部154は、学習結果モデル145に登録された分類器Bのパラメータθを用いて、入力データに対応するクラスを判定する処理部である。たとえば、分類部154は、入力データを受け付けると、パラメータθを設定した分類器Bのモデルに入力データを入力することで、分類器Bの推定確率結果を得る。分類部154は、推定確率結果を参照して、推定確率の最も大きいクラスを、入力データの分類結果として出力する。
次に、本実施例に係る学習装置100の効果について説明する。学習装置100は、教師データDを用いて分類器Bの学習を行う場合に、教師データDの正解クラスyに対する推定確率が大きくなるような損失計算を行う。また、学習装置100は、教師データDを用いて分類器Bの学習を行う場合に、教師データDの正解クラスyと、制約表Tとを基にして、正解クラス候補集合T(y)を生成し、正解クラス候補集合T(y)に対する推定確率が大きくなるような損失計算を行う。これによって、分類器Aには大量の教師データが存在し、分類器Bには少量の教師データしか存在しない場合であっても、分類器Aの教師データを、分類器Bの学習に用いることができるので、分類器Bの学習を効率的に行うことができる。
学習装置100は、教師データDおよび教師データDを用いて分類器Bのパラメータを学習するため、学習済みの分類器Aの分類能力を残しつつ、クラス追加やクラス定義の一部変更に対応した新たな分類器Bを構築することができる。たとえば、教師データDを用いて分類器Bのパラメータを学習するため、分類器Aから得られる分類能力を、直接分類器Bに反映させることができる。
学習装置100が学習する分類器Bは、分類基準を変更してもパラメータは一つであるため、モデルサイズが増大することを抑止することができる。
なお、上述した学習装置100の処理は一例であり、学習装置100は、その他の処理を実行して、分類器Bのパラメータの学習を行ってもよい。たとえば、学習装置100の学習部153は、確率的勾配法(stochastic gradient descent, SGD)等の手法を用いて、各反復における損失をD、Dからサンプリングした一部のデータを使って求めてもよい。
学習部153は、Dからサンプリングしたデータを用いて、λL+R(θ)に基づきパラメータθの更新を行う。また、学習部153は、Dからサンプリングしたデータを用いて、λL+R(θ)に基づきパラメータθの更新を行う。このように、二段階でパラメータ更新を交互に行うことで、まとめてパラメータ更新を行う場合と比較して、学習装置100の処理負荷を軽減できる場合がある。
制約表Tについては、ユーザが分類器Aのクラスと、分類器Bのクラスとを参照して、設定してもよいし、学習部153が自動的に対応関係を設定してもよい。学習部153が、制約表Tを自動的に設定する第1の処理の一例について説明する。学習部153は、分類器Aの各クラスと、分類器Bの各クラスとを比較し、分類器Bの各クラスのうち、分類器Aに存在しない新たなクラスについては、分類器Aのクラスとの対応関係を「○」とし、その他のクラスを「×」とする。
たとえば、分類器Aのクラスを{スポーツ、政治、その他}とする。分類器Bのクラスを{スポーツ(オリンピック以外)、政治、オリンピック、その他}とする。分類器Aのクラス「スポーツ」と、分類器Bの各クラスとの対応関係を生成する場合について説明する。分類器Bの各クラスの内、「政治、その他」は、分類器Aに存在するものであるため、学習部153は、分類器Aのクラス「スポーツ」と、分類器Bのクラス「政治、その他」との対応関係をそれぞれ「×」とする。これに対して、分類器Bの各クラスの内、「スポーツ(オリンピック以外)、オリンピック」は、分類器Aに存在しないので、学習部153は、分類器Aのクラス「スポーツ」と、分類器Bのクラス「スポーツ(オリンピック以外)、オリンピック」との対応関係をそれぞれ「○」に設定する。
学習部153が、制約表Tを自動的に設定する第2の処理の一例について説明する。学習部は、分類器Bの教師データDを、分類器Aに適用し、分類結果の差分を基に、分類器Bのクラスと、分類器Aのクラスとの対応関係を設定してもよい。たとえば、学習部153は、正解クラス「スポーツ(オリンピック以外)」に対応する複数の入力データを分類器Aに入力して、分類器Aのクラスのいずれかに分類させ、分類器A「スポーツ」に高頻度で分類される場合に、分類器Bのクラス「スポーツ(オリンピック以外)」と、分類器Aのクラス「スポーツ」との対応関係を「○」に設定する。
また、本実施例に係る学習装置100は、マルチタスク学習と組み合わせて、分類器Aおよび分類器Bの学習を行ってもよい。マルチタスク学習と組み合わせた場合の損失関数Lは、式(11)に示すものとなる。学習装置100は、式(11)に示される損失関数Lの値が小さくなるように、パラメータθ、θ、θを調整する。ここで、θは、分類器Aおよび分類器Bが共有するパラメータである。θは、分類器Aのパラメータである。θは、分類器Bのパラメータである。式(11)の1番目の項は、クラス制約つき手法の損失を示す。式(11)の2番目の項は、マルチタスク学習の損失を示す項である。
Figure 2020052644
また、学習部153は、第1教師データ141に、正解クラスが含まれていない場合には、入力データを分類器Aに入力してクラスを求め、入力データと正確クラスとを対応付けた教師データを生成してもよい。
次に、実施例に示した学習装置100と同様の機能を実現するコンピュータのハードウェア構成の一例について説明する。図7は、本実施例に係る学習装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
図7に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、ディスプレイ203とを有する。また、コンピュータ200は、記憶媒体からプログラム等を読み取る読み取り装置204と、有線または無線ネットワークを介して、外部装置等との間でデータの授受を行うインタフェース装置205とを有する。コンピュータ200は、各種情報を一時記憶するRAM206と、ハードディスク装置207とを有する。そして、各装置201〜207は、バス208に接続される。
ハードディスク装置207は、受付プログラム207a、生成プログラム207b、学習プログラム207c、分類プログラム207dを有する。CPU201は、受付プログラム207a、生成プログラム207b、学習プログラム207c、分類プログラム207dを読み出してRAM206に展開する。
受付プログラム207aは、受付プロセス206aとして機能する。生成プログラム207bは、生成プロセス206bとして機能する。学習プログラム207cは、学習プロセス206cとして機能する。分類プログラム207dは、分類プロセス206dとして機能する。
受付プロセス206aの処理は、受付部151の処理に対応する。変換プロセス206bの処理は、変換部152の処理に対応する。学習プロセス206cの処理は、学習部153の処理に対応する。分類プロセス206cの処理は、分類部154の処理に対応する。
なお、各プログラム207a〜207dについては、必ずしも最初からハードディスク装置207に記憶させておかなくてもよい。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ200が各プログラム207a〜207hを読み出して実行するようにしてもよい。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)コンピュータが実行する学習方法であって、
第一の正解ラベルが付与された入力データと、前記第一の正解ラベルとは異なる基準の正解ラベルとなる第二の正解ラベルが付与された入力データとを基にしてモデルの学習を行う場合において、
入力データに対応する前記第一の正解ラベルを基にして、複数の前記第二の正解ラベルを、前記第一の正解ラベルに対応する第二の正解ラベルに制限した正解ラベル候補に変換し、
前記第一の正解ラベルが付与された入力データが入力された場合に、前記正解ラベル候補に基づいて前記モデルの学習を行い、
前記第二の正解ラベルが付与された入力データが入力された場合に、前記第二の正解ラベルに基づいて前記モデルの学習を行う
処理を実行することを特徴とする学習方法。
(付記2)前記変換する処理は、前記第一の正解ラベルと前記第二の正解ラベルとの対応関係を定義したデータを基にして、複数の前記第二の正解ラベルのうち、前記第一の正解ラベルに対応する第二の正解ラベルを、前記モデルの学習時の正解ラベルの候補とすることを特徴とする付記1に記載の学習方法。
(付記3)前記学習を行う処理は、前記第一の正解ラベルが付与された入力データが入力された場合に、前記正解ラベル候補に基づく損失が最小化するように、前記モデルのパラメータを学習することを特徴とする付記1または2に記載の学習方法。
(付記4)前記学習を行う処理は、前記第二の正解ラベルが付与された入力データが入力された場合に、前記第二の正解ラベルに基づく損失が最小化するように、前記モデルのパラメータを学習することを特徴とする付記1、2または3に記載の学習方法。
(付記5)第一の正解ラベルが付与された入力データと、前記第一の正解ラベルとは異なる基準の正解ラベルとなる第二の正解ラベルが付与された入力データとを基にしてモデルの学習を行う場合において、
入力データに対応する前記第一の正解ラベルを基にして、複数の前記第二の正解ラベルを、前記第一の正解ラベルに対応する第二の正解ラベルに制限した正解ラベル候補を変換する変換部と、
前記第一の正解ラベルが付与された入力データが入力された場合に、前記正解ラベル候補に基づいて前記モデルの学習を行い、前記第二の正解ラベルが付与された入力データが入力された場合に、前記第二の正解ラベルに基づいて前記モデルの学習を行う学習部
を有することを特徴とする学習装置。
(付記6)前記変換部は、前記第一の正解ラベルと前記第二の正解ラベルとの対応関係を定義したデータを基にして、複数の前記第二の正解ラベルのうち、前記第一の正解ラベルに対応する第二の正解ラベルを、前記モデルの学習時の正解ラベルの候補とすることを特徴とする付記5に記載の学習装置。
(付記7)前記学習部は、前記第一の正解ラベルが付与された入力データが入力された場合に、前記正解ラベル候補に基づく損失が最小化するように、前記モデルのパラメータを学習することを特徴とする付記5または6に記載の学習装置。
(付記8)前記学習部は、前記第二の正解ラベルが付与された入力データが入力された場合に、前記第二の正解ラベルに基づく損失が最小化するように、前記モデルのパラメータを学習することを特徴とする付記5、6または7に記載の学習装置。
(付記9)コンピュータに、
第一の正解ラベルが付与された入力データと、前記第一の正解ラベルとは異なる基準の正解ラベルとなる第二の正解ラベルが付与された入力データとを基にしてモデルの学習を行う場合において、
入力データに対応する前記第一の正解ラベルを基にして、複数の前記第二の正解ラベルを、前記第一の正解ラベルに対応する第二の正解ラベルに制限した正解ラベル候補を生成し、
前記第一の正解ラベルが付与された入力データが入力された場合に、前記正解ラベル候補に基づいて前記モデルの学習を行い、
前記第二の正解ラベルが付与された入力データが入力された場合に、前記第二の正解ラベルに基づいて前記モデルの学習を行う
処理を実行させることを特徴とする学習プログラム。
(付記10)前記変換する処理は、前記第一の正解ラベルと前記第二の正解ラベルとの対応関係を定義したデータを基にして、複数の前記第二の正解ラベルのうち、前記第一の正解ラベルに対応する第二の正解ラベルを、前記モデルの学習時の正解ラベルの候補とすることを特徴とする付記9に記載の学習プログラム。
(付記11)前記学習を行う処理は、前記第一の正解ラベルが付与された入力データが入力された場合に、前記正解ラベル候補に基づく損失が最小化するように、前記モデルのパラメータを学習することを特徴とする付記9または10に記載の学習プログラム。
(付記12)前記学習を行う処理は、前記第二の正解ラベルが付与された入力データが入力された場合に、前記第二の正解ラベルに基づく損失が最小化するように、前記モデルのパラメータを学習することを特徴とする付記9、10または11に記載の学習プログラム。
100 学習装置
110 通信部
120 入力部
130 表示部
140 記憶部
141 第1教師データ
142 第2教師データ
143 パラメータ
144 制約表データ
145 学習結果モデル
150 制御部
151 受付部
152 変換部
153 学習部
154 分類部

Claims (6)

  1. コンピュータが実行する学習方法であって、
    第一の正解ラベルが付与された入力データと、前記第一の正解ラベルとは異なる基準の正解ラベルとなる第二の正解ラベルが付与された入力データとを基にしてモデルの学習を行う場合において、
    入力データに対応する前記第一の正解ラベルを基にして、複数の前記第二の正解ラベルを、前記第一の正解ラベルに対応する第二の正解ラベルに制限した正解ラベル候補に変換し、
    前記第一の正解ラベルが付与された入力データが入力された場合に、前記正解ラベル候補に基づいて前記モデルの学習を行い、
    前記第二の正解ラベルが付与された入力データが入力された場合に、前記第二の正解ラベルに基づいて前記モデルの学習を行う
    処理を実行することを特徴とする学習方法。
  2. 前記変換する処理は、前記第一の正解ラベルと前記第二の正解ラベルとの対応関係を定義したデータを基にして、複数の前記第二の正解ラベルのうち、前記第一の正解ラベルに対応する第二の正解ラベルを、前記モデルの学習時の正解ラベルの候補とすることを特徴とする請求項1に記載の学習方法。
  3. 前記学習を行う処理は、前記第一の正解ラベルが付与された入力データが入力された場合に、前記正解ラベル候補に基づく損失が最小化するように、前記モデルのパラメータを学習することを特徴とする請求項1または2に記載の学習方法。
  4. 前記学習を行う処理は、前記第二の正解ラベルが付与された入力データが入力された場合に、前記第二の正解ラベルに基づく損失が最小化するように、前記モデルのパラメータを学習することを特徴とする請求項1、2または3に記載の学習方法。
  5. 第一の正解ラベルが付与された入力データと、前記第一の正解ラベルとは異なる基準の正解ラベルとなる第二の正解ラベルが付与された入力データとを基にしてモデルの学習を行う場合において、
    入力データに対応する前記第一の正解ラベルを基にして、複数の前記第二の正解ラベルを、前記第一の正解ラベルに対応する第二の正解ラベルに制限した正解ラベル候補を変換する変換部と、
    前記第一の正解ラベルが付与された入力データが入力された場合に、前記正解ラベル候補に基づいて前記モデルの学習を行い、前記第二の正解ラベルが付与された入力データが入力された場合に、前記第二の正解ラベルに基づいて前記モデルの学習を行う学習部
    を有することを特徴とする学習装置。
  6. コンピュータに、
    第一の正解ラベルが付与された入力データと、前記第一の正解ラベルとは異なる基準の正解ラベルとなる第二の正解ラベルが付与された入力データとを基にしてモデルの学習を行う場合において、
    入力データに対応する前記第一の正解ラベルを基にして、複数の前記第二の正解ラベルを、前記第一の正解ラベルに対応する第二の正解ラベルに制限した正解ラベル候補を生成し、
    前記第一の正解ラベルが付与された入力データが入力された場合に、前記正解ラベル候補に基づいて前記モデルの学習を行い、
    前記第二の正解ラベルが付与された入力データが入力された場合に、前記第二の正解ラベルに基づいて前記モデルの学習を行う
    処理を実行させることを特徴とする学習プログラム。
JP2018180477A 2018-09-26 2018-09-26 機械学習方法、機械学習装置および機械学習プログラム Active JP7200571B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018180477A JP7200571B2 (ja) 2018-09-26 2018-09-26 機械学習方法、機械学習装置および機械学習プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018180477A JP7200571B2 (ja) 2018-09-26 2018-09-26 機械学習方法、機械学習装置および機械学習プログラム

Publications (2)

Publication Number Publication Date
JP2020052644A true JP2020052644A (ja) 2020-04-02
JP7200571B2 JP7200571B2 (ja) 2023-01-10

Family

ID=69997161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018180477A Active JP7200571B2 (ja) 2018-09-26 2018-09-26 機械学習方法、機械学習装置および機械学習プログラム

Country Status (1)

Country Link
JP (1) JP7200571B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022180796A1 (ja) * 2021-02-26 2022-09-01 日本電気株式会社 分類システム、方法およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006309485A (ja) * 2005-04-28 2006-11-09 Nec Corp 能動学習方法および能動学習システム
JP2010122880A (ja) * 2008-11-19 2010-06-03 Hitachi Ltd データ集計処理方法及びシステム
JP2016186515A (ja) * 2015-03-27 2016-10-27 日本電信電話株式会社 音響特徴量変換装置、音響モデル適応装置、音響特徴量変換方法、およびプログラム
WO2018047225A1 (ja) * 2016-09-06 2018-03-15 三菱電機株式会社 学習装置、信号処理装置および学習方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006309485A (ja) * 2005-04-28 2006-11-09 Nec Corp 能動学習方法および能動学習システム
JP2010122880A (ja) * 2008-11-19 2010-06-03 Hitachi Ltd データ集計処理方法及びシステム
JP2016186515A (ja) * 2015-03-27 2016-10-27 日本電信電話株式会社 音響特徴量変換装置、音響モデル適応装置、音響特徴量変換方法、およびプログラム
WO2018047225A1 (ja) * 2016-09-06 2018-03-15 三菱電機株式会社 学習装置、信号処理装置および学習方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KANG, M. ET AL.: "Chapter 5 Machine Learning: Data Pre-processing", PROGNOSTICS AND HEALTH MANAGEMENT OF ELECTRONICS: FUNDAMENTALS,MACHINE LEARNING, AND THE INTERNET OF, JPN6022021176, 24 August 2018 (2018-08-24), pages 111 - 130, ISSN: 0004785940 *
YOUNG-BUM KIM ET AL.: ""New Transfer Learning Techniques for Disparate Label Sets"", PROCEEDINGS OF THE 53RD ANNUAL MEETING OF THE ASSOCIATION FOR COMPUTATIONAL LINGUISTICS AND THE 7TH, JPN6022049126, 2015, pages 473 - 482, ISSN: 0004925125 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022180796A1 (ja) * 2021-02-26 2022-09-01 日本電気株式会社 分類システム、方法およびプログラム

Also Published As

Publication number Publication date
JP7200571B2 (ja) 2023-01-10

Similar Documents

Publication Publication Date Title
US10733431B2 (en) Systems and methods for optimizing pose estimation
US10796452B2 (en) Optimizations for structure mapping and up-sampling
US10748066B2 (en) Projection neural networks
CN110852447B (zh) 元学习方法和装置、初始化方法、计算设备和存储介质
US11120373B2 (en) Adaptive task assignment
Li et al. Max-margin deep generative models for (semi-) supervised learning
US11620557B2 (en) Online trained object property estimator
WO2020186887A1 (zh) 一种连续小样本图像的目标检测方法、装置及设备
US11727270B2 (en) Cross data set knowledge distillation for training machine learning models
EP3493106A1 (en) Optimizations for dynamic object instance detection, segmentation, and structure mapping
US20200042903A1 (en) Multi-layered machine learning system to support ensemble learning
US11561983B2 (en) Online trained object property estimator
Viaene et al. Cost-sensitive learning and decision making revisited
CN111898768A (zh) 数据处理方法、装置、设备及介质
US11694035B2 (en) Hypernym detection using strict partial order networks
CN112288572B (zh) 业务数据处理方法及计算机设备
CN110909222A (zh) 基于聚类的用户画像建立方法、装置、介质及电子设备
US20160328466A1 (en) Label filters for large scale multi-label classification
JP5311899B2 (ja) パターン検出器の学習装置、学習方法及びプログラム
CN111459898A (zh) 机器学习方法、计算机可读记录介质以及机器学习设备
CN111858947A (zh) 自动知识图谱嵌入方法和系统
US11188795B1 (en) Domain adaptation using probability distribution distance
JPWO2017183548A1 (ja) 情報処理システム、情報処理方法、及び、記録媒体
CN112420125A (zh) 分子属性预测方法、装置、智能设备和终端
US11610126B1 (en) Temporal-clustering invariance in irregular time series data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210610

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221205

R150 Certificate of patent or registration of utility model

Ref document number: 7200571

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150