JP7230521B2 - 学習方法、学習プログラムおよび学習装置 - Google Patents

学習方法、学習プログラムおよび学習装置 Download PDF

Info

Publication number
JP7230521B2
JP7230521B2 JP2019006133A JP2019006133A JP7230521B2 JP 7230521 B2 JP7230521 B2 JP 7230521B2 JP 2019006133 A JP2019006133 A JP 2019006133A JP 2019006133 A JP2019006133 A JP 2019006133A JP 7230521 B2 JP7230521 B2 JP 7230521B2
Authority
JP
Japan
Prior art keywords
data
network
learning
feature
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019006133A
Other languages
English (en)
Other versions
JP2020115256A (ja
Inventor
孝 河東
健人 上村
優 安富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019006133A priority Critical patent/JP7230521B2/ja
Priority to US16/742,033 priority patent/US11562233B2/en
Priority to EP20151932.9A priority patent/EP3683737A1/en
Priority to CN202010047461.XA priority patent/CN111445022A/zh
Publication of JP2020115256A publication Critical patent/JP2020115256A/ja
Application granted granted Critical
Publication of JP7230521B2 publication Critical patent/JP7230521B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Description

本発明は、学習方法等に関する。
深層学習モデルを学習する場合、訓練データ(学習データ)の量は性能に大きく寄与する要因であり、訓練データの量は多いほど好ましい。訓練データが不足し、訓練データにないタイプの適用データを、訓練データで学習した深層学習モデルに適用すると、適切な出力結果を得られず、失敗する可能性が高くなる。
また、顧客データを用いるビジネスの場では、契約や情報漏洩のリスクに鑑みると、ある顧客データをいつまでも保持したり、別の顧客タスクなどに使いまわしたりすることが難しいため、訓練データが不足する場合がある。
訓練データが不足する場合、データ拡張(data augmentation)を行うことが一般的である。データ拡張は、オリジナルの訓練データに対して、ノイズを付加、平行移動、欠損等の加工を行うものであり、訓練データの範囲を適用データの範囲に広げることができる。
ここで、オリジナルの訓練データを、深層学習モデルに入力することで得られる中間特徴量を保持することで、オリジナルの訓練データを保持することなく、新規に深層学習モデルを学習する際に使用可能なデータ量を増加させる従来技術がある。
図12は、従来技術を説明するための図である。図12において、深層学習モデル10は、第1NN(Neural Network)10aと、第2NN10bとを有する。第1NN10aは、訓練データが入力された場合、中間特徴量を算出するNNである。第2NN10bは、中間特徴量が入力された場合、出力ラベルを算出するNNである。第1NN10aおよび第2NN10bのパラメータは、データベース10Pに格納された顧客Pの複数の訓練データを用いて学習済みとする。学習が終了すると、データベース10Pの情報は、顧客Pに返却される(または、破棄される)。
たとえば、訓練データxP1を、第1NN10aに入力すると、中間特徴量zP1が算出される。中間特徴量zP1を、第2NN10bに入力すると、出力ラベルyP1’が算出される。従来技術では、データベース10Pの情報を返却する前に、訓練データxP1から算出される、中間特徴量zP1をデータベース13に保存する。従来技術は、データベース10Pに格納された他の訓練データから算出される中間特徴量も、データベース13に保存する。
続いて、従来技術は、顧客Qの複数の訓練データを保存したデータベース11Qと、データベース13とを用いて、新規の深層学習モデル11を学習(逐次学習)する。深層学習モデル11は、第1NN11aと、第2NN11bとを有する。従来技術は、第1NN11aのパラメータとして、第1NN10aの学習済みのパラメータを設定する。従来技術は、第2NN11bのパラメータとして、第2NN10bの学習済みのパラメータを設定する。
たとえば、データベース11Qの訓練データxQ1を、第1NN11aに入力すると、中間特徴量zQ1が算出される。中間特徴量zQ1を、第2NN11bに入力すると、出力ラベルyQ1’が算出される。従来技術は、出力ラベルyQ1’が正解ラベル(図示略)に近づくように、第2NN11bのパラメータを学習する。
また、データベース13の中間特徴量zP1を、第2NN11bに入力すると、出力ラベルyP1’が算出される。従来技術は、出力ラベルyP1’が正解ラベル(図示略)に近づくように、第2NN11bのパラメータを学習する。
上記のように、従来技術では、第2NN11bのパラメータを学習する場合、データベース11Qの訓練データから算出される中間特徴量に加えて、データベース13の中間特徴量を用いて、学習を行う。このため、データベース10Pを顧客Pに返却(破棄)しても、新規の深層学習モデルの学習時に使用可能なデータ量を増加させることができる。
図12で説明した従来技術では、学習済みの第1NN50aに訓練データを入力することで算出される中間特徴量が、自明な解による中間特徴量となることを抑止することができないという問題がある。
図13は、従来技術の問題を説明するための図である。たとえば、第1NN10aがタスクに対して冗長な場合、訓練データzPを、第1NN10aに入力して算出される中間特徴量zPが、出力ラベルyP’そのものになる可能性がある。中間特徴量zPが出力ラベルyP’そのものであると、第1NN10aのみで、出力ラベルを推定可能である。この場合、第2NN10bは、中間特徴量zPを入力された際に、出力ラベルyP’(中間特徴量zPそのもの)を出力する自明な写像を行うことになる。そうすると、データベース13に保存された中間特徴量zPは、第2NNを逐次学習するための情報が保存されていないことを意味し、2回目以降の逐次学習の精度が劣化してしまう。
1つの側面では、本発明は、訓練データから生成される中間特徴量を引き継ぐ逐次学習の精度を向上させることができる学習方法、学習プログラムおよび学習装置を提供することを目的とする。
第1の案では、コンピュータが次の処理を実行する。コンピュータは、学習モデルに含まれる第1ネットワークおよび第2ネットワークと、第1ネットワークに入力されるデータを復元するデコーダとを実行する。コンピュータは、第1ネットワークに元教師データを入力することで第1ネットワークから第1特徴量と第2特徴量とを生成する。コンピュータは、第1特徴量および第2特徴量をデコーダに入力することでデコーダから出力される復元データが元教師データに近づくように、学習モデルのパラメータと、デコーダのパラメータとを学習する。また、コンピュータは、第2特徴量を第2ネットワークに入力することで第2ネットワークから出力される出力データが、元教師データの正解データに近づくように、学習モデルのパラメータと、デコーダのパラメータとを学習する。
訓練データから生成される中間特徴量を引き継ぐ逐次学習の精度を向上させることができる。
図1は、参考技術の一例を説明するための図である。 図2は、本実施例に係る学習装置の処理を説明するための図である。 図3は、本実施例に係る学習装置の構成を示す機能ブロック図である。 図4は、本実施例に係る学習データベースのデータ構造の一例を示す図である。 図5は、本実施例に係る拡張訓練データテーブルのデータ構造の一例を示す図である。 図6は、本実施例に係るパラメータテーブルのデータ構造の一例を示す図である。 図7は、本実施例に係る参照特徴量データベースのデータ構造の一例を示す図である。 図8は、データ拡張の一例を説明するための図である。 図9は、本実施例に係る学習部の処理を説明するための図である。 図10は、本実施例に係る学習装置の処理手順を示すフローチャートである。 図11は、本実施例に係る学習装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。 図12は、従来技術を説明するための図である。 図13は、従来技術の問題を説明するための図である。
以下に、本願の開示する学習方法、学習プログラムおよび学習装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
本実施例に係る学習装置の説明を行う前に、参考技術について説明する。図1は、参考技術の一例を説明するための図である。学習対象となる深層学習モデル20は、第1NN20aと、第2NN20bとを有する。第1NN20aは、訓練データが入力された場合、中間特徴量を算出するNNである。第2NN20bは、中間特徴量が入力された場合、出力ラベルを算出するNNである。データベース10Pは、顧客Pのオリジナルの訓練データxPを保存する。また、訓練データxPに対応する参照特徴量zPが設定される。
参考技術は、訓練データxPに対してデータ拡張を実行し、訓練データxP.1,xP.2,xP.3を生成する。データ拡張は、オリジナルの訓練データに対して、ノイズを付加、平行移動、欠損等の加工を行うものである。
参考技術は、訓練データxP.1,xP.2,xP.3を第1NN20aに入力して、中間特徴量zP.1,zP.2,zP.3を算出する。参考技術は、中間特徴量zP.1,zP.2,zP.3を第2NN20bに入力して、出力ラベルyP.1’,yP.2’,yP.3’を算出する。参考技術は、出力ラベルyP.1’,yP.2’,yP.3’が、それぞれの正解ラベル(図示略)に近づくように、第1NN20aのパラメータおよび第2NN20bのパラメータの学習を行う。
また、参考技術は、中間特徴量zP.1,zP.2,zP.3が、参照特徴量zPに近づくような「制約」を与え、第1NN20aのパラメータ、参照特徴量zPの学習を行う。参考技術は、学習した参照特徴量zPをデータベース13に保存する。データベース13に保存された参照特徴量zPは、他の顧客の深層学習モデルの学習を新規に行う場合に利用される。
ここで、参考技術のように、各中間特徴量zP.1,zP.2,zP.3をデータベース13に保存する代わりに、各中間特徴量zP.1~zP.3を集約した参照特徴量zPを保存することで、データベース13のデータ量を削減することが可能となる。しかし、参照特徴量zPは、図12で説明した中間特徴量zPと比較して、出力ラベルyP.1’,yP.2’,yP.3’により近い情報となる。すなわち、データ拡張を行う場合に、第1NN10aにデータ拡張の違いを吸収する制約をかけると、より、参照特徴量(中間特徴量)が出力ラベルに近くなる。これは、第2NN10bの部分が自明な写像になっていれば、容易に制約を満たすことができるためである。
このため、参考技術でも、従来技術と同様にして、参照特徴量が、自明な解による中間特徴量となることを抑止することができず、2回目以降の学習において、参照特徴量を用いると、学習精度が劣化する。
次に、本実施例に係る学習装置の処理の一例について説明する。図2は、本実施例に係る学習装置の処理を説明するための図である。図2に示すように、深層学習モデル50は、第1NN50aと、第2NN50bと、デコーダ(Decoder)50cとを有する。学習データベース141には、オリジナルの訓練データxPが保存される。学習データベース141には、他の訓練データが保存される。
第1NN50aは、訓練データが入力された場合、中間特徴量を算出するNNである。第1NN50aにより算出される中間特徴量は、第1特徴量と、第2特徴量とを有する。たとえば、第1NN50aの出力層に含まれる複数の出力ノード(図示略)のうち、第1特徴量を出力するノードと、第2特徴量を出力するノードとが予め設定されているものとする。第1特徴量の次元は、第2特徴量の次元と比較して十分小さいものとする。
第2NN50bは、第2特徴量が入力された場合、出力ラベルを算出する処理部である。デコーダ50cは、第1特徴量と第2特徴量とが入力された場合、復元データを算出する処理部である。
学習装置は、オリジナルの訓練データxPに対してデータ拡張を実行し、訓練データzP.1を生成する。学習装置が、訓練データP.1を第1NN50aに入力すると、第1NN50aから第1特徴量vP.1と、第2特徴量zP.1が出力される。
学習装置が、第2特徴量zP.1を第2NN50bに入力すると、第2NN50bから出力ラベルyP.1’が出力される。学習装置が、第1特徴量vP.1および第2特徴量zP.1をデコーダ50cに入力すると、復元データxP.1’が出力される。
学習装置は、出力ラベルyP.1’と、オリジナルの訓練データxPの正解ラベル(図示略)とが近づくように、第1NN50aのパラメータおよび第2NN50bのパラメータを学習する。学習装置は、復元データxP.1’と、訓練データxPとの類似度が上がるように、第1NNのパラメータおよびデコーダ50cのパラメータを学習する。また、第2特徴量zP.1が制約を満たすように、参照特徴量zPと、第1NN50aのパラメータを学習する。たとえば、制約は、同一のオリジナルの訓練データからデータ拡張された複数の訓練データであって、この複数の訓練データから算出される各第2特徴量と、参照特徴量zPとの類似度が上がるという制約である。学習装置は、学習した参照特徴量zPを参照特徴量データベース144に保存して、2回目以降の学習において利用する。
ここで、デコーダ50cは、第1特徴量と第2特徴量とを元にして元の訓練データ(たとえば、xP.1)を復元するものであるため、元の訓練データの特徴情報は、第1特徴量および第2特徴量に分散して保存される。第1特徴量の次元は小さく設定されているため、第1特徴量よりも第2特徴量に、元の訓練データの特徴情報が保存される。第2特徴量に保存される特徴情報には制約があるため、制約を満たせない特徴情報は、第1特徴量に保存される。これによって、第2特徴量は、復元を行うための特徴情報の大部分が残り、自明な特徴になること(第2特徴量が出力ラベルそのものに近い情報となること)を抑止することができる。
すなわち、学習装置が、第1NN50aから出力される中間特徴量を第1特徴量および第2特徴量に分割して、各パラメータの学習を行うと、訓練データのうち、本来保存したかった制約を満たす大部分の情報を、第2特徴量(参照特徴量)に残すことができる。
次に、本実施例に係る学習装置の構成の一例について説明する。図3は、本実施例に係る学習装置の構成を示す機能ブロック図である。図3に示すように、この学習装置100は、通信部110と、入力部120と、表示部130と、記憶部140と、制御部150とを有する。
通信部110は、ネットワーク等を介して外部装置(図示略)とデータ通信を実行する処理部である。通信部110は、通信装置に対応する。たとえば、通信部110は、後述する学習データベース141の情報を、各顧客の外部装置等から受信する。後述する制御部150は、通信部110を介して、外部装置とデータをやり取りする。
入力部120は、各種の情報を学習装置100に入力するための入力装置である。たとえば、入力部120は、キーボードやマウス、タッチパネル等に対応する。
表示部130は、制御部150から出力される各種の情報を表示する表示装置である。たとえば、表示部130は、液晶ディスプレイ、タッチパネル等に対応する。
記憶部140は、学習データベース141と、拡張訓練データテーブル142と、パラメータテーブル143と、参照特徴量データベース144とを有する。記憶部140は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。
学習データベース141は、各顧客から通知される訓練データの情報を保存する。図4は、本実施例に係る学習データベースのデータ構造の一例を示す図である。図4に示すように、この学習データベース141は、データ番号と、訓練データと、正解ラベルとを対応付ける。データ番号は、オリジナルの訓練データを一意に識別する番号である。たとえば、訓練データ「xP1」に対応する正解ラベルは「yP1」であり、訓練データ「xP1」のデータ番号は「p001」である。
拡張訓練データテーブル142は、オリジナルの訓練データを元にデータ拡張された訓練データを保持するテーブルである。図5は、本実施例に係る拡張訓練データテーブルのデータ構造の一例を示す図である。図5に示すように、この拡張訓練データテーブル142は、データ番号と、データ拡張された訓練データと、正解ラベルとを対応付ける。データ番号は、データ拡張の元となるオリジナルの訓練データを一意に識別する番号である。データ拡張された訓練データに対応する正解ラベルは、データ番号に対応するオリジナルの訓練データに対応付けられた正解ラベルとなる。
パラメータテーブル143は、第1NN50aのパラメータ、第2NN50bのパラメータ、デコーダ50cのパラメータを保存するテーブルである。図6は、本実施例に係るパラメータテーブルのデータ構造の一例を示す図である。図6に示すように、パラメータテーブル143は、識別情報と、パラメータとを対応付ける。識別情報は、各NN、デコーダを識別する情報である。パラメータは、各NNに設定されるパラメータである。NNは複数の層を有し、各層には複数のノードが含まれ、各ノードがエッジで結ばれる構造となっている。各層は、活性化関数と呼ばれる関数とバイアス値とを持ち、エッジは、重みを持つ。デコーダもNNと同様にして、複数の層を有し、各層には複数のノードが含まれ、各ノードがエッジで結ばれる構造となっている。本実施例では、NN、デコーダに設定されるバイアス値、重み等をまとめて「パラメータ」と表記する。
参照特徴量データベース144は、オリジナルの各訓練データに対してそれぞれ設定される参照特徴量を保存するデータベースである。図7は、本実施例に係る参照特徴量データベースのデータ構造の一例を示す図である。図7に示すように、参照特徴量データベース144は、データ番号と、参照特徴量と、正解ラベルとを対応付ける。データ番号は、オリジナルの訓練データを一意に識別する番号である。参照特徴量の初期値は予め設定されているものとする。正解ラベルは、データ番号に対応するオリジナルの訓練データの正解ラベルとなる。
図3の説明に戻る。制御部150は、取得部150aと、拡張部150bと、特徴量生成部150cと、学習部150dとを有する。制御部150は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などによって実現できる。また、制御部150は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによっても実現できる。
取得部150aは、各顧客の外部装置等から、学習データベース141の情報を取得する処理部である。取得部150aは、取得した学習データベース141の情報を、学習データベース141に格納する。
拡張部150bは、学習データベース141に保存されたオリジナルの訓練データに対してデータ拡張(data augmentation)を行うことで、複数の訓練データを生成する処理部である。たとえば、拡張部150bが行うデータ拡張は、訓練データにノイズ付加、平行移動、欠損等の加工する処理に対応する。
拡張部150bは、オリジナルの訓練データのデータ番号と、データ拡張した訓練データと、オリジナルの訓練データに対応する正解ラベルとを対応付けて、拡張訓練データテーブル142に保存する。拡張部150bは、学習データベース141に保存される各訓練データに対して、上記処理を繰り返し実行する。
図8は、データ拡張の一例を説明するための図である。図8に示す例では、訓練データ群20Aには、訓練データ21A-1~21A-3、訓練データ22A-1~22A-3、訓練データ23A-1~23A-3が含まれる。たとえば、訓練データ群20Aには、正解ラベル「A」が対応付けられる。
訓練データ21A-2、21A-3は、オリジナルの訓練データ21A-1に対してデータ拡張することで得られるデータである。訓練データ22A-2、22A-3は、オリジナルの訓練データ22A-1に対してデータ拡張することで得られるデータである。訓練データ23A-2、23A-3は、オリジナルの訓練データ23A-1に対してデータ拡張することで得られるデータである。
訓練データ群20Bには、訓練データ21B-1~21B-3,訓練データ22B-1~22B-3,訓練データ23B-1~23B-3が含まれる。たとえば、訓練データ群20Aには、正解ラベル「B」が対応付けられる。
訓練データ21B-2、21B-3は、オリジナルの訓練データ21B-1に対してデータ拡張することで得られるデータである。訓練データ22B-2、22B-3は、オリジナルの訓練データ22B-1に対してデータ拡張することで得られるデータである。訓練データ23B-2、23B-3は、オリジナルの訓練データ23B-1に対してデータ拡張することで得られるデータである。
一例として、図8を用いて説明すると、拡張部150bは、訓練データ21A-1に対するデータ拡張を行うことで、訓練データ21A-2、21A-3を生成する。
特徴量生成部150cは、データ拡張された複数の訓練データを、第1NN50aに入力し、訓練データ毎に、第1特徴量および第2特徴量を生成する処理部である。以下において、特徴量生成部150cの処理の一例について説明する。
特徴量生成部150cは、第1NN50aを実行し、パラメータテーブル143に格納されたパラメータθ1を第1NN50aのパラメータとして設定する。第1NN50aの出力層に含まれる複数の出力ノード(図示略)のうち、第1特徴量を出力するノードと、第2特徴量を出力するノードとが予め設定されているものとする。第1特徴量の次元は、第2特徴量の次元と比較して十分小さいものとする。
特徴量生成部150cは、拡張訓練データテーブル142から、データ番号と、データ番号に紐付く複数の訓練データを取得し、取得した複数の訓練データを、順に第1NN50aに入力する。特徴量生成部150cは、第1NN50aに設定されたパラメータθ1を用いて、複数の訓練データの第1特徴量および第2特徴量をそれぞれ算出する。
特徴量生成部150cは、データ番号と、第1特徴量と、第2特徴量とを、学習部150dに出力する。特徴量生成部150cは、拡張訓練データテーブル142の各レコードについて、上記処理を繰り返し実行する。
学習部150dは、誤差逆伝播法等を用いて、第1NN50aのパラメータθ1、第2NN50aのパラメータθ2、デコーダ50cのパラメータθ3、参照特徴量を学習する処理部である。
図9は、本実施例に係る学習部の処理を説明するための図である。学習部150dは、第1NN50aと、第2NN50bと、デコーダ50cを実行する。学習部150dは、第2NN50bにパラメータθ2を設定し、デコーダ50cにパラメータθ3を設定する。
たとえば、学習データベース141に保存されたオリジナルの訓練データxP1がデータ拡張されることで、訓練データxP1.1が生成される。学習データベース141に保存されたオリジナルの訓練データxP2がデータ拡張されることで、訓練データxP1.2が生成される。訓練データxP1.1が、第1NN50aに入力されることで、第1特徴量vP1.1と、第2特徴量zP1.1とが生成される。訓練データxP2.1が、第1NN50aに入力されることで、第1特徴量vP2.1と、第2特徴量zP2.1とが生成される。訓練データxP1に対応する参照特徴量をzP1とする。訓練データxP2に対応する参照特徴量をzP2とする。図示を省略するが、訓練データxP1の正解ラベルを「yP1」とする。訓練データxP2の正解ラベルを「yP2」とする。
学習部150dは、第1特徴量vP1.1と、第2特徴量zP1.1を特徴量生成部150cから取得し、データ番号をキーとして、対応する参照特徴量zP1を特定する。学習部150dは、第1特徴量vP2.1と、第2特徴量zP2.1を特徴量生成部150cから取得し、データ番号をキーとして、参照特徴量zP2を特定する。
学習部150dは、第2特徴量zP1.1を第2NN50bに入力し、パラメータθ2を基にして、出力ラベルyP1.1’を算出する。学習部150dは、第2特徴量zP2.1を第2NN50bに入力し、パラメータθ2を基にして、出力ラベルyP2.1’を算出する。学習部150dは、出力ラベルyP1.1’と正解ラベルyP1との誤差を計算する。学習部150dは、出力ラベルyP2.1’と正解ラベルyP2との誤差を計算する。学習部150dは、かかる誤差が小さくなるようにパラメータθ1,θ2を学習する。
学習部150dは、第1特徴量vP1.1および第2特徴量zP1.1をデコーダ50cに入力し、パラメータθ3を基にして、復元データxP1.1’を算出する。学習部150dは、復元データxP1.1’と、訓練データxP1との類似度を算出し、類似度が上がるように、パラメータθ1,θ3を学習する。学習部150dは、第1特徴量vP2.1および第2特徴量zP2.1をデコーダ50cに入力し、パラメータθ3を基にして、復元データxP2.1’を算出する。学習部150dは、復元データxP2.1’と、訓練データxP2との類似度を算出し、類似度が上がるように、パラメータθ1,θ3を学習する。
学習部150dは、第2特徴量zP1.1と、参照特徴量zP1との類似度を算出し、類似度が上がるように、参照特徴量zP1およびパラメータθ1を学習する。学習部150dは、第2特徴量zP2.1と、参照特徴量zP2との類似度を算出し、類似度が上がるように、参照特徴量zP2およびパラメータθ1を学習する。
すなわち、学習部150dは、出力ラベルと正解ラベルとの誤差を小さくし、復元データと元の訓練データとの類似度を上げ、参照特徴量と第2特徴量との類似度が上がるように、パラメータθ1~θ3、参照特徴量を学習する処理を繰り返し実行する。学習部150dは、学習したパラメータθ1~θ3を、パラメータテーブル143に保存する。学習部150dは、学習した各訓練データの参照特徴量を、正解ラベルと対応付けて、参照特徴量データベース144に保存する。
参照特徴量データベース144に登録された参照特徴量は、2回目以降の第2NNの学習に利用される。たとえば、学習部150dは、参照特徴量を第2NNに入力し、第2NNから出力される出力ラベルが、参照特徴量に対応付けられた正解ラベルに近づくように、第2NNのパラメータθ2の学習を行う。
学習部150dは、復元データと、訓練データとの類似度をどのように算出してもよい。たとえば、学習部150dは、復元データと、訓練データとの2乗誤差を算出し、2乗誤差の値を類似度として用いてもよい。この場合には、2乗誤差の値が小さくなるほど、類似度が上がることを意味する。
同様にして、学習部150dは、第2特徴量と、参照特徴量との類似度をどのように算出してもよい。たとえば、学習部150dは、第2特徴量と、参照特徴量との2乗誤差を算出し、2乗誤差の値を類似度として用いてもよい。この場合には、2乗誤差の値が小さくなるほど、類似度が上がることを意味する。
次に、本実施例に係る学習装置100の処理手順の一例について説明する。図10は、本実施例に係る学習装置の処理手順を示すフローチャートである。図10に示すように、学習装置100の拡張部150bは、学習データベース141から訓練データを取得する(ステップS101)。拡張部150bは、訓練データをデータ拡張する(ステップS102)。
学習装置100の特徴量生成部150cは、第1NN50aに訓練データを入力して、第1特徴量と第2特徴量とを生成する(ステップS103)。学習装置100の学習部150dは、第2特徴量を第2NN50bに入力し、第2NN50bから出力される出力ラベルと正解ラベルとの誤差が小さくなるように、パラメータθ1,θ2を学習する(ステップS104)。
学習部150dは、第1特徴量および第2特徴量をデコーダ50cに入力し、デコーダ50cから出力される復元データと、元データとの類似度が上がるように、パラメータθ1,θ2を学習する(ステップS105)。
学習部150dは、第2特徴量と参照特徴量との類似度が上がるように、パラメータθ1および参照特徴量を学習する(ステップS106)。学習部150dは、学習が終了していない場合には(ステップS107,No)、ステップS101に移行する。
一方、学習部150dは、学習が終了した場合には(ステップS107,Yes)、学習済みの参照特徴量を参照特徴量データベース144に保存する(ステップS108)。
次に、本実施例に係る学習装置100の効果について説明する。学習装置100は、第1NN50aから出力される中間特徴量を第1特徴量および第2特徴量に分割し、第2特徴量を第2NN50bに入力して算出される出力ラベルが、正解ラベルに近づくように、パラメータθ1、θ2を学習する。学習装置100は、第1特徴量および第2特徴量をデコーダ50cに入力して算出される復元データが、訓練データに類似するように、パラメータθ1、θ3を学習する。また、学習装置100は、第2特徴量が制約を満たすように、パラメータθ1、参照特徴量を学習する。
ここで、デコーダ50cは、第1特徴量と第2特徴量とを元にして元の訓練データ(たとえば、図2のxP)を復元するものであるため、訓練データxPの特徴情報は、第1特徴量および第2特徴量に分散して保存される。第1特徴量の次元は小さく設定されているため、第1特徴量よりも第2特徴量に、元の訓練データの特徴情報が保存される。第2特徴量に保存される特徴情報には制約があるため、制約を満たさない特徴情報は、第1特徴量に保存される。これによって、第2特徴量は、復元を行うための特徴情報の大部分が残り、自明な特徴になること(第2特徴量が出力ラベルそのものに近い情報となること)を抑止することができる。
参照特徴量データベース144の参照特徴量には、訓練データの特徴情報の大部分が残り、逐次学習時に保存する特徴量として意味のある情報となる。このため、参照特徴量を用いて、2回目以降の学習を行う場合に、第2NNの逐次学習を精度よく行うことができる。
学習装置100は、オリジナルの訓練データをデータ拡張した複数の訓練データを生成し、複数の訓練データを第1NN50aに入力した際に算出される第2特徴量が、参照特徴量に類似するように、参照特徴量および第1NN50aのパラメータθ1を学習する。これによって、複数の第2特徴量を集約した参照特徴量が、参照特徴量データベース144に保存できる。
また、学習装置100は、参照特徴量と、オリジナルの訓練データに対応する正解ラベルとを対応付けて、参照特徴量データベース144に保存する。学習装置100は、参照特徴量を第2NNに入力した際の出力ラベルが、参照特徴量に対応する正解ラベルに近づくように、第2NNのパラメータθ2を学習する。これによって、参照特徴量データベース144を用いて、2回目以降の逐次学習で利用可能なデータ量を増やすことができ、学習精度を向上させることができる。
次に、本実施例に示した学習装置100と同様の機能を実現するコンピュータのハードウェア構成の一例について説明する。図11は、本実施例に係る学習装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
図11に示すように、コンピュータ300は、各種演算処理を実行するCPU301と、ユーザからのデータの入力を受け付ける入力装置302と、ディスプレイ303とを有する。また、コンピュータ300は、記憶媒体からプログラム等を読み取る読み取り装置304と、有線または無線ネットワークを介して、外部装置等との間でデータの授受を行うインタフェース装置305とを有する。コンピュータ300は、各種情報を一時記憶するRAM306と、ハードディスク装置307とを有する。そして、各装置301~307は、バス308に接続される。
ハードディスク装置307は、取得プログラム307a、拡張プログラム307b、特徴量生成プログラム307c、学習プログラム307dを有する。CPU301は、取得プログラム307a、拡張プログラム307b、特徴量生成プログラム307c、学習プログラム307dを読み出してRAM306に展開する。
取得プログラム307aは、取得プロセス306aとして機能する。拡張プログラム307bは、拡張プロセス306bとして機能する。特徴量生成プログラム307cは、特徴量生成プロセス306cとして機能する。学習プログラム307dは、学習プロセス306dとして機能する。
取得プロセス306aの処理は、取得部150aの処理に対応する。拡張プロセス306bの処理は、拡張部150bの処理に対応する。特徴量生成プロセス306cの処理は、特徴量生成部150cの処理に対応する。学習プロセス306dの処理は、学習部150dの処理に対応する。
なお、各プログラム307a~307dについては、必ずしも最初からハードディスク装置307に記憶させておかなくてもよい。例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD-ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ300が各プログラム307a~307dを読み出して実行するようにしてもよい。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)コンピュータが実行する学習方法であって、
学習モデルに含まれる第1ネットワークおよび第2ネットワークと、前記第1ネットワークに入力されるデータを復元するデコーダとを実行し、
前記第1ネットワークに元教師データを入力することで前記第1ネットワークから第1特徴量と第2特徴量とを生成し、
前記第1特徴量および前記第2特徴量を前記デコーダに入力することで前記デコーダから出力される復元データが前記元教師データに近づき、また、前記第2特徴量を前記第2ネットワークに入力することで前記第2ネットワークから出力される出力データが、前記元教師データの正解データに近づくように、前記学習モデルのパラメータと、前記デコーダのパラメータとを学習する
処理を実行することを特徴とする学習方法。
(付記2)前記元教師データをデータ拡張されることで生成される複数の拡張教師データを前記第1ネットワークに入力することで算出される複数の第2特徴量に関して、同一の元教師データからデータ拡張された、複数の拡張教師データから算出される各第2特徴量が参照特徴量に類似するように、前記参照特徴量および前記第1ネットワークのパラメータを学習する処理を更に実行することを特徴とする付記1に記載の学習方法。
(付記3)前記参照特徴量と、前記同一の元教師データの正解データとを対応づけて記憶装置に保存する処理を更に実行することを特徴とする付記2に記載の学習方法。
(付記4)前記学習する処理は、前記記憶装置に保存された前記参照特徴量を、前記第2ネットワークに入力することで前記第2ネットワークから出力される出力データが、前記参照特徴量に対応する正解データに近づくように、前記第2ネットワークのパラメータを学習することを特徴とする付記3に記載の学習方法。
(付記5)コンピュータに、
学習モデルに含まれる第1ネットワークおよび第2ネットワークと、前記第1ネットワークに入力されるデータを復元するデコーダとを実行し、
前記第1ネットワークに元教師データを入力することで前記第1ネットワークから第1特徴量と第2特徴量とを生成し、
前記第1特徴量および前記第2特徴量を前記デコーダに入力することで前記デコーダから出力される復元データが前記元教師データに近づき、また、前記第2特徴量を前記第2ネットワークに入力することで前記第2ネットワークから出力される出力データが、前記元教師データの正解データに近づくように、前記学習モデルのパラメータと、前記デコーダのパラメータとを学習する
処理を実行させることを特徴とする学習プログラム。
(付記6)前記元教師データをデータ拡張されることで生成される複数の拡張教師データを前記第1ネットワークに入力することで算出される複数の第2特徴量に関して、同一の元教師データからデータ拡張された、複数の拡張教師データから算出される各第2特徴量が参照特徴量に類似するように、前記参照特徴量および前記第1ネットワークのパラメータを学習する処理を更に実行することを特徴とする付記5に記載の学習プログラム。
(付記7)前記参照特徴量と、前記同一の元教師データの正解データとを対応づけて記憶装置に保存する処理を更に実行することを特徴とする付記6に記載の学習プログラム。
(付記8)前記学習する処理は、前記記憶装置に保存された前記参照特徴量を、前記第2ネットワークに入力することで前記第2ネットワークから出力される出力データが、前記参照特徴量に対応する正解データに近づくように、前記第2ネットワークのパラメータを学習することを特徴とする付記7に記載の学習プログラム。
(付記9)学習モデルに含まれる第1ネットワークおよび第2ネットワークと、前記第1ネットワークに入力されるデータを復元するデコーダとを実行し、前記第1ネットワークに元教師データを入力することで前記第1ネットワークから第1特徴量と第2特徴量とを生成する特徴量生成部と、
前記第1特徴量および前記第2特徴量を前記デコーダに入力することで前記デコーダから出力される復元データが前記元教師データに近づき、また、前記第2特徴量を前記第2ネットワークに入力することで前記第2ネットワークから出力される出力データが、前記元教師データの正解データに近づくように、前記学習モデルのパラメータと、前記デコーダのパラメータとを学習する学習部と
を有することを特徴とする学習装置。
(付記10)前記学習部は、前記元教師データをデータ拡張されることで生成される複数の拡張教師データを前記第1ネットワークに入力することで算出される複数の第2特徴量に関して、同一の元教師データからデータ拡張された、複数の拡張教師データから算出される各第2特徴量が参照特徴量に類似するように、前記参照特徴量および前記第1ネットワークのパラメータを学習する処理を更に実行することを特徴とする付記9に記載の学習装置。
(付記11)前記学習部は、前記参照特徴量と、前記同一の元教師データの正解データとを対応づけて記憶装置に保存する処理を更に実行することを特徴とする付記10に記載の学習装置。
(付記12)前記学習部は、前記記憶装置に保存された前記参照特徴量を、前記第2ネットワークに入力することで前記第2ネットワークから出力される出力データが、前記参照特徴量に対応する正解データに近づくように、前記第2ネットワークのパラメータを学習することを特徴とする付記11に記載の学習装置。
100 学習装置
110 通信部
120 入力部
130 表示部
140 記憶部
141 学習データベース
142 拡張訓練データテーブル
143 パラメータテーブル
144 参照特徴量データベース
150 制御部
150a 取得部
150b 拡張部
150c 特徴量生成部
150d 学習部

Claims (5)

  1. コンピュータが実行する学習方法であって、
    学習モデルに含まれる第1ネットワークおよび第2ネットワークと、前記第1ネットワークに入力されるデータを復元するデコーダとを実行し、
    前記第1ネットワークに元教師データを入力することで前記第1ネットワークから第1特徴量と第2特徴量とを生成し、
    前記第1特徴量および前記第2特徴量を前記デコーダに入力することで前記デコーダから出力される復元データが前記元教師データに近づき、また、前記第2特徴量を前記第2ネットワークに入力することで前記第2ネットワークから出力される出力データが、前記元教師データの正解データに近づくように、前記学習モデルのパラメータと、前記デコーダのパラメータとを学習し、
    前記元教師データをデータ拡張されることで生成される複数の拡張教師データを前記第1ネットワークに入力することで算出される複数の第2特徴量に関して、同一の元教師データからデータ拡張された、複数の拡張教師データから算出される各第2特徴量が参照特徴量に類似するように、前記参照特徴量および前記第1ネットワークのパラメータを学習する
    処理を実行することを特徴とする学習方法。
  2. 前記参照特徴量と、前記同一の元教師データの正解データとを対応づけて記憶装置に保存する処理を更に実行することを特徴とする請求項に記載の学習方法。
  3. 前記学習する処理は、前記記憶装置に保存された前記参照特徴量を、前記第2ネットワークに入力することで前記第2ネットワークから出力される出力データが、前記参照特徴量に対応する正解データに近づくように、前記第2ネットワークのパラメータを学習することを特徴とする請求項に記載の学習方法。
  4. コンピュータに、
    学習モデルに含まれる第1ネットワークおよび第2ネットワークと、前記第1ネットワークに入力されるデータを復元するデコーダとを実行し、
    前記第1ネットワークに元教師データを入力することで前記第1ネットワークから第1特徴量と第2特徴量とを生成し、
    前記第1特徴量および前記第2特徴量を前記デコーダに入力することで前記デコーダから出力される復元データが前記元教師データに近づき、また、前記第2特徴量を前記第2ネットワークに入力することで前記第2ネットワークから出力される出力データが、前記元教師データの正解データに近づくように、前記学習モデルのパラメータと、前記デコーダのパラメータとを学習し、
    前記元教師データをデータ拡張されることで生成される複数の拡張教師データを前記第1ネットワークに入力することで算出される複数の第2特徴量に関して、同一の元教師データからデータ拡張された、複数の拡張教師データから算出される各第2特徴量が参照特徴量に類似するように、前記参照特徴量および前記第1ネットワークのパラメータを学習する
    処理を実行させることを特徴とする学習プログラム。
  5. 学習モデルに含まれる第1ネットワークおよび第2ネットワークと、前記第1ネットワークに入力されるデータを復元するデコーダとを実行し、前記第1ネットワークに元教師データを入力することで前記第1ネットワークから第1特徴量と第2特徴量とを生成する特徴量生成部と、
    前記第1特徴量および前記第2特徴量を前記デコーダに入力することで前記デコーダから出力される復元データが前記元教師データに近づき、また、前記第2特徴量を前記第2ネットワークに入力することで前記第2ネットワークから出力される出力データが、前記元教師データの正解データに近づくように、前記学習モデルのパラメータと、前記デコーダのパラメータとを学習し、前記元教師データをデータ拡張されることで生成される複数の拡張教師データを前記第1ネットワークに入力することで算出される複数の第2特徴量に関して、同一の元教師データからデータ拡張された、複数の拡張教師データから算出される各第2特徴量が参照特徴量に類似するように、前記参照特徴量および前記第1ネットワークのパラメータを学習する学習部と
    を有することを特徴とする学習装置。
JP2019006133A 2019-01-17 2019-01-17 学習方法、学習プログラムおよび学習装置 Active JP7230521B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019006133A JP7230521B2 (ja) 2019-01-17 2019-01-17 学習方法、学習プログラムおよび学習装置
US16/742,033 US11562233B2 (en) 2019-01-17 2020-01-14 Learning method, non-transitory computer readable recording medium, and learning device
EP20151932.9A EP3683737A1 (en) 2019-01-17 2020-01-15 Learning method, learning program, and learning device
CN202010047461.XA CN111445022A (zh) 2019-01-17 2020-01-16 学习方法、计算机可读记录介质和学习装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019006133A JP7230521B2 (ja) 2019-01-17 2019-01-17 学習方法、学習プログラムおよび学習装置

Publications (2)

Publication Number Publication Date
JP2020115256A JP2020115256A (ja) 2020-07-30
JP7230521B2 true JP7230521B2 (ja) 2023-03-01

Family

ID=69172669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019006133A Active JP7230521B2 (ja) 2019-01-17 2019-01-17 学習方法、学習プログラムおよび学習装置

Country Status (4)

Country Link
US (1) US11562233B2 (ja)
EP (1) EP3683737A1 (ja)
JP (1) JP7230521B2 (ja)
CN (1) CN111445022A (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007241895A (ja) 2006-03-10 2007-09-20 Oki Electric Ind Co Ltd データ分析装置およびデータ分析方法
WO2018020277A1 (en) 2016-07-28 2018-02-01 Google Llc Domain separation neural networks
JP2018139103A (ja) 2016-12-13 2018-09-06 アクシス アーベー ニューラルネットワークをトレーニングするための方法、コンピュータプログラム製品、およびデバイス

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06119431A (ja) * 1992-10-03 1994-04-28 Ricoh Co Ltd ワイヤボンダー等におけるパターン認識方法及び装置
US10929987B2 (en) * 2017-08-16 2021-02-23 Nvidia Corporation Learning rigidity of dynamic scenes for three-dimensional scene flow estimation
US11106975B2 (en) * 2017-10-20 2021-08-31 Asapp, Inc. Fast neural network implementations by increasing parallelism of cell computations
US10531415B2 (en) * 2018-03-02 2020-01-07 DeepSig Inc. Learning communication systems using channel approximation
US11101029B2 (en) * 2018-07-17 2021-08-24 Petuum Inc. Systems and methods for predicting medications to prescribe to a patient based on machine learning
US10430946B1 (en) * 2019-03-14 2019-10-01 Inception Institute of Artificial Intelligence, Ltd. Medical image segmentation and severity grading using neural network architectures with semi-supervised learning techniques

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007241895A (ja) 2006-03-10 2007-09-20 Oki Electric Ind Co Ltd データ分析装置およびデータ分析方法
WO2018020277A1 (en) 2016-07-28 2018-02-01 Google Llc Domain separation neural networks
JP2018139103A (ja) 2016-12-13 2018-09-06 アクシス アーベー ニューラルネットワークをトレーニングするための方法、コンピュータプログラム製品、およびデバイス

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Thomas Robert, Nicolas Thome and Matthieu Cord,HybridNet: Classification and Reconstruction Cooperation for Semi-Supervised Learning,Proceedings of the European Conference on Computer Vision (ECCV) [online],2018年,pp. 153-169, https://openaccess.thecvf.com/content_ECCV_2018/papers/Thomas_Robert_HybridNet_Classification_and_ECCV_2018_paper.pdf,[2022年8月9日検索]

Also Published As

Publication number Publication date
JP2020115256A (ja) 2020-07-30
CN111445022A (zh) 2020-07-24
EP3683737A1 (en) 2020-07-22
US11562233B2 (en) 2023-01-24
US20200234122A1 (en) 2020-07-23

Similar Documents

Publication Publication Date Title
Shahbaz et al. Inferring mealy machines
Scheinberg et al. Self-correcting geometry in model-based algorithms for derivative-free unconstrained optimization
Ananieva et al. Implicit constraints in partial feature models
Graham et al. Robust incremental SLAM with consistency-checking
US9652360B2 (en) Crawling for extracting a model of a GUI-based application
JP7279368B2 (ja) 学習方法、学習プログラムおよび学習装置
Yao et al. Consistency checking of UML dynamic models based on petri net techniques
Solé et al. Region-based foldings in process discovery
JP7230521B2 (ja) 学習方法、学習プログラムおよび学習装置
JP5244750B2 (ja) テストケース生成装置およびその方法
Raghavan et al. Test sequencing problems arising in test planning and design for testability
Yue et al. An efficient adaptive graph anonymization framework for incremental data publication
Morris et al. Quantifying non-Markovian memory in a superconducting quantum computer
CN107885797A (zh) 一种基于结构相关性的多模式图匹配方法
Popovic et al. A generic model-based test case generator
Amrouch et al. Design close to the edge for advanced technology using machine learning and brain-inspired algorithms
Höger Dynamic structural analysis for DAEs
BELL et al. Model-based mutation testing using pushdown automata
Schlie et al. Reengineering variants of matlab/simulink software systems
Megdiche et al. LPHOM results for OAEI 2016.
JP7156049B2 (ja) 学習方法、学習プログラムおよび学習装置
Tatale et al. A Survey on Test Case Generation using UML Diagrams and Feasibility Study to Generate Combinatorial Logic Oriented Test Cases.
Li et al. Joint machine learning and human learning design with sequential active learning and outlier detection for linear regression problems
WO2020079815A1 (ja) 学習プログラム、学習方法および学習装置
Shao et al. Self-Adaptive Anomaly Detection With Deep Reinforcement Learning and Topology

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230130

R150 Certificate of patent or registration of utility model

Ref document number: 7230521

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150