JP7343032B2 - 学習装置、学習方法および学習プログラム - Google Patents
学習装置、学習方法および学習プログラム Download PDFInfo
- Publication number
- JP7343032B2 JP7343032B2 JP2022500205A JP2022500205A JP7343032B2 JP 7343032 B2 JP7343032 B2 JP 7343032B2 JP 2022500205 A JP2022500205 A JP 2022500205A JP 2022500205 A JP2022500205 A JP 2022500205A JP 7343032 B2 JP7343032 B2 JP 7343032B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- data
- neural network
- discriminator
- label
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Description
本発明は、学習装置、学習方法および学習プログラムに関する。
従来、多次元のデータを少数の次元を持つ潜在変数によって表現し、データの可視化を可能とする技術があり、センサデータを元にした人の行動分析でも利用可能である。ニューラルネットワークで構成されたGeneratorとDiscriminatorを持つGAN(Generative Adversarial Network)と呼ばれる教師なし学習フレームワークを発展させ、データから推定される潜在変数とは別に、推定しないノイズを説明するノイズ潜在変数を追加で用いることで、データからそのデータを生成する潜在変数を推定可能にするInfo-GANと呼ばれる技術がある。
このInfo-GANでさらに潜在変数の次元にデータの次元を対応させるDisentanglementにより潜在変数に変換したデータを意味のある形に可視化することが可能となる(例えば、非特許文献1参照)。
"InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets"、[online]、GitHub 、[2020年2月4日検索]、インターネット<https://arxiv.org/abs/1606.03657>
しかしながら、従来の技術では、多次元データを少数の次元の潜在変数上に表現する際、ある特徴のばらつきについては潜在変数上でも対応したばらつきが現れて欲しいが、別の特徴のばらつきについてはそうでないといったことがある。具体的には、センサデータ(撮影画像や、装着した慣性センサから取得される動きの値、装着した電極などから取得される生理信号など)を扱う際に、個人差によらない特徴のばらつきと、個人差による特徴のばらつきを切り分けることが非常に重要である。しかし、通常のInfo-GANでは、すべてのデータの特徴のばらつきを潜在変数に説明させようとする課題があった。
上述した課題を解決し、目的を達成するために、本発明の学習装置は、データの特徴のばらつきのうち潜在変数による説明を選択的に行わないばらつきに対応するラベルを取得する取得部と、データを生成する生成器によって出力された生成データまたは実データを入力データとして受け付け、該入力データが生成データまたは実データのいずれであるか識別するとともに、前記潜在変数を推定する識別器に、該識別器を構成する第一のニューラルネットワークに対して、前記ラベルを推定する2層以上の経路を追加する追加部と、前記追加部によって経路が追加された第二のニューラルネットワークについて、誤差逆伝播法による学習時に、前記経路の1層目において第一のニューラルネットワークに逆伝播していく誤差に関する勾配にマイナスを掛けることで、前記潜在変数についての推定誤差を最小化するように勾配を伝播させるが、前記ラベルについての推定誤差を最大化するように勾配を伝播させるように学習を行う学習部とを有することを特徴とする。
本発明によれば、考慮しなくてよいばらつきについては、潜在変数による説明を行わないように学習を行うことで、学習を適切に行うことができるという効果を奏する。
以下に、本願に係る学習装置、学習方法および学習プログラムの実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態により本願に係る学習装置、学習方法および学習プログラムが限定されるものではない。
[第1の実施形態]
以下の実施の形態では、まずInfo-GANの前提技術を説明した後、第1の実施形態に係る学習装置10の構成、学習装置10の処理の流れを順に説明し、最後に第1の実施形態による効果を説明する。
以下の実施の形態では、まずInfo-GANの前提技術を説明した後、第1の実施形態に係る学習装置10の構成、学習装置10の処理の流れを順に説明し、最後に第1の実施形態による効果を説明する。
[Info-GANについて]
まず、図1を用いて、Info-GANについて説明する。図1は、Info-GANについて説明する図である。Info-GANでは、GANの枠組みを発展させ、データから潜在変数の推定を可能にしている。なお、以下では、3次元の潜在変数でデータを表現することを例として説明するが、次元数は3次元に限定されるものではない。
まず、図1を用いて、Info-GANについて説明する。図1は、Info-GANについて説明する図である。Info-GANでは、GANの枠組みを発展させ、データから潜在変数の推定を可能にしている。なお、以下では、3次元の潜在変数でデータを表現することを例として説明するが、次元数は3次元に限定されるものではない。
また、図1に示すように、学習過程において、データから推定される潜在変数とは別に、推定しないノイズを説明するいくつかの潜在変数(以後、こちらを「ノイズ潜在変数」と呼ぶ)を追加で用いる。
Generator(以下、適宜「生成器」と記載する)は、3次元の潜在変数とノイズ潜在変数から、多次元のデータを生成する。また、Discriminator(以下、適宜「識別器」と記載する)は、Generatorから生成されたデータと、実データを入力として、入力されたデータが生成されたものか実際のものかを識別する。それに加えて、Discriminatorは、生成されたデータがどの潜在変数から生成されたか推定する。
Generatorの学習においては、Discriminatorが、Generatorから生成されたデータと、実際のデータを識別した結果の精度が悪化し、かつ、Discriminatorが、生成されたデータがどの潜在変数から生成されたかを推定した結果の精度が向上するような評価関数を定める。
Discriminatorの学習においては、Discriminatorが、Generatorから生成されたデータと、実際のデータを識別した結果の精度が改善し、かつ、Discriminatorが、生成されたデータがどの潜在変数から生成されたかを推定した結果の精度が向上するような評価関数を定める。
学習がうまく行けば、Generatorは実データと見分けがつかないデータを生成できるようになり、Discriminatorは生成されたデータと実データの見分けが完全にできなくなる。同時に、Discriminatorは生成されたデータがどの潜在変数から生成されたか推定できるようになる。この時、Generatorには潜在変数からデータが生成される過程がモデル化されていると解釈できる。
加えて、データが生成される過程は、生成されたデータから他のモデルが潜在変数を推定する場合、それが容易になるようにモデル化されていると解釈できる(潜在変数と生成されるデータの相互情報量が最大化されている)。これにより、Discriminatorは、生成されたデータが、どの潜在変数から生成されたか推定することが可能になる。このようなDiscriminatorに、実データを入力することで、そのデータを生成する潜在変数を推定することができる。
続いて、3次元の潜在変数について説明する。例えば、確率分布に従った連続的な3つの潜在変数(A,B,C)を用意し、潜在変数の値の組み合わせをモデルに入力すると、データが出力されるような生成過程を考える。この時、潜在変数A、潜在変数B、潜在変数Cの値の変化と組み合わせることで、データごとの特徴のばらつきの大部分を表現することができれば、3つの潜在変数によってセンサデータが生成される過程をモデル化することができたと解釈できる。
上述のInfo-GANを用いて、多次元のデータを少数の次元を持つ潜在変数によって表現すれば、データの可視化が可能になる。可視化で有力な方法には、例えば、Disentanglementがある。Disentanglementとは、潜在変数の次元にデータの次元を対応させることである。
潜在変数の次元にデータの次元を対応させるとは、以下のような意味である。例えば、図2に例示するように、潜在変数Aを動かすと、データの平均値が動く。また、例えば、図3に例示するように、潜在変数Bを動かすと、データの分散が変わる。また、例えば図4に例示しているように、潜在変数Cを動かすと、データの変化しかたが連続的かどうかが変わる。
すなわち、Disentanglementでは、潜在変数のそれぞれがデータ内の特徴のばらつきに関して「解釈できる意味」を持つように潜在変数からデータが生成される過程を学習することで、多次元データを解釈できる少数の次元上に表現しなおすことが可能になる。例えばこのような方法によって、潜在変数に変換したデータを意味のある形に可視化することが可能になる。
[学習装置の構成]
次に図5を用いて、学習装置10の構成について説明する。図5は、第1の実施形態に係る学習装置の構成の一例を示す図である。図5に例示するように、学習装置10は、上述したInfo-GANによる学習を実行し、考慮しなくてよい差については、潜在変数による説明を行わないように学習を行う。
次に図5を用いて、学習装置10の構成について説明する。図5は、第1の実施形態に係る学習装置の構成の一例を示す図である。図5に例示するように、学習装置10は、上述したInfo-GANによる学習を実行し、考慮しなくてよい差については、潜在変数による説明を行わないように学習を行う。
図1に示すように、学習装置10は、入力部11、出力部12、制御部13及び記憶部14を有する。以下では、各部について説明する。
入力部11は、キーボードやマウス等の入力デバイスを用いて実現され、操作者による入力操作に対応して、制御部13に対して処理開始などの各種指示情報を入力する。出力部12は、液晶ディスプレイなどの表示装置、プリンタ等の印刷装置等によって実現される。
記憶部14は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、ハードディスク、光ディスク等の記憶装置によって実現され、学習装置10を動作させる処理プログラムや、処理プログラムの実行中に使用されるデータなどが記憶される。記憶部14は、データ記憶部14aおよび学習済みモデル記憶部14bを有する。
データ記憶部14aは、学習時に使用される各種データを記憶する。例えば、データ記憶部14aは、学習時に使用される実データとして、ユーザが装着したセンサから取得されるデータを記憶する。なお、データの種別は、複数の実数値からなるデータであればどのようなデータを記憶してもよく、例えば、ユーザが装着した電極などから取得される整理信号であってもよいし、撮影画像のデータであってもよい。
学習済みモデル記憶部14bは、後述する学習処理によって学習された学習済みモデルを記憶する。例えば、学習済みモデル記憶部14bは、学習済みモデルとして、ニューラルネットワークで構成されたGeneratorとDiscriminatorとを記憶する。Generatorは、3次元の潜在変数とノイズ潜在変数から、多次元のデータを生成する。また、Discriminatorは、Generatorから生成されたデータと、実データを入力として、入力されたデータが生成されたものか実際のものかを識別する。それに加えて、Discriminatorは、生成されたデータがどの潜在変数から生成されたか推定する。
制御部13は、各種の処理手順などを規定したプログラム及び所要データを格納するための内部メモリを有し、これらによって種々の処理を実行する。例えば、制御部13は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などの電子回路である。制御部13は、取得部13a、追加部13bおよび学習部13cを有する。
取得部13aは、データの特徴のばらつきのうち潜在変数による説明を選択的に行わないばらつきに対応するラベルを取得する。なお、ラベルについては、データの準備段階で、事前に用意されているものとする。例えば、考慮したくない個人差によるばらつきに対応したラベルが設定される。
具体例を説明すると、例えば、誰のデータかについては考慮せず、行動の違いを説明変数に説明させた場合には、可視化する多次元データの全てについて、センサを装着した個人を特定する番号をラベルとして用意する。
追加部13bは、データを生成する生成器によって出力された生成データまたは実データを入力データとして受け付け、該入力データが生成データまたは実データのいずれであるか識別するとともに、潜在変数を推定する識別器に、該識別器を構成する第一のニューラルネットワークに対して、ラベルを推定する2層以上の経路を追加する。なお、ここで経路とは、ニューラルネットワークに含まれるノードおよびエッジ、もしくはエッジのことをいうものとする。
例えば、追加部13bは、図6に例示するように、Info-GANのDiscriminatorに、入力されたデータの「考慮したくない個人差によるばらつきに対応したラベル」が何だったかを推定する2層以上の経路20を追加する。つまり、追加部13bは、Discriminatorの役割を担うニューラルネットワーク中で、「潜在変数」を推定する経路の根本から、新たに分岐した経路として、例えば「入力されたデータが誰だったか」を推定する経路を追加する。
学習部13cは、追加部13bによって経路が追加された第二のニューラルネットワークについて、誤差逆伝播法による学習時に、経路の1層目において第一のニューラルネットワークに逆伝播していく誤差に関する勾配にマイナスを掛けることで、潜在変数についての推定誤差を最小化するように勾配を伝播させるが、ラベルについての推定誤差を最大化するように勾配を伝播させるように学習を行う。
例えば、学習部13cは、誤差逆伝播法による学習時に、追加された経路の根本部分の結合重みで、伝播される誤差にマイナスを掛ける。この結合重みは固定し、学習の対象としない。なお、追加された経路からの誤差は、潜在変数cを推定する経路(図7でいう経路33)まではラベルについての推定誤差を伝播させるが、それより前の層で実データ/生成データの識別を行う経路と合流している部分(図7でいう経路34)まではラベルについての推定誤差を伝播させない。
ここで、図7を用いて、図7は、Discriminatorのニューラルネットワークに対する学習処理について説明する図である。図7に例では、経路32は、結合重みを学習の対象外である。また、学習部13cは、追加した経路では、入力された実データを経路33および経路34が処理した結果の出力に含まれる「その人が誰か」に関する情報を用いて、経路31が「入力されたデータは誰のセンサデータか」を推定するよう学習する。
一方で、学習部13cは、誤差逆伝播法における学習時に経路32内において経路33に逆伝播していく誤差にマイナスを掛けるため、経路33には、「経路31が『入力されたデータは誰のセンサデータか』を推定した精度が下がる」よう学習を行う(経路34以前にはこの誤差は伝播させない)。すなわち、経路33は、経路34によって処理されたデータに含まれる「誰のセンサデータか」に関する情報を出来る限り失わせた結果を出力するようになる。
このように学習を行うことで、入力から経路33は「データが誰のものか」に関する情報を消失させた出力を出すようになる。例えば、潜在変数cが、データが誰のものかについて説明していた場合、この消失によってDiscriminatorは、潜在変数cの推定ができなくなるため、推定誤差が大きくなる。このため、Generatorは、潜在変数が考慮しなくてよい差については説明しないようにデータが生成される過程をモデル化するようになる(こうした差については潜在変数cではなく、ノイズ潜在変数zに説明させるようになると考えられる)。以上の操作によって、特徴のばらつきを潜在変数cに含むか含まないかを任意に選択できるようになる。
また、学習部13cは、追加した経路の1層目の結合重みには1以下の値を初期値として設定し、学習回数ごとに結合重みを増加または減少させていくようにしてもよい。学習部13cは、追加した経路の1層目の結合重みには、1以下の値を初期値として、学習回数ごとに重みを増加または減少させていくことで、Discriminator内における説明を選択的に行わない部分に関する情報消失ペースを調整することができる。なお、初期値は1以下の値を例としたが、この範囲外の値も必要に応じて任意に設定可能である。
学習部13cは、Info-GANの学習を行った後、学習済みモデルを学習済みモデル記憶部14bに格納する。学習装置10は、学習済みモデルを用いて、多次元のデータを少数の次元を持つ潜在変数によって表現すれば、データの可視化が可能になる。例えば、学習装置10は、学習済みモデルを利用して、次元削減したデータの可視化・分析する機能や、分析しつつコンテンツを作成する機能をさらに有してもよい。また、他の装置が、学習装置10の学習済みモデルを利用してもよい。
[学習装置の処理手順]
次に、図8を用いて、第1の実施形態に係る学習装置10による処理手順の例を説明する。図8は、第1の実施形態に係る学習装置における学習処理の流れの一例を示すフローチャートである。
次に、図8を用いて、第1の実施形態に係る学習装置10による処理手順の例を説明する。図8は、第1の実施形態に係る学習装置における学習処理の流れの一例を示すフローチャートである。
図8に例示するように、学習装置10の取得部13aは、潜在変数による説明を行わない特徴のばらつきに対応したラベル(補助ラベル)を収集する(ステップS101)。そして、学習装置10は、Info-GANのアーキテクチャを用意し(ステップS102)、Discriminatorに補助ラベルの推定も用いる2層ニューラルネットワークを追加する(ステップS103)。
そして、学習装置10は、補助ラベルの推定に用いるニューラルネットワークのうち1層目の全ての重みを順伝播時には1、逆伝播時には-1として固定する(ステップS104)。
その後、学習装置10は、学習が収束しているか判定し(ステップS105)、学習が収束していないと判定した場合には(ステップS105否定)、潜在変数c、潜在変数zをランダムに生成する(ステップS106)。そして、学習装置10は、Generatorにc、zを入力し、出力として生成データを取得し(ステップS107)、ランダムに実データか生成データをDiscriminatorに入力する(ステップS108)。
そして、学習装置10は、実データをDiscriminatorに入力した場合には、補助ラベルの推定値を算出し(ステップS109)、補助ラベルの実測値と推定値の誤差を評価して(ステップS110)、ステップS111の処理に進む。また、学習装置10は、生成データをDiscriminatorに入力した場合には、ステップS111の処理に進む。
そして、学習装置10は、潜在変数c、実データ/生成データ識別の推定値を算出し(ステップS111)、潜在変数c、実データ/生成データ識別の推定値と実測値の誤差を評価する(ステップS112)。
続いて、学習装置10は、全誤差をDiscriminator内の全重みについて逆伝播し(ステップS113)、潜在変数c、実データ/生成データ識別についての誤差をGeneratorに与える(ステップS114)。そして、学習装置10は、全誤差をGenerator内の全重みについて逆伝播し(ステップS115)、全重みの更新を行って(ステップS116)、ステップS105の処理に戻る。
そして、学習装置10は、学習が収束するまでステップS105~S116の処理を繰り返し行い、学習が収束した場合には(ステップS105肯定)、本フローチャートの処理を終了する。
[第1の実施形態の効果]
このように、第1の実施形態に係る学習装置10は、データの特徴のばらつきのうち潜在変数による説明を選択的に行わないばらつきに対応するラベルを取得する。そして、学習装置10は、データを生成する生成器によって出力された生成データまたは実データを入力データとして受け付け、該入力データが生成データまたは実データのいずれであるか識別するとともに、潜在変数を推定する識別器に、該識別器を構成する第一のニューラルネットワークに対して、ラベルを推定する2層以上の経路を追加する。そして、学習装置10は、経路が追加された第二のニューラルネットワークについて、誤差逆伝播法による学習時に、経路の1層目において第一のニューラルネットワークに逆伝播していく誤差に関する勾配にマイナスを掛けることで、潜在変数についての推定誤差を最小化するように勾配を伝播させるが、ラベルについての推定誤差を最大化するように勾配を伝播させるように学習を行う。
このように、第1の実施形態に係る学習装置10は、データの特徴のばらつきのうち潜在変数による説明を選択的に行わないばらつきに対応するラベルを取得する。そして、学習装置10は、データを生成する生成器によって出力された生成データまたは実データを入力データとして受け付け、該入力データが生成データまたは実データのいずれであるか識別するとともに、潜在変数を推定する識別器に、該識別器を構成する第一のニューラルネットワークに対して、ラベルを推定する2層以上の経路を追加する。そして、学習装置10は、経路が追加された第二のニューラルネットワークについて、誤差逆伝播法による学習時に、経路の1層目において第一のニューラルネットワークに逆伝播していく誤差に関する勾配にマイナスを掛けることで、潜在変数についての推定誤差を最小化するように勾配を伝播させるが、ラベルについての推定誤差を最大化するように勾配を伝播させるように学習を行う。
これにより、第1の実施形態に係る学習装置10は、考慮しなくてよいばらつきについては、潜在変数による説明を行わないように学習を行うことで、望んだ特徴のばらつきのみを潜在変数cが説明するような生成過程をモデル化でき、学習を適切に行うことが可能である。
つまり、学習装置10では、例えば、データの準備段階で、考慮したくない個人差によるばらつきに対応したラベルを用意し、Info-GANのDiscriminatorに、入力されたデータの「考慮したくない個人差によるばらつきに対応したラベル」が何だったかを推定する2層以上の経路を追加し、誤差逆伝播法による学習時に、追加された経路の根本部分の結合重みで、伝播される誤差に関する勾配にマイナスを掛けることで、この結合重みは固定し、学習の対象としない。なお、追加された経路からの誤差は、追加した潜在変数cを推定する経路(図7でいう経路33)まではラベルについての推定誤差を伝播させるが、それより前の層で実データ/生成データの識別を行う経路と合流している部分(図7でいう経路34)まではラベルについての推定誤差を伝播させない。このため、学習装置10では、意図した意味に沿って次元削減した適切な学習を行うことが可能である。
従来のInfo-GANでは、すべてのデータの特徴のばらつきを潜在変数に説明させようとする課題があった。このため、従来の手法で次元削減した場合、「各人に共通してもたらされる違い(ここでは例として行動とする)」の違いと「人」の違いの両方に関して意味を持つように潜在変数cが選択される。従来のInfo-GANでは、個人差か、行動差か、見たい方のばらつきだけが表現されていてほしい場合に、考慮しなくてよい差について潜在変数による説明を行わないように学習を行うことができなかった。
「行動の違い」を3つの潜在変数に説明させた場合、「行動」の違いに関するデータの特徴のばらつきを説明するように潜在変数cが選択されることができる。一方、「人」の違いに関するデータの特徴のばらつきを説明しない。イメージとしては、潜在変数上においては、例えば図9および図10に例示するようなデータ分布が得られる。図9および図10は、潜在変数上のデータ分布について説明する図である。つまり、センサデータでは、誰のデータかについては問わない可視化をしたい場面(行動や状況など、属人的な違いではなく各人に共通して生じる違いを分析したい場面)が多い。学習装置10では、このような場合において、考慮したい差のみを説明し、考慮したくない個人差については、潜在変数による説明を行わないように学習を行うことにより、個人差によらない特徴のばらつきのみを可視化することができる。
[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
また、本実施の形態において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[プログラム]
図11は、学習プログラムを実行するコンピュータを示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
図11は、学習プログラムを実行するコンピュータを示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1051、キーボード1052に接続される。ビデオアダプタ1060は、例えばディスプレイ1061に接続される。
ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、学習装置の各処理を規定するプログラムは、コンピュータにより実行可能なコードが記述されたプログラムモジュール1093として実装される。プログラムモジュール1093は、例えばハードディスクドライブ1090に記憶される。例えば、装置における機能構成と同様の処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1090に記憶される。なお、ハードディスクドライブ1090は、SSD(Solid State Drive)により代替されてもよい。
また、上述した実施の形態の処理で用いられるデータは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して実行する。
なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限らず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093及びプログラムデータ1094は、ネットワーク、WANを介して接続された他のコンピュータに記憶されてもよい。そして、プログラムモジュール1093及びプログラムデータ1094は、他のコンピュータから、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
10 学習装置
11 入力部
12 出力部
13 制御部
13a 取得部
13b 追加部
13c 学習部
14 記憶部
14a データ記憶部
14b 学習済みモデル記憶部
11 入力部
12 出力部
13 制御部
13a 取得部
13b 追加部
13c 学習部
14 記憶部
14a データ記憶部
14b 学習済みモデル記憶部
Claims (5)
- データの特徴のばらつきのうち潜在変数による説明を選択的に行わないばらつきに対応するラベルを取得する取得部と、
データを生成する生成器によって出力された生成データまたは実データを入力データとして受け付け、該入力データが生成データまたは実データのいずれであるか識別するとともに、前記潜在変数を推定する識別器に、該識別器を構成する第一のニューラルネットワークに対して、前記ラベルを推定する2層以上の経路を追加する追加部と、
前記追加部によって経路が追加された第二のニューラルネットワークについて、誤差逆伝播法による学習時に、前記経路の1層目において第一のニューラルネットワークに逆伝播していく誤差に関する勾配にマイナスを掛けることで、前記潜在変数についての推定誤差を最小化するように勾配を伝播させるが、前記ラベルについての推定誤差を最大化するように勾配を伝播させるように学習を行う学習部と
を有することを特徴とする学習装置。 - 前記学習部は、前記1層目の結合重みに初期値を設定し、学習回数ごとに前記結合重みを増加または減少させていくことを特徴とする請求項1に記載の学習装置。
- 前記取得部は、センサデータの特徴のばらつきのうち潜在変数による説明を選択的に行わないばらつきとして、考慮しなくない個人差によるばらつきに対応するラベルを取得することを特徴とする請求項1に記載の学習装置。
- 学習装置によって実行される学習方法であって、
データの特徴のばらつきのうち潜在変数による説明を選択的に行わないばらつきに対応するラベルを取得する取得工程と、
データを生成する生成器によって出力された生成データまたは実データを入力データとして受け付け、該入力データが生成データまたは実データのいずれであるか識別するとともに、前記潜在変数を推定する識別器に、該識別器を構成する第一のニューラルネットワークに対して、前記ラベルを推定する2層以上の経路を追加する追加工程と、
前記追加工程によって経路が追加された第二のニューラルネットワークについて、誤差逆伝播法による学習時に、前記経路の1層目において第一のニューラルネットワークに逆伝播していく誤差に関する勾配にマイナスを掛けることで、前記潜在変数についての推定誤差を最小化するように勾配を伝播させるが、前記ラベルについての推定誤差を最大化するように勾配を伝播させるように学習を行う学習工程と
を含むことを特徴とする学習方法。 - データの特徴のばらつきのうち潜在変数による説明を選択的に行わないばらつきに対応するラベルを取得する取得ステップと、
データを生成する生成器によって出力された生成データまたは実データを入力データとして受け付け、該入力データが生成データまたは実データのいずれであるか識別するとともに、前記潜在変数を推定する識別器に、該識別器を構成する第一のニューラルネットワークに対して、前記ラベルを推定する2層以上の経路を追加する追加ステップと、
前記追加ステップによって経路が追加された第二のニューラルネットワークについて、誤差逆伝播法による学習時に、前記経路の1層目において第一のニューラルネットワークに逆伝播していく誤差に関する勾配にマイナスを掛けることで、前記潜在変数についての推定誤差を最小化するように勾配を伝播させるが、前記ラベルについての推定誤差を最大化するように勾配を伝播させるように学習を行う学習ステップと
をコンピュータに実行させることを特徴とする学習プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/005912 WO2021161542A1 (ja) | 2020-02-14 | 2020-02-14 | 学習装置、学習方法および学習プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021161542A1 JPWO2021161542A1 (ja) | 2021-08-19 |
JP7343032B2 true JP7343032B2 (ja) | 2023-09-12 |
Family
ID=77293040
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022500205A Active JP7343032B2 (ja) | 2020-02-14 | 2020-02-14 | 学習装置、学習方法および学習プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230089162A1 (ja) |
JP (1) | JP7343032B2 (ja) |
WO (1) | WO2021161542A1 (ja) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020042598A (ja) | 2018-09-12 | 2020-03-19 | 国立大学法人神戸大学 | 生体信号データからの個体特徴分離による状態予測方法および装置 |
-
2020
- 2020-02-14 US US17/798,355 patent/US20230089162A1/en active Pending
- 2020-02-14 JP JP2022500205A patent/JP7343032B2/ja active Active
- 2020-02-14 WO PCT/JP2020/005912 patent/WO2021161542A1/ja active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020042598A (ja) | 2018-09-12 | 2020-03-19 | 国立大学法人神戸大学 | 生体信号データからの個体特徴分離による状態予測方法および装置 |
Non-Patent Citations (2)
Title |
---|
GANIN,Yaroslav ほか,Domain-Adversarial Training of Neural Networks,arXiv[online],米国,2016年05月26日,pp.1-35,[retrieved on 2021.06.17], Retrieved from the Internet: <URL: https://arxiv.org/pdf/1505.07818v4.pdf> |
SPURR, Adrian ほか,Guiding InfoGAN with Semi-Supervision,arXiv[online],arXiv,2017年07月14日,[retrieved on 2020.03.31], Retrieved from the Internet: <URL: https://arxiv.org/pdf/1707. 04487v1.pdf> |
Also Published As
Publication number | Publication date |
---|---|
US20230089162A1 (en) | 2023-03-23 |
JPWO2021161542A1 (ja) | 2021-08-19 |
WO2021161542A1 (ja) | 2021-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021523441A (ja) | 機械学習ベースの診断分類器 | |
Luleci et al. | Generative adversarial networks for labeled acceleration data augmentation for structural damage detection | |
CN106068520A (zh) | 个性化的机器学习模型 | |
JP6569047B1 (ja) | 学習方法、コンピュータプログラム、分類器、及び生成器 | |
JP6973106B2 (ja) | 学習プログラム、学習方法および学習装置 | |
JPWO2019187372A1 (ja) | 予測システム、モデル生成システム、方法およびプログラム | |
JP6950504B2 (ja) | 異常候補抽出プログラム、異常候補抽出方法および異常候補抽出装置 | |
KR102293791B1 (ko) | 반도체 소자의 시뮬레이션을 위한 전자 장치, 방법, 및 컴퓨터 판독가능 매체 | |
KR20210113336A (ko) | 머신 러닝에 기반한 타깃 객체 속성 예측 방법 및 관련 디바이스 | |
Subbarao et al. | Detection of Retinal Degeneration via High-Resolution Fundus Images using Deep Neural Networks | |
JP7343032B2 (ja) | 学習装置、学習方法および学習プログラム | |
JP2019032591A (ja) | 計算機システム | |
EP4258178A1 (en) | Information processing apparatus for improving robustness of deep neural network by using adversarial training and formal method | |
US20230186092A1 (en) | Learning device, learning method, computer program product, and learning system | |
JP2020181318A (ja) | 最適化装置、最適化方法、及びプログラム | |
JP6422512B2 (ja) | 計算機システム及びグラフィカルモデルの管理方法 | |
KR102545670B1 (ko) | 조건부 순환 생성적 적대 신경망을 활용한 질병의 진행 과정 이미지 생성 방법 및 그 장치 | |
Sipahi et al. | Improving on transfer entropy-based network reconstruction using time-delays: Approach and validation | |
JP2019159918A (ja) | クラスタリングプログラム、クラスタリング方法およびクラスタリング装置 | |
US20210373987A1 (en) | Reinforcement learning approach to root cause analysis | |
Sato et al. | Probabilistic graphic models applied to identification of diseases | |
Deng et al. | Towards a unified framework for uncertainty-aware nonlinear variable selection with theoretical guarantees | |
JP2022151502A (ja) | プログラム、情報処理装置、及び方法 | |
JP2021144659A (ja) | 計算機、計算方法及びプログラム | |
JP7421046B2 (ja) | 情報取得装置、情報取得方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220527 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230801 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230814 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7343032 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |