JP7331940B2 - 学習装置、推定装置、学習方法および学習プログラム - Google Patents

学習装置、推定装置、学習方法および学習プログラム Download PDF

Info

Publication number
JP7331940B2
JP7331940B2 JP2021558129A JP2021558129A JP7331940B2 JP 7331940 B2 JP7331940 B2 JP 7331940B2 JP 2021558129 A JP2021558129 A JP 2021558129A JP 2021558129 A JP2021558129 A JP 2021558129A JP 7331940 B2 JP7331940 B2 JP 7331940B2
Authority
JP
Japan
Prior art keywords
learning
data
task
mutual information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021558129A
Other languages
English (en)
Other versions
JPWO2021100184A1 (ja
Inventor
大志 高橋
具治 岩田
関利 金井
充敏 熊谷
友貴 山中
真徳 山田
哲志 八木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2021100184A1 publication Critical patent/JPWO2021100184A1/ja
Application granted granted Critical
Publication of JP7331940B2 publication Critical patent/JP7331940B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0475Generative networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Image Analysis (AREA)

Description

本発明は、学習装置、推定装置、学習方法および学習プログラムに関する。
機械学習によりデータの確率分布を推定する技術として、潜在変数とニューラルネットワークとを用いて密度推定を行うVAE(Variational AutoEncoder)が知られている(非特許文献1~3参照)。VAEは、大規模かつ複雑なデータの確率分布を推定することができるため、異常検知、画像認識、動画認識、音声認識等の様々な分野に応用されている。
一方、従来のVAEでは、機械学習に大量のデータが必要であり、データ数が少ないと性能が低下することが知られている。そこで、大量の学習データを用意するための手法として、他のタスクのデータを用いて、目的とするタスクのデータの密度推定の性能を向上させるマルチタスク学習が知られている。マルチタスク学習では、タスク間で不変な特徴を学習して、目的のタスクと他のタスクとの間で不変な知識を共有することにより、性能を向上させている。例えば、CVAE(Conditional Variational AutoEncoder)は、潜在変数にタスクで不変な事前分布を仮定することで、潜在変数のタスクへの依存性を減らし、タスク不変な特徴を学習することができる。
Diederik P. Kingma, et al., "Semi-supervised Learning with Deep Generative Models", Advances in neural information processing systems, 2014年, [2019年10月25日検索]、インターネット<URL:http://papers.nips.cc/paper/5352-semi-supervised-learning-with-deep-generative-models.pdf> Christos Louizos, et al., "The Variational Fair Autoencoder", [online], arXiv preprint arXiv:1511.00830, 2015年, [2019年10月25日検索]、インターネット<URL:https://arxiv.org/pdf/1511.00830.pdf> Hiroshi Takahashi, et al., "Variational Autoencoder with Implicit Optimal Priors", [online], Proceedings of the AAAI Conference on Artificial Intelligence, Vol.33, 2019年, [2019年10月25日検索]、インターネット<https://aaai.org/ojs/index.php/AAAI/article/view/443>
しかしながら、CVAEでは、多くのケースで潜在変数のタスクへの依存性が残ってしまうことが知られており、タスク依存性の低減が不十分である。そのため、マルチタスク学習の精度を十分に向上させることができない場合があるという課題があった。
本発明は、上記に鑑みてなされたものであって、マルチタスク学習の精度を向上させることを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る学習装置は、タスクにおけるデータを取得する取得部と、タスクにおけるデータ発生の確率分布を表すモデルにおいて、潜在変数と観測変数との間の相互情報量を最小化するように、前記モデルを学習する学習部と、を有することを特徴とする。
本発明によれば、マルチタスク学習の精度を向上させることが可能となる。
図1は、学習装置の概要を説明するための説明図である。 図2は、学習装置の概要を説明するための説明図である。 図3は、学習装置の概略構成を例示する模式図である。 図4は、学習部の処理を説明するための説明図である。 図5は、推定装置の概略構成を例示する模式図である。 図6は、検知部の処理を説明するための説明図である。 図7は、検知部の処理を説明するための説明図である。 図8は、学習処理手順を示すフローチャートである。 図9は、推定処理手順を示すフローチャートである。 図10は、学習プログラムまたは推定プログラムを実行するコンピュータを例示する図である。
以下、図面を参照して、本発明の一実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。
[学習装置の概要]
本実施形態の学習装置は、CVAEをベースにした生成モデルを作成して、タスク不変な密度推定を行う。ここで、図1および図2は、学習装置の概要を説明するための説明図である。図1に示すように、CVAEは、エンコーダおよびデコーダと呼ばれる2つの条件付き確率分布で構成される。
エンコーダqφ(z|x,s)は、タスクsにおけるデータxを符号化して、潜在変数zによる表現に変換する。ここで、φはエンコーダのパラメータである。また、デコーダpθ(x|z,s)は、エンコーダで符号化されたデータを復号化して、タスクsにおける元のデータxを再現する。ここで、θはデコーダのパラメータである。元のデータxが連続値の場合、一般に、エンコーダおよびデコーダにはガウス分布が適用される。図1に示す例では、エンコーダの分布はN(z;μφ(x,s),σ φ(x,s))であり、デコーダの分布はN(x;μθ(z,s),σ θ(z,s))である。
具体的には、CVAEは、次式(1)に示すように、タスクsにおけるデータxの確率pθ(x|s)を、潜在変数zを用いて推定する。ここで、p(z)は事前分布と呼ばれる。
Figure 0007331940000001
CVAEの学習では、次式(2)に示すlnpθ(x|s)の変分下界Lの期待値を最大化するように学習を行って、パラメータが決定される。
Figure 0007331940000002
ここで、次式(3)に示す変分下界Lの第一項は再構成誤差(RE)、第二項はカルバックライブラー情報量(KL)と呼ばれる。
Figure 0007331940000003
具体的には、CVAEでは、データxとタスクsの真の同時分布p(x,s)について、次式(4)に示すように、変分下界Lの期待値を目的関数として、目的関数を最大化するように、学習を行う。
Figure 0007331940000004
そこで、CVAEでは、上記式(3)に示したCVAEのKLの期待値R(φ)を最小化することにより、変分下界Lの期待値を最大化する。CVAEのKLの期待値R(φ)は、次式(5)のように表される。
Figure 0007331940000005
ここで、I(O;Z)は、観測変数x,sとの潜在変数zに対する相互情報量であり、次式(6)で表される。
Figure 0007331940000006
また、K個のタスクのそれぞれの確率をp(s=k)=πとした場合に、次式(7)に示す潜在変数zのタスクsに対する事後分布について、次式(8)に示すJS divergenceを導入する。
Figure 0007331940000007
Figure 0007331940000008
ここで、qφ(z)は、次式(9)で表される。
Figure 0007331940000009
上記式(8)に示したJS divergenceであるJ(φ)は、潜在変数zがタスクsに依存している場合には大きい値をとり、潜在変数zがタスクsに依存していない場合には小さい値をとる。このように、JS divergenceは、タスク依存性を図る尺度とすることができる。
CVAEでは、上記式(5)に示したCVAEのKLの期待値R(φ)を最小化している。このJ(φ)はR(φ)によって上から抑えられているため、CVAEでは、J(φ)も最小化されることにより、潜在変数zのタスクsへの依存性が減少している。
ここで、図2は、J(φ)、R(φ)、I(O;Z)の大小関係を示す図である。図2に示すように、R(φ)は、J(φ)のタイトな上界とは言えず、J(φ)を十分に最小化することができない。そのため、CVAEでは、タスク依存性を十分に小さくすることができない。
そこで、本実施形態の学習装置は、相互情報量I(O;Z)を最小化する。図2に示すように、I(O;Z)は、R(φ)よりタイトなJ(φ)の上界であるため、相互情報量I(O;Z)を最小化すれば、J(φ)がより小さくなり、タスク依存性をより小さくすることが可能となる。
また、上記式(5)より導かれる次式(10)に示すR(φ)とI(O;Z)との差分は、p(z)=qφ(z)のときに0になる。つまり、R(φ)の代わりにI(O;Z)を最小化することと、事前分布P(z)を上記式(9)に示したqφ(z)に変更することは同等である。
Figure 0007331940000010
これにより、本実施形態の学習装置は、CVAEよりさらにタスク依存性を低減して、マルチタスク学習の精度を向上させることが可能となる。
[学習装置の構成]
図3は、学習装置の概略構成を例示する模式図である。図3に例示するように、学習装置10は、パソコン等の汎用コンピュータで実現され、入力部11、出力部12、通信制御部13、記憶部14、および制御部15を備える。
入力部11は、キーボードやマウス等の入力デバイスを用いて実現され、操作者による入力操作に対応して、制御部15に対して処理開始などの各種指示情報を入力する。出力部12は、液晶ディスプレイなどの表示装置、プリンター等の印刷装置等によって実現される。
通信制御部13は、NIC(Network Interface Card)等で実現され、ネットワーク3を介したサーバ等の外部の装置と制御部15との通信を制御する。例えば、通信制御部13は、等に関する各種情報を管理する管理装置等と制御部15との通信を制御する。
記憶部14は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現され、後述する学習処理により学習されたデータの生成モデルのパラメータ等が記憶される。なお、記憶部14は、通信制御部13を介して制御部15と通信する構成でもよい。
制御部15は、CPU(Central Processing Unit)等を用いて実現され、メモリに記憶された処理プログラムを実行する。これにより、制御部15は、図3に例示するように、取得部15aおよび学習部15bとして機能する。なお、これらの機能部は、それぞれが異なるハードウェアに実装されてもよい。また、制御部15は、その他の機能部を備えてもよい。例えば、制御部15は、後述する推定装置20の機能部を備えて、推定装置20として動作することも可能である。
取得部15aは、タスクにおけるデータを取得する。例えば、取得部15aは、IoT機器に取り付けられたセンサが出力するセンサデータを、タスクごとに、通信制御部13を介して取得する。センサデータとしては、例えば、車に取り付けられた温度、速度、回転数、走行距離等のセンサのデータや、工場内で稼働する多種多様な機器のそれぞれに取り付けられた温度、振動数、音等のセンサのデータが例示される。また、取得部15aは、取得したデータを記憶部14に記憶させてもよい。なお、取得部15aは、これらの情報を記憶部14に記憶させずに、学習部15bに転送してもよい。
学習部15bは、タスクsにおけるデータxの発生の確率分布を表す生成モデルにおいて、潜在変数と観測変数との間の相互情報量を最小化するように、生成モデルを学習する。この相互情報量とは、確率分布の対数の変分下界Lについてのカルバックライブラー情報量KLの期待値R(φ)を上界とする所定の相互情報量I(O;Z)である。
具体的には、学習部15bは、上記式(1)に示したタスクsにおけるデータxが発生する確率分布を表す生成モデルを、CVAEをベースに作成する。その際に、学習部15bは、上記式(5)に示した相互情報量I(O;Z)を最小化するように、生成モデルを学習する。このように、R(φ)の代わりにI(O;Z)を最小化することにより、CVAEよりさらにタスク依存性を低減させることが可能となる。
また、学習部15bは、I(O;Z)を、密度比推定を用いて推定する。密度比推定とは、2つの確率分布のそれぞれを推定することなく、2つの確率分布の密度比(差分)を推定する手法である。
ここで、上記式(5)に示したように、R(φ)は、上記式(3)に示した確率分布の対数の変分下界Lについてのカルバックライブラー情報量KLの期待値であり、相互情報量I(O;Z)の上界である。そこで、学習部15bは、R(φ)とI(O;Z)との差分を、密度比推定を用いて推定する。
具体的には、学習部15bは、次式(11)に示すように、R(φ)とI(O;Z)との差分を、ニューラルネットワークTΨ(φ)を用いて推定する。なお、R(φ)とI(O;Z)との差分は、正値をとることがわかっている。
Figure 0007331940000011
ここで、TΨ(φ)は、次式(12)に示す目的関数を最大にするニューラルネットワークである。
Figure 0007331940000012
その場合に、相互情報量I(O;Z)は、次式(13)に示すように、上界R(φ)から上記式(11)で推定された差分を引くことにより推定することができる。
Figure 0007331940000013
学習部15bは、推定された相互情報量I(O;Z)を上記式(4)に示したCVAEの目的関数FCVAE(θ,φ)に代入することにより、次式(14)に示す本実施形態の目的関数FProposed(θ,φ)を得る。
Figure 0007331940000014
学習部15bは、目的関数FProposed(θ,φ)を最大化するように学習を行って、パラメータを決定する。上記式(14)に示したように、目的関数FProposed(θ,φ)は、上記式(4)に示した目的関数FCVAE(θ,φ)より、上記式(11)に示した分だけ大きい値をとる。したがって、学習部15bは、タスクsにおけるデータxの確率分布を、CVAEと比較してさらに精度高く推定することが可能となる。
図4は、学習部15bの処理を説明するための説明図である。図4には、各種の手法により学習された生成モデルの性能を表す対数尤度が例示されている。対数尤度は、生成モデルの精度評価の尺度であり、値が大きいほど精度が高いことを表す。図4に示す各種の手法において、USPS、MNIST、SynNums、SYHNと呼ばれる4種のデータセットのうち、ソースとしていずれかのデータセットの全データを用い、ターゲットとしていずれかのデータセットの中の100データを用いて学習した。また、ターゲットのテストデータに対する密度推定の性能を評価した。
図4には、ソース→ターゲットの組み合わせとして、USPS→MNIST、MNIST→USPS、SynNums→SVHN、SYHN→SYnNumsの4種が例示されている。また、図4には、各種の手法として、ターゲットのみにVAE適用、VAE、CVAE、VFAE、および本発明が例示されている。なお、VFAEも既存手法である。
図4に示すように、本発明の手法によれば、MNIST→USPSのデータセットを用いた場合を除いて、他の手法より対数尤度の値が最も大きく、精度が高い。このように、本発明の手法によれば、既存手法と比較して概ね密度推定の精度が向上することがわかる。したがって、本実施形態の学習部15bにより、高精度な生成モデルを作成できる。
[推定装置の構成]
図5は、推定装置の概略構成を例示する模式図である。図5に例示するように、推定装置20は、パソコン等の汎用コンピュータで実現され、入力部21、出力部22、通信制御部23、記憶部24、および制御部25を備える。
入力部21は、キーボードやマウス等の入力デバイスを用いて実現され、操作者による入力操作に対応して、制御部25に対して処理開始などの各種指示情報を入力する。出力部22は、液晶ディスプレイなどの表示装置、プリンター等の印刷装置等によって実現される。
通信制御部23は、NIC(Network Interface Card)等で実現され、ネットワークを介したサーバ等の外部の装置と制御部25との通信を制御する。例えば、通信制御部23は、等に関する各種情報を管理する管理装置等と制御部15との通信を制御する。
記憶部24は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現され、上記した学習装置10により学習されたデータの生成モデルのパラメータ等が記憶される。なお、記憶部24は、通信制御部23を介して制御部25と通信する構成でもよい。
制御部25は、CPU(Central Processing Unit)等を用いて実現され、メモリに記憶された処理プログラムを実行する。これにより、制御部25は、図5に例示するように、取得部15a、学習部15bおよび検知部25cとして機能する。なお、これらの機能部は、それぞれ、あるいは一部が異なるハードウェアに実装されてもよい。例えば、取得部15aおよび学習部15bと、検知部25cとが異なるハードウェアに実装されてもよい。すなわち、上記した学習装置10と、検知部25cを備えた推定装置20とが別々の装置であってもよい。
取得部15aおよび学習部15bは、上記した学習装置10と同一の機能部であるので、説明を省略する。
検知部25cは、学習された生成モデルを用いて新たに取得されたタスクにおけるデータの発生確率を推定し、該発生確率が所定の閾値より低い場合に、異常として検知する。例えば、図6および図7は、検知部25cの処理を説明するための説明図である。図6に例示するように、推定装置20では、車等のモノに取り付けられた速度、回転数、走行距離等のセンサのデータをタスクごとに取得部15aが取得して、学習部15bがデータの確率分布を表す生成モデルを作成する。
また、検知部25cが、作成された生成モデルを用いて、新たに取得部15aが取得したタスクにおけるデータの発生する確率分布を推定する。また、検知部25cは、新たに取得部15aが取得したタスクにおけるデータの推定される発生確率が、所定の閾値以上の場合には正常、所定の閾値より低い場合には異常と判定する。
例えば、図7(a)に示したように、2次元のデータ空間に点で示したデータが与えられた場合に、検知部25cは、学習部15bが作成した生成モデルを用いて、図7(b)に示すように、データ発生の確率分布を推定する。図7(b)において、データ空間上の色が濃いほど、その部分のデータの発生の確率が高いことを示している。したがって、図7(b)に×で示した発生の確率が低いデータは、異常データと見なすことができる。
上記したように、学習部15bにより作成された生成モデルは、タスク依存性が低く、タスクに依らず精度高くデータの発生確率を推定することが可能である。したがって、検知部25cは、精度高く異常データを検知することが可能となる。
また、検知部25cは異常を検知した場合に、警報を出力する。例えば、検知部25cは、出力部22あるいは通信制御部23を介して管理装置等に、異常検知の旨のメッセージやアラームを出力する。
[学習処理]
次に、図8を参照して、本実施形態に係る学習装置10による学習処理について説明する。図8は、学習処理手順を示すフローチャートである。図8のフローチャートは、例えば、学習処理の開始を指示する操作入力があったタイミングで開始される。
まず、取得部15aが、タスクにおけるデータを取得する(ステップS1)。例えば、取得部15aは、車等のモノに取り付けられた速度、回転数、走行距離等のセンサのデータをタスクごとに取得する。
次に、学習部15bが、タスクsにおけるデータxの発生の確率分布を表す生成モデルにおいて、潜在変数と観測変数の間の相互情報量が最小化するように、生成モデルを学習する(ステップS2)。この相互情報量とは、確率分布の対数の変分下界Lについてのカルバックライブラー情報量KLの期待値R(φ)を上界とする相互情報量I(O;Z)である。具体的には、学習部15bは、タスクsにおけるデータxが発生する確率分布を表す生成モデルを、CVAEをベースに作成し、相互情報量I(O;Z)を最小化するように、生成モデルを学習する。
その際に、学習部15bは、I(O;Z)を、密度比推定を用いて推定する。また、学習部15bは、推定された相互情報量I(O;Z)をCVAEの目的関数FCVAE(θ,φ)に代入することにより得られる目的関数Fproposed(θ,φ)を最大化するように学習して、生成モデルのパラメータを決定する。これにより、一連の学習処理が終了する。
[推定処理]
次に、図9を参照して、本実施形態に係る推定装置20による推定処理について説明する。図9は、推定処理手順を示すフローチャートである。図9に示すように、ステップS1~S2の処理は、図8に示した学習装置10の学習処理と同一の処理であるので、説明を省略する。
検知部25cは、作成された生成モデルを用いて、新たに取得部15aが取得した、タスクにおけるデータの発生する確率分布を推定する(ステップS3)。また、検知部25cは、新たに取得部15aが取得した、タスクにおけるデータの推定される発生確率が、所定の閾値以上の場合には正常、所定の閾値より低い場合には異常と判定する(ステップS4)。検知部25cは異常を検知した場合に、警報を出力する。これにより、一連の推定処理が終了する。
以上、説明したように、本実施形態の学習装置10において、取得部15aが、タスクにおけるデータを取得する。また、学習部15bが、タスクにおけるデータ発生の確率分布を表す生成モデルにおいて、潜在変数と観測変数との間の相互情報量を最小化するように、生成モデルを学習する。相互情報量は、該確率分布の対数の変分下界についてのカルバックライブラー情報量の期待値を上界とする所定の相互情報量である。また、この生成モデルは、データを符号化して潜在変数による表現に変換するエンコーダと、該エンコーダで符号化されたデータを復号化するデコーダを有し、CVAEをベースに生成される。
これにより、学習装置10は、タスク依存性を低減させ、タスクにおけるデータの確率分布をさらに精度高く推定することが可能となる。このように、学習装置10によれば、マルチタスク学習の精度を向上させることが可能となる。
また、学習部15bは、相互情報量を密度比推定により推定する。これにより、学習装置10は、効率よく生成モデルのタスク依存性を低減させることが可能となる。
また、本実施形態の推定装置20において、取得部15aは、タスクにおけるデータを取得する。また、学習部15bは、タスクにおけるデータ発生の確率分布を表す生成モデルにおいて、潜在変数と観測変数との間の相互情報量を最小化するように、生成モデルを学習する。また、検知部25cは、学習された生成モデルを用いて、新たに取得されたタスクにおけるデータの発生確率を推定し、該発生確率が所定の閾値より低い場合に、異常として検知する。これにより、推定装置20は、マルチタスク学習により、タスクに依らず精度高くデータの発生確率を推定して、精度高く異常データを検知することが可能となる。
例えば、推定装置20は、車に取り付けられた温度、速度、回転数、走行距離等の各種センサが出力する大規模かつ複雑なデータを多数ごとに取得して、走行中の車に発生した異常を高精度に検知することができる。あるいは、推定装置20は、工場内で稼働する多種多様な機器のそれぞれに取り付けられた温度、振動数、音等のセンサが出力する大規模かつ複雑なデータをタスクごとに取得して、いずれかの機器に異常が発生した場合に、タスクに依らず高精度に異常を検知することができる。
また、検知部25cは、異常を検知した場合に、警報を出力する。これにより、推定装置20は、検知した異常を対処が可能な通知先に通知して、対処を行わせることが可能となる。
なお、本実施形態の学習装置10および推定装置20は、従来のCVAEをベースとしたものに限定されない。たとえば、学習部15bの処理は、VAEの特殊なケースであるAE(Auto Encoder)にタスクの条件を付加したものをベースとしてもよいし、エンコーダおよびデコーダがガウス分布以外の確率分布に従うものとしてもよい。
[プログラム]
上記実施形態に係る学習装置10および推定装置20が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。一実施形態として、学習装置10は、パッケージソフトウェアやオンラインソフトウェアとして上記の学習処理を実行する学習プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の学習プログラムを情報処理装置に実行させることにより、情報処理装置を学習装置10として機能させることができる。同様に、上記の推定処理を実行する推定プログラムを所望のコンピュータにインストールさせることにより、推定装置20として機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等のスレート端末等がその範疇に含まれる。また、学習装置10の機能や推定装置20の機能を、クラウドサーバに実装してもよい。
図10は、学習プログラムまたは推定プログラムを実行するコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011およびRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1031に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1041に接続される。ディスクドライブ1041には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1051およびキーボード1052が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1061が接続される。
ここで、ハードディスクドライブ1031は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。上記実施形態で説明した各情報は、例えばハードディスクドライブ1031やメモリ1010に記憶される。
また、学習プログラムまたは推定プログラムは、例えば、コンピュータ1000によって実行される指令が記述されたプログラムモジュール1093として、ハードディスクドライブ1031に記憶される。具体的には、上記実施形態で説明した学習装置10または推定装置20が実行する各処理が記述されたプログラムモジュール1093が、ハードディスクドライブ1031に記憶される。
また、学習プログラムまたは推定プログラムによる情報処理に用いられるデータは、プログラムデータ1094として、例えば、ハードディスクドライブ1031に記憶される。そして、CPU1020が、ハードディスクドライブ1031に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
なお、学習プログラムまたは推定プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1031に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1041等を介してCPU1020によって読み出されてもよい。あるいは、学習プログラムまたは推定プログラムに係るプログラムモジュール1093やプログラムデータ1094は、LAN(Local Area Network)やWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
以上、本発明者によってなされた発明を適用した実施形態について説明したが、本実施形態による本発明の開示の一部をなす記述および図面により本発明は限定されることはない。すなわち、本実施形態に基づいて当業者等によりなされる他の実施形態、実施例および運用技術等は全て本発明の範疇に含まれる。
10 学習装置
11、21 入力部
12、22 出力部
13、23 通信制御部
14、24 記憶部
15、25 制御部
15a 取得部
15b 学習部
20 推定装置
25c 検知部

Claims (7)

  1. タスクにおけるデータを取得する取得部と、
    タスクにおけるデータ発生の確率分布を表すモデルにおいて、潜在変数と観測変数との間の相互情報量を最小化するように、前記モデルを学習する学習部と、
    を有し、
    前記相互情報量は、前記確率分布の対数の変分下界についてのカルバックライブラー情報量の期待値を上界とする所定の相互情報量であることを特徴とする学習装置。
  2. 前記モデルは、データを符号化して前記潜在変数による表現に変換するエンコーダと、該エンコーダで符号化されたデータを復号化するデコーダとを有することを特徴とする請求項1に記載の学習装置。
  3. 前記学習部は、前記相互情報量を密度比推定により推定することを特徴とする請求項1に記載の学習装置。
  4. タスクにおけるデータを取得する取得部と、
    タスクにおけるデータ発生の確率分布を表すモデルにおいて、潜在変数と観測変数との間の相互情報量を最小化するように、前記モデルを学習する学習部と、
    学習された前記モデルを用いて新たに取得されたタスクにおけるデータの発生確率を推定し、該発生確率が所定の閾値より低い場合に、異常として検知する検知部と、
    有し、
    前記相互情報量は、前記確率分布の対数の変分下界についてのカルバックライブラー情報量の期待値を上界とする所定の相互情報量であることを特徴とする推定装置。
  5. 前記検知部は、異常を検知した場合に、警報を出力することを特徴とする請求項に記載の推定装置。
  6. 学習装置で実行される学習方法であって、
    タスクにおけるデータを取得する取得工程と、
    タスクにおけるデータ発生の確率分布を表すモデルにおいて、潜在変数と観測変数との間の相互情報量を最小化するように、前記モデルを学習する学習工程と、
    を含み、
    前記相互情報量は、前記確率分布の対数の変分下界についてのカルバックライブラー情報量の期待値を上界とする所定の相互情報量であることを特徴とする学習方法。
  7. タスクにおけるデータを取得する取得ステップと、
    タスクにおけるデータ発生の確率分布を表すモデルにおいて、潜在変数と観測変数との間の相互情報量を最小化するように、前記モデルを学習する学習ステップと、
    をコンピュータに実行させ
    前記相互情報量は、前記確率分布の対数の変分下界についてのカルバックライブラー情報量の期待値を上界とする所定の相互情報量であることを特徴とする学習プログラム。
JP2021558129A 2019-11-21 2019-11-21 学習装置、推定装置、学習方法および学習プログラム Active JP7331940B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/045693 WO2021100184A1 (ja) 2019-11-21 2019-11-21 学習装置、推定装置、学習方法および学習プログラム

Publications (2)

Publication Number Publication Date
JPWO2021100184A1 JPWO2021100184A1 (ja) 2021-05-27
JP7331940B2 true JP7331940B2 (ja) 2023-08-23

Family

ID=75981560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021558129A Active JP7331940B2 (ja) 2019-11-21 2019-11-21 学習装置、推定装置、学習方法および学習プログラム

Country Status (3)

Country Link
US (1) US20220405624A1 (ja)
JP (1) JP7331940B2 (ja)
WO (1) WO2021100184A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11929853B2 (en) * 2020-10-19 2024-03-12 Qualcomm Incorporated Data-driven probabilistic modeling of wireless channels using conditional variational auto-encoders
WO2023166688A1 (ja) * 2022-03-04 2023-09-07 富士通株式会社 機械学習プログラム,情報処理装置及び機械学習方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190244680A1 (en) 2018-02-07 2019-08-08 D-Wave Systems Inc. Systems and methods for generative machine learning

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190244680A1 (en) 2018-02-07 2019-08-08 D-Wave Systems Inc. Systems and methods for generative machine learning

Also Published As

Publication number Publication date
US20220405624A1 (en) 2022-12-22
WO2021100184A1 (ja) 2021-05-27
JPWO2021100184A1 (ja) 2021-05-27

Similar Documents

Publication Publication Date Title
JP7119631B2 (ja) 検知装置、検知方法および検知プログラム
JP7229308B2 (ja) 時系列データに対する普遍的敵対的攻撃から防御するための方法およびシステム
US20190164057A1 (en) Mapping and quantification of influence of neural network features for explainable artificial intelligence
CN113837205B (zh) 用于图像特征表示生成的方法、设备、装置和介质
JP6606050B2 (ja) 検知装置、検知方法および検知プログラム
CN112567460A (zh) 异常探测装置、概率分布学习装置、自编码器学习装置、数据变换装置、程序
CN111127364B (zh) 图像数据增强策略选择方法及人脸识别图像数据增强方法
WO2019160003A1 (ja) モデル学習装置、モデル学習方法、プログラム
JP7331940B2 (ja) 学習装置、推定装置、学習方法および学習プログラム
CN111435461B (zh) 使用降低精度的深度神经网络的对抗性输入识别
WO2021010342A1 (ja) 行動認識装置、行動認識方法、及び行動認識プログラム
JP7331937B2 (ja) ロバスト学習装置、ロバスト学習方法、プログラム及び記憶装置
JP6691079B2 (ja) 検知装置、検知方法および検知プログラム
WO2021095509A1 (ja) 推定システム、推定装置および推定方法
KR101700030B1 (ko) 사전 정보를 이용한 영상 물체 탐색 방법 및 이를 수행하는 장치
WO2019215904A1 (ja) 予測モデル作成装置、予測モデル作成方法、および予測モデル作成プログラム記録媒体
US11688175B2 (en) Methods and systems for the automated quality assurance of annotated images
US20230297823A1 (en) Method and system for training a neural network for improving adversarial robustness
US20220261690A1 (en) Computer-readable recording medium storing determination processing program, determination processing method, and information processing apparatus
CN116229196A (zh) 一种噪声样本的识别方法及装置
JP7331938B2 (ja) 学習装置、推定装置、学習方法及び学習プログラム
WO2020053934A1 (ja) モデルパラメタ推定装置、状態推定システムおよびモデルパラメタ推定方法
US20240005655A1 (en) Learning apparatus, estimation apparatus, learning method, estimation method and program
US11854204B2 (en) Information processing device, information processing method, and computer program product
US20240127153A1 (en) Systems and methods for automated risk assessment in machine learning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230724

R150 Certificate of patent or registration of utility model

Ref document number: 7331940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150