JP7331938B2 - 学習装置、推定装置、学習方法及び学習プログラム - Google Patents

学習装置、推定装置、学習方法及び学習プログラム Download PDF

Info

Publication number
JP7331938B2
JP7331938B2 JP2021552047A JP2021552047A JP7331938B2 JP 7331938 B2 JP7331938 B2 JP 7331938B2 JP 2021552047 A JP2021552047 A JP 2021552047A JP 2021552047 A JP2021552047 A JP 2021552047A JP 7331938 B2 JP7331938 B2 JP 7331938B2
Authority
JP
Japan
Prior art keywords
domain
latent
learning
samples
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021552047A
Other languages
English (en)
Other versions
JPWO2021075009A1 (ja
Inventor
充敏 熊谷
具治 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2021075009A1 publication Critical patent/JPWO2021075009A1/ja
Application granted granted Critical
Publication of JP7331938B2 publication Critical patent/JP7331938B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0895Weakly supervised learning, e.g. semi-supervised or self-supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning

Description

本発明は、学習装置、推定装置、学習方法及び学習プログラムに関する。
異常検知とは、正常な大多数のサンプルとは振る舞いが異なるサンプルを異常として検知する技術を指す。異常検知は侵入検知、医療画像診断、産業システム監視等様々な実応用で利用されている。
異常検知のアプローチには、半教師あり異常検知と呼ばれるものと、教師あり異常検知と呼ばれるものがある。半教師あり異常検知は、正常サンプルのみを用いて異常検知器を学習し、それを用いて異常検知を行う手法である。また、教師あり異常検知は、正常サンプルに加え、異常サンプルも併せて用いて異常検知器を学習する手法である。
通常、教師あり異常検知は、正常及び異常の両方のサンプルを学習に用いるため、半教師あり異常検知に比べ高い性能を示すことが多い。これに対し、異常サンプルはその希少性から手に入れること自体が難しいことが多く、実問題では教師あり異常検知のアプローチは採用できないことが多い。
一方、関心のあるドメイン(目標ドメインと呼ぶ)で異常サンプルが手に入らない場合であっても、関連するドメイン(関連ドメインと呼ぶ)であれば手に入るケースがある。例えば、サイバーセキュリティ分野では、複数顧客のネットワークを一元的に監視し、サイバー攻撃の兆候を検知するサービスがある。新規顧客のネットワーク(目標ドメイン)では攻撃を受けた際のデータ(異常サンプル)がない場合でも、長期に渡り監視してきた既存顧客のネットワーク(関連ドメイン)では手に入る可能性が高い。同様に、産業システムの監視においても、新たに導入したシステム(目標ドメイン)では異常サンプルは手に入らないが、長期稼働している既存システム(関連ドメイン)では手に入る可能性がある。
以上のような状況から、目標ドメインの正常サンプルに加えて、複数の関連ドメインから得られる正常又は異常サンプルを用いることで異常検知器を学習する手法が提案されている。
ニューラルネットワークを用いて事前に関連ドメインのサンプルから新たな特徴量を学習しておき、さらに、学習済みの特徴量と目標ドメインの正常サンプルを用いて、半教師あり異常検知法により異常検知器を学習する手法が知られている(例えば、非特許文献1を参照)。
また、複数の関連ドメインの正常及び異常サンプルを用いて、正常サンプルの生成分布のパラメータから異常サンプルの生成分布のパラメータへの変換を行う関数を学習しておく手法が知られている(例えば、非特許文献2を参照)。この手法では、目標ドメインの正常サンプルの生成分布パラメータを学習済みの関数に入力することで、異常サンプルのパラメータを疑似的に生成し、正常及び異常の生成分布のパラメータを用いて目標ドメインに適した異常検知器を構築する。
J. T. Andrews, T. Tanay, E. J. Morton, L. D. Griffin. "Transfer representation-learning for anomaly detection."In Anomaly Detection Workshop in ICML, 2016. J. Chen, X. Liu. "Transfer learning with one-class data." Pattern Recognition Letters, 37:32-40, 2014.
しかしながら、これらの手法では実問題に適用する際に問題が生じる。具体的には、非特許文献1では、目標ドメインのサンプルを学習することなく精度の良い異常検知を行うことが困難な場合がある。例えば、近年のIoT(Internet of Things)の普及に伴い、センサーやカメラ、車と行ったIoTデバイス上で異常検知を行う事例が増えてきている。そのような事例において、目標ドメインのサンプルを学習することなく異常検知を行うことが求められる場合がある。
例えば、IoTデバイスは十分な計算リソースを持たないため、目標ドメインのサンプルが取得できた場合であっても、これらの端末上で負担のかかる学習を行うことは難しい。また、IoTデバイスへのサイバー攻撃も急増しているが、IoTデバイスは多種多様(例えば、車、テレビ、スマホ等。車によっても車種によってデータの特徴は異なる)であり、続々と新たなIoTデバイスが世に放たれるため、新たなIoTデバイス(目標ドメイン)が現れる度に高コストな学習を行っていてはサイバー攻撃に則座に対応することはできない。
非特許文献1に記載の手法は、目標ドメインの正常サンプルが学習時に利用可能であることを前提としたものであるため、上述の問題が生じる。また、非特許文献2に記載の手法では事前にパラメータの変換関数を学習しておくことで、目標ドメインのサンプルが与えられた際に即座に(学習することなく)異常検知が実行できる。しかしながら、関連ドメインの異常サンプルの生成分布を推定しておく必要があるため、異常サンプルが少量しか手に入らない場合、精度良く生成分布を作成できず、精度の良い異常検知を行うことは困難である。
上述した課題を解決し、目的を達成するために、本発明の学習装置は、第1のモデルを用いて、ドメインに属するサンプルから、前記ドメインの特徴を表す潜在表現を計算する潜在表現計算部と、ドメインに属するサンプル、及び、前記潜在表現計算部によって計算された前記ドメインの潜在表現から、前記サンプルの異常スコアを算出する第2のモデルに関する目的関数を生成する目的関数生成部と、前記目的関数生成部によって計算された複数のドメインの目的関数が最適化されるように、前記第1のモデル及び前記第2のモデルを更新する更新部と、を有することを特徴とする。
本発明によれば、目標ドメインのサンプルを学習することなく精度の良い異常検知を行うことができる。
図1は、第1の実施形態に係る学習装置及び推定装置の構成例を示す図である。 図2は、学習部の構成例を示す図である。 図3は、推定部の構成例を示す図である。 図4は、学習処理及び推定処理を説明するための図である。 図5は、第1の実施形態に係る学習装置の処理の流れを示すフローチャートである。 図6は、第1の実施形態に係る推定装置の処理の流れを示すフローチャートである。 図7は、学習プログラム又は推定プログラムを実行するコンピュータの一例を示す図である。
以下に、本願に係る学習装置、推定装置、学習方法及び学習プログラムの実施形態を図面に基づいて詳細に説明する。なお、本発明は、以下に説明する実施形態により限定されるものではない。
[第1の実施形態の構成]
図1を用いて、第1の実施形態に係る学習装置及び推定装置の構成について説明する。図1は、第1の実施形態に係る学習装置及び推定装置の構成例を示す図である。なお、学習装置10及び推定装置20は1つの装置として構成されるものであってもよい。
まず、学習装置10の構成について説明する。図1に示すように、学習装置10は、入力部11、抽出部12、学習部13及び記憶部14を有する。また、目標ドメインは、異常検知の対象となるドメインである。また、関連ドメインは、目標ドメインに関連するドメインである。
入力部11は、複数ドメインのサンプルの入力を受け付ける。入力部11には、関連ドメインの正常サンプルのみ、又は正常サンプル及び異常サンプルの両方が入力される。また、入力部11には、目標ドメインの正常サンプルが入力されてもよい。
抽出部12は、入力された各サンプルを特徴ベクトルとラベルの組に変換する。ここで、特徴ベクトルとは、必要なデータの特徴をn次元の数ベクトルで表記したものである。抽出部12は、機械学習で一般的に用いられている手法を利用することができる。例えば、抽出部12は、データがテキストの場合には、形態素解析による変換、n-gramによる変換、区切り文字による変換等を行うことができる。また、ラベルとは「異常」及び「正常」を表すタグである。
学習部13は、特徴抽出後のサンプルデータを用いて、各ドメインの正常サンプル集合から、当該ドメインに適した異常検知器を出力する「異常検知器予測器」(以下、単に予測器と呼ぶ場合がある)を学習する。ベースとなる異常検知器としては、オートエンコーダ、ガウス混合モデル(GMM)、kNN等の半教師あり異常検知で用いられる手法を用いることができる。
図2は、学習部の構成例を示す図である。図2に示すように、学習部13は、潜在表現計算部131、ドメイン別目的関数生成部132、全ドメイン目的関数生成部133及び更新部134を有する。学習部13の各部の処理については後述する。
次に、推定装置20の構成について説明する。図1に示すように、推定装置20は、入力部21、抽出部22、推定部23及び出力部25を有する。入力部21には、目標ドメインの正常サンプル集合、又は目標ドメインのテストサンプル集合が入力される。テストサンプル集合は、正常であるか異常であるかが未知のサンプルである。なお、推定装置20は、1度正常サンプル集合を受け取った後であれば、テストサンプルを受け取ることにより検知を実行することができる。
抽出部22は、抽出部12と同様に、入力された各サンプルを特徴ベクトルとラベルの組に変換する。推定部23は、学習済みの予測器を用いて、正常サンプル集合から異常検知器を出力する。推定部23は、得られた異常検知器を用いて、テストサンプルが異常であるか正常であるかを推定する。また、推定部23は、異常検知器を保存しておき、以降、目標ドメインのテストサンプルが入力された場合は保存済みの異常検知器を用いて推定を行うことができる。
出力部25は検知結果を出力する。例えば、出力部25は、推定部23の推定結果を基に、テストサンプルが異常であるか正常であるかを出力する。また、出力部25は、推定部23が異常と推定したテストサンプルの一覧を検知結果として出力してもよい。
図3は、推定部の構成例を示す図である。図3に示すように、推定部23は、モデル取得部231、潜在表現計算部232及びスコア計算部233を有する。推定部23の各部の処理については後述する。
ここで、学習装置10による学習処理及び推定装置20による推定処理を詳細に説明する。図4は、学習処理及び推定処理を説明するための図である。図4のTarget domainは目標ドメインである。また、Source domain 1及びSource domain 2は、関連ドメインである。
図4に示すように、学習装置10は、各ドメインの正常サンプル集合から、ドメインの特徴を表す潜在ドメインベクトルzdを計算し、潜在ドメインベクトルを用いて、異常検知器を生成する予測器の学習を行う。そして、推定装置20は、目標ドメインの正常サンプルが与えられれば、学習済みの予測器を用いて目標ドメインに適した異常検知器を生成し、当該生成した異常検知器を用いてテストサンプル(anomalous(test))の異常検知を行うことができる。このため、予測器が学習済みであれば、推定装置20は、目標ドメインの再学習を行う必要がない。
ここで、d番目の関連ドメインの異常サンプル集合を(1-1)式で表すものとする。また、xdnは、d番目の関連ドメインのn番目の異常サンプルのM次元特徴ベクトルである。同様に、d番目の関連ドメインの正常サンプル集合を(1-2)式で表すものとする。また、各関連ドメインにおいて、異常サンプルは正常サンプルに比べて極端に少ないものとする。つまり、Nd +を異常サンプルの数、Nd -を正常サンプルの数とすると、Nd +<<Nd -が成り立つ。
Figure 0007331938000001
今、(2-1)式に示すDs種の関連ドメインの異常サンプル及び正常サンプルと、(2-2)式に示すDT種の目標ドメインの正常サンプルが与えられたとする。ここで、学習部13は、アノマリスコアを計算する関数sdを生成するための処理を行う。なお、関数sdは、ドメインdのサンプルxを入力すると、サンプルxの異常さの度合いを表す異常スコアを出力する関数である。以降、このような関数sdを、アノマリスコア関数と呼ぶ。
Figure 0007331938000002
本実施形態のアノマリスコア関数は、一般的なオートエンコーダ(AE: Autoencoder)を基にしたものである。なお、アノマリスコア関数は、AEだけでなく、GMM(Gaussian mixture model)やVAE(Variational AE)等の任意の半教師あり異常検知手法を基にしたものであってもよい。
一般的なオートエンコーダの学習は、N個のサンプルX={x1, …, xN}が与えられたとき、(3)式の目的関数を最適化することにより行われる。
Figure 0007331938000003
Fはエンコーダと呼ばれるニューラルネットワークである。また、Gはデコーダと呼ばれるニューラルネットワークである。通常、Fの出力は入力xの次元よりも小さい次元が設定される。オートエンコーダでは、xを入力した際、Fによりxを低次元に変換した後、Gによりxが再び復元される。
Xが正常サンプル集合であるとき、オートエンコーダはXを正しく復元することができる。一方、Xが異常サンプル集合であるとき、オートエンコーダはXを正しく復元することができないことが期待できる。このため、一般的なオートエンコーダでは、(4)式に示す再構成誤差をアノマリスコア関数として用いることができる。
Figure 0007331938000004
本実施形態では、各ドメインの特性を効率的に表現するため、d番目のドメインはK次元の潜在表現zdを持つと仮定する。潜在表現zdを表すK次元のベクトルを潜在ドメインベクトルと呼ぶ。本実施形態のアノマリスコア関数は、潜在ドメインベクトルを用いて(5)式のように定義される。なお、アノマリスコア関数sθは、第2のモデルの一例である。
Figure 0007331938000005
ここで、θ=(θFG)はエンコーダF及びデコーダGのパラメータである。(5)式に示すように、エンコーダFは潜在ドメインベクトルに依存しているため、本実施形態では、zdを変化させることで、各ドメインのアノマリスコア関数の特性を変化させることができる。
潜在ドメインベクトルzdは未知であるため、学習部13は、与えられたデータから潜在ドメインベクトルzdを推定する。ここでは、潜在ドメインベクトルzdを推定するためのモデルとして、(6)式のガウス分布を仮定する。
Figure 0007331938000006
ここで、ガウス分布の平均関数と共分散関数はそれぞれパラメータφのニューラルネットワークでモデル化される。パラメータφのニューラルネットワークにドメインdの正常サンプル集合Xd -を入力すると、当該ドメインに対応した潜在ドメインベクトルzdのガウス分布が得られる。
潜在表現計算部131は、第1のモデルを用いて、ドメインに属するサンプルから、ドメインの特徴を表す潜在表現を計算する。すなわち、第1のモデルの一例であるパラメータφのニューラルネットワークを用いて、潜在ドメインベクトルzdを計算する。
ガウス分布は、平均関数及び共分散関数によって表される。また、平均関数及び共分散関数は、(7)式に示すアーキテクチャで表現される。(7)式のτは、平均関数又は共分散関数である。また、ρ及びηは、任意のニューラルネットワークである。
そこで、潜在表現計算部131は、平均関数及び共分散関数のそれぞれが、ドメインに属するサンプルのそれぞれをρに入力して得られる出力の総和を、さらにηに入力して得られる出力、として表されるガウス分布に従う潜在表現を計算する。このとき、ηは、第1のニューラルネットワークの一例である。また、ρは、第2のニューラルネットワークの一例である。
例えば、潜在表現計算部131は、ニューラルネットワークρave及びηaveを持つ平均関数τaveによりτave(Xd -)を計算する。また、潜在表現計算部131は、ニューラルネットワークρcov及びηcovを持つ共分散関数τcovによりτcov(Xd -)を計算する。
(7)式のアーキテクチャによる関数は、サンプル集合の順番によらず常に一定の出力を返すことができる。すなわち、(7)式のアーキテクチャによる関数は、集合を入力とすることができる。なお、この形のアーキテクチャは、平均や最大値のプーリングも表現可能である。
Figure 0007331938000007
ドメイン別目的関数生成部132及び全ドメイン目的関数生成部133は、ドメインに属するサンプル、及び、潜在表現計算部131によって計算されたドメインの潜在表現から、サンプルの異常スコアを算出する第2のモデルに関する目的関数を生成する。つまり、ドメイン別目的関数生成部132及び全ドメイン目的関数生成部133は、関連ドメイン及び目標ドメインの正常サンプルと潜在表現ベクトルzdから、アノマリスコア関数sθの学習を行うための目的関数を生成する。
ドメイン別目的関数生成部132は、d番目の関連ドメインの目的関数を(8)式のように生成する。ここで、λは正の実数、fはシグモイド関数である。(8)式の目的関数の第1項は正常サンプルの異常スコアの平均である。また、第2項はAUC(Area Under the Curve)の連続近似であり、異常サンプルのスコアが正常サンプルのスコアよりも大きくなるときに最小化される。(8)式の目的関数を最小化することで、正常サンプルの異常スコアは小さく、異常サンプルの異常スコアは正常サンプルのものよりも大きくなるよう学習される。
Figure 0007331938000008
アノマリスコア関数sθは再構成誤差である。このため、ドメイン別目的関数生成部132は、潜在表現を入力可能なオートエンコーダに、サンプル及び潜在表現計算部131によって計算された潜在表現を入力したときの再構成誤差を基に目的関数を生成するということができる。
(8)式の目的関数は潜在ドメインベクトルzdで条件づけられていた。潜在ドメインベクトルはデータから推定されるものであるため、推定に関する不確実性が伴う。そこで、ドメイン別目的関数生成部132は、(9)式に示すように、(8)式の期待値に基づく新たな目的関数を生成する。
Figure 0007331938000009
(9)式の第1項は、(8)式の目的関数の期待値であり、潜在ドメインベクトルzdが取り得る全ての確率、すなわち不確実性を考慮した量であるため、ロバストな推定が可能となる。なお、ドメイン別目的関数生成部132は、潜在ドメインベクトルzdの確率について(8)式の目的関数の積分を行うことで期待値を得ることができる。このように、ドメイン別目的関数生成部132は、分布に従う潜在表現の期待値を用いて目的関数を生成することができる。
また、(9)式の目的関数の第2項は、潜在ドメインベクトルのオーバーフィットを防ぐ正則化項であり、βは正則化の強さを指定する。また、P(zd)は標準ガウス分布であり、事前分布として働く。(9)式の目的関数を最小化することで、事前分布の制約を守りながら、ドメインdにおいて、異常サンプルのスコアを高く、正常サンプルのスコアが低くなるような潜在ドメインベクトルzdを出力できるよう、パラメータφが学習される。
なお、目標ドメインの正常サンプルが得られた場合、ドメイン別目的関数生成部132は、(10)式のように、正常サンプルの異常スコアの平均に基づいて目的関数を生成することができる。(10)式の目的関数は、(8)式からAUCの連続近似を除いたものを基にしている。このため、ドメイン別目的関数生成部132は、正常サンプルの異常スコアの平均を計算する関数、又は、正常サンプルの異常スコアの平均からAUCの近似を引く関数を目的関数として生成することができる。
Figure 0007331938000010
さらに、全ドメイン目的関数生成部133は、(11)式のように、全ドメインについての目的関数を生成する。
Figure 0007331938000011
ここで、αdはドメインdの重要度を表す正の実数である。(11)式の目的関数は微分可能であり、任意のgradient-basedな最適化手法により最小化可能である。また、(11)式の目的関数は様々なケースを含む。例えば、目標ドメインのサンプルが学習時に得られない場合、全ドメイン目的関数生成部133は、目標ドメインに対してはαd=0とし、関連ドメインに対してはαd=1とすればよい。なお、本実施形態では、目標ドメインのサンプルが学習時に得られない場合であっても、目標ドメインに適したアノマリスコア関数を出力することが可能である。
更新部134は、ドメイン別目的関数生成部132及び全ドメイン目的関数生成部133によって計算された複数のドメインの目的関数が最適化されるように、第1のモデル及び第2のモデルを更新する。
本実施形態における第1のモデルは、潜在ドメインベクトルzdを計算するための、パラメータφを持つニューラルネットワークである。このため、更新部134は、平均関数のニューラルネットワークρave及びηaveのパラメータを更新し、また、共分散関数のニューラルネットワークρcov及びηcovのパラメータを更新する。また、第2のモデルはアノマリスコア関数なので、更新部134は、アノマリスコア関数のパラメータθを更新する。また、更新部134は、更新した各パラメータを予測器として記憶部14に格納する。
図3に戻り、モデル取得部231は、学習装置10の記憶部14から予測器、すなわち潜在ドメインベクトルを計算するための関数のパラメータφ*、及びアノマリスコア算出関数のパラメータθ*を取得する。
スコア計算部233は、目標ドメインd´の正常サンプル集合X -から、(12)式のようにアノマリスコア関数を得る。実際には、スコア計算部233は、(12)式の第3辺の近似式をアノマリスコアとして使用する。第3辺の近似式は、L個の潜在ドメインベクトルをランダムに得ることを示している。
このとき、(12)式に示すように、潜在表現計算部232は、パラメータφ*を基に、L個の潜在ドメインベクトルのそれぞれについてμ及びσを計算する。また、ここで入力される目標ドメインの正常サンプル集合は、学習時に用いられたものであってもよいし、学習時に用いられたものでなくてもよい。
このように、潜在表現計算部232は、ドメインに属するサンプルから、ドメインの特徴を表す潜在表現を計算する第1のモデルを用いて、目標ドメインに関連する複数の関連ドメインの潜在表現を計算する。
スコア計算部233は、(12)式の第3辺に目標ドメインのテストサンプルを入力して得られたスコアが閾値以上であるか否かによって、当該テストサンプルが正常であるか異常であるかを推定する。
Figure 0007331938000012
つまり、スコア計算部233は、アノマリスコア関数に、関連ドメインのL個の潜在表現のそれぞれを目標ドメインのサンプルxd´とともに入力し、アノマリスコア関数から得られるL個の異常スコアの平均を計算する。
[第1の実施形態の処理]
図5は、第1の実施形態に係る学習装置の処理の流れを示すフローチャートである。図5に示すように、学習装置10は、複数ドメインのサンプルを入力として受け取る(ステップS101)。ここでの複数ドメインには、目標ドメインが含まれていてもよいし、含まれていなくてもよい。
次に、学習装置10は、各ドメインのサンプルを特徴ベクトル、ラベルの組に変換する(ステップS102)。そして、学習装置10は、各ドメインの正常サンプル集合から、ドメイン固有の異常検知器を出力する予測器を学習する(ステップS103)。
図6は、第1の実施形態に係る推定装置の処理の流れを示すフローチャートである。図6に示すように、推定装置20は、目標ドメインの正常サンプル集合及びテストサンプルを入力として受け取る(ステップS104)。次に、推定装置20は、各データを特徴ベクトルに変換する(ステップS105)。
ここで、推定装置20は、異常検知予測器を用いて異常検知器を出力し、出力した異常検知器を用いて、各テストサンプルの検知を実行し(ステップS106)、検知結果を出力する(ステップS107)。つまり、推定装置20は、目標ドメインの正常サンプルから潜在特徴ベクトルを計算し、当該潜在特徴ベクトルを用いてアノマリスコア関数を生成し、当該アノマリスコア関数にテストサンプルを入力することで、異常であるか正常であるかの推定を行う。
[第1の実施形態の効果]
これまで説明してきたように、潜在表現計算部131は、第1のモデルを用いて、ドメインに属するサンプルから、ドメインの特徴を表す潜在表現を計算する。また、ドメイン別目的関数生成部132及び全ドメイン目的関数生成部133は、ドメインに属するサンプル、及び、潜在表現計算部131によって計算されたドメインの潜在表現から、サンプルの異常スコアを算出する第2のモデルに関する目的関数を生成する。また、更新部134は、ドメイン別目的関数生成部132及び全ドメイン目的関数生成部133によって計算された複数のドメインの目的関数が最適化されるように、第1のモデル及び第2のモデルを更新する。このように、学習装置10は、異常スコアを算出する第2のモデルを予測可能な第1のモデルを学習しておくことができる。そして、推定時には、学習済みの第1のモデルから第2のモデルを予測することができる。このため、学習装置10によれば、目標ドメインのサンプルを学習することなく精度の良い異常検知を行うことができる。
また、潜在表現計算部131は、平均関数及び分散関数のそれぞれが、ドメインに属するサンプルのそれぞれを第1のニューラルネットワークに入力して得られる出力の総和を、さらに第2のニューラルネットワークに入力して得られる出力、として表されるガウス分布に従う潜在表現を計算することができる。このように、学習装置10は、ニューラルネットワークを使って潜在表現を算出することができる。このため、学習装置10は、学習装置10は、ニューラルネットワークの学習手法を利用して第1のモデルの精度を向上させることができる。
また、更新部134は、第1のモデルとして、平均関数及び分散関数のそれぞれについて、第1のニューラルネットワーク及び第2のニューラルネットワークを更新することができる。このように、学習装置10は、ニューラルネットワークの学習手法を利用して第1のモデルの精度を向上させることができる。
また、ドメイン別目的関数生成部132は、分布に従う潜在表現の期待値を用いて目的関数を生成することができる。このため、学習装置10は、潜在表現が確率分布のような不確実性を有するもので表される場合であっても、目的関数を得ることができる。
また、ドメイン別目的関数生成部132は、正常サンプルの異常スコアの平均を計算する関数、又は、正常サンプルの異常スコアの平均からAUCの近似を引く関数を目的関数として生成することができる。このため、学習装置10は、異常サンプルがない場合でも目的関数を得ることができ、異常サンプルがある場合はさらに精度の良い目的関数を得ることができる。
また、ドメイン別目的関数生成部132は、潜在表現を入力可能なオートエンコーダに、サンプル及び潜在表現計算部131によって計算された潜在表現を入力したときの再構成誤差を基に目的関数を生成することができる。このため、学習装置10は、オートエンコーダの学習手法を利用して第2のモデルの精度を向上させることができる。
また、潜在表現計算部232は、ドメインに属するサンプルから、ドメインの特徴を表す潜在表現を計算する第1のモデルを用いて、目標ドメインに関連する複数の関連ドメインの潜在表現を計算することができる。このとき、スコア計算部233は、ドメインに属するサンプル、及び、第1のモデルを用いてによって計算されたドメインの潜在表現からサンプルの異常スコアを算出する第2のモデルに、関連ドメインの潜在表現のそれぞれを目標ドメインのサンプルとともに入力し、第2のモデルから得られる異常スコアの平均を計算する。このように、推定装置20は、正常サンプルの再学習を行うことなくアノマリスコア関数を得ることができる。さらに、推定装置20は、1度得られたアノマリスコア関数を用いて、目標ドメインのテストサンプルの異常スコアを算出することができる。
[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、各装置の分散及び統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散又は統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
また、本実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[プログラム]
一実施形態として、学習装置10及び推定装置20は、パッケージソフトウェアやオンラインソフトウェアとして上記の学習処理を実行する学習プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の学習プログラムを情報処理装置に実行させることにより、情報処理装置を学習装置10として機能させることができる。ここで言う情報処理装置には、デスクトップ型又はノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等のスレート端末等がその範疇に含まれる。
また、学習装置10は、ユーザが使用する端末装置をクライアントとし、当該クライアントに上記の学習処理に関するサービスを提供する学習サーバ装置として実装することもできる。例えば、学習サーバ装置は、グラフデータを入力とし、グラフ信号処理又はグラフデータの分析結果を出力とする学習サービスを提供するサーバ装置として実装される。この場合、学習サーバ装置は、Webサーバとして実装することとしてもよいし、アウトソーシングによって上記の学習処理に関するサービスを提供するクラウドとして実装することとしてもかまわない。
図7は、学習プログラム又は推定プログラムを実行するコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011及びRAM1012を含む。ROM1011は、例えば、BIOS(BASIC Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。
ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、学習装置10又は推定装置20の各処理を規定するプログラムは、コンピュータにより実行可能なコードが記述されたプログラムモジュール1093として実装される。プログラムモジュール1093は、例えばハードディスクドライブ1090に記憶される。例えば、学習装置10又は推定装置20における機能構成と同様の処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1090に記憶される。なお、ハードディスクドライブ1090は、SSDにより代替されてもよい。
また、上述した実施形態の処理で用いられる設定データは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020は、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した実施形態の処理を実行する。
なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限らず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093及びプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶されてもよい。そして、プログラムモジュール1093及びプログラムデータ1094は、他のコンピュータから、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
10 学習装置
11、21 入力部
12、22 抽出部
13 学習部
14 記憶部
20 推定装置
23 推定部
25 出力部
131、232 潜在表現計算部
132 ドメイン別目的関数生成部
133 全ドメイン目的関数生成部
134 更新部
231 モデル取得部
233 スコア計算部

Claims (8)

  1. 第1のモデルを用いて、ドメインに属するサンプルから、前記ドメインの特徴を表す潜在表現を計算する潜在表現計算部と、
    ドメインに属するサンプル、及び、前記潜在表現計算部によって計算された前記ドメインの潜在表現から算出された異常スコアであって第2のモデルによって算出された前記サンプルの異常スコアの平均を基に目的関数を生成する目的関数生成部と、
    前記目的関数生成部によって生成された前記目的関数が最適化されるように、前記第1のモデル及び前記第2のモデルを更新する更新部と、
    を有することを特徴とする学習装置。
  2. 前記潜在表現計算部は、平均関数及び共分散関数のそれぞれが、ドメインに属するサンプルのそれぞれを第1のニューラルネットワークに入力して得られる出力の総和を、さらに第2のニューラルネットワークに入力して得られる出力、として表されるガウス分布に従う潜在表現を計算し、
    前記更新部は、前記第1のモデルとして、平均関数及び共分散関数のそれぞれについて、前記第1のニューラルネットワーク及び前記第2のニューラルネットワークを更新することを特徴とする請求項1に記載の学習装置。
  3. 前記目的関数生成部は、分布に従う潜在表現の期待値を用いて前記目的関数を生成することを特徴とする請求項1又は2に記載の学習装置。
  4. 前記目的関数生成部は、正常サンプルの異常スコアの平均を計算する関数、又は、正常サンプルの異常スコアの平均からAUC(Area Under the Curve)の近似を引く関数を目的関数として生成することを特徴とする請求項1から3のいずれか1項に記載の学習装置。
  5. 前記目的関数生成部は、潜在表現を入力可能なオートエンコーダに、サンプル及び前記潜在表現計算部によって計算された潜在表現を入力したときの再構成誤差を基に前記目的関数を生成することを特徴とする請求項1から4のいずれか1項に記載の学習装置。
  6. ドメインに属するサンプルから、前記ドメインの特徴を表す潜在表現を計算する第1のモデルを用いて、目標ドメインに関連する複数の関連ドメインの潜在表現を計算する潜在表現計算部と、
    ドメインに属するサンプル及び潜在表現から異常スコアを算出する第2のモデルに、前記潜在表現計算部によって計算された前記複数の関連ドメインの潜在表現のそれぞれを前記目標ドメインのサンプルとともに入力し得られる異常スコアの平均を計算するスコア計算部と、
    を有することを特徴とする推定装置。
  7. コンピュータによって実行される学習方法であって、
    第1のモデルを用いて、ドメインに属するサンプルから、前記ドメインの特徴を表す潜在表現を計算する潜在表現計算工程と、
    ドメインに属するサンプル、及び、前記潜在表現計算工程によって計算された前記ドメインの潜在表現から算出された異常スコアであって第2のモデルによって算出された前記サンプルの異常スコアの平均を基に目的関数を生成する目的関数生成工程と、
    前記目的関数生成工程によって生成された前記目的関数が最適化されるように、前記第1のモデル及び前記第2のモデルを更新する更新工程と、
    を含むことを特徴とする学習方法。
  8. コンピュータを、請求項1から5のいずれか1項に記載の学習装置として機能させるための学習プログラム。
JP2021552047A 2019-10-16 2019-10-16 学習装置、推定装置、学習方法及び学習プログラム Active JP7331938B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/040777 WO2021075009A1 (ja) 2019-10-16 2019-10-16 学習装置、推定装置、学習方法及び学習プログラム

Publications (2)

Publication Number Publication Date
JPWO2021075009A1 JPWO2021075009A1 (ja) 2021-04-22
JP7331938B2 true JP7331938B2 (ja) 2023-08-23

Family

ID=75537544

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021552047A Active JP7331938B2 (ja) 2019-10-16 2019-10-16 学習装置、推定装置、学習方法及び学習プログラム

Country Status (3)

Country Link
US (1) US20220405585A1 (ja)
JP (1) JP7331938B2 (ja)
WO (1) WO2021075009A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023223510A1 (ja) * 2022-05-19 2023-11-23 日本電信電話株式会社 学習装置、学習方法及び学習プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160048741A1 (en) 2014-08-12 2016-02-18 Siemens Aktiengesellschaft Multi-layer aggregation for object detection
JP2019070965A (ja) 2017-10-10 2019-05-09 日本電信電話株式会社 学習装置、学習方法、プログラム
JP2019140680A (ja) 2018-02-09 2019-08-22 株式会社Preferred Networks オートエンコーダ装置、データ処理システム、データ処理方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160048741A1 (en) 2014-08-12 2016-02-18 Siemens Aktiengesellschaft Multi-layer aggregation for object detection
JP2019070965A (ja) 2017-10-10 2019-05-09 日本電信電話株式会社 学習装置、学習方法、プログラム
JP2019140680A (ja) 2018-02-09 2019-08-22 株式会社Preferred Networks オートエンコーダ装置、データ処理システム、データ処理方法及びプログラム

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
C.M.ビショップ著, 元田浩ほか監訳,パターン認識と機械学習 下 ベイズ理論による統計的予測,初版2刷,東京:シュプリンガー・ジャパン株式会社,2008年08月08日,ISBN 978-4-431-10031-7
FORSYTH, David A.ほか著, 大北剛訳,コンピュータビジョン,初版1刷,東京:共立出版株式会社,2007年01月25日,ISBN 978-4-320-12157-7
ZAHEER, Manzil et al.,Deep Sets,arXiv [online],2018年04月14日,[検索日 2020.01.09],インターネット: <URL: https://arxiv.org/pdf/1703.06114v3>
岩田具治,確率的潜在変数モデルに基づくデータマイニング,オペレーションズ・リサーチ,日本,公益社団法人日本オペレーションズ・リサーチ学会,2019年05月01日,第64巻, 第5号,pp.272-277,ISSN 0030-3674

Also Published As

Publication number Publication date
US20220405585A1 (en) 2022-12-22
WO2021075009A1 (ja) 2021-04-22
JPWO2021075009A1 (ja) 2021-04-22

Similar Documents

Publication Publication Date Title
Xiao et al. Attentional factorization machines: Learning the weight of feature interactions via attention networks
CN109120462B (zh) 机会网络链路的预测方法、装置及可读存储介质
JP7229308B2 (ja) 時系列データに対する普遍的敵対的攻撃から防御するための方法およびシステム
EP3848836A1 (en) Processing a model trained based on a loss function
JP6691094B2 (ja) 学習装置、検知システム、学習方法及び学習プログラム
CN110912908B (zh) 网络协议异常检测方法、装置、计算机设备和存储介质
JP6870508B2 (ja) 学習プログラム、学習方法及び学習装置
EP3916597B1 (en) Detecting malware with deep generative models
JP6450032B2 (ja) 作成装置、作成方法、および作成プログラム
EP4125004A1 (en) Information processing apparatus, information processing method, and storage medium
US20210081800A1 (en) Method, device and medium for diagnosing and optimizing data analysis system
JP7091872B2 (ja) 検知装置及び検知方法
JP6767312B2 (ja) 検知システム、検知方法及び検知プログラム
Zhang et al. The classification and detection of malware using soft relevance evaluation
JP7331938B2 (ja) 学習装置、推定装置、学習方法及び学習プログラム
CN114218998A (zh) 一种基于隐马尔可夫模型的电力系统异常行为分析方法
JP7276483B2 (ja) 学習装置、分類装置、学習方法及び学習プログラム
WO2021100184A1 (ja) 学習装置、推定装置、学習方法および学習プログラム
WO2020173270A1 (zh) 用于分析数据的方法、设备和计算机存储介质
WO2020039610A1 (ja) 異常要因推定装置、異常要因推定方法、及びプログラム
AU2021251463B2 (en) Generating performance predictions with uncertainty intervals
JP7420244B2 (ja) 学習装置、学習方法、推定装置、推定方法及びプログラム
JP2016520220A (ja) 隠れ属性モデル推定装置、方法およびプログラム
JP7047664B2 (ja) 学習装置、学習方法および予測システム
Kuhlmann et al. Approximate, computationally efficient online learning in bayesian spiking neurons

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230724

R150 Certificate of patent or registration of utility model

Ref document number: 7331938

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150