JP7359206B2 - 学習装置、学習方法、及びプログラム - Google Patents

学習装置、学習方法、及びプログラム Download PDF

Info

Publication number
JP7359206B2
JP7359206B2 JP2021521685A JP2021521685A JP7359206B2 JP 7359206 B2 JP7359206 B2 JP 7359206B2 JP 2021521685 A JP2021521685 A JP 2021521685A JP 2021521685 A JP2021521685 A JP 2021521685A JP 7359206 B2 JP7359206 B2 JP 7359206B2
Authority
JP
Japan
Prior art keywords
data
abnormality
degree
objective function
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021521685A
Other languages
English (en)
Other versions
JPWO2020240770A1 (ja
Inventor
具治 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2020240770A1 publication Critical patent/JPWO2020240770A1/ja
Application granted granted Critical
Publication of JP7359206B2 publication Critical patent/JP7359206B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/906Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Optimization (AREA)
  • Probability & Statistics with Applications (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Debugging And Monitoring (AREA)

Description

本発明は、学習装置、学習方法、及びプログラムに関する。

データが与えられた場合に、このデータの異常度を推定することで異常を検知するタスクが知られている。このようなタスクは「異常検知」等とも呼ばれ、例えば、機器で発生する異常の検知や通信ネットワークで発生する異常の検知、クレジットカード詐欺の検知等に応用されている。
異常検知を実現する手法として、教師なし手法(例えば非特許文献1参照)や教師あり手法(例えば非特許文献2参照)が従来から知られている。
Fei Tony Liu, Kai Ming Ting, Zhi-Hua Zhou. "Isolation Forest", 2008 Eighth IEEE International Conference on Data Mining. IEEE, 2008. Jiong Zhang, Mohammad Zulkernine, Anwar Haque. "Random-Forests-Based Network Intrusion Detection Systems", IEEE Transactions on Systems, Man, and Cybernetics, Part C (Applications and Reviews), 38(5), 649-659.
しかしながら、各データが異常であるか否かを示すラベルが与えられている場合、教師なし手法では、そのラベルを有効に活用することができなかった。
他方で、教師あり手法では各データが異常であるか否かを示すラベルを活用することができるが、ラベルが不正確である場合(例えば、異常が発生した正確な時刻が特定でないために、ラベルとデータとを正確に対応付けることができない場合等)、異常検知の性能が低下することがあった。
本発明の実施の形態は、上記の点に鑑みてなされたもので、与えられたデータの異常度を高い精度で推定することを目的とする。
上記目的を達成するため、本発明の実施の形態は、正常を示すデータで構成される第1のデータ集合と、異常を示すデータが少なくとも1つ含まれるデータ集合の集まりで構成される第2のデータ集合とを入力する入力手段と、前記第1のデータ集合に含まれる各データと、前記第2のデータ集合に含まれる各データとを用いて、データの異常度を推定するモデルを利用した目的関数の値と、前記モデルのパラメータに関する前記目的関数の微分値とを計算する計算手段と、前記目的関数の値と前記微分値とを用いて、前記モデルのパラメータを更新する更新手段と、を有することを特徴とする。
与えられたデータの異常度を高い精度で推定することができる。
本発明の実施の形態における学習装置及び推定装置の全体構成の一例を示す図である。 本発明の実施の形態におけるパラメータ学習処理の一例を示すフローチャートである。 本発明の実施の形態における異常度推定処理の一例を示すフローチャートである。 本発明の実施の形態における学習装置及び推定装置のハードウェア構成の一例を示す図である。
以下、本発明の実施の形態について説明する。本発明の実施の形態では、与えられたデータの異常度を高い精度で推定することが可能なモデル(以降、「異常度推定モデル」とも表す。)のパラメータを学習する学習装置10と、与えられたデータの異常度を当該モデルにより推定する推定装置20とについて説明する。なお、本発明の実施の形態では、正常を示すデータを「正常データ」、異常を示すデータを「異常データ」と表す。
<異常度推定モデル>
本発明の実施の形態では、データが与えられた場合に、そのデータがよく出現する場合(つまり、出現確率が高い場合)には低くなり、あまり出現しない場合(つまり、出現確率が低い場合)には高くなる値を異常度として用いる。例えば、異常度としてオートエンコーダーの再構成誤差を用いて、以下の式(1)を異常度推定モデルとすることができる。
Figure 0007359206000001
ここで、f(・;θ)はパラメータθを持つニューラルネットワークでモデル化されるエンコーダであり、g(・;θ)はパラメータθを持つニューラルネットワークでモデル化されるデコーダである。また、θ={θ,θ}は異常度推定モデルのパラメータである。
そこで、本発明の実施の形態では、上記の式(1)を異常度推定モデルとして、この異常度推定モデルのパラメータθを学習装置10で学習する場合と、学習されたパラメータθを用いて異常度推定モデルにより推定装置20に与えられたデータの異常度を推定する場合とについて説明する。なお、異常度は、オートエンコーダーの再構成誤差に限られず、例えば、対数尤度等の教師なし手法の異常検知で用いられる異常度を用いることもできる。
<全体構成>
次に、本発明の実施の形態における学習装置10及び推定装置20の全体構成について、図1を参照しながら説明する。図1は、本発明の実施の形態における学習装置10及び推定装置20の全体構成の一例を示す図である。
≪学習装置10≫
図1に示すように、本発明の実施の形態における学習装置10は、機能部として、入力部101と、目的関数計算部102と、パラメータ更新部103と、終了条件判定部104と、出力部105とを有する。
入力部101は、入力データとして、与えられた正常データ集合
Figure 0007359206000002
と、与えられた不正確な異常データ集合の集まり
Figure 0007359206000003
とを入力する。ここで、
Figure 0007359206000004
はj番目の正常データのD次元の特徴ベクトルを表す。また、
Figure 0007359206000005
はk番目の不正確な異常データ集合を表し、この集合の中で少なくとも1つのデータは異常データであるものとする。また、
Figure 0007359206000006
はk番目の不正確な異常データ集合のi番目のデータのD次元の特徴ベクトルを表す。
なお、不正確な異常データ集合とは、異常である可能性があるものの、真に異常であるか否かが不明なデータの集合のことである。ただし、上述したように、不正確な異常データ集合中のデータのうち、少なくとも1つのデータは異常データであるものとする。
目的関数計算部102は、所定の目的関数の値と、異常度推定モデルのパラメータに関する当該目的関数の微分値とを計算する。ここで、上述したように、本発明の実施の形態では、データが与えられた場合に、そのデータがよく出現する場合には低くなり、あまり出現しない場合には高くなる値を異常度として用いる。異常検知では、一般に、正常データに比べて異常データはその出現頻度が低いと考えられるため、本発明の実施の形態では、正常データ集合に含まれるデータ(つまり、正常データ)に対しては異常度が低くなり、かつ、不正確な異常データ集合の中の少なくとも1つのデータの異常度が正常データの異常度よりも高くなるように、異常度推定モデルのパラメータθを推定(学習)する。
そこで、本発明の実施形態では、例えば、以下の式(2)に示す目的関数を用いることができる。
Figure 0007359206000007
ここで、λ≧0はハイパーパラメータであり、σ(・)はシグモイド関数
Figure 0007359206000008
である。なお、シグモイド関数の代わりに、異常データの異常度が正常データの異常度よりも高い場合に大きな値を取り、かつ、異常データの異常度が正常データの異常度よりも低い場合に大きな値を取る任意の関数を用いることも可能である。
上記の式(2)に示す目的関数を最小化する場合、第1項は正常データの異常度を低くする効果があり、第2項は不正確な異常データ集合の中で少なくとも1つのデータの異常度が正常データの異常度よりも高くなるようにする効果がある。この式(2)に示す目的関数の最小化は、例えば、確率的勾配降下法等を用いればよい。また、ハイパーパラメータλとしては、例えば、開発データセットを用いた場合に第2項のよいもの(つまり、第2項の値が高くなるもの)を用いればよい。なお、上記の式(2)の目的関数の第2項の代わりに、例えば、Noisy-OR等が用いられてもよい。
パラメータ更新部103は、目的関数計算部102により計算された目的関数の値と、異常度推定モデルのパラメータに関する当該目的関数の微分値とを用いて、目的関数の値が低くなるように、パラメータθを更新する。
上記の目的関数の値及びその微分値の計算と、パラメータθの更新とは、所定の終了条件を満たすまで繰り返し行われる。これにより、異常度推定モデルのパラメータθが学習される。
終了条件判定部104は、所定の終了条件を満たすか否かを判定する。ここで、所定の終了条件としては、例えば、繰り返し回数が所定の回数に達したこと、目的関数の値の変化量が所定の値よりも小さくなったこと、異常度推定モデルのパラメータθの変化量が所定の値よりも小さくなったこと等が挙げられる。
出力部105は、終了条件判定部104により所定の終了条件を満たすと判定された場合、異常度推定モデルのパラメータθを出力する。出力部105は、異常度推定モデルのパラメータθを任意の出力先に出力すればよい。出力部105は、例えば、学習装置10の補助記憶装置等に出力してもよいし、通信ネットワーク等を介して推定装置20に出力(送信)してもよい。
≪推定装置20≫
図1に示すように、本発明の実施の形態における推定装置20は、機能部として、入力部201と、異常度計算部202と、出力部203とを有する。
入力部201は、入力データとして、与えられたデータx(つまり、異常検知の対象とするデータx)を入力する。ここで、データxは、D次元の特徴ベクトルである。
異常度計算部202は、学習装置10によって学習されたパラメータθを用いて、例えば上記の式(1)に示す異常度推定モデルにより、入力部201が入力したデータxの異常度aを計算する。これにより、異常検知対象のデータxの異常度aが推定される。
出力部203は、異常度計算部202により計算された異常度aを出力する。出力部203は、異常度aを任意の出力先に出力すればよい。出力部105は、例えば、推定装置20の補助記憶装置等に出力してもよいし、通信ネットワーク等を介して他の装置に出力(送信)してもよい。
<パラメータ学習処理>
以降では、学習装置10で異常度推定モデルのパラメータθを学習する処理(パラメータ学習処理)について、図2を参照しながら説明する。図2は、本発明の実施の形態におけるパラメータ学習処理の一例を示すフローチャートである。
まず、入力部101は、入力データとして、正常データ集合
Figure 0007359206000009
と、不正確な異常データ集合の集まり
Figure 0007359206000010
とを入力する(ステップS101)。ここで、各kに対して、
Figure 0007359206000011
である。なお、上述したように、各kに対して、k番目の不正確な異常データ集合の中で少なくとも1つのデータは異常データであるものとする。
次に、目的関数計算部102は、正常データ集合に含まれる各正常データと、各不正な異常データ集合にそれぞれ含まれる各データとを用いて、上記の式(2)に示す目的関数の値と、上記の式(1)に示す異常度推定モデルのパラメータに関する当該目的関数の微分値とを計算する(ステップS102)。
次に、パラメータ更新部103は、上記のステップS102で計算された目的関数の値と微分値とを用いて、当該目的関数の値が低くなるように、パラメータθを更新する(ステップS103)。
次に、終了条件判定部104は、所定の終了条件を満たすか否かを判定する(ステップS104)。そして、所定の終了条件を満たすと判定されなかった場合はステップS102に戻る。これにより、所定の終了条件を満たすと判定されるまで、上記のステップS102~ステップS104が繰り返し実行される。
一方で、所定の終了条件を満たすと判定された場合、出力部105は、異常度推定モデルのパラメータθを出力する(ステップS105)。これにより、学習済みのパラメータθが得られる。
<異常度推定処理>
以降では、推定装置20で異常検知対象のデータの異常度を推定する処理(異常度推定処理)について、図3を参照しながら説明する。図3は、本発明の実施の形態における異常度推定処理の一例を示すフローチャートである。
まず、入力部201は、入力データとして、異常検知の対象とするデータxを入力する(ステップS201)。ここで、データxは、D次元の特徴ベクトルである
次に、異常度計算部202は、学習済みのパラメータθを用いて、上記の式(1)に示す異常度推定モデルにより、データxの異常度aを計算する(ステップS202)。これにより、当該データxの異常度aが推定される。
最後に、出力部203は、上記のステップS202で計算された異常度aを出力する(ステップS203)。これにより、異常検知対象のデータxの異常度aが得られる。なお、この異常度aを用いて、当該データxが正常又は異常のいずれであるかが判定される。例えば、異常度aが所定の閾値以下である場合は正常、所定の閾値よりも大きい場合は異常等と判定される。
<性能評価>
ここで、本発明の実施の形態における推定装置20の性能評価を示す。評価指標としては、AUC(Area Under the ROC Curve)を用いた。AUCが高い程、異常検知性能が高い(つまり、異常度の推定精度が高い)ことを表す。
本発明の実施の形態における推定装置20の性能を評価するために、9つのデータセット(Annthyroid、Cardiotoco、InternetAds、KDDCup99、PageBlocks、Pima、SpamBase、Waveform、Wilt)を用いた。また、比較手法としては、LOF(the local outlier factor)、OSVM(one-class support vector machine)、IF(isolation forest)、AE(autoencoder)、KNN(k-nearest neighbor)、SVM(support vector machine)、RF(random forest)、NN(neural network)、MIL(multiple instance learning)、SIF(教師ありIF)、SAE(教師ありAE)を用いた。
このとき、各比較手法と、本発明の実施の形態における推定装置20(Ours)とのAUCを以下の表1に示す。
なお、上記の表1中でAverageは、各データセットでのAUCの平均値を表す。
上記の表1に示すように、本発明の実施の形態における推定装置20(Ours)は、他の比較手法と比べて、より多くのデータセットで高い性能を達成していることがわかる。
<ハードウェア構成>
最後に、本発明の実施の形態における学習装置10及び推定装置20のハードウェア構成について、図4を参照しながら説明する。図4は、本発明の実施の形態における学習装置10及び推定装置20のハードウェア構成の一例を示す図である。なお、学習装置10及び推定装置20は同様のハードウェア構成で実現可能であるため、以降では、主に、学習装置10のハードウェア構成について説明する。
図4に示すように、本発明の実施の形態における学習装置10は、入力装置301と、表示装置302と、外部I/F303と、RAM(Random Access Memory)304と、ROM(Read Only Memory)305と、プロセッサ306と、通信I/F307と、補助記憶装置308とを有する。これら各ハードウェアは、それぞれがバスBを介して通信可能に接続されている。
入力装置301は、例えばキーボードやマウス、タッチパネル等であり、ユーザが各種操作を入力するのに用いられる。表示装置302は、例えばディスプレイ等であり、学習装置10の処理結果等を表示する。なお、学習装置10及び推定装置20は、入力装置301及び表示装置302の少なくとも一方を有していなくてもよい。
外部I/F303は、外部装置とのインタフェースである。外部装置には、記録媒体303a等がある。学習装置10は、外部I/F303を介して、記録媒体303aの読み取りや書き込み等を行うことができる。記録媒体303aには、例えば、学習装置10が有する各機能部(例えば、入力部110、目的関数計算部120、パラメータ更新部130、終了条件判定部140及び出力部150等)を実現する1以上のプログラムが記録されていてもよいし、推定装置20が有する各機能部(例えば、入力部210、異常度計算部220及び出力部230等)を実現する1以上のプログラムが記録されていてもよい。
記録媒体303aとしては、例えば、フレキシブルディスク、CD(Compact Disc)、DVD(Digital Versatile Disk)、SDメモリカード(Secure Digital memory card)、USB(Universal Serial Bus)メモリカード等がある。
RAM304は、プログラムやデータを一時保持する揮発性の半導体メモリである。ROM305は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリである。ROM305には、例えば、OS(Operating System)に関する設定情報や通信ネットワークに関する設定情報等が格納されている。
プロセッサ306は、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)等であり、ROM305や補助記憶装置308等からプログラムやデータをRAM304上に読み出して処理を実行する演算装置である。学習装置10が有する各機能部は、ROM305や補助記憶装置308等に格納されている1以上のプログラムをRAM304上に読み出してプロセッサ306が処理を実行することで実現される。同様に、推定装置20が有する各機能部は、ROM305や補助記憶装置308等に格納されている1以上のプログラムをRAM304上に読み出してプロセッサ306が処理を実行することで実現される。
通信I/F307は、学習装置10を通信ネットワークに接続するためのインタフェースである。学習装置10が有する各機能部を実現する1以上のプログラムや推定装置20が有する各機能部を実現する1以上のプログラム等は、通信I/F307を介して、所定のサーバ装置等から取得(ダウンロード)されてもよい。
補助記憶装置308は、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)等であり、プログラムやデータを格納している不揮発性の記憶装置である。補助記憶装置308に格納されているプログラムやデータには、例えば、OS、当該OS上で各種機能を実現するアプリケーションプログラム等がある。また、学習装置10の補助記憶装置308には、学習装置10が有する各機能部を実現する1以上のプログラムが格納されている。同様に、推定装置20の補助記憶装置308には、推定装置20が有する各機能部を実現する1以上のプログラムが格納されている。
本発明の実施の形態における学習装置10は、図4に示すハードウェア構成を有することにより、上述したパラメータ学習処理を実現することができる。同様に、本発明の実施の形態における推定装置20は、図4に示すハードウェア構成を有することにより、上述した異常度推定処理を実現することができる。
なお、図4に示す例では、本発明の実施の形態における学習装置10及び推定装置20がそれぞれ1台の装置(コンピュータ)で実現されている場合を示したが、これに限られない。本発明の実施の形態における学習装置10及び推定装置20の少なくとも一方が、複数台の装置(コンピュータ)で実現されていてもよい。また、1台の装置(コンピュータ)には、複数のプロセッサ306や複数のメモリ(RAM304やROM305、補助記憶装置308等)が含まれていてもよい。
本発明は、具体的に開示された上記の実施の形態に限定されるものではなく、請求の範囲の記載から逸脱することなく、種々の変形や変更が可能である。
10 学習装置
20 推定装置
101 入力部
102 目的関数計算部
103 パラメータ更新部
104 終了条件判定部
105 出力部
201 入力部
202 異常度計算部
203 出力部

Claims (4)

  1. 正常を示すデータで構成される第1のデータ集合と、異常を示すデータが少なくとも1つ含まれるデータ集合の集まりで構成される第2のデータ集合とを入力する入力手段と、
    前記第1のデータ集合に含まれる各データと、前記第2のデータ集合に含まれる各データとを、データの異常度を推定するモデルを利用した目的関数に入力して、前記目的関数の値を計算する第1の計算手段と、
    前記第1のデータ集合に含まれる各データと、前記第2のデータ集合に含まれる各データとを、前記モデルのパラメータに関する前記目的関数の勾配に入力して、前記目的関数の微分値を計算する第2の計算手段と、
    前記目的関数の値と前記微分値とを用いて、前記モデルのパラメータを更新する更新手段と、
    を有し、
    前記モデルにより推定される異常度は、出現する確率が高いデータに対しては前記異常度の値が低くなり、出現する確率が低いデータに対しては前記異常度の値が高くなる、ことを特徴とする学習装置。
  2. 前記目的関数には、前記正常を示すデータの異常度を低くするための第1の項と、前記第2のデータ集合を構成するデータ集合の中の少なくとも1つのデータの異常度を、前記正常を示すデータの異常度よりも高くするための第2の項とが含まれ、
    前記更新手段は、
    前記目的関数の値を最小化するように、前記モデルのパラメータを更新する、ことを特徴とする請求項1に記載の学習装置。
  3. 正常を示すデータで構成される第1のデータ集合と、異常を示すデータが少なくとも1つ含まれるデータ集合の集まりで構成される第2のデータ集合とを入力する入力手順と、
    前記第1のデータ集合に含まれる各データと、前記第2のデータ集合に含まれる各データとを、データの異常度を推定するモデルを利用した目的関数に入力して、前記目的関数の値を計算する第1の計算手順と、
    前記第1のデータ集合に含まれる各データと、前記第2のデータ集合に含まれる各データとを、前記モデルのパラメータに関する前記目的関数の勾配に入力して、前記目的関数の微分値を計算する第2の計算手順と、
    前記目的関数の値と前記微分値とを用いて、前記モデルのパラメータを更新する更新手順と、
    をコンピュータが実行し、
    前記モデルにより推定される異常度は、出現する確率が高いデータに対しては前記異常度の値が低くなり、出現する確率が低いデータに対しては前記異常度の値が高くなる、ことを特徴とする学習方法。
  4. コンピュータを、請求項1又は2に記載の学習装置における各手段として機能させるためのプログラム。
JP2021521685A 2019-05-30 2019-05-30 学習装置、学習方法、及びプログラム Active JP7359206B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/021489 WO2020240770A1 (ja) 2019-05-30 2019-05-30 学習装置、推定装置、学習方法、推定方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2020240770A1 JPWO2020240770A1 (ja) 2020-12-03
JP7359206B2 true JP7359206B2 (ja) 2023-10-11

Family

ID=73553122

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021521685A Active JP7359206B2 (ja) 2019-05-30 2019-05-30 学習装置、学習方法、及びプログラム

Country Status (3)

Country Link
US (1) US20220207301A1 (ja)
JP (1) JP7359206B2 (ja)
WO (1) WO2020240770A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210065054A1 (en) * 2019-09-03 2021-03-04 Koninklijke Philips N.V. Prioritizing tasks of domain experts for machine learning model training

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009282686A (ja) 2008-05-21 2009-12-03 Toshiba Corp 分類モデル学習装置および分類モデル学習方法
JP2015230570A (ja) 2014-06-04 2015-12-21 日本電信電話株式会社 学習モデル作成装置、判定システムおよび学習モデル作成方法
JP2018049355A (ja) 2016-09-20 2018-03-29 株式会社東芝 異常検知装置、学習装置、異常検知方法、学習方法、異常検知プログラム、および学習プログラム
CN109344869A (zh) 2018-08-28 2019-02-15 东软集团股份有限公司 一种分类模型优化方法、装置及存储设备、程序产品
JP2020085583A (ja) 2018-11-21 2020-06-04 セイコーエプソン株式会社 検査装置及び検査方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009282686A (ja) 2008-05-21 2009-12-03 Toshiba Corp 分類モデル学習装置および分類モデル学習方法
JP2015230570A (ja) 2014-06-04 2015-12-21 日本電信電話株式会社 学習モデル作成装置、判定システムおよび学習モデル作成方法
JP2018049355A (ja) 2016-09-20 2018-03-29 株式会社東芝 異常検知装置、学習装置、異常検知方法、学習方法、異常検知プログラム、および学習プログラム
CN109344869A (zh) 2018-08-28 2019-02-15 东软集团股份有限公司 一种分类模型优化方法、装置及存储设备、程序产品
JP2020085583A (ja) 2018-11-21 2020-06-04 セイコーエプソン株式会社 検査装置及び検査方法

Also Published As

Publication number Publication date
US20220207301A1 (en) 2022-06-30
JPWO2020240770A1 (ja) 2020-12-03
WO2020240770A1 (ja) 2020-12-03

Similar Documents

Publication Publication Date Title
JP7223839B2 (ja) 異常検出および/または予知保全のためのコンピュータ実装方法、コンピュータプログラム製品およびシステム
US10216558B1 (en) Predicting drive failures
Rassam et al. Adaptive and online data anomaly detection for wireless sensor systems
JP6183450B2 (ja) システム分析装置、及び、システム分析方法
EP3795975B1 (en) Abnormality sensing apparatus, abnormality sensing method, and abnormality sensing program
JP6299759B2 (ja) 予測関数作成装置、予測関数作成方法、及びプログラム
JP6183449B2 (ja) システム分析装置、及び、システム分析方法
US11561875B2 (en) Systems and methods for providing data recovery recommendations using A.I
CN111125529A (zh) 产品匹配方法、装置、计算机设备及存储介质
JP2020027342A (ja) 情報処理装置、監視装置、及び情報処理方法
JP6950504B2 (ja) 異常候補抽出プログラム、異常候補抽出方法および異常候補抽出装置
US20210150335A1 (en) Predictive model performance evaluation
JP7359206B2 (ja) 学習装置、学習方法、及びプログラム
JPWO2016084326A1 (ja) 情報処理システム、情報処理方法、及び、プログラム
Li et al. An adaptive prognostics method based on a new health index via data fusion and diffusion process
US20220253426A1 (en) Explaining outliers in time series and evaluating anomaly detection methods
US10540828B2 (en) Generating estimates of failure risk for a vehicular component in situations of high-dimensional and low sample size data
JP4559974B2 (ja) 管理装置及び管理方法及びプログラム
JP7420244B2 (ja) 学習装置、学習方法、推定装置、推定方法及びプログラム
JP7259436B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム
US11714695B2 (en) Real time detection of metric baseline behavior change
WO2022172330A1 (ja) 学習装置、異常検知装置、学習方法、異常検知方法、及びプログラム
KR102664734B1 (ko) 멀티-태스크(multi-task) 모델의 학습 방법
JP6740193B2 (ja) パラメータ推定装置、パラメータ推定方法及びパラメータ推定プログラム
KR102319015B1 (ko) 정밀 점유 지도 작성을 위한 적응형 커널 추론 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230721

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230911

R150 Certificate of patent or registration of utility model

Ref document number: 7359206

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150