JP6599294B2 - 異常検知装置、学習装置、異常検知方法、学習方法、異常検知プログラム、および学習プログラム - Google Patents

異常検知装置、学習装置、異常検知方法、学習方法、異常検知プログラム、および学習プログラム Download PDF

Info

Publication number
JP6599294B2
JP6599294B2 JP2016183085A JP2016183085A JP6599294B2 JP 6599294 B2 JP6599294 B2 JP 6599294B2 JP 2016183085 A JP2016183085 A JP 2016183085A JP 2016183085 A JP2016183085 A JP 2016183085A JP 6599294 B2 JP6599294 B2 JP 6599294B2
Authority
JP
Japan
Prior art keywords
data
learning
compressed
distribution
encoder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016183085A
Other languages
English (en)
Other versions
JP2018049355A (ja
Inventor
秀将 伊藤
孝司 森本
信太郎 高橋
利幸 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2016183085A priority Critical patent/JP6599294B2/ja
Priority to US15/703,515 priority patent/US10909419B2/en
Publication of JP2018049355A publication Critical patent/JP2018049355A/ja
Application granted granted Critical
Publication of JP6599294B2 publication Critical patent/JP6599294B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0751Error or fault detection not based on redundancy
    • G06F11/0754Error or fault detection not based on redundancy by exceeding limits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • G06F18/21355Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis nonlinear criteria, e.g. embedding a manifold in a Euclidean space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/001Model-based coding, e.g. wire frame
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/81Threshold

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、異常検知装置、学習装置、異常検知方法、学習方法、異常検知プログラム、および学習プログラムに関する。
異常検知とは、データに存在する大多数の傾向をモデル化し、本来あるべきではないデータを発見する技術である。機器の故障検知や予測、ネットワークの不正検知など、様々な分野に応用されており、IoT(Internet of Things)の発展により、さらなる拡大が見込まれている。データの異常を検知するための方法として、オートエンコーダを用いた異常検知方法が知られている。この異常検知方法では、正常データ間における関係性やパターンを利用してデータをできるだけ損失無く圧縮および再構成するモデルを用いて異常の検知を行う。このモデルを用いて正常データを処理した場合、データ損失(再構成誤差)が少ない圧縮および再構成処理が行われるが、異常データを処理した場合、データ損失が大きくなる。この異常検知方法では、このデータ損失の大きさに基づいてデータの異常が検知される。
上記のオートエンコーダは、高次元のデータ中の高密度の低次元多様体をモデル化している。すなわち、圧縮処理においてデータは多様体へ射影され、再構成処理において多様体が高次元空間へ射影される。例えば、図7に示すように、二次元で表されている複数のデータ(プロット)が、圧縮処理により一次元多様体A上に射影される。また、一次元多様体A上に射影されたデータは、再構成処理により二次元空間に射影される。このため、オートエンコーダが検知する異常(再構成誤差)は、データから多様体へのユークリッド距離(例えば、図7に示す距離D1)に基づいて判定される。例えば、図6に示すデータ番号1の自動車の画像データ(正常データ)をオートエンコーダで処理した場合、元の画像データと、再構成データとの間の再構成誤差が小さいため、正常と判定される。一方、データ番号2の自動車の一部が欠損した画像データ(異常データ)をオートエンコーダで処理した場合、欠損部分が補完された再構成データが生成されるため、元の画像データと、再構成データとの間の再構成誤差が大きくなり異常と判定される。
しかしながら、上記のオートエンコーダによる処理では、多様体上のデータ密度を考慮していないため、データの異常を検知できない場合がある。例えば、図6に示すデータ番号3の高さ方向に圧縮された自動車の画像データ(異常データ)は、データ密度が低い範囲に位置するデータ(例えば、図7に示すデータB1)である。この画像データをオートエンコーダで処理した場合、元の画像データと、再構成データとの間の再構成誤差は大きくないため正常と判定されてしまう。また、同様に、図6に示すデータ番号4のドアノブが欠損した自動車の画像データ(異常データ)も正常と判定されてしまう。
また、上記のオートエンコーダによる処理では、再構成誤差を得るために二乗誤差最小化を用いる場合、各データの多様体からの離れ方は一様に正規分布を仮定しているため、正確な再構成誤差を得ることができない場合がある。
その他、学習データを用いた画像処理技術として、自由度の高い事前分布を定義可能な敵対的ネットワーク(Generative Adversarial Network:GAN)の研究が進められている。このGANにおいては、事前分布からデータを生成するデコーダと、データが真のデータであるか、生成されたデータであるかを識別する識別器とが用いられる。このGANはデータ生成モデルであり、事前分布からデータを生成する機能を持つが、データを事前分布に逆変換する機能を持たないため、異常検知には利用できない。
米国特許第8352216号明細書 米国特許出願公開第2011/0313726号明細書 米国特許出願公開第2007/0192863号明細書 米国特許第7917335号明細書
Jinwon Anら,"Variational Autoencoder based Anomaly Detection using Reconstruction Probability",2015年12月27日,[online],[2016年9月1日検索],インターネット<URL:http://dm.snu.ac.kr/static/docs/TR/SNUDM-TR-2015-03.pdf> 日経Robotics,2016年6月号,p4−5
本発明が解決しようとする課題は、データの異常検知を高精度で行うことができる異常検知装置、学習装置、異常検知方法、学習方法、異常検知プログラム、および学習プログラムを提供することである。
実施形態の異常検知装置は、エンコーダと、第1識別部と、デコーダと、第2識別部とを持つ。前記エンコーダは、正常データに適合する圧縮パラメータを用いて、入力データを圧縮する。前記第1識別部は、前記エンコーダによって圧縮された圧縮データの事前分布上の対数確率密度と、圧縮データ分布および事前分布の対数密度比との和に基づいて、前記入力データの第1異常を検知する。前記デコーダは、前記正常データに適合する復号パラメータを用いて、前記エンコーダによって圧縮された圧縮データを復号する。前記第2識別部は、前記デコーダにより復号された再構成データと、前記入力データとの差異を算出し、前記差異に基づいて、前記入力データの第2異常を検知する。
実施形態の学習装置および異常検知装置の処理の概要を示すフロー図。 実施形態の学習装置の一例を示す機能ブロック図。 実施形態の異常検知装置の一例を示す機能ブロック図。 実施形態の学習装置の処理の流れの一例を示すフローチャート。 実施形態の異常検知装置の処理の流れの一例を示すフローチャート。 オートエンコーダおよび実施形態の異常検知装置による検知結果の一例を示す図。 オートエンコーダによるデータの圧縮および再構成処理を説明する図。
以下、実施形態の異常検知装置、学習装置、異常検知方法、学習方法、異常検知プログラム、および学習プログラムを、図面を参照して説明する。
図1は、実施形態の学習装置および異常検知装置の処理の概要を示すフロー図である。学習装置1は、データの異常検知を行うための前準備として、正常データの圧縮処理および復号処理(再構成処理)を行うことで、正常データにおけるデータ間の関係性やパターンを把握し、再構成誤差の小さい圧縮および復号処理を行うための手順を学習する。例えば、学習装置1は、学習データD1の圧縮および復号処理を行い、学習パラメータD1に適合する学習パラメータP1を算出する。
学習データD1は、例えば、各種センサによって測定されたセンサデータ、各種機器の動作ログデータ、各種数値データ、各種カテゴリカルデータなど、任意のデータを含む。学習データD1は、これらの種類のデータの正常データを含んでいる。学習データD1は、少量の異常データを含んでいてもよい。以下、学習装置1による上記の学習処理が行われる段階を「学習段階」と称する。
異常検知装置1Aは、学習装置1によって算出された学習パラメータP1を利用して、検知データ(入力データ)D2の異常検知を行い、検知結果R1を出力する。この異常検知装置1Aは、正常データに対しては再構成誤差の小さい圧縮および復号処理を行うことができるが、正常データと異なる傾向のデータ(異常データ)に対して圧縮および復号処理を行った場合にはその再構成誤差が大きくなる。この再構成誤差とは、正常データと、正常データを圧縮した後で復号することで生成される再構成データとの差異を示す。この再構成誤差を把握することで、異常データを検知することができる。以下、この異常検知装置1Aによる上記の異常検知処理を行う段階を「異常検知段階」と称する。尚、学習装置1および異常検知装置1Aは、その処理段階に応じて名称を使い分けしたものである。このため、学習装置1および異常検知装置1Aは同一の装置であってよい。
図2は、実施形態の学習装置1の一例を示す機能ブロック図である。学習装置1は、例えば、エンコーダ10と、デコーダ12と、第1識別部14と、第2識別部16とを備える。
エンコーダ10は、学習データD1を圧縮し、圧縮データを第1識別部14およびデコーダ12に出力する。また、エンコーダ10は、第1識別部14から入力された識別結果に基づいて、学習データD1に適合するように圧縮処理に利用するパラメータ(圧縮パラメータ)の調整を行う。例えば、エンコーダ10は、エンコーダ10により生成された圧縮データの分布と、事前分布との差異が低減するように、圧縮パラメータを調整する。事前分布とは、学習段階前に定義される確率分布であり、正規分布、多項分布、一様分布など、任意の分布が定義される。すなわち、エンコーダ10は、第1識別部14が、エンコーダ10から入力された圧縮データの分布を事前分布であると判定するように、圧縮パラメータを調整する。
デコーダ12は、エンコーダ10から入力された圧縮データを復号して再構成データを生成し、再構成データを第2識別部16に出力する。また、デコーダ12は、第2識別部16から入力された識別結果に基づいて、学習データD1に適合するように復号処理に利用するパラメータ(復号パラメータ)の調整を行う。例えば、デコーダ12は、デコーダ12により生成された再構成データと学習データD1との差異が低減するように、復号パラメータを調整する。すなわち、デコーダ12は、第2識別部16が、デコーダ12から入力された再構成データが学習データD1であると判定するように、復号パラメータを調整する。
第1識別部14は、入力されたデータの分布が、エンコーダ10から入力された圧縮データの分布と、予め準備された事前分布とのいずれの分布であるのかを識別し、識別結果(第1識別結果)をエンコーダ10に出力する。例えば、第1識別部14は、ニューラルネットを使用してエンコーダ10から入力された圧縮データを処理して、最終層データおよび中間層データを生成する。最終層データとは、ニューラルネットの出力値に相当し、中間層データとは、最終層データおよび入力層データ以外の全ての層のデータに相当する。例えば、最終層の一つ手前の層のデータを、中間層データと称する。また、第1識別部14は、ニューラルネットを使用して事前分布からサンプリングされたデータを処理して、最終層データおよび中間層データを生成する。第1識別部14は、圧縮データから得られた中間層データと、事前分布からサンプリングされたデータから得られた中間層データとを比較して上記の識別処理を行う。
第2識別部16は、入力されたデータが、デコーダ12から入力された再構成データと、上記の圧縮および復号処理が施されていない学習データD1とのいずれのデータであるかを識別し、識別結果(第2識別結果)をエンコーダ10およびデコーダ12に出力する。例えば、第2識別部16は、ニューラルネットを使用してデコーダ12から入力された再構成データを処理して、最終層データおよび中間層データを生成する。また、第2識別部16は、ニューラルネットを使用して学習データD1を処理して、最終層データおよび中間層データを生成する。第2識別部16は、再構成データから得らえた中間層データと、学習データから得られた中間層データとを比較して上記の識別処理を行う。
エンコーダ10およびデコーダ12の各々は、上記の第2識別結果に基づいて、再構成データと学習データD1との差異が低減するように、圧縮パラメータおよび復号パラメータを調整する。すなわち、エンコーダ10およびデコーダ12の各々は、第2識別部16がデコーダ12から入力された再構成データを学習データD1と判定するように、圧縮パラメータおよび復号パラメータを調整する。
上記の第1識別部14による識別処理およびエンコーダ10によるパラメータの調整処理を複数の学習データに対して繰り返すことで、エンコーダ10は、正常なデータにおけるデータ間の関係性やパターンを把握し、事前分布に近い分布を持つ圧縮データを生成する圧縮処理を行うための手順を学習する。また、上記の第2識別部16による識別処理、並びにエンコーダ10およびデコーダ12によるパラメータの調整処理を複数の学習データに対して繰り返すことで、エンコーダ10およびデコーダ12は、正常なデータにおけるデータ間の関係性やパターンを把握し、再構成誤差の少ない圧縮および復号処理を行うための手順を学習する。
図3は、実施形態の異常検知装置1Aの一例を示す機能ブロック図である。異常検知装置1Aは、例えば、上記の学習装置1と同様に、エンコーダ10と、デコーダ12と、第1識別部14と、第2識別部16とを備える。
エンコーダ10は、検知データD2を圧縮し、圧縮データを第1識別部14およびデコーダ12に出力する。例えば、エンコーダ10は、検知データD2を事前分布にエンコードする。これにより、検知データD2の事前分布上での対数確率を計算することができる。検知データD2は、例えば、各種センサによって測定されたセンサデータ、各種機器の動作ログデータ、各種数値データ、各種カテゴリカルデータなど、任意のデータを含む。
デコーダ12は、エンコーダ10から入力された圧縮データを復号して再構成データを生成し、再構成データを第2識別部16に出力する。
第1識別部14は、エンコーダ10から入力された圧縮データの事前分布上の対数確率密度と、圧縮データ分布および事前分布の対数密度比との和が所定の閾値(第1閾値)以下である場合には異常(第1異常)と判定し、第1閾値よりも大きい場合には正常と判定する。圧縮データ分布および事前分布の対数密度比は、第1識別部14の最終層として出力される圧縮データ確率に対する事前分布確率の商の対数として得られる。すなわち、第1識別部14は、異常データの定義を正常データ分布から見たレアデータとする。データxの出現確率p(x)をモデル化し、レアデータの検知を行う。第1識別部14は、異常検知結果を表示部(図示しない)に表示してもよい。また、第1識別部14は、異常検知結果を外部の管理端末(図示しない)に出力してもよい。
第2識別部16は、デコーダ12から入力された再構成データと、検知データD2との差異の程度を示す異常度を算出し、この異常度に基づいて、検知データD2の異常検知を行う。第2識別部16は、例えば、この異常度が所定の閾値(第2閾値)以上の場合には異常(第2異常)と判定し、第2閾値未満の場合には正常と判定する。第2識別部16は、異常検知結果を、図示しない表示部に表示してもよい。また、第2識別部16は、異常検知結果を外部の管理端末に出力してもよい。
上記の学習装置1および異常検知装置1Aの各機能部のうち一部または全部は、プロセッサがプログラム(ソフトウェア)を実行することにより実現されてよい。また、学習装置1および異常検知装置1Aの各機能部のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等のハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。
次に、実施形態の学習装置1の動作について説明する。図4は、実施形態の学習装置1の処理の流れの一例を示すフローチャートである。
まず、エンコーダ10は、例えば、学習データベース(図示しない)に記憶されている複数の学習データD1(以下、「学習データ群」と称する)の中から少なくとも1つの学習データD1を抽出し、この学習データD1の圧縮を行い、圧縮データを第1識別部14およびデコーダ12に出力する(ステップS101)。尚、エンコーダ10は、学習データベースから上記の学習データD1をランダムに抽出してよい。
次に、デコーダ12は、エンコーダ10から入力された圧縮データを復号して再構成データを生成し、再構成データを第2識別部16に出力する(ステップS103)。
次に、第1識別部14は、入力されたデータが、エンコーダ10から入力される圧縮データのベクトルと、予め準備された事前分布からサンプリングされたベクトルとのいずれのベクトルであるのかを識別する(ステップS105)。例えば、第1識別部14は、圧縮データをニューラルネットで処理して、最終層データおよび中間層データのベクトルを取得する。また、第1識別部14は、事前分布からサンプリングされたベクトルをニューラルネットで処理して、最終層データおよび中間層データのベクトルを取得する。次に、第1識別部14は、圧縮データの中間層データのベクトルの平均と、事前分布からサンプリングされたベクトルの中間層データのベクトルの平均との差分(例えば、差分の二乗)を算出する。この差分は以下の式(1)によって表される。
Figure 0006599294
上記式(1)において、mean(f)は圧縮データの中間層データのベクトルの平均を示し、mean(f’)は事前分布からサンプリングされたベクトルの中間層データのベクトルの平均を示し、smseがこれらの差分を二乗した値を示す。
次に、第2識別部16は、入力されたデータが、デコーダ12から入力された再構成データと、圧縮および復号処理が施されていない学習データD1とのいずれのデータであるのかを識別する(ステップS107)。例えば、第2識別部16は、学習データD1をニューラルネットで処理して、最終層データおよび中間層データのベクトルを取得する。また、第2識別部16は、再構成データをニューラルネットで処理して、最終層データおよび中間層データのベクトルを取得する。次に、第2識別部16は、学習データD1の中間層データのベクトルと、再構成データの中間層データのベクトルとの差分(例えば、差分の二乗)を算出する。この差分は以下の式(2)によって表される。
Figure 0006599294
上記式(2)において、fは学習データD1の中間層データのベクトルを示し、f’は再構成データの中間層データのベクトルを示し、mseがこれらの差分を二乗した値を示す。
さらに、第2識別部16は、事前分布からサンプリングされたベクトルを圧縮することにより得られた圧縮データをニューラルネットで処理して、最終層データおよび中間層データのベクトルを取得する。次に、第2識別部16は、学習データD1をニューラルネットで処理することにより得られた中間層データのベクトルの平均と、事前分布からサンプリングされたベクトルを圧縮することにより得られた圧縮データの中間層データのベクトルの平均との差分(例えば、差分の二乗)を算出する。この差分は以下の式(3)によって表される。
Figure 0006599294
上記式(3)において、mean(f)は学習データD1の中間層データのベクトルの平均を示し、mean(f’’)は事前分布からサンプリングされたベクトルの圧縮データの中間層データのベクトルの平均を示し、fmmseがこれらの差分を二乗した値を示す。
次に、エンコーダ10およびデコーダ12の各々は、上記の式(1)から(3)に基づて定義された損失関数を用いて、圧縮パラメータおよび復号パラメータを調整する(ステップS109)。損失関数lossAEは、以下の式(4)によって表される。βおよびγは損失関数の相対的重要度を定義する重みである。
Figure 0006599294
エンコーダ10は、第1識別部14から入力された第1識別結果に基づいて、圧縮データの分布が、事前分布に近付くように、圧縮パラメータを調整する。すなわち、エンコーダ10は、第1識別部14がエンコーダ10から入力される圧縮データを事前分布からサンプリングされたベクトルであると判定するように、圧縮パラメータを調整する。また、エンコーダ10およびデコーダ12の各々は、第2識別部16から入力された第2識別結果に基づいて、デコーダ12によって生成される再構成データと、圧縮および復号処理が施されていない学習データD1との差異が低減するように、圧縮パラメータおよび復号パラメータを調整する。すなわち、エンコーダ10およびデコーダ12の各々は、第2識別部16がデコーダ12から入力された再構成データを学習データD1と判定するように、圧縮パラメータおよび復号パラメータを調整する。
パラメータの調整処理においては、上記の損失関数lossAEを低減させるように、例えば、以下の式(5)から(8)を用いて圧縮パラメータおよび復号パラメータが調整される。
Figure 0006599294
上記式(5)において、Wencは、エンコーダ10のニューラルネットの持つ重みパラメータ(コネクションの強さ)であり、αは係数(例えば、0以上1以下の係数)である。右辺の微分計算は、損失関数lossAEを低減させるWencの勾配を求めている。この勾配方向にα値をかけて、Wencを更新する。このWencの勾配計算および更新処理においては、確率的勾配降下法(Stochastic Gradient Descent:SGD)と呼ばれる学習処理を使用してもよいし、その他の学習アルゴリズムを使用してもよい。
Figure 0006599294
上記式(6)において、Wdecはデコーダ12のニューラルネットの持つ重みパラメータ(コネクションの強さ)であり、αは係数(例えば、0以上1以下の係数)である。右辺の微分計算は、損失関数lossAEを低減させるWdecの勾配を求めている。この勾配方向にα値をかけて、Wdecを更新する。
Figure 0006599294
上記式(7)において、bencはバイアスであり、αは係数(例えば、0以上1以下の係数)である。右辺の微分計算は、損失関数lossAEを低減させるbencの勾配を求めている。この勾配方向にα値をかけて、bencを更新する。
Figure 0006599294
上記式(8)において、bdecはバイアスであり、αは係数(例えば、0以上1以下の係数)である。右辺の微分計算は、損失関数lossAEを低減させるbdecの勾配を求めている。この勾配方向にα値をかけて、bdecを更新する。
さらに、上記のパラメータの調整処理の後、第1識別部14および第2識別部16の学習損失を低減させるように、第1識別部14および第2識別部16のパラメータが調整される。第1識別部14の学習損失losssmalldisおよび第2識別部16の学習損失lossdisは、例えば、以下の式(9)および(10)によって表される。
Figure 0006599294
上記式(9)において、−logy[0]は、第1識別部14が、入力された圧縮データを圧縮データとして識別できるほど小さくなる項であり、−logy’[1]は、事前分布からサンプリングされたベクトルをこのベクトルとして識別できるほど小さくなる項である。第1識別部14は、この学習損失losssmalldisを最小化するようにパラメータの調整を行う。ys[0]およびy’[1]はプログラムで扱う際のベクトルのインデックスあり、第1識別部14が出力する二次元ベクトルysの1次元目および2次元目に対応する。
Figure 0006599294
上記式(10)において、−logy[0]は、第2識別部16が、入力された学習データD1を学習データD1として識別できるほど小さくなり項であり、−logy’[1]は、再構成データを再構成データとして識別できるほど小さくなる項である。第2識別部16は、この学習損失lossdisを最小化するようにパラメータの調整を行う。y[0]およびy’[1]はプログラムで扱う際のベクトルのインデックスあり、第2識別部16が出力する二次元ベクトルyの1次元目および2次元目に対応する。
上記の第1識別部14および第2識別部16における調整処理においては、上記の学習損失losssmalldisおよび学習損失lossdisを低減させるように、例えば、以下の式(5)から(8)を用いてパラメータが調整される。
Figure 0006599294
上記式(11)において、Wsmalldisは、第1識別部14のニューラルネットの持つ重みパラメータ(コネクションの強さ)であり、αは係数(例えば、0以上1以下の係数)である。右辺の微分計算は、学習損失losssmalldisを低減させるWsmalldisの勾配を求めている。この勾配方向にα値をかけて、Wsmalldisを更新する。
Figure 0006599294
上記式(12)において、Wdisは、第2識別部16のニューラルネットの持つ重みパラメータ(コネクションの強さ)であり、αは係数(例えば、0以上1以下の係数)である。右辺の微分計算は、学習損失lossdisを低減させるWdisの勾配を求めている。この勾配方向にα値をかけて、Wdisを更新する。
Figure 0006599294
上記式(13)において、bsmalldisはバイアスであり、αは係数(例えば、0以上1以下の係数)である。右辺の微分計算は、学習損失losssmalldisを低減させるbsmalldisの勾配を求めている。この勾配方向にα値をかけて、bSmalldisを更新する。
Figure 0006599294
上記式(14)において、bdisはバイアスであり、αは係数(例えば、0以上1以下の係数)である。右辺の微分計算は、学習損失lossdisを低減させるbdisの勾配を求めている。この勾配方向にα値をかけて、bdisを更新する。
次に、エンコーダ10は、学習データベースに記憶されている学習データD1の抽出が完了したか否かを判定する(ステップS111)。エンコーダ10は、学習データD1の抽出が完了していないと判定した場合、残りの学習データD1のうちの少なくとも1つを抽出し、上述の圧縮および復号処理、並びにパラメータ調整処理を行う。一方、エンコーダ10は、学習データD1の抽出が完了したと判定した場合、上記の学習データ群に対する1回の学習処理サイクルが完了したと判断し、学習処理の回数を計数する。例えば、エンコーダ10は、内部に設けられたメモリ(図示しない)上に設定された処理回数計測用のパラメータをインクリメントすることで、上記の学習処理の回数を計数する。
次に、エンコーダ10は、上記の学習処理の回数が、所定の処理回数に到達したか否かを判定する(ステップS113)。エンコーダ10は、上記の学習処理の回数が、所定の処理回数未満であると判定した場合、上記の学習データ群に対する学習処理を再度行う。このように、同一の学習データ群に対して学習処理を繰り返すことで、パラメータ調整の精度を向上させることができる。一方、エンコーダ10は、上記の学習処理の回数が、所定の処理回数以上であると判定した場合、本フローチャートの処理を終了する。
尚、上記の学習装置1における学習処理においては、多層構造のニューラルネットワーク(Deep Neural Network:DNN)、畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)、再帰型ニューラルネットワーク(Recurrent Neural Network:RNN)を採用してもよい。
次に、実施形態の異常検知装置1Aの動作について説明する。図5は、実施形態の異常検知装置1Aの処理の流れの一例を示すフローチャートである。図6は、実施形態の異常検知装置1Aによる検知結果の一例を示す図である。
まず、エンコーダ10は、検知データD2を圧縮し、圧縮データを第1識別部14およびデコーダ12に出力する(ステップS201)。
次に、第1識別部14は、エンコーダ10から入力された圧縮データの異常検知を行う(ステップS203)。例えば、第1識別部14は、エンコーダ10から入力された圧縮データの事前分布上の対数確率密度と、圧縮データ分布および事前分布の対数密度比との和が所定の閾値(第1閾値)以下である場合には異常(第1異常)と判定し、第1閾値よりも大きい場合には正常と判定する。圧縮データ分布および事前分布の対数密度比は、第1識別部14の最終層として出力される圧縮データ確率に対する事前分布確率の商の対数として得られる。
この第1識別部14による異常検知処理においては、多様体上の密度を考慮し、多様体上の密度が低い範囲に位置するデータを異常と判定し、多様体上の密度が高い範囲に位置するデータを正常と判定する。例えば、エンコーダ10が、図6に示すデータ番号1の自動車の画像を示すデータ(正常データ)の圧縮データを第1識別部14に出力した場合、この圧縮データは多様体上の密度が高い範囲に位置するデータであるため、第1識別部14は、この圧縮データを正常と判定する。一方、図6に示すデータ番号3の自動車の高さ方向に圧縮された画像を示すデータ(異常データ)は、多様体上の密度が低い範囲に位置するデータである。エンコーダ10が、この画像データの圧縮データを第1識別部14に出力した場合、この圧縮データは多様体上の密度が第1閾値よりも低いため、第1識別部14はこの圧縮データを異常と判定する。
次に、デコーダ12は、エンコーダ10から入力された圧縮データを復号して再構成データを生成し、再構成データを第2識別部16に出力する(ステップS205)。
次に、第2識別部16は、デコーダ12から入力された再構成データと、検知データD2との差異の程度を示す異常度を算出し、この異常度に基づいて、データの異常検知を行う(ステップS207)。第2識別部16は、例えば、この異常度が所定の閾値(第2閾値)以上の場合には異常(第2異常)と判定し、第2閾値未満の場合には正常と判定する。
例えば、エンコーダ10が、検知データD2として図6に示すデータ番号1の自動車の画像を示すデータ(正常データ)を圧縮し、デコーダ12が圧縮データを復号して第2識別部16に出力した場合、この再構成データは検知データD1と同様なデータであるため、第2識別部16は、この検知データD2を正常と判定する。一方、エンコーダ10が、検知データD2として図6に示すデータ番号2の自動車の一部が欠損した画像を示すデータ(異常データ)や、データ番号4の自動車のドアノブが無い画像を示すデータ(異常データ)のデータを圧縮し、デコーダ12が圧縮データを復号して第2識別部16に出力した場合、この再構成データと検知データD1との差異が大きい(異常度が第2閾値よりも高い)データであるため、第2識別部16は、この検知データD2を異常と判定する。以上により、本フローチャートの処理を終了する。
以上説明した少なくとも一つの実施形態によれば、正常データに適合する圧縮パラメータを用いて、入力データを圧縮するエンコーダと、前記エンコーダによって圧縮された圧縮データの事前分布上の対数確率密度と、圧縮データ分布および事前分布の対数密度比とに基づいて、前記入力データの第1異常を検知する第1識別部と、前記正常データに適合する復号パラメータを用いて、前記エンコーダによって圧縮された圧縮データを復号するデコーダと、前記デコーダにより復号された再構成データと、前記入力データとの差異を算出し、前記差異に基づいて、前記入力データの第2異常を検知する第2識別部とを備えることにより、データの異常検知を高精度で行うことができる。
また、上述した実施形態における学習装置1および異常検知装置1Aの一部の機能をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な情報記録媒体に記録する。そして、上述したプログラムを記録した情報記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、オペレーティングシステムや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な情報記録媒体」とは、可搬媒体や記憶装置等のことをいう。可搬媒体は、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等である。また、記憶装置は、コンピュータシステムに内蔵されるハードディスク等である。
さらに「コンピュータ読み取り可能な情報記録媒体」とは、通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するものである。通信回線は、インターネット等のネットワークや電話回線等である。また、「コンピュータ読み取り可能な情報記録媒体」は、サーバやクライアントとなるコンピュータシステム内部の揮発性メモリであってもよい。揮発性メモリは、一定時間プログラムを保持しているものである。また上記プログラムは、前述した機能の一部を実現するためのものであってもよい。また上記プログラムは、さらに前述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるものであってもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1…学習装置、1A…異常検知装置、10…エンコーダ、12…デコーダ、14…第1識別部、16…第2識別部

Claims (10)

  1. 正常データに適合する圧縮パラメータを用いて、入力データを圧縮するエンコーダと、
    前記エンコーダによって圧縮された圧縮データの事前分布上の対数確率密度と、圧縮データ分布および事前分布の対数密度比とに基づいて、前記入力データの第1異常を検知する第1識別部と、
    前記正常データに適合する復号パラメータを用いて、前記エンコーダによって圧縮された圧縮データを復号するデコーダと、
    前記デコーダにより復号された再構成データと、前記入力データとの差異を算出し、前記差異に基づいて、前記入力データの第2異常を検知する第2識別部と
    を備える異常検知装置。
  2. 前記第1識別部は、前記エンコーダによって圧縮された圧縮データの中間層データと、前記事前分布の中間層データとを比較して前記第1異常を検知し、
    前記第2識別部は、前記デコーダによって復号された再構成データの中間層データと、前記入力データの中間層データとを比較して前記第2異常を検知する、
    請求項1に記載の異常検知装置。
  3. 前記第1識別部は、前記エンコーダによって圧縮された圧縮データの前記事前分布上の対数確率密度と、圧縮データ分布および事前分布の対数密度比との和が第1閾値以下である場合、前記入力データが前記第1異常であることを検知し、
    前記第2識別部は、前記デコーダによって復号された再構成データと、前記入力データとの差異が第2閾値以上である場合、前記入力データが前記第2異常であることを検知する、
    請求項1または2に記載の異常検知装置。
  4. 学習データを圧縮するエンコーダと、
    入力されたデータの分布が、前記エンコーダによって圧縮された圧縮データの分布と、事前分布とのいずれの分布であるかを識別して第1識別結果を出力する第1識別部と、
    前記エンコーダによって圧縮された圧縮データを復号するデコーダと、
    入力されたデータが、前記デコーダにより復号された再構成データと、前記学習データとのいずれのデータであるかを識別して第2識別結果を出力する第2識別部と
    を備え、
    前記エンコーダは、前記第1識別結果および前記第2識別結果に基づいて、前記学習データの圧縮に用いる圧縮パラメータを調整し、
    前記デコーダは、前記第2識別結果に基づいて、前記圧縮データの復号に用いる復号パラメータを調整する、学習装置。
  5. 前記エンコーダは、前記圧縮データの分布と前記事前分布との差異が低減するように、前記圧縮パラメータを調整し、
    前記デコーダは、前記再構成データと前記学習データとの差異が低減するように、前記復号パラメータを調整する、
    請求項4に記載の学習装置。
  6. 前記第1識別部は、前記エンコーダによって圧縮された圧縮データの中間層データと、前記事前分布の中間層データとを比較して前記識別を行い、
    前記第2識別部は、前記デコーダによって復号された再構成データの中間層データと、前記学習データの中間層データとを比較して前記識別を行う、
    請求項4または5に記載の学習装置。
  7. コンピュータが、
    正常データに適合する圧縮パラメータを用いて入力データを圧縮し、
    前記入力データを圧縮することにより生成された圧縮データの事前分布上の対数確率密度と、圧縮データ分布および事前分布の対数密度比とに基づいて、前記入力データの第1異常を検知し、
    前記正常データに適合する復号パラメータを用いて、前記入力データを圧縮することにより生成された圧縮データを復号し、
    前記圧縮データを復号することにより生成された再構成データと、前記入力データとの差異を算出し、前記差異に基づいて、前記入力データの第2異常を検知する
    異常検知方法。
  8. コンピュータが、
    学習データを圧縮し、
    入力されたデータの分布が、前記学習データを圧縮することによって生成された圧縮データの分布と、事前分布とのいずれの分布であるかを識別して第1識別結果を出力し、
    前記学習データを圧縮することによって生成された圧縮データを復号し、
    入力されたデータが、前記圧縮データを復号することにより生成された再構成データと、前記学習データとのいずれのデータであるかを識別して第2識別結果を出力し、
    前記第1識別結果および前記第2識別結果に基づいて、前記学習データの圧縮に用いる圧縮パラメータを調整し、
    前記第2識別結果に基づいて、前記圧縮データの復号に用いる復号パラメータを調整する、
    学習方法。
  9. コンピュータに、
    正常データに適合する圧縮パラメータを用いて入力データを圧縮させ、
    前記入力データを圧縮することにより生成された圧縮データの事前分布上の対数確率密度と、圧縮データ分布および事前分布の対数密度比とに基づいて、前記入力データの第1異常を検知させ、
    前記正常データに適合する復号パラメータを用いて、前記入力データを圧縮することにより生成された圧縮データを復号させ、
    前記圧縮データを復号することにより生成された再構成データと、前記入力データとの差異を算出し、前記差異に基づいて、前記入力データの第2異常を検知させる
    異常検知プログラム。
  10. コンピュータに、
    学習データを圧縮させ、
    入力されたデータの分布が、前記学習データを圧縮することによって生成された圧縮データの分布と、事前分布とのいずれの分布であるかを識別させて第1識別結果を出力させ、
    前記学習データを圧縮することによって生成された圧縮データを復号させ、
    入力されたデータが、前記圧縮データを復号することにより生成された再構成データと、前記学習データとのいずれのデータであるかを識別させて第2識別結果を出力させ、
    前記第1識別結果および前記第2識別結果に基づいて、前記学習データの圧縮に用いる圧縮パラメータを調整させ、
    前記第2識別結果に基づいて、前記圧縮データの復号に用いる復号パラメータを調整させる、
    学習プログラム。
JP2016183085A 2016-09-20 2016-09-20 異常検知装置、学習装置、異常検知方法、学習方法、異常検知プログラム、および学習プログラム Active JP6599294B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016183085A JP6599294B2 (ja) 2016-09-20 2016-09-20 異常検知装置、学習装置、異常検知方法、学習方法、異常検知プログラム、および学習プログラム
US15/703,515 US10909419B2 (en) 2016-09-20 2017-09-13 Abnormality detection device, learning device, abnormality detection method, and learning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016183085A JP6599294B2 (ja) 2016-09-20 2016-09-20 異常検知装置、学習装置、異常検知方法、学習方法、異常検知プログラム、および学習プログラム

Publications (2)

Publication Number Publication Date
JP2018049355A JP2018049355A (ja) 2018-03-29
JP6599294B2 true JP6599294B2 (ja) 2019-10-30

Family

ID=61621139

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016183085A Active JP6599294B2 (ja) 2016-09-20 2016-09-20 異常検知装置、学習装置、異常検知方法、学習方法、異常検知プログラム、および学習プログラム

Country Status (2)

Country Link
US (1) US10909419B2 (ja)
JP (1) JP6599294B2 (ja)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10484399B1 (en) * 2017-02-16 2019-11-19 Symantec Corporation Systems and methods for detecting low-density training regions of machine-learning classification systems
US10999247B2 (en) * 2017-10-24 2021-05-04 Nec Corporation Density estimation network for unsupervised anomaly detection
US10592779B2 (en) * 2017-12-21 2020-03-17 International Business Machines Corporation Generative adversarial network medical image generation for training of a classifier
US10937540B2 (en) 2017-12-21 2021-03-02 International Business Machines Coporation Medical image classification based on a generative adversarial network trained discriminator
US10540578B2 (en) 2017-12-21 2020-01-21 International Business Machines Corporation Adapting a generative adversarial network to new data sources for image classification
US10152970B1 (en) * 2018-02-08 2018-12-11 Capital One Services, Llc Adversarial learning and generation of dialogue responses
KR101967339B1 (ko) * 2018-03-06 2019-04-09 단국대학교 산학협력단 심층학습 기반의 adas 센서 고장 진단 및 백업을 위한 장치 및 방법
JP7211415B2 (ja) * 2018-04-05 2023-01-24 コニカミノルタ株式会社 演算装置の学習方法、学習装置、学習プログラム、および学習済みモデル
JP6743084B2 (ja) * 2018-04-25 2020-08-19 株式会社小松製作所 溶接システム、方法、溶接判定装置、及び学習済みモデルの構築方法
CN108734276B (zh) * 2018-04-28 2021-12-31 同济大学 一种基于对抗生成网络的模仿学习对话生成方法
JP7056406B2 (ja) * 2018-06-22 2022-04-19 日本電信電話株式会社 センサノード及びデータセンタとして機能する装置、センサネットワーク、通信方法及びプログラム
EP3594860B1 (en) * 2018-07-09 2024-05-08 Tata Consultancy Services Limited Sparse neural network based anomaly detection in multi-dimensional time series
JP6757378B2 (ja) * 2018-08-28 2020-09-16 株式会社モルフォ 画像識別装置、画像識別方法及び画像識別プログラム
KR101988028B1 (ko) * 2018-09-04 2019-06-11 넷마블 주식회사 서버 및 이의 동작 방법
CN109242115B (zh) * 2018-09-17 2021-11-09 东北大学 一种基于gan的风机轮毂测风缺失数据的插补方法
JP7086803B2 (ja) * 2018-09-27 2022-06-20 株式会社東芝 異常検知装置、異常検知方法及びプログラム
US10978051B2 (en) * 2018-09-28 2021-04-13 Capital One Services, Llc Adversarial learning framework for persona-based dialogue modeling
KR102285987B1 (ko) * 2018-10-10 2021-08-04 주식회사 케이티 건물 내 설비의 이상을 탐지하는 방법, 시스템 및 컴퓨터 프로그램
US11663483B2 (en) 2018-10-30 2023-05-30 Huawei Technologies Co., Ltd. Latent space and text-based generative adversarial networks (LATEXT-GANs) for text generation
US11423282B2 (en) 2018-10-30 2022-08-23 Huawei Technologies Co., Ltd. Autoencoder-based generative adversarial networks for text generation
US11501172B2 (en) * 2018-12-13 2022-11-15 Sap Se Accurately identifying members of training data in variational autoencoders by reconstruction error
CN110033014A (zh) * 2019-01-08 2019-07-19 阿里巴巴集团控股有限公司 异常数据的检测方法及其系统
JP7283096B2 (ja) 2019-02-04 2023-05-30 株式会社ジェイテクト 検査装置及び検査用学習モデル生成装置
WO2020195626A1 (ja) * 2019-03-26 2020-10-01 日本電気株式会社 異常検知方法、異常検知装置、プログラム
WO2020240770A1 (ja) * 2019-05-30 2020-12-03 日本電信電話株式会社 学習装置、推定装置、学習方法、推定方法及びプログラム
JP7243486B2 (ja) * 2019-06-27 2023-03-22 トヨタ自動車株式会社 学習装置、歩行訓練システム、方法、及びプログラム
JP7293915B2 (ja) * 2019-06-28 2023-06-20 トヨタ自動車株式会社 学習装置、歩行訓練装置、システム、方法、プログラム、及び学習済みモデル
CN110458195B (zh) * 2019-07-10 2022-08-19 河海大学 一种基于多判据融合的异常数据甄别方法
JP7281054B2 (ja) * 2019-07-19 2023-05-25 京セラドキュメントソリューションズ株式会社 画像形成装置
CN111178523B (zh) * 2019-08-02 2023-06-06 腾讯科技(深圳)有限公司 一种行为检测方法、装置、电子设备及存储介质
CN112308104A (zh) * 2019-08-02 2021-02-02 杭州海康威视数字技术股份有限公司 异常识别方法、装置及计算机存储介质
WO2021053776A1 (ja) * 2019-09-18 2021-03-25 日本電信電話株式会社 学習装置、学習方法及びプログラム
CN111131834B (zh) * 2019-12-30 2021-07-06 上海交通大学 可逆自编码器、编解码方法以及图像压缩方法、装置
US11314614B2 (en) * 2020-01-02 2022-04-26 Sri International Security for container networks
EP4110431A4 (en) * 2020-02-27 2023-08-02 Siemens Healthcare Diagnostics Inc. AUTOMATIC VALIDATION OF SENSOR TRACKS USING MACHINE LEARNING
US20210406681A1 (en) * 2020-06-26 2021-12-30 GE Precision Healthcare LLC Learning loss functions using deep learning networks
KR102502648B1 (ko) * 2020-07-27 2023-02-22 가톨릭대학교 산학협력단 Rnn 인코더-디코더를 이용하여 시계열에서의 이상상황을 탐지하는 방법 및 장치
KR102271740B1 (ko) * 2020-09-11 2021-07-02 주식회사 뉴로클 이상 탐지 방법 및 이를 위한 장치
US20240039940A1 (en) * 2020-12-14 2024-02-01 Nec Corporation Learning apparatus, learning method, anomaly detection apparatus, anomaly detection method, and computer-readable recording medium
CN112966819B (zh) * 2021-03-04 2024-04-09 南方科技大学 分布外数据检测方法、装置、服务器及存储介质
JP2022168944A (ja) * 2021-04-27 2022-11-09 株式会社日立ハイテク 欠陥を検出するシステム、及びコンピュータ可読媒体
KR102363737B1 (ko) * 2021-06-01 2022-02-15 아주대학교산학협력단 이상 탐지 장치 및 방법
EP4145401A1 (en) * 2021-09-06 2023-03-08 MVTec Software GmbH Method for detecting anomalies in images using a plurality of machine learning programs
US20230244917A1 (en) * 2022-02-01 2023-08-03 The Toronto-Dominion Bank Correcting manifold overfitting of probabilistic models
WO2024009412A1 (ja) * 2022-07-05 2024-01-11 日本電信電話株式会社 判定装置、判定方法、および、判定プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06119454A (ja) * 1992-10-08 1994-04-28 Babcock Hitachi Kk 異常検出方法および装置
US5704013A (en) * 1994-09-16 1997-12-30 Sony Corporation Map determination method and apparatus
US20070192863A1 (en) 2005-07-01 2007-08-16 Harsh Kapoor Systems and methods for processing data flows
US7277823B2 (en) 2005-09-26 2007-10-02 Lockheed Martin Corporation Method and system of monitoring and prognostics
US8352216B2 (en) 2008-05-29 2013-01-08 General Electric Company System and method for advanced condition monitoring of an asset system
US20110313726A1 (en) 2009-03-05 2011-12-22 Honeywell International Inc. Condition-based maintenance system for wind turbines
JP6547275B2 (ja) * 2014-10-29 2019-07-24 株式会社リコー 情報処理システム、情報処理装置、情報処理方法、及びプログラム
WO2017127973A1 (en) * 2016-01-25 2017-08-03 Qualcomm Incorporated Generation of polar codes with a variable block length utilizing puncturing

Also Published As

Publication number Publication date
US10909419B2 (en) 2021-02-02
US20180082150A1 (en) 2018-03-22
JP2018049355A (ja) 2018-03-29

Similar Documents

Publication Publication Date Title
JP6599294B2 (ja) 異常検知装置、学習装置、異常検知方法、学習方法、異常検知プログラム、および学習プログラム
Zhang et al. SteganoGAN: High capacity image steganography with GANs
KR102128649B1 (ko) 정보 암호화 및 해독
Filler et al. Design of adaptive steganographic schemes for digital images
US9202255B2 (en) Identifying multimedia objects based on multimedia fingerprint
JP2020191077A (ja) 画像コーディング方法及び装置並びに画像デコーディング方法及び装置
CN113688912B (zh) 基于人工智能的对抗样本生成方法、装置、设备及介质
WO2018207334A1 (ja) 画像認識装置、画像認識方法および画像認識プログラム
KR102412829B1 (ko) 개인 정보 보호를 위하여 원본 데이터를 변조하는 변조 네트워크를 학습하는 방법 및 테스팅하는 방법, 그리고, 이를 이용한 학습 장치 및 테스팅 장치
Deepa et al. Steganalysis on Images using SVM with Selected Hybrid Features of Gini Index Feature Selection Algorithm.
KR20220065773A (ko) 정상 데이터로의 데이터 샘플 변환
CN112602155A (zh) 生成针对经训练的模型的元数据
Still et al. Geometric clustering using the information bottleneck method
CN113723070A (zh) 文本相似度模型训练方法、文本相似度检测方法及装置
CN108376420B (zh) 信息处理设备、信息处理方法、评估方法和存储介质
Cao et al. Invisible watermarking for audio generation diffusion models
JP7205641B2 (ja) 学習方法、学習プログラム、および学習装置
JP2022003451A (ja) 最適解獲得プログラム、最適解獲得方法および情報処理装置
WO2020249972A1 (en) Method and system for confidence estimation of a trained deep learning model
JP2009134466A (ja) 認識処理装置、方法及びコンピュータプログラム
JPWO2021059349A5 (ja)
CN112541446B (zh) 一种生物特征库更新方法、装置及电子设备
CN115761837A (zh) 人脸识别质量检测方法、系统及设备和介质
Laszkiewicz et al. Single-Model Attribution of Generative Models Through Final-Layer Inversion
Laarhoven Asymptotics of fingerprinting and group testing: capacity-achieving log-likelihood decoders

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170830

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170830

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191002

R150 Certificate of patent or registration of utility model

Ref document number: 6599294

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150