WO2019244930A1 - 検知装置、検知方法および検知プログラム - Google Patents

検知装置、検知方法および検知プログラム Download PDF

Info

Publication number
WO2019244930A1
WO2019244930A1 PCT/JP2019/024297 JP2019024297W WO2019244930A1 WO 2019244930 A1 WO2019244930 A1 WO 2019244930A1 JP 2019024297 W JP2019024297 W JP 2019024297W WO 2019244930 A1 WO2019244930 A1 WO 2019244930A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
distribution
encoder
generation model
detection
Prior art date
Application number
PCT/JP2019/024297
Other languages
English (en)
French (fr)
Inventor
大志 高橋
具治 岩田
友貴 山中
真徳 山田
哲志 八木
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to US17/253,131 priority Critical patent/US20210264285A1/en
Publication of WO2019244930A1 publication Critical patent/WO2019244930A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B29/00Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
    • G08B29/18Prevention or correction of operating errors
    • G08B29/185Signal analysis techniques for reducing or preventing false alarms or for enhancing the reliability of the system
    • G08B29/186Fuzzy logic; neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B5/00Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied
    • G08B5/22Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied using electric transmission; using electromagnetic transmission
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16ZINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
    • G16Z99/00Subject matter not provided for in other main groups of this subclass
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y10/00Economic sectors
    • G16Y10/75Information technology; Communication

Definitions

  • the present invention relates to a detection device, a detection method, and a detection program.
  • VAE Variational En AutoEncoder
  • VAE is a generation model based on machine learning using latent variables and neural networks
  • VAE has been applied to various fields such as abnormality detection, image recognition, moving image recognition, and voice recognition in order to estimate a large-scale and complicated probability distribution of data.
  • VAE assumes that the prior distribution of the latent variables is a standard Gaussian distribution.
  • the present invention has been made in view of the above, and has as its object to estimate the probability distribution of data by VAE with high accuracy.
  • a detection device includes an acquisition unit that acquires data output by a sensor, a generation model that includes an encoder and a decoder, and that represents a probability distribution of the data.
  • a generation model that includes an encoder and a decoder, and that represents a probability distribution of the data.
  • a learning unit that learns the generation model using the data, a probability distribution of the data is estimated using the learned generation model, and an estimated occurrence probability of the newly acquired data is determined from a predetermined threshold.
  • a detection unit that detects an abnormality when the temperature is low.
  • the probability distribution of data by VAE can be estimated with high accuracy.
  • FIG. 1 is an explanatory diagram for explaining an outline of the detection device.
  • FIG. 2 is a schematic diagram illustrating a schematic configuration of the detection device.
  • FIG. 3 is an explanatory diagram for explaining the processing of the learning unit.
  • FIG. 4 is an explanatory diagram for explaining the processing of the detection unit.
  • FIG. 5 is an explanatory diagram for explaining the processing of the detection unit.
  • FIG. 6 is a flowchart illustrating the detection processing procedure.
  • FIG. 7 is a diagram illustrating a computer that executes a detection program.
  • FIG. 1 is an explanatory diagram for explaining the outline of the detection device.
  • a VAE is composed of two conditional probability distributions called an encoder and a decoder.
  • x) encodes the high-dimensional data x and converts it into a representation with a low-dimensional latent variable z.
  • is a parameter of the encoder.
  • z) decodes the data encoded by the encoder to reproduce the original data x.
  • is a parameter of the decoder.
  • the original data x is a continuous value, generally, a Gaussian distribution is applied to the encoder and the decoder. In the example shown in FIG. 1, the distribution of the encoder N; a (z ⁇ ⁇ (x), ⁇ 2 ⁇ (x)), distribution of decoders N (x; ⁇ ⁇ (z ), ⁇ 2 ⁇ (z )).
  • VAE reproduces the probability distribution p D (x) of true data as p ⁇ (x), as shown in the following equation (1).
  • VAE performs learning so as to minimize the difference between the true data distribution and the data distribution based on the generation model. That is, the VAE generation model is created by determining the encoder parameter ⁇ and the decoder parameter ⁇ so as to maximize the average value of the log likelihood corresponding to the likelihood representing the recall of the decoder. . These parameters are determined when the variational lower bound representing the lower bound of the log likelihood is maximized. In other words, in the VAE learning, the parameters of the encoder and the decoder are determined so as to minimize the average value of the loss function obtained by multiplying the variation lower bound by ⁇ 1.
  • the parameters are determined so as to maximize the average value of the marginalized log likelihood lnp ⁇ (x) obtained by peripheralizing the log likelihood as shown in the following equation (2). Is done.
  • the marginalized log likelihood is suppressed from below by the variational lower bound, as shown in the following equation (3).
  • the first term (the minus sign) of the above equation (4) is called a reconstruction error.
  • the second term is referred to as the Kullback-Leibler information amount of the encoder q ⁇ (z
  • the variational lower bound can be interpreted as a reconstruction error regularized by the Kullback-Leibler information amount.
  • the Kullback Leibler information amount can be said to be a term that makes the encoder q ⁇ (z
  • the VAE performs learning so as to maximize the average value of marginalized log likelihood by increasing the first term and decreasing the amount of Kullback Leibler information of the second term.
  • the prior distribution is assumed to be the standard Gaussian distribution. In this case, it is known that the learning of VAE is hindered, and the estimation accuracy of the probability distribution of data is low. On the other hand, the prior distribution optimal for VAE can be obtained analytically.
  • the prior distribution is replaced by a marginalized posterior distribution q ⁇ (z) obtained by peripheralizing the encoder q ⁇ (z
  • Patent Document 2 a marginalized posterior distribution q ⁇ (z) obtained by peripheralizing the encoder q ⁇ (z
  • the Kullback Leibler information amount is approximated using the density ratio between the standard Gaussian distribution and the marginalized posterior distribution so that the Kullback Leibler information amount can be accurately approximated.
  • a VAE generation model capable of highly accurately estimating the data probability distribution is created.
  • FIG. 2 is a schematic diagram illustrating a schematic configuration of the detection device.
  • the detection device 10 is realized by a general-purpose computer such as a personal computer, and includes an input unit 11, an output unit 12, a communication control unit 13, a storage unit 14, and a control unit 15.
  • the input unit 11 is realized using an input device such as a keyboard and a mouse, and inputs various kinds of instruction information such as the start of processing to the control unit 15 in response to an input operation by an operator.
  • the output unit 12 is realized by a display device such as a liquid crystal display, a printing device such as a printer, and the like.
  • the communication control unit 13 is realized by an NIC (Network Interface Card) or the like, and controls communication between the control unit 15 and an external device such as a server via the network 3.
  • NIC Network Interface Card
  • the storage unit 14 is realized by a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk, and stores a generation model of data learned by a detection process described later. Parameters and the like are stored.
  • the storage unit 14 may be configured to communicate with the control unit 15 via the communication control unit 13.
  • the control unit 15 is realized using a CPU (Central Processing Unit) or the like, and executes a processing program stored in a memory. Thereby, the control unit 15 functions as an acquisition unit 15a, a learning unit 15b, and a detection unit 15c, as illustrated in FIG. Note that these functional units may be implemented in different hardware.
  • CPU Central Processing Unit
  • the acquisition unit 15a acquires data output from the sensor. For example, the acquisition unit 15a acquires, via the communication control unit 13, sensor data output by a sensor attached to the IoT device.
  • the sensor data includes, for example, sensor data such as temperature, speed, rotation speed, mileage, etc. attached to a car, and temperature, frequency, sound, etc. attached to each of a variety of devices operating in a factory. Are exemplified.
  • the learning unit 15b replaces a prior distribution of the encoder with a posteriorization posteriorization that peripheralizes the encoder, and generates a standard Gaussian distribution and a marginalization distribution in the generation model representing the probability distribution of data including the encoder and the decoder. Approximate the amount of Kullback-Leibler information using the density ratio with the post-mortem distribution, and learn the generation model using the data.
  • the learning unit 15b creates a generation model representing a probability distribution that data occurs based on a VAE including an encoder and a decoder that follow a Gaussian distribution. At that time, the learning unit 15b replaces the prior distribution of the encoder with the marginalized posterior distribution q ⁇ (z), which is the peripheralization of the encoder and represented by Equation (5).
  • the density ratio estimation is a method of estimating the density ratio of two probability distributions without estimating each of the two probability distributions. Even if the respective probability distributions cannot be obtained analytically, if sampling from each probability distribution is possible, the density ratio of the two probability distributions can be obtained. Applicable.
  • x) with respect to the marginal posterior distribution q ⁇ (z) can be decomposed into two terms as shown in the following equation (6).
  • the first term is the Kullback-Leibler information amount of the encoder q ⁇ (z
  • the second term is expressed using a density ratio between the standard Gaussian distribution p (z) and the marginalized posterior distribution q ⁇ (z). In this case, since sampling can be easily performed from both the standard Gaussian distribution p (z) and the marginal posterior distribution q ⁇ (z), the density ratio estimation can be applied.
  • T (z) that maximizes the objective function using the function T (z) of z is defined as T * (z).
  • T * (z) is equal to the density ratio between the standard Gaussian distribution p (z) and the marginalized posterior distribution q ⁇ (z).
  • the learning unit 15b performs an approximation to replace the density ratio of the Kullback Leibler information amount shown in the above equation (6) with T * (z), as shown in the following equation (9).
  • the learning unit 15b can accurately approximate the Kullback Leibler information amount of the encoder q ⁇ (z
  • FIG. 3 is an explanatory diagram for explaining the processing of the learning unit 15b.
  • FIG. 3 exemplifies log likelihood of a generated model learned by various methods.
  • the standard Gaussian distribution represents a conventional VAE.
  • VampPrior represents VAE in which latent variables are mixed distributions (see Non-Patent Document 3).
  • the log likelihood is a measure of the accuracy evaluation of the generated model, and the larger the value, the higher the accuracy.
  • the log likelihood is calculated using a data set of MNIST which is sample data of handwritten numerals.
  • the detection unit 15c estimates the probability distribution of the data using the learned generation model, and detects an abnormality when the estimated occurrence probability of the newly acquired data is lower than a predetermined threshold.
  • FIG. 4 and FIG. 5 are explanatory diagrams for explaining the processing of the detection unit 15c.
  • the acquisition unit 15a acquires sensor data such as speed, rotation speed, and mileage attached to an object such as a car
  • the learning unit 15b acquires the data probability distribution. Create a generation model that represents.
  • the detection unit 15c estimates the probability distribution of data occurrence using the created generation model. Then, the detection unit 15c determines that the estimated occurrence probability of the data newly acquired by the acquisition unit 15a is equal to or higher than a predetermined threshold value, and determines that the data is abnormal if the estimated occurrence probability is lower than the predetermined threshold value.
  • the detection unit 15c uses the generation model created by the learning unit 15b to generate the data shown in FIG. As shown in (b), the probability distribution of data occurrence is estimated.
  • FIG. 5B shows that the darker the color in the data space is, the higher the probability of occurrence of data in that part is. Therefore, data with a low probability of occurrence indicated by x in FIG. 5B can be regarded as abnormal data.
  • the detection unit 15c When the detection unit 15c detects an abnormality, it outputs an alarm. For example, a message or an alarm indicating abnormality detection is output to a management device or the like via the output unit 12 or the communication control unit 13.
  • FIG. 6 is a flowchart illustrating the detection processing procedure.
  • the flowchart in FIG. 6 is started, for example, at a timing when an operation input instructing the start of the detection process is received.
  • the acquiring unit 15a acquires sensor data such as the speed, the number of revolutions, and the traveling distance attached to an object such as a car (Step S1).
  • the learning unit 15b learns a generation model representing a probability distribution of data including an encoder and a decoder that follow a Gaussian distribution (step S2).
  • the learning unit 15b replaces the prior distribution of the encoder with the posteriorization posteriorization that peripheralizes the encoder. Further, the learning unit 15b approximates the Kullback-Leibler information amount using the density ratio between the standard Gaussian distribution and the marginalized posterior distribution.
  • the detection unit 15c estimates the probability distribution of data occurrence using the created generation model (step S3). In addition, when the estimated occurrence probability of the data newly acquired by the acquisition unit 15a is lower than a predetermined threshold, the detection unit 15c detects that the data is abnormal (Step S4). The detecting unit 15c outputs an alarm when detecting an abnormality. Thus, a series of detection processing ends.
  • the acquisition unit 15a acquires data output by the sensor. Further, the learning unit 15b replaces the prior distribution of the encoder with a posteriorization posteriorization that peripheralizes the encoder in the generation model representing the probability distribution of the data including the encoder and the decoder, and performs a standard Gaussian distribution. Approximate the amount of Kullback-Leibler information by using the density ratio of the marginalized posterior distribution and learning the generation model using the acquired data.
  • the detection unit 15c estimates the probability distribution of the data using the learned generation model, and detects an abnormality when the estimated occurrence probability of the newly acquired data is lower than a predetermined threshold.
  • the detection device 10 can create a highly accurate data generation model by applying density ratio estimation using low-dimensional latent variables. As described above, the detection device 10 can learn a generation model of large-scale and complicated data such as sensor data of an IoT device with high accuracy. Therefore, it is possible to estimate the occurrence probability of data with high accuracy and detect data abnormality.
  • the detection device 10 acquires large-scale and complicated data output from various sensors attached to the vehicle, such as temperature, speed, rotation speed, and traveling distance, and detects abnormalities occurring in the traveling vehicle with high accuracy. Can be detected.
  • the detection device 10 acquires large-scale and complicated data output from sensors such as temperature, frequency, and sound attached to each of a variety of devices operating in a factory, and outputs the acquired data to any of the devices. When an abnormality occurs, the abnormality can be detected with high accuracy.
  • the detection device 10 of the present embodiment is not limited to a device based on the conventional VAE. That is, the processing of the learning unit 15b may be based on AE (Auto Encoder) which is a special case of VAE, or the encoder and the decoder may follow a probability distribution other than the Gaussian distribution.
  • AE Auto Encoder
  • the detection device 10 can be implemented by installing a detection program that executes the above detection processing as package software or online software on a desired computer.
  • the information processing device can function as the detection device 10.
  • the information processing device referred to here includes a desktop or notebook personal computer.
  • the information processing apparatus includes mobile communication terminals such as a smartphone, a mobile phone, and a PHS (Personal Handyphone System), and a slate terminal such as a PDA (Personal Digital Assistants).
  • the detection device 10 can also be implemented as a server device that provides the client with the terminal device used by the user and provides the client with the service related to the above detection processing.
  • the detection device 10 is implemented as a server device that provides a detection processing service that receives sensor data of an IoT device as input and outputs a detection result when an abnormality is detected.
  • the detection device 10 may be implemented as a Web server, or may be implemented as a cloud that provides a service related to the above detection processing by outsourcing.
  • a computer that executes a detection program that realizes the same function as the detection device 10 will be described.
  • FIG. 7 is a diagram illustrating an example of a computer that executes a detection program.
  • the computer 1000 has, for example, a memory 1010, a CPU 1020, a hard disk drive interface 1030, a disk drive interface 1040, a serial port interface 1050, a video adapter 1060, and a network interface 1070. These units are connected by a bus 1080.
  • the memory 1010 includes a ROM (Read Only Memory) 1011 and a RAM 1012.
  • the ROM 1011 stores, for example, a boot program such as a BIOS (Basic Input Output System).
  • BIOS Basic Input Output System
  • the hard disk drive interface 1030 is connected to the hard disk drive 1031.
  • the disk drive interface 1040 is connected to the disk drive 1041.
  • a removable storage medium such as a magnetic disk or an optical disk is inserted into the disk drive 1041.
  • a mouse 1051 and a keyboard 1052 are connected to the serial port interface 1050.
  • the display 1061 is connected to the video adapter 1060, for example.
  • the hard disk drive 1031 stores, for example, the OS 1091, the application program 1092, the program module 1093, and the program data 1094.
  • the information described in the above embodiment is stored in, for example, the hard disk drive 1031 or the memory 1010.
  • the detection program is stored in the hard disk drive 1031 as, for example, a program module 1093 in which a command to be executed by the computer 1000 is described. Specifically, a program module 1093 in which each process executed by the detection device 10 described in the above embodiment is described is stored in the hard disk drive 1031.
  • data used for information processing by the detection program is stored as, for example, program data 1094 in the hard disk drive 1031.
  • the CPU 1020 reads the program module 1093 and the program data 1094 stored in the hard disk drive 1031 into the RAM 1012 as necessary, and executes the above-described procedures.
  • the program module 1093 and the program data 1094 relating to the detection program are not limited to being stored in the hard disk drive 1031.
  • the program module 1093 and the program data 1094 are stored in a removable storage medium and read out by the CPU 1020 via the disk drive 1041 or the like. May be done.
  • the program module 1093 and the program data 1094 related to the detection program are stored in another computer connected via a network such as a LAN (Local Area Network) or a WAN (Wide Area Network), and are stored in a network interface 1070. It may be read by the CPU 1020.
  • LAN Local Area Network
  • WAN Wide Area Network

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Electromagnetism (AREA)
  • Development Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Automation & Control Theory (AREA)
  • Fuzzy Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Game Theory and Decision Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Alarm Systems (AREA)
  • Selective Calling Equipment (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

取得部(15a)が、センサが出力するデータを取得し、学習部(15b)が、エンコーダとデコーダとを含んでデータの確率分布を表す生成モデルにおいて、該エンコーダの事前分布を、該エンコーダを周辺化した周辺化事後分布に置換し、かつ、標準ガウス分布と周辺化事後分布との密度比を用いてカルバックライブラー情報量を近似し、データを用いて生成モデルを学習し、検知部(15c)が、学習された生成モデルを用いてデータの確率分布を推定し、新たに取得されたデータの推定される発生確率が所定の閾値より低い場合に異常として検知する。

Description

検知装置、検知方法および検知プログラム
 本発明は、検知装置、検知方法および検知プログラムに関する。
 近年、車やエアコン等の様々な物をインターネットに接続するいわゆるIoTの普及に伴い、物に取り付けられたセンサのセンサデータを用いて物の異常や故障を事前に検知する技術が注目されている。例えば、機械学習を用いてセンサデータが示す異常値を検出して、物に異常や故障が発生する前触れを検知する。すなわち、機械学習によりデータの確率分布を推定する生成モデルを作成し、発生する確率が高いデータを正常、発生する確率が低いデータを異常と定義して異常を検知する。
 データの確率分布を推定する技術として、潜在変数とニューラルネットワークとを用いた機械学習による生成モデルであるVAE(Variational AutoEncoder)が知られている(非特許文献1~3参照)。VAEは、大規模かつ複雑なデータの確率分布を推定するため、異常検知、画像認識、動画認識、音声認識等の様々な分野に応用されている。一般に、VAEでは、潜在変数の事前分布は標準ガウス分布と仮定されている。
Diederik P.Kingma、Max Welling、"Auto-Encoding Variational Bayes"、[online]、2014年5月、[2018年5月25日検索]、インターネット<URL:https://arxiv.org/abs/1312.6114> Matthew D.Hoffman、Matthew J.Johnson、"ELBO surgery: yet another way to carve up the variational evidence lower bound"、[online]、2016年、Workshop in Advances in Approximate Bayesian Inference、NIPS 2016、[2018年5月25日検索]、インターネット<URL:http://approximateinference.org/2016/accepted/HoffmanJohnson2016.pdf> Jakub M.Tomczak、Max Welling、"VAE with a VampPrior"、[online]、2017年、arXiv preprint arXiv:1705.07120、[2018年5月25日検索]、インターネット<URL:https://arxiv.org/abs/1705.07120>
 しかしながら、従来のVAEでは、潜在変数の事前分布を標準ガウス分布と仮定した場合には、データの確率分布の推定の精度が低かった。
 本発明は、上記に鑑みてなされたものであって、VAEによるデータの確率分布を高精度に推定することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明に係る検知装置は、センサが出力するデータを取得する取得部と、エンコーダとデコーダとを含んで前記データの確率分布を表す生成モデルにおいて、該エンコーダの事前分布を、該エンコーダを周辺化した周辺化事後分布に置換し、かつ、標準ガウス分布と前記周辺化事後分布との密度比を用いてカルバックライブラー情報量を近似し、前記データを用いて該生成モデルを学習する学習部と、学習された生成モデルを用いて前記データの確率分布を推定し、新たに取得された前記データの推定される発生確率が所定の閾値より低い場合に異常として検知する検知部と、を備えることを特徴とする。
 本発明によれば、VAEによるデータの確率分布を高精度に推定可能となる。
図1は、検知装置の概要を説明するための説明図である。 図2は、検知装置の概略構成を例示する模式図である。 図3は、学習部の処理を説明するための説明図である。 図4は、検知部の処理を説明するための説明図である。 図5は、検知部の処理を説明するための説明図である。 図6は、検知処理手順を示すフローチャートである。 図7は、検知プログラムを実行するコンピュータを例示する図である。
 以下、図面を参照して、本発明の一実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。
[検知装置の概要]
 本実施形態の検知装置は、VAEをベースにした生成モデルを作成してIoTのセンサデータの異常を検知する。ここで、図1は、検知装置の概要を説明するための説明図である。図1に示すように、VAEは、エンコーダおよびデコーダと呼ばれる2つの条件付き確率分布で構成される。
 エンコーダqφ(z|x)は、高次元のデータxを符号化して、低次元の潜在変数zによる表現に変換する。ここで、φはエンコーダのパラメータである。また、デコーダpθ(x|z)は、エンコーダで符号化されたデータを復号化して、元のデータxを再現する。ここで、θはデコーダのパラメータである。元のデータxが連続値の場合、一般に、エンコーダおよびデコーダにはガウス分布が適用される。図1に示す例では、エンコーダの分布はN(z;μφ(x),σ φ(x))であり、デコーダの分布はN(x;μθ(z),σ θ(z))である。
 具体的には、VAEは、次式(1)に示すように、真のデータの確率分布p(x)をpθ(x)として再現する。ここで、pλ(z)は事前分布と呼ばれ、一般に、平均μ=0、分散σ=1の標準ガウス分布と仮定される。
Figure JPOXMLDOC01-appb-M000001
 VAEは、真のデータ分布と生成モデルによるデータ分布との差を最小にするように学習を行う。すなわち、VAEの生成モデルは、デコーダの再現率を表す尤度に対応する対数尤度の平均値を最大にするように、エンコーダのパラメータφおよびデコーダのパラメータθを決定することにより、作成される。これらのパラメータは、対数尤度の下界を表す変分下界が最大となる場合において決定される。言い換えれば、VAEの学習においては、変分下界にマイナス1を乗じた損失関数の平均値を最小化するように、エンコーダおよびデコーダのパラメータが決定される。
 具体的には、VAEの学習では、次式(2)に示すように、対数尤度を周辺化した周辺化対数尤度lnpθ(x)の平均値を最大化するように、パラメータが決定される。
Figure JPOXMLDOC01-appb-M000002
 周辺化対数尤度は、次式(3)に示すように、変分下界により下から抑えられる。
Figure JPOXMLDOC01-appb-M000003
 すなわち、周辺化対数尤度の変分下界は、次式(4)で表される。
Figure JPOXMLDOC01-appb-M000004
 上記式(4)の第一項(にマイナスを付したもの)は、再構成誤差と呼ばれる。また、第二項は、事前分布pλ(z)に対するエンコーダqφ(z|x)のカルバックライブラー情報量と呼ばれる。上記式(4)に示したように、変分下界とは、カルバックライブラー情報量で正則化された再構成誤差と解釈することができる。つまり、カルバックライブラー情報量は、エンコーダqφ(z|x)が事前分布pλ(z)に近づくように正則化する項ということができる。VAEは、第一項を大きく、第二項のカルバックライブラー情報量を小さくして、周辺化対数尤度の平均値を最大化するように、学習を行う。
 ところで、上記したように、事前分布は標準ガウス分布と仮定されるが、その場合には、VAEの学習が妨げられ、データの確率分布の推定精度が低いことが知られている。これに対し、VAEに最適な事前分布は、解析的に求めることができるものである。
 そこで、本実施形態の検知装置では、事前分布を、次式(5)に示すように、エンコーダqφ(z|x)を周辺化した周辺化事後分布qφ(z)に置換する(非特許文献2参照)。
Figure JPOXMLDOC01-appb-M000005
 一方、事前分布pλ(z)を周辺化事後分布qφ(z)に置換した場合には、周辺化事後分布qφ(z)に対するエンコーダqφ(z|x)のカルバックライブラー情報量を解析的に求めることができない。そこで、本実施形態の検知装置では、カルバックライブラー情報量を精度よく近似できるように、標準のガウス分布と周辺化事後分布との密度比を用いて、カルバックライブラー情報量を近似する。これにより、データの確率分布を高精度に推定可能なVAEの生成モデルが作成される。
[検知装置の構成]
 図2は、検知装置の概略構成を例示する模式図である。図2に例示するように、検知装置10は、パソコン等の汎用コンピュータで実現され、入力部11、出力部12、通信制御部13、記憶部14、および制御部15を備える。
 入力部11は、キーボードやマウス等の入力デバイスを用いて実現され、操作者による入力操作に対応して、制御部15に対して処理開始などの各種指示情報を入力する。出力部12は、液晶ディスプレイなどの表示装置、プリンター等の印刷装置等によって実現される。
 通信制御部13は、NIC(Network Interface Card)等で実現され、ネットワーク3を介したサーバ等の外部の装置と制御部15との通信を制御する。
 記憶部14は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現され、後述する検知処理により学習されたデータの生成モデルのパラメータ等が記憶される。なお、記憶部14は、通信制御部13を介して制御部15と通信する構成でもよい。
 制御部15は、CPU(Central Processing Unit)等を用いて実現され、メモリに記憶された処理プログラムを実行する。これにより、制御部15は、図4に例示するように、取得部15a、学習部15bおよび検知部15cとして機能する。なお、これらの機能部は、異なるハードウェアに実装されてもよい。
 取得部15aは、センサが出力するデータを取得する。例えば、取得部15aは、IoT機器に取り付けられたセンサが出力するセンサデータを、通信制御部13を介して取得する。センサデータとしては、例えば、車に取り付けられた温度、速度、回転数、走行距離等のセンサのデータや、工場内で稼働する多種多様な機器のそれぞれに取り付けられた温度、振動数、音等のセンサのデータが例示される。
 学習部15bは、エンコーダとデコーダとを含んでデータの確率分布を表す生成モデルにおいて、該エンコーダの事前分布を、該エンコーダを周辺化した周辺化事後分布に置換し、かつ、標準ガウス分布と周辺化事後分布との密度比を用いてカルバックライブラー情報量を近似し、データを用いて生成モデルを学習する。
 具体的には、学習部15bは、データが発生する確率分布を表す生成モデルを、ガウス分布に従うエンコーダとデコーダとを含むVAEをベースに作成する。その際、学習部15bは、該エンコーダの事前分布を、上記式(5)に示した該エンコーダを周辺化した周辺化事後分布qφ(z)に置換する。さらに、学習部15bは、平均μ=0、分散σ=1の標準ガウス分布p(z)と周辺化事後分布qφ(z)との密度比を推定することで、周辺化事後分布qφ(z)に対するエンコーダqφ(z|x)のカルバックライブラー情報量を近似する。
 ここで、密度比推定とは、2つの確率分布のそれぞれを推定することなく、2つの確率分布の密度比を推定する手法である。それぞれの確率分布を解析的に求めなられない場合であっても、それぞれの確率分布からのサンプリングが可能な場合には、2つの確率分布の密度比を求めることができるので、密度比推定の適用が可能である。
 具体的には、周辺化事後分布qφ(z)に対するエンコーダqφ(z|x)のカルバックライブラー情報量は、次式(6)に示すように2つの項に分解できる。
Figure JPOXMLDOC01-appb-M000006
 上記式(6)において、第一項は、標準ガウス分布p(z)に対するエンコーダqφ(z|x)のカルバックライブラー情報量であり、解析的に計算可能である。また、第二項は、標準ガウス分布p(z)と周辺化事後分布qφ(z)との密度比を用いて表される。この場合に、標準ガウス分布p(z)からも周辺化事後分布qφ(z)からも容易にサンプリングが可能であるため、密度比推定の適用が可能である。
 なお、高次元のデータについては、密度比の推定精度が低いことが知られているが、VAEの潜在変数zは低次元であるため、密度比の推定を高精度に行うことが可能である。
 具体的には、次式(7)に示すように、zの関数T(z)を用いた目的関数を最大化するT(z)をT(z)とする。この場合に、次式(8)に示すように、T(z)は、標準ガウス分布p(z)と周辺化事後分布qφ(z)との密度比に等しくなる。
Figure JPOXMLDOC01-appb-M000007
Figure JPOXMLDOC01-appb-M000008
 そこで、学習部15bは、次式(9)に示すように、上記式(6)に示したカルバックライブラー情報量の密度比をT(z)に置換する近似を行う。
Figure JPOXMLDOC01-appb-M000009
 これにより、学習部15bは、周辺化事後分布qφ(z)に対するエンコーダqφ(z|x)のカルバックライブラー情報量を精度よく近似することが可能となる。したがって、学習部15bは、データの確率分布を高精度に推定可能なVAEの生成モデルを作成できる。
 図3は、学習部15bの処理を説明するための説明図である。図3には、各種の手法により学習された生成モデルの対数尤度が例示されている。図3において、標準ガウス分布は、従来のVAEを表す。また、VampPriorは、潜在変数を混合分布としたVAEを表す(非特許文献3参照)。また、対数尤度は、生成モデルの精度評価の尺度であり、値が大きいほど精度が高いことを表す。図3に示す例では、手書き数字のサンプルデータであるMNISTのデータセットを用いて、対数尤度が算出されている。
 図3に示すように、従来のVAEおよびVampPriorと比較して、上記実施形態に示した本発明の手法により、対数尤度の値が大きくなり精度が向上していることがわかる。このように、本実施形態の学習部15bにより、高精度な生成モデルを作成できる。
 図2の説明に戻る。検知部15cは、学習された生成モデルを用いてデータの確率分布を推定し、新たに取得されたデータの推定される発生確率が所定の閾値より低い場合に異常として検知する。例えば、図4および図5は、検知部15cの処理を説明するための説明図である。図4に例示するように、検知装置10では、車等のモノに取り付けられた速度、回転数、走行距離等のセンサのデータを取得部15aが取得して、学習部15bがデータの確率分布を表す生成モデルを作成する。
 また、検知部15cが、作成された生成モデルを用いてデータ発生の確率分布を推定する。そして、検知部15cは、新たに取得部15aが取得したデータの推定される発生確率が、所定の閾値以上の場合には正常、所定の閾値より低い場合には異常と判定する。
 例えば、図5(a)に示したように、2次元のデータ空間に点で示したデータが与えられた場合に、検知部15cは、学習部15bが作成した生成モデルを用いて、図5(b)に示すように、データ発生の確率分布を推定する。図5(b)において、データ空間上の色が濃いほど、その部分のデータの発生の確率が高いことを示している。したがって、図5(b)に×で示した発生の確率が低いデータは、異常データと見なすことができる。
 また、検知部15cは異常を検知した場合に、警報を出力する。例えば、出力部12あるいは通信制御部13を介して管理装置等に、異常検知の旨のメッセージやアラームを出力する。
[検知処理]
 次に、図6を参照して、本実施形態に係る検知装置10による検知処理について説明する。図6は、検知処理手順を示すフローチャートである。図6のフローチャートは、例えば、検知処理の開始を指示する操作入力があったタイミングで開始される。
 まず、取得部15aが、車等のモノに取り付けられた速度、回転数、走行距離等のセンサのデータを取得する(ステップS1)。次に、学習部15bが、取得されたデータを用いて、ガウス分布に従うエンコーダとデコーダとを含んでデータの確率分布を表す生成モデルを学習する(ステップS2)。
 その際、学習部15bは、エンコーダの事前分布を、該エンコーダを周辺化した周辺化事後分布に置換する。また、学習部15bは、標準ガウス分布と周辺化事後分布との密度比を用いてカルバックライブラー情報量を近似する。
 次に、検知部15cが、作成された生成モデルを用いてデータ発生の確率分布を推定する(ステップS3)。また、検知部15cは、新たに取得部15aが取得したデータの推定される発生確率が所定の閾値より低い場合に、異常として検知する(ステップS4)。検知部15cは異常を検知した場合に、警報を出力する。これにより、一連の検知処理が終了する。
 以上、説明したように、本実施形態の検知装置10において、取得部15aが、センサが出力するデータを取得する。また、学習部15bが、エンコーダとデコーダとを含んでデータの確率分布を表す生成モデルにおいて、該エンコーダの事前分布を、該エンコーダを周辺化した周辺化事後分布に置換し、かつ、標準ガウス分布と周辺化事後分布との密度比を用いてカルバックライブラー情報量を近似し、取得したデータを用いて生成モデルを学習する。検知部15cは、学習された生成モデルを用いてデータの確率分布を推定し、新たに取得されたデータの推定される発生確率が所定の閾値より低い場合に異常として検知する。
 これにより、検知装置10は、低次元の潜在変数を用いた密度比推定を適用して、高精度なデータの生成モデルを作成することができる。このように、検知装置10は、IoT機器のセンサデータのように大規模かつ複雑なデータの生成モデルを高精度に学習することができる。したがって、データの発生確率を高精度に推定し、データの異常を検知することが可能となる。
 例えば、検知装置10は、車に取り付けられた温度、速度、回転数、走行距離等の各種センサが出力する大規模かつ複雑なデータを取得して、走行中の車に発生した異常を高精度に検知することができる。あるいは、検知装置10は、工場内で稼働する多種多様な機器のそれぞれに取り付けられた温度、振動数、音等のセンサが出力する大規模かつ複雑なデータを取得して、いずれかの機器に異常が発生した場合に高精度に異常を検知することができる。
 なお、本実施形態の検知装置10は、従来のVAEをベースとしたものに限定されない。すなわち、学習部15bの処理は、VAEの特殊なケースであるAE(Auto Encoder)をベースとしてもよいし、エンコーダおよびデコーダがガウス分布以外の確率分布に従うものとしてもよい。
[プログラム]
 上記実施形態に係る検知装置10が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。一実施形態として、検知装置10は、パッケージソフトウェアやオンラインソフトウェアとして上記の検知処理を実行する検知プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の検知プログラムを情報処理装置に実行させることにより、情報処理装置を検知装置10として機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistants)等のスレート端末等がその範疇に含まれる。
 また、検知装置10は、ユーザが使用する端末装置をクライアントとし、当該クライアントに上記の検知処理に関するサービスを提供するサーバ装置として実装することもできる。例えば、検知装置10は、IoT機器のセンサのデータを入力とし、異常を検知した場合に検知結果を出力する検知処理サービスを提供するサーバ装置として実装される。この場合、検知装置10は、Webサーバとして実装することとしてもよいし、アウトソーシングによって上記の検知処理に関するサービスを提供するクラウドとして実装することとしてもかまわない。以下に、検知装置10と同様の機能を実現する検知プログラムを実行するコンピュータの一例を説明する。
 図7は、検知プログラムを実行するコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
 メモリ1010は、ROM(Read Only Memory)1011およびRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1031に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1041に接続される。ディスクドライブ1041には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1051およびキーボード1052が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1061が接続される。
 ここで、ハードディスクドライブ1031は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。上記実施形態で説明した各情報は、例えばハードディスクドライブ1031やメモリ1010に記憶される。
 また、検知プログラムは、例えば、コンピュータ1000によって実行される指令が記述されたプログラムモジュール1093として、ハードディスクドライブ1031に記憶される。具体的には、上記実施形態で説明した検知装置10が実行する各処理が記述されたプログラムモジュール1093が、ハードディスクドライブ1031に記憶される。
 また、検知プログラムによる情報処理に用いられるデータは、プログラムデータ1094として、例えば、ハードディスクドライブ1031に記憶される。そして、CPU1020が、ハードディスクドライブ1031に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
 なお、検知プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1031に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1041等を介してCPU1020によって読み出されてもよい。あるいは、検知プログラムに係るプログラムモジュール1093やプログラムデータ1094は、LAN(Local Area Network)やWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
 以上、本発明者によってなされた発明を適用した実施形態について説明したが、本実施形態による本発明の開示の一部をなす記述および図面により本発明は限定されることはない。すなわち、本実施形態に基づいて当業者等によりなされる他の実施形態、実施例および運用技術等は全て本発明の範疇に含まれる。
 10 検知装置
 11 入力部
 12 出力部
 13 通信制御部
 14 記憶部
 15 制御部
 15a 取得部
 15b 学習部
 15c 検知部

Claims (5)

  1.  センサが出力するデータを取得する取得部と、
     エンコーダとデコーダとを含んで前記データの確率分布を表す生成モデルにおいて、該エンコーダの事前分布を、該エンコーダを周辺化した周辺化事後分布に置換し、かつ、標準ガウス分布と前記周辺化事後分布との密度比を用いてカルバックライブラー情報量を近似し、前記データを用いて該生成モデルを学習する学習部と、
     学習された生成モデルを用いて前記データの確率分布を推定し、新たに取得された前記データの推定される発生確率が所定の閾値より低い場合に異常として検知する検知部と、
     を備えることを特徴とする検知装置。
  2.  前記エンコーダおよび前記デコーダは、ガウス分布に従うことを特徴とする請求項1に記載の検知装置。
  3.  前記検知部は、異常を検知した場合に、警報を出力することを特徴とする請求項1または2に記載の検知装置。
  4.  検知装置で実行される検知方法であって、
     センサが出力するデータを取得する取得工程と、
     エンコーダとデコーダとを含んで前記データの確率分布を表す生成モデルにおいて、該エンコーダの事前分布を、該エンコーダを周辺化した周辺化事後分布に置換し、かつ、標準ガウス分布と前記周辺化事後分布との密度比を用いてカルバックライブラー情報量を近似し、前記データを用いて該生成モデルを学習する学習工程と、
     学習された生成モデルを用いて前記データの確率分布を推定し、新たに取得された前記データの推定される発生確率が所定の閾値より低い場合に異常として検知する検知工程と、
     を含んだことを特徴とする検知方法。
  5.  センサが出力するデータを取得する取得ステップと、
     エンコーダとデコーダとを含んで前記データの確率分布を表す生成モデルにおいて、該エンコーダの事前分布を、該エンコーダを周辺化した周辺化事後分布に置換し、かつ、標準ガウス分布と前記周辺化事後分布との密度比を用いてカルバックライブラー情報量を近似し、前記データを用いて該生成モデルを学習する学習ステップと、
     学習された生成モデルを用いて前記データの確率分布を推定し、新たに取得された前記データの推定される発生確率が所定の閾値より低い場合に異常として検知する検知ステップと、
     をコンピュータに実行させるための検知プログラム。
PCT/JP2019/024297 2018-06-20 2019-06-19 検知装置、検知方法および検知プログラム WO2019244930A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/253,131 US20210264285A1 (en) 2018-06-20 2019-06-19 Detecting device, detecting method, and detecting program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-116796 2018-06-20
JP2018116796A JP7119631B2 (ja) 2018-06-20 2018-06-20 検知装置、検知方法および検知プログラム

Publications (1)

Publication Number Publication Date
WO2019244930A1 true WO2019244930A1 (ja) 2019-12-26

Family

ID=68984073

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/024297 WO2019244930A1 (ja) 2018-06-20 2019-06-19 検知装置、検知方法および検知プログラム

Country Status (3)

Country Link
US (1) US20210264285A1 (ja)
JP (1) JP7119631B2 (ja)
WO (1) WO2019244930A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021110979A (ja) * 2020-01-06 2021-08-02 日本電気通信システム株式会社 自律移動装置、学習装置、異常検知方法、及びプログラム
EP3929818A4 (en) * 2019-03-26 2022-11-30 Nippon Telegraph And Telephone Corporation EVALUATION SYSTEM, EVALUATION PROCESS AND EVALUATION PROGRAM

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11232782B2 (en) * 2019-08-30 2022-01-25 Microsoft Technology Licensing, Llc Speaker adaptation for attention-based encoder-decoder
JP7230762B2 (ja) 2019-10-02 2023-03-01 株式会社豊田自動織機 ピストン式圧縮機
US20230171622A1 (en) * 2021-11-30 2023-06-01 Microsoft Technology Licensing, Llc State-based anomaly detection to enable diagnostic data collection for specific subscribers in core network nodes of a telecommunications network

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017027145A (ja) * 2015-07-16 2017-02-02 ソニー株式会社 表示制御装置、表示制御方法、及び、プログラム
WO2017094267A1 (ja) * 2015-12-01 2017-06-08 株式会社Preferred Networks 異常検出システム、異常検出方法、異常検出プログラム及び学習済モデル生成方法
WO2017168870A1 (ja) * 2016-03-28 2017-10-05 ソニー株式会社 情報処理装置及び情報処理方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016188593A1 (en) * 2015-05-26 2016-12-01 Katholieke Universiteit Leuven Speech recognition system and method using an adaptive incremental learning approach
US10776712B2 (en) * 2015-12-02 2020-09-15 Preferred Networks, Inc. Generative machine learning systems for drug design

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017027145A (ja) * 2015-07-16 2017-02-02 ソニー株式会社 表示制御装置、表示制御方法、及び、プログラム
WO2017094267A1 (ja) * 2015-12-01 2017-06-08 株式会社Preferred Networks 異常検出システム、異常検出方法、異常検出プログラム及び学習済モデル生成方法
WO2017168870A1 (ja) * 2016-03-28 2017-10-05 ソニー株式会社 情報処理装置及び情報処理方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3929818A4 (en) * 2019-03-26 2022-11-30 Nippon Telegraph And Telephone Corporation EVALUATION SYSTEM, EVALUATION PROCESS AND EVALUATION PROGRAM
US11977627B2 (en) 2019-03-26 2024-05-07 Nippon Telegraph And Telephone Corporation Evaluation device, evaluation method, and evaluation program
JP2021110979A (ja) * 2020-01-06 2021-08-02 日本電気通信システム株式会社 自律移動装置、学習装置、異常検知方法、及びプログラム

Also Published As

Publication number Publication date
US20210264285A1 (en) 2021-08-26
JP7119631B2 (ja) 2022-08-17
JP2019219915A (ja) 2019-12-26

Similar Documents

Publication Publication Date Title
WO2019244930A1 (ja) 検知装置、検知方法および検知プログラム
US20230103638A1 (en) Image-to-Image Mapping by Iterative De-Noising
JP7229308B2 (ja) 時系列データに対する普遍的敵対的攻撃から防御するための方法およびシステム
CN113837205B (zh) 用于图像特征表示生成的方法、设备、装置和介质
EP3836029A1 (en) Apparatus and method with neural network implementation of domain adaptation
CN112906685B (zh) 一种目标检测方法、装置、电子设备及存储介质
US11847210B2 (en) Detecting device and detecting method
CN112651467B (zh) 卷积神经网络的训练方法和系统以及预测方法和系统
US10885593B2 (en) Hybrid classification system
WO2017130835A1 (ja) 作成装置、作成方法、および作成プログラム
KR20220033007A (ko) 실시간 얼굴 랜드마크 검출
JP7331940B2 (ja) 学習装置、推定装置、学習方法および学習プログラム
JP6691079B2 (ja) 検知装置、検知方法および検知プログラム
WO2017188048A1 (ja) 作成装置、作成プログラム、および作成方法
US20230267709A1 (en) Dataset-aware and invariant learning for face recognition
WO2019215904A1 (ja) 予測モデル作成装置、予測モデル作成方法、および予測モデル作成プログラム記録媒体
CN116569210A (zh) 归一化oct图像数据
WO2021161423A1 (ja) 検知装置、検知方法および検知プログラム
US11688175B2 (en) Methods and systems for the automated quality assurance of annotated images
US20230297823A1 (en) Method and system for training a neural network for improving adversarial robustness
JP7331938B2 (ja) 学習装置、推定装置、学習方法及び学習プログラム
CN115439734A (zh) 质量评估模型训练方法、装置、电子设备及存储介质
CN114972871A (zh) 基于图像配准的少样本图像异常检测方法及系统
WO2022249472A1 (ja) 検知装置、検知方法および検知プログラム
EP3715988A1 (en) System, device and method for detecting anomalies in industrial assets

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19822466

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19822466

Country of ref document: EP

Kind code of ref document: A1