JP7268367B2 - LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM - Google Patents
LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM Download PDFInfo
- Publication number
- JP7268367B2 JP7268367B2 JP2019014035A JP2019014035A JP7268367B2 JP 7268367 B2 JP7268367 B2 JP 7268367B2 JP 2019014035 A JP2019014035 A JP 2019014035A JP 2019014035 A JP2019014035 A JP 2019014035A JP 7268367 B2 JP7268367 B2 JP 7268367B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- generator
- discriminator
- state
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Mathematical Physics (AREA)
- Quality & Reliability (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Public Health (AREA)
- Image Analysis (AREA)
- Testing And Monitoring For Control Systems (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、学習装置、学習方法および学習プログラムに関する。 The present invention relates to a learning device, a learning method, and a learning program.
近年、医療画像分析の分野等で、画像データを用いて、病変等の異常を検出することが行われている。特に、医療等の分野では、訓練データに用いる異常状態の画像データの入手が困難なことが多いことから、正常状態の画像データのみを利用した機械学習が求められるとともに、大量かつ精密な大容量のデータを扱うことから、検出速度の高速化も求められている。 In recent years, in the field of medical image analysis and the like, detection of abnormalities such as lesions using image data has been performed. Especially in the medical field, it is often difficult to obtain image data of abnormal conditions for use as training data. Since the data is handled, there is also a demand for faster detection speed.
このような状況下で、機械学習を使用した異常検知に手法として、正常データの分布を推定して、その分布から外れたデータを異常データと検知する敵対的生成ネットワーク(GAN:Generative Adversarial Networks)が知られている。図17は、GANを説明する図である。図17に示すように、GANは、生成器と識別器とを有し、生成器を学習するネットワークと識別器を学習するネットワークとが互いに成長していく教師なし学習の学習モデルである。 Under these circumstances, as a technique for anomaly detection using machine learning, Generative Adversarial Networks (GAN) are used to estimate the distribution of normal data and detect data deviating from that distribution as abnormal data. It has been known. FIG. 17 is a diagram explaining the GAN. As shown in FIG. 17, GAN is a learning model of unsupervised learning that has a generator and a classifier, and a network that learns the generator and a network that learns the classifier grow together.
GANでは、生成器がノイズなどの入力データから本物データに近い偽物データを生成するように学習し、識別器が生成器により生成されたデータが本物データか偽物データかを識別できるように学習する。このGANを用いた異常検出としては、学習済みの生成器が与えられたサンプルを生成する能力が存在するか否かを判定して、能力が無ければ異常データとみなす手法や、学習済みの識別器が偽物データと判定したデータを異常データとみなす手法が利用されている。 In GAN, the generator learns to generate fake data close to genuine data from input data such as noise, and the classifier learns to distinguish whether the data generated by the generator is genuine data or fake data. . As anomaly detection using this GAN, there is a method of determining whether or not a learned generator has the ability to generate a given sample, and if it does not have the ability, it is regarded as abnormal data, or a method of learning identification A technique is used in which data determined by the device to be fake data is regarded as abnormal data.
しかしながら、上記技術では、識別器の異常検知の能力が低下する場合がある。具体的には、識別器を使用する場合、識別器の特性が学習終了時の生成器が誤って生成する正常データ以外のデータに依存するので、検出漏れが大きくなる場合がある。例えば、識別器は、正常データと生成器の出力の違いを見分ける能力があると期待できるが、その一方で、生成器の出力に含まれず、正常データにも含まれないものは、学習できないので、特定の出力を期待できない。なお、生成器を用いる手法は、検出コストが高いので、高速性が求められる異常検知には不向きである。 However, with the above technique, the ability of the discriminator to detect anomalies may be degraded. Specifically, when a discriminator is used, the characteristics of the discriminator depend on data other than normal data that is erroneously generated by the generator at the end of learning, which may result in large detection omissions. For example, a discriminator can be expected to be capable of discerning the difference between normal data and the generator's output, while anything that is not in the generator's output and not in the normal data cannot be learned because , do not expect any specific output. It should be noted that the method using the generator is not suitable for anomaly detection that requires high speed because the detection cost is high.
一つの側面では、識別器の異常検知の能力低下を抑制することができる学習装置、学習方法および学習プログラムを提供することを目的とする。 An object of one aspect of the present invention is to provide a learning device, a learning method, and a learning program capable of suppressing deterioration in the anomaly detection capability of a discriminator.
第1の案では、学習装置は、画像データを生成する生成器と、前記画像データの真偽を識別する識別器とを有する。学習装置は、前記生成器が前記識別器の識別誤差を最大化するように学習を実行するとともに、前記識別器が識別誤差を最小化するように学習を実行する学習部を有する。学習装置は、前記学習の実行途中において、予め設定された条件で、学習途中の前記生成器の状態を保存する保存部を有する。学習装置は、保存された前記学習途中の識別器の状態を用いて、前記識別器の再学習を実行する再学習部を有する。 In the first scheme, the learning device has a generator that generates image data and a discriminator that discriminates whether the image data is true or false. The learning device has a learning unit that performs learning so that the generator maximizes the discrimination error of the classifier and the classifier learns so that the classifier minimizes the discrimination error. The learning device has a storage unit that stores the state of the generator during learning under preset conditions during execution of the learning. The learning device has a re-learning unit that re-learns the classifier using the saved state of the classifier during learning.
一実施形態によれば、識別器の異常検知の能力低下を抑制することができる。 According to one embodiment, it is possible to suppress deterioration of the abnormality detection capability of the discriminator.
以下に、本願の開示する学習装置、学習方法および学習プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。 Embodiments of the learning device, the learning method, and the learning program disclosed in the present application will be described in detail below with reference to the drawings. In addition, this invention is not limited by this Example. Moreover, each embodiment can be appropriately combined within a range without contradiction.
[異常検出装置10の説明]
図1は、実施例1にかかる異常検出装置10を説明する図である。図1に示すように、異常検出装置10は、学習フェーズにおいて、GANにより生成器と識別器とを学習し、予測フェーズにおいて、学習済みの識別器を用いて、予測対象の画像データに対して異常検知を実行する学習装置の一例である。
[Description of the abnormality detection device 10]
FIG. 1 is a diagram for explaining an
ところで、一般的なGANによる学習では、識別器の異常検知の能力が低下する場合がある。ここで、図2から図5を用いて、一般的なGANの問題点を説明する。ここでは、図2から図5では、一般的なGANによる学習に関し、学習開始前から学習終了後の各段階を例示して説明する。図2は、学習前を説明する図である。図3は、学習開始後を説明する図である。図4は、学習の進行中を説明する図である。図5は、学習後の識別器を説明する図である。 By the way, in general GAN-based learning, the ability of the discriminator to detect anomalies may deteriorate. Here, problems of general GANs will be described with reference to FIGS. 2 to 5. FIG. Here, FIG. 2 to FIG. 5 illustrate and explain each stage from before the start of learning to after the end of learning with respect to learning by general GAN. FIG. 2 is a diagram for explaining before learning. FIG. 3 is a diagram for explaining the state after learning has started. FIG. 4 is a diagram for explaining the progress of learning. FIG. 5 is a diagram for explaining a discriminator after learning.
図2に示すように、学習前では、生成器は、正常データとは異なる分布のデータを生成し、識別器は、正常データに分布と生成器が生成したデータの分布との違いを学習する。すなわち、識別器は、正常データの分布と生成器が生成するデータの分布とを明確に区別して識別する。 As shown in FIG. 2, before learning, the generator generates data with a distribution different from normal data, and the discriminator learns the difference between the distribution of normal data and the distribution of data generated by the generator. . That is, the discriminator clearly distinguishes and discriminates the distribution of normal data and the distribution of data generated by the generator.
続いて、図3に示すように、学習が開始されると、識別器に正常と識別されるデータが多く、異常と識別されるデータが少なくなるように、生成器の学習が進む。すなわち、生成器は、識別器が識別を間違えるようなデータの生成を学習するので、生成器が生成するデータの分布が、識別器が正常と判断できる範囲を含むように学習される。その一方で、識別器は、学習開始に伴って生成器が生成するデータの分布が変更されると、正常であると識別する識別結果の確率が変化していくが、正常データの分布と生成器が生成したデータの分布との違いを学習する。 Subsequently, as shown in FIG. 3, when learning is started, the learning of the generator progresses so that more data is identified as normal by the classifier and less data is identified as abnormal. That is, the generator learns to generate data that causes the discriminator to misidentify, so that the distribution of the data generated by the generator is learned to include a range in which the discriminator can determine that it is normal. On the other hand, when the distribution of data generated by the generator changes with the start of learning, the discriminator changes the probability of discrimination results to be normal. Learn the difference from the distribution of the data generated by the instrument.
続いて、図3の時点よりも学習が進むと、図4に示すように、生成器が生成するデータの分布は、図3において識別器が正常と識別できる範囲を含むように学習される。すなわち、生成器が生成するデータの分布が、識別器が正常と識別できる範囲により多く含まれるように更新される。一方で、識別器は、更新された生成器が生成データの分布と、正常データの分布とを識別するように学習する。 3, the distribution of data generated by the generator is learned so as to include a range in which the discriminator can identify normal in FIG. 3, as shown in FIG. That is, the distribution of data generated by the generator is updated so that it includes more of the range that the classifier can identify as normal. On the one hand, the discriminator learns such that the updated generator discriminates between the distribution of generated data and the distribution of normal data.
さらに学習が進むと、図5に示すように、生成器は、図4の状態から、識別器が正常と識別できる範囲のデータを模倣して識別器を間違わせるように学習するので、生成器が生成するデータの分布が、図4において識別器が識別できる範囲を含むように更新される。学習が完了すると、学習後の識別器は、生成器が生成したデータと正常データ(本物データ)とを識別できるように学習されている。 As learning progresses further, as shown in FIG. 5, the generator learns from the state of FIG. is updated so as to include the range that can be discriminated by the discriminator in FIG. When learning is completed, the discriminator after learning is trained so that it can discriminate between data generated by the generator and normal data (genuine data).
しかし、一般的なGANでは、識別器の特性が学習終了時の生成器が誤って生成する正常データ以外のデータに依存するので、検出漏れが大きくなる場合がある。つまり、学習後の識別器が異常と判断できる範囲に存在する異常データに対しては正しく異常を検出できるが、それ以外の範囲に存在する異常データを検出できない。言い換えると、一般的なGANでは、検出が期待される異常データの範囲まで識別器を学習できないことがある。 However, in a general GAN, since the characteristics of the discriminator depend on data other than normal data erroneously generated by the generator at the end of learning, detection omissions may increase. In other words, an abnormality can be correctly detected for abnormal data existing in a range in which the discriminator after learning can be determined to be abnormal, but abnormal data existing in other ranges cannot be detected. In other words, in general GANs, it may not be possible to learn classifiers up to the range of anomalous data that is expected to be detected.
そこで、実施例1にかかる異常検出装置10は、医療における検出したい異常データが正常データの分布から大きく外れたところには出現しないことに着目する。そして、異常検出装置10は、学習の過程で、生成器の生成するデータの分布が一時的に正常データの分布を逸脱することがありうることから、一定の間隔で学習途中の生成器を保存し、保存された生成器すべてを用いて識別器を学習する。
Therefore, the
具体的には、図1に示すように、異常検出装置10は、GANによる生成器と識別器とを学習する一方で、一定間隔で、学習途中の生成器に関する情報を取得する。そして、異常検出装置10は、GANによる識別器の学習が完了すると、学習済みの識別器に対して、途中に保存した各生成器を用いて再学習を実行する。再学習の完了後、異常検出装置10は、予測対象の画像データを再学習済みの識別器に入力して、異常検出を実行する。
Specifically, as shown in FIG. 1, the
[機能構成]
図6は、実施例1にかかる異常検出装置10の機能構成を示す機能ブロック図である。図6に示すように、異常検出装置10は、通信部11、記憶部12、制御部20を有する。
[Function configuration]
FIG. 6 is a functional block diagram showing the functional configuration of the
通信部11は、他の装置の間の通信を制御する処理部であり、例えば通信インタフェースなどである。例えば、通信部11は、管理者端末から各種処理の開始指示、正常データ、予測対象データなどを受信し、管理者端末に学習結果や予測結果などを送信する。
The
記憶部12は、各種データや制御部20が実行するプログラムなどを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどである。この記憶部12は、正常データDB13、途中情報DB14、学習結果DB15などを記憶する。
The
正常データDB13は、正常な状態の内臓等が撮像された画像データを記憶するデータベースである。例えば、正常データDB13は、GANによる識別器の学習において使用される正常データを記憶する。
The
途中情報DB14は、GANによる生成器の学習過程における学習途中の生成器に関する情報を記憶するデータベースである。例えば、途中情報DB14は、学習途中の生成器を再現(構築)できる、学習途中の各種パラメータを記憶する。
The in-
学習結果DB15は、生成器および識別器の学習結果を記憶するデータベースである。例えば、学習結果DB15は、GANを用いた生成器および識別器の学習結果や、識別器の再学習結果として、学習が完了した学習済みの生成器や識別器を生成できる各種パラメータを記憶する。
The
制御部20は、異常検出装置10全体を司る処理部であり、例えばプロセッサなどである。この制御部20は、学習処理部30、再学習部40、検出部50を有し、識別精度のよい識別器を学習し、入力される予測対象の画像データに対して異常検知を実行する。
The
学習処理部30は、生成器学習部31、識別器学習部32、一時保存部33を有し、GANを用いた生成器および識別器の学習を実行する処理部である。
The learning processing unit 30 has a generator learning unit 31, a
生成器学習部31は、GANの生成器の学習を実行する処理部である。具体的には、生成器学習部31は、一般的なGANと同様、識別器に正常と判定されるデータが多く、異常と判定されるデータが少なくなるように生成器を学習する。すなわち、生成器は、識別器の識別誤差を最大化するように学習する。 The generator learning unit 31 is a processing unit that executes GAN generator learning. Specifically, the generator learning unit 31 learns the generator so that the discriminator has more data determined to be normal and less data determined to be abnormal, as in a general GAN. That is, the generator learns to maximize the discrimination error of the discriminator.
例えば、生成器学習部31は、乱数やランダムノイズなどであり、いわゆる種などと呼ばれる潜在変数を用いて、生成器により画像データを生成する。そして、生成器学習部31は、生成された画像データ(以下では、生成データと記載する場合がある)を識別器に入力し、識別器の識別結果を取得する。そして、生成器学習部31は、識別結果を用いて、生成データが識別器により正常データと識別されるように、生成器を学習する。 For example, the generator learning unit 31 generates image data using a generator using a latent variable such as a seed, which is a random number or random noise. Then, the generator learning unit 31 inputs the generated image data (hereinafter sometimes referred to as generated data) to the classifier, and acquires the classification result of the classifier. Then, the generator learning unit 31 uses the identification result to learn the generator so that the generated data is identified as normal data by the identifier.
すなわち、生成器学習部31は、生成器が生成する生成データの分布が正常データの分布と一致するように、生成器を学習する。学習が完了すると、生成器学習部31は、学習済みの生成器に関する情報を学習結果DB15に格納する。
That is, the generator learning unit 31 learns the generator so that the distribution of generated data generated by the generator matches the distribution of normal data. When the learning is completed, the generator learning unit 31 stores information on the learned generator in the
識別器学習部32は、GANの識別器の学習を実行する処理部である。具体的には、識別器学習部32は、一般的なGANと同様、正常データDB13に記憶される正常データと、生成器により生成される生成データとを区別できるように生成器を学習する。すなわち、識別器は、識別誤差を最小化するように学習する。
The
例えば、識別器学習部32は、生成器から生成データを取得して識別器に入力し、識別器の出力結果を取得する。そして、識別器学習部32は、出力結果に含まれる正常データである正常確率と、生成データである異常確率とのうち、異常確率が高くなり、正常確率が低くなるように、識別器を学習する。
For example, the
すなわち、識別器学習部32は、生成器が生成する生成データの分布と正常データの分布との違いを識別器に学習させる。学習が完了すると、識別器学習部32は、学習済みの識別器に関する情報を学習結果DB15に格納する。
That is, the
一時保存部33は、学習途中の生成器を保存する処理部である。例えば、一時保存部33は、生成器学習部31による生成器の学習過程において、一定時間ごと、または、一定学習回数ごとに、学習途中の生成器の状態を示す各種パラメータを、生成器から取得して途中情報DB14に格納する。
The
再学習部40は、GANにより学習された識別器の再学習を実行する処理部である。具体的には、再学習部40は、一時保存部33により保存された、学習途中の生成器すべてを用いて、識別器の再学習を実行する。
The re-learning
例えば、再学習部40は、学習処理部30による学習が完了すると、途中情報DB14からパラメータなどの情報を読み出して、学習途中である各生成器を生成する。同様に、再学習部40は、学習結果DB15から識別器のパラメータなどを読み出して、学習済みの識別器を生成する。
For example, when the learning by the learning processing unit 30 is completed, the relearning
ここで、学習途中の識別器が4つ生成されたとする。すると、再学習部40は、1つ目の生成器を用いて生成データを生成して、学習済みの識別器に入力して、当該識別器を学習させる。続いて、再学習部40は、2つ目の生成器を用いて生成データを構築して、1つの識別器により学習された識別器に入力して、当該識別器を学習させる。このようにして、再学習部40は、学習途中の各生成器を順次用いて、識別器の再学習を実行する。そして、再学習部40は、再学習が完了すると、再学習済みの識別器に関する情報を学習結果DB15に格納する。
Here, it is assumed that four discriminators in the middle of learning are generated. Then, the re-learning
検出部50は、入力される画像データから異常検出を実行する処理部である。例えば、検出部50は、再学習部40による再学習が完了すると、再学習済みの識別器に関するパラメータなどを学習結果DB15から読み出して、識別器を構築する。そして、検出部50は、予測対象である画像データを受信すると、当該画像データを構築した識別器に入力し、出力結果を取得する。
The
ここで、検出部50は、出力結果に含まれる正常データである正常確率と、生成データである異常確率とのうち、正常確率の方が高い場合は入力された画像データを正常な画像データと識別し、異常確率の方が高い場合は入力された画像データを異常な画像データと識別する。そして、検出部50は、識別結果を管理者端末に送信したり、ディスプレイなどの表示部に表示したり、記憶部12に格納したりする。
Here, the
図7は、検出結果の一例を説明する図である。図7に示すように、検出部50は、予測対象である入力画像を小領域に分割後、再学習部40により学習された識別器に入力して、識別結果を取得する。そして、検出部50は、識別器が異常と判定した領域をユーザに提示することができる。
FIG. 7 is a diagram illustrating an example of detection results. As shown in FIG. 7, the
[学習処理の流れ]
図8は、実施例1にかかる学習処理の流れを示すフローチャートである。図8に示すように、学習処理が指示されると、学習処理部30は、生成器と識別器を初期化する(S101)。
[Flow of learning process]
FIG. 8 is a flowchart illustrating the flow of learning processing according to the first embodiment; As shown in FIG. 8, when learning processing is instructed, the learning processing unit 30 initializes the generator and the discriminator (S101).
続いて、生成器学習部31は、生成器でデータ(生成データ)を生成し(S102)、識別器学習部32は、正常データと生成データとを区別できるように識別器を学習する(S103)。そして、生成器学習部31は、生成データが識別器に正常データと識別されるように、生成器を学習する(S104)。
Subsequently, the generator learning unit 31 generates data (generated data) in the generator (S102), and the
その後、一時保存部33は、生成器が保存されていない時間や反復数(学習回数)が一定以上である場合(S105:Yes)、学習途中である生成器を保存する(S106)。なお、生成器が保存されていない時間や反復数が一定未満であれば(S105:No)、S106を実行することなく、S107が実行される。
After that, when the generator is not stored for a certain amount of time or the number of iterations (number of times of learning) is equal to or greater than a certain value (S105: Yes), the
その後、学習が終了するまで(S107:No)、S102以降が繰り返される。一方、学習が終了すると(S107:Yes)、再学習部40は、正常データと、保存された生成器で生成されたデータ(生成データ)とを識別できるように、識別器を再学習する(S108)。そして、再学習部40は、再学習が完了すると、識別器を保存する(S109)。
Thereafter, S102 and subsequent steps are repeated until the learning ends (S107: No). On the other hand, when the learning ends (S107: Yes), the re-learning
[検出処理の流れ]
図9は、実施例1にかかる検出処理の流れを示すフローチャートである。図9に示すように、検出処理が指示されると、検出部50は、保存された識別器を読み込む(S201)。続いて、検出部50は、対象データを識別器に入力して、対象データの異常を判定(識別)する(S202)。
[Flow of detection process]
FIG. 9 is a flowchart illustrating the flow of detection processing according to the first embodiment; As shown in FIG. 9, when the detection process is instructed, the
ここで、検出部50は、正常と判定された場合(S203:Yes)、処理を終了し、正常と判定されなかった場合(S203:No)、対象データを異常データとして出力する(S204)。
Here, the
[効果]
上述したように、異常検出装置10は、例えば医療における検出したい異常データが正常データの分布から大きく外れたところには出現しないことに着目し、学習途中の生成器を用いて識別器の再学習を実行する。この結果、異常検出装置10は、正常なデータの周辺に存在すると期待される異常データを網羅的に生成可能な生成器を用いて識別器を再学習することができるので、識別器の識別範囲を拡張することができる。
[effect]
As described above, the
図10は、一時保存と再学習を説明する図である。学習途中の生成器を保存することは、生成器の学習途中の状態を保存することであり、正常データの分布と一致するように、学習している途中の生成器が生成する生成データの分布を保存することとなる。つまり、図10に示すように、学習初期から学習完了までに、生成器が生成する各生成データの分布の学習過程を保存しておくことができる。したがって、保存しておいたすべての生成器を用いて再学習することで、各生成器の生成データの各分布を学習することができるので、GANによる学習が完了した識別器が網羅できない範囲を学習することができる。 FIG. 10 is a diagram for explaining temporary storage and relearning. Saving a generator that is in the process of learning means saving the state of the generator that is in the process of learning. will be saved. That is, as shown in FIG. 10, the learning process of the distribution of each generated data generated by the generator can be saved from the beginning of learning to the completion of learning. Therefore, by re-learning using all the stored generators, it is possible to learn each distribution of the generated data of each generator, so that the range that the classifier that has completed learning by GAN cannot cover can learn.
図11は、効果を説明する図である。図11に示すように、一般的なGANでは、識別器の特性が学習終了時の生成器が誤って生成する正常データ以外のデータに依存するので、異常検出が期待される範囲を網羅するように識別器の学習を行うことが難しく、検出漏れが多い。図11の例では、識別器は、生成器のデータ分布の範囲外にあるデータAについては、異常と検出できない。 FIG. 11 is a diagram for explaining the effect. As shown in FIG. 11, in a general GAN, the characteristics of the discriminator depend on data other than normal data erroneously generated by the generator at the end of learning. It is difficult to learn a discriminator immediately, and there are many detection omissions. In the example of FIG. 11, the discriminator cannot detect data A outside the data distribution range of the generator as abnormal.
これに対して、実施例1による識別器の学習では、途中保存される生成器により生成される生成データの分布を再学習することができるので、学習完了後の生成器の状態に依存せず、正常データの周辺をより多く網羅することができる。この結果、再学習後の識別器は、一般的なGANによる識別器では検出できなかったデータAについても異常データとして検出することができる。 On the other hand, in the learning of the discriminator according to the first embodiment, the distribution of the generated data generated by the generator that is saved in the middle can be re-learned. , can cover more of the periphery of normal data. As a result, the discriminator after re-learning can detect data A, which could not be detected by a discriminator based on a general GAN, as abnormal data.
ところで、実施例1では、学習途中の生成器を一定間隔で保存する例を説明したが、一定間隔ではなく、保存する間隔を制御することで、識別器の性能を向上させることができる。そこで、実施例2では、一定間隔ではなく、識別器の損失が一時的に閾値以上に上がった後、再び閾値未満に下がるタイミングで生成器を保存する例を説明する。 By the way, in the first embodiment, an example in which generators in the middle of learning are stored at regular intervals has been described. Therefore, in the second embodiment, an example will be described in which generators are stored not at regular intervals but at timings when the loss of the discriminator temporarily rises above the threshold and then falls below the threshold again.
図12は、実施例2にかかる学習処理を説明する図である。図12では、GANによる学習において、識別器の損失の時間変化、すなわち識別器が識別に失敗する割合の時間変化を図示している。図12に示すように、GANによる生成器の学習が進むと、生成器が生成するデータの分布が、識別器がカバーしていない領域へ逸脱し始め(図12の(a))、識別器の損失が増加する(図12の(b))。その後、識別器の学習が進み、識別器が生成器の学習に追従するので、識別器の損失が低下していき(図12の(c))、逸脱が解消されていく(図12の(d))。 FIG. 12 is a diagram for explaining learning processing according to the second embodiment. FIG. 12 illustrates the time change of the loss of the discriminator, that is, the time change of the rate of failure of the discriminator in learning by GAN. As shown in FIG. 12, as the learning of the generator by the GAN progresses, the distribution of the data generated by the generator begins to deviate to the area not covered by the discriminator ((a) in FIG. 12), and the discriminator loss increases (FIG. 12(b)). After that, the learning of the discriminator progresses and the discriminator follows the learning of the generator, so the loss of the discriminator decreases ((c) in FIG. 12) and the deviation is eliminated (((c) in FIG. 12). d)).
そこで、一時保存部33は、識別器の損失が増加していき、当該損失が低下し始めたときの生成器の状態を保存する。なお、一時保存部33は、このタイミングの生成器を複数保存したい場合、識別器の損失が低下し始めてから一定時間の間隔で生成器を保存することもできる。このようにすることで、生成器が生成するデータの分布と正常データの分布との差が大きい時点を保存することができるので、識別器が学習できる範囲を広くすることができる。この結果、識別器の性能を向上させることができる。
Therefore, the
図13は、実施例2にかかる学習処理の流れを示すフローチャートである。図13に示すように、学習処理が指示されると、学習処理部30は、生成器と識別器を初期化する(S301)。 FIG. 13 is a flowchart illustrating the flow of learning processing according to the second embodiment. As shown in FIG. 13, when learning processing is instructed, the learning processing unit 30 initializes the generator and the discriminator (S301).
続いて、生成器学習部31は、生成器でデータ(生成データ)を生成し(S302)、識別器学習部32は、正常データと生成データとを区別できるように識別器を学習する(S303)。そして、生成器学習部31は、生成データが識別器に正常データと識別されるように、生成器を学習する(S304)。
Subsequently, the generator learning unit 31 generates data (generated data) in the generator (S302), and the
その後、一時保存部33は、生成器が保存されていない時間や反復数が一定以上(S305:Yes)、かつ、識別器の損失が減少している場合(S306:Yes)、学習途中である生成器を保存する(S307)。なお、生成器が保存されていない時間や反復数が一定未満(S305:No)、または、識別器の損失が減少していない場合(S306:No)、S307を実行することなく、S308が実行される。
After that, the
その後、学習が終了するまで(S308:No)、S302以降が繰り返される。一方、学習が終了すると(S308:Yes)、再学習部40は、正常データと、保存された生成器で生成されたデータ(生成データ)とを識別できるように、識別器を再学習する(S309)。そして、再学習部40は、再学習が完了すると、識別器を保存する(S310)。なお、検出処理は、実施例1と同様なので、詳細な説明を省略する。
Thereafter, S302 and subsequent steps are repeated until the learning ends (S308: No). On the other hand, when the learning ends (S308: Yes), the re-learning
ところで、実施例2では、生成器が異常データを生成し始めると、すぐに識別器が追従するので、生成器による生成データの分布の識別器がカバーしていない領域への逸脱の範囲が限定され、また、どの程度逸脱が進行しているかを見極めにくいことが考えられる。 By the way, in the second embodiment, when the generator starts generating abnormal data, the discriminator immediately follows. Also, it may be difficult to determine how far the deviation has progressed.
そこで、実施例3では、学習速度の異なる識別器を2つ使用し、逸脱が進んだ状態の生成器を正確に保存することで、識別器の性能を向上させる。具体的には、生成器は、遅い識別器を用いて学習を行い、速い識別器を用いて逸脱の進行度を測る。実施例2では、速い識別器により生成データであると識別可能な生成データの割合を指標とする。また、逸脱が一定以上に進行した段階で、生成器を保存し、それ以上逸脱が起きないように、遅い識別器に速い生成器をコピーする。 Therefore, in the third embodiment, two discriminators with different learning speeds are used, and the generator in the advanced deviation state is accurately stored, thereby improving the performance of the discriminator. Specifically, the generator learns using a slow discriminator and measures the progress of deviation using a fast discriminator. In the second embodiment, the ratio of generated data that can be identified as generated data by a fast discriminator is used as an index. In addition, when the deviation progresses beyond a certain level, the generator is saved, and the fast generator is copied to the slow discriminator so that no further deviation occurs.
図14は、実施例3にかかる学習処理を説明する図である。図14に示すように、図14では、学習速度の遅い識別器A(以下では、識別器Aや遅い識別器Aなどと記載する場合がある)と学習速度の速い識別器B(以下では、識別器Bや速い識別器Bなどと記載する場合がある)の2つを用いたGANによる学習において、各識別器の損失の時間変化を図示している。 FIG. 14 is a diagram for explaining learning processing according to the third embodiment. As shown in FIG. 14, in FIG. 14, a discriminator A with a slow learning speed (hereinafter, may be referred to as a discriminator A, a slow discriminator A, etc.) and a discriminator B with a fast learning speed (hereinafter referred to as In learning by GAN using two discriminators B, fast discriminator B, etc.), the time change of the loss of each discriminator is illustrated.
図14に示すように、GANによる生成器の学習が進むと、生成器が生成するデータの分布が、速い識別器Bがカバーしていない領域へ逸脱し始め(図14の(a))、速い識別器Bの損失が増加する(図14の(b))。しかし、遅い識別器Aは、学習速度が遅いことから、速い識別器Bよりも損失の増加は少ない。 As shown in FIG. 14, as the learning of the generator by the GAN progresses, the distribution of the data generated by the generator begins to deviate to the area not covered by the fast discriminator B ((a) in FIG. 14), The loss of fast discriminator B increases (FIG. 14(b)). However, since the slow discriminator A has a slow learning speed, the increase in loss is smaller than that of the fast discriminator B.
その後、両方の識別器の学習が進むが、特に速い識別器Bの学習が進んで、生成器の学習に追従するので、速い識別器Bの損失が低下し、遅い識別器Aは逸脱を許容できない(図14の(c))。すなわち、遅い識別器Aは、生成器の学習に追従することができず、識別の補正が進まない。 After that, the learning of both classifiers progresses, but the learning of the particularly fast classifier B progresses and follows the learning of the generator, so the loss of the fast classifier B decreases, and the slow classifier A allows deviation. ((c) in FIG. 14). That is, the slow discriminator A cannot follow the learning of the generator, and correction of discrimination does not progress.
このとき、一時保存部33は、学習途中の生成器を保存する。つまり、一時保存部33は、速い識別器Bの逸脱が一定以上進行した段階で、遅い識別器Aを用いて学習する生成器を保存する。言い換えると、一時保存部33は、速い識別器Aの損失が増加した後に低下し始める一方で、遅い識別器Bの損失が増加しているときの生成器の状態を保存する。なお、損失が一定値以上か否かの閾値は、識別器Aと識別器Bとで共通の値を用いることができる。
At this time, the
そして、一時保存部33は、速い識別器の重みなどのパラメータを、遅い識別器Aにコピーして、2つの学習速度を用いた学習を再開する(図14の(d))。すなわち、2つの識別器のいずれも速い識別器の状態に変更し、その状態から、遅い学習と速い学習を行う。
Then, the
このようにして、2つの識別器を用いた学習が完了すると、再学習部40は、一時的に保存された学習途中の生成器を用いて、識別器Bの再学習を実行する。
When the learning using the two discriminators is completed in this way, the re-learning
図15は、実施例3にかかる学習処理の流れを示すフローチャートである。図15に示すように、学習処理が指示されると、学習処理部30は、生成器、識別器A、識別器Bを初期化する(S401)。 FIG. 15 is a flowchart illustrating the flow of learning processing according to the third embodiment. As shown in FIG. 15, when the learning process is instructed, the learning processing unit 30 initializes the generator, classifier A, and classifier B (S401).
続いて、生成器学習部31は、識別器Aの学習速度が識別器Bより小さくなるように設定する(S402)。例えば、生成器学習部31は、学習率を低くしたり、学習頻度を下げたりすることで、学習速度を遅くする。 Subsequently, the generator learning unit 31 sets the learning speed of the discriminator A to be lower than that of the discriminator B (S402). For example, the generator learning unit 31 slows down the learning speed by lowering the learning rate or lowering the learning frequency.
そして、生成器学習部31は、生成器でデータ(生成データ)を生成し(S403)、識別器学習部32は、正常データと生成データとを区別できるように識別器Aと識別器Bを学習する(S404)。そして、生成器学習部31は、生成データが識別器Aに正常データと識別されるように、生成器を学習する(S405)。
Then, the generator learning unit 31 generates data (generated data) in the generator (S403), and the
その後、一時保存部33は、生成器が保存されていない時間や反復数が一定以上(S406:Yes)、かつ、識別器Bの損失が減少している場合(S407:Yes)、学習途中である生成器を保存する(S408)。続いて、一時保存部33は、識別器Bの重みなどのパラメータを識別器Aにコピーする(S409)。
After that, if the generator is not stored for a certain amount of time or the number of iterations is more than a certain amount (S406: Yes), and the loss of classifier B is decreasing (S407: Yes), the temporary storage unit 33 A certain generator is saved (S408). Subsequently, the
なお、生成器が保存されていない時間や反復数が一定未満(S406:No)、または、識別器の損失が減少していない場合(S407:No)、S408とS409を実行することなく、S410が実行される。 Note that if the generator is not stored for a period of time or the number of iterations is less than a certain value (S406: No), or if the loss of the discriminator has not decreased (S407: No), S410 is performed without executing S408 and S409. is executed.
その後、学習が終了するまで(S410:No)、S403以降が繰り返される。一方、学習が終了すると(S410:Yes)、再学習部40は、正常データと、保存された生成器で生成されたデータ(生成データ)とを識別できるように、識別器Bを再学習する(S411)。そして、再学習部40は、再学習が完了すると、識別器Bを保存する(S412)。なお、検出処理は、実施例1と同様なので、詳細な説明を省略する。
Thereafter, S403 and subsequent steps are repeated until the learning ends (S410: No). On the other hand, when learning ends (S410: Yes), the re-learning
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。 Although the embodiments of the present invention have been described so far, the present invention may be implemented in various different forms other than the embodiments described above.
[学習]
例えば、学習処理を終了するタイミングは、所定数以上の学習データを用いた学習が完了した時点や識別器の損失が閾値未満となった時点など、任意に設定することができる。また、医療用の画像データに限らず、不正侵入や危険物持ち込みなどを判定する各種分野に適用することができる。
[study]
For example, the timing of ending the learning process can be arbitrarily set, such as when learning using a predetermined number or more of learning data is completed, or when the loss of the discriminator becomes less than a threshold. In addition, the present invention can be applied not only to medical image data, but also to various other fields such as illegal intrusion and bringing in of dangerous substances.
[再学習のタイミング]
上記実施例では、学習完了後に、識別器を再学習する例を説明したが、これに限定されるものではない。例えば、識別器は、通常のGANによる学習と、一時的に保存された学習途中の生成器を用いて学習とを並行して実行することもできる。つまり、保存した生成器がすでに生成可能な異常データを再び生成する生成器の保存を抑制するために、学習途中でも、識別器の学習に保存した生成器を用いる。このようにすることで、学習時間を短縮できるとともに、識別器の学習を補正しながら学習できるので、識別器の識別性能の向上を図ることもできる。
[Timing of re-learning]
In the above embodiment, an example of re-learning the discriminator after learning is completed has been described, but the present invention is not limited to this. For example, the discriminator can concurrently perform learning using a normal GAN and learning using a generator that is temporarily stored and is in the process of learning. In other words, in order to suppress the storage of a generator that regenerates abnormal data that can already be generated by the stored generator, the stored generator is used for learning of the discriminator even during learning. By doing so, the learning time can be shortened, and the learning of the discriminator can be corrected while learning, so that the discriminating performance of the discriminator can be improved.
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[system]
Information including processing procedures, control procedures, specific names, and various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、学習処理部30と再学習部40と検出部50とを別々の装置で実現することもできる。
Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. That is, the specific forms of distribution and integration of each device are not limited to those shown in the drawings. That is, all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. For example, the learning processing unit 30, the re-learning
さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。 Further, each processing function performed by each device may be implemented in whole or in part by a CPU and a program analyzed and executed by the CPU, or implemented as hardware based on wired logic.
[ハードウェア]
図16は、ハードウェア構成例を説明する図である。図16に示すように、異常検出装置10は、通信装置10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図16に示した各部は、バス等で相互に接続される。
[hardware]
FIG. 16 is a diagram illustrating a hardware configuration example. As shown in FIG. 16, the
通信装置10aは、ネットワークインタフェースカードなどであり、他のサーバとの通信を行う。HDD10bは、図6に示した機能を動作させるプログラムやDBを記憶する。 The communication device 10a is a network interface card or the like, and communicates with other servers. The HDD 10b stores programs and DBs for operating the functions shown in FIG.
プロセッサ10dは、図6に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図6等で説明した各機能を実行するプロセスを動作させる。すなわち、このプロセスは、異常検出装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、学習処理部30と再学習部40と検出部50等と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、学習処理部30と再学習部40と検出部50等と同様の処理を実行するプロセスを実行する。
The processor 10d reads from the HDD 10b or the like a program for executing the same processing as each processing unit shown in FIG. 6 and develops it in the memory 10c, thereby operating processes for executing each function described with reference to FIG. 6 and the like. That is, this process executes the same function as each processing unit of the
このように異常検出装置10は、プログラムを読み出して実行することで異常検出方法を実行する情報処理装置として動作する。また、異常検出装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、異常検出装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
Thus, the
10 異常検出装置
11 通信部
12 記憶部
13 正常データDB
14 途中情報DB
15 学習結果DB
20 制御部
30 学習処理部
31 生成器学習部
32 識別器学習部
33 一時保存部
40 再学習部
50 検出部
10
14 Intermediate information DB
15 Learning result database
20 control unit 30 learning processing unit 31
Claims (8)
本物の画像データと生成された画像データとを識別する識別器と、
学習過程において、前記生成器が前記識別器の識別誤差を最大化するように学習するとともに、前記生成器が生成するデータを用いて、前記識別器が前記識別誤差を最小化するように学習する学習処理を実行する学習部と、
前記学習過程における第1の状態よりも前の状態である第2の状態の前記生成器が生成するデータを用いて、前記第1の状態の前記生成器が生成したデータで学習した前記識別器の再学習を実行する再学習部と
を有することを特徴とする学習装置。 a generator for generating image data;
a discriminator that discriminates between genuine image data and generated image data ;
In the learning process, the generator learns to maximize the discrimination error of the discriminator, and using data generated by the generator, the discriminator learns to minimize the discrimination error. a learning unit that performs learning processing ;
The discriminator trained with the data generated by the generator in the first state using the data generated by the generator in the second state, which is the state prior to the first state in the learning process. and a relearning unit that performs relearning of the learning device.
前記学習処理は、前記生成器が前記第1の識別器の識別誤差を最大化するように学習するとともに、前記生成器が生成するデータを用いて、前記第1の識別器が前記第1の識別器の前記識別誤差を最小化するように学習するとともに前記第2の識別器が前記第2の識別器の識別誤差を最小化するように学習する学習処理であって、
前記第2の状態は、前記第1の状態より前の状態であって、前記第2の識別器の損失が増加した後に低下し始めるとともに、前記第1の識別器の損失が閾値以上のときの状態であって、
前記再学習部は、前記第2の状態の前記生成器が生成するデータを用いて、前記第1の状態の前記生成器が生成したデータで学習した前記第2の識別器の再学習を実行することを特徴とする請求項1に記載の学習装置。 The discriminator includes a first discriminator and a second discriminator having a faster learning speed than the first discriminator,
In the learning process, the generator learns to maximize the identification error of the first classifier, and the first classifier learns the first classifier using data generated by the generator. A learning process in which the classifier learns to minimize the identification error and the second classifier learns to minimize the identification error of the second classifier,
The second state is a state prior to the first state, in which the loss of the second discriminator starts to decrease after increasing, and when the loss of the first discriminator is equal to or greater than a threshold in the state of
The relearning unit uses the data generated by the generator in the second state to perform relearning of the second discriminator trained with the data generated by the generator in the first state. 2. The learning device according to claim 1, wherein:
前記学習過程における第1の状態よりも前の状態である第2の状態の前記生成器が生成するデータを用いて、前記第1の状態の前記生成器が生成したデータで学習した前記識別器の再学習を実行する
処理をコンピュータが実行することを特徴とする学習方法。 In the learning process, a generator that generates image data learns to maximize the identification error of a classifier that identifies real image data and generated image data , and the data generated by the generator is learned , performing a learning process in which the discriminator learns to minimize the discriminant error,
The discriminator trained with the data generated by the generator in the first state using the data generated by the generator in the second state, which is the state prior to the first state in the learning process. A learning method characterized in that a computer executes processing for re-learning.
前記学習過程における第1の状態よりも前の状態である第2の状態の前記生成器が生成するデータを用いて、前記第1の状態の前記生成器が生成したデータで学習した前記識別器の再学習を実行する
処理をコンピュータに実行させることを特徴とする学習プログラム。 In the learning process, a generator that generates image data learns to maximize the identification error of a classifier that identifies real image data and generated image data , and the data generated by the generator is learned , performing a learning process in which the discriminator learns to minimize the discriminant error,
The discriminator trained with the data generated by the generator in the first state using the data generated by the generator in the second state, which is the state prior to the first state in the learning process. A learning program characterized by causing a computer to execute a process of re-learning.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019014035A JP7268367B2 (en) | 2019-01-30 | 2019-01-30 | LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM |
EP20152622.5A EP3690743A1 (en) | 2019-01-30 | 2020-01-20 | Training apparatus, training method, and training program |
CN202010071123.XA CN111507934B (en) | 2019-01-30 | 2020-01-21 | Training device, training method, and computer-readable recording medium |
US16/774,100 US11250297B2 (en) | 2019-01-30 | 2020-01-28 | Training apparatus, training method, and non-transitory computer-readable recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019014035A JP7268367B2 (en) | 2019-01-30 | 2019-01-30 | LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020123096A JP2020123096A (en) | 2020-08-13 |
JP7268367B2 true JP7268367B2 (en) | 2023-05-08 |
Family
ID=69185374
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019014035A Active JP7268367B2 (en) | 2019-01-30 | 2019-01-30 | LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM |
Country Status (4)
Country | Link |
---|---|
US (1) | US11250297B2 (en) |
EP (1) | EP3690743A1 (en) |
JP (1) | JP7268367B2 (en) |
CN (1) | CN111507934B (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111401138B (en) * | 2020-02-24 | 2023-11-07 | 上海理工大学 | Countermeasure optimization method for generating countermeasure neural network training process |
WO2022088089A1 (en) * | 2020-10-30 | 2022-05-05 | 京东方科技集团股份有限公司 | Image processing method, image processing apparatus, electronic device, and readable storage medium |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018192264A (en) | 2017-05-18 | 2018-12-06 | キヤノンメディカルシステムズ株式会社 | Medical image processing apparatus |
WO2019169594A1 (en) | 2018-03-08 | 2019-09-12 | Intel Corporation | Methods and apparatus to generate three-dimensional (3d) model for 3d scene reconstruction |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108431834A (en) * | 2015-12-01 | 2018-08-21 | 首选网络株式会社 | The generation method of abnormality detection system, method for detecting abnormality, abnormality detecting program and the model that learns |
US10475174B2 (en) * | 2017-04-06 | 2019-11-12 | General Electric Company | Visual anomaly detection system |
US10937540B2 (en) * | 2017-12-21 | 2021-03-02 | International Business Machines Coporation | Medical image classification based on a generative adversarial network trained discriminator |
CN108769993A (en) * | 2018-05-15 | 2018-11-06 | 南京邮电大学 | Based on the communication network abnormal user detection method for generating confrontation network |
-
2019
- 2019-01-30 JP JP2019014035A patent/JP7268367B2/en active Active
-
2020
- 2020-01-20 EP EP20152622.5A patent/EP3690743A1/en active Pending
- 2020-01-21 CN CN202010071123.XA patent/CN111507934B/en active Active
- 2020-01-28 US US16/774,100 patent/US11250297B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018192264A (en) | 2017-05-18 | 2018-12-06 | キヤノンメディカルシステムズ株式会社 | Medical image processing apparatus |
WO2019169594A1 (en) | 2018-03-08 | 2019-09-12 | Intel Corporation | Methods and apparatus to generate three-dimensional (3d) model for 3d scene reconstruction |
Non-Patent Citations (2)
Title |
---|
坂本 俊之,Chainerで作る コンテンツ自動生成AIプログラミング入門,第1版,株式会社シーアンドアール研究所,2017年12月22日,第68ページ、第85-第95ページ,ISBN:978-4-86354-234-1 |
栗原 慧至,画像補完技術を用いた眼底画像の異常検出,電気学会研究会資料,日本,一般社団法人電気学会,2018年09月26日,pp.105-109 |
Also Published As
Publication number | Publication date |
---|---|
EP3690743A1 (en) | 2020-08-05 |
US11250297B2 (en) | 2022-02-15 |
CN111507934A (en) | 2020-08-07 |
JP2020123096A (en) | 2020-08-13 |
CN111507934B (en) | 2024-04-26 |
US20200242412A1 (en) | 2020-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7268368B2 (en) | LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM | |
US11055632B2 (en) | Method and device for improving the robustness against “adversarial examples” | |
US20220269996A1 (en) | Information processing apparatus, information processing method, and storage medium | |
TW201931187A (en) | URL attack detection method and apparatus, and electronic device | |
CN111031071B (en) | Malicious traffic identification method and device, computer equipment and storage medium | |
JP7047498B2 (en) | Learning programs, learning methods and learning devices | |
JP6955612B2 (en) | Devices and methods for handling anomaly detection | |
US20230186097A1 (en) | Methods and apparatus to defend against adversarial machine learning | |
JP7268367B2 (en) | LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM | |
WO2019168167A1 (en) | Verification method, verification device, computer program, and verification system | |
JP7268756B2 (en) | Deterioration suppression program, degradation suppression method, and information processing device | |
EP3739524A1 (en) | Method and system for protecting a machine learning model against extraction | |
US20200380409A1 (en) | Apparatus and method for analyzing time-series data based on machine learning | |
US20210166362A1 (en) | Wafer map identification method and computer-readable recording medium | |
JP2010231455A (en) | Method and device for signal identification | |
JP2019159835A (en) | Learning program, learning method and learning device | |
CN112651429A (en) | Audio signal time sequence alignment method and device | |
CN112989312A (en) | Verification code identification method and device, electronic equipment and storage medium | |
CN115931359A (en) | Turbine pump bearing fault diagnosis method and device | |
JP4997524B2 (en) | Multivariable decision tree construction system, multivariable decision tree construction method, and program for constructing multivariable decision tree | |
CN113642017A (en) | Encrypted flow identification method based on self-adaptive feature classification, memory and processor | |
JP7206892B2 (en) | Image inspection device, learning method for image inspection, and image inspection program | |
US20230145544A1 (en) | Neural network watermarking | |
KR102251898B1 (en) | Appratus and method for denosing solar image | |
US20230037904A1 (en) | Model compression device, model compression method, and program recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211007 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220817 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220920 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230404 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7268367 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |