JP7268367B2 - LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM - Google Patents

LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM Download PDF

Info

Publication number
JP7268367B2
JP7268367B2 JP2019014035A JP2019014035A JP7268367B2 JP 7268367 B2 JP7268367 B2 JP 7268367B2 JP 2019014035 A JP2019014035 A JP 2019014035A JP 2019014035 A JP2019014035 A JP 2019014035A JP 7268367 B2 JP7268367 B2 JP 7268367B2
Authority
JP
Japan
Prior art keywords
learning
generator
discriminator
state
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019014035A
Other languages
Japanese (ja)
Other versions
JP2020123096A (en
Inventor
孝 河東
和樹 岩本
健人 上村
優 安富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019014035A priority Critical patent/JP7268367B2/en
Priority to EP20152622.5A priority patent/EP3690743A1/en
Priority to CN202010071123.XA priority patent/CN111507934B/en
Priority to US16/774,100 priority patent/US11250297B2/en
Publication of JP2020123096A publication Critical patent/JP2020123096A/en
Application granted granted Critical
Publication of JP7268367B2 publication Critical patent/JP7268367B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Image Analysis (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、学習装置、学習方法および学習プログラムに関する。 The present invention relates to a learning device, a learning method, and a learning program.

近年、医療画像分析の分野等で、画像データを用いて、病変等の異常を検出することが行われている。特に、医療等の分野では、訓練データに用いる異常状態の画像データの入手が困難なことが多いことから、正常状態の画像データのみを利用した機械学習が求められるとともに、大量かつ精密な大容量のデータを扱うことから、検出速度の高速化も求められている。 In recent years, in the field of medical image analysis and the like, detection of abnormalities such as lesions using image data has been performed. Especially in the medical field, it is often difficult to obtain image data of abnormal conditions for use as training data. Since the data is handled, there is also a demand for faster detection speed.

このような状況下で、機械学習を使用した異常検知に手法として、正常データの分布を推定して、その分布から外れたデータを異常データと検知する敵対的生成ネットワーク(GAN:Generative Adversarial Networks)が知られている。図17は、GANを説明する図である。図17に示すように、GANは、生成器と識別器とを有し、生成器を学習するネットワークと識別器を学習するネットワークとが互いに成長していく教師なし学習の学習モデルである。 Under these circumstances, as a technique for anomaly detection using machine learning, Generative Adversarial Networks (GAN) are used to estimate the distribution of normal data and detect data deviating from that distribution as abnormal data. It has been known. FIG. 17 is a diagram explaining the GAN. As shown in FIG. 17, GAN is a learning model of unsupervised learning that has a generator and a classifier, and a network that learns the generator and a network that learns the classifier grow together.

GANでは、生成器がノイズなどの入力データから本物データに近い偽物データを生成するように学習し、識別器が生成器により生成されたデータが本物データか偽物データかを識別できるように学習する。このGANを用いた異常検出としては、学習済みの生成器が与えられたサンプルを生成する能力が存在するか否かを判定して、能力が無ければ異常データとみなす手法や、学習済みの識別器が偽物データと判定したデータを異常データとみなす手法が利用されている。 In GAN, the generator learns to generate fake data close to genuine data from input data such as noise, and the classifier learns to distinguish whether the data generated by the generator is genuine data or fake data. . As anomaly detection using this GAN, there is a method of determining whether or not a learned generator has the ability to generate a given sample, and if it does not have the ability, it is regarded as abnormal data, or a method of learning identification A technique is used in which data determined by the device to be fake data is regarded as abnormal data.

Schlegl,Thomas,et al.“Unsupervised anomaly detection with generative adversarial networks to guide marker discovery.”,International Conference on Information Processing in Medical Imaging.Springer,Cham,2017.Schlegl, Thomas, et al. “Unsupervised anomaly detection with generative adversarial networks to guide marker discovery.”, International Conference on Information Processing in Medical Imaging. Springer, Cham, 2017. M.Sabokrou,et al.“Adversarially Learned One-Class Classifier for Novelty Detection”,Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.2018.M. Sabokrou, et al. “Adversarially Learned One-Class Classifier for Novelty Detection,” Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. 2018.

しかしながら、上記技術では、識別器の異常検知の能力が低下する場合がある。具体的には、識別器を使用する場合、識別器の特性が学習終了時の生成器が誤って生成する正常データ以外のデータに依存するので、検出漏れが大きくなる場合がある。例えば、識別器は、正常データと生成器の出力の違いを見分ける能力があると期待できるが、その一方で、生成器の出力に含まれず、正常データにも含まれないものは、学習できないので、特定の出力を期待できない。なお、生成器を用いる手法は、検出コストが高いので、高速性が求められる異常検知には不向きである。 However, with the above technique, the ability of the discriminator to detect anomalies may be degraded. Specifically, when a discriminator is used, the characteristics of the discriminator depend on data other than normal data that is erroneously generated by the generator at the end of learning, which may result in large detection omissions. For example, a discriminator can be expected to be capable of discerning the difference between normal data and the generator's output, while anything that is not in the generator's output and not in the normal data cannot be learned because , do not expect any specific output. It should be noted that the method using the generator is not suitable for anomaly detection that requires high speed because the detection cost is high.

一つの側面では、識別器の異常検知の能力低下を抑制することができる学習装置、学習方法および学習プログラムを提供することを目的とする。 An object of one aspect of the present invention is to provide a learning device, a learning method, and a learning program capable of suppressing deterioration in the anomaly detection capability of a discriminator.

第1の案では、学習装置は、画像データを生成する生成器と、前記画像データの真偽を識別する識別器とを有する。学習装置は、前記生成器が前記識別器の識別誤差を最大化するように学習を実行するとともに、前記識別器が識別誤差を最小化するように学習を実行する学習部を有する。学習装置は、前記学習の実行途中において、予め設定された条件で、学習途中の前記生成器の状態を保存する保存部を有する。学習装置は、保存された前記学習途中の識別器の状態を用いて、前記識別器の再学習を実行する再学習部を有する。 In the first scheme, the learning device has a generator that generates image data and a discriminator that discriminates whether the image data is true or false. The learning device has a learning unit that performs learning so that the generator maximizes the discrimination error of the classifier and the classifier learns so that the classifier minimizes the discrimination error. The learning device has a storage unit that stores the state of the generator during learning under preset conditions during execution of the learning. The learning device has a re-learning unit that re-learns the classifier using the saved state of the classifier during learning.

一実施形態によれば、識別器の異常検知の能力低下を抑制することができる。 According to one embodiment, it is possible to suppress deterioration of the abnormality detection capability of the discriminator.

図1は、実施例1にかかる異常検出装置を説明する図である。FIG. 1 is a diagram for explaining an abnormality detection device according to a first embodiment. 図2は、学習前を説明する図である。FIG. 2 is a diagram for explaining before learning. 図3は、学習開始後を説明する図である。FIG. 3 is a diagram for explaining the state after learning has started. 図4は、学習の進行中を説明する図である。FIG. 4 is a diagram for explaining the progress of learning. 図5は、学習後の識別器を説明する図である。FIG. 5 is a diagram for explaining a discriminator after learning. 図6は、実施例1にかかる異常検出装置の機能構成を示す機能ブロック図である。FIG. 6 is a functional block diagram of the functional configuration of the abnormality detection device according to the first embodiment; 図7は、検出結果の一例を説明する図である。FIG. 7 is a diagram illustrating an example of detection results. 図8は、実施例1にかかる学習処理の流れを示すフローチャートである。FIG. 8 is a flowchart illustrating the flow of learning processing according to the first embodiment; 図9は、実施例1にかかる検出処理の流れを示すフローチャートである。FIG. 9 is a flowchart illustrating the flow of detection processing according to the first embodiment; 図10は、一時保存と再学習を説明する図である。FIG. 10 is a diagram for explaining temporary storage and relearning. 図11は、効果を説明する図である。FIG. 11 is a diagram for explaining the effect. 図12は、実施例2にかかる学習処理を説明する図である。FIG. 12 is a diagram for explaining learning processing according to the second embodiment. 図13は、実施例2にかかる学習処理の流れを示すフローチャートである。FIG. 13 is a flowchart illustrating the flow of learning processing according to the second embodiment. 図14は、実施例3にかかる学習処理を説明する図である。FIG. 14 is a diagram for explaining learning processing according to the third embodiment. 図15は、実施例3にかかる学習処理の流れを示すフローチャートである。FIG. 15 is a flowchart illustrating the flow of learning processing according to the third embodiment. 図16は、ハードウェア構成例を説明する図である。FIG. 16 is a diagram illustrating a hardware configuration example. 図17は、GANを説明する図である。FIG. 17 is a diagram explaining the GAN.

以下に、本願の開示する学習装置、学習方法および学習プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。 Embodiments of the learning device, the learning method, and the learning program disclosed in the present application will be described in detail below with reference to the drawings. In addition, this invention is not limited by this Example. Moreover, each embodiment can be appropriately combined within a range without contradiction.

[異常検出装置10の説明]
図1は、実施例1にかかる異常検出装置10を説明する図である。図1に示すように、異常検出装置10は、学習フェーズにおいて、GANにより生成器と識別器とを学習し、予測フェーズにおいて、学習済みの識別器を用いて、予測対象の画像データに対して異常検知を実行する学習装置の一例である。
[Description of the abnormality detection device 10]
FIG. 1 is a diagram for explaining an abnormality detection device 10 according to a first embodiment. As shown in FIG. 1 , in the learning phase, the anomaly detection apparatus 10 learns a generator and a discriminator using a GAN, and in the prediction phase, uses the learned discriminator to predict image data. It is an example of a learning device that performs anomaly detection.

ところで、一般的なGANによる学習では、識別器の異常検知の能力が低下する場合がある。ここで、図2から図5を用いて、一般的なGANの問題点を説明する。ここでは、図2から図5では、一般的なGANによる学習に関し、学習開始前から学習終了後の各段階を例示して説明する。図2は、学習前を説明する図である。図3は、学習開始後を説明する図である。図4は、学習の進行中を説明する図である。図5は、学習後の識別器を説明する図である。 By the way, in general GAN-based learning, the ability of the discriminator to detect anomalies may deteriorate. Here, problems of general GANs will be described with reference to FIGS. 2 to 5. FIG. Here, FIG. 2 to FIG. 5 illustrate and explain each stage from before the start of learning to after the end of learning with respect to learning by general GAN. FIG. 2 is a diagram for explaining before learning. FIG. 3 is a diagram for explaining the state after learning has started. FIG. 4 is a diagram for explaining the progress of learning. FIG. 5 is a diagram for explaining a discriminator after learning.

図2に示すように、学習前では、生成器は、正常データとは異なる分布のデータを生成し、識別器は、正常データに分布と生成器が生成したデータの分布との違いを学習する。すなわち、識別器は、正常データの分布と生成器が生成するデータの分布とを明確に区別して識別する。 As shown in FIG. 2, before learning, the generator generates data with a distribution different from normal data, and the discriminator learns the difference between the distribution of normal data and the distribution of data generated by the generator. . That is, the discriminator clearly distinguishes and discriminates the distribution of normal data and the distribution of data generated by the generator.

続いて、図3に示すように、学習が開始されると、識別器に正常と識別されるデータが多く、異常と識別されるデータが少なくなるように、生成器の学習が進む。すなわち、生成器は、識別器が識別を間違えるようなデータの生成を学習するので、生成器が生成するデータの分布が、識別器が正常と判断できる範囲を含むように学習される。その一方で、識別器は、学習開始に伴って生成器が生成するデータの分布が変更されると、正常であると識別する識別結果の確率が変化していくが、正常データの分布と生成器が生成したデータの分布との違いを学習する。 Subsequently, as shown in FIG. 3, when learning is started, the learning of the generator progresses so that more data is identified as normal by the classifier and less data is identified as abnormal. That is, the generator learns to generate data that causes the discriminator to misidentify, so that the distribution of the data generated by the generator is learned to include a range in which the discriminator can determine that it is normal. On the other hand, when the distribution of data generated by the generator changes with the start of learning, the discriminator changes the probability of discrimination results to be normal. Learn the difference from the distribution of the data generated by the instrument.

続いて、図3の時点よりも学習が進むと、図4に示すように、生成器が生成するデータの分布は、図3において識別器が正常と識別できる範囲を含むように学習される。すなわち、生成器が生成するデータの分布が、識別器が正常と識別できる範囲により多く含まれるように更新される。一方で、識別器は、更新された生成器が生成データの分布と、正常データの分布とを識別するように学習する。 3, the distribution of data generated by the generator is learned so as to include a range in which the discriminator can identify normal in FIG. 3, as shown in FIG. That is, the distribution of data generated by the generator is updated so that it includes more of the range that the classifier can identify as normal. On the one hand, the discriminator learns such that the updated generator discriminates between the distribution of generated data and the distribution of normal data.

さらに学習が進むと、図5に示すように、生成器は、図4の状態から、識別器が正常と識別できる範囲のデータを模倣して識別器を間違わせるように学習するので、生成器が生成するデータの分布が、図4において識別器が識別できる範囲を含むように更新される。学習が完了すると、学習後の識別器は、生成器が生成したデータと正常データ(本物データ)とを識別できるように学習されている。 As learning progresses further, as shown in FIG. 5, the generator learns from the state of FIG. is updated so as to include the range that can be discriminated by the discriminator in FIG. When learning is completed, the discriminator after learning is trained so that it can discriminate between data generated by the generator and normal data (genuine data).

しかし、一般的なGANでは、識別器の特性が学習終了時の生成器が誤って生成する正常データ以外のデータに依存するので、検出漏れが大きくなる場合がある。つまり、学習後の識別器が異常と判断できる範囲に存在する異常データに対しては正しく異常を検出できるが、それ以外の範囲に存在する異常データを検出できない。言い換えると、一般的なGANでは、検出が期待される異常データの範囲まで識別器を学習できないことがある。 However, in a general GAN, since the characteristics of the discriminator depend on data other than normal data erroneously generated by the generator at the end of learning, detection omissions may increase. In other words, an abnormality can be correctly detected for abnormal data existing in a range in which the discriminator after learning can be determined to be abnormal, but abnormal data existing in other ranges cannot be detected. In other words, in general GANs, it may not be possible to learn classifiers up to the range of anomalous data that is expected to be detected.

そこで、実施例1にかかる異常検出装置10は、医療における検出したい異常データが正常データの分布から大きく外れたところには出現しないことに着目する。そして、異常検出装置10は、学習の過程で、生成器の生成するデータの分布が一時的に正常データの分布を逸脱することがありうることから、一定の間隔で学習途中の生成器を保存し、保存された生成器すべてを用いて識別器を学習する。 Therefore, the anomaly detection apparatus 10 according to the first embodiment focuses on the fact that anomalous data to be detected in medical care does not appear in a location greatly deviating from the distribution of normal data. Since the distribution of data generated by the generators may temporarily deviate from the normal data distribution during the learning process, the abnormality detection apparatus 10 stores the generators in the process of learning at regular intervals. and train a discriminator using all the stored generators.

具体的には、図1に示すように、異常検出装置10は、GANによる生成器と識別器とを学習する一方で、一定間隔で、学習途中の生成器に関する情報を取得する。そして、異常検出装置10は、GANによる識別器の学習が完了すると、学習済みの識別器に対して、途中に保存した各生成器を用いて再学習を実行する。再学習の完了後、異常検出装置10は、予測対象の画像データを再学習済みの識別器に入力して、異常検出を実行する。 Specifically, as shown in FIG. 1, the anomaly detection apparatus 10 learns generators and discriminators based on the GAN, and acquires information about generators in the process of learning at regular intervals. Then, when learning of the discriminator by GAN is completed, the anomaly detection apparatus 10 re-learns the learned discriminator using each generator saved in the middle. After completing the re-learning, the anomaly detection device 10 inputs the prediction target image data to the re-learned classifier, and performs anomaly detection.

[機能構成]
図6は、実施例1にかかる異常検出装置10の機能構成を示す機能ブロック図である。図6に示すように、異常検出装置10は、通信部11、記憶部12、制御部20を有する。
[Function configuration]
FIG. 6 is a functional block diagram showing the functional configuration of the abnormality detection device 10 according to the first embodiment. As shown in FIG. 6 , the abnormality detection device 10 has a communication section 11 , a storage section 12 and a control section 20 .

通信部11は、他の装置の間の通信を制御する処理部であり、例えば通信インタフェースなどである。例えば、通信部11は、管理者端末から各種処理の開始指示、正常データ、予測対象データなどを受信し、管理者端末に学習結果や予測結果などを送信する。 The communication unit 11 is a processing unit that controls communication between other devices, such as a communication interface. For example, the communication unit 11 receives various processing start instructions, normal data, prediction target data, and the like from the administrator terminal, and transmits learning results, prediction results, and the like to the administrator terminal.

記憶部12は、各種データや制御部20が実行するプログラムなどを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどである。この記憶部12は、正常データDB13、途中情報DB14、学習結果DB15などを記憶する。 The storage unit 12 is an example of a storage device that stores various data, programs executed by the control unit 20, and the like, and is, for example, a memory or a hard disk. The storage unit 12 stores a normal data DB 13, an intermediate information DB 14, a learning result DB 15, and the like.

正常データDB13は、正常な状態の内臓等が撮像された画像データを記憶するデータベースである。例えば、正常データDB13は、GANによる識別器の学習において使用される正常データを記憶する。 The normal data DB 13 is a database that stores image data obtained by imaging internal organs in a normal state. For example, the normal data DB 13 stores normal data used in learning of classifiers by GAN.

途中情報DB14は、GANによる生成器の学習過程における学習途中の生成器に関する情報を記憶するデータベースである。例えば、途中情報DB14は、学習途中の生成器を再現(構築)できる、学習途中の各種パラメータを記憶する。 The in-progress information DB 14 is a database that stores information about generators in the process of learning in the process of learning generators by GAN. For example, the in-progress information DB 14 stores various parameters in the process of learning that can reproduce (construct) the generator in the process of learning.

学習結果DB15は、生成器および識別器の学習結果を記憶するデータベースである。例えば、学習結果DB15は、GANを用いた生成器および識別器の学習結果や、識別器の再学習結果として、学習が完了した学習済みの生成器や識別器を生成できる各種パラメータを記憶する。 The learning result DB 15 is a database that stores learning results of generators and classifiers. For example, the learning result DB 15 stores the learning results of generators and discriminators using GAN, and various parameters that can generate learned generators and discriminators for which learning has been completed as re-learning results of discriminators.

制御部20は、異常検出装置10全体を司る処理部であり、例えばプロセッサなどである。この制御部20は、学習処理部30、再学習部40、検出部50を有し、識別精度のよい識別器を学習し、入力される予測対象の画像データに対して異常検知を実行する。 The control unit 20 is a processing unit that controls the entire abnormality detection device 10, such as a processor. The control unit 20 has a learning processing unit 30, a re-learning unit 40, and a detection unit 50, learns a classifier with high recognition accuracy, and executes anomaly detection on input prediction target image data.

学習処理部30は、生成器学習部31、識別器学習部32、一時保存部33を有し、GANを用いた生成器および識別器の学習を実行する処理部である。 The learning processing unit 30 has a generator learning unit 31, a discriminator learning unit 32, and a temporary storage unit 33, and is a processing unit that executes learning of the generator and discriminator using GAN.

生成器学習部31は、GANの生成器の学習を実行する処理部である。具体的には、生成器学習部31は、一般的なGANと同様、識別器に正常と判定されるデータが多く、異常と判定されるデータが少なくなるように生成器を学習する。すなわち、生成器は、識別器の識別誤差を最大化するように学習する。 The generator learning unit 31 is a processing unit that executes GAN generator learning. Specifically, the generator learning unit 31 learns the generator so that the discriminator has more data determined to be normal and less data determined to be abnormal, as in a general GAN. That is, the generator learns to maximize the discrimination error of the discriminator.

例えば、生成器学習部31は、乱数やランダムノイズなどであり、いわゆる種などと呼ばれる潜在変数を用いて、生成器により画像データを生成する。そして、生成器学習部31は、生成された画像データ(以下では、生成データと記載する場合がある)を識別器に入力し、識別器の識別結果を取得する。そして、生成器学習部31は、識別結果を用いて、生成データが識別器により正常データと識別されるように、生成器を学習する。 For example, the generator learning unit 31 generates image data using a generator using a latent variable such as a seed, which is a random number or random noise. Then, the generator learning unit 31 inputs the generated image data (hereinafter sometimes referred to as generated data) to the classifier, and acquires the classification result of the classifier. Then, the generator learning unit 31 uses the identification result to learn the generator so that the generated data is identified as normal data by the identifier.

すなわち、生成器学習部31は、生成器が生成する生成データの分布が正常データの分布と一致するように、生成器を学習する。学習が完了すると、生成器学習部31は、学習済みの生成器に関する情報を学習結果DB15に格納する。 That is, the generator learning unit 31 learns the generator so that the distribution of generated data generated by the generator matches the distribution of normal data. When the learning is completed, the generator learning unit 31 stores information on the learned generator in the learning result DB 15 .

識別器学習部32は、GANの識別器の学習を実行する処理部である。具体的には、識別器学習部32は、一般的なGANと同様、正常データDB13に記憶される正常データと、生成器により生成される生成データとを区別できるように生成器を学習する。すなわち、識別器は、識別誤差を最小化するように学習する。 The discriminator learning unit 32 is a processing unit that performs learning of a GAN discriminator. Specifically, the discriminator learning unit 32 learns a generator so as to distinguish between normal data stored in the normal data DB 13 and generated data generated by the generator, as in a general GAN. That is, the discriminator learns to minimize the discrimination error.

例えば、識別器学習部32は、生成器から生成データを取得して識別器に入力し、識別器の出力結果を取得する。そして、識別器学習部32は、出力結果に含まれる正常データである正常確率と、生成データである異常確率とのうち、異常確率が高くなり、正常確率が低くなるように、識別器を学習する。 For example, the discriminator learning unit 32 acquires generated data from the generator, inputs it to the discriminator, and acquires the output result of the discriminator. Then, the discriminator learning unit 32 learns the discriminator so that the normality probability of the normal data included in the output result and the abnormality probability of the generated data are increased and the normality probability is decreased. do.

すなわち、識別器学習部32は、生成器が生成する生成データの分布と正常データの分布との違いを識別器に学習させる。学習が完了すると、識別器学習部32は、学習済みの識別器に関する情報を学習結果DB15に格納する。 That is, the discriminator learning unit 32 causes the discriminator to learn the difference between the distribution of generated data generated by the generator and the distribution of normal data. When the learning is completed, the discriminator learning unit 32 stores information about the discriminators that have been trained in the learning result DB 15 .

一時保存部33は、学習途中の生成器を保存する処理部である。例えば、一時保存部33は、生成器学習部31による生成器の学習過程において、一定時間ごと、または、一定学習回数ごとに、学習途中の生成器の状態を示す各種パラメータを、生成器から取得して途中情報DB14に格納する。 The temporary storage unit 33 is a processing unit that stores the generator in the middle of learning. For example, in the learning process of the generator by the generator learning unit 31, the temporary storage unit 33 acquires various parameters indicating the state of the generator during learning from the generator at regular time intervals or at regular learning times. and store it in the intermediate information DB 14.

再学習部40は、GANにより学習された識別器の再学習を実行する処理部である。具体的には、再学習部40は、一時保存部33により保存された、学習途中の生成器すべてを用いて、識別器の再学習を実行する。 The re-learning unit 40 is a processing unit that re-learns the discriminator learned by the GAN. Specifically, the re-learning unit 40 re-learns classifiers using all of the generators in the middle of learning that are stored in the temporary storage unit 33 .

例えば、再学習部40は、学習処理部30による学習が完了すると、途中情報DB14からパラメータなどの情報を読み出して、学習途中である各生成器を生成する。同様に、再学習部40は、学習結果DB15から識別器のパラメータなどを読み出して、学習済みの識別器を生成する。 For example, when the learning by the learning processing unit 30 is completed, the relearning unit 40 reads information such as parameters from the in-progress information DB 14 and generates each generator that is in the process of learning. Similarly, the re-learning unit 40 reads classifier parameters and the like from the learning result DB 15 and generates a trained classifier.

ここで、学習途中の識別器が4つ生成されたとする。すると、再学習部40は、1つ目の生成器を用いて生成データを生成して、学習済みの識別器に入力して、当該識別器を学習させる。続いて、再学習部40は、2つ目の生成器を用いて生成データを構築して、1つの識別器により学習された識別器に入力して、当該識別器を学習させる。このようにして、再学習部40は、学習途中の各生成器を順次用いて、識別器の再学習を実行する。そして、再学習部40は、再学習が完了すると、再学習済みの識別器に関する情報を学習結果DB15に格納する。 Here, it is assumed that four discriminators in the middle of learning are generated. Then, the re-learning unit 40 generates generated data using the first generator, inputs the generated data to a learned classifier, and causes the classifier to learn. Subsequently, the re-learning unit 40 constructs generated data using the second generator, inputs it to the classifier trained by one classifier, and trains the classifier. In this manner, the re-learning unit 40 re-learns the discriminators by sequentially using each generator in the middle of learning. Then, when the re-learning is completed, the re-learning unit 40 stores information about the re-learned classifier in the learning result DB 15 .

検出部50は、入力される画像データから異常検出を実行する処理部である。例えば、検出部50は、再学習部40による再学習が完了すると、再学習済みの識別器に関するパラメータなどを学習結果DB15から読み出して、識別器を構築する。そして、検出部50は、予測対象である画像データを受信すると、当該画像データを構築した識別器に入力し、出力結果を取得する。 The detection unit 50 is a processing unit that performs abnormality detection from input image data. For example, when the re-learning by the re-learning unit 40 is completed, the detection unit 50 reads out the parameters related to the re-learned classifier from the learning result DB 15 and builds the classifier. Then, when receiving the image data to be predicted, the detection unit 50 inputs the image data to the constructed discriminator, and obtains an output result.

ここで、検出部50は、出力結果に含まれる正常データである正常確率と、生成データである異常確率とのうち、正常確率の方が高い場合は入力された画像データを正常な画像データと識別し、異常確率の方が高い場合は入力された画像データを異常な画像データと識別する。そして、検出部50は、識別結果を管理者端末に送信したり、ディスプレイなどの表示部に表示したり、記憶部12に格納したりする。 Here, the detection unit 50 regards the input image data as normal image data when the normality probability is higher than the normality probability of the normal data included in the output result and the abnormality probability of the generated data. If the abnormality probability is higher, the input image data is identified as abnormal image data. Then, the detection unit 50 transmits the identification result to the administrator terminal, displays it on a display unit such as a display, or stores it in the storage unit 12 .

図7は、検出結果の一例を説明する図である。図7に示すように、検出部50は、予測対象である入力画像を小領域に分割後、再学習部40により学習された識別器に入力して、識別結果を取得する。そして、検出部50は、識別器が異常と判定した領域をユーザに提示することができる。 FIG. 7 is a diagram illustrating an example of detection results. As shown in FIG. 7, the detection unit 50 divides the input image to be predicted into small regions, and then inputs the divided regions to the classifier learned by the re-learning unit 40 to acquire the classification result. Then, the detection unit 50 can present to the user the region determined to be abnormal by the discriminator.

[学習処理の流れ]
図8は、実施例1にかかる学習処理の流れを示すフローチャートである。図8に示すように、学習処理が指示されると、学習処理部30は、生成器と識別器を初期化する(S101)。
[Flow of learning process]
FIG. 8 is a flowchart illustrating the flow of learning processing according to the first embodiment; As shown in FIG. 8, when learning processing is instructed, the learning processing unit 30 initializes the generator and the discriminator (S101).

続いて、生成器学習部31は、生成器でデータ(生成データ)を生成し(S102)、識別器学習部32は、正常データと生成データとを区別できるように識別器を学習する(S103)。そして、生成器学習部31は、生成データが識別器に正常データと識別されるように、生成器を学習する(S104)。 Subsequently, the generator learning unit 31 generates data (generated data) in the generator (S102), and the classifier learning unit 32 learns the classifier so that normal data and generated data can be distinguished (S103). ). Then, the generator learning unit 31 learns the generator so that the generated data is identified as normal data by the classifier (S104).

その後、一時保存部33は、生成器が保存されていない時間や反復数(学習回数)が一定以上である場合(S105:Yes)、学習途中である生成器を保存する(S106)。なお、生成器が保存されていない時間や反復数が一定未満であれば(S105:No)、S106を実行することなく、S107が実行される。 After that, when the generator is not stored for a certain amount of time or the number of iterations (number of times of learning) is equal to or greater than a certain value (S105: Yes), the temporary storage unit 33 stores the generator in the process of learning (S106). If the generator is not saved for a period of time or the number of iterations is less than a certain value (S105: No), S107 is executed without executing S106.

その後、学習が終了するまで(S107:No)、S102以降が繰り返される。一方、学習が終了すると(S107:Yes)、再学習部40は、正常データと、保存された生成器で生成されたデータ(生成データ)とを識別できるように、識別器を再学習する(S108)。そして、再学習部40は、再学習が完了すると、識別器を保存する(S109)。 Thereafter, S102 and subsequent steps are repeated until the learning ends (S107: No). On the other hand, when the learning ends (S107: Yes), the re-learning unit 40 re-learns the discriminator so that it can discriminate between the normal data and the data generated by the stored generator (generated data) ( S108). After completing the re-learning, the re-learning unit 40 stores the classifier (S109).

[検出処理の流れ]
図9は、実施例1にかかる検出処理の流れを示すフローチャートである。図9に示すように、検出処理が指示されると、検出部50は、保存された識別器を読み込む(S201)。続いて、検出部50は、対象データを識別器に入力して、対象データの異常を判定(識別)する(S202)。
[Flow of detection process]
FIG. 9 is a flowchart illustrating the flow of detection processing according to the first embodiment; As shown in FIG. 9, when the detection process is instructed, the detection unit 50 reads the saved discriminator (S201). Subsequently, the detection unit 50 inputs the target data to the discriminator and determines (identifies) an abnormality of the target data (S202).

ここで、検出部50は、正常と判定された場合(S203:Yes)、処理を終了し、正常と判定されなかった場合(S203:No)、対象データを異常データとして出力する(S204)。 Here, the detection unit 50 ends the process when it is determined to be normal (S203: Yes), and outputs the target data as abnormal data when it is not determined to be normal (S203: No) (S204).

[効果]
上述したように、異常検出装置10は、例えば医療における検出したい異常データが正常データの分布から大きく外れたところには出現しないことに着目し、学習途中の生成器を用いて識別器の再学習を実行する。この結果、異常検出装置10は、正常なデータの周辺に存在すると期待される異常データを網羅的に生成可能な生成器を用いて識別器を再学習することができるので、識別器の識別範囲を拡張することができる。
[effect]
As described above, the anomaly detection apparatus 10 focuses on the fact that anomalous data to be detected, for example, in medical care does not appear in a place that deviates greatly from the distribution of normal data, and re-learns the classifier using a generator that is in the process of learning. to run. As a result, the abnormality detection apparatus 10 can re-learn the classifier using a generator capable of comprehensively generating abnormal data expected to exist around normal data. can be extended.

図10は、一時保存と再学習を説明する図である。学習途中の生成器を保存することは、生成器の学習途中の状態を保存することであり、正常データの分布と一致するように、学習している途中の生成器が生成する生成データの分布を保存することとなる。つまり、図10に示すように、学習初期から学習完了までに、生成器が生成する各生成データの分布の学習過程を保存しておくことができる。したがって、保存しておいたすべての生成器を用いて再学習することで、各生成器の生成データの各分布を学習することができるので、GANによる学習が完了した識別器が網羅できない範囲を学習することができる。 FIG. 10 is a diagram for explaining temporary storage and relearning. Saving a generator that is in the process of learning means saving the state of the generator that is in the process of learning. will be saved. That is, as shown in FIG. 10, the learning process of the distribution of each generated data generated by the generator can be saved from the beginning of learning to the completion of learning. Therefore, by re-learning using all the stored generators, it is possible to learn each distribution of the generated data of each generator, so that the range that the classifier that has completed learning by GAN cannot cover can learn.

図11は、効果を説明する図である。図11に示すように、一般的なGANでは、識別器の特性が学習終了時の生成器が誤って生成する正常データ以外のデータに依存するので、異常検出が期待される範囲を網羅するように識別器の学習を行うことが難しく、検出漏れが多い。図11の例では、識別器は、生成器のデータ分布の範囲外にあるデータAについては、異常と検出できない。 FIG. 11 is a diagram for explaining the effect. As shown in FIG. 11, in a general GAN, the characteristics of the discriminator depend on data other than normal data erroneously generated by the generator at the end of learning. It is difficult to learn a discriminator immediately, and there are many detection omissions. In the example of FIG. 11, the discriminator cannot detect data A outside the data distribution range of the generator as abnormal.

これに対して、実施例1による識別器の学習では、途中保存される生成器により生成される生成データの分布を再学習することができるので、学習完了後の生成器の状態に依存せず、正常データの周辺をより多く網羅することができる。この結果、再学習後の識別器は、一般的なGANによる識別器では検出できなかったデータAについても異常データとして検出することができる。 On the other hand, in the learning of the discriminator according to the first embodiment, the distribution of the generated data generated by the generator that is saved in the middle can be re-learned. , can cover more of the periphery of normal data. As a result, the discriminator after re-learning can detect data A, which could not be detected by a discriminator based on a general GAN, as abnormal data.

ところで、実施例1では、学習途中の生成器を一定間隔で保存する例を説明したが、一定間隔ではなく、保存する間隔を制御することで、識別器の性能を向上させることができる。そこで、実施例2では、一定間隔ではなく、識別器の損失が一時的に閾値以上に上がった後、再び閾値未満に下がるタイミングで生成器を保存する例を説明する。 By the way, in the first embodiment, an example in which generators in the middle of learning are stored at regular intervals has been described. Therefore, in the second embodiment, an example will be described in which generators are stored not at regular intervals but at timings when the loss of the discriminator temporarily rises above the threshold and then falls below the threshold again.

図12は、実施例2にかかる学習処理を説明する図である。図12では、GANによる学習において、識別器の損失の時間変化、すなわち識別器が識別に失敗する割合の時間変化を図示している。図12に示すように、GANによる生成器の学習が進むと、生成器が生成するデータの分布が、識別器がカバーしていない領域へ逸脱し始め(図12の(a))、識別器の損失が増加する(図12の(b))。その後、識別器の学習が進み、識別器が生成器の学習に追従するので、識別器の損失が低下していき(図12の(c))、逸脱が解消されていく(図12の(d))。 FIG. 12 is a diagram for explaining learning processing according to the second embodiment. FIG. 12 illustrates the time change of the loss of the discriminator, that is, the time change of the rate of failure of the discriminator in learning by GAN. As shown in FIG. 12, as the learning of the generator by the GAN progresses, the distribution of the data generated by the generator begins to deviate to the area not covered by the discriminator ((a) in FIG. 12), and the discriminator loss increases (FIG. 12(b)). After that, the learning of the discriminator progresses and the discriminator follows the learning of the generator, so the loss of the discriminator decreases ((c) in FIG. 12) and the deviation is eliminated (((c) in FIG. 12). d)).

そこで、一時保存部33は、識別器の損失が増加していき、当該損失が低下し始めたときの生成器の状態を保存する。なお、一時保存部33は、このタイミングの生成器を複数保存したい場合、識別器の損失が低下し始めてから一定時間の間隔で生成器を保存することもできる。このようにすることで、生成器が生成するデータの分布と正常データの分布との差が大きい時点を保存することができるので、識別器が学習できる範囲を広くすることができる。この結果、識別器の性能を向上させることができる。 Therefore, the temporary storage unit 33 stores the state of the generator when the loss of the discriminator increases and the loss starts to decrease. If it is desired to store a plurality of generators at this timing, the temporary storage unit 33 can also store the generators at regular time intervals after the loss of the discriminator begins to decrease. By doing so, it is possible to store the point in time when there is a large difference between the distribution of data generated by the generator and the distribution of normal data, so that the learning range of the discriminator can be widened. As a result, the performance of the discriminator can be improved.

図13は、実施例2にかかる学習処理の流れを示すフローチャートである。図13に示すように、学習処理が指示されると、学習処理部30は、生成器と識別器を初期化する(S301)。 FIG. 13 is a flowchart illustrating the flow of learning processing according to the second embodiment. As shown in FIG. 13, when learning processing is instructed, the learning processing unit 30 initializes the generator and the discriminator (S301).

続いて、生成器学習部31は、生成器でデータ(生成データ)を生成し(S302)、識別器学習部32は、正常データと生成データとを区別できるように識別器を学習する(S303)。そして、生成器学習部31は、生成データが識別器に正常データと識別されるように、生成器を学習する(S304)。 Subsequently, the generator learning unit 31 generates data (generated data) in the generator (S302), and the classifier learning unit 32 learns the classifier so that normal data and generated data can be distinguished (S303). ). Then, the generator learning unit 31 learns the generator so that the generated data is identified as normal data by the classifier (S304).

その後、一時保存部33は、生成器が保存されていない時間や反復数が一定以上(S305:Yes)、かつ、識別器の損失が減少している場合(S306:Yes)、学習途中である生成器を保存する(S307)。なお、生成器が保存されていない時間や反復数が一定未満(S305:No)、または、識別器の損失が減少していない場合(S306:No)、S307を実行することなく、S308が実行される。 After that, the temporary storage unit 33 is in the process of learning when the generator is not stored for a certain amount of time or the number of iterations is greater than a certain value (S305: Yes) and the loss of the discriminator is decreasing (S306: Yes). Save the generator (S307). If the length of time the generator is not stored or the number of iterations is less than a certain value (S305: No), or if the loss of the discriminator has not decreased (S306: No), S308 is executed without executing S307. be done.

その後、学習が終了するまで(S308:No)、S302以降が繰り返される。一方、学習が終了すると(S308:Yes)、再学習部40は、正常データと、保存された生成器で生成されたデータ(生成データ)とを識別できるように、識別器を再学習する(S309)。そして、再学習部40は、再学習が完了すると、識別器を保存する(S310)。なお、検出処理は、実施例1と同様なので、詳細な説明を省略する。 Thereafter, S302 and subsequent steps are repeated until the learning ends (S308: No). On the other hand, when the learning ends (S308: Yes), the re-learning unit 40 re-learns the discriminator so that it can discriminate between the normal data and the data generated by the stored generator (generated data) ( S309). After completing the re-learning, the re-learning unit 40 stores the discriminator (S310). Note that the detection process is the same as that of the first embodiment, so a detailed description thereof will be omitted.

ところで、実施例2では、生成器が異常データを生成し始めると、すぐに識別器が追従するので、生成器による生成データの分布の識別器がカバーしていない領域への逸脱の範囲が限定され、また、どの程度逸脱が進行しているかを見極めにくいことが考えられる。 By the way, in the second embodiment, when the generator starts generating abnormal data, the discriminator immediately follows. Also, it may be difficult to determine how far the deviation has progressed.

そこで、実施例3では、学習速度の異なる識別器を2つ使用し、逸脱が進んだ状態の生成器を正確に保存することで、識別器の性能を向上させる。具体的には、生成器は、遅い識別器を用いて学習を行い、速い識別器を用いて逸脱の進行度を測る。実施例2では、速い識別器により生成データであると識別可能な生成データの割合を指標とする。また、逸脱が一定以上に進行した段階で、生成器を保存し、それ以上逸脱が起きないように、遅い識別器に速い生成器をコピーする。 Therefore, in the third embodiment, two discriminators with different learning speeds are used, and the generator in the advanced deviation state is accurately stored, thereby improving the performance of the discriminator. Specifically, the generator learns using a slow discriminator and measures the progress of deviation using a fast discriminator. In the second embodiment, the ratio of generated data that can be identified as generated data by a fast discriminator is used as an index. In addition, when the deviation progresses beyond a certain level, the generator is saved, and the fast generator is copied to the slow discriminator so that no further deviation occurs.

図14は、実施例3にかかる学習処理を説明する図である。図14に示すように、図14では、学習速度の遅い識別器A(以下では、識別器Aや遅い識別器Aなどと記載する場合がある)と学習速度の速い識別器B(以下では、識別器Bや速い識別器Bなどと記載する場合がある)の2つを用いたGANによる学習において、各識別器の損失の時間変化を図示している。 FIG. 14 is a diagram for explaining learning processing according to the third embodiment. As shown in FIG. 14, in FIG. 14, a discriminator A with a slow learning speed (hereinafter, may be referred to as a discriminator A, a slow discriminator A, etc.) and a discriminator B with a fast learning speed (hereinafter referred to as In learning by GAN using two discriminators B, fast discriminator B, etc.), the time change of the loss of each discriminator is illustrated.

図14に示すように、GANによる生成器の学習が進むと、生成器が生成するデータの分布が、速い識別器Bがカバーしていない領域へ逸脱し始め(図14の(a))、速い識別器Bの損失が増加する(図14の(b))。しかし、遅い識別器Aは、学習速度が遅いことから、速い識別器Bよりも損失の増加は少ない。 As shown in FIG. 14, as the learning of the generator by the GAN progresses, the distribution of the data generated by the generator begins to deviate to the area not covered by the fast discriminator B ((a) in FIG. 14), The loss of fast discriminator B increases (FIG. 14(b)). However, since the slow discriminator A has a slow learning speed, the increase in loss is smaller than that of the fast discriminator B.

その後、両方の識別器の学習が進むが、特に速い識別器Bの学習が進んで、生成器の学習に追従するので、速い識別器Bの損失が低下し、遅い識別器Aは逸脱を許容できない(図14の(c))。すなわち、遅い識別器Aは、生成器の学習に追従することができず、識別の補正が進まない。 After that, the learning of both classifiers progresses, but the learning of the particularly fast classifier B progresses and follows the learning of the generator, so the loss of the fast classifier B decreases, and the slow classifier A allows deviation. ((c) in FIG. 14). That is, the slow discriminator A cannot follow the learning of the generator, and correction of discrimination does not progress.

このとき、一時保存部33は、学習途中の生成器を保存する。つまり、一時保存部33は、速い識別器Bの逸脱が一定以上進行した段階で、遅い識別器Aを用いて学習する生成器を保存する。言い換えると、一時保存部33は、速い識別器Aの損失が増加した後に低下し始める一方で、遅い識別器Bの損失が増加しているときの生成器の状態を保存する。なお、損失が一定値以上か否かの閾値は、識別器Aと識別器Bとで共通の値を用いることができる。 At this time, the temporary storage unit 33 stores the generator in the middle of learning. That is, the temporary storage unit 33 stores a generator that learns using the slow classifier A when the deviation of the fast classifier B has progressed beyond a certain level. In other words, the temporary storage unit 33 stores the state of the generator when the loss of the slow discriminator B is increasing while the loss of the fast discriminator A starts to decrease after increasing. Note that a common value can be used for the discriminator A and the discriminator B as the threshold for determining whether the loss is equal to or greater than a certain value.

そして、一時保存部33は、速い識別器の重みなどのパラメータを、遅い識別器Aにコピーして、2つの学習速度を用いた学習を再開する(図14の(d))。すなわち、2つの識別器のいずれも速い識別器の状態に変更し、その状態から、遅い学習と速い学習を行う。 Then, the temporary storage unit 33 copies the parameters such as the weight of the fast discriminator to the slow discriminator A, and resumes learning using the two learning speeds ((d) in FIG. 14). That is, both of the two discriminators are changed to the fast discriminator state, and slow learning and fast learning are performed from that state.

このようにして、2つの識別器を用いた学習が完了すると、再学習部40は、一時的に保存された学習途中の生成器を用いて、識別器Bの再学習を実行する。 When the learning using the two discriminators is completed in this way, the re-learning unit 40 re-learns the discriminator B using the temporarily stored generator in the middle of learning.

図15は、実施例3にかかる学習処理の流れを示すフローチャートである。図15に示すように、学習処理が指示されると、学習処理部30は、生成器、識別器A、識別器Bを初期化する(S401)。 FIG. 15 is a flowchart illustrating the flow of learning processing according to the third embodiment. As shown in FIG. 15, when the learning process is instructed, the learning processing unit 30 initializes the generator, classifier A, and classifier B (S401).

続いて、生成器学習部31は、識別器Aの学習速度が識別器Bより小さくなるように設定する(S402)。例えば、生成器学習部31は、学習率を低くしたり、学習頻度を下げたりすることで、学習速度を遅くする。 Subsequently, the generator learning unit 31 sets the learning speed of the discriminator A to be lower than that of the discriminator B (S402). For example, the generator learning unit 31 slows down the learning speed by lowering the learning rate or lowering the learning frequency.

そして、生成器学習部31は、生成器でデータ(生成データ)を生成し(S403)、識別器学習部32は、正常データと生成データとを区別できるように識別器Aと識別器Bを学習する(S404)。そして、生成器学習部31は、生成データが識別器Aに正常データと識別されるように、生成器を学習する(S405)。 Then, the generator learning unit 31 generates data (generated data) in the generator (S403), and the discriminator learning unit 32 uses the discriminator A and the discriminator B so that normal data and generated data can be discriminated. Learn (S404). Then, the generator learning unit 31 learns the generator so that the generated data is identified as normal data by the classifier A (S405).

その後、一時保存部33は、生成器が保存されていない時間や反復数が一定以上(S406:Yes)、かつ、識別器Bの損失が減少している場合(S407:Yes)、学習途中である生成器を保存する(S408)。続いて、一時保存部33は、識別器Bの重みなどのパラメータを識別器Aにコピーする(S409)。 After that, if the generator is not stored for a certain amount of time or the number of iterations is more than a certain amount (S406: Yes), and the loss of classifier B is decreasing (S407: Yes), the temporary storage unit 33 A certain generator is saved (S408). Subsequently, the temporary storage unit 33 copies the parameters such as the weight of the discriminator B to the discriminator A (S409).

なお、生成器が保存されていない時間や反復数が一定未満(S406:No)、または、識別器の損失が減少していない場合(S407:No)、S408とS409を実行することなく、S410が実行される。 Note that if the generator is not stored for a period of time or the number of iterations is less than a certain value (S406: No), or if the loss of the discriminator has not decreased (S407: No), S410 is performed without executing S408 and S409. is executed.

その後、学習が終了するまで(S410:No)、S403以降が繰り返される。一方、学習が終了すると(S410:Yes)、再学習部40は、正常データと、保存された生成器で生成されたデータ(生成データ)とを識別できるように、識別器Bを再学習する(S411)。そして、再学習部40は、再学習が完了すると、識別器Bを保存する(S412)。なお、検出処理は、実施例1と同様なので、詳細な説明を省略する。 Thereafter, S403 and subsequent steps are repeated until the learning ends (S410: No). On the other hand, when learning ends (S410: Yes), the re-learning unit 40 re-learns the discriminator B so that it can discriminate between normal data and data generated by the stored generator (generated data). (S411). After completing the re-learning, the re-learning unit 40 stores the discriminator B (S412). Note that the detection process is the same as that of the first embodiment, so a detailed description thereof will be omitted.

さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。 Although the embodiments of the present invention have been described so far, the present invention may be implemented in various different forms other than the embodiments described above.

[学習]
例えば、学習処理を終了するタイミングは、所定数以上の学習データを用いた学習が完了した時点や識別器の損失が閾値未満となった時点など、任意に設定することができる。また、医療用の画像データに限らず、不正侵入や危険物持ち込みなどを判定する各種分野に適用することができる。
[study]
For example, the timing of ending the learning process can be arbitrarily set, such as when learning using a predetermined number or more of learning data is completed, or when the loss of the discriminator becomes less than a threshold. In addition, the present invention can be applied not only to medical image data, but also to various other fields such as illegal intrusion and bringing in of dangerous substances.

[再学習のタイミング]
上記実施例では、学習完了後に、識別器を再学習する例を説明したが、これに限定されるものではない。例えば、識別器は、通常のGANによる学習と、一時的に保存された学習途中の生成器を用いて学習とを並行して実行することもできる。つまり、保存した生成器がすでに生成可能な異常データを再び生成する生成器の保存を抑制するために、学習途中でも、識別器の学習に保存した生成器を用いる。このようにすることで、学習時間を短縮できるとともに、識別器の学習を補正しながら学習できるので、識別器の識別性能の向上を図ることもできる。
[Timing of re-learning]
In the above embodiment, an example of re-learning the discriminator after learning is completed has been described, but the present invention is not limited to this. For example, the discriminator can concurrently perform learning using a normal GAN and learning using a generator that is temporarily stored and is in the process of learning. In other words, in order to suppress the storage of a generator that regenerates abnormal data that can already be generated by the stored generator, the stored generator is used for learning of the discriminator even during learning. By doing so, the learning time can be shortened, and the learning of the discriminator can be corrected while learning, so that the discriminating performance of the discriminator can be improved.

[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[system]
Information including processing procedures, control procedures, specific names, and various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、学習処理部30と再学習部40と検出部50とを別々の装置で実現することもできる。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. That is, the specific forms of distribution and integration of each device are not limited to those shown in the drawings. That is, all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. For example, the learning processing unit 30, the re-learning unit 40, and the detection unit 50 can be realized by separate devices.

さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。 Further, each processing function performed by each device may be implemented in whole or in part by a CPU and a program analyzed and executed by the CPU, or implemented as hardware based on wired logic.

[ハードウェア]
図16は、ハードウェア構成例を説明する図である。図16に示すように、異常検出装置10は、通信装置10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図16に示した各部は、バス等で相互に接続される。
[hardware]
FIG. 16 is a diagram illustrating a hardware configuration example. As shown in FIG. 16, the abnormality detection device 10 has a communication device 10a, a HDD (Hard Disk Drive) 10b, a memory 10c, and a processor 10d. 16 are interconnected by a bus or the like.

通信装置10aは、ネットワークインタフェースカードなどであり、他のサーバとの通信を行う。HDD10bは、図6に示した機能を動作させるプログラムやDBを記憶する。 The communication device 10a is a network interface card or the like, and communicates with other servers. The HDD 10b stores programs and DBs for operating the functions shown in FIG.

プロセッサ10dは、図6に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図6等で説明した各機能を実行するプロセスを動作させる。すなわち、このプロセスは、異常検出装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、学習処理部30と再学習部40と検出部50等と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、学習処理部30と再学習部40と検出部50等と同様の処理を実行するプロセスを実行する。 The processor 10d reads from the HDD 10b or the like a program for executing the same processing as each processing unit shown in FIG. 6 and develops it in the memory 10c, thereby operating processes for executing each function described with reference to FIG. 6 and the like. That is, this process executes the same function as each processing unit of the abnormality detection device 10 . Specifically, the processor 10d reads from the HDD 10b or the like a program having the same functions as those of the learning processing section 30, the re-learning section 40, the detection section 50, and the like. Then, the processor 10d executes processes for executing the same processes as the learning processing unit 30, the re-learning unit 40, the detecting unit 50, and the like.

このように異常検出装置10は、プログラムを読み出して実行することで異常検出方法を実行する情報処理装置として動作する。また、異常検出装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、異常検出装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。 Thus, the abnormality detection device 10 operates as an information processing device that executes an abnormality detection method by reading and executing a program. Further, the abnormality detection device 10 can read the program from the recording medium by the medium reading device and execute the read program, thereby realizing the same function as the embodiment described above. Note that the program referred to in this other embodiment is not limited to being executed by the abnormality detection device 10 . For example, the present invention can be applied in the same way when another computer or server executes the program, or when they cooperate to execute the program.

10 異常検出装置
11 通信部
12 記憶部
13 正常データDB
14 途中情報DB
15 学習結果DB
20 制御部
30 学習処理部
31 生成器学習部
32 識別器学習部
33 一時保存部
40 再学習部
50 検出部
10 Abnormality Detection Device 11 Communication Unit 12 Storage Unit 13 Normal Data DB
14 Intermediate information DB
15 Learning result database
20 control unit 30 learning processing unit 31 generator learning unit 32 discriminator learning unit 33 temporary storage unit 40 re-learning unit 50 detection unit

Claims (8)

画像データを生成する生成器と、
本物の画像データと生成された画像データとを識別する識別器と、
学習過程において、前記生成器が前記識別器の識別誤差を最大化するように学習するとともに、前記生成器が生成するデータを用いて、前記識別器が前記識別誤差を最小化するように学習する学習処理を実行する学習部と、
前記学習過程における第1の状態よりも前の状態である第2の状態の前記生成器が生成するデータを用いて、前記第1の状態の前記生成器が生成したデータで学習した前記識別器の再学習を実行する再学習部と
を有することを特徴とする学習装置。
a generator for generating image data;
a discriminator that discriminates between genuine image data and generated image data ;
In the learning process, the generator learns to maximize the discrimination error of the discriminator, and using data generated by the generator, the discriminator learns to minimize the discrimination error. a learning unit that performs learning processing ;
The discriminator trained with the data generated by the generator in the first state using the data generated by the generator in the second state, which is the state prior to the first state in the learning process. and a relearning unit that performs relearning of the learning device.
前記第2の状態は、前記第1の状態より前の状態であって、前記識別器の損失が閾値以上になった後、再び前記閾値未満となったときの状態であることを特徴とする請求項1に記載の学習装置。 The second state is a state before the first state, and is a state when the loss of the discriminator becomes less than the threshold again after becoming equal to or greater than the threshold. A learning device according to claim 1. 前記識別器は、第1の識別器と、前記第1の識別器よりも学習速度が速い第2の識別器とを含み、
前記学習処理は、前記生成器が前記第1の識別器の識別誤差を最大化するように学習するとともに前記生成器が生成するデータを用いて、前記第1の識別器が前記第1の識別器の前記識別誤差最小化するように学習するとともに前記第2の識別器が前記第2の識別器の識別誤差最小化するように学習する学習処理であって
前記第2の状態は、前記第1の状態より前の状態であって、前記第2の識別器の損失が増加した後に低下し始めるとともに、前記第1の識別器の損失が閾値以上のときの状態であって、
前記再学習部は、前記第2の状態の前記生成器が生成するデータを用いて、前記第1の状態の前記生成器が生成したデータで学習した前記第2の識別器の再学習を実行することを特徴とする請求項1に記載の学習装置。
The discriminator includes a first discriminator and a second discriminator having a faster learning speed than the first discriminator,
In the learning process, the generator learns to maximize the identification error of the first classifier, and the first classifier learns the first classifier using data generated by the generator. A learning process in which the classifier learns to minimize the identification error and the second classifier learns to minimize the identification error of the second classifier,
The second state is a state prior to the first state, in which the loss of the second discriminator starts to decrease after increasing, and when the loss of the first discriminator is equal to or greater than a threshold in the state of
The relearning unit uses the data generated by the generator in the second state to perform relearning of the second discriminator trained with the data generated by the generator in the first state. 2. The learning device according to claim 1, wherein:
前記再学習部は、前記学習部による前記学習処理が完了した後に、前記再学習を開始することを特徴とする請求項1に記載の学習装置。 2. The learning device according to claim 1 , wherein the relearning unit starts the relearning after the learning process by the learning unit is completed . 前記再学習部は、前記学習部による前記学習処理が完了する前に、前記再学習を開始することを特徴とする請求項1に記載の学習装置。 2. The learning device according to claim 1, wherein the relearning unit starts the relearning before the learning process by the learning unit is completed . 前記再学習部によって再学習された再学習済みの前記識別器に、識別対象の画像データを複数領域に分割して入力して、前記再学習済みの前記識別器により異常が検出された場合に、前記再学習済みの前記識別器が異常と示す領域を提示する検出部をさらに有することを特徴とする請求項1に記載の学習装置。 When image data to be classified is divided into a plurality of regions and input to the relearned classifier that has been relearned by the relearning unit , and an abnormality is detected by the relearned classifier 2. The learning device according to claim 1, further comprising a detection unit that presents an area indicated as abnormal by the re-learned classifier. 学習過程において、画像データを生成する生成器が、本物の画像データと生成された画像データとを識別する識別器の識別誤差を最大化するように学習するとともに、前記生成器が生成するデータを用いて、前記識別器が前記識別誤差を最小化するように学習する学習処理を実行し、
前記学習過程における第1の状態よりも前の状態である第2の状態の前記生成器が生成するデータを用いて、前記第1の状態の前記生成器が生成したデータで学習した前記識別器の再学習を実行する
処理をコンピュータが実行することを特徴とする学習方法。
In the learning process, a generator that generates image data learns to maximize the identification error of a classifier that identifies real image data and generated image data , and the data generated by the generator is learned , performing a learning process in which the discriminator learns to minimize the discriminant error,
The discriminator trained with the data generated by the generator in the first state using the data generated by the generator in the second state, which is the state prior to the first state in the learning process. A learning method characterized in that a computer executes processing for re-learning.
学習過程において、画像データを生成する生成器が、本物の画像データと生成された画像データとを識別する識別器の識別誤差を最大化するように学習するとともに、前記生成器が生成するデータを用いて、前記識別器が前記識別誤差を最小化するように学習する学習処理を実行し、
前記学習過程における第1の状態よりも前の状態である第2の状態の前記生成器が生成するデータを用いて、前記第1の状態の前記生成器が生成したデータで学習した前記識別器の再学習を実行する
処理をコンピュータに実行させることを特徴とする学習プログラム。
In the learning process, a generator that generates image data learns to maximize the identification error of a classifier that identifies real image data and generated image data , and the data generated by the generator is learned , performing a learning process in which the discriminator learns to minimize the discriminant error,
The discriminator trained with the data generated by the generator in the first state using the data generated by the generator in the second state, which is the state prior to the first state in the learning process. A learning program characterized by causing a computer to execute a process of re-learning.
JP2019014035A 2019-01-30 2019-01-30 LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM Active JP7268367B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019014035A JP7268367B2 (en) 2019-01-30 2019-01-30 LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM
EP20152622.5A EP3690743A1 (en) 2019-01-30 2020-01-20 Training apparatus, training method, and training program
CN202010071123.XA CN111507934B (en) 2019-01-30 2020-01-21 Training device, training method, and computer-readable recording medium
US16/774,100 US11250297B2 (en) 2019-01-30 2020-01-28 Training apparatus, training method, and non-transitory computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019014035A JP7268367B2 (en) 2019-01-30 2019-01-30 LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM

Publications (2)

Publication Number Publication Date
JP2020123096A JP2020123096A (en) 2020-08-13
JP7268367B2 true JP7268367B2 (en) 2023-05-08

Family

ID=69185374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019014035A Active JP7268367B2 (en) 2019-01-30 2019-01-30 LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM

Country Status (4)

Country Link
US (1) US11250297B2 (en)
EP (1) EP3690743A1 (en)
JP (1) JP7268367B2 (en)
CN (1) CN111507934B (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111401138B (en) * 2020-02-24 2023-11-07 上海理工大学 Countermeasure optimization method for generating countermeasure neural network training process
WO2022088089A1 (en) * 2020-10-30 2022-05-05 京东方科技集团股份有限公司 Image processing method, image processing apparatus, electronic device, and readable storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018192264A (en) 2017-05-18 2018-12-06 キヤノンメディカルシステムズ株式会社 Medical image processing apparatus
WO2019169594A1 (en) 2018-03-08 2019-09-12 Intel Corporation Methods and apparatus to generate three-dimensional (3d) model for 3d scene reconstruction

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108431834A (en) * 2015-12-01 2018-08-21 首选网络株式会社 The generation method of abnormality detection system, method for detecting abnormality, abnormality detecting program and the model that learns
US10475174B2 (en) * 2017-04-06 2019-11-12 General Electric Company Visual anomaly detection system
US10937540B2 (en) * 2017-12-21 2021-03-02 International Business Machines Coporation Medical image classification based on a generative adversarial network trained discriminator
CN108769993A (en) * 2018-05-15 2018-11-06 南京邮电大学 Based on the communication network abnormal user detection method for generating confrontation network

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018192264A (en) 2017-05-18 2018-12-06 キヤノンメディカルシステムズ株式会社 Medical image processing apparatus
WO2019169594A1 (en) 2018-03-08 2019-09-12 Intel Corporation Methods and apparatus to generate three-dimensional (3d) model for 3d scene reconstruction

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
坂本 俊之,Chainerで作る コンテンツ自動生成AIプログラミング入門,第1版,株式会社シーアンドアール研究所,2017年12月22日,第68ページ、第85-第95ページ,ISBN:978-4-86354-234-1
栗原 慧至,画像補完技術を用いた眼底画像の異常検出,電気学会研究会資料,日本,一般社団法人電気学会,2018年09月26日,pp.105-109

Also Published As

Publication number Publication date
EP3690743A1 (en) 2020-08-05
US11250297B2 (en) 2022-02-15
CN111507934A (en) 2020-08-07
JP2020123096A (en) 2020-08-13
CN111507934B (en) 2024-04-26
US20200242412A1 (en) 2020-07-30

Similar Documents

Publication Publication Date Title
JP7268368B2 (en) LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM
US11055632B2 (en) Method and device for improving the robustness against “adversarial examples”
US20220269996A1 (en) Information processing apparatus, information processing method, and storage medium
TW201931187A (en) URL attack detection method and apparatus, and electronic device
CN111031071B (en) Malicious traffic identification method and device, computer equipment and storage medium
JP7047498B2 (en) Learning programs, learning methods and learning devices
JP6955612B2 (en) Devices and methods for handling anomaly detection
US20230186097A1 (en) Methods and apparatus to defend against adversarial machine learning
JP7268367B2 (en) LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM
WO2019168167A1 (en) Verification method, verification device, computer program, and verification system
JP7268756B2 (en) Deterioration suppression program, degradation suppression method, and information processing device
EP3739524A1 (en) Method and system for protecting a machine learning model against extraction
US20200380409A1 (en) Apparatus and method for analyzing time-series data based on machine learning
US20210166362A1 (en) Wafer map identification method and computer-readable recording medium
JP2010231455A (en) Method and device for signal identification
JP2019159835A (en) Learning program, learning method and learning device
CN112651429A (en) Audio signal time sequence alignment method and device
CN112989312A (en) Verification code identification method and device, electronic equipment and storage medium
CN115931359A (en) Turbine pump bearing fault diagnosis method and device
JP4997524B2 (en) Multivariable decision tree construction system, multivariable decision tree construction method, and program for constructing multivariable decision tree
CN113642017A (en) Encrypted flow identification method based on self-adaptive feature classification, memory and processor
JP7206892B2 (en) Image inspection device, learning method for image inspection, and image inspection program
US20230145544A1 (en) Neural network watermarking
KR102251898B1 (en) Appratus and method for denosing solar image
US20230037904A1 (en) Model compression device, model compression method, and program recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230404

R150 Certificate of patent or registration of utility model

Ref document number: 7268367

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150