WO2023095250A1 - Abnormality detection system - Google Patents

Abnormality detection system Download PDF

Info

Publication number
WO2023095250A1
WO2023095250A1 PCT/JP2021/043223 JP2021043223W WO2023095250A1 WO 2023095250 A1 WO2023095250 A1 WO 2023095250A1 JP 2021043223 W JP2021043223 W JP 2021043223W WO 2023095250 A1 WO2023095250 A1 WO 2023095250A1
Authority
WO
WIPO (PCT)
Prior art keywords
mask
signal
detection system
anomaly detection
unit
Prior art date
Application number
PCT/JP2021/043223
Other languages
French (fr)
Japanese (ja)
Inventor
友輔 生内
圭吾 長谷川
海斗 笹尾
Original Assignee
株式会社日立国際電気
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立国際電気 filed Critical 株式会社日立国際電気
Priority to JP2023563416A priority Critical patent/JPWO2023095250A1/ja
Priority to PCT/JP2021/043223 priority patent/WO2023095250A1/en
Publication of WO2023095250A1 publication Critical patent/WO2023095250A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present invention relates to an anomaly detection system, and more particularly to an anomaly detection system using AI technology such as deep learning.
  • AI artificial intelligence
  • DL deep learning
  • AutoEncoder is one of known anomaly detection methods using DL.
  • An autoencoder uses a neural network to extract features of an input signal, and uses the extracted features to restore (reconstruct) a signal such that the error with respect to the input signal is zero. Learning is performed by unsupervised learning, and parameters are learned so that the error between an arbitrary normal input signal and a signal reconstructed using an autoencoder becomes zero.
  • the trained DL model neural network and set of parameters
  • Patent Document 1 the region and pixel value of an object generated in a monitoring area are extracted from the image captured by the photographing means, and based on the determination criteria set for each angle of view and position in the image, acquisition describes an obstacle detection system that divides the object area and pixel values into blocks, identifies the type of the object from the local feature amount, and detects the presence or absence of an obstacle that has occurred in the image from the information on the type of the object. ing.
  • the abnormal part can be reconstructed without error for the input signal containing the abnormal part during operation.
  • the error between the input signal and the reconstructed signal becomes small, causing a problem that the abnormality cannot be detected.
  • This problem is considered to occur because the learning data with diversity has features similar to the features of the abnormal part, so that the abnormal part can be reconstructed as a normal part.
  • Patent Document 1 a local feature amount is used, and since this local feature amount needs to be extracted by prior learning, etc., there is a possibility that it will be affected by the environment during learning.
  • an object of the present invention to provide an anomaly detection system that can detect anomalous parts with higher accuracy using a DL model.
  • one typical anomaly detection system of the present invention includes a signal acquisition unit that acquires an input signal from a sensor, a mask generation unit that generates a mask superimposed on the input signal, the input A mask superimposing unit that superimposes a mask generated by the mask generating unit on a signal to generate a masked signal, and a signal reconstructing unit that reconstructs the masked signal generated by the mask superimposing unit to generate a reconstructed signal. and determining whether the input signal includes an abnormal portion based on the error (for example, squared error, SNR, PSNR, SSIM, and other known feature amounts) between the input signal and the reconstructed signal within the mask region. and an anomaly determination unit for determining, wherein the signal reconstruction unit reconstructs the masked region using a deep learning model trained using a normal input signal.
  • the error for example, squared error, SNR, PSNR, SSIM, and other known feature amounts
  • an anomaly in an anomaly detection system, an anomaly can be detected with higher accuracy using a DL model. Problems, configurations, and effects other than those described above will be clarified by the following embodiments.
  • FIG. 1 is a block diagram of a computer system for implementing aspects according to embodiments of the invention.
  • FIG. 2 is a block diagram showing one embodiment of the anomaly detection system of the present invention.
  • FIG. 3 is a functional block diagram showing an example of an analysis server of the anomaly detection system of the present invention.
  • FIG. 4 is a diagram for explaining an example of the learning of the anomaly detection method of the anomaly detection system of the present invention.
  • FIG. 5 is a diagram for explaining an example of operation of the anomaly detection method of the anomaly detection system of the present invention.
  • FIG. 6 is a diagram for explaining an example of processing of the anomaly detection system of the present invention.
  • FIG. 1 is a block diagram of a computer system for implementing aspects according to embodiments of the invention.
  • FIG. 2 is a block diagram showing one embodiment of the anomaly detection system of the present invention.
  • FIG. 3 is a functional block diagram showing an example of an analysis server of the anomaly detection system of the present invention.
  • FIG. 4
  • FIG. 7 is a diagram illustrating an example of masks for reducing the number of masked signals in the anomaly detection system of the present invention.
  • FIG. 8 is a diagram showing a model for explaining an example of a mask selection method using the background subtraction method in the anomaly detection system of the present invention.
  • FIG. 9 is a diagram illustrating an example of a mask selection method using the background subtraction method in the anomaly detection system of the present invention.
  • FIG. 10 is a diagram illustrating an example of a mask adjustment method using object detection results in the anomaly detection system of the present invention.
  • FIG. 11 is a diagram showing a model for explaining the first specific example of the anomaly detection system of the present invention.
  • FIG. 12 is a diagram for explaining a first specific example of the anomaly detection system of the present invention.
  • FIG. 13 is a diagram showing a model for explaining a second specific example of the anomaly detection system of the present invention.
  • FIG. 14 is a diagram for explaining a second specific example of the anomaly detection system of the present invention.
  • FIG. 15 is a diagram illustrating an example of application of the anomaly detection system of the present invention to time-series data.
  • FIG. 16 is an example of a processing flowchart of the anomaly detection system of the present invention.
  • the computer system 1 may include one or more processing units 2A and 2B, collectively referred to as processors 2. Each processor 2 executes instructions stored in memory 4 and may include an on-board cache. In some embodiments, computer system 1 may include multiple processors, and in other embodiments, computer system 1 may be a single processing unit system. As the processing device, CPU (Central Processing Unit), FPGA (Field-Programmable Gate Array), GPU (Graphics Processing Unit), DSP (Digital Signal Processor), etc. can be applied.
  • CPU Central Processing Unit
  • FPGA Field-Programmable Gate Array
  • GPU Graphics Processing Unit
  • DSP Digital Signal Processor
  • computer system 1 may include environmental sensors that collect humidity data, temperature data, pressure data, etc., and motion sensors that collect acceleration data, motion data, etc., and the like. Other types of sensors can also be used.
  • the functions provided by bus interface unit 9 may be implemented by an integrated circuit including processor 2 .
  • the computer system 1 shown in FIG. 1 includes a bus structure that provides a direct communication path between processor 2, memory 4, bus interface unit 9, display system 24, and I/O bus interface unit 10;
  • computer system 1 may include hierarchical, star, or web configurations of point-to-point links, multiple hierarchical buses, parallel or redundant communication paths.
  • I/O bus interface unit 10 and I/O bus 8 are shown as a single unit, in practice computer system 1 may include multiple I/O bus interface units 10 or multiple I/O buses.
  • a bus 8 may be provided.
  • multiple I/O interface units are shown for isolating the I/O bus 8 from the various communication paths leading to the various I/O devices, in other embodiments, one of the I/O devices Some or all may be directly connected to one system I/O bus.
  • FIG. 2 is a block diagram showing one embodiment of the anomaly detection system of the present invention.
  • the database server 103 is a database server equipped with a storage device. Information required for analysis by the analysis server 101 and information acquired by the sensor 102 can be recorded. Also, the results of analysis performed by the analysis server 101 can be recorded.
  • the signal reconstruction unit 204 reconstructs the masked signal generated by the mask superimposition unit 203 .
  • This reconstruction produces a reconstructed signal in which the masked portion of the signal is reconstructed.
  • Reconstruction is performed by inputting to an AI (artificial intelligence) DL (deep learning) model capable of signal restoration (interpolation) such as inpainting.
  • AI artificial intelligence
  • DL deep learning
  • inpainting can apply methods using neural networks and parameter sets.
  • inpainting refers to a technique of masking an image and restoring it, and a model for that purpose is called an inpainting model.
  • a specific example of inpainting is image inpainting.
  • the technique of Non-Patent Document 1 may be used as image-in-painting.
  • the reconstructed signal is sent to abnormality determination section 205 .
  • the abnormality determination unit 205 calculates the error between the signal obtained by the signal acquisition unit 201 and the signal reconstructed by the signal reconstruction unit 204, and determines the presence or absence of an abnormal portion using a preset threshold value. . In particular, if the error in the masked area is greater than or equal to the threshold, it can be determined as abnormal.
  • the threshold it is possible to apply a threshold that indicates the extent of the range in which the signal difference is greater than or equal to a predetermined value.
  • errors for example, squared error, SNR (Signal-to-Noise Ratio), PSNR (Peak Signal-to-Noise Ratio), SSIM (Structural Similarity), etc. It is possible to evaluate using a known feature amount or the like.
  • a determination result is output to the output control unit 206 .
  • FIG. 7 is a diagram illustrating an example of masks for reducing the number of masked signals in the anomaly detection system of the present invention.
  • an example in which an inspection target 701 with an abnormality 702 is shown in an input image 710 is shown.
  • Example of mask selection method using methods other than background subtraction In addition to the background subtraction method described with reference to FIGS. 8 and 9, there are other methods of selecting a mask. For example, template matching with an image in which the object to be inspected does not appear, difference between frames when the object to be inspected is moving, motion detection by optical flow, and the like may be used.
  • a method such as comparing with a template image prepared in advance and excluding an image close to the template from the mask selection area can be used.
  • optical flow by detecting the range of a moving object such as a person and masking that portion, the other portions can be excluded from the mask selection region.
  • the size of the mask is larger than the size of the abnormal part, the information of the abnormal part will not be input to the inpainting model. As a result, since an abnormal portion is not included in reconstructing an image, detection accuracy of an abnormal portion can be improved. On the other hand, if the mask is superimposed so that most of the inspection target is hidden, the area to be reconstructed becomes large. As a result, the accuracy of reconstructing the object to be inspected is lowered, which is a factor in degrading the detection accuracy. Therefore, detection accuracy can be further improved by adding mask size adjustment processing.
  • Fig. 10 shows an example of adjusting the size of the mask using the object detection result of the DL model that can detect the object to be inspected.
  • the DL model is learned by using a normal detection target.
  • the input image 1010 is input to the learned object detection DL model.
  • an object detection result 1020 is calculated by predicting the area of the inspection object 1001 .
  • the range of the inspection target 1001 is specified.
  • the ranges of three inspection targets 1001 are identified.
  • a mask 1005 covering a part of the identified inspection object 1001 area is created.
  • a plurality of masks are used to cover one of the inspection objects 1001 .
  • a mask is created to cover every quarter of the area.
  • the signal is restored without hiding most of the inspection object, so it is possible to improve the accuracy of the inpainting model and reduce the processing load.
  • FIG. 11 is a diagram showing a model for explaining the first specific example of the anomaly detection system of the present invention.
  • FIG. 12 is a diagram for explaining a first specific example of the anomaly detection system of the present invention.
  • an example is shown in which anomaly detection is performed by fixing a mask to a moving inspection object.
  • an object to be inspected 1102 flowing on a belt conveyor 1103 is imaged using a camera 1101 fixed from above.
  • a camera 1101 corresponds to the sensor 102 shown in FIGS. 2, 3, and 6, and shoots an object 1102 to be inspected from above.
  • a plurality of inspection objects 1102 are moving on the belt conveyor 1103 in the direction of the arrow (from the right to the left) at intervals. At this time, the angle of view of the camera 1101 is fixed, and the inspection object 1102 passes through the angle of view of the camera 1101 in the horizontal direction.
  • Examples of the inspection object 1102 can be applied to various objects that are assumed to move, such as industrial products, food, and transportation items such as cardboard.
  • a fixed inspection target 1302 is photographed using a camera 1301 that moves in the direction of the arrow (from left to right).
  • a camera 1301 corresponds to the sensor 102 shown in FIGS. 2, 3, and 6, and shoots an object 1302 to be inspected from above.
  • the camera 1301 has a moving mechanism capable of moving in parallel with the inspection object 1302 .
  • the angle of view of the camera 1301 is fixed, and the inspection object 1302 passes through the angle of view of the camera 1301 in the horizontal direction.
  • the mask 1405 area in the input image 1410 is fixed to the width B (the width in the direction perpendicular to the direction of travel) of the inspection object 1302 or wider. That is, the position and size of the mask 1405 area in the input image 1410 are constant. Also, the width of the mask 1405 in the traveling direction of the camera 1301 is set to be equal to or greater than the length of movement of the camera 1301 in one frame. This makes it possible to inspect the entire area of the inspection target by photographing while moving the camera 1301 .
  • the inspection object 1302 is particularly effective for fixed objects such as long objects such as electric wires and large objects. Also, when it is desired to investigate the entire circumference of a cross section perpendicular to the direction of travel, it is possible to use a plurality of cameras arranged in the circumferential direction of the cross section or a mirror that captures the circumferential direction.
  • the input signal used for anomaly detection is not limited to one signal.
  • a portion of the time-series continuous signal may be input to the inpainting model as a mask region to perform anomaly detection.
  • FIG. 15 illustrates an example of application to time-series data.
  • moving image data is taken as an example of time-series data.
  • an image group in which a mask is superimposed on some frames is input to the inpainting model 1530 .
  • the inpainting model 1530 reconstruction is performed according to the inpainting method, and an image group of the same number of frames as the input frames is generated.
  • reconstructed frames 1540-1 through 1540-n are generated.
  • masked reconstructed frame 1540-2 is reconstructed.
  • the error between the reconstructed frame 1540-2 corresponding to the mask-superimposed frame and the original frame 1510-2 is calculated to determine whether the relevant frame contains an abnormal portion.
  • a threshold value is set for determination, and if there is an error of a certain value or more, it is determined that there is an abnormal portion.
  • the threshold in this case can be applied in the same manner as in FIG. FIG. 15 shows a binarized error image 1550 with a difference range.
  • Skeleton detection may also be used as an application example. For example, the skeletal coordinates of a person are estimated for each frame of a moving image. A portion of the result is then masked to reconstruct the skeletal coordinates for the frame at the masked time. In this way, abnormal behavior may be detected from the error between the estimated skeletal coordinates and the reconstructed skeletal coordinates.
  • moving images are used as time-series data, but sensor data such as vibration, voltage, and sound may also be used.
  • sensor data such as vibration, voltage, and sound
  • part of the waveform data at a certain time is masked and reconstructed. Then, an abnormality can be detected from the error between the reconstructed signal and the input signal. For example, when there is a peak, an abnormality can be detected.
  • the processor unit of the analysis server 101 shown in FIG. 3 executes the program loaded from the auxiliary storage unit 207 to the main storage unit to activate the anomaly detection system.
  • the anomaly detection system may allow the user to check the results through a GUI (Graphical User Interface), or may notify and confirm only the presence or absence of the judged anomaly.
  • step 1603 it is determined whether or not the end command has been executed. If the termination command is executed, the image analysis system is terminated. If not, go to step 1604 .
  • the end command may be a keyboard operation or a GUI operation.
  • the mask generation unit 202 adjusts and selects the mask.
  • the mask size may be fixed and set in step 1601 so that all masks are used.
  • the mask may be adjusted so as to cover a part of the inspection target area. Alternatively, a sufficient region may be selected to mask the portion where the object to be inspected is assumed to be by background subtraction, template matching, optical flow, or the like.
  • step 1605 the mask superimposing unit 203 superimposes one of the masks determined in step 1604 on the input signal.
  • step 1606 the signal reconstructing unit 204 inputs the mask-superimposed signal to the inpaint model to reconstruct the signal.
  • step 1607 the error between the input signal and the signal reconstructed in step 1606 is calculated by the abnormality determination unit 205.
  • step 1608 the abnormality determination unit 205 determines whether the error calculated in step 1607 is larger than the error threshold determined in step 1601. If the condition is satisfied, proceed to step 1609; otherwise, proceed to step 1610.
  • step 1609 the abnormality determination unit 205 determines that the area superimposed with the mask is an abnormal portion.
  • step 1610 the abnormality determination unit 205 determines whether or not all the masks selected in step 1604 have been determined. If the condition is satisfied, the process proceeds to step 1612; otherwise, the process proceeds to step 1611.
  • step 1611 the mask used in the mask superimposing unit 203 is changed. Based on the results of the setting in step 1601 and the adjustment/selection in step 1604, the next mask that has not been used is determined, and the process returns to step 1605.
  • FIG. 1611 the mask used in the mask superimposing unit 203 is changed. Based on the results of the setting in step 1601 and the adjustment/selection in step 1604, the next mask that has not been used is determined, and the process returns to step 1605.
  • step 1612 the output control unit 206 notifies the user of the abnormal portion.
  • the occurrence notification may be made on the GUI, or the event occurrence notification may be delivered to the small terminal.
  • the process proceeds to step 1602 to read the next input signal.
  • the present invention is not limited to the above examples, and includes various modifications. For example, it is not limited to those having all the configurations provided in the above-described embodiments. It is also possible to delete part of the configuration of one embodiment, replace it with the configuration of another embodiment, or add the configuration of another embodiment to the configuration of one embodiment.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

The purpose of the present invention is to provide an abnormality detection system that can detect an abnormal portion with higher accuracy using a DL model. The abnormality detection system comprises: a signal acquisition unit (201) for acquiring an input signal from a sensor; a mask generation unit (202) for generating a mask to be superimposed on the input signal; a mask superimposition unit (203) for generating a masked signal by superimposing, on the input signal, the mask generated by the mask generation unit (202); a signal reconstruction unit (204) for generating a reconstructed signal by reconstructing the masked signal generated by the mask superimposition unit (203); and an abnormality determination unit (205) for determining whether or not the input signal includes an abnormal portion on the basis of an error, in a mask region, between the input signal and the reconstructed signal. The signal reconstruction unit (204) reconstructs a region that is masked by using a deep learning model obtained by performing training using normal input signals.

Description

異常検知システムAnomaly detection system
 本発明は異常検知システムに関し、特に、ディープラーニングなどのAI技術を用いた異常検知システムに関する。 The present invention relates to an anomaly detection system, and more particularly to an anomaly detection system using AI technology such as deep learning.
 時系列信号や画像を入力とした異常検知・予測・属性識別などのタスクに対して、ディープラーニング(Deep Learning(DL))などのAI(人工知能)の適用が進んでいる。このような機能を製品・システムに組み込むことで人の仕事を代替し人件費の削減・商品の付加価値向上を図ることができ、製品・システムの販売促進に寄与する。このため、多くの企業がAIに対し高い関心を抱いている。 The application of AI (artificial intelligence) such as deep learning (DL) is progressing for tasks such as anomaly detection, prediction, and attribute identification that use time-series signals and images as input. By incorporating such functions into products and systems, it is possible to reduce labor costs and improve the added value of products by substituting human work, contributing to sales promotion of products and systems. For this reason, many companies have a high interest in AI.
 DLを用いた公知の異常検知方法の一つとしてオートエンコーダ(AutoEncoder)が挙げられる。オートエンコーダはニューラルネットワークを用いて入力信号の特徴を抽出し、抽出した特徴を用いて入力信号との誤差が0になるような信号を復元(再構築)することを目的とする。学習は教師なし学習で行われ、任意の正常な入力信号とオートエンコーダを用いて再構築した信号との誤差が0になるようにパラメータを学習する。運用時には入力信号と学習済みDLモデル(ニューラルネットワークとパラメータの集合)を用いて特徴抽出・再構築した信号との誤差をもとに、入力信号が異常部分を含むかどうかを判定する。異常部分を含む入力信号の場合、異常部分は正しく再構築されず入力信号と再構築信号との誤差が大きくなり、入力信号は異常部分を含むと判定される。 AutoEncoder is one of known anomaly detection methods using DL. An autoencoder uses a neural network to extract features of an input signal, and uses the extracted features to restore (reconstruct) a signal such that the error with respect to the input signal is zero. Learning is performed by unsupervised learning, and parameters are learned so that the error between an arbitrary normal input signal and a signal reconstructed using an autoencoder becomes zero. During operation, based on the error between the input signal and the signal extracted and reconstructed using the trained DL model (neural network and set of parameters), it is determined whether the input signal contains an abnormal portion. In the case of an input signal containing an abnormal portion, the abnormal portion is not reconstructed correctly, and the error between the input signal and the reconstructed signal becomes large, and the input signal is determined to contain an abnormal portion.
 実用上は正常部分のみを含む未知の入力信号に対しても誤差が0となるような信号を再構築する汎化性能が求められる。例えばカメラで屋外の公共インフラ設備を異常検知でチェックするシステムの場合、天候・時間帯の違い等で撮影環境の異なる可能性がある。この場合、学習時の入力信号(学習データ)収集時の撮影環境と、実際の撮影時の撮影環境が大きく異なる可能性がある。すると、異常でない状態を異常と判定する誤検知の可能性が高まり、精度低下の原因となる。そのため、一般的に学習データは様々な環境で取得し多様性を有していることが望ましい。 In practice, generalization performance is required to reconstruct a signal with zero error even for an unknown input signal that contains only normal parts. For example, in the case of a system that uses cameras to check outdoor public infrastructure facilities by detecting anomalies, the shooting environment may differ due to differences in weather and time of day. In this case, there is a possibility that the shooting environment during acquisition of input signals (learning data) during learning and the shooting environment during actual shooting may differ greatly. As a result, the possibility of erroneous detection of a non-abnormal state as abnormal increases, causing a decrease in accuracy. Therefore, it is generally desirable that learning data be acquired in various environments and have diversity.
 一方、特許文献1には、撮影手段から取り込まれた映像から監視エリアに発生した物体の領域と画素値を抽出し、画角と映像内の位置ごとに設定された判定基準に基づいて、取得された物体の領域と画素値をブロックに分割して局所特徴量から、物体の種別を識別し、物体の種別の情報から映像内に発生した障害物の有無を検知する障害検知システムが記載されている。 On the other hand, in Patent Document 1, the region and pixel value of an object generated in a monitoring area are extracted from the image captured by the photographing means, and based on the determination criteria set for each angle of view and position in the image, acquisition describes an obstacle detection system that divides the object area and pixel values into blocks, identifies the type of the object from the local feature amount, and detects the presence or absence of an obstacle that has occurred in the image from the information on the type of the object. ing.
特開2019―124986号公報JP 2019-124986 A
 しかし、多様性のある学習データで学習してDLモデルが汎化性能を有している場合、運用時に異常部分を含む入力信号に対して異常部分も誤差なく再構築される。これにより、入力信号と再構築信号との誤差が小さくなり異常が検知できない問題が発生する。この問題は多様性のある学習データに異常部分の特徴と同様の特徴が存在することで、異常部分も正常部分として再構築することが可能になるため発生すると考えられる。 However, if the DL model has generalization performance after learning with diverse learning data, the abnormal part can be reconstructed without error for the input signal containing the abnormal part during operation. As a result, the error between the input signal and the reconstructed signal becomes small, causing a problem that the abnormality cannot be detected. This problem is considered to occur because the learning data with diversity has features similar to the features of the abnormal part, so that the abnormal part can be reconstructed as a normal part.
 また、特許文献1では、局所特徴量を用いており、この局所特徴量はあらかじめの学習等によって抽出する必要があるため学習時の環境の影響を受ける可能性が生じる。 In addition, in Patent Document 1, a local feature amount is used, and since this local feature amount needs to be extracted by prior learning, etc., there is a possibility that it will be affected by the environment during learning.
 本発明は上記課題に鑑みて、DLモデルを用いて、より高精度に異常部分の検知が可能な異常検知システムを提供することを目的とする。 In view of the above problems, it is an object of the present invention to provide an anomaly detection system that can detect anomalous parts with higher accuracy using a DL model.
 上記目的を達成するため、代表的な本発明の異常検知システムの一つは、センサから入力信号を取得する信号取得部と、前記入力信号に重畳するマスクを生成するマスク生成部と、前記入力信号に前記マスク生成部で生成したマスクを重畳してマスク済み信号を生成するマスク重畳部と、前記マスク重畳部で生成したマスク済み信号を再構築して再構築信号を生成する信号再構築部と、前記入力信号と前記再構築信号とのマスク領域内での誤差(例えば二乗誤差、SNR、PSNR、SSIM、その他公知の特徴量)をもとに前記入力信号が異常部分を含むかどうかを判定する異常判定部と、を備え、前記信号再構築部は、正常な入力信号を用いて学習したディープラーニングモデルを使用してマスクした領域を再構築することを特徴とする。 In order to achieve the above object, one typical anomaly detection system of the present invention includes a signal acquisition unit that acquires an input signal from a sensor, a mask generation unit that generates a mask superimposed on the input signal, the input A mask superimposing unit that superimposes a mask generated by the mask generating unit on a signal to generate a masked signal, and a signal reconstructing unit that reconstructs the masked signal generated by the mask superimposing unit to generate a reconstructed signal. and determining whether the input signal includes an abnormal portion based on the error (for example, squared error, SNR, PSNR, SSIM, and other known feature amounts) between the input signal and the reconstructed signal within the mask region. and an anomaly determination unit for determining, wherein the signal reconstruction unit reconstructs the masked region using a deep learning model trained using a normal input signal.
 本発明によれば、異常検知システムにおいて、DLモデルを用いて、より高精度に異常部分の検知が可能となる。
 上記以外の課題、構成及び効果は、以下の実施形態により明らかにされる。
According to the present invention, in an anomaly detection system, an anomaly can be detected with higher accuracy using a DL model.
Problems, configurations, and effects other than those described above will be clarified by the following embodiments.
図1は、本発明の実施形態による態様を実施するためのコンピュータシステムのブロック図である。FIG. 1 is a block diagram of a computer system for implementing aspects according to embodiments of the invention. 図2は、本発明の異常検知システムの一実施形態を示すブロック図である。FIG. 2 is a block diagram showing one embodiment of the anomaly detection system of the present invention. 図3は、本発明の異常検知システムの解析サーバの一例を示す機能ブロック図である。FIG. 3 is a functional block diagram showing an example of an analysis server of the anomaly detection system of the present invention. 図4は、本発明の異常検知システムの異常検知方法の学習時の一例を説明する図である。FIG. 4 is a diagram for explaining an example of the learning of the anomaly detection method of the anomaly detection system of the present invention. 図5は、本発明の異常検知システムの異常検知方法の運用時の一例を説明する図である。FIG. 5 is a diagram for explaining an example of operation of the anomaly detection method of the anomaly detection system of the present invention. 図6は、本発明の異常検知システムの処理の一例を説明する図である。FIG. 6 is a diagram for explaining an example of processing of the anomaly detection system of the present invention. 図7は、本発明の異常検知システムのマスク済み信号の数を少なくするマスクの一例を説明する図である。FIG. 7 is a diagram illustrating an example of masks for reducing the number of masked signals in the anomaly detection system of the present invention. 図8は、本発明の異常検知システムにおける背景差分法を用いたマスクの選定方法の一例を説明するためのモデルを示す図である。FIG. 8 is a diagram showing a model for explaining an example of a mask selection method using the background subtraction method in the anomaly detection system of the present invention. 図9は、本発明の異常検知システムにおける背景差分法を用いたマスクの選定方法の一例を説明する図である。FIG. 9 is a diagram illustrating an example of a mask selection method using the background subtraction method in the anomaly detection system of the present invention. 図10は、本発明の異常検知システムにおける物体検知結果を用いたマスクの調整方法の一例を説明する図である。FIG. 10 is a diagram illustrating an example of a mask adjustment method using object detection results in the anomaly detection system of the present invention. 図11は、本発明の異常検知システムの第1の具体例を説明するためのモデルを示す図である。FIG. 11 is a diagram showing a model for explaining the first specific example of the anomaly detection system of the present invention. 図12は、本発明の異常検知システムの第1の具体例を説明する図である。FIG. 12 is a diagram for explaining a first specific example of the anomaly detection system of the present invention. 図13は、本発明の異常検知システムの第2の具体例を説明するためのモデルを示す図である。FIG. 13 is a diagram showing a model for explaining a second specific example of the anomaly detection system of the present invention. 図14は、本発明の異常検知システムの第2の具体例を説明する図である。FIG. 14 is a diagram for explaining a second specific example of the anomaly detection system of the present invention. 図15は、本発明の異常検知システムの時系列データへの適用例を説明する図である。FIG. 15 is a diagram illustrating an example of application of the anomaly detection system of the present invention to time-series data. 図16は、本発明の異常検知システムの処理フローチャートの一例である。FIG. 16 is an example of a processing flowchart of the anomaly detection system of the present invention.
 本発明を実施するための形態を、図面を参照して説明する。 A mode for carrying out the present invention will be described with reference to the drawings.
<実施形態を実施するハードウェアの例>
 図1は、本発明の実施形態による態様を実施するためのコンピュータシステム1のブロック図である。本明細書で開示される様々な実施形態の機構及び装置は、任意の適切なコンピューティングシステムに適用されてもよい。
<Example of hardware for implementing the embodiment>
FIG. 1 is a block diagram of a computer system 1 for implementing aspects according to embodiments of the invention. The mechanisms and apparatus of various embodiments disclosed herein may be applied to any suitable computing system.
 コンピュータシステム1の主要コンポーネントは、1つ以上のプロセッサ2、メモリ4、端末インターフェースユニット12、ストレージインターフェースユニット14、I/O(入出力)デバイスインターフェースユニット16、及びネットワークインターフェース18を含む。これらのコンポーネントは、メモリバス6、I/Oバス8、バスインターフェースユニット9、及びI/Oバスインターフェースユニット10を介して、相互的に接続されてもよい。 The main components of the computer system 1 include one or more processors 2, memory 4, terminal interface units 12, storage interface units 14, I/O (input/output) device interface units 16, and network interfaces 18. These components may be interconnected via memory bus 6 , I/O bus 8 , bus interface unit 9 and I/O bus interface unit 10 .
 コンピュータシステム1は、プロセッサ2と総称される1つ又は複数の処理装置2A及び2Bを含んでもよい。各プロセッサ2は、メモリ4に格納された命令を実行し、オンボードキャッシュを含んでもよい。ある実施形態では、コンピュータシステム1は複数のプロセッサを備えてもよく、また別の実施形態では、コンピュータシステム1は単一の処理装置によるシステムであってもよい。処理装置としては、CPU(Central Processing Unit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processong Unit)、DSP(Digital Signal Processor)等を適用できる。 The computer system 1 may include one or more processing units 2A and 2B, collectively referred to as processors 2. Each processor 2 executes instructions stored in memory 4 and may include an on-board cache. In some embodiments, computer system 1 may include multiple processors, and in other embodiments, computer system 1 may be a single processing unit system. As the processing device, CPU (Central Processing Unit), FPGA (Field-Programmable Gate Array), GPU (Graphics Processing Unit), DSP (Digital Signal Processor), etc. can be applied.
 ある実施形態では、メモリ4は、データ及びプログラムを記憶するためのランダムアクセス半導体メモリ、記憶装置、又は記憶媒体(揮発性又は不揮発性のいずれか)を含んでもよい。ある実施形態では、メモリ4は、コンピュータシステム1の仮想メモリ全体を表しており、ネットワークを介してコンピュータシステム1に接続された他のコンピュータシステムの仮想メモリを含んでもよい。メモリ4は、概念的には単一のものとみなされてもよいが、他の実施形態では、メモリ4は、キャッシュおよび他のメモリデバイスの階層など、より複雑な構成となる場合がある。例えば、メモリは複数のレベルのキャッシュとして存在し、これらのキャッシュは機能毎に分割されてもよい。その結果、1つのキャッシュは命令を保持し、他のキャッシュはプロセッサによって使用される非命令データを保持する構成であってもよい。メモリは、いわゆるNUMA(Non-Uniform Memory Access)コンピュータアーキテクチャのように、分散され、種々の異なる処理装置に関連付けられてもよい。 In some embodiments, memory 4 may include random access semiconductor memory, storage devices, or storage media (either volatile or non-volatile) for storing data and programs. In some embodiments, memory 4 represents the entire virtual memory of computer system 1 and may include the virtual memory of other computer systems connected to computer system 1 via a network. Although memory 4 may conceptually be considered a single entity, in other embodiments memory 4 may be a more complex arrangement, such as a hierarchy of caches and other memory devices. For example, memory may exist as multiple levels of caches, and these caches may be partitioned by function. As a result, one cache may hold instructions and another cache may hold non-instruction data used by the processor. The memory may be distributed and associated with various different processing units, such as in the so-called NUMA (Non-Uniform Memory Access) computer architecture.
 メモリ4は、本明細書で説明する機能を実施するプログラム、モジュール、及びデータ構造のすべて又は一部を格納してもよい。例えば、メモリ4は、潜在因子特定アプリケーション50を格納していてもよい。ある実施形態では、潜在因子特定アプリケーション50は、後述する機能をプロセッサ2上で実行する命令又は記述を含んでもよく、あるいは別の命令又は記述によって解釈される命令又は記述を含んでもよい。ある実施形態では、潜在因子特定アプリケーション50は、プロセッサベースのシステムの代わりに、またはプロセッサベースのシステムに加えて、半導体デバイス、チップ、論理ゲート、回路、回路カード、および/または他の物理ハードウェアデバイスを介してハードウェアで実施されてもよい。ある実施形態では、潜在因子特定アプリケーション50は、命令又は記述以外のデータを含んでもよい。ある実施形態では、カメラ、センサ、または他のデータ入力デバイス(図示せず)が、バスインターフェースユニット9、プロセッサ2、またはコンピュータシステム1の他のハードウェアと直接通信するように提供されてもよい。このような構成では、プロセッサ2がメモリ4及び潜在因子識別アプリケーションにアクセスする必要性が低減する可能性がある。 Memory 4 may store all or part of the programs, modules, and data structures that implement the functions described herein. For example, memory 4 may store latent factor identification application 50 . In some embodiments, latent agent identification application 50 may include instructions or descriptions that perform the functions described below on processor 2, or may include instructions or descriptions that are interpreted by other instructions or descriptions. In some embodiments, latent factor identification application 50 may be implemented in semiconductor devices, chips, logic gates, circuits, circuit cards, and/or other physical hardware instead of or in addition to processor-based systems. It may be implemented in hardware via a device. In some embodiments, latent agent identification application 50 may include data other than instructions or descriptions. In some embodiments, a camera, sensor, or other data input device (not shown) may be provided in direct communication with bus interface unit 9, processor 2, or other hardware of computer system 1. . Such a configuration may reduce the need for processor 2 to access memory 4 and the latent factor identification application.
 コンピュータシステム1は、プロセッサ2、メモリ4、表示システム24、及びI/Oバスインターフェースユニット10間の通信を行うバスインターフェースユニット9を含んでもよい。I/Oバスインターフェースユニット10は、様々なI/Oユニットとの間でデータを転送するためのI/Oバス8と連結していてもよい。I/Oバスインターフェースユニット10は、I/Oバス8を介して、I/Oプロセッサ(IOP)又はI/Oアダプタ(IOA)としても知られる複数のI/Oインターフェースユニット12、14、16、及び18と通信してもよい。表示システム24は、表示コントローラ、表示メモリ、又はその両方を含んでもよい。表示コントローラは、ビデオ、オーディオ、又はその両方のデータを表示装置26に提供することができる。また、コンピュータシステム1は、データを収集し、プロセッサ2に当該データを提供するように構成された1つまたは複数のセンサ等のデバイスを含んでもよい。例えば、コンピュータシステム1は、湿度データ、温度データ、圧力データ等を収集する環境センサ、及び加速度データ、運動データ等を収集するモーションセンサ等を含んでもよい。これ以外のタイプのセンサも使用可能である。バスインターフェースユニット9が提供する機能は、プロセッサ2を含む集積回路によって実現されてもよい。 The computer system 1 may include a bus interface unit 9 that provides communication between the processor 2 , memory 4 , display system 24 and I/O bus interface unit 10 . I/O bus interface unit 10 may be coupled to I/O bus 8 for transferring data to and from various I/O units. I/O bus interface unit 10 connects via I/O bus 8 to a plurality of I/ O interface units 12, 14, 16, also known as I/O processors (IOPs) or I/O adapters (IOAs). and 18. Display system 24 may include a display controller, a display memory, or both. The display controller can provide video, audio, or both data to display device 26 . Computer system 1 may also include devices such as one or more sensors configured to collect data and provide such data to processor 2 . For example, computer system 1 may include environmental sensors that collect humidity data, temperature data, pressure data, etc., and motion sensors that collect acceleration data, motion data, etc., and the like. Other types of sensors can also be used. The functions provided by bus interface unit 9 may be implemented by an integrated circuit including processor 2 .
 I/Oインターフェースユニットは、様々なストレージ又はI/Oデバイスと通信する機能を備える。例えば、端末インターフェースユニット12は、ビデオ表示装置、スピーカテレビ等のユーザ出力デバイスや、キーボード、マウス、キーパッド、タッチパッド、トラックボール、ボタン、ライトペン、又は他のポインティングデバイス等のユーザ入力デバイスのようなユーザI/Oデバイス20の取り付けが可能である。ユーザは、ユーザインターフェースを使用して、ユーザ入力デバイスを操作することで、ユーザI/Oデバイス20及びコンピュータシステム1に対して入力データや指示を入力し、コンピュータシステム1からの出力データを受け取ってもよい。ユーザインターフェースは例えば、ユーザI/Oデバイス20を介して、表示装置に表示されたり、スピーカによって再生されたり、プリンタを介して印刷されたりしてもよい。 The I/O interface unit has the function of communicating with various storage or I/O devices. For example, the terminal interface unit 12 may include user output devices such as video displays, speaker televisions, etc., and user input devices such as keyboards, mice, keypads, touch pads, trackballs, buttons, light pens, or other pointing devices. Such user I/O devices 20 can be attached. A user inputs input data and instructions to the user I/O device 20 and the computer system 1 by operating the user input device using the user interface, and receives output data from the computer system 1. good too. The user interface may be displayed on a display device, played by a speaker, or printed via a printer, for example, via the user I/O device 20 .
 ストレージインターフェースユニット14は、1つ又は複数のディスクドライブや直接アクセスストレージ装置22(通常は磁気ディスクドライブストレージ装置であるが、単一のディスクドライブとして見えるように構成されたディスクドライブのアレイ又は他のストレージ装置であってもよい)の取り付けが可能である。ある実施形態では、ストレージ装置22は、任意の二次記憶装置として実装されてもよい。メモリ4の内容は、ストレージ装置22に記憶され、必要に応じてストレージ装置22から読み出されてもよい。I/Oデバイスインターフェースユニット16は、プリンタ、ファックスマシン等の他のI/Oデバイスに対するインターフェースを提供してもよい。ネットワークインターフェース18は、コンピュータシステム1と他のデバイスが相互的に通信できるように、通信経路を提供してもよい。この通信経路は、例えば、ネットワーク30であってもよい。 The storage interface unit 14 may include one or more disk drives or direct access storage devices 22 (typically magnetic disk drive storage devices, but arrays of disk drives or other storage devices configured to appear as a single disk drive). device) can be attached. In some embodiments, storage device 22 may be implemented as any secondary storage device. The contents of the memory 4 may be stored in the storage device 22 and read from the storage device 22 as needed. I/O device interface unit 16 may provide an interface to other I/O devices such as printers, fax machines, and the like. Network interface 18 may provide a communication path so that computer system 1 and other devices may communicate with each other. This communication path may be, for example, network 30 .
 図1に示されるコンピュータシステム1は、プロセッサ2、メモリ4、バスインターフェースユニット9、表示システム24、及びI/Oバスインターフェースユニット10の間の直接通信経路を提供するバス構造を備えているが、他の実施形態では、コンピュータシステム1は、階層構成、スター構成、又はウェブ構成のポイントツーポイントリンク、複数の階層バス、平行又は冗長の通信経路を含んでもよい。さらに、I/Oバスインターフェースユニット10及びI/Oバス8が単一のユニットとして示されているが、実際には、コンピュータシステム1は複数のI/Oバスインターフェースユニット10又は複数のI/Oバス8を備えてもよい。また、I/Oバス8を様々なI/Oデバイスに繋がる各種通信経路から分離するための複数のI/Oインターフェースユニットが示されているが、他の実施形態では、I/Oデバイスの一部または全部が、1つのシステムI/Oバスに直接接続されてもよい。 The computer system 1 shown in FIG. 1 includes a bus structure that provides a direct communication path between processor 2, memory 4, bus interface unit 9, display system 24, and I/O bus interface unit 10; In other embodiments, computer system 1 may include hierarchical, star, or web configurations of point-to-point links, multiple hierarchical buses, parallel or redundant communication paths. Further, although I/O bus interface unit 10 and I/O bus 8 are shown as a single unit, in practice computer system 1 may include multiple I/O bus interface units 10 or multiple I/O buses. A bus 8 may be provided. Also, although multiple I/O interface units are shown for isolating the I/O bus 8 from the various communication paths leading to the various I/O devices, in other embodiments, one of the I/O devices Some or all may be directly connected to one system I/O bus.
 ある実施形態では、コンピュータシステム1は、マルチユーザメインフレームコンピュータシステム、シングルユーザシステム、又はサーバコンピュータ等の、直接的ユーザインターフェースを有しない、他のコンピュータシステム(クライアント)からの要求を受信するデバイスであってもよい。他の実施形態では、コンピュータシステム1は、デスクトップコンピュータ、携帯型コンピュータ、ノートパソコン、タブレットコンピュータ、ポケットコンピュータ、電話、スマートフォン、又は任意の他の適切な電子機器であってもよい。 In some embodiments, computer system 1 is a device that receives requests from other computer systems (clients) that do not have a direct user interface, such as multi-user mainframe computer systems, single-user systems, or server computers. There may be. In other embodiments, computer system 1 may be a desktop computer, handheld computer, laptop, tablet computer, pocket computer, phone, smart phone, or any other suitable electronic device.
<全体構成例>
 図2は、本発明の異常検知システムの一実施形態を示すブロック図である。
<Overall configuration example>
FIG. 2 is a block diagram showing one embodiment of the anomaly detection system of the present invention.
 図2に示す異常検知システムは、解析サーバ101、センサ102、データベースサーバ103を備えている。ここで、解析サーバ101、センサ102、データベースサーバ103の各々は、ネットワーク104を介して接続されている。 The anomaly detection system shown in FIG. 2 includes an analysis server 101, a sensor 102, and a database server 103. Here, analysis server 101 , sensor 102 , and database server 103 are each connected via network 104 .
 解析サーバ101はCPU等のプロセッサを備えた電子計算機システムにより構成される。プロセッサは、CPUの他に、DSP、FPGA、GPUなどを備えていてもよい。解析サーバ101では、後述する処理を行う。 The analysis server 101 is composed of an electronic computer system equipped with a processor such as a CPU. The processor may include a DSP, FPGA, GPU, etc. in addition to the CPU. The analysis server 101 performs processing to be described later.
 センサ102はカメラ、加速度センサ、温度センサなど、信号データを継続的に取得する機器である。これらを複数組み合わせて信号を取得してもよい。カメラの場合、例えば、レンズや絞りを介して撮像素子に入射光を結像して情報を得るカメラの構成を適用できる。ここでの撮像素子の例としては、CCD(Charge-Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等があげられる。カメラは、画像や映像を撮影可能であり、例えば、1秒間に3フレーム(3fps)以上等で撮影して、その情報は、解析サーバ101やデータベースサーバ103へ送られる。カメラは、状況に応じて複数設置可能である。 The sensor 102 is a device that continuously acquires signal data, such as a camera, acceleration sensor, temperature sensor, and the like. A signal may be acquired by combining a plurality of these. In the case of a camera, for example, a configuration of a camera that obtains information by forming an image of incident light on an imaging device via a lens or a diaphragm can be applied. Examples of the imaging device here include a CCD (Charge-Coupled Device) image sensor and a CMOS (Complementary Metal Oxide Semiconductor) image sensor. The camera can capture images and videos, for example, at 3 frames per second (3 fps) or more, and the information is sent to the analysis server 101 and the database server 103 . A plurality of cameras can be installed depending on the situation.
 データベースサーバ103は、記憶装置を備えたデータベースサーバである。解析サーバ101の解析に必要な情報やセンサ102で取得した情報を記録しておくことができる。また、解析サーバ101で解析した結果を記録しておくことができる。 The database server 103 is a database server equipped with a storage device. Information required for analysis by the analysis server 101 and information acquired by the sensor 102 can be recorded. Also, the results of analysis performed by the analysis server 101 can be recorded.
 ネットワーク104は各サーバを結ぶデータ通信可能な回線である。専用線、イントラネット、インターネット等のIPネットワーク等、回線の種類は問わない。 A network 104 is a line capable of data communication that connects each server. Any type of line, such as a dedicated line, an intranet, an IP network such as the Internet, etc., does not matter.
 センサ102で取得した信号データは解析サーバ101にて解析され、異常検知の結果はデータベースサーバ103に記憶される。なお図2の構成は一例であり、他の構成も適用可能である。例えば、センサ102と一体で解析サーバ101の機能を備え、そこで異常検知システムの処理を行う等である。また、データベースサーバ103の記憶装置も、センサ102と一体また、解析サーバ101と一体としてもよい。 The signal data acquired by the sensor 102 is analyzed by the analysis server 101, and the result of abnormality detection is stored in the database server 103. Note that the configuration in FIG. 2 is an example, and other configurations are also applicable. For example, the function of the analysis server 101 is integrated with the sensor 102, and the processing of the abnormality detection system is performed there. Also, the storage device of the database server 103 may be integrated with the sensor 102 or integrated with the analysis server 101 .
<解析サーバの一例>
 図3は、本発明の異常検知システムの解析サーバの一例を示す機能ブロック図である。図3を用いて解析サーバ101の機能ブロックを説明する。
<Example of analysis server>
FIG. 3 is a functional block diagram showing an example of an analysis server of the anomaly detection system of the present invention. Functional blocks of the analysis server 101 will be described with reference to FIG.
 解析サーバ101は信号取得部201、マスク生成部202、マスク重畳部203、信号再構築部204、異常判定部205、出力制御部206、補助記憶部207を備えている。 The analysis server 101 includes a signal acquisition section 201 , a mask generation section 202 , a mask superimposition section 203 , a signal reconstruction section 204 , an abnormality determination section 205 , an output control section 206 and an auxiliary storage section 207 .
 補助記憶部207は、センサ102から入力された信号を保存する。また、補助記憶部207には、設定パラメータ等の必要な情報を保持している。補助記憶部207は通常、HDD(Hard Disk Drive)やフラッシュメモリなどの不揮発性メモリで構成され、解析サーバ101が実行するプログラムやプログラムが処理対象とするデータ等を記憶する。補助記憶部207からの信号は、信号取得部201、マスク生成部202、出力制御部206に出力する。 The auxiliary storage unit 207 stores the signal input from the sensor 102 . Further, the auxiliary storage unit 207 holds necessary information such as setting parameters. The auxiliary storage unit 207 is usually composed of a non-volatile memory such as an HDD (Hard Disk Drive) or flash memory, and stores programs executed by the analysis server 101 and data to be processed by the programs. A signal from the auxiliary storage unit 207 is output to the signal acquisition unit 201 , the mask generation unit 202 and the output control unit 206 .
 信号取得部201は、補助記憶部207から信号を取得する。取得した信号は、センサ102からの信号であり、ノイズやフリッカなどの影響を低減するために前処理を行ってもよい。ここでの前処理としては、例えば、平滑化フィルタや輪郭強調フィルタなどによる処理があげられる。また画像データの場合、用途に応じてRGBカラーやYUV、モノクロなどのデータ形式を選択してもよい。さらには処理コスト低減のために所定のサイズに縮小処理を施してもよい。これらの処理を施した信号はマスク重畳部203へ出力される。 The signal acquisition unit 201 acquires signals from the auxiliary storage unit 207 . The acquired signal is the signal from the sensor 102 and may be preprocessed to reduce the effects of noise, flicker, and the like. Examples of preprocessing here include processing using a smoothing filter, an edge enhancement filter, and the like. In the case of image data, a data format such as RGB color, YUV, or monochrome may be selected depending on the application. Furthermore, reduction processing may be performed to a predetermined size in order to reduce the processing cost. The signal subjected to these processes is output to mask superimposition section 203 .
 マスク生成部202は、補助記憶部207からマスクの設定パラメータを取得し複数のマスクを生成する。この際、補助記憶部207から信号を取得し後述する背景差分法等の前処理を実施することで使用するマスクを決定してもよい。生成されたマスクの信号はマスク重畳部203へ出力される。 The mask generation unit 202 acquires mask setting parameters from the auxiliary storage unit 207 and generates a plurality of masks. At this time, the mask to be used may be determined by acquiring a signal from the auxiliary storage unit 207 and performing preprocessing such as a background subtraction method described later. The signal of the generated mask is output to the mask superimposition section 203 .
 マスク重畳部203は、信号取得部201により得られた入力信号とマスク生成部202より生成された複数のマスクをそれぞれ重畳し、マスク済み信号を生成する。ここで、マスクをした部分は元の入力信号の情報は保持しない部分となる。マスク済み信号は、信号再構築部204へ出力される。 The mask superimposing unit 203 superimposes the input signal obtained by the signal acquiring unit 201 and a plurality of masks generated by the mask generating unit 202 to generate a masked signal. Here, the masked portion is a portion that does not retain the information of the original input signal. The masked signal is output to signal reconstruction section 204 .
 信号再構築部204、はマスク重畳部203により生成されたマスク済み信号の再構築を行う。この再構築により、マスクされた部分の信号が再構築される再構築信号が生成される。再構築は、インペインティング(Inpainting)などの信号の復元(補間)を行うことが可能なAI(人工知能)のDL(ディープラーニング)モデルに入力し行う。ディープラーニングは、ニューラルネットワークやパラメータの集合を用いた手法を適用できる。ここで、インペインティングは、画像にマスクをして、復元する技術のことを表し、そのためのモデルをインペインティングモデルという。インペインティングの具体的な一例として、イメージインペインティング(Image Inpainting)があげられる。例えば、イメージインペインティングとして非特許文献1の技術を用いてもよい。再構築された信号は、異常判定部205へ送られる。 The signal reconstruction unit 204 reconstructs the masked signal generated by the mask superimposition unit 203 . This reconstruction produces a reconstructed signal in which the masked portion of the signal is reconstructed. Reconstruction is performed by inputting to an AI (artificial intelligence) DL (deep learning) model capable of signal restoration (interpolation) such as inpainting. Deep learning can apply methods using neural networks and parameter sets. Here, inpainting refers to a technique of masking an image and restoring it, and a model for that purpose is called an inpainting model. A specific example of inpainting is image inpainting. For example, the technique of Non-Patent Document 1 may be used as image-in-painting. The reconstructed signal is sent to abnormality determination section 205 .
 異常判定部205は、信号取得部201により得られた信号と、信号再構築部204により再構築された信号との誤差を計算し、予め設定された閾値を用いて異常部分の有無を判定する。特にマスクした領域での誤差が閾値以上である場合は異常と判定できる。ここでの閾値は、信号の差が所定以上ある範囲がどの程度かという閾値を適用できる。また、誤差としては、例えば、二乗誤差、SNR(SN比(Signal-to-Noise Ratio))、PSNR(ピーク信号対雑音比(Peak Signal-to-Noise Ratio))、SSIM(Structural Similarity)、その他公知の特徴量等により評価することが可能である。判定結果は、出力制御部206へ出力される。 The abnormality determination unit 205 calculates the error between the signal obtained by the signal acquisition unit 201 and the signal reconstructed by the signal reconstruction unit 204, and determines the presence or absence of an abnormal portion using a preset threshold value. . In particular, if the error in the masked area is greater than or equal to the threshold, it can be determined as abnormal. As the threshold here, it is possible to apply a threshold that indicates the extent of the range in which the signal difference is greater than or equal to a predetermined value. Also, as errors, for example, squared error, SNR (Signal-to-Noise Ratio), PSNR (Peak Signal-to-Noise Ratio), SSIM (Structural Similarity), etc. It is possible to evaluate using a known feature amount or the like. A determination result is output to the output control unit 206 .
 出力制御部206は、異常判定部205から得られた異常判定の出力結果や補助記憶部207に保存された信号の情報等をデータベースサーバ103に出力する。 The output control unit 206 outputs to the database server 103 the output result of the abnormality determination obtained from the abnormality determination unit 205, the signal information stored in the auxiliary storage unit 207, and the like.
 以降ではセンサ102としてカメラ、センサ102から取得する信号として画像のデータ、信号の復元(補間)を行うことが可能なDLモデルとしてイメージインペインティングを基本とする例を説明する。 In the following, an example based on a camera as the sensor 102, image data as the signal acquired from the sensor 102, and image-in-painting as the DL model capable of restoring (interpolating) the signal will be described.
<異常検知の概要>
 図4は、本発明の異常検知システムの異常検知方法の学習時の一例を説明する図である。図5は、本発明の異常検知システムの異常検知方法の運用時の一例を説明する図である。図4、5を用いてイメージインペインティングを用いた異常検知方法の概要について述べる。
<Outline of anomaly detection>
FIG. 4 is a diagram for explaining an example of the learning of the anomaly detection method of the anomaly detection system of the present invention. FIG. 5 is a diagram for explaining an example of operation of the anomaly detection method of the anomaly detection system of the present invention. An outline of an anomaly detection method using image-in-painting will be described with reference to FIGS.
 図4に示すように学習時は、正常な入力信号(正常な検査対象301が映る画像)である入力画像310を用いる。この入力画像310に対して、マスク305を重畳してマスク済み信号であるマスク済み画像320を生成する。ここで、マスク済み画像320のマスク305の位置はランダムに重畳していく。マスク305はこの部分の元の画像の情報が残らないように黒や白などの単色のマスクを適用できる。そして、イメージインペインティング330を用いてマスク済み画像320をマスクなしの状態に再構築(復元)して再構築画像340を作成する。この再構築画像340とマスクをしていない入力画像310との比較を行う。特に入力画像310に対してマスク305をした領域内の比較を行い、正常な入力画像を再構築するように学習する。このとき、損失関数を計算し、誤差なく再構築するための特徴抽出・信号再構築パラメータを学習する。このようにして、事前に機械学習を行い、DLモデルであるインペインティングモデルを生成する。 As shown in FIG. 4, during learning, an input image 310 that is a normal input signal (an image showing a normal inspection target 301) is used. A mask 305 is superimposed on this input image 310 to generate a masked image 320 which is a masked signal. Here, the position of the mask 305 on the masked image 320 is randomly superimposed. As the mask 305, a monochrome mask such as black or white can be applied so that the information of the original image in this portion is not left. Then, using image-in-painting 330 , the masked image 320 is reconstructed (restored) to an unmasked state to create a reconstructed image 340 . A comparison is made between this reconstructed image 340 and the unmasked input image 310 . In particular, the input image 310 is compared within the masked area 305 to learn to reconstruct a normal input image. At this time, a loss function is calculated, and feature extraction/signal reconstruction parameters for error-free reconstruction are learned. In this way, machine learning is performed in advance to generate an inpainting model, which is a DL model.
 図5では、運用時の異常検知について説明する。上側が検査対象401に異常がない場合の説明で、下側が検査対象501に異常502がある場合の説明である。運用時には、カメラ(センサ102)から取得した信号に対してマスクを重畳し、インペインティングモデルに入力する。インペインティングモデルで再構築された信号とマスクなしの入力信号のマスク領域での誤差をもとに、入力信号が異常部分を含むかどうかを判定する。異常部分に対してマスクが重なった場合、異常部分であるにもかかわらず正常部分であるかのように再構築されるため、入力信号と再構築信号との誤差が大きくなる。 Fig. 5 explains anomaly detection during operation. The upper side shows the case where the inspection object 401 has no abnormality, and the lower side shows the case where the inspection object 501 has an abnormality 502 . During operation, a mask is superimposed on the signal acquired from the camera (sensor 102) and input to the inpainting model. Based on the error in the masked area between the signal reconstructed by the inpainting model and the input signal without masking, it is determined whether the input signal contains abnormal portions. When the mask overlaps the abnormal portion, the error between the input signal and the reconstructed signal increases because the abnormal portion is reconstructed as if it were a normal portion.
 図5の上側の検査対象401に異常がない場合について説明する。入力画像410に対してマスク405を重畳したマスク済み画像420を生成し、イメージインペインティング430の処理を行い、再構築画像440を生成する。そして、入力画像410と再構築画像440を比較し、マスク405の領域の誤差を計算する。ここで、マスク405の領域に異常がないため、マスク405の領域での誤差は小さい結果となる。 A case where there is no abnormality in the inspection target 401 on the upper side of FIG. 5 will be described. A masked image 420 is generated by superimposing a mask 405 on an input image 410 , image-in-painting 430 processing is performed, and a reconstructed image 440 is generated. The input image 410 and the reconstructed image 440 are then compared to calculate the error in the area of the mask 405 . Here, since there is no abnormality in the area of the mask 405, the error in the area of the mask 405 is small.
 図5の下側の検査対象501に異常502がある場合について説明する。入力画像510に対してマスク505を重畳したマスク済み画像520を生成し、イメージインペインティング530の処理を行い、再構築画像540を生成する。そして、入力画像510と再構築画像540を比較し、マスク505の領域の誤差を計算する。ここで、マスク505の領域に異常502がある部分のため、この異常は再構築画像540では反映されない。このため、マスク505の領域での誤差は大きくなる。 A case where there is an abnormality 502 in the inspection target 501 on the lower side of FIG. 5 will be described. A masked image 520 is generated by superimposing a mask 505 on an input image 510 , image-in-painting 530 processing is performed, and a reconstructed image 540 is generated. The input image 510 and the reconstructed image 540 are then compared to calculate the error in the area of the mask 505 . Here, since the region of the mask 505 has an anomaly 502 , this anomaly is not reflected in the reconstructed image 540 . Therefore, the error in the area of mask 505 is large.
<異常検知システムの処理の一例>
 図6は、本発明の異常検知システムの処理の一例を説明する図である。図6では、入力信号が画像である場合の図3で示した、センサ102、信号取得部201、マスク生成部202、マスク重畳部203、信号再構築部204、異常判定部205、補助記憶部207の動作について説明する。
<Example of processing of anomaly detection system>
FIG. 6 is a diagram for explaining an example of processing of the anomaly detection system of the present invention. 6, the sensor 102, the signal acquisition unit 201, the mask generation unit 202, the mask superimposition unit 203, the signal reconstruction unit 204, the abnormality determination unit 205, and the auxiliary storage unit shown in FIG. 3 when the input signal is an image. 207 will be described.
 信号取得部201は、センサ102であるカメラから送信され補助記憶部207に保存された画像を取得して、入力画像610として出力する。ここでは、入力画像610には、異常602を伴う検査対象601が映っている例を示す。 The signal acquisition unit 201 acquires an image transmitted from the camera that is the sensor 102 and stored in the auxiliary storage unit 207 and outputs it as an input image 610 . Here, an example in which an inspection object 601 with an abnormality 602 is shown in an input image 610 is shown.
 マスク生成部202では、補助記憶部207に保存されたマスクのサイズや形状、個数、スライド量等のパラメータを読み込み、マスク605を生成する。マスク605は、適用する画像ごとに位置を異ならせる。図6では、適用する画像ごとに1つの四角形のマスクを順番に位置を変えて形成している。これにより、マスクパターン620-1~620-nのn個のパターンを生成する。これらのパターンを合わせると画像内のすべての位置を覆うことができることが好ましい。なお、マスク605の形状は、四角形だと全体を順次マスクするのに適した形状であるが、これに限らず特定の形状でも適用できる。 The mask generation unit 202 reads parameters such as the size, shape, number, and slide amount of the masks stored in the auxiliary storage unit 207 and generates a mask 605 . The mask 605 is positioned differently for each applied image. In FIG. 6, one square mask is formed by changing the position in order for each image to be applied. As a result, n patterns of mask patterns 620-1 to 620-n are generated. Preferably, these patterns together can cover all locations in the image. The shape of the mask 605 is rectangular, which is suitable for sequentially masking the entire area, but the shape is not limited to this, and a specific shape can also be applied.
 次にマスク重畳部203では、マスク生成部202で生成したマスクを入力画像610に重畳してマスク済み画像630-1~630-nを作成する。すなわち、同じ入力画像610画像に対して、位置の異なるマスク605を重畳した画像をn個作成する。図6では、マスク領域をスライドさせながら位置を変更している。 Next, the mask superimposing unit 203 superimposes the mask generated by the mask generating unit 202 on the input image 610 to create masked images 630-1 to 630-n. That is, n images are created by superimposing masks 605 at different positions on the same input image 610 . In FIG. 6, the position is changed while sliding the mask area.
 次に信号再構築部204では、マスク重畳部203で生成したマスク済み画像をインペインティングモデル(イメージインペインティング635)に入力する。そして、出力結果として、それぞれ再構築したn個の再構築画像640-1~640-nを得る。この際、マスク済み画像630-1~630-nは、1枚ずつインペインティングモデルに入力してもよいし、複数の画像をバッチ処理(並列処理)してもよい。再構築画像640-1~640-nは、マスク済み画像630-1~630-nのマスク605の部分をそれぞれ再構築している。 Next, the signal reconstruction unit 204 inputs the masked image generated by the mask superimposition unit 203 to the inpainting model (image inpainting 635). As an output result, n reconstructed images 640-1 to 640-n are respectively reconstructed. At this time, the masked images 630-1 to 630-n may be input to the inpainting model one by one, or a plurality of images may be subjected to batch processing (parallel processing). Reconstructed images 640-1 through 640-n are reconstructions of mask 605 portions of masked images 630-1 through 630-n, respectively.
 次に異常判定部205でそれぞれのマスク済み画像630-1~630-nから再構築された再構築画像640-1~640-nと、入力画像610との比較を行う。この比較は、それぞれのマスク605の領域での誤差を計算し、ある閾値以上の誤差がある場合は「異常あり」と判定する。誤差がいずれも閾値未満の場合は「異常なし」と判定する。ここでの閾値は、ある基準値で二値化を行い、二値化により差異のある範囲がどの程度かを示す閾値を用いることができる。所定以上の範囲(画素数)であれば、異常部分と判定することができる。なお、二値化の際の基準値は画素値が所定以上(例えば、所定ピクセル以上)の差とすることができ、適した値を用いることができる。図6では、二値化した誤差画像650-1~650―nが示されており、誤差画像650―mでは、異常602の部分に違いが表されている。 Next, the abnormality determination unit 205 compares the input image 610 with the reconstructed images 640-1 to 640-n reconstructed from the masked images 630-1 to 630-n. This comparison calculates the error in each region of the mask 605, and if there is an error equal to or greater than a certain threshold, it is determined that there is an "abnormality". If all the errors are less than the threshold, it is determined that there is no abnormality. As the threshold value here, a threshold value can be used that indicates the extent of the range of difference due to binarization by performing binarization with a certain reference value. If the range (the number of pixels) is greater than or equal to a predetermined range, it can be determined as an abnormal portion. Note that the reference value for binarization can be a pixel value difference of a predetermined value or more (for example, a predetermined pixel value or more), and a suitable value can be used. FIG. 6 shows the binarized error images 650-1 to 650-n, and the error image 650-m shows a difference in the abnormal 602 portion.
 なお、マスク605のサイズと形状、個数、スライド量は任意に設定可能であるものとする。 It should be noted that the size, shape, number, and slide amount of the mask 605 can be arbitrarily set.
<マスク済み信号の数を少なくする例>
 図7は、本発明の異常検知システムのマスク済み信号の数を少なくするマスクの一例を説明する図である。ここでは、入力画像710には、異常702を伴う検査対象701が映っている例を示す。
<Example of reducing the number of masked signals>
FIG. 7 is a diagram illustrating an example of masks for reducing the number of masked signals in the anomaly detection system of the present invention. Here, an example in which an inspection target 701 with an abnormality 702 is shown in an input image 710 is shown.
 インペインティングモデルに入力するマスク済み信号の数が多い場合、処理時間が大きくなりリアルタイム性が損なわれる。このため、インペインティングモデルに入力するマスク済み信号の数を少なくする工夫として図7に示すメッシュパターンのマスクの使用が挙げられる。上述した図6とは異なり、1カ所の範囲を覆うマスクでなくて、複数の箇所を所定のパターンで配列し覆うメッシュパターンのマスクを使用する。  If there are many masked signals input to the inpainting model, the processing time will increase and the real-time performance will be impaired. For this reason, the use of a mesh pattern mask shown in FIG. 7 can be used as a means of reducing the number of masked signals to be input to the inpainting model. Unlike the above-described FIG. 6, a mesh pattern mask that covers a plurality of locations arranged in a predetermined pattern is used instead of a mask that covers a range of one location.
 マスク生成部202では、適用する画像ごとにメッシュパターンのマスク705を順番に位置を変えて形成している。これにより、マスクパターン720-1~720-4の4個のパターンを生成する。これらのパターンを合わせると画像内のすべての位置を覆うことができることが好ましい。なお、メッシュパターンの1つのマスクの形状は、四角形だと位置をずらしながら全体を覆うのに適した形状であるが、これに限らず特定の形状でも適用できる。 The mask generation unit 202 forms a mesh pattern mask 705 by sequentially changing the position for each image to be applied. As a result, four mask patterns 720-1 to 720-4 are generated. Preferably, these patterns together can cover all locations in the image. It should be noted that the shape of one mask of the mesh pattern is a rectangle, which is suitable for covering the entire area while shifting the position, but it is not limited to this, and a specific shape can also be applied.
 次にマスク重畳部203では、マスクパターン720-1~720-4を入力画像710に重畳してマスク済み画像730-1~730-4を作成する。すなわち、同じ入力画像710に対して、位置の異なるマスク705を重畳した画像を4個作成する。 Next, the mask superimposing unit 203 superimposes the mask patterns 720-1 to 720-4 on the input image 710 to create masked images 730-1 to 730-4. That is, four images are created by superimposing masks 705 at different positions on the same input image 710 .
 また、異常のある場所は、図6と同様に異常判定部205により特定することが可能である。 Also, the location of the abnormality can be specified by the abnormality determination unit 205, as in FIG.
 このように図7の例では、メッシュパターンを用いることで、マスク済み信号の数を少なくして、処理を減らすことが可能となる。具体的には48個あるマスクを4個のマスクパターンとして、マスク済み信号で解析することが出来る。これにより、解析に要する時間を大幅に減らすことが出来る。なお、一度に隠す面積を大きくすると再構築の際に画像の復元が難しい場合もあるため、この場合は図6のように1つ1つのマスクで覆う手法が有効である。 In this way, in the example of FIG. 7, by using the mesh pattern, it is possible to reduce the number of masked signals and reduce the processing. Specifically, it is possible to analyze the masked signals by using 48 masks as 4 mask patterns. This can greatly reduce the time required for analysis. It should be noted that if the area to be hidden at one time is increased, it may be difficult to restore the image at the time of reconstruction. In this case, the technique of masking each mask as shown in FIG. 6 is effective.
<背景差分法を用いたマスクの選定方法の例>
 図8は、本発明の異常検知システムにおける背景差分法を用いたマスクの選定方法の一例を説明するためのモデルを示す図である。図9は、本発明の異常検知システムにおける背景差分法を用いたマスクの選定方法の一例を説明する図である。
<Example of mask selection method using background subtraction method>
FIG. 8 is a diagram showing a model for explaining an example of a mask selection method using the background subtraction method in the anomaly detection system of the present invention. FIG. 9 is a diagram illustrating an example of a mask selection method using the background subtraction method in the anomaly detection system of the present invention.
 図3や図6で示したマスク生成部202でマスクパターンを生成するが、この際に使用するマスクを最小限にするため、マスクを選定する前処理を加えてもよい。この前処理は、例えば、マスクを選定する領域をあらかじめ限定することでマスクを使用する範囲を減らすことができる。その具体例として、図8、9を用いて背景差分法を用いたマスクの選定方法について述べる。 A mask pattern is generated by the mask generation unit 202 shown in FIGS. 3 and 6, but in order to minimize the number of masks used at this time, preprocessing for selecting a mask may be added. This pretreatment can reduce the range in which the mask is used, for example, by preliminarily limiting the area for which the mask is selected. As a specific example, a mask selection method using the background subtraction method will be described with reference to FIGS.
 ここでは、図8に示すように、コンベア803上に流れる検査対象802に対して、上部から固定されたカメラ801を用いて撮影する例である。カメラ801は、図2、図3、図6で示したセンサ102に相当するもので、上から検査対象802に向けて撮影している。検査対象802は、コンベア803上を矢印の方向に移動している。このとき、カメラ801は、画角が固定されており、検査対象802がカメラ801の画角内を横方向に通過するものとする。 Here, as shown in FIG. 8, an example is taken of an inspection object 802 flowing on a conveyor 803 using a camera 801 fixed from above. A camera 801 corresponds to the sensor 102 shown in FIGS. 2, 3, and 6, and shoots an object 802 to be inspected from above. An inspection object 802 is moving on a conveyor 803 in the direction of the arrow. At this time, it is assumed that the angle of view of the camera 801 is fixed, and the inspection object 802 passes through the angle of view of the camera 801 in the horizontal direction.
 図9に示すように、検査対象の物体が映っていない背景画像920を用意しておく。具体的には、図8において、検査対象802が存在しない場合の画像となる。また、入力画像910は、検査対象802が映っている画像である。そして、背景画像920と入力画像910との差分を取り、閾値で二値化し差分画像930を生成する。ここでの閾値は差分にふさわしい閾値が選定される。図9の例では差分画像930の白い部分が、検査対象802の領域と判定される。 As shown in FIG. 9, prepare a background image 920 in which the object to be inspected is not shown. Specifically, in FIG. 8, the image is obtained when the inspection object 802 does not exist. An input image 910 is an image in which an inspection object 802 is shown. Then, the difference between the background image 920 and the input image 910 is obtained and binarized with a threshold to generate a difference image 930 . A threshold suitable for the difference is selected here as the threshold. In the example of FIG. 9, the white portion of the difference image 930 is determined to be the inspection target 802 area.
 マスク905の選定は、生成された差分画像930の白色部分の領域(検査対象802に相当する領域)で行う。差分画像930の白色部分の左上座標と右下座標を識別し、マスク905のサイズとスライド量からマスクを選定していく。具体的には、マスクスライドイメージ940のようなパターンを決めておく。マスクスライドイメージ940では、左上から右側に平行に右端までスライドして、次にその下側を左端から右端へ移動していく方法である。これにより、差分画像930の白色部分をマスクするのに十分なマスクを選定する。 Selection of the mask 905 is performed in the white area of the generated difference image 930 (area corresponding to the inspection object 802). The upper left coordinate and lower right coordinate of the white portion of the difference image 930 are identified, and a mask is selected from the size of the mask 905 and the slide amount. Specifically, a pattern such as the mask slide image 940 is determined. In the mask slide image 940, the method is to slide from the upper left to the right side in parallel to the right end, and then move from the left end to the right end under it. This selects a mask sufficient to mask the white portion of the difference image 930 .
 図9のマスク生成部202では、差分画像930からマスクを選定した例を示している。ここでは、マスク905選定領域は、上下方向の一段のマスク905で覆えると判断している。このため、マスク905を左から右に位置を順次変更しているマスクパターン950-1~950-4の4個のパターンを生成している。 The mask generation unit 202 in FIG. 9 shows an example in which a mask is selected from the difference image 930. Here, it is determined that the region selected by the mask 905 can be covered with one level of the mask 905 in the vertical direction. Therefore, four patterns of mask patterns 950-1 to 950-4 are generated by sequentially changing the position of the mask 905 from left to right.
 これによりインペインティングモデルに入力するマスク済み信号の数を大幅に減らすことが出来る。 This can greatly reduce the number of masked signals input to the inpainting model.
<背景差分法以外を用いたマスクの選定方法の例>
 図8、図9で説明した背景差分法の他にもマスクを選定する方法があげられる。例えば、検査対象物体の映っていない画像とのテンプレートマッチング、検査対象物体が動いている場合はフレーム間の差分、オプティカルフローによる動き検知等を使用してもよい。
<Example of mask selection method using methods other than background subtraction>
In addition to the background subtraction method described with reference to FIGS. 8 and 9, there are other methods of selecting a mask. For example, template matching with an image in which the object to be inspected does not appear, difference between frames when the object to be inspected is moving, motion detection by optical flow, and the like may be used.
 テンプレートマッチングの場合は、あらかじめ用意したテンプレート画像との比較を行って、テンプレートに近い画像は、マスクの選定の領域から除外する等の手法を用いることができる。また、オプティカルフローであれば、人物等の動きのある物体の範囲を検出して、その部分にマスクを行うことで、それ以外の部分をマスクの選定の領域から除外することができる。 In the case of template matching, a method such as comparing with a template image prepared in advance and excluding an image close to the template from the mask selection area can be used. In the case of optical flow, by detecting the range of a moving object such as a person and masking that portion, the other portions can be excluded from the mask selection region.
<物体検知結果を用いたマスクの調整方法の例>
 図10は、本発明の異常検知システムにおける物体検知結果を用いたマスクの調整方法の一例を説明する図である。
<Example of mask adjustment method using object detection results>
FIG. 10 is a diagram illustrating an example of a mask adjustment method using object detection results in the anomaly detection system of the present invention.
 マスクのサイズは異常部分のサイズよりも大きいほうが、異常部分の情報をインペインティングモデルに入力しない。これにより、画像の再構築に異常部分を含まないため異常部分の検知精度を向上できる。一方で、検査対象の大部分が隠れるようにマスクを重畳した場合は、再構築する領域が大きくなる。これにより、検査対象の再構築の精度が落ちることになり、検知精度が劣化する要因となる。そのため、マスクのサイズ調整処理を加えることにより、より検知精度を上げることができる。 If the size of the mask is larger than the size of the abnormal part, the information of the abnormal part will not be input to the inpainting model. As a result, since an abnormal portion is not included in reconstructing an image, detection accuracy of an abnormal portion can be improved. On the other hand, if the mask is superimposed so that most of the inspection target is hidden, the area to be reconstructed becomes large. As a result, the accuracy of reconstructing the object to be inspected is lowered, which is a factor in degrading the detection accuracy. Therefore, detection accuracy can be further improved by adding mask size adjustment processing.
 図10では、検査対象の物体を検知可能なDLモデルでの物体検知結果を使用し、マスクのサイズを調整する例について示してある。あらかじめ検査対象を検知できるように、正常な検知対象を用いる等してDLモデルで学習を行っておく。 Fig. 10 shows an example of adjusting the size of the mask using the object detection result of the DL model that can detect the object to be inspected. In order to be able to detect the inspection target in advance, the DL model is learned by using a normal detection target.
 最初に入力画像1010を学習済みの物体検知DLモデルに入力する。物体検知DLモデルでは、検査対象1001の領域を予測して物体検知結果1020を算出する。物体検知結果1020では、検査対象1001の範囲が特定されている。図10では、3つの検査対象1001の範囲が特定されている。そして、特定した検査対象1001領域の一部を覆うマスク1005を作成する。マスクは、複数のマスクで検査対象1001の1つを覆うようにする。図10では、領域の1/4ずつ覆うようにマスクを作成する。 First, the input image 1010 is input to the learned object detection DL model. In the object detection DL model, an object detection result 1020 is calculated by predicting the area of the inspection object 1001 . In the object detection result 1020, the range of the inspection target 1001 is specified. In FIG. 10, the ranges of three inspection targets 1001 are identified. Then, a mask 1005 covering a part of the identified inspection object 1001 area is created. A plurality of masks are used to cover one of the inspection objects 1001 . In FIG. 10, a mask is created to cover every quarter of the area.
 マスク重畳部203では、作成したマスクを入力画像1010に重畳する。図10では、3つの検査対象1001に対して領域の1/4ずつ覆うため、合計で12個のマスク済み画像1030-1~1030-12を作成する。なお、マスクで覆う大きさは、検知対象の1/n(nは自然数であり、2以上の整数や4以上の整数など適用できる)として適宜調整すればよい。 The mask superimposing unit 203 superimposes the created mask on the input image 1010 . In FIG. 10, 12 masked images 1030-1 to 1030-12 in total are created in order to cover 1/4 of the area for each of the three inspection objects 1001. FIG. Note that the size covered by the mask may be appropriately adjusted as 1/n of the detection target (n is a natural number, and an integer of 2 or more and an integer of 4 or more can be applied).
 このような構成により、検査対象の大部分を隠さずに信号を復元するため、インペインティングモデルの精度を向上できるとともに、処理の負荷を低減することが可能となる。 With such a configuration, the signal is restored without hiding most of the inspection object, so it is possible to improve the accuracy of the inpainting model and reduce the processing load.
 なお、図8、図9で示したような背景差分法等を用いて異常部分のある検査対象の画面内の大きさを特定し、その後に、図10の方式を用いてマスクのサイズを調整してもよい。 8 and 9, the background subtraction method or the like is used to specify the size of the inspection target screen including the abnormal portion, and then the size of the mask is adjusted using the method of FIG. You may
<第1の具体例>
 図11は、本発明の異常検知システムの第1の具体例を説明するためのモデルを示す図である。図12は、本発明の異常検知システムの第1の具体例を説明する図である。
<First specific example>
FIG. 11 is a diagram showing a model for explaining the first specific example of the anomaly detection system of the present invention. FIG. 12 is a diagram for explaining a first specific example of the anomaly detection system of the present invention.
 第1の具体例では、移動する検査対象に対してマスクを固定して異常検知を実施する例を示す。図11に示すように、ベルトコンベア1103上に流れる検査対象1102に対して、上部から固定されたカメラ1101を用いて撮影する。カメラ1101は、図2、図3、図6で示したセンサ102に相当するもので、上から検査対象1102に向けて撮影している。複数の検査対象1102は、ベルトコンベア1103上を矢印の方向(右側から左側)に間隔を空けて移動している。このとき、カメラ1101は、画角が固定されており、検査対象1102がカメラ1101の画角内を横方向に通過するものとする。 In the first specific example, an example is shown in which anomaly detection is performed by fixing a mask to a moving inspection object. As shown in FIG. 11, an object to be inspected 1102 flowing on a belt conveyor 1103 is imaged using a camera 1101 fixed from above. A camera 1101 corresponds to the sensor 102 shown in FIGS. 2, 3, and 6, and shoots an object 1102 to be inspected from above. A plurality of inspection objects 1102 are moving on the belt conveyor 1103 in the direction of the arrow (from the right to the left) at intervals. At this time, the angle of view of the camera 1101 is fixed, and the inspection object 1102 passes through the angle of view of the camera 1101 in the horizontal direction.
 図12に示すように、検査対象1102はカメラで撮影した画像の右側から左側へと移動していく。図12では、n-1、n、n+1、n+2の連続した入力画像フレームを示している。図12に示すように、入力画像1210内のマスク1205領域を検査対象1102が通過する幅A(進行方向に直角方向の幅)の大きさかそれより広い幅に固定する。すなわち、入力画像1210内のマスク1205領域の位置と大きさは常に一定である。また、検査対象1102の進行方向におけるマスク1205の幅は、検査対象1102が1フレームで移動する長さ以上に設定する。このことで、検査対象の全領域を検査することができる。 As shown in FIG. 12, the inspection target 1102 moves from the right side to the left side of the image captured by the camera. FIG. 12 shows n−1, n, n+1 and n+2 consecutive input image frames. As shown in FIG. 12, the mask 1205 area in the input image 1210 is fixed to a width A (the width in the direction perpendicular to the traveling direction) through which the inspection target 1102 passes or a wider width. That is, the position and size of the mask 1205 area in the input image 1210 are always constant. Also, the width of the mask 1205 in the traveling direction of the inspection target 1102 is set to be equal to or greater than the length of the inspection target 1102 moving in one frame. This makes it possible to inspect the entire area to be inspected.
 検査対象1102の例としては、工業製品、食品、段ボールなどの運搬物等、移動することが想定される様々な対象に対して適用できる。 Examples of the inspection object 1102 can be applied to various objects that are assumed to move, such as industrial products, food, and transportation items such as cardboard.
 このように、第1の具体例では、マスク1205の位置を固定することで、マスク済み画像の枚数が少なくなるため、リアルタイムな解析を可能とするシステムが実現できる。 Thus, in the first specific example, fixing the position of the mask 1205 reduces the number of masked images, so a system that enables real-time analysis can be realized.
<第2の具体例>
 図13は、本発明の異常検知システムの第2の具体例を説明するためのモデルを示す図である。図14は、本発明の異常検知システムの第2の具体例を説明する図である。第2の具体例では、カメラが移動する点が第1の具体例と異なるが、カメラに対して検査対象が相対移動している点においては共通である。
<Second example>
FIG. 13 is a diagram showing a model for explaining a second specific example of the anomaly detection system of the present invention. FIG. 14 is a diagram for explaining a second specific example of the anomaly detection system of the present invention. The second specific example differs from the first specific example in that the camera moves, but is common in that the inspection object moves relative to the camera.
 第2の具体例では、図13に示すように、固定の検査対象1302に対して、矢印の方向(左側から右側)に移動するカメラ1301を用いて撮影する。カメラ1301は、図2、図3、図6で示したセンサ102に相当するもので、上から検査対象1302に向けて撮影している。カメラ1301は検査対象1302と平行に移動可能な移動機構を備えている。このとき、カメラ1301は、画角が固定されており、検査対象1302がカメラ1301の画角内を横方向に通過するものとする。 In the second specific example, as shown in FIG. 13, a fixed inspection target 1302 is photographed using a camera 1301 that moves in the direction of the arrow (from left to right). A camera 1301 corresponds to the sensor 102 shown in FIGS. 2, 3, and 6, and shoots an object 1302 to be inspected from above. The camera 1301 has a moving mechanism capable of moving in parallel with the inspection object 1302 . At this time, the angle of view of the camera 1301 is fixed, and the inspection object 1302 passes through the angle of view of the camera 1301 in the horizontal direction.
 図14に示すように、入力画像1410内のマスク1405領域を検査対象1302の幅B(進行方向に直角方向の幅)の大きさかそれより広い幅に固定する。すなわち、入力画像1410内のマスク1405領域の位置と大きさは一定である。また、カメラ1301の進行方向におけるマスク1405の幅は、カメラ1301が1フレームで移動する長さ以上に設定する。このことで、カメラ1301を移動しながら撮影して検査対象の全領域を検査することができる。 As shown in FIG. 14, the mask 1405 area in the input image 1410 is fixed to the width B (the width in the direction perpendicular to the direction of travel) of the inspection object 1302 or wider. That is, the position and size of the mask 1405 area in the input image 1410 are constant. Also, the width of the mask 1405 in the traveling direction of the camera 1301 is set to be equal to or greater than the length of movement of the camera 1301 in one frame. This makes it possible to inspect the entire area of the inspection target by photographing while moving the camera 1301 .
 このように、第2の具体例では、カメラ1301を移動させながら、検査対象1302を連続的に検査することが可能である。検査対象1302は電線等の長い物や面積の広い物体など、固定された物体に特に有効である。また、進行方向に直角な断面の全周を調べたい場合は、断面の周方向に配置した複数のカメラや、周方向を捉える鏡を用いて適用できる。 Thus, in the second specific example, it is possible to continuously inspect the inspection object 1302 while moving the camera 1301 . The inspection object 1302 is particularly effective for fixed objects such as long objects such as electric wires and large objects. Also, when it is desired to investigate the entire circumference of a cross section perpendicular to the direction of travel, it is possible to use a plurality of cameras arranged in the circumferential direction of the cross section or a mirror that captures the circumferential direction.
<時系列データへの適用例>
 図15は、本発明の異常検知システムの時系列データへの適用例を説明する図である。
<Example of application to time-series data>
FIG. 15 is a diagram illustrating an example of application of the anomaly detection system of the present invention to time-series data.
 異常検知に使用する入力信号は1つの信号とは限らない。例えば、時系列的に連続する信号の場合、時系列的に連続する信号の一部をマスク領域としてインペインティングモデルに入力し異常検知を実施してもよい。図15では、時系列データへの適用例を説明する。ここでは時系列データとして動画データを例に挙げる。 The input signal used for anomaly detection is not limited to one signal. For example, in the case of a time-series continuous signal, a portion of the time-series continuous signal may be input to the inpainting model as a mask region to perform anomaly detection. FIG. 15 illustrates an example of application to time-series data. Here, moving image data is taken as an example of time-series data.
 まず、動画データの連続しているいくつかのフレームを抽出する。図15では、1510-1~1510-nのn個のフレームを抽出している。次に、一部のフレームに対しマスクを重畳する。図15では、1510-2の全領域に対してマスクを重畳してマスク済みデータ1520-2を作成する。それ以外のフレーム1510-1、1510-3~1510-nにはマスクを重畳しないため、マスク済みデータ1520-1、1520-3~1520-nは、基のフレーム1510-1、1510-3~1510-nと同じ画像である。 First, extract several consecutive frames of video data. In FIG. 15, n frames 1510-1 to 1510-n are extracted. Next, a mask is superimposed on some frames. In FIG. 15, masked data 1520-2 is created by superimposing a mask on the entire area of 1510-2. Since the mask is not superimposed on the other frames 1510-1, 1510-3 to 1510-n, the masked data 1520-1, 1520-3 to 1520-n are the original frames 1510-1, 1510-3 to 1510-n. It is the same image as 1510-n.
 なお、マスクを重畳するのは該当するフレームの全領域でもよいし、検知領域とした一部の領域でもよい。またマスクを重畳するフレームは抽出したフレームの先頭フレームからm番目のフレームと決めて1つに固定してもよい。また、複数のフレームとしてよい。 It should be noted that the mask may be superimposed on the entire area of the relevant frame, or on a part of the detection area. Also, the frame on which the mask is superimposed may be determined to be the m-th frame from the first frame of the extracted frames and fixed to one. Also, it may be a plurality of frames.
 次に、一部のフレームにマスクを重畳した画像群をインペインティングモデル1530に入力する。インペインティングモデル1530では、インペインティングの手法に準じて再構築を行い、入力したフレーム数と同数のフレームの画像群を生成する。図15では、再構築フレーム1540-1~1540-nが生成される。特に、マスクをした再構築フレーム1540-2が再構築される。 Next, an image group in which a mask is superimposed on some frames is input to the inpainting model 1530 . In the inpainting model 1530, reconstruction is performed according to the inpainting method, and an image group of the same number of frames as the input frames is generated. In FIG. 15, reconstructed frames 1540-1 through 1540-n are generated. In particular, masked reconstructed frame 1540-2 is reconstructed.
 その後、マスクを重畳したフレームに対応する再構築フレーム1540-2と元のフレーム1510-2との誤差を計算して、該当フレームが異常部分を含むかどうかを判定する。判定には閾値を設け、一定以上の誤差がある場合は異常部分ありとして判定する。この場合の閾値は、図6と同様に適用できる。図15では、二値化して差異の範囲がある誤差画像1550が示されている。 After that, the error between the reconstructed frame 1540-2 corresponding to the mask-superimposed frame and the original frame 1510-2 is calculated to determine whether the relevant frame contains an abnormal portion. A threshold value is set for determination, and if there is an error of a certain value or more, it is determined that there is an abnormal portion. The threshold in this case can be applied in the same manner as in FIG. FIG. 15 shows a binarized error image 1550 with a difference range.
 またその他の変形例の一つとして、マスクを重畳したフレームのみを再構築することとしてもよい。またその他の変形例の一つとして、上記の様に任意のマスクを重畳する代わりに任意のフレームを削除して残りのフレームをインペインティングモデルに入力し、削除されたフレームを再構築することとしてもよい。 In addition, as one of the other modifications, only the frames on which the mask is superimposed may be reconstructed. As one of the other modifications, instead of superimposing arbitrary masks as above, arbitrary frames are deleted, the remaining frames are input to the inpainting model, and the deleted frames are reconstructed. may be
 時系列データへの適用例として、フラフラと移動する人物や車両の検知(異常行動の検知)、製造ラインで作業を行う人物の作業の停滞や、逸脱行為の検知が挙げられる。 Examples of applications to time-series data include the detection of people and vehicles that move unsteadily (detection of abnormal behavior), the stagnation of people working on production lines, and the detection of deviant behavior.
 また、応用例として骨格検知を用いてもよい。例えば、動画の1フレームごとに人物の骨格座標を推定する。そして、その結果の一部をマスクして、そのマスクした時間でのフレームに対して骨格座標を再構築する。このことで、推定された骨格座標と再構築された骨格座標との誤差から異常行動を検知してもよい。 Skeleton detection may also be used as an application example. For example, the skeletal coordinates of a person are estimated for each frame of a moving image. A portion of the result is then masked to reconstruct the skeletal coordinates for the frame at the masked time. In this way, abnormal behavior may be detected from the error between the estimated skeletal coordinates and the reconstructed skeletal coordinates.
 図15では時系列データとして動画を例に挙げたが、振動や電圧、音などのセンサデータを用いてもよい。この場合、波形データであるため、ある時間での波形データの一部をマスクして、その部分を再構築する。そして、入力信号との再構築した信号の誤差から異常を検知することができる。例えば、ピークがあったときは異常を検知できる等である。 In FIG. 15, moving images are used as time-series data, but sensor data such as vibration, voltage, and sound may also be used. In this case, since it is waveform data, part of the waveform data at a certain time is masked and reconstructed. Then, an abnormality can be detected from the error between the reconstructed signal and the input signal. For example, when there is a peak, an abnormality can be detected.
 またセンサ102から取得する信号に対してパワースペクトル、スペクトログラムなどの任意の変換をしてから異常検知を実施してもよい。例えば、FFT(高速フーリエ変換)などを用いて周波数領域に変換されたパワースペクトルの任意の周波数成分をマスクして入力する。そして、スペクトログラムを画像として見立てて一部をマスクして入力し異常検知を実施しても良い。 Also, the signal acquired from the sensor 102 may be optionally converted into a power spectrum, a spectrogram, or the like, and then anomaly detection may be performed. For example, an arbitrary frequency component of the power spectrum transformed into the frequency domain using FFT (Fast Fourier Transform) or the like is masked and input. Then, the spectrogram may be regarded as an image, and a part thereof may be masked and input to perform anomaly detection.
<フローチャート>
 図16は、本発明の異常検知システムの処理フローチャートの一例である。
<Flowchart>
FIG. 16 is an example of a processing flowchart of the anomaly detection system of the present invention.
 初めに図3で示した解析サーバ101のプロセッサ部が補助記憶部207から主記憶部にロードしたプログラムを実行して異常検知システムを起動する。異常検知システムはGUI(Graphical User Interface)でユーザが結果を確認できるようにしてもよいし、判定された異常の有無のみを通知して確認できるようにしてもよい。 First, the processor unit of the analysis server 101 shown in FIG. 3 executes the program loaded from the auxiliary storage unit 207 to the main storage unit to activate the anomaly detection system. The anomaly detection system may allow the user to check the results through a GUI (Graphical User Interface), or may notify and confirm only the presence or absence of the judged anomaly.
 異常検知システム起動後、ステップ1601では入力信号を取得するセンサ102、入力信号を取得する頻度、入力信号のサイズ、マスクのサイズと形状、個数、スライド量、誤差の閾値等のパラメータを決定する。同時に解析するマスクは1つでもよいし、メッシュパターンのように複数のマスクを同時に解析してもよい。またこれらのパラメータは予め用意した設定ファイルを読み込んで設定してもよいし、ユーザがGUIで選択できるようにしてもよい。なお、入力信号を取得するカメラ等のセンサ102の数は1つでも複数でもよい。なお以降は入力信号を取得するデバイスはセンサ102としてのカメラ1台で、映像をリアルタイムに順次取得する場合の例を説明する。 After starting the anomaly detection system, in step 1601 parameters such as the sensor 102 that acquires the input signal, the frequency of acquiring the input signal, the size of the input signal, the size and shape of the mask, the number of masks, the amount of slide, and the error threshold are determined. One mask may be analyzed at the same time, or a plurality of masks may be analyzed at the same time like a mesh pattern. These parameters may be set by reading a setting file prepared in advance, or may be selected by the user using a GUI. Note that the number of sensors 102 such as cameras that acquire input signals may be one or more. Hereinafter, an example will be described in which a device that acquires an input signal is a single camera as the sensor 102, and images are sequentially acquired in real time.
 次にステップ1602では、信号取得部201にてカメラ(センサ102)から取得した入力信号を読み込む。 Next, in step 1602, the signal acquisition unit 201 reads the input signal acquired from the camera (sensor 102).
 次にステップ1603では、終了コマンドが実行されたかどうかを判定する。終了コマンドが実行された場合、画像解析システムを終了する。実行されていない場合はステップ1604に進む。ここで、終了コマンドはキーボードの操作でもよいし、GUI上の操作でもよい。 Next, in step 1603, it is determined whether or not the end command has been executed. If the termination command is executed, the image analysis system is terminated. If not, go to step 1604 . Here, the end command may be a keyboard operation or a GUI operation.
 ステップ1604では、マスク生成部202にてマスクの調整・選定を実施する。なおマスクサイズは固定とし、全てのマスクを使用するようステップ1601で設定してもよいし、DLモデルを用いた物体検知等を使用して異常部分のある検査対象の大きさを予測し、予測した検査対象領域の一部を覆うようにマスクを調整しても良い。また背景差分法、テンプレートマッチング、オプティカルフロー等により検査対象物体があると想定される部分をマスクするのに十分な領域を選定してもよい。 In step 1604, the mask generation unit 202 adjusts and selects the mask. Note that the mask size may be fixed and set in step 1601 so that all masks are used. The mask may be adjusted so as to cover a part of the inspection target area. Alternatively, a sufficient region may be selected to mask the portion where the object to be inspected is assumed to be by background subtraction, template matching, optical flow, or the like.
 次にステップ1605では、マスク重畳部203にてステップ1604で決定したマスクのうち、1つを入力信号に対して重畳する。 Next, in step 1605, the mask superimposing unit 203 superimposes one of the masks determined in step 1604 on the input signal.
 次にステップ1606では、信号再構築部204にてマスクを重畳した信号をインペイントモデルに入力し、信号を再構築する。 Next, in step 1606, the signal reconstructing unit 204 inputs the mask-superimposed signal to the inpaint model to reconstruct the signal.
 次にステップ1607では、異常判定部205にて入力信号とステップ1606で再構築した信号との誤差を計算する。 Next, in step 1607, the error between the input signal and the signal reconstructed in step 1606 is calculated by the abnormality determination unit 205.
 ステップ1608では、異常判定部205にてステップ1607で計算した誤差がステップ1601で決定した誤差の閾値に対して大きいかどうかを判定する。条件を満たす場合はステップ1609に、満たさない場合はステップ1610に進む。 In step 1608, the abnormality determination unit 205 determines whether the error calculated in step 1607 is larger than the error threshold determined in step 1601. If the condition is satisfied, proceed to step 1609; otherwise, proceed to step 1610.
 ステップ1609では、異常判定部205にてマスクを重畳した領域を異常部分と判定する。 In step 1609, the abnormality determination unit 205 determines that the area superimposed with the mask is an abnormal portion.
 ステップ1610では、異常判定部205にてステップ1604で選定した全てのマスクで判定を実施したかどうかを判定する。条件を満たす場合はステップ1612に、満たさない場合はステップ1611に進む。 In step 1610, the abnormality determination unit 205 determines whether or not all the masks selected in step 1604 have been determined. If the condition is satisfied, the process proceeds to step 1612; otherwise, the process proceeds to step 1611.
 ステップ1611では、マスク重畳部203にて使用するマスクを変更する。ステップ1601での設定やステップ1604での調整・選定した結果に伴い、今まで使用していない次に使用するマスクを決定してステップ1605に戻る。 At step 1611, the mask used in the mask superimposing unit 203 is changed. Based on the results of the setting in step 1601 and the adjustment/selection in step 1604, the next mask that has not been used is determined, and the process returns to step 1605. FIG.
 ステップ1612では出力制御部206にてユーザに対して異常部分の通知を行う。ここで、発生通知はGUI上で行ってもよいし、小型端末にイベント発生通知が届くようにしてもよい。イベントの発生通知を完了したらステップ1602に進んで次の入力信号の読み込みを実施する。 In step 1612, the output control unit 206 notifies the user of the abnormal portion. Here, the occurrence notification may be made on the GUI, or the event occurrence notification may be delivered to the small terminal. After completion of event occurrence notification, the process proceeds to step 1602 to read the next input signal.
 以上のように、異常部分をマスクすることによって正常信号部分のみを入力し、マスク付の正常信号に対して信号再構築する。このことによって、再構築した信号と異常部分を含む元の信号との比較により高精度な異常検知を実現できる。また使用するマスクの選定やサイズ調節により解析を最適化することで、高速かつ高精度な異常検知を実現できる。 As described above, by masking the abnormal portion, only the normal signal portion is input, and the masked normal signal is reconstructed. As a result, highly accurate anomaly detection can be realized by comparing the reconstructed signal with the original signal including an anomalous portion. In addition, by optimizing the analysis by selecting the mask to be used and adjusting the size, it is possible to realize high-speed and high-precision anomaly detection.
 以上の様に、本発明の実施形態について説明してきたが、本発明は上記の実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例に設けられた全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を削除したり、他の実施例の構成に置き換えたり、あるいはまた、ある実施例の構成に他の実施例の構成を加えることも可能である。 As described above, the embodiments of the present invention have been described, but the present invention is not limited to the above examples, and includes various modifications. For example, it is not limited to those having all the configurations provided in the above-described embodiments. It is also possible to delete part of the configuration of one embodiment, replace it with the configuration of another embodiment, or add the configuration of another embodiment to the configuration of one embodiment.
1…コンピュータシステム、2…プロセッサ、2A、2B…処理装置、4…メモリ、6…メモリバス、8…I/Oバス、9…バスインターフェースユニット、10…I/Oバスインターフェースユニット、12…端末インターフェースユニット、14…ストレージインターフェースユニット、16…デバイスインターフェースユニット、18…ネットワークインターフェース、20…ユーザI/Oデバイス、22…ストレージ装置、24…表示システム、26…表示装置、30…ネットワーク、50…潜在因子特定アプリケーション、101…解析サーバ、102…センサ、103…データベースサーバ、104…ネットワーク、201…信号取得部、202…マスク生成部、203…マスク重畳部、204…信号再構築部、205…異常判定部、206…出力制御部、207…補助記憶部、301…検査対象、305…マスク、310…入力画像、320…マスク済み画像、330…イメージインペインティング、340…再構築画像、401…検査対象、405…マスク、410…入力画像、420…マスク済み画像、430…イメージインペインティング、440…再構築画像、501…検査対象、502…異常、505…マスク、510…入力画像、520…マスク済み画像、530…イメージインペインティング、540…再構築画像、601…検査対象、602…異常、605…マスク、610…入力画像、620…マスクパターン、630…マスク済み画像、640…再構築画像、650…誤差画像、705…マスク720…マスクパターン、730…マスク済み画像、801…カメラ、802…検査対象、803…コンベア、905…マスク、910…入力画像、920…背景画像、920…マスクパターン、930…差分画像、940…マスクスライドイメージ、1001…検査対象、1005…マスク、1010…入力画像、1020…物体検知結果、1030…マスク済み画像、1101…カメラ、1102…検査対象、1103…ベルトコンベア、1205…マスク、1210…入力画像、1301…カメラ、1302…検査対象、1405…マスク、1410…入力画像、1510…フレーム、1520…マスク済みデータ、1530…インペインティングモデル、1540…再構築フレーム、1550…誤差画像 DESCRIPTION OF SYMBOLS 1... Computer system, 2... Processor, 2A, 2B... Processing unit, 4... Memory, 6... Memory bus, 8... I/O bus, 9... Bus interface unit, 10... I/O bus interface unit, 12... Terminal Interface unit 14 Storage interface unit 16 Device interface unit 18 Network interface 20 User I/O device 22 Storage device 24 Display system 26 Display device 30 Network 50 Latency Factor identification application 101 Analysis server 102 Sensor 103 Database server 104 Network 201 Signal acquisition unit 202 Mask generation unit 203 Mask superimposition unit 204 Signal reconstruction unit 205 Abnormality Determination unit 206 Output control unit 207 Auxiliary storage unit 301 Inspection object 305 Mask 310 Input image 320 Masked image 330 Image in painting 340 Reconstructed image 401 Inspection target 405 Mask 410 Input image 420 Masked image 430 Image in painting 440 Reconstructed image 501 Inspection target 502 Abnormal 505 Mask 510 Input image 520 Masked image 530 Image in painting 540 Reconstructed image 601 Inspection object 602 Abnormal 605 Mask 610 Input image 620 Mask pattern 630 Masked image 640 Reconstructed image Construction image 650 Error image 705 Mask 720 Mask pattern 730 Masked image 801 Camera 802 Inspection object 803 Conveyor 905 Mask 910 Input image 920 Background image 920 Mask pattern 930 Difference image 940 Mask slide image 1001 Inspection object 1005 Mask 1010 Input image 1020 Object detection result 1030 Masked image 1101 Camera 1102 Inspection object 1103 Belt conveyor 1205 Mask 1210 Input image 1301 Camera 1302 Inspection object 1405 Mask 1410 Input image 1510 Frame 1520 Masked data 1530 Inpainting model 1540 ... reconstructed frame, 1550 ... error image

Claims (9)

  1.  センサから入力信号を取得する信号取得部と、
     前記入力信号に重畳するマスクを生成するマスク生成部と、
     前記入力信号に前記マスク生成部で生成したマスクを重畳してマスク済み信号を生成するマスク重畳部と、
     前記マスク重畳部で生成したマスク済み信号を再構築して再構築信号を生成する信号再構築部と、
     前記入力信号と前記再構築信号とのマスク領域内での誤差をもとに前記入力信号が異常部分を含むかどうかを判定する異常判定部と、を備え、
     前記信号再構築部は、正常な入力信号を用いて学習したディープラーニングモデルを使用してマスクした領域を再構築することを特徴とする異常検知システム。
    a signal acquisition unit that acquires an input signal from the sensor;
    a mask generator that generates a mask to be superimposed on the input signal;
    a mask superimposing unit that superimposes the mask generated by the mask generating unit on the input signal to generate a masked signal;
    a signal reconstructing unit that reconstructs the masked signal generated by the mask superimposing unit to generate a reconstructed signal;
    an abnormality determination unit that determines whether the input signal includes an abnormal portion based on the error in the mask region between the input signal and the reconstructed signal;
    The anomaly detection system, wherein the signal reconstruction unit reconstructs the masked region using a deep learning model trained using a normal input signal.
  2.  請求項1に記載の異常検知システムにおいて、
     前記異常判定部は、前記入力信号と前記再構築信号とのマスク領域内での誤差が所定の閾値以上ある場合は「異常あり」と判定し、誤差が閾値未満の場合は「異常なし」と判定することを特徴とする異常検知システム。
    In the anomaly detection system according to claim 1,
    The abnormality determination unit determines that there is an abnormality when an error between the input signal and the reconstructed signal within the mask region is equal to or greater than a predetermined threshold, and determines that there is no abnormality when the error is less than the threshold. An anomaly detection system characterized by judging.
  3.  請求項2に記載の異常検知システムにおいて、
     前記センサはカメラであり、前記入力信号は画像であり、
     前記閾値を用いた判定は、前記入力信号と前記再構築信号を所定の基準値で二値化して、二値化により差異のある範囲が所定以上の範囲かどうかの閾値により判定することを特徴とする異常検知システム。
    In the anomaly detection system according to claim 2,
    the sensor is a camera, the input signal is an image,
    The determination using the threshold is characterized in that the input signal and the reconstructed signal are binarized with a predetermined reference value, and the threshold is used to determine whether the range of difference due to binarization is a predetermined range or more. anomaly detection system.
  4.  請求項1に記載の異常検知システムにおいて、
     前記マスク生成部は、運用時にマスクのサイズ、形状、個数、スライド量を含むパラメータを設定してマスクを生成し、
     前記マスク重畳部は、前記入力信号にマスク領域をスライドさせながら位置を変更してマスクを重畳してマスク済み信号を作成し、
     前記信号再構築部は、マスク領域を変更したマスク済み信号ごとにマスク領域の再構築を行うことを特徴とする異常検知システム。
    In the anomaly detection system according to claim 1,
    The mask generation unit generates a mask by setting parameters including mask size, shape, number, and slide amount during operation,
    The mask superimposing unit generates a masked signal by superimposing the mask on the input signal by changing the position while sliding the mask region, and
    The anomaly detection system, wherein the signal reconstructing unit reconstructs the masked area for each masked signal whose masked area has been changed.
  5.  請求項1に記載の異常検知システムにおいて、
     前記マスク生成部は、前処理を用いて重畳するマスクの領域を選定することを特徴とする異常検知システム。
    In the anomaly detection system according to claim 1,
    The anomaly detection system, wherein the mask generation unit selects a region of the mask to be superimposed using preprocessing.
  6.  請求項5に記載の異常検知システムにおいて、
     前記前処理は、背景差分法を用いて、重畳するマスクの領域を限定することを特徴とする異常検知システム。
    In the anomaly detection system according to claim 5,
    The anomaly detection system, wherein the preprocessing uses a background subtraction method to limit an area of the mask to be superimposed.
  7.  請求項5に記載の異常検知システムにおいて、
     前記前処理は、ディープラーニングモデルによる物体検知により、重畳するマスクの領域を検知した物体の領域に限定し、検知した物体の領域に応じてマスクのサイズを調整することを特徴とする異常検知システム。
    In the anomaly detection system according to claim 5,
    The anomaly detection system characterized in that the preprocessing is to limit the area of the superimposed mask to the area of the detected object by object detection using a deep learning model, and adjust the size of the mask according to the area of the detected object. .
  8.  請求項1に記載の異常検知システムにおいて、
     前記センサはカメラであり、前記入力信号は画像であり、
     前記カメラは、当該カメラに対して相対的に移動する検査対象を撮影し、
     前記マスク重畳部は、前記カメラからの入力画像に対してマスクの位置と大きさは一定にして重畳することを特徴とする異常検知システム。
    In the anomaly detection system according to claim 1,
    the sensor is a camera, the input signal is an image,
    The camera captures an image of an inspection object that moves relative to the camera,
    The anomaly detection system, wherein the mask superimposing unit superimposes the mask on the input image from the camera while keeping the position and size of the mask constant.
  9.  請求項1に記載の異常検知システムにおいて、
     前記マスクは、複数の箇所を所定のパターンで配列したメッシュパターンのマスクを使用することを特徴とする異常検知システム。
    In the anomaly detection system according to claim 1,
    The anomaly detection system, wherein the mask uses a mesh pattern mask in which a plurality of locations are arranged in a predetermined pattern.
PCT/JP2021/043223 2021-11-25 2021-11-25 Abnormality detection system WO2023095250A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023563416A JPWO2023095250A1 (en) 2021-11-25 2021-11-25
PCT/JP2021/043223 WO2023095250A1 (en) 2021-11-25 2021-11-25 Abnormality detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/043223 WO2023095250A1 (en) 2021-11-25 2021-11-25 Abnormality detection system

Publications (1)

Publication Number Publication Date
WO2023095250A1 true WO2023095250A1 (en) 2023-06-01

Family

ID=86539122

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/043223 WO2023095250A1 (en) 2021-11-25 2021-11-25 Abnormality detection system

Country Status (2)

Country Link
JP (1) JPWO2023095250A1 (en)
WO (1) WO2023095250A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011137720A (en) * 2009-12-28 2011-07-14 Kirin Brewery Co Ltd Inspection device
JP2020032190A (en) * 2018-08-30 2020-03-05 株式会社トプコン Multivariate and multi-resolution retinal image anomaly detection system
KR20200080402A (en) * 2018-12-18 2020-07-07 한국전자통신연구원 System and method for detecting abnormal situation
JP2020118458A (en) * 2019-01-18 2020-08-06 アサヒビール株式会社 Foreign matter detection system and foreign matter detection method
JP2021022032A (en) * 2019-07-25 2021-02-18 Kddi株式会社 Synthesizer, method and program
WO2021220336A1 (en) * 2020-04-27 2021-11-04 三菱電機株式会社 Image inspection device and image inspection method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011137720A (en) * 2009-12-28 2011-07-14 Kirin Brewery Co Ltd Inspection device
JP2020032190A (en) * 2018-08-30 2020-03-05 株式会社トプコン Multivariate and multi-resolution retinal image anomaly detection system
KR20200080402A (en) * 2018-12-18 2020-07-07 한국전자통신연구원 System and method for detecting abnormal situation
JP2020118458A (en) * 2019-01-18 2020-08-06 アサヒビール株式会社 Foreign matter detection system and foreign matter detection method
JP2021022032A (en) * 2019-07-25 2021-02-18 Kddi株式会社 Synthesizer, method and program
WO2021220336A1 (en) * 2020-04-27 2021-11-04 三菱電機株式会社 Image inspection device and image inspection method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KURIHARA, S.; HAMAGAMI, T.: "Detection of anomalies in fundus images using image interpolation technology", IEEJ TECHNICAL MEETING MATERIALS, vol. ST-18-106, 26 September 2018 (2018-09-26), pages 105 - 109, XP009546629 *

Also Published As

Publication number Publication date
JPWO2023095250A1 (en) 2023-06-01

Similar Documents

Publication Publication Date Title
TWI638157B (en) Inspection device and inspection method
Nasrollahi et al. Super-resolution: a comprehensive survey
Cao et al. Total variation regularized tensor RPCA for background subtraction from compressive measurements
US11386549B2 (en) Abnormality inspection device and abnormality inspection method
US20210321052A1 (en) System and method for high-resolution, high-speed, and noise-robust imaging
KR20200039049A (en) Inspection method for appearance badness and inspection system for appearance badness
Bi et al. PIX2NVS: Parameterized conversion of pixel-domain video frames to neuromorphic vision streams
Kıraç et al. VISOR: A fast image processing pipeline with scaling and translation invariance for test oracle automation of visual output systems
Deshpande et al. Multi‐frame super‐resolution for long range captured iris polar image
De Gregorio et al. CwisardH: background detection in RGBD videos by learning of weightless neural networks
Duan et al. Guided event filtering: Synergy between intensity images and neuromorphic events for high performance imaging
KR20220111203A (en) Method and image-processing device for evaluating an alignment of stitched images
Vitoria et al. Event-based image deblurring with dynamic motion awareness
Yu et al. Learning to super-resolve blurry images with events
WO2023095250A1 (en) Abnormality detection system
Genser et al. Demonstration of rapid frequency selective reconstruction for image resolution enhancement
CN112950693B (en) Intelligent electrostatic adsorption distance control method using Gaussian distribution probability value
Sanches et al. Recommendations for evaluating the performance of background subtraction algorithms for surveillance systems
US11270442B2 (en) Motion image integration method and motion image integration system capable of merging motion object images
Wu et al. Deep learning‐based super‐resolution with feature coordinators preservation for vision‐based measurement
Duan et al. NeuroZoom: Denoising and super resolving neuromorphic events and spikes
Qian et al. Real-world underwater image enhancement via degradation-aware dynamic network
Birk et al. Deep learning based compressed sensing in machine vision: an iterative approach to multi object detection
JP7485155B2 (en) Data encoding program and data encoding device
Xue et al. Optical implementation and robustness validation for multi-scale masked autoencoder

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21965622

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023563416

Country of ref document: JP