WO2022244250A1 - 情報生成装置、判定装置、情報生成方法、判定方法及び記憶媒体 - Google Patents

情報生成装置、判定装置、情報生成方法、判定方法及び記憶媒体 Download PDF

Info

Publication number
WO2022244250A1
WO2022244250A1 PCT/JP2021/019399 JP2021019399W WO2022244250A1 WO 2022244250 A1 WO2022244250 A1 WO 2022244250A1 JP 2021019399 W JP2021019399 W JP 2021019399W WO 2022244250 A1 WO2022244250 A1 WO 2022244250A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
dimension
low
feature
feature information
Prior art date
Application number
PCT/JP2021/019399
Other languages
English (en)
French (fr)
Inventor
康敬 馬場崎
君 朴
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2023522170A priority Critical patent/JPWO2022244250A5/ja
Priority to PCT/JP2021/019399 priority patent/WO2022244250A1/ja
Publication of WO2022244250A1 publication Critical patent/WO2022244250A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present disclosure relates to technical fields of information generation devices, determination devices, information generation methods, determination methods, and storage media.
  • Patent Document 1 in a method for inspecting parts, image data representing a normal state is used as teacher data to train a neural network, and an image for inspection is input to the trained neural network.
  • a technique for determining the presence/absence of an abnormality in an image is disclosed.
  • Non-Patent Literature 1 discloses a technique for judging the presence or absence of an abnormality based on a deviation from a feature distribution specified using only normal data in an abnormality judgment using an image.
  • Non-Patent Document 1 also discloses a technique for reducing feature dimensions by principal component analysis.
  • anomaly detection if the feature dimension is reduced so as to reduce the processing cost, there is a risk that the anomaly detection accuracy will also decrease at the same time.
  • one object of the present disclosure is to realize highly accurate anomaly detection while reducing processing costs, or to generate information necessary for realizing an information generation device, determination device, information It is to provide a generation method, a determination method, and a storage medium.
  • One aspect of the information generating device is a feature information acquiring means for acquiring feature information of data representing a normal state; low variance dimension selection means for selecting a low variance dimension, which is a dimension corresponding to a predetermined number of axes having the lowest variance of the feature information in the feature space representing the feature information; reference information generating means for generating reference information representing the normal state in the low-dispersion dimension based on the low-dispersion dimension feature information representing the feature information in the low-dispersion dimension;
  • One aspect of the information generating method comprises: the computer Acquire the feature information of the data representing the normal state, selecting a low variance dimension, which is a dimension corresponding to a predetermined number of axes with the lowest variance of the feature information in the feature space representing the feature information; generating reference information representing the normal state in the low-dispersion dimension based on the low-dispersion dimension feature information representing the feature information in the low-dispersion dimension; It is an information generation method.
  • One aspect of the storage medium is Acquire the feature information of the data representing the normal state, selecting a low variance dimension, which is a dimension corresponding to a predetermined number of axes with the lowest variance of the feature information in the feature space representing the feature information;
  • a storage medium storing a program for causing a computer to execute processing for generating reference information representing the normal state in the low variance dimension based on the low variance dimension feature information representing the feature information in the low variance dimension.
  • FIG. 1 is a schematic configuration of an anomaly detection system according to a first embodiment;
  • A shows an example of a hardware configuration of an information generating device;
  • B shows an example of a hardware configuration of a determination device;
  • 1 shows an example of functional blocks of an information generation device relating to information generation processing.
  • A is a diagram abstractly representing the distribution of normal points on a two-dimensional feature space.
  • B In (A), it is the figure which specified abnormal data and its distance.
  • FIG. 11 is a graph showing transition of identification accuracy with respect to a plurality of sets of dimensionality and distance thresholds;
  • FIG. It is an example of the flowchart which shows the processing procedure of information generation processing. It is an example of the functional block of the determination device regarding abnormality determination processing.
  • FIG. 1 is a schematic configuration of an anomaly detection system 100 according to the first embodiment.
  • the anomaly detection system 100 is a system for detecting an anomaly in an object photographed by a camera. (also referred to as "abnormality determination processing").
  • the abnormality detection system 100 mainly includes an information generation device 1 that performs information generation processing, a storage device 2 that stores information referred to by the information generation device 1 and determination device 3, and a determination device 3 that performs abnormality determination processing. have.
  • the information generation device 1 executes information generation processing based on the training data stored in the training data storage unit 21 of the storage device 2, and stores the data generated by the information generation processing in the generated data storage unit 22 of the storage device 2. do.
  • the storage device 2 stores information necessary for information generation processing and abnormality determination processing.
  • the storage device 2 may be an external storage device such as a hard disk connected to or built in the information generation device 1 or the determination device 3, or may be a storage medium such as a flash memory. 3 may be a server device or the like that performs data communication. Further, the storage device 2 may be composed of a plurality of storage devices, and each of the storage units described above may be held in a distributed manner.
  • the storage device 2 functionally includes a teacher data storage unit 21 , a generated data storage unit 22 , and a determination target data storage unit 23 .
  • the teacher data storage unit 21 stores teacher data, which is image data used for information generation processing by the information generation device 1 .
  • the teacher data storage unit 21 stores at least normal teacher data obtained by photographing an object to be detected as an anomaly (simply referred to as an “object”) when the object is in a normal state, and an object in an abnormal state. Abnormal training data that photographed objects are included.
  • the normal teacher data is labeled as normal (normal label)
  • the abnormal teacher data is labeled as abnormal (abnormal label).
  • the abnormal teaching data is data for verification, which will be described later, and is smaller in number than the normal teaching data.
  • the generated data storage unit 22 stores data generated by the information generating process executed by the information generating device 1 .
  • the generated data storage unit 22 mainly stores "dimensionality reduction information I1", "normal distribution information I2", and "threshold information I3".
  • the dimension reduction information I1 is information (for example, transformation matrix) for transforming the feature space of the teacher data into a dimension lower than that of the feature space.
  • the 'dimension lower than the feature space' is a dimension configured by a predetermined number of axes in which the variance of the normal training data in the feature space is the lowest, and is hereinafter also referred to as a 'low variance dimension'.
  • the normal distribution information I2 is information representing the distribution (dictionary) of normal teacher data in the low variance dimension.
  • the threshold information I3 represents a threshold for determining whether or not there is an abnormality in the low variance dimension. The details of the method of generating each of these pieces of information will be described later.
  • the normal distribution information I2 and the threshold information I3 correspond to reference information representing the normal state of the object in the low variance dimension.
  • the determination target data storage unit 23 stores determination target data used in the abnormality determination process.
  • the determination target data is image data obtained by photographing an object to be determined whether or not there is an abnormality in the abnormality determination process.
  • the storage device 2 may store various information necessary for the information generation process and the abnormality determination process.
  • the storage device 2 may store parameters of a feature extractor that extracts features from teacher data or determination target data.
  • This feature extractor may be obtained by learning any learning model such as deep learning (including convolutional neural networks), support vector machines, and the like.
  • the storage device 2 stores the layer structure of the feature extractor, the neuron structure of each layer, the number and size of filters in each layer, the weight of each element of each filter, etc. information of various feature extractor parameters are stored.
  • the determination device 3 refers to the generated data storage unit 22 and executes abnormality determination processing for determination target data extracted from the determination target data storage unit 23 . Note that, when detecting an abnormality based on the determination target data, the determination device 3 may output information (audio output, display, log writing, etc.) regarding the abnormality.
  • the configuration of the anomaly detection system 100 shown in FIG. 1 is an example, and various modifications may be made.
  • the information generation device 1 and the determination device 3 may each be composed of a plurality of devices.
  • the plurality of devices constituting the information generating device 1 and the plurality of devices constituting the determination device 3 exchange information necessary for executing pre-assigned processing by direct wired or wireless communication. Alternatively, it is performed between devices by communication via a network.
  • the determination device 3 instead of handling the determination target data stored in the storage device 2, the determination device 3 regards an image generated by a camera that captures an object as determination target data and acquires it, and detects an abnormality in the determination target data. A determination process may be performed.
  • FIG. 2(A) shows an example of the hardware configuration of the information generating device 1.
  • the information generation device 1 includes a processor 11, a memory 12, and an interface 13 as hardware. Processor 11 , memory 12 and interface 13 are connected via data bus 19 .
  • the processor 11 functions as a controller (arithmetic device) that controls the entire information generation device 1 by executing programs stored in the memory 12 .
  • the processor 11 is, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a TPU (Tensor Processing Unit), a quantum processor, or the like.
  • Processor 11 may be composed of a plurality of processors.
  • Processor 11 is an example of a computer.
  • the memory 12 is composed of various volatile and nonvolatile memories such as RAM (Random Access Memory), ROM (Read Only Memory), and flash memory. Further, the memory 12 stores a program for executing the processing executed by the information generating device 1 . Part of the information stored in the memory 12 may be stored in an external storage device such as the storage device 2 that can communicate with the information generation device 1, or may be stored in a storage medium that is detachable from the information generation device 1. may be Alternatively, the memory 12 may store information stored by the storage device 2 .
  • RAM Random Access Memory
  • ROM Read Only Memory
  • flash memory stores a program for executing the processing executed by the information generating device 1 .
  • Part of the information stored in the memory 12 may be stored in an external storage device such as the storage device 2 that can communicate with the information generation device 1, or may be stored in a storage medium that is detachable from the information generation device 1. may be Alternatively, the memory 12 may store information stored by the storage device 2 .
  • the interface 13 is an interface for electrically connecting the information generating device 1 and other devices.
  • These interfaces may be wireless interfaces such as network adapters for wirelessly transmitting and receiving data to and from other devices, or hardware interfaces for connecting to other devices via cables or the like.
  • FIG. 2(B) shows an example of the hardware configuration of the determination device 3.
  • the determination device 3 includes a processor 31, a memory 32, and an interface 33 as hardware.
  • Processor 31 , memory 32 and interface 33 are connected via data bus 30 .
  • the processor 31 functions as a controller (arithmetic device) that performs overall control of the determination device 3 by executing programs stored in the memory 32 .
  • the processor 31 is, for example, a processor such as a CPU, GPU, TPU, or quantum processor.
  • the processor 31 may be composed of multiple processors.
  • Processor 31 is an example of a computer.
  • the memory 32 is composed of various volatile and nonvolatile memories such as RAM, ROM, and flash memory. Further, the memory 32 stores a program for executing the processing executed by the determination device 3 . Part of the information stored in the memory 32 may be stored in an external storage device such as the storage device 2 that can communicate with the determination device 3, or may be stored in a storage medium detachable from the determination device 3. good too. Alternatively, the memory 32 may store information stored by the storage device 2 .
  • the interface 33 is an interface for electrically connecting the determination device 3 and other devices.
  • These interfaces may be wireless interfaces such as network adapters for wirelessly transmitting and receiving data to and from other devices, or hardware interfaces for connecting to other devices via cables or the like.
  • the hardware configurations of the information generation device 1 and the determination device 3 are not limited to the configurations shown in FIGS. 2(A) and 2(B).
  • at least one of the information generating device 1 and the determination device 3 may further include a display section such as a display, an input section such as a keyboard and a mouse, and a sound output section such as a speaker.
  • the information generation device 1 selects the axes obtained by applying principal component analysis to the feature information of the normal training data in descending order of variance, thereby determining the low variance dimension and generating the dimension reduction information. I1, normal distribution information I2 and threshold information I3 are generated respectively. As a result, the information generation device 1 preferably generates information for realizing abnormality determination processing capable of identifying an abnormality with low processing cost and high identification performance.
  • FIG. 3 is an example of functional blocks of the information generation device 1 relating to information generation processing.
  • the processor 11 of the information generation device 1 functionally includes a feature extraction unit 14 , a low variance dimension selection unit 15 , and a reference information generation unit 16 .
  • the blocks that exchange data are connected by solid lines, but the combinations of blocks that exchange data are not limited to those shown in FIG. The same applies to other functional block diagrams to be described later.
  • the feature extraction unit 14 extracts teacher data used for information generation processing from the teacher data storage unit 21, and performs feature extraction processing on each teacher data.
  • the feature extraction unit 14 converts each piece of teacher data into feature information (specifically, a feature vector) in a feature space having a dimension of "N" (N is an integer equal to or greater than 2).
  • the feature extracting unit 14 configures a feature extractor based on the parameters stored in the storage device 2, for example, and sequentially inputs each teacher data to the feature extractor to obtain a feature corresponding to each teacher data. Get a vector.
  • the feature extraction unit 14 then supplies the feature vector corresponding to each teacher data to the low variance dimension selection unit 15 .
  • the low variance dimension selection unit 15 determines N axes (principal component axes) by performing principal component analysis on a plurality of feature vectors corresponding to a plurality of normal teacher data supplied from the feature extraction unit 14. Then, when the determined N axes are arranged in descending order of variance, the top “Ns” axes (Ns is an integer of 1 or more that satisfies Ns ⁇ N) are selected as axes of low variance dimension. In this way, the low variance dimension selection unit 15 selects the dimension corresponding to the Ns axes with the lowest variance among the axes obtained by the principal component analysis as the low variance dimension.
  • the number of dimensions (that is, the number of selected axes) Ns may be determined based on verification using abnormal teacher data, as will be described later, and is determined as a suitable value stored in advance in the storage device 2 or the like.
  • the low variance dimension selection unit 15 stores information on the low variance dimension (for example, a transformation matrix for transforming the N-dimensional feature space into the Ns-dimensional low variance dimension) in the generated data storage unit 22 as the dimension reduction information I1. do.
  • the transformation matrix described above is information that can be specified from the processing result of the principal component analysis.
  • the low variance dimension selection unit 15 converts the feature vector of each teacher data into a low variance dimension vector (also referred to as a “low variance dimension feature vector”), and converts the low variance dimension feature vector into a reference information generating unit. 16.
  • the reference information generator 16 generates normal distribution information I2 and threshold information I3 from the low variance dimension feature vector supplied from the low variance dimension selector 15 .
  • the reference information generation unit 16 generates normal distribution information I2 representing the distribution of low variance dimension feature vectors of normal teacher data, and stores the generated normal distribution information I2 in the generated data storage unit 22 .
  • the reference information generation unit 16 may calculate, as the normal distribution information I2, the centroid (average) vector and the variance-covariance matrix of the low variance dimension feature vectors of the normal teacher data.
  • the normal distribution information I2 is used for distance calculation, which will be described later.
  • the reference information generation unit 16 determines the threshold information I3.
  • the reference information generation unit 16 first determines the distance (also referred to as “distance L”) between the distribution of normal training data (for example, the centroid vector of normal training data) and the low variance dimension feature vector of each training data. ).
  • the distance L may be any distance used in anomaly detection, such as the Mahalanobis distance using a variance-covariance matrix.
  • the reference information generation unit 16 sets a threshold value (also referred to as “distance threshold value Lth”) for the distance L at which the low variance dimension feature vector of the normal training data and the low variance dimension feature vector of the abnormal training data can be separated. .
  • the reference information generator 16 sets, for example, a plurality of distance threshold Lth candidates that are prepared in advance, and sets the threshold that provides the highest identification accuracy as the distance threshold Lth.
  • the reference information generator 16 is not limited to this example, and may perform calculation for searching for the optimum value of the distance threshold Lth using any numerical analysis method (optimization method). Then, the reference information generation unit 16 stores the threshold information I3 representing the distance threshold Lth in the generated data storage unit 22 .
  • the reference information generating unit 16 may determine the distance threshold value Lth at the same time as the number of dimensions Ns by verification using abnormal teacher data, as will be described later.
  • the low-variance dimension selection unit 15 and the reference information generation unit 16 may simultaneously search for optimum values of the number of dimensions Ns and the distance threshold Lth instead of individually determining them. A specific example of this will be described in detail in the section “(3-3) Determination of Dimension Number Ns and Distance Threshold Lth by Verification”.
  • Each component of the processor 11 shown in FIG. 3 described above can be realized by the processor 11 executing a program, for example. Further, each component may be realized by recording necessary programs in an arbitrary nonvolatile storage medium and installing them as necessary. Note that at least part of each of these components may be realized by any combination of hardware, firmware, and software, without being limited to being implemented by program software. At least a portion of each of these components may also be implemented using a user-programmable integrated circuit, such as a field-programmable gate array (FPGA) or microcontroller. In this case, this integrated circuit may be used to implement a program composed of the above components.
  • FPGA field-programmable gate array
  • each component may be configured by ASSP (Application Specific Standard Produce) or ASIC (Application Specific Integrated Circuit).
  • ASSP Application Specific Standard Produce
  • ASIC Application Specific Integrated Circuit
  • FIG. 4A is a diagram abstractly representing the distribution of feature vectors of normal teacher data (also referred to as “normal data”) on a two-dimensional feature space consisting of a first feature axis and a second feature axis.
  • normal data normal teacher data
  • an ellipse 40 indicates an approximate distribution range of normal data
  • a barycenter 41 indicates the barycentric position (position of the barycentric vector) of normal data.
  • the high dispersion axis a which is the first principal component axis with the maximum dispersion
  • the low dispersion axis which is the second principal component axis perpendicular to the high dispersion axis a
  • Axis b is indicated by a dashed line.
  • the low-dispersion dimension selector 15 preferentially lowers the low-dispersion axis b over the high-dispersion axis a because the low-dispersion axis b has lower dispersion than the high-dispersion axis a. Select as the axis of the variance dimension.
  • the low-dispersion dimension selector 15 determines, for example, a one-dimensional low-dispersion dimension of the low-dispersion axis b.
  • FIG. 4(B) is a diagram clearly showing the feature vector (also called "abnormal data") 42 of the abnormal teacher data and its distance L in FIG. 4(A).
  • the abnormal training data corresponding to the abnormal data 42 has a different distribution in the feature space than the normal training data due to the abnormal state, and the abnormal data 42 is an ellipse 40 showing the distribution of normal points. exist outside the
  • the low-dispersion dimension selection unit 15 calculates, as the distance L, the distance (see arrow 43) between the abnormal data 42 and the center of gravity 41 with reference to the low-dispersion axis b, for example. do.
  • the reference information generation unit 16 sets the distance threshold Lth to the minor axis of the ellipse 40 or a length slightly larger than that, so that the abnormal data 42 and the normal data in the ellipse 40 can be preferably separated. It is possible.
  • a variance-covariance matrix (here, variance) of the normal training data such as the Mahalanobis distance, may be considered.
  • the distance L of the abnormal data 42 becomes the length corresponding to the arrow 44, and is an ellipse showing the distribution of normal points. It becomes shorter than the long diameter of 40. Therefore, in this case, no matter how the distance threshold Lth is set, the distance threshold Lth cannot be set so as to separate the normal data and the abnormal data 42 within the ellipse 40 .
  • the higher the variance of the axis the greater the variation of the axis, which represents the feature necessary for object recognition. Although suitable, it is not a useful feature axis for anomaly detection.
  • the lower the variance of the axis the smaller the variation of the axis, the more suitable the axis is for representing common features of objects. Therefore, in anomaly detection, the feature dimension that expresses features common to such objects becomes a feature dimension that more remarkably expresses the difference between the abnormal state and the normal state of the object.
  • the information generation device 1 preferentially selects an axis with a lower dispersion dimension as an axis with a lower dispersion dimension.
  • the information generation device 1 realizes high accuracy in abnormality detection while achieving high speed processing by feature dimension reduction in abnormality determination processing for determining abnormality in unknown data. becomes.
  • FIG. 5 is a graph showing transition of identification accuracy with respect to a plurality of combinations of the number of dimensions Ns and the distance threshold Lth.
  • the graph “G1" shows the transition of the identification accuracy when the distance threshold Lth is fixed at “ ⁇ ” and the number of dimensions Ns is changed
  • the graph “G2” shows the transition of the distance threshold Lth at "2 ⁇ ”.
  • the graph “G3” shows the transition of the identification accuracy when the number of dimensions Ns is changed while the distance threshold Lth is fixed at “3 ⁇ ” and the transition of the identification accuracy when the number of dimensions Ns is changed. show.
  • indicates the variance of the principal component axis specified by the principal component analysis (eg, the variance of the axis with the lowest variance or the mean of the variances of all axes).
  • the identification accuracy indicates the identification rate for normal training data and abnormal training data when the corresponding distance threshold Lth and the number of dimensions Ns are provisionally determined.
  • the identification accuracy increases as the number of dimensions Ns increases until the number of dimensions Ns reaches a predetermined number (near "Ns5" in FIG. 5). rises.
  • the number of dimensions Ns is equal to or greater than a predetermined number, even if the number of dimensions Ns increases, the identification accuracy hardly increases (that is, plateaus).
  • the low variance dimension selection unit 15 and the reference information generation unit 16 for example, gradually increase the number of dimensions Ns for each of the plurality of distance threshold Lth candidates, measure the identification accuracy, and temporarily increase the number of dimensions Ns.
  • the number of dimensions Ns is selected so that the degree of increase in the identification accuracy is equal to or less than a predetermined degree. For example, in the example of FIG. 5, the low variance dimension selection unit 15 and the reference information generation unit 16 select "Ns4" when the distance threshold Lth is ⁇ and 2 ⁇ , and select "Ns4" when the distance threshold Lth is 3 ⁇ . , select “Ns5”.
  • the low variance dimension selection unit 15 and the reference information generation unit 16 select a set having the highest identification accuracy among a plurality of sets of the selected number of dimensions Ns and the corresponding distance threshold value Lth as generated data. It is adopted as the distance threshold Lth and the number of dimensions Ns stored in the storage unit 22 .
  • the distance threshold Lth and the number of dimensions Ns stored in the storage unit 22 .
  • the low-variance dimension selection unit 15 and the reference information generation unit 16 generate a set ( ⁇ , Ns4) of each candidate for the distance threshold Lth and the number of dimensions Ns at which the rate of increase in the identification accuracy peaks, Among (2 ⁇ , Ns4) and (3 ⁇ , Ns5), the combination of (2 ⁇ , Ns4) has the highest identification accuracy, so the distance threshold Lth is set to 2 ⁇ and the dimension number Ns is set to "Ns4".
  • the axes of the low variance dimension are selected in descending order of variance, once the number of dimensions Ns is determined, the axis to be selected as the low variance dimension is also uniquely determined.
  • the low variance dimension selection unit 15 and the reference information generation unit 16 can refer to the identification accuracy calculated by using the abnormal teacher data and determine an appropriate set of the distance threshold Lth and the number of dimensions Ns. can. Note that the method of determining the set of the distance threshold Lth and the number of dimensions Ns is not limited to the method described with reference to FIG.
  • FIG. 6 is an example of a flowchart showing a processing procedure of information generation processing executed by the information generation device 1. As shown in FIG.
  • the information generating device 1 acquires a plurality of teacher data from the teacher data storage unit 21 (step S11).
  • the information generating device 1 acquires from the teacher data storage unit 21 a plurality of normal teacher data and a smaller number of abnormal teacher data for verification than the normal teacher data.
  • the information generating device 1 performs feature extraction processing on each acquired teacher data (step S12). As a result, the information generation device 1 generates a feature vector represented in the N-dimensional feature space for each piece of teacher data.
  • the information generating device 1 performs principal component analysis on the feature vectors of the normal training data acquired in step S12 (step S13). Then, the information generation device 1 sorts the principal component axes obtained by the principal component analysis according to the magnitude of variance (step S14).
  • the information generating device 1 determines the number of dimensions Ns when the axis is selected from the low dispersion side and the distance threshold Lth for determining whether it is normal or abnormal based on the distance L (step S15). In this case, for example, the information generating device 1 verifies the identification accuracy using the normal training data and the abnormal training data, and determines the number of dimensions Ns and the distance threshold Lth based on the identification accuracy obtained by the verification. Then, the information generation device 1 stores the dimension reduction information I1, the normal distribution information I2, and the threshold information I3 based on the execution result of step S15 in the generated data storage unit 22 (step S16).
  • the information generating device 1 for example, the dimension reduction information I1 representing the transformation matrix for transforming from the feature space to the low variance dimension, and the distribution of the normal training data in the low variance dimension (for example, the centroid vector and the variance covariance matrix etc.) and threshold information I3 representing the distance threshold Lth are stored in the generated data storage unit 22 .
  • the determination device 3 converts the feature vector of the determination target data into a low variance dimension feature vector based on the dimension reduction information I1, and calculates the distance L and the threshold information based on the low variance dimension feature vector and the normal distribution information I2. It is determined whether or not there is an abnormality based on the distance threshold value Lth indicated by I3. As a result, the determination device 3 uses the low variance dimension in which the axes are selected in descending order of variance to accurately perform the abnormality determination of the determination target data with a low processing load.
  • FIG. 7 is an example of functional blocks of the determination device 3 regarding abnormality determination processing.
  • the processor 11 of the information generation device 1 functionally includes a feature extraction section 34 , a low variance dimension conversion section 35 , a comparison section 36 and an abnormality determination section 37 .
  • the feature extraction unit 34 extracts the determination target data from the determination target data storage unit 23, and performs feature extraction processing on the extracted determination target data.
  • the feature extraction unit 34 uses the same feature extractor (feature extraction algorithm) as the feature extraction unit 14, and converts the determination target data into feature information (specifically, feature vectors) in a feature space with the number of dimensions N. .
  • the low variance dimension conversion unit 35 Based on the dimension reduction information I1 acquired from the generated data storage unit 22, the low variance dimension conversion unit 35 transforms the feature vector of the determination target data output by the feature extraction unit 34 into a low variance dimension feature vector, which is a vector in the low variance dimension. Convert to In this case, for example, the low variance dimension conversion unit 35 converts the feature vector of the determination target data into a low variance dimension feature vector by applying a conversion matrix from the feature space indicated by the dimension reduction information I1 to the low variance dimension. do.
  • the comparison unit 36 compares the distribution in the low variance dimension of the normal teacher data indicated by the normal distribution information I2 acquired from the generated data storage unit 22 and the low variance dimension feature vector of the determination target data calculated by the low variance dimension conversion unit 35. , the distance L is calculated.
  • the distance L is the distance of the same index as the distance L calculated by the reference information generation unit 16, and may be any distance used in abnormality detection, such as the Mahalanobis distance.
  • the comparison unit 36 calculates the distance L as the distance between the centroid vector in the low variance dimension of the normal teacher data indicated by the normal distribution information I2 and the low variance dimension feature vector of the determination target data.
  • the abnormality determination unit 37 determines whether there is an abnormality in the determination target data based on the distance threshold Lth indicated by the threshold information I3 acquired from the generated data storage unit 22 and the distance L calculated by the comparison unit 36. In this case, for example, when the distance L is equal to or greater than the distance threshold Lth, the abnormality determination unit 37 determines that the determination target data indicates an object in an abnormal state, and when the distance L is less than the distance threshold Lth, It is determined that the determination target data indicates an object in a normal state.
  • FIG. 8 is an example of a flowchart showing the processing procedure of the abnormality determination process executed by the determination device 3.
  • FIG. 8 is an example of a flowchart showing the processing procedure of the abnormality determination process executed by the determination device 3.
  • the feature extraction unit 34 of the determination device 3 acquires determination target data from the determination target data storage unit 23 (step S21). Then, the feature extraction unit 34 of the determination device 3 performs feature extraction processing on the acquired determination target data (step S22). Thereby, the feature extraction unit 34 calculates a feature vector for the determination target data. Then, the low variance dimension conversion unit 35 of the determination device 3 reduces the dimension of the feature vector obtained in step S22 based on the dimension reduction information I1 acquired from the generated data storage unit 22 (step S23). In this case, the low variance dimension conversion unit 35 converts the feature vector into a low variance dimension feature vector that is a vector in the low variance dimension.
  • the comparison unit 36 of the determination device 3 calculates the distance L to the low variance dimension feature vector of the determination target data obtained in step S23 based on the normal distribution information I2 obtained from the generated data storage unit 22 (step S24). . Based on the distance L calculated in step S24 and the distance threshold value Lth indicated by the threshold information I3 obtained from the generated data storage unit 22, the abnormality determination unit 37 detects the abnormality of the object indicated by the determination target data. A determination is made (step S25).
  • the determination device 3 uses the various information generated by the information generation device 1 to reduce the amount of calculations by dimension reduction, and at the same time to perform abnormality determination on determination target data in a low-dispersion dimension suitable for abnormality determination. can be executed accurately.
  • the information generation device 1 may execute information generation processing based on normal teaching data without using abnormal teaching data.
  • the teacher data storage unit 21 stores normal teacher data.
  • the low-variance dimension selection unit 15 selects the dimension number Ns, which is a fixed value, from each principal component axis obtained by applying principal component analysis to the feature vectors of the normal training data calculated by the feature extraction unit 14. , the axis with the lowest variance is preferentially selected to generate the dimensionality reduction information I1.
  • the number of dimensions Ns which is a fixed value, is stored in advance in the storage device 2 or the like.
  • the reference information generation unit 16 converts the feature vector of each normal teacher data into a low variance dimension feature vector, and generates normal distribution information I2 based on the low variance dimension feature vector.
  • the reference information generation unit 16 generates threshold information I3 representing the distance threshold Lth based on the variance of the normal teacher data on the principal component axis selected as the axis of the low variance dimension. For example, the reference information generating unit 16 determines a constant multiple of the above variance as the distance threshold Lth.
  • the information generation device 1 suitably generates various types of information (dimensionality reduction information I1, normal distribution information I2, threshold information I3) necessary for abnormality determination processing based on normal training data. be able to.
  • the information generation device 1 selects an axis that constitutes a low variance dimension from the principal component axes calculated by the principal component analysis. Alternatively, the information generation device 1 may select the axis that constitutes the low variance dimension without performing principal component analysis.
  • the information generation device 1 calculates the variance of the feature vector on each axis constituting the N-dimensional feature space based on the feature vector of the normal training data calculated by the feature extraction unit 14, and finds the lowest variance.
  • Nd axes may be selected as the axes that make up the low dispersion dimension.
  • the information generating device 1 suitably selects the axis with low dispersion in the normal state as the axis constituting the low dispersion dimension, and suitably generates various kinds of information for executing highly accurate abnormality determination processing. can do.
  • FIG. 9 shows a schematic configuration of an information generation device 1X according to the second embodiment.
  • the information generation device 1X mainly includes feature information acquisition means 14X, low dispersion dimension selection means 15X, and reference information generation means 16X.
  • the information generation device 1X may be composed of a plurality of devices.
  • the information generating device 1X can be the information generating device 1 in the first embodiment.
  • the feature information acquisition means 14X acquires feature information of data representing a normal state.
  • the "data" may be image data or sound data.
  • the feature information acquisition means 14X may generate feature information by performing feature extraction processing on data, feature information calculated from data by another device or processing block, or pre-stored in a storage device. You may acquire the feature information which was carried out.
  • the feature information acquisition unit 14X can be, for example, the feature extraction unit 14 in the first embodiment (including modifications; the same applies hereinafter).
  • the low variance dimension selection means 15X selects a low variance dimension, which is a dimension corresponding to a predetermined number of axes with the lowest variance of feature information in the feature space representing the feature information.
  • the “axis” may be an axis forming the feature space, or may be an axis obtained by applying principal component analysis or the like to the feature space.
  • the low dispersion dimension selection means 15X can be, for example, the low dispersion dimension selection unit 15 in the first embodiment.
  • the reference information generation means 16X generates reference information representing a normal state in the low dispersion dimension based on the low dispersion dimension feature information representing the feature information in the low dispersion dimension.
  • "Low variance dimension feature information" is, for example, the low variance dimension feature vector in the first embodiment.
  • the reference information can be, for example, the normal distribution information I2 and the threshold information I3 in the first embodiment.
  • the reference information generating means 16X can be, for example, the reference information generating section 16 in the first embodiment.
  • FIG. 10 is an example of a flowchart executed by the information generating device 1X in the second embodiment.
  • the feature information acquiring means 14X acquires feature information of data representing a normal state (step S31).
  • the low-variance dimension selecting means 15X selects a low-variance dimension, which is a dimension corresponding to a predetermined number of axes with the lowest variance of feature information in the feature space representing the feature information (step S32).
  • the reference information generating means 16X generates reference information representing a normal state in the low dispersion dimension based on the low dispersion dimension feature information representing the feature information in the low dispersion dimension (step S33).
  • the information generation device 1X can select a dimension in a feature space suitable for abnormality detection and can suitably generate reference information representing a normal state.
  • Non-transitory computer readable media include various types of tangible storage media.
  • Examples of non-transitory computer-readable media include magnetic storage media (e.g., floppy disks, magnetic tapes, hard disk drives), magneto-optical storage media (e.g., magneto-optical discs), CD-ROMs (Read Only Memory), CD-Rs, CD-R/W, semiconductor memory (eg mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)).
  • the program may also be delivered to the computer on various types of transitory computer readable medium.
  • Examples of transitory computer-readable media include electrical signals, optical signals, and electromagnetic waves.
  • Transitory computer-readable media can deliver the program to the computer via wired channels, such as wires and optical fibers, or wireless channels.
  • a feature information acquiring means for acquiring feature information of data representing a normal state
  • low variance dimension selection means for selecting a low variance dimension, which is a dimension corresponding to a predetermined number of axes having the lowest variance of the feature information in the feature space representing the feature information
  • reference information generating means for generating reference information representing the normal state in the low-dispersion dimension based on the low-dispersion dimension feature information representing the feature information in the low-dispersion dimension
  • An information generating device having [Appendix 2] The reference information generating means determines whether the determination target data corresponds to the normal state based on the distribution information representing the distribution of the low variance dimension feature information and the distance between the distribution and the determination target data as the reference information.
  • the information generation device which generates threshold information for determining whether the [Appendix 3]
  • the characteristic information acquiring means further acquires abnormal characteristic information, which is characteristic information of data representing an abnormal state, 3.
  • the information generating device according to appendix 1 or 2, wherein the low-dispersion dimension selection means determines the number of dimensions of the low-dispersion dimension based on verification using the abnormal feature information.
  • the reference information generating means determines, as the reference information, the reference information candidate corresponding to the set selected based on the verification from a plurality of sets of the dimensionality candidate and the reference information candidate.
  • the information generating device according to .
  • the low-variance dimension selection means selects a predetermined dimension in order from the side with the lowest variance when the axes obtained by performing principal component analysis on the feature information are arranged according to the size of the variance of the feature information. 5.
  • the information generation device according to any one of appendices 1 to 4, wherein a dimension corresponding to the number of axes is selected as the low dispersion dimension.
  • the information generating device according to any one of appendices 1 to 5, wherein the low variance dimension selection means generates transformation information for transforming the feature space into the low variance dimension.
  • Low variance dimension conversion means for converting the feature information into low variance dimension feature information represented by the low variance dimension selected by the information generation device according to any one of Appendices 1 to 6;
  • Abnormality determination means for determining whether or not there is an abnormality in the determination target data based on the low variance dimension feature information and the reference information generated by the information generation device;
  • Information generation method is
  • Appendix 9 Acquire the feature information of the data representing the normal state, selecting a low variance dimension, which is a dimension corresponding to a predetermined number of axes with the lowest variance of the feature information in the feature space representing the feature information;
  • a storage medium storing a program for causing a computer to execute a process of generating reference information representing the normal state in the low-dispersion dimension based on the low-dispersion dimension feature information representing the feature information in the low-dispersion dimension.
  • Appendix 10 the computer Acquire the feature information of the judgment target data, converting the feature information into low-dispersion dimension feature information represented by the low-dispersion dimension selected by the information generating device according to any one of Appendices 1 to 6; A determination method for determining whether or not there is an abnormality in the determination target data based on the low variance dimension feature information and the reference information generated by the information generation device.
  • Appendix 11 Acquire the feature information of the judgment target data, converting the feature information into low-dispersion dimension feature information represented by the low-dispersion dimension selected by the information generating device according to any one of Appendices 1 to 6;
  • a storage medium storing a program for causing a computer to execute a process of determining whether there is an abnormality in the determination target data based on the low variance dimension feature information and the reference information generated by the information generation device.
  • Reference Signs List 1 1X information generation device 2 storage device 3 determination device 11, 31 processor 12, 32 memory 13, 33 interface 21 teacher data storage unit 22 generated data storage unit 23 determination target data storage unit 100 anomaly detection system

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

情報生成装置1Xは、主に、特徴情報取得手段14Xと、低分散次元選択手段15Xと、基準情報生成手段16Xとを備える。特徴情報取得手段14Xは、正常状態を表すデータの特徴情報を取得する。低分散次元選択手段15Xは、特徴情報を表す特徴空間において特徴情報の分散が最も低い所定個数分の軸に対応する次元である低分散次元を選択する。基準情報生成手段16Xは、低分散次元により特徴情報を表した低分散次元特徴情報に基づいて、低分散次元において正常状態を表す基準情報を生成する。

Description

情報生成装置、判定装置、情報生成方法、判定方法及び記憶媒体
 本開示は、情報生成装置、判定装置、情報生成方法、判定方法及び記憶媒体の技術分野に関する。
 画像解析により異常検知を行う技術が存在する。例えば、特許文献1には、部品の検査方法において、正常な状態を表す画像データを教師データとして用いてニューラルネットワークの学習を行い、学習したニューラルネットワークに検査用の画像を入力することで検査用の画像における異常の有無の判定を行う技術が開示されている。また、非特許文献1には、画像による異常判定において、正常データのみを用いて特定した特徴分布からのずれに基づき異常の有無を判定する技術が開示されている。また、非特許文献1には、主成分分析による特徴次元の削減を行う技術についても開示されている。
国際公開WO2020/031984
Paolo Napoletano, Flavio Piccoli and Raimondo Schettini, "Anomaly Detection in Nanofibrous Materials by CNN-Based Self-Similarity", MDPI, Sensors 2018, 18, 209.
 異常検知において、低処理コストとなるように特徴次元の削減を行った場合、異常検知精度も同時に低下してしまう虞がある。
 本開示の目的の一つは、上述した課題を鑑み、処理コストを低減しつつ高精度な異常検知を実現する、又は、実現するために必要な情報を生成する情報生成装置、判定装置、情報生成方法、判定方法及び記憶媒体を提供することである。
 情報生成装置の一の態様は、
 正常状態を表すデータの特徴情報を取得する特徴情報取得手段と、
 前記特徴情報を表す特徴空間において前記特徴情報の分散が最も低い所定個数分の軸に対応する次元である低分散次元を選択する低分散次元選択手段と、
 前記低分散次元により前記特徴情報を表した低分散次元特徴情報に基づいて、前記低分散次元において前記正常状態を表す基準情報を生成する基準情報生成手段と、
を有する情報生成装置。
 情報生成方法の一の態様は、
 コンピュータが、
 正常状態を表すデータの特徴情報を取得し、
 前記特徴情報を表す特徴空間において前記特徴情報の分散が最も低い所定個数分の軸に対応する次元である低分散次元を選択し、
 前記低分散次元により前記特徴情報を表した低分散次元特徴情報に基づいて、前記低分散次元において前記正常状態を表す基準情報を生成する、
情報生成方法である。
 記憶媒体の一の態様は、
 正常状態を表すデータの特徴情報を取得し、
 前記特徴情報を表す特徴空間において前記特徴情報の分散が最も低い所定個数分の軸に対応する次元である低分散次元を選択し、
 前記低分散次元により前記特徴情報を表した低分散次元特徴情報に基づいて、前記低分散次元において前記正常状態を表す基準情報を生成する処理をコンピュータに実行させるプログラムを格納する記憶媒体である。
 処理コストを低減しつつ高精度な異常検知を実現する、又は、実現するために必要な情報を生成することが可能となる。
第1実施形態における異常検知システムの概略構成である。 (A)情報生成装置のハードウェア構成の一例を示す。(B)判定装置のハードウェア構成の一例を示す。 情報生成処理に関する情報生成装置の機能ブロックの一例を示す。 (A)2次元特徴空間上において正常点の分布を抽象的に表した図である。(B)(A)において、異常データ及びその距離を明示した図である。 複数の次元数及び距離閾値の組に対する識別精度の遷移を表すグラフである。 情報生成処理の処理手順を示すフローチャートの一例である。 異常判定処理に関する判定装置の機能ブロックの一例である。 異常判定処理の処理手順を示すフローチャートの一例である。 第2実施形態に係る情報生成装置の概略構成を示す。 第2実施形態において情報生成装置が実行する処理手順を示すフローチャートの一例である。
 以下、図面を参照しながら、情報生成装置、判定装置、情報生成方法、判定方法及び記憶媒体の実施形態について説明する。
 <第1実施形態>
 (1)全体構成
 図1は、第1実施形態における異常検知システム100の概略構成である。異常検知システム100は、カメラで撮影した物体の異常を検知するシステムであって、異常検知に必要な情報を生成する処理(「情報生成処理」とも呼ぶ。)と、異常の有無について判定する処理(「異常判定処理」とも呼ぶ。)とを実行する。異常検知システム100は、主に、情報生成処理を行う情報生成装置1と、情報生成装置1及び判定装置3が参照する情報を記憶する記憶装置2と、異常判定処理を行う判定装置3とを有する。
 情報生成装置1は、記憶装置2の教師データ記憶部21が記憶する教師データに基づいて、情報生成処理を実行し、情報生成処理により生成したデータを記憶装置2の生成データ記憶部22に記憶する。
 記憶装置2は、情報生成処理及び異常判定処理に必要な情報を記憶する。記憶装置2は、情報生成装置1又は判定装置3に接続又は内蔵されたハードディスクなどの外部記憶装置であってもよく、フラッシュメモリなどの記憶媒体であってもよく、情報生成装置1及び判定装置3とデータ通信を行うサーバ装置などであってもよい。また、記憶装置2は、複数の記憶装置から構成され、上述した各記憶部を分散して保有してもよい。
 記憶装置2は、機能的には、教師データ記憶部21と、生成データ記憶部22と、判定対象データ記憶部23とを有する。
 教師データ記憶部21は、情報生成装置1による情報生成処理に用いられる画像データである教師データを記憶する。教師データ記憶部21には、少なくとも、異常検知の対象となる物(単に「対象物」とも呼ぶ。)が正常状態であるときの対象物を撮影した正常教師データと、正常でない異常状態の対象物を撮影した異常教師データとが含まれている。好適には、正常教師データには、正常であることを示すラベル(正常ラベル)が付され、異常教師データには、異常であることを示すラベル(異常ラベル)が付されている。なお、異常教師データは、後述する検証用のデータであって、正常教師データよりも数が少ない。
 生成データ記憶部22は、情報生成装置1が実行する情報生成処理により生成されたデータを記憶する。生成データ記憶部22は、主に、「次元削減情報I1」と、「正常分布情報I2」と、「閾値情報I3」とを記憶する。ここで、次元削減情報I1は、教師データの特徴空間を、特徴空間より低い次元に変換するための情報(例えば変換行列)である。後述するように、「特徴空間より低い次元」は、特徴空間での正常教師データの分散が最も低くなる所定個数分の軸により構成される次元であり、以後では「低分散次元」とも呼ぶ。正常分布情報I2は、低分散次元での正常教師データの分布(辞書)を表す情報である。閾値情報I3は、低分散次元において異常か否かを判定するための閾値を表す。これらの各情報の生成方法の詳細については後述する。正常分布情報I2及び閾値情報I3は、低分散次元において対象物の正常状態を表す基準情報に相当する。
 判定対象データ記憶部23は、異常判定処理において用いられる判定対象データを記憶する。判定対象データは、異常判定処理において異常があるか否か判定される対象となる対象物が撮影された画像データである。
 なお、記憶装置2は、上述した情報に加えて、情報生成処理及び異常判定処理に必要な種々の情報を記憶してもよい。例えば、記憶装置2は、教師データ又は判定対象データから特徴抽出を行う特徴抽出器のパラメータを記憶してもよい。この特徴抽出器は、深層学習(畳み込みニューラルネットワークを含む)、サポートベクターマシーンなどの任意の学習モデルを学習することで得られたものであってもよい。例えば、特徴抽出器が深層学習に基づくアーキテクチャを有する場合、記憶装置2には、特徴抽出器の層構造、各層のニューロン構造、各層におけるフィルタ数及びフィルタサイズ、並びに各フィルタの各要素の重みなどの種々の特徴抽出器のパラメータの情報が記憶される。
 判定装置3は、生成データ記憶部22を参照し、判定対象データ記憶部23から抽出した判定対象データに関する異常判定処理を実行する。なお、判定装置3は、判定対象データに基づく異常を検知した場合に、当該異常に関する情報の出力(音声出力、表示、ログの書き込み等)を行ってもよい。
 なお、図1に示される異常検知システム100の構成は一例であり、種々の変更が行われてもよい。例えば、情報生成装置1と、記憶装置2と、判定装置3とのうち少なくとも2つが同一装置により実現されてもよい。他の例では、情報生成装置1と判定装置3とは、夫々、複数の装置により構成されてもよい。この場合、情報生成装置1を構成する複数の装置及び判定装置3を構成する複数の装置は、予め割り当てられた処理を実行するために必要な情報の授受を、有線又は無線での直接通信により又はネットワークを介した通信により装置間において行う。また、判定装置3は、記憶装置2に記憶された判定対象データを扱う代わりに、対象物を撮影するカメラが生成した画像を判定対象データとみなして取得し、当該判定対象データに対して異常判定処理を実行してもよい。
 (2)ハードウェア構成
 次に、情報生成装置1及び判定装置3の各ハードウェア構成について説明する。
 図2(A)は、情報生成装置1のハードウェア構成の一例を示す。情報生成装置1は、ハードウェアとして、プロセッサ11と、メモリ12と、インターフェース13とを含む。プロセッサ11、メモリ12、及びインターフェース13は、データバス19を介して接続されている。
 プロセッサ11は、メモリ12に記憶されているプログラムを実行することにより、情報生成装置1の全体の制御を行うコントローラ(演算装置)として機能する。プロセッサ11は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、TPU(Tensor Processing Unit)、量子プロセッサなどのプロセッサである。プロセッサ11は、複数のプロセッサから構成されてもよい。プロセッサ11は、コンピュータの一例である。
 メモリ12は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリなどの各種の揮発性メモリ及び不揮発性メモリにより構成される。また、メモリ12には、情報生成装置1が実行する処理を実行するためのプログラムが記憶される。なお、メモリ12が記憶する情報の一部は、情報生成装置1と通信可能な記憶装置2などの外部記憶装置により記憶されてもよく、情報生成装置1に対して着脱自在な記憶媒体により記憶されてもよい。また、メモリ12は、記憶装置2が記憶する情報を代わりに記憶してもよい。
 インターフェース13は、情報生成装置1と他の装置とを電気的に接続するためのインターフェースである。これらのインターフェースは、他の装置とデータの送受信を無線により行うためのネットワークアダプタなどのワイアレスインタフェースであってもよく、他の装置とケーブル等により接続するためのハードウェアインターフェースであってもよい。
 図2(B)は、判定装置3のハードウェア構成の一例を示す。判定装置3は、ハードウェアとして、プロセッサ31と、メモリ32と、インターフェース33とを含む。プロセッサ31、メモリ32、及びインターフェース33は、データバス30を介して接続されている。
 プロセッサ31は、メモリ32に記憶されているプログラムを実行することにより、判定装置3の全体の制御を行うコントローラ(演算装置)として機能する。プロセッサ31は、例えば、CPU、GPU、TPU、量子プロセッサなどのプロセッサである。プロセッサ31は、複数のプロセッサから構成されてもよい。プロセッサ31は、コンピュータの一例である。
 メモリ32は、RAM、ROM、フラッシュメモリなどの各種の揮発性メモリ及び不揮発性メモリにより構成される。また、メモリ32には、判定装置3が実行する処理を実行するためのプログラムが記憶される。なお、メモリ32が記憶する情報の一部は、判定装置3と通信可能な記憶装置2などの外部記憶装置により記憶されてもよく、判定装置3に対して着脱自在な記憶媒体により記憶されてもよい。また、メモリ32は、記憶装置2が記憶する情報を代わりに記憶してもよい。
 インターフェース33は、判定装置3と他の装置とを電気的に接続するためのインターフェースである。これらのインターフェースは、他の装置とデータの送受信を無線により行うためのネットワークアダプタなどのワイアレスインタフェースであってもよく、他の装置とケーブル等により接続するためのハードウェアインターフェースであってもよい。
 なお、情報生成装置1及び判定装置3のハードウェア構成は、図2(A)及び図2(B)に示す構成に限定されない。例えば、情報生成装置1又は判定装置3の少なくとも一方は、ディスプレイなどの表示部、キーボードやマウスなどの入力部、スピーカなどの音出力部などをさらに備えてもよい。
 (3)情報生成処理
 次に、情報生成装置1が実行する情報生成処理について説明する。概略的には、情報生成装置1は、正常教師データの特徴情報に主成分分析を適用することで得られる軸を分散が低い方から順に選択することで低分散次元を決定し、次元削減情報I1、正常分布情報I2及び閾値情報I3を夫々生成する。これにより、情報生成装置1は、低処理コストかつ高識別性能により異常を識別可能な異常判定処理を実現するための情報を好適に生成する。
 (3-1)機能ブロック
 図3は、情報生成処理に関する情報生成装置1の機能ブロックの一例である。図3に示すように、情報生成装置1のプロセッサ11は、機能的には、特徴抽出部14と、低分散次元選択部15と、基準情報生成部16とを有する。なお、図3では、データの授受が行われるブロック同士を実線により結んでいるが、データの授受が行われるブロックの組合せは図3に限定されない。後述する他の機能ブロックの図においても同様である。
 特徴抽出部14は、情報生成処理に使用する教師データを教師データ記憶部21から抽出し、各教師データに対して特徴抽出処理を行う。この場合、特徴抽出部14は、各教師データを、次元数「N」(Nは2以上の整数)の特徴空間における特徴情報(詳しくは特徴ベクトル)に変換する。この場合、特徴抽出部14は、例えば、記憶装置2に記憶されたパラメータに基づき特徴抽出器を構成し、当該特徴抽出器に各教師データを順に入力することで、各教師データに対応する特徴ベクトルを取得する。そして、特徴抽出部14は、各教師データに対応する特徴ベクトルを、低分散次元選択部15に供給する。
 低分散次元選択部15は、特徴抽出部14から供給される、複数の正常教師データに対応する複数の特徴ベクトルに対して主成分分析を行うことでN個の軸(主成分軸)を決定し、決定したN個の軸を分散が低い方から並べた場合の上位「Ns」個(Nsは、Ns<Nを満たす1以上の整数)の軸を、低分散次元の軸として選択する。このように、低分散次元選択部15は、主成分分析により得られた軸のうち最も分散が低いNs個の軸に対応する次元を低分散次元として選択する。
 ここで、次元数(即ち、軸の選択数)Nsは、後述するように、異常教師データを用いた検証に基づき決定されてもよく、記憶装置2等に予め記憶された適合値に決定されてもよい。低分散次元選択部15は、低分散次元に関する情報(例えば、N次元の特徴空間をNs次元の低分散次元に変換するための変換行列)を、次元削減情報I1として生成データ記憶部22に記憶する。なお、上述の変換行列は、主成分分析の処理結果から特定可能な情報である。また、低分散次元選択部15は、各教師データの特徴ベクトルを、低分散次元のベクトル(「低分散次元特徴ベクトル」とも呼ぶ。)に変換し、当該低分散次元特徴ベクトルを、基準情報生成部16に供給する。
 基準情報生成部16は、低分散次元選択部15から供給される低分散次元特徴ベクトルから正常分布情報I2及び閾値情報I3の生成を行う。
 まず、基準情報生成部16は、正常教師データの低分散次元特徴ベクトルの分布を表す正常分布情報I2を生成し、生成した正常分布情報I2を生成データ記憶部22に記憶する。この場合、例えば、基準情報生成部16は、正常分布情報I2として、正常教師データの低分散次元特徴ベクトルの重心(平均)ベクトル及び分散共分散行列等を算出してもよい。正常分布情報I2は、後述する距離の算出に用いられる。
 さらに、基準情報生成部16は、閾値情報I3を決定する。この場合、例えば、基準情報生成部16は、まず、正常教師データの分布(例えば正常教師データの重心ベクトル)と、各教師データの低分散次元特徴ベクトルとの距離(「距離L」とも呼ぶ。)を算出する。なお、距離Lは、分散共分散行列を用いたマハラノビス距離などの、異常検知において用いられる任意の距離であってもよい。そして、基準情報生成部16は、正常教師データの低分散次元特徴ベクトルと異常教師データの低分散次元特徴ベクトルとを分離可能な距離Lに対する閾値(「距離閾値Lth」とも呼ぶ。)を設定する。この場合、基準情報生成部16は、例えば、予め用意した複数の距離閾値Lthの候補となる閾値を設定し、最も識別精度が高くなる閾値を、距離閾値Lthとして設定する。なお、この例に限らず、基準情報生成部16は、任意の数値解析手法(最適化手法)を用いて距離閾値Lthの最適値を探索する計算を行ってもよい。そして、基準情報生成部16は、距離閾値Lthを表す閾値情報I3を、生成データ記憶部22に記憶する。
 なお、基準情報生成部16は、後述するように、距離閾値Lthを、異常教師データを用いた検証により、次元数Nsと同時に決定してもよい。言い換えると、低分散次元選択部15及び基準情報生成部16は、次元数Nsと距離閾値Lthとを個別に決定する代わりに、これらの最適値の探索を同時に行ってもよい。この具体例については、「(3-3)検証による次元数Ns及び距離閾値Lthの決定」のセクションにて詳しく説明する。
 以上説明した図3に示されるプロセッサ11の各構成要素(特徴抽出部14、低分散次元選択部15、基準情報生成部16)は、例えば、プロセッサ11がプログラムを実行することによって実現できる。また、必要なプログラムを任意の不揮発性記憶媒体に記録しておき、必要に応じてインストールすることで、各構成要素を実現するようにしてもよい。なお、これらの各構成要素の少なくとも一部は、プログラムによるソフトウェアで実現することに限ることなく、ハードウェア、ファームウェア、及びソフトウェアのうちのいずれかの組合せ等により実現してもよい。また、これらの各構成要素の少なくとも一部は、例えばFPGA(field-programmable gate array)又はマイクロコントローラ等の、ユーザがプログラミング可能な集積回路を用いて実現してもよい。この場合、この集積回路を用いて、上記の各構成要素から構成されるプログラムを実現してもよい。また、各構成要素の少なくとも一部は、ASSP(Application Specific Standard Produce)やASIC(Application Specific Integrated Circuit)により構成されてもよい。このように、上述の各構成要素は、種々のハードウェアにより実現されてもよい。さらに、これらの各構成要素は,例えば,クラウドコンピューティング技術などを用いて、複数のコンピュータの協働によって実現されてもよい。以上のことは、後述する他の実施の形態においても同様である。
 (3-2)軸選択の具体例及び効果
 次に、本実施形態に基づく低分散次元の軸選択の具体例及びその効果について説明する。
 図4(A)は、第1特徴軸及び第2特徴軸からなる2次元特徴空間上において、正常教師データの特徴ベクトル(「正常データ」とも呼ぶ。)の分布を抽象的に表した図である。図4(A)において、楕円40は、正常データのおよその分布範囲を示しており、重心41は正常データの重心位置(重心ベクトルの位置)を示す。そして、図4(A)では、主成分分析により得られる、分散が最大となる第1主成分軸である高分散軸aと、高分散軸aと垂直な第2主成分軸である低分散軸bとが破線により明示されている。
 図4(A)の例では、低分散次元選択部15は、低分散軸bが高分散軸aよりも低分散であることから、低分散軸bを高分散軸aよりも優先的に低分散次元の軸として選択する。ここでは、低分散次元選択部15は、例えば、低分散軸bの1次元の低分散次元を決定する。
 図4(B)は、図4(A)において、異常教師データの特徴ベクトル(「異常データ」とも呼ぶ。)42及びその距離Lを明示した図である。ここで、異常データ42に対応する異常教師データは、異常状態であることに起因して正常教師データとは特徴空間における分布が異なっており、異常データ42は、正常点の分布を示す楕円40の外側に存在する。
 この場合、図4(B)に示すように、低分散次元選択部15は、距離Lとして、例えば、低分散軸bを基準として異常データ42と重心41との距離(矢印43参照)を算出する。ここで、異常データ42は、低分散軸bを基準とした場合には、正常点との分布と明確に異なる。従って、基準情報生成部16は、距離閾値Lthを楕円40の短径又はそれよりわずかに大きい長さに設定することで、異常データ42と楕円40内の正常データとを好適に分離することが可能である。なお、距離Lの算出では、マハラノビス距離などのように、正常教師データの分散共分散行列(ここでは分散)を考慮してもよい。
 一方、仮に高分散軸aを低分散次元の軸として選択して距離Lを算出する場合には、異常データ42の距離Lは、矢印44に相当する長さとなり、正常点の分布を示す楕円40の長径よりも短くなる。よって、この場合には、いかに距離閾値Lthを設定した場合であっても、楕円40内の正常データと異常データ42とを分離するような距離閾値Lthを設定することはできない。
 以上説明した図4(A)及び図4(B)の例に示されるように、分散が高い軸であるほど、変動が大きい特徴を表す軸となり、物体の認識に必要な特徴を表す軸として適しているが、異常検知においては有効な特徴を表す軸とはならない。一方、分散が低い軸であるほど、変動が小さい特徴を表す軸となり、物体に共通する特徴を表す軸として適した軸となる。従って、異常検知では、このような物体に共通する特徴を表す特徴次元であるほど、物体の異常状態と正常状態との差異が顕著に表れる特徴次元となる。
 以上を勘案し、第1実施形態に係る情報生成装置1は、低分散である軸ほど優先的に低分散次元の軸として選択する。これにより、情報生成装置1は、未知のデータの異常を判定する異常判定処理において、特徴次元削減による処理の高速化を実現しつつ、異常検知において高い精度を実現させる。
となる。
 (3-3)検証による次元数Ns及び距離閾値Lthの決定
 次に、異常教師データを用いた検証による次元数Ns及び距離閾値Lthの決定方法について説明する。ここでは、一例として、低分散次元選択部15と基準情報生成部16とが協働して次元数Nsと距離閾値Lthとを同時に決定する例について説明する。
 図5は、複数の次元数Ns及び距離閾値Lthの組に対する識別精度の遷移を表すグラフである。ここで、グラフ「G1」は、距離閾値Lthを「σ」に固定して次元数Nsを変化させた場合の識別精度の遷移を示し、グラフ「G2」は、距離閾値Lthを「2σ」に固定して次元数Nsを変化させた場合の識別精度の遷移を示し、グラフ「G3」は、距離閾値Lthを「3σ」に固定して次元数Nsを変化させた場合の識別精度の遷移を示す。ここで、「σ」は、主成分分析により特定される主成分軸の分散(例えば最も分散が低い軸の分散又は全ての軸の分散の平均)を示す。また、識別精度は、対応する距離閾値Lth及び次元数Nsを仮決めした場合の正常教師データ及び異常教師データに対する識別率を示す。
 図5に示すように、いずれの距離閾値Lthを採用した場合であっても、次元数Nsが所定数(図5では「Ns5」付近)になるまでは、次元数Nsが大きくなるほど、識別精度が上昇する。一方、次元数Nsが所定数以上となる場合、次元数Nsが大きくなっても識別精度が殆ど上昇しなくなる(即ち頭打ちになる)。
 従って、低分散次元選択部15及び基準情報生成部16は、例えば、複数の距離閾値Lthの候補の各々に対し、次元数Nsを徐々に増やして識別精度を測定し、次元数Nsを仮に増やした場合の識別精度の上昇の度合いが所定度合い以下となる次元数Nsを選択する。例えば、図5の例では、低分散次元選択部15及び基準情報生成部16は、距離閾値Lthがσ及び2σの場合には、「Ns4」を選択し、距離閾値Lthが3σの場合には、「Ns5」を選択する。
 そして、低分散次元選択部15及び基準情報生成部16は、選択した次元数Nsと、これに対応する距離閾値Lthの候補との複数の組のうち、識別精度が最も高い組を、生成データ記憶部22に記憶する距離閾値Lth及び次元数Nsとして採用する。図5の例では、低分散次元選択部15及び基準情報生成部16は、距離閾値Lthの各候補と、夫々識別精度の上昇率が頭打ちとなる次元数Nsとの組(σ,Ns4)、(2σ,Ns4),(3σ,Ns5)のうち、(2σ,Ns4)の組が最も識別精度が高いことから、距離閾値Lthを2σとし、次元数Nsを「Ns4」とする。なお、上述したように、低分散次元の軸は、分散が低い順に選択されるため、次元数Nsが定まれば低分散次元として選択される軸も一意に定まる。
 このように、低分散次元選択部15及び基準情報生成部16は、異常教師データを用いることで算出される識別精度を参照し、適切な距離閾値Lth及び次元数Nsの組を決定することができる。なお、距離閾値Lth及び次元数Nsの組の決定方法は図5を用いて説明した方法に限らず、多変数の最適値を探索する任意の最適化方法を用いてもよい。
 (3-4)処理フロー
 図6は、情報生成装置1が実行する情報生成処理の処理手順を示すフローチャートの一例である。
 まず、情報生成装置1は、複数の教師データを教師データ記憶部21から取得する(ステップS11)。この場合、例えば、情報生成装置1は、複数の正常教師データと、正常教師データより少数の検証用の異常教師データとを、教師データ記憶部21から取得する。
 次に、情報生成装置1は、取得した各教師データに対して特徴抽出処理を行う(ステップS12)。これにより、情報生成装置1は、次元数Nの特徴空間において表される特徴ベクトルを教師データごとに生成する。
 次に、情報生成装置1は、ステップS12で取得した正常教師データの特徴ベクトルに対して主成分分析を実行する(ステップS13)。そして、情報生成装置1は、主成分分析により得られた主成分軸を分散の大きさに従いソートする(ステップS14)。
 そして、情報生成装置1は、低分散側から軸を選択する場合の次元数Ns及び正常か異常かを距離Lにより判定するための距離閾値Lthを決定する(ステップS15)。この場合、例えば、情報生成装置1は、正常教師データと異常教師データとを用いて識別精度の検証を行い、検証により得た識別精度に基づき、次元数Ns及び距離閾値Lthを決定する。そして、情報生成装置1は、ステップS15の実行結果に基づく次元削減情報I1、正常分布情報I2及び閾値情報I3を、生成データ記憶部22に記憶する(ステップS16)。この場合、情報生成装置1は、例えば、特徴空間から低分散次元に変換するための変換行列を表す次元削減情報I1と、正常教師データの低分散次元における分布(例えば重心ベクトル及び分散共分散行列等)を表す正常分布情報I2と、距離閾値Lthを表す閾値情報I3とを、生成データ記憶部22に記憶する。
 (4)異常判定処理
 次に、判定装置3が実行する異常判定処理について説明する。概略的には、判定装置3は、判定対象データの特徴ベクトルを次元削減情報I1に基づき低分散次元特徴ベクトルに変換し、当該低分散次元特徴ベクトル及び正常分布情報I2に基づく距離Lと閾値情報I3が示す距離閾値Lthとに基づき異常であるか否かの判定を行う。これにより、判定装置3は、分散が低い順に軸が選択された低分散次元を用いて、判定対象データの異常判定を的確かつ低処理負荷により実行する。
 図7は、異常判定処理に関する判定装置3の機能ブロックの一例である。図7に示すように、情報生成装置1のプロセッサ11は、機能的には、特徴抽出部34と、低分散次元変換部35と、比較部36と、異常判定部37とを有する。
 特徴抽出部34は、判定対象データを判定対象データ記憶部23から抽出し、抽出した判定対象データに対して特徴抽出処理を行う。この場合、特徴抽出部34は、特徴抽出部14と同一の特徴抽出器(特徴抽出アルゴリズム)を用い、判定対象データを、次元数Nの特徴空間における特徴情報(詳しくは特徴ベクトル)に変換する。
 低分散次元変換部35は、生成データ記憶部22から取得する次元削減情報I1に基づき、特徴抽出部34が出力する判定対象データの特徴ベクトルを、低分散次元におけるベクトルである低分散次元特徴ベクトルに変換する。この場合、例えば、低分散次元変換部35は、次元削減情報I1が示す特徴空間から低分散次元への変換行列を適用することで、判定対象データの特徴ベクトルを、低分散次元特徴ベクトルに変換する。
 比較部36は、生成データ記憶部22から取得する正常分布情報I2が示す正常教師データの低分散次元での分布と、低分散次元変換部35が算出した判定対象データの低分散次元特徴ベクトルとの距離Lを算出する。この場合、距離Lは、基準情報生成部16が算出する距離Lと同一指標の距離であって、マハラノビス距離などの、異常検知において用いられる任意の距離であってもよい。例えば、比較部36は、正常分布情報I2が示す正常教師データの低分散次元での重心ベクトルと判定対象データの低分散次元特徴ベクトルとの距離を距離Lとして算出する。
 異常判定部37は、生成データ記憶部22から取得する閾値情報I3が示す距離閾値Lthと、比較部36が算出した距離Lとに基づき、判定対象データに関する異常の有無の判定を行う。この場合、例えば、異常判定部37は、距離Lが距離閾値Lth以上である場合、判定対象データは異常状態の対象物を示していると判定し、距離Lが距離閾値Lth未満である場合、判定対象データは正常状態の対象物を示していると判定する。
 図8は、判定装置3が実行する異常判定処理の処理手順を示すフローチャートの一例である。
 まず、判定装置3の特徴抽出部34は、判定対象データ記憶部23から判定対象データを取得する(ステップS21)。そして、判定装置3の特徴抽出部34は、取得した判定対象データに対して特徴抽出処理を行う(ステップS22)。これにより、特徴抽出部34は、判定対象データに対する特徴ベクトルを算出する。そして、判定装置3の低分散次元変換部35は、生成データ記憶部22から取得する次元削減情報I1に基づき、ステップS22で得られた特徴ベクトルの次元を削減する(ステップS23)。この場合、低分散次元変換部35は、特徴ベクトルを、低分散次元でのベクトルである低分散次元特徴ベクトルに変換する。
 そして、判定装置3の比較部36は、生成データ記憶部22から取得する正常分布情報I2に基づき、ステップS23で得た判定対象データの低分散次元特徴ベクトルに対する距離Lを算出する(ステップS24)。そして、異常判定部37は、ステップS24での算出結果である距離Lと、生成データ記憶部22から取得する閾値情報I3が示す距離閾値Lthとに基づき、判定対象データにより示される対象物の異常判定を行う(ステップS25)。
 以上のように、判定装置3は、情報生成装置1が生成した各種情報を用いることで、次元削減による計算量削減を実現しつつ、異常判定に適した低分散次元において判定対象データに関する異常判定を的確に実行することができる。
 (5)変形例
 次に、上述した実施形態に適用可能な変形例について説明する。以下の変形例は、任意に組み合わせて実施されてもよい。
 (第1変形例)
 情報生成装置1は、異常教師データを用いることなく、正常教師データに基づいて情報生成処理を実行してもよい。
 この場合、教師データ記憶部21には、正常教師データが記憶されている。そして、低分散次元選択部15は、特徴抽出部14が算出した正常教師データの特徴ベクトルに対して主成分分析を適用することで得た各主成分軸から、固定値である次元数Nsだけ、分散が低い軸から優先して選択し、次元削減情報I1を生成する。この場合、固定値である次元数Nsは、予め記憶装置2等に記憶されている。そして、基準情報生成部16は、各正常教師データの特徴ベクトルを低分散次元特徴ベクトルに変換し、当該低分散次元特徴ベクトルに基づき正常分布情報I2を生成する。さらに、基準情報生成部16は、低分散次元の軸として選択した主成分軸における正常教師データの分散等に基づき、距離閾値Lthを表す閾値情報I3を生成する。例えば、基準情報生成部16は、上述の分散の定数倍を、距離閾値Lthとして定める。
 このように、本変形例においても、情報生成装置1は、正常教師データに基づき、異常判定処理に必要な各種情報(次元削減情報I1、正常分布情報I2、閾値情報I3)を好適に生成することができる。
 (第2変形例)
 情報生成装置1は、主成分分析により算出した主成分軸から低分散次元を構成する軸を選択した。これに代えて、情報生成装置1は、主成分分析を行うことなく、低分散次元を構成する軸を選択してもよい。
 例えば、情報生成装置1は、特徴抽出部14が算出する正常教師データの特徴ベクトルに基づき、N次元の特徴空間を構成する各軸での当該特徴ベクトルの分散を算出し、当該分散が最も低いNd個の軸を、低分散次元を構成する軸として選択してもよい。この場合においても、情報生成装置1は、正常状態において分散が低くなる軸を低分散次元を構成する軸として好適に選択し、高精度な異常判定処理を実行するための各種情報を好適に生成することができる。
 <第2実施形態>
 図9は、第2実施形態に係る情報生成装置1Xの概略構成を示す。情報生成装置1Xは、主に、特徴情報取得手段14Xと、低分散次元選択手段15Xと、基準情報生成手段16Xとを備える。情報生成装置1Xは、複数の装置から構成されてもよい。情報生成装置1Xは、第1実施形態における情報生成装置1とすることができる。
 特徴情報取得手段14Xは、正常状態を表すデータの特徴情報を取得する。この場合、「データ」は、画像データであってもよく、音データであってもよい。また、特徴情報取得手段14Xは、データに対して特徴抽出処理を行うことで特徴情報を生成してもよく、他の装置又は処理ブロックがデータから算出した特徴情報、又は、記憶装置に予め記憶された特徴情報を取得してもよい。特徴情報取得手段14Xは、例えば、第1実施形態(変形例を含む、以下同じ)における特徴抽出部14とすることができる。
 低分散次元選択手段15Xは、特徴情報を表す特徴空間において特徴情報の分散が最も低い所定個数分の軸に対応する次元である低分散次元を選択する。「軸」は、特徴空間を構成する軸であってもよく、特徴空間に対して主成分分析等を適用することで得られる軸であってもよい。低分散次元選択手段15Xは、例えば、第1実施形態における低分散次元選択部15とすることができる。
 基準情報生成手段16Xは、低分散次元により特徴情報を表した低分散次元特徴情報に基づいて、低分散次元において正常状態を表す基準情報を生成する。「低分散次元特徴情報」は、例えば、第1実施形態における低分散次元特徴ベクトルである。基準情報は、例えば、第1実施形態における正常分布情報I2及び閾値情報I3とすることができる。基準情報生成手段16Xは、例えば、第1実施形態における基準情報生成部16とすることができる。
 図10は、第2実施形態において情報生成装置1Xが実行するフローチャートの一例である。まず、特徴情報取得手段14Xは、正常状態を表すデータの特徴情報を取得する(ステップS31)。そして、低分散次元選択手段15Xは、特徴情報を表す特徴空間において特徴情報の分散が最も低い所定個数分の軸に対応する次元である低分散次元を選択する(ステップS32)。そして、基準情報生成手段16Xは、低分散次元により特徴情報を表した低分散次元特徴情報に基づいて、低分散次元において正常状態を表す基準情報を生成する(ステップS33)。
 第2実施形態によれば、情報生成装置1Xは、異常検知に好適な特徴空間での次元の選択を行い、かつ、正常状態を表す基準情報を好適に生成することができる。
 なお、上述した各実施形態において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータであるプロセッサ等に供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記憶媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記憶媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記憶媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 その他、上記の各実施形態の一部又は全部は、以下の付記のようにも記載され得るが以下には限られない。
[付記1]
 正常状態を表すデータの特徴情報を取得する特徴情報取得手段と、
 前記特徴情報を表す特徴空間において前記特徴情報の分散が最も低い所定個数分の軸に対応する次元である低分散次元を選択する低分散次元選択手段と、
 前記低分散次元により前記特徴情報を表した低分散次元特徴情報に基づいて、前記低分散次元において前記正常状態を表す基準情報を生成する基準情報生成手段と、
を有する情報生成装置。
[付記2]
 前記基準情報生成手段は、前記基準情報として、前記低分散次元特徴情報の分布を表す分布情報と、前記分布と判定対象データとの距離に基づき当該判定対象データが前記正常状態に対応するか否か判定するための閾値情報とを生成する、付記1に記載の情報生成装置。
[付記3]
 前記特徴情報取得手段は、異常状態を表すデータの特徴情報である異常特徴情報をさらに取得し、
 前記低分散次元選択手段は、前記異常特徴情報を用いた検証に基づき、前記低分散次元の次元数を決定する、付記1または2に記載の情報生成装置。
[付記4]
 前記基準情報生成手段は、前記次元数の候補と前記基準情報の候補の複数の組から前記検証に基づき選択された組に対応する前記基準情報の候補を、前記基準情報として決定する、付記3に記載の情報生成装置。
[付記5]
 前記低分散次元選択手段は、前記特徴情報に対して主成分分析を行うことで得られた軸を前記特徴情報の分散の大きさに従い並べた場合に前記分散が最も低い側から順に選択した所定個数分の軸に対応する次元を、前記低分散次元として選択する、付記1~4のいずれか一項に記載の情報生成装置。
[付記6]
 前記低分散次元選択手段は、前記特徴空間を前記低分散次元に変換するための変換情報を生成する、付記1~5のいずれか一項に記載の情報生成装置。
[付記7]
 判定対象データの特徴情報を取得する特徴情報取得手段と、
 前記特徴情報を、付記1~6のいずれか一項に記載の情報生成装置が選択した低分散次元により表した低分散次元特徴情報に変換する低分散次元変換手段と、
 当該低分散次元特徴情報と、前記情報生成装置が生成した基準情報とに基づき、前記判定対象データに関する異常の有無の判定を行う異常判定手段と、
を有する判定装置。
[付記8]
 コンピュータが、
 正常状態を表すデータの特徴情報を取得し、
 前記特徴情報を表す特徴空間において前記特徴情報の分散が最も低い所定個数分の軸に対応する次元である低分散次元を選択し、
 前記低分散次元により前記特徴情報を表した低分散次元特徴情報に基づいて、前記低分散次元において前記正常状態を表す基準情報を生成する、
情報生成方法。
[付記9]
 正常状態を表すデータの特徴情報を取得し、
 前記特徴情報を表す特徴空間において前記特徴情報の分散が最も低い所定個数分の軸に対応する次元である低分散次元を選択し、
 前記低分散次元により前記特徴情報を表した低分散次元特徴情報に基づいて、前記低分散次元において前記正常状態を表す基準情報を生成する処理をコンピュータに実行させるプログラムを格納する記憶媒体。
[付記10]
 コンピュータが、
 判定対象データの特徴情報を取得し、
 前記特徴情報を、付記1~6のいずれか一項に記載の情報生成装置が選択した低分散次元により表した低分散次元特徴情報に変換し、
 当該低分散次元特徴情報と、前記情報生成装置が生成した基準情報とに基づき、前記判定対象データに関する異常の有無の判定を行う、判定方法。
[付記11]
 判定対象データの特徴情報を取得し、
 前記特徴情報を、付記1~6のいずれか一項に記載の情報生成装置が選択した低分散次元により表した低分散次元特徴情報に変換し、
 当該低分散次元特徴情報と、前記情報生成装置が生成した基準情報とに基づき、前記判定対象データに関する異常の有無の判定を行う処理をコンピュータに実行させるプログラムを格納する記憶媒体。
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。すなわち、本願発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。また、引用した上記の特許文献等の各開示は、本書に引用をもって繰り込むものとする。
 製品製造ラインでの欠陥製品の自動検知、営巣検知、その他任意の異常検知分野において好適に適用される。
 1、1X 情報生成装置
 2 記憶装置
 3 判定装置
 11、31 プロセッサ
 12、32 メモリ
 13、33 インターフェース
 21 教師データ記憶部
 22 生成データ記憶部
 23 判定対象データ記憶部
 100 異常検知システム

Claims (11)

  1.  正常状態を表すデータの特徴情報を取得する特徴情報取得手段と、
     前記特徴情報を表す特徴空間において前記特徴情報の分散が最も低い所定個数分の軸に対応する次元である低分散次元を選択する低分散次元選択手段と、
     前記低分散次元により前記特徴情報を表した低分散次元特徴情報に基づいて、前記低分散次元において前記正常状態を表す基準情報を生成する基準情報生成手段と、
    を有する情報生成装置。
  2.  前記基準情報生成手段は、前記基準情報として、前記低分散次元特徴情報の分布を表す分布情報と、前記分布と判定対象データとの距離に基づき当該判定対象データが前記正常状態に対応するか否か判定するための閾値情報とを生成する、請求項1に記載の情報生成装置。
  3.  前記特徴情報取得手段は、異常状態を表すデータの特徴情報である異常特徴情報をさらに取得し、
     前記低分散次元選択手段は、前記異常特徴情報を用いた検証に基づき、前記低分散次元の次元数を決定する、請求項1または2に記載の情報生成装置。
  4.  前記基準情報生成手段は、前記次元数の候補と前記基準情報の候補の複数の組から前記検証に基づき選択された組に対応する前記基準情報の候補を、前記基準情報として決定する、請求項3に記載の情報生成装置。
  5.  前記低分散次元選択手段は、前記特徴情報に対して主成分分析を行うことで得られた軸を前記特徴情報の分散の大きさに従い並べた場合に前記分散が最も低い側から順に選択した所定個数分の軸に対応する次元を、前記低分散次元として選択する、請求項1~4のいずれか一項に記載の情報生成装置。
  6.  前記低分散次元選択手段は、前記特徴空間を前記低分散次元に変換するための変換情報を生成する、請求項1~5のいずれか一項に記載の情報生成装置。
  7.  判定対象データの特徴情報を取得する特徴情報取得手段と、
     前記特徴情報を、請求項1~6のいずれか一項に記載の情報生成装置が選択した低分散次元により表した低分散次元特徴情報に変換する低分散次元変換手段と、
     当該低分散次元特徴情報と、前記情報生成装置が生成した基準情報とに基づき、前記判定対象データに関する異常の有無の判定を行う異常判定手段と、
    を有する判定装置。
  8.  コンピュータが、
     正常状態を表すデータの特徴情報を取得し、
     前記特徴情報を表す特徴空間において前記特徴情報の分散が最も低い所定個数分の軸に対応する次元である低分散次元を選択し、
     前記低分散次元により前記特徴情報を表した低分散次元特徴情報に基づいて、前記低分散次元において前記正常状態を表す基準情報を生成する、
    情報生成方法。
  9.  正常状態を表すデータの特徴情報を取得し、
     前記特徴情報を表す特徴空間において前記特徴情報の分散が最も低い所定個数分の軸に対応する次元である低分散次元を選択し、
     前記低分散次元により前記特徴情報を表した低分散次元特徴情報に基づいて、前記低分散次元において前記正常状態を表す基準情報を生成する処理をコンピュータに実行させるプログラムを格納する記憶媒体。
  10.  コンピュータが、
     判定対象データの特徴情報を取得し、
     前記特徴情報を、請求項1~6のいずれか一項に記載の情報生成装置が選択した低分散次元により表した低分散次元特徴情報に変換し、
     当該低分散次元特徴情報と、前記情報生成装置が生成した基準情報とに基づき、前記判定対象データに関する異常の有無の判定を行う、判定方法。
  11.  判定対象データの特徴情報を取得し、
     前記特徴情報を、請求項1~6のいずれか一項に記載の情報生成装置が選択した低分散次元により表した低分散次元特徴情報に変換し、
     当該低分散次元特徴情報と、前記情報生成装置が生成した基準情報とに基づき、前記判定対象データに関する異常の有無の判定を行う処理をコンピュータに実行させるプログラムを格納する記憶媒体。
PCT/JP2021/019399 2021-05-21 2021-05-21 情報生成装置、判定装置、情報生成方法、判定方法及び記憶媒体 WO2022244250A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023522170A JPWO2022244250A5 (ja) 2021-05-21 情報生成装置、判定装置、情報生成方法、判定方法及びプログラム
PCT/JP2021/019399 WO2022244250A1 (ja) 2021-05-21 2021-05-21 情報生成装置、判定装置、情報生成方法、判定方法及び記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/019399 WO2022244250A1 (ja) 2021-05-21 2021-05-21 情報生成装置、判定装置、情報生成方法、判定方法及び記憶媒体

Publications (1)

Publication Number Publication Date
WO2022244250A1 true WO2022244250A1 (ja) 2022-11-24

Family

ID=84140227

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/019399 WO2022244250A1 (ja) 2021-05-21 2021-05-21 情報生成装置、判定装置、情報生成方法、判定方法及び記憶媒体

Country Status (1)

Country Link
WO (1) WO2022244250A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11143851A (ja) * 1997-11-11 1999-05-28 Ntt Data Corp パターン認識辞書作成方法及び装置、パターン認識装置
JP2004192603A (ja) * 2002-07-16 2004-07-08 Nec Corp パターン特徴抽出方法及びその装置
JP2015041164A (ja) * 2013-08-20 2015-03-02 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11143851A (ja) * 1997-11-11 1999-05-28 Ntt Data Corp パターン認識辞書作成方法及び装置、パターン認識装置
JP2004192603A (ja) * 2002-07-16 2004-07-08 Nec Corp パターン特徴抽出方法及びその装置
JP2015041164A (ja) * 2013-08-20 2015-03-02 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Also Published As

Publication number Publication date
JPWO2022244250A1 (ja) 2022-11-24

Similar Documents

Publication Publication Date Title
KR102641116B1 (ko) 데이터 증강에 기초한 인식 모델 트레이닝 방법 및 장치, 이미지 인식 방법 및 장치
KR102570278B1 (ko) 교사 모델로부터 학생 모델을 트레이닝하는데 사용되는 학습 데이터를 생성하는 장치 및 방법
US10832685B2 (en) Speech processing device, speech processing method, and computer program product
CN109491914B (zh) 基于不平衡学习策略高影响缺陷报告预测方法
US20180157892A1 (en) Eye detection method and apparatus
CN111507370A (zh) 获得自动标注图像中检查标签的样本图像的方法和装置
JP6828807B2 (ja) データ解析装置、データ解析方法およびデータ解析プログラム
JPWO2018207334A1 (ja) 画像認識装置、画像認識方法および画像認識プログラム
JP5621787B2 (ja) パターン認識装置、パターン認識方法及びパターン認識用プログラム
JP2019197355A (ja) クラスタリング装置、クラスタリング方法およびプログラム
JP6977345B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
US20210166139A1 (en) Information processing device, information processing method, and recording medium
US11580362B2 (en) Learning apparatus, generation apparatus, classification apparatus, learning method, and non-transitory computer readable storage medium
WO2014132611A1 (ja) システム分析装置、及び、システム分析方法
KR102433598B1 (ko) 데이터 경계 도출 시스템 및 방법
KR20170108339A (ko) 영상에서 다수의 객체를 인식하는 방법
KR20200110064A (ko) 변환 모델을 이용한 인증 방법 및 장치
US11989013B2 (en) Abnormality detection apparatus, abnormality detection system, and learning apparatus, and methods for the same and non-temporary computer-readable medium storing the same
WO2021111622A1 (ja) パラメータ決定装置、パラメータ決定方法、及び、非一時的なコンピュータ可読媒体
WO2022244250A1 (ja) 情報生成装置、判定装置、情報生成方法、判定方法及び記憶媒体
JP7211501B2 (ja) データ変換装置、パターン認識システム、データ変換方法及びデータ変換プログラム
US8755594B2 (en) Information processing device and method, and program
JP7306460B2 (ja) 敵対的事例検知システム、方法およびプログラム
US20220028372A1 (en) Learning device and pattern recognition device
JP2016071684A (ja) パターン認識装置、パターン学習装置、パターン学習方法およびパターン学習プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21940862

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023522170

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21940862

Country of ref document: EP

Kind code of ref document: A1