WO2018211891A1 - 異変検出装置及び異変検出方法 - Google Patents

異変検出装置及び異変検出方法 Download PDF

Info

Publication number
WO2018211891A1
WO2018211891A1 PCT/JP2018/015814 JP2018015814W WO2018211891A1 WO 2018211891 A1 WO2018211891 A1 WO 2018211891A1 JP 2018015814 W JP2018015814 W JP 2018015814W WO 2018211891 A1 WO2018211891 A1 WO 2018211891A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
inspection target
anomaly detection
difference
learning
Prior art date
Application number
PCT/JP2018/015814
Other languages
English (en)
French (fr)
Inventor
大地 福嶋
由利 英隆
勝司 三浦
康 野村
佳孝 上
柿井 俊昭
Original Assignee
住友電気工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 住友電気工業株式会社 filed Critical 住友電気工業株式会社
Publication of WO2018211891A1 publication Critical patent/WO2018211891A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present invention relates to an anomaly detection device and an anomaly detection method.
  • This application claims priority based on Japanese Patent Application No. 2017-099083 filed on May 18, 2017, and incorporates all the description content described in the above Japanese application.
  • the machine learning device If the machine learning device is deep-learned using the non-defective product data and defective product data of industrially produced parts as teacher data, the machine learning device can discriminate between good and defective parts.
  • Non-Patent Document 1 discloses a technique for self-learning data feature amounts using an auto encoder.
  • Non-Patent Document 1 discloses that the learned input layer and intermediate layer of the auto-encoder are used as a feature extractor, and the meaning of the meaning is determined using the output of the feature extractor.
  • the anomaly detection apparatus includes an inspection target data acquisition unit that acquires inspection target data, and an intermediate layer that dimensionally compresses the learning inspection target input data, and output data is the same as the learning inspection target input data.
  • Machine learning apparatus that outputs the feature extraction data of the inspection target data based on the learning result, and the inspection target data based on the inspection target data and the feature extraction data.
  • An abnormality detection processing unit for determining presence or absence.
  • a machine learning device including an intermediate layer that dimensionally compresses input data has output data that is based on the learning inspection target input data and the learning inspection target input data.
  • Machine learning so as to be the same
  • the machine learning device machine-learned in step (a) obtains feature extraction data of the inspection object data.
  • the inspection target data has changed based on the inspection target data and the feature extraction data.
  • the present application can be realized not only as an anomaly detection apparatus including such a characteristic processing unit but also as an anomaly detection method using such characteristic processing as a step, or executing such a step on a computer. It can be realized as a program for making it happen. Further, it can be realized as a semiconductor integrated circuit that realizes part or all of the anomaly detection device, or as another system including the anomaly detection device.
  • the auto encoder can self-learn the feature amount of the non-defective product data.
  • An object of the present disclosure is to make it possible to more reliably detect anomalies in inspection target data using a machine learning device learned based on normal learning inspection target data.
  • the anomaly detection device includes an inspection target data acquisition unit that acquires inspection target data, and an intermediate layer that dimensionally compresses the inspection target input data for learning.
  • Machine learning device that is machine-learned to be the same as the inspection target input data for learning, and outputs the feature extraction data of the inspection target data based on the learning result, and based on the inspection target data and the feature extraction data
  • an anomaly detection processing unit for determining whether or not the inspection object data is abnormal.
  • the machine learning device includes an intermediate layer that dimensionally compresses learning inspection target input data, and machine learning is performed so that the output data is the same as the learning inspection target input data. Therefore, feature extraction data obtained by extracting features of inspection target data can be obtained by the machine learning device. Since the feature extraction data is data in which common features are extracted from the inspection target input data for learning, based on the feature extraction data and the inspection target data, it is possible to more reliably change the inspection target data with respect to the feature extraction data. Can be determined. For this reason, it is possible to detect anomalies in the inspection target data more reliably by using a machine learning device learned based on normal learning inspection target data.
  • the second aspect is the anomaly detection device according to the first aspect, wherein the inspection object data acquisition unit acquires image data as the inspection object data.
  • the second aspect it is possible to detect an abnormality in the image data acquired as the inspection target data.
  • a third aspect is the anomaly detection device according to the first or second aspect, wherein the anomaly detection processing unit is configured to generate determination data based on a difference between the inspection target data and the feature extraction data. And an abnormality determination unit that determines whether or not the inspection target data has changed based on the determination data generated by the determination data generation unit.
  • the third aspect it is possible to determine whether or not the inspection target data has changed based on the determination data based on the difference between the inspection target data and the feature extraction data.
  • a fourth aspect is the anomaly detection device according to the third aspect, wherein the determination data generation unit is defined by a predetermined threshold based on difference data between the inspection target data and the feature extraction data. The size of the difference area is determined, and data including the size of the difference area is generated as the determination data.
  • the fourth aspect it is possible to detect the presence or absence of an abnormality in the inspection target data based on the size of the difference area defined by the predetermined threshold value.
  • a fifth aspect is the anomaly detection device according to the fourth aspect, wherein a plurality of the predetermined threshold values are set in the determination data generation unit, and the determination data generation unit includes the plurality of determination data generation units. The size of the difference area for each of the predetermined threshold values is obtained, and data including the size of the difference area for each of the plurality of predetermined threshold values is generated as the determination data.
  • the fifth aspect it is possible to detect whether there is an abnormality in the inspection target data based on the determination data including the size of the difference area with respect to each of the plurality of predetermined threshold values.
  • the anomaly detection method includes: (a) a machine learning device including an intermediate layer that dimensionally compresses input data outputs output data based on learning inspection target input data; Machine learning so as to be the same as the learning inspection target input data, (b) acquiring the inspection target data, and (c) the machine learning device machine-learned by the step (a), Outputting feature extraction data of the inspection object data; and (d) determining whether there is an abnormality in the inspection object data based on the inspection object data and the feature extraction data.
  • the machine learning device includes an intermediate layer that dimensionally compresses the learning inspection target input data, and machine learning is performed so that the output data is the same as the learning inspection target input data. Therefore, feature extraction data obtained by extracting features of inspection target data can be obtained by the machine learning device. Since the feature extraction data is data in which common features are extracted from the inspection target input data for learning, based on the feature extraction data and the inspection target data, it is possible to more reliably change the inspection target data with respect to the feature extraction data. Can be determined. For this reason, it is possible to detect anomalies in the inspection target data more reliably by using a machine learning device learned based on normal learning inspection target data.
  • the seventh aspect is an anomaly detection method according to the sixth aspect, wherein the step (b) is a step of acquiring image data as the inspection object data.
  • the seventh aspect it is possible to detect an abnormality in the image data acquired as the inspection target data.
  • An eighth aspect is the anomaly detection method according to the sixth or seventh aspect, wherein the step (c) is based on a difference between the inspection target data and the feature extraction data. It is a step for determining whether or not there is an abnormality.
  • FIG. 1 is a block diagram showing an electrical configuration of the anomaly detection device 20.
  • the anomaly detection device 20 includes an imaging unit 22, a processing unit 30, and a display device 38.
  • the processing unit 30 is configured by a computer in which a CPU 32, a RAM 33, a storage unit 34, an input / output unit 36, and the like are interconnected via a bus line 31.
  • the storage unit 34 is configured by a nonvolatile storage device such as a flash memory or a hard disk device, and stores a basic program and an anomaly detection program 34a.
  • a command for the CPU 32 to perform machine learning and an instruction to perform an anomaly detection based on the machine learning result are described.
  • the process for performing machine learning may be executed by another computer.
  • the imaging unit 22 is configured by a CCD camera or the like. Imaging data from the imaging unit 22 is input to the processing unit 30 via the input / output unit 36 as inspection target data.
  • the imaging unit 22 is an example of an inspection target data acquisition unit that acquires inspection target data. Note that the imaging unit 22 and the processing unit 30 may be connected via a communication network, and the processing unit 30 may perform the anomaly detection process at a location different from the location where imaging is performed. It is also assumed that the inspection target data acquisition unit is a reception interface that receives inspection target data via a communication network.
  • the inspection target input data for learning is input to the processing unit 30 via the input / output unit 36.
  • the learning inspection target input data may be data captured by another imaging device, or may be data captured by the imaging unit 22.
  • the inspection target input data for learning is normal data of the inspection target data to be inspected.
  • the display device 38 is a liquid crystal display device or the like, and is connected to the processing unit 30 via the input / output unit 37. Then, the processing result by the processing unit 30 is displayed on the display device 38.
  • the processing result by the processing unit 30 may be notified by a sound generator such as a buzzer or a speaker, a light, or the like.
  • the processing result by the processing unit 30 may be notified by a notification unit that can notify the operator in a manner recognizable by vision, hearing, or the like.
  • FIG. 2 is a functional block diagram of the anomaly detection device 20 realized by the processing unit 30.
  • the processing unit 30 includes a machine learning device 40 and an anomaly detection processing unit 46.
  • the machine learning device 40 includes an intermediate layer that dimensionally compresses learning inspection target input data, and is machine-learned so that output data is the same as the learning inspection target input data. It is a device that outputs data feature extraction data.
  • the anomaly detection processing unit 46 determines whether there is an anomaly in the inspection object data based on the inspection object data and the feature extraction data.
  • the abnormality detection processing unit 46 includes a determination data generation unit 42 and an abnormality determination unit 44.
  • the determination data generation unit 42 generates determination data based on the difference between the inspection target data and the feature extraction data.
  • the abnormality determination unit 44 determines whether there is an abnormality in the inspection target data based on the determination data generated by the determination data generation unit 42.
  • FIG. 3 is an explanatory diagram showing a layer structure in which the machine learning device 40 performs deep learning using a neural network having a multilayer structure based on the inspection target input data for learning.
  • the machine learning device 40 includes an input layer 40a, a convolution layer (CONV layer), a deconvolution layer (DECONV layer), and an output layer 40b.
  • the convolution layer (CONV layer) is an example of a layer that dimensionally compresses learning inspection target input data.
  • the convolution layer (CONV layer) performs convolution integration on learning inspection target input data. Dimensionally compress.
  • the deconvolution layer (DECONV layer) is an example of a layer that restores dimension-compressed data to the original dimension.
  • the deconvolution layer (DECONV layer) is the reverse operation of the deconvolution layer (DECONV layer).
  • DECONV layer the deconvolution layer
  • deconvolution processing is performed on the data convolved and integrated in the convolution layer (CONV layer) to restore the original dimension.
  • CONV layer convolution layer
  • DECONV layer deconvolution layer
  • the structure may have one layer or three or more layers.
  • the inspection target input data for learning is once dimension-compressed in the convolution layer (CONV layer), and then restored to the original dimension in the deconvolution layer (DECONV layer).
  • the inspection target input data for learning is input to the input layer 40a, and is output through the convolution layer (CONV layer) and the deconvolution layer (DECONV layer).
  • CONV layer convolution layer
  • DECONV layer deconvolution layer
  • machine learning is performed so that the output data is the same as the original learning inspection target input data.
  • Such machine learning is performed using a plurality of normal (that is, no abnormality) learning inspection target input data.
  • the machine learning device 40 outputs feature extraction data obtained by extracting features of normal learning inspection target input data with respect to the input data.
  • the inspection object is an article 10 that is industrially mass-produced, and that the article 10 is imaged and its abnormality, that is, a quality determination is performed.
  • an image obtained by imaging a normal article (good article) 10 is input as learning inspection target input data.
  • the machine learning device 40 extracts features common to images obtained by imaging normal articles (good articles) 10. Is learned to output. It should be noted that shadows or the like may be reflected in various forms in an image obtained by imaging a normal article (good article) 10. However, regardless of the presence or absence of shadows, features common to the article 10 are automatically designed and learned.
  • FIG. 4 is an explanatory diagram showing a layer structure in which the machine learning device 40 outputs feature extraction data of inspection target data based on the learning result.
  • the machine learning device 40 is learned to output data obtained by extracting features common to an image obtained by imaging a normal article (good article) 10, the inspection target data is input. Then, the feature extraction data of the inspection object data is output.
  • the inspection target data is data obtained by imaging the article 10 to be inspected by the imaging unit 22.
  • the feature extraction data is image data in which the original normal article (good article) 10 is roughly reflected as it is.
  • the inspection target data includes an abnormality, for example, it is assumed that a foreign object 12 other than the article 10 is reflected in a normal article (good article) 10.
  • the machine learning device 40 performs machine learning based on the inspection object input data for learning of the normal article (good article) 10, the defective portion such as the foreign matter 12 is replaced with the good feature and output. To do.
  • the inspection object data is output as feature extraction data obtained by extracting features common to images obtained by imaging a normal article (good article) 10 by the machine learning device 40.
  • the feature extraction data includes the article 10 that is reflected in the inspection target data, but the foreign matter 12 is eliminated or is thinly reflected.
  • the anomaly detection processing unit 46 determines whether there is an anomaly in the inspection object data based on the inspection object data and the feature extraction data. That is, the feature extraction data is data obtained by extracting features common to images obtained by imaging normal articles (good articles) 10 based on the inspection target data. Therefore, if the inspection object data and the feature extraction data are compared, the inspection object data is different from the features common to the image obtained by imaging the normal article (good article) 10 or the inspection object data. It is possible to grasp the similarity with the characteristics common to images obtained by imaging normal articles (good articles) 10. Based on such different elements or similarities, whether or not there is an abnormality in the inspection target data is determined. In addition, since the feature extraction data is restored to the original dimension by the deconvolution layer (DECONV layer), it becomes the same dimension data as the inspection object data, and both can be appropriately compared.
  • DECONV layer deconvolution layer
  • the anomaly detection processing unit 46 includes a determination data generation unit 42 and an anomaly determination unit 44.
  • the determination data generation unit 42 generates determination data based on the difference between the inspection target data and the feature extraction data. More specifically, the determination data generation unit 42 generates difference data between the inspection target data and the feature extraction data.
  • the determination data generation unit 42 generates difference data based on the inspection target data and the feature extraction data. For example, the determination data generation unit 42 obtains a difference between the luminance value of each pixel of the inspection target data and the luminance value of each pixel of the feature extraction data, and generates difference image data.
  • the difference image data is data obtained by extracting a block-like difference area corresponding to the foreign object 12 which is a difference between the inspection target data and the feature extraction data.
  • difference image data can be generated by obtaining a difference in luminance value for each pixel. If the inspection target data is an RGB image, difference image data may be obtained for each color component, or difference image data may be obtained from data obtained by averaging or adding each color component.
  • the difference image data between the inspection target data and the feature extraction data is data in which a linear difference region corresponding to the foreign object 13 that is the difference between the inspection target data and the feature extraction data is extracted.
  • the difference image data between the inspection target data and the feature extraction data is data that does not include foreign matter or the like.
  • the determination data generation unit 42 further obtains the size of the difference area defined by a predetermined threshold based on the difference image data, and generates data including the size of the difference area as the determination data.
  • the determination data generation unit 42 obtains the size of the difference region R defined by a predetermined threshold, and generates data including the size of the difference region R as determination data.
  • a plurality of predetermined threshold values are set.
  • the determination data generation unit 42 obtains the size of the difference region R for each of a plurality of predetermined thresholds, and generates data including the size of the difference region R for each of the plurality of predetermined thresholds as determination data.
  • the difference region R (1) defined by the first threshold A (1) is defined as a region where the difference value exceeds A (1) or is greater than or equal to A (1), and the second threshold A (2).
  • the difference region R (2) defined by is defined as a region where the difference value exceeds A (2) or is greater than or equal to A (2), and the difference region R ( 3) is assumed that the value of the difference exceeds A (3) or is defined as an area greater than or equal to A (3).
  • the difference region R (1 ) Binarized image data from which the difference region R (2) is extracted, and binarized image data from which the difference region R (3) is extracted.
  • the size (number of pixels) of the continuous difference region R (1), difference region R (2), and difference region R (3) is obtained, and the continuous difference region R (1 ), Difference area data including the size of the difference area R (2) and the difference area R (3) is generated as determination data.
  • the abnormality determination unit 44 determines whether there is an abnormality in the inspection target data based on the determination data. Anomaly determination is, for example, based on the determination data described above, if there is a difference region R having a size exceeding a predetermined condition value or greater than or equal to a predetermined condition value, it is determined that an anomaly exists. Can do.
  • the presence / absence of an abnormality is determined based on the plurality of difference areas R (1), difference areas R (2), and difference areas R (3).
  • Difference region R based on a difference in threshold when binarization is performed by determining the presence or absence of an abnormality based on a plurality of difference regions R (1), difference region R (2), and difference region R (3) (1)
  • the presence / absence of an abnormality can be determined based on changes in the difference region R (2) and the difference region R (3).
  • the difference area R caused by the shadow or the like is relatively large in the difference area R (1) corresponding to the small threshold A (1), while in the difference area R (3) corresponding to the large threshold A (3). It becomes relatively small or disappears.
  • the difference region R caused by the abnormalities of the foreign substances 12, 13 and the like is the difference region R (1), R (2), R ( In 3), they are likely to appear in the same size. Therefore, a difference based on a difference in threshold when binarization is performed by determining the presence or absence of an abnormality based on a plurality of difference areas R (1), difference areas R (2), and difference areas R (3). Based on changes in the region R (1), the difference region R (2), and the difference region R (3), it is possible to determine whether there is an abnormality.
  • the anomaly determination unit 44 is configured by a learned one-class support vector machine.
  • One class support vector machines are well known as classifiers that detect outliers.
  • the sizes of the difference area R (1), the difference area R (2), and the difference area R (3) are obtained based on the learning inspection target input data obtained by imaging the normal article (good article) 10.
  • the difference area data indicating the size of the obtained difference area R (1), difference area R (2), and difference area R (3) is used as an input to the one-class support vector machine.
  • a non-defective product region, a defective product region, and a boundary are set in the identification space as shown in FIG. In the identification space, the boundary is set so that the position of each non-defective data with reference to the origin O is located farther than the boundary.
  • the sizes of the difference area R (1), the difference area R (2), and the difference area R (3) are obtained, and the obtained difference area R (1), difference area R (2),
  • the difference area data indicating the size of the difference area R (3) is input as determination data to the learned one-class support vector machine.
  • the inspection target data is unchanging data (good product data)
  • the data indicating the size of the difference area R (1), the difference area R (2), and the difference area R (3) is a boundary with respect to the origin O. Located farther away.
  • the inspection target data is abnormal data (defective data)
  • the data indicating the size of the difference area R (1), the difference area R (2), and the difference area R (3) is the origin O Is located closer to the boundary than Thereby, it is possible to detect whether there is an abnormality in the inspection target data.
  • the margin for the data corresponding to the learning inspection target input data obtained by imaging the normal article (good article) 10 and the margin for the origin O can be arbitrarily set, so that the determination of anomalies is strictly performed. It is easy to set whether to do it slowly or gently.
  • determining whether there is an abnormality based on changes in the difference region R (1), the difference region R (2), and the difference region R (3) based on the difference in threshold when binarization is performed This can also be realized by the configuration. For example, whether or not the size of the difference area R (1), the difference area R (2), and the difference area R (3) exceeds or exceeds a predetermined reference value If there is a positive determination, it may be determined that there is an abnormality.
  • FIG. 9 is a flowchart showing the overall processing of the anomaly detection method.
  • step S1 machine learning based on learning inspection target input data is performed.
  • step S2 it is determined whether or not the machine learning is finished. If machine learning has not ended (step S2: NO), the process returns to step S1 and machine learning is performed again. If it is determined that the machine learning has been completed (step S2: YES), the process proceeds to step S3. Note that the machine learning in step S1 and the processes in and after step S3 may be performed by separate computers, and a program reflecting the learning result may be installed in the anomaly detection computer.
  • step S3 is performed by the machine learning anomaly detection device 20.
  • step S3 inspection object data is acquired through the imaging unit 22.
  • step S4 feature extraction data is generated by the machine learning device 40 based on the inspection target data.
  • the determination data generation unit 42 generates difference image data between the inspection target data and the feature extraction data.
  • the determination data generation unit 42 obtains the sizes of the difference areas R (1), R (2), R (3) with respect to a plurality of predetermined thresholds, and each difference area R (1), Determination data including the sizes of R (2) and R (3) is generated.
  • the anomaly determination unit 44 determines an anomaly (defective) based on the size of the difference areas R (1), R (2), R (3) with respect to a plurality of predetermined threshold values. If it is determined that there is no change (non-defective product determination) (step S7: YES), it is output that there is no change (non-defective product determination) (step S8). The output result is displayed on the display device 38 as necessary. Or it is memorized by storage part 34 grade as inspection history. After finishing the process of step S8, it returns to step S3, the next test object data is acquired, and the subsequent processes are repeated. Thereby, anomaly (defective) determination can be sequentially performed on a plurality of inspection target data.
  • step S7 when it is determined that there is an abnormality (defect determination) (step S7: NO), the fact that the determination of abnormality (defective product) is made is output (step S9).
  • the output result is displayed on the display device 38 or the like and notified to the operator. The operator can repair and remove the article 10 according to the notification result.
  • the machine learning device 40 includes an intermediate layer for dimensionally compressing the learning inspection target input data, and the output data is the learning inspection target input data.
  • the machine learning device 40 can obtain feature extraction data obtained by extracting features of the inspection target data according to normal inspection target data having no abnormality. Since the feature extraction data is data in which common features are extracted from the inspection target input data for learning, based on the feature extraction data and the inspection target data, it is possible to more reliably change the inspection target data with respect to the feature extraction data. Can be determined. For this reason, it is possible to detect anomalies in the inspection target data more reliably by using the machine learning device 40 learned based on the normal learning inspection target data.
  • the image data is acquired as the inspection target data, it is possible to detect abnormalities in the image data. Thereby, the quality determination based on the captured image of the article 10 can be performed.
  • the anomaly detection processing unit 46 is based on the determination data generation unit 42 that generates determination data based on the difference between the inspection target data and the feature extraction data, and the determination data generated by the determination data generation unit 42. Therefore, it is possible to determine whether there is an abnormality in the inspection target data based on the difference between the inspection target data and the feature extraction data.
  • the determination data generation unit 42 obtains the size of the difference region R defined by a predetermined threshold based on the difference data between the inspection target data and the feature extraction data, and includes the size of the difference region R. Data is generated as determination data. Since the size of the difference region R defined by the predetermined threshold represents the size of the difference between the inspection target data and the feature extraction data, it is possible to more appropriately detect whether there is any change in the inspection target data. .
  • a plurality of predetermined threshold values A (1), A (2), and A (3) are set in the determination data generation unit 42, and the determination data generation unit 42 includes a plurality of predetermined threshold values A ( 1), A (2), and A (3), and the difference areas R (1), R (2), and R (3) are obtained, and a plurality of predetermined threshold values A (1) and A (2) are obtained. ) And A (3), data including the sizes of the difference areas R (1), R (2), and R (3) is generated as determination data.
  • the size of the difference areas R (1), R (2), R (3) for each of the plurality of predetermined thresholds A (1), A (2), A (3) is determined by the plurality of predetermined thresholds A ( 1), the continuity of the size of the difference regions R (1), R (2), and R (3) with respect to A (2) and A (3). Therefore, based on the size of the difference areas R (1), R (2), R (3) for each of a plurality of predetermined threshold values A (1), A (2), A (3) By determining the presence / absence of data change, the presence / absence of change can be detected more appropriately.
  • FIG. 10 is a diagram showing an example in which the anomaly detection device 20 is applied as the good / bad detection device 120 of the wire harness 100. In the modification shown in FIG.
  • the wire harness 100 is formed by binding a plurality of electric wires while branching along a wiring line of a vehicle to be arranged.
  • a connector 110 is attached to the end of the wire harness 100, and a vehicle fixing part 112 (a part called a clamp) for fixing the wire harness 100 to the vehicle is attached to an intermediate part in the extending direction of the wire harness 100. It has been.
  • An imaging unit 122 corresponding to the imaging unit 22 is provided at a position where the connector 110 can be imaged from the front side.
  • the imaging unit 122 is also provided at a position where the vehicle fixing component 112 can be imaged.
  • the good / defective detection device 120 is machine-learned by using the imaging data of the non-defective connector 110 as the inspection target input data for learning. Further, in another good / bad detection process, the good / bad detection device 120 is machine-learned by using the imaging data of the good vehicle fixed part 112 as the inspection target input data for learning.
  • the quality judgment of the connector 110 will be described. As shown in FIG. 11, when a good connector 110 is imaged from the front, an image in which the connector terminal 110t is reflected in the connector housing 110a is reflected. Based on the captured image of the non-defective connector 110, the good / bad detector 120 is machine-learned.
  • the quality inspection of the connector 110 and the like is performed using the quality detection device 120.
  • the foreign substance 111 may be attached to the connector housing 110a. is assumed.
  • the foreign object 111 is in the region Ra where the terminal 110ta is bent, the region Rb where the terminal 110tb does not exist, and the connector housing 110a.
  • the attached region Rc is extracted as the difference regions Ra, Rb, and Rc. From these difference areas Ra, Rb, Rc, it is determined that there is an abnormality (defective).
  • marks Ma, Mb, and Mc for example, marks surrounding the anomalous area
  • marks Ma, Mb, and Mc for example, marks surrounding the anomalous area
  • the vehicle fixing component 112 can also be detected as having an abnormality (defect), such as a loss of the vehicle fixing component 112, adhesion of foreign matter, and the like.
  • an abnormality such as a loss of the vehicle fixing component 112, adhesion of foreign matter, and the like.
  • the vibration, heat change, acceleration change, etc. of various devices or systems such as vehicles and manufacturing devices in a normal state are detected by a sensor, machine learning of a machine learning device is performed based on the detected data, and the learning result is Based on this, the inspection object data is converted into the feature extraction data, and the inspection object data and the feature extraction data are compared with each other, so that an abnormality in various states can be detected.
  • the inspection object data acquisition unit is a sensor that detects each state.
  • anomaly detection based on the inspection object data and the feature extraction data is performed based on the difference data, but the anomaly detection can be performed without being limited thereto.
  • the inspection target data is data indicating periodicity
  • the inspection target data and the feature extraction data may be subjected to frequency analysis, and the presence or absence of an abnormality may be determined based on the commonality of the analyzed frequencies.
  • the commonality between the inspection target data and the feature extraction data may be evaluated by a correlation coefficient or the like to determine whether there is an abnormality.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

異変検出装置は、検査対象データを取得する検査対象データ取得部と、学習用検査対象入力データを次元圧縮する中間層を含み、出力データが学習用検査対象入力データと同じになるように機械学習され、その学習結果に基づいて検査対象データの特徴抽出データを出力する機械学習装置と、検査対象データと特徴抽出データとに基づいて、検査対象データの異変の有無を判定する異変検出処理部とを備える。

Description

異変検出装置及び異変検出方法
 本発明は、異変検出装置及び異変検出方法に関する。
 本出願は、2017年5月18日出願の日本出願第2017-099083号に基づく優先権を主張し、前記日本出願に記載された全ての記載内容を援用するものである。
 工業的に生産される部品の良品データ及び不良品データを教師データとして、機械学習装置をディープラーニングさせると、当該機械学習装置によって、部品の良、不良を判別することができる。
 非特許文献1は、オートエンコーダを用いて、データの特徴量を自己学習する技術を開示している。
 また、非特許文献1は、学習されたオートエンコーダの入力層と中間層とを特徴抽出器として用い、この特徴抽出器の出力を利用して語義の判別を行うことを開示している。
G. E. Hinton and R. Salakhutdinov、"Reducing the Dimensionality of Data with Neural Networks"、Science, vol. 313, p. 504-507 二輪和博、馬青、「Stacked Denoising Autoencoderを用いた語義判別」、言語処理学会第20回年次大会発表論文集、2014年3月、p.539-542
 本態様に係る異変検出装置は、検査対象データを取得する検査対象データ取得部と、学習用検査対象入力データを次元圧縮する中間層を含み、出力データが前記学習用検査対象入力データと同じになるように機械学習され、その学習結果に基づいて前記検査対象データの特徴抽出データを出力する機械学習装置と、前記検査対象データと前記特徴抽出データとに基づいて、前記検査対象データの異変の有無を判定する異変検出処理部と、を備える。
 本態様に係る異変検出方法は、(a)入力されたデータを次元圧縮する中間層を含む機械学習装置が、学習用検査対象入力データに基づいて、出力データが前記学習用検査対象入力データと同じになるように機械学習するステップと、(b)検査対象データを取得するステップと、(c)前記ステップ(a)によって機械学習した前記機械学習装置が、前記検査対象データの特徴抽出データを出力するステップと、(d)前記検査対象データと前記特徴抽出データとに基づいて、前記検査対象データの異変の有無を判定するステップと、を備える。
 なお、本願は、このような特徴的な処理部を備える異変検出装置として実現することができるだけでなく、かかる特徴的な処理をステップとする異変検出方法として実現したり、かかるステップをコンピュータに実行させるためのプログラムとして実現したりすることができる。また、異変検出装置の一部又は全部を実現する半導体集積回路として実現したり、異変検出装置を含むその他のシステムとして実現したりすることができる。
異変検出装置の電気的構成を示すブロック図である。 異変検出装置の機能ブロック図である。 機械学習装置が学習用検査対象入力データに基づいてディープラーニングを行う層構造を示す説明図である。 機械学習装置が学習結果に基づいて検査対象データの特徴抽出データを出力する層構造を示す説明図である。 差分画像データの例を示す図である。 差分画像データの他の例を示す図である。 差分画像データにおいて複数の閾値で規定される差分領域の例を示す図である。 1クラスサポートベクターマシンの識別空間における良品領域、不良品領域、境界の設定例を示す図である。 異変検出方法の全体的な処理を示すフローチャートである。 変形例に係るワイヤーハーネスの良不良検出装置を示す説明図である。 良品のコネクタの例を示す図である。 不良品のコネクタの例を示す図である。
[本開示が解決しようとする課題]
 良品データ及び不良品データを教師データとするディープラーニングにおいては、不良品の発生率が低いと、主として良品のデータに基づいてディープラーニングする必要があり、部品の良、不良の判別を学習させることが困難となる。
 特許文献1に開示の技術によると、良品データに基づいて、オートエンコーダにより、良品データの特徴量を自己学習することができる。
 しかしながら、工業的に生産される部品の良品、不良品とは、一部のみが僅かに異なることが多く、全体としての特徴はほぼ同じである。このため、良品データ及び不良品データを、オートエンコーダに入力したとしても、当該エンコーダの出力層からの出力は、類似してしまう。オートエンコーダの中間層の出力についても同様である。このため、オートエンコーダの出力を利用するだけでは、部品の良、不良を判別することは困難である。
 同様の問題は、正常な検査対象データを準備できるが、正常な検査対象データから外れたデータを準備困難な各種分野においても生じ得る。
 本開示の目的は、正常な学習用検査対象データに基づいて学習された機械学習装置を利用して、検査対象データの異変をより確実に検出できるようにすることにある。
[本願発明の実施形態の説明]
 最初に本発明の実施態様を列記して説明する。また、以下に記載する実施形態の少なくとも一部を任意に組み合わせてもよい。
 上記課題を解決するため、第1の態様に係る異変検出装置は、検査対象データを取得する検査対象データ取得部と、学習用検査対象入力データを次元圧縮する中間層を含み、出力データが前記学習用検査対象入力データと同じになるように機械学習され、その学習結果に基づいて前記検査対象データの特徴抽出データを出力する機械学習装置と、前記検査対象データと前記特徴抽出データとに基づいて、前記検査対象データの異変の有無を判定する異変検出処理部とを備える。
 第1の態様によると、機械学習装置は、学習用検査対象入力データを次元圧縮する中間層を含み、出力データが学習用検査対象入力データと同じになるように機械学習されている。このため、機械学習装置によって、検査対象データの特徴を抽出した特徴抽出データを得ることができる。特徴抽出データは、学習用検査対象入力データにおいて共通する特徴が抽出されたデータであるため、特徴抽出データと検査対象データとに基づくことで、特徴抽出データに対する検査対象データの異変をより確実に判定することができる。このため、正常な学習用検査対象データに基づいて学習された機械学習装置を利用して、検査対象データの異変をより確実に検出できる。
 第2の態様は、第1の態様に係る異変検出装置であって、前記検査対象データ取得部は、前記検査対象データとして画像データを取得するものである。
 第2の態様によると、検査対象データとして取得された画像データの異変を検出することができる。
 第3の態様は、第1又は第2の態様に係る異変検出装置であって、前記異変検出処理部は、前記検査対象データと前記特徴抽出データとの差に基づく判定用データを生成する判定用データ生成部と、前記判定用データ生成部で生成された判定用データに基づいて前記検査対象データの異変の有無を判定する異変判定部とを含む。
 第3の態様によると、検査対象データと特徴抽出データとの差に基づく判定用データに基づいて検査対象データの異変の有無を判定することができる。
 第4の態様は、第3の態様に係る異変検出装置であって、前記判定用データ生成部は、前記検査対象データと前記特徴抽出データとの差分データに基づいて、所定の閾値で規定される差分領域の大きさを求め、その差分領域の大きさを含むデータを、前記判定用データとして生成する。
 第4の態様によると、所定の閾値で規定される差分領域の大きさに基づいて、検査対象データの異変の有無を検出することができる。
 第5の態様は、第4の態様に係る異変検出装置であって、前記判定用データ生成部には、前記所定の閾値が複数設定されており、前記判定用データ生成部は、前記複数の所定の閾値のそれぞれに対する差分領域の大きさを求め、前記複数の所定の閾値のそれぞれに対する差分領域の大きさを含むデータを、前記判定用データとして生成する。
 第5の態様によると、前記複数の所定の閾値のそれぞれに対する差分領域の大きさを含む判定用データに基づいて、検査対象データの異変の有無を検出できる。
 上記課題を解決するため、第6の態様に係る異変検出方法は、(a)入力されたデータを次元圧縮する中間層を含む機械学習装置が、学習用検査対象入力データに基づいて、出力データが前記学習用検査対象入力データと同じになるように機械学習するステップと、(b)検査対象データを取得するステップと、(c)前記ステップ(a)によって機械学習した前記機械学習装置が、前記検査対象データの特徴抽出データを出力するステップと、(d)前記検査対象データと前記特徴抽出データとに基づいて、前記検査対象データの異変の有無を判定するステップとを備える。
 第6の態様によると、機械学習装置は、学習用検査対象入力データを次元圧縮する中間層を含んでおり、出力データが学習用検査対象入力データと同じになるように機械学習されている。このため、機械学習装置によって、検査対象データの特徴を抽出した特徴抽出データを得ることができる。特徴抽出データは、学習用検査対象入力データにおいて共通する特徴が抽出されたデータであるため、特徴抽出データと検査対象データとに基づくことで、特徴抽出データに対する検査対象データの異変をより確実に判定することができる。このため、正常な学習用検査対象データに基づいて学習された機械学習装置を利用して、検査対象データの異変をより確実に検出できる。
 第7の態様は、第6の態様に係る異変検出方法であって、前記ステップ(b)は、前記検査対象データとして画像データを取得するステップとされている。
 第7の態様によると、検査対象データとして取得された画像データの異変を検出することができる。
 第8の態様は、第6又は第7の態様に係る異変検出方法であって、前記ステップ(c)は、前記検査対象データと前記特徴抽出データとの差に基づいて、前記検査対象データの異変の有無を判定するステップとされている。
 第8の態様によると、検査対象データと特徴抽出データとの差に基づいて検査対象データの異変の有無を判定することができる。
[本開示の効果]
 本開示によれば、正常な学習用検査対象データに基づいて学習された機械学習装置を利用して、検査対象データの異変をより確実に検出することができる。
[本発明の実施形態の詳細]
 本発明の実施形態に係る異変検出装置及び異変検出方法の具体例を、以下に図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
 以下、実施形態に係る異変検出装置及び異変検出方法について説明する。図1は異変検出装置20の電気的構成を示すブロック図である。
 異変検出装置20は、撮像部22と、処理ユニット30と、表示装置38とを備える。
 処理ユニット30は、CPU32、RAM33、記憶部34、入出力部36等がバスライン31を介して相互接続されたコンピュータによって構成されている。記憶部34は、フラッシュメモリ或はハードディスク装置等の不揮発性の記憶装置によって構成されており、基本プログラム、異変検出プログラム34aを記憶している。異変検出プログラム34aには、CPU32が、機械学習を行うための指令、機械学習結果に基づいて異変検出を行う指令が記述されている。機械学習を行うための処理は、別のコンピュータによって実行されてもよい。
 撮像部22は、CCDカメラ等によって構成されている。撮像部22による撮像データが、検査対象データとして、入出力部36を介して処理ユニット30に入力される。撮像部22は、検査対象データを取得する検査対象データ取得部の一例である。なお、撮像部22と処理ユニット30とが通信網を介して接続され、撮像を行う箇所とは別箇所で処理ユニット30が異変検出処理を行う場合もある。検査対象データ取得部は、通信網を介して検査対象データを受信する受信インターフェースであることも想定される。
 また、学習用検査対象入力データが入出力部36を介して処理ユニット30に入力される。学習用検査対象入力データは、別の撮像装置によって撮像されたデータであってもよいし、撮像部22によって撮像されたデータであってもよい。学習用検査対象入力データは、検査対象となる検査対象データの正常データである。
 表示装置38は、液晶表示装置等であり、入出力部37を介して処理ユニット30に接続されている。そして、処理ユニット30による処理結果が表示装置38に表示される。処理ユニット30による処理結果は、その他、ブザー、スピーカー等の発音体、ライト等によって報知されてもよい。すなわち、処理ユニット30による処理結果は、視覚、聴覚等によって、作業者によって認識可能な態様で報知し得る報知部によって報知されるとよい。
 図2は処理ユニット30により実現される異変検出装置20の機能ブロック図である。処理ユニット30は、機械学習装置40と、異変検出処理部46とを備える。
 機械学習装置40は、学習用検査対象入力データを次元圧縮する中間層を含み、出力データが学習用検査対象入力データと同じになるように機械学習されており、その学習結果に基づいて検査対象データの特徴抽出データを出力する装置である。
 異変検出処理部46は、検査対象データと特徴抽出データとに基づいて、検査対象データの異変の有無を判定する。ここでは、異変検出処理部46は、判定用データ生成部42と異変判定部44とを含んでいる。判定用データ生成部42は、検査対象データと特徴抽出データとの差に基づく判定用データを生成する。異変判定部44は、判定用データ生成部42で生成された判定用データに基づいて検査対象データの異変の有無を判定する。
 上記各部についてより具体的に説明する。
 図3は機械学習装置40が、学習用検査対象入力データに基づいて、多層構造のニューラルネットワークによりディープラーニングを行う層構造を示す説明図である。機械学習装置40は、入力層40aと、コンボリューション層(CONV層)と、デコンボリューション層(DECONV層)と、出力層40bとを含む。コンボリューション層(CONV層)は、学習用検査対象入力データを次元圧縮する層の一例であり、ここでは、コンボリューション層(CONV層)は、学習用検査対象入力データに対して畳み込み積分を行って次元圧縮する。デコンボリューション層(DECONV層)は、次元圧縮されたデータを元の次元に復元する層の一例であり、例えば、デコンボリューション層(DECONV層)は、デコンボリューション層(DECONV層)とは逆の操作等を行って、コンボリューション層(CONV層)において畳み込み積分されたデータに対して逆畳み込み処理を行い元の次元に復元する。ここでは、コンボリューション層(CONV層)及びデコンボリューション層(DECONV層)が2層である例を示しているが、1層又は3層以上の構造を有していてもよい。
 学習用検査対象入力データは、コンボリューション層(CONV層)で一旦次元圧縮された後、デコンボリューション層(DECONV層)において元の次元に復元される。
 本機械学習装置40では、学習用検査対象入力データが入力層40aに入力され、コンボリューション層(CONV層)及びデコンボリューション層(DECONV層)を経て出力される。この際、出力データが元の学習用検査対象入力データと同じになるように機械学習される。かかる機械学習を、複数の正常(つまり異変が無い)な学習用検査対象入力データを用いて行う。機械学習が終了すると、機械学習装置40は、入力データに対して、正常な学習用検査対象入力データの特徴を抽出した特徴抽出データを出力するようになる。
 すなわち、検査対象が工業的に量産される物品10であると想定し、当該物品10を撮像してその異変、即ち、良否判定を行うことを想定する。この場合、正常な物品(良品の物品)10を撮像した画像が、学習用検査対象入力データとして入力される。多数の画像を学習用検査対象入力データとして、機械学習装置40の機械学習を行うと、機械学習装置40は、正常な物品(良品の物品)10を撮像した画像に共通する特徴を抽出したデータを出力するように学習される。なお、正常な物品(良品の物品)10を撮像した画像には、陰影等が様々な態様で写り込んでいる場合があり得る。しかしながら、陰影の有無に拘わらず、物品10に共通する特徴が自働で設計・学習される。
 図4は機械学習装置40が、上記学習結果に基づいて検査対象データの特徴抽出データを出力する層構造を示す説明図である。
 上記したように、機械学習装置40は、正常な物品(良品の物品)10を撮像した画像に共通する特徴を抽出したデータを出力するように学習されていることから、検査対象データが入力されると、検査対象データの特徴抽出データを出力する。
 ここで、検査対象データは、上記撮像部22により検査対象となる物品10を撮像したデータである。検査対象データとして、正常な物品(良品の物品)10が写り込んでいる場合、特徴抽出データは、元の正常な物品(良品の物品)10がおおよそそのまま写り込んだ画像データとなる。一方、検査対象データが異変を含む場合、例えば、正常な物品(良品の物品)10に、物品10以外の異物12が写り込んでいるとする。この場合、機械学習装置40は、正常な物品(良品の物品)10の学習用検査対象入力データに基づいて機械学習しているため、異物12等の不良箇所部分を良品の特徴に置き換えて出力する。つまり、検査対象データは、機械学習装置40により、正常な物品(良品の物品)10を撮像した画像に共通する特徴を抽出した特徴抽出データとして出力される。このため、特徴抽出データにおいては、検査対象データに写り込んだ物品10を含むものの、異物12は無くなるか、薄く写り込んだ状態となる。
 異変検出処理部46は、検査対象データと特徴抽出データとに基づいて、検査対象データの異変の有無を判定する。つまり、特徴抽出データは、検査対象データに基づいて、正常な物品(良品の物品)10を撮像した画像に共通する特徴を抽出したデータである。このため、検査対象データと特徴抽出データとを比較すれば、検査対象データが正常な物品(良品の物品)10を撮像した画像に共通する特徴に対して相違する要素、或は、検査対象データと正常な物品(良品の物品)10を撮像した画像に共通する特徴との類似性を把握することができる。このような相違する要素、或は、類似性に基づいて、検査対象データの異変の有無を判定する。しかも、特徴抽出データは、デコンボリューション層(DECONV層)により元の次元に復元されているため、検査対象データと同次元データとなり、両者を適切に比較できる。
 ここでは、異変検出処理部46は、判定用データ生成部42と異変判定部44とを含む。
 判定用データ生成部42は、検査対象データと特徴抽出データとの差に基づく判定用データを生成する。より具体的には、判定用データ生成部42は、検査対象データと特徴抽出データとの差分データを生成する。
 例えば、図5に示すように、検査対象データにおいて塊状の異物12が写り込んでいるとする。この検査対象データに基づいて生成された特徴抽出データでは、当該異物12が無くなっているとする。判定用データ生成部42は、検査対象データと特徴抽出データとに基づいて差分データを生成する。例えば、判定用データ生成部42は、検査対象データの各画素の輝度値と特徴抽出データの各画素の輝度値との差分を求めて、差分画像データを生成する。差分画像データは、検査対象データと特徴抽出データとの差である異物12に対応する塊状の差分領域が抽出されたデータとなる。なお、検査対象データがグレー画像であれば、各画素毎の輝度値の差を求めることで差分画像データを生成することができる。検査対象データがRGB画像であれば、色成分毎に差分画像データを求めても良いし、各色成分を平均又は加算したデータから差分画像データを求めても良い。
 また、例えば、図6に示すように、検査対象データにおいて線状の異物13が写り込んでいるとする。この場合、検査対象データと特徴抽出データとの差分画像データは、検査対象データと特徴抽出データとの差である異物13に対応する線状の差分領域が抽出されたデータとなる。
 なお、検査対象データに当初から異物12等が写り込んでいない場合、検査対象データと特徴抽出データとはほぼ同じとなる。このため、検査対象データと特徴抽出データとの差分画像データは、異物等が写り込まないデータとなる。
 判定用データ生成部42は、さらに、上記差分画像データに基づいて、所定の閾値で規定される差分領域の大きさを求め、その差分領域の大きさを含むデータを判定用データとして生成する。
 図7に示す例では、差分画像データにおいて、異物12の影響等による差分領域Rが存在している。判定用データ生成部42は、所定の閾値で規定される差分領域Rの大きさを求め、その差分領域Rの大きさを含むデータを判定用データとして生成する。ここでは、所定の閾値が複数設定されている。判定用データ生成部42は、複数の所定の閾値のそれぞれに対する差分領域Rの大きさを求め、複数の所定の閾値のそれぞれに対する差分領域Rの大きさを含むデータを判定用データとして生成する。
 例えば、上記差分領域Rの外周から中央に向けて徐々に差分が大きくなっているとする。また、第1の閾値A(1)、第2の閾値A(2)、第3の閾値A(3)が設定されているとする(但し、A(1)<A(2)<A(3)とする)。第1の閾値A(1)で規定される差分領域R(1)は、差分の値がA(1)を超える又はA(1)以上の領域として規定され、第2の閾値A(2)で規定される差分領域R(2)は、差分の値がA(2)を超える又はA(2)以上の領域として規定され、第3の閾値A(3)で規定される差分領域R(3)は、差分の値がA(3)を超える又はA(3)以上の領域として規定されているとする。上記差分画像データに対して、第1の閾値A(1)、第2の閾値A(2)、第3の閾値A(3)として二値化フィルタ処理を施すことで、差分領域R(1)を抽出した二値化画像データ、差分領域R(2)を抽出した二値化画像データ、差分領域R(3)を抽出した二値化画像データを得ることができる。それぞれの二値化画像データに対して、連続した差分領域R(1)、差分領域R(2)、差分領域R(3)の大きさ(画素数)を求め、連続した差分領域R(1)、差分領域R(2)、差分領域R(3)の大きさを含む差分領域データを判定用データとして生成する。なお、ここでは、3つの閾値が設定された例で説明したが、2つ又は4つ以上の閾値が設定されてもよく、好ましくは、8つの閾値が設定される。
 なお、第1の閾値A(1)に対して差分領域R(1)が複数存在する場合には、最も大きい差分領域R(1)の大きさを、判定用データとして供することが好ましい。第2の閾値A(2)に対する差分領域R(2)、第3の閾値A(3)に対する差分領域R(3)についても同様である。これにより、ソルトアンドペッパーノイズのような小さい領域のノイズ成分を排除することができる。
 異変判定部44は、上記判定用データに基づいて、検査対象データの異変の有無を判定する。異変判定は、例えば、上記判定用データに基づき、所定の条件値を超える又は所定の条件値以上となる大きさの差分領域Rが存在していれば、異変が存在していると判定することができる。
 ここでは、複数の差分領域R(1)、差分領域R(2)、差分領域R(3)に基づいて、異変の有無を判定する。複数の差分領域R(1)、差分領域R(2)、差分領域R(3)に基づいて、異変の有無を判定することで、二値化を行う際の閾値の違いに基づく差分領域R(1)、差分領域R(2)、差分領域R(3)の変化に基づいて異変の有無を判定することができる。例えば、陰影等に起因する差分領域Rは、小さい閾値A(1)に対応する差分領域R(1)で比較的大きくなる一方、大きい閾値A(3)に対応する差分領域R(3)では比較的小さくなるか又は消失する。これに対して、異物12、13等の異変に起因する差分領域Rは、小さい閾値A(1)から大きい閾値A(3)に対応する差分領域R(1)、R(2)、R(3)において、同じ大きさで現れやすい。そこで、複数の差分領域R(1)、差分領域R(2)、差分領域R(3)に基づいて、異変の有無を判定することで、二値化を行う際の閾値の違いに基づく差分領域R(1)、差分領域R(2)、差分領域R(3)の変化に基づいて、異変の有無を判定することが可能となる。
 ここでは、異変判定部44は、学習済の1クラスサポートベクターマシンにより構成されている。1クラスサポートベクターマシンは、外れ値を検出する分類器として周知である。ここでは、正常な物品(良品の物品)10を撮像した学習用検査対象入力データに基づいて、差分領域R(1)、差分領域R(2)、差分領域R(3)の大きさを求め、求められた差分領域R(1)、差分領域R(2)、差分領域R(3)の大きさを示す差分領域データを、1クラスサポートベクターマシンに対する入力とする。これを、複数の学習用検査対象入力データに対して行うと、図8に示すように、識別空間において、良品領域、不良品領域、境界が設定される。識別空間においては、原点Oを基準とする良品の各データの位置が、境界よりも遠くに位置するように、境界が設定される。
 検査対象データに基づいて、差分領域R(1)、差分領域R(2)、差分領域R(3)の大きさを求め、求められた差分領域R(1)、差分領域R(2)、差分領域R(3)の大きさを示す差分領域データを判定用データとして、学習済の1クラスサポートベクターマシンに対して入力する。検査対象データが異変の無いデータ(良品データ)である場合、差分領域R(1)、差分領域R(2)、差分領域R(3)の大きさを示すデータは、原点Oに対して境界よりも遠くに位置する。検査対象データが異変のあるデータ(不良データ)である場合、差分領域R(1)、差分領域R(2)、差分領域R(3)の大きさを示すデータは、外れデータとして、原点Oに対して境界よりも近くに位置する。これにより、検査対象データの異変の有無を検出することができる。
 1クラスサポートベクターマシンでは、正常な物品(良品の物品)10を撮像した学習用検査対象入力データに対応するデータに対するマージンと、原点Oに対するマージンとを任意に設定できるため、異変の判定を厳密に行うか、緩やかに行うかを容易に設定できる。
 なお、二値化を行う際の閾値の違いに基づく差分領域R(1)、差分領域R(2)、差分領域R(3)の変化に基づいて、異変の有無を判定することは、他の構成によっても実現できる。例えば、差分領域R(1)、差分領域R(2)、差分領域R(3)の大きさが所定の基準値を超える又は以上となるものが、所定数を超える又は以上となるか否かを判定し、肯定的な判断となる場合に、異変有りと判定してもよい。
 図9は異変検出方法の全体的な処理を示すフローチャートである。
 まず、ステップS1において、学習用検査対象入力データに基づく、機械学習が行われる。
 次ステップS2において、機械学習が終了したか否かの判定がなされる。機械学習が終了していない場合(ステップS2:NO)、ステップS1に戻って再度、機械学習が行われる。機械学習が終了したと判定されると(ステップS2:YES)、ステップS3に進む。なお、ステップS1における機械学習と、ステップS3以降の処理は、別々のコンピュータによって行われ、学習結果を反映したプログラムが異変検出用のコンピュータに実装されてもよい。
 ステップS3以降の処理は、機械学習済の異変検出装置20によってなされる。
 ステップS3では、撮像部22を通じて検査対象データが取得される。
 次ステップS4では、機械学習装置40によって検査対象データに基づいて特徴抽出データが生成される。
 次ステップS5では、判定用データ生成部42により、検査対象データと特徴抽出データの差分画像データが生成される。
 次ステップS6では、判定用データ生成部42により、複数の所定の閾値に対する差分領域R(1)、R(2)、R(3)の大きさが求められ、各差分領域R(1)、R(2)、R(3)の大きさを含む判定用データが生成される。
 次ステップS7では、異変判定部44により、複数の所定の閾値に対する差分領域R(1)、R(2)、R(3)の大きさに基づいて、異変(不良)の判定がなされる。異変無しと判定(良品判定)されると(ステップS7:YES)、異変が無し(良品判定)の判定がなされた旨が出力される(ステップS8)。出力結果は、必要に応じて、表示装置38に表示される。または、検査履歴として記憶部34等に記憶される。ステップS8の処理を終えた後、ステップS3に戻って、次の検査対象データが取得され、以降の処理が繰り返される。これにより、複数の検査対象データに対して順次異変(不良)判定を行うことができる。
 ステップS7において、異変有りと判定(不良判定)されると(ステップS7:NO)、異変有り(不良品)の判定がなされた旨が出力される(ステップS9)。出力結果は、表示装置38等に表示され、作業者に報知される。作業者は、報知結果に応じて、物品10の手直し、除去等を行うことができる。
 以上のように構成された異変検出装置20及び異変検出方法によると、機械学習装置40は、学習用検査対象入力データを次元圧縮する中間層を含んでおり、出力データが学習用検査対象入力データと同じになるように機械学習されている。このため、機械学習装置40によって、異変の無い正常な検査対象データに従って、検査対象データの特徴を抽出した特徴抽出データを得ることができる。特徴抽出データは、学習用検査対象入力データにおいて共通する特徴が抽出されたデータであるため、特徴抽出データと検査対象データとに基づくことで、特徴抽出データに対する検査対象データの異変をより確実に判定することができる。このため、正常な学習用検査対象データに基づいて学習された機械学習装置40を利用して、検査対象データの異変をより確実に検出できる。
 また、検査対象データとして画像データを取得しているため、画像データの異変を検出することができる。これにより、物品10の撮像画像に基づく良否判定を行うことができる。
 また、異変検出処理部46は、検査対象データと特徴抽出データとの差に基づく判定用データを生成する判定用データ生成部42と、判定用データ生成部42で生成された判定用データに基づいて検査対象データの異変の有無を判定する異変判定部44とを含むため、検査対象データと特徴抽出データとの差に基づいて、検査対象データの異変の有無を判定することができる。
 また、判定用データ生成部42は、検査対象データと特徴抽出データとの差分データに基づいて、所定の閾値で規定される差分領域Rの大きさを求め、その差分領域Rの大きさを含むデータを、判定用データとして生成する。所定の閾値で規定される差分領域Rの大きさは、検査対象データと特徴抽出データとの違いの大きさを表しているため、検査対象データの異変の有無をより適切に検出することができる。
 また、判定用データ生成部42には、所定の閾値A(1)、A(2)、A(3)が複数設定されており、判定用データ生成部42は、複数の所定の閾値A(1)、A(2)、A(3)のそれぞれに対する差分領域R(1)、R(2)、R(3)の大きさを求め、複数の所定の閾値A(1)、A(2)、A(3)のそれぞれに対する差分領域R(1)、R(2)、R(3)の大きさを含むデータを、判定用データとして生成する。複数の所定の閾値A(1)、A(2)、A(3)のそれぞれに対する差分領域R(1)、R(2)、R(3)の大きさは、複数の所定の閾値A(1)、A(2)、A(3)に対する差分領域R(1)、R(2)、R(3)の大きさの連続性等を表現している。このため、複数の所定の閾値A(1)、A(2)、A(3)のそれぞれに対する差分領域R(1)、R(2)、R(3)の大きさに基づいて、検査対象データの異変の有無を判定することで、異変の有無をより適切に検出できる。
 {変形例}
 上記実施形態を前提とする変形例について説明する。
 図10に示す変形例では、異変検出装置20がワイヤーハーネス100の良不良検出装置120として適用された例を示す図である。
 ワイヤーハーネス100は、複数の電線が配設対象となる車両の配線ラインに沿って分岐しつつ結束されたものである。ワイヤーハーネス100の端部にはコネクタ110が取り付けられており、ワイヤーハーネス100の延在方向途中部分には、ワイヤーハーネス100を車両に固定するための車両固定部品112(クランプと呼ばれる部品)が取り付けられている。
 撮像部22に対応する撮像部122が、コネクタ110を前側から撮像可能な位置に設けられている。撮像部122は、車両固定部品112を撮像可能な位置にも設けられている。
 そして、良品のコネクタ110の撮像データを学習用検査対象入力データとして、良不良検出装置120が機械学習されている。また、別の良不良検出処理において、良品の車両固定部品112の撮像データを学習用検査対象入力データとして、良不良検出装置120が機械学習されている。
 コネクタ110の良不良判定について説明する。図11に示すように、良品のコネクタ110を前方から撮像すると、コネクタハウジング110a内にコネクタ端子110tが写り込んだ画像が写り込む。良品のコネクタ110の撮像画像に基づいて、良不良検出装置120が機械学習されている。
 実際のワイヤーハーネス100の製造現場において、良不良検出装置120を利用してコネクタ110等の良不良検査がなされる。
 コネクタ110を撮像した画像に基づく検査対象データにおいて、図12に示すように、端子110taが曲がっている場合、端子110tbが存在しない場合、コネクタハウジング110aに異物111が付着しているような場合が想定される。
 このような場合において、検査対象データと、検査対象データから生成された特徴抽出データとを比較すると、端子110taが曲がっている領域Ra、端子110tbが存在しない領域Rb、コネクタハウジング110aに異物111が付着している領域Rcが、差分領域Ra、Rb、Rcとして抽出される。これらの差分領域Ra、Rb、Rcから、異変有り(不良)と判定される。
 好ましくは、不良と判定された場合、差分領域Ra、Rb、Rcに異変領域を示すマークMa、Mb、Mc(例えば、異変領域を囲むマーク)が付される。
 車両固定部品112についても、同様にして、車両固定部品112の欠損、異物付着等を異変有り(不良)として検出することができる。
 これにより、作業者は、不良と判定された箇所の確認、手直し等を容易に行える。
 上記実施形態では、学習用検査対象入力データ、検査対象データが画像データである例で説明したが、必ずしもその必要は無い。
 例えば、車両、製造装置等の各種装置又はシステムの正常状態での振動、熱変化、加速度変化等をセンサで検出し、その検出データに基づいて機械学習装置の機械学習を行い、その学習結果に基づいて、検査対象データを特徴抽出データに変換して、検査対象データと特徴抽出データとを比較することで、各種状態の異変を検出することができる。この場合、検査対象データ取得部は、各状態を検出するセンサである。
 上記実施形態では、検査対象データと特徴抽出データとに基づく異変の検出を、それらの差分データに基づいて行ったが、異変の検出はこれに限らず行うことができる。
 例えば、検査対象データが周期性を示すデータである場合には、検査対象データと特徴抽出データとを周波数解析し、解析された周波数の共通性等に基づいて異変の有無を判定してもよい。また、検査対象データと特徴抽出データとの共通性を、相関係数等で評価して、異変の有無を判定してもよい。
 なお、上記実施形態及び各変形例で説明した各構成は、相互に矛盾しない限り適宜組み合わせることができる。
 以上のようにこの発明は詳細に説明されたが、上記した説明は、すべての局面において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
 10 物品
 12、13、111 異物
 20 異変検出装置
 22 撮像部
 30 処理ユニット
 31 バスライン
 34 記憶部
 34a 異変検出プログラム
 36 入出力部
 37 入出力部
 38 表示装置
 40 機械学習装置
 40a 入力層
 40b 出力層
 CONV層 コンボリューション層
 DECONV層 デコンボリューション層
 42 判定用データ生成部
 44 異変判定部
 46 異変検出処理部
 100 ワイヤーハーネス
 110 コネクタ
 110a コネクタハウジング
 110t コネクタ端子
 110ta、110tb 端子
 112 車両固定部品
 120 良不良検出装置
 122 撮像部
 R、Ra、Rb、Rc 差分領域
 Ma、Mb、Mc マーク
 

Claims (8)

  1.  検査対象データを取得する検査対象データ取得部と、
     学習用検査対象入力データを次元圧縮する中間層を含み、出力データが前記学習用検査対象入力データと同じになるように機械学習され、その学習結果に基づいて前記検査対象データの特徴抽出データを出力する機械学習装置と、
     前記検査対象データと前記特徴抽出データとに基づいて、前記検査対象データの異変の有無を判定する異変検出処理部と、
     を備える異変検出装置。
  2.  請求項1に記載の異変検出装置であって、
     前記検査対象データ取得部は、前記検査対象データとして画像データを取得する、異変検出装置。
  3.  請求項1又は請求項2に記載の異変検出装置であって、
     前記異変検出処理部は、
     前記検査対象データと前記特徴抽出データとの差に基づく判定用データを生成する判定用データ生成部と、前記判定用データ生成部で生成された判定用データに基づいて前記検査対象データの異変の有無を判定する異変判定部とを含む、異変検出装置。
  4.  請求項3に記載の異変検出装置であって、
     前記判定用データ生成部は、前記検査対象データと前記特徴抽出データとの差分データに基づいて、所定の閾値で規定される差分領域の大きさを求め、その差分領域の大きさを含むデータを、前記判定用データとして生成する、異変検出装置。
  5.  請求項4に記載の異変検出装置であって、
     前記判定用データ生成部には、前記所定の閾値が複数設定されており、前記判定用データ生成部は、前記複数の所定の閾値のそれぞれに対する差分領域の大きさを求め、前記複数の所定の閾値のそれぞれに対する差分領域の大きさを含むデータを、前記判定用データとして生成する異変検出装置。
  6.  (a)入力されたデータを次元圧縮する中間層を含む機械学習装置が、学習用検査対象入力データに基づいて、出力データが前記学習用検査対象入力データと同じになるように機械学習するステップと、
     (b)検査対象データを取得するステップと、
     (c)前記ステップ(a)によって機械学習した前記機械学習装置が、前記検査対象データの特徴抽出データを出力するステップと、
     (d)前記検査対象データと前記特徴抽出データとに基づいて、前記検査対象データの異変の有無を判定するステップと、
     を備える異変検出方法。
  7.  請求項6に記載の異変検出方法であって、
     前記ステップ(b)は、前記検査対象データとして画像データを取得するステップである、異変検出方法。
  8.  請求項6又は請求項7に記載の異変検出方法であって、
     前記ステップ(c)は、前記検査対象データと前記特徴抽出データとの差に基づいて、前記検査対象データの異変の有無を判定するステップである、異変検出方法。
     
PCT/JP2018/015814 2017-05-18 2018-04-17 異変検出装置及び異変検出方法 WO2018211891A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017099083A JP2018195119A (ja) 2017-05-18 2017-05-18 異変検出装置及び異変検出方法
JP2017-099083 2017-05-18

Publications (1)

Publication Number Publication Date
WO2018211891A1 true WO2018211891A1 (ja) 2018-11-22

Family

ID=64273575

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/015814 WO2018211891A1 (ja) 2017-05-18 2018-04-17 異変検出装置及び異変検出方法

Country Status (2)

Country Link
JP (1) JP2018195119A (ja)
WO (1) WO2018211891A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109977962A (zh) * 2019-03-21 2019-07-05 国网山东省电力公司经济技术研究院 一种光缆故障隐患自动识别方法与系统
WO2020201880A1 (ja) * 2019-04-02 2020-10-08 株式会社半導体エネルギー研究所 検査装置及び検査方法
JPWO2020246366A1 (ja) * 2019-06-06 2020-12-10

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020187691A (ja) * 2019-05-17 2020-11-19 株式会社Lixil 判定装置、判定方法、及びプログラム
JP7220629B2 (ja) 2019-06-27 2023-02-10 株式会社Screenホールディングス 画像判別モデル構築方法、画像判別装置、および画像判別方法
JP7392317B2 (ja) * 2019-08-07 2023-12-06 株式会社リコー プログラム、情報処理装置、判断方法
JP2021051702A (ja) * 2019-09-26 2021-04-01 Nriシステムテクノ株式会社 検査支援装置、検査支援方法、検査支援システム、検査装置、検査方法、およびプログラム
JP7360092B2 (ja) * 2020-01-28 2023-10-12 オムロン株式会社 検査装置、検査方法、及び検査プログラム
JP7426261B2 (ja) * 2020-03-10 2024-02-01 株式会社Screenホールディングス 学習装置、画像検査装置、学習済みパラメータ、学習方法、および画像検査方法
US20230118767A1 (en) 2020-04-08 2023-04-20 Mitsubishi Electric Corporation Learning device, learning method, inference device, and storage medium
JP7475959B2 (ja) 2020-05-20 2024-04-30 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7091010B2 (ja) * 2020-06-18 2022-06-27 Ckd株式会社 スクリーンマスク検査装置
WO2024171740A1 (ja) * 2023-02-13 2024-08-22 住友電気工業株式会社 積層材を検査するための方法、システム、および積層材の製造方法
WO2024171739A1 (ja) * 2023-02-13 2024-08-22 住友電気工業株式会社 積層材の検査を行う方法、システム、および積層材の製造方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06281592A (ja) * 1993-03-29 1994-10-07 Sumitomo Metal Ind Ltd 表面検査方法
JP2011209113A (ja) * 2010-03-30 2011-10-20 Toppan Printing Co Ltd 検査システム
JP2016085704A (ja) * 2014-10-29 2016-05-19 株式会社リコー 情報処理システム、情報処理装置、情報処理方法、及びプログラム
WO2018105028A1 (ja) * 2016-12-06 2018-06-14 三菱電機株式会社 検査装置及び検査方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06281592A (ja) * 1993-03-29 1994-10-07 Sumitomo Metal Ind Ltd 表面検査方法
JP2011209113A (ja) * 2010-03-30 2011-10-20 Toppan Printing Co Ltd 検査システム
JP2016085704A (ja) * 2014-10-29 2016-05-19 株式会社リコー 情報処理システム、情報処理装置、情報処理方法、及びプログラム
WO2018105028A1 (ja) * 2016-12-06 2018-06-14 三菱電機株式会社 検査装置及び検査方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109977962A (zh) * 2019-03-21 2019-07-05 国网山东省电力公司经济技术研究院 一种光缆故障隐患自动识别方法与系统
CN109977962B (zh) * 2019-03-21 2022-03-15 国网山东省电力公司经济技术研究院 一种光缆故障隐患自动识别方法与系统
WO2020201880A1 (ja) * 2019-04-02 2020-10-08 株式会社半導体エネルギー研究所 検査装置及び検査方法
JPWO2020201880A1 (ja) * 2019-04-02 2020-10-08
JP7395566B2 (ja) 2019-04-02 2023-12-11 株式会社半導体エネルギー研究所 検査方法
JPWO2020246366A1 (ja) * 2019-06-06 2020-12-10
WO2020246366A1 (ja) * 2019-06-06 2020-12-10 東京エレクトロン株式会社 基板検査装置、基板検査システム及び基板検査方法
JP7204911B2 (ja) 2019-06-06 2023-01-16 東京エレクトロン株式会社 基板検査装置、基板検査システム及び基板検査方法
TWI845690B (zh) * 2019-06-06 2024-06-21 日商東京威力科創股份有限公司 基板檢查裝置、基板檢查系統、基板檢查方法及電腦程式產品

Also Published As

Publication number Publication date
JP2018195119A (ja) 2018-12-06

Similar Documents

Publication Publication Date Title
WO2018211891A1 (ja) 異変検出装置及び異変検出方法
US9811899B2 (en) Method, image processing system and computer-readable recording medium for item defect inspection
CN110431404B (zh) 表面缺陷检查方法及表面缺陷检查装置
JP6183305B2 (ja) 故障検出装置および故障検出プログラム
US10699400B2 (en) Image processing apparatus, image processing method, and storage medium
JPWO2020031984A1 (ja) 部品の検査方法及び検査システム
CN107111872B (zh) 信息处理装置、信息处理方法、及存储介质
CN109671078B (zh) 一种产品表面图像异常检测方法及装置
US20210012476A1 (en) Abnormality inspection device and abnormality inspection method
US20170330315A1 (en) Information processing apparatus, method for processing information, discriminator generating apparatus, method for generating discriminator, and program
US11435719B2 (en) System and method for identifying manufacturing defects
TWI521448B (zh) Vehicle identification system and method
JP7034840B2 (ja) 外観検査装置および方法
JP6908019B2 (ja) 画像生成装置及び外観検査装置
US10687044B2 (en) Method and arrangement for calibration of cameras
JP2020091534A5 (ja)
CN110599484A (zh) 缺陷检测方法、装置及存储介质
CN115953373B (zh) 玻璃缺陷检测方法、装置、电子设备及存储介质
CN111398292A (zh) 一种基于gabor滤波和CNN的布匹瑕疵检测方法、系统及设备
CN111031307A (zh) 一种摄像模组检测方法、装置、电子设备及介质
JP7459697B2 (ja) 異常検知システム、学習装置、異常検知プログラム、学習プログラム、異常検知方法、および学習方法
CN113379726A (zh) 线路检测方法、装置、设备及计算机可读存储介质
WO2016092783A1 (en) Information processing apparatus, method for processing information, discriminator generating apparatus, method for generating discriminator, and program
WO2016168823A1 (en) Defect detection using a first derivative of an image
JP6034529B1 (ja) 表面状態診断装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18801742

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18801742

Country of ref document: EP

Kind code of ref document: A1