JP2021189039A - Industrial inspection system - Google Patents

Industrial inspection system Download PDF

Info

Publication number
JP2021189039A
JP2021189039A JP2020094476A JP2020094476A JP2021189039A JP 2021189039 A JP2021189039 A JP 2021189039A JP 2020094476 A JP2020094476 A JP 2020094476A JP 2020094476 A JP2020094476 A JP 2020094476A JP 2021189039 A JP2021189039 A JP 2021189039A
Authority
JP
Japan
Prior art keywords
value
data
image data
inspection
evaluation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020094476A
Other languages
Japanese (ja)
Inventor
正晃 加納
Masaaki Kano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JTEKT Corp
Original Assignee
JTEKT Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JTEKT Corp filed Critical JTEKT Corp
Priority to JP2020094476A priority Critical patent/JP2021189039A/en
Publication of JP2021189039A publication Critical patent/JP2021189039A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Analysis (AREA)

Abstract

To provide an industrial inspection system that can improve a determination performance by making the device resistant to an impact of noise in a quality determination of an inspection object.SOLUTION: An industrial inspection system 1 comprises: an output value acquisition unit 33 that acquires an expected value and dispersion as an output of a learned model using a variation auto encoder (VAE) when inputting inspection image data on an inspection object; a differential value computation unit 34 that computes a differential between the inspection image data on the inspection object and the expected value for each pixel; an individual pixel evaluation value computation unit 35 that multiplies a correlation value of the differential with a weighting coefficient represented by a correlation value of the dispersion for each pixel, and thereby computes an individual pixel evaluation value g1; an entire pixel evaluation value computation unit 36 that computes an entire pixel evaluation value on the basis of the individual pixel evaluation value g1 for each pixel; and a determination unit 37 that determines a quality of the inspection object on the basis of the entire pixel evaluation value.SELECTED DRAWING: Figure 3

Description

本発明は、産業用検査システムに関するものである。 The present invention relates to an industrial inspection system.

一般に、産業に用いられる装置は、異常を検出するために外観検査や動作検査等が必要である。これらの検査は、工場で生産された装置の出荷時のみならず、装置の使用時においても行われる。例えば、産業に用いられる装置としては、産業機械、自動車、航空機等の完成品、または、これらの完成品を構成する部品が含まれる。 Generally, equipment used in industry requires visual inspection, operation inspection, and the like in order to detect an abnormality. These inspections are performed not only when the factory-produced equipment is shipped, but also when the equipment is used. For example, devices used in industry include finished products such as industrial machines, automobiles, and aircraft, or parts constituting these finished products.

異常検出の手法として、例えば、特許文献1に記載のように、機械学習の1つとしてオートエンコーダを用いることが知られている。オートエンコーダは、エンコーダとデコーダにより構成されている。学習フェーズにおいて、検査対象の画像データをエンコーダに入力した場合に、デコーダの出力が検査対象の画像データと一致するように機械学習が行われる。そして、検査フェーズにおいて、検査対象の画像データをエンコーダに入力した際に、デコーダの出力画像データを取得し、入力画像データと出力画像データとの差分から判定値を求めることにより、入力画像データの異常を判定する。 As a method for detecting anomalies, for example, as described in Patent Document 1, it is known to use an autoencoder as one of machine learning. The autoencoder is composed of an encoder and a decoder. In the learning phase, when the image data to be inspected is input to the encoder, machine learning is performed so that the output of the decoder matches the image data to be inspected. Then, in the inspection phase, when the image data to be inspected is input to the encoder, the output image data of the decoder is acquired, and the determination value is obtained from the difference between the input image data and the output image data. Judge an abnormality.

特開2019−503530号公報Japanese Unexamined Patent Publication No. 2019-503530

しかし、入力画像データにノイズが含まれている場合において、オートエンコーダでは再現性能が低いため、入力画像データと出力画像データとの差分から得られた判定値が大きくなり、異常と判定される可能性がある。つまり、本来であれば、入力画像データの検査対象は正常であるにも関わらず、ノイズによって、当該入力画像データの検査対象が以上であると誤判定される可能性がある。 However, when the input image data contains noise, the autoencoder has low reproduction performance, so the judgment value obtained from the difference between the input image data and the output image data becomes large, and it can be judged as abnormal. There is sex. That is, although the inspection target of the input image data is normally normal, there is a possibility that it is erroneously determined that the inspection target of the input image data is the above due to noise.

本発明は、検査対象の良否判定においてノイズの影響を受けにくくすることで判定性能を向上できる産業用検査システムを提供することを目的とする。 An object of the present invention is to provide an industrial inspection system capable of improving the determination performance by making it less susceptible to noise in the quality determination of an inspection target.

産業用検査システムは、産業に用いられる装置である検査対象を撮像した検査画像データまたは前記検査対象の動作に起因したデータを変換した検査画像データを取得する検査画像データ取得部と、所定の確率分布を持つ変分オートエンコーダ(VAE)を学習モデルとし、前記検査画像データをエンコーダの入力とし、再構成データの分布のパラメータとして期待値および分散をデコーダの出力とする前記学習モデルを用い、良品の前記検査画像データを訓練データとして機械学習を行った学習済みモデルを記憶する学習済みモデル記憶部と、前記検査対象の前記検査画像データを入力した場合に、前記学習済みモデルの出力として、前記期待値および前記分散を取得する出力値取得部と、画素毎に、前記検査対象の前記検査画像データと前記出力値取得部により取得された前記期待値との差分を演算する差分値演算部と、画素毎に、前記差分値演算部により出力された前記差分の相関値に、前記出力値取得部により取得された前記分散の相関値により表される重み付け係数を乗算することにより、個別画素評価値を演算する個別画素評価値演算部と、画素毎の前記個別画素評価値に基づいて全画素評価値を演算する全画素評価値演算部と、前記全画素評価値に基づいて前記検査対象の良否を判定する判定部とを備える。 The industrial inspection system includes an inspection image data acquisition unit that acquires inspection image data obtained by imaging an inspection target, which is a device used in industry, or inspection image data obtained by converting data caused by the operation of the inspection target, and a predetermined probability. A good product using the learning model that uses a variable auto encoder (VAE) with a distribution as a training model, the inspection image data as the input of the encoder, and the expected value and dispersion as the output of the decoder as the parameters of the distribution of the reconstructed data. When the trained model storage unit that stores the trained model that has undergone machine learning using the inspection image data as training data and the inspection image data to be inspected are input, the trained model is output as the output. An output value acquisition unit that acquires the expected value and the dispersion, and a difference value calculation unit that calculates the difference between the inspection image data to be inspected and the expected value acquired by the output value acquisition unit for each pixel. Individual pixel evaluation by multiplying the correlation value of the difference output by the difference value calculation unit for each pixel by the weighting coefficient represented by the correlation value of the dispersion acquired by the output value acquisition unit. An individual pixel evaluation value calculation unit that calculates a value, an all-pixel evaluation value calculation unit that calculates an all-pixel evaluation value based on the individual pixel evaluation value for each pixel, and an inspection target based on the all-pixel evaluation value. It is provided with a determination unit for determining pass / fail.

上記産業用検査システムにおいては、機械学習の手法として、オートエンコーダではなく、変分オートエンコーダを用いている。変分オートエンコーダは、所定の確率分布を持つことを制約とされている。そのため、変分オートエンコーダを用いることにより、デコーダの出力として、再構成データの分布のパラメータとしての期待値および分散を得ることができる。 In the above industrial inspection system, a variational autoencoder is used as a machine learning method instead of an autoencoder. Variational autoencoders are constrained to have a predetermined probability distribution. Therefore, by using the variational autoencoder, the expected value and the variance as the parameters of the distribution of the reconstructed data can be obtained as the output of the decoder.

そして、産業用検査システムでは、判定部における判定値として、全画素評価値を用いている。全画素評価値は、個別画素評価値に基づいて演算されている。個別画素評価値は、検査対象の検査画像データ、期待値、分散を用いて演算されている。具体的には、まず、差分値演算部が検査対象の検査画像データと期待値との差分を演算し、個別画素評価値演算部が、差分の相関値に、分散の相関値により表された重み付け係数を乗算することにより、個別画素評価値を演算している。 Then, in the industrial inspection system, the evaluation value of all pixels is used as the determination value in the determination unit. The all-pixel evaluation value is calculated based on the individual pixel evaluation value. The individual pixel evaluation value is calculated using the inspection image data to be inspected, the expected value, and the variance. Specifically, first, the difference value calculation unit calculates the difference between the inspection image data to be inspected and the expected value, and the individual pixel evaluation value calculation unit represents the difference correlation value by the variance correlation value. The individual pixel evaluation value is calculated by multiplying by the weighting coefficient.

ここで、期待値が検査画像データに近い場合は、再現性能が高い状態、すなわちノイズが含まれていない可能性が高い状態を表している。一方、期待値が検査画像データから遠い場合は、再現性能が低い状態、すなわちノイズが含まれている可能性がある状態を表している。そして、重み付け係数は、分散の相関値により表されている。分散は、再現性能に対応する値を持つ。 Here, when the expected value is close to the inspection image data, it indicates a state in which the reproduction performance is high, that is, a state in which there is a high possibility that noise is not included. On the other hand, when the expected value is far from the inspection image data, it indicates a state in which the reproduction performance is low, that is, a state in which noise may be included. The weighting coefficient is represented by the correlation value of the variance. The variance has a value corresponding to the reproduction performance.

個別画素評価値が、上述したように、差分の相関値に重み付け係数を乗算することにより得られる。そのため、個別画素評価値は、ノイズが含まれていない場合には差分の相関値の影響が相対的に大きくなり、ノイズが含まれている可能性がある場合には、差分の相関値の影響が相対的に小さくなる。 The individual pixel evaluation value is obtained by multiplying the correlation value of the difference by the weighting coefficient, as described above. Therefore, the influence of the correlation value of the difference becomes relatively large when the individual pixel evaluation value does not include noise, and the influence of the correlation value of the difference when there is a possibility that noise is included. Is relatively small.

そして、全画素評価値は、上記のようにして得られた個別画素評価値により得られるため、結果として、ノイズの影響が小さな値となる。つまり、検査対象の良否判定においてノイズの影響を受けにくくすることができ、判定性能を向上できる。 Since the all-pixel evaluation value is obtained from the individual pixel evaluation value obtained as described above, the effect of noise is small as a result. That is, it is possible to reduce the influence of noise in the quality determination of the inspection target, and the determination performance can be improved.

第一例の学習モデルを示す図である。It is a figure which shows the learning model of the first example. 第二例の学習モデルを示す図である。It is a figure which shows the learning model of the 2nd example. 第一例の産業用検査システムの構成を示す図である。It is a figure which shows the structure of the industrial inspection system of 1st example. 第二例の産業用検査システムの構成を示す図である。It is a figure which shows the structure of the industrial inspection system of the 2nd example. 検査対象の例としてステアリング装置の構成を示す図である。It is a figure which shows the structure of the steering apparatus as an example of an inspection target. 検査画像データ取得部の構成例を示す機能ブロック図である。It is a functional block diagram which shows the structural example of the inspection image data acquisition part. 時系列の第一次データである波形データの一例を示した図である。It is a figure which showed an example of the waveform data which is the primary data of a time series. 第二次データ生成部により第二次データが生成される過程を示す図である。It is a figure which shows the process which the secondary data is generated by the secondary data generation part. 第二次データであるスペクトログラムデータの一例を示した図である。It is a figure which showed an example of spectrogram data which is a secondary data. 時間−振幅データの一例を示した図である。It is a figure which showed an example of time-amplitude data. 第二周波数成分−振幅データの一例を示した図である。It is a figure which showed an example of the 2nd frequency component-amplitude data. 第三次データである画像データの一例を示した図である。It is a figure which showed an example of the image data which is a tertiary data.

(1.産業用検査システムの概略)
産業用検査システムは、産業に用いられる装置を検査対象として、検査対象の異常を判定する。例えば、産業に用いられる装置としては、工作機械等の産業機械、自動車、航空機等の完成品、または、これらの完成品を構成する部品が含まれる。
(1. Outline of industrial inspection system)
The industrial inspection system determines the abnormality of the inspection target by setting the equipment used in the industry as the inspection target. For example, devices used in industry include industrial machines such as machine tools, finished products such as automobiles and aircraft, or parts constituting these finished products.

そして、産業用検査システムは、検査対象を撮像した検査画像データの良否判定を行うこともできるし、検査対象の動作に起因したデータを変換した検査画像データの良否判定を行うこともできる。 Then, the industrial inspection system can determine the quality of the inspection image data obtained by imaging the inspection target, or can determine the quality of the inspection image data obtained by converting the data caused by the operation of the inspection target.

つまり、前者の例として、外観検査を行う検査対象において、外観異常の判定を行うことができる。例えば、製品表面のキズの有無を判定したり、製品の形状誤差の程度を判定したり、製品の取付位置誤差を判定したりできる。 That is, as an example of the former, it is possible to determine the appearance abnormality in the inspection target for which the appearance inspection is performed. For example, it is possible to determine the presence or absence of scratches on the surface of the product, determine the degree of shape error of the product, and determine the mounting position error of the product.

後者の例として、検査対象の動作に起因した音データまたは振動データを検査画像データに変換することにより、異常音または異常振動が発生したか否かを判定することができる。例えば、工作機械の加工異常に起因する加工音異常の発生を判定したり、加工異常に起因する振動の発生を判定したりできる。また、自動車の構成部品において、動作異常音の発生を判定したり、動作異常に起因する振動の発生を判定したりできる。 As an example of the latter, it is possible to determine whether or not abnormal sound or abnormal vibration has occurred by converting sound data or vibration data caused by the operation of the inspection target into inspection image data. For example, it is possible to determine the occurrence of a machining noise abnormality due to a machining abnormality of a machine tool, or determine the occurrence of vibration due to a machining abnormality. In addition, it is possible to determine the occurrence of an abnormal operation sound or the occurrence of vibration due to an abnormal operation in a component of an automobile.

また、産業用検査システムは、機械学習の学習モデルとして変分オートエンコーダ(VAE)を用いている。ここで、変分オートエンコーダは、所定の確率分布を持つことを制約としている。このことを前提として、産業用検査システムは、変分オートエンコーダのデコーダの出力が再構成データの分布のパラメータとしての期待値および分散である構成を採用している。そして、判定値としての全画素評価値は、検査対象の検査画像データと、デコーダの出力である期待値および分散とを用いて演算されている。 In addition, the industrial inspection system uses a variational auto-encoder (VAE) as a learning model for machine learning. Here, the variational autoencoder is restricted to having a predetermined probability distribution. On the premise of this, the industrial inspection system adopts a configuration in which the output of the decoder of the variational autoencoder is the expected value and the variance as the parameters of the distribution of the reconstructed data. Then, the evaluation value of all pixels as a determination value is calculated using the inspection image data to be inspected and the expected value and the variance which are the outputs of the decoder.

(2.学習モデル)
本例に適用する学習モデルについて説明する。上述したように、本例において、機械学習の学習モデルは、変分オートエンコーダである。
(2. Learning model)
The learning model applied to this example will be described. As mentioned above, in this example, the learning model for machine learning is a variational autoencoder.

(2−1.第一例の学習モデルM1)
第一例の学習モデルM1について図1を参照して説明する。学習モデルM1は、所定の確率分布として正規分布を持つ変分オートエンコーダである。学習モデルM1は、エンコーダE1と、デコーダD1とを備える。
(2-1. Learning model M1 of the first example)
The learning model M1 of the first example will be described with reference to FIG. The learning model M1 is a variational autoencoder having a normal distribution as a predetermined probability distribution. The learning model M1 includes an encoder E1 and a decoder D1.

エンコーダE1には、検査画像データxが入力される。また、エンコーダE1に関する分布は、式(1)により表される。つまり、エンコーダE1は、xに条件付けられたzに関する分布で表され、期待値(平均)μφと分散σφ の正規分布と仮定して表している。 The inspection image data x is input to the encoder E1. Further, the distribution regarding the encoder E1 is expressed by the equation (1). That is, the encoder E1 is represented by a distribution with respect to z conditioned on x, and is represented assuming a normal distribution with an expected value (mean) μ φ and a variance σ φ 2.

Figure 2021189039
Figure 2021189039

また、潜在空間zに関する分布は、式(2)により表される。つまり、潜在空間zは、期待値(平均)が0で分散が1となる標準正規分布と仮定して表している。 Further, the distribution regarding the latent space z is expressed by the equation (2). That is, the latent space z is represented on the assumption that the expected value (mean) is 0 and the variance is 1 as a standard normal distribution.

Figure 2021189039
Figure 2021189039

デコーダD1に関する分布は、式(3)により表される。つまり、デコーダD1は、zに条件付けられたxに関する分布で表され、期待値(平均)μθと分散σθ の正規分布と仮定して表している。本例においては、デコーダD1は、再構成データの分布のパラメータとして期待値(平均)μθおよび分散σθ を出力する。 The distribution with respect to the decoder D1 is expressed by the equation (3). That is, the decoder D1 is represented by a distribution with respect to x conditioned on z, assuming a normal distribution of expected value (mean) μ θ and variance σ θ 2. In this example, the decoder D1 outputs the expected value (mean) μ θ and the variance σ θ 2 as parameters for the distribution of the reconstructed data.

Figure 2021189039
Figure 2021189039

そして、学習モデルM1において、良品の検査画像データを訓練データとし、式(4)で示す正規分布の確率密度関数f1を最大値とするように機械学習が行われる。 Then, in the training model M1, machine learning is performed so that the inspection image data of a non-defective product is used as training data and the probability density function f1 of the normal distribution represented by the equation (4) is set as the maximum value.

Figure 2021189039
Figure 2021189039

機械学習の結果、期待値(平均)μθがxに近い値となる場合は、分散σθ が小さくなるように学習していると言える。また、期待値(平均)μθがxから遠い値となる場合には、分散σθ が大きくなるように学習していると言える。ここで、期待値(平均)μθがxに近い値となる場合は、再構成データの再現性が高いことを表している。一方、期待値(平均)μθがxから遠い値となる場合は、再構成データの再現性が低いことを表している。つまり、機械学習の結果において、分散σθ は、再構成データの再現性能の逆数を学習していると言える。 As a result of machine learning, when the expected value (mean) μ θ is close to x, it can be said that learning is performed so that the variance σ θ 2 becomes small. Further, when the expected value (average) μ θ is far from x, it can be said that the learning is performed so that the variance σ θ 2 becomes large. Here, when the expected value (average) μ θ is close to x, it means that the reproducibility of the reconstructed data is high. On the other hand, when the expected value (average) μ θ is far from x, it means that the reproducibility of the reconstructed data is low. That is, in the result of machine learning, it can be said that the variance σ θ 2 is learning the reciprocal of the reproduction performance of the reconstructed data.

(2−2.第二例の学習モデルM2)
第二例の学習モデルM2について図2を参照して説明する。学習モデルM2は、所定の確率分布としてラプラス分布を持つ変分オートエンコーダである。学習モデルM2は、エンコーダE2と、デコーダD2とを備える。
(2-2. Learning model M2 of the second example)
The learning model M2 of the second example will be described with reference to FIG. The learning model M2 is a variational autoencoder having a Laplace distribution as a predetermined probability distribution. The learning model M2 includes an encoder E2 and a decoder D2.

エンコーダE2には、検査画像データxが入力される。エンコーダE2は、xに条件付けられたzに関する分布で表され、期待値(平均)μφと分散2bφ のラプラス分布と仮定して表している。また、潜在空間zは、期待値(平均)が0で分散が1となる分布と仮定して表している。 The inspection image data x is input to the encoder E2. The encoder E2 is represented by a distribution with respect to z conditioned on x, assuming a Laplace distribution with an expected value (mean) μ φ and a variance 2b φ 2. Further, the latent space z is represented on the assumption that the expected value (mean) is 0 and the variance is 1.

デコーダD2は、zに条件付けられたxに関する分布で表され、期待値(平均)μθと分散2bθ のラプラス分布と仮定して表している。本例においては、デコーダD2は、再構成データの分布のパラメータとして期待値(平均)μθおよび分散2bθ を出力する。 The decoder D2 is represented by a distribution with respect to x conditioned on z, assuming a Laplace distribution with an expected value (mean) μ θ and a variance 2b θ 2. In this example, the decoder D2 outputs the expected value (average) μ θ and the variance 2b θ 2 as parameters for the distribution of the reconstructed data.

そして、学習モデルM1において、良品の検査画像データを訓練データとし、式(5)で示すラプラス分布の確率密度関数f2を最大値とするように機械学習が行われる。ここで、bθは、正値とする。 Then, in the learning model M1, machine learning is performed so that the inspection image data of a non-defective product is used as training data and the probability density function f2 of the Laplace distribution represented by the equation (5) is set as the maximum value. Here, b θ is a positive value.

Figure 2021189039
Figure 2021189039

機械学習の結果、期待値(平均)μθがxに近い値となる場合は、分散2bθ が小さくなるように学習していると言える。また、期待値(平均)μθがxから遠い値となる場合には、分散2bθ が大きくなるように学習していると言える。ここで、期待値(平均)μθがxに近い値となる場合は、再構成データの再現性が高いことを表している。一方、期待値(平均)μθがxから遠い値となる場合は、再構成データの再現性が低いことを表している。つまり、機械学習の結果において、分散2bθ は、再構成データの再現性能の逆数を学習していると言える。 As a result of machine learning, when the expected value (mean) μ θ is close to x, it can be said that learning is performed so that the variance 2b θ 2 becomes small. Further, when the expected value (average) μ θ is far from x, it can be said that the learning is performed so that the variance 2b θ 2 becomes large. Here, when the expected value (average) μ θ is close to x, it means that the reproducibility of the reconstructed data is high. On the other hand, when the expected value (average) μ θ is far from x, it means that the reproducibility of the reconstructed data is low. That is, in the result of machine learning, it can be said that the variance 2b θ 2 is learning the reciprocal of the reproduction performance of the reconstructed data.

(3.産業用検査システムの構成)
(3−1.ハードウェア構成)
産業用検査システムは、例えば、プロセッサ、記憶装置、インターフェイス等を備える演算処理装置と、演算処理装置のインターフェイスに接続可能な入力機器と、演算処理装置のインターフェイスに接続可能な出力機器とを備える。出力機器は、例えば、表示装置を含むようにしてもよい。また、演算処理装置、入力機器、および、出力機器が、インターフェイスを介さずに、1つのユニットを構成するようにしてもよい。また、演算処理装置の一部および記憶装置の一部は、物理サーバやクラウドサーバを適用することもできる。
(3. Configuration of industrial inspection system)
(3-1. Hardware configuration)
The industrial inspection system includes, for example, an arithmetic processing unit including a processor, a storage device, an interface, and the like, an input device that can be connected to the interface of the arithmetic processing unit, and an output device that can be connected to the interface of the arithmetic processing unit. The output device may include, for example, a display device. Further, the arithmetic processing unit, the input device, and the output device may form one unit without going through the interface. Further, a physical server or a cloud server can be applied to a part of the arithmetic processing unit and a part of the storage device.

(3−2.機能的構成)
(3−2−1.機能的構成の概要)
産業用検査システムの機能的な構成について説明する。産業用検査システムは、機械学習を適用しており、機械学習における学習フェーズの処理および検査フェーズの処理を実行するようにしても良いし、学習フェーズの処理のみを実行するようにしても良いし、検査フェーズの処理のみを実行するようにしても良い。
(3-2. Functional configuration)
(3-2-1. Outline of functional configuration)
The functional configuration of the industrial inspection system will be described. The industrial inspection system applies machine learning and may execute the processing of the learning phase and the processing of the inspection phase in machine learning, or may execute only the processing of the learning phase. , Only the processing of the inspection phase may be executed.

本例においては、産業用検査システムは、学習フェーズの処理および検査フェーズの処理を実行する場合を例にあげる。なお、本例では、産業用検査システムは、1つの演算処理装置において、学習フェーズの処理および検査フェーズの処理を実行するものとするが、学習フェーズの処理と検査フェーズの処理をそれぞれ別々の演算処理装置により実行するようにしても良い。 In this example, the industrial inspection system takes the case of executing the processing of the learning phase and the processing of the inspection phase as an example. In this example, the industrial inspection system executes the learning phase processing and the inspection phase processing in one arithmetic processing unit, but the learning phase processing and the inspection phase processing are separately executed. It may be executed by a processing device.

(3−2−2.第一例の産業用検査システム1の機能的構成)
第一例の産業用検査システム1の機能的構成について図3を参照して説明する。図3に示すように、産業用検査システム1は、検出装置10、学習フェーズの処理を実行する学習処理装置20、および、検査フェーズの処理を実行する検査処理装置30を備える。第一例の産業用検査システム1は、第一例の学習モデルM1、すなわち正規分布の変分オートエンコーダを適用する。
(3-2-2. Functional configuration of the industrial inspection system 1 of the first example)
The functional configuration of the industrial inspection system 1 of the first example will be described with reference to FIG. As shown in FIG. 3, the industrial inspection system 1 includes a detection device 10, a learning processing device 20 that executes processing in the learning phase, and an inspection processing device 30 that executes processing in the inspection phase. The industrial inspection system 1 of the first example applies the learning model M1 of the first example, that is, a variational autoencoder with a normal distribution.

検出装置10は、検査対象に関する検査データを取得する装置である。検出装置10は、例えば、検査対象を撮像する撮像装置、検査対象の動作に起因した音データを取得するマイクロフォン、検査対象の動作に起因した振動データを取得する振動センサ等である。 The detection device 10 is a device for acquiring inspection data regarding an inspection target. The detection device 10 is, for example, an image pickup device that images an inspection target, a microphone that acquires sound data due to the operation of the inspection target, a vibration sensor that acquires vibration data due to the operation of the inspection target, and the like.

学習処理装置20は、検査画像データ取得部21、訓練データ記憶部22、学習済みモデル生成部23を備える。検査画像データ取得部21は、良品の検査画像データを取得する。ここで、検査画像データ取得部21は、検出装置10から検出データを取得する。検出装置10が撮像装置である場合には、検査画像データ取得部21は、撮像装置が撮像した良品の検査画像データを取得する。 The learning processing device 20 includes an inspection image data acquisition unit 21, a training data storage unit 22, and a trained model generation unit 23. The inspection image data acquisition unit 21 acquires inspection image data of a non-defective product. Here, the inspection image data acquisition unit 21 acquires the detection data from the detection device 10. When the detection device 10 is an image pickup device, the inspection image data acquisition unit 21 acquires inspection image data of a non-defective product imaged by the image pickup device.

検出装置10がマイクロフォンまたは振動センサである場合には、検査画像データ取得部21は、検出装置10により取得した良品のデータを取得し、当該良品のデータを検査画像データに変換することにより良品の検査画像データを取得(生成)する。なお、検査画像データ取得部21が、データ変換を行うのではなく、別の装置がデータ変換を行うようにしても良い。訓練データ記憶部22は、検査画像データ取得部21によって取得された多数の良品の検査画像データを訓練データとして記憶する。 When the detection device 10 is a microphone or a vibration sensor, the inspection image data acquisition unit 21 acquires the non-defective product data acquired by the detection device 10 and converts the non-defective product data into inspection image data to obtain the non-defective product. Acquire (generate) inspection image data. The inspection image data acquisition unit 21 may not perform the data conversion, but another device may perform the data conversion. The training data storage unit 22 stores a large number of non-defective inspection image data acquired by the inspection image data acquisition unit 21 as training data.

学習済みモデル生成部23は、図1に示す第一例の学習モデルM1を適用する。学習済みモデル生成部23は、訓練データ記憶部22に記憶されている良品の検査画像データを訓練データとして、学習モデルM1に関する機械学習を行う。具体的には、学習済みモデル生成部23は、学習モデルM1において、上述した式(4)で示す正規分布の確率密度関数f1を最大値とするように機械学習を行う。そして、学習済みモデルは、検査画像データを入力した場合に、再構成データの分布のパラメータとして、期待値(平均)μθ、および、分散σθ を出力するモデルとなる。 The trained model generation unit 23 applies the learning model M1 of the first example shown in FIG. The trained model generation unit 23 performs machine learning on the training model M1 using the inspection image data of good products stored in the training data storage unit 22 as training data. Specifically, the trained model generation unit 23 performs machine learning in the learning model M1 so that the probability density function f1 of the normal distribution represented by the above-mentioned equation (4) is set as the maximum value. Then, the trained model is a model that outputs the expected value (average) μ θ and the variance σ θ 2 as the parameters of the distribution of the reconstructed data when the inspection image data is input.

検査処理装置30は、学習済みモデル記憶部31、検査画像データ取得部32、出力値取得部33、差分値演算部34、個別画素評価値演算部35、全画素評価値演算部36、判定部37を備える。 The inspection processing device 30 includes a trained model storage unit 31, an inspection image data acquisition unit 32, an output value acquisition unit 33, a difference value calculation unit 34, an individual pixel evaluation value calculation unit 35, an all-pixel evaluation value calculation unit 36, and a determination unit. 37 is provided.

学習済みモデル記憶部31は、学習処理装置20の学習済みモデル生成部23により生成された学習済みモデルを記憶する。検査画像データ取得部32は、実際の検査対象の検査画像データを取得する。検査画像データ取得部32は、上述した学習処理装置20における検査画像データ取得部21と同様の処理を行う。検査画像データ取得部32は、図1に示すように、複数の画素におけるデータxを有している。 The trained model storage unit 31 stores the trained model generated by the trained model generation unit 23 of the learning processing device 20. The inspection image data acquisition unit 32 acquires the inspection image data of the actual inspection target. The inspection image data acquisition unit 32 performs the same processing as the inspection image data acquisition unit 21 in the learning processing device 20 described above. As shown in FIG. 1, the inspection image data acquisition unit 32 has data x in a plurality of pixels.

なお、検査画像データ取得部32は、学習処理装置20と検査処理装置30の機能を説明するために、学習処理装置20の検査画像データ取得部21と別構成として説明したが、両者は共通化しても良い。 The inspection image data acquisition unit 32 has been described as a separate configuration from the inspection image data acquisition unit 21 of the learning processing device 20 in order to explain the functions of the learning processing device 20 and the inspection processing device 30, but both are standardized. May be.

出力値取得部33は、学習済みモデル記憶部31に記憶されている学習済みモデルを用いて、検査画像データ取得部32が取得した検査対象の検査画像データを入力した場合に、学習済みモデルの出力値を取得する。つまり、出力値取得部33は、学習済みモデルにおける再構成データの分布のパラメータとして、期待値(平均)μθ、および、分散σθ を取得する。ここで、図1に示すように、出力値取得部33は、検査画像データの各画素に対応する画素毎に、期待値(平均)μθ、および、分散σθ を有する。 The output value acquisition unit 33 uses the trained model stored in the trained model storage unit 31 to input the inspection image data of the inspection target acquired by the inspection image data acquisition unit 32, and the trained model Get the output value. That is, the output value acquisition unit 33 acquires the expected value (average) μ θ and the variance σ θ 2 as the parameters of the distribution of the reconstructed data in the trained model. Here, as shown in FIG. 1, the output value acquisition unit 33 has an expected value (average) μ θ and a variance σ θ 2 for each pixel corresponding to each pixel of the inspection image data.

差分値演算部34は、検査画像データ取得部32から全画素分の検査対象の検査画像データxを取得し、出力値取得部33から全画素分の期待値(平均)μθを取得する。差分値演算部34は、画素毎に、検査対象の検査画像データxと、出力値取得部33により取得された期待値(平均)μθとの差分(x−μθ)を演算する。 The difference value calculation unit 34 acquires the inspection image data x for all pixels from the inspection image data acquisition unit 32, and acquires the expected value (average) μ θ for all pixels from the output value acquisition unit 33. Difference value calculation unit 34, for each pixel, calculating the inspection image data x to be inspected, the expected value obtained by the output value acquiring unit 33 (average) difference between μ θ (x-μ θ) .

個別画素評価値演算部35は、画素毎に、差分値演算部34により出力された差分(x−μθ)の相関値に、分散σθ の相関値により表される重み付け係数を乗算することにより、個別画素評価値g1を演算する。本例では、個別画素評価値演算部35は、式(6)に従って、個別画素評価値g1を演算する。 The individual pixel evaluation value calculation unit 35 multiplies the correlation value of the difference (x−μ θ ) output by the difference value calculation unit 34 for each pixel by the weighting coefficient represented by the correlation value of the dispersion σ θ 2. Thereby, the individual pixel evaluation value g1 is calculated. In this example, the individual pixel evaluation value calculation unit 35 calculates the individual pixel evaluation value g1 according to the equation (6).

Figure 2021189039
Figure 2021189039

つまり、個別画素評価値演算部35は、画素毎に、差分の相関値としての差分2乗値(x−μθに、分散σθ の逆数である重み付け係数(1/σθ )を乗算することにより、個別画素評価値g1を演算する。式(6)より、個別画素評価値g1は、各画素における再現性能の違いに応じて、差分2乗値に重みを付けた値となっている。 That is, the individual pixel evaluation value calculation unit 35 has the difference squared value (x−μ θ ) 2 as the correlation value of the difference and the weighting coefficient (1 / σ θ 2 ) which is the reciprocal of the variance σ θ 2 for each pixel. ) Is multiplied to calculate the individual pixel evaluation value g1. From the equation (6), the individual pixel evaluation value g1 is a value obtained by weighting the difference squared value according to the difference in the reproduction performance in each pixel.

ここで、学習モデルM1において、式(4)に示す確率密度関数が最大値となるように機械学習されているため、再現性能が高い場合、すなわち、μθがxに近い値となる場合には、分散σθ が小さくなるように学習されている。つまり、再現性能が高い場合には、重み付け係数(1/σθ )が大きな値となる。従って、再現性能が高い場合には、個別画素評価値g1は、x,μθの値の影響を大きく受けた値となる。例えば、検査画像データにノイズが含まれていない場合には、再現性能が高くなる。つまり、ノイズが含まれていない場合、当該画素における個別画素評価値g1は、x,μθの値の影響を大きく受けた値となる。 Here, in the learning model M1, since the machine learning is performed so that the probability density function shown in the equation (4) becomes the maximum value, when the reproduction performance is high, that is, when μ θ becomes a value close to x. Is learned so that the variance σ θ 2 becomes small. That is, when the reproduction performance is high, the weighting coefficient (1 / σ θ 2 ) becomes a large value. Therefore, when the reproduction performance is high, the individual pixel evaluation value g1 is a value that is greatly affected by the values of x and μ θ. For example, when the inspection image data does not contain noise, the reproduction performance is high. That is, when noise is not included, the individual pixel evaluation value g1 in the pixel is a value greatly influenced by the values of x and μ θ.

一方、再現性能が低い場合、すなわち、μθがxから遠い値となる場合には、分散σθ が大きくなるように学習されている。つまり、再現性能が低い場合には、重み付け係数(1/σθ )が小さな値となる。従って、再現性能が低い場合、個別画素評価値g1は、x,μθの値の影響を小さくした値となる。例えば、検査画像データにノイズが含まれている場合には、再現性能が低くなる。つまり、ノイズが含まれている場合、当該画素における個別画素評価値g1は、x,μθの値の影響を小さくした値となる。 On the other hand, when the reproduction performance is low, that is, when μ θ is a value far from x, the variance σ θ 2 is learned to be large. That is, when the reproduction performance is low, the weighting coefficient (1 / σ θ 2 ) becomes a small value. Therefore, when the reproduction performance is low, the individual pixel evaluation value g1 is a value in which the influence of the values of x and μ θ is reduced. For example, if the inspection image data contains noise, the reproduction performance will be low. That is, when noise is included, the individual pixel evaluation value g1 in the pixel is a value in which the influence of the values of x and μ θ is reduced.

全画素評価値演算部36は、画素毎の個別画素評価値g1に基づいて全画素評価値を演算する。例えば、全画素評価値演算部36は、各画素における個別画素評価値g1を合計した値を全画素評価値として演算する。 The all-pixel evaluation value calculation unit 36 calculates the all-pixel evaluation value based on the individual pixel evaluation value g1 for each pixel. For example, the all-pixel evaluation value calculation unit 36 calculates the total value of the individual pixel evaluation values g1 in each pixel as the all-pixel evaluation value.

判定部37は、全画素評価値に基づいて、検査対象の良否を判定する。判定部37は、例えば、全画素評価値が予め設定された閾値より大きい場合には、検査対象が異常であると判定し、閾値より小さい場合には、検査対象が正常であると判定する。判定部37は、2段階の良否判定に限られず、3段階以上の良否の程度の判定を行っても良い。 The determination unit 37 determines the quality of the inspection target based on the evaluation values of all pixels. For example, when the evaluation value of all pixels is larger than a preset threshold value, the determination unit 37 determines that the inspection target is abnormal, and when it is smaller than the threshold value, the determination unit 37 determines that the inspection target is normal. The determination unit 37 is not limited to the two-stage pass / fail determination, and may determine the degree of pass / fail in three or more stages.

(3−2−3.第二例の産業用検査システム2の機能的構成)
第二例の産業用検査システム2の機能的構成について図4を参照して説明する。図4に示すように、産業用検査システム2は、検出装置10、学習フェーズの処理を実行する学習処理装置40、および、検査フェーズの処理を実行する検査処理装置50を備える。第二例の産業用検査システム2は、第二例の学習モデルM2、すなわちラプラス分布の変分オートエンコーダを適用する。また、第二例の産業用検査システム2において、第一例の産業用検査システム1と実質的に同様の構成については同一符号を付して説明を省略する。
(3-2-3. Functional configuration of the industrial inspection system 2 of the second example)
The functional configuration of the industrial inspection system 2 of the second example will be described with reference to FIG. As shown in FIG. 4, the industrial inspection system 2 includes a detection device 10, a learning processing device 40 that executes processing in the learning phase, and an inspection processing device 50 that executes processing in the inspection phase. The industrial inspection system 2 of the second example applies the learning model M2 of the second example, that is, a variational autoencoder of the Laplace distribution. Further, in the industrial inspection system 2 of the second example, the same reference numerals are given to the configurations substantially the same as those of the industrial inspection system 1 of the first example, and the description thereof will be omitted.

学習処理装置40は、検査画像データ取得部21、訓練データ記憶部22、学習済みモデル生成部43を備える。学習済みモデル生成部43は、図2に示す第二例の学習モデルM2を適用する。学習済みモデル生成部43は、訓練データ記憶部22に記憶されている良品の検査画像データを訓練データとして、学習モデルM2に関する機械学習を行う。具体的には、学習済みモデル生成部43は、学習モデルM2において、上述した式(5)で示すラプラス分布の確率密度関数f2を最大値とするように機械学習を行う。そして、学習済みモデルは、検査画像データを入力した場合に、再構成データの分布のパラメータとして、期待値(平均)μθ、および、分散2bθ を出力するモデルとなる。 The learning processing device 40 includes an inspection image data acquisition unit 21, a training data storage unit 22, and a trained model generation unit 43. The trained model generation unit 43 applies the training model M2 of the second example shown in FIG. The trained model generation unit 43 performs machine learning on the training model M2 using the inspection image data of good products stored in the training data storage unit 22 as training data. Specifically, the trained model generation unit 43 performs machine learning in the learning model M2 so as to maximize the probability density function f2 of the Laplace distribution represented by the above-mentioned equation (5). Then, the trained model is a model that outputs the expected value (average) μ θ and the variance 2b θ 2 as the parameters of the distribution of the reconstructed data when the inspection image data is input.

検査処理装置50は、学習済みモデル記憶部51、検査画像データ取得部32、出力値取得部53、差分値演算部54、個別画素評価値演算部55、全画素評価値演算部36、判定部37を備える。 The inspection processing device 50 includes a trained model storage unit 51, an inspection image data acquisition unit 32, an output value acquisition unit 53, a difference value calculation unit 54, an individual pixel evaluation value calculation unit 55, an all-pixel evaluation value calculation unit 36, and a determination unit. 37 is provided.

学習済みモデル記憶部51は、学習処理装置40の学習済みモデル生成部43により生成された学習済みモデルを記憶する。 The trained model storage unit 51 stores the trained model generated by the trained model generation unit 43 of the learning processing device 40.

出力値取得部53は、学習済みモデル記憶部51に記憶されている学習済みモデルを用いて、検査画像データ取得部32が取得した検査対象の検査画像データを入力した場合に、学習済みモデルの出力値を取得する。つまり、出力値取得部53は、学習済みモデルにおける再構成データの分布のパラメータとして、期待値(平均)μθ、および、分散2bθ を取得する。ここで、図2に示すように、出力値取得部53は、検査画像データの各画素に対応する画素毎に、期待値(平均)μθ、および、分散2bθ を有する。 The output value acquisition unit 53 uses the trained model stored in the trained model storage unit 51 to input the inspection image data of the inspection target acquired by the inspection image data acquisition unit 32, and the trained model Get the output value. That is, the output value acquisition unit 53 acquires the expected value (average) μ θ and the variance 2b θ 2 as the parameters of the distribution of the reconstructed data in the trained model. Here, as shown in FIG. 2, the output value acquisition unit 53 has an expected value (average) μ θ and a variance 2b θ 2 for each pixel corresponding to each pixel of the inspection image data.

差分値演算部54は、検査画像データ取得部32から全画素分の検査対象の検査画像データxを取得し、出力値取得部53から全画素分の期待値(平均)μθを取得する。差分値演算部54は、画素毎に、検査対象の検査画像データxと、出力値取得部53により取得された期待値(平均)μθとの差分(x−μθ)を演算する。 The difference value calculation unit 54 acquires the inspection image data x for all pixels from the inspection image data acquisition unit 32, and acquires the expected value (average) μ θ for all pixels from the output value acquisition unit 53. Difference value calculation unit 54 calculates for each pixel, and inspection image data x to be inspected, the expected value obtained by the output value acquiring unit 53 (average) difference between μ θ (x-μ θ) .

個別画素評価値演算部55は、画素毎に、差分値演算部54により出力された差分(x−μθ)の相関値に、分散2bθ の相関値により表される重み付け係数を乗算することにより、個別画素評価値g2を演算する。本例では、個別画素評価値演算部55は、式(7)に従って、個別画素評価値g2を演算する。 Individual pixel evaluation value calculating unit 55, for each pixel, the correlation value of the output difference by the difference value calculation unit 54 (x-μ θ), is multiplied by a weighting coefficient expressed by the correlation value of the dispersion 2b theta 2 As a result, the individual pixel evaluation value g2 is calculated. In this example, the individual pixel evaluation value calculation unit 55 calculates the individual pixel evaluation value g2 according to the equation (7).

Figure 2021189039
Figure 2021189039

つまり、個別画素評価値演算部55は、画素毎に、差分の相関値としての差分絶対値|x−μθ|に、分散の相関値bθの逆数である重み付け係数(1/bθ)を乗算することにより、個別画素評価値g2を演算する。式(7)より、個別画素評価値g2は、各画素における再現性能の違いに応じて、差分絶対値に重みを付けた値となっている。 That is, the individual pixel evaluation value calculation unit 55 has a weighting coefficient (1 / b θ ) which is the reciprocal of the correlation value b θ of the dispersion in the absolute difference value | x−μ θ | as the correlation value of the difference for each pixel. The individual pixel evaluation value g2 is calculated by multiplying by. From the equation (7), the individual pixel evaluation value g2 is a value obtained by weighting the difference absolute value according to the difference in the reproduction performance in each pixel.

ここで、学習モデルM2において、式(5)に示す確率密度関数が最大値となるように機械学習されているため、再現性能が高い場合、すなわち、μθがxに近い値となる場合には、分散2bが小さくなるように学習されている。つまり、再現性能が高い場合には、重み付け係数(1/bθ)が大きな値となる。従って、再現性能が高い場合には、個別画素評価値g2は、x,μθの値の影響を大きく受けた値となる。例えば、検査画像データにノイズが含まれていない場合には、再現性能が高くなる。つまり、ノイズが含まれていない場合、当該画素における個別画素評価値g2は、x,μθの値の影響を大きく受けた値となる。 Here, in the learning model M2, since the machine learning is performed so that the probability density function shown in the equation (5) becomes the maximum value, when the reproduction performance is high, that is, when μ θ becomes a value close to x. Is learned so that the variance 2b 2 becomes smaller. That is, when the reproduction performance is high, the weighting coefficient (1 / b θ ) becomes a large value. Therefore, when the reproduction performance is high, the individual pixel evaluation value g2 is a value that is greatly affected by the values of x and μ θ. For example, when the inspection image data does not contain noise, the reproduction performance is high. That is, when noise is not included, the individual pixel evaluation value g2 in the pixel is a value greatly affected by the values of x and μ θ.

一方、再現性能が低い場合、すなわち、μθがxから遠い値となる場合には、分散2bθ が大きくなるように学習されている。つまり、再現性能が低い場合には、重み付け係数(1/bθ)が小さな値となる。従って、再現性能が低い場合、個別画素評価値g2は、x,μθの値の影響を小さくした値となる。例えば、検査画像データにノイズが含まれている場合には、再現性能が低くなる。つまり、ノイズが含まれている場合、当該画素における個別画素評価値g2は、x,μθの値の影響を小さくした値となる。 On the other hand, when the reproduction performance is low, that is, when μ θ is a value far from x, the variance 2b θ 2 is learned to be large. That is, when the reproduction performance is low, the weighting coefficient (1 / b θ ) becomes a small value. Therefore, when the reproduction performance is low, the individual pixel evaluation value g2 is a value in which the influence of the values of x and μ θ is reduced. For example, if the inspection image data contains noise, the reproduction performance will be low. That is, when noise is included, the individual pixel evaluation value g2 in the pixel is a value in which the influence of the values of x and μ θ is reduced.

全画素評価値演算部36は、画素毎の個別画素評価値g2に基づいて全画素評価値を演算する。例えば、全画素評価値演算部36は、各画素における個別画素評価値g2を合計した値を全画素評価値として演算する。判定部37は、全画素評価値に基づいて、検査対象の良否を判定する。判定部37は、例えば、全画素評価値が予め設定された閾値より大きい場合には、検査対象が異常であると判定し、閾値より小さい場合には、検査対象が正常であると判定する。 The all-pixel evaluation value calculation unit 36 calculates the all-pixel evaluation value based on the individual pixel evaluation value g2 for each pixel. For example, the all-pixel evaluation value calculation unit 36 calculates the total value of the individual pixel evaluation values g2 in each pixel as the all-pixel evaluation value. The determination unit 37 determines the quality of the inspection target based on the evaluation values of all pixels. For example, when the evaluation value of all pixels is larger than a preset threshold value, the determination unit 37 determines that the inspection target is abnormal, and when it is smaller than the threshold value, the determination unit 37 determines that the inspection target is normal.

(3−2−4.効果)
上述した産業用検査システム1,2においては、機械学習の手法として、オートエンコーダではなく、変分オートエンコーダを用いている。変分オートエンコーダは、上述したように、所定の確率分布、例えば、正規分布やラプラス分布を持つことを制約とされている。そのため、変分オートエンコーダを用いることにより、デコーダの出力として、再構成データの分布のパラメータとしての期待値(平均)μθおよび分散σθ ,2bθ を得ることができる。
(3-2-4. Effect)
In the above-mentioned industrial inspection systems 1 and 2, a variational autoencoder is used as a machine learning method instead of an autoencoder. As described above, the variational autoencoder is restricted to having a predetermined probability distribution, for example, a normal distribution or a Laplace distribution. Therefore, by using the variational autoencoder, the expected value (average) μ θ and the variances σ θ 2 and 2b θ 2 as the parameters of the distribution of the reconstructed data can be obtained as the output of the decoder.

そして、産業用検査システム1,2では、判定部37における判定値として、全画素評価値を用いている。全画素評価値は、個別画素評価値g1,g2に基づいて演算されている。個別画素評価値g1,g2は、検査対象の検査画像データ、期待値(平均)μθ、分散σθ ,2bθ を用いて演算されている。具体的には、まず、差分値演算部34,54が検査対象の検査画像データxと期待値(平均)μθとの差分(x−μθ)を演算し、個別画素評価値演算部35,55が、差分の相関値(x−μθ,|x−μθ|に、として分散の相関値により表された重み付け係数(1/σθ ),(1/bθ)を乗算することにより、個別画素評価値g1,g2を演算している。 Then, in the industrial inspection systems 1 and 2, all pixel evaluation values are used as the determination values in the determination unit 37. The all-pixel evaluation value is calculated based on the individual pixel evaluation values g1 and g2. The individual pixel evaluation values g1 and g2 are calculated using the inspection image data to be inspected, the expected value (average) μ θ , and the variance σ θ 2 and 2b θ 2. Specifically, first, the difference value computing unit 34, 54 is the expected value and the test image data x to be inspected (average) calculates the difference (x-mu theta) with mu theta, individual pixel evaluation value calculating unit 35 , 55, the correlation value of the difference (x-μ θ) 2, | x-μ θ | a, as a weighting coefficient represented by the correlation values of dispersion (1 / σ θ 2), a (1 / b θ) By multiplying, the individual pixel evaluation values g1 and g2 are calculated.

ここで、期待値(平均)μθが検査画像データxに近い場合は、再現性能が高い状態、すなわちノイズが含まれていない可能性が高い状態を表している。一方、期待値(平均)μθが検査画像データxから遠い場合は、再現性能が低い状態、すなわちノイズが含まれている可能性がある状態を表している。そして、重み付け係数(1/σθ ),(1/bθ)は、分散σθ ,2bθ の相関値により表されている。ここで、分散σθ ,2bθ は、再現性能に対応する値を持つ。 Here, when the expected value (average) μ θ is close to the inspection image data x, it indicates a state in which the reproduction performance is high, that is, a state in which there is a high possibility that noise is not included. On the other hand, when the expected value (average) μ θ is far from the inspection image data x, it indicates a state in which the reproduction performance is low, that is, a state in which noise may be included. The weighting coefficients (1 / σ θ 2 ) and (1 / b θ ) are represented by the correlation values of the variances σ θ 2 and 2b θ 2. Here, the variances σ θ 2 and 2b θ 2 have values corresponding to the reproduction performance.

そして、個別画素評価値g1,g2が、上述したように、差分の相関値(x−μθ,|x−μθ|に、重み付け係数(1/σθ ),(1/bθ)を乗算することにより得られる。そのため、個別画素評価値g1,g2は、ノイズが含まれていない場合には差分の相関値(x−μθ,|x−μθ|の影響が相対的に大きくなり、ノイズが含まれている可能性がある場合には、差分の相関値(x−μθ,|x−μθ|の影響が相対的に小さくなる。 Then, the individual pixel evaluation values g1, g2 is, as described above, the correlation value of the difference (x-μ θ) 2, | x-μ θ | , the weighting factor (1 / σ θ 2), (1 / b Obtained by multiplying θ). Therefore, the individual pixel evaluation values g1, g2 is, the correlation value of the difference in the case of no noise (x-μ θ) 2, | x-μ θ | of influence is relatively large, include noise in some cases may have been, the correlation value of the difference (x-μ θ) 2, | x-μ θ | effect becomes relatively small.

そして、全画素評価値は、上記のようにして得られた個別画素評価値g1,g2により得られるため、結果として、ノイズの影響が小さな値となる。つまり、検査対象の良否判定においてノイズの影響を受けにくくすることができ、判定性能を向上できる。 Since the all-pixel evaluation value is obtained by the individual pixel evaluation values g1 and g2 obtained as described above, the influence of noise becomes small as a result. That is, it is possible to reduce the influence of noise in the quality determination of the inspection target, and the determination performance can be improved.

(4.産業用検査システムの適用例)
産業用検査システム1,2の検査対象が、例えば、コラムタイプの電動ステアリング装置の構成部品である場合を例にあげて説明する。産業用検査システム1,2は、電動ステアリング装置に対して所定の操作を行い、当該操作が行われることで動作する電動ステアリング装置の構成部品から発生する振動の程度に基づいて、電動ステアリング装置が良品であるか否かを判定する。なお、以下には、コラムタイプの電動ステアリング装置の構成部品を検査対象とする例を説明するが、他のタイプの電動ステアリング装置を検査対象としても良い。
(4. Application example of industrial inspection system)
The case where the inspection target of the industrial inspection systems 1 and 2 is, for example, a component of a column type electric steering device will be described as an example. The industrial inspection systems 1 and 2 perform a predetermined operation on the electric steering device, and the electric steering device operates based on the degree of vibration generated from the components of the electric steering device that operates by the operation. Judge whether it is a good product or not. In the following, an example in which the components of the column type electric steering device are to be inspected will be described, but other types of electric steering devices may be to be inspected.

特に、以下には、検査対象である電動ステアリング装置の構成の説明、検出装置10により検出されるデータの説明、検査画像データ取得部21,32による処理について説明する。 In particular, the description of the configuration of the electric steering device to be inspected, the description of the data detected by the detection device 10, and the processing by the inspection image data acquisition units 21 and 32 will be described below.

(4−1.電動ステアリング装置150の構成)
図5に示すように、検査対象である電動ステアリング装置150は、操舵機構110と、中間シャフト120と、転舵機構130とを主に備える。
(4-1. Configuration of electric steering device 150)
As shown in FIG. 5, the electric steering device 150 to be inspected mainly includes a steering mechanism 110, an intermediate shaft 120, and a steering mechanism 130.

操舵機構110は、操舵部材111と、入力シャフト112と、トーションバー113と、出力シャフト114と、操舵補助機構140とを主に備える。操舵部材111は、運転手により操作されるハンドル(ステアリングホイール)である。入力シャフト112は、操舵部材111とトーションバー113とを連結する軸部材である。入力シャフト112は、操舵部材111の回転(操舵)をトーションバー113に伝達する。トーションバー113は、入力シャフト112と出力シャフト114とを相対回転可能に連結する。トーションバー113は、入力シャフト112と出力シャフト114との相対回転が生じた場合に、ねじれ方向に弾性変形する。出力シャフト114は、操舵部材111から入力シャフト112およびトーションバー113を介して入力された回転を転舵機構130に出力する軸部材である。操舵補助機構140は、出力シャフト114の回転補助(操舵部材111の操舵補助)を行う。なお、操舵補助機構140の詳細については、後述する。 The steering mechanism 110 mainly includes a steering member 111, an input shaft 112, a torsion bar 113, an output shaft 114, and a steering assist mechanism 140. The steering member 111 is a steering wheel operated by the driver. The input shaft 112 is a shaft member that connects the steering member 111 and the torsion bar 113. The input shaft 112 transmits the rotation (steering) of the steering member 111 to the torsion bar 113. The torsion bar 113 connects the input shaft 112 and the output shaft 114 so as to be relatively rotatable. The torsion bar 113 elastically deforms in the twisting direction when the relative rotation between the input shaft 112 and the output shaft 114 occurs. The output shaft 114 is a shaft member that outputs the rotation input from the steering member 111 via the input shaft 112 and the torsion bar 113 to the steering mechanism 130. The steering assist mechanism 140 assists the rotation of the output shaft 114 (steering assist of the steering member 111). The details of the steering assist mechanism 140 will be described later.

中間シャフト120は、操舵機構110と転舵機構130との間で回転の伝達を行う。中間シャフト120の軸方向一端側は、自在継手121を介して操舵機構110の出力シャフト114に連結され、中間シャフト120の軸方向他端側は、自在継手122を介して転舵機構130のピニオンシャフト131に連結される。 The intermediate shaft 120 transmits rotation between the steering mechanism 110 and the steering mechanism 130. One end side of the intermediate shaft 120 in the axial direction is connected to the output shaft 114 of the steering mechanism 110 via a universal joint 121, and the other end side of the intermediate shaft 120 in the axial direction is a pinion of the steering mechanism 130 via the universal joint 122. It is connected to the shaft 131.

転舵機構130は、ピニオンシャフト131と、転舵シャフト132と、転舵輪133とを備える。ピニオンシャフト131の軸方向一端側は、自在継手122を介して出力シャフト114に連結され、ピニオンシャフト131の軸方向他端側には、ピニオン131aが形成される。転舵シャフト132には、ピニオン131aと噛合するラック132aが形成され、転舵シャフト132の軸方向両端には、一対のタイロッド134および一対のナックルアーム135を介して転舵輪133が連結される。転舵機構130は、転舵シャフト132を軸方向(車幅方向)へ移動させることにより、転舵輪133の転舵角を変化させる。 The steering mechanism 130 includes a pinion shaft 131, a steering shaft 132, and a steering wheel 133. One end side of the pinion shaft 131 in the axial direction is connected to the output shaft 114 via a universal joint 122, and the pinion 131a is formed on the other end side of the pinion shaft 131 in the axial direction. A rack 132a that meshes with the pinion 131a is formed on the steering shaft 132, and steering wheels 133 are connected to both ends of the steering shaft 132 in the axial direction via a pair of tie rods 134 and a pair of knuckle arms 135. The steering mechanism 130 changes the steering angle of the steering wheel 133 by moving the steering shaft 132 in the axial direction (vehicle width direction).

ここで、操舵補助機構140の構成を説明する。操舵補助機構140は、減速機141と、電動モータ142と、トルクセンサ143と、車速センサ144と、回転角センサ145と、制御ユニット146とを備える。 Here, the configuration of the steering assist mechanism 140 will be described. The steering assist mechanism 140 includes a speed reducer 141, an electric motor 142, a torque sensor 143, a vehicle speed sensor 144, a rotation angle sensor 145, and a control unit 146.

減速機141は、ウォームギヤ(図示せず)と、ウォームギヤに噛合するウォームホイール(図示せず)とを備えたウォーム減速機である。ウォームギヤは、電動モータ142のモータ軸に一体回転可能に連結され、ウォームホイールは、出力シャフト114に一定回転可能に連結される。電動モータ142は、減速機141のウォームギヤを回転駆動する。電動モータ142のモータ軸の回転は、減速機141、出力シャフト114および中間シャフト120を介して転舵機構130に伝達され、転舵機構130において転舵シャフト132を軸方向へ移動させる力に変換される。 The reducer 141 is a worm reducer including a worm gear (not shown) and a worm wheel (not shown) that meshes with the worm gear. The worm gear is integrally rotatably connected to the motor shaft of the electric motor 142, and the worm wheel is rotatably connected to the output shaft 114. The electric motor 142 rotates and drives the worm gear of the speed reducer 141. The rotation of the motor shaft of the electric motor 142 is transmitted to the steering mechanism 130 via the reduction gear 141, the output shaft 114, and the intermediate shaft 120, and is converted into a force that moves the steering shaft 132 in the axial direction in the steering mechanism 130. Will be done.

トルクセンサ143は、トーションバー113のねじれ量に基づき、操舵部材111に付与された操舵トルクを検出する。車速センサ144は、電動ステアリング装置150を搭載した車両(図示せず)の車速を検出する。回転角センサ145は、電動モータ142のモータ軸の回転角を検出する。制御ユニット146は、トルクセンサ143、車速センサ144および回転角センサ145からの出力信号に基づき、電動モータ142が減速機141に付与する操舵補助トルクの目標値を設定すると共に、実際の操舵補助トルクが目標値となるように電動モータ142に供給される電流を制御する。 The torque sensor 143 detects the steering torque applied to the steering member 111 based on the amount of twist of the torsion bar 113. The vehicle speed sensor 144 detects the vehicle speed of a vehicle (not shown) equipped with the electric steering device 150. The rotation angle sensor 145 detects the rotation angle of the motor shaft of the electric motor 142. The control unit 146 sets a target value of the steering auxiliary torque given to the speed reducer 141 by the electric motor 142 based on the output signals from the torque sensor 143, the vehicle speed sensor 144, and the rotation angle sensor 145, and sets the actual steering auxiliary torque. Is controlled so that the current supplied to the electric motor 142 becomes the target value.

(4−2.検出装置10の例)
図3および図4における検出装置10の例について、図5を参照して説明する。検査対象は、電動ステアリング装置150の構成部品である電動モータ142および減速機141とする。検出装置10は、2つの振動センサ151,152と、1つのマイクロフォン153とを備える。
(4-2. Example of detection device 10)
An example of the detection device 10 in FIGS. 3 and 4 will be described with reference to FIG. The inspection targets are the electric motor 142 and the speed reducer 141, which are components of the electric steering device 150. The detection device 10 includes two vibration sensors 151 and 152 and one microphone 153.

振動センサ151,152は、電動モータ142の振動を検出可能な3軸加速度センサであり、2つの振動センサ151,152は、互いに離れた位置で電動モータ142に取り付けられる。振動センサ151は、操舵部材111を一定の回転速度で回転させた際に動作する電動モータ142の3方向の加速度(振動)を検出する。そして、振動センサ151,152は、それぞれ3パターンの加速度(振動)に関する時系列の波形データを出力する。 The vibration sensors 151 and 152 are 3-axis accelerometers capable of detecting the vibration of the electric motor 142, and the two vibration sensors 151 and 152 are attached to the electric motor 142 at positions separated from each other. The vibration sensor 151 detects acceleration (vibration) in three directions of the electric motor 142 that operates when the steering member 111 is rotated at a constant rotational speed. Then, the vibration sensors 151 and 152 each output time-series waveform data relating to three patterns of acceleration (vibration).

マイクロフォン153は、減速機141から発生する音を検出する。マイクロフォン153は、減速機141の近傍であって、減速機141から発生する音を検出可能な位置に配置される。マイクロフォン153は、操舵部材111を一定の回転速度で回転させた際に動作する減速機141の振動に起因する音を検出する。そして、マイクロフォン153は、1パターンの音に関する時系列の波形データを出力する。 The microphone 153 detects the sound generated from the speed reducer 141. The microphone 153 is arranged in the vicinity of the speed reducer 141 at a position where the sound generated from the speed reducer 141 can be detected. The microphone 153 detects a sound caused by the vibration of the speed reducer 141 that operates when the steering member 111 is rotated at a constant rotation speed. Then, the microphone 153 outputs time-series waveform data relating to one pattern of sound.

つまり、本例においては、検出装置10としての3つのセンサ151,152,153によって、合計7パターンの出力信号としての時系列の波形データが出力される。 That is, in this example, the three sensors 151, 152, and 153 as the detection device 10 output time-series waveform data as output signals of a total of 7 patterns.

(4−3.検査画像データ取得部21,32の構成)
検査画像データ取得部21,32の構成について、図6−図12を参照して説明する。図6に示すように、検査画像データ取得部21,32は、第一次データ記憶部21aと、第二次データ生成部21bと、第三次データ生成部21cとを備える。
(4-3. Configuration of inspection image data acquisition units 21 and 32)
The configurations of the inspection image data acquisition units 21 and 32 will be described with reference to FIGS. 6-12. As shown in FIG. 6, the inspection image data acquisition units 21 and 32 include a primary data storage unit 21a, a secondary data generation unit 21b, and a tertiary data generation unit 21c.

第一次データ記憶部21aは、振動センサ151,152およびマイクロフォン153からの出力信号を取得すると共に、各々の出力信号の波形データを時系列の第一次データDT1として記憶する。 The primary data storage unit 21a acquires the output signals from the vibration sensors 151 and 152 and the microphone 153, and stores the waveform data of each output signal as the time-series primary data DT1.

第一次データDT1は、振動センサ151,152およびマイクロフォン153の出力信号である。図7には、第一次データDT1の一例として、振動センサ151からの1つの検出信号の波形データが示されている。図7に示す第一次データDT1において、横軸は、時間T1を示し、縦軸は、振幅成分である加速度Gを示す。振動センサ151は、3軸の各々の方向への振動を検出可能であり、第一次データ記憶部21aは、振動センサ151から各方向への振動の程度を示す3パターンの第一次データDT1を取得し、記憶する。 The primary data DT1 is an output signal of the vibration sensors 151 and 152 and the microphone 153. FIG. 7 shows waveform data of one detection signal from the vibration sensor 151 as an example of the primary data DT1. In the primary data DT1 shown in FIG. 7, the horizontal axis represents time T1 and the vertical axis represents acceleration G, which is an amplitude component. The vibration sensor 151 can detect vibration in each direction of the three axes, and the primary data storage unit 21a has three patterns of primary data DT1 indicating the degree of vibration from the vibration sensor 151 in each direction. And memorize.

第二次データ生成部21bは、第一次データDT1を短時間フーリエ変換することにより、第一周波数成分FL1と時間成分T2と振幅成分Gとを含むスペクトログラムデータである第二次データDT2を生成する。つまり、第二次データDT2は、第一次データDT1を、第一周波数成分FL1と時間成分T2と振幅成分Gとを含む3次元データへ変換したものである。 The secondary data generation unit 21b generates the secondary data DT2, which is spectrogram data including the first frequency component FL1, the time component T2, and the amplitude component G, by performing a short-time Fourier transform on the primary data DT1. do. That is, the secondary data DT2 is obtained by converting the primary data DT1 into three-dimensional data including the first frequency component FL1, the time component T2, and the amplitude component G.

まず、第二次データ生成部21bは、図7に示す第一次データDT1の波形データから微小時間ΔTa(例えば0.1秒)の短時間波形データ(第一波形データ)を取り出し、取り出した第一波形データをフーリエ変換する。短時間波形データは、時間成分T2と振幅成分(加速度G)とを含む時系列データであり、短時間波形データをフーリエ変換することにより、図8に示すように、第一周波数成分FL1と振幅成分Gとを含む波形データDT2aが生成される。 First, the secondary data generation unit 21b extracts and extracts short-time waveform data (first waveform data) having a minute time ΔTa (for example, 0.1 seconds) from the waveform data of the primary data DT1 shown in FIG. Fourier transform the first waveform data. The short-time waveform data is time-series data including a time component T2 and an amplitude component (acceleration G), and by Fourier transforming the short-time waveform data, as shown in FIG. 8, the first frequency component FL1 and the amplitude. Waveform data DT2a including the component G is generated.

続いて、第二次データ生成部21bは、第一次データDT1の波形データから先に取り出し微小時間ΔTaとは異なる微小時間ΔTbの短時間波形データ(第二波形データ)を取り出し、上記同様に、取り出した第二波形データをフーリエ変換する。なお、微小時間ΔTbにおける第二波形データは、微小時間ΔTaにおける第一波形データに対し、時間成分を所定時間(例えば0.05秒)だけずらした短時間波形データである。 Subsequently, the secondary data generation unit 21b first takes out the waveform data of the primary data DT1 and takes out the short-time waveform data (second waveform data) of the minute time ΔTb different from the minute time ΔTa, and similarly , The extracted second waveform data is Fourier transformed. The second waveform data in the minute time ΔTb is short-time waveform data in which the time component is shifted by a predetermined time (for example, 0.05 seconds) from the first waveform data in the minute time ΔTa.

そして、第二次データ生成部21bは、第一次データDT1の波形データから所定時間ずつずらしつつ、微小時間ΔTの短時間波形データを取り出し、取り出した短時間波形データの各々をフーリエ変換する。このようにして、図8に示すように、複数の波形データDT2aが生成される。 Then, the secondary data generation unit 21b extracts the short-time waveform data of the minute time ΔT while shifting the waveform data of the primary data DT1 by a predetermined time, and Fourier transforms each of the extracted short-time waveform data. In this way, as shown in FIG. 8, a plurality of waveform data DT2a are generated.

そして、図9に示すように、第二次データ生成部21bは、複数の短時間波形データに対してフーリエ変換を行った結果に基づき、第一周波数成分FL1と時間成分T2と振幅成分(加速度G)とを含むスペクトログラムデータを生成する。図9に示すスペクトログラムデータにおいて、2次元座標軸は、時間t2(横軸)と、第一周波数FL1(縦軸)とし、色の属性は、振幅成分である加速度Gを示す。色の属性は、色相、彩度、明度のすべての属性を含むようにしても良いし、一部の属性のみを含むようにしても良い。 Then, as shown in FIG. 9, the secondary data generation unit 21b has a first frequency component FL1, a time component T2, and an amplitude component (acceleration) based on the result of performing a Fourier transform on a plurality of short-time waveform data. G) Generates spectrogram data including. In the spectrogram data shown in FIG. 9, the two-dimensional coordinate axes are the time t2 (horizontal axis) and the first frequency FL1 (vertical axis), and the color attribute indicates the acceleration G which is an amplitude component. The color attribute may include all attributes of hue, saturation, and lightness, or may include only some attributes.

第三次データ生成部21cは、第二次データDT2において第一周波数成分毎の時間−振幅データをそれぞれフーリエ変換することにより、第一周波数成分FL1と第二周波数成分FL2と振幅成分Gとを含む、スペクトログラムデータに近似した仕様の画像データである第三次データDT3を生成する。つまり、第三次データDT3は、第二次データDT2を、第一周波数成分FL1と第二周波数成分FL2と振幅成分Gとを含む3次元データへ変換したものである。 The tertiary data generation unit 21c obtains the first frequency component FL1, the second frequency component FL2, and the amplitude component G by performing Fourier transform on the time-oscillation data for each first frequency component in the secondary data DT2. Generates tertiary data DT3, which is image data with specifications similar to spectrogram data including. That is, the tertiary data DT3 is obtained by converting the secondary data DT2 into three-dimensional data including the first frequency component FL1, the second frequency component FL2, and the amplitude component G.

第三次データ生成部21cは、まず、図9において、第一周波数FL1毎の時系列データDT3aを抽出する。例えば、図9において、第一周波数FL1が4kHzについての時系列データDT3aは、図10に示すグラフとなる。つまり、図10には、第一周波数FL1が4kHzとなる振幅成分(加速度G)の挙動を時系列データで表したグラフが示されている。第三次データ生成部21cは、他の第一周波数FL1についても、同様に、時間T2−振幅Gの時系列データDT3aを抽出する。 First, the tertiary data generation unit 21c extracts the time-series data DT3a for each first frequency FL1 in FIG. 9. For example, in FIG. 9, the time-series data DT3a with respect to the first frequency FL1 of 4 kHz is the graph shown in FIG. That is, FIG. 10 shows a graph showing the behavior of the amplitude component (acceleration G) at which the first frequency FL1 is 4 kHz as time series data. The third data generation unit 21c similarly extracts the time series data DT3a having the time T2-amplitude G for the other first frequency FL1.

続いて、図11に示すように、第三次データ生成部21cは、第一周波数成分FL1毎の時間T2−振幅Gの時系列データをフーリエ変換し、第一周波数成分FL1毎の第二周波数FL2−振幅GのデータDT3bを生成する。なお、図11は、第一周波数FL1が4kHzとなる振幅成分(加速度G)を第二周波数成分FL2毎に表したグラフを示す。このように、第三次データ生成部21cは、第二次データDT2に含まれる時間T2−振幅Gの時系列データを、第一周波数成分FL1毎にフーリエ変換し、時間成分を含まないデータDT3bに変換する。 Subsequently, as shown in FIG. 11, the tertiary data generation unit 21c Fourier transforms the time series data of the time T2-amplitude G for each first frequency component FL1 and performs a Fourier transform on the second frequency for each first frequency component FL1. FL2-Amplitude G data DT3b is generated. Note that FIG. 11 shows a graph showing the amplitude component (acceleration G) at which the first frequency FL1 is 4 kHz for each second frequency component FL2. In this way, the tertiary data generation unit 21c Fourier transforms the time-series data of the time T2-amplitude G included in the secondary data DT2 for each first frequency component FL1 and does not include the time component DT3b. Convert to.

続いて、図12に示すように、第三次データ生成部21cは、第一周波数成分FL1毎の第二周波数FL2−振幅GについてのデータDT3bに基づいて、第一周波数成分FL1と第二周波数成分FL2と振幅成分Gとを表した画像データである第三次データDT3を生成する。図12に示すように、第三次データDT3は、スペクトログラムデータに近似した仕様の画像データであり、2次元座標軸は、第二周波数FL2(横軸)と、第一周波数FL1(縦軸)とし、色の属性は、振幅成分である加速度Gを示す。これにより、第三次データ生成部21cは、時間成分を含む画像データである第二次データDT2を、時間成分を含まない画像データである第三次データDT3に変換することができる。 Subsequently, as shown in FIG. 12, the tertiary data generation unit 21c has the first frequency component FL1 and the second frequency based on the data DT3b for the second frequency FL2-amplitude G for each first frequency component FL1. The tertiary data DT3, which is image data representing the component FL2 and the amplitude component G, is generated. As shown in FIG. 12, the tertiary data DT3 is image data having specifications similar to spectrogram data, and the two-dimensional coordinate axes are the second frequency FL2 (horizontal axis) and the first frequency FL1 (vertical axis). , The color attribute indicates the acceleration G, which is an amplitude component. As a result, the tertiary data generation unit 21c can convert the secondary data DT2, which is image data including the time component, into the tertiary data DT3, which is the image data not including the time component.

そして、検査画像データ取得部21,32は、図12に示す第三次データDT3を検査画像データとする。つまり、図12に示す第三次データDT3を変分オートエンコーダの入力として、上述した処理が行われる。 Then, the inspection image data acquisition units 21 and 32 use the tertiary data DT3 shown in FIG. 12 as the inspection image data. That is, the above-mentioned processing is performed using the tertiary data DT3 shown in FIG. 12 as the input of the variational autoencoder.

また、検査画像データ取得部21,32は、第三次データDT3に変えて、図9に示す第二次データDT2を検査画像データとしても良い。この場合、図9に示す第二次データDT2を変分オートエンコーダの入力として、上述した処理が行われる。そして、検査画像データ取得部21,32は、第一次データ記憶部21aおよび第二次データ生成部21bを備え、第三次データ生成部21cを備えない構成となる。 Further, the inspection image data acquisition units 21 and 32 may use the secondary data DT2 shown in FIG. 9 as the inspection image data instead of the tertiary data DT3. In this case, the above-mentioned processing is performed using the secondary data DT2 shown in FIG. 9 as the input of the variational autoencoder. The inspection image data acquisition units 21 and 32 include a primary data storage unit 21a and a secondary data generation unit 21b, and do not include a tertiary data generation unit 21c.

1,2:産業用検査システム、 10:検出装置、 20,40:学習処理装置、 21:検査画像データ取得部、 21a:第一次データ記憶部、 21b:第二次データ生成部、 21c:第三次データ生成部、 23,43:学習済みモデル生成部、 30,50:検査処理装置、 31,51:学習済みモデル記憶部、 32:検査画像データ取得部、 33,53:出力値取得部、 34,54:差分値演算部、 35,55:個別画素評価値演算部、 36:全画素評価値演算部、 37:判定部、 D1,D2:デコーダ、 DT1:第一次データ、 DT2:第二次データ、 DT3:第三次データ、 E1,E2:エンコーダ、 M1,M2:学習モデル 1,2: Industrial inspection system, 10: Detection device, 20,40: Learning processing device, 21: Inspection image data acquisition unit, 21a: Primary data storage unit, 21b: Secondary data generation unit, 21c: Third data generation unit, 23, 43: trained model generation unit, 30, 50: inspection processing device, 31, 51: trained model storage unit, 32: inspection image data acquisition unit, 33, 53: output value acquisition Unit, 34, 54: Difference value calculation unit, 35, 55: Individual pixel evaluation value calculation unit, 36: All pixel evaluation value calculation unit, 37: Judgment unit, D1, D2: Decoder, DT1: Primary data, DT2 : Secondary data, DT3: Tertiary data, E1, E2: Encoder, M1, M2: Training model

Claims (11)

産業に用いられる装置である検査対象を撮像した検査画像データまたは前記検査対象の動作に起因したデータを変換した検査画像データを取得する検査画像データ取得部と、
所定の確率分布を持つ変分オートエンコーダ(VAE)を学習モデルとし、前記検査画像データをエンコーダの入力とし、再構成データの分布のパラメータとして期待値および分散をデコーダの出力とする前記学習モデルを用い、良品の前記検査画像データを訓練データとして機械学習を行った学習済みモデルを記憶する学習済みモデル記憶部と、
前記検査対象の前記検査画像データを入力した場合に、前記学習済みモデルの出力として、前記期待値および前記分散を取得する出力値取得部と、
画素毎に、前記検査対象の前記検査画像データと前記出力値取得部により取得された前記期待値との差分を演算する差分値演算部と、
画素毎に、前記差分値演算部により出力された前記差分の相関値に、前記出力値取得部により取得された前記分散の相関値により表される重み付け係数を乗算することにより、個別画素評価値を演算する個別画素評価値演算部と、
画素毎の前記個別画素評価値に基づいて全画素評価値を演算する全画素評価値演算部と、
前記全画素評価値に基づいて前記検査対象の良否を判定する判定部と、
を備える、産業用検査システム。
An inspection image data acquisition unit that acquires inspection image data obtained by capturing an image of an inspection target, which is a device used in industry, or converted data caused by the operation of the inspection target, and an inspection image data acquisition unit.
A learning model in which a variable auto encoder (VAE) having a predetermined probability distribution is used as a learning model, the inspection image data is used as an input of the encoder, and an expected value and a dispersion are output of a decoder as parameters of the distribution of the reconstructed data. A trained model storage unit that stores a trained model that has been machine-learned using the inspection image data of a non-defective product as training data.
When the inspection image data of the inspection target is input, the output value acquisition unit for acquiring the expected value and the variance as the output of the trained model,
A difference value calculation unit that calculates the difference between the inspection image data to be inspected and the expected value acquired by the output value acquisition unit for each pixel.
Individual pixel evaluation value by multiplying the correlation value of the difference output by the difference value calculation unit for each pixel by the weighting coefficient represented by the correlation value of the dispersion acquired by the output value acquisition unit. Individual pixel evaluation value calculation unit that calculates
An all-pixel evaluation value calculation unit that calculates an all-pixel evaluation value based on the individual pixel evaluation value for each pixel,
A determination unit that determines the quality of the inspection target based on the evaluation value of all pixels, and
Equipped with an industrial inspection system.
前記個別画素評価値演算部は、画素毎に、前記差分値演算部により出力された前記差分の相関値に、前記出力値取得部により取得された前記分散の相関値の逆数である前記重み付け係数を乗算することにより、前記個別画素評価値を演算する、請求項1に記載の産業用検査システム。 The individual pixel evaluation value calculation unit has the weighting coefficient, which is the reciprocal of the correlation value of the dispersion acquired by the output value acquisition unit, to the correlation value of the difference output by the difference value calculation unit for each pixel. The industrial inspection system according to claim 1, wherein the individual pixel evaluation value is calculated by multiplying by. 前記学習済みモデルは、良品の前記検査画像データを訓練データとし、かつ、前記所定の確率分布を表す確率密度関数を最大値とするように機械学習を行ったモデルである、請求項1または2に記載の産業用検査システム。 The trained model is a model in which machine learning is performed so that the inspection image data of a non-defective product is used as training data and the probability density function representing the predetermined probability distribution is set to the maximum value. The industrial inspection system described in. 前記確率密度関数は、正規分布の確率密度関数である、請求項3に記載の産業用検査システム。 The industrial inspection system according to claim 3, wherein the probability density function is a probability density function having a normal distribution. 前記出力値取得部は、正規分布の確率密度関数における平均μを前記期待値として取得すると共に、正規分布の確率密度関数における分散σを前記分散として取得し、
前記差分値演算部は、画素毎に、前記検査対象の前記検査画像データxと前記出力値取得部により取得された前記平均μとの差分(x−μ)を演算し、
前記個別画素評価値演算部は、画素毎に、前記差分の相関値としての差分2乗値(x−μ)に、前記分散σの逆数である前記重み付け係数を乗算することにより、前記個別画素評価値を演算し、
前記全画素評価値演算部は、前記個別画素評価値を合計した値を、前記全画素評価値として演算する、請求項4に記載の産業用検査システム。
The output value acquisition unit acquires the average μ in the probability density function of the normal distribution as the expected value, and acquires the variance σ 2 in the probability density function of the normal distribution as the variance.
The difference value calculation unit calculates the difference (x−μ) between the inspection image data x to be inspected and the average μ acquired by the output value acquisition unit for each pixel.
The individual pixel evaluation value calculation unit multiplies the difference squared value (x−μ) 2 as the correlation value of the difference by the weighting coefficient which is the reciprocal of the variance σ 2 for each pixel. Calculate the individual pixel evaluation value and
The industrial inspection system according to claim 4, wherein the all-pixel evaluation value calculation unit calculates a value obtained by summing the individual pixel evaluation values as the all-pixel evaluation value.
前記確率密度関数は、ラプラス分布の確率密度関数である、請求項3に記載の産業用検査システム。 The industrial inspection system according to claim 3, wherein the probability density function is a probability density function of the Laplace distribution. 前記出力値取得部は、ラプラス分布の確率密度関数における平均μを前記期待値として取得すると共に、ラプラス分布の確率密度関数における分散2bを前記分散として取得し、
前記差分値演算部は、画素毎に、前記検査対象の前記検査画像データxと前記出力値取得部により取得された前記平均μとの差分(x−μ)を演算し、
前記個別画素評価値演算部は、画素毎に、前記差分の相関値としての差分絶対値|x−μ|に、前記分散の相関値bの逆数である前記重み付け係数を乗算することにより、前記個別画素評価値を演算し、
前記全画素評価値演算部は、前記個別画素評価値を合計した値を、前記全画素評価値として演算する、請求項5に記載の産業用検査システム。
The output value acquisition unit acquires the average μ in the probability density function of the Laplace distribution as the expected value, and acquires the variance 2b 2 in the probability density function of the Laplace distribution as the variance.
The difference value calculation unit calculates the difference (x−μ) between the inspection image data x to be inspected and the average μ acquired by the output value acquisition unit for each pixel.
The individual pixel evaluation value calculation unit multiplies the absolute difference value | x-μ | as the correlation value of the difference by the weighting coefficient, which is the reciprocal of the correlation value b of the dispersion, for each pixel. Calculate the individual pixel evaluation value and
The industrial inspection system according to claim 5, wherein the all-pixel evaluation value calculation unit calculates a value obtained by summing the individual pixel evaluation values as the all-pixel evaluation value.
前記産業に用いられる装置は、産業機械、自動車、航空機の少なくとも1つを含む完成品、または、前記完成品を構成する部品の少なくとも1つを含む、請求項1−7の何れか1項に記載の産業用検査システム。 The device used in the industry is a finished product including at least one of an industrial machine, an automobile, and an aircraft, or any one of claims 1-7 including at least one of the parts constituting the finished product. Described industrial inspection system. 前記検査画像データは、前記検査対象の動作に起因した音データまたは振動データを変換した検査画像データである。請求項1−8の何れか1項に記載の産業用検査システム。 The inspection image data is inspection image data obtained by converting sound data or vibration data caused by the operation of the inspection target. The industrial inspection system according to any one of claims 1-8. 前記産業用検査システムは、
前記検査対象の動作に起因した音データまたは振動データであって、時系列の第一次データを記憶する第一次データ記憶部と、
前記第一次データを短時間フーリエ変換することにより、第一周波数成分と時間成分と振幅成分とを含むスペクトログラムである第二次データを生成する第二次データ生成部と、
前記第二次データにおいて前記第一周波数成分毎の時間−振幅データをそれぞれフーリエ変換することにより、前記第一周波数成分と第二周波数成分と前記振幅成分とを表した画像データである第三次データを前記検査画像データとして生成する第三次データ生成部と、
を備える、請求項9に記載の産業用検査システム。
The industrial inspection system is
A primary data storage unit that stores sound data or vibration data caused by the operation of the inspection target and stores primary data in a time series.
A secondary data generator that generates secondary data, which is a spectrogram including a primary frequency component, a time component, and an amplitude component, by performing a short-time Fourier transform on the primary data.
The third is image data representing the first frequency component, the second frequency component, and the amplitude component by Fourier transforming the time-oscillation data for each first frequency component in the secondary data. A tertiary data generation unit that generates data as the inspection image data,
9. The industrial inspection system according to claim 9.
前記産業用検査システムは、
前記検査対象の動作に起因した音データまたは振動データであって、時系列の第一次データを記憶する第一次データ記憶部と、
前記第一次データを短時間フーリエ変換することにより、第一周波数成分と時間成分と振幅成分とを含むスペクトログラムである第二次データを前記検査画像データとして生成する第二次データ生成部と、
を備える、請求項9に記載の産業用検査システム。
The industrial inspection system is
A primary data storage unit that stores sound data or vibration data caused by the operation of the inspection target and stores primary data in a time series.
A secondary data generation unit that generates secondary data, which is a spectrogram including a first frequency component, a time component, and an amplitude component, as the inspection image data by performing a short-time Fourier transform on the primary data.
9. The industrial inspection system according to claim 9.
JP2020094476A 2020-05-29 2020-05-29 Industrial inspection system Pending JP2021189039A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020094476A JP2021189039A (en) 2020-05-29 2020-05-29 Industrial inspection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020094476A JP2021189039A (en) 2020-05-29 2020-05-29 Industrial inspection system

Publications (1)

Publication Number Publication Date
JP2021189039A true JP2021189039A (en) 2021-12-13

Family

ID=78848402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020094476A Pending JP2021189039A (en) 2020-05-29 2020-05-29 Industrial inspection system

Country Status (1)

Country Link
JP (1) JP2021189039A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023148422A (en) * 2022-03-30 2023-10-13 本田技研工業株式会社 Inspection device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023148422A (en) * 2022-03-30 2023-10-13 本田技研工業株式会社 Inspection device
JP7439157B2 (en) 2022-03-30 2024-02-27 本田技研工業株式会社 Inspection equipment

Similar Documents

Publication Publication Date Title
US10324425B2 (en) Human collaborative robot system having improved external force detection accuracy by machine learning
US7912665B2 (en) Method and apparatus for driver hands off detection for vehicles with active front steering system
JP5849991B2 (en) Car body stiffness test method and car body stiffness test apparatus
JP4942353B2 (en) Sound or vibration analysis method and sound or vibration analysis apparatus
US8798864B2 (en) Road wheel disturbance rejection
US9909954B2 (en) System and method to quantify viscous damping steering feel of a vehicle equipped with an electric power steering system
JP5925640B2 (en) Steer-by-wire steering reaction force control device
CN108688719A (en) System and method for estimating steering torque
JP2021189039A (en) Industrial inspection system
CN105564502B (en) A kind of power steering early warning system and its working method based on machine vision
JP4340118B2 (en) Vehicle steering system
JPH1123291A (en) Picture processing device for car
JP6637472B2 (en) Information processing method and information processing apparatus
US11604170B2 (en) Inspection device and inspection learning model generation device
KR20170135032A (en) Apparatus and method for reducing judder of steering wheel
JP4354607B2 (en) Drift removal apparatus, drift removal method, and moving body behavior detection sensor.
JP6475954B2 (en) Tire pressure drop detection device, method and program
US11945521B2 (en) Device for locating noise in steering system
Carrera Akutain et al. Further understanding of steering feedback and driver behavior through the application of an instrumented steering wheel
JP2011526560A (en) Method and apparatus for detecting tire pressure drop
CN113643355A (en) Method and system for detecting position and orientation of target vehicle and storage medium
CN108437798B (en) Electric scooter fault diagnosis and estimation method based on bonding diagram model
JP4961783B2 (en) Vehicle steering system
CN115876309A (en) Vibration detection device and method for multi-axis mechanical arm
RU2071109C1 (en) Ship motion parameter recovery system

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210301