JP2021157791A - Method and device for evaluation - Google Patents

Method and device for evaluation Download PDF

Info

Publication number
JP2021157791A
JP2021157791A JP2021043561A JP2021043561A JP2021157791A JP 2021157791 A JP2021157791 A JP 2021157791A JP 2021043561 A JP2021043561 A JP 2021043561A JP 2021043561 A JP2021043561 A JP 2021043561A JP 2021157791 A JP2021157791 A JP 2021157791A
Authority
JP
Japan
Prior art keywords
image
range
image data
singular
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021043561A
Other languages
Japanese (ja)
Other versions
JP6961319B2 (en
Inventor
雄史 松下
Yuji Matsushita
雄史 松下
慶 高橋
Kei Takahashi
慶 高橋
将司 富重
Masashi Tomishige
将司 富重
崇宏 猿渡
Takahiro Sawatari
崇宏 猿渡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Asahi Kasei Corp
Original Assignee
Asahi Kasei Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asahi Kasei Corp filed Critical Asahi Kasei Corp
Publication of JP2021157791A publication Critical patent/JP2021157791A/en
Application granted granted Critical
Publication of JP6961319B2 publication Critical patent/JP6961319B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Abstract

To provide a device and a method for evaluation that can rapidly evaluate the presence or absence of a specific part for a large number of objects, while maintaining or improving the accuracy of detecting the specific part.SOLUTION: The method includes: acquiring a first image in a first range of an object; extracting a plurality of second ranges as a part of the first range from image data of a first format (for example, gray-scale data) as image data of the first image, which is expressed by one index per one pixel, by using a first method; and evaluating the presence or absence of a specific part in the second ranges from image data of a second format (for example, color data) as image data of a second image in the second ranges, which is expressed by a plurality of indexes per one pixel, by using a second method acquired by a machine learning.SELECTED DRAWING: Figure 4A

Description

本発明は、評価方法及び評価装置に関する。 The present invention relates to an evaluation method and an evaluation device.

対象物を撮像等することによって得られた画像に基づいて、対象物に発生する可能性がある異常状態、又は、他とは異なる特徴を有する部位の有無を評価する欠陥検査システム、異常検査システム、又は、特異部検知システムが知られている。近年、機械学習を用いて、欠陥等を含む、他の大部分の領域と異なる特徴を持った部位(以下、「特異部」という。)の有無を評価するための手法が提案されている。 Defect inspection system, abnormality inspection system that evaluates the presence or absence of abnormal conditions that may occur in the object or parts that have different characteristics from others, based on the images obtained by imaging the object. Or, a singular part detection system is known. In recent years, a method has been proposed for evaluating the presence or absence of a site (hereinafter referred to as “singular part”) having characteristics different from most other regions, including defects, using machine learning.

特許文献1には、撮像部で撮像された対象物の撮像画像から任意の特徴を持った特異部を含む特異部画像を抽出し、特異部画像を入力とした機械学習により特異部の種別を識別する特異部検知システムが記載されている。 In Patent Document 1, a singular part image including a singular part having an arbitrary feature is extracted from an image of an object captured by the imaging unit, and the type of the singular part is determined by machine learning using the singular part image as an input. A singular part detection system for identification is described.

国際公開第2019/003813号International Publication No. 2019/003813

しかしながら、特異部の有無の検出精度には、向上の余地がある。また、多数の対象物について、特異部の有無を迅速に評価することが求められる場合もある。 However, there is room for improvement in the detection accuracy of the presence or absence of the singular portion. In addition, it may be required to quickly evaluate the presence or absence of singular parts in a large number of objects.

そこで本発明は、特異部の検出精度を維持又は向上しつつ、多数の対象物について、特異部の有無を迅速に評価することが可能になる評価方法及び評価装置を提供することを目的とする。 Therefore, an object of the present invention is to provide an evaluation method and an evaluation device capable of quickly evaluating the presence or absence of a singular portion in a large number of objects while maintaining or improving the detection accuracy of the singular portion. ..

本開示に係る評価方法は、対象物の第1範囲に対応する第1画像を取得することと、第1方法を用いて、第1画像の画像データであって1画素あたり1つの指標により表現される第1形式の画像データから、第1範囲の一部である第2範囲を抽出することと、機械学習を用いて取得された第2方法を用いて、第2範囲に相当する第2画像の画像データであって1画素あたり複数の指標により表現される第2形式の画像データから、第2範囲内の特異部の有無を評価することと、を含む。 The evaluation method according to the present disclosure is to acquire a first image corresponding to the first range of the object, and to use the first method to represent the image data of the first image by one index per pixel. The second range corresponding to the second range is extracted from the image data of the first format to be obtained by extracting the second range which is a part of the first range and using the second method acquired by using machine learning. This includes evaluating the presence or absence of a singular portion within the second range from the image data of the second format, which is the image data of the image and is represented by a plurality of indexes per pixel.

なお、「1画素あたり1つの指標により表現される第1形式の画像データ」は、各画素の色彩の違いが1つの指標によって表現される画像データである。このような画像データは、1つの画素が単一の濃度値により表現される画像データであってよい。このような画像データとしては、例えば、グレースケールデータが挙げられる。また、このような画像データとして、各画素において、RGBの各原色が同一の濃度値(輝度)を有することにより、画像データを構成する各画素を、1つの濃度値で表現可能な画像データが挙げられる。各画素が、RGBの各原色のうち2つの原色が固定された濃度値を有することにより、画像データを構成する各画素を、残り1つの原色が有する1つの濃度値で表現可能な画像データが挙げられる。なお、各画素は、CMY等、他の原色により表現されてもよい。また、各画素の色彩を、色相、彩度、明度の3つのパラメータにより表現する場合には、各画素について、これら3つのパラメータのうちの2つが固定され、各画素の色彩の違いが、残りの1つのパラメータにより表現される画像データが挙げられる。 The "first format image data represented by one index per pixel" is image data in which the difference in color of each pixel is represented by one index. Such image data may be image data in which one pixel is represented by a single density value. Examples of such image data include grayscale data. Further, as such image data, since each primary color of RGB has the same density value (brightness) in each pixel, image data capable of expressing each pixel constituting the image data with one density value can be obtained. Can be mentioned. Since each pixel has a density value in which two of the primary colors of RGB have fixed density values, image data capable of expressing each pixel constituting the image data with one density value of the remaining one primary color can be obtained. Can be mentioned. In addition, each pixel may be represented by another primary color such as CMY. When the color of each pixel is expressed by three parameters of hue, saturation, and lightness, two of these three parameters are fixed for each pixel, and the difference in color of each pixel remains. Image data represented by one of the parameters can be mentioned.

上述した指標としては、濃度(輝度)、色相、彩度、明度等を用いることができる。 As the above-mentioned index, density (luminance), hue, saturation, lightness and the like can be used.

「1画素あたり複数の指標を有する第2形式の画像データ」は、例えば、RGBの各原色を独立した濃度値で表現可能なRGBデータ等のカラーデータを含む。また、CMYデータ等、異なるカラーモデルで表現されるカラーデータを含む。また、色相、彩度、明度のうち、複数のパラメータによって各画素の違いが表現される画像データを含む。 The "second format image data having a plurality of indexes per pixel" includes, for example, color data such as RGB data in which each primary color of RGB can be expressed by an independent density value. It also includes color data represented by different color models such as CMY data. It also includes image data in which the difference between each pixel is expressed by a plurality of parameters among hue, saturation, and lightness.

このような方法によれば、第2形式の画像データと比較して情報量の少ない第1形式の画像データを用いることで、第2範囲の抽出の画像処理に要する演算量を抑え、その結果、演算時間を短縮することが可能になる。また、機械学習を用いて取得された第2方法を用いて、第2範囲に相当する第2画像のカラーデータ等、情報量の多い第2形式で表現される画像データから、第2範囲内の特異部の有無を評価する。すなわち、第2形式の第2画像と比較して大きい領域の画像であって、かつ、各画素が有する情報量は少ない第1画像に対して第1の方法の画像処理を適用し、これにより第1画像のうち異常が存在する部分領域を第2画像とすることで探索範囲の絞込を行った後、第1画像よりも相対的に各画素が有する情報量の多い第2画像に対して第2の方法の画像処理を適用し、第2画像に特異部が存在するか否かの評価を行うようにしている。これによれば、機械学習による検出精度を維持又は向上することが可能になる。その結果、特異部の検出精度を維持又は向上しつつ、多数の対象物について、特異部の有無を迅速に評価することが可能になる。例えば、一の対象物について第2方法を実行しながら、同時に、この対象物とは異なる一又は複数の対象物について第1方法を実行してもよい。 According to such a method, by using the image data of the first format, which has a smaller amount of information than the image data of the second format, the amount of calculation required for the image processing of the extraction of the second range can be suppressed, and as a result. , It becomes possible to shorten the calculation time. Further, using the second method acquired by using machine learning, the image data expressed in the second format having a large amount of information, such as the color data of the second image corresponding to the second range, is within the second range. Evaluate the presence or absence of singularities. That is, the image processing of the first method is applied to the first image, which is an image in a larger region than the second image of the second format and has a small amount of information in each pixel, thereby. After narrowing down the search range by setting the partial region where the abnormality exists in the first image as the second image, the second image having a relatively large amount of information in each pixel is compared to the first image. Therefore, the image processing of the second method is applied to evaluate whether or not a singular part is present in the second image. According to this, it becomes possible to maintain or improve the detection accuracy by machine learning. As a result, it becomes possible to quickly evaluate the presence or absence of the singular part in a large number of objects while maintaining or improving the detection accuracy of the singular part. For example, the second method may be executed for one object, and at the same time, the first method may be executed for one or more objects different from this object.

なお、本開示における「評価」は、特異部の有無を判断すること、又は、確率情報と共に特異部の有無を判断すること、特異部の有無に関する確率情報を出力することを含む。また、本開示における「評価」は、特異部に複数の種類がある場合には、上記特異部の有無に関する情報および/または特異部の種別に関する情報を出力することを含む。 The "evaluation" in the present disclosure includes determining the presence or absence of a singular portion, determining the presence or absence of a singular portion together with probability information, and outputting probability information regarding the presence or absence of a singular portion. Further, the "evaluation" in the present disclosure includes outputting information regarding the presence or absence of the singular portion and / or information regarding the type of the singular portion when there are a plurality of types of the singular portion.

また、第1方法は、例えば、グレースケールデータから二値データを作成し、所定の大きさの領域内における所定の二値データを有するピクセル数に基づいて第2範囲を抽出する方法であってもよい。例えば、全体、又は、一部のグレースケールデータから決定される閾値に基づいて白黒の二値データを作成し、所定の大きさの領域内に含まれる黒のピクセル数が所定数以上の場合にその領域を第2範囲として抽出する方法であってもよい。また、二値化フィルターにより輪郭を強調して背景との境界を強調してもよい。その他、第1方法は、評価対象となる特異部の特徴に基づいて、グレースケールデータから特異部を含む可能性がある第2範囲を抽出するのに適した手法を選択することができる。例えば、異物のモデル形状に基づくパターン認識により第2範囲を抽出してもよい。 Further, the first method is, for example, a method of creating binary data from grayscale data and extracting a second range based on the number of pixels having the predetermined binary data in a region of a predetermined size. May be good. For example, when black-and-white binary data is created based on a threshold value determined from all or part of grayscale data, and the number of black pixels contained in an area of a predetermined size is a predetermined number or more. The method may be a method of extracting the region as a second range. Further, the outline may be emphasized by the binarization filter to emphasize the boundary with the background. In addition, as the first method, a method suitable for extracting a second range that may include the singular part from the grayscale data can be selected based on the characteristics of the singular part to be evaluated. For example, the second range may be extracted by pattern recognition based on the model shape of the foreign matter.

また、グレースケールデータ等、第1形式の画像データに基づいてカラーデータ等、第2形式の画像データを生成してもよい。例えば、グレースケールデータを変換してカラーデータを生成してもよい。第1形式の画像データを第2形式の画像データに変換する方法の一例として、第1形式のグレースケールデータに含まれる指標としての輝度を、RGB等の各原色の輝度に採用することで、カラー画像を生成する方法が挙げられる。 Further, image data in a second format such as color data may be generated based on image data in the first format such as grayscale data. For example, grayscale data may be converted to generate color data. As an example of the method of converting the image data of the first format into the image data of the second format, by adopting the brightness as an index included in the grayscale data of the first format for the brightness of each primary color such as RGB, A method of generating a color image can be mentioned.

このような構成とすることにより、機械学習を用いて取得された第2方法を用いて、カラーデータから特異部の有無を評価することが可能になるとともに、第1範囲についてカラーデータを取得する必要がない。 With such a configuration, it becomes possible to evaluate the presence or absence of a singular part from the color data by using the second method acquired by using machine learning, and the color data is acquired for the first range. No need.

また、機械学習は、一の特異部を含む第3画像から、第3画像よりも小さく、かつ、一の特異部の位置が異なる複数の第4画像を生成することと、複数の第4画像のカラーデータ等、第2形式の画像データで表現された画像データを教師データとして内部パラメータの最適化を行うことと、を含んでもよい。 Further, in machine learning, a plurality of fourth images that are smaller than the third image and have different positions of the one singular portion are generated from the third image including one singular portion, and a plurality of fourth images. It may include optimizing the internal parameters by using the image data represented by the image data of the second format such as the color data of the above as the teacher data.

なお、第3画像は、第2範囲以上の大きさの画像であってよい。例えば、第3画像は第2範囲と同じ大きさの画像(一例として256画素×256画素)であってよい。第3画像は、機械学習よって第2の方法に用いる学習済みモデルを得るための一連の演算処理の事前に準備されてもよい。第4画像は、学習済みモデルを得るための一連の演算処理において、第3画像の一部であって第2範囲よりも小さく(一例として、224画素×224画素)、かつ、特異部を含む複数の画像を抽出することにより生成されてよい。これにより、特異部の位置が互いに異なる複数の第4画像が得られる。複数の第4画像は、同一の特異部を含み、かつ、特異部の位置が異なる複数の画像を有してよい。これら第4画像は教師データとして用いられる。また、第3画像を第2範囲よりも大きい画像とし、第4画像を第2範囲と同じ大きさの画像としてもよい。 The third image may be an image having a size larger than the second range. For example, the third image may be an image having the same size as the second range (256 pixels × 256 pixels as an example). The third image may be prepared in advance of a series of arithmetic processes for obtaining a trained model to be used in the second method by machine learning. The fourth image is a part of the third image, smaller than the second range (for example, 224 pixels × 224 pixels), and includes a singular part in a series of arithmetic processes for obtaining the trained model. It may be generated by extracting a plurality of images. As a result, a plurality of fourth images in which the positions of the singular portions are different from each other can be obtained. The plurality of fourth images may include a plurality of images containing the same singular portion and having different positions of the singular portions. These fourth images are used as teacher data. Further, the third image may be an image larger than the second range, and the fourth image may be an image having the same size as the second range.

このような構成とすることにより、偏った位置に特異部が存在する教師データを複数パターン生成することが可能になるから、機械学習による検出精度を維持又は向上することが可能になる。なお、一の特異部を含む第3画像から、一の特異部を含み、かつ、色彩が異なる複数の画像を生成し、これを教師データとしてもよい。 With such a configuration, it is possible to generate a plurality of patterns of teacher data in which a singular portion exists at a biased position, so that it is possible to maintain or improve the detection accuracy by machine learning. From the third image including one singular part, a plurality of images including one singular part and having different colors may be generated and used as teacher data.

上述のように教師データの態様(特異部の位置、色彩、明度等)を異ならせて教師データの分散の程度を大きくすることで、検出したい特異部の特徴の検出精度を向上させる効果がある。 As described above, by increasing the degree of dispersion of the teacher data by changing the mode of the teacher data (position, color, brightness, etc. of the singular part), there is an effect of improving the detection accuracy of the feature of the singular part to be detected. ..

また、本開示に係る評価装置は、対象物の第1範囲に対応する第1画像を取得する手段と、第1方法を用いて、第1画像の画像データであって1画素あたり1つの指標により表現される第1形式の画像データから、第1範囲の一部である第2範囲を抽出する手段と、機械学習を用いて取得された第2方法を用いて、第2範囲に相当する第2画像の画像データであって、1画素あたり複数の指標により表現される第2形式の画像データから、第2範囲内の特異部の有無を評価する手段と、を備える。 Further, the evaluation device according to the present disclosure uses the means for acquiring the first image corresponding to the first range of the object and the first method, and is the image data of the first image, which is one index per pixel. Corresponds to the second range by using the means for extracting the second range, which is a part of the first range, and the second method obtained by using machine learning from the image data in the first format represented by. The image data of the second image includes means for evaluating the presence or absence of a singular portion within the second range from the image data of the second format represented by a plurality of indexes per pixel.

このような装置によれば、第2形式の画像データと比較して情報量の少ない第1形式の画像データを用いることで、第2範囲の抽出の画像処理に要する演算量を抑え、その結果、演算時間を短縮することが可能になる。また、機械学習を用いて取得された第2方法を用いて、第2範囲に相当する第2画像のカラーデータ等、情報量の多い第2形式で表現される画像データから、第2範囲内の特異部の有無を評価する手段を備えるから、機械学習による検出精度を維持又は向上することが可能になる。従って、特異部の検出精度を維持又は向上しつつ、多数の対象物について、特異部の有無を迅速に評価することが可能になる。 According to such a device, by using the image data of the first format, which has a smaller amount of information than the image data of the second format, the amount of calculation required for the image processing of the extraction of the second range can be suppressed, and as a result. , It becomes possible to shorten the calculation time. In addition, using the second method acquired by using machine learning, the image data expressed in the second format having a large amount of information, such as the color data of the second image corresponding to the second range, is within the second range. Since the means for evaluating the presence or absence of the singular portion of the above is provided, it is possible to maintain or improve the detection accuracy by machine learning. Therefore, it is possible to quickly evaluate the presence or absence of the singular part in a large number of objects while maintaining or improving the detection accuracy of the singular part.

また、本開示に係るコンピュータプログラムは、コンピュータに、対象物の第1範囲に対応する第1画像を取得することと、第1方法を用いて、第1画像の画像データであって1画素あたり1つの指標により表現される第1形式の画像データから、第1範囲の一部である第2範囲を抽出することと、機械学習を用いて取得された第2方法を用いて、第2範囲に相当する第2画像の画像データであって1画素あたり複数の指標により表現される第2形式の画像データから、第2範囲内の特異部の有無を評価することと、を実行させる命令を含む。 Further, the computer program according to the present disclosure uses the computer to acquire the first image corresponding to the first range of the object and the first method to obtain the image data of the first image per pixel. The second range is extracted from the image data of the first format represented by one index, and the second range obtained by using machine learning is used. From the image data of the second image corresponding to the image data of the second format represented by a plurality of indexes per pixel, the command to evaluate the presence or absence of the singular part in the second range is executed. include.

このようなコンピュータプログラムによれば、第2形式の画像データと比較して情報量の少ない第1形式の画像データを用いることで、第2範囲の抽出の画像処理に要する演算量を抑え、その結果、演算時間を短縮することが可能になる。また、コンピュータに、機械学習を用いて取得された第2方法を用いて、第2範囲に相当する第2画像のカラーデータ等、情報量の多い第2形式で表現される画像データから、第2範囲内の特異部の有無を評価させるから、機械学習による検出精度を維持又は向上することが可能になる。従って、特異部の検出精度を維持又は向上しつつ、多数の対象物について、特異部の有無を迅速に評価することが可能になる。 According to such a computer program, by using the image data of the first format, which has a smaller amount of information than the image data of the second format, the amount of calculation required for the image processing of the extraction of the second range can be suppressed. As a result, the calculation time can be shortened. In addition, using the second method acquired by using machine learning on a computer, the image data expressed in the second format having a large amount of information, such as the color data of the second image corresponding to the second range, can be obtained from the image data. Since the presence or absence of the singular part within the two ranges is evaluated, it is possible to maintain or improve the detection accuracy by machine learning. Therefore, it is possible to quickly evaluate the presence or absence of the singular part in a large number of objects while maintaining or improving the detection accuracy of the singular part.

また、本開示に係る評価システムは、評価装置とサーバを備える。サーバは、機械学習の教師データとして、それぞれが異なる種類の特異部を含む第1画像データ群及び特異部を含まない第2画像データ群を格納する。第1画像データには、同一のラベルが付与されてもよい。第2画像データ群には、第1画像データに付与されるラベルとは異なるラベルが付与される。また、本開示に係る評価システムは、上述した本開示に係るコンピュータプログラムに含まれる実行命令が、プロセッサおよびメモリを備え、無線または有線により互いに通信可能に接続された複数の演算装置が連携して実行される態様を含む。 Further, the evaluation system according to the present disclosure includes an evaluation device and a server. The server stores the first image data group including different types of singular parts and the second image data group not including the singular parts as teacher data for machine learning. The same label may be given to the first image data. A label different from the label given to the first image data is given to the second image data group. Further, in the evaluation system according to the present disclosure, the execution instructions included in the computer program according to the present disclosure described above include a processor and a memory, and a plurality of arithmetic units connected to each other so as to be able to communicate with each other wirelessly or by wire are linked. Includes aspects to be performed.

このような評価システムによれば、上記評価装置と同様の効果を発揮することが可能になる。 According to such an evaluation system, it is possible to exert the same effect as the above-mentioned evaluation device.

また、本開示は、対象物の第1範囲に対応する第1画像を取得するステップと、第1の画像処理方法を用いて、第1画像の画像データであって1画素あたり1つの濃度値を有する第1形式の画像データから、第1範囲の一部である第2範囲を抽出する画像処理をする第1ステップと、機械学習を用いて取得された第2の画像処理方法を用いて、第2範囲に相当する第2画像の画像データであって1画素あたり複数の濃度値を有する第2形式の画像データから、第2範囲内の特異部の有無を評価する画像処理をする第2ステップ、を含む。 Further, in the present disclosure, using the step of acquiring the first image corresponding to the first range of the object and the first image processing method, the image data of the first image is one density value per pixel. Using the first step of performing image processing for extracting the second range, which is a part of the first range, from the image data of the first format having the above, and the second image processing method acquired by using machine learning. , Image processing for evaluating the presence or absence of a singular portion in the second range from the image data of the second image corresponding to the second range and having a plurality of density values per pixel in the second format. Includes 2 steps.

このような画像処理方法によれば、第1ステップの演算量を抑え、演算時間を短縮することが可能になる。このため、特異部を有する可能性が低い対象物に対し、演算時間を短縮することが可能になる。また、第2ステップは、情報量の多い第2形式の画像データを利用するから機械学習を用いて取得された第2の画像処理方法を用いた評価精度を維持又は高めることが可能になる。 According to such an image processing method, it is possible to reduce the amount of calculation in the first step and shorten the calculation time. Therefore, it is possible to shorten the calculation time for an object that is unlikely to have a singular portion. Further, since the second step uses the image data of the second format having a large amount of information, it is possible to maintain or improve the evaluation accuracy using the second image processing method acquired by using machine learning.

また、このような画像処理方法をコンピュータに実行させるために、第1の画像処理方法を実装する第1のソフトウェアモジュールは、対象物の第1範囲に対応して取得された第1画像に対して、第1画像の画像データであって1画素あたり1つの濃度値を有する第1形式の画像データから、第1範囲の一部である第2範囲を抽出する画像処理をする第1ステップをコンピュータに実行させるための命令を含む。また、機械学習を用いて取得された第2の画像処理方法を実装する第2のソフトウェアモジュールは、第2範囲に相当する第2画像の画像データであって1画素あたり複数の濃度値を有する第2形式の画像データから、第2範囲内の特異部の有無を評価する画像処理をする第2ステップをコンピュータに実行させるための命令を含む。 Further, in order to cause the computer to execute such an image processing method, the first software module that implements the first image processing method requests the first image acquired corresponding to the first range of the object. The first step of performing image processing for extracting the second range, which is a part of the first range, from the image data of the first image and the image data of the first format having one density value per pixel. Contains instructions to get the computer to execute. Further, the second software module that implements the second image processing method acquired by using machine learning is the image data of the second image corresponding to the second range and has a plurality of density values per pixel. It includes an instruction for causing a computer to perform a second step of performing image processing for evaluating the presence or absence of a singular portion in the second range from the image data in the second format.

評価システム10の機能ブロック図Functional block diagram of evaluation system 10 評価システム10の評価装置のハードウェア構成を示すブロック図Block diagram showing the hardware configuration of the evaluation device of the evaluation system 10. 本実施形態に示される評価方法のフローチャートFlowchart of evaluation method shown in this embodiment 第1範囲AR1及び第2範囲AR2乃至AR4の模式図Schematic diagram of the first range AR1 and the second range AR2 to AR4 第2範囲AR2及び特異部候補C2Second range AR2 and singular part candidate C2 第2範囲AR3及び特異部候補C3Second range AR3 and singular part candidate C3 第2範囲AR4及び特異部候補C4Second range AR4 and singular part candidate C4 本実施形態に係る評価方法による評価結果を示すグラフGraph showing the evaluation result by the evaluation method according to this embodiment 教師データの生成方法を示す模式図Schematic diagram showing how to generate teacher data 教師データの生成方法を示す模式図Schematic diagram showing how to generate teacher data

以下、本発明の実施形態について図面を用いて説明する。以下の実施形態は、本発明を説明するための例示であり、本発明をその実施形態のみに限定する趣旨ではない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The following embodiments are examples for explaining the present invention, and the present invention is not intended to be limited only to the embodiments.

図1は、本実施形態に係る特異部の評価システム10の機能ブロック図である。この評価システム10は、液体を収容するペットボトル(「対象物」の一例)の内部に異物が混入しているか否かを判断するための評価システムである。但し、後述するように、本発明は、様々な対象物及び様々な特異部に適用することが可能である。 FIG. 1 is a functional block diagram of the singular part evaluation system 10 according to the present embodiment. The evaluation system 10 is an evaluation system for determining whether or not a foreign substance is mixed in a PET bottle (an example of an "object") containing a liquid. However, as will be described later, the present invention can be applied to various objects and various singular parts.

この評価システム10は、撮像部12、特異部検出部14、特異部画像抽出部16、画像データ変換部18及び特異部有無評価部20を有する評価装置を備えている。更に、評価システム10は、特異部有無評価部20にネットワークNを介して接続されるサーバ装置を更に備えている。サーバ装置は、正常サンプルの画像を格納するデータベースDB1及び異常サンプルの画像を格納するデータベースDB2を備えている。本実施の形態において、正常サンプルとは、特異部を含まない、換言すると、対象物が異常を有しないサンプルであり、良品に該当するサンプルである。また、異常サンプルとは、特異部を含む、換言すると、対象物が異常を有するサンプルであり、不良品に該当するサンプルである。 The evaluation system 10 includes an evaluation device including an imaging unit 12, a singular part detection unit 14, a singular part image extraction unit 16, an image data conversion unit 18, and a singular part presence / absence evaluation unit 20. Further, the evaluation system 10 further includes a server device connected to the singularity presence / absence evaluation unit 20 via the network N. The server device includes a database DB1 that stores images of normal samples and a database DB2 that stores images of abnormal samples. In the present embodiment, the normal sample is a sample that does not contain a singular part, in other words, the object does not have an abnormality, and is a sample corresponding to a non-defective product. Further, the abnormal sample is a sample containing a peculiar portion, in other words, a sample in which the object has an abnormality, and is a sample corresponding to a defective product.

撮像部12は、対象物の一部又は全部撮像し、画像を取得する。撮像部12は、例えば、ラインセンサ又はエリアセンサ等のイメージセンサ等から構成することができる。例えば、対象物が中心軸に対し回転対称に形成されるペットボトルのような形状を有する対象物の場合、ペットボトルを中心軸周りに回転させながら、ラインセンサで側面を撮像することにより、対象物の側面全体(「第1範囲」の一例)に対応する画像を取得することができる。本実施形態の場合、撮像部12はラインセンサから構成され、対象物の画像として、5000画素×5000画素の各画素について、8ビット(256階調)の輝度値(「濃度値」の一例)を有するグレースケールデータ(「第1形式の画像データ」の一例)を取得する。なお、撮像部12により対象物を撮像して画像を取得することに替えて、対象物の画像を格納するデータベース等から、対象物の画像を取得してもよい。また、撮像部12によりカラーデータを撮像し、これをグレースケールデータに変換することにより、1画素あたり1つの濃度値など、1つの指標により表現される第1形式の画像データを取得してもよい。例えば、ITU(International Telecommunication Union)が策定したBT.601("Studio encoding parameters of digital television for standard 4:3 and wide screen 16:9 aspect ratio")規格で規定される数式(RGBの輝度値の重み付け平均)に従って、カラーデータをグレースケールデータに変換することにより、第1形式の画像データを取得してもよい。ここで、第1形式の画像データは、各画素の違いが1つの指標によって表現される画像データである。このため、1つの画素が濃度値という単一の指標によって表現される場合の他、輝度、色相、彩度又は明度によって表現される画像データを第1形式の画像データとして用いてもよい。また、RGBデータなどであっても、RGBの各原色のうち2つの原色が固定された濃度値を有することにより、画像データを構成する各画素を、残り1つの原色が有する1つの濃度値で表現可能な画像データを、第1形式の画像データとして用いてもよい。更に、色相、彩度、明度の3つのパラメータにより表現される場合であっても、これら3つのパラメータのうちの2つのパラメータが固定され、残り1つのパラメータによって表現可能な画像データを、第1形式の画像データとして用いてもよい。 The imaging unit 12 captures a part or all of the object and acquires an image. The imaging unit 12 can be composed of, for example, an image sensor such as a line sensor or an area sensor. For example, in the case of an object having a shape like a PET bottle in which the object is formed rotationally symmetric with respect to the central axis, the object is imaged by a line sensor while rotating the PET bottle around the central axis. An image corresponding to the entire side surface of the object (an example of the "first range") can be acquired. In the case of the present embodiment, the imaging unit 12 is composed of a line sensor, and has an 8-bit (256 gradations) brightness value (an example of "density value") for each pixel of 5000 pixels x 5000 pixels as an image of an object. Grayscale data (an example of "image data of the first format") having the above is acquired. Instead of capturing the image of the object by the imaging unit 12 and acquiring the image, the image of the object may be acquired from a database or the like that stores the image of the object. Further, even if the color data is imaged by the imaging unit 12 and converted into grayscale data, the image data of the first format represented by one index such as one density value per pixel can be acquired. good. For example, the formula (weighting of RGB brightness value) specified in the BT.601 ("Studio encoding parameters of digital television for standard 4: 3 and wide screen 16: 9 aspect ratio") standard established by the ITU (International Telecommunication Union). The image data in the first format may be acquired by converting the color data into grayscale data according to (average). Here, the image data of the first format is image data in which the difference between each pixel is expressed by one index. Therefore, in addition to the case where one pixel is represented by a single index called a density value, image data represented by brightness, hue, saturation or lightness may be used as the image data of the first format. Further, even in the case of RGB data, by having two primary colors of each of the RGB primary colors have fixed density values, each pixel constituting the image data is set to one density value of the remaining one primary color. The image data that can be expressed may be used as the image data of the first format. Further, even when expressed by three parameters of hue, saturation, and lightness, two of these three parameters are fixed, and the image data that can be expressed by the remaining one parameter is the first. It may be used as image data in a format.

特異部検出部14は、撮像部12で取得された対象物の画像から、任意の特徴を持った特異部を検出する。ここで特異部とは、形状、輝度及び色の少なくとも一つの観点から、周囲の領域とは異なる特徴をもった部位のことをいう。特異部は、欠陥であってもよいし、人為的に設定されたマークやパターン等であってもよい。形状に関する特異部は、形状が有する特性(例えば、体積、面積、高さ、粒子径、アスペクト比、真円度、輪郭形状等)において、周囲の領域とは異なる特性を有する部分のことをいう。同様に、輝度については、明るさ、ヒストグラム等の輝度に関する特性において、色については、スペクトル、中心波長、最大波長等の色に関する特性において、周囲の領域とは異なる特性を有する部分のことをいう。本実施形態における特異部は、ペットボトル内部の液体中に含まれ得る塵、人毛及び容器の汚れ等である。 The singular part detection unit 14 detects a singular part having an arbitrary feature from the image of the object acquired by the imaging unit 12. Here, the singular part refers to a part having characteristics different from those of the surrounding area from the viewpoint of at least one of shape, brightness and color. The singular part may be a defect, or may be an artificially set mark, pattern, or the like. The singular part related to the shape is a part having characteristics different from the surrounding region in the characteristics (for example, volume, area, height, particle size, aspect ratio, roundness, contour shape, etc.) of the shape. .. Similarly, the luminance refers to a portion having characteristics related to luminance such as brightness and histogram, and the color refers to a portion having characteristics related to color such as spectrum, center wavelength and maximum wavelength which are different from those in the surrounding region. .. The peculiar part in the present embodiment is dust, human hair, dirt on the container, etc. that can be contained in the liquid inside the PET bottle.

特異部を検出する手法は、様々な方法を採用することが可能である。本実施形態における特異部検出部14は、例えば、第1範囲であるペットボトルの側面全体の画像として、各画素に対応して取得されたグレースケールデータを、適応的に設定された閾値を用いて二値化し、所定領域内に含まれる二値化データの画素数に応じて、特異部を検出する(「第1方法」の一例)。例えば、特異部検出部14は、所定の対象画素を中心とする所定の周辺領域に含まれる複数の画素の輝度の平均値を取得する。次に、中心とされた対象画素の輝度と、算出された輝度の平均値との差分を取得する。この差分の値が、予め定められた所定の閾値を上回るか否かに基づいて、対象画素を二値化する処理実行し、これを各画素について繰り返す。このように、周囲の画素に基づいて閾値を設定することにより、ペットボトルに含まれる液体の色など、背景部分の影響を抑え、より精度良く特異部を検出することが可能になる。そして特異部検出部14は、所定領域内に含まれる黒画素(又は白画素)の数が所定個以上である場合に、特異部が存在する可能性があると判断する。なお、閾値の設定方法や特異部の検出手法は、評価目的に応じて適宜選択可能である。例えば、なるべく検出漏れを抑制したい場合、閾値を小さく設定し、特異部を検出されやすくすることができる。 Various methods can be adopted as the method for detecting the singular part. The singular part detection unit 14 in the present embodiment uses, for example, grayscale data acquired corresponding to each pixel as an image of the entire side surface of the PET bottle, which is the first range, using an adaptively set threshold value. And binarize, and detect the singular part according to the number of pixels of the binarized data included in the predetermined area (an example of the "first method"). For example, the singularity detection unit 14 acquires the average value of the brightness of a plurality of pixels included in a predetermined peripheral region centered on a predetermined target pixel. Next, the difference between the brightness of the target pixel as the center and the calculated average value of the brightness is acquired. Based on whether or not the value of this difference exceeds a predetermined threshold value, a process of binarizing the target pixel is executed, and this is repeated for each pixel. By setting the threshold value based on the surrounding pixels in this way, it is possible to suppress the influence of the background portion such as the color of the liquid contained in the PET bottle and detect the singular portion more accurately. Then, the singular part detection unit 14 determines that the singular part may exist when the number of black pixels (or white pixels) included in the predetermined area is a predetermined number or more. The threshold value setting method and the singularity detection method can be appropriately selected according to the evaluation purpose. For example, when it is desired to suppress detection omission as much as possible, the threshold value can be set small so that the singular portion can be easily detected.

また、特異部を検出する手法は、特異部の特徴に応じて様々な手法を採用することが可能である。例えば、特異部が特徴的な幾何学形状を有することが予めわかっている場合、その形状のパターンマッチングによって、特異部を検出するように特異部検出部14を構成してもよい。 Further, as a method for detecting the singular part, various methods can be adopted depending on the characteristics of the singular part. For example, when it is known in advance that the singular portion has a characteristic geometric shape, the singular portion detecting unit 14 may be configured to detect the singular portion by pattern matching of the shape.

特異部画像抽出部16は、ペットボトルの側面全体である第1範囲から、特異部検出部14で検出された特異部の全部又は一部を含む領域(「第2範囲」の一例)を抽出する。本実施形態においては、特異部検出部14で検出された特異部を含む256画素×256画素の領域を特異部画像として抽出する。抽出される領域及びそれに対応する特異部画像の数は、0個の場合もあるし、複数個の場合もある。 The singular part image extraction unit 16 extracts a region (an example of the “second range”) including all or a part of the singular part detected by the singular part detection unit 14 from the first range which is the entire side surface of the PET bottle. do. In the present embodiment, a region of 256 pixels × 256 pixels including the singular part detected by the singular part detecting unit 14 is extracted as a singular part image. The number of the extracted region and the corresponding singular part image may be 0 or may be plural.

画像データ変換部18は、画像に含まれる各画素の色彩の違いを1画素あたり1つの指標によって表現する第1形式の画像データを、各画素の色彩の違いを1画素あたり複数の指標によって表現する第2形式の画像データに変換する。 The image data conversion unit 18 expresses the image data of the first format in which the difference in color of each pixel included in the image is expressed by one index per pixel, and the difference in color of each pixel is expressed by a plurality of indexes per pixel. It is converted into the image data of the second format.

本実施形態において、画像データ変換部18は、グレースケールデータ等、1画素あたり1つの濃度値を有する第1形式の画像データを、各8ビットのRGBのカラーデータ(以下、「RGBデータ」という。)等、1画素あたり複数の濃度値を有する第2形式の画像データに変換する。例えば、濃い灰色を表現する所定のグレースケールデータであって、169の輝度値を有する画像データは、RGBデータ、CMYデータ、において、例えば、169、169、169という3つの輝度値を有するように変換されることができる。このように、1つの指標を有するグレースケールを複数の指標を有するカラーデータに変換する場合に、例えば、グレースケールデータが有する1つの指標としての輝度を、カラーデータを表現する3つの原色の輝度として用いることで、カラーデータを得ることができる。同様に、特異部画像抽出部16は、第2範囲に含まれる各画素について、所定の変換テーブル、変換行列、変換式又は変換マップ等を用いて、元のグレースケールデータを、これと同一又は近似のRGBデータに変換する。以上のようにして、画像データ変換部18は、1又は複数の第2範囲について、1画素あたり複数の濃度値を有する第2形式の画像データを生成する。なお、第1形式の画像データの各画素が、例えば、HSVに対応する色相、彩度、明度のうちの1つのパラメータによって表現されている場合には、HSV表現とRGB表現との公知の換算式を用いることにより、第1形式の画像データを第2形式の画像データに変換してよい。 In the present embodiment, the image data conversion unit 18 refers to image data of the first format having one density value per pixel, such as grayscale data, as 8-bit RGB color data (hereinafter, “RGB data”). ) Etc., it is converted into image data of a second format having a plurality of density values per pixel. For example, the predetermined grayscale data expressing dark gray and the image data having a luminance value of 169 has three luminance values of, for example, 169, 169, and 169 in the RGB data and the CMY data. Can be converted. In this way, when the gray scale having one index is converted into the color data having a plurality of indexes, for example, the brightness as one index of the gray scale data is changed to the brightness of the three primary colors expressing the color data. Color data can be obtained by using as. Similarly, the singular part image extraction unit 16 uses a predetermined conversion table, transformation matrix, conversion formula, conversion map, or the like for each pixel included in the second range to obtain the same or the original grayscale data. Convert to approximate RGB data. As described above, the image data conversion unit 18 generates image data of the second format having a plurality of density values per pixel for one or a plurality of second ranges. When each pixel of the image data of the first format is represented by, for example, one parameter of hue, saturation, and lightness corresponding to HSV, a known conversion between the HSV representation and the RGB representation. By using the formula, the image data of the first format may be converted into the image data of the second format.

本実施の形態における評価方法は、第2の方法が適用され、第2範囲に対応する第2形式の画像データのデータ量が、第1の方法が適用され、第1範囲に対応する第1形式の画像データよりも小さくなるように構成されている。より具体的には、本実施の形態における評価方法は、第2範囲に対応する第2形式の画像データの各画素が有するデータ量が、第1範囲に対応する第1形式の画像データの各画素が有するデータ量よりも多くなるようにし、かつ、第2範囲に対応する第2形式の画像データの大きさ(画素数)が、第1形式の画像データのそれよりも小さくなるように構成されている。このとき、第2形式の画像データの各画素が有するデータ量の増加分よりも、第2範囲の大きさを第1範囲よりも小さくすることによるデータ量の削減分が上回るようにする。このような演算処理により、第2範囲に対応する第2形式の画像データであって、第1範囲に対応する第1形式の画像データよりもデータ量が小さい第2形式の画像データを得る。 As the evaluation method in the present embodiment, the second method is applied, and the amount of image data of the second format corresponding to the second range is the first method to which the first method is applied and corresponds to the first range. It is configured to be smaller than the image data in the format. More specifically, in the evaluation method in the present embodiment, the amount of data possessed by each pixel of the image data of the second format corresponding to the second range is each of the image data of the first format corresponding to the first range. The amount of data is larger than the amount of data possessed by the pixels, and the size (number of pixels) of the image data of the second format corresponding to the second range is smaller than that of the image data of the first format. Has been done. At this time, the reduction in the amount of data by making the size of the second range smaller than that in the first range exceeds the increase in the amount of data possessed by each pixel of the image data of the second format. By such arithmetic processing, the image data of the second format corresponding to the second range and the image data of the second format having a smaller amount of data than the image data of the first format corresponding to the first range can be obtained.

特異部有無評価部20は、機械学習を用いて生成されたモデルに基づいて、第2範囲内に特異部が含まれているか否かを評価する。本実施形態では、特異部有無評価部20は、畳み込みニューラルネットワークを備える。畳み込みニューラルネットワークは、第2範囲について第2形式の画像データを入力するための入力層と、特異部の有無を出力するための出力層と、両層を結合する中間層を備える。中間層は、フィルターをスライドさせて重複部分の積和を特徴量として算出する畳み込み演算を行って特徴量を有するマップを生成する畳み込み層と、畳み込み層から出力された二次元配列データの最大値を抽出するプーリング層との組み合わせを複数備え、内部パラメータを重み係数として結合して出力層に評価結果を提供する結合層とを備える。なお、ニューラルネットワークは、畳み込みニューラルネットワーク(Convolutional Neural Network)の他、RNN(Recurrent Neural Network)、Elman network、Jordan network、ESN(Echo State Network)、LSTM(Long Short Term Memory network)、BRNN(Bi-directional RNN)などから構成することができる。また、出力層は、特異部の有無という2種類の結果を出力する場合に限られない。例えば、特異部の種類に応じて3種類以上の結果を出力するように構成してもよく、特定の画素または特定の画素の集合体が、特異部に該当するかに関する数値情報を出力するように構成してもよい。 The singular part presence / absence evaluation unit 20 evaluates whether or not the singular part is included in the second range based on the model generated by using machine learning. In the present embodiment, the singular part presence / absence evaluation unit 20 includes a convolutional neural network. The convolutional neural network includes an input layer for inputting image data of the second format for the second range, an output layer for outputting the presence / absence of a singular portion, and an intermediate layer connecting both layers. The intermediate layer is a convolution layer that generates a map with features by performing a convolution operation that calculates the sum of products of overlapping parts as a feature by sliding the filter, and the maximum value of the two-dimensional array data output from the convolution layer. It is provided with a plurality of combinations with a pooling layer for extracting the data, and is provided with a coupling layer that combines internal parameters as weighting coefficients and provides an evaluation result to the output layer. In addition to the convolutional neural network, the neural network includes RNN (Recurrent Neural Network), Elman network, Jordan network, ESN (Echo State Network), LSTM (Long Short Term Memory network), and BRNN (Bi-). It can be composed of directional RNN) and so on. Further, the output layer is not limited to the case of outputting two types of results, that is, the presence or absence of a singular portion. For example, it may be configured to output three or more types of results depending on the type of the singular part, and numerical information regarding whether a specific pixel or a collection of specific pixels corresponds to the singular part is output. It may be configured as.

サーバ装置は、正常な対象物のサンプル画像を格納するデータベースDB1及び異常な対象物のサンプル画像を格納するデータベースDB2を備えている。データベースDB1は、特異部を含まない第2形式の画像データを格納する。本実施形態では、データベースDB1は、対象物であるペットボトルの側面を撮像して取得される、224画素×224画素の特異部を含まないRGBデータを格納する。例えば、ペットボトルの容器に収容される液体が炭酸を含む場合、気泡は、特異部ではない。このため、データベースDB1は、特異部を含まない画像データとして、気泡を含むRGBデータを格納する。 The server device includes a database DB1 that stores a sample image of a normal object and a database DB2 that stores a sample image of an abnormal object. The database DB1 stores image data in a second format that does not include a singular part. In the present embodiment, the database DB1 stores RGB data that does not include a singular portion of 224 pixels × 224 pixels, which is acquired by imaging the side surface of the PET bottle that is the object. For example, if the liquid contained in the PET bottle container contains carbonic acid, the bubbles are not singular parts. Therefore, the database DB1 stores RGB data including bubbles as image data that does not include a singular portion.

データベースDB2は、特異部を含む第2形式の画像データを格納する。本実施形態では、データベースDB2は、対象物であるペットボトルの側面を撮像して取得される、224画素×224画素の特異部の全部又は一部を含むRGBデータである。特異部は、例えば、人毛、塵、容器の汚れである。従って、データベースDB2は、人毛を含む複数のRGBデータ、塵を含む複数のRGBデータ、容器の汚れを含む複数のRGBデータをそれぞれ格納する。これらデータベースDB1及びデータベースDB2に格納される画像データの生成方法については後述する。 The database DB2 stores the image data of the second format including the singular part. In the present embodiment, the database DB2 is RGB data including all or a part of a singular portion of 224 pixels × 224 pixels acquired by imaging the side surface of the PET bottle which is an object. The peculiar part is, for example, human hair, dust, and dirt on the container. Therefore, the database DB2 stores a plurality of RGB data including human hair, a plurality of RGB data including dust, and a plurality of RGB data including dirt on the container. The method of generating the image data stored in the database DB1 and the database DB2 will be described later.

特異部有無評価部20は、データベースDB1及びデータベースDB2に格納される第2形式の画像データを教師データとして学習することにより、特異部の有無を評価するための内部パラメータを含む学習済みモデルを取得している。内部パラメータは、例えば、畳み込み層におけるバイアス値、結合層における重み付け係数等である。教師データを追加することにより内部パラメータは、変動する。 The singular part presence / absence evaluation unit 20 acquires a trained model including internal parameters for evaluating the presence / absence of the singular part by learning the image data of the second format stored in the database DB1 and the database DB2 as teacher data. doing. The internal parameters are, for example, a bias value in the convolution layer, a weighting coefficient in the connection layer, and the like. Internal parameters fluctuate with the addition of teacher data.

本実施の形態における学習済みモデルは、所定の大きさの入力画像に含まれる特異部の有無に関する情報を出力するように構成された学習済みモデルである。本実施の形態における学習済みモデルは、複数の第2形式の画像データのそれぞれに対して特異部の有無がラベル付けされた教師データを用いた機械学習により生成される。なお、学習済みモデルは、入力画像に含まれる特異部の有無に関する情報および/または特異部の種別に関する情報を出力するようにしてもよい。このような学習済みモデルは、複数の第2形式の画像データのそれぞれに対して、特異部の有無および/または特異部の種別がラベル付けされた教師データを用いた機械学習により生成される。 The trained model in the present embodiment is a trained model configured to output information regarding the presence or absence of a singular portion included in an input image of a predetermined size. The trained model in the present embodiment is generated by machine learning using teacher data in which the presence or absence of a singular part is labeled for each of the plurality of second-format image data. The trained model may output information regarding the presence / absence of a singular portion included in the input image and / or information regarding the type of the singular portion. Such a trained model is generated by machine learning using teacher data in which the presence / absence of a singular part and / or the type of the singular part is labeled for each of the plurality of second-format image data.

図2は、評価システム10を構成する評価装置を実現するためのハードウェア構成を示すブロック図である。撮像部12は、上述したとおり、対象物を撮像して対象物の第1範囲に対応する第1画像を取得するものであり、例えば、ラインカメラから構成される。プロセッサ22は、記憶部24に記憶されたコンピュータプログラム(特異部有無の評価を行うための学習済みモデルを含む。)を実行して、本実施形態に示される各演算処理を実行する。従って、プロセッサ22及び記憶部24は、協働して、特異部検出部14、特異部画像抽出部16、画像データ変換部18及び特異部有無評価部20として機能する。プロセッサ22は、例えば、複数の演算コアを備えるASIC(Application Specific Integrated Circuit)、GPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)又は量子コンピュータ等から構成される。記憶部24は、本実施形態に示される各演算処理を実行するためのコンピュータプログラム(特異部有無の評価を行うための学習済みモデルを含む。)を含む各命令その他の情報を記憶する。記憶部24は、NANDフラッシュメモリ、FeRAM、MRAM等の電気的に情報を記録及び読取可能な不揮発性半導体記憶素子(一時的でない記憶素子)又はHDD(Hard Disc Drive)等の磁気記憶素子から構成される。RAM26は、本実施形態に示される各演算処理等のために使用するデータその他の情報を一次記憶するためのSRAM(Static Random Access Memory)及びDRAM(Dynamic Random Access Memory)等の揮発性半導体記憶素子から構成される。表示部28は、プロセッサ22による演算結果を表示するためのディスプレイを備える。演算結果は、特異部有無評価部20による評価結果を含む。通信I/F部30は、ネットワークNを介して、データベースDB1及びデータベースDB2に接続され、データベースDB1及びデータベースDB2から情報を受け取ることができる。入力部32は、評価者が評価システム10に情報を入力するためのキーボード等の入力機器を備える。これら各構成は、バスを介して相互にデータ送受信可能に接続される。ただし、一部構成は、ネットワークNを介して遠隔地に設けられてもよいし、他の構成と一体化されてもよい。また、プロセッサ22によって実行される機能の一部は、撮像部12等、他の構成によって実行されてもよい。 FIG. 2 is a block diagram showing a hardware configuration for realizing an evaluation device constituting the evaluation system 10. As described above, the imaging unit 12 captures an object and acquires a first image corresponding to the first range of the object, and is composed of, for example, a line camera. The processor 22 executes a computer program (including a trained model for evaluating the presence / absence of a singular part) stored in the storage unit 24, and executes each arithmetic process shown in the present embodiment. Therefore, the processor 22 and the storage unit 24 cooperate with each other to function as the singular part detection unit 14, the singular part image extraction unit 16, the image data conversion unit 18, and the singular part presence / absence evaluation unit 20. The processor 22 is composed of, for example, an ASIC (Application Specific Integrated Circuit) having a plurality of arithmetic cores, a GPU (Graphics Processing Unit), an FPGA (Field Programmable Gate Array), a quantum computer, or the like. The storage unit 24 stores each instruction and other information including a computer program (including a learned model for evaluating the presence / absence of a singular part) for executing each arithmetic processing shown in the present embodiment. The storage unit 24 is composed of a non-volatile semiconductor storage element (non-temporary storage element) such as a NAND flash memory, FeRAM, or MRAM that can electrically record and read information, or a magnetic storage element such as an HDD (Hard Disc Drive). Will be done. The RAM 26 is a volatile semiconductor storage element such as a SRAM (Static Random Access Memory) and a DRAM (Dynamic Random Access Memory) for primary storage of data and other information used for each arithmetic processing and the like shown in the present embodiment. Consists of. The display unit 28 includes a display for displaying the calculation result by the processor 22. The calculation result includes the evaluation result by the singular part presence / absence evaluation unit 20. The communication I / F unit 30 is connected to the database DB1 and the database DB2 via the network N, and can receive information from the database DB1 and the database DB2. The input unit 32 includes an input device such as a keyboard for the evaluator to input information into the evaluation system 10. Each of these configurations is connected to each other via a bus so that data can be transmitted and received. However, a partial configuration may be provided at a remote location via the network N, or may be integrated with another configuration. Further, a part of the functions executed by the processor 22 may be executed by another configuration such as the imaging unit 12.

以上のような評価システム10を用いた特異部の評価方法について説明する。図3は、本実施形態に示される評価方法のフローチャートである。 The evaluation method of the singular part using the evaluation system 10 as described above will be described. FIG. 3 is a flowchart of the evaluation method shown in the present embodiment.

まず、撮像部12は、対象物を撮像する。具体的には、対象物であるペットボトルを中心軸周りに回転させながら、撮像部12のラインカメラによってペットボトルの側面を撮像して、第1範囲に対応する第1画像を撮像する。本実施形態において、撮像部12は、第1範囲に対応する第1画像として5000画素×5000画素の画像を撮像する。また、本実施形態において、撮像部12は、5000画素×5000画素の各画素について、8ビット(256階調)の輝度値を有するグレースケールデータを第1画像として取得する(ステップS1)。ここで、ペットボトルの容器は、透光性を有する。このため、撮像部12は、ペットボトルの容器及びその内部に収容される液体の画像を取得する。 First, the imaging unit 12 images an object. Specifically, while rotating the PET bottle, which is an object, around the central axis, the side surface of the PET bottle is imaged by the line camera of the imaging unit 12, and the first image corresponding to the first range is imaged. In the present embodiment, the imaging unit 12 captures an image of 5000 pixels × 5000 pixels as the first image corresponding to the first range. Further, in the present embodiment, the imaging unit 12 acquires grayscale data having a brightness value of 8 bits (256 gradations) as a first image for each pixel of 5000 pixels × 5000 pixels (step S1). Here, the container of the PET bottle has translucency. Therefore, the imaging unit 12 acquires an image of the PET bottle container and the liquid contained therein.

次いで、特異部検出部14は、撮像部12によって取得されたペットボトルの側面の画像から、特異部を検出する(ステップS2)。具体的には、各画素に対応して取得されたグレースケールデータを、適応的に設定された閾値を用いて二値化し、所定領域内に含まれる閾値を越えた画素数が所定個以上である場合に、特異部を検出する。 Next, the singular part detection unit 14 detects the singular part from the image of the side surface of the PET bottle acquired by the imaging unit 12 (step S2). Specifically, the grayscale data acquired corresponding to each pixel is binarized using an adaptively set threshold value, and the number of pixels exceeding the threshold value included in the predetermined area is a predetermined number or more. In some cases, the singular part is detected.

次いで、特異部検出部14は、撮像部12によって取得されたペットボトルの側面の画像内に特異部が検出されたか否か判断する(ステップS3)。本実施形態において、特異部検出部14は、ルールベースの画像処理によって第1範囲に対応する第1画像に含まれる特異部を検出する。 Next, the singular part detection unit 14 determines whether or not the singular part is detected in the image of the side surface of the PET bottle acquired by the imaging unit 12 (step S3). In the present embodiment, the singular part detection unit 14 detects the singular part included in the first image corresponding to the first range by rule-based image processing.

特異部が検出されず、従って、特異部を含む第2範囲が抽出されなかった場合(NO)、その対象物について検査は終了する。なお、特異部が検出されなかった対象物について簡易の目視検査を実行してもよい。 If the singular part is not detected and therefore the second range containing the singular part is not extracted (NO), the inspection for the object ends. A simple visual inspection may be performed on the object in which the singular part is not detected.

特異部が検出された場合(YES)、特異部画像抽出部16は、第1範囲に対応する第1画像(本実施の形態では撮像部12によって撮像された画像)から、特異部検出部14によって検出された特異部の全部又は一部を含む領域を抽出する(ステップS4)。具体的には、特異部画像抽出部16は、特異部検出部14で検出された一又は複数の特異部を含む256画素×256画素の領域を特異部画像として抽出する。図4Aは、撮像部12によって取得されたペットボトルの側面に相当する第1範囲AR1と、第1範囲AR1に相当する第1形式の画像データから抽出された3つの第2範囲AR2乃至AR4を示す。図4B乃至図4Dは、第2範囲AR2乃至AR4及びそれに含まれる特異部候補C2乃至C4の画像を示している。なお、複数の第2範囲は、一部が互いに重複するように抽出されてもよい。これにより、第1範囲に対応する第1画像のうち、所定の画像処理によって特異部が存在する領域の絞込が行われる。 When the singular part is detected (YES), the singular part image extracting unit 16 starts with the singular part detecting unit 14 from the first image corresponding to the first range (the image captured by the imaging unit 12 in the present embodiment). A region containing all or part of the singular part detected by is extracted (step S4). Specifically, the singular part image extraction unit 16 extracts a region of 256 pixels × 256 pixels including one or a plurality of singular parts detected by the singular part detection unit 14 as a singular part image. FIG. 4A shows a first range AR1 corresponding to the side surface of the PET bottle acquired by the imaging unit 12, and three second ranges AR2 to AR4 extracted from the image data of the first format corresponding to the first range AR1. show. 4B to 4D show images of the second range AR2 to AR4 and the singular part candidates C2 to C4 included therein. The plurality of second ranges may be extracted so that some of them overlap with each other. As a result, in the first image corresponding to the first range, the region where the singular portion exists is narrowed down by a predetermined image processing.

次いで、画像データ変換部18は、第2範囲AR2乃至AR4に相当する各画素のグレースケールデータを、RGBデータに変換し、第2範囲AR2乃至AR4に相当する各画素のRGBデータを生成する(ステップS5)。 Next, the image data conversion unit 18 converts the grayscale data of each pixel corresponding to the second range AR2 to AR4 into RGB data, and generates RGB data of each pixel corresponding to the second range AR2 to AR4 ( Step S5).

次いで、特異部有無評価部20は、機械学習を用いて生成された学習済みモデルに基づいて、第2範囲内に特異部が含まれているか否かを評価する(ステップS6)。 Next, the singular part presence / absence evaluation unit 20 evaluates whether or not the singular part is included in the second range based on the trained model generated by using machine learning (step S6).

いずれの第2範囲AR2乃至AR4にも、特異部が含まれていないと評価された場合(NO)、その対象物について特異部が無いと評価され、検査は終了する。なお、特異部が無いと評価された対象物について簡易の目視検査を実行してもよい。 When it is evaluated that no singular part is contained in any of the second ranges AR2 to AR4 (NO), it is evaluated that there is no singular part for the object, and the inspection is completed. A simple visual inspection may be performed on the object evaluated as having no singular part.

いずれかの第2範囲AR2乃至AR4に特異部が含まれていると評価された場合(YES)、その旨の情報を出力し、検査者による目視検査を促す。これにより、検査者による目視検査を行う(ステップS7)。このとき、表示部28は、図4Aに示されるように、第1範囲AR1と、特異部が含まれていると評価された第2範囲(例えば、第2範囲AR3及び第2範囲AR4)の第1範囲AR1内における位置を表示するように構成される。このように構成することで、検査者は、特異部が含まれていると評価された領域を容易に特定することができる。このため、目視による検査時間を低減することが可能になる。なお、特異部が含まれていると評価された第2範囲の第1範囲AR1内における位置を表示しない場合、検査者は、広範囲にわたり、実際に特異部が含まれているか定かでない領域を検査しなければならない。 When it is evaluated that any of the second ranges AR2 to AR4 contains a singular portion (YES), information to that effect is output to encourage the inspector to perform a visual inspection. As a result, a visual inspection is performed by an inspector (step S7). At this time, as shown in FIG. 4A, the display unit 28 includes the first range AR1 and the second range (for example, the second range AR3 and the second range AR4) evaluated to include the singular part. It is configured to display a position within the first range AR1. With this configuration, the inspector can easily identify the region evaluated as containing the singular part. Therefore, it is possible to reduce the visual inspection time. When the position in the first range AR1 of the second range evaluated to contain the singular part is not displayed, the inspector inspects a wide area where it is uncertain whether the singular part is actually included. Must.

検査者は、特異部が含まれていると評価された第2範囲に、実際に特異部が含まれていたか否かを判断する。このとき検査者は、特異部が含まれていると評価された第2範囲に特異部が実際に含まれていたか否かを示す情報を入力部32を用いて入力することができる。入力された情報及び対応する第2範囲のRGBデータは、教師データとして、データベースDB1又はデータベースDB2に格納されるように構成することができる。 The inspector determines whether or not the singular part was actually included in the second range evaluated as containing the singular part. At this time, the inspector can input information indicating whether or not the singular portion is actually included in the second range evaluated to include the singular portion by using the input unit 32. The input information and the corresponding RGB data in the second range can be configured to be stored in the database DB1 or the database DB2 as teacher data.

以上のような評価システム10及び評価方法によれば、第2形式の画像データと比較して情報量の少ない第1形式の画像データを用いて、機械学習による第2方法の評価対象領域を抽出するため、第2範囲の抽出の画像処理に要する演算量を抑え、その結果、演算時間を短縮することが可能になる。また、第2範囲以外の画像データを削減することが可能になる。機械学習による第2方法の評価にあたっては、必要な情報が付加され、情報量の多い第2形式の画像データを用いるから、評価精度を維持又は向上することが可能になる。従って、特異部の検出精度を維持又は向上しつつ、多数の対象物について、特異部の有無を迅速に評価することが可能になる。 According to the evaluation system 10 and the evaluation method as described above, the evaluation target area of the second method by machine learning is extracted by using the image data of the first format, which has a smaller amount of information than the image data of the second format. Therefore, the amount of calculation required for the image processing of the extraction of the second range can be suppressed, and as a result, the calculation time can be shortened. In addition, it is possible to reduce image data other than the second range. In the evaluation of the second method by machine learning, necessary information is added and the image data of the second format having a large amount of information is used, so that the evaluation accuracy can be maintained or improved. Therefore, it is possible to quickly evaluate the presence or absence of the singular part in a large number of objects while maintaining or improving the detection accuracy of the singular part.

また、本実施の形態における評価方法では、第2の方法として、教師データ(訓練データ)に基づいて、入力データに対する推定ルールを自律的に生成可能な、機械学習により得られたモデルを用いる方法を採用する。さらに、機械学習に用いる訓練データとして、第1形式の画像データと比較して各画素の違いを示すデータ量が多い第2形式の画像データを用いる。これにより、以下の図5に基づいて説明するように、特異部の見逃し率、及び、過検出率をいずれも低減することができる。 Further, in the evaluation method in the present embodiment, as a second method, a method using a model obtained by machine learning that can autonomously generate an estimation rule for input data based on teacher data (training data). Is adopted. Further, as the training data used for machine learning, the image data of the second format, which has a larger amount of data indicating the difference between the pixels than the image data of the first format, is used. Thereby, as described with reference to FIG. 5 below, both the oversight rate and the overdetection rate of the singular portion can be reduced.

また、第2形式の画像データは、第1形式の画像データよりも画素数の少ない画像データ(より典型的には、大きさ範囲の小さい画像データ)とすることで、各画素のデータ量は増加しながらも、第1形式の画像データからのデータ量の総量を少なくするようにしている。これにより、第2の方法を適用して第2の画像に含まれる特異部の評価の精度を向上させながら、学習済みモデルを生成するのにかかる時間(学習時間)の過度な増大を防止することができる。 Further, the image data of the second format is image data having a smaller number of pixels than the image data of the first format (more typically, image data having a smaller size range), so that the amount of data of each pixel can be increased. While increasing, the total amount of data from the image data of the first format is reduced. This prevents an excessive increase in the time (learning time) required to generate the trained model while improving the accuracy of the evaluation of the singular part contained in the second image by applying the second method. be able to.

特に、本実施の形態における評価方法を製造ラインに実装して製品検査に用いることを想定すると、製造対象の製品のロット変更や型式変更に臨機応変に対応すべく、学習済みモデルを生成するための時間は短いことが好ましい。上記のように、学習時間の増大を抑制することで、製造ラインへの実装に適した評価方法を実現することができる。 In particular, assuming that the evaluation method in the present embodiment is implemented on a production line and used for product inspection, a trained model is generated in order to flexibly respond to a lot change or a model change of a product to be manufactured. The time is preferably short. As described above, by suppressing the increase in learning time, it is possible to realize an evaluation method suitable for mounting on a production line.

なお、上述した効果をさらに高める観点から、第1の方法としては、製造対象の製品のロット変更や型式変更に応じて変更すべき要素が少なく、また、データ量の大きい画像処理にも適用可能なルールベースの画像処理方法を用いることが、好ましい。 From the viewpoint of further enhancing the above-mentioned effect, as the first method, there are few elements to be changed according to the lot change or model change of the product to be manufactured, and it can be applied to image processing with a large amount of data. It is preferable to use a rule-based image processing method.

図5は、特異部有無評価部20を用いて、5000個以上の対象物について、グレースケールデータで特異部の有無を評価した場合と、RGBデータで特異部の有無を評価した場合における特異部の見逃し率及び過検出率を示すグラフである。 FIG. 5 shows a case where the presence / absence of a singular part is evaluated by grayscale data and a case where the presence / absence of a singular part is evaluated by RGB data for 5000 or more objects using the singular part presence / absence evaluation unit 20. It is a graph which shows the overlook rate and the over-detection rate of.

グレースケールデータで特異部の有無を評価した場合、特異部が存在するにもかかわらず、特異部が無いと評価される見逃し率が0.05%存在した。一方で、RGBデータで特異部の有無を評価した場合、特異部が存在するにもかかわらず、特異部が無いと評価される見逃し率をゼロにすることができた。大量に生産される対象物のうちの1個のみに特異部が存在したとしても大きな問題に生じる可能性があるところ、本実施形態に係る評価システム10及び評価方法を使用することにより、特異部の見逃し率をゼロにすることができた。その理由は、機械学習を用いて取得された第2方法による評価を実行する際に、情報量の多い第2形式の画像データを用いたためであると推察される。一方で、第1方法を実行する際は、情報量の少ない第1形式の画像データを用いることで、演算時間を短縮することが可能になる。また、特異部が無いにも関わらず特異部が有ると評価される過検出率も、グレースケールデータの場合、約5.6%であった一方で、RGBデータの場合、約3.6%と大きく減少した。過検出がなされると、長大な時間を要する目視検査を実行するため、過検出を減少することによって、大幅に評価時間を短縮することが可能になる。このように、見逃し率、過検出率ともに向上することが確認された。 When the presence or absence of the singular part was evaluated using grayscale data, there was an oversight rate of 0.05%, which was evaluated as having no singular part, even though the singular part was present. On the other hand, when the presence or absence of the singular part was evaluated using RGB data, the oversight rate evaluated as having no singular part could be set to zero even though the singular part was present. Even if a singular part is present in only one of the objects to be mass-produced, a big problem may occur. However, by using the evaluation system 10 and the evaluation method according to the present embodiment, the singular part is used. I was able to reduce the oversight rate to zero. It is presumed that the reason is that the image data of the second format having a large amount of information was used when performing the evaluation by the second method acquired by using machine learning. On the other hand, when executing the first method, it is possible to shorten the calculation time by using the image data of the first format having a small amount of information. In addition, the over-detection rate evaluated as having a singular part even though there is no singular part was about 5.6% in the case of grayscale data, while it was about 3.6% in the case of RGB data. It decreased greatly. When over-detection is performed, a long-time visual inspection is performed, so that the evaluation time can be significantly shortened by reducing the over-detection. In this way, it was confirmed that both the oversight rate and the overdetection rate were improved.

また、本実施形態では、第1形式の画像データに基づいて第2形式の画像データを生成するようにしたから、第1方法で第2範囲が抽出されないときに第2形式の画像データを生成する必要がなくなる。また、第1方法で実行された画像処理後の画像データを利用して第2形式の画像データを生成するから、第2方法を実行する際に、同様の画像処理を省略又は簡略化することが可能になる。このため、演算時間を一層短縮することが可能になる。このため、大量の対象物を効率的に評価することが可能になる。 Further, in the present embodiment, since the image data of the second format is generated based on the image data of the first format, the image data of the second format is generated when the second range is not extracted by the first method. You don't have to. Further, since the image data of the second format is generated by using the image data after the image processing executed by the first method, the same image processing may be omitted or simplified when the second method is executed. Becomes possible. Therefore, the calculation time can be further shortened. Therefore, it is possible to efficiently evaluate a large number of objects.

なお、撮像部12により撮像される領域を通過するように複数の対象物を移動させながら撮像することにより、複数の対象物を同時に撮像可能としてもよい。これによれば、複数の対象物を効率的に評価可能となる。その際、中心軸周りに対象物を回転させながら移動させることにより、側面全体を評価可能に評価システム10を構成してもよい。また、第1の対象物について、撮像部12、特異部検出部14を用いて、撮像及び特異部の検出を実行しながら、同時に、他の対象物について、特異部有無評価部20を用いて特異部の有無の評価を実行してもよい。例えば、特異部検出部14を用いて検出された特異部を含む第2画像について、順に、特異部有無評価部20を用いて特異部の有無の評価を実行することで、特異部の検出と特異部の有無の評価とを並行して実行してよい。 It should be noted that the plurality of objects may be simultaneously imaged by taking an image while moving the plurality of objects so as to pass through the region to be imaged by the imaging unit 12. According to this, it becomes possible to efficiently evaluate a plurality of objects. At that time, the evaluation system 10 may be configured so that the entire side surface can be evaluated by moving the object while rotating it around the central axis. Further, for the first object, the imaging unit 12 and the singular part detection unit 14 are used to perform imaging and detection of the singular part, and at the same time, for the other object, the singular part presence / absence evaluation unit 20 is used. Evaluation of the presence or absence of singularities may be performed. For example, with respect to the second image including the singular part detected by the singular part detection unit 14, the singular part is detected by sequentially evaluating the presence or absence of the singular part by using the singular part presence / absence evaluation unit 20. The evaluation of the presence or absence of the singular part may be performed in parallel.

[教師データの生成方法]
以下、データベースDB1及びデータベースDB2に格納する教師データの生成方法について説明する。
[How to generate teacher data]
Hereinafter, a method of generating teacher data stored in the database DB1 and the database DB2 will be described.

図6Aは、図4Cに示される第2範囲AR3に相当する画像(「第3画像」の一例)のRGBデータに基づいて教師データを生成する方法を説明する模式図である。上述したように、第2範囲AR3は、256画素×256画素の領域を有し、特異部候補C2を含む特異部画像である。なお、教師データを生成するための元画像である第3画像は、必ずしも、第2範囲AR3と同じ大きさでなくてもよい。例えば、第2範囲AR3より大きい画像に基づいて教師データを生成してもよい。 FIG. 6A is a schematic diagram illustrating a method of generating teacher data based on RGB data of an image (an example of a “third image”) corresponding to the second range AR3 shown in FIG. 4C. As described above, the second range AR3 is a singular part image having a region of 256 pixels × 256 pixels and including the singular part candidate C2. The third image, which is the original image for generating the teacher data, does not necessarily have to be the same size as the second range AR3. For example, teacher data may be generated based on an image larger than the second range AR3.

本実施形態において、教師データは、第2範囲AR3から、第2範囲AR3よりも小さく、かつ、特異部候補C3の位置が異なる4つの第4画像を切り出すことによって生成される。具体的には、1つ目の第4画像として、第2範囲AR3の頂点V1を頂点とする228画素×228画素の範囲の画像を切り出す。この第4画像は、同図に示される頂点V1及び頂点V7を対角の頂点とし、かつ、特異部候補C3を含む画像である。同様に2つ目の第4画像として、第2範囲AR3の頂点V2及び頂点V8を対角の頂点とし、3つ目の第4画像として、第2範囲AR3の頂点V3及び頂点V5を対角の頂点とし、4つ目の第4画像として、第2範囲AR3の頂点V4及び頂点V6を対角の頂点とする、それぞれ228画素×228画素の大きさを有する画像を切り出すことによって、教師データとなる4つのRGBデータを生成する。目視等により、特異部候補C3が特異部であることが確認済みの場合、生成された教師データを異常サンプルを格納するデータベースDB2に格納する。特異部候補C3が、気泡等、特異部でないことが確認済みの場合、正常サンプルを格納するデータベースDB1に格納する。 In the present embodiment, the teacher data is generated by cutting out four fourth images from the second range AR3, which are smaller than the second range AR3 and have different positions of the singular part candidate C3. Specifically, as the first fourth image, an image in the range of 228 pixels × 228 pixels having the apex V1 of the second range AR3 as the apex is cut out. This fourth image is an image in which the vertices V1 and V7 shown in the figure are diagonal vertices and include the singular part candidate C3. Similarly, as the second fourth image, the vertices V2 and V8 of the second range AR3 are diagonal vertices, and as the third fourth image, the vertices V3 and V5 of the second range AR3 are diagonal. The teacher data is obtained by cutting out an image having a size of 228 pixels × 228 pixels, each having the vertices V4 and the vertices V6 of the second range AR3 as the vertices of the second range AR3 as the vertices of 4 RGB data to be generated are generated. When it is confirmed by visual inspection that the singular part candidate C3 is a singular part, the generated teacher data is stored in the database DB2 that stores the abnormal sample. When it is confirmed that the singular part candidate C3 is not a singular part such as a bubble, it is stored in the database DB1 that stores a normal sample.

このようにして、1つの第3画像に基づいて、4つの教師データを生成することが可能になる。各教師データにおける特異部候補C3の位置は異なる。一方で、特異部画像抽出部16で抽出される画像中の特異部の位置は、一定ではない。このため、特異部候補C3の位置が異なる複数の教師データを生成することによって、特異部有無評価部20による評価精度を高めることが可能になる。 In this way, it is possible to generate four teacher data based on one third image. The position of the singular part candidate C3 in each teacher data is different. On the other hand, the position of the singular portion in the image extracted by the singular portion image extracting unit 16 is not constant. Therefore, by generating a plurality of teacher data in which the positions of the singular part candidate C3 are different, it is possible to improve the evaluation accuracy by the singular part presence / absence evaluation unit 20.

図6Bは、図6Aに示される第3画像を90度回転させた画像である。この画像に基づいて、同様に、4つの第4画像を切り出すことによって、更に、特異部候補C3の位置及び角度が異なる4つの教師データを生成することが可能になる。一方で、特異部画像抽出部16で抽出される画像中の特異部の位置及び角度は、一定ではない。このため、特異部候補C3の角度が異なる複数の教師データを生成することによって、特異部有無評価部20による評価精度を高めることが可能になる。 FIG. 6B is an image obtained by rotating the third image shown in FIG. 6A by 90 degrees. Similarly, by cutting out the four fourth images based on this image, it becomes possible to further generate four teacher data having different positions and angles of the singular part candidate C3. On the other hand, the position and angle of the singular portion in the image extracted by the singular portion image extracting unit 16 are not constant. Therefore, by generating a plurality of teacher data having different angles of the singular part candidate C3, it is possible to improve the evaluation accuracy by the singular part presence / absence evaluation unit 20.

更に、生成された各教師データのそれぞれについて、色彩を変動させることにより、さらに多くの教師データを生成してもよい。例えば、RGBの各原色の輝度により色彩が表現されるカラーデータのRGBのそれぞれのレイヤにおいて、輝度値及びコントラストを変動させることにより、より多くの教師データを生成し、評価システム10による評価のロバスト性を向上させることが可能になる。特に、対象物が液体を収容する物である場合、又は、対象物が液体を収容しない場合であっても、透光性を有する容器を有する場合、液体部分又は透光性を有する容器で光が屈折するために、光の当たり方等の周囲の環境に応じて、RGBのそれぞれのレイヤの輝度値等が異なる場合がある。従って、このような教師データを生成することにより、特異部有無評価部20による評価精度を高めることが可能になる。色彩の変動は、例えば、輝度値及びコントラストをランダムに変動させてよく、また、例えば、RGBの各原色の輝度値それぞれに同一の値を加算または減算させてるようにして色彩を変動させてもよいい。なお、1つの第3画像から複数の第4画像を生成する際、特異部を含む異常サンプルの教師データの生成数(例えば、12の教師データ)を、特異部を含まない正常サンプルの教師データの生成数(例えば、8の教師データ)より大きくしてもよい。このように構成することで、特異部有無評価部20が、特異部を有する評価をするように過学習させ、特異部を見逃す可能性を低下させることが可能になる。 Further, more teacher data may be generated by varying the color of each of the generated teacher data. For example, in each layer of RGB of color data whose color is expressed by the brightness of each primary color of RGB, more teacher data is generated by varying the brightness value and contrast, and the evaluation by the evaluation system 10 is robust. It becomes possible to improve the sex. In particular, if the object is a liquid-containing object, or if the object does not contain a liquid but has a translucent container, the liquid portion or the translucent container will emit light. The brightness value of each layer of RGB may differ depending on the surrounding environment such as how the light hits. Therefore, by generating such teacher data, it is possible to improve the evaluation accuracy by the singular part presence / absence evaluation unit 20. The color variation may be performed by, for example, randomly varying the luminance value and the contrast, or, for example, by adding or subtracting the same value to each of the luminance values of each of the primary colors of RGB. Good. When generating a plurality of fourth images from one third image, the number of generated teacher data of the abnormal sample including the singular part (for example, 12 teacher data) is used as the teacher data of the normal sample not including the singular part. It may be larger than the number of generated numbers (for example, 8 teacher data). With such a configuration, the presence / absence evaluation unit 20 of the singular part can be over-learned so as to perform the evaluation having the singular part, and the possibility of overlooking the singular part can be reduced.

[第1変形例]
以下、第1実施形態の変形例について説明する。第1実施形態では、撮像部12が備えるラインセンサを用いて対象物のグレースケールデータを取得した。本変形例における撮像部12は、二次元のRGBデータを取得するエリアセンサ(例えば、CMOSイメージセンサ)を用いて対象物の第1画像を取得する。特異部検出部14は、撮像部12によって取得されたRGBデータに基づいて、第1画像のグレースケールデータ(「第1形式の画像データ」の一例)を生成し、これに基づいて特異部を検出する。また、特異部有無評価部20は、検出された特異部を含む第2範囲に相当するRGBデータ(「第2形式の画像データ」の一例)を撮像部12から取得し、これに基づいて第2範囲の特異部の有無を評価する。
[First modification]
Hereinafter, a modified example of the first embodiment will be described. In the first embodiment, the grayscale data of the object was acquired by using the line sensor included in the imaging unit 12. The imaging unit 12 in this modification acquires the first image of the object by using an area sensor (for example, a CMOS image sensor) that acquires two-dimensional RGB data. The singular part detection unit 14 generates grayscale data of the first image (an example of "image data of the first format") based on the RGB data acquired by the imaging unit 12, and based on this, the singular part is generated. To detect. Further, the singular part presence / absence evaluation unit 20 acquires RGB data (an example of “image data of the second format”) corresponding to the second range including the detected singular part from the imaging unit 12, and based on this, the second Evaluate the presence or absence of singularities in two ranges.

このような態様によっても、特異部の検出精度を維持又は向上しつつ、多数の対象物について、特異部の有無を迅速に評価することが可能になる評価方法及び評価装置を提供することが可能になる。また、撮像部12によって取得された高分解能のカラーデータや異なるカラーデータ(例えば、CMYKカラーモデルによるカラーデータ)に基づいて第2範囲内の特異部の有無を評価することが可能になるから、評価対象によっては、第2方法による評価精度を高めることが可能になる。 Also in such an aspect, it is possible to provide an evaluation method and an evaluation device capable of rapidly evaluating the presence or absence of a singular part in a large number of objects while maintaining or improving the detection accuracy of the singular part. become. Further, since it becomes possible to evaluate the presence or absence of the singular portion in the second range based on the high-resolution color data acquired by the imaging unit 12 and different color data (for example, color data obtained by the CMYK color model). Depending on the evaluation target, it is possible to improve the evaluation accuracy by the second method.

[適用範囲]
本開示に係る評価システム及び評価装置は、様々な対象物を評価するために適用することが可能である。例えば、ポリ塩化ビニリデン(PVDC)の透明フィルムの製造工程において、透明フィルムに含まれ得る異物、傷、皺等を特異部として検出するために使用することができる。
[Scope of application]
The evaluation system and evaluation device according to the present disclosure can be applied to evaluate various objects. For example, in the process of manufacturing a transparent film of polyvinylidene chloride (PVDC), it can be used to detect foreign substances, scratches, wrinkles and the like that may be contained in the transparent film as peculiar parts.

また、フラットパネルディスプレイ用等の高分子フィルムの製造工程において、高分子フィルムに含まれ得る異物、傷等を特異部として検出するために使用することができる。 Further, in the manufacturing process of a polymer film for a flat panel display or the like, it can be used to detect foreign matter, scratches, etc. that may be contained in the polymer film as a peculiar portion.

また、ガラス製品等の製造工程において、ガラスに含まれ得る割れやキズ等を特異部として検出するために使用することができる。この場合、ガラス製品に照明を当てて撮像し、特異部において輝度が他の部位よりも高くなることを利用して特異部を検出することができる。 Further, in a manufacturing process of a glass product or the like, it can be used to detect cracks or scratches that may be contained in the glass as a peculiar portion. In this case, the singular portion can be detected by illuminating the glass product and taking an image, and utilizing the fact that the brightness of the singular portion is higher than that of other portions.

また、クロマトグラフィーの分離膜の製造工程において、膜表面の変形や気泡を特異部として検出するために使用することができる。この場合、分離膜に照明を当てて撮像し、特異部において輝度が他の部位よりも低く、又は、高くなることを利用して特異部を検出することができる。 In addition, it can be used to detect deformation of the membrane surface and bubbles as singular portions in the process of manufacturing a separation membrane for chromatography. In this case, the separation film is illuminated and an image is taken, and the singular portion can be detected by utilizing the fact that the brightness of the singular portion is lower or higher than that of other portions.

また、本開示は、その要旨を逸脱しない限り、さまざまな変形が可能である。たとえば、当業者の通常の創作能力の範囲内で、ある実施形態における一部の構成要素を、他の実施形態に追加することができる。また、ある実施形態における一部の構成要素を、他の実施形態の対応する構成要素と置換することができる。 In addition, the present disclosure may be modified in various ways as long as it does not deviate from the gist thereof. For example, some components in one embodiment may be added to other embodiments within the normal creative abilities of those skilled in the art. Also, some components in one embodiment can be replaced with corresponding components in another embodiment.

例えば、本開示に係る評価方法は、
対象物の第1範囲に対応する画像を取得することと、
第1方法を用いて、前記第1範囲に対応する画像であって、各画素の色彩の違いが第1の指標により表現される第1の画像から、前記第1範囲の一部である第2範囲を抽出することと、
前記第2範囲に対応する画像であって、各画素の色彩の違いが前記第1指標により表現される第2の画像に、前記各画素の色彩の違いを示す第2の指標を付与することで、前記各画素の色彩の違いが前記第1の指標および前記第2の指標により表現される第3画像の画像を得ることと、
機械学習を用いて取得される第2の方法を用いて、前記第3の画像内の特異部の有無を評価することと、
を含む評価方法であってよい。
For example, the evaluation method according to the present disclosure is
Acquiring an image corresponding to the first range of the object,
Using the first method, an image corresponding to the first range, from the first image in which the difference in color of each pixel is represented by the first index, is a part of the first range. Extracting 2 ranges and
An image corresponding to the second range, in which the difference in color of each pixel is expressed by the first index, is given a second index indicating the difference in color of each pixel. Then, the image of the third image in which the difference in color of each pixel is expressed by the first index and the second index is obtained.
Using the second method obtained by using machine learning, the presence or absence of a singular part in the third image is evaluated, and
It may be an evaluation method including.

ここで、第1方法は、好ましくはルールベースの方法である。また、第1の方法は、好ましくは、第2の方法によってその有無が判断されるべき特異部の候補が含まれている第2範囲を抽出する方法である。 Here, the first method is preferably a rule-based method. Further, the first method is preferably a method of extracting a second range including a candidate for a singular portion whose presence or absence should be determined by the second method.

また、第1の画像は、好ましくはグレースケールの画像である。このとき、第1の指標は各画素の色彩の違いを表現する画素の輝度であってよい。また、第2の画像は、好ましくはカラー画像である。このとき、第2の指標は各画素の色彩を表現する三原色のそれぞれの輝度であってよい。なお、第2の指標が第1の指標を包含する場合には、第2の指標の付与は、第2指標から第1指標を除いた指標の付与であってよい。 The first image is preferably a grayscale image. At this time, the first index may be the brightness of the pixels expressing the difference in color of each pixel. The second image is preferably a color image. At this time, the second index may be the brightness of each of the three primary colors expressing the color of each pixel. When the second index includes the first index, the second index may be given by removing the first index from the second index.

また、第2の画像に各画素の色彩の違いを示す第2の指標の付与は、これにより得られる第3の画像のデータ量が、第1の画像のデータ量を超えない範囲で行われることが好ましい。 Further, the second index indicating the difference in color of each pixel is added to the second image within a range in which the amount of data of the third image obtained thereby does not exceed the amount of data of the first image. Is preferable.

例えば、本開示に係る評価方法は、
対象物の第1画像を取得することと、
第1方法を用いて、前記第1画像であって、各画素の色彩が第1の色情報により表現される第1形式の前記第1画像の一部を、特異部が存在する候補領域の第2画像として抽出することと、
前記第1形式の前記第2画像に、各画素の色彩を表す第2の色情報を付与することで、各画素の色彩が、前記第1の色情報および前記第2の色情報により表現される第2形式の第3画像を得ることと、
機械学習を用いて取得された第2方法を用いて、前記第2形式の前記第3画像から、特異部の有無を識別することと、
を含む評価方法、であってよい。
For example, the evaluation method according to the present disclosure is
Acquiring the first image of the object and
Using the first method, a part of the first image of the first format in which the color of each pixel is expressed by the first color information in the first image is a candidate region in which a singular portion exists. Extracting as a second image and
By adding a second color information representing the color of each pixel to the second image of the first format, the color of each pixel is expressed by the first color information and the second color information. To obtain the third image of the second format
Using the second method obtained by using machine learning, the presence or absence of the singular part can be identified from the third image of the second format.
It may be an evaluation method including.

例えば、本開示に係る評価手段は、
対象物の第1画像を取得する手段と、
第1方法を用いて、前記第1画像であって、各画素の色彩が第1の色情報により表現される第1形式の前記第1画像の一部を、特異部が存在する候補領域の第2画像として抽出する手段と、
前記第1形式の前記第2画像に、各画素の色彩を表す第2の色情報を付与することで、各画素の色彩が、前記第1の色情報および前記第2の色情報により表現される第2形式の第3画像を取得する手段と、
機械学習を用いて取得された第2方法を用いて、前記第2形式の前記第3画像から、特異部の有無を識別する手段と、
を含む評価装置、であってよい。
For example, the evaluation means according to the present disclosure is
Means for acquiring the first image of the object,
Using the first method, a part of the first image of the first format in which the color of each pixel is expressed by the first color information in the first image is a candidate region in which a singular portion exists. Means to extract as a second image and
By adding a second color information representing the color of each pixel to the second image of the first format, the color of each pixel is expressed by the first color information and the second color information. A means of acquiring a third image of the second format,
A means for identifying the presence or absence of a singular portion from the third image of the second format by using the second method acquired by using machine learning.
It may be an evaluation device including.

ここで第1画像は、対象物の第1範囲に対応する画像であってよく、第2画像および第3画像は、第1範囲の一部である第2範囲に対応する画像であってよい。 Here, the first image may be an image corresponding to the first range of the object, and the second image and the third image may be images corresponding to the second range which is a part of the first range. ..

また、第1および第2の色情報は、それぞれ、各画素の色彩の違いを示す指標の情報であってよい。 Further, the first and second color information may be index information indicating the difference in color of each pixel, respectively.

上述した「指標」は、「色情報」と表現される場合がある。 The above-mentioned "index" may be expressed as "color information".

上述した「評価」は、識別を含む。 The "evaluation" described above includes identification.

上述した実施形態に関し、さらに以下の付記を開示する。
(付記1)
対象物の第1画像を取得することと、
第1方法を用いて、前記第1画像であって1画素あたり1つの指標により表現される第1形式の前記第1画像の一部を、第2画像として抽出することと、
機械学習を用いて取得された第2方法を用いて、前記第2画像であって1画素あたり複数の指標により表現される第2形式の前記第2画像から、特異部の有無を評価することと、
を含む評価方法。
(付記2)
前記第1形式の前記第1画像に基づいて前記第2形式の前記第2画像を生成すること、
を更に含む付記1に記載の評価方法。
(付記3)
前記第2画像の抽出は、前記第1画像から、複数の前記第2画像を抽出し、
前記特異部の有無の評価は、複数の前記第2画像に対して行われる、
付記1又は2に記載の評価方法。
(付記4)
前記第2画像の特異部の有無の評価結果に基づいて、目視による評価を行うか否かを判定すること、
を更に含む付記1乃至3の何れか一項に記載の評価方法。
(付記5)
前記第1方法を用いて、前記第1画像から、前記第2画像を抽出できない場合に、前記対象物の前記第1画像の範囲に前記特異部が無いと判定すること、
を更に含む付記1乃至4の何れか一項に記載の評価方法。
(付記6)
抽出された複数の前記第2画像に前記特異部が無い場合に、前記対象物に前記特異部が無いと評価すること、
を更に含む付記3に記載の評価方法。
(付記7)
前記機械学習は、
特異部を含む第3画像から、前記第3画像よりも小さく、かつ、前記特異部の位置が異なる複数の第4画像を生成することと、
複数の前記第4画像であって前記第2形式で表現された前記第4画像を教師データとして内部パラメータの最適化を行うこと、
を含む付記1乃至6の何れか一項に記載の評価方法。
(付記8)
対象物の第1画像を取得する手段と、
第1方法を用いて、前記第1画像であって1画素あたり1つの指標により表現される第1形式の前記第1画像の一部を、第2画像として抽出する手段と、
機械学習を用いて取得された第2方法を用いて、前記第2画像であって1画素あたり複数の指標により表現される第2形式の前記第2画像から、特異部の有無を評価する手段と、
を含む評価装置。
(付記9)
前記第1形式の前記第1画像に基づいて前記第2形式の前記第2画像を生成する手段、
を更に備える付記8に記載の評価装置。
(付記10)
前記第2画像を抽出する手段は、前記第1画像から、複数の前記第2画像を抽出するように構成され、
前記特異部の有無を評価する手段は、複数の前記第2画像に対して特異部の有無を評価するように構成される、
付記8又は9に記載の評価装置。
(付記11)
前記第2画像の特異部の有無の評価結果に基づいて、目視による評価を行うか否かを判定する手段、
を更に備える付記8乃至10の何れか一項に記載の評価装置。
(付記12)
前記第1方法を用いて、前記第1画像から、前記第2画像を抽出できない場合に、前記対象物の前記第1画像の範囲に前記特異部が無いと判定する手段、
を更に備える付記8乃至11の何れか一項に記載の評価装置。
(付記13)
抽出された複数の前記第2画像に前記特異部が無い場合に、前記対象物に前記特異部が無いと評価する手段、
を更に備える付記10に記載の評価装置。
(付記14)
前記機械学習は、
特異部を含む第3画像から、前記第3画像よりも小さく、かつ、前記特異部の位置が異なる複数の第4画像を生成することと、
複数の前記第4画像であって前記第2形式で表現された前記第4画像を教師データとして内部パラメータの最適化を行うこと、
を含む付記8乃至13の何れか一項に記載の評価装置。
The following additional notes are further disclosed with respect to the above-described embodiment.
(Appendix 1)
Acquiring the first image of the object and
Using the first method, a part of the first image of the first format, which is the first image and is represented by one index per pixel, is extracted as a second image.
Using the second method acquired by using machine learning, the presence or absence of a singular portion is evaluated from the second image of the second format represented by a plurality of indexes per pixel in the second image. When,
Evaluation method including.
(Appendix 2)
To generate the second image of the second format based on the first image of the first format.
The evaluation method according to Appendix 1, further comprising.
(Appendix 3)
In the extraction of the second image, a plurality of the second images are extracted from the first image, and the second image is extracted.
The evaluation of the presence or absence of the singular portion is performed on the plurality of the second images.
The evaluation method according to Appendix 1 or 2.
(Appendix 4)
Judging whether or not to perform visual evaluation based on the evaluation result of the presence or absence of the singular part of the second image.
The evaluation method according to any one of Appendix 1 to 3, further comprising.
(Appendix 5)
When the second image cannot be extracted from the first image by using the first method, it is determined that the singular part does not exist in the range of the first image of the object.
The evaluation method according to any one of Supplementary Provisions 1 to 4, further comprising.
(Appendix 6)
When the extracted second image does not have the singular part, it is evaluated that the object does not have the singular part.
The evaluation method according to Appendix 3, further comprising.
(Appendix 7)
The machine learning
From the third image including the singular part, a plurality of fourth images smaller than the third image and having different positions of the singular part are generated.
Optimizing internal parameters using the fourth image, which is a plurality of the fourth images and is expressed in the second format, as teacher data.
The evaluation method according to any one of Appendix 1 to 6, which comprises.
(Appendix 8)
Means for acquiring the first image of the object,
A means for extracting a part of the first image of the first format, which is the first image and is represented by one index per pixel, as a second image by using the first method.
A means for evaluating the presence or absence of a singular portion from the second image of the second format, which is the second image and is represented by a plurality of indexes per pixel, by using the second method acquired by using machine learning. When,
Evaluation device including.
(Appendix 9)
A means for generating the second image of the second format based on the first image of the first format.
The evaluation device according to Appendix 8, further comprising.
(Appendix 10)
The means for extracting the second image is configured to extract a plurality of the second images from the first image.
The means for evaluating the presence or absence of the singular portion is configured to evaluate the presence or absence of the singular portion with respect to the plurality of the second images.
The evaluation device according to Appendix 8 or 9.
(Appendix 11)
A means for determining whether or not to perform visual evaluation based on the evaluation result of the presence or absence of a singular portion in the second image.
The evaluation device according to any one of Supplementary Provisions 8 to 10, further comprising.
(Appendix 12)
A means for determining that the singular portion is not present in the range of the first image of the object when the second image cannot be extracted from the first image by using the first method.
The evaluation device according to any one of Supplementary Provisions 8 to 11, further comprising.
(Appendix 13)
A means for evaluating that the object does not have the singular part when the extracted second image does not have the singular part.
The evaluation device according to Appendix 10, further comprising.
(Appendix 14)
The machine learning
From the third image including the singular part, a plurality of fourth images smaller than the third image and having different positions of the singular part are generated.
Optimizing internal parameters using the fourth image, which is a plurality of the fourth images and is expressed in the second format, as teacher data.
The evaluation device according to any one of Supplementary Provisions 8 to 13, including the above.

10 評価システム
12 撮像部
14 特異部検出部
16 特異部画像抽出部
18 画像データ変換部
20 特異部有無評価部
22 プロセッサ
24 記憶部
28 表示部
30 通信I/F部
32 入力部
AR1 第1範囲
AR2 第2範囲
AR3 第2範囲
AR4 第2範囲
10 Evaluation system 12 Imaging unit 14 Singularity detection unit 16 Singularity image extraction unit 18 Image data conversion unit 20 Singularity presence / absence evaluation unit 22 Processor 24 Storage unit 28 Display unit 30 Communication I / F unit 32 Input unit AR1 First range AR2 2nd range AR3 2nd range AR4 2nd range

Claims (16)

対象物の第1範囲に対応する第1画像を取得することと、
第1方法を用いて、前記第1画像の画像データであって1画素あたり1つの指標により表現される第1形式の画像データから、前記第1範囲の一部である第2範囲を抽出することと、
機械学習を用いて取得された第2方法を用いて、前記第2範囲に相当する第2画像の画像データであって1画素あたり複数の指標により表現される第2形式の画像データから、前記第2範囲内の特異部の有無を評価することと、
を含む評価方法。
Acquiring the first image corresponding to the first range of the object,
Using the first method, a second range, which is a part of the first range, is extracted from the image data of the first image, which is the image data of the first format represented by one index per pixel. That and
Using the second method acquired by using machine learning, the image data of the second image corresponding to the second range, which is the image data of the second format represented by a plurality of indexes per pixel, is described as described above. Evaluating the presence or absence of singularities within the second range and
Evaluation method including.
前記第1形式の画像データに基づいて前記第2形式の画像データを生成すること、
を更に含む請求項1に記載の評価方法。
To generate the image data of the second format based on the image data of the first format.
The evaluation method according to claim 1, further comprising.
前記第2範囲の抽出は、前記第1画像の画像データから、複数の前記第2範囲を抽出し、
前記特異部の有無の評価は、複数の前記第2範囲のそれぞれに相当する複数の前記第2画像の画像データに対して行われる、
請求項1又は2に記載の評価方法。
In the extraction of the second range, a plurality of the second ranges are extracted from the image data of the first image.
The evaluation of the presence or absence of the singular portion is performed on the image data of the plurality of second images corresponding to each of the plurality of second ranges.
The evaluation method according to claim 1 or 2.
前記第2範囲内の特異部の有無の評価結果に基づいて、目視による評価を行うか否かを判定すること、
を更に含む請求項1乃至3の何れか一項に記載の評価方法。
Judging whether or not to perform visual evaluation based on the evaluation result of the presence or absence of the singular part in the second range.
The evaluation method according to any one of claims 1 to 3, further comprising.
前記第1方法を用いて、前記第1画像の画像データから、前記第1範囲の一部である第2範囲を抽出できない場合に、前記対象物の第1の範囲に前記特異部が無いと判定すること、
を更に含む請求項1乃至4の何れか一項に記載の評価方法。
When the second range, which is a part of the first range, cannot be extracted from the image data of the first image by using the first method, the singular part is not present in the first range of the object. Judging,
The evaluation method according to any one of claims 1 to 4, further comprising.
抽出された複数の前記第2範囲内に前記特異部が無い場合に、前記対象物に前記特異部が無いと評価すること、
を更に含む請求項3に記載の評価方法。
When the singular part is not present in the plurality of extracted second ranges, it is evaluated that the object does not have the singular part.
The evaluation method according to claim 3, further comprising.
前記機械学習は、
特異部を含む第3画像から、前記第3画像よりも小さく、かつ、前記特異部の位置が異なる複数の第4画像を生成することと、
複数の前記第4画像の画像データであって前記第2形式で表現された画像データを教師データとして内部パラメータの最適化を行うこと、
を含む請求項1乃至6の何れか一項に記載の評価方法。
The machine learning
From the third image including the singular part, a plurality of fourth images smaller than the third image and having different positions of the singular part are generated.
Optimizing the internal parameters using the image data of the plurality of the fourth images expressed in the second format as the teacher data.
The evaluation method according to any one of claims 1 to 6, which comprises.
前記第4画像の生成は、
それぞれが、異なる種類の特異部を含む複数の前記第3画像を準備することと、
複数の前記第3画像のそれぞれから、複数の第4画像をそれぞれ生成することを含み、
複数の前記第4画像は、同一の特異部を含み、かつ、前記特異部の位置が異なる画像を有する、請求項7に記載の評価方法。
The generation of the fourth image is
To prepare a plurality of the third images, each containing a different type of singularity,
Including generating a plurality of fourth images from each of the plurality of the third images.
The evaluation method according to claim 7, wherein the plurality of fourth images include the same singular portion and have images in which the positions of the singular portions are different.
対象物の第1範囲に対応する第1画像を取得する手段と、
第1方法を用いて、前記第1画像の画像データであって1画素あたり1つの指標により表現される第1形式の画像データから、前記第1範囲の一部である第2範囲を抽出する手段と、
機械学習を用いて取得された第2方法を用いて、前記第2範囲に相当する第2画像の画像データであって、1画素あたり複数の指標により表現される第2形式の画像データから、前記第2範囲内の特異部の有無を評価する手段と、
を備える評価装置。
A means of acquiring a first image corresponding to a first range of an object,
Using the first method, a second range, which is a part of the first range, is extracted from the image data of the first image, which is the image data of the first format represented by one index per pixel. Means and
Using the second method acquired by using machine learning, from the image data of the second image corresponding to the second range, which is the image data of the second format represented by a plurality of indexes per pixel, from the image data of the second format. A means for evaluating the presence or absence of a singular part within the second range, and
An evaluation device equipped with.
前記第1形式の画像データに基づいて前記第2形式の画像データを生成する手段、
を更に備える請求項9に記載の評価装置。
A means for generating image data in the second format based on the image data in the first format.
9. The evaluation device according to claim 9.
前記第2範囲を抽出する手段は、前記第1画像の画像データから、複数の前記第2範囲を抽出する手段を備え、
前記特異部の有無を評価する手段は、複数の前記第2範囲のそれぞれに相当する複数の前記第2画像の画像データに対して前記評価を行う手段を備える、
請求項9又は10に記載の評価装置。
The means for extracting the second range includes means for extracting a plurality of the second range from the image data of the first image.
The means for evaluating the presence or absence of the singular portion includes means for performing the evaluation on the image data of the plurality of the second images corresponding to each of the plurality of the second ranges.
The evaluation device according to claim 9 or 10.
前記第2範囲内の特異部の有無の評価結果に基づいて、目視による評価を行うか否かを判定する手段、
を更に備える請求項9乃至11の何れか一項に記載の評価装置。
A means for determining whether or not to perform visual evaluation based on the evaluation result of the presence or absence of a singular portion within the second range.
The evaluation device according to any one of claims 9 to 11, further comprising.
前記第1方法を用いて、前記第1画像の画像データから、前記第1範囲の一部である第2範囲を抽出できない場合に、前記対象物の第1の範囲に前記特異部が無いと判定する手段、
を更に備える請求項9乃至12の何れか一項に記載の評価装置。
When the second range, which is a part of the first range, cannot be extracted from the image data of the first image by using the first method, the singular part is not present in the first range of the object. Judgment means,
The evaluation device according to any one of claims 9 to 12, further comprising.
抽出された複数の前記第2範囲内に前記特異部が無い場合に、前記対象物に前記特異部が無いと評価する手段、
を更に備える請求項11の何れか一項に記載の評価装置。
A means for evaluating that the object does not have the singular part when the extracted singular part does not exist in the plurality of the second ranges.
The evaluation device according to any one of claims 11, further comprising.
前記機械学習は、
一の特異部を含む第3画像から、前記第3画像よりも小さく、かつ、前記一の特異部の位置が異なる複数の第4画像を生成する手段と、
複数の前記第4画像の画像データであって前記第2形式で表現された画像データを教師データとして内部パラメータの最適化を行う手段と、を用いて実行されるように構成された、
請求項9乃至14の何れか一項に記載の評価装置。
The machine learning
A means for generating a plurality of fourth images that are smaller than the third image and have different positions of the one singular portion from the third image including the one singular portion.
It is configured to be executed by using a means for optimizing internal parameters using a plurality of image data of the fourth image and the image data expressed in the second format as teacher data.
The evaluation device according to any one of claims 9 to 14.
前記第4画像を生成する手段は、
それぞれが、異なる種類の特異部を含む複数の前記第3画像を準備する手段と、
複数の前記第3画像のそれぞれから、複数の第4画像をそれぞれ生成する手段と、を備え、
複数の前記第4画像は、同一の特異部を含み、かつ、前記特異部の位置が異なる画像を有する、
請求項15に記載の評価装置。
The means for generating the fourth image is
Means for preparing a plurality of the third images, each containing a different type of singularity,
A means for generating a plurality of fourth images from each of the plurality of the third images is provided.
The plurality of fourth images include images containing the same singular portion and having different positions of the singular portions.
The evaluation device according to claim 15.
JP2021043561A 2020-03-25 2021-03-17 Evaluation method and evaluation device Active JP6961319B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020054162 2020-03-25
JP2020054162 2020-03-25

Publications (2)

Publication Number Publication Date
JP2021157791A true JP2021157791A (en) 2021-10-07
JP6961319B2 JP6961319B2 (en) 2021-11-05

Family

ID=77890247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021043561A Active JP6961319B2 (en) 2020-03-25 2021-03-17 Evaluation method and evaluation device

Country Status (2)

Country Link
JP (1) JP6961319B2 (en)
WO (1) WO2021193287A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013186075A (en) * 2012-03-09 2013-09-19 Hitachi Information & Control Solutions Ltd Foreign matter inspection device and foreign matter inspection method
JP2018005506A (en) * 2016-06-30 2018-01-11 株式会社東芝 Image recognition technique evaluation device, image recognition technique evaluation method and program
WO2019003813A1 (en) * 2017-06-29 2019-01-03 住友化学株式会社 Idiosyncrasy sensing system and idiosyncrasy sensing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013186075A (en) * 2012-03-09 2013-09-19 Hitachi Information & Control Solutions Ltd Foreign matter inspection device and foreign matter inspection method
JP2018005506A (en) * 2016-06-30 2018-01-11 株式会社東芝 Image recognition technique evaluation device, image recognition technique evaluation method and program
WO2019003813A1 (en) * 2017-06-29 2019-01-03 住友化学株式会社 Idiosyncrasy sensing system and idiosyncrasy sensing method

Also Published As

Publication number Publication date
JP6961319B2 (en) 2021-11-05
WO2021193287A1 (en) 2021-09-30

Similar Documents

Publication Publication Date Title
JP3877916B2 (en) Anomaly detection method and system for digital image, and storage medium therefor
CN111681273B (en) Image segmentation method and device, electronic equipment and readable storage medium
JP2017049974A (en) Discriminator generator, quality determine method, and program
KR20200087297A (en) Defect inspection method and apparatus using image segmentation based on artificial neural network
TWI673683B (en) System and method for identification of symptom image
CN110596120A (en) Glass boundary defect detection method, device, terminal and storage medium
CN112132196B (en) Cigarette case defect identification method combining deep learning and image processing
CN109241867B (en) Method and device for recognizing digital rock core image by adopting artificial intelligence algorithm
US20190272627A1 (en) Automatically generating image datasets for use in image recognition and detection
TWI743837B (en) Training data increment method, electronic apparatus and computer-readable medium
CN116453104B (en) Liquid level identification method, liquid level identification device, electronic equipment and computer readable storage medium
CN115830004A (en) Surface defect detection method, device, computer equipment and storage medium
CN105718931A (en) System And Method For Determining Clutter In An Acquired Image
CN110619619A (en) Defect detection method and device and electronic equipment
JP7298176B2 (en) Defect inspection device and trained model
CN109902751B (en) Dial digital character recognition method integrating convolution neural network and half-word template matching
CN114445410A (en) Circuit board detection method based on image recognition, computer and readable storage medium
JP6961319B2 (en) Evaluation method and evaluation device
JP2840347B2 (en) Board mounting inspection equipment
CN115131355B (en) Intelligent method for detecting waterproof cloth abnormity by using electronic equipment data
CN115546141A (en) Small sample Mini LED defect detection method and system based on multi-dimensional measurement
CN115861259A (en) Lead frame surface defect detection method and device based on template matching
CN116030361A (en) CIM-T architecture-based high-resolution image change detection method
CN112750113B (en) Glass bottle defect detection method and device based on deep learning and linear detection
CN113989307A (en) Image semantic segmentation method, electronic device and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210331

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210331

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211012

R150 Certificate of patent or registration of utility model

Ref document number: 6961319

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150