JP2022018507A - Image processing apparatus for subject determination, and image processing method - Google Patents

Image processing apparatus for subject determination, and image processing method Download PDF

Info

Publication number
JP2022018507A
JP2022018507A JP2020121654A JP2020121654A JP2022018507A JP 2022018507 A JP2022018507 A JP 2022018507A JP 2020121654 A JP2020121654 A JP 2020121654A JP 2020121654 A JP2020121654 A JP 2020121654A JP 2022018507 A JP2022018507 A JP 2022018507A
Authority
JP
Japan
Prior art keywords
image
judgment
size
position information
trimming
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020121654A
Other languages
Japanese (ja)
Other versions
JP6788929B1 (en
Inventor
裕之 奥田
Hiroyuki Okuda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujimold Ind Co Ltd
Fujimold Industry Co Ltd
Original Assignee
Fujimold Ind Co Ltd
Fujimold Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujimold Ind Co Ltd, Fujimold Industry Co Ltd filed Critical Fujimold Ind Co Ltd
Priority to JP2020121654A priority Critical patent/JP6788929B1/en
Application granted granted Critical
Publication of JP6788929B1 publication Critical patent/JP6788929B1/en
Publication of JP2022018507A publication Critical patent/JP2022018507A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an image processing apparatus for subject determination configured to allow for highly accurate determination processing even on a small image size, by applying image processing before inputting a captured image to a discriminator based on a neural network.SOLUTION: An image processing apparatus includes: an input unit for a captured image; an image storage unit for storing the captured image; an image size modification unit which generates a compressed image with a modified size from the captured image; a location information acquisition unit which acquires location information of a subject on the compressed image; a trimming information acquisition unit which extends the location information to the size of the captured image to generate location information for trimming; a trimming image generation unit which generates a trimming image by applying the location information for trimming to the captured image; a determination image generation unit which compresses the trimming image to a determination image size to generate a determination image; and an image output unit which outputs the determination image to an AI discriminator in the next stage.SELECTED DRAWING: Figure 1

Description

本発明は、検査対象物の欠陥個所の画像判定装置、特に人工知能(AI)ネットワークの手法を用いて構築した画像判定器に入力させる判定用画像を生成する画像処理装置に関する。 The present invention relates to an image determination device for a defective portion of an inspection object, particularly an image processing device for generating a determination image to be input to an image determination device constructed by using an artificial intelligence (AI) network method.

被検査対象物(以下、「被検物」と言う。)を撮影して得られる画像に基づいて物品の表面に表れる欠陥の有無をニューラルネットワークに基づいた機械学習モデルで判定する検査装置が開示されている。 Disclosed by an inspection device that uses a machine learning model based on a neural network to determine the presence or absence of defects appearing on the surface of an article based on an image obtained by photographing the object to be inspected (hereinafter referred to as "inspection object"). Has been done.

画像処理の一例として、ニューラルネットワークに基づいて機械学習させる機能を適用した所謂AI処理装置を用いるものがある。例えば、先行文献として特許文献1及び特許文献2が提案されている。 As an example of image processing, there is one that uses a so-called AI processing device to which a function of machine learning based on a neural network is applied. For example, Patent Document 1 and Patent Document 2 have been proposed as prior documents.

特許文献1は、予め決められた規格を満たした良品を不良品と誤判定する可能性が低減された検査装置及び検査方法を提供するものであり、被検査物の撮影画像を欠陥を規定するデータとして予め設定された長さや面積等を計測することにより、欠陥があるか否かを判定している。さらにニューラルネットワークに基づいた機械学習モデルを用いて判定を行うものである。 Patent Document 1 provides an inspection device and an inspection method in which the possibility of erroneously determining a non-defective product satisfying a predetermined standard as a defective product is reduced, and defines a defect in a photographed image of an inspected object. By measuring the length, area, etc. preset as data, it is determined whether or not there is a defect. Furthermore, the judgment is made using a machine learning model based on a neural network.

特許文献2は、欠陥の検査の精度を上げるため、検査対象を撮影した画像を複数のブロックに分割して、各ブロック毎に欠陥の有無がAI処理によって検査されるものである。 In Patent Document 2, in order to improve the accuracy of defect inspection, an image of an inspection target is divided into a plurality of blocks, and the presence or absence of defects is inspected for each block by AI processing.

特許第6630912号公報Japanese Patent No. 6630912 特開2017-166929号公報JP-A-2017-166929

被検物の外観に表れた欠陥個所の検査に転移学習のベースとして用いるAIネットワークに基づいて構築される判別装置は、その特徴として200×200~400×400pix程度の比較的小さな正方形画像を入力画像としている。仮にこのネットワークにもっと画素数の大きな画像や長方形画像を入力すると、その処理に時間がかかり、結果として学習効率が上がらずに良好な判定結果を得ることが困難となる。 The discrimination device constructed based on the AI network used as the base of transfer learning for the inspection of defective parts appearing on the appearance of the subject inputs a relatively small square image of about 200 × 200 to 400 × 400 pix as its feature. It is an image. If an image having a larger number of pixels or a rectangular image is input to this network, the processing takes time, and as a result, the learning efficiency does not improve and it becomes difficult to obtain a good judgment result.

そこで、これを回避するため、撮影画像を単純に縮小してAIネットワークの入力用の画像サイズに合わせれば、学習は可能になるが、仮に基となる5Mpixで撮影された2,500×2,000pixの画像中に2×2pix程の欠陥領域が存在したとすると、これをそのままサイズ変更(例えば、縦横1/10、面積1/100 に縮小)すると欠陥領域は0.2×0.2pixと極小画像となってしまいその判別が困難な画像になってしまう。結果として小さな欠陥領域は、学習効率の悪い検出困難な位置づけとなる課題があった。 Therefore, in order to avoid this, if the captured image is simply reduced to match the image size for input of the AI network, learning is possible, but 2,500 × 2, which was taken at the base 5Mpix. Assuming that a defect area of about 2 × 2 pix exists in the image of 000 pix, if the size is changed as it is (for example, it is reduced to 1/10 in length and width and 1/100 in area), the defect area becomes 0.2 × 0.2 pix. It becomes a very small image and it becomes difficult to distinguish it. As a result, there is a problem that the small defect area is positioned as difficult to detect due to poor learning efficiency.

そこで、本発明は、撮影画像をニューラルネットワークに基づいた判定器に入力する事前に画像処理を施すことにより、小画像サイズであっても高精度の判定処理を行うことができる被検物判定用の画像処理装置の提供を目的とする。 Therefore, the present invention is for subject determination, which can perform highly accurate determination processing even with a small image size by performing image processing in advance for inputting a captured image to a determination device based on a neural network. The purpose is to provide an image processing device for the above.

上記の課題を解決するため本発明に係る被検物判定用の画像処理装置は、以下のように構成している。 In order to solve the above problems, the image processing apparatus for determining a subject according to the present invention is configured as follows.

すなわち、被検物を撮影した画像を入力させる画像入力部と、該入力させた撮影画像を記憶手段に保管する画像保管部と、前記入力させた撮影画像を判定用画像サイズに圧縮して圧縮画像を生成する画像サイズ変更部と、該サイズ変更画像における被検物の位置情報を取得する位置情報取得部と、該位置情報を前記撮影画像のサイズに伸張して生成した画像からトリミング用の位置情報を生成するトリミング用情報取得部と、該トリミング用位置情報を前記画像保管部に保管していた対応する撮影画像に適用してトリミング画像を生成するトリミング画像生成部と、該トリミング画像を前記判定用画像サイズに圧縮して判定用画像を生成する判定用画像生成部と、該判定用画像を次段の前記判定器に出力する画像出力部と、から成ることを特徴としている。 That is, an image input unit for inputting an image of a subject, an image storage unit for storing the input image in a storage means, and a compressed image of the input to be compressed to a determination image size. An image size changing unit that generates an image, a position information acquisition unit that acquires position information of an object in the resized image, and an image for trimming from an image generated by expanding the position information to the size of the captured image. A trimming information acquisition unit that generates position information, a trimming image generation unit that applies the trimming position information to the corresponding captured image stored in the image storage unit to generate a trimmed image, and the trimmed image. It is characterized by comprising a determination image generation unit that compresses the determination image size to generate a determination image and an image output unit that outputs the determination image to the determination device in the next stage.

また、上記位置情報取得部における位置座標情報の取得において、ニューラルネットワークに基づいた手段を用いて行うことを特徴としている。 Further, it is characterized in that the acquisition of the position coordinate information in the position information acquisition unit is performed by using a means based on a neural network.

また、本発明は、各構成要素からなる物の発明として捉えられる他、各構成要素が時系列的に機能するため、方法の発明としても捉えることができる。 In addition, the present invention can be regarded as an invention of a product composed of each component, and can also be regarded as an invention of a method because each component functions in time series.

上記構成により本発明は、高画素数の撮影画像から被検物を検出して不要な余白部分を切り落とすトリミングを行ない、さらにこのトリミング画像を、圧縮して規定のAIネットワークの入力サイズに合わせる事で、小さな欠陥も可能な限り非圧縮状態に近い大きさで残すことが可能になり、結果として検出精度の向上につながる効果を奏する。 With the above configuration, the present invention detects a test object from a captured image with a high number of pixels, performs trimming to cut off unnecessary margins, and further compresses this trimmed image to match the input size of a specified AI network. Therefore, even small defects can be left in a size as close to the uncompressed state as possible, and as a result, the effect of improving the detection accuracy is achieved.

また請求項2によれば、サイズ変更画像における被検物の位置情報の取得が、従来型の二値化、多値化、エッジ抽出等の処理を組み合わせて、より安定的に被検物の座標情報を捉えることができる効果を有し、飛躍的に処理速度を上げることができる。 Further, according to claim 2, the acquisition of the position information of the test object in the resized image is more stable by combining the conventional binarization, multi-value, edge extraction and other processes. It has the effect of capturing coordinate information and can dramatically increase the processing speed.

本発明に係る実施形態の構成を示すフロー図である。It is a flow figure which shows the structure of the Embodiment which concerns on this invention. 入力画像となる4種の被検物の撮影画像図である。It is a photographed image diagram of four kinds of test objects which become input images. 4種の被検物の正方形サイズの圧縮画像図である。It is a square-sized compressed image diagram of four kinds of subjects. 4種の被検物を撮影画像サイズに伸張した伸張画像とトリミング枠を示した図である。It is a figure which showed the stretched image which stretched four kinds of subjects to the photographed image size, and the trimming frame. 4種の被検物のトリミング画像図である。It is a trimming image diagram of four kinds of subjects. 4種の被検物の判定用画像図である。It is a judgment image figure of 4 kinds of test objects.

以下に、本発明を図面に基づき説明する。
まず、本発明にかかる画像処理装置は、図1に示すように、画像入力部1、画像保管部2、画像サイズ変更部3、位置情報取得部4,トリミング用情報取得部5、トリミング画像生成部6、判定用画像生成部7、及び画像出力部8、から構成される。
Hereinafter, the present invention will be described with reference to the drawings.
First, as shown in FIG. 1, the image processing apparatus according to the present invention includes an image input unit 1, an image storage unit 2, an image size change unit 3, a position information acquisition unit 4, a trimming information acquisition unit 5, and a trimming image generation. It is composed of a unit 6, a determination image generation unit 7, and an image output unit 8.

本発明に係る実施形態例(以下、「本実施例」という。)では、図示した4種形状の被検物A、B、C、Dを対象として行った画像処理について説明する。入力画像となる撮影画像Piのサイズ(以下、「撮影サイズ」と言う。)を縦2,048×横2,448pixとし、AI判定用画像Jiのサイズ(以下、「判定サイズ」という。)を縦224×横224pixとして、以下に説明する。 In the embodiment of the present invention (hereinafter referred to as “the present embodiment”), image processing performed on the illustrated four types of test objects A, B, C, and D will be described. The size of the captured image Pi (hereinafter referred to as "shooting size") as the input image is 2,048 vertical x 2,448 pix horizontally, and the size of the AI determination image Ji (hereinafter referred to as "judgment size") is set. It will be described below as 224 vertical × 224 horizontal pix.

[画像入力部]
先ず、本実施例で対象とする被検物A、B、C、Dを、個別にカメラで撮影し、上記撮影サイズの画像データとして本装置の開始点である画像入力部1に入力させる(ステップ1、以下、ステップnを「Sn」と表記。)。そのときの撮影サイズは長方形画像となる。この撮影サイズは、撮影するカメラの仕様次第であり、適宜に設定される。
[Image input section]
First, the test objects A, B, C, and D to be the target in this embodiment are individually photographed by a camera, and the image data of the photographed size is input to the image input unit 1 which is the starting point of the present apparatus ( Step 1, hereinafter, step n is referred to as "Sn"). The shooting size at that time is a rectangular image. This shooting size depends on the specifications of the camera to shoot and is set appropriately.

[画像保管部]
入力させた撮影画像を後の処理に使用するため、一端記憶手段である画像保管部2に保管する(S2)。この記憶手段は、電子データとして記録可能なデバイスである。
[Image storage unit]
In order to use the input captured image for later processing, it is temporarily stored in the image storage unit 2 which is a storage means (S2). This storage means is a device that can be recorded as electronic data.

[画像サイズ変更部]
画像サイズ変更部3においては、前記撮影画像Piを判定用サイズとなるように圧縮画像Ciに変更する(S3)。該画像変更の手法は、画像圧縮の手法を用いて行っている。この時の圧縮率は、長方形状の撮影画像Piの撮影サイズ(縦2,048×横2,448pix)を正方形の圧縮画像Ciのサイズ(縦224×横224pix)に圧縮するため縦方向の圧縮率0.109、及び横方向の圧縮率0.092となる。この圧縮処理は、一般的な手法を用いており、圧縮して生成した圧縮画像Ciは復元を予定しないため不可逆性の手法でおこなっている。本実施例では、縦横方向それぞれ8.9pix→1pix/ 6.7pix→1pixに各画素の平均を取る形で圧縮している。なお、本実施例における圧縮処理は、これに限定するものではない。また、該圧縮画像Ciは不可逆性であるか、復元情報を付加するようにしても良い。
[Image size change part]
The image size changing unit 3 changes the captured image Pi to a compressed image Ci so as to have a determination size (S3). The image change method is performed by using an image compression method. The compression ratio at this time is vertical compression in order to compress the shooting size of the rectangular shot image Pi (vertical 2,048 x horizontal 2,448 pix) to the size of the square compressed image Ci (vertical 224 x horizontal 224 pix). The rate is 0.109 and the compression rate in the lateral direction is 0.092. This compression process uses a general method, and since the compressed image Ci generated by compression is not scheduled to be restored, it is performed by an irreversible method. In this embodiment, compression is performed by taking the average of each pixel in the vertical and horizontal directions of 8.9 pix → 1 pix / 6.7 pix → 1 pix, respectively. The compression process in this embodiment is not limited to this. Further, the compressed image Ci may be irreversible, or restoration information may be added.

[位置情報取得部]
次に、位置情報取得部4において、上記圧縮画像Ciから、映り込んでいる被検物A、B、C、Dのそれぞれの位置情報を取得する(S4)。本実施例では、この位置情報をXY座標値として取得している。
[Location information acquisition unit]
Next, the position information acquisition unit 4 acquires the position information of each of the reflected objects A, B, C, and D from the compressed image Ci (S4). In this embodiment, this position information is acquired as an XY coordinate value.

例えば、図3(A)示すように、被検物Aの圧縮画像Ci上のサイズ(224×224pix)におけるXY座標値として、a点(45,95)、b点(180,115)、c点(58,55)、d点(193,70)、O点(原点)として座標値を位置情報として取得する。 For example, as shown in FIG. 3A, the XY coordinate values at the size (224 × 224pix) of the subject A on the compressed image Ci are points a (45,95), b (180,115), and c. Coordinate values are acquired as position information as points (58, 55), d points (193, 70), and O points (origin).

本実施例では、この座標値の決定は、ニューラルネットワークに基づいた手段を用いて行っている。すなわち、映り込んだ被検物A、B、C、Dを、形状を問わない何らかの物体として捉え、各ピクセル情報をニューラルネットワークの入力層に入力し、予め各種多数の形状を学習させて演算した重みを持って中間層(層の構成は適宜となる。)を経て、出力層からの出力を位置情報として取得している。なお、この学習にはこの圧縮画像を用いて、アノテーション(学習データの作成)を行っているが、欠陥箇所の判定学習用のアノテーションは行ってはいない。別言すると、この学習データには、画像中にある対象の被検物の形状だけを示したデータを用い、この多数のデータを入力させて重み付けを演算してニューラルネットワークを構築し、これを用いて被検物の位置をXY座標値として取得している。なお、この段階では、上記学習データには、被検物の欠陥部に関する情報は含めていない。 In this embodiment, the determination of the coordinate values is performed by using a means based on a neural network. That is, the reflected test objects A, B, C, and D are captured as some kind of object regardless of shape, each pixel information is input to the input layer of the neural network, and various shapes are learned in advance for calculation. The output from the output layer is acquired as position information through the intermediate layer (the layer configuration is appropriate) with weight. In this learning, annotations (creation of learning data) are performed using this compressed image, but annotations for judgment learning of defective parts are not performed. In other words, for this learning data, data showing only the shape of the subject in the image is used, and a large amount of this data is input to calculate the weighting to construct a neural network. The position of the test object is acquired as an XY coordinate value. At this stage, the learning data does not include information on the defective portion of the test object.

被検物A、B、C、Dのカラー・バリエーションの中には黒が含まれているため、撮影時の照明などに特別の工夫を凝らす必要があるなどの前提条件下の撮影画像では、従来型の二値化、多値化、エッジ抽出等の処理を組み合わせても、安定的に被検物の座標情報を捉えることができ難かったが、このニューラルネットワークの手法を用いることにより、精度の高い位置情報の取得を迅速にかつ安定的にできるようになった。 Since black is included in the color variations of the test objects A, B, C, and D, it is necessary to devise special measures such as lighting at the time of shooting. It was difficult to stably capture the coordinate information of the test object even by combining the conventional binarization, multi-value, edge extraction, etc., but by using this neural network method, the accuracy It has become possible to acquire high-level location information quickly and stably.

加えて、本発明を構成するものではないが、次段の装置であるニューラルネットワークに基づいた被検物の欠陥有無を判定する判定器に、上記学習内容を変更するだけで援用することが可能となる副次的効果を奏する。 In addition, although it does not constitute the present invention, it can be used as a determination device for determining the presence or absence of defects in a test object based on a neural network, which is a next-stage device, by simply changing the above learning content. It has a secondary effect.

なお、本発明の位置情報の取得においては、上記した二値化処理、多値化処理、各種フィルター処理、エッジ抽出、重心抽出やこれらの組合せ処理による取得を排除するものではない。 It should be noted that the acquisition of the position information of the present invention does not exclude the acquisition by the above-mentioned binarization processing, multi-value processing, various filter processing, edge extraction, center of gravity extraction and combination processing thereof.

[トリミング用情報取得部]
次に、トリミング用情報取得部5において、上記圧縮画像における被検物の位置座標情報を、元の撮影画像Piの縦横サイズに伸張して画像を生成し(図4参照。)、この伸張画像Eiを基にトリミング用に変換した位置情報を取得する(S5)。この取得した位置情報が、次のトリミング画像作成のためのトリミング用の位置情報となる。
[Trimming information acquisition unit]
Next, the trimming information acquisition unit 5 expands the position coordinate information of the subject in the compressed image to the vertical and horizontal sizes of the original captured image Pi to generate an image (see FIG. 4), and this expanded image. The position information converted for trimming based on Ei is acquired (S5). This acquired position information becomes the position information for trimming for creating the next trimmed image.

例えば、図4に示す被検物Aの伸張画像Eiのサイズ(2,448×2,048pix)におけるXY座標値が、e点(491,863)、f点(1,967、1051)、g点(633,503)、h点(2,109,660)となって、変換した位置情報として取得する。本実施例では、例えば、前記縦横圧縮率の逆数を縦横それぞれに掛けて伸張画像Eiを求めている。 For example, the XY coordinate values in the size (2,448 × 2,048pix) of the stretched image Ei of the subject A shown in FIG. 4 are point e (491,863), point f (1,967,1051), g. It becomes a point (633,503) and a point h (2,109,660) and is acquired as converted position information. In this embodiment, for example, the reciprocal of the vertical and horizontal compression ratios is multiplied in each of the vertical and horizontal directions to obtain the stretched image Ei.

[トリミング画像生成部]
トリミング画像生成部6においては、上記トリミング用の位置情報を、上記画像保管部2に保管していた同じサイズの撮影画像Piに適用して、被検物A、B、C、Dの周辺部を所定の割合で残し、不要な部分をトリミング(切取り)して矩形状(正方形状又は長方形状)のトリミング画像Tiを生成する(S6)。
[Crop image generator]
In the trimming image generation unit 6, the position information for trimming is applied to the captured image Pi of the same size stored in the image storage unit 2, and the peripheral portions of the test objects A, B, C, and D are applied. Is left at a predetermined ratio, and an unnecessary portion is trimmed (cut) to generate a rectangular (square or rectangular) trimmed image Ti (S6).

本実施例をした図4に示す撮影画像Piによれば、一例として、被検物Aに対応したトリミング枠50のXY座標値が、m点(265,1,124)、n点(2,221,1124)、o点(265,266)、p点(2,221,266);となり、該トリミング枠50は、縦858×横1,956pixのサイズの長方形状となる。 According to the photographed image Pi shown in FIG. 4 of this embodiment, as an example, the XY coordinate values of the trimming frame 50 corresponding to the subject A are m points (265, 1, 124) and n points (2,). 221,1124), o points (265,266), p points (2,221,266); The trimming frame 50 has a rectangular shape having a size of 858 vertical × 1,956 pix horizontal.

該トリミング画像Tiは、各別の被検物A、B、C、Dを一定の余白を残し囲むようにして切り出したため、区々の撮影画像となる。該撮影画像に映り込む被検物A、B、C、Dの画像の形状は、図示した4種に示すように大きさと形態が区々の多角形であるため、トリミング画像Tiも区々の矩形状となる。 Since the trimmed image Ti is cut out so as to surround each of the test objects A, B, C, and D so as to leave a certain margin, it becomes a photographed image of each area. Since the shapes of the images of the test objects A, B, C, and D reflected in the captured image are polygonal in size and shape as shown in the four types shown in the figure, the trimmed image Ti is also different. It becomes a rectangular shape.

[判定用画像生成部]
最後に、判定用画像生成部7では、該トリミング枠50で切り出したトリミング画像Tiを前記正方形の判定用画像のサイズ(224pixの正方形画像)に圧縮して判定用画像Jiを生成する(S7)。上記したようにトリミング画像Tiは、サイズが区々であるため、縦横の圧縮率がそれぞれ異なったものとなる。
[Image generation unit for judgment]
Finally, the determination image generation unit 7 compresses the trimmed image Ti cut out by the trimming frame 50 to the size of the square determination image (a square image of 224 pix) to generate a determination image Ji (S7). .. As described above, since the cropped image Ti has different sizes, the vertical and horizontal compression ratios are different from each other.

図6に表したように、各被検物A、B、C、D毎の伸張画像Jiにおける縦横方向の圧縮率は、次のようになる。 As shown in FIG. 6, the compression ratios in the vertical and horizontal directions in the stretched image Ji for each of the test objects A, B, C, and D are as follows.

(A)被検物Aについて
・縦方向圧縮率:224/ 858=0.26
・横方向圧縮率:224/1,956=0.11
(A) Subject A-Vertical compression rate: 224/858 = 0.26
-Horizontal compression rate: 224 / 1,956 = 0.11

(B)被検物Bについて
・縦方向圧縮率:224/ 847=0.26
・横方向圧縮率:224/1,029=0.22
(B) Subject B-Vertical compression rate: 224/847 = 0.26
-Horizontal compression rate: 224 / 1,029 = 0.22

(C)被検物Cについて
・縦方向圧縮率:224/ 803=0.28
・横方向圧縮率:224/1,853=0.12
(C) Subject C-Vertical compression rate: 224/803 = 0.28
-Horizontal compression rate: 224 / 1,853 = 0.12

(D)被検物Dについて
・縦方向圧縮率:224/ 807=0.28
・横方向圧縮率:224/1,227=0.18
(D) Subject D-Vertical compression rate: 224/807 = 0.28
-Horizontal compression rate: 224/1,227 = 0.18

[画像出力部]
以上の各部で処理を経て作成された判定用の画像データを画像出力部8から出力する。該出力データは、次段のニューラルネットワークに基づいた被検物の欠陥有無を判定する判定器に移行する。
[Image output section]
The image data for determination created through the processing in each of the above units is output from the image output unit 8. The output data is transferred to a determination device for determining the presence or absence of defects in the test object based on the neural network of the next stage.

以上の実施例により、概略的ではあるが、図示したような略長方形(又は平行四辺形)の被検物の横幅を約35mmとして、これを撮影サイズ内で約2,100pixの画素として捉えると、35mm÷2,100=0.017mm/pixとなる。これに対し検出したい欠陥の最小サイズを0.10mmと仮定すると、0.10÷0.017=5.88pixの大きさとなる。 According to the above embodiment, although it is schematic, the width of a substantially rectangular (or parallelogram) subject as shown in the figure is set to about 35 mm, and this is regarded as a pixel of about 2,100 pix within the shooting size. , 35 mm ÷ 2,100 = 0.017 mm / rectangle. On the other hand, assuming that the minimum size of the defect to be detected is 0.10 mm, the size is 0.10 ÷ 0.017 = 5.88 fix.

これを図6(A)に示す被検物Aの実施例に適用すると、横方向の圧縮率0.11を適用して演算すると5.88pix×0.11=0.647pixとなり欠陥個所はほぼ見えなくなるが、縦方向の圧縮率0.26を適用すると、5.88pix×0.26=1.53pixとなり欠陥画像が残存する事になり、検出可能な大きさとなって、実使用上は有用となる。 When this is applied to the embodiment of the test object A shown in FIG. 6 (A), when the calculation is performed by applying the lateral compression rate of 0.11, the result is 5.88 pix × 0.11 = 0.647 pix, and the defect portion is almost the same. Although it becomes invisible, when the compression rate of 0.26 in the vertical direction is applied, it becomes 5.88 fix × 0.26 = 1.53pix, and the defective image remains, and it becomes a detectable size, which is useful in actual use. It becomes.

1 画像入力部
2 画像保管部
3 画像サイズ変更部
4 位置情報取得部
5 トリミング用情報取得部
50 トリミングミンク枠
6 トリミング画像生成部
7 判定用画像生成部
8 画像出力部
A,B,C,D 被検物
Pi 撮影画像
Ji 判定用画像
Ei 伸張画像
Ti トリミング画像
1 Image input unit 2 Image storage unit 3 Image size change unit 4 Position information acquisition unit 5 Trimming information acquisition unit 50 Trimming mink frame 6 Trimming image generation unit 7 Judgment image generation unit 8 Image output units A, B, C, D Subject Pi Photographed image Ji Judgment image Ei Stretched image Ti Trimmed image

すなわち、被検物を撮影した画像を入力させる画像入力部と、該入力させた撮影画像を記憶手段に保管する画像保管部と、前記入力させた撮影画像を判定用画像サイズに圧縮して圧縮画像を生成する画像サイズ変更部と、前記圧縮画像における被検物の位置情報を取得する位置情報取得部と、該位置情報を前記撮影画像のサイズに伸張して生成した画像からトリミング用の位置情報を生成するトリミング用情報取得部と、該トリミング用位置情報を前記記憶手段に保管していた対応する撮影画像に適用してトリミング画像を生成するトリミング画像生成部と、該トリミング画像を前記判定用画像サイズに圧縮して判定用画像を生成する判定用画像生成部と、該判定用画像を次段の前記判定器に出力する画像出力部と、から成ることを特徴としている。 That is, an image input unit for inputting an image of a subject, an image storage unit for storing the input image in a storage means, and a compressed image of the input to be compressed to a determination image size. An image size changing unit that generates an image, a position information acquisition unit that acquires position information of an object in the compressed image , and a position for trimming from an image generated by expanding the position information to the size of the captured image. The trimming information acquisition unit that generates information, the trimming image generation unit that generates a trimmed image by applying the trimming position information to the corresponding captured image stored in the storage means , and the determination of the trimmed image. It is characterized by comprising a determination image generation unit that compresses the image for determination to generate a determination image and an image output unit that outputs the determination image to the determination device in the next stage.

また請求項2によれば、判定用画像サイズに圧縮した圧縮画像からの被検物の位置情報の取得を、ニューラルネットワークに基づいた手法を用いて行うことにより、精度の高い位置情報の取得を迅速かつ安定的に被検物の座標情報を捉えることができる効果を有し、飛躍的に処理速度を上げることができる。



Further, according to claim 2, the position information of the subject is acquired from the compressed image compressed to the judgment image size by using a method based on the neural network, so that the position information with high accuracy can be acquired. It has the effect of being able to quickly and stably capture the coordinate information of the subject, and can dramatically increase the processing speed.



Claims (4)

被検物の良否判定をニューラルネットワークに基づいた判定器で行うための判定用画像を生成する画像処理装置であって、
被検物を撮影した画像を入力させる画像入力部と、
該入力させた撮影画像を記憶手段に保管する画像保管部と、
前記入力させた撮影画像を判定用画像サイズに圧縮して圧縮画像を生成する画像サイズ変更部と、
該圧縮画像における被検物の位置情報を取得する位置情報取得部と、
該位置情報を前記撮影画像のサイズに伸張して生成した画像からトリミング用位置情報を生成するトリミング用情報取得部と
該トリミング用位置情報を前記画像保管部に保管していた対応する撮影画像に適用してトリミング画像を生成するトリミング画像生成部と、
該トリミング画像を前記判定用画像サイズに圧縮して判定用画像を生成する判定用画像生成部と、
該判定用画像を次段の前記判定器に出力する画像出力部と、
から成ることを特徴とした被検物判定用の画像処理装置。
It is an image processing device that generates a judgment image for performing a judgment of quality of a test object with a judgment device based on a neural network.
An image input unit that allows you to input an image of the subject,
An image storage unit that stores the input captured image in a storage means,
An image size changer that compresses the input captured image to the image size for judgment and generates a compressed image.
A position information acquisition unit that acquires the position information of the subject in the compressed image, and
The trimming information acquisition unit that generates trimming position information from the image generated by expanding the position information to the size of the captured image and the corresponding captured image that stores the trimming position information in the image storage unit. A cropped image generator that applies and generates a cropped image,
A judgment image generation unit that compresses the trimmed image to the judgment image size and generates a judgment image,
An image output unit that outputs the determination image to the determination device in the next stage,
An image processing device for determining a subject, which is characterized by being composed of.
前記位置情報取得部における位置座標情報の取得が、
ニューラルネットワークに基づいた手段を用いて行うことを特徴とした請求項1記載の被検物判定用の画像処理装置。
The acquisition of the position coordinate information in the position information acquisition unit is
The image processing apparatus for determining an object according to claim 1, wherein the image processing apparatus is performed by using a means based on a neural network.
被検物の良否判定をニューラルネットワークに基づいた判定器で行うための判定用画像を生成する画像処理方法であって、
被検物を撮影した画像を入力させる画像入力ステップと、
該入力させた撮影画像を記憶手段に保管する画像保管ステップと、
前記入力させた撮影画像を判定用画像サイズに圧縮して圧縮画像を生成する画像サイズ変更ステップと、
該サイズ変更画像における被検物の位置情報を取得する位置情報取得ステップと、
該位置情報を前記撮影画像のサイズに伸張して生成した画像からトリミング用位置情報を生成するトリミング用情報取得ステップと
該トリミング用位置情報を前記画像保管部に保管していた対応する撮影画像に適用してトリミング画像を生成するトリミング画像生成ステップと、
該トリミング画像を前記判定用画像サイズに圧縮して判定用画像を生成する判定用画像生成ステップと、
該判定用画像を次段の前記判定器に出力する画像出力ステップと、
から成ることを特徴とした被検物判定用の画像処理方法。
It is an image processing method that generates a judgment image for performing a judgment of quality of a test object with a judgment device based on a neural network.
An image input step that allows you to input an image of the subject,
An image storage step of storing the input captured image in a storage means, and
The image size change step of compressing the input captured image to the judgment image size to generate a compressed image, and
A position information acquisition step for acquiring the position information of the subject in the resized image, and
The trimming information acquisition step of generating the trimming position information from the image generated by expanding the position information to the size of the captured image and the corresponding captured image stored in the image storage unit with the trimming position information. A cropped image generation step that applies and generates a cropped image,
A judgment image generation step of compressing the trimmed image to the judgment image size to generate a judgment image, and
An image output step of outputting the determination image to the determination device in the next stage,
An image processing method for determining a subject, which is characterized by being composed of.
前記位置情報取得ステップにおける位置座標情報の取得が、
ニューラルネットワークに基づいた手段を用いて行うことを特徴とした請求項3記載の被検物判定用の画像処理方法。
The acquisition of the position coordinate information in the position information acquisition step is
The image processing method for determining a subject according to claim 3, wherein the image processing method is performed by using a means based on a neural network.
JP2020121654A 2020-07-15 2020-07-15 Image processing device and image processing method for determining the test object Active JP6788929B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020121654A JP6788929B1 (en) 2020-07-15 2020-07-15 Image processing device and image processing method for determining the test object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020121654A JP6788929B1 (en) 2020-07-15 2020-07-15 Image processing device and image processing method for determining the test object

Publications (2)

Publication Number Publication Date
JP6788929B1 JP6788929B1 (en) 2020-11-25
JP2022018507A true JP2022018507A (en) 2022-01-27

Family

ID=73455219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020121654A Active JP6788929B1 (en) 2020-07-15 2020-07-15 Image processing device and image processing method for determining the test object

Country Status (1)

Country Link
JP (1) JP6788929B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117396868A (en) * 2021-06-07 2024-01-12 日本电信电话株式会社 Estimation device, estimation method, and estimation program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002312789A (en) * 2002-03-06 2002-10-25 Mitsubishi Electric Corp Pattern checking device and different type inclusion checking device
JP2013037488A (en) * 2011-08-05 2013-02-21 Mega Chips Corp Image recognition device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002312789A (en) * 2002-03-06 2002-10-25 Mitsubishi Electric Corp Pattern checking device and different type inclusion checking device
JP2013037488A (en) * 2011-08-05 2013-02-21 Mega Chips Corp Image recognition device

Also Published As

Publication number Publication date
JP6788929B1 (en) 2020-11-25

Similar Documents

Publication Publication Date Title
CN106934803B (en) method and device for detecting surface defects of electronic device
JP6666046B2 (en) Image processing apparatus and image processing method
JP6403261B2 (en) Classifier generation device, visual inspection device, classifier generation method, and program
CN116309409A (en) Weld defect detection method, system and storage medium
JP3741672B2 (en) Image feature learning type defect detection method, defect detection apparatus, and defect detection program
CN114078127B (en) Object defect detection and counting method, device, equipment and storage medium
CN114998314A (en) PCB (printed Circuit Board) defect detection method based on computer vision
JP6788929B1 (en) Image processing device and image processing method for determining the test object
KR101716111B1 (en) System and method for detecting foreign substance
CN113781393B (en) Screen defect detection method, device, equipment and storage medium
JP2005121546A (en) Defect inspection method
CN112991159B (en) Face illumination quality evaluation method, system, server and computer readable medium
JP2005165387A (en) Method and device for detecting stripe defective of picture and display device
JP2019174931A (en) Contour extraction device and contour extraction method
CN117218633A (en) Article detection method, device, equipment and storage medium
CN115272340B (en) Industrial product defect detection method and device
WO2023280081A1 (en) Apparatus and method for identifying empty tray
CN114049317A (en) CCD equipment automatic inspection system and method based on artificial intelligence
KR20230036650A (en) Defect detection method and system based on image patch
CN113034432A (en) Product defect detection method, system, device and storage medium
JP2022029137A (en) Method and system for determining grade of screen part of electronic apparatus
JP2021096581A (en) State determination device and state determination method
JPH0735699A (en) Method and apparatus for detecting surface defect
TWI826108B (en) Method for establishing defect-detection model using fake defect images and system
JP2004219072A (en) Method and apparatus for detecting streak defect of screen

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200715

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200715

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200918

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201026

R150 Certificate of patent or registration of utility model

Ref document number: 6788929

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150