JP7391579B2 - Visual inspection system and visual inspection method - Google Patents

Visual inspection system and visual inspection method Download PDF

Info

Publication number
JP7391579B2
JP7391579B2 JP2019163358A JP2019163358A JP7391579B2 JP 7391579 B2 JP7391579 B2 JP 7391579B2 JP 2019163358 A JP2019163358 A JP 2019163358A JP 2019163358 A JP2019163358 A JP 2019163358A JP 7391579 B2 JP7391579 B2 JP 7391579B2
Authority
JP
Japan
Prior art keywords
images
unit
inspection object
degrees
inspection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019163358A
Other languages
Japanese (ja)
Other versions
JP2021042994A (en
Inventor
勇記 田中
貴成 福原
陽太郎 村松
篤 徳岡
忠 小泉
仁志 泰中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimizu Corp
Original Assignee
Shimizu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimizu Corp filed Critical Shimizu Corp
Priority to JP2019163358A priority Critical patent/JP7391579B2/en
Publication of JP2021042994A publication Critical patent/JP2021042994A/en
Application granted granted Critical
Publication of JP7391579B2 publication Critical patent/JP7391579B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、外観検査システム、及び外観検査方法に関する。 The present invention relates to a visual inspection system and a visual inspection method.

チーズ等の食品は、アルミ箔などの主に樹脂を基材とした包装材料にて包装される。アルミ箔に包装されたチーズ等は、固化していない状態で、目視検査が行われ、冷却装置、乾燥装置等の固化装置に搬入される。アルミ箔に包装されたチーズ等は、その固化装置の内部で、コンベアにより搬送されつつ固化される。固化されたチーズ等は、撮像され、撮像された対象物を画像認識させることによって、検品作業が行われる。
検品作業に関して、台紙上のサンプル等の検査対象の数量の検査を好適に行う技術が知られている(例えば、特許文献1参照)。この技術では、検査システムは、検査装置、撮影装置、照明等を有し、表面に光沢があり凹凸を有する検査対象の数量の検査を行う。
Foods such as cheese are packaged with packaging materials mainly made of resin, such as aluminum foil. Cheese and the like packaged in aluminum foil are visually inspected in an unsolidified state, and then transported to a solidification device such as a cooling device or a drying device. Cheese and the like packaged in aluminum foil are solidified inside the solidification device while being conveyed by a conveyor. Solidified cheese or the like is imaged and inspected by image recognition of the imaged object.
Regarding inspection work, a technique for suitably inspecting the quantity of an inspection target such as a sample on a mount is known (see, for example, Patent Document 1). In this technique, an inspection system includes an inspection device, a photographing device, a lighting device, and the like, and inspects a quantity of inspection objects that have glossy and uneven surfaces.

特開2017-41053号公報JP 2017-41053 Publication

目視検査では、検品対象の良否を判断する基準が、人によって異なるため、目視検査の結果にばらつきが生じる。また、目視検査では、熟練者の経験値を、他者と共有し難い。
撮像された対象物を画像処理し、画像処理された対象物を画像認識させることによって検品作業を行う場合には、複雑な形状・反射の多い表面を有する製品などでは十分な精度が出せない。また、撮像された対象物を画像処理し、画像処理された対象物を画像認識させることによって検品作業を行う場合には、対象物の特定面に対して正面から撮影した画像を使用していた。このため、対象物の複数の他の面を画像認識させる場合には複数の他の面の数の撮影装置と、照明装置とが必要である。
本発明は、このような事情に鑑みてなされたものであり、その目的は、複雑な形状・反射の多い表面を有する検査対象物の検品作業における精度を向上できる外観検査システム、及び外観検査方法を提供することである。
In visual inspection, the criteria for determining the quality of the inspection object differs from person to person, resulting in variations in the results of the visual inspection. Furthermore, in visual inspection, it is difficult to share the experience values of experts with others.
When performing inspection work by image processing a captured object and performing image recognition on the image-processed object, sufficient accuracy cannot be achieved for products with complex shapes or highly reflective surfaces. In addition, when performing inspection work by image processing the imaged object and performing image recognition on the image-processed object, images taken from the front of a specific surface of the object were used. . For this reason, when performing image recognition of a plurality of other surfaces of a target object, as many photographing devices and illumination devices as there are plural other surfaces are required.
The present invention has been made in view of the above circumstances, and its purpose is to provide a visual inspection system and a visual inspection method that can improve the accuracy in inspection work of inspection objects having complex shapes and highly reflective surfaces. The goal is to provide the following.

(1)本発明の一態様は、検査対象物の画像を用いて、前記検査対象物の良否を判別する外観検査システムであって、検査対象物の一主面に対して、前記一主面と平行な第1軸周りに第1角度の入射角度で光を照射する第1照明部と、前記第1照明部によって照射された前記検査対象物を、前記入射角度に対する反射角度で撮像する第1撮像部と、前記検査対象物の前記一主面に対して、前記第1軸と同軸または平行な第2軸周りに、前記第1照明部とは反対側から前記第1角度の入射角度で光を照射する第2照明部と、前記第2照明部によって照射された前記検査対象物を、前記入射角度に対する反射角度で撮像する第2撮像部と、前記第1撮像部と前記第2撮像部との各々によって撮像された前記検査対象物の複数の前記画像の各々を複数に分割することによって複数の分割画像を取得する画像処理部と、複数の前記検査対象物の画像を用いた学習によって生成された学習モデルを用いて、前記画像処理部が取得した複数の前記分割画像の各々を再現した画像である再現画像を複数生成し、複数の前記分割画像の各々と、複数の前記再現画像の各々とに基づいて、前記検査対象物の良否を判別する判別部と、前記判別部によって、判別された前記検査対象物の良否の結果を出力する出力部とを備え、前記第1角度は、前記一主面の法線方向を0度としたとき、50度以上70度以下であり、前記検査対象物は、直方体であり、前記一主面の対向する二辺と、前記第1照明部と前記第2照明部との各々が照射する前記光の照射方向とが、前記一主面の法線方向から見て第2角度をなし、前記第2角度は、15度以上25度以下である、外観検査システムであり、前記画像処理部は、前記第1撮像部と前記第2撮像部との各々によって撮像された前記検査対象物の3面の画像から、前記検査対象物の部分を抽出し、抽出した前記検査対象物の部分の画像を複数に分割することによって複数の分割画像を取得し、前記判別部は、複数の前記分割画像の各々と、前記学習モデルを用いて複数の前記分割画像の各々を再現した複数の再現画像の各々との再現精度を複数導出し、導出した複数の前記再現精度に基づいて、前記検査対象物の良否を判別し、前記学習モデルは、複数の分割画像の各々と、各分割画像に表された検査対象物を再構成した画像とに基づいて、所定の損失関数を最小にするように前記学習モデルのパラメータを最適化したものであ
(2)本発明の一態様は、前記判別部は、複数の前記再現精度の各々が、閾値以上であるか否かを判定し、複数の前記再現精度の閾値以上である割合に基づいて、前記検査対象物の良否を判定する、上記()に記載の外観検査システムである。
)本発明の一態様は、前記第1角度は、前記一主面の法線方向を0度としたとき、55度以上65度以下である、上記(1)又は上記(2)に記載の外観検査システムである。
(1) One aspect of the present invention is an appearance inspection system that uses an image of the object to be inspected to determine the quality of the object. a first illumination unit that irradiates light at a first incident angle around a first axis parallel to the first axis; and a first illumination unit that images the inspection object irradiated by the first illumination unit at a reflection angle with respect to the incident angle. 1 imaging section, and an incident angle of the first angle from the opposite side to the first illumination section around a second axis coaxial or parallel to the first axis with respect to the one principal surface of the inspection object. a second illumination unit that irradiates light with light, a second imaging unit that images the inspection object irradiated by the second illumination unit at a reflection angle with respect to the incident angle, the first imaging unit and the second an image processing unit that obtains a plurality of divided images by dividing each of the plurality of images of the inspection object captured by each of the imaging units into a plurality of images; and an image processing unit that uses the plurality of images of the inspection object. Using the learning model generated by learning, a plurality of reproduction images that are images that reproduce each of the plurality of divided images acquired by the image processing unit are generated, and each of the plurality of divided images and the plurality of divided images are reproduced. a determining unit that determines the quality of the inspection target based on each of the reproduced images; and an output unit that outputs a result of the quality of the inspection target determined by the determining unit, the first The angle is 50 degrees or more and 70 degrees or less when the normal direction of the one principal surface is 0 degrees, and the object to be inspected is a rectangular parallelepiped, and the two opposing sides of the one principal surface are The irradiation direction of the light emitted by each of the first illumination section and the second illumination section forms a second angle when viewed from the normal direction of the one main surface, and the second angle is 15 degrees or more and 25 degrees or more. In the visual inspection system, the image processing unit extracts images of three sides of the inspection target from images of three sides of the inspection target captured by each of the first imaging unit and the second imaging unit. A plurality of divided images are obtained by extracting a portion of the inspected object and dividing the image of the extracted portion of the inspection object into a plurality of parts, and the discriminating unit uses each of the plurality of divided images and the learning model. A plurality of reproduction accuracies are derived for each of a plurality of reproduction images that reproduce each of the plurality of divided images, and based on the plurality of derived reproduction accuracies, the quality of the inspection object is determined, and the learning model is the one in which the parameters of the learning model are optimized so as to minimize a predetermined loss function based on each of a plurality of divided images and the reconstructed image of the inspection object represented in each divided image. It is .
(2 ) In one aspect of the present invention, the determination unit determines whether each of the plurality of reproduction accuracies is equal to or greater than a threshold value, and based on the proportion of the plurality of reproduction accuracies equal to or greater than the threshold value, The appearance inspection system according to ( 1 ) above, which determines the quality of the inspection object.
( 3 ) One aspect of the present invention is according to (1) or ( 2) above , wherein the first angle is 55 degrees or more and 65 degrees or less, when the normal direction of the one principal surface is 0 degrees. This is the visual inspection system described.

)本発明の一態様は、検査対象物の画像を用いて、前記検査対象物の良否を判別する外観検査システムが実行する外観検査方法であって、第1照明部が、検査対象物の一主面に対して、前記一主面と平行な第1軸周りに第1角度の入射角度で光を照射するステップと、第1撮像部が、前記第1照明部によって光が照射された前記検査対象物を、前記入射角度に対する反射角度で撮像するステップと、第2照明部が、前記検査対象物の前記一主面に対して、前記第1軸と同軸または平行な第2軸周りに、前記第1照明部とは反対側から前記第1角度の入射角度で光を照射するステップと、第2撮像部が、第2照明部によって光が照射された前記検査対象物を、前記入射角度に対する反射角度で撮像するステップと、前記第1撮像部と前記第2撮像部との各々によって撮像された前記検査対象物の前記画像を複数に分割することによって複数の分割画像を取得するステップと、複数の前記検査対象物の画像を用いた学習によって生成された学習モデルを用いて、前記分割するステップで取得した複数の前記分割画像の各々を再現した画像である再現画像を複数生成し、複数の前記分割画像の各々と、複数の前記再現画像の各々とに基づいて、前記検査対象物の良否を判別するステップと、前記判別するステップによって判別された前記検査対象物の良否の結果を出力するステップとを有し、前記第1角度は、前記一主面の法線方向を0度としたとき、50度以上70度以下であり、前記検査対象物は、直方体であり、前記一主面の対向する二辺と、前記第1照明部と前記第2照明部との各々が照射する前記光の照射方向とが、前記一主面の法線方向から見て第2角度をなし、前記第2角度は、15度以上25度以下である、外観検査方法であり、前記取得するステップでは、前記第1撮像部と前記第2撮像部との各々によって撮像された前記検査対象物の3面の画像から、前記検査対象物の部分を抽出し、抽出した前記検査対象物の部分の画像を複数に分割することによって複数の分割画像を取得し、前記判別するステップでは、複数の前記分割画像の各々と、前記学習モデルを用いて複数の前記分割画像の各々を再現した複数の再現画像の各々との再現精度を複数導出し、導出した複数の前記再現精度に基づいて、前記検査対象物の良否を判別し、前記学習モデルは、複数の分割画像の各々と、各分割画像に表された検査対象物を再構成した画像とに基づいて、所定の損失関数を最小にするように前記学習モデルのパラメータを最適化したものである。
( 4 ) One aspect of the present invention is an appearance inspection method performed by an appearance inspection system that uses an image of the inspection object to determine the quality of the inspection object, wherein the first illumination unit irradiating one principal surface with light at a first incident angle around a first axis parallel to the one principal surface; capturing an image of the inspection object at a reflection angle with respect to the incident angle; irradiating the object with light at an incident angle of the first angle from a side opposite to the first illumination section; capturing an image at a reflection angle with respect to the incident angle; and obtaining a plurality of divided images by dividing the image of the inspection object captured by each of the first imaging section and the second imaging section into a plurality of parts. and a learning model generated by learning using the plurality of images of the inspection object to generate a plurality of reproduction images that are images that reproduce each of the plurality of divided images obtained in the dividing step. and determining the quality of the inspection target based on each of the plurality of divided images and each of the plurality of reproduced images, and the quality of the inspection target determined by the determining step. outputting a result, the first angle is 50 degrees or more and 70 degrees or less when the normal direction of the one principal surface is 0 degrees, and the inspection object is a rectangular parallelepiped. , the two opposing sides of the one principal surface and the irradiation direction of the light irradiated by each of the first illumination section and the second illumination section are second when viewed from the normal direction of the one principal surface. the second angle is 15 degrees or more and 25 degrees or less; The step of extracting a portion of the inspection object from images of three sides of the inspection object, dividing the extracted image of the portion of the inspection object into a plurality of parts to obtain a plurality of divided images, and determining the , derive a plurality of reproduction accuracies for each of the plurality of divided images and each of a plurality of reproduction images that reproduce each of the plurality of divided images using the learning model, and based on the derived plurality of reproduction accuracies. The learning model determines the quality of the inspection object, and the learning model calculates a predetermined loss function based on each of the plurality of divided images and the reconstructed image of the inspection object represented in each divided image. The parameters of the learning model are optimized to minimize the learning model .

本発明によれば、複雑な形状・反射の多い表面を有する検査対象物の検品作業における精度を向上できるという効果が得られる。 According to the present invention, it is possible to improve the accuracy in inspection work of an inspection object having a complicated shape and a surface with many reflections.

本発明の実施形態に係る外観検査システムの一例を示す図。1 is a diagram showing an example of a visual inspection system according to an embodiment of the present invention. 製品の一例を示す図。A diagram showing an example of a product. 本実施形態に係る外観検査システムにおける照明部の一例を示す図。The figure which shows an example of the illumination part in the visual inspection system based on this embodiment. 本実施形態に係る外観検査システムの制御装置の一例を示すブロック図。FIG. 1 is a block diagram showing an example of a control device of the visual inspection system according to the present embodiment. 本実施形態に係る外観検査システムにおける製品の載置の一例を示す図。FIG. 3 is a diagram showing an example of how products are placed in the appearance inspection system according to the present embodiment. 本実施形態に係る外観検査システムの制御装置の処理の例1を示す図。FIG. 2 is a diagram showing example 1 of processing of the control device of the visual inspection system according to the present embodiment. 本実施形態に係る外観検査システムの制御装置の処理の例2を示す図。FIG. 7 is a diagram illustrating a second example of processing of the control device of the visual inspection system according to the present embodiment. 判定スコア閾値の設定例を示す図。The figure which shows the example of a setting of a determination score threshold value. 本実施形態に係る外観検査システムの動作の例1を示すシーケンス図。FIG. 2 is a sequence diagram showing an example 1 of operation of the visual inspection system according to the present embodiment. 本実施形態に係る外観検査システムの動作の一例を示す図。FIG. 3 is a diagram showing an example of the operation of the visual inspection system according to the present embodiment. 本実施形態に係る外観検査システムの動作の例2を示すシーケンス図。FIG. 7 is a sequence diagram showing a second example of the operation of the visual inspection system according to the present embodiment. 本実施形態に係る外観検査システムの動作の例3を示すシーケンス図。FIG. 7 is a sequence diagram showing a third example of the operation of the visual inspection system according to the present embodiment. 変形例に係る外観検査システムの一例を示す図。The figure which shows an example of the external appearance inspection system based on a modification. 変形例に係る外観検査システムにおける照明部の配置の一例を示す図。The figure which shows an example of arrangement|positioning of the illumination part in the visual inspection system based on a modification. 変形例に係る外観検査システムにおける製品の載置の一例を示す図。The figure which shows an example of mounting of the product in the external appearance inspection system based on a modification.

次に、本実施形態の外観検査システム、及び外観検査方法を、図面を参照しつつ説明する。以下で説明する実施形態は一例に過ぎず、本発明が適用される実施形態は、以下の実施形態に限られない。なお、実施形態を説明するための全図において、同一の機能を有するものは同一符号を用い、繰り返しの説明は省略する。
また、本願でいう「XXに基づいて」とは、「少なくともXXに基づく」ことを意味し、XXに加えて別の要素に基づく場合も含む。また、「XXに基づいて」とは、XXを直接に用いる場合に限定されず、XXに対して演算や加工が行われたものに基づく場合も含む。「XX」は、任意の要素(例えば、任意の情報)である。
Next, the visual inspection system and visual inspection method of this embodiment will be explained with reference to the drawings. The embodiments described below are merely examples, and the embodiments to which the present invention is applied are not limited to the following embodiments. In addition, in all the figures for explaining the embodiment, parts having the same functions are denoted by the same reference numerals, and repeated explanations will be omitted.
Moreover, "based on XX" as used in the present application means "based on at least XX", and includes cases where it is based on another element in addition to XX. Furthermore, "based on XX" is not limited to the case where XX is used directly, but also includes the case where XX is subjected to calculations or processing. "XX" is an arbitrary element (for example, arbitrary information).

(実施形態)
図1は、本発明の実施形態に係る外観検査システムの一例を示す図である。外観検査システムは、ワークW(検査対象物)の外観検査、ワークWの形状と、表面の状態とに基づいて、ワークWの良否を判断する。外観検査システムは、ベルトコンベアに載置されたワークが撮像される位置より前の異なる2点の各々を通過する時刻を検出する。外観検査システムは、検出した2点の各々を通過する時刻に基づいて、2点の間を通過するのに要した時間である通過時間Tsを導出する。外観検査システムは、導出した通過時間Tsに基づいて、撮像部にワークを撮像させるタイミングである撮像タイミングを導出する。外観検査システムは、導出した撮像タイミングに基づいて、ワークWを照明し、照明したワークWを撮像し、所定の処理を行うことによって、検査用の画像を取得する。外観検査システムは、取得した検査用の画像に基づいて、ワークWが良品であるか不良品であるかを判別する。外観検査システムは、ワークWが不良品であると判別した場合に、通過時間Tsに基づいて、ワークWを排出する排出部にワークWを排出させるタイミングである排出タイミングを導出する。外観検査システムは、導出した排出タイミングに基づいて、排出部に不良品と判別されたワークWを排出させる。以下、ワークWの一例として、アルミ箔に包装されたチーズである製品を適用する場合について説明する。
(Embodiment)
FIG. 1 is a diagram showing an example of a visual inspection system according to an embodiment of the present invention. The appearance inspection system determines the quality of the workpiece W (inspection object) based on the appearance inspection of the workpiece W (inspection target object), the shape of the workpiece W, and the surface condition. The visual inspection system detects the time when a workpiece placed on a belt conveyor passes through two different points before the imaged position. The visual inspection system derives the passing time Ts, which is the time required to pass between the two detected points, based on the time at which the object passes through each of the two detected points. The visual inspection system derives an imaging timing, which is the timing at which the imaging unit is caused to image the workpiece, based on the derived passing time Ts. The visual inspection system illuminates the workpiece W based on the derived imaging timing, images the illuminated workpiece W, and performs predetermined processing to obtain an image for inspection. The appearance inspection system determines whether the workpiece W is a good product or a defective product based on the acquired inspection image. When the visual inspection system determines that the workpiece W is defective, it derives the discharge timing, which is the timing at which the workpiece W is discharged to the discharger that discharges the workpiece W, based on the transit time Ts. The appearance inspection system causes the discharge section to discharge the workpiece W determined to be defective based on the derived discharge timing. Hereinafter, as an example of the workpiece W, a case will be described in which a cheese product packaged in aluminum foil is applied.

外観検査システム100は、ベルトコンベアBC-1と、ベルトコンベアBC-2aと、ベルトコンベアBC-2bと、ベルトコンベアBC-2cと、ベルトコンベアBC-2dとを備える。外観検査システム100は、センサー110aと、センサー120aと、センサー110bと、センサー120bと、センサー110cと、センサー120cと、センサー110dと、センサー120dとを備える。外観検査システム100は、照明部102aと、照明部102bと、照明部102cと、照明部102dと、照明部105aと、照明部105bと、照明部105cと、照明部105dと、撮像部103aと、撮像部103bと、撮像部103cと、撮像部103dと、撮像部104aと、撮像部104bと、撮像部104cと、撮像部104dと、排出部130aと、排出部130bと、排出部130cと、排出部130dと、排出エリア140aと、排出エリア140bと、排出エリア140cと、排出エリア140dと、制御装置150とを備える。
第1検査ラインは、ベルトコンベアBC-2aと、センサー110aと、センサー120aと、照明部102aと、撮像部103aと、撮像部104aと、照明部105aと、排出部130aと、排出エリア140aとを含む。第2検査ラインは、ベルトコンベアBC-2bと、センサー110bと、センサー120bと、照明部102bと、撮像部103bと、撮像部104bと、照明部105bと、排出部130bと、排出エリア140bとを含む。第3検査ラインは、ベルトコンベアBC-2cと、センサー110cと、センサー120cと、照明部102cと、撮像部103cと、撮像部104cと、照明部105cと、排出部130cと、排出エリア140cとを含む。第4検査ラインは、ベルトコンベアBC-2dと、センサー110dと、センサー120dと、照明部102dと、撮像部103dと、撮像部104dと、照明部105dと、排出部130dと、排出エリア140dとを含む。第1検査ラインから第4検査ラインは同様の構成であるため、第1検査ラインについて説明する。第2検査ラインから第4検査ラインは、第1検査ラインを適用できる。制御装置150は、ベルトコンベアBC-1と、ベルトコンベアBC-2aと、センサー110aと、センサー120aと、照明部102aと、照明部105aと、撮像部103aと、撮像部104aと、排出部130aと接続される。図1では、第1検査ラインについての接続が示され、それ以外の接続については省略されている。
The visual inspection system 100 includes a belt conveyor BC-1, a belt conveyor BC-2a, a belt conveyor BC-2b, a belt conveyor BC-2c, and a belt conveyor BC-2d. The visual inspection system 100 includes a sensor 110a, a sensor 120a, a sensor 110b, a sensor 120b, a sensor 110c, a sensor 120c, a sensor 110d, and a sensor 120d. The visual inspection system 100 includes a lighting section 102a, a lighting section 102b, a lighting section 102c, a lighting section 102d, a lighting section 105a, a lighting section 105b, a lighting section 105c, a lighting section 105d, and an imaging section 103a. , the imaging section 103b, the imaging section 103c, the imaging section 103d, the imaging section 104a, the imaging section 104b, the imaging section 104c, the imaging section 104d, the ejection section 130a, the ejection section 130b, and the ejection section 130c. , a discharge section 130d, a discharge area 140a, a discharge area 140b, a discharge area 140c, a discharge area 140d, and a control device 150.
The first inspection line includes belt conveyor BC-2a, sensor 110a, sensor 120a, lighting section 102a, imaging section 103a, imaging section 104a, lighting section 105a, discharge section 130a, and discharge area 140a. including. The second inspection line includes belt conveyor BC-2b, sensor 110b, sensor 120b, lighting section 102b, imaging section 103b, imaging section 104b, lighting section 105b, discharge section 130b, and discharge area 140b. including. The third inspection line includes the belt conveyor BC-2c, the sensor 110c, the sensor 120c, the lighting section 102c, the imaging section 103c, the imaging section 104c, the lighting section 105c, the discharge section 130c, and the discharge area 140c. including. The fourth inspection line includes belt conveyor BC-2d, sensor 110d, sensor 120d, lighting section 102d, imaging section 103d, imaging section 104d, lighting section 105d, discharge section 130d, and discharge area 140d. including. Since the first to fourth inspection lines have similar configurations, the first inspection line will be explained. The first inspection line can be applied to the second to fourth inspection lines. The control device 150 includes a belt conveyor BC-1, a belt conveyor BC-2a, a sensor 110a, a sensor 120a, a lighting section 102a, a lighting section 105a, an imaging section 103a, an imaging section 104a, and a discharge section 130a. connected to. In FIG. 1, connections for the first inspection line are shown, and other connections are omitted.

ベルトコンベアBC-1は、制御装置150によって制御される。ベルトコンベアBC-1は、輪状にした幅広のベルトを台車の上で回転させ、その上に製品101を載置して移動させる。水平面を構成する互いに垂直である2軸をX軸とY軸とし、水平面に垂直な方向をZ軸とする。複数の製品101の各々は、ベルトコンベアBC-1によって、X軸の正の方向に移動する。複数の製品101の各々の移動方向を矢印で示す。コンベアBC-1によって搬送される複数の製品101の各々は、ベルトコンベアBC-2aからベルトコンベアBC-2dのうち、ベルトコンベアBC-2aに搬送されることによって、第1検査ラインに搬送される。
ベルトコンベアBC-2aに搬送された製品101は、ベルトコンベアBC-2a上で、センサー110aに検出される。センサー110aは、製品101を検出した場合に、センサー110aのIDと、製品101を検出したことを示す情報と、製品101を検出した時刻を示す情報である第1時刻情報とを含む第1検出通知情報を作成し、作成した第1検出通知情報を、制御装置150に出力する。ベルトコンベアBC-2aに搬送された製品101は、センサー110aに検出された後に、センサー120aに検出される。センサー120aは、製品101を検出した場合に、センサー120aのIDと、製品101を検出したことを示す情報と、製品101を検出した時刻を示す情報である第2時刻情報とを含む第2検出通知情報を作成し、作成した第2検出通知情報を、制御装置150に出力する。センサー110aと、センサー120aとの一例は、光電センサーである。
Belt conveyor BC-1 is controlled by control device 150. The belt conveyor BC-1 rotates a wide ring-shaped belt on a cart, and places the product 101 on it and moves it. The two axes that are perpendicular to each other and make up the horizontal plane are the X-axis and the Y-axis, and the direction perpendicular to the horizontal plane is the Z-axis. Each of the plurality of products 101 is moved in the positive direction of the X-axis by belt conveyor BC-1. The moving direction of each of the plurality of products 101 is indicated by an arrow. Each of the plurality of products 101 conveyed by the conveyor BC-1 is conveyed to the first inspection line by being conveyed from the belt conveyor BC-2a to the belt conveyor BC-2a of the belt conveyor BC-2d. .
The product 101 conveyed to the belt conveyor BC-2a is detected by the sensor 110a on the belt conveyor BC-2a. When the sensor 110a detects the product 101, the sensor 110a performs first detection including the ID of the sensor 110a, information indicating that the product 101 has been detected, and first time information that is information indicating the time when the product 101 was detected. Notification information is created, and the created first detection notification information is output to the control device 150. The product 101 conveyed to the belt conveyor BC-2a is detected by the sensor 110a and then by the sensor 120a. When the sensor 120a detects the product 101, the sensor 120a performs second detection including the ID of the sensor 120a, information indicating that the product 101 has been detected, and second time information that is information indicating the time when the product 101 was detected. Notification information is created, and the created second detection notification information is output to the control device 150. An example of the sensor 110a and the sensor 120a is a photoelectric sensor.

図2は、製品の一例を示す図である。製品101はアルミ箔に包装されたチーズであるため、その表面はアルミ箔である。このため、製品101の表面は、光沢があり、光を照射した場合に、その光が反射する場合がある。また、製品101は、アルミ箔を折り、溶融したチーズを注入することで成型する。このため、製品101の形状は、アルミ箔の折り目などによる凹凸を有する。図1に戻り説明を続ける。
照明部102aと照明部105aとは、制御装置150によって制御される。照明部102aと照明部105aとは、製品101に光を照射する。照明部102aと照明部105aとが照射する光の色の一例は、青色である。図3は、本実施形態に係る外観検査システムにおける照明部の一例を示す図である。製品101において、X軸とY軸とからなる平面に平行な面を、一主面とする。照明部102aは、一主面と平行な第1軸周りに、第1角度θ1の入射角度で光を照射する。一主面の法線方向を0度とした場合に、第1角度θ1の一例は50度以上70度以下であり、より好ましくは55度以上65度以下である。照明部105aは、一主面に対して、第1軸と同軸または平行な第2軸周りに、照明部102aとは反対側から第1角度θ1の入射角度で光を照射する。一主面の法線方向を0度とした場合に、第1角度θ1の一例は50度以上70度以下であり、より好ましくは55度以上65度以下である。以下、第1角度θ1を50度として説明を続ける。図1に戻り説明を続ける。
FIG. 2 is a diagram showing an example of a product. Since the product 101 is cheese packaged in aluminum foil, its surface is aluminum foil. Therefore, the surface of the product 101 is glossy, and when irradiated with light, the light may be reflected. Further, the product 101 is molded by folding aluminum foil and injecting melted cheese. Therefore, the shape of the product 101 has irregularities due to folds of the aluminum foil and the like. Returning to FIG. 1, the explanation will be continued.
The lighting section 102a and the lighting section 105a are controlled by a control device 150. The lighting section 102a and the lighting section 105a irradiate the product 101 with light. An example of the color of the light emitted by the illumination section 102a and the illumination section 105a is blue. FIG. 3 is a diagram showing an example of a lighting section in the visual inspection system according to the present embodiment. In the product 101, a surface parallel to the plane consisting of the X-axis and the Y-axis is defined as one principal surface. The illumination unit 102a emits light around a first axis parallel to one main surface at an incident angle of a first angle θ1. When the normal direction of one principal surface is 0 degrees, an example of the first angle θ1 is 50 degrees or more and 70 degrees or less, and more preferably 55 degrees or more and 65 degrees or less. The illumination unit 105a irradiates light onto one principal surface at an incident angle of a first angle θ1 from the opposite side to the illumination unit 102a around a second axis coaxial or parallel to the first axis. When the normal direction of one principal surface is 0 degrees, an example of the first angle θ1 is 50 degrees or more and 70 degrees or less, and more preferably 55 degrees or more and 65 degrees or less. Hereinafter, the explanation will be continued assuming that the first angle θ1 is 50 degrees. Returning to FIG. 1, the explanation will be continued.

撮像部103aと撮像部104aとは、制御装置150によって制御される。撮像部103aと撮像部104aとは、製品101を撮像する。撮像部103aは、照明部102aが照射した光を、製品101が反射することによって得られる反射光を受光することによって撮像する。撮像部104aは、照明部105aが照射した光を、製品101が反射することによって得られる反射光を受光することによって撮像する。撮像部103aと撮像部104aとは、複数の受光素子と、集光系光学系とを有している。受光素子は、集光系光学系を通して得られた光の強度を電気信号に変換するCCD(charge-coupled device)やCMOS(complementary metal oxide semiconductor)等の撮像素子からなるイメージセンサである。集光系光学系は、外部から入射する光を集光するための光学系である。具体的には、集光系光学系は、一以上の光学レンズを有している。撮像部103aは、照明部102aが照射した光を、製品101が反射した反射光を受光素子が受光できる位置に設置される。撮像部104aは、照明部105aが照射した光を、製品101が反射した反射光を受光素子が受光できる位置に設置される。撮像部103aと、撮像部104aとは、撮像することによって得られる画像(以下「検査用の画像」という)を示す情報を、制御装置150に出力する。 The imaging unit 103a and the imaging unit 104a are controlled by a control device 150. The imaging unit 103a and the imaging unit 104a capture images of the product 101. The imaging unit 103a captures an image by receiving reflected light obtained when the product 101 reflects the light emitted by the illumination unit 102a. The imaging unit 104a captures an image by receiving reflected light obtained when the product 101 reflects the light emitted by the illumination unit 105a. The imaging unit 103a and the imaging unit 104a include a plurality of light receiving elements and a condensing optical system. The light-receiving element is an image sensor made of an imaging element such as a CCD (charge-coupled device) or a CMOS (complementary metal oxide semiconductor) that converts the intensity of light obtained through a condensing optical system into an electrical signal. The condensing optical system is an optical system for condensing light incident from the outside. Specifically, the condensing optical system includes one or more optical lenses. The imaging unit 103a is installed at a position where the light receiving element can receive the light emitted by the illumination unit 102a and the reflected light reflected by the product 101. The imaging unit 104a is installed at a position where the light receiving element can receive the light emitted by the illumination unit 105a and the reflected light reflected by the product 101. The imaging unit 103a and the imaging unit 104a output information indicating an image obtained by imaging (hereinafter referred to as an “inspection image”) to the control device 150.

図4は、本実施形態に係る外観検査システムの制御装置の一例を示すブロック図である。制御装置150は、CPU(Central Processing Unit)等のプロセッサによって所定のプログラムが実行されることにより機能するソフトウェア機能部である。ソフトウェア機能部は、CPU等のプロセッサ、プログラムを格納するROM(Read Only Memory)、データを一時的に記憶するRAM(Random Access Memory)、及びタイマー等の電子回路を備える。なお、制御装置150の少なくとも一部は、LSI(Large Scale Integration)等の集積回路であってもよい。制御装置150は、処理部152と、取得部154と、画像処理部156と、学習部157と、判別部158と、出力部160として機能する。
処理部152は、ベルトコンベアBC-1を制御することによって、ベルトコンベアBC-1に載置された製品101を、X軸の正の方向に搬送する。処理部152は、ベルトコンベアBC-2aを制御することによって、ベルトコンベアBC-1の後に、ベルトコンベアBC-2aに載置された製品101を、X軸の正の方向に、搬送する。処理部152は、センサー110aが出力した第1検出通知情報と、センサー120aが出力した第2検出通知情報とを取得する。処理部152は、第1検出通知情報に含まれる第1時刻情報を取得し、第2検出通知情報に含まれる第2時刻情報を取得し、取得した第1時刻情報と第2時刻情報とに基づいて、第1時刻から第2時刻が経過するまでの経過時間Tsを導出する。処理部152は、導出した経過時間Tsに撮像タイミング調整用の係数W1を乗算することによって、撮像タイミングを導出する。撮像タイミング調整用の係数W1は、予め設定される。処理部152は、経過時間Tsを示す情報を出力部160に出力する。処理部152は、撮像タイミングに基づいて、その撮像タイミングで、撮像部103aと撮像部104aとが製品101を撮像できるように、照明部102aと照明部105aに光を照射させる。処理部152は、撮像タイミングの直前までの間に、照明部102aと照明部105aに光を照射させるための制御情報を出力する。処理部152は、撮像タイミングに、撮像部103aと撮像部104aとに撮像させるための制御信号を出力する。
FIG. 4 is a block diagram showing an example of a control device of the visual inspection system according to this embodiment. The control device 150 is a software functional unit that functions by executing a predetermined program by a processor such as a CPU (Central Processing Unit). The software function section includes a processor such as a CPU, a ROM (Read Only Memory) for storing programs, a RAM (Random Access Memory) for temporarily storing data, and electronic circuits such as a timer. Note that at least a portion of the control device 150 may be an integrated circuit such as an LSI (Large Scale Integration). The control device 150 functions as a processing section 152 , an acquisition section 154 , an image processing section 156 , a learning section 157 , a discrimination section 158 , and an output section 160 .
The processing unit 152 controls the belt conveyor BC-1 to convey the product 101 placed on the belt conveyor BC-1 in the positive direction of the X-axis. The processing unit 152 controls the belt conveyor BC-2a to convey the product 101 placed on the belt conveyor BC-2a in the positive direction of the X-axis after the belt conveyor BC-1. The processing unit 152 acquires the first detection notification information output by the sensor 110a and the second detection notification information output by the sensor 120a. The processing unit 152 acquires first time information included in the first detection notification information, acquires second time information included in the second detection notification information, and combines the acquired first time information and second time information. Based on this, the elapsed time Ts from the first time to the second time is derived. The processing unit 152 derives the imaging timing by multiplying the derived elapsed time Ts by a coefficient W1 for adjusting the imaging timing. The coefficient W1 for adjusting the imaging timing is set in advance. The processing unit 152 outputs information indicating the elapsed time Ts to the output unit 160. Based on the imaging timing, the processing unit 152 causes the illumination unit 102a and the illumination unit 105a to emit light so that the imaging unit 103a and the imaging unit 104a can image the product 101 at the imaging timing. The processing unit 152 outputs control information for causing the illumination unit 102a and the illumination unit 105a to emit light until immediately before the imaging timing. The processing unit 152 outputs a control signal for causing the imaging unit 103a and the imaging unit 104a to capture an image at the imaging timing.

図5は、本実施形態に係る外観検査システムにおける製品の載置の一例を示す図である。製品101の一主面の短辺の二辺と、照明部102aと照明部105aとが光を照射する方向とのなす角度が、一主面の法線方向から見て第2角度θ2となるように載置される。第2角度θ2の一例は15度以上25度以下であり、より好ましくは17.5度以上22.5度以下である。以下、第2角度θ2が20度として説明を続ける。図4に戻り説明を続ける。処理部152が、ベルトコンベアBC-2aを制御することによって、製品101の一主面の中心が、位置Pと一致する。位置Pの一例は、照明部102aと位置Pとを結んだ線と、位置Pから一主面の法線方向にのばした線とのなす角度が、第1角度θ1となる位置である。処理部152は、製品101の一主面の中心が、位置Pと一致する前に、照明部102aと照明部105aとを制御することによって、製品101に光を照射させる。処理部152は、製品101に光を照射させた状態で、製品101の一主面の中心が、位置Pと一致するタイミングで、撮像部103aと撮像部104aとに、製品101を撮像させる。取得部154は、撮像部103aと撮像部104aとの各々が出力した検査用の画像を示す情報を取得し、取得した検査用の画像示す情報を、画像処理部156に出力する。 FIG. 5 is a diagram showing an example of product placement in the visual inspection system according to the present embodiment. The angle between the two short sides of one principal surface of the product 101 and the direction in which light is irradiated by the illumination portions 102a and 105a is a second angle θ2 when viewed from the normal direction of the one principal surface. It is placed like this. An example of the second angle θ2 is 15 degrees or more and 25 degrees or less, more preferably 17.5 degrees or more and 22.5 degrees or less. Hereinafter, the explanation will be continued assuming that the second angle θ2 is 20 degrees. Returning to FIG. 4, the explanation will be continued. The processing unit 152 controls the belt conveyor BC-2a, so that the center of one main surface of the product 101 coincides with the position P. An example of the position P is a position where the angle between a line connecting the illumination unit 102a and the position P and a line extending from the position P in the normal direction of one principal surface is a first angle θ1. The processing unit 152 irradiates the product 101 with light by controlling the illumination unit 102a and the illumination unit 105a before the center of one main surface of the product 101 coincides with the position P. The processing unit 152 causes the imaging unit 103a and the imaging unit 104a to image the product 101 at a timing when the center of one main surface of the product 101 coincides with the position P while the product 101 is irradiated with light. The acquisition unit 154 acquires information indicating the inspection images output by each of the imaging unit 103a and the imaging unit 104a, and outputs the information indicating the acquired inspection images to the image processing unit 156.

図6は、本実施形態に係る外観検査システムの制御装置の処理の例1を示す図である。画像処理部156は、取得部154が出力した複数の検査用の画像を示す情報を取得する。ここでは、二枚の画像を取得した場合について説明を続ける。画像処理部156は、取得した複数の検査用の画像を示す情報の各々に基づいて、複数の検査用の画像の各々から、製品101の部分を切り出すことによって、製品101の画像を取得する(1)。画像処理部156は、取得した製品101の複数の画像の各々を複数に分割し、分割することによって得られる複数の分割画像の各々を取得する(2)。画像処理部156は、製品101の画像に基づいて、ピクセル数が4%から6%の面積で分割する。以下、一例として、製品101の画像を、4×4の16分割する場合について説明を続ける。
ベルトコンベアBC-2aに製品101が、製品101の一主面の短辺の二辺と、照明部102aと照明部105aとが光を照射する方向とのなす角度が、一主面の法線方向から見て第2角度θ2となるように載置されているため、検査用の複数の画像の各々には、製品101の3面の画像(上面、短辺を含む側面、長辺を含む側面)が含まれている。さらに、製品101の表面は銀色で、光沢を有するため、撮像部103aと撮像部104aとの各々が撮像するときに、製品101には青色の光が照射される。製品101に対して、照明部102aと照明部105aとが所定の位置に設置されているため、照射された光の乱反射を抑えることができるため、コントラストを高くできる。製品101に青色の光が照射されることによって、青色の光がチーズの黄色成分に反応して、チーズ部分のコントラストを高くできるため、チーズ部分のコントラストをはっきりできる。ただし、金色などの銀色とは異なる色の包装の場合には包装とチーズのコントラスト差が出にくいため色調の検証を行うことが好ましい。この結果、検査用の画像に含まれる製品101の画像は、コントラストが高く、はっきりする。
FIG. 6 is a diagram illustrating a first example of processing of the control device of the visual inspection system according to the present embodiment. The image processing unit 156 acquires information indicating the plurality of inspection images output by the acquisition unit 154. Here, we will continue to explain the case where two images are acquired. The image processing unit 156 acquires an image of the product 101 by cutting out a portion of the product 101 from each of the plurality of inspection images based on each of the acquired information indicating the plurality of inspection images ( 1). The image processing unit 156 divides each of the plurality of acquired images of the product 101 into a plurality of parts, and acquires each of the plurality of divided images obtained by the division (2). The image processing unit 156 divides the image of the product 101 into areas each having a pixel count of 4% to 6%. Hereinafter, as an example, the case where the image of the product 101 is divided into 16 4×4 sections will be explained.
When the product 101 is placed on the belt conveyor BC-2a, the angle between the two shorter sides of one main surface of the product 101 and the direction in which light is irradiated by the lighting section 102a and the lighting section 105a is the normal to the one main surface. Since the product 101 is placed at a second angle θ2 when viewed from the direction, each of the plurality of images for inspection includes images of three sides of the product 101 (the top surface, the side surface including the short side, and the side surface including the long side). sides) are included. Further, since the surface of the product 101 is silver and glossy, the product 101 is irradiated with blue light when the imaging unit 103a and the imaging unit 104a each take an image. Since the illumination section 102a and the illumination section 105a are installed at predetermined positions with respect to the product 101, it is possible to suppress diffuse reflection of the irradiated light, thereby increasing the contrast. By irradiating the product 101 with blue light, the blue light reacts with the yellow component of the cheese and can increase the contrast of the cheese portion, making the contrast of the cheese portion clear. However, in the case of packaging in a color different from silver, such as gold, it is difficult to see a difference in contrast between the packaging and the cheese, so it is preferable to verify the color tone. As a result, the image of the product 101 included in the inspection image has high contrast and is clear.

複数の分割画像の各々を使用して、学習モデルを生成する場合と、生成した学習モデルを使用して、製品101の良否を判定する場合とに分けて説明を続ける。
学習モデルを生成する場合について、図6を参照して引き続き説明する。画像処理部156は、取得した複数の分割画像を、学習部157に出力する。学習部157は、画像処理部156が出力した複数の分割画像を取得し、取得した複数の分割画像の各々を使用して、変分オートエンコーダなどのオートエンコーダによって、複数の学習モデルを生成する。学習部157が、製品101の画像を分割した数と同数の学習モデルを生成する場合について説明を続ける。画像処理部156によって、製品101の画像が、4×4の16分割されるため、分割することによって得られた複数の分割画像の各々に対応する学習モデルを生成する。変分オートエンコーダは、教師なし学習器として機能する。変分オートエンコーダは、複数の製品101の画像の各々に対応する複数の分割画像が入力されると、各分割画像に表された製品101のピクセルの位置の分布を学習し、各分割画像に表された製品101を再構成した画像(以下「再現画像」という)を出力する((3)-(4))。学習部157は、各分割画像に表された製品101のピクセルの画素値の和を、画素数で割ることによって得られる平均値の分布を学習し、各分割画像に表された製品101を再構成した画像(以下「再構成平均値画像」という)を生成する。学習部157は、各分割画像に表された製品101のピクセルの画素値の2乗平均と平均の2乗との差によって得られる分散の分布を学習し、各分割画像に表された製品101を再構成した画像(以下「再構成分散画像」という)を生成する。学習部157は、生成した再構成平均値画像と、再構成分散画像とに基づいて、各16区分区画(32×32=1024)の最大値を、その区画の異常値とする。学習部157は、複数の分割画像の各々と、各分割画像に表された製品101を再構成した画像とに基づいて、所定の損失関数を最小にするようにモデルのパラメータを最適化することにより、入力されたデータを学習する。学習部157は、生成した学習モデルを、判別部158へ出力する。
The explanation will be divided into two cases: a case where a learning model is generated using each of a plurality of divided images, and a case where the quality of the product 101 is determined using the generated learning model.
The case of generating a learning model will be further described with reference to FIG. 6. The image processing unit 156 outputs the obtained plurality of divided images to the learning unit 157. The learning unit 157 acquires the plurality of divided images outputted by the image processing unit 156, and uses each of the acquired plurality of divided images to generate a plurality of learning models by an autoencoder such as a variational autoencoder. . The description will continue regarding the case where the learning unit 157 generates the same number of learning models as the number of segments into which the image of the product 101 is divided. The image processing unit 156 divides the image of the product 101 into 16 pieces of 4×4, and therefore generates a learning model corresponding to each of the plurality of divided images obtained by the division. A variational autoencoder functions as an unsupervised learner. When a plurality of divided images corresponding to each of the images of a plurality of products 101 are input, the variational autoencoder learns the distribution of the positions of pixels of the product 101 represented in each divided image, and A reconstructed image (hereinafter referred to as "reproduced image") of the represented product 101 is output ((3)-(4)). The learning unit 157 learns the distribution of the average value obtained by dividing the sum of pixel values of the pixels of the product 101 represented in each divided image by the number of pixels, and reproduces the product 101 represented in each divided image. A constructed image (hereinafter referred to as "reconstructed average value image") is generated. The learning unit 157 learns the distribution of variance obtained by the difference between the root mean square of the pixel values of the pixels of the product 101 represented in each divided image and the square of the mean, and A reconstructed image (hereinafter referred to as a "reconstructed distributed image") is generated. The learning unit 157 sets the maximum value of each of the 16 divisions (32×32=1024) as the abnormal value of that division, based on the generated reconstructed average value image and reconstructed variance image. The learning unit 157 optimizes the model parameters so as to minimize a predetermined loss function based on each of the plurality of divided images and the reconstructed image of the product 101 represented in each divided image. The system learns the input data. The learning unit 157 outputs the generated learning model to the determining unit 158.

製品の良否を判定する場合について、図7を参照して説明する。図7は、本実施形態に係る外観検査システムの制御装置の処理の例2を示す図である。(1)から(3)は、図6を参照して説明した(1)-(3)と同様である。画像処理部156は、取得した分割画像の各々を、判別部158に出力する。判別部158は、学習部157が出力した学習モデルを取得し、取得した学習モデルを記憶する。判別部158は、取得した学習モデルを用いて、画像処理部156が出力した複数の分割画像の各々を再現した画像である再現画像を複数生成する(4)。判別部158は、複数の分割画像の各々と複数の再現画像の各々とに基づいて、複数の分割画像の各々と複数の再現画像の各々とを比較することによって、分割画像に対する再現画像の再現精度を導出する。具体的には、判別部158は、交差エントロピー、カルバックライブラ情報量、マハラノビス距離をベースとした評価関数を使用することによって、再現精度を導出する。判別部158は、複数の分割画像の各々の再現精度の導出結果に基づいて、製品101の不具合を判定する(5)。図5の(5)には、複数の分割画像のうち、再現精度の導出結果が閾値未満である分割画像が太線で示され、再現精度の導出結果が閾値以上である分割画像が破線で示されている。つまり、図5の(5)では、16個の分割画像のうち、5個の分割画像が再現精度の導出結果が閾値未満であると評価されている。この場合、判別部158は、一例として、製品101の不具合を示す指標(以下「判定スコア」という)を、0.3125(5/16)に基づいて導出する。判別部158は、導出した判定スコアに基づいて、製品101が良品であるか不良品であるかを判別する。判別部158は、判定スコアが判定スコア閾値以上である場合には良品であると判定し、閾値未満である場合には不良品であると判定する。図8は、判定スコア閾値の設定例を示す図である。図8は、重欠点品(不良品)の製品とOK品(良品)の製品との分布を示す。横軸は判定スコアであり、縦軸は尤度である。図8に示されるように、判定スコア閾値の一例は、重欠点品とOK品との分布が重複する判定スコアに設定される。判別部158は、製品101が不良品であると判別した場合に、不良品と判別されたことを示す情報を、出力部160に出力する。図4に戻り説明を続ける。
出力部160は、処理部152が出力した経過時間Tsを示す情報を取得する。出力部160は、判別部158が出力した不良品と判別されたことを示す情報を取得した場合に、通過時間Tsに基づいて、排出部130aに不良品と判別された製品101を排出させるタイミングである排出タイミングを導出する。具体的には、出力部160は、経過時間Tsに排出タイミング調整用の係数W2を乗算することによって、排出タイミングを導出する。排出タイミング調整用の係数W2は、予め設定される。出力部160は、導出した排出タイミングに基づいて、その排出タイミングで、不良品と判別された製品101が排出エリア140aに排出されるように、排出部130aに制御信号を出力する。
The case of determining the quality of a product will be described with reference to FIG. 7. FIG. 7 is a diagram showing a second example of processing of the control device of the visual inspection system according to the present embodiment. (1) to (3) are the same as (1) to (3) described with reference to FIG. The image processing unit 156 outputs each of the obtained divided images to the determination unit 158. The determining unit 158 acquires the learning model output by the learning unit 157 and stores the acquired learning model. The determination unit 158 uses the acquired learning model to generate a plurality of reproduction images that are reproductions of each of the plurality of divided images output by the image processing unit 156 (4). The determining unit 158 compares each of the plurality of divided images and each of the plurality of reproduced images based on each of the plurality of divided images and each of the plurality of reproduced images, thereby determining the reproduction of the reproduced image for the divided image. Derive precision. Specifically, the discrimination unit 158 derives the reproduction accuracy by using an evaluation function based on cross entropy, Kullback-Libra information amount, and Mahalanobis distance. The determining unit 158 determines a defect in the product 101 based on the derivation result of the reproduction accuracy of each of the plurality of divided images (5). In (5) of FIG. 5, among the plurality of divided images, the divided images for which the derived result of reproduction accuracy is less than the threshold are indicated by thick lines, and the divided images for which the derived result of reproduction accuracy is greater than or equal to the threshold are indicated by broken lines. has been done. That is, in (5) of FIG. 5, it is evaluated that the derivation results of the reproduction accuracy of 5 of the 16 divided images are less than the threshold value. In this case, the determination unit 158 derives an index (hereinafter referred to as "determination score") indicating a defect in the product 101 based on 0.3125 (5/16), as an example. The determining unit 158 determines whether the product 101 is a good product or a defective product based on the derived determination score. The determining unit 158 determines that the product is a good product when the determination score is equal to or higher than the determination score threshold, and determines that the product is defective when the determination score is less than the threshold. FIG. 8 is a diagram showing an example of setting the determination score threshold. FIG. 8 shows the distribution of products with serious defects (defective products) and OK products (good products). The horizontal axis is the judgment score, and the vertical axis is the likelihood. As shown in FIG. 8, an example of the determination score threshold is set to a determination score at which the distributions of severely defective products and OK products overlap. When the determining unit 158 determines that the product 101 is a defective product, it outputs information indicating that the product 101 has been determined to be a defective product to the output unit 160. Returning to FIG. 4, the explanation will be continued.
The output unit 160 acquires information indicating the elapsed time Ts output by the processing unit 152. When the output unit 160 acquires the information output by the determining unit 158 indicating that the product 101 has been determined as a defective product, the output unit 160 determines the timing at which the discharge unit 130a discharges the product 101 determined to be a defective product based on the transit time Ts. Derive the discharge timing. Specifically, the output unit 160 derives the discharge timing by multiplying the elapsed time Ts by a coefficient W2 for adjusting the discharge timing. The coefficient W2 for adjusting the discharge timing is set in advance. Based on the derived discharge timing, the output unit 160 outputs a control signal to the discharge unit 130a so that the product 101 determined to be a defective product is discharged to the discharge area 140a at the derived discharge timing.

図9は、本実施形態に係る外観検査システムの動作の例1を示すシーケンス図である。図10は、本実施形態に係る外観検査システムの動作の一例を示す図である。ベルトコンベアBC-2aに製品101が載置された後に、撮像タイミングを導出する場合について説明する。
(ステップS1) 処理部152は、ベルトコンベアBC-2aにベルトを回転させるための制御信号を出力する。
(ステップS2) ベルトコンベアBC-2aは、制御装置150が出力した制御信号に基づいて動作する。ベルトコンベアBC-2aは、製品101を搬送する。
(ステップS3) センサー110aは、製品101を検出する。
(ステップS4) センサー110aは、センサー110aのIDと、製品101を検出したことを示す情報と、第1時刻情報とを含む第1検出通知情報を作成する。
(ステップS5) センサー110aは、作成した第1検出通知情報を、制御装置150に出力する。
(ステップS6) センサー120aは、製品101を検出する。
(ステップS7) センサー120aは、センサー120aのIDと、製品101を検出したことを示す情報と、第2時刻情報とを含む第2検出通知情報を作成する。
(ステップS8) センサー120aは、作成した第2検出通知情報を、制御装置150に出力する。
(ステップS9) 処理部152は、センサー110aが出力した第1検出通知情報と、センサー120aが出力した第2検出通知情報とを取得する。処理部152は、第1検出通知情報に含まれる第1時刻情報を取得する。処理部152は、第2検出通知情報に含まれる第2時刻情報を取得する。処理部152は、第1時刻情報と第2時刻情報とに基づいて、第1時刻から第2時刻が経過するまでの経過時間Tsを導出する。処理部152は、経過時間Tsに撮像タイミング調整用の係数W1を乗算することによって、撮像タイミングを導出する。
FIG. 9 is a sequence diagram showing an example 1 of the operation of the visual inspection system according to this embodiment. FIG. 10 is a diagram illustrating an example of the operation of the visual inspection system according to this embodiment. A case will be described in which the imaging timing is derived after the product 101 is placed on the belt conveyor BC-2a.
(Step S1) The processing unit 152 outputs a control signal for rotating the belt to the belt conveyor BC-2a.
(Step S2) Belt conveyor BC-2a operates based on the control signal output by control device 150. Belt conveyor BC-2a conveys the product 101.
(Step S3) The sensor 110a detects the product 101.
(Step S4) The sensor 110a creates first detection notification information including the ID of the sensor 110a, information indicating that the product 101 has been detected, and first time information.
(Step S5) The sensor 110a outputs the created first detection notification information to the control device 150.
(Step S6) The sensor 120a detects the product 101.
(Step S7) The sensor 120a creates second detection notification information including the ID of the sensor 120a, information indicating that the product 101 has been detected, and second time information.
(Step S8) The sensor 120a outputs the created second detection notification information to the control device 150.
(Step S9) The processing unit 152 acquires the first detection notification information output by the sensor 110a and the second detection notification information output by the sensor 120a. The processing unit 152 acquires first time information included in the first detection notification information. The processing unit 152 acquires the second time information included in the second detection notification information. The processing unit 152 derives the elapsed time Ts from the first time until the second time elapses based on the first time information and the second time information. The processing unit 152 derives the imaging timing by multiplying the elapsed time Ts by a coefficient W1 for adjusting the imaging timing.

図11は、本実施形態に係る外観検査システムの動作の例2を示すシーケンス図である。学習モデルを生成する場合について、図10と図11とを参照して説明する。
(ステップS11) 処理部152は、撮像タイミングに基づいて、照明部102aと照明部105aとに光を照射させるための制御情報を出力する。
(ステップS12) 照明部102aは、制御装置150が出力した制御信号に基づいて、発光する。照明部102aが発光することによって、製品101に光が照射される。
(ステップS13) 照明部105aは、制御装置150が出力した制御信号に基づいて、発光する。照明部105aが発光することによって、製品101に光が照射される。
(ステップS14) 処理部152は、撮像タイミングに、撮像部103aと撮像部104aとに撮像させるための制御信号を出力する。
(ステップS15) 撮像部103aは、制御信号に基づいて製品101を撮像する。
(ステップS16) 撮像部103aは、制御信号に基づいて製品101を撮像する。
(ステップS17) 撮像部103aと撮像部104aとは、製品101を撮像することによって得られた検査用の画像を示す情報を、制御装置150に出力する。
(ステップS18) 取得部154は、撮像部103aと撮像部104aとが出力した検査用の画像を示す情報を取得し、取得した検査用の画像を示す情報を、画像処理部156に出力する。画像処理部156は、取得部154が出力した検査用の画像を示す情報を取得し、取得した検査用の画像を示す情報に基づいて、検査用の画像から、製品101の部分を切り出すことによって、製品101の画像を取得する。画像処理部156は、取得した製品101の画像を複数に分割し、分割することによって得られる複数の分割画像の各々を、学習部157に出力する。
(ステップS19) 学習部157は、画像処理部156が出力した複数の分割画像を取得し、取得した複数の分割画像を使用して、変分オートエンコーダによって、複数の学習モデルを生成する。学習部157は、学習モデルを、判別部158へ出力する。
FIG. 11 is a sequence diagram showing a second example of the operation of the visual inspection system according to this embodiment. The case of generating a learning model will be described with reference to FIGS. 10 and 11.
(Step S11) The processing unit 152 outputs control information for causing the illumination unit 102a and the illumination unit 105a to emit light based on the imaging timing.
(Step S12) The illumination unit 102a emits light based on the control signal output by the control device 150. When the illumination unit 102a emits light, the product 101 is irradiated with light.
(Step S13) The illumination unit 105a emits light based on the control signal output by the control device 150. When the lighting section 105a emits light, the product 101 is irradiated with light.
(Step S14) The processing unit 152 outputs a control signal for causing the imaging unit 103a and the imaging unit 104a to capture an image at the imaging timing.
(Step S15) The imaging unit 103a images the product 101 based on the control signal.
(Step S16) The imaging unit 103a images the product 101 based on the control signal.
(Step S17) The imaging unit 103a and the imaging unit 104a output information indicating an inspection image obtained by imaging the product 101 to the control device 150.
(Step S18) The acquisition unit 154 acquires information indicating the inspection images output by the imaging unit 103a and the imaging unit 104a, and outputs the information indicating the acquired inspection images to the image processing unit 156. The image processing unit 156 acquires information indicating the inspection image outputted by the acquisition unit 154, and cuts out a portion of the product 101 from the inspection image based on the information indicating the acquired inspection image. , obtain an image of the product 101. The image processing unit 156 divides the acquired image of the product 101 into a plurality of parts, and outputs each of the plurality of divided images obtained by the division to the learning part 157.
(Step S19) The learning unit 157 acquires the plurality of divided images outputted by the image processing unit 156, and uses the acquired plurality of divided images to generate a plurality of learning models by a variational autoencoder. The learning unit 157 outputs the learning model to the determining unit 158.

図12は、本実施形態に係る外観検査システムの動作の例3を示すシーケンス図である。図9のステップS1からS9の動作の後に、製品101の良否を判定する動作について説明する。ステップS21からS27の処理は、図11のステップS11からS17の処理を適用できる。
(ステップS28) 取得部154は、撮像部103aと撮像部104aとが出力した検査用の画像を示す情報を取得し、取得した検査用の画像を示す情報を、画像処理部156に出力する。画像処理部156は、取得部154が出力した検査用の画像を示す情報を取得し、取得した検査用の画像を示す情報に基づいて、検査用の画像から、製品101の部分を切り出すことによって、製品101の画像を取得する。画像処理部156は、取得した製品101の画像を複数に分割し、分割によって得られる複数の分割画像の各々を、判別部158に出力する。
(ステップS29) 判別部158は、画像処理部156が出力した複数の分割画像の各々を取得し、取得した複数の分割画像の各々の良否を判別する。判別部158は、複数の分割画像の各々の良否を判別した結果に基づいて、良と判別された割合に基づいて、製品101が良品であるか不良品であるかを判別する。判別部158は、製品101が不良品であると判別した場合に、不良品と判別されたことを示す情報を、出力部160に出力する。ここで、制御装置150は、パトライト(登録商標)(図示なし)を点灯してもよい。
(ステップS30) 判別部158は、製品101が良品であると判別した場合に、製品101が良品であることを示す情報を出力する。
(ステップS31) 出力部160は、処理部152が出力した経過時間Tsを示す情報を取得する。出力部160は、判別部158が出力した不良品と判別されたことを示す情報を取得した場合に、通過時間Tsに基づいて、排出部130aに不良品と判別された製品101を排出させるタイミングである排出タイミングを導出する。
(ステップS32) 出力部160は、導出した排出タイミングに基づいて、不良品と判別された製品101が排出エリア140aに排出されるように、排出部130aに制御信号を出力する。
(ステップS33) 排出部130aは、出力部160が出力した制御情報に基づいて、不良品と判別された製品101を、排出エリア140aに排出する。
FIG. 12 is a sequence diagram showing a third example of the operation of the visual inspection system according to this embodiment. The operation for determining the quality of the product 101 after the operations from steps S1 to S9 in FIG. 9 will be described. The processing from steps S11 to S17 in FIG. 11 can be applied to the processing from steps S21 to S27.
(Step S28) The acquisition unit 154 acquires information indicating the inspection images output by the imaging unit 103a and the imaging unit 104a, and outputs the information indicating the acquired inspection images to the image processing unit 156. The image processing unit 156 acquires information indicating the inspection image outputted by the acquisition unit 154, and cuts out a portion of the product 101 from the inspection image based on the information indicating the acquired inspection image. , obtain an image of the product 101. The image processing unit 156 divides the acquired image of the product 101 into a plurality of parts, and outputs each of the plurality of divided images obtained by the division to the determination unit 158.
(Step S29) The determining unit 158 acquires each of the plurality of divided images outputted by the image processing unit 156, and determines whether each of the acquired plurality of divided images is good or bad. The determining unit 158 determines whether the product 101 is a non-defective product or a defective product based on the result of determining whether each of the plurality of divided images is good or bad, and based on the percentage determined to be good. When the determining unit 158 determines that the product 101 is a defective product, it outputs information indicating that the product 101 has been determined to be a defective product to the output unit 160. Here, the control device 150 may turn on a PATLITE (registered trademark) (not shown).
(Step S30) When the determining unit 158 determines that the product 101 is a non-defective product, it outputs information indicating that the product 101 is a non-defective product.
(Step S31) The output unit 160 acquires information indicating the elapsed time Ts output by the processing unit 152. When the output unit 160 acquires the information output by the determining unit 158 indicating that the product 101 has been determined as a defective product, the output unit 160 determines the timing at which the discharge unit 130a discharges the product 101 determined to be a defective product based on the transit time Ts. Derive the discharge timing.
(Step S32) Based on the derived discharge timing, the output unit 160 outputs a control signal to the discharge unit 130a so that the product 101 determined to be a defective product is discharged to the discharge area 140a.
(Step S33) The discharge unit 130a discharges the product 101 determined to be a defective product to the discharge area 140a based on the control information output by the output unit 160.

前述した実施形態において、製品101の表面の色と、光を反射する程度とのいずれか一方又は両方に基づいて、青色以外の色の光が照射されてもよい。
本実施形態に係る外観検査システムによれば、撮像部が撮像した画像に含まれる検査対象物のコントラストを高く、はっきりできるため、エッジ強調フィルタ処理を省略でき、複雑な形状・反射の多い表面を有する検査対象物の検品作業における精度を向上できる。さらに、撮像部によって撮像された画像には検査対象物の三面を含むため、撮影装置と、照明装置とを増加させることなく実現できる。検査対象物の画像を複数に分割し、複数の分割画像の各々に対応する学習モデルに基づいて、複数の分割画像の各々の判定を行うため、検査対象物の画像を複数に分割しない場合よりも、微細な不具合箇所を検出できる。このため、検品作業における精度を向上できる。
In the embodiment described above, light of a color other than blue may be irradiated based on either or both of the color of the surface of the product 101 and the degree of light reflection.
According to the appearance inspection system according to the present embodiment, the contrast of the inspection object included in the image captured by the imaging unit can be made high and clear, so edge enhancement filter processing can be omitted, and complex shapes and surfaces with many reflections can be inspected. It is possible to improve the accuracy in the inspection work of the inspection target object. Furthermore, since the image captured by the imaging unit includes three sides of the object to be inspected, it can be realized without increasing the number of imaging devices and illumination devices. The image of the inspection target is divided into multiple parts, and each of the multiple divided images is judged based on the learning model corresponding to each of the multiple divided images. It is also possible to detect minute defects. Therefore, accuracy in inspection work can be improved.

(変形例)
図13は、本実施形態の変形例に係る外観検査システムの一例を示す図である。外観検査システム100aは、ベルトコンベアBC-2aと、照明部102aと、撮像部103aと、撮像部104aと、照明部105aと、照明部107aと、照明部108aと、制御装置150とを備える。制御装置150は、ベルトコンベアBC-2aと、照明部102aと、撮像部103aと、撮像部104aと、照明部105aと、照明部107aと、照明部108aと接続される。図14は、本実施形態の変形例に係る外観検査システムにおける照明部の配置の一例を示す図である。図14において、照明部102aと撮像部103aと撮像部104aと照明部105aとは省略されている。照明部107aと、照明部108aとは、制御装置150によって制御される。照明部107aと、照明部108aとは、製品101に光を照射する。照明部107aと、照明部108aとが照射する光の色の一例は、青色である。照明部107aは、製品101が載置された面に対して、一主面と平行かつ第1軸と垂直な第3軸周りに、第3角度θ3の入射角度で光を照射する。一主面の法線方向を0度とした場合に、第3角度θ3の一例は15度以上25度以下であり、より好ましくは17.5度以上22.5度以下である。以下、第3角度θ3を20度として説明を続ける。照明部108aは、製品101が載置された面に対して、第3軸と平行な第4軸周りに、照明部107aとは反対側から、第3角度θ3の入射角度で光を照射する。一主面の法線方向を0度とした場合に、第3角度θ3の一例は、15度以上25度以下であり、より好ましくは、17.5度以上22.5度以下である。以下、第3角度θ3を20度として説明を続ける。照明部107aと、照明部108aとの一例は、複数のLEDをX方向に並べたものである。
(Modified example)
FIG. 13 is a diagram showing an example of a visual inspection system according to a modification of this embodiment. The visual inspection system 100a includes a belt conveyor BC-2a, a lighting section 102a, an imaging section 103a, an imaging section 104a, a lighting section 105a, a lighting section 107a, a lighting section 108a, and a control device 150. The control device 150 is connected to the belt conveyor BC-2a, the lighting section 102a, the imaging section 103a, the imaging section 104a, the lighting section 105a, the lighting section 107a, and the lighting section 108a. FIG. 14 is a diagram illustrating an example of the arrangement of illumination units in a visual inspection system according to a modification of the present embodiment. In FIG. 14, the illumination section 102a, the imaging section 103a, the imaging section 104a, and the illumination section 105a are omitted. The lighting section 107a and the lighting section 108a are controlled by a control device 150. The lighting section 107a and the lighting section 108a irradiate the product 101 with light. An example of the color of the light emitted by the illumination section 107a and the illumination section 108a is blue. The illumination unit 107a irradiates the surface on which the product 101 is placed with light around a third axis parallel to one principal surface and perpendicular to the first axis at an incident angle of a third angle θ3. When the normal direction of one principal surface is 0 degrees, an example of the third angle θ3 is 15 degrees or more and 25 degrees or less, more preferably 17.5 degrees or more and 22.5 degrees or less. Hereinafter, the explanation will be continued assuming that the third angle θ3 is 20 degrees. The illumination unit 108a irradiates the surface on which the product 101 is placed with light around a fourth axis parallel to the third axis from the side opposite to the illumination unit 107a at an incident angle of a third angle θ3. . When the normal direction of one main surface is 0 degrees, an example of the third angle θ3 is 15 degrees or more and 25 degrees or less, more preferably 17.5 degrees or more and 22.5 degrees or less. Hereinafter, the explanation will be continued assuming that the third angle θ3 is 20 degrees. An example of the lighting section 107a and the lighting section 108a is a plurality of LEDs arranged in the X direction.

変形例に係る外観検査システムの制御装置の一例は、図4を適用できる。図15は、本実施形態の変形例に係る外観検査システムにおける製品の載置の一例を示す図である。製品101の一主面の短辺の二辺と、照明部102aと照明部105aとが光を照射する方向とのなす角度が、一主面の法線方向から見て、第2角度θ2となるように載置される。製品101の一主面の長辺の二辺と、照明部107aと、照明部108aとが光を照射する方向とのなす角度が、一主面の法線方向から見て、第4角度θ4となるように載置される。第4角度θ4の一例は65度以上75度以下であり、より好ましくは67.5度以上72.5度以下である。以下、第4角度θ4が、70度であるとして説明を続ける。処理部152が、ベルトコンベアBC-2aを制御することによって、製品101の一主面の中心が、位置Pと一致する。処理部152は、製品101の一主面の中心が、位置Pと一致する前に、照明部102aと、照明部105aと、照明部107aと、照明部108aとを制御することによって、製品101に光を照射させる。処理部152は、製品101に光を照射させた状態で、製品101の一主面の中心が、位置Pと一致するタイミングで、撮像部103aと、撮像部104aとに、製品101を撮像させる。 FIG. 4 can be applied to an example of the control device of the visual inspection system according to the modification. FIG. 15 is a diagram showing an example of product placement in the visual inspection system according to a modification of the present embodiment. The angle between the two short sides of one principal surface of the product 101 and the direction in which light is irradiated by the illuminating portions 102a and 105a is a second angle θ2 when viewed from the normal direction of the one principal surface. It will be placed so that The angle between the two long sides of one principal surface of the product 101 and the direction in which light is irradiated by the illuminating portions 107a and 108a is a fourth angle θ4 when viewed from the normal direction of the one principal surface. It is placed so that An example of the fourth angle θ4 is 65 degrees or more and 75 degrees or less, more preferably 67.5 degrees or more and 72.5 degrees or less. Hereinafter, the explanation will be continued assuming that the fourth angle θ4 is 70 degrees. The processing unit 152 controls the belt conveyor BC-2a, so that the center of one main surface of the product 101 coincides with the position P. The processing unit 152 controls the illumination unit 102a, the illumination unit 105a, the illumination unit 107a, and the illumination unit 108a before the center of one principal surface of the product 101 coincides with the position P. irradiate the light. The processing unit 152 causes the imaging unit 103a and the imaging unit 104a to image the product 101 at a timing when the center of one main surface of the product 101 coincides with the position P while the product 101 is irradiated with light. .

変形例において、照明部102aと、照明部105aと、照明部107aと、照明部108aとの各々が照射する光の色が異なっていてもよい。変形例においては、第1検査ラインについて説明したが、第2検査ラインから第4検査ラインにも適用できる。変形例において、外観検査システム100に、照明部107aと、照明部108aとのいずれか一方を適用してもよい。
変形例に係る外観検査システムによれば、外観検査システム100の効果に加え、照明部107aによって、検査対象物に光を照射できるため、撮像部によって撮像された画像に含まれる検査対象物のコントラストをさらに高く、はっきりできる。このため、複雑な形状・反射の多い表面を有する検査対象物の検品作業における精度を向上できる。また、外観検査システム100の効果に加え、照明部108aによって、検査対象物に光を照射できるため、撮像部によって撮像された画像に含まれる検査対象物のコントラストをさらに高く、はっきりできる。このため、複雑な形状・反射の多い表面を有する検査対象物の検品作業における精度を向上できる。
In a modification, the colors of the light emitted by each of the illumination section 102a, the illumination section 105a, the illumination section 107a, and the illumination section 108a may be different. Although the first inspection line has been described in the modified example, it can also be applied to the second to fourth inspection lines. In a modification, either one of the illumination section 107a and the illumination section 108a may be applied to the visual inspection system 100.
According to the visual inspection system according to the modification, in addition to the effects of the visual inspection system 100, the illumination section 107a can irradiate the inspection object with light, so that the contrast of the inspection object included in the image captured by the imaging section can be improved. can be made even higher and clearer. Therefore, it is possible to improve the accuracy in inspection work of an inspection object having a complicated shape and a surface with many reflections. In addition to the effects of the visual inspection system 100, the illumination section 108a can irradiate the inspection object with light, so that the contrast of the inspection object included in the image captured by the imaging section can be made even higher and clearer. Therefore, it is possible to improve the accuracy in inspection work of an inspection object having a complicated shape and a surface with many reflections.

以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。例えば、上述した各装置の機能を実現するためのコンピュータプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行するようにしてもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、DVD(Digital Versatile Disc)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
Although the embodiment of the present invention has been described above in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and design changes and the like may be made without departing from the gist of the present invention. For example, a computer program for realizing the functions of each device described above may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read into a computer system and executed. Note that the "computer system" here may include hardware such as an OS and peripheral devices.
Furthermore, "computer-readable recording media" refers to flexible disks, magneto-optical disks, ROMs, writable non-volatile memories such as flash memory, portable media such as DVDs (Digital Versatile Discs), and media built into computer systems. A storage device such as a hard disk. Furthermore, "computer-readable recording medium" refers to volatile memory (for example, DRAM (Dynamic It also includes those that retain programs for a certain period of time, such as Random Access Memory). Further, the program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in a transmission medium. Here, the "transmission medium" that transmits the program refers to a medium that has a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. Moreover, the above-mentioned program may be for realizing a part of the above-mentioned functions. Furthermore, it may be a so-called difference file (difference program) that can realize the above-mentioned functions in combination with a program already recorded in the computer system.

100、100a…外観検査システム、101…製品、102a、105a、107a、108a…照明部、103a、104a…撮像部、110a…センサー、120a…センサー、130a…排出部、140a…排出エリア、150…制御装置、152…処理部、154…取得部、156…画像処理部、157…学習部、158…判別部、160…出力部 100, 100a... Visual inspection system, 101... Product, 102a, 105a, 107a, 108a... Illumination section, 103a, 104a... Imaging section, 110a... Sensor, 120a... Sensor, 130a... Ejection section, 140a... Ejection area, 150... Control device, 152... Processing unit, 154... Acquisition unit, 156... Image processing unit, 157... Learning unit, 158... Discrimination unit, 160... Output unit

Claims (4)

検査対象物の画像を用いて、前記検査対象物の良否を判別する外観検査システムであって、
検査対象物の一主面に対して、前記一主面と平行な第1軸周りに第1角度の入射角度で光を照射する第1照明部と、
前記第1照明部によって照射された前記検査対象物を、前記入射角度に対する反射角度で撮像する第1撮像部と、
前記検査対象物の前記一主面に対して、前記第1軸と同軸または平行な第2軸周りに、前記第1照明部とは反対側から前記第1角度の入射角度で光を照射する第2照明部と、
前記第2照明部によって照射された前記検査対象物を、前記入射角度に対する反射角度で撮像する第2撮像部と、
前記第1撮像部と前記第2撮像部との各々によって撮像された前記検査対象物の複数の前記画像の各々を複数に分割することによって複数の分割画像を取得する画像処理部と、
複数の前記検査対象物の画像を用いた学習によって生成された学習モデルを用いて、前記画像処理部が取得した複数の前記分割画像の各々を再現した画像である再現画像を複数生成し、複数の前記分割画像の各々と、複数の前記再現画像の各々とに基づいて、前記検査対象物の良否を判別する判別部と、
前記判別部によって、判別された前記検査対象物の良否の結果を出力する出力部と
を備え、
前記第1角度は、前記一主面の法線方向を0度としたとき、50度以上70度以下であり、
前記検査対象物は、直方体であり、前記一主面の対向する二辺と、前記第1照明部と前記第2照明部との各々が照射する前記光の照射方向とが、前記一主面の法線方向から見て第2角度をなし、前記第2角度は、15度以上25度以下であり、
前記画像処理部は、前記第1撮像部と前記第2撮像部との各々によって撮像された前記検査対象物の3面の画像から、前記検査対象物の部分を抽出し、抽出した前記検査対象物の部分の画像を複数に分割することによって複数の分割画像を取得し、
前記判別部は、複数の前記分割画像の各々と、前記学習モデルを用いて複数の前記分割画像の各々を再現した複数の再現画像の各々との再現精度を複数導出し、導出した複数の前記再現精度に基づいて、前記検査対象物の良否を判別し、
前記学習モデルは、複数の分割画像の各々と、各分割画像に表された検査対象物を再構成した画像とに基づいて、所定の損失関数を最小にするように前記学習モデルのパラメータを最適化したものである、外観検査システム。
An appearance inspection system that uses an image of the inspection object to determine the quality of the inspection object, the system comprising:
a first illumination unit that irradiates light onto one main surface of the object to be inspected at a first incident angle around a first axis parallel to the one main surface;
a first imaging unit that images the inspection object irradiated by the first illumination unit at a reflection angle with respect to the incident angle;
irradiating the one principal surface of the inspection object with light at an incident angle of the first angle from a side opposite to the first illumination unit around a second axis coaxial or parallel to the first axis; a second lighting section;
a second imaging unit that images the inspection object illuminated by the second illumination unit at a reflection angle with respect to the incident angle;
an image processing unit that obtains a plurality of divided images by dividing each of the plurality of images of the inspection object captured by each of the first imaging unit and the second imaging unit;
A learning model generated by learning using a plurality of images of the inspection object is used to generate a plurality of reproduction images that are images that reproduce each of the plurality of divided images acquired by the image processing unit, and a determining unit that determines the quality of the inspection object based on each of the divided images and each of the plurality of reproduced images;
an output unit that outputs a result of the quality of the inspection object determined by the determination unit;
The first angle is 50 degrees or more and 70 degrees or less, when the normal direction of the one principal surface is 0 degrees,
The object to be inspected is a rectangular parallelepiped, and two opposing sides of the one principal surface and the irradiation direction of the light irradiated by each of the first illumination section and the second illumination section are the same as the one principal surface. forms a second angle when viewed from the normal direction, and the second angle is 15 degrees or more and 25 degrees or less,
The image processing section extracts parts of the inspection object from images of three sides of the inspection object captured by each of the first imaging section and the second imaging section, and extracts the extracted inspection object. Obtain multiple divided images by dividing the image of the part of the object into multiple parts ,
The discrimination unit derives a plurality of reproduction accuracies for each of the plurality of divided images and each of a plurality of reproduced images obtained by reproducing each of the plurality of divided images using the learning model, and Determining the quality of the inspection target based on the reproducibility accuracy,
The learning model optimizes the parameters of the learning model so as to minimize a predetermined loss function based on each of the plurality of divided images and the reconstructed image of the inspection object represented in each divided image. Visual inspection system.
前記判別部は、複数の前記再現精度の各々が、閾値以上であるか否かを判定し、複数の前記再現精度の閾値以上である割合に基づいて、前記検査対象物の良否を判定する、請求項に記載の外観検査システム。 The determining unit determines whether each of the plurality of reproduction accuracies is equal to or greater than a threshold value, and determines whether the inspection object is good or bad based on a proportion of the plurality of reproduction accuracies equal to or greater than the threshold value. The visual inspection system according to claim 1 . 前記第1角度は、前記一主面の法線方向を0度としたとき、55度以上65度以下である、請求項1又は請求項に記載の外観検査システム。 The visual inspection system according to claim 1 or 2 , wherein the first angle is 55 degrees or more and 65 degrees or less, when the normal direction of the one principal surface is 0 degrees. 検査対象物の画像を用いて、前記検査対象物の良否を判別する外観検査システムが実行する外観検査方法であって、
第1照明部が、検査対象物の一主面に対して、前記一主面と平行な第1軸周りに第1角度の入射角度で光を照射するステップと、
第1撮像部が、前記第1照明部によって光が照射された前記検査対象物を、前記入射角度に対する反射角度で撮像するステップと、
第2照明部が、前記検査対象物の前記一主面に対して、前記第1軸と同軸または平行な第2軸周りに、前記第1照明部とは反対側から前記第1角度の入射角度で光を照射するステップと、
第2撮像部が、第2照明部によって光が照射された前記検査対象物を、前記入射角度に対する反射角度で撮像するステップと、
前記第1撮像部と前記第2撮像部との各々によって撮像された前記検査対象物の前記画像を複数に分割することによって複数の分割画像を取得するステップと、
複数の前記検査対象物の画像を用いた学習によって生成された学習モデルを用いて、前記分割するステップで取得した複数の前記分割画像の各々を再現した画像である再現画像を複数生成し、複数の前記分割画像の各々と、複数の前記再現画像の各々とに基づいて、前記検査対象物の良否を判別するステップと、
前記判別するステップによって判別された前記検査対象物の良否の結果を出力するステップと
を有し、
前記第1角度は、前記一主面の法線方向を0度としたとき、50度以上70度以下であり、
前記検査対象物は、直方体であり、前記一主面の対向する二辺と、前記第1照明部と前記第2照明部との各々が照射する前記光の照射方向とが、前記一主面の法線方向から見て第2角度をなし、前記第2角度は、15度以上25度以下であり、
前記取得するステップでは、前記第1撮像部と前記第2撮像部との各々によって撮像された前記検査対象物の3面の画像から、前記検査対象物の部分を抽出し、抽出した前記検査対象物の部分の画像を複数に分割することによって複数の分割画像を取得し、
前記判別するステップでは、複数の前記分割画像の各々と、前記学習モデルを用いて複数の前記分割画像の各々を再現した複数の再現画像の各々との再現精度を複数導出し、導出した複数の前記再現精度に基づいて、前記検査対象物の良否を判別し、
前記学習モデルは、複数の分割画像の各々と、各分割画像に表された検査対象物を再構成した画像とに基づいて、所定の損失関数を最小にするように前記学習モデルのパラメータを最適化したものである、外観検査方法。
An appearance inspection method performed by an appearance inspection system that determines the quality of the inspection object using an image of the inspection object, the method comprising:
a step in which the first illumination unit irradiates light onto one principal surface of the object to be inspected at a first incident angle around a first axis parallel to the one principal surface;
a first imaging unit imaging the inspection object irradiated with light by the first illumination unit at a reflection angle with respect to the incident angle;
A second illumination section is configured to illuminate the one main surface of the inspection object around a second axis coaxial or parallel to the first axis at the first angle from a side opposite to the first illumination section. a step of irradiating light at an angle;
a second imaging unit imaging the inspection object irradiated with light by the second illumination unit at a reflection angle with respect to the incident angle;
acquiring a plurality of divided images by dividing the image of the inspection object captured by each of the first imaging unit and the second imaging unit into a plurality of parts;
A learning model generated by learning using a plurality of images of the inspection object is used to generate a plurality of reproduction images that are images that reproduce each of the plurality of divided images obtained in the dividing step, and determining the quality of the inspection object based on each of the divided images and each of the plurality of reproduced images;
outputting a result of the quality of the inspection object determined in the determining step;
The first angle is 50 degrees or more and 70 degrees or less, when the normal direction of the one principal surface is 0 degrees,
The object to be inspected is a rectangular parallelepiped, and two opposing sides of the one principal surface and the irradiation direction of the light irradiated by each of the first illumination section and the second illumination section are the same as the one principal surface. forms a second angle when viewed from the normal direction, and the second angle is 15 degrees or more and 25 degrees or less,
In the acquiring step, a portion of the inspection object is extracted from images of three sides of the inspection object captured by each of the first imaging section and the second imaging section, and the extracted inspection object is Obtain multiple divided images by dividing the image of the part of the object into multiple parts ,
In the step of determining, a plurality of reproduction accuracies are derived for each of the plurality of divided images and each of a plurality of reproduced images obtained by reproducing each of the plurality of divided images using the learning model. determining whether the inspection target is good or bad based on the reproducibility;
The learning model optimizes the parameters of the learning model so as to minimize a predetermined loss function based on each of the plurality of divided images and the reconstructed image of the inspection object represented in each divided image. Visual inspection method
JP2019163358A 2019-09-06 2019-09-06 Visual inspection system and visual inspection method Active JP7391579B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019163358A JP7391579B2 (en) 2019-09-06 2019-09-06 Visual inspection system and visual inspection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019163358A JP7391579B2 (en) 2019-09-06 2019-09-06 Visual inspection system and visual inspection method

Publications (2)

Publication Number Publication Date
JP2021042994A JP2021042994A (en) 2021-03-18
JP7391579B2 true JP7391579B2 (en) 2023-12-05

Family

ID=74862573

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019163358A Active JP7391579B2 (en) 2019-09-06 2019-09-06 Visual inspection system and visual inspection method

Country Status (1)

Country Link
JP (1) JP7391579B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113916895A (en) * 2021-10-29 2022-01-11 辽宁春光制药装备股份有限公司 Method and device for detecting and processing bar cheese lack

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001255275A (en) 2000-03-13 2001-09-21 Kawasaki Steel Corp Surface defect inspection method and device
JP2017009523A (en) 2015-06-25 2017-01-12 Jfeスチール株式会社 Surface defect detection method, surface defect detection device, and method of manufacturing steel
JP2017190962A (en) 2016-04-11 2017-10-19 日本電産トーソク株式会社 Device and method for inspecting workpiece appearance
JP2018205163A (en) 2017-06-06 2018-12-27 株式会社デンソー Visual inspection device, conversion data generator, and program
JP2019135461A (en) 2018-02-05 2019-08-15 株式会社Screenホールディングス Image acquisition device, image acquisition method, and inspection device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001255275A (en) 2000-03-13 2001-09-21 Kawasaki Steel Corp Surface defect inspection method and device
JP2017009523A (en) 2015-06-25 2017-01-12 Jfeスチール株式会社 Surface defect detection method, surface defect detection device, and method of manufacturing steel
JP2017190962A (en) 2016-04-11 2017-10-19 日本電産トーソク株式会社 Device and method for inspecting workpiece appearance
JP2018205163A (en) 2017-06-06 2018-12-27 株式会社デンソー Visual inspection device, conversion data generator, and program
JP2019135461A (en) 2018-02-05 2019-08-15 株式会社Screenホールディングス Image acquisition device, image acquisition method, and inspection device

Also Published As

Publication number Publication date
JP2021042994A (en) 2021-03-18

Similar Documents

Publication Publication Date Title
JP6189127B2 (en) Soldering inspection apparatus, soldering inspection method, and electronic component
JP2020042044A (en) Appearance inspection device, lighting device, and imaging lighting device
US20020196432A1 (en) Defect detector and method of detecting defect
JPH0412416B2 (en)
JP5174540B2 (en) Wood defect detection device
US20170186148A1 (en) Inspection apparatus, inspection system, and method of manufacturing article
JP7391579B2 (en) Visual inspection system and visual inspection method
TW201738985A (en) System, method and computer program product for correcting a difference image generated from a comparison of target and reference dies
JP5344792B2 (en) Measurement system and method for detecting defects in an object
JPH0575062B2 (en)
TW200839916A (en) Polarization imaging
JP7458158B2 (en) Visual inspection system and visual inspection method
JP7336322B2 (en) APPEARANCE INSPECTION SYSTEM AND APPEARANCE INSPECTION METHOD
JP7390828B2 (en) Visual inspection system and visual inspection method
JPS62232504A (en) Position detector
JPS6355445A (en) Appearance inspection system
JP4534827B2 (en) Film defect detection method and defect detection apparatus
JPS63284455A (en) Surface defect inspection device
JPH08233747A (en) Method and apparatus for inspecting defect
JPH10253543A (en) Instrument and method for visual examination of substrate
EP4220075B1 (en) Method and arrangements for obtaining and associating 2d image data with 3d image data from light triangulation
US20230028335A1 (en) Abnormality inspection system, abnormality inspection method and program
JP2005189167A (en) Bridge inspection device of cap
JPS59157507A (en) Shape defect detector
JPH11173828A (en) Bore blowhole inspecting method for cylinder block

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191018

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231122

R150 Certificate of patent or registration of utility model

Ref document number: 7391579

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150