WO2022118523A1 - 基板異物検査装置及び基板異物検査方法 - Google Patents

基板異物検査装置及び基板異物検査方法 Download PDF

Info

Publication number
WO2022118523A1
WO2022118523A1 PCT/JP2021/034795 JP2021034795W WO2022118523A1 WO 2022118523 A1 WO2022118523 A1 WO 2022118523A1 JP 2021034795 W JP2021034795 W JP 2021034795W WO 2022118523 A1 WO2022118523 A1 WO 2022118523A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
foreign matter
dimensional
printed circuit
circuit board
Prior art date
Application number
PCT/JP2021/034795
Other languages
English (en)
French (fr)
Inventor
尚洋 在間
和義 菊池
剛 大山
憲彦 坂井田
Original Assignee
Ckd株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ckd株式会社 filed Critical Ckd株式会社
Priority to DE112021006288.3T priority Critical patent/DE112021006288T5/de
Priority to CN202180048866.8A priority patent/CN115803611A/zh
Priority to MX2022015423A priority patent/MX2022015423A/es
Publication of WO2022118523A1 publication Critical patent/WO2022118523A1/ja
Priority to US18/107,019 priority patent/US20230186458A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30141Printed circuit board [PCB]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30152Solder
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Definitions

  • the present invention relates to a substrate foreign matter inspection device for inspecting the presence or absence of foreign matter on a substrate and a substrate foreign matter inspection method.
  • cream solder is first printed on the land of the printed circuit board (solder printing process).
  • the electronic component is temporarily fixed on the printed circuit board based on the viscosity of the cream solder (mounting step).
  • the printed circuit board is guided to a reflow furnace, and soldering is performed by heating and melting the cream solder (reflow process).
  • a substrate foreign matter inspection device for inspecting the presence or absence of foreign matter on the printed circuit board may be provided based on image data obtained by imaging a printed circuit board on which cream solder is printed (for example). , Patent Document 1 etc.).
  • the inspection regarding the presence or absence of foreign matter is performed as follows. That is, by imaging the printed circuit board while irradiating the printed circuit board with a plurality of color lights, a two-dimensional image is acquired as two-dimensional information, and foreign matter is detected using the two-dimensional image. Further, by imaging the printed circuit board while irradiating the printed circuit board with the grid pattern light, a three-dimensional image is acquired as three-dimensional information, and foreign matter is detected using the three-dimensional image. Then, by merging the detection result based on the two-dimensional image and the detection result based on the three-dimensional image, the final determination regarding the presence or absence of a foreign substance is made.
  • the foreign matter detection using the above-mentioned two-dimensional image or three-dimensional image is performed by comparing the two-dimensional image or the three-dimensional image with the reference image.
  • the reference image is obtained by imaging a model substrate (master substrate) under the same conditions as when obtaining a two-dimensional image or a three-dimensional image.
  • Patent Document 1 when a three-dimensional image is used, it is said that foreign matter can be detected by determining whether or not the height changes abruptly or exceeds the reference value. There is.
  • the printed circuit board manufacturing process includes many positioning processes and mask-using processes such as a drilling process, a resist coating process, and a cream solder printing process. Further, cream solder is made by kneading solder particles with flux. Therefore, the shape and appearance of the printed circuit board on which the cream solder is printed through the above various steps is not constant. Therefore, even if there is no foreign matter on the printed circuit board to be inspected, a difference is inevitably generated between the two-dimensional image or the three-dimensional image related to the printed circuit board and the reference image. Therefore, it is necessary to set relatively loose inspection conditions in order to prevent erroneous detection due to this difference, and as a result, the ability to detect foreign matter is reduced, and problems such as the inability to detect small foreign matter occur. There is a risk.
  • the foreign substance is not higher than the standard value related to cream solder. It may not be possible to detect as. This is because some of the printed cream solders may have sides that are almost vertically steep, that is, those whose height changes abruptly.
  • the present invention has been made in view of the above circumstances, and an object of the present invention is to provide a substrate foreign matter inspection device capable of detecting foreign matter more easily and with very high accuracy.
  • Means 1 It is a substrate foreign matter inspection device that inspects the presence or absence of foreign matter on the printed circuit board on which cream solder is printed.
  • An image data acquisition means capable of acquiring image data of a predetermined area to be inspected on the printed circuit board including a printed portion of cream solder, and an image data acquisition means. It relates to the area to be inspected on the printed substrate without foreign matter with respect to a neural network having a coding unit for extracting a feature amount from input image data and a decoding unit for reconstructing image data from the feature amount.
  • a substrate foreign matter inspection apparatus characterized in that it is configured to be able to determine the presence or absence of foreign matter on the printed circuit board based on the comparison result by the comparison means.
  • the "image data related to the area to be inspected on the printed substrate without foreign matter” used as the “learning data” includes image data accumulated in the foreign matter inspection so far and a virtual good product image according to means 3 described later. Examples include data, image data of a printed substrate without foreign matter, which is visually selected by an operator after printing cream solder.
  • neural network includes, for example, a convolutional neural network having a plurality of convolutional layers.
  • learning includes, for example, deep learning.
  • identification means (generation model) includes, for example, an autoencoder (self-encoder), a convolution autoencoder (convolution self-encoder), and the like.
  • the "identification means" is generated by learning only the image data related to the printed board having no foreign matter, it is generated when the original image data related to the printed board having foreign matter is input to the identification means.
  • the reconstructed image data is almost the same as the original image data from which the noise portion (the portion corresponding to the foreign matter) has been removed. That is, when there is a foreign substance on the printed circuit board, virtual image data related to the printed circuit board is generated as the reconstructed image data related to the printed circuit board, assuming that there is no foreign substance.
  • the original image data and the reconstructed image data reconstructed by inputting the original image data into the identification means are compared, and the presence or absence of foreign matter on the printed circuit board is determined based on the comparison result. is doing. Therefore, both image data to be compared relate to the same printed circuit board.
  • the printed circuit board to be inspected is not limited because the identity between the printed circuit board to be inspected and the master substrate cannot be maintained. Thereby, the foreign matter inspection can be performed more easily.
  • the shape and appearance of the printed circuit board (for example, the shape and position of the cream solder) are almost the same in both image data to be compared, erroneous detection is different from the method of detecting foreign matter by comparison with the reference image. It is not necessary to set relatively loose inspection conditions in order to prevent the problem, and stricter inspection conditions can be set. Furthermore, since the height of the cream solder and the state of its change do not affect the detection of foreign matter, it is necessary to detect foreign matter having a side surface that is gently displaced from the side surface of the cream solder and foreign matter lower than the cream solder. Is possible.
  • the imaging conditions of the printed circuit board to be inspected (for example, the arrangement position and angle of the printed circuit board, the deflection, etc.) and the imaging conditions on the inspection device side (for example, the lighting state, the angle of view of the camera, etc.) ) Can be matched. Combined with these effects, foreign matter can be detected with great accuracy.
  • the structure is such that foreign matter inspection is performed using identification means, a large number of lands existing on the printed circuit board for foreign matter inspection and print setting information of each cream solder printed on each of these lands can be obtained. It does not need to be memorized in advance, nor does it need to be referred to during the inspection. Therefore, the inspection efficiency can be improved.
  • the image data related to the area to be inspected on the printed substrate without foreign matter is used as the base image data, and the image of the area related to cream solder in the base image data is used as the base solder area image, which corresponds to the base solder area image.
  • base solder area image for example, an image of a planned printing portion (that is, a land) of cream solder on a printed circuit board can be mentioned.
  • good solder area image an image of cream solder, an image including both a land and cream solder printed on the land, and the like can be mentioned.
  • "replacing the base solder area image with a good solder area image” means replacing a part of the image of the planned printing part (land) of the cream solder with the cream solder image as the good solder area image. , The whole image of the planned printing part (land) of the cream solder is replaced with an image having both the land and the cream solder as a non-defective solder area image.
  • a plurality of types of virtual good product image data obtained by replacing the base solder region in the base image data with different types of good product solder region images are acquired, and the acquired plurality of types of virtual good product image data.
  • An irradiation means for three-dimensional measurement that irradiates the area to be inspected on the printed circuit board with light for three-dimensional measurement.
  • a two-dimensional measurement irradiation means for irradiating the inspected area of the printed circuit board with light for two-dimensional measurement is provided.
  • the image data acquisition means measures the three-dimensional image data, which is image data related to the area to be inspected, irradiated with the light for three-dimensional measurement, and the area to be inspected, which is irradiated with the light for two-dimensional measurement. It is possible to acquire the two-dimensional image data, which is the relevant image data.
  • the comparison means can compare the three-dimensional image data and the reconstructed three-dimensional image data reconstructed based on the three-dimensional image data by the identification means, and also can compare the two-dimensional image data and the identification means. It is possible to compare the reconstructed two-dimensional image data reconstructed based on the two-dimensional image data. Described in means 1 or 2 characterized in that the presence or absence of foreign matter on the printed circuit board can be determined based on the comparison result of the three-dimensional image data and the comparison result of the two-dimensional image data. Substrate foreign matter inspection equipment.
  • light for three-dimensional measurement refers to, for example, patterned light having a striped light intensity distribution
  • light for two-dimensional measurement refers to, for example, uniform light
  • the identification means generated by learning only the image data as training data the image data obtained by the image data acquisition step is input to the identification means as the original image data, and the reconstructed image data is reconstructed image.
  • a substrate foreign matter inspection method comprising determining the presence or absence of foreign matter in the printed circuit board based on the comparison result in the comparison step.
  • the image data related to the area to be inspected on the printed substrate without foreign matter is used as the base image data, and the image of the area related to cream solder in the base image data is used as the base solder area image, which corresponds to the base solder area image.
  • An irradiation step for three-dimensional measurement which irradiates the area to be inspected on the printed circuit board with light for three-dimensional measurement
  • a two-dimensional measurement irradiation step of irradiating the inspected area of the printed circuit board with light for two-dimensional measurement is provided.
  • the image data acquisition step includes a step of acquiring three-dimensional image data which is image data related to the area to be inspected irradiated with the light for the three-dimensional measurement, and the step of irradiating the light for the two-dimensional measurement. Including the step of acquiring two-dimensional image data which is image data related to the area to be inspected.
  • the comparison step includes a step of comparing the three-dimensional image data and the reconstructed three-dimensional image data reconstructed based on the three-dimensional image data by the identification means, and the two-dimensional image data and the identification means. It includes a step of comparing the reconstructed two-dimensional image data reconstructed based on the two-dimensional image data.
  • FIG. 1 is a partially enlarged plan view of a part of a printed circuit board.
  • the printed circuit board 1 has a wiring pattern (not shown) made of copper foil and a plurality of lands 3 formed on the surface of a flat plate-shaped base board 2 made of glass epoxy resin or the like. .. Further, the surface of the base substrate 2 is coated with a resist film 4 on a portion other than the land 3. A cream solder 5 made by kneading solder particles with flux is printed on the land 3. In FIG. 1 and the like, for convenience, a scattered spot pattern is added to the portion showing the cream solder 5.
  • FIG. 2 is a block diagram showing the configuration of the production line 10 of the printed circuit board 1.
  • the production line 10 includes a solder printing machine 12, a post-soldering inspection device 13, a component mounting machine 14, a reflow device 15, and a post-reflow inspection in order from the upstream side (upper side of FIG. 2).
  • the device 16 is installed.
  • the printed circuit board 1 is set to be conveyed to these devices in this order.
  • the post-solder printing inspection device 13 constitutes a "board foreign matter inspection device".
  • the solder printing machine 12 performs a solder printing process of printing cream solder 5 on each land 3 of the printed circuit board 1.
  • the cream solder 5 is printed by screen printing.
  • screen printing first, the cream solder 5 is supplied to the upper surface of the screen mask in a state where the lower surface of the screen mask is in contact with the printed circuit board 1.
  • the screen mask is formed with a plurality of openings corresponding to each land 3 of the printed circuit board 1.
  • the cream solder 5 is filled in the opening by moving the screen mask while contacting the upper surface of the screen mask with a predetermined squeegee. After that, by separating the printed circuit board 1 from the lower surface of the screen mask, the cream solder 5 is printed on each land 3 of the printed circuit board 1.
  • the solder printing post-inspection apparatus 13 performs a solder printing post-inspection step of inspecting the state of the cream solder 5 printed on the land 3 and the presence or absence of foreign matter on the printed circuit board 1 on which the cream solder 5 is printed. Details of the post-solder printing inspection device 13 will be described later.
  • the component mounting machine 14 performs a component mounting process (mounting process) in which the electronic component 25 (see FIG. 1) is mounted on the land 3 on which the cream solder 5 is printed.
  • the electronic component 25 includes a plurality of electrodes (not shown), each of which is temporarily fixed to a predetermined cream solder 5.
  • the reflow device 15 heats and melts the cream solder 5 and performs a reflow step of soldering (soldering) the land 3 and the electrode of the electronic component 25.
  • the post-reflow inspection device 16 performs a post-reflow inspection step of inspecting whether or not solder bonding is properly performed in the reflow process. For example, the presence or absence of positional deviation in the electronic component 25 is inspected using luminance image data or the like.
  • the printed circuit board 1 is sequentially conveyed, and the solder printing process ⁇ the post-solder printing inspection process ⁇ the component mounting process (mounting process) ⁇ the reflow process ⁇ the post-reflow inspection process is performed.
  • the production line 10 is provided with a conveyor or the like for transferring the printed circuit board 1 between the above-mentioned devices such as between the solder printing machine 12 and the post-solder printing inspection device 13. ..
  • a branching device is provided between the solder printing post-inspection device 13 and the component mounting machine 14 and on the downstream side of the reflow post-inspection device 16. Then, the printed circuit board 1 determined to be non-defective by the post-solder printing inspection device 13 and the post-reflow inspection device 16 is guided to the downstream side as it is, while the printed circuit board 1 determined to be defective is stored as a defective product by the branching device. It is designed to be discharged to.
  • FIG. 3 is a schematic configuration diagram schematically showing the post-solder printing inspection device 13.
  • FIG. 4 is a block diagram showing a functional configuration of the post-solder printing inspection device 13.
  • the post-solder printing inspection device 13 includes a transport mechanism 31 for transporting and positioning the printed circuit board 1, an inspection unit 32 for inspecting the printed circuit board 1, and drive control of the transport mechanism 31 and the inspection unit 32. It is equipped with a control device 33 (see FIG. 4) that executes various controls, image processing, and arithmetic processing in the post-solder printing inspection device 13.
  • the transport mechanism 31 includes a pair of transport rails 31a arranged along the loading / unloading direction of the printed circuit board 1 and an endless conveyor belt 31b rotatably arranged for each transport rail 31a.
  • the transport mechanism 31 is provided with a driving means such as a motor for driving the conveyor belt 31b and a chuck mechanism for positioning the printed circuit board 1 at a predetermined position.
  • the transport mechanism 31 is driven and controlled by a control device 33 (a transport mechanism control unit 79 described later).
  • the printed circuit board 1 carried into the inspection device 13 after solder printing has both side edges in the width direction orthogonal to the carry-in / out direction inserted into the transport rail 31a and placed on the conveyor belt 31b. Will be done.
  • the conveyor belt 31b starts operation, and the printed circuit board 1 is conveyed to a predetermined inspection position.
  • the conveyor belt 31b stops and the chuck mechanism operates.
  • the conveyor belt 31b is pushed up, and both side edges of the printed circuit board 1 are sandwiched between the conveyor belt 31b and the upper side portion of the transport rail 31a.
  • the printed circuit board 1 is positioned and fixed at the inspection position.
  • the configuration of the transport mechanism 31 is not limited to the above-mentioned embodiment, and other configurations may be adopted.
  • the inspection unit 32 is arranged above the transport rail 31a (the transport path of the printed circuit board 1).
  • the inspection unit 32 includes a first lighting device 32A, a second lighting device 32B, a third lighting device 32C, and a camera 32D. Further, the inspection unit 32 can move in the X-axis direction (left-right direction in FIG. 3) and the X-axis movement mechanism 32E (see FIG. 4) and in the Y-axis direction (front-back direction in FIG. 3). It also has a Y-axis moving mechanism 32F (see FIG. 4).
  • the inspection unit 32 is driven and controlled by a control device 33 (movement mechanism control unit 76 described later).
  • the first lighting device 32A and the second lighting device 32B constitute the "irradiation means for three-dimensional measurement”
  • the third lighting device 32C constitutes the "illumination means for two-dimensional measurement”
  • the camera 32D constitutes. It constitutes an "image data acquisition means”.
  • the first lighting device 32A and the second lighting device 32B perform the three-dimensional measurement of the printed circuit board 1
  • the first lighting device 32A and the second lighting device 32B each have a predetermined light (striped shape) for three-dimensional measurement from diagonally above a predetermined area to be inspected on the printed circuit board 1.
  • (Pattern light having a light intensity distribution of) is irradiated.
  • the first illuminating device 32A includes a first light source 32Aa that emits predetermined light and a first lattice that converts light from the first light source 32Aa into first pattern light having a striped light intensity distribution.
  • the first liquid crystal shutter 32Ab to be formed is provided, and is driven and controlled by a control device 33 (illumination control unit 72 described later).
  • the second lighting device 32B forms a second light source 32Ba that emits predetermined light and a second lattice that converts the light from the second light source 32Ba into a second pattern light having a striped light intensity distribution. It is provided with a liquid crystal shutter 32Bb and is driven and controlled by a control device 33 (light control unit 72 described later).
  • the light emitted from each of the light sources 32Aa and 32Ba is guided to a condenser lens (not shown), and after being converted into parallel light there, the projection lens (not shown) is passed through the liquid crystal shutters 32Ab and 32Bb. It is guided to the printed substrate 1 and is projected as pattern light on the printed substrate 1. Further, in the present embodiment, switching control of the liquid crystal shutters 32Ab and 32Bb is performed so that the phase of each pattern light is shifted by a quarter pitch.
  • liquid crystal shutters 32Ab and 32Bb as the grid, it is possible to irradiate a pattern light close to an ideal sine wave. This improves the measurement resolution of the three-dimensional measurement. Further, the phase shift control of the pattern light can be electrically performed, and the device can be made compact.
  • the third lighting device 32C is configured to irradiate a predetermined area to be inspected on the printed circuit board 1 with a predetermined light (for example, uniform light) for the two-dimensional measurement when performing the two-dimensional measurement of the printed circuit board 1. There is.
  • the third lighting device 32C includes a ring light capable of irradiating blue light, a ring light capable of irradiating green light, and a ring light capable of irradiating red light. Since the third lighting device 32C has the same configuration as the known technique, detailed description thereof will be omitted.
  • the camera 32D captures a predetermined area to be inspected on the printed circuit board 1 from directly above.
  • the camera 32D includes an image sensor such as a CCD (Charge Coupled Device) type image sensor or a CMOS (Complementary Metal Oxide Semiconductor) type image sensor, and an optical system (lens unit or lens unit) that forms an image of the printed substrate 1 on the image sensor. It has a diaphragm, etc.), and its optical axis is arranged along the vertical direction (Z-axis direction).
  • the image pickup element is not limited to these, and other image pickup elements may be adopted.
  • the camera 32D is driven and controlled by the control device 33 (camera control unit 73 described later). More specifically, the control device 33 executes the image pickup process by the camera 32D while synchronizing with the irradiation process by each of the lighting devices 32A, 32B, 32C. As a result, among the light emitted from any of the lighting devices 32A, 32B, and 32C, the light reflected by the printed circuit board 1 is captured by the camera 32D. As a result, the image data of the area to be inspected of the printed circuit board 1 including the printed portion of the cream solder 5 is acquired.
  • the "inspected area" of the printed circuit board 1 is one of a plurality of areas preset on the printed circuit board 1 with the size of the image field of view (imaging range) of the camera 32D as one unit.
  • the camera 32D in the present embodiment is composed of a color camera. As a result, the light of each color that is simultaneously irradiated from the ring lights of each color of the third lighting device 32C and reflected on the printed circuit board 1 can be imaged at once.
  • the image data captured and generated by the camera 32D is converted into a digital signal inside the camera 32D, and then transferred to the control device 33 (image acquisition unit 74 described later) in the form of a digital signal and stored. Then, the control device 33 performs various image processing, arithmetic processing, and the like described later based on the image data.
  • the control device 33 has a CPU (Central Processing Unit) that executes predetermined arithmetic processing, a ROM (ReadOnlyMemory) that stores various programs, fixed value data, and the like, and various data are temporarily stored when executing various arithmetic processing. It consists of a computer including a RAM (RandomAccessMemory) and peripheral circuits thereof.
  • CPU Central Processing Unit
  • ROM ReadOnlyMemory
  • RAM RandomAccessMemory
  • the control device 33 When the CPU operates according to various programs, the control device 33 includes a main control unit 71, a lighting control unit 72, a camera control unit 73, an image acquisition unit 74, a data processing unit 75, and a movement mechanism control unit 76, which will be described later. It functions as various functional units such as a learning unit 77, an inspection unit 78, and a transport mechanism control unit 79.
  • the various functional units are realized by the cooperation of various hardware such as the CPU, ROM, and RAM, and it is not necessary to clearly distinguish the functions realized by hardware or software. , Some or all of these functions may be realized by a hardware circuit such as an IC.
  • control device 33 includes an input unit 55 composed of a keyboard, a mouse, a touch panel, etc., a display unit 56 having a display screen composed of a liquid crystal display, various data and programs, calculation results, inspection results, and the like.
  • a storage unit 57 capable of storing the data, a communication unit 58 capable of transmitting and receiving various data to and from the outside, and the like are provided.
  • control device 33 the various functional units constituting the control device 33 will be described in detail.
  • the main control unit 71 is a functional unit that controls the entire inspection device 13 after solder printing, and is configured to be able to transmit and receive various signals to other functional units such as the lighting control unit 72 and the camera control unit 73.
  • the lighting control unit 72 is a functional unit that drives and controls the lighting devices 32A, 32B, 32C, and performs switching control of irradiation light based on a command signal from the main control unit 71.
  • the camera control unit 73 is a functional unit that drives and controls the camera 32D, and controls the imaging timing and the like based on the command signal from the main control unit 71.
  • the image acquisition unit 74 is a functional unit for capturing image data captured and acquired by the camera 32D.
  • the data processing unit 75 is a functional unit that performs predetermined image processing on the image data captured by the image acquisition unit 74, and performs two-dimensional measurement processing, three-dimensional measurement processing, and the like using the image data.
  • the movement mechanism control unit 76 is a functional unit that drives and controls the X-axis movement mechanism 32E and the Y-axis movement mechanism 32F, and controls the position of the inspection unit 32 based on the command signal from the main control unit 71.
  • the movement mechanism control unit 76 drives and controls the X-axis movement mechanism 32E and the Y-axis movement mechanism 32F to position the inspection unit 32 at an upper position of an arbitrary inspected area of the printed circuit board 1 positioned and fixed at the inspection position. Can be moved. Then, while the inspection unit 32 is sequentially moved to the plurality of inspected areas set on the printed circuit board 1, the inspection related to the inspected area is executed, so that the inspection of the entire printed circuit board 1 is executed.
  • the learning unit 77 has a function of learning a deep neural network 90 (hereinafter, simply referred to as “neural network 90”; see FIG. 5) using learning data, and constructing an AI (Artificial Intelligence) model 100 as an identification means. It is a department.
  • neural network 90 hereinafter, simply referred to as “neural network 90”; see FIG. 5
  • AI Artificial Intelligence
  • the neural network 90 is deep-learned using only the image data related to the inspected area of the non-defective printed substrate 1 without foreign matter as learning data. It is a constructed generative model and has a so-called autoencoder (self-encoder) structure.
  • FIG. 5 is a schematic diagram conceptually showing the structure of the neural network 90.
  • the neural network 90 reconstructs an encoder unit 91 as a coding unit that extracts a feature amount (latent variable) TA from the input image data GA, and an image data GB from the feature amount TA. It has a structure of a convolutional auto-encoder (CAE) having a decoder unit 92 as a decoding unit.
  • CAE convolutional auto-encoder
  • the encoder unit 91 has a plurality of convolution layers (Convolution Layer) 93, and each convolution layer 93 has a plurality of filters for input data.
  • the result of the convolution operation using (Kernel) 94 is output as the input data of the next layer.
  • the decoder unit 92 has a plurality of deconvolution layers 95, and each deconvolution layer 95 is the result of performing a deconvolution operation using a plurality of filters (kernels) 96 on the input data. Is output as input data for the next layer. Then, in the learning process described later, the weights (parameters) of the filters 94 and 96 are updated.
  • the inspection unit 78 is a functional unit that inspects the printed circuit board 1 on which the cream solder 5 is printed. For example, in the present embodiment, it is inspected whether or not foreign matter is attached to the printed circuit board 1, and whether or not the cream solder 5 is properly printed.
  • the transport mechanism control unit 79 is a functional unit that drives and controls the transport mechanism 31, and controls the position of the printed circuit board 1 based on a command signal from the main control unit 71.
  • the storage unit 57 is composed of an HDD (Hard Disk Drive), an SSD (Solid State Drive), or the like, and has, for example, a predetermined storage area for storing the AI model 100 (neural network 90 and learning information acquired by learning the neural network 90). ing.
  • HDD Hard Disk Drive
  • SSD Solid State Drive
  • the communication unit 58 is provided with a wireless communication interface conforming to a communication standard such as a wired LAN (Local Area Network) or a wireless LAN, and is configured to be able to send and receive various data to and from the outside.
  • a communication standard such as a wired LAN (Local Area Network) or a wireless LAN
  • the result of the inspection performed by the inspection unit 78 may be output to the outside via the communication unit 58, or the result of the inspection performed by the inspection device 16 after reflow may be input via the communication unit 58.
  • the main control unit 71 When the learning process is started based on the execution of the predetermined learning program, the main control unit 71 first performs preprocessing for learning the neural network 90 in step S101.
  • the image data includes three-dimensional image data which is image data obtained by imaging the print substrate 1 with the camera 32D while irradiating the pattern light from the first lighting device 32A or the second lighting device 32B. It includes two-dimensional image data which is image data obtained by imaging the print substrate 1 with the camera 32D in a state of irradiating uniform light from the third lighting device 32C. Such processing is performed until a required number of image data as training data is acquired.
  • the printed circuit board 1 that acquires inspection information from the post-reflow inspection device 16 has the same configuration as the printed circuit board 1 to be inspected.
  • the thickness, material, size, arrangement layout, and the like of the printed circuit board 1 do not need to be the same, and learning based on various types of learning data is preferable in terms of versatility.
  • the learning unit 77 prepares the unlearned neural network 90 based on the command from the main control unit 71.
  • the neural network 90 stored in the storage unit 57 or the like in advance is read out.
  • the neural network 90 is constructed based on the network configuration information (for example, the number of layers of the neural network, the number of nodes of each layer, etc.) stored in the storage unit 57 or the like.
  • the neural network 90 one for performing learning using two-dimensional image data (two-dimensional neural network) and one for performing learning using three-dimensional image data (three-dimensional neural network). Network) and build separately.
  • step S103 the reconstructed image data is acquired. That is, based on the command from the main control unit 71, the learning unit 77 gives the image data acquired in step S102 as input data to the input layer of the neural network 90, and thereby outputs the image data from the output layer of the neural network 90. Acquires the reconstructed image data to be performed. More specifically, when learning the two-dimensional neural network, the learning unit 77 gives the two-dimensional image data acquired in step S102 as input data to the input layer of the neural network 90 (two-dimensional neural network). As a result, the reconstructed two-dimensional image data output from the output layer of the neural network 90 is acquired.
  • the learning unit 77 gives the three-dimensional image data acquired in step S102 as input data to the input layer of the neural network 90 (neural network for three dimensions), thereby. Reconstructed three-dimensional image data output from the output layer of the neural network 90 is acquired.
  • the learning unit 77 compares the input image data with the reconstructed image data output by the neural network 90, and whether or not the error is sufficiently small (whether or not it is equal to or less than a predetermined threshold value). Or) is determined. For example, when learning a two-dimensional neural network, the two-dimensional image data and the reconstructed two-dimensional image data are compared.
  • step S106 the learning unit 77 determines whether or not the learning end condition is satisfied. For example, when a positive determination is made in step S104 continuously a predetermined number of times without going through the process of step S105 described later, learning using all of the prepared image data is repeated a predetermined number of times. If so, it is determined that the end condition is satisfied.
  • the neural network 90 and its learning information are stored in the storage unit 57 as the AI model 100, and the learning process is terminated.
  • an AI model a model corresponding to two-dimensional image data (two-dimensional AI model) and a model corresponding to three-dimensional image data (three-dimensional AI model) are stored. ..
  • step S106 if the end condition is not satisfied in step S106, the process returns to step S102 and the neural network 90 is learned again.
  • step S104 If the error is not sufficiently small in step S104, the network update process (learning of the neural network 90) is performed in step S105, and then the process returns to step S103 again to repeat the above series of processes.
  • the loss function representing the difference between the image data for training and the reconstructed image data is made as small as possible by using a known learning algorithm such as an error backpropagation method. Therefore, the weights (parameters) of the filters 94 and 96 in the neural network 90 are updated to more appropriate ones.
  • the loss function for example, BCE (Binary Cross-entropy) or the like can be used.
  • the AI model 100 finally obtained will generate reconstructed image data that substantially matches the image data when the image data related to the printed circuit board 1 without foreign matter is input. Further, the AI model 100 generates reconstructed image data that substantially matches the image data from which the noise portion (the portion corresponding to the foreign matter) is removed when the image data relating to the printed circuit board 1 having the foreign matter is input. It becomes. That is, when there is a foreign substance on the printed circuit board 1, virtual image data related to the printed circuit board 1 is generated as the reconstructed image data related to the printed circuit board 1 assuming that there is no foreign substance.
  • the inspection process performed by the post-solder printing inspection device 13 will be described with reference to the flowchart of FIG.
  • the inspection process shown in FIG. 7 is a process executed for each area to be inspected on the printed circuit board 1.
  • the inspection process is started based on the execution of the predetermined inspection program.
  • the image data acquisition step is first performed in step S301.
  • the image data acquisition step includes a step of acquiring three-dimensional image data and a step of acquiring two-dimensional image data.
  • the 3D image data acquisition process is executed.
  • the phase of the first pattern light emitted from the first lighting device 32A is changed, and the inspection is performed four times under the first pattern light having different phases.
  • the imaging process was performed four times under the second pattern light having different phases while changing the phase of the second pattern light emitted from the second lighting device 32B, for a total of eight ways. Acquire 3D image data.
  • it will be described in detail.
  • the moving mechanism control unit 76 first receives an X-axis based on a command from the main control unit 71.
  • the moving mechanism 32E and the Y-axis moving mechanism 32F are driven and controlled to move the inspection unit 32, and the imaging field of view (imaging range) of the camera 32D is adjusted to a predetermined area to be inspected of the printed circuit board 1.
  • the lighting control unit 72 switches and controls the liquid crystal shutters 32Ab and 32Bb of both lighting devices 32A and 32B, and determines the positions of the first grid and the second grid formed on the both liquid crystal shutters 32Ab and 32Bb as a predetermined reference. Set to position.
  • the lighting control unit 72 causes the first light source 32Aa of the first lighting device 32A to emit light, irradiates the first pattern light, and the camera control unit 73 moves the camera.
  • the 32D is driven and controlled to execute the first imaging process under the first pattern light.
  • the image data generated by the image pickup process is taken into the image acquisition unit 74 at any time (the same applies hereinafter). As a result, three-dimensional image data of the area to be inspected including the plurality of lands 3 (cream solder 5) is acquired.
  • the lighting control unit 72 turns off the first light source 32Aa of the first lighting device 32A and switches the first liquid crystal shutter 32Ab at the same time as the end of the first imaging process under the first pattern light.
  • the position of the first grid formed on the first liquid crystal shutter 32Ab is switched from the reference position to the second position where the phase of the first pattern light is shifted by a quarter pitch (90 °). ..
  • the lighting control unit 72 emits the light source 32Aa of the first lighting device 32A to irradiate the first pattern light, and the camera control unit 73 drives and controls the camera 32D.
  • the second imaging process is performed under the first pattern light. After that, by repeating the same process, four types of three-dimensional image data under the first pattern light having different phases by 90 ° are acquired.
  • the lighting control unit 72 causes the second light source 32Ba of the second lighting device 32B to emit light and irradiates the second pattern light
  • the camera control unit 73 drives and controls the camera 32D to control the second pattern.
  • the first imaging process under light is performed.
  • the lighting control unit 72 turns off the second light source 32Ba of the second lighting device 32B and switches the second liquid crystal shutter 32Bb at the same time as the end of the first imaging process under the second pattern light.
  • the position of the second grid formed on the second liquid crystal shutter 32Bb is switched from the reference position to the second position where the phase of the second pattern light is shifted by a quarter pitch (90 °). ..
  • the lighting control unit 72 causes the light source 32Ba of the second lighting device 32B to emit light to irradiate the second pattern light, and the camera control unit 73 drives and controls the camera 32D.
  • the second imaging process is performed under the second pattern light. After that, by repeating the same process, four types of three-dimensional image data under the second pattern light having different phases by 90 ° are acquired.
  • the step of irradiating the area to be inspected of the printed circuit board 1 with the pattern light from the first lighting device 32A or the second lighting device 32B when acquiring the three-dimensional image data is the “three-dimensional measurement irradiation step”. Corresponds to.
  • the process of acquiring 2D image data is executed.
  • the lighting control unit 72 causes the third lighting device 32C to emit light and is uniform with respect to the predetermined inspected area.
  • the camera control unit 73 drives and controls the camera 32D to execute the image pickup process under the uniform light.
  • a predetermined area to be inspected on the printed circuit board 1 is imaged, and two-dimensional image data related to the area to be inspected is acquired.
  • the step of irradiating the area to be inspected of the printed circuit board 1 with uniform light from the third lighting device 32C when acquiring the two-dimensional image data corresponds to the “two-dimensional measurement irradiation step”.
  • the acquired three-dimensional image data and two-dimensional image data are numbered and stored in the storage unit 57, respectively.
  • the three-dimensional measurement data acquisition process is executed. Specifically, based on a command from the main control unit 71, the data processing unit 75 uses a known phase shift method based on a plurality of three-dimensional image data obtained under each pattern light in step S301. A three-dimensional shape measurement of a predetermined area to be inspected including a plurality of cream solders 5 is performed, and the measurement result (three-dimensional measurement data) is stored in the storage unit 57. In this embodiment, since the three-dimensional shape measurement is performed by irradiating the pattern light from two directions, it is possible to prevent the occurrence of a shadow portion that is not irradiated with the pattern light.
  • the two-dimensional measurement data acquisition process is executed. Specifically, based on a command from the main control unit 71, the data processing unit 75 includes a plurality of cream solders 5 based on the two-dimensional image data obtained under uniform light in step S302. The two-dimensional shape measurement of the area to be inspected is performed, and the measurement result (two-dimensional measurement data) is stored in the storage unit 57.
  • step S304 the reconstructed image data acquisition step is executed. Specifically, based on the command from the main control unit 71, the inspection unit 78 converts the three-dimensional image data (original image data) of the predetermined number (for example, 001) acquired in step S301 into three-dimensional image data. Input to the input layer of the corresponding AI model 100 (AI model for three dimensions). Then, the image data reconstructed by the AI model 100 and output from the output layer is acquired as the reconstructed three-dimensional image data of the predetermined number (for example, 001). Further, the acquired reconstructed 3D image data is stored in association with the 3D image data (original image data) having the same number.
  • the inspection unit 78 converts the three-dimensional image data (original image data) of the predetermined number (for example, 001) acquired in step S301 into three-dimensional image data. Input to the input layer of the corresponding AI model 100 (AI model for three dimensions). Then, the image data reconstructed by the AI model 100 and output from the output layer is acquired as
  • the inspection unit 78 inputs the two-dimensional image data (original image data) of the predetermined number acquired in step S301 into the input layer of the AI model 100 (AI model for two dimensions) corresponding to the two-dimensional image data. .. Then, the image data reconstructed by the AI model 100 and output from the output layer is acquired as the reconstructed two-dimensional image data having the predetermined number. Further, the acquired reconstructed two-dimensional image data is stored in association with the two-dimensional image data (original image data) having the same number.
  • the inspection unit 78 that performs the acquisition processing of the reconstructed three-dimensional image data and the reconstructed two-dimensional image data constitutes the “reconstructed image data acquisition means”.
  • the AI model 100 not only the image data relating to the printed substrate 1 having no foreign matter is input, but also the image data relating to the printed substrate 1 having the foreign matter M as shown in FIG. 8 is input. However, by learning as described above, the image data without foreign matter similar to that shown in FIG. 9 is output as the reconstructed image data.
  • step S305 pass / fail judgment processing is performed based on the acquired image data.
  • a three-dimensional pass / fail determination process for determining the pass / fail of the predetermined three-dimensional information related to the cream solder 5
  • a two-dimensional pass / fail determination process for determining the pass / fail of the predetermined two-dimensional information related to the cream solder 5, and printing.
  • the foreign matter presence / absence determination process for determining the quality of the presence / absence of foreign matter on the substrate 1 is executed.
  • pass / fail determination is performed for the predetermined three-dimensional information related to the cream solder 5 based on the three-dimensional measurement data acquired in the three-dimensional measurement data acquisition process in step S302.
  • the inspection unit 78 first calculates the "volume” and "height” of the cream solder 5 based on the three-dimensional measurement data acquired in step S302, based on the command from the main control unit 71. Then, the "volume” and “height” of the cream solder 5 are compared with the reference data stored in the storage unit 57 in advance, and the "volume” and “height” of the cream solder 5 are within the reference range, respectively. Determine if it exists. Since the quality determination process of these inspection items (three-dimensional information) can be executed by a known method, detailed description thereof will be omitted.
  • pass / fail judgment is performed on the predetermined two-dimensional information related to the cream solder 5 based on the two-dimensional measurement data acquired in the two-dimensional measurement data acquisition process in step S303.
  • the inspection unit 78 first calculates the "area” and "positional deviation amount” of the cream solder 5 based on the two-dimensional measurement data acquired in step S303, based on the command from the main control unit 71. At the same time, the "two-dimensional shape" of the cream solder 5 and the “solder bridge” straddling the plurality of lands 3 are extracted.
  • the "area” and “positional deviation” of the cream solder 5, as well as the "two-dimensional shape” and the “solder bridge” are compared with the reference data stored in the storage unit 57 in advance, and these are within the reference range, respectively. Determine if it is in. Since the quality determination process of these inspection items (two-dimensional information) can be executed by a known method, detailed description thereof will be omitted.
  • the inspection unit 78 compares the three-dimensional image data (original image data) and the reconstructed three-dimensional image data of the same number acquired in step S304, respectively, based on the command from the main control unit 71. Then, the difference between the two image data is calculated. For example, the dots having the same coordinates in both image data are compared, and the area (number of dots) of the dots whose difference in luminance is equal to or greater than a predetermined value is calculated.
  • the inspection unit 78 calculates the difference between the two image data by comparing the two-dimensional image data (original image data) and the reconstructed two-dimensional image data of the same number acquired in step S304, respectively.
  • the inspection unit 78 that compares the original image data and the reconstructed image data constitutes a “comparison means”. Further, the step of comparing the original image data and the reconstructed image data corresponds to the "comparison step”.
  • the inspection unit 78 determines the presence or absence of foreign matter on the printed circuit board 1 based on the comparison result related to the three-dimensional image data and the comparison result related to the two-dimensional image data. Specifically, the inspection unit 78 determines whether or not each calculated difference is larger than a predetermined threshold value. Then, when at least one of the differences is larger than a predetermined threshold value, it is determined that there is a foreign substance. On the other hand, when each difference is smaller than a predetermined threshold value, it is determined that there is no foreign matter.
  • the inspection unit 78 determines that all of the "three-dimensional pass / fail determination process”, “two-dimensional pass / fail determination process”, and “foreign matter presence / absence determination process” are "good", the inspection target on the printed circuit board 1 is subject to inspection. The inspection area is determined to be "good”, and this result is stored in the storage unit 57.
  • the post-solder printing inspection device 13 is determined to be "good” for all the inspected areas as a result of performing the above inspection process for all the inspected areas in the printed circuit board 1, there is no abnormality in the printed circuit board. It is determined to be 1 (pass determination), and this result is stored in the storage unit 57.
  • the post-solder printing inspection device 13 determines that the printed circuit board 1 has a defective portion (failure determination) when there is even one area to be inspected that is determined to be "defective”. Is stored in the storage unit 57, and the fact is notified to the outside via the display unit 56, the communication unit 58, and the like.
  • the printed circuit board 1 to be inspected is not limited because the identity between the printed circuit board 1 to be inspected and the master substrate cannot be maintained. As a result, foreign matter inspection can be performed more easily.
  • the shape and appearance of the printed circuit board 1 (for example, the shape and position of the cream solder 5) are almost the same, so that the method is different from the method of detecting foreign matter by comparison with the reference image. It is not necessary to set relatively loose inspection conditions in order to prevent false detection, and stricter inspection conditions can be set. Further, since the height of the cream solder 5 and the state of its change do not affect the detection of foreign matter, foreign matter having a side surface that is gently displaced from the side surface of the cream solder 5 and foreign matter lower than the cream solder 5 can be removed. It becomes possible to detect.
  • the imaging conditions of the printed circuit board 1 to be inspected for example, the arrangement position and the arrangement angle of the printed circuit board 1, the deflection, etc.
  • the imaging conditions on the inspection device side for example, the lighting state and the camera 32D.
  • the angle of view, etc. can be matched. Combined with these effects, foreign matter can be detected with great accuracy.
  • the AI model 100 is used to perform foreign matter inspection, a large number of lands 3 existing on the printed circuit board 1 for foreign matter inspection and printing of each cream solder 5 printed on each of these lands 3 are printed. It is not necessary to store the setting information in advance, and it is not necessary to refer to it at the time of inspection. Therefore, the inspection efficiency can be improved.
  • the presence or absence of foreign matter on the printed circuit board 1 is determined by using both the three-dimensional image data and the two-dimensional image data, the foreign matter can be detected more accurately.
  • the image data related to the non-defective printed circuit board 1 which has passed the post-reflow inspection and has no foreign matter is used as the learning data.
  • image data related to the printed circuit board 1 without foreign matter, which is visually selected by the operator after printing the cream solder 5, may be used as learning data.
  • the learning unit 77 may be configured to generate virtual good product image data and to learn the neural network 90 using the virtual good product image data.
  • a plurality of image data related to the area to be inspected in the printed circuit board 1 having no foreign matter are acquired in advance as the base image data 200.
  • the base image data 200 can be acquired, for example, by taking an image of the printed circuit board 1 under the same conditions as at the time of inspection by the post-solder printing inspection device 13.
  • the base image data 200 may be an image obtained by imaging the printed circuit board 1 on which the cream solder 5 is not printed, or an image obtained by imaging the printed circuit board 1 on which the cream solder 5 is printed.
  • the image may be an image in which the cream solder 5 portion is erased and the complement processing is performed so that the erased portion becomes the land 3.
  • the base image data 200 includes a plurality of base solder area images 5a1, 5a2, 5a3 which are images of the area related to the cream solder 5.
  • the base solder region images 5a1, 5a2, 5a3 correspond to the land 3 on which the cream solder 5 is printed, respectively.
  • non-defective solder region images 5g1, 5g2, 5g3, which are images of regions related to the cream solder 5 without foreign matter, corresponding to the base solder region images 5a1,5a2,5a3, are prepared in advance. Get it.
  • the non-defective solder region images 5g1, 5g2, 5g3 are images of the cream solder 5, and correspond to base solder region images 5a1, 5a2, 5a3 of different sizes, respectively.
  • the non-defective solder region image 5g1 corresponds to the base solder region image 5a1
  • the non-defective solder region image 5g2 corresponds to the base solder region image 5a2
  • the non-defective solder region image 5g3 corresponds to the base solder region image 5a3.
  • the non-defective solder region image 5g1, 5g2, 5g3 can be obtained from, for example, image data related to a non-defective printed circuit board 1 having no foreign matter that has passed the inspection.
  • the learning unit 77 uses the base image data 200 and the non-defective solder region image 5g1, 5g2, 5g2 to generate virtual non-defective image data as shown in FIG. That is, the learning unit 77 is at least a part of the base solder region images 5a1, 5a2, 5a3 in the base image data 200 (in this example, among the base solder region images 5a1, 5a3, 5a3, the non-defective solder region images 5g1,5g2.
  • Virtual non-defective product image data 201 is generated by performing a process of replacing (a certain range having the same shape as 5 g3) with the non-defective product solder region image 5g1, 5g2, 5g3.
  • the learning unit 77 repeats the above processing while changing the reference base image data 200 and the non-defective solder area image 5g1, 5g2, 5g3 used for replacement, so that the required number of different types of virtual non-defective image data can be obtained. Generate 201. Then, the learning unit 77 learns the neural network 90 using the generated virtual good product image data 201 as learning data.
  • the learning unit 77 constitutes the "learning data generation means", and the step of generating the virtual non-defective image data 201 corresponds to the "learning data generation step".
  • a large number of different learning data (virtual good product image data 201) can be generated from the base image data 200 of 1 related to the printed circuit board 1. Therefore, the number of printed circuit boards 1 prepared for learning is sufficient to obtain the required number of base image data 200. As a result, the number of printed circuit boards 1 prepared for learning can be reduced, and as a result, the cost can be effectively reduced.
  • the virtual non-defective product image data can be generated by replacing the entire base solder region image 5a1, 5a2, 5a3 with the non-defective solder region image 5h1, 5h2, 5h3.
  • one corresponding to two-dimensional image data and one corresponding to three-dimensional image data may be generated. Further, in the case of the configuration as described in (b) below, only one of the data corresponding to the two-dimensional image data and the data corresponding to the three-dimensional image data may be generated.
  • the inspection for the presence or absence of foreign matter is performed using the two-dimensional image data and the three-dimensional image data, but the inspection for the presence or absence of foreign matter is performed using only one of the two image data. It may be configured to perform.
  • a model corresponding to two-dimensional image data (AI model for two dimensions) and a model corresponding to three-dimensional image data (three-dimensional AI model) are provided.
  • a common AI model corresponding to each of the two-dimensional image data and the three-dimensional image data may be provided.
  • the measuring method of the cream solder 5, such as the three-dimensional measuring method and the two-dimensional measuring method, is not limited to the above embodiment, and other configurations may be adopted.
  • the phase shift method in performing three-dimensional measurement by the phase shift method, four types of image data in which the phases of the pattern lights differ by 90 ° are acquired, but the number of phase shifts and the amount of phase shifts Is not limited to these.
  • the phase shift method is adopted as the three-dimensional measurement method, it is not limited to this, and other three-dimensional measurement methods such as the optical cutting method, the moire method, the focusing method, the spatial code method, etc. are adopted. May be good.
  • the inspection process is configured to perform "three-dimensional pass / fail determination process" and "two-dimensional pass / fail determination process", but one or both of the two processes are not performed. May be.
  • the configuration of the AI model 100 (neural network 90) as the identification means and the learning method thereof are not limited to the above embodiment.
  • the configuration when performing the learning process of the neural network 90, the reconstructed image data acquisition process, or the like, the configuration may be such that processing such as normalization is performed on various data as necessary.
  • the structure of the neural network 90 is not limited to that shown in FIG. 5, and for example, a pooling layer may be provided after the convolution layer 93.
  • the number of layers of the neural network 90, the number of nodes of each layer, the connection structure of each node, and the like may be different.
  • the AI model 100 is a generative model having a structure of a convolutional autoencoder (CAE), but the present invention is not limited to this, and for example, a variational self-encoder (VAE). : Variational Autoencoder) may be used as a generative model having a different type of autoencoder structure.
  • CAE convolutional autoencoder
  • VAE variational self-encoder
  • the neural network 90 is learned by the error back propagation method, but the present invention is not limited to this, and various other learning algorithms may be used for learning.
  • the neural network 90 may be configured by a circuit dedicated to AI processing such as a so-called AI chip. In that case, only the learning information such as parameters is stored in the storage unit 57, which may be read out by the AI processing dedicated circuit and set in the neural network 90 to configure the AI model 100.
  • control device 33 is provided with a learning unit 77, and the neural network 90 is learned in the control device 33, but the present invention is not limited to this.
  • the learning unit 77 is omitted, the neural network 90 is trained outside the control device 33, and the AI model 100 (learned neural network 90) trained externally is stored in the storage unit 57. It may be configured.
  • the virtual good product image data 201 may be generated outside the control device 33.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Immunology (AREA)
  • Chemical & Material Sciences (AREA)
  • Biochemistry (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Electric Connection Of Electric Components To Printed Circuits (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Liquid Crystal (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)

Abstract

より簡便で、非常に精度のよい異物の検出を可能とする。入力される画像データから特徴量を抽出する符号化部、及び、該特徴量から画像データを再構成する復号化部を有するニューラルネットワークに対し、異物のないプリント基板に係る画像データのみを学習データとして学習させて生成したAIモデル100を用い、カメラ32Dにより得られた画像データを元画像データとしてAIモデル100へ入力して再構成された画像データを再構成画像データとして取得する。元画像データ及び再構成画像データを比較し、比較結果に基づき、プリント基板における異物の有無を判定する。比較のためのマスター基板を用意する必要がないため、異物検査が簡便となる。また、比較する両画像データにおいてプリント基板の形状や外観がそれぞれほぼ同一となること等により、異物の検出を非常に精度よく行うことができる。

Description

基板異物検査装置及び基板異物検査方法
 本発明は、基板における異物の有無を検査するための基板異物検査装置及び基板異物検査方法に関する。
 一般に、プリント基板上に電子部品を実装する基板製造ラインにおいては、まずプリント基板のランド上にクリーム半田が印刷される(半田印刷工程)。次に、該クリーム半田の粘性に基づいてプリント基板上に電子部品が仮止めされる(マウント工程)。その後、かかるプリント基板がリフロー炉へ導かれ、クリーム半田を加熱溶融することで半田付けが行われる(リフロー工程)。
 通常、このような基板製造ラインにおいては、クリーム半田の印刷されたプリント基板を撮像して得た画像データに基づき、プリント基板における異物の有無を検査する基板異物検査装置を設けることがある(例えば、特許文献1等参照)。
 上記特許文献1に記載の基板異物検査装置(三次元形状測定装置)において、異物の有無に係る検査は次のようにして行われる。すなわち、プリント基板に対し複数のカラー光を照射しつつ該プリント基板を撮像することで、二次元情報として二次元的イメージを取得するとともに、この二次元的イメージを用いて異物の検出を行う。また、プリント基板に対し格子パターン光を照射しつつ該プリント基板を撮像することで、三次元情報として三次元的イメージを取得するとともに、この三次元的イメージを用いて異物の検出を行う。そして、二次元的イメージに基づく検出結果と三次元的イメージに基づく検出結果とを併合することで、最終的な異物の有無に関する判断を行う。
 ここで、上述した二次元的イメージや三次元的イメージを用いた異物検出は、二次元的イメージ又は三次元的イメージと基準イメージとを比較することで行われる。基準イメージは、二次元的イメージ又は三次元的イメージを得るときと同様の条件で、模範となる基板(マスター基板)を撮像して取得されたものである。
 また、上記特許文献1では、三次元的イメージを用いる場合、高さが急激に変化したり基準値を超えていたりするか否かを判別することによっても異物の検出が可能であるとされている。
特開2016-519768号公報
 しかしながら、二次元的イメージ又は三次元的イメージと、マスター基板に係る基準イメージとを比較して異物検出を行うためには、検査対象のプリント基板とマスター基板とが同一である必要がある。従って、これら基板の同一性を保つことができない場合、異物検出を行うことができない。
 また、一般にプリント基板の製造工程は、穴開け工程、レジスト塗布工程、クリーム半田印刷工程など、位置決めを行う工程やマスクを用いる工程を多く含む。さらに、クリーム半田は半田粒をフラックスで練ってなるものである。従って、上記各種工程を経てクリーム半田の印刷されたプリント基板の形状や外観は一定とはならない。そのため、検査対象のプリント基板に異物がないとしても、該プリント基板に係る二次元的イメージ又は三次元イメージと基準イメージとの間で必然的に差分が生じる。従って、この差分による誤検出を防止するために比較的緩い検査条件を設定しなければならず、結果的に、異物の検出能力が低下し、小さな異物を検出することができない等の不具合が生じるおそれがある。
 さらに、高さが急激に変化したり基準値を超えていたりするか否かを判別することで異物を検出しようとしても、結局のところ、クリーム半田に係る基準値よりも高いものでなければ異物として検出することができないおそれがある。これは、印刷されたクリーム半田の中には、側面がほぼ鉛直に切り立ったもの、つまり、高さが急激に変化するものが存在し得るためである。
 本発明は、上記事情に鑑みてなされたものであり、その目的は、より簡便に、かつ、非常に精度よく異物の検出を行うことができる基板異物検査装置などを提供することにある。
 以下、上記目的を解決するのに適した各手段につき、項分けして説明する。なお、必要に応じて対応する手段に特有の作用効果を付記する。
 手段1.クリーム半田の印刷されたプリント基板における異物の有無を検査する基板異物検査装置であって、
 クリーム半田の印刷部分を含む前記プリント基板における所定の被検査領域の画像データを取得可能な画像データ取得手段と、
 入力される画像データから特徴量を抽出する符号化部、及び、該特徴量から画像データを再構成する復号化部を有するニューラルネットワークに対し、異物のない前記プリント基板における前記被検査領域に係る画像データのみを学習データとして学習させて生成した識別手段と、
 前記画像データ取得手段により得られた画像データを元画像データとして前記識別手段へ入力して再構成された画像データを再構成画像データとして取得可能な再構成画像データ取得手段と、
 前記元画像データ及び前記再構成画像データを比較可能な比較手段とを備え、
 前記比較手段による比較結果に基づき、前記プリント基板における異物の有無を判定可能に構成されていることを特徴とする基板異物検査装置。
 尚、上記「学習データ」として用いる「異物のない前記プリント基板における前記被検査領域に係る画像データ」としては、これまでの異物検査で蓄積された画像データ、後述する手段3に係る仮想良品画像データ、クリーム半田の印刷後に作業者が目視により選別した、異物のないプリント基板の画像データなどを挙げることができる。
 また、上記「ニューラルネットワーク」には、例えば複数の畳み込み層を有する畳み込みニューラルネットワークなどが含まれる。上記「学習」には、例えば深層学習(ディープラーニング)などが含まれる。上記「識別手段(生成モデル)」には、例えばオートエンコーダ(自己符号化器)や、畳み込みオートエンコーダ(畳み込み自己符号化器)などが含まれる。
 加えて、「識別手段」は、異物のないプリント基板に係る画像データのみを学習させて生成したものであるため、異物のあるプリント基板に係る元画像データを識別手段に入力したときに生成される再構成画像データは、ノイズ部分(異物に相当する部分)が除去された元画像データとほぼ一致することになる。すなわち、プリント基板に異物があるときには、該プリント基板に係る再構成画像データとして、異物がないものと仮定した場合の該プリント基板に係る仮想的な画像データが生成される。
 上記手段1によれば、元画像データと、該元画像データを識別手段へ入力して再構成された再構成画像データとを比較し、その比較結果に基づき、プリント基板における異物の有無を判定している。そのため、比較する両画像データは、それぞれ同一のプリント基板に係るものとなる。
 従って、マスター基板に係る基準イメージとの比較によって異物を検出する手法とは異なり、比較のためのマスター基板を用意する必要がない。そのため、検査対象のプリント基板とマスター基板との同一性を保つことができないといった理由で、検査対象のプリント基板が限られるといったことはない。これにより、異物検査をより簡便に行うことができる。
 また、比較する両画像データにおいて、プリント基板の形状や外観(例えばクリーム半田の形状や位置など)はそれぞれほぼ同一となるため、基準イメージとの比較によって異物を検出する手法とは異なり、誤検出を防止するために比較的緩い検査条件を設定する必要はなく、より厳しい検査条件を設定することができる。さらに、クリーム半田の高さやその変化の状態が異物の検出に影響を及ぼすことはないから、クリーム半田の側面よりもなだらかに変位する側面を有する異物や、クリーム半田よりも低い異物を検出することが可能となる。さらに、比較する両画像データにおいて、検査対象であるプリント基板の撮像条件(例えばプリント基板の配置位置や配置角度、たわみ等)や、検査装置側の撮像条件(例えば照明状態やカメラの画角等)を一致させることができる。これらの作用効果が相俟って、異物の検出を非常に精度よく行うことができる。
 さらに、識別手段を利用して異物検査を行う構成となっているため、異物検査のためにプリント基板上に存在する多数のランド及びこれらに対しそれぞれ印刷されるクリーム半田個々の印刷設定情報などを予め記憶しておく必要はなく、また、検査に際しそれを参照する必要もない。従って、検査効率の向上を図ることができる。
 手段2.異物のない前記プリント基板における前記被検査領域に係る画像データをベース画像データとし、該ベース画像データのうちのクリーム半田に係る領域の画像をベース半田領域画像とし、該ベース半田領域画像に対応する、異物のないクリーム半田に係る領域の画像を良品半田領域画像としたとき、
 予め取得した複数種類の前記良品半田領域画像を用い、前記ベース画像データにおける前記ベース半田領域画像の少なくとも一部を、それぞれ異なる種類の前記良品半田領域画像に置き換えることで、複数種類の仮想良品画像データを取得する学習データ生成手段を備え、
 前記学習データとして、前記学習データ生成手段により得られた前記仮想良品画像データを用いることを特徴とする手段1に記載の基板異物検査装置。
 尚、「ベース半田領域画像」としては、例えば、プリント基板におけるクリーム半田の印刷予定部位(すなわちランド)の画像を挙げることができる。また、「良品半田領域画像」としては、クリーム半田の画像や、ランド及び該ランドに印刷されたクリーム半田の双方を備えた画像などを挙げることができる。そして、「ベース半田領域画像を良品半田領域画像に置き換えること」とは、クリーム半田の印刷予定部位(ランド)の画像のうちの一部を、良品半田領域画像としてのクリーム半田の画像に置き換えたり、クリーム半田の印刷予定部位(ランド)の画像の全体を、良品半田領域画像としてのランド及びクリーム半田の双方を備えた画像に置き換えたりすることをいう。
 クリーム半田の形状は一定とはならないため、ニューラルネットワークの学習に際しては、異物のないプリント基板に係る画像データ(学習データ)を非常に多く用意する必要がある。しかしながら、1のプリント基板から1の学習データを得るといった手法では、必要数の学習データを揃えるために極めて多数のプリント基板を用意しなければならず、多大なコストを要するおそれがある。
 この点、上記手段2によれば、ベース画像データにおけるベース半田領域をそれぞれ異なる種類の良品半田領域画像に置き換えてなる複数種類の仮想良品画像データを取得し、取得した複数種類の仮想良品画像データを学習データとして、ニューラルネットワークの学習を行うことができる。従って、1のプリント基板に係る1のベース画像データから、多数の異なる学習データを生成することができる。これにより、学習のために用意するプリント基板の数を減らすことができ、コストの低減を効果的に図ることができる。
 手段3.前記プリント基板の前記被検査領域に対し三次元計測用の光を照射する三次元計測用照射手段と、
 前記プリント基板の前記被検査領域に対し二次元計測用の光を照射する二次元計測用照射手段とを備え、
 前記画像データ取得手段は、前記三次元計測用の光が照射された前記被検査領域に係る画像データである三次元画像データと、前記二次元計測用の光が照射された前記被検査領域に係る画像データである二次元画像データとを取得可能であり、
 前記比較手段は、前記三次元画像データ及び前記識別手段により該三次元画像データを元にして再構成された再構成三次元画像データを比較可能であるとともに、前記二次元画像データ及び前記識別手段により該二次元画像データを元にして再構成された再構成二次元画像データを比較可能であり、
 前記三次元画像データに係る比較結果と、前記二次元画像データに係る比較結果とに基づき、前記プリント基板における異物の有無を判定可能に構成されていることを特徴とする手段1又は2に記載の基板異物検査装置。
 尚、「三次元計測用の光」は、例えば、縞状の光強度分布を有するパターン光などをいい、「二次元計測用の光」は、例えば均一光などをいう。
 上記手段3によれば、三次元画像データ及び二次元画像データの双方を用いて、プリント基板における異物の有無を判定することができる。従って、異物の検出を一層精度よく行うことができる。
 手段4.クリーム半田の印刷されたプリント基板における異物の有無を検査するための基板異物検査方法であって、
 クリーム半田の印刷部分を含む前記プリント基板における所定の被検査領域の画像データを取得する画像データ取得工程と、
 入力される画像データから特徴量を抽出する符号化部、及び、該特徴量から画像データを再構成する復号化部を有するニューラルネットワークに対し、異物のない前記プリント基板における前記被検査領域に係る画像データのみを学習データとして学習させて生成した識別手段を用い、前記画像データ取得工程により得られた画像データを元画像データとして前記識別手段に入力して再構成された画像データを再構成画像データとして取得する再構成画像データ取得工程と、
 前記元画像データ及び前記再構成画像データを比較する比較工程とを含み、
 前記比較工程による比較結果に基づき、前記プリント基板における異物の有無を判定することを特徴とする基板異物検査方法。
 上記手段4によれば、上記手段1と同様の作用効果が奏される。
 手段5.異物のない前記プリント基板における前記被検査領域に係る画像データをベース画像データとし、該ベース画像データのうちのクリーム半田に係る領域の画像をベース半田領域画像とし、該ベース半田領域画像に対応する、異物のないクリーム半田に係る領域の画像を良品半田領域画像としたとき、
 予め取得した複数種類の前記良品半田領域画像を用い、前記ベース画像データにおける前記ベース半田領域画像の少なくとも一部を、それぞれ異なる種類の前記良品半田領域画像に置き換えることで、複数種類の仮想良品画像データを取得する学習データ生成工程を備え、
 前記学習データとして、前記学習データ生成工程により得られた前記仮想良品画像データを用いることを特徴とする手段4に記載の基板異物検査方法。
 上記手段5によれば、上記手段2と同様の作用効果が奏される。
 手段6.前記プリント基板の前記被検査領域に対し三次元計測用の光を照射する三次元計測用照射工程と、
 前記プリント基板の前記被検査領域に対し二次元計測用の光を照射する二次元計測用照射工程とを備え、
 前記画像データ取得工程は、前記三次元計測用の光が照射された前記被検査領域に係る画像データである三次元画像データを取得する工程と、前記二次元計測用の光が照射された前記被検査領域に係る画像データである二次元画像データを取得する工程とを含み、
 前記比較工程は、前記三次元画像データ及び前記識別手段により該三次元画像データを元にして再構成された再構成三次元画像データを比較する工程と、前記二次元画像データ及び前記識別手段により該二次元画像データを元にして再構成された再構成二次元画像データを比較する工程とを含み、
 前記三次元画像データに係る比較結果と、前記二次元画像データに係る比較結果とに基づき、前記プリント基板における異物の有無を判定することを特徴とする手段4又は5に記載の基板異物検査方法。
 上記手段6によれば、上記手段3と同様の作用効果が奏される。
プリント基板の一部を拡大した部分拡大平面図である。 プリント基板の製造ラインの構成を示すブロック図である。 半田印刷後検査装置を模式的に示す概略構成図である。 半田印刷後検査装置の機能構成を示すブロック図である。 ニューラルネットワークの構造を説明するための模式図である。 ニューラルネットワークの学習処理の流れを示すフローチャートである。 検査処理の流れを示すフローチャートである。 異物のあるプリント基板に係る画像データの一例を示す図である。 AIモデルによって再構成された画像データの一例を示す図である。 ベース画像データの一例を示す図である。 良品半田領域画像の一例を示す図である。 仮想良品画像データの一例を示す図である。 良品半田領域画像の別例を示す図である。
 以下、一実施形態について図面を参照しつつ説明する。まず検査対象となるプリント基板の構成について説明する。図1は、プリント基板の一部を拡大した部分拡大平面図である。
 図1に示すように、プリント基板1は、ガラスエポキシ樹脂等からなる平板状のベース基板2の表面に、銅箔からなる配線パターン(図示略)や複数のランド3が形成されたものである。また、ベース基板2の表面には、ランド3を除く部分にレジスト膜4がコーティングされている。そして、ランド3上には、半田粒をフラックスで練ってなるクリーム半田5が印刷されている。尚、図1等では、便宜上、クリーム半田5を示す部分に散点模様を付している。
 次に、プリント基板1を製造する製造ライン(製造工程)について図2を参照して説明する。図2は、プリント基板1の製造ライン10の構成を示すブロック図である。図2に示すように、製造ライン10には、その上流側(図2上側)から順に、半田印刷機12、半田印刷後検査装置13、部品実装機14、リフロー装置15、及び、リフロー後検査装置16が設置されている。プリント基板1は、これら装置に対しこの順序で搬送されるように設定されている。本実施形態においては、半田印刷後検査装置13が「基板異物検査装置」を構成する。
 半田印刷機12は、プリント基板1の各ランド3上にクリーム半田5を印刷する半田印刷工程を行う。例えば、スクリーン印刷によりクリーム半田5の印刷が行われる。スクリーン印刷では、まずスクリーンマスクの下面をプリント基板1に接触させた状態で、該スクリーンマスク上面にクリーム半田5を供給する。前記スクリーンマスクには、プリント基板1の各ランド3に対応する複数の開口部が形成されている。次いで、前記スクリーンマスクの上面に所定のスキージを接触させつつ移動させることにより、前記開口部内にクリーム半田5を充填する。その後、プリント基板1を前記スクリーンマスクの下面から離間させることにより、プリント基板1の各ランド3にクリーム半田5が印刷される。
 半田印刷後検査装置13は、ランド3上に印刷されたクリーム半田5の状態や、クリーム半田5の印刷されたプリント基板1における異物の有無を検査する半田印刷後検査工程を行う。半田印刷後検査装置13の詳細については後述する。
 部品実装機14は、クリーム半田5が印刷されたランド3上に電子部品25(図1参照)を搭載する部品実装工程(マウント工程)を行う。電子部品25は、複数の電極(不図示)を備えており、該電極がそれぞれ所定のクリーム半田5に対し仮止めされる。
 リフロー装置15は、クリーム半田5を加熱溶融させて、ランド3と、電子部品25の前記電極とを半田接合(半田付け)するリフロー工程を行う。
 リフロー後検査装置16は、リフロー工程において半田接合が適切に行われたか否か等について検査するリフロー後検査工程を行う。例えば輝度画像データ等を用いて電子部品25における位置ずれの有無などを検査する。
 つまり、製造ライン10では、プリント基板1が順次搬送されつつ、半田印刷工程→半田印刷後検査工程→部品実装工程(マウント工程)→リフロー工程→リフロー後検査工程が行われるようになっている。
 この他、図示は省略するが、製造ライン10は、半田印刷機12と半田印刷後検査装置13との間などの上記各装置間に、プリント基板1を移送するためのコンベア等を備えている。また、半田印刷後検査装置13と部品実装機14との間やリフロー後検査装置16の下流側には分岐装置が設けられている。そして、半田印刷後検査装置13やリフロー後検査装置16にて良品判定されたプリント基板1は、そのまま下流側へ案内される一方、不良品判定されたプリント基板1は分岐装置により不良品貯留部へと排出されるようになっている。
 ここで、半田印刷後検査装置13の構成について図3,4を参照して詳しく説明する。図3は、半田印刷後検査装置13を模式的に示す概略構成図である。図4は、半田印刷後検査装置13の機能構成を示すブロック図である。
 半田印刷後検査装置13は、プリント基板1の搬送や位置決め等を行う搬送機構31と、プリント基板1の検査を行うための検査ユニット32と、搬送機構31や検査ユニット32の駆動制御をはじめ、半田印刷後検査装置13における各種制御や画像処理、演算処理を実行する制御装置33(図4参照)とを備えている。
 搬送機構31は、プリント基板1の搬入出方向に沿って配置された一対の搬送レール31aと、各搬送レール31aに対し回転可能に配設された無端のコンベアベルト31bとを備えている。また、図示は省略するが、搬送機構31には、前記コンベアベルト31bを駆動するモータ等の駆動手段と、プリント基板1を所定位置に位置決めするためのチャック機構とが設けられている。搬送機構31は、制御装置33(後述する搬送機構制御部79)により駆動制御される。
 上記構成の下、半田印刷後検査装置13へ搬入されたプリント基板1は、搬入出方向と直交する幅方向の両側縁部がそれぞれ搬送レール31aに挿し込まれるとともに、コンベアベルト31b上に載置される。続いて、コンベアベルト31bが動作を開始し、プリント基板1が所定の検査位置まで搬送される。プリント基板1が検査位置に達すると、コンベアベルト31bが停止するとともに、前記チャック機構が作動する。このチャック機構の動作により、コンベアベルト31bが押し上げられ、コンベアベルト31bと搬送レール31aの上辺部によってプリント基板1の両側縁部が挟持された状態となる。これにより、プリント基板1が検査位置に位置決め固定される。検査が終了すると、チャック機構による固定が解除されるとともに、コンベアベルト31bが動作を開始する。これにより、プリント基板1は、半田印刷後検査装置13から搬出される。勿論、搬送機構31の構成は、上記形態に限定されるものではなく、他の構成を採用してもよい。
 検査ユニット32は、搬送レール31a(プリント基板1の搬送路)の上方に配設されている。検査ユニット32は、第一照明装置32A、第二照明装置32B、第三照明装置32C及びカメラ32Dを備えている。また、検査ユニット32は、X軸方向(図3左右方向)への移動を可能とするX軸移動機構32E(図4参照)、及び、Y軸方向(図3前後方向)への移動を可能とするY軸移動機構32F(図4参照)をも備えている。検査ユニット32は、制御装置33(後述する移動機構制御部76)により駆動制御される。本実施形態では、第一照明装置32A及び第二照明装置32Bが「三次元計測用照射手段」を構成し、第三照明装置32Cが「二次元計測用照射手段」を構成し、カメラ32Dが「画像データ取得手段」を構成する。
 第一照明装置32A及び第二照明装置32Bは、プリント基板1の三次元計測を行うにあたり、それぞれプリント基板1における所定の被検査領域に対し斜め上方から三次元計測用の所定の光(縞状の光強度分布を有するパターン光)を照射する。
 具体的に、第一照明装置32Aは、所定の光を発する第一光源32Aaや、該第一光源32Aaからの光を縞状の光強度分布を有する第一パターン光に変換する第一格子を形成する第一液晶シャッタ32Abを備え、制御装置33(後述する照明制御部72)により駆動制御される。
 第二照明装置32Bは、所定の光を発する第二光源32Baや、該第二光源32Baからの光を縞状の光強度分布を有する第二パターン光に変換する第二格子を形成する第二液晶シャッタ32Bbを備え、制御装置33(後述する照明制御部72)により駆動制御される。
 上記構成の下、各光源32Aa,32Baから発せられた光はそれぞれ集光レンズ(図示略)に導かれ、そこで平行光にされた後、液晶シャッタ32Ab,32Bbを介して投影レンズ(図示略)に導かれ、プリント基板1に対しパターン光として投影されることとなる。また、本実施形態では、各パターン光の位相がそれぞれ4分の1ピッチずつシフトするように、液晶シャッタ32Ab,32Bbの切替制御が行われる。
 尚、格子として液晶シャッタ32Ab,32Bbを使用することにより、理想的な正弦波に近いパターン光を照射することができる。これにより、三次元計測の計測分解能が向上する。また、パターン光の位相シフト制御を電気的に行うことができ、装置のコンパクト化を図ることができる。
 第三照明装置32Cは、プリント基板1の二次元計測を行うにあたり、プリント基板1における所定の被検査領域に対し二次元計測用の所定の光(例えば均一光)を照射するように構成されている。
 具田的に、第三照明装置32Cは、青色光を照射可能なリングライト、緑色光を照射可能なリングライト、及び、赤色光を照射可能なリングライトを具備している。尚、第三照明装置32Cは、公知技術と同様の構成であるため、その詳細な説明については省略する。
 カメラ32Dは、プリント基板1の所定の被検査領域を真上から撮像する。カメラ32Dは、CCD(Charge Coupled Device)型イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)型イメージセンサ等の撮像素子と、該撮像素子に対しプリント基板1の像を結像させる光学系(レンズユニットや絞りなど)とを有しており、その光軸が上下方向(Z軸方向)に沿うように配置されている。勿論、撮像素子は、これらに限定されるものではなく、他の撮像素子を採用してもよい。
 カメラ32Dは、制御装置33(後述するカメラ制御部73)により駆動制御される。より詳しくは、制御装置33は、各照明装置32A,32B,32Cによる照射処理と同期をとりながら、カメラ32Dによる撮像処理を実行する。これにより、照明装置32A,32B,32Cのいずれかから照射された光のうち、プリント基板1にて反射した光が、カメラ32Dによって撮像される。その結果、クリーム半田5の印刷部分を含むプリント基板1の被検査領域の画像データが取得されることとなる。尚、プリント基板1の「被検査領域」は、カメラ32Dの撮像視野(撮像範囲)の大きさを1単位としてプリント基板1に予め設定された複数のエリアのうちの1つのエリアである。
 また、本実施形態におけるカメラ32Dは、カラーカメラで構成されている。これにより、第三照明装置32Cの各色リングライトから同時に照射され、プリント基板1に反射した各色の光を一度に撮像することができる。
 カメラ32Dによって撮像され生成された画像データは、該カメラ32Dの内部においてデジタル信号に変換された上で、デジタル信号の形で制御装置33(後述の画像取得部74)に転送され記憶される。そして、制御装置33は、該画像データを基に、後述する各種画像処理や演算処理等を実施する。
 制御装置33は、所定の演算処理を実行するCPU(Central Processing Unit)、各種プログラムや固定値データ等を記憶するROM(Read Only Memory)、各種演算処理の実行に際して各種データが一時的に記憶されるRAM(Random Access Memory)及びこれらの周辺回路等を含んだコンピュータからなる。
 そして、制御装置33は、CPUが各種プログラムに従って動作することで、後述するメイン制御部71、照明制御部72、カメラ制御部73、画像取得部74、データ処理部75、移動機構制御部76、学習部77、検査部78、搬送機構制御部79などの各種機能部として機能する。
 但し、上記各種機能部は、上記CPU、ROM、RAMなどの各種ハードウェアが協働することで実現されるものであり、ハード的又はソフト的に実現される機能を明確に区別する必要はなく、これらの機能の一部又は全てがICなどのハードウェア回路により実現されてもよい。
 さらに、制御装置33には、キーボードやマウス、タッチパネル等で構成される入力部55、液晶ディスプレイ等で構成される、表示画面を備えた表示部56、各種データやプログラム、演算結果、検査結果等を記憶可能な記憶部57、外部と各種データを送受信可能な通信部58などが設けられている。
 ここで、制御装置33を構成する上記各種機能部について詳しく説明する。
 メイン制御部71は、半田印刷後検査装置13全体の制御を司る機能部であり、照明制御部72やカメラ制御部73など他の機能部と各種信号を送受信可能に構成されている。
 照明制御部72は、照明装置32A,32B,32Cを駆動制御する機能部であり、メイン制御部71からの指令信号に基づき、照射光の切換制御などを行う。
 カメラ制御部73は、カメラ32Dを駆動制御する機能部であり、メイン制御部71からの指令信号に基づき撮像タイミングなどを制御する。
 画像取得部74は、カメラ32Dにより撮像され取得された画像データを取り込むための機能部である。
 データ処理部75は、画像取得部74により取り込まれた画像データに所定の画像処理を施したり、該画像データを用いて二次元計測処理や三次元計測処理などを行ったりする機能部である。
 移動機構制御部76は、X軸移動機構32E及びY軸移動機構32Fを駆動制御する機能部であり、メイン制御部71からの指令信号に基づき、検査ユニット32の位置を制御する。移動機構制御部76は、X軸移動機構32E及びY軸移動機構32Fを駆動制御することにより、検査ユニット32を、検査位置に位置決め固定されたプリント基板1の任意の被検査領域の上方位置へ移動させることができる。そして、プリント基板1に設定された複数の被検査領域に検査ユニット32が順次移動されつつ、該被検査領域に係る検査が実行されていくことで、プリント基板1全域の検査が実行される。
 学習部77は、学習データを用いてディープニューラルネットワーク90(以下、単に「ニューラルネットワーク90」という。図5参照。)の学習を行い、識別手段としてのAI(Artificial Intelligence)モデル100を構築する機能部である。
 尚、本実施形態におけるAIモデル100は、後述するように、異物のない良品のプリント基板1の被検査領域に係る画像データのみを学習データとして、ニューラルネットワーク90を深層学習(ディープラーニング)させて構築した生成モデルであり、いわゆるオートエンコーダ(自己符号化器)の構造を有する。
 ここで、ニューラルネットワーク90の構造について図5を参照して説明する。図5は、ニューラルネットワーク90の構造を概念的に示した模式図である。図5に示すように、ニューラルネットワーク90は、入力される画像データGAから特徴量(潜在変数)TAを抽出する符号化部としてのエンコーダ部91と、該特徴量TAから画像データGBを再構成する復号化部としてのデコーダ部92と有してなる畳み込みオートエンコーダ(CAE:Convolutional Auto-Encoder)の構造を有している。
 畳み込みオートエンコーダの構造は公知のものであるため、詳しい説明は省略するが、エンコーダ部91は複数の畳み込み層(Convolution Layer)93を有し、各畳み込み層93では、入力データに対し複数のフィルタ(カーネル)94を用いた畳み込み演算が行われた結果が次層の入力データとして出力される。同様に、デコーダ部92は複数の逆畳み込み層(Deconvolution Layer)95を有し、各逆畳み込み層95では、入力データに対し複数のフィルタ(カーネル)96を用いた逆畳み込み演算が行われた結果が次層の入力データとして出力される。そして、後述する学習処理では、各フィルタ94,96の重み(パラメータ)が更新されることとなる。
 検査部78は、クリーム半田5の印刷されたプリント基板1に対する検査を行う機能部である。例えば本実施形態では、プリント基板1に異物が付着しているか否か、クリーム半田5が適切に印刷されているか否か等についての検査を行う。
 搬送機構制御部79は、搬送機構31を駆動制御する機能部であり、メイン制御部71からの指令信号に基づき、プリント基板1の位置を制御する。
 記憶部57は、HDD(Hard Disk Drive)やSSD(Solid State Drive)等で構成され、例えばAIモデル100(ニューラルネットワーク90及びその学習により獲得した学習情報)を記憶する所定の記憶領域を有している。
 通信部58は、例えば有線LAN(Local Area Network)や無線LAN等の通信規格に準じた無線通信インターフェースなどを備え、外部と各種データを送受信可能に構成されている。例えば検査部78により行われた検査の結果などが通信部58を介して外部に出力されたり、リフロー後検査装置16により行われた検査の結果が通信部58を介して入力されたりする。
 次に、半田印刷後検査装置13によって行われるニューラルネットワーク90の学習処理について図6のフローチャートを参照して説明する。
 所定の学習プログラムの実行に基づき、学習処理が開始されると、メイン制御部71は、はじめにステップS101において、ニューラルネットワーク90の学習を行うための前処理を行う。
 この前処理では、まず通信部58を介してリフロー後検査装置16に蓄積された多数のプリント基板1の検査情報を取得する。続いて、該検査情報に基づき、記憶部57から、リフロー後検査に合格した異物のない良品のプリント基板1に係る画像データを取得する。この画像データは、ニューラルネットワーク90の学習を行うための学習データとして使用される。また、この画像データには、第一照明装置32A又は第二照明装置32Bからパターン光を照射した状態で、カメラ32Dによりプリント基板1を撮像して得た画像データである三次元画像データと、第三照明装置32Cから均一光を照射した状態で、カメラ32Dによりプリント基板1を撮像して得た画像データである二次元画像データとが含まれる。かかる処理は、学習データとして必要な数の画像データが取得されるまで行われる。
 尚、リフロー後検査装置16から検査情報を取得するプリント基板1は、検査対象となるプリント基板1と同一構成のものであることが好ましい。但し、プリント基板1の厚さや材質、大きさや配置レイアウト等の同一性は必要なく、多様な種類の学習データを基に学習した方が汎用性の面においては好ましい。
 ステップS101において学習に必要な数の画像データが取得されると、続くステップS102において、メイン制御部71からの指令に基づき、学習部77が、未学習のニューラルネットワーク90を準備する。例えば予め記憶部57等に格納されているニューラルネットワーク90を読み出す。又は、記憶部57等に格納されているネットワーク構成情報(例えばニューラルネットワークの層数や各層のノード数など)に基づいて、ニューラルネットワーク90を構築する。本実施形態では、ニューラルネットワーク90として、二次元画像データを用いた学習を行うためのもの(二次元用ニューラルネットワーク)と、三次元画像データを用いた学習を行うためのもの(三次元用ニューラルネットワーク)とを別々に構築する。
 ステップS103では、再構成画像データを取得する。すなわち、メイン制御部71からの指令に基づき、学習部77が、ステップS102において取得された画像データを入力データとして、ニューラルネットワーク90の入力層に与え、これにより該ニューラルネットワーク90の出力層から出力される再構成画像データを取得する。より詳しくは、二次元用ニューラルネットワークの学習に際しては、学習部77が、ステップS102において取得された二次元画像データを入力データとして、ニューラルネットワーク90(二次元用ニューラルネットワーク)の入力層に与え、これにより該ニューラルネットワーク90の出力層から出力される再構成二次元画像データを取得する。また、三次元用ニューラルネットワークの学習に際しては、学習部77が、ステップS102において取得された三次元画像データを入力データとして、ニューラルネットワーク90(三次元用ニューラルネットワーク)の入力層に与え、これにより該ニューラルネットワーク90の出力層から出力される再構成三次元画像データを取得する。
 続くステップS104では、学習部77が、入力した画像データと、ニューラルネットワーク90により出力された再構成画像データとを比較し、その誤差が十分に小さいか否か(所定の閾値以下であるか否か)を判定する。例えば二次元用ニューラルネットワークの学習に際しては、二次元画像データと再構成二次元画像データとが比較される。
 ここで、前記誤差が十分に小さい場合には、ステップS106にて、学習部77は、学習の終了条件を満たすか否かを判定する。例えば、後述するステップS105の処理を経ることなくステップS104にて肯定判定されることが所定回数連続で行われた場合や、用意した画像データの全てを用いた学習が所定回数反復して行われた場合には、終了条件を満たすと判定される。終了条件を満たす場合には、ニューラルネットワーク90及びその学習情報(後述する更新後のパラメータ等)をAIモデル100として記憶部57に格納し、本学習処理を終了する。本実施形態では、最終的に、AIモデルとして、二次元画像データに対応するもの(二次元用AIモデル)と、三次元画像データに対応するもの(三次元用AIモデル)とが格納される。
 一方、ステップS106にて終了条件を満たさない場合には、ステップS102に戻り、ニューラルネットワーク90の学習を再度行う。
 また、ステップS104にて、前記誤差が十分に小さくない場合には、ステップS105においてネットワーク更新処理(ニューラルネットワーク90の学習)を行った後、再びステップS103へ戻り、上記一連の処理を繰り返す。
 具体的に、ステップS105のネットワーク更新処理では、例えば誤差逆伝播法(Backpropagation)などの公知の学習アルゴリズムを用いて、学習用の画像データと再構成画像データとの差分を表す損失関数が極力小さくなるように、ニューラルネットワーク90における上記各フィルタ94,96の重み(パラメータ)をより適切なものに更新する。尚、損失関数としては、例えばBCE(Binary Cross-entropy)などを利用することができる。
 ステップS103~105の処理を何度も繰り返すことにより、ニューラルネットワーク90では、学習用の画像データと再構成画像データとの誤差が極力小さくなり、より正確な再構成画像データが出力されるようになる。
 そして、最終的に得られるAIモデル100は、異物のないプリント基板1に係る画像データが入力されたときに、該画像データとほぼ一致する再構成画像データを生成するものとなる。また、AIモデル100は、異物のあるプリント基板1に係る画像データが入力されたときには、ノイズ部分(異物に相当する部分)を除去した該画像データとほぼ一致する再構成画像データを生成するものとなる。すなわち、プリント基板1に異物があるときには、該プリント基板1に係る再構成画像データとして、異物がないものと仮定した場合の該プリント基板1に係る仮想的な画像データが生成される。
 次に、半田印刷後検査装置13によって行われる検査処理について図7のフローチャートを参照して説明する。但し、図7に示す検査処理は、プリント基板1における被検査領域毎に実行される処理である。
 半田印刷後検査装置13へプリント基板1が搬入され、所定の検査位置に位置決めされると、所定の検査プログラムの実行に基づき、検査処理が開始される。
 検査処理が開始されると、まずステップS301において、画像データ取得工程が行われる。画像データ取得工程は、三次元画像データを取得する工程と、二次元画像データを取得する工程とを含む。
 画像データ取得工程では、まず、三次元画像データの取得工程を実行する。本実施形態では、プリント基板1の各被検査領域に係る検査において、第一照明装置32Aから照射される第一パターン光の位相を変化させつつ、位相の異なる第一パターン光の下で4回の撮像処理を行った後、第二照明装置32Bから照射される第二パターン光の位相を変化させつつ、位相の異なる第二パターン光の下で4回の撮像処理を行い、計8通りの三次元画像データを取得する。以下、詳しく説明する。
 上述したように、半田印刷後検査装置13へ搬入されたプリント基板1が所定の検査位置に位置決め固定されると、メイン制御部71からの指令に基づき、移動機構制御部76が、まずX軸移動機構32E及びY軸移動機構32Fを駆動制御して検査ユニット32を移動させ、カメラ32Dの撮像視野(撮像範囲)をプリント基板1の所定の被検査領域に合わせる。
 併せて、照明制御部72が、両照明装置32A,32Bの液晶シャッタ32Ab,32Bbを切替制御し、該両液晶シャッタ32Ab,32Bbに形成される第一格子及び第二格子の位置を所定の基準位置に設定する。
 第一格子及び第二格子の切替設定が完了すると、照明制御部72が、第一照明装置32Aの第一光源32Aaを発光させ、第一パターン光を照射するとともに、カメラ制御部73が、カメラ32Dを駆動制御して、該第一パターン光の下での1回目の撮像処理を実行する。尚、撮像処理により生成された画像データは、随時、画像取得部74に取り込まれる(以下同様)。これにより、複数のランド3(クリーム半田5)を含んだ被検査領域の三次元画像データが取得される。
 その後、照明制御部72は、第一パターン光の下での1回目の撮像処理の終了と同時に、第一照明装置32Aの第一光源32Aaを消灯するとともに、第一液晶シャッタ32Abの切替処理を実行する。具体的には、第一液晶シャッタ32Abに形成される第一格子の位置を前記基準位置から、第一パターン光の位相が4分の1ピッチ(90°)ずれる第二の位置へ切替設定する。
 第一格子の切替設定が完了すると、照明制御部72が、第一照明装置32Aの光源32Aaを発光させ、第一パターン光を照射するとともに、カメラ制御部73が、カメラ32Dを駆動制御して、該第一パターン光の下での2回目の撮像処理を実行する。以後、同様の処理を繰り返し行うことで、90°ずつ位相の異なる第一パターン光の下での4通りの三次元画像データを取得する。
 続いて、照明制御部72が、第二照明装置32Bの第二光源32Baを発光させ、第二パターン光を照射するとともに、カメラ制御部73が、カメラ32Dを駆動制御して、該第二パターン光の下での1回目の撮像処理を実行する。
 その後、照明制御部72が、第二パターン光の下での1回目の撮像処理の終了と同時に、第二照明装置32Bの第二光源32Baを消灯するとともに、第二液晶シャッタ32Bbの切替処理を実行する。具体的には、第二液晶シャッタ32Bbに形成される第二格子の位置を前記基準位置から、第二パターン光の位相が4分の1ピッチ(90°)ずれる第二の位置へ切替設定する。
 第二格子の切替設定が完了すると、照明制御部72が、第二照明装置32Bの光源32Baを発光させ、第二パターン光を照射するとともに、カメラ制御部73が、カメラ32Dを駆動制御して、該第二パターン光の下での2回目の撮像処理を実行する。以後、同様の処理を繰り返し行うことで、90°ずつ位相の異なる第二パターン光の下での4通りの三次元画像データを取得する。本実施形態では、三次元画像データを取得する際に、第一照明装置32A又は第二照明装置32Bからプリント基板1の被検査領域にパターン光を照射する工程が「三次元計測用照射工程」に相当する。
 次いで、二次元画像データの取得工程を実行する。本実施形態では、メイン制御部71からの指令に基づき、プリント基板1の各被検査領域に係る検査において、照明制御部72が第三照明装置32Cを発光させ、所定の被検査領域に対し均一光を照射しつつ、カメラ制御部73がカメラ32Dを駆動制御して、該均一光の下での撮像処理を実行する。これにより、プリント基板1上の所定の被検査領域が撮像され、該被検査領域に係る二次元画像データが取得される。本実施形態では、二次元画像データを取得する際に、第三照明装置32Cからプリント基板1の被検査領域に均一光を照射する工程が「二次元計測用照射工程」に相当する。尚、取得された三次元画像データ及び二次元画像データは、それぞれ番号付けされて記憶部57に記憶される。
 次のステップS302では、三次元計測データ取得処理を実行する。具体的には、メイン制御部71からの指令に基づき、データ処理部75が、上記ステップS301において各パターン光の下で得られた複数の三次元画像データを基に公知の位相シフト法により、複数のクリーム半田5を含んだ所定の被検査領域の三次元形状計測を行い、かかる計測結果(三次元計測データ)を記憶部57に記憶する。尚、本実施形態では、2方向からパターン光を照射して三次元形状計測を行っているため、パターン光が照射されない影の部分が生じることを防止できる。
 次のステップS303では、二次元計測データ取得処理を実行する。具体的には、メイン制御部71からの指令に基づき、データ処理部75が、上記ステップS302において均一光の下で得られた二次元画像データを基に、複数のクリーム半田5を含んだ所定の被検査領域の二次元形状計測を行い、かかる計測結果(二次元計測データ)を記憶部57に記憶する。
 ステップS304では、再構成画像データ取得工程を実行する。具体的には、メイン制御部71からの指令に基づき、検査部78が、ステップS301にて取得した所定番号(例えば001番)の三次元画像データ(元画像データ)を、三次元画像データに対応するAIモデル100(三次元用AIモデル)の入力層へ入力する。そして、該AIモデル100によって再構成されて出力層から出力される画像データを前記所定番号(例えば001番)の再構成三次元画像データとして取得する。また、取得した再構成三次元画像データを同一番号の三次元画像データ(元画像データ)と関連付けて記憶する。
 また、ステップS301にて取得された二次元画像データについても上記同様の処理が行われる。すなわち、検査部78が、ステップS301にて取得した所定番号の二次元画像データ(元画像データ)を、二次元画像データに対応するAIモデル100(二次元用AIモデル)の入力層に入力する。そして、該AIモデル100によって再構成されて出力層から出力される画像データを前記所定番号の再構成二次元画像データとして取得する。また、取得した再構成二次元画像データを同一番号の二次元画像データ(元画像データ)と関連付けて記憶する。本実施形態では、再構成三次元画像データ及び再構成二次元画像データの取得処理を行う検査部78が「再構成画像データ取得手段」を構成する。
 ここで、AIモデル100は、異物のないプリント基板1に係る画像データを入力した場合は勿論のこと、図8に示すような異物Mのあるプリント基板1に係る画像データを入力した場合であっても、上記のように学習したことにより、再構成画像データとして、図9に類似するような異物のない画像データを出力することとなる。
 ステップS305では、取得した画像データに基づく良否判定処理を行う。本実施形態では、クリーム半田5に係る所定の三次元情報について良否判定を行う三次元良否判定処理と、クリーム半田5に係る所定の二次元情報について良否判定を行う二次元良否判定処理と、プリント基板1に対する異物の有無について良否判定を行う異物有無判定処理とを実行する。
 三次元良否判定処理では、上記ステップS302の三次元計測データ取得処理で取得された三次元計測データを基に、クリーム半田5に係る所定の三次元情報について良否判定を行う。
 具体的に、検査部78は、メイン制御部71からの指令に基づき、まず上記ステップS302で取得された三次元計測データを基にクリーム半田5の「体積」及び「高さ」を算出する。そして、これらクリーム半田5の「体積」及び「高さ」をそれぞれ予め記憶部57に記憶されている基準データと比較し、クリーム半田5の「体積」及び「高さ」がそれぞれ基準範囲内にあるか否か判定する。尚、これら検査項目(三次元情報)の良否判定処理については、公知の方法により実行可能であるため、詳細な説明は省略する。
 二次元良否判定処理では、上記ステップS303の二次元計測データ取得処理で取得された二次元計測データを基に、クリーム半田5に係る所定の二次元情報について良否判定を行う。
 具体的に、検査部78は、メイン制御部71からの指令に基づき、まず上記ステップS303で取得された二次元計測データを基に、クリーム半田5の「面積」及び「位置ズレ量」を算出するとともに、クリーム半田5の「二次元形状」及び複数のランド3間に跨る「半田ブリッジ」の抽出を行う。
 そして、クリーム半田5の「面積」及び「位置ズレ」、並びに、「二次元形状」及び「半田ブリッジ」をそれぞれ予め記憶部57に記憶されている基準データと比較し、これらがそれぞれ基準範囲内にあるか否か判定する。尚、これら検査項目(二次元情報)の良否判定処理については、公知の方法により実行可能であるため、詳細な説明は省略する。
 異物有無判定処理では、メイン制御部71からの指令に基づき、検査部78が、上記ステップS304で取得したそれぞれ同一番号の三次元画像データ(元画像データ)及び再構成三次元画像データを比較して、両画像データの差分を算出する。例えば、両画像データにおける同一座標のドットをそれぞれ比較して、輝度の差が所定値以上となったドットの塊の面積(ドット数)を算出する。
 また、検査部78は、ステップS304で取得したそれぞれ同一番号の二次元画像データ(元画像データ)及び再構成二次元画像データを比較することで、両画像データの差分を算出する。本実施形態では、元画像データ及び再構成画像データを比較する検査部78が「比較手段」を構成する。また、元画像データ及び再構成画像データを比較する工程が「比較工程」に相当する。
 続いて、検査部78は、三次元画像データに係る比較結果と、二次元画像データに係る比較結果とに基づき、プリント基板1における異物の有無を判定する。具体的には、検査部78は、算出した各差分が所定の閾値よりも大きいか否かを判定する。そして、各差分のうちの少なくとも一方が所定の閾値よりも大きい場合には、「異物あり」と判定する。一方、各差分がそれぞれ所定の閾値よりも小さい場合には、「異物なし」と判定する。
 さらに、検査部78は、「三次元良否判定処理」、「二次元良否判定処理」及び「異物有無判定処理」のすべてにおいて「良」と判定した場合には、プリント基板1における検査対象の被検査領域について「良」と判定するとともに、この結果を記憶部57に記憶する。
 一方、「三次元良否判定処理」、「二次元良否判定処理」及び「異物有無判定処理」のいずれかにおいて「不良」と判定された場合には、検査対象の被検査領域について「不良」と判定するとともに、この結果を記憶部57に記憶する。
 そして、半田印刷後検査装置13は、プリント基板1における全ての被検査領域について上記検査処理が行われた結果、全被検査領域について「良」と判定された場合には、異常のないプリント基板1であると判定(合格判定)し、この結果を記憶部57に記憶する。
 一方、半田印刷後検査装置13は、「不良」と判定された被検査領域が1つでも存在する場合には、不良箇所のあるプリント基板1であると判定(不合格判定)し、この結果を記憶部57に記憶するとともに、表示部56や通信部58などを介して、その旨を外部に報知する。
 以上詳述したように、本実施形態によれば、元画像データである二次元画像データ及び三次元画像データと、これらデータをAIモデル100へ入力して再構成された再構成二次元画像データ及び再構成三次元画像データとを比較し、その比較結果に基づき、プリント基板1における異物の有無を判定している。そのため、比較する両画像データは、それぞれ同一のプリント基板1に係るものとなる。
 従って、マスター基板に係る基準イメージとの比較によって異物を検出する手法とは異なり、比較のためのマスター基板を用意する必要がない。そのため、検査対象のプリント基板1とマスター基板との同一性を保つことができないといった理由で、検査対象のプリント基板1が限られるといったことはない。これにより、異物検査をより簡便に行うことができる。
 また、比較する両画像データにおいて、プリント基板1の形状や外観(例えばクリーム半田5の形状や位置など)はそれぞれほぼ同一となるため、基準イメージとの比較によって異物を検出する手法とは異なり、誤検出を防止するために比較的緩い検査条件を設定する必要はなく、より厳しい検査条件を設定することができる。さらに、クリーム半田5の高さやその変化の状態が異物の検出に影響を及ぼすことはないから、クリーム半田5の側面よりもなだらかに変位する側面を有する異物や、クリーム半田5よりも低い異物を検出することが可能となる。さらに、比較する両画像データにおいて、検査対象であるプリント基板1の撮像条件(例えばプリント基板1の配置位置や配置角度、たわみ等)や、検査装置側の撮像条件(例えば照明状態やカメラ32Dの画角等)を一致させることができる。これらの作用効果が相俟って、異物の検出を非常に精度よく行うことができる。
 さらに、AIモデル100を利用して異物検査を行う構成となっているため、異物検査のためにプリント基板1上に存在する多数のランド3及びこれらに対しそれぞれ印刷されるクリーム半田5個々の印刷設定情報などを予め記憶しておく必要はなく、また、検査に際しそれを参照する必要もない。従って、検査効率の向上を図ることができる。
 さらに、本実施形態では、三次元画像データ及び二次元画像データの双方を用いて、プリント基板1における異物の有無を判定するため、異物の検出を一層精度よく行うことができる。
 尚、上記実施形態の記載内容に限定されず、例えば次のように実施してもよい。勿論、以下において例示しない他の応用例、変更例も当然可能である。
 (a)上記実施形態では、ニューラルネットワーク90の学習にあたって、リフロー後検査に合格した異物のない良品のプリント基板1に係る画像データが学習データとして用いられている。これに対し、例えばクリーム半田5の印刷後に作業者が目視により選別した、異物のないプリント基板1に係る画像データを学習データとして用いてもよい。
 また、学習部77が、仮想良品画像データを生成するとともに、この仮想良品画像データを用いて、ニューラルネットワーク90の学習を行うように構成してもよい。
 より詳しくは、図10に示すように、異物のないプリント基板1における被検査領域に係る画像データを、ベース画像データ200として予め複数取得しておく。ベース画像データ200は、例えば、半田印刷後検査装置13によって、検査時と同一の条件でプリント基板1を撮像することで取得することができる。尚、ベース画像データ200は、クリーム半田5の印刷されていないプリント基板1を撮像して得た画像であってもよいし、クリーム半田5の印刷されたプリント基板1を撮像して得た画像において、クリーム半田5部分を消去しつつ、消去部分がランド3となるように補完処理を行った画像であってもよい。
 ベース画像データ200には、クリーム半田5に係る領域の画像であるベース半田領域画像5a1,5a2,5a3が複数含まれている。本例において、ベース半田領域画像5a1,5a2,5a3は、それぞれクリーム半田5の印刷されるランド3に対応する。
 さらに、図11に示すように、ベース半田領域画像5a1,5a2,5a3に対応する、異物のないクリーム半田5に係る領域の画像である良品半田領域画像5g1,5g2,5g3を、それぞれ複数種類予め取得しておく。良品半田領域画像5g1,5g2,5g3は、クリーム半田5の画像であり、異なるサイズのベース半田領域画像5a1,5a2,5a3にそれぞれ対応する。本例において、良品半田領域画像5g1はベース半田領域画像5a1に対応し、良品半田領域画像5g2はベース半田領域画像5a2に対応し、良品半田領域画像5g3はベース半田領域画像5a3に対応する。良品半田領域画像5g1,5g2,5g3は、例えば、検査に合格した異物のない良品のプリント基板1に係る画像データ等から取得することができる。
 そして、学習部77は、例えば上述したステップS101の前処理において、ベース画像データ200及び良品半田領域画像5g1,5g2,5g2を用いて、図12に示すような仮想良品画像データを生成する。すなわち、学習部77は、ベース画像データ200におけるベース半田領域画像5a1,5a2,5a3の少なくとも一部(本例では、ベース半田領域画像5a1,5a3,5a3のうち、良品半田領域画像5g1,5g2,5g3と同一形状をなす一定範囲)を、良品半田領域画像5g1,5g2,5g3に置き換える処理を行うことで、仮想良品画像データ201を生成する。
 また、学習部77は、基準となるベース画像データ200や置き換えに用いる良品半田領域画像5g1,5g2,5g3を変更しつつ、上記処理を繰り返し行うことで、必要数の異なる種類の仮想良品画像データ201を生成する。そして、学習部77は、この生成された仮想良品画像データ201を学習データとして、ニューラルネットワーク90の学習を行う。本例では、学習部77が「学習データ生成手段」を構成し、仮想良品画像データ201を生成する工程が「学習データ生成工程」に相当する。
 上記のような学習に係る構成を採用することで、1のプリント基板1に係る1のベース画像データ200から、多数の異なる学習データ(仮想良品画像データ201)を生成することができる。従って、学習のために用意するプリント基板1の数は、必要数のベース画像データ200を得ることができる程度の数で足りることとなる。これにより、学習のために用意するプリント基板1の数を減らすことができ、その結果、コストの低減を効果的に図ることができる。
 尚、図13に示すように、良品半田領域画像5h1,5h2,5h3として、ランド3及び該ランド3に印刷されたクリーム半田5の双方を備えた画像を用いてもよい。この場合、ベース半田領域画像5a1,5a2,5a3の全体を、良品半田領域画像5h1,5h2,5h3に置き換えることで、仮想良品画像データを生成することができる。
 また、仮想良品画像データとして、二次元画像データに相当するものと三次元画像データに相当するものとを生成してもよい。また、次述の(b)のように構成する場合には、二次元画像データに相当するもの及び三次元画像データに相当するものの一方のみを生成してもよい。
 (b)上記実施形態では、二次元画像データ及び三次元画像データを用いて異物の有無に関する検査を行う構成とされているが、両画像データのうちの一方のみを用いて異物の有無に関する検査を行う構成としてもよい。
 (c)上記実施形態では、AIモデル100として、二次元画像データに対応するもの(二次元用AIモデル)と、三次元画像データに対応するもの(三次元AIモデル)とが設けられているが、二次元画像データ及び三次元画像データのそれぞれに対応する共通のAIモデルを設けることとしてもよい。
 (d)三次元計測方法や二次元計測方法など、クリーム半田5の計測方法は、上記実施形態に限定されるものではなく、他の構成を採用してもよい。例えば上記実施形態では、位相シフト法による三次元計測を行う上で、各パターン光の位相が90°ずつ異なる4通りの画像データを取得する構成となっているが、位相シフト回数及び位相シフト量は、これらに限定されるものではない。また、三次元計測法として位相シフト法を採用しているが、これに限らず、光切断法やモアレ法、合焦法、空間コード法等といった、他の三次元計測法を採用することとしてもよい。
 (e)上記実施形態では、検査処理において、「三次元良否判定処理」及び「二次元良否判定処理」が行われるように構成されているが、両処理のうちの一方又は双方を行わない構成としてもよい。
 (f)識別手段としてのAIモデル100(ニューラルネットワーク90)の構成及びその学習方法は、上記実施形態に限定されるものではない。例えば、ニューラルネットワーク90の学習処理や、再構成画像データ取得工程などを行う際に、必要に応じて各種データに対し正規化等の処理を行う構成としてもよい。また、ニューラルネットワーク90の構造は、図5に示したものに限定されず、例えば畳み込み層93の後にプーリング層を設けた構成としてもよい。勿論、ニューラルネットワーク90の層数や、各層のノード数、各ノードの接続構造などが異なる構成としてもよい。
 さらに、上記実施形態では、AIモデル100(ニューラルネットワーク90)が、畳み込みオートエンコーダ(CAE)の構造を有した生成モデルとなっているが、これに限らず、例えば変分自己符号化器(VAE:Variational Autoencoder)など、異なるタイプのオートエンコーダの構造を有した生成モデルとしてもよい。
 また、上記実施形態では、誤差逆伝播法によりニューラルネットワーク90を学習する構成となっているが、これに限らず、その他の種々の学習アルゴリズムを用いて学習する構成としてもよい。
 加えて、ニューラルネットワーク90は、いわゆるAIチップ等のAI処理専用回路によって構成されることとしてもよい。その場合、パラメータ等の学習情報のみが記憶部57に記憶され、これをAI処理専用回路が読み出して、ニューラルネットワーク90に設定することによって、AIモデル100が構成されるようにしてもよい。
 併せて、上記実施形態において、制御装置33は学習部77を備え、制御装置33内においてニューラルネットワーク90の学習を行う構成となっているが、これに限られるものではない。例えば、学習部77を省略して、ニューラルネットワーク90の学習を制御装置33の外部で行う構成とし、外部で学習を行ったAIモデル100(学習済みのニューラルネットワーク90)を記憶部57に記憶する構成としてもよい。勿論、上記(a)のように仮想良品画像データ201を用いた学習を行う場合には、制御装置33の外部で仮想良品画像データ201を生成してもよい。
 1…プリント基板、5…クリーム半田、5a1,5a2,5a3…ベース半田領域画像、5g1,5g2,5g3、5h1,5h2,5h3…良品半田領域画像、13…半田印刷後検査装置(基板異物検査装置)、32A…第一照明装置(三次元計測用照射手段)、32B…第二照明装置(三次元計測用照射手段)、32C…第三照明装置(二次元計測用照射手段)、32D…カメラ(画像データ取得手段)、33…制御装置、77…学習部(学習データ生成手段)、78…検査部(再構成画像データ取得手段、比較手段)、90…ニューラルネットワーク、91…エンコーダ部(符号化部)、92…デコーダ部(復号化部)、100…AIモデル(識別手段)、200…ベース画像データ、201…仮想良品画像データ。

Claims (6)

  1.  クリーム半田の印刷されたプリント基板における異物の有無を検査する基板異物検査装置であって、
     クリーム半田の印刷部分を含む前記プリント基板における所定の被検査領域の画像データを取得可能な画像データ取得手段と、
     入力される画像データから特徴量を抽出する符号化部、及び、該特徴量から画像データを再構成する復号化部を有するニューラルネットワークに対し、異物のない前記プリント基板における前記被検査領域に係る画像データのみを学習データとして学習させて生成した識別手段と、
     前記画像データ取得手段により得られた画像データを元画像データとして前記識別手段へ入力して再構成された画像データを再構成画像データとして取得可能な再構成画像データ取得手段と、
     前記元画像データ及び前記再構成画像データを比較可能な比較手段とを備え、
     前記比較手段による比較結果に基づき、前記プリント基板における異物の有無を判定可能に構成されていることを特徴とする基板異物検査装置。
  2.  異物のない前記プリント基板における前記被検査領域に係る画像データをベース画像データとし、該ベース画像データのうちのクリーム半田に係る領域の画像をベース半田領域画像とし、該ベース半田領域画像に対応する、異物のないクリーム半田に係る領域の画像を良品半田領域画像としたとき、
     予め取得した複数種類の前記良品半田領域画像を用い、前記ベース画像データにおける前記ベース半田領域画像の少なくとも一部を、それぞれ異なる種類の前記良品半田領域画像に置き換えることで、複数種類の仮想良品画像データを取得する学習データ生成手段を備え、
     前記学習データとして、前記学習データ生成手段により得られた前記仮想良品画像データを用いることを特徴とする請求項1に記載の基板異物検査装置。
  3.  前記プリント基板の前記被検査領域に対し三次元計測用の光を照射する三次元計測用照射手段と、
     前記プリント基板の前記被検査領域に対し二次元計測用の光を照射する二次元計測用照射手段とを備え、
     前記画像データ取得手段は、前記三次元計測用の光が照射された前記被検査領域に係る画像データである三次元画像データと、前記二次元計測用の光が照射された前記被検査領域に係る画像データである二次元画像データとを取得可能であり、
     前記比較手段は、前記三次元画像データ及び前記識別手段により該三次元画像データを元にして再構成された再構成三次元画像データを比較可能であるとともに、前記二次元画像データ及び前記識別手段により該二次元画像データを元にして再構成された再構成二次元画像データを比較可能であり、
     前記三次元画像データに係る比較結果と、前記二次元画像データに係る比較結果とに基づき、前記プリント基板における異物の有無を判定可能に構成されていることを特徴とする請求項1又は2に記載の基板異物検査装置。
  4.  クリーム半田の印刷されたプリント基板における異物の有無を検査するための基板異物検査方法であって、
     クリーム半田の印刷部分を含む前記プリント基板における所定の被検査領域の画像データを取得する画像データ取得工程と、
     入力される画像データから特徴量を抽出する符号化部、及び、該特徴量から画像データを再構成する復号化部を有するニューラルネットワークに対し、異物のない前記プリント基板における前記被検査領域に係る画像データのみを学習データとして学習させて生成した識別手段を用い、前記画像データ取得工程により得られた画像データを元画像データとして前記識別手段に入力して再構成された画像データを再構成画像データとして取得する再構成画像データ取得工程と、
     前記元画像データ及び前記再構成画像データを比較する比較工程とを含み、
     前記比較工程による比較結果に基づき、前記プリント基板における異物の有無を判定することを特徴とする基板異物検査方法。
  5.  異物のない前記プリント基板における前記被検査領域に係る画像データをベース画像データとし、該ベース画像データのうちのクリーム半田に係る領域の画像をベース半田領域画像とし、該ベース半田領域画像に対応する、異物のないクリーム半田に係る領域の画像を良品半田領域画像としたとき、
     予め取得した複数種類の前記良品半田領域画像を用い、前記ベース画像データにおける前記ベース半田領域画像の少なくとも一部を、それぞれ異なる種類の前記良品半田領域画像に置き換えることで、複数種類の仮想良品画像データを取得する学習データ生成工程を備え、
     前記学習データとして、前記学習データ生成工程により得られた前記仮想良品画像データを用いることを特徴とする請求項4に記載の基板異物検査方法。
  6.  前記プリント基板の前記被検査領域に対し三次元計測用の光を照射する三次元計測用照射工程と、
     前記プリント基板の前記被検査領域に対し二次元計測用の光を照射する二次元計測用照射工程とを備え、
     前記画像データ取得工程は、前記三次元計測用の光が照射された前記被検査領域に係る画像データである三次元画像データを取得する工程と、前記二次元計測用の光が照射された前記被検査領域に係る画像データである二次元画像データを取得する工程とを含み、
     前記比較工程は、前記三次元画像データ及び前記識別手段により該三次元画像データを元にして再構成された再構成三次元画像データを比較する工程と、前記二次元画像データ及び前記識別手段により該二次元画像データを元にして再構成された再構成二次元画像データを比較する工程とを含み、
     前記三次元画像データに係る比較結果と、前記二次元画像データに係る比較結果とに基づき、前記プリント基板における異物の有無を判定することを特徴とする請求項4又は5に記載の基板異物検査方法。
PCT/JP2021/034795 2020-12-03 2021-09-22 基板異物検査装置及び基板異物検査方法 WO2022118523A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE112021006288.3T DE112021006288T5 (de) 2020-12-03 2021-09-22 Substratfremdstoff-prüfvorrichtung und substratfremdstoff-prüfverfahren
CN202180048866.8A CN115803611A (zh) 2020-12-03 2021-09-22 基板异物检查装置以及基板异物检查方法
MX2022015423A MX2022015423A (es) 2020-12-03 2021-09-22 Dispositivo de inspección de materias extrañas de sustrato y método de inspección de materias extrañas de sustrato.
US18/107,019 US20230186458A1 (en) 2020-12-03 2023-02-08 Substrate foreign matter inspection device and substrate foreign matter inspection method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-200874 2020-12-03
JP2020200874A JP7046150B1 (ja) 2020-12-03 2020-12-03 基板異物検査装置及び基板異物検査方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/107,019 Continuation US20230186458A1 (en) 2020-12-03 2023-02-08 Substrate foreign matter inspection device and substrate foreign matter inspection method

Publications (1)

Publication Number Publication Date
WO2022118523A1 true WO2022118523A1 (ja) 2022-06-09

Family

ID=81255891

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/034795 WO2022118523A1 (ja) 2020-12-03 2021-09-22 基板異物検査装置及び基板異物検査方法

Country Status (7)

Country Link
US (1) US20230186458A1 (ja)
JP (1) JP7046150B1 (ja)
CN (1) CN115803611A (ja)
DE (1) DE112021006288T5 (ja)
MX (1) MX2022015423A (ja)
TW (1) TWI819395B (ja)
WO (1) WO2022118523A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7342207B1 (ja) 2022-07-15 2023-09-11 Ckd株式会社 包装体検査装置及び包装体検査方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006017474A (ja) * 2004-06-30 2006-01-19 Ricoh Co Ltd プリント回路基板検査装置とプリント回路基板組み立て検査ラインシステムおよびプログラム
JP2016519768A (ja) * 2013-04-02 2016-07-07 コー・ヤング・テクノロジー・インコーポレーテッド 基板の異物質検査方法
JP2017173010A (ja) * 2016-03-22 2017-09-28 Ckd株式会社 基板検査装置
KR101911061B1 (ko) * 2018-03-26 2018-10-23 주식회사 대곤코퍼레이션 비지도 학습기반 영역별 자가부호기를 이용한 제품 불량판별 시스템 및 비지도 학습기반 영역별 자가부호기를 이용한 제품 불량판별 방법
WO2019131945A1 (ja) * 2017-12-27 2019-07-04 キューピー株式会社 食品検査装置、食品検査方法及び食品検査装置の食品再構成ニューラルネットワークの学習方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2959156B2 (ja) * 1991-03-25 1999-10-06 松下電器産業株式会社 半田の形状検査方法
TW484104B (en) * 1999-08-05 2002-04-21 Orbotech Ltd Apparatus and method for the inspection of objects
KR20180015983A (ko) * 2016-08-04 2018-02-14 주식회사 고영테크놀러지 인쇄 회로 기판의 검사 및 불량 교정 장치와 그 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006017474A (ja) * 2004-06-30 2006-01-19 Ricoh Co Ltd プリント回路基板検査装置とプリント回路基板組み立て検査ラインシステムおよびプログラム
JP2016519768A (ja) * 2013-04-02 2016-07-07 コー・ヤング・テクノロジー・インコーポレーテッド 基板の異物質検査方法
JP2017173010A (ja) * 2016-03-22 2017-09-28 Ckd株式会社 基板検査装置
WO2019131945A1 (ja) * 2017-12-27 2019-07-04 キューピー株式会社 食品検査装置、食品検査方法及び食品検査装置の食品再構成ニューラルネットワークの学習方法
KR101911061B1 (ko) * 2018-03-26 2018-10-23 주식회사 대곤코퍼레이션 비지도 학습기반 영역별 자가부호기를 이용한 제품 불량판별 시스템 및 비지도 학습기반 영역별 자가부호기를 이용한 제품 불량판별 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7342207B1 (ja) 2022-07-15 2023-09-11 Ckd株式会社 包装体検査装置及び包装体検査方法
WO2024014020A1 (ja) * 2022-07-15 2024-01-18 Ckd株式会社 包装体検査装置及び包装体検査方法

Also Published As

Publication number Publication date
TWI819395B (zh) 2023-10-21
US20230186458A1 (en) 2023-06-15
CN115803611A (zh) 2023-03-14
MX2022015423A (es) 2023-01-11
DE112021006288T5 (de) 2023-09-21
TW202223369A (zh) 2022-06-16
JP2022088818A (ja) 2022-06-15
JP7046150B1 (ja) 2022-04-01

Similar Documents

Publication Publication Date Title
KR101251372B1 (ko) 3차원형상 측정방법
KR101578056B1 (ko) 삼차원 계측 장치
KR101144749B1 (ko) 소자의 불량 검사방법
WO2022118523A1 (ja) 基板異物検査装置及び基板異物検査方法
WO2022074897A1 (ja) 半田印刷検査装置
JP2017223509A (ja) 半田印刷検査装置
JP2009109447A (ja) X線検査装置およびx線検査方法
TWI792296B (zh) 網遮罩檢查方法及網遮罩檢查裝置
JP7091010B2 (ja) スクリーンマスク検査装置
KR101442666B1 (ko) 복수 행의 조명부재를 포함하는 비전검사장치
JP4034325B2 (ja) 三次元計測装置及び検査装置
KR101132781B1 (ko) 기판 검사방법 및 이를 포함하는 기판 제조방법
TWI818349B (zh) 工件高度計測裝置及使用其之安裝基板檢查裝置
JP2004317291A (ja) 半田外観検査装置
US20240193751A1 (en) Apparatus for hair inspection on substrate and method for hair inspection on substrate
JP3730222B2 (ja) 三次元計測装置及び検査装置
JP2004301621A (ja) 三次元計測装置及び検査装置
JP2002081924A (ja) 三次元計測装置
JPH0772094A (ja) ハンダ付け検査装置
JP2021032816A (ja) 検査装置
JPH02102405A (ja) 半田付け接合部の外観検査装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21900279

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 112021006288

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21900279

Country of ref document: EP

Kind code of ref document: A1