WO2021171493A1 - 基板管理システム - Google Patents

基板管理システム Download PDF

Info

Publication number
WO2021171493A1
WO2021171493A1 PCT/JP2020/008068 JP2020008068W WO2021171493A1 WO 2021171493 A1 WO2021171493 A1 WO 2021171493A1 JP 2020008068 W JP2020008068 W JP 2020008068W WO 2021171493 A1 WO2021171493 A1 WO 2021171493A1
Authority
WO
WIPO (PCT)
Prior art keywords
identification information
substrate
individual identification
board
feature amount
Prior art date
Application number
PCT/JP2020/008068
Other languages
English (en)
French (fr)
Inventor
高橋 徹
賢吾 牧野
石山 塁
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2020/008068 priority Critical patent/WO2021171493A1/ja
Priority to JP2022502723A priority patent/JP7276592B2/ja
Priority to US17/798,126 priority patent/US20230073961A1/en
Publication of WO2021171493A1 publication Critical patent/WO2021171493A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/083Quality monitoring using results from monitoring devices, e.g. feedback loops
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/084Product tracking, e.g. of substrates during the manufacturing process; Component traceability
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Definitions

  • the present invention relates to a board management system, a board management method, and a recording medium.
  • circuit boards such as printed wiring boards
  • traceability is required for the circuit boards that are the products for the purposes of manufacturing process control, quality inspection, shipping inspection, sales control, and so on. Therefore, individual identification information such as a product name, a product number, and a manufacturing date is set in the circuit board, and the circuit board is tracked based on the set individual identification information.
  • a method of setting the individual identification information a method of pasting a label such as a barcode or QR code (registered trademark) on which the individual identification information is printed or an RFID (Radio Frequency Identifier) storing the individual identification information on the circuit board is used. be.
  • a method of printing the individual identification information directly on the circuit board by using a laser marker or an inkjet in order to identify an individual circuit board, individual identification information for identifying the circuit board is given to the circuit board.
  • the number of mounted components that differ in appearance to the extent that the difference can be easily confirmed with the naked eye compared to the same mounted components on other circuit boards is not so large. No. Therefore, the number of parts that can be used to generate the individual identification information is small, and the identification ability, which is the degree at which different substrates can be identified, is reduced.
  • the minute misalignment that occurs in the process of mounting the mounting component can occur in many mounting components on the circuit board because it is minute. Therefore, by extracting the feature amount depending on the positional deviation from each of many mounted components on the substrate, it is possible to enhance the discriminating ability to the extent that different substrates can be discriminated.
  • An object of the present invention is to provide a substrate management system that solves the above-mentioned problems.
  • the substrate management system is An extraction means for extracting a feature amount depending on the positional deviation for each of a plurality of components determined based on the degree of variation in the component mounting positions in the substrate image obtained by photographing the substrate.
  • a generation means for generating individual identification information used for identifying the substrate from the extracted feature amount, and Is configured to include.
  • the substrate management method according to another embodiment of the present invention is described.
  • the feature amount depending on the misalignment is extracted for each of the plurality of specific parts determined in advance based on the degree of variation in the component mounting position.
  • Individual identification information used for identifying the substrate is generated from the extracted feature amount. It is configured as follows.
  • the computer-readable recording medium is On the computer Among the plurality of components in the board image obtained by photographing the board, the process of extracting the feature amount depending on the positional deviation for each of the plurality of specific components determined in advance based on the degree of variation in the component mounting position, and A process of generating individual identification information used for identifying the substrate from the extracted feature amount, and It is configured to record a program to do this.
  • the present invention can enhance the discriminating ability to the extent that different substrates can be discriminated without unnecessarily increasing the number of parts for extracting the feature amount depending on the minute misalignment. can.
  • parts such as resistors, capacitors, and ICs (Integrated Circuits) are mounted on the printed part of the solder paste on the board and then heat-treated to join the parts to the board.
  • the surface tension of the solder melt during reflow automatically corrects the mounting position to the correct position. Occurs. This is called a self-alignment function. Therefore, the position accuracy of component joining is determined by the self-alignment function based on the surface tension during solder melting rather than the accuracy at the time of component mounting.
  • the self-alignment function has a relative relationship between the surface tension of the solder and the weight of the component itself, it is effective for relatively lightweight components. For this reason, the degree of misalignment that occurs in the parts soldered to the board by the reflow method is not the same for all parts, but tends to differ depending on the type of parts. That is, on a substrate in which a plurality of parts are soldered by a reflow method, there is a group of parts having a small variation in misalignment, while there is a group of parts having a large variation in misalignment. It is unlikely that the feature quantities that depend on the misalignment extracted from the parts with small misalignment variations will be different feature quantities between different substrates.
  • the present invention has been proposed by paying attention to such a viewpoint, and by determining a component for extracting a feature amount that depends on the position shift based on the degree of variation in the component mounting position, the feature amount that depends on the position shift can be determined.
  • the number of parts to be extracted is not unnecessarily increased, that is, the size of the individual identification information is not unnecessarily increased, and the discriminating ability to the extent that different substrates can be discriminated is enhanced.
  • FIG. 1 is a block diagram of the substrate management device 100 according to the first embodiment of the present invention.
  • the board management device 100 shown in FIG. 1 is an information processing device that manages an individual circuit board on which a plurality of parts are mounted for manufacturing process management, quality inspection, shipping inspection, sales management, and the like.
  • the board management device 100 includes a camera 110, a communication I / F unit 120, an operation input unit 130, a screen display unit 140, a storage unit 150, and an arithmetic processing unit 160. There is.
  • the camera 110 is a photographing device that photographs a circuit board on which a plurality of parts are mounted.
  • the camera 110 may be, for example, a visible light and color camera including a CCD (Charge-Coupled Device) image sensor or a CMOS (Complementary MOS) image sensor having a pixel capacity of about several million pixels.
  • CCD Charge-Coupled Device
  • CMOS Complementary MOS
  • the communication I / F unit 120 is composed of a data communication circuit, and is configured to perform data communication with an external device wirelessly or by wire.
  • the operation input unit 130 is composed of devices such as a keyboard and a mouse, and is configured to detect an operator's operation and output the operation to the arithmetic processing unit 160.
  • the screen display unit 140 is composed of a device such as an LCD (Liquid Crystal Display), and is configured to display various information on the screen in response to an instruction from the arithmetic processing unit 160.
  • the storage unit 150 is composed of a storage device such as a hard disk or a memory, and is configured to store processing information and a program 151 required for various processes in the arithmetic processing unit 160.
  • the program 151 is a program that realizes various processing units by being read and executed by the arithmetic processing unit 160, and is transmitted from an external device or recording medium (not shown) via a data input / output function such as the communication I / F unit 120. It is read in advance and stored in the storage unit 150.
  • the main processing information stored in the storage unit 150 includes a registered image DB (database) 152, a component information DB 153, and an individual identification information DB 154.
  • the registered image DB 152 is a database that stores an image (registered image) of the board to be registered after component mounting by the camera 110.
  • the component information DB 153 is a database that stores component information for extracting feature quantities that depend on misalignment in order to generate individual identification information used for substrate identification.
  • the individual identification information DB 154 is a database that stores individual identification information related to the registration target substrate.
  • the arithmetic processing unit 160 has a processor such as an MPU and its peripheral circuits, and by reading and executing the program 151 from the storage unit 150, the hardware and the program 151 are made to cooperate to realize various processing units. It is configured as follows.
  • the main processing units realized by the arithmetic processing unit 160 are the pre-processing unit 161, the registration unit 162, and the collation unit 163.
  • the preprocessing unit 161 is configured to determine a plurality of components to be used for generating individual identification information of the substrate from the component group mounted on the substrate.
  • the preprocessing unit 161 has a registered image acquisition unit 1611 and a component determination unit 1612.
  • the registered image acquisition unit 1611 is configured to acquire an image (registered image) of the board to be registered after mounting the component from the camera 110 and register it in the registered image DB 152.
  • the component determination unit 1612 is configured to detect the amount of misalignment of each of the plurality of components mounted on the board from each of the plurality of registered images stored in the registered image DB 152. Further, the component determination unit 1612 is configured to statistically process the misalignment detection result detected for each registered image and for each component to calculate the variation in the misalignment for each component. Further, the component determination unit 1612 is configured to determine a plurality of components to be used for generating individual identification information based on the calculated variation in the positional deviation of the components. Further, the component determination unit 1612 is configured to register the determined component information in the component information DB 153.
  • the registration unit 162 is configured to generate individual identification information from a plurality of registered images stored in the registered image DB 152 and register the individual identification information in the individual identification information DB 154.
  • the registration unit 162 has a feature amount extraction unit 1621 and an individual identification information generation unit 1622.
  • the feature amount extraction unit 1621 extracts the feature amount depending on the misalignment for each part specified by the part information stored in the part information DB 153 for each image of the registration target substrate stored in the registered image DB 152. It is configured as follows.
  • the individual identification information generation unit 1622 generates individual identification information used for identifying the substrate from the feature amount extracted by the feature amount extraction unit 1621 for each image of the registration target substrate stored in the registration image DB 152, and identifies the individual. It is configured to be stored in the information DB 154.
  • the collation unit 163 is configured to collate the substrate based on the individual identification information.
  • the collation unit 163 has a collation image acquisition unit 1631, a feature amount extraction unit 1632, an individual identification information generation unit 1633, and a determination unit 1634.
  • the collation image acquisition unit 1631 is configured to acquire an image (collation image) of the substrate to be collated from the camera 110.
  • the feature amount extraction unit 1632 extracts the feature amount depending on the misalignment for each part specified by the part information stored in the part information DB 153 from the image of the collation target substrate acquired by the collation image acquisition unit 1631. It is configured to do.
  • the individual identification information generation unit 1633 is configured to generate individual identification information used for identifying the collation target substrate from the feature amount related to the collation target substrate extracted by the feature quantity extraction unit 1632.
  • the determination unit 1634 compares the individual identification information related to the collation target board generated by the individual identification information generation unit 1633 with the individual identification information related to the registration target board stored in the individual identification information DB 154 to collate the target. Is configured to determine which board is the same as the board to be registered. Further, the determination unit 1634 is configured to display the determination result on the screen display unit 140 and / and output it to an external device through the communication I / F unit 120.
  • FIG. 2 is a flowchart showing an example of a preprocessing operation and a registration operation of the board management device 100.
  • FIG. 3 is a flowchart showing an example of the collation operation of the board management device 100.
  • the registered image acquisition unit 1611 acquires a plurality of images (registered images) obtained by photographing a plurality of substrates to be registered after mounting the components from the camera 110, and the registered image DB 152 Register in (step S1).
  • the component determination unit 1612 reads a plurality of registered images from the registered image DB 152, detects the positional deviation of each of the plurality of components mounted on the board from each of the read registered images, and detects the displacement.
  • a plurality of parts to be used for generating individual identification information are determined based on the variation in the positional deviation for each registered image and each part, and registered in the part information DB 153 (step S2). This completes the preprocessing operation.
  • the board management device 100 When the board management device 100 finishes the preprocessing operation, it performs a registration operation.
  • the registration operation as shown in FIG. 2, first, the feature amount extraction unit 1621 is specified by the component information stored in the component information DB 153 for each image of the registration target substrate stored in the registration image DB 152. For each component, a feature amount that depends on the positional deviation is extracted (step S3).
  • the individual identification information generation unit 1622 generates individual identification information used for identifying the substrate from the feature amount extracted by the feature amount extraction unit 1621 for each image of the registration target substrate stored in the registration image DB 152. , Saved in the individual identification information DB 154 (step S4). This completes the registration operation.
  • the collation image acquisition unit 1631 acquires an image (collation image) of the substrate to be collated from the camera 110 (step S5).
  • the feature amount extraction unit 1632 relies on the misalignment of each part specified by the part information stored in the part information DB 153 from the image of the collation target substrate acquired by the collation image acquisition unit 1631.
  • the amount is extracted (step S6).
  • the individual identification information generation unit 1633 generates individual identification information used for identifying the collation target substrate from the feature amount related to the collation target substrate extracted by the feature quantity extraction unit 1632 (step S7).
  • the determination unit 1634 compares the individual identification information related to the collation target board generated by the individual identification information generation unit 1633 with the individual identification information related to the registration target board stored in the individual identification information DB 154. , It is determined whether or not the board to be collated is the same as which board to be registered, and the determination result is output (step S8).
  • the preprocessing unit 161, the registration unit 162, and the collation unit 163 will be described in more detail.
  • the preprocessing unit 161 will be described in detail.
  • the registered image acquisition unit 1611 photographs the appearance of the board after mounting the components manufactured in the circuit board manufacturing process with the camera 110. Generally, in the final inspection process of circuit board manufacturing, the appearance of the substrate is photographed for the appearance inspection of the substrate.
  • the registered image acquisition unit 1611 acquires an image of the substrate taken for such an appearance inspection as a registered image. As a result, it is possible to reduce the labor and cost of photographing the same substrate a plurality of times separately for individual management and visual inspection. However, it goes without saying that the substrate may be photographed only for individual management.
  • FIG. 4 is a schematic view showing an example of an image of the registration target substrate acquired by the registration image acquisition unit 1611 taken from the front.
  • the inspection result is derived by binarizing such an image for extracting the features of the part to be inspected, determining the quality of the extracted feature portion, and the like.
  • the registered image acquisition unit 1611 adds related information to the captured image of the substrate and stores it in the registered image DB 152.
  • FIG. 5 shows a format example of the registered image DB 152.
  • the registered image DB 152 of this example is composed of a plurality of entries, and one entry has each item of a substrate number, a registered image, an inspection result, and a template image flag.
  • a board number such as a serial number assigned to the board to be registered is set.
  • a file name for recording an image of the substrate to be registered is set.
  • a file name for recording the inspection result of the appearance inspection of the substrate to be registered is set.
  • the on value is set if the registered image is set as the template image when extracting the feature amount depending on the positional deviation, and the off value is set otherwise.
  • FIG. 6 is a flowchart showing an operation example of the component determination unit 1612.
  • the component determination unit 1612 first sets one of the plurality of registered images stored in the registered image DB 152 as a template image (step S11). Which registered image is set as the template image is arbitrary, but for example, the part determination unit 1612 uses any one of the registered images determined to be normal in the inspection result of the visual inspection as a template. It may be set in the image.
  • an on value is set in the template image flag item of the entry of the board number 002
  • an off value is set in the template image flag item of the other entries. That is, the component determination unit 1612 sets the registered image of the board number 002 as the template image.
  • the component determination unit 1612 reads a plurality of registered images from the registered image DB 152, and calculates the positional deviation of each component from the template image with respect to the read registered images (step S12).
  • the registered images read from the registered image DB 152 may be all the registered images stored in the registered image DB 152, or may be, for example, a predetermined number or more of registered images randomly sampled.
  • the number of read registered images is defined as S.
  • the method of calculating the positional deviation for each component between the registered image and the template image is arbitrary.
  • the component determination unit 1612 may detect the positional deviation of each component in the registered image from the corresponding component in the template image by obtaining the optical flow between the template image and the registered image. Before obtaining the optical flow, the template image and the registered image may be aligned with reference to, for example, the edge of the substrate in the image.
  • FIG. 7 is a schematic diagram illustrating the misalignment of the parts.
  • the outline and broken line of the part A in the registered image shown by the solid line are shown in the component A if the component has no misalignment. It matches the contour of the part A in the template image shown by.
  • the contours of parts B and C in the registered image shown by the solid line and the contours of parts B and C in the template image shown by the broken line are misaligned. ..
  • the feature point for calculating the misalignment is, for example, a specific edge of a part (for example, the upper left vertex)
  • the specific edge of the part B in the template image is set as the start point
  • the specific edge of the part B in the registered image is set as the end point.
  • the vector VB represents the misalignment of the component B.
  • the vectors VA and VC represent the misalignment of the parts A and C.
  • the vector VA is a zero vector.
  • the component determination unit 1612 calculates the variation in the positional deviation for each component (step S13).
  • the method of calculating the variation in the positional deviation for each part is arbitrary.
  • the component determination unit 1612 may calculate the variation in the positional deviation for each component by the method described below.
  • FIG. 8 is a schematic diagram illustrating a method of calculating the variation in the positional deviation of the parts.
  • the vector VB is a vector representing the misalignment of the component B in a certain registered image. For example, if the XY coordinates are set with the line segment along the bottom of the substrate in the template image as the X-axis and the line segment perpendicular to the X-axis as the Y-axis, the vector VB has a length L and an angle ⁇ from the X-axis. Can be disassembled into.
  • the component determination unit 1612 first calculates the average value m ⁇ of ⁇ and the average value mL of L from the positional deviation vector VB of component B in the registered images of S sheets, and based on this, the standard deviation of ⁇ . Std ⁇ and the standard deviation StdL of L are calculated. Next, the component determination unit 1612 calculates the square root (Std ⁇ 2 + StdL 2 ) 1/2 of the sum of squares of the standard deviations, and uses the calculation result as the variation in the misalignment of the component B. The component determination unit 1612 calculates the variation in the positional deviation for the components other than the component B by the same method.
  • the component determination unit 1612 determines n components as feature extraction target components in order from the one with the largest variation (step S14).
  • n is a predetermined positive integer of 2 or more.
  • the component determination unit 1612 determines a threshold value for quantizing the feature amount for each of the n feature amount extraction target parts (step S15). For example, when the length of the misalignment vector is quantized into two values, the component determination unit 1612 has the entire length of the misalignment vector (S lengths) for each of the n feature extraction target components. Is sorted in ascending order, and the value located 50% from the bottom of the ascending order is determined as one threshold TH for quantizing the length of the misalignment vector of the part into two values. do.
  • the component determination unit 1612 sets the values at positions 33% and 66% from the lower part of the above sequence to the length of the misalignment vector of the component. Is determined to be two thresholds THL and THH for quantizing into three values. The component determination unit 1612 determines the threshold value for quantizing the direction of the misalignment vector in the same manner as described above.
  • the parts determination unit 1612 determines m parts as alignment parts in order from the one with the smallest variation (step S16).
  • m is a predetermined positive integer of 2 or more.
  • the component determination unit 1612 stores the information related to the feature extraction target component, the threshold value, and the alignment component determined above in the component information DB 153 as shown in FIG.
  • FIG. 10 is a flowchart showing the details of the operation of the registration unit 162.
  • the feature amount extraction unit 1621 of the registration unit 162 pays attention to the registered image of one of the registered image groups stored in the registered image DB 152 (step S21).
  • the feature amount extraction unit 121 aligns the template image set in the registered image DB 152 with the registered image of interest (step S22).
  • the feature amount extraction unit 121 reads the position information of m alignment parts from the part information DB 153, and m parts in the template image specified by these and m pieces in the registered image of interest. Align both images so that they match the parts in.
  • the feature amount extraction unit 1621 reads the position information of n feature amount extraction target parts from the part information DB 153, and positions the predetermined feature points of the n parts in the registered image of interest specified by these.
  • the deviation vectors v1, v2, ..., Vn are calculated (step S23).
  • the feature amount extraction unit 1621 reads the threshold values TH1, TH2, ..., THn of n feature amount extraction target parts from the part information DB 153, and uses these threshold values to calculate n from the registered image of interest. Positional deviation vectors v1, v2, ..., vn length vl1, vl2, ..., vln and directions v ⁇ 1, v ⁇ 2, ... Quantize to Q ⁇ n (step S24).
  • the feature amount extraction unit 1621 quantizes the length vli of the misalignment vector vi (i is any of 1 to n) into the quantization value Qli according to the following equation 1, for example. ..
  • THli is a threshold value for quantizing the length vli of the vector vi into two values.
  • the feature amount extraction unit 1621 quantizes the direction v ⁇ i of the misalignment vector vi to the quantization value Q ⁇ i, for example, according to the following equation 2.
  • TH ⁇ i is a threshold value for quantizing the direction v ⁇ i of the vector vi into two values.
  • the feature amount extraction unit 1621 quantizes the length vli of the misalignment vector vi into the quantization value Qli, for example, according to the following equation 3.
  • THlHi and THlLi are threshold values for quantizing the length vli of the vector vi into three values.
  • the feature amount extraction unit 1621 quantizes the direction v ⁇ i of the misalignment vector vi to the quantization value Q ⁇ i, for example, according to the following equation 4.
  • TH ⁇ Hi and TH ⁇ Li are threshold values for quantizing the direction v ⁇ i of the vector vi into three values.
  • the individual identification information generation unit 1622 combines the quantized feature amounts of each feature amount extraction target component to generate individual identification information of the registered image of interest (step S25). For example, the individual identification information generation unit 1622 may generate individual identification information by concatenating the quantized feature quantities in the order of entry of the information of the feature quantity extraction target component stored in the component information DB 153. Assuming that the number of bits of the quantization feature amount of one feature amount extraction target component is p, the size of the individual identification information is p ⁇ n bits. Next, the individual identification information generation unit 1622 stores the individual identification information of the registered image of interest in the individual identification information DB 154 (step S26).
  • the registration unit 162 When the registration unit 162 saves the individual identification information of the registered image of interest in the individual identification information DB 154, the registration unit 162 shifts attention to the remaining one registered image stored in the registered image DB 152 (step S27) and returns to step S22. Then, the same process as described above is repeated. When the registration unit 162 finishes paying attention to all the registered images stored in the registered image DB 152 (YES in step S28), the registration unit 162 ends the process of FIG.
  • FIG. 11 shows an example of the format of the individual identification information DB 154.
  • the individual identification information DB 154 of this example is composed of a plurality of entries having a one-to-one correspondence with the registered image, and each entry has each item of the individual identification information and the substrate number.
  • Individual identification information generated from the registered image is set in the item of individual identification information.
  • the board number set in the registered image DB 152 is set for the registered image.
  • FIG. 12 is a flowchart showing the details of the operation of the collating unit 163.
  • the collation image acquisition unit 1631 of the collation unit 163 acquires an image (collation image) of the substrate to be collated from the camera 110 (step S31).
  • the feature amount extraction unit 1632 and the individual identification information generation unit 1633 perform the same processing as the feature amount extraction unit 1621 and the individual identification information generation unit 1622 in the registration unit 162 on the collation image, thereby performing the collation image.
  • Individual identification information is generated from (step S32).
  • the determination unit 1634 calculates the degree of similarity with the individual identification information of the collated image for each individual identification information of the registered image stored in the individual identification information DB 154 (step S33). For example, when the individual identification information is represented by the above-mentioned p ⁇ n bits, the Hamming distance between the p ⁇ n bits representing the individual identification information of the registered image and the p ⁇ n bits representing the individual identification information of the collated image. May be calculated as the degree of similarity. At this time, the closer the similarity value is to 0, the higher the degree of similarity between the individual identification information of the registered image and the individual identification information of the collated image.
  • the determination unit 1634 determines whether or not the best similarity among the plurality of calculated similarity is greater than the threshold value (step S34).
  • the determination unit 1634 determines that the circuit board related to the collated image is the same as the circuit board related to the registered image having the individual identification information for which the best similarity has been calculated, if the best similarity is larger than the threshold value. (Step S35).
  • the determination unit 1634 determines that the same circuit board as the circuit board related to the collation image is not registered (step S36).
  • the determination unit 1634 outputs the determination result (step S37).
  • the determination unit 1634 may read out the substrate number of the circuit board determined to be the same as the circuit board related to the collation image and the inspection result from the registered image DB 152 and output the determination result together with the determination result.
  • the present embodiment it is possible to enhance the discriminating ability to the extent that different substrates can be discriminated without unnecessarily increasing the number of parts for extracting the feature amount depending on the minute misalignment.
  • the reason is that the feature quantity depending on the misalignment is extracted only for the upper n components having a large variation in the misalignment among the group of components mounted on the substrate.
  • the component determination unit 1612 has detected the misalignment of each of the plurality of components in the registered image from each of the plurality of registered images obtained by photographing the plurality of substrates.
  • the component determination unit 1612 may measure the misalignment of individual components on a plurality of substrates using a three-dimensional shape measuring device.
  • the component determination unit 1612 determines the feature extraction target component based on the variation in the positional deviation of each component on the substrate. However, the component determination unit 1612 calculates a score indicating the degree to which the self-alignment effect can be expected for a plurality of components soldered to the substrate by the reflow method among the component group on the substrate, and based on the score, the feature The quantity extraction target component may be determined.
  • the self-alignment function is effective for light parts because there is a relative relationship between the solder surface tension and the weight of the parts themselves. Therefore, it is considered that the light parts among the parts group on the board have a small variation in misalignment.
  • the component determination unit 1612 calculates a score that increases as the weight is lighter based on the weight of each component on the substrate, and determines the n lower-ranked components as the feature extraction target components. good.
  • the surface area of a component obtained by photographing the substrate from the front tends to decrease as the weight of the component decreases. It may be decided as the part to be extracted.
  • the feature amount extraction unit 1621 aligns the template image and the registered image using the alignment component stored in the component information DB 153.
  • the feature amount extraction unit 1621 may align the template image and the registered image with reference to, for example, the edge of the substrate.
  • the feature amount extraction unit 1621 uses the position shift vector between the feature points of the parts in the registered image and the feature points of the parts in the template image as feature quantities depending on the position shift of the parts in the registered image. Calculated. However, the feature amount extraction unit 1621 extracts an arbitrary edge from the substrate image in the registered image, and relates to the position of the feature amount extraction target component with reference to the extracted edge, as in the method described in Patent Document 2. The feature amount may be calculated as a feature amount that depends on the misalignment of the parts. Further, in the feature amount extraction unit 1621, the feature amount depending on the positional deviation of the feature amount extraction target component may be not the position information but the hue information or the luminance information of the component area.
  • the feature amount extraction unit 1621 includes features based on the statistic of the luminance gradient calculated from the luminance information of the luminance information, frequency features obtained by Fourier transform of the luminance information, and arbitrary pixel pairs in the luminance information. Is taken out, and a binary feature or the like obtained from the magnitude relationship of the brightness may be used as a feature amount depending on the positional deviation of the feature amount extraction target component.
  • the feature amount extraction unit 1621 quantizes the length vli and the direction v ⁇ i of the positional deviation vector vi between the feature points of the parts in the registered image and the feature points of the parts in the template image into Qli and Q ⁇ i, respectively.
  • the individual identification information generation unit 1622 generated the individual identification information by concatenating the quantization values for each component.
  • the feature amount extraction unit 1621 transmits the position shift vector vi extracted for each part to the individual identification information generation unit 1622 as it is without quantization, and the individual identification information generation unit 1622 transmits the position shift vector for each part.
  • a vector sequence (v1, v2, ..., Vn) in which vi is simply arranged may be generated as individual identification information.
  • the determination unit 1634 determines the cosine distance of two misalignment vectors vi for each corresponding component between the individual identification information of the registered image and the individual identification information of the collated image. (Cosine similarity) or Euclidean distance may be calculated, and the sum of them may be calculated as the similarity of the above two individual identification information. Such similarity calculation can also be applied when a feature amount such as the above-mentioned luminance information or luminance gradient obtained from the luminance information is used.
  • the determination unit 1634 treats n feature quantity extraction target parts equally, and calculates the degree of similarity between the individual identification information of the registered image and the individual identification information of the collated image.
  • the degree of misalignment there is a difference in the degree of misalignment among the n feature quantity extraction target parts. It is considered that a component having a large degree of misalignment has a higher discriminating ability to the extent that different substrates can be discriminated as compared with a component having a small degree of misalignment. Therefore, the part determination unit 1612 not only determines n parts as feature extraction target parts in descending order of variation, but also gives a larger weight to a part having a larger degree of misalignment variation, and conversely, misalignment.
  • the determination unit 1634 may calculate the degree of similarity between the individual identification information of the registered image and the individual identification information of the collated image in consideration of the weight of the parts. For example, the determination unit 1634 multiplies the similarity between the features of the parts having a large variation by a large weight, multiplies the similarity between the features of the parts having a small variation by a small weight, and uses the weighted sum as the matching score (final). Similarity) may be calculated.
  • one board management device 100 includes a pretreatment unit 161, a registration unit 162, and a collation unit 163.
  • a board management device having a preprocessing unit 161 and not having a registration unit 162 and a collating unit 163, a board management device having a registration unit 162 but not having a preprocessing unit 161 and a collating unit 163, and a collating unit 163 may be provided.
  • FIG. 13 is a block diagram showing the configuration of the board management system according to the present embodiment.
  • the board management system 200 includes an extraction means 201 and a generation means 202.
  • the extraction means 201 extracts a feature amount depending on the positional deviation for each of the plurality of specific parts determined in advance based on the degree of variation in the component mounting positions among the plurality of components in the substrate image obtained by photographing the substrate. It is configured as follows.
  • the extraction means 201 can be realized by, for example, the feature amount extraction unit 1621 or the feature amount extraction unit 1632 of FIG. 1, but is not limited thereto.
  • the generation means 202 is configured to generate individual identification information used for identifying the substrate from the feature amount extracted by the extraction means 201.
  • the generation means 202 can be realized by, for example, the individual identification information generation unit 1622 or the individual identification information generation unit 1633 in FIG. 1, but is not limited thereto.
  • the board management system 200 configured as described above operates as follows. That is, first, the extraction means 201 is a feature amount that depends on the positional deviation for each of the plurality of specific parts determined in advance based on the degree of variation in the component mounting positions among the plurality of components in the substrate image obtained by photographing the substrate. Is extracted. Next, the generation means 202 generates individual identification information used for identifying the substrate from the feature amount extracted by the extraction means 201.
  • the board management system 200 is configured and operates as described above to the extent that different boards can be identified without unnecessarily increasing the number of parts for extracting the feature amount depending on the positional deviation. A certain discriminating ability can be enhanced. The reason is that, among the plurality of components in the substrate image, the feature amount depending on the misalignment is extracted for each of the plurality of specific components determined in advance based on the degree of variation in the component mounting positions.
  • the present invention can be used to generate individual identification information that uniquely identifies a circuit board on which a plurality of components are mounted, and in particular, the individual identification information of a circuit board on which a plurality of components bonded to the board by a reflow method is mounted. Can be used to generate.
  • Extraction means for extracting the feature amount depending on the positional deviation for each of the plurality of specific parts determined in advance based on the degree of variation in the component mounting positions among the plurality of components in the board image obtained by photographing the board.
  • a generation means for generating individual identification information used for identifying the substrate from the extracted feature amount, and Board management system with.
  • Appendix 2 A determination to detect the misalignment of each of the plurality of parts in the board image from each of the plurality of board images obtained by photographing the plurality of boards, and to determine the plurality of specific parts based on the variation in the misalignment of each component.
  • the board management system according to Appendix 1 which is further provided.
  • Appendix 3 For a plurality of parts soldered to the substrate by the reflow method, a score indicating the degree to which a self-alignment effect can be expected is calculated, and a determination means for determining the plurality of specific parts based on the score is used.
  • Appendix 4 A registration means for storing the generated individual identification information in the database as the individual identification information of the substrate.
  • [Appendix 5] A collation means for collating the generated individual identification information with the individual identification information of the board to be registered, which is generated in advance and registered in the database in advance.
  • the board management system according to any one of Appendix 1 to 4, further provided.
  • [Appendix 6] Among the plurality of parts in the board image obtained by photographing the board, the feature amount depending on the misalignment is extracted for each of the plurality of specific parts determined in advance based on the degree of variation in the component mounting position. Individual identification information used for identifying the substrate is generated from the extracted feature amount. Board management method.
  • the misalignment of each of the plurality of components in the substrate image is detected from each of the plurality of substrate images obtained by photographing the plurality of substrates, and the plurality of specific components are determined based on the variation in the misalignment of each component. do, The board management method according to Appendix 6.
  • Appendix 8 Further, for a plurality of parts soldered to the substrate by the reflow method, a score indicating the degree to which a self-alignment effect can be expected is calculated, and the plurality of specific parts are determined based on the score.
  • the generated individual identification information is stored in the database as the individual identification information of the substrate.
  • the board management method according to any one of Appendix 6 to 8.
  • the generated individual identification information is collated with the individual identification information of the substrate to be registered, which is generated in advance and registered in the database in advance.
  • the board management method according to any one of Appendix 6 to 9.
  • Appendix 11 On the computer Among the plurality of components in the board image obtained by photographing the board, the process of extracting the feature amount depending on the positional deviation for each of the plurality of specific components determined in advance based on the degree of variation in the component mounting position, and A process of generating individual identification information used for identifying the substrate from the extracted feature amount, and A computer-readable recording medium on which a program is recorded to allow the program to be performed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Operations Research (AREA)
  • Manufacturing & Machinery (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Supply And Installment Of Electrical Components (AREA)
  • Image Analysis (AREA)

Abstract

基板管理システムは、抽出手段と生成手段とを備える。抽出手段は、基板を撮影した基板画像中の複数の部品のうち、部品実装位置のバラツキ度合いに基づいて事前に決定された複数の特定部品それぞれについて、位置ずれに依存する特徴量を抽出する。生成手段は、抽出された特徴量から基板の識別に用いられる個体識別情報を生成する。

Description

基板管理システム
 本発明は、基板管理システム、基板管理方法、および記録媒体に関する。
 プリント配線基板などの回路基板を製造・販売する場合において、製造工程管理、品質検査、出荷検査、販売管理などの目的で、製品となる回路基板に対する追跡可能性(トレーサビリティ)が求められている。そのため、品名や品番、製造年月日などの個体識別情報を回路基板に設定し、設定した個体識別情報に基づいて回路基板を追跡することが行われている。
 個体識別情報の設定方法には、個体識別情報を印字したバーコードやQRコード(登録商標)などのラベルや、個体識別情報を格納したRFID(Radio Frequency Identifier)などを回路基板に貼り付ける方法がある。また、個体識別情報をレーザーマーカーやインクジェットなどによって回路基板に直接印刷する方法もある。これらの方法は、個々の回路基板を識別するために、回路基板を識別する個体識別情報をその回路基板に付与する方法である。
 しかし、個体識別情報を回路基板に付与する方法によって回路基板のトレーサビリティを得るためには、基板に貼り付けるラベルや、基板に印刷する印刷設備などが必要となり、製造コストが増大する。また、個体識別情報を回路基板に付与する方法では、ラベルを基板に貼り付ける作業や、基板に個体識別情報を印刷する作業が必要にある。
 そこで、回路基板に実装された部品の部品実装状態に基づいた特徴量を回路基板の個体識別情報に利用する技術が提案されている。
 例えば、特許文献1では、回路基板に実装された部品群のうち肉眼で容易に確認することができる程度に外観が異なっている複数の部品の外観に基づいて、回路基板の個体識別情報を作成している。
 また、特許文献2では、回路基板に実装された部品のSMT(Surface Mount Technology)工程などの部品実装工程で発生する実装部品の微小な位置ずれに基づいて、回路基板の個体識別情報を作成している。
特開2009-117610号公報 特開2016-178157号公報
 しかしながら、大量生産される回路基板上の実装部品のうち他の回路基板の同じ実装部品と比較して肉眼で容易に違いを確認することができる程度に外観が異なる実装部品の数はそれほど多くはない。そのため、個体識別情報の生成に利用できる部品数が少なく、異なる基板を識別できる度合いである識別能力が低下する。一方、実装部品を実装する工程で発生する微小な位置ずれは、微小であるが故に回路基板上の多くの実装部品で発生し得る。そのため、基板上の多くの実装部品それぞれから位置ずれに依存する特徴量を抽出することにより、異なる基板を識別できる度合いである識別能力を高めることができる。しかしながら、本発明者の知見によれば、微小な位置ずれに依存する特徴量を抽出する部品の数をむやみに増やしても、個体識別情報のサイズが無駄に大きくなるだけで、異なる基板を識別できる度合いである識別能力を高めるのは困難であった。
 本発明の目的は、上述した課題を解決する基板管理システムを提供することにある。
 本発明の一形態に係る基板管理システムは、
 基板を撮影した基板画像中の、部品実装位置のバラツキ度合いに基づいて決定された複数の部品それぞれについて、位置ずれに依存する特徴量を抽出する抽出手段と、
 前記抽出された特徴量から前記基板の識別に用いられる個体識別情報を生成する生成手段と、
を備えるように構成されている。
 また本発明の他の形態に係る基板管理方法は、
 基板を撮影した基板画像中の複数の部品のうち、部品実装位置のバラツキ度合いに基づいて事前に決定された複数の特定部品それぞれについて、位置ずれに依存する特徴量を抽出し、
 前記抽出された特徴量から前記基板の識別に用いられる個体識別情報を生成する、
ように構成されている。
 また本発明の他の形態に係るコンピュータ読み取り可能な記録媒体は、
 コンピュータに、
 基板を撮影した基板画像中の複数の部品のうち、部品実装位置のバラツキ度合いに基づいて事前に決定された複数の特定部品それぞれについて、位置ずれに依存する特徴量を抽出する処理と、
 前記抽出された特徴量から前記基板の識別に用いられる個体識別情報を生成する処理と、
を行わせるためのプログラムを記録するように構成されている。
 本発明は上述したような構成を有することにより、微小な位置ずれに依存する特徴量を抽出する部品の数を無駄に増加させずに、異なる基板を識別できる度合いである識別能力を高めることができる。
本発明の第1の実施形態に係る基板管理装置のブロック図である。 本発明の第1の実施形態に係る基板管理装置の前処理動作と登録動作の一例を示すフローチャートである。 本発明の第1の実施形態に係る基板管理装置の照合動作の一例を示すフローチャートである。 本発明の第1の実施形態における登録対象基板を正面から撮影した画像の例を示す模式図である。 本発明の第1の実施形態に係る基板管理装置における登録画像DBのフォーマット例を示す図である。 本発明の第1の実施形態に係る基板管理装置における部品決定部の動作例を示すフローチャートである。 本発明の第1の実施形態における部品の位置ずれを説明する模式図である。 本発明の第1の実施形態における部品の位置ずれのバラツキを算出する方法を説明する模式図である。 本発明の第1の実施形態に係る基板管理装置における部品情報のフォーマット例を示す図である。 本発明の第1の実施形態に係る基板管理装置における登録部の動作の詳細を示すフローチャートである。 本発明の第1の実施形態に係る基板管理装置における個体識別情報DBのフォーマットの例を示す図である。 本発明の第1の実施形態に係る基板管理装置における照合部の動作の詳細を示すフローチャートである。 本発明の第2の実施形態に係る基板管理装置のブロック図である。
 回路基板に実装された部品のSMT工程では、抵抗やコンデンサあるいはIC(Integrated Circuit)などの部品を基板上のはんだペーストを印刷した箇所に搭載した後に熱処理を行うことによって部品を基板に接合する。その際、基板に印刷されたはんだペーストに対して若干の位置ずれが発生して搭載された部品であっても、リフロー時のはんだ溶融の表面張力で自動的に正しい搭載位置に補正される現象が発生する。これをセルフアライメント機能と呼ぶ。そのため、部品接合の位置精度は部品搭載時の精度よりは、はんだ溶融時の表面張力によるセルフアライメント機能で決定される。但し、セルフアライメント機能は、はんだ表面張力と部品自重の相対関係にあるため、比較的軽量の部品で有効となる。そのようなことから、リフロー方式によって基板にはんだ付けされた部品に生じる位置ずれのバラツキの程度は、全部品で同一でなく、部品の種類によって相違する傾向がある。即ち、複数個の部品がリフロー方式によってはんだ付けされた基板上には、位置ずれのバラツキが小さな部品群がある一方、位置ずれのバラツキが大きな部品群が存在する。位置ずれのバラツキが小さな部品から抽出した位置ずれに依存する特徴量は、異なる基板間で異なる特徴量になる確率が低い。一方、位置ずれのバラツキが大きな部品から抽出した位置ずれに依存する特徴量は、異なる基板間で異なる特徴量になる確率が高い。本発明は係る観点に着目して提案されたものであり、部品実装位置のバラツキ度合いに基づいて位置ずれに依存する特徴量を抽出する部品を決定することによって、位置ずれに依存する特徴量を抽出する部品の数を無駄に増加させずに、即ち、個体識別情報のサイズを無駄に大きくすることなく、異なる基板を識別できる度合いである識別能力を高めるようにしている。以下、本発明の実施の形態について、図面を参照して詳細に説明する。
[第1の実施形態]
 図1は、本発明の第1の実施形態に係る基板管理装置100のブロック図である。図1に示す基板管理装置100は、製造工程管理、品質検査、出荷検査、販売管理などのために、複数の部品が搭載された回路基板の個体を管理する情報処理装置である。
 図1を参照すると、基板管理装置100は、カメラ110と、通信I/F部120と、操作入力部130と、画面表示部140と、記憶部150と、演算処理部160とから構成されている。
 カメラ110は、複数の部品が搭載された回路基板を撮影する撮影装置である。カメラ110は、例えば、数百万画素程度の画素容量を有するCCD(Charge-Coupled Device)イメージセンサやCMOS(Complementary MOS)イメージセンサを備えた可視光かつカラーカメラであってよい。
 通信I/F部120は、データ通信回路から構成され、無線または有線によって外部装置との間でデータ通信を行うように構成されている。操作入力部130は、キーボードやマウスなどの装置から構成され、オペレータの操作を検出して演算処理部160に出力するように構成されている。画面表示部140は、LCD(Liquid Crystal Display)などの装置から構成され、演算処理部160からの指示に応じて、各種情報を画面表示するように構成されている。
 記憶部150は、ハードディスクやメモリなどの記憶装置から構成され、演算処理部160における各種処理に必要な処理情報およびプログラム151を記憶するように構成されている。プログラム151は、演算処理部160に読み込まれて実行されることにより各種処理部を実現するプログラムであり、通信I/F部120などのデータ入出力機能を介して図示しない外部装置や記録媒体から予め読み込まれて記憶部150に保存される。記憶部150に記憶される主な処理情報には、登録画像DB(データベース)152、部品情報DB153、および個体識別情報DB154がある。
 登録画像DB152は、部品実装後の登録対象の基板をカメラ110によって撮影した画像(登録画像)を保存するデータベースである。
 部品情報DB153は、基板の識別に用いられる個体識別情報を生成するために位置ずれに依存する特徴量を抽出する部品の情報を保存するデータベースである。
 個体識別情報DB154は、登録対象基板に係る個体識別情報を保存するデータベースである。
 演算処理部160は、MPUなどのプロセッサとその周辺回路を有し、記憶部150からプログラム151を読み込んで実行することにより、上記ハードウェアとプログラム151とを協働させて各種処理部を実現するように構成されている。演算処理部160で実現される主な処理部は、前処理部161、登録部162、および照合部163である。
 前処理部161は、基板に実装された部品群の中から基板の個体識別情報を生成するために使用する複数の部品を決定するように構成されている。前処理部161は、登録画像取得部1611と部品決定部1612とを有する。
 登録画像取得部1611は、部品実装後の登録対象の基板を撮影した画像(登録画像)をカメラ110から取得し、登録画像DB152に登録するように構成されている。
 部品決定部1612は、登録画像DB152に保存された複数の登録画像それぞれから、基板に実装されている複数の部品それぞれの位置ずれ量を検出するように構成されている。また、部品決定部1612は、登録画像毎かつ部品毎に検出した位置ずれ検出結果を統計的に処理して部品毎の位置ずれのバラツキを算出するように構成されている。また、部品決定部1612は、上記算出した部品の位置ずれのバラツキに基づいて、個体識別情報の生成に使用する複数の部品を決定するように構成されている。また、部品決定部1612は、決定した部品の情報を部品情報DB153に登録するように構成されている。
 登録部162は、登録画像DB152に保存された複数の登録画像から、それぞれの個体識別情報を生成し、個体識別情報DB154に登録するように構成されている。登録部162は、特徴量抽出部1621と個体識別情報生成部1622とを有する。
 特徴量抽出部1621は、登録画像DB152に保存された登録対象基板の画像毎に、部品情報DB153に保存された部品の情報で特定される部品それぞれについて、位置ずれに依存する特徴量を抽出するように構成されている。
 個体識別情報生成部1622は、登録画像DB152に保存された登録対象基板の画像毎に、特徴量抽出部1621によって抽出された特徴量から基板の識別に用いられる個体識別情報を生成し、個体識別情報DB154に保存するように構成されている。
 照合部163は、個体識別情報に基づいて基板の照合を行うように構成されている。照合部163は、照合画像取得部1631と特徴量抽出部1632と個体識別情報生成部1633と判定部1634とを有する。
 照合画像取得部1631は、照合対象の基板を撮影した画像(照合画像)をカメラ110から取得するように構成されている。
 特徴量抽出部1632は、照合画像取得部1631によって取得された照合対象基板の画像から、部品情報DB153に保存された部品の情報で特定される部品それぞれについて、位置ずれに依存する特徴量を抽出するように構成されている。
 個体識別情報生成部1633は、特徴量抽出部1632によって抽出された照合対象基板に係る特徴量から照合対象の基板の識別に用いられる個体識別情報を生成するように構成されている。
 判定部1634は、個体識別情報生成部1633によって生成された照合対象基板に係る個体識別情報と個体識別情報DB154に保存されている登録対象基板に係る個体識別情報とを比較することにより、照合対象の基板が何れの登録対象の基板と同一であるか否かを判定するように構成されている。また、判定部1634は、判定結果を画面表示部140に表示し、または/および、通信I/F部120を通じて外部の装置に出力するように構成されている。
 続いて、基板管理装置100の動作を説明する。基板管理装置100の動作は、前処理動作、登録動作、照合動作の3つに大別される。図2は、基板管理装置100の前処理動作と登録動作の一例を示すフローチャートである。また、図3は、基板管理装置100の照合動作の一例を示すフローチャートである。
 先ず、基板管理装置100の前処理動作を説明する。前処理動作では、図2に示されるように、登録画像取得部1611は、部品実装後の登録対象の複数の基板を撮影した複数の画像(登録画像)をカメラ110から取得し、登録画像DB152に登録する(ステップS1)。次に、部品決定部1612は、登録画像DB152から複数の登録画像を読み出し、その読み出した複数の登録画像それぞれから、基板に実装されている複数の部品それぞれの位置ずれを検出し、その検出した登録画像毎かつ部品毎の位置ずれのバラツキに基づいて、個体識別情報の生成に使用する複数の部品を決定し、部品情報DB153に登録する(ステップS2)。以上で前処理動作が終了する。
 基板管理装置100は、前処理動作を終了すると、登録動作を行う。登録動作では、図2に示されるように、先ず、特徴量抽出部1621は、登録画像DB152に保存された登録対象基板の画像毎に、部品情報DB153に保存された部品の情報で特定される部品それぞれについて、位置ずれに依存する特徴量を抽出する(ステップS3)。次に、個体識別情報生成部1622は、登録画像DB152に保存された登録対象基板の画像毎に、特徴量抽出部1621によって抽出された特徴量から基板の識別に用いられる個体識別情報を生成し、個体識別情報DB154に保存する(ステップS4)。以上で登録動作が終了する。
 次に、照合動作を説明する。照合動作では、図3に示されるように、先ず、照合画像取得部1631は、照合対象の基板を撮影した画像(照合画像)をカメラ110から取得する(ステップS5)。次に、特徴量抽出部1632は、照合画像取得部1631によって取得された照合対象基板の画像から、部品情報DB153に保存された部品の情報で特定される部品それぞれについて、位置ずれに依存する特徴量を抽出する(ステップS6)。次に、個体識別情報生成部1633は、特徴量抽出部1632によって抽出された照合対象基板に係る特徴量から照合対象の基板の識別に用いられる個体識別情報を生成する(ステップS7)。次に、判定部1634は、個体識別情報生成部1633によって生成された照合対象基板に係る個体識別情報と個体識別情報DB154に保存されている登録対象基板に係る個体識別情報とを比較することにより、照合対象の基板が何れの登録対象の基板と同一であるか否かを判定し、判定結果を出力する(ステップS8)。
 続いて、前処理部161、登録部162、および照合部163をより詳細に説明する。
 先ず、前処理部161について詳細に説明する。
 登録画像取得部1611は、回路基板製造工程で製造された部品実装後の基板の外観をカメラ110によって撮影する。一般に回路基板製造の最終検査工程では、基板の外観検査のために基板の外観を撮影することが行われている。登録画像取得部1611は、そのような外観検査のために撮影された基板の画像を登録画像として取得する。これによって、個体管理と外観検査とで別々に同じ基板を複数回にわたって撮影する手間とコストを削減することができる。但し、個体管理のためだけに基板を撮影するようにしてもよいことは勿論のことである。
 図4は、登録画像取得部1611が取得した登録対象基板を正面から撮影した画像の例を示す模式図である。外観検査では、このような画像に対して被検査部位の特徴を抽出するための2値化、抽出された特徴部分の良否判定などを実施し、検査結果を導出することになる。登録画像取得部1611は、撮影された基板の画像に対して、関連する情報を付加して、登録画像DB152に保存する。
 図5は、登録画像DB152のフォーマット例を示す。この例の登録画像DB152は、複数のエントリから構成され、1つのエントリは、基板番号、登録画像、検査結果、およびテンプレート画像フラグの各項目を有する。基板番号の項目には、登録対象となる基板に割り振られた通し番号などの基板番号が設定される。登録画像の項目には、登録対象となる基板を撮影した画像を記録するファイル名が設定される。検査結果の項目には、登録対象となる基板の外観検査の検査結果を記録するファイル名が設定される。テンプレート画像フラグの項目には、当該登録画像が位置ずれに依存する特徴量を抽出する際のテンプレート画像に設定されていればon値、そうでなければoff値が設定される。
 次に、部品決定部1612について詳細に説明する。
 図6は、部品決定部1612の動作例を示すフローチャートである。図6を参照すると、部品決定部1612は、先ず、登録画像DB152に保存されている複数の登録画像のうちの1つをテンプレート画像に設定する(ステップS11)。何れの登録画像をテンプレート画像に設定するかは任意であるが、例えば、部品決定部1612は、外観検査の検査結果で正常であると判定されている登録画像の中の任意の1枚をテンプレート画像に設定してよい。図5に示す登録画像DB152では、基板番号002のエントリのテンプレート画像フラグの項目にon値が設定され、それ以外のエントリのテンプレート画像フラグの項目にoff値が設定されている。即ち、部品決定部1612は、基板番号002の登録画像をテンプレート画像に設定している。
 次に部品決定部1612は、登録画像DB152から複数の登録画像を読み出し、その読み出した登録画像に対して、テンプレート画像との間の部品毎の位置ずれを算出する(ステップS12)。ここで、登録画像DB152から読み出す登録画像は、登録画像DB152に保存されている全ての登録画像であってもよいし、例えばランダムにサンプリングした所定枚数以上の登録画像であってもよい。以下、読み出した登録画像の枚数をS枚とする。登録画像とテンプレート画像との間の部品毎の位置ずれを算出する方法は任意である。例えば、部品決定部1612は、テンプレート画像と登録画像とのオプティカルフローを求めることにより、登録画像中の部品毎に、テンプレート画像中の対応する部品との位置ずれを検出してよい。なお、オプティカルフローを求める前に、例えば画像中の基板のエッジなどを基準にしてテンプレート画像と登録画像との位置合わせを行うようにしてよい。
 図7は、部品の位置ずれを説明する模式図である。画像中の基板のエッジが一致するようにテンプレート画像と登録画像とを重ね合わせた場合、位置ずれの無い部品では、部品Aに示すように、実線で示す登録画像中の部品Aの輪郭と破線で示すテンプレート画像中の部品Aの輪郭とが一致する。一方、位置ずれの有る部品では、部品B、Cに示すように、実線で示す登録画像中の部品B、Cの輪郭と破線で示すテンプレート画像中の部品B、Cの輪郭とにずれが生じる。位置ずれを算出する特徴点を、例えば部品の特定のエッジ(例えば左上頂点)とする場合、テンプレート画像中の部品Bの特定エッジを始点とし、登録画像中の部品Bの特定エッジを終点とするベクトルVBが、部品Bの位置ずれを表す。同様にベクトルVA、VCは、部品A、Cの位置ずれを表す。なお、ベクトルVAはゼロベクトルである。
 次に部品決定部1612は、部品毎の位置ずれのバラツキを算出する(ステップS13)。部品毎の位置ずれのバラツキを算出する方法は任意である。例えば、部品決定部1612は、以下に記載するような方法によって、部品毎の位置ずれのバラツキを算出してよい。
 図8は、部品の位置ずれのバラツキを算出する方法を説明する模式図である。図8において、ベクトルVBは或る登録画像中の部品Bの位置ずれを表すベクトルである。例えば、テンプレート画像中の基板の底辺に沿う線分をX軸、X軸に垂直な線分をY軸としたXY座標を設定すると、ベクトルVBは、長さLとX軸からの角度θとに分解できる。そこで、部品決定部1612は、先ず、S枚の登録画像中の部品Bの位置ずれベクトルVBから、θの平均値mθと、Lの平均値mLとを算出し、それに基づいてθの標準偏差Stdθと、Lの標準偏差StdLとを算出する。次に、部品決定部1612は、標準偏差の二乗和の平方根(Stdθ2+StdL21/2を算出し、その算出結果を部品Bの位置ずれのバラツキとする。部品決定部1612は、部品B以外の他の部品についても同様の方法によって位置ずれのバラツキを算出する。
 次に部品決定部1612は、バラツキの大きいものから順にn個の部品を特徴量抽出対象部品に決定する(ステップS14)。ここで、nは予め定められた2以上の正の整数である。
 次に部品決定部1612は、n個の特徴量抽出対象部品毎に、特徴量を量子化するための閾値を決定する(ステップS15)。例えば、位置ずれベクトルの長さを2値に量子化する場合、部品決定部1612は、n個の特徴量抽出対象部品毎に、当該部品の位置ずれベクトルの全ての長さ(S個の長さ)を昇順にソートし、昇順にソートされた順列の下位から50%の位置にある値を、当該部品の位置ずれベクトルの長さを2値に量子化するための1つの閾値THに決定する。また、位置ずれベクトルの長さを3値に量子化する場合、部品決定部1612は、上記順列の下位から33%、66%の位置にある値それぞれを、当該部品の位置ずれベクトルの長さを3値に量子化するための2つの閾値THL、THHに決定する。部品決定部1612は、位置ずれベクトルの方向を量子化するための閾値を上記と同様に決定する。
 次に部品決定部1612は、バラツキの小さいものから順にm個の部品を位置合わせ用部品に決定する(ステップS16)。ここで、mは予め定められた2以上の正の整数である。
 次に部品決定部1612は、上記で決定した特徴量抽出対象部品、閾値、および位置合わせ用部品に係る情報を、図9に示されるように、部品情報DB153に保存する。
 続いて、図10を参照して、登録部162について詳細に説明する。図10は、登録部162の動作の詳細を示すフローチャートである。
 先ず、登録部162の特徴量抽出部1621は、登録画像DB152に保存されている登録画像群のうちの1つの登録画像に注目する(ステップS21)。次に特徴量抽出部121は、登録画像DB152に設定されたテンプレート画像と注目中の登録画像の位置合わせを行う(ステップS22)。このとき、特徴量抽出部121は、部品情報DB153からm個の位置合わせ用部品の位置情報を読み出し、これらによって特定されるテンプレート画像中のm個の部品と注目中の登録画像中のm個の部品とがマッチするように両画像の位置合わせを行う。
 次に、特徴量抽出部1621は、部品情報DB153からn個の特徴量抽出対象部品の位置情報を読み出し、これらによって特定される注目中の登録画像におけるn個の部品の所定の特徴点の位置ずれベクトルv1,v2,…,vnを算出する(ステップS23)。
 次に、特徴量抽出部1621は、部品情報DB153からn個の特徴量抽出対象部品の閾値TH1,TH2,…,THnを読み出し、これらの閾値を使用して注目中の登録画像から算出したn個の部品の位置ずれベクトルv1,v2,…,vnの長さvl1,vl2,…,vlnおよび方向vθ1,vθ2,…,vθnのそれぞれをQl1,Ql2,…,QlnおよびQθ1,Qθ2,…,Qθnに量子化する(ステップS24)。
 例えば、特徴量抽出部1621は、2値の量子化では、例えば下記の式1に従って、位置ずれベクトルvi(iは1からnの何れか)の長さvliを量子化値Qliに量子化する。但し、THliはベクトルviの長さvliを2値に量子化するための閾値である。
 Qli=+1 (vli<THli)
    =0 (vli≧THli)  …(1)
 また、特徴量抽出部1621は、2値の量子化では、例えば下記の式2に従って、位置ずれベクトルviの方向vθiを量子化値Qθiに量子化する。但し、THθiはベクトルviの方向vθiを2値に量子化するための閾値である。
 Qθi=+1 (0≦vθi<THθi)
    =0 (THθi≦vθi<360°)  …(2)
 また、特徴量抽出部1621は、3値の量子化では、例えば下記の式3に従って、位置ずれベクトルviの長さvliを量子化値Qliに量子化する。但し、THlHi、THlLi(THlHi>THlLi)はベクトルviの長さvliを3値に量子化する閾値である。
 Qli=+1 (vli<THlLi)
    =0 (THlLi≦vli<THlHi)
    =-1 (vli≧THlHi)  …(3)
 また、特徴量抽出部1621は、3値の量子化では、例えば下記の式4に従って、位置ずれベクトルviの方向vθiを量子化値Qθiに量子化する。但し、THθHi、THθLi(THθHi>THθLi)はベクトルviの方向vθiを3値に量子化するための閾値である。
 Qθi=+1 (0≦vθi<THθLi)
    =0 (THθLi≦vθi<THθHi)
    =-1 (THθHi≦vθi<360°)  …(4)
 次に、個体識別情報生成部1622は、特徴量抽出対象部品毎の量子化特徴量を組み合わせて、注目中の登録画像の個体識別情報を生成する(ステップS25)。例えば、個体識別情報生成部1622は、部品情報DB153に保存されている特徴量抽出対象部品の情報のエントリ順に、量子化特徴量を連結することによって、個体識別情報を生成してもよい。1つの特徴量抽出対象部品の量子化特徴量のビット数をpとすると、個体識別情報のサイズは、p×nビットになる。次に、個体識別情報生成部1622は、注目中の登録画像の個体識別情報を個体識別情報DB154に保存する(ステップS26)。
 登録部162は、注目中の登録画像の個体識別情報を個体識別情報DB154に保存すると、登録画像DB152に保存されている残りの1つの登録画像に注目を移し(ステップS27)、ステップS22に戻って、上述した処理と同様の処理を繰り返す。登録部162は、登録画像DB152に保存されている全ての登録画像に注目し終えると(ステップS28でYES)、図10の処理を終了する。
 図11は、個体識別情報DB154のフォーマットの例を示す。この例の個体識別情報DB154は、登録画像に1対1に対応する複数のエントリから構成され、各エントリは、個体識別情報、および基板番号の各項目を有する。個体識別情報の項目には、登録画像から生成された個体識別情報が設定される。基板番号の項目には、登録画像に対して登録画像DB152に設定されていた基板番号が設定される。
 続いて、図12を参照して、照合部163について詳細に説明する。図12は、照合部163の動作の詳細を示すフローチャートである。
 先ず、照合部163の照合画像取得部1631は、照合対象の基板を撮影した画像(照合画像)をカメラ110から取得する(ステップS31)。次に、特徴量抽出部1632および個体識別情報生成部1633は、登録部162における特徴量抽出部1621および個体識別情報生成部1622と同様の処理を照合画像に対して実施することにより、照合画像から個体識別情報を生成する(ステップS32)。
 次に判定部1634は、個体識別情報DB154に保存されている登録画像の個体識別情報毎に、照合画像の個体識別情報との間の類似度を算出する(ステップS33)。例えば、個体識別情報が上述したp×nビットで表現される場合、登録画像の個体識別情報を表すp×nビットと、照合画像の個体識別情報を表すp×nビットとの間のハミング距離を類似度として算出してよい。このとき、類似度の値が0に近いほど、登録画像の個体識別情報と照合画像の個体識別情報とが類似する程度が高いことを表す。次に判定部1634は、上記算出した複数の類似度のうち最良の類似度が閾値より大きいか否かを判定する(ステップS34)。前述したハミング距離を類似度とする場合、最良の類似度を示すハミング距離が閾値より小さいか否かを判定することになる。次に判定部1634は、最良の類似度が閾値より大きければ、照合画像に係る回路基板は最良の類似度が算出された個体識別情報を有する登録画像に係る回路基板と同一であると判定する(ステップS35)。一方、判定部1634は、最良の類似度が閾値より小さければ、照合画像に係る回路基板と同一の回路基板は登録されていないと判定する(ステップS36)。次に判定部1634は、判定結果を出力する(ステップS37)。このとき、判定部1634は、照合画像に係る回路基板と同一と判定された回路基板の基板番号、および検査結果を登録画像DB152から読み出して、判定結果と一緒に出力するようにしてもよい。
 このように本実施形態によれば、微小な位置ずれに依存する特徴量を抽出する部品の数を無駄に増加させずに、異なる基板を識別できる度合いである識別能力を高めることができる。その理由は、基板に実装された部品群のうち位置ずれのバラツキの大きい上位n個の部品に限定して位置ずれに依存する特徴量を抽出するためである。
 続いて、本実施形態の変形例について説明する。
 上記説明では、部品決定部1612は、複数の基板を撮影した複数の登録画像それぞれから、登録画像中の複数の部品それぞれの位置ずれを検出した。しかし、部品決定部1612は、3次元形状計測装置を使って複数の基板上の個々の部品の位置ずれを計測してもよい。
 上記説明では、部品決定部1612は、基板上の部品毎の位置ずれのバラツキに基づいて、特徴量抽出対象部品を決定した。しかし、部品決定部1612は、基板上の部品群のうちリフロー方式によって基板にはんだ付けされた複数の部品について、セルフアライメント効果が期待できる程度を表すスコアを算出し、そのスコアに基づいて、特徴量抽出対象部品を決定してもよい。例えば、前述したようにセルフアライメント機能は、はんだ表面張力と部品自重の相対関係にあるため、軽い部品で有効となる。そのため、基板上の部品群のうち軽い部品は位置ずれのバラツキは小さいと考えられる。一方、重い部品はセルフアライメント機能が充分に機能しないため、位置ずれのバラツキは大きいと考えられる。従って、部品決定部1612は、基板上の部品毎の重量に基づいて、重量が軽いほど高くなるスコアを算出し、スコアの下位n個の部品を特徴量抽出対象部品に決定するようにしてもよい。或いは、基板を正面から撮影した部品の表面積は、部品の重量が軽い程に小さくなる傾向があるため、部品の表面積が小さいほど高くなるスコアを算出し、スコアの下位n個の部品を特徴量抽出対象部品に決定するようにしてもよい。
 上記説明では、特徴量抽出部1621は、テンプレート画像と登録画像の位置合わせを、部品情報DB153に保存された位置合わせ用の部品を用いて行った。しかし、特徴量抽出部1621は、テンプレート画像と登録画像の位置合わせを、例えば基板のエッジを基準に行ってもよい。
 上記説明では、特徴量抽出部1621は、登録画像中の部品の特徴点とテンプレート画像中の部品の特徴点との位置ずれベクトルを、登録画像中の当該部品の位置ずれに依存する特徴量として算出した。しかし、特徴量抽出部1621は、特許文献2に記載される方法と同様に、登録画像中の基板画像から任意のエッジを抽出し、抽出されたエッジを基準として特徴量抽出対象部品の位置に関する特徴量を、部品の位置ずれに依存する特徴量として算出してもよい。また、特徴量抽出部1621は、特徴量抽出対象部品の位置ずれに依存する特徴量は、位置情報ではなく、部品領域の色相情報や輝度情報などであってもよい。また、特徴量抽出部1621は、部品領域の輝度情報から算出される輝度の勾配の統計量に基づく特徴や、輝度情報のフーリエ変換等によって得られる周波数特徴や、部品領域内の任意の画素ペアを取り出し、その輝度の大小関係から得られた二値特徴などを、特徴量抽出対象部品の位置ずれに依存する特徴量としてもよい。
 上記説明では、特徴量抽出部1621は、登録画像中の部品の特徴点とテンプレート画像中の部品の特徴点との位置ずれベクトルviの長さvliと方向vθiとをそれぞれQliとQθiとに量子化し、個体識別情報生成部1622は、部品毎の量子化値を連結することによって個体識別情報を生成した。しかし、特徴量抽出部1621は、部品毎に抽出した上記位置ずれベクトルviを量子化せずにそのまま個体識別情報生成部1622に伝達し、個体識別情報生成部1622は、部品毎の位置ずれベクトルviを単純に並べたベクトル列(v1,v2,…,vn)を個体識別情報として生成してもよい。このような形式の個体識別情報を使用する場合、判定部1634は、登録画像の個体識別情報と照合画像の個体識別情報との間の対応する部品毎に、2つの位置ずれベクトルviのコサイン距離(コサイン類似度)あるいはユークリッド距離を算出し、それらの総和を上記2つの個体識別情報の類似度として算出してよい。このような類似度計算は、上述した輝度情報や輝度情報から得られる輝度勾配等の特徴量を用いる場合にも適用できる。
 上記説明では、判定部1634は、n個の特徴量抽出対象部品を等しく扱って、登録画像の個体識別情報と照合画像の個体識別情報との類似度を算出した。しかし、n個の特徴量抽出対象部品の間にも、位置ずれのバラツキの程度に差異がある。そして、位置ずれのバラツキの程度が大きい部品は、その程度が小さい部品と比較して、異なる基板を識別できる度合いである識別能力が高いと考えられる。そのため、部品決定部1612は、バラツキの大きい順にn個の部品を特徴量抽出対象部品として決定するだけでなく、位置ずれのバラツキの程度がより大きい部品ほど大きな重みを付与し、逆に位置ずれのバラツキの程度がより小さい部品ほど小さな重みを付与するようにしてよい。そして、判定部1634は、部品の重みを考慮して、登録画像の個体識別情報と照合画像の個体識別情報との類似度を算出するようにしてもよい。例えば、判定部1634は、バラツキの大きい部品の特徴量間の類似度には大きな重みを乗じ、バラツキが小さい部品の特徴量間の類似度には小さな重みを乗じ、重み付け和で照合スコア(最終的な類似度)を算出してよい。
 上記説明では、1台の基板管理装置100が、前処理部161、登録部162、および照合部163を備えていた。しかし、前処理部161を備え、登録部162および照合部163を備えない基板管理装置や、登録部162を備え、前処理部161および照合部163を備えない基板管理装置や、照合部163を備え、前処理部161および登録部162を備えない基板管理装置があってもよい。或いは、前処理部161、登録部162、および照合部163の何れか2つだけを備え、残りの1つを備えない基板管理装置があってもよい。
[第2の実施の形態]
 次に、本発明の第2の実施の形態について図13を参照して説明する。図13は、本実施の形態における基板管理システムの構成を示すブロック図である。
 図13に示すように、本実施の形態に係る基板管理システム200は、抽出手段201と生成手段202とを備えている。
 抽出手段201は、基板を撮影した基板画像中の複数の部品のうち、部品実装位置のバラツキ度合いに基づいて事前に決定された複数の特定部品それぞれについて、位置ずれに依存する特徴量を抽出するように構成されている。抽出手段201は、例えば図1の特徴量抽出部1621または特徴量抽出部1632によって実現することができるが、それに限定されない。
 生成手段202は、抽出手段201によって抽出された特徴量から基板の識別に用いられる個体識別情報を生成するように構成されている。生成手段202は、例えば図1の個体識別情報生成部1622または個体識別情報生成部1633によって実現することができるが、それに限定されない。
 以上のように構成された基板管理システム200は、以下のように動作する。即ち、先ず抽出手段201は、基板を撮影した基板画像中の複数の部品のうち、部品実装位置のバラツキ度合いに基づいて事前に決定された複数の特定部品それぞれについて、位置ずれに依存する特徴量を抽出する。次に生成手段202は、抽出手段201によって抽出された特徴量から基板の識別に用いられる個体識別情報を生成する。
 本実施形態に係る基板管理システム200は、以上のように構成され動作することにより、位置ずれに依存する特徴量を抽出する部品の数を無駄に増加させずに、異なる基板を識別できる度合いである識別能力を高めることができる。その理由は、基板画像中の複数の部品のうち、部品実装位置のバラツキ度合いに基づいて事前に決定された複数の特定部品それぞれについて、位置ずれに依存する特徴量を抽出するためである。
 以上、上記各実施形態を参照して本発明を説明したが、本発明は、上述した実施形態に限定されるものではない。本発明の構成や詳細には、本発明の範囲内で当業者が理解しうる様々な変更をすることができる。
 本発明は、複数の部品を実装した回路基板を一意に識別する個体識別情報を生成するのに利用でき、特にリフロー方式によって基板に接合された複数の部品を実装した回路基板の個体識別情報を生成するのに利用できる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
[付記1]
 基板を撮影した基板画像中の複数の部品のうち、部品実装位置のバラツキ度合いに基づいて事前に決定された複数の特定部品それぞれについて、位置ずれに依存する特徴量を抽出する抽出手段と、
 前記抽出された特徴量から前記基板の識別に用いられる個体識別情報を生成する生成手段と、
を備える基板管理システム。
[付記2]
 複数の基板を撮影した複数の基板画像それぞれから、前記基板画像中の複数の部品それぞれの位置ずれを検出し、前記部品毎の位置ずれのバラツキに基づいて、前記複数の特定部品を決定する決定手段を、
さらに備える付記1に記載の基板管理システム。
[付記3]
 リフロー方式によって前記基板にはんだ付けされた複数の部品について、セルフアライメント効果が期待できる程度を表すスコアを算出し、前記スコアに基づいて、前記複数の特定部品を決定する決定手段を、
さらに備える付記1に記載の基板管理システム。
[付記4]
 生成された個体識別情報を前記基板の個体識別情報としてデータベースに保存する登録手段を、
さらに備える付記1乃至3の何れかに記載の基板管理システム。
[付記5]
 生成された個体識別情報を事前に生成されデータベースに予め登録されている登録対象の基板の個体識別情報と照合する照合手段を、
さらに備える付記1乃至4の何れかに記載の基板管理システム。
[付記6]
 基板を撮影した基板画像中の複数の部品のうち、部品実装位置のバラツキ度合いに基づいて事前に決定された複数の特定部品それぞれについて、位置ずれに依存する特徴量を抽出し、
 前記抽出された特徴量から前記基板の識別に用いられる個体識別情報を生成する、
基板管理方法。
[付記7]
 さらに、複数の基板を撮影した複数の基板画像それぞれから、前記基板画像中の複数の部品それぞれの位置ずれを検出し、前記部品毎の位置ずれのバラツキに基づいて、前記複数の特定部品を決定する、
付記6に記載の基板管理方法。
[付記8]
 さらに、リフロー方式によって前記基板にはんだ付けされた複数の部品について、セルフアライメント効果が期待できる程度を表すスコアを算出し、前記スコアに基づいて、前記複数の特定部品を決定する、
付記6に記載の基板管理方法。
[付記9]
 さらに、生成された個体識別情報を前記基板の個体識別情報としてデータベースに保存する、
付記6乃至8の何れかに記載の基板管理方法。
[付記10]
 さらに、生成された個体識別情報を事前に生成されデータベースに予め登録されている登録対象の基板の個体識別情報と照合する、
付記6乃至9の何れかに記載の基板管理方法。
[付記11]
 コンピュータに、
 基板を撮影した基板画像中の複数の部品のうち、部品実装位置のバラツキ度合いに基づいて事前に決定された複数の特定部品それぞれについて、位置ずれに依存する特徴量を抽出する処理と、
 前記抽出された特徴量から前記基板の識別に用いられる個体識別情報を生成する処理と、
を行わせるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
100…基板管理装置
110…カメラ
120…通信I/F部
130…操作入力部
140…画面表示部
150…記憶部
160…演算処理部

Claims (11)

  1.  基板を撮影した基板画像中の複数の部品のうち、部品実装位置のバラツキ度合いに基づいて事前に決定された複数の特定部品それぞれについて、位置ずれに依存する特徴量を抽出する抽出手段と、
     前記抽出された特徴量から前記基板の識別に用いられる個体識別情報を生成する生成手段と、
    を備える基板管理システム。
  2.  複数の基板を撮影した複数の基板画像それぞれから、前記基板画像中の複数の部品それぞれの位置ずれを検出し、前記部品毎の位置ずれのバラツキに基づいて、前記複数の特定部品を決定する決定手段を、
    さらに備える請求項1に記載の基板管理システム。
  3.  リフロー方式によって前記基板にはんだ付けされた複数の部品について、セルフアライメント効果が期待できる程度を表すスコアを算出し、前記スコアに基づいて、前記複数の特定部品を決定する決定手段を、
    さらに備える請求項1に記載の基板管理システム。
  4.  生成された個体識別情報を前記基板の個体識別情報としてデータベースに保存する登録手段を、
    さらに備える請求項1乃至3の何れかに記載の基板管理システム。
  5.  生成された個体識別情報を事前に生成されデータベースに予め登録されている登録対象の基板の個体識別情報と照合する照合手段を、
    さらに備える請求項1乃至4の何れかに記載の基板管理システム。
  6.  基板を撮影した基板画像中の複数の部品のうち、部品実装位置のバラツキ度合いに基づいて事前に決定された複数の特定部品それぞれについて、位置ずれに依存する特徴量を抽出し、
     前記抽出された特徴量から前記基板の識別に用いられる個体識別情報を生成する、
    基板管理方法。
  7.  さらに、複数の基板を撮影した複数の基板画像それぞれから、前記基板画像中の複数の部品それぞれの位置ずれを検出し、前記部品毎の位置ずれのバラツキに基づいて、前記複数の特定部品を決定する、
    請求項6に記載の基板管理方法。
  8.  さらに、リフロー方式によって前記基板にはんだ付けされた複数の部品について、セルフアライメント効果が期待できる程度を表すスコアを算出し、前記スコアに基づいて、前記複数の特定部品を決定する、
    請求項6に記載の基板管理方法。
  9.  さらに、生成された個体識別情報を前記基板の個体識別情報としてデータベースに保存する、
    請求項6乃至8の何れかに記載の基板管理方法。
  10.  さらに、生成された個体識別情報を事前に生成されデータベースに予め登録されている登録対象の基板の個体識別情報と照合する、
    請求項6乃至9の何れかに記載の基板管理方法。
  11.  コンピュータに、
     基板を撮影した基板画像中の複数の部品のうち、部品実装位置のバラツキ度合いに基づいて事前に決定された複数の特定部品それぞれについて、位置ずれに依存する特徴量を抽出する処理と、
     前記抽出された特徴量から前記基板の識別に用いられる個体識別情報を生成する処理と、
    を行わせるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2020/008068 2020-02-27 2020-02-27 基板管理システム WO2021171493A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2020/008068 WO2021171493A1 (ja) 2020-02-27 2020-02-27 基板管理システム
JP2022502723A JP7276592B2 (ja) 2020-02-27 2020-02-27 基板管理システム
US17/798,126 US20230073961A1 (en) 2020-02-27 2020-02-27 Board management system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/008068 WO2021171493A1 (ja) 2020-02-27 2020-02-27 基板管理システム

Publications (1)

Publication Number Publication Date
WO2021171493A1 true WO2021171493A1 (ja) 2021-09-02

Family

ID=77491120

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/008068 WO2021171493A1 (ja) 2020-02-27 2020-02-27 基板管理システム

Country Status (3)

Country Link
US (1) US20230073961A1 (ja)
JP (1) JP7276592B2 (ja)
WO (1) WO2021171493A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016178157A (ja) * 2015-03-19 2016-10-06 日本電気株式会社 識別装置、識別方法およびトレーサビリティシステム
JP2018113336A (ja) * 2017-01-12 2018-07-19 パナソニックIpマネジメント株式会社 部品実装システムおよび部品実装方法ならびに補正値算出装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016178157A (ja) * 2015-03-19 2016-10-06 日本電気株式会社 識別装置、識別方法およびトレーサビリティシステム
JP2018113336A (ja) * 2017-01-12 2018-07-19 パナソニックIpマネジメント株式会社 部品実装システムおよび部品実装方法ならびに補正値算出装置

Also Published As

Publication number Publication date
JPWO2021171493A1 (ja) 2021-09-02
US20230073961A1 (en) 2023-03-09
JP7276592B2 (ja) 2023-05-18

Similar Documents

Publication Publication Date Title
CN108291876B (zh) 用于检测产品的真实性的系统及方法
JP6308370B2 (ja) 識別方法、識別システム、照合装置及びプログラム
WO2016035774A1 (ja) 判定方法、判定システム、判定装置、及びそのプログラム
US20120070086A1 (en) Information reading apparatus and storage medium
CN104603833B (zh) 用于将印刷对象与电子内容链接的方法和系统
TWI716012B (zh) 樣本標註方法、裝置、儲存媒體和計算設備、損傷類別的識別方法及裝置
JP6810392B2 (ja) 個体識別装置
JP6645007B2 (ja) 基板の識別装置、基板の識別方法、及び基板のトレーサビリティシステム
JP6739902B2 (ja) 識別装置、識別方法およびトレーサビリティシステム
CN112001200A (zh) 识别码识别方法、装置、设备、存储介质和系统
JP2020170907A (ja) 監視システム及び監視方法
Mukhopadhyay et al. PCB inspection in the context of smart manufacturing
JP2010226580A (ja) 色補正方法及び撮像システム
WO2021171493A1 (ja) 基板管理システム
JP2002163637A (ja) 画像検査装置及び画像検査方法
CN107609559B (zh) 一种基于vr防伪技术的识别方法和系统
JP4814116B2 (ja) 実装基板外観検査方法
JP6729111B2 (ja) 識別装置、トレーサビリティシステムおよび識別方法
WO2021199123A1 (ja) 個体識別システム、個体識別方法及びコンピュータ読み取り可能な記録媒体
CN115631169A (zh) 产品检测方法、装置、电子设备及存储介质
JP2016126515A (ja) オブジェクト認識スキャナシステム
JP7095574B2 (ja) 画像処理プログラム、画像処理方法、および画像処理装置
US20210392285A1 (en) Image sensor for optical code recognition
JP7176638B2 (ja) 照合位置出力システム
JP2006119763A (ja) 鑑定支援システム、鑑定支援方法および鑑定支援プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20920859

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022502723

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20920859

Country of ref document: EP

Kind code of ref document: A1