WO2024062597A1 - 部品認識装置および部品認識方法 - Google Patents

部品認識装置および部品認識方法 Download PDF

Info

Publication number
WO2024062597A1
WO2024062597A1 PCT/JP2022/035375 JP2022035375W WO2024062597A1 WO 2024062597 A1 WO2024062597 A1 WO 2024062597A1 JP 2022035375 W JP2022035375 W JP 2022035375W WO 2024062597 A1 WO2024062597 A1 WO 2024062597A1
Authority
WO
WIPO (PCT)
Prior art keywords
component
recognition
blob
unit
selection
Prior art date
Application number
PCT/JP2022/035375
Other languages
English (en)
French (fr)
Inventor
勇太 横井
貴紘 小林
恵市 小野
幹也 鈴木
Original Assignee
株式会社Fuji
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Fuji filed Critical 株式会社Fuji
Priority to PCT/JP2022/035375 priority Critical patent/WO2024062597A1/ja
Publication of WO2024062597A1 publication Critical patent/WO2024062597A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes

Definitions

  • This specification discloses a technology related to a component recognition device and a component recognition method.
  • the component mounting machine described in Patent Document 1 includes an image processing section and a state recognition section.
  • the image processing unit divides at least a partial region of the component and a background region in the image data obtained by imaging with the camera based on brightness.
  • the state recognition unit recognizes the supply state of the component based on at least one of the area and shape of a component region occupied by at least a portion of the component in the image data subjected to image processing.
  • the component mounting machine performs component recognition processing by performing image processing on image data of a component to be mounted on a board.
  • chip components such as rectangular parallelepiped resistors and capacitors are supplied in large quantities and need to be mounted on boards at high speed compared to lead components. Therefore, it is assumed that component recognition processing is performed using blob candidates extracted by image processing image data. In this case, depending on the method for selecting blob candidates used in the component recognition process or the order in which the blob candidates are used, the time required for the component recognition process may increase.
  • this specification discloses a parts recognition device and a parts recognition method that can reduce the time required for parts recognition processing.
  • This specification discloses a component recognition device that includes an extraction section and a selection section.
  • the extraction unit performs image processing on image data of a component to be mounted on a board, and extracts a plurality of blob candidates that are closed regions of a part of the component and can be used for recognition processing of the component.
  • the selection unit sets a rectangular area circumscribing at least one of the plurality of blob candidates extracted by the extraction unit, and determines the inclination angle of the part in an ideal state in which the part is correctly arranged.
  • a first selection is performed in which the ideal angle and the inclination angle of the rectangular area are compared, and the blob candidates in the rectangular area that are close to the ideal angle of the part are selected as targets for the recognition process.
  • this specification discloses a component recognition device that includes an extraction section, an assignment section, and a recognition section.
  • the extraction unit performs image processing on image data of a component to be mounted on a board, and extracts a plurality of blob candidates that are closed regions of a part of the component and can be used for recognition processing of the component.
  • the assigning unit assigns priorities for use in the recognition process to the plurality of blob candidates extracted by the extracting unit.
  • the recognition unit attempts the recognition process in the order of the blob candidates having the highest priority assigned by the assignment unit.
  • this specification discloses a component recognition method comprising an extraction step and a selection step.
  • image data of a component to be mounted on a board is captured by image processing to extract a plurality of blob candidates that are closed regions of a part of the component and can be used for recognition processing of the component.
  • the selection step sets a rectangular area circumscribing at least one of the plurality of blob candidates extracted by the extraction step, and determines the inclination angle of the component in an ideal state in which the component is correctly placed.
  • a first selection is performed in which the ideal angle and the inclination angle of the rectangular area are compared, and the blob candidates in the rectangular area that are close to the ideal angle of the part are selected as targets for the recognition process.
  • this specification discloses a component recognition method that includes an extraction step, an application step, and a recognition step.
  • image data of a component to be mounted on a board is captured by image processing to extract a plurality of blob candidates that are closed regions of a part of the component and can be used for recognition processing of the component.
  • the assigning step assigns priorities for use in the recognition process to the plurality of blob candidates extracted in the extracting step.
  • the recognition process is attempted in order from the blob candidates with the highest priority assigned in the assignment step.
  • a blob candidate having a rectangular area close to the ideal angle of the part can be selected as the target for recognition processing, and the time required for part recognition processing can be reduced compared to when an appropriate blob candidate is not selected.
  • recognition processing can be attempted in order of priority of blob candidates, and the time required for part recognition processing can be reduced compared to when the order of use of blob candidates is not determined. What has been described above about the part recognition device can also be said about the part recognition method.
  • FIG. 2 is a plan view showing a configuration example of a component mounting machine. It is a schematic diagram which shows an example of the image data which imaged the component hold
  • FIG. 2 is a schematic diagram showing an example of setting a coordinate system. 10 is a schematic diagram showing an example of blob candidates extracted by an extraction unit; FIG. 13 is a schematic diagram showing another example of blob candidates extracted by the extraction unit; FIG. It is a block diagram showing another example of a control block of a parts recognition device. It is a flow chart which shows another example of a control procedure by a parts recognition device.
  • Embodiment 1-1 Configuration example of component mounting machine 10
  • the component recognition devices 50a and 50b can be applied to the component mounting machine 10.
  • the component mounting machine 10 mounts a plurality of components 91 onto a board 90.
  • the component mounting machine 10 of the embodiment includes a board transport device 11, a component supply device 12, a component transfer device 13, a component camera 14, a board camera 15, and a control device 16.
  • the substrate conveyance device 11 is constituted by, for example, a belt conveyor, and conveys the substrate 90 in the conveyance direction (X-axis direction).
  • the substrate 90 is a circuit board on which an electronic circuit, an electric circuit, a magnetic circuit, etc. are formed.
  • the board transport device 11 carries the board 90 into the component mounting machine 10 and positions the board 90 at a predetermined position inside the machine.
  • the board transport device 11 carries the board 90 out of the component mounting machine 10 after the mounting process of the plurality of components 91 by the component mounting machine 10 is completed.
  • the component supply device 12 supplies a plurality of components 91 to be mounted on the board 90.
  • the component supply device 12 includes a plurality of feeders 12a provided along the conveyance direction (X-axis direction) of the substrate 90.
  • Each of the plurality of feeders 12a is equipped with a reel.
  • a carrier tape containing a plurality of parts 91 is wound around the reel.
  • the feeder 12a feeds the carrier tape in pitches and supplies the component 91 so that it can be picked up at a supply position located on the tip side of the feeder 12a.
  • the component supply device 12 can also include a bulk feeder that feeds components 91 housed in a bulk state (a state in which the postures of the plurality of components 91 are irregular) so as to be collectable. Further, the component supply device 12 can also supply electronic components (for example, lead components) that are relatively large compared to chip components and the like, arranged on a tray.
  • a bulk feeder that feeds components 91 housed in a bulk state (a state in which the postures of the plurality of components 91 are irregular) so as to be collectable.
  • the component supply device 12 can also supply electronic components (for example, lead components) that are relatively large compared to chip components and the like, arranged on a tray.
  • the component transfer device 13 includes a head drive device 13a and a moving table 13b.
  • the head drive device 13a is configured to be able to move the movable table 13b in the X-axis direction and the Y-axis direction (direction perpendicular to the X-axis direction in the horizontal plane) using a linear motion mechanism.
  • a mounting head 20 is removably (replaceably) provided on the movable table 13b using a clamp member.
  • the mounting head 20 uses at least one holding member 30 to pick up and hold the component 91 supplied by the component supply device 12, and mounts the component 91 onto the substrate 90 positioned by the substrate transfer device 11.
  • a suction nozzle, a chuck, etc. can be used as the holding member 30.
  • the component camera 14 and the board camera 15 known imaging devices can be used.
  • the component camera 14 is fixed to the base of the component mounting machine 10 so that its optical axis faces upward in the vertical direction (Z-axis direction perpendicular to the X-axis direction and the Y-axis direction).
  • the component camera 14 can image the component 91 held by the holding member 30 from below.
  • the board camera 15 is provided on the movable table 13b of the component transfer device 13 so that its optical axis points downward in the vertical direction (Z-axis direction).
  • the board camera 15 can image the board 90 from above.
  • the component camera 14 and the board camera 15 perform imaging based on control signals sent from the control device 16. Image data of captured images captured by the component camera 14 and the board camera 15 is transmitted to the control device 16.
  • the control device 16 includes a known arithmetic unit and a storage device, and constitutes a control circuit. Information, image data, etc. output from various sensors provided in the component mounting machine 10 are input to the control device 16. The control device 16 sends control signals to each device based on a control program and predetermined mounting conditions set in advance.
  • control device 16 causes the board camera 15 to capture an image of the board 90 positioned by the board transport device 11.
  • the control device 16 processes the image captured by the board camera 15 to recognize the positioning state of the board 90.
  • the control device 16 also causes the holding member 30 to pick up and hold the component 91 supplied by the component supply device 12, and causes the component camera 14 to capture an image of the component 91 held by the holding member 30.
  • the control device 16 processes the image captured by the component camera 14 to recognize the holding posture of the component 91.
  • the control device 16 moves the holding member 30 upward from a scheduled mounting position that is preset by a control program or the like. Further, the control device 16 corrects the scheduled mounting position based on the positioning state of the board 90, the holding posture of the component 91, etc., and sets the mounting position where the component 91 is actually mounted.
  • the scheduled mounting position and the mounting position include the rotation angle in addition to the position (X-axis coordinate and Y-axis coordinate).
  • the control device 16 corrects the target position (X-axis coordinate and Y-axis coordinate) and rotation angle of the holding member 30 according to the mounting position.
  • the control device 16 lowers the holding member 30 at the corrected rotation angle at the corrected target position, and mounts the component 91 on the board 90.
  • the control device 16 executes a mounting process for mounting a plurality of components 91 on the board 90 by repeating the above pick-and-place cycle.
  • the component mounting device 10 performs image processing on image data of a component 91 to be mounted on a board 90 to recognize the component 91.
  • the recognition process includes a process of recognizing the position of the component 91 with respect to the reference member based on the image data. For example, in the case of image data obtained by capturing an image of the component 91 held by the holding member 30, the component mounting machine 10 recognizes at least the position of the component 91 with respect to the holding member 30 based on the image data.
  • chip components such as rectangular parallelepiped resistors and capacitors are supplied in large quantities and need to be mounted on the board 90 at high speed compared to lead components. Therefore, it is assumed that recognition processing of the component 91 is performed using a closed region (blob 80) extracted by image processing the image data.
  • FIG. 2 shows an example of image data captured by the component camera 14 of the component 91 held by the holding member 30.
  • the component 91 when the component 91 is a chip component, the component 91 includes an electrode area A11 and an electrode area A12, which are electrode area areas, and a main body area A13, which is a main body area.
  • the electrode area A11 and the electrode area A12 have a metallic color (silver color).
  • the main body area A13 on the back side of the component 91 is, for example, black.
  • the main body area A13 on the back side of the component 91 is, for example, white.
  • the component 91 when the image data shown in FIG. 2 is image-processed by binarization processing, when the component 91 is a chip resistor, since the main body area A13 and the background of the component 91 are black, the closed area corresponding to the electrode area A11 ( The blob 81) and the closed region (blob 82) corresponding to the electrode region A12 are easily extracted.
  • the component 91 is a chip capacitor, the main body area A13 is white, and the brightness of the main body area A13 is close to the brightness of the metal color (silver color) of the electrode areas A11 and A12, so that a closed area corresponding to the entire component 91 is formed. (Blob 83) becomes easier to extract.
  • the component mounting machine 10 When a plurality of (in the above example, two) closed regions (blobs 80) are extracted, the component mounting machine 10 combines them to form one closed region (blob 83), and recognizes the component 91. can be processed. In this way, when there are multiple closed regions (multiple blob candidates 60) that can be used for recognition processing of the component 91, the recognition processing of the component 91 may fail depending on the selection method of the blob candidates 60, and the recognition processing of the component 91 may fail. The time required for recognition processing may increase.
  • the component mounting machine 10 includes a component recognition device 50a. Furthermore, as will be described later, the component mounting machine 10 can also include a component recognition device 50b.
  • the component recognition device 50a When viewed as a control block, the component recognition device 50a includes an extraction section 51 and a selection section 52a.
  • the component recognition device 50a can also include a recognition section 53.
  • the component recognition device 50a of the embodiment includes an extraction section 51, a selection section 52a, and a recognition section 53.
  • the component recognition device 50a can be provided in various control devices.
  • the component recognition device 50a can be provided in the control device 16 of the component mounting machine 10, a line management device that manages a production line including the component mounting machine 10, a management device higher than the line management device, or the like.
  • the component recognition device 50a can also be formed on the cloud.
  • the extraction section 51, the selection section 52a, and the recognition section 53 are provided in the control device 16 of the component mounting machine 10.
  • the component recognition device 50a of the embodiment executes control according to the flowchart shown in FIG. 4.
  • the extraction unit 51 performs the processing and determination shown in steps S11 to S14.
  • the selection unit 52a performs the processing and judgment shown in steps S15a to S18a.
  • the recognition unit 53 performs the processing shown in steps S19 to S21.
  • Extraction part 51 The extraction unit 51 performs image processing on image data of a component 91 to be mounted on a board 90 and extracts a plurality of blob candidates 60 that are partial closed regions of the component 91 and can be used for recognition processing of the component 91. do.
  • the blob candidate 60 is synonymous with the previously described closed region (blob 80), but differs from the blob 80 in that the shape of the closed region that is actually extracted is taken into consideration.
  • the closed area that is actually extracted may be a partial area of the area corresponding to electrode area A11 (shown as an oval in the figures for ease of illustration).
  • the closed area (blob 82) corresponding to electrode area A12 may be a partial area of the area corresponding to electrode area A11 (shown as an oval in the figures for ease of illustration).
  • the closed area (blob 82) corresponding to electrode area A12 may be a partial area of the area corresponding to electrode area A12, and also for the single closed area (blob 83) formed by combining blobs 81 and 82.
  • the extraction unit 51 may take various forms as long as it is capable of extracting multiple blob candidates 60.
  • the extraction unit 51 may extract a maximum blob 61 and a combined blob 63.
  • the maximum blob 61 is the blob candidate 60 with the largest area of the closed region among the multiple blob candidates 60.
  • the combined blob 63 is the blob candidate 60 formed by combining the maximum blob 61 and the runner-up blob 62 with the second largest area of the closed region after the maximum blob 61. This allows the extraction unit 51 to suppress erroneous recognition of foreign objects that are relatively small compared to electrodes and the like as part of the component 91.
  • the extraction unit 51 performs image processing on the image data to perform blob processing (step S11 shown in FIG. 4).
  • the extraction unit 51 can perform image processing on the image data using various methods to perform blob processing.
  • the extraction unit 51 can perform image processing on the image data by binarization processing to perform blob processing.
  • the blob processing analyzes the shape characteristics of the component 91 based on at least one of the presence/absence, number, area, position, length, and direction of closed regions.
  • the threshold value for the binarization process can be set to a value between the brightness of the component 91 and the brightness of the background. Further, in the binarization process, it is not necessarily necessary to divide the area into a white area and a black area, and for example, a threshold value can be set so that the average brightness of each area becomes a predetermined brightness value. Further, the extraction unit 51 can change the threshold value of the binarization process for each type of component 91, and can also change the type of image processing.
  • the extraction unit 51 determines whether the number of blob candidates 60 obtained by the blob processing is two or more (step S12). If the number of blob candidates 60 is two or more (Yes in step S12), the extraction unit 51 extracts the maximum blob 61 and the runner-up blob 62 (step S13). The extraction unit 51 also extracts the combined blob 63 (step S14).
  • the area of each of the two blob candidates 60 is illustrated using an ellipse.
  • the elliptical curve indicates the outer edge 60e of the blob candidate 60.
  • the blob candidate 60 at the bottom of the page is set as the largest blob 61
  • the blob candidate 60 at the top of the page is set as the runner-up blob 62.
  • the regions of the binding blobs 63 are illustrated using dashed lines. The dashed line indicates the outer edge 60e of the region where the largest blob 61 and the runner-up blob 62 are combined.
  • Selection unit 52a and recognition unit 53 When there are multiple blob candidates 60 to be used in the recognition process of the part 91, the recognition process of the part 91 may fail depending on the selection method of the blob candidates 60, as described later, and the time required for the recognition process of the part 91 may be reduced. time may increase.
  • the selection unit 52a performs a first selection. Specifically, the selection unit 52a sets a rectangular area 70 that circumscribes at least one of the plurality of blob candidates 60 extracted by the extraction unit 51. Then, the selection unit 52a compares the ideal angle ⁇ 0, which is the inclination angle of the component 91 in an ideal state in which the component 91 is correctly arranged, with the inclination angles ⁇ 1 and ⁇ 2 of the rectangular area 70, and compares the ideal angle ⁇ 0 of the component 91 with the inclination angle ⁇ 1, ⁇ 2 of the rectangular area 70. The blob candidate 60 in the rectangular area 70 is selected as a target for recognition processing.
  • the ideal state is a state in which the component 91 is held by the holding member 30 at a predetermined inclination angle.
  • FIG. 5 shows an example of setting the coordinate system.
  • the coordinate system shown in the figure is defined by the X0 axis and the Y0 axis orthogonal to the X0 axis.
  • the origin G0 indicates the intersection of the X0 axis and the Y0 axis.
  • the inclination angle of the component 91 when the longitudinal direction of the component 91 is parallel to the X0 axis is 0 degrees.
  • the angle described in this specification is the angle at which the longitudinal direction of the component 91 is rotated counterclockwise from the X0 axis. Note that the angle described in this specification can also be defined by the angle at which the longitudinal direction of the component 91 is rotated clockwise from the X0 axis.
  • the ideal angle ⁇ 0 of the component 91 is set in advance based on mounting conditions and the like. As shown in FIGS. 6 and 7, the ideal angle ⁇ 0 of the component 91 is, for example, 90 degrees. Usually, the component 91 is held by the holding member 30 at an angle close to the ideal angle ⁇ 0. Therefore, for example, a component 91 held by the holding member 30 at an angle far away from the ideal angle ⁇ 0, such as 0 degrees, is likely to be different from the expected component 91.
  • FIG. 6 shows an example of a blob candidate 60 extracted by the extraction unit 51, in which a rectangular region 70 is set to circumscribe the combined blob 63.
  • the inclination angle ⁇ 1 of the rectangular region 70 is indicated by the X1 axis and the Y1 axis perpendicular to the X1 axis.
  • the X1 axis is the direction along the longitudinal direction of the rectangular region 70
  • the Y1 axis is the direction along the transverse direction of the rectangular region 70.
  • FIG. 7 shows another example of a blob candidate 60 extracted by the extraction unit 51, in which a rectangular region 70 is set to circumscribe the maximum blob 61.
  • the inclination angle ⁇ 2 of the rectangular region 70 is indicated by the X2 axis and the Y2 axis perpendicular to the X2 axis.
  • the X2 axis is the direction along the longitudinal direction of the rectangular region 70
  • the Y2 axis is the direction along the transverse direction of the rectangular region 70.
  • the selection unit 52a compares the ideal angle ⁇ 0 of the component 91 with the inclination angles ⁇ 1 and ⁇ 2 of the rectangular area 70, and selects blob candidates 60 in the rectangular area 70 that are close to the ideal angle ⁇ 0 of the component 91 as targets for recognition processing. (Steps S15a to S17a shown in FIG. 4). In the example shown in FIGS. 6 and 7, the selection unit 52a determines that the inclination angle ⁇ 1 of the rectangular area 70 circumscribing the combined blob 63 is closer to the ideal angle ⁇ 0 than the inclination angle ⁇ 2 of the rectangular area 70 circumscribing the largest blob 61. It is determined whether or not they are close (step S15a).
  • step S15a If the inclination angle ⁇ 1 is closer to the ideal angle ⁇ 0 than the inclination angle ⁇ 2 (Yes in step S15a), the selection unit 52a selects the combined blob 63 as a target for recognition processing (step S16a). If the inclination angle ⁇ 2 is closer to the ideal angle ⁇ 0 than the inclination angle ⁇ 1 (No in step S15a), the selection unit 52a selects the largest blob 61 as a target for recognition processing (step S17a). Note that when the number of blob candidates 60 is one (No in step S12), the selection unit 52a selects one blob candidate 60 as a target of recognition processing (step S18a).
  • the selection unit 52a selects the combined blob 63 as a target for recognition processing (step S16a).
  • the selection unit 52a can also set a predetermined offset in the rectangular area 70. Specifically, the selection unit 52a selects a blob candidate 60 that is spaced a predetermined offset amount from the rectangular area 70 circumscribing at least one of the plurality of blob candidates 60 extracted by the extraction unit 51. A rectangular area 70 can also be set.
  • the recognition unit 53 attempts recognition processing using the blob candidate 60 selected by the selection unit 52a.
  • the recognition unit 53 can try various recognition processes. For example, the recognition unit 53 sets a rectangular area 70 circumscribing the blob candidate 60, estimates the center C0 of the rectangular area 70 as the center of the component 91, and sets the inclination angles ⁇ 1 and ⁇ 2 of the rectangular area 70 to the inclination of the component 91.
  • a first recognition process for estimating the angle can be performed (step S19). Thereby, the recognition unit 53 can recognize the approximate position and inclination angle of the component 91.
  • the selection unit 52a selects the combined blob 63 as a target for recognition processing.
  • the recognition unit 53 estimates the center C0 of the rectangular area 70 shown in FIG. 6 as the center of the component 91, and estimates the inclination angle ⁇ 1 of the rectangular area 70 shown in FIG.
  • the recognition unit 53 detects the outer edge 60e of the blob candidate 60, and estimates the center and inclination angle of the component 91 based on the detected outer edge 60e of the blob candidate 60.
  • a second recognition process can be performed (step S20). Thereby, the recognition unit 53 can recognize the position and inclination angle of the component 91 more accurately than in the first recognition process.
  • the recognition unit 53 can detect the outer edge 60e of the blob candidate 60 using a known edge detection method. For example, the recognition unit 53 can determine that the blob candidate 60 is the outer edge 60e when the amount of change in brightness of adjacent pixels in the image data exceeds a predetermined amount. In the above example, the recognition unit 53 detects the outer edge 60e of the combined blob 63 shown by the dashed line in FIG. The recognition unit 53 then estimates the center of the combined blob 63 as the center of the component 91 and estimates the inclination angle ⁇ 1 of the combined blob 63 to be the inclination angle of the component 91.
  • the recognition unit 53 estimates the external dimensions of the component 91 based on the outer edge 60e of the blob candidate 60, and confirms that the estimated external dimensions of the component 91 are within the dimensional tolerance specified for the component 91.
  • a confirmation process can be performed (step S21). Thereby, the recognition unit 53 can confirm that the component 91 is within the dimensional tolerance.
  • the recognition unit 53 estimates the width W1 of the component 91 based on the width W1 of the connected blob 63 shown by the dashed line in FIG. Furthermore, the recognition unit 53 estimates the depth dimension D1 of the component 91 based on the depth dimension D1 of the combined blob 63.
  • the dimensional tolerance of the width dimension specified for the part 91 is a range that is increased or decreased by a predetermined amount around the designed width W0 of the part 91 shown in FIG.
  • the recognition unit 53 confirms that the estimated width W1 of the component 91 is within the above range.
  • the dimensional tolerance of the depth dimension prescribed for the component 91 is a range that is increased or decreased by a predetermined amount with the designed depth dimension D0 of the component 91 shown in FIG. 5 as the center.
  • the recognition unit 53 confirms that the estimated depth dimension D1 of the component 91 is included in the above range. Then, the control by the component recognition device 50a ends once.
  • the selection unit 52a can also perform a second selection. Specifically, similarly to the first selection, the selection unit 52a sets a rectangular area 70 that circumscribes at least one of the plurality of blob candidates 60 extracted by the extraction unit 51. In the second selection, the selection unit 52a selects the ideal dimensions (width dimension W0, depth dimension D0), which are the designed exterior dimensions of the component 91, and the exterior dimensions of the rectangular area 70 (width dimension W1, depth dimension D1, width The dimension W2 and the depth dimension D2) are compared. The selection unit 52a selects a blob candidate 60 in a rectangular area 70 close to the ideal dimensions (width dimension W0, depth dimension D0) of the component 91 as a target for recognition processing.
  • the ideal dimensions width dimension W0, depth dimension D0
  • the selection unit 52a selects a blob candidate 60 in a rectangular area 70 close to the ideal dimensions (width dimension W0, depth dimension D0) of the component 91 as a target for recognition processing.
  • the selection unit 52a determines that the outer dimensions (width dimension W1, depth dimension D1) of the rectangular region 70 circumscribing the combined blob 63 are circumscribed by the largest blob 61 in the determination shown in step S15a shown in FIG. It is determined whether the outer dimensions of the rectangular area 70 (width dimension W2, depth dimension D2) are closer to ideal dimensions (width dimension W0, depth dimension D0).
  • the selection unit 52a can perform other judgments and processes in the flowchart shown in FIG. 4 in the same manner as the first selection. In this specification, duplicate explanations are omitted.
  • the width dimension W1 of the rectangular region 70 circumscribing the combined blob 63 is closer to the ideal dimension (width dimension W0) than the width dimension W2 of the rectangular region 70 circumscribing the largest blob 61. .
  • the depth dimension D1 of the rectangular region 70 circumscribing the combined blob 63 is closer to the ideal dimension (depth dimension D0) than the depth dimension D2 of the rectangular region 70 circumscribing the largest blob 61. Therefore, the selection unit 52a selects the combined blob 63 as a target for recognition processing (processing corresponding to step S16a).
  • the selection unit 52a can perform the second selection in the same manner as the first selection.
  • the vendor of the component 91 is different, it is necessary to change the ideal dimensions (width dimension W0, depth dimension D0) of the component 91.
  • the recognition unit 53 may fail in the recognition process for the component 91. Therefore, the second selection is preferably used in combination with the first selection.
  • the recognition unit 53 attempts recognition processing using the blob candidate 60 selected by the second selection. Then, the selection unit 52a can perform the first selection when the recognition process by the recognition unit 53 turns out to be defective.
  • the quality of the recognition processing performed by the recognition unit 53 is determined using, for example, the results of an inspection using another imaging device such as the board camera 15, the results of an inspection using an appearance inspection machine provided after the component mounting machine 10, etc. can do.
  • the selection unit 52a determines that the recognition process is defective when the recognized position of the component 91 with respect to the holding member 30 is not included in a predetermined range that includes the actual position of the component 91 with respect to the holding member 30. can do.
  • the selection unit 52a can determine whether the mounting position of the component 91 is included in the scheduled mounting range based on the above-mentioned test results, and can determine whether the recognized position of the component 91 is included in the predetermined range ( It is possible to judge whether the recognition process is good or bad.
  • the selection unit 52a can also perform the first selection when the number of defects recognized by the recognition unit 53 as being defective exceeds a predetermined number.
  • the predetermined number can be set arbitrarily. Thereby, the selection unit 52a can perform the first selection when more than a predetermined number of recognition processing failures occur.
  • the selection unit 52a can also perform both the first selection and the second selection. Then, the recognition unit 53 attempts both recognition processing using the blob candidate 60 selected in the first selection and recognition processing using the blob candidate 60 selected in the second selection.
  • a recognition result in which recognition processing is attempted using the blob candidate 60 selected by the first selection and the component 91 is correctly recognized will be referred to as a first recognition result.
  • a recognition result in which recognition processing is attempted using the blob candidate 60 selected in the second selection and the component 91 is correctly recognized is referred to as a second recognition result.
  • the first recognition result and the second recognition result may take various forms as long as they represent recognition results in which the component 91 is correctly recognized.
  • the first recognition result and the second recognition result may be expressed by the number of recognition processes in which the part 91 was correctly recognized, the ratio of the part 91 to the number of attempted recognition processes (recognition rate), etc. Can be done.
  • the selection unit 52a can perform the first selection for subsequent recognition processing when the first recognition performance is better than the second recognition performance. Thereby, the selection unit 52a can perform the first selection based on past recognition results.
  • Configuration Example of Component Recognition Device 50b For example, due to a defective state in which the component 91 is held by the holding member 30, the component 91 may be rotated by more than an expected angle in the holding member 30. In this case, the selection unit 52a selects another blob candidate 60 close to the ideal angle ⁇ 0 of the component 91 as a target of recognition processing. As a result, a blob candidate 60 different from the blob candidate 60 that should be selected may be selected, and the recognition process for the component 91 may fail. Similarly, when the inclination angles ⁇ 1 and ⁇ 2 of the rectangular area 70 are similar, a blob candidate 60 different from the blob candidate 60 that should be selected may be selected, and the recognition process for the component 91 may fail.
  • the component mounting machine 10 can include a component recognition device 50b.
  • the component recognition device 50b includes an extraction section 51, a provision section 52b, and a recognition section 53 when viewed as a control block.
  • the component recognition device 50b can be provided in various control devices.
  • the extraction section 51, the provision section 52b, and the recognition section 53 are provided in the control device 16 of the component mounting machine 10. Further, the component recognition device 50b executes control according to the flowchart shown in FIG.
  • the extraction unit 51 performs the processing and determination shown in steps S11 to S14.
  • the providing unit 52b performs the processing and determination shown in steps S15b to S18b.
  • the recognition unit 53 performs the processing and judgment shown in steps S19 to S23.
  • the component recognition device 50b includes an assignment section 52b instead of the selection section 52a, and the processing and determination shown in steps S15b to S18b are different from the flowchart shown in FIG. 4.
  • the component recognition device 50b also differs from the flowchart shown in FIG. 4 in that the recognition unit 53 performs the processing and determination shown in steps S22 and S23. Note that the matters already described for the component recognition device 50a can also be applied to the component recognition device 50b as appropriate.
  • the extraction unit 51 performs image processing on image data of a component 91 to be mounted on a board 90 and extracts a plurality of blob candidates 60 that are partial closed regions of the component 91 and can be used for recognition processing of the component 91. (Steps S11 to S14 shown in FIG. 9).
  • the extraction unit 51 can extract a plurality of blob candidates 60 in the same manner as the extraction unit 51 of the component recognition device 50a.
  • the assigning unit 52b assigns priorities for use in recognition processing to the plurality of blob candidates 60 extracted by the extracting unit 51.
  • the assigning unit 52b may take various forms as long as it can assign priorities.
  • the adding unit 52b sets a rectangular area 70 that circumscribes at least one of the plurality of blob candidates 60 extracted by the extracting unit 51.
  • the application portion 52b has ideal dimensions (width dimension W0, depth dimension D0) which are designed external dimensions of the component 91 and external dimensions (width dimension W1, depth dimension D1, width dimension W2, depth dimension) of the rectangular area 70. Compare with D2).
  • the assigning unit 52b assigns a higher priority to blob candidates 60 in the rectangular area 70 that are closer to the ideal dimensions (width dimension W0, depth dimension D0) of the component 91.
  • the assigning unit 52b selects blob candidates 60 in the rectangular area 70 close to the ideal dimensions (width dimension W0, depth dimension D0) of the component 91 by performing the second selection described above in the selection unit 52a of the component recognition device 50a. can be recognized, and the blob candidate 60 concerned can be given a higher priority.
  • the providing portion 52b has the outer dimensions (width dimension W1, depth dimension D1) of the rectangular region 70 circumscribing the combined blob 63, and the outer dimensions of the rectangular region 70 circumscribing the largest blob 61. It is determined whether the dimensions are closer to the ideal dimensions (width dimension W0, depth dimension D0) than (width dimension W2, depth dimension D2) (step S15b shown in FIG. 9).
  • step S15b If the above condition is satisfied (Yes in step S15b), the giving unit 52b gives a higher priority to the combined blob 63 than the largest blob 61 (step S16b). If the above condition is not satisfied (No in step S15b), the assigning unit 52b gives a higher priority to the largest blob 61 than the combined blob 63 (step S17b). Note that when the number of blob candidates 60 is one (No in step S12), the assigning unit 52b assigns a priority order so that one blob candidate 60 is used for the recognition process (step S18b).
  • the width dimension W1 of the rectangular region 70 circumscribing the combined blob 63 is closer to the ideal dimension (width dimension W0) than the width dimension W2 of the rectangular region 70 circumscribing the largest blob 61.
  • the depth dimension D1 of the rectangular region 70 circumscribing the combined blob 63 is closer to the ideal dimension (depth dimension D0) than the depth dimension D2 of the rectangular region 70 circumscribing the largest blob 61. Therefore, the assigning unit 52b gives higher priority to the combined blob 63 than the largest blob 61 (step S16b).
  • the recognition unit 53 attempts the recognition process in order from the blob candidates 60 with the highest priority assigned by the assignment unit 52b.
  • the recognition unit 53 can try recognition processing in the same manner as the recognition unit 53 of the component recognition device 50a (steps S19 to S21). Then, when the recognition process using one blob candidate 60 is defective, the recognition unit 53 attempts the recognition process using the blob candidate 60 having the next highest priority after the one blob candidate 60. (Step S22 and Step S23).
  • the giving unit 52b gives a higher priority to the combined blob 63 than the largest blob 61. Therefore, the recognition unit 53 first attempts to recognize the component 91 using the combined blob 63. Then, the recognition unit 53 determines whether or not the result of the confirmation process is good (step S22). If the result of the confirmation process is good (Yes in step S22), the control by the component recognition device 50b ends once.
  • the recognition unit 53 attempts the recognition process using the blob candidate 60 with the next highest priority (in this case, the largest blob 61) (step S22). S23).
  • the recognition unit 53 attempts recognition processing in the same manner as the processing shown in steps S19 to S21. Then, the control by the component recognition device 50b returns to the judgment shown in step S22, and the judgment and processing shown in steps S22 and S23 are repeated until the result of the confirmation process becomes favorable.
  • the adding unit 52b sets a rectangular area 70 circumscribing at least one of the plurality of blob candidates 60 extracted by the extracting unit 51. Then, the providing unit 52b compares the ideal angle ⁇ 0, which is the inclination angle of the component 91 in an ideal state where the component 91 is correctly arranged, with the inclination angles ⁇ 1 and ⁇ 2 of the rectangular area 70, and compares the ideal angle ⁇ 0 of the component 91 with the ideal angle ⁇ 0 of the rectangular area 70. It is also possible to give a higher priority to the blob candidates 60 in the rectangular area 70.
  • the assigning unit 52b can recognize the blob candidate 60 in the rectangular area 70 close to the ideal angle ⁇ 0 of the component 91 by performing the first selection described above in the selecting unit 52a of the component recognition device 50a.
  • the 60th blob candidate can be given a higher priority.
  • the providing unit 52b determines whether the inclination angle ⁇ 1 of the rectangular region 70 circumscribing the combined blob 63 is closer to the ideal angle ⁇ 0 than the inclination angle ⁇ 2 of the rectangular region 70 circumscribing the maximum blob 61 ( (determination replaced with step S15b shown in FIG. 9).
  • the assigning unit 52b gives a higher priority to the combined blob 63 than the largest blob 61 (step S16b). If the above condition is not satisfied, the assigning unit 52b gives a higher priority to the largest blob 61 than the combined blob 63 (step S17b). Note that when the number of blob candidates 60 is one (No in step S12), the assigning unit 52b assigns a priority order so that one blob candidate 60 is used for the recognition process (step S18b).
  • the inclination angle ⁇ 1 of the rectangular region 70 circumscribing the coupling blob 63 is closer to the ideal angle ⁇ 0 of the component 91 than the inclination angle ⁇ 2 of the rectangular region 70 circumscribing the largest blob 61. Therefore, the assigning unit 52b gives higher priority to the combined blob 63 than the largest blob 61 (step S16b). In this case as well, the recognition unit 53 can try the recognition process in order from the blob candidates 60 with the highest priority assigned by the assignment unit 52b.
  • the image data of the component 91 held by the holding member 30 is taken as an example.
  • the image data is not limited as long as the component 91 to be mounted on the board 90 is taken.
  • the image data may be an image of the component 91 supplied by the bulk feeder taken by an imaging device such as the board camera 15.
  • the component mounting machine 10 recognizes at least the position of the component 91 relative to the cavity (reference member) in which the component 91 is accommodated based on the image data.
  • the ideal state refers to a state in which the component 91 is accommodated in the cavity so that the component 91 can be supplied to the component mounting machine 10.
  • the first component recognition method includes an extraction process and a selection process.
  • the extraction process corresponds to the control performed by the extraction unit 51.
  • the selection process corresponds to control performed by the selection section 52a.
  • the first component recognition method can include a recognition step.
  • the recognition process corresponds to control performed by the recognition unit 53.
  • the second component recognition method includes an extraction step, an application step, and a recognition step.
  • the extraction process corresponds to the control performed by the extraction unit 51.
  • the application process corresponds to the control performed by the application section 52b.
  • the recognition process corresponds to control performed by the recognition unit 53.
  • the blob candidates 60 in the rectangular area 70 close to the ideal angle ⁇ 0 of the component 91 can be selected as targets for recognition processing, and the appropriate blob candidates 60 can be selected. Compared to the case where the component 91 is not selected, the time required for recognition processing of the component 91 can be reduced. Further, according to the second component recognition device 50b, recognition processing can be attempted in order from the blob candidates 60 with the highest priority, and compared to the case where the order of use of the blob candidates 60 is not determined, The time required for recognition processing can be reduced. What has been described above regarding the component recognition devices 50a and 50b also applies to the component recognition method.
  • 50a, 50b parts recognition device
  • 51 extraction section
  • 52a selection section
  • 52b Giving part
  • 53 Recognition part
  • 60 Blob candidate
  • 60e Outer edge part
  • 61 Maximum blob
  • 62 Runner-up blob
  • 63 Combined blob
  • 70 Rectangular area
  • 90 Substrate
  • 91 Component
  • ⁇ 0 Ideal angle
  • ⁇ 1, ⁇ 2 Inclination angle
  • W0, D0 Ideal dimensions (width dimension, depth dimension)
  • W1, D1, W2, D2 External dimensions (width dimension, depth dimension)
  • C0 Center.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Supply And Installment Of Electrical Components (AREA)

Abstract

部品認識装置は、抽出部と、選定部とを備える。抽出部は、基板に装着する部品が撮像された画像データを画像処理して部品の一部の閉領域であって部品の認識処理に使用可能な複数のブロブ候補を抽出する。選定部は、抽出部によって抽出された複数のブロブ候補のうちの少なくとも一つに外接する矩形領域を設定して、部品が正しく配置された理想状態の部品の傾斜角度である理想角度と矩形領域の傾斜角度とを比較し、部品の理想角度に近い矩形領域のブロブ候補を認識処理の対象に選定する第一選定を行う。

Description

部品認識装置および部品認識方法
 本明細書は、部品認識装置および部品認識方法に関する技術を開示する。
 特許文献1に記載の部品装着機は、画像加工部と、状態認識部とを備える。画像加工部は、カメラの撮像により取得された画像データにおける部品の少なくとも一部の領域と背景の領域とを輝度により区分する。状態認識部は、画像加工が実行された画像データにおいて部品の少なくとも一部が占める部品領域の面積および形状のうちの少なくとも一方に基づいて、部品の供給状態を認識する。
国際公開第2021/124386号
 部品装着機は、基板に装着する部品が撮像された画像データを画像処理して部品の認識処理を行う。例えば、直方体形状の抵抗器、コンデンサなどのチップ部品は、リード部品などと比べて、大量に供給され、高速に基板に装着する必要がある。そのため、画像データを画像処理して抽出したブロブ候補を使用して部品の認識処理を行うことが想定される。この場合、部品の認識処理に使用するブロブ候補の選定方法またはブロブ候補の使用順序によっては、部品の認識処理に要する所要時間が増加する可能性がある。
 このような事情に鑑みて、本明細書は、部品の認識処理に要する所要時間を低減可能な部品認識装置および部品認識方法を開示する。
 本明細書は、抽出部と、選定部とを備える部品認識装置を開示する。前記抽出部は、基板に装着する部品が撮像された画像データを画像処理して前記部品の一部の閉領域であって前記部品の認識処理に使用可能な複数のブロブ候補を抽出する。前記選定部は、前記抽出部によって抽出された前記複数のブロブ候補のうちの少なくとも一つに外接する矩形領域を設定して、前記部品が正しく配置された理想状態の前記部品の傾斜角度である理想角度と前記矩形領域の傾斜角度とを比較し、前記部品の前記理想角度に近い前記矩形領域の前記ブロブ候補を前記認識処理の対象に選定する第一選定を行う。
 また、本明細書は、抽出部と、付与部と、認識部とを備える部品認識装置を開示する。前記抽出部は、基板に装着する部品が撮像された画像データを画像処理して前記部品の一部の閉領域であって前記部品の認識処理に使用可能な複数のブロブ候補を抽出する。前記付与部は、前記抽出部によって抽出された前記複数のブロブ候補について、前記認識処理に使用する優先順位を付与する。前記認識部は、前記付与部によって付与された前記優先順位が高い前記ブロブ候補から順に前記認識処理を試行する。
 さらに、本明細書は、抽出工程と、選定工程とを備える部品認識方法を開示する。前記抽出工程は、基板に装着する部品が撮像された画像データを画像処理して前記部品の一部の閉領域であって前記部品の認識処理に使用可能な複数のブロブ候補を抽出する。前記選定工程は、前記抽出工程によって抽出された前記複数のブロブ候補のうちの少なくとも一つに外接する矩形領域を設定して、前記部品が正しく配置された理想状態の前記部品の傾斜角度である理想角度と前記矩形領域の傾斜角度とを比較し、前記部品の前記理想角度に近い前記矩形領域の前記ブロブ候補を前記認識処理の対象に選定する第一選定を行う。
 また、本明細書は、抽出工程と、付与工程と、認識工程とを備える部品認識方法を開示する。前記抽出工程は、基板に装着する部品が撮像された画像データを画像処理して前記部品の一部の閉領域であって前記部品の認識処理に使用可能な複数のブロブ候補を抽出する。前記付与工程は、前記抽出工程によって抽出された前記複数のブロブ候補について、前記認識処理に使用する優先順位を付与する。前記認識工程は、前記付与工程によって付与された前記優先順位が高い前記ブロブ候補から順に前記認識処理を試行する。
 なお、本明細書には、願書に最初に添付した請求の範囲(以下、当初請求の範囲という。)に記載の請求項10において、「請求項1または請求項6に記載の部品認識装置」を「請求項1~請求項9のいずれか一項に記載の部品認識装置」に変更した技術的思想が開示されている。また、本明細書には、当初請求の範囲に記載の請求項11において、「請求項2または請求項6に記載の部品認識装置」を「請求項2~請求項10のいずれか一項に記載の部品認識装置」に変更した技術的思想が開示されている。
 上記の第一の部品認識装置によれば、部品の理想角度に近い矩形領域のブロブ候補を認識処理の対象に選定することができ、適切なブロブ候補が選定されない場合と比べて、部品の認識処理に要する所要時間を低減することができる。また、第二の部品認識装置によれば、優先順位が高いブロブ候補から順に認識処理を試行することができ、ブロブ候補の使用順序が決められていない場合と比べて、部品の認識処理に要する所要時間を低減することができる。部品認識装置について上述されていることは、部品認識方法についても同様に言える。
部品装着機の構成例を示す平面図である。 保持部材に保持されている部品を部品カメラが撮像した画像データの一例を示す模式図である。 部品認識装置の制御ブロックの一例を示すブロック図である。 部品認識装置による制御手順の一例を示すフローチャートである。 座標系の設定例を示す模式図である。 抽出部によって抽出されたブロブ候補の一例を示す模式図である。 抽出部によって抽出されたブロブ候補の他の一例を示す模式図である。 部品認識装置の制御ブロックの他の一例を示すブロック図である。 部品認識装置による制御手順の他の一例を示すフローチャートである。
 1.実施形態
 1-1.部品装着機10の構成例
 部品認識装置50a,50bは、部品装着機10に適用することができる。部品装着機10は、基板90に複数の部品91を装着する。図1に示すように、実施形態の部品装着機10は、基板搬送装置11、部品供給装置12、部品移載装置13、部品カメラ14、基板カメラ15および制御装置16を備えている。
 基板搬送装置11は、例えば、ベルトコンベアなどによって構成され、基板90を搬送方向(X軸方向)に搬送する。基板90は、回路基板であり、電子回路、電気回路、磁気回路などが形成される。基板搬送装置11は、部品装着機10の機内に基板90を搬入し、機内の所定位置に基板90を位置決めする。基板搬送装置11は、部品装着機10による複数の部品91の装着処理が終了した後に、基板90を部品装着機10の機外に搬出する。
 部品供給装置12は、基板90に装着される複数の部品91を供給する。部品供給装置12は、基板90の搬送方向(X軸方向)に沿って設けられる複数のフィーダ12aを備えている。複数のフィーダ12aの各々には、リールが装備される。リールには、複数の部品91が収納されているキャリアテープが巻回されている。フィーダ12aは、キャリアテープをピッチ送りさせて、フィーダ12aの先端側に位置する供給位置において部品91を採取可能に供給する。
 また、部品供給装置12は、バルク状態(複数の部品91の姿勢が不規則な状態)で収容された部品91を採取可能に供給するバルクフィーダを備えることもできる。さらに、部品供給装置12は、チップ部品などと比べて比較的大型の電子部品(例えば、リード部品など)を、トレイ上に配置した状態で供給することもできる。
 部品移載装置13は、ヘッド駆動装置13aおよび移動台13bを備えている。ヘッド駆動装置13aは、直動機構によって移動台13bを、X軸方向およびY軸方向(水平面においてX軸方向と直交する方向)に移動可能に構成されている。移動台13bには、クランプ部材によって装着ヘッド20が着脱可能(交換可能)に設けられている。装着ヘッド20は、少なくとも一つの保持部材30を用いて、部品供給装置12によって供給される部品91を採取し保持して、基板搬送装置11によって位置決めされた基板90に部品91を装着する。保持部材30は、例えば、吸着ノズル、チャックなどを用いることができる。
 部品カメラ14および基板カメラ15は、公知の撮像装置を用いることができる。部品カメラ14は、光軸が鉛直方向(X軸方向およびY軸方向と直交するZ軸方向)の上向きになるように、部品装着機10の基台に固定されている。部品カメラ14は、保持部材30に保持されている部品91を下方から撮像することができる。基板カメラ15は、光軸が鉛直方向(Z軸方向)の下向きになるように、部品移載装置13の移動台13bに設けられている。基板カメラ15は、基板90を上方から撮像することができる。部品カメラ14および基板カメラ15は、制御装置16から送出される制御信号に基づいて撮像を行う。部品カメラ14および基板カメラ15によって撮像された撮像画像の画像データは、制御装置16に送信される。
 制御装置16は、公知の演算装置および記憶装置を備えており、制御回路が構成されている。制御装置16には、部品装着機10に設けられる各種センサから出力される情報、画像データなどが入力される。制御装置16は、制御プログラムおよび予め設定されている所定の装着条件などに基づいて、各装置に対して制御信号を送出する。
 例えば、制御装置16は、基板搬送装置11によって位置決めされた基板90を基板カメラ15に撮像させる。制御装置16は、基板カメラ15によって撮像された画像を画像処理して、基板90の位置決め状態を認識する。また、制御装置16は、部品供給装置12によって供給された部品91を保持部材30に採取させ保持させて、保持部材30に保持されている部品91を部品カメラ14に撮像させる。制御装置16は、部品カメラ14によって撮像された画像を画像処理して、部品91の保持姿勢を認識する。
 制御装置16は、制御プログラムなどによって予め設定される装着予定位置の上方に向かって、保持部材30を移動させる。また、制御装置16は、基板90の位置決め状態、部品91の保持姿勢などに基づいて、装着予定位置を補正して、実際に部品91を装着する装着位置を設定する。装着予定位置および装着位置は、位置(X軸座標およびY軸座標)の他に回転角度を含む。
 制御装置16は、装着位置に合わせて、保持部材30の目標位置(X軸座標およびY軸座標)および回転角度を補正する。制御装置16は、補正された目標位置において補正された回転角度で保持部材30を下降させて、基板90に部品91を装着する。制御装置16は、上記のピックアンドプレースサイクルを繰り返すことによって、基板90に複数の部品91を装着する装着処理を実行する。
 1-2.部品認識装置50aの構成例
 部品装着機10は、基板90に装着する部品91が撮像された画像データを画像処理して部品91の認識処理を行う。認識処理には、画像データに基づいて、基準部材に対する部品91の位置を認識する処理が含まれる。例えば、保持部材30に保持されている部品91が撮像された画像データの場合、部品装着機10は、画像データに基づいて、保持部材30に対する部品91の位置を少なくとも認識する。例えば、直方体形状の抵抗器、コンデンサなどのチップ部品は、リード部品などと比べて、大量に供給され、高速に基板90に装着する必要がある。そのため、画像データを画像処理して抽出した閉領域(ブロブ80)を使用して、部品91の認識処理を行うことが想定される。
 図2は、保持部材30に保持されている部品91を部品カメラ14が撮像した画像データの一例を示している。例えば、部品91がチップ部品の場合、部品91は、電極部の領域である電極領域A11および電極領域A12と、本体部の領域である本体領域A13とを備えている。電極領域A11および電極領域A12は、金属色(銀色)である。また、部品91がチップ抵抗器の場合、部品91の裏面側(部品カメラ14によって撮像される側)の本体領域A13は、例えば、黒色である。さらに、部品91がチップコンデンサの場合、部品91の裏面側の本体領域A13は、例えば、白色である。
 例えば、図2に示す画像データを二値化処理により画像処理すると、部品91がチップ抵抗器の場合、本体領域A13および部品91の背景が黒色であるので、電極領域A11に相当する閉領域(ブロブ81)と、電極領域A12に相当する閉領域(ブロブ82)とが抽出され易くなる。部品91がチップコンデンサの場合、本体領域A13が白色であり、本体領域A13の輝度が電極領域A11および電極領域A12の金属色(銀色)の輝度と近いので、部品91の全体に相当する閉領域(ブロブ83)が抽出され易くなる。
 部品装着機10は、複数(上記の例では、2つ)の閉領域(ブロブ80)が抽出された場合、これらを結合して一つの閉領域(ブロブ83)を想定し、部品91の認識処理を行うことができる。このように、部品91の認識処理に使用可能な複数の閉領域(複数のブロブ候補60)が存在する場合、ブロブ候補60の選定方法によっては、部品91の認識処理に失敗し、部品91の認識処理に要する所要時間が増加する可能性がある。
 また、部品91の認識処理に使用可能な複数の閉領域(複数のブロブ候補60)が存在する場合、ブロブ候補60の使用順序によっては、部品91の認識処理に失敗し、部品91の認識処理に要する所要時間が増加する可能性がある。そこで、実施形態では、部品装着機10は、部品認識装置50aを備えている。また、後述されるように、部品装着機10は、部品認識装置50bを備えることもできる。
 部品認識装置50aは、制御ブロックとして捉えると、抽出部51と、選定部52aとを備えている。部品認識装置50aは、認識部53を備えることもできる。図3に示すように、実施形態の部品認識装置50aは、抽出部51と、選定部52aと、認識部53とを備えている。部品認識装置50aは、種々の制御装置に設けることができる。
 例えば、部品認識装置50aは、部品装着機10の制御装置16、部品装着機10を含む生産ラインを管理するライン管理装置、ライン管理装置よりも上位の管理装置などに設けることができる。部品認識装置50aは、クラウド上に形成することもできる。図3に示すように、実施形態の部品認識装置50aでは、抽出部51、選定部52aおよび認識部53は、部品装着機10の制御装置16に設けられている。
 また、実施形態の部品認識装置50aは、図4に示すフローチャートに従って、制御を実行する。抽出部51は、ステップS11~ステップS14に示す処理および判断を行う。選定部52aは、ステップS15a~ステップS18aに示す処理および判断を行う。認識部53は、ステップS19~ステップS21に示す処理を行う。
 1-2-1.抽出部51
 抽出部51は、基板90に装着する部品91が撮像された画像データを画像処理して部品91の一部の閉領域であって部品91の認識処理に使用可能な複数のブロブ候補60を抽出する。ブロブ候補60は、既述されている閉領域(ブロブ80)と同義であるが、実際に抽出される閉領域の形状が考慮されている点で、ブロブ80と異なる。
 例えば、部品91が撮像されたときの照明などによって、電極領域A11に相当する閉領域(ブロブ81)の全体を抽出することが困難な場合がある。図6および図7に示すように、実際に抽出される閉領域は、電極領域A11に相当する領域の一部の領域(同図では、図示の便宜上、楕円形で示されている)になる場合がある。このことは、電極領域A12に相当する閉領域(ブロブ82)についても、同様に言え、ブロブ81およびブロブ82を結合した一つの閉領域(ブロブ83)についても、同様に言える。
 抽出部51は、複数のブロブ候補60を抽出することができれば良く、種々の形態をとり得る。例えば、抽出部51は、最大ブロブ61と、結合ブロブ63とを抽出することができる。最大ブロブ61は、複数のブロブ候補60のうち、閉領域の面積が最大であるブロブ候補60をいう。結合ブロブ63は、最大ブロブ61の次に閉領域の面積が大きい次点ブロブ62および最大ブロブ61を結合したブロブ候補60をいう。これにより、抽出部51は、電極部などと比べて比較的小さい異物を部品91の一部と認識してしまう誤認識を抑制することができる。
 具体的には、抽出部51は、画像データを画像処理して、ブロブ処理を行う(図4に示すステップS11)。抽出部51は、種々の方法により画像データを画像処理して、ブロブ処理を行うことができる。例えば、既述されているように、抽出部51は、画像データを二値化処理により画像処理して、ブロブ処理を行うことができる。ブロブ処理は、閉領域の有無、数、面積、位置、長さおよび方向のうちの少なくとも一つに基づいて、部品91の形状の特徴を解析する。
 例えば、二値化処理の閾値は、部品91の輝度と背景の輝度との間の値に設定することができる。また、二値化処理は、必ずしも白色領域と黒色領域とに区分する必要はなく、例えば、各領域の平均輝度、所定の輝度値になるように閾値を設定することもできる。さらに、抽出部51は、部品91の種類ごとに、二値化処理の閾値を変更することもでき、画像処理の種類を変更することもできる。
 次に、抽出部51は、ブロブ処理によって取得されたブロブ候補60の数が2つ以上であるか否かを判断する(ステップS12)。ブロブ候補60の数が2つ以上の場合(ステップS12でYesの場合)、抽出部51は、最大ブロブ61および次点ブロブ62を抽出する(ステップS13)。また、抽出部51は、結合ブロブ63を抽出する(ステップS14)。
 図6および図7に示す例では、図示の便宜上、2つのブロブ候補60の各々が楕円形を用いて領域が図示されている。楕円形の曲線は、ブロブ候補60の外縁部60eを示している。2つのブロブ候補60のうち、紙面下方のブロブ候補60を最大ブロブ61とし、紙面上方のブロブ候補60を次点ブロブ62とする。結合ブロブ63は、一点鎖線を用いて領域が図示されている。一点鎖線は、最大ブロブ61および次点ブロブ62を結合した領域の外縁部60eを示している。
 1-2-2.選定部52aおよび認識部53
 部品91の認識処理に使用する複数のブロブ候補60が存在する場合、後述されるように、ブロブ候補60の選定方法によっては、部品91の認識処理に失敗し、部品91の認識処理に要する所要時間が増加する可能性がある。
 そこで、選定部52aは、第一選定を行う。具体的には、選定部52aは、抽出部51によって抽出された複数のブロブ候補60のうちの少なくとも一つに外接する矩形領域70を設定する。そして、選定部52aは、部品91が正しく配置された理想状態の部品91の傾斜角度である理想角度θ0と矩形領域70の傾斜角度θ1,θ2とを比較し、部品91の理想角度θ0に近い矩形領域70のブロブ候補60を認識処理の対象に選定する。上記の例では、理想状態は、部品91が保持部材30に予め定められた傾斜角度で保持された状態をいう。
 図5は、座標系の設定例を示している。同図に示す座標系は、X0軸と、X0軸に直交するY0軸とによって規定される。原点G0は、X0軸およびY0軸の交点を示している。同図に示すように、部品91の長手方向がX0軸と平行になる場合の部品91の傾斜角度を0度とする。また、説明の便宜上、本明細書に記載されている角度は、部品91の長手方向がX0軸から反時計回りに回転した角度とする。なお、本明細書に記載されている角度は、部品91の長手方向がX0軸から時計回りに回転した角度によって規定することもできる。
 部品91の理想角度θ0は、装着条件などによって予め設定される。図6および図7に示すように、部品91の理想角度θ0は、例えば、90度とする。通常、部品91は、理想角度θ0に近い角度で保持部材30によって保持される。そのため、例えば、0度など理想角度θ0から大きく離れた角度で保持部材30によって保持された部品91は、想定する部品91と異なる可能性が高い。
 図6は、抽出部51によって抽出されたブロブ候補60の一例を示しており、結合ブロブ63に外接する矩形領域70が設定されている。矩形領域70の傾斜角度θ1は、X1軸と、X1軸に直交するY1軸とによって示されている。X1軸は、矩形領域70の長手方向に沿った方向であり、Y1軸は、矩形領域70の短手方向に沿った方向である。図7は、抽出部51によって抽出されたブロブ候補60の他の一例を示しており、最大ブロブ61に外接する矩形領域70が設定されている。矩形領域70の傾斜角度θ2は、X2軸と、X2軸に直交するY2軸とによって示されている。X2軸は、矩形領域70の長手方向に沿った方向であり、Y2軸は、矩形領域70の短手方向に沿った方向である。
 選定部52aは、部品91の理想角度θ0と、矩形領域70の傾斜角度θ1,θ2とを比較し、部品91の理想角度θ0に近い矩形領域70のブロブ候補60を認識処理の対象に選定する(図4に示すステップS15a~ステップS17a)。図6および図7に示す例では、選定部52aは、結合ブロブ63に外接する矩形領域70の傾斜角度θ1が、最大ブロブ61に外接する矩形領域70の傾斜角度θ2よりも、理想角度θ0に近いか否かを判断する(ステップS15a)。
 傾斜角度θ1が傾斜角度θ2よりも理想角度θ0に近い場合(ステップS15aでYesの場合)、選定部52aは、結合ブロブ63を認識処理の対象に選定する(ステップS16a)。傾斜角度θ2が傾斜角度θ1よりも理想角度θ0に近い場合(ステップS15aでNoの場合)、選定部52aは、最大ブロブ61を認識処理の対象に選定する(ステップS17a)。なお、ブロブ候補60の数が1つの場合(ステップS12でNoの場合)、選定部52aは、1つのブロブ候補60を認識処理の対象に選定する(ステップS18a)。
 図6および図7に示す例では、傾斜角度θ1が傾斜角度θ2よりも理想角度θ0に近いので、選定部52aは、結合ブロブ63を認識処理の対象に選定する(ステップS16a)。なお、選定部52aは、矩形領域70に所定のオフセットを設定することもできる。具体的には、選定部52aは、抽出部51によって抽出された複数のブロブ候補60のうちの少なくとも一つに外接する矩形領域70よりも、ブロブ候補60の外側に所定のオフセット量、離間した矩形領域70を設定することもできる。
 認識部53は、選定部52aによって選定されたブロブ候補60を使用して認識処理を試行する。認識部53は、種々の認識処理を試行することができる。例えば、認識部53は、ブロブ候補60に外接する矩形領域70を設定して、矩形領域70の中心C0を部品91の中心と推定し、矩形領域70の傾斜角度θ1,θ2を部品91の傾斜角度と推定する第一認識処理を行うことができる(ステップS19)。これにより、認識部53は、およその部品91の位置および傾斜角度を認識することができる。上記の例では、選定部52aは、結合ブロブ63を認識処理の対象に選定する。認識部53は、図6に示す矩形領域70の中心C0を部品91の中心と推定し、図6に示す矩形領域70の傾斜角度θ1を部品91の傾斜角度と推定する。
 また、認識部53は、第一認識処理を行った後に、ブロブ候補60の外縁部60eを検出して、検出したブロブ候補60の外縁部60eに基づいて、部品91の中心および傾斜角度を推定する第二認識処理を行うことができる(ステップS20)。これにより、認識部53は、第一認識処理と比べて、正確な部品91の位置および傾斜角度を認識することができる。
 認識部53は、公知のエッジ検出方法により、ブロブ候補60の外縁部60eを検出することができる。例えば、認識部53は、画像データの隣接する画素の輝度の変化量が所定量を超える場合に、ブロブ候補60の外縁部60eと判断することができる。上記の例では、認識部53は、図6の一点鎖線で示される結合ブロブ63の外縁部60eを検出する。そして、認識部53は、結合ブロブ63の中心を部品91の中心と推定し、結合ブロブ63の傾斜角度θ1を部品91の傾斜角度と推定する。
 さらに、認識部53は、ブロブ候補60の外縁部60eに基づいて部品91の外形寸法を推定し、推定した部品91の外形寸法が、部品91に規定されている寸法公差内であることを確認する確認処理を行うことができる(ステップS21)。これにより、認識部53は、部品91が寸法公差内であることを確認することができる。上記の例では、認識部53は、図6の一点鎖線で示される結合ブロブ63の幅寸法W1に基づいて、部品91の幅寸法W1を推定する。また、認識部53は、結合ブロブ63の奥行き寸法D1に基づいて、部品91の奥行き寸法D1を推定する。
 部品91に規定されている幅寸法の寸法公差は、図5に示される設計上の部品91の幅寸法W0を中心にして、所定量、増減させた範囲になる。認識部53は、推定した部品91の幅寸法W1が上記の範囲に含まれることを確認する。また、部品91に規定されている奥行き寸法の寸法公差は、図5に示される設計上の部品91の奥行き寸法D0を中心にして、所定量、増減させた範囲になる。認識部53は、推定した部品91の奥行き寸法D1が上記の範囲に含まれることを確認する。そして、部品認識装置50aによる制御は、一旦、終了する。
 選定部52aは、第二選定を行うこともできる。具体的には、選定部52aは、第一選定と同様に、抽出部51によって抽出された複数のブロブ候補60のうちの少なくとも一つに外接する矩形領域70を設定する。そして、第二選定では、選定部52aは、部品91の設計上の外形寸法である理想寸法(幅寸法W0,奥行き寸法D0)と矩形領域70の外形寸法(幅寸法W1,奥行き寸法D1,幅寸法W2,奥行き寸法D2)とを比較する。選定部52aは、部品91の理想寸法(幅寸法W0,奥行き寸法D0)に近い矩形領域70のブロブ候補60を認識処理の対象に選定する。
 第二選定では、選定部52aは、図4に示すステップS15aに示す判断において、結合ブロブ63に外接する矩形領域70の外形寸法(幅寸法W1,奥行き寸法D1)が、最大ブロブ61に外接する矩形領域70の外形寸法(幅寸法W2,奥行き寸法D2)よりも、理想寸法(幅寸法W0,奥行き寸法D0)に近いか否かを判断する。選定部52aは、図4に示すフローチャートの他の判断および処理を、第一選定と同様に行うことができる。本明細書では、重複する説明が省略されている。
 図6および図7に示す例では、結合ブロブ63に外接する矩形領域70の幅寸法W1が、最大ブロブ61に外接する矩形領域70の幅寸法W2よりも、理想寸法(幅寸法W0)に近い。また、結合ブロブ63に外接する矩形領域70の奥行き寸法D1が、最大ブロブ61に外接する矩形領域70の奥行き寸法D2よりも、理想寸法(奥行き寸法D0)に近い。よって、選定部52aは、結合ブロブ63を認識処理の対象に選定する(ステップS16aに相当する処理)。
 このように、選定部52aは、第一選定と同様にして、第二選定を行うことができる。しかしながら、例えば、部品91のベンダが相違すると、部品91の理想寸法(幅寸法W0,奥行き寸法D0)を変更する必要がある。部品91の種類数が多くなるほど、変更作業が煩雑であり、理想寸法(幅寸法W0,奥行き寸法D0)の設定が変更されない可能性がある。この場合、認識部53は、部品91の認識処理に失敗する可能性がある。そのため、第二選定は、第一選定と併用されると良い。
 例えば、認識部53は、第二選定によって選定されたブロブ候補60を使用して認識処理を試行する。そして、選定部52aは、認識部53による認識処理が不良となった場合に、第一選定を行うことができる。なお、認識部53による認識処理の良否は、例えば、基板カメラ15などの他の撮像装置を使用した検査結果、部品装着機10の後段に設けられる外観検査機による検査結果などを使用して判断することができる。上記の例では、例えば、選定部52aは、保持部材30に対する部品91の認識位置が、保持部材30に対する部品91の実際の位置を含む所定範囲に含まれない場合に、認識処理の不良と判断することができる。
 認識部53による部品91の認識位置が所定範囲に含まれない場合、基板90に装着された部品91の装着位置は、装着予定範囲から外れ易くなる。選定部52aは、上記の検査結果に基づいて、部品91の装着位置が装着予定範囲に含まれるか否かを判断することができ、部品91の認識位置が所定範囲に含まれるか否か(認識処理の良否)を判断することができる。選定部52aは、認識部53による認識処理が不良となった不良数が所定数を超えた場合に、第一選定を行うこともできる。所定数は、任意に設定することができる。これにより、選定部52aは、所定数を超える認識処理の不良が発生した場合に、第一選定を行うことができる。
 選定部52aは、まず、第一選定および第二選定の両方を行うこともできる。そして、認識部53は、第一選定によって選定されたブロブ候補60を使用した認識処理、および、第二選定によって選定されたブロブ候補60を使用した認識処理の両方を試行する。本明細書では、説明の便宜上、第一選定によって選定されたブロブ候補60を使用して認識処理を試行し部品91が正しく認識された認識実績を第一認識実績という。また、第二選定によって選定されたブロブ候補60を使用して認識処理を試行し部品91が正しく認識された認識実績を第二認識実績という。
 第一認識実績および第二認識実績は、部品91が正しく認識された認識実績を表すことができれば良く、種々の形態をとり得る。例えば、第一認識実績および第二認識実績は、部品91が正しく認識された認識処理の処理数、試行した認識処理の処理数に対する部品91が正しく認識された割合(認識率)などによって表すことができる。選定部52aは、第二認識実績と比べて、第一認識実績が良好な場合に、以後の認識処理について第一選定を行うことができる。これにより、選定部52aは、過去の認識実績に基づいて、第一選定を行うことができる。
 1-3.部品認識装置50bの構成例
 例えば、保持部材30による部品91の保持状態の不良により、保持部材30において、部品91が想定される角度以上に回転してしまう場合がある。この場合、選定部52aは、部品91の理想角度θ0に近い他のブロブ候補60を認識処理の対象に選定する。その結果、選定されるべきブロブ候補60と異なるブロブ候補60が選定され、部品91の認識処理に失敗する可能性がある。また、矩形領域70の傾斜角度θ1,θ2が近似している場合も同様に、選定されるべきブロブ候補60と異なるブロブ候補60が選定され、部品91の認識処理に失敗する可能性がある。
 このように、部品91の認識処理に使用する複数のブロブ候補60が存在する場合、ブロブ候補60の使用順序によっては、部品91の認識処理に失敗し、部品91の認識処理に要する所要時間が増加する可能性がある。そこで、部品装着機10は、部品認識装置50bを備えることができる。図8に示すように、部品認識装置50bは、制御ブロックとして捉えると、抽出部51と、付与部52bと、認識部53とを備えている。
 部品認識装置50bは、部品認識装置50aと同様に、種々の制御装置に設けることができる。図8に示す部品認識装置50bでは、抽出部51、付与部52bおよび認識部53は、部品装着機10の制御装置16に設けられている。また、部品認識装置50bは、図9に示すフローチャートに従って、制御を実行する。抽出部51は、ステップS11~ステップS14に示す処理および判断を行う。付与部52bは、ステップS15b~ステップS18bに示す処理および判断を行う。認識部53は、ステップS19~ステップS23に示す処理および判断を行う。
 図9に示すフローチャートでは、図4に示す部品認識装置50aと同じ処理および同じ判断について、同じ符号番号が付されており、本明細書では、重複する説明が省略されている。具体的には、部品認識装置50bは、選定部52aの代わりに、付与部52bを備えており、ステップS15b~ステップS18bに示す処理および判断が、図4に示すフローチャートと異なる。また、部品認識装置50bは、認識部53がステップS22およびステップS23に示す処理および判断を行う点で、図4に示すフローチャートと異なる。なお、部品認識装置50bにおいても、部品認識装置50aについて既述されている事項を適宜、適用することができる。
 抽出部51は、基板90に装着する部品91が撮像された画像データを画像処理して部品91の一部の閉領域であって部品91の認識処理に使用可能な複数のブロブ候補60を抽出する(図9に示すステップS11~ステップS14)。抽出部51は、部品認識装置50aの抽出部51と同様にして、複数のブロブ候補60を抽出することができる。
 付与部52bは、抽出部51によって抽出された複数のブロブ候補60について、認識処理に使用する優先順位を付与する。付与部52bは、優先順位を付与することができれば良く、種々の形態をとり得る。例えば、付与部52bは、抽出部51によって抽出された複数のブロブ候補60のうちの少なくとも一つに外接する矩形領域70を設定する。そして、付与部52bは、部品91の設計上の外形寸法である理想寸法(幅寸法W0,奥行き寸法D0)と矩形領域70の外形寸法(幅寸法W1,奥行き寸法D1,幅寸法W2,奥行き寸法D2)とを比較する。付与部52bは、部品91の理想寸法(幅寸法W0,奥行き寸法D0)に近い矩形領域70のブロブ候補60ほど高い優先順位を付与する。
 付与部52bは、部品認識装置50aの選定部52aにおいて既述されている第二選定を行うことにより、部品91の理想寸法(幅寸法W0,奥行き寸法D0)に近い矩形領域70のブロブ候補60を認識することができ、当該ブロブ候補60ほど高い優先順位を付与することができる。図6および図7に示す例では、付与部52bは、結合ブロブ63に外接する矩形領域70の外形寸法(幅寸法W1,奥行き寸法D1)が、最大ブロブ61に外接する矩形領域70の外形寸法(幅寸法W2,奥行き寸法D2)よりも、理想寸法(幅寸法W0,奥行き寸法D0)に近いか否かを判断する(図9に示すステップS15b)。
 上記条件が成立する場合(ステップS15bでYesの場合)、付与部52bは、最大ブロブ61と比べて、結合ブロブ63の優先順位を高くする(ステップS16b)。上記条件が成立しない場合(ステップS15bでNoの場合)、付与部52bは、結合ブロブ63と比べて、最大ブロブ61の優先順位を高くする(ステップS17b)。なお、ブロブ候補60の数が1つの場合(ステップS12でNoの場合)、付与部52bは、1つのブロブ候補60を認識処理に使用するように優先順位を付与する(ステップS18b)。
 上記の例では、結合ブロブ63に外接する矩形領域70の幅寸法W1が、最大ブロブ61に外接する矩形領域70の幅寸法W2よりも、理想寸法(幅寸法W0)に近い。また、結合ブロブ63に外接する矩形領域70の奥行き寸法D1が、最大ブロブ61に外接する矩形領域70の奥行き寸法D2よりも、理想寸法(奥行き寸法D0)に近い。よって、付与部52bは、最大ブロブ61と比べて、結合ブロブ63の優先順位を高くする(ステップS16b)。
 認識部53は、付与部52bによって付与された優先順位が高いブロブ候補60から順に認識処理を試行する。認識部53は、部品認識装置50aの認識部53と同様にして、認識処理を試行することができる(ステップS19~ステップS21)。そして、認識部53は、一のブロブ候補60を使用した認識処理が不良となった場合に、当該一のブロブ候補60の次に優先順位が高いブロブ候補60を使用して認識処理を試行する(ステップS22およびステップS23)。
 上記の例では、付与部52bは、最大ブロブ61と比べて、結合ブロブ63の優先順位を高くする。よって、認識部53は、まず、結合ブロブ63を使用して部品91の認識処理を試行する。そして、認識部53は、確認処理の結果が良好であるか否かを判断する(ステップS22)。確認処理の結果が良好の場合(ステップS22でYesの場合)、部品認識装置50bによる制御は、一旦、終了する。
 確認処理の結果が不良の場合(ステップS22でNoの場合)、認識部53は、優先順位が次点のブロブ候補60(この場合、最大ブロブ61)を使用して認識処理を試行する(ステップS23)。認識部53は、ステップS19~ステップS21に示す処理と同様にして、認識処理を試行する。そして、部品認識装置50bによる制御は、ステップS22に示す判断に戻り、確認処理の結果が良好になるまで、ステップS22およびステップS23に示す判断および処理が繰り返される。
 また、付与部52bは、抽出部51によって抽出された複数のブロブ候補60のうちの少なくとも一つに外接する矩形領域70を設定する。そして、付与部52bは、部品91が正しく配置された理想状態の部品91の傾斜角度である理想角度θ0と矩形領域70の傾斜角度θ1,θ2とを比較し、部品91の理想角度θ0に近い矩形領域70のブロブ候補60ほど高い優先順位を付与することもできる。
 付与部52bは、部品認識装置50aの選定部52aにおいて既述されている第一選定を行うことにより、部品91の理想角度θ0に近い矩形領域70のブロブ候補60を認識することができ、当該ブロブ候補60ほど高い優先順位を付与することができる。例えば、付与部52bは、結合ブロブ63に外接する矩形領域70の傾斜角度θ1が、最大ブロブ61に外接する矩形領域70の傾斜角度θ2よりも、理想角度θ0に近いか否かを判断する(図9に示すステップS15bと置換される判断)。
 上記条件が成立する場合、付与部52bは、最大ブロブ61と比べて、結合ブロブ63の優先順位を高くする(ステップS16b)。上記条件が成立しない場合、付与部52bは、結合ブロブ63と比べて、最大ブロブ61の優先順位を高くする(ステップS17b)。なお、ブロブ候補60の数が1つの場合(ステップS12でNoの場合)、付与部52bは、1つのブロブ候補60を認識処理に使用するように優先順位を付与する(ステップS18b)。
 上記の例では、結合ブロブ63に外接する矩形領域70の傾斜角度θ1が、最大ブロブ61に外接する矩形領域70の傾斜角度θ2よりも、部品91の理想角度θ0に近い。よって、付与部52bは、最大ブロブ61と比べて、結合ブロブ63の優先順位を高くする(ステップS16b)。この場合も、認識部53は、付与部52bによって付与された優先順位が高いブロブ候補60から順に認識処理を試行することができる。
 2.その他
 既述されている形態では、保持部材30によって保持されている部品91が撮像された画像データを例に説明されている。しかしながら、画像データは、基板90に装着する部品91が撮像されたものであれば良く、限定されない。例えば、画像データは、バルクフィーダにおいて供給される部品91を、基板カメラ15などの撮像装置によって撮像したものであっても良い。この場合、部品装着機10は、画像データに基づいて、部品91が収容されるキャビティ(基準部材)に対する部品91の位置を少なくとも認識する。また、理想状態は、部品装着機10に供給可能に、部品91がキャビティに収容されている状態をいう。なお、本明細書において記載されている事項は、適宜、組み合わせることができ、取捨選択することができる。
 3.部品認識方法
 部品認識装置50a,50bについて既述されていることは、部品認識方法についても同様に言える。具体的には、第一の部品認識方法は、抽出工程と、選定工程とを備えている。抽出工程は、抽出部51が行う制御に相当する。選定工程は、選定部52aが行う制御に相当する。第一の部品認識方法は、認識工程を備えることができる。認識工程は、認識部53が行う制御に相当する。また、第二の部品認識方法は、抽出工程と、付与工程と、認識工程とを備えている。抽出工程は、抽出部51が行う制御に相当する。付与工程は、付与部52bが行う制御に相当する。認識工程は、認識部53が行う制御に相当する。
 4.実施形態の効果の一例
 第一の部品認識装置50aによれば、部品91の理想角度θ0に近い矩形領域70のブロブ候補60を認識処理の対象に選定することができ、適切なブロブ候補60が選定されない場合と比べて、部品91の認識処理に要する所要時間を低減することができる。また、第二の部品認識装置50bによれば、優先順位が高いブロブ候補60から順に認識処理を試行することができ、ブロブ候補60の使用順序が決められていない場合と比べて、部品91の認識処理に要する所要時間を低減することができる。部品認識装置50a,50bについて上述されていることは、部品認識方法についても同様に言える。
50a,50b:部品認識装置、51:抽出部、52a:選定部、
52b:付与部、53:認識部、60:ブロブ候補、60e:外縁部、
61:最大ブロブ、62:次点ブロブ、63:結合ブロブ、
70:矩形領域、90:基板、91:部品、θ0:理想角度、
θ1,θ2:傾斜角度、W0,D0:理想寸法(幅寸法,奥行き寸法)、
W1,D1,W2,D2:外形寸法(幅寸法,奥行き寸法)、C0:中心。

Claims (15)

  1.  基板に装着する部品が撮像された画像データを画像処理して前記部品の一部の閉領域であって前記部品の認識処理に使用可能な複数のブロブ候補を抽出する抽出部と、
     前記抽出部によって抽出された前記複数のブロブ候補のうちの少なくとも一つに外接する矩形領域を設定して、前記部品が正しく配置された理想状態の前記部品の傾斜角度である理想角度と前記矩形領域の傾斜角度とを比較し、前記部品の前記理想角度に近い前記矩形領域の前記ブロブ候補を前記認識処理の対象に選定する第一選定を行う選定部と、
    を備える部品認識装置。
  2.  前記選定部によって選定された前記ブロブ候補を使用して前記認識処理を試行する認識部を備える請求項1に記載の部品認識装置。
  3.  前記選定部は、前記抽出部によって抽出された前記複数のブロブ候補のうちの少なくとも一つに外接する矩形領域を設定して、前記部品の設計上の外形寸法である理想寸法と前記矩形領域の外形寸法とを比較し、前記部品の前記理想寸法に近い前記矩形領域の前記ブロブ候補を前記認識処理の対象に選定する第二選定を行い、
     前記認識部は、前記第二選定によって選定された前記ブロブ候補を使用して前記認識処理を試行し、
     前記選定部は、前記認識部による前記認識処理が不良となった場合に、前記第一選定を行う請求項2に記載の部品認識装置。
  4.  前記選定部は、前記認識部による前記認識処理が不良となった不良数が所定数を超えた場合に、前記第一選定を行う請求項3に記載の部品認識装置。
  5.  前記選定部は、前記抽出部によって抽出された前記複数のブロブ候補のうちの少なくとも一つに外接する矩形領域を設定して、前記部品の設計上の外形寸法である理想寸法と前記矩形領域の外形寸法とを比較し、前記部品の前記理想寸法に近い前記矩形領域の前記ブロブ候補を前記認識処理の対象に選定する第二選定を行い、
     前記認識部は、前記第一選定によって選定された前記ブロブ候補を使用した前記認識処理、および、前記第二選定によって選定された前記ブロブ候補を使用した前記認識処理の両方を試行し、
     前記選定部は、前記第二選定によって選定された前記ブロブ候補を使用して前記認識処理を試行し前記部品が正しく認識された第二認識実績と比べて、前記第一選定によって選定された前記ブロブ候補を使用して前記認識処理を試行し前記部品が正しく認識された第一認識実績が良好な場合に、以後の前記認識処理について前記第一選定を行う請求項2に記載の部品認識装置。
  6.  基板に装着する部品が撮像された画像データを画像処理して前記部品の一部の閉領域であって前記部品の認識処理に使用可能な複数のブロブ候補を抽出する抽出部と、
     前記抽出部によって抽出された前記複数のブロブ候補について、前記認識処理に使用する優先順位を付与する付与部と、
     前記付与部によって付与された前記優先順位が高い前記ブロブ候補から順に前記認識処理を試行する認識部と、
    を備える部品認識装置。
  7.  前記付与部は、前記抽出部によって抽出された前記複数のブロブ候補のうちの少なくとも一つに外接する矩形領域を設定して、前記部品の設計上の外形寸法である理想寸法と前記矩形領域の外形寸法とを比較し、前記部品の前記理想寸法に近い前記矩形領域の前記ブロブ候補ほど高い前記優先順位を付与する請求項6に記載の部品認識装置。
  8.  前記付与部は、前記抽出部によって抽出された前記複数のブロブ候補のうちの少なくとも一つに外接する矩形領域を設定して、前記部品が正しく配置された理想状態の前記部品の傾斜角度である理想角度と前記矩形領域の傾斜角度とを比較し、前記部品の前記理想角度に近い前記矩形領域の前記ブロブ候補ほど高い前記優先順位を付与する請求項6に記載の部品認識装置。
  9.  前記認識部は、一の前記ブロブ候補を使用した前記認識処理が不良となった場合に、当該一の前記ブロブ候補の次に前記優先順位が高い前記ブロブ候補を使用して前記認識処理を試行する請求項6~請求項8のいずれか一項に記載の部品認識装置。
  10.  前記抽出部は、
     前記閉領域の面積が最大である最大ブロブと、
     前記最大ブロブの次に前記閉領域の面積が大きい次点ブロブおよび前記最大ブロブを結合した結合ブロブと、
    を抽出する請求項1または請求項6に記載の部品認識装置。
  11.  前記認識部は、前記ブロブ候補に外接する矩形領域を設定して、前記矩形領域の中心を前記部品の中心と推定し、前記矩形領域の傾斜角度を前記部品の傾斜角度と推定する第一認識処理を行う請求項2または請求項6に記載の部品認識装置。
  12.  前記認識部は、前記第一認識処理を行った後に、前記ブロブ候補の外縁部を検出して、検出した前記ブロブ候補の前記外縁部に基づいて、前記部品の中心および傾斜角度を推定する第二認識処理を行う請求項11に記載の部品認識装置。
  13.  前記認識部は、前記ブロブ候補の前記外縁部に基づいて前記部品の外形寸法を推定し、推定した前記部品の前記外形寸法が、前記部品に規定されている寸法公差内であることを確認する確認処理を行う請求項12に記載の部品認識装置。
  14.  基板に装着する部品が撮像された画像データを画像処理して前記部品の一部の閉領域であって前記部品の認識処理に使用可能な複数のブロブ候補を抽出する抽出工程と、
     前記抽出工程によって抽出された前記複数のブロブ候補のうちの少なくとも一つに外接する矩形領域を設定して、前記部品が正しく配置された理想状態の前記部品の傾斜角度である理想角度と前記矩形領域の傾斜角度とを比較し、前記部品の前記理想角度に近い前記矩形領域の前記ブロブ候補を前記認識処理の対象に選定する第一選定を行う選定工程と、
    を備える部品認識方法。
  15.  基板に装着する部品が撮像された画像データを画像処理して前記部品の一部の閉領域であって前記部品の認識処理に使用可能な複数のブロブ候補を抽出する抽出工程と、
     前記抽出工程によって抽出された前記複数のブロブ候補について、前記認識処理に使用する優先順位を付与する付与工程と、
     前記付与工程によって付与された前記優先順位が高い前記ブロブ候補から順に前記認識処理を試行する認識工程と、
    を備える部品認識方法。
PCT/JP2022/035375 2022-09-22 2022-09-22 部品認識装置および部品認識方法 WO2024062597A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/035375 WO2024062597A1 (ja) 2022-09-22 2022-09-22 部品認識装置および部品認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/035375 WO2024062597A1 (ja) 2022-09-22 2022-09-22 部品認識装置および部品認識方法

Publications (1)

Publication Number Publication Date
WO2024062597A1 true WO2024062597A1 (ja) 2024-03-28

Family

ID=90454046

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/035375 WO2024062597A1 (ja) 2022-09-22 2022-09-22 部品認識装置および部品認識方法

Country Status (1)

Country Link
WO (1) WO2024062597A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007147642A (ja) * 2002-11-25 2007-06-14 Nippon Telegr & Teleph Corp <Ntt> 実世界オブジェクト認識方法および実世界オブジェクト認識システム
JP2009004663A (ja) * 2007-06-22 2009-01-08 Hitachi High-Tech Instruments Co Ltd 電子部品の装着座標作成方法
US20200045862A1 (en) * 2016-10-04 2020-02-06 Koh Young Technology Inc. Board inspecting apparatus and method of compensating board distortion using the same
WO2021166211A1 (ja) * 2020-02-21 2021-08-26 株式会社Fuji 部品装着機

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007147642A (ja) * 2002-11-25 2007-06-14 Nippon Telegr & Teleph Corp <Ntt> 実世界オブジェクト認識方法および実世界オブジェクト認識システム
JP2009004663A (ja) * 2007-06-22 2009-01-08 Hitachi High-Tech Instruments Co Ltd 電子部品の装着座標作成方法
US20200045862A1 (en) * 2016-10-04 2020-02-06 Koh Young Technology Inc. Board inspecting apparatus and method of compensating board distortion using the same
WO2021166211A1 (ja) * 2020-02-21 2021-08-26 株式会社Fuji 部品装着機

Similar Documents

Publication Publication Date Title
KR100881908B1 (ko) 전자부품 실장장치 및 전자부품 실장방법
CN110268220B (zh) 基板检查装置、基板检查方法以及基板的制造方法
KR102534983B1 (ko) 전자 부품의 자세 검출 장치 및 자세 검출 방법
US20120189188A1 (en) Component mounting system and mounting state inspection method in the component mounting system
US20080014772A1 (en) Component mounting position correcting method and component mouting apparatus
EP3623750A1 (en) Transfer state inspection system and component mounter
WO2014106892A1 (ja) 部品実装機及び部品実装方法
JP2008091815A (ja) 実装機およびその部品撮像方法
JP6745117B2 (ja) 検査装置、実装装置、検査方法及びプログラム
WO2024062597A1 (ja) 部品認識装置および部品認識方法
JP6738583B2 (ja) 検査装置、実装装置、検査方法及びプログラム
US20220151120A1 (en) Correction amount calculating device and correction amount calculating method
WO2016075790A1 (ja) 装着機及び装着機を用いた電子部品の吸着姿勢検査方法
CN108702866B (zh) 元件判定装置及元件判定方法
JP6177714B2 (ja) 部品認識装置、部品移載装置および部品実装装置
CN114557152B (zh) 部件安装装置以及安装基板的制造方法
JP3681843B2 (ja) 電子部品の補正角度修正方法とそれを用いた電子部品 実装装置
US11219150B2 (en) Work machine and method for determining polarity
JP7147067B2 (ja) データ管理装置
JP7153126B2 (ja) 良否判定装置および良否判定方法
JP7153127B2 (ja) 良否判定装置および良否判定方法
JP7397125B2 (ja) 部品実装機
JP6884924B2 (ja) 部品実装装置および検査方法
WO2023286155A1 (ja) 表面実装機用のファイル管理装置、表面実装機
JP7050926B2 (ja) 異物検出方法および電子部品装着装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22959561

Country of ref document: EP

Kind code of ref document: A1