WO2020016952A1 - 部品認識装置および部品認識方法 - Google Patents

部品認識装置および部品認識方法 Download PDF

Info

Publication number
WO2020016952A1
WO2020016952A1 PCT/JP2018/026869 JP2018026869W WO2020016952A1 WO 2020016952 A1 WO2020016952 A1 WO 2020016952A1 JP 2018026869 W JP2018026869 W JP 2018026869W WO 2020016952 A1 WO2020016952 A1 WO 2020016952A1
Authority
WO
WIPO (PCT)
Prior art keywords
component
image
acquisition unit
unit
imaging
Prior art date
Application number
PCT/JP2018/026869
Other languages
English (en)
French (fr)
Inventor
秀一郎 鬼頭
一也 小谷
雅史 天野
Original Assignee
株式会社Fuji
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Fuji filed Critical 株式会社Fuji
Priority to PCT/JP2018/026869 priority Critical patent/WO2020016952A1/ja
Priority to JP2020530775A priority patent/JP7063995B2/ja
Publication of WO2020016952A1 publication Critical patent/WO2020016952A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/04Mounting of components, e.g. of leadless components
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages

Definitions

  • This specification discloses a technique relating to a component recognition device and a component recognition method.
  • the mounting machine described in Patent Literature 1 uses a camera to photograph a first candidate area where a characteristic portion is located.
  • the characteristic portion is a part of the component or the component storage container, and is a portion indicating the orientation of the component or the component storage container when the component or the component storage container is arranged in the normal orientation.
  • the mounting machine described in Patent Document 1 has a feature that when a feature is not recognized in the first candidate area, the feature is located when the component or the component housing container is arranged in an irregular orientation. Of the candidate area.
  • the present specification discloses a component recognition device and a component recognition method capable of acquiring a position of a predetermined portion of a component held by a holding member.
  • the present specification discloses a component recognition device including a first acquisition unit and a second acquisition unit.
  • the first obtaining unit captures an image of a component held by a holding member, and obtains a holding posture of the component in the holding member based on the captured first image.
  • the second obtaining unit obtains an image of at least a part of the component after the holding posture of the component is obtained, and obtains a position of a predetermined portion of the component based on the captured second image.
  • the second obtaining unit obtains a position of the predetermined part by setting a specific area where the possibility that the predetermined part is likely to exist is set based on the holding posture of the component obtained by the first obtaining unit. I do.
  • the present specification discloses a component recognition method including a first acquisition step and a second acquisition step.
  • the first obtaining step the component held by the holding member is imaged, and a holding posture of the component in the holding member is obtained based on the first image taken.
  • the second obtaining step at least a part of the component is imaged after the holding posture of the component is obtained, and a position of a predetermined part of the component is obtained based on the captured second image.
  • the second obtaining step is based on the holding posture of the component obtained in the first obtaining step, and obtains a position of the predetermined part by setting a specific area where the possibility that the predetermined part is likely to exist is obtained. I do.
  • the first and second acquisition units are provided.
  • the second acquisition unit acquires a position of the predetermined part by setting a specific area in which the possibility of the existence of the predetermined part is expected, based on the component holding posture acquired by the first acquisition part.
  • the above-described component recognition device can acquire the position of the predetermined portion of the component held by the holding member. What has been described above for the component recognition apparatus can be similarly applied to the component recognition method.
  • FIG. 2 is a plan view showing a configuration example of the component mounting machine 10.
  • FIG. 4 is a plan view showing an example of a component 80.
  • FIG. 3 is a schematic diagram illustrating a configuration example of a component camera 14 that is an imaging device CD1.
  • FIG. 3 is a block diagram illustrating an example of a control block of the component recognition device 70.
  • 6 is a flowchart illustrating an example of a control procedure performed by the component recognition device 70.
  • FIG. 3 is a schematic diagram illustrating an example of a first image PC1.
  • FIG. 7 is a schematic diagram illustrating an example of a second image PC2 obtained by imaging the specific area SA1 illustrated in FIG. 6.
  • FIG. 7 is a schematic diagram illustrating an example of a second image PC2 obtained by imaging the specific area SA2 illustrated in FIG. 6.
  • FIG. 7 is a schematic diagram illustrating an example of a second image PC2 obtained by imaging a specific area SA3 illustrated in FIG. 6.
  • FIG. 7 is a schematic diagram illustrating an example of a second image PC2 obtained by imaging a specific area SA4 illustrated in FIG. 6.
  • FIG. 11 is a plan view illustrating an example of a mounting state of the component when the mounting position is not corrected.
  • FIG. 9 is a plan view illustrating an example of a mounting state of a component when a mounting position is corrected by a correction unit.
  • FIG. 13 is a plan view showing another example of the component 80.
  • FIG. 9 is a schematic diagram illustrating another example of the first image PC1.
  • Embodiment 1-1 Configuration Example of Component Mounting Machine 10
  • the component mounting machine 10 includes a board transfer device 11, a component supply device 12, a component transfer device 13, a component camera 14, a board camera 15, and a control device 16.
  • the substrate transport device 11 is configured by a belt conveyor or the like, and transports the substrate 90 in the transport direction (X-axis direction).
  • the board 90 is a circuit board and forms at least one of an electronic circuit and an electric circuit.
  • the board transfer device 11 loads the board 90 into the component mounting machine 10 and positions the board 90 at a predetermined position in the machine. After the mounting process of the component 80 by the component mounting machine 10 is completed, the board transfer device 11 unloads the substrate 90 out of the component mounting machine 10.
  • the component supply device 12 supplies the component 80 to be mounted on the substrate 90.
  • the component supply device 12 includes a plurality of feeders 121 provided along the transport direction of the substrate 90 (X-axis direction). Each of the plurality of feeders 121 feeds the component 80 so as to be able to be collected at a collection position provided on the front end side of the feeder 121 by feeding the carrier tape containing the plurality of components 80 at a pitch.
  • the component supply device 12 can also supply a relatively large electronic component (for example, a lead component) as compared with a chip component or the like in a state where the electronic component is arranged on a tray.
  • the component transfer device 13 includes a head driving device 131 and a moving table 132.
  • the head driving device 131 is configured to be able to move the moving table 132 in the X-axis direction and the Y-axis direction by a linear motion mechanism.
  • the component mounting head 20 is detachably (replaceably) provided on the movable table 132 by a clamp member (not shown).
  • the component mounting head 20 mounts the component 80 on the substrate 90 positioned by sampling the component 80. Specifically, the component mounting head 20 picks up the component 80 supplied by the component supply device 12 by the holding member 30 and mounts the component 80 at a predetermined mounting position on the board 90 positioned.
  • a digital imaging device having an imaging element 141 can be used.
  • an imaging element 141 for example, an image sensor such as a charge coupled device (CCD: Charge Coupled Device) or a complementary metal oxide semiconductor (CMOS: Complementary Metal Oxide Semiconductor) can be used.
  • CCD Charge Coupled Device
  • CMOS complementary metal oxide semiconductor
  • the component camera 14 and the board camera 15 perform imaging based on a control signal sent from the control device 16.
  • the component camera 14 and the board camera 15 send image data obtained by imaging to the control device 16.
  • the component camera 14 is fixed to the base of the component mounting machine 10 so that the optical axis is directed upward (vertically upward) in the Z-axis direction.
  • the component camera 14 can image the component 80 held by the holding member 30 from below.
  • the board camera 15 is provided on the movable base 132 of the component transfer device 13 such that the optical axis is directed downward (vertically downward) in the Z-axis direction.
  • the board camera 15 can image the board 90 from above.
  • the control device 16 includes a central processing unit 161, a storage device 162, and an interface 163, which are electrically connected via a bus 164.
  • the central processing unit 161 is a CPU (Central Processing Unit), and can perform various calculation processes.
  • the storage device 162 includes a volatile storage device 162a, a first nonvolatile storage device 162b, and a second nonvolatile storage device 162c.
  • the volatile storage device 162a is a volatile storage device (RAM: Random Access Memory), and can temporarily store various data while power is supplied.
  • the data includes the result of the operation performed by the central processing unit 161.
  • a volatile storage device such as a DRAM (Dynamic Random Access Memory) or an SRAM (Static Random Access Memory) can be used.
  • the first nonvolatile memory device 162b is a nonvolatile memory device (ROM: Read Only Memory), and can store various data even when power is not supplied.
  • the first nonvolatile storage device 162b stores, for example, a control program and predetermined mounting conditions that are set in advance. Therefore, for example, a mask ROM in which stored data cannot be rewritten can be used as the first nonvolatile storage device 162b.
  • a nonvolatile storage device capable of rewriting stored data such as a flash memory or an EEPROM (Electrically Erasable Programmable Read Only Only Memory) can be used. In this case, the administrator of the component mounting machine 10 can easily respond to, for example, an upgrade of the control program.
  • the second nonvolatile storage device 162c is a nonvolatile storage device, and for example, a magnetic storage device such as a hard disk drive (HDD: Hard Disk Drive) or an optical storage device such as an optical disk can be used.
  • the second nonvolatile storage device 162c is a data rewritable nonvolatile storage device.
  • the second non-volatile storage device 162c can store a larger amount of data than the first non-volatile storage device 162b.
  • the data can include image data captured by the component camera 14 and the board camera 15.
  • a nonvolatile storage device such as a flash memory or an EEPROM can be used as the second nonvolatile storage device 162c.
  • the interface 163 is a device for electrically connecting the in-device of the component mounting machine 10 and the control device 16, and may use, for example, a communication interface and an input / output interface.
  • the control device 16 is electrically connected to the board transfer device 11, the component supply device 12, the component transfer device 13, the component camera 14, and the board camera 15 via the interface 163.
  • the interface 163 can also electrically connect a device outside the component mounting machine 10 to the control device 16.
  • control device 16 In the mounting process for mounting the component 80 on the substrate 90, information output from a plurality of various sensors provided on the component mounting machine 10 and a result of a recognition process by image processing or the like are input to the control device 16.
  • the control device 16 sends a control signal to the component transfer device 13 based on a control program and predetermined mounting conditions set in advance.
  • the control device 16 can control, for example, the position and the rotation angle of the holding member 30.
  • control device 16 images the component 80 held by the holding member 30 using the component camera 14.
  • the control device 16 recognizes the holding posture of the component 80 in the holding member 30 based on the image data obtained by the imaging of the component camera 14.
  • the control device 16 recognizes the holding posture of the component 80 by grasping, for example, a portion of the component 80 serving as a reference for positioning with respect to the substrate 90 and a characteristic portion of the appearance of the component 80 by image processing. be able to.
  • the control device 16 moves the component mounting head 20 toward a position above the predetermined position on the substrate 90. At this time, the control device 16 corrects the position and the rotation angle of the holding member 30 based on the holding posture of the component 80 recognized by the image processing. Then, the control device 16 lowers the holding member 30 and mounts the component 80 on the substrate 90.
  • the component 80 mounted on the substrate 90 is held by, for example, tack force due to the viscosity of a bonding material (for example, cream solder) applied in advance on the upper surface of the substrate 90.
  • the control device 16 executes a mounting process of mounting a plurality of components 80 on the board 90 by repeating the above-described pick and place cycle. The time required for the above-described pick and place cycle is called a cycle time.
  • the component 80 shown in FIG. 2 is a BGA (Ball Grid Array), and includes a direction check mark 81 and a plurality of solder balls 82.
  • the direction check mark 81 is a part that can determine whether the mounting direction of the component 80 when the component 80 is mounted on the board 90 is correct, and is included in a predetermined part PP1 described later.
  • the direction check mark 81 is formed at one of the four corners of the outer edge of the component 80.
  • the plurality of solder balls 82 are arranged in a grid (17 ⁇ 18 in the figure), and electrodes are formed. As shown in FIG. 3, the solder ball 82 is formed in a hemispherical shape. In the figure, eight solder balls 82 are illustrated for convenience of illustration.
  • FIG. 3 shows a configuration example of the component camera 14 capable of imaging the component 80 described above.
  • the component camera 14 includes an imaging element 141, a lens 142, and a light source 143.
  • the image sensor 141 can use an image sensor such as a charge-coupled device (CCD) and a complementary metal oxide semiconductor (CMOS).
  • CMOS complementary metal oxide semiconductor
  • the imaging element 141 is a two-dimensional image sensor, and includes a plurality of light receiving elements arranged in a plane.
  • the component camera 14 has a two-dimensional imaging field of view.
  • each imaging region of the plurality (four) of the unit images PU1 to PU4 corresponds to the imaging field of view of the component camera 14.
  • the lens 142 a known condenser lens can be used, and an optical system can be configured by combining a plurality of convex lenses and concave lenses.
  • an aspherical lens with reduced spherical aberration or a low dispersion lens with reduced chromatic aberration by reducing light dispersion can be used.
  • the focal length of the lens 142 is set so that the focus of the lens 142 is on the component 80.
  • the light source 143 includes a first light source 143a, an incident light generation unit 143b, and a second light source 143c.
  • the first light source 143a and the second light source 143c irradiate the component 80 with light.
  • a known light emitting diode Light Emitting Diode
  • the incident light generator 143b generates coaxial incident light from light emitted from the first light source 143a.
  • the incident light generation unit 143b can use, for example, a half mirror.
  • the direction check mark 81 is arranged so that it can be recognized by regular reflection. Therefore, the first light source 143a emits light toward the incident light generation unit 143b in the Y-axis direction (arrow L11). The light emitted from the first light source 143a is reflected by the incident light generator 143b, and travels toward the direction check mark 81 (arrow L12). The reflection angle is set to 90 degrees. The light reflected again by the direction check mark 81 travels toward the lens 142 (arrow L13). The light that has reached the lens 142 passes through the lens 142 and travels toward the image sensor 141 (arrow L14). The optical path at this time is referred to as a first optical path OP1.
  • the solder ball 82 is a hemispherical projection (bump), and the second light source 143c irradiates light from an obliquely lower part of the solder ball 82 so as to easily recognize the solder ball 82 (arrow L21).
  • the light reflected by the solder ball 82 travels toward the lens 142 (arrow L22).
  • the light that has reached the lens 142 passes through the lens 142 and travels toward the image sensor 141 (arrow L23).
  • the optical path at this time is referred to as a second optical path OP2.
  • the focal position on the component 80 side is a focal position FP1
  • the focal position on the image sensor 141 is a focal position FP0.
  • the component recognition device 70 includes a first acquisition unit 71 and a second acquisition unit 72 when viewed as a control block. It is preferable that the component recognition device 70 further includes at least one of the correction unit 73 and the storage unit 74. As shown in FIG. 4, the component recognition device 70 of the present embodiment includes a first acquisition unit 71, a second acquisition unit 72, a correction unit 73, and a storage unit 74. Further, the component recognition device 70 of the present embodiment is provided in the control device 16.
  • the component recognition device 70 executes the control program according to the flowchart shown in FIG.
  • the first acquisition unit 71 performs the process shown in step S11.
  • the second acquisition unit 72 performs the process shown in step S12.
  • the correction unit 73 performs the process shown in step S13.
  • the storage unit 74 performs the process shown in step S14.
  • the order of the processing shown in step S13 and step S14 can be changed.
  • First acquisition unit 71 The first obtaining unit 71 images the component 80 held by the holding member 30 and obtains the holding posture of the component 80 on the holding member 30 based on the first image PC1 captured (step S11). It is preferable that the first obtaining unit 71 obtains the first image PC1 by combining a plurality of (for example, four) unit images PU1 to PU4 which are images obtained by capturing a part of the component 80 and have different imaging regions. .
  • the first acquisition unit 71 moves the component mounting head 20 shown in FIG. 3 to adjust, for example, the imaging field of view of the component camera 14 to the area indicated by the unit image PU1 shown in FIG. Then, the first acquisition unit 71 outputs an imaging start signal to the imaging element 141 and the second light source 143c illustrated in FIG. When the imaging start signal is output, the second light source 143c irradiates the component 80 (the plurality of solder balls 82) with light for a predetermined exposure time. Then, the imaging element 141 simultaneously captures the plurality of solder balls 82 in the region indicated by the unit image PU1.
  • the first acquisition unit 71 moves the component mounting head 20 to adjust, for example, the imaging field of view of the component camera 14 to the area indicated by the unit image PU2. Then, the first acquisition unit 71 outputs an imaging start signal to the imaging element 141 and the second light source 143c. When the imaging start signal is output, the second light source 143c irradiates the component 80 (the plurality of solder balls 82) with light for a predetermined exposure time. Then, the imaging element 141 simultaneously captures the plurality of solder balls 82 in the region indicated by the unit image PU2. Similarly, the first acquisition unit 71 causes the component camera 14 to capture an image of each of the regions indicated by the unit images PU3 and PU4. The first acquisition unit 71 can cause a plurality of (four) unit images PU1 to PU4 to be imaged in an arbitrary order.
  • the first acquisition unit 71 performs image processing on each of the plurality of (four) unit images PU1 to PU4, and acquires the shape data of the plurality of solder balls 82.
  • Image processing can take various methods.
  • the image processing may be, for example, one processing such as binarization and edge processing, or may be a plurality of processing combining these processings.
  • a plurality (four) of unit images PU1 to PU4 have portions where the imaging regions overlap.
  • the first obtaining unit 71 obtains a first image PC1 by combining the captured unit images PU1 to PU4 based on the shape data of the plurality of solder balls 82 in the portion where the imaging regions overlap.
  • the first acquisition unit 71 acquires the holding posture of the component 80 on the holding member 30 based on the first image PC1.
  • the normal holding posture of the component 80 (the arrangement of the plurality of solder balls 82) is stored in advance.
  • the first obtaining unit 71 determines a normal holding posture of the component 80 (arrangement of the plurality of solder balls 82), a holding posture of the component 80 obtained based on the first image PC1 (arrangement of the plurality of solder balls 82), and Compare. Thereby, the first obtaining unit 71 can obtain the holding posture (rotation angle) of the component 80.
  • the component mounting head 20 includes an imaging reference unit (not shown). Then, the first acquisition unit 71 may cause the imaging reference unit to be imaged together with the component 80 (the plurality of solder balls 82) in at least one of the plurality (four) of the unit images PU1 to PU4. Thereby, the first acquisition unit 71 can acquire, for example, the distance between the imaging reference unit and the center position of the component 80 (the plurality of solder balls 82), and based on the distance, the regular holding position. Can be obtained.
  • the focal position of the imaging reference unit is different from the focal position FP1 of the component 80, it is preferable to arrange a refraction member (not shown) capable of adjusting the focal position on the lens 142.
  • a refraction member for example, various lenses including a columnar optical glass, plastic, fluorite, and an aspherical lens can be used. Accordingly, the component camera 14 as the imaging device CD1 can simultaneously capture an image of the imaging reference unit and the component 80 (the plurality of solder balls 82) having different focal positions.
  • Second acquisition unit 72 The second acquisition unit 72 acquires an image of at least a part of the component 80 after the holding posture of the component 80 is acquired, and acquires the position of the predetermined portion PP1 of the component 80 based on the captured second image PC2. Further, the second acquisition unit 72 sets specific areas SA1 to SA4 where the possibility that the predetermined part PP1 is likely to exist is set based on the holding posture of the component 80 obtained by the first acquisition part 71, and sets the predetermined part PP1. (Step S12 shown in FIG. 5).
  • the predetermined portion PP1 is not limited as long as it is a portion that can be specified in the component 80.
  • the predetermined part PP1 of the present embodiment is a direction check mark 81 that can determine whether the mounting direction of the component 80 when the component 80 is mounted on the board 90 is correct.
  • the direction check mark 81 is formed at one of the four corners of the outer edge of the component 80. Therefore, when the predetermined part PP1 is the direction check mark 81, the specific areas SA1 to SA4 are the areas shown in FIGS. In the specific areas SA1 to SA4 shown in FIG. 6, the specific areas SA1 to SA4 shown in FIG.
  • the second acquisition unit 72 can obtain the rotation angle of the component 80 at this time based on the holding posture of the component 80 acquired by the first acquisition unit 71, and can determine the specific areas SA1 to SA4 shown in FIG. Can be set.
  • the second acquisition unit 72 determines whether or not the predetermined portion PP1 exists based on the second image PC2 obtained by capturing the specific regions SA1 to SA4. Further, it is preferable that the second acquisition unit 72 cause the imaging device CD1 to set the specific regions SA1 to SA4 as the regions of interest IA1 to IA4, and use the imaging device CD1 to image the specific regions SA1 to SA4.
  • the second acquisition unit 72 of the present embodiment causes the component camera 14, which is the imaging device CD1, to set the specific regions SA1 to SA4 shown in FIG. 6 as the regions of interest IA1 to IA4, respectively. Then, the second obtaining unit 72 images the specific areas SA1 to SA4 using the component camera 14, and obtains the position of the predetermined part PP1 based on the imaged second image PC2.
  • the component camera 14, which is the imaging device CD1, sets the region of interest IA1 for the specific region SA1 shown in FIG. 6, for example.
  • the region of interest IA1 is a known ROI (Region Of Interest), and can be set by the component camera 14.
  • the second acquisition unit 72 outputs an imaging start signal to the imaging element 141 and the first light source 143a.
  • the first light source 143a irradiates the direction check mark 81 with light for a predetermined exposure time.
  • the imaging element 141 images the specific area SA1.
  • FIG. 7A shows an example of a second image PC2 obtained by imaging the specific area SA1 shown in FIG.
  • the direction check mark 81 which is the predetermined part PP1 exists in the second image PC2 obtained by imaging the specific area SA1. Therefore, the second acquisition unit 72 can determine that the position of the predetermined part PP1 (direction check mark 81) is the specific area SA1. If the predetermined part PP1 (direction check mark 81) does not exist in the second image PC2, the second acquisition unit 72 determines the predetermined part PP1 based on the second image PC2 obtained by imaging the specific area SA4, for example. Determine the existence.
  • the second acquisition unit 72 causes the component camera 14 to set the specific area SA4 as the region of interest IA4, and captures an image of the specific area SA4 using the component camera 14.
  • the arrangement of the plurality of solder balls 82 is rectangular, and there is a high possibility that the predetermined portion PP1 (direction check mark 81) exists in the second image PC2 obtained by imaging the specific area SA4.
  • the second acquisition unit 72 performs, for example, the predetermined portion PP based on the second image PC2 obtained by capturing the specific region SA2. It is determined whether PP1 exists.
  • the second acquisition unit 72 causes the component camera 14 to set the specific area SA2 as the region of interest IA2, and captures an image of the specific area SA2 using the component camera 14. Further, when the predetermined portion PP1 (direction check mark 81) does not exist in the second image PC2 obtained by capturing the specific area SA2, the second acquisition unit 72 determines the predetermined portion PP based on the second image PC2 obtained by capturing the specific area SA3. It is determined whether PP1 exists.
  • the second acquisition unit 72 causes the component camera 14 to set the specific area SA3 as the region of interest IA3, and captures an image of the specific area SA3 using the component camera 14.
  • the second acquisition unit 72 can determine the presence or absence of the predetermined portion PP1 (direction check mark 81) in an arbitrary order in the specific regions SA1 to SA4. .
  • FIGS. 7B to 7D show an example of the second image PC2 obtained by imaging the specific areas SA2 to SA4 shown in FIG.
  • the direction check mark 81 which is the predetermined portion PP1 does not exist in the second image PC2 obtained by imaging the specific areas SA2 to SA4. Therefore, it can be said that the determination that the position of the predetermined part PP1 (direction check mark 81) is the specific area SA1 is valid.
  • the second acquisition unit 72 determines the presence or absence of the predetermined portion PP1 for the plurality of specific regions SA1 to SA4 where the possibility that the predetermined portion PP1 is likely to be present, so that, for example, due to the attachment of a foreign substance or the like. Erroneous recognition of the predetermined portion PP1 can be reduced.
  • the second acquisition unit 72 changes the imaging conditions for acquiring the second image PC2, the image processing method of the second image PC2, and the like to determine whether the predetermined portion PP1 (direction check mark 81) exists. Should be judged again.
  • the second acquisition unit 72 can also extract the specific areas SA1 to SA4 from the second image PC2 and determine whether the predetermined part PP1 exists. Specifically, the second acquisition unit 72 moves the component mounting head 20 illustrated in FIG. 3 to adjust, for example, the imaging field of view of the component camera 14 to an area indicated by the unit image PU1 illustrated in FIG. Then, the second acquisition unit 72 outputs an imaging start signal to the imaging element 141 and the first light source 143a. When the imaging start signal is output, the first light source 143a irradiates the direction check mark 81 with light for a predetermined exposure time. Then, the imaging element 141 captures an image of the area indicated by the unit image PU1.
  • the second acquisition unit 72 can extract the specific area SA1 from the second image PC2 and determine whether or not the predetermined part PP1 (direction check mark 81) exists. What has been described above for the specific area SA1 can be similarly applied to the specific areas SA2 to SA4.
  • Correction unit 73 The correction unit 73 corrects at least one of the mounting position P2 and the mounting angle ⁇ 1 of the component 80 when mounting the component 80 on the board 90 based on the position of the predetermined part PP1 acquired by the second acquisition unit 72. (Step S13 shown in FIG. 5). As described above, the holding posture (rotation angle) of the component 80 obtained by the first obtaining unit 71 is obtained based on the arrangement of the plurality of solder balls 82. Therefore, when the arrangement of the plurality of solder balls 82 is rectangular, two holding postures different in rotation angle by 180 degrees are assumed.
  • the holding posture (rotation angle) of the component 80 held by the holding member 30 is determined by obtaining the position of the predetermined portion PP1 (direction check mark 81) by the second obtaining unit 72.
  • the arrangement of the plurality of solder balls 82 is square, four holding postures with rotation angles of 0, 90, 180, and 270 degrees are assumed.
  • the holding posture at this time is referred to as a first holding posture
  • the mounting state at this time is referred to as a first mounting state.
  • the first holding posture is a normal holding posture
  • the first mounting state is a normal mounting state.
  • the counterclockwise rotation is performed by the mounting angle ⁇ 1 minute.
  • the holding posture at this time is referred to as a second holding posture. If the correction is not performed by the correction unit 73 when the holding posture is the second holding posture, the component 80 is mounted on the board 90 in a state indicated by a solid line in FIG. 8A.
  • the correction unit 73 sets a position shifted from the mounting position P1 by a deviation ⁇ X in a direction opposite to the X-axis direction (negative direction of the X-axis) as a mounting position P2.
  • the correction unit 73 sets the corrected rotation angle of the holding member 30 to the mounting angle ⁇ 1 (clockwise).
  • the holding member 30 is lowered at the mounting position P2 while being rotated clockwise by the mounting angle ⁇ 1.
  • the component 80 is mounted on the board 90 as shown by the solid line in FIG. 8B.
  • the mounting state at this time is the same as the first mounting state shown in FIG. 8A.
  • the correcting unit 73 can correct at least one of the mounting position P2 and the mounting angle ⁇ 1 of the component 80 based on the position of the predetermined part PP1 acquired by the second acquiring unit 72.
  • Storage unit 74 causes the storage device 162 to store the position of the predetermined part PP1 acquired by the second acquisition unit 72 (Step S14 shown in FIG. 5). Specifically, the storage unit 74 can store the position of the predetermined part PP1 acquired by the second acquisition unit 72 in the second nonvolatile storage device 162c shown in FIG.
  • the administrator who manages the component mounting machine 10 may analyze the defect. In this case, the administrator saves the operation state while the component mounting machine 10 is operating, and traces (tracks) the operation of the component mounting machine 10 based on the stored operation history.
  • the second acquisition unit 72 acquires the position of the predetermined part PP1 (direction check mark 81). Therefore, the storage unit 74 stores the position of the predetermined part PP1 (direction check mark 81) in the storage device 162 (second nonvolatile storage device 162c), so that the administrator can change the holding state of the component 80 by the holding member 30. Can be traced.
  • the storage unit 74 can also store the image data used for obtaining the position of the predetermined part PP1 (direction check mark 81) in the storage device 162 (second nonvolatile storage device 162c). It is preferable that the image data include image data of at least the second image PC2 of the first image PC1 and the second image PC2.
  • the image data include image data of at least the second image PC2 of the first image PC1 and the second image PC2.
  • the second image PC2 is an image obtained by capturing the specific areas SA1 to SA4
  • the data capacity at the time of storing the image data is reduced as compared with an image obtained by capturing the entire component 80.
  • the second image PC2 is an image of the specific area SA1 to SA4
  • the image data transmitted from the component camera 14 as the imaging device CD1 to the control device 16 is compared with an image of the entire component 80. Data capacity is reduced.
  • the storage unit 74 can sequentially store the position of the predetermined part PP1 every time the position of the predetermined part PP1 (direction check mark 81) is obtained by the second obtaining unit 72. Further, when the positions of the predetermined parts PP1 for the predetermined number of components 80 are accumulated, the storage unit 74 may store the positions of the predetermined number of predetermined parts PP1 all at once or in a plurality of times. it can.
  • the control device 16 may include, for example, a ring buffer capable of temporarily storing a plurality of data. Further, in order to reduce the load on the central processing unit 161 shown in FIG. 1, the control device 16 may include, for example, a DMA (Direct Memory Access) controller.
  • the storage unit 74 stores in the storage device 162 (second non-volatile storage device 162c) the unique information that can identify the component 80, the acquisition date, the acquisition time, the version information of the control program, and the like. It is suitable.
  • the predetermined part PP1 may be an identification code 83 indicating unique information of the component 80.
  • the unique information preferably includes, for example, a part type, a part name, a model, a production maker name, a production lot, and the like.
  • the identification code 83 may be a one-dimensional code or a two-dimensional code.
  • FIG. 9 schematically shows a state where the identification code 83 of the two-dimensional code is attached to the center of the component 80.
  • the first obtaining unit 71 obtains the holding posture of the component 80 in the holding member 30 based on the first image PC1.
  • the second obtaining unit 72 sets a specific area SA1 in which the possibility that the predetermined part PP1 is likely to exist is set based on the holding posture of the component 80 obtained by the first obtaining part 71, and sets the position of the predetermined part PP1. To get.
  • the identification code 83 is attached to the center of the component 80, and the second acquisition unit 72 can set one specific area SA1. Therefore, the second acquisition unit 72 can determine whether or not the predetermined portion PP1 exists based on the second image PC2 obtained by imaging the specific area SA1. Furthermore, the second acquisition unit 72 can cause the component camera 14 to set the specific area SA1 as the region of interest IA1, and use the component camera 14 to image the specific area SA1.
  • the second acquisition unit 72 moves the component mounting head 20 shown in FIG. 3 to adjust the imaging field of view of the component camera 14 to the specific area SA1 shown in FIG. Then, the second acquisition unit 72 outputs an imaging start signal to the imaging element 141 and the first light source 143a.
  • the imaging start signal is output
  • the first light source 143a irradiates the identification code 83 with light for a predetermined exposure time.
  • the imaging element 141 images the specific area SA1.
  • the second acquisition unit 72 acquires the position of the identification code 83 that is the predetermined part PP1 when the unique information of the component 80 can be read.
  • the second acquisition unit 72 can also extract the specific area SA1 from the second image PC2 in which at least a part of the component 80 has been imaged, and determine whether or not the predetermined portion PP1 exists.
  • the component recognition device 70 can also be applied to the component mounting machine 10 in which the plurality of holding members 30 are detachably provided on the component mounting head 20.
  • the component mounting head 20 for example, a rotary head in which a plurality of holding members 30 are provided in an annular shape can be used.
  • a line head in which a plurality of holding members 30 are provided in a straight line can be used.
  • the first acquisition unit 71 acquires the first image PC1 by simultaneously capturing the plurality of components 80 held by the plurality of holding members 30.
  • FIG. 10 shows an example of the first image PC1 in which a plurality of (12 in the figure) components 80 held by a plurality of (12 in the figure) holding members 30 are simultaneously imaged.
  • the component mounting head 20 is a rotary head in which a plurality of (12) holding members 30 are provided in an annular shape.
  • the plurality (12) of the components 80 are smaller than the components 80 of the embodiment and the first modification, and the first image PC1 is provided in one imaging field of view of the component camera 14 (for example, the unit field described above). (Corresponding to the area indicated by the image PU1).
  • at least one component 80 (one component 80 in the figure) of the plurality (12) of components 80 includes a concave portion 84 that is the predetermined portion PP1.
  • the concave portion 84 is a portion in which a part of the component 80 is depressed, and is arranged so as to be recognized by specular reflection similarly to the direction check mark 81 described above.
  • the first acquisition unit 71 can acquire the first image PC1 by one-time imaging without combining a plurality of (for example, four) unit images PU1 to PU4. Also in this case, similarly to the embodiment, the first acquisition unit 71 determines whether the component 80 (the component 80 including the concave portion 84 that is the predetermined portion PP1) held by the holding member 30 is based on the first image PC1. Get the holding posture. Further, the second acquisition unit 72 sets a specific area SA1 in which the possibility that the predetermined part PP1 is likely to exist is set based on the holding posture of the component 80 obtained by the first acquisition unit 71, and sets the position of the predetermined part PP1. To get.
  • the second acquisition unit 72 can determine the presence or absence of the predetermined portion PP1 based on the second image PC2 obtained by imaging the specific area SA1. In addition, the second acquisition unit 72 can cause the component camera 14 to set the specific area SA1 as the region of interest IA1, and use the component camera 14 to image the specific area SA1. Note that the second acquisition unit 72 can also extract the specific area SA1 from the second image PC2 in which at least a part of the component 80 has been imaged, and determine whether or not the predetermined portion PP1 exists.
  • the first acquisition unit 71 acquires the first image PC1 by combining a plurality of (four) unit images PU1 to PU4 having different imaging regions.
  • the number of unit images is not limited. When the number of unit images increases, there occurs a unit image in which a specific area is not set.
  • the second acquisition section 72 may determine whether or not the predetermined portion PP1 exists based on the second image PC2 obtained by imaging the specific region. Accordingly, the second acquisition unit 72 captures an area corresponding to all unit images, captures the second image PC2, and extracts the specific area SA1 in comparison with the case of capturing the second image PC2. The number of times can be reduced.
  • the component recognition method includes a first acquisition step and a second acquisition step.
  • the first acquisition step the component 80 held by the holding member 30 is imaged, and the holding posture of the component 80 on the holding member 30 is obtained based on the captured first image PC1.
  • the second acquisition step at least a part of the component 80 is imaged after the holding posture of the component 80 is acquired, and the position of the predetermined portion PP1 of the component 80 is acquired based on the captured second image PC2.
  • the component recognition method preferably includes at least one of a correction step and a storage step.
  • the correction process corresponds to the control performed by the correction unit 73.
  • the storage step corresponds to the control performed by the storage unit 74.
  • a first acquisition unit 71 and a second acquisition unit 72 are provided.
  • the second acquisition unit 72 sets the specific regions SA1 to SA4 where the possibility that the predetermined region PP1 is likely to exist is determined. Get the position of.
  • the component recognition device 70 can acquire the position of the predetermined portion PP1 of the component 80 held by the holding member 30. What has been described above for the component recognition device 70 can be similarly applied to the component recognition method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Operations Research (AREA)
  • Supply And Installment Of Electrical Components (AREA)

Abstract

部品認識装置は、第一取得部と、第二取得部とを備える。第一取得部は、保持部材によって保持されている部品を撮像し撮像された第一画像に基づいて、保持部材における部品の保持姿勢を取得する。第二取得部は、部品の保持姿勢が取得された後に部品の少なくとも一部を撮像し撮像された第二画像に基づいて、部品の所定部位の位置を取得する。第二取得部は、第一取得部によって取得された部品の保持姿勢に基づいて、所定部位が存在する可能性が見込まれる特定領域を設定して所定部位の位置を取得する。

Description

部品認識装置および部品認識方法
 本明細書は、部品認識装置および部品認識方法に関する技術を開示する。
 特許文献1に記載の実装機は、カメラによって、特徴部が位置する第一の候補領域の撮影を行う。特徴部は、部品または部品収容容器の一部の領域であって、部品または部品収容容器が正規の向きで配置されているときに、部品または部品収容容器の向きを示す部位である。また、特許文献1に記載の実装機は、第一の候補領域において特徴部が認識されなかったときには、部品または部品収容容器が非正規の向きで配置されているときに特徴部が位置する他の候補領域の撮影を行う。
特開2008-021946号公報
 保持部材によって保持されている部品は、部品の保持姿勢によって所定部位(例えば、上述した特徴部)の位置が異なる。よって、特許文献1に記載の実装機では、保持部材によって保持されている部品の所定部位(例えば、上述した特徴部)の位置を特定することは困難である。
 このような事情に鑑みて、本明細書は、保持部材によって保持されている部品の所定部位の位置を取得可能な部品認識装置および部品認識方法を開示する。
 本明細書は、第一取得部と、第二取得部と、を備える部品認識装置を開示する。前記第一取得部は、保持部材によって保持されている部品を撮像し撮像された第一画像に基づいて、前記保持部材における前記部品の保持姿勢を取得する。前記第二取得部は、前記部品の前記保持姿勢が取得された後に前記部品の少なくとも一部を撮像し撮像された第二画像に基づいて、前記部品の所定部位の位置を取得する。前記第二取得部は、前記第一取得部によって取得された前記部品の前記保持姿勢に基づいて、前記所定部位が存在する可能性が見込まれる特定領域を設定して前記所定部位の位置を取得する。
 また、本明細書は、第一取得工程と、第二取得工程と、を備える部品認識方法を開示する。前記第一取得工程は、保持部材によって保持されている部品を撮像し撮像された第一画像に基づいて、前記保持部材における前記部品の保持姿勢を取得する。前記第二取得工程は、前記部品の前記保持姿勢が取得された後に前記部品の少なくとも一部を撮像し撮像された第二画像に基づいて、前記部品の所定部位の位置を取得する。前記第二取得工程は、前記第一取得工程によって取得された前記部品の前記保持姿勢に基づいて、前記所定部位が存在する可能性が見込まれる特定領域を設定して前記所定部位の位置を取得する。
 上記の部品認識装置によれば、第一取得部および第二取得部を備えている。特に、第二取得部は、第一取得部によって取得された部品の保持姿勢に基づいて、所定部位が存在する可能性が見込まれる特定領域を設定して所定部位の位置を取得する。これにより、上記の部品認識装置は、保持部材によって保持されている部品の所定部位の位置を取得することができる。部品認識装置について上述したことは、部品認識方法についても同様に言える。
部品装着機10の構成例を示す平面図である。 部品80の一例を示す平面図である。 撮像装置CD1である部品カメラ14の構成例を示す模式図である。 部品認識装置70の制御ブロックの一例を示すブロック図である。 部品認識装置70による制御手順の一例を示すフローチャートである。 第一画像PC1の一例を示す模式図である。 図6に示す特定領域SA1を撮像した第二画像PC2の一例を示す模式図である。 図6に示す特定領域SA2を撮像した第二画像PC2の一例を示す模式図である。 図6に示す特定領域SA3を撮像した第二画像PC2の一例を示す模式図である。 図6に示す特定領域SA4を撮像した第二画像PC2の一例を示す模式図である。 装着位置が補正されないときの部品80の装着状態の一例を示す平面図である。 補正部73によって装着位置が補正されたときの部品80の装着状態の一例を示す平面図である。 部品80の他の一例を示す平面図である。 第一画像PC1の他の一例を示す模式図である。
 1.実施形態
 1-1.部品装着機10の構成例
 図1に示すように、部品装着機10は、基板搬送装置11、部品供給装置12、部品移載装置13、部品カメラ14、基板カメラ15および制御装置16を備えている。基板搬送装置11は、ベルトコンベアなどにより構成され、基板90を搬送方向(X軸方向)に搬送する。基板90は、回路基板であり、電子回路および電気回路のうちの少なくとも一方を形成する。基板搬送装置11は、部品装着機10の機内に基板90を搬入するとともに、機内の所定位置に基板90を位置決めする。基板搬送装置11は、部品装着機10による部品80の装着処理が終了した後に、基板90を部品装着機10の機外に搬出する。
 部品供給装置12は、基板90に装着する部品80を供給する。具体的には、部品供給装置12は、基板90の搬送方向(X軸方向)に沿って設けられる複数のフィーダ121を備えている。複数のフィーダ121の各々は、複数の部品80が収納されているキャリアテープをピッチ送りさせて、フィーダ121の先端側に設けられる採取位置において、部品80を採取可能に供給する。なお、部品供給装置12は、チップ部品などと比べて比較的大型の電子部品(例えば、リード部品など)を、トレイ上に配置した状態で供給することもできる。
 部品移載装置13は、ヘッド駆動装置131および移動台132を備えている。ヘッド駆動装置131は、直動機構により移動台132を、X軸方向およびY軸方向に移動可能に構成されている。移動台132には、クランプ部材(図示略)により部品装着ヘッド20が着脱可能に(交換可能に)設けられている。部品装着ヘッド20は、部品80を採取して位置決めされた基板90に部品80を装着する。具体的には、部品装着ヘッド20は、部品供給装置12によって供給される部品80を保持部材30によって採取して、位置決めされた基板90の所定の装着位置に装着する。
 部品カメラ14および基板カメラ15は、例えば、撮像素子141を有するデジタル式の撮像装置を用いることができる。撮像素子141は、例えば、電荷結合素子(CCD:Charge Coupled Device)または相補型金属酸化膜半導体(CMOS:Complementary Metal Oxide Semiconductor)などのイメージセンサを用いることができる。部品カメラ14および基板カメラ15は、制御装置16から送出される制御信号に基づいて撮像を行う。部品カメラ14および基板カメラ15は、撮像により取得した画像データを制御装置16に送出する。
 部品カメラ14は、光軸がZ軸方向の上向き(鉛直上方方向)となるように、部品装着機10の基台に固定されている。部品カメラ14は、保持部材30によって保持されている部品80を下方から撮像することができる。基板カメラ15は、光軸がZ軸方向の下向き(鉛直下方方向)となるように、部品移載装置13の移動台132に設けられている。基板カメラ15は、基板90を上方から撮像することができる。
 制御装置16は、中央演算装置161、記憶装置162およびインターフェース163を備えており、これらは、バス164を介して、電気的に接続されている。中央演算装置161は、CPU(Central Processing Unit)であり、種々の演算処理を行うことができる。記憶装置162は、揮発性記憶装置162a、第一不揮発性記憶装置162bおよび第二不揮発性記憶装置162cを備えている。
 揮発性記憶装置162aは、揮発性の記憶装置(RAM:Random Access Memory)であり、電力が供給されている状態において、種々のデータを一時的に記憶することができる。当該データには、中央演算装置161によって演算処理された演算結果が含まれる。揮発性記憶装置162aは、例えば、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)などの揮発性記憶装置を用いることができる。
 第一不揮発性記憶装置162bは、不揮発性の記憶装置(ROM:Read Only Memory)であり、電力が供給されていない状態においても、種々のデータを記憶しておくことができる。第一不揮発性記憶装置162bには、例えば、制御プログラムおよび予め設定される所定の装着条件などが記憶される。そのため、第一不揮発性記憶装置162bは、例えば、記憶されているデータを書き換え不可能なマスクROMを用いることができる。また、第一不揮発性記憶装置162bは、例えば、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)などの記憶されているデータを書き換え可能な不揮発性記憶装置を用いることもできる。この場合、部品装着機10の管理者は、例えば、制御プログラムのバージョンアップなどに対して、容易に対応することができる。
 第二不揮発性記憶装置162cは、不揮発性の記憶装置であり、例えば、ハードディスクドライブ(HDD:Hard Disk Drive)などの磁気記憶装置、光ディスクなどの光学記憶装置などを用いることができる。第二不揮発性記憶装置162cは、データを書き換え可能な不揮発性記憶装置である。第二不揮発性記憶装置162cは、第一不揮発性記憶装置162bと比べて、大容量の多数のデータを記憶することができる。当該データは、部品カメラ14および基板カメラ15によって撮像された画像データを含むことができる。なお、第二不揮発性記憶装置162cは、例えば、フラッシュメモリ、EEPROMなどの不揮発性記憶装置を用いることもできる。
 インターフェース163は、部品装着機10の機内の機器と、制御装置16とを電気的に接続する機器であり、例えば、通信インターフェース、入出力インターフェースなどを用いることができる。制御装置16は、インターフェース163を介して、基板搬送装置11、部品供給装置12、部品移載装置13、部品カメラ14および基板カメラ15と電気的に接続されている。また、インターフェース163は、部品装着機10の機外の機器と、制御装置16とを電気的に接続することもできる。
 制御装置16には、基板90に部品80を装着する装着処理において、部品装着機10に設けられている複数の各種センサから出力される情報、画像処理などによる認識処理の結果が入力される。制御装置16は、制御プログラムおよび予め設定されている所定の装着条件などに基づいて、部品移載装置13に対して制御信号を送出する。制御装置16は、例えば、保持部材30の位置および回転角度を制御することができる。
 具体的には、制御装置16は、保持部材30によって保持されている部品80を、部品カメラ14を用いて撮像する。制御装置16は、部品カメラ14の撮像により取得した画像データに基づいて、保持部材30における部品80の保持姿勢を認識する。このとき、制御装置16は、例えば、基板90に対する位置決めの基準となる部品80の部位、部品80の外観で特徴的な部位などを画像処理により把握することによって、部品80の保持姿勢を認識することができる。
 次に、制御装置16は、基板90における所定位置の上方に向かって、部品装着ヘッド20を移動させる。このとき、制御装置16は、画像処理により認識された部品80の保持姿勢に基づいて、保持部材30の位置および回転角度を補正する。そして、制御装置16は、保持部材30を下降させて基板90に部品80を装着する。基板90に装着された部品80は、例えば、基板90の上面に予め塗布されている接合材(例えば、クリームはんだ)の粘性などによるタック力で保持される。制御装置16は、上述したピックアンドプレースサイクルを繰り返すことにより、基板90に複数の部品80を装着する装着処理を実行する。上述したピックアンドプレースサイクルに要する時間をサイクルタイムという。
 1-2.部品カメラ14の構成例
 図2に示す部品80は、BGA(Ball Grid Array)であり、方向チェックマーク81と、複数のはんだボール82とを備えている。方向チェックマーク81は、部品80が基板90に装着されたときの部品80の装着方向の正否を判別可能な部位であり、後述する所定部位PP1に含まれる。方向チェックマーク81は、部品80の外縁の四つの角部のうちの一の角部に形成されている。複数のはんだボール82は、格子状(同図では、17個×18個)に並べられており、電極が形成されている。図3に示すように、はんだボール82は、半球状に形成されている。なお、同図では、図示の便宜上、8つのはんだボール82が図示されている。
 図3は、上述した部品80を撮像可能な部品カメラ14の構成例を示している。部品カメラ14は、撮像素子141と、レンズ142と、光源143とを備えている。既述したように、撮像素子141は、電荷結合素子(CCD)、相補型金属酸化膜半導体(CMOS)などのイメージセンサを用いることができる。撮像素子141は、二次元イメージセンサであり、平面状に配置された複数の受光素子を備えている。これにより、部品カメラ14は、二次元的な撮像視野をもつ。図2に示す例では、複数(4つ)の単位画像PU1~PU4の各々の撮像領域が部品カメラ14の撮像視野に相当する。
 レンズ142は、公知の集光用レンズを用いることができ、凸レンズおよび凹レンズを複数組み合わせて、光学系を構成することもできる。レンズ142は、例えば、球面収差を低減した非球面レンズ、光の分散を少なくして色収差を低減した低分散レンズを用いることもできる。なお、レンズ142の焦点が部品80に合うように、レンズ142の焦点距離が設定されている。
 光源143は、第一光源143aと、落射光生成部143bと、第二光源143cとを備えている。第一光源143aおよび第二光源143cは、部品80に光を照射する。第一光源143aおよび第二光源143cは、例えば、公知の発光ダイオード(Light Emitting Diode)を用いることができ、照射する光の波長は、限定されない。落射光生成部143bは、第一光源143aから照射される光から同軸落射光を生成する。落射光生成部143bは、例えば、ハーフミラーを用いることができる。
 方向チェックマーク81は、正反射によって認識できるように配置されている。そのため、第一光源143aは、落射光生成部143bに向かってY軸方向に光を照射する(矢印L11)。第一光源143aから照射された光は、落射光生成部143bで反射され、方向チェックマーク81に向かって進行する(矢印L12)。反射角は、90度に設定されている。方向チェックマーク81で再び反射した光は、レンズ142に向かって進行する(矢印L13)。レンズ142に到達した光は、レンズ142を透過して撮像素子141に向かって進行する(矢印L14)。このときの光路を第一光路OP1とする。
 はんだボール82は、半球状の突起部(バンプ)であり、第二光源143cは、はんだボール82を認識し易いように、はんだボール82の斜め下方から光を照射する(矢印L21)。はんだボール82で反射した光は、レンズ142に向かって進行する(矢印L22)。レンズ142に到達した光は、レンズ142を透過して撮像素子141に向かって進行する(矢印L23)。このときの光路を第二光路OP2とする。なお、部品80側の焦点位置を焦点位置FP1とし、撮像素子141側の焦点位置を焦点位置FP0とする。
 1-3.部品認識装置70の構成例
 部品認識装置70は、制御ブロックとして捉えると、第一取得部71と、第二取得部72とを備えている。部品認識装置70は、補正部73および保存部74のうちの少なくとも一方をさらに備えると好適である。図4に示すように、本実施形態の部品認識装置70は、第一取得部71と、第二取得部72と、補正部73と、保存部74とを備えている。また、本実施形態の部品認識装置70は、制御装置16に設けられている。
 さらに、部品認識装置70は、図5に示すフローチャートに従って、制御プログラムを実行する。第一取得部71は、ステップS11に示す処理を行う。第二取得部72は、ステップS12に示す処理を行う。補正部73は、ステップS13に示す処理を行う。保存部74は、ステップS14に示す処理を行う。なお、ステップS13およびステップS14に示す処理の順序は、入れ替えることもできる。
 1-3-1.第一取得部71
 第一取得部71は、保持部材30によって保持されている部品80を撮像し撮像された第一画像PC1に基づいて、保持部材30における部品80の保持姿勢を取得する(ステップS11)。第一取得部71は、部品80の一部を撮像した画像であって撮像領域が異なる複数(例えば、4つ)の単位画像PU1~PU4を合成して第一画像PC1を取得すると好適である。
 具体的には、第一取得部71は、図3に示す部品装着ヘッド20を移動させて、例えば、部品カメラ14の撮像視野を図6に示す単位画像PU1によって示される領域に合わせる。そして、第一取得部71は、図3に示す撮像素子141および第二光源143cに撮像開始信号を出力する。撮像開始信号が出力されると、第二光源143cは、所定の露光時間、部品80(複数のはんだボール82)に光を照射する。そして、撮像素子141は、単位画像PU1によって示される領域の複数のはんだボール82を同時に撮像する。
 次に、第一取得部71は、部品装着ヘッド20を移動させて、例えば、部品カメラ14の撮像視野を単位画像PU2によって示される領域に合わせる。そして、第一取得部71は、撮像素子141および第二光源143cに撮像開始信号を出力する。撮像開始信号が出力されると、第二光源143cは、所定の露光時間、部品80(複数のはんだボール82)に光を照射する。そして、撮像素子141は、単位画像PU2によって示される領域の複数のはんだボール82を同時に撮像する。同様にして、第一取得部71は、部品カメラ14に対して、単位画像PU3および単位画像PU4によって示される領域をそれぞれ撮像させる。なお、第一取得部71は、任意の順序で複数(4つ)の単位画像PU1~PU4の撮像を行わせることができる。
 第一取得部71は、撮像された複数(4つ)の単位画像PU1~PU4の各々を画像処理して、複数のはんだボール82の形状データを取得する。画像処理は、種々の方法を採り得る。画像処理は、例えば、二値化、エッジ処理のような一つの処理であっても良く、これらの処理を組み合わせた複数の処理であっても良い。図6に示すように、複数(4つ)の単位画像PU1~PU4は、撮像領域が重複している部分が存在する。第一取得部71は、撮像領域が重複している部分の複数のはんだボール82の形状データに基づいて、撮像された単位画像PU1~PU4を合成して、第一画像PC1を取得する。
 第一取得部71は、第一画像PC1に基づいて、保持部材30における部品80の保持姿勢を取得する。図1に示す第一不揮発性記憶装置162bには、予め部品80の正規の保持姿勢(複数のはんだボール82の配置)が記憶されている。第一取得部71は、部品80の正規の保持姿勢(複数のはんだボール82の配置)と、第一画像PC1に基づいて取得される部品80の保持姿勢(複数のはんだボール82の配置)とを比較する。これにより、第一取得部71は、部品80の保持姿勢(回転角度)を取得することができる。
 なお、部品80の保持姿勢として、正規の保持位置に対する偏差を取得する場合、部品装着ヘッド20は、撮像基準部(図示略)を備えると好適である。そして、第一取得部71は、複数(4つ)の単位画像PU1~PU4の少なくとも一つにおいて、部品80(複数のはんだボール82)と併せて撮像基準部を撮像させると良い。これにより、第一取得部71は、例えば、撮像基準部と部品80(複数のはんだボール82)の中心位置との間の距離を取得することができ、当該距離に基づいて、正規の保持位置に対する偏差を取得することができる。
 また、撮像基準部の焦点位置が部品80の焦点位置FP1と異なる場合は、焦点位置を調整可能な屈折部材(図示略)をレンズ142上に配置すると好適である。屈折部材は、例えば、円柱状の光学ガラス、プラスチック、蛍石、非球面レンズをはじめとした種々のレンズなどを用いることができる。これにより、撮像装置CD1である部品カメラ14は、焦点位置が異なる撮像基準部と部品80(複数のはんだボール82)を同時に撮像することができる。
 1-3-2.第二取得部72
 第二取得部72は、部品80の保持姿勢が取得された後に部品80の少なくとも一部を撮像し撮像された第二画像PC2に基づいて、部品80の所定部位PP1の位置を取得する。また、第二取得部72は、第一取得部71によって取得された部品80の保持姿勢に基づいて、所定部位PP1が存在する可能性が見込まれる特定領域SA1~SA4を設定して所定部位PP1の位置を取得する(図5に示すステップS12)。所定部位PP1は、部品80において特定可能な部位であれば良く、限定されない。本実施形態の所定部位PP1は、部品80が基板90に装着されたときの部品80の装着方向の正否を判別可能な方向チェックマーク81である。
 既述したように、方向チェックマーク81は、部品80の外縁の四つの角部のうちの一の角部に形成される。そのため、所定部位PP1が方向チェックマーク81である場合、特定領域SA1~SA4は、図2および図6に示す領域である。図6に示す特定領域SA1~SA4は、部品80の保持姿勢に合わせて、図2に示す特定領域SA1~SA4が反時計回りに回転している。第二取得部72は、第一取得部71によって取得された部品80の保持姿勢に基づいて、このときの部品80の回転角度を知得することができ、図6に示す特定領域SA1~SA4を設定することができる。
 第二取得部72は、特定領域SA1~SA4を撮像した第二画像PC2に基づいて、所定部位PP1の存否を判断すると好適である。また、第二取得部72は、撮像装置CD1に対して、特定領域SA1~SA4を関心領域IA1~IA4に設定させて、撮像装置CD1を用いて特定領域SA1~SA4を撮像すると好適である。本実施形態の第二取得部72は、撮像装置CD1である部品カメラ14に対して、図6に示す特定領域SA1~SA4を関心領域IA1~IA4にそれぞれ設定させる。そして、第二取得部72は、部品カメラ14を用いて特定領域SA1~SA4を撮像し、撮像された第二画像PC2に基づいて、所定部位PP1の位置を取得する。
 具体的には、撮像装置CD1である部品カメラ14は、例えば、図6に示す特定領域SA1に対して、関心領域IA1を設定する。関心領域IA1は、公知のROI(Region Of Interest)であり、部品カメラ14によって設定することができる。そして、第二取得部72は、撮像素子141および第一光源143aに撮像開始信号を出力する。撮像開始信号が出力されると、第一光源143aは、所定の露光時間、方向チェックマーク81に光を照射する。そして、撮像素子141は、特定領域SA1を撮像する。
 図7Aは、図6に示す特定領域SA1を撮像した第二画像PC2の一例を示している。特定領域SA1を撮像した第二画像PC2には、所定部位PP1である方向チェックマーク81が存在する。よって、第二取得部72は、所定部位PP1(方向チェックマーク81)の位置が特定領域SA1であると判断することができる。なお、仮に、第二画像PC2に所定部位PP1(方向チェックマーク81)が存在しない場合、第二取得部72は、例えば、特定領域SA4を撮像した第二画像PC2に基づいて、所定部位PP1の存否を判断する。また、第二取得部72は、部品カメラ14に対して特定領域SA4を関心領域IA4に設定させて、部品カメラ14を用いて特定領域SA4を撮像する。本実施形態では、複数のはんだボール82の配置は、長方形状であり、特定領域SA4を撮像した第二画像PC2に所定部位PP1(方向チェックマーク81)が存在する可能性が高い。
 特定領域SA4を撮像した第二画像PC2に所定部位PP1(方向チェックマーク81)が存在しない場合、第二取得部72は、例えば、特定領域SA2を撮像した第二画像PC2に基づいて、所定部位PP1の存否を判断する。第二取得部72は、部品カメラ14に対して特定領域SA2を関心領域IA2に設定させて、部品カメラ14を用いて特定領域SA2を撮像する。また、特定領域SA2を撮像した第二画像PC2に所定部位PP1(方向チェックマーク81)が存在しない場合、第二取得部72は、特定領域SA3を撮像した第二画像PC2に基づいて、所定部位PP1の存否を判断する。第二取得部72は、部品カメラ14に対して特定領域SA3を関心領域IA3に設定させて、部品カメラ14を用いて特定領域SA3を撮像する。
 特定領域SA1について上述したことは、特定領域SA2~SA4についても同様に言える。また、関心領域IA1について上述したことは、関心領域IA2~IA4についても同様に言える。なお、所定部位PP1の存否を判断する順序は、限定されない。例えば、複数のはんだボール82の配置が正方形状の場合、第二取得部72は、特定領域SA1~SA4について、任意の順序で所定部位PP1(方向チェックマーク81)の存否を判断することができる。
 図7B~図7Dは、図6に示す特定領域SA2~SA4を撮像した第二画像PC2の一例を示している。特定領域SA2~SA4を撮像した第二画像PC2には、所定部位PP1である方向チェックマーク81が存在しない。よって、上述した所定部位PP1(方向チェックマーク81)の位置が特定領域SA1である旨の判断は、正当であると言える。このように、第二取得部72は、所定部位PP1が存在する可能性が見込まれる複数の特定領域SA1~SA4について、所定部位PP1の存否を判断することにより、例えば、異物等の付着などによる所定部位PP1の誤認識を低減することができる。
 例えば、特定領域SA1および特定領域SA4の両方について、第二画像PC2に所定部位PP1(方向チェックマーク81)が存在する場合、所定部位PP1(方向チェックマーク81)の誤認識の可能性がある。この場合、第二取得部72は、例えば、第二画像PC2を取得するときの撮像条件、第二画像PC2の画像処理の方法などを変更して、所定部位PP1(方向チェックマーク81)の存否を再度判断すると良い。
 また、第二取得部72は、第二画像PC2から特定領域SA1~SA4を抽出して所定部位PP1の存否を判断することもできる。具体的には、第二取得部72は、図3に示す部品装着ヘッド20を移動させて、例えば、部品カメラ14の撮像視野を図6に示す単位画像PU1によって示される領域に合わせる。そして、第二取得部72は、撮像素子141および第一光源143aに撮像開始信号を出力する。撮像開始信号が出力されると、第一光源143aは、所定の露光時間、方向チェックマーク81に光を照射する。そして、撮像素子141は、単位画像PU1によって示される領域を撮像する。第二取得部72は、第二画像PC2から特定領域SA1を抽出して所定部位PP1(方向チェックマーク81)の存否を判断することができる。特定領域SA1について上述したことは、特定領域SA2~SA4についても同様に言える。
 1-3-3.補正部73
 補正部73は、第二取得部72によって取得された所定部位PP1の位置に基づいて、部品80を基板90に装着するときの部品80の装着位置P2および装着角度θ1のうちの少なくとも一方を補正する(図5に示すステップS13)。既述したように、第一取得部71によって取得される部品80の保持姿勢(回転角度)は、複数のはんだボール82の配置に基づいて取得される。そのため、複数のはんだボール82の配置が長方形状の場合、回転角度が180度異なる二つの保持姿勢が想定される。第二取得部72によって所定部位PP1(方向チェックマーク81)の位置が取得されることにより、保持部材30によって保持されている部品80の保持姿勢(回転角度)が確定する。なお、複数のはんだボール82の配置が正方形状の場合、回転角度が0度、90度、180度および270度の四つの保持姿勢が想定される。
 図8Aの破線で示す部品80は、部品80の中心位置80aにおいて回転することなく保持部材30によって保持されて、補正部73による補正が行われることなく基板90の装着位置P1に装着されているものとする。このときの保持姿勢を第一保持姿勢とし、このときの装着状態を第一装着状態とする。また、第一保持姿勢が正規の保持姿勢であり、第一装着状態が正規の装着状態とする。
 図8Aの実線で示すように、部品80の中心位置80aからX軸方向と反対方向(X軸の負の方向)に偏差ΔX分、移動した位置において、装着角度θ1分、反時計回りに回転した状態で、保持部材30によって部品80が保持されている場合を想定する。このときの保持姿勢を第二保持姿勢とする。保持姿勢が第二保持姿勢のときに、補正部73による補正が行われないと、図8Aの実線で示す状態で、部品80が基板90に装着されてしまう。
 そこで、図8Bに示すように、補正部73は、装着位置P1から、X軸方向と反対方向(X軸の負の方向)に偏差ΔX分、移動した位置を装着位置P2として設定する。また、補正部73は、保持部材30の補正回転角度を装着角度θ1(時計回り)とする。これにより、保持部材30は、装着位置P2において、装着角度θ1分、時計回りに回転された状態で下降される。その結果、部品80は、図8Bの実線で示すように基板90に装着される。このときの装着状態は、図8Aに示す第一装着状態と同じである。このようにして、補正部73は、第二取得部72によって取得された所定部位PP1の位置に基づいて、部品80の装着位置P2および装着角度θ1のうちの少なくとも一方を補正することができる。
 1-3-4.保存部74
 保存部74は、第二取得部72によって取得された所定部位PP1の位置を記憶装置162に保存させる(図5に示すステップS14)。具体的には、保存部74は、第二取得部72によって取得された所定部位PP1の位置を、図1に示す第二不揮発性記憶装置162cに保存させることができる。
 例えば、部品装着機10において不具合が発生すると、部品装着機10を管理する管理者は、当該不具合を解析する場合がある。この場合、管理者は、部品装着機10の稼働中に稼働状態を保存しておき、保存された稼働履歴に基づいて、部品装着機10の動作などをトレース(追跡)する。本実施形態では、第二取得部72は、所定部位PP1(方向チェックマーク81)の位置を取得する。よって、保存部74が所定部位PP1(方向チェックマーク81)の位置を記憶装置162(第二不揮発性記憶装置162c)に保存させることにより、管理者は、保持部材30による部品80の保持状態をトレースすることができる。
 また、保存部74は、所定部位PP1(方向チェックマーク81)の位置を取得する際に用いた画像データを記憶装置162(第二不揮発性記憶装置162c)に保存させることもできる。画像データには、第一画像PC1および第二画像PC2のうちの少なくとも第二画像PC2に係る画像データが含まれると好適である。第二画像PC2が特定領域SA1~SA4を撮像した画像である場合、部品80の全体を撮像した画像と比べて、画像データの保存時のデータ容量が低減される。また、第二画像PC2が特定領域SA1~SA4を撮像した画像である場合、部品80の全体を撮像した画像と比べて、撮像装置CD1である部品カメラ14から制御装置16に送出する画像データのデータ容量が低減される。
 保存部74は、第二取得部72によって所定部位PP1(方向チェックマーク81)の位置が取得される毎に、所定部位PP1の位置を逐次保存することができる。また、保存部74は、所定数の部品80についての所定部位PP1の位置が蓄積したときに、当該所定数の所定部位PP1の位置を、一度に、または、複数回に分けて保存することもできる。この場合、制御装置16は、例えば、複数のデータを一時的に記憶可能なリングバッファなどを備えると良い。また、図1に示す中央演算装置161の負荷を軽減するため、制御装置16は、例えば、DMA(Direct Memory Access)コントローラなどを備えると良い。なお、保存部74は、部品80を特定可能な固有情報、取得年月日、取得時刻、制御プログラムのバージョン情報などを併せて、記憶装置162(第二不揮発性記憶装置162c)に保存させると好適である。
 2.変形形態
 2-1.第一変形形態
 所定部位PP1は、部品80の固有情報を示す識別コード83であっても良い。固有情報は、例えば、部品種、部品名、型式、生産メーカ名、生産ロットなどを含むと好適である。また、識別コード83は、一次元コードであっても良く、二次元コードであっても良い。図9は、二次元コードの識別コード83が部品80の中央部に付されている状態を模式的に示している。この場合も、実施形態と同様にして、第一取得部71は、第一画像PC1に基づいて、保持部材30における部品80の保持姿勢を取得する。また、第二取得部72は、第一取得部71によって取得された部品80の保持姿勢に基づいて、所定部位PP1が存在する可能性が見込まれる特定領域SA1を設定して所定部位PP1の位置を取得する。
 同図に示すように、識別コード83は、部品80の中央部に付されており、第二取得部72は、一つの特定領域SA1を設定することができる。よって、第二取得部72は、特定領域SA1を撮像した第二画像PC2に基づいて、所定部位PP1の存否を判断することができる。さらに、第二取得部72は、部品カメラ14に対して特定領域SA1を関心領域IA1に設定させて、部品カメラ14を用いて特定領域SA1を撮像することができる。
 具体的には、第二取得部72は、図3に示す部品装着ヘッド20を移動させて、部品カメラ14の撮像視野を図9に示す特定領域SA1に合わせる。そして、第二取得部72は、撮像素子141および第一光源143aに撮像開始信号を出力する。撮像開始信号が出力されると、第一光源143aは、所定の露光時間、識別コード83に光を照射する。そして、撮像素子141は、特定領域SA1を撮像する。第二取得部72は、部品80の固有情報を読み取ることができたときに、所定部位PP1である識別コード83の位置を取得する。なお、第二取得部72は、部品80の少なくとも一部が撮像された第二画像PC2から特定領域SA1を抽出して、所定部位PP1の存否を判断することもできる。
 2-2.第二変形形態
 部品認識装置70は、複数の保持部材30が部品装着ヘッド20に着脱可能に設けられている部品装着機10に適用することもできる。部品装着ヘッド20は、例えば、複数の保持部材30が円環状に設けられているロータリヘッドを用いることができる。また、部品装着ヘッド20は、例えば、複数の保持部材30が直線状に設けられているラインヘッドを用いることもできる。いずれの場合も、第一取得部71は、複数の保持部材30に保持されている複数の部品80を同時に撮像して第一画像PC1を取得すると好適である。
 図10は、複数(同図では、12個)の保持部材30に保持されている複数(同図では、12個)の部品80が同時に撮像された第一画像PC1の一例を示している。この場合の部品装着ヘッド20は、複数(12個)の保持部材30が円環状に設けられているロータリヘッドである。また、複数(12個)の部品80は、実施形態および第一変形形態の部品80と比べて小型であり、第一画像PC1は、部品カメラ14の一の撮像視野(例えば、既述した単位画像PU1によって示される領域に相当)で撮像することができる。さらに、複数(12個)の部品80のうちの少なくとも一つの部品80(同図では、一つの部品80)は、所定部位PP1である凹部84を備えている。凹部84は、部品80の一部が陥没している部位であり、既述した方向チェックマーク81と同様に、正反射によって認識できるように配置されている。
 第一取得部71は、複数(例えば、4つ)の単位画像PU1~PU4を合成することなく、一度の撮像で第一画像PC1を取得することができる。この場合も、実施形態と同様にして、第一取得部71は、第一画像PC1に基づいて、保持部材30に保持されている部品80(所定部位PP1である凹部84を備える部品80)の保持姿勢を取得する。また、第二取得部72は、第一取得部71によって取得された部品80の保持姿勢に基づいて、所定部位PP1が存在する可能性が見込まれる特定領域SA1を設定して所定部位PP1の位置を取得する。
 さらに、第二取得部72は、特定領域SA1を撮像した第二画像PC2に基づいて、所定部位PP1の存否を判断することができる。また、第二取得部72は、部品カメラ14に対して特定領域SA1を関心領域IA1に設定させて、部品カメラ14を用いて特定領域SA1を撮像することができる。なお、第二取得部72は、部品80の少なくとも一部が撮像された第二画像PC2から特定領域SA1を抽出して、所定部位PP1の存否を判断することもできる。
 2-3.その他
 実施形態および第一変形形態では、第一取得部71は、撮像領域が異なる複数(4つ)の単位画像PU1~PU4を合成して第一画像PC1を取得している。しかしながら、単位画像の数は、限定されない。単位画像の数が増加すると、特定領域が設定されない単位画像が生じる。この場合、第二取得部72は、特定領域を撮像した第二画像PC2に基づいて、所定部位PP1の存否を判断すると良い。これにより、第二取得部72は、全ての単位画像に相当する領域を撮像し第二画像PC2を取得して特定領域SA1を抽出する場合と比べて、第二画像PC2を取得する際の撮像回数を低減することができる。
 3.部品認識方法
 部品認識装置70について既述したことは、部品認識方法についても同様に言える。具体的には、部品認識方法は、第一取得工程と、第二取得工程とを備える。第一取得工程は、保持部材30によって保持されている部品80を撮像し撮像された第一画像PC1に基づいて、保持部材30における部品80の保持姿勢を取得する。第二取得工程は、部品80の保持姿勢が取得された後に部品80の少なくとも一部を撮像し撮像された第二画像PC2に基づいて、部品80の所定部位PP1の位置を取得する。第二取得工程は、第一取得工程によって取得された部品80の保持姿勢に基づいて、所定部位PP1が存在する可能性が見込まれる特定領域SA1~SA4を設定して所定部位PP1の位置を取得する。また、部品認識方法は、補正工程および保存工程のうちの少なくとも一方を備えると好適である。補正工程は、補正部73が行う制御に相当する。保存工程は、保存部74が行う制御に相当する。
 4.実施形態の効果の一例
 部品認識装置70によれば、第一取得部71および第二取得部72を備えている。特に、第二取得部72は、第一取得部71によって取得された部品80の保持姿勢に基づいて、所定部位PP1が存在する可能性が見込まれる特定領域SA1~SA4を設定して所定部位PP1の位置を取得する。これにより、部品認識装置70は、保持部材30によって保持されている部品80の所定部位PP1の位置を取得することができる。部品認識装置70について上述したことは、部品認識方法についても同様に言える。
10:部品装着機、162:記憶装置、
20:部品装着ヘッド、30:保持部材、
70:部品認識装置、
71:第一取得部、72:第二取得部、
73:補正部、74:保存部、
80:部品、81:方向チェックマーク、83:識別コード、
90:基板、
CD1:撮像装置、IA1~IA4:関心領域、
PC1:第一画像、PC2:第二画像、PP1:所定部位、
PU1~PU4:単位画像、SA1~SA4:特定領域、
P2:装着位置、θ1:装着角度。

Claims (11)

  1.  保持部材によって保持されている部品を撮像し撮像された第一画像に基づいて、前記保持部材における前記部品の保持姿勢を取得する第一取得部と、
     前記部品の前記保持姿勢が取得された後に前記部品の少なくとも一部を撮像し撮像された第二画像に基づいて、前記部品の所定部位の位置を取得する第二取得部と、
    を備え、
     前記第二取得部は、前記第一取得部によって取得された前記部品の前記保持姿勢に基づいて、前記所定部位が存在する可能性が見込まれる特定領域を設定して前記所定部位の位置を取得する部品認識装置。
  2.  前記第二取得部は、前記特定領域を撮像した前記第二画像に基づいて、前記所定部位の存否を判断する請求項1に記載の部品認識装置。
  3.  前記第二取得部は、撮像装置に対して前記特定領域を関心領域に設定させて、前記撮像装置を用いて前記特定領域を撮像する請求項2に記載の部品認識装置。
  4.  前記第二取得部は、前記第二画像から前記特定領域を抽出して前記所定部位の存否を判断する請求項1に記載の部品認識装置。
  5.  前記第一取得部は、前記部品の一部を撮像した画像であって撮像領域が異なる複数の単位画像を合成して前記第一画像を取得する請求項1~請求項4のいずれか一項に記載の部品認識装置。
  6.  複数の前記保持部材が部品装着ヘッドに着脱可能に設けられている部品装着機に適用され、
     前記第一取得部は、複数の前記保持部材に保持されている複数の前記部品を同時に撮像して前記第一画像を取得する請求項1~請求項4のいずれか一項に記載の部品認識装置。
  7.  前記第二取得部によって取得された前記所定部位の位置に基づいて、前記部品を基板に装着するときの前記部品の装着位置および装着角度のうちの少なくとも一方を補正する補正部を備える請求項1~請求項6のいずれか一項に記載の部品認識装置。
  8.  前記第二取得部によって取得された前記所定部位の位置を記憶装置に保存させる保存部を備える請求項1~請求項7のいずれか一項に記載の部品認識装置。
  9.  前記所定部位は、前記部品が基板に装着されたときの前記部品の装着方向の正否を判別可能な方向チェックマークである請求項1~請求項8のいずれか一項に記載の部品認識装置。
  10.  前記所定部位は、前記部品の固有情報を示す識別コードである請求項1~請求項8のいずれか一項に記載の部品認識装置。
  11.  保持部材によって保持されている部品を撮像し撮像された第一画像に基づいて、前記保持部材における前記部品の保持姿勢を取得する第一取得工程と、
     前記部品の前記保持姿勢が取得された後に前記部品の少なくとも一部を撮像し撮像された第二画像に基づいて、前記部品の所定部位の位置を取得する第二取得工程と、
    を備え、
     前記第二取得工程は、前記第一取得工程によって取得された前記部品の前記保持姿勢に基づいて、前記所定部位が存在する可能性が見込まれる特定領域を設定して前記所定部位の位置を取得する部品認識方法。
PCT/JP2018/026869 2018-07-18 2018-07-18 部品認識装置および部品認識方法 WO2020016952A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2018/026869 WO2020016952A1 (ja) 2018-07-18 2018-07-18 部品認識装置および部品認識方法
JP2020530775A JP7063995B2 (ja) 2018-07-18 2018-07-18 部品認識装置および部品認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/026869 WO2020016952A1 (ja) 2018-07-18 2018-07-18 部品認識装置および部品認識方法

Publications (1)

Publication Number Publication Date
WO2020016952A1 true WO2020016952A1 (ja) 2020-01-23

Family

ID=69165025

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/026869 WO2020016952A1 (ja) 2018-07-18 2018-07-18 部品認識装置および部品認識方法

Country Status (2)

Country Link
JP (1) JP7063995B2 (ja)
WO (1) WO2020016952A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003163495A (ja) * 2001-11-29 2003-06-06 Juki Corp 部品実装方法
JP2003318599A (ja) * 2002-04-22 2003-11-07 Matsushita Electric Ind Co Ltd 部品実装方法及び部品実装装置
JP2008021946A (ja) * 2006-07-14 2008-01-31 Yamaha Motor Co Ltd 実装機
WO2016143059A1 (ja) * 2015-03-10 2016-09-15 富士機械製造株式会社 実装装置、撮像処理方法及び撮像ユニット
US20170181340A1 (en) * 2015-12-17 2017-06-22 Assembleon B.V. Methods of positioning a component in a desired position on a board, pick and place machines, and sensors for such pick and place machines

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005116869A (ja) * 2003-10-09 2005-04-28 Fuji Mach Mfg Co Ltd 基準マーク位置検出装置および基準マーク位置検出プログラム
JP6276809B2 (ja) * 2016-07-28 2018-02-07 Ckd株式会社 基板位置検出装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003163495A (ja) * 2001-11-29 2003-06-06 Juki Corp 部品実装方法
JP2003318599A (ja) * 2002-04-22 2003-11-07 Matsushita Electric Ind Co Ltd 部品実装方法及び部品実装装置
JP2008021946A (ja) * 2006-07-14 2008-01-31 Yamaha Motor Co Ltd 実装機
WO2016143059A1 (ja) * 2015-03-10 2016-09-15 富士機械製造株式会社 実装装置、撮像処理方法及び撮像ユニット
US20170181340A1 (en) * 2015-12-17 2017-06-22 Assembleon B.V. Methods of positioning a component in a desired position on a board, pick and place machines, and sensors for such pick and place machines

Also Published As

Publication number Publication date
JP7063995B2 (ja) 2022-05-09
JPWO2020016952A1 (ja) 2021-05-13

Similar Documents

Publication Publication Date Title
KR101793366B1 (ko) 본딩 장치 및 본딩 방법
US7363102B2 (en) Method and apparatus for precise marking and placement of an object
KR102515369B1 (ko) 3차원 측정 장치
US10297043B2 (en) Detector for detecting position of IC device and method for the same
CN107030689B (zh) 部件定位在板上期望定向和位置的方法,取放机和传感器
JP2007115851A (ja) 半導体部品の位置検査方法、位置検査装置および半導体装置の製造方法
KR102224699B1 (ko) 3차원 측정 장치, 3차원 측정 방법 및 기판의 제조 방법
KR20140071895A (ko) 인식장치, 인식방법, 실장장치 및 실장방법
CN109447941B (zh) 一种激光软钎焊系统焊接过程中自动配准及质量检测方法
JP6903270B2 (ja) 電子部品搬送装置および電子部品検査装置
WO2020016952A1 (ja) 部品認識装置および部品認識方法
US9319593B2 (en) Recognition apparatus, recognition method, mounting apparatus, and mounting method
JP4298473B2 (ja) 表面実装機
JPWO2020003384A1 (ja) 平坦度取得システムおよび実装機
JP6338169B2 (ja) 認識装置、認識方法、実装装置及び実装方法
KR20140075593A (ko) 인식 장치, 인식 방법, 실장 장치 및 실장 방법
JP6177714B2 (ja) 部品認識装置、部品移載装置および部品実装装置
JP7153127B2 (ja) 良否判定装置および良否判定方法
US20220270902A1 (en) Component conveying instrument with an adjusting unit and method of adjusting a component conveying instrument
JP2023089746A (ja) 画像認識装置及び部品実装機
JP2023089748A (ja) 部品実装機
JP7153126B2 (ja) 良否判定装置および良否判定方法
JP2023084391A (ja) 部品認識装置及び部品実装機
JP2009212166A (ja) 部品移載装置および部品移載装置の部品認識方法
JP2023089747A (ja) 部品実装機

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18926626

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020530775

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18926626

Country of ref document: EP

Kind code of ref document: A1