WO2015004717A1 - 部品保持状態検出方法および部品実装装置 - Google Patents

部品保持状態検出方法および部品実装装置 Download PDF

Info

Publication number
WO2015004717A1
WO2015004717A1 PCT/JP2013/068672 JP2013068672W WO2015004717A1 WO 2015004717 A1 WO2015004717 A1 WO 2015004717A1 JP 2013068672 W JP2013068672 W JP 2013068672W WO 2015004717 A1 WO2015004717 A1 WO 2015004717A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
component
image
distortion
lens
Prior art date
Application number
PCT/JP2013/068672
Other languages
English (en)
French (fr)
Inventor
雅史 天野
勇介 山蔭
武史 藤城
Original Assignee
富士機械製造株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士機械製造株式会社 filed Critical 富士機械製造株式会社
Priority to EP13889316.9A priority Critical patent/EP3021654B1/en
Priority to US14/903,243 priority patent/US10334770B2/en
Priority to JP2015526035A priority patent/JP6333250B2/ja
Priority to PCT/JP2013/068672 priority patent/WO2015004717A1/ja
Priority to CN201380078062.8A priority patent/CN105359638B/zh
Publication of WO2015004717A1 publication Critical patent/WO2015004717A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/081Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines
    • H05K13/0812Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines the monitoring devices being integrated in the mounting machine, e.g. for monitoring components, leads, component placement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/081Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines
    • H05K13/0818Setup of monitoring devices prior to starting mounting operations; Teaching of monitoring devices for specific products; Compensation of drifts during operation, e.g. due to temperature shifts

Definitions

  • the present invention relates to a component holding state detecting method for detecting a holding state of a component held by a holding member and a component mounting apparatus for mounting the component on a substrate.
  • this type of component mounting apparatus a device that captures an electronic component (component) sucked by a suction nozzle with a camera and recognizes the suction position of the component based on an image obtained by the imaging has been proposed.
  • the glass jig with a plurality of dots is sucked to the suction nozzle, and the glass jig sucked to the suction nozzle is imaged with a camera.
  • the dot position of the obtained image is obtained, and a conversion formula between the machine coordinates and the camera coordinates is obtained based on the obtained dot position information.
  • the suction position of the component is recognized, the recognized position of the component is converted from the camera coordinates to the machine coordinates using the obtained conversion formula, thereby correcting the positional deviation.
  • the suction nozzle When simultaneously imaging the part sucked by the suction nozzle attached to the head and the reference mark provided on the head, if the reference mark is provided at a different height from the part sucked by the suction nozzle, the suction nozzle A lens (first lens) installed so as to focus on the sucked part cannot focus on the reference mark.
  • a lens (second lens) having a smaller diameter than the first lens is installed in the field of view of the first lens, and the component sucked by the suction nozzle is placed on the first lens. And imaging the fiducial mark through the first lens and the second lens.
  • the component holding state detection method and the component mounting apparatus according to the present invention which simultaneously image a component held on a holding member attached to a head and a reference mark provided on the head, correct distortion of the captured image.
  • the main purpose is to improve the accuracy so that the positions of both the part and the reference mark can be recognized more accurately.
  • the component holding state detection method and component mounting apparatus of the present invention employ the following means in order to achieve the main object described above.
  • the component holding state detection method of the present invention includes: An imaging means having a first imaging region that forms an image of the subject on the imaging device through the first lens and a second imaging region that forms an image of the subject on the imaging device through the first lens and the second lens.
  • the component is held by a holding member attached to the head, the component held by the holding member is imaged in the first imaging area, and the reference mark provided on the head is imaged in the second imaging.
  • a distortion measurement subject Prior to the determination of the holding state, a distortion measurement subject is imaged in the first imaging area, and a distortion component in the first imaging area is measured and stored based on an image obtained by the imaging.
  • Imaging a distortion measurement subject in the second imaging area measuring and storing a distortion component of the second imaging area based on an image obtained by the imaging.
  • the imaging unit simultaneously images the component and the reference mark, and an image obtained by imaging the component in the first imaging region is stored. And correcting the image based on the distortion component of the first imaging area, and obtaining an image obtained by imaging the reference mark in the second imaging area based on the stored distortion component of the second imaging area. Correct, The gist is to detect the holding state of the component held by the holding member based on the corrected image.
  • the distortion measurement subject prior to the determination of the holding state, is imaged in the first imaging area where the subject is imaged through the first lens, and an image obtained by the imaging is obtained. Based on this, the distortion component of the first imaging region is measured and stored.
  • the distortion measurement subject is imaged in the second imaging region where the subject is imaged through the first lens and the second lens, and the distortion component in the second imaging region is measured based on the image obtained by the imaging.
  • the imaging unit captures the component and the reference mark at the same time, and the image obtained by imaging the component in the first imaging region is stored in the first imaging region. Is corrected based on the distortion component.
  • the image obtained by imaging the reference mark in the second imaging area is corrected based on the stored distortion component of the second imaging area.
  • the distortion component is measured in advance using the image of, and the image captured in the first imaging region and the image captured in the second imaging region are appropriately corrected using the corresponding distortion component.
  • Can do As a result, a corrected image in which distortion is effectively suppressed can be obtained, and the holding state of the component held by the holding member is detected based on the corrected captured image, so that the holding state of the component is more accurately determined. can do.
  • the imaging of the distortion measurement subject in the first imaging area and the imaging of the distortion measurement object in the second imaging area may be performed simultaneously or separately.
  • a first distortion measurement subject is installed as the distortion measurement subject, and the first distortion measurement is performed in the first imaging region.
  • An image of a subject is imaged, and a distortion component of the first imaging region is measured and stored based on an image obtained by the imaging, and is different from the first distortion measurement subject as the distortion measurement subject.
  • a second distortion measurement subject is installed, the second distortion measurement subject is imaged in the second imaging region, and the distortion component of the second imaging region is determined based on an image obtained by the imaging. It can also be measured and stored.
  • the first distortion measurement subject is configured by a pattern in which a plurality of symbols are arranged in a grid pattern
  • the second distortion measurement subject is the first distortion measurement subject. It can also be configured by a pattern in which a plurality of symbols are arranged in a grid pattern at a pitch different from that of one distortion measurement subject.
  • the component mounting apparatus of the present invention is A component mounting apparatus for mounting a component on a board, A head to which a holding member for holding the component is attached and a reference mark is provided; Moving means for moving the head; A first imaging region that forms an image of the subject on the image sensor through the first lens; and a second imaging region that forms an image of the subject on the image sensor through the first lens and the second lens; An imaging unit capable of imaging the component and the reference mark simultaneously by imaging the component held by the holding member in the first imaging region and imaging the reference mark in the second imaging region; , When the component and the reference mark are simultaneously imaged by the imaging means, an image obtained by imaging in the first imaging area is measured in advance with respect to the first imaging area.
  • the gist of the invention is to include mounting control means for controlling the moving means and the holding member so that the component is mounted on the substrate based on the determined holding state of the component.
  • the imaging means is configured to have an imaging area and the component is held by the holding member, the component held by the holding member is imaged in the first imaging area and at the same time, the reference mark is set in the second imaging area. Image. Then, the image obtained by imaging the part in the first imaging area is corrected based on the first distortion component measured in advance with respect to the first imaging area, and the reference mark is corrected in the second imaging area. The image obtained by imaging is corrected based on the second distortion component measured in advance for the second imaging region.
  • an image captured in the first imaging area where the subject is imaged through the first lens and an image captured in the second imaging area where the subject is imaged through the first lens and the second lens are captured. Since the image is corrected using different distortion components, a corrected image in which distortion is effectively suppressed can be obtained. As a result, by detecting the holding state of the component based on the corrected image and controlling the component to be mounted on the substrate based on the determination result, the component can be more accurately mounted on the substrate.
  • FIG. 3 is a block diagram illustrating an electrical connection relationship of a control device 90.
  • FIG. It is the schematic diagram which looked at the head 60 and the parts camera 70 from the side. It is the top view which looked at the parts camera 70 from upper direction.
  • 4 is a flowchart illustrating an example of a component mounting process executed by a CPU 91 of a control device 90. It is a front view when the main lens 74 is seen through the calibration plate CP1 with the calibration plate CP1 installed. It is explanatory drawing which shows the picked-up image which imaged calibration plate CP1 with the parts camera.
  • FIG. It is a front view when the sub lens 76a is seen through the calibration plate CP2 with the calibration plate CP2 installed. It is explanatory drawing which shows the picked-up image which imaged calibration plate CP2 with the parts camera 70.
  • FIG. It is explanatory drawing which shows an example of a distortion correction table. It is explanatory drawing which shows an example of the distortion correction value for every area
  • FIG. 1 is a block diagram showing an outline of the configuration of a component mounting apparatus 10 according to an embodiment of the present invention
  • FIG. 2 is a block diagram showing an electrical connection relationship of a control device 90.
  • the component mounting apparatus 10 includes a component supply device 20 that supplies electronic components (hereinafter simply referred to as “components”) and a substrate transport that transports a circuit board (hereinafter simply referred to as “substrate”) 16.
  • the apparatus 30, the backup device 40 that backs up the conveyed substrate 16, the component mounting device 50 that mounts the component supplied by the component supply device 20 on the substrate 16 backed up by the backup device 40, and the entire mounting device are controlled.
  • a substrate transfer device 30, a backup device 40, and a component mounting device 50 are accommodated in the housing 12.
  • a plurality of component mounters are arranged side by side in the component mounting line, and the control device of each component mounter manages these components.
  • Management computer 100 see FIG. 2).
  • the component supply device 20 includes a tape feeder 22 that is detachably attached to the front side of the housing 12.
  • the tape feeder 22 includes a reel 22a around which a tape is wound, and components are attached to the tape surface at predetermined intervals. These parts are protected by a film covering the surface of the tape, and when the tape is pulled out from the reel 22a, the film is peeled off at the feeder portion 22b and supplied.
  • the substrate transfer device 30 is a pair of support plates provided on the base 14 installed at the lower stage of the housing 12 at a predetermined interval in the Y-axis direction (front-rear direction in FIG. 1). 32a and 32b, and a pair of conveyor belts 34a and 34b provided on the opposing surfaces of the support plates 32a and 32b.
  • the pair of support plates 32a and 32b is configured as a rectangular member whose longitudinal direction is the X-axis direction (left-right direction in FIG. 1), and driving wheels and driven wheels are provided at both ends in the longitudinal direction. .
  • the conveyor belts 34a and 34b are stretched over driving wheels and driven wheels provided on the support plates 32a and 32b, and the driving wheels are driven by a driving motor (not shown), so that the substrate 16 is moved from the left in FIG. Transport to the right.
  • the backup device 40 includes a backup plate 42 that can be moved up and down by a lifting device (not shown), and a base plate 44 that is mounted on the upper surface of the backup plate 42.
  • the base plate 44 is provided with a plurality of backup pins 46 for backing up the substrate 16 from the back side.
  • the component mounting apparatus 50 includes an X-axis slider 52 that is moved in the X-axis direction (left-right direction in FIG. 1) by driving an X-axis motor 51 (see FIG. 2), and a Y-axis motor 53 ( 2), the Y-axis slider 54 moved in the Y-axis direction (front-rear direction in FIG.
  • the head 60 attached to the X-axis slider 52, the movement in the Z-axis direction, and the rotation around the Z-axis It is attached to the X-axis slider 52, a suction nozzle 62 that can be mounted on the head 60 and can suck parts, a parts camera 70 that is provided on the base 14 and that picks up the parts sucked by the suction nozzle 62, and A mark camera 80 for imaging a substrate positioning reference mark provided on the substrate 16 and a nozzle stocker 84 for stocking a plurality of types of suction nozzles that can be mounted on the head 60 are provided.
  • the X-axis slider 52 is attached to a guide rail 55 provided along the X-axis direction on the front surface of the Y-axis slider 54 and is slidable in the X-axis direction while being guided by the guide rail 55.
  • the Y-axis slider 54 is attached to a guide rail 56 provided along the Y-axis direction at the top of the housing 12, and is slidable in the Y-axis direction while being guided by the guide rail 56.
  • the head 60 includes a nozzle holder 64 configured as a cylindrical member having an internal passage (not shown) and holding the suction nozzle 62, for example, a screw shaft and a ball screw nut attached to the nozzle holder 64.
  • a linear feed screw mechanism having a Z-axis actuator 66 that moves the nozzle holder 64 in the Z-axis direction by rotationally driving the screw shaft by a Z-axis motor 66a, and a spline fitting, for example, to a shaft connected to the nozzle holder 64
  • a ⁇ -axis actuator 68 that rotates the nozzle holder 64 around the Z-axis by rotating the ball spline nut by a ⁇ -axis motor 68a.
  • the head 60 is configured to be detachable with respect to the X-axis slider 52, and can be exchanged for one suitable for the number and type of suction nozzles 62 to be used.
  • the suction nozzle 62 is configured to be detachable from the nozzle holder 64, and can be replaced with one suitable for the shape and size of the part to be sucked.
  • An internal passage (not shown) of the suction nozzle 62 communicates with an internal passage (not shown) of the nozzle holder 64, and the internal passage of the nozzle holder 64 is connected to a vacuum pump 88 and an air pipe via an electromagnetic valve 86.
  • One of 89 is selectively communicated. Therefore, when the solenoid valve 86 is driven so that the internal passage of the nozzle holder 64 and the vacuum pump 88 communicate with each other, a negative pressure acts on the suction nozzle 62 and the components can be sucked. When the solenoid valve 86 is driven so as to communicate with the air pipe 89, a positive pressure acts on the suction nozzle 62, and the suction of the components can be released.
  • FIG. 3 is a schematic view of the head 60 and the parts camera 70 viewed from the side
  • FIG. 4 is a plan view of the parts camera 70 viewed from above.
  • a plurality of suction nozzles 62 are attached to the lower end of the nozzle holder 64 at equal intervals in the circumferential direction.
  • the number of suction nozzles 62 attached to the nozzle holder 64 is plural, but may be one.
  • the part P sucked by the suction nozzle 62 is maintained at a predetermined height H1 above the parts camera 70 with respect to the height reference plane H0 of the parts camera 70.
  • the head 60 is provided with a position reference portion 69 that serves as a reference position when the part P sucked by the suction nozzle 62 by the parts camera 70 is imaged.
  • a position reference portion 69 that serves as a reference position when the part P sucked by the suction nozzle 62 by the parts camera 70 is imaged.
  • four circular reference marks 69a are squarely arranged on the lower surface of the position reference portion 69 at the same pitch.
  • the reference mark 69a is disposed at a height H2 that is higher than a predetermined height H1 with respect to the height reference plane H0. Thereby, when the head 60 moves on the board
  • the reference mark 69a is arranged at a different position and height depending on the type of the head 60 to be mounted.
  • the parts camera 70 is disposed on the base 14 on the front side of the substrate transfer apparatus 30.
  • the imaging range of the parts camera 70 is above the parts camera 70.
  • the suction nozzle 62 that sucks a part passes above the part camera 70, the parts camera 70 captures the state of the sucked part and outputs the image to the control device 90.
  • the control device 90 determines whether or not the component is normally sucked by comparing the image picked up by the parts camera 70 with an image of a normal sucking state stored in advance.
  • the parts camera 70 covers the entire range of the imaging element 72 having a square or rectangular imaging area 71 in which a plurality of light receiving elements are two-dimensionally arranged, and the imaging area 71 of the imaging element 72.
  • a sub lens 76a to 76d arranged at a predetermined interval above the main lens 74 so as to cover a part of the imaging region 71 of the imaging device 72.
  • a CCD Charge Coupled Device
  • CMOS Complementary Metal Oxide Semiconductor
  • the imaging device 72 is composed of 5120 ⁇ 5120 pixels.
  • the image sensor 72 may have any number of pixels.
  • the main lens 74 is composed of a well-known condensing lens, and is set so that the focus height substantially matches the height H1 of the component P sucked by the suction nozzle 62.
  • the main lens 74 is any type of lens that can be used as an imaging lens, such as a combination of a plurality of convex lenses and concave lenses, or an aspherical lens whose one or both surfaces are not spherical. Also good.
  • the sub lenses 76a to 76d are respectively arranged at four corners in the field of view of the main lens 74.
  • Four pedestals 78a to 78d are arranged in the four corners above the main lens 74 from the outside to the inside, and the four sub lenses 76a to 76d are attached to the four pedestals 78a to 78d.
  • the sub lenses 76a to 76d are arranged so that the reference mark 69a is directly above any of the four sub lenses 76a to 76d when the component P sucked by the suction nozzle 62 is right above the center of the main lens 74. It is arranged to be located in.
  • the parts camera 70 can use the center of the imaging area 71 of the imaging device 72 for imaging the component P and can use the four corners of the imaging area 71 for imaging the reference mark 69a.
  • the whole can be used effectively.
  • the sub lens 76a is set so that the focus height when the subject is imaged on the image sensor 72 through the main lens 74 and the sub lens 76a substantially matches the height H2 of the reference mark 69a.
  • the other sub lenses 76b to 76d may be set so that the above-described focus height is different for each lens, or is set so that the focus height is the same for some lenses or all lenses. It may be a thing.
  • the main lens 74 and the sub lenses 76a to 76d have lens-specific distortions (pincushion distortion and barrel distortion). Since the sub lenses 76a to 76d are arranged at the four corners above the main lens 74, the four corners of the image formed on the image sensor 72 are formed by the combination of the main lens 74 and the sub lenses 76a to 76d. A combined distortion different from the distortion of 74 alone occurs. Further, when an assembly error of the sub lenses 76a to 76d occurs, the above-described combined distortion further changes.
  • the image pickup area 71 of the image pickup device 72 an image is displayed with distortion characteristics that are greatly different between a region other than the four corners (this region is also referred to as a main lens portion) and a four corner region (this region is also referred to as a sub lens portion). Will be distorted geometrically. Therefore, in the present embodiment, different calibration plates are set in advance in the main lens portion and the sub lens portion of the imaging region 71, and these are respectively imaged by the parts camera 70. The lens distortion correction value is measured for each region, and these are stored as a distortion correction table.
  • the image obtained by simultaneously imaging the component P sucked by the suction nozzle 62 and the reference mark 69a is corrected using the distortion correction value (distortion correction table), thereby causing the lens distortion. It is possible to correct the deviation between the position of the component P and its actual position in the image to be corrected and the deviation between the position of the reference mark 69a and its actual position.
  • the mark camera 80 is fixed behind the lower end of the X-axis slider 52.
  • the imaging range of the mark camera 80 is below the mark camera 80.
  • the mark camera 80 images the substrate positioning reference mark provided on the substrate 16 and outputs the image to the control device 90.
  • the control device 90 recognizes the position of the substrate 16 by recognizing the center position of the mark based on the image captured by the mark camera 80.
  • the control device 90 is configured as a microprocessor centered on a CPU 91, and includes a ROM 92 that stores a processing program, an HDD 93 that stores various data, a RAM 94 that is used as a work area, an external device, and an electrical device.
  • An input / output interface 95 for exchanging signals is provided, and these are connected via a bus 96.
  • An image signal from the parts camera 70 and mark camera 80, a detection signal from the pressure sensor 82 for detecting the internal pressure of the suction nozzle 62, and the like are input to the control device 90 via the input / output interface 95.
  • the substrate transport apparatus 30 and the backup apparatus 40 From the apparatus 90, the substrate transport apparatus 30 and the backup apparatus 40, the X-axis motor 51 of the X-axis slider 52, the Y-axis motor 53 of the Y-axis slider 54, the Z-axis motor 66 a of the Z-axis actuator 66, and the ⁇ of the ⁇ -axis actuator 67.
  • Drive signals to the shaft motor 67a, the electromagnetic valve 86, and the like are output via the input / output interface 95.
  • the control device 90 is connected to the component supply device 20 so as to be capable of bidirectional communication.
  • the X-axis slider 52 and the Y-axis slider 54 are equipped with position sensors (not shown), and the control device 90 inputs the position information from these position sensors and controls the X-axis motor 51 and the Y-axis motor 53. Drive control.
  • the management computer 100 is configured as a microprocessor centered on a CPU 101, and includes a ROM 102 that stores a processing program, an HDD 103 that stores a production plan of the substrate 16, a RAM 104 that is used as a work area, An input / output interface 105 for exchanging electrical signals with an external device is provided, and these are connected via a bus 106. Further, the management computer 100 can input signals from an input device 112 typified by a mouse and a keyboard via the input / output interface 105, and is connected to the display 114 so that various images can be output.
  • the production plan of the board 16 is a plan that determines which parts are mounted on the board 16 in the component mounting machine 10 and how many boards 16 (assemblies) on which the parts are mounted.
  • the management computer 100 receives a production plan from an operator via the input device 112 and transmits various commands to the component mounting machine 10 so that an assembly is produced according to the received production plan.
  • FIG. 5 is a flowchart illustrating an example of a component mounting process executed by the CPU 91 of the control device 90. This process is executed when a command is received from the management computer 100.
  • the CPU 91 of the control device 90 first starts the X-axis slider 52 (X-axis) so that the suction nozzle 62 moves directly above the component supplied by the component supply device 20 (tape feeder 22).
  • the motor 51) and the Y-axis slider 54 (Y-axis motor 53) are driven and controlled (step S100), and the Z-axis actuator 66 (Z-axis motor 66a) is driven and controlled so that the suction nozzle 62 descends until it contacts the component.
  • the electromagnetic valve 86 By driving and controlling the electromagnetic valve 86 so that a negative pressure acts on the suction nozzle 62, the suction nozzle 62 sucks the component (step S110).
  • the Z-axis actuator 66 is controlled so that the suction nozzle 62 that picks up the components rises, and the X-axis slider 52 and the Y-axis slider 54 are directed so that the suction nozzle 62 moves upward of the substrate 16 while passing over the parts camera 70.
  • a captured image is acquired by capturing with the parts camera 70 (step S120).
  • the acquired captured image is corrected using the distortion correction table (step S130).
  • the distortion correction table created in advance by the table creation process and stored in the ROM 92 is used. Details of the table creation process will be described below.
  • FIG. 6 is a front view when the main lens 74 is viewed through the calibration plate CP1 with the calibration plate CP1 installed.
  • the distortion correction value of the main lens unit is measured by using a calibration plate CP1 in which circular dots are arranged in a grid pattern at a predetermined pitch, and a height at which the main lens 74 is in focus (a component P sucked by the suction nozzle 62).
  • the height is set to be substantially the same as the height H1 when the parts camera 70 takes an image.
  • the calibration plate CP1 is not limited to one in which dots are arranged in a grid pattern, but may be one in which a plurality of design patterns are aligned, for example, a square or rectangular pattern is arranged in a checkered pattern. Any pattern may be used. Further, the calibration plate CP1 may be set by being sucked by the suction nozzle 62, or may be set by using a dedicated jig. Next, the installed calibration plate CP1 is imaged by the parts camera 70. FIG. 7 shows an example of a captured image obtained by capturing the calibration plate CP1 with the parts camera 70.
  • the captured image is analyzed to determine the center position of each dot in the captured image, and the deviation amount between the dot center position and the correct dot center position stored in advance is calculated as a distortion correction value for each dot.
  • the distortion correction value is measured with respect to the center position of the dot in the captured image, but the distortion correction value at a position outside the center position of the dot is measured with respect to the center position of the surrounding dots. It can obtain
  • FIG. 8 is a front view of the sub lens 76a viewed through the calibration plate CP2 with the calibration plate CP2 installed.
  • the distortion correction value of the sub-lens portion is measured by adjusting the calibration plate CP2 in which circular dots are arranged in a grid pattern at a predetermined pitch to the height at which the main lens 74 and the sub lens 76a are in focus (the height of the reference mark 69a). It is installed so that it is approximately the same height as H2.
  • a calibration plate CP2 having dots arranged at a narrower pitch than the calibration plate CP1 is used.
  • any pattern may be used as the calibration plate CP2 as long as a plurality of design patterns are aligned.
  • the calibration plate CP2 may be directly installed on the position reference unit 69, or may be installed using a dedicated jig.
  • the installed calibration plate CP2 is imaged by the parts camera 70.
  • FIG. 9 shows an example of a captured image obtained by capturing the calibration plate CP2 with the parts camera 70.
  • the captured image is analyzed to determine the center position of each dot in the captured image, and the deviation amount between the dot center position and the correct dot center position stored in advance is calculated as a distortion correction value for each dot.
  • the distortion correction value of the sub-lens part is measured with respect to the center position of the dot in the captured image in the same manner as the distortion correction value of the main lens part. Can be obtained from a distortion correction value measured with respect to the center position of the surrounding dots by a known interpolation method.
  • the distortion correction value of the sub lens 76a is measured, this process is repeated in the same manner for the remaining sub lenses 76b to 76d.
  • the distortion correction value of the main lens unit is measured, and then the distortion correction value of the sub lens unit is measured.
  • the distortion correction value of the sub lens unit is measured, and then In addition, the distortion correction value of the main lens unit may be measured.
  • a distortion correction table is created by associating each measured distortion correction value with the coordinate value of the pixel in the corresponding region.
  • 10 and 11 are explanatory diagrams illustrating an example of the distortion correction table.
  • 81 ⁇ 81 distortion correction values for pixels extracted at a 64-pixel pitch in order to reduce the data amount with respect to the 5120 ⁇ 5120 pixels of the image sensor 72 are Corresponding pixel coordinate values are stored in an associated state.
  • Each distortion correction value includes an X-direction distortion correction value and a Y-direction distortion correction value.
  • the distortion correction values are not limited to those stored for pixels extracted at a 64-pixel pitch, but are stored for pixels extracted at other predetermined pixel pitches, such as 8 pixel pitch and 16 pixel pitch. Alternatively, distortion correction values for all the pixels in the imaging region 71 may be stored. Further, as shown in FIG. 11, the distortion correction table is obtained from an image obtained by imaging the calibration plate CP1 in the main lens portion (an area in which the subject is imaged through only the main lens 74 in the imaging area 71). The acquired distortion correction value is stored, and an image obtained by imaging the calibration plate CP2 in the sub-lens portion (a region in which the subject is imaged through the main lens 74 and the sub lenses 76a to 76d in the imaging region 71). The distortion correction value acquired from is stored.
  • FIG. 12 is an explanatory view showing a state of distortion correction.
  • the distortion correction value (X direction distortion correction value and Y direction distortion correction device) associated with the coordinate value of each pixel of the captured image.
  • the acquired distortion correction value is treated as an image shift amount, and the position (coordinate value) is shifted in the X direction by the X direction distortion correction value and shifted in the Y direction by the Y direction distortion correction value.
  • the luminance value is acquired from the pixel, and the acquired luminance value is set as the luminance value after distortion correction.
  • FIG. 13 is an explanatory diagram of the bilinear interpolation method.
  • the lower 2 ⁇ 2 pixels Q11, Q12, Q21, Q22 in FIG. 13
  • Interpolation processing linear interpolation processing
  • Interpolation processing linear interpolation processing
  • the interpolation method is not limited to the bilinear interpolation method, and an appropriate method may be used depending on the part camera 70 to be used and the distortion characteristics of the lens.
  • the distortion correction value of the main lens unit and the distortion correction value of the sub lens unit are stored in the same table.
  • the captured image may be corrected according to the distortion correction value to be obtained, and the distortion correction processing can be speeded up.
  • the distortion correction table since the distortion correction table stores distortion correction values measured based on images obtained by separately imaging the calibration plate in the main lens portion and the sub lens portion, the main lens portion and the sub lens are stored.
  • the distortion correction value does not have continuity on the boundary line with the part. For this reason, accurate distortion correction cannot be performed using the distortion correction value on the boundary line between the main lens portion and the sub lens portion, but since the outer peripheral portions of the sub lenses 76a to 76d cannot use the strong image distortion in the first place. If the subject (reference mark 69a) is imaged inside the outer peripheral portions of the sub lenses 76a to 76d, the distortion correction value of the outer peripheral portions of the sub lenses 76a to 76d will not be used. Absent.
  • the CPU 91 of the control device 90 determines the position of the component P (component position) and the position of the reference mark 69a (reference mark position) from the corrected image. (Step S140), a reference position (movement error of the head 60) is calculated from the calculated reference mark position (Step S150), and the positional deviation amount of the component with respect to the suction nozzle 62 based on the calculated reference position and the component position Then, the amount of rotation deviation is calculated, and the mounting correction value is set so that the position deviation and rotation deviation of the component are canceled (step S160).
  • the suction nozzle 62 and the position reference portion 69 are both provided in the head 60, and the positional relationship in the XY directions is unchanged.
  • the control device 90 can grasp the position (reference position) of the suction nozzle 62 from the reference mark position, and when calculating the positional deviation and rotational deviation of the part with respect to the suction nozzle 62, the reference mark and the component Does not require an absolute distance between. Therefore, it is not necessary to provide continuity of distortion correction values on the boundary between the main lens portion and the sub lens portion of the distortion correction table.
  • the mounting correction value may be further adjusted based on the position of the substrate 16 recognized from the captured image by imaging the substrate positioning reference mark provided on the substrate 16 by the mark camera 80.
  • the X-axis slider 52 and the Y-axis slider 54 are driven and controlled so that the suction nozzle 62 moves right above the mounting position of the substrate 16 (step S170), and the Z-axis actuator 66 is driven and controlled so that the suction nozzle 62 descends.
  • the electromagnetic valve 86 is driven and controlled so that a positive pressure acts on the suction nozzle 62, whereby the component is mounted on the substrate 16 (step S180), and the component mounting process is terminated.
  • Each component is mounted on the substrate 16 by repeating such component mounting processing.
  • the suction nozzle 62 and the position reference portion 69 (reference mark 69a) for sucking the component P to the head 60 are provided and within the field of view of the main lens 74.
  • a sub-lens 76a to 76d is installed, and a part camera 70 is provided that images the component P through the main lens 74 (main lens portion) and images the reference mark 69a through the main lens 74 and the sub lenses 76a to 76d (sub lens portion).
  • the distortion correction value of the main lens unit is measured in advance from the captured image obtained by imaging the calibration plate CP1 with the main lens unit of the parts camera 70, and the calibration plate CP2 is measured with the sub lens unit of the parts camera 70.
  • the distortion correction value of the sub-lens part from the captured image Measured and stored in advance them as a distortion correction table. And when the component P adsorbed by the adsorption nozzle 62 is positioned above the parts camera 70 at the time of component mounting, the captured image obtained by the parts camera 70 is corrected using the distortion correction table. Based on the correction image, the suction state of the component P by the suction nozzle 62 is determined. This makes it possible to more accurately correct the distortion of the image of the captured image regardless of whether the region is captured by the main lens unit or the sub-lens unit. Can be recognized. Further, by controlling the component P to be mounted on the substrate 16 based on the recognized suction state of the component P, occurrence of mounting defects can be suppressed.
  • the calibration plate CP2 used for measuring the distortion correction value of the sub lens unit is compared with the calibration plate CP1 used for measuring the distortion correction value of the main lens unit. Since the dots (designs) are formed by a pattern having a narrow pitch, a more accurate distortion correction value can be measured for the sub lenses 76a to 76d having a narrow field of view.
  • the distortion correction value of the main lens unit is measured from an image obtained by imaging the calibration plate CP1 through the main lens 74 (main lens unit), and more dots (
  • the distortion correction value of the sub lens unit is measured from an image obtained by imaging the calibration plate CP2 having a narrow pattern) through the main lens 74 and the sub lenses 76a to 76d (sub lens unit).
  • distortion correction values are measured using different calibration plates for the lens unit, this is not a limitation, and distortion correction is performed using the same calibration plate for the main lens unit and sub lens unit. The value may be measured.
  • the distortion correction value of the main lens unit and the distortion correction value of the sub lens unit may be respectively measured using images obtained by simultaneously capturing the same calibration plate with the main lens unit and the sub lens unit.
  • the distortion correction value of the main lens unit may be measured using a calibration plate CP2 suitable for measuring the distortion correction value of the sub lens unit.
  • the imaging of the component P sucked by the suction nozzle 62 is performed while moving the suction nozzle 62 on the parts camera 70, but the present invention is not limited to this. Instead of this, imaging of the part P adsorbed by the adsorption nozzle 62 (imaging by the stop vision method) may be performed in a state where the adsorption nozzle 62 is temporarily stopped on the parts camera 70.
  • the parts camera 70 corresponds to the “imaging unit”
  • the main lens 74 corresponds to the “first lens”
  • the imaging element 72 corresponds to the “imaging element”
  • the subject is imaged only through the main lens 74.
  • the region (main lens portion) that forms an image on the element 72 corresponds to a “first imaging region”
  • the sub lenses 76 a to 76 d correspond to a “second lens”
  • the subject passes through the lens 76 and the sub lenses 76 a to 76 d.
  • a region (sub-lens portion) that forms an image on the image sensor 72 corresponds to a “second imaging region”, the head 60 corresponds to a “head”, the suction nozzle 62 corresponds to a “holding member”, and a reference mark 69a corresponds to the “reference mark”, and the calibration plate CP1 and the calibration plate CP2 correspond to the “distortion measurement subject”.
  • the calibration plate CP1 corresponds to a “first distortion measurement subject”, and the calibration plate CP2 corresponds to a “second distortion measurement subject”.
  • the X-axis slider 52 and the Y-axis slider 54 correspond to “moving means”, and the CPU 91 of the control device 90 that executes the processing of S130 to S160 of the component mounting process of FIG.
  • the CPU 91 of the control device 90 that executes the processing of S170 and S180 of component mounting processing corresponds to “mounting control means”.
  • the correspondence between the main elements of the embodiment and the main elements of the invention described in the column of means for solving the problem is the same as that of the embodiment described in the column of means for solving the problem. Therefore, the elements of the invention described in the column of means for solving the problems are not limited. In other words, the interpretation of the invention described in the column of means for solving the problems should be made based on the description of the column, and the examples are those of the invention described in the column of means for solving the problems. It is only a specific example.
  • the present invention can be used in the component mounter manufacturing industry.

Landscapes

  • Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Operations Research (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Supply And Installment Of Electrical Components (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

 ヘッドに部品(P)を吸着するための吸着ノズルと基準マークとが設けられると共に、レンズの視野内にサブレンズを設置し部品(P)をレンズ(メインレンズ部)を通して撮像すると共に基準マークをレンズおよびサブレンズ(サブレンズ部)を通して撮像可能なパーツカメラを備える。キャリブレーションプレート(CP1)をメインレンズ部で撮像し得られた画像からメインレンズ部の歪み補正値を測定すると共に、キャリブレーションプレート(CP2)をサブレンズ部で撮像し得られた画像からサブレンズ部の歪み補正値を測定して歪み補正テーブルとして予め記憶しておく。そして、部品実装時に、吸着ノズルに吸着された部品(P)と基準マークとがパーツカメラで同時撮像されると、得られた画像を歪み補正テーブルを用いて補正し、補正画像に基づいて部品(P)の吸着状態を検出する。

Description

部品保持状態検出方法および部品実装装置
 本発明は、保持部材に保持された部品の保持状態を検出する部品保持状態検出方法および部品を基板に実装する部品実装装置に関する。
 従来、この種の部品実装装置としては、吸着ノズルに吸着された電子部品(部品)をカメラで撮像し、撮像により得られた画像に基づいて部品の吸着位置を認識するものが提案されている(例えば、特許文献1参照)。この部品実装装置では、部品の吸着位置の認識に先立って、複数のドットが付されたガラス治具を吸着ノズルに吸着し、吸着ノズルに吸着されたガラス治具をカメラで撮像し、撮像により得られた画像のドット位置を求め、求めたドット位置の情報に基づいてマシーン座標とカメラ座標間の変換式を求める。そして、部品の吸着位置が認識されると、認識された部品の吸着位置を、求めた変換式を用いてカメラ座標からマシーン座標に変換することにより、位置ずれを補正している。
 また、吸着ノズルが装着されるヘッドに基準マークを設け、吸着ノズルに吸着された部品を基準マークと同時に撮像することにより、基準マークを基準とした部品の吸着位置を認識するものも提案されている(例えば、特許文献2参照)。
特開2007-12889号公報 特開2005-11950号公報
 ヘッドに取り付けられた吸着ノズルに吸着された部品とヘッドに設けられた基準マークとを同時に撮像する場合、基準マークが吸着ノズルに吸着された部品とは異なる高さに設けられると、吸着ノズルに吸着された部品にピントが合うように設置されたレンズ(第1のレンズ)では基準マークにピントを合わせることができない。この場合、基準マークにピントを合わせるために第1のレンズの視野内に第1のレンズよりも小径のレンズ(第2のレンズ)を設置し、吸着ノズルに吸着された部品を第1のレンズを通して撮像すると共に基準マークを第1のレンズおよび第2のレンズを通して撮像するものを考えることができる。しかしながら、複数のレンズを組み合わせると、レンズ毎に異なる歪み特性により合成歪みが生じ、第1のレンズおよび第2のレンズを通して撮像される基準マークの撮像画像が複雑に歪められてしまう。このため、従来の手法では、部品と基準マークとが同時に撮像された画像から部品と基準マークの双方の位置を正確に認識することができない場合が生じる。
 本発明の部品保持状態検出方法および部品実装装置は、ヘッドに取り付けられた保持部材に保持された部品とヘッドに設けられた基準マークとを同時に撮像するものにおいて、撮像された画像の歪みの補正精度をより向上させて部品と基準マークの双方の位置をより正確に認識できるようにすることを主目的とする。
 本発明の部品保持状態検出方法および部品実装装置は、上述の主目的を達成するために以下の手段を採った。
 本発明の部品保持状態検出方法は、
 第1のレンズを通して被写体を撮像素子に結像する第1の撮像領域と前記第1のレンズおよび第2のレンズを通して被写体を前記撮像素子に結像する第2の撮像領域とを有するよう撮像手段を構成し、ヘッドに取り付けられた保持部材により部品を保持し、前記保持部材に保持された部品を前記第1の撮像領域で撮像すると共に前記ヘッドに設けられた基準マークを前記第2の撮像領域で撮像することにより前記部品と前記基準マークとを同時に撮像し、該撮像により得られた画像に基づいて前記保持部材に保持された部品の保持状態を検出する部品保持状態検出方法であって、
 前記保持状態の判定に先立って、前記第1の撮像領域で歪み測定用被写体を撮像し、該撮像により得られた画像に基づいて前記第1の撮像領域の歪み成分を測定して記憶すると共に、前記第2の撮像領域で歪み測定用被写体を撮像し、該撮像により得られた画像に基づいて前記第2の撮像領域の歪み成分を測定して記憶しておき、
 前記保持部材に前記部品が保持されると、前記撮像手段により前記部品と前記基準マークとを同時に撮像し、前記第1の撮像領域で前記部品を撮像して得られた画像を、前記記憶された第1の撮像領域の歪み成分に基づいて補正すると共に、前記第2の撮像領域で前記基準マークを撮像して得られた画像を、前記記憶された第2の撮像領域の歪み成分に基づいて補正し、
 該補正された画像に基づいて前記保持部材に保持された部品の保持状態を検出する
 ことを要旨とする。
 この本発明の部品保持状態検出方法では、保持状態の判定に先立って、第1のレンズを通して被写体が撮像される第1の撮像領域で歪み測定用被写体を撮像し、撮像により得られた画像に基づいて第1の撮像領域の歪み成分を測定して記憶しておく。また、第1のレンズおよび第2のレンズを通して被写体が撮像される第2の撮像領域で歪み測定用被写体を撮像し、撮像により得られた画像に基づいて第2の撮像領域の歪み成分を測定して記憶しておく。そして、保持部材に部品が保持されると、撮像手段により部品と基準マークとを同時に撮像し、第1の撮像領域で部品を撮像して得られた画像を、記憶された第1の撮像領域の歪み成分に基づいて補正する。また、第2の撮像領域で基準マークを撮像して得られた画像を、記憶された第2の撮像領域の歪み成分に基づいて補正する。このように、第1のレンズを通して被写体が撮像される第1の撮像領域と第1のレンズおよび第2のレンズを通して被写体が撮像される第2の撮像領域のそれぞれで撮像された歪み測定用被写体の画像を用いて歪み成分を予め測定しておくことにより、第1撮像領域で撮像された画像と第2の撮像領域で撮像された画像とを対応する歪み成分を用いて適切に補正することができる。この結果、歪みを効果的に抑制した補正画像を得ることができ、補正した撮像画像に基づいて保持部材に保持された部品の保持状態を検出することで、部品の保持状態をより正確に判定することができる。なお、第1の撮像領域での歪み測定用被写体の撮像と第2の撮像領域での歪み測定用被写体の撮像は同時であってもよいし、別々であってもよい。
 こうした本発明の部品保持状態検出方法において、前記保持状態の判定に先立って、前記歪み測定用被写体として第1の歪み測定用被写体を設置し、前記第1の撮像領域で前記第1の歪み測定用被写体を撮像し、該撮像により得られた画像に基づいて前記第1の撮像領域の歪み成分を測定して記憶すると共に、前記歪み測定用被写体として前記第1の歪み測定用被写体とは異なる第2の歪み測定用被写体を設置し、前記第2の撮像領域で前記第2の歪み測定用被写体を撮像し、該撮像により得られた画像に基づいて前記第2の撮像領域の歪み成分を測定して記憶しておくものとすることもできる。こうすれば、レンズに合わせて適切な歪み測定用被写体を用いることができるから、歪み成分をより正確に測定することができる。
 この態様の本発明の部品保持状態検出方法において、前記第1の歪み測定用被写体を、複数の図柄が格子状に配列されたパターンにより構成し、前記第2の歪み測定用被写体を、前記第1の歪み測定用被写体とは異なるピッチで複数の図柄が格子状に配列されたパターンにより構成するものとすることもできる。
 本発明の部品実装装置は、
 部品を基板に実装する部品実装装置であって、
 前記部品を保持する保持部材が取り付けられると共に基準マークが設けられたヘッドと、
 前記ヘッドを移動させる移動手段と、
 第1のレンズを通して被写体を撮像素子に結像する第1の撮像領域と、前記第1のレンズおよび第2のレンズを通して被写体を前記撮像素子に結像する第2の撮像領域とを有し、前記第1の撮像領域で前記保持部材に保持された部品を撮像すると共に前記第2の撮像領域で前記基準マークを撮像することにより、前記部品と前記基準マークとを同時に撮像可能な撮像手段と、
 前記撮像手段により前記部品と前記基準マークとが同時に撮像されると、前記第1の撮像領域での撮像により得られた画像を該第1の撮像領域に対して予め測定された第1の歪み成分に基づいて補正すると共に、前記第2の撮像領域での撮像により得られた画像を該第2の撮像領域に対して予め測定された第2の歪み成分に基づいて補正し、前記補正された画像に基づいて前記保持部材に保持された部品の保持状態を検出する保持状態検出手段と、
 前記判定された部品の保持状態に基づいて該部品が前記基板に実装されるよう前記移動手段と前記保持部材とを制御する実装制御手段と
 を備えることを要旨とする。
 この本発明の部品実装装置では、第1のレンズを通して被写体を撮像素子に結像する第1の撮像領域と、第1のレンズおよび第2のレンズを通して被写体を撮像素子に結像する第2の撮像領域とを有するよう撮像手段を構成し、保持部材に部品が保持されると、第1の撮像領域で保持部材に保持された部品を撮像すると共にこれと同時に第2の撮像領域で基準マークを撮像する。そして、第1の撮像領域で部品を撮像して得られた画像を、第1の撮像領域に対して予め測定された第1の歪み成分に基づいて補正し、第2の撮像領域で基準マークを撮像して得られた画像を、第2の撮像領域に対して予め測定された第2の歪み成分に基づいて補正する。このように、第1のレンズを通して被写体が撮像される第1の撮像領域で撮像された画像と、第1のレンズおよび第2のレンズを通して被写体が撮像される第2の撮像領域で撮像された画像とをそれぞれ異なる歪み成分を用いて補正するから、歪みを効果的に抑制した補正画像を得ることができる。この結果、補正画像に基づいて部品の保持状態を検出すると共にその判定結果に基づいて部品が基板に実装されるよう制御することで、部品をより正確に基板上に実装することができる。
本発明の一実施例としての部品実装装置10の構成の概略を示す構成図である。 制御装置90の電気的な接続関係を示すブロック図である。 ヘッド60およびパーツカメラ70を側方から見た模式図である。 パーツカメラ70を上方から見た平面図である。 制御装置90のCPU91により実行される部品実装処理の一例を示すフローチャートである。 キャリブレーションプレートCP1を設置した状態でキャリブレーションプレートCP1を通してメインレンズ74を見たときの正面図である。 キャリブレーションプレートCP1をパーツカメラ70で撮像した撮像画像を示す説明図である。 キャリブレーションプレートCP2を設置した状態でキャリブレーションプレートCP2を通してサブレンズ76aを見たときの正面図である。 キャリブレーションプレートCP2をパーツカメラ70で撮像した撮像画像を示す説明図である。 歪み補正テーブルの一例を示す説明図である。 歪み補正テーブルの領域毎の歪み補正値の一例を示す説明図である。 歪み補正の様子を示す説明図である。 バイリニア補間法の説明図である。
 次に、本発明を実施するための形態を実施例を用いて説明する。図1は本発明の一実施例である部品実装装置10の構成の概略を示す構成図であり、図2は制御装置90の電気的な接続関係を示すブロック図である。
 部品実装装置10は、図1に示すように、電子部品(以下、単に「部品」という)を供給する部品供給装置20と、回路基板(以下、単に「基板」という)16を搬送する基板搬送装置30と、搬送された基板16をバックアップするバックアップ装置40と、部品供給装置20により供給された部品をバックアップ装置40によりバックアップされた基板16に装着する部品装着装置50と、実装装置全体を制御する制御装置90(図2参照)とを備え、基板搬送装置30とバックアップ装置40と部品装着装置50が筐体12内に収容されている。なお、図1には、1台の部品実装機10のみを図示したが、部品実装ラインにおいては複数台の部品実装機が並設され、各部品実装機の制御装置にはこれらを管理するための管理コンピュータ100(図2参照)が接続されている。
 部品供給装置20は、図1に示すように、筐体12の前側に着脱可能に取り付けられたテープフィーダ22を備える。テープフィーダ22は、テープが巻回されたリール22aを備えており、テープ表面には部品が所定間隔で貼り付けられている。これらの部品は、テープの表面を覆うフィルムによって保護されており、リール22aからテープが引き出されると、フィーダ部22bにおいてフィルムが剥がされて露出した状態で供給される。
 基板搬送装置30は、図1に示すように、筐体12の下段部に設置された基台14上にY軸方向(図1の前後方向)に所定間隔隔てて設けられた一対の支持板32a,32bと、支持板32a,32bの互いに対向する面に設けられた一対のコンベアベルト34a,34bとを備える。一対の支持板32a,32bは、長手方向がX軸方向(図1の左右方向)となる長方形状の部材として構成されており、長手方向の両端には駆動輪および従動輪が設けられている。コンベアベルト34a,34bは、支持板32a,32bに設けられた駆動輪および従動輪に架け渡されており、図示しない駆動モータにより駆動輪が駆動されることにより、基板16を図1の左から右へと搬送する。
 バックアップ装置40は、図1に示すように、図示しない昇降装置により昇降可能に配設されたバックアッププレート42と、バックアッププレート42の上面に装着されたベースプレート44とを備える。ベースプレート44には、基板16を裏側からバックアップするための複数のバックアップピン46が立設されている。
 部品装着装置50は、図1に示すように、X軸モータ51(図2参照)の駆動によりX軸方向(図1の左右方向)に移動されるX軸スライダ52と、Y軸モータ53(図2参照)の駆動によりY軸方向(図1の前後方向)に移動されるY軸スライダ54と、X軸スライダ52に取り付けられたヘッド60と、Z軸方向の移動とZ軸周りの回転とが可能にヘッド60に装着され部品を吸着可能な吸着ノズル62と、基台14に設けられ吸着ノズル62に吸着された部品を撮像するためのパーツカメラ70と、X軸スライダ52に取り付けられ基板16上に設けられた基板位置決め基準マークを撮像するためのマークカメラ80と、ヘッド60に装着可能な複数種類の吸着ノズルをストックするノズルストッカ84とを備える。
 X軸スライダ52は、Y軸スライダ54の前面にX軸方向に沿って設けられたガイドレール55に取り付けられており、ガイドレール55に案内されつつX軸方向にスライド可能となっている。Y軸スライダ54は、筐体12の上部にY軸方向に沿って設けられたガイドレール56に取り付けられており、ガイドレール56に案内されつつY軸方向にスライド可能となっている。
 ヘッド60には、図3に示すように、図示しない内部通路を有する円筒部材として構成され吸着ノズル62を保持するノズルホルダ64と、例えばねじ軸とノズルホルダ64に取り付けられたボールねじナットとを有する直線送りねじ機構として構成されZ軸モータ66aによりねじ軸を回転駆動することによりノズルホルダ64をZ軸方向に移動させるZ軸アクチュエータ66と、例えばノズルホルダ64に連結されたシャフトにスプライン嵌合されたボールスプラインナットを有しθ軸モータ68aによりボールスプラインナットを回転駆動することによりノズルホルダ64をZ軸周りに回転させるθ軸アクチュエータ68とを備える。また、ヘッド60は、X軸スライダ52に対して着脱可能に構成されており、使用する吸着ノズル62の数や種類に適したものに交換できるようになっている。
 吸着ノズル62は、ノズルホルダ64に対して着脱可能に構成されており、吸着する部品の形状や大きさに適したものに交換できるようになっている。吸着ノズル62の内部通路(図示せず)は、ノズルホルダ64の内部通路(図示せず)と連通しており、ノズルホルダ64の内部通路は、電磁弁86を介して真空ポンプ88およびエア配管89のいずれか一方に選択的に連通するようになっている。したがって、ノズルホルダ64の内部通路と真空ポンプ88とが連通するよう電磁弁86を駆動すると、吸着ノズル62に負圧が作用して、部品を吸着することができ、ノズルホルダ64の内部通路とエア配管89とが連通するよう電磁弁86を駆動すると、吸着ノズル62に正圧が作用して、部品の吸着を解除することができる。
 図3は、ヘッド60およびパーツカメラ70を側方から見た模式図であり、図4は、パーツカメラ70を上方から見た平面図である。図示するように、ノズルホルダ64の下端には、複数個の吸着ノズル62が周方向に等間隔で装着されている。なお、実施例では、ノズルホルダ64に装着される吸着ノズル62の数は、複数個としたが、1個であってもよい。また、吸着ノズル62に吸着された部品Pは、パーツカメラ70の上方では、パーツカメラ70の高さ基準面H0に対して所定の高さH1に維持される。
 また、ヘッド60には、図3に示すように、パーツカメラ70により吸着ノズル62に吸着された部品Pを撮像する際の基準位置となる位置基準部69が設けられている。位置基準部69の下面には、実施例では、4個の円形の基準マーク69aが同一ピッチで正方形配置されている。勿論、基準マーク69aの形状や個数、配置レイアウトは、実施例に限定されるものではなく、自由に決定することができる。基準マーク69aは、高さ基準面H0に対して所定の高さH1よりも高い高さH2に配置されている。これにより、ヘッド60が基板16上を移動する際に、位置基準部69が実装済みの部品と干渉することがない。なお、基準マーク69aは装着されるヘッド60の種類に応じて異なる位置および高さに配置される。
 パーツカメラ70は、基板搬送装置30の前方側の基台14上に配置されている。このパーツカメラ70の撮像範囲は、パーツカメラ70の上方である。パーツカメラ70は、部品を吸着した吸着ノズル62がパーツカメラ70の上方を通過する際、吸着された部品の状態を撮像し、その画像を制御装置90へ出力する。制御装置90は、パーツカメラ70によって撮像された画像を予め記憶された正常な吸着状態の画像と比較することにより、部品が正常に吸着されているか否かを判定する。
  また、パーツカメラ70は、図4に示すように、複数の受光素子が二次元配列された正方形または矩形の撮像領域71をもつ撮像素子72と、撮像素子72の撮像領域71の全範囲をカバーするよう配置されたメインレンズ74と、撮像素子72の撮像領域71の一部をカバーするようメインレンズ74の上方に所定間隔隔てて配置されたサブレンズ76a~76dとを備える。なお、撮像素子72は、例えばCCD(電荷結合素子)やCMOS(相補性金属酸化膜半導体)などが用いることができ、本実施例では、5120×5120の画素から構成されている。勿論、撮像素子72の画素数は幾つであっても構わない。
 メインレンズ74は、周知の集光用レンズで構成されており、ピント高さが吸着ノズル62に吸着された部品Pの高さH1に対して概ね合うように設定されている。なお、メインレンズ74は、凸レンズおよび凹レンズを複数組み合わせて構成したり、片面または両面が球面でない非球面レンズを用いる等、撮像用レンズとして用いることができるものであれば如何なるタイプのレンズであってもよい。
 サブレンズ76a~76dは、メインレンズ74の視野内の4隅にそれぞれ配置されている。メインレンズ74の上方の4隅には外側から内側へ向けて4つの台座78a~78dが配置されており、4個のサブレンズ76a~76dは4個の台座78a~78dに取り付けられている。また、サブレンズ76a~76dは、吸着ノズル62に吸着された部品Pがメインレンズ74の中央の真上にある場合に、基準マーク69aが4個のサブレンズ76a~76dのいずれかの真上に位置するように配置されている。これにより、パーツカメラ70は、撮像素子72の撮像領域71の中央を部品Pの撮像に使用し、撮像領域71の4隅を基準マーク69aの撮像に使用することができるから、撮像領域71の全体を有効利用することができる。また、サブレンズ76aは、メインレンズ74およびサブレンズ76aを通して被写体を撮像素子72に結像させたときのピント高さが基準マーク69aの高さH2に概ね合うように設定されている。なお、その他のサブレンズ76b~76dは、上述のピント高さがレンズ毎に異なるように設定するものとしてもよいし、ピント高さが一部のレンズまたは全部のレンズで一致するように設定するものとしてもよい。ピント高さが異なる複数のサブレンズを配置する場合、ヘッド60毎に基準マーク69aの配置位置および配置高さの組み合わせが異なるパターンにも、サブレンズを交換することなく、対応することができる。また、撮像領域71の全範囲をカバーするメインレンズ74と撮像領域71の一部をカバーするサブレンズ76a~76dとを備えることにより、ピント高さの異なる部品Pおよび基準マーク69aの双方にピントを合わせた状態で同時に撮像することができる。このため、露光時間(シャッタースピード)を短くすることが可能となり、ヘッド60を移動させながらの撮像(いわゆるオンザフライ方式による撮像)が可能となる。この結果、実装タクトタイムを短縮することができる。
 ここで、メインレンズ74およびサブレンズ76a~76dは、レンズ固有の歪曲(糸巻型歪曲や樽型歪曲)が存在する。サブレンズ76a~76dはメインレンズ74の上方の4隅に配置されるため、撮像素子72に結像される像の4隅は、メインレンズ74とサブレンズ76a~76dとの組み合わせによって、メインレンズ74単体での歪みとは異なる合成歪みが発生する。また、サブレンズ76a~76dの組み付け誤差が生じると、上述の合成歪みがさらに変化する。このため、撮像素子72の撮像領域71のうち4隅以外の領域(この領域をメインレンズ部とも呼ぶ)と4隅の領域(この領域をサブレンズ部とも呼ぶ)とで大きく異なる歪み特性によって像が幾何学的に歪められてしまう。そこで、本実施例では、予め、撮像領域71のメインレンズ部とサブレンズ部とで異なるキャリブレーションプレートを設置してこれらをパーツカメラ70でそれぞれ撮像し、撮像して得られた各画像から各領域毎にレンズの歪み補正値を測定し、これらを歪み補正テーブルとして格納するものとしている。これにより、吸着ノズル62で吸着された部品Pと基準マーク69aとを同時に撮像して得られた画像に対して、歪み補正値(歪み補正テーブル)を用いて補正することにより、レンズ歪みに起因する画像内の部品Pの位置とその実位置とのずれや基準マーク69aの位置とその実位置とのずれを修正することができる。
 マークカメラ80は、X軸スライダ52の下端後方に固定されている。このマークカメラ80の撮像範囲は、マークカメラ80の下方である。マークカメラ80は、基板16上に設けられた基板位置決め基準マークを撮像し、その画像を制御装置90へ出力する。制御装置90は、マークカメラ80によって撮像された画像に基づいてマークの中心位置を認識することにより、基板16の位置を認識する。
 制御装置90は、図2に示すように、CPU91を中心とするマイクロプロセッサとして構成されており、処理プログラムを記憶するROM92、各種データを記憶するHDD93、作業領域として用いられるRAM94、外部装置と電気信号のやり取りを行うための入出力インタフェース95などを備えており、これらはバス96を介して接続されている。この制御装置90には、パーツカメラ70やマークカメラ80からの画像信号、吸着ノズル62の内部圧力を検出する圧力センサ82からの検知信号などを入出力インタフェース95を介して入力しており、制御装置90からは、基板搬送装置30やバックアップ装置40、X軸スライダ52のX軸モータ51、Y軸スライダ54のY軸モータ53、Z軸アクチュエータ66のZ軸モータ66a、θ軸アクチュエータ67のθ軸モータ67a、電磁弁86などへの駆動信号を入出力インタフェース95を介して出力している。また、制御装置90は、部品供給装置20と双方向通信可能に接続されている。なお、X軸スライダ52およびY軸スライダ54には図示しない位置センサが装備されており、制御装置90はそれらの位置センサからの位置情報を入力しつつ、X軸モータ51およびY軸モータ53を駆動制御する。
 管理コンピュータ100は、図2に示すように、CPU101を中心とするマイクロプロセッサとして構成されており、処理プログラムを記憶するROM102、基板16の生産計画などを記憶するHDD103、作業領域として用いられるRAM104、外部装置と電気信号のやり取りを行うための入出力インタフェース105などを備えており、これらはバス106を介して接続されている。また、管理コンピュータ100は、入出力インタフェース105を介して、マウスやキーボードに代表される入力デバイス112から信号を入力可能であり、ディスプレイ114に種々の画像を出力可能なように接続されている。ここで、基板16の生産計画とは、部品実装機10において基板16にどの部品を実装するか、また、部品を実装した基板16(組立品)を何枚作製するか等を定めた計画をいう。管理コンピュータ100は、作業者から入力デバイス112を介して生産計画を受け付け、受け付けた生産計画に従って組立品が作製されるよう各種指令を部品装着機10に送信する。
 次に、こうして構成された実施例の部品実装装置10の動作について説明する。図5は、制御装置90のCPU91により実行される部品実装処理の一例を示すフローチャートである。この処理は、管理コンピュータ100から指令を受信したときに実行される。
 部品実装処理が実行されると、制御装置90のCPU91は、まず、部品供給装置20(テープフィーダ22)により供給される部品の真上に吸着ノズル62が移動するようX軸スライダ52(X軸モータ51)およびY軸スライダ54(Y軸モータ53)を駆動制御し(ステップS100)、吸着ノズル62が部品に当接するまで下降するようZ軸アクチュエータ66(Z軸モータ66a)を駆動制御すると共に吸着ノズル62に負圧が作用するよう電磁弁86を駆動制御することにより、吸着ノズル62に部品を吸着させる(ステップS110)。続いて、部品を吸着した吸着ノズル62が上昇するようZ軸アクチュエータ66を制御し、吸着ノズル62がパーツカメラ70の上方を通過しながら基板16上方へ向かうようX軸スライダ52およびY軸スライダ54を制御し、吸着ノズル62がパーツカメラ70の上方に位置するときに、パーツカメラ70で撮像することにより撮像画像を取得する(ステップS120)。
 撮像画像を取得すると、取得した撮像画像を歪み補正テーブルを用いて補正する(ステップS130)。ここで、歪み補正テーブルは、予めテーブル作成工程によって作成されて、ROM92に記憶されたものが用いられる。以下、テーブル作成工程の詳細について説明する。
 テーブル作成工程では、まず、撮像素子72の撮像領域71の4隅を除く領域(メインレンズ部)内におけるメインレンズ74の歪み補正値を測定する。図6は、キャリブレーションプレートCP1を設置した状態でキャリブレーションプレートCP1を通してメインレンズ74を見たときの正面図である。メインレンズ部の歪み補正値の測定は、円形のドットが所定ピッチで格子状に配列されたキャリブレーションプレートCP1を、メインレンズ74のピントが合う高さ(吸着ノズル62に吸着された部品Pをパーツカメラ70で撮像するときの高さH1と略同じ高さ)となるように設置する。なお、キャリブレーションプレートCP1は、ドットを格子状に配列するものに限定されるものではなく、例えば正方形または矩形のパターンを市松模様状に配列するなど、複数の図柄パターンを整列させたものであれば、如何なるパターンを用いるものとしてもよい。また、キャリブレーションプレートCP1は、吸着ノズル62に吸着させることで設置されるものとしてもよいし、別途専用の治具を用いて設置されるものとしてもよい。次に、設置したキャリブレーションプレートCP1をパーツカメラ70で撮像する。図7に、キャリブレーションプレートCP1をパーツカメラ70で撮像して得られる撮像画像の一例を示す。そして、撮像画像を解析して撮像画像内の各ドットの中心位置を求め、ドット毎にドットの中心位置と予め記憶された正しいドットの中心位置とのずれ量を歪み補正値として計算する。なお、歪み補正値は撮像画像内のドットの中心位置に対して測定されることとなるが、ドットの中心位置から外れる位置の歪み補正値については、その周辺のドットの中心位置に対して測定される歪み補正値から周知の内挿補間法によって求めることができる。
 次に、撮像領域71の4隅の領域(サブレンズ部)内におけるメインレンズ74およびサブレンズ76a~76dの歪み補正値を測定する。図8は、キャリブレーションプレートCP2を設置した状態でキャリブレーションプレートCP2を通してサブレンズ76aを見たときの正面図である。サブレンズ部の歪み補正値の測定は、円形のドットが所定ピッチで格子状に配列されたキャリブレーションプレートCP2を、メインレンズ74およびサブレンズ76aのピントが合う高さ(基準マーク69aの高さH2と略同じ高さ)となるように設置する。ここで、サブレンズ76a~76dはメインレンズ74に比してレンズ視野が極端に狭くなるため、キャリブレーションプレートCP2は、キャリブレーションプレートCP1よりも狭いピッチでドットが配列されたものを用いる。なお、キャリブレーションプレートCP2として、複数の図柄パターンを整列させたものであれば、如何なるパターンを用いるものとしてもよいことはキャリブレーションプレートCP1と同様である。また、キャリブレーションプレートCP2は、位置基準部69に直接設置されるものとしてもよいし、別途専用の治具を用いて設置されるものとしてもよい。次に、設置したキャリブレーションプレートCP2をパーツカメラ70で撮像する。図9に、キャリブレーションプレートCP2をパーツカメラ70で撮像して得られる撮像画像の一例を示す。そして、撮像画像を解析して撮像画像内の各ドットの中心位置を求め、ドット毎にドットの中心位置と予め記憶された正しいドットの中心位置とのずれ量を歪み補正値として計算する。なお、サブレンズ部の歪み補正値はメインレンズ部の歪み補正値と同様に撮像画像内のドットの中心位置に対して測定されることとなるが、ドットの中心位置から外れる位置の歪み補正値については、その周辺のドットの中心位置に対して測定される歪み補正値から周知の内挿補間法によって求めることができる。サブレンズ76aの歪み補正値を測定すると、こうした工程を、残りのサブレンズ76b~76dについても、同様に繰り返す。なお、本実施例では、まず、メインレンズ部の歪み補正値を測定し、その後に、サブレンズ部の歪み補正値を測定するものとしたが、サブレンズ部の歪み補正値を測定し、その後に、メインレンズ部の歪み補正値を測定するものとしてもよい。
 こうしてメインレンズ部の歪み補正値とサブレンズ部の歪み補正値とを測定すると、測定した各歪み補正値を対応する領域内の画素の座標値と対応付けることで歪み補正テーブルを作成する。図10および図11は、歪み補正テーブルの一例を示す説明図である。歪み補正テーブルでは、図10に示すように、撮像素子72の5120×5120の画素に対してデータ量を削減するために64画素ピッチで抽出した画素についての81×81個の歪み補正値が、対応する画素の座標値が関連付けられた状態で格納されている。また、各歪み補正値は、X方向歪み補正値およびY方向歪み補正値が含まれている。なお、歪み補正値は、64画素ピッチで抽出した画素について格納するものに限定されるものではなく、例えば8画素ピッチや16画素ピッチ等、他の所定画素ピッチで抽出した画素について格納するものとしてもよいし、撮像領域71の全画素についての歪み補正値を格納するものとしてもよい。また、歪み補正テーブルは、図11に示すように、メインレンズ部(撮像領域71のうちメインレンズ74のみを通して被写体が撮像される領域)では、キャリブレーションプレートCP1を撮像して得られた画像から取得された歪み補正値が格納され、サブレンズ部(撮像領域71のうちメインレンズ74およびサブレンズ76a~76dを通して被写体が撮像される領域)では、キャリブレーションプレートCP2を撮像して得られた画像から取得された歪み補正値が格納される。
 図12は、歪み補正の様子を示す説明図である。パーツカメラ70により撮像された画像を歪み補正テーブルを用いて補正する場合、撮像された画像の各画素の座標値に対応付けられた歪み補正値(X方向歪み補正値およびY方向歪み補正置)を歪み補正テーブルから取得し、取得した歪み補正値を像のずれ量として扱い、X方向歪み補正値分だけX方向にずれ且つY方向歪み補正値分だけY方向にずれた位置(座標値)の画素から輝度値を取得し、取得した輝度値を歪み補正後の輝度値として設定することにより行なう。上述したように、歪み補正テーブルは、64画素ピッチで抽出した画素における歪み補正値のみが格納されているため、その間を埋める画素の歪み補正値は、内挿補間法によって求める。図13は、バイリニア補間法の説明図である。バイリニア補間法を用いて歪み補正値を補間する場合、例えば、図示するように、歪み補正値を求める座標Pの周辺の2×2画素(図13のQ11,Q12,Q21,Q22)のうち下の2点間(Q11,Q21)および上の2点間(Q12,Q22)についてX方向に補間処理(線形補間処理)を行ない、補間した2点間(図13のR1,R2)をY方向に補間処理(線形補間処理)を行なう。なお、内挿補間法については、バイリニア補間法に限定されるものではなく、使用するパーツカメラ70やレンズの歪み特性によって適切な方法を用いるものとすればよい。
 ここで、上述した歪み補正テーブルでは、メインレンズ部の歪み補正値とサブレンズ部の歪み補正値とが同一のテーブルに格納されているため、これらを区別することなく、単に歪み補正テーブルから得られる歪み補正値に従って撮像画像の補正を行なえばよく、歪み補正処理を高速化することができる。また、歪み補正テーブルはメインレンズ部とサブレンズ部とでキャリブレーションプレートを別々に撮像しそれぞれ得られた画像に基づいて測定された歪み補正値が格納されているため、メインレンズ部とサブレンズ部との境界線上では、歪み補正値に連続性がない。このため、メインレンズ部とサブレンズ部との境界線上の歪み補正値を用いて正確な歪み補正を行なうことはできないが、そもそもサブレンズ76a~76dの外周部分は像の歪みが強く使用できないため、サブレンズ76a~76dの外周部分よりも内側で被写体(基準マーク69a)を撮像するようにすれば、サブレンズ76a~76dの外周部分の歪み補正値が使われることはないから、問題は生じない。
 部品実装処理に戻って、こうして歪み補正テーブルを用いて撮像画像を補正すると、制御装置90のCPU91は、補正画像から部品Pの位置(部品位置)および基準マーク69aの位置(基準マーク位置)を算出し(ステップS140)、算出した基準マーク位置から基準位置(ヘッド60の移動誤差)を算出し(ステップS150)、算出した基準位置と部品位置とに基づいて吸着ノズル62に対する部品の位置ずれ量および回転ずれ量を算出すると共に部品の位置ずれおよび回転ずれが打ち消されるように実装補正値を設定する(ステップS160)。ここで、吸着ノズル62と位置基準部69(基準マーク69a)は、共にヘッド60に設けられており、XY方向の位置関係は不変である。このため、制御装置90は、基準マーク位置から吸着ノズル62の位置(基準位置)を把握することができ、吸着ノズル62に対する部品の位置ずれや回転ずれを算出する際に、基準マークと部品との間の絶対距離を必要としない。したがって、歪み補正テーブルのメインレンズ部とサブレンズ部との境界上で歪み補正値の連続性をもたせる必要がない。なお、実装補正値は、マークカメラ80が基板16上に設けられた基板位置決め基準マークを撮像し、撮像画像から認識される基板16の位置に基づいてさらに調整するものとしてもよい。そして、吸着ノズル62が基板16の実装位置の真上に移動するようX軸スライダ52およびY軸スライダ54を駆動制御し(ステップS170)、吸着ノズル62が下降するようZ軸アクチュエータ66を駆動制御すると共に吸着ノズル62に正圧が作用するよう電磁弁86を駆動制御することにより、部品を基板16上に実装して(ステップS180)、部品実装処理を終了する。こうした部品実装処理を繰り返すことにより、各部品を基板16上に実装していくのである。
 以上説明した実施例の部品実装装置10によれば、ヘッド60に部品Pを吸着するための吸着ノズル62と位置基準部69(基準マーク69a)とが設けられると共に、メインレンズ74の視野内にサブレンズ76a~76dを設置し部品Pをメインレンズ74(メインレンズ部)を通して撮像すると共に基準マーク69aをメインレンズ74およびサブレンズ76a~76d(サブレンズ部)を通して撮像するパーツカメラ70を備えるものにおいて、予め、キャリブレーションプレートCP1をパーツカメラ70のメインレンズ部で撮像し得られた撮像画像からメインレンズ部の歪み補正値を測定すると共に、キャリブレーションプレートCP2をパーツカメラ70のサブレンズ部で撮像し得られた画像からサブレンズ部の歪み補正値を測定して、これらを歪み補正テーブルとして予め記憶しておく。そして、部品実装時に、吸着ノズル62に吸着された部品Pがパーツカメラ70の上方に位置しているときに、パーツカメラ70で撮像し得られた撮像画像を歪み補正テーブルを用いて補正し、補正画像に基づいて吸着ノズル62による部品Pの吸着状態を判定する。これにより、メインレンズ部で撮像された領域かサブレンズ部で撮像された領域かに拘わらず、撮像画像の像の歪みをより正確に補正することができるため、部品Pの吸着状態をより正確に認識することができる。また、認識した部品Pの吸着状態に基づいて部品Pが基板16上に実装されるよう制御することで、実装不良の発生を抑制することができる。
 また、実施例の部品実装装置10によれば、サブレンズ部の歪み補正値の測定に用いるキャリブレーションプレートCP2を、メインレンズ部の歪み補正値の測定に用いるキャリブレーションプレートCP1に比して、ドット(図柄)のピッチが狭いパターンにより構成したから、視野の狭いサブレンズ76a~76dについてもより精度の高い歪み補正値を測定することができる。
 実施例の部品実装装置10では、キャリブレーションプレートCP1をメインレンズ74(メインレンズ部)を通して撮像し得られた画像からメインレンズ部の歪み補正値を測定すると共に、キャリブレーションプレートCP1よりもドット(図柄)のピッチが狭いキャリブレーションプレートCP2をメインレンズ74およびサブレンズ76a~76d(サブレンズ部)を通して撮像し得られた画像からサブレンズ部の歪み補正値を測定する、即ちメインレンズ部とサブレンズ部とで異なるキャリブレーションプレートを用いて歪み補正値を測定するものとしたが、これに限定されるものではなく、メインレンズ部とサブレンズ部とで同一のキャリブレーションプレートを用いて歪み補正値を測定するものとしてもよい。この場合、同一のキャリブレーションプレートをメインレンズ部とサブレンズ部とで同時に撮像された画像を用いてメインレンズ部の歪み補正値とサブレンズ部の歪み補正値とをそれぞれ測定するものとしてもよい。また、同一のキャリブレーションプレートを用いる場合、例えば、サブレンズ部の歪み補正値の測定に適したキャリブレーションプレートCP2を用いてメインレンズ部の歪み補正値も測定するものとしてもよい。
 実施例の部品実装装置10では、吸着ノズル62をパーツカメラ70上で移動させながら吸着ノズル62に吸着された部品Pの撮像(オンザフライ方式による撮像)を行なうものとしたが、これに限定されるものではなく、吸着ノズル62をパーツカメラ70上で一旦停止させた状態で吸着ノズル62に吸着された部品Pの撮像(ストップビジョン方式による撮像)を行なうものとしてもよい。
 実施例の部品実装装置10では、メインレンズ74の視野の4隅に4個のサブレンズ76a~76dを配置するものとしたが、これに限定されるものではなく、メインレンズ74の視野内に配置するサブレンズの数は幾つであってもよい。また、配置位置も、必ずしも4隅である必要はない。
 ここで、実施例の主要な要素と課題を解決するための手段の欄に記載した発明の主要な要素との対応関係について説明する。実施例では、パーツカメラ70が「撮像手段」に相当し、メインレンズ74が「第1のレンズ」に相当し、撮像素子72が「撮像素子」に相当し、メインレンズ74のみを通して被写体を撮像素子72に結像する領域(メインレンズ部)が「第1の撮像領域」に相当し、サブレンズ76a~76dが「第2のレンズ」に相当し、レンズ76およびサブレンズ76a~76dを通して被写体を撮像素子72に結像する領域(サブレンズ部)が「第2の撮像領域」に相当し、ヘッド60が「ヘッド」に相当し、吸着ノズル62が「保持部材」に相当し、基準マーク69aが「基準マーク」に相当し、キャリブレーションプレートCP1やキャリブレーションプレートCP2が「歪み測定用被写体」に相当する。また、キャリブレーションプレートCP1が「第1の歪み測定用被写体」に相当し、キャリブレーションプレートCP2が「第2の歪み測定用被写体」に相当する。また、X軸スライダ52やY軸スライダ54が「移動手段」に相当し、図5の部品実装処理のS130~S160の処理を実行する制御装置90のCPU91が「保持状態検出手段」に相当し、部品実装処理のS170,S180の処理を実行する制御装置90のCPU91が「実装制御手段」に相当する。なお、実施例の主要な要素と課題を解決するための手段の欄に記載した発明の主要な要素との対応関係は、実施例が課題を解決するための手段の欄に記載した発明を実施するための形態を具体的に説明するための一例であることから、課題を解決するための手段の欄に記載した発明の要素を限定するものではない。即ち、課題を解決するための手段の欄に記載した発明についての解釈はその欄の記載に基づいて行われるべきものであり、実施例は課題を解決するための手段の欄に記載した発明の具体的な一例に過ぎないものである。
 以上、本発明の実施の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において、種々なる形態で実施し得ることは勿論である。
 本発明は、部品実装機の製造産業などに利用可能である。
 10 部品実装装置、12 筐体、14 基台、16 回路基板、20 部品供給装置、22 テープフィーダ、22a リール、22b フィーダ部、30 基板搬送装置、32a,32b 支持板、34a,34b コンベアベルト、40 バックアップ装置、42 バックアッププレート、44 ベースプレート、46 バックアップピン、50 部品装着装置、51 X軸モータ、52 X軸スライダ、53 Y軸モータ、54 Y軸スライダ、55,56 ガイドレール、60 ヘッド、62 吸着ノズル、64 ノズルホルダ、66 Z軸アクチュエータ、66a Z軸モータ、68 θ軸アクチュエータ、68a θ軸モータ、69 位置基準部、69a 基準マーク、70 パーツカメラ、71 撮像領域、72 撮像素子、74 メインレンズ、76a~76d サブレンズ、78a~78d 台座、80 マークカメラ、82 圧力センサ、84 ノズルストッカ、86 電磁弁、88 真空ポンプ、89 エア配管、90 制御装置、91 CPU、92 ROM、93 HDD、94 RAM、95 入出力インタフェース、96 バス、100 管理コンピュータ、101 CPU、102 ROM、103 HDD、104 RAM、105 入出力インタフェース、106 バス、112 入力デバイス、114 ディスプレイ。

Claims (4)

  1.  第1のレンズを通して被写体を撮像素子に結像する第1の撮像領域と前記第1のレンズおよび第2のレンズを通して被写体を前記撮像素子に結像する第2の撮像領域とを有するよう撮像手段を構成し、ヘッドに取り付けられた保持部材により部品を保持し、前記保持部材に保持された部品を前記第1の撮像領域で撮像すると共に前記ヘッドに設けられた基準マークを前記第2の撮像領域で撮像することにより前記部品と前記基準マークとを同時に撮像し、該撮像により得られた画像に基づいて前記保持部材に保持された部品の保持状態を検出する部品保持状態検出方法であって、
     前記保持状態の判定に先立って、前記第1の撮像領域で歪み測定用被写体を撮像し、該撮像により得られた画像に基づいて前記第1の撮像領域の歪み成分を測定して記憶すると共に、前記第2の撮像領域で歪み測定用被写体を撮像し、該撮像により得られた画像に基づいて前記第2の撮像領域の歪み成分を測定して記憶しておき、
     前記保持部材に前記部品が保持されると、前記撮像手段により前記部品と前記基準マークとを同時に撮像し、前記第1の撮像領域で前記部品を撮像して得られた画像を、前記記憶された第1の撮像領域の歪み成分に基づいて補正すると共に、前記第2の撮像領域で前記基準マークを撮像して得られた画像を、前記記憶された第2の撮像領域の歪み成分に基づいて補正し、
     該補正された画像に基づいて前記保持部材に保持された部品の保持状態を検出する
     ことを特徴とする部品保持状態検出方法。
  2.  請求項1記載の部品保持状態検出方法であって、
     前記保持状態の判定に先立って、前記歪み測定用被写体として第1の歪み測定用被写体を設置し、前記第1の撮像領域で前記第1の歪み測定用被写体を撮像し、該撮像により得られた画像に基づいて前記第1の撮像領域の歪み成分を測定して記憶すると共に、前記歪み測定用被写体として前記第1の歪み測定用被写体とは異なる第2の歪み測定用被写体を設置し、前記第2の撮像領域で前記第2の歪み測定用被写体を撮像し、該撮像により得られた画像に基づいて前記第2の撮像領域の歪み成分を測定して記憶しておく
     ことを特徴とする部品保持状態検出方法。
  3.  請求項2記載の部品保持状態検出方法であって、
     前記第1の歪み測定用被写体を、複数の図柄が格子状に配列されたパターンにより構成し、
     前記第2の歪み測定用被写体を、前記第1の歪み測定用被写体とは異なるピッチで複数の図柄が格子状に配列されたパターンにより構成する
     ことを特徴とする部品保持状態検出方法。
  4.  部品を基板に実装する部品実装装置であって、
     前記部品を保持する保持部材が取り付けられると共に基準マークが設けられたヘッドと、
     前記ヘッドを移動させる移動手段と、
     第1のレンズを通して被写体を撮像素子に結像する第1の撮像領域と、前記第1のレンズおよび第2のレンズを通して被写体を前記撮像素子に結像する第2の撮像領域とを有し、前記第1の撮像領域で前記保持部材に保持された部品を撮像すると共に前記第2の撮像領域で前記基準マークを撮像することにより、前記部品と前記基準マークとを同時に撮像可能な撮像手段と、
     前記撮像手段により前記部品と前記基準マークとが同時に撮像されると、前記第1の撮像領域での撮像により得られた画像を該第1の撮像領域に対して予め測定された第1の歪み成分に基づいて補正すると共に、前記第2の撮像領域での撮像により得られた画像を該第2の撮像領域に対して予め測定された第2の歪み成分に基づいて補正し、前記補正された画像に基づいて前記保持部材に保持された部品の保持状態を検出する保持状態検出手段と、
     前記判定された部品の保持状態に基づいて該部品が前記基板に実装されるよう前記移動手段と前記保持部材とを制御する実装制御手段と
     を備えることを特徴とする部品実装装置。
PCT/JP2013/068672 2013-07-08 2013-07-08 部品保持状態検出方法および部品実装装置 WO2015004717A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP13889316.9A EP3021654B1 (en) 2013-07-08 2013-07-08 Component holding state detection method and component mounting machine
US14/903,243 US10334770B2 (en) 2013-07-08 2013-07-08 Component holding state detection method and component mounting machine
JP2015526035A JP6333250B2 (ja) 2013-07-08 2013-07-08 部品保持状態検出方法および部品実装装置
PCT/JP2013/068672 WO2015004717A1 (ja) 2013-07-08 2013-07-08 部品保持状態検出方法および部品実装装置
CN201380078062.8A CN105359638B (zh) 2013-07-08 2013-07-08 元件保持状态检测方法及元件安装装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/068672 WO2015004717A1 (ja) 2013-07-08 2013-07-08 部品保持状態検出方法および部品実装装置

Publications (1)

Publication Number Publication Date
WO2015004717A1 true WO2015004717A1 (ja) 2015-01-15

Family

ID=52279449

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/068672 WO2015004717A1 (ja) 2013-07-08 2013-07-08 部品保持状態検出方法および部品実装装置

Country Status (5)

Country Link
US (1) US10334770B2 (ja)
EP (1) EP3021654B1 (ja)
JP (1) JP6333250B2 (ja)
CN (1) CN105359638B (ja)
WO (1) WO2015004717A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017006416A1 (ja) * 2015-07-06 2017-01-12 富士機械製造株式会社 実装装置、撮像処理方法及び撮像ユニット
CN107432116A (zh) * 2015-03-10 2017-12-01 富士机械制造株式会社 安装装置、拍摄处理方法以及拍摄单元
JPWO2017138113A1 (ja) * 2016-02-10 2018-11-22 ヤマハ発動機株式会社 表面実装機、認識誤差補正方法
CN109661863A (zh) * 2016-09-07 2019-04-19 株式会社富士 识别装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104808370B (zh) * 2015-05-22 2017-10-31 合肥京东方光电科技有限公司 一种对盒设备、对位方法
US10509069B2 (en) * 2015-07-15 2019-12-17 Fuji Corporation Inspection device
JP6816282B2 (ja) * 2017-07-18 2021-01-20 株式会社Fuji 部品装着機
KR102260620B1 (ko) * 2019-01-31 2021-06-07 충북대학교 산학협력단 도트 그리드를 이용한 이미지 캘리브레이션 시스템 및 이를 이용한 캘리브레이션 방법, 그 방법을 수행하는 프로그램이 기록된 컴퓨터 판독이 가능한 기록매체
JP7300580B2 (ja) * 2019-05-17 2023-06-30 パナソニックIpマネジメント株式会社 部品実装装置
US11997375B2 (en) * 2020-02-27 2024-05-28 Fuji Corporation Image correction method, imaging device, and inspection device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63238677A (ja) * 1987-03-26 1988-10-04 Matsushita Electric Ind Co Ltd 部品認識装置
JPH1117292A (ja) * 1997-06-26 1999-01-22 Matsushita Electric Ind Co Ltd プリント基板とこの基板に部品を実装する部品実装機
JP2005011950A (ja) 2003-06-18 2005-01-13 Yamaha Motor Co Ltd 表面実装機
JP2007012889A (ja) 2005-06-30 2007-01-18 Hitachi High-Tech Instruments Co Ltd 電子部品装着方法及び電子部品装着装置
JP2010147401A (ja) * 2008-12-22 2010-07-01 Hitachi High-Tech Instruments Co Ltd 電子部品装着装置及び画像歪補正方法
JP2013026278A (ja) * 2011-07-15 2013-02-04 Fuji Mach Mfg Co Ltd 電子部品実装装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002094296A (ja) * 2000-09-13 2002-03-29 Fuji Mach Mfg Co Ltd 吸着ノズル,電気部品の保持位置検出方法,吸着管曲がり検出方法,吸着ノズルの回転位置特定方法,電気部品取扱装置
JP2003249797A (ja) * 2002-02-25 2003-09-05 Toray Eng Co Ltd 実装装置および実装装置におけるアライメント方法
JP4248885B2 (ja) * 2003-01-15 2009-04-02 シャープ株式会社 画像処理方法および画像処理装置ならびに画像処理プログラムおよび画像処理プログラムを記録した記録媒体
JP4343710B2 (ja) * 2004-01-09 2009-10-14 ヤマハ発動機株式会社 表面実装機
JP5455123B2 (ja) * 2010-03-03 2014-03-26 富士機械製造株式会社 部品実装機の撮像画像処理装置
WO2013153834A1 (ja) * 2012-04-12 2013-10-17 富士機械製造株式会社 部品実装機
WO2013153645A1 (ja) * 2012-04-12 2013-10-17 富士機械製造株式会社 撮像装置及び画像処理装置
EP2925112B1 (en) * 2012-11-21 2019-05-01 FUJI Corporation Component mounting machine

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63238677A (ja) * 1987-03-26 1988-10-04 Matsushita Electric Ind Co Ltd 部品認識装置
JPH1117292A (ja) * 1997-06-26 1999-01-22 Matsushita Electric Ind Co Ltd プリント基板とこの基板に部品を実装する部品実装機
JP2005011950A (ja) 2003-06-18 2005-01-13 Yamaha Motor Co Ltd 表面実装機
JP2007012889A (ja) 2005-06-30 2007-01-18 Hitachi High-Tech Instruments Co Ltd 電子部品装着方法及び電子部品装着装置
JP2010147401A (ja) * 2008-12-22 2010-07-01 Hitachi High-Tech Instruments Co Ltd 電子部品装着装置及び画像歪補正方法
JP2013026278A (ja) * 2011-07-15 2013-02-04 Fuji Mach Mfg Co Ltd 電子部品実装装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3021654A4

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107432116A (zh) * 2015-03-10 2017-12-01 富士机械制造株式会社 安装装置、拍摄处理方法以及拍摄单元
EP3270677A4 (en) * 2015-03-10 2018-01-17 Fuji Machine Mfg. Co., Ltd. Mounting device, image processing method and imaging unit
US10070570B2 (en) 2015-03-10 2018-09-04 Fuji Corporation Mounting device, image processing method, and imaging unit
CN107432116B (zh) * 2015-03-10 2019-08-27 株式会社富士 安装装置、拍摄处理方法以及拍摄单元
WO2017006416A1 (ja) * 2015-07-06 2017-01-12 富士機械製造株式会社 実装装置、撮像処理方法及び撮像ユニット
JPWO2017006416A1 (ja) * 2015-07-06 2018-04-26 富士機械製造株式会社 実装装置、撮像処理方法及び撮像ユニット
CN108029243A (zh) * 2015-07-06 2018-05-11 富士机械制造株式会社 安装装置、拍摄处理方法及拍摄单元
US10205859B2 (en) 2015-07-06 2019-02-12 Fuji Corporation Mounting device, image processing method, and imaging unit
CN108029243B (zh) * 2015-07-06 2020-04-03 株式会社富士 安装装置、拍摄处理方法及拍摄单元
JPWO2017138113A1 (ja) * 2016-02-10 2018-11-22 ヤマハ発動機株式会社 表面実装機、認識誤差補正方法
US10849261B2 (en) 2016-02-10 2020-11-24 Yamaha Hatsudoki Kabushiki Kaisha Surface mounter and method of correcting recognition error
CN109661863A (zh) * 2016-09-07 2019-04-19 株式会社富士 识别装置

Also Published As

Publication number Publication date
CN105359638B (zh) 2019-03-05
JPWO2015004717A1 (ja) 2017-02-23
US20160150689A1 (en) 2016-05-26
US10334770B2 (en) 2019-06-25
EP3021654A4 (en) 2016-07-27
CN105359638A (zh) 2016-02-24
EP3021654A1 (en) 2016-05-18
JP6333250B2 (ja) 2018-05-30
EP3021654B1 (en) 2019-04-03

Similar Documents

Publication Publication Date Title
JP6333250B2 (ja) 部品保持状態検出方法および部品実装装置
JP4851361B2 (ja) 電子回路部品装着装置
JP4326641B2 (ja) 装着装置,装着精度検出治具セットおよび装着精度検出方法
KR101506519B1 (ko) 부품 실장 장치
WO2015128945A1 (ja) 部品装着装置
JP6271514B2 (ja) 生産設備
JP5755502B2 (ja) 位置認識用カメラ及び位置認識装置
JP4824641B2 (ja) 部品移載装置
US20190029153A1 (en) Mounting device and imaging processing method
US11272651B2 (en) Component mounting device, method of capturing image, and method of determining mounting sequence
WO2017013781A1 (ja) 部品実装機
WO2017029701A1 (ja) 部品実装装置
KR101120129B1 (ko) 기준값을 응용한 작업위치 자동 조정방법 및 이를 위한 자동화 장비
TWI467197B (zh) An electronic component operating unit for an image capturing device, and a working device for its application
US6315185B2 (en) Ball mount apparatus
JP4860366B2 (ja) 表面実装装置
WO2020021657A1 (ja) 表面実装機
WO2024111022A1 (ja) 部品外観検査装置及び部品外観検査方法
TWI841852B (zh) 安裝裝置及安裝方法
JPH08195599A (ja) 実装機の部品装着状態検出方法及び同装置
JP5271654B2 (ja) 電子部品実装装置
JP2002076696A (ja) 実装機における基板認識装置
JP6997069B2 (ja) 部品実装機
JP2006324302A (ja) 画像認識方法とそれを用いた部品装着装置
JP2005197372A (ja) 部品搭載装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201380078062.8

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13889316

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015526035

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2013889316

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14903243

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE