WO2018037507A1 - 実装装置 - Google Patents

実装装置 Download PDF

Info

Publication number
WO2018037507A1
WO2018037507A1 PCT/JP2016/074687 JP2016074687W WO2018037507A1 WO 2018037507 A1 WO2018037507 A1 WO 2018037507A1 JP 2016074687 W JP2016074687 W JP 2016074687W WO 2018037507 A1 WO2018037507 A1 WO 2018037507A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
difference
component
distance
region
Prior art date
Application number
PCT/JP2016/074687
Other languages
English (en)
French (fr)
Inventor
石川 信幸
Original Assignee
富士機械製造株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士機械製造株式会社 filed Critical 富士機械製造株式会社
Priority to JP2018535982A priority Critical patent/JP6871930B2/ja
Priority to EP16914181.9A priority patent/EP3506728B1/en
Priority to US16/325,419 priority patent/US10736251B2/en
Priority to PCT/JP2016/074687 priority patent/WO2018037507A1/ja
Priority to CN201680088435.3A priority patent/CN109565953B/zh
Publication of WO2018037507A1 publication Critical patent/WO2018037507A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/081Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines
    • H05K13/0812Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines the monitoring devices being integrated in the mounting machine, e.g. for monitoring components, leads, component placement
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/003Control of exposure by setting shutters, diaphragms or filters, separately or conjointly setting of both shutter and diaphragm
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/04Mounting of components, e.g. of leadless components
    • H05K13/0404Pick-and-place heads or apparatus, e.g. with jaws
    • H05K13/0408Incorporating a pick-up tool
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/04Mounting of components, e.g. of leadless components
    • H05K13/0404Pick-and-place heads or apparatus, e.g. with jaws
    • H05K13/0408Incorporating a pick-up tool
    • H05K13/0409Sucking devices
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/0882Control systems for mounting machines or assembly lines, e.g. centralized control, remote links, programming of apparatus and processes as such
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/04Mounting of components, e.g. of leadless components
    • H05K13/0417Feeding with belts or tapes
    • H05K13/0419Feeding with belts or tapes tape feeders

Definitions

  • the present invention relates to a mounting apparatus.
  • a component supplied from a feeder is attracted to the tip of a nozzle, the nozzle is moved above the camera, the component is imaged by the camera, and then the nozzle is moved above the substrate to move the nozzle.
  • a device in which a component is mounted at a predetermined position on a substrate is known.
  • imaging is performed by a camera in a state where the lower surface of a component sucked by a nozzle is raised to a predetermined height level.
  • Patent Document 1 since the distance between the lower surface of the component and the camera is constant, an appropriate image may not be obtained depending on the type of the component. For example, when the imaging target in the part is located at a height different from the lowest end of the part, the imaging target deviates from the depth of field of the camera if the distance between the lowest end of the part and the camera is constant. In some cases, an image out of focus with the imaging target is captured.
  • the present invention has been made to solve the above-described problems, and has as its main object to obtain an appropriate image according to the part.
  • the present invention adopts the following means in order to achieve the above-mentioned main object.
  • the mounting apparatus of the present invention is A component holding unit capable of holding the component;
  • An imaging unit capable of imaging the component held by the component holding unit from above or below, and capable of adjusting an aperture and an exposure time during imaging, Obtaining information regarding the height of the imaging target in the component, and based on the acquired information, imaging conditions regarding the aperture and the exposure time so that the imaging target is within the depth of field of the imaging unit.
  • a control unit that determines and controls the imaging unit to image the component under the determined imaging condition; It is equipped with.
  • the aperture and exposure time are determined so that the imaging target is within the depth of field of the imaging unit based on the information related to the height of the imaging target in the component, and the determined aperture and exposure time Image the part.
  • the imaging since the imaging is performed by adjusting the depth of field based on the information regarding the height of the imaging target in the component, is the imaging target height in the component matched with the imaging unit side end of the component? Regardless of whether or not, it is possible to obtain an image focused on the imaging target. That is, an appropriate image according to the part can be obtained.
  • the imaging unit side end is the uppermost end of the component when the imaging unit images the component from above, and is the lowermost end of the component when the imaging unit images the component from below.
  • the mounting apparatus of the present invention moves up and down at least one of the component held by the component holding unit and the imaging unit, and the distance in the height direction during imaging between the imaging unit side end of the component and the imaging unit
  • the lifting / lowering unit capable of adjusting the imaging distance, and the control unit, as information on the height of the imaging target, information on the difference between the height of the imaging unit side end of the component and the height of the imaging target
  • the imaging unit is controlled to take an image of the part under an imaging condition in which the aperture is opened and the exposure time is shorter than when the difference is included in the second region, and within the depth of field in the imaging condition
  • the imaging distance is set so that the imaging object fits in If the difference is included in the second region, the imaging condition is determined so that the imaging target is within the depth of field of the imaging unit, and the determined imaging condition is adjusted.
  • the imaging unit may be controlled so as to perform imaging of the component.
  • the imaging distance is adjusted by the elevating unit. Even in a state where the depth of field is relatively shallow, the imaging target can be kept within the depth of field. Therefore, it is possible to perform imaging under a condition where the depth of field is relatively shallow, that is, under imaging conditions where the exposure time is relatively short, and an image can be obtained at high speed.
  • the difference between the height of the imaging unit side end of the component and the height of the imaging target is included in the second region (when the difference is relatively large), the component is stopped with the aperture stopped and the exposure time extended.
  • the image pickup target can be kept within the depth of field. it can. Therefore, even when the difference between the height of the imaging unit side end of the component and the height of the imaging target is large, an image focused on the imaging target can be obtained more reliably.
  • the control unit when the difference is included in the first region
  • the imaging unit may be controlled so that the part and the exposure time are set to the same state regardless of the difference. In this way, when the difference is included in the first region, it is possible to obtain an image at high speed by shortening the exposure time as much as possible regardless of the magnitude of the difference.
  • the control unit when the difference is included in the second region
  • the elevating unit may be controlled to adjust the imaging distance so that the difference is less than or equal to the minimum value of the imaging distance when the difference is included in the first region.
  • the lifting unit makes the imaging distance relatively small even when the difference is included in the second region. Therefore, even when the difference is relatively large, the exposure depth is made as long as possible without increasing the depth of field as much as possible. Without the imaging object being within the depth of field.
  • FIG. FIG. 3 is a block diagram showing a configuration relating to control of the mounting apparatus 10.
  • the flowchart of a component mounting process routine Explanatory drawing of the table for condition determination. Explanatory drawing of the positional relationship of the depth of field and the front-end
  • tip part 92 in the case of Db ⁇ D ⁇ Da. Explanatory drawing of the positional relationship of the depth of field and the front-end
  • FIG. 1 is a perspective view of the mounting apparatus 10
  • FIG. 2 is a block diagram showing a configuration relating to control of the mounting apparatus 10.
  • the left-right direction (X-axis), the front-rear direction (Y-axis), and the up-down direction (Z-axis) are as shown in FIG.
  • the mounting apparatus 10 includes a base 12, a mounting apparatus main body 14 installed on the base 12, and a reel unit 70 as a component supply apparatus mounted on the mounting apparatus main body 14.
  • the mounting apparatus main body 14 is installed to be exchangeable with respect to the base 12.
  • the mounting apparatus main body 14 includes a substrate transport device 18 that transports and holds the substrate 16, a head 24 that can move on the XY plane, a mechanical chuck 40 that is attached to the head 24 and can move to the Z axis, and mechanical A parts camera 50 that captures an image of a part gripped by the chuck 40 and a controller 60 that executes various controls are provided.
  • the substrate transfer device 18 is provided with support plates 20 and 20 extending in the left-right direction with a space between the front and rear in FIG. 1 and conveyor belts 22 and 22 provided on opposite surfaces of the support plates 20 and 20 (see FIG. 1). 1 shows only one of them).
  • the conveyor belts 22 and 22 are stretched over the drive wheels and the driven wheels provided on the left and right sides of the support plates 20 and 20 so as to be endless.
  • substrate 16 is mounted on the upper surface of a pair of conveyor belts 22 and 22, and is conveyed from the left to the right.
  • the substrate 16 is supported from the back side by a large number of support pins 23 erected.
  • the head 24 is attached to the front surface of the X-axis slider 26.
  • the X-axis slider 26 is attached to the front surface of the Y-axis slider 30 that can slide in the front-rear direction so as to be slidable in the left-right direction.
  • the Y-axis slider 30 is slidably attached to a pair of left and right guide rails 32, 32 extending in the front-rear direction.
  • a pair of upper and lower guide rails 28, 28 extending in the left-right direction are provided on the front surface of the Y-axis slider 30, and the X-axis slider 26 is attached to the guide rails 28, 28 so as to be slidable in the left-right direction.
  • the head 24 moves in the left-right direction as the X-axis slider 26 moves in the left-right direction, and moves in the front-rear direction as the Y-axis slider 30 moves in the front-rear direction.
  • the sliders 26 and 30 are driven by drive motors 26a and 30a (see FIG. 2), respectively.
  • the head 24 incorporates a Z-axis motor 34 and adjusts the height of the mechanical chuck 40 attached to a ball screw 36 extending along the Z-axis by the Z-axis motor 34.
  • the mechanical chuck 40 is a mechanism that can hold a component by gripping the component.
  • the mechanical chuck 40 includes a chuck body 41 that is attached to the head 24 so as to be relatively movable in the Z-axis direction, and a pair of front and rear gripping portions 42 that are attached to the lower side of the chuck body 41.
  • the mechanical chuck 40 includes a slider (not shown) that is attached to the bottom surface of the chuck main body 41 and that can slide the pair of gripping portions 42 toward and away from each other, and a drive motor 43 that drives the slider. Yes.
  • the gripping part 42 grips a component when the gripping part 42 approaches each other by the drive motor 43. Further, the mechanical chuck 40 is moved up and down along the Z-axis direction by the Z-axis motor 34 to adjust the height of the component gripped by the grip portion 42.
  • the parts camera 50 is disposed in front of the support plate 20 on the front side of the substrate transfer device 18.
  • the parts camera 50 has an imaging range above the parts camera 50, and images the parts held by the mechanical chuck 40 from below to generate an image.
  • the parts camera 50 includes an illumination unit 51 having a large number of LEDs attached to the inner surface of an inverted octagonal pyramid housing whose upper and lower surfaces are open, and a camera body 52 disposed below the housing. It has.
  • the camera body 52 includes a lens 53, a diaphragm mechanism 54, a shutter mechanism 55, an imaging element 56, and an imaging control unit 57.
  • the aperture mechanism 54 adjusts the amount of light that passes through the lens 53 and enters the image sensor 56.
  • the shutter mechanism 55 is disposed between the lens 53 and the diaphragm mechanism 54 and the image sensor 56, and switches whether to pass or shield the light that has passed through the lens 53, thereby reducing the exposure time of the image sensor 56 at the time of imaging. adjust.
  • FIG. 1 only one lens 53 is shown, but the parts camera 50 may include a plurality of lenses 53.
  • the image sensor 56 receives the light after passing through the lens 53, the aperture mechanism 54, and the shutter mechanism 55, the image sensor 56 photoelectrically converts the light to generate a charge corresponding to each pixel in the image.
  • the image sensor 56 may be a CMOS image sensor, for example.
  • the imaging control unit 57 reads out the electric charge generated by the imaging element 56 and generates image data that is digital data including information on each pixel.
  • the imaging control unit 57 controls the entire part camera 50. Specifically, the imaging control unit 57 outputs a control signal to the illumination unit 51 to control light irradiation from the illumination unit 51, or outputs a control signal to the aperture mechanism 54 to adjust the aperture. A control signal is output to the shutter mechanism 55 to adjust the exposure time during imaging. Further, the imaging control unit 57 outputs the generated image data to the controller 60.
  • the controller 60 is configured as a microprocessor centered on the CPU 61, and includes a ROM 62 for storing processing programs, an HDD 63 for storing various data, a RAM 64 used as a work area, an external device and electrical signals. An input / output interface 65 and the like for performing exchanges are provided, and these are connected via a bus 66.
  • the controller 60 outputs drive signals to the substrate transport device 18, the drive motor 26 a of the X-axis slider 26, the drive motor 30 a of the Y-axis slider 30, and the drive motor 43 of the mechanical chuck 40. Further, the controller 60 outputs information regarding the aperture and exposure time as imaging conditions at the time of imaging to the parts camera 50 and inputs image data from the parts camera 50.
  • each slider 26, 30 is equipped with a position sensor (not shown), and the controller 60 inputs position information from these position sensors while driving the drive motors 26a, 30a of each slider 26, 30. To control.
  • the reel unit 70 includes a plurality of reels 72 and is detachably attached to the front side of the mounting apparatus body 14.
  • a tape is wound around each reel 72, and components are held on the surface of the tape along the longitudinal direction of the tape. These parts are protected by a film covering the surface of the tape.
  • Such a tape is unwound from the reel toward the rear, and the film is peeled off at the feeder portion 74 so that the components are exposed.
  • the gripped portion 42 of the mechanical chuck 40 grips the exposed part, the part is held by the mechanical chuck 40 and can move together with the head 24.
  • the management computer 80 is a computer that manages a production job of the mounting apparatus 10 and is connected to the controller 60 of the mounting apparatus 10 so as to be communicable.
  • the production job is information that defines which components are mounted on which substrate 16 in which order in the mounting apparatus 10 and how many substrates 16 are to be mounted with components.
  • the management computer 80 stores the production job and outputs information included in the production job to the mounting apparatus 10 as necessary.
  • FIG. 3 is a flowchart illustrating an example of a component mounting process routine.
  • FIG. 4 is an explanatory diagram of a condition determination table.
  • FIGS. 5 to 7 are explanatory diagrams of the positional relationship between the depth of field of the parts camera 50 and the tip 92 that is the imaging target in the component 90.
  • FIG. 5 is an explanatory diagram in the case of 0 ⁇ D ⁇ Db
  • FIG. 6 is an explanatory diagram in the case of Db ⁇ D ⁇ Da
  • FIG. 7 is an explanatory diagram in the case of Da ⁇ D.
  • the difference D and the values Da and Db will be described later.
  • “DOF” in FIGS. 5 to 7 means the depth of field (Depth of Field).
  • the component mounting process routine in FIG. 3 and the condition determination table in FIG. 4 are stored in the HDD 63.
  • the component mounting process routine of FIG. 3 is started by the controller 60 upon receiving a command from the management computer 80.
  • the component 90 is a connector that electrically connects a plurality of components.
  • the component 90 includes a plurality of connector pins 91 to be inserted into the substrate 16 and a plurality of connector pins 93 that are electrically connected to the plurality of connector pins 91 in a one-to-one manner.
  • the component 90 connects, for example, a component on the substrate 16 and another component arranged at a different position from the substrate 16 via the connector pins 91 and 93.
  • the axial direction of connector pin 91 (vertical direction in FIGS. 5 to 7) and the axial direction of connector pin 93 (horizontal direction in FIGS. 5 to 7) are perpendicular to each other.
  • the component 90 has a protruding portion 94 that protrudes downward from the tip end portion 92 (the lower end portion in FIGS. 5 to 7) of the connector pin 91, and the lower end of the protruding portion 94 is the lowest end of the component 90.
  • An object to be imaged in the component 90 by the parts camera 50 is a tip 92.
  • the component 90 is positioned at a height at which the imaging target (tip portion 92) in the component 90 is different from the lowest end of the component 90.
  • Information regarding the imaging target height and the lowest end height of the component 90 is included in the production job, and the CPU 61 acquires these information from the management computer 80 in step S100.
  • the information regarding the lowermost height is specifically the value of the thickness (height) of the component, that is, the vertical direction from the uppermost end of the component to the lowermost end (here, the lower end of the protruding portion 94). Of distance.
  • the information regarding the imaging target height is specifically the distance in the vertical direction from the uppermost end of the component to the imaging target (here, the tip end portion 92).
  • the information regarding the imaging target height and the lowest end height for each component type is included in the production job.
  • the CPU 61 derives a difference D between the height of the lowermost end of the component to be mounted and the height of the imaging target based on the information acquired in step S100 (step S110). For example, when the mounting target is the component 90, the vertical distance between the tip end portion 92 and the lower end of the protruding portion 94 is derived as the difference D as shown in FIGS. Next, the CPU 61 determines the imaging distance H and the aperture at the time of imaging based on the derived difference D and the condition determination table shown in FIG. 4 (step S120). As shown in FIGS.
  • the imaging distance H is the distance in the vertical direction (height direction) between the uppermost end of the parts camera 50 and the lowermost end of the component to be mounted (the lower end of the protruding portion 94 in the figure). It is.
  • the condition determination table in FIG. 4 is a table including a correspondence relationship between the difference D and the imaging distance H, and a correspondence relationship between the difference D and the diaphragm at the time of imaging.
  • the CPU 61 reads the imaging distance H associated with the difference D in the condition determination table and the aperture at the time of imaging, and determines the read values as the imaging distance H and the aperture at the time of imaging.
  • the CPU 61 can store the imaging target in the part within the depth of field of the parts camera 50, open the aperture as much as possible, and avoid interference (contact) between the parts and the parts camera 50.
  • An imaging distance H and an aperture at the time of imaging are determined.
  • condition determination table As shown in FIG. 4, the first area where the difference D is relatively small (here 0 ⁇ D ⁇ Da) and the difference D is relatively large (here Da ⁇ D). And a second region.
  • the value Da is a boundary value between the first area and the second area, and the part within the depth of field when the diaphragm of the diaphragm mechanism 54 of the parts camera 50 is set to the maximum diaphragm (most opened). It is set as the upper limit of the value of the difference D so that the camera 50 and the part can accommodate the imaging target of the part without interference.
  • the maximum aperture state is a state where the depth of field of the parts camera 50 is the shallowest.
  • the distance Hmin (> 0) is set as the lower limit of the imaging distance H that can avoid interference between the parts camera 50 and the parts.
  • the diaphragm when the difference D is included in the first region, the diaphragm is associated with the same state (here, the maximum diaphragm) regardless of the difference D.
  • the difference D and the stop are associated with each other in a tendency that the stop is stopped as the difference D increases.
  • the difference D and the aperture are associated with each other so that the aperture is reduced in a step function as the difference D increases.
  • the difference D corresponds to the diaphragm so that the diaphragm is opened when the difference D is included in the first area and in the second area. It is attached.
  • the imaging distance H tends to decrease as the difference D increases, and the difference D and the imaging distance H are associated with each other.
  • the imaging distance H is associated with the same value (here, the distance Hmin) regardless of the difference D.
  • the imaging distance H when the difference D is included in the second region is equal to or smaller than the minimum value (distance Hmin in FIG. 4) of the imaging distance H when included in the first region (in FIG. 4, it is equal).
  • the difference D and the imaging distance H are associated with each other.
  • the first area is divided into two depending on whether the difference D is equal to or less than the value Db (where 0 ⁇ Db ⁇ Da) or greater than the value Db.
  • the value Db is a difference D that allows the height of the imaging target of the part to be matched to the most focused position within the depth of field when the aperture of the aperture mechanism 54 of the parts camera 50 is set to the maximum aperture. It is set as the upper limit value. More specifically, the distance in the height direction (distance Lb shown in FIG. 5) between the in-focus position and the top end of the parts camera 50 within the depth of field at the maximum aperture, and the distance Hmin The value of the difference D when the sum with the difference D becomes equal is the value Db.
  • Db Lb ⁇ Hmin.
  • the imaging distance H corresponding to the difference D is equal to or greater than the distance Hmin.
  • the imaging distance H is associated with the same state (here, the distance Hmin) regardless of the difference D.
  • the diaphragm at the time of imaging corresponding to the difference D in the first region is in the same state (here, the maximum diaphragm) regardless of whether or not the difference D is equal to or smaller than the value Db.
  • FIG. 5 to FIG. 7 show the positional relationship between the part camera 50 and the part 90 when imaging is performed with the imaging distance H determined using the condition determination table in FIG. It explains using.
  • the height of the object to be imaged here, the tip 92
  • the maximum aperture from the part camera 50.
  • the imaging distance H is determined so as to coincide with the position of the distance Lb. As described above, when the difference D satisfies 0 ⁇ D ⁇ Db, that is, when the difference D is particularly small in the first region and the parts camera 50 and the component do not easily interfere with each other, the imaging is performed while the aperture is set to the maximum aperture. The imaging distance H is determined so that the object is within the depth of field and the imaging object is located at the most focused position within the depth of field.
  • the CPU 61 uses the condition determination table to determine the aperture at the time of imaging as the maximum aperture and determine the value of the imaging distance H as the distance Hmin regardless of the value of the difference D.
  • the imaging distance H is determined so that the height of the imaging target (here, the tip 92) is within the depth of field when the aperture is set to the maximum aperture.
  • the case where the difference D satisfies Db ⁇ D ⁇ Da means that the difference D is relatively large in the first region, so that the imaging target is to be positioned at the most focused position within the depth of field.
  • imaging distance H ⁇ distance Hmin.
  • the CPU 61 does not match the imaging target with the most focused position, but the imaging distance is set so that the imaging target can be kept within the depth of field while the aperture during imaging is set to the maximum aperture. H is determined.
  • the CPU 61 uses the condition determination table to determine the diaphragm at the time of imaging in a state corresponding to the difference D, and the value of the imaging distance H is determined to be the distance Hmin regardless of the difference D.
  • the diaphragm at the time of imaging determined here is in a state of being narrower than the diaphragm (here, the maximum diaphragm) when the difference D is included in the first region. Therefore, as shown in FIG. 7, the depth of field when the difference D satisfies Da ⁇ D (the range of the two-dot chain line in FIG.
  • the aperture at the time of imaging is determined so that the height of the imaging target (here, the tip end portion 92) is within the depth of field.
  • the case where the difference D satisfies Da ⁇ D means that the difference D is relatively large, so that when the imaging target is to be placed within the depth of field with the aperture set to the maximum aperture, the parts camera 50 and the component are This is a case where interference occurs (here, imaging distance H ⁇ distance Hmin).
  • the CPU 61 allows the diaphragm to be narrower than the maximum diaphragm, and determines a diaphragm at the time of imaging that can capture the imaging target within the depth of field. Note that the correspondence between the step function difference D shown in FIG. 4 and the diaphragm at the time of imaging is within the depth of field determined by the diaphragm corresponding to the value of the difference D when the imaging distance H is the distance Hmin. It is determined in advance so that an imaging target can be accommodated.
  • the CPU 61 determines the exposure time based on the determined aperture (S130).
  • the CPU 61 determines an exposure time corresponding to the determined aperture based on the correspondence relationship between the aperture stored in advance in the HDD 63 and an appropriate exposure time.
  • This correspondence is assumed to be stored in the HDD 63 in the form of a mathematical expression (conversion formula) in this embodiment.
  • the present invention is not limited to this, and a table in which the aperture and the exposure time are associated may be stored in the HDD 63, and the exposure time may be determined based on this table.
  • the CPU 61 mounts components (steps S140 to S180). That is, the CPU 61 first controls the reel unit 70, the X-axis slider 26, the Y-axis slider 30, and the Z-axis motor 34, so that components to be mounted supplied by the reel unit 70 can be held by the gripping portion 42 of the mechanical chuck 40. (Step S140). Subsequently, the CPU 61 controls the Z-axis motor 34 so as to raise the mechanical chuck 40 so that the imaging distance H of the component gripped by the mechanical chuck 40 becomes the value determined in step S120. The Y-axis slider 30 is controlled to move the mechanical chuck 40 above the parts camera 50 (step S150).
  • the CPU 61 raises the mechanical chuck 40 to a height that does not interfere with the feeder unit 74 and then moves the mechanical chuck 40 to the imaging distance H. Just down.
  • the CPU 61 uses the determined imaging conditions (aperture and exposure time) when the part gripped by the mechanical chuck 40 comes to a height that is directly above the parts camera 50 and determined by the determined imaging distance H.
  • the parts camera 50 is made to take an image of a part (step S160).
  • the CPU 61 executes a predetermined process based on the captured image data (step S170).
  • the CPU 61 detects the position of the imaging target (here, the distal end portion 92) in the component gripped by the mechanical chuck 40 based on the captured image data, and is disposed when the component is disposed on the substrate 16. Set the amount of position correction. Further, for example, the CPU 61 determines whether or not the connector pin 91 is missing by comparing an imaging target in the captured image data with a normal imaging target stored in advance. In order to perform such processing with high accuracy, it is necessary to focus on the imaging target in the image captured by the parts camera 50. In the present embodiment, the imaging distance H and imaging conditions are determined based on the component difference D so that the imaging target is within the depth of field, that is, in focus.
  • the CPU 61 moves the mechanical chuck 40 to a predetermined mounting position on the substrate 16 and places a component at the mounting position (step S180). At this time, when the correction amount based on the above-described image data is set, the CPU 61 arranges the component at the mounting position in consideration of the correction amount. If the connector pin 91 is missing in step S170, the CPU 61 may discard the component gripped by the mechanical chuck 40 without performing step S180, for example, and execute the processing after step S140. .
  • the CPU 61 places the component 90 on the substrate 16 by inserting the connector pin 91 of the component 90 into a hole at a predetermined position of the substrate 16, for example. Further, since the component 90 has the protruding portion 94, the mounting position of the component 90 is set near the outer edge on the substrate 16 so that the protruding portion 94 and the substrate 16 do not interfere with each other. That is, the protruding portion 94 and the connector pin 93 of the component 90 after mounting are located in a region other than on the substrate 16.
  • the CPU 61 determines whether or not all the components have been mounted on the board 16 (step S190). If not, the process returns to step S100 again to mount the remaining components. . On the other hand, if all the components have been mounted in step S190, the CPU 61 ends this component mounting processing routine.
  • CPU 61 may perform at least part of the processing of steps S100 to S130 in parallel with at least part of steps S140 to S150.
  • the mechanical chuck 40 of the present embodiment corresponds to the component holding unit of the present invention
  • the parts camera 50 corresponds to the imaging unit
  • the CPU 61 of the controller 60 corresponds to the control unit.
  • the Z-axis motor 34 corresponds to the lifting unit.
  • the CPU 61 controls the aperture and exposure so that the imaging target is within the depth of field of the part camera 50 based on the information related to the height of the imaging target in the component. Determine the time. For example, when the difference D is included in the second region, the depth of field is changed according to the difference D so that the imaging target is within the depth of field of the part camera 50. Then, the parts camera 50 is controlled so that the part is imaged with the determined aperture and exposure time. In this way, since imaging is performed by adjusting the depth of field based on the information related to the height of the imaging target in the component, whether or not the height of the imaging target in the component matches the lowest end of the component. Regardless, it is possible to obtain an image focused on the imaging target. That is, an appropriate image according to the part can be obtained.
  • the mounting apparatus 10 moves the component held by the mechanical chuck 40 up and down to adjust the imaging distance H, which is the distance in the height direction at the time of imaging between the lowermost part of the component and the parts camera 50. It has. Further, the CPU 61 derives and acquires information regarding the difference D between the height of the lowermost end of the component and the height of the imaging target as information regarding the height of the imaging target. Then, when the difference D is included in the first area, the CPU 61 performs imaging of the part under an imaging condition in which the aperture is opened and the exposure time is shorter than in the case where the difference D is included in the second area. 50, and the imaging distance H is adjusted by the Z-axis motor 34 so that the imaging target is within the depth of field under the imaging conditions.
  • the CPU 61 determines the imaging condition so that the imaging target is within the depth of field of the part camera 50, and performs imaging of the component under the determined imaging condition.
  • the parts camera 50 is controlled.
  • the imaging distance H is adjusted by the Z-axis motor 34, and thus imaging is performed even when the depth of field is relatively shallow.
  • the object can be kept within the depth of field. Therefore, it is possible to perform imaging under a condition where the depth of field is relatively shallow, that is, under imaging conditions where the exposure time is relatively short, and an image can be obtained at high speed.
  • the imaging of the part is performed with the aperture stopped and the exposure time extended, so the imaging distance H of the Z-axis motor 34 Even if only the adjustment is performed, the imaging target can be kept within the depth of field even when the lowermost end of the component interferes with the parts camera 50. Therefore, even when the difference D is large, an image in focus on the imaging target can be obtained more reliably.
  • the CPU 61 controls the parts camera 50 so as to capture the part with the same aperture and exposure time regardless of the difference D. That is, when the difference D is included in the first region, the imaging condition is not adjusted according to the difference D, and the imaging target is set within the depth of field only by the control of the Z-axis motor 34. In this way, when the difference D is included in the first region, it is possible to obtain an image at high speed by shortening the exposure time as much as possible regardless of the magnitude of the difference D.
  • the depth of field may be adjusted in accordance with the difference D, such as determining the imaging condition so that the diaphragm at the time of imaging tends to be reduced as the difference D increases in the first region of FIG.
  • the exposure time becomes longer as the difference D increases.
  • the exposure time can be shortened as much as possible regardless of the magnitude of the difference D as compared with such a case.
  • the exposure time is shortened with the aperture set as the maximum aperture regardless of the difference D, so that an image can be obtained at a higher speed.
  • the CPU 61 captures the imaging distance H so as to be equal to or less than the minimum value (here, distance Hmin) of the imaging distance H when the difference D is included in the first area.
  • the Z-axis motor 34 is controlled so as to adjust. Therefore, even when the difference is included in the second region, the Z-axis motor 34 relatively reduces the imaging distance H. Therefore, even when the difference D is relatively large, the exposure time is not increased as much as possible.
  • the imaging object can be kept within the depth of field without making it as long as possible.
  • the CPU 61 may determine the imaging distance H to be larger than the distance Hmin.
  • the CPU 61 reduces the aperture by the amount that the imaging distance H is increased. It is necessary to increase the depth of field, and the exposure time is determined to be longer.
  • the difference D is included in the second area
  • the exposure distance is adjusted to be longer than the minimum value of the imaging distance H when the difference D is included in the first area. Time can be suppressed.
  • the value of the imaging distance H is set to a distance Hmin that is a lower limit of the imaging distance H that can avoid interference between the parts camera 50 and the parts. Therefore, the imaging target can be kept within the depth of field while minimizing the exposure time within a range where interference can be avoided.
  • the CPU 61 when the difference D is equal to or smaller than the value Db, the CPU 61 sets the height of the imaging target to the most focused position within the depth of field when the aperture is set to the maximum aperture.
  • the imaging distance H is determined so as to match, the present invention is not limited to this. Even when the difference D is equal to or less than the value Db, the CPU 61 may determine the imaging distance H so that the imaging target can be contained within the depth of field.
  • the diaphragm at the time of imaging may be determined as the maximum diaphragm and the value of the imaging distance H may be determined as the distance Hmin regardless of the value of the difference D.
  • the imaging distance H is the distance Hmin and the diaphragm is at the maximum diaphragm
  • the bottom end of the component within the depth of field in FIG. It was assumed that the lower end was fit.
  • the depth of field in the maximum aperture state may be shallower than that in FIG. 6, and the lowermost end of the component (the lower end of the protrusion 94 in FIG. 6) may not fit within the depth of field.
  • the imaging distance H is determined to be the distance Hmin when the difference D is too small in the first region, the imaging target will deviate from the depth of field to the part camera 50 side.
  • the CPU 61 may determine the imaging distance H to be a value larger than the distance Hmin so that the imaging target is within the depth of field. Alternatively, if the difference D is too small, the CPU 61 may reduce the aperture to increase the depth of field so that the imaging target is within the depth of field. However, in order to obtain an image at high speed, it is preferable that the CPU 61 changes the imaging distance H and keeps the imaging target within the depth of field without reducing the aperture as much as possible. In addition, the region where the difference D is too small may be regarded as a third region different from the first region.
  • the CPU 61 acquires information regarding the imaging target height of the component and information regarding the lowest end height in step S100, and derives the difference D in step S110, but is not limited thereto.
  • the CPU 61 may be obtained directly from the management computer 80.
  • the height of the parts camera 50 is fixed, and the CPU 61 adjusts the imaging distance H by moving the parts up and down by the Z-axis motor 34, but the parts held by the mechanical chuck 40 and the parts camera It is only necessary that the imaging distance H can be adjusted by raising and lowering at least one of 50 and 50.
  • a height adjustment mechanism 59 may be provided below the parts camera 50, and the CPU 61 may adjust the imaging distance H by moving the parts camera 50 up and down by the height adjustment mechanism 59.
  • the CPU 61 determines the imaging distance H and the diaphragm at the time of imaging based on the condition determination table of FIG. 4, but is not limited thereto. It suffices if the imaging distance H and the aperture at the time of imaging can be determined based on the difference D.
  • the HDD 63 may store a mathematical expression (conversion formula) instead of the condition determination table.
  • the mounting apparatus 10 includes the mechanical chuck 40 that grips a component, but is not limited thereto as long as the component can be held.
  • the mounting apparatus 10 may include a suction nozzle that sucks and holds components instead of the mechanical chuck 40.
  • the controller 60 determines the imaging condition.
  • the imaging condition is not limited to this, and the imaging control unit 57 may determine the imaging condition by inputting the value of the difference D from the controller 60, for example.
  • the aperture may be determined by the controller 60 and the imaging control unit 57 may determine the exposure time corresponding to the determined aperture.
  • the case where the difference D is included in the first region and the case where the difference D is included in the second region have been described separately, but such a division may not be particularly required.
  • the imaging condition is changed so that the imaging target can be within the depth of field based on the difference D. Also good.
  • the CPU 61 changes the imaging distance H without reducing the aperture as much as possible to fit the imaging target within the depth of field so that the imaging distance H can be obtained. It is preferable to change the imaging condition when the imaging target cannot be accommodated within the depth of field only by changing.
  • the parts camera 50 images the part from below, but the present invention is not limited to this, and the part camera 50 may image from above.
  • the distance in the height direction between the uppermost end of the part and the part camera 50 is the imaging distance H.
  • the difference in height between the top end of the component and the imaging target is the difference D, and the CPU 61 may acquire information regarding the difference D as information regarding the height of the imaging target.
  • the CPU 61 acquires the information regarding the difference D between the height of the lowermost end of the component and the height of the imaging target as the information regarding the height of the imaging target. What is necessary is just to acquire the information regarding height. For example, when the difference D is relatively small in the above-described embodiment, there is no possibility that the lowermost end of the component interferes with the parts camera 50 in a state where the imaging target in the component is within the depth of field. Think. In such a case, the CPU 61 acquires the height of the imaging target of the component at the time of imaging without acquiring the information regarding the height of the lowermost end of the component as information regarding the height of the imaging target, and acquires the acquired imaging target. The aperture and the exposure time may be determined based on the height of the image so that the imaging target is within the depth of field.
  • the present invention can be used for a mounting apparatus for mounting components on a substrate.

Abstract

実装装置のコントローラのCPUは、部品90中の撮像対象である先端部92の高さに関する情報に基づいて、先端部92がパーツカメラ50の被写界深度(DOF)内に収まるように絞り及び露光時間を決定し、決定した絞り及び露光時間でその部品の撮像を行うようパーツカメラ50を制御する。

Description

実装装置
本発明は、実装装置に関する。
 従来、実装装置としては、フィーダから供給される部品をノズルの先端に吸着させ、そのノズルをカメラの上方に移動させてカメラによる部品の撮像を行い、その後ノズルを基板の上方へ移動してその基板の所定位置に部品を実装するものが知られている。例えば、特許文献1では、ノズルに吸着された部品の下面を所定の高さレベルまで上昇させた状態でカメラによる撮像を行っている。
特開平7-221497号公報
 しかしながら、特許文献1では、部品の下面とカメラとの距離を一定にしているため、部品の種類によっては適切な画像が得られないことがあった。例えば、部品中の撮像対象が部品の最下端とは異なる高さに位置する場合には、部品の最下端とカメラとの距離を一定にすると撮像対象がカメラの被写界深度から外れて、撮像対象にピントの合わない画像が撮像されてしまう場合があった。
 本発明は、上述した課題を解決するためになされたものであり、部品に応じた適切な画像を得ることを主目的とする。
 本発明は、上述した主目的を達成するために以下の手段を採った。
 本発明の実装装置は、
 部品の保持が可能な部品保持部と、
 前記部品保持部に保持された部品を上方又は下方から撮像可能であり、撮像時の絞り及び露光時間を調整可能な撮像部と、
 前記部品中の撮像対象の高さに関する情報を取得し、該取得した情報に基づいて、前記撮像対象が前記撮像部の被写界深度内に収まるように前記絞り及び前記露光時間に関する撮像条件を決定し、該決定した撮像条件で前記部品を撮像するよう前記撮像部を制御する制御部と、
 を備えたものである。
 この実装装置では、部品中の撮像対象の高さに関する情報に基づいて撮像対象が撮像部の被写界深度内に収まるように絞り及び露光時間が決定され、決定された絞り及び露光時間でその部品の撮像を行う。このように、部品中の撮像対象の高さに関する情報に基づいて被写界深度を調整して撮像を行うから、部品中の撮像対象の高さが部品の撮像部側端部と一致するか否かに関わらず、撮像対象にピントの合った画像を得ることができる。すなわち、部品に応じた適切な画像を得ることができる。なお、撮像部側端部は、撮像部が部品を上方から撮像する場合には該部品の最上端であり、撮像部が部品を下方から撮像する場合には該部品の最下端である。
 本発明の実装装置は、前記部品保持部に保持された部品と前記撮像部との少なくとも一方を昇降させて前記部品の撮像部側端部と該撮像部との撮像時の高さ方向の距離である撮像距離を調整可能な昇降部、を備え、前記制御部は、前記撮像対象の高さに関する情報として、前記部品の撮像部側端部の高さと該撮像対象の高さとの差に関する情報を少なくとも取得し、前記取得した情報に基づく前記差が、第1領域と該第1領域よりも該差の大きい領域である第2領域とのうち該第1領域に含まれる場合には、前記差が前記第2領域に含まれる場合よりも前記絞りを開き且つ前記露光時間を短くした撮像条件で前記部品の撮像を行うよう前記撮像部を制御し、且つ該撮像条件における被写界深度内に前記撮像対象が収まるよう前記撮像距離を前記昇降部に調整させ、前記差が前記第2領域に含まれる場合には、前記撮像対象が前記撮像部の被写界深度内に収まるように前記撮像条件を決定し、該決定した撮像条件で前記部品の撮像を行うよう前記撮像部を制御してもよい。こうすれば、部品の撮像部側端部の高さと撮像対象の高さとの差が第1領域に含まれる場合(差が比較的小さい場合)には、昇降部によって撮像距離を調整するから、被写界深度を比較的浅くした状態でも撮像対象を被写界深度内に収めることができる。そのため、被写界深度を比較的浅くした状態すなわち露光時間を比較的短くした撮像条件で撮像を行うことができ、高速に画像を得ることができる。一方、部品の撮像部側端部の高さと撮像対象の高さとの差が第2領域に含まれる場合(差が比較的大きい場合)には、絞りを絞り且つ露光時間を長くした状態で部品の撮像を行うから、例えば昇降部による撮像距離の調整を行うのみでは部品の撮像部側端部が撮像部と干渉してしまうような場合でも、撮像対象を被写界深度内に収めることができる。そのため、部品の撮像部側端部の高さと撮像対象の高さとの差が大きい場合でも撮像対象にピントの合った画像をより確実に得ることができる。
 差が第1領域に含まれる場合と第2領域に含まれる場合とで異なる動作を行う態様の本発明の実装装置において、前記制御部は、前記差が前記第1領域に含まれる場合には、前記差に関わらず前記絞り及び前記露光時間を同じ状態として前記部品の撮像を行うよう前記撮像部を制御してもよい。こうすれば、差が第1領域に含まれるときには差の大きさに関わらず露光時間をなるべく短くして高速に画像を得ることができる。
 差が第1領域に含まれる場合と第2領域に含まれる場合とで異なる動作を行う態様の本発明の実装装置において、前記制御部は、前記差が前記第2領域に含まれる場合には、前記差が前記第1領域に含まれる場合における前記撮像距離の最小値以下となるように該撮像距離を調整するよう前記昇降部を制御してもよい。こうすれば、差が第2領域に含まれる場合にも昇降部が撮像距離を比較的小さくするから、差が比較的大きい場合でも被写界深度をなるべく深くせずにすなわち露光時間をなるべく長くせずに、撮像対象を被写界深度内に収めることができる。
実装装置10の斜視図。 実装装置10の制御に関わる構成を示すブロック図。 部品実装処理ルーチンのフローチャート。 条件決定用テーブルの説明図。 0≦D≦Dbの場合の被写界深度と先端部92との位置関係の説明図。 Db<D≦Daの場合の被写界深度と先端部92との位置関係の説明図。 Da<Dの場合の被写界深度と先端部92との位置関係の説明図。 パーツカメラ50を昇降させる態様の説明図。
 本発明の実施形態を図面を参照しながら以下に説明する。図1は実装装置10の斜視図、図2は実装装置10の制御に関わる構成を示すブロック図である。なお、本実施形態において、左右方向(X軸)、前後方向(Y軸)及び上下方向(Z軸)は、図1に示した通りとする。
 実装装置10は、基台12と、基台12の上に設置された実装装置本体14と、実装装置本体14に装着された部品供給装置としてのリールユニット70とを備えている。
 実装装置本体14は、基台12に対して交換可能に設置されている。この実装装置本体14は、基板16を搬送したり保持したりする基板搬送装置18と、XY平面を移動可能なヘッド24と、ヘッド24に取り付けられZ軸へ移動可能なメカニカルチャック40と、メカニカルチャック40に把持された部品を撮像するパーツカメラ50と、各種制御を実行するコントローラ60とを備えている。
 基板搬送装置18は、図1の前後に間隔を開けて設けられ左右方向に延びる支持板20,20と、両支持板20,20の互いに対向する面に設けられたコンベアベルト22,22(図1では片方のみ図示)とを備えている。コンベアベルト22,22は、支持板20,20の左右に設けられた駆動輪及び従動輪に無端状となるように架け渡されている。基板16は、一対のコンベアベルト22,22の上面に乗せられて左から右へと搬送される。この基板16は、多数立設された支持ピン23によって裏面側から支持されている。
 ヘッド24は、X軸スライダ26の前面に取り付けられている。X軸スライダ26は、前後方向にスライド可能なY軸スライダ30の前面に、左右方向にスライド可能となるように取り付けられている。Y軸スライダ30は、前後方向に延びる左右一対のガイドレール32,32にスライド可能に取り付けられている。Y軸スライダ30の前面には、左右方向に延びる上下一対のガイドレール28,28が設けられ、このガイドレール28,28にX軸スライダ26が左右方向にスライド可能に取り付けられている。ヘッド24は、X軸スライダ26が左右方向に移動するのに伴って左右方向に移動し、Y軸スライダ30が前後方向に移動するのに伴って前後方向に移動する。なお、各スライダ26,30は、それぞれ駆動モータ26a,30a(図2参照)により駆動される。また、ヘッド24は、Z軸モータ34を内蔵し、Z軸に沿って延びるボールネジ36に取り付けられたメカニカルチャック40の高さをZ軸モータ34によって調整する。
 メカニカルチャック40は、部品を把持することで部品の保持が可能な機構である。メカニカルチャック40は、ヘッド24に対してZ軸方向に相対移動が可能に取り付けられたチャック本体41と、チャック本体41の下方に取り付けられた前後一対の把持部42と、を備えている。また、メカニカルチャック40は、チャック本体41の底面に取り付けられて一対の把持部42を互いに近接及び離間する方向にスライド可能な図示しないスライダと、このスライダを駆動する駆動モータ43と、を備えている。駆動モータ43により把持部42が互いに接近することで、把持部42は部品を把持する。また、Z軸モータ34によってメカニカルチャック40がZ軸方向に沿って昇降することで、把持部42に把持された部品の高さが調整される。
 パーツカメラ50は、基板搬送装置18の前側の支持板20の前方に配置されている。パーツカメラ50は、パーツカメラ50の上方が撮像範囲であり、メカニカルチャック40に保持された部品を下方から撮像して画像を生成する。パーツカメラ50は、図1に示すように、上下面が開口した逆八角錐台のハウジングの内面に取り付けられた多数のLEDを有する照明部51と、ハウジングの下方に配置されたカメラ本体52とを備えている。カメラ本体52は、レンズ53と、絞り機構54と、シャッター機構55と、撮像素子56と、撮像制御部57と、を備えている。絞り機構54は、レンズ53を通過して撮像素子56に入光する光の光量を調整する。シャッター機構55は、レンズ53及び絞り機構54と撮像素子56との間に配置され、レンズ53を通過した光を通過させるか遮蔽するかを切り替えることで、撮像時の撮像素子56の露光時間を調整する。なお、図1ではレンズ53は1つのみ図示しているが、パーツカメラ50が有するレンズ53は複数であってもよい。撮像素子56は、レンズ53,絞り機構54,及びシャッター機構55を通過した後の光を受光すると、その光を光電変換して、画像中の各々の画素に対応する電荷を生成する。撮像素子56は、例えばCMOSイメージセンサとしてもよい。撮像制御部57は、撮像素子56で生成された電荷を読み出して各々の画素の情報を含むデジタルデータである画像データを生成する。また、撮像制御部57は、パーツカメラ50全体を制御する。具体的には、撮像制御部57は、照明部51に制御信号を出力して照明部51からの光の照射を制御したり、絞り機構54に制御信号を出力して絞りを調整したり、シャッター機構55に制御信号を出力して撮像時の露光時間を調整したりする。また、撮像制御部57は、生成した画像データをコントローラ60に出力する。
 コントローラ60は、図2に示すように、CPU61を中心とするマイクロプロセッサとして構成されており、処理プログラムを記憶するROM62、各種データを記憶するHDD63、作業領域として用いられるRAM64、外部装置と電気信号のやり取りを行うための入出力インターフェース65などを備えており、これらはバス66を介して接続されている。このコントローラ60は、基板搬送装置18、X軸スライダ26の駆動モータ26a、Y軸スライダ30の駆動モータ30a、及びメカニカルチャック40の駆動モータ43へ駆動信号を出力する。また、コントローラ60は、撮像時の撮像条件としての絞りと露光時間に関する情報をパーツカメラ50に出力したり、パーツカメラ50からの画像データを入力したりする。なお、図示しないが、各スライダ26,30には図示しない位置センサが装備されており、コントローラ60はそれらの位置センサからの位置情報を入力しつつ、各スライダ26,30の駆動モータ26a,30aを制御する。
 リールユニット70は、複数のリール72を備え、実装装置本体14の前側に着脱可能に取り付けられている。各リール72には、テープが巻き付けられ、テープの表面には、部品がテープの長手方向に沿って保持されている。これらの部品は、テープの表面を覆うフィルムによって保護されている。こうしたテープは、リールから後方に向かって巻きほどかれ、フィーダ部74においてフィルムが剥がされて部品が露出した状態となる。この露出した状態の部品をメカニカルチャック40の把持部42が把持することで、部品はメカニカルチャック40に保持されてヘッド24と共に移動可能になる。
 管理コンピュータ80は、実装装置10の生産ジョブを管理するコンピュータであり、実装装置10のコントローラ60と通信可能に接続されている。なお、生産ジョブは、実装装置10においてどの部品をどういう順番でどの基板16に装着するか、また、何枚の基板16に部品の実装を行うかなどを定めた情報である。管理コンピュータ80は、この生産ジョブを記憶しており、生産ジョブに含まれる情報を必要に応じて実装装置10に出力する。
 次に、本実施形態の実装装置10の動作、特に、パーツカメラ50を用いた部品の撮像を伴って部品を基板16に実装する処理について説明する。図3は、部品実装処理ルーチンの一例を示すフローチャートである。図4は、条件決定用テーブルの説明図である。図5~7は、パーツカメラ50の被写界深度と部品90中の撮像対象である先端部92との位置関係の説明図である。なお、図5は0≦D≦Dbの場合の説明図、図6はDb<D≦Daの場合の説明図、図7はDa<Dの場合の説明図である。差D,値Da,Dbについては後述する。図5~7中の「DOF」は、被写界深度(Depth of Field)の意味である。図3の部品実装処理ルーチン及び図4の条件決定用テーブルは、HDD63に記憶されている。図3の部品実装処理ルーチンは、管理コンピュータ80からの指令を受けるとコントローラ60により開始される。
 コントローラ60のCPU61は、部品実装処理ルーチンを開始すると、まず、これから実装しようとする実装対象の部品中の撮像対象の高さに関する情報として、部品の撮像対象高さに関する情報及び最下端高さに関する情報を取得する(ステップS100)。以降は、実装対象の部品が図5~7に示した部品90である場合を例として説明する。部品90は、複数の部品間を電気的に接続するコネクタである。部品90は、基板16に挿入される複数のコネクタピン91と、複数のコネクタピン91と一対一に導通する複数のコネクタピン93と、を備えている。部品90は、このコネクタピン91,93を介して、例えば基板16上の部品と、基板16上とは異なる位置に配置された他の部品と、を接続する。コネクタピン91の軸方向(図5~7では上下方向)とコネクタピン93の軸方向(図5~7)では左右方向)とは互いに垂直になっている。部品90は、コネクタピン91の先端部92(図5~7では下端部)よりも下方に突出した突出部94を有しており、突出部94の下端が部品90の最下端となっている。また、パーツカメラ50による部品90中の撮像対象は先端部92である。このように、部品90は、部品90中の撮像対象(先端部92)が部品90の最下端とは異なる高さに位置している。部品90の撮像対象高さ及び最下端高さに関する情報は生産ジョブに含まれており、ステップS100では、CPU61は管理コンピュータ80からこれらの情報を取得する。なお、本実施形態では、最下端高さに関する情報は、具体的には部品の厚さ(高さ)の値すなわち部品の最上端から最下端(ここでは突出部94の下端)までの上下方向の距離とした。また、撮像対象高さに関する情報は、具体的には部品の最上端から撮像対象(ここでは先端部92)までの上下方向の距離とした。なお、部品90に限らず、部品種毎の撮像対象高さ及び最下端高さに関する情報は生産ジョブに含まれている。
 続いて、CPU61は、ステップS100で取得した情報に基づいて、実装対象の部品の最下端の高さと撮像対象の高さとの差Dを導出する(ステップS110)。例えば実装対象が部品90の場合には、図5~7に示すように、先端部92と突出部94の下端との上下方向の距離が差Dとして導出される。次に、CPU61は、導出された差D及び図4に示す条件決定用テーブルに基づいて、撮像距離H及び撮像時の絞りを決定する(ステップS120)。なお、撮像距離Hは、図5~7に示すように、パーツカメラ50の最上端と実装対象の部品の最下端(図では突出部94の下端)との上下方向(高さ方向)の距離である。図4の条件決定用テーブルは、差Dと撮像距離Hとの対応関係,及び差Dと撮像時の絞りとの対応関係を含むテーブルである。ステップS120では、CPU61は、この条件決定用テーブルにおいて差Dに対応付けられた撮像距離H及び撮像時の絞りを読み出して、読み出した値を撮像距離H及び撮像時の絞りに決定する。これにより、CPU61は、部品中の撮像対象をパーツカメラ50の被写界深度内に収めることができると共に、絞りをなるべく開き且つ部品とパーツカメラ50との干渉(接触)を避けられるように、撮像距離H及び撮像時の絞りを決定する。
 ここで、条件決定用テーブルについて説明する。条件決定用テーブルは、図4に示すように、差Dが比較的小さい(ここでは0≦D≦Da)である第1領域と、差Dが比較的大きい(ここではDa<D)である第2領域とを有している。値Daは、第1領域と第2領域との境界値であり、パーツカメラ50の絞り機構54の絞りを最大絞り(最も絞りを開いた状態)とした場合の被写界深度内に、パーツカメラ50と部品とが干渉することなくその部品の撮像対象を収められるような差Dの値の上限値として設定されている。なお、絞りを開くほど被写界深度は浅くなる、すなわち被写界深度のうちパーツカメラ50に最も近い位置とパーツカメラ50から最も遠い位置とのパーツカメラ50の光軸方向の距離(図5~7における被写界深度の上端と下端との上下方向距離)が小さくなる。そのため、最大絞りの状態とは、パーツカメラ50の被写界深度が最も浅くなった状態である。また、本実施形態では、パーツカメラ50と部品との干渉を避けることのできる撮像距離Hの下限として距離Hmin(>0)が設定されている。距離Hminは、パーツカメラ50と部品とが接触する状態(撮像距離H=0)にマージンを加えた値であり、例えば1mmなどに設定されている。CPU61は、H≧Hminを満たすように撮像距離Hを設定すれば、パーツカメラ50と部品との干渉が避けられるとみなす。以上のことから、本実施形態では、最大絞りのときの被写界深度の上端とパーツカメラ50の最上端との高さ方向の距離(図5,6に示した距離La)と、距離Hminと差Dとの和と、が等しくなる場合の差Dの値が、値Daとなる。すなわちDa=La-Hminである。そして、図4に示すように、条件決定用テーブルでは、差Dが第1領域に含まれる場合には、絞りは差Dに関わらず同じ状態(ここでは最大絞り)が対応付けられている。差Dが第2領域に含まれる場合には、差Dが大きくなるほど絞りを絞る傾向で、差Dと絞りとが対応付けられている。本実施形態では、差Dが第2領域に含まれる場合には、差Dが大きくなるほどステップ関数的に絞りを絞るように、差Dと絞りとが対応付けられているものとした。また、差Dが第1領域に含まれる場合と第2領域に含まれる場合とでは、第1領域に含まれる場合の方が絞りを開いた状態となるように、差Dと絞りとが対応付けられている。また、条件決定用テーブルでは、差Dが第1領域に含まれる場合には、差Dが大きくなるほど撮像距離Hが小さくなる傾向で、差Dと撮像距離Hとが対応付けられている。差Dが第2領域に含まれる場合には、撮像距離Hは差Dに関わらず同じ値(ここでは距離Hmin)が対応付けられている。また、差Dが第2領域に含まれる場合の撮像距離Hは、第1領域に含まれる場合における撮像距離Hの最小値(図4では距離Hmin)以下となるように(図4では等しくなるように)、差Dと撮像距離Hとが対応付けられている。
 また、条件決定用テーブルでは、差Dが値Db以下(ただし0<Db<Da)であるか値Dbより大きいかによって、第1領域が2つに分けられている。値Dbは、パーツカメラ50の絞り機構54の絞りを最大絞りとした場合の被写界深度内でも最もピントの合う位置に、その部品の撮像対象の高さを一致させられるような差Dの値の上限値として設定されている。より具体的には、最大絞りのときの被写界深度内で特にピントの合う位置とパーツカメラ50の最上端との高さ方向の距離(図5に示した距離Lb)と、距離Hminと差Dとの和と、が等しくなる場合の差Dの値が、値Dbとなる。すなわちDb=Lb-Hminである。条件決定用テーブルでは、差Dが値Db以下の場合には、差Dに対応する撮像距離Hは距離Hmin以上の値となっている。そして、差Dが値Db以下の場合には、差Dが大きくなるほど撮像距離Hが小さくなる傾向で、差Dと撮像距離Hとが対応付けられている。より具体的には、差Dが値Db以下の場合には、差Dと撮像距離Hとの対応関係は直線(H=Lb-D)で表される関係になっている。また、差Dが第1領域に含まれる場合において、差Dが値Daより大きい場合には、差Dに関わらず撮像距離Hは同じ状態(ここでは距離Hmin)が対応付けられている。なお、第1領域内で差Dに対応する撮像時の絞りは、差Dが値Db以下であるか否かに関わらず同じ状態(ここでは最大絞り)となっている。
 次に、ステップS120で図4の条件決定用テーブルを用いて決定された撮像距離H及び撮像時の絞りで撮像を行う場合のパーツカメラ50と部品90との位置関係について、図5~7を用いて説明する。まず、部品90の差Dが0≦D≦Dbを満たす場合について、図5を用いて説明する。この場合は、CPU61は、条件決定用テーブルを用いて、撮像時の絞りを最大絞りに決定し、撮像距離Hの値はH=Lb-Dの関係に基づいて定まる値に決定する。こうすることで、図5に示すように、撮像対象(ここでは先端部92)の高さが、絞りを最大絞りとした場合の被写界深度内でも最もピントの合う位置(パーツカメラ50から距離Lbの位置)に一致するように、撮像距離Hが決定される。このように、差Dが0≦D≦Dbを満たす場合すなわち第1領域の中でも特に差Dが小さくパーツカメラ50と部品とが干渉しにくい場合には、撮像時の絞りを最大絞りにしつつ撮像対象を被写界深度内に収め、且つ、撮像対象が被写界深度内で最もピントの合う位置に位置するように、撮像距離Hを決定する。
 続いて、部品90の差DがDb<D≦Daを満たす場合について、図6を用いて説明する。この場合は、CPU61は、条件決定用テーブルを用いて、差Dの値に関わらず撮像時の絞りを最大絞りに決定し且つ撮像距離Hの値を距離Hminに決定する。こうすることで、図6に示すように、撮像対象(ここでは先端部92)の高さが、絞りを最大絞りとした場合の被写界深度内に収まるように、撮像距離Hが決定される。ここで、差DがDb<D≦Daを満たす場合とは、第1領域の中では差Dが比較的大きいため撮像対象を被写界深度内で最もピントの合う位置に位置させようとするとパーツカメラ50と部品とが干渉してしまう(ここでは撮像距離H<距離Hminとなる)場合である。このような場合には、CPU61は、撮像対象を最もピントの合う位置には一致させないが、撮像時の絞りを最大絞りにしつつ撮像対象を被写界深度内に収めることができるように撮像距離Hを決定する。
 次に、部品90の差DがDa<Dを満たす場合について、図7を用いて説明する。この場合は、CPU61は、条件決定用テーブルを用いて、撮像時の絞りを差Dに対応する状態に決定し、撮像距離Hの値は差Dに関わらず距離Hminに決定する。ここで決定される撮像時の絞りは、図4に示したように、差Dが第1領域に含まれる場合の絞り(ここでは最大絞り)よりも絞った状態となる。そのため、図7に示すように、差DがDa<Dを満たす場合の被写界深度(図7の二点鎖線の範囲)は、最大絞りの場合の被写界深度(図7の破線の範囲)と比べて深くなる。こうすることで、図7に示すように、撮像対象(ここでは先端部92)の高さが被写界深度内に収まるように、撮像時の絞りが決定される。ここで、差DがDa<Dを満たす場合とは、差Dが比較的大きいため絞りを最大絞りとした状態で撮像対象を被写界深度内に収めようとするとパーツカメラ50と部品とが干渉してしまう(ここでは撮像距離H<距離Hminとなる)場合である。このような場合には、CPU61は、絞りを最大絞りよりも絞ることを許容して、撮像対象を被写界深度内に収めることができるような撮像時の絞りを決定する。なお、図4に示したステップ関数的な差Dと撮像時の絞りとの対応関係は、撮像距離Hが距離Hminである場合に、差Dの値に対応する絞りで定まる被写界深度内に撮像対象を収めることができるように、予め定められている。
 このようにステップS120で撮像距離H及び撮像時の絞りを決定すると、CPU61は、決定した絞りに基づいて露光時間を決定する(S130)。ここで、絞りを絞るほど、単位時間あたりの光量不足を補うため露光時間は長くする必要がある。ステップS130では、CPU61は、予めHDD63に記憶された絞りと適切な露光時間との対応関係に基づいて、決定した絞りに応じた露光時間を決定する。この対応関係は、本実施形態では数式(換算式)の形式でHDD63に記憶されているものとした。ただし、これに限らず絞りと露光時間とを対応付けたテーブルをHDD63に記憶しておき、このテーブルに基づいて露光時間を決定してもよい。ステップS120及びS130を行うことで、パーツカメラ50の撮像時の撮像距離H及び撮像条件(絞り及び露光時間)が決定される。
 続いて、CPU61は、部品の実装を行う(ステップS140~S180)。すなわち、CPU61は、まず、リールユニット70,X軸スライダ26,Y軸スライダ30,及びZ軸モータ34を制御して、リールユニット70によって供給される実装対象の部品をメカニカルチャック40の把持部42に把持させる(ステップS140)。続いて、CPU61は、メカニカルチャック40に把持された部品の撮像距離HがステップS120で決定した値になるようにZ軸モータ34を制御してメカニカルチャック40を上昇させながら、X軸スライダ26及びY軸スライダ30を制御してメカニカルチャック40をパーツカメラ50の上方へ移動させる(ステップS150)。なお、例えばフィーダ部74の部品供給位置が撮像距離Hで定まる高さよりも高い場合には、CPU61はフィーダ部74と干渉しない高さまでメカニカルチャック40を上昇させた後に、メカニカルチャック40を撮像距離Hまで下降させればよい。次に、CPU61は、メカニカルチャック40に把持された部品がパーツカメラ50の真上且つ決定された撮像距離Hで定まる高さに来たときに、決定された撮像条件(絞り及び露光時間)でパーツカメラ50に部品の撮像を行わせる(ステップS160)。パーツカメラ50が撮像を行うと、CPU61は、撮像された画像データに基づいて所定の処理を実行する(ステップS170)。例えば、CPU61は、撮像された画像データに基づいて、メカニカルチャック40に把持された部品中の撮像対象(ここでは先端部92)の位置を検出し、部品を基板16上に配置する際の配置位置の補正量を設定する。また、例えば、CPU61は、撮像された画像データ中の撮像対象と予め記憶された正常な撮像対象とを比較することにより、コネクタピン91の欠損の有無などを判定したりする。このような処理を精度よく行うためには、パーツカメラ50によって撮像される画像中の撮像対象にピントが合っている必要がある。本実施形態では、部品の差Dに基づいて、撮像対象が被写界深度内に収まるようにすなわちピントが合うように撮像距離H及び撮像条件を決定するから、差Dの異なる種々の部品に対して、撮像対象にピントの合った画像を得ることができる。なお、上述したように差Dが0≦D≦Dbを満たす場合には、撮像対象の高さが被写界深度内でも最もピントの合う位置に一致するように撮像距離H及び撮像条件を決定するから、撮像対象によりピントのあった画像を得ることができる。画像データに基づく処理を実行すると、CPU61は、基板16の所定の実装位置にメカニカルチャック40を移動して、その実装位置に部品を配置する(ステップS180)。このとき、上述した画像データに基づく補正量が設定されている場合には、CPU61はその補正量を加味した実装位置に部品を配置する。なお、ステップS170でコネクタピン91に欠損があった場合には、CPU61は、例えばステップS180を行わずにメカニカルチャック40に把持された部品を廃棄してステップS140以降の処理を実行してもよい。
 なお、実装対象の部品が部品90である場合には、CPU61は、例えば部品90のコネクタピン91を基板16の所定位置の孔に挿入することで、基板16への部品90の配置を行う。また、部品90は突出部94を有しているため、突出部94と基板16とが干渉しないように、部品90の実装位置は基板16上の外縁付近に設定されている。すなわち、実装後の部品90の突出部94及びコネクタピン93は、基板16上以外の領域に位置する。
 その後、CPU61は、基板16にすべての部品の実装を完了したか否かを判定し(ステップS190)、完了していない場合には、再びステップS100に戻って、残っている部品の実装を行う。一方、ステップS190ですべての部品の実装が完了していた場合には、CPU61は、この部品実装処理ルーチンを終了する。
 なお、CPU61は、ステップS100~S130の処理の少なくとも一部を、ステップS140~S150の少なくとも一部と平行して行ってもよい。
 ここで、本実施形態の構成要素と本発明の構成要素との対応関係を明らかにする。本実施形態のメカニカルチャック40が本発明の部品保持部に相当し、パーツカメラ50が撮像部に相当し、コントローラ60のCPU61が制御部に相当する。また、Z軸モータ34が昇降部に相当する。
 以上詳述した本実施形態の実装装置10によれば、CPU61は、部品中の撮像対象の高さに関する情報に基づいて撮像対象がパーツカメラ50の被写界深度内に収まるように絞り及び露光時間を決定する。例えば、差Dが第2領域に含まれる場合には、撮像対象がパーツカメラ50の被写界深度内に収まるように、差Dに応じて被写界深度を変更する。そして、決定した絞り及び露光時間でその部品の撮像を行うようパーツカメラ50を制御する。このように、部品中の撮像対象の高さに関する情報に基づいて被写界深度を調整して撮像を行うから、部品中の撮像対象の高さが部品の最下端と一致するか否かに関わらず、撮像対象にピントの合った画像を得ることができる。すなわち、部品に応じた適切な画像を得ることができる。
 また、実装装置10は、メカニカルチャック40に保持された部品を昇降させて部品の最下端とパーツカメラ50との撮像時の高さ方向の距離である撮像距離Hを調整可能なZ軸モータ34を備えている。また、CPU61、撮像対象の高さに関する情報として、部品の最下端の高さと撮像対象の高さとの差Dに関する情報を導出して取得する。そして、CPU61は、差Dが第1領域に含まれる場合には、差Dが第2領域に含まれる場合よりも絞りを開き且つ露光時間を短くした撮像条件で部品の撮像を行うようパーツカメラ50を制御し、且つその撮像条件における被写界深度内に撮像対象が収まるよう撮像距離HをZ軸モータ34に調整させる。また、CPU61は、差Dが第2領域に含まれる場合には、撮像対象がパーツカメラ50の被写界深度内に収まるように撮像条件を決定し、決定した撮像条件で部品の撮像を行うようパーツカメラ50を制御する。これにより、差Dが第1領域に含まれる場合(差Dが比較的小さい場合)には、Z軸モータ34によって撮像距離Hを調整するから、被写界深度を比較的浅くした状態でも撮像対象を被写界深度内に収めることができる。そのため、被写界深度を比較的浅くした状態すなわち露光時間を比較的短くした撮像条件で撮像を行うことができ、高速に画像を得ることができる。一方、差Dが第2領域に含まれる場合(差が比較的大きい場合)には、絞りを絞り且つ露光時間を長くした状態で部品の撮像を行うから、Z軸モータ34による撮像距離Hの調整を行うのみでは部品の最下端がパーツカメラ50と干渉してしまうような場合でも、撮像対象を被写界深度内に収めることができる。そのため、差Dが大きい場合でも撮像対象にピントの合った画像をより確実に得ることができる。
 さらに、CPU61は、差Dが第1領域に含まれる場合には、差Dに関わらず絞り及び露光時間を同じ状態として部品の撮像を行うようパーツカメラ50を制御する。すなわち、差Dが第1領域に含まれるときには差Dに応じた撮像条件の調整を行わず、Z軸モータ34の制御のみで撮像対象を被写界深度に収めるようにする。こうすれば、差Dが第1領域に含まれるときには差Dの大きさに関わらず露光時間をなるべく短くして高速に画像を得ることができる。例えば図4の第1領域において差Dが大きくなるほど撮像時の絞りを絞る傾向に撮像条件を決定するなど、差Dに応じて被写界深度を調整してもよいが、そのような場合は差Dが大きくなるほど露光時間が長くなってしまう。本実施形態では、そのような場合と比較して、差Dの大きさに関わらず露光時間をなるべく短くすることができる。特に、本実施形態では、差Dが第1領域に含まれる場合には差Dに関わらず絞りを最大絞りとして露光時間を最も短くしているから、より高速に画像を得ることができる。
 さらにまた、CPU61は、差Dが第2領域に含まれる場合には、差Dが第1領域に含まれる場合における撮像距離Hの最小値(ここでは距離Hmin)以下となるように撮像距離Hを調整するようZ軸モータ34を制御する。そのため、差が第2領域に含まれる場合にもZ軸モータ34が撮像距離Hを比較的小さくするから、差Dが比較的大きい場合でも被写界深度をなるべく深くせずにすなわち露光時間をなるべく長くせずに、撮像対象を被写界深度内に収めることができる。例えば、CPU61は、差Dが第2領域に含まれる場合に撮像距離Hを距離Hminより大きい値に決定してもよいが、その場合には撮像距離Hが大きくなる分だけ絞りを絞って被写界深度を深くする必要が生じ、露光時間がその分だけ長い値に決定される。差Dが第2領域に含まれる場合に、差Dが第1領域に含まれる場合における撮像距離Hの最小値以下となるように撮像距離Hを調整することで、このような露光時間の長時間化を抑制できる。特に、本実施形態では、差Dが第1領域に含まれる場合には、撮像距離Hの値を、パーツカメラ50と部品との干渉を避けることのできる撮像距離Hの下限である距離Hminに決定するから、干渉を避けられる範囲で露光時間を最短にしつつ、撮像対象を被写界深度に収めることができる。
 なお、本発明は上述した実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の態様で実施し得ることはいうまでもない。
 例えば、上述した実施形態では、CPU61は、差Dが値Db以下である場合には、撮像対象の高さが、絞りを最大絞りとした場合の被写界深度内でも最もピントの合う位置に一致するように、撮像距離Hを決定したが、これに限られない。差Dが値Db以下である場合も、CPU61は撮像対象を被写界深度内に収められるように撮像距離Hを決定すればよい。例えば、差Dが差Dが値Db以下である場合も、差Dの値に関わらず撮像時の絞りを最大絞りに決定し且つ撮像距離Hの値を距離Hminに決定してもよい。なお、上述した実施形態では、図6に示すように、撮像距離Hが距離Hminであり且つ絞りが最大絞りの状態において、被写界深度内に部品の最下端(図6では突出部94の下端)が収まるものとした。これに対し、最大絞りの状態の被写界深度が図6よりも浅く、部品の最下端(図6では突出部94の下端)がその被写界深度内に収まらない場合もあり得る。このような場合は、第1領域内において、差Dが小さ過ぎる場合に撮像距離Hを距離Hminに決定すると撮像対象が被写界深度よりもパーツカメラ50側に外れてしまうことになる。このような場合は、CPU61は差Dが小さ過ぎる場合にはその分だけ撮像距離Hを距離Hminよりも大きい値に決定して、被写界深度内に撮像対象が収まるようにすればよい。あるいは、CPU61は差Dが小さ過ぎる場合にはその分だけ絞りを絞って被写界深度を深くして、被写界深度内に撮像対象が収まるようにすればよい。ただし、高速に画像を得ることができるよう、CPU61がなるべく絞りは絞らずに撮像距離Hを変更して被写界深度内に撮像対象を収めることが好ましい。また、上記のような差Dが小さ過ぎる領域は、第1領域とは異なる第3領域とみなしてもよい。
 上述した実施形態では、CPU61は、ステップS100において部品の撮像対象高さに関する情報及び最下端高さに関する情報を取得し、ステップS110で差Dを導出したが、これに限られない。例えば、実装対象の部品の差Dを導出するのではなく管理コンピュータ80から直接取得してもよい。なお、CPU61は、差Dを直接取得する場合には、部品の高さに関する情報も取得することが好ましい。
 上述した実施形態では、パーツカメラ50の高さは固定されており、CPU61はZ軸モータ34により部品を昇降させることで撮像距離Hを調整したが、メカニカルチャック40に保持された部品とパーツカメラ50との少なくとも一方を昇降させて撮像距離Hを調整できればよい。例えば、図8に示すように、パーツカメラ50の下方に高さ調節機構59を設け、CPU61は高さ調節機構59によりパーツカメラ50を昇降させることで撮像距離Hを調整してもよい。
 上述した実施形態では、CPU61は図4の条件決定用テーブルに基づいて撮像距離H及び撮像時の絞りを決定したが、これに限られない。差Dに基づいて撮像距離H及び撮像時の絞りを決定できればよく、例えば、HDD63が条件決定用テーブルの代わりに数式(換算式)を記憶していてもよい。
 上述した実施形態では、実装装置10は部品を把持するメカニカルチャック40を備えていたが、部品の保持が可能であればこれに限られない。例えば、実装装置10は、メカニカルチャック40に代えて、部品を吸着して保持する吸着ノズルを備えていてもよい。
 上述した実施形態では、コントローラ60が撮像条件を決定したが、これに限らず例えば撮像制御部57がコントローラ60から差Dの値を入力して撮像条件を決定してもよい。撮像条件のうち絞りはコントローラ60が決定し、決定した絞りに対応する露光時間を撮像制御部57が決定してもよい。
 上述した実施形態では、差Dが第1領域に含まれる場合と第2領域に含まれる場合とを区別して説明したが、特にこのような区分がなくともよい。例えば、差Dが第1領域に含まれるか第2領域に含まれる場合かを問わず、差Dに基づいて撮像対象を被写界深度内に収めることができるように撮像条件を変更してもよい。ただし、高速に画像を得ることができるよう、上述した実施形態のようにCPU61はなるべく絞りを絞らずに撮像距離Hを変更して被写界深度内に撮像対象を収めるようにし、撮像距離Hの変更だけでは被写界深度内に撮像対象を収めることができない場合に撮像条件を変更することが好ましい。
 上述した実施形態では、パーツカメラ50は部品を下方から撮像したが、これに限らず上方から撮像してもよい。この場合、部品の最上端とパーツカメラ50との高さ方向の距離が撮像距離Hとなる。また、部品の最上端と撮像対象との高さの差が差Dとなり、CPU61は、撮像対象の高さに関する情報として、この差Dに関する情報を取得してもよい。
 上述した実施形態では、CPU61は、撮像対象の高さに関する情報として、部品の最下端の高さと撮像対象の高さとの差Dに関する情報を取得したが、これに限らず部品中の撮像対象の高さに関する情報を取得すればよい。例えば、上述した実施形態において差Dが比較的小さいなど、部品中の撮像対象が被写界深度内に収まっている状態で部品の最下端がパーツカメラ50と干渉してしまうおそれがない場合を考える。このような場合には、CPU61は、撮像対象の高さに関する情報として、部品の最下端の高さに関する情報は取得せず撮像時の部品の撮像対象の高さを取得し、取得した撮像対象の高さに基づいて撮像対象が被写界深度内に収まるように絞り及び露光時間を決定してもよい。
 本発明は、部品を基板上に実装する実装装置に利用可能である。
 10 実装装置、12 基台、14 実装装置本体、16 基板、18 基板搬送装置、20 支持板、22 コンベアベルト、23 支持ピン、24 ヘッド、26 X軸スライダ、26a 駆動モータ、28 ガイドレール、30 Y軸スライダ、30a 駆動モータ、32 ガイドレール、34 Z軸モータ、36 ボールネジ、40 メカニカルチャック、41 チャック本体、42 把持部、43 駆動モータ、50 パーツカメラ、51 照明部、52 カメラ本体、53 レンズ、54 絞り機構、55 シャッター機構、56 撮像素子、57 撮像制御部、59 高さ調節機構、60 コントローラ、61 CPU、62 ROM、63 HDD、64 RAM、65 入出力インターフェース、66 バス、70 リールユニット、72 リール、74 フィーダ部、80 管理コンピュータ、90 部品、91 コネクタピン、92 先端部、93 コネクタピン、94 突出部。

Claims (4)

  1.  部品の保持が可能な部品保持部と、
     前記部品保持部に保持された部品を上方又は下方から撮像可能であり、撮像時の絞り及び露光時間を調整可能な撮像部と、
     前記部品中の撮像対象の高さに関する情報を取得し、該取得した情報に基づいて、前記撮像対象が前記撮像部の被写界深度内に収まるように前記絞り及び前記露光時間に関する撮像条件を決定し、該決定した撮像条件で前記部品を撮像するよう前記撮像部を制御する制御部と、
     を備えた実装装置。
  2.  請求項1に記載の実装装置であって、
     前記部品保持部に保持された部品と前記撮像部との少なくとも一方を昇降させて前記部品の撮像部側端部と該撮像部との撮像時の高さ方向の距離である撮像距離を調整可能な昇降部、
     を備え、
     前記制御部は、前記撮像対象の高さに関する情報として、前記部品の撮像部側端部の高さと該撮像対象の高さとの差に関する情報を少なくとも取得し、前記取得した情報に基づく前記差が、第1領域と該第1領域よりも該差の大きい領域である第2領域とのうち該第1領域に含まれる場合には、前記差が前記第2領域に含まれる場合よりも前記絞りを開き且つ前記露光時間を短くした撮像条件で前記部品の撮像を行うよう前記撮像部を制御し、且つ該撮像条件における被写界深度内に前記撮像対象が収まるよう前記撮像距離を前記昇降部に調整させ、前記差が前記第2領域に含まれる場合には、前記撮像対象が前記撮像部の被写界深度内に収まるように前記撮像条件を決定し、該決定した撮像条件で前記部品の撮像を行うよう前記撮像部を制御する、
     実装装置。
  3.  前記制御部は、前記差が前記第1領域に含まれる場合には、前記差に関わらず前記絞り及び前記露光時間を同じ状態として前記部品の撮像を行うよう前記撮像部を制御する、
     請求項2に記載の実装装置。
  4.  前記制御部は、前記差が前記第2領域に含まれる場合には、前記差が前記第1領域に含まれる場合における前記撮像距離の最小値以下となるように該撮像距離を調整するよう前記昇降部を制御する、
     請求項2又は3に記載の実装装置。
PCT/JP2016/074687 2016-08-24 2016-08-24 実装装置 WO2018037507A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018535982A JP6871930B2 (ja) 2016-08-24 2016-08-24 実装装置
EP16914181.9A EP3506728B1 (en) 2016-08-24 2016-08-24 Mounting device
US16/325,419 US10736251B2 (en) 2016-08-24 2016-08-24 Mounting device
PCT/JP2016/074687 WO2018037507A1 (ja) 2016-08-24 2016-08-24 実装装置
CN201680088435.3A CN109565953B (zh) 2016-08-24 2016-08-24 安装装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/074687 WO2018037507A1 (ja) 2016-08-24 2016-08-24 実装装置

Publications (1)

Publication Number Publication Date
WO2018037507A1 true WO2018037507A1 (ja) 2018-03-01

Family

ID=61245646

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/074687 WO2018037507A1 (ja) 2016-08-24 2016-08-24 実装装置

Country Status (5)

Country Link
US (1) US10736251B2 (ja)
EP (1) EP3506728B1 (ja)
JP (1) JP6871930B2 (ja)
CN (1) CN109565953B (ja)
WO (1) WO2018037507A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110602938A (zh) * 2019-09-23 2019-12-20 中电智能卡有限责任公司 模块植入装置及模块植入机

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7417371B2 (ja) * 2019-07-12 2024-01-18 芝浦メカトロニクス株式会社 実装装置
CN110328666A (zh) * 2019-07-16 2019-10-15 汕头大学 识别系统及物料拾取机构
CN116322014A (zh) * 2023-03-02 2023-06-23 惠州市天睿电子有限公司 电路板自动贴片装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014080474A1 (ja) * 2012-11-21 2014-05-30 富士機械製造株式会社 部品実装機

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07221497A (ja) 1994-01-28 1995-08-18 Toshiba Corp 部品実装方法及びその装置
EP1438883A1 (en) * 2001-10-04 2004-07-21 Assembléon N.V. Automatic filter changer for use on surface mounter inspection camera
JP2008009341A (ja) * 2006-06-30 2008-01-17 Sony Corp オートフォーカス装置、撮像装置及びオートフォーカス方法
JP2009206354A (ja) * 2008-02-28 2009-09-10 Fuji Mach Mfg Co Ltd 電子部品実装機の画像認識装置及び画像認識方法
JP5174583B2 (ja) * 2008-08-25 2013-04-03 Juki株式会社 電子部品実装装置の制御方法
WO2013153834A1 (ja) * 2012-04-12 2013-10-17 富士機械製造株式会社 部品実装機
JP5946343B2 (ja) * 2012-07-10 2016-07-06 富士機械製造株式会社 電子部品実装装置
JP6138127B2 (ja) * 2012-08-01 2017-05-31 富士機械製造株式会社 部品実装機
CN105025219A (zh) * 2014-04-30 2015-11-04 齐发光电股份有限公司 图像获取方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014080474A1 (ja) * 2012-11-21 2014-05-30 富士機械製造株式会社 部品実装機

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110602938A (zh) * 2019-09-23 2019-12-20 中电智能卡有限责任公司 模块植入装置及模块植入机

Also Published As

Publication number Publication date
EP3506728B1 (en) 2024-05-15
US20190200497A1 (en) 2019-06-27
US10736251B2 (en) 2020-08-04
JPWO2018037507A1 (ja) 2019-06-20
CN109565953A (zh) 2019-04-02
JP6871930B2 (ja) 2021-05-19
EP3506728A1 (en) 2019-07-03
CN109565953B (zh) 2021-10-01
EP3506728A4 (en) 2019-08-14

Similar Documents

Publication Publication Date Title
WO2018037507A1 (ja) 実装装置
JP6522735B2 (ja) 部品実装機
EP3322275B1 (en) Mounting device, photographic processing method, and photographic unit
JP6271514B2 (ja) 生産設備
JP6116583B2 (ja) 部品実装機
JP6837161B2 (ja) 撮像ユニット及び部品実装機
JP6294464B2 (ja) 部品実装装置
JP5302925B2 (ja) 部品実装装置および部品実装方法
JP5254106B2 (ja) 電子部品実装装置
WO2015052755A1 (ja) 実装装置
WO2018055757A1 (ja) 照明条件特定装置及び照明条件特定方法
JP4351083B2 (ja) 表面実装機
JP7271738B2 (ja) 撮像ユニット
EP3767938B1 (en) Image-capturing unit and component-mounting device
JPWO2018055663A1 (ja) 撮像装置及び実装装置
JPH07221497A (ja) 部品実装方法及びその装置
JP5981996B2 (ja) 実装システム
JP2023170432A (ja) 表面実装機
JP2018186116A (ja) 対基板作業装置
JPH03293799A (ja) 電子部品認識方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018535982

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16914181

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2016914181

Country of ref document: EP

Effective date: 20190325