WO2019176024A1 - 撮像ユニット及び部品実装機 - Google Patents

撮像ユニット及び部品実装機 Download PDF

Info

Publication number
WO2019176024A1
WO2019176024A1 PCT/JP2018/010026 JP2018010026W WO2019176024A1 WO 2019176024 A1 WO2019176024 A1 WO 2019176024A1 JP 2018010026 W JP2018010026 W JP 2018010026W WO 2019176024 A1 WO2019176024 A1 WO 2019176024A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
component
unit
resolution
image
Prior art date
Application number
PCT/JP2018/010026
Other languages
English (en)
French (fr)
Inventor
秀徳 後藤
一也 小谷
Original Assignee
株式会社Fuji
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Fuji filed Critical 株式会社Fuji
Priority to EP18909382.6A priority Critical patent/EP3767938B1/en
Priority to US16/980,304 priority patent/US11557109B2/en
Priority to CN201880090864.3A priority patent/CN111819836B/zh
Priority to PCT/JP2018/010026 priority patent/WO2019176024A1/ja
Priority to JP2020506031A priority patent/JP7013564B2/ja
Publication of WO2019176024A1 publication Critical patent/WO2019176024A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • G03B15/03Combinations of cameras with lighting apparatus; Flash units
    • G03B15/05Combinations of cameras with electronic flash apparatus; Electronic flash units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
    • G06V30/2504Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/125Colour sequential image capture, e.g. using a colour wheel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N25/611Correction of chromatic aberration
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/081Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines
    • H05K13/0812Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines the monitoring devices being integrated in the mounting machine, e.g. for monitoring components, leads, component placement
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2215/00Special procedures for taking photographs; Apparatus therefor
    • G03B2215/05Combinations of cameras with electronic flash units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Definitions

  • an imaging unit and a component mounting machine are disclosed.
  • a component mounter two types of illumination devices having different wavelengths and a camera that images a subject illuminated by the illumination device are provided on a base, and a contrast value is calculated at each wavelength and obtained in advance. It is known to obtain the in-focus position at the visible light wavelength corresponding to the calculated contrast value based on the contrast curve characteristics at each wavelength.
  • the distance from the optical axis may be different even if the focal distance is the same due to the influence of lateral chromatic aberration.
  • the influence of such lateral chromatic aberration is not considered in Patent Document 1.
  • the resolution of an image obtained by imaging a subject may differ depending on the material of the irradiation surface that irradiates light.
  • the present disclosure has been made in view of such problems, and a main object thereof is to suppress the influence of the chromatic aberration of magnification and the material of the irradiation surface of the subject when an image obtained by imaging the subject is processed.
  • the imaging unit of the present disclosure is An imaging unit; A holding unit for holding a subject to be imaged by the imaging unit; A light irradiation unit capable of selecting light from one or more light sources from a plurality of light sources having different wavelengths and irradiating the subject held by the holding unit; A storage unit that stores a correspondence relationship between the color of light that can be irradiated by the light irradiation device, the material of the irradiation surface irradiated with the light, and the resolution that represents the number of pixels per unit length; In processing a subject image obtained by irradiating the subject with light of a light source selected from the plurality of light sources and imaging the subject with the imaging unit, the color of the light emitted to the subject An image processing unit for obtaining the resolution from the correspondence based on the material of the irradiation surface of the subject, and processing the subject image using the resolution; It is equipped with.
  • the storage unit stores a correspondence relationship between the color of light that can be irradiated by the light irradiation device, the material of the irradiation surface irradiated with the light, and the resolution that represents the number of pixels per unit length.
  • the image processing unit processes a subject image obtained by irradiating the subject with light of a light source selected from a plurality of light sources and imaging the subject with the imaging unit.
  • the resolution of the subject image may vary depending on the color of light applied to the subject and the material of the illuminated surface of the subject. Therefore, the image processing unit obtains the resolution from the correspondence based on the color of the light emitted to the subject and the material of the illuminated surface of the subject, and processes the subject image using the resolution. Therefore, it is possible to suppress the influence of the chromatic aberration of magnification and the material of the irradiation surface of the subject when an image obtained by capturing the subject is processed.
  • the component mounter of the present disclosure is A component mounter including any of the imaging units described above,
  • the holding unit holds the component as the subject supplied from the component supply unit, moves onto the substrate, and releases the holding of the component at a predetermined position of the substrate,
  • the imaging unit is provided in a moving path in which the holding unit holds the component and moves on the substrate,
  • the image processing unit recognizes the position of the component with respect to the holding unit by processing a captured image of the component as the subject image using the resolution.
  • FIG. 2 is a schematic explanatory diagram of a configuration of a parts camera 40.
  • FIG. 3 is a block diagram showing a configuration relating to control of the component mounter 10.
  • the flowchart of a resolution calibration routine Explanatory drawing of lateral chromatic aberration. Explanatory drawing of the parameter used for the calculation of resolution.
  • the flowchart of a component imaging process routine The flowchart of a component imaging process routine.
  • FIG. 1 is a perspective view of the component mounter 10
  • FIG. 2 is a schematic explanatory diagram of the configuration of the parts camera 40
  • FIG. 3 is a block diagram showing a configuration related to the control of the component mounter 10.
  • the left-right direction (X-axis), the front-rear direction (Y-axis), and the up-down direction (Z-axis) are as shown in FIG.
  • the component mounting machine 10 includes a base 12, a mounting machine main body 14 installed on the base 12, and a reel unit 70 as a component supply device mounted on the mounting machine main body 14.
  • the mounting machine main body 14 is installed to be replaceable with respect to the base 12.
  • the mounting machine main body 14 includes a substrate transfer device 18, a head 24, a nozzle 37, a parts camera 40, and a control device 60.
  • the substrate transport device 18 is a device that transports and holds the substrate 16.
  • the substrate transfer device 18 includes support plates 20 and 20 and conveyor belts 22 and 22 (only one of them is shown in FIG. 1).
  • the support plates 20 and 20 are members that extend in the left-right direction, and are provided at intervals in front and rear in FIG.
  • the conveyor belts 22 and 22 are stretched over the drive wheels and the driven wheels provided on the left and right sides of the support plates 20 and 20 so as to be endless.
  • substrate 16 is mounted on the upper surface of a pair of conveyor belts 22 and 22, and is conveyed from the left to the right.
  • the substrate 16 can be supported from the back side by a large number of support pins 23 erected. Therefore, the substrate transport device 18 also serves as a substrate support device.
  • the head 24 is attached to the front surface of the X-axis slider 26.
  • the X-axis slider 26 is attached to the front surface of the Y-axis slider 30.
  • the Y-axis slider 30 is slidably attached to a pair of left and right guide rails 32, 32 extending in the front-rear direction.
  • a pair of upper and lower guide rails 28, 28 extending in the left-right direction are provided on the front surface of the Y-axis slider 30.
  • the X-axis slider 26 is slidably attached to the guide rails 28 and 28.
  • the head 24 moves in the left-right direction as the X-axis slider 26 moves in the left-right direction, and moves in the front-rear direction as the Y-axis slider 30 moves in the front-rear direction.
  • the sliders 26 and 30 are driven by drive motors 26a and 30a (see FIG. 3), respectively.
  • the head 24 incorporates a Z-axis motor 34 and adjusts the height of the nozzle 37 attached to the ball screw 35 extending along the Z-axis by the Z-axis motor 34.
  • the head 24 incorporates a Q-axis motor 36 (see FIG. 3) that rotates the nozzle 37.
  • the nozzle 37 is a member that sucks and holds a component at the tip of the nozzle and releases the suction of the component that is sucked at the tip of the nozzle.
  • the nozzle 37 can supply pressure from a pressure supply source (not shown). For example, when a negative pressure is supplied, the part is sucked, and when the negative pressure is stopped or a positive pressure is supplied, the part is sucked. To release.
  • the nozzle 37 protrudes downward from the bottom surface of the main body of the head 24.
  • the height of the component adsorbed by the nozzle 37 is adjusted by the Z-axis motor 34 moving the nozzle 37 up and down along the Z-axis direction. As the nozzle 37 is rotated by the Q-axis motor 36, the orientation of the component attracted by the nozzle 37 is adjusted.
  • the parts camera 40 is disposed in front of the support plate 20 on the front side of the substrate transfer device 18.
  • the parts camera 40 has an imaging range above the parts camera 40, and images the parts held by the nozzle 37 from below to generate a captured image.
  • the parts camera 40 includes an illumination unit 41 and an imaging unit 49.
  • the illumination unit 41 irradiates light to a part to be imaged.
  • the illumination unit 41 includes a housing 42, a connecting portion 43, an incident light source 44, a half mirror 46, and a multistage light source 47.
  • the housing 42 is a bowl-shaped member whose upper surface and lower surface (bottom surface) are opened in an octagonal shape.
  • the housing 42 has a shape in which the opening on the upper surface is larger than the opening on the lower surface, and the internal space tends to increase from the lower surface toward the upper surface.
  • the connecting portion 43 is a cylindrical member that connects the housing 42 and the imaging portion 49.
  • the incident light source 44 includes a plurality of LEDs 45.
  • the half mirror 46 reflects the light in the horizontal direction from the LED 45 of the incident light source 44 upward.
  • the half mirror 46 transmits light from above toward the imaging unit 49.
  • the multi-stage light source 47 includes an upper stage light source 47a, a middle stage light source 47b, and a lower stage light source 47c.
  • the upper stage light source 47a has a plurality of LEDs 48a
  • the middle stage light source 47b has a plurality of LEDs 48b
  • the lower stage light source 47c has a plurality of LEDs 48c.
  • Each of the LEDs 48a to 48c irradiates light in a direction inclined from the optical axis 49a.
  • the LED 48a has the largest inclination angle from the optical axis 49a in the irradiation direction of the LEDs 48a to 48c, and the LED 48a emits light in a substantially horizontal direction.
  • the LED 48c has the smallest inclination angle.
  • the upper light source 47a is called a side light source because it emits light in a substantially horizontal direction
  • the middle light source 47b is called an inclined light source because it emits light obliquely upward.
  • the LED 48a of the upper light source 47a is a blue LED
  • the LED 48b of the middle light source 47b, the LED 48c of the lower light source 47c, and the LED 45 of the incident light source 44 are red LEDs.
  • the imaging unit 49 generates a captured image based on the received light.
  • the imaging unit 49 includes an optical system such as a lens (not shown) and an imaging element (for example, a CCD).
  • an optical system such as a lens (not shown) and an imaging element (for example, a CCD).
  • the reel unit 70 includes a plurality of reels 72 and is detachably attached to the front side of the mounting machine body 14.
  • a tape is wound around each reel 72.
  • a plurality of receiving recesses are provided on the surface of the tape along the longitudinal direction of the tape. Parts are accommodated in each accommodating recess. These parts are protected by a film covering the surface of the tape. Such a tape is unwound from the reel toward the rear, and the film is peeled off at the feeder portion 74 so that the components are exposed. The exposed part is adsorbed by the nozzle 37.
  • the operation of the reel unit 70 is controlled by a feeder controller 76 (see FIG. 3) provided in each feeder section 74.
  • the control device 60 includes a CPU 61, a storage unit 63 (ROM, RAM, HDD, etc.), an input / output interface 65, etc., which are connected via a bus 66.
  • the control device 60 includes pressures not shown for the substrate transport device 18, the drive motor 26 a for the X-axis slider 26, the drive motor 30 a for the Y-axis slider 30, the Z-axis motor 34, the Q-axis motor 36, the parts camera 40, and the nozzle 37.
  • a drive signal is output to the supply source.
  • the control device 60 inputs a captured image from the parts camera 40.
  • the control device 60 is communicably connected to the feeder controller 76 of the reel unit 70.
  • each slider 26, 30 is equipped with a position sensor (not shown), and the control device 60 inputs the position information from these position sensors while the drive motors 26a, 26a of each slider 26, 30 are input. 30a is controlled.
  • the CPU 61 of the control device 60 receives a production job from a management computer (not shown).
  • the production job is information that defines what kind of components are mounted on the board 16 in what order in the component mounter 10 and how many boards 16 the components are to be mounted.
  • FIG. 4 is a flowchart of the resolution calibration routine.
  • the chromatic aberration of magnification refers to a phenomenon in which color misregistration occurs near the periphery of an image because light incident obliquely with respect to the optical axis forms an image at a different position on the image plane. Specifically, as shown in FIG. 5, even when the focal distance is the same, the distance from the center line of the lens differs between blue light and red light. Moreover, it also differs depending on the material of the irradiation surface irradiated with light. In this embodiment, such lateral chromatic aberration and the influence of the material of the irradiated surface are eliminated by calibrating the resolution at the time of image processing.
  • the CPU 61 When the resolution calibration routine of FIG. 4 is started, the CPU 61 first sets one part type used in the current production job as the part type to be measured, and sucks the part of that part type onto the nozzle 37 (S100). . Specifically, the CPU 61 controls each part so that the nozzle 37 faces a part sent to a predetermined part supply position by a feeder part 74 that supplies a part of that part type, and the part is adsorbed to the nozzle 37. In this manner, a negative pressure is supplied to the nozzle 37.
  • the CPU 61 moves the nozzle 37 so that the center of the nozzle 37 coincides with the first point P1 (S110).
  • the first point P1 is one point on the coordinates of the component mounter 10, and is set within the imaging range above the parts camera 40 (see FIG. 6).
  • the CPU 61 captures an image while irradiating the component sucked by the nozzle 37 with various lighting lights, and stores the captured image in the storage unit 63 as a first point image (S120).
  • the various types of lighting light are three types of lighting light of red light, blue light, red light + blue light.
  • the CPU 61 first images while irradiating the components with the red LEDs (the LED 48b of the middle light source 47b, the LED 48c of the lower light source 47c, and the LED 45 of the incident light source), and then irradiates the components with the blue LED (LED 48a of the upper light source 47a) Then, the image is taken while irradiating the components with the red LED and the blue LED.
  • the CPU 61 stores the current component type and the first point image captured with various lighting lights in the storage unit 63 in association with each other.
  • the CPU 61 moves the nozzle 37 so that the center of the nozzle 37 coincides with the second point P2 (S130).
  • the second point P2 is one point on the coordinates of the component mounter 10, and is set within the imaging range above the parts camera 40 (see FIG. 6).
  • the second point P2 is set at a position away from the first point P1 by a predetermined length Lx [ ⁇ m] in the left direction along the X axis.
  • the CPU 61 takes an image of the component while irradiating the component attracted by the nozzle 37 with various lighting lights, and stores the captured image in the storage unit 63 as a second point image (S140).
  • the CPU 61 first captures an image while irradiating a component with a red LED, then images while irradiating the component with a blue LED, and then captures an image while irradiating the component with a red LED and a blue LED.
  • the CPU 61 stores the current component type in the storage unit 63 in association with the second point image captured by various lighting lights.
  • FIG. 6 is an explanatory diagram of parameters used for calculating the resolution.
  • the CPU 61 has a pixel position C at the center of the part of the first point image (right side of FIG. 6) imaged with red light and a component of the second point image (left side of FIG. 6) imaged with red light.
  • the length [ ⁇ m] between the component center C at the first point P1 and the component center C at the second point P2 is the same as the length Lx [ ⁇ m] between the first point P1 and the second point P2 at the nozzle center.
  • the CPU 61 similarly obtains the resolution for blue light and red light + blue light. Then, the correspondence relationship among the component type, lighting light, and resolution is added to the resolution calibration table shown in Table 1 and stored in the storage unit 63.
  • the CPU 61 returns the component adsorbed by the nozzle 37 to the original position of the feeder unit 74 (S160), and determines whether or not all component types mounted on the substrate 16 have been processed (S170). If a negative determination is made in S170, the CPU 61 sets an unprocessed component type as a measurement target (S180), and performs the processing subsequent to S100 again. On the other hand, if the determination in step S170 is affirmative, the CPU 61 ends this routine. As a result, the resolution calibration table shown in Table 1 representing the correspondence between the part types (for example, part types Pa to Pd) used in the current production job, the lighting light, and the resolution is completed.
  • the part types for example, part types Pa to Pd
  • FIG. 7 is a flowchart of the component mounting process routine.
  • the CPU 61 When the component mounting processing routine is started, the CPU 61 first sets 1 to the variable n of the counter (S200), and adsorbs the nth component to the nozzle 37 (S210). Subsequently, the CPU 61 acquires lighting light corresponding to the component type of the current component from the lighting light table (see Table 2) stored in the storage unit 63 (S220).
  • the lighting light table shows a correspondence relationship between the part type, the material of the irradiation surface of the part of the part type, and the lighting light used when imaging the part of the part type.
  • the lighting light table is created in advance based on the result of examining the lighting light most suitable for imaging for each component of the component type in a preliminary experiment or the like. In addition, you may abbreviate
  • the CPU 61 executes component imaging processing (S230). Specifically, the CPU 61 moves the component adsorbed by the nozzle 37 to the imaging range above the parts camera 40, and images the component with the parts camera 40 while irradiating the component with the lighting light acquired in S220. .
  • the CPU 61 obtains the resolution corresponding to the current component type and the used lighting light from the resolution calibration table of Table 1 (S240), and uses the obtained image of the component and the obtained resolution,
  • the position of the part with respect to the center of the nozzle 37 is recognized (S250).
  • the position of the center of the nozzle 37 in the captured image is known.
  • the center of the nozzle 37 is controlled to coincide with a predetermined suction position of the component (usually the center of the component).
  • the center of the nozzle 37 deviates from a predetermined suction position of the component due to a shift in the component supply position or the like. Therefore, in S250, the amount of deviation between the predetermined suction position of the component and the center of the nozzle 37 is recognized.
  • the unit of the shift amount obtained from the image is a pixel. Therefore, the pixel is replaced with a unit of length (here, ⁇ m) using the resolution.
  • the resolution depends on the component type (in other words, the material of the irradiated surface of the component type) and the lighting light.
  • the unit of the deviation amount of the predetermined suction position of the component with respect to the center of the nozzle 37 is replaced from the pixel to the length ( ⁇ m). Therefore, the displacement amount replaced with the unit of length is highly accurate.
  • the CPU 61 mounts the component adsorbed by the nozzle 37 at a designated position on the substrate 16 (S260). Specifically, the CPU 61 controls each part so that the component is arranged immediately above the designated position of the substrate 16 in consideration of the shift amount (unit of length) of the component position with respect to the center of the nozzle 37. Positive pressure is supplied to the nozzle 37 so that 37 releases the part at that position.
  • the CPU 61 determines whether or not the mounting of all components has been completed (S270). If a negative determination is made in S270, the CPU 61 increments the counter variable n by 1 (S280), and performs the processing from S210 again. On the other hand, if the determination in step S270 is affirmative, the CPU 61 ends this routine. In this way, all types of components are mounted on one substrate 16. Thereafter, the CPU 61 repeats this component mounting processing routine until the number of boards 16 on which components are mounted reaches the planned production number in the production job.
  • the imaging unit 49 of the present embodiment corresponds to the imaging unit of the imaging unit of the present disclosure
  • the nozzle 37 corresponds to the holding unit
  • the illumination unit 41 corresponds to the light irradiation unit
  • the storage unit 63 corresponds to the storage unit
  • the CPU 61 corresponds to the image processing unit.
  • a component corresponds to a subject.
  • the resolution of an image obtained by imaging a component may vary depending on the color of light irradiated on the component and the material of the irradiated surface of the component. Therefore, the CPU 61 obtains the resolution from the resolution calibration table based on the color of the light applied to the component and the component type (an example of the material of the irradiated surface of the component), and processes the image of the component using the resolution. Therefore, it is possible to suppress the influence of the lateral chromatic aberration and the material of the irradiated surface when processing an image obtained by imaging the component.
  • the illumination unit 41 includes a red LED (the LED 48b of the middle light source 47b, the LED 48c of the lower light source 47c, and the LED 45 of the incident light source 44) and a blue LED (LED 48a of the upper light source 47a). Therefore, the component can be irradiated with any one of three patterns of red light, blue light, red light + blue light. In particular, when the component is irradiated with a red light + blue light pattern, the resolution may differ depending on the component type, and therefore, the significance of applying the technology of the present disclosure is high.
  • the table (Table 1) indicating the correspondence between the component type, the lighting light, and the resolution is used as the resolution calibration table, but the correspondence between the material of the irradiation surface of the component, the lighting light, and the resolution is used.
  • a table (Table 3) showing the relationship may be used.
  • the material of the irradiation surface of the component is, for example, the material itself when the material is the irradiation surface as it is. Although it does not specifically limit as a raw material, For example, iron, copper, silver, gold
  • the material of the irradiation surface is a colorant
  • the material of the irradiation surface is a coating agent
  • the component type can be an example of the material of the irradiation surface of the component. If the material of the irradiation surface of the parts of two or more different parts types is the same, it is better to adopt a table (Table 3) that shows the correspondence between the material of the irradiation surface of the part, the lighting light, and the resolution. The size of becomes smaller.
  • the resolution is associated with each lighting light for each of the four component types Pa to Pd.
  • the part type Pa and the part type Pc both have the irradiation surface made of the material A. Therefore, if the table of Table 3 using materials instead of component types is adopted, the number of data is reduced.
  • the resolution itself is used as the resolution, but a correction coefficient for a predetermined reference resolution may be used.
  • a predetermined reference resolution a resolution obtained from an image obtained when a reference material (for example, a white ceramic piece) is irradiated with light can be used.
  • the resolution calibration table is created using the resolution measured when the nozzle 37 is moved in the X direction, but is created using the resolution measured when the nozzle 37 is moved in the Y direction. Also good.
  • a resolution calibration table is created for each of the resolution in the X direction and the resolution in the Y direction, and when converting the number of pixels in the X direction to the length, the resolution in the X direction is used, and the number of pixels in the Y direction is set to the length. When converting, the resolution in the Y direction may be used.
  • the resolution calibration table (Table 1) in which the resolutions of the three lighting lights are associated with the component types is created.
  • the optimal lighting light is provided for each component type.
  • a resolution calibration table for example, the component type Pa is only blue light resolution and the component type Pb is only red light resolution
  • the time for creating the resolution calibration table is shortened.
  • the resolution calibration table is created by using the component mounter 10.
  • an offline imager different from the component mounter 10 is prepared, and the offline imager is illuminated.
  • An illumination unit similar to the unit 41 may be attached, and a resolution calibration table may be created in the same manner as described above.
  • the resolution is calculated for all the component types used in the production job, but the processing of S100 to S160 is performed for the component types for which the resolution of each lighting light is already stored in the storage unit 63. May be skipped.
  • the head 24 having one nozzle 37 is used, but a rotary head having a plurality of nozzles in the circumferential direction may be used.
  • the lighting light three types of blue light, red light, blue light, and red light are exemplified as the lighting light.
  • the present invention is not particularly limited to this, and other lighting light may be used instead of or in addition to the lighting light.
  • Lighting light (for example, green light, UV light, IR light, etc.) may be used.
  • the parts camera 40 is exemplified as a component of the imaging unit of the present disclosure.
  • the present invention is not particularly limited thereto, and the multicolor illumination device that does not take measures against chromatic aberration on the lens side is provided. Any camera may be used as long as it is a camera.
  • the nozzle 37 is illustrated as the holding unit of the imaging unit of the present disclosure, but is not particularly limited thereto, and may be, for example, a mechanical chuck or an electromagnet.
  • the reel unit 70 is exemplified as the component supply unit of the component mounter of the present disclosure.
  • the present invention is not limited to this, and for example, a tray unit that supplies components on a tray is adopted. May be.
  • the imaging unit of the present disclosure may be configured as follows.
  • the plurality of light sources may include at least a blue light source and a red light source.
  • the subject can be irradiated with any one of three patterns of blue, red, and red + blue.
  • the resolution may differ depending on the material of the subject, and therefore, it is highly significant to apply the technique of the present disclosure.
  • the resolution itself may be used as the resolution, or a correction coefficient for a predetermined reference resolution may be used.
  • the predetermined reference resolution is a resolution obtained from an image obtained when a reference material (for example, a white ceramic piece) is irradiated with light.
  • the subject is a component mounted on a substrate, and the type of the component may be used as the material of the irradiation surface.
  • the correspondence relationship between the color of light, the type of component, and the resolution is stored in the storage unit, and the resolution can be obtained from the correspondence relationship based on the color of light and the type of component.
  • the present invention can be used in industries that involve an operation of imaging a part held by a holding unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Manufacturing & Machinery (AREA)
  • Operations Research (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Quality & Reliability (AREA)
  • Robotics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Supply And Installment Of Electrical Components (AREA)
  • Stroboscope Apparatuses (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

本開示の撮像ユニットは、撮像部と、前記撮像部に撮像される被写体を保持する保持部と、波長の異なる複数の光源の中から1以上の光源の光を選択して前記保持部に保持された前記被写体に照射可能な光照射部と、前記光照射装置によって照射可能な光の色と前記光が照射される照射面の材質と単位長さ当たりの画素数を表す分解能との対応関係を記憶する記憶部と、前記複数の光源の中から選択された光源の光を前記被写体に照射して前記撮像部で前記被写体を撮像することにより得られた被写体画像を処理するにあたり、前記被写体に照射した光の色と前記被写体の照射面の材質とに基づいて前記対応関係から前記分解能を求め、前記分解能を用いて前記被写体画像を処理する画像処理部と、を備える。

Description

撮像ユニット及び部品実装機
 本明細書では、撮像ユニット及び部品実装機を開示する。
 従来、部品実装機としては、波長が互いに異なる2種類の照明装置及びその照明装置で照らされる被写体を撮像するカメラを基台上に設け、それぞれの波長でコントラスト値を演算し、予め求めてあるそれぞれの波長でのコントラストカーブ特性により、演算されたコントラスト値に対応する可視光波長での合焦位置を求めるものが知られている。
特開2010-232548号公報
 ところで、部品実装機では、波長が互いに異なる2種類の照明装置で照らされる被写体を撮像するにあたり、倍率色収差の影響により焦点の距離が同じであっても光軸からの距離が異なることがある。このような倍率色収差の影響については、特許文献1では考慮されていない。また、被写体を撮像した画像は、光を照射する照射面の材質によって分解能が異なることもある。
 本開示は、このような課題に鑑みなされたものであり、被写体を撮像した画像を処理する際の倍率色収差や被写体の照射面の材質の影響を抑制することを主目的とする。
 本開示の撮像ユニットは、
 撮像部と、
 前記撮像部に撮像される被写体を保持する保持部と、
 波長の異なる複数の光源の中から1以上の光源の光を選択して前記保持部に保持された前記被写体に照射可能な光照射部と、
 前記光照射装置によって照射可能な光の色と前記光が照射される照射面の材質と単位長さ当たりの画素数を表す分解能との対応関係を記憶する記憶部と、
 前記複数の光源の中から選択された光源の光を前記被写体に照射して前記撮像部で前記被写体を撮像することにより得られた被写体画像を処理するにあたり、前記被写体に照射した光の色と前記被写体の照射面の材質とに基づいて前記対応関係から前記分解能を求め、前記分解能を用いて前記被写体画像を処理する画像処理部と、
 を備えたものである。
 この撮像ユニットでは、記憶部は、光照射装置によって照射可能な光の色と光が照射される照射面の材質と単位長さ当たりの画素数を表す分解能との対応関係を記憶している。画像処理部は、複数の光源の中から選択された光源の光を被写体に照射して撮像部で被写体を撮像することにより得られた被写体画像を処理する。被写体画像の分解能は、被写体に照射した光の色や被写体の照射面の材質によって異なることがある。そのため、画像処理部は、被写体に照射した光の色と被写体の照射面の材質とに基づいて対応関係から分解能を求め、分解能を用いて被写体画像を処理する。したがって、被写体を撮像した画像を処理する際の倍率色収差や被写体の照射面の材質の影響を抑制することができる。
 本開示の部品実装機は、
 上述したいずれかの撮像ユニットを備えた部品実装機であって、
 前記保持部は、部品供給部から供給される前記被写体としての部品を保持して基板上に移動し前記基板の所定位置で前記部品の保持を解放するものであり、
 前記撮像部は、前記保持部が前記部品を保持して前記基板上に移動する移動経路に設けられており、
 前記画像処理部は、前記分解能を用いて前記被写体画像としての前記部品の撮像画像を処理することにより、前記保持部に対する前記部品の位置を認識する
 ものである。
 本開示の部品実装機によれば、上述したいずれかの撮像ユニットを備えているため、上述したいずれかの撮像ユニットと同様の効果が得られる。
部品実装機10の斜視図。 パーツカメラ40の構成の概略説明図。 部品実装機10の制御に関わる構成を示すブロック図。 分解能較正ルーチンのフローチャート。 倍率色収差の説明図。 分解能の演算に用いるパラメータの説明図。 部品撮像処理ルーチンのフローチャート。
 本開示の撮像ユニット及び部品実装機の好適な実施形態を、図面を参照しながら以下に説明する。図1は部品実装機10の斜視図、図2はパーツカメラ40の構成の概略説明図、図3は部品実装機10の制御に関わる構成を示すブロック図である。なお、本実施形態において、左右方向(X軸)、前後方向(Y軸)及び上下方向(Z軸)は、図1に示した通りとする。
 部品実装機10は、基台12と、基台12の上に設置された実装機本体14と、実装機本体14に装着された部品供給装置としてのリールユニット70とを備えている。
 実装機本体14は、基台12に対して交換可能に設置されている。この実装機本体14は、基板搬送装置18と、ヘッド24と、ノズル37と、パーツカメラ40と、制御装置60とを備えている。
 基板搬送装置18は、基板16を搬送したり保持したりする装置である。この基板搬送装置18は、支持板20,20と、コンベアベルト22,22(図1では片方のみ図示)とを備えている。支持板20,20は、左右方向に延びる部材であり、図1の前後に間隔を開けて設けられている。コンベアベルト22,22は、支持板20,20の左右に設けられた駆動輪及び従動輪に無端状となるように架け渡されている。基板16は、一対のコンベアベルト22,22の上面に乗せられて左から右へと搬送される。この基板16は、多数立設された支持ピン23によって裏面側から支持可能となっている。そのため、基板搬送装置18は基板支持装置としての役割も果たす
 ヘッド24は、X軸スライダ26の前面に取り付けられている。X軸スライダ26は、Y軸スライダ30の前面に取り付けられている。Y軸スライダ30は、前後方向に延びる左右一対のガイドレール32,32にスライド可能に取り付けられている。Y軸スライダ30の前面には、左右方向に延びる上下一対のガイドレール28,28が設けられている。X軸スライダ26は、このガイドレール28,28にスライド可能に取り付けられている。ヘッド24は、X軸スライダ26が左右方向に移動するのに伴って左右方向に移動し、Y軸スライダ30が前後方向に移動するのに伴って前後方向に移動する。なお、各スライダ26,30は、それぞれ駆動モータ26a,30a(図3参照)により駆動される。また、ヘッド24は、Z軸モータ34を内蔵し、Z軸に沿って延びるボールネジ35に取り付けられたノズル37の高さをZ軸モータ34によって調整する。さらに、ヘッド24は、ノズル37を軸回転させるQ軸モータ36(図3参照)を内蔵している。
 ノズル37は、ノズル先端に部品を吸着して保持したり、ノズル先端に吸着している部品を吸着解除したりする部材である。ノズル37は、図示しない圧力供給源から圧力を供給可能であり、例えば負圧が供給されると部品を吸着し、負圧の供給が停止されるか又は正圧が供給されると部品を吸着解除する。ノズル37は、ヘッド24の本体底面から下方に突出している。また、Z軸モータ34によってノズル37がZ軸方向に沿って昇降することで、ノズル37に吸着された部品の高さが調整される。Q軸モータ36によってノズル37が回転することで、ノズル37に吸着された部品の向きが調整される。
 パーツカメラ40は、基板搬送装置18の前側の支持板20の前方に配置されている。パーツカメラ40は、パーツカメラ40の上方が撮像範囲であり、ノズル37に保持された部品を下方から撮像して撮像画像を生成する。パーツカメラ40は、図2に示すように、照明部41と、撮像部49とを備えている。
 照明部41は、撮像対象の部品に対して光を照射する。この照明部41は、ハウジング42と、連結部43と、落射光源44と、ハーフミラー46と、多段光源47と、を備えている。ハウジング42は、上面及び下面(底面)が八角形状に開口した椀状の部材である。ハウジング42は、下面の開口よりも上面の開口の方が大きく、下面から上面に向かって内部空間が大きくなる傾向の形状をしている。連結部43は、ハウジング42と撮像部49とを連結する筒状の部材である。落射光源44は、LED45を複数有している。ハーフミラー46は、落射光源44のLED45からの水平方向の光を上方に反射する。また、ハーフミラー46は上方からの光については撮像部49に向けて透過する。多段光源47は、上段光源47aと、中段光源47bと、下段光源47cとを備えている。上段光源47aは、複数のLED48aを有し、中段光源47bは、複数のLED48bを有し、下段光源47cは、複数のLED48cを有している。LED48a~48cは、いずれも光軸49aから傾斜した方向に光を照射する。LED48a~48cの照射方向の光軸49aからの傾斜角は、LED48aが最も大きく、LED48aはほぼ水平方向に光を照射する。また、この傾斜角は、LED48cが最も小さくなっている。上段光源47aはほぼ水平方向に光を照射することから側射光源と称し、中段光源47bは斜め上向きに光を照射することから傾斜光源と称する。本実施形態では、上段光源47aのLED48aは青色LEDであり、中段光源47bのLED48b、下段光源47cのLED48c及び落射光源44のLED45が赤色LEDである。
 撮像部49は、受光した光に基づいて撮像画像を生成する。この撮像部49は、図示しないレンズなどの光学系及び撮像素子(例えばCCD)を備えている。落射光源44及び多段光源47から発せられ撮像対象の部品で反射した後の光がハーフミラー46を透過して撮像部49に到達すると、撮像部49はこの光を受光して撮像画像を生成する。
 リールユニット70は、複数のリール72を備え、実装機本体14の前側に着脱可能に取り付けられている。各リール72には、テープが巻き付けられている。テープの表面には、テープの長手方向に沿って複数の収容凹部が設けられている。各収容凹部には、部品が収容されている。これらの部品は、テープの表面を覆うフィルムによって保護されている。こうしたテープは、リールから後方に向かって巻きほどかれ、フィーダ部74においてフィルムが剥がされて部品が露出した状態となる。この露出した状態の部品は、ノズル37によって吸着される。リールユニット70の動作は、各フィーダ部74が備えるフィーダコントローラ76(図3参照)によって制御される。
 制御装置60は、図3に示すように、CPU61、記憶部63(ROM、RAM、HDDなど)、入出力インターフェース65などを備えており、これらはバス66を介して接続されている。この制御装置60は、基板搬送装置18、X軸スライダ26の駆動モータ26a、Y軸スライダ30の駆動モータ30a、Z軸モータ34、Q軸モータ36、パーツカメラ40及びノズル37用の図示しない圧力供給源へ駆動信号を出力する。また、制御装置60は、パーツカメラ40からの撮像画像を入力する。制御装置60は、リールユニット70のフィーダコントローラ76と通信可能に接続されている。なお、図示しないが、各スライダ26,30には図示しない位置センサが装備されており、制御装置60はそれらの位置センサからの位置情報を入力しつつ、各スライダ26,30の駆動モータ26a,30aを制御する。
 次に、部品実装機10の動作について説明する。制御装置60のCPU61は、図示しない管理コンピュータから生産ジョブを受信する。生産ジョブは、部品実装機10においてどの部品種の部品をどういう順番で基板16に装着するか、また、何枚の基板16に部品の実装を行うかなどを定めた情報である。
 CPU61は、生産ジョブを受信すると、まず、その生産ジョブにおいて基板16に実装するすべての部品種を読み出し、分解能の較正(キャリブレーション)を実行する。図4は分解能較正ルーチンのフローチャートである。
 分解能較正ルーチンの説明に先立ち、倍率色収差について説明する。倍率色収差とは、光軸に対して斜めに入射した光が像面の異なる位置に像を結んでしまうことにより画像周辺ほど色ずれが発生する現象をいう。具体的には、図5に示すように、焦点の距離が同じであってもレンズの中心線からの距離が青色光と赤色光とで異なる。また、光が照射される照射面の材質によっても異なる。本実施形態では、こうした倍率色収差や照射面の材質の影響を、画像処理時の分解能を較正することにより解消する。
 CPU61は、図4の分解能較正ルーチンを開始すると、まず、今回の生産ジョブで使用する1つの部品種を測定対象の部品種に設定し、その部品種の部品をノズル37に吸着させる(S100)。具体的には、CPU61は、その部品種の部品を供給するフィーダ部74によって所定の部品供給位置に送り出された部品にノズル37が対向するように各部を制御し、その部品がノズル37に吸着されるようにノズル37に負圧を供給する。
 続いて、CPU61は、ノズル37の中心が第1地点P1と一致するようにノズル37を移動させる(S110)。第1地点P1は、部品実装機10の座標上の1点であり、パーツカメラ40の上方の撮像範囲内に設定されている(図6参照)。
 続いて、CPU61は、ノズル37に吸着された部品を各種の点灯光で照射しながら撮像し、撮像した画像を第1地点画像として記憶部63に記憶する(S120)。各種の点灯光とは、ここでは赤色光、青色光、赤色光+青色光の3種類の点灯光である。CPU61は、まず赤色LED(中段光源47bのLED48b、下段光源47cのLED48c及び落射光源のLED45)で部品を照射しながら撮像し、次に青色LED(上段光源47aのLED48a)で部品を照射しながら撮像し、次に赤色LED及び青色LEDで部品を照射しながら撮像する。CPU61は、今回の部品種と各種の点灯光で撮像した第1地点画像とを対応づけて記憶部63に記憶する。
 続いて、CPU61は、ノズル37の中心が第2地点P2と一致するようにノズル37を移動させる(S130)。第2地点P2は、部品実装機10の座標上の1点であり、パーツカメラ40の上方の撮像範囲内に設定されている(図6参照)。第2地点P2は、第1地点P1からX軸に沿って左方向に所定の長さLx[μm]だけ離れた位置に設定されている。
 続いて、CPU61は、ノズル37に吸着された部品を各種の点灯光で照射しながらその部品を撮像し、撮像した画像を第2地点画像として記憶部63に記憶する(S140)。CPU61は、まず赤色LEDで部品を照射しながら撮像し、次に青色LEDで部品を照射しながら撮像し、次に赤色LED及び青色LEDで部品を照射しながら撮像する。CPU61は、今回の部品種と各種の点灯光で撮像した第2地点画像とを対応づけて記憶部63に記憶する。
 続いて、CPU61は、今回の部品種について各種の点灯光における分解能を演算して記憶部63に保存する(S150)。図6は、分解能の演算に用いるパラメータの説明図である。CPU61は、図6に示すように、赤色光で撮像した第1地点画像(図6の右側)の部品中心のピクセル位置Cと赤色光で撮像した第2地点画像(図6の左側)の部品中心のピクセル位置Cとの間のピクセル数Pxを求め、その部品種の赤色光での分解能(=Lx/Px)[μm/pixel]を求める。なお、第1地点P1における部品中心Cと第2地点P2における部品中心Cとの長さ[μm]は、ノズル中心の第1地点P1と第2地点P2との長さLx[μm]と一致する。CPU61は、青色光や赤色光+青色光についても、同様にして分解能を求める。そして、今回の部品種と点灯光と分解能との対応関係を表1に示す分解能較正テーブルに追加して記憶部63に保存する。
Figure JPOXMLDOC01-appb-T000001
 続いて、CPU61は、ノズル37に吸着されていた部品をフィーダ部74の元の位置に戻し(S160)、基板16に実装するすべての部品種について処理したか否かを判定する(S170)。S170で否定判定だったならば、CPU61は、未処理の部品種を測定対象に設定し(S180)、再びS100以降の処理を行う。一方、S170で肯定判定だったならば、CPU61は、本ルーチンを終了する。これにより、今回の生産ジョブで使用する部品種(例えば部品種Pa~Pd)と点灯光と分解能との対応関係を表す表1の分解能較正テーブルが完成する。
 次に、部品実装機10が部品実装処理を行うときの動作について説明する。制御装置60のCPU61は、生産ジョブに基づいて部品実装機10の各部を制御して複数の部品が実装された基板16を生産する。図7は部品実装処理ルーチンのフローチャートである。
 CPU61は、部品実装処理ルーチンを開始すると、まず、カウンタの変数nに1をセットし(S200)、n番目の部品をノズル37に吸着させる(S210)。続いて、CPU61は、今回の部品の部品種に対応する点灯光を記憶部63に保存された点灯光テーブル(表2参照)から取得する(S220)。点灯光テーブルは、部品種とその部品種の部品の照射面の材質とその部品種の部品を撮像する際に使用する点灯光との対応関係を示したものである。点灯光テーブルは、予め予備実験などで部品種の部品ごとに撮像に最も適した点灯光を調べた結果に基づいて作成されている。なお、点灯光テーブルから部品の照射面の材質を省略してもよい。
Figure JPOXMLDOC01-appb-T000002
 続いて、CPU61は、部品撮像処理を実行する(S230)。具体的には、CPU61は、ノズル37に吸着された部品をパーツカメラ40の上方の撮像範囲に移動させ、S220で取得した点灯光をその部品に照射しながらその部品をパーツカメラ40で撮像させる。
 続いて、CPU61は、表1の分解能較正テーブルから、今回の部品種と使用した点灯光とに対応する分解能を取得し(S240)、得られた部品の画像と取得した分解能とを用いて、ノズル37の中心に対する部品の位置を認識する(S250)。撮像した画像におけるノズル37の中心の位置は既知である。ノズル37の中心は部品の所定の吸着位置(通常は部品の中心)と一致するように制御されている。しかし、部品の供給位置のずれ等により、ノズル37の中心と部品の所定の吸着位置はずれて吸着されることが多い。そのため、S250で、部品の所定の吸着位置とノズル37の中心とのずれ量を認識する。画像から得られるずれ量の単位はピクセルである。そのため、分解能を用いてピクセルを長さの単位(ここではμm)に置き換える。上述したように、分解能は、部品種(換言すると部品種の照射面の材質)と点灯光に依存する。ここでは、表1の分解能較正テーブルから求めた適正な分解能を用いて、ノズル37の中心に対する部品の所定の吸着位置のずれ量の単位をピクセルから長さ(μm)に置き換える。そのため、長さの単位に置き換えられたずれ量は精度の高いものとなる。
 続いて、CPU61は、ノズル37に吸着された部品を基板16の指定位置に実装する(S260)。具体的には、CPU61は、ノズル37の中心に対する部品の位置のずれ量(長さの単位)を考慮して部品が基板16の指定位置の直上に配置されるように各部を制御し、ノズル37がその位置で部品を放すようにノズル37に正圧を供給する。
 続いて、CPU61は、すべての部品の実装を終了したか否かを判定する(S270)。S270で否定判定だったならば、CPU61は、カウンタの変数nを1インクリメントし(S280)、再びS210以降の処理を行う。一方、ステップS270で肯定判定だったならば、CPU61は、本ルーチンを終了する。こうすることにより、1枚の基板16にはすべての部品種の部品が実装される。その後、CPU61は、部品実装済みの基板16が生産ジョブ内の生産予定枚数に到達するまでこの部品実装処理ルーチンを繰り返す。
 ここで、本実施形態の構成要素と本開示の撮像ユニットの構成要素との対応関係について説明する。本実施形態の撮像部49が本開示の撮像ユニットの撮像部に相当し、ノズル37が保持部に相当し、照明部41が光照射部に相当し、記憶部63が記憶部に相当し、CPU61が画像処理部に相当する。また、部品が被写体に相当する。
 以上説明した本実施形態では、部品を撮像した画像の分解能は、部品に照射した光の色や部品の照射面の材質によって異なることがある。そのため、CPU61は、部品に照射した光の色と部品種(部品の照射面の材質の一例)とに基づいて分解能較正テーブルから分解能を求め、その分解能を用いて部品の画像を処理する。したがって、部品を撮像した画像を処理する際の倍率色収差や照射面の材質の影響を抑制することができる。
 また、照明部41は、赤色LED(中段光源47bのLED48b、下段光源47cのLED48c及び落射光源44のLED45)と青色LED(上段光源47aのLED48a)とを含んでいる。そのため、赤色光、青色光、赤色光+青色光の3パターンのいずれかで部品を照射することができる。特に赤色光+青色光のパターンで部品を照射したときには部品種によって分解能が異なることがあるため、本開示の技術を適用する意義が高い。
 なお、本発明は上述した実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の態様で実施し得ることはいうまでもない。
 例えば、上述した実施形態では、分解能較正テーブルとして、部品種と点灯光と分解能との対応関係を示すテーブル(表1)を用いたが、部品の照射面の材質と点灯光と分解能との対応関係を示すテーブル(表3)を用いてもよい。部品の照射面の材質としては、例えば、素材がそのまま照射面になっている場合にはその素材そのものである。素材としては、特に限定されるものではないが、例えば、鉄、銅、銀、金、アルミナセラミック、ジルコニアセラミック、アクリル樹脂、エポキシ樹脂などが挙げられる。そのほかに、例えば、照射面が着色剤で着色されている場合には、照射面の材質は着色剤であり、照射面がコーティング剤でコートされている場合には、照射面の材質はコーティング剤である。なお、部品種が決まれば部品の照射面の材質も必然的に決まるため、部品種は部品の照射面の材質の一例ということができる。異なる2つ以上の部品種の部品の照射面の材質が同じである場合には、部品の照射面の材質と点灯光と分解能との対応関係を示すテーブル(表3)を採用した方がデータのサイズが小さくなる。例えば、表1では、4つの部品種Pa~Pdのそれぞれについて点灯光ごとに分解能が対応づけられている。ここで、部品種Paと部品種Pcは、表2に示すように、いずれも照射面が材質Aである。そのため、部品種の代わりに材質を用いた表3のテーブルを採用すれば、データ数が少なくなる。
Figure JPOXMLDOC01-appb-T000003
 上述した実施形態では、分解能として、分解能そのものを用いたが、所定の基準分解能に対する補正係数を用いてもよい。所定の基準分解能としては、基準材質(例えば白色セラミック片)に光を照射したときに得られた画像から求めた分解能を用いることができる。
 上述した実施形態では、分解能較正テーブルを、ノズル37をX方向に移動したときに測定した分解能を用いて作成したが、ノズル37をY方向に移動したときに測定した分解能を用いて作成してもよい。あるいは、X方向の分解能とY方向の分解能のそれぞれについて分解能較正テーブルを作成し、X方向のピクセル数を長さに変換するときにはX方向の分解能を使用し、Y方向のピクセル数を長さに変換するときにはY方向の分解能を使用してもよい。
 上述した実施形態では、部品種に3つの点灯光の分解能を対応づけた分解能較正テーブル(表1)を作成したが、表2の点灯光テーブルに示すように部品種ごとに最適な点灯光がわかっている場合には、部品種に最適な点灯光の分解能を対応づけた分解能較正テーブル(例えば部品種Paは青色光の分解能のみ、部品種Pbは赤色光の分解能のみ)を作成してもよい。こうすれば、分解能較正テーブルを作成する時間が短縮される。
 上述した実施形態では、部品実装機10を用いて分解能較正テーブルを作成したが、部品実装機10の代わりに、部品実装機10とは別のオフライン撮像機を用意し、そのオフライン撮像機に照明部41と同様の照明部を取り付けて、上述した手順と同様にして分解能較正テーブルを作成してもよい。
 上述した実施形態の分解能較正ルーチンでは、生産ジョブで使用するすべての部品種について分解能を演算したが、既に各点灯光の分解能が記憶部63に記憶されている部品種についてはS100~S160の処理をスキップしてもよい。
 上述した実施形態では、ノズル37を1つ備えたヘッド24を用いたが、円周方向に複数のノズルを備えたロータリーヘッドを用いてもよい。
 上述した実施形態では、点灯光として、青色光、赤色光、青色光及び赤色光の3種類を例示したが、特にこれに限定されるものではなく、これらの点灯光に代えて又は加えて他の点灯光(例えば緑色光やUV光、IR光など)を用いてもよい。
 上述した実施形態では、本開示の撮像ユニットの構成要素としてパーツカメラ40を例示したが、特にこれに限定されるものではなく、レンズ側で色収差の対策がなされていない多色照明装置を有したカメラであれば、どのようなカメラであってもよい。
 上述した実施形態では、本開示の撮像ユニットの保持部としてノズル37を例示したが、特にこれに限定されるものではなく、例えばメカニカルチャックや電磁石としてもよい。
 上述した実施形態では、本開示の部品実装機の部品供給部としてリールユニット70を例示したが、特にこれに限定されるものではなく、例えば、トレイに部品を載せて供給するトレイユニットを採用してもよい。
 本開示の撮像ユニットは、以下のように構成してもよい。
 本開示の撮像ユニットにおいて、前記複数の光源は、少なくとも青色の光源と赤色の光源とを含むようにしてもよい。この場合、青色、赤色、赤色+青色の3パターンのいずれかで被写体を照射することができる。特に赤色+青色のパターンで被写体を照射したときには被写体の材質によって分解能が異なることがあるため、本開示の技術を適用する意義が高い。
 本開示の撮像ユニットにおいて、前記分解能として、分解能そのものを用いてもよいし、所定の基準分解能に対する補正係数を用いてもよい。所定の基準分解能とは、基準材質(例えば白色セラミック片)に光を照射したときに得られた画像から求めた分解能である。
 本開示の撮像ユニットにおいて、前記被写体は、基板へ実装される部品であり、前記照射面の材質として、前記部品の種類を用いてもよい。こうすれば、光の色と部品の種類と分解能との対応関係が記憶部に記憶され、この対応関係から光の色と部品の種類とに基づいて分解能を求めることができる。
 本発明は、保持部に保持された部品を撮像する作業を伴う産業に利用可能である。
10 部品実装機、12 基台、14 実装機本体、16 基板、18 基板搬送装置、20 支持板、22 コンベアベルト、23 支持ピン、24 ヘッド、26 X軸スライダ、26a 駆動モータ、28 ガイドレール、30 Y軸スライダ、30a 駆動モータ、32 ガイドレール、34 Z軸モータ、35 ボールネジ、36 Q軸モータ、37 ノズル、40 パーツカメラ、41 照明部、42 ハウジング、43 連結部、44 落射光源、45 LED、46 ハーフミラー、47 多段光源、47a 上段光源、47b 中段光源、47c 下段光源、48a~48c LED、49 撮像部、49a 光軸、60 制御装置、61 CPU、63 記憶部、65 入出力インターフェース、66 バス、70 リールユニット、72 リール、74 フィーダ部、76 フィーダコントローラ。

Claims (5)

  1.  撮像部と、
     前記撮像部に撮像される被写体を保持する保持部と、
     波長の異なる複数の光源の中から1以上の光源の光を選択して前記保持部に保持された前記被写体に照射可能な光照射部と、
     前記光照射装置によって照射可能な光の色と前記光が照射される照射面の材質と単位長さ当たりの画素数を表す分解能との対応関係を記憶する記憶部と、
     前記複数の光源の中から選択された光源の光を前記被写体に照射して前記撮像部で前記被写体を撮像することにより得られた被写体画像を処理するにあたり、前記被写体に照射した光の色と前記被写体の照射面の材質とに基づいて前記対応関係から前記分解能を求め、前記分解能を用いて前記被写体画像を処理する画像処理部と、
     を備えた撮像ユニット。
  2.  前記複数の光源は、少なくとも青色の光源と赤色の光源とを含む、
     請求項1に記載の撮像ユニット。
  3.  前記分解能として、分解能そのものを用いるか、所定の基準分解能に対する補正係数を用いる、
     請求項1又は2に記載の撮像ユニット。
  4.  前記被写体は、基板へ実装される部品であり、
     前記照射面の材質として、前記部品の種類を用いる、
     請求項1~3のいずれか1項に記載の撮像ユニット。
  5.  請求項1~4のいずれか1項に記載の撮像ユニットを備えた部品実装機であって、
     前記保持部は、部品供給部から供給される前記被写体としての部品を保持して基板上に移動し前記基板の所定位置で前記部品の保持を解放するものであり、
     前記撮像部は、前記保持部が前記部品を保持して前記基板上に移動する移動経路に設けられており、
     前記画像処理部は、前記分解能を用いて前記被写体画像としての前記部品の撮像画像を処理することにより、前記保持部に対する前記部品の位置を認識する、
     部品実装機。
PCT/JP2018/010026 2018-03-14 2018-03-14 撮像ユニット及び部品実装機 WO2019176024A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP18909382.6A EP3767938B1 (en) 2018-03-14 2018-03-14 Image-capturing unit and component-mounting device
US16/980,304 US11557109B2 (en) 2018-03-14 2018-03-14 Image-capturing unit and component-mounting device
CN201880090864.3A CN111819836B (zh) 2018-03-14 2018-03-14 拍摄单元及元件安装机
PCT/JP2018/010026 WO2019176024A1 (ja) 2018-03-14 2018-03-14 撮像ユニット及び部品実装機
JP2020506031A JP7013564B2 (ja) 2018-03-14 2018-03-14 撮像ユニット及び部品実装機

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/010026 WO2019176024A1 (ja) 2018-03-14 2018-03-14 撮像ユニット及び部品実装機

Publications (1)

Publication Number Publication Date
WO2019176024A1 true WO2019176024A1 (ja) 2019-09-19

Family

ID=67908208

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/010026 WO2019176024A1 (ja) 2018-03-14 2018-03-14 撮像ユニット及び部品実装機

Country Status (5)

Country Link
US (1) US11557109B2 (ja)
EP (1) EP3767938B1 (ja)
JP (1) JP7013564B2 (ja)
CN (1) CN111819836B (ja)
WO (1) WO2019176024A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007198773A (ja) * 2006-01-24 2007-08-09 Omron Corp 基板検査方法および基板検査装置
JP2010232548A (ja) 2009-03-27 2010-10-14 Juki Corp 電子部品実装装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1140983A (ja) * 1997-07-18 1999-02-12 Matsushita Electric Ind Co Ltd 基板マーク認識装置
JP4011228B2 (ja) * 1999-03-29 2007-11-21 ヤマハ発動機株式会社 電子部品装着方法
JP4021183B2 (ja) * 2001-11-29 2007-12-12 オリンパス株式会社 合焦状態信号出力装置
JP3551188B2 (ja) * 2002-01-10 2004-08-04 オムロン株式会社 表面状態検査方法および基板検査装置
JP2007003323A (ja) * 2005-06-23 2007-01-11 Fujifilm Holdings Corp 撮影システム
CN101285905B (zh) * 2007-04-10 2010-06-02 甘国工 有吸收黄色特征光染料树脂层的滤光片及使用该片的显示器
JP5287385B2 (ja) * 2009-03-13 2013-09-11 オムロン株式会社 計測装置
US8964298B2 (en) * 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
JP5338772B2 (ja) * 2010-08-26 2013-11-13 パナソニック株式会社 部品実装用装置および撮像用の照明装置ならびに照明方法
CN102402172B (zh) * 2011-11-30 2015-03-11 昆明理工大学 一种三维实时超分辨数字全息记录系统
JP5746610B2 (ja) * 2011-12-22 2015-07-08 ヤマハ発動機株式会社 部品撮像装置および同装置を備えた部品実装装置
JP5798047B2 (ja) * 2012-01-10 2015-10-21 ヤマハ発動機株式会社 部品撮像装置、表面実装機および部品検査装置
WO2015040667A1 (ja) * 2013-09-17 2015-03-26 富士機械製造株式会社 実装検査装置
CN104516098B (zh) * 2013-09-30 2017-04-12 西门子公司 一种显微装置及成像方法
JP6432214B2 (ja) * 2014-08-25 2018-12-05 株式会社リコー 画像処理装置、画像処理方法、記憶媒体及びプログラム
CN104733506B (zh) * 2015-04-01 2017-10-24 京东方科技集团股份有限公司 一种电致发光显示器件及显示装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007198773A (ja) * 2006-01-24 2007-08-09 Omron Corp 基板検査方法および基板検査装置
JP2010232548A (ja) 2009-03-27 2010-10-14 Juki Corp 電子部品実装装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3767938A4

Also Published As

Publication number Publication date
EP3767938B1 (en) 2021-12-15
EP3767938A4 (en) 2021-03-03
CN111819836A (zh) 2020-10-23
EP3767938A1 (en) 2021-01-20
US11557109B2 (en) 2023-01-17
US20210042562A1 (en) 2021-02-11
JP7013564B2 (ja) 2022-01-31
CN111819836B (zh) 2021-06-18
JPWO2019176024A1 (ja) 2021-03-11

Similar Documents

Publication Publication Date Title
CN108029243B (zh) 安装装置、拍摄处理方法及拍摄单元
JP6837161B2 (ja) 撮像ユニット及び部品実装機
JP2023118927A (ja) 対基板作業システム
JP7271738B2 (ja) 撮像ユニット
WO2019176024A1 (ja) 撮像ユニット及び部品実装機
JP6475165B2 (ja) 実装装置
JP6261985B2 (ja) 実装装置
JP7301973B2 (ja) 検査装置
JP6836938B2 (ja) ダイボンディング装置および半導体装置の製造方法
JP7365487B2 (ja) 画像補正方法、撮像装置および検査装置
CN112840752B (zh) 元件拍摄用相机及元件安装机
CN113966650B (zh) 照明单元
JP6918611B2 (ja) 電子部品実装装置及び電子部品実装方法
KR102325610B1 (ko) 손떨림보정용 엑츄에이터 검사 장치 및 방법
JP7225433B2 (ja) 作業機
JP6670949B2 (ja) 電子部品の画像処理方法及び画像処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18909382

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020506031

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018909382

Country of ref document: EP

Effective date: 20201014