WO2021124447A1 - 作業機 - Google Patents

作業機 Download PDF

Info

Publication number
WO2021124447A1
WO2021124447A1 PCT/JP2019/049403 JP2019049403W WO2021124447A1 WO 2021124447 A1 WO2021124447 A1 WO 2021124447A1 JP 2019049403 W JP2019049403 W JP 2019049403W WO 2021124447 A1 WO2021124447 A1 WO 2021124447A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
center
calculated
resolution
captured
Prior art date
Application number
PCT/JP2019/049403
Other languages
English (en)
French (fr)
Inventor
大悟 近藤
Original Assignee
株式会社Fuji
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Fuji filed Critical 株式会社Fuji
Priority to PCT/JP2019/049403 priority Critical patent/WO2021124447A1/ja
Priority to EP19956844.5A priority patent/EP4080868A4/en
Priority to JP2021565206A priority patent/JP7225433B2/ja
Publication of WO2021124447A1 publication Critical patent/WO2021124447A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • G03B15/03Combinations of cameras with lighting apparatus; Flash units
    • G03B15/05Combinations of cameras with electronic flash apparatus; Electronic flash units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/081Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines
    • H05K13/0812Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines the monitoring devices being integrated in the mounting machine, e.g. for monitoring components, leads, component placement
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2215/00Special procedures for taking photographs; Apparatus therefor
    • G03B2215/05Combinations of cameras with electronic flash units
    • G03B2215/0564Combinations of cameras with electronic flash units characterised by the type of light source
    • G03B2215/0575Ring shaped lighting arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices

Definitions

  • This disclosure relates to a working machine for mounting an electronic component on a circuit base material.
  • Patent Document 1 an appropriate value of resolution for the light of one or more light sources selected from a plurality of light sources used for imaging is obtained, and the light of the one or more light sources is applied to a subject held by a holding member to perform a camera.
  • An imaging unit is described in which an appropriate value of the above-mentioned resolution is used when an image is taken with the above-mentioned image and the image obtained by the image is processed.
  • the present disclosure describes to provide a working machine capable of correcting chromatic aberration included in an image obtained by capturing an image of a component without using a device different from the working machine.
  • the working machine of the present disclosure irradiates the image pickup device, the holding head having the component holder, the moving device for moving the holding head at least in the horizontal direction, and the light of a plurality of light sources having different wavelengths toward the component holder.
  • a possible lighting device and a control device are provided, and the control device irradiates the component holder with light having a different wavelength and instructs the image pickup device to image the component holder, and an imaging instruction unit and imaging.
  • a first calculation unit that calculates the resolution of the captured image based on any one of the captured images of each light having a different wavelength captured by the indicator, and an captured image for each light having a different wavelength.
  • a second calculation unit that calculates the lens center of the image pickup device based on the above, and a storage unit that stores the difference between the lens center calculated by the second calculation unit and the camera center of the image pickup device as a unique value of the image pickup device. Have.
  • FIG. 5 is a flowchart showing a procedure of calibration processing executed by the controller included in the control device of FIG.
  • FIG. 1 shows a component mounting machine 10 according to an embodiment of the present disclosure.
  • the component mounting machine 10 is a device for executing component mounting work on the circuit base material 12.
  • the component mounting machine 10 includes an apparatus main body 20, a base material transfer holding device 22, a component mounting device 24, a mark camera 26, a parts camera 140, a component supply device 30, a loose component supply device 32, and a control device 34 (see FIG. 4).
  • Examples of the circuit board 12 include a circuit board, a base material having a three-dimensional structure, and the like, and examples of the circuit board include a printed wiring board and a printed circuit board.
  • the device main body 20 is composed of a frame portion 40 and a beam portion 42 mounted on the frame portion 40.
  • the base material transfer holding device 22 is arranged at the center of the frame portion 40 in the front-rear direction, and has a transfer device 50 and a clamp device 52.
  • the transport device 50 is a device that transports the circuit base material 12
  • the clamp device 52 is a device that holds the circuit base material 12.
  • the base material transport / holding device 22 transports the circuit base material 12 and holds the circuit base material 12 fixedly at a predetermined position.
  • the transport direction of the circuit base material 12 is referred to as the X direction
  • the horizontal direction perpendicular to that direction is referred to as the Y direction
  • the vertical direction is referred to as the Z direction. That is, the width direction of the component mounting machine 10 is the X direction, and the front-rear direction is the Y direction.
  • the component mounting device 24 is arranged in the beam unit 42, and has two work heads 60 and 62 and a work head moving device 64. As shown in FIG. 2, a suction nozzle 66 is provided on the lower end surfaces of the work heads 60 and 62, and the suction nozzle 66 sucks and holds the component.
  • FIG. 6A shows a view of one work head, for example, the lower end surface of the work head 60, viewed from the bottom to the top.
  • the lower end surface 61 of the work head 60 is formed in a disk shape as shown in FIG. 6A, and 24 holders 65a to 65x are arranged at equal intervals on the outer peripheral portion thereof.
  • the holders 65a to 65x are for holding one suction nozzle 66, respectively.
  • Each holder 65 is designated by a reference numeral 65a to 65x in the clockwise direction from the first holder to the 24th holder.
  • each suction nozzle 66 is also designated clockwise from the first nozzle to the 24th nozzle with a reference numeral of 66a to 66x.
  • FIG. 6A only those necessary for explaining the present embodiment are specified as the reference numerals of the holder 65 and the suction nozzle 66.
  • each suction nozzle 66 are rotated by a rotating device whose drive source is a motor (not shown), and the position on the outer peripheral portion of the component held by suction and the direction at that position are changed. It is configured to be able to.
  • a reference mark M is attached to the center of the lower end surface 61.
  • the reference mark M is formed by a circle including four small circles. The method of using the reference mark M will be described later.
  • the work head moving device 64 has an X direction moving device 68, a Y direction moving device 70, and a Z direction moving device 72. Then, the two work heads 60 and 62 can be integrally moved to an arbitrary position on the frame portion 40 by the X-direction moving device 68 and the Y-direction moving device 70. Further, the work heads 60 and 62 are detachably attached to the sliders 74 and 76, and the Z-direction moving device 72 individually moves the sliders 74 and 76 in the vertical direction. That is, the work heads 60 and 62 can be individually moved in the vertical direction by the Z-direction moving device 72.
  • the mark camera 26 is attached to the slider 74 in a state of facing downward, and can move in the X direction, the Y direction, and the Z direction together with the work head 60. As a result, the mark camera 26 images an arbitrary position on the frame portion 40. As shown in FIG. 1, the parts camera 140 is arranged between the base material transporting and holding device 22 on the frame portion 40 and the parts supply device 30 in a state of facing upward. As a result, the parts camera 140 images the parts held by the suction nozzles 66 of the work heads 60 and 62.
  • the parts camera 140 includes an illumination unit 141 and an image pickup unit 149.
  • the parts camera 140 has an imaging range above the parts camera 140, and images the parts held by the suction nozzles 66a to 66x from below to generate an captured image.
  • the illumination unit 141 irradiates the component to be imaged with light.
  • the illumination unit 141 includes a housing 142, a connecting unit 143, an epi-illumination light source 144, a half mirror 146, and a multi-stage light source 147.
  • the housing 142 is a bowl-shaped member having an octagonal opening on the upper surface and the lower surface (bottom surface).
  • the housing 142 has a shape in which the opening on the upper surface is larger than the opening on the lower surface, and the internal space tends to increase from the lower surface to the upper surface.
  • the connecting portion 143 is a tubular member that connects the housing 142 and the imaging portion 149.
  • the epi-illumination light source 144 has a plurality of LEDs 145.
  • the half mirror 146 reflects the horizontal light from the LED 145 of the epi-illumination light source 144 upward. Further, the half mirror 146 transmits light from above toward the imaging unit 149.
  • the multi-stage light source 147 includes an upper light source 147a, a middle light source 147b, and a lower light source 147c.
  • the upper light source 147a has a plurality of LEDs 148a
  • the middle light source 147b has a plurality of LEDs 148b
  • the lower light source 147c has a plurality of LEDs 148c. All of the LEDs 148a to 148c irradiate light in a direction inclined from the optical axis 149a.
  • LED148a has the largest inclination angle of LEDs 148a to 148c from the optical axis 149a in the irradiation direction, and LED148a irradiates light in a substantially horizontal direction.
  • the inclination angle of LED148c is the smallest.
  • the upper light source 147a is called a side light source because it irradiates light in a substantially horizontal direction
  • the middle light source 147b is called a gradient light source because it irradiates light diagonally upward.
  • the LED 148a of the upper light source 147a is a blue LED
  • the LED 148b of the middle light source 147b, the LED 148c of the lower light source 147c, and the LED 145 of the epi-illumination light source 144 are red LEDs.
  • the imaging unit 149 generates an captured image based on the received light.
  • the image pickup unit 149 includes an optical system such as a lens (not shown) and an image pickup device (for example, a CCD (Charge Coupled Device)).
  • the image pickup unit 149 When the light emitted from the epi-illumination light source 144 and the multi-stage light source 147 and reflected by the component to be imaged passes through the half mirror 146 and reaches the image pickup unit 149, the image pickup unit 149 receives this light and captures the image. Generate.
  • the parts supply device 30 is arranged at the first end portion of the frame portion 40 in the front-rear direction.
  • the parts supply device 30 includes a tray-type parts supply device 78 and a feeder-type parts supply device 80 (see FIG. 4).
  • the tray-type component supply device 78 is a device that supplies components in a state of being placed on the tray.
  • the feeder type component supply device 80 is a device that supplies components by a tape feeder and a stick feeder (not shown).
  • the loose parts supply device 32 is arranged at the second end portion of the frame portion 40 in the front-rear direction.
  • the loose parts supply device 32 is a device that aligns a plurality of parts that are scattered apart and supplies the parts in the aligned state. That is, it is a device that aligns a plurality of parts in an arbitrary posture in a predetermined posture and supplies the parts in the predetermined posture.
  • Examples of the parts supplied by the parts supply device 30 and the loose parts supply device 32 include electronic circuit parts, solar cell components, power module components, and the like. Further, electronic circuit parts include parts having leads, parts having no leads, and the like.
  • the control device 34 includes a controller 82, a plurality of drive circuits 86, and an image processing device 88.
  • the plurality of drive circuits 86 are connected to the transfer device 50, the clamp device 52, the work heads 60 and 62, the work head moving device 64, the tray type parts supply device 78, the feeder type parts supply device 80, and the loose parts supply device 32.
  • the controller 82 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and is mainly a computer, and is connected to a plurality of drive circuits 86.
  • the operation of the base material transfer holding device 22, the component mounting device 24, the component supply device 30, and the like is controlled by the controller 82.
  • the controller 82 is also connected to the image processing device 88.
  • the image processing device 88 processes the captured image obtained by the mark camera 26 and the parts camera 140, and the controller 82 acquires various information from the captured image.
  • chromatic aberration There are two types of chromatic aberration: axial chromatic aberration and Magnification chromatic aberration.
  • Axial chromatic aberration is a phenomenon in which light parallel to the optical axis does not form a single point on the optical axis due to the difference in refractive index depending on the wavelength. Specifically, as shown in FIG. 5A, blue light forms an image on the front side, and red light forms an image on the back side.
  • chromatic aberration of magnification refers to a phenomenon in which light incident obliquely to the optical axis forms an image at a different position on the image plane, causing color shift toward the periphery of the image. Specifically, as shown in FIG. 5B, even if the focal distance is the same, the distance from the center line of the lens is different between the blue light and the red light.
  • FIG. 6B shows an captured image obtained by imaging the lower end surface 61 of FIG. 6A with the parts camera 140.
  • the captured image of FIG. 6B is an captured image obtained by imaging when the red LED is emitted (hereinafter referred to as “first captured image”) and an image obtained by imaging when the blue LED is emitted.
  • first captured image an captured image obtained by imaging when the red LED is emitted
  • second captured image An image obtained by synthesizing the captured image
  • the circle Cr indicates a circle formed by connecting the centers of the holders 65ar to 65xr included in the first captured image, that is, the tips of the suction nozzles 66ar to 66xr.
  • the circle Cb indicates a circle formed by connecting the centers of the holders 65ab to 65xb included in the second captured image, that is, the tips of the suction nozzles 66ab to 66xb.
  • the diameter of the circle Cr and the diameter of the circle Cb are different due to the influence of chromatic aberration of magnification. Then, since the chromatic aberration of magnification occurs toward the center of the lens, as shown in FIG.
  • the deviation width between the tip of the 13th suction nozzle 66 mr in the first captured image and the tip of the 13th suction nozzle 66 mb in the second captured image is the first suction nozzle in the first captured image. It is larger than the deviation width between the tip of 66ar and the tip of the first suction nozzle 66ab in the second captured image.
  • FIG. 7 shows the procedure of the calibration process executed by the controller 82.
  • the step is referred to as "S".
  • the controller 82 When the calibration process is started, the controller 82 first instructs the work head moving device 64 via the drive circuit 86 to move the work head 60 to the imaging range 150 (see FIG. 6B). (S10).
  • the calibration process is performed not only on the work head 60 but also on the work head 62, but in the present embodiment, for convenience of explanation, it is regarded as the work head 60.
  • the controller 82 determines the color of the irradiation light from the illumination unit 141 (S12).
  • the colors of the irradiation light are two colors of red and blue, but the color is not limited to this, and may be three colors in addition to the case of irradiating red and blue at the same time, and the illumination unit 141 has four colors. As long as it can irradiate the above irradiation light, it may be four or more colors.
  • the controller 82 instructs the illumination unit 141 to irradiate the lower end surface 61 of the work head 60 with the irradiation light of the determined color (S14).
  • the controller 82 instructs the parts camera 140 to take an image (S16).
  • the parts camera 140 images the lower end surface 61 of the work head 60 located within the image pickup range 150, and outputs the captured image to the image processing device 88.
  • the controller 82 reads the captured image from the image processing device 88 and temporarily stores it in the RAM, for example (S18).
  • the controller 82 determines whether or not there is irradiation light of a color that has not yet been irradiated (S20). If red is first irradiated and then blue is irradiated as the irradiation light, it is determined that there is irradiation light of a color that has not been irradiated yet in the judgment of S20 because the blue irradiation light has not been irradiated yet (S20). S20: NO), the controller 82 returns the process to S12.
  • the controller 82 executes the processes of S12 to S18 for the blue irradiation light. After executing this process, in the determination of S20, it is determined that there is no irradiation light of a color that has not been irradiated yet (S20: YES), and the controller 82 proceeds to the next process S22.
  • the center and diameter of the circle passing through the predetermined three points are calculated for each captured image, that is, the first and second captured images.
  • the predetermined three points correspond to, for example, the tip of the first suction nozzle 66a, the tip of the thirteenth suction nozzle 66m, and the tip of the nineteenth suction nozzle 66s in the present embodiment. It is a point in the first and second captured images.
  • the reason for scoring 3 points is to satisfy the minimum condition for one circle to be determined. This is because one circle is not fixed at two points, and one circle is fixed at four points or more, but the processing time for fixing one circle is longer than when three points are taken.
  • the three points to be adopted may be any three points out of the tips of the 24 suction nozzles 66a to 66x. Further, if the coordinates of the predetermined three points included in the first and second captured images are known, the center and diameter of each circle passing through the three points can be easily calculated from the coordinates by a known method. The description of the calculation method will be omitted.
  • the controller 82 calculates the lens center Ol based on the center and diameter of each circle calculated in the first and second captured images (S24). Specifically, the controller 82 calculates the moving direction and the amount of movement of the center of each circle and the amount of reduction of the diameter, and calculates the position where the center of the circle moves when the diameter converges to “0”. This is referred to as the lens center Ol.
  • controller 82 calculates the difference between the calculated lens center Ol and the camera center Occ, and temporarily stores it in, for example, RAM (S26).
  • the controller 82 converts each of the circles calculated in the first and second captured images into each circle of the lens center Ol based on the stored difference, and calculates the diameter of each circle after conversion (S28). ..
  • the chromatic aberration of magnification occurs toward the lens center Ol, whereas the circles calculated in S22 above are the circles at the camera center Occ. This is because the influence of chromatic aberration of magnification cannot be calculated correctly on the circle at the center of the camera.
  • the stored difference is set as (Ax, Ay), and each of the first, thirteenth, and nineteenth suction nozzles 66ar, 66mr, and 66sr included in the first captured image.
  • the coordinates of the tip are (Rx1, Ry1), (Rx2, Ry2), (Rx3, Ry3), and the first, thirteenth, and nineteenth suction nozzles 66ab, 66mb, 66sb included in the second captured image.
  • Let the coordinates of each tip be (Bx1, By1), (Bx2, By2), (Bx3, By3). Since these coordinates are the coordinates at the camera center Occ, the controller 82 converts them into the coordinates at the lens center Ol.
  • the controller 82 has (Rx1-Ax, Ry1-Ay), (Rx2-Ax, Ry2-Ay) for the coordinates (Rx1, Ry1), (Rx2, Ry2), (Rx3, Ry3) in the first captured image. ), (Rx3-Ax, Ry3-Ay), and the coordinates (Bx1, By1), (Bx2, By2), (Bx3, By3) in the second captured image are (Bx1-Ax, By1-Ay). , (Bx2-Ax, By2-Ay), (Bx3-Ax, By3-Ay) are calculated. Then, the controller 82 determines each circle passing through the three converted points, and calculates the diameter of each circle.
  • the controller 82 calculates the value of the ratio of the diameters of the circles of the other colors to the diameters of the circles of the reference color, using one predetermined color of the irradiation light as the reference color (S30).
  • the controller 82 determines the diameter of the circle after conversion from the camera center Oct in the second captured image to the lens center Ol / the circle after conversion from the camera center Oct in the first captured image to the lens center Ol. Calculate the diameter of.
  • the controller 82 stores the calculated ratio value as a coefficient value in association with the irradiation light (S32).
  • the ratio value is the diameter of the converted circle in the second captured image, that is, the image captured by the blue irradiation light / the first captured image, that is, the converted image in the image captured by the red irradiation light. Since it is the diameter of a circle, the calculated ratio value, that is, the coefficient value is stored in association with blue. However, since the coefficient value is used when mounting electronic components (hereinafter abbreviated as "components") on the circuit substrate after the calibration process is completed until the next calibration process is executed. Even when the power supply to the control device 34 is stopped, it is preferable to store the coefficient value in the memory in which the storage of the coefficient value is held.
  • the controller 82 gives an instruction to move the work head 60 so that the reference mark M (see FIG. 6A) is located at one of the four corners of the imaging range 150 via the drive circuit 86. This is performed on the work head moving device 64 (S34).
  • the controller 82 instructs the illumination unit 141 to irradiate the lower end surface 61 of the work head 60 with the irradiation light of the reference color (S36).
  • the controller 82 determines whether or not the captured image of one corner where the reference mark M is located and the one corner symmetrical with respect to the center of the imaging range 150 are stored in the imaging range 150 (S42). ). In this determination, if it is determined that the captured images of the two corners are not yet stored (S42: NO), the controller 82 returns the process to S34.
  • the controller 82 positions the reference mark M at the other corner in the imaging range 150 (S34), and then executes the processes of S36 to S40. After executing this process, it is determined in S42 that the captured images of the two corners have been stored (S42: YES), and the controller 82 advances the process to the next S44.
  • the controller 82 calculates and stores the resolution in the reference color based on the two stored captured images. Specifically, the controller 82 acquires the coordinates of the center of the reference mark M for each captured image, and calculates the length of the line segment with each image as an end point. Then, the controller 82 calculates the calculated length of the line segment / the number of pixels included in the line segment, and stores the reference color, that is, the resolution of red in the present embodiment. Note that the resolution in the reference color is also controlled because it is used when mounting the component on the circuit substrate after the calibration process is completed until the next calibration process is executed, as in the case of the above coefficient value. Even when the power supply to the device 34 is stopped, it is preferable to store the coefficient value in the memory in which the storage of the coefficient value is retained.
  • the controller 82 ends the calibration process.
  • the component to be mounted is held by the suction nozzle 66, and the held component is imaged by the parts camera 140. Then, by performing image processing on the captured image obtained by the parts camera 140, the controller 82 recognizes the position of the component with respect to the center of the suction nozzle 66 from the image of the component included in the captured image. The position of the center of the suction nozzle 66 in the captured image is known.
  • the center of the suction nozzle 66 should coincide with the predetermined suction position of the part (usually the center of the part). However, due to a shift in the supply position of the component or the like, the center of the suction nozzle 66 and the predetermined suction position of the component are deviated from each other for suction. Therefore, the controller 82 recognizes the amount of deviation between the predetermined suction position of the component and the center of the suction nozzle 66. Then, the controller 82 controls the drive circuit 86 so that the components are arranged directly above the designated position of the circuit base material in consideration of the recognized deviation amount.
  • the resolution of the captured image captured by the parts camera 140 differs depending on the color of the irradiation light.
  • the controller 82 controls the drive circuit 86 by converting the recognized deviation amount into an actual distance using a resolution corresponding to the color of the irradiation light.
  • the controller 82 converts the recognized deviation amount into the actual distance by using the resolution in the reference color.
  • the controller 82 uses the resolution obtained by multiplying the resolution in the reference color by the coefficient value stored in association with the color of the irradiation light, and recognizes the deviation. Convert the quantity to the actual distance.
  • the component mounting machine 10 of the present embodiment is an X-direction moving device that moves the parts camera 140, the work heads 60 and 62 having the suction nozzle 66, and the work heads 60 and 62 at least in the horizontal direction. It includes 68 and a Y-direction moving device 70, an illumination unit 141 capable of irradiating light from a plurality of light sources having different wavelengths toward the suction nozzle 66, and a controller 82.
  • the controller 82 irradiates the suction nozzle 66 with light having a different wavelength, and instructs the parts camera 140 to image the suction nozzle 66, and the imaging instruction unit 160 and the wavelength imaged by the image pickup instruction unit 160.
  • the first calculation unit 162 that calculates the resolution of the captured image based on the captured image of any one of the different captured images for each light, and the parts camera 140 based on the captured images for each light having different wavelengths. It has a second calculation unit 164 that calculates the lens center, and a storage unit 166 that stores the difference between the lens center calculated by the second calculation unit 164 and the camera center of the parts camera 140 as a unique value of the parts camera 140.
  • the component mounting machine 10 of the present embodiment it is possible to correct the chromatic aberration included in the image obtained by capturing the component without using a device different from the component mounting machine 10.
  • the component mounting machine 10 is an example of a "working machine”.
  • the suction nozzle 66 is an example of a “part holder”.
  • the work heads 60 and 62 are examples of "holding heads”.
  • the X-direction moving device 68, the Y-direction moving device 70, and the Z-direction moving device 72 are examples of the “moving device”.
  • the parts camera 140 is an example of an “imaging device”.
  • the controller 82 is an example of a “control device”.
  • the controller 82 further calculates the resolution of the captured image other than the captured image which is the calculation base of the resolution among the captured images for each light having different wavelengths based on the eigenvalue stored by the storage unit 166. It has a third calculation unit 168 for calculating a numerical value.
  • the resolution of the captured image other than the captured image used as the resolution calculation base can be obtained simply by calculating the coefficient value calculated by the third calculation unit 168 to the resolution of the captured image used as the resolution calculation base. Even if there are a plurality of captured images for each light having a different wavelength, it is only necessary to calculate the resolution of the captured image for the light of one wavelength. Therefore, the arithmetic processing can be simplified.
  • the controller 82 further multiplies the coefficient value calculated by the third calculation unit 168 by the resolution calculated by the first calculation unit 162 to obtain the resolution of the captured image other than the captured image as the calculation base of the resolution. It has a fourth calculation unit 170 that calculates the above, and a correction unit 172 that corrects the corresponding captured image based on the resolution calculated by the first and fourth calculation units 162 and 170.
  • the suction nozzle 66 includes three or more suction nozzles 66a to 66x, and the suction nozzles 66a to 66x are arranged at equal intervals on the outer peripheral portion of the lower end surfaces 61 of the work heads 60 and 62, and the second calculation unit 164 Is based on at least three suction nozzles 66ar, 66mr, 66sr, 66ab, 66mb, 66sb among the suction nozzles 66ar to 66xr, 66ab to 66xb included in the captured images for each light having different wavelengths. Calculate the center of the lens.
  • the lens center of the parts camera 140 can be calculated by detecting at least three points for each of the captured images for each light having different wavelengths, so that the image processing can be simplified and the calculation processing can be simplified. can do.
  • the second calculation unit 164 is the center of the circles Cr and Cb passing through the tips of at least three adsorption nozzles 66ar, 66mr, 66sr, 66ab, 66mb, and 66sb for each of the captured images for each light having different wavelengths. And the diameter are calculated, and the lens center Ol of the parts camera 140 is calculated based on the center and diameter of each of the calculated circles Cr and Cb.
  • the third calculation unit 168 stores at least three tips of the suction nozzles 66ar, 66mr, 66sr, 66ab, 66mb, and 66sb for each of the captured images for each light having different wavelengths by the storage unit 166.
  • the camera center Oct is converted to the lens center Ol based on the eigenvalue, the diameter of each circle passing through each tip of at least three suction nozzles after conversion is calculated, and the coefficient value is calculated based on the calculated diameter of each circle. Calculate.
  • the chromatic aberration of magnification is corrected based on three tips of the suction nozzles 66a to 66x held in the holders 65a to 65x, but the chromatic aberration of magnification is not limited to this. Of these, the chromatic aberration of magnification may be corrected based on three, for example, the center.
  • the chromatic aberration of magnification is mainly corrected as the chromatic aberration, but the same technical idea is used, that is, the correction of the axial chromatic aberration calculated using a predetermined color of the irradiation light as a reference color.
  • the axial chromatic aberration can also be corrected by the technical idea of correcting the axial chromatic aberration in the irradiation light of other colors.

Abstract

撮像装置と、部品保持具を有する保持ヘッドと、前記保持ヘッドを、少なくとも水平方向に移動させる移動装置と、前記部品保持具に向けて波長の異なる複数の光源の光を照射可能な照明装置と、制御装置と、を備え、前記制御装置は、前記部品保持具に対して波長の異なる光を照射し、前記部品保持具を撮像するように前記撮像装置に指示する撮像指示部と、前記撮像指示部により撮像された、波長の異なる光毎の撮像画像のうちのいずれか1つの撮像画像に基づいて、当該撮像画像の分解能を演算する第1演算部と、前記波長の異なる光毎の撮像画像に基づいて前記撮像装置のレンズ中心を演算する第2演算部と、前記第2演算部により演算された前記レンズ中心と前記撮像装置のカメラ中心との差分を前記撮像装置の固有値として記憶する記憶部と、を有する、作業機。

Description

作業機
 本開示は、回路基材に電子部品を実装する作業機に関するものである。
 特許文献1には、撮像に使用する複数の光源から選んだ1以上の光源の光に対する分解能の適正値を求め、その1以上の光源の光を保持部材に保持された被写体に照射してカメラで撮像し、これにより得られた画像を処理する際に上記分解能の適正値を利用するようにした撮像ユニットが記載されている。
国際公開番号 WO2019/111331 A1
 しかし、特許文献1に記載の撮像ユニットでは、上記分解能の適正値は、撮像ユニットが取り付けられた部品実装機とは別のオフライン撮像機を用いて取得するので、オフライン撮像機を製造する手間とコストが増大する。
 そこで、本開示は、作業機とは別の装置を用いることなく、部品を撮像した画像に含まれる色収差を補正することが可能となる作業機を提供することを説明とする。
 本開示の作業機は、撮像装置と、部品保持具を有する保持ヘッドと、保持ヘッドを、少なくとも水平方向に移動させる移動装置と、部品保持具に向けて波長の異なる複数の光源の光を照射可能な照明装置と、制御装置と、を備え、制御装置は、部品保持具に対して波長の異なる光を照射し、部品保持具を撮像するように撮像装置に指示する撮像指示部と、撮像指示部により撮像された、波長の異なる光毎の撮像画像のうちのいずれか1つの撮像画像に基づいて、当該撮像画像の分解能を演算する第1演算部と、波長の異なる光毎の撮像画像に基づいて、撮像装置のレンズ中心を演算する第2演算部と、第2演算部により演算されたレンズ中心と撮像装置のカメラ中心との差分を撮像装置の固有値として記憶する記憶部と、を有する。
 本開示によれば、作業機とは別の装置を用いることなく、部品を撮像した画像に含まれる色収差を補正することが可能となる。
部品実装機を示す斜視図である。 部品実装機の部品装着装置を示す斜視図である。 パーツカメラを示す概略図である。 部品実装機の備える制御装置を示すブロック図である。 軸上色収差((a))及び倍率色収差((b))を説明するための図である。 ヘッドの下面((a))と、その撮像画像((b))を示す図である。 図4の制御装置が備えるコントローラが実行するキャリブレーション処理の手順を示すフローチャートである。
 以下、本開示の実施の形態を図面に基づいて詳細に説明する。
 図1は、本開示の一実施の形態に係る部品実装機10を示している。部品実装機10は、回路基材12に対する部品の実装作業を実行するための装置である。部品実装機10は、装置本体20、基材搬送保持装置22、部品装着装置24、マークカメラ26、パーツカメラ140、部品供給装置30、ばら部品供給装置32、制御装置34(図4参照)を備えている。なお、回路基材12として、回路基板、三次元構造の基材等が挙げられ、回路基板として、プリント配線板、プリント回路板等が挙げられる。
 装置本体20は、フレーム部40と、そのフレーム部40に上架されたビーム部42とによって構成されている。基材搬送保持装置22は、フレーム部40の前後方向の中央に配設されており、搬送装置50とクランプ装置52とを有している。搬送装置50は、回路基材12を搬送する装置であり、クランプ装置52は、回路基材12を保持する装置である。これにより、基材搬送保持装置22は、回路基材12を搬送するとともに、所定の位置において、回路基材12を固定的に保持する。
 なお、以下の説明において、回路基材12の搬送方向をX方向と称し、その方向に直角な水平の方向をY方向と称し、鉛直方向をZ方向と称する。つまり、部品実装機10の幅方向は、X方向であり、前後方向は、Y方向である。
 部品装着装置24は、ビーム部42に配設されており、2台の作業ヘッド60,62と作業ヘッド移動装置64とを有している。各作業ヘッド60,62の下端面には、図2に示すように、吸着ノズル66が設けられており、その吸着ノズル66によって部品を吸着保持する。
 図6(a)は、一方の作業ヘッド、例えば作業ヘッド60の下端面を下方向から上方向に見た図を示している。作業ヘッド60の下端面61は、図6(a)に示すように円盤状に形成され、その外周部には、24個のホルダ65a~65xが等間隔に配置されている。ホルダ65a~65xはそれぞれ、1つの吸着ノズル66を保持するためのものである。なお、各ホルダ65には、第1番目のホルダから第24番目のホルダまで時計方向に65a~65xの符号が付けられている。同様に、各吸着ノズル66にも、第1番目のノズルから第24番目のノズルまで時計方向に66a~66xの符号が付けられている。但し、図6(a)には、ホルダ65と吸着ノズル66の符号として、本実施形態を説明をする上で必要なものについてのみ明示されている。
 下端面61全体と個々の各吸着ノズル66とは、図示しないモータを駆動源とする回転装置によってそれぞれ回転し、吸着保持した部品の外周部上の位置と、その位置での方向とを変更することができるように構成されている。
 なお、下端面61の中心には、基準マークMが付けられている。基準マークMは、4個の小円を含む円により形成されている。基準マークMの利用方法については、後述する。
 また、作業ヘッド移動装置64は、X方向移動装置68とY方向移動装置70とZ方向移動装置72とを有している。そして、X方向移動装置68とY方向移動装置70とによって、2台の作業ヘッド60,62は、一体的にフレーム部40上の任意の位置に移動することができる。また、各作業ヘッド60,62は、スライダ74,76に着脱可能に装着されており、Z方向移動装置72は、スライダ74,76を個別に上下方向に移動させる。つまり、作業ヘッド60,62は、Z方向移動装置72によって、個別に上下方向に移動することができる。
 マークカメラ26は、下方を向いた状態でスライダ74に取り付けられており、作業ヘッド60とともに、X方向,Y方向及びZ方向に移動することができる。これにより、マークカメラ26は、フレーム部40上の任意の位置を撮像する。パーツカメラ140は、図1に示すように、フレーム部40上の基材搬送保持装置22と部品供給装置30との間に、上を向いた状態で配設されている。これにより、パーツカメラ140は、作業ヘッド60,62の吸着ノズル66に保持された部品を撮像する。
 詳しくは、パーツカメラ140は、図3に示すように、照明部141と、撮像部149とを備えている。パーツカメラ140は、パーツカメラ140の上方が撮像範囲であり、吸着ノズル66a~66xに保持された部品を下方から撮像して撮像画像を生成する。
 照明部141は、撮像対象の部品に対して光を照射する。この照明部141は、ハウジング142と、連結部143と、落射光源144と、ハーフミラー146と、多段光源147と、を備えている。
 ハウジング142は、上面及び下面(底面)が八角形状に開口した椀状の部材である。ハウジング142は、下面の開口よりも上面の開口の方が大きく、下面から上面に向かって内部空間が大きくなる傾向の形状をしている。
 連結部143は、ハウジング142と撮像部149とを連結する筒状の部材である。
 落射光源144は、LED145を複数有している。
 ハーフミラー146は、落射光源144のLED145からの水平方向の光を上方に反射する。また、ハーフミラー146は、上方からの光については撮像部149に向けて透過する。
 多段光源147は、上段光源147aと、中段光源147bと、下段光源147cとを備えている。上段光源147aは、複数のLED148aを有し、中段光源147bは、複数のLED148bを有し、下段光源147cは、複数のLED148cを有している。LED148a~148cは、いずれも光軸149aから傾斜した方向に光を照射する。LED148a~148cの照射方向の光軸149aからの傾斜角は、LED148aが最も大きく、LED148aは、ほぼ水平方向に光を照射する。また、この傾斜角は、LED148cが最も小さくなっている。上段光源147aは、ほぼ水平方向に光を照射することから側射光源と称し、中段光源147bは、斜め上向きに光を照射することから傾斜光源と称する。
 本実施形態では、上段光源147aのLED148aは、青色LEDであり、中段光源147bのLED148b、下段光源147cのLED148c及び落射光源144のLED145が赤色LEDである。
 撮像部149は、受光した光に基づいて撮像画像を生成する。この撮像部149は、図示しないレンズなどの光学系及び撮像素子(例えば、CCD(Charge Coupled Device))を備えている。
 落射光源144及び多段光源147から発せられ、撮像対象の部品で反射した後の光がハーフミラー146を透過して撮像部149に到達すると、撮像部149は、この光を受光して撮像画像を生成する。
 部品供給装置30は、フレーム部40の前後方向での第1端部に配設されている。部品供給装置30は、トレイ型部品供給装置78とフィーダ型部品供給装置80(図4参照)とを有している。トレイ型部品供給装置78は、トレイ上に載置された状態の部品を供給する装置である。フィーダ型部品供給装置80は、テープフィーダ、スティックフィーダ(図示省略)によって部品を供給する装置である。
 ばら部品供給装置32は、フレーム部40の前後方向での第2端部に配設されている。ばら部品供給装置32は、ばらばらに散在された状態の複数の部品を整列させて、整列させた状態で部品を供給する装置である。つまり、任意の姿勢の複数の部品を、所定の姿勢に整列させて、所定の姿勢の部品を供給する装置である。なお、部品供給装置30及びばら部品供給装置32によって供給される部品として、電子回路部品,太陽電池の構成部品,パワーモジュールの構成部品等が挙げられる。また、電子回路部品には、リードを有する部品,リードを有さない部品等がある。
 制御装置34は、図4に示すように、コントローラ82、複数の駆動回路86、画像処理装置88を備えている。複数の駆動回路86は、上記搬送装置50、クランプ装置52、作業ヘッド60,62、作業ヘッド移動装置64、トレイ型部品供給装置78、フィーダ型部品供給装置80、ばら部品供給装置32に接続されている。コントローラ82は、CPU(Central Processing Unit),ROM(Read Only Memory),RAM(Random Access Memory)等を備え、コンピュータを主体とするものであり、複数の駆動回路86に接続されている。これにより、基材搬送保持装置22、部品装着装置24、及び部品供給装置30等の作動が、コントローラ82によって制御される。また、コントローラ82は、画像処理装置88にも接続されている。画像処理装置88は、マークカメラ26及びパーツカメラ140によって得られた撮像画像を処理するものであり、コントローラ82は、撮像画像から各種情報を取得する。
 次に、色収差について説明する。色収差には、軸上色収差と倍率色収差の2つがある。
 軸上色収差とは、光軸上では光軸に対して平行な光が波長による屈折率の違いにより像が一点に結ばれない現象をいう。具体的には、図5(a)に示すように、青色光であれば手前側、赤色光であれば奥手側に結像する。
 一方、倍率色収差とは、光軸に対して斜めに入射した光が像面の異なる位置に像を結んでしまうことにより画像周辺ほど色ずれが発生する現象をいう。具体的には、図5(b)に示すように、焦点の距離が同じであっても、レンズの中心線からの距離が青色光と赤色光とで異なる。
 図6(b)は、図6(a)の下端面61をパーツカメラ140により撮像して得られた撮像画像を示している。図6(b)の撮像画像は、赤色LEDを発光したときに撮像して得られた撮像画像(以下、「第1撮像画像」という)と、青色LEDを発光したときに撮像して得られた撮像画像(以下、「第2撮像画像」という)とを合成した画像を示している。
 図6(b)において、円Crは、第1撮像画像に含まれるホルダ65ar~65xrの中心、つまり、吸着ノズル66ar~66xrの先端を連結して形成した円を示している。一方、円Cbは、第2撮像画像に含まれるホルダ65ab~65xbの中心、つまり、吸着ノズル66ab~66xbの先端を連結して形成した円を示している。円Crの直径と、円Cbの直径とは、倍率色収差の影響により異なっている。そして、倍率色収差はレンズ中心に向かって起きるので、図6(b)のように、レンズ中心Olとカメラ中心Ocとがずれている場合には、円Crの中心と円Cbの中心との間にずれが生ずる。したがって、例えば、第1撮像画像における第13番目の吸着ノズル66mrの先端と第2撮像画像における第13番目の吸着ノズル66mbの先端とのずれ幅は、第1撮像画像における第1番目の吸着ノズル66arの先端と第2撮像画像における第1番目の吸着ノズル66abの先端とのずれ幅に対して、大きくなっている。
 これとは逆に、レンズ中心Olとカメラ中心Ocとが一致している場合には、円Crの中心と円Cbの中心との間にずれは生じない。しかし、レンズ中心Olは見て分からないので、パーツカメラ140を組み立てるときに、レンズ中心Olをカメラ中心Ocに合わせることはしない。したがって、パーツカメラ140を含む、多くのカメラでは、レンズ中心とカメラ中心との間にずれが生じている。
 こうした色収差の影響は、レンズ設計で解消することができるが、本実施形態では、レンズ設計で解消するのではなく、キャリブレーションによって解消する。
 図7は、上記コントローラ82が実行するキャリブレーション処理の手順を示している。以降、各処理の手順の説明において、ステップを「S」と表記する。
 キャリブレーション処理は、色収差の影響を除去する必要があるとき、具体的には、作業ヘッド60,62を他の作業ヘッドと取り替えたときや、経年変化等により色収差の影響が異なるようになったときなどに、実行される。
 キャリブレーション処理が開始されると、まず、コントローラ82は、作業ヘッド60を撮像範囲150(図6(b)参照)に移動させるように、駆動回路86を介して作業ヘッド移動装置64に指示する(S10)。なお、キャリブレーション処理は、作業ヘッド60だけではなく、作業ヘッド62に対してもなされるが、本実施形態では説明の都合上、作業ヘッド60に対してのみなされることとする。
 次に、コントローラ82は、上記照明部141からの照射光の色を決定する(S12)。本実施形態では、照射光の色は、赤色と青色の2色とするが、これに限らず、赤色及び青色を同時に照射する場合を加えて3色としてもよいし、照明部141が4色以上の照射光を照射できるものであれば、4色以上としてもよい。
 次に、コントローラ82は、決定した色の照射光を作業ヘッド60の下端面61に照射するように、照明部141に指示する(S14)。
 次に、コントローラ82は、パーツカメラ140に撮像を指示する(S16)。これに応じて、パーツカメラ140は、撮像範囲150内に位置する作業ヘッド60の下端面61を撮像し、撮像画像を画像処理装置88に出力する。
 そして、コントローラ82は、画像処理装置88から撮像画像を読み出して、例えば上記RAMに一時的に記憶する(S18)。
 次に、コントローラ82は、未だ照射していない色の照射光があるか否かを判断する(S20)。照射光として、まず赤色を照射し、次に青色を照射するとすると、まだ青色の照射光が照射されていないので、S20の判断において、未だ照射していない色の照射光があると判断され(S20:NO)、コントローラ82は、処理をS12に戻す。
 そして、コントローラ82は、青色の照射光について、上記S12~S18の処理を実行する。この処理の実行後、S20の判断において、未だ照射していない色の照射光がないと判断され(S20:YES)、コントローラ82は、処理を次のS22に進める。
 S22では、各撮像画像、つまり、上記第1及び第2撮像画像について、所定の3点を通る円の中心と直径を算出する。ここで、所定の3点とは、本実施形態では、例えば、第1番目の吸着ノズル66aの先端、第13番目の吸着ノズル66mの先端、及び第19番目の吸着ノズル66sの先端にそれぞれ対応する、第1及び第2撮像画像内の点である。なお、3点を採るようにしたのは、1つの円が確定する最小条件を満たすためである。2点では、1つの円が確定されず、4点以上では、1つの円は確定するものの、1つの円を確定させる処理の時間が、3点を採る場合より長くなるからである。但し、採用する3点は、24個の吸着ノズル66a~66xの先端のうち、いずれの3点であってもよい。また、第1及び第2撮像画像にそれぞれ含まれる所定の3点の座標が分かれば、その座標から、その3点を通る各円の中心と直径は、公知の方法により簡単に算出できるので、その算出方法についての説明は省略する。
 次に、コントローラ82は、第1及び第2撮像画像において算出した各円の中心と直径に基づいて、レンズ中心Olを算出する(S24)。具体的には、コントローラ82は、各円の中心の移動方向及び移動量と直径の縮小量とを算出し、直径が“0”に収束したときに円の中心が移動する位置を算出し、これをレンズ中心Olとする。
 次に、コントローラ82は、算出したレンズ中心Olとカメラ中心Ocとの差分を算出し、例えばRAMに一時的に記憶する(S26)。
 次に、コントローラ82は、記憶した差分に基づいて、第1及び第2撮像画像において算出した各円をレンズ中心Olの各円に変換し、変換後の各円の直径を算出する(S28)。このようにレンズ中心Olの各円に変換するのは、上述のように、倍率色収差はレンズ中心Olに向かって起きるのに対して、上記S22で算出した各円はカメラ中心Ocにおける円であり、カメラ中心Ocにおける円では、倍率色収差の影響を正しく算出できないからである。
 S28の算出処理は、具体的には、記憶した差分を(Ax,Ay)とし、第1撮像画像に含まれる第1番目、第13番目及び第19番目の吸着ノズル66ar,66mr,66srの各先端の座標を(Rx1,Ry1),(Rx2,Ry2),(Rx3,Ry3)とし、第2撮像画像に含まれる第1番目、第13番目及び第19番目の吸着ノズル66ab,66mb,66sbの各先端の座標を(Bx1,By1),(Bx2,By2),(Bx3,By3)とする。これらの座標は、カメラ中心Ocにおける座標であるので、コントローラ82は、レンズ中心Olにおける座標に変換する。つまり、コントローラ82は、第1撮像画像における座標(Rx1,Ry1),(Rx2,Ry2),(Rx3,Ry3)については、(Rx1-Ax,Ry1-Ay),(Rx2-Ax,Ry2-Ay),(Rx3-Ax,Ry3-Ay)を算出し、第2撮像画像における座標(Bx1,By1),(Bx2,By2),(Bx3,By3)については、(Bx1-Ax,By1-Ay),(Bx2-Ax,By2-Ay),(Bx3-Ax,By3-Ay)を算出する。そして、コントローラ82は、変換後の3点を通る各円を決定し、その各円の直径を算出する。
 次に、コントローラ82は、照射光の所定の1色を基準色として、基準色の円の直径に対する他の色の円の直径の比の値を算出する(S30)。基準色が、例えば赤色の場合、コントローラ82は、第2撮像画像におけるカメラ中心Ocからレンズ中心Olに変換後の円の直径/第1撮像画像におけるカメラ中心Ocからレンズ中心Olに変換後の円の直径を算出する。
 次に、コントローラ82は、算出した比の値を係数値として、照射光と対応付けて記憶する(S32)。本実施形態では、比の値は、第2撮像画像、つまり青色の照射光での撮像画像における変換後の円の直径/第1撮像画像、つまり赤色の照射光での撮像画像における変換後の円の直径であるので、算出した比の値、つまり係数値は、青色と対応付けて記憶する。但し、係数値は、キャリブレーション処理が終了した後、次のキャリブレーション処理が実行されるまで、回路基材へ電子部品(以下、「部品」と略していう)を実装する際に利用されるので、制御装置34への電源供給が停止された場合でも、係数値の記憶が保持されるメモリに記憶することが好ましい。
 次に、コントローラ82は、上記基準マークM(図6(a)参照)が撮像範囲150の4隅のうちの1隅に位置するように作業ヘッド60を移動させる指示を、駆動回路86を介して作業ヘッド移動装置64に行う(S34)。
 次に、コントローラ82は、基準色の照射光を作業ヘッド60の下端面61に照射するように、照明部141に指示する(S36)。
 続くS38,S40の各処理はそれぞれ、上記S16,S18の各処理と同様であるので、その説明は省略する。
 そして、コントローラ82は、撮像範囲150において、基準マークMを位置させた1隅と、撮像範囲150の中心に対して点対称となる1隅の撮像画像を記憶したか否かを判断する(S42)。この判断において、まだ2隅の撮像画像を記憶していないと判断される場合(S42:NO)、コントローラ82は、処理をS34に戻す。
 そして、コントローラ82は、撮像範囲150におけるもう1隅に基準マークMを位置させた(S34)後、上記S36~S40の処理を実行する。この処理の実行後、S42の判断において、2隅の撮像画像を記憶したと判断され(S42:YES)、コントローラ82は、処理を次のS44に進める。
 S44では、コントローラ82は、記憶した2つの撮像画像に基づいて、基準色における分解能を算出し、記憶する。具体的には、コントローラ82は、撮像画像毎に基準マークMの中心の座標を取得し、各画像を端点とする線分の長さを算出する。そして、コントローラ82は、算出した線分の長さ/その線分に含まれるピクセル数を算出し、基準色、つまり本実施形態では、赤色の分解能として、記憶する。なお、基準色における分解能も、上記係数値と同様に、キャリブレーション処理が終了した後、次のキャリブレーション処理が実行されるまで、回路基材へ部品を実装する際に利用されるので、制御装置34への電源供給が停止された場合でも、係数値の記憶が保持されるメモリに記憶することが好ましい。
 S44の処理が終了すると、コントローラ82は、キャリブレーション処理を終了する。
 次に、キャリブレーション処理により記憶した係数値と基準色における分解能を、回路基材へ部品を実装する際にどのように利用するかを説明する。
 回路基材へ部品を実装する際には、上述のように、実装対象の部品を吸着ノズル66に保持し、保持した部品をパーツカメラ140により撮像する。そして、パーツカメラ140によって得られた撮像画像を画像処理することで、コントローラ82は、撮像画像に含まれる部品の画像から、吸着ノズル66の中心に対する部品の位置を認識する。なお、撮像画像内における吸着ノズル66の中心の位置は既知である。
 理論上、吸着ノズル66の中心は部品の所定の吸着位置(通常は部品の中心)と一致するはずである。しかし、部品の供給位置のずれ等により、吸着ノズル66の中心と部品の所定の吸着位置はずれて吸着される。したがって、コントローラ82は、部品の所定の吸着位置と吸着ノズル66の中心とのずれ量を認識する。そして、コントローラ82は、認識したずれ量を考慮して、部品が回路基材の指定位置の直上に配置されるように、駆動回路86を制御する。ここで、パーツカメラ140によって撮像された撮像画像の分解能は、照射光の色により異なる。具体的には、1ピクセルに相当する実際の距離が、照射光の色によって異なる。このため、コントローラ82は、認識したずれ量を、照射光の色に応じた分解能を用いて、実際の距離に変換して、駆動回路86を制御する。
 照射光の色が基準色である場合、コントローラ82は、基準色における分解能を用いて、認識したずれ量を実際の距離に変換する。一方、照射光の色が基準色と異なる場合、コントローラ82は、その照射光の色と対応付けて記憶した係数値を基準色における分解能に乗算して得られた分解能を用いて、認識したずれ量を実際の距離に変換する。
 以上説明したように、本実施形態の部品実装機10は、パーツカメラ140と、吸着ノズル66を有する作業ヘッド60,62と、作業ヘッド60,62を、少なくとも水平方向に移動させるX方向移動装置68及びY方向移動装置70と、吸着ノズル66に向けて波長の異なる複数の光源の光を照射可能な照明部141と、コントローラ82と、を備えている。
 そして、コントローラ82は、吸着ノズル66に対して波長の異なる光を照射し、吸着ノズル66を撮像するようにパーツカメラ140に指示する撮像指示部160と、撮像指示部160により撮像された、波長の異なる光毎の撮像画像のうちのいずれか1つの撮像画像に基づいて、当該撮像画像の分解能を演算する第1演算部162と、波長の異なる光毎の撮像画像に基づいてパーツカメラ140のレンズ中心を演算する第2演算部164と、第2演算部164により演算されたレンズ中心とパーツカメラ140のカメラ中心との差分をパーツカメラ140の固有値として記憶する記憶部166と、を有する。
 このように、本実施形態の部品実装機10では、部品実装機10とは別の装置を用いることなく、部品を撮像した画像に含まれる色収差を補正することが可能となる。
 ちなみに、本実施形態において、部品実装機10は、「作業機」の一例である。吸着ノズル66は、「部品保持具」の一例である。作業ヘッド60,62は、「保持ヘッド」の一例である。X方向移動装置68、Y方向移動装置70及びZ方向移動装置72は、「移動装置」の一例である。パーツカメラ140は、「撮像装置」の一例である。照明部141は、コントローラ82は、「制御装置」の一例である。
 また、コントローラ82はさらに、記憶部166により記憶された固有値に基づいて、波長の異なる光毎の撮像画像のうち、分解能の演算基とする撮像画像以外の撮像画像の分解能を演算するための係数値を演算する第3演算部168を有する。
 これにより、分解能の演算基とする撮像画像以外の撮像画像の分解能は、第3演算部168により演算された係数値を、分解能の演算基とする撮像画像の分解能に演算するだけで求まるので、波長の異なる光毎の撮像画像が複数あったとしても、1つの波長の光に対する撮像画像の分解能を演算するだけでよい。このため、演算処理を簡単化することができる。
 また、コントローラ82はさらに、第3演算部168により演算された係数値を、第1演算部162により演算された分解能に乗算することにより、分解能の演算基とする撮像画像以外の撮像画像の分解能を演算する第4演算部170と、第1及び第4演算部162,170により演算された分解能に基づいて、対応する撮像画像を補正する補正部172と、を有する。
 また、吸着ノズル66は、3つ以上の吸着ノズル66a~66xを含み、吸着ノズル66a~66xは、作業ヘッド60,62の下端面61の外周部に等間隔で配置され、第2演算部164は、波長の異なる光毎の撮像画像にそれぞれ含まれる吸着ノズル66ar~66xr,66ab~66xbのうち、少なくとも3つの吸着ノズル66ar,66mr,66sr,66ab,66mb,66sbに基づいて、パーツカメラ140のレンズ中心を演算する。
 これにより、パーツカメラ140のレンズ中心は、波長の異なる光毎の撮像画像のそれぞれについて、少なくとも3点のみ検出すれば演算できるので、画像処理を簡単化することができるとともに、演算処理も簡単化することができる。
 また、第2演算部164は、波長の異なる光毎の撮像画像のそれぞれに対して、少なくとも3つの吸着ノズル66ar,66mr,66sr,66ab,66mb,66sbの各先端を通る円Cr,Cbの中心及び直径を演算し、演算した各円Cr,Cbの中心及び直径に基づいて、パーツカメラ140のレンズ中心Olを演算する。
 また、第3演算部168は、波長の異なる光毎の撮像画像のそれぞれに対して、少なくとも3つの吸着ノズル66ar,66mr,66sr,66ab,66mb,66sbの各先端を、記憶部166により記憶された固有値に基づいてカメラ中心Ocからレンズ中心Olに変換し、変換後の少なくとも3つの吸着ノズルの各先端を通る各円の直径を演算し、演算した各円の直径に基づいて、係数値を演算する。
 なお、本発明は上記実施形態に限定されるものでなく、その趣旨を逸脱しない範囲で様々な変更が可能である。
 (1)上記実施形態では、作業ヘッド60として、下端面61に24個のホルダ65a~65xが等間隔に配置されているものを採用したが、ホルダ65は、少なくとも3つあればよい。
 (2)上記実施形態では、ホルダ65a~65xに保持された吸着ノズル66a~66xのうち、3つの先端に基づいて倍率色収差を補正するようにしたが、これに限らず、ホルダ65a~65xのうち、3つの、例えば中心に基づいて倍率色収差を補正するようにしてもよい。
 (3)上記実施形態では、色収差として、主に倍率色収差を補正するようにしたが、同様の技術的思想で、つまり、照射光の所定の1色を基準色として算出した軸上色収差の補正値に係数を乗算することにより、他の色の照射光における軸上色収差も補正するという技術的思想で、軸上色収差も補正することができる。
 10:部品実装機 60,62:作業ヘッド 66:吸着ノズル 68:X方向移動装置 70:Y方向移動装置 72:Z方向移動装置 82:コントローラ 140:パーツカメラ 141:照明部 149:撮像部。

Claims (6)

  1.  撮像装置と、
     部品保持具を有する保持ヘッドと、
     前記保持ヘッドを、少なくとも水平方向に移動させる移動装置と、
     前記部品保持具に向けて波長の異なる複数の光源の光を照射可能な照明装置と、
     制御装置と、
    を備え、
     前記制御装置は、
     前記部品保持具に対して波長の異なる光を照射し、前記部品保持具を撮像するように前記撮像装置に指示する撮像指示部と、
     前記撮像指示部により撮像された、波長の異なる光毎の撮像画像のうちのいずれか1つの撮像画像に基づいて、当該撮像画像の分解能を演算する第1演算部と、
     前記波長の異なる光毎の撮像画像に基づいて前記撮像装置のレンズ中心を演算する第2演算部と、
     前記第2演算部により演算された前記レンズ中心と前記撮像装置のカメラ中心との差分を前記撮像装置の固有値として記憶する記憶部と、
    を有する、
    作業機。
  2.  前記制御装置はさらに、
     前記記憶部により記憶された前記固有値に基づいて、前記波長の異なる光毎の撮像画像のうち、前記分解能の演算基とする撮像画像以外の撮像画像の分解能を演算するための係数値を演算する第3演算部
    を有する、
    請求項1に記載の作業機。
  3.  前記制御装置はさらに、
     前記第3演算部により演算された前記係数値を、前記第1演算部により演算された前記分解能に乗算することにより、前記分解能の演算基とする撮像画像以外の撮像画像の分解能を演算する第4演算部と、
     前記第1及び第4演算部により演算された分解能に基づいて、対応する前記撮像画像を補正する補正部と、
    を有する、
    請求項2に記載の作業機。
  4.  前記部品保持具は、3つ以上の部品保持具を含み、
     前記3つ以上の部品保持具は、前記保持ヘッドの下端面の外周部に等間隔で配置され、
     前記第2演算部は、前記波長の異なる光毎の撮像画像にそれぞれ含まれる前記3つ以上の部品保持具のうち、少なくとも3つの部品保持具に基づいて、前記撮像装置のレンズ中心を演算する、
    請求項1乃至3のいずれか1項に記載の作業機。
  5.  前記第2演算部は、前記波長の異なる光毎の撮像画像のそれぞれに対して、前記少なくとも3つの部品保持具の各先端を通る円の中心及び直径を演算し、演算した各円の中心及び直径に基づいて前記撮像装置のレンズ中心を演算する、
    請求項4に記載の作業機。
  6.  前記第3演算部は、前記波長の異なる光毎の撮像画像のそれぞれに対して、前記少なくとも3つの部品保持具の各先端を、前記記憶部により記憶された前記固有値に基づいて前記カメラ中心から前記レンズ中心に変換し、変換後の前記少なくとも3つの部品保持具の各先端を通る各円の直径を演算し、演算した前記各円の直径に基づいて前記係数値を演算する、
    請求項4又は5に記載の作業機。
PCT/JP2019/049403 2019-12-17 2019-12-17 作業機 WO2021124447A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2019/049403 WO2021124447A1 (ja) 2019-12-17 2019-12-17 作業機
EP19956844.5A EP4080868A4 (en) 2019-12-17 2019-12-17 WORK MACHINE
JP2021565206A JP7225433B2 (ja) 2019-12-17 2019-12-17 作業機

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/049403 WO2021124447A1 (ja) 2019-12-17 2019-12-17 作業機

Publications (1)

Publication Number Publication Date
WO2021124447A1 true WO2021124447A1 (ja) 2021-06-24

Family

ID=76477320

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/049403 WO2021124447A1 (ja) 2019-12-17 2019-12-17 作業機

Country Status (3)

Country Link
EP (1) EP4080868A4 (ja)
JP (1) JP7225433B2 (ja)
WO (1) WO2021124447A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012506060A (ja) * 2008-10-14 2012-03-08 サンフォード−バーナム メディカル リサーチ インスティテュート 多面画像取得に色収差を使用する自動化された走査型サイトメトリー
JP2012070046A (ja) * 2010-09-21 2012-04-05 Sony Corp 収差補正装置、収差補正方法、および、プログラム
JP2012198076A (ja) * 2011-03-18 2012-10-18 Ricoh Co Ltd カメラシミュレーション装置、カメラシミュレーション方法、及びカメラシミュレーションプログラム
WO2019111331A1 (ja) 2017-12-05 2019-06-13 株式会社Fuji 撮像ユニット及び部品実装機

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4010254B2 (ja) * 2003-02-06 2007-11-21 ソニー株式会社 画像記録再生装置、画像撮影装置及び色収差補正方法
JP2007003323A (ja) * 2005-06-23 2007-01-11 Fujifilm Holdings Corp 撮影システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012506060A (ja) * 2008-10-14 2012-03-08 サンフォード−バーナム メディカル リサーチ インスティテュート 多面画像取得に色収差を使用する自動化された走査型サイトメトリー
JP2012070046A (ja) * 2010-09-21 2012-04-05 Sony Corp 収差補正装置、収差補正方法、および、プログラム
JP2012198076A (ja) * 2011-03-18 2012-10-18 Ricoh Co Ltd カメラシミュレーション装置、カメラシミュレーション方法、及びカメラシミュレーションプログラム
WO2019111331A1 (ja) 2017-12-05 2019-06-13 株式会社Fuji 撮像ユニット及び部品実装機

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4080868A4

Also Published As

Publication number Publication date
EP4080868A1 (en) 2022-10-26
EP4080868A4 (en) 2023-01-04
JP7225433B2 (ja) 2023-02-20
JPWO2021124447A1 (ja) 2021-06-24

Similar Documents

Publication Publication Date Title
CN201787926U (zh) 一种在线锡膏印刷检测设备
KR101390890B1 (ko) 반도체 칩의 실장장치 및 실장방법
JP6522735B2 (ja) 部品実装機
CN107525463B (zh) 光干涉测定装置和光干涉测定方法
JP4607616B2 (ja) 画像取得方法、画像取得装置、表面実装機、プリント配線板用はんだ印刷機、ウエハチップ供給装置、電子部品移載装置および電子部品用外観検査装置
JP6461609B2 (ja) 干渉対物レンズ、および光干渉測定装置
WO2013094124A1 (ja) 部品撮像装置、およびこの部品撮像装置を備えた部品実装装置
TW201315554A (zh) 雷射加工裝置及雷射加工方法
JP6837161B2 (ja) 撮像ユニット及び部品実装機
JP7030497B2 (ja) 基板処理装置、基板処理装置の制御方法、プログラムを格納した記憶媒体
CN114160961A (zh) 用于标定激光加工参数的系统和方法
CN114439827A (zh) 摄像模组组装设备及组装方法
WO2021124447A1 (ja) 作業機
JP5759271B2 (ja) 電子部品実装装置
JP6231200B2 (ja) 部品実装装置およびテープフィーダ
JP7365487B2 (ja) 画像補正方法、撮像装置および検査装置
JP2006140391A (ja) 部品認識装置及び部品実装装置
JP6615321B2 (ja) 基板作業装置および部品実装装置
JP7271738B2 (ja) 撮像ユニット
JP2013096831A (ja) 部品実装基板生産装置、および、三次元形状測定装置
KR100604317B1 (ko) 전자부품 실장장치 및 이를 이용한 전자부품의 실장방법
JP7013564B2 (ja) 撮像ユニット及び部品実装機
JP6824716B2 (ja) 対基板作業装置
JP6482165B2 (ja) 認識装置および、認識方法
JP2005127836A (ja) 部品認識方法、部品認識装置、表面実装機、部品試験装置および基板検査装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19956844

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021565206

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019956844

Country of ref document: EP

Effective date: 20220718