WO2021044688A1 - 実装基板の製造方法および部品実装装置 - Google Patents

実装基板の製造方法および部品実装装置 Download PDF

Info

Publication number
WO2021044688A1
WO2021044688A1 PCT/JP2020/022605 JP2020022605W WO2021044688A1 WO 2021044688 A1 WO2021044688 A1 WO 2021044688A1 JP 2020022605 W JP2020022605 W JP 2020022605W WO 2021044688 A1 WO2021044688 A1 WO 2021044688A1
Authority
WO
WIPO (PCT)
Prior art keywords
component
unit
mounting
external
feature
Prior art date
Application number
PCT/JP2020/022605
Other languages
English (en)
French (fr)
Inventor
昭一 西
角 英樹
村田 浩
浩二 桜井
市川 健一
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to JP2021543955A priority Critical patent/JPWO2021044688A1/ja
Priority to EP20860268.0A priority patent/EP4027765A4/en
Priority to US17/637,101 priority patent/US20220287212A1/en
Priority to CN202080061156.4A priority patent/CN114375617A/zh
Publication of WO2021044688A1 publication Critical patent/WO2021044688A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/081Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines
    • H05K13/0813Controlling of single components prior to mounting, e.g. orientation, component geometry
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/089Calibration, teaching or correction of mechanical systems, e.g. of the mounting head
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/081Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines
    • H05K13/0812Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines the monitoring devices being integrated in the mounting machine, e.g. for monitoring components, leads, component placement
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/081Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines
    • H05K13/0815Controlling of component placement on the substrate during or after manufacturing

Definitions

  • This disclosure relates to a method for manufacturing a mounting board for mounting components on a board and a component mounting device.
  • a mounting board in which a plurality of light emitting parts such as LEDs (Light Emitting Diodes) are mounted side by side on the board, such as a lighting board of a liquid crystal panel, is manufactured by a component mounting device (see, for example, Patent Document 1). ).
  • the light emitting component supplied by the tape feeder is taken out by the suction nozzle, and the light emitting component held by the suction nozzle is imaged from below by the component camera to position the suction nozzle and the held light emitting component.
  • a lighting substrate is manufactured by repeating an operation of measuring a deviation, correcting the displacement, and mounting a light emitting component at a predetermined position on the substrate.
  • the mounting substrate manufacturing method of the present disclosure includes a first outer shape position acquisition step, a feature portion position acquisition step, a calculation step, a holding step, a second outer shape position acquisition step, and a mounting step.
  • the component In the first external position acquisition process, the component is imaged from the first direction to acquire the first external position of the component.
  • the part is imaged from the first direction and the position of the feature part formed on the part is acquired.
  • the amount of misalignment of the feature portion with respect to the first outer shape position is calculated from the first outer shape position and the position of the feature portion.
  • the parts are held by the holding member.
  • the part held by the holding member is imaged from a second direction different from the first direction, and the second outer shape position of the part is acquired.
  • the characteristic part of the component is mounted so as to be located on the target position of the board based on the second outer shape position and the amount of misalignment.
  • the component mounting device of the present disclosure includes a component supply mechanism, a first external position acquisition unit, a feature unit position acquisition unit, a misalignment amount calculation unit, a component mounting unit, a control unit, and a second external position acquisition unit. And have.
  • the parts supply mechanism supplies parts.
  • the first external position acquisition unit acquires the first external position of the component by imaging the component supplied by the component supply mechanism from the first direction.
  • the feature unit position acquisition unit acquires the position of the feature unit formed on the component by imaging the component supplied by the component supply mechanism from the first direction.
  • the position shift amount calculation unit calculates the position shift amount of the feature portion with respect to the first outer shape position from the first outer shape position and the position of the feature part.
  • the component mounting part holds the component with a holding member and mounts it on the board.
  • the control unit controls the operation of the component mounting unit.
  • the second outer shape position acquisition unit acquires the second outer shape position of the part by imaging the part held by the holding member from a second direction different from the first direction.
  • the control unit mounts the component on the component mounting unit so that the feature portion of the component is located on the target position of the board based on the second external position and the amount of misalignment.
  • FIG. 1 is a plan view of the component mounting device of the embodiment.
  • FIG. 2 is a configuration explanatory view of the component mounting device of the embodiment.
  • FIG. 3 is a configuration explanatory view of a head camera included in the component mounting device of the embodiment.
  • FIG. 4A is a plan view of a component mounted on a board by the component mounting device of the embodiment.
  • FIG. 4B is a side view of a component mounted on a board by the component mounting device of the embodiment.
  • FIG. 5A is an explanatory diagram in which a head camera captures a pocket pitch-fed to a component supply position of a tape feeder included in the component mounting device of the embodiment.
  • FIG. 5B is a structural explanatory view of a component tape pitch-fed to a component supply position of a tape feeder included in the component mounting device of the embodiment.
  • FIG. 6A is a diagram showing an example in which a component supplied by a tape feeder included in the component mounting device of the embodiment is imaged by a head camera while being illuminated by the first illumination.
  • FIG. 6B is a diagram showing an example in which a component supplied by the tape feeder included in the component mounting device of the embodiment is imaged by a head camera while being illuminated by the second illumination.
  • FIG. 7A is an explanatory diagram in which a component is imaged by a component camera included in the component mounting device of the embodiment.
  • FIG. 7B is a diagram showing an example of an image captured by a component camera included in the component mounting device of the embodiment.
  • FIG. 8 is a block diagram showing a configuration of a control system of the component mounting device of the embodiment.
  • FIG. 9A is a diagram showing an example of taking an image while illuminating with the first illumination by the head camera provided in the component mounting device of the embodiment.
  • FIG. 9B is a diagram showing an example in which an image is taken while being illuminated by the second illumination by the head camera provided in the component mounting device of the embodiment.
  • FIG. 9C is a diagram showing an example of re-imaging while illuminating with the first illumination by the head camera provided in the component mounting device of the embodiment.
  • FIG. 9A is a diagram showing an example of taking an image while illuminating with the first illumination by the head camera provided in the component mounting device of the embodiment.
  • FIG. 9B is a diagram showing an example in which an image is taken while being illuminated by the second illumination by the head camera provided in
  • FIG. 10 is an explanatory diagram of a correction value of a mounting position by the component mounting device of the embodiment.
  • FIG. 11A is a diagram showing an example of a component mounted on a substrate by the component mounting device of the embodiment.
  • FIG. 11B is a diagram showing an example of a component mounted on a board by the component mounting device of the embodiment.
  • FIG. 11C is a diagram showing an example of a component mounted on a board by the component mounting device of the embodiment.
  • FIG. 12 is a flow chart for one turn of the mounting substrate manufacturing method of the embodiment.
  • the two axial directions orthogonal to each other in the horizontal plane are the X direction of the substrate transport direction (horizontal direction in FIG. 1) and the Y direction orthogonal to the substrate transport direction (vertical direction in FIG. 1). Is shown.
  • the Z direction (vertical direction in FIG. 2) is shown as a height direction orthogonal to the horizontal plane.
  • the ⁇ direction which is the direction of rotation with the axis in the Z direction (Z axis) as the rotation axis, is shown.
  • FIG. 2 schematically shows a part of the component mounting device 1 in FIG.
  • the component mounting device 1 has a function of executing a component mounting operation of mounting a component supplied from the component supply unit 4 on a board.
  • a substrate transport mechanism 2 is arranged in the X direction at the center of the base 1a.
  • the board transfer mechanism 2 carries the board 3 transported from the upstream side to the mounting work position and positions and holds it. Further, the board transfer mechanism 2 carries out the board 3 for which the component mounting work has been completed to the downstream side.
  • Parts supply units 4 are arranged on both sides of the board transfer mechanism 2.
  • a plurality of tape feeders 5 are mounted in parallel on each component supply unit 4.
  • the tape feeder 5 is a mounting head described below by feeding a component tape having a pocket for storing the component D from the outside of the component supply unit 4 in a direction toward the substrate transport mechanism 2 (tape feed direction).
  • the component D is supplied to the component supply position 5a from which the component D is taken out.
  • the parts supply unit 4 includes a tray feeder that supplies parts D that are regularly placed on the tray in a grid pattern, and a bulk feeder that supplies parts D that are irregularly stacked on the tray. It may be attached.
  • the tape feeder 5, tray feeder, and bulk feeder are parts supply means (parts supply mechanism) for supplying parts.
  • Y-axis tables 6 provided with a linear drive mechanism are arranged along the Y direction at both ends in the X direction on the upper surface of the base 1a.
  • a beam 7 similarly provided with a linear drive mechanism is coupled to the Y-axis table 6 so as to be movable in the Y direction.
  • the beam 7 is arranged along the X direction.
  • a mounting head 8 is mounted on the beam 7 so as to be movable in the X direction.
  • the mounting head 8 includes a suction unit 8a that can suck and hold the component D and move up and down.
  • a suction nozzle 8b that sucks and holds the component D is attached to each lower end of the suction unit 8a.
  • the mounting head 8 may hold the component D with a pair of chucks that sandwich and hold the side surface of the component D. That is, the suction nozzle 8b and the pair of chucks are holding members for holding the component D.
  • the mounting head 8 moves in the X direction and the Y direction by driving the Y-axis table 6 and the beam 7. As a result, the mounting head 8 sucks and takes out the component D from the component supply position 5a of the tape feeder 5 arranged in the component supply unit 4 by the suction nozzle 8b, and mounts the substrate 3 positioned on the substrate transfer mechanism 2. Perform a mounting turn to mount in position. That is, the Y-axis table 6, the beam 7, and the mounting head 8 hold the component D supplied to the component supply position 5a of the tape feeder 5 (component supply means, component supply mechanism) by the suction nozzle 8b (holding member).
  • a component mounting means 9 (component mounting unit) to be mounted on the board 3 is configured.
  • a component recognition camera 10 is arranged between the component supply unit 4 and the board transfer mechanism 2.
  • the component recognition camera 10 takes an image of the component D held by the mounting head 8 and holds the component D in a holding posture. Recognize.
  • the head camera 11 is attached to the plate 7a to which the mounting head 8 is attached. The head camera 11 moves integrally with the mounting head 8.
  • the head camera 11 moves above the substrate 3 positioned on the substrate transport mechanism 2, images the substrate mark (not shown) provided on the substrate 3, and positions the substrate 3. Recognize. Further, the head camera 11 moves above the component supply position 5a of the tape feeder 5 and recognizes the state of the component tape near the component supply position 5a.
  • the mounting position is corrected by taking into consideration the recognition result of the component D by the component recognition camera 10, the recognition result of the component D by the head camera 11, and the recognition result of the board position. Is done.
  • a carriage 12 in which a plurality of tape feeders 5 are mounted in advance is set on the feeder base 12a of the parts supply unit 4.
  • the carriage 12 holds a tape reel 14 for storing the component tape 13 holding the component D in a wound state.
  • the component tape 13 drawn from the tape reel 14 is pitch-fed to the component supply position 5a by the tape feeder 5.
  • a touch panel 15 operated by the operator is installed at a position where the operator works on the front surface of the component mounting device 1.
  • Various information is displayed on the display unit of the touch panel 15.
  • the operator performs data input and operation of the component mounting device 1 by using the operation buttons displayed on the display unit.
  • a parts disposal unit 16 is installed next to the parts recognition camera 10.
  • a component D which is supplied from the component supply unit 4 such as a defective component but is not mounted on the substrate 3, is discarded to the component disposal unit 16.
  • the head camera 11 includes an image pickup unit 11a, a first illumination unit 11b, and a second illumination unit 11c.
  • the image pickup unit 11a is a camera installed with the optical axis 11d facing downward.
  • the first illumination unit 11b is arranged around the image pickup unit 11a, and the image pickup unit 11a illuminates the object to be imaged.
  • the first illumination unit 11b irradiates light having an angle and wavelength suitable for illuminating the component D.
  • the second illumination unit 11c is located around the image pickup unit 11a and is arranged outside the first illumination unit 11b when viewed from the optical axis 11d of the image pickup unit 11a, and the image pickup unit 11a illuminates the object to be imaged.
  • the second illumination unit 11c irradiates light suitable for illuminating the light emitting unit S (see FIG. 4) formed on the component D described later.
  • the second illumination unit 11c irradiates light having an angle and wavelength suitable for emitting the phosphor contained in the light emitting unit S.
  • the lighting conditions to be illuminated by the first lighting unit 11b and the second lighting unit 11c are changed according to the object to be imaged.
  • the head camera 11 illuminates only the first illumination unit 11b or only the second illumination unit 11c depending on the image pickup target.
  • the head camera 11 uses the first illuminating unit 11b and the second illuminating unit 11c at the same time, or illuminates by changing the intensity of the light emitted by the first illuminating unit 11b and the second illuminating unit 11c.
  • a light emitting portion S is formed on a part of the upper surface Du of the main body portion Dm of the component D.
  • the light emitting unit S is a characteristic unit having a function of emitting light when a voltage is applied to the component D from the outside.
  • the sealing resin Sr in which the phosphor is dispersed is poured into the cavity to form the light emitting portion S. .. Therefore, the position of the light emitting portion S in the component D varies from component D to component D.
  • FIG. 5A a pressing member 17 that guides the component tape 13 from above is arranged above the tape feeder 5.
  • the presser member 17 is provided with an opening 17a located at the component supply position 5a.
  • FIG. 5B shows a state in which the component tape 13 near the component supply position 5a is viewed from above, and the pressing member 17 is omitted.
  • the base tape 13a of the component tape 13 is formed with concave pockets 13b for storing the component D and feed holes 13c for engaging the sprocket (not shown) for pitch-feeding the component tape 13 at equal intervals.
  • a cover tape 13d is attached to the upper surface of the pocket 13b that houses the component D.
  • the cover tape 13d is peeled off at the edge 17b of the opening 17a and folded back.
  • the upper side of the pocket 13b on the downstream side (right side in FIG. 5A) including the component supply position 5a is opened.
  • the head camera 11 moves above the component supply position 5a (arrow a), passes through the opening 17a, and is a component stored in the pocket 13b of the component supply position 5a.
  • Image D is a component stored in the pocket 13b of the component supply position 5a.
  • FIGS. 6A and 6B an example of the captured image of the component D stored in the pocket 13b of the component supply position 5a, which is captured by the head camera 11, will be described.
  • 6A and 6B image the same component D under different lighting conditions.
  • An example is shown in which there is no relative misalignment between the component D and the head camera 11 stored in the pocket 13b, and there is no misalignment of the light emitting portion S in the component D.
  • the head camera 11 uses the imaging unit 11a to image the component D in the pocket 13b under the first lighting condition of the first lighting unit 11b.
  • the main body Dm of the component D that is, the outer shape of the component D is displayed.
  • the center 20c of the captured image 20 coincides with the center of the outer shape of the component D.
  • the center of the outer shape of the component D seen from above is referred to as "upper surface outer shape position Cd".
  • the center line 20x in the X direction and the center line 20y in the Y direction are superimposed and displayed.
  • the edge of the pocket 13b shown by the dotted line may also be captured, but for convenience, the display of the pocket 13b in the captured image is omitted.
  • the image pickup result by the head camera 11 is transferred to the control unit 30 included in the component mounting device 1, and is recognized by the recognition processing unit 31 (see FIG. 8) included in the control unit 30.
  • the recognition processing unit 31 recognizes the upper surface external position Cd and the posture (rotation angle ⁇ d in the horizontal plane) of the component D from the captured image 20.
  • the image pickup unit 11a, the first illumination unit 11b, and the recognition processing unit 31 take an image of the component D supplied by the component supply means (tape feeder 5) from the first direction (upper side), and the upper surface of the component D.
  • the first external position acquisition means images the component D in a state where the component D is illuminated under the first lighting condition.
  • the head camera 11 images the component D in the pocket 13b by the image pickup unit 11a under the second illumination condition of the second illumination unit 11c.
  • the light emitting unit S is displayed on the captured image 21.
  • the center line 21x in the X direction and the center line 21y in the Y direction are superimposed and displayed.
  • the recognition processing unit 31 recognizes the center of the light emitting unit S (hereinafter, referred to as “position Cs of the feature unit”) and the posture (rotation angle ⁇ s in the horizontal plane) from the captured image 21.
  • the image pickup unit 11a, the second illumination unit 11c, and the recognition processing unit 31 take an image of the component D supplied by the component supply means (tape feeder 5) from the first direction (upper side) and form the component D.
  • the feature unit position acquisition means images the component in a state where the component D is illuminated under the second illumination condition, which is a different illumination condition from the first illumination condition. Further, in the present embodiment, the first external position acquisition means and the feature portion position acquisition means share a camera (imaging unit 11a) for photographing the component D, and image the component D stored in the pocket 13b. ing. As a result, it is not necessary to move the head camera 11 between the imaging of the outer shape of the component D and the imaging of the light emitting unit S.
  • the present invention is not limited to this. That is, in the first illumination condition, the component D is illuminated with light having a wavelength suitable for illuminating at least the main body Dm of the component D, and in the second illumination condition, at least the light emitting unit S (feature portion) is illuminated.
  • the component D may be illuminated with light having a wavelength suitable for illuminating the component D.
  • the recognition operation of the part D by the part recognition camera 10 will be described with reference to FIG. 7.
  • the mounting head 8 that sucks and holds the component D by the suction nozzle 8b moves above the component recognition camera 10 in a predetermined direction (arrow b), it moves downward.
  • the lower surface Dd of the component D is imaged from the side.
  • FIG. 7B shows an example of the captured image 22 captured by moving the mounting head 8 so that the nozzle center Cn of the suction nozzle 8b coincides with the center 22c of the captured image 22.
  • the center line 22x in the X direction and the center line 22y in the Y direction are superimposed and displayed.
  • the intersection of the center line 22x in the X direction and the center line 22y in the Y direction is the center 22c of the captured image 22.
  • the imaging result is transferred to the control unit 30 and recognized and processed by the recognition processing unit 31, and the center position (hereinafter referred to as “lower surface outer shape position Ce”) and posture (rotation angle ⁇ e in the horizontal plane) of the component D). Is recognized.
  • the recognition processing unit 31 calculates the lower surface outer shape position Ce (Xe, Ye, ⁇ e) from the recognized lower surface outer shape position Ce.
  • the lower surface external position Ce (Xe, Ye, ⁇ e) is Y in the X direction of the center of the component D from the nozzle center Cn (center 22c of the captured image 22) of the suction nozzle 8b that is sucking the component D.
  • the position in the direction and the ⁇ direction is shown.
  • the component recognition camera 10 and the recognition processing unit 31 take an image of the component D held by the holding member (suction nozzle 8b) from a second direction (lower side) different from the first direction (upper side).
  • a second outer shape position acquisition means (second outer shape position acquisition unit) for acquiring the lower surface outer shape position Ce (second outer shape position) of the component D.
  • the component mounting device 1 includes a control unit 30, a board transfer mechanism 2, a tape feeder 5, a component mounting means 9, a component recognition camera 10, a head camera 11, and a touch panel 15.
  • the control unit 30 includes a recognition processing unit 31, a misalignment amount calculation unit 32, an external position fluctuation calculation unit 33, a correction value calculation unit 34, a mounting operation processing unit 35, and a mounting storage unit 36.
  • the mounting storage unit 36 is a storage device, and includes a mounting data storage unit 37, a recognition result storage unit 38, a misalignment amount storage unit 39, a fluctuation amount storage unit 40, a determination value storage unit 41, and a correction value storage unit 42. There is.
  • the mounting data storage unit 37 stores data such as a component mounting position Cf and a light emitting unit mounting position Cg (see FIG. 10) for each type of substrate 3 to be manufactured.
  • the component mounting position Cf is the mounting target position on the substrate 3 of the upper surface outer shape position Cd of the component D.
  • the light emitting portion mounting position Cg is a mounting target position on the substrate 3 of the position Cs of the feature portion of the component D.
  • the mounting data storage unit 37 stores the XY coordinates and the rotation angle ⁇ on the substrate 3 as the component mounting position Cf and the light emitting unit mounting position Cg.
  • the ideal position Cs0 (Xs0) of the feature unit as seen from the upper surface external position Cd of the component D. , Ys0) (see FIG. 10) is stored.
  • the recognition processing unit 31 controls the head camera 11 that has moved above the component supply position 5a of the tape feeder 5 to image the component D stored in the pocket 13b of the component tape 13, and captures the captured image. Is recognized and the upper surface outer shape position Cd of the component D and the position Cs of the feature portion are acquired. Further, the recognition processing unit 31 controls the component recognition camera 10 to image the lower surface Dd of the component D held by the suction nozzle 8b, recognizes the captured image, and processes the image to recognize the lower surface external position Ce, which is the center position of the component D. To get. The acquired upper surface outer shape position Cd, feature portion position Cs, and lower surface outer shape position Ce of the component D are stored in the recognition result storage unit 38.
  • FIG. 9A is an image captured image 23 in which the main body Dm of the component D is imaged by the imaging unit 11a in a state where the recognition processing unit 31 irradiates the component D under the first lighting condition illuminated by the first lighting unit 11b.
  • the recognition processing unit 31 recognizes the captured image 23 and acquires the upper surface outer shape position Cd1 (Xd1, Yd1, ⁇ d1) which is the position of the center of the component D as seen from the center 23c of the captured image 23. In this way, the first external position acquisition means (imaging unit 11a, first illumination unit 11b, recognition processing unit 31) acquires the upper surface external position Cd1 of the component D.
  • FIG. 9B is a captured image 24 in which the component D is imaged by the imaging unit 11a in a state where the recognition processing unit 31 irradiates the component D under the second lighting condition illuminated by the second lighting unit 11c.
  • the recognition processing unit 31 recognizes the captured image 24, and the position Cs1 (Xs1, Ys1, ⁇ s1) of the feature portion, which is the position of the center of the light emitting unit S formed on the component D as seen from the center 24c of the captured image 24. To get.
  • the feature unit position acquisition means (imaging unit 11a, second illumination unit 11c, recognition processing unit 31) acquires the position Cs1 of the feature unit.
  • FIG. 9C is an image 25 in which the main body Dm of the component D is imaged again by the first external position acquisition means after the position Cs1 of the feature portion is acquired, and the upper surface external position Cd2 (Xd2, Xd2) is taken from the image 25. Yd2, ⁇ d2) is acquired.
  • the acquired top surface external positions Cd1 and Cd2 of the component D and the position Cs1 of the feature portion are stored in the recognition result storage unit 38.
  • the misalignment amount calculation unit 32 is the position of the light emitting unit S with respect to the upper surface outer shape position Cd1 of the component D from the upper surface outer shape position Cd1 of the component D and the position Cs1 of the feature portion stored in the recognition result storage unit 38.
  • the deviation amount ⁇ Cs1 is calculated.
  • ⁇ s1 ⁇ s1- ⁇ d1 is calculated as the amount of misalignment ⁇ s in the ⁇ direction.
  • the misalignment amount calculation unit 32 is the feature unit (light emitting unit S) with respect to the top surface external position Cd1 from the top surface external position Cd1 (Xd1, Yd1, ⁇ d1) and the feature unit position Cs1 (Xs1, Ys1, ⁇ s1).
  • the misalignment amount ⁇ Cs1 (Xs1-Xd1, Ys1-Yd1, ⁇ s1- ⁇ d1) of The calculated misalignment amount ⁇ Cs1 is stored in the misalignment amount storage unit 39.
  • the external position variation calculation unit 33 re-acquires the upper surface external position of the component D from the upper surface external positions Cd1 and Cd2 of the component D stored in the recognition result storage unit 38 by the first external position acquisition means.
  • the outer shape position fluctuation amount ⁇ Cd2 which is the difference between the positions of Cd2 (first outer shape position) and the previously acquired upper surface outer shape position Cd1 (first outer shape position) of the component D, is calculated. That is, after acquiring the upper surface outer shape position Cd1 of the component D and the position Cs1 of the feature portion, the amount of fluctuation in which the imaging unit 11a and the component D move relatively while acquiring the upper surface outer shape position Cd2 of the component D is calculated. Will be done.
  • the external position fluctuation amount ⁇ Cd2 becomes large. ..
  • the calculated external position fluctuation amount ⁇ Cd2 (Xd2-Xd1, Yd2-Yd1, ⁇ d2- ⁇ d1) is stored in the fluctuation amount storage unit 40.
  • the correction value calculation unit 34 mounts the light emitting unit S (feature unit) of the component D held by the suction nozzle 8b (holding member) at the light emitting unit mounting position Cg stored in the mounting data storage unit 37.
  • the correction value ⁇ Cf ( ⁇ Xf, ⁇ Yf, ⁇ f) for this is calculated.
  • the correction value calculation unit 34 has the ideal position Cs0 (Xs0, Ys0) of the feature unit stored in the mounting data storage unit 37 and the position deviation amount ⁇ Cs (position deviation amount ⁇ Cs) stored in the position deviation amount storage unit 39.
  • the correction value ⁇ Cf ( ⁇ Xf, ⁇ Yf, ⁇ f) is calculated based on ⁇ Xs, ⁇ Ys, ⁇ s).
  • a component mounting position Cf and a light emitting unit mounting position Cg are set on the substrate 3 on which the component D is mounted.
  • the position of the light emitting portion mounting position Cg as seen from the component mounting position Cf is the ideal position Cs0 (Xs0, Ys0) of the feature portion (light emitting portion S of the component D).
  • the position Cs (Xs, Ys, ⁇ s) of the feature portion of the component D as viewed from the upper surface outer shape position Cd of the component D is the displacement amount ⁇ Cs ( ⁇ Xs, ⁇ Ys, ⁇ s) of the feature portion of the component D.
  • the calculated correction value ⁇ Cf ( ⁇ Xs ⁇ Xs0, ⁇ Ys ⁇ Ys0, ⁇ s) is stored in the correction value storage unit 42.
  • the mounting operation processing unit 35 controls the component mounting means 9 to hold the component D supplied by the tape feeder 5 (component supply means) by the suction nozzle 8b (holding member), and the substrate transfer mechanism 2 Controls the mounting operation of mounting on the board 3 positioned at. That is, the mounting operation processing unit 35 is a control unit that controls the operation of the component mounting means 9.
  • the mounting operation processing unit 35 stores the lower surface external position Ce (Xe, Ye, ⁇ e) of the component D held by the suction nozzle 8b stored in the recognition result storage unit 38 and the correction value storage unit 42.
  • the component D is mounted on the substrate 3 based on the corrected value ⁇ Cf ( ⁇ Xs-Xs0, ⁇ Ys-Ys0, ⁇ s) of the component D.
  • the position of the center of the component D as seen from the nozzle center Cn of the suction nozzle 8b holding the component D is the lower surface outer shape position Ce (Xe, Ye, ⁇ e).
  • the mounting operation processing unit 35 is based on the lower surface external position Ce (Xe, Ye, ⁇ e) and the correction value ⁇ Cf ( ⁇ Xs-Xs0, ⁇ Ys-Ys0, ⁇ s) of the component D held by the suction nozzle 8b.
  • the component D held by is mounted on the substrate 3.
  • the mounting operation processing unit 35 deviates from the component mounting position Cf set on the substrate 3 by the displacement amount ⁇ Cs ( ⁇ Xs) of the characteristic portion (light emitting unit S) of the component D held by the suction nozzle 8b. , ⁇ Ys, ⁇ s), the component D is placed on the substrate 3 so that the upper surface outer position Cd, which is the center of the component D, is located at the position corrected by the correction value ⁇ Cf ( ⁇ Xs ⁇ Xs0, ⁇ Ys ⁇ Ys0, ⁇ s).
  • the characteristic portion (light emitting portion S) of the component D is mounted so as to be positioned at the light emitting portion mounting position Cg set on the substrate 3 in the correct posture (rotation angle ⁇ s in the horizontal plane).
  • the mounting operation processing unit 35 (control unit) has the second outer shape position (lower surface outer shape position Ce (Xe, Ye,) acquired by the second outer shape position acquisition means (part recognition camera 10, recognition processing unit 31). Based on ⁇ e)) and the amount of misalignment ⁇ Cs ( ⁇ Xs, ⁇ Ys, ⁇ s), the component is mounted so that the characteristic portion (light emitting portion S) of the component D is located on the target position (light emitting portion mounting position Cg) of the substrate 3.
  • the means 9 is made to mount the component D.
  • the mounting of the component D by the mounting operation processing unit 35 is not limited to the correction using the above correction values ⁇ Cf ( ⁇ Xs ⁇ Xs0, ⁇ Ys ⁇ Ys0, ⁇ s), and other parameters are acquired and corrected. You may.
  • FIGS. 11A to 11C the deviation of the light emitting parts S3 to S5 formed on the parts D3 to D5 is corrected, and the light emitting parts S3 to S5 of the respective parts D3 to D5 are placed at the target position of the substrate 3 ( An example of mounting so as to be located at the light emitting portion mounting position Cg) will be described.
  • FIG. 11A is an example in which the light emitting portion S3 of the component D3 is formed at an ideal position on the main body portion Dm3.
  • the position Cs3 of the light emitting portion S3 of the component D3 is positioned at the light emitting portion mounting position Cg on the substrate 3.
  • FIG. 11B is an example in which the light emitting portion S4 of the component D4 is formed so as to be displaced in parallel from the ideal position on the main body portion Dm4.
  • the mounting operation processing unit 35 includes the upper surface external position Cd4 of the component D4 acquired by the first external position acquisition means (imaging unit 11a, first illumination unit 11b, recognition processing unit 31) and the feature unit position acquisition means (imaging unit). Based on the position shift amount ⁇ Cs4 calculated from the position Cs4 of the feature unit acquired by 11a, the second illumination unit 11c, and the recognition processing unit 31), the light emitting unit S4 of the component D4 is at the target position (light emitting unit) on the substrate 3.
  • the component D4 is mounted so as to be located above the mounting position Cg).
  • FIG. 11C is an example in which the light emitting portion S5 of the component D5 is formed by rotating with respect to the main body portion Dm5.
  • the mounting operation processing unit 35 includes the upper surface external position Cd5 of the component D5 acquired by the first external position acquisition means (imaging unit 11a, first illumination unit 11b, recognition processing unit 31) and the feature unit position acquisition means (imaging unit). Based on the position shift amount ⁇ Cs5 calculated from the position Cs5 of the feature unit acquired by 11a, the second illumination unit 11c, and the recognition processing unit 31), the light emitting unit S5 of the component D5 is at the target position (light emitting unit) on the substrate 3.
  • the component D5 is mounted so as to be located above the mounting position Cg).
  • the determination value storage unit 41 stores the fluctuation amount determination range Rd (for example, 10 ⁇ m or less).
  • the fluctuation amount determination range Rd means that the vibration of the head camera 11 (imaging unit 11a) that acquires the upper surface external position Cd of the component D has converged, or the position of the component D on the tape feeder 5 has not changed, or This is the determination range of the external position fluctuation amount ⁇ Cd for determining whether or not the camera has stopped.
  • the feature unit When the external position fluctuation amount ⁇ Cd calculated by the external position fluctuation calculation unit 33 is outside the fluctuation amount determination range Rd, that is, when the head camera 11 or the component D is still moving or the position of the component D is changed, the feature unit The position acquisition means again acquires the position Cs of the feature portion of the component D, and the first external position acquisition means subsequently acquires the upper surface external position Cd of the component D.
  • the mounting operation processing unit 35 is subjected to the component. D is held by the suction nozzle 8b, and the mounting operation of mounting on the substrate 3 is executed.
  • the difference in position (external position fluctuation amount ⁇ Cd) calculated by the external position fluctuation calculation unit 33 is outside the predetermined range (variation amount determination range Rd)
  • the feature unit position acquisition means again performs the same. The position Cs of the feature portion (light emitting portion S) of the component D is acquired.
  • the control unit (mounting operation processing unit 35) holds the control unit.
  • the member (suction nozzle 8b) holds the component D.
  • the mounting operation processing unit 35 determines whether or not the relative position of the head camera 11 with respect to the component D is stable based on the external position fluctuation amount ⁇ Cd, and until the relative position is stable (outside the fluctuation amount determination range Rd). The acquisition of the position Cs of the feature portion and the outer shape position Cd of the upper surface is repeated. Then, when the relative position becomes stable (within the fluctuation amount determination range Rd), the mounting operation processing unit 35 takes out the component D from the component supply position 5a by the suction nozzle 8b. As a result, the measurement error of the misalignment amount ⁇ Cs can be reduced, and the position of the light emitting portion S of the component D (light emitting component) can be accurately mounted on the substrate 3.
  • the determination value storage unit 41 stores the position deviation amount determination range Rs, which is the allowable range of the position deviation amount ⁇ Cs, which is the position Cs of the feature portion with respect to the upper surface external position Cd of the component D.
  • the component D whose misalignment amount ⁇ Cs is outside the misalignment amount determination range Rs is not mounted on the substrate 3. That is, when the misalignment amount ⁇ Cs is larger than the predetermined range (position misalignment amount determination range Rs), the mounting operation processing unit 35 (control unit) does not hold the component D in the suction nozzle 8b (holding member). A warning to that effect is displayed on the touch panel 15.
  • the mounting operation processing unit 35 takes out the component D by the suction nozzle 8b and causes the component disposal unit 16 to dispose of the component D.
  • the component mounting means 9 transfers the component D from the tape feeder 5 (component supply means) with reference to FIGS. 7, 9, and 10.
  • the mounting operation processing unit 35 controls the component mounting means 9, and the head camera 11 is stored in the pocket 13b of the component tape 13 at the component supply position 5a of the tape feeder 5. Move it upward (ST1: Head camera moving process).
  • the imaging unit 11a images the component D from above (first direction), and the recognition processing unit 31 recognizes the captured image 23 (FIG. 9A).
  • the imaging unit 11a images the component D from above (first direction), and the recognition processing unit 31 recognizes the captured image 24 (FIG. 9B).
  • the recognition processing unit 31 recognizes the captured image 24 (FIG. 9B).
  • the component D is imaged while the component D is illuminated under the first lighting condition.
  • the feature portion position acquisition step (ST3) the component D is imaged in a state where the component D is illuminated under the second illumination condition, which is a different illumination condition from the first illumination condition.
  • the position shift amount calculation unit 32 calculates the position shift amount ⁇ Cs (FIG. 10) of the feature portion (light emitting unit S) with respect to the top surface outer shape position Cd1 from the upper surface outer shape position Cd1 and the position Cs1 of the feature portion.
  • ST4 Position deviation amount calculation process
  • the calculated misalignment amount ⁇ Cs is stored in the misalignment amount storage unit 39.
  • the imaging unit 11a further images the component D from above, and the recognition processing unit 31 recognizes the captured image 25 (FIG. 9C) to process the top surface of the component D.
  • Acquire the position Cd2 (ST5: third external position acquisition step). That is, after the feature portion position acquisition step (ST3), the component D is further imaged to acquire the upper surface external position Cd2 (first external position) of the component D.
  • the outer shape position fluctuation calculation unit 33 has the upper surface outer shape position Cd1 (first outer shape position) acquired in the first outer shape position acquisition step (ST2) and the upper surface outer shape position acquired in the third outer shape position acquisition step (ST5).
  • the difference in position from Cd2 (first external position) is calculated, and it is determined whether or not the external position fluctuation amount ⁇ Cd is within a predetermined range (variation amount determination range Rd) (ST6). : Fluctuation amount determination process).
  • the feature portion position acquisition step (ST3) is executed again for the component D.
  • the position shift amount ⁇ Cs stored in the position shift amount storage unit 39 is within a predetermined range (Yes in ST6). It is determined whether or not it is within the misalignment amount determination range Rs) (ST7: misalignment amount determination step).
  • the mounting operation processing unit 35 causes the component D to be discarded by the component disposal unit 16 (ST8: component). Disposal process). After that, the new component D is supplied to the component supply position 5a of the tape feeder 5, and the first external position acquisition step (ST2) is executed for the new component D.
  • the mounting operation processing unit 35 may display a warning to that effect on the touch panel 15. That is, when the misalignment amount ⁇ Cs is larger than the predetermined range (position misalignment amount determination range Rs), the holding member (suction nozzle 8b) does not hold the component D. After that, the operator determines whether to discard the component D or mount the component D as it is on the substrate 3, and gives an instruction to the component mounting device 1.
  • the mounting operation processing unit 35 (control unit) is a component of the suction nozzle 8b (holding member). D is held (ST9: parts holding step). That is, when the external position fluctuation amount ⁇ Cd is within a predetermined range (fluctuation amount determination range Rd) (Yes in ST6) and the position deviation amount ⁇ Cs is within a predetermined range (position deviation amount determination range Rs). (Yes in ST7), the suction nozzle 8b holds the component D to be mounted on the substrate 3 (ST9).
  • the component recognition camera 10 takes an image of the component D held by the holding member (suction nozzle 8b) from a second direction (lower) different from the first direction (upper), and the recognition processing unit 31 captures the captured image 22 ( FIG. 7B) is recognized and the lower surface outer shape position Ce (second outer shape position) of the component D is acquired (ST10: second outer shape position acquisition step).
  • the acquired lower surface outer shape position Ce is stored in the recognition result storage unit 38.
  • the correction value calculation unit 34 determines the correction value ⁇ Cf (FIG. 6) based on the ideal position Cs0 of the feature unit stored in the mounting data storage unit 37 and the position deviation amount ⁇ Cs stored in the position deviation amount storage unit 39. 10) is calculated (ST11: correction value calculation step).
  • the mounting operation processing unit 35 controls the component mounting means 9 to obtain the lower surface external position Ce (second external position) of the component D acquired in the second external position acquisition step (ST10) and the correction value. Based on the correction value ⁇ Cf calculated from the misalignment amount ⁇ Cc in the calculation step (ST11), the characteristic portion (light emitting portion S) of the component D is positioned on the target position (light emitting portion mounting position Cg) of the substrate 3.
  • the component D supplied from the tape feeder 5 is taken out by the suction nozzle 8b and mounted so that the light emitting portion S of the component D is located at the target position of the substrate 3.
  • the component D mounted on the substrate 3 using the mounting substrate manufacturing method of the present embodiment is not limited to the component D supplied from the tape feeder 5.
  • the component D may be supplied by a component supply means such as a tray feeder or a bulk feeder. Further, the component D may be transferred from the component supply means onto the temporary storage table provided in the component mounting device 1.
  • the feature portion position acquisition step (ST3) it is preferable to illuminate with blue light in a wavelength region of about 400 nm to 500 nm as a second illumination condition.
  • a second illumination condition is not limited to this, and the angle and wavelength band may be appropriately selected depending on the type of the component D and the type of the phosphor contained in the light emitting unit S.
  • the mounting substrate manufacturing method of the present embodiment includes a first external position acquisition step (ST2), a feature portion position acquisition step (ST3), a calculation step (ST4), and a holding step (ST9). ), A second external position acquisition step (ST10), and a mounting step (ST12).
  • the component D is imaged from the first direction (above) to acquire the upper surface external position Cd (first external position) of the component D.
  • the position Cs of the feature portion formed on the component D is acquired.
  • the displacement amount ⁇ Cs of the feature portion is calculated from the outer surface position Cd of the upper surface and the position Cs of the feature portion.
  • the part D is held by the holding member (suction nozzle 8b).
  • the part D held by the holding member is imaged from the second direction (lower side), and the lower surface outer shape position Ce (second outer shape position) of the part D is acquired.
  • the feature portion of the component D is mounted so as to be located on the target position (light emitting portion mounting position Cg) of the substrate 3 based on the acquired lower surface outer shape position Ce and the displacement amount ⁇ Cs. To do.
  • the position of the light emitting portion S of the component D (light emitting component) can be mounted on the substrate 3 with high accuracy.
  • the position of the light emitting part of the light emitting component can be accurately mounted on the substrate.
  • the mounting substrate manufacturing method and component mounting device of the present disclosure have the effect of being able to accurately mount the position of the light emitting portion of the light emitting component on the substrate, and are useful in the field of mounting the component on the substrate.
  • Parts mounting device 1a Base 2 Board transfer mechanism 3 Board 4 Parts supply unit 5 Tape feeder (parts supply means) 5a Parts supply position 6-axis table 7 Beam 7a Plate 8 Mounting head 8a Suction unit 8b Suction nozzle (holding member) 9 Parts mounting means 10 Parts recognition camera (second external position acquisition means) 11a Imaging unit (first external position acquisition means, feature position acquisition means, camera) 11b 1st lighting unit (1st external position acquisition means) 11c Second lighting unit (feature unit position acquisition means) 11d Optical axis 12 Cart 12a Feeder base 13 Parts tape 13a Base tape 13b Pocket 13c Hole 13d Cover tape 14 Tape reel 15 Touch panel 16 Parts disposal part 17 Member 17a Opening 17b Edge 20 Image 20c Center 20x Center line 20y Center line 21 Captured image 21x Centerline 21y Centerline 22 Captured image 22c Center 22x Centerline 22y Centerline 23 Captured image 23c Center 24 Captured image 24c Center 25 Captured image 30 Control unit 31 Recognition processing unit 32 Quantity calculation unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Operations Research (AREA)
  • Manufacturing & Machinery (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Supply And Installment Of Electrical Components (AREA)

Abstract

実装基板の製造方法は、第1外形位置取得工程と、特徴部位置取得工程と、算出工程と、保持工程と、第2外形位置取得工程と、実装工程と、を有する。第1外形位置取得工程では、部品の第1外形位置を取得する。特徴部位置取得工程では、特徴部の位置を取得する。算出工程では、第1外形位置に対する特徴部の位置ずれ量を算出する。第2外形位置取得工程では、部品の第2外形位置を取得する。実装工程では、第2外形位置と、位置ずれ量とに基づき、部品の特徴部を基板の目標位置上に位置するように実装する。

Description

実装基板の製造方法および部品実装装置
 本開示は、基板に部品を実装する実装基板の製造方法および部品実装装置に関する。
 従来、液晶パネルの照明基板のように、基板にLED(Light Emitting Diode)などの発光部品を複数並べて実装した実装基板を部品実装装置で製造することが行われている(例えば、特許文献1参照)。特許文献1に記載の部品実装装置では、テープフィーダが供給する発光部品を吸着ノズルで取り出し、部品カメラで吸着ノズルが保持した発光部品を下方から撮像して吸着ノズルと保持された発光部品の位置ずれを計測し、その位置ずれを補正して基板上の所定の位置に発光部品を実装する動作を繰り返して照明基板が製造されている。
特開2013-214781号公報
 本開示の実装基板の製造方法は、第1外形位置取得工程と、特徴部位置取得工程と、算出工程と、保持工程と、第2外形位置取得工程と、実装工程と、を有する。
 第1外形位置取得工程では、部品を第1の方向から撮像して、部品の第1外形位置を取得する。
 特徴部位置取得工程では、部品を第1の方向から撮像して、部品に形成された特徴部の位置を取得する。
 算出工程では、第1外形位置と特徴部の位置とから、第1外形位置に対する特徴部の位置ずれ量を算出する。
 保持工程では、部品を保持部材で保持する。
 第2外形位置取得工程では、保持部材で保持された部品を第1の方向と異なる第2の方向から撮像して、部品の第2外形位置を取得する。
 実装工程では、第2外形位置と、位置ずれ量とに基づき、部品の特徴部を基板の目標位置上に位置するように実装する。
 本開示の部品実装装置は、部品供給機構と、第1外形位置取得部と、特徴部位置取得部と、位置ずれ量算出部と、部品実装部と、制御部と、第2外形位置取得部と、を有する。
 部品供給機構は、部品を供給する。
 第1外形位置取得部は、部品供給機構が供給する部品を第1の方向から撮像して、部品の第1外形位置を取得する。
 特徴部位置取得部は、部品供給機構が供給する部品を第1の方向から撮像して、部品に形成された特徴部の位置を取得する。
 位置ずれ量算出部は、第1外形位置と特徴部の位置とから第1外形位置に対する特徴部の位置ずれ量を算出する。
 部品実装部は、部品を保持部材で保持して基板に実装する。
 制御部は、部品実装部の動作を制御する。
 第2外形位置取得部は、保持部材で保持された部品を第1の方向と異なる第2の方向から撮像して、部品の第2外形位置を取得する。
 制御部は、第2外形位置と位置ずれ量とに基づき、部品の特徴部を基板の目標位置上に位置するように、部品実装部に部品を実装させる。
図1は、実施の形態の部品実装装置の平面図である。 図2は、実施の形態の部品実装装置の構成説明図である。 図3は、実施の形態の部品実装装置が備えるヘッドカメラの構成説明図である。 図4Aは、実施の形態の部品実装装置によって基板に実装される部品の平面図である。 図4Bは、実施の形態の部品実装装置によって基板に実装される部品の側面図である。 図5Aは、実施の形態の部品実装装置が備えるテープフィーダの部品供給位置にピッチ送りされたポケットを、ヘッドカメラによって撮像する説明図である。 図5Bは、実施の形態の部品実装装置が備えるテープフィーダの部品供給位置にピッチ送りされた部品テープの構造説明図である。 図6Aは、実施の形態の部品実装装置が備えるテープフィーダが供給する部品を、ヘッドカメラによって、第1照明で照明しながら撮像した例を示す図である。 図6Bは、実施の形態の部品実装装置が備えるテープフィーダが供給する部品を、ヘッドカメラによって、第2照明で照明しながら撮像した例を示す図である。 図7Aは、実施の形態の部品実装装置が備える部品カメラによって部品を撮像する説明図である。 図7Bは、実施の形態の部品実装装置が備える部品カメラによって撮像された画像の例を示す図である。 図8は、実施の形態の部品実装装置の制御系の構成を示すブロック図である。 図9Aは、実施の形態の部品実装装置が備えるヘッドカメラによって、第1照明で照明しながら撮像した例を示す図である。 図9Bは、実施の形態の部品実装装置が備えるヘッドカメラによって、第2照明で照明しながら撮像した例を示す図である。 図9Cは、実施の形態の部品実装装置が備えるヘッドカメラによって、第1照明で照明しながら再撮像した例を示す図である。 図10は、実施の形態の部品実装装置による実装位置の補正値の説明図である。 図11Aは、実施の形態の部品実装装置によって基板に実装された部品の例を示す図である。 図11Bは、実施の形態の部品実装装置によって基板に実装された部品の例を示す図である。 図11Cは、実施の形態の部品実装装置によって基板に実装された部品の例を示す図である。 図12は、実施の形態の実装基板の製造方法の1ターン分のフロー図である。
 発光部品において光を発する発光部の部品全体における位置は、発光部品の製造に起因して個々の部品で微妙にずれている。近年、基板上の発光部の位置精度に対する要求が厳しくなっている。しかし、特許文献1を含む従来技術では、部品の外形や電極の位置を基板上の目標位置に精度良く実装するものの、必ずしも発光部品の発光部の位置が基板上に精度良く実装されていない場合がある。そのため、さらなる改善の余地があった。
 以下に図面を用いて、本開示の一実施の形態を詳細に説明する。以下で述べる構成、形状等は説明のための例示であって、部品実装装置の仕様に応じ、適宜変更が可能である。以下では、全ての図面において対応する要素には同一符号を付し、重複する説明を省略する。図1、及び後述する一部では、水平面内で互いに直交する2軸方向として、基板搬送方向のX方向(図1における左右方向)、基板搬送方向に直交するY方向(図1における上下方向)が示される。図2、及び後述する一部では、水平面と直交する高さ方向としてZ方向(図2における上下方向)が示される。図7では、Z方向の軸(Z軸)を回転軸とする回転の方向であるθ方向が示される。
 まず図1、図2を参照して、部品実装装置1の構成を説明する。なお図2は、図1における部品実装装置1の一部を模式的に示している。部品実装装置1は、部品供給部4から供給された部品を基板に実装する部品実装作業を実行する機能を有する。基台1aの中央には、基板搬送機構2がX方向に配置されている。基板搬送機構2は、上流側から搬送された基板3を、実装作業位置に搬入して位置決め保持する。また、基板搬送機構2は、部品実装作業が完了した基板3を下流側に搬出する。
 基板搬送機構2の両側方には、部品供給部4が配置されている。それぞれの部品供給部4には、複数のテープフィーダ5が並列に装着されている。テープフィーダ5は、部品Dを格納するポケットが形成された部品テープを部品供給部4の外側から基板搬送機構2に向かう方向(テープ送り方向)にピッチ送りすることにより、以下に説明する実装ヘッドによって部品Dが取り出される部品供給位置5aに部品Dを供給する。なお、部品供給部4には、トレイ上に格子状に規則的に載置された部品Dを供給するトレイフィーダや、トレイ上に不規則にばら積みされた状態で部品Dを供給するばら積みフィーダを装着してもよい。テープフィーダ5、トレイフィーダ、ばら積みフィーダは、部品を供給する部品供給手段(部品供給機構)である。
 図1、図2において、基台1a上面においてX方向の両端部には、リニア駆動機構を備えたY軸テーブル6がY方向に沿って配置されている。Y軸テーブル6には、同様にリニア駆動機構を備えたビーム7が、Y方向に移動自在に結合されている。ビーム7はX方向に沿って配置されている。ビーム7には、実装ヘッド8がX方向に移動自在に装着されている。実装ヘッド8は、部品Dを吸着保持して昇降可能な吸着ユニット8aを備える。吸着ユニット8aのそれぞれの下端部には、部品Dを吸着保持する吸着ノズル8bが装着されている。なお、実装ヘッド8は、部品Dの側面を挟んで保持する一対のチャックで部品Dを保持してもよい。すなわち、吸着ノズル8b、一対のチャックは部品Dを保持する保持部材である。
 図1において、Y軸テーブル6、ビーム7を駆動することにより、実装ヘッド8はX方向、Y方向に移動する。これにより実装ヘッド8は、部品供給部4に配置されたテープフィーダ5の部品供給位置5aから、部品Dを吸着ノズル8bによって吸着して取り出して、基板搬送機構2に位置決めされた基板3の実装位置に装着する実装ターンを実行する。すなわち、Y軸テーブル6、ビーム7および実装ヘッド8は、テープフィーダ5(部品供給手段、部品供給機構)の部品供給位置5aに供給される部品Dを吸着ノズル8b(保持部材)で保持して基板3に実装する部品実装手段9(部品実装部)を構成する。
 部品供給部4と基板搬送機構2との間には、部品認識カメラ10が配置されている。部品供給部4から部品を取り出した実装ヘッド8が部品認識カメラ10の上方を移動する際に、部品認識カメラ10は実装ヘッド8に保持された状態の部品Dを撮像して部品Dの保持姿勢を認識する。実装ヘッド8が取り付けられたプレート7aにはヘッドカメラ11が取り付けられている。ヘッドカメラ11は、実装ヘッド8と一体的に移動する。
 実装ヘッド8が移動することにより、ヘッドカメラ11は基板搬送機構2に位置決めされた基板3の上方に移動し、基板3に設けられた基板マーク(図示せず)を撮像して基板3の位置を認識する。また、ヘッドカメラ11はテープフィーダ5の部品供給位置5aの上方に移動し、部品供給位置5a付近の部品テープの状態を認識する。実装ヘッド8による基板3への部品実装動作においては、部品認識カメラ10による部品Dの認識結果と、ヘッドカメラ11による部品Dの認識結果、基板位置の認識結果とを加味して実装位置の補正が行われる。
 図2において、部品供給部4のフィーダベース12aに予め複数のテープフィーダ5が装着された状態の台車12がセットされる。台車12には、部品Dを保持した部品テープ13を巻回状態で収納するテープリール14が保持されている。テープリール14から引き出された部品テープ13は、テープフィーダ5によって部品供給位置5aまでピッチ送りされる。
 図1において、部品実装装置1の前面で作業者が作業する位置には、作業者が操作するタッチパネル15が設置されている。タッチパネル15の表示部に各種情報が表示される。そして、表示部に表示される操作ボタンなどを使って、作業者が、データ入力や部品実装装置1の操作を行う。部品認識カメラ10の横には、部品廃棄部16が設置されている。部品廃棄部16には、不良部品など部品供給部4から供給されるが基板3には実装されない部品Dが廃棄される。
 次に図3を参照して、ヘッドカメラ11の詳細について説明する。ヘッドカメラ11は、撮像部11a、第1照明部11b、第2照明部11cを備えている。撮像部11aは、光軸11dを下方に向けて設置されたカメラである。第1照明部11bは撮像部11aの周囲に配置されており、撮像部11aが撮像する対象を照明する。第1照明部11bは、部品Dを照明するのに適した角度や波長の光を照射する。
 第2照明部11cは撮像部11aの周囲であって、撮像部11aの光軸11dから見て第1照明部11bより外側に配置されており、撮像部11aが撮像する対象を照明する。第2照明部11cは、後述する部品Dに形成された発光部S(図4参照)を照明するのに適した光を照射する。例えば、第2照明部11cは、発光部Sが有する蛍光体を発光させるのに適した角度や波長の光を照射する。
 ヘッドカメラ11では、撮像する対象に応じて、第1照明部11bと第2照明部11cによって照明する照明条件が変更される。例えば、ヘッドカメラ11は、撮像対象に応じて第1照明部11bのみ、または第2照明部11cのみで照明する。または、ヘッドカメラ11は、第1照明部11bと第2照明部11cを同時に使用し、あるいは第1照明部11bと第2照明部11cが照射する光の強度を変えて照明する。
 次に図4A、図4Bを参照して、基板3に実装される部品である表面実装用のチップLEDなどの発光素子の構造について説明する。以下、発光素子を単に「部品D」と称する。部品Dの本体部Dmの上面Duの一部には、発光部Sが形成されている。発光部Sは、部品Dに外部から電圧を加えると光を発する機能を有する特徴部である。部品Dの製造工程において、キャビティ内に実装されたLEDチップSdと内部電極を内部配線Scで接続した後、キャビティに蛍光体が分散された封止樹脂Srを流し込んで発光部Sが形成される。そのため、部品Dにおける発光部Sの位置は、部品D毎にばらついている。
 次に図5A、図5Bを参照して、ヘッドカメラ11による部品供給位置5aに供給された部品Dの認識動作について説明する。図5Aにおいて、テープフィーダ5の上部には、部品テープ13を上方からガイドする押え部材17が配置されている。押え部材17には、部品供給位置5aに位置して開口部17aが設けられている。
 図5Bは、部品供給位置5a付近の部品テープ13を上方から見た状態を示しており、押え部材17は省略している。部品テープ13のベーステープ13aには、部品Dを格納する凹形状のポケット13bと、部品テープ13をピッチ送りするスプロケット(図示省略)が係合する送り穴13cが等間隔に形成されている。部品Dを収納したポケット13bの上面には、カバーテープ13dが貼着されている。
 図5Aにおいて、カバーテープ13dは開口部17aの縁部17bで剥離されて折り返される。これによって、部品供給位置5aを含む下流側(図5Aの右側)のポケット13bの上方が開放される。Y軸テーブル6、ビーム7を駆動することによって、ヘッドカメラ11は、部品供給位置5aの上方に移動して(矢印a)、開口部17aを通して、部品供給位置5aのポケット13bに格納された部品Dを撮像する。
 次に、図6A、図6Bを参照して、ヘッドカメラ11によって撮像された、部品供給位置5aのポケット13bに格納された部品Dの撮像画像の一例を説明する。図6Aと図6Bは、同じ部品Dを異なる照明条件で撮像している。ポケット13bに格納された部品Dとヘッドカメラ11に相対的な位置ずれがなく、部品Dにおける発光部Sの位置ずれもない例が示されている。
 図6Aでは、ヘッドカメラ11は、第1照明部11bで照明する第1の照明条件によって、撮像部11aによりポケット13b内の部品Dを撮像している。撮像画像20には、部品Dの本体部Dm、すなわち部品Dの外形が表示されている。撮像画像20の中心20cは、部品Dの外形の中心と一致している。以下、上方から見た部品Dの外形の中心を「上面外形位置Cd」と称する。撮像画像20には、X方向の中心線20xとY方向の中心線20yが重ねて表示されている。第1の照明条件では、点線で示すポケット13bの縁も写る場合があるが、便宜上、撮像画像におけるポケット13bの表示は省略している。
 ヘッドカメラ11による撮像結果は、部品実装装置1が備える制御部30に転送され、制御部30が備える認識処理部31(図8参照)によって認識処理される。認識処理部31は、撮像画像20から部品Dの上面外形位置Cdと姿勢(水平面内での回転角度θd)を認識する。このように、撮像部11a、第1照明部11b、認識処理部31は、部品供給手段(テープフィーダ5)が供給する部品Dを第1の方向(上側)から撮像して、部品Dの上面外形位置Cd(第1外形位置)を取得する第1外形位置取得手段(第1外形位置取得部)である。第1外形位置取得手段は、第1の照明条件で部品Dを照明した状態で部品Dを撮像する。
 図6Bでは、ヘッドカメラ11は、第2照明部11cで照明する第2の照明条件によって撮像部11aによりポケット13b内の部品Dを撮像している。撮像画像21には、発光部Sが表示されている。撮像画像21には、X方向の中心線21xとY方向の中心線21yが重ねて表示されている。認識処理部31は、撮像画像21から発光部Sの中心(以下、「特徴部の位置Cs」と称する。)と姿勢(水平面内での回転角度θs)を認識する。このように、撮像部11a、第2照明部11c、認識処理部31は、部品供給手段(テープフィーダ5)が供給する部品Dを第1の方向(上側)から撮像して、部品Dに形成された特徴部の位置Csを取得する特徴部位置取得手段(特徴部位置取得部)である。
 特徴部位置取得手段は、第1の照明条件と異なる照明条件である第2の照明条件で部品Dを照明した状態で部品を撮像する。また、本実施の形態では、第1外形位置取得手段と特徴部位置取得手段は、部品Dを撮像するカメラ(撮像部11a)を共有し、ポケット13b内に格納されている部品Dを撮像している。これにより、部品Dの外形の撮像と発光部Sの撮像の間に、ヘッドカメラ11を移動させる必要がない。
 なお上記では、第1の照明条件では第1照明部11bのみで照明し、第2の照明条件では第2照明部11cのみで照明していたが、これに限定されることはない。すなわち、第1の照明条件においては、少なくとも部品Dの本体部Dmを照明するのに適した波長の光で部品Dを照明し、第2の照明条件においては、少なくとも発光部S(特徴部)を照明するのに適した波長の光で部品Dを照明すればよい。
 次に、図7を参照して、部品認識カメラ10による部品Dの認識動作について説明する。実装ヘッド8による部品実装動作では、図7Aに示すように、吸着ノズル8bによって部品Dを吸着保持した実装ヘッド8が部品認識カメラ10の上方を所定方向に移動する際に(矢印b)、下側から部品Dの下面Ddを撮像する。
 図7Bに、吸着ノズル8bのノズル中心Cnが、撮像画像22の中心22cと一致するように実装ヘッド8を移動させて撮像した撮像画像22の一例を示す。撮像画像22には、X方向の中心線22xとY方向の中心線22yが重ねて表示されている。X方向の中心線22xとY方向の中心線22yの交点が撮像画像22の中心22cである。撮像結果は、制御部30に転送されて認識処理部31によって認識処理され、部品Dの中心の位置(以下、「下面外形位置Ce」と称する。)と姿勢(水平面内での回転角度θe)が認識される。
 認識処理部31は、認識した下面外形位置Ceより、下面外形位置Ce(Xe,Ye,θe)を算出する。ここで、下面外形位置Ce(Xe,Ye,θe)は、部品Dを吸着している吸着ノズル8bのノズル中心Cn(撮像画像22の中心22c)からの、部品Dの中心のX方向、Y方向、θ方向の位置を示している。このように、部品認識カメラ10、認識処理部31は、保持部材(吸着ノズル8b)で保持された部品Dを第1の方向(上側)と異なる第2の方向(下側)から撮像して、部品Dの下面外形位置Ce(第2外形位置)を取得する第2外形位置取得手段(第2外形位置取得部)である。
 次に図8を参照して、部品実装装置1の制御系の構成について説明する。部品実装装置1は、制御部30、基板搬送機構2、テープフィーダ5、部品実装手段9、部品認識カメラ10、ヘッドカメラ11、タッチパネル15を備えている。制御部30は、認識処理部31、位置ずれ量算出部32、外形位置変動算出部33、補正値算出部34、実装動作処理部35、実装記憶部36を備えている。実装記憶部36は、記憶装置であり、実装データ記憶部37、認識結果記憶部38、位置ずれ量記憶部39、変動量記憶部40、判定値記憶部41、補正値記憶部42を備えている。
 実装データ記憶部37は、部品実装位置Cf、発光部実装位置Cg(図10参照)などのデータを、製造される基板3の種類ごとに記憶する。ここで、部品実装位置Cfは、部品Dの上面外形位置Cdの基板3上の実装目標位置である。発光部実装位置Cgは、部品Dの特徴部の位置Csの基板3上の実装目標位置である。実装データ記憶部37には、部品実装位置Cfおよび発光部実装位置Cgとして、基板3におけるXY座標と回転角度θが記憶されている。また、実装データ記憶部37には、部品Dの製造ばらつきがない場合の部品Dにおける発光部Sの位置の情報として、部品Dの上面外形位置Cdから見た特徴部の理想の位置Cs0(Xs0,Ys0)(図10参照)が記憶されている。
 図8において、認識処理部31は、テープフィーダ5の部品供給位置5aの上方に移動したヘッドカメラ11を制御して部品テープ13のポケット13b内に格納されている部品Dを撮像させ、撮像画像を認識処理して部品Dの上面外形位置Cdおよび特徴部の位置Csを取得する。また、認識処理部31は、部品認識カメラ10を制御して吸着ノズル8bが保持する部品Dの下面Ddを撮像させ、撮像画像を認識処理して部品Dの中心の位置である下面外形位置Ceを取得する。取得された部品Dの上面外形位置Cd、特徴部の位置Cs、下面外形位置Ceは、認識結果記憶部38に記憶される。
 ここで図9を参照して、テープフィーダ5の上方に移動したヘッドカメラ11を認識処理部31が制御して部品供給位置5aの部品Dを撮像し、認識処理して取得された部品Dの上面外形位置Cdと特徴部の位置Csの例について説明する。図9Aは、認識処理部31が第1照明部11bで照明する第1の照明条件で部品Dを照射した状態で、部品Dの本体部Dmを撮像部11aで撮像した撮像画像23である。認識処理部31は撮像画像23を認識処理して、撮像画像23の中心23cから見た部品Dの中心の位置である上面外形位置Cd1(Xd1,Yd1,θd1)を取得する。このように、第1外形位置取得手段(撮像部11a、第1照明部11b、認識処理部31)は、部品Dの上面外形位置Cd1を取得する。
 図9Bは、認識処理部31が第2照明部11cで照明する第2の照明条件で部品Dを照射した状態で、部品Dを撮像部11aで撮像した撮像画像24である。認識処理部31は撮像画像24を認識処理して、撮像画像24の中心24cから見た部品Dに形成された発光部Sの中心の位置である特徴部の位置Cs1(Xs1,Ys1,θs1)を取得する。このように、特徴部位置取得手段(撮像部11a、第2照明部11c、認識処理部31)は、特徴部の位置Cs1を取得する。
 図9Cは、特徴部の位置Cs1が取得された後に、再度、第1外形位置取得手段によって部品Dの本体部Dmを撮像した撮像画像25であり、撮像画像25より上面外形位置Cd2(Xd2,Yd2,θd2)が取得される。取得された部品Dの上面外形位置Cd1,Cd2、特徴部の位置Cs1は、認識結果記憶部38に記憶される。
 図8において、位置ずれ量算出部32は、認識結果記憶部38に記憶されている部品Dの上面外形位置Cd1と特徴部の位置Cs1から、部品Dの上面外形位置Cd1に対する発光部Sの位置ずれ量ΔCs1を算出する。具体的には、図9において位置ずれ量算出部32は、X方向の位置ずれ量ΔXsとしてΔXs1=Xs1-Xd1を算出し、Y方向の位置ずれ量ΔYsとしてΔYs1=Ys1-Yd1を算出し、θ方向の位置ずれ量ΔθsとしてΔθs1=θs1-θd1を算出する。
 このように、位置ずれ量算出部32は、上面外形位置Cd1(Xd1,Yd1,θd1)と特徴部の位置Cs1(Xs1,Ys1,θs1)とから上面外形位置Cd1対する特徴部(発光部S)の位置ずれ量ΔCs1(Xs1-Xd1,Ys1-Yd1,θs1-θd1)を算出する。算出された位置ずれ量ΔCs1は、位置ずれ量記憶部39に記憶される。
 図8において、外形位置変動算出部33は、認識結果記憶部38に記憶されている部品Dの上面外形位置Cd1,Cd2から、第1外形位置取得手段により再度取得された部品Dの上面外形位置Cd2(第1外形位置)と前に取得された部品Dの上面外形位置Cd1(第1外形位置)との位置の差である外形位置変動量ΔCd2を算出する。すなわち、部品Dの上面外形位置Cd1と特徴部の位置Cs1を取得した後、再度、部品Dの上面外形位置Cd2を取得する間に撮像部11aと部品Dが相対的に移動した変動量が算出される。例えば、テープフィーダ5が供給する部品Dが部品供給位置5aに停止する前や、移動して停止したヘッドカメラ11の振動が収束する前に部品Dを撮像すると、外形位置変動量ΔCd2が大きくなる。
 具体的には、図9において外形位置変動算出部33は、X方向の外形位置変動量ΔXdとしてΔXd2=Xd2-Xd1を算出し、Y方向の外形位置変動量ΔYdとしてΔYd2=Yd2-Yd1を算出し、θ方向の外形位置変動量ΔθdとしてΔθd2=θd2-θd1を算出する。算出された外形位置変動量ΔCd2(Xd2-Xd1,Yd2-Yd1,θd2-θd1)は、変動量記憶部40に記憶される。
 図8において、補正値算出部34は、吸着ノズル8b(保持部材)が保持している部品Dの発光部S(特徴部)を実装データ記憶部37に記憶された発光部実装位置Cgに実装するための補正値ΔCf(ΔXf,ΔYf,Δθf)を算出する。具体的には、補正値算出部34は、実装データ記憶部37に記憶された特徴部の理想の位置Cs0(Xs0,Ys0)と、位置ずれ量記憶部39に記憶された位置ずれ量ΔCs(ΔXs,ΔYs,Δθs)とに基づいて、補正値ΔCf(ΔXf,ΔYf,Δθf)を算出する。
 ここで図10を参照して、補正値算出部34による補正値ΔCf(ΔXf,ΔYf,Δθf)の算出例について説明する。部品Dを実装する基板3には、部品実装位置Cfと発光部実装位置Cgが設定されている。部品実装位置Cfから見た発光部実装位置Cgの位置が、特徴部(部品Dの発光部S)の理想の位置Cs0(Xs0,Ys0)である。また、部品Dの上面外形位置Cdから見た部品Dの特徴部の位置Cs(Xs,Ys,θs)が、部品Dの特徴部の位置ずれ量ΔCs(ΔXs,ΔYs,Δθs)である。
 補正値算出部34は、部品Dに形成された発光部Sの理想の位置からのずれを補正するための補正値ΔCf(ΔXf,ΔYf,Δθf)を算出する。具体的には、X方向の補正値ΔXfとしてΔXf=ΔXs-Xs0を算出し、Y方向の補正値ΔYfとしてΔYf=ΔYs-Ys0を算出し、θ方向の補正値ΔθfとしてΔθd=Δθsを算出する。算出された補正値ΔCf(ΔXs-Xs0,ΔYs-Ys0,Δθs)は、補正値記憶部42に記憶される。
 図8において、実装動作処理部35は、部品実装手段9を制御して、テープフィーダ5(部品供給手段)が供給する部品Dを吸着ノズル8b(保持部材)で保持して、基板搬送機構2に位置決めされた基板3に実装する実装動作を制御する。すなわち、実装動作処理部35は、部品実装手段9の動作を制御する制御部である。実装動作処理部35(制御部)は、認識結果記憶部38に記憶された吸着ノズル8bに保持された部品Dの下面外形位置Ce(Xe,Ye,θe)と、補正値記憶部42に記憶された部品Dの補正値ΔCf(ΔXs-Xs0,ΔYs-Ys0,Δθs)に基づいて、部品Dを基板3に実装する。
 ここで図10を参照して、実装動作処理部35による部品Dの実装の例について説明する。図10において、部品Dを保持している吸着ノズル8bのノズル中心Cnから見た部品Dの中心の位置が下面外形位置Ce(Xe,Ye,θe)である。実装動作処理部35は、下面外形位置Ce(Xe,Ye,θe)と、吸着ノズル8bが保持している部品Dの補正値ΔCf(ΔXs-Xs0,ΔYs-Ys0,Δθs)より、吸着ノズル8bが保持する部品Dを基板3に実装する。
 具体的には、実装動作処理部35は、基板3上に設定された部品実装位置Cfから、吸着ノズル8bが保持している部品Dの特徴部(発光部S)の位置ずれ量ΔCs(ΔXs,ΔYs,Δθs)より算出された補正値ΔCf(ΔXs-Xs0,ΔYs-Ys0,Δθs)だけ補正した位置に、部品Dの中心である上面外形位置Cdが位置するように部品Dを基板3に実装する。これにより、部品Dの特徴部(発光部S)が基板3上に設定された発光部実装位置Cgに正しい姿勢(水平面内での回転角度θs)で位置するように実装される。
 このように、実装動作処理部35(制御部)は、第2外形位置取得手段(部品認識カメラ10、認識処理部31)により取得された第2外形位置(下面外形位置Ce(Xe,Ye,θe))と位置ずれ量ΔCs(ΔXs,ΔYs,Δθs)とに基づき、部品Dの特徴部(発光部S)を基板3の目標位置(発光部実装位置Cg)上に位置するように部品実装手段9に部品Dを実装させる。なお、実装動作処理部35による部品Dの実装は、上記の補正値ΔCf(ΔXs-Xs0,ΔYs-Ys0,Δθs)を用いた補正に限定されず、他のパラメータを取得して補正するようにしてもよい。
 ここで図11A~図11Cを参照して、部品D3~D5に形成された発光部S3~S5のずれを補正して、各部品D3~D5の発光部S3~S5を基板3の目標位置(発光部実装位置Cg)に位置するように実装させた例を説明する。図11Aは、部品D3の発光部S3が本体部Dm3における理想の位置に形成されている例である。この場合、部品D3の上面外形位置Cd3が基板3上の部品実装位置Cfに位置するように実装することで、部品D3の発光部S3の位置Cs3が基板3上の発光部実装位置Cgに位置する。
 図11Bは、部品D4の発光部S4が本体部Dm4における理想の位置から平行にずれて形成された例である。実装動作処理部35は、第1外形位置取得手段(撮像部11a、第1照明部11b、認識処理部31)によって取得された部品D4の上面外形位置Cd4と、特徴部位置取得手段(撮像部11a、第2照明部11c、認識処理部31)によって取得された特徴部の位置Cs4から算出される位置ずれ量ΔCs4に基づいて、部品D4の発光部S4が基板3上の目標位置(発光部実装位置Cg)上に位置するように部品D4を実装している。
 図11Cは、部品D5の発光部S5が本体部Dm5に対して回転して形成された例である。実装動作処理部35は、第1外形位置取得手段(撮像部11a、第1照明部11b、認識処理部31)によって取得された部品D5の上面外形位置Cd5と、特徴部位置取得手段(撮像部11a、第2照明部11c、認識処理部31)によって取得された特徴部の位置Cs5から算出される位置ずれ量ΔCs5に基づいて、部品D5の発光部S5が基板3上の目標位置(発光部実装位置Cg)上に位置するように部品D5を実装している。
 図8において、判定値記憶部41には、変動量判定範囲Rd(例えば10μm以下)が記憶されている。変動量判定範囲Rdとは、部品Dの上面外形位置Cdを取得するヘッドカメラ11(撮像部11a)の振動が収束したか、またはテープフィーダ5における部品Dの位置が変化していないか、もしくは停止したか、を判定するための外形位置変動量ΔCdの判定範囲である。外形位置変動算出部33によって算出された外形位置変動量ΔCdが変動量判定範囲Rd外の場合、すなわちヘッドカメラ11または部品Dがまだ動いている場合や部品Dの位置が変化した場合、特徴部位置取得手段は再度、部品Dの特徴部の位置Csを取得し、第1外形位置取得手段は、その後に部品Dの上面外形位置Cdを取得する。
 変動量記憶部40に記憶された外形位置変動量ΔCdが変動量判定範囲Rd内の場合、すなわちヘッドカメラ11若しくは部品Dが停止し、または変動が許容範囲になると、実装動作処理部35は部品Dを吸着ノズル8bで保持させて、基板3に実装する実装動作を実行する。このように、外形位置変動算出部33によって算出された位置の差(外形位置変動量ΔCd)が所定の範囲(変動量判定範囲Rd)外である場合に、特徴部位置取得手段は、再度その部品Dの特徴部(発光部S)の位置Csを取得する。また、外形位置変動算出部33によって算出された位置の差(外形位置変動量ΔCd)が所定の範囲(変動量判定範囲Rd)内である場合に、制御部(実装動作処理部35)は保持部材(吸着ノズル8b)に部品Dを保持させる。
 このように、実装動作処理部35は、外形位置変動量ΔCdによって部品Dに対するヘッドカメラ11の相対位置が安定したか否かを判定し、相対位置が安定するまで(変動量判定範囲Rd外)特徴部の位置Csと上面外形位置Cdの取得を繰り返す。そして、実装動作処理部35は、相対位置が安定すると(変動量判定範囲Rd内)吸着ノズル8bにより、部品Dを部品供給位置5aから取り出す。これによって、位置ずれ量ΔCsの計測誤差を減少させて、部品D(発光部品)の発光部Sの位置を基板3上に精度良く実装できる。
 図8において、判定値記憶部41には、部品Dの上面外形位置Cdに対する特徴部の位置Csである位置ずれ量ΔCsの許容範囲である位置ずれ量判定範囲Rsが記憶されている。位置ずれ量ΔCsが位置ずれ量判定範囲Rs外の部品Dは、基板3には実装されない。すなわち、位置ずれ量ΔCsが所定の範囲(位置ずれ量判定範囲Rs)よりも大きい場合、実装動作処理部35(制御部)は、吸着ノズル8b(保持部材)に部品Dを保持させずに、タッチパネル15にその旨を警告表示させる。または、位置ずれ量ΔCsが所定の範囲(位置ずれ量判定範囲Rs)よりも大きい場合、実装動作処理部35は、吸着ノズル8bでその部品Dを取り出して、部品廃棄部16に廃棄させる。
 次に図12のフローに沿って、図7、9、10を参照しながら部品実装装置1による実装基板の製造方法のうち、部品実装手段9がテープフィーダ5(部品供給手段)から部品Dを取り出して基板3に実装する1ターン分の工程について説明する。図12において、まず、実装動作処理部35は部品実装手段9を制御して、ヘッドカメラ11をテープフィーダ5の部品供給位置5aにある部品テープ13のポケット13b内に格納されている部品Dの上方に移動させる(ST1:ヘッドカメラ移動工程)。
 次いで第1照明部11bが部品Dを照明した状態で撮像部11aが部品Dを上方(第1の方向)から撮像して、認識処理部31は撮像画像23(図9A)を認識処理して部品Dの上面外形位置Cd1(第1外形位置)を取得する(ST2:第1外形位置取得工程)。次いで第2照明部11cが部品Dを照明した状態で撮像部11aが部品Dを上方(第1の方向)から撮像して、認識処理部31は撮像画像24(図9B)を認識処理して部品Dに形成された特徴部の位置Cs1を取得する(ST3:特徴部位置取得工程)。
 すなわち、第1外形位置取得工程(ST2)においては、第1の照明条件で部品Dを照明した状態で、部品Dを撮像する。特徴部位置取得工程(ST3)においては、第1の照明条件と異なる照明条件である第2の照明条件で部品Dを照明した状態で、部品Dを撮像する。なお、同じ照明条件で部品Dの外形と発光部Sが撮像できて、1つの撮像画像から上面外形位置Cd1と特徴部の位置Cs1の取得が可能な場合には、第1外形位置取得工程(ST2)と特徴部位置取得工程(ST3)を同時に実行してもよい。
 図12において、次いで位置ずれ量算出部32は、上面外形位置Cd1と特徴部の位置Cs1とから、上面外形位置Cd1に対する特徴部(発光部S)の位置ずれ量ΔCs(図10)を算出する(ST4:位置ずれ量算出工程)。算出された位置ずれ量ΔCsは、位置ずれ量記憶部39に記憶される。次いで第1照明部11bが部品Dを照明した状態でさらに撮像部11aが部品Dを上方から撮像して、認識処理部31は撮像画像25(図9C)を認識処理して部品Dの上面外形位置Cd2を取得する(ST5:第3外形位置取得工程)。すなわち、特徴部位置取得工程(ST3)の後に、さらに部品Dを撮像して部品Dの上面外形位置Cd2(第1外形位置)を取得する。
 次いで外形位置変動算出部33は、第1外形位置取得工程(ST2)で取得された上面外形位置Cd1(第1外形位置)と、第3外形位置取得工程(ST5)で取得された上面外形位置Cd2(第1外形位置)との位置の差(外形位置変動量ΔCd)を算出し、外形位置変動量ΔCdが所定の範囲(変動量判定範囲Rd)内であるか否かを判定する(ST6:変動量判定工程)。外形位置変動量ΔCdが所定の範囲(変動量判定範囲Rd)外である場合(ST6においてNo)、再度、その部品Dに対して特徴部位置取得工程(ST3)が実行される。
 図12において、外形位置変動量ΔCdが所定の範囲(変動量判定範囲Rd)内である場合(ST6においてYes)、位置ずれ量記憶部39に記憶されている位置ずれ量ΔCsが所定の範囲(位置ずれ量判定範囲Rs)内であるか否かが判定される(ST7:位置ずれ量判定工程)。位置ずれ量ΔCsが所定の範囲(位置ずれ量判定範囲Rs)よりも大きい場合(ST7においてNo)、実装動作処理部35(制御部)は部品Dを部品廃棄部16に廃棄させる(ST8:部品廃棄工程)。その後、新しい部品Dがテープフィーダ5の部品供給位置5aに供給され、新しい部品Dに対して第1外形位置取得工程(ST2)が実行される。
 なお、位置ずれ量ΔCsが所定の範囲(位置ずれ量判定範囲Rs)よりも大きい場合(ST7においてNo)、実装動作処理部35はタッチパネル15にその旨を警告表示させてもよい。すなわち、位置ずれ量ΔCsが所定の範囲(位置ずれ量判定範囲Rs)よりも大きい場合は、保持部材(吸着ノズル8b)は、部品Dを保持しない。その後、オペレータはその部品Dを廃棄させるか、そのまま基板3に実装させるかを判断し、部品実装装置1に指示をする。
 図12において、位置ずれ量ΔCsが所定の範囲(位置ずれ量判定範囲Rs)内の場合(ST7においてYes)、実装動作処理部35(制御部)は、吸着ノズル8b(保持部材)によりその部品Dを保持させる(ST9:部品保持工程)。すなわち、外形位置変動量ΔCdが所定の範囲(変動量判定範囲Rd)内であり(ST6においてYes)、かつ、位置ずれ量ΔCsが所定の範囲(位置ずれ量判定範囲Rs)内である場合に(ST7においてYes)、吸着ノズル8bにより基板3に実装する部品Dを保持する(ST9)。
 次いで部品認識カメラ10は保持部材(吸着ノズル8b)で保持された部品Dを第1の方向(上方)と異なる第2の方向(下方)から撮像して、認識処理部31は撮像画像22(図7B)を認識処理して部品Dの下面外形位置Ce(第2外形位置)を取得する(ST10:第2外形位置取得工程)。取得された下面外形位置Ceは、認識結果記憶部38に記憶される。次いで補正値算出部34は、実装データ記憶部37に記憶された特徴部の理想の位置Cs0と、位置ずれ量記憶部39に記憶された位置ずれ量ΔCsとに基づいて、補正値ΔCf(図10)を算出する(ST11:補正値算出工程)。
 図12において、次いで実装動作処理部35は部品実装手段9を制御して、第2外形位置取得工程(ST10)により取得された部品Dの下面外形位置Ce(第2外形位置)と、補正値算出工程(ST11)において位置ずれ量ΔCcから算出された補正値ΔCfとに基づき、部品Dの特徴部(発光部S)を基板3の目標位置(発光部実装位置Cg)上に位置するように実装する(ST12:部品工程)。
 なお、上記ではテープフィーダ5から供給される部品Dを吸着ノズル8bで取り出して部品Dの発光部Sが基板3の目標位置に位置するように実装する例で説明した。しかし、本実施の形態の実装基板の製造方法を用いて基板3に実装される部品Dはテープフィーダ5から供給される部品Dに限定されることはない。例えば、トレイフィーダやばら積みフィーダなどの部品供給手段が供給する部品Dであってもよい。また、部品実装装置1に設けられた仮置き台の上に部品供給手段から移載された部品Dであってもよい。
 また、特徴部位置取得工程(ST3)において、第2の照明条件として約400nm~500nmの波長領域の青色光で照明するのが好ましい。これは、上記の波長領域が発光部Sの封止樹脂Srに含まれる蛍光体に適合した波長領域であり、より明瞭に発光部Sを認識することができるためである。なお、第2の照明条件としてはこれに限らず、部品Dの種類や発光部Sに含まれる蛍光体の種類により適宜角度や波長帯を選択してもよい。
 上記説明したように、本実施の形態の実装基板の製造方法は、第1外形位置取得工程(ST2)と、特徴部位置取得工程(ST3)と、算出工程(ST4)と、保持工程(ST9)と、第2外形位置取得工程(ST10)と、実装工程(ST12)と、を有している。
 第1外形位置取得工程(ST2)では、部品Dを第1の方向(上方)から撮像して、部品Dの上面外形位置Cd(第1外形位置)を取得する。
 特徴部位置取得工程(ST3)では、部品Dに形成された特徴部の位置Csを取得する。
 算出工程(ST4)では、上面外形位置Cdと特徴部の位置Csとから特徴部の位置ずれ量ΔCsを算出する。
 保持工程(ST9)では、部品Dを保持部材(吸着ノズル8b)で保持する。
 第2外形位置取得工程(ST10)では、保持部材で保持された部品Dを第2の方向(下方)から撮像して、部品Dの下面外形位置Ce(第2外形位置)を取得する。
 実装工程(ST12)では、取得された下面外形位置Ceと、位置ずれ量ΔCsとに基づき、部品Dの特徴部を、基板3の目標位置(発光部実装位置Cg)上に位置するように実装する。
 これによって、部品D(発光部品)の発光部Sの位置を基板3上に精度良く実装できる。
 本開示によれば、発光部品の発光部の位置を基板上に精度良く実装できる。
 本開示の実装基板の製造方法および部品実装装置は、発光部品の発光部の位置を基板上に精度良く実装することができるという効果を有し、部品を基板に実装する分野において有用である。
 1 部品実装装置
 1a 基台
 2 基板搬送機構
 3 基板
 4 部品供給部
 5 テープフィーダ(部品供給手段)
 5a 部品供給位置
 6 軸テーブル
 7 ビーム
 7a プレート
 8 実装ヘッド
 8a 吸着ユニット
 8b 吸着ノズル(保持部材)
 9 部品実装手段
 10 部品認識カメラ(第2外形位置取得手段)
 11a 撮像部(第1外形位置取得手段、特徴部位置取得手段、カメラ)
 11b 第1照明部(第1外形位置取得手段)
 11c 第2照明部(特徴部位置取得手段)
 11d 光軸
 12 台車
 12a フィーダベース
 13 部品テープ
 13a ベーステープ
 13b ポケット
 13c 穴
 13d カバーテープ
 14 テープリール
 15 タッチパネル
 16 部品廃棄部
 17 部材
 17a 開口部
 17b 縁部
 20 撮像画像
 20c 中心
 20x 中心線
 20y 中心線
 21 撮像画像
 21x 中心線
 21y 中心線
 22 撮像画像
 22c 中心
 22x 中心線
 22y 中心線
 23 撮像画像
 23c 中心
 24 撮像画像
 24c 中心
 25 撮像画像
 30 制御部
 31 認識処理部
 32 量算出部
 33 外形位置変動算出部
 34 補正値算出部
 35 実装動作処理部
 36 実装記憶部
 37 実装データ記憶部
 38 認識結果記憶部
 39 量記憶部
 40 変動量記憶部
 41 判定値記憶部
 42 補正値記憶部
 Cd、Cd1~Cd5 上面外形位置(第1外形位置)
 Ce 下面外形位置(第2外形位置)
 Cf 部品実装位置
 Cg 発光部実装位置(目標位置)
 Cn ノズル中心
 Cs、Cs1、Cs3~Cs5 特徴部の位置
 Cs0 特徴部の理想の位置
 D、D3~D5 部品
 Dd 下面
 Dm、Dm3~Dm5 本体部
 Du 上面
 Rd 変動量判定範囲
 Rs 量判定範囲
 Sc 内部配線
 Sd チップ
 Sr 封止樹脂
 S、S3~S5 発光部(特徴部)
 ΔCs 位置ずれ量

Claims (15)

  1.  部品を第1の方向から撮像して、前記部品の第1外形位置を取得する第1外形位置取得工程と、
     前記部品を前記第1の方向から撮像して、前記部品に形成された特徴部の位置を取得する特徴部位置取得工程と、
     前記第1外形位置と前記特徴部の位置とから、前記第1外形位置に対する前記特徴部の位置ずれ量を算出する算出工程と、
     前記部品を保持部材で保持する保持工程と、
     前記保持部材で保持された前記部品を前記第1の方向と異なる第2の方向から撮像して、前記部品の第2外形位置を取得する第2外形位置取得工程と、
     前記第2外形位置と、前記位置ずれ量とに基づき、前記部品の前記特徴部を基板の目標位置上に位置するように、実装する実装工程と、
    を備えた、
    実装基板の製造方法。
  2.  前記特徴部位置取得工程の後に、前記部品を撮像して前記部品の第1外形位置を取得する第3外形位置取得工程をさらに備え、
     前記第1外形位置取得工程で取得された前記第1外形位置と、前記第3外形位置取得工程で取得された前記第1外形位置との位置の差が所定の範囲内である場合に、前記保持部材により前記部品を保持する、
    請求項1に記載の実装基板の製造方法。
  3.  前記第1外形位置取得工程で取得された前記第1外形位置と、前記第3外形位置取得工程で取得された前記第1外形位置との位置の差が所定の範囲外である場合に、再度、前記特徴部位置取得工程を実行する、
    請求項2に記載の実装基板の製造方法。
  4.  前記第1外形位置取得工程と前記特徴部位置取得工程とは、部品テープのポケット内に格納されている前記部品に対して実行される、
    請求項1から3に記載の実装基板の製造方法。
  5.  前記位置ずれ量が所定の範囲よりも大きい場合は、前記保持部材により前記部品を保持しない、
    請求項1から4に記載の実装基板の製造方法。
  6.  前記第1外形位置取得工程においては第1の照明条件で前記部品を照明した状態で前記部品を撮像し、
     前記特徴部位置取得工程においては前記第1の照明条件と異なる第2の照明条件で前記部品を照明した状態で前記部品を撮像する、
    請求項1から5に記載の実装基板の製造方法。
  7.  前記第2の照明条件は、前記特徴部を照明するのに適した波長の光で照明する、
    請求項6に記載の実装基板の製造方法。
  8.  部品を供給する部品供給機構と、
     前記部品供給機構が供給する前記部品を第1の方向から撮像して、前記部品の第1外形位置を取得する第1外形位置取得部と、
     前記部品供給機構が供給する前記部品を前記第1の方向から撮像して、前記部品に形成された特徴部の位置を取得する特徴部位置取得部と、
     前記第1外形位置と前記特徴部の位置とから前記第1外形位置に対する前記特徴部の位置ずれ量を算出する位置ずれ量算出部と、
     前記部品を保持部材で保持して基板に実装する部品実装部と、
     前記部品実装部の動作を制御する制御部と、
     前記保持部材で保持された前記部品を前記第1の方向と異なる第2の方向から撮像して、前記部品の第2外形位置を取得する第2外形位置取得部と、
    を備え、
     前記制御部は、前記第2外形位置と前記位置ずれ量とに基づき、前記部品の前記特徴部を基板の目標位置上に位置するように、前記部品実装部に前記部品を実装させる、
    部品実装装置。
  9.  前記第1外形位置取得部により再度取得された前記部品の第1外形位置と、以前に取得された前記部品の前記第1外形位置との位置の差を算出する外形位置変動算出部を、
    さらに備え、
     前記外形位置変動算出部によって算出された前記位置の差が所定の範囲内である場合に、前記制御部は前記保持部材に前記部品を保持させる、
    請求項8に記載の部品実装装置。
  10.  前記外形位置変動算出部によって算出された前記位置の差が所定の範囲外である場合に、前記特徴部位置取得部は、再度前記特徴部の位置を取得する、
    請求項9に記載の部品実装装置。
  11.  前記部品供給機構が供給する部品は、部品テープのポケット内に格納されており、
     前記第1外形位置取得部と前記特徴部位置取得部は、前記ポケット内に格納されている部品を撮像する、
    請求項8から10のいずれかに記載の部品実装装置。
  12.  前記位置ずれ量が所定の範囲よりも大きい場合は、前記制御部は前記保持部材に前記部品を保持させない、
    請求項8から11のいずれかに記載の部品実装装置。
  13.  前記第1外形位置取得部は、第1の照明条件で前記部品を照明した状態で前記部品を撮像し、
     前記特徴部位置取得部は、前記第1の照明条件と異なる照明条件である第2の照明条件で前記部品を照明した状態で前記部品を撮像する、
    請求項8から12のいずれかに記載の部品実装装置。
  14.  前記第2の照明条件は、前記特徴部を照明するのに適した波長の光で照明する、
    請求項13に記載の部品実装装置。
  15.  前記第1外形位置取得部と前記特徴部位置取得部は、部品を撮像するカメラを共有している、
    請求項8から14のいずれかに記載の部品実装装置。
PCT/JP2020/022605 2019-09-02 2020-06-09 実装基板の製造方法および部品実装装置 WO2021044688A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021543955A JPWO2021044688A1 (ja) 2019-09-02 2020-06-09
EP20860268.0A EP4027765A4 (en) 2019-09-02 2020-06-09 METHOD OF MAKING A MOUNTING SUBSTRATE, AND COMPONENT MOUNTING DEVICE
US17/637,101 US20220287212A1 (en) 2019-09-02 2020-06-09 Method for manufacturing mounting substrate, and component mounting device
CN202080061156.4A CN114375617A (zh) 2019-09-02 2020-06-09 安装基板的制造方法以及部件安装装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-159287 2019-09-02
JP2019159287 2019-09-02

Publications (1)

Publication Number Publication Date
WO2021044688A1 true WO2021044688A1 (ja) 2021-03-11

Family

ID=74853137

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/022605 WO2021044688A1 (ja) 2019-09-02 2020-06-09 実装基板の製造方法および部品実装装置

Country Status (5)

Country Link
US (1) US20220287212A1 (ja)
EP (1) EP4027765A4 (ja)
JP (1) JPWO2021044688A1 (ja)
CN (1) CN114375617A (ja)
WO (1) WO2021044688A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013214781A (ja) 2013-07-23 2013-10-17 Panasonic Corp 電子部品実装方法
JP2015126216A (ja) * 2013-12-27 2015-07-06 ヤマハ発動機株式会社 部品装着装置
WO2016035135A1 (ja) * 2014-09-02 2016-03-10 富士機械製造株式会社 部品実装装置
JP2016157754A (ja) * 2015-02-24 2016-09-01 パナソニックIpマネジメント株式会社 部品実装方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2937785B2 (ja) * 1995-02-02 1999-08-23 ヤマハ発動機株式会社 実装機の部品状態検出装置
JP2007201038A (ja) * 2006-01-25 2007-08-09 Yamagata Casio Co Ltd 部品実装装置
JP5417197B2 (ja) * 2010-01-25 2014-02-12 ヤマハ発動機株式会社 検査装置および検査方法
JP6224727B2 (ja) * 2013-11-13 2017-11-01 ヤマハ発動機株式会社 部品撮像装置及びこれを用いた表面実装機
JP6828223B2 (ja) * 2016-02-04 2021-02-10 株式会社Fuji 実装装置
EP3451812B1 (en) * 2016-04-26 2022-11-30 Fuji Corporation Substrate work machine
JP6765756B2 (ja) * 2016-10-11 2020-10-07 ヤマハ発動機株式会社 部品実装機、部品認識方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013214781A (ja) 2013-07-23 2013-10-17 Panasonic Corp 電子部品実装方法
JP2015126216A (ja) * 2013-12-27 2015-07-06 ヤマハ発動機株式会社 部品装着装置
WO2016035135A1 (ja) * 2014-09-02 2016-03-10 富士機械製造株式会社 部品実装装置
JP2016157754A (ja) * 2015-02-24 2016-09-01 パナソニックIpマネジメント株式会社 部品実装方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4027765A4

Also Published As

Publication number Publication date
US20220287212A1 (en) 2022-09-08
JPWO2021044688A1 (ja) 2021-03-11
CN114375617A (zh) 2022-04-19
EP4027765A4 (en) 2022-10-26
EP4027765A1 (en) 2022-07-13

Similar Documents

Publication Publication Date Title
US7222774B2 (en) Electronic component mounting apparatus and electronic component mounting method
JP5779386B2 (ja) 電気部品装着機
CN104051294B (zh) 芯片接合机及其接合头装置、以及夹头位置调整方法
JP6231791B2 (ja) 実装装置
WO2012140975A1 (ja) 部品実装機
JP6828223B2 (ja) 実装装置
JP2011066041A (ja) 電子部品実装装置
JP4607313B2 (ja) 電子部品装着システム
US6195454B1 (en) Component mounting apparatus
JP2003298294A (ja) 電子回路部品装着システム
CN105592683B (zh) 电子部件输送吸嘴及具有其的电子部件安装装置
WO2021044688A1 (ja) 実装基板の製造方法および部品実装装置
JP6475165B2 (ja) 実装装置
JPH056912A (ja) 電子部品装着装置
JP6721716B2 (ja) 撮像装置及びこれを用いた表面実装機
JP6476294B2 (ja) 挿入部品位置決め検査方法及び挿入部品実装方法並びに挿入部品位置決め検査装置及び挿入部品実装装置
JP2022107877A (ja) 部品撮像装置および部品実装装置
JP4901451B2 (ja) 部品実装装置
JP6457245B2 (ja) 電子部品実装装置
JP2014207271A (ja) 観察装置及び部品実装機
JPH056911A (ja) 電子部品装着装置
JP4394822B2 (ja) 部品実装装置
JP6903823B2 (ja) 画像処理方法および部品実装機
JP6928786B2 (ja) 部品搭載装置および実装基板の製造方法
JP2005093906A (ja) 部品認識装置及び同装置を搭載した表面実装機並びに部品試験装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20860268

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021543955

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020860268

Country of ref document: EP

Effective date: 20220404