WO2020188647A1 - 計測装置および表面実装機 - Google Patents

計測装置および表面実装機 Download PDF

Info

Publication number
WO2020188647A1
WO2020188647A1 PCT/JP2019/010919 JP2019010919W WO2020188647A1 WO 2020188647 A1 WO2020188647 A1 WO 2020188647A1 JP 2019010919 W JP2019010919 W JP 2019010919W WO 2020188647 A1 WO2020188647 A1 WO 2020188647A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
height dimension
measurement target
reflected light
reflected
Prior art date
Application number
PCT/JP2019/010919
Other languages
English (en)
French (fr)
Inventor
敬介 榊原
Original Assignee
ヤマハ発動機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ発動機株式会社 filed Critical ヤマハ発動機株式会社
Priority to DE112019007030.4T priority Critical patent/DE112019007030T5/de
Priority to PCT/JP2019/010919 priority patent/WO2020188647A1/ja
Priority to JP2021506811A priority patent/JP7122456B2/ja
Publication of WO2020188647A1 publication Critical patent/WO2020188647A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/081Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines
    • H05K13/0813Controlling of single components prior to mounting, e.g. orientation, component geometry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/06Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material
    • G01B11/0608Height gauges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • G01B11/2522Projection by scanning of the object the position of the object changing and being recorded
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2531Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object using several gratings, projected with variable angle of incidence on the object, and one detection device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
    • G01B11/306Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces for measuring evenness

Definitions

  • the techniques disclosed herein relate to measuring devices and surface mounters.
  • Japanese Patent Application Laid-Open No. 2001-217599 is known as a height measuring device for measuring the height of a measurement target.
  • This height measuring device captures linear light projected onto a measurement target by a light beam irradiation means by an imaging means such as a CCD camera, and the height of the measurement target is determined from the deviation of the captured light from the reference position and the brightness of the light. The height is measured by the so-called optical cutting method.
  • the light projected on the measurement target is reflected toward the member different from the measurement target.
  • Light reflected from a member different from the measurement target is reflected in the captured image. Then, the measurement accuracy of the measurement target is lowered because the light of the measurement target cannot be accurately recognized or the brightness of the light cannot be accurately recognized.
  • This specification discloses a technique for suppressing a decrease in measurement accuracy of a measurement target.
  • the technology disclosed in the present specification is a measuring device that measures the height dimension of a measurement target based on an optical cutting method, and includes an imaging unit that images the measurement target while relatively moving the measurement target.
  • a plurality of light source units and a control unit wherein the imaging unit is arranged at least one at a position on both sides with respect to an imaging region for imaging the measurement target, and projects linear light toward the measurement target.
  • the reflected light reflected from the measurement target includes a first reflected light reflected from the measurement target toward the image pickup unit and a second reflected light different from the first reflected light, and the control unit includes the first reflected light.
  • Data corresponding to the first reflected light is calculated based on the received amount of the reflected light in each of the light source units imaged by the imaging unit, and the height dimension of the measurement target is measured.
  • the technique disclosed in the present specification is a surface mounter, which includes the measuring device and a component mounting device that holds the measurement target and mounts it on a substrate.
  • the reflected light to be measured is reflected light excluding the second reflected light (multiple reflected light) further reflected by other adjacent members, that is, the first reflected light. It is possible to calculate the corresponding data and obtain the height dimension of the measurement target. That is, even when the second reflected light reflected by another member or the like is incident on the image pickup unit, the accurate height dimension of the measurement target can be measured. As a result, it is possible to suppress a decrease in the accuracy of height measurement of the measurement target.
  • a method of projecting light from a plurality of light source units to a measurement target for example, a method of projecting light onto a measurement target only from one side of the imaging position can be considered.
  • a method of projecting light onto a measurement target only from one side of the imaging position can be considered.
  • the light is projected onto the measurement target only from one side of the imaging position, only one side of the measurement target is measured, so that there is a concern that the measurement accuracy may decrease.
  • the measuring device disclosed by the present specification may have the following configuration.
  • the control unit projects light onto the same measurement point of the measurement target by the plurality of light source units to take an image, and based on the lowest received amount of the reflected light received at the same measurement point.
  • the configuration may be such that the data corresponding to the first reflected light is calculated.
  • the data corresponding to the first reflected light is calculated by a simple method of obtaining the lowest received amount of the reflected light captured by the plurality of light source units. Then, by the optical cutting method, data corresponding to the first reflected light can be created, and the height dimension of the entire measurement target can be obtained.
  • the control unit calculates the height dimension data of the measurement target based on the received amount of the reflected light, and obtains the lowest height dimension data among the calculated height dimension data at the same measurement point. It may be configured to have the height dimension at the measurement point.
  • the data of the height dimension of the measurement target is calculated from the received amount of the reflected light. Then, the height dimension data corresponding to the first reflected light is obtained by setting the lowest height dimension data among the calculated height dimension data at the same measurement point as the height dimension at the measurement point. be able to. This makes it possible to measure the height of the measurement target.
  • the control unit projects light onto the same measurement point of the measurement target by the plurality of light source units to take an image, and is based on the overlapping amount of received light among the received amounts of the reflected light at the same measurement point.
  • the data may be calculated according to the first reflected light.
  • the data corresponding to the first reflected light is calculated by a simple method of obtaining the overlapping data of the received amount of the reflected light captured by the plurality of light source units, and the data corresponding to the first reflected light is calculated by the light cutting method.
  • 1 Create data according to the reflected light.
  • the control unit calculates the height dimension data of the measurement target based on the received amount of the reflected light, and the height dimension obtained by the logical product of the height dimension data calculated at the same measurement point.
  • the data may be configured to be the height dimension at the measurement point. According to such a configuration, first, the data of the height dimension of the measurement target is calculated from the received amount of the reflected light.
  • the height dimension data corresponding to the first reflected light is obtained by converting the height dimension data obtained by the logical product of the height dimension data calculated at the same measurement point into the height dimension at the measurement point. Obtainable. This makes it possible to measure the height of the measurement target.
  • Plan view of surface mounter Front view of the top of the surface mounter including the head unit Schematic diagram of the parts measurement unit Block diagram showing the electrical configuration of the surface mounter Flow chart of flatness measurement process Schematic diagram showing the state in which the light projected on the electrodes of electronic components is reflected.
  • Conceptual diagram for creating a three-dimensional shape of the first reflected light from the three-dimensional shapes of the two reflected lights Schematic diagram of the parts measurement unit in the conventional measurement method
  • Conceptual diagram of the center of gravity detection method Schematic diagram showing a state in which the light reflected from the electrode to be measured is further reflected from the adjacent electrode toward the component recognition camera.
  • Schematic diagram of the captured image in a state where the reflected light of the adjacent electrode is incident on the captured image of the electrode Conceptual diagram of the center of gravity detection method in the state of FIG.
  • Embodiment 1 of the technique disclosed herein will be described with reference to FIGS. 1-7.
  • This embodiment illustrates a surface mounter 10 for mounting an electronic component (an example of a "measurement target") E on a printed circuit board B.
  • the surface mounter 10 mounts a base 11 having a substantially rectangular shape in a plan view, a transport conveyor 12 for transporting a printed circuit board B on the base 11, and an electronic component E on the printed circuit board B.
  • the component mounting device 13 is provided, a component supply device 14 for supplying the electronic component E to the component mounting device 13, and a component measuring unit 20 for measuring the electronic component E.
  • the R direction in FIG. 1 is to the right
  • the L direction is to the left
  • the F direction is to the front
  • the B direction is to the rear
  • the U direction in FIG. 2 is upward
  • the D direction is downward.
  • the base 11 is capable of arranging a conveyor 12, a component mounting device 13, a component measuring unit 20, and the like.
  • the conveyor 12 is arranged at a substantially central portion in the front-rear direction of the base 11, and conveys the printed circuit board B from the upstream right side to the downstream left side.
  • the printed circuit board B is set on the conveyor 12 so as to be erected.
  • the printed circuit board B is carried by the conveyor 12 from the upstream (right side) to the component mounting position at the substantially central portion in the left-right direction of the base 11, and after the electronic component E is mounted, it is carried out downstream (left). ..
  • the parts supply device 14 is a feeder type, and is arranged at a total of four locations, two in each of the vertical and horizontal directions of the conveyor 12. Each component supply device 14 supplies the electronic component E from the end on the conveyor 12 side.
  • the component mounting device 13 includes a head unit 17 supported by a plurality of frames 16 arranged on a base 11, and a plurality of drive devices 18 for moving the head unit 17. It is configured to prepare.
  • the plurality of drive devices 18 are attached to a frame 16 extending in the front-rear direction, a frame 16 extending in the left-right direction, and the like, and the head unit 17 moves back and forth on the base 11 by controlling the energization of the plurality of drive devices 18. It is designed to move in the left-right direction.
  • a plurality of mounting heads 19 for holding and mounting the electronic component E are mounted on the head unit 17 side by side in the left-right direction.
  • Each mounting head 19 attracts and holds the electronic component E supplied from the component supply device 14, and mounts the electronic component E on the printed circuit board B.
  • each component measuring unit 20 has a component recognition camera (an example of an “imaging unit”) 22 that captures an image of the electronic component E attracted and held by the tip of the mounting head 19, and a line on the electronic component E. It is provided with a plurality of light source units 24 for projecting light in the shape of a shape.
  • a component recognition camera an example of an “imaging unit” 22 that captures an image of the electronic component E attracted and held by the tip of the mounting head 19, and a line on the electronic component E.
  • It is provided with a plurality of light source units 24 for projecting light in the shape of a shape.
  • each component measurement unit 20 is controlled by a control unit 110 described later.
  • the component recognition camera 22 takes an image of the electronic component E attracted and held by the mounting head 19 from below, and the control unit 110 captures the shape of the electronic component E based on the image obtained by the component recognition camera 22. The position of the electronic component E with respect to the mounting head 19 is measured. Further, in the present embodiment, the control unit 110 measures the height dimensions of the plurality of electrodes E2 provided in the electronic component E, and the flatness of the electrodes E2 in the electronic component E is based on the height dimensions of the plurality of electrodes E2. Measure the degree.
  • the component measuring unit 20 and the control unit 110 correspond to measuring devices.
  • the component recognition camera 22 may be provided with a function of measuring the height dimensions of a plurality of electrodes E2 provided on the electronic component E.
  • the component recognition camera 22 is a camera having a plurality of light receiving elements such as CCD (Charge-Coupled Device) and CMOS (Complementary Metal-Oxide Semiconductor).
  • the component recognition camera 22 is arranged with the imaging surface facing upward. As shown in FIG. 3, the optical axis A1 of the component recognition camera 22 is arranged so as to extend vertically from the component recognition camera 22 with respect to the electronic component E.
  • the component recognition camera 22 has a predetermined imaging region P along the optical axis A1. Since the electronic component E attracted and held by the mounting head 19 exists in the imaging region P, the electronic component E is imaged by the component recognition camera 22.
  • the plurality of light source units 24 are arranged at least one at each position on both sides in the left-right direction with reference to the imaging region P in which the component recognition camera 22 images the electronic component E.
  • one is arranged on each side in the left-right direction with respect to the imaging region P, and the two light source units 24 have a symmetrical positional relationship with respect to the optical axis A1 of the component recognition camera 22. ..
  • Each light source unit 24 projects linear light inclined with respect to the optical axis A1 of the component recognition camera 22 onto the imaging region P.
  • the inclination angle ⁇ of the component recognition camera 22 with respect to the optical axis A1 is set to 30 to 60 degrees, and the inclination angle of each light source unit 24 with respect to the optical axis A1 of the component recognition camera 22 is set.
  • the light source unit 24 projects the light onto the electronic component E, and the reflected light R reflected from the electronic component E is incident on the component recognition camera 22. It has become.
  • the entire surface mounter 10 is controlled and controlled by the control unit 110.
  • the control unit 110 includes an arithmetic processing unit 111, a storage unit 112, a drive control unit 113, an image processing unit 114, a component supply control unit 115, and the like, which are composed of a CPU and the like.
  • the storage unit 112 is composed of a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.
  • the storage unit 112 stores various programs and various data executed by the arithmetic processing unit 111.
  • the mounting program a mounting program that controls the component mounting device 13, the transport conveyor 12, and the component supply device 14 to arrange the electronic component E on the printed circuit board B, and the electrons attracted and held by the mounting head 19
  • a coplanarity measurement program for measuring the flatness of the electrode E2 in the component E is stored.
  • the drive control unit 113 drives the conveyor 12, the drive device 18, and the like according to the command of the arithmetic processing unit 111.
  • the image processing unit 114 generates image data by converting an electric signal output from the component recognition camera 22 in the component measurement unit 20 according to a command from the arithmetic processing unit 111.
  • the component supply control unit 115 controls the component supply device 14 according to a command from the arithmetic processing unit 111.
  • the arithmetic processing unit 111 controls each unit of the surface mounter 10 by executing various control programs of the storage unit 112.
  • the arithmetic processing unit 111 drives the conveyor 12 and the component mounting device 13 via the drive control unit 113, for example, based on the mounting program of the storage unit 112.
  • the component supply device 14 is controlled via the component supply control unit 115.
  • the electronic component E is mounted on the printed circuit board B.
  • the arithmetic processing unit 111 drives the component recognition camera 22 via the image processing unit 114 according to the coplanarity measurement program stored in the storage unit 112.
  • the arithmetic processing unit 111 captures the imaged data captured by the component recognition camera 22 via the image processing unit 114, and based on the imaged data, the coplanarity of the surface composed of the positions of the lower ends of the plurality of electrodes E2 in the electronic component E ( Flatness) is determined.
  • the electronic component E mounted on the printed circuit board B in the surface mounter 10 includes, for example, an electronic component such as a DIP (Dual inline Package) in which a large number of electrodes project downward from the lower surface of the package portion.
  • an electronic component such as a DIP (Dual inline Package) in which a large number of electrodes project downward from the lower surface of the package portion.
  • electronic components such as BGA (Ball Grid Alley) in which spherical or hemispherical electrodes project downward from the bottom surface of the package portion.
  • an electronic component E having a rectangular parallelepiped shape component body E1 and an electrode E2 projecting downward from the bottom surface of the component body E1 in a hemispherical shape is illustrated.
  • an electrode E2 projecting downward from the bottom surface of the component body E1 in a hemispherical shape is illustrated.
  • there is a variation in the height of the lowermost end of each electrode E2 there is a concern that when the electronic component E is mounted on the printed circuit board B, some of the electrodes E2 do not come into contact with the printed circuit board B, resulting in mounting failure. Will be done.
  • the control unit 110 moves the electronic component E in the X direction with respect to the component recognition camera 22 while projecting the light of the light source unit 24 onto the electronic component E, and during this movement,
  • the flatness of the height of the lowermost end of each electrode E2, that is, the so-called coplanarity, is measured by an optical cutting method in which the electronic component E is continuously imaged a plurality of times.
  • the control unit 110 discards the electronic component E as a defective component.
  • the method of measuring the height dimension of the electrode E2 in the electronic component E by the optical cutting method will be briefly described below. First, a conventional measurement method using the optical cutting method will be described with reference to FIGS. 8 to 10.
  • the moving direction X of the electronic component E and the optical axis A1 of the component recognition camera 22 are used.
  • one light source unit 24 projects linear light inclined with respect to the optical axis A1.
  • the electronic component E is moved in the X direction, and the electronic component E passing through the imaging region P is continuously imaged a plurality of times. Then, the overall height dimension of the electrode E2 is measured based on the light shift position h in each captured image 60.
  • control unit 110 continuously images the electronic component E in the imaging region P a plurality of times while moving the electronic component E along the movement path C in the component measurement unit 20.
  • the light shift position h is obtained in each captured image 60.
  • the light is projected onto the imaging region P.
  • the position of the light Re1 projected on the imaging region P is set as the reference position S.
  • the electronic component E enters the imaging region P as shown in FIG. 9, light is projected onto the electronic component E, and the light Re2 projected onto the electronic component E according to the height dimension of the electronic component E is the reference position. It is projected off S.
  • the deviation position h (see FIG. 9) of the light projected on the electronic component E from the reference position S is based on the center of gravity detection method based on the position of the light Re2 projected on the electronic component E and the brightness L of the light. decide.
  • FIG. 10 shows the brightness L at the X coordinate of the light projected on the electronic component E at the Y coordinate surrounded by a square in the captured image 60 shown in FIG.
  • the horizontal axis represents the distance of the light projected on the electrode E2 from the reference position S in X coordinates
  • the vertical axis represents the luminance L at each X coordinate.
  • the center of gravity CP of the Y coordinate in the captured image 60 is obtained by the following equation (1) based on the coordinates of the light Re2 projected on the electronic component E and the brightness L of the light Re2.
  • xi is the distance (X coordinate) from the reference position S
  • L is the luminance of each X coordinate. Then, the X coordinate of the center of gravity position CP obtained by the equation (1) is determined as the deviation position h from the reference position S of the light projected on the electrode E2.
  • control unit 110 determines the deviation position h of the light of each Y coordinate from the reference position S in the captured image 60, and projects the light by connecting the deviation position h of the light at each Y coordinate in the Y direction.
  • the cross-sectional shape (height dimension in the cross section) of the electronic component E at the desired position is obtained.
  • control unit 110 obtains the cross-sectional shape of the electronic component E in each captured image 60, and connects the cross-sectional shape of the electronic component E in each captured image 60 in the X direction to obtain a three-dimensional shape of the electronic component E. create.
  • the reflected light R of the light projected from one light source unit 24 is imaged by the component recognition camera 22, and the electrode E2 of the electronic component E is based on the received amount of the reflected light R. Measure the height dimension. Then, the coplanarity of the height of the lowermost end of each electrode E2 is determined.
  • the light Li projected on the electrode E2 to be measured is directed to the adjacent electrode E2 different from the measurement target.
  • the light RA reflected from the electrode E2, which is different from the electrode E2 to be measured is incident on the component recognition camera 22 on the captured image 60.
  • the light R0 reflected by the electrode E2 to be measured and the light RA reflected by the adjacent electrode E2 are imaged.
  • the center of gravity position CP is determined by the optical cutting method, as shown in FIG. 13, the center of gravity position CP is determined to be a position shifted in a direction larger than the original center of gravity position CP0. , The height dimension of the electrode E2 is measured higher than it should be.
  • the flatness measurement process is executed by using the two light source units 24 in the component measurement unit 20.
  • the flatness measurement process in the present embodiment will be described below with reference to the flowchart shown in FIG.
  • the control unit 110 of the present embodiment measures the height dimension of the electrode E2 of the electronic component E existing in the imaging region P in the component measurement unit 20, first, one of the two light source units 24 (1 light source unit ( As shown in FIG. 6, the light source unit 24) 24L on the left side of FIG. 3 provides a linear light Li1 inclined from the left side with respect to the electrode E2 to be measured (FIG. 6 shows three light Li1s for explanation. As described, the light is continuously projected onto the electrode E2) (S11). Then, the three-dimensional shape M1 of the electrode E2 to be measured is created by the same optical cutting method as in the conventional case (S12).
  • the projected light Li1 is reflected by the electrode E2, and the reflected light R is incident on the component recognition camera 22.
  • some light projected onto the left side of the electrode E2 is reflected toward the left side.
  • the light reflected toward the left side is further reflected by the electrode E2L arranged on the left side of the electrode E2 to be measured, and is reflected multiple times differently from the light reflected from the electrode E2 to be measured toward the component recognition camera 22. Light enters the component recognition camera 22.
  • the reflected light R of the electrode E2 imaged by the component recognition camera 22 is the first reflected light R1 reflected from the electrode E2 toward the component recognition camera 22, and is reflected from the electrode E2 to recognize the component from other members.
  • the second reflected light R2 reflected toward the camera 22 is included.
  • the height dimension of the left end portion of the electrode E2 is measured high, and as shown in the upper part of FIG. 7, the height of the left end portion is measured.
  • a three-dimensional shape M1 having a high dimension is created. Then, the three-dimensional shape M1 is stored in the storage unit 112 together with the XY coordinates in the imaging region P.
  • the control unit 110 has the same electrode E2 projected by the other light source unit (the light source unit 24 on the right side of FIG. 3) 24R of the two light source units 24 by the light Li1 of the one light source unit 24L.
  • a linear light Li2 inclined from the right side is projected onto the measurement location (S13). Therefore, in the present embodiment, one light source unit 24R and the other light source unit 24L project light onto the electrode E2 at different times, and one light source unit 24R and the other light source unit 24L are in the imaging region P. Light is projected onto the same measurement location of the electrode E2 at the same location.
  • the one light source unit 24R and the other light source unit 24L may project light at the same measurement location of the electrode E2 at different locations in the imaging region P in the horizontal direction at different projection times. Further, one light source unit 24R and the other light source unit 24L may project light onto the electrode E2 at the same time, and when the light is projected at the same time, the imaging time can be shortened. Then, the three-dimensional shape M2 of the electrode E2 to be measured is created by the same optical cutting method as in the conventional case (S14).
  • the projected light is reflected by the electrode E2, and the reflected light R is incident on the component recognition camera 22.
  • some light projected on the right side of the electrode E2 is reflected toward the right side.
  • the light reflected toward the right side is further reflected by the electrode E2R arranged on the right side of the measurement target electrode E2, and is reflected multiple times differently from the light reflected from the measurement target electrode E2 toward the component recognition camera 22. Light enters the component recognition camera 22.
  • the reflected light R of the electrode E2 imaged by the component recognition camera 22 is the first reflected light R1 reflected from the electrode E2 toward the component recognition camera 22 and the electrode E2. It contains a second reflected light R2 that is reflected from and further reflected from another member toward the component recognition camera 22.
  • the height dimension of the right end of the electrode E2 is measured high, and as shown in the middle of FIG. 7, the height of the right end is measured.
  • a three-dimensional shape M2 having a high dimension is created. Then, the three-dimensional shape M2 is stored in the storage unit 112 together with the XY coordinates in the imaging region P.
  • the control unit 110 has a height at the same measurement point (XY coordinates) of the three-dimensional shape M1 obtained by the projection of one light source unit 24L and the three-dimensional shape M2 obtained by the other light source unit 24R.
  • the dimensional data are compared (S15).
  • the height dimension data having a low height is set as the height of each measurement point (XY coordinates).
  • a new three-dimensional shape M3 as shown in the lower part of FIG. 7 is created (S16). Specifically, at the coordinates on the left side of X1 and on the right side of X3 in FIG.
  • the height dimension data of the three-dimensional shape M2 (height dimension data lower than the three-dimensional shape M1) M2A is a new three-dimensional shape. Is selected as the height dimension data for.
  • the height dimension data of the three-dimensional shape M1 (height dimension data lower than the three-dimensional shape M2) M1A is the height dimension data of the new three-dimensional shape. Is selected as.
  • the first reflected light R1 reflected from the electrode E2 toward the component recognition camera 22 is calculated based on the lowest received amount of the reflected light R at the same measurement point (XY coordinates), and a new 3 is calculated.
  • the dimensional shape M3 is created.
  • the newly created three-dimensional shape M3 is in a state in which the light incident on the component recognition camera 22 is removed from a portion different from the measurement target electrode E2, and the measurement target electrode E2 is transferred to the component recognition camera 22. It will be created based only on the first reflected light R1 reflected toward it. Thereby, the accurate height dimension of each electrode E2 in the electronic component E can be obtained.
  • the accurate height dimension of the electrode E2 to be measured can be measured. As a result, it is possible to suppress a decrease in the accuracy of height measurement of the electrode E2 to be measured. Then, the height dimension of each electrode E2 in the electronic component E is measured (S17), and the coplanarity in the electronic component E is determined (S18).
  • the component measuring unit (measuring device) 20 of the present embodiment measures the height dimension of the measurement target based on the optical cutting method, and measures the electrode E2 (measurement target) of the electronic component E.
  • a component recognition camera (imaging unit) 22 that images the electrode E2 to be measured while being relatively moved, and at least one component recognition camera 22 are arranged at positions on both sides with reference to the imaging region P that images the electrode E2. It includes a plurality of light source units 24 that project linear light toward the electrode E2 to be measured, and a control unit 110.
  • the reflected light R reflected from the electrode E2 includes a first reflected light R1 reflected from the electrode E2 toward the component recognition camera 22 and a second reflected light R2 different from the first reflected light R1.
  • the control unit 110 has a three-dimensional shape (as shown in the lower part of FIG. 7) according to the first reflected light R1 based on the received amount of the reflected light R in each light source unit 24 imaged by the component recognition camera 22. Data) M3 is calculated, and the height dimension of the electrode E2 to be measured is measured.
  • Data corresponding to the reflected light R1 can be calculated to obtain the height dimension of the measurement target. That is, even when the second reflected light R2 is incident on the component recognition camera 22 by another member or the like, the accurate height dimension of the electrode E2 to be measured can be measured. As a result, it is possible to suppress a decrease in the accuracy of measuring the height of the electrode E2 to be measured, and by extension, the accuracy of measuring the coplanarity of the electronic component E.
  • a method of projecting light from a plurality of light source units to a measurement target for example, a method of projecting light onto a measurement target only from one side of the imaging position can be considered.
  • a method of projecting light onto a measurement target only from one side of the imaging position can be considered.
  • the light is projected onto the measurement target only from one side of the imaging region P, only one side of the measurement target is measured, so that there is a concern that the measurement accuracy may decrease.
  • the control unit 110 projects light onto the same location of the electrode E2 by the plurality of light source units 24 to take an image, and of the reflected light R at the same coordinates.
  • the three-dimensional shape (data) corresponding to the first reflected light R1 shown in the lower part of FIG. 7 is calculated.
  • the height dimension data (three-dimensional shapes M1 and M2) of the measurement target are calculated based on the received amount of the reflected light R, and among the calculated height dimension data at the same measurement location.
  • the data of the lowest height dimension is taken as the height dimension at the measurement point.
  • the present embodiment it is as simple as calculating only the first reflected light R1 by excluding the reflected light R that is incident on the component recognition camera 22 from a location different from the electrode E2 to be measured and the amount of received light is high.
  • the three-dimensional shape M3 can be created and the height dimension of the electrode E2 can be measured by the above method.
  • the flatness measurement process of the second embodiment is a modification of S16 of the first embodiment, and the configuration, action, and effect common to the first embodiment are duplicated, and thus the description thereof will be omitted. Further, the same reference numerals are used for the same configurations as in the first embodiment.
  • control unit 110 can create the three-dimensional shapes in S12 and S14, and in S15, the same measurement points (same XY coordinates). ), The height dimensions of the three-dimensional shapes are compared. Then, the height dimension data (data based on the overlapping light receiving amount) overlapping in the two three-dimensional shapes is determined as the height dimension of each measurement point, and a new three-dimensional shape (data) is created.
  • the height dimension data calculated based on the overlapping amount of received light, that is, each at the same measurement point.
  • the logical product of the height dimension of the reflected light R is calculated as the height dimension of the first reflected light R1 and determined as the height dimension of the electrode E2 (S26).
  • the three-dimensional shape (data) of the first reflected light R1 can be created, and the height dimension of the electrode E2 can be measured.
  • the height dimension data M2A of the three-dimensional shape M2 is the height dimension data of the three-dimensional shape M1 at the coordinates on the left side of X1 and on the right side of X3 (FIG. 7).
  • the height dimension data M2A which overlaps with (a part of the three-dimensional shape M1) and is the overlapping data, is selected as the height dimension data of the new three-dimensional shape.
  • the height dimension data M1A of the three-dimensional shape M1 overlaps with the height dimension data of the three-dimensional shape M2 (a part of the three-dimensional shape M2 in FIG. 7).
  • the height dimension data M1A which is the data being used, is selected as the height dimension data of the new three-dimensional shape.
  • the light incident on the component recognition camera 22 is removed from a position different from the electrode E2 to be measured, and the electrode to be measured is measured. It will be created based only on the light directly reflected from E2. As a result, the height dimension of each electrode E2 in the electronic component E can be obtained, and it is possible to suppress a decrease in the accuracy of height measurement of the measurement target.
  • the height dimension of each electrode E2 in the electronic component E is measured (S17), and the coplanarity in the electronic component E is determined (S18). That is, since the decrease in the measurement accuracy of the height dimension of each electrode E2 in the electronic component E is suppressed, it is possible to suppress the decrease in the measurement accuracy of the coplanarity in the electronic component E.
  • the techniques disclosed herein are not limited to the embodiments described above and in the drawings, and include, for example, various aspects such as: (1)
  • the measurement of the hemispherical electrode E2 is shown as an example in the component measuring unit 20.
  • the present invention is not limited to this, and electronic components such as DIP (Dual inline Package) in which a large number of electrodes project downward from the package portion and a large number of electrodes from the package portion such as QFP (Quad Flat Package) are used. It may be applied to the measurement of an electronic component which is bent downward after extending to the side of the package portion.
  • DIP Direct inline Package
  • QFP Quad Flat Package
  • the surface mounter 10 provided with the component measuring unit 20 is shown as an example.
  • the present invention is not limited to this, and the component measuring unit disclosed in the present specification may be applied to an inspection device or the like.
  • the deviation position of the light projected on the electrode E2 by the light source unit 24 is determined by the center of gravity detection method.
  • the present invention is not limited to this, and a curve approximation method may be used to determine the position of the light shift.
  • one light source unit 24 is arranged on each side of the image pickup region P of the component recognition camera 22.
  • the present invention is not limited to this, and a plurality of light source units may be arranged on both sides of the imaging region of the component recognition camera.
  • the light from the two light source units 24 is projected at the same angle with respect to the optical axis A1 of the component recognition camera 22.
  • the present invention is not limited to this, and the light in the light source unit may be projected at different angles to correct the difference in angles.

Abstract

本明細書によって開示される計測装置は、光切断法に基づいて計測対象の高さ寸法を計測する部品計測部20であって、電子部品Eを移動させながら電極E2を撮像する部品認識カメラ22と、撮像領域Pを基準に両側の位置に1ずつ配置され、電極E2に線状の光を投影する複数の光源部24と、制御部110と、を備えている。制御部110は、それぞれの光源部24における反射光Rの受光量に基づいて、電極E2から部品認識カメラ22に向かって反射する第1反射光R1に応じた3次元形状を算出し、電極E2の高さ寸法を計測する。

Description

計測装置および表面実装機
 本明細書によって開示される技術は、計測装置および表面実装機に関する。
 例えば、計測対象の高さを計測する高さ計測装置として、特開2001-217599号公報が知られている。この高さ計測装置は、光線照射手段によって計測対象へ投影した線状の光をCCDカメラなどの撮像手段によって撮像し、撮像した光の基準位置からのずれや光の輝度から計測対象の高さを計測する、いわゆる光切断法によって高さ計測を行うものである。
特開2001-217599号公報
 ところで、上記の計測装置では、計測対象の間の距離が近い場合や他の部材との距離が近い場合には、計測対象に投影した光が、計測対象とは異なる部材に向かって反射し、撮像した画像に計測対象とは異なる部材から反射した光が映り込んでしまう。すると、計測対象の光を正確に認識することができなくなったり、光の輝度を正確に認識することができなくなったりすることにより、計測対象の計測精度が低下してしまう。
 本明細書では、計測対象の計測精度が低下することを抑制する技術を開示する。
 本明細書によって開示される技術は、光切断法に基づいて計測対象の高さ寸法を計測する計測装置であって、前記計測対象を相対的に移動させながら前記計測対象を撮像する撮像部と、前記撮像部が前記計測対象を撮像する撮像領域を基準に両側の位置に少なくとも1ずつ配置され、前記計測対象に向けて線状の光を投影する複数の光源部と、制御部と、を備え、前記計測対象から反射する反射光は、前記計測対象から前記撮像部に向かって反射する第1反射光と、前記第1反射光とは異なる第2反射光とを含み、前記制御部は、前記撮像部によって撮像されたそれぞれの前記光源部における前記反射光の受光量に基づいて前記第1反射光に応じたデータを算出し、前記計測対象の高さ寸法を計測する。
 また、本明細書によって開示される技術は、表面実装機であって、前記計測装置と、前記計測対象を保持して基板に実装する部品実装装置と、を備える。
 このような構成の計測装置によると、例えば、計測対象の反射光が隣接する他の部材によって更に反射する第2反射光(多重の反射光)を除いた反射光、すなわち、第1反射光に応じたデータを算出し、計測対象の高さ寸法を求めることができる。つまり、他の部材などによって反射した第2反射光が撮像部に入射される場合でも、計測対象の正確な高さ寸法を計測できる。これにより、計測対象の高さ計測の精度が低下することを抑制できる。
 ところで、複数の光源部から計測対象に光を投影する方法として、例えば、撮像位置の一側からのみ計測対象に光を投影する方法が考えられる。しかしながら、撮像位置の一側からのみ計測対象に光を投影する場合には、計測対象の一側のみを計測することになるため、計測精度が低下してしまうことが懸念される。
 ところが、このような構成によると、計測対象に対して撮像位置の両側から光を投影して反射光を撮像し、計測対象全体の高さを計測するから、計測精度が低下することを抑制できる。
 本明細書によって開示される計測装置は、以下の構成としてもよい。
 前記制御部は、前記複数の光源部によって前記計測対象の同一の測定箇所に光を投影して撮像し、同一の測定箇所におけるそれぞれの前記反射光の受光量のうち最も低い受光量に基づいて前記第1反射光に応じたデータを算出する構成としてもよい。
 このような構成によると、複数の光源部によって撮像されたそれぞれの反射光の受光量のうち最も低い受光量を求める簡便な方法によって、第1反射光に応じたデータを算出する。そして、光切断法によって、第1反射光に応じたデータを作成し、計測対象全体の高さ寸法を求めることができる。
 前記制御部は、前記反射光の受光量に基づいて計測対象の高さ寸法のデータを算出し、同一の測定箇所においてそれぞれの算出した高さ寸法のデータのうち最も低い高さ寸法のデータを前記測定箇所における高さ寸法とする構成としてもよい。
 このような構成によると、まず、反射光の受光量から計測対象の高さ寸法のデータを算出する。そして、同一の測定箇所においてそれぞれの算出した高さ寸法のデータのうち最も低い高さ寸法のデータを測定箇所における高さ寸法とすることによって、第1反射光に対応する高さ寸法データを得ることができる。これにより、計測対象の高さ計測を行うことができる。
 前記制御部は、前記複数の光源部によって前記計測対象の同一の測定箇所に光を投影して撮像し、同一の測定箇所におけるそれぞれの前記反射光の受光量のうち、重複する受光量に基づいて前記第1反射光に応じたデータを算出する構成にしてもよい。
 このような構成によると、複数の光源部によって撮像されたそれぞれの反射光の受光量の重複データを求める簡便な方法によって、第1反射光に応じたデータを算出し、光切断法によって、第1反射光に応じたデータを作成する。これにより、計測対象全体の高さ寸法を求めることができる。
 前記制御部は、前記反射光の受光量に基づいて計測対象の高さ寸法のデータを算出し、同一の測定箇所においてそれぞれ算出した高さ寸法のデータの論理積によって得られた高さ寸法のデータを前記測定箇所における高さ寸法とする構成としてもよい。
 このような構成によると、まず、反射光の受光量から計測対象の高さ寸法のデータを算出する。そして、同一の測定箇所においてそれぞれ算出した高さ寸法のデータの論理積によって得られた高さ寸法のデータを測定箇所における高さ寸法とすることによって第1反射光に対応する高さ寸法データを得ることができる。これにより、計測対象の高さ計測を行うことができる。
 本明細書によって開示される技術によれば、計測対象の計測精度が低下することを抑制できる。
表面実装機の平面図 ヘッドユニットを含む表面実装機の上部の正面図 部品計測部の模式図 表面実装機の電気的構成を示すブロック図 平坦度計測処理のフローチャート図 電子部品の電極に投影した光が反射している状態を示す模式図 2つの反射光の3次元形状から第1反射光にかかる3次元形状を作成する概念図 従来の計測方法における部品計測部の模式図 光切断法における撮像画像の模式図 重心検出法の概念図 計測対象の電極から反射した光が隣の電極から部品認識カメラに向かって更に反射している状態を示す模式図 電極の撮像画像に隣の電極の反射光が入射した状態の撮像画像の模式図 図12の状態における重心検出法の概念図 実施形態2にかかる平坦度計測処理のフローチャート図
 <実施形態>
 本明細書に開示された技術における実施形態1について図1から図7を参照して説明する。
 本実施形態は、電子部品(「計測対象」の一例)Eをプリント基板B上に実装する表面実装機10を例示している。表面実装機10は、図1に示すように、平面視略矩形状の基台11と、基台11上にプリント基板Bを搬送する搬送コンベア12と、プリント基板B上に電子部品Eを実装する部品実装装置13と、部品実装装置13に電子部品Eを供給する部品供給装置14と、電子部品Eを計測する部品計測部20と、を備えて構成されている。なお、以下の説明において、図1におけるR方向を右方、L方向を左方、F方向を前方、B方向を後方とし、図2におけるU方向を上方、D方向を下方として説明する。
 基台11は、図1に示すように、搬送コンベア12、部品実装装置13、部品計測部20などが配置可能とされている。
 搬送コンベア12は、図1に示すように、基台11の前後方向の略中央部に配されており、プリント基板Bを上流である右方から下流である左方に向かって搬送する。搬送コンベア12には、プリント基板Bが架設するようにセットされる。プリント基板Bは、搬送コンベア12によって上流(右方)から基台11の左右方向略中央部の部品実装位置に搬入され、電子部品Eが実装された後、下流(左方)に搬出される。
 部品供給装置14は、図1に示すように、フィーダ型であって、搬送コンベア12の上下方向両側に左右方向に2つずつ、合計4箇所に配置されている。各部品供給装置14は、搬送コンベア12側の端部から電子部品Eを供給する。
 部品実装装置13は、図1および図2に示すように、基台11上に配置された複数のフレーム16に支持されたヘッドユニット17と、ヘッドユニット17を移動させる複数の駆動装置18とを備えて構成されている。
 複数の駆動装置18は、前後方向に延びるフレーム16や左右方向に延びるフレーム16などに取り付けられており、複数の駆動装置18が通電制御されることにより、ヘッドユニット17が基台11上を前後左右方向に移動するようになっている。
 ヘッドユニット17には、図1および図2に示すように、電子部品Eの保持および実装を行う実装ヘッド19が左右方向に複数並んで搭載されている。各実装ヘッド19は、部品供給装置14から供給される電子部品Eを吸着して保持し、プリント基板B上に実装する。
 部品計測部20は、図1に示すように、基台11の前後方向の両側にそれぞれ配置されている。それぞれの部品計測部20は、図3に示すように、実装ヘッド19の先端に吸着保持された電子部品Eを撮像する部品認識カメラ(「撮像部」の一例)22と、電子部品Eに線状の光を投影する複数の光源部24とを備えている。
また、それぞれの部品計測部20は、後述する制御部110によって制御される。部品認識カメラ22は、実装ヘッド19に吸着保持されている電子部品Eを下方から撮像し、制御部110は、部品認識カメラ22が撮像して得た画像に基づいて、電子部品Eの形状、実装ヘッド19に対する電子部品Eの位置などを計測する。また、本実施形態では、制御部110は、電子部品Eに設けられた複数の電極E2の高さ寸法を計測し、複数の電極E2の高さ寸法に基づいて電子部品Eにおける電極E2の平坦度を計測する。部品計測部20と、制御部110とが計測装置に相当する。
なお、部品認識カメラ22に、電子部品Eに設けられた複数の電極E2の高さ寸法を計測する機能を持たせてもよい。
 部品認識カメラ22は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)などの複数の受光素子を有するカメラである。部品認識カメラ22は、撮像面を上に向けた姿勢で配されている。部品認識カメラ22の光軸A1は、図3に示すように、部品認識カメラ22から電子部品Eに対して上下方向に延びる配置とされている。
 部品認識カメラ22は、図3に示すように光軸A1に沿って予め定められた撮像領域Pを持っている。実装ヘッド19に吸着保持された電子部品Eが撮像領域Pに存在することにより、部品認識カメラ22によって電子部品Eが撮像される。
 複数の光源部24は、図3に示すように、部品認識カメラ22が電子部品Eを撮像する撮像領域Pを基準に左右方向両側の位置に少なくとも1ずつ配置されている。本実施形態は、撮像領域Pを基準に左右方向両側に1つずつ配置されており、2つの光源部24は、部品認識カメラ22の光軸A1を基準に左右対称な位置関係となっている。
 それぞれの光源部24は、部品認識カメラ22の光軸A1に対して傾斜した線状の光を撮像領域Pに投影する。本実施形態の光源部24は、部品認識カメラ22の光軸A1に対する傾斜角度θが30度から60度に設定されており、部品認識カメラ22の光軸A1に対するそれぞれの光源部24の傾斜角度は同一とされている。
 つまり、本実施形態では、撮像領域Pに電子部品Eが存在すると、光源部24によって電子部品Eに光が投影され、電子部品Eから反射した反射光Rが部品認識カメラ22に入射するようになっている。
 次に、表面実装機10の電気的構成について、図4を参照して説明する。
 表面実装機10は、制御部110によってその全体が制御統括されている。制御部110は、CPUなどによって構成される演算処理部111、記憶部112、駆動制御部113、画像処理部114、部品供給制御部115などを有している。
 記憶部112は、ROM(Read Only Memory)やRAM(Random Access Memory)等から構成される。記憶部112には、演算処理部111が実行する各種プログラムや各種データなどが記憶されている。具体的には、実装プログラムとしては、部品実装装置13、搬送コンベア12、部品供給装置14を制御して電子部品Eをプリント基板Bに配置する実装プログラムや、実装ヘッド19に吸着保持された電子部品Eにおける電極E2の平坦度を計測するコプラナリティ計測プログラムなどが記憶されている。
 駆動制御部113は、演算処理部111の指令により、搬送コンベア12や駆動装置18などを駆動させる。
 画像処理部114は、演算処理部111の指令により、部品計測部20における部品認識カメラ22から出力された電気信号を変換することによって画像データを生成する。
 部品供給制御部115は、演算処理部111の指令により、部品供給装置14を制御する。
 演算処理部111は、記憶部112の各種制御プログラムを実行することによって表面実装機10の各部を制御する。演算処理部111は、例えば、記憶部112の実装プログラムに基づいて、駆動制御部113を介して搬送コンベア12および部品実装装置13を駆動させる。また、部品供給制御部115を介して部品供給装置14を制御する。これにより、プリント基板Bに電子部品Eを実装する。
 また、演算処理部111は、記憶部112に記憶されたコプラナリティ計測プログラムに従って、画像処理部114を介して部品認識カメラ22を駆動させる。演算処理部111は、部品認識カメラ22により撮像した撮像データを画像処理部114介して取り込み、撮像データに基づいて、電子部品Eにおける複数の電極E2の下端の位置から構成される面のコプラナリティ(平坦度)を判定する。
 ところで、表面実装機10においてプリント基板Bに実装される電子部品Eには、例えば、DIP(Dual inline Package)のような、パッケージ部分の下面から多数の電極が下方に突出している電子部品や、BGA(Ball Grid Allay)のような、パッケージ部分の底面から球状あるいは半球状の電極が下方に突出している電子部品がある。
 本実施形態では、図3および図6に示すように、直方体の形状を有する部品本体E1と、部品本体E1の底面から半球状に下方に突出する電極E2とを備える電子部品Eを例示している。ここで、各電極E2の最下端の高さにバラツキがあると電子部品Eをプリント基板Bに搭載したときに一部の電極E2がプリント基板Bに接触しないことによって実装不良となることが懸念される。
 そこで、制御部110は、図3に示すように、電子部品Eに光源部24の光を投影しながら電子部品Eを部品認識カメラ22に対してX方向に移動させ、この移動の間に、電子部品Eを複数回連続的に撮像する光切断法によって各電極E2の最下端の高さの平坦度、いわゆるコプラナリティを計測する。制御部110は、コプラナリティが基準値よりも悪い場合(すなわち電極E2の高さのバラツキが大きい場合)は不良部品として電子部品Eを廃棄する。
 以下に、光切断法による電子部品Eにおける電極E2の高さ寸法の計測方法について簡単に説明する。
 まず、光切断法を用いた従来の計測方法について、図8から図10を参照して説明する。
 一般に、光切断法を用いた従来の計測方法では、図8に示すように、電子部品Eの高さ寸法を計測する場合、電子部品Eの移動方向Xと部品認識カメラ22の光軸A1に沿って予め定められた撮像領域Pに、1つの光源部24から光軸A1に対して傾斜する線状の光を投影する。
 次に、撮像領域Pに光を投影した状態において、図8に示すように、電子部品EをX方向に移動させ、撮像領域Pを通過する電子部品Eを複数回連続的に撮像する。そして、各撮像画像60における光のずれ位置hに基づいて電極E2の全体の高さ寸法を計測する。
 詳細には、制御部110は、部品計測部20において、まず、電子部品Eを移動経路Cに沿って移動させつつ、撮像領域Pにおいて電子部品Eを複数回に亘って連続的に撮像し、各撮像画像60において光のずれ位置hを求める。
 ここで、電子部品Eが撮像領域P内に進入する前の状態では、光は撮像領域Pに投影される。撮像領域Pに投影される光Re1の位置は基準位置Sとされる。電子部品Eが撮像領域P内に進入すると、図9に示すように、光が電子部品Eに投影され、電子部品Eの高さ寸法に応じて電子部品Eに投影される光Re2が基準位置Sからずれて投影される。
 電子部品Eに投影される光の基準位置Sからのずれ位置h(図9参照)は、電子部品Eに投影される光Re2の位置と光の輝度Lをもとに重心検出法に基づいて決定する。
 図10は、図9に示す撮像画像60において四角で囲んだY座標における電子部品Eに投影された光のX座標における輝度Lを表している。図10において、横軸は電極E2に投影された光の基準位置Sからの距離をX座標で示しており、縦軸は、各X座標における輝度Lを示している。
 撮像画像60におけるY座標の重心位置CPは、電子部品Eに投影される光Re2の座標と光Re2の輝度Lをもとに以下の式(1)によって求められる。式(1)においてxiは基準位置Sからの距離(X座標)であり、Lは各X座標の輝度である。
Figure JPOXMLDOC01-appb-M000001
 そして、式(1)で求められた重心位置CPのX座標が電極E2に投影される光の基準位置Sからのずれ位置hとして決定される。
 次に、制御部110は、撮像画像60における各Y座標の光の基準位置Sからのずれ位置hを決定し、各Y座標における光のずれ位置hをY方向に繋ぐことにより、光を投影した位置における電子部品Eの断面形状(断面における高さ寸法)を求める。
 そして、制御部110は、それぞれの撮像画像60において電子部品Eの断面形状を求め、それぞれの撮像画像60における電子部品Eの断面形状をX方向に繋ぐことによって、電子部品Eの3次元形状を作成する。
 以上のように、従来の計測方法では、1つの光源部24から投影された光の反射光Rを部品認識カメラ22によって撮像し、反射光Rの受光量に基づいて電子部品Eの電極E2の高さ寸法を計測する。そして、各電極E2の最下端の高さのコプラナリティを判定する。
 ところで、例えば、電子部品Eにおける電極E2の間の距離が近い場合には、図11に示すように、計測対象の電極E2に投影した光Liが、計測対象とは異なる隣の電極E2に向かって反射し、撮像画像60に計測対象の電極E2とは異なる電極E2から反射した光RAが部品認識カメラ22に入射してしまう。すると、図12に示すように、撮像画像60において、計測対象の電極E2において反射した光R0と、隣の電極E2において反射した光RAが撮像されてしまう。
 したがって、従来の計測方法では、光切断法による重心位置CPの決定の際に、図13示すように、重心位置CPが本来の重心位置CP0よりも大きくなる方向にずれた位置に決定されてしまい、電極E2の高さ寸法が本来よりも高く計測されてしまう。
 そこで、本実施形態は、部品計測部20における2つの光源部24を用いて平坦度計測処理を実行する。
 以下に、本実施形態における平坦度計測処理について、図5に示すフローチャートを参照しつつ説明する。
 本実施形態の制御部110は、部品計測部20において撮像領域Pに存在する電子部品Eの電極E2の高さ寸法を計測する場合、まず、2つの光源部24のうちの一方の光源部(図3の図示左側の光源部24)24Lによって、図6に示すように、計測対象の電極E2に対して左側から傾斜した線状の光Li1(図6は説明のために3つの光Li1を記載しているが、光は連続して電極E2に投影される。)を投影する(S11)。そして、従来と同様の光切断法によって計測対象である電極E2の3次元形状M1を作成する(S12)。
 ここで、電極E2に対して左斜めから光が投影されると、投影された光Li1は電極E2において反射し、反射光Rは部品認識カメラ22に入射する。しかしながら、電極E2の左側部に投影される一部の光は、左側に向かって反射する。
 左側に向かって反射した光は、計測対象の電極E2の左側に配置された電極E2Lによって更に反射し、計測対象の電極E2から部品認識カメラ22に向かって反射した光とは異なる多重に反射した光が部品認識カメラ22に入射する。
 つまり、部品認識カメラ22に撮像される電極E2の反射光Rは、電極E2から部品認識カメラ22に向かって反射する第1反射光R1と、電極E2から反射して更に他の部材から部品認識カメラ22に向かって反射する第2反射光R2を含んでいる。
 したがって、光切断法における重心位置CPの決定の際には、電極E2の左側端部の高さ寸法が高く計測されることになり、図7の上段に示すように、左側端部の高さ寸法が高い3次元形状M1が作成される。そして、3次元形状M1は、撮像領域PにおけるXY座標ともに記憶部112に記憶される。
 次に、制御部110は、2つの光源部24のうちの他方の光源部(図3の図示右側の光源部24)24Rによって、一方の光源部24Lの光Li1によって投影した電極E2の同一の測定箇所に対して右側から傾斜した線状の光Li2を投影する(S13)。したがって、本実施形態は、一方の光源部24Rと他方の光源部24Lとが電極E2に光を投影する時期はずれているもの、一方の光源部24Rと他方の光源部24Lとが、撮像領域Pの同一の場所において電極E2の同一の測定箇所に光を投影している。
 なお、一方の光源部24Rと他方の光源部24Lとは、撮像領域Pにおける水平方向に離れた場所において、投影時期をずらして電極E2の同一の測定箇所に光を投影してもよい。また、一方の光源部24Rと他方の光源部24Lとが電極E2に光を投影する時期は、同時であってもよく、光を同時に投影する場合には、撮像時間を短縮できる。
 そして、従来と同様の光切断法によって計測対象である電極E2の3次元形状M2を作成する(S14)。
 ここで、電極E2に対して右斜めから光が投影されると、投影された光は電極E2において反射し、反射光Rは部品認識カメラ22に入射する。しかしながら、電極E2の右側部に投影される一部の光は、右側に向かって反射する。
 右側に向かって反射した光は、計測対象の電極E2の右側に配置された電極E2Rによって更に反射し、計測対象の電極E2から部品認識カメラ22に向かって反射した光とは異なる多重に反射した光が部品認識カメラ22に入射する。
 つまり、他方の光源部24Rに基づく計測においても、部品認識カメラ22に撮像される電極E2の反射光Rは、電極E2から部品認識カメラ22に向かって反射する第1反射光R1と、電極E2から反射して更に他の部材から部品認識カメラ22に向かって反射する第2反射光R2を含んでいる。
 したがって、光切断法における重心位置CPの決定の際には、電極E2の右側端部の高さ寸法が高く計測されることになり、図7の中段に示すように、右側端部の高さ寸法が高い3次元形状M2が作成される。そして、3次元形状M2は、撮像領域PにおけるXY座標ともに記憶部112に記憶される。
 次に、制御部110は、一方の光源部24Lの投影によって得られた3次元形状M1と他方の光源部24Rによって得られた3次元形状M2との同一の測定箇所(XY座標)における高さ寸法データを比較する(S15)。
 3次元形状M1と3次元形状M2との同一の測定箇所(XY座標)における高さ寸法データの比較の結果、高さが低い高さ寸法データを各測定箇所(XY座標)の高さとして、図7の下段に示すような新たな3次元形状M3を作成する(S16)。
 具体的には、図7のX1よりも左側、X3よりも右の座標では、3次元形状M2の高さ寸法データ(3次元形状M1よりも低い高さ寸法データ)M2Aが新たな3次元形状の高さ寸法データとして選択される。図7のX2よりも右側、X4よりも左の座標では、3次元形状M1の高さ寸法データ(3次元形状M2よりも低い高さ寸法データ)M1Aが新たな3次元形状の高さ寸法データとして選択される。
 言い換えると、同一の測定箇所(XY座標)におけるそれぞれの反射光Rのうち最も低い受光量に基づいて電極E2から部品認識カメラ22に向かって反射する第1反射光R1を算出し、新たな3次元形状M3を作成する。
 つまり、新たに作成された3次元形状M3は、計測対象の電極E2とは異なる箇所から部品認識カメラ22に入射される光が除かれた状態となり、計測対象の電極E2から部品認識カメラ22に向かって反射した第1反射光R1のみをもとに作成されることになる。これにより、電子部品Eにおける各電極E2の正確な高さ寸法を求めることができる。
 すなわち、隣接する電極E2や他の部材などによって反射した第2反射光R2が部品認識カメラ22に入射される場合でも、計測対象の電極E2の正確な高さ寸法を計測できる。これにより、計測対象である電極E2の高さ計測の精度が低下することを抑制できる。
 そして、電子部品Eにおける各電極E2の高さ寸法を計測し(S17)、電子部品Eにおけるコプラナリティを判定する(S18)。
 つまり、電子部品Eにおける各電極E2の高さ寸法の計測精度の低下が抑制されたことにより、電子部品Eにおけるコプラナリティの計測精度が低下することを抑制できるようになっている。
 以上のように、本実施形態の部品計測部(計測装置)20は、光切断法に基づいて計測対象の高さ寸法を計測するものであって、電子部品Eの電極E2(計測対象)を相対的に移動させながら計測対象の電極E2を撮像する部品認識カメラ(撮像部)22と、部品認識カメラ22が電極E2を撮像する撮像領域Pを基準に両側の位置に少なくとも1ずつ配置され、計測対象の電極E2に向けて線状の光を投影する複数の光源部24と、制御部110と、を備えている。
 そして、電極E2から反射する反射光Rは、電極E2から部品認識カメラ22に向かって反射する第1反射光R1と、第1反射光R1とは異なる第2反射光R2とを含んでいる。制御部110は、部品認識カメラ22によって撮像されたそれぞれの光源部24における反射光Rの受光量に基づいて、図7の下段に示すように、第1反射光R1に応じた3次元形状(データ)M3を算出し、計測対象である電極E2の高さ寸法を計測する。
 したがって、本実施形態によると、計測対象の電極E2から反射して更に他の部材によって反射する第2反射光R2を除いた反射光、すなわち、電極E2から部品認識カメラ22に向かって反射する第1反射光R1に応じたデータを算出して計測対象の高さ寸法を求めることができる。つまり、他の部材などによって第2反射光R2が部品認識カメラ22に入射される場合でも、計測対象である電極E2の正確な高さ寸法を計測できる。これにより、計測対象である電極E2の高さ計測の精度、ひいては電子部品Eにおけるコプラナリティの計測精度が低下することを抑制できる。
 ところで、複数の光源部から計測対象に光を投影する方法として、例えば、撮像位置の一側からのみ計測対象に光を投影する方法が考えられる。
 しかしながら、撮像領域Pの一側からのみ計測対象に光を投影する場合、計測対象の一側のみを計測することになるため、計測精度が低下してしまうことが懸念される。
 ところが、本実施形態によると、電極E2に対して撮像領域Pの両側から光を投影して反射光Rを撮像し、電極E2の高さを計測するから、計測精度が低下することを抑制できる。
 また、本実施形態によると、制御部110が、図6に示すように、複数の光源部24によって電極E2の同一箇所に光を投影して撮像し、同一座標におけるそれぞれの反射光Rのうち最も低い受光量に基づいて、図7の下段に示す第1反射光R1に応じた3次元形状(データ)を算出する。
 具体的には、反射光Rの受光量に基づいて計測対象の高さ寸法のデータ(3次元形状M1,M2)を算出し、同一の測定箇所においてそれぞれの算出した高さ寸法のデータのうち最も低い高さ寸法のデータを測定箇所における高さ寸法とする。
 つまり、本実施形態によると、計測対象の電極E2とは異なる箇所から部品認識カメラ22に入射されて受光量が高くなった反射光Rを除いて、第1反射光R1のみを算出するといった簡便な方法により、3次元形状M3を作成して電極E2の高さ寸法を計測することができる。
 <実施形態2>
 次に、実施形態2について、図14のフローチャートを参照して説明する。
 実施形態2の平坦度計測処理は、実施形態1のS16を変更したものであって、実施形態1と共通する構成、作用、および効果については重複するため、その説明を省略する。また、実施形態1と同じ構成については同一の符号を用いるものとする。
 実施形態2の平坦度計測処理は、制御部110が、図14のフローチャートに示すように、S12およびS14においてそれぞれの3次元形状が作成できたところで、S15において同一の測定箇所(同一のXY座標)における3次元形状の高さ寸法を比較する。そして、2つの3次元形状において重複する高さ寸法データ(重複する受光量に基づくデータ)を各測定箇所の高さ寸法として決定し、新たな3次元形状(データ)を作成する。
 言い換えると、同一の測定箇所(同一のXY座標)におけるそれぞれの反射光Rの高さ寸法のうち、重複する受光量に基づいて算出された高さ寸法データ、すなわち、同一の測定箇所におけるそれぞれの反射光Rの高さ寸法の論理積を、第1反射光R1の高さ寸法として算出し、電極E2の高さ寸法として決定(S26)する。これにより、第1反射光R1における3次元形状(データ)を作成し、電極E2の高さ寸法を計測することができる。
 具体的には、図7を参考に説明すると、X1よりも左側、X3よりも右の座標では、3次元形状M2の高さ寸法データM2Aが3次元形状M1の高さ寸法データ(図7の3次元形状M1の一部)と重複し、重複しているデータである高さ寸法データM2Aが新たな3次元形状の高さ寸法データとして選択される。X2よりも右側、X4よりも左の座標では、3次元形状M1の高さ寸法データM1Aが3次元形状M2の高さ寸法データ(図7の3次元形状M2の一部)と重複し、重複しているデータである高さ寸法データM1Aが新たな3次元形状の高さ寸法データとして選択される。
 したがって、本実施形態において新たに作成された3次元形状は、実施形態1と同様に、計測対象の電極E2とは異なる箇所から部品認識カメラ22に入射される光が除かれ、計測対象の電極E2から直接反射した光のみをもとに作成されることになる。これにより、電子部品Eにおける各電極E2の高さ寸法を求めることができ、計測対象の高さ計測の精度が低下することを抑制できる。
 そして、実施形態1と同様に、電子部品Eにおける各電極E2の高さ寸法を計測し(S17)、電子部品Eにおけるコプラナリティを判定する(S18)。
 つまり、電子部品Eにおける各電極E2の高さ寸法の計測精度の低下が抑制されたことにより、電子部品Eにおけるコプラナリティの計測精度が低下することを抑制できるようになっている。
 <他の実施形態>
 本明細書で開示される技術は上記記述及び図面によって説明した実施形態に限定されるものではなく、例えば次のような種々の態様も含まれる。
 (1)上記実施形態では、部品計測部20において半球形状の電極E2の計測を一例として示した。しかしながら、これに限らず、DIP(Dual  inline  Package)のような、パッケージ部分から多数の電極が下方に突出している電子部品や、QFP(Quad  Flat  Package)のような、パッケージ部分から多数の電極がパッケージ部分の側方に延びた後下方に曲げられた電子部品の計測に適用してもよい。
 (2)上記実施形態では、部品計測部20を備えた表面実装機10を一例として示した。しかしながら、これに限らず、検査装置などに本明細書で開示した部品計測部を適用してもよい。
 (3)上記実施形態では、光源部24によって電極E2に投影した光のずれ位置を重心検出法によって決定するに構成した。しかしながら、これに限らず、曲線近似法を用いて光のずれ位置を決定するに構成してもよい。
 (4)上記実施形態では、部品認識カメラ22の撮像領域Pの両側に光源部24をそれぞれ1つずつ配置する構成とした。しかしながら、これに限らず、部品認識カメラの撮像領域の両側に光源部をそれぞれ複数ずつ配置してもよい。
 (5)上記実施形態では、2つの光源部24における光が部品認識カメラ22の光軸A1に対して同一角度で投影される構成とした。しかしながら、これに限らず、光源部における光を異なる角度によって投影し、角度の差を補正する構成にしてもよい。
10:表面実装機
13:部品実装装置
20:部品計測部(「計測装置」の一例)
22:部品認識カメラ(「撮像部」の一例)
24:光源部
110:制御部
B:プリント基板(「基板」の一例)
E:電子部品(「計測対象」の一例)
E2:電極(「計測対象」の一例)
M3:3次元形状(「データ」の一例)
P:撮像領域
R:反射光
R1:第1反射光
R2:第2反射光

Claims (6)

  1.  光切断法に基づいて計測対象の高さ寸法を計測する計測装置であって、
     前記計測対象を相対的に移動させながら前記計測対象を撮像する撮像部と、
     前記撮像部が前記計測対象を撮像する撮像領域を基準に両側の位置に少なくとも1ずつ配置され、前記計測対象に向けて線状の光を投影する複数の光源部と、
     制御部と、を備え、
     前記計測対象から反射する反射光は、前記計測対象から前記撮像部に向かって反射する第1反射光と、前記第1反射光とは異なる第2反射光とを含み、
     前記制御部は、前記撮像部によって撮像されたそれぞれの前記光源部における前記反射光の受光量に基づいて前記第1反射光に応じたデータを算出し、前記計測対象の高さ寸法を計測する計測装置。
  2.  前記制御部は、前記複数の光源部によって前記計測対象の同一の測定箇所に光を投影して撮像し、同一の測定箇所におけるそれぞれの前記反射光の受光量のうち最も低い受光量に基づいて前記第1反射光に応じたデータを算出する請求項1に記載の計測装置。
  3.  前記制御部は、前記反射光の受光量に基づいて計測対象の高さ寸法のデータを算出し、同一の測定箇所においてそれぞれの算出した高さ寸法のデータのうち最も低い高さ寸法のデータを前記測定箇所における高さ寸法とする請求項2に記載の計測装置。
  4.  前記制御部は、前記複数の光源部によって前記計測対象の同一の測定箇所に光を投影して撮像し、同一の測定箇所におけるそれぞれの前記反射光の受光量のうち、重複する受光量に基づいて前記第1反射光に応じたデータを算出する請求項1に記載の計測装置。
  5.  前記制御部は、前記反射光の受光量に基づいて計測対象の高さ寸法のデータを算出し、同一の測定箇所においてそれぞれ算出した高さ寸法のデータの論理積によって得られた高さ寸法のデータを前記測定箇所における高さ寸法とする請求項4に記載の計測装置。
  6.  請求項1から請求項5のいずれか一項に記載の計測装置と、
     前記計測対象を保持して基板に実装する部品実装装置と、を備えた表面実装機。
PCT/JP2019/010919 2019-03-15 2019-03-15 計測装置および表面実装機 WO2020188647A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE112019007030.4T DE112019007030T5 (de) 2019-03-15 2019-03-15 Messvorrichtung und Oberflächenmontgeeinrichtung
PCT/JP2019/010919 WO2020188647A1 (ja) 2019-03-15 2019-03-15 計測装置および表面実装機
JP2021506811A JP7122456B2 (ja) 2019-03-15 2019-03-15 計測装置および表面実装機

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/010919 WO2020188647A1 (ja) 2019-03-15 2019-03-15 計測装置および表面実装機

Publications (1)

Publication Number Publication Date
WO2020188647A1 true WO2020188647A1 (ja) 2020-09-24

Family

ID=72519705

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/010919 WO2020188647A1 (ja) 2019-03-15 2019-03-15 計測装置および表面実装機

Country Status (3)

Country Link
JP (1) JP7122456B2 (ja)
DE (1) DE112019007030T5 (ja)
WO (1) WO2020188647A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6263842A (ja) * 1985-08-17 1987-03-20 Fujitsu Ltd 凹凸検査装置
JPH03163305A (ja) * 1989-11-22 1991-07-15 Matsushita Electric Works Ltd 半田付け形状検出方法
WO2010024254A1 (ja) * 2008-08-26 2010-03-04 株式会社ブリヂストン 被検体の凹凸検出方法とその装置
JP2011227006A (ja) * 2010-04-23 2011-11-10 Nidec Tosok Corp 刻印検査装置
JP2015122420A (ja) * 2013-12-24 2015-07-02 株式会社レクザム 部品の傾き検査装置
US20150233708A1 (en) * 2014-02-14 2015-08-20 SmartRay GmbH Method and apparatus for optical non-contact scanning of surfaces

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6363842A (ja) * 1986-09-03 1988-03-22 佐藤工業株式会社 高分子吸収体を用いた収縮目地材
JPH069069B2 (ja) 1988-07-06 1994-02-02 三洋電機株式会社 自動販売機の商品搬出装置
JPH021A (ja) 1989-05-09 1990-01-05 Seiko Epson Corp カラーフィルター
JP4189111B2 (ja) 2000-02-04 2008-12-03 ヤマハ発動機株式会社 表面実装部品装着機および表面実装部品装着機における電子部品検出方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6263842A (ja) * 1985-08-17 1987-03-20 Fujitsu Ltd 凹凸検査装置
JPH03163305A (ja) * 1989-11-22 1991-07-15 Matsushita Electric Works Ltd 半田付け形状検出方法
WO2010024254A1 (ja) * 2008-08-26 2010-03-04 株式会社ブリヂストン 被検体の凹凸検出方法とその装置
JP2011227006A (ja) * 2010-04-23 2011-11-10 Nidec Tosok Corp 刻印検査装置
JP2015122420A (ja) * 2013-12-24 2015-07-02 株式会社レクザム 部品の傾き検査装置
US20150233708A1 (en) * 2014-02-14 2015-08-20 SmartRay GmbH Method and apparatus for optical non-contact scanning of surfaces

Also Published As

Publication number Publication date
JPWO2020188647A1 (ja) 2021-10-28
DE112019007030T5 (de) 2021-12-02
JP7122456B2 (ja) 2022-08-19

Similar Documents

Publication Publication Date Title
JP5445509B2 (ja) 画像形成装置および画像形成方法ならびに部品実装装置
TWI622754B (zh) Three-dimensional measuring device
US10107853B2 (en) Apparatus and method for inspecting PCB-mounted integrated circuits
JP5109633B2 (ja) 測定方法及び検査方法並びに測定装置及び検査装置
JP2006324599A (ja) ダイボンダ用撮像装置
KR102515369B1 (ko) 3차원 측정 장치
US7539338B2 (en) Bump inspection apparatus and method for IC component, bump forming method for IC component, and mounting method for IC component
JP4733001B2 (ja) 部品実装装置、部品実装方法及びプログラム
JP2011133306A (ja) 検査装置および検査方法
US9332230B2 (en) Electronic component mounting apparatus and electronic component mounting method
JP6903268B2 (ja) 電子部品搬送装置および電子部品検査装置
WO2017126025A1 (ja) 実装装置および撮像処理方法
WO2020188647A1 (ja) 計測装置および表面実装機
US20150029330A1 (en) Electronic component mounting apparatus and electronic component mounting method
CN104303614A (zh) 元件安装装置
JP6941306B2 (ja) 撮像装置、バンプ検査装置、及び撮像方法
JP2010261965A (ja) 部品認識装置、表面実装機および部品検査装置
JPWO2020003384A1 (ja) 平坦度取得システムおよび実装機
JP6177714B2 (ja) 部品認識装置、部品移載装置および部品実装装置
JP7271250B2 (ja) 計測装置および表面実装機
JP2005340648A (ja) 部品認識方法、部品認識装置、表面実装機および部品検査装置
US9491411B2 (en) Electronic component mounting apparatus and electronic component mounting method
US9015928B2 (en) Electronic component mounting apparatus
JP2006019710A (ja) Ic部品のバンプ検査装置及びバンプ検査方法、並びに、ic部品のバンプ形成方法、及びic部品の実装方法
JP2002267415A (ja) 半導体測定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19920000

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021506811

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 19920000

Country of ref document: EP

Kind code of ref document: A1