WO2018047252A1 - 認識装置 - Google Patents

認識装置 Download PDF

Info

Publication number
WO2018047252A1
WO2018047252A1 PCT/JP2016/076283 JP2016076283W WO2018047252A1 WO 2018047252 A1 WO2018047252 A1 WO 2018047252A1 JP 2016076283 W JP2016076283 W JP 2016076283W WO 2018047252 A1 WO2018047252 A1 WO 2018047252A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
lead
component
shutter speed
recognition
Prior art date
Application number
PCT/JP2016/076283
Other languages
English (en)
French (fr)
Inventor
拓也 永石
Original Assignee
富士機械製造株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士機械製造株式会社 filed Critical 富士機械製造株式会社
Priority to US16/328,461 priority Critical patent/US11202400B2/en
Priority to EP16915671.8A priority patent/EP3512323B1/en
Priority to PCT/JP2016/076283 priority patent/WO2018047252A1/ja
Priority to CN201680088982.1A priority patent/CN109661863B/zh
Priority to JP2018537918A priority patent/JP6748723B2/ja
Publication of WO2018047252A1 publication Critical patent/WO2018047252A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/081Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines
    • H05K13/0813Controlling of single components prior to mounting, e.g. orientation, component geometry
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30141Printed circuit board [PCB]

Definitions

  • the present invention relates to a recognition device for recognizing the position of a characteristic part of a component mounted on a board.
  • the position of the protrusion of the component it is possible to recognize the position of the protrusion of the component to some extent.
  • the amount of reflected light may vary depending on the shape of the protrusion of the component.
  • the exposure amount during imaging is not stable, and the position of the protrusion may not be properly recognized.
  • the present invention has been made in view of such circumstances, and an object of the present invention is to appropriately recognize the position of a feature portion of a component regardless of the projection of the component, that is, the shape of the feature portion, etc. That is.
  • a recognition device for recognizing the position of a feature portion of a component mounted on a board, and the recognition device emits light to the feature portion of the component.
  • a light source that irradiates the feature portion of the component from the light source, an imaging device that images the feature portion of the component based on the irradiated light, and an image captured by the imaging device
  • a data analysis device for recognizing the position of the characteristic part of the component imaged by the imaging device based on the data, and the data analysis device presets a target component that is an imaging target component of the imaging device.
  • the feature part of the target part is imaged a plurality of times at different shutter speeds by the imaging device while being positioned at the set imaging position, and a plurality of imaging data corresponding to the imaging of the plurality of times is created.
  • a first determination unit that determines whether or not the position of the characteristic part of the target part can be recognized based on each of the plurality of imaging data generated by the first generation unit; The first shutter speed that is the fastest shutter speed and the slowest shutter speed among the shutter speeds at the time of imaging according to the imaging data that is determined to be recognizable by the one determination unit.
  • a first determining unit that determines a shutter speed between the second shutter speed and the second shutter speed as an optimum shutter speed.
  • the target part which is the part to be imaged
  • the characteristic part of the target part is multiple times at different shutter speeds depending on the imaging apparatus.
  • a plurality of imaging data corresponding to the plurality of times of imaging is created.
  • the shutter speed between the fastest shutter speed and the slowest shutter speed among the shutter speeds at the time of imaging is determined as the optimum shutter speed. As described above, by determining the optimum shutter speed, it is possible to stabilize the exposure amount at the time of imaging regardless of the shape of the feature portion, and to appropriately recognize the position of the feature portion.
  • FIG. 1 shows a component mounter 10.
  • the component mounter 10 is a device for performing a component mounting operation on the circuit substrate 12.
  • the component mounting machine 10 includes an apparatus main body 20, a base material conveyance holding device 22, a component mounting device 24, a mark camera 26, a parts camera 28, a component supply device 30, a loose component supply device 32, and a control device (see FIG. 3) 34.
  • the circuit substrate 12 includes a circuit board, a three-dimensional structure substrate, and the like, and the circuit board includes a printed wiring board and a printed circuit board.
  • the apparatus main body 20 includes a frame portion 40 and a beam portion 42 that is overlaid on the frame portion 40.
  • the substrate conveyance holding device 22 is disposed in the center of the frame portion 40 in the front-rear direction, and includes a conveyance device 50 and a clamp device 52.
  • the conveyance device 50 is a device that conveys the circuit substrate 12
  • the clamp device 52 is a device that holds the circuit substrate 12.
  • the base material transport and holding device 22 transports the circuit base material 12 and holds the circuit base material 12 fixedly at a predetermined position.
  • the conveyance direction of the circuit substrate 12 is referred to as an X direction
  • a horizontal direction perpendicular to the direction is referred to as a Y direction
  • a vertical direction is referred to as a Z direction. That is, the width direction of the component mounting machine 10 is the X direction, and the front-rear direction is the Y direction.
  • the component mounting device 24 is disposed in the beam portion 42 and includes two work heads 60 and 62 and a work head moving device 64. As shown in FIG. 2, a suction nozzle 66 is provided at the lower end surface of each work head 60, 62, and the suction nozzle 66 holds and holds the components.
  • the work head moving device 64 includes an X direction moving device 68, a Y direction moving device 70, and a Z direction moving device 72. Then, the two working heads 60 and 62 are integrally moved to arbitrary positions on the frame portion 40 by the X-direction moving device 68 and the Y-direction moving device 70.
  • the work heads 60 and 62 are detachably attached to the sliders 74 and 76, and the Z-direction moving device 72 individually moves the sliders 74 and 76 in the vertical direction. That is, the work heads 60 and 62 are individually moved in the vertical direction by the Z-direction moving device 72.
  • the mark camera 26 is attached to the slider 74 so as to face downward, and is moved together with the work head 60 in the X direction, the Y direction, and the Z direction. As a result, the mark camera 26 images an arbitrary position on the frame unit 40. As shown in FIG. 1, the parts camera 28 is disposed between the base material conveyance holding device 22 and the component supply device 30 on the frame portion 40 so as to face upward. Thereby, the parts camera 28 images the parts gripped by the suction nozzles 66 of the work heads 60 and 62.
  • the component supply device 30 is disposed at one end of the frame portion 40 in the front-rear direction.
  • the component supply device 30 includes a tray-type component supply device 78 and a feeder-type component supply device (see FIG. 3) 80.
  • the tray-type component supply device 78 is a device that supplies components placed on the tray.
  • the feeder-type component supply device 80 is a device that supplies components by a tape feeder or a stick feeder (not shown).
  • the bulk component supply device 32 is disposed at the other end portion of the frame portion 40 in the front-rear direction.
  • the separated component supply device 32 is a device for aligning a plurality of components scattered in a separated state and supplying the components in an aligned state. That is, it is an apparatus that aligns a plurality of components in an arbitrary posture into a predetermined posture and supplies the components in a predetermined posture.
  • the components supplied by the component supply device 30 and the bulk component supply device 32 include electronic circuit components, solar cell components, and power module components.
  • Electronic circuit components include components having leads and components not having leads.
  • the control device 34 includes a controller 82, a plurality of drive circuits 86, and an image processing device 88.
  • the plurality of drive circuits 86 are connected to the transport device 50, the clamp device 52, the work heads 60 and 62, the work head moving device 64, the tray-type component supply device 78, the feeder-type component supply device 80, and the bulk component supply device 32.
  • the controller 82 includes a CPU, a ROM, a RAM, and the like and is mainly a computer, and includes a data storage area 96 and a data analysis area 98.
  • the data storage area 96 is an area for storing various data
  • the data analysis area 98 is an area for analyzing various data.
  • the controller 82 is connected to a plurality of drive circuits 86. Thereby, the operations of the substrate conveyance holding device 22 and the component mounting device 24 are controlled by the controller 82. Further, the controller 82 is also connected to the image processing device 88. The image processing device 88 processes image data obtained by the mark camera 26 and the part camera 28, and the controller 82 acquires various types of information from the image data.
  • the component mounting operation is performed on the circuit substrate 12 held by the substrate conveyance holding device 22 with the above-described configuration. Specifically, the circuit substrate 12 is transported to the work position, and is fixedly held by the clamp device 52 at that position. Next, the mark camera 26 moves above the circuit substrate 12 and images the circuit substrate 12. Thereby, the information regarding the holding position etc. of the circuit base material 12 is obtained. In addition, the component supply device 30 or the bulk component supply device 32 supplies components at a predetermined supply position. Then, one of the work heads 60 and 62 moves above the component supply position, and holds the component by the suction nozzle 66.
  • the work heads 60 and 62 holding the parts move above the parts camera 28, and the parts held by the suction nozzle 66 are imaged by the parts camera 28. As a result, information on the holding position of the component can be obtained. Subsequently, the work heads 60 and 62 holding the components move above the circuit substrate 12 to correct errors in the holding position of the circuit substrate 12, errors in the holding position of the components, and the like. Then, the component is mounted on the circuit substrate 12 by the suction nozzle 66 separating the component.
  • the parts camera 28 includes an imaging device 100, a lens 102, and a laser illumination 104.
  • the imaging device 100 has an imaging element (not shown), and is disposed with the light receiving surface facing upward.
  • the lens 102 is fixed to the light receiving surface side of the imaging apparatus 100, that is, the upper surface side in FIG. 4, and laser illumination 104 is provided on the lens 102 via a box-shaped member 105 or the like.
  • the laser illumination 104 is constituted by four laser irradiation devices (only two laser irradiation devices are shown in the figure) 106.
  • the four laser irradiation devices 106 are arranged at four equal positions so as to surround the lead component 110 held by the suction nozzle 66.
  • the lead component 110 includes a component main body portion 112 and a plurality of leads 114 extending from the bottom surface of the component main body portion 112, and is sucked and held by the suction nozzle 66 in the component main body portion 112 with the lead 114 facing downward.
  • each laser irradiation device 106 irradiates the laser light at a pin point toward the tip of the lead component 110 of the lead component 110 held by the suction nozzle 66.
  • the light emitted from the laser irradiation device 106 is reflected by the lead 114 of the lead component 110 held by the suction nozzle 66 and enters the lens 102. Then, the light incident on the lens 102 enters the imaging device 100 and is detected by the imaging element of the imaging device 100. Thereby, imaging data of the tip end portion of the lead 114 of the lead component 110 held by the suction nozzle 66 is obtained. Then, the image data is analyzed in the data analysis area 98 of the controller 82, whereby the position of the tip of the lead 114 is recognized. In this way, the lead part 110 holding the suction nozzle 66 is imaged by the parts camera 28, thereby recognizing the position of the tip of the lead 114 (hereinafter, referred to as “tip recognition process” in some cases). Can be performed appropriately.
  • the parts camera 28 irradiates the lead 114 with laser light from the side and performs imaging using the reflected light.
  • the exposure amount of the imaging device 100 is stable due to variations in the tip shape of the lead 114. Otherwise, the tip 114 recognition processing of the lead 114 may not be executed properly.
  • the tip portion of the lead 114 is tapered in consideration of ease of insertion into the through hole of the circuit substrate 12. is there.
  • the tip of the lead 114 having such a shape is irradiated with laser light from the side, a relatively large amount of light is reflected downward by the tip of the lead 114.
  • the tip of the lead 114 having such a shape When the tip of the lead 114 having such a shape is irradiated with laser light from the side, the laser light is reflected downward by the tip of the lead 114, but the amount of light reflected by the tip of the lead 114 shown in FIG. And the amount of light reflected by the tip of the lead 114 shown in FIG. Further, as shown in FIG. 7, there is also a lead component 110 in which the tip end of the lead 114 is not tapered and the tip surface is perpendicular to the axial direction of the lead 114. When the tip of the lead 114 having such a shape is irradiated with laser light from the side, the amount of light reflected downward by the tip of the lead 114 is relatively small.
  • the amount of light reflected downward by the tip of the lead 114 varies depending on the shape of the tip of the lead 114. That is, the amount of light detected by the image sensor of the imaging device 100 varies depending on the tip shape of the lead 114.
  • the exposure amount of the imaging apparatus 100 is not stable according to the tip shape of the lead 114, and the tip portion recognition process of the lead 114 may not be appropriately executed. For this reason, it is necessary to adjust the exposure amount of the imaging apparatus 100, that is, the shutter speed (exposure time) of the imaging apparatus 100.
  • the component mounter 10 changes the shutter speed of the imaging device 100, images the tip of the lead 114 a plurality of times, and selects the optimum based on a plurality of imaging data created by the imaging. A proper shutter speed is set.
  • the imaging position of the lead component 110 is set so that the tip of the lead 114 of the lead component 110 held by the suction nozzle 66 is irradiated with the laser beam irradiated by the laser irradiation device 106.
  • the tip of the lead 114 of the lead component 110 held by the suction nozzle 66 is assumed to be irradiated with the laser light emitted by the laser irradiation device 106.
  • the imaging position of the lead component 110 (hereinafter referred to as “set imaging position”) is stored in the data storage area 96 of the controller 82. Then, the lead component 110 held by the suction nozzle 66 is moved to the set imaging position.
  • the tip of the lead 114 of the lead component 110 moved to the set imaging position is imaged by the parts camera 28.
  • the tip of the lead 114 is imaged a plurality of times by changing the shutter speed from 50 to 110 msec every 10 msec. That is, with the lead component 110 positioned at the set imaging position, the tip of the lead 114 is imaged seven times at seven different shutter speeds of 50 msec, 60 msec, 70 msec, 80 msec, 90 msec, 100 msec, and 110 msec. .
  • a plurality of imaging data with different shutter speeds are created in the data analysis area 98 of the controller 82 by imaging the tip of the lead 114 a plurality of times.
  • the data storage area 96 stores an image recognizable area corresponding to the wire diameter of the lead 114.
  • the image recognizable area is predetermined from the minimum boundary line (one-dot chain line) smaller than the wire diameter (dotted line) L of the lead 114 by a predetermined distance and the wire diameter (dotted line in the drawing) L of the lead 114.
  • This area is surrounded by a maximum boundary line (two-dot chain line) having a large distance, and is set in a state in which an allowable area having a predetermined width is added to the wire diameter L of the lead 114.
  • the data analysis area 98 determines whether or not the outline of the lead 114 is within the image recognizable area in the image based on the imaging data. At this time, as shown in FIG. 8, when the outline (solid line) of the lead 114 is within the image recognizable area, the tip position of the lead 114 can be appropriately recognized based on the imaging data. It is judged that. That is, by imaging the lead 114 at a shutter speed corresponding to the imaging data, it is possible to clearly recognize the outline of the lead 114 and appropriately recognize the tip position of the lead 114 with an appropriate exposure amount. It is judged.
  • the outline (solid line) of the lead 114 is blurred and unclear, as shown in FIG. It extends outside the maximum boundary line (two-dot chain line) and does not fit within the image recognizable area. For this reason, in such a case, it is determined that the tip position of the lead 114 cannot be properly recognized. Further, when the shutter speed according to the imaging data is fast and the exposure amount is small, the exposure is insufficient, and the outline (solid line) of the lead 114 is the minimum boundary line (1) of the image recognizable area as shown in FIG. It becomes smaller than the dotted line) and does not reach the image recognizable area. Therefore, even in such a case, it is determined that the tip position of the lead 114 cannot be properly recognized.
  • an optimum shutter speed ( Hereinafter, “optimum shutter speed” is set.
  • the leading end position of the lead 114 can be recognized by imaging data at a shutter speed of 60 to 100 msec, and the imaging data at a shutter speed of 50 msec and 110 msec can be read.
  • is written at the shutter speed at which it is determined that the leading end position of the lead 114 cannot be recognized, and the shutter speed at which it is determined that the leading end position of the lead 114 can be recognized is “ “ ⁇ ” is marked.
  • the fastest shutter speed (hereinafter sometimes referred to as “recognition upper limit shutter speed”) (60 msec) and the slowest shutter speed.
  • the average value (80 msec) with (100 msec) may be set as the optimum shutter speed (hereinafter referred to as “recognition lower limit shutter speed”).
  • the shutter speed that is changed when setting the optimum shutter speed is not 50 to 110 msec, and can be arbitrarily set according to the luminous intensity of the laser irradiation device 106, the performance of the imaging device 100, and the like.
  • the shutter speed interval that is changed when setting the optimum shutter speed can be set to an arbitrary interval instead of every 10 msec.
  • the optimum shutter speed can be arbitrarily set other than the average value of the shutter speeds determined to be recognizable.
  • the shutter speed of the imaging device 100 but also the imaging position in the vertical direction of the lead component 110 held by the suction nozzle 66 is optimized, so that the leading end portion recognition processing of the lead 114 is appropriately performed.
  • Implementation is guaranteed. Specifically, since the laser light applied to the tip of the lead 114 of the lead component 110 does not diffuse, as shown in FIG. 12, along an optical path having a predetermined width (a path between two dotted lines 150). Then, the light is irradiated toward the lead component 110. At this time, as shown in FIG. 12, when the tip of the lead 114 is located inside the optical path, the light is reflected at the tip of the lead 114, so that the tip of the lead 114 is imaged. The In such a case, it is possible to appropriately perform the tip portion recognition processing of the lead 114.
  • the tip 114 of the lead 114 cannot be recognized due to an error in the length of the lead 114. There is.
  • a lead length error may be large in a lead component supplied by an axial feeder.
  • An axial feeder is a feeder that supplies lead components in a state where the leads of the axial type lead components are cut into a predetermined length and bent.
  • the lead length error may increase due to the wire diameter, material, and the like of the lead.
  • the tip recognition process may not be performed.
  • the imaging position of the lead component 110 is set at the position shown in FIG. 15, that is, the leading end of the lead 114 is positioned near the upper limit inside the laser beam irradiation width.
  • the imaging position of the lead component 110 is set, if the length of the lead 114 is a normal length, the tip of the lead 114 is irradiated with light.
  • the length of the lead 114 is short due to an error, as shown in FIG.
  • the imaging position of the lead component 110 when the imaging position of the lead component 110 is set at the position shown in FIG. 16, that is, the lead component so that the tip end portion of the lead 114 is positioned near the lower limit inside the irradiation width of the laser beam.
  • the imaging position of 110 when the imaging position of 110 is set, if the length of the lead 114 is a normal length, light is irradiated to the tip portion of the lead 114.
  • the length of the lead 114 is long due to an error, as shown in FIG. 14, even if the imaging position of the lead component 110 is the same as the imaging position of FIG. Is positioned below the irradiation width of the laser beam, and the tip of the lead 114 is not irradiated with light. Even in such a case, the tip portion recognition process cannot be performed.
  • the imaging position of the lead component 110 is set so that the tip of the lead 114 is positioned at the center inside the irradiation width of the laser beam.
  • an upper position hereinafter referred to as “upper imaging position”.
  • the set distance 0.5 mm in this embodiment
  • the lower imaging position is the lower limit imaging position.
  • image data corresponding to each image is created in the data analysis area 98 of the controller 82. That is, imaging data at each imaging position (H 1 to H 11 ) is created. Then, in the data analysis area 98, it is determined whether or not the tip of the lead 114 can be recognized for each of the imaging data at the plurality of imaging positions (H 1 to H 11 ). At this time, for example, in each of the imaging data at the imaging positions (H 1 to H 3 , H 11 ), the tip of the lead 114 cannot be recognized, and the imaging data at the imaging positions (H 4 to H 10 ) is not recognized. In each case, it is assumed that the tip of the lead 114 is determined to be recognizable. In FIG.
  • is marked at the imaging positions (H 1 to H 3 , H 11 ) where it is determined that the tip of the lead 114 cannot be recognized, and the tip of the lead 114 can be recognized. “ ⁇ ” is marked at the imaging positions (H 4 to H 10 ) determined to be.
  • the imaging positions (H 4 to H 10) determined to be able to recognize the tip end of the lead 114. ) Is set as the optimum imaging position.
  • the uppermost imaging position of the imaging position (H 4 to H 10 ) determined to be able to recognize the tip of the lead 114 hereinafter sometimes referred to as “recognition upper limit position”) (H 4 ).
  • the center imaging position (H 7 ) is set as the optimum imaging position.
  • the lead component 110 is positioned at the recognition upper limit position (H 4 ).
  • the tip end portion of the lead 114 is located near the upper limit on the inner side of the irradiation width of the laser beam.
  • the tip of the lead 114 is positioned near the lower limit inside the laser beam irradiation width. ing.
  • the lead component 110 when the lead component 110 is located at the center imaging position (H 7 ) between the recognition upper limit position (H 4 ) and the recognition lower limit position (H 10 ), as shown in FIG.
  • the tip of is located at the approximate center inside the irradiation width of the laser beam. This makes it possible to set the imaging position (H 7 ) when the tip of the lead 114 is positioned at the approximate center inside the laser beam irradiation width as the optimum imaging position.
  • the upper imaging position and the lower imaging position for setting the optimum imaging position can be arbitrarily set according to the irradiation width of the laser beam.
  • the imaging pitch for resetting the optimal imaging position can also be set to an arbitrary value, but is set to about 0.1 to 0.5 mm in consideration of the number of times of imaging, accuracy, etc. It is preferable.
  • the tip 114 recognition processing of the lead 114 is appropriately performed at all imaging positions between the recognition upper limit position and the recognition lower limit position, but between the recognition upper limit position and the recognition lower limit position. In some cases, the tip 114 recognition processing of the lead 114 cannot be appropriately performed at at least one imaging position. Such a phenomenon occurs due to reflection of laser light by foreign matter or the like attached to the lead 114 or the like.
  • the leading end portion of the lead 114 cannot be recognized in each of the imaging data at the imaging positions (H 1 to H 3 , H 6 , H 7 , H 11 ).
  • the set optimum imaging position may be different from the set imaging position where the lead 114 was imaged when setting the optimum shutter speed.
  • the optimum shutter speed set at the set imaging position is not suitable at the time of imaging at the optimum imaging position.
  • the optimum shutter speed is set again at the optimum imaging position. . That is, in the state where the lead component 110 held by the suction nozzle 66 has been moved to the optimum imaging position, the shutter speed of the imaging device 100 is changed, and the tip of the lead 114 is imaged a plurality of times and created by the imaging.
  • the optimum shutter speed is reset based on a plurality of imaging data. Thereby, it is possible to ensure the optimization of the shutter speed at the optimum imaging position. Note that the setting of the optimum shutter speed at the set imaging position and the resetting of the optimum shutter speed at the optimum imaging position are performed by the same method, and thus description of the resetting of the optimum shutter speed at the optimum imaging position is omitted.
  • the data analysis area 98 of the controller 82 includes a first creation unit 160, a first determination unit 162, a first determination unit 164, a second creation unit 166, a second determination unit 168, and a second determination unit. And a determination unit 170.
  • the first creation unit 160 is a functional unit for creating imaging data for different shutter speeds.
  • the first determination unit 162 is a functional unit for determining whether or not the position of the leading end portion of the lead 114 can be recognized based on imaging data for different shutter speeds.
  • the first determination unit 164 is a functional unit for determining the optimum shutter speed based on the determination result of the first determination unit 162.
  • the second creation unit 166 is a functional unit for creating imaging data for each imaging position.
  • the second determination unit 168 is a functional unit for determining whether or not the position of the tip portion of the lead 114 can be recognized based on the imaging data for each imaging position.
  • the second determination unit 170 is a functional unit for determining an optimal imaging position based on the determination result of the second determination unit 168.
  • ⁇ Second embodiment> In the component mounting machine 10 of the first embodiment, a plurality of imaging positions are set in order from the upper imaging position to the lower imaging position, but the component mounting machine 10 of the second embodiment. In this case, positions that are sequentially separated from the set image pickup position with the set image pickup position as the center are set as a plurality of image pickup positions.
  • the set imaging position used when setting the optimum shutter speed is set as the first imaging position (H 1 ) as shown in FIG.
  • the second imaging position (H 2 ) an imaging position away from the set imaging position by a distance corresponding to the set pitch (0.1 mm in this embodiment) is set downward.
  • the third imaging position (H 3 ) an imaging position that is separated from the set imaging position by a distance corresponding to a set pitch (0.1 mm in this embodiment) is set upward.
  • the fourth imaging position (H 4 ) an imaging position away from the set imaging position by a distance corresponding to twice the set pitch is set downward, and the fifth imaging position (H 5 ) is set.
  • an imaging position away from the set imaging distance by a distance corresponding to twice the set pitch is set. That is, as the 2N (N: positive integer) -th imaging position (H 2N ), an imaging position away from the set imaging position by a distance corresponding to (set pitch ⁇ N) is set, and (2N + 1) ) (N: positive integer) As an imaging position (H 2N + 1 ) for the first time, an imaging position away from the set imaging position by a distance corresponding to (set pitch ⁇ N) is set upward.
  • the upper limit imaging position away from the set imaging position that is, the upper imaging position, is the set distance from the set imaging position upward (in the present embodiment, 0. 0). 5 mm) away.
  • the lower limit imaging position that is separated downward from the set imaging position that is, the lower imaging position is a set distance from the setting imaging position downward (in the present embodiment, 0. 0). 5 mm) away.
  • 11 imaging positions H 1 to H 11 ) are set.
  • the lead component 110 When the imaging position is set as described above, the lead component 110 is moved to the imaging position (H 1 ) and is imaged by the parts camera 28. Then, the tip portion recognition processing of the lead 114 is performed based on the imaging data created by imaging. At this time, when the position of the tip of the lead 114 is recognized based on the imaging data, the imaging position (H 1 ) of the imaging data used in the recognition process is set as the optimum imaging position. On the other hand, if the position of the tip of the lead 114 is not recognized based on the imaging data, the lead component 110 is moved to the next imaging position (H 2 ), and the tip is based on the imaging data at that position. Part recognition processing is performed.
  • the imaging position (H 2 ) of the imaging data used in the recognition process is reset as the optimum imaging position.
  • the lead component 110 is moved to the next imaging position (H 3 ), and the tip is based on the imaging data at that position.
  • Part recognition processing is performed. That is, the lead component 110 is moved to the next imaging position until the position of the tip of the lead 114 is recognized based on the imaging data, and the tip recognition processing is performed based on the imaging data at that position. .
  • the lead component 110 is moved to each of the five imaging positions (H 1 to H 5 ) in order, and the leading end portion of the lead 114 is based on the imaging data at each imaging position. If the position is not recognized, the lead component 110 is moved to the imaging position (H 6 ), and the tip portion recognition process is performed based on the imaging data at the imaging position. At this time, based on the imaging data in the imaging position (H 6), if the position of the distal end portion of the lead 114 is recognized, the imaging position (H 6) is re-set as the optimum imaging position. Then, imaging at the imaging positions (H 7 to H 11 ) is not performed, and tip end recognition processing based on imaging data at the imaging positions (H 7 to H 11 ) is not performed.
  • this invention is not limited to the said Example, It is possible to implement in the various aspect which gave various change and improvement based on the knowledge of those skilled in the art.
  • the present invention is applied to the recognition processing of the position of the tip portion of the lead 114 of the lead component 110, but the electrode of the electronic circuit component having no lead, for example,
  • the present invention can be applied to recognition processing of positions such as bumps.
  • the present invention can be applied not only to the electrodes of electronic circuit components but also to the recognition processing of the position of the tip of the protruding portion of the component.
  • the present invention is applied not only to the protruding part of the part but also to a recognition process of a characteristic part of the part, for example, a characteristic part of the part such as a part that is not protruding but can be electrically connected. Is possible.
  • the average value of the recognition upper limit shutter speed and the recognition lower limit shutter speed is set to the optimum shutter speed.
  • any shutter between the recognition upper limit shutter speed and the recognition lower limit shutter speed can be used. It is possible to set the speed to the optimum shutter speed.
  • the interval between different shutter speeds is constant, but the interval between different shutter speeds can be made random. That is, for example, the shutter speed used when setting the optimum shutter speed can be set to 50 msec, 55 msec, 65 msec, 80 msec, 95 msec, 105 msec, and 110 msec. As described above, the faster the shutter speed is, or the slower the shutter speed is, the smaller the shutter speed interval is, so that the shutter speed at which the tip end position of the lead 114 cannot be recognized can be confirmed in detail.
  • the lead component 110 when the optimum imaging position is set, the lead component 110 is moved from the upper imaging position to the lower imaging position, but the lead component 110 is moved from the lower imaging position to the upper imaging position. It may be moved.
  • the center position between the recognition upper limit position and the recognition lower limit position is set as the optimum imaging position, but an arbitrary position between the recognition upper limit position and the recognition lower limit position is set. It is possible to set the optimum imaging position.
  • the recognition upper limit position and the recognition lower limit position when the tip 114 recognition processing of the lead 114 cannot be performed properly at at least one imaging position between the recognition upper limit position and the recognition lower limit position, the recognition upper limit position and the recognition lower limit position.
  • the position between the imaging position below the imaging position that cannot perform the tip recognition processing existing between and the recognition lower limit position is set as the optimum imaging position, but the recognition upper limit position and the recognition lower limit position A position between the imaging position above the imaging position where the tip portion recognition process existing between the imaging position and the recognition upper limit position may be set as the optimum imaging position.
  • the present invention can be applied not only to axial parts but also to radial parts, loose supply parts, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Operations Research (AREA)
  • Manufacturing & Machinery (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Supply And Installment Of Electrical Components (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本発明に記載の認識装置では、リード部品のリードの先端が、撮像装置によって、異なるシャッタースピードで複数回撮像され、それら複数回の撮像に応じた複数の撮像データが作成される。そして、それら複数の撮像データの各々に基づいて、リードの先端位置を認識可能であるか否かが判定され、認識可能であると判定された撮像データに応じた撮像時のシャッタースピードのうちの、最も速いシャッタースピード(60ms)と最も遅いシャッタースピード(100ms)との間のシャッタースピードが、最適シャッタースピードとして決定される。このように、最適シャッタースピードを決定することで、リードの先端形状に関わらず、撮像時の露光量を安定させることが可能となり、リードの先端位置を適切に認識することが可能となる。

Description

認識装置
 本発明は、基板に装着される部品の特徴部の位置を認識するための認識装置に関するものである。
 部品を基板に装着するためには、部品の特徴部、具体的には、例えば、部品の電極等の突起部の位置を適切に認識する必要がある。このため、部品を基板に装着する部品装着機では、部品の撮像が行われ、撮像データに基づいて、部品の突起部の位置の認識処理が行われる。詳しくは、部品の突起部に光源から光が照射され、その突起部に照射された光に基づいて、その部品の突起部が撮像される。そして、その撮像データに基づいて、部品の突起部の位置の認識処理が行われる。下記特許文献には、部品の様々な撮像手法について記載されている。
特開2006-210531号公報 特開平6-83945号公報
 上記特許文献に記載の技術によれば、ある程度、部品の突起部の位置を認識することが可能となる。しかしながら、例えば、光源から照射された光が突起部により反射する際に、部品の突起部の形状に応じて、光の反射量が異なる場合がある。このような場合には、光の反射量が突起部の形状に応じて変化するため、撮像時の露光量が安定せず、突起部の位置を適切に認識することができない虞がある。本発明は、そのような実情に鑑みてなされたものであり、本発明の課題は、部品の突起部、つまり、特徴部の形状等に関わらず、部品の特徴部の位置を適切に認識することである。
 上記課題を解決するために、本発明に記載の認識装置は、基板に装着される部品の特徴部の位置を認識するための認識装置であって、当該認識装置が、部品の特徴部に光を照射する光源と、前記光源から部品の特徴部に光が照射された際に、その照射した光に基づいて、その部品の特徴部を撮像する撮像装置と、前記撮像装置により撮像された撮像データに基づいて、前記撮像装置により撮像された部品の特徴部の位置を認識するデータ解析装置とを備え、前記データ解析装置が、前記撮像装置の撮像対象の部品である対象部品を、予め設定された設定撮像位置に位置させた状態で、前記対象部品の特徴部を、前記撮像装置によって、異なるシャッタースピードで複数回撮像し、それら複数回の撮像に応じた複数の撮像データを作成する第1作成部と、前記第1作成部により作成された複数の撮像データの各々に基づいて、前記対象部品の特徴部の位置を認識可能であるか否かを判定する第1判定部と、前記第1判定部により前記対象部品の特徴部の位置を認識可能であると判定された撮像データに応じた撮像時のシャッタースピードのうちの、最も速いシャッタースピードである第1シャッタースピードと最も遅いシャッタースピードである第2シャッタースピードとの間のシャッタースピードを、最適シャッタースピードとして決定する第1決定部とを有することを特徴とする。
 本発明に記載の認識装置では、撮像対象の部品である対象部品を、予め設定された設定撮像位置に位置させた状態で、対象部品の特徴部が、撮像装置によって、異なるシャッタースピードで複数回撮像され、それら複数回の撮像に応じた複数の撮像データが作成される。そして、それら複数の撮像データの各々に基づいて、対象部品の特徴部の位置を認識可能であるか否かが判定され、特徴部の位置を認識可能であると判定された撮像データに応じた撮像時のシャッタースピードのうちの、最も速いシャッタースピードと最も遅いシャッタースピードとの間のシャッタースピードが、最適シャッタースピードとして決定される。このように、最適シャッタースピードを決定することで、特徴部の形状に関わらず、撮像時の露光量を安定させることが可能となり、特徴部の位置を適切に認識することが可能となる。
部品実装機を示す斜視図である 部品実装機の部品装着装置を示す斜視図である。 部品実装機の備える制御装置を示すブロック図である。 パーツカメラを示す概略図である。 先細形状のリードを有するリード部品を示す概略図である。 先細形状のリードを有するリード部品を示す概略図である。 先細形状でないリードを有するリード部品を示す概略図である。 リードの先端位置を認識可能な画像の概念図である。 リードの先端位置を認識不能な画像の概念図である。 リードの先端位置を認識不能な画像の概念図である。 最適シャッタースピードを設定する際の撮像時のシャッタースピードを示す図である。 リード部品のリードに向かってレーザー光が照射されている状態を示す概略図である。 リード部品のリードに向かってレーザー光が照射されている状態を示す概略図である。 リード部品のリードに向かってレーザー光が照射されている状態を示す概略図である。 リード部品のリードに向かってレーザー光が照射されている状態を示す概略図である。 リード部品のリードに向かってレーザー光が照射されている状態を示す概略図である。 第1実施例の撮像位置を概念的に示す図である。 第1実施例の撮像位置を概念的に示す図である。 第2実施例の撮像位置を概念的に示す図である。
 以下、本発明を実施するための形態として、本発明の実施例を、図を参照しつつ詳しく説明する。
 <部品実装機の構成>
 図1に、部品実装機10を示す。部品実装機10は、回路基材12に対する部品の実装作業を実行するための装置である。部品実装機10は、装置本体20、基材搬送保持装置22、部品装着装置24、マークカメラ26、パーツカメラ28、部品供給装置30、ばら部品供給装置32、制御装置(図3参照)34を備えている。なお、回路基材12として、回路基板、三次元構造の基材等が挙げられ、回路基板として、プリント配線板、プリント回路板等が挙げられる。
 装置本体20は、フレーム部40と、そのフレーム部40に上架されたビーム部42とによって構成されている。基材搬送保持装置22は、フレーム部40の前後方向の中央に配設されており、搬送装置50とクランプ装置52とを有している。搬送装置50は、回路基材12を搬送する装置であり、クランプ装置52は、回路基材12を保持する装置である。これにより、基材搬送保持装置22は、回路基材12を搬送するとともに、所定の位置において、回路基材12を固定的に保持する。なお、以下の説明において、回路基材12の搬送方向をX方向と称し、その方向に直角な水平の方向をY方向と称し、鉛直方向をZ方向と称する。つまり、部品実装機10の幅方向は、X方向であり、前後方向は、Y方向である。
 部品装着装置24は、ビーム部42に配設されており、2台の作業ヘッド60,62と作業ヘッド移動装置64とを有している。各作業ヘッド60,62の下端面には、図2に示すように、吸着ノズル66が設けられており、その吸着ノズル66によって部品を吸着保持する。また、作業ヘッド移動装置64は、X方向移動装置68とY方向移動装置70とZ方向移動装置72とを有している。そして、X方向移動装置68とY方向移動装置70とによって、2台の作業ヘッド60,62は、一体的にフレーム部40上の任意の位置に移動させられる。また、各作業ヘッド60,62は、スライダ74,76に着脱可能に装着されており、Z方向移動装置72は、スライダ74,76を個別に上下方向に移動させる。つまり、作業ヘッド60,62は、Z方向移動装置72によって、個別に上下方向に移動させられる。
 マークカメラ26は、下方を向いた状態でスライダ74に取り付けられており、作業ヘッド60とともに、X方向,Y方向およびZ方向に移動させられる。これにより、マークカメラ26は、フレーム部40上の任意の位置を撮像する。パーツカメラ28は、図1に示すように、フレーム部40上の基材搬送保持装置22と部品供給装置30との間に、上を向いた状態で配設されている。これにより、パーツカメラ28は、作業ヘッド60,62の吸着ノズル66に把持された部品を撮像する。
 部品供給装置30は、フレーム部40の前後方向での一方側の端部に配設されている。部品供給装置30は、トレイ型部品供給装置78とフィーダ型部品供給装置(図3参照)80とを有している。トレイ型部品供給装置78は、トレイ上に載置された状態の部品を供給する装置である。フィーダ型部品供給装置80は、テープフィーダ、スティックフィーダ(図示省略)によって部品を供給する装置である。
 ばら部品供給装置32は、フレーム部40の前後方向での他方側の端部に配設されている。ばら部品供給装置32は、ばらばらに散在された状態の複数の部品を整列させて、整列させた状態で部品を供給する装置である。つまり、任意の姿勢の複数の部品を、所定の姿勢に整列させて、所定の姿勢の部品を供給する装置である。なお、部品供給装置30および、ばら部品供給装置32によって供給される部品として、電子回路部品,太陽電池の構成部品,パワーモジュールの構成部品等が挙げられる。また、電子回路部品には、リードを有する部品,リードを有さない部品等が有る。
 制御装置34は、コントローラ82、複数の駆動回路86、画像処理装置88を備えている。複数の駆動回路86は、上記搬送装置50、クランプ装置52、作業ヘッド60,62、作業ヘッド移動装置64、トレイ型部品供給装置78、フィーダ型部品供給装置80、ばら部品供給装置32に接続されている。コントローラ82は、CPU,ROM,RAM等を備え、コンピュータを主体とするものであり、データ記憶領域96とデータ解析領域98とを含む。データ記憶領域96は、各種データを記憶する領域であり、データ解析領域98は、各種データを解析する領域である。また、コントローラ82は、複数の駆動回路86に接続されている。これにより、基材搬送保持装置22、部品装着装置24等の作動が、コントローラ82によって制御される。さらに、コントローラ82は、画像処理装置88にも接続されている。画像処理装置88は、マークカメラ26およびパーツカメラ28によって得られた画像データを処理するものであり、コントローラ82は、画像データから各種情報を取得する。
 <部品実装機の作動>
 部品実装機10では、上述した構成によって、基材搬送保持装置22に保持された回路基材12に対して部品の装着作業が行われる。具体的には、回路基材12が、作業位置まで搬送され、その位置において、クランプ装置52によって固定的に保持される。次に、マークカメラ26が、回路基材12の上方に移動し、回路基材12を撮像する。これにより、回路基材12の保持位置等に関する情報が得られる。また、部品供給装置30若しくは、ばら部品供給装置32は、所定の供給位置において、部品を供給する。そして、作業ヘッド60,62の何れかが、部品の供給位置の上方に移動し、吸着ノズル66によって部品を保持する。続いて、部品を保持した作業ヘッド60,62が、パーツカメラ28の上方に移動し、パーツカメラ28によって、吸着ノズル66に保持された部品が撮像される。これにより、部品の保持位置等に関する情報が得られる。続いて、部品を保持した作業ヘッド60,62が、回路基材12の上方に移動し、回路基材12の保持位置の誤差,部品の保持位置の誤差等を補正する。そして、吸着ノズル66が部品を離脱することで、回路基材12に部品が装着される。
 <パーツカメラによる部品の電極位置の認識>
 上述したように、部品実装機10では、吸着ノズル66により保持された部品が回路基材12に装着されるため、吸着ノズル66による部品の保持位置等に関する情報がパーツカメラ28により取得される。特に、回路基材12への装着予定の部品が、リードを有する電子回路部品(以下、「リード部品」と記載する場合がある。)である場合には、リードを回路基材12に形成された貫通穴に挿入するべく、リードの先端部の位置に関する情報が、パーツカメラ28により取得される。
 詳しくは、パーツカメラ28は、図4に示すように、撮像装置100と、レンズ102と、レーザー照明104とを備えている。撮像装置100は、撮像素子(図示省略)を有しており、受光面を上方に向けて配設されている。レンズ102は、撮像装置100の受光面側、つまり、図4での上面側に固定されており、レンズ102の上に、箱型部材105などを介して、レーザー照明104が設けられている。レーザー照明104は、4個のレーザー照射装置(図では2個のレーザー照射装置のみが記されている)106によって構成されている。4個のレーザー照射装置106は、吸着ノズル66に保持されたリード部品110を囲むように、4等配の位置に配設されている。そして、4個のレーザー照射装置106は、吸着ノズル66に保持されたリード部品110に向かって、側方の4箇所からレーザー光を照射する。なお、リード部品110は、部品本体部112と、部品本体部112の底面から延び出す複数のリード114とを含み、リード114を下方に向けた状態で部品本体部112において吸着ノズル66によって吸着保持されている。また、レーザー光は拡散しないため、各レーザー照射装置106は、吸着ノズル66に保持されたリード部品110のリード部品110の先端部に向かってピンポイントで、レーザー光を照射する。
 レーザー照射装置106から照射された光は、吸着ノズル66に保持されたリード部品110のリード114によって反射し、レンズ102に入射する。そして、レンズ102に入射した光が、撮像装置100に入射し、撮像装置100の撮像素子により検出される。これにより、吸着ノズル66に保持されたリード部品110のリード114の先端部の撮像データが得られる。そして、その撮像データが、コントローラ82のデータ解析領域98において解析されることで、リード114の先端部の位置が認識される。このようにして、パーツカメラ28により吸着ノズル66を保持したリード部品110を撮像することで、リード114の先端部の位置の認識処理(以下、「先端部認識処理」と記載する場合がある)を適切に行うことが可能となる。
 しかしながら、パーツカメラ28では、レーザー光を側方からリード114に向かって照射し、その反射光を用いて撮像を行っており、リード114の先端形状のバラツキにより、撮像装置100の露光量が安定せず、リード114の先端部認識処理を適切に実行できない虞がある。詳しくは、図5に示すように、リード部品110には、リード114の先端部が、回路基材12の貫通穴への挿入のし易さを考慮して、先細形状とされているものがある。このような形状のリード114の先端にレーザー光が側方から照射されると、比較的多くの量の光がリード114の先端によって下方に向かって反射する。また、例えば、図6に示すような先細形状のリード114を有するリード部品110も存在する。このような形状のリード114の先端にレーザー光が側方から照射されると、レーザー光はリード114の先端によって下方に向かって反射するが、図5に示すリード114の先端による光の反射量と、図6に示すリード114の先端による光の反射量とは異なる。さらに言えば、図7に示すように、リード114の先端が先細形状とされず、先端面がリード114の軸線方向に対して直角とされているリード部品110も存在する。このような形状のリード114の先端にレーザー光が側方から照射されると、リード114の先端によって下方に向かって反射する光の量は、比較的少ない。
 このように、リード114の先端により下方に向かって反射する光の量は、リード114の先端形状に応じて異なる。つまり、リード114の先端形状に応じて、撮像装置100の撮像素子に検出される光の量が異なる。これにより、リード114の先端形状に応じて、撮像装置100の露光量が安定せず、リード114の先端部認識処理を適切に実行できない虞がある。このため、撮像装置100の露光量、つまり、撮像装置100のシャッタースピード(露光時間)を調整する必要がある。このようなことに鑑みて、部品実装機10では、撮像装置100のシャッタースピードを変更して、リード114の先端が複数回撮像され、その撮像により作成された複数の撮像データに基づいて、最適なシャッタースピードが設定される。
 詳しくは、吸着ノズル66により保持されたリード部品110のリード114の先端部に、レーザー照射装置106により照射されたレーザー光が照射されるように、リード部品110の撮像位置が設定されている。具体的には、リード114の長さ等を考慮し、吸着ノズル66により保持されたリード部品110のリード114の先端部に、レーザー照射装置106により照射されたレーザー光が照射されると想定されるリード部品110の撮像位置(以下、「設定撮像位置」と記載する)が、コントローラ82のデータ記憶領域96に記憶されている。そして、吸着ノズル66により保持されたリード部品110が設定撮像位置に移動される。
 次に、設定撮像位置に移動されたリード部品110のリード114の先端が、パーツカメラ28により撮像される。この際、シャッタースピードを50~110msecの間で、10msec毎に変更して、複数回、リード114の先端が撮像される。つまり、リード部品110を設定撮像位置に位置させた状態で、50msec,60msec,70msec,80msec,90msec,100msec,110msecの7種の異なるシャッタースピードで、リード114の先端の撮像が7回、行われる。そして、リード114の先端の複数回の撮像により、コントローラ82のデータ解析領域98において、シャッタースピードの異なる複数の撮像データが作成される。
 続いて、シャッタースピードの異なる複数の撮像データ毎に、リード114の先端位置を適切に認識することが可能であるか否かが、データ解析領域98において判断される。具体的には、データ記憶領域96には、リード114の線径に応じた画像認識可能領域が記憶されている。画像認識可能領域は、図8に示すように、リード114の線径(点線)Lより所定の距離小さい最小境界線(1点鎖線)と、リード114の線径(図中点線)Lより所定の距離大きい最大境界線(2点鎖線)とに囲まれた領域であり、リード114の線径Lに所定の幅の許容域を加えた状態で設定されている。
 そして、撮像データに基づく画像において、リード114の外形線が画像認識可能領域の内部に収まっているか否かが、データ解析領域98により判断される。この際、図8に示すように、リード114の外形線(実線)が画像認識可能領域に収まっている場合には、撮像データに基づいて、リード114の先端位置を適切に認識することが可能であると判断される。つまり、撮像データに応じたシャッタースピードでリード114を撮像することで、適切な露光量により、リード114の外形線を明確に認識し、リード114の先端位置を適切に認識することが可能であると判断される。
 一方、撮像データに応じたシャッタースピードが遅く、露光量が多い場合には、ハレーションが生じ、図9に示すように、リード114の外形線(実線)がぼやけて、不鮮明となり、画像認識可能領域の最大境界線(2点鎖線)の外側に延び出し、画像認識可能領域の内部に収まらない。このため、このような場合には、リード114の先端位置を適切に認識することができないと判断される。また、撮像データに応じたシャッタースピードが速く、露光量が少ない場合には、露光不足で、図10に示すように、リード114の外形線(実線)は画像認識可能領域の最小境界線(1点鎖線)より小さくなり、画像認識可能領域まで至らない。このため、このような場合にも、リード114の先端位置を適切に認識することができないと判断される。
 上記手法に従って、シャッタースピードの異なる複数の撮像データ毎に、リード114の先端位置を適切に認識することが可能であるか否かが判断されると、判断結果に基づいて、最適なシャッタースピード(以下、「最適シャッタースピード」と記載する)が設定される。具体的には、例えば、図11に示すように、60~100msecのシャッタースピードでの撮像データで、リード114の先端位置を認識可能であり、50msec及び110msecのシャッタースピードでの撮像データでは、リード114の先端位置を認識不能であると判断されたと仮定する。なお、図11では、リード114の先端位置を認識不能であると判断されたシャッタースピードに、「×」が記され、リード114の先端位置を認識可能であると判断されたシャッタースピードに、「○」が記されている。
 そして、リード114の先端位置を認識可能であると判断されたシャッタースピードのうちの、最も速いシャッタースピード(以下、「認識上限シャッタースピード」と記載する場合がある)(60msec)と最も遅いシャッタースピード(以下、「認識下限シャッタースピード」と記載する場合がある)(100msec)との平均値(80msec)が、最適シャッタースピードとして設定される。これにより、リード114の先端形状に関わらず、撮像装置100の露光量のバラツキを抑制し、リード114の先端部認識処理を適切に実行することが可能となる。
 なお、最適シャッタースピードの設定を行う際に変更されるシャッタースピードは、50~110msecでなく、レーザー照射装置106の光度,撮像装置100の性能等に応じて任意に設定することが可能である。また、最適シャッタースピードの設定を行う際に変更されるシャッタースピードの間隔も、10msec毎でなく、任意の間隔に設定することが可能である。また、最適シャッタースピードは、認識可能であると判断されたシャッタースピードの平均値以外で任意に設定することが可能である。
 また、部品実装機10では、撮像装置100のシャッタースピードだけでなく、吸着ノズル66により保持されたリード部品110の上下方向における撮像位置を最適化することで、リード114の先端部認識処理の適切な実行が担保されている。具体的には、リード部品110のリード114の先端に照射されるレーザー光は、拡散しないため、図12に示すように、所定の幅の光路(2本の点線150の間の経路)に沿って、リード部品110に向かって照射される。この際、リード114の先端部が、図12に示すように、その光路の内側に位置している場合には、リード114の先端部において光が反射するため、リード114の先端部が撮像される。このような場合には、リード114の先端部認識処理を適切に行うことが可能となる。
 一方、リード114の先端部が、図13に示すように、レーザー光の光路の上方に位置している場合には、リード114の先端部に光が照射されず、リード114の先端部を撮像することができない。このような場合には、リード114の先端部認識処理を行うことができない。また、リード114の先端部が、図14に示すように、レーザー光の光路の下方に位置している場合には、リード114の部品本体部112側の基端部に光は照射されるが、リード114の先端部に光が照射されず、リード114の先端部を撮像することができない。このような場合にも、リード114の先端部認識処理を行うことができない。
 このため、リード部品110の撮像時には、リード114の先端部がレーザー光の照射幅の内側に位置するように、リード部品110の撮像位置を設定する必要がある。ただし、リード114の先端部がレーザー光の照射幅の内側に位置するように設定された撮像位置であっても、リード114の長さの誤差により、リード114の先端部認識処理を行えない場合がある。
 詳しくは、同じ種類のリード部品であっても、リードの長さには、僅かであるが誤差がある。特に、アキシャルフィーダにより供給されるリード部品では、リードの長さの誤差が大きくなる場合がある。アキシャルフィーダとは、アキシャル型のリード部品のリードを所定の長さに切断し、屈曲させた状態でリード部品を供給するフィーダである。このようなアキシャルフィーダにより供給されるリード部品では、リードの線径,材質等により、リードの長さの誤差が大きくなる場合がある。
 このように、リードの長さに誤差がある場合には、リード114の先端部がレーザー光の照射幅の内側に位置するように、リード部品110の撮像位置が設定されても、リードの長さに応じて、先端部認識処理を行えない場合がある。具体的には、例えば、図15に示す位置に、リード部品110の撮像位置が設定された場合、つまり、リード114の先端部がレーザー光の照射幅の内側の上限の近くに位置するように、リード部品110の撮像位置が設定された場合には、リード114の長さが、通常の長さであれば、リード114の先端部に光が照射される。一方で、リード114の長さが、誤差により、短い場合には、リード部品110の撮像位置が、図15の撮像位置と同じであっても、図13に示すように、リード114の先端部はレーザー光の照射幅の上方に位置し、リード114の先端部に光は照射されない。このような場合には、先端部認識処理を行うことができない。
 また、例えば、図16に示す位置に、リード部品110の撮像位置が設定された場合、つまり、リード114の先端部がレーザー光の照射幅の内側の下限の近くに位置するように、リード部品110の撮像位置が設定された場合には、リード114の長さが、通常の長さであれば、リード114の先端部に光が照射される。一方で、リード114の長さが、誤差により、長い場合には、リード部品110の撮像位置が、図16の撮像位置と同じであっても、図14に示すように、リード114の先端部はレーザー光の照射幅の下方に位置し、リード114の先端部に光は照射されない。このような場合にも、先端部認識処理を行うことができない。
 このようなことに鑑みて、部品実装機10では、リード114の先端部がレーザー光の照射幅の内側の中央に位置するように、リード部品110の撮像位置が設定される。具体的には、最適シャッタースピードを設定する際に用いられた設定撮像位置から設定距離(本実施例では、0.5mm)、上方の位置(以下、「上方撮像位置」と記載する場合がある)が、上限の撮像位置として設定され、設定撮像位置から設定距離(本実施例では、0.5mm)、下方の位置(以下、「下方撮像位置」と記載する場合がある)が、下限の撮像位置として設定される。そして、上方撮像位置から下方撮像位置に向かって、リード部品110を保持した吸着ノズル66を下方に向かって移動させる際に、予め設定されたピッチ(本実施例では、0.1mm)毎に、パーツカメラ28による撮像が行われる。
 つまり、例えば、図17に示すように、設定撮像位置の0.5mm上方が上方撮像位置と設定され、設定撮像位置の0.5mm下方が下方撮像位置と設定される。そして、上方撮像位置から下方撮像位置までの間を、0.1mm毎に撮像位置として設定する。これにより、上から順番にH~H11の11個の撮像位置が設定される。このように撮像位置が設定されると、リード部品110を保持した吸着ノズル66が、上方撮像位置(H)から下方撮像位置(H11)まで移動され、各撮像位置において、パーツカメラ28による撮像が行われる。
 上記手順に従ってリード部品110が撮像されると、コントローラ82のデータ解析領域98において、各撮像に応じた撮像データが作成される。つまり、各撮像位置(H~H11)での撮像データが作成される。そして、それら複数の撮像位置(H~H11)での撮像データ毎に、リード114の先端部を認識可能であるか否かが、データ解析領域98において判断される。この際、例えば、撮像位置(H~H、H11)での撮像データの各々では、リード114の先端部を認識不能であり、撮像位置(H~H10)での撮像データの各々では、リード114の先端部を認識可能であると判断されたと仮定する。なお、図17では、リード114の先端部を認識不能であると判断された撮像位置(H~H、H11)には、「×」が記され、リード114の先端部を認識可能であると判断された撮像位置(H~H10)には、「○」が記されている。
 このように、撮像位置毎に、リード114の先端部を認識可能であるか否かが判断されると、リード114の先端部を認識可能であると判断された撮像位置(H~H10)の中央の位置が、最適撮像位置として設定される。つまり、リード114の先端部を認識可能であると判断された撮像位置(H~H10)の最も上方の撮像位置(以下、「認識上限位置」と記載する場合がある)(H)と、リード114の先端部を認識可能であると判断された撮像位置(H~H10)の最も下方の撮像位置(以下、「認識下限位置」と記載する場合がある)(H10)との中央の撮像位置(H)が、最適撮像位置として設定される。
 つまり、リード部品110を保持した吸着ノズル66が撮像上限位置(H)から撮像下限位置(H11)まで移動される際に、リード部品110が認識上限位置(H)に位置している場合には、図15に示すように、リード114の先端部は、レーザー光の照射幅の内側の上限の近くに位置している。また、リード部品110が認識下限位置(H10)に位置している場合には、図16に示すように、リード114の先端部は、レーザー光の照射幅の内側の下限の近くに位置している。このため、認識上限位置(H)と認識下限位置(H10)との中央の撮像位置(H)にリード部品110が位置している場合には、図12に示すように、リード114の先端部は、レーザー光の照射幅の内側の略中央に位置する。これにより、リード114の先端部がレーザー光の照射幅の内側の略中央に位置する際の撮像位置(H)を、最適撮像位置として設定することが可能となる。
 なお、最適撮像位置の設定を行う際の上方撮像位置および、下方撮像位置を設定するための設定距離は、レーザー光の照射幅に応じて任意に設定することが可能である。また、最適撮像位置の再設定を行う際の撮像ピッチも、任意の値に設定することが可能であるが、撮像回数,精度等を考慮して、0.1~0.5mm程度に設定されることが好ましい。
 また、上記説明では、認識上限位置と認識下限位置との間の全ての撮像位置において、リード114の先端部認識処理が適切に行われているが、認識上限位置と認識下限位置との間の少なくとも1つの撮像位置において、リード114の先端部認識処理を適切に行えない場合がある。なお、このような現象は、リード114等に付着した異物等によるレーザー光の反射等により生じる。
 具体的には、例えば、図18に示すように、撮像位置(H~H、H、H、H11)での撮像データの各々では、リード114の先端部を認識不能であり、撮像位置(H、H、H~H10)での撮像データの各々では、リード114の先端部を認識可能であると判断される場合がある。つまり、認識上限位置(H)と認識下限位置(H10)との間の撮像位置(H、H)において、リード114の先端部認識処理を適切に行えない場合がある。
 このような場合には、認識上限位置(H)と認識下限位置(H10)との間に存在する先端部認識処理を行うことができない撮像位置(H、H)の下方の撮像位置(H)と、認識下限位置(H10)との間の中央の撮像位置(H)が、最適撮像位置として設定される。これにより、リード114の先端部が、レーザー光の照射幅の内側の下方に位置している際の画像データ、つまり、リード114の先端部を含む多くの部分にレーザー光が照射された状態で撮像された撮像データに基づいて、先端部認識処理を行うことが可能となり、適切にリード114の先端部の位置を認識することが可能となる。
 なお、設定された最適撮像位置が、最適シャッタースピードを設定する際にリード114の撮像が行われた設定撮像位置と異なる場合がある。このような場合には、設定撮像位置で設定された最適シャッタースピードが、最適撮像位置での撮像時において、適していない虞がある。このため、設定された最適撮像位置が、最適シャッタースピードを設定する際にリード114の撮像が行われた設定撮像位置と異なる場合には、最適撮像位置において、再度、最適シャッタースピードが設定される。つまり、吸着ノズル66により保持されたリード部品110が最適撮像位置に移動された状態において、撮像装置100のシャッタースピードを変更して、リード114の先端が複数回撮像され、その撮像により作成された複数の撮像データに基づいて、最適シャッタースピードが再設定される。これにより、最適撮像位置におけるシャッタースピードの最適化を担保することが可能となる。なお、設定撮像位置における最適シャッタースピードの設定と、最適撮像位置における最適シャッタースピードの再設定とは同じ手法により行われるため、最適撮像位置における最適シャッタースピードの再設定の説明は省略する。
 また、コントローラ82のデータ解析領域98は、図3に示すように、第1作成部160と第1判定部162と第1決定部164と第2作成部166と第2判定部168と第2決定部170とを有している。第1作成部160は、異なるシャッタースピード毎の撮像データを作成するための機能部である。第1判定部162は、異なるシャッタースピード毎の撮像データに基づいて、リード114の先端部の位置を認識できるか否かを判定するための機能部である。第1決定部164は、第1判定部162の判定結果に基づいて、最適シャッタースピードを決定するための機能部である。第2作成部166は、撮像位置毎の撮像データを作成するための機能部である。第2判定部168は、撮像位置毎の撮像データに基づいて、リード114の先端部の位置を認識できるか否かを判定するための機能部である。第2決定部170は、第2判定部168の判定結果に基づいて、最適撮像位置を決定するための機能部である。
 <第2実施例>
 第1実施例の部品実装機10では、上方撮像位置から、下方に向かって、下方撮像位置まで間で、順番に複数の撮像位置が設定されているが、第2実施例の部品実装機10では、設定撮像位置を中心として、設定撮像位置から順次離れた位置が、複数の撮像位置として設定されている。
 具体的には、最適シャッタースピードを設定する際に用いられた設定撮像位置が、図19に示すように、1回目の撮像位置(H)として設定される。そして、2回目の撮像位置(H)として、設定撮像位置から、下方に向かって、設定ピッチ(本実施例では、0.1mm)に相当する距離離れた撮像位置が設定される。次に、3回目の撮像位置(H)として、設定撮像位置から、上方に向かって、設定ピッチ(本実施例では、0.1mm)に相当する距離離れた撮像位置が設定される。さらに、4回目の撮像位置(H)として、設定撮像位置から、下方に向かって、設定ピッチの2倍に相当する距離離れた撮像位置が設定され、5回目の撮像位置(H)として、設定撮像位置から、上方に向かって、設定ピッチの2倍に相当する距離離れた撮像位置が設定される。つまり、2N(N:正の整数)回目の撮像位置(H2N)として、設定撮像位置から、下方に向かって、(設定ピッチ×N)に相当する距離離れた撮像位置が設定され、(2N+1)(N:正の整数)回目の撮像位置(H2N+1)として、設定撮像位置から、上方に向かって、(設定ピッチ×N)に相当する距離離れた撮像位置が設定される。なお、設定撮像位置から上方に向かって離れた上限の撮像位置、つまり、上方撮像位置は、第1実施例と同様に、設定撮像位置から上方に向かって設定距離(本実施例では、0.5mm)離れた位置である。また、設定撮像位置から下方に向かって離れた下限の撮像位置、つまり、下方撮像位置は、第1実施例と同様に、設定撮像位置から下方に向かって設定距離(本実施例では、0.5mm)離れた位置である。これにより、図19に示す例では、11か所の撮像位置(H~H11)が設定される。
 上述したように撮像位置が設定されると、撮像位置(H)にリード部品110が移動され、パーツカメラ28により撮像される。そして、撮像により作成された撮像データに基づいて、リード114の先端部認識処理が行われる。この際、撮像データに基づいて、リード114の先端部の位置が認識された場合は、その認識処理で用いられた撮像データの撮像位置(H)が、最適撮像位置として設定される。一方、撮像データに基づいて、リード114の先端部の位置が認識されなかった場合は、次の撮像位置(H)にリード部品110が移動され、その位置での撮像データに基づいて、先端部認識処理が行われる。この際、撮像データに基づいて、リード114の先端部の位置が認識された場合は、その認識処理で用いられた撮像データの撮像位置(H)が、最適撮像位置として再設定される。一方、撮像データに基づいて、リード114の先端部の位置が認識されなかった場合は、次の撮像位置(H)にリード部品110が移動され、その位置での撮像データに基づいて、先端部認識処理が行われる。つまり、撮像データに基づいて、リード114の先端部の位置が認識されるまで、リード部品110は次の撮像位置に移動され、その位置での撮像データに基づいて、先端部認識処理が行われる。
 具体的には、例えば、5か所の撮像位置(H~H)の各々に、順番に従って、リード部品110が移動され、各撮像位置での撮像データに基づいて、リード114の先端部の位置が認識されなかった場合は、撮像位置(H)にリード部品110が移動され、その撮像位置での撮像データに基づいて先端部認識処理が行われる。この際、撮像位置(H)での撮像データに基づいて、リード114の先端部の位置が認識された場合は、その撮像位置(H)が最適撮像位置として再設定される。そして、撮像位置(H~H11)での撮像は行われず、その撮像位置(H~H11)の撮像データに基づく先端部認識処理も行われない。
 このように、最適撮像位置を設定することで、リード114の先端部がレーザー光の照射幅の内側の中央の近くに位置する際の撮像位置を、最適撮像位置として設定することが可能となる。これにより、第1実施例と同様の効果を奏することが可能となる。
 なお、本発明は、上記実施例に限定されるものではなく、当業者の知識に基づいて種々の変更、改良を施した種々の態様で実施することが可能である。具体的には、例えば、上記実施例では、本発明が、リード部品110のリード114の先端部の位置の認識処理に適用されているが、リードを有さない電子回路部品の電極、例えば、バンプ等の位置の認識処理に、本発明を適用することが可能である。また、電子回路部品の電極に限らず、部品の突起部の先端部の位置の認識処理に、本発明を適用することが可能である。さらに言えば、部品の突起部に限らず、部品の特徴的な部分、例えば、突出していないが、電気的に接続可能な部分等、部品の特徴部の認識処理に、本発明を適用することが可能である。
 また、上記第1実施例では、認識上限シャッタースピードと認識下限シャッタースピードとの平均値が、最適シャッタースピードに設定されているが、認識上限シャッタースピードと認識下限シャッタースピードとの間の任意のシャッタースピードを、最適シャッタースピードに設定することが可能である。
 また、上記第1実施例では、異なるシャッタースピードの間隔が一定とされているが、異なるシャッタースピードの間隔をランダムにすることが可能である。つまり、例えば、最適シャッタースピードを設定する際に用いられるシャッタースピードを、50msec、55msec、65msec、80msec、95msec、105msec、110msecにすることが可能である。このように、シャッタースピードが速いほど、若しくは、遅いほど、シャッタースピードの間隔を小さくすることで、リード114の先端位置を認識不能なシャッタースピードを細かく確認することが可能となる。
 また、上記第1実施例では、最適撮像位置が設定される際に、上方撮像位置から下方撮像位置に、リード部品110が移動されるが、下方撮像位置から上方撮像位置に、リード部品110が移動されてもよい。
 また、上記第1実施例では、認識上限位置と認識下限位置との間の中央の位置が、最適撮像位置に設定されているが、認識上限位置と認識下限位置との間の任意の位置を、最適撮像位置に設定することが可能である。
 また、上記第1実施例では、認識上限位置と認識下限位置との間の少なくとも1つの撮像位置において、リード114の先端部認識処理を適切に行えない場合には、認識上限位置と認識下限位置との間に存在する先端部認識処理を行うことができない撮像位置の下方の撮像位置と、認識下限位置との間の位置が、最適撮像位置として設定されるが、認識上限位置と認識下限位置との間に存在する先端部認識処理を行うことができない撮像位置の上方の撮像位置と、認識上限位置との間の位置を、最適撮像位置として設定してもよい。
 また、本発明は、アキシャル部品だけでなく、ラジアル部品、バラ供給部品などに適用することが可能である。
 28:パーツカメラ(認識装置)  98:データ解析領域(データ解析装置)  100:撮像装置  104:レーザー照明(光源)  110:リード部品(部品)  114:リード(特徴部)(突起部)  160:第1作成部  162:第1判定部  164:第1決定部  166:第2作成部  168:第2判定部  170:第2決定部

Claims (7)

  1.  基板に装着される部品の特徴部の位置を認識するための認識装置であって、
     当該認識装置が、
     部品の特徴部に光を照射する光源と、
     前記光源から部品の特徴部に光が照射された際に、その照射した光に基づいて、その部品の特徴部を撮像する撮像装置と、
     前記撮像装置により撮像された撮像データに基づいて、前記撮像装置により撮像された部品の特徴部の位置を認識するデータ解析装置と
     を備え、
     前記データ解析装置が、
     前記撮像装置の撮像対象の部品である対象部品を、予め設定された設定撮像位置に位置させた状態で、前記対象部品の特徴部を、前記撮像装置によって、異なるシャッタースピードで複数回撮像し、それら複数回の撮像に応じた複数の撮像データを作成する第1作成部と、
     前記第1作成部により作成された複数の撮像データの各々に基づいて、前記対象部品の特徴部の位置を認識可能であるか否かを判定する第1判定部と、
     前記第1判定部により前記対象部品の特徴部の位置を認識可能であると判定された撮像データに応じた撮像時のシャッタースピードのうちの、最も速いシャッタースピードである第1シャッタースピードと最も遅いシャッタースピードである第2シャッタースピードとの間のシャッタースピードを、最適シャッタースピードとして決定する第1決定部と
     を有することを特徴とする認識装置。
  2.  前記第1決定部が、
     前記第1シャッタースピードと前記第2シャッタースピードとの平均値を、前記最適シャッタースピードとして決定することを特徴とする請求項1に記載の認識装置。
  3.  前記設定撮像位置より上方の位置を上方設定位置と定義し、前記設定撮像位置より下方の位置を下方設定位置と定義した場合に、
     前記データ解析装置が、
     前記上方設定位置と前記下方設定位置との一方から他方に向かって、前記対象部品が移動する際に、予め設定されたピッチ毎に、前記対象部品の特徴部を、前記撮像装置により前記最適シャッタースピードで撮像し、ピッチ毎の撮像データを作成する第2作成部と、
     前記第2作成部により作成されたピッチ毎の撮像データの各々に基づいて、前記対象部品の特徴部の位置を認識可能であるか否かを判定する第2判定部と、
     前記第2判定部により前記対象部品の特徴部の位置を認識可能であると判定された撮像データに応じた撮像時の前記対象部品の位置である撮像位置のうちの、前記上方設定位置に最も近い位置である認識上限位置と前記下方設定位置に最も近い位置である認識下限位置との間の位置を、最適撮像位置として決定する第2決定部と
     を有することを特徴とする請求項1または請求項2に記載の認識装置。
  4.  前記第2決定部は、
     前記認識上限位置と前記認識下限位置との間の撮像位置での撮像データに、前記第2判定部により前記対象部品の特徴部の位置を認識不能であると判定された撮像データが存在する場合に、その撮像データに応じた撮像位置の下方の撮像位置と、前記認識下限位置との間の位置を、前記最適撮像位置として決定することを特徴とする請求項3に記載の認識装置。
  5.  前記データ解析装置が、
     前記対象部品を所定の位置に位置させた状態で、前記対象部品の特徴部を前記撮像装置により前記最適シャッタースピードで撮像し、撮像データを作成する第2作成部と、
     前記第2作成部により作成された撮像データに基づいて、前記対象部品の特徴部の位置を認識可能であるか否かを判定する第2判定部と、
     前記第2判定部により前記対象部品の特徴部の位置を認識可能であると判定された場合に、その判定対象の撮像データに応じた撮像時の前記対象部品の位置である撮像位置を、最適撮像位置として決定する第2決定部と
     を有し、
     前記第2作成部は、
     当該第2作成部が作成した撮像データに基づいて前記第2判定部により前記対象部品の特徴部の位置を認識可能であると判定される迄、複数回撮像を行うものであり、1回目の撮像で、前記設定撮像位置に位置する前記対象部品の特徴部を撮像し、2N(N:正の整数)回目の撮像で、前記設定撮像位置から、上方と下方との一方に向かって、(設定距離×N)に相当する距離離れた位置に位置する前記対象部品の特徴部を撮像し、(2N+1)(N:正の整数)回目の撮像で、前記設定撮像位置から、上方と下方との他方に向かって、(設定距離×N)に相当する距離離れた位置に位置する前記対象部品の特徴部を撮像し、撮像データを作成し、
     前記第2判定部は、
     前記第2作成部が撮像データを作成する毎に、前記第2作成部により作成された撮像データに基づいて、前記対象部品の特徴部の位置を認識可能であるか否かを判定することを特徴とする請求項1ないし請求項4のいずれか1つに記載の認識装置。
  6.  前記第1作成部は、
     前記第2決定部により決定された前記最適撮像位置が前記設定撮像位置と異なる場合に、前記対象部品を前記最適撮像位置に位置させた状態で、前記対象部品の特徴部を、前記撮像装置によって、異なるシャッタースピードで複数回撮像し、それら複数回の撮像に応じた複数の撮像データを作成し、
     前記第1判定部と前記第1決定部とによって、前記対象部品の特徴部の位置を認識可能であるか否かの判定と、前記最適シャッタースピードの決定とを再度、実行することを特徴とする請求項3ないし請求項5のいずれか1つに記載の認識装置。
  7.  部品の特徴部は、部品の突起部である請求項1ないし請求項6のいずれか1つに記載の認識装置。
PCT/JP2016/076283 2016-09-07 2016-09-07 認識装置 WO2018047252A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US16/328,461 US11202400B2 (en) 2016-09-07 2016-09-07 Recognition device
EP16915671.8A EP3512323B1 (en) 2016-09-07 2016-09-07 Recognition device
PCT/JP2016/076283 WO2018047252A1 (ja) 2016-09-07 2016-09-07 認識装置
CN201680088982.1A CN109661863B (zh) 2016-09-07 2016-09-07 识别装置
JP2018537918A JP6748723B2 (ja) 2016-09-07 2016-09-07 認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/076283 WO2018047252A1 (ja) 2016-09-07 2016-09-07 認識装置

Publications (1)

Publication Number Publication Date
WO2018047252A1 true WO2018047252A1 (ja) 2018-03-15

Family

ID=61562833

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/076283 WO2018047252A1 (ja) 2016-09-07 2016-09-07 認識装置

Country Status (5)

Country Link
US (1) US11202400B2 (ja)
EP (1) EP3512323B1 (ja)
JP (1) JP6748723B2 (ja)
CN (1) CN109661863B (ja)
WO (1) WO2018047252A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019239573A1 (ja) * 2018-06-15 2019-12-19 株式会社Fuji 作業機
WO2022269912A1 (ja) * 2021-06-25 2022-12-29 株式会社Fuji 認識装置及び認識方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7212055B2 (ja) * 2018-10-11 2023-01-24 株式会社Fuji 作業機
WO2022240630A1 (en) * 2021-05-14 2022-11-17 Applied Materials, Inc. Edge inspection system for inspection of optical devices

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002298132A (ja) * 2001-04-02 2002-10-11 Fuji Mach Mfg Co Ltd 撮像システム,撮像システム制御プログラムおよび電気部品装着システム
JP2006140391A (ja) * 2004-11-15 2006-06-01 Juki Corp 部品認識装置及び部品実装装置
WO2011145319A1 (ja) * 2010-05-19 2011-11-24 株式会社ニコン 形状測定装置及び形状測定方法
JP2013016570A (ja) * 2011-07-01 2013-01-24 Fuji Mach Mfg Co Ltd レーザー高さ測定装置および部品実装機

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683945A (ja) 1992-08-31 1994-03-25 Yamaha Motor Co Ltd 物品認識装置
JP3432243B2 (ja) * 1993-06-25 2003-08-04 松下電器産業株式会社 データ生成方法
JP3470897B2 (ja) * 2001-05-17 2003-11-25 松下電器産業株式会社 部品実装順序最適化方法、その装置及び部品実装機
US7532749B2 (en) * 2003-11-18 2009-05-12 Panasonic Corporation Light processing apparatus
JP2006210513A (ja) 2005-01-26 2006-08-10 Fuji Xerox Co Ltd 光伝送モジュール及びそれを有する光コネクタ
JP4701037B2 (ja) * 2005-08-10 2011-06-15 Juki株式会社 電子部品の画像取得方法及び装置
KR101495231B1 (ko) * 2006-12-28 2015-02-24 야마하하쓰도키 가부시키가이샤 부품 인식 장치, 표면 실장기, 및 부품 시험 장치
JP4851361B2 (ja) * 2007-02-19 2012-01-11 富士機械製造株式会社 電子回路部品装着装置
JP4666012B2 (ja) * 2008-06-20 2011-04-06 ソニー株式会社 画像処理装置、画像処理方法、プログラム
EP2998728B1 (en) * 2013-05-13 2019-10-30 FUJI Corporation Component mounting machine
JP6333250B2 (ja) * 2013-07-08 2018-05-30 株式会社Fuji 部品保持状態検出方法および部品実装装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002298132A (ja) * 2001-04-02 2002-10-11 Fuji Mach Mfg Co Ltd 撮像システム,撮像システム制御プログラムおよび電気部品装着システム
JP2006140391A (ja) * 2004-11-15 2006-06-01 Juki Corp 部品認識装置及び部品実装装置
WO2011145319A1 (ja) * 2010-05-19 2011-11-24 株式会社ニコン 形状測定装置及び形状測定方法
JP2013016570A (ja) * 2011-07-01 2013-01-24 Fuji Mach Mfg Co Ltd レーザー高さ測定装置および部品実装機

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3512323A4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019239573A1 (ja) * 2018-06-15 2019-12-19 株式会社Fuji 作業機
JPWO2019239573A1 (ja) * 2018-06-15 2021-02-12 株式会社Fuji 作業機
WO2022269912A1 (ja) * 2021-06-25 2022-12-29 株式会社Fuji 認識装置及び認識方法
DE112021007882T5 (de) 2021-06-25 2024-04-18 Fuji Corporation Erkennungsvorrichtung und Erkennungsverfahren

Also Published As

Publication number Publication date
JP6748723B2 (ja) 2020-09-02
CN109661863A (zh) 2019-04-19
EP3512323B1 (en) 2021-06-16
US20210161044A1 (en) 2021-05-27
EP3512323A1 (en) 2019-07-17
EP3512323A4 (en) 2019-09-25
CN109661863B (zh) 2021-06-29
US11202400B2 (en) 2021-12-14
JPWO2018047252A1 (ja) 2019-06-24

Similar Documents

Publication Publication Date Title
JP6571163B2 (ja) 認識装置
WO2018047252A1 (ja) 認識装置
JP4834703B2 (ja) 表面実装機
WO2017085864A1 (ja) 対基板作業機、および挿入方法
JP5296749B2 (ja) 部品認識装置および表面実装機
JP6754445B2 (ja) 作業機
JP6482165B2 (ja) 認識装置および、認識方法
JP2005340648A (ja) 部品認識方法、部品認識装置、表面実装機および部品検査装置
JP5297913B2 (ja) 実装機
WO2018220733A1 (ja) 作業機、および演算方法
JP2010050337A (ja) 表面実装機
JP6756467B2 (ja) 部品実装装置および部品実装装置における撮像方法
JPWO2019239573A1 (ja) 作業機
JP7095109B2 (ja) 作業機、および演算方法
JP2004063867A (ja) 部品搭載装置及び部品搭載方法
JP7128362B2 (ja) 作業機
JP7050926B2 (ja) 異物検出方法および電子部品装着装置
WO2022269912A1 (ja) 認識装置及び認識方法
JP2018081999A (ja) 認識装置
JP2022011358A (ja) 確認装置、表面実装機
JP2023173295A (ja) 部品実装システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16915671

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018537918

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2016915671

Country of ref document: EP

Effective date: 20190408