WO2015052755A1 - 実装装置 - Google Patents

実装装置 Download PDF

Info

Publication number
WO2015052755A1
WO2015052755A1 PCT/JP2013/077254 JP2013077254W WO2015052755A1 WO 2015052755 A1 WO2015052755 A1 WO 2015052755A1 JP 2013077254 W JP2013077254 W JP 2013077254W WO 2015052755 A1 WO2015052755 A1 WO 2015052755A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
height
component
substrate
unit
Prior art date
Application number
PCT/JP2013/077254
Other languages
English (en)
French (fr)
Inventor
中山 幸則
Original Assignee
富士機械製造株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士機械製造株式会社 filed Critical 富士機械製造株式会社
Priority to JP2015541318A priority Critical patent/JP6475165B2/ja
Priority to PCT/JP2013/077254 priority patent/WO2015052755A1/ja
Publication of WO2015052755A1 publication Critical patent/WO2015052755A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/081Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines
    • H05K13/0812Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines the monitoring devices being integrated in the mounting machine, e.g. for monitoring components, leads, component placement

Definitions

  • the present invention relates to a mounting apparatus.
  • a device that mounts a component on a substrate after correcting a positional deviation between the substrate and the component is known.
  • the mounting apparatus disclosed in Patent Document 1 recognizes an image of a component alignment mark and a substrate alignment mark with a two-view camera, and a bonding stage that holds the substrate based on the image recognition in the X and Y directions (horizontal directions). Then, after correcting the position in the ⁇ direction (rotation direction), the component is mounted on the board.
  • the mounting apparatus described in Patent Document 2 includes a head that picks up components, a camera, and two arms having a plane mirror that is inclined with respect to a vertical line.
  • this mounting apparatus two arms are arranged directly below the camera and directly below the head, respectively, and the components picked up by the head are imaged by the camera to perform component recognition.
  • this mounting apparatus detects the height of the component mounting position by imaging the component mounting position on the board with the camera in a state where the arm is shifted from directly under the camera to the side.
  • the present invention has been made in view of such problems, and a main object thereof is to mount components with higher accuracy while further suppressing an increase in time required for mounting processing.
  • the imaging and height of the component and the board can be performed without interposing the movement of one or more of the first imaging unit, the second imaging unit, and the height-related information acquisition unit and the movement of other mechanisms.
  • Related information can be acquired. Therefore, an increase in time required for the mounting process can be further suppressed.
  • by performing imaging of the component and the substrate and acquiring height-related information for example, based on the obtained information, a deviation in the substrate height direction of the substrate surface with respect to the component or a deviation in the direction orthogonal to the substrate height direction
  • the component can be mounted on the substrate. Therefore, components can be mounted with higher accuracy.
  • the “substrate surface” may be a surface on a substrate on which a component is to be mounted, and includes, for example, the surface of another component that has been mounted.
  • the “height-related information” may be information that can derive the substrate height of the opposing region, and may be information that directly represents the substrate height of the opposing region, or may be information that is indirectly represented. Good.
  • the information that indirectly represents the substrate height of the opposing region includes information that can be regarded as the substrate height of the opposing region, such as information that represents the substrate height around (in the vicinity of) the opposing region of the substrate surface.
  • information that is indirectly represented for example, information used for deriving the substrate height of the opposing region, such as image data, can be cited.
  • the mounting head includes a plurality of holding units that are arranged in a predetermined arrangement direction and can hold the component, and the imaging movement unit moves the imaging unit in the arrangement direction, thereby
  • the imaging unit may be movable to the imaging position of each of the plurality of holding units and to a standby position that does not hinder the mounting of the components held by the plurality of holding units.
  • the imaging moving unit only needs to be able to move the imaging unit in the arrangement direction, and thus the configuration of the imaging moving unit can be more easily simplified.
  • the height-related information acquisition unit includes a spot light source that irradiates spot light on the substrate surface, an optical system, and imaging that receives reflected light of the spot light through the optical system. And image data obtained by imaging the surface of the substrate including the spot light by the imaging element may be acquired as the height-related information. In this way, if the position of the substrate surface in the height direction changes, the position of the spot light in the image data also changes. Therefore, based on the position of the spot light in the image data, the substrate height of the counter area Can be detected relatively easily.
  • the spot light source may irradiate the spot light in the facing area.
  • the second imaging unit includes an optical system common to the height related information acquisition unit, and the height related information acquisition unit.
  • a common imaging device, and the imaging device captures the opposing region
  • the height-related information acquisition unit captures image data obtained by capturing the opposing region including the spot light by the imaging device. You may acquire as height related information.
  • the configuration of the imaging means can be simplified by sharing the optical system and the imaging device. Note that at least one of the optical system and the image sensor of the height-related information acquisition unit may be common to the second imaging unit.
  • the imaging unit includes an imaging main body unit to which the first imaging unit, the second imaging unit, and the height-related information acquisition unit are fixed.
  • the imaging main body may be moved. This makes it easier to simplify the configuration of the imaging movement unit than when the first imaging unit, the second imaging unit, and the height-related information acquisition unit are moved separately.
  • FIG. 1 is a configuration diagram showing an outline of a configuration of a mounting apparatus 10 according to an embodiment of the present invention
  • FIG. 2 is a block diagram showing an electrical connection relationship of a control apparatus 90.
  • Management computer 100 includes placing, mounting, inserting, joining, and adhering the component P on the substrate 16.
  • the component supply device 20 includes a tape feeder 22 detachably attached to the front side of the housing 12.
  • the tape feeder 22 includes a reel 22a around which a tape is wound, and components P are attached to the tape surface at predetermined intervals. These parts P are protected by a film covering the surface of the tape, and when the tape is pulled out from the reel 22a, the film is peeled off at the feeder portion 22b and supplied.
  • the substrate transfer device 30 includes a pair of support plates 32a and 32b provided at a predetermined interval in the Y-axis direction on the lower side of the housing 12, and a pair of conveyors provided on surfaces of the support plates 32a and 32b facing each other. Belts 34a and 34b.
  • the pair of support plates 32a and 32b are configured as rectangular members whose longitudinal direction is the X-axis direction, and driving wheels and driven wheels are provided at both ends in the longitudinal direction.
  • the conveyor belts 34a and 34b are stretched over driving wheels and driven wheels provided on the support plates 32a and 32b, and the driving wheels are driven by a driving motor (not shown), so that the substrate 16 is moved from the left in FIG. Transport to the right.
  • the backup device 40 includes a backup plate 42 that can be moved up and down by a lifting device (not shown), and a base plate 44 that is mounted on the upper surface of the backup plate 42.
  • the base plate 44 is provided with a plurality of backup pins 46 for backing up the substrate 16 from the back side.
  • the component mounting apparatus 50 includes an X-axis slider 52 that is moved in the X-axis direction by driving the X-axis motor 51, a Y-axis slider 54 that is moved in the Y-axis direction by driving the Y-axis motor 53, and the X-axis slider 52.
  • the head 60 attached to the head 60, the suction nozzle 62 that can be attached to the head 60 and can suck the component P so as to be able to move in the Z-axis direction and rotate around the Z-axis, and the component P sucked by the suction nozzle 62
  • Parts camera 58 a nozzle stocker 59 that stocks a plurality of types of suction nozzles that can be mounted on the head 60, a component P attached to the lower side of the X-axis slider 52 and sucked by the suction nozzle 62, the substrate 16, and the like
  • a camera unit 70 for capturing the image.
  • the X-axis slider 52 is attached to a guide rail 55 provided along the X-axis direction on the front surface of the Y-axis slider 54 and is slidable in the X-axis direction while being guided by the guide rail 55.
  • the Y-axis slider 54 is attached to a guide rail 56 provided along the Y-axis direction at the top of the housing 12, and is slidable in the Y-axis direction while being guided by the guide rail 56.
  • the X-axis slider 52 and the Y-axis slider 54 enable the head 60 to move in the XY direction.
  • the parts camera 58 is disposed on the front side of the substrate transfer device 30.
  • the imaging range of the parts camera 58 is above the parts camera 58.
  • the suction nozzle 62 that sucks the component P passes above the part camera 58, the parts camera 58 captures the state of the sucked component P and outputs the image to the control device 90.
  • the control device 90 determines whether or not the component P is normally sucked by comparing the image picked up by the parts camera 58 with an image in a normal sucking state stored in advance.
  • the head 60 includes a plurality of suction nozzles as the suction nozzles 62 as shown in the enlarged portion of FIG.
  • the head 60 includes the suction nozzles 62 a and 62 b as the suction nozzle 62.
  • the plurality of suction nozzles 62 are arranged side by side in a predetermined arrangement direction (Y-axis direction in the present embodiment).
  • the suction nozzle 62a is disposed on the front side of the suction nozzle 62b.
  • the head 60 includes a nozzle holder (not shown) configured as a cylindrical member having an internal passage and holding the suction nozzles 62a and 62b.
  • the suction nozzles 62a and 62b are configured to be attachable to and detachable from the nozzle holder, and can be replaced with ones suitable for the shape and size of the part P to be sucked.
  • the internal passages (not shown) of the suction nozzles 62a and 62b communicate with the internal passage of the nozzle holder, and a pipe (not shown) is connected through the internal passage.
  • the head 60 includes Z-axis motors 66a and 66b and ⁇ -axis motors 68a and 68b.
  • the suction nozzle 62a can be moved in the Z-axis direction by a Z-axis motor 66a, and can be rotated around the Z-axis by a ⁇ -axis motor 68a.
  • the suction nozzle 62b can be moved in the Z-axis direction by the Z-axis motor 66b, and can be rotated around the Z-axis by the ⁇ -axis motor 68b.
  • the camera unit 70 has an upper field of view camera 71 that captures the upper direction, a lower field of view camera 72 that captures the lower direction, and a high image data that captures the lower direction and measures the substrate height of the substrate 16.
  • This is a unit in which the length sensor 73 is built in a substantially rectangular parallelepiped main body 74 (see FIG. 2).
  • the camera unit 70 is supported by a support member 69 attached to the lower side of the X-axis slider 52. When the head 60 is moved by the X-axis slider 52 and the Y-axis slider 54, the camera unit 70 moves in the XY directions. To do.
  • a camera moving unit 76 configured as a slider that is moved in the Y-axis direction by driving of a camera moving motor 75 (see FIG. 2) is attached to the camera unit 70.
  • the camera moving unit 76 is attached to a guide rail (not shown) provided along the Y-axis direction on the left and right side surfaces in the lower opening of the support member 69, and can slide in the Y-axis direction while being guided by the guide rail. It has become.
  • the camera moving unit 76 allows the camera unit 70 to move in the Y-axis direction. Since the camera unit 70 is connected to the head 60 via the support member 69 and the X-axis slider 52, the relative position of the camera unit 70 with respect to the head 60 is changed by the camera moving unit 76.
  • FIG. 3 is a perspective view of the camera unit 70 as viewed from the upper right.
  • FIG. 4 is a perspective view of the camera unit 70 as viewed from the lower right.
  • the upper-view camera 71 is capable of imaging the upper part of the main body 74, and acquires the component image data by capturing the component P sucked by the suction nozzle 62 of the head 60.
  • the upper visual field camera 71 includes an upper incident port 77 that is an opening formed in front of the upper surface of the main body 74, and an upper illumination unit 81 that is disposed so as to surround the upper incident port 77 on the upper surface of the main body 74. It is equipped with.
  • the upper incident port 77 can enter light into the main body 74 from the upper side of the camera unit 70.
  • the upper incident port 77 is closed with a light-transmitting material such as a cover glass.
  • the upper illumination unit 81 emits light upward, and can irradiate light to the lower surface of the component P existing above the upper entrance port 77 when the upper visual field camera 71 captures an image.
  • the upper-field camera 71 includes an optical system 84a, an image sensor 87a, and an image processing unit 88a inside the main body 74.
  • the optical system 84a includes a plurality of mirrors and lenses including a mirror 85a (see FIG. 7 described later) that is disposed below the upper incident port 77 and reflects light from the outside.
  • the image sensor 87a is configured by a CCD, a CMOS, or the like, and generates charges by receiving light through the upper incident port 77 and the optical system 84a, and outputs the generated charges to the image processing unit 88a.
  • the image processing unit 88a generates component image data based on the charge input from the image sensor 87a. As shown in FIG.
  • the upper-field camera 71 is attracted to the suction nozzle 62 when the imaging element 87 a performs imaging in a state where the component P sucked by the suction nozzle 62 a exists directly above the upper incident port 77.
  • the component image data obtained by imaging the region including the component P is acquired.
  • the lower visual field camera 72 can image the lower part of the main body 74, and images the facing region F of the substrate 16 facing the component P sucked by the suction nozzle 62 of the substrate 16.
  • the substrate image data is acquired.
  • the facing region F is shown as being transmitted from the back side of the substrate 16.
  • the lower visual field camera 72 includes a lower incident port 78 that is an opening formed in front of the lower surface of the main body 74, and a lower illumination unit 82 that is disposed so as to surround the lower incident port 78 on the lower surface of the main body 74. It is equipped with.
  • the lower incident port 78 is located directly below the upper incident port 77, and light can enter the main body 74 from the lower side of the camera unit 70.
  • the lower entrance 78 is closed with a light-transmitting material such as a cover glass.
  • the lower illumination unit 82 emits light downward, and can irradiate light to the substrate 16 existing below the lower incident port 78 when imaged by the lower visual field camera 72.
  • the lower field-of-view camera 72 includes an optical system 84b, an image sensor 87b, and an image processing unit 88b inside the main body 74.
  • the optical system 84b includes a plurality of mirrors and lenses including the mirror 85a.
  • the mirror 85a is common to the optical system 84a of the upper-field camera 71.
  • the imaging element 87b is configured by a CCD, a CMOS, or the like, and generates charges by receiving light through the lower incident port 78 and the optical system 84b, and outputs the generated charges to the image processing unit 88b.
  • the image processing unit 88b generates substrate image data based on the charge input from the image sensor 87b. As shown in FIG.
  • the imaging device 87 b performs imaging in a state where the substrate 16 is present directly below the lower incident port 78, so that the lower field-of-view camera 72 is adsorbed by the adsorption nozzle 62 on the surface of the substrate 16. Board image data obtained by imaging the facing area F (area immediately below the part P) facing the part P is acquired.
  • the height sensor 73 is capable of capturing an image below the main body 74, captures the facing area F of the substrate 16, and acquires height-related image data used for detecting the substrate height of the facing area F. .
  • the height sensor 73 includes a lower incident port 78, a spot light source 83 disposed behind the lower incident port 78 on the lower surface of the main body 74, an optical system 84b, an image sensor 87b, an image processing unit 88b, It has.
  • the lower incident port 78, the optical system 84 b, the image sensor 87 b, and the image processing unit 88 b are common to the lower visual field camera 72.
  • the spot light source 83 irradiates the directional spot light in a direction inclined from the lower direction, and can irradiate a part of the facing region F of the substrate 16 existing below the lower incident port 78 with the spot light. It has become.
  • the spot light source 83 emits the spot light in a direction inclined 45 ° forward from the lower direction.
  • the height sensor 73 captures the facing area F in the state where the spot light source 83 irradiates the facing area F of the substrate 16 with the spot light and acquires the height-related image data in the same manner as the lower-field camera 72.
  • the image represented by the height-related image data includes (images), for example, a circular region of the surface of the substrate 16 that is irradiated with the spot light.
  • the control device 90 is configured as a microprocessor centered on a CPU 91, and includes a ROM 92 that stores a processing program, an HDD 93 that stores various data, a RAM 94 that is used as a work area, an external device, and an electrical device. An input / output interface 95 for exchanging signals is provided, and these are connected via a bus 96.
  • the control device 90 includes a substrate transfer device 30, a backup device 40, an X-axis motor 51, a Y-axis motor 53, a parts camera 58, Z-axis motors 66a and 66b, ⁇ -axis motors 68a and 68b, an upper illumination unit 81, and a lower illumination.
  • the management computer 100 is configured as a microprocessor centered on a CPU 101, and includes a ROM 102 for storing processing programs, an HDD 103 for storing various data, a RAM 104 used as a work area, an external device and an electric device. An input / output interface 105 for exchanging signals is provided, and these are connected via a bus 106. Further, the management computer 100 can input signals from an input device 112 typified by a mouse and a keyboard via the input / output interface 105, and is connected to the display 114 so that various images can be output.
  • the HDD 103 of the management computer 100 stores mounting condition information used for mounting in the mounting apparatus 10.
  • the mounting condition information includes information such as the mounting order of the components P, the component type, the component size, and the mounting position on the board 16.
  • the mounting position information is, for example, information representing the XY coordinates of the center of the component P.
  • the CPU 91 of the control device 90 first acquires the mounting condition information from the management computer 100 and stores it in the HDD 93 (step S100). Next, the CPU 91 causes the suction nozzle 62 to suck the component P to be mounted next based on the acquired mounting condition information (step S110). The CPU 91 determines a component P to be mounted next based on information such as the mounting order and component type included in the mounting condition information acquired in step S100. Further, the CPU 91 drives and controls the X-axis motor 51 and the Y-axis motor 53 so as to move the head 60 to the component extraction position of the tape feeder 22 in which the corresponding component is stored.
  • the CPU 91 sets one mounting target component to be mounted next among the components P sucked by the suction nozzle 62 (step S120).
  • the component P sucked by the suction nozzle 62a is first set as a mounting target component, and after mounting the component P, the component P sucked by the suction nozzle 62b is set as a mounting target component. did.
  • the CPU 91 moves the component P set as the mounting target component to the mounting position on the substrate 16 (step S130). The movement of the component P is performed by the CPU 91 moving the head 60 by driving and controlling the X-axis motor 51 and the Y-axis motor 53.
  • the mounting position (XY coordinate) of the component P is acquired by the CPU 91 based on the mounting position information included in the mounting condition information acquired in step S100. Further, the CPU 91 moves the head 60 so that the suction nozzle 62 moves toward the mounting position after passing over the parts camera 58. At this time, the parts camera 58 captures the part P sucked by the suction nozzle 62 and acquires a picked-up image. The CPU 91 determines whether or not the component P is normally sucked by comparing the image picked up by the parts camera 58 with an image in a normal sucking state stored in advance.
  • FIG. 6 is an explanatory diagram illustrating a state in which the camera unit 70 is moved to the imaging position when the component P1 sucked by the suction nozzle 62a is set as a component to be mounted.
  • FIG. 6 shows a state seen from the right side.
  • the upper incident port 77 is located directly below the component P1 (suction nozzle 62a), and the lower incident port 78 is located directly above the facing region F1 of the component P1. That is, the upper incident port 77 and the lower incident port 78 of the camera unit 70 are located between the component P1 and the facing region F1.
  • the CPU 91 moves the camera unit 70 to this imaging position by driving and controlling the camera moving motor 75 to move the camera unit 70 in the Y-axis direction.
  • the CPU 91 controls the upper visual field camera 71 and the lower visual field camera 72 so as to perform imaging at the imaging position moved in step S140, and acquires component image data and board image data (step S150). Specifically, the CPU 91 controls the upper illumination unit 81 to emit light and the image sensor 87a performs imaging, and acquires component image data obtained by imaging from the image processing unit 88a. Similarly, the CPU 91 controls the lower illumination unit 82 to emit light and the image sensor 87b to perform imaging, and obtains substrate image data obtained by imaging from the image processing unit 88b.
  • the imaging range (field of view) of the upper-field camera 71 is an area directly above the upper entrance port 77. As shown in FIG.
  • the part P1 is within this photographing range, and the part image data includes an image of the entire lower surface of the part P1.
  • the imaging range of the lower field-of-view camera 72 is an area directly below the lower incident port 78.
  • the facing area F1 is within this imaging range, and the substrate image data includes an image of the entire facing area F1.
  • the CPU 91 controls the height sensor 73 to perform imaging at the imaging position moved in step S140, and acquires height-related image data (step S160). Specifically, the CPU 91 controls the spot light source 83 to emit light and the image sensor 87b to perform imaging, and obtains height-related image data obtained by imaging from the image processing unit 88b.
  • the height sensor 73 and the lower-field camera 72 have the same lower incident port 78 and optical system 84b, and therefore the shooting range of the height sensor 73 is the same as that of the lower-field camera 72.
  • the spot light source 83 irradiates the spot light toward the facing area F (the facing area F1 in FIG. 6) (see the thick arrow in FIG. 6).
  • the height-related image data includes an image of an area irradiated with spot light.
  • the CPU 91 derives the substrate height of the facing area F based on the acquired height-related image data (step S170).
  • the CPU 91 derives the substrate height of the facing area F based on the position of the spot light in the height related image data.
  • the substrate height is a position in the Z-axis direction (Z coordinate).
  • FIG. 7 is a conceptual diagram showing the relationship between the substrate height in the facing area F and the spot light from the spot light source 83. In FIG. 7, the substrate 16 and the spot light when the substrate height of the counter area F is low are indicated by solid lines, and the substrate 16 and the spot light when the counter height of the counter area F is high are indicated by broken lines.
  • the spot light from the spot light source 83 is inclined from the vertical direction and is applied to the opposing region F, if the substrate height of the opposing region F changes due to, for example, warpage of the substrate 16, The position irradiated with the spot light will change. Therefore, when the substrate height in the facing area F changes, the position of the spot light in the image represented by the height-related image data acquired by the height sensor 73 changes.
  • the CPU 91 performs image processing such as extracting a pixel having the highest brightness on the height-related image data, detects the position of the spot light in the image, and based on the detected position, the counter area F The height of the substrate is derived.
  • the HDD 93 stores a correspondence relationship between the position of the spot light measured in advance by an experiment or the like and the substrate height of the facing area F, and the CPU 91 stores the position of the spot light in the height-related image data acquired this time. Based on this correspondence, the substrate height of the facing region F is derived.
  • FIG. 7 shows a case where the substrate 16 is warped upward and the substrate height of the opposing region F is changed. For example, when the substrate 16 is warped downward or the entire height of the substrate 16 is changed.
  • the substrate height of the facing region F can be derived based on the position of the spot light in the height-related image data.
  • the CPU 91 corrects the positional deviation in the XY direction between the mounting target component and the mounting position on the substrate 16 based on the component image data and the substrate image data acquired in step S150 (step S180).
  • This process is performed as follows, for example. First, the CPU 91 detects the positions of bumps and marks on the lower surface of the component P in the image represented by the component image data, and based on the detected position, the position of the component P in the image (for example, using the center of the image as a reference). The center position of the part P) is derived. Note that it is only necessary to be able to derive the position of the component P in the image.
  • the position of the component P in the image may be derived based on the contour of the component P in the image.
  • the CPU 91 detects the position of the wiring pattern on the board 16 in the image represented by the board image data, and based on the detected position, the mounting position of the component P in the image (for example, the position based on the center of the image) ) Is derived.
  • the positional relationship between the wiring pattern and the mounting position is stored, for example, in the HDD 103 of the management computer 100, and is acquired from the management computer 100 by the CPU 91. It should be noted that the mounting position of the component P in the image can be derived.
  • a mark for specifying the mounting position is attached on the substrate 16, and the CPU 91 determines the component in the image based on the position of the mark in the image.
  • the mounting position of P may be derived.
  • the CPU 91 derives a shift between the parts 60 based on the position of the component P in the image in the component image data and the mounting position of the component P in the image in the board image data, and eliminates the shift. Is moved in the X and Y directions, and the positional deviation in the X and Y directions between the component P and the mounting position on the substrate 16 is corrected.
  • the optical axis incident from the upper incident port 77 and the optical axis incident from the lower incident port 78 are coaxial.
  • the CPU 91 derives a shift (shift amount and shift direction) between the position of the component P in the image of the component image data and the mounting position in the image of the board image data, and moves the head in such a direction that the shift is eliminated. It is possible to correct the positional deviation in the X and Y directions between the position of the component P and the mounting position on the substrate 16 by moving 60.
  • the CPU 91 derives a corrected travel distance that is a travel distance in the Z-axis direction of the suction nozzle 62 when mounting the component to be mounted on the substrate 16 based on the substrate height derived in step S170 (step S170). S190).
  • the suction nozzle 62 is moved in the Z-axis direction (downward) to press the component P against the substrate 16.
  • the initial value of the movement distance in the Z-axis direction at this time is determined in advance according to the appropriate value of the pressing load, the thickness of the board 16 and the component P, and the mounting condition information acquired by the CPU 91 in step S100, for example.
  • the CPU 91 performs correction such as subtracting the value from the initial value if the substrate height is high.
  • the CPU 91 performs such correction and derives a corrected travel distance so that the load when pressing the component P against the board 16 becomes an appropriate value.
  • the CPU 91 moves the camera unit 70 to a standby position that does not interfere with the mounting of the component P by the suction nozzle 62 (step S200).
  • the standby position is, for example, the rearmost position in the range in which the camera unit 70 can move in the Y-axis direction.
  • the CPU 91 may be moved to a position where the camera unit 70 does not exist directly under the suction nozzle 62 that sucks the component to be mounted. For example, when it is the suction nozzle 62a that sucks the component to be mounted, there is no problem even if the camera unit 70 exists just below the suction nozzle 62b.
  • the CPU 91 moves the suction nozzle 62 in the Z-axis direction based on the corrected movement distance derived in step S190, and mounts the mounting target component on the substrate 16 (step S210).
  • the CPU 91 drives and controls the Z-axis motor 66a to lower the suction nozzle 62a and apply a positive pressure to the suction nozzle 62a, thereby causing the component P1. Is mounted on the substrate 16.
  • the CPU 91 determines whether or not there is an unmounted component that has been sucked into the suction nozzle 62 (step S220). When there is an unmounted component that has been picked up, the CPU 91 executes the processing after step S120. For example, if the mounting of the component P1 sucked by the suction nozzle 62a is completed and the component P2 sucked by the suction nozzle 62b is not mounted, the CPU 91 sets the component P2 as a mounting target component in step S120 and sets the component P2 of the component P2.
  • the component P2 is mounted on the substrate 16 after moving to the mounting position and moving to the imaging position of the camera unit 70 and performing imaging and correction by the camera unit 70.
  • FIG 8 is an explanatory diagram illustrating a state in which the camera unit 70 is moved to the imaging position when the component P2 is set as a mounting target component.
  • the upper incident port 77 is positioned directly below the component P2 (suction nozzle 62b), and the lower incident port 78 is positioned directly above the facing region F2 of the component P2. That is, the upper incident port 77 and the lower incident port 78 of the camera unit 70 are located between the component P2 and the facing region F2.
  • step S230 determines whether there is an unmounted component that is not mounted.
  • the CPU 91 executes the processing after step S110. That is, the components P to be mounted next are sucked by the suction nozzle 62, the sucked components P are set as mounting target components one by one, and the components P are mounted on the substrate 16. If there is no unsucked unmounted component in step S230, the CPU 91 ends this routine.
  • the head 60 of the present embodiment corresponds to the mounting head of the present invention
  • the upper visual field camera 71 corresponds to the first imaging unit
  • the lower visual field camera 72 corresponds to the second imaging unit
  • the height sensor 73 is related to the height. It corresponds to an information acquisition unit
  • the camera unit 70 corresponds to an imaging unit
  • the camera movement motor 75 and the camera movement unit 76 correspond to an imaging movement unit.
  • the suction nozzle 62 corresponds to a holding unit
  • the X-axis motor 51, the X-axis slider 52, the Y-axis motor 53, and the Y-axis slider 54 correspond to head moving means
  • the main body 74 corresponds to an imaging main body.
  • the control device 90 corresponds to a first correction unit and a second correction unit.
  • the camera moving motor 75 and the camera moving unit 76 maintain the relative positions of the upper-field camera 71, the lower-field camera 72, and the height sensor 73, and the camera unit 70 having them.
  • Can be moved to an imaging position which is a position between the component P held by the head 60 and the facing region F facing the component P on the surface of the substrate 16.
  • the upper visual field camera 71 images the component P held by the head 60
  • the lower visual field camera 72 images the opposing region F
  • the height sensor 73 is the substrate of the opposing region F.
  • the imaging and height of the component P and the substrate 16 can be performed without interposing the movement of any one or more of the upper-field camera 71, the lower-field camera 72, and the height sensor 73 and the movement of other mechanisms.
  • Related image data can be acquired. Therefore, an increase in time required for the mounting process can be further suppressed.
  • the component P can be mounted on the substrate 16 in consideration of the shift in the XY direction orthogonal to the XY direction. Therefore, components can be mounted with higher accuracy.
  • the head 60 has a plurality of suction nozzles 62 arranged side by side in the Y direction and capable of holding the component P.
  • the camera moving motor 75 and the camera moving unit 76 include an upper field camera 71, a lower field camera 72, and a height sensor.
  • the camera unit 70 can be moved to the respective imaging positions of the plurality of suction nozzles 62 while maintaining the relative position with respect to 73. Therefore, it is easier to simplify the configuration of the mounting apparatus 10 than when a camera unit is provided for each of the plurality of suction nozzles 62.
  • the mounting apparatus 10 further includes an X-axis motor 51, an X-axis slider 52, a Y-axis motor 53, and a Y-axis slider 54 that can move the head 60 and the camera unit 70 while maintaining their relative positions.
  • the moving motor 75 and the camera moving unit 76 change the relative position of the camera unit 70 with respect to the head 60. Therefore, since the camera unit 70 moves with the movement of the head 60, the camera moving motor 75 and the camera moving unit 76 need only change the relative position of the camera unit 70 with respect to the head 60, and the mechanism for moving the camera unit 70. Easy to simplify.
  • the height sensor 73 includes a spot light source 83 that irradiates the surface of the substrate 16 with spot light, an optical system 84b, and an image sensor 87b that receives reflected light of the spot light via the optical system 84b.
  • height-related image data obtained by imaging the surface of the substrate 16 including spot light by the image sensor 87b. Therefore, if the position of the surface of the substrate 16 in the height direction changes, the position of the spot light in the height-related image data also changes. Therefore, based on the position of the spot light in the image data, the facing region F The substrate height can be detected relatively easily.
  • the camera unit 70 has a main body 74 to which an upper-field camera 71, a lower-field camera 72, and a height sensor 73 are fixed.
  • the camera moving motor 75 and the camera moving unit 76 move the main body 74. Let Therefore, it is easier to simplify the configuration of the mechanism for moving the camera unit 70 than when the upper-field camera 71, the lower-field camera 72, and the height sensor 73 are moved separately.
  • the upper-field camera 71 and the lower-field camera 72 share a part of the optical system (mirror 85a), and the lower-field camera 72 and the height sensor 73 have the lower incident port 78 and the optical system.
  • the system 84b, the image sensor 87b, and the image processing unit 88b are common, one or more of these may not be common.
  • the height sensor 73 irradiates spot light and acquires height-related image data including the reflected light.
  • the height sensor 73 acquires information that can derive the substrate height of the facing region F. If it is a thing, the height sensor 73 is not restricted to this.
  • the height sensor 73 may acquire a three-dimensional image of the substrate surface with a plurality of cameras. Further, the height sensor 73 may acquire the amount of change in the focal length of the lens of the optical system, and the CPU 91 may derive the substrate height based on this amount of change. Or the height sensor 73 is good also as what acquires the information which can derive
  • the suction nozzles 62a and 62b are arranged in the Y-axis direction, but may be arranged in the X-axis direction. Further, when there are a plurality of rows of suction nozzles 62, there may be suction nozzles 62 arranged in a direction other than the predetermined arrangement direction. Even in this case, for example, the mounting apparatus 10 may include a mechanism for moving the camera unit 70 in the XY directions with respect to the head 60. Alternatively, the mounting apparatus 10 may include a plurality of camera units corresponding to one or more suction nozzles.
  • the CPU 91 corrects the positional deviation by moving the head 60 in the XY directions in step S180.
  • the substrate 16 may be moved.
  • the CPU 91 may correct the orientation of the component P by rotating the component P by the ⁇ -axis motors 68a and 68b.
  • the CPU 91 corrects the positional deviation in the XY direction between the component P and the mounting position on the board 16 based on the part image data and the board image data in step S180.
  • the positional deviation in the X and Y directions may be corrected in consideration of the substrate height of the facing area F derived in (1).
  • the CPU 91 may correct the positional deviation in the XY directions in consideration of the positional deviation of the component P in the component image data and the positional deviation of the mounting position in the board image data due to the change in the board height.
  • the CPU 91 moves the head 60 to the mounting position in step S130 and then moves the camera unit 70 to the imaging position in step S140. However, these may be performed in parallel. Moreover, although CPU91 shall perform step S160 after step S150, you may perform step S160 previously. Alternatively, the CPU 91 may perform the acquisition of height-related image data in step S160 and the processing in step S180 after correcting the positional deviation between the mounting target component and the mounting position on the board in step S180.
  • the image processing units 88 a and 88 b are built in the camera unit 70, but may be configured differently from the camera unit 70.
  • the electric charge imaged by the image sensor 87b of the height sensor 73 and output to the image processing unit corresponds to image data (height related information) acquired by the height related information acquisition unit of the present invention.
  • the control device 90 may also serve as the image processing unit.
  • the imaging range of the upper-field camera 71 is an area immediately above the upper entrance 77
  • the imaging range of the lower-field camera 72 is an area just below the lower entrance 78, but is not limited thereto.
  • the imaging range of the upper-field camera 71 may be determined in advance so that, for example, various components P that can be attracted by the suction nozzle 62 are within the imaging range.
  • the CPU 91 derives the position of the component P in the image by using a bump, a mark, or the like instead of the contour of the component P, the entire component P may not be within the imaging range.
  • the shooting range of the lower field-of-view camera 72 may be determined in advance so that objects (wiring patterns, marks, etc.) used for deriving the mounting position of the component P in the image are within the shooting range.
  • the mounting apparatus 10 includes one height sensor 73, but may include a plurality of height sensors 73. In this case, even if the plurality of height sensors 73 capture height-related image data at a plurality of locations on the substrate and the CPU 91 measures the inclination of the facing region F of the substrate 16 based on the plurality of height-related image data. Good.
  • the mounting apparatus 10 performs the imaging by the camera unit 70 and the correction based on the imaging in the component mounting process for all the components.
  • the components that need to be mounted with higher accuracy You may only go. Examples of components that need to be mounted with higher accuracy include components that are further stacked on other components already mounted on the substrate 16. Whether the component needs to be mounted with higher accuracy may be determined by the CPU 91 based on the acquired mounting condition information, for example.
  • the suction nozzle 62 of the head 60 sucks the component P.
  • the head 60 may be configured to hook and hold the component P on the grip portion.
  • the mounting inspection apparatus 40 having the function of the present invention has been described.
  • the present invention is not particularly limited to this, and a mounting inspection method or a program form thereof may be used.
  • the present invention can be used in the technical field of mounting components on a board.

Landscapes

  • Engineering & Computer Science (AREA)
  • Operations Research (AREA)
  • Manufacturing & Machinery (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Supply And Installment Of Electrical Components (AREA)

Abstract

 実装装置において、カメラユニット70は、ヘッドの吸着ノズル62に保持された部品P1と基板16の表面のうちその部品P1に対向する対向領域F1との間の位置である撮像位置に移動可能である。そして、この撮像位置に移動した状態において、上視野カメラが部品P1を撮像して部品画像データを取得し、下視野カメラが対向領域F1を撮像して基板画像データを取得し、高さセンサがスポット光源83からのスポット光を対向領域F1に照射して対向領域F1の基板高さに関する高さ関連画像データを取得する。また、ヘッド60は、Y軸方向に並べて配置され部品を保持可能な複数の吸着ノズル62a,62bを有し、カメラユニット70は、上視野カメラと下視野カメラと高さセンサとの相対位置を維持しつつ、吸着ノズル62a,62bの各々の撮像位置に移動可能である。

Description

実装装置
 本発明は、実装装置に関する。
 従来、実装装置としては、基板と部品との位置ずれを補正した上で基板に部品を実装するものが知られている。例えば、特許文献1に記載の実装装置は、部品のアライメントマークと基板のアライメントマークとを2視野カメラで画像認識し、基板を保持するボンディングステージを画像認識に基づきX,Y方向(水平方向)及びθ方向(回転方向)に位置補正した上で、部品を基板に実装する。
 また、実装装置としては、基板上の部品装着位置の高さを検出するものも知られている。例えば、特許文献2に記載の実装装置は、部品を吸着するヘッドと、カメラと、鉛直線に対して傾斜配置された平面鏡を有する2つのアームと、を備えている。この実装装置は、2つのアームをカメラの真下とヘッドの真下とにそれぞれ配置した状態で、ヘッドに吸着された部品をカメラで撮像して部品認識を行う。また、この実装装置は、アームをカメラの真下から側方にずらした状態で、基板の部品装着位置上をカメラで撮像して部品装着位置の高さを検出する。
特開2007-12802号公報 特開平6-244594号公報
 しかしながら、特許文献1に記載の実装装置では、基板表面の高さに関する情報は取得しておらず、基板表面の高さ方向のずれに対する補正は行われていない。そのため、例えば基板が反るなどにより基板表面の高さにずれがある場合に、部品を基板に押圧する際の荷重の過不足が生じるなどにより、実装の精度が高くならない場合があった。また、特許文献2に記載の実装装置では、部品装着位置の高さを検出できるが、部品認識と高さ検出との切り換え時にアームを移動させる必要があるため、実装処理に要する時間が増加してしまう。
 本発明はこのような課題に鑑みなされたものであり、実装処理に要する時間の増加をより抑制しつつ、より精度良く部品を実装することを主目的とする。
 本発明の実装装置は、
 部品を保持し該部品を搬送して基板上に実装する実装ヘッドと、
 前記実装ヘッドに保持された部品を撮像する第1撮像部と、前記基板表面のうち前記保持された部品に対向する対向領域を撮像する第2撮像部と、前記基板の前記対向領域の基板高さに関する高さ関連情報を取得する高さ関連情報取得部と、を有する撮像手段と、
 前記第1撮像部と前記第2撮像部と前記高さ関連情報取得部との相対位置を維持しつつ、前記実装ヘッドに保持された部品と前記対向領域との間の位置であり前記第1撮像部及び前記第2撮像部による撮像と前記高さ関連情報の取得とが可能な撮像位置に前記撮像手段を移動可能な撮像移動手段と、
 を備えたものである。
 この本発明の実装装置は、第1撮像部と第2撮像部と高さ関連情報取得部との相対位置を維持しつつ、これらを有する撮像手段を、前記実装ヘッドに保持された部品と基板表面のうちその部品に対向する対向領域との間の位置である撮像位置に移動可能である。そして、この撮像位置に移動した状態において、第1撮像部が実装ヘッドに保持された部品を撮像し、第2撮像部が対向領域を撮像し、高さ関連情報取得部が対向領域の基板高さに関する高さ関連情報を取得する。こうすることで、第1撮像部,第2撮像部,高さ関連情報取得部のいずれか1以上の移動や、その他の機構の移動を間に挟むことなく、部品及び基板の撮像と高さ関連情報の取得とを行うことができる。そのため、実装処理に要する時間の増加をより抑制することができる。そして、部品及び基板の撮像と高さ関連情報の取得とを行うことで、得られた情報に基づいて例えば部品に対する基板表面の基板高さ方向のずれや基板高さ方向に直交する方向のずれを考慮して、部品を基板上に実装することができる。そのため、より精度良く部品を実装することができる。ここで、「基板表面」は、部品を実装しようとする基板上の面であればよく、例えば実装済みの他の部品の表面も含む。また、「高さ関連情報」は、対向領域の基板高さを導出可能な情報であればよく、対向領域の基板高さを直接的に表す情報としてもよいし、間接的に表す情報としてもよい。対向領域の基板高さを間接的に表す情報としては、例えば、基板表面のうち対向領域の周辺(近傍)の基板高さを表す情報など、対向領域の基板高さとみなせる情報が挙げられる。また、間接的に表す情報としては、例えば、画像データなど、対向領域の基板高さを導出するために用いる情報が挙げられる。
 なお、本発明の実装装置は、前記第1撮像部が撮像して取得した部品画像データと前記第2撮像部が撮像して取得した基板画像データとに基づいて前記実装ヘッドに保持された部品と前記基板上の該部品の装着位置との基板高さ方向に垂直な方向の位置ずれを補正する第1補正手段と、前記高さ関連情報取得部が取得した高さ関連情報に基づいて前記実装ヘッドが前記部品を前記基板上に実装する際の前記部品の前記基板高さ方向の移動距離を補正する第2補正手段と、を備えるものとしてもよい。なお、前記第1補正手段は、実装ヘッドと基板との1以上の位置を変更することで前記補正を行うものとしてもよい。また、前記第1補正手段は、前記高さ関連情報取得部が取得した高さ関連情報に基づく前記対向領域の基板高さも加味して前記補正を行うものとしてもよい。
 本発明の実装装置において、前記実装ヘッドは、所定の並び方向に並べて配置され前記部品を保持可能な保持部を複数有し、前記撮像移動手段は、前記第1撮像部と前記第2撮像部と前記高さ関連情報取得部との相対位置を維持しつつ、前記複数の保持部の各々の前記撮像位置に前記撮像手段を移動可能であるものとしてもよい。こうすれば、複数の保持部の各々についてそれぞれ撮像手段を設ける場合に比べて、実装装置の構成を簡略化しやすい。この場合において、前記保持部は前記部品を吸着して保持する吸着ノズルとしてもよい。
 本発明の実装装置は、前記実装ヘッドと前記撮像手段とを、互いの相対位置を維持しつつ移動可能なヘッド移動手段、を備え、前記撮像移動手段は、前記実装ヘッドに対する前記撮像手段の相対位置を変化させてもよい。こうすれば、実装ヘッドの移動に伴って撮像手段が移動するため、撮像移動手段は実装ヘッドに対する撮像手段の相対位置を変化させるだけでよく、撮像移動手段の構成を簡略化しやすい。この場合において、前記実装ヘッドは、所定の並び方向に並べて配置され前記部品を保持可能な保持部を複数有し、前記撮像移動手段は、前記撮像手段を前記並び方向に移動させることで、前記撮像手段を前記複数の保持部の各々の前記撮像位置や、前記複数の保持部に保持された部品の実装を妨げない位置である待機位置に移動可能としてもよい。こうすれば、撮像移動手段は、並び方向に撮像手段を移動させることができればよいため、撮像移動手段の構成をより簡略化しやすい。
 本発明の実装装置において、前記高さ関連情報取得部は、前記基板表面上にスポット光を照射するスポット光源と、光学系と、該光学系を介して前記スポット光の反射光を受光する撮像素子と、を有し、前記撮像素子により前記スポット光を含む前記基板表面上を撮像した画像データを前記高さ関連情報として取得してもよい。こうすれば、基板表面の高さ方向の位置が変化すれば画像データ中のスポット光の位置も変化することになるため、画像データ中のスポット光の位置に基づいて、対向領域の基板高さを比較的容易に検出することができる。なお、前記スポット光源は、前記対向領域内に前記スポット光を照射してもよい。
 高さ関連情報取得部が基板表面上を撮像する態様の本発明の実装装置において、前記第2撮像部は、前記高さ関連情報取得部と共通の光学系と、前記高さ関連情報取得部と共通の撮像素子と、を有し、前記撮像素子により前記対向領域を撮像し、前記高さ関連情報取得部は、前記撮像素子により前記スポット光を含む前記対向領域を撮像した画像データを前記高さ関連情報として取得してもよい。こうすれば、光学系と撮像素子との共通化により、撮像手段の構成を簡略化できる。なお、前記高さ関連情報取得部の光学系と撮像素子との少なくとも一方が前記第2撮像部と共通であってもよい。
 本発明の実装装置において、前記撮像手段は、前記第1撮像部と前記第2撮像部と前記高さ関連情報取得部とが固定された撮像本体部を有し、前記撮像移動手段は、前記撮像本体部を移動させてもよい。こうすれば、第1撮像部と第2撮像部と高さ関連情報取得部とを別々に移動させる場合に比べて、撮像移動手段の構成を簡略化しやすい。
本発明の一実施形態である実装装置10の構成の概略を示す構成図である。 制御装置90の電気的な接続関係を示すブロック図である。 カメラユニット70を右上からみた斜視図である。 カメラユニット70を右下からみた斜視図である。 部品実装処理ルーチンの一例を示すフローチャートである。 部品P1が実装対象部品に設定されているときの撮像位置にカメラユニット70を移動させた状態を示す説明図である。 対向領域Fの基板高さとスポット光源83からのスポット光との関係を示す概念図である。 部品P2が実装対象部品に設定されているときの撮像位置にカメラユニット70を移動させた状態を示す説明図である。
 次に、本発明の実施の形態を図面を用いて説明する。図1は、本発明の一実施形態である実装装置10の構成の概略を示す構成図であり、図2は制御装置90の電気的な接続関係を示すブロック図である。
 実装装置10は、図1に示すように、電子部品(以下、「部品P」という)を供給する部品供給装置20と、基板16を搬送する基板搬送装置30と、搬送された基板16をバックアップするバックアップ装置40と、部品供給装置20により供給された部品をバックアップ装置40によりバックアップされた基板16に装着する部品装着装置50と、実装装置全体を制御する制御装置90(図2参照)とを備えている(部品Pは、後述する図3参照)。基板搬送装置30とバックアップ装置40と部品装着装置50とは、基台14上に交換可能に載置された筐体12内に収容されている。なお、図1には、1台の部品実装機10のみを図示したが、部品実装ラインにおいては複数台の部品実装機が並設され、各部品実装機の制御装置にはこれらを管理するための管理コンピュータ100(図2参照)が接続されている。本実施形態において、左右方向(X軸)、前後方向(Y軸)及び上下方向(Z軸)は、図1に示した通りとする。また、「実装」とは、部品Pを基板16上に配置、装着、挿入、接合、接着することなどを含む。
 部品供給装置20は、筐体12の前側に着脱可能に取り付けられたテープフィーダ22を備える。テープフィーダ22は、テープが巻回されたリール22aを備えており、テープ表面には部品Pが所定間隔で貼り付けられている。これらの部品Pは、テープの表面を覆うフィルムによって保護されており、リール22aからテープが引き出されると、フィーダ部22bにおいてフィルムが剥がされて露出した状態で供給される。
 基板搬送装置30は、筐体12の下段側でY軸方向に所定間隔隔てて設けられた一対の支持板32a,32bと、支持板32a,32bの互いに対向する面に設けられた一対のコンベアベルト34a,34bとを備える。一対の支持板32a,32bは、長手方向がX軸方向となる長方形状の部材として構成されており、長手方向の両端には駆動輪および従動輪が設けられている。コンベアベルト34a,34bは、支持板32a,32bに設けられた駆動輪および従動輪に架け渡されており、図示しない駆動モータにより駆動輪が駆動されることにより、基板16を図1の左から右へと搬送する。
 バックアップ装置40は、図示しない昇降装置により昇降可能に配設されたバックアッププレート42と、バックアッププレート42の上面に装着されたベースプレート44とを備える。ベースプレート44には、基板16を裏側からバックアップするための複数のバックアップピン46が立設されている。
 部品装着装置50は、X軸モータ51の駆動によりX軸方向に移動されるX軸スライダ52と、Y軸モータ53の駆動によりY軸方向に移動されるY軸スライダ54と、X軸スライダ52に取り付けられたヘッド60と、Z軸方向の移動とZ軸周りの回転とが可能にヘッド60に装着され部品Pを吸着可能な吸着ノズル62と、吸着ノズル62に吸着された部品Pを撮像するためのパーツカメラ58と、ヘッド60に装着可能な複数種類の吸着ノズルをストックするノズルストッカ59と、X軸スライダ52の下側に取り付けられ吸着ノズル62に吸着された部品Pや基板16などを撮像するためのカメラユニット70と、を備える。
 X軸スライダ52は、Y軸スライダ54の前面にX軸方向に沿って設けられたガイドレール55に取り付けられており、ガイドレール55に案内されつつX軸方向にスライド可能となっている。Y軸スライダ54は、筐体12の上部にY軸方向に沿って設けられたガイドレール56に取り付けられており、ガイドレール56に案内されつつY軸方向にスライド可能となっている。このX軸スライダ52とY軸スライダ54とによって、ヘッド60がXY方向に移動可能となっている。
 パーツカメラ58は、基板搬送装置30の前方側に配置されている。このパーツカメラ58の撮像範囲は、パーツカメラ58の上方である。パーツカメラ58は、部品Pを吸着した吸着ノズル62がパーツカメラ58の上方を通過する際、吸着された部品Pの状態を撮像し、その画像を制御装置90へ出力する。制御装置90は、パーツカメラ58によって撮像された画像を予め記憶された正常な吸着状態の画像と比較することにより、部品Pが正常に吸着されているか否かを判定する。
 ヘッド60は、図1の拡大部分に示すように、吸着ノズル62として複数の吸着ノズルを備えている。本実施形態では、ヘッド60は吸着ノズル62として吸着ノズル62a,62bを備えているものとした。この複数の吸着ノズル62(吸着ノズル62a,62b)は、所定の並び方向(本実施形態ではY軸方向)に並べて配置されている。なお、吸着ノズル62aが吸着ノズル62bの前側に配置されている。また、ヘッド60は、内部通路を有する円筒部材として構成され吸着ノズル62a,62bをそれぞれ保持する図示しないノズルホルダを備えている。吸着ノズル62a,62bは、このノズルホルダに対して着脱可能に構成されており、吸着する部品Pの形状や大きさに適したものに交換できるようになっている。吸着ノズル62a,62bの内部通路(図示せず)は、ノズルホルダの内部通路と連通しており、この内部通路を介して図示しない配管が接続されている。吸着ノズル62a,62bの先端に部品Pを吸着する際には配管を介してノズル先端に負圧を供給し、先端に吸着している部品Pを離す際には配管を介してノズル先端に正圧を供給する。
 ヘッド60は、Z軸モータ66a,66bと、θ軸モータ68a,68bと、を備えている。吸着ノズル62aは、Z軸モータ66aによりZ軸方向に移動可能であり、θ軸モータ68aによりZ軸周りに回転可能である。同様に、吸着ノズル62bは、Z軸モータ66bによりZ軸方向に移動可能であり、θ軸モータ68bによりZ軸周りに回転可能である。
 カメラユニット70は、上方向を撮像する上視野カメラ71と、下方向を撮像する下視野カメラ72と、下方向を撮像して基板16の基板高さを測定するための画像データを取得する高さセンサ73とを、略直方体の本体部74に内蔵したユニットである(図2参照)。このカメラユニット70は、X軸スライダ52の下側に取り付けられた支持部材69によって支持されており、X軸スライダ52,Y軸スライダ54によってヘッド60が移動すると、これに伴ってXY方向に移動する。また、カメラユニット70には、カメラ移動モータ75(図2参照)の駆動によりY軸方向に移動されるスライダとして構成されたカメラ移動部76が取り付けられている。カメラ移動部76は、支持部材69の下側の開口内の左右側面にY軸方向に沿って設けられた図示しないガイドレールに取り付けられており、ガイドレールに案内されつつY軸方向にスライド可能となっている。このカメラ移動部76によって、カメラユニット70はY軸方向に移動可能となっている。なお、カメラユニット70は支持部材69及びX軸スライダ52を介してヘッド60と接続されているため、カメラ移動部76によってヘッド60に対するカメラユニット70の相対的な位置が変化することになる。
 カメラユニット70が備える上視野カメラ71,下視野カメラ72,高さセンサ73について詳細に説明する。図3は、カメラユニット70を右上からみた斜視図である。図4は、カメラユニット70を右下からみた斜視図である。
 上視野カメラ71は、図3に示すように、本体部74の上方を撮像可能であり、ヘッド60の吸着ノズル62に吸着された部品Pを撮像して部品画像データを取得するものである。この上視野カメラ71は、本体部74の上面前方に形成された開口である上入射口77と、本体部74の上面で上入射口77の周囲を囲むように配置された上照明部81と、を備えている。上入射口77は、カメラユニット70の上側から本体部74内部に光を入射可能である。上入射口77は、例えばカバーガラスなど透光性の材料で塞がれている。上照明部81は、上方に向けて発光するものであり、上視野カメラ71による撮像時に上入射口77の上方に存在する部品Pの下面に光を照射できるようになっている。
 また、上視野カメラ71は、図2に示すように、光学系84aと、撮像素子87aと、画像処理部88aと、を本体部74の内部に備えている。光学系84aは、上入射口77の下方に配置されて外部からの光を反射するミラー85a(後述する図7参照)を含む複数のミラーやレンズで構成されている。撮像素子87aは、CCDやCMOSなどにより構成されており、上入射口77及び光学系84aを介した受光により電荷を発生させ発生した電荷を画像処理部88aに出力する。画像処理部88aは、撮像素子87aから入力した電荷に基づいて部品画像データを生成する。図3に示すように、上入射口77の真上に吸着ノズル62aに吸着された部品Pが存在する状態で撮像素子87aが撮像を行うことで、上視野カメラ71は、吸着ノズル62に吸着された部品Pを含む領域を撮像した部品画像データを取得する。
 下視野カメラ72は、図4に示すように、本体部74の下方を撮像可能であり、基板16のうち吸着ノズル62に吸着された部品Pに対向する基板16の対向領域Fを撮像して基板画像データを取得するものである。なお、図4では、対向領域Fは基板16の裏側から透過させて示している。この下視野カメラ72は、本体部74の下面前方に形成された開口である下入射口78と、本体部74の下面で下入射口78の周囲を囲むように配置された下照明部82と、を備えている。下入射口78は、上入射口77の真下に位置しており、カメラユニット70の下側から本体部74内部に光を入射可能である。下入射口78は、例えばカバーガラスなど透光性の材料で塞がれている。下照明部82は、下方に向けて発光するものであり、下視野カメラ72による撮像時に下入射口78の下方に存在する基板16に光を照射できるようになっている。
 また、下視野カメラ72は、図2に示すように、光学系84bと、撮像素子87bと、画像処理部88bと、を本体部74の内部に備えている。光学系84bは、ミラー85aを含む複数のミラーやレンズで構成されている。光学系84bは、ミラー85aが上視野カメラ71の光学系84aと共通である。撮像素子87bは、CCDやCMOSなどにより構成されており、下入射口78及び光学系84bを介した受光により電荷を発生させ発生した電荷を画像処理部88bに出力する。画像処理部88bは、撮像素子87bから入力した電荷に基づいて基板画像データを生成する。図4に示すように、下入射口78の真下に基板16が存在する状態で撮像素子87bが撮像を行うことで、下視野カメラ72は、基板16の表面のうち吸着ノズル62に吸着された部品Pに対向する対向領域F(部品Pの真下の領域)を撮像した基板画像データを取得する。
 高さセンサ73は、本体部74の下方を撮像可能であり、基板16の対向領域Fを撮像して、対向領域Fの基板高さの検出に用いる高さ関連画像データを取得するものである。この高さセンサ73は、下入射口78と、本体部74の下面で下入射口78の後方に配置されたスポット光源83と、光学系84bと、撮像素子87bと、画像処理部88bと、を備えている。高さセンサ73は、下入射口78,光学系84b,撮像素子87b,画像処理部88bが、下視野カメラ72と共通である。スポット光源83は、下方向から傾斜した方向に指向性のスポット光を照射するものであり、下入射口78の下方に存在する基板16の対向領域Fの一部にこのスポット光を照射できるようになっている。スポット光源83は、本実施形態では下方向から前方に45°傾斜した方向にスポット光を照射するものとした。この高さセンサ73は、スポット光源83により基板16の対向領域Fにスポット光を照射した状態で、下視野カメラ72と同様に対向領域Fを撮像して、高さ関連画像データを取得する。そのため、高さ関連画像データで表される画像には、基板16表面のうちスポット光が照射された領域が例えば円形の領域として含まれる(撮像される)。
 制御装置90は、図2に示すように、CPU91を中心とするマイクロプロセッサとして構成されており、処理プログラムを記憶するROM92、各種データを記憶するHDD93、作業領域として用いられるRAM94、外部装置と電気信号のやり取りを行うための入出力インタフェース95などを備えており、これらはバス96を介して接続されている。この制御装置90は、基板搬送装置30やバックアップ装置40、X軸モータ51、Y軸モータ53、パーツカメラ58、Z軸モータ66a,66b、θ軸モータ68a,68b、上照明部81,下照明部82,スポット光源83,撮像素子87a,87b、カメラ移動モータ75などへの駆動信号を入出力インタフェース95を介して出力する。また、制御装置90は、パーツカメラ58,画像処理部88a,88bからの画像データなどを入出力インタフェース95を介して入力する。
 管理コンピュータ100は、図2に示すように、CPU101を中心とするマイクロプロセッサとして構成されており、処理プログラムを記憶するROM102、各種データを記憶するHDD103、作業領域として用いられるRAM104、外部装置と電気信号のやり取りを行うための入出力インタフェース105などを備えており、これらはバス106を介して接続されている。また、管理コンピュータ100は、入出力インタフェース105を介して、マウスやキーボードに代表される入力デバイス112から信号を入力可能であり、ディスプレイ114に種々の画像を出力可能なように接続されている。管理コンピュータ100のHDD103には、実装装置10での実装に用いられる実装条件情報などが記憶されている。実装条件情報には、部品Pの実装順序,部品種別,部品サイズ,基板16における実装位置などの情報が含まれている。なお、実装位置の情報は、例えば部品Pの中心のXY座標を表す情報である。
 次に、こうして構成された本実施形態の実装装置10の動作、特に、基板16に対する部品Pの位置ずれを補正しつつ基板16に部品Pを実装する処理について説明する。図5は、制御装置90のCPU91により実行される部品実装処理ルーチンの一例を示すフローチャートである。このルーチンは、実装装置10のHDD93に記憶され、例えば作業者による開始指示を入力したときや、基板16が基板搬送装置30により搬送されてバックアップ装置40にバックアップされたときなどに実行される。
 このルーチンが開始されると、制御装置90のCPU91は、まず、実装条件情報を管理コンピュータ100から取得し、HDD93に記憶する(ステップS100)。次に、CPU91は、取得した実装条件情報に基づいて、次に実装すべき部品Pを吸着ノズル62に吸着させる(ステップS110)。CPU91は、ステップS100で取得した実装条件情報に含まれる実装順序や部品種別などの情報に基づいて、次に実装すべき部品Pを判定する。また、CPU91は、該当する部品が収納されているテープフィーダ22の部品取出位置までヘッド60を移動するようX軸モータ51及びY軸モータ53を駆動制御する。そして、CPU91は、Z軸モータ66aを駆動制御して吸着ノズル62aを下降させると共に吸着ノズル62aに負圧を作用させて、吸着ノズル62aに部品Pを吸着させる。次に実装すべき部品Pが2個以上ある場合は、CPU91は、吸着ノズル62bへの部品Pの吸着も同様に行い、2個の部品Pを吸着ノズル62a,62bにそれぞれ吸着させる。以下、吸着ノズル62aに吸着された部品Pを部品P1と称し、吸着ノズル62abに吸着された部品Pを部品P2と称する。
 次に、CPU91は、吸着ノズル62に吸着した部品Pのうち、次に実装する対象となる実装対象部品を1つ設定する(ステップS120)。本実施形態では、吸着ノズル62aに吸着された部品Pをまず実装対象部品に設定し、その部品Pを実装したあとに、吸着ノズル62bに吸着された部品Pを実装対象部品に設定するものとした。続いて、CPU91は、実装対象部品に設定した部品Pを基板16上の実装位置へ移動する(ステップS130)。部品Pの移動は、CPU91がX軸モータ51及びY軸モータ53を駆動制御してヘッド60を移動させることで行う。なお、部品Pの実装位置(XY座標)は、ステップS100で取得した実装条件情報に含まれる実装位置の情報に基づいてCPU91が取得する。また、CPU91は、吸着ノズル62がパーツカメラ58の上方を通過してから実装位置に向かうようにヘッド60を移動させる。このとき、パーツカメラ58が吸着ノズル62に吸着された部品Pを撮像して撮像画像を取得する。CPU91は、パーツカメラ58によって撮像された画像を予め記憶された正常な吸着状態の画像と比較することにより、部品Pが正常に吸着されているか否かを判定する。
 部品Pを実装位置に移動させると、CPU91は、上視野カメラ71による部品画像の取得と下視野カメラ72による基板画像の取得と高さセンサ73による高さ関連画像データの取得とが可能な撮像位置にカメラユニット70を移動させる(ステップS140)。図6は、吸着ノズル62aに吸着された部品P1が実装対象部品に設定されているときの撮像位置にカメラユニット70を移動させた状態を示す説明図である。なお、図6は右面からみた様子を示している。図示するように、この撮像位置では、部品P1(吸着ノズル62a)の真下に上入射口77が位置し、且つ部品P1の対向領域F1の真上に下入射口78が位置している。すなわち、部品P1と対向領域F1との間に、カメラユニット70の上入射口77及び下入射口78が位置している。CPU91は、カメラ移動モータ75を駆動制御してカメラユニット70をY軸方向に移動させることで、この撮像位置にカメラユニット70を移動させる。
 次に、CPU91は、ステップS140で移動させた撮像位置で撮像を行うよう上視野カメラ71及び下視野カメラ72を制御して、部品画像データ及び基板画像データを取得する(ステップS150)。具体的には、CPU91は、上照明部81が発光し撮像素子87aが撮像を行うよう制御して、撮像により得られた部品画像データを画像処理部88aから取得する。同様に、CPU91は、下照明部82が発光し撮像素子87bが撮像を行うよう制御して、撮像により得られた基板画像データを画像処理部88bから取得する。なお、本実施形態では、上視野カメラ71の撮影範囲(視野)は上入射口77の真上の領域とした。図6に示すように、部品P1はこの撮影範囲内に収まっており、部品画像データには、部品P1の下面全体の画像が含まれる。同様に、本実施形態では、下視野カメラ72の撮影範囲は下入射口78の真下の領域とした。図6に示すように、対向領域F1はこの撮影範囲内に収まっており、基板画像データには、対向領域F1全体の画像が含まれる。
 続いて、CPU91は、ステップS140で移動させた撮像位置で撮像を行うよう高さセンサ73を制御して、高さ関連画像データを取得する(ステップS160)。具体的には、CPU91は、スポット光源83が発光し撮像素子87bが撮像を行うよう制御して、撮像により得られた高さ関連画像データを画像処理部88bから取得する。なお、高さセンサ73と下視野カメラ72とは下入射口78及び光学系84bが共通であるため、高さセンサ73の撮影範囲は下視野カメラ72と同じである。ただし、下視野カメラ72の撮影時とは異なり、スポット光源83が対向領域F(図6の対向領域F1)に向けてスポット光を照射するため(図6の太矢印参照)、上述したように高さ関連画像データにはスポット光が照射された領域の画像が含まれる。
 次に、CPU91は、取得した高さ関連画像データに基づいて、対向領域Fの基板高さを導出する(ステップS170)。CPU91は、高さ関連画像データ中のスポット光の位置に基づいて、対向領域Fの基板高さを導出する。なお、本実施形態では、基板高さは、Z軸方向の位置(Z座標)である。図7は、対向領域Fの基板高さとスポット光源83からのスポット光との関係を示す概念図である。図7では、対向領域Fの基板高さが低いときの基板16及びスポット光を実線で示し、対向領域Fの基板高さが高いときの基板16及びスポット光を破線で示している。図示するように、スポット光源83からのスポット光は上下方向から傾斜して対向領域Fに照射されるため、対向領域Fの基板高さが例えば基板16の反りなどにより変化すると、対向領域Fにおけるスポット光が照射される位置が変化することになる。そのため、対向領域Fの基板高さが変化すると、高さセンサ73が取得する高さ関連画像データで表される画像の中のスポット光の位置が変化する。CPU91は、高さ関連画像データに対して、例えば明度が最も高い画素を抽出するなどの画像処理を行って、画像の中のスポット光の位置を検出し、検出した位置に基づいて対向領域Fの基板高さを導出する。HDD93には、予め実験などにより測定されたスポット光の位置と対向領域Fの基板高さとの対応関係が記憶されており、CPU91は、今回取得した高さ関連画像データ中のスポット光の位置と、この対応関係とに基づいて、対向領域Fの基板高さを導出する。なお、図7では基板16に上向きの反りが生じて対向領域Fの基板高さが変化した場合について示しているが、例えば基板16に下向きの反りが生じた場合や、基板16全体の高さが変化した場合なども、同様に高さ関連画像データ中のスポット光の位置に基づいて、対向領域Fの基板高さを導出することができる。
 続いて、CPU91は、ステップS150で取得した部品画像データと基板画像データとに基づいて、実装対象部品と基板16上の実装位置とのXY方向の位置ずれを補正する(ステップS180)。この処理は、例えば以下のように行う。まず、CPU91は、部品画像データで表される画像における部品Pの下面のバンプやマークなどの位置を検出し、検出した位置に基づいて画像中の部品Pの位置(例えば画像の中心を基準とした部品Pの中心位置)を導出する。なお、画像中の部品Pの位置を導出できればよく、例えば画像における部品Pの輪郭に基づいて画像中の部品Pの位置を導出してもよい。また、CPU91は、基板画像データで表される画像における基板16上の配線パターンの位置を検出し、検出した位置に基づいて画像中の部品Pの実装位置(例えば画像の中心を基準とした位置)を導出する。配線パターンと実装位置との位置関係は、例えば管理コンピュータ100のHDD103に記憶されており、CPU91が管理コンピュータ100から取得する。なお、画像中の部品Pの実装位置を導出できれよく、例えば基板16上に実装位置を特定するためのマークなどを付しておき、CPU91が画像におけるマークの位置に基づいて画像中の部品Pの実装位置を導出してもよい。そして、CPU91は、部品画像データにおける画像中の部品Pの位置と、基板画像データにおける画像中の部品Pの実装位置とに基づいて、両者のずれを導出し、そのずれがなくなるようにヘッド60をXY方向に移動させて、部品Pと基板16上の実装位置とのXY方向の位置ずれを補正する。ここで、本実施形態では、上入射口77から入射する光軸と下入射口78から入射する光軸とが同軸になっているものとした。そのため、ステップS170で移動させた部品PのXY方向の位置と基板16上の部品PのXY方向の実装位置とが一致していれば、部品画像データの画像中の部品Pの位置と基板画像データの画像中の実装位置とが一致することになる。したがって、CPU91は、部品画像データの画像中の部品Pの位置と基板画像データの画像中の実装位置とのずれ(ずれ量及びずれ方向)を導出して、このずれがなくなるような方向にヘッド60を移動させて、部品Pの位置と基板16上の実装位置とのXY方向の位置ずれを補正することができる。なお、上入射口77から入射する光軸と下入射口78から入射する光軸とが同軸になっていなくとも、両光軸のXY方向のずれを予め測定しておけば、CPU91はこれを加味することで同様に位置ずれの補正が可能である。
 次に、CPU91は、ステップS170で導出した基板高さに基づいて、実装対象部品を基板16に実装するときの吸着ノズル62のZ軸方向の移動距離である補正後移動距離を導出する(ステップS190)。部品Pを基板16に実装する際には、吸着ノズル62をZ軸方向(下方向)に移動させて部品Pを基板16に押圧する。このときのZ軸方向の移動距離の初期値は、押圧の荷重の適正値や基板16及び部品Pの厚さなどに応じて予め定められており、例えばステップS100でCPU91が取得した実装条件情報に含まれている。CPU91は、例えばステップS170で導出した対向領域Fの基板高さに基づいて、基板高さが高ければその分だけ初期値から値を減じるなどの補正を行う。CPU91は、こうした補正を行って、部品Pを基板16に押圧する際の荷重が適正値になるような補正後移動距離を導出する。
 次に、CPU91は、吸着ノズル62による部品Pの実装の妨げにならない待機位置にカメラユニット70を移動させる(ステップS200)。待機位置は、例えばカメラユニット70がY軸方向に移動可能な範囲のうち最も後方の位置である。なお、CPU91は、実装対象部品を吸着している吸着ノズル62の真下にカメラユニット70が存在しないような位置に移動させればよい。例えば、実装対象部品を吸着しているのが吸着ノズル62aである場合には、吸着ノズル62bの真下にはカメラユニット70が存在していても問題はない。そして、CPU91は、ステップS190で導出した補正後移動距離に基づいて吸着ノズル62をZ軸方向に移動させて、実装対象部品を基板16に実装する(ステップS210)。例えば吸着ノズル62aに吸着された部品P1が実装対象部品であるときには、CPU91は、Z軸モータ66aを駆動制御して吸着ノズル62aを下降させると共に吸着ノズル62aに正圧を作用させて、部品P1を基板16上に実装する。
 実装対象部品の実装を行うと、CPU91は、吸着ノズル62に吸着済みの未実装部品があるか否かを判定する(ステップS220)。吸着済みの未実装部品があるときには、CPU91は、ステップS120以降の処理を実行する。例えば吸着ノズル62aが吸着した部品P1の実装が完了し、吸着ノズル62bが吸着した部品P2が未実装であれば、CPU91は、ステップS120で部品P2を実装対象部品に設定して、部品P2の実装位置への移動や、カメラユニット70の撮像位置への移動を行い、カメラユニット70による撮像や補正を行った上で、部品P2を基板16に実装する。図8は、部品P2が実装対象部品に設定されているときの撮像位置にカメラユニット70を移動させた状態を示す説明図である。図示するように、この撮像位置では、部品P2(吸着ノズル62b)の真下に上入射口77が位置し、且つ部品P2の対向領域F2の真上に下入射口78が位置している。すなわち、部品P2と対向領域F2との間に、カメラユニット70の上入射口77及び下入射口78が位置している。
 ステップS220で吸着ノズル62に吸着済みの未実装部品がないと判定すると、CPU91は、未吸着の未実装部品があるか否かを判定する(ステップS230)。未吸着の未実装部品があるときには、CPU91は、ステップS110以降の処理を実行する。すなわち、次に実装すべき部品Pを吸着ノズル62に吸着させ、吸着した部品Pを1つずつ実装対象部品に設定して、部品Pを基板16に実装する。ステップS230で未吸着の未実装部品がないときには、CPU91は本ルーチンを終了する。
 ここで、本実施形態の構成要素と本発明の構成要素との対応関係を明らかにする。本実施形態のヘッド60が本発明の実装ヘッドに相当し、上視野カメラ71が第1撮像部に相当し、下視野カメラ72が第2撮像部に相当し、高さセンサ73が高さ関連情報取得部に相当し、カメラユニット70が撮像手段に相当し、カメラ移動モータ75及びカメラ移動部76が撮像移動手段に相当する。また、吸着ノズル62が保持部に相当し、X軸モータ51,X軸スライダ52,Y軸モータ53,及びY軸スライダ54がヘッド移動手段に相当し、本体部74が撮像本体部に相当し、制御装置90が第1補正手段及び第2補正手段に相当する。
 以上説明した実装装置10によれば、カメラ移動モータ75及びカメラ移動部76は、上視野カメラ71と下視野カメラ72と高さセンサ73との相対位置を維持しつつ、これらを有するカメラユニット70を、ヘッド60に保持された部品Pと基板16の表面のうちその部品Pに対向する対向領域Fとの間の位置である撮像位置に移動可能である。そして、この撮像位置に移動した状態において、上視野カメラ71がヘッド60に保持された部品Pを撮像し、下視野カメラ72が対向領域Fを撮像し、高さセンサ73が対向領域Fの基板高さに関する高さ関連画像データを取得する。こうすることで、上視野カメラ71,下視野カメラ72,高さセンサ73のいずれか1以上の移動や、その他の機構の移動を間に挟むことなく、部品P及び基板16の撮像と高さ関連画像データの取得とを行うことができる。そのため、実装処理に要する時間の増加をより抑制することができる。そして、部品P及び基板16の撮像と高さ関連画像データの取得とを行うことで、得られた情報に基づいて例えば部品Pに対する基板16の表面の基板高さ方向のずれや基板高さ方向に直交するXY方向のずれを考慮して、部品Pを基板16上に実装することができる。そのため、より精度良く部品を実装することができる。
 また、ヘッド60は、Y方向に並べて配置され部品Pを保持可能な吸着ノズル62を複数有し、カメラ移動モータ75及びカメラ移動部76は、上視野カメラ71と下視野カメラ72と高さセンサ73との相対位置を維持しつつ、複数の吸着ノズル62の各々の撮像位置にカメラユニット70を移動可能である。そのため、複数の吸着ノズル62の各々についてそれぞれカメラユニットを設ける場合に比べて、実装装置10の構成を簡略化しやすい。
 さらに、実装装置10は、ヘッド60とカメラユニット70とを、互いの相対位置を維持しつつ移動可能なX軸モータ51,X軸スライダ52,Y軸モータ53,Y軸スライダ54を備え、カメラ移動モータ75及びカメラ移動部76は、ヘッド60に対するカメラユニット70の相対位置を変化させる。そのため、ヘッド60の移動に伴ってカメラユニット70が移動するため、カメラ移動モータ75及びカメラ移動部76はヘッド60に対するカメラユニット70の相対位置を変化させるだけでよく、カメラユニット70を移動させる機構を簡略化しやすい。しかも、吸着ノズル62a,62bがY軸方向に並べて配置されているため、ヘッド60に対するカメラユニット70の相対位置をカメラ移動モータ75及びカメラ移動部76によりY軸方向に移動させることができればよく、カメラユニット70を移動させる機構をより簡略化しやすい。
 さらにまた、高さセンサ73は、基板16の表面上にスポット光を照射するスポット光源83と、光学系84bと、光学系84bを介してスポット光の反射光を受光する撮像素子87bと、を有し、撮像素子87bによりスポット光を含む基板16表面上を撮像した高さ関連画像データを取得する。そのため、基板16の表面の高さ方向の位置が変化すれば高さ関連画像データ中のスポット光の位置も変化することになるため、画像データ中のスポット光の位置に基づいて、対向領域Fの基板高さを比較的容易に検出することができる。
 そしてまた、下視野カメラ72は、高さセンサ73と共通の光学系84b及び撮像素子87bを有し、撮像素子87bにより対向領域Fを撮像する。高さセンサ73は、撮像素子87bによりスポット光を含む対向領域Fを撮像した高さ関連画像データを取得する。そのため、光学系84bと撮像素子87bとの共通化により、カメラユニット70の構成を簡略化できる。
 そしてまた、カメラユニット70は、上視野カメラ71と下視野カメラ72と高さセンサ73とが固定された本体部74を有し、カメラ移動モータ75及びカメラ移動部76は、本体部74を移動させる。そのため、上視野カメラ71と下視野カメラ72と高さセンサ73とを別々に移動させる場合に比べて、カメラユニット70を移動させる機構の構成を簡略化しやすい。
 なお、本発明は上述した実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の態様で実施し得ることはいうまでもない。
 例えば、上述した実施形態では、上視野カメラ71と下視野カメラ72とで光学系の一部(ミラー85a)が共通であり、下視野カメラ72と高さセンサ73とで下入射口78,光学系84b,撮像素子87b,画像処理部88bが共通としたが、これらの1以上が共通でなくともよい。
 上述した実施形態では、高さセンサ73は対向領域Fにスポット光を照射して、対向領域Fを含む基板16の表面上を撮像するものとしたが、対向領域F以外にスポット光を照射してその反射光を撮像してもよい。すなわち、下視野カメラ72と高さセンサ73とで撮像領域が異なっていてもよい。この場合、例えば高さセンサ73が撮像した画像データに基づいてCPU91が基板16のうち対向領域F近傍の基板高さを導出して、CPU91がこれを対向領域Fの基板高さとみなしてもよい。
 上述した実施形態では、高さセンサ73はスポット光を照射してその反射光を含む高さ関連画像データを取得するものとしたが、対向領域Fの基板高さを導出可能な情報を取得するものであれば、高さセンサ73はこれに限られない。例えば、高さセンサ73は、複数のカメラにより基板表面の3次元画像を取得するものとしてもよい。また、高さセンサ73は、光学系のレンズの焦点距離の変化量を取得し、CPU91がこの変化量に基づいて基板高さを導出してもよい。あるいは、高さセンサ73は、対向領域Fの基板高さを導出可能な情報を撮像以外の手法で取得するものとしてもよい。
 上述した実施形態では、本体部74に上視野カメラ71と下視野カメラ72と高さセンサ73とが固定され、これらが一体となって移動するものとしたが、これらの1以上を独立して移動可能な移動手段を実装装置10が備えていてもよい。
 上述した実施形態では、X軸スライダ52及び支持部材69を介してヘッド60とカメラユニット70とが接続されていることで、X軸モータ51,X軸スライダ52,Y軸モータ53,Y軸スライダ54がヘッド60とカメラユニット70との相対位置を維持したまま両者を移動可能としたが、これに限られない。例えば、実装装置10は、ヘッド60をXY方向に移動させるスライダ及びモータと、カメラユニット70をXY方向に移動させるスライダ及びモータとを、それぞれ備えていてもよい。
 上述した実施形態では、吸着ノズル62a,62bはY軸方向に並べて配置されている物としたが、X軸方向に並べて配置されていてもよい。また、吸着ノズル62の列が複数ある場合など、所定の並び方向以外に配置された吸着ノズル62が存在してもよい。この場合でも、例えばカメラユニット70をヘッド60に対してXY方向に移動させる機構を実装装置10が備えていればよい。あるいは、実装装置10が1以上の吸着ノズルに対応するカメラユニットを複数備えていてもよい。
 上述した実施形態では、スポット光源83はZ軸方向から傾斜してスポット光を照射するものとしたが、Z軸方向に沿って(真下に)スポット光を照射してもよい。この場合でも、高さセンサ73が、スポット光が照射された領域を含む基板16の表面上の領域を真上からではなくXY方向にずれた位置から撮像すれば、本実施形態と同様に画像中のスポット光の位置に基づいて基板高さを導出することができる。
 上述した実施形態では、CPU91は、ステップS180でヘッド60をXY方向に移動させることで位置ずれを補正するものとしたが、これに加えて又は代えて、基板16を移動させてもよい。また、CPU91は、θ軸モータ68a,68bによる部品Pの回転させて、部品Pの向きも補正するものとしてもよい。
 上述した実施形態では、CPU91は、ステップS180で部品画像データと基板画像データとに基づいて部品Pと基板16上の実装位置とのXY方向の位置ずれを補正するものとしたが、さらにステップS170で導出した対向領域Fの基板高さも加味してXY方向の位置ずれを補正してもよい。例えば、CPU91は、基板高さの変化に伴う部品画像データ中の部品Pの位置ずれや基板画像データ中の実装位置の位置ずれを加味してXY方向の位置ずれを補正してもよい。
 上述した実施形態では、CPU91は、ステップS130でヘッド60を実装位置に移動させた後にステップS140でカメラユニット70を撮像位置に移動させるものとしたが、これらを平行して行ってもよい。また、CPU91は、ステップS150の後にステップS160を行うものとしたが、先にステップS160を行ってもよい。あるいは、CPU91は、ステップS180で実装対象部品と基板上の実装位置との位置ずれを補正した後で、ステップS160の高さ関連画像データの取得及びステップS180の処理を行ってもよい。
 上述した実施形態では、画像処理部88a,88bはカメラユニット70に内蔵されているものとしたが、カメラユニット70とは別の構成としてもよい。この場合、高さセンサ73の撮像素子87bが撮像して画像処理部に出力する電荷が、本発明の高さ関連情報取得部が取得する画像データ(高さ関連情報)に相当する。例えば、制御装置90が画像処理部を兼ねてもよい。
 上述した実施形態では、上視野カメラ71の撮影範囲は上入射口77の真上の領域とし、下視野カメラ72の撮影範囲は下入射口78の真下の領域としたが、これに限られない。上視野カメラ71の撮影範囲は、例えば吸着ノズル62が吸着する可能性のある種々の部品Pが撮影範囲内に収まるように、予め定めておけばよい。なお、CPU91が部品Pの輪郭ではなくバンプやマーク等で画像中の部品Pの位置を導出する場合は、部品P全体が撮影範囲に収まらなくともよい。同様に、下視野カメラ72の撮影範囲は、画像中の部品Pの実装位置の導出に用いる対象物(配線パターンやマークなど)が撮影範囲内に収まるように、予め定めておけばよい。
 上述した実施形態では、実装装置10は高さセンサ73を1つ備えるものとしたが、高さセンサ73を複数備えるものとしてもよい。この場合、複数の高さセンサ73が基板上の複数箇所の高さ関連画像データを撮像し、CPU91が複数の高さ関連画像データに基づいて基板16の対向領域Fの傾きを測定してもよい。
 上述した実施形態では、実装装置10は、部品実装処理において、カメラユニット70による撮像とそれに基づく補正とを全ての部品に対してを行うものとしたが、より精度良く実装する必要のある部品についてのみ行ってもよい。より精度良く実装する必要のある部品としては、例えば、基板16上に実装済みの他の部品の上にさらに重ねて実装する部品が挙げられる。より精度良く実装する必要のある部品か否かは、例えば取得した実装条件情報に基づいてCPU91が判定してもよい。
 上述した実施形態では、ヘッド60の吸着ノズル62が部品Pを吸着するものとしたが、ヘッド60が部品Pを保持するものとすれば、吸着するものに限定されない。例えば、ヘッド60は、把持部に部品Pを引っかけて保持するものとしてもよい。
 上述した実施形態では、本発明の機能を備えた実装検査装置40として説明したが、特にこれに限定されず、実装検査方法やそのプログラムの形態としてもよい。
 本発明は、基板に部品を実装する技術分野に利用可能である。
 10 実装装置、12 筐体、14 基台、16 基板、20 部品供給装置、22 テープフィーダ、22a リール、22b フィーダ部、30 基板搬送装置、32a,32b 支持板、34a,34b コンベアベルト、40 バックアップ装置、42 バックアッププレート、44 ベースプレート、46 バックアップピン、50 部品装着装置、51 X軸モータ、52 X軸スライダ、53 Y軸モータ、54 Y軸スライダ、55,56 ガイドレール、58 パーツカメラ、59 ノズルストッカ、60 ヘッド、62,62a,62b 吸着ノズル、66a,66b Z軸モータ、68a,68b θ軸モータ、69 支持部材、70 カメラユニット、71 上視野カメラ、72 下視野カメラ、73 高さセンサ、74 本体部、75 カメラ移動モータ、76 カメラ移動部、77 上入射口、78 下入射口、81 上照明部、82 下照明部、83 スポット光源、84a,84b 光学系、87a,87b 撮像素子、88a,88b 画像処理部、90 制御装置、91 CPU、92 ROM、93 HDD、94 RAM、95 入出力インタフェース、96 バス、100 管理コンピュータ、101 CPU、102 ROM、103 HDD、104 RAM、105 入出力インタフェース、106 バス、112 入力デバイス、114 ディスプレイ、F 対向領域、P 部品。

Claims (6)

  1.  部品を保持し該部品を搬送して基板上に実装する実装ヘッドと、
     前記実装ヘッドに保持された部品を撮像する第1撮像部と、前記基板表面のうち前記保持された部品に対向する対向領域を撮像する第2撮像部と、前記基板の前記対向領域の基板高さに関する高さ関連情報を取得する高さ関連情報取得部と、を有する撮像手段と、
     前記第1撮像部と前記第2撮像部と前記高さ関連情報取得部との相対位置を維持しつつ、前記実装ヘッドに保持された部品と前記対向領域との間の位置であり前記第1撮像部及び前記第2撮像部による撮像と前記高さ関連情報の取得とが可能な撮像位置に前記撮像手段を移動可能な撮像移動手段と、
     を備えた実装装置。
  2.  前記実装ヘッドは、所定の並び方向に並べて配置され前記部品を保持可能な保持部を複数有し、
     前記撮像移動手段は、前記第1撮像部と前記第2撮像部と前記高さ関連情報取得部との相対位置を維持しつつ、前記複数の保持部の各々の前記撮像位置に前記撮像手段を移動可能である、
     請求項1に記載の実装装置。
  3.  請求項1又は2に記載の実装装置であって、
     前記実装ヘッドと前記撮像手段とを、互いの相対位置を維持しつつ移動可能なヘッド移動手段、
     を備え、
     前記撮像移動手段は、前記実装ヘッドに対する前記撮像手段の相対位置を変化させる、
     実装装置。
  4.  前記高さ関連情報取得部は、前記基板表面上にスポット光を照射するスポット光源と、光学系と、該光学系を介して前記スポット光の反射光を受光する撮像素子と、を有し、前記撮像素子により前記スポット光を含む前記基板表面上を撮像した画像データを前記高さ関連情報として取得する、
     請求項1~3のいずれか1項に記載の実装装置。
  5.  前記第2撮像部は、前記高さ関連情報取得部と共通の光学系と、前記高さ関連情報取得部と共通の撮像素子と、を有し、前記撮像素子により前記対向領域を撮像し、
     前記高さ関連情報取得部は、前記撮像素子により前記スポット光を含む前記対向領域を撮像した画像データを前記高さ関連情報として取得する、
     請求項4に記載の実装装置。
  6.  前記撮像手段は、前記第1撮像部と前記第2撮像部と前記高さ関連情報取得部とが固定された撮像本体部を有し、
     前記撮像移動手段は、前記撮像本体部を移動させる、
     請求項1~5のいずれか1項に記載の実装装置。
PCT/JP2013/077254 2013-10-07 2013-10-07 実装装置 WO2015052755A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015541318A JP6475165B2 (ja) 2013-10-07 2013-10-07 実装装置
PCT/JP2013/077254 WO2015052755A1 (ja) 2013-10-07 2013-10-07 実装装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/077254 WO2015052755A1 (ja) 2013-10-07 2013-10-07 実装装置

Publications (1)

Publication Number Publication Date
WO2015052755A1 true WO2015052755A1 (ja) 2015-04-16

Family

ID=52812606

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/077254 WO2015052755A1 (ja) 2013-10-07 2013-10-07 実装装置

Country Status (2)

Country Link
JP (1) JP6475165B2 (ja)
WO (1) WO2015052755A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017044472A (ja) * 2015-08-24 2017-03-02 富士機械製造株式会社 カメラ用の測定装置および測定方法
JP2018190958A (ja) * 2017-04-28 2018-11-29 ベシ スウィッツァーランド エージーBesi Switzerland AG 部品を基板上に搭載する装置及び方法
CN110431932A (zh) * 2017-03-22 2019-11-08 雅马哈发动机株式会社 元件安装机和吸嘴高度控制方法
CN114731780A (zh) * 2019-12-20 2022-07-08 松下知识产权经营株式会社 安装系统以及安装方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09307297A (ja) * 1996-05-14 1997-11-28 Tenryu Technic:Kk 電子部品装着機用補正装置およびその方法
JP2009140945A (ja) * 2007-12-03 2009-06-25 Yamaha Motor Co Ltd 部品吸着装置、その吸着位置補正方法および実装機
JP2010034585A (ja) * 2009-11-06 2010-02-12 Toray Eng Co Ltd チップ実装装置における平行度調整方法
JP2011165865A (ja) * 2010-02-09 2011-08-25 Yamaha Motor Co Ltd 部品実装装置および部品実装方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011066041A (ja) * 2009-09-15 2011-03-31 Juki Corp 電子部品実装装置
JP5387540B2 (ja) * 2010-10-27 2014-01-15 パナソニック株式会社 電子部品実装用装置および電子部品実装用の作業実行方法
JP2012114239A (ja) * 2010-11-25 2012-06-14 Panasonic Corp 部品実装装置及び部品実装方法
JP6144473B2 (ja) * 2012-10-09 2017-06-07 ヤマハ発動機株式会社 基板作業装置、基板作業方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09307297A (ja) * 1996-05-14 1997-11-28 Tenryu Technic:Kk 電子部品装着機用補正装置およびその方法
JP2009140945A (ja) * 2007-12-03 2009-06-25 Yamaha Motor Co Ltd 部品吸着装置、その吸着位置補正方法および実装機
JP2010034585A (ja) * 2009-11-06 2010-02-12 Toray Eng Co Ltd チップ実装装置における平行度調整方法
JP2011165865A (ja) * 2010-02-09 2011-08-25 Yamaha Motor Co Ltd 部品実装装置および部品実装方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017044472A (ja) * 2015-08-24 2017-03-02 富士機械製造株式会社 カメラ用の測定装置および測定方法
CN110431932A (zh) * 2017-03-22 2019-11-08 雅马哈发动机株式会社 元件安装机和吸嘴高度控制方法
CN110431932B (zh) * 2017-03-22 2020-12-25 雅马哈发动机株式会社 元件安装机和吸嘴高度控制方法
JP2018190958A (ja) * 2017-04-28 2018-11-29 ベシ スウィッツァーランド エージーBesi Switzerland AG 部品を基板上に搭載する装置及び方法
JP7164314B2 (ja) 2017-04-28 2022-11-01 ベシ スウィッツァーランド エージー 部品を基板上に搭載する装置及び方法
US11696429B2 (en) 2017-04-28 2023-07-04 Besi Switzerland Ag Apparatus and method for mounting components on a substrate
US11924974B2 (en) 2017-04-28 2024-03-05 Besi Switzerland Ag Apparatus for mounting components on a substrate
CN114731780A (zh) * 2019-12-20 2022-07-08 松下知识产权经营株式会社 安装系统以及安装方法

Also Published As

Publication number Publication date
JP6475165B2 (ja) 2019-02-27
JPWO2015052755A1 (ja) 2017-03-09

Similar Documents

Publication Publication Date Title
US20170151673A1 (en) Manipulator system, and image capturing system
JP6462000B2 (ja) 部品実装機
JP7002831B2 (ja) 部品実装機
JP6293899B2 (ja) 実装装置
JP6279581B2 (ja) 実装装置及び部品検出方法
JP6231791B2 (ja) 実装装置
CN108029243B (zh) 安装装置、拍摄处理方法及拍摄单元
JP6828223B2 (ja) 実装装置
JP6475165B2 (ja) 実装装置
JP2011066041A (ja) 電子部品実装装置
JP4999502B2 (ja) 部品移載装置及び表面実装機
JP4607679B2 (ja) 電子部品実装装置における吸着ノズルの部品吸着位置確認方法および電子部品実装装置
US10869421B2 (en) Mounting device and imaging processing method
WO2019111331A1 (ja) 撮像ユニット及び部品実装機
JP2012248717A (ja) 位置認識用カメラ及び位置認識装置
JP6442063B2 (ja) 部品実装機、ノズル撮像方法
CN110431934B (zh) 元件安装机
JP2009212373A (ja) 部品装着装置
JP6997069B2 (ja) 部品実装機
JP5977579B2 (ja) 基板作業装置
KR101332005B1 (ko) 부품 실장장치 및 실장방법
WO2024189683A1 (ja) 実装装置、画像処理装置および画像処理方法
WO2021002005A1 (ja) 部品実装機
JP6789603B2 (ja) 実装装置
JP2015153861A (ja) 部品認識装置、部品移載装置および部品実装装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13895340

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015541318

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13895340

Country of ref document: EP

Kind code of ref document: A1