WO2023089657A1 - 実装装置、実装方法および実装制御プログラム - Google Patents

実装装置、実装方法および実装制御プログラム Download PDF

Info

Publication number
WO2023089657A1
WO2023089657A1 PCT/JP2021/042050 JP2021042050W WO2023089657A1 WO 2023089657 A1 WO2023089657 A1 WO 2023089657A1 JP 2021042050 W JP2021042050 W JP 2021042050W WO 2023089657 A1 WO2023089657 A1 WO 2023089657A1
Authority
WO
WIPO (PCT)
Prior art keywords
mounting
imaging unit
bird
calibration
eye
Prior art date
Application number
PCT/JP2021/042050
Other languages
English (en)
French (fr)
Inventor
耕平 瀬山
Original Assignee
株式会社新川
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社新川 filed Critical 株式会社新川
Priority to JP2022569446A priority Critical patent/JP7396741B2/ja
Priority to KR1020237017608A priority patent/KR20230096038A/ko
Priority to PCT/JP2021/042050 priority patent/WO2023089657A1/ja
Priority to CN202180061260.8A priority patent/CN116457923A/zh
Priority to TW111141356A priority patent/TWI836687B/zh
Publication of WO2023089657A1 publication Critical patent/WO2023089657A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/67005Apparatus not specifically provided for elsewhere
    • H01L21/67011Apparatus for manufacture or treatment
    • H01L21/67144Apparatus for mounting on conductive members, e.g. leadframes or conductors on insulating substrates
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/02Manufacture or treatment of semiconductor devices or of parts thereof
    • H01L21/04Manufacture or treatment of semiconductor devices or of parts thereof the devices having potential barriers, e.g. a PN junction, depletion layer or carrier concentration layer
    • H01L21/50Assembly of semiconductor devices using processes or apparatus not provided for in a single one of the subgroups H01L21/06 - H01L21/326, e.g. sealing of a cap to a base of a container
    • H01L21/60Attaching or detaching leads or other conductive members, to be used for carrying current to or from the device in operation
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/67005Apparatus not specifically provided for elsewhere
    • H01L21/67242Apparatus for monitoring, sorting or marking
    • H01L21/67259Position monitoring, e.g. misposition detection or presence detection
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/68Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for positioning, orientation or alignment
    • H01L21/681Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for positioning, orientation or alignment using optical controlling means

Definitions

  • the present invention relates to a mounting device, a mounting method, and a mounting control program.
  • a bonding device which is an example of a conventional mounting device, first uses a camera to photograph a work target such as a die pad from directly above and confirm its position. Then, after retracting the camera, the head portion supporting the bonding tool is moved directly above the work target, and the bonding work is performed.
  • a bonding apparatus adopting such a configuration not only takes a long time to work, but also causes a problem of accumulation of movement errors with respect to the work target position. Therefore, it has been considered to use an imaging unit that adopts a Scheimpflug optical system capable of imaging a work object from an oblique direction (see, for example, Patent Document 1).
  • a mounting apparatus or the like capable of accurately determining a target position to be mounted and mounting the mounting body on the target position on a substrate.
  • a mounting apparatus comprises a mounting tool that picks up and holds a mounting body, places it on a substrate placed on a stage, and mounts it, and a plane parallel to the stage surface of the stage as a focal plane.
  • a bird's-eye view imaging unit for capturing a bird's-eye view of the board from the same side as the mounting tool with respect to the stage surface, and the mounting tool.
  • a calibration control unit that performs calculations based on the upward-viewing image obtained by causing the upward-viewing imaging unit to capture and output the bird's-eye view image and the calibration index, and the mounting object held by the mounting tool is imaged by the upward-viewing imaging unit and output.
  • the reference position of the mounting body is recognized based on the overhead image, and the mounting is performed so that the reference position coincides with the target position determined based on the calibration value and the overhead image captured by the overhead image pickup unit and output. and a mounting control unit that causes the tool to mount the mounted body on the substrate.
  • a mounting method comprises: a mounting tool for picking up and holding a mounting body, placing it on a substrate placed on a stage for mounting; a bird's-eye view imaging unit for capturing a bird's-eye view of the board from the same side as the mounting tool with respect to the stage surface, in which the respective optical systems and image sensors are arranged so as to form a focal plane so as to satisfy the Scheimpflug condition; Mounting of a mounting body using a mounting apparatus provided with an upward imaging unit for imaging the mounting body held by the mounting tool from the side opposite to the overhead imaging unit with respect to the stage surface A calibration value for calibrating a difference between a coordinate value calculated based on a bird's-eye image output by a bird's-eye imaging unit and a coordinate value calculated based on a bird's-eye image output by the bird's-eye imaging unit, A calibration control step for calculating based on a bird's-eye image obtained by causing a bird's-eye imaging unit to image and
  • the reference position of the mounted body is recognized based on the upward-viewing image obtained by imaging the mounted body held by the upward-viewing imaging unit and outputting it, and the reference position is the overhead-view image obtained by imaging the substrate by the overhead-viewing imaging unit and outputting it. and a mounting control step of causing the mounting tool to mount the mounted body on the board so as to match the target position determined based on the calibrated value.
  • a mounting control program includes a mounting tool for picking up and holding a mounting body, placing the mounting body on a substrate placed on a stage for mounting, and a plane parallel to the stage surface of the stage.
  • a bird's-eye view imaging unit for capturing a bird's-eye view of the board from the same side as the mounting tool with respect to the stage surface, in which each optical system and image sensor are arranged to satisfy the Scheimpflug condition so that is the focal plane
  • a mounting control program for controlling a mounting apparatus having an upward-viewing imaging unit for capturing an image of a mounting body held by a mounting tool from a side opposite to the overhead-viewing imaging unit with respect to the stage surface.
  • a calibration value for calibrating the difference between the coordinate values calculated based on the bird's-eye image output by the bird's-eye imaging unit and the coordinate values calculated based on the overhead-view image output by the bird's-eye imaging unit is set in advance.
  • the reference position of the mounted body is recognized based on the upward view image obtained by imaging the held mounted body by the upward view imaging unit and outputted, and the reference position is the bird's eye view image obtained by causing the bird's eye imaging unit to image and output the board.
  • the imaging unit employing the Scheimpflug optical system can be used to accurately determine the target position for mounting a mounted body such as a semiconductor chip, and the mounted body can be placed on the substrate. It is possible to provide a mounting apparatus or the like that can be mounted at the target position of the target.
  • FIG. 1 is an overall configuration diagram of a flip chip bonder including a bonding apparatus according to this embodiment;
  • FIG. 1 is a system configuration diagram of a bonding apparatus;
  • FIG. It is an explanatory view for explaining a Scheimpflug optical system.
  • FIG. 13 illustrates how three imaging units image a calibration index;
  • FIG. 4 is a diagram showing how a bonding tool picks up a semiconductor chip; It is a figure which shows a mode that a 3rd imaging unit images a semiconductor chip.
  • FIG. 11 is a diagram schematically showing an upward-viewing image output by a third imaging unit; It is a figure which shows a mode that a 1st imaging unit and a 2nd imaging unit image a lead frame.
  • FIG. 9 is a partial perspective view of FIG. 8;
  • FIG. 9 is a partial perspective view of FIG. 8;
  • FIG. 9 is a partial perspective view of FIG. 8;
  • FIG. 9 is a partial perspective view of FIG. 8;
  • FIG. 4 is a diagram showing a procedure for calculating target coordinates for placing a semiconductor chip from a first bird's-eye view image and a second bird's-eye view image;
  • FIG. 4 is a diagram showing how a bonding tool places a semiconductor chip on a target position and performs bonding;
  • FIG. 10 is a diagram showing how the bonding tool is retracted;
  • FIG. 10 is a flow diagram for explaining a procedure for bonding a semiconductor chip;
  • FIG. 10 is a sub-flow diagram for explaining the procedure of a calibration control step;
  • FIG. 11 is a sub-flow diagram for explaining the procedure of a bonding control step;
  • FIG. 10 is a diagram showing how three imaging units image a calibration index in another embodiment;
  • FIG. 10 is a flow diagram illustrating a procedure for bonding semiconductor chips in another embodiment;
  • FIG. 1 is an overall configuration diagram of a flip chip bonder including a bonding device 100 as a mounting device according to this embodiment.
  • a flip chip bonder is mainly composed of a bonding device 100 and a chip supply device 500 .
  • the chip supply device 500 is a device that places a diced semiconductor chip 310 as a package on its upper surface and supplies it to the bonding device 100 .
  • chip feeder 500 includes pickup mechanism 510 and reversing mechanism 520 .
  • the pickup mechanism 510 is a device that pushes up any placed semiconductor chip 310 toward the reversing mechanism 520 .
  • the reversing mechanism 520 is a device that reverses the vertical direction of the semiconductor chip 310 pushed up by the pickup mechanism 510 by sucking and reversing it.
  • the bonding apparatus 100 is a device that picks up the semiconductor chip 310, which is reversed by the reversing mechanism 520, by the bonding tool 120, which will be described later, and places it on a target position of the lead frame 330 for bonding.
  • the lead frame 330 is an example of a substrate placed on the stage 190 .
  • the bonding apparatus 100 mainly includes a head section 110, a bonding tool 120, a first imaging unit 130, a second imaging unit 140, a third imaging unit 150, a calibration unit 170, and a stage 190.
  • the head section 110 supports the bonding tool 120 , the first imaging unit 130 and the second imaging unit 140 , and is movable in the planar direction and the vertical direction by the head drive motor 111 .
  • the plane direction is the horizontal direction defined by the X-axis direction and the Y-axis direction
  • the vertical direction (height direction) is the Z-axis direction orthogonal to the X-axis direction and the Y-axis direction. is.
  • the bonding tool 120 can be moved in the height direction with respect to the head section 110 by a tool drive motor 121 .
  • the bonding tool 120 is an example of a mounting tool, and has a collet 122 that attracts a semiconductor chip 310 at its tip, and a heater 124 that heats the semiconductor chip 310 that the collet 122 attracts.
  • the bonding tool 120 mounts the semiconductor chip 310 sucked by the collet 122 at a predetermined position set on the mounting surface 330a of the lead frame 330 mounted on the stage 190, and pressurizes it with the tip of the collet 122.
  • the heater 124 heats and adheres.
  • the first imaging unit 130 and the second imaging unit 140 are bird's-eye imaging units that capture an overhead view of the lead frame 330 .
  • the first image pickup unit 130 includes a first optical system 131 and a first image pickup element 132 , and is obliquely provided on the head section 110 with its optical axis facing downward from the bonding tool 120 .
  • the first optical system 131 and the first imaging device 132 are arranged to satisfy the Scheimpflug condition such that a plane parallel to the stage surface of the stage 190 is the focal plane 110a.
  • the second imaging unit 140 includes a second optical system 141 and a second imaging device 142, and is arranged on the opposite side of the bonding tool 120 from the first imaging unit 130, with its optical axis directed downwardly of the bonding tool 120. It is obliquely provided on the head portion 110 .
  • the second optical system 141 and the second imaging device 142 are arranged to satisfy the Scheimpflug condition such that a plane parallel to the stage surface of the stage 190 is the focal plane 110a.
  • the first imaging unit 130 and the second imaging unit 140 may be collectively referred to as a "bird's-eye imaging unit".
  • the third imaging unit 150 is a viewing imaging unit for viewing and imaging the semiconductor chip held by the collet 122 of the bonding tool 120 . As illustrated, the third imaging unit 150 is arranged in a space on the side opposite to the space in which the bird's-eye imaging unit is arranged when the stage surface of the stage 190 is taken as a dividing surface.
  • the third imaging unit 150 includes a third optical system 151 and a third imaging element 152, and is installed with its optical axis facing upward.
  • the third imaging unit 150 is a general imaging unit in which the third optical system 151 and the third imaging element 152 are arranged so as to be orthogonal to the optical axis. is parallel to
  • the focal plane 150a is set so as to coincide with the planned mounting surface 330a of the lead frame 330.
  • the third imaging unit 150 is arranged at a predetermined position of the bonding apparatus 100 so that its focal plane 150a coincides with the planned mounting plane 330a.
  • the depth of field of the third optical system 151 is a certain depth range sandwiching the focal plane 150a. Therefore, in the installation adjustment for matching the focal plane 150a with the intended placement plane 330a, deviation is allowed within the range of the depth of field DP .
  • the third imaging unit 150 may be referred to as an "upward imaging unit".
  • the calibration unit 170 mainly comprises an index drive motor 171 , an index plate 172 and a calibration index 173 .
  • the calibration index 173 is a reference mark with a defined reference position, for example the intersection of cross marks.
  • the index plate 172 is, for example, a thin plate made of glass or transparent resin, and has a calibration index 173 printed on one surface thereof. That is, calibration index 173 can be viewed from either side of index plate 172 . Note that the index plate 172 does not have to be transparent as long as the two calibration indices 173 are printed on both sides of the index plate 172 without any deviation in the XY directions from each other.
  • the thickness of the index plate 172 is set so that the calibration index 173 facing the third imaging unit 150 falls within the depth of field DP of the third imaging unit 150 .
  • the calibration index 173 may be provided not only by printing but also by attaching a sticker, marking the surface of the index plate 172, or the like.
  • the index drive motor 171 rotates the index plate 172 around the Z-axis to move the calibration index 173 to the vicinity of the center of the field of view of the third imaging unit 150 or to retreat from the field of view.
  • the calibration index 173 is printed on the surface of the index plate 172 opposite to the surface facing the third imaging unit 150 .
  • the printed surface becomes flush with the planned mounting surface 330a of the lead frame 330 and the focal plane 150a of the third imaging unit 150. is adjusted to
  • FIG. 2 is a system configuration diagram of the bonding apparatus 100.
  • the control system of the bonding apparatus 100 mainly includes an arithmetic processing unit 210, a storage unit 220, an input/output device 230, a first imaging unit 130, a second imaging unit 140, a third imaging unit 150, a head driving motor 111, a tool driving It is composed of the motor 121 and the index driving motor 171 .
  • the arithmetic processing unit 210 is a processor (CPU: Central Processing Unit) that controls the bonding apparatus 100 and executes programs.
  • the processor may be configured to cooperate with an arithmetic processing chip such as an ASIC (Application Specific Integrated Circuit) or a GPU (Graphics Processing Unit).
  • the arithmetic processing unit 210 reads out the bonding control program stored in the storage unit 220 and executes various processes related to bonding control.
  • the storage unit 220 is a non-volatile storage medium, and is configured by, for example, an HDD (Hard Disk Drive). In addition to the bonding control program, the storage unit 220 can store various parameter values, functions, lookup tables, etc. used for control and calculation.
  • the storage unit 220 particularly stores calibration data 221 .
  • the calibration data 221, which will be specifically described later, is data relating to calibration values for calibrating the difference between the coordinate values calculated based on the bird's-eye view image and the coordinate values calculated based on the upward-view image for the same observation object. is.
  • the input/output device 230 includes, for example, a keyboard, mouse, and display monitor, and is a device that receives menu operations by the user and presents information to the user.
  • the arithmetic processing unit 210 may display the acquired bird's-eye view image or overhead view image on a display monitor, which is one of the input/output devices 230 .
  • the first imaging unit 130 receives an imaging request signal from the arithmetic processing unit 210, executes imaging, and transmits the first bird's-eye view image output by the first imaging element 132 to the arithmetic processing unit 210 as an image signal.
  • the second imaging unit 140 receives an imaging request signal from the arithmetic processing unit 210, performs imaging, and transmits the second bird's-eye view image output by the second imaging element 142 to the arithmetic processing unit 210 as an image signal.
  • the third imaging unit 150 receives an imaging request signal from the arithmetic processing unit 210, performs imaging, and transmits the upward view image output by the third imaging element 152 to the arithmetic processing unit 210 as an image signal.
  • the head drive motor 111 receives a drive signal from the arithmetic processing unit 210 and moves the head unit 110 in the horizontal direction and the height direction.
  • the tool drive motor 121 receives a drive signal from the arithmetic processing unit 210 to move the bonding tool 120 in the height direction and rotate it around the Z axis.
  • the index drive motor 171 receives a drive signal from the arithmetic processing unit 210 and rotates the index plate 172 .
  • the computation processing unit 210 also serves as a functional computation unit that executes various computations according to the processing instructed by the bonding control program.
  • the arithmetic processing unit 210 can function as an image acquisition unit 211 , a drive control unit 212 , a calibration control unit 213 and a bonding control unit 214 .
  • the image acquisition unit 211 transmits an imaging request signal to the first imaging unit 130, the second imaging unit 140, and the third imaging unit 150, and acquires the image signals of the first overhead image, the second overhead image, and the overhead image.
  • the drive control unit 212 moves the head unit 110, the bonding tool 120, and the index plate 172 to the target positions by transmitting drive signals corresponding to the control amounts to the head drive motor 111, the tool drive motor 121, and the index drive motor 171.
  • the calibration control unit 213 controls the image acquisition unit 211, the drive control unit 212, and the like to apply the above-described calibration values to the bird's-eye image captured by the bird's-eye imaging unit and the bird's-eye image captured by the bird's-eye imaging unit. Calculation is performed based on the upward view image captured and output.
  • the bonding control unit 214 is an example of a mounting control unit, and controls the image acquisition unit 211, the drive control unit 212, and the like, so that the semiconductor chip 310 held by the bonding tool 120 is imaged by the rear imaging unit and output. The reference position of the semiconductor chip 310 is recognized based on the rear view image.
  • the semiconductor chip 310 is led to the bonding tool 120 so that the reference position coincides with the target position determined based on the calibrated value and the bird's-eye view image output by the bird's-eye imaging unit. It is placed on the frame 330 and bonded. Specific control and processing of the calibration control unit 213 and the bonding control unit 214 will be detailed later.
  • FIG. 3 is an explanatory diagram for explaining the Scheimpflug optical system employed in the first imaging unit 130.
  • FIG. A similar Scheimpflug optical system is employed in the second imaging unit 140, but here, the Scheimpflug optical system of the first imaging unit 130 will be described as a representative.
  • plane S 1 is focal plane 110 a that is parallel to the stage plane of stage 190 .
  • the virtual surface S2 is a plane including the principal plane of the first optical system 131, which is composed of the object-side lens group 131a and the image-side lens group 131b.
  • a plane S 3 is a plane including the light receiving surface of the first imaging element 132 .
  • the Scheimpflug optical system includes a first optical system 131 and a first imaging element 132 that are arranged to satisfy the Scheimpflug condition.
  • An arrangement that satisfies the Scheimpflug condition is an arrangement in which the plane S 1 , the virtual plane S 2 , and the virtual plane S 3 intersect each other on a common straight line P.
  • the diaphragm 133 is arranged between the object-side lens group 131a and the image-side lens group 131b, and restricts the passing light flux.
  • the depth of field DP can be adjusted by the diameter of the diaphragm 133 . Therefore, if the intended placement surface 330a of the lead frame 330 is positioned within this depth of field, the first imaging unit 130 can image a die pad and a pad reference mark, which will be described later, in a focused state. In this sense, the positional control for matching the focal plane 110a with the planned mounting surface 330a allows deviation within the range of the depth of field DP .
  • the second imaging unit 140 has the same configuration as the first imaging unit 130 and is arranged in the head section 110 symmetrically with respect to the YZ plane including the central axis of the bonding tool 120 . Therefore, like the first imaging unit 130, the second imaging unit 140 can also image the die pad and the pad reference mark in a focused state. It is preferable that the focal plane of the first imaging unit 130 and the focal plane of the second imaging unit 140 match at the focal plane 110a, but even if there is a deviation, the mutual depth of field partially overlaps. As long as both the die pad and the pad reference mark can be imaged in focus.
  • the die pad can be observed by the bird's-eye imaging unit. That is, after moving the bonding tool 120 directly above the die pad, which is the area to be placed, the target position for placing the semiconductor chip 310 can be determined based on the bird's-eye view image output by the bird's-eye imaging unit.
  • the semiconductor chip 310 can be moved to the target position from this state, the movement of the head part 110 and the bonding tool 120 can be greatly suppressed, and the positional deviation caused by the movement can be reduced and the lead time can be shortened. It has become possible.
  • the calibration process is executed at a predetermined timing when temperature changes in the surrounding environment are assumed, and the coordinate values calculated based on the bird's-eye view image and the bird's-eye view image of the same observation target are calculated.
  • a calibration value for calibrating the difference between the calculated coordinate values is calculated.
  • the bonding process for bonding the semiconductor chip 310 to the target position of the lead frame 330 the accurate target position is determined using the calibration value calculated by the calibration process. The calibration process and the bonding process will be described in order below.
  • the calibration control unit 213 is responsible for executing the calibration process.
  • the calibration control section 213 first causes the first imaging unit 130 , the second imaging unit 140 and the third imaging unit 150 to image the calibration index 173 .
  • FIG. 4 is a diagram showing how three imaging units image the calibration index 173 .
  • the calibration control unit 213 drives the index drive motor 171 via the drive control unit 212 to move the index plate 172 into the field of view of the third imaging unit 150 when starting the calibration process. .
  • the calibration index 173 provided on the index plate 172 is approximately centered with respect to the fixed field of view of the third imaging unit 150 .
  • the calibration control unit 213 then drives the head drive motor 111 via the drive control unit 212 so that the focal plane 110a of the bird's-eye imaging unit coincides with the planned mounting surface 330a of the lead frame 330. Also, the head section 110 is moved so that the calibration index 173 is positioned directly below the bonding tool 120 . Note that the bonding tool 120 is retracted to a position where it does not enter the field of view of the bird's-eye imaging unit.
  • the calibration control unit 213 acquires the first bird's-eye image from the first imaging unit 130, the second bird's-eye image from the second imaging unit 140, and the second bird's-eye image from the second imaging unit 140, via the image acquisition unit 211 3 Acquire an upward view image from the imaging unit 150 . Then, the three-dimensional coordinates (X hr , Y hr , Z hr ) of the calibration index 173 are calculated from the image coordinates of the images of the calibration index 173 reflected in the first bird's-eye view image and the second bird's-eye view image, respectively.
  • the error ( ⁇ X, ⁇ Y) is used as the calibrated value.
  • the calibration values are calculated in this way, if the three-dimensional coordinates calculated from the bird's-eye view image after imaging the observation target with the bird's-eye imaging unit are (X ht , Y ht , Z ht ), , can be corrected as (X ht + ⁇ X,Y ht + ⁇ Y,Z ht ) by adding the calibration values. It can be said that the corrected coordinate values have no error with respect to the coordinate values calculated from the upward-viewing image obtained in that case, even if the same observation target could be imaged by the upward-viewing imaging unit.
  • the calibration control unit 213 stores the calibration values calculated in this way in the storage unit 220 as calibration data 221 .
  • the calibration data 221 is referred to in the bonding process, which will be described later, until it is evaluated that the temperature of the surrounding environment may have changed and the calibration process needs to be performed again. In other words, when it is evaluated that the calibration process needs to be performed again, the calibration control unit 213 repeats the above process to update the calibration value.
  • An example of when the need for re-calibration processing is evaluated is the timing at which the bonding control unit 214 completes the bonding of the semiconductor chips 310 for a preset lot.
  • the calibration control unit 213 may perform the calibration process in accordance with the timing at which a new lot of semiconductor chips 310 is supplied to the chip supply device 500 .
  • the work time of the bonding work executed by the bonding control unit 214 may be used as a guideline. For example, it may be determined that a calibration process is to be performed after 60 minutes of continuous bonding operation.
  • a temperature detection unit that detects the temperature of the bird's-eye imaging unit may be provided in the head unit 110, and the timing may be the timing at which the temperature detection unit detects a preset temperature.
  • a plurality of temperatures are set in advance, and calibration processing is executed when it is detected that the ambient temperature has fluctuated across the set temperatures.
  • calibration processing is executed when it is detected that the ambient temperature has fluctuated across the set temperatures.
  • the bonding process is executed by the bonding control unit 214.
  • the bonding control unit 214 first picks up the target semiconductor chip 310 .
  • FIG. 5 shows how the bonding tool 120 picks up the semiconductor chip 310 .
  • the bonding control unit 214 drives the head drive motor 111 via the drive control unit 212 to move the head unit 110 above the chip supply device 500 , and drives the tool drive motor 121 to lower the bonding tool 120 .
  • the pick-up mechanism 510 pushes up the semiconductor chip 310 to be bonded among the semiconductor chips 310 placed on the chip supply device 500 toward the reversing mechanism 520, and the reversing mechanism 520 lifts the semiconductor chip. 310 is sucked and inverted. Then, the lowered bonding tool 120 picks up the semiconductor chip 310 by suction with the collet 122 and raises the bonding tool 120 .
  • the bonding control unit 214 moves the index plate 172 to the third imaging unit 150 before or after the bonding tool 120 picks up the semiconductor chip 310 . out of sight. Specifically, the bonding control unit 214 moves the index plate 172 by driving the index drive motor 171 via the drive control unit 212 .
  • the bonding control unit 214 next causes the third imaging unit 150 to image the semiconductor chip 310 sucked by the bonding tool 120 .
  • FIG. 6 is a diagram showing how the third imaging unit 150 captures an image of the semiconductor chip 310 attracted to the bonding tool 120. As shown in FIG.
  • the bonding control unit 214 drives the head drive motor 111 via the drive control unit 212 so that the focal plane 110a of the bird's-eye view imaging unit coincides with the mounting surface 330a of the lead frame 330, and the bonding tool is moved.
  • the head section 110 is moved so that the third imaging unit 150 is positioned directly below 120 .
  • the bonding tool 120 is lowered so that the surface of the held semiconductor chip 310 to be contacted with the lead frame 330 is aligned with the mounting surface 330a of the lead frame 330.
  • the bonding control section 214 causes the third imaging unit 150 to image the semiconductor chip 310 held by the bonding tool 120 via the image acquisition section 211 .
  • FIG. 7 is a diagram schematically showing an upward view image output by imaging the semiconductor chip 310 held by the bonding tool 120 by the third imaging unit 150 . Note that each subject image in the drawing will be described with the reference number of the corresponding subject as it is.
  • the bonding tool 120 is picked up and held by sucking the semiconductor chip 310 prepared by the chip feeder 500 with the collet 122 .
  • the bonding tool 120 attempts to suck the semiconductor chip 310 in a predetermined direction, but in reality, the semiconductor chip 310 may be sucked with a deviation. Therefore, the bonding control unit 214 confirms in what position and in what direction the semiconductor chip 310 is actually held, and recognizes the reference position for mounting the semiconductor chip 310 on the lead frame 330. do.
  • the upward view image shown in FIG. 7 is an image captured by the third imaging unit 150 looking up at the semiconductor chip 310, so the collet 122 holding the semiconductor chip 310 is also reflected. Therefore, the bonding control unit 214 calculates the image coordinates of the collet center 123 by detecting the circle that is the contour of the collet 122 .
  • the semiconductor chip 310 in this embodiment has a chip reference mark 311 provided on the surface to be contacted with the lead frame 330, and the bonding control unit 214 determines the image coordinates of the chip reference mark 311 reflected in the rear view image. calculate. Based on the image coordinates of the collet center 123 and the image coordinates of the chip reference mark 311 calculated in this manner, the bonding control unit 214 determines in what position and in what direction the semiconductor chip 310 is actually held with respect to the collet 122.
  • the bonding control unit 214 controls the position of the semiconductor chip 310 at the time when the rear view image is taken. Three-dimensional coordinates of the reference position can be calculated. Therefore, even if the bonding tool 120 and the head section 110 are moved after that, as long as the collet 122 continues to hold the semiconductor chip 310, the three-dimensional coordinates of the reference position can be traced.
  • the bonding control unit 214 drives the tool drive motor 121 to raise the bonding tool 120 to a position where the held semiconductor chip 310 retreats from the visual field of the bird's-eye imaging unit. Let Then, by driving the head driving motor 111, the bonding tool 120 is placed directly above the die pad 320 on which the semiconductor chip 310 is to be placed, and the focal plane 110a of the bird's-eye view imaging unit is placed on the lead frame 330. The head section 110 is moved so as to match the planned surface 330a. The lifting of the bonding tool 120 and the movement of the head section 110 may be performed in parallel.
  • FIG. 8 is a diagram showing how the first imaging unit 130 and the second imaging unit 140 image the lead frame 330 with the head section 110 and the bonding tool 120 arranged as such.
  • 9 is a partial perspective view of FIG. 8.
  • the lead frame 330 in this embodiment has one die pad 320 in each unit area 322 that will be cut out in the future and housed in one package. Each unit area 322 is provided with a pad reference mark 321 indicating its reference position.
  • the first imaging unit 130 and the second imaging unit 140 capture the die pad 320 and the pad reference mark 321 included in the same unit area 322 within the field of view and combine them. An image can be captured in a focus state.
  • the bonding control unit 214 uses the first bird's-eye view image output by the first imaging unit 130 and the second bird's-eye image output by the second imaging unit 140 as a reference when placing the semiconductor chip 310 on the die pad 320 . Calculate the coordinates of the target location to which the location should be matched.
  • FIG. 10 is a diagram showing a procedure for calculating the target coordinates for placing the semiconductor chip 310 from the first bird's-eye view image and the second bird's-eye view image. Since the first imaging unit 130 images these from the pad reference mark 321 side with respect to the die pad 320, the output image of the first bird's-eye view image has a trapezoidal shape in which the unit area 322 expands toward the pad reference mark 321 side. reflected in Conversely, since the second imaging unit 140 images these from the opposite side of the pad reference mark 321 with respect to the die pad 320, the unit area 322 is on the pad reference mark 321 side in the second bird's-eye view image that is the output image. It is captured in a narrow trapezoidal shape.
  • the bonding control unit 214 determines the image coordinates (x 1k , y 1k ) of the pad reference mark 321 from the first bird's-eye view image, and determines the image coordinates (x 2k , y 2k ) of the pad reference mark 321 from the second bird's-eye view image. to decide. Then, index coordinates (X k , Y k , Z k ), which are three-dimensional coordinates of the pad reference mark 321, are calculated from these image coordinates by referring to a conversion table for converting image coordinates into three-dimensional coordinates, for example. .
  • the coordinate values of the index coordinates are provisional target positions for calculating an accurate target position, and as described above, include errors due to the influence of temperature changes in the surrounding environment. Therefore, the calibration values ( ⁇ X, ⁇ Y) are read out from the calibration data 221 and corrected.
  • the corrected index coordinates (X k + ⁇ X, Y k + ⁇ Y, Z k ) thus obtained can be expected to have no error with respect to the spatial coordinates calculated from the elevation image.
  • the bonding control unit 214 calculates the target position from the corrected index coordinates (X k + ⁇ X, Y k + ⁇ Y, Z k ).
  • the coordinates ( XT , YT , ZT ) can be calculated accurately.
  • FIG. 11 is a diagram showing how the bonding tool 120 places the semiconductor chip 310 on the target position and performs bonding.
  • the bonding control unit 214 tracks and grasps the three-dimensional coordinates of the reference position of the semiconductor chip 310 with respect to the movement of the bonding tool 120 and the head unit 110, and this reference position is the target of the die pad 320.
  • Semiconductor chip 310 is moved to match the position.
  • the head drive motor 111 is driven via the drive control unit 212 to finely adjust the position of the head unit 110 in the XY direction, and the tool drive motor 121 is driven to drive the bonding tool 120 around the Z axis.
  • the bonding tool 120 is lowered to place the semiconductor chip 310 on the die pad 320 while the X and Y coordinates of the reference position are aligned with the X and Y coordinates of the target position. After that, the semiconductor chip 310 is heated by the heater 124 while being pressed by the tip of the collet 122 to be bonded to the die pad 320 .
  • the calibration value is calculated by aligning the focal plane 110a of the bird's-eye imaging unit and the printed surface of the calibration index 173 on the planned mounting surface 330a of the lead frame 330.
  • the Z-direction position of the head section 110 when the calibration value is calculated is the same as the Z-direction position of the head section 110 when the bird's-eye imaging unit captures the chip reference mark 311 .
  • the three-dimensional coordinates of the chip reference mark 311 are aligned by aligning the intended contact surface of the semiconductor chip 310 held by the collet 122 with the intended mounting surface 330a of the lead frame 330. Calculated. That is, the Z-direction position of the bonding tool 120 when the three-dimensional coordinates of the chip reference mark 311 are calculated is the same as the Z-direction position of the bonding tool 120 when the semiconductor chip 310 is placed on the die pad 320 .
  • the bonding tool 120 holds the semiconductor chip 310 and is retracted from the field of view of the bird's-eye imaging unit.
  • the X and Y coordinates recognized by the bonding control unit 214 do not match due to the influence of play between elements of the moving mechanism for moving up and down.
  • the height of the bonding tool 120 when the semiconductor chip 310 is placed on the intended placement surface 330a as shown in FIG. Error factors due to the moving mechanism are eliminated.
  • the X and Y coordinates of the actual reference position when the semiconductor chip 310 is placed on the intended placement surface 330a match the X and Y coordinates recognized by the bonding control section 214.
  • FIG. 12 is a diagram showing how the bonding tool 120 is retracted.
  • the bonding control section 214 drives the tool drive motor 121 via the drive control section 212 to raise the bonding tool 120 .
  • the state shown in FIG. 5 is returned to and the process is repeated.
  • FIG. 13 is a flowchart for explaining the procedure for bonding the semiconductor chip 310. As shown in FIG.
  • the calibration control unit 213 starts a calibration control step to perform calibration processing. Details will be described later as a subflow. Note that the first calibration control step may be skipped when the bonding process is started from the initial state in which the coordinates between the imaging units are correctly adjusted.
  • step S12 After the calibration control unit 213 finishes executing the calibration control step, the process proceeds to step S12, and the bonding control unit 214 starts the bonding control step to perform the bonding process. Details will be described later as a subflow.
  • the process proceeds to step S13, and the calibration control unit 213 determines whether or not the state of the bonding apparatus 100 at that time satisfies a preset calibration timing condition.
  • the preset calibration timing conditions are conditions that may require recalibration processing. For example, as described above, the number of processed lots, the working time of the bonding work, the temperature detected by the temperature detection unit, and the like are candidates for the setting condition.
  • step S13 determines in step S13 that the condition is satisfied. If it is determined that the condition is not satisfied, the process proceeds to step S14.
  • step S14 the bonding control unit 214 determines whether or not all scheduled bonding processes have been completed. If it is determined that semiconductor chips 310 to be bonded remain, the process returns to step S12, and if it is determined that all the bonding processes have been completed, the series of processes ends.
  • FIG. 14 is a subflow chart explaining the procedure of the calibration control step.
  • the calibration control unit 213 moves the index plate 172 to put the calibration index 173 into the center of the field of view of the third imaging unit 150 in step S1101.
  • the calibration control unit 213 controls the calibration index 173 so that the calibration index 173 is located on the focal plane 110a of the first imaging unit 130 and the second imaging unit 140 and directly below the bonding tool 120.
  • the head unit 110 is moved.
  • the printed surface of the calibration index 173 is adjusted so as to match the mounting surface 330a of the lead frame 330 as described above.
  • the calibration control unit 213 advances to step S1103, causes each imaging unit to perform imaging via the image acquisition unit 211, and obtains the first bird's-eye image from the first imaging unit 130 and the second bird's-eye image from the second imaging unit 140. , acquires an upward view image from the third imaging unit 150 . Then, in subsequent step S1104, the three-dimensional coordinates of the calibration index 173 are calculated based on the image coordinates of the images of the calibration index 173 reflected in the first bird's-eye image and the second bird's-eye image. The three-dimensional coordinates of the calibration index 173 are calculated based on the image of .
  • the calibration control unit 213 calculates, as a calibration value, the difference in the XY plane direction among the three-dimensional coordinates thus calculated.
  • the calculated calibration value is stored in the storage unit 220 as calibration data 221 .
  • the calibration control unit 213 moves the index plate 172 to withdraw the calibration index 173 from the field of view of the third imaging unit 150 in step S1105.
  • the main flow is returned to. Note that the calibration index 173 may be saved during the subsequent bonding process.
  • FIG. 15 is a subflow chart explaining the procedure of the bonding control step.
  • the processes described with reference to FIGS. 5 to 12 are mainly executed.
  • the bonding control unit 214 moves the head unit 110 to the upper part of the chip supply device 500 and lowers the bonding tool 120 in step S1201.
  • the semiconductor chip 310 to be bonded is reversed by the pick-up mechanism 510 and the reversing mechanism 520, and picked up by the collet 122 by suction. to raise
  • step S 1202 the bonding control unit 214 controls the focal plane 110 a of the bird's-eye view imaging unit to match the mounting surface 330 a of the lead frame 330 and the third imaging unit 150 to be positioned directly below the bonding tool 120 .
  • the head unit 110 is moved.
  • step S1203 the bonding tool 120 is lowered so that the surface of the held semiconductor chip 310 that is to be contacted with the lead frame 330 coincides with the mounting surface 330a of the lead frame 330.
  • the bonding control unit 214 causes the third imaging unit 150 to image the intended contact surface of the semiconductor chip 310 held by the bonding tool 120 in step S1204. Then, in step S1205, the upward view image output by the third imaging unit 150 is acquired, and the three-dimensional coordinates of the reference position of the semiconductor chip 310 are recognized based on the image coordinates of the chip reference mark 311 that is reflected.
  • step S1206 the bonding control unit 214 raises the bonding tool 120 to a position where the held semiconductor chip 310 retreats from the field of view of the bird's-eye view imaging unit, and the bonding tool 120 now places the semiconductor chip 310 thereon.
  • the head section 110 is moved so as to be directly above the die pad 320 .
  • step S1207 the height of the head section 110 is adjusted so that the focal plane 110a of the bird's-eye view imaging unit coincides with the mounting surface 330a of the lead frame 330.
  • step S1208 the bonding control unit 214 divides the unit area 322 including the target die pad 320 and the pad reference mark 321 on the planned mounting surface into the first image pickup unit 130 and the second image pickup unit 130 .
  • the imaging unit 140 is caused to take an image.
  • step S1209 the first bird's-eye view image output by the first imaging unit 130 and the second bird's-eye view image output by the second imaging unit 140 are obtained, and the image coordinates, calibration values, etc. of the pad reference mark 321 in the image are obtained.
  • the three-dimensional coordinates of the target position are calculated based on.
  • step S1210 When the coordinates of the target position are determined, the head section 110 and the bonding tool 120 are moved so that the reference position of the semiconductor chip 310 matches the target position, and the semiconductor chip 310 is placed on the die pad. 320. After that, the semiconductor chip 310 is pressurized/heated to complete the bonding. After bonding is completed, the bonding tool 120 is lifted and the main flow is returned to.
  • the calibration process and the bonding process are separated, and the calibration process is executed when the state of the bonding apparatus 100 satisfies the preset calibration timing conditions. Therefore, once the calibration process is performed, the calculated calibration value is held in the storage unit 220, and the calibration value is continuously referred to each time in the bonding process performed until the next calibration process is performed.
  • the procedure may be such that the calibration process is incorporated into a series of bonding processes, and the calibration value is updated each time the semiconductor chip 310 is bonded.
  • Other such embodiments are described below. In the following other embodiments, since the configuration of the bonding apparatus itself is the same as that of the above-described embodiments, the description thereof will be omitted, and mainly the different processing procedures will be described.
  • FIG. 16 is a diagram showing how three imaging units image the calibration index 173 in another embodiment.
  • calibration is performed between the pickup processing of the semiconductor chip 310 described using FIG. 5 in the above embodiment and the imaging processing of the semiconductor chip 310 by the third imaging unit 150 described using FIG. Perform a calibration process to calculate the value.
  • FIG. 16 shows how the collet 122 holds the semiconductor chip 310 to be bonded and retreats from the field of view of the bird's-eye imaging unit.
  • the rest of the situation is the same as the situation where the three imaging units shown in FIG. 4 image the calibration index 173 .
  • the position of the head section 110 is adjusted so that the focal plane 110 a of the bird's-eye view imaging unit coincides with the planned mounting surface 330 a of the lead frame 330 and the printed surface of the calibration index 173 .
  • the calibration index 173 is placed near the center of the field of view of each imaging unit.
  • the calibration control unit 213 calculates the calibration value as described above based on the first bird's-eye view image, the second bird's-eye view image, and the bird's-eye view image obtained by causing each imaging unit to perform imaging.
  • the bonding control unit 214 subsequently lowers the bonding tool 120 and executes the processing after the semiconductor chip 310 is imaged by the third imaging unit 150 described using FIG. . Note that these processing procedures may be reversed.
  • the calibration value calculated in the calibration process executed in synchronization with the bonding process is used only for alignment of the semiconductor chips 310 to be bonded in the bonding process.
  • the calibration control unit 213 causes each imaging unit to image the calibration index in synchronism with the process by which the bonding control unit 214 causes the third imaging unit 150 to image the semiconductor chip 310, and the calibration value is updated in each bonding process. Then, the time interval between when the calibration values are calculated and when the calibration values are used can be shortened. Therefore, it can be expected that more accurate alignment can be achieved with respect to temperature changes in the surrounding environment.
  • FIG. 17 is a flowchart explaining the bonding procedure of the semiconductor chip 310 in this other embodiment. Processing procedures that are the same as the processing procedures described with reference to FIGS. 13 to 15 are given the same step numbers, and the description of the processing contents is omitted. As described above, the present embodiment is a processing procedure in which calibration processing is incorporated into each bonding processing, so the flow of processing will be mainly described.
  • the bonding control unit 214 sucks and picks up the semiconductor chip 310 in step S1201. Before or after step S1201 or in parallel with step S1201, the calibration control unit 213 moves the index plate 172 to bring the calibration index 173 into the center of the field of view of the third imaging unit 150 in step S1101. Subsequently, the calibration control unit 213 executes step S1102 for moving the head unit 110 following step S1201. It should be noted that the control of moving the head unit 110 and the bonding tool 120 may be performed by the bonding control unit 214 as a series of controls related to the bonding process.
  • step S1103 the calibration control unit 213 causes the first imaging unit 130, the second imaging unit 140, and the third imaging unit 150 to perform imaging, and in step S1104, calculates calibration values.
  • step S1104 calculates calibration values.
  • the process advances to step S1105 to withdraw the calibration index 173 from the field of view of each imaging unit.
  • Step S1203 After the calibration control unit 213 retracts the calibration index 173, the bonding control unit 214 executes step S1203 to lower the planned contact surface of the semiconductor chip 310 until it coincides with the planned mounting surface 330a. Steps S1203 to S1210 are the same as the processing procedure described with reference to FIG. Note that the calibrated value used in the calculation for determining the target position in step S1209 is the calibrated value calculated in step S1104 executed prior to step S1203.
  • step S14 determines in step S14 whether or not all the scheduled bonding processes have been completed. If it is determined that semiconductor chips 310 to be bonded remain, the process returns to step S1201, and if it is determined that all the bonding processes have been completed, the series of processing ends.
  • the calibration index 173 is moved near the center of the field of view of each imaging unit so that each imaging unit can image the calibration index 173 under better conditions. Therefore, in the bonding process, it is necessary to remove the calibration index 173 from the field of view of each imaging unit.
  • the calibration index can be placed in the peripheral portion of the field of view so that it can be observed at all times. I do not care.
  • the calibration index can be used for each imaging unit. It can be permanently located in the peripheral part of the field of view. With such a calibration index, index drive motor 171 can be omitted from calibration unit 170 . Moreover, since control for advancing and retreating the calibration index is not required, it contributes to shortening the lead time.
  • the bird's-eye imaging unit includes the first imaging unit 130 and the second imaging unit 140, but each of the bird's-eye imaging units includes a Scheimpflug optical system. may be configured to include three or more imaging units employing . Further, in the present embodiment described above, the three-dimensional coordinates of the object are calculated using the parallax between the first bird's-eye view image and the second bird's-eye view image, but the three-dimensional coordinates are calculated using the bird's-eye imaging unit. The method is not limited to this. For example, one bird's-eye view imaging unit that employs the Scheimpflug optical system may be used, and other auxiliary means may be used.
  • the head unit 110 is provided with a light projecting unit capable of projecting pattern light, and the shape of the light projecting pattern observed on the observation plane is analyzed with a bird's-eye view image output by the bird's-eye imaging unit, thereby realizing a three-dimensional image of the object. Coordinates may be calculated.
  • the flip chip bonder has been described in the present embodiment, the present invention is not limited to this and can be applied to a die bonder, a surface mounter for mounting electronic components on a substrate or the like, and other mounting apparatuses.
  • DESCRIPTION OF SYMBOLS 100... Bonding apparatus, 110... Head part, 110a... Focal plane, 111... Head drive motor, 120... Bonding tool, 121... Tool drive motor, 122... Collet, 123... Collet center, 124... Heater, 130...

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Manufacturing & Machinery (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Power Engineering (AREA)
  • Wire Bonding (AREA)
  • Supply And Installment Of Electrical Components (AREA)
  • Die Bonding (AREA)

Abstract

実装装置は、実装ツールと、基板を俯瞰して撮像するためのシャインプルーフ光学系を採用した俯瞰用撮像ユニットと、実装ツールに保持された状態の実装体を仰視して撮像するための仰視用撮像ユニットと、俯瞰画像に基づいて算出される座標値と仰視画像に基づいて算出される座標値との差分を較正する較正値を、較正指標を撮像した俯瞰画像と同じ較正指標を撮像した仰視画像とに基づいて演算する較正制御部と、実装ツールに保持された実装体を仰視用撮像ユニットで撮像した仰視画像に基づいて実装体の基準位置を認識し、当該基準位置が、基板を俯瞰用撮像ユニットで撮像した俯瞰画像と較正値に基づいて決定した目標位置に合致するように、実装ツールに実装体を基板に載置させて実装させる実装制御部とを備える。

Description

実装装置、実装方法および実装制御プログラム
 本発明は、実装装置、実装方法および実装制御プログラムに関する。
 従来の実装装置の一例であるボンディング装置では、まず、ダイパッドなどの作業対象を真上からカメラで撮像してその位置を確認する。そして、カメラを退避させてからボンディングツールを支持するヘッド部を当該作業対象の真上に移動させ、ボンディング作業を行っていた。このような構成を採用するボンディング装置は、作業時間を要するばかりでなく、作業目標位置に対する移動誤差の蓄積も問題となっていた。そこで、作業対象を斜め方向から撮像できるシャインプルーフ光学系を採用した撮像ユニットの利用が考えられるようになってきた(例えば、特許文献1を参照)。
特開2014-179560号公報
 しかし、シャインプルーフ光学系を採用する撮像ユニットは、光学系の構造上の特性から、周辺環境の温度変化に伴う光学系要素の微小変位が出力画像の平面方向への変位となって現れやすいことがわかってきた。出力画像の平面方向への変位は、半導体チップを載置すべき目標位置の算出に誤差を生じさせ、したがって、当該半導体チップを本来の目標位置へ精度よく実装することを妨げる結果を招く。
 本発明は、このような問題を解決するためになされたものであり、周辺環境の温度が変化しても、シャインプルーフ光学系を採用する撮像ユニットを用いて半導体チップ等の実装体を載置する目標位置を精確に決定し、当該実装体を基板上の当該目標位置に載置して実装することのできる実装装置等を提供するものである。
 本発明の第1の態様における実装装置は、実装体を拾得して保持し、ステージに載置された基板へ載置して実装する実装ツールと、ステージのステージ面に平行な平面が焦点面となるようにそれぞれの光学系と撮像素子がシャインプルーフ条件を満たして配置された、ステージ面に対して実装ツールと同じ側から基板を俯瞰して撮像するための俯瞰用撮像ユニットと、実装ツールに保持された状態の実装体を、ステージ面に対して俯瞰用撮像ユニットとは反対の側から仰視して撮像するための仰視用撮像ユニットと、俯瞰用撮像ユニットが出力する俯瞰画像に基づいて算出される座標値と仰視用撮像ユニットが出力する仰視画像に基づいて算出される座標値との差分を較正する較正値を、予め設定された較正指標を俯瞰用撮像ユニットに撮像させて出力させた俯瞰画像と較正指標を仰視用撮像ユニットに撮像させて出力させた仰視画像とに基づいて演算する較正制御部と、実装ツールに保持された実装体を仰視用撮像ユニットに撮像させ出力させた仰視画像に基づいて実装体の基準位置を認識し、基準位置が、基板を俯瞰用撮像ユニットに撮像させて出力させた俯瞰画像と較正値に基づいて決定した目標位置に合致するように、実装ツールに実装体を基板に載置させて実装させる実装制御部とを備える。
 また、本発明の第2の態様における実装方法は、実装体を拾得して保持し、ステージに載置された基板へ載置して実装する実装ツールと、ステージのステージ面に平行な平面が焦点面となるようにそれぞれの光学系と撮像素子がシャインプルーフ条件を満たして配置された、ステージ面に対して実装ツールと同じ側から基板を俯瞰して撮像するための俯瞰用撮像ユニットと、実装ツールに保持された状態の実装体を、ステージ面に対して俯瞰用撮像ユニットとは反対の側から仰視して撮像するための仰視用撮像ユニットとを備える実装装置を用いた実装体の実装方法であって、俯瞰用撮像ユニットが出力する俯瞰画像に基づいて算出される座標値と仰視用撮像ユニットが出力する仰視画像に基づいて算出される座標値との差分を較正する較正値を、予め設定された較正指標を俯瞰用撮像ユニットに撮像させて出力させた俯瞰画像と較正指標を仰視用撮像ユニットに撮像させて出力させた仰視画像とに基づいて演算する較正制御ステップと、実装ツールに保持された実装体を仰視用撮像ユニットに撮像させ出力させた仰視画像に基づいて実装体の基準位置を認識し、基準位置が、基板を俯瞰用撮像ユニットに撮像させて出力させた俯瞰画像と較正値に基づいて決定した目標位置に合致するように、実装ツールに実装体を基板に載置させて実装させる実装制御ステップとを有する。
 また、本発明の第3の態様における実装制御プログラムは、実装体を拾得して保持し、ステージに載置された基板へ載置して実装する実装ツールと、ステージのステージ面に平行な平面が焦点面となるようにそれぞれの光学系と撮像素子がシャインプルーフ条件を満たして配置された、ステージ面に対して実装ツールと同じ側から基板を俯瞰して撮像するための俯瞰用撮像ユニットと、実装ツールに保持された状態の実装体を、ステージ面に対して俯瞰用撮像ユニットとは反対の側から仰視して撮像するための仰視用撮像ユニットとを備える実装装置を制御する実装制御プログラムであって、俯瞰用撮像ユニットが出力する俯瞰画像に基づいて算出される座標値と仰視用撮像ユニットが出力する仰視画像に基づいて算出される座標値との差分を較正する較正値を、予め設定された較正指標を俯瞰用撮像ユニットに撮像させて出力させた俯瞰画像と較正指標を仰視用撮像ユニットに撮像させて出力させた仰視画像とに基づいて演算する較正制御ステップと、実装ツールに保持された実装体を仰視用撮像ユニットに撮像させ出力させた仰視画像に基づいて実装体の基準位置を認識し、基準位置が、基板を俯瞰用撮像ユニットに撮像させて出力させた俯瞰画像と較正値に基づいて決定した目標位置に合致するように、実装ツールに実装体を基板に載置させて実装させる実装制御ステップとをコンピュータに実行させる。
 本発明により、周辺環境の温度が変化しても、シャインプルーフ光学系を採用する撮像ユニットを用いて半導体チップ等の実装体を載置する目標位置を精確に決定し、当該実装体を基板上の当該目標位置に載置して実装することのできる実装装置等を提供することができる。
本実施形態に係るボンディング装置を含むフリップチップボンダの全体構成図である。 ボンディング装置のシステム構成図である。 シャインプルーフ光学系を説明するための説明図である。 3つの撮像ユニットが較正指標を撮像する様子を示す図である。 ボンディングツールが半導体チップを拾得する様子を示す図である。 第3撮像ユニットが半導体チップを撮像する様子を示す図である。 第3撮像ユニットが出力した仰視画像を模式的に示す図である。 第1撮像ユニットおよび第2撮像ユニットがリードフレームを撮像する様子を示す図である。 図8の部分斜視図である。 第1俯瞰画像および第2俯瞰画像から半導体チップを載置する目標座標を算出するまでの手順を示す図である。 ボンディングツールが半導体チップを目標位置へ載置してボンディングする様子を示す図である。 ボンディングツールが退避する様子を示す図である。 半導体チップのボンディング手順を説明するフロー図である。 較正制御ステップの手順を説明するサブフロー図である。 ボンディング制御ステップの手順を説明するサブフロー図である。 他の実施例において3つの撮像ユニットが較正指標を撮像する様子を示す図である。 他の実施例における半導体チップのボンディング手順を説明するフロー図である。
 以下、発明の実施の形態を通じて本発明を説明するが、特許請求の範囲に係る発明を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。なお、各図において、同一又は同様の構成を有する構造物が複数存在する場合には、煩雑となることを回避するため、一部に符号を付し、他に同一符号を付すことを省く場合がある。
 図1は、本実施形態に係る実装装置としてのボンディング装置100を含むフリップチップボンダの全体構成図である。フリップチップボンダは、主にボンディング装置100とチップ供給装置500から構成される。チップ供給装置500は、実装体としてのダイシングされた半導体チップ310をその上面に載置してボンディング装置100へ供給する装置である。具体的には、チップ供給装置500は、ピックアップ機構510および反転機構520を含む。ピックアップ機構510は、載置された任意の半導体チップ310を反転機構520へ向けて押し上げる装置である。反転機構520は、ピックアップ機構510に押し上げられた半導体チップ310を吸着し反転することにより、その上下方向の向きを入れ替える装置である。ボンディング装置100は、反転機構520により反転された状態で吸着されている半導体チップ310を後述するボンディングツール120によって拾得し、リードフレーム330の目標位置へ載置して接着する装置である。リードフレーム330は、ステージ190に載置される基板の一例である。
 ボンディング装置100は、主に、ヘッド部110、ボンディングツール120、第1撮像ユニット130、第2撮像ユニット140、第3撮像ユニット150、較正ユニット170、ステージ190を備える。ヘッド部110は、ボンディングツール120、第1撮像ユニット130、第2撮像ユニット140を支持し、ヘッド駆動モータ111によって平面方向および垂直方向へ移動可能である。本実施形態において平面方向は、図示するように、X軸方向とY軸方向で定められる水平方向であり、垂直方向(高さ方向)は、X軸方向およびY軸方向に直交するZ軸方向である。
 ボンディングツール120は、ツール駆動モータ121によって、ヘッド部110に対して高さ方向へ移動可能である。ボンディングツール120は、実装ツールの一例であり、先端部に半導体チップ310を吸着するコレット122、およびコレット122が吸着する半導体チップ310を加熱するヒータ124を有する。ボンディングツール120は、コレット122によって吸着した半導体チップ310をステージ190に載置されたリードフレーム330の載置予定面330aに設定された所定位置に載置し、コレット122の先端部で加圧しつつヒータ124で加熱して接着する。
 第1撮像ユニット130と第2撮像ユニット140は、リードフレーム330を俯瞰して撮像する俯瞰用撮像ユニットである。第1撮像ユニット130は、第1光学系131と第1撮像素子132を備え、その光軸をボンディングツール120の下方へ向けてヘッド部110に斜設されている。第1光学系131と第1撮像素子132は、ステージ190のステージ面に平行な平面が焦点面110aとなるようにシャインプルーフ条件を満たして配置されている。
 第2撮像ユニット140は、第2光学系141と第2撮像素子142を備え、ボンディングツール120に対して第1撮像ユニット130とは反対側に、その光軸をボンディングツール120の下方へ向けてヘッド部110に斜設されている。第2光学系141と第2撮像素子142は、ステージ190のステージ面に平行な平面が焦点面110aとなるようにシャインプルーフ条件を満たして配置されている。なお、以下の説明においては、第1撮像ユニット130および第2撮像ユニット140を纏めて「俯瞰用撮像ユニット」と称する場合がある。
 第3撮像ユニット150は、ボンディングツール120のコレット122に保持された状態の前記半導体チップを、仰視して撮像するための仰視用撮像ユニットである。図示するように、第3撮像ユニット150は、ステージ190のステージ面を分割面とすると、俯瞰用撮像ユニットが配置される空間とは反対の側の空間に配置されている。
 第3撮像ユニット150は、第3光学系151と第3撮像素子152を備え、その光軸を上方へ向けて設置されている。第3撮像ユニット150は、第3光学系151と第3撮像素子152が光軸と直交するように配置された一般的な撮像ユニットであり、その焦点面150aは第3撮像素子152の受光面と平行である。また、焦点面150aは、リードフレーム330の載置予定面330aと一致するように設定されている。換言すると、第3撮像ユニット150は、その焦点面150aが載置予定面330aと一致するようにボンディング装置100の所定位置に配設されている。なお、第3光学系151は、焦点面150aを挟む一定の奥行き範囲を被写界深度とする。したがって、焦点面150aを載置予定面330aに一致させる設置調整は、被写界深度Dの範囲であればずれが許容される。また、以下の説明においては、第3撮像ユニット150を「仰視用撮像ユニット」と称する場合がある。
 較正ユニット170は、主に、指標駆動モータ171、指標プレート172、較正指標173を備える。較正指標173は、例えば十字マークの交点といった基準位置が定められたリファレンスマークである。指標プレート172は、例えばガラスや透明樹脂の薄板であり、その一面に較正指標173が印刷されている。すなわち、較正指標173は、指標プレート172のいずれの面側からも観察できる。なお、互いの基準位置がXY方向にずれなく2つの較正指標173が指標プレート172の両面にそれぞれ印刷されていれば、指標プレート172は透明でなくても構わない。その場合、第3撮像ユニット150と対向する較正指標173が第3撮像ユニット150の被写界深度度Dの範囲に収まるように、指標プレート172の厚さが設定される。また、較正指標173は、印刷に限らず、シールの貼着や、指標プレート172表面のケガキ等により設けられてもよい。
 指標駆動モータ171は、指標プレート172をZ軸周りに旋回させることにより、較正指標173を第3撮像ユニット150の視野中心付近へ移動させたり、当該視野から退避させたりする。本実施形態においては、較正指標173は、指標プレート172のうち第3撮像ユニット150と対向する表面とは反対側の表面に印刷されている。そして、その印刷面は、較正指標173が第3撮像ユニット150の視野中心付近へ移動されると、リードフレーム330の載置予定面330aおよび第3撮像ユニット150の焦点面150aと同一面となるように調整されている。
 図2は、ボンディング装置100のシステム構成図である。ボンディング装置100の制御システムは、主に、演算処理部210、記憶部220、入出力デバイス230、第1撮像ユニット130、第2撮像ユニット140、第3撮像ユニット150、ヘッド駆動モータ111、ツール駆動モータ121、指標駆動モータ171によって構成される。
 演算処理部210は、ボンディング装置100の制御とプログラムの実行処理を行うプロセッサ(CPU:Central Processing Unit)である。プロセッサは、ASIC(Application Specific Integrated Circuit)やGPU(Graphics Processing Unit)等の演算処理チップと連携する構成であってもよい。演算処理部210は、記憶部220に記憶されたボンディング制御プログラムを読み出して、ボンディング制御に関する様々な処理を実行する。
 記憶部220は、不揮発性の記憶媒体であり、例えばHDD(Hard Disk Drive)によって構成されている。記憶部220は、ボンディング制御プログラムの他にも、制御や演算に用いられる様々なパラメータ値、関数、ルックアップテーブル等を記憶し得る。記憶部220は、特に、較正データ221を記憶している。較正データ221は、具体的には後述するが、同一の観察対象に対して俯瞰画像に基づいて算出される座標値と仰視画像に基づいて算出される座標値の差分を較正する較正値に関するデータである。
 入出力デバイス230は、例えばキーボード、マウス、表示モニタを含み、ユーザによるメニュー操作を受け付けたり、ユーザへ情報を提示したりするデバイスである。例えば、演算処理部210は、取得した俯瞰画像や仰視画像を入出力デバイス230の一つである表示モニタへ表示してもよい。
 第1撮像ユニット130は、演算処理部210から撮像要求信号を受けて撮像を実行し、第1撮像素子132が出力した第1俯瞰画像を画像信号として演算処理部210へ送信する。第2撮像ユニット140は、演算処理部210から撮像要求信号を受けて撮像を実行し、第2撮像素子142が出力した第2俯瞰画像を画像信号として演算処理部210へ送信する。第3撮像ユニット150は、演算処理部210から撮像要求信号を受けて撮像を実行し、第3撮像素子152が出力した仰視画像を画像信号として演算処理部210へ送信する。
 ヘッド駆動モータ111は、演算処理部210から駆動信号を受けてヘッド部110を水平面方向および高さ方向へ移動させる。ツール駆動モータ121は、演算処理部210から駆動信号を受けてボンディングツール120を高さ方向へ移動させ、Z軸周りに回転させる。指標駆動モータ171は、演算処理部210から駆動信号を受けて指標プレート172を旋回させる。
 演算処理部210は、ボンディング制御プログラムが指示する処理に応じて様々な演算を実行する機能演算部としての役割も担う。演算処理部210は、画像取得部211、駆動制御部212、較正制御部213、ボンディング制御部214として機能し得る。画像取得部211は、第1撮像ユニット130、第2撮像ユニット140、第3撮像ユニット150へ撮像要求信号を送信し、第1俯瞰画像、第2俯瞰画像、仰視画像の画像信号を取得する。駆動制御部212は、ヘッド駆動モータ111、ツール駆動モータ121、指標駆動モータ171へ制御量に応じた駆動信号を送信することにより、ヘッド部110、ボンディングツール120、指標プレート172を目標位置へ移動させる。また、ピックアップ機構510や反転機構520のへ駆動信号を送信することにより、ターゲットとなる半導体チップ310を押し上げたり、吸着させて反転させたりする。
 較正制御部213は、画像取得部211や駆動制御部212等を制御することにより、上述の較正値を、較正指標173を俯瞰用撮像ユニットに撮像させ出力させた俯瞰画像と仰視用撮像ユニットに撮像させ出力させた仰視画像とに基づいて演算する。ボンディング制御部214は、実装制御部の一例であり、画像取得部211や駆動制御部212等を制御することにより、ボンディングツール120に保持された半導体チップ310を仰視用撮像ユニットに撮像させ出力させた仰視画像に基づいて半導体チップ310の基準位置を認識する。そして、当該基準位置が、リードフレーム330を俯瞰用撮像ユニットに撮像させて出力させた俯瞰画像と較正値に基づいて決定した目標位置に合致するように、ボンディングツール120に当該半導体チップ310をリードフレーム330に載置させてボンディングさせる。較正制御部213とボンディング制御部214の具体的な制御や処理については後に詳述する。
 図3は、第1撮像ユニット130に採用されているシャインプルーフ光学系を説明するための説明図である。第2撮像ユニット140にも同様のシャインプルーフ光学系が採用されているが、ここでは代表して第1撮像ユニット130のシャインプルーフ光学系について説明する。
 図3において、平面Sは、ステージ190のステージ面に対して平行である焦点面110aである。仮想面Sは、物側レンズ群131aと像側レンズ群131bを構成群とする第1光学系131の主平面を含む平面である。平面Sは、第1撮像素子132の受光面を含む平面である。本実施形態においてシャインプルーフ光学系は、シャインプルーフ条件を満たして配置されている第1光学系131と第1撮像素子132を含む。シャインプルーフ条件を満たす配置とは、平面S、仮想面S、仮想面Sが共通の直線P上で互いに交差する配置である。
 絞り133は、物側レンズ群131aと像側レンズ群131bの間に配置され、通過する光束を制限する。絞り133の径により、被写界深度Dを調整することができる。したがって、リードフレーム330の載置予定面330aがこの被写界深度内に位置すれば、第1撮像ユニット130は、後述するダイパッドやパッド基準マークを合焦状態で撮像することができる。この意味において、焦点面110aを載置予定面330aに一致させる位置制御は、被写界深度Dの範囲であればずれが許容される。
 第2撮像ユニット140は、第1撮像ユニット130と同様の構成を備え、ボンディングツール120の中心軸を含むYZ平面に対して対称にヘッド部110に配設されている。したがって、第2撮像ユニット140も第1撮像ユニット130と同様に、ダイパッドやパッド基準マークを合焦状態で撮像することができる。第1撮像ユニット130の焦点面と第2撮像ユニット140の焦点面は、焦点面110aで一致することが好ましいが、ずれが生じたとしても、互いの被写界深度の一部が重なっている限り、ダイパッドやパッド基準マークを共に合焦状態で撮像することができる。
 さて、このようなシャインプルーフ光学系を採用した撮像ユニットを採用すると、ボンディングツール120の直下を斜め方向から観察できる。したがって、ボンディングツール120に半導体チップ310を保持させ、その載置予定領域であるダイパッドの直上にボンディングツール120移動させた状態でも、当該ダイパッドを俯瞰用撮像ユニットで観察することができる。すなわち、載置予定領域であるダイパッドの直上にボンディングツール120を移動させてから、俯瞰用撮像ユニットが出力する俯瞰画像に基づいて半導体チップ310を載置する目標位置を決定することができる。すると、その状態から半導体チップ310を目標位置まで移動させればよいので、ヘッド部110やボンディングツール120の移動を大幅に抑制することができ、移動に伴う位置ずれの低減やリードタイムの短縮を実現できるようになった。
 しかし、シャインプルーフ光学系を採用する撮像ユニットは、光学系の構造上の特性から、光学系や撮像素子が周辺環境の温度変化に伴ってわずかに変位するだけで、出力画像が平面方向へ変位してしまうことがわかってきた。すなわち、周辺環境の温度により、像がシフトしてしまうことがわかってきた。このような現象は、俯瞰画像に基づいて半導体チップ310を載置する目標位置を決定する場合に、その目標位置に誤差を生じさせ、当該半導体チップを本来の目標位置へ精度よくボンディングすることを妨げる結果を招いてしまう。特に、半導体チップ310を加熱するヒータ124がボンディングツール120に備え付けられているような場合には、シャインプルーフ光学系周りの温度変化が大きくなる。
 そこで、本実施形態においては、周辺環境の温度変化が想定される所定のタイミングで較正処理を実行し、同一の観察対象に対して俯瞰画像に基づいて算出される座標値と仰視画像に基づいて算出される座標値の差分を較正する較正値を算出する。そして、半導体チップ310をリードフレーム330の目標位置にボンディングするボンディング処理においては、較正処理によって算出した較正値を用いて精確な目標位置を決定する。以下に、較正処理とボンディング処理を順に説明する。
 較正処理は、較正制御部213が実行を担う。較正制御部213は、まず、第1撮像ユニット130、第2撮像ユニット140および第3撮像ユニット150に較正指標173を撮像させる。図4は、3つの撮像ユニットが較正指標173を撮像する様子を示す図である。
 図示するように、較正制御部213は、較正処理を開始するにあたり、駆動制御部212を介して指標駆動モータ171を駆動することにより、指標プレート172を第3撮像ユニット150の視野内へ移動させる。指標プレート172が第3撮像ユニット150の視野内へ移動されると、指標プレート172に設けられた較正指標173は、固定された第3撮像ユニット150の視野に対してほぼ中心に位置する。
 較正制御部213は、続いて、駆動制御部212を介してヘッド駆動モータ111を駆動することにより、俯瞰用撮像ユニットの焦点面110aがリードフレーム330の載置予定面330aと一致するように、かつボンディングツール120の直下に較正指標173が位置するようにヘッド部110を移動させる。なお、ボンディングツール120は、俯瞰用撮像ユニットの視野に入り込まない位置へ退避されている。
 このようにそれぞれが配置された状態で、較正制御部213は、画像取得部211を介して、第1撮像ユニット130から第1俯瞰画像を、第2撮像ユニット140から第2俯瞰画像を、第3撮像ユニット150から仰視画像を取得する。そして、第1俯瞰画像と第2俯瞰画像にそれぞれ写り込む較正指標173の像の画像座標から、較正指標173の三次元座標(Xhr,Yhr,Zhr)を算出する。また、仰視画像に写り込む較正指標173の像の画像座標から、較正指標173の三次元座標(Xsr,Ysr,Zsr)を算出する。もし、俯瞰用撮像ユニットが周辺環境の温度変化の影響を受けておらず、ボンディング装置100の初期状態において撮像ユニット間の座標が正しく調整された状態を保っているのであれば、少なくともXhr=Xsr、Yhr=Ysrとなるはずである。
 しかし、上述のように、ボンディング装置100の使用を開始してしばらく経過すると、俯瞰画像から算出される三次元座標が周辺環境の温度変化の影響を受けて誤差を含むようになる。そこで、その誤差である(ΔX,ΔY)を較正値とする。具体的には、誤差は差分として表され、ΔX=Xsr-Xhr、ΔY=Ysr-Yhrとすることができる。このように較正値を算出しておけば、その後に俯瞰用撮像ユニットがある観察対象を撮像してその俯瞰画像から算出した三次元座標が(Xht,Yht,Zht)であったとすると、較正値を加味して(Xht+ΔX,Yht+ΔY,Zht)と補正することができる。この補正された座標値は、仮に同じ観察対象を仰視用撮像ユニットで撮像できたとして、その場合に得られた仰視画像から算出される座標値に対して誤差がないと言える。
 較正制御部213は、このように算出した較正値を、較正データ221として記憶部220に記憶する。較正データ221は、さらに周辺環境の温度が変化している可能性があり再度の較正処理が必要であると評価されるまで、後述するボンディング処理において参照される。換言すれば、再度の較正処理が必要であると評価されると、較正制御部213は、上述の処理を繰り返して較正値を更新する。
 再度の較正処理が必要であると評価される例としては、ボンディング制御部214が予め設定されたロット分の半導体チップ310のボンディングを完了するタイミングが考えられる。具体的には、チップ供給装置500に新たなロットの半導体チップ310が供給されるタイミングに合わせて、較正制御部213が較正処理を実行するようにしてもよい。また、ボンディング制御部214が実行するボンディング作業の作業時間を目安としてもよい。例えば、60分間継続してボンディング作業を実行した場合に較正処理を実行すると定めることができる。さらには、ヘッド部110に俯瞰用撮像ユニットの温度を検出する温度検出部を設けておき、当該温度検出部が予め設定された温度を検出したタイミングであってもよい。具体的には、複数の温度を予め設定しておき、周辺温度が当該温度を跨いで変動したことが検出された場合に較正処理を実行する。このように較正値を更新すれば、ボンディング処理を継続する期間に亘って、俯瞰画像から算出される座標値の誤差を一定範囲に抑制することが可能となる。
 ボンディング処理は、ボンディング制御部214が実行を担う。ボンディング制御部214は、まず、対象となる半導体チップ310を拾得する。図5は、ボンディングツール120が半導体チップ310を拾得する様子を示す図である。
 ボンディング制御部214は、駆動制御部212を介してヘッド駆動モータ111を駆動することによりヘッド部110をチップ供給装置500の上部へ移動させ、ツール駆動モータ121を駆動することによりボンディングツール120を降下させる。これに並行して、ピックアップ機構510は、チップ供給装置500に載置された半導体チップ310のうち、ボンディング対象となる半導体チップ310を反転機構520へ向けて押し上げ、反転機構520は、当該半導体チップ310を吸着して反転させる。そして、降下されたボンディングツール120は、当該半導体チップ310をコレット122によって吸着して拾得し、ボンディングツール120を上昇させる。
 ボンディング制御部214は、指標プレート172が第3撮像ユニット150の視野内に位置する場合には、ボンディングツール120が半導体チップ310を拾得する作業に前後して、指標プレート172を第3撮像ユニット150の視野から退避させる。具体的には、ボンディング制御部214は、駆動制御部212を介して指標駆動モータ171を駆動することにより指標プレート172を移動する。
 ボンディング制御部214は、次に、ボンディングツール120が吸着した半導体チップ310を第3撮像ユニット150に撮像させる。図6は、第3撮像ユニット150がボンディングツール120に吸着された半導体チップ310を撮像する様子を示す図である。
 ボンディング制御部214は、駆動制御部212を介してヘッド駆動モータ111を駆動することにより、俯瞰用撮像ユニットの焦点面110aがリードフレーム330の載置予定面330aと一致するように、かつボンディングツール120の直下に第3撮像ユニット150が位置するようにヘッド部110を移動させる。そして、ツール駆動モータ121を駆動することにより、保持している半導体チップ310のうちリードフレーム330への接触予定面がリードフレーム330の載置予定面330aと一致するように、ボンディングツール120を降下させる。このような配置の調整が完了したら、ボンディング制御部214は、画像取得部211を介してボンディングツール120に保持された半導体チップ310を第3撮像ユニット150に撮像させる。
 図7は、第3撮像ユニット150がボンディングツール120に保持された半導体チップ310を撮像して出力した仰視画像を模式的に示す図である。なお、図中の各被写体像には、そのまま対応する被写体の符番を付して説明する。
 上述のように、ボンディングツール120は、チップ供給装置500で準備された半導体チップ310をコレット122で吸着することにより拾得され、保持される。このとき、ボンディングツール120は、半導体チップ310の中心を予め設定された向きで吸着しようとするが、実際にはこれらに対してずれを含んで吸着することもある。そこで、ボンディング制御部214は、半導体チップ310が実際にどのような位置にどのような向きで保持されているかを確認し、当該半導体チップ310をリードフレーム330へ載置するための基準位置を認識する。
 図7に示す仰視画像は、第3撮像ユニット150が半導体チップ310を見上げるように撮像した画像であるので、半導体チップ310を保持するコレット122も写り込んでいる。そこで、ボンディング制御部214は、コレット122の輪郭である円を検出することにより、コレット中心123の画像座標を算出する。
 また、本実施形態における半導体チップ310はリードフレーム330への接触予定面にチップ基準マーク311が設けられており、ボンディング制御部214は、仰視画像に写り込んでいるチップ基準マーク311の画像座標を算出する。このように算出したコレット中心123の画像座標とチップ基準マーク311の画像座標から、ボンディング制御部214は、半導体チップ310がコレット122に対して実際にどのような位置にどのような向きで保持されているかを認識できる。例えば、チップ基準マーク311が設けられている位置が半導体チップ310をリードフレーム330へ載置するための基準位置だとすれば、ボンディング制御部214は、仰視画像を撮像した時点における半導体チップ310の基準位置の三次元座標を算出できる。したがって、その後にボンディングツール120やヘッド部110が移動されても、コレット122が当該半導体チップ310を保持し続ける限り、基準位置の三次元座標を追跡することができる。
 ボンディング制御部214は、基準位置の三次元座標を認識したら、ツール駆動モータ121を駆動することにより、保持している半導体チップ310が俯瞰用撮像ユニットの視野から退避する位置までボンディングツール120を上昇させる。そして、ヘッド駆動モータ111を駆動することにより、ボンディングツール120が、これから半導体チップ310を載置するダイパッド320の直上となるように、かつ俯瞰用撮像ユニットの焦点面110aがリードフレーム330の載置予定面330aと一致するようにヘッド部110を移動させる。なお、ボンディングツール120の上昇とヘッド部110の移動は、並列して行っても構わない。
 図8は、ヘッド部110とボンディングツール120がそのように配置された状態で、第1撮像ユニット130と第2撮像ユニット140がリードフレーム330を撮像する様子を示す図である。また、図9は、図8の部分斜視図である。本実施形態におけるリードフレーム330は、将来的に切り出されて一つのパッケージに収められる単位領域322のそれぞれに、一つのダイパッド320を有する。また、それぞれの単位領域322には、その基準位置を示すパッド基準マーク321が設けられている。
 図8および図9のように配置された状態において、第1撮像ユニット130および第2撮像ユニット140はそれぞれ、同一の単位領域322に含まれるダイパッド320とパッド基準マーク321を視野内に捉えて合焦状態で撮像することができる。ボンディング制御部214は、第1撮像ユニット130が出力する第1俯瞰画像と第2撮像ユニット140が出力する第2俯瞰画像とを用いて、半導体チップ310をダイパッド320に載置するときにその基準位置を合致させるべき目標位置の座標を算出する。
 図10は、第1俯瞰画像および第2俯瞰画像から半導体チップ310を載置する目標座標を算出するまでの手順を示す図である。第1撮像ユニット130は、ダイパッド320に対してパッド基準マーク321側からこれらを撮像するので、その出力画像である第1俯瞰画像には、単位領域322がパッド基準マーク321側に拡がった台形状に写り込む。逆に第2撮像ユニット140は、ダイパッド320に対してパッド基準マーク321の反対側からこれらを撮像するので、その出力画像である第2俯瞰画像には、単位領域322がパッド基準マーク321側に狭まった台形状に写り込む。
 ボンディング制御部214は、第1俯瞰画像からパッド基準マーク321の画像座標(x1k,y1k)を決定し、また、第2俯瞰画像からパッド基準マーク321の画像座標(x2k,y2k)を決定する。そして、例えば画像座標を三次元座標に変換する変換テーブルを参照することにより、これらの画像座標からパッド基準マーク321の三次元座標である指標座標(X,Y,Z)を算出する。この指標座標の座標値は、精確な目標位置を算出するための仮目標位置であり、上述のように周辺環境の温度変化の影響を受けて誤差を含むものである。そこで、較正データ221から較正値(ΔX,ΔY)を読み出して補正する。このようにして得られた補正後の指標座標(X+ΔX,Y+ΔY,Z)の座標値は、仰視画像から算出される空間座標に対して誤差がないものと期待し得る。
 予め設定されたダイパッド320の目標位置とパッド基準マーク321の相対位置は既知であるので、ボンディング制御部214は、補正された指標座標(X+ΔX,Y+ΔY,Z)から目標位置の座標(X,Y,Z)を精確に算出することができる。
 目標位置の座標が確定したら、半導体チップ310を当該目標位置へ載置してボンディングする。図11は、ボンディングツール120が半導体チップ310を目標位置へ載置してボンディングする様子を示す図である。
 ボンディング制御部214は、上述のように、ボンディングツール120やヘッド部110の移動に対して半導体チップ310の基準位置の三次元座標を追跡して把握しており、この基準位置がダイパッド320の目標位置に合致するように、半導体チップ310を移動させる。具体的には、駆動制御部212を介してヘッド駆動モータ111を駆動することによりヘッド部110のXY方向の位置を微調整し、ツール駆動モータ121を駆動することにボンディングツール120のZ軸周りの回転量を微調整する。そして、基準位置のX座標およびY座標と目標位置のX座標およびY座標がそれぞれ一致した状態でボンディングツール120を下降させ、半導体チップ310をダイパッド320上に載置する。その後、半導体チップ310をコレット122の先端部で加圧しつつ、ヒータ124で加熱して、ダイパッド320に接着する。
 本実施形態においては、図4を用いて説明したように、リードフレーム330の載置予定面330aに俯瞰用撮像ユニットの焦点面110aと較正指標173の印刷面を揃えて較正値を算出している。すなわち、較正値を算出したときのヘッド部110のZ方向の位置は、俯瞰用撮像ユニットがチップ基準マーク311を撮像するときのヘッド部110のZ方向の位置と同じである。また、図6および図7を用いて説明したように、リードフレーム330の載置予定面330aにコレット122に保持された半導体チップ310の接触予定面を揃えてチップ基準マーク311の三次元座標を算出している。すなわち、チップ基準マーク311の三次元座標を算出したときのボンディングツール120のZ方向の位置は、半導体チップ310をダイパッド320に載置するときのボンディングツール120のZ方向の位置と同じである。
 したがって、ヘッド部110やボンディングツール120をZ方向に移動した場合に生じ得る、実際の三次元座標と認識した三次元座標のXY方向に対する誤差を考慮する必要がない。例えば、図8の状態ではボンディングツール120は半導体チップ310を保持して俯瞰用撮像ユニットの視野から退避しているが、この状態における実際の基準位置のX座標およびY座標は、ボンディングツール120を上下させる移動機構の要素間のあそび等の影響により、ボンディング制御部214が認識しているX座標およびY座標とは一致しない場合もある。しかし、図11のように半導体チップ310を載置予定面330aに載置するときのボンディングツール120高さは、チップ基準マーク311の三次元座標を算出したときのボンディングツール120高さと同一となり、移動機構による誤差要因が除去される。つまり、半導体チップ310を載置予定面330aに載置するときの実際の基準位置のX座標およびY座標は、ボンディング制御部214が認識しているX座標およびY座標と一致することになる。このような観点において、較正値を算出する場合に、載置予定面330aに対して焦点面110aと較正指標173の印刷面を一致させることや、チップ基準マーク311の三次元座標を算出する場合に、載置予定面330aに対して半導体チップ310の接触予定面を一致させることが有効である。
 図12は、ボンディングツール120が退避する様子を示す図である。図示するように半導体チップ310のボンディングが完了したら、ボンディング制御部214は、駆動制御部212を介してツール駆動モータ121を駆動することにより、ボンディングツール120を上昇させる。さらに新たな半導体チップ310をボンディングする場合には、再び図5の状態へ戻して処理を繰り返す。
 次に、以上説明した較正処理とボンディング処理を含む全体のボンディング手順をフロー図に沿って纏める。図13は、半導体チップ310のボンディング手順を説明するフロー図である。
 較正制御部213は、ステップS11で、較正処理を行うべく較正制御ステップを開始する。詳しくは後にサブフローとして説明する。なお、撮像ユニット間の座標が正しく調整された初期状態からボンディング処理を開始する場合には、最初の較正制御ステップをスキップしても構わない。
 較正制御部213が較正制御ステップの実行を終えたら、ステップS12へ進み、ボンディング制御部214は、ボンディング処理を行うべくボンディング制御ステップを開始する。詳しくは後にサブフローとして説明する。
 ボンディング制御部214がボンディング制御ステップの実行を終えたら、ステップS13へ進み、較正制御部213は、その時点におけるボンディング装置100の状態が予め設定された較正タイミングの条件を満たすか否かを判断する。予め設定される較正タイミングの条件は、再度の較正処理が必要と考え得る条件が設定される。例えば、上述のように、処理が完了したロット数や、ボンディング作業の作業時間、温度検出部によって検出される温度等が設定条件の候補となる。
 ステップS13で、較正制御部213が条件を満たすと判断した場合には、ステップS11へ戻る。満たさないと判断した場合には、ステップS14へ進む。ステップS14へ進んだ場合は、ボンディング制御部214は、予定された全てのボンディング処理が完了したか否かを判断する。ボンディング処理すべき半導体チップ310が残っていると判断したらステップS12へ戻り、すべてのボンディング処理が完了したと判断したら一連の処理を終了する。
 図14は、較正制御ステップの手順を説明するサブフロー図である。較正制御ステップでは、主に、図4を用いて説明した処理を実行する。較正制御部213は、ステップS1101で、指標プレート172を移動して較正指標173を第3撮像ユニット150の視野中心へ投入する。続いてステップS1102で、較正制御部213は、較正指標173が第1撮像ユニット130および第2撮像ユニット140の焦点面110aとなるように、かつボンディングツール120の直下に較正指標173が位置するようにヘッド部110を移動させる。なお、較正指標173の印刷面は、上述のように、リードフレーム330の載置予定面330aと一致するように調整されている。
 較正制御部213は、ステップS1103へ進み、画像取得部211を介して各撮像ユニットに撮像を行わせ、第1撮像ユニット130から第1俯瞰画像を、第2撮像ユニット140から第2俯瞰画像を、第3撮像ユニット150から仰視画像を取得する。そして、続くステップS1104で、第1俯瞰画像と第2俯瞰画像にそれぞれ写り込む較正指標173の像の画像座標に基づいて較正指標173の三次元座標を算出し、仰視画像に写り込む較正指標173の像に基づいて較正指標173の三次元座標を算出する。較正制御部213は、このように算出されたそれぞれの三次元座標のうち、XY平面方向の差分を較正値として算出する。算出した較正値は、較正データ221として記憶部220へ記憶する。
 その後、較正制御部213は、ステップS1105で、指標プレート172を移動して較正指標173を第3撮像ユニット150の視野から退避させる。較正指標173の退避が完了したら、メインのフローへ戻る。なお、較正指標173の退避は、続くボンディング処理の中で行ってもよい。
 図15は、ボンディング制御ステップの手順を説明するサブフロー図である。ボンディング制御ステップでは、主に、図5から図12を用いて説明した処理を実行する。
 ボンディング制御部214は、ステップS1201で、ヘッド部110をチップ供給装置500の上部へ移動させ、ボンディングツール120を降下させる。そして、チップ供給装置500に載置された半導体チップ310のうち、ボンディング対象となる半導体チップ310をピックアップ機構510と反転機構520により反転させ、これをコレット122によって吸着して拾得し、ボンディングツール120を上昇させる。
 ボンディング制御部214は、ステップS1202で、俯瞰用撮像ユニットの焦点面110aがリードフレーム330の載置予定面330aと一致するように、かつボンディングツール120の直下に第3撮像ユニット150が位置するようにヘッド部110を移動させる。さらにステップS1203で、保持している半導体チップ310のうちリードフレーム330への接触予定面がリードフレーム330の載置予定面330aと一致するように、ボンディングツール120を降下させる。
 このような配置の調整が完了したら、ボンディング制御部214は、ステップS1204で、ボンディングツール120に保持された半導体チップ310の接触予定面を第3撮像ユニット150に撮像させる。そして、ステップS1205で、第3撮像ユニット150が出力した仰視画像を取得し、写り込んでいるチップ基準マーク311の画像座標等に基づいて半導体チップ310の基準位置の三次元座標を認識する。
 ボンディング制御部214は、ステップS1206で、保持している半導体チップ310が俯瞰用撮像ユニットの視野から退避する位置までボンディングツール120を上昇させると共に、ボンディングツール120が、これから半導体チップ310を載置するダイパッド320の直上となるようにヘッド部110を移動させる。続くステップS1207で、俯瞰用撮像ユニットの焦点面110aがリードフレーム330の載置予定面330aと一致するようにヘッド部110の高さを調整する。 
 このような配置の調整が完了したら、ボンディング制御部214は、ステップS1208で、載置予定面のうち対象とするダイパッド320とパッド基準マーク321を含む単位領域322を第1撮像ユニット130と第2撮像ユニット140に撮像させる。そして、ステップS1209で、第1撮像ユニット130が出力した第1俯瞰画像と第2撮像ユニット140が出力した第2俯瞰画像を取得し、写り込んでいるパッド基準マーク321の画像座標および較正値等に基づいて目標位置の三次元座標を算出する。
 目標位置が確定したら、ステップS1210へ進み、目標位置の座標が確定したら、半導体チップ310の基準位置が当該目標位置と合致するようにヘッド部110とボンディングツール120を移動させ、半導体チップ310をダイパッド320上に載置する。その後、半導体チップ310を加圧/加熱し、ボンディングを完了させる。ボンディングが完了したら、ボンディングツール120を上昇させ、メインのフローへ戻る。
 以上説明した本実施形態においては、較正処理とボンディング処理を分離し、ボンディング装置100の状態が予め設定された較正タイミングの条件を満たす場合に較正処理を実行した。したがって、一度較正処理を実行したら算出した較正値を記憶部220に保持しておき、次に較正処理を実行するまでに行うボンディング処理では、当該較正値を毎回参照し続ける。しかし、較正処理を一連のボンディング処理に組み込み、それぞれの半導体チップ310をボンディング処理するごとに較正値を更新する処理手順であってもよい。そのような他の実施例について、以下に説明する。なお、以下の他の実施例においては、ボンディング装置の構成自体は上述の実施例と同様であるのでその説明を省略し、主に処理手順の異なる部分について説明する。
 図16は、他の実施例において3つの撮像ユニットが較正指標173を撮像する様子を示す図である。本実施例においては、上述の実施例において図5を用いて説明した半導体チップ310の拾得処理と、図6を用いて説明した第3撮像ユニット150による半導体チップ310の撮像処理の間に、較正値を算出する較正処理を実行する。
 図16は、より具体的には、コレット122がボンディング対象となる半導体チップ310を保持しつつ、俯瞰用撮像ユニットの視野から退避している様子を示している。その他の様子は、図4に示す3つの撮像ユニットが較正指標173を撮像する様子と同様である。具体的には、ヘッド部110の位置は、俯瞰用撮像ユニットの焦点面110aがリードフレーム330の載置予定面330aおよび較正指標173の印刷面と一致するように調整されている。また、較正指標173は、それぞれの撮像ユニットの視野中心付近に配置されている。
 較正制御部213は、各撮像ユニットに撮像を行わせて得た第1俯瞰画像、第2俯瞰画像および仰視画像に基づいて、上述のように較正値を算出する。較正制御部213が較正値を算出したら、ボンディング制御部214は、引き続いてボンディングツール120を降下させ、図6を用いて説明した第3撮像ユニット150による半導体チップ310の撮像以降の処理を実行する。なお、これらの処理手順は逆であっても構わない。このように、ボンディング処理に同期して実行された較正処理において算出された較正値は、そのボンディング処理においてボンディングする半導体チップ310の位置合わせに限って利用される。このように、ボンディング制御部214が第3撮像ユニット150に半導体チップ310を撮像させる処理に同期して較正制御部213が各撮像ユニットに較正指標を撮像させ、毎回のボンディング処理において較正値を更新すれば、較正値を算出した時点と較正値を用いる時点の時間間隔を短縮することができる。したがって、周辺環境の温度変化に対してより精確な位置合わせを実現することが期待できる。
 図17は、この他の実施例における半導体チップ310のボンディング手順を説明するフロー図である。図13から図15を用いて説明した処理手順と同一の処理手順については、同じステップ番号を付すことによりその処理内容の説明を省略する。上述のように、本実施例は、較正処理を毎回のボンディング処理に組み込んだ処理手順であるので、主に処理の流れについて説明する。
 これからボンディング処理を行う半導体チップ310が決定されると、ボンディング制御部214は、ステップS1201で、当該半導体チップ310を吸着して拾得する。ステップS1201に前後して、あるいはステップS1201と並行して、較正制御部213は、指標プレート172を移動して較正指標173を第3撮像ユニット150の視野中心へ投入するステップS1101を実行する。続いて、較正制御部213は、ステップS1201に連続して、ヘッド部110を移動させるステップS1102を実行する。なお、ヘッド部110やボンディングツール120を移動させる制御は、ボンディング処理に関する一連の制御としてボンディング制御部214が担っても構わない。
 続くステップS1103で、較正制御部213は、第1撮像ユニット130、第2撮像ユニット140および第3撮像ユニット150に撮像を実行させ、さらにステップS1104で、較正値を算出する。較正値を算出したら、ステップS1105へ進み、較正指標173を各撮像ユニットの視野から退避させる。
 較正制御部213が較正指標173を退避させたら、ボンディング制御部214は、半導体チップ310の接触予定面を載置予定面330aと一致するまで降下させるステップS1203を実行する。ステップS1203からステップS1210までは、図15を用いて説明した処理手順と同様である。なお、ステップS1209において目標位置を決定する演算で用いられる較正値は、ステップS1203に先立って実行されたステップS1104で算出された較正値である。
 ステップS1210の処理を終えたら、ボンディング制御部214は、ステップS14で、予定された全てのボンディング処理が完了したか否かを判断する。ボンディング処理すべき半導体チップ310が残っていると判断したらステップS1201へ戻り、すべてのボンディング処理が完了したと判断したら一連の処理を終了する。
 以上説明した本実施形態においては、各撮像ユニットが較正指標173をより好条件で撮像できるようにするために、各撮像ユニットの視野の中心付近に較正指標173を移動させた。そのため、ボンディング処理においては較正指標173を各撮像ユニットの視野から退避させる作業が必要となった。しかし、例えば各撮像ユニットが、視野周辺部の収差が位置算出の誤差要因とならない程度の性能を有する光学系を備えるのであれば、較正指標を視野周辺部に常時観察できるように配置しても構わない。すなわち、較正値の算出に与える影響がほとんどなく、ボンディング処理時における半導体チップ310の接触予定面を第3撮像ユニット150で撮像する場合に邪魔にならないのであれば、較正指標は、各撮像ユニットの視野周辺部に常置され得る。このような較正指標であれば、較正ユニット170から指標駆動モータ171を省くことができる。また、較正指標を進退させる制御が不要となるので、リードタイムの短縮にも寄与する。
 また、以上説明した本実施形態においては、俯瞰用撮像ユニットが第1撮像ユニット130と第2撮像ユニット140の2つを含む構成であったが、俯瞰用撮像ユニットは、それぞれがシャインプルーフ光学系を採用する3つ以上の撮像ユニットを含むように構成してもよい。また、以上説明した本実施形態においては、第1俯瞰画像と第2俯瞰画像の視差を利用して対象物の三次元座標を算出したが、俯瞰用撮像ユニットを用いて三次元座標を算出する手法はこれに限らない。例えば、シャインプルーフ光学系を採用する俯瞰用撮像ユニットは1つとし、他の補助手段を用いるようにしても構わない。例えば、ヘッド部110にパターン投光が可能な投光部を設け、観察面で観察される投光パターンの形状を俯瞰用撮像ユニットが出力する俯瞰画像で解析することにより、対象物の三次元座標を算出するようにしてもよい。また、本実施形態においてはフリップチップボンダについて説明したが、これに限らずダイボンダ、電子部品を基板などに実装する表面実装機、その他の実装装置に適用することが可能である。
 100…ボンディング装置、110…ヘッド部、110a…焦点面、111…ヘッド駆動モータ、120…ボンディングツール、121…ツール駆動モータ、122…コレット、123…コレット中心、124…ヒータ、130…第1撮像ユニット、131…第1光学系、131a…物側レンズ群、131b…像側レンズ群、132…第1撮像素子、133…絞り、140…第2撮像ユニット、141…第2光学系、142…第2撮像素子、150…第3撮像ユニット、150a…焦点面、151…第3光学系、152…第3撮像素子、170…較正ユニット、171…指標駆動モータ、172…指標プレート、173…較正指標、190…ステージ、210…演算処理部、211…画像取得部、212…駆動制御部、213…較正制御部、214…ボンディング制御部、220…記憶部、221…較正データ、230…入出力デバイス、310…半導体チップ、311…チップ基準マーク、320…ダイパッド、321…パッド基準マーク、322…単位領域、330…リードフレーム、330a…載置予定面、500…チップ供給装置、510…ピックアップ機構、520…反転機構

Claims (10)

  1.  実装体を拾得して保持し、ステージに載置された基板へ載置して実装する実装ツールと、
     前記ステージのステージ面に平行な平面が焦点面となるようにそれぞれの光学系と撮像素子がシャインプルーフ条件を満たして配置された、前記ステージ面に対して前記実装ツールと同じ側から前記基板を俯瞰して撮像するための俯瞰用撮像ユニットと、
     前記実装ツールに保持された状態の前記実装体を、前記ステージ面に対して前記俯瞰用撮像ユニットとは反対の側から仰視して撮像するための仰視用撮像ユニットと、
     前記俯瞰用撮像ユニットが出力する俯瞰画像に基づいて算出される座標値と前記仰視用撮像ユニットが出力する仰視画像に基づいて算出される座標値との差分を較正する較正値を、予め設定された較正指標を前記俯瞰用撮像ユニットに撮像させて出力させた前記俯瞰画像と前記較正指標を前記仰視用撮像ユニットに撮像させて出力させた前記仰視画像とに基づいて演算する較正制御部と、
     前記実装ツールに保持された前記実装体を前記仰視用撮像ユニットに撮像させ出力させた前記仰視画像に基づいて前記実装体の基準位置を認識し、前記基準位置が、前記基板を前記俯瞰用撮像ユニットに撮像させて出力させた前記俯瞰画像と前記較正値に基づいて決定した目標位置に合致するように、前記実装ツールに前記実装体を前記基板に載置させて実装させる実装制御部と
    を備える実装装置。
  2.  前記較正制御部は、前記実装体の載置予定面と同一面に配置された前記較正指標が前記俯瞰用撮像ユニットの前記焦点面となるように、前記俯瞰用撮像ユニットと前記実装ツールを支持するヘッド部の位置を調整する請求項1に記載の実装装置。
  3.  前記実装制御部は、前記実装ツールに保持された前記実装体を前記仰視用撮像ユニットに撮像させる場合に、前記俯瞰用撮像ユニットの焦点面が前記載置予定面と同一面となるように前記ヘッド部の位置を調整し、前記実装ツールに保持された前記実装体のうち前記基板への接触予定面が前記載置予定面と同一面となるように前記実装ツールの位置を調整する請求項2に記載に実装装置。
  4.  前記較正制御部は、前記実装制御部が予め設定されたロット分の前記実装体の実装を完了するごとに前記較正値を演算して更新する請求項1から3のいずれか1項に記載の実装装置。
  5.  前記較正制御部は、前記実装制御部が実行する実装作業の作業時間に基づいて前記較正値を演算して更新する請求項1から4のいずれか1項に記載の実装装置。
  6.  前記俯瞰用撮像ユニットの温度を検出する温度検出部を備え、
     前記較正制御部は、前記温度検出部が予め設定された温度を検出した場合に、前記較正値を演算して更新する請求項1から5のいずれか1項に記載の実装装置。
  7.  前記較正制御部は、前記実装制御部が前記実装体を前記仰視用撮像ユニットに撮像させる処理に同期させて、前記較正指標を前記俯瞰用撮像ユニットと前記仰視用撮像ユニットにそれぞれ撮像させる請求項1から6のいずれか1項に記載の実装装置。
  8.  前記俯瞰用撮像ユニットは、それぞれの前記焦点面が一致するように調整された第1撮像ユニットと第2撮像ユニットを含み、
     前記実装制御部は、前記第1撮像ユニットに前記基板を撮像させて出力させた第1俯瞰画像と、前記第2撮像ユニットに前記基板を撮像させて出力させた第2俯瞰画像とに基づいて算出した仮目標位置を前記較正値により補正して前記目標位置とする請求項1から7のいずれか1項に記載の実装装置。
  9.  実装体を拾得して保持し、ステージに載置された基板へ載置して実装する実装ツールと、前記ステージのステージ面に平行な平面が焦点面となるようにそれぞれの光学系と撮像素子がシャインプルーフ条件を満たして配置された、前記ステージ面に対して前記実装ツールと同じ側から前記基板を俯瞰して撮像するための俯瞰用撮像ユニットと、前記実装ツールに保持された状態の前記実装体を、前記ステージ面に対して前記俯瞰用撮像ユニットとは反対の側から仰視して撮像するための仰視用撮像ユニットとを備える実装装置を用いた前記実装体の実装方法であって、
     前記俯瞰用撮像ユニットが出力する俯瞰画像に基づいて算出される座標値と前記仰視用撮像ユニットが出力する仰視画像に基づいて算出される座標値との差分を較正する較正値を、予め設定された較正指標を前記俯瞰用撮像ユニットに撮像させて出力させた前記俯瞰画像と前記較正指標を前記仰視用撮像ユニットに撮像させて出力させた前記仰視画像とに基づいて演算する較正制御ステップと、
     前記実装ツールに保持された前記実装体を前記仰視用撮像ユニットに撮像させ出力させた前記仰視画像に基づいて前記実装体の基準位置を認識し、前記基準位置が、前記基板を前記俯瞰用撮像ユニットに撮像させて出力させた前記俯瞰画像と前記較正値に基づいて決定した目標位置に合致するように、前記実装ツールに前記実装体を前記基板に載置させて実装させる実装制御ステップと
    を有する実装方法。
  10.  実装体を拾得して保持し、ステージに載置された基板へ載置して実装する実装ツールと、前記ステージのステージ面に平行な平面が焦点面となるようにそれぞれの光学系と撮像素子がシャインプルーフ条件を満たして配置された、前記ステージ面に対して前記実装ツールと同じ側から前記基板を俯瞰して撮像するための俯瞰用撮像ユニットと、前記実装ツールに保持された状態の前記実装体を、前記ステージ面に対して前記俯瞰用撮像ユニットとは反対の側から仰視して撮像するための仰視用撮像ユニットとを備える実装装置を制御する実装制御プログラムであって、
     前記俯瞰用撮像ユニットが出力する俯瞰画像に基づいて算出される座標値と前記仰視用撮像ユニットが出力する仰視画像に基づいて算出される座標値との差分を較正する較正値を、予め設定された較正指標を前記俯瞰用撮像ユニットに撮像させて出力させた前記俯瞰画像と前記較正指標を前記仰視用撮像ユニットに撮像させて出力させた前記仰視画像とに基づいて演算する較正制御ステップと、
     前記実装ツールに保持された前記実装体を前記仰視用撮像ユニットに撮像させ出力させた前記仰視画像に基づいて前記実装体の基準位置を認識し、前記基準位置が、前記基板を前記俯瞰用撮像ユニットに撮像させて出力させた前記俯瞰画像と前記較正値に基づいて決定した目標位置に合致するように、前記実装ツールに前記実装体を前記基板に載置させて実装させる実装制御ステップと
    をコンピュータに実行させる実装制御プログラム。
     
PCT/JP2021/042050 2021-11-16 2021-11-16 実装装置、実装方法および実装制御プログラム WO2023089657A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2022569446A JP7396741B2 (ja) 2021-11-16 2021-11-16 実装装置、実装方法および実装制御プログラム
KR1020237017608A KR20230096038A (ko) 2021-11-16 2021-11-16 실장 장치, 실장 방법 및 실장 제어 프로그램
PCT/JP2021/042050 WO2023089657A1 (ja) 2021-11-16 2021-11-16 実装装置、実装方法および実装制御プログラム
CN202180061260.8A CN116457923A (zh) 2021-11-16 2021-11-16 安装装置、安装方法及安装控制程序
TW111141356A TWI836687B (zh) 2021-11-16 2022-10-31 安裝裝置、安裝方法及電腦可讀取記錄媒體

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/042050 WO2023089657A1 (ja) 2021-11-16 2021-11-16 実装装置、実装方法および実装制御プログラム

Publications (1)

Publication Number Publication Date
WO2023089657A1 true WO2023089657A1 (ja) 2023-05-25

Family

ID=86396383

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/042050 WO2023089657A1 (ja) 2021-11-16 2021-11-16 実装装置、実装方法および実装制御プログラム

Country Status (4)

Country Link
JP (1) JP7396741B2 (ja)
KR (1) KR20230096038A (ja)
CN (1) CN116457923A (ja)
WO (1) WO2023089657A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010238974A (ja) * 2009-03-31 2010-10-21 Shibaura Mechatronics Corp 電子部品の実装装置及び実装方法
WO2015190471A1 (ja) * 2014-06-10 2015-12-17 株式会社新川 ボンディング装置及びボンディングツールの着地点位置を推定する方法
JP2016092094A (ja) * 2014-10-31 2016-05-23 パナソニックIpマネジメント株式会社 部品実装装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014179560A (ja) 2013-03-15 2014-09-25 Hitachi High-Tech Instruments Co Ltd 斜め認識カメラ及びダイボンダ

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010238974A (ja) * 2009-03-31 2010-10-21 Shibaura Mechatronics Corp 電子部品の実装装置及び実装方法
WO2015190471A1 (ja) * 2014-06-10 2015-12-17 株式会社新川 ボンディング装置及びボンディングツールの着地点位置を推定する方法
JP2016092094A (ja) * 2014-10-31 2016-05-23 パナソニックIpマネジメント株式会社 部品実装装置

Also Published As

Publication number Publication date
JPWO2023089657A1 (ja) 2023-05-25
JP7396741B2 (ja) 2023-12-12
TW202324543A (zh) 2023-06-16
KR20230096038A (ko) 2023-06-29
CN116457923A (zh) 2023-07-18

Similar Documents

Publication Publication Date Title
JP6240866B2 (ja) ボンディング装置及びボンディングツールの着地点位置を推定する方法
CN112185870B (zh) 高精度键合头定位方法及设备
WO2023089657A1 (ja) 実装装置、実装方法および実装制御プログラム
KR100696211B1 (ko) 본딩 장치
KR101266714B1 (ko) 부품 장착 장치의 부품 실장 방법 및 부품 장착 장치
KR100672227B1 (ko) 본딩 장치
JP7112341B2 (ja) 実装装置および実装方法
TWI805188B (zh) 位置控制裝置、位置控制方法、位置控制程式以及接合裝置
WO2023089660A1 (ja) 実装装置、実装方法および実装制御プログラム
WO2024084789A1 (ja) 実装装置、実装方法および実装制御プログラム
WO2024105949A1 (ja) 実装装置、実装方法および実装制御プログラム
TWI836687B (zh) 安裝裝置、安裝方法及電腦可讀取記錄媒體
JP2024072673A (ja) 実装装置、実装方法および実装制御プログラム
TWI838272B (zh) 封裝裝置、封裝方法及封裝控制程式產品
JP5181383B2 (ja) ボンディング装置
JP3399334B2 (ja) バンプ付電子部品の熱圧着装置および熱圧着方法
JP5050997B2 (ja) 電子部品のボンディング装置およびボンディング方法
WO2022153519A1 (ja) ボンディング装置、ボンディング方法およびボンディングプログラム
JP2010278128A (ja) ボンディング装置及びボンディング装置のオフセット量補正方法
CN116636321A (zh) 部件安装装置及部件安装方法
JP2000223896A (ja) 電子部品実装方法及び装置
JP2002221404A (ja) 画像処理方法および装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2022569446

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 202180061260.8

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 20237017608

Country of ref document: KR

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21964673

Country of ref document: EP

Kind code of ref document: A1