WO2016125521A1 - パターン修正装置およびパターン修正方法 - Google Patents
パターン修正装置およびパターン修正方法 Download PDFInfo
- Publication number
- WO2016125521A1 WO2016125521A1 PCT/JP2016/050245 JP2016050245W WO2016125521A1 WO 2016125521 A1 WO2016125521 A1 WO 2016125521A1 JP 2016050245 W JP2016050245 W JP 2016050245W WO 2016125521 A1 WO2016125521 A1 WO 2016125521A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- substrate
- application
- dimensional shape
- liquid material
- dimensional
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05K—PRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
- H05K3/00—Apparatus or processes for manufacturing printed circuits
- H05K3/22—Secondary treatment of printed circuits
Definitions
- the present invention relates to a pattern correction apparatus and a pattern correction method, and more particularly to a technique for correcting a broken portion of a wiring pattern formed on a substrate.
- Pattern processing technology using an application needle with a tip diameter of several tens of ⁇ m and laser light with a spot diameter of several ⁇ m to several tens of ⁇ m is combined with precision positioning technology on the order of micrometers, so even a fine pattern can be positioned at a predetermined position.
- flat panel display correction work, solar battery scribing work, and the like have been used (see, for example, Patent Documents 1 to 3).
- the processing technique using an application needle can be applied to a paste having a high viscosity, which is not good for a dispenser, and has recently been used to form a film having a thickness of 10 ⁇ m or more as compared with a flat panel display.
- Patent Document 2 discloses a method for correcting a defective portion of a color filter substrate of a liquid crystal display by applying correction ink attached to the tip of an application needle to the defective portion. A method is disclosed.
- Patent Document 1 a method is employed in which the state of applied ink is observed using an observation optical system, and the quality of a processed part is inspected based on an image observed by the observation optical system.
- Patent Document 1 describes the brightness of a pixel to be detected in a defect and pixels other than the pixel to be detected in an image obtained by photographing the color filter substrate. And a method of detecting a defect of a defect detection target pixel based on the comparison result.
- the defect part detected by the said method is apply
- the film thickness of the pattern formed on the color filter substrate is about 1 ⁇ m or less. For this reason, although it depends on the viscosity of the ink, it is not necessary to apply the ink layered on the defective portion, and it is usually sufficient to apply the ink to the defective portion only once.
- a disconnection portion which is a defective portion generated in the wiring pattern also has a three-dimensional shape from a planar shape. For this reason, in order to fill the disconnected portion with ink, it is necessary to laminate and apply ink to the defective portion. As a result, the work content of the fine processing becomes more complicated as the film becomes thicker, making it difficult to promote automation of the processing work.
- the present invention has been made to solve such a problem, and an object of the present invention is to provide a pattern correction apparatus and a pattern correction method capable of accurately and easily correcting a disconnection portion of a thick film wiring pattern. It is to be.
- the pattern correction method is a pattern correction method in a pattern correction apparatus that corrects a broken portion in a wiring pattern on a substrate.
- the pattern correction device includes an illumination device, an objective lens, an observation optical system, an imaging device, and a coating mechanism.
- the lighting device outputs white light.
- the objective lens separates the white light emitted from the illuminating device into two light beams, irradiates one of the surfaces of the substrate and the other of the reference surface, and interferes with the reflected light from both surfaces. Configured to get.
- the observation optical system observes interference light.
- the imaging device captures the interference light through the observation optical system.
- the application mechanism applies the liquid material attached to the tip of the application needle to the disconnected portion.
- the pattern correction method includes a step of measuring the three-dimensional shape of the surface of the substrate, a step of detecting the three-dimensional shape of the broken portion, a step of calculating a three-dimensional application position, a step of applying a liquid material, Drying the applied liquid material.
- a step of measuring the three-dimensional shape of the surface of the substrate an image is taken by the imaging device while the objective lens is relatively moved in the direction perpendicular to the substrate. A focal position is obtained for each of a plurality of pixels constituting the photographed image, and the three-dimensional shape of the surface of the substrate is measured based on the obtained focal position.
- the binary data is generated by binarizing the measured three-dimensional shape data of the surface of the substrate.
- a three-dimensional application position for applying the liquid material to the disconnection part is calculated based on the detected three-dimensional shape of the disconnection part.
- the liquid material is applied by bringing the tip of the application needle into contact with the calculated three-dimensional application position.
- the step of measuring the three-dimensional shape of the surface of the substrate, the step of detecting the three-dimensional shape of the broken portion, the step of calculating the three-dimensional application position, and applying the liquid material is corrected by repeatedly executing the steps in this order.
- the first stage process and the second stage process are executed.
- the position of the positioning device at which the brightness of the captured image is maximized is set as the focus candidate position for each of a plurality of pixels constituting the captured image within the imaging cycle of the imaging apparatus.
- the images captured before and after the focus candidate positions obtained by the first stage processing are processed.
- a focal position is obtained based on a contrast value obtained based on a plurality of luminances. Based on the focal position, the vertical height of the surface of the substrate is detected.
- the step of calculating the three-dimensional application position corrects the detected three-dimensional shape of the disconnected portion by using the contraction amount of the liquid material by the drying step.
- a coating pitch in the three-dimensional direction is calculated based on the corrected three-dimensional shape of the disconnected portion.
- a three-dimensional application position is calculated using the calculated application pitch.
- the liquid material it is determined whether or not the liquid material is applied to the application position based on the volume of the disconnection portion that occupies the application range of the liquid material centering on the application position in three dimensions. To do.
- the pattern correction device is a pattern correction device that corrects a broken portion in a wiring pattern on a substrate.
- the pattern correction device includes an illumination device, an objective lens, an observation optical system, an imaging device, a positioning device, a coating mechanism, and a control device.
- the lighting device outputs white light.
- the objective lens separates the white light emitted from the illuminating device into two light beams, irradiates one on the surface of the substrate and the other on the reference surface, and interferes the reflected light from both surfaces to produce interference light. Configured to get.
- the observation optical system observes interference light.
- the imaging device images the interference light through the observation optical system.
- the positioning device relatively moves the objective lens and the substrate.
- the application mechanism applies the liquid material attached to the tip of the application needle to the disconnected portion.
- the control device controls the imaging device, the positioning device, and the coating mechanism.
- the control device controls the imaging device and the positioning device, and takes an image with the imaging device while relatively moving the objective lens in a direction perpendicular to the substrate.
- the control device obtains a focal position for each of the plurality of pixels constituting the photographed image, and measures the three-dimensional shape of the surface of the substrate based on the obtained focal position. Subsequently, the control device detects the three-dimensional shape of the disconnected portion by binarizing the measured three-dimensional shape data of the surface of the substrate to generate a binary image.
- the control device further calculates a three-dimensional application position for applying the liquid material to the disconnected portion based on the detected three-dimensional shape of the disconnected portion, and controls the application mechanism to calculate the calculated three-dimensional
- the liquid material is applied by bringing the tip of the application needle into contact with the application position. Finally, the control device dries the applied liquid material.
- control device repeatedly executes the measurement of the three-dimensional shape of the surface of the substrate, the detection of the three-dimensional shape of the broken portion, the calculation of the application position on the three-dimensional surface, and the application of the liquid material in this order, Correct the disconnection.
- the control device corrects the detected three-dimensional shape of the disconnected portion using the shrinkage amount of the liquid material due to drying.
- the control device calculates a coating pitch in the three-dimensional direction based on the corrected three-dimensional shape of the disconnected portion, and calculates a three-dimensional coating position using the calculated coating pitch.
- the present invention it is possible to provide a pattern correction apparatus and a pattern correction method capable of accurately and easily correcting a broken portion of a thick film wiring pattern.
- FIG. 1 It is a figure which shows the pixel height detection method using the Mirau type
- FIG. 1 is a perspective view showing an overall configuration of a pattern correction apparatus 1 according to an embodiment of the present invention.
- a pattern correction device 1 includes a correction head unit that includes an observation optical system 2, a CCD camera 3 (imaging device), a cutting laser device 4, an ink application mechanism 5, and an ink curing light source 6.
- a Z stage 8 that moves the correction head portion in a direction perpendicular to the substrate 7 to be corrected (Z-axis direction), an X stage 9 that mounts the Z stage 8 and moves in the X-axis direction, and the substrate 7 ,
- a Y stage 10 that moves in the Y-axis direction, a control computer 11 (control device) that controls the operation of the entire apparatus, a monitor 12 that displays images taken by the CCD camera 3, and the like
- An operation panel 13 for inputting a command from an operator to the computer 11 is provided.
- the observation optical system 2 includes a light source for illumination, and observes the surface state of the substrate 7 and the state of the correction ink (liquid material) applied by the ink application mechanism 5. An image observed by the observation optical system 2 is converted into an electrical signal by the CCD camera 3 and displayed on the monitor 12.
- the cutting laser device 4 removes unnecessary portions on the substrate 7 by irradiating them with laser light via the observation optical system 2.
- the ink application mechanism 5 corrects the ink by applying correction ink to the disconnection portion generated in the wiring pattern formed on the substrate 7.
- the ink curing light source 6 includes, for example, a CO 2 laser, and cures the ink applied by the ink application mechanism 5 by irradiating the laser beam.
- This apparatus configuration is an example.
- the Z stage 8 on which the observation optical system 2 or the like is mounted is mounted on the X stage, the X stage is mounted on the Y stage, and the Z stage 8 can be moved in the XY directions.
- a configuration called a gantry system may be used, and any configuration may be used as long as the Z stage 8 on which the observation optical system 2 and the like are mounted can be moved relative to the correction target substrate 7 in the XY directions.
- FIG. 2 is a perspective view showing the main parts of the observation optical system 2 and the ink application mechanism 5.
- this pattern correction apparatus 1 includes a movable plate 15, a plurality (for example, five) objective lenses 16 having different magnifications, and a plurality (for example, five) for applying different color inks. And a coating unit 17.
- the movable plate 15 is provided between the lower end of the observation barrel 2a of the observation optical system 2 and the substrate 7 so as to be movable in the X-axis direction and the Y-axis direction. Further, for example, five through holes 15 a are formed in the movable plate 15.
- the objective lens 16 is fixed to the lower surface of the movable plate 15 so as to correspond to the through holes 15a at predetermined intervals in the Y-axis direction.
- Each of the five coating units 17 is disposed adjacent to the five objective lenses 16. By moving the movable plate 15, it is possible to arrange the desired application unit 17 above the broken portion to be corrected.
- 3 (a) to 3 (c) are views showing the main part from the direction A in FIG. 2, and showing the ink application operation.
- the application unit 17 includes an application needle 18 and an ink tank 19.
- the application needle 18 of the desired application unit 17 is positioned above the broken portion to be corrected.
- the tip of the application needle 18 is immersed in the ink in the ink tank 19.
- the application needle 18 is lowered and the tip of the application needle 18 protrudes from the hole at the bottom of the ink tank 19. At this time, ink is attached to the tip of the application needle 18.
- the application needle 18 and the ink tank 19 are lowered to bring the tip of the application needle 18 into contact with the disconnected portion, and ink is applied to the disconnected portion. Thereafter, the state returns to the state of FIG.
- the ink application mechanism using a plurality of application needles is not described in detail since various other techniques are known. For example, it is shown in Patent Document 2.
- the pattern correction apparatus 1 can correct the disconnection portion using a desired color of the plurality of inks by using, for example, a mechanism as shown in FIG. 2 as the ink application mechanism 5.
- the disconnection portion can be corrected using an application needle having a desired application diameter among the application needles.
- FIG. 4 is a flowchart showing the pattern correction process.
- the pattern correction process includes a substrate shape measurement process (step S10), a broken portion shape detection process (step S20), an application position calculation process (step S50), and an ink application process (step S60). And a drying step (step S70).
- step S10 the three-dimensional shape of the surface of the substrate 7 is measured.
- the substrate shape measuring step the three-dimensional shape of the wiring pattern formed on the surface of the substrate 7 can be measured.
- step S20 based on the data indicating the three-dimensional shape of the surface of the substrate 7 measured in the substrate shape measurement step (step S10), the three-dimensional portion of the disconnection portion generated in the wiring pattern. The shape is detected.
- step S30 it is determined whether or not the broken portion needs to be corrected based on the detection result in the broken portion shape detection step (step S20). Specifically, when the disconnection portion is not detected in the wiring pattern in the disconnection portion shape detection step (step S20), it is determined that the disconnection portion need not be corrected (NO determination in step S30). In addition, after performing the ink application
- step S20 when the disconnection portion is detected in the wiring pattern in the disconnection portion shape detection step (step S20), it is determined that the disconnection portion needs to be corrected (YES determination in step S30). In this case, it is further determined whether or not the disconnection portion can be corrected (step S40). Specifically, after the ink application process (step S60) is repeatedly performed a predetermined number of times, and it is determined in step S30 that the filling of the disconnected portion with ink has not been completed (YES in step S30) ), It is determined that the disconnection portion cannot be corrected.
- step S50 an application position calculating step (step S50) is performed.
- the application position calculation step (step S50) the ink application position is calculated based on the data indicating the three-dimensional shape of the disconnection portion detected in the disconnection portion shape detection step (step S20).
- step S60 the ink is applied to the surface of the substrate 7 by controlling the ink application mechanism 5 according to the ink application position calculated in the application position calculation process (step S50).
- step S50 the ink application position calculated in the application position calculation process
- step S50 the three-dimensional shape of the surface of the substrate 7 after the disconnection portion is corrected is measured by returning to the substrate shape measurement step (step S10) again.
- step S20 a disconnection part shape detection process
- step S60 When it is determined from the detection result of the three-dimensional shape of the disconnected portion that the filling of the disconnected portion has been completed by the above-described ink application process (step S60), and the correction of the disconnected portion is unnecessary (NO in step S30) At the time of determination, a drying process (step S70) is performed. On the other hand, if it is determined that the wiring pattern needs to be corrected (YES in step S30), the application position calculation step (step S50) and the ink application step (step S60) are performed again.
- FIG. 5 is a partial plan view schematically showing a wiring pattern formed on the surface of the substrate 7.
- FIG. 5 shows a wiring part normally formed on the surface of the substrate 7 (hereinafter also referred to as “normal wiring part”) and a wiring part in which a disconnection part (region RGN in the drawing) is partially generated. It is shown schematically.
- the surface of the substrate 7 is set as an XY coordinate system, and a plurality of measurement points are set in a matrix in the XY coordinate system. And the three-dimensional shape of the surface of the board
- substrate 7 is measured by detecting the height of a Z-axis direction about each of the set several measurement point.
- a method for detecting the height of each measurement point in the Z-axis direction will be described.
- a two-beam interference objective lens is used as the objective lens 16.
- the interference light intensity at the focal position is maximized, and an image of the interference light is captured while the Z stage 8 is moved relative to the substrate 7.
- the Z stage position where the intensity is maximum is obtained, and the position is set as the height of the pixel.
- This height measurement method is suitable for detecting a minute height of several ⁇ m or less.
- the two-beam interference objective lens separates the white light emitted from the light source into two light beams and irradiates one on the surface of the object, and irradiates the other on the reference surface, thereby reflecting light from the surface of the object. And the reflected light from the reference surface.
- a Mirau-type interference objective lens is used, but a Michelson-type or linique-type interference objective lens may be used.
- a white light source As the light source.
- a white light source the intensity of interference light is maximized only at the focal position of the two-beam interference objective lens, unlike when a single wavelength light source such as a laser is used. For this reason, it is suitable for measuring the height.
- FIG. 6 is a layout diagram of the optical elements of the observation optical system 2 when the Mirau interference objective lens 30 is used as the objective lens 16.
- the Mirau interference objective lens 30 includes a lens 31, a reference mirror 32, and a beam splitter 33.
- a filter 36 is inserted by the filter switching device 35 into the exit portion of the incident light source 34.
- white light having a center wavelength ⁇ (nm) is obtained.
- the incident light source 34 for example, a white LED (Light Emitting Diode) may be used.
- the emission spectrum of the white LED has two peaks at wavelengths of 450 nm and 560 nm, but the filter 36 may be composed of a low-pass filter that selectively transmits light centered at 560 nm on the long wavelength side. preferable. This is because the coherent distance can be shortened because the light having the center at 560 nm has a wider wavelength band than the light having the center at 450 nm.
- the coherence distance indicates a distance in the height direction in which interference fringes can be observed. The shorter the coherence distance, the smaller the number of data used in the contrast value approximation calculation and the centroid calculation described in the second stage, which will be described later, so that the processing speed can be increased.
- the light that has passed through the filter 36 is reflected by the half mirror 37 toward the lens 31.
- the light incident on the lens 31 is divided by the beam splitter 33 into light that passes in the direction of the substrate 7 and light that reflects in the direction of the reference mirror 32.
- the light reflected by the surface of the substrate 7 and the light reflected by the surface of the reference mirror 32 are merged again by the beam splitter 33 and collected by the lens 31. Thereafter, the light emitted from the lens 31 passes through the half mirror 37 and then enters the imaging surface 3 a of the CCD camera 3 through the imaging lens 38.
- the Mirau-type interference objective lens 30 is moved in the optical axis direction by the Z stage 8, and an optical path length difference is generated between the surface reflected light of the substrate 7 and the surface reflected light of the reference mirror 32. Then, the CCD camera 3 captures the interference light generated by the optical path length difference while moving the Mirau interference objective lens 30 by the Z stage 8.
- the intensity that is, the brightness of the interference light is maximized when the optical path lengths of the reflected light from the substrate 7 and the reflected light from the reference mirror 32 are equal. At this time, the surface of the substrate 7 is in focus.
- the Z stage 8 corresponds to a positioning device that relatively moves the substrate 7 and the Mirau interference objective lens 30 in the Z-axis direction.
- the position of the Mirau interference objective lens 30 can be adjusted by moving the substrate 7 up and down on the table or by attaching a piezo table to the connecting portion between the Mirau interference objective lens 30 and the observation optical system 2. It may be moved up and down.
- the Z stage 8 is moved to the search start position. If the current position is Zp and the search range is ⁇ , for example, the Z stage 8 is moved to the initial position (Zp ⁇ / 2).
- the minus direction of the Z stage 8 is a direction approaching the substrate 7, and the plus direction is a direction away from the substrate 7.
- the search is performed in the plus direction from the initial position (Zp ⁇ / 2), that is, in the direction in which the Z stage 8 moves away from the substrate 7. Therefore, a range of ⁇ is searched in the positive direction from the initial position (Zp ⁇ / 2).
- the search direction is not necessarily a direction away from the substrate 7, and may be a direction approaching the substrate 7.
- Sampling of the image starts after the Z stage 8 starts moving and reaches a constant speed state.
- the control computer 11 performs sampling at a constant cycle. Preferably, by sampling at the period of the vertical synchronization signal of the CCD camera 3, the image can be sampled more accurately.
- the Z stage 8 moves at a predetermined speed v ( ⁇ m / second).
- f i (x, y) represents the luminance of the pixel at the position of the image f i (x, y).
- Each pixel in the image f i (x, y) constitutes a measurement point.
- FIG. 7A is a diagram showing the relationship between the sample number i and the luminance f i (x, y).
- FIG. 7B is a diagram showing the relationship between the sample number i and the contrast value M i .
- FIG. 7C is a diagram showing the relationship between the position of the Z stage 8 and the moving speed.
- the luminance f i (x, y) and the contrast value M i both show peaks in the vicinity of the image p.
- the position of the Z stage 8 corresponding to this peak point is the focal position of the pixel (x, y).
- the contrast value M i represented by the above formula (1) indicates the envelope of the brightness f i shown in FIG. Therefore, the peak point can be obtained by calculating the contrast value M i .
- the calculation and the division for obtaining the square root are not performed in order to perform the calculation at high speed.
- the contrast value M i ⁇ is proportional to a value obtained by squaring the contrast value M i, is also shifted, the focus position of the peak point and the pixel of the envelope by using a contrast value M i ⁇ instead contrast value M i There is nothing.
- the substrate shape measurement process is constituted by two stages of processing.
- the first stage of the process for each pixel of the image f i (x, y), determining the position of the Z stage 8 luminance f i (x, y) is maximum.
- this utilizes the fact that the luminance f i (x, y) and the contrast value M i both show a peak in the vicinity of the pixel p.
- the peak point of the contrast value M i can be determined by obtaining the image p at which the luminance f i (x, y) has a peak.
- the processing speed can be increased.
- the focus candidate positions are obtained for each of the plurality of pixels constituting the photographed image.
- the second stage processing a total (2n + 1) images of ⁇ n images (n is a natural number) around the image p having the maximum luminance f i (x, y) are selected, and The contrast value M i # is calculated by the above equation (2). Then, the position of the Z stage 8 at which the calculated contrast value M i # is maximized is obtained, and the position of the Z stage 8 is set as the final focal position of the pixel (x, y). That is, the second stage process is to obtain an accurate focus position using the contrast value Mi # based on the focus candidate position obtained in the first stage process.
- FIG. 8 is a block diagram showing a control configuration for executing the substrate shape measurement process.
- the control configuration relating to the substrate shape measurement step (step S ⁇ b> 10) is configured by a CCD camera 3, a capture device 40, and a processing device 42.
- the capture device 40 and the processing device 42 are provided inside the control computer 11.
- the capturing device 40 samples an image at a constant cycle (preferably a cycle of a vertical synchronization signal of the CCD camera 3). Specifically, the capture device 40 starts sampling an image using a vertical synchronization signal of the CCD camera 3 as a trigger. When the image sampling is completed, the sampled image is immediately transferred to the processing device 42. At this time, the capture device 40 directly transfers the image to the storage unit 44 of the processing device 42. For example, DMA (Direct Memory Access) transfer is used for this image transfer. Sampling and transfer of an image by the capturing device 40 are repeatedly executed at an image sampling period 1 / F (second), where F (Hz) is the frequency of the vertical synchronization signal of the CCD camera 3.
- a constant cycle preferably a cycle of a vertical synchronization signal of the CCD camera 3.
- the processing device 42 includes a storage unit 44 and a central processing unit 46.
- the storage unit 44, the image f i is transferred from the capture device 40 at the sampling period of the image 1 / F (s).
- Storage unit 44 stores sequentially the image f i transferred.
- the central processing unit 46 starts a process for obtaining the maximum value of the luminance f i (x, y), which is the first stage process, immediately after the image is transferred to the storage unit 44. Then, the central processing unit 46 completes the process for obtaining the maximum value of the luminance f i (x, y) immediately before the next image transfer timing. That is, the first stage processing is executed during the image sampling period 1 / F (second).
- the storage unit 44 is provided with three storage areas in which storage cells are two-dimensionally arranged so as to have the same resolution as that of the CCD camera 3.
- the first storage area the position of the image f i (x, y) the luminance at f i (x, y) maximum value of is stored. That is, the maximum value of the luminance of the corresponding pixel (x, y) is stored in each of the two-dimensionally arranged memory cells.
- the maximum value of the luminance f i (x, y) is expressed as “Max (x, y)”.
- the second storage area, the luminance f i (x, y) is the position of the Z stage 8 upon shooting images f i having the maximum is stored. That is, the position of the Z stage 8 when the luminance of the corresponding pixel (x, y) is maximized is stored in each of the two-dimensionally arranged memory cells.
- the position of the Z stage 8 when the luminance f i (x, y) is maximized will be expressed as “Pz (x, y)”.
- the third storage area, the sample number i is stored when the luminance f i (x, y) have taken the image f i with the maximum. That is, each of the two-dimensional array of storage cells, the sample number i of the image f i which luminance is the maximum of the corresponding pixel (x, y) is stored.
- the luminance f i (x, y) is the sample number i of the image f i where the maximum is expressed as "I (x, y)" .
- the three values Max (x, y), Pz (x, y), and I (x, y) stored in the storage unit 44 are set to “0” in the initial state before starting the search. ing.
- images are sequentially transferred from the capture device 40 to the storage unit 44 at a sampling period 1 / F (second).
- the central processing unit 46 the transfer of the image f i is completed, for each pixel, the luminance f i (x, y) and Max (x, y) is compared with, Max based on the comparison result (x, y) , Pz (x, y), I (x, y) are updated.
- the central processing unit 46 the position of the image f i (x, y) the luminance f i (x, y) in the maximum value of the luminance of the pixel (x, y) Max (x , y) And compare.
- the central processing unit 46 maintains the value of Max (x, y).
- the central processing unit 46 also maintains the values of Pz (x, y) and I (x, y).
- the central processing unit 46 rewrites the value of the Max (x, y) the luminance f i (x, y) to . Further, the central processing unit 46 rewrites the value of Pz (x, y) to the position of the Z stage 8 corresponding to the pixel value f i (x, y), and changes the value of I (x, y) to the luminance f i ( Rewrite to x, y) sample number i.
- the central processing unit 46 performs the comparison operation between the luminance f i (x, y) and Max (x, y) and the rewrite operation of the storage unit 44 according to the comparison result from the capture device 40 to the storage unit 44. This is executed using a period from the timing when the image is transferred to the timing when the capturing device 40 starts sampling the next image. For example, assuming that the resolution of the CCD camera 3 is 640 ⁇ 480 and the luminance f i (x, y) is 1 byte, the size of the image data transferred from the capture device 40 to the storage unit 44 is 307,200 bytes. Become.
- the capture device 40 captures 307,200 bytes of image data every 1/120 seconds (approximately 8.3 milliseconds) and transfers them to the storage unit 44 of the processing device 42. Data transfer from the capture device 40 to the storage unit 44 can be performed in about 2 milliseconds by using DMA transfer.
- processing device 42 of the approximately 8.3m sec is the sampling period, by utilizing the time of about 6.3m seconds, excluding the approximately 2m sec required for data transfer, the luminance f i of (x, y) A process for obtaining the maximum value is executed.
- the first stage processing is executed using the idle time after the data transfer for every sampling period of the image.
- the sample number j is I (x, y) -n, I (x, y) -n + 1,. x, y) -1, I (x, y), I (x, y) +1,..., I (x, y) + n-1, I (x, y) + n.
- the central processing unit 46 calculates a total of (2n + 1) contrast values M j # (x, y) by substituting the luminance f j (x, y) of the image f j into the equation (3).
- Z j can be expressed by the following equation (3).
- the contrast value M j # exhibits a symmetrical mountain-shaped tendency centered on the peak point, and therefore a curve indicating the contrast value M j # using a quadratic function or a Gaussian function. Can be approximated. Therefore, the central processing unit 46 approximates the relationship between the contrast value M j # and the position Z j of the Z stage 8 by a quadratic function or a Gaussian function, and the Z stage at which the contrast value M j # peaks from the obtained function. 8 position Z j is obtained. Then, the position Z j of the Z-stage 8 to the height of the pixel (x, y).
- the Z stage position where the luminance is maximum is set as the focus candidate position for each of the plurality of pixels constituting the captured image.
- a contrast value is obtained from the brightness of an image photographed in the vicinity of the focus candidate position, and the Z stage position at which the contrast value is maximized is obtained as the focus position for each pixel.
- the height of the measurement point in the Z-axis direction is detected from the obtained focal position.
- control computer 11 By adopting such a configuration, it is possible to omit the process of calculating the contrast value for each pixel in the first stage process, so that the calculation load on the control computer 11 can be reduced. Further, since it is not necessary to store the contrast value of each pixel, a large-capacity memory becomes unnecessary. As a result, the control computer can be configured at low cost.
- the first stage processing can be performed using the idle time after the image within the imaging cycle of the imaging device (image sampling cycle in the CCD camera 3) is transferred, all processing within the search range can be performed. It is possible to reduce the numerical calculation processing after image capturing is completed. As a result, the work time of the substrate shape measurement process can be shortened.
- the centroid positions of (2n + 1) contrast values Mi # are obtained and obtained.
- the center of gravity position may be the peak position. This barycentric position indicates the center position of the symmetrical data as shown in FIG. If the position of the center of gravity is Z g , Z g can be calculated using the following equation (4).
- the control computer 11 detects the three-dimensional shape of the disconnection portion generated in the wiring pattern based on the data obtained by measuring the three-dimensional shape of the surface of the substrate 7. .
- the processing device 42 inside the control computer 11 uses the measurement data of the three-dimensional shape of the surface of the substrate 7 obtained in the substrate shape measuring step (step S10 in FIG. 4).
- an image hereinafter also referred to as “disconnected portion extracted image”) D (x, y) in which the disconnected portion is extracted from the wiring pattern is generated.
- the disconnection portion extraction image D (x, y) is a binarized image in which the normal wiring portion is “1” and the portion other than the normal wiring portion including the disconnection portion is “0”.
- the processing device 42 sets the height of the measurement point in the Z-axis direction as Z (x, y). Note that (x, y) represents the position of the pixel on the image taken by the CCD camera 3 in the substrate shape measurement step (step S20).
- the processing device 42 When the height of the normal wiring portion in the Z-axis direction is set to Hp, the processing device 42 has a height Z (x, y) of the measurement point in the Z-axis direction and a height Hp of the normal wiring portion in the Z-axis direction. Compare When the relationship between the height Z (x, y) of the measurement point and the height Hp of the normal wiring portion satisfies the following expression (5), the value of the corresponding pixel position is set to “1”. On the other hand, when the relationship between the height Z (x, y) of the measurement point and the height Hp of the normal wiring portion does not satisfy the following expression (5), the value of the corresponding pixel position is set to “0”. In the following equation (5), ⁇ represents an allowable error with respect to the height Hp of the normal wiring portion.
- a pixel having a value of “0” corresponds to a portion other than the normal wiring portion. Accordingly, a disconnection portion can be extracted from the pixel having the value “0”.
- the processing device 42 uses the continuity of the wiring pattern, and extracts the disconnection portion from the pixels of the value “0” based on the feature that the normal wiring portion is continuous in the inspection area. To do.
- a method for extracting a disconnection portion when the wiring pattern is continuous in the Y-axis direction will be described.
- FIG. 9 is a diagram for explaining a method of extracting a disconnection portion.
- the processing device 42 captures an image composed of a plurality of pixels in the inspection area from the disconnection portion extracted image.
- the processing device 42 detects a block of pixels having a value of “1” from the captured disconnection portion extraction image, and extracts the outline of the block. Then, the processing device 42 calculates the maximum value and the minimum value in the Y axis direction for each contour line, and detects the coordinates of the minimum value in the Y axis direction for each contour line.
- the processing device 42 determines that the contour line corresponds to the contour line of the normal wiring portion. to decide.
- the processing device 42 determines that the contour line does not correspond to the contour line of the normal wiring portion. In this case, the coordinates are stored with the minimum value in the Y-axis direction as the “defect candidate point”.
- the processing device 42 determines that the contour line is displayed when the minimum value in the X-axis direction of one contour line is in contact with the left end or the upper and lower ends of the measurement area. It is determined that it corresponds to the contour line of the normal wiring portion, and when the minimum value in the X-axis direction is not in contact with the left end or the upper and lower ends of the measurement area, it is determined that the contour line does not correspond to the contour line of the normal wiring portion.
- the coordinates are stored with the minimum value in the X-axis direction as the defect candidate point.
- the processing device 42 detects the coordinate of the maximum value in the Y-axis direction for each contour line.
- the processing device 42 determines that the contour line corresponds to the contour line of the normal wiring portion. to decide.
- the processing device 42 determines that the contour line does not correspond to the contour line of the normal wiring portion. In this case, the coordinates are stored with the maximum value in the Y-axis direction as the defect candidate point.
- the processing device 42 determines that the contour line is in contact when the maximum value in the X-axis direction of one contour line is in contact with the right end or upper and lower ends of the measurement area. It is determined that it corresponds to the contour line of the normal wiring portion, and when the maximum value in the X-axis direction is not in contact with the right end or the upper and lower ends of the measurement area, it is determined that the contour line does not correspond to the contour line of the normal wiring portion.
- the coordinates are stored with the maximum value in the X-axis direction as the defect candidate point.
- the processing device 42 extracts a disconnection portion based on the stored defect candidate points.
- the control computer 11 extracts a block of pixels having a value of “0” with the defect candidate point as a vertex as a disconnected portion.
- the three-dimensional shape of the surface of the substrate 7 is converted into a binary image based on the height in the Z-axis direction for each measurement point.
- the three-dimensional shape of the disconnected portion can be detected.
- FIG. 10 is an enlarged schematic diagram illustrating an example of a disconnected portion. As indicated by a dotted line in FIG. 10, the processing device 42 sets a rectangular area that circumscribes the disconnected portion. This rectangular area has the upper left coordinates (x1, y1) and the lower right coordinates (x2, y2) as vertices.
- the processing device 42 For the pixel (x, y) located in the rectangular area, the processing device 42 differs in height between the height Hp in the Z-axis direction of the normal wiring portion and the height Z (x, y) in the Z-axis direction of the pixel. ⁇ (x, y) is calculated.
- FIG. 11 is a diagram in which the height difference ⁇ (x, y) of each pixel located in the rectangular area is plotted.
- a pixel (x, y) where the height difference ⁇ (x, y)> 0 corresponds to a disconnected portion.
- the processing device 42 calculates the number Nz of ink application in the Z-axis direction based on the obtained height difference ⁇ (x, y). Specifically, when the maximum value of the height difference ⁇ (x, y) is ⁇ max, the application height in the Z-axis direction of ink applied by one application operation is t, and the height correction amount is ⁇ t.
- the number of times of application Nz in the Z-axis direction is expressed by the following equation (6).
- the height correction amount ⁇ t is a maximum value of a decrease in coating height due to ink contraction in advance, assuming that the ink applied in the drying process (step S70 in FIG. 4) may shrink due to drying. This is added to ⁇ max.
- the height correction amount ⁇ t can be set by obtaining in advance an experiment or the like the difference between the height in the Z-axis direction of the ink application part immediately after application and the height in the Z-axis direction of the ink application part after drying. .
- the processing apparatus 42 further calculates the number of times of application Nx in the X-axis direction and the number of times of application Ny in the Y-axis direction. Specifically, when the ink application pitch, that is, the ink application interval is p, the number Nx of application in the X-axis direction is determined by the upper left coordinates (x1, y1) and the lower right coordinates (x2, y2) of the broken portion. Is calculated by the following equation (7).
- the number of times of application Ny in the Y-axis direction is calculated by the following equation (8) using the upper left corner coordinates (x1, y1) and the lower right corner coordinates (x2, y2) of the disconnected portion.
- the processing device 42 obtains the ink application position in the ink application operation based on the calculated application times Nx, Ny, Nz.
- the ink application position is three-dimensionally represented as the center coordinates (rx, ry, rz) of the ink application range.
- the coating pitch px in the X-axis direction, the coating pitch py in the Y-axis direction, and the coating pitch pz in the Z-axis direction are calculated using the following equation (9).
- FIG. 12 is a diagram illustrating the coating pitches px, py, and pz.
- nx, ny, and nz are index numbers for specifying the number of coatings in the X-axis direction, the Y-axis direction, and the Z-axis direction, respectively. That is, nx is an integer from 0 to Nx-1, ny is an integer from 0 to Ny-1, and nz is an integer from 0 to Nz-1.
- Bz in the expression (10) indicates the position of the Z stage 8 when the main surface of the normal wiring portion is focused. Bz can be acquired in advance in the above-described substrate shape measurement step (step S20 in FIG. 4).
- step S60 in FIG. 4 the control computer 11 controls the X stage 9 and the Y stage 10 to move the application needle 18 of the desired application unit 17 to the ink application position (rx, ry, rz). At this time, as shown in FIG. 3A, the tip of the application needle 18 is immersed in the ink in the ink tank 19.
- the application needle 18 is lowered to project the tip of the application needle 18 from the hole at the bottom of the ink tank 19. Further, as shown in FIG. 3C, the movable plate 15 is lowered by the Z stage 8 and the tip of the application needle 18 is brought into contact with the disconnection portion, whereby the ink application position (rx, ry, rz) is coated with ink. Thereafter, the state returns to the state of FIG.
- the control computer 11 includes a rectangular parallelepiped application range centered on the application position (rx + px / 2, ry + py / 2, rz + pz / 2), and a disconnected portion of the wiring pattern.
- the overlap judgment is performed.
- the rectangular parallelepiped application range is defined by the application pitches px, py, and pz with the application position (rx, ry, rz) as the center.
- the upper and lower limits of the X axis direction are rx + px / 2 ⁇ px
- the upper and lower limits of the Y axis are ry + py / 2 ⁇ py
- the upper and lower limits of the Z axis direction are rz + pz / 2 ⁇ pz.
- the control computer 11 first calculates the volume of the disconnected portion that occupies the application range. Then, when the calculated volume of the disconnected portion is equal to or greater than a predetermined threshold, the control computer 11 applies ink to the application range. On the other hand, when the volume of the broken portion occupying the application range is below the threshold, the control computer 11 does not apply ink to the application range.
- control computer 11 is located within a range of ⁇ px in the X-axis direction and ⁇ py in the Y-axis direction around the application position (rx + px / 2, ry + py / 2) in the XY coordinate system.
- the volume d (x, y) of the disconnected portion is calculated.
- the volume d (x, y) of the defective portion in the pixel (x, y) is the difference ⁇ (x, y) between the height Hp of the normal wiring portion and the height of the pixel (x, y) in the Z-axis direction.
- the coating pitch pz and the number of coating times Nz in the Z-axis direction it can be calculated by the following equation (11).
- the control computer 11 selects a defective portion from a plurality of pixels located within a range of ⁇ px in the X-axis direction and ⁇ py in the Y-axis direction around the coating position (rx + px / 2, ry + py / 2).
- a pixel (x, y) satisfying the volume d (x, y)> 0 is extracted, and a total value ds of the volumes d (x, y) of defective portions of the extracted pixel (x, y) is calculated.
- the calculated total value ds corresponds to the volume of the disconnected portion occupying a rectangular parallelepiped application range centered on the application position (rx + px / 2, ry + py / 2, rz + pz / 2).
- the control computer 11 compares the total value ds with a predetermined threshold value dT, and when the total value ds is equal to or greater than the threshold value dT, the application position (rx + px / 2, ry + py / 2, rz + pz / 2) is the center. Ink is applied to the application range. On the other hand, when the total value ds is smaller than the threshold value dT, ink is not applied to the application range.
- the computer 11 for control performs the overlap determination with the application range mentioned above and a defect location about each of a total of NxxNyxNz application positions. Then, the control computer 11 applies ink based on the determination result. Thereby, ink is filled in the defective part in a disconnection part.
- step S60 As shown in FIG. 4, after the ink application process (step S60) is performed, the substrate shape measurement process (step S10) and the disconnected portion shape detection process (step S20) are performed again. As a result, a location where the ink application amount is insufficient in the disconnected portion is newly detected. Subsequently, the application position calculation process (step S50) and the ink application process (step S60) are performed, so that the ink is filled in the portion where the ink application amount is insufficient.
- the control computer 11 performs the above-described substrate shape measurement step (step S10), disconnection portion shape detection step (step S20), application position calculation step (step S50), and ink application step (step S60). This is repeated until it is determined that the correction of the wiring pattern is unnecessary (when NO is determined in step S30). Thereby, a disconnection part can be corrected to the height equivalent to a normal wiring part. Note that if it is not determined that the correction of the wiring pattern is unnecessary even when the above-described series of steps are repeatedly performed a predetermined number of times (when YES is determined in step S30), it may be determined that the correction of the wiring pattern is impossible. Is possible.
- the control computer 11 controls the X stage 9 and the Y stage 10 so that the ink application formed on the surface of the substrate 7 immediately below the ink curing light source 6 is applied. Move the part.
- the ink curing light source 6 includes, for example, a CO 2 laser, and the ink is dried and cured by irradiating the ink application part with laser light.
- drying the ink such as irradiating the ink application part with infrared light and blowing high-temperature air on the ink application part.
- An appropriate drying method can be selected according to the type of correction ink to be used.
- an image is captured while the substrate and the objective lens are relatively moved in the vertical direction, and the focal position is determined for each of the plurality of pixels constituting the captured image.
- the focal position is determined for each of the plurality of pixels constituting the captured image.
- the ink application operation can be executed in accordance with the application position determined three-dimensionally, so that the processing operation can be automated even for the thick film wiring pattern. As a result, it is possible to improve work efficiency and save labor in the machining work.
- 1 defect correction device 2 observation optical system, 2a observation barrel, 3 CCD camera, 4 cutting laser device, 5 ink application mechanism, 6 ink curing light source, 7 liquid crystal color filter substrate, 8 Z stage, 9 X stage, 10 Y stage, 11 control computer, 12 monitor, 13 operation panel, 15 movable plate, 16 objective lens, 17 application unit, 18 application needle, 19 ink tank, 30 Mirau interference objective lens, 31 lens, 32 reference mirror, 33 beam splitter, 34 incident light source, 35 filter switching device, 36 filter, 37 half mirror, 38 imaging lens, 40 capture device, 42 processing device, 44 storage unit, 46 central processing unit.
Landscapes
- Engineering & Computer Science (AREA)
- Manufacturing & Machinery (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Manufacturing Of Printed Wiring (AREA)
Abstract
パターン修正方法は、対物レンズを基板に対して垂直方向に相対移動させながら、対物レンズからの干渉光を撮像装置で撮影し、撮影した画像を構成する複数の画素の各々について焦点位置を求め、求めた焦点位置に基づいて基板の表面の三次元形状を測定するステップ(S10)と、測定された基板の表面の三次元形状のデータを2値化処理して2値画像を生成することにより、断線部の三次元形状を検出するステップ(S20)と、検出された断線部の三次元形状に基づいて、液状材料を断線部に塗布するための三次元上の塗布位置を算出するステップ(S50)と、算出された三次元上の塗布位置に塗布針の先端を接触させることにより液状材料を塗布するステップ(S60)と、塗布された液状材料を乾燥するステップ(S70)とを備える。
Description
この発明は、パターン修正装置およびパターン修正方法に関し、特に、基板上に形成された配線パターンの断線部を修正する技術に関する。
先端径が数十μmの塗布針や、スポット径が数μm~数十μmのレーザ光を用いたパターン加工技術は、マイクロメートルオーダーの精密位置決め技術と組み合わせることにより、微細なパターンでも所定の位置に正確に加工することができるため、従来より、フラットパネルディスプレイの修正作業や、太陽電池のスクライブ作業などの利用されてきた(たとえば、特許文献1~3参照)。特に、塗布針を用いる加工技術は、ディスペンサが不得意とする粘度の高いペーストにも塗布できることから、最近では、フラットパネルディスプレイと比較して厚い10μm以上の膜の形成にも利用されている。たとえば、MEMSやセンサなどの半導体デバイスの電子回路パターンやプリント基板配線の形成に用いられる。また、将来的にも有望な製造技術であるプリンテッドエレクトロニクス技術で作製されるパターンも厚膜に分類され、今後の用途拡大が期待される加工技術である。
上述した微細加工においては、加工品位の向上とともに、作業を効率化、および作業内容を統一化するために、画像処理を利用することによる加工作業の自動化が進められている。たとえば、特開2009-122259号公報(特許文献2)には、液晶ディスプレイのカラーフィルタ基板の欠陥部の修正方法として、塗布針の先端部に付着した修正用インクを欠陥部に塗布して修正する方法が開示されている。特許文献1では、塗布されたインクの状態を観察光学系を用いて観察し、観察光学系によって観察される画像を基に加工部の品位を検査する手法が採用されている。
カラーフィルタ基板の欠陥修正方法として、特開2007-233299号公報(特許文献1)には、カラーフィルタ基板を撮影した画像において、欠陥検出対象の画素の明るさと、欠陥検出対象の画素以外の画素の明るさとを比較し、比較結果に基づいて欠陥検出対象の画素の欠陥を検出する方法が開示されている。特許文献1では、上記方法によって検出された欠陥部にインクを塗布することにより、当該欠陥部をインクで埋めている。
一般的に、カラーフィルタ基板上に形成されるパターンの膜厚は1μm以下程度である。そのため、インクの粘度にもよるが、欠陥部にインクを積層して塗布する必要性に乏しく、通常、欠陥部へのインクの塗布は1回で足りる。
しかしながら、たとえばプリント基板配線のように、10μm以上の厚膜を形成する場合には、配線パターンに発生した欠陥部である断線部も、平面形状から立体形状を有するようになる。そのため、断線部をインクで埋めるためには、欠陥部にインクを積層して塗布することが必要となってくる。この結果、厚膜になるに従って微細加工の作業内容が複雑化してしまうため、加工作業の自動化を推進させることが困難となっていた。
この発明は、かかる課題を解決するためになされたものであり、その目的は、厚膜の配線パターンの断線部の修正を正確かつ簡易に行なうことが可能なパターン修正装置およびパターン修正方法を提供することである。
この発明によるパターン修正方法は、基板上の配線パターンにおける断線部を修正するパターン修正装置におけるパターン修正方法である。パターン修正装置は、照明装置と、対物レンズと、観察光学系と、撮像装置と、塗布機構とを含む。照明装置は白色光を出力する。対物レンズは、照明装置から出射された白色光を二光束に分離して、一方を基板の表面に照射するとともに他方を参照面に照射し、これら両面からの反射光を干渉させた干渉光を得るように構成されている。観察光学系は干渉光を観察する。撮像装置は観察光学系を介して干渉光を撮影する。塗布機構は、塗布針の先端に付着した液状材料を断線部に塗布する。パターン修正方法は、基板の表面の三次元形状を測定するステップと、断線部の三次元形状を検出するステップと、三次元上の塗布位置を算出するステップと、液状材料を塗布するステップと、塗布された液状材料を乾燥するステップとを備える。基板の表面の三次元形状を測定するステップでは、対物レンズを基板に対して垂直方向に相対移動させながら撮像装置で画像を撮影する。撮影した画像を構成する複数の画素の各々について焦点位置を求め、求めた焦点位置に基づいて基板の表面の三次元形状を測定する。断線部の三次元形状を検出するステップでは、測定された基板の表面の三次元形状のデータを2値化処理して2値画像を生成する。三次元上の塗布位置を算出するステップでは、検出された断線部の三次元形状に基づいて、液状材料を断線部に塗布するための三次元上の塗布位置を算出する。液状材料を塗布するステップでは、算出された三次元上の塗布位置に塗布針の先端を接触させることにより液状材料を塗布する。
好ましくは、パターン修正方法は、基板の表面の三次元形状を測定するステップと、断線部の三次元形状を検出するステップと、三次元上の塗布位置を算出するステップと、液状材料を塗布するステップとをこの順で繰り返し実行することにより、断線部を修正する。
好ましくは、基板の三次元形状を測定するステップでは、第1段階の処理と、第2段階の処理とを実行する。第1段階の処理では、撮像装置の撮影周期内において、撮影した画像を構成する複数の画素の各々について、撮影した画像の輝度が最大になる前記位置決め装置の位置を焦点の候補位置とする。第2段階の処理では、撮像装置が全ての画像を撮像した後、画像を構成する複数の画素の各々について、第1段階の処理によって求められた焦点の候補位置の前後で撮影された画像の複数の輝度を基に求めたコントラスト値に基づいて焦点位置を求める。当該焦点位置に基づいて基板の表面の垂直方向の高さを検出する。
好ましくは、三次元上の塗布位置を算出するステップは、検出された断線部の三次元形状を、乾燥するステップによる液状材料の収縮量を用いて補正する。補正された断線部の三次元形状に基づいて三次元方向における塗布ピッチを算出する。算出された塗布ピッチを用いて、三次元上の塗布位置を算出する。
好ましくは、液状材料を塗布するステップでは、三次元上の塗布位置を中心とする液状材料の塗布範囲を占める断線部の体積に基づいて、当該塗布位置に液状材料を塗布するか否かを判定する。
この発明によるパターン修正装置は、基板上の配線パターンにおける断線部を修正するパターン修正装置である。パターン修正装置は、照明装置と、対物レンズと、観察光学系と、撮像装置と、位置決め装置と、塗布機構と、制御装置とを備える。照明装置は白色光を出力する。対物レンズは、照明装置から出射された白色光を二光束に分離して、一方を基板の表面に照射するとともに他方を参照面に照射し、これら両面からの反射光を干渉させて干渉光を得るように構成される。観察光学系は干渉光を観察する。撮像装置は、観察光学系を介して干渉光を撮影する。位置決め装置は、対物レンズと基板とを相対移動させる。塗布機構は、塗布針の先端に付着した液状材料を断線部に塗布する。制御装置は、撮像装置、位置決め装置および塗布機構を制御する。制御装置は、撮像装置および位置決め装置を制御し、対物レンズを基板に対して垂直方向に相対移動させながら撮像装置で画像を撮影する。制御装置は、撮影した画像を構成する複数の画素の各々について焦点位置を求め、求めた焦点位置に基づいて基板の表面の三次元形状を測定する。制御装置は続いて、測定された基板の表面の三次元形状のデータを2値化処理して2値画像を生成することにより、断線部の三次元形状を検出する。制御装置はさらに、検出された断線部の三次元形状に基づいて、液状材料を断線部に塗布するための三次元上の塗布位置を算出すると、塗布機構を制御し、算出された三次元上の塗布位置に塗布針の先端を接触させることにより液状材料を塗布する。最後に、制御装置は、塗布された液状材料を乾燥する。
好ましくは、制御装置は、基板の表面の三次元形状の測定、断線部の三次元形状の検出、三次元上の塗布位置の算出および液状材料の塗布を、この順で繰り返し実行することにより、断線部を修正する。
好ましくは、制御装置は、検出された断線部の三次元形状を、乾燥による液状材料の収縮量を用いて補正する。制御装置は、補正された断線部の三次元形状に基づいて三次元方向における塗布ピッチを算出するとともに、算出された塗布ピッチを用いて、三次元上の塗布位置を算出する。
この発明によれば、厚膜の配線パターンの断線部の修正を正確かつ簡易に行なうことが可能なパターン修正装置およびパターン修正方法を提供することができる。
以下、本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付してその説明は繰返さない。
[実施の形態1]
[パターン修正装置の構成]
図1は、この発明の実施の形態によるパターン修正装置1の全体構成を示す斜視図である。
[パターン修正装置の構成]
図1は、この発明の実施の形態によるパターン修正装置1の全体構成を示す斜視図である。
図1を参照して、パターン修正装置1は、観察光学系2、CCDカメラ3(撮像装置)、カット用レーザ装置4、インク塗布機構5、およびインク硬化用光源6から構成される修正ヘッド部と、この修正ヘッド部を修正対象の基板7に対して垂直方向(Z軸方向)に移動させるZステージ8と、Zステージ8を搭載してX軸方向に移動させるXステージ9と、基板7を搭載してY軸方向に移動させるYステージ10と、装置全体の動作を制御する制御用コンピュータ11(制御装置)と、CCDカメラ3によって撮影された画像などを表示するモニタ12と、制御用コンピュータ11に作業者からの指令を入力するための操作パネル13とを備える。
観察光学系2は、照明用の光源を含み、基板7の表面状態や、インク塗布機構5によって塗布された修正用インク(液状材料)の状態を観察する。観察光学系2によって観察される画像は、CCDカメラ3により電気信号に変換され、モニタ12に表示される。カット用レーザ装置4は、観察光学系2を介して基板7上の不要部にレーザ光を照射して除去する。
インク塗布機構5は、基板7上に形成された配線パターンに発生した断線部に修正用インクを塗布して修正する。インク硬化用光源6は、たとえばCO2レーザを含み、インク塗布機構5によって塗布されたインクにレーザ光を照射して硬化させる。
なお、この装置構成は一例であり、たとえば、観察光学系2などを搭載したZステージ8をXステージに搭載し、さらにXステージをYステージに搭載し、Zステージ8をXY方向に移動可能とするガントリー方式と呼ばれる構成でもよく、観察光学系2などを搭載したZステージ8を、修正対象の基板7に対してXY方向に相対的に移動可能な構成であればどのような構成でもよい。
次に、複数の塗布針を用いたインク塗布機構の例について説明する。図2は、観察光学系2およびインク塗布機構5の要部を示す斜視図である。図2を参照して、このパターン修正装置1は、可動板15と、倍率の異なる複数(たとえば5個)の対物レンズ16と、異なる色のインクを塗布するための複数(たとえば5個)の塗布ユニット17とを備える。
可動板15は、観察光学系2の観察鏡筒2aの下端と基板7との間で、X軸方向およびY軸方向に移動可能に設けられている。また、可動板15には、たとえば5個の貫通孔15aが形成されている。
対物レンズ16は、Y軸方向に所定の間隔で、それぞれ貫通孔15aに対応するように可動板15の下面に固定されている。5個の塗布ユニット17は、それぞれ5個の対物レンズ16に隣接して配置されている。可動板15を移動させることにより、所望の塗布ユニット17を修正対象の断線部の上方に配置することが可能となっている。
図3(a)~(c)は、図2のA方向から要部を見た図であって、インク塗布動作を示す図である。塗布ユニット17は、塗布針18とインクタンク19とを含む。まず図3(a)に示すように、所望の塗布ユニット17の塗布針18を修正対象の断線部の上方に位置決めする。このとき、塗布針18の先端部は、インクタンク19内のインクに浸漬されている。
次いで図3(b)に示すように、塗布針18を下降させてインクタンク19の底の孔から塗布針18の先端部を突出させる。このとき、塗布針18の先端部にはインクが付着している。次に図3(c)に示すように、塗布針18およびインクタンク19を下降させて塗布針18の先端部を断線部に接触させ、断線部にインクを塗布する。この後、図3(a)の状態に戻る。
複数の塗布針を用いたインク塗布機構は、この他にも様々な技術が知られているため詳細な説明を省略する。たとえば特許文献2などに示されている。パターン修正装置1は、たとえば図2に示すような機構をインク塗布機構5として用いることにより、複数のインクのうちの所望の色のインクを用いて断線部を修正することができ、また、複数の塗布針のうち所望の塗布径の塗布針を用いて断線部を修正することができる。
[パターン修正工程]
次に、図1に示したパターン修正装置1を用いて実行される、パターン修正工程の概要を説明する。
次に、図1に示したパターン修正装置1を用いて実行される、パターン修正工程の概要を説明する。
図4は、パターン修正工程を示すフローチャートである。図4を参照して、パターン修正工程は、基板形状測定工程(ステップS10)と、断線部形状検出工程(ステップS20)と、塗布位置算出工程(ステップS50)と、インク塗布工程(ステップS60)と、乾燥工程(ステップS70)とを備える。
基板形状測定工程(ステップS10)では、基板7の表面の三次元形状が測定される。基板形状測定工程では、基板7の表面に形成された配線パターンの三次元形状を測定することができる。
断線部形状検出工程(ステップS20)では、基板形状測定工程(ステップS10)で測定された基板7の表面の三次元形状を示すデータに基づいて、配線パターンに発生している断線部の三次元形状が検出される。
ステップS30では、断線部形状検出工程(ステップS20)での検出結果に基づいて、断線部を修正する必要があるか否かが判定される。具体的には、断線部形状検出工程(ステップS20)において配線パターンに断線部が検出されなかった場合には、断線部の修正が不要であると判定される(ステップS30のNO判定)。なお、後述するインク塗布工程(ステップS60)を実施した後にステップS30に戻り、断線部の修正が不要であると判定された場合には、断線部へのインクの充填が終了したと判断され、インクを乾燥するための乾燥工程(ステップS70)に移行する。
一方、断線部形状検出工程(ステップS20)において配線パターンに断線部が検出された場合には、断線部の修正が必要と判定される(ステップS30のYES判定)。この場合にはさらに、断線部の修正が可能であるか否かが判定される(ステップS40)。具体的には、インク塗布工程(ステップS60)を予め定められた回数繰り返し実施した後、ステップS30において断線部へのインクの充填が終了していないと判断された場合(ステップS30のYES判定時)には、断線部の修正が不可能であると判定される。
一方、断線部の修正が可能であると判定された場合(ステップS40のYES判定時)には、塗布位置算出工程(ステップS50)が実施される。塗布位置算出工程(ステップS50)では、断線部形状検出工程(ステップS20)で検出された断線部の三次元形状を示すデータに基づいて、インクを塗布する位置が算出される。
インク塗布工程(ステップS60)では、塗布位置算出工程(ステップS50)で算出されたインク塗布位置に従ってインク塗布機構5を制御することにより、基板7の表面にインクが塗布される。インク塗布工程(ステップS60)が実施された後、再び基板形状測定工程(ステップS10)に戻ることにより、断線部が修正された後の基板7の表面の三次元形状が測定される。さらに、断線部形状検出工程(ステップS20)に進み、基板7の表面の三次元形状に基づいて、断線部の三次元形状が検出される。断線部の三次元形状の検出結果から、上記のインク塗布工程(ステップS60)によって断線部へのインクの充填が終了しており、断線部の修正が不要と判断された場合(ステップS30のNO判定時)には、乾燥工程(ステップS70)が実施される。一方、配線パターンの修正が必要と判断された場合(ステップS30のYES判定時)には、再度、塗布位置算出工程(ステップS50)およびインク塗布工程(ステップS60)が実施されることになる。
以下、図4に示したパターン修正工程に含まれる各工程の詳細を説明する。
[基板形状測定工程]
基板形状測定工程(図4のステップS10)では、制御用コンピュータ11はパターン修正装置1を制御し、基板7の表面の三次元形状を測定する。図5は、基板7の表面に形成された配線パターンを概略的に示す部分平面図である。図5には、基板7の表面に正常に形成された配線部分(以下、「正常配線部」とも称す)と、部分的に断線部(図中の領域RGN)が生じている配線部分とが模式的に示されている。
[基板形状測定工程]
基板形状測定工程(図4のステップS10)では、制御用コンピュータ11はパターン修正装置1を制御し、基板7の表面の三次元形状を測定する。図5は、基板7の表面に形成された配線パターンを概略的に示す部分平面図である。図5には、基板7の表面に正常に形成された配線部分(以下、「正常配線部」とも称す)と、部分的に断線部(図中の領域RGN)が生じている配線部分とが模式的に示されている。
基板形状測定工程では、基板7の表面をXY座標系として、XY座標系に複数の測定ポイントをマトリクス状に設定する。そして、設定された複数の測定ポイントの各々について、Z軸方向の高さを検出することにより、基板7の表面の三次元形状を測定する。以下、各測定ポイントのZ軸方向の高さを検出する方法について説明する。
この高さ検出方法では、対物レンズ16に二光束干渉対物レンズを使用する。二光束干渉対物レンズでは焦点位置での干渉光強度が最大になることを利用し、Zステージ8を基板7に対して相対的に移動させながら干渉光の画像を撮像し、画素ごとに干渉光強度が最大になるZステージ位置を求め、その位置を当該画素の高さとする。この高さ測定方法は、数μm以下の微小な高さの検出に適している。
二光束干渉対物レンズは、光源から出射された白色光を二光束に分離して一方を対象物の表面に照射するとともに、他方を参照面に照射することにより、対象物の表面からの反射光と、参照面からの反射光とを干渉させるものである。本実施の形態では、ミラウ型干渉対物レンズを用いるが、マイケルソン型やリニーク型の干渉対物レンズを用いてもよい。
また、光源としては白色光源を用いることが好ましい。白色光源を用いた場合、レーザなどの単一波長の光源を用いる場合とは異なり、二光束干渉対物レンズの焦点位置でのみ干渉光強度が最大になる。このため、高さを測定するのに適している。
図6は、対物レンズ16にミラウ型干渉対物レンズ30を用いたときの観察光学系2の光学素子の配置図である。ミラウ型干渉対物レンズ30は、レンズ31、参照鏡32、およびビームスプリッタ33を含む。
対物レンズ16をミラウ型干渉対物レンズ30に切換えると同時に、落射光源34の出射部にフィルタ切換装置35によってフィルタ36を挿入する。落射光源34を出射した光がフィルタ36を通過すると、中心波長λ(nm)の白色光が得られる。
落射光源34として、たとえば白色LED(Light Emitting Diode)を用いてもよい。白色LEDの発光スペクトルは、波長450nmおよび560nmの2つのピークを有しているが、フィルタ36は、長波長側の560nmを中心とする光を選択的に透過させるローパスフィルタにより構成されることが好ましい。これは、450nmを中心とする光よりも、560nmを中心とする光の方が波長帯域が広いため、可干渉距離を短くできるからである。可干渉距離は、干渉縞を観測できる高さ方向の距離を示す。可干渉距離の短い方が、後述する第2段階で説明するコントラスト値の近似計算や重心計算で用いるデータ数を少なくすることができるため、処理の高速化が可能になる。
フィルタ36を通過した光は、ハーフミラー37でレンズ31の方向に反射される。レンズ31に入射した光は、ビームスプリッタ33で基板7の方向に通過する光と参照鏡32の方向に反射する光とに分けられる。基板7の表面で反射した光と参照鏡32の表面で反射した光とは再びビームスプリッタ33で合流し、レンズ31で集光される。この後、レンズ31から出た光は、ハーフミラー37を通過した後、結像レンズ38を経てCCDカメラ3の撮像面3aに入射する。
通常は、Zステージ8によりミラウ型干渉対物レンズ30を光軸方向に移動させて、基板7の表面反射光と参照鏡32の表面反射光との間に光路長差を生じさせる。そして、Zステージ8によりミラウ型干渉対物レンズ30を移動させながら、上記光路長差により発生する干渉光をCCDカメラ3で撮像する。この干渉光の強度、すなわち明るさは基板7からの反射光と参照鏡32からの反射光との光路長が等しいとき最大となる。また、このとき基板7の表面に焦点が合っている。
Zステージ8は、基板7とミラウ型干渉対物レンズ30とをZ軸方向に相対移動させる位置決め装置に相当する。なお、Zステージ8の他に、基板7自身をテーブルで上下させたり、ミラウ型干渉対物レンズ30と観察光学系2との連結部にピエゾテーブルを取り付けることによってミラウ型干渉対物レンズ30の位置を上下させてもよい。
次に、探索手順について説明する。Zステージ8を探索開始位置に移動させる。現在位置をZp、探索範囲をΔとおくと、たとえばZステージ8を初期位置(Zp-Δ/2)に移動させる。ここで、Zステージ8のマイナス方向を基板7に近付く方向とし、プラス方向を基板7から遠ざかる方向とする。探索は、初期位置(Zp-Δ/2)からプラス方向、すなわちZステージ8が基板7から遠ざかる方向に行なうこととする。したがって、初期位置(Zp-Δ/2)からプラス方向にΔの範囲を探索する。なお、探索方向は必ずしも基板7から遠ざかる方向である必要はなく、基板7に近付く方向であってもよい。
画像のサンプリングは、Zステージ8が移動を始め、定速状態になってから開始する。制御用コンピュータ11は一定周期でサンプリングを行なう。好ましくはCCDカメラ3の垂直同期信号の周期でサンプリングを行なうことにより、より正確に画像をサンプリングすることができる。
Zステージ8は予め定められた速度v(μm/秒)で移動する。Zステージ8の移動速度v(μm/秒)は次のように定める。白色光の中心波長をλ(μm)とし、CCDカメラ3の垂直同期信号の周波数をF(Hz)とすると、移動速度v(μm/秒)は、画像のサンプリング周期1/F(秒)の間にZステージ8がλ/8(μm)だけ移動するように定められる。すなわち、Zステージ8の移動速度vは、v=(λ/8)×F(μm/秒)となる。この移動速度vは白色光の位相増分でπ/2に相当し、ナイキスト原理を満たしている。位相をπ/2ずつ変化させることにより、干渉光強度のピーク点を容易に検出することができる。
位相をπ/2ずつ変化させながら画像をサンプリングしたとき、画像fiを中心とする前後±2枚の合計5枚の画像fi-2,fi-1,fi,fi+1,fi+2を用いてコントラスト値Miを次式(1)を用いて算出する。
ここで、fi(x,y)は画像fiの位置(x,y)における画素の輝度を示す。画像fiにおける各画素(x,y)は測定ポイントを構成する。なお、iは取得した順に画像に付された番号(以下「サンプル番号」ともいう)であって、i=1,2,・・・,N(Nは自然数)の値をとる。
図7(a)はサンプル番号iと輝度fi(x,y)との関係を示す図である。図7(b)はサンプル番号iとコントラスト値Miとの関係を示す図である。図7(c)はZステージ8の位置と移動速度との関係を示す図である。
図7(a)~(c)において、輝度fi(x,y)およびコントラスト値Miはともに画像pの近傍でピークを示している。このピーク点に対応するZステージ8の位置が画素(x,y)の焦点位置である。
上記式(1)で表わされるコントラスト値Miは、図7(a)に示す輝度fiの包絡線を示している。したがって、コントラスト値Miを演算すればピーク点を求めることができる。しかしながら、ここでは演算を高速に行なうため、平方根を求める演算および除算を行なわない。たとえば実際の計算では、次式(2)を用いて、コントラスト値Miを簡素化させたコントラスト値Mi♯を演算する。このコントラスト値Mi♯はコントラスト値Miを2乗した値に比例するため、コントラスト値Miに代えてコントラスト値Mi♯を用いても、包絡線のピーク点および画素の焦点位置がずれることはない。
基板形状測定工程は2段階の処理により構成される。第1段階の処理では、画像fiの各画素(x,y)について、輝度fi(x,y)が最大となるZステージ8の位置を求める。これは、図7(a)および(b)から分かるように、輝度fi(x,y)とコントラスト値Miとが、画素pの近傍において共にピークを示すことを利用している。すなわち、輝度fi(x,y)がピークとなる画像pを求めることによって、コントラスト値Miのピーク点の見当を付けることができる。これにより、第2段階の処理範囲を狭めることができるため、処理の高速化が可能になる。このように、第1段階の処理においては、撮影した画像を構成する複数の画素の各々について焦点の候補位置を求めるものである。
次に、第2段階の処理では、輝度fi(x,y)が最大となる画像pを中心とする前後±n枚(nは自然数)の合計(2n+1)枚の画像を選択して、上記式(2)によりコントラスト値Mi♯を演算する。そして、演算したコントラスト値Mi♯が最大となるZステージ8の位置を求め、このZステージ8の位置を画素(x,y)の最終的な焦点位置とする。すなわち、第2段階の処理は、第1段階の処理で求めた焦点の候補位置を基に、コントラスト値Mi♯を用いて正確な焦点位置を求めるものである。
図8は、基板形状測定工程を実行するための制御構成を示すブロック図である。図8を参照して、基板形状測定工程(ステップS10)に係る制御構成は、CCDカメラ3と、取込装置40と、処理装置42とから構成される。なお、取込装置40および処理装置42は、制御用コンピュータ11の内部に設けられる。
取込装置40は、一定周期(好ましくはCCDカメラ3の垂直同期信号の周期)で画像のサンプリングを行なう。具体的には、取込装置40は、CCDカメラ3の垂直同期信号をトリガとして、画像のサンプリングを開始する。そして、画像のサンプリングが完了すると、サンプリングした画像を直ちに処理装置42に転送する。このとき、取込装置40は、処理装置42の記憶部44に対して画像を直接的に転送する。この画像転送には、たとえばDMA(Direct Memory Access)転送が用いられる。取込装置40による画像のサンプリングおよび転送は、CCDカメラ3の垂直同期信号の周波数をF(Hz)とすると、画像のサンプリング周期1/F(秒)で繰り返し実行される。
処理装置42は、記憶部44と、中央処理部46とを含む。記憶部44には、画像のサンプリング周期1/F(秒)で取込装置40から画像fiが転送される。記憶部44は転送された画像fiを順番に記憶する。中央処理部46は、記憶部44に画像が転送された直後に、第1段階の処理である輝度fi(x,y)の最大値を求める処理を開始する。そして、中央処理部46は、この輝度fi(x,y)の最大値を求める処理を、次回の画像が転送されるタイミングの直前までに完了する。すなわち、第1段階の処理は、画像のサンプリング周期1/F(秒)の間に実行される。
(第1段階の処理)
以下、第1段階の処理である輝度fi(x,y)の最大値を求める処理の手順について詳細に説明する。
以下、第1段階の処理である輝度fi(x,y)の最大値を求める処理の手順について詳細に説明する。
図8において、記憶部44には、CCDカメラ3の解像度と同じ解像度となるように記憶セルが2次元に配列された記憶領域が3つ用意されている。これら3つの記憶領域のうち、第1の記憶領域には、画像fiの位置(x,y)における輝度fi(x,y)の最大値が格納される。すなわち、2次元配列された記憶セルの各々には、対応する画素(x,y)の輝度の最大値が格納される。以下の説明では、輝度fi(x,y)の最大値を“Max(x,y)”と表記する。
第2の記憶領域には、輝度fi(x,y)が最大となる画像fiを撮影したときのZステージ8の位置が格納される。すなわち、2次元配列された記憶セルの各々には、対応する画素(x,y)の輝度が最大となるときのZステージ8の位置が格納される。以下の説明では、輝度fi(x,y)が最大となるときのZステージ8の位置を“Pz(x,y)”と表記する。
第3の記憶領域には、輝度fi(x,y)が最大となる画像fiを撮影したときのサンプル番号iが格納される。すなわち、2次元配列された記憶セルの各々には、対応する画素(x,y)の輝度が最大となる画像fiのサンプル番号iが格納される。以下の説明では、輝度fi(x,y)が最大となる画像fiのサンプル番号iを“I(x,y)”と表記する。
なお、記憶部44に格納されるMax(x,y),Pz(x,y),I(x,y)の3つの値は、探索を開始する前の初期状態において「0」に設定されている。探索が開始されると、取込装置40から記憶部44に対して、画像がサンプリング周期1/F(秒)で順次転送される。中央処理部46は、画像fiの転送が完了すると、画素ごとに、輝度fi(x,y)とMax(x,y)とを比較し、比較結果に基づいてMax(x,y),Pz(x,y),I(x,y)の値を更新する。具体的には、中央処理部46は、画像fiの位置(x,y)における輝度fi(x,y)と、当該画素(x,y)の輝度の最大値Max(x,y)とを比較する。fi(x,y)≦Max(x,y)の関係が成り立つとき、中央処理部46は、Max(x,y)の値を維持する。このとき中央処理部46は、Pz(x,y)およびI(x,y)の値についても維持する。
これに対して、fi(x,y)>Max(x,y)の関係が成り立つときには、中央処理部46は、Max(x,y)の値を輝度fi(x,y)に書き換える。さらに中央処理部46は、Pz(x,y)の値を画素値fi(x,y)に対応するZステージ8の位置に書き換えるとともに、I(x,y)の値を輝度fi(x,y)のサンプル番号iに書き換える。
中央処理部46は、上述した輝度fi(x,y)とMax(x,y)との比較動作、および比較結果に応じた記憶部44の書換動作を、取込装置40から記憶部44に画像が転送されたタイミングから取込装置40が次回の画像のサンプリングを開始するタイミングまでの期間を使って実行する。たとえばCCDカメラ3の解像度を640×480とし、輝度fi(x,y)を1バイトと想定した場合、取込装置40から記憶部44に転送される画像データのサイズは307,200バイトとなる。一方、CCDカメラ3の垂直同期信号の周波数を120Hzとすると、画像のサンプリング周期は1/120秒となる。したがって、取込装置40は、1/120秒(約8.3m秒)ごとに307,200バイトの画像データを取込んで処理装置42の記憶部44へ転送する。取込装置40から記憶部44へのデータ転送は、DMA転送を用いることによって約2m秒の時間で行なうことができる。したがって、処理装置42は、サンプリング周期である約8.3m秒のうち、データ転送に要する約2m秒を除いた約6.3m秒の時間を利用して、輝度fi(x,y)の最大値を求める処理を実行する。
このようにして画像のサンプリング周期ごとに、データ転送後の空き時間を用いて第1段階の処理を実行する。これにより、探索範囲内のすべての画像のサンプリングが完了したときには、記憶部44には、各画素について、輝度fi(x,y)の最大値(=Max(x,y))、輝度fi(x,y)が最大となるときのZステージ8の位置(=Pz(x,y)、および輝度fi(x,y)が最大となる画像fiのサンプル番号(=I(x,y))が格納されている。
次に、第2段階の処理であるコントラスト値Mi♯が最大となるZステージ8の位置を求める処理の手順について詳細に説明する。第2段階の処理は、探索範囲内のすべての画像のサンプリングが完了した後、中央処理部46によって実行される。
中央処理部46は、記憶部44から、各画素について、輝度fi(x,y)が最大となるサンプル番号i(=I(x,y))を読み出す。そして、中央処理部46は、I(x,y)が示すサンプル番号iの画像fiを中心とする前後±n枚の合計(2n+1)枚の画像を用いて、コントラスト値Mi♯(x,y)のピーク点を求める。
具体的には、(2n+1)枚の画像の各々のサンプル番号をjとすると、サンプル番号jは、I(x,y)-n,I(x,y)-n+1,・・・,I(x,y)-1,I(x,y),I(x,y)+1,・・・,I(x,y)+n-1,I(x,y)+nの順で表わされる。中央処理部46は、画像fjの輝度fj(x,y)を上記式(3)に代入することにより、合計(2n+1)個のコントラスト値Mj♯(x,y)を算出する。
ここで、コントラスト値Mj♯(x,y)に対応するZステージ8の位置をZjとすると、Zjは次式(3)で表わすことができる。
図7(b)で説明したように、コントラスト値Mj♯はピーク点を中心とする左右対称の山型傾向を示すため、2次関数あるいはガウス関数を用いてコントラスト値Mj♯を示す曲線を近似することができる。そこで、中央処理部46は、コントラスト値Mj♯とZステージ8の位置Zjとの関係を2次関数あるいはガウス関数で近似し、求めた関数からコントラスト値Mj♯がピークとなるZステージ8の位置Zjを求める。そして、このZステージ8の位置Zjを画素(x,y)の高さとする。
以上に説明したように、基板形状測定工程においては、第1段階の処理として、撮影される画像を構成する複数の画素の各々について、輝度が最大になるZステージ位置を焦点の候補位置とする。その後、第2段階の処理として、焦点の候補位置の近傍で撮影した画像の輝度からコントラスト値を求め、画素ごとに、コントラスト値が最大になるZステージ位置を焦点位置として求める。そして、求めた焦点位置から、測定ポイントのZ軸方向の高さを検出する。
このような構成とすることにより、第1段階の処理において、各画素についてコントラスト値を演算する処理を省略できるため、制御用コンピュータ11における演算負荷を低減することができる。また、各画素のコントラスト値を記憶しておく必要がないため、大容量のメモリが不要となる。この結果、制御用コンピュータを安価に構成することができる。
また、第1段階の処理を、撮像装置の撮影周期(CCDカメラ3における画像のサンプリング周期)内の画像を転送した後の空き時間を利用して行なうことができるため、探索範囲内のすべての画像の撮影が完了した後の数値演算処理を軽減することができる。この結果、基板形状測定工程の作業時間を短縮することが可能となる。
なお、上述した第2段階の処理においては、コントラスト値Mi♯を2次関数あるいはガウス関数により近似する構成について説明したが、(2n+1)個のコントラスト値Mi♯の重心位置を求め、求めた重心位置をピーク位置としてよい。この重心位置は、図7(b)に示すような左右対称データの中心位置を示す。重心位置をZgとおくと、Zgは次式(4)を用いて算出できる。
[断線部形状検出工程]
断線部形状検出工程(図4のステップS20)では、制御用コンピュータ11は、基板7の表面の三次元形状を測定したデータに基づいて、配線パターンに発生した断線部の三次元形状を検出する。
断線部形状検出工程(図4のステップS20)では、制御用コンピュータ11は、基板7の表面の三次元形状を測定したデータに基づいて、配線パターンに発生した断線部の三次元形状を検出する。
具体的には、制御用コンピュータ11内部の処理装置42(図8参照)は、基板形状測定工程(図4のステップS10)で得られた、基板7の表面の三次元形状の測定データを用いて、配線パターンから断線部が抽出された画像(以下、「断線部抽出画像」とも称す)D(x,y)を生成する。
断線部抽出画像D(x,y)は、正常配線部が「1」であり、かつ、断線部を含む正常配線部以外の部分が「0」である、2値化された画像である。処理装置42は、測定ポイントのZ軸方向の高さをZ(x,y)とおく。なお、(x,y)は、上記の基板形状測定工程(ステップS20)において、CCDカメラ3で撮影ざれた画像上の画素の位置を表している。
処理装置42は、正常配線部のZ軸方向の高さをHpとしたときに、測定ポイントのZ軸方向の高さZ(x,y)と正常配線部のZ軸方向の高さHpとを比較する。測定ポイントの高さZ(x,y)と正常配線部の高さHpとの関係が次式(5)を満足するとき、対応する画素位置の値を「1」とする。一方、測定ポイントの高さZ(x,y)と正常配線部の高さHpとの関係が次式(5)を満たさないときには、対応する画素位置の値を「0」とする。なお、次式(5)中のαは、正常配線部の高さHpに対する許容誤差を示している。
2値画像である断線部抽出画像D(x,y)において、値が「0」の画素は、正常配線部以外の部分に相当する。したがって、値「0」の画素の中から、断線部を抽出することができる。具体的には、処理装置42は、配線パターンの連続性を利用し、正常配線部は検査エリア内では連続であるという特徴をもとに、値「0」の画素の中から断線部を抽出する。以下、配線パターンがY軸方向に連続している場合における断線部の抽出方法について説明する。
図9は、断線部の抽出方法を説明するための図である。処理装置42は、最初に、図9(a)に示すように、断線部抽出画像から検査エリア内における複数の画素からなる画像を取り込む。次に、処理装置42は、図9(b)に示すように、取り込んだ断線部抽出画像から値が「1」の画素の塊を検出し、当該塊の輪郭線を抽出する。そして、処理装置42は、各輪郭線におけるY軸方向の最大値および最小値を算出し、輪郭線ごとにY軸方向の最小値の座標を検出する。1つの輪郭線におけるY軸方向最小値(図中の黒丸に相当)が検査エリアの上端か左右端に接している場合、処理装置42は、当該輪郭線が正常配線部の輪郭線に相当すると判断する。一方、1つの輪郭線におけるY軸方向最小値が検査エリアの上端か左右端に接していない場合には、処理装置42は、当該輪郭線が正常配線部の輪郭線に相当しないと判断する。この場合、Y軸方向最小値を「欠陥候補点」として、その座標を記憶する。
なお、配線パターンがX軸方向に連続している場合には、処理装置42は、1つの輪郭線におけるX軸方向最小値が測定エリアの左端か上下端に接しているときに当該輪郭線が正常配線部の輪郭線に相当すると判断し、X軸方向最小値が測定エリアの左端か上下端に接していないときには、当該輪郭線が正常配線部の輪郭線に相当しないと判断する。この場合、X軸方向最小値を欠陥候補点として、その座標を記憶する。
同様にして、処理装置42は、輪郭線ごとにY軸方向最大値の座標を検出する。1つの輪郭線におけるY軸方向最大値(図中の白丸に相当)が検査エリアの下端か左右端に接している場合、処理装置42は、当該輪郭線が正常配線部の輪郭線に相当すると判断する。一方、1つの輪郭線におけるY軸方向最大値が測定エリアの下端か左右端に接していない場合には、処理装置42は、当該輪郭線が正常配線部の輪郭線に相当しないと判断する。この場合、Y軸方向最大値を欠陥候補点として、その座標を記憶する。
なお、配線パターンがX軸方向に連続している場合には、処理装置42は、1つの輪郭線におけるX軸方向最大値が測定エリアの右端か上下端に接しているときに当該輪郭線が正常配線部の輪郭線に相当すると判断し、X軸方向最大値が測定エリアの右端か上下端に接していないときには、当該輪郭線が正常配線部の輪郭線に相当しないと判断する。この場合、X軸方向最大値を欠陥候補点として、その座標を記憶する。
最後に、処理装置42は、記憶された欠陥候補点に基づいて、断線部を抽出する。このとき、制御用コンピュータ11は、欠陥候補点を頂点とした、値が「0」の画素の塊を、断線部として抽出する。
このようにして、断線部形状検出工程では、基板7の表面の三次元形状を、測定ポイントごとのZ軸方向の高さに基づいて2値画像に変換する。変換された2値画像から断線部を抽出することにより、断線部の三次元形状を検出することができる。
[塗布位置算出工程]
塗布位置算出工程(図4のステップS50)では、制御用コンピュータ11内部の処理装置42は、断線部形状検出工程(図4のステップS20)で検出された断線部の三次元形状に基づいて、修正インクの三次元上の塗布位置を決定する。図10は、断線部の一例を拡大して示す模式図である。図10に点線で示されるように、処理装置42は、断線部に外接する矩形領域を設定する。この矩形領域は、左上端座標(x1,y1)および右下端座標(x2,y2)を頂点とする。処理装置42は、矩形領域内に位置する画素(x,y)について、正常配線部のZ軸方向の高さHpと、画素のZ軸方向の高さZ(x,y)との高低差Δ(x,y)を算出する。
塗布位置算出工程(図4のステップS50)では、制御用コンピュータ11内部の処理装置42は、断線部形状検出工程(図4のステップS20)で検出された断線部の三次元形状に基づいて、修正インクの三次元上の塗布位置を決定する。図10は、断線部の一例を拡大して示す模式図である。図10に点線で示されるように、処理装置42は、断線部に外接する矩形領域を設定する。この矩形領域は、左上端座標(x1,y1)および右下端座標(x2,y2)を頂点とする。処理装置42は、矩形領域内に位置する画素(x,y)について、正常配線部のZ軸方向の高さHpと、画素のZ軸方向の高さZ(x,y)との高低差Δ(x,y)を算出する。
図11は、矩形領域内に位置する各画素の高低差Δ(x,y)をプロットした図である。図11において、高低差Δ(x,y)=0となる画素(x,y)は正常配線部に相当する。一方、高低差Δ(x,y)>0となる画素(x,y)は断線部に相当する。
処理装置42は、得られた高低差Δ(x,y)に基づいて、Z軸方向におけるインクの塗布回数Nzを算出する。具体的には、高低差Δ(x,y)の最大値をΔmaxとし、1回の塗布動作によって塗布されるインクのZ軸方向の塗布高さをtとし、高さ補正量をΔtとすると、Z軸方向の塗布回数Nzは次式(6)で表される。
ここで、ceiling()は、「指定された数以上のうち、最小の整数を返す」関数である。なお、高さ補正量Δtとは、乾燥工程(図4のステップS70)で塗布されたインクが乾燥によって収縮する可能性を見込んで、インクの収縮による塗布高さの減少分を、予め最大値Δmaxに上乗せしておくものである。高さ補正量Δtは、塗布直後のインク塗布部のZ軸方向の高さと、乾燥後のインク塗布部のZ軸方向の高さとの差を予め実験等で求めることにより、設定することができる。
処理装置42はさらに、X軸方向における塗布回数NxおよびY軸方向における塗布回数Nyを算出する。具体的には、インクの塗布ピッチ、すなわちインク塗布の間隔をpとした場合、X軸方向における塗布回数Nxは、断線部の左上端座標(x1,y1)および右下端座標(x2,y2)を用いて、次式(7)により算出される。
同様にして、Y軸方向における塗布回数Nyは、断線部の左上端座標(x1,y1)および右下端座標(x2,y2)を用いて、次式(8)により算出される。
次に、処理装置42は、算出された塗布回数Nx,Ny,Nzに基づいて、インク塗布動作におけるインクの塗布位置を求める。インクの塗布位置は、インク塗布範囲の中心座標(rx,ry,rz)として三次元的に表される。最初に、X軸方向における塗布ピッチpx、Y軸方向における塗布ピッチpy、およびZ軸方向における塗布ピッチpzが、次式(9)を用いて算出される。図12は、塗布ピッチpx,py,pzを示す図である。
ただし、Nx=1のときpx=0とし、Ny=1のときpy=0とし、Nz=1のときpz=0とする。次に、塗布ピッチpx,py,pzを用いて、インクの塗布位置(rx,ry,rz)が、次式(10)を用いて算出される。
式(10)中のnx,ny,nzはそれぞれ、X軸方向、Y軸方向およびZ軸方向における塗布回数を特定するためのインデックス番号である。すなわち、nxは0以上Nx-1以下の整数であり、nyは0以上Ny-1以下の整数であり、nzは0以上Nz-1以下の整数である。
また、式(10)中のBzは、正常配線部の主表面に焦点を合わせたときのZステージ8の位置を示している。なお、Bzは上記の基板形状測定工程(図4のステップS20)において、予め取得しておくことができる。
[インク塗布工程]
インク塗布工程(図4のステップS60)では、制御用コンピュータ11は、Xステージ9およびYステージ10を制御することにより、所望の塗布ユニット17の塗布針18を、インク塗布位置(rx,ry,rz)に移動させる。このとき、図3(a)に示されるように、塗布針18の先端部は、インクタンク19内のインクに浸漬されている。
インク塗布工程(図4のステップS60)では、制御用コンピュータ11は、Xステージ9およびYステージ10を制御することにより、所望の塗布ユニット17の塗布針18を、インク塗布位置(rx,ry,rz)に移動させる。このとき、図3(a)に示されるように、塗布針18の先端部は、インクタンク19内のインクに浸漬されている。
次に、図3(b)に示すように、塗布針18を下降させてインクタンク19の底の孔から塗布針18の先端部を突出させる。さらに、図3(c)に示すように、Zステージ8によって可動板15を下降させて、塗布針18の先端部を断線部に接触させることにより、断線部におけるインク塗布位置(rx,ry,rz)にインクを塗布する。この後、図3(a)の状態に戻る。
塗布位置算出工程(図4のステップS50)により算出された塗布位置は、合計でNx×Ny×Nz個存在する。各塗布位置に対してインク塗布動作を行なう際、制御用コンピュータ11は、塗布位置(rx+px/2,ry+py/2,rz+pz/2)を中心とする直方体状の塗布範囲と、配線パターンの断線部との重なり判定を行なう。ここで、直方体状の塗布範囲は、塗布位置(rx,ry,rz)を中心とし、塗布ピッチpx,py,pzにより規定される。すなわち、塗布範囲は、X軸方向の上下限値をrx+px/2±pxとし、Y軸方向の上下限値をry+py/2±pyとし、Z軸方向の上下限値をrz+pz/2±pzとする。
重なり判定において、制御用コンピュータ11は、まず、上記塗布範囲を占める断線部の体積を算出する。そして、算出した断線部の体積が所定の閾値以上となる場合に、制御用コンピュータ11は、その塗布範囲に対してインクを塗布する。一方、塗布範囲を占める断線部の体積が閾値を下回る場合には、制御用コンピュータ11は、その塗布範囲にはインクの塗布を行なわない。
具体的には、制御用コンピュータ11は、XY座標系での塗布位置(rx+px/2,ry+py/2)を中心としてX軸方向に±px、およびY軸方向に±pyの範囲内に位置する画素(x,y)について、断線部の体積d(x,y)を算出する。画素(x,y)における欠陥箇所の体積d(x,y)は、正常配線部の高さHpと画素(x,y)の高さとの高低差Δ(x,y)、Z軸方向における塗布ピッチpz、およびZ軸方向の塗布回数Nzを用いて、次式(11)により算出することができる。
制御用コンピュータ11は、塗布位置(rx+px/2,ry+py/2)を中心としてX軸方向に±px、およびY軸方向に±pyの範囲内に位置する複数の画素の中から、欠陥箇所の体積d(x,y)>0となる画素(x,y)を抽出し、その抽出した画素(x,y)の欠陥箇所の体積d(x,y)の合計値dsを算出する。算出された合計値dsは、塗布位置(rx+px/2,ry+py/2,rz+pz/2)を中心とする直方体状の塗布範囲を占める断線部の体積に相当する。制御用コンピュータ11は、合計値dsと所定の閾値dTとを比較し、合計値dsが閾値dT以上となる場合に、塗布位置(rx+px/2,ry+py/2,rz+pz/2)を中心とする塗布範囲に対してインクを塗布する。一方、合計値dsが閾値dTより小さくなる場合には、当該塗布範囲に対してインクの塗布を行なわない。
制御用コンピュータ11は、合計Nx×Ny×Nz個の塗布位置の各々について、上述した塗布範囲と欠陥箇所との重なり判定を行なう。そして、制御用コンピュータ11は、その判定結果に基づいてインクを塗布する。これにより、断線部における欠陥箇所にインクが充填される。
図4に示されるように、インク塗布工程(ステップS60)が実施された後には、基板形状測定工程(ステップS10)および断線部形状検出工程(ステップS20)が再び実施される。これにより、断線部においてインク塗布量が不足している箇所が新たに検出される。続けて塗布位置算出工程(ステップS50)およびインク塗布工程(ステップS60)が実施されることにより、インク塗布量が不足している箇所に対して、インクが充填されることになる。
制御用コンピュータ11は、上述した基板形状測定工程(ステップS10)、断線部形状検出工程(ステップS20)、塗布位置算出工程(ステップS50)およびインク塗布工程(ステップS60)を、断線部へのインクの充填が終了しており、配線パターンの修正が不要と判断されるまで(ステップS30のNO判定時)、繰り返し実施する。これにより、断線部を正常配線部と同等の高さにまで修正することができる。なお、上記一連の工程を所定回数繰り返し実施しても、配線パターンの修正が不要と判断されない場合(ステップS30のYES判定時)には、配線パターンの修正が不可能であると判断することも可能である。
[乾燥工程]
乾燥工程(図4のステップS70)では、制御用コンピュータ11は、Xステージ9およびYステージ10を制御することにより、インク硬化用光源6の直下に、基板7の表面上に形成されたインク塗布部を移動させる。インク硬化用光源6は、たとえばCO2レーザを含み、レーザ光をインク塗布部に照射することによりインクを乾燥させて硬化させる。
乾燥工程(図4のステップS70)では、制御用コンピュータ11は、Xステージ9およびYステージ10を制御することにより、インク硬化用光源6の直下に、基板7の表面上に形成されたインク塗布部を移動させる。インク硬化用光源6は、たとえばCO2レーザを含み、レーザ光をインク塗布部に照射することによりインクを乾燥させて硬化させる。
なお、インクの乾燥方法としては、上記の方法のほかに、インク塗布部に赤外光を照射する、インク塗布部に高温の風を吹き付けるなどの方法がある。使用する修正用インクの種類に応じて、適当な乾燥方法を選択することができる。
このように、本発明の実施の形態によるパターン修正装置によれば、基板と対物レンズとを上下方向に相対移動させながら画像を撮影し、撮影した画像を構成する複数の画素の各々について焦点位置を求めることにより、求めた焦点位置に基づいて、基板表面の三次元形状を検出することができる。これにより、検出された基板表面の三次元形状に基づいて、配線パターンに発生している断線部の三次元形状を検出することが可能となる。そして、断線部の三次元形状が検出可能となることにより、当該断線部を修正するための修正用インクの塗布位置を三次元的に決定することができる。これによれば、たとえば10μm以上の厚膜の配線パターンに対しても、その断線部に正確にインクを積層して塗布することが可能となる。
さらに、上記のように、三次元的に決定された塗布位置に従ってインクの塗布動作を実行可能となることにより、厚膜の配線パターンに対しても加工作業を自動化することができる。この結果、作業効率を向上させるとともに、加工作業の省人化を実現することができる。
今回開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて請求の範囲によって示されおよび範囲内でのすべての変更が含まれることが意図される。
1 欠陥修正装置、2 観察光学系、2a 観察鏡筒、3 CCDカメラ、4 カット用レーザ装置、5 インク塗布機構、6 インク硬化用光源、7 液晶カラーフィルタ基板、8 Zステージ、9 Xステージ、10 Yステージ、11 制御用コンピュータ、12 モニタ、13 操作パネル、15 可動板、16 対物レンズ、17 塗布ユニット、18 塗布針、19 インクタンク、30 ミラウ型干渉対物レンズ、31 レンズ、32 参照鏡、33 ビームスプリッタ、34 落射光源、35 フィルタ切換装置、36 フィルタ、37 ハーフミラー、38 結像レンズ、40 取込装置、42 処理装置、44 記憶部、46 中央処理部。
Claims (8)
- 基板上の配線パターンにおける断線部を修正するパターン修正装置におけるパターン修正方法であって、
前記パターン修正装置は、白色光を出力する照明装置と、前記照明装置から出射された白色光を二光束に分離して、一方を前記基板の表面に照射するとともに他方を参照面に照射し、これら両面からの反射光を干渉させ干渉光を得るための対物レンズと、前記干渉光を観察する観察光学系と、前記観察光学系を介して前記干渉光を撮影する撮像装置と、前記対物レンズと前記基板とを相対移動させる位置決め装置と、塗布針の先端に付着した液状材料を前記断線部に塗布するための塗布機構とを含み、
前記対物レンズを前記基板に対して垂直方向に相対移動させながら前記撮像装置で画像を撮影し、撮影した画像を構成する複数の画素の各々について焦点位置を求め、求めた焦点位置に基づいて前記基板の表面の三次元形状を測定するステップと、
測定された前記基板の表面の三次元形状のデータを2値化処理して2値画像を生成することにより、前記断線部の三次元形状を検出するステップと、
検出された前記断線部の三次元形状に基づいて、前記液状材料を前記断線部に塗布するための三次元上の塗布位置を算出するステップと、
算出された前記三次元上の塗布位置に前記塗布針の先端を接触させることにより前記液状材料を塗布するステップと、
塗布された前記液状材料を乾燥するステップとを備える、パターン修正方法。 - 前記パターン修正方法は、前記基板の表面の三次元形状を測定するステップと、前記断線部の三次元形状を検出するステップと、前記三次元上の塗布位置を算出するステップと、前記液状材料を塗布するステップとをこの順で繰り返し実行することにより、前記断線部を修正する、請求項1に記載のパターン修正方法。
- 前記基板の三次元形状を測定するステップでは、前記撮像装置の撮影周期内において、前記撮影した画像を構成する複数の画素の各々について、前記撮影した画像の輝度が最大になる前記位置決め装置の位置を焦点の候補位置とする第1段階の処理と、
前記撮像装置が全ての画像を撮像した後、画像を構成する複数の画素の各々について、前記第1段階の処理によって求められた前記焦点の候補位置の前後で撮影された画像の複数の輝度を基に求めたコントラスト値に基づいて焦点位置を求め、当該焦点位置に基づいて前記基板の表面の垂直方向の高さを検出する第2段階の処理とを実行する、請求項1または2に記載のパターン修正方法。 - 前記三次元上の塗布位置を算出するステップは、
検出された前記断線部の三次元形状を、前記乾燥するステップによる前記液状材料の収縮量を用いて補正し、補正された前記断線部の三次元形状に基づいて三次元方向における塗布ピッチを算出するステップと、
算出された前記塗布ピッチを用いて、前記三次元上の塗布位置を算出するステップとを含む、請求項1または2に記載のパターン修正方法。 - 前記液状材料を塗布するステップでは、前記三次元上の塗布位置を中心とする前記液状材料の塗布範囲を占める前記断線部の体積に基づいて、当該塗布位置に前記液状材料を塗布するか否かを判定する、請求項1または2に記載のパターン修正方法。
- 基板上の配線パターンにおける断線部を修正するパターン修正装置であって、
白色光を出力する照明装置と、
前記照明装置から出射された白色光を二光束に分離して、一方を前記基板の表面に照射するとともに他方を参照面に照射し、これら両面からの反射光を干渉させ干渉光を得るための対物レンズと、
前記干渉光を観察する観察光学系と、
前記観察光学系を介して前記干渉光を撮影する撮像装置と、
前記対物レンズと前記基板とを相対移動させる位置決め装置と、
塗布針の先端に付着した液状材料を前記断線部に塗布するための塗布機構と、
前記撮像装置、前記位置決め装置および前記塗布機構を制御する制御装置とを備え、
前記制御装置は、
前記撮像装置および前記位置決め装置を制御し、前記対物レンズを前記基板に対して垂直方向に相対移動させながら前記撮像装置で画像を撮影し、撮影した画像を構成する複数の画素の各々について焦点位置を求め、求めた焦点位置に基づいて前記基板の表面の三次元形状を測定し、
測定された前記基板の表面の三次元形状のデータを2値化処理して2値画像を生成することにより、前記断線部の三次元形状を検出し、
検出された前記断線部の三次元形状に基づいて、前記液状材料を前記断線部に塗布するための三次元上の塗布位置を算出し、
前記塗布機構を制御し、算出された前記三次元上の塗布位置に前記塗布針の先端を接触させることにより前記液状材料を塗布し、
塗布された前記液状材料を乾燥する、パターン修正装置。 - 前記制御装置は、前記基板の表面の三次元形状の測定、前記断線部の三次元形状の検出、前記三次元上の塗布位置の算出および前記液状材料の塗布を、この順で繰り返し実行することにより、前記断線部を修正する、請求項6に記載のパターン修正装置。
- 前記制御装置は、検出された前記断線部の三次元形状を、乾燥による前記液状材料の収縮量を用いて補正し、補正された前記断線部の三次元形状に基づいて三次元方向における塗布ピッチを算出するとともに、算出された前記塗布ピッチを用いて、前記三次元上の塗布位置を算出する、請求項6または7に記載のパターン修正装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015021201A JP6557014B2 (ja) | 2015-02-05 | 2015-02-05 | パターン修正装置およびパターン修正方法 |
JP2015-021201 | 2015-02-05 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2016125521A1 true WO2016125521A1 (ja) | 2016-08-11 |
Family
ID=56563873
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2016/050245 WO2016125521A1 (ja) | 2015-02-05 | 2016-01-06 | パターン修正装置およびパターン修正方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6557014B2 (ja) |
WO (1) | WO2016125521A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020090116A1 (ja) * | 2018-11-02 | 2020-05-07 | 株式会社Fuji | 回路製造システム |
KR102468061B1 (ko) * | 2020-11-24 | 2022-11-18 | 참엔지니어링(주) | 리페어 장치 및 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006261228A (ja) * | 2005-03-15 | 2006-09-28 | Kitakyushu Foundation For The Advancement Of Industry Science & Technology | 回路基板用配線パターン形成装置および配線パターンの補修方法 |
WO2014208362A1 (ja) * | 2013-06-25 | 2014-12-31 | Ntn株式会社 | 塗布装置および高さ検出方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008288274A (ja) * | 2007-05-15 | 2008-11-27 | Ntn Corp | パターン修正装置 |
-
2015
- 2015-02-05 JP JP2015021201A patent/JP6557014B2/ja not_active Expired - Fee Related
-
2016
- 2016-01-06 WO PCT/JP2016/050245 patent/WO2016125521A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006261228A (ja) * | 2005-03-15 | 2006-09-28 | Kitakyushu Foundation For The Advancement Of Industry Science & Technology | 回路基板用配線パターン形成装置および配線パターンの補修方法 |
WO2014208362A1 (ja) * | 2013-06-25 | 2014-12-31 | Ntn株式会社 | 塗布装置および高さ検出方法 |
Also Published As
Publication number | Publication date |
---|---|
JP6557014B2 (ja) | 2019-08-07 |
JP2016143859A (ja) | 2016-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2015105169A1 (ja) | 高さ検出装置、塗布装置および高さ検出方法 | |
CN103162641B (zh) | 三维测量装置 | |
US11402195B2 (en) | Height detection apparatus and coating apparatus equipped with the same | |
JP6189102B2 (ja) | 塗布装置および高さ検出方法 | |
JP6389081B2 (ja) | 形状測定装置、塗布装置および形状測定方法 | |
CN103162642B (zh) | 三维测量装置 | |
JP6557014B2 (ja) | パターン修正装置およびパターン修正方法 | |
KR101121992B1 (ko) | 실장 검사 데이터 형성방법, 이를 저장한 저장매체 및 이를 이용하는 검사장치 | |
US8925186B2 (en) | System and method for picking and placement of chip dies | |
TWI730029B (zh) | 微小突起之體積測定方法以及液狀材料之塗敷方法 | |
JP2017062160A (ja) | 欠陥検査装置および欠陥検査方法 | |
JP6799046B2 (ja) | 塗布方法および塗布装置 | |
JP6333351B1 (ja) | 測定装置、塗布装置、および膜厚測定方法 | |
JP6665028B2 (ja) | 形状測定装置およびそれを搭載した塗布装置 | |
US11326871B2 (en) | Height detection apparatus and coating apparatus equipped with the same | |
KR102726365B1 (ko) | 다파장 조명광을 이용한 미니 엘이디 3차원 측정 시스템 | |
WO2016204062A1 (ja) | 形状測定装置およびそれを搭載した塗布装置 | |
KR20230126751A (ko) | 다파장 조명광을 이용한 미니 엘이디 3차원 측정 시스템 | |
JP2002081924A (ja) | 三次元計測装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16746352 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 16746352 Country of ref document: EP Kind code of ref document: A1 |