WO2017146330A1 - 진직도 측정 장치 및 방법 - Google Patents

진직도 측정 장치 및 방법 Download PDF

Info

Publication number
WO2017146330A1
WO2017146330A1 PCT/KR2016/010140 KR2016010140W WO2017146330A1 WO 2017146330 A1 WO2017146330 A1 WO 2017146330A1 KR 2016010140 W KR2016010140 W KR 2016010140W WO 2017146330 A1 WO2017146330 A1 WO 2017146330A1
Authority
WO
WIPO (PCT)
Prior art keywords
photographing unit
photographed image
photographing
straightness
image
Prior art date
Application number
PCT/KR2016/010140
Other languages
English (en)
French (fr)
Inventor
허진
Original Assignee
(주)이오테크닉스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)이오테크닉스 filed Critical (주)이오테크닉스
Publication of WO2017146330A1 publication Critical patent/WO2017146330A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K26/00Working by laser beam, e.g. welding, cutting or boring
    • B23K26/02Positioning or observing the workpiece, e.g. with respect to the point of impact; Aligning, aiming or focusing the laser beam
    • B23K26/03Observing, e.g. monitoring, the workpiece
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q17/00Arrangements for observing, indicating or measuring on machine tools
    • B23Q17/24Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/04Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness specially adapted for measuring length or width of objects while moving
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/06Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/08Measuring arrangements characterised by the use of optical techniques for measuring diameters
    • G01B11/10Measuring arrangements characterised by the use of optical techniques for measuring diameters of objects while moving

Definitions

  • An apparatus and method for measuring the straightness in the direction in which an object is processed is processed.
  • the machining process of forming a marking pattern on an object or cutting an object includes mechanical processing and laser processing.
  • the laser processing process refers to a process of processing the shape or physical properties of the surface of the workpiece by scanning a laser beam on the surface of the workpiece.
  • the moving stage may change the machining position while the object is moving linearly or the machining equipment is moving linearly.
  • the movement trajectory of the movement stage may not follow an ideal straight line by vibrating machine tolerances.
  • the degree of deviation from the straight line due to machining is called straightness in the machining direction.
  • a process of checking the machining error by measuring the straightness is required.
  • the accuracy of the straightness measurement in the direction of processing the object can be increased.
  • a straightness measuring method is provided such that the line width of the reference line appearing in the captured image is smaller than the resolution of the photographing unit as the photographing position moves.
  • the straightness measuring apparatus may photograph the reference line displayed on the object while the photographing position is moved along the processing direction. Therefore, the straightness measuring device may have a high speed of straightness measurement unlike the case of measuring in a state where the photographing position is stopped. In addition, the straightness measuring device may prevent the position of the reference line due to the blurring of the image generated as the photographing position is moved to unclear. Therefore, the photographing accuracy of the straightness measuring device can be increased.
  • 1 exemplarily shows a laser processing process of an object.
  • FIG. 2 is a diagram illustrating an example of a surface of an object.
  • FIG. 3 is a diagram schematically illustrating a straightness measurement apparatus according to an exemplary embodiment.
  • FIG. 4 is a flowchart illustrating a method of measuring straightness using the straightness measuring device shown in FIG. 3.
  • FIG. 5 is a view for explaining a change in the line width of the above-described reference line.
  • FIG. 6 is a view showing that the position of the reference line changes as the photographing position moves along the processing direction during the exposure time.
  • FIG. 7 is a diagram illustrating an increase in the line width of a reference line in a captured image.
  • FIG. 8 is a diagram illustrating an example of a captured image photographed by a photographing unit.
  • FIG. 9 is a diagram illustrating an example of listing a plurality of captured images received by a processor.
  • FIG. 10 is a diagram illustrating an example of a captured image.
  • FIG. 11 is a diagram illustrating binarization of the photographed image illustrated in FIG. 10.
  • FIG. 12 illustrates an image obtained by converting the photographed image illustrated in FIG. 10 into a plurality of preset brightness values.
  • a straightness measuring method is provided such that the line width of the reference line appearing in the captured image is smaller than the resolution of the photographing unit as the photographing position moves.
  • the photographing unit The photographing unit,
  • the line width of the reference line may be smaller than 1/2 of the resolution of the photographing unit.
  • An exposure time for photographing the photographed image and a speed of moving the photographing position may satisfy Equation 1.
  • V machining position movement speed
  • E exposure time
  • angle between machining direction and reference line
  • P pixel size
  • M magnification
  • the length of the first direction and the length of the second direction of the photographed image may be different from each other.
  • the photographed image may be photographed as a line image.
  • the method may include converting the captured image into a binarized image based on the brightness of the captured image, and identifying a position of the reference line from the binarized image.
  • the straightness measuring method may further include generating a pulse signal as the photographing position changes.
  • the acquiring of the captured image may be synchronized by the pulse signal to acquire the captured image.
  • a photographing unit obtaining a photographed image of reference lines displayed on an object
  • a moving stage for moving a photographing position of the photographing unit along a processing direction of the object
  • the processor is provided with a straightness measuring device for rotating the object so that the line width of the reference line appearing in the photographed image is smaller than the resolution of the photographing unit as the photographing position moves.
  • the processor executes
  • the photographing unit may be controlled such that the line width of the reference line is smaller than 1/2 of the resolution of the photographing unit.
  • the processor executes
  • the photographing unit and the moving stage may be controlled such that the speed at which the photographing position moves and the exposure time of the photographing unit satisfy Equation 1.
  • V machining position movement speed
  • E exposure time
  • angle between machining direction and reference line
  • P pixel size
  • M magnification
  • the photographing unit The photographing unit,
  • the length of the first direction and the length of the second direction of the photographed image may be different from each other.
  • the photographing unit The photographing unit,
  • the photographed image may be photographed as a line image.
  • the processor executes
  • the captured image may be converted into a binarized image based on the brightness of the captured image.
  • the linearity measuring device further includes an encoder for generating pulse signals as the photographing position changes.
  • the photographing unit may be synchronized with the pulse signal to obtain the photographed image.
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms are only used to distinguish one component from another.
  • unit and “module” described in the specification mean a unit that processes at least one function or operation.
  • FIG. 1 is a view showing a laser processing process of the object 10 by way of example.
  • the object 10 may be seated on the chuck 20.
  • the light source 112 may irradiate a laser beam toward the object 10.
  • the position at which the light source 112 irradiates the laser beam to the object 10 may be changed by the moving stage 130.
  • the movement stage 130 may move the chuck 20 on which the object 10 is mounted along a straight line (y-axis direction). As the moving stage 130 moves the chuck 20, the object 10 may move to form a laser marking pattern in a straight line on the object 10.
  • FIG. 1 illustrates a laser processing process by way of example, but the processing process to which the embodiment may be applied is not limited thereto.
  • the embodiments described herein may be applied to mechanical grooving, cutting processes, and the like.
  • the object 10 may include a wafer, a semiconductor chip, etc. as an object to be photographed, but is not limited thereto.
  • the moving direction of the processing schedule line of the object 10 and the processing position of the object 10 must match. Therefore, the direction in which the object 10 is arranged on the chuck 20 may be aligned with the processing direction.
  • the object 10 may include a plurality of semiconductor chips 11 arranged in a lattice shape.
  • Identifiable reference lines L and L ' may be displayed on the surface of the object 10.
  • the reference lines L and L ' may be straight lines, such as the cut line L, or may be in the form of line segments such as the edge L' of the semiconductor chip 11. That is, the reference lines L and L 'in the captured image may appear as a straight line or line segment image.
  • the laser beam may be irradiated along some of the reference lines L and L 'of the object 10.
  • the plurality of semiconductor chips 11 included in the object 10 may be separated individually.
  • the separated semiconductor chip 11 may be packaged by resin packaging.
  • the cutting plan line L In order to prevent damage to the semiconductor chip 11 in the machining process, the cutting plan line L must be parallel to the moving direction (y-axis direction) of the laser beam and the reference lines L and L 'of the object 10. Therefore, by adjusting the arrangement angle of the object 10, the processing direction (y-axis direction) of the reference lines L and L 'of the object 10 and the laser beam can be made close to parallel.
  • the laser beam may be irradiated to a point outside the cut line L.
  • the moving direction (y-axis direction) of the position where the laser beam is irradiated and the cutting schedule line L may not be perfectly parallel.
  • the direction in which the movement stage 130 moves the chuck 20 may not be perfectly straight.
  • the difference between the actual machining direction and the ideal straight line is called the straightness of the machining direction. Normally, straightness may not be zero. If the straightness becomes too large, the processing quality is lowered, and the semiconductor chip 11 included in the object 10 may be damaged by the laser beam.
  • FIG. 3 is a diagram schematically illustrating a straightness measurement apparatus 100 according to an exemplary embodiment.
  • the straightness measurement apparatus 100 may include a photographing unit 110 for obtaining a photographed image of reference lines L and L ′ displayed on an object 10, and an object 10.
  • a photographing unit 110 for obtaining a photographed image of reference lines L and L ′ displayed on an object 10, and an object 10.
  • Processor for measuring the straightness of the machining direction from the position of the moving stage 130 and the reference line (L, L ') shown in the photographed image to move the photographing position of the photographing unit 110 along the machining direction ( 140).
  • the photographing unit 110 may photograph the surface of the object 10.
  • the photographing unit 110 may acquire a photographed image a plurality of times while the photographing position is changed by the moving stage 130.
  • the photographing unit 110 may transmit the obtained photographed image information to the processor 140.
  • the photographing unit 110 and the processor 140 are represented in separate configurations, but embodiments are not limited thereto.
  • the processor 140 may be built in the photographing unit 110.
  • the processor 140 and the photographing unit 110 may share some hardware resources.
  • the photographing unit 110 may receive the light reflected from the object 10.
  • the photographing unit 110 may include a light source 112 that irradiates light onto the object 10.
  • the photographing unit 110 may secure a sufficient amount of light by irradiating the illumination light to the object 10 using the light source 112.
  • the straightness measuring apparatus 100 may further include a light converging optical system 114 provided between the photographing unit 110 and the object 10.
  • the condensing optical system 114 may further condense the light emitted from the light source 112 to the photographing position of the photographing unit 110 to further increase the amount of light received by the photographing unit 110.
  • the power consumption of the light source 112 may be reduced by the condensing optical system 114.
  • the movement stage 130 may change a position at which the photographing unit 110 photographs the object 10.
  • the movement stage 130 may change the photographing position of the photographing unit 110 by changing the relative position between the photographing unit 110 and the object 10 in the y-axis direction.
  • the movement stage 130 may move the photographing position of the photographing unit 110 by moving the chuck 20 on which the object 10 is seated.
  • the embodiment is not limited thereto.
  • the moving stage 130 may change the photographing position of the photographing unit 110 by changing the position of the photographing unit 110, or move both the photographing unit 110 and the object 10.
  • the processor 140 may control the photographing unit 110 and the moving stage 130.
  • the processor 140 may control the exposure time of the photographing unit 110.
  • the photographing unit 110 may control a time interval for photographing the image.
  • the processor 140 may derive a distance change amount of the photographing position from the time interval information between the time points at which the photographed images are photographed.
  • the processor 140 may control whether the movement stage 130 is operated and a speed at which the movement stage 130 moves the photographing position.
  • FIG. 4 is a flowchart illustrating a straightness measuring method using the straightness measuring apparatus 100 illustrated in FIG. 3.
  • the photographing unit 110 may photograph the surface of the object 10.
  • the photographing unit 110 may photograph the reference lines L and L ′ displayed on the object 10.
  • the movement stage 130 may move the photographing position of the photographing unit 110.
  • the photographing unit 110 may acquire a photographed image a plurality of times while the photographing position moves in the y-axis direction.
  • the photographing unit 110 may photograph the object 10 while the moving stage 130 changes the photographing position. In this case, a time for acquiring a captured image from a plurality of photographing positions may be shortened as compared with the case of photographing in a state where the moving stage 130 is stopped.
  • the processor 140 may control the exposure time of the photographing unit 110 and the speed at which the moving stage 130 moves the photographing position.
  • the processor 140 may control the exposure time and the speed so that the line widths of the reference lines L and L ′ appearing in the photographed image may be smaller than the resolution of the photographing unit 110.
  • the reference lines L and L ' according to the blurring of the captured image will be described with respect to line widths.
  • the machining direction is exactly parallel to the reference lines (L, L '), e.g., to be cut (L), the line width of the reference lines (L, L') may not change even if the shooting position moves in the machining direction. have.
  • the machining direction may not exactly coincide with the reference lines L and L 'due to the misalignment of the object 10 arrangement angle.
  • the machining direction may be referred to as reference lines L and L '. Can be misplaced.
  • FIG. 5 is a view for explaining the change in the line width of the above-described reference line (L, L ').
  • the machining direction k and the reference lines L and L ′ may not be completely parallel.
  • the angle ⁇ between the machining direction k and the reference lines L and L ' may vary depending on the arrangement angle of the object 10 and the magnitude of vibration generated during the operation of the movement stage 130.
  • the angle ⁇ may be defined as an angle between the machining direction k and the cut line L.
  • FIG. 6 is a diagram showing that the positions of the reference lines L and L 'change as the photographing position moves along the machining direction k during the exposure time.
  • the machining direction k and the reference lines L and L ′ may not be parallel to each other.
  • the photographing unit 110 may photograph the object 10 for a predetermined exposure time. During the exposure time, the relative position of the object 10 and the photographing unit 110 is changed so that the photographing position can be moved by the distance d along the processing direction k. While the photographing position is moved by the distance d, the positions of the reference lines L and L 'can be moved by the distance w in the direction perpendicular to the machining direction k. As a result, the reference lines L and L 'are blurred in the photographed image, thereby increasing the line width of the reference lines L and L'.
  • FIG. 7 is a diagram illustrating that the line widths of the reference lines L and L 'are increased in the captured image.
  • the line widths of the reference lines L and L ′ may increase due to the blurring of the captured image of the photographing unit 110.
  • the reference lines L and L ′ may move in a direction perpendicular to the machining direction k. For this reason, the position of the reference lines L and L 'in the captured image may not be precisely specified, and the line widths of the reference lines L and L' may be increased.
  • the line widths of the reference lines L and L ' may depend on the angle ⁇ between the machining direction k and the reference lines L and L', the exposure time of the imaging unit 120 and the speed at which the imaging position moves. Can be.
  • the line widths of the reference lines L and L ' may increase as the exposure time of the photographing unit 120 increases, and as the speed at which the photographing position moves increases.
  • the line width of the reference line appearing in the photographed image may be smaller than the resolution of the photographing unit 110.
  • the resolution of the photographing unit 110 may be determined according to the pixel size and magnification of the photographing unit 110.
  • the resolution of the photographing unit 110 may be determined by Equation 1.
  • Equation 1 r means the resolution of the photographing unit 110.
  • P means the size of the pixel may mean the size of the length or width of the pixel.
  • M means the magnification of the photographing unit 110.
  • the resolution may be about 0.2 ⁇ m to 0.3 ⁇ m.
  • the above figures are merely exemplary and do not limit the embodiments.
  • the processor 140 adjusts the exposure time of the photographing unit 110 and the speed at which the moving stage 130 moves the photographing position so that the line widths of the reference lines L and L ′ appearing in the photographed image are changed to the photographing unit 110. It can be made smaller than the resolution (r) of. When the line widths of the reference lines L and L 'become smaller than the resolution r of the photographing unit 110, an error with respect to the positions of the reference lines L and L' in the photographed image may be reduced. In addition, if the error with respect to the position of the reference line (L, L ') is reduced, the measurement error of the straightness can also be reduced.
  • the processor 140 adjusts the exposure time of the photographing unit 110 and the speed at which the moving stage 130 moves the photographing position so that the line widths of the reference lines L and L ′ appearing in the photographed image are photographed. It can be made smaller than half of the resolution (r) of the unit (110). When the line widths of the reference lines L and L 'become smaller than half of the resolution r of the photographing unit 110, the reference lines L and L' may be displayed only in one pixel in the photographed image. Therefore, the error due to the blurring effect of the image due to the dynamic shooting can be almost eliminated.
  • the processor 140 may allow the exposure time E of the photographing unit 110 and the speed V at which the moving stage 130 moves the photographing position to satisfy Equation 2.
  • V * E may correspond to the distance d shown in FIG. That is, the distance d in which the photographing position moves in the machining direction k during the exposure time E may be equal to the product of the exposure time E and the moving speed V of the photographing position.
  • V * E * tan ⁇ may correspond to the distance w shown in FIG. 6. That is, the distance w in which the positions of the reference lines L and L 'are moved in the direction perpendicular to the machining direction k during the exposure time E is the distance d and the machining direction k and the reference line in which the shooting position is moved. It can be determined by the angle ⁇ between (L, L ').
  • the distance w may be approximately equal to the line width of the reference lines L and L 'exhibited by the blurring effect of the image. Therefore, the line widths of the reference lines L and L 'may be smaller than the resolution of the photographing unit 110.
  • tan ⁇ may have a value ranging from approximately 0 to 10 ⁇ 4 . Therefore, when the resolution P / M has a value of approximately 0.2 ⁇ m to 0.3 ⁇ m, the speed V and the exposure time E may satisfy approximately V * E ⁇ 100 ⁇ m. However, if the speed V for moving the photographing position is too small, high-speed straightness measurement is difficult, so the exposure time E can satisfy approximately E ⁇ 2 ms.
  • the above figures are exemplary only and are not intended to limit the examples.
  • FIG. 8 is a diagram illustrating an example of a captured image photographed by the photographing unit 110.
  • reference lines L and L ′ may appear in the photographed image of the photographing unit 110.
  • the line widths of the reference lines L and L ' may be smaller than the x-axis resolution of the photographing unit 110. Therefore, the x-axis positions of the reference lines L and L 'may be defined by one pixel position in the captured image.
  • the photographing unit 110 may acquire a photographed image as shown in FIG. 8 whenever the photographing position changes.
  • the straightness in the machining direction may be determined by how much the positions of the reference lines L and L 'are shifted in the x-axis direction in the plurality of captured images. That is, since it is important how much the reference lines L and L 'are shifted in the x-axis direction in the photographed image, it may be less necessary to acquire the entire image of the object 10 in the y-axis direction. Therefore, the photographed image photographed by the photographing unit 110 may have a different size in the x-axis direction and a size in the y-axis direction.
  • the length of the y-axis direction (the direction in which the photographing position moves by the moving stage 130) of the captured image may be smaller than the length of the x-axis direction.
  • the photographing unit 110 may photograph a partial frame instead of photographing all the entire frames of the object 10.
  • the photographing unit 110 photographs only some frames of the object 10 in the direction (y-axis direction) in which the photographing position moves by the moving stage 130, and photographs the entire frame in the x-axis direction. can do. This is merely exemplary and does not limit the embodiment.
  • the photographing unit 110 photographs only some frames in the y-axis direction, the number of times that the photographing unit 110 may photograph an image per hour may increase. Therefore, it is easy to adjust the exposure time E of the photographing unit 110 to be small. In addition, by acquiring more images per unit time, the position change of the reference lines L and L 'can be viewed at shorter time intervals. When the photographing unit 110 acquires more photographed images at shorter time intervals, the accuracy of the straightness measurement in the processing direction may be higher.
  • the photographing unit 110 may photograph a line image by way of example. That is, only one pixel may be provided in the y-axis direction in the captured image.
  • the configuration of the photographing unit 110 may be simplified.
  • the light receiving area per unit pixel may be increased.
  • the sharpness of the photographed image may be increased.
  • the processor 140 may measure the straightness of the machining direction k from the positions of the reference lines L and L ′ shown in the plurality of captured images.
  • the processor 140 may receive a plurality of captured images from the photographing unit 110.
  • the plurality of photographed images may be photographed at different photographing positions. While the relative position between the light source 112 and the object 10 is changed by the moving stage 130, the photographing unit 110 may acquire a photographed image of the object 10 and transmit it to the processor 140.
  • the processor 140 may measure the straightness of the machining direction k from the positions of the reference lines L and L ′ shown in each of the plurality of captured images.
  • FIG. 9 is a diagram illustrating an example of listing a plurality of captured images received by the processor 140.
  • the processor 140 may receive a plurality of captured images from the photographing unit 110. For example, the processor 140 may identify the positions of the reference lines L and L 'in each of the first to third images a, b, and c. Referring to FIG. 9, the positions of the reference lines L and L 'hardly change in the first image a and the second image b, and the reference lines L and L' in the third image c. The position of can move by ⁇ x. The processor 140 determines the photographing position by the moving stage 130 while the x-axis position shift amount ⁇ x of the reference lines L and L 'and the first to third images a, b, and c are captured. The straightness of the machining direction k can be found from the ratio of the distance moved in the y-axis direction.
  • the processor 140 In order for the processor 140 to accurately determine the straightness, not only the position shift amount ⁇ x in the x-axis direction of the reference lines L and L ', but also the first and third images a, b, and c are captured while the photographing position is captured. Distance information moved in the y-axis direction may be required.
  • the photographing unit 110 may photograph the object 10 whenever the photographing position is changed by a predetermined distance by the moving stage 130.
  • the photographing unit 110 may photograph the object 10 by being synchronized by a pulse signal generated whenever the moving stage 130 moves the object 10 or the photographing unit 110 by a predetermined distance.
  • the straightness measuring apparatus 100 may further include an encoder 135 for generating a pulse signal whenever the photographing position changes by a predetermined distance.
  • the encoder 135 may be connected to the movement stage 130 to sense mechanical movement of the movement stage 130.
  • the encoder 135 may sense a distance that the moving stage 130 moves the light source 112 or the object 10.
  • the encoder 135 may generate a pulse signal whenever the photographing position of the photographing unit 110 moves by a predetermined interval by the moving stage 130.
  • the pulse signal generated by the encoder 135 may be transmitted to the photographing unit 110.
  • the photographing unit 110 may be synchronized with the operation of the pulse signal of the encoder 135. For example, when the photographing unit 110 receives the pulse signal, the photographing unit 110 may photograph the object 10 during the exposure time E. FIG. Since the photographing unit 110 is synchronized by the pulse signal of the encoder 135, the photographed image may be obtained whenever the photographing position changes by a predetermined distance in the y-axis direction. In addition, the processor 140 may derive the amount of change in the photographing position from the number of the photographed images while the photographed images are photographed.
  • FIG. 10 is a diagram illustrating an example of a captured image.
  • the processor 140 when the brightness change of the captured image is small, it may not be easy to identify the reference lines L and L '. If the processor 140 does not easily identify the reference lines L and L ', it may not be easy to measure the straightness from the positional change of the reference lines L and L'.
  • the processor 140 may binarize the photographed image received from the photographing unit 110 based on the brightness.
  • the processor 140 may divide the captured image into an area having a higher brightness than a predetermined reference value and an area not having the brightness.
  • the processor 140 may process an area in which the brightness is higher than the reference value as white and process an area in which the brightness is lower than the reference value as black in the captured image.
  • FIG. 11 is a diagram illustrating binarization of the photographed image illustrated in FIG. 10.
  • the processor 140 may generate a binarized image obtained by binarizing the photographed image illustrated in FIG. 10 based on brightness.
  • the binarization image it may be easy to distinguish between a region where the brightness is higher than the reference value and a region where the brightness is lower than the reference value. Therefore, in the binarized image, location identification of the reference lines L and L 'may be facilitated.
  • the processor 140 binarizes the captured image based on brightness, but the embodiment is not limited thereto.
  • the processor 140 may discontinuously display the brightness of the photographed image for each preset brightness section.
  • the processor 140 may uniformly display an area having a brightness value in the first range as the first brightness and display an area having a brightness value in the second range as the second brightness in the captured image.
  • An area having a brightness value in the third range may be uniformly displayed as the third brightness. That is, the processor 140 may display n photographed images with n brightness values.
  • FIG. 12 illustrates an image obtained by converting the photographed image illustrated in FIG. 10 into a plurality of preset brightness values.
  • the captured image may be displayed as a plurality of brightness values.
  • the identification of the reference lines L and L ' may be easier than that of the original photographed image.
  • an approximate brightness change of the captured image may also be displayed in the converted image.
  • the reference lines L and L 'displayed on the object 10 may be photographed while the photographing position is moved along the processing direction. Therefore, the straightness measurement speed may be faster than when the measurement is performed in a state where the photographing position is stopped. In addition, it is possible to prevent the position of the reference lines L and L 'from being unclear due to the blurring of the image generated as the photographing position moves. Therefore, the accuracy of the straightness measurement can be increased.

Abstract

진직도 측정 장치 및 방법이 개시된다. 개시된 진직도 측정 방법은 상기 대상물의 가공 방향을 따라 촬영 위치를 변화시키면서 대상물에 표시된 참조 라인의 촬영 이미지를 획득하는 단계 및 상기 촬영 이미지에 나타난 상기 참조 라인의 위치로부터 상기 가공 방향의 진직도를 측정하는 단계를 포함한다. 상기 촬영 이미지를 획득하는 단계는, 상기 촬영 이미지에서 나타나는 상기 참조 라인의 선폭이 촬영부의 분해능 보다 작도록 하는 진직도 측정 방법이다.

Description

진직도 측정 장치 및 방법
대상물이 가공되는 방향의 진직도를 측정하는 장치 및 방법에 관한 것이다.
대상물에 마킹 패턴을 형성하거나 대상물을 절단하는 가공 공정에는 기계적 가공과 레이저 가공이 있다. 일반적으로 레이저 가공 공정이라 함은 가공물의 표면에 레이저 빔을 주사하여 가공물 표면의 형상이나 물리적 성질 등을 가공하는 공정을 말한다.
대상물의 가공 품질이 높아지기 위해서는 기계적 압력이 조사되는 위치 또는 레이저 빔의 조사 위치가 가공 예정 라인을 따라 정확히 움직이는 것이 중요하다. 일반적인 가공 공정에서는 이동 스테이지에 의해 대상물이 직선 운동 하거나 가공 장비가 직선운동을 하면서 가공 위치를 변경할 수 있다.
그런데, 상기 가공 위치를 변경 시 진동 외 기계 공차에 의해 이동 스테이지의 이동 궤적은 이상적인 직선을 정확히 따라 갈 수 없다. 가공에 의한 선이 직선에서 벗어난 정도를 가공 방향의 진직도 라고 한다. 대상물의 가공 공정에서는 상기 진직도를 측정하여 가공 오류를 검사하는 과정이 요구된다.
예시적인 실시예에 따르면, 대상물을 가공하는 방향의 직진도 측정의 정확도를 높일 수 있다.
일 측면에 있어서,
대상물이 가공되는 방향의 진직도를 측정하는 방법에 있어서,
상기 대상물의 가공 방향을 따라 촬영 위치를 변화시키면서 대상물에 표시된 참조 라인의 촬영 이미지를 획득하는 단계; 및
상기 촬영 이미지에 나타난 상기 참조 라인의 위치로부터 상기 가공 방향의 진직도를 측정하는 단계;를 포함하며,
상기 촬영 이미지를 획득하는 단계는, 상기 촬영 위치가 움직임에 따라 상기 촬영 이미지에서 나타나는 상기 참조 라인의 선폭이 촬영부의 분해능 보다 작도록 하는 진직도 측정 방법이 제공된다.
실시예에 따르면, 진직도 측정 장치는 가공 방향을 따라 촬영 위치가 이동하는 동안 대상물에 표시된 참조 라인을 촬영할 수 있다. 따라서, 진직도 측정 장치는 촬영 위치가 정지된 상태에서 측정하는 경우와 달리 직진도 측정 속도가 빠를 수 있다. 또한, 진직도 측정 장치는 촬영 위치가 움직임에 따라 발생하는 이미지의 흐림 현상으로 인한 참조 라인의 위치가 불분명화를 방지할 수 있다. 따라서, 직진도 측정 장치의 촬영 정확도가 높아질 수 있다.
도 1은 대상물의 레이저 가공 공정을 예시적으로 나타낸 도면이다.
도 2는 대상물의 표면을 예시적으로 나타낸 도면이다.
도 3은 예시적인 실시예에 따른 진직도 측정 장치를 대략적으로 나타낸 도면이다.
도 4는 도 3에서 나타낸 진직도 측정 장치를 이용한 진직도 측정 방법을 나타낸 흐름도이다.
도 5는 전술한 참조 라인의 선폭 변화를 설명하기 위한 도면이다.
도 6은 노출 시간 동안 촬영 위치가 가공 방향을 따라 움직임에 따라 참조 라인의 위치가 변하는 것을 나타낸 도면이다.
도 7은 촬영 이미지에서 참조 라인의 선폭이 증가된 것을 나타낸 도면이다.
도 8은 촬영부에서 촬영된 촬영 이미지의 예를 나타낸 도면이다.
도 9는 프로세서가 수신한 복수의 촬영 이미지를 나열한 것을 예시적으로 나타낸 도면이다.
도 10은 촬영 이미지의 예를 나타낸 도면이다.
도 11은 도 10에서 나타낸 촬영 이미지를 이진화 한 것을 나타낸 도면이다.
도 12는 도 10에서 나타낸 촬영 이미지를 기 설정된 복수의 명도 값으로 변환한 이미지를 나타낸다.
일 측면에 있어서,
대상물이 가공되는 방향의 진직도를 측정하는 방법에 있어서,
상기 대상물의 가공 방향을 따라 촬영 위치를 변화시키면서 대상물에 표시된 참조 라인의 촬영 이미지를 획득하는 단계; 및
상기 촬영 이미지에 나타난 상기 참조 라인의 위치로부터 상기 가공 방향의 진직도를 측정하는 단계;를 포함하며,
상기 촬영 이미지를 획득하는 단계는, 상기 촬영 위치가 움직임에 따라 상기 촬영 이미지에서 나타나는 상기 참조 라인의 선폭이 촬영부의 분해능 보다 작도록 하는 진직도 측정 방법이 제공된다.
상기 촬영부는,
상기 참조 라인의 선폭이 상기 촬영부의 분해능의 1/2보다 작아지도록 할 수 있다.
상기 촬영 이미지를 획득하는 단계는,
상기 촬영 이미지를 촬영하는 노출 시간 및 상기 촬영 위치를 움직이는 속도가 수학식 1을 만족하도록 할 수 있다.
V*E*tanθ < P/M ... 수학식 1
(V = 가공 위치 이동 속도, E = 노출 시간, θ = 가공 방향과 참조 라인 사이의 각도, P = 픽셀 크기, M = 배율)
상기 촬영 이미지를 획득하는 단계는,
상기 촬영 이미지의 제1 방향 길이와 제2 방향 길이가 서로 다르도록 할 수 있다.
상기 촬영 이미지를 획득하는 단계는,
상기 촬영 이미지를 라인 이미지로 촬영할 수 있다.
상기 진직도를 측정하는 단계는,
상기 촬영 이미지의 명도를 기준으로 상기 촬영 이미지를 이진화 이미지로 변환하는 단계 및 상기 이진화 이미지로부터 상기 참조 라인의 위치를 식별하는 단계를 포함할 수 있다.
상기 직진도 측정 방법은, 상기 촬영 위치가 변함에 따라 펄스 신호를 발생시키는 단계;를 더 포함하며,
상기 촬영 이미지를 획득하는 단계는, 상기 펄스 신호에 의해 동기화 되어 상기 촬영 이미지를 획득할 수 있다.
다른 측면에 있어서,
대상물이 가공되는 방향의 진직도를 측정하는 장치에 있어서,
대상물에 표시된 참조 라인들의 촬영 이미지를 획득하는 촬영부;
상기 대상물의 가공 방향을 따라 상기 촬영부의 촬영 위치를 이동 시키는 이동 스테이지;
상기 촬영 이미지에 나타난 참조 라인의 위치로부터 상기 가공 방향의 진직도를 측정하는 프로세서;를 포함하며,
상기 프로세서는, 상기 촬영 위치가 움직임에 따라 상기 촬영 이미지에서 나타나는 상기 참조 라인의 선폭이 촬영 상기 촬영부의 분해능 보다 작도록 상기 대상물을 회전시키는 진직도 측정 장치가 제공 된다.
상기 프로세서는,
상기 참조 라인의 선폭이 상기 촬영부의 분해능의 1/2보다 작도록 상기 촬영부를 제어할 수 있다.
상기 프로세서는,
상기 촬영 위치가 움직이는 속도 및 상기 촬영부의 노출 시간이 수학식 1을 만족하도록 상기 촬영부 및 이동 스테이지를 제어할 수 있다.
V*E*tanθ < P/M .... 수학식 1
(V = 가공 위치 이동 속도, E = 노출 시간, θ = 가공 방향과 참조 라인 사이의 각도, P = 픽셀 크기, M = 배율)
상기 촬영부는,
상기 촬영 이미지의 제1 방향 길이와 제2 방향 길이가 서로 다르도록 할 수 있다.
상기 촬영부는,
상기 촬영 이미지를 라인 이미지로 촬영할 수 있다.
상기 프로세서는,
상기 촬영 이미지의 명도를 기준으로 상기 촬영 이미지를 이진화 이미지로 변환할 수 있다.
상기 직진도 측정 장치는, 상기 촬영 위치가 변함에 따라 펄스 신호들을 발생시키는 엔코더;를 더 포함하며,
상기 촬영부는, 상기 펄스 신호에 의해 동기화 되어 상기 촬영 이미지를 획득할 수 있다.
이하의 도면들에서 동일한 참조부호는 동일한 구성요소를 지칭하며, 도면상에서 각 구성요소의 크기는 설명의 명료성과 편의상 과장되어 있을 수 있다. 한편, 이하에 설명되는 실시예는 단지 예시적인 것에 불과하며, 이러한 실시예들로부터 다양한 변형이 가능하다.
제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
또한, 명세서에 기재된 “...부”, “모듈” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미한다.
도 1은 대상물(10)의 레이저 가공 공정을 예시적으로 나타낸 도면이다.
도 1을 참조하면, 척(20) 위에 대상물(10)이 안착될 수 있다. 광원(112)은 대상물(10)을 향해 레이저 빔을 조사할 수 있다. 광원(112)이 대상물(10)에 레이저 빔을 조사하는 위치는 이동 스테이지(130)에 의해 변경될 수 있다. 이동 스테이지(130)는 대상물(10)이 안착된 척(20)을 직선(y축 방향)을 따라 이동시킬 수 있다. 이동 스테이지(130)가 척(20)을 이동함에 따라 대상물(10)이 움직이게 되어 대상물(10)에 레이저 마킹 패턴이 직선으로 형성될 수 있다.
도 1에서는 레이저 가공 공정을 예시적으로 나타냈지만 실시예가 적용될 수 있는 가공 공정이 이에 제한되는 것은 아니다. 예를 들어, 본 명세서에 기재된 실시예들은 기계식 그루빙(mechanical grooving), 절단 공정 등에도 적용될 수 있다.
대상물(10)은 촬영 대상이 되는 물체로 웨이퍼, 반도체 칩 등을 포함할 수 있으며 이에 제한되는 것은 아니다. 대상물(10)에 대한 가공이 제대로 이루어 지기 위해서는 대상물(10)의 가공 예정 라인과 대상물(10)의 가공 위치의 움직이는 방향이 일치해야 한다. 따라서, 대상물(10)을 척(20) 상에 배열하는 방향이 가공 방향에 맞게 정렬될 수 있다.
도 2는 대상물(10)의 표면을 예시적으로 나타낸 도면이다.
도 2를 참조하면, 대상물(10)은 격자 모양으로 배열된 복수의 반도체 칩(11)을 포함할 수 있다. 대상물(10)의 표면에는 식별 가능한 참조 라인들(L, L')이 표시되어 있을 수 있다. 참조 라인(L, L')은 절단 예정 라인(L)과 같은 직선일 수도 있고, 반도체 칩(11)의 가장 자리(L')와 같은 선분 형태일 수도 있다. 즉, 촬영 이미지에서 참조 라인(L, L')은 직선 또는 선분 형태의 이미지로 나타날 수 있다.
레이저 가공 공정에서 대상물(10)의 참조 라인(L, L') 중 일부를 따라 레이저 빔이 조사될 수 있다. 참조 라인(L, L')을 따라 레이저 빔이 조사되면 대상물(10)에 포함된 복수의 반도체 칩(11)이 낱개로 분리될 수 있다. 분리된 반도체 칩(11)은 수지 포장에 의해 패키징 될 수 있다.
가공 공정에서 반도체 칩(11)이 손상되지 않기 위해서는 레이저 빔의 이동 방향(y축 방향)과 대상물(10)의 참조 라인(L, L') 중 절단 예정 라인(L)이 평행해야 한다. 따라서, 대상물(10)의 배열 각도를 조절함으로써 대상물(10)의 참조 라인(L, L')과 레이저 빔의 가공 방향(y축 방향)을 평행에 가깝게 만들어 줄 수 있다.
하지만, 참조 라인(L, L')을 기준으로 대상물(10)의 배열 방향을 조절하더라도 레이저 빔이 절단 예정 라인(L)을 벗어난 지점에 조사될 수 있다. 예를 들어, 얼라인(align) 과정 상 오차 때문에 레이저 빔이 조사되는 위치의 이동 방향(y축 방향)과 절단 예정 라인(L)이 완벽하게 평행하지 않을 수 있다. 또한, 이동 스테이지(130)가 척(20)을 이동시키는 방향이 완벽히 직선이 아닐 수 있다. 이동 스테이지(130) 자체의 장비 자체의 결함이 있을 수도 있으며, 이동 스테이지(130)가 척(20)을 이동 시키는 과정에서 이동 방향(y축 방향)에 수직한 방향(x축 방향)으로 진동이 발생할 수도 있다. 전술한 장비의 결함 또는 이동 과정에서 발생하는 진동으로 인해, 도 2에서 나타낸 바와 같이 레이저 빔의 조사 위치는 완벽한 직선을 따라 움직이지 않을 수 있다.
실제 가공 방향과 이상적인 직선 사이의 차이를 가공 방향의 진직도(straightness)라고 한다. 보통의 경우, 진직도는 0이 아닐 수 있다. 진직도가 너무 커지게 되면 가공 품질이 저하되며, 대상물(10)에 포함된 반도체 칩(11)이 레이저 빔에 의해 손상을 입을 수도 있다.
도 3은 예시적인 실시예에 따른 진직도 측정 장치(100)를 대략적으로 나타낸 도면이다.
도 3을 참조하면, 예시적인 실시예에 따른 진직도 측정 장치(100)는 대상물(10)에 표시된 참조 라인(L, L')의 촬영 이미지를 획득하는 촬영부(110)와, 대상물(10)의 가공 방향을 따라 촬영부(110)의 촬영 위치를 이동 시키는 이동 스테이지(130) 및 상기 촬영 이미지에 나타난 참조 라인(L, L')의 위치로부터 상기 가공 방향의 진직도를 측정하는 프로세서(140)를 포함할 수 있다.
촬영부(110)는 대상물(10)의 표면을 촬영할 수 있다. 촬영부(110)는 이동 스테이지(130)에 의해 촬영 위치가 변하는 동안, 복수 회에 걸쳐 촬영 이미지를 획득할 수 있다. 촬영부(110)는 획득한 촬영 이미지 정보를 프로세서(140)로 전송할 수 있다. 도 3에서는 촬영부(110)와 프로세서(140)를 분리된 구성으로 표현하였지만 실시예가 이에 제한되는 것은 아니다. 예를 들어, 프로세서(140)는 촬영부(110)에 내장되어 있을 수도 있다. 또한, 프로세서(140)와 촬영부(110)는 일부 하드웨어 자원을 공유할 수 있다.
촬영부(110)는 대상물(10)에서 반사된 광을 수광할 수 있다. 촬영부(110)는 대상물(10)에 광을 조사하는 광원(112)을 포함할 수도 있다. 예를 들어, 촬영부(110)는 광원(112)을 이용하여 대상물(10)에 조명 광을 조사하여 충분한 수광 량을 확보할 수 있다. 진직도 측정 장치(100)는 촬영부(110)와 대상물(10) 사이에 마련된 집광 광학계(114)를 더 포함할 수 있다. 집광 광학계(114)는 광원(112)에서 조사된 광을 촬영부(110)의 촬영 위치로 집광하여 촬영부(110)의 수광 량을 더 높여줄 수 있다. 또한, 집광 광학계(114)에 의해 광원(112)의 소비 전력이 줄어들 수 있다.
이동 스테이지(130)는 촬영부(110)가 대상물(10)을 촬영하는 위치를 변경할 수 있다. 이동 스테이지(130)는 y축 방향으로 촬영부(110)와 대상물(10) 사이의 상대적인 위치를 변경시킴으로써 촬영부(110)의 촬영 위치를 변경시킬 수 있다. 예를 들어, 이동 스테이지(130)는 대상물(10)이 안착된 척(20)을 이동시킴으로써 촬영부(110)의 촬영 위치를 이동시킬 수 있다. 하지만, 실시예가 이에 제한되는 것은 아니다. 이동 스테이지(130)는 촬영부(110)의 위치를 변경함으로써 촬영부(110)의 촬영 위치를 변경할 수도 있고, 촬영부(110) 및 대상물(10) 모두를 움직이게 할 수도 있다.
프로세서(140)는 촬영부(110) 및 이동 스테이지(130)를 제어할 수 있다. 프로세서(140)는 촬영부(110)의 노출 시간을 제어할 수 있다. 또한, 촬영부(110)가 이미지를 촬영하는 시간 간격을 제어할 수 있다. 예를 들어, 이동 스테이지(130)가 촬영 위치를 일정한 속도로 변화시키는 동안 프로세서(140)는 촬영부(110)가 일정한 시간 간격으로 이미지를 촬영하도록 할 수 있다. 프로세서(140)는 촬영 이미지들이 촬영 된 시점 간의 시간 간격 정보로부터 촬영 위치의 거리 변화량을 도출할 수 있다. 프로세서(140)는 이동 스테이지(130)의 동작 여부 및 이동 스테이지(130)가 촬영 위치를 이동시키는 속도를 제어할 수 있다.
도 4는 도 3에서 나타낸 진직도 측정 장치(100)를 이용한 진직도 측정 방법을 나타낸 흐름도이다.
도 4를 참조하면, 실시예에 따른 진직도 측정 방법은, 레이저 가공 방향을 따라 촬영 위치를 변화시키면서 대상물(10)에 표시된 참조 라인(L, L')의 촬영 이미지를 획득하는 단계(1110) 및 촬영 이미지에 나타난 참조 라인(L, L')의 위치로부터 가공 방향의 진직도를 측정하는 단계(1120)를 포함할 수 있다.
1110 단계에서, 촬영부(110)는 대상물(10)의 표면을 촬영할 수 있다. 촬영부(110)는 대상물(10)에 표시된 참조 라인(L, L')을 촬영할 수 있다. 이동 스테이지(130)는 촬영부(110)의 촬영 위치를 이동 시킬 수 있다. 촬영부(110)는 촬영 위치가 y축 방향으로 이동하는 동안 복수 회에 걸쳐 촬영 이미지를 획득할 수 있다. 촬영부(110)는 이동 스테이지(130)가 촬영 위치를 변경하는 동안 대상물(10)을 촬영할 수 있다. 이 경우, 이동 스테이지(130)가 멈춘 상태에서 촬영하는 경우에 비해 복수의 촬영 위치에서 촬영 이미지를 획득하는 시간이 단축될 수 있다.
프로세서(140)는 촬영부(110)의 노출 시간 및 이동 스테이지(130)가 촬영 위치를 움직이는 속도를 제어할 수 있다. 프로세서(140)는 상기 노출 시간 및 속도를 제어함으로써 촬영 이미지에서 나타나는 참조 라인(L, L')의 선 폭이 촬영부(110)의 분해능 보다 작아지도록 할 수 있다. 이하에서는 촬영 이미지의 흐려짐(blur) 현상에 따른 참조 라인(L, L')은 선폭 증가에 관하여 설명한다.
가공 방향이 참조 라인(L, L'), 예를 들어 절단 예정 라인(L),과 정확히 평행한 경우, 가공 방향으로 촬영 위치가 움직이더라도 참조 라인(L, L')의 선폭은 변하지 않을 수 있다. 하지만, 전술한 바와 같이, 대상물(10) 배열 각도의 틀어짐에 의해 가공 방향이 참조 라인(L, L')과 정확히 일치하지 않을 수 있다. 또한, 이동 스테이지(130)에서 발생하는 진동 등으로 인해 이동 스테이지(130)가 대상물(10)을 움직이는 방향이 정확히 y축과 일치하지 않을 수 있으며, 이로 인해 가공 방향이 참조 라인(L, L')으로부터 틀어질 수 있다.
도 5는 전술한 참조 라인(L, L')의 선폭 변화를 설명하기 위한 도면이다.
도 5를 참조하면, 가공 방향(k)과 참조 라인(L, L')이 완전히 평행하지 않을 수 있다. 가공 방향(k)과 참조 라인(L, L') 사이의 각도(θ)는 대상물(10)의 배열 각도 및 이동 스테이지(130)의 동작 과정에서 발생하는 진동의 크기에 따라 달라질 수 있다. 예를 들어, 각도(θ)는 가공 방향(k)와 절단 예정 라인(L) 사이의 각도로 정의될 수 있다. 가공 방향(k)을 따라 촬영 위치를 변경시키면서 대상물(10)을 촬영하게 되면, 촬영부(110)의 노출 시간 동안 참조 라인(L, L')의 위치가 변경될 수 있다. 따라서, 촬영 위치 이동에 의해 촬영 이미지에서 참조 라인(L, L')이 흐려지는(blur) 효과가 발생할 수 있다.
도 6은 노출 시간 동안 촬영 위치가 가공 방향(k)을 따라 움직임에 따라 참조 라인(L, L')의 위치가 변하는 것을 나타낸 도면이다.
도 6을 참조하면, 가공 방향(k)와 참조 라인(L, L')이 서로 평행하지 않을 수 있다. 촬영부(110)는 소정의 노출시간 동안 대상물(10)을 촬영할 수 있다. 노출 시간 동안, 대상물(10)과 촬영부(110)의 상대적인 위치가 변경되어 촬영 위치는 가공 방향(k)을 따라 거리 d 만큼 이동할 수 있다. 촬영 위치가 거리 d 만큼 이동하는 동안 참조 라인(L, L')의 위치는 가공 방향(k)에 수직한 방향으로 거리 w 만큼 이동할 수 있다. 이로 인해 촬영 이미지에서 참조 라인(L, L')이 흐릿하게 촬영 되어 참조 라인(L, L')의 선폭이 증가할 수 있다.
도 7은 촬영 이미지에서 참조 라인(L, L')의 선폭이 증가된 것을 나타낸 도면이다.
도 7을 참조하면, 촬영부(110)의 촬영 이미지가 흐릿해지는 효과에 의해 참조 라인(L, L')의 선폭이 증가될 수 있다. 촬영부(110)의 노출시간 동안 촬영 위치가 변함에 따라 참조 라인(L, L')이 가공 방향(k)에 수직한 방향으로 움직일 수 있다. 이로 인해, 촬영 이미지에서 참조 라인(L, L')의 위치가 정확히 특정되지 않고 참조 라인(L, L')의 선폭이 커질 수 있다.
참조 라인(L, L')의 선폭은 가공 방향(k)과 참조 라인(L, L') 사이의 각도(θ), 촬영부(120)의 노출 시간 및 촬영 위치가 이동하는 속도에 의존할 수 있다. 예를 들어, 참조 라인(L, L')의 선폭은 촬영부(120)의 노출 시간이 커질수록, 촬영 위치가 이동하는 속도가 클수록 더 커질 수 있다.
참조 라인(L, L')의 선폭이 과다하게 커지게 되면, 촬영 이미지에서 참조 라인(L, L')의 정확한 위치를 결정하는데 용이하지 않을 수 있다. 촬영 이미지에서 참조 라인(L, L')의 위치 오차가 커지게 되면 촬영 이미지로부터 판독된 가공 방향(k)의 직진도 값에도 오차가 커질 수 있다.
일 실시예에 따른 직진도 측정 방법은, 1110 단계에서 촬영 위치가 움직임에 따라 촬영 이미지에서 나타나는 상기 참조 라인의 선폭이 촬영부(110)의 분해능 보다 작도록 할 수 있다. 여기서, 촬영부(110)의 분해능은 촬영부(110)의 픽셀 크기 및 배율에 따라 결정될 수 있다. 예시적으로, 촬영부(110)의 분해능은 수학식 1에 의해 결정될 수 있다.
(수학식 1)
r = P/M
수학식 1에서 r은 촬영부(110)의 분해능을 의미한다. 또한, P는 픽셀의 크기를 의미하는 것으로 픽셀의 길이 또는 폭의 크기를 의미할 수 있다. 그리고, M은 촬영부(110)의 배율을 의미한다. 레이저 가공 공정에서 사용되는 카메라 장치의 경우 상기 분해능은 대략 0.2 μm 내지 0.3μm 정도일 수 있다. 하지만 상기 수치는 예시적인 것에 불과하며 실시예를 제한하지는 않는다.
프로세서(140)는 촬영부(110)의 노출 시간 및 이동 스테이지(130)가 촬영 위치를 이동 시키는 속도를 조절함으로써, 촬영 이미지에 나타나는 참조 라인(L, L')의 선폭이 촬영부(110)의 분해능(r) 보다 작아지도록 할 수 있다. 참조 라인(L, L')의 선폭이 촬영부(110)의 분해능(r) 보다 작아지게 되면, 촬영 이미지에서 참조 라인(L, L')의 위치에 대한 오차가 줄어들 수 있다. 그리고, 참조 라인(L, L')의 위치에 대한 오차가 줄어들면 직진도의 측정 오차 또한 줄어들 수 있다.
예시적으로, 프로세서(140)는 촬영부(110)의 노출 시간 및 이동 스테이지(130)가 촬영 위치를 이동 시키는 속도를 조절함으로써, 촬영 이미지에 나타나는 참조 라인(L, L')의 선폭이 촬영부(110)의 분해능(r)의 절반 보다 작아지게 할 수 있다. 참조 라인(L, L')의 선폭이 촬영부(110)의 분해능(r)의 절반 보다 작아지게 되면, 촬영 이미지에서 참조 라인(L, L')이 하나의 픽셀에만 표시될 수 있다. 따라서, 동적 촬영에 따른 이미지의 흐려짐 효과에 의한 오차를 거의 없게 할 수 있다.
프로세서(140)는 촬영부(110)의 노출 시간(E) 및 이동 스테이지(130)가 촬영 위치를 이동 시키는 속도(V)가 수학식 2를 만족하도록 할 수 있다.
(수학식 2)
V*E*tanθ < P/M
수학식 2에서 V = 가공 위치 이동 속도, E = 노출 시간, θ = 가공 방향(k)과 참조 라인(L, L') 사이의 각도, P = 픽셀 크기, M = 배율을 의미한다.
수학식 2를 참조하면, V*E는 도 6에서 나타낸 거리 d에 대응할 수 있다. 즉, 노출 시간(E) 동안 촬영 위치가 가공 방향(k)으로 움직인 거리 d는 노출 시간(E) 및 촬영 위치의 이동 속도(V)의 곱과 같을 수 있다. 또한, V*E* tanθ는 도 6에서 나타낸 거리 w에 대응할 수 있다. 즉, 노출 시간(E) 동안 참조 라인(L, L')의 위치가 가공 방향(k)에 수직한 방향으로 이동한 거리 w는 촬영 위치가 움직인 거리 d 및 가공 방향(k)과 참조 라인(L, L') 사이의 각도 θ에 의해 결정될 수 있다. 수학식 2에 의하면, 노출 시간(E)동안 참조 라인(L, L')의 위치가 가공 방향(k)에 수직한 방향으로 이동한 거리 w 가 촬영부(110)의 분해능(r=P/M)보다 작을 수 있다. 거리 w는 이미지의 흐려짐 효과에 의해 나타나는 참조 라인(L, L')의 선폭과 거의 같을 수 있다. 따라서, 참조 라인(L, L')의 선폭이 촬영부(110)의 분해능 보다 더 작아질 수 있다.
일반적인 레이저 가공 공정에서 tanθ는 대략 0 내지 10-4 범위의 값을 가질 수 있다. 따라서 분해능 P/M이 대략 0.2 μm 내지 0.3μm 값을 가지는 경우, 속도 V 및 노출 시간 E는 대략 V*E ≤ 100μm을 만족할 수 있다. 그런데, 촬영 위치를 이동 시키는 속도 V 가 너무 작으면 고속 직진도 측정이 어려운 바, 노출 시간 E는 대략 E < 2ms 를 만족할 수 있다. 상기 수치들은 예시적인 것에 불과하며, 실시예를 제한하는 것은 아니다.
도 8은 촬영부(110)에서 촬영된 촬영 이미지의 예를 나타낸 도면이다.
도 8을 참조하면, 촬영부(110)의 촬영 이미지에 참조 라인(L, L')이 나타날 수 있다. 참조 라인(L, L')의 선폭은 촬영부(110)의 x축 방향 분해능 보다 작을 수 있다. 따라서, 참조 라인(L, L')의 x축 위치는 촬영 이미지에서 하나의 픽셀 위치에 의해 정의될 수 있다.
촬영부(110)는 촬영 위치가 변할 때 마다 도 8에서 나타낸 것과 같은 촬영 이미지를 획득할 수 있다. 복수의 촬영 이미지에서 참조 라인(L, L')의 위치가 x축 방향으로 얼마나 편이(shift) 되는 지에 따라 가공 방향의 직진도가 결정될 수 있다. 즉, 촬영 이미지에서 참조 라인(L, L')이 x축 방향으로 얼마나 편이 되는지 여부가 중요하기 때문에 y축 방향으로 대상물(10)의 전체 이미지를 획득할 필요성은 적을 수 있다. 따라서, 촬영부(110)가 촬영하는 촬영 이미지는 x축 방향 크기와 y축 방향 크기가 서로 다를 수 있다.
예를 들어, 촬영 이미지의 y축 방향(이동 스테이지(130)에 의해 촬영 위치가 이동하는 방향)의 길이는 x축 방향 길이보다 작을 수 있다. 촬영부(110)는 대상물(10)의 전체 프레임을 모두 촬영 하는 것이 아닌 부분 프레임을 촬영할 수 있다. 예를 들어, 촬영부(110)는 이동 스테이지(130)에 의해 촬영 위치가 이동하는 방향(y축 방향)으로는 대상물(10)의 일부 프레임 만을 촬영하고, x축 방향으로는 전체 프레임을 촬영 할 수 있다. 이는 예시적인 것에 불과하며 실시예를 한정하는 것은 아니다.
촬영부(110)가 y축 방향으로 일부 프레임만 촬영하게 되면, 촬영부(110)가 시간당 이미지를 촬영할 수 있는 횟수가 늘어날 수 있다. 따라서, 촬영부(110)의 노출 시간(E)을 작게 조절하는 것이 용이해질 수 있다. 뿐만 아니라, 단위 시간 당 더 많은 이미지를 획득함으로써 참조 라인(L, L')의 위치 변화를 더 짧은 시간 간격으로 볼 수 있다. 촬영부(110)가 더 짧은 시간 간격으로 더 많은 촬영 이미지를 획득하면, 가공 방향의 진직도 측정의 정확도가 더 높아질 수 있다.
촬영부(110)는 예시적으로 라인 이미지를 촬영할 수도 있다. 즉, 촬영 이미지에서 y축 방향으로 하나의 픽셀 만이 구비될 수 있다. 촬영부(110)가 라인 이미지를 촬영하게 되면, y축 방향으로 하나의 픽셀만 구비되기 때문에 촬영부(110) 구성이 간단해질 수 있다. 또한, y축 방향으로 촬영부(110)에 포함된 수광 소자 배열이 용이해짐에 따라 단위 픽셀당 수광 면적이 넓어질 수 있다. 촬영부(110)의 단위 픽셀 당 수광 면적이 넓어짐에 따라 촬영 이미지의 선명도가 높아질 수 있다.
다시 도 4를 참조하면, 1120 단계에서 프로세서(140)는 복수의 촬영 이미지에 나타난 참조 라인(L, L')의 위치로부터 가공 방향(k)의 진직도를 측정할 수 있다. 프로세서(140)는 촬영부(110)로부터 복수의 촬영 이미지를 수신할 수 있다. 복수의 촬영 이미지는 각각 서로 다른 촬영 위치를 촬영한 것일 수 있다. 이동 스테이지(130)에 의해 광원(112)과 대상물(10) 사이의 상대적 위치가 바뀌는 동안 촬영부(110)는 대상물(10)의 촬영 이미지를 획득하여 프로세서(140)에 전송할 수 있다. 프로세서(140)는 복수의 촬영 이미지 각각에 나타난 참조 라인(L, L')의 위치로부터 가공 방향(k)의 진직도를 측정할 수 있다.
도 9는 프로세서(140)가 수신한 복수의 촬영 이미지를 나열한 것을 예시적으로 나타낸 도면이다.
도 9를 참조하면, 프로세서(140)는 촬영부(110)로부터 복수의 촬영 이미지를 수신할 수 있다. 예를 들어, 프로세서(140)는 제1 내지 제3 이미지(a, b, c) 각각에서 참조 라인(L, L')의 위치를 식별할 수 있다. 도 9를 참조하면, 제1 이미지(a)와 제2 이미지(b)에서는 참조 라인(L, L')의 위치가 거의 변하지 않고, 제3 이미지(c)에서는 참조 라인(L, L')의 위치가 Δx 만큼 이동할 수 있다. 프로세서(140)는 참조 라인(L, L')의 x축 방향 위치 편이량 Δx 및 제1 내지 제3 이미지(a, b, c)가 촬영 되는 동안의 이동 스테이지(130)에 의해 촬영 위치가 y축 방향으로 이동한 거리의 비율로부터 가공 방향(k)의 직진도를 알아낼 수 있다.
프로세서(140)가 직진도를 정확히 알아내기 위해서는 참조 라인(L, L')의 x축 방향 위치 편이량 Δx 뿐만 아니라 제1 내지 제3 이미지(a, b, c)가 촬영 되는 동안 촬영 위치가 y축 방향으로 이동한 거리 정보가 요구될 수 있다.
프로세서(140)가 촬영 위치의 이동 거리 정보를 용이하게 획득하기 위해 촬영부(110)는 이동 스테이지(130)에 의해 촬영 위치가 소정의 거리만큼 변할 때 마다 대상물(10)을 촬영할 수 있다. 예를 들어, 촬영부(110)는 이동 스테이지(130)가 대상물(10) 또는 촬영부(110)를 일정한 거리만큼 움직일 때 마다 발생하는 펄스 신호에 의해 동기화 되어 대상물(10)을 촬영할 수 있다.
다시 도 3을 참조하면, 실시예에 따른 직진도 측정 장치(100)는 촬영 위치가 소정의 거리만큼 변할 때 마다 펄스 신호를 발생시키는 엔코더(135)를 더 포함할 수 있다. 엔코더(135)는 이동 스테이지(130)와 연결되어 이동 스테이지(130)의 기기적 움직임을 감지할 수 있다. 엔코더(135)는 이동 스테이지(130)가 광원(112) 또는 대상물(10)을 움직이는 거리를 감지할 수 있다. 엔코더(135)는 이동 스테이지(130)에 의해 촬영부(110)의 촬영 위치가 소정의 간격만큼 움직일 때 마다 펄스 신호를 발생시킬 수 있다. 엔코더(135)에서 발생된 펄스 신호는 촬영부(110)에 전송될 수 있다.
촬영부(110)는 엔코더(135)의 펄스 신호에 의해 동작이 동기화 될 수 있다. 예를 들어, 촬영부(110)는 펄스 신호를 수신하면 대상물(10)을 노출 시간 E동안 촬영할 수 있다. 촬영부(110)가 엔코더(135)의 펄스 신호에 의해 동기화 되기 때문에, 촬영 이미지는 촬영 위치가 y축 방향으로 일정한 거리만큼 변할 때 마다 획득될 수 있다. 그리고, 프로세서(140)는 촬영 이미지들이 촬영되는 동안, 촬영 위치의 변화 량을 촬영 이미지의 개수로부터 도출해낼 수 있다.
도 8 및 도 9에서는 촬영 이미지에서 참조 라인(L, L')의 식별이 상대적으로 용이할 수 있다. 하지만, 촬영 이미지의 품질에 따라 참조 라인(L, L')의 식별 자체가 어려운 경우가 있을 수 있다.
도 10은 촬영 이미지의 예를 나타낸 도면이다.
도 10을 참조하면, 촬영 이미지의 명도 변화가 적은 경우, 참조 라인(L, L')을 식별하는 것이 용이하지 않을 수 있다. 프로세서(140)가 참조 라인(L, L')을 식별하는 것이 용이하지 않게 되면 참조 라인(L, L')의 위치 변화로부터 진직도를 측정하는 것이 용이하지 않을 수 있다.
도 10에서 나타낸 문제점을 해결하기 위하여 프로세서(140)는 촬영부(110)로부터 수신한 촬영 이미지를 명도를 기준으로 이진화 할 수 있다. 프로세서(140)는 촬영 이미지에서 명도가 소정의 기준치 보다 높은 영역과 그렇지 않은 영역으로 이분화 할 수 있다. 프로세서(140)는 촬영 이미지에서 명도가 기준치보다 높은 영역은 백색으로 처리하고, 명도가 기준치보다 낮은 영역은 흑색으로 처리할 수 있다.
도 11은 도 10에서 나타낸 촬영 이미지를 이진화 한 것을 나타낸 도면이다.
도 11을 참조하면, 프로세서(140)는 도 10에서 나타낸 촬영 이미지를 명도를 기준으로 이진화 한 이진화 이미지를 생성할 수 있다. 이진화 이미지에서는 명도가 기준치 보다 높은 영역과 명도가 기준치 보다 낮은 영역의 구분이 용이해질 수 있다. 따라서, 이진화 이미지에서는 참조 라인(L, L')의 위치 식별이 용이해질 수 있다.
도 11에서는 프로세서(140)가 촬영 이미지를 명도를 기준으로 이진화 했지만, 실시예가 이에 제한되는 것은 아니다. 프로세서(140)는 기 설정된 명도 구간 별로 촬영 이미지의 명도를 불연속 적으로 표시할 수도 있다. 예를 들어, 프로세서(140)는 촬영 이미지에서 제1 범위에 있는 명도 값을 가지는 영역은 제1 명도로 통일하여 표시하고 제2 범위에 있는 명도 값을 가지는 영역은 제2 명도로 통일하여 표시하며 제3 범위에 있는 명도 값을 가지는 영역은 제3 명도로 통일하여 표시할 수도 있다. 즉, 프로세서(140)는 촬영 이미지를 n개(n임의의 자연수) 명도 값으로 표시할 수도 있다.
도 12는 도 10에서 나타낸 촬영 이미지를 기 설정된 복수의 명도 값으로 변환한 이미지를 나타낸다.
도 12를 참조하면, 촬영 이미지가 복수의 명도 값으로 표시될 수 있다. 이 경우, 촬영 이미지의 원본에 비해 참조 라인(L, L')의 식별이 용이할 수 있다. 또한, 촬영 이미지의 대략적인 명도 변화 또한 변환 이미지에서 표시될 수 있다.
이상에서 도 1 내지 도 12를 참조하여 예시적인 실시예에 따른 직진도 측정 장치 및 방법에 관하여 설명하였다. 상술한 실시예들에 따르면, 가공 방향을 따라 촬영 위치가 이동하는 동안 대상물(10)에 표시된 참조 라인(L, L')을 촬영할 수 있다. 따라서, 촬영 위치가 정지된 상태에서 측정하는 경우에 비해 직진도 측정 속도가 빠를 수 있다. 또한, 촬영 위치가 움직임에 따라 발생하는 이미지의 흐림 현상에 의해 참조 라인(L, L')의 위치가 불분명 해지는 것을 방지할 수 있다. 따라서, 직진도 측정의 정확도가 높아질 수 있다.
이상의 설명에서 많은 사항들이 구체적으로 기재되어 있으나, 그들은 발명의 범위를 한정하는 것이라기보다 바람직한 실시예의 예시로서 해석되어야 한다. 때문에 본 발명의 범위는 설명된 실시예에 의하여 정하여 질 것이 아니고 특허 청구범위에 기재된 기술적 사상에 의해 정하여져야 한다.

Claims (14)

  1. 대상물이 가공되는 방향의 진직도를 측정하는 방법에 있어서,
    상기 대상물의 가공 방향을 따라 촬영 위치를 변화시키면서 대상물에 표시된 참조 라인의 촬영 이미지를 획득하는 단계; 및
    상기 촬영 이미지에 나타난 상기 참조 라인의 위치로부터 상기 가공 방향의 진직도를 측정하는 단계;를 포함하며,
    상기 촬영 이미지를 획득하는 단계는, 상기 촬영 위치가 움직임에 따라 상기 촬영 이미지에서 나타나는 상기 참조 라인의 선폭이 촬영부의 분해능 보다 작도록 하는 진직도 측정 방법.
  2. 제 1 항에 있어서,
    상기 촬영부는,
    상기 참조 라인의 선폭이 상기 촬영부의 분해능의 1/2보다 작아지도록 하는 진직도 측정 방법.
  3. 제 1 항에 있어서,
    상기 촬영 이미지를 획득하는 단계는,
    상기 촬영 이미지를 촬영하는 노출 시간 및 상기 촬영 위치를 움직이는 속도가 수학식 1을 만족하도록 하는 진직도 측정 방법.
    V*E*tanθ < P/M .... 수학식 1
    (V = 가공 위치 이동 속도, E = 노출 시간, θ = 가공 방향과 참조 라인 사이의 각도, P = 픽셀 크기, M = 배율)
  4. 제 1 항에 있어서,
    상기 촬영 이미지를 획득하는 단계는,
    상기 촬영 이미지의 제1 방향 길이와 제2 방향 길이가 서로 다르도록 하는 진직도 측정 방법.
  5. 제 4 항에 있어서,
    상기 촬영 이미지를 획득하는 단계는,
    상기 촬영 이미지를 라인 이미지로 촬영하는 진직도 측정 방법.
  6. 제 1 항에 있어서,
    상기 진직도를 측정하는 단계는,
    상기 촬영 이미지의 명도를 기준으로 상기 촬영 이미지를 이진화 이미지로 변환하는 단계 및 상기 이진화 이미지로부터 상기 참조 라인의 위치를 식별하는 단계를 포함하는 진직도 측정 방법.
  7. 제 1 항에 있어서,
    상기 촬영 위치가 변함에 따라 펄스 신호를 발생시키는 단계;를 더 포함하며,
    상기 촬영 이미지를 획득하는 단계는, 상기 펄스 신호에 의해 동기화 되어 상기 촬영 이미지를 획득하는 진직도 측정 방법.
  8. 대상물이 가공되는 방향의 진직도를 측정하는 장치에 있어서,
    대상물에 표시된 참조 라인의 촬영 이미지를 획득하는 촬영부;
    상기 대상물의 가공 방향을 따라 상기 촬영부의 촬영 위치를 이동 시키는 이동 스테이지;
    상기 촬영 이미지에 나타난 상기 참조 라인의 위치로부터 상기 가공 방향의 진직도를 측정하는 프로세서;를 포함하며,
    상기 프로세서는, 상기 촬영 위치가 움직임에 따라 상기 촬영 이미지에서 나타나는 상기 참조 라인의 선폭이 촬영 상기 촬영부의 분해능 보다 작도록 상기 촬영부를 제어하는 진직도 측정 장치.
  9. 제 8 항에 있어서,
    상기 프로세서는,
    상기 참조 라인의 선폭이 상기 촬영부의 분해능의 1/2보다 작도록 상기 촬영부를 제어하는 진직도 측정 장치.
  10. 제 8 항에 있어서,
    상기 프로세서는,
    상기 촬영 위치가 움직이는 속도 및 상기 촬영부의 노출 시간이 수학식 1을 만족하도록 상기 촬영부 및 이동 스테이지를 제어하는 진직도 측정 장치.
    V*E*tanθ < P/M .... 수학식 1
    (V = 가공 위치 이동 속도, E = 노출 시간, θ = 가공 방향과 참조 라인 사이의 각도, P = 픽셀 크기, M = 배율)
  11. 제 8 항에 있어서,
    상기 촬영부는,
    상기 촬영 이미지의 제1 방향 길이와 제2 방향 길이가 서로 다르도록 하는 진직도 측정 장치.
  12. 제 11 항에 있어서,
    상기 촬영부는,
    상기 촬영 이미지를 라인 이미지로 촬영하는 진직도 측정 장치.
  13. 제 9 항에 있어서,
    상기 프로세서는,
    상기 촬영 이미지의 명도를 기준으로 상기 촬영 이미지를 이진화 이미지로 변환하는 진직도 측정 장치.
  14. 제 8 항에 있어서,
    상기 촬영 위치가 변함에 따라 펄스 신호를 발생시키는 엔코더;를 더 포함하며,
    상기 촬영부는, 상기 펄스 신호에 의해 동기화 되어 상기 촬영 이미지를 획득하는 진직도 측정 장치.
PCT/KR2016/010140 2016-02-25 2016-09-09 진직도 측정 장치 및 방법 WO2017146330A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160022834A KR101808262B1 (ko) 2016-02-25 2016-02-25 진직도 측정 장치 및 방법
KR10-2016-0022834 2016-02-25

Publications (1)

Publication Number Publication Date
WO2017146330A1 true WO2017146330A1 (ko) 2017-08-31

Family

ID=59685359

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/010140 WO2017146330A1 (ko) 2016-02-25 2016-09-09 진직도 측정 장치 및 방법

Country Status (3)

Country Link
KR (1) KR101808262B1 (ko)
TW (1) TWI626421B (ko)
WO (1) WO2017146330A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113358038A (zh) * 2020-03-04 2021-09-07 武汉精立电子技术有限公司 一种厚度测量装置、方法及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990051083A (ko) * 1997-12-19 1999-07-05 이계철 비접촉 광학계를 이용한 미세 홀의 진직도 측정장치 및 방법
KR20110018074A (ko) * 2009-08-17 2011-02-23 (주)미래컴퍼니 레이저 가공 및 검사장치 및 방법
KR20110117371A (ko) * 2010-04-21 2011-10-27 (주)에이앤아이 패턴 검사 장치
KR20120119029A (ko) * 2011-04-20 2012-10-30 경남대학교 산학협력단 1차원 치수 측정장치, 이를 포함하는 공작머신 및 1차원 치수측정방법
JP2014021042A (ja) * 2012-07-23 2014-02-03 Fujifilm Corp 真直度測定装置及び真直度測定方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6538753B2 (en) * 2001-05-22 2003-03-25 Nikon Precision, Inc. Method and apparatus for dimension measurement of a pattern formed by lithographic exposure tools
TWI322260B (en) * 2006-02-13 2010-03-21 Hitachi Int Electric Inc Image pickup apparatus equipped with a microscope and size measuring apparatus
CN103673933A (zh) * 2013-11-29 2014-03-26 中国科学院上海光学精密机械研究所 长导轨直线度测量装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990051083A (ko) * 1997-12-19 1999-07-05 이계철 비접촉 광학계를 이용한 미세 홀의 진직도 측정장치 및 방법
KR20110018074A (ko) * 2009-08-17 2011-02-23 (주)미래컴퍼니 레이저 가공 및 검사장치 및 방법
KR20110117371A (ko) * 2010-04-21 2011-10-27 (주)에이앤아이 패턴 검사 장치
KR20120119029A (ko) * 2011-04-20 2012-10-30 경남대학교 산학협력단 1차원 치수 측정장치, 이를 포함하는 공작머신 및 1차원 치수측정방법
JP2014021042A (ja) * 2012-07-23 2014-02-03 Fujifilm Corp 真直度測定装置及び真直度測定方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113358038A (zh) * 2020-03-04 2021-09-07 武汉精立电子技术有限公司 一种厚度测量装置、方法及电子设备

Also Published As

Publication number Publication date
TWI626421B (zh) 2018-06-11
TW201730511A (zh) 2017-09-01
KR20170100360A (ko) 2017-09-04
KR101808262B1 (ko) 2017-12-12

Similar Documents

Publication Publication Date Title
WO2012050378A2 (ko) 기판 검사방법
WO2014163375A1 (ko) 기판의 이물질 검사방법
KR102504473B1 (ko) 노광 장치, 노광 장치의 얼라인먼트 방법, 및 프로그램
WO2017039171A1 (ko) 레이저 가공장치 및 레이저 가공방법
WO2017204560A1 (en) Method and apparatus of detecting particles on upper surface of glass, and method of irradiating incident light
WO2017146330A1 (ko) 진직도 측정 장치 및 방법
WO2017142132A1 (ko) 마킹 위치 보정장치 및 방법
WO2023219448A1 (ko) 광을 이용한 롤러 갭 측정시스템 및 이를 이용한 롤러 갭 측정방법
WO2009119983A2 (ko) 중복 영상을 이용한 에프피디 기판 및 반도체 웨이퍼 검사시스템
WO2012144738A2 (ko) 필름의 패턴의 사행 제어 장치
WO2017183923A1 (ko) 물품의 외관 검사장치 및 이를 이용한 물품의 외관 검사방법
WO2023140468A1 (ko) 모아레 패턴을 형성하는 오버레이 마크, 이를 이용한 오버레이 측정방법, 및 반도체 소자의 제조방법
WO2013100223A1 (ko) 기판 검사장치의 높이정보 생성 방법
KR20040035553A (ko) 고장 해석 방법
WO2018048200A1 (ko) 편석 분석 장치 및 방법
US10134650B2 (en) Apparatus and method for cutting a wafer that is substantially covered by an opaque material
WO2021137488A1 (ko) 레이저 가공 시스템 및 레이저 가공 방법
WO2017159938A1 (ko) 촬영 방법 및 촬영 방법을 이용한 대상물 정렬 방법
WO2022245195A1 (ko) 두께 측정 장치
WO2020022786A1 (ko) 시편 검사 장치 및 시편 검사 방법
JP2009014447A (ja) 欠陥検査装置及び欠陥検査プログラム
WO2021101142A1 (ko) 비접촉식 위치정보 획득장치 및 이를 이용한 위치정보 획득방법
WO2023204423A1 (ko) 초점 거리 측정 장치 및 방법
KR20190105916A (ko) 플렉시블 oled 셀의 영상 획득 시스템
WO2021095993A1 (ko) 광을 이용한 측정 장치 및 측정 방법

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16891734

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 16891734

Country of ref document: EP

Kind code of ref document: A1