WO2023075368A1 - 물체 형상 복원 방법 - Google Patents

물체 형상 복원 방법 Download PDF

Info

Publication number
WO2023075368A1
WO2023075368A1 PCT/KR2022/016365 KR2022016365W WO2023075368A1 WO 2023075368 A1 WO2023075368 A1 WO 2023075368A1 KR 2022016365 W KR2022016365 W KR 2022016365W WO 2023075368 A1 WO2023075368 A1 WO 2023075368A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
region
interest
optical image
interference pattern
Prior art date
Application number
PCT/KR2022/016365
Other languages
English (en)
French (fr)
Inventor
이대건
라식바이 파텔니밋
이유진
Original Assignee
(주)힉스컴퍼니
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)힉스컴퍼니 filed Critical (주)힉스컴퍼니
Publication of WO2023075368A1 publication Critical patent/WO2023075368A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]

Definitions

  • the present invention relates to a method for restoring an object shape, and more particularly, to a method for restoring an object shape capable of precisely removing noise for each shape of an object.
  • a digital holographic microscope is based on holography technology and acquires hologram information (eg, an interference pattern or interference pattern) from a digital imaging device (eg, a charge coupled device), and obtains the obtained hologram It refers to a microscope that measures 3D shape information of an object through information.
  • a general microscope is a device that measures the shape of an object by shining a general light source on the object and measuring the intensity distribution of light reflected or transmitted from the object
  • the digital holographic microscope is a device that measures the interference of light that occurs when a plurality of lights meet. It is a device that records information in the form of a digital image sensor through a digital imaging device, extracts phase information from the recorded interference fringe information, and restores 3D shape information of a target object using the extracted phase information.
  • the present invention relates to a method for restoring an object shape capable of accurately removing noise for various object shapes when restoring an object shape.
  • the region of interest is defined by a region pass filter.
  • the image of the ROI includes at least one frequency peak.
  • the step of converting the interference pattern image into a signal in the frequency domain is performed through Fourier transform.
  • the generating of the correction image for the interference pattern image may include converting the extracted reference optical image and the objective optical image of the region of interest into spatial domain signals; standardizing the brightness of the reference optical image and the objective optical image of the region of interest converted into the signal of the spatial region; calculating a difference between a signal value of the standardized reference optical image and a signal value of the standardized objective optical image; generating a new frequency domain field of an image to be reconstructed based on the difference between the calculated signal values; extracting a phase of the generated new frequency domain field; removing a discontinuity of the phase based on the extracted phase; and reconstructing phase information of the new frequency domain by tracking the actual phase value of the object.
  • the step of calculating the difference between the signal value of the standardized reference optical image and the signal value of the standardized objective optical image is the step of calculating an optical path difference between the reference optical image and the objective optical image.
  • the step of converting the reference optical frequency domain and the objective optical frequency domain of the ROI into signals in the spatial domain is performed through inverse Fourier transform.
  • the user can directly set the region of interest in the frequency domain in the spectrum image, so that the size of the region of interest can be finely adjusted on the basis of an image unit (for example, 1 pixel unit) this is possible Accordingly, it is possible to remove detailed and precise noise for each object. In other words, detailed and precise noise removal is possible regardless of the shapes of various objects.
  • FIG. 1 is a schematic diagram of an object shape restoration apparatus according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing an example of an interference pattern image and an example of a peak in a spectrum image.
  • 3 is a diagram showing a simplified spectrum image of an interference pattern image converted into a signal in the frequency domain.
  • FIG. 4 is a diagram showing a picture of a spectrum image of an interference pattern image converted into a signal in the frequency domain.
  • FIG. 5 is a schematic diagram of an object shape restoration apparatus according to another embodiment of the present invention.
  • FIG. 6 is a conceptual diagram of an optical system and reconstruction algorithm of a reflection-type digital holographic microscope.
  • FIG. 8 is a diagram showing the Higgs Company DHN system.
  • FIG. 9 is a diagram showing a Tomocube DHM system.
  • FIG. 10 is a diagram illustrating a Lyncee tec DHM system.
  • FIG. 11 is a diagram showing ZYGO's interferometer-based surface shape measurement equipment.
  • 12 is a diagram showing worldwide semiconductor equipment sales in the first quarter of 2021.
  • 13 is a diagram showing the advanced packaging industry prospects.
  • 15 is a diagram showing the status and prospects of semiconductor facility investment in major countries.
  • first, second, and third may be used to describe various components, but these components are not limited by the terms. The terms are used for the purpose of distinguishing one component from other components. For example, a first component may be termed a second or third component, etc., and similarly, a second or third component may be termed interchangeably, without departing from the scope of the present invention.
  • the digital holography technology when light of a single wavelength such as 1 a laser is generated, 2 the generated light of a single wavelength is split into two lights while passing through a light splitter, and 3 One of the divided lights (eg, reference light) is directly provided to an imaging device (eg, digital image sensor), and the other light (eg, objective light) light) is reflected by the object to be measured and then provided to the above-described imaging device, 4 accordingly, an interference phenomenon occurs between reference light and object light in the imaging device, 5 interference pattern (or interference pattern) information of these lights ( For example, an interference pattern image) is recorded in an imaging device, and 6 the recorded interference pattern information is input to a processing device such as a computer, and then the shape of the object to be measured can be restored through the computer.
  • the interference pattern information recorded through the process in 5 may be commonly referred to as a hologram.
  • FIG. 1 is a schematic diagram of an object shape restoration apparatus 100 according to an embodiment of the present invention
  • FIG. 2 is a diagram showing an example of an interference pattern image and an example of a peak in a spectrum image.
  • the object shape restoration apparatus 100 may include a reflection type digital holographic microscope 110 and a processing device 120 .
  • the reflection type digital holographic microscope 110 as in one example shown in FIG. 1, a light source (LS), a first light splitter (BS1), a second light splitter (BS2), an optical mirror (MR), A first neutral density filter (NDF1), a first spatial filtering assembly (SFA1), a first collimating lens (CL1), a first condenser lens (L1), a third light beam Splitter BS3, second neutral filter NDF2, second spatial filter assembly SFA2, second parallel lens CL2, second focusing lens L2, fourth beam splitter BS4, objective lens OL ), a tube lens TL, and an imaging device CCD.
  • LS light source
  • BS1 first light splitter
  • BS2 second light splitter
  • MR optical mirror
  • a first neutral density filter (NDF1) A first neutral density filter
  • SFA1 first spatial filtering assembly
  • CL1 first collimating lens
  • L1 first condenser lens
  • L1 first condenser lens
  • L1 first condenser lens
  • the light source LS may generate laser light.
  • the first light splitter BS1 may be disposed between the light source LS and the second neutral filter NDF2.
  • the second light splitter BS2 may be disposed between the first light splitter BS1 and the optical mirror MR.
  • the first neutral filter NDF1 may be disposed between the second light splitter BS2 and the first spatial filter assembly SFA1.
  • the first spatial filter assembly SFA1 may be disposed between the first neutral filter NDF1 and the first parallel lens CL1.
  • the first parallel lens CL1 may be disposed between the first spatial filter assembly SFA1 and the first focusing lens L1.
  • the first focusing lens L1 may be disposed between the first parallel lens CL1 and the third beam splitter BS3. Meanwhile, the first focusing lens L1 may be a lens for curvature matching.
  • the first focusing lens L1 may move in the direction of an arrow in FIG. 1 to match the curvature of the object light L_Obj and the reference light L_Ref.
  • the first focusing lens L1 may move toward the first parallel lens CL1 or toward the third beam splitter BS3. In some cases the first focusing lens L1 needs to be changed.
  • the third light splitter BS3 may be disposed between the tube lens TL and the imaging device CCD.
  • the second neutral filter NDF2 may be disposed between the first light splitter BS1 and the second spatial filter assembly SFA2.
  • the second parallel lens CL2 may be disposed between the second spatial filter assembly SFA2 and the second focusing lens L2.
  • the second focusing lens L2 may be disposed between the second parallel lens CL2 and the fourth beam splitter BS4.
  • the fourth beam splitter BS4 may be disposed between the tube lens TL and the objective lens OL.
  • the objective lens OL may be disposed between the fourth light splitter BS4 and the object.
  • the tube lens TL may be disposed between the fourth and third beam splitters BS4 and BS3.
  • the imaging device CCD may acquire the interference pattern WI generated by interference between the above-described reference light L_Ref and the object light L_Obj.
  • the imaging device CCD may convert the interference pattern WI, which is an optical signal, into an electrical signal.
  • the processing device 120 receives an image of the reference light L_Ref (hereinafter referred to as a reference light image) and an image of the object light L_Obj (hereinafter referred to as an object light image) from the imaging device CCD, and outputs the reference light image And by selectively extracting an image of a position set as a region of interest (eg, a region of interest set by a user) among objective optical images, it can help to selectively analyze only meaningful data corresponding to the region of interest. there is.
  • a region of interest eg, a region of interest set by a user
  • Processing device 120 may include, for example, a computer.
  • the light generated from the light source LS may be split into two lights by being split through the first light splitter BS1.
  • the light output from the light source LS and incident to the first beam splitter BS1 is reflected by the first beam splitter BS1 and the path is changed to the reference light L_Ref and the first beam splitter BS1.
  • L_Obj the object light L_Obj passing through.
  • the reference light L_Ref reflected from the first light splitter BS1 described above passes through the second light splitter BS2 and is incident on the optical mirror MR, and is then reflected from the optical mirror MR to generate second light again.
  • the reference light L_Ref that is incident on the splitter BS2 and re-injected into the second beam splitter BS2 by the optical mirror MR is reflected by the second beam splitter BS2 to form a first neutral filter ( NDF1), the first spatial filter assembly (SFA1), the first parallel lens (CL1) and the first focusing lens (L1) sequentially pass through and enter the third beam splitter (BS3), the first focusing lens (L1) ), the reference light L_Ref incident to the third beam splitter BS3 is reflected by the third beam splitter BS3 and incident on the imaging device CCD.
  • the object light L_Obj transmitted through the above-described first beam splitter BS1 is transmitted through the second neutral filter NDF2, the second spatial filter assembly SFA2, the second parallel lens CL2, and the second focusing lens ( L2) and is incident on the fourth beam splitter BS4, and the objective light L_Obj incident on the fourth beam splitter BS4 through the second focusing lens L2 is transmitted through the fourth beam splitter ( BS4), passes through the objective lens OL, and is incident on the object OBJ, and the objective light L_Obj incident on the object OBJ is reflected by the object OBJ and returns to the objective lens ( After passing through OL), it is incident again to the fourth beam splitter BS4, and the objective light L_Obj incident to the fourth beam splitter BS4 through the objective lens OL passes through the fourth beam splitter BS4.
  • the object light L_Obj passing through the tube lens TL is incident to the third beam splitter BS3, and passes through the tube lens TL to the third beam splitter.
  • the object light L_Obj incident on BS3 passes through the third beam splitter BS3 and is incident on the imaging device CCD.
  • the object light L_Obj may be combined with the aforementioned reference light L_Ref in front of the imaging device CCD to generate the interference pattern WI.
  • This interference pattern WI is converted into an electrical signal by the imaging device CCD.
  • the imaging device CCD may generate an interference pattern image as an electrical signal for the interference pattern WI.
  • the interference pattern image from the imaging device CCD is input to the processing device 120 as an input image.
  • the processing device 120 receiving the interference pattern image will be described in detail.
  • the processing device 120 converts two images (eg, a reference light image and an object image) of the input interference pattern image into the processing device 120.
  • optical image is subjected to Fourier (eg, fast Fourier) transformation.
  • the processing device 120 transforms the two input images (eg, a reference optical image and an objective optical image in the spatial domain (and/or time domain)) into a frequency domain ( can be converted into a signal in the frequency domain).
  • the processing device 120 may extract a region of interest from the reference optical image and the objective optical image converted into signals in the frequency domain.
  • the processing device may extract an image of a preset region of interest from the reference optical image and the objective optical image.
  • the region of interest may be selected by the user.
  • a user defines a specific region (ie, region of interest) in an image converted into a signal in the frequency domain (eg, a spectrum image) using a band pass filter or a field. By doing so, the image of the region of interest can be selectively extracted.
  • an image (eg, an interference pattern image) input from the imaging device CCD to the processing device 120 includes a periodic component to form a pattern.
  • the image is referred to as a so-called interference pattern image, and this interference pattern image appears in a form merged with an original image (eg, an image of an original object).
  • an image array of an input image eg, an interference pattern image
  • each pixel value of the imaging device CCD can be expressed as a sum of period functions and their coefficients.
  • a coefficient obtained by Fourier transforming a signal of this input image is a complex number, which can be expressed in polar coordinates on a complex plane, and the distance between the origin of the complex plane and the polar coordinates can be defined as a spectrum.
  • the spectrum can indicate how strongly the corresponding frequency component is included in the original signal (the origin of the complex plane). Since the farther away from the origin is, the distance from the original signal can be seen as the spectrum.
  • an input image eg, an interference pattern image
  • a peak eg, a frequency peak
  • An area where is generated may be an area having period component (significant data) data of an actual input image (eg, an interference pattern image).
  • the above-described region pass filter may help a user directly select a significant region from which a period component is to be extracted from a spectrum image.
  • the processing device 120 converts the reference optical image and the objective optical image, which are signals in the spatial domain, into signals in the frequency domain, and then extracts the region of interest (A) corresponding to the region pass filter set by the user. It helps to analyze only the periodic component, that is, the significant data.
  • the detection position of the peak P is not fixed to a specific position and is flexible depending on the shape of the sample (eg, the shape of the object OBJ) and the interference pattern setting of the optical module, the optical module and the sample (eg, , object OBJ), it is necessary to extract a flexible region (eg, a region of interest).
  • a flexible region eg, a region of interest.
  • Accuracy of data is determined according to the extraction range of a region, because not only significant period components but also frequency noise (white noise) may be included in the extracted region range. As such, when frequency noise is included, it is difficult to obtain accurate data on the shape of the sample.
  • the present invention allows the user to directly select (or set) a region of interest in the frequency domain in a spectrum image (eg, a region of a spectrum image), based on an image unit (eg, 1 pixel unit). It is possible to fine-tune the size of the region of interest.
  • the spectrum image is an image formed in units of pixels
  • the user can finely set the size of the region of interest in the spectrum image in units of pixels, and can also finely move the region of interest in the spectrum image in units of pixels.
  • noise removal for each sample eg, object
  • the processing device 120 stores parameters related to the coordinates and size of the region of interest. Thereafter, the processing device 120 may extract an image of the set region of interest (A) and generate a correction image for the interference pattern image based on the extracted image of the region of interest (A).
  • the extracted image of the region of interest A (eg, an image converted into a signal in the frequency domain) is converted into a signal in the spatial domain (and/or time domain).
  • the processing device 120 converts the extracted images of the region of interest A into spatial domain signals by inverse Fourier transforming the extracted images of the region of interest A (eg, the reference optical image and the objective optical image). can be converted to Meanwhile, the user may select the above-described region (eg, the region of interest A) using the above-described band pass filter or field.
  • the processing device 120 normalizes the brightness of the reference optical image and the objective optical image converted to the spatial domain.
  • the processing device 120 determines the standardized (i.e., the brightness standardized) difference between the signal value of the reference optical image and the signal value of the objective optical image, for example, the view between the signal of the reference optical image and the signal of the objective optical image. rocha can be calculated.
  • the processing device 120 standardizes the overall brightness by using the obtained brightness values of the two images converted into the signals of the two spatial domains, and obtains the optical path difference between the reference optical image and the objective optical image. can do.
  • the brightness value of the two images in the spatial domain is used as a standard based on the principle that the half wavelength of the optical path difference is bright when it is an even number and dark when it is an odd number.
  • the optical path difference can be calculated as
  • the processing device 120 generates a new frequency domain field of an image to be reconstructed into a 3D shape based on the calculated optical path difference.
  • Processing unit 120 then extracts the phase of the new frequency domain field that is created.
  • Processing unit 120 then removes discontinuities (e.g., phase discontinuities) from the extracted phase, tracks the actual phase value of the object, and reconstructs the phase information of the new frequency domain field. Bar, the processing device 120 may generate (or obtain) a correction image of the interference pattern image (or object OBJ) by reconstructing such phase information.
  • discontinuities e.g., phase discontinuities
  • the processing device 120 may perform a function of restoring a 3D shape of an object based on an interference pattern image.
  • the processing device 120 may also perform a function of restoring quantitative shape information of the object. For example, the processing device 120 obtains the above-described phase information on the reference optical image and the objective optical image, and then calculates a phase difference between the reference optical image and the objective optical image. Then, the processing device 120 may calculate the quantitative size of the object to be measured based on the calculated phase difference, and then restore the 3D shape of the object.
  • 3 is a diagram showing a simplified spectrum image of an interference pattern image converted into a signal in the frequency domain.
  • the spectrum image when the interference pattern image is converted into a signal in the frequency domain, the spectrum image includes not only the period component (eg, peak (P)) of the actual input image (ie, the actually input interference pattern image), but also Noise (N; white noise) also appears together.
  • P peak
  • N Noise
  • shape data of the measured sample eg, object OBJ
  • the accuracy of the shape data is higher in an area containing less noise (N).
  • FIG. 4 is a diagram showing a picture of a spectrum image of an interference pattern image converted into a signal in the frequency domain.
  • the user inputs the coordinates (eg, x-y coordinates), height, and width of the region of interest A to the processing device 120 or 220 through an input means, thereby
  • the position and size eg, the area of the region of interest A defined by the height and size
  • the position and size may be set.
  • the coordinates of the region of interest (A) may be defined as x-axis and y-axis coordinates (eg, center coordinates) of the center of the region of interest (A), and the height of the region of interest (A) is the above-described center It can be defined as the size in the y-axis direction and the size in the -y-axis direction from the coordinates, and the width of the region of interest (A) is the size in the x-axis direction and the size in the -x-axis direction from the center coordinates described above.
  • the size in the y-axis direction from the center coordinate and the size in the -y-axis direction are equal to each other, and the size in the y-axis direction and the size in the -y-axis direction are equal to each other.
  • the user may precisely move the region of interest (A) to a desired location in a pixel unit in the spectrum image as shown in FIG. 4 through an input device such as a mouse.
  • a peak (P; for example, a frequency peak) and a noise (N) are easily observed with the naked eye in a spectral image, and a user may view only the frequency peak (P) within the region of interest (A).
  • the coordinates and size of the region of interest A may be precisely adjusted in units of pixels to avoid noise N.
  • FIG. 5 is a schematic diagram of an object shape restoration device 200 according to another embodiment of the present invention.
  • the object shape restoration apparatus 200 may include a transmission digital holographic microscope 210 and a processing device 220 .
  • the transmission type digital holographic microscope 210 includes a light source LS, a neutral filter NDF, a spatial filter assembly SFA, a first collimating lens AL1, and a first optical Mirror MR1, first beam splitter BS1, second collimating lens AL2, second optical mirror MR2, second beam splitter BS2, third optical mirror MR3, objective lens OL , a tube lens TL and an imaging device CCD.
  • the first collimating lens AL1 and the second collimating lens AL2 may be configured as a set.
  • one set of the first collimating lens AL1 and the second collimating lens AL2 may be composed of an achromatic doublet lens.
  • the light source LS may generate laser light.
  • the neutral filter NDF may be disposed between the light source LS and the spatial filter assembly SFA.
  • the spatial filter assembly SFA may be disposed between the neutral filter NDF and the first collimating lens AL1.
  • the first collimating lens AL1 may be disposed between the spatial filter assembly SFA and the first optical mirror MR1.
  • the first optical mirror MR1 may be disposed between the first collimating lens AL1 and the first beam splitter BS1.
  • the first light splitter BS1 may be disposed between the first and third optical mirrors MR1 and MR3.
  • the second collimating lens AL2 may be disposed between the first light splitter BS1 and the second optical mirror MR2.
  • the second optical mirror MR2 may be disposed between the second collimating lens AL2 and the second light splitter BS2.
  • the second light splitter BS2 may be disposed between the tube lens TL and the imaging device CCD.
  • the third optical mirror MR3 may be disposed between the first light splitter BS1 and the object OBJ.
  • the objective lens OL may be disposed between the object OBJ and the tube lens TL.
  • the tube lens TL may be disposed between the objective lens OL and the second beam splitter BS2.
  • the light generated from the light source LS sequentially passes through the neutral filter NDF, the spatial filter assembly SFA, and the first collimating lens AL1, and is incident on the first optical mirror MR1, and then the first optical mirror MR1.
  • the light is reflected from the optical mirror MR1 and is incident on the first light splitter BS1.
  • the light incident to the first light splitter BS1 may be split into two beams.
  • the light reflected by the first optical mirror MR1 and incident on the first light splitter BS1 is reflected from the first light splitter BS1 and the path is changed to the reference light L_Ref and the first light splitter BS1. It may be split into object light L_Obj passing through the light splitter BS1.
  • the reference light L_Ref reflected from the first light splitter BS1 described above passes through the second collimating lens AL2, is incident on the second optical mirror MR2, is reflected, and then incident on the second light splitter BS2.
  • the reference light L_Ref reflected by the second optical mirror MR2 and incident to the second light splitter BS2 is reflected by the second light splitter BS2 and incident to the imaging device CCD.
  • the object light L_Obj transmitted through the above-described first beam splitter BS1 is incident on the third optical mirror MR3, reflected, and then transmitted through the object OBJ to be incident on the objective lens OL.
  • Object light L_Obj incident to the objective lens OL passes through the tube lens TL and the second beam splitter BS2 and is incident on the imaging device CCD.
  • the object light L_Obj may be combined with the aforementioned reference light L_Ref in front of the imaging device CCD to generate the interference pattern WI.
  • This interference pattern WI is converted into an electrical signal by the imaging device CCD.
  • the imaging device CCD may generate an interference pattern image as an electrical signal for the interference pattern WI.
  • the interference pattern image from the imaging device CCD is input to the processing device 220.
  • the operation of the processing device 220 receiving the interference pattern image is similar to the processing device 120 of FIG. 1 described above. Since it is substantially the same as the operation of , the description of the operation of the processing device 220 of FIG. 2 refers to the processing device 120 of FIG. 1 and related descriptions described above.
  • Digital holographic microscope technology is a technology that uses coherent interference to restore the phase information of interference light from the interference pattern caused by the surface curvature of a style.
  • This technology is a DHN-based 3D surface shape that can measure the width and depth of each upper and lower part of the TSV, the width and depth of each upper and lower part of the POP via, as well as particles and cracks on the wafer surface, and the surface shape of a mirror-type reflector such as a polished surface or a metal material. measurement technology
  • mirror-type reflectors such as polished surfaces and metallic materials
  • Evaluation items unit skill level 1. Inspection area (FoV) mm2 7 ⁇ 7 2. Depth measurement accuracy nm - 2-1 Depth measurement repeatability nm 54 2-2 Depth measurement resolution nm - 2-3 Depth measurement range ⁇ m 217 3.Aspect Ratio ratio 1:3 4. Stage position stability ⁇ m - 5. Stage position precision ⁇ m -
  • blanket Contents of core element technology - A 3D measurement/inspection technology that combines digital holography technology and microscopy technology to irradiate a laser beam on a sample and acquire shape information through a hologram pattern generated by light interference - Hologram in holography It is a measurement technology using the principle of acquiring data, and it is possible to measure the information of the 3D shape of the surface or the physical characteristics of the inside of the object through which light is transmitted with nano-level accuracy.
  • Digital holographic microscope technology is a non-contact, non-destructive 3D shape measurement and inspection technology that can be used in the domestic industry.
  • ZYGO of the U.S. can measure the topography and roughness of structures such as semiconductor devices and aspherical lenses precisely in a non-contact manner.
  • Optimet develops and sells industrial 3D scanners and dental 3D scanners capable of 3D acquisition of various surface materials with conoscopic holography technology using birefringence in an anisotropic medium.
  • Korean semiconductor equipment sales recorded $7.31 billion (approximately KRW 8.1214 trillion), a 118% increase compared to $3.36 billion in the first quarter of last year.
  • the operations performed by the processing device 120 or 220 may be performed by computer program instructions. Since these computer program instructions may be loaded into a processor of a general-purpose computer, special-purpose computer, or other programmable data processing equipment, the instructions executed by the processor of the computer or other programmable data processing equipment are It creates means to perform functions. These computer program instructions may also be stored in a computer usable or computer readable memory that can be directed to a computer or other programmable data processing equipment to implement functionality in a particular way, such that the computer usable or computer readable memory The instructions stored in are also capable of producing an article of manufacture containing instruction means that perform the functions of processing device 120 or 220 .
  • the computer program instructions can also be loaded on a computer or other programmable data processing equipment, so that a series of operational steps are performed on the computer or other programmable data processing equipment to create a computer-executed process to generate computer or other programmable data processing equipment.
  • the instructions for performing the processing equipment may also provide steps for executing functions of the processing device 120 or 220 .
  • each block may represent a module, segment, or portion of code that includes one or more executable instructions for executing specified logical function(s). It should also be noted that in some alternative implementations it is possible for the functions mentioned in the blocks to occur out of order. For example, two blocks shown in succession may in fact be executed substantially concurrently, or the blocks may sometimes be executed in reverse order depending on their function.
  • ' ⁇ unit' used in this embodiment means software or a hardware component such as FPGA or ASIC, and ' ⁇ unit' performs certain roles.
  • ' ⁇ part' is not limited to software or hardware.
  • ' ⁇ bu' may be configured to be in an addressable storage medium and may be configured to reproduce one or more processors. Therefore, as an example, ' ⁇ unit' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables.
  • components and ' ⁇ units' may be combined into smaller numbers of components and ' ⁇ units' or further separated into additional components and ' ⁇ units'.
  • components and ' ⁇ units' may be implemented to play one or more CPUs in a device or a secure multimedia card.
  • the user can directly set the region of interest in the frequency domain in the spectrum image, so that the size of the region of interest can be finely adjusted on the basis of an image unit (for example, 1 pixel unit) this is possible Accordingly, it is possible to remove detailed and precise noise for each object. In other words, since it is possible to remove detailed and precise noise regardless of the shape of various objects, it can contribute to technological improvement in the field of object shape restoration methods.
  • an image unit for example, 1 pixel unit

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Crystals, And After-Treatments Of Crystals (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

본 발명은 물체의 형상 별로 정밀한 노이즈의 제거가 가능한 물체 형상 복원 방법에 관한 것으로, 물체에 대한 간섭 패턴 영상을 생성하는 단계; 상기 생성된 간섭 패턴 영상의 기준 광 영상 및 대물 광 영상을 주파수 영역의 신호로 변환하여 상기 기준 광 영상 및 대물 광 영상에 대한 스펙트럼 영상을 생성하는 단계; 상기 스펙트럼 영상에서 관심 영역을 추출하는 단계; 및 상기 추출된 관심 영역의 영상을 근거로 상기 간섭 패턴 영상에 대한 보정 영상을 생성하는 단계를 포함한다.

Description

물체 형상 복원 방법
본 발명은 물체 형상 복원 방법에 관한 것으로, 특히 물체의 형상 별로 정밀한 노이즈의 제거가 가능한 물체 형상 복원 방법에 대한 것이다.
디지털 홀로그래픽 현미경이란 홀로그래피 기술을 바탕으로 하여 디지털 촬상 소자(예를 들어, 전하 결합 소자(Charge Coupled Device))로부터 홀로그램 정보(예를 들어, 간섭 패턴 또는 간섭 무늬)를 획득하고, 이 획득된 홀로그램 정보를 통해 물체의 3차원 형상 정보를 측정하는 현미경을 말한다. 일반적인 현미경이 통상 일반 광원을 물체에 비추어 물체로부터 반사 또는 투과되는 광의 세기 분포를 측정함으로써 물체의 형상을 측정하는 장치라면, 디지털 홀로그래픽 현미경은 복수의 광이 만났을 경우에 일어나는 광의 간섭 현상을 간섭무늬 형태로 디지털 촬상 소자를 통해 기록하고, 그 기록된 간섭무늬 정보로부터 위상 정보를 추출하고, 이와 같이 추출된 위상 정보를 이용하여 대상 물체의 3차원 형상 정보를 복원하는 장치이다.
본 발명은 물체 형상의 복원시 다양한 물체 형상에 대하여 정밀하게 노이즈를 제거할 수 있는 물체 형상 복원 방법에 대한 것이다.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 물체 형상 복원 방법은, 물체에 대한 간섭 패턴 영상을 생성하는 단계; 상기 생성된 간섭 패턴 영상의 기준 광 및 대물 광으로 생성된 간섭 패턴을 주파수 영역의 신호로 변환하여 스펙트럼 영상을 생성하는 단계; 상기 스펙트럼 영상에서 관심 영역을 추출하는 단계; 및 상기 추출된 관심 영역의 영상을 근거로 상기 간섭 패턴 영상에 대한 보정 영상을 생성하는 단계를 포함한다.
상기 관심 영역은 영역 통과 필터에 의해 정의된다.
상기 관심 영역의 영상은 적어도 하나의 주파수 피크를 포함한다.
상기 간섭 패턴 영상을 주파수 영역의 신호로 변환하는 단계는 푸리에 변환을 통해 수행된다.
상기 간섭 패턴 영상에 대한 보정 영상을 생성하는 단계는, 상기 추출된 관심 영역의 기준 광 영상 및 대물 광 영상을 공간 영역의 신호로 변환하는 단계; 상기 공간 영역의 신호로 변환된 상기 관심 영역의 기준 광 영상 및 대물 광 영상의 밝기를 표준화하는 단계; 상기 표준화된 기준 광 영상의 신호값과 상기 표준화된 대물 광 영상의 신호값 간의 차이를 산출하는 단계; 상기 산출된 신호값 간의 차이를 근거로, 복원하고자 하는 영상의 새로운 주파수 영역 필드를 생성하는 단계; 상기 생성된 새로운 주파수 영역 필드의 위상을 추출하는 단계; 상기 추출된 위상을 근거로 상기 위상의 불연속부를 제거하는 단계; 및 상기 물체의 실제 위상값을 추적하여 상기 새로운 주파수 영역의 위상 정보를 재구성하는 단계를 포함한다.
상기 표준화된 기준 광 영상의 신호값과 상기 표준화된 대물 광 영상의 신호값 간의 차이를 산출하는 단계는, 상기 기준 광 영상과 상기 대물 광 영상 간의 광경로차를 산출하는 단계이다.
상기 관심 영역의 기준 광 주파수 도메인 및 대물 광 주파수 도메인을 공간 영역의 신호로 변환하는 단계는 푸리에 역변환을 통해 수행된다.
본 발명의 물체 형상 복원 방법에 따르면, 주파수 영역에서의 관심 영역을 스펙트럼 영상에서 사용자가 직접 설정할 수 있도록 하여, 영상의 단위(예를 들어, 1픽셀 단위) 기준으로 관심 영역의 크기에 대한 미세 조정이 가능하다. 이에 따라, 물체별로 세밀하고 정밀한 노이즈의 제거가 가능하다. 다시 말하여, 다양한 물체의 형상에 관계없이 세밀하고 정밀한 노이즈의 제거가 가능하다.
도 1은 본 발명의 일 실시예에 따른 물체 형상 복원 장치의 개략도이다.
도 2는 간섭 패턴 영상의 하나의 예시 및 스펙트럼 영상에서의 피크의 예시를 나타낸 도면이다.
도 3은 주파수 영역의 신호로 변환된 간섭 패턴 영상에 대한 스펙트럼 영상을 간략화하여 나타낸 도면이다.
도 4는 주파수 영역의 신호로 변환된 간섭 패턴 영상에 대한 스펙트럼 영상의 사진을 나타낸 도면이다.
도 5는 본 발명의 다른 실시예에 따른 물체 형상 복원 장치의 개략도이다.
도 6은 반사형 디지털 홀로그래픽 현미경의 광학계 및 복원 알고리즘 개념도이다.
도 7은 Digital Holographic Nanoscopy 기술 개념도이다.
도 8은 힉스컴퍼니 DHN 시스템을 나타낸 도면이다.
도 9는 토모큐브 DHM 시스템을 나타낸 도면이다.
도 10은 Lyncee tec DHM 시스템을 나타낸 도면이다.
도 11은 ZYGO 사의 간섭계 기반 표면형상 계측 장비를 나타낸 도면이다.
도 12는 2021년 1분기 전 세계 반도체 장비 매출액을 나타낸 도면이다.
도 13은 첨단 패키징 산업 전망을 나타낸 도면이다.
도 14는 반도체 장비 시장 전망을 나타낸 도면이다.
도 15는 주요국 반도체 설비투자 현황 및 전망을 나타낸 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 따라서, 몇몇 실시예에서, 잘 알려진 공정 단계들, 잘 알려진 소자 구조 및 잘 알려진 기술들은 본 발명이 모호하게 해석되는 것을 피하기 위하여 구체적으로 설명되지 않는다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
도면에서 여러 층 및 영역을 명확하게 표현하기 위하여 두께를 확대하여 나타내었다. 명세서 전체를 통하여 유사한 부분에 대해서는 동일한 도면 부호를 붙였다.
본 명세서에서 제 1, 제 2, 제 3 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 이러한 구성 요소들은 상기 용어들에 의해 한정되는 것은 아니다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소들로부터 구별하는 목적으로 사용된다. 예를 들어, 본 발명의 권리 범위로부터 벗어나지 않고, 제 1 구성 요소가 제 2 또는 제 3 구성 요소 등으로 명명될 수 있으며, 유사하게 제 2 또는 제 3 구성 요소도 교호적으로 명명될 수 있다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않은 한 이상적으로 또는 과도하게 해석되지 않는다.
이하, 도 1 내지 도 5를 참조로 본 발명에 따른 물체 형상 복원 방법에 관하여 상세히 설명하면 다음과 같다.
먼저, 본 발명의 한 실시예에 따른 디지털 홀로그래피 기술에 따르면, ①레이저와 같은 단일 파장의 광이 생성되면, ②이 생성된 단일 파장의 광이 광 분할기를 통과하면서 2개의 광으로 분할되고, ③그 분할된 광들 중 하나의 광(예를 들어, 기준 광(reference light))은 촬상 소자(예를 들어, 디지털 이미지 센서)에 직접 제공되고, 다른 하나의 광(예를 들어, 대물 광(objective light)은 측정 대상 물체에 의해 반사된 후 전술된 촬상 소자에 제공되는 바, ④이에 따라 촬상 소자에서 기준 광과 대물 광이 간섭 현상을 일으키게 되는데, ⑤이러한 광의 간섭 패턴(또는 간섭 무늬) 정보(예를 들어, 간섭 패턴 영상)는 촬상 소자에 기록되며, ⑥기록된 간섭 패턴 정보는 컴퓨터와 같은 처리 장치에 입력된 후 그 컴퓨터를 통해 측정 대상 물체의 형상이 복원될 수 있다. 그리고 이때 전술된 ⑤에서의 과정을 통해 기록되는 간섭 패턴 정보는 통상 홀로그램으로 지칭될 수 있다.
도 1은 본 발명의 일 실시예에 따른 물체 형상 복원 장치(100)의 개략도이고, 도 2는 간섭 패턴 영상의 하나의 예시 및 스펙트럼 영상에서의 피크의 예시를 나타낸 도면이다.
본 발명의 한 실시예에 따른 물체 형상 복원 장치(100)는, 도 1에 도시된 바와 같이, 반사형 디지털 홀로그래픽 현미경(110; Digital Holographic Microscopy) 및 처리 장치(120)를 포함할 수 있다.
*반사형 디지털 홀로그래픽 현미경(110)은, 도 1에 도시된 하나의 예와 같이, 광원(LS), 제 1 광 분할기(BS1), 제 2 광 분할기(BS2), 광학 거울(MR), 제 1 중성 필터(NDF1; neutral density filter), 제 1 공간 필터 어셈블리(SFA1; spatial filtering assembly), 제 1 평행 렌즈(CL1; collimating lens), 제 1 집속 렌즈(L1; condenser lens), 제 3 광 분할기(BS3), 제 2 중성 필터(NDF2), 제 2 공간 필터 어셈블리(SFA2), 제 2 평행 렌즈(CL2), 제 2 집속 렌즈(L2), 제 4 광 분할기(BS4), 대물 렌즈(OL), 튜브 렌즈(TL) 및 촬상 소자(CCD)를 포함할 수 있다.
광원(LS)은 레이저 광을 생성할 수 있다.
제 1 광 분할기(BS1)는 광원(LS)과 제 2 중성 필터(NDF2) 사이에 배치될 수 있다.
제 2 광 분할기(BS2)는 제 1 광 분할기(BS1)와 광학 거울(MR) 사이에 배치될 수 있다.
제 1 중성 필터(NDF1)는 제 2 광 분할기(BS2)와 제 1 공간 필터 어셈블리(SFA1) 사이에 배치될 수 있다.
제 1 공간 필터 어셈블리(SFA1)는 제 1 중성 필터(NDF1)와 제 1 평행 렌즈(CL1) 사이에 배치될 수 있다.
제 1 평행 렌즈(CL1)는 제 1 공간 필터 어셈블리(SFA1)와 제 1 집속 렌즈(L1) 사이에 배치될 수 있다.
제 1 집속 렌즈(L1)는 제 1 평행 렌즈(CL1)와 제 3 광 분할기(BS3) 사이에 배치될 수 있다. 한편, 제 1 집속 렌즈(L1)는 곡률(curvature) 매칭용 렌즈일 수 있다. 대물 렌즈(OL)가 변경되면, 대물 광(L_Obj)의 곡률과 기준 광(L_Ref)의 곡률을 일치시키기 위해, 제 1 집속 렌즈(L1)는 도 1의 화살표 방향을 따라 이동할 수 있다. 예를 들어, 제 1 집속 렌즈(L1)는 제 1 평행 렌즈(CL1)를 향해 이동하거나, 또는 제 3 광 분할기(BS3)를 향해 이동할 수 있다. 일부 경우에 제 1 집속 렌즈(L1)는 변경될 필요가 있다.
제 3 광 분할기(BS3)는 튜브 렌즈(TL)와 촬상 소자(CCD) 사이에 배치될 수 있다.
제 2 중성 필터(NDF2)는 제 1 광 분할기(BS1)와 제 2 공간 필터 어셈블리(SFA2) 사이에 배치될 수 있다.
제 2 평행 렌즈(CL2)는 제 2 공간 필터 어셈블리(SFA2)와 제 2 집속 렌즈(L2) 사이에 배치될 수 있다.
제 2 집속 렌즈(L2)는 제 2 평행 렌즈(CL2)와 제 4 광 분할기(BS4) 사이에 배치될 수 있다.
제 4 광 분할기(BS4)는 튜브 렌즈(TL)와 대물 렌즈(OL) 사이에 배치될 수 있다.
대물 렌즈(OL)는 제 4 광 분할기(BS4)와 물체 사이에 배치될 수 있다.
튜브 렌즈(TL)는 제 4 광 분할기(BS4)와 제 3 광 분할기(BS3) 사이에 배치될 수 있다.
촬상 소자(CCD)는 전술된 기준 광(L_Ref)과 대물 광(L_Obj)과의 간섭에 의해 생성된 간섭 패턴(WI)을 획득할 수 있다. 예를 들어, 촬상 소자(CCD)는 광 신호인 간섭 패턴(WI)을 전기적인 신호로 변환할 수 있다.
처리 장치(120)는 촬상 소자(CCD)로부터 기준 광(L_Ref)의 영상(이하, 기준 광 영상) 및 대물 광(L_Obj)의 영상(이하, 대물 광 영상)을 입력받고, 그리고 이 기준 광 영상 및 대물 광 영상 중 관심 영역(예를 들어, 사용자에 의해 설정된 관심 영역)으로 설정된 위치의 영상을 선택적으로 추출함으로써 그 관심 영역에 대응되는 유의미한 데이터만이 선별적으로 분석될 수 있도록 도움을 줄 수 있다.
처리 장치(120)는, 예를 들어, 컴퓨터를 포함할 수 있다.
이와 같은 구성을 갖는 물체 형상 복원 장치(100)의 동작을 설명하면 다음과 같다.
먼저, 광원(LS)으로부터 생성된 광은 제 1 광 분할기(BS1)를 통해 분할되어 두 개의 광으로 분할될 수 있다. 예를 들어, 광원(LS)으로부터 출력되어 제 1 광 분할기(BS1)에 입사된 광은 그 제 1 광 분할기(BS1)에 반사되어 경로가 변경된 기준 광(L_Ref) 및 그 제 1 광 분할기(BS1)를 투과하는 대물 광(L_Obj)으로 분할될 수 있다.
전술된 제 1 광 분할기(BS1)로부터 반사된 기준 광(L_Ref)은 제 2 광 분할기(BS2)를 투과하여 광학 거울(MR)에 입사된 후 그 광학 거울(MR)로부터 반사되어 다시 제 2 광 분할기(BS2)에 입사되며, 그 광학 거울(MR)에 의해 제 2 광 분할기(BS2)에 다시 입사된 기준 광(L_Ref)은 그 제 2 광 분할기(BS2)에 의해 반사되어 제 1 중성 필터(NDF1), 제 1 공간 필터 어셈블리(SFA1), 제 1 평행 렌즈(CL1) 및 제 1 집속 렌즈(L1)를 순차적으로 통과하여 제 3 광 분할기(BS3)에 입사되며, 그 제 1 집속 렌즈(L1)를 통해 그 제 3 광 분할기(BS3)에 입사된 기준 광(L_Ref)은 그 제 3 광 분할기(BS3)에 의해 반사되어 촬상 소자(CCD)에 입사된다.
한편, 전술된 제 1 광 분할기(BS1)를 투과한 대물 광(L_Obj)은 제 2 중성 필터(NDF2), 제 2 공간 필터 어셈블리(SFA2), 제 2 평행 렌즈(CL2) 및 제 2 집속 렌즈(L2)를 순차적으로 통과하여 제 4 광 분할기(BS4)에 입사되며, 그 제 2 집속 렌즈(L2)를 통해 제 4 광 분할기(BS4)에 입사된 대물 광(L_Obj)은 그 제 4 광 분할기(BS4)에 의해 반사된 후 대물 렌즈(OL)를 통과하여 물체(OBJ)에 입사되며, 그 물체(OBJ)에 입사된 대물 광(L_Obj)은 그 물체(OBJ)에 의해 반사되어 다시 대물 렌즈(OL)를 통과한 후 제 4 광 분할기(BS4)에 다시 입사되며, 그 대물 렌즈(OL)를 통해 제 4 광 분할기(BS4)에 입사된 대물 광(L_Obj)은 그 제 4 광 분할기(BS4)를 투과하여 튜브 렌즈(TL)를 통과하며, 그 튜브 렌즈(TL)를 통과한 대물 광(L_Obj)은 제 3 광 분할기(BS3)에 입사되며, 그 튜브 렌즈(TL)를 통해 제 3 광 분할기(BS3)에 입사된 대물 광(L_Obj)은 그 제 3 광 분할기(BS3)를 투과하여 촬상 소자(CCD)에 입사된다. 이때, 대물 광(L_Obj)은 촬상 소자(CCD) 앞에서 전술된 기준 광(L_Ref)과 결합되어 간섭 패턴(WI)을 생성할 수 있다. 이 간섭 패턴(WI)은 촬상 소자(CCD)에 의해 전기 신호로 변환된다. 예를 들어, 촬상 소자(CCD)는 그 간섭 패턴(WI)에 대한 전기 신호로서 간섭 패턴 영상을 생성할 수 있다.
이후, 촬상 소자(CCD)로부터의 간섭 패턴 영상은 입력 영상으로서 처리 장치(120)에 입력되는 바, 이때 이러한 간섭 패턴 영상을 입력받은 처리 장치(120)의 동작을 상세히 설명하면 다음과 같다.
먼저, 촬상 소자(CCD)로부터의 간섭 패턴 영상이 처리 장치(120)에 입력되면, 그 처리 장치(120)는 그 입력된 그 간섭 패턴 영상의 두 영상들(예를 들어, 기준 광 영상 및 대물 광 영상)을 푸리에(Fourier; 예를 들어, 고속 푸리에) 변환한다. 예를 들어, 처리 장치(120)는 그 입력된 두 영상들(예를 들어, 공간 영역(및/또는 시간 영역)의 기준 광 영상 및 대물 광 영상)을 푸리에 변환함으로써 그 두 영상들을 주파수 영역(frequency domain)의 신호로 변환할 수 있다.
이후, 처리 장치(120)는 주파수 영역의 신호로 변환된 기준 광 영상 및 대물 광 영상에서 관심 영역을 추출할 수 있다. 예를 들어, 처리 장치는 기준 광 영상 및 대물 광 영상에서 미리 설정된 관심 영역의 영상을 추출할 수 있다. 여기서, 관심 영역은 사용자에 의해 선택될 수 있다. 다시 말하여, 주파수 영역의 신호로 변환된 영상(예를 들어, 스펙트럼 영상)에서의 특정 영역(즉, 관심 영역)을 사용자가 영역 통과 필터(band pass filter) 또는 필드(field)를 이용하여 정의함으로써 그 관심 영역의 영상이 선택적으로 추출될 수 있다.
한편, 도 2에 도시된 바와 같이, 촬상 소자(CCD)로부터 처리 장치(120)에 입력된 영상(예를 들어, 간섭 패턴 영상)은 주기 성분을 포함하고 있어 패턴을 형성하는데, 이 때문에 이 영상을 소위 간섭 패턴 영상이라고 지칭하는 바, 이 간섭 패턴 영상은 원래의 영상(예를 들어, 원래 물체의 영상)과 합쳐진 형태로 나타나게 된다. 입력 영상(예를 들어, 간섭 패턴 영상)의 영상 배열을 신호라고 생각한다면, 촬상 소자(CCD)의 각각의 픽셀 값은 주기 함수들과 그 계수의 합으로 표현이 가능하다. 이 입력 영상(예를 들어, 간섭 패턴 영상)의 신호를 푸리에 변환시 얻는 계수는 복소수이며, 이를 복소 평면에 극좌표로 나타낼 수 있는데, 복소 평면의 원점과 극좌표 간의 거리가 스펙트럼으로 정의될 수 있다. 예를 들어, 스펙트럼은 해당 주파수 성분이 원 신호(복소 평면의 원점)에 얼마나 강하게 포함되어 있는지 나타낼 수 있는 바, 원점에서 멀어질수록 원 신호와 멀어지기 때문에 이때 원점과 극좌표의 거리를 스펙트럼으로 볼 수 있다.
도 2의 (b)에 도시된 바와 같이, 입력 영상(예를 들어, 간섭 패턴 영상)이 푸리에 변환을 통해 스펙트럼 영상(spectrum image)으로 변환되었을 때, 피크(P; 예를 들어, 주파수 피크)가 생성되는 영역이 실제 입력 영상(예를 들어, 간섭 패턴 영상)의 주기 성분(유의미한 데이터) 데이터를 갖는 영역일 수 있다. 전술된 영역 통과 필터는 스펙트럼 영상에서 주기 성분을 추출할 유의미한 영역을 사용자가 직접 선택할 수 있도록 도움을 줄 수 있다. 다시 말하여, 처리 장치(120)는, 공간 영역의 신호인 기준 광 영상 및 대물 광 영상을 주파수 영역의 신호로 변환한 후 사용자에 의해 설정된 영역 통과 필터에 대응되는 관심 영역(A)을 추출하여 주기 성분, 즉 유의미한 데이터만을 분석할 수 있도록 도와준다.
피크(P)의 검출 위치는 특정 위치로 고정되지 않으며, 샘플의 형상(예를 들어, 물체(OBJ)의 형상)과 광학 모듈의 간섭 패턴 셋팅에 따라 유동적이므로, 광학 모듈 및 샘플(예를 들어, 물체(OBJ))에 따라 유연한 영역(예를 들어, 관심 영역)의 추출이 필요하다. 영역의 추출 범위에 따라 데이터의 정확성이 결정되는데, 이는 그 추출된 영역 범위 내에 유의미한 주기 성분 뿐만 아니라 주파수 노이즈(white noise)도 함께 포함될 수 있기 때문이다. 이와 같이, 주파수 노이즈가 포함될 경우, 샘플 형상에 대한 정확한 데이터를 얻기 어렵다. 이에 본 발명은 주파수 영역에서의 관심 영역을 스펙트럼 영상(예를 들어, 스펙트럼 영상의 영역)에서 사용자가 직접 선택(또는 설정)할 수 있도록 하여, 영상의 단위(예를 들어, 1픽셀 단위) 기준으로 관심 영역의 크기에 대한 미세 조정이 가능하다. 다시 말하여, 스펙트럼 영상은 픽셀 단위로 이루어진 영상이므로, 사용자는 그 스펙트럼 영상에서 픽셀 단위로 관심 영역의 크기를 미세하게 설정할 수 있으며, 또한 그 스펙트럼 영상에서 관심 영역을 픽셀 단위로 미세하게 이동시킬 수 있다. 이에 따라, 샘플(예를 들어, 물체) 별 세밀하고 정밀한 노이즈 제거가 가능하다. 즉, 다양한 물체의 형상에 대응하여 정밀한 노이즈의 제거가 가능하다.
한편, 사용자에 의해 전술된 관심 영역의 좌표 및 크기가 최종적으로 설정되면, 처리 장치(120)는 그 관심 영역의 좌표 및 크기에 관련된 파라미터를 저장한다. 이후 처리 장치(120)는 그 설정된 관심 영역(A)의 영상을 추출하고, 그 추출된 관심 영역(A)의 영상을 근거로 간섭 패턴 영상에 대한 보정 영상을 생성할 수 있다.
여기서, 간섭 패턴 영상에 대한 보정 영상을 생성하는 방법을 상세히 설명하면 다음과 같다.
그 추출된 관심 영역(A)의 영상(예를 들어, 주파수 영역의 신호로 변환된 영상)을 공간 영역(spatial domain; 및/또는 시간 영역)의 신호로 변환한다. 예를 들어, 처리 장치(120)는 그 추출된 관심 영역(A)의 영상들(예를 들어, 기준 광 영상 및 대물 광 영상)을 푸리에 역변환함으로써 그 추출된 관심 영역의 영상들을 공간 영역의 신호로 변환할 수 있다. 한편, 사용자는 전술된 영역 통과 필터(band pass filter) 또는 필드(field)를 사용하여 전술된 영역(예를 들어, 관심 영역(A))을 선택할 수 있다.
이어서, 처리 장치(120)는 공간 영역으로 변환된 기준 광 영상 및 대물 광 영상의 밝기를 표준화한다.
이후, 처리 장치(120)는 표준화된(즉, 밝기가 표준화된) 기준 광 영상의 신호값과 대물 광 영상의 신호값 간의 차이, 예를 들어 기준 광 영상의 신호와 대물 광 영상의 신호 간의 광경로차를 산출할 수 있다. 예를 들어, 처리 장치(120)는, 획득된 2개의 공간 영역의 신호로 변환된 두 영상들의 밝기값을 활용하여 전체적인 밝기를 표준화하고, 기준 광 영상과 대물 광 영상 사이의 광경로차를 획득할 수 있다. 이때, 광경로차를 산출함에 있어서, 기준 광의 길이가 고정으로 설계된 후, 광경로차의 반파장이 짝수배일 때 밝은 반면 홀수배일 때 어둡다는 원리에 근거하여 공간 영역에서의 두 영상들의 밝기값을 기준으로 광경로차가 산출될 수 있다.
다음으로, 처리 장치(120)는 그 산출된 광경로차를 근거로, 3차원 형상으로 복원하고자 하는 영상의 새로운 주파수 영역 필드(frequency domain field)를 생성한다.
이어서, 처리 장치(120)는 그 생성된 새로운 주파수 영역 필드의 위상을 추출한다.
이후, 처리 장치(120)는 그 추출된 위상으로부터 불연속부(예를 들어, 위상의 불연속부)를 제거하고, 물체의 실제 위상값을 추적하여 그 새로운 주파수 영역 필드의 위상 정보를 재구성할 수 있는 바, 처리 장치(120)는 그러한 위상 정보를 재구성함으로써 간섭 패턴 영상(또는 물체(OBJ))에 대한 보정 영상을 생성(또는 획득)할 수 있다.
한편, 처리 장치(120)는 간섭 패턴 영상을 근거로 물체의 3차원 형상을 복원하는 기능을 수행할 수 있다. 이와 더불어, 처리 장치(120)는 그 물체의 정량적 형상 정보를 복원하는 기능도 수행할 수 있다. 예를 들어, 처리 장치(120)는 전술된 기준 광 영상 및 대물 광 영상에 대한 위상 정보를 획득한 후, 이 기준 광 영상과 대물 광 영상 간의 위상의 차이를 산출한다. 이후 처리 장치(120)는 그 산출된 위상의 차이를 근거로, 측정하고자 하는 물체의 정량적 크기를 산출하고, 이어서 그 물체의 3차원 형상을 복원할 수 있다.
도 3은 주파수 영역의 신호로 변환된 간섭 패턴 영상에 대한 스펙트럼 영상을 간략화하여 나타낸 도면이다.
도 3에 도시된 바와 같이, 간섭 패턴 영상을 주파수 영역의 신호로 변환시, 스펙트럼 영상에는 실제 입력 영상(즉, 실제 입력된 간섭 패턴 영상)의 주기 성분(예를 들어, 피크(P))뿐만 아니라 노이즈(N; white noise)도 함께 나타난다.
한편, 관심 영역(A)에 해당하는 실제 입력 영상의 주기 성분이 선택되면, 측정한 샘플(예를 들어, 물체(OBJ))의 형상 데이터 추출이 가능하다. 이때, 노이즈(N)가 덜 포함된 영역일수록 그 형상 데이터의 정확도가 높다.
도 4는 주파수 영역의 신호로 변환된 간섭 패턴 영상에 대한 스펙트럼 영상의 사진을 나타낸 도면이다.
도 4에 도시된 바와 같이, 사용자는 입력 수단을 통해 처리 장치(120 또는 220)에 관심 영역(A)의 좌표(예를 들어 x-y 좌표), 높이 및 폭을 입력함으로써 그 관심 영역(A)의 위치 및 크기(예를 들어, 높이 및 크기에 의해 정의된 관심 영역(A)의 면적)를 설정할 수 있다. 여기서, 관심 영역(A)의 좌표는 그 관심 영역(A)의 중심부의 x축 및 y축 좌표(예를 들어, 중심 좌표)로 정의될 수 있으며, 그 관심 영역(A)의 높이는 전술된 중심 좌표로부터 y축 방향으로의 크기 및 -y축 방향으로 크기로 정의될 수 있으며, 그리고 그 관심 영역(A)의 폭은 전술된 중심 좌표로부터 x축 방향으로 크기 및 -x축 방향으로의 크기로 정의될 수 있다. 여기서, 중심 좌표로부터 y축 방향으로의 크기와 -y축 방향으로 크기는 서로 동일하며, 그리고 y축 방향으로의 크기와 -y축 방향으로 크기는 서로 동일하다.
한편, 마우스와 같은 입력 장치를 통해, 사용자는 도 4와 같은 스펙트럼 영상에서 관심 영역(A)을 픽셀 단위로 정밀하게 원하는 위치로 이동시킬 수 있다. 도 4에 도시된 바와 같이, 피크(P; 예를 들어, 주파수 피크) 및 노이즈(N)는 스펙트럼 영상에서 육안으로 용이하게 관찰되는 바, 사용자는 관심 영역(A) 내에 주파수 피크(P)만이 포함되도록, 노이즈(N)를 피해 그 관심 영역(A)의 좌표 및 크기를 픽셀 단위로 정밀하게 조절할 수 있다.
도 5는 본 발명의 다른 실시예에 따른 물체 형상 복원 장치(200)의 개략도이다.
본 발명의 다른 실시예에 따른 물체 형상 복원 장치(200)는, 도 5에 도시된 바와 같이, 투과형 디지털 홀로그래픽 현미경(210; Digital Holographic Microscopy) 및 처리 장치(220)를 포함할 수 있다.
투과형 디지털 홀로그래픽 현미경(210)은, 도 5에 도시된 하나의 예와 같이, 광원(LS), 중성 필터(NDF), 공간 필터 어셈블리(SFA), 제 1 시준 렌즈(AL1), 제 1 광학 거울(MR1), 제 1 광 분할기(BS1), 제 2 시준 렌즈(AL2), 제 2 광학 거울(MR2), 제 2 광 분할기(BS2), 제 3 광학 거울(MR3), 대물 렌즈(OL), 튜브 렌즈(TL) 및 촬상 소자(CCD)를 포함할 수 있다. 여기서, 제 1 시준 렌즈(AL1)와 제 2 시준 렌즈(AL2)는 한 세트로 구성될 수 있다. 예를 들어, 한 세트의 제 1 시준 렌즈(AL1) 및 제 2 시준 렌즈(AL2)는 Achromatic Doublet lens로 구성될 수 있다.
광원(LS)은 레이저 광을 생성할 수 있다.
중성 필터(NDF)는 광원(LS)과 공간 필터 어셈블리(SFA) 사이에 배치될 수 있다.
공간 필터 어셈블리(SFA)는 중성 필터(NDF)와 제 1 시준 렌즈(AL1) 사이에 배치될 수 있다.
제 1 시준 렌즈(AL1)는 공간 필터 어셈블리(SFA)와 제 1 광학 거울(MR1) 사이에 배치될 수 있다.
제 1 광학 거울(MR1)은 제 1 시준 렌즈(AL1)와 제 1 광 분할기(BS1) 사이에 배치될 수 있다.
제 1 광 분할기(BS1)는 제 1 광학 거울(MR1)과 제 3 광학 거울(MR3) 사이에 배치될 수 있다.
제 2 시준 렌즈(AL2)는 제 1 광 분할기(BS1)와 제 2 광학 거울(MR2) 사이에 배치될 수 있다.
제 2 광학 거울(MR2)은 제 2 시준 렌즈(AL2)와 제 2 광 분할기(BS2) 사이에 배치될 수 있다.
제 2 광 분할기(BS2)는 튜브 렌즈(TL)와 촬상 소자(CCD) 사이에 배치될 수 있다.
제 3 광학 거울(MR3)은 제 1 광 분할기(BS1)와 물체(OBJ) 사이에 배치될 수 있다.
대물 렌즈(OL)는 물체(OBJ)와 튜브 렌즈(TL) 사이에 배치될 수 있다.
튜브 렌즈(TL)는 대물 렌즈(OL)와 제 2 광 분할기(BS2) 사이에 배치될 수 있다.
이와 같은 구성을 갖는 물체 형상 복원 장치(200)의 동작을 설명하면 다음과 같다.
먼저, 광원(LS)으로부터 생성된 광은 중성 필터(NDF), 공간 필터 어셈블리(SFA) 및 제 1 시준 렌즈(AL1)를 순차적으로 통과하여 제 1 광학 거울(MR1)에 입사된 후 그 제 1 광학 거울(MR1)로부터 반사되어 제 1 광 분할기(BS1)에 입사된다. 제 1 광 분할기(BS1)에 입사된 광은 두 개의 광들로 분할될 수 있다. 예를 들어, 제 1 광학 거울(MR1)에 의해 반사되어 제 1 광 분할기(BS1)에 입사된 광은 그 제 1 광 분할기(BS1)로부터 반사되어 경로가 변경된 기준 광(L_Ref) 및 그 제 1 광 분할기(BS1)를 투과하는 대물 광(L_Obj)으로 분할될 수 있다.
전술된 제 1 광 분할기(BS1)로부터 반사된 기준 광(L_Ref)은 제 2 시준 렌즈(AL2)를 통과하여 제 2 광학 거울(MR2)에 입사되어 반사된 후 제 2 광 분할기(BS2)로 입사되며, 그 제 2 광학 거울(MR2)에 의해 반사되어 제 2 광 분할기(BS2)로 입사된 기준 광(L_Ref)은 제 2 광 분할기(BS2)에 의해 반사되어 촬상 소자(CCD)에 입사된다.
한편, 전술된 제 1 광 분할기(BS1)를 투과한 대물 광(L_Obj)은 제 3 광학 거울(MR3)에 입사되어 반사된 후 물체(OBJ)를 투과하여 대물 렌즈(OL)로 입사되고, 그 대물 렌즈(OL)로 입사된 대물 광(L_Obj)은 튜브 렌즈(TL) 및 제 2 광 분할기(BS2)를 투과하여 촬상 소자(CCD)에 입사된다. 이때, 대물 광(L_Obj)은 촬상 소자(CCD) 앞에서 전술된 기준 광(L_Ref)과 결합되어 간섭 패턴(WI)을 생성할 수 있다. 이 간섭 패턴(WI)은 촬상 소자(CCD)에 의해 전기 신호로 변환된다. 예를 들어, 촬상 소자(CCD)는 그 간섭 패턴(WI)에 대한 전기 신호로서 간섭 패턴 영상을 생성할 수 있다.
이후, 촬상 소자(CCD)로부터의 간섭 패턴 영상은 처리 장치(220)에 입력되는 바, 이때 이러한 간섭 패턴의 영상을 입력받은 처리 장치(220)의 동작은 전술된 도 1의 처리 장치(120)의 동작과 실질적으로 동일하므로, 도 2의 처리 장치(220)의 동작에 관한 설명은 전술된 도 1의 처리 장치(120) 및 이에 관련된 설명을 참조한다.
1. 신청 기술의 개요
ㅇ 기술의 명칭 : 디지털 홀로그래픽 현미경 (DHN, Dgital Holographic Nanoscopy)
ㅇ 기술의 정의 :
- 디지털 홀로그래피 위상 계측기술을 이용하여 나노급 정밀도를 가지는 3차원 형상 정보의 측정 및 복원이 가능한 디지털 홀로그래피 현미경 기술
- 디지털 홀로그래픽 현미경 기술은 가간섭을 이용하여 문체의 표면 굴곡으로부터 기인한 간섭패턴으로부터 간섭 광의 위상정보를 복원하는 기술로, 진동에 강건하면서도 속도가 빠른, 고분해능의 비접촉 3차원 미세 형상 측정 기술임
- 본 기술은 TSV 상하부 각 폭과 깊이, POP via 상하부 각 폭과 깊이와 더불어 Wafer 표면의 파티클과 크랙, 폴리싱된 표면이나 금속 물질 같은 미러형 반사체의 표면형상을 측정할 수 있는 DHN 기반 3D 표면형상 측정기술
ㅇ 기술의 용도 :
- 300 Wafer 자동 검사 장비
- 실리콘 웨이퍼의 평탄도 검사 장비
- 3차원 반도체(TSV)의 via hole 형상 검사장비
- 반도체 증착, 식각, 세정 등의 형상 공정 검사 전반
ㅇ 기술의 개발 기간, 과정, 방법 등 :
개발기간 전담부서(현재) 전담인력(현재) 시제품 개발 여부
2014.06~현재 개발팀 6명 O
2. 신청 기술 세부 설명 (도 6 및 도 7 참조)ㅇ 수명주기상 위치 : 성장기
ㅇ 기술의 범위
- TSV 상부/하부 홀별 폭, 깊이 측정
- POP 내 via 크기와 깊이 측정
- Wafer 표면의 파티클, 크랙 등 제조 오류 검출
- 폴리싱된 표면, 금속물질 같은 미러형 반사체 3차원 영상획득
- Digital Holographic Nanoscopy 기술을 이용
ㅇ 보유 기술의 수준
평가 항목(주요성능 Spec) 단위 기술 수준
1.검사면적(FoV) 7×7
2.깊이측정정확도 -
2-1깊이측정 반복정확도 (repeatability) 54
2-2 깊이측정 해상도 (resolution) -
2-3 깊이측정 범위 217
3.Aspect Ratio 비율 1:3
4.스테이지 위치 안정성 -
5.스테이지 위치 정밀도 -
핵심요소기술의 내용- 디지털 홀로그래피 기술과 현미경 기술을 융합한 3차원 측정/검사 기술로 레이저 빔을 시료에 조사하여 빛의 간섭현상으로 생성된 홀로그램 패턴을 통해 형상 정보를 획득하는 기술- 홀로그래피에서 홀로그램 데이터를 획득하는 원리를 이용한 계측 기술로 표면의 3D 형상의 정보나 빛이 투과되는 물체 내부의 물리적 특성을 나노 단위의 정확도로 측정 가능
- 반사형 디지털 홀로그래픽 현미경은 간섭계 방식의 광학계와 복원 알고리즘으로 구성
- 백색광간섭계(WSI), 공초점현미경(Confocal Microscopy) 등 타 3D 측정 기술 대비 깊이 정밀도, 측정시간 등 검사장비에 필요한 요소에 대해 장점이 두드러짐
ㅇ 기존 또는 유사 기술과의 차별성
- 기존의 3D 형상 측정 및 검사기술들은 Z-축 혹은 XY 축 기준의 스캔 방식으로 측정 속도에 제약이 있을 뿐만 아니라, 진동 조건에 취약하여 인라인 양산 적용에 한계가 있지만, 당사의 기술은 스캔 과정 없이 단 한 장의 영상 취득을 통한 실시간 형상 측정으로 물체의 깊이 정보를 나노 정확도의 수치로 표현 가능
- 대부분의 업체는 여러 장의 이미지를 촬영하며 발생하는 물리적인 시간차이로 인해 실시간 측정에 제약이 따름
- 이에 반해, 당사는 반사형/투과형 양쪽 모두에 적용 가능한 1장의 홀로그램을 촬영하여 복원하는 기술을 개발하여 실시간 측정 적용이 가능한 기술을 보유하고 있음
구분 기존 유사 기술 당사 기술 및 개선사항
기술성 - 여러 장의 이미지를 촬영하기 위해 발생하는 물리적 시간 차이로 인해 실시간 측정 제약- 측정 속도 및 진동 조건에 취약하여 인라인 양산 적용에 한계 - 1장의 홀로그램을 촬영하여 복원하는 기술개발 (이미지 1장당 소프트웨어 처리시간의 경우 1Mega pixels 기준으로 1초 이내 처리 가능)- 스캔 과정 없이 단 한 장의 영상 취득으로 물체의 깊이 정보 확인 가능
3. 신청 기술의 중요성 (도 8 및 도 9 참조)□ 국가 및 산업활동과 관련한 전략적·안보적 중요성
[국내 기술 동향 및 수준] (신청기관 포함)
ㅇ 디지털 홀로그래픽 현미경 기술은 최근 국내 산업 분야에서 활용 가능한 비접촉, 비파괴형 3차원 형상 측정 및 검사 기술로 많은 관심과 개발이 진행
o 대표적으로 힉스컴퍼니, 토모큐브 등과 같은 업체들이 디지털 홀로그래픽 현미경 기술을 개발 및 보유
o 대부분의 업체들은 최소 2장에서 많게는 60장 이상의 홀로그램 이미지를 획득하여 측정하는 방식의 기술을 보유하고 있으며, 이는 여러 장의 이미지를 촬영하기 위해 발생하는 물리적인 시간차이로 인해 실시간 측정에 제약이 따르는 기술임
o 당사는 반사형/투과형 양쪽 모두에 적용 가능한 1장의 홀로그램을 촬영하여 복원하는 기술을 개발하여 실시간 측정 적용이 가능한 기술을 보유하고 있음 (이미지 1장당 소프트웨어 처리시간의 경우 1Mega pixels 기준으로 1초 이내 처리 가능)
[국외 기술 동향 및 수준] (도 10 및 도 11 참조)
o 해외에서는 바이오 및 메디컬 분야에 활용 가능한 형태의 투과형 디지털 홀로그래픽 현미경 기술에 대한 지속적인 연구 및 개발이 진행되고 있음
o 주로 세포의 형상이나 내부 구조 관찰용으로 많은 연구가 진행중에 있으며, 대표적으로 Lyncee tec, Nanolive 등과 같은 업체들이 독립된 현미경 형태의 기술 및 제품 개발을 진행하고 있음
o 세계적으로는 스위스의 Lyncee tec이 DHM 상용화 개발을 가장 먼저 시작했으며, 바이오 샘플의 형상 측정 기술 뿐 아니라 최근 반도체 웨이퍼, MEMS, 태양광 패널 등 산업 공정용 측정 장비 개발
- 미국 ZYGO는 coherence scanning 및 phase-shifting 간섭계(Fizeau 타입) 기술을 기반으로, 반도체 소자, 비구면 렌즈 등 구조 표면의 미세한 형상(topography) 및 조도(roughness)를 비접촉 방식으로 정밀하게 측정할 수 있는 다양한 장비를 판매하고 있음
- 이스라엘 Optimet에서는 비등방성 매질에서의 복굴절(Birefringence)을 이용한 conoscopic holography 기술로 다양한 표면 재질의 3차원 획득이 가능한 산업용 3차원 스캐너 및 치과용 3차원 스캐너 제품을 개발 및 판매하고 있음
- PHI, Nanolive 등 최근 DHM 기술 상용화 개발을 시도하는 기업이 지속적으로 생겨나고 있으나 대부분 기술 난이도가 낮고 접근이 용이한 바이오/메디컬 어플리케이션에 집중하고 있음
- 이러한 경쟁사들의 디스플레이 패널 및 반도체 공정 적용을 위한 상용화 개발을 진행하기 위해서는 각 공정들에 해당하는 샘플에 대한 측정 경험이 필수적인데, 해외 기업은 상대적으로 이러한 기회에 있어 국내기업과는 경쟁하기 어려운 상황임
□ 산업별 생산과 투자에 미치는 영향 및 미래유망성
[기술적 측면]
o 반도체/디스플레이 등의 초정밀 IT 제조 분야에서의 나노 정밀 제조 기술에 대응할 수 있는 공정용 검사기술의 수요에 따라 비접촉, 비파괴형 3차원 형상측정 및 검사장비와 관련된 업체들의 개발이 꾸준히 진행되어 왔지만, 3차원 정보를 획득하는 데에 있어 시간적 지연 및 고가장비라는 단점을 가지는 한편, 진동에 취약한 태생적인 한계로 인라인 장비로 탑재되는 것에 한계가 존재
o 디지털 홀로그래피 기반 비접촉, 비파괴형 실시간 3D 형상 측정 및 검사 기술은 가간섭성을 이용하기 때문에 나노 스케일의 높은 정밀도를 가지며, 고속 측정이 가능하기 때문에 계측 산업분야 전반에 걸쳐 실질적인 활용 가치가 매우 높은 기술
- 기술 수요가 급증하고 있는 3차원 형상 측정 및 검사 솔루션으로 크게 자리 잡을 것으로 기대됨
o 국내 최초 디지털 홀로그래픽 기술을 접목한 관통홀 결함/검사 기술을 개발하여 관련 원천 기술 확보
o 디지털 홀로그래피 기반 비접촉, 비파괴형 실시간 3D 형상 측정 및 검사 기술로 나노 스케일의 높은 정밀도 보유
o 디지털 홀로그래픽 기술 및 초고속, 고정밀 스테이지 제작기술과 진동제어 기술 등 관련 요소 기술들을 제공하여 정밀기계 및 광학 산업의 발전에 기여
[경제적, 산업적 측면]
o 순수 국내 기술을 통한 장비개발로 우리나라 반도체 및 디스플레이 검사장비 시장에서 장비 국산화에 앞장설 뿐만 아니라 외국장비에 대한 가격경쟁력 우외 확보
o 나노 사이즈 이하급 측정, 검사 및 계측 분야에 응용이 가능하며, 산업 현장 적용 시 소형화 및 경량화로 활용도가 매우 높을 것으로 예상됨
o 국내 제조산업을 리드하고 잇는 반도체, 디스플레이, 전장 등의 분야에서 기술 고도화 및 부품 직접화로 인해 이들 제품을 제어 산업 역시 동반 성장 중
o 디지털 홀로그래픽 기술의 활용성은 고기술을 요구하는 첨단제품들을 정밀하게 계측하고 제어하는 분야로 점차 확대될 전망
□ 교역규모 및 국제 분업구조
[국내 시장 규모] (도 12 및 도 13 참조)
o 제품의 소형화, 고성능화 요구에 따른 미세공정으로의 전환에 따른 관통홀 공정 적용 확대 및 중요성 증가하고 있으며, 공정의 품질을 향상시키기 위한 검사장비의 필요성과 수요는 급격하게 증가하고 있음
o 올 1분기 한국 반도체 장비 매출은 73억 1000만달러(약 8조1214억원)를 기록했고, 이는 지난해 1분기 33억 6000만달러와 비교해 118% 증가한 규모
o (첨단 패키징 시장) 2017년부터 2023년까지 첨단 패키징 시장의 매출은 연평균 7.0% 성장하여 2023년에는 39조달러에 달할 것으로 전망
o (첨단 패키징 시장) 차세대 첨단 패키징 플랫폼 중 관통홀 시장의 연평균 성장률은 29%로 가장 빠르게 성장할 것으로 예측됨
o (Holographic Imaging 시장) 국내시장은 19년 111억 원 수준에서 연평균 38.2%의 고성장률로 26년 1천억 달러를 넘어설 전망
구분 2019 2020 2021 2022 2023 2024 2025 2026 CAGR
국내시장 111 155 230 333 478 657 842 1,070 38.2%
<국내 Holographic Imaging 시장전망(단위: 억원)>[국외 시장 규모] (도 14 및 도 15 참조)o 올해 반도체 장비 시장규모는 660억 달러(약 73조 6900억원)이며 내년에는 700억달러(약 79조원)을 넘어설 전망
o (비파괴 산업용 테스트 시장) 19년 12억달러 → 26년 20억달러로 성장 전망(CAGR 7.3%)
- 산업별로는 초기 Oil & Gas에서 Power Generation으로 비중 확대가 예상되며, Manufacturing 분야가 가장 높은 성장세(CAGR 8.7%)를 보일 전망
구분 2019 2020 2021 2022 2023 2024 2025 2026 CAGR
Oil&Gas 2,226 2,344 2,506 2,679 2,644 2,706 2,834 2,982 4.3%
PowerGeneration 2,115 2,324 2,484 2,656 2,988 3,221 3,373 3,549 7.7%
Aerospace 1,481 1,587 1,697 1,815 1,897 1,997 2,091 2,200 5.8%
Manufacturing 1,315 1,466 1,567 1,676 1,961 2,139 2,240 2,357 8.7%
Automotive 881 939 1,004 1,073 1,103 1,154 1,209 1,272 5.4%
PublicInfrastructure 782 849 907 970 1,052 1,141 1,195 1,257 7.0%
Others 205 215 230 246 239 245 257 270 4.0%
합계 9,004 9,724 10,396 11,115 11,883 12,603 13,199 13,888 6.4%
국내시장 1,231 1,348 1,441 1,540 1,712 1,838 1,907 2,017 7.3%
<세계 및 국내 비파괴 산업용 테스트 시장전망(단위: 백만달러, 억원)>o (Wafer Inspection 장비 시장) 반도체 웨이퍼 계측 장비의 경우 19년 36억 달러에서 연평균 61%의 성장을 통해 26년에는 54억달러 규모에 도달할 전망
구분 2019 2020 2021 2022 2023 2024 2025 2026 CAGR
E-beam 644 630 712 805 914 998 1,090 1,190 9.2%
Optical 2,939 2,780 3,032 3,312 3,617 3,814 4,021 4,240 5.4%
합계 3,584 3,410 3,743 4,117 4,531 4,809 5,104 5,418 6.1%
<세계 Wafer Inspection 장비 시장전망(단위: 백만달러)>o (3D AOI 시스템 시장) 19년 7억 달러에서 연평균 12.3%의 성장을 통해 26년 16억달러 규모로 성장 예상
구분 2019 2020 2021 2022 2023 2024 2025 2026 CAGR
3D AOI System 708 796 895 1,006 1,131 1,272 1,430 1,594 12.3%
<세계 3D AOI 시스템 시장전망(단위: 백만달러)>4. 신청 기술의 보유 근거
□ 신청기술 관련 지식재산권 현황(해당하는 경우)
- 해당사항 없음
□ 신청기술 관련 공인시험인증 현황(해당하는 경우)
No 명칭 시험인증기관 주요 시험인증 내용
1 검사면적(FOV) KTL인증 7.7×7.7㎟ 달성
2 깊이 측정 반복 정확도 KTL인증 다중파장 광학계 적용 측정치 분포도 측정 (73㎚ 달성)
3 깊이 측정 범위 KTL인증 다중파장 광학계 적용 최대범위 측정 (217㎛ 달성)
- 2016.12기 K-Global 300 선정 - 2021.05 혁신기업 국가대표 1000 벤처기업 선정
한편, 처리 장치(120 또는 220)에 의해 수행되는 동작은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 처리 장치(120 또는 220)의 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 처리 장치(120 또는 220)의 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 처리 장치(120 또는 220)의 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
이 때, 본 실시 예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.
본 명세서가 속하는 기술분야의 통상의 지식을 가진 자는 본 명세서가 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 명세서의 범위는 상기 상세한 설명보다는 후술하는 특허청구의 범위에 의하여 나타내어지며, 특허청구의 범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 명세서의 범위에 포함되는 것으로 해석되어야 한다.
한편, 본 명세서와 도면에는 본 명세서의 바람직한 실시 예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 명세서의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 명세서의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예 외에도 본 명세서의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 명세서가 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.
본 발명의 물체 형상 복원 방법에 따르면, 주파수 영역에서의 관심 영역을 스펙트럼 영상에서 사용자가 직접 설정할 수 있도록 하여, 영상의 단위(예를 들어, 1픽셀 단위) 기준으로 관심 영역의 크기에 대한 미세 조정이 가능하다. 이에 따라, 물체별로 세밀하고 정밀한 노이즈의 제거가 가능하다. 다시 말하여, 다양한 물체의 형상에 관계없이 세밀하고 정밀한 노이즈의 제거가 가능하므로, 물체 형상 복원 방법 분야에서 기술 향상에 이바지할 수 있다.

Claims (7)

  1. 물체에 대한 간섭 패턴 영상을 생성하는 단계;
    상기 생성된 간섭 패턴을 주파수 영역의 신호로 변환하여 스펙트럼 영상을 생성하는 단계;
    상기 스펙트럼 영상에서 관심 영역을 추출하는 단계; 및
    상기 추출된 관심 영역의 영상을 근거로 상기 간섭 패턴 영상에 대한 보정 영상을 생성하는 단계를 포함하는 물체 형상 복원 방법.
  2. 제 1 항에 있어서,
    상기 관심 영역은 영역 통과 필터에 의해 정의되는 물체 형상 복원 방법.
  3. 제 1 항에 있어서,
    상기 관심 영역의 영상은 적어도 하나의 주파수 피크를 포함하는 물체 형상 복원 방법.
  4. 제 1 항에 있어서,
    상기 간섭 패턴 영상의 기준 광 영상 및 대물 광 영상을 주파수 영역의 신호로 변환하는 단계는 푸리에 변환을 통해 수행되는 물체 형상 복원 방법.
  5. 제 1 항에 있어서,
    상기 간섭 패턴 영상에 대한 보정 영상을 생성하는 단계는,
    상기 추출된 관심 영역의 기준 광 영상 및 대물 광 영상을 공간 영역의 신호로 변환하는 단계;
    상기 공간 영역의 신호로 변환된 상기 관심 영역의 기준 광 영상 및 대물 광 영상의 밝기를 표준화하는 단계;
    상기 표준화된 기준 광 영상의 신호값과 상기 표준화된 대물 광 영상의 신호값 간의 차이를 산출하는 단계;
    상기 산출된 신호값 간의 차이를 근거로, 복원하고자 하는 영상의 새로운 주파수 영역 필드를 생성하는 단계;
    상기 생성된 새로운 주파수 영역 필드의 위상을 추출하는 단계;
    상기 추출된 위상을 근거로 상기 위상의 불연속부를 제거하는 단계; 및
    상기 물체의 실제 위상값을 추적하여 상기 새로운 주파수 영역의 위상 정보를 재구성하는 단계를 포함하는 물체 형상 복원 방법.
  6. 제 5 항에 있어서,
    상기 표준화된 기준 광 영상의 신호값과 상기 표준화된 대물 광 영상의 신호값 간의 차이를 산출하는 단계는,
    상기 기준 광 영상과 상기 대물 광 영상 간의 광경로차를 산출하는 단계인 물체 형상 복원 방법.
  7. 제 2 항에 있어서,
    상기 관심 영역의 기준 광을 주파수 도메인 및 대물 광 주파수 도메인을 공간 영역의 신호로 변환하는 단계는 푸리에 역변환을 통해 수행되는 물체 형상 복원 방법.
PCT/KR2022/016365 2021-10-29 2022-10-25 물체 형상 복원 방법 WO2023075368A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2021-0146458 2021-10-29
KR20210146458 2021-10-29
KR10-2022-0045690 2022-04-13
KR1020220045690A KR102424819B1 (ko) 2021-10-29 2022-04-13 물체 형상 복원 방법

Publications (1)

Publication Number Publication Date
WO2023075368A1 true WO2023075368A1 (ko) 2023-05-04

Family

ID=82701463

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/016365 WO2023075368A1 (ko) 2021-10-29 2022-10-25 물체 형상 복원 방법

Country Status (2)

Country Link
KR (1) KR102424819B1 (ko)
WO (1) WO2023075368A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102424819B1 (ko) * 2021-10-29 2022-07-27 (주)힉스컴퍼니 물체 형상 복원 방법
KR102542900B1 (ko) * 2022-11-30 2023-06-15 (주)힉스컴퍼니 표면 프로파일 측정 장치 및 그의 제어방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011145232A (ja) * 2010-01-16 2011-07-28 Canon Inc 計測装置及び露光装置
JP2011186072A (ja) * 2010-03-05 2011-09-22 National Institute Of Information & Communication Technology ホログラム生成装置およびその方法、プログラム
KR101621040B1 (ko) * 2014-09-05 2016-05-13 광운대학교 산학협력단 단일광을 이용한 물체 형상 복원 장치 및 방법
KR20170038526A (ko) * 2015-09-30 2017-04-07 삼성전자주식회사 홀로그래픽 이미지 처리방법 및 장치
KR20200139122A (ko) * 2018-12-10 2020-12-11 주식회사 내일해 노이즈 레벨을 차감한 주파수 성분을 기초로 측정 대상 물체의 3차원 형상 정보를 생성하는 방법
KR102424819B1 (ko) * 2021-10-29 2022-07-27 (주)힉스컴퍼니 물체 형상 복원 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011145232A (ja) * 2010-01-16 2011-07-28 Canon Inc 計測装置及び露光装置
JP2011186072A (ja) * 2010-03-05 2011-09-22 National Institute Of Information & Communication Technology ホログラム生成装置およびその方法、プログラム
KR101621040B1 (ko) * 2014-09-05 2016-05-13 광운대학교 산학협력단 단일광을 이용한 물체 형상 복원 장치 및 방법
KR20170038526A (ko) * 2015-09-30 2017-04-07 삼성전자주식회사 홀로그래픽 이미지 처리방법 및 장치
KR20200139122A (ko) * 2018-12-10 2020-12-11 주식회사 내일해 노이즈 레벨을 차감한 주파수 성분을 기초로 측정 대상 물체의 3차원 형상 정보를 생성하는 방법
KR102424819B1 (ko) * 2021-10-29 2022-07-27 (주)힉스컴퍼니 물체 형상 복원 방법

Also Published As

Publication number Publication date
KR102424819B1 (ko) 2022-07-27

Similar Documents

Publication Publication Date Title
WO2023075368A1 (ko) 물체 형상 복원 방법
Kühn et al. Axial sub-nanometer accuracy in digital holographic microscopy
Wyant Computerized interferometric surface measurements
EP0760085B1 (en) Method for surface topography measurement using a phase shifting interferometer
Bray Stitching interferometer for large plano optics using a standard interferometer
Tay et al. In situ surface roughness measurement using a laser scattering method
WO2019117453A1 (ko) 측정 대상 물체의 3차원 형상 정보를 생성하는 방법, 결함 검출 방법 및 결함 검출 장치
Chugui et al. Optical measuring and laser technologies for scientific and industrial applications
Makosch et al. Surface profiling by electro-optical phase measurements
Tien et al. Measurement of surface roughness of thin films by a hybrid interference microscope with different phase algorithms
Schober et al. Tilted Wave Fizeau Interferometer for flexible and robust asphere and freeform testing
Fluegge et al. Status of the nanometer comparator at PTB
Laubach et al. Combination of a fast white-light interferometer with a phase shifting interferometric line sensor for form measurements of precision components
Pérez et al. Experimental results of an innovative dynamic low-coherent interferometer for characterizing a gravitational wave detector
Pérez et al. Dynamic coherence scanning interferometry based on an optical phase mask for simultaneous measurement of local induced vibration and local topology change of a mirror
Lin et al. Thickness and parallelism measurements using a quasi-common-path interferometer with a remote phase control module
Wang et al. Optical testing of cylindrical surfaces with computer-generated holograms
Koerner et al. New grazing incidence microscope for the measurement of topography with a 2lambda-algorithm
Tay et al. Measurement of a microphone membrane deflection profile using an optical fibre and wedge fringe projection
Samara Enhanced dynamic range fringe projection for micro-structure characterization
Lindlein et al. Interferometrical measurement of cylindrical lenses with the help of computer-generated holograms
Ma et al. A robust white light interference signal processing technique and instrument design
Xiong et al. Measuring the wafer thickness and refractive index by spectral interferometry of optical frequency comb
Ma et al. Axicon metrology using high line density computer-generated holograms
Karodkar et al. Traceable radius of curvature measurements on a micro-interferometer

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22887564

Country of ref document: EP

Kind code of ref document: A1