KR20110019149A - Apparatus and method for fast imaging using image sensor - Google Patents
Apparatus and method for fast imaging using image sensor Download PDFInfo
- Publication number
- KR20110019149A KR20110019149A KR1020090076745A KR20090076745A KR20110019149A KR 20110019149 A KR20110019149 A KR 20110019149A KR 1020090076745 A KR1020090076745 A KR 1020090076745A KR 20090076745 A KR20090076745 A KR 20090076745A KR 20110019149 A KR20110019149 A KR 20110019149A
- Authority
- KR
- South Korea
- Prior art keywords
- sample
- image
- dimensional
- images
- depth direction
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/0004—Microscopes specially adapted for specific applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/25—Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20056—Discrete and fast Fourier transform, [DFT, FFT]
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Microscoopes, Condenser (AREA)
Abstract
Description
본 발명은 이미징 장치 및 방법에 관한 것으로, 보다 상세하게는, 세포와 같은 샘플의 영상을 획득하기 위한 이미징 장치 및 방법에 관한 것이다.The present invention relates to imaging devices and methods, and more particularly, to imaging devices and methods for acquiring an image of a sample, such as a cell.
형광현미경(fluorescence microscope)은 생체세포를 관찰하기 위한 광학 시스템으로서 가장 일반적으로 사용되고 있다. 형광현미경은 형광염료로 염색된 세포에서 나온 형광 빛을 대물렌즈로 받아들여, 확대된 세포 이미지를 이미지 센서에 맺히게 하여 세포의 이미지를 획득한다. CCD(Charge Coupled Device)는 이미지센서의 일 구현례이다. 형광현미경의 광학시스템은 고전적인 Wide Field Microscope를 기본 구조로 한 것이며, 이는 세포에서 나오는 형광 빛 중 CCD에 상이 맺혀 이미지를 만드는 빛뿐만 아니라, 초점이 맞지 않아 상이 맺히지 않는 빛 또한 모두 촬상소자로 들어가게 되어 세포의 정확한 3차원 이미지를 획득하는 것이 어렵다는 문제점을 갖는다. 이 문제점으로 인해 세포의 획득된 3차원 이미지의 대조비(contrast) 및 분해능(resolution) 저하가 발생되며, 특히 형광 염색한 세포를 샘플로 사용하는 형광현미경의 경우 일반적인 광학현미경 보다 그 문제점이 더욱 두드려져 세포 의 미세한 구조를 정확히 관찰하는 데에 큰 어려움이 있다.Fluorescence microscopes are most commonly used as optical systems for observing living cells. The fluorescence microscope receives the fluorescent light from the cells stained with the fluorescein dye as an objective lens and acquires the image of the cell by condensing the enlarged cell image with the image sensor. CCD (Charge Coupled Device) is an example of an image sensor. The optical system of the fluorescence microscope is based on a classic Wide Field Microscope, which allows the image of the fluorescent light from the cell to form an image by forming an image on the CCD. There is a problem that it is difficult to obtain an accurate three-dimensional image of the cell. This problem results in reduced contrast and resolution of the obtained three-dimensional image of the cell, especially in the case of fluorescence microscopy using fluorescently stained cells as a sample, which is more severe than the conventional optical microscope. There is a great difficulty in observing the fine structure of the cells accurately.
상기 문제점을 해소하기 위해 소위 ‘공초점 현미경’(confocal laser scanning microscope)이 등장하였다. 공초점 현미경은 핀홀(pin-hole)을 공간필터(spatial filter)로 사용하여, 상이 맺히지 않는 빛을 걸러 줌으로써, 위에서 설명한 단점을 극복한다. 따라서 공초점 현미경은 일반적인 Wide field microscope 비해 높은 대조비와 향상된 분해능을 가지며, 나아가 세포의 절단(optical sectioning)된 이미지를 얻는 것이 가능하다. 이러한 공초점 현미경의 특징은 세포의 3차원 영상을 구성하기 하기 위한 필수조건이다. 현재 공초점 현미경은 높은 대조비와 분해능으로 세포의 3차원 영상을 재현해 줌으로써, 생명공학 연구에 없어서는 안 될 중요한 세포영상 시스템으로 자리 잡았다. 하지만, 공초점 현미경으로 이미지를 만들기 위해서는 레이저 빔을 샘플에 주사(scanning)하는 레이저 빔 주사(laser beam scanning) 장치가 필요하며, 핀홀을 통과하여 광검출기(photo-detector)로 들어오는 광신호를 이미지로 재생해내는 시스템 또한 필요하다. 따라서, 공초점 현미경은 3차원 이미지를 측정하는데 장시간이 소요되어 샘플의 실시간 변화를 관찰하기 어려운 단점을 갖는다.In order to solve the problem, a so-called 'confocal laser scanning microscope' has emerged. Confocal microscopy overcomes the disadvantages described above by using pinholes as spatial filters to filter out uncondensed light. Therefore, the confocal microscope has a higher contrast ratio and improved resolution than a general wide field microscope, and furthermore, it is possible to obtain an optical sectioned image. The characteristics of this confocal microscope are essential conditions for constructing a three-dimensional image of the cell. Confocal microscopy now reproduces three-dimensional images of cells with high contrast and resolution, making them an indispensable cell imaging system for biotechnology research. However, to make an image with a confocal microscope, a laser beam scanning device for scanning a laser beam to a sample is required, and an optical signal passing through a pinhole to a photo-detector is imaged. You also need a system that can regenerate the data. Therefore, the confocal microscope takes a long time to measure the three-dimensional image has a disadvantage that it is difficult to observe the real-time change of the sample.
본 발명의 적어도 일 실시예가 이루고자 하는 기술적 과제는, 기존의 형광현미경을 이용하였음에도 불구하고 샘플의 3차원 영상을 공초점 현미경을 통해 획득한 3차원 영상 수준의 고품질의 정확한 3차원 영상으로서 획득할 수 있고 그러면서도 공초점 현미경을 통해 3차원 영상을 획득할 때와 달리 신속하게 샘플의 3차원 영상을 획득할 수 있도록 하는 고속 이미징 장치를 제공하는 데 있다.The technical problem to be achieved by at least one embodiment of the present invention is that, despite the use of a conventional fluorescence microscope can obtain a three-dimensional image of the sample as a high quality accurate three-dimensional image of the three-dimensional image obtained through a confocal microscope The present invention provides a high-speed imaging device capable of quickly acquiring a three-dimensional image of a sample, unlike when acquiring a three-dimensional image through a confocal microscope.
본 발명의 적어도 일 실시예가 이루고자 하는 다른 기술적 방법은 기존의 형광현미경을 이용하였음에도 불구하고 샘플의 3차원 영상을 공초점 현미경을 통해 획득한 3차원 영상 수준의 고품질의 정확한 3차원 영상으로서 획득할 수 있고 그러면서도 공초점 현미경을 통해 3차원 영상을 획득할 때와 달리 신속하게 샘플의 3차원 영상을 획득할 수 있도록 하는 고속 이미징 방법을 제공하는 데 있다.Another technical method of at least one embodiment of the present invention is to obtain a three-dimensional image of the sample as a high-quality accurate three-dimensional image of the three-dimensional image obtained through a confocal microscope, despite using a conventional fluorescence microscope The present invention provides a high-speed imaging method capable of quickly acquiring a three-dimensional image of a sample, unlike when acquiring a three-dimensional image through a confocal microscope.
본 발명의 적어도 일 실시예가 이루고자 하는 또 다른 기술적 과제는 기존의 형광현미경을 이용하였음에도 불구하고 샘플의 3차원 영상을 공초점 현미경을 통해 획득한 3차원 영상 수준의 고품질의 정확한 3차원 영상으로서 획득할 수 있고 그러면서도 공초점 현미경을 통해 3차원 영상을 획득할 때와 달리 신속하게 샘플의 3차원 영상을 획득할 수 있도록 하는 고속 이미징 방법을 컴퓨터에서 실행시키기 위한 컴퓨터 프로그램을 저장한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다.Another technical problem to be achieved by at least one embodiment of the present invention is to obtain a three-dimensional image of the sample as a high-quality accurate three-dimensional image of the three-dimensional image obtained through a confocal microscope, despite using a conventional fluorescence microscope Computer-readable recordings that store computer programs for computer-implementing a high-speed imaging method that allows high-speed imaging methods to be acquired quickly, as opposed to acquiring three-dimensional images through a confocal microscope. To provide the medium.
상기 기술적 과제를 이루기 위해, 본 발명의 적어도 일 실시예에 의한 고속 이미징 장치는 샘플을 깊이 방향으로 스캐닝하며 복수 번 촬상하여 2차원 영상들을 획득하는 촬상부; 및 상기 2차원 영상들을 이용하여 상기 샘플의 3차원 영상을 생성하는 영상 재구성부를 포함한다.In order to achieve the above technical problem, the high-speed imaging apparatus according to at least one embodiment of the present invention includes an imaging unit for scanning the sample in the depth direction and imaging the plurality of times to obtain two-dimensional images; And an image reconstruction unit which generates a 3D image of the sample using the 2D images.
여기서, 상기 촬상부는 상기 샘플을 깊이 방향으로 움직이며 상기 샘플을 복수 번 촬영함으로써 상기 2차원 영상들을 획득할 수 있다.Here, the imaging unit may acquire the two-dimensional images by moving the sample in the depth direction and photographing the sample a plurality of times.
여기서, 상기 촬상부는 상기 촬상부 내의 촬상 소자를 깊이 방향으로 움직이며 상기 샘플을 복수 번 촬영하여 상기 2차원 영상들을 획득할 수 있다.Here, the imaging unit may acquire the two-dimensional images by moving the imaging device in the imaging unit in a depth direction and photographing the sample a plurality of times.
여기서, 상기 촬상부는 상기 촬상부 내의 튜브 렌즈를 깊이 방향으로 움직이며 상기 샘플을 복수 번 촬영하여 상기 2차원 영상들을 획득할 수 있다.Here, the imaging unit may acquire the two-dimensional images by moving the tube lens in the imaging unit in the depth direction and photographing the sample a plurality of times.
여기서, 상기 촬상부는 상기 촬상부 내의 대물 렌즈를 깊이 방향으로 움직이며 상기 샘플을 복수 번 촬영하여 상기 2차원 영상들을 획득할 수 있다.Here, the imaging unit may acquire the two-dimensional images by moving the objective lens in the imaging unit in the depth direction and photographing the sample a plurality of times.
여기서, 상기 영상 재구성부는 상기 2차원 영상들 각각을 기 설정된 방식에 따라 처리하고 처리된 결과들을 고려하여 상기 3차원 영상을 생성할 수 있다.Here, the image reconstruction unit may process each of the 2D images according to a preset method and generate the 3D image in consideration of the processed results.
이 때 상기 영상 재구성부는 상기 2차원 영상들 각각의 세기가 자승되도록 상기 2차원 영상들을 처리하고 처리된 결과들을 고려하여 상기 3차원 영상을 생성할 수 있다.In this case, the image reconstruction unit may process the 2D images such that the intensity of each of the 2D images is squared and generate the 3D image in consideration of the processed results.
이 때, 상기 영상 재구성부는 상기 2차원 영상들 각각을 복수 번 미분하고 미분된 상기 2차원 영상들을 고려하여 상기 3차원 영상을 생성할 수 있다.In this case, the image reconstruction unit may generate the 3D image by considering the 2D images differentiated and differentiated each of the 2D images a plurality of times.
이 때, 상기 영상 재구성부는 상기 2차원 영상들 각각의 저주파 성분을 필터링하고, 필터링된 상기 2차원 영상들을 고려하여 상기 3차원 영상을 생성할 수 있 다.In this case, the image reconstruction unit may filter the low frequency components of each of the 2D images, and generate the 3D image in consideration of the filtered 2D images.
상기 다른 기술적 과제를 이루기 위해, 본 발명의 적어도 일 실시예에 따른 고속 이미징 방법은 (a) 샘플을 깊이 방향으로 스캐닝하며 복수 번 촬상하여 2차원 영상들을 획득하는 단계; 및 (b) 상기 2차원 영상들을 이용하여 상기 샘플의 3차원 영상을 생성하는 단계를 포함한다.In order to achieve the above technical problem, a high-speed imaging method according to at least one embodiment of the present invention comprises the steps of: (a) scanning a sample in the depth direction and obtaining a plurality of times to obtain two-dimensional images; And (b) generating a 3D image of the sample using the 2D images.
여기서, 상기 (a) 단계는 상기 샘플을 깊이 방향으로 움직이며 상기 샘플을 복수 번 촬영함으로써 상기 2차원 영상들을 획득할 수 있다.Here, in step (a), the two-dimensional images may be obtained by moving the sample in the depth direction and photographing the sample a plurality of times.
여기서, 상기 (a) 단계는 상기 촬상부 내의 촬상 소자를 깊이 방향으로 움직이며 상기 샘플을 복수 번 촬영하여 상기 2차원 영상들을 획득할 수 있다.Here, in step (a), the two-dimensional images may be obtained by moving the imaging device in the imaging unit in a depth direction and photographing the sample a plurality of times.
여기서, 상기 (a) 단계는 상기 촬상부 내의 튜브 렌즈를 깊이 방향으로 움직이며 상기 샘플을 복수 번 촬영하여 상기 2차원 영상들을 획득할 수 있다.Here, in step (a), the two-dimensional images may be obtained by moving the tube lens in the imaging unit in the depth direction and photographing the sample a plurality of times.
여기서, 상기 (a) 단계는 상기 촬상부 내의 대물 렌즈를 깊이 방향으로 움직이며 상기 샘플을 복수 번 촬영하여 상기 2차원 영상들을 획득할 수 있다.Here, in step (a), the objective lens in the imaging unit may be moved in the depth direction, and the two-dimensional images may be obtained by photographing the sample a plurality of times.
여기서, 상기 (b) 단계는 상기 2차원 영상들 각각을 기 설정된 방식에 따라 처리하고 처리된 결과들을 고려하여 상기 3차원 영상을 생성할 수 있다.Here, in step (b), each of the 2D images may be processed according to a preset method and the 3D image may be generated in consideration of the processed results.
이 때, 상기 (b) 단계는 상기 2차원 영상들 각각의 세기가 자승되도록 상기 2차원 영상들을 처리하고 처리된 결과들을 고려하여 상기 3차원 영상을 생성할 수 있다.In this case, step (b) may process the 2D images such that the intensity of each of the 2D images is squared and generate the 3D image in consideration of the processed results.
이 때, 상기 (b) 단계는 상기 2차원 영상들 각각을 복수 번 미분하고 미분된 상기 2차원 영상들을 고려하여 상기 3차원 영상을 생성할 수 있다.In this case, step (b) may generate the 3D image by considering the 2D images differentiated and differentiated each of the 2D images a plurality of times.
이 때, 상기 (b) 단계는 상기 2차원 영상들 각각의 저주파 성분을 필터링하고 필터링된 상기 2차원 영상들을 고려하여 상기 3차원 영상을 생성할 수 있다.In this case, step (b) may filter the low frequency components of each of the 2D images and generate the 3D image by considering the filtered 2D images.
상기 또 다른 기술적 과제를 이루기 위해, 본 발명의 적어도 일 실시예에 따른 컴퓨터로 읽을 수 있는 기록매체는 샘플을 깊이 방향으로 스캐닝하며 복수 번 촬상하여 2차원 영상들을 획득하는 단계; 및 상기 2차원 영상들을 이용하여 상기 샘플의 3차원 영상을 생성하는 단계를 컴퓨터에서 실행시키기 위한 컴퓨터 프로그램을 저장한다.In order to achieve the above object, the computer-readable recording medium according to at least one embodiment of the present invention comprises the steps of scanning a sample in the depth direction and obtaining two-dimensional images by imaging a plurality of times; And a computer program for causing the computer to perform the step of generating a 3D image of the sample using the 2D images.
본 발명의 적어도 일 실시예에 따른 고속 이미징 장치 및 방법은, 샘플을 깊이 방향으로 스캐닝하며 복수 번 촬상하여 2차원 영상들을 획득하고 그 2차원 영상들을 이용하여 그 샘플의 3차원 영상을 생성함으로써, 기존의 형광현미경을 이용하였음에도 불구하고 샘플의 3차원 영상을 공초점 현미경을 통해 획득한 3차원 영상 수준의 고품질의 정확한 3차원 영상으로서 획득할 수 있고 그러면서도 공초점 현미경을 통해 3차원 영상을 획득할 때와 달리 신속하게 샘플의 3차원 영상을 획득할 수 있다. 특히, 본 발명의 적어도 일 실시예에 따른 고속 이미징 장치 및 방법은 그 획득된 2차원 영상들 각각을 기 설정된 방식으로 처리하고, 처리된 2차원 영상들을 이용하여 대조비 및 분해능이 뛰어난 3차원 영상을 생성할 수 있으므로, 공초점 현미경(laser scanning confocal microscope)처럼 핀홀이나 정밀한 고가의 광학 스캐닝 시스템을 필요로 하지 않으면서 기계적인 장치가 아닌 컴퓨터를 이용함으로써 더욱 고속으로 3차원 이미지를 얻을 수 있다.A high speed imaging apparatus and method according to at least one embodiment of the present invention includes scanning a sample in a depth direction and capturing a plurality of times to obtain 2D images, and generating a 3D image of the sample using the 2D images. In spite of using a conventional fluorescence microscope, a three-dimensional image of a sample can be obtained as a high-quality, accurate three-dimensional image of a three-dimensional image obtained through a confocal microscope, and a three-dimensional image can be obtained through a confocal microscope. Unlike the case, a three-dimensional image of a sample can be obtained quickly. In particular, the high-speed imaging apparatus and method according to at least one embodiment of the present invention process each of the obtained two-dimensional images in a predetermined manner, and use the processed two-dimensional images to generate a three-dimensional image having excellent contrast ratio and resolution. Because it can be created, three-dimensional images can be obtained at higher speeds by using a computer rather than a mechanical device, without the need for pinholes or precision expensive optical scanning systems, such as laser scanning confocal microscopes.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 그 첨부 도면을 설명하는 내용을 참조하여야만 한다.In order to fully understand the present invention, the operational advantages of the present invention, and the objects achieved by the practice of the present invention, reference should be made to the accompanying drawings that illustrate preferred embodiments of the present invention and the accompanying drawings.
이하, 본 발명의 적어도 일 실시예에 의한 고속 이미징 장치 및 방법을 첨부 도면들을 참조하여 다음과 같이 설명한다.Hereinafter, a high speed imaging apparatus and method according to at least one embodiment of the present invention will be described with reference to the accompanying drawings.
도 1은 본 발명의 적어도 일 실시예에 따른 고속 이미징 장치를 설명하기 위한 블록도이고, 도 2는 본 발명의 제1 실시예에 따른 고속 이미징 장치를 표현하는 시스템의 참고도이고, 도 3은 본 발명의 제2 실시예에 따른 고속 이미징 장치를 표현하는 시스템의 참고도이다. 본 명세서에서, 세포는 샘플의 일 례이다.1 is a block diagram illustrating a high speed imaging apparatus according to at least one embodiment of the present invention, FIG. 2 is a reference diagram of a system representing a high speed imaging apparatus according to a first embodiment of the present invention, and FIG. A reference diagram of a system for expressing a high speed imaging apparatus according to a second embodiment of the present invention. In the present specification, the cell is an example of a sample.
본 발명의 적어도 일 실시예에 따른 고속 이미징 장치는 도 2 또는 도 3에 도시된 바와 같은 형광현미경을 근간으로 구현될 수 있다. 이에 대한 구체적 설명은 도 2 및 도 3에 대한 설명에서 후술하며 우선 도 1을 이용하여 본 발명을 개괄적으로 설명하면 다음과 같다.The high speed imaging apparatus according to at least one embodiment of the present invention may be implemented based on a fluorescence microscope as shown in FIG. 2 or 3. Detailed description thereof will be described later with reference to FIGS. 2 and 3. First, the present invention will be described with reference to FIG. 1 as follows.
촬상부(110)는 샘플을 깊이(depth; 소위, ‘z’) 방향으로 스캐닝(scanning)하며 복수 번 촬상하여 복수의 2차원 영상들을 획득한다. 이를 위해, 촬상부(110)는 순수하게 촬영 기능만을 담당하는 장치로만 구성된 것이 아니라, 스캐닝 기능도 수행할 수 있다. 여기서 스캐닝 기능이라 함은 촬상부(110)가 샘플을 깊이 방향으로 스캐닝하며 샘플을 복수 번 촬상할 수 있도록 샘플 및 ‘촬상부(110)의 촬영 기능 담당장치의 적어도 일부의 구성요소’ 중 적어도 하나를 깊이 방향으로 이동시 키는 기능을 의미하며 이러한 스캐닝 기능도 본 명세서상의 촬상부(110)가 담당하는 기능 중 하나인 것이다. 이 때, 촬상부(110)의 촬영 기능 담당장치의 구성요소의 일 례로는 촬상소자, 튜브 렌즈, 대물 렌즈 등이 있다. 자세한 사항은 도 2 및 도 3에 대한 설명에서 후술한다.The
영상 재구성부(120)는 촬상부(110)에 의해 획득된 2차원 영상들을 이용하여, 그 샘플의 3차원 영상을 생성(재구성)한다. 구체적으로, 영상 재구성부(120)는 그 2차원 영상들 각각을 기 설정된 방식에 따라 처리하고 처리된 결과들을 고려하여 그 3차원 영상을 생성할 수 있다. 예를 들어, 영상 재구성부(120)는 2차원 영상들 각각의 세기가 자승(=제곱)되도록 그 2차원 영상들을 처리하고 처리된 2차원 영상들을 고려하여 그 3차원 영상을 생성할 수도 있고, 2차원 영상들 각각을 복수 번 미분하고 미분된 그 2차원 영상들을 고려하여 3차원 영상을 생성할 수도 있고, 2차원 영상들 각각의 저주파 성분을 필터링하고 필터링된 2차원 영상들을 고려하여 그 3차원 영상을 생성할 수도 있다.The
이하, 앞서 설명한 촬상부(110) 및 영상 재구성부(120)에 대해 도 2와 도 3을 이용하여 보다 상세히 설명한다. 참고로, 도 2 및 도 3에서 sample stage(212)내지 이미지센서(224)는 촬상부(110)의 구성요소들을 의미하며, 컴퓨터(226)는 영상 재구성부(120)의 구현 례이다.Hereinafter, the
도 2는 일반적인 단일 렌즈를 사용한 형광현미경 시스템을 보여준다. 여기광(210)이 sample stage(212)에 놓여 있는 형광염료로 염색된 샘플에 조사되면(여기서 sample stage(212)라 함은 샘플이 놓여지는 장소를 의미한다), 샘플에 부착된 형광체(fluorophore)에서 이차적으로 형광 빛(fluorescence light)이 방출되고, 대물렌즈(214)는 방출된 형광 빛을 모으고 이미지 센서(224)에 2차원 상을 만드는 역할을 한다. 대역통과 필터(220)는 여기광(210)이 이미지 센서(224)로 들어가는 것을 막고, 샘플에 부착된 형광체에서 방출되는, 여기광의 파장보다 긴 파장의 형광 빛만을 이미지 센서(224)로 들어갈 수 있도록 통과시킨다. 대물렌즈(214)에 의해서 샘플의 한 단면만이 이미지센서(224) 평면에 상이 맺히므로 샘플의 다른 단면에서 나오는 형광 빛은 초점이 흐려져서 이미지센서(224)의 넓은 영역에 걸쳐서 분포하게 된다. 도 2의 이미징시스템의 경우 이미징하려는 샘플의 단면과 대물렌즈(214)와의 거리를 Z1, 대물렌즈(214)와 이미지센서(224)와의 거리를 Z2, 대물렌즈(214)의 초점거리를 f 라고 하면 이들은 수학식 1과 같은 렌즈공식을 만족한다.Figure 2 shows a fluorescence microscope system using a typical single lens. When the
이 때, 이미지센서(224)에서 측정된 2차원 이미지 크기와 실제 샘플 단면 크기와의 배율 M은 다음의 수학식 2와 같다.At this time, the magnification M between the two-dimensional image size and the actual sample cross-sectional size measured by the
도 3의 이미징 시스템은 소위 ‘infinity-corrected 현미경 시스템’을 보여 준다. 형광체를 여기시키는 여기광(210)이 관측하는 방향과 같은 쪽에서 조사되는 epi-illumination 여기 방식을 사용한 예를 보여준다. 이 경우는 도 2와는 달리 여기광(210)이 다이크로익 미러(dichroic mirror)(218)에 의해 45°반사된 뒤 대물렌즈(214)의 후방부로부터 조사된다. dichroic mirror(218)는 여기광(210)은 반사시키고 형광 빛(216)은 통과시키는 특성을 가지므로 샘플에서 반사 혹은 산란된 여기광을 걸러내어 이미지 센서(224)로 가는 것을 막는다. 도 2의 이미징시스템과 같은 단일렌즈 현미경에서도 대역통과필터(220) 대신 dichroic mirror(218)를 사용하면 이러한 epi-illumination 방식을 적용할 수 있다. sample stage(212)에 놓여있는 샘플에 여기광(210)을 조사하면 샘플에서 형광이 발생한다. 대물렌즈(214)는 샘플에서 나오는 형광빛(216)을 모아 평행하게 만들고, 이것을 튜브렌즈(222)로 보낸다. dichroic mirror(218)의 역할은 도 2의 대역통과필터(220)와 동일하다. dichroic mirror(218)를 통과한 형광은 튜브렌즈(220)를 통과하여 이미지 센서(224)에서 상으로 맺히게 된다. 도 3의 이미징시스템의 경우 이미징하려는 샘플의 단면(212)과 대물렌즈(214)와의 거리를 Z1, 대물렌즈(214)의 초점거리를 f1, 튜브렌즈(222)와 이미지센서(224)와의 거리를 Z2, 튜브렌즈(222)의 초점거리를 f2 라고 하면, 대물렌즈(214)와 튜브렌즈(222)와의 거리와 관계없이 이미징 하려고 하는 샘플의 단면과 대물렌즈(214)의 초점 거리가 같을 때(Z1 = f1) 튜브렌즈(222) 및 이미지센서(224)와의 거리는 튜브렌즈(222)의 초점거리와 일치한다. 즉, Z1 = f1 이면 Z2 = f2 가 성립한다. 이 때 이미지센서(224)에서 측정된 2차원 이미지 크기와 실제 샘플 단면 크기와의 배율 M은 다음의 수학식 3과 같다.The imaging system of FIG. 3 shows a so-called 'infinity-corrected microscope system'. An example using the epi-illumination excitation method irradiated from the same side as the direction in which the
이러한 infinity-corrected 현미경 시스템에서는 이미지의 대물렌즈와 튜브렌즈 사이에 다이크로익 미러(218)와 같은 여러 가지 광 컴포넌트를 끼워 넣을 수 있다는 장점을 가지므로 최근의 현미경 시스템은 거의 이러한 infinity-corrected 시스템으로 구성되어 있다. infinity-corrected 시스템에서 대물렌즈(214)와 튜브렌즈(222)와의 거리는 중요하지 않지만 배율이 큰 경우 이미지 중심에서 먼 부분의 밝기가 감소하는 소위 ‘vignetting 효과’를 줄이기 위해서 대물렌즈와 튜브렌즈와의 거리는 대물렌즈의 초점거리와 튜브렌즈의 초점거리를 합보다 작게 하는 것이 보통이다.This infinity-corrected microscope system has the advantage of being able to sandwich various optical components, such as
도 2나 도 3에서 사용하는 (2차원) 이미지센서(224)를 사용하는 광 이미징 시스템에서는 샘플의 특정 단면만이 이미지센서(224)에 초점이 맺히고 다른 단면에서 나온 빛은 초점이 맞지 않게 된다. 그러므로, 초점이 맞는 샘플의 특정 단면상에 분포하는 형광체에서 발생된 형광빛은 이미지센서(224)의 좁은 영역에 분포하게 되어 강한 세기로 측정되고, 초점이 맞지 않는 샘플의 다른 단면상에 분포하는 형광체에서 발생한 형광 빛은 이미지센서(224) 상에서 넓은 영영에 분포하게 되어 약 하게 관측된다.In the optical imaging system using the (two-dimensional)
이 때, 고정된 이미지센서(224)를 사용하여 샘플을 깊이(depth; z) 방향으로 스캐닝하며 여러 장의 2차원 이미지를 시리즈로 획득하면, 각 이미지들은 샘플의 특정 단면에 해당하는 형광 빛만이 초점이 맺히고 나머지 단면에서 나온 빛은 해당 이미지의 넓은 영역에 분포하게 된다. 이러한 샘플의 깊이 방향에 대한 스캔으로 얻어지는 2차원 이미지 시리즈를 순서대로 배열하면, 비록 완전하지는 않지만, 샘플의 3차원 구조를 파악할 수 있는 샘플의 3차원 이미지를 얻을 수 있다.At this time, if the sample is scanned in the depth (z) direction by using the fixed
샘플의 완벽한 3차원 형상을 얻기 위해서는 초점이 맞지 않는 샘플의 단면에서 발생되어 이미지센서의 넓은 영역에 분포하는 빛을 완벽하게 차단할 수 있어야 한다. 공초점 현미경에서는 물리적인 방법을 사용하여 샘플에서 발생하는 형광 빛을 핀홀을 통과시킴으로써 초점이 맞지 않는 단면에서 발생하는 형광 빛을 어느 정도 차단하는 효과를 얻고 있다. 하지만 본 발명에서는 물리적인 방법을 사용하지 않고 소프트웨어 상에서 간단한 이미지 프로세싱 방법을 사용하여 초점이 맞지 않는 단면에서 발생하는 형광 빛을 차단하는 방법을 제시한다.In order to obtain a perfect three-dimensional shape of the sample, it must be able to completely block the light generated from the cross-section of the out-of-focus sample and distributed over a large area of the image sensor. In confocal microscopy, a physical method is used to pass fluorescent light generated from a sample through a pinhole, thereby obtaining a certain effect of blocking fluorescent light generated from an unfocused cross section. However, the present invention proposes a method of blocking fluorescent light generated at an unfocused cross section using a simple image processing method in software without using a physical method.
초점이 맞는 단면에서 발생된 빛은 이미지센서(224) 상에 초점이 맞아서 선명하고 뚜렷한 상을 맺게 되지만, 초점이 맞지 않는 샘플의 단면에서 발생되어 이미지센서 상에 도달한 빛은 초점이 맞지 않아서 이미지센서(224) 상에 공간적으로 넓게 퍼지는 특성을 갖는다. 따라서 측정된 2차원 이미지를 공간주파수 역역에서 고주파만 통과하도록 하는, 공간적 고주파 필터 (Spatial High-pass filter)를 통과시키면 간단하게 초점이 맞지 않는 단면들에서 발생된 형광 빛의 대부분을 제거 할 수 있다. 측정된 이미지에서 공간적 저주파성분을 축소하거나 공간적 고주파성분을 증폭시키는 다양한 알고리즘을 적용하면 여러 가지 방법으로 초점이 맞지 않은 단면에서 발생된 빛을 효과적으로 제거하면, 상대적으로 샘플의 초점에 맞는 단면에서 주로 발생된 빛으로만 구성된 새로운 2차원 이미지를 얻을 수 있다. 샘플 또는 이미지센서(224)를 깊이 방향으로 이동하면서 2차원 이미지를 시리즈로 측정하면, 샘플의 다양한 깊이에서 발생된 빛의 2차원 이미지들 즉 샘플의 단층이미지들을 얻을 수 있으므로 이를 이용하면 샘플의 3차원 형상을 생성(혹은 본 명세서에서는 ‘재구성’ 또는 ‘복원’이라 표현할 수도 있다)할 수 있다.The light generated from the focused section is focused on the
이하, 깊이 방향의 스캐닝 이미지 획득 방법을 좀 더 구체적으로 살펴본다.Hereinafter, a method of obtaining a scanning image in a depth direction will be described in more detail.
이미지의 3차원 재구성을 위해서 샘플의 깊이 방향(z방향)으로 스캔이 필요하다. 도 2 또는 도 3을 참조하면, 이들 형광현미경 시스템들에 몇 가지 3차원 스캔 방법이 적용가능하다.Scanning in the depth direction (z direction) of the sample is necessary for three-dimensional reconstruction of the image. 2 or 3, several three-dimensional scan methods are applicable to these fluorescence microscope systems.
우선, 도 2 또는 3을 참조하면, 3차원 스캔 방법들 중에 sample stage(212)를 깊이 방향(z방향)으로 움직여서 스캔하는 방법(이하, ‘방법 A’라 명명함)이 있다. 이 경우, 샘플 스테이지(212)의 이동 거리와 측정된 3차원 이미지의 깊이 방향의 이동 거리가 일대일로 대응하므로 샘플의 3차원 이미지의 복원이 간단하다는 장점을 갖는다.First, referring to FIG. 2 or 3, one of three-dimensional scanning methods is a method of scanning by moving the
또한, 도 2 또는 도 3을 참조하면, 3차원 스캔방법 중에 이미지센서(224)를 z방향으로 움직여서 스캔하는 방법(이하, ‘방법 B’라 명명함)이 있다. 이 경우, 샘플 스테이지(212)의 이동 거리와 측정된 3차원 이미지의 깊이 방향의 이동 거리 가 선형적으로 대응하지 않는다는 단점을 갖는다.2 or 3, there is a method of scanning by moving the
또한, 도 3의 경우, 튜브렌즈(222)를 z 방향으로 움직여서 스캔하는 방법(이하, ‘방법 C’라 명명함)이 있다. 이 경우, 위의 ‘방법 B’에서 설명된 이미지센서를 스캐닝 방법과 동일한 결과를 얻을 수 있다. 이 경우 위의 경우와 동일하게 샘플 스테이지(212)의 이동 거리와 측정된 3차원 이미지의 깊이 방향의 이동 거리가 선형적으로 대응하지 않는다는 단점을 갖는다.In addition, in the case of FIG. 3, there is a method of scanning by moving the
또한, 도 3을 참조하면, 3차원 스캔방법 중에 대물렌즈(214)를 z방향으로 움직여서 스캔하는 방법(이하 ‘방법 D’라 명명함)이 있다. 이 때, 도 2의 경우 샘플 스테이지(212)의 이동 거리와 측정된 3차원 이미지의 깊이 방향의 이동 거리가 선형적으로 대응하지 않는다는 단점을 갖는다. 도 3의 경우 샘플 스테이지(212)의 이동 거리와 측정된 3차원 이미지의 깊이 방향의 이동 거리가 일대일로 대응하므로 샘플의 3차원 이미지의 복원이 간단하다.In addition, referring to FIG. 3, there is a method of scanning by moving the
또한, 도 2 또는 도 3의 경우, 이미지센서(224) 앞에 추가적인 줌렌즈(zoom lens)를 사용하고 이러한 줌렌즈의 위치를 조정함으로써 스캔하는 방법(이하, ‘방법 E’라 명명함)도 가능하다.In addition, in the case of FIG. 2 or 3, a method of scanning by using an additional zoom lens in front of the
일반적으로, 대물렌즈(214)에 의해서 이미지센서(224)에 맺히는 샘플의 상은 샘플보다 M배 확대된 상이 맺히게 된다. 보통 확대 배율 M이 50배에서 100배 정도의 배율을 가지므로 간단한 렌즈공식을 사용하면 샘플을 작은 거리인 δZ 만큼 움직여서 얻어지는 효과는 이미지센서를 -M2δZ 만큼 움직일 때 생기는 현상 동일한 효과를 얻는다. 따라서 M =70 인 이미징 시스템을 가정하면 샘플을 100 nm 씩 스캔해서 얻을 수 있는 이미지들을 이미지센서 또는 튜브렌즈를 스캔하는 방식인 방법(B) 또는 방법(C)를 사용할 경우 0.49 mm 씩 스캔하면서도 얻을 수 있다. 따라서 이미지센서 또는 튜브렌즈를 스캔하면 정확도가 떨어지는 스캔 방식을 사용해도 샘플의 깊이 방향의 정보를 매우 정확하게 얻을 수 있다는 장점을 갖는다.In general, an image of a sample formed on the
이하, 샘플의 복수의 2차원 영상들(물론 각각은 깊이값이 서로 다른 단층 영상들)을 처리하고 처리된 2차원 영상들을 이용하여 보다 정밀한 3차원 영상을 생성(재구성, 복원)하는 알고리즘(들)에 대해 상술한다.Hereinafter, an algorithm (s) for processing a plurality of two-dimensional images (of course, tomographic images having different depth values) and generating (reconstructing and reconstructing) a more precise three-dimensional image using the processed two-dimensional images ) Will be described in detail.
2차원 이미지센서(224)를 사용하는 광학적 형광 이미징 시스템에 있어서, 다양한 이미지 프로세싱 알고리즘을 적용하면 초점이 맞지 않는 샘플의 단면에서 발생한 형광 빛에 대한 효과를 매우 효과적으로 줄일 수 있다. 초점이 맞지 않은 단면에서 발생된 빛을 효과적으로 제거하면, 상대적으로 샘플의 초점에 맞는 단면에서 주로 발생된 형광 빛으로만 구성된, 새로운 샘플의 2차원 단층이미지를 얻을 수 있다. 이와 같은 방법으로 얻어진 새로운 2차원 단층이미지는 기존의 공초점 현미경에서 얻을 수 있는 단층 이미지와 매우 유사한 특징을 갖는다. 여기서 사용되는 알고리즘의 기본 원리는 측정된 2차원 이미지에서 공간적 저주파성분(Spatial low frequency component)을 감소시키거나 공간적 고주파성분(Spatial high frequency component)을 증가시키는 방법을 사용하여 측정된 2차원 이미지 상에서 샘플의 특정 단층면에서 발생된 형광 빛의 세기는 강화 시키고 나머지 단면에서 발생된 형광 빛은 감소시키는 것이다.In an optical fluorescence imaging system using the two-
우선 샘플을 깊이방향으로 일정한 거리 ΔZ만큼 스캔하면서 시리즈로 얻은 N장의 2차원 이미지 중에서 i번째 2차원 이미지를 Ii(x,y)라고 하면 이를 이용하여 깊이 방향인 Z축에 대해 일정한 ΔZ 만큼의 거리마다 샘플링 된 3차원 이미지 I(x,y,z)를 구성할 수 있다. 이때 X 또는 Y축에 대한 샘플링 거리 ΔX 또는 ΔY는 사용된 2차원 이미지센서의 픽셀간 간격을 사용된 이미징 시스템의 배율 M으로 나눈 값으로 M = 50, 픽셀간 간격을 10마이크론으로 가정하면 ΔX = ΔY = 200 nm 가 된다. 샘플을 ΔZ만큼 깊이 방향으로 스캐닝하면서 이미지를 취득할 경우 Z축에 대한 샘플링 거리는 ΔZ와 동일하게 된다. 대물렌즈(214)나 튜브렌즈(222)나 이미지센서(224)를 일정한 간격으로 스캐닝하면서 이미지를 얻는 경우에는 이미지 간의 실제 샘플상에서의 샘플링 거리가 동일하지 않으므로 수식을 통하여 깊이 방향으로 일정한 샘플링 거리가 되도록 대물렌즈(214)나 튜브렌즈(222)나 이미지센서(224)의 스캔 거리를 비선형적으로 스캔해주어야 한다. 대물렌즈(214)나 튜브렌즈(222) 또는 이미지센서(224)를 일정한 간격으로 스캔하면서 2차원 단층 이미지 시리즈를 얻는 경우에는, 2차원 좌표상의 각 포인트들에 대하여 얻어진 이미지간의 보간 방법과 렌즈공식인 수학식 1을 사용하여 샘플상의 스캔거리가 일정한 새로운 단층 이미지 시리즈들을 계산을 통해 만들어 낼 수 있다.First, if the i-th 2D image of the N-dimensional 2D images obtained from the series is scanned as I i (x, y) while scanning the sample by a constant distance ΔZ in the depth direction, the i-th 2D image is used as a constant ΔZ in the depth direction Z-axis. A three-dimensional image I (x, y, z) sampled for each distance can be constructed. In this case, the sampling distance ΔX or ΔY of the X or Y-axis is the pixel-to-pixel spacing of the used two-dimensional image sensor divided by the magnification M of the imaging system to be used. ΔY = 200 nm. When the image is acquired while the sample is scanned in the depth direction by ΔZ, the sampling distance with respect to the Z axis is equal to ΔZ. When the image is acquired while scanning the
측정된 여러 장의 3차원 이미지를 공간적 주파수 대역에서 이미지 프로세싱을 하기 위해서는 원래의 이미지를 3차원 푸리에 변환할 필요가 있다. 원래의 이미지 I(x,y,z)와 이를 푸리에 변환한 함수 F(fx,fy,fz) 사이에는 서로 다음의 수학식 4, 5와 같은 푸리에변환 및 역변환의 관계를 만족한다.In order to process the measured three-dimensional image in the spatial frequency band, it is necessary to convert the original image to three-dimensional Fourier transform. Between the original image I (x, y, z) and the Fourier transform function F (f x , f y , f z ), the relationship between the Fourier transform and the inverse transform, as shown in Equations 4 and 5, is satisfied.
여기서 fx , fy 및 fz는 각각 3차원 이미지의 X, Y 및 Z축에 대응하는 공간주파수 (spatial frequency)를 나타낸다.Here, f x , f y and f z denote spatial frequencies corresponding to the X, Y and Z axes of the 3D image, respectively.
아래의 알고리즘에 나와 있는 수학식들은 측정된 3차원 이미지 I(x,y,z)와 이를 3차원 푸리에변환(Fourier Transformation)한 함수 F(fx,fy,fz)를 공간적 저주파성분(spatial low frequency component)을 감소시키거나 공간적 고주파성분(Spatial high frequency component)을 증가시키는 방법을 사용하여 변형한 뒤에 이를 바탕으로 새로운 3차원 단면 이미지 Ia(x,y,z) 또는 이에 대응하는 푸리에 변환된 새로운 함수 Fa(fx,fy,fz)를 구성하는 방법을 설명한다.The equations shown in the following algorithms are based on a spatial low frequency component (F (f x , f y , f z )) of the measured three-dimensional image I (x, y, z) and the three-dimensional Fourier transform Deform using a method to reduce the spatial low frequency component or increase the spatial high frequency component and then use the new three-dimensional cross-sectional image I a (x, y, z) or its corresponding Fourier How to construct the converted new function F a (f x , f y , f z ).
우선, 가능한 알고리즘으로서 제1 알고리즘(Ia(x,y,z)=(I(x,y,z))2)을 설명 한다.First, the first algorithm I a (x, y, z) = (I (x, y, z)) 2 will be described as a possible algorithm.
여기서, I(x,y,z)는 본 발명에서 제시한 방법으로 샘플을 스캔해서 얻은 이미지의 3차원 세기(intensity)를 나타내고 Ia(x,y,z)는 상기 제1알고리즘을 적용해서 재구성된 3차원 영상을 나타낸다. 알고리즘1에 의해서 얻어진 새로운 이미지 Ia(x,y,z)를 푸리에 변환한 함수를 Fa(fx,fy,fz)라고 명명하면, 푸리에 변환에서 많이 쓰이는 convolution theorem에 의해서 다음의 수학식 6과 같은 관계를 만족한다.Where I (x, y, z) represents the three-dimensional intensity of the image obtained by scanning the sample by the method proposed in the present invention, and I a (x, y, z) applies the first algorithm. Reconstructed three-dimensional image. The function of Fourier transforming a new image I a (x, y, z) obtained by Algorithm 1 is called F a (f x , f y , f z ), which is a convolution theorem commonly used in Fourier transforms. The relationship shown in Equation 6 is satisfied.
여기서 는 수학적으로 convolution 연산을 나타낸다. 측정된 본래의 3차원 이미지 I(x,y,z)에 대한 푸리에 변환 함수 F(fx,fy,fz)는 보통 공간주파수 fx , fy 및 fz의 원점 부근에 피크가 있고 fx , fy 및 fz의 크기가 커짐에 따라 값이 작아지는 형태를 갖는다. 이 함수의 자체 convolution 결과로 얻어지는 새로운 함수 Fa(fx,fy,fz)는 공간주파수 fx , fy 및 fz에 대하여 본래의 함수 F(fx,fy,fz)보다 부드러운 함수가 된다. 즉, 새로운 공간주파수 함수 Fa(fx,fy,fz)는 공간주파수의 원점부근에 있는 저주파 성분 피크는 줄어들고 상대적으로 고주파성분 성분은 비율은 원래의 함수 보다 커지게 된다. 따라서, Ia(x,y,z)는 측정된 3차원 이미지 I(x,y,z)에 서 샘플의 특정 단층면에서 발생된 형광 빛의 공간적 고주파 성분의 세기는 강화 시키고 나머지 단면에서 발생된 형광 빛의 공간적 저주파성분은 감소시킨 새로운 3차원 단층이미지이다. 이러한 새로운 3차원 단층이미지 Ia(x,y,z)는 측정된 원래의 이미지보다 샘플의 3차원적인 구조를 더욱 잘 나타내 주며 이는 기존의 공초점현미경을 통해서 얻을 수 있는 샘플의 3차원 구조 형광 이미지와 매우 유사하게 된다.here Mathematically represents a convolution operation. The Fourier transform function F (f x , f y , f z ) for the measured original three-dimensional image I (x, y, z) usually has a peak near the origin of the spatial frequencies f x , f y and f z As the sizes of f x , f y, and f z increase, the value decreases. Its new function obtained by the convolution result of this function than F a (f x, f y, f z) is the spatial frequency f x, f y, and the original function F with respect to f z (f x, f y , f z) Becomes a smooth function That is, the new spatial frequency function F a (f x , f y , f z ) reduces the peaks of the low frequency components near the origin of the spatial frequency, and the ratio of the high frequency components becomes larger than the original function. Therefore, I a (x, y, z) increases the intensity of the spatial high-frequency components of the fluorescent light generated at a specific tomographic plane of the sample in the measured three-dimensional image I (x, y, z) The spatial low frequency component of fluorescent light is a new three-dimensional tomographic image reduced. This new three-dimensional tomographic image I a (x, y, z) represents the three-dimensional structure of the sample better than the original image measured, which indicates that the three-dimensional fluorescence of the sample can be obtained through conventional confocal microscopy. Very similar to the image.
이하, 제1 알고리즘 이외에 또 다른 가능한 알고리즘으로서 제2 알고리즘(Fa(fx,fy,fz)=G(fx,fy,fz)F(fx,fy,fz))을 설명한다.Hereinafter, as another possible algorithm in addition to the first algorithm, the second algorithm F a (f x , f y , f z ) = G (f x , f y , f z ) F (f x , f y , f z ) ).
여기서, G(fx,fy,fz)는 원래 이미지를 푸리에 변환하여 얻어진 주파수 성분의 함수 F(fx,fy,fz)에 저주파 성분을 감소시키거나 고주파 성분을 증폭하는 기능을 하는 일반적인 고주파 통과 필터링 함수를 나타낸다. 이 경우, 새로운 이미지인 Ia(x,y,z)는 새롭게 얻어진 Fa(fx,fy,fz)를 수학식 5를 이용하여 푸리에역변환하면 얻을 수 있다. 일반적으로 G(fx,fy,fz)는 다음의 수학식 7 내지 13과 같은 다양한 함수가 될 수 있다.Here, G (f x , f y , f z ) has a function of reducing the low frequency component or amplifying the high frequency component in the function F (f x , f y , f z ) of the frequency component obtained by Fourier transforming the original image. Represents a typical high pass filtering function. In this case, a new image I a (x, y, z) can be obtained by Fourier inverse transforming the newly obtained F a (f x , f y , f z ) using Equation 5. In general, G (f x , f y , f z ) may be various functions as shown in Equations 7 to 13.
여기서, α 와 a는 각각 임의의 양수 이다(α>0, a>0). X, Y, Z축에 대한 샘플링 거리를 각각 ΔX, ΔY, ΔZ라고 할 때, 소위 ‘샘플링 이론’에 의하여 각 축에 해당하는 최대 공간 주파수인 fMx, fMy, fMz 는 각각 1/(2ΔX), 1/(2ΔY), 1/(2ΔZ) 가 된다.Where α and a are each positive integers (α> 0, a> 0). When the sampling distances for the X, Y, and Z axes are ΔX, ΔY, and ΔZ, respectively, the maximum spatial frequencies f Mx , f My , and f Mz corresponding to each axis are 1 / ( 2ΔX), 1 / (2ΔY), and 1 / (2ΔZ).
원래 이미지를 푸리에 변환하여 얻어진 주파수 성분의 함수 F(fx,fy,fz)에 저주파 성분을 감소시키거나 고주파 성분을 증가시키는 필터링 함수 G(fx,fy,fz)를 곱 하여 얻은 새로운 공간주파수 함수 Fa(fx,fy,fz)는 공간주파수의 원점부근에 있는 저주파 성분 피크는 줄어들고 상대적으로 고주파성분 성분은 비율은 원래의 함수 보다 커지게 된다. 따라서 Fa(fx,fy,fz)를 푸리에 역변환하여 얻어지는 새로운 이미지 Ia(x,y,z)는 측정된 3차원 이미지 I(x,y,z)보다 샘플의 특정 단층면에서 발생된 형광 빛의 공간적 고주파 성분의 세기는 강화 시키고 나머지 단면에서 발생된 형광 빛의 공간적 저주파성분은 감소시킨 새로운 3차원 단층이미지이다. 이러한 새로운 3차원 단층이미지 Ia(x,y,z)는 측정된 원래의 이미지보다 샘플의 3차원적인 구조를 더욱 잘 나타내 주며 이는 기존의 공초점현미경을 통해서 얻을 수 있는 샘플의 3차원 구조 형광 이미지와 매우 유사하게 된다.The function F (f x , f y , f z ) of the frequency component obtained by Fourier transforming the original image by multiplying the filtering function G (f x , f y , f z ) by reducing the low frequency component or increasing the high frequency component The new spatial frequency function F a (f x , f y , f z ) obtained reduces the peaks of the low frequency components near the origin of the spatial frequency and the ratio of the high frequency components becomes larger than the original function. Thus, a new image I a (x, y, z) obtained by Fourier inverse transforming F a (f x , f y , f z ) occurs at a particular tomographic plane of the sample than the measured three-dimensional image I (x, y, z) It is a new three-dimensional tomographic image that enhances the intensity of the spatial high frequency components of the fluorescent light and decreases the spatial low frequency components of the fluorescent light generated in the remaining sections. This new three-dimensional tomographic image I a (x, y, z) represents the three-dimensional structure of the sample better than the original image measured, which indicates that the three-dimensional fluorescence of the sample can be obtained through conventional confocal microscopy. Very similar to the image.
도 4는 본 발명의 적어도 일 실시예에 따른 고속 이미징 방법을 설명하기 위한 플로우챠트이다. 도 1을 참조하여 설명하면 다음과 같다.4 is a flowchart illustrating a high speed imaging method according to at least one embodiment of the present invention. Referring to Figure 1 as follows.
촬상부(110)는 샘플을 깊이 방향으로 스캐닝하며 복수 번 촬상하여 2차원 영상들을 획득한다(제410 단계).The
영상 재구성부(120)는 제410 단계에서 획득된 2차원 영상들을 이용하여 그 샘플의 3차원 영상을 생성(‘재구성’ 또는 ‘복원’이라 명명가능)한다(제420 단계).The
이상에서 언급된 본 발명에 의한 고속 이미징 방법을 컴퓨터에서 실행시키기 위한 프로그램은 컴퓨터로 읽을 수 있는 기록매체에 저장될 수 있다.The program for executing the high speed imaging method according to the present invention mentioned above on a computer may be stored in a computer readable recording medium.
여기서, 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬(ROM), 플로피 디스크, 하드 디스크 등), 및 광학적 판독 매체(예를 들면, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc))와 같은 저장매체를 포함한다.Here, the computer-readable recording medium may be a magnetic storage medium (for example, a ROM, a floppy disk, a hard disk, etc.), and an optical reading medium (for example, a CD-ROM, a DVD). : Digital Versatile Disc).
이제까지 본 발명을 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로, 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점들은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been described with reference to the preferred embodiments. Those skilled in the art will appreciate that the present invention can be implemented in a modified form without departing from the essential features of the present invention. Therefore, the disclosed embodiments should be considered in descriptive sense only and not for purposes of limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope will be construed as being included in the present invention.
도 1은 본 발명의 적어도 일 실시예에 따른 고속 이미징 장치를 설명하기 위한 블록도이다.1 is a block diagram illustrating a high speed imaging apparatus according to at least one embodiment of the present invention.
도 2는 본 발명의 제1 실시예에 따른 고속 이미징 장치를 표현하는 시스템의 참고도이다.2 is a reference diagram of a system representing a high speed imaging apparatus according to a first embodiment of the present invention.
도 3은 본 발명의 제2 실시예에 따른 고속 이미징 장치를 표현하는 시스템의 참고도이다.3 is a reference diagram of a system representing a high speed imaging apparatus according to a second embodiment of the present invention.
도 4는 본 발명의 적어도 일 실시예에 따른 고속 이미징 방법을 설명하기 위한 플로우챠트이다.4 is a flowchart illustrating a high speed imaging method according to at least one embodiment of the present invention.
Claims (17)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090076745A KR101088117B1 (en) | 2009-08-19 | 2009-08-19 | Apparatus and method for fast imaging using image sensor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090076745A KR101088117B1 (en) | 2009-08-19 | 2009-08-19 | Apparatus and method for fast imaging using image sensor |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110019149A true KR20110019149A (en) | 2011-02-25 |
KR101088117B1 KR101088117B1 (en) | 2011-12-02 |
Family
ID=43776560
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090076745A KR101088117B1 (en) | 2009-08-19 | 2009-08-19 | Apparatus and method for fast imaging using image sensor |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101088117B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150053629A (en) * | 2013-11-08 | 2015-05-18 | 삼성전자주식회사 | Apparatus and method for generating tomography image |
WO2024101696A1 (en) * | 2022-11-08 | 2024-05-16 | 울산과학기술원 | Three-dimensional imaging system and method based on non-linear microscope using continuous wave laser |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100871270B1 (en) * | 2007-01-22 | 2008-11-28 | 광주과학기술원 | Method of Generating Image Information of Sample Using Optical Interferometer And Apparatus Using The Same |
-
2009
- 2009-08-19 KR KR1020090076745A patent/KR101088117B1/en not_active IP Right Cessation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150053629A (en) * | 2013-11-08 | 2015-05-18 | 삼성전자주식회사 | Apparatus and method for generating tomography image |
WO2024101696A1 (en) * | 2022-11-08 | 2024-05-16 | 울산과학기술원 | Three-dimensional imaging system and method based on non-linear microscope using continuous wave laser |
Also Published As
Publication number | Publication date |
---|---|
KR101088117B1 (en) | 2011-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6934856B2 (en) | Optical sheet microscope that simultaneously images multiple target surfaces | |
WO2019232875A1 (en) | Spatial and temporal focusing-based wide field of view chromatography hyperspectral microscopic imaging method and device | |
WO2022028291A1 (en) | Structured-light-scanning super-resolution microscopic imaging device and method | |
AU2018352821B2 (en) | Image reconstruction method, device and microscopic imaging device | |
JP7190843B2 (en) | High-resolution 2D microscopy with improved cross-sectional thickness | |
CN111024659B (en) | Multi-image reconstruction microscopic imaging method and device based on parallel detection | |
US10776955B2 (en) | Method for the analysis of spatial and temporal information of samples by means of optical microscopy | |
TWI554740B (en) | Optical system for fast three-dimensional imaging | |
JP6928757B2 (en) | Systems and methods for image processing in light microscopy | |
Shaw et al. | Three-dimensional fluorescence microscopy | |
KR101088117B1 (en) | Apparatus and method for fast imaging using image sensor | |
Hsiao et al. | Telecentric design for digital‐scanning‐based HiLo optical sectioning endomicroscopy with an electrically tunable lens | |
US20210132350A1 (en) | Method and apparatus for extending depth of field during fluorescence microscopy imaging | |
US11256078B2 (en) | Continuous scanning for localization microscopy | |
Burns et al. | Scanning slit aperture confocal microscopy for three‐dimensional imaging | |
KR101064672B1 (en) | Confocal laser scanning microscopy applying two direction line scanning way and image processing method using thereof | |
CN117631249B (en) | Line scanning confocal scanning light field microscopic imaging device and method | |
TWI858406B (en) | Mesoscale nonlinear optical gigascope system with real-time gigapixel mosaic-stitching and digital display | |
TW202416005A (en) | Mesoscale nonlinear optical gigascope system with real-time gigapixel mosaic-stitching and digital display | |
Zhang et al. | Enhance imaging depth in wide-field two-photon microscopy by extended detection and computational reconstruction | |
Diaspro et al. | Confocal microscopy | |
Geng et al. | Blind optical sectioning and super-resolution imaging in multifocal structured illumination microscopy | |
Yu et al. | Structured Illumination Microscopy | |
CN117930486A (en) | Mesoscopic nonlinear optical billion pixel microscopic system | |
Koschan et al. | Improving 3D Reconstruction from STEM Data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20141001 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20151002 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20161004 Year of fee payment: 6 |
|
LAPS | Lapse due to unpaid annual fee |