KR101088117B1 - Apparatus and method for fast imaging using image sensor - Google Patents

Apparatus and method for fast imaging using image sensor Download PDF

Info

Publication number
KR101088117B1
KR101088117B1 KR1020090076745A KR20090076745A KR101088117B1 KR 101088117 B1 KR101088117 B1 KR 101088117B1 KR 1020090076745 A KR1020090076745 A KR 1020090076745A KR 20090076745 A KR20090076745 A KR 20090076745A KR 101088117 B1 KR101088117 B1 KR 101088117B1
Authority
KR
South Korea
Prior art keywords
sample
image
dimensional
images
depth direction
Prior art date
Application number
KR1020090076745A
Other languages
Korean (ko)
Other versions
KR20110019149A (en
Inventor
김덕영
양웬총
배윤성
이민경
Original Assignee
광주과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광주과학기술원 filed Critical 광주과학기술원
Priority to KR1020090076745A priority Critical patent/KR101088117B1/en
Publication of KR20110019149A publication Critical patent/KR20110019149A/en
Application granted granted Critical
Publication of KR101088117B1 publication Critical patent/KR101088117B1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

본 발명의 적어도 일 실시예에 따른 고속 이미징 장치 및 방법은, 샘플을 깊이 방향으로 스캐닝하며 복수 번 촬상하여 2차원 영상들을 획득하고 그 2차원 영상들을 이용하여 그 샘플의 3차원 영상을 생성함으로써, 기존의 형광현미경을 이용하였음에도 불구하고 샘플의 3차원 영상을 공초점 현미경을 통해 획득한 3차원 영상 수준의 고품질의 정확한 3차원 영상으로서 획득할 수 있고 그러면서도 공초점 현미경을 통해 3차원 영상을 획득할 때와 달리 신속하게 샘플의 3차원 영상을 획득할 수 있다. 특히, 본 발명의 적어도 일 실시예에 따른 고속 이미징 장치 및 방법은 그 획득된 2차원 영상들 각각을 기 설정된 방식으로 처리하고, 처리된 2차원 영상들을 이용하여 대조비 및 분해능이 뛰어난 3차원 영상을 생성할 수 있으므로, 공초점 현미경(laser scanning confocal microscope)처럼 핀홀이나 정밀한 고가의 광학 스캐닝 시스템을 필요로 하지 않으면서 기계적인 장치가 아닌 컴퓨터를 이용함으로써 더욱 고속으로 3차원 이미지를 얻을 수 있다.A high speed imaging apparatus and method according to at least one embodiment of the present invention includes scanning a sample in a depth direction and capturing a plurality of times to obtain 2D images, and generating a 3D image of the sample using the 2D images. In spite of using a conventional fluorescence microscope, a three-dimensional image of a sample can be obtained as a high-quality, accurate three-dimensional image of a three-dimensional image obtained through a confocal microscope, and a three-dimensional image can be obtained through a confocal microscope. Unlike the case, a three-dimensional image of a sample can be obtained quickly. In particular, the high-speed imaging apparatus and method according to at least one embodiment of the present invention process each of the obtained two-dimensional images in a predetermined manner, and use the processed two-dimensional images to generate a three-dimensional image having excellent contrast ratio and resolution. Because it can be created, three-dimensional images can be obtained at higher speeds by using a computer rather than a mechanical device, without the need for pinholes or precision expensive optical scanning systems, such as laser scanning confocal microscopes.

Description

이미지 센서를 이용한 고속 이미징 장치 및 방법 {Apparatus and method for fast imaging using image sensor}High speed imaging apparatus and method using an image sensor {Apparatus and method for fast imaging using image sensor}

본 발명은 이미징 장치 및 방법에 관한 것으로, 보다 상세하게는, 세포와 같은 샘플의 영상을 획득하기 위한 이미징 장치 및 방법에 관한 것이다.The present invention relates to imaging devices and methods, and more particularly, to imaging devices and methods for acquiring an image of a sample, such as a cell.

형광현미경(fluorescence microscope)은 생체세포를 관찰하기 위한 광학 시스템으로서 가장 일반적으로 사용되고 있다. 형광현미경은 형광염료로 염색된 세포에서 나온 형광 빛을 대물렌즈로 받아들여, 확대된 세포 이미지를 이미지 센서에 맺히게 하여 세포의 이미지를 획득한다. CCD(Charge Coupled Device)는 이미지센서의 일 구현례이다. 형광현미경의 광학시스템은 고전적인 Wide Field Microscope를 기본 구조로 한 것이며, 이는 세포에서 나오는 형광 빛 중 CCD에 상이 맺혀 이미지를 만드는 빛뿐만 아니라, 초점이 맞지 않아 상이 맺히지 않는 빛 또한 모두 촬상소자로 들어가게 되어 세포의 정확한 3차원 이미지를 획득하는 것이 어렵다는 문제점을 갖는다. 이 문제점으로 인해 세포의 획득된 3차원 이미지의 대조비(contrast) 및 분해능(resolution) 저하가 발생되며, 특히 형광 염색한 세포를 샘플로 사용하는 형광현미경의 경우 일반적인 광학현미경 보다 그 문제점이 더욱 두드려져 세포 의 미세한 구조를 정확히 관찰하는 데에 큰 어려움이 있다.Fluorescence microscopes are most commonly used as optical systems for observing living cells. The fluorescence microscope receives the fluorescent light from the cells stained with the fluorescein dye as an objective lens and acquires the image of the cell by condensing the enlarged cell image with the image sensor. CCD (Charge Coupled Device) is an example of an image sensor. The optical system of the fluorescence microscope is based on a classic Wide Field Microscope, which allows the image of the fluorescent light from the cell to form an image by forming an image on the CCD. There is a problem that it is difficult to obtain an accurate three-dimensional image of the cell. This problem results in reduced contrast and resolution of the obtained three-dimensional image of the cell, especially in the case of fluorescence microscopy using fluorescently stained cells as a sample, which is more severe than the conventional optical microscope. There is a great difficulty in observing the fine structure of the cells accurately.

상기 문제점을 해소하기 위해 소위 ‘공초점 현미경’(confocal laser scanning microscope)이 등장하였다. 공초점 현미경은 핀홀(pin-hole)을 공간필터(spatial filter)로 사용하여, 상이 맺히지 않는 빛을 걸러 줌으로써, 위에서 설명한 단점을 극복한다. 따라서 공초점 현미경은 일반적인 Wide field microscope 비해 높은 대조비와 향상된 분해능을 가지며, 나아가 세포의 절단(optical sectioning)된 이미지를 얻는 것이 가능하다. 이러한 공초점 현미경의 특징은 세포의 3차원 영상을 구성하기 하기 위한 필수조건이다. 현재 공초점 현미경은 높은 대조비와 분해능으로 세포의 3차원 영상을 재현해 줌으로써, 생명공학 연구에 없어서는 안 될 중요한 세포영상 시스템으로 자리 잡았다. 하지만, 공초점 현미경으로 이미지를 만들기 위해서는 레이저 빔을 샘플에 주사(scanning)하는 레이저 빔 주사(laser beam scanning) 장치가 필요하며, 핀홀을 통과하여 광검출기(photo-detector)로 들어오는 광신호를 이미지로 재생해내는 시스템 또한 필요하다. 따라서, 공초점 현미경은 3차원 이미지를 측정하는데 장시간이 소요되어 샘플의 실시간 변화를 관찰하기 어려운 단점을 갖는다.In order to solve the problem, a so-called 'confocal laser scanning microscope' has emerged. Confocal microscopy overcomes the disadvantages described above by using pinholes as spatial filters to filter out uncondensed light. Therefore, the confocal microscope has a higher contrast ratio and improved resolution than a general wide field microscope, and furthermore, it is possible to obtain an optical sectioned image. The characteristics of this confocal microscope are essential conditions for constructing a three-dimensional image of the cell. Confocal microscopy now reproduces three-dimensional images of cells with high contrast and resolution, making them an indispensable cell imaging system for biotechnology research. However, to make an image with a confocal microscope, a laser beam scanning device for scanning a laser beam to a sample is required, and an optical signal passing through a pinhole to a photo-detector is imaged. You also need a system that can regenerate the data. Therefore, the confocal microscope takes a long time to measure the three-dimensional image has a disadvantage that it is difficult to observe the real-time change of the sample.

본 발명의 적어도 일 실시예가 이루고자 하는 기술적 과제는, 기존의 형광현미경을 이용하였음에도 불구하고 샘플의 3차원 영상을 공초점 현미경을 통해 획득한 3차원 영상 수준의 고품질의 정확한 3차원 영상으로서 획득할 수 있고 그러면서도 공초점 현미경을 통해 3차원 영상을 획득할 때와 달리 신속하게 샘플의 3차원 영상을 획득할 수 있도록 하는 고속 이미징 장치를 제공하는 데 있다.The technical problem to be achieved by at least one embodiment of the present invention is that, despite the use of a conventional fluorescence microscope can obtain a three-dimensional image of the sample as a high quality accurate three-dimensional image of the three-dimensional image obtained through a confocal microscope The present invention provides a high-speed imaging device capable of quickly acquiring a three-dimensional image of a sample, unlike when acquiring a three-dimensional image through a confocal microscope.

본 발명의 적어도 일 실시예가 이루고자 하는 다른 기술적 방법은 기존의 형광현미경을 이용하였음에도 불구하고 샘플의 3차원 영상을 공초점 현미경을 통해 획득한 3차원 영상 수준의 고품질의 정확한 3차원 영상으로서 획득할 수 있고 그러면서도 공초점 현미경을 통해 3차원 영상을 획득할 때와 달리 신속하게 샘플의 3차원 영상을 획득할 수 있도록 하는 고속 이미징 방법을 제공하는 데 있다.Another technical method of at least one embodiment of the present invention is to obtain a three-dimensional image of the sample as a high-quality accurate three-dimensional image of the three-dimensional image obtained through a confocal microscope, despite using a conventional fluorescence microscope The present invention provides a high-speed imaging method capable of quickly acquiring a three-dimensional image of a sample, unlike when acquiring a three-dimensional image through a confocal microscope.

본 발명의 적어도 일 실시예가 이루고자 하는 또 다른 기술적 과제는 기존의 형광현미경을 이용하였음에도 불구하고 샘플의 3차원 영상을 공초점 현미경을 통해 획득한 3차원 영상 수준의 고품질의 정확한 3차원 영상으로서 획득할 수 있고 그러면서도 공초점 현미경을 통해 3차원 영상을 획득할 때와 달리 신속하게 샘플의 3차원 영상을 획득할 수 있도록 하는 고속 이미징 방법을 컴퓨터에서 실행시키기 위한 컴퓨터 프로그램을 저장한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다.Another technical problem to be achieved by at least one embodiment of the present invention is to obtain a three-dimensional image of the sample as a high-quality accurate three-dimensional image of the three-dimensional image obtained through a confocal microscope, despite using a conventional fluorescence microscope Computer-readable recordings that store computer programs for computer-implementing a high-speed imaging method that allows high-speed imaging methods to be acquired quickly, as opposed to acquiring three-dimensional images through a confocal microscope. To provide the medium.

상기 기술적 과제를 이루기 위해, 본 발명의 적어도 일 실시예에 의한 고속 이미징 장치는 샘플을 깊이 방향으로 스캐닝하며 복수 번 촬상하여 2차원 영상들을 획득하는 촬상부; 및 상기 2차원 영상들을 이용하여 상기 샘플의 3차원 영상을 생성하는 영상 재구성부를 포함한다.In order to achieve the above technical problem, the high-speed imaging apparatus according to at least one embodiment of the present invention includes an imaging unit for scanning the sample in the depth direction and imaging the plurality of times to obtain two-dimensional images; And an image reconstruction unit which generates a 3D image of the sample using the 2D images.

여기서, 상기 촬상부는 상기 샘플을 깊이 방향으로 움직이며 상기 샘플을 복수 번 촬영함으로써 상기 2차원 영상들을 획득할 수 있다.Here, the imaging unit may acquire the two-dimensional images by moving the sample in the depth direction and photographing the sample a plurality of times.

여기서, 상기 촬상부는 상기 촬상부 내의 촬상 소자를 깊이 방향으로 움직이며 상기 샘플을 복수 번 촬영하여 상기 2차원 영상들을 획득할 수 있다.Here, the imaging unit may acquire the two-dimensional images by moving the imaging device in the imaging unit in a depth direction and photographing the sample a plurality of times.

여기서, 상기 촬상부는 상기 촬상부 내의 튜브 렌즈를 깊이 방향으로 움직이며 상기 샘플을 복수 번 촬영하여 상기 2차원 영상들을 획득할 수 있다.Here, the imaging unit may acquire the two-dimensional images by moving the tube lens in the imaging unit in the depth direction and photographing the sample a plurality of times.

여기서, 상기 촬상부는 상기 촬상부 내의 대물 렌즈를 깊이 방향으로 움직이며 상기 샘플을 복수 번 촬영하여 상기 2차원 영상들을 획득할 수 있다.Here, the imaging unit may acquire the two-dimensional images by moving the objective lens in the imaging unit in the depth direction and photographing the sample a plurality of times.

여기서, 상기 영상 재구성부는 상기 2차원 영상들 각각을 기 설정된 방식에 따라 처리하고 처리된 결과들을 고려하여 상기 3차원 영상을 생성할 수 있다.Here, the image reconstruction unit may process each of the 2D images according to a preset method and generate the 3D image in consideration of the processed results.

이 때 상기 영상 재구성부는 상기 2차원 영상들 각각의 세기가 자승되도록 상기 2차원 영상들을 처리하고 처리된 결과들을 고려하여 상기 3차원 영상을 생성할 수 있다.In this case, the image reconstruction unit may process the 2D images such that the intensity of each of the 2D images is squared and generate the 3D image in consideration of the processed results.

이 때, 상기 영상 재구성부는 상기 2차원 영상들 각각을 복수 번 미분하고 미분된 상기 2차원 영상들을 고려하여 상기 3차원 영상을 생성할 수 있다.In this case, the image reconstruction unit may generate the 3D image by considering the 2D images differentiated and differentiated each of the 2D images a plurality of times.

이 때, 상기 영상 재구성부는 상기 2차원 영상들 각각의 저주파 성분을 필터링하고, 필터링된 상기 2차원 영상들을 고려하여 상기 3차원 영상을 생성할 수 있 다.In this case, the image reconstruction unit may filter the low frequency components of each of the 2D images, and generate the 3D image in consideration of the filtered 2D images.

상기 다른 기술적 과제를 이루기 위해, 본 발명의 적어도 일 실시예에 따른 고속 이미징 방법은 (a) 샘플을 깊이 방향으로 스캐닝하며 복수 번 촬상하여 2차원 영상들을 획득하는 단계; 및 (b) 상기 2차원 영상들을 이용하여 상기 샘플의 3차원 영상을 생성하는 단계를 포함한다.In order to achieve the above technical problem, a high-speed imaging method according to at least one embodiment of the present invention comprises the steps of: (a) scanning a sample in the depth direction and obtaining a plurality of times to obtain two-dimensional images; And (b) generating a 3D image of the sample using the 2D images.

여기서, 상기 (a) 단계는 상기 샘플을 깊이 방향으로 움직이며 상기 샘플을 복수 번 촬영함으로써 상기 2차원 영상들을 획득할 수 있다.Here, in step (a), the two-dimensional images may be obtained by moving the sample in the depth direction and photographing the sample a plurality of times.

여기서, 상기 (a) 단계는 상기 촬상부 내의 촬상 소자를 깊이 방향으로 움직이며 상기 샘플을 복수 번 촬영하여 상기 2차원 영상들을 획득할 수 있다.Here, in step (a), the two-dimensional images may be obtained by moving the imaging device in the imaging unit in a depth direction and photographing the sample a plurality of times.

여기서, 상기 (a) 단계는 상기 촬상부 내의 튜브 렌즈를 깊이 방향으로 움직이며 상기 샘플을 복수 번 촬영하여 상기 2차원 영상들을 획득할 수 있다.Here, in step (a), the two-dimensional images may be obtained by moving the tube lens in the imaging unit in the depth direction and photographing the sample a plurality of times.

여기서, 상기 (a) 단계는 상기 촬상부 내의 대물 렌즈를 깊이 방향으로 움직이며 상기 샘플을 복수 번 촬영하여 상기 2차원 영상들을 획득할 수 있다.Here, in step (a), the objective lens in the imaging unit may be moved in the depth direction, and the two-dimensional images may be obtained by photographing the sample a plurality of times.

여기서, 상기 (b) 단계는 상기 2차원 영상들 각각을 기 설정된 방식에 따라 처리하고 처리된 결과들을 고려하여 상기 3차원 영상을 생성할 수 있다.Here, in step (b), each of the 2D images may be processed according to a preset method and the 3D image may be generated in consideration of the processed results.

이 때, 상기 (b) 단계는 상기 2차원 영상들 각각의 세기가 자승되도록 상기 2차원 영상들을 처리하고 처리된 결과들을 고려하여 상기 3차원 영상을 생성할 수 있다.In this case, step (b) may process the 2D images such that the intensity of each of the 2D images is squared and generate the 3D image in consideration of the processed results.

이 때, 상기 (b) 단계는 상기 2차원 영상들 각각을 복수 번 미분하고 미분된 상기 2차원 영상들을 고려하여 상기 3차원 영상을 생성할 수 있다.In this case, step (b) may generate the 3D image by considering the 2D images differentiated and differentiated each of the 2D images a plurality of times.

이 때, 상기 (b) 단계는 상기 2차원 영상들 각각의 저주파 성분을 필터링하고 필터링된 상기 2차원 영상들을 고려하여 상기 3차원 영상을 생성할 수 있다.In this case, step (b) may filter the low frequency components of each of the 2D images and generate the 3D image by considering the filtered 2D images.

상기 또 다른 기술적 과제를 이루기 위해, 본 발명의 적어도 일 실시예에 따른 컴퓨터로 읽을 수 있는 기록매체는 샘플을 깊이 방향으로 스캐닝하며 복수 번 촬상하여 2차원 영상들을 획득하는 단계; 및 상기 2차원 영상들을 이용하여 상기 샘플의 3차원 영상을 생성하는 단계를 컴퓨터에서 실행시키기 위한 컴퓨터 프로그램을 저장한다.In order to achieve the above object, the computer-readable recording medium according to at least one embodiment of the present invention comprises the steps of scanning a sample in the depth direction and obtaining two-dimensional images by imaging a plurality of times; And a computer program for causing the computer to perform the step of generating a 3D image of the sample using the 2D images.

본 발명의 적어도 일 실시예에 따른 고속 이미징 장치 및 방법은, 샘플을 깊이 방향으로 스캐닝하며 복수 번 촬상하여 2차원 영상들을 획득하고 그 2차원 영상들을 이용하여 그 샘플의 3차원 영상을 생성함으로써, 기존의 형광현미경을 이용하였음에도 불구하고 샘플의 3차원 영상을 공초점 현미경을 통해 획득한 3차원 영상 수준의 고품질의 정확한 3차원 영상으로서 획득할 수 있고 그러면서도 공초점 현미경을 통해 3차원 영상을 획득할 때와 달리 신속하게 샘플의 3차원 영상을 획득할 수 있다. 특히, 본 발명의 적어도 일 실시예에 따른 고속 이미징 장치 및 방법은 그 획득된 2차원 영상들 각각을 기 설정된 방식으로 처리하고, 처리된 2차원 영상들을 이용하여 대조비 및 분해능이 뛰어난 3차원 영상을 생성할 수 있으므로, 공초점 현미경(laser scanning confocal microscope)처럼 핀홀이나 정밀한 고가의 광학 스캐닝 시스템을 필요로 하지 않으면서 기계적인 장치가 아닌 컴퓨터를 이용함으로써 더욱 고속으로 3차원 이미지를 얻을 수 있다.A high speed imaging apparatus and method according to at least one embodiment of the present invention includes scanning a sample in a depth direction and capturing a plurality of times to obtain 2D images, and generating a 3D image of the sample using the 2D images. In spite of using a conventional fluorescence microscope, a three-dimensional image of a sample can be obtained as a high-quality, accurate three-dimensional image of a three-dimensional image obtained through a confocal microscope, and a three-dimensional image can be obtained through a confocal microscope. Unlike the case, a three-dimensional image of a sample can be obtained quickly. In particular, the high-speed imaging apparatus and method according to at least one embodiment of the present invention process each of the obtained two-dimensional images in a predetermined manner, and use the processed two-dimensional images to generate a three-dimensional image having excellent contrast ratio and resolution. Because it can be created, three-dimensional images can be obtained at higher speeds by using a computer rather than a mechanical device, without the need for pinholes or precision expensive optical scanning systems, such as laser scanning confocal microscopes.

본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 그 첨부 도면을 설명하는 내용을 참조하여야만 한다.In order to fully understand the present invention, the operational advantages of the present invention, and the objects achieved by the practice of the present invention, reference should be made to the accompanying drawings that illustrate preferred embodiments of the present invention and the accompanying drawings.

이하, 본 발명의 적어도 일 실시예에 의한 고속 이미징 장치 및 방법을 첨부 도면들을 참조하여 다음과 같이 설명한다.Hereinafter, a high speed imaging apparatus and method according to at least one embodiment of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 적어도 일 실시예에 따른 고속 이미징 장치를 설명하기 위한 블록도이고, 도 2는 본 발명의 제1 실시예에 따른 고속 이미징 장치를 표현하는 시스템의 참고도이고, 도 3은 본 발명의 제2 실시예에 따른 고속 이미징 장치를 표현하는 시스템의 참고도이다. 본 명세서에서, 세포는 샘플의 일 례이다.1 is a block diagram illustrating a high speed imaging apparatus according to at least one embodiment of the present invention, FIG. 2 is a reference diagram of a system representing a high speed imaging apparatus according to a first embodiment of the present invention, and FIG. A reference diagram of a system for expressing a high speed imaging apparatus according to a second embodiment of the present invention. In the present specification, the cell is an example of a sample.

본 발명의 적어도 일 실시예에 따른 고속 이미징 장치는 도 2 또는 도 3에 도시된 바와 같은 형광현미경을 근간으로 구현될 수 있다. 이에 대한 구체적 설명은 도 2 및 도 3에 대한 설명에서 후술하며 우선 도 1을 이용하여 본 발명을 개괄적으로 설명하면 다음과 같다.The high speed imaging apparatus according to at least one embodiment of the present invention may be implemented based on a fluorescence microscope as shown in FIG. 2 or 3. Detailed description thereof will be described later with reference to FIGS. 2 and 3. First, the present invention will be described with reference to FIG. 1 as follows.

촬상부(110)는 샘플을 깊이(depth; 소위, ‘z’) 방향으로 스캐닝(scanning)하며 복수 번 촬상하여 복수의 2차원 영상들을 획득한다. 이를 위해, 촬상부(110)는 순수하게 촬영 기능만을 담당하는 장치로만 구성된 것이 아니라, 스캐닝 기능도 수행할 수 있다. 여기서 스캐닝 기능이라 함은 촬상부(110)가 샘플을 깊이 방향으로 스캐닝하며 샘플을 복수 번 촬상할 수 있도록 샘플 및 ‘촬상부(110)의 촬영 기능 담당장치의 적어도 일부의 구성요소’ 중 적어도 하나를 깊이 방향으로 이동시 키는 기능을 의미하며 이러한 스캐닝 기능도 본 명세서상의 촬상부(110)가 담당하는 기능 중 하나인 것이다. 이 때, 촬상부(110)의 촬영 기능 담당장치의 구성요소의 일 례로는 촬상소자, 튜브 렌즈, 대물 렌즈 등이 있다. 자세한 사항은 도 2 및 도 3에 대한 설명에서 후술한다.The imaging unit 110 scans a sample in a depth (so-called 'z') direction and captures a plurality of times to obtain a plurality of two-dimensional images. To this end, the imaging unit 110 may not only be configured with a device that is purely responsible for a photographing function, but may also perform a scanning function. Herein, the scanning function means at least one of a sample and 'a component of at least a part of the photographing function responsible device of the image capturing unit 110' so that the image capturing unit 110 scans the sample in a depth direction and captures the sample a plurality of times. Means a function of moving in the depth direction, and such a scanning function is one of functions of the imaging unit 110 in the present specification. At this time, examples of the components of the photographing function responsible device of the imaging unit 110 include an imaging device, a tube lens, an objective lens, and the like. Details will be described later with reference to FIGS. 2 and 3.

영상 재구성부(120)는 촬상부(110)에 의해 획득된 2차원 영상들을 이용하여, 그 샘플의 3차원 영상을 생성(재구성)한다. 구체적으로, 영상 재구성부(120)는 그 2차원 영상들 각각을 기 설정된 방식에 따라 처리하고 처리된 결과들을 고려하여 그 3차원 영상을 생성할 수 있다. 예를 들어, 영상 재구성부(120)는 2차원 영상들 각각의 세기가 자승(=제곱)되도록 그 2차원 영상들을 처리하고 처리된 2차원 영상들을 고려하여 그 3차원 영상을 생성할 수도 있고, 2차원 영상들 각각을 복수 번 미분하고 미분된 그 2차원 영상들을 고려하여 3차원 영상을 생성할 수도 있고, 2차원 영상들 각각의 저주파 성분을 필터링하고 필터링된 2차원 영상들을 고려하여 그 3차원 영상을 생성할 수도 있다.The image reconstructor 120 generates (reconstructs) a three-dimensional image of the sample by using the two-dimensional images acquired by the imaging unit 110. In detail, the image reconstruction unit 120 may process each of the 2D images according to a preset method and generate the 3D image in consideration of the processed results. For example, the image reconstructor 120 may process the 2D images such that the intensity of each of the 2D images is squared (= square) and generate the 3D image in consideration of the processed 2D images. A 3D image may be generated by differentiating each of the 2D images a plurality of times and deriving the differentiated 2D images, or filtering the low frequency components of each of the 2D images and considering the filtered 2D images. You can also create an image.

이하, 앞서 설명한 촬상부(110) 및 영상 재구성부(120)에 대해 도 2와 도 3을 이용하여 보다 상세히 설명한다. 참고로, 도 2 및 도 3에서 sample stage(212)내지 이미지센서(224)는 촬상부(110)의 구성요소들을 의미하며, 컴퓨터(226)는 영상 재구성부(120)의 구현 례이다.Hereinafter, the image capturing unit 110 and the image reconstructing unit 120 described above will be described in more detail with reference to FIGS. 2 and 3. For reference, in FIGS. 2 and 3, the sample stage 212 to the image sensor 224 mean components of the imaging unit 110, and the computer 226 is an implementation example of the image reconstruction unit 120.

도 2는 일반적인 단일 렌즈를 사용한 형광현미경 시스템을 보여준다. 여기광(210)이 sample stage(212)에 놓여 있는 형광염료로 염색된 샘플에 조사되면(여기서 sample stage(212)라 함은 샘플이 놓여지는 장소를 의미한다), 샘플에 부착된 형광체(fluorophore)에서 이차적으로 형광 빛(fluorescence light)이 방출되고, 대물렌즈(214)는 방출된 형광 빛을 모으고 이미지 센서(224)에 2차원 상을 만드는 역할을 한다. 대역통과 필터(220)는 여기광(210)이 이미지 센서(224)로 들어가는 것을 막고, 샘플에 부착된 형광체에서 방출되는, 여기광의 파장보다 긴 파장의 형광 빛만을 이미지 센서(224)로 들어갈 수 있도록 통과시킨다. 대물렌즈(214)에 의해서 샘플의 한 단면만이 이미지센서(224) 평면에 상이 맺히므로 샘플의 다른 단면에서 나오는 형광 빛은 초점이 흐려져서 이미지센서(224)의 넓은 영역에 걸쳐서 분포하게 된다. 도 2의 이미징시스템의 경우 이미징하려는 샘플의 단면과 대물렌즈(214)와의 거리를 Z1, 대물렌즈(214)와 이미지센서(224)와의 거리를 Z2, 대물렌즈(214)의 초점거리를 f 라고 하면 이들은 수학식 1과 같은 렌즈공식을 만족한다.Figure 2 shows a fluorescence microscope system using a typical single lens. When the excitation light 210 is irradiated onto a sample stained with a fluorescent dye placed on the sample stage 212 (where the sample stage 212 means a place where the sample is placed), a fluorophore attached to the sample Fluorescence light (second) is emitted from the secondary light, the objective lens 214 collects the emitted fluorescent light and serves to create a two-dimensional image in the image sensor 224. The bandpass filter 220 prevents the excitation light 210 from entering the image sensor 224, and only fluorescent light of a wavelength longer than the wavelength of the excitation light emitted from the phosphor attached to the sample may enter the image sensor 224. Pass it through. Since only one cross section of the sample is imaged on the plane of the image sensor 224 by the objective lens 214, the fluorescent light emitted from the other cross section of the sample is blurred and distributed over a wide area of the image sensor 224. In the imaging system of FIG. 2, the distance between the cross-section of the sample to be imaged and the objective lens 214 is Z 1 , the distance between the objective lens 214 and the image sensor 224 is Z 2 , and the focal length of the objective lens 214 is determined. Suppose f satisfies the lens formula as shown in equation (1).

Figure 112009050694805-pat00001
Figure 112009050694805-pat00001

이 때, 이미지센서(224)에서 측정된 2차원 이미지 크기와 실제 샘플 단면 크기와의 배율 M은 다음의 수학식 2와 같다.At this time, the magnification M between the two-dimensional image size and the actual sample cross-sectional size measured by the image sensor 224 is expressed by Equation 2 below.

Figure 112009050694805-pat00002
Figure 112009050694805-pat00002

도 3의 이미징 시스템은 소위 ‘infinity-corrected 현미경 시스템’을 보여 준다. 형광체를 여기시키는 여기광(210)이 관측하는 방향과 같은 쪽에서 조사되는 epi-illumination 여기 방식을 사용한 예를 보여준다. 이 경우는 도 2와는 달리 여기광(210)이 다이크로익 미러(dichroic mirror)(218)에 의해 45°반사된 뒤 대물렌즈(214)의 후방부로부터 조사된다. dichroic mirror(218)는 여기광(210)은 반사시키고 형광 빛(216)은 통과시키는 특성을 가지므로 샘플에서 반사 혹은 산란된 여기광을 걸러내어 이미지 센서(224)로 가는 것을 막는다. 도 2의 이미징시스템과 같은 단일렌즈 현미경에서도 대역통과필터(220) 대신 dichroic mirror(218)를 사용하면 이러한 epi-illumination 방식을 적용할 수 있다. sample stage(212)에 놓여있는 샘플에 여기광(210)을 조사하면 샘플에서 형광이 발생한다. 대물렌즈(214)는 샘플에서 나오는 형광빛(216)을 모아 평행하게 만들고, 이것을 튜브렌즈(222)로 보낸다. dichroic mirror(218)의 역할은 도 2의 대역통과필터(220)와 동일하다. dichroic mirror(218)를 통과한 형광은 튜브렌즈(220)를 통과하여 이미지 센서(224)에서 상으로 맺히게 된다. 도 3의 이미징시스템의 경우 이미징하려는 샘플의 단면(212)과 대물렌즈(214)와의 거리를 Z1, 대물렌즈(214)의 초점거리를 f1, 튜브렌즈(222)와 이미지센서(224)와의 거리를 Z2, 튜브렌즈(222)의 초점거리를 f2 라고 하면, 대물렌즈(214)와 튜브렌즈(222)와의 거리와 관계없이 이미징 하려고 하는 샘플의 단면과 대물렌즈(214)의 초점 거리가 같을 때(Z1 = f1) 튜브렌즈(222) 및 이미지센서(224)와의 거리는 튜브렌즈(222)의 초점거리와 일치한다. 즉, Z1 = f1 이면 Z2 = f2 가 성립한다. 이 때 이미지센서(224)에서 측정된 2차원 이미지 크기와 실제 샘플 단면 크기와의 배율 M은 다음의 수학식 3과 같다.The imaging system of FIG. 3 shows a so-called 'infinity-corrected microscope system'. An example using the epi-illumination excitation method irradiated from the same side as the direction in which the excitation light 210 for exciting the phosphor is observed is shown. In this case, unlike in FIG. 2, the excitation light 210 is reflected by the dichroic mirror 218 at 45 ° and then irradiated from the rear portion of the objective lens 214. The dichroic mirror 218 reflects the excitation light 210 and passes the fluorescent light 216 to filter out the reflected or scattered excitation light from the sample and prevent it from going to the image sensor 224. Even in a single lens microscope such as the imaging system of FIG. 2, if the dichroic mirror 218 is used instead of the bandpass filter 220, this epi-illumination method may be applied. When the excitation light 210 is irradiated to the sample placed on the sample stage 212, fluorescence is generated in the sample. The objective lens 214 collects the fluorescent light 216 from the sample and makes it parallel, and sends it to the tube lens 222. The role of the dichroic mirror 218 is the same as that of the bandpass filter 220 of FIG. 2. The fluorescence passing through the dichroic mirror 218 passes through the tube lens 220 and forms an image in the image sensor 224. In the imaging system of FIG. 3, the distance between the end face 212 of the sample to be imaged and the objective lens 214 is Z 1 , the focal length of the objective lens 214 is f 1 , the tube lens 222 and the image sensor 224. If the distance between Z 2 and the focal length of the tube lens 222 is f 2 , the cross section of the sample to be imaged and the focal point of the objective lens 214 irrespective of the distance between the objective lens 214 and the tube lens 222. When the distances are the same (Z 1 = f 1 ), the distance between the tube lens 222 and the image sensor 224 coincides with the focal length of the tube lens 222. That is, when Z 1 = f 1, Z 2 = f 2 is established. At this time, the magnification M between the two-dimensional image size and the actual sample cross-sectional size measured by the image sensor 224 is expressed by Equation 3 below.

Figure 112009050694805-pat00003
Figure 112009050694805-pat00003

이러한 infinity-corrected 현미경 시스템에서는 이미지의 대물렌즈와 튜브렌즈 사이에 다이크로익 미러(218)와 같은 여러 가지 광 컴포넌트를 끼워 넣을 수 있다는 장점을 가지므로 최근의 현미경 시스템은 거의 이러한 infinity-corrected 시스템으로 구성되어 있다. infinity-corrected 시스템에서 대물렌즈(214)와 튜브렌즈(222)와의 거리는 중요하지 않지만 배율이 큰 경우 이미지 중심에서 먼 부분의 밝기가 감소하는 소위 ‘vignetting 효과’를 줄이기 위해서 대물렌즈와 튜브렌즈와의 거리는 대물렌즈의 초점거리와 튜브렌즈의 초점거리를 합보다 작게 하는 것이 보통이다.This infinity-corrected microscope system has the advantage of being able to sandwich various optical components, such as dichroic mirrors 218, between the objective and tube lenses of the image. Consists of. In an infinity-corrected system, the distance between the objective lens 214 and the tube lens 222 is not important, but when the magnification is large, the objective lens and the tube lens are reduced in order to reduce the so-called 'vignetting effect', which reduces the brightness of a part far from the center of the image. The distance is usually smaller than the sum of the focal length of the objective lens and the focal length of the tube lens.

도 2나 도 3에서 사용하는 (2차원) 이미지센서(224)를 사용하는 광 이미징 시스템에서는 샘플의 특정 단면만이 이미지센서(224)에 초점이 맺히고 다른 단면에서 나온 빛은 초점이 맞지 않게 된다. 그러므로, 초점이 맞는 샘플의 특정 단면상에 분포하는 형광체에서 발생된 형광빛은 이미지센서(224)의 좁은 영역에 분포하게 되어 강한 세기로 측정되고, 초점이 맞지 않는 샘플의 다른 단면상에 분포하는 형광체에서 발생한 형광 빛은 이미지센서(224) 상에서 넓은 영영에 분포하게 되어 약 하게 관측된다.In the optical imaging system using the (two-dimensional) image sensor 224 used in FIG. 2 or FIG. 3, only a specific cross section of the sample is focused on the image sensor 224, and light from another cross section is out of focus. . Therefore, the fluorescent light generated from the phosphor distributed on a specific cross section of the focused sample is distributed in a narrow area of the image sensor 224 and is measured at a high intensity, and in the phosphor distributed on another cross section of the non-focused sample. The generated fluorescent light is distributed in a wide area on the image sensor 224 and is weakly observed.

이 때, 고정된 이미지센서(224)를 사용하여 샘플을 깊이(depth; z) 방향으로 스캐닝하며 여러 장의 2차원 이미지를 시리즈로 획득하면, 각 이미지들은 샘플의 특정 단면에 해당하는 형광 빛만이 초점이 맺히고 나머지 단면에서 나온 빛은 해당 이미지의 넓은 영역에 분포하게 된다. 이러한 샘플의 깊이 방향에 대한 스캔으로 얻어지는 2차원 이미지 시리즈를 순서대로 배열하면, 비록 완전하지는 않지만, 샘플의 3차원 구조를 파악할 수 있는 샘플의 3차원 이미지를 얻을 수 있다.At this time, if the sample is scanned in the depth (z) direction by using the fixed image sensor 224 and a plurality of two-dimensional images are acquired in series, each image focuses only on fluorescent light corresponding to a specific cross section of the sample. This condensation and light from the rest of the cross section is distributed over a large area of the image. By arranging a series of two-dimensional images obtained by scanning the depth direction of such a sample in sequence, it is possible to obtain a three-dimensional image of a sample that can grasp the three-dimensional structure of the sample, although not complete.

샘플의 완벽한 3차원 형상을 얻기 위해서는 초점이 맞지 않는 샘플의 단면에서 발생되어 이미지센서의 넓은 영역에 분포하는 빛을 완벽하게 차단할 수 있어야 한다. 공초점 현미경에서는 물리적인 방법을 사용하여 샘플에서 발생하는 형광 빛을 핀홀을 통과시킴으로써 초점이 맞지 않는 단면에서 발생하는 형광 빛을 어느 정도 차단하는 효과를 얻고 있다. 하지만 본 발명에서는 물리적인 방법을 사용하지 않고 소프트웨어 상에서 간단한 이미지 프로세싱 방법을 사용하여 초점이 맞지 않는 단면에서 발생하는 형광 빛을 차단하는 방법을 제시한다.In order to obtain a perfect three-dimensional shape of the sample, it must be able to completely block the light generated from the cross-section of the out-of-focus sample and distributed over a large area of the image sensor. In confocal microscopy, a physical method is used to pass fluorescent light generated from a sample through a pinhole, thereby obtaining a certain effect of blocking fluorescent light generated from an unfocused cross section. However, the present invention proposes a method of blocking fluorescent light generated at an unfocused cross section using a simple image processing method in software without using a physical method.

초점이 맞는 단면에서 발생된 빛은 이미지센서(224) 상에 초점이 맞아서 선명하고 뚜렷한 상을 맺게 되지만, 초점이 맞지 않는 샘플의 단면에서 발생되어 이미지센서 상에 도달한 빛은 초점이 맞지 않아서 이미지센서(224) 상에 공간적으로 넓게 퍼지는 특성을 갖는다. 따라서 측정된 2차원 이미지를 공간주파수 역역에서 고주파만 통과하도록 하는, 공간적 고주파 필터 (Spatial High-pass filter)를 통과시키면 간단하게 초점이 맞지 않는 단면들에서 발생된 형광 빛의 대부분을 제거 할 수 있다. 측정된 이미지에서 공간적 저주파성분을 축소하거나 공간적 고주파성분을 증폭시키는 다양한 알고리즘을 적용하면 여러 가지 방법으로 초점이 맞지 않은 단면에서 발생된 빛을 효과적으로 제거하면, 상대적으로 샘플의 초점에 맞는 단면에서 주로 발생된 빛으로만 구성된 새로운 2차원 이미지를 얻을 수 있다. 샘플 또는 이미지센서(224)를 깊이 방향으로 이동하면서 2차원 이미지를 시리즈로 측정하면, 샘플의 다양한 깊이에서 발생된 빛의 2차원 이미지들 즉 샘플의 단층이미지들을 얻을 수 있으므로 이를 이용하면 샘플의 3차원 형상을 생성(혹은 본 명세서에서는 ‘재구성’ 또는 ‘복원’이라 표현할 수도 있다)할 수 있다.The light generated from the focused section is focused on the image sensor 224 to form a clear and distinct image, but the light generated from the unfocused cross section of the sample that reaches the image sensor is not focused and thus is not imaged. The sensor 224 has a characteristic of spreading spatially widely. Thus, passing a spatial high-pass filter, which passes only the high frequencies in the spatial frequency inverse, can easily remove most of the fluorescent light generated from unfocused sections. . By applying various algorithms to reduce spatial low frequency components or amplify spatial high frequency components in the measured image, it is possible to effectively remove the light generated from the unfocused cross-sections in various ways. You can get a new two-dimensional image composed of only the light. By moving the sample or image sensor 224 in the depth direction and measuring a two-dimensional image in series, two-dimensional images of light generated at various depths of the sample, that is, tomographic images of the sample, can be obtained. The dimensional shape may be generated (or may be referred to as 'reconstruction' or 'restore' herein).

이하, 깊이 방향의 스캐닝 이미지 획득 방법을 좀 더 구체적으로 살펴본다.Hereinafter, a method of obtaining a scanning image in a depth direction will be described in more detail.

이미지의 3차원 재구성을 위해서 샘플의 깊이 방향(z방향)으로 스캔이 필요하다. 도 2 또는 도 3을 참조하면, 이들 형광현미경 시스템들에 몇 가지 3차원 스캔 방법이 적용가능하다.Scanning in the depth direction (z direction) of the sample is necessary for three-dimensional reconstruction of the image. 2 or 3, several three-dimensional scan methods are applicable to these fluorescence microscope systems.

우선, 도 2 또는 3을 참조하면, 3차원 스캔 방법들 중에 sample stage(212)를 깊이 방향(z방향)으로 움직여서 스캔하는 방법(이하, ‘방법 A’라 명명함)이 있다. 이 경우, 샘플 스테이지(212)의 이동 거리와 측정된 3차원 이미지의 깊이 방향의 이동 거리가 일대일로 대응하므로 샘플의 3차원 이미지의 복원이 간단하다는 장점을 갖는다.First, referring to FIG. 2 or 3, one of three-dimensional scanning methods is a method of scanning by moving the sample stage 212 in a depth direction (z direction) (hereinafter, referred to as “method A”). In this case, since the moving distance of the sample stage 212 and the moving distance in the depth direction of the measured three-dimensional image correspond one-to-one, the restoration of the three-dimensional image of the sample is simple.

또한, 도 2 또는 도 3을 참조하면, 3차원 스캔방법 중에 이미지센서(224)를 z방향으로 움직여서 스캔하는 방법(이하, ‘방법 B’라 명명함)이 있다. 이 경우, 샘플 스테이지(212)의 이동 거리와 측정된 3차원 이미지의 깊이 방향의 이동 거리 가 선형적으로 대응하지 않는다는 단점을 갖는다.2 or 3, there is a method of scanning by moving the image sensor 224 in the z-direction (hereinafter, referred to as “method B”) in the three-dimensional scanning method. In this case, there is a disadvantage that the moving distance of the sample stage 212 and the moving distance in the depth direction of the measured 3D image do not linearly correspond.

또한, 도 3의 경우, 튜브렌즈(222)를 z 방향으로 움직여서 스캔하는 방법(이하, ‘방법 C’라 명명함)이 있다. 이 경우, 위의 ‘방법 B’에서 설명된 이미지센서를 스캐닝 방법과 동일한 결과를 얻을 수 있다. 이 경우 위의 경우와 동일하게 샘플 스테이지(212)의 이동 거리와 측정된 3차원 이미지의 깊이 방향의 이동 거리가 선형적으로 대응하지 않는다는 단점을 갖는다.In addition, in the case of FIG. 3, there is a method of scanning by moving the tube lens 222 in the z direction (hereinafter, referred to as “method C”). In this case, the same result as the scanning method of the image sensor described in 'Method B' can be obtained. In this case, as in the above case, the moving distance of the sample stage 212 and the moving distance in the depth direction of the measured 3D image do not linearly correspond.

또한, 도 3을 참조하면, 3차원 스캔방법 중에 대물렌즈(214)를 z방향으로 움직여서 스캔하는 방법(이하 ‘방법 D’라 명명함)이 있다. 이 때, 도 2의 경우 샘플 스테이지(212)의 이동 거리와 측정된 3차원 이미지의 깊이 방향의 이동 거리가 선형적으로 대응하지 않는다는 단점을 갖는다. 도 3의 경우 샘플 스테이지(212)의 이동 거리와 측정된 3차원 이미지의 깊이 방향의 이동 거리가 일대일로 대응하므로 샘플의 3차원 이미지의 복원이 간단하다.In addition, referring to FIG. 3, there is a method of scanning by moving the objective lens 214 in the z-direction among the three-dimensional scanning methods (hereinafter, referred to as 'method D'). In this case, in FIG. 2, the moving distance of the sample stage 212 does not linearly correspond to the moving distance in the depth direction of the measured 3D image. In the case of FIG. 3, since the moving distance of the sample stage 212 and the moving distance in the depth direction of the measured 3D image correspond one-to-one, restoration of the 3D image of the sample is simple.

또한, 도 2 또는 도 3의 경우, 이미지센서(224) 앞에 추가적인 줌렌즈(zoom lens)를 사용하고 이러한 줌렌즈의 위치를 조정함으로써 스캔하는 방법(이하, ‘방법 E’라 명명함)도 가능하다.In addition, in the case of FIG. 2 or 3, a method of scanning by using an additional zoom lens in front of the image sensor 224 and adjusting the position of the zoom lens (hereinafter, referred to as “method E”) is also possible.

일반적으로, 대물렌즈(214)에 의해서 이미지센서(224)에 맺히는 샘플의 상은 샘플보다 M배 확대된 상이 맺히게 된다. 보통 확대 배율 M이 50배에서 100배 정도의 배율을 가지므로 간단한 렌즈공식을 사용하면 샘플을 작은 거리인 δZ 만큼 움직여서 얻어지는 효과는 이미지센서를 -M2δZ 만큼 움직일 때 생기는 현상 동일한 효과를 얻는다. 따라서 M =70 인 이미징 시스템을 가정하면 샘플을 100 nm 씩 스캔해서 얻을 수 있는 이미지들을 이미지센서 또는 튜브렌즈를 스캔하는 방식인 방법(B) 또는 방법(C)를 사용할 경우 0.49 mm 씩 스캔하면서도 얻을 수 있다. 따라서 이미지센서 또는 튜브렌즈를 스캔하면 정확도가 떨어지는 스캔 방식을 사용해도 샘플의 깊이 방향의 정보를 매우 정확하게 얻을 수 있다는 장점을 갖는다.In general, an image of a sample formed on the image sensor 224 by the objective lens 214 forms an image magnified M times than the sample. Since the magnification M usually has a magnification of 50 to 100 times, using a simple lens formula, the effect obtained by moving the sample by a small distance δZ is the same as that caused by moving the image sensor by -M 2 δZ. Therefore, assuming an imaging system with M = 70, images obtained by scanning a sample every 100 nm can be obtained while scanning by 0.49 mm using Method (B) or Method (C), which is a method of scanning an image sensor or a tube lens. Can be. Therefore, scanning the image sensor or the tube lens has the advantage that the information of the depth direction of the sample can be obtained very accurately even by using the less accurate scanning method.

이하, 샘플의 복수의 2차원 영상들(물론 각각은 깊이값이 서로 다른 단층 영상들)을 처리하고 처리된 2차원 영상들을 이용하여 보다 정밀한 3차원 영상을 생성(재구성, 복원)하는 알고리즘(들)에 대해 상술한다.Hereinafter, an algorithm (s) for processing a plurality of two-dimensional images (of course, tomographic images having different depth values) and generating (reconstructing and reconstructing) a more precise three-dimensional image using the processed two-dimensional images ) Will be described in detail.

2차원 이미지센서(224)를 사용하는 광학적 형광 이미징 시스템에 있어서, 다양한 이미지 프로세싱 알고리즘을 적용하면 초점이 맞지 않는 샘플의 단면에서 발생한 형광 빛에 대한 효과를 매우 효과적으로 줄일 수 있다. 초점이 맞지 않은 단면에서 발생된 빛을 효과적으로 제거하면, 상대적으로 샘플의 초점에 맞는 단면에서 주로 발생된 형광 빛으로만 구성된, 새로운 샘플의 2차원 단층이미지를 얻을 수 있다. 이와 같은 방법으로 얻어진 새로운 2차원 단층이미지는 기존의 공초점 현미경에서 얻을 수 있는 단층 이미지와 매우 유사한 특징을 갖는다. 여기서 사용되는 알고리즘의 기본 원리는 측정된 2차원 이미지에서 공간적 저주파성분(Spatial low frequency component)을 감소시키거나 공간적 고주파성분(Spatial high frequency component)을 증가시키는 방법을 사용하여 측정된 2차원 이미지 상에서 샘플의 특정 단층면에서 발생된 형광 빛의 세기는 강화 시키고 나머지 단면에서 발생된 형광 빛은 감소시키는 것이다.In an optical fluorescence imaging system using the two-dimensional image sensor 224, the application of various image processing algorithms can very effectively reduce the effect on fluorescent light generated at the cross-section of an out of focus sample. By effectively removing the light generated from the unfocused cross section, a two-dimensional tomographic image of a new sample can be obtained, consisting only of the fluorescent light mainly generated from the relatively focused section of the sample. The new two-dimensional tomographic images obtained by this method have characteristics very similar to those obtained from conventional confocal microscopes. The basic principle of the algorithm used here is to reduce the spatial low frequency component or increase the spatial high frequency component in the measured two-dimensional image. It is to enhance the intensity of the fluorescent light generated at a specific tomography surface and to reduce the fluorescent light generated at the other cross section.

우선 샘플을 깊이방향으로 일정한 거리 ΔZ만큼 스캔하면서 시리즈로 얻은 N장의 2차원 이미지 중에서 i번째 2차원 이미지를 Ii(x,y)라고 하면 이를 이용하여 깊이 방향인 Z축에 대해 일정한 ΔZ 만큼의 거리마다 샘플링 된 3차원 이미지 I(x,y,z)를 구성할 수 있다. 이때 X 또는 Y축에 대한 샘플링 거리 ΔX 또는 ΔY는 사용된 2차원 이미지센서의 픽셀간 간격을 사용된 이미징 시스템의 배율 M으로 나눈 값으로 M = 50, 픽셀간 간격을 10마이크론으로 가정하면 ΔX = ΔY = 200 nm 가 된다. 샘플을 ΔZ만큼 깊이 방향으로 스캐닝하면서 이미지를 취득할 경우 Z축에 대한 샘플링 거리는 ΔZ와 동일하게 된다. 대물렌즈(214)나 튜브렌즈(222)나 이미지센서(224)를 일정한 간격으로 스캐닝하면서 이미지를 얻는 경우에는 이미지 간의 실제 샘플상에서의 샘플링 거리가 동일하지 않으므로 수식을 통하여 깊이 방향으로 일정한 샘플링 거리가 되도록 대물렌즈(214)나 튜브렌즈(222)나 이미지센서(224)의 스캔 거리를 비선형적으로 스캔해주어야 한다. 대물렌즈(214)나 튜브렌즈(222) 또는 이미지센서(224)를 일정한 간격으로 스캔하면서 2차원 단층 이미지 시리즈를 얻는 경우에는, 2차원 좌표상의 각 포인트들에 대하여 얻어진 이미지간의 보간 방법과 렌즈공식인 수학식 1을 사용하여 샘플상의 스캔거리가 일정한 새로운 단층 이미지 시리즈들을 계산을 통해 만들어 낼 수 있다.First, if the i-th 2D image of the N-dimensional 2D images obtained from the series is scanned as I i (x, y) while scanning the sample by a constant distance ΔZ in the depth direction, the i-th 2D image is used as a constant ΔZ in the depth direction Z-axis. A three-dimensional image I (x, y, z) sampled for each distance can be constructed. In this case, the sampling distance ΔX or ΔY of the X or Y-axis is the pixel-to-pixel spacing of the used two-dimensional image sensor divided by the magnification M of the imaging system to be used. ΔY = 200 nm. When the image is acquired while the sample is scanned in the depth direction by ΔZ, the sampling distance with respect to the Z axis is equal to ΔZ. When the image is acquired while scanning the objective lens 214, the tube lens 222, or the image sensor 224 at regular intervals, the sampling distance on the actual sample between the images is not the same. The scan distance of the objective lens 214, the tube lens 222 or the image sensor 224 should be scanned non-linearly. In the case of obtaining a two-dimensional tomographic image series by scanning the objective lens 214, the tube lens 222, or the image sensor 224 at regular intervals, the interpolation method and the lens formula between the images obtained for each point on the two-dimensional coordinates Equation 1 can be used to generate new series of tomography images with constant scan distance on the sample.

측정된 여러 장의 3차원 이미지를 공간적 주파수 대역에서 이미지 프로세싱을 하기 위해서는 원래의 이미지를 3차원 푸리에 변환할 필요가 있다. 원래의 이미지 I(x,y,z)와 이를 푸리에 변환한 함수 F(fx,fy,fz) 사이에는 서로 다음의 수학식 4, 5와 같은 푸리에변환 및 역변환의 관계를 만족한다.In order to process the measured three-dimensional image in the spatial frequency band, it is necessary to convert the original image to three-dimensional Fourier transform. Between the original image I (x, y, z) and the Fourier transform function F (f x , f y , f z ), the relationship between the Fourier transform and the inverse transform, as shown in Equations 4 and 5, is satisfied.

(푸리에 변환)Fourier Transform

Figure 112009050694805-pat00004
Figure 112009050694805-pat00004

(푸리에 역변환)Fourier Inverse

Figure 112009050694805-pat00005
Figure 112009050694805-pat00005

여기서 fx , fy 및 fz는 각각 3차원 이미지의 X, Y 및 Z축에 대응하는 공간주파수 (spatial frequency)를 나타낸다.Here, f x , f y and f z denote spatial frequencies corresponding to the X, Y and Z axes of the 3D image, respectively.

아래의 알고리즘에 나와 있는 수학식들은 측정된 3차원 이미지 I(x,y,z)와 이를 3차원 푸리에변환(Fourier Transformation)한 함수 F(fx,fy,fz)를 공간적 저주파성분(spatial low frequency component)을 감소시키거나 공간적 고주파성분(Spatial high frequency component)을 증가시키는 방법을 사용하여 변형한 뒤에 이를 바탕으로 새로운 3차원 단면 이미지 Ia(x,y,z) 또는 이에 대응하는 푸리에 변환된 새로운 함수 Fa(fx,fy,fz)를 구성하는 방법을 설명한다.The equations shown in the following algorithms are based on a spatial low frequency component (F (f x , f y , f z )) of the measured three-dimensional image I (x, y, z) and the three-dimensional Fourier transform Deform using a method to reduce the spatial low frequency component or increase the spatial high frequency component and then use the new three-dimensional cross-sectional image I a (x, y, z) or its corresponding Fourier How to construct the converted new function F a (f x , f y , f z ).

우선, 가능한 알고리즘으로서 제1 알고리즘(Ia(x,y,z)=(I(x,y,z))2)을 설명 한다.First, the first algorithm I a (x, y, z) = (I (x, y, z)) 2 will be described as a possible algorithm.

여기서, I(x,y,z)는 본 발명에서 제시한 방법으로 샘플을 스캔해서 얻은 이미지의 3차원 세기(intensity)를 나타내고 Ia(x,y,z)는 상기 제1알고리즘을 적용해서 재구성된 3차원 영상을 나타낸다. 알고리즘1에 의해서 얻어진 새로운 이미지 Ia(x,y,z)를 푸리에 변환한 함수를 Fa(fx,fy,fz)라고 명명하면, 푸리에 변환에서 많이 쓰이는 convolution theorem에 의해서 다음의 수학식 6과 같은 관계를 만족한다.Where I (x, y, z) represents the three-dimensional intensity of the image obtained by scanning the sample by the method proposed in the present invention, and I a (x, y, z) applies the first algorithm. Reconstructed three-dimensional image. The function of Fourier transforming a new image I a (x, y, z) obtained by Algorithm 1 is called F a (f x , f y , f z ), which is a convolution theorem commonly used in Fourier transforms. The relationship shown in Equation 6 is satisfied.

Figure 112009050694805-pat00006
Figure 112009050694805-pat00006

여기서

Figure 112009050694805-pat00007
는 수학적으로 convolution 연산을 나타낸다. 측정된 본래의 3차원 이미지 I(x,y,z)에 대한 푸리에 변환 함수 F(fx,fy,fz)는 보통 공간주파수 fx , fy 및 fz의 원점 부근에 피크가 있고 fx , fy 및 fz의 크기가 커짐에 따라 값이 작아지는 형태를 갖는다. 이 함수의 자체 convolution 결과로 얻어지는 새로운 함수 Fa(fx,fy,fz)는 공간주파수 fx , fy 및 fz에 대하여 본래의 함수 F(fx,fy,fz)보다 부드러운 함수가 된다. 즉, 새로운 공간주파수 함수 Fa(fx,fy,fz)는 공간주파수의 원점부근에 있는 저주파 성분 피크는 줄어들고 상대적으로 고주파성분 성분은 비율은 원래의 함수 보다 커지게 된다. 따라서, Ia(x,y,z)는 측정된 3차원 이미지 I(x,y,z)에 서 샘플의 특정 단층면에서 발생된 형광 빛의 공간적 고주파 성분의 세기는 강화 시키고 나머지 단면에서 발생된 형광 빛의 공간적 저주파성분은 감소시킨 새로운 3차원 단층이미지이다. 이러한 새로운 3차원 단층이미지 Ia(x,y,z)는 측정된 원래의 이미지보다 샘플의 3차원적인 구조를 더욱 잘 나타내 주며 이는 기존의 공초점현미경을 통해서 얻을 수 있는 샘플의 3차원 구조 형광 이미지와 매우 유사하게 된다.here
Figure 112009050694805-pat00007
Mathematically represents a convolution operation. The Fourier transform function F (f x , f y , f z ) for the measured original three-dimensional image I (x, y, z) usually has a peak near the origin of the spatial frequencies f x , f y and f z As the sizes of f x , f y, and f z increase, the value decreases. Its new function obtained by the convolution result of this function than F a (f x, f y, f z) is the spatial frequency f x, f y, and the original function F with respect to f z (f x, f y , f z) Becomes a smooth function That is, the new spatial frequency function F a (f x , f y , f z ) reduces the peaks of the low frequency components near the origin of the spatial frequency, and the ratio of the high frequency components becomes larger than the original function. Therefore, I a (x, y, z) increases the intensity of the spatial high-frequency components of the fluorescent light generated at a specific tomographic plane of the sample in the measured three-dimensional image I (x, y, z) The spatial low frequency component of fluorescent light is a new three-dimensional tomographic image reduced. This new three-dimensional tomographic image I a (x, y, z) represents the three-dimensional structure of the sample better than the original image measured, which indicates that the three-dimensional fluorescence of the sample can be obtained through conventional confocal microscopy. Very similar to the image.

이하, 제1 알고리즘 이외에 또 다른 가능한 알고리즘으로서 제2 알고리즘(Fa(fx,fy,fz)=G(fx,fy,fz)F(fx,fy,fz))을 설명한다.Hereinafter, as another possible algorithm in addition to the first algorithm, the second algorithm F a (f x , f y , f z ) = G (f x , f y , f z ) F (f x , f y , f z ) ).

여기서, G(fx,fy,fz)는 원래 이미지를 푸리에 변환하여 얻어진 주파수 성분의 함수 F(fx,fy,fz)에 저주파 성분을 감소시키거나 고주파 성분을 증폭하는 기능을 하는 일반적인 고주파 통과 필터링 함수를 나타낸다. 이 경우, 새로운 이미지인 Ia(x,y,z)는 새롭게 얻어진 Fa(fx,fy,fz)를 수학식 5를 이용하여 푸리에역변환하면 얻을 수 있다. 일반적으로 G(fx,fy,fz)는 다음의 수학식 7 내지 13과 같은 다양한 함수가 될 수 있다.Here, G (f x , f y , f z ) has a function of reducing the low frequency component or amplifying the high frequency component in the function F (f x , f y , f z ) of the frequency component obtained by Fourier transforming the original image. Represents a typical high pass filtering function. In this case, a new image I a (x, y, z) can be obtained by Fourier inverse transforming the newly obtained F a (f x , f y , f z ) using Equation 5. In general, G (f x , f y , f z ) may be various functions as shown in Equations 7 to 13.

Figure 112009050694805-pat00008
Figure 112009050694805-pat00008

Figure 112009050694805-pat00009
Figure 112009050694805-pat00009

Figure 112009050694805-pat00010
Figure 112009050694805-pat00010

Figure 112009050694805-pat00011
Figure 112009050694805-pat00011

Figure 112009050694805-pat00012
Figure 112009050694805-pat00012

Figure 112009050694805-pat00013
Figure 112009050694805-pat00013

Figure 112009050694805-pat00014
Figure 112009050694805-pat00014

여기서, α 와 a는 각각 임의의 양수 이다(α>0, a>0). X, Y, Z축에 대한 샘플링 거리를 각각 ΔX, ΔY, ΔZ라고 할 때, 소위 ‘샘플링 이론’에 의하여 각 축에 해당하는 최대 공간 주파수인 fMx, fMy, fMz 는 각각 1/(2ΔX), 1/(2ΔY), 1/(2ΔZ) 가 된다.Where α and a are each positive integers (α> 0, a> 0). When the sampling distances for the X, Y, and Z axes are ΔX, ΔY, and ΔZ, respectively, the maximum spatial frequencies f Mx , f My , and f Mz corresponding to each axis are 1 / ( 2ΔX), 1 / (2ΔY), and 1 / (2ΔZ).

원래 이미지를 푸리에 변환하여 얻어진 주파수 성분의 함수 F(fx,fy,fz)에 저주파 성분을 감소시키거나 고주파 성분을 증가시키는 필터링 함수 G(fx,fy,fz)를 곱 하여 얻은 새로운 공간주파수 함수 Fa(fx,fy,fz)는 공간주파수의 원점부근에 있는 저주파 성분 피크는 줄어들고 상대적으로 고주파성분 성분은 비율은 원래의 함수 보다 커지게 된다. 따라서 Fa(fx,fy,fz)를 푸리에 역변환하여 얻어지는 새로운 이미지 Ia(x,y,z)는 측정된 3차원 이미지 I(x,y,z)보다 샘플의 특정 단층면에서 발생된 형광 빛의 공간적 고주파 성분의 세기는 강화 시키고 나머지 단면에서 발생된 형광 빛의 공간적 저주파성분은 감소시킨 새로운 3차원 단층이미지이다. 이러한 새로운 3차원 단층이미지 Ia(x,y,z)는 측정된 원래의 이미지보다 샘플의 3차원적인 구조를 더욱 잘 나타내 주며 이는 기존의 공초점현미경을 통해서 얻을 수 있는 샘플의 3차원 구조 형광 이미지와 매우 유사하게 된다.The function F (f x , f y , f z ) of the frequency component obtained by Fourier transforming the original image by multiplying the filtering function G (f x , f y , f z ) by reducing the low frequency component or increasing the high frequency component The new spatial frequency function F a (f x , f y , f z ) obtained reduces the peaks of the low frequency components near the origin of the spatial frequency and the ratio of the high frequency components becomes larger than the original function. Thus, a new image I a (x, y, z) obtained by Fourier inverse transforming F a (f x , f y , f z ) occurs at a particular tomographic plane of the sample than the measured three-dimensional image I (x, y, z) It is a new three-dimensional tomographic image that enhances the intensity of the spatial high frequency components of the fluorescent light and decreases the spatial low frequency components of the fluorescent light generated in the remaining sections. This new three-dimensional tomographic image I a (x, y, z) represents the three-dimensional structure of the sample better than the original image measured, which indicates that the three-dimensional fluorescence of the sample can be obtained through conventional confocal microscopy. Very similar to the image.

도 4는 본 발명의 적어도 일 실시예에 따른 고속 이미징 방법을 설명하기 위한 플로우챠트이다. 도 1을 참조하여 설명하면 다음과 같다.4 is a flowchart illustrating a high speed imaging method according to at least one embodiment of the present invention. Referring to Figure 1 as follows.

촬상부(110)는 샘플을 깊이 방향으로 스캐닝하며 복수 번 촬상하여 2차원 영상들을 획득한다(제410 단계).The imaging unit 110 scans a sample in a depth direction and acquires two-dimensional images by capturing a plurality of times (operation 410).

영상 재구성부(120)는 제410 단계에서 획득된 2차원 영상들을 이용하여 그 샘플의 3차원 영상을 생성(‘재구성’ 또는 ‘복원’이라 명명가능)한다(제420 단계).The image reconstructor 120 generates a 3D image of the sample (named 'reconstruction' or 'restore') using the 2D images acquired in step 410 (step 420).

이상에서 언급된 본 발명에 의한 고속 이미징 방법을 컴퓨터에서 실행시키기 위한 프로그램은 컴퓨터로 읽을 수 있는 기록매체에 저장될 수 있다.The program for executing the high speed imaging method according to the present invention mentioned above on a computer may be stored in a computer readable recording medium.

여기서, 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬(ROM), 플로피 디스크, 하드 디스크 등), 및 광학적 판독 매체(예를 들면, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc))와 같은 저장매체를 포함한다.Here, the computer-readable recording medium may be a magnetic storage medium (for example, a ROM, a floppy disk, a hard disk, etc.), and an optical reading medium (for example, a CD-ROM, a DVD). : Digital Versatile Disc).

이제까지 본 발명을 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로, 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점들은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been described with reference to the preferred embodiments. Those skilled in the art will appreciate that the present invention can be implemented in a modified form without departing from the essential features of the present invention. Therefore, the disclosed embodiments should be considered in descriptive sense only and not for purposes of limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope will be construed as being included in the present invention.

도 1은 본 발명의 적어도 일 실시예에 따른 고속 이미징 장치를 설명하기 위한 블록도이다.1 is a block diagram illustrating a high speed imaging apparatus according to at least one embodiment of the present invention.

도 2는 본 발명의 제1 실시예에 따른 고속 이미징 장치를 표현하는 시스템의 참고도이다.2 is a reference diagram of a system representing a high speed imaging apparatus according to a first embodiment of the present invention.

도 3은 본 발명의 제2 실시예에 따른 고속 이미징 장치를 표현하는 시스템의 참고도이다.3 is a reference diagram of a system representing a high speed imaging apparatus according to a second embodiment of the present invention.

도 4는 본 발명의 적어도 일 실시예에 따른 고속 이미징 방법을 설명하기 위한 플로우챠트이다.4 is a flowchart illustrating a high speed imaging method according to at least one embodiment of the present invention.

Claims (17)

샘플을 깊이 방향으로 스캐닝하며 복수 번 촬상하여 2차원 영상들을 획득하는 촬상부; 및An imaging unit which scans a sample in a depth direction and acquires two-dimensional images by capturing a plurality of times; And 상기 2차원 영상들을 이용하여 상기 샘플의 3차원 영상을 생성하는 영상 재구성부;An image reconstruction unit generating a 3D image of the sample using the 2D images; 를 포함하고, 상기 영상 재구성부는 상기 3차원 영상을 자승하여 새로운 3차원 영상을 재구성하는 것을 특징으로 하는 고속 이미징 장치.Wherein the image reconstruction unit squares the three-dimensional image to reconstruct a new three-dimensional image. 제1 항에 있어서,The method according to claim 1, 상기 촬상부는 상기 샘플을 깊이 방향으로 움직이며 상기 샘플을 복수 번 촬영함으로써 상기 2차원 영상들을 획득하는 고속 이미징 장치.And the imaging unit acquires the two-dimensional images by moving the sample in a depth direction and photographing the sample a plurality of times. 제1 항에 있어서,The method according to claim 1, 상기 촬상부는 상기 촬상부 내의 촬상 소자를 깊이 방향으로 움직이며 상기 샘플을 복수 번 촬영하여 상기 2차원 영상들을 획득하는 고속 이미징 장치.And the imaging unit moves the imaging device in the imaging unit in a depth direction to acquire the two-dimensional images by photographing the sample a plurality of times. 제1 항에 있어서,The method according to claim 1, 상기 촬상부는 상기 촬상부 내의 튜브 렌즈를 깊이 방향으로 움직이며 상기 샘플을 복수 번 촬영하여 상기 2차원 영상들을 획득하는 고속 이미징 장치.And the imaging unit moves the tube lens in the imaging unit in a depth direction and acquires the two-dimensional images by photographing the sample a plurality of times. 제1 항에 있어서,The method according to claim 1, 상기 촬상부는 상기 촬상부 내의 대물 렌즈를 깊이 방향으로 움직이며 상기 샘플을 복수 번 촬영하여 상기 2차원 영상들을 획득하는 고속 이미징 장치.And the imaging unit moves the objective lens in the imaging unit in a depth direction and acquires the two-dimensional images by photographing the sample a plurality of times. 삭제delete 삭제delete 샘플을 깊이 방향으로 스캐닝하며 복수 번 촬상하여 2차원 영상들을 획득하는 촬상부; 및An imaging unit which scans a sample in a depth direction and acquires two-dimensional images by capturing a plurality of times; And 상기 2차원 영상들을 이용하여 상기 샘플의 3차원 영상을 생성하는 영상 재구성부;An image reconstruction unit generating a 3D image of the sample using the 2D images; 를 포함하고, 상기 영상 재구성부는 상기 3차원 영상을 푸리에 변환하여 얻어진 주파수 성분의 함수에 저주파 성분을 감소시키거나 고주파 성분을 증가시키는 필터링 함수를 곱하여 공간주파수 함수를 구하고, 구한 상기 공간 주파수 함수를 역푸리에 변환하여 새로운 3차원 영상을 재구성하는 것을 특징으로 하는 고속 이미징 장치.Wherein the image reconstruction unit obtains a spatial frequency function by multiplying a function of a frequency component obtained by Fourier transforming the 3D image by a filtering function that reduces a low frequency component or increases a high frequency component, and inverses the obtained spatial frequency function. A high speed imaging device comprising Fourier transform to reconstruct a new three-dimensional image. (a) 샘플을 깊이 방향으로 스캐닝하며 복수 번 촬상하여 2차원 영상들을 획득하는 단계; 및(a) scanning a sample in a depth direction and capturing a plurality of times to obtain two-dimensional images; And (b) 상기 2차원 영상들을 이용하여 상기 샘플의 3차원 영상을 생성하는 단계;(b) generating a 3D image of the sample using the 2D images; 를 포함하고, 상기 (b) 단계는 상기 3차원 영상을 자승하여 새로운 3차원 영상을 재구성하는 것을 특징으로 하는 고속 이미징 방법.Wherein, step (b) is a high-speed imaging method, characterized in that the square of the three-dimensional image to reconstruct a new three-dimensional image. 제9 항에 있어서,The method of claim 9, 상기 (a) 단계는 상기 샘플을 깊이 방향으로 움직이며 상기 샘플을 복수 번 촬영함으로써 상기 2차원 영상들을 획득하는 고속 이미징 방법.In the step (a), the 2D images are acquired by moving the sample in the depth direction and capturing the sample a plurality of times. 제9 항에 있어서,The method of claim 9, 상기 (a) 단계는 촬상부 내의 촬상 소자를 깊이 방향으로 움직이며 상기 샘플을 복수 번 촬영하여 상기 2차원 영상들을 획득하는 고속 이미징 방법.In the step (a), moving the image pickup device in the image pickup unit in the depth direction to obtain the two-dimensional images by taking the sample a plurality of times. 제9 항에 있어서,The method of claim 9, 상기 (a) 단계는 촬상부 내의 튜브 렌즈를 깊이 방향으로 움직이며 상기 샘플을 복수 번 촬영하여 상기 2차원 영상들을 획득하는 고속 이미징 방법.The step (a) is a high-speed imaging method of acquiring the two-dimensional images by moving the tube lens in the imaging unit in the depth direction and taking the sample a plurality of times. 제9 항에 있어서,The method of claim 9, 상기 (a) 단계는 촬상부 내의 대물 렌즈를 깊이 방향으로 움직이며 상기 샘플을 복수 번 촬영하여 상기 2차원 영상들을 획득하는 고속 이미징 방법.The step (a) is a high-speed imaging method of obtaining the two-dimensional images by moving the objective lens in the image pickup unit in the depth direction to take the sample a plurality of times. 삭제delete 삭제delete (a) 샘플을 깊이 방향으로 스캐닝하며 복수 번 촬상하여 2차원 영상들을 획득하는 단계; 및(a) scanning a sample in a depth direction and capturing a plurality of times to obtain two-dimensional images; And (b) 상기 2차원 영상들을 이용하여 상기 샘플의 3차원 영상을 생성하는 단계;(b) generating a 3D image of the sample using the 2D images; 를 포함하고, 상기 (b) 단계는 상기 3차원 영상을 푸리에 변환하여 얻어진 주파수 성분의 함수에 저주파 성분을 감소시키거나 고주파 성분을 증가시키는 필터링 함수를 곱하여 공간주파수 함수를 구하고, 구한 상기 공간 주파수 함수를 역푸리에 변환하여 새로운 3차원 영상을 재구성하는 것을 특징으로 하는 고속 이미징 방법.Wherein the step (b) includes obtaining a spatial frequency function by multiplying a function of frequency components obtained by Fourier transforming the three-dimensional image by a filtering function for reducing low frequency components or increasing high frequency components, and obtaining the spatial frequency functions. The high-speed imaging method of claim 4, wherein the inverse Fourier transform is used to reconstruct a new three-dimensional image. 제9 항 내지 제13 항, 제16 항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 컴퓨터 프로그램을 저장한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium storing a computer program for executing the method of any one of claims 9 to 13 and 16 on a computer.
KR1020090076745A 2009-08-19 2009-08-19 Apparatus and method for fast imaging using image sensor KR101088117B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090076745A KR101088117B1 (en) 2009-08-19 2009-08-19 Apparatus and method for fast imaging using image sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090076745A KR101088117B1 (en) 2009-08-19 2009-08-19 Apparatus and method for fast imaging using image sensor

Publications (2)

Publication Number Publication Date
KR20110019149A KR20110019149A (en) 2011-02-25
KR101088117B1 true KR101088117B1 (en) 2011-12-02

Family

ID=43776560

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090076745A KR101088117B1 (en) 2009-08-19 2009-08-19 Apparatus and method for fast imaging using image sensor

Country Status (1)

Country Link
KR (1) KR101088117B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102070433B1 (en) * 2013-11-08 2020-01-28 삼성전자주식회사 Apparatus and method for generating tomography image
WO2024101696A1 (en) * 2022-11-08 2024-05-16 울산과학기술원 Three-dimensional imaging system and method based on non-linear microscope using continuous wave laser

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100871270B1 (en) * 2007-01-22 2008-11-28 광주과학기술원 Method of Generating Image Information of Sample Using Optical Interferometer And Apparatus Using The Same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100871270B1 (en) * 2007-01-22 2008-11-28 광주과학기술원 Method of Generating Image Information of Sample Using Optical Interferometer And Apparatus Using The Same

Also Published As

Publication number Publication date
KR20110019149A (en) 2011-02-25

Similar Documents

Publication Publication Date Title
JP6934856B2 (en) Optical sheet microscope that simultaneously images multiple target surfaces
WO2019232875A1 (en) Spatial and temporal focusing-based wide field of view chromatography hyperspectral microscopic imaging method and device
WO2022028291A1 (en) Structured-light-scanning super-resolution microscopic imaging device and method
AU2018352821B2 (en) Image reconstruction method, device and microscopic imaging device
JP7190843B2 (en) High-resolution 2D microscopy with improved cross-sectional thickness
JP2013531816A (en) Amplified microscopy with continuous time encoding of differential interference contrast
US10776955B2 (en) Method for the analysis of spatial and temporal information of samples by means of optical microscopy
TWI554740B (en) Optical system for fast three-dimensional imaging
KR101088117B1 (en) Apparatus and method for fast imaging using image sensor
CN107850766B (en) System and method for image processing in an optical microscope
Hsiao et al. Telecentric design for digital‐scanning‐based HiLo optical sectioning endomicroscopy with an electrically tunable lens
US20210132350A1 (en) Method and apparatus for extending depth of field during fluorescence microscopy imaging
KR20120121022A (en) Method for Improving Image Resolution of Full-Field Optical Coherence Tomography System
US11256078B2 (en) Continuous scanning for localization microscopy
Burns et al. Scanning slit aperture confocal microscopy for three‐dimensional imaging
KR101064672B1 (en) Confocal laser scanning microscopy applying two direction line scanning way and image processing method using thereof
CN117631249B (en) Line scanning confocal scanning light field microscopic imaging device and method
TW202416005A (en) Mesoscale nonlinear optical gigascope system with real-time gigapixel mosaic-stitching and digital display
Zhang et al. Enhance imaging depth in wide-field two-photon microscopy by extended detection and computational reconstruction
Geng et al. Blind optical sectioning and super-resolution imaging in multifocal structured illumination microscopy
Zhang et al. Overcoming tissue scattering in wide-field deep imaging by extended detection and computational reconstruction
CN117930486A (en) Mesoscopic nonlinear optical billion pixel microscopic system
Koschan et al. Improving 3D Reconstruction from STEM Data
CN117607049A (en) Spatial spectrum estimation two-photon super-resolution microscopic device and method
Chakraborty Comparison of Line Spread Obtained in a Confocal Microscopic Setup with a Conventional Video Microscope

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20141001

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20151002

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20161004

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee