KR102060880B1 - Endomicroscopy using single lens camera and operating method thereof - Google Patents
Endomicroscopy using single lens camera and operating method thereof Download PDFInfo
- Publication number
- KR102060880B1 KR102060880B1 KR1020180025797A KR20180025797A KR102060880B1 KR 102060880 B1 KR102060880 B1 KR 102060880B1 KR 1020180025797 A KR1020180025797 A KR 1020180025797A KR 20180025797 A KR20180025797 A KR 20180025797A KR 102060880 B1 KR102060880 B1 KR 102060880B1
- Authority
- KR
- South Korea
- Prior art keywords
- pixel
- image
- endoscope
- endoscope microscope
- microscope
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/042—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by a proximal camera, e.g. a CCD camera
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biomedical Technology (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Biophysics (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Endoscopes (AREA)
Abstract
단일 광학계 및 이미지 센서로 구성되는 카메라 시스템이 장착된 단안 카메라를 이용한 내시현미경 및 그 동작 방법이 개시된다. 일 실시예에 따른 단안 카메라를 이용한 내시현미경은, 상기 내시현미경의 선단부에 위치한 채, 단일 광학계 및 이미지 센서-상기 이미지 센서는 복수의 파장들을 갖는 광선을 파장 별로 처리하는 복수의 픽셀들로 구성되는 픽셀 세트를 적어도 한 개 이상 포함함-로 구성되는 카메라 시스템; 및 상기 이미지 센서에서 획득된 적어도 두 개의 이미지들을 이용하여 상기 내시현미경 및 상기 내시현미경의 주변에 위치하는 오브젝트 사이의 거리를 산출하는 적어도 하나의 프로세서를 포함한다.An endoscope microscope using a monocular camera equipped with a camera system composed of a single optical system and an image sensor and a method of operating the same are disclosed. An endoscope microscope using a monocular camera according to an embodiment is located in the distal end of the endoscope microscope, a single optical system and an image sensor-the image sensor is composed of a plurality of pixels for processing a light beam having a plurality of wavelengths for each wavelength A camera system comprising at least one pixel set; And at least one processor configured to calculate a distance between the endoscope microscope and an object located around the endoscope microscope using at least two images acquired by the image sensor.
Description
아래의 설명은 장기나 체강 내부를 직접 관찰할 수 있는 내시현미경에 관한 것으로, 보다 상세하게는 단안 카메라를 이용한 내시현미경 및 그 동작 방법에 대한 기술이다.The following description relates to an endoscope that can directly observe the inside of the organ or body cavity, and more specifically, an endoscope microscope using a monocular camera and a technique for operating the same.
내시현미경은 수술을 하거나 절개를 하지 않고서는 직접 병변을 볼 수 없는 신체의 내부에 삽입되어 장기나 체강 내부를 직접 볼 수 있게 만든 의료 기기이다. 이러한 내시현미경은 이미지 처리 기술의 발전에 따라 내시현미경에 장착된 카메라 시스템으로 체강 내의 각 부위를 촬영한 후, 촬영된 이미지를 통해 각 부위의 병변을 자세하게 관찰할 수 있게 되었다. 이러한 내시현미경에 대한 기술은 공개특허공보 제10-2014-0116341호에 개시되어 있다.An endoscopic microscope is a medical device that is inserted into the body where the lesion cannot be seen directly without surgery or incision. In accordance with the development of image processing technology, the endoscope microscope photographs each part of the body cavity with a camera system mounted on the endoscope microscope, and then the lesions of each part can be observed in detail through the captured image. A technique for such an endoscope is disclosed in Korean Patent Laid-Open Publication No. 10-2014-0116341.
그러나 기존의 내시현미경은 2차원 이미지만을 제공하기 때문에, 색상이 주변 조직과 유사하나 높이가 다른 병변의 경우 2차원 이미지만으로 정확히 검출하기 어려운 문제점이 있다.However, because the conventional endoscope only provides a two-dimensional image, the lesion is difficult to accurately detect only the two-dimensional image in the color similar to the surrounding tissue, but the height is different.
이에, 내시현미경에서 이미지에 깊이(Depth)가 적용된 3차원 이미지를 촬영할 수 있는 기술이 요구되고 있는 실정이다.Accordingly, there is a demand for a technology capable of capturing a 3D image having a depth applied to the image in an endoscope microscope.
일 실시예들은 깊이가 적용된 3차원 이미지를 획득할 수 있는 내시현미경 및 그 동작 방법을 제안한다.One embodiment proposes an endoscope microscope capable of obtaining a three-dimensional image to which the depth is applied, and a method of operating the same.
특히, 일 실시예들은 내시현미경에 포함되는 카메라 시스템이 단일 광학계 및 이미지 센서를 포함하는 구조를 갖도록 함으로써, 카메라 시스템의 단면적을 최소화하여 소형화를 도모하는 동시에, 이미지 센서에서 획득한 두 개의 이미지들을 이용하여 내시현미경 및 내시현미경의 주변에 위치하는 오브젝트 사이의 거리(깊이)를 산출하는 기술을 제안한다.In particular, one embodiment uses the two images obtained from the image sensor while minimizing the cross-sectional area of the camera system by minimizing the cross-sectional area of the camera system by having a structure including a single optical system and an image sensor included in the endoscope microscope A technique for calculating the distance (depth) between an endoscope microscope and an object located around the endoscope microscope is proposed.
일 실시예에 따르면, 단안 카메라를 이용한 내시현미경은, 상기 내시현미경의 선단부에 위치한 채, 단일 광학계 및 이미지 센서-상기 이미지 센서는 복수의 파장들을 갖는 광선을 파장 별로 처리하는 복수의 픽셀들로 구성되는 픽셀 세트를 적어도 한 개 이상 포함함-로 구성되는 카메라 시스템; 및 상기 이미지 센서에서 획득된 적어도 두 개의 이미지들을 이용하여 상기 내시현미경 및 상기 내시현미경의 주변에 위치하는 오브젝트 사이의 거리를 산출하는 적어도 하나의 프로세서를 포함한다.According to one embodiment, the endoscope microscope using a monocular camera, a single optical system and an image sensor, the image sensor is composed of a plurality of pixels for processing a light beam having a plurality of wavelengths for each wavelength while being located at the tip of the endoscope microscope A camera system comprising at least one set of pixels; And at least one processor configured to calculate a distance between the endoscope microscope and an object located around the endoscope microscope using at least two images acquired by the image sensor.
일 측면에 따르면, 상기 이미지 센서의 상기 픽셀 세트 내에 포함되는 복수의 픽셀들 중 어느 하나의 픽셀의 상부에는, 상기 어느 하나의 픽셀의 중심과 어긋난 중심 위치를 갖는 OPA(Offset Pixel Aperture)가 형성된 오프셋 마스크가 배치되고, 상기 적어도 하나의 프로세서는, 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 획득된 이미지 및 상기 복수의 픽셀들 중 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 제외한 나머지 어느 하나의 픽셀을 통해 획득된 이미지 사이의 시차(Disparity)를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출할 수 있다.According to an aspect of the present invention, an offset formed with an Offset Pixel Aperture (OPA) having a center position deviating from the center of the one pixel, on one of the plurality of pixels included in the pixel set of the image sensor. A mask is disposed, and the at least one processor excludes an image obtained through any one pixel on which the offset mask is disposed and any one pixel on which the offset mask is disposed among the plurality of pixels. The distance between the endoscope microscope and the object may be calculated by using a disparity between the images acquired through the other one pixel.
다른 측면에 따르면, 상기 오프셋 마스크에 형성된 OPA는, 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀의 중심을 기준으로 수평, 수직 또는 대각 중 어느 하나의 방향으로 오프셋되는 중심 위치를 가질 수 있다.According to another aspect, the OPA formed in the offset mask may have a center position that is offset in any one direction horizontally, vertically or diagonally with respect to the center of one pixel on which the offset mask is disposed.
또 다른 측면에 따르면, 상기 오프셋 마스크는, 상기 복수의 픽셀들 중 최대 광 투과(Maximum light transmission) 특성을 갖는 어느 하나의 픽셀의 상부에 배치될 수 있다.According to another aspect, the offset mask may be disposed on top of any one of the pixels having the maximum light transmission characteristics of the plurality of pixels.
또 다른 측면에 따르면, 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀은, 상기 복수의 픽셀들 중 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 제외한 나머지 어느 하나의 픽셀에서 처리하는 광선의 파장과 구별되는 다른 파장의 광선을 처리할 수 있다.According to another aspect of the present invention, any one pixel on which the offset mask is disposed may include a beam of light processed by any one pixel except for any one pixel among the plurality of pixels, on which the offset mask is disposed. It is possible to process light rays of different wavelengths that are distinct from the wavelength.
또 다른 측면에 따르면, 상기 이미지 센서에 상기 픽셀 세트가 복수 개 포함되는 경우, 상기 복수의 픽셀 세트들 중 어느 하나의 픽셀 세트에서 어느 하나의 픽셀의 상부에 배치되는 오프셋 마스크의 OPA는, 상기 복수의 픽셀 세트들 중 상기 어느 하나의 픽셀 세트를 제외한 나머지 어느 하나의 픽셀 세트에서 어느 하나의 픽셀의 상부에 배치되는 오프셋 마스크의 OPA의 중심과 어긋난 중심 위치를 가질 수 있다.According to another aspect, when the image sensor includes a plurality of pixel sets, an OPA of an offset mask disposed on an upper part of one pixel in any one of the plurality of pixel sets may include the plurality of pixel sets. The pixel set may have a center position that is offset from the center of the OPA of the offset mask disposed above any one pixel in any one of the pixel sets except for the one pixel set.
또 다른 측면에 따르면, 상기 적어도 하나의 프로세서는, 상기 어느 하나의 픽셀 세트에서 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 획득된 이미지 및 상기 나머지 어느 하나의 픽셀 세트에서 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 획득된 이미지 사이의 시차를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출할 수 있다.According to another aspect, the at least one processor further comprises: an image obtained through any one pixel in which the offset mask is disposed in the one pixel set and the offset mask in the other one pixel set; The distance between the endoscope microscope and the object may be calculated by using a parallax between images acquired through one pixel disposed above.
또 다른 측면에 따르면, 상기 OPA는, 원, 타원, 삼각, 사각 또는 다각 중 어느 하나의 형태를 갖도록 상기 오프셋 마스크 상에 형성될 수 있다.According to another aspect, the OPA may be formed on the offset mask to have any one of a circle, an ellipse, a triangle, a square, or a polygon.
또 다른 측면에 따르면, 상기 이미지 센서의 상기 픽셀 세트 내에 포함되는 복수의 픽셀들 중 어느 하나의 픽셀의 상부에는, 광선의 다발 중 주변부의 광선을 차단하고 중심부의 광선만을 상기 어느 하나의 픽셀에 유입시키도록 마스크-상기 마스크에는 상기 어느 하나의 픽셀과 일치하는 중심 위치를 갖는 PA(Pixel Aperture)가 형성됨-가 배치되고, 상기 적어도 하나의 프로세서는, 상기 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 획득된 이미지 및 상기 복수의 픽셀들 중 상기 마스크가 상부에 배치되는 어느 하나의 픽셀을 제외한 나머지 어느 하나의 픽셀을 통해 획득된 이미지 사이의 블러(Blur) 변화를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출할 수 있다.According to another aspect, an upper portion of any one of the plurality of pixels included in the pixel set of the image sensor blocks a light ray at a periphery of the bundle of light rays and injects only a central light ray into the one pixel. And a mask (Pixel Aperture) having a center position coincident with any one of the pixels is disposed in the mask, and the at least one processor is configured to select one pixel on which the mask is disposed. The endoscopic microscope and the object using a blur change between an image obtained through the image and an image obtained through any one of the pixels except for any one of the pixels on which the mask is disposed. The distance between them can be calculated.
또 다른 측면에 따르면, 상기 단일 광학계에는, 서로 다른 파장의 광선을 각각 유입시키는 복수의 애퍼처들-상기 복수의 애퍼처들은 서로 일치하는 중심 위치를 가짐-이 형성되고, 상기 적어도 하나의 프로세서는, 상기 복수의 애퍼처들 중 어느 하나의 애퍼처를 통해 유입된 파장의 광선을 처리하여 획득되는 이미지 및 상기 복수의 애퍼처들 중 상기 어느 하나의 애퍼처를 제외한 나머지 어느 하나의 애퍼처를 통해 유입된 파장의 광선을 처리하여 획득되는 이미지 사이의 블러 변화를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출할 수 있다.According to another aspect, the single optical system is formed with a plurality of apertures, each of which introduces light rays of different wavelengths, the plurality of apertures having a central position coinciding with each other, wherein the at least one processor is An image obtained by processing a light ray having a wavelength introduced through any one of the plurality of apertures, and any one of the plurality of apertures except the one of the plurality of apertures. The distance between the endoscope microscope and the object may be calculated by using a blurring change between images obtained by processing a light beam having an incoming wavelength.
또 다른 측면에 따르면, 상기 단일 광학계에는, 서로 다른 파장의 광선을 각각 유입시키는 복수의 애퍼처들-상기 복수의 애퍼처들은 서로 어긋난 중심 위치를 가짐-이 형성되고, 상기 적어도 하나의 프로세서는, 상기 복수의 애퍼처들 중 어느 하나의 애퍼처를 통해 유입된 파장의 광선을 처리하여 획득되는 이미지 및 상기 복수의 애퍼처들 중 상기 어느 하나의 애퍼처를 제외한 나머지 어느 하나의 애퍼처를 통해 유입된 파장의 광선을 처리하여 획득되는 이미지 사이의 시차를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출할 수 있다.According to another aspect, the single optical system is formed with a plurality of apertures, each of which injects light rays of different wavelengths, the plurality of apertures having a center position deviated from each other, the at least one processor, An image obtained by processing a light ray having a wavelength introduced through one of the plurality of apertures and an inflow through any one of the plurality of apertures except the one of the plurality of apertures The distance between the endoscope microscope and the object may be calculated using the parallax between the images obtained by processing light rays having a predetermined wavelength.
또 다른 측면에 따르면, 상기 이미지 센서의 상기 픽셀 세트 내에 포함되는 복수의 픽셀들 중 어느 하나의 픽셀은, 광선의 다발 중 중심부의 광선이 입사되는 중심 서브 픽셀 및 상기 광선의 다발 중 주변부의 광선이 입사되는 적어도 하나의 주변 서브 픽셀을 포함하고, 상기 적어도 하나의 프로세서는, 상기 중심 서브 픽셀을 통해 획득된 이미지 및 상기 적어도 하나의 주변 서브 픽셀을 통해 획득된 신호가 병합되어 생성되는 이미지 사이의 블러 변화를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출할 수 있다.According to another aspect, any one of a plurality of pixels included in the pixel set of the image sensor may include a center sub-pixel to which a light ray at a center of the bundle of rays is incident and a light ray at a periphery of the bundle of rays. And at least one peripheral sub-pixel incident, wherein the at least one processor is configured to blur between an image obtained through the center sub-pixel and an image obtained by merging a signal obtained through the at least one peripheral sub-pixel. The change may be used to calculate the distance between the endoscope microscope and the object.
또 다른 측면에 따르면, 상기 적어도 하나의 프로세서는, 상기 적어도 하나의 주변 서브 픽셀이 복수 개 구비되는 경우, 상기 복수의 주변 서브 픽셀들을 통해 각각 획득된 이미지들 사이의 시차를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출할 수 있다.According to another aspect, the at least one processor, when the at least one peripheral sub-pixel is provided with, the endoscope microscope and by using the parallax between the images respectively obtained through the plurality of peripheral sub-pixels The distance between the objects can be calculated.
또 다른 측면에 따르면, 상기 적어도 하나의 프로세서는, 상기 내시현미경 및 상기 오브젝트 사이의 거리에 기초하여 상기 내시현미경과 상기 오브젝트의 충돌을 회피하기 위한 동작을 수행할 수 있다.According to another aspect, the at least one processor may perform an operation for avoiding collision between the endoscope microscope and the object based on a distance between the endoscope microscope and the object.
또 다른 측면에 따르면, 상기 카메라 시스템은, 상기 내시현미경에서 자유롭게 굴곡 또는 만곡 가능한 만곡부의 선단에 위치할 수 있다.According to another aspect, the camera system may be located at the tip of the curved portion that can be bent or curved freely in the endoscope microscope.
일 실시예에 따르면, 단안 카메라를 이용한 내시현미경의 동작 방법은, 상기 내시현미경의 선단부에 위치한 카메라 시스템을 단일 광학계와 함께 구성하는 이미지 센서-상기 이미지 센서는 복수의 파장들을 갖는 광선을 파장 별로 처리하는 복수의 픽셀들로 구성되는 픽셀 세트를 적어도 한 개 이상 포함함-에서, 상기 내시현미경의 주변에 위치하는 오브젝트를 촬영한 두 개의 이미지들을 획득하는 단계; 및 적어도 하나의 프로세서에서, 상기 두 개의 이미지들을 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계를 포함한다,According to an embodiment, the method of operating an endoscope microscope using a monocular camera may include an image sensor constituting a camera system located at the distal end of the endoscope microscope together with a single optical system, wherein the image sensor processes light rays having a plurality of wavelengths for each wavelength. At least one pixel set consisting of a plurality of pixels, the method comprising: obtaining two images of an object located around the endoscope microscope; And calculating, at at least one processor, the distance between the endoscope microscope and the object using the two images,
일 측면에 따르면, 상기 이미지 센서의 상기 픽셀 세트 내에 포함되는 복수의 픽셀들 중 어느 하나의 픽셀의 상부에는, 상기 어느 하나의 픽셀의 중심과 어긋난 중심 위치를 갖는 OPA(Offset Pixel Aperture)가 형성된 오프셋 마스크가 배치되고, 상기 두 개의 이미지들을 획득하는 단계는, 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 제1 이미지를 획득하는 단계; 및 상기 복수의 픽셀들 중 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 제외한 나머지 어느 하나의 픽셀을 통해 제2 이미지를 획득하는 단계를 포함하며, 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계는, 상기 제1 이미지 및 상기 제2 이미지 사이의 시차(Disparity)를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계를 포함할 수 있다.According to an aspect of the present invention, an offset formed with an Offset Pixel Aperture (OPA) having a center position deviating from the center of the one pixel, on one of the plurality of pixels included in the pixel set of the image sensor. A mask is disposed, and the obtaining of the two images comprises: obtaining a first image through any pixel on which the offset mask is disposed; And acquiring a second image through any one of the pixels except for any one of the plurality of pixels in which the offset mask is disposed, and calculating a distance between the endoscope microscope and the object. The calculating may include calculating a distance between the endoscope microscope and the object by using a disparity between the first image and the second image.
다른 측면에 따르면, 상기 이미지 센서에 상기 픽셀 세트가 복수 개 포함되는 경우, 상기 복수의 픽셀 세트들 중 어느 하나의 픽셀 세트에서 어느 하나의 픽셀의 상부에 배치되는 오프셋 마스크의 OPA는, 상기 복수의 픽셀 세트들 중 상기 어느 하나의 픽셀 세트를 제외한 나머지 어느 하나의 픽셀 세트에서 어느 하나의 픽셀의 상부에 배치되는 오프셋 마스크의 OPA의 중심과 어긋난 중심 위치를 갖고, 상기 두 개의 이미지들을 획득하는 단계는, 상기 어느 하나의 픽셀 세트에서 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 제1 이미지를 획득하는 단계; 및 상기 나머지 어느 하나의 픽셀 세트에서 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 제2 이미지를 획득하는 단계를 포함하고, 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계는, 상기 제1 이미지 및 상기 제2 이미지 사이의 시차를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계를 포함할 수 있다.According to another aspect, when the image sensor includes a plurality of pixel sets, an OPA of an offset mask disposed above any one pixel in any one of the plurality of pixel sets includes: Obtaining the two images has a center position deviating from the center of the OPA of the offset mask disposed on top of any one pixel in any one of the pixel sets other than the one of the pixel sets. Acquiring a first image through any one pixel in which the offset mask is disposed above the one pixel set; And acquiring a second image through one pixel in which the offset mask is disposed in the other one pixel set, and calculating the distance between the endoscope microscope and the object comprises: Computing the distance between the endoscope microscope and the object using the parallax between the first image and the second image.
또 다른 측면에 따르면, 상기 이미지 센서의 상기 픽셀 세트 내에 포함되는 복수의 픽셀들 중 어느 하나의 픽셀의 상부에는, 광선의 다발 중 주변부의 광선을 차단하고 중심부의 광선만을 상기 어느 하나의 픽셀에 유입시키도록 마스크-상기 마스크에는 상기 어느 하나의 픽셀과 일치하는 중심 위치를 갖는 PA(Pixel Aperture)가 형성됨-가 배치되고, 상기 두 개의 이미지들을 획득하는 단계는, 상기 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 제1 이미지를 획득하는 단계; 및 상기 복수의 픽셀들 중 상기 마스크가 상부에 배치되는 어느 하나의 픽셀을 제외한 나머지 어느 하나의 픽셀을 통해 제2 이미지를 획득하는 단계를 포함하며, 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계는, 상기 제1 이미지 및 상기 제2 이미지 사이의 블러 변화를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계를 포함할 수 있다.According to another aspect, an upper portion of any one of the plurality of pixels included in the pixel set of the image sensor blocks a light ray at a periphery of the bundle of light rays and injects only a central light ray into the one pixel. A mask (Pixel Aperture) having a center position coincident with any one of the pixels is disposed thereon, and obtaining the two images comprises: a mask having the mask disposed thereon. Acquiring a first image through a pixel of; And acquiring a second image through any one of the plurality of pixels except for any one of the pixels on which the mask is disposed, and calculating a distance between the endoscope microscope and the object. The method may include calculating a distance between the endoscope microscope and the object by using a blur change between the first image and the second image.
또 다른 측면에 따르면, 상기 단일 광학계에는, 서로 다른 파장의 광선을 각각 유입시키는 복수의 애퍼처들-상기 복수의 애퍼처들은 서로 일치하는 중심 위치를 가짐-이 형성되고, 상기 두 개의 이미지들을 획득하는 단계는, 상기 복수의 애퍼처들 중 어느 하나의 애퍼처를 통과하는 파장의 광선에 기초하여 제1 이미지를 획득하는 단계; 및 상기 복수의 애퍼처들 중 상기 어느 하나의 애퍼처를 제외한 나머지 어느 하나의 애퍼처를 통과하는 파장의 광선에 기초하여 제2 이미지를 획득하는 단계를 포함하며, 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계는, 상기 제1 이미지 및 상기 제2 이미지 사이의 블러 변화를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계를 포함할 수 있다.According to another aspect, the single optical system is formed with a plurality of apertures, each of which injects light rays of different wavelengths, the plurality of apertures having a central position coinciding with each other, and obtaining the two images. The method may include obtaining a first image based on a light ray having a wavelength passing through an aperture of any one of the plurality of apertures; And acquiring a second image based on a light ray having a wavelength passing through any one of the plurality of apertures except the one of the plurality of apertures, wherein the second image is between the endoscope microscope and the object. The calculating of the distance may include calculating a distance between the endoscope microscope and the object by using a blur change between the first image and the second image.
또 다른 측면에 따르면, 상기 단일 광학계에는, 서로 다른 파장의 광선을 각각 유입시키는 복수의 애퍼처들-상기 복수의 애퍼처들은 서로 어긋난 중심 위치를 가짐-이 형성되고, 상기 두 개의 이미지들을 획득하는 단계는, 상기 복수의 애퍼처들 중 어느 하나의 애퍼처를 통과하는 파장의 광선에 기초하여 제1 이미지를 획득하는 단계; 및 상기 복수의 애퍼처들 중 상기 어느 하나의 애퍼처를 제외한 나머지 어느 하나의 애퍼처를 통과하는 파장의 광선에 기초하여 제2 이미지를 획득하는 단계를 포함하며, 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계는, 상기 제1 이미지 및 상기 제2 이미지 사이의 시차를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계를 포함할 수 있다.According to another aspect, the single optical system is formed with a plurality of apertures, each of which injects light rays of different wavelengths, the plurality of apertures having a displaced center position, and acquires the two images. The method may include obtaining a first image based on a light ray having a wavelength passing through an aperture of any one of the plurality of apertures; And acquiring a second image based on a light ray having a wavelength passing through any one of the plurality of apertures except the one of the plurality of apertures, wherein the second image is between the endoscope microscope and the object. The calculating of the distance may include calculating a distance between the endoscope microscope and the object by using a parallax between the first image and the second image.
또 다른 측면에 따르면, 상기 이미지 센서의 상기 픽셀 세트 내에 포함되는 복수의 픽셀들 중 어느 하나의 픽셀은, 광선의 다발 중 중심부의 광선이 입사되는 중심 서브 픽셀 및 상기 광선의 다발 중 주변부의 광선이 입사되는 적어도 하나의 주변 서브 픽셀을 포함하고, 상기 두 개의 이미지들을 획득하는 단계는, 상기 중심 서브 픽셀을 통해 제1 이미지를 획득하는 단계; 및 상기 적어도 하나의 주변 서브 픽셀을 통해 획득된 신호를 병합하여 제2 이미지를 생성하는 단계를 포함하며, 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계는, 상기 제1 이미지 및 상기 제2 이미지 사이의 블러 변화를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계를 포함할 수 있다.According to another aspect, any one of a plurality of pixels included in the pixel set of the image sensor may include a center sub-pixel to which a light ray at a center of the bundle of rays is incident and a light ray at a periphery of the bundle of rays. Comprising at least one peripheral sub-pixel incident, wherein acquiring the two images comprises: acquiring a first image through the central sub-pixel; And generating a second image by merging the signals acquired through the at least one peripheral subpixel, wherein calculating the distance between the endoscope microscope and the object comprises: the first image and the second image; Computing the distance between the endoscope microscope and the object using the blurring change between the images.
또 다른 측면에 따르면, 상기 제2 이미지를 생성하는 단계는, 상기 적어도 하나의 주변 서브 픽셀이 복수 개 구비되는 경우, 상기 복수의 주변 서브 픽셀들 중 어느 하나의 주변 서브 픽셀을 통해 제3 이미지를 획득하는 단계; 및 상기 복수의 주변 서브 픽셀들 중 상기 어느 하나의 주변 서브 픽셀을 제외한 나머지 어느 하나의 주변 서브 픽셀을 통해 제4 이미지를 획득하는 단계를 포함하고, 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계는, 상기 제3 이미지 및 상기 제4 이미지 사이의 시차를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계를 포함할 수 있다.According to another aspect, the generating of the second image may include generating a third image through one of the plurality of peripheral subpixels when the at least one peripheral subpixel is provided. Obtaining; And acquiring a fourth image through any one of the plurality of peripheral subpixels except for one of the peripheral subpixels, and calculating a distance between the endoscope microscope and the object. The step may include calculating a distance between the endoscope microscope and the object by using a parallax between the third image and the fourth image.
또 다른 측면에 따르면, 상기 단안 카메라를 이용한 내시현미경의 동작 방법은 상기 내시현미경 및 상기 오브젝트 사이의 거리에 기초하여 상기 내시현미경과 상기 오브젝트의 충돌을 회피하기 위한 동작을 수행하는 단계를 더 포함할 수 있다.According to another aspect, the method of operating the endoscope microscope using the monocular camera may further include performing an operation for avoiding collision between the endoscope microscope and the object based on a distance between the endoscope microscope and the object. Can be.
일 실시예들은 깊이가 적용된 3차원 이미지를 획득할 수 있는 내시현미경 및 그 동작 방법을 제안할 수 있다.One embodiment may propose an endoscope capable of obtaining a three-dimensional image to which the depth is applied, and an operation method thereof.
특히, 일 실시예들은 내시현미경에 포함되는 카메라 시스템이 단일 광학계 및 이미지 센서를 포함하는 구조를 갖도록 함으로써, 카메라 시스템의 단면적을 최소화하여 소형화를 도모하는 동시에, 이미지 센서에서 획득한 두 개의 이미지들을 이용하여 내시현미경 및 내시현미경의 주변에 위치하는 오브젝트 사이의 거리(깊이)를 산출하는 기술을 제안할 수 있다.In particular, one embodiment uses the two images obtained from the image sensor while minimizing the cross-sectional area of the camera system by minimizing the cross-sectional area of the camera system by having a structure including a single optical system and an image sensor included in the endoscope microscope Therefore, a technique for calculating a distance (depth) between an endoscope microscope and an object located around the endoscope microscope can be proposed.
도 1은 두 개의 이미지들 사이의 시차를 이용하여 이미지 센서와 피사체 사이의 거리를 산출하는 원리를 설명하기 위한 도면이다.
도 2 내지 4는 일 실시예에 따라 OPA(Offset Pixel Aperture)가 적용된 내시현미경의 카메라 시스템에서 내시현미경 및 오브젝트 사이의 거리를 산출하는 원리를 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 일 실시예에 따른 내시현미경의 개략적인 구조를 나타낸 도면이다.
도 6은 일 실시예에 따른 내시현미경에 장착된 카메라 시스템의 개략적인 구조를 나타낸 도면이다.
도 7은 일 실시예에 따라 OPA가 적용된 내시현미경의 카메라 시스템을 설명하기 위한 도면이다.
도 8은 다른 일 실시예에 따라 OPA가 적용된 내시현미경의 카메라 시스템을 설명하기 위한 도면이다.
도 9는 또 다른 일 실시예에 따라 OPA가 적용된 내시현미경의 카메라 시스템을 설명하기 위한 도면이다.
도 10은 도 9에 도시된 내시현미경의 카메라 시스템에서 획득한 두 개의 이미지들을 나타낸 도면이다.
도 11은 일 실시예에 따라 PA(Pixel Aperture)가 적용된 내시현미경의 카메라 시스템을 설명하기 위한 도면이다.
도 12는 일 실시예에 따라 DA(Dual Aperture)가 적용된 내시현미경의 카메라 시스템을 설명하기 위한 도면이다.
도 13은 다른 일 실시예에 따라 DA가 적용된 내시현미경의 카메라 시스템을 설명하기 위한 도면이다.
도 14는 일 실시예에 따라 서브 픽셀 구조가 적용된 내시현미경의 카메라 시스템을 설명하기 위한 도면이다.
도 15는 일 실시예에 따른 내시현미경의 동작 방법을 나타낸 흐름도이다.FIG. 1 is a diagram for explaining a principle of calculating a distance between an image sensor and a subject by using parallax between two images.
2 to 4 are diagrams for describing a principle of calculating a distance between an endoscope microscope and an object in a camera system of an endoscope microscope to which an offset pixel aperture (OPA) is applied, according to an exemplary embodiment.
5 is a diagram illustrating a schematic structure of an endoscope according to an embodiment.
6 is a diagram illustrating a schematic structure of a camera system mounted on an endoscope according to an embodiment.
7 is a diagram for describing a camera system of an endoscope microscope to which an OPA is applied, according to an exemplary embodiment.
8 is a diagram for describing a camera system of an endoscope microscope to which OPA is applied, according to another exemplary embodiment.
9 is a diagram for describing a camera system of an endoscope microscope to which an OPA is applied, according to another embodiment.
FIG. 10 is a diagram illustrating two images acquired by the camera system of the endoscope microscope shown in FIG. 9.
FIG. 11 is a diagram for describing a camera system of an endoscope microscope to which a pixel aperture (PA) is applied, according to an exemplary embodiment.
12 is a diagram for describing a camera system of an endoscope microscope to which a dual aperture (DA) is applied, according to an exemplary embodiment.
13 is a diagram for describing a camera system of an endoscope microscope to which DA is applied, according to another exemplary embodiment.
14 is a diagram for describing a camera system of an endoscope microscope to which a subpixel structure is applied, according to an exemplary embodiment.
15 is a flowchart illustrating a method of operating an endoscope according to an embodiment.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 그러나 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited or limited by the embodiments. Also, like reference numerals in the drawings denote like elements.
또한, 본 명세서에서 사용되는 용어(Terminology)들은 본 발명의 바람직한 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 시청자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 예컨대, 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 또한, 본 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.In addition, terms used in the present specification are terms used to properly express preferred embodiments of the present invention, which may vary depending on the intention of the viewer, the operator, or customs in the field to which the present invention belongs. Therefore, the definitions of the terms should be made based on the contents throughout the specification. For example, in this specification, the singular also includes the plural unless specifically stated otherwise in the text. Also, as used herein, “comprises” and / or “comprising” refers to one or more other components, steps, operations and / or elements. It does not exclude the presence or addition of devices.
또한, 본 발명의 다양한 실시 예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 기술적 사상 및 범위를 벗어나지 않으면서 다른 실시 예로 구현될 수 있다. 또한, 제시된 각각의 실시예 범주에서 개별 구성요소의 위치, 배치, 또는 구성은 본 발명의 기술적 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다.In addition, it should be understood that various embodiments of the present invention are different from one another, but need not be mutually exclusive. For example, specific shapes, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention with respect to one embodiment. In addition, it should be understood that the position, arrangement, or configuration of individual components in each of the exemplary embodiments presented may be changed without departing from the spirit and scope of the present invention.
깊이가 적용된 3차원 이미지를 획득하기 위해서는, 2차원 이미지에 포함되는 픽셀들 각각의 깊이가 산출되어야 한다. 이 때, 2차원 이미지에 포함되는 픽셀들 각각의 깊이를 산출하는 종래의 방식으로는 촬영 대상이 되는 피사체(오브젝트)에 레이저를 조사하고 그 빛이 돌아오는 시간을 측정하는 TOF(time of flight) 방식, 두 개 이상의 카메라 시스템들에서 각각 획득한 이미지들 사이의 시차를 이용하여 깊이를 산출하는 스테레오(depth from stereo) 방식, 단일 카메라 시스템에서 단일 광학계에 형성된 복수의 애퍼처들 각각을 통과한 광 신호를 처리하여 획득한 이미지들 사이의 시차를 이용하여 깊이를 산출하는 방식(애퍼처를 이용한 시차 차이 방식), 단일 카메라 시스템에서 단일 광학계에 형성된 복수의 애퍼처들 각각을 통과한 광 신호를 처리하여 획득한 이미지들 사이의 블러 변화를 이용하여 깊이를 산출하는 방식 등이 있다.In order to obtain a three-dimensional image to which the depth is applied, the depth of each pixel included in the two-dimensional image should be calculated. In this case, a conventional method of calculating the depth of each pixel included in the two-dimensional image includes a time of flight (TOF) for irradiating a laser to a subject (object) to be photographed and measuring the time that the light is returned. Method, a depth from stereo method that calculates depth by using parallax between images acquired in two or more camera systems, and light passing through each of a plurality of apertures formed in a single optical system in a single camera system. A method of calculating depth using parallax between images obtained by processing a signal (a parallax difference method using apertures), and processing an optical signal passing through each of a plurality of apertures formed in a single optical system in a single camera system There is a method of calculating the depth by using the blurring change between the acquired images.
한편, 일 실시예에 따른 내시현미경에 포함되는 카메라 시스템은 단일 광학계 및 이미지 센서를 포함하는 구조를 가짐으로써, 카메라 시스템의 단면적을 최소화하여 소형화를 도모하는 동시에, 이미지 센서에서 획득한 두 개의 이미지들을 이용하여 내시현미경의 이미지 센서 및 내시현미경의 주변에 위치하는 피사체 사이의 거리(깊이)를 산출하는 방식을 사용한다.On the other hand, the camera system included in the endoscope microscope according to an embodiment has a structure including a single optical system and an image sensor, minimizing the cross-sectional area of the camera system, and at the same time the two images obtained from the image sensor By using the method to calculate the distance (depth) between the image sensor of the endoscope microscope and the subject located around the endoscope microscope.
특히, 일 실시예에 따른 내시현미경에 포함되는 카메라 시스템은 단안 카메라에서 활용할 수 있는 다양한 깊이 산출 방식들을 기반으로 내시현미경 및 피사체 사이의 거리를 산출한다. 보다 상세하게, 내시현미경에 포함되는 카메라 시스템은 OPA(Offset Pixel Aperture) 기반 깊이 산출 방식, PA(Pixel Aperture) 기반 깊이 산출 방식, DA(Dual Aperture) 기반 깊이 산출 방식, 서브 픽셀 구조 기반 깊이 산출 방식을 이용하여 내시현미경 및 피사체 사이의 거리를 산출할 수 있다.In particular, the camera system included in the endoscope microscope according to an embodiment calculates the distance between the endoscope microscope and the subject based on various depth calculation methods that can be utilized in the monocular camera. More specifically, the camera system included in the endoscope microscope includes an Offset Pixel Aperture based depth calculation method, a Pixel Aperture based depth calculation method, a DA (Dual Aperture) based depth calculation method, and a subpixel structure based depth calculation method. The distance between the endoscope microscope and the subject may be calculated using.
이러한 깊이 산출 방식들은 각각의 구조를 기반으로 결론적으로는 이미지들 사이의 시차를 이용하거나, 이미지들 사이의 블러 변화를 이용하여 깊이를 산출하게 된다. 이하, 이미지들 사이의 시차를 이용하여 깊이를 산출하는 DA 기반 깊이 산출 방식을 설명한 뒤, DA 기반 깊이 산출 방식을 토대로 하는 OPA 기반 깊이 산출 방식을 설명한다.These depth calculation methods, based on the respective structures, will ultimately calculate the depth using the parallax between the images or the blur variation between the images. Hereinafter, the DA-based depth calculation method for calculating depth using the parallax between images will be described, and then the OPA-based depth calculation method based on the DA-based depth calculation method will be described.
도 1은 두 개의 이미지들 사이의 시차를 이용하여 이미지 센서와 피사체 사이의 거리를 산출하는 원리를 설명하기 위한 도면이다.FIG. 1 is a diagram for explaining a principle of calculating a distance between an image sensor and a subject by using parallax between two images.
도 1을 참조하면, 카메라 시스템(100)에서 단일 광학계(110)에는 서로 다른 파장의 광선을 각각 유입시키는 복수의 애퍼처들이 형성된다. 특히, 복수의 애퍼처들은 단일 광학계(110) 상에서 서로 어긋난 중심 위치를 갖는다. 예컨대, 단일 광학계(110)에는 수평, 수직 또는 대각 중 어느 하나의 방향으로 오프셋되어 서로 어긋난 중심 위치를 갖는 제1 애퍼처 및 제2 애퍼처가 형성될 수 있다(즉, 제1 애퍼처의 중심 위치와 제2 애퍼처의 중심 위치가 일치하지 않음).Referring to FIG. 1, in the
이 때, 제1 애퍼처 및 제2 애퍼처는 서로 어긋난 중심 위치를 갖도록 형성되기 때문에, 제1 애퍼처에 의해 유입되는 파장의 광선을 이미지 센서(120)가 처리하여 획득되는 제1 이미지의 중심 위치는 제2 애퍼처에 의해 유입되는 파장의 광선을 이미지 센서(120)가 처리하여 획득되는 제2 이미지의 중심 위치와 일치하지 않게 된다.At this time, since the first aperture and the second aperture are formed to have a center position deviated from each other, the center of the first image obtained by the
카메라 시스템은 이와 같은 원리를 이용하여 제1 이미지 및 제2 이미지 사이의 시차 p를 식 1과 같이 계산할 수 있다. 이하, 제1 이미지 및 제2 이미지 사이의 시차는 제1 이미지의 중심 위치 및 제2 이미지의 중심 위치 사이의 시차를 의미한다.Using this principle, the camera system can calculate the parallax p between the first image and the second image as in
<식 1><
식 1에서, x는 제1 애퍼처의 중심 위치와 제2 애퍼처의 중심 위치 사이의 거리를 나타내고, f는 초점 거리를 나타내며, a는 피사체 거리(피사체로부터 단일 광학계(110)의 제1 주평면까지의 거리)를 나타내고, 는 이미지 센서(120)에 초점이 맞은 피사체 거리를 나타낸다.In
이 때, 제1 이미지의 중심 위치와 제2 이미지의 중심 위치 사이의 시차 p의 값이 양수에서 음수로 바뀌거나, 음수에서 양수로 바뀌는 경우, 두 이미지들 사이의 시차 방향이 바뀐 것이다. 따라서, p의 값의 부호에 따라, 에지가 있는 피사체가 초점은 위치를 기준으로 전경(Foreground)에 있는지 또는 배경(Background)에 있는지가 구분될 수 있다.At this time, when the value of parallax p between the center position of the first image and the center position of the second image is changed from positive to negative or from negative to positive, the direction of parallax between the two images is changed. Therefore, according to the sign of the value of p, whether the subject with the edge is in the foreground or background based on the position can be distinguished.
또한, 식 1로부터 피사체 거리 a가 식 2와 같이 계산될 수 있다.Also, from the
<식 2><
식 2에서, 는 이미지 센서(120)에 초점이 맞은 피사체 거리를 나타내고, f는 초점 거리를 나타내며, p는 제1 이미지 및 제2 이미지 사이의 시차를 나타내고, x는 제1 애퍼처의 중심 위치와 제2 애퍼처의 중심 위치 사이의 거리를 나타낸다.In
따라서, 이미지 센서(120)와 피사체 사이의 거리 c는 식 3과 같이 결정될 수 있다.Therefore, the distance c between the
<식 3><
식 3에서 a는 피사체 거리(피사체로부터 단일 광학계(110)의 제1 주평면까지의 거리)를 나타내고, b는 단일 광학계(110)의 제1 주평면과 이미지 센서(120) 사이의 거리를 나타낸다.In
도 2 내지 4는 일 실시예에 따라 OPA(Offset Pixel Aperture)가 적용된 내시현미경의 카메라 시스템에서 내시현미경 및 오브젝트 사이의 거리를 산출하는 원리를 설명하기 위한 도면이다. 보다 상세하게, 도 2는 일 실시예에 따라 OPA 구조의 카메라 시스템이 이용하는 거리 산출 원리는 설명하기 위하여, 내시현미경의 카메라 시스템에 포함되는 이미지 센서에서 복수의 픽셀들 중 OPA가 적용된 픽셀 하나만을 나타낸 개념도이고, 도 3 내지 4는 단일 광학계에 형성된 애퍼처와 OPA 사이의 관계를 설명하기 위한 도면이다.2 to 4 are diagrams for describing a principle of calculating a distance between an endoscope microscope and an object in a camera system of an endoscope microscope to which an offset pixel aperture (OPA) is applied, according to an exemplary embodiment. More specifically, FIG. 2 illustrates only one pixel to which the OPA is applied among the plurality of pixels in the image sensor included in the camera system of an endoscope for explaining the distance calculation principle used by the camera system of the OPA structure according to an embodiment. 3 to 4 are diagrams for explaining the relationship between the aperture and the OPA formed in a single optical system.
도 2를 참조하면, 일 실시예에 따라 OPA가 적용된 내시현미경의 카메라 시스템에 포함되는 이미지 센서의 어느 하나의 픽셀(200)은 어느 하나의 픽셀(200)의 중심(201)과 어긋난 중심 위치(211)를 갖는 OPA(212)가 형성된 오프셋 마스크(210)를 포함한다. 따라서, 카메라 시스템의 단일 광학계(220)로 유입된 광선은 어느 하나의 픽셀(200)의 마이크로 렌즈(230)와 컬러 필터(240)를 경유하여 오프셋 마스크(210)에 형성된 OPA(212)를 통과해 포토 다이오드(250)로 입사되게 된다.Referring to FIG. 2, one
이에, 도면에 도시된 바와 같은 원리를 통해, OPA(212)의 중심 위치(211)가 픽셀(200)의 중심(201)으로부터 오프셋된 거리인 O2는 단일 광학계(220) 상에 애퍼처가 형성되었을 경우 해당 애퍼처의 중심 위치(221)가 단일 광학계(220)의 중심(222)(픽셀(200)의 중심(201)과 동일함)으로부터 오프셋된 거리인 O1와 비례하는 관계를 갖는다.Accordingly, through the principle shown in the drawing, O 2, which is a distance at which the
따라서, 픽셀(200)의 중심(201)으로부터 어긋난 중심 위치(211)를 갖는 OPA(212)는 단일 광학계(220)의 중심(222)(픽셀(200)의 중심(201)과 동일함)으로부터 어긋난 중심 위치(221)를 갖도록 단일 광학계(220) 상에 형성된 애퍼처와 동일하게 치부될 수 있으며, 이로 인해, 도 3에서 나타나듯이, 단일 광학계에 애퍼처가 형성된 경우(310)에서 이미지 센서의 어느 하나의 픽셀에 입사되는 광선이 단일 광학계에 형성된 애퍼처에 의해 가장자리 영역이 차단된 중심부의 광선인 것처럼, OPA가 적용된 경우(320)에서 이미지 센서의 어느 하나의 픽셀에 입사되는 광선은 오프셋 마스크에 의해 가장자리 영역이 차단된 중심부의 광선일 수 있다. 마찬가지로, 도 4에서 나타나듯이, 단일 광학계에 애퍼처가 형성된 경우(410)에서 이미지 센서의 어느 하나의 픽셀에 입사되는 광선이 단일 광학계에 형성된 애퍼처에 의해 가장자리 영역의 광선인 것처럼, OPA가 적용된 경우(420)에서 이미지 센서의 어느 하나의 픽셀에 입사되는 광선은 오프셋 마스크에 의해 가장자리 영역의의 광선일 수 있다.Thus, the
이에, 전술된 식 2에서 제1 애퍼처의 중심 위치와 제2 애퍼처의 중심 위치 사이의 거리인 x는 OPA(212)가 적용된 이미지 센서를 포함하는 카메라 시스템의 경우 이미지 센서 상 OPA(212)가 적용된 픽셀(200)의 OPA(212)의 중심 위치(211)와 OPA(212)가 적용되지 않은 일반 픽셀의 중심 위치 사이의 거리에 해당되고, 식 2에서 제1 이미지 및 제2 이미지 사이의 시차인 p는 OPA(212)가 적용된 이미지 센서를 포함하는 카메라 시스템의 경우 OPA(212)가 적용된 픽셀(200)을 통해 획득된 이미지 및 OPA(212)가 적용되지 않은 일반 픽셀을 통해 획득된 이미지 사이의 시차에 해당될 수 있다.Accordingly, in the above-described
따라서, 일 실시예에 따른 내시현미경에 장착된 카메라 시스템은 이미지 센서에 초점이 맞은 피사체 거리인 , 초점 거리인 f, OPA(212)가 적용된 픽셀(200)을 통해 획득된 이미지 및 OPA(212)가 적용되지 않은 일반 픽셀을 통해 획득된 이미지 사이의 시차인 p, 그리고 OPA(212)가 적용된 픽셀(200)의 OPA(212)의 중심 위치(211)와 OPA(212)가 적용되지 않은 일반 픽셀의 중심 위치 사이의 거리인 x를 이용하여 식 2와 같이 피사체 거리 a를 계산할 수 있으며, 피사체 거리 a에 단일 광학계(220)와 이미지 센서 사이의 거리인 b를 더해 식 3과 같이 이미지 센서로부터 피사체 사이의 거리를 산출할 수 있다.Accordingly, the camera system mounted on the endoscope microscope according to an embodiment may be a subject distance focused on an image sensor. , The focal length f, p, which is the parallax between the image obtained through the
이상, 단일 광학계(220) 아래 OPA(212)가 적용된 이미지 센서의 깊이 산출 원리가 DA 구조에서의 시차 차이 방식을 기초로 하는 경우로 설명되었으나, 이에 제한되거나 한정되지 않고, 시차가 발생된 두 개의 이미지들을 이용하여 이미지 내 깊이를 산출하는 다양한 방식들을 기초로 할 수 있다.As described above, the depth calculation principle of the image sensor to which the
이하에서는, 상술한 깊이 산출 원리를 이용할 수 있도록 단일 광학계(220) 아래 OPA(212)가 적용된 이미지 센서와 해당 이미지 센서를 포함하는 카메라 시스템의 개략적인 구조, 그리고 상술한 OPA 구조가 적용된 경우 이외에 PA가 적용된 구조, DA가 적용된 구조, 서브 픽셀 구조가 적용된 카메라 시스템의 개략적인 구조와 이러한 카메라 시스템이 장착된 내시현미경에 대해 상세히 설명한다.Hereinafter, a schematic structure of an image sensor to which the
도 5는 일 실시예에 따른 일 실시예에 따른 내시현미경의 개략적인 구조를 나타낸 도면이다.5 is a diagram illustrating a schematic structure of an endoscope according to an embodiment.
도 5를 참조하면, 일 실시예에 따른 내시현미경(500)은 피검사자의 신체 내부에 삽입되어 장기나 체강 내부를 촬영 대상으로 하여 촬영하는 장치로서, 검사자가 파지하여 조작할 수 있는 조작부(510), 조작부(510)와 연결되어 장기나 체강 내에 삽입되는 삽입부(520)를 포함한다.Referring to FIG. 5, the
이 때, 삽입부(520)는 자유롭게 굴곡 또는 만곡 가능한 만곡부(521) 및 만곡부(521)의 선단에 설치되는 경질의 선단부(522)로 구성될 수 있으며, 선단부(522)에는 단일 광학계 아래 OPA가 적용된 이미지 센서를 포함하는 카메라 시스템이 위치할 수 있다.At this time, the
따라서, 검사자의 조작에 의해 삽입부(520)가 피검사자의 신체 내부에 삽입될 시, 선단부(522)에 위치한 카메라 시스템의 동작에 의해 피검사자의 신체 내부 장기나 체강이 촬영될 수 있다. 카메라 시스템에 대한 상세한 설명은 도 6을 참조하여 기재하기로 한다.Therefore, when the
또한, 도면에는 도시되지 않았지만, 내시현미경(500)은 내시현미경(500) 및 내시현미경(500)의 주변에 위치하는 오브젝트 사이의 거리를 산출하는 동작과 내시현미경 및 오브젝트 사이의 거리에 기초하여 내시현미경과 오브젝트의 충돌을 회피하기 위한 동작을 수행하는 적어도 하나의 프로세서를 포함할 수 있다. 이하, 적어도 하나의 프로세서가 카메라 시스템 내에 구비되는 경우로 설명하나, 이에 제한되거나 한정되지 않고, 내시현미경(500)과 무선 또는 유선으로 연결되는 별도의 컴퓨터 장치 상에 구비될 수도 있다.In addition, although not shown in the drawing, the
도 6은 일 실시예에 따른 내시현미경에 장착된 카메라 시스템의 개략적인 구조를 나타낸 도면이다.6 is a diagram illustrating a schematic structure of a camera system mounted on an endoscope according to an embodiment.
도 6을 참조하면, 일 실시예에 따른 카메라 시스템(600)은 단안 카메라 구조를 갖는 것을 특징으로 하며, 구체적으로 단일 광학계(610), 이미지 센서(620) 및 적어도 하나의 프로세서(630)를 포함할 수 있다.Referring to FIG. 6, the
단일 광학계(610)에는 R(Red), G(Green), B(Blue) 및 W(White) 광선이 입사될 수 있도록 하는 기본적인 애퍼처가 형성될 수 있으나, 이에 제한되거나 한정되지는 않는다. 후술되지만, 일 실시예에서는, DA(서로 일치하는 중심 위치를 가지며 서로 다른 파장의 광선을 유입시키는 DA 또는 서로 어긋난 중심 위치를 가지며 서로 다른 파장의 광선을 유입시키는 DA)가 적용될 수 있다.The single
이미지 센서(620)는 단일 광학계(610)를 통해 유입되는 광선(복수의 파장들을 가짐)을 파장 별로 처리하는 복수의 픽셀들로 구성되는 픽셀 세트를 적어도 하나 이상 포함함으로써, 이미지들을 획득할 수 있다. 실시예에 따라 이미지 센서(620)는 전술한 바와 같이 OPA가 적용된 어느 하나의 픽셀을 포함함으로써, OPA가 적용된 어느 하나의 픽셀을 통해 제1 이미지를 획득하고, OPA가 적용되지 않은 나머지 어느 하나의 픽셀을 통해 제2 이미지를 획득할 수 있다. 이에 대한 상세한 설명은 도 7을 참조하여 기재하기로 한다.The
다른 예를 들면, 이미지 센서(620)는 PA가 적용된 어느 하나의 픽셀을 포함함으로써, PA가 적용된 어느 하나의 픽셀을 통해 제1 이미지를 획득하고, PA가 적용되지 않은 나머지 어느 하나의 픽셀을 통해 제2 이미지를 획득할 수도 있다. 이에 대한 상세한 설명은 도 11을 참조하여 기재하기로 한다.In another example, the
또 다른 예를 들면, 이미지 센서(620)는 서로 어긋난 중심 위치를 갖는 DA가 적용된 단일 광학계(610)를 통해 유입되는 서로 다른 파장의 광선들 각각을 처리하여 시차가 존재하는 제1 이미지 및 제2 이미지를 획득할 수 있으며, 서로 일치하는 중심 위치를 갖는 DA가 적용된 단일 광학계(610)를 통해 유입되는 서로 다른 파장의 광선들 각각을 처리하여 블러 차이가 존재하는 제1 이미지 및 제2 이미지를 획득할 수도 있다. 이에 대한 상세한 설명은 도 12 내지 13을 참조하여 기재하기로 한다.In another example, the
또한, 이미지 센서(620)에 포함되는 픽셀 세트에서 어느 하나의 픽셀이 서브 픽셀 구조를 갖게 됨으로써, 이미지 센서(620)는 중심 서브 픽셀을 통해 제1 이미지를 획득하고, 적어도 하나의 주변 서브 픽셀을 통해 제2 이미지를 획득할 수 있다. 이에 대한 상세한 설명은 도 14를 참조하여 기재하기로 한다.In addition, any one pixel in the pixel set included in the
적어도 하나의 프로세서(630)는 이미지 센서(620)에서 획득된 적어도 두 개의 이미지들을 이용하여 내시현미경 및 내시현미경의 주변에 위치하는 오브젝트 사이의 거리를 산출한다. 예를 들어, OPA가 적용된 어느 하나의 픽셀을 통해 획득된 제1 이미지와 OPA가 적용되지 않은 나머지 어느 하나의 픽셀을 통해 획득된 제2 이미지 사이에는 시차가 존재하게 된다. 따라서, 적어도 하나의 프로세서(630)는 도 1 내지 4를 참조하여 전술한 원리를 기반으로, 시차가 존재하는 제 1 이미지 및 제2 이미지를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다.The at least one
다른 예를 들면, PA가 적용된 어느 하나의 픽셀을 통해 획득된 제1 이미지 및 PA가 적용되지 않은 나머지 어느 하나의 픽셀을 통해 획득된 제2 이미지 사이에는 블러 차이가 존재하게 된다. 이에, 적어도 하나의 프로세서(630)는 제1 이미지 및 제2 이미지 사이의 블러 변화를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다.In another example, a blur difference exists between a first image acquired through one pixel to which the PA is applied and a second image acquired through any other pixel to which the PA is not applied. Accordingly, the at least one
또 다른 예를 들면, 서로 일치하는 중심 위치를 가지며 서로 다른 파장의 광선을 유입시키는 DA가 적용된 경우, 복수의 애퍼처들 중 어느 하나의 애퍼처를 통과하는 파장의 광선에 기초하여 획득된 제1 이미지 및 복수의 애퍼처들 중 상기 어느 하나의 애퍼처를 제외한 나머지 어느 하나의 애퍼처를 통과하는 파장의 광선에 기초하여 획득된 제2 이미지 사이에는 블러 차이가 존재하게 된다. 따라서, 적어도 하나의 프로세서(630)는 제1 이미지 및 제2 이미지 사이의 블러 변화를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다.In another example, when a DA having a central position coinciding with each other and introducing light rays having different wavelengths is applied, a first obtained based on light rays having a wavelength passing through the aperture of any one of the plurality of apertures A blur difference exists between the image and the second image obtained based on the light of the wavelength passing through any one of the apertures except the one of the plurality of apertures. Accordingly, the at least one
또 다른 예를 들면, 서로 어긋난 중심 위치를 가지며 서로 다른 파장의 광선을 유입시키는 DA가 적용된 경우, 복수의 애퍼처들 중 어느 하나의 애퍼처를 통과하는 파장의 광선에 기초하여 획득된 제1 이미지 및 복수의 애퍼처들 중 상기 어느 하나의 애퍼처를 제외한 나머지 어느 하나의 애퍼처를 통과하는 파장의 광선에 기초하여 획득된 제2 이미지 사이에는 시차가 존재하게 된다. 이에, 적어도 하나의 프로세서(630)는 제1 이미지 및 제2 이미지 사이의 시차를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다.In another example, when a DA having misaligned center positions and introducing light rays having different wavelengths is applied, the first image acquired based on light rays having wavelengths passing through any one of the plurality of apertures are applied. And a parallax between the second image acquired based on a light ray having a wavelength passing through any one of the plurality of apertures except for the one of the plurality of apertures. Accordingly, the at least one
또 다른 예를 들면, 서브 픽셀 구조가 적용된 경우, 중심 서브 픽셀을 통해 획득된 제1 이미지 및 적어도 하나의 주변 서브 픽셀을 통해 획득된 신호가 병합되어 생성되는 제2 이미지 사이에는 블러 차이가 존재하게 된다. 따라서, 적어도 하나의 프로세서(630)는 제1 이미지 및 제2 이미지 사이의 블러 변화를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다. 또한, 서브 픽셀 구조가 적용되는 경우에서, 적어도 하나의 주변 서브 픽셀이 복수 개 구비되는 경우, 복수의 주변 서브 픽셀들 중 어느 하나의 주변 서브 픽셀을 통해 획득되는 제3 이미지 및 복수의 주변 서브 픽셀들 중 상기 어느 하나의 주변 서브 픽셀을 제외한 나머지 어느 하나의 주변 서브 픽셀을 통해 획득되는 제4 이미지 사이에는 시차가 존재하게 된다. 이에, 적어도 하나의 프로세서(630)는 제3 이미지 및 제4 이미지 사이의 시차를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다.In another example, when a subpixel structure is applied, a blur difference exists between a first image acquired through a center subpixel and a second image generated by merging a signal obtained through at least one peripheral subpixel. do. Accordingly, the at least one
즉, 적어도 하나의 프로세서(630)는 카메라 시스템(600)에 OPA 구조, PA 구조, DA 구조 또는 서브 픽셀 구조 중 어느 하나가 적용되는지에 따라, 이미지들 사이의 시차 또는 블러 변화 중 어느 하나를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다.That is, the at least one
도 7은 일 실시예에 따라 OPA가 적용된 내시현미경의 카메라 시스템을 설명하기 위한 도면이다.7 is a diagram for describing a camera system of an endoscope microscope to which an OPA is applied, according to an exemplary embodiment.
도 7을 참조하면, 일 실시예에 따라 OPA가 적용된 내시현미경의 카메라 시스템에 포함되는 이미지 센서(700)는, 복수의 파장들을 갖는 광선을 파장 별로 처리하는 복수의 픽셀들(711, 712, 713, 714)로 구성되는 픽셀 세트(710)를 적어도 한 개 이상 구비할 수 있다. 도면에는, 이미지 센서(700)가 9개의 픽셀 세트를 구비하는 경우로 도시되었으며, 픽셀 세트(710)에 R 픽셀, G 픽셀, B 픽셀, W 픽셀이 포함되는 경우로 도시되었으나, 이에 제한되거나 한정되지는 않는다. 즉, 픽셀 세트(710)는 R, G, B, W 픽셀들로 구성되는 대신에, W, R, B, W 픽셀들로 구성될 수도 있다.Referring to FIG. 7, an
특히, 이미지 센서(700)에서 픽셀 세트(710)에 포함되는 복수의 픽셀들(711, 712, 713, 714) 중 어느 하나의 픽셀(예컨대, 제4 픽셀(714))의 상부에는, 어느 하나의 픽셀(제4 픽셀(714))의 중심(714-1)과 어긋난 중심 위치(714-2)를 갖는 OPA(714-3)가 형성된 오프셋 마스크(714-4)가 배치될 수 있다. 이하, 픽셀(714)의 중심(714-1)은 픽셀(714)의 상면에서의 중심점을 의미하며, OPA(714-3)의 중심(714-2)은 OPA(714-3)의 홀의 중심점을 의미한다. 즉, 오프셋 마스크(714-4)에 형성된 OPA(714-3)는, 오프셋 마스크(714-4)가 상부에 배치되는 어느 하나의 픽셀(제4 픽셀(714))의 중심(714-1)을 기준으로 수평, 수직 또는 대각 중 어느 하나의 방향으로 오프셋되는 중심 위치(714-2)를 가질 수 있다.In particular, any one of the plurality of
또한, 이하, OPA(714-3)는 원, 타원, 삼각, 사각 또는 다각 중 어느 하나의 형태를 가지며 오프셋 마스크(714-4) 상에 형성될 수 있다. 이처럼, OPA(714-3)는 형상의 제한을 갖지는 않으며, 다만, 픽셀(제4 픽셀(714))의 중심(714-1)과 어긋난 중심 위치(714-2)를 갖기만 하면 된다.Also, hereinafter, the OPA 714-3 may be formed on the offset mask 714-4 in the form of a circle, an ellipse, a triangle, a square, or a polygon. As described above, the OPA 714-3 does not have a limitation in shape, but only needs to have a center position 714-2 deviated from the center 714-1 of the pixel (fourth pixel 714).
이에, 오프셋 마스크(714-4)가 상부에 배치되는 어느 하나의 픽셀(제4 픽셀(714))을 통해 획득된 제1 이미지와 복수의 픽셀들(711, 712, 713, 714) 중 오프셋 마스크(714-4)가 배치되는 어느 하나의 픽셀(제4 픽셀(714))을 제외한 나머지 어느 하나의 픽셀(예컨대, 제1 픽셀(711), 제2 픽셀(712) 또는 제3 픽셀(713) 중 어느 하나의 픽셀)을 통해 획득된 제2 이미지 사이에는 시차가 존재하게 된다.Accordingly, the offset mask of the first image and the plurality of
따라서, 적어도 하나의 프로세서는, 오프셋 마스크(714-4)가 상부에 배치되는 어느 하나의 픽셀(제4 픽셀(714))을 통해 획득된 제1 이미지와 복수의 픽셀들(711,712, 713, 714) 중 오프셋 마스크(714-4)가 배치되는 어느 하나의 픽셀(제4 픽셀(714))을 제외한 나머지 어느 하나의 픽셀(예컨대, 제1 픽셀(711), 제2 픽셀(712) 또는 제3 픽셀(713) 중 어느 하나의 픽셀)을 통해 획득된 제2 이미지 사이의 시차를 이용하여, 내시현미경 및 오브젝트 사이의 거리(보다 정확하게는, 이미지 센서(700) 및 오브젝트 사이의 거리)를 산출할 수 있다.Accordingly, the at least one processor may include the first image and the plurality of
이 때, 오프셋 마스크(714-4)는 복수의 픽셀들(711, 712, 713, 714) 중 최대 광 투과(Maximum light transmission) 특성을 갖는 어느 하나의 픽셀(예컨대, W 픽셀인 제4 픽셀(714))의 상부에 배치될 수 있다. 이는, 오프셋 마스크(714-4)가 포토 다이오드에 입사되는 광량을 감소시키므로, 오프셋 마스크(714-4)가 배치된 픽셀을 통해 이미지를 획득하기 위해서는 해당 픽셀의 광 투과 특성이 기준치보다 높아야 하기 때문이다.In this case, the offset mask 714-4 may be any one pixel having a maximum light transmission characteristic among the plurality of
또한, 도면에 도시된 바와 같이, 오프셋 마스크(714-4)가 상부에 배치되는 어느 하나의 픽셀(제4 픽셀(714))은, 복수의 픽셀들(711, 712, 713, 714) 중 오프셋 마스크(714-4)가 배치되는 어느 하나의 픽셀(제4 픽셀(714))을 제외한 나머지 어느 하나의 픽셀(예컨대, 제1 픽셀(711), 제2 픽셀(712) 또는 제3 픽셀(713) 중 어느 하나의 픽셀)에서 처리하는 광선의 파장과 구별되는 다른 파장의 광선을 처리할 수 있다. 다시 말해, 오프셋 마스크(714-4)는 복수의 픽셀들(711, 712, 713, 714) 중 처리하는 광선의 파장이 다른 어느 하나의 픽셀의 상부에 배치됨으로써, 오프셋 마스크(714-4)가 상부에 배치되지 않은 나머지 어느 하나의 픽셀을 통해 획득하는 이미지와 뚜렷하게 구별되는 이미지를 획득하도록 할 수 있다.In addition, as shown in the drawing, any one pixel (the fourth pixel 714) on which the offset mask 714-4 is disposed is offset from among the plurality of
이와 같이, 일 실시예에 따른 내시현미경은 단일 광학계 아래 OPA(714-3)가 적용된 이미지 센서(700)의 구조를 갖는 카메라 시스템을 포함함으로써, 카메라 시스템의 단면적을 최소화하여 소형화를 도모하는 동시에, 이미지 센서(700)에서 획득한 두 개의 이미지들(제1 이미지 및 제2 이미지) 사이의 시차를 이용하여 내시현미경 및 오브젝트 사이의 거리(깊이)를 산출하는 기술을 제안할 수 있다As such, the endoscope microscope according to an embodiment includes a camera system having a structure of an
또한, 일 실시예에 따라 OPA가 적용된 내시현미경은 픽셀 세트(710)에 포함되는 복수의 픽셀들(711, 712, 713, 714) 중 하나의 픽셀(제4 픽셀(714))에 오프셋 마스크(714-4)를 배치하는 대신에, 두 개의 픽셀들 각각에 서로 어긋난 중심 위치를 갖는 오프셋 마스크(714-4)를 배치하여, 두 개의 픽셀들 각각을 통해 획득된 이미지들 사이의 시차를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수도 있다. 이에 대한 상세한 설명은 도 8을 참조하여 기재하기로 한다.In addition, according to an exemplary embodiment, the endoscope microscope to which the OPA is applied may include an offset mask (or an offset mask) in one pixel (fourth pixel 714) of the plurality of
도 8은 다른 일 실시예에 따라 OPA가 적용된 내시현미경의 카메라 시스템을 설명하기 위한 도면이다.8 is a diagram for describing a camera system of an endoscope microscope to which OPA is applied, according to another exemplary embodiment.
도 8을 참조하면, 다른 일 실시예에 따라 OPA가 적용된 내시현미경의 카메라 시스템에 포함되는 이미지 센서(800)는, 복수의 파장들을 갖는 광선을 파장 별로 처리하는 복수의 픽셀들(811, 812, 813, 814)로 구성되는 픽셀 세트(810)를 적어도 한 개 이상 구비할 수 있다. 예를 들어, 픽셀 세트(810)는 제1 W 픽셀(811), R 픽셀(812), B 픽셀(813) 및 제2 W 픽셀(814)로 구성될 수 있다.Referring to FIG. 8, the
이 때, 픽셀 세트(810)에 포함되는 복수의 픽셀들(811, 812, 813, 814) 중 어느 하나의 픽셀(811)의 상부에는 어느 하나의 픽셀(811)의 중심(811-1)과 어긋난 중심 위치(811-2)를 갖는 OPA(811-3)가 형성된 오프셋 마스크(811-4)가 배치될 수 있다. 또한, 이미지 센서(800)에서 복수의 픽셀들(811, 812, 813, 814) 중 어느 하나의 픽셀(811)을 제외한 나머지 어느 하나의 픽셀(814)의 상부에도 나머지 어느 하나의 픽셀(814)의 중심(814-1)과 어긋난 중심 위치(814-2)를 갖는 OPA(814-3)가 형성된 오프셋 마스크(814-4)가 배치될 수 있다.At this time, the center 811-1 of any one
특히, 이미지 센서(800)에서, 제1 W 픽셀(811)의 상부에 배치되는 오프셋 마스크(811-4)의 OPA(811-3)는, 제2 W 픽셀(814)의 상부에 배치되는 오프셋 마스크(814-4)의 OPA(814-3)의 중심(814-2)과 어긋난 중심 위치(811-2)를 가질 수 있다.In particular, in the
이에, 제1 W 픽셀(811)을 통해 획득된 제1 이미지와 제2 W 픽셀(814)을 통해 획득된 제2 이미지 사이에는 시차가 존재하게 된다. 따라서, 적어도 하나의 프로세서는, 제1 W 픽셀(811)을 통해 획득된 제1 이미지 및 제2 W 픽셀(814)을 통해 획득된 제2 이미지 사이의 시차를 이용하여 내시현미경 및 오브젝트 사이의 거리(보다 정확하게는, 이미지 센서(800) 및 오브젝트 사이의 거리)를 산출할 수 있다.Accordingly, there is a parallax between the first image acquired through the
도 9는 또 다른 일 실시예에 따라 OPA가 적용된 내시현미경의 카메라 시스템을 설명하기 위한 도면이고, 도 10은 도 9에 도시된 내시현미경의 카메라 시스템에서 획득한 두 개의 이미지들을 나타낸 도면이다.FIG. 9 is a diagram illustrating a camera system of an endoscope microscope to which an OPA is applied according to another embodiment, and FIG. 10 is a view illustrating two images acquired by the camera system of the endoscope microscope shown in FIG. 9.
도 9를 참조하면, 또 다른 일 실시예에 따라 OPA가 적용된 내시현미경의 카메라 시스템에 포함되는 이미지 센서(900)는, 복수의 파장들을 갖는 광선을 파장 별로 처리하는 복수의 픽셀들(911, 912, 913, 914, 921, 922, 923, 924)로 구성되는 픽셀 세트(10, 920)를 적어도 두 개 이상 구비할 수 있다. 도면에는, 이미지 센서(900)가 9개의 픽셀 세트를 구비하는 경우로 도시되었으며, 픽셀 세트(910, 920)에 R 픽셀, G 픽셀, B 픽셀, W 픽셀이 포함되는 경우로 도시되었으나, 이에 제한되거나 한정되지는 않는다. 즉, 픽셀 세트(910, 920)는 R, G, B, W 픽셀들로 구성되는 대신에, W, R, B, W 픽셀들로 구성될 수도 있다.9, an
이 때, 이미지 센서(900)에서 어느 하나의 픽셀 세트(예컨대, 제1 픽셀 세트(910))에 포함되는 복수의 픽셀들(911, 912, 913, 914) 중 어느 하나의 픽셀(예컨대, 제4 픽셀(914))의 상부에는, 어느 하나의 픽셀(제4 픽셀(914))의 중심(914-1)과 어긋난 중심 위치(914-2)를 갖는 OPA(914-3)가 형성된 오프셋 마스크(914-4)가 배치될 수 있다. 또한, 이미지 센서(900)에서 제1 픽셀 세트(910))를 제외한 나머지 어느 하나의 픽셀 세트(예컨대, 제2 픽셀 세트(820))에 포함되는 복수의 픽셀들(921, 922, 923, 924) 중 어느 하나의 픽셀(예컨대, 제4 픽셀(924))의 상부에도, 어느 하나의 픽셀(제4 픽셀(924))의 중심(924-1)과 어긋난 중심 위치(924-2)를 갖는 OPA(924-3)가 형성된 오프셋 마스크(924-4)가 배치될 수 있다.In this case, any one of the
특히, 이미지 센서(900)에서, 어느 하나의 픽셀 세트(제1 픽셀 세트(910))에 포함되는 복수의 픽셀들(911, 912, 913, 914) 중 어느 하나의 픽셀(제4 픽셀(914))의 상부에 배치되는 오프셋 마스크(914-4)의 OPA(914-3)는, 나머지 어느 하나의 픽셀 세트(제2 픽셀 세트(920))에 포함되는 복수의 픽셀들(921, 922, 923, 924) 중 어느 하나의 픽셀(제4 픽셀(924))의 상부에 배치되는 오프셋 마스크(924-4)의 OPA(924-3)의 중심(924-2)과 어긋난 중심 위치(914-2)를 가질 수 있다. 예를 들어, 제1 픽셀 세트(910)에 형성된 OPA(914-3)는 픽셀(914)의 중심(914-1)으로부터 우측으로 어긋난 중심 위치(914-2)를 갖는다면, 제2 픽셀 세트(920)에 형성된 OPA(924-3)는 픽셀(924)의 중심(924-1)으로부터 좌측으로 어긋난 중심 위치(924-2)를 가질 수 있다.In particular, in the
이에, 제1 픽셀 세트(910)에서 오프셋 마스크(914-4)가 형성된 픽셀(914)을 통해 획득된 제1 이미지(1010)와 제2 픽셀 세트(920)에서 오프셋 마스크(924-4)가 형성된 픽셀(924)을 통해 획득된 제2 이미지(1020) 사이에는 도 10과 같이 시차가 존재하게 된다.Accordingly, the offset mask 924-4 is obtained from the
따라서, 적어도 하나의 프로세서는, 복수의 픽셀 세트들(910, 920) 중 어느 하나의 픽셀 세트(제1 픽셀 세트(910))에서 오프셋 마스크(914-4)가 상부에 배치되는 어느 하나의 픽셀(914)을 통해 획득된 제1 이미지(1010) 및 복수의 픽셀 세트들(910, 920) 중 어느 하나의 픽셀 세트(제1 픽셀 세트(910))를 제외한 나머지 어느 하나의 픽셀 세트(제2 픽셀 세트(920))에서 오프셋 마스크(924-4)가 상부에 배치되는 어느 하나의 픽셀(924)을 통해 획득된 제2 이미지(1020) 사이의 시차를 이용하여 내시현미경 및 오브젝트 사이의 거리(보다 정확하게는, 이미지 센서(900) 및 오브젝트 사이의 거리)를 산출할 수 있다.Accordingly, the at least one processor may include at least one pixel having an offset mask 914-4 disposed thereon in one of the plurality of pixel sets 910 and 920 (the first pixel set 910). Any other pixel set except for the
이와 같이, 또 다른 일 실시예에 따른 내시현미경은 단일 광학계 아래 픽셀 세트(910, 920) 별로 서로 다르게 OPA(914-3, 924-3)가 적용된 이미지 센서(900)의 구조를 갖는 카메라 시스템을 포함함으로써, 카메라 시스템의 단면적으로 최소화하여 소형화를 도모하는 동시에, 이미지 센서(900)에서 획득한 두 개의 이미지들(1010, 1020) 사이의 시차를 이용하여 내시현미경 및 오브젝트 사이의 거리(깊이)를 산출하는 기술을 제안할 수 있다As such, the endoscope according to another embodiment is a camera system having the structure of the
도 11은 일 실시예에 따라 PA(Pixel Aperture)가 적용된 내시현미경의 카메라 시스템을 설명하기 위한 도면이다.FIG. 11 is a diagram for describing a camera system of an endoscope microscope to which a PA (Pixel Aperture) is applied, according to an exemplary embodiment.
도 11을 참조하면, 일 실시예에 따라 PA가 적용된 내시현미경의 카메라 시스템에 포함되는 이미지 센서(1100)는, 복수의 파장들을 갖는 광선을 파장 별로 처리하는 복수의 픽셀들(1111, 1112, 1113, 1114)로 구성되는 픽셀 세트(1110)를 적어도 한 개 이상 구비할 수 있다. 도면에는, 이미지 센서(1100)가 9개의 픽셀 세트를 구비하는 경우로 도시되었으며, 픽셀 세트(1110)에 R 픽셀, G 픽셀, B 픽셀, W 픽셀이 포함되는 경우로 도시되었으나, 이에 제한되거나 한정되지는 않는다. 즉, 픽셀 세트(1110)는 R, G, B, W 픽셀들로 구성되는 대신에, W, R, B, W 픽셀들로 구성될 수도 있다.Referring to FIG. 11, an
특히, 이미지 센서(1100)에서 픽셀 세트(1110)에 포함되는 복수의 픽셀들(1111, 1112, 1113, 1114) 중 어느 하나의 픽셀(예컨대, 제4 픽셀(1114))의 상부에는, 어느 하나의 픽셀(제4 픽셀(1114))의 중심과 일치하는 중심 위치(1114-1)를 갖는 PA(1114-2)가 형성된 오프셋 마스크(1114-3)가 배치될 수 있다. 이하, 픽셀(1114)의 중심은 픽셀(1114)의 상면에서의 중심점을 의미하며, PA(1114-2)의 중심(1114-1)은 PA(1114-2)의 홀의 중심점을 의미한다.In particular, any one of the plurality of
또한, 이하, PA(1114-2)는 원, 타원, 삼각, 사각 또는 다각 중 어느 하나의 형태를 가지며 오프셋 마스크(1114-3) 상에 형성될 수 있다. 이처럼, PA(1114-2)는 형상의 제한을 갖지는 않는다.In addition, hereinafter, the PA 1114-2 may be formed on the offset mask 1114-3 having any one of a circle, an ellipse, a triangle, a square, or a polygon. As such, the PA 1114-2 does not have a shape limitation.
이에, 오프셋 마스크(1114-3)는 광선의 다발 중 주변부의 광선을 차단하고 중심부의 광선만을 제4 픽셀(1114)로 유입시키게 되고, 제4 픽셀(1114)을 통해 획득되는 제1 이미지는 오프셋 마스크(1114-3)가 상부에 배치되지 않은 다른 픽셀들(1111, 1112, 1113)을 통해 획득되는 제2 이미지보다 더 선명하게 된다. 즉, 오프셋 마스크(1114-3)가 상부게 배치된 어느 하나의 픽셀(1114)을 통해 획득되는 제1 이미지 및 오프셋 마스크(1114-3)가 배치되지 않은 나머지 어느 하나의 픽셀(1111, 1112, 1113)을 통해 획득되는 제2 이미지 사이에는 블러 차이가 존재하게 된다.Thus, the offset mask 1114-3 blocks the light rays at the periphery of the bundle of light rays, and injects only the light rays at the center portion to the
따라서, 적어도 하나의 프로세서는, 오프셋 마스크(1114-3)가 상부에 배치되는 어느 하나의 픽셀(제4 픽셀(1114))을 통해 획득된 제1 이미지와 복수의 픽셀들(1111, 1112, 1113, 1114) 중 오프셋 마스크(1114-3)가 배치되는 어느 하나의 픽셀(제4 픽셀(1114))을 제외한 나머지 어느 하나의 픽셀(예컨대, 제1 픽셀(1111), 제2 픽셀(1112) 또는 제3 픽셀(1113) 중 어느 하나의 픽셀)을 통해 획득된 제2 이미지 사이의 블러 변화를 이용하여, 내시현미경 및 오브젝트 사이의 거리(보다 정확하게는, 이미지 센서(1100) 및 오브젝트 사이의 거리)를 산출할 수 있다.Accordingly, the at least one processor may include the first image and the plurality of
이와 같이, 일 실시예에 따른 내시현미경은 단일 광학계 아래 PA(1114-2)가 적용된 이미지 센서(1100)의 구조를 갖는 카메라 시스템을 포함함으로써, 카메라 시스템의 단면적을 최소화하여 소형화를 도모하는 동시에, 이미지 센서(1100)에서 획득한 두 개의 이미지들(제1 이미지 및 제2 이미지) 사이의 블러 변화를 이용하여 내시현미경 및 오브젝트 사이의 거리(깊이)를 산출하는 기술을 제안할 수 있다. 이미지들 사이의 블러 변화를 이용하여 깊이를 산출하는 상세한 설명은 본 발명의 기술적 사상을 벗어나므로 생략하기로 한다.As such, the endoscope microscope according to the embodiment includes a camera system having a structure of the
도 12는 일 실시예에 따라 DA(Dual Aperture)가 적용된 내시현미경의 카메라 시스템을 설명하기 위한 도면이다.12 is a diagram for describing a camera system of an endoscope microscope to which a dual aperture (DA) is applied, according to an exemplary embodiment.
도 12를 참조하면, 일 실시예에 따라 DA가 적용된 내시현미경의 카메라 시스템에 포함되는 단일 광학계(1200)에는 서로 다른 파장의 광선을 각각 유입시키며 서로 일치하는 중심 위치를 갖는 복수의 애퍼처들(1210, 1220)이 형성된다. 예를 들어, 단일 광학계(1200)에는 RGB 파장의 광선을 유입시키는 제1 애퍼처(1210)와 IR 파장의 광선을 유입시키는 제2 애퍼처(1220)가 서로 일치하는 중심 위치를 가진 채 형성될 수 있다. 예를 들어, 제1 애퍼처(1210)가 IR 파장의 광선을 차단하는 필터의 형태로 구현되고, 제1 애퍼처(1210)의 중심에 홀의 형태로 제2 애퍼처(1220)가 형성될 수 있다. 이하, 제1 애퍼처(1210)가 RGB 파장의 광선을 유입시키고, 제2 애퍼처(1220)가 IR 파장의 광선을 유입시키는 것으로 설명하나, 이에 제한되거나 한정되지 않고 제1 애퍼처(1210) 및 제2 애퍼처(1220)는 서로 다른 파장의 광선을 유입시키는 제약 아래 다양하게 구현될 수 있다.Referring to FIG. 12, a single
이에, 제1 애퍼처(1210)를 통해 유입된 파장의 광선이 이미지 센서(도면에는 도시되지 않음)에서 처리되어 획득되는 제1 이미지와 제2 애퍼처(1220)를 통해 유입된 파장의 광선이 이미지 센서에서 처리되어 획득되는 제2 이미지 사이에는 블러 차이가 존재하게 된다.Accordingly, the light rays of the wavelengths introduced through the first image and the
따라서, 적어도 하나의 프로세서는, 복수의 애퍼처들(1210, 1220) 중 어느 하나의 애퍼처(제1 애퍼처(1210))를 통해 유입된 파장의 광선을 처리하여 획득되는 제1 이미지 및 복수의 애퍼처들(1210, 1220) 중 상기 어느 하나의 애퍼처(제1 애퍼처(1210))를 제외한 나머지 어느 하나의 애퍼처(제2 애퍼처(1220))를 통해 유입된 파장의 광선을 처리하여 획득되는 제2 이미지 사이의 블러 변화를 이용하여, 내시현미경 및 오브젝트 사이의 거리(보다 정확하게는, 이미지 센서(1100) 및 오브젝트 사이의 거리)를 산출할 수 있다.Accordingly, the at least one processor may include a plurality of first images and a plurality of first images obtained by processing light rays having a wavelength introduced through one of the plurality of
이와 같이, 일 실시예에 따른 내시현미경은 단일 광학계 상에 서로 일치하는 중심 위치를 가진 채 서로 다른 파장의 광선을 각각 유입시키는 복수의 애퍼처들(1210, 1220)이 형성된 카메라 시스템을 포함함으로써, 카메라 시스템의 단면적을 최소화하여 소형화를 도모하는 동시에, 이미지 센서에서 획득한 두 개의 이미지들(제1 이미지 및 제2 이미지) 사이의 블러 변화를 이용하여 내시현미경 및 오브젝트 사이의 거리(깊이)를 산출하는 기술을 제안할 수 있다. 마찬가지로, 이미지들 사이의 블러 변화를 이용하여 깊이를 산출하는 상세한 설명은 본 발명의 기술적 사상을 벗어나므로 생략하기로 한다.As such, the endoscope microscope according to an embodiment includes a camera system in which a plurality of
도 13은 다른 일 실시예에 따라 DA가 적용된 내시현미경의 카메라 시스템을 설명하기 위한 도면이다.13 is a diagram for describing a camera system of an endoscope microscope to which DA is applied, according to another exemplary embodiment.
도 13을 참조하면, 다른 일 실시예에 따라 DA가 적용된 내시현미경의 카메라 시스템에 포함되는 단일 광학계(1300)에는 서로 다른 파장의 광선을 각각 유입시키며 서로 어긋난 중심 위치를 갖는 복수의 애퍼처들(1310, 1320)이 형성된다. 예를 들어, 단일 광학계(1300)에는 RGB 파장의 광선을 유입시키는 제1 애퍼처(1310)와 IR 파장의 광선을 유입시키는 제2 애퍼처(1320)가 서로 어긋난 중심 위치를 가진 채 형성될 수 있다. 이하, 제1 애퍼처(1310)가 RGB 파장의 광선을 유입시키고, 제2 애퍼처(1320)가 IR 파장의 광선을 유입시키는 가운데, 서로 동일한 크기로 나란히 형성되는 것으로 설명하나, 이에 제한되거나 한정되지 않고 제1 애퍼처(1310) 및 제2 애퍼처(1320)는 서로 다른 파장의 광선을 유입시키며 서로 어긋난 중심 위치를 갖는 제약 아래 다양하게 구현될 수 있다. 예컨대, 제1 애퍼처(1310) 및 제2 애퍼처(1320)는 적어도 일부 영역이 겹치도록 형성되거나, 제1 애퍼처(1310) 상에 제2 애퍼처(1320)가 형성될 수도 있다.Referring to FIG. 13, in a single
이에, 제1 애퍼처(1310)를 통해 유입된 파장의 광선이 이미지 센서(도면에는 도시되지 않음)에서 처리되어 획득되는 제1 이미지와 제2 애퍼처(1320)를 통해 유입된 파장의 광선이 이미지 센서에서 처리되어 획득되는 제2 이미지 사이에는 시차가 존재하게 된다.Accordingly, the light rays of the wavelengths introduced through the first image and the
따라서, 적어도 하나의 프로세서는, 복수의 애퍼처들(1310, 1320) 중 어느 하나의 애퍼처(제1 애퍼처(1310))를 통해 유입된 파장의 광선을 처리하여 획득되는 제1 이미지 및 복수의 애퍼처들(1310, 1320) 중 상기 어느 하나의 애퍼처(제1 애퍼처(1310))를 제외한 나머지 어느 하나의 애퍼처(제2 애퍼처(1320))를 통해 유입된 파장의 광선을 처리하여 획득되는 제2 이미지 사이의 시차를 이용하여, 내시현미경 및 오브젝트 사이의 거리(보다 정확하게는, 이미지 센서(1300) 및 오브젝트 사이의 거리)를 산출할 수 있다. 이처럼 복수의 애퍼처들(1310, 1320) 구조에서 이미지들 사이의 시차를 이용하여 깊이를 산출하는 방식은 도 1을 참조하여 상술되었으므로 생략하기로 한다.Accordingly, the at least one processor may include a plurality of first images and a plurality of first images obtained by processing light beams having a wavelength introduced through one of the plurality of
이와 같이, 다른 일 실시예에 따른 내시현미경은 단일 광학계 상에 서로 어긋난 중심 위치를 가진 채 서로 다른 파장의 광선을 각각 유입시키는 복수의 애퍼처들(1310, 1320)이 형성된 카메라 시스템을 포함함으로써, 카메라 시스템의 단면적을 최소화하여 소형화를 도모하는 동시에, 이미지 센서에서 획득한 두 개의 이미지들(제1 이미지 및 제2 이미지) 사이의 시차를 이용하여 내시현미경 및 오브젝트 사이의 거리(깊이)를 산출하는 기술을 제안할 수 있다.As described above, the endoscope microscope according to another embodiment includes a camera system in which a plurality of
도 14는 일 실시예에 따라 서브 픽셀 구조가 적용된 내시현미경의 카메라 시스템을 설명하기 위한 도면이다.14 is a diagram for describing a camera system of an endoscope microscope to which a subpixel structure is applied, according to an exemplary embodiment.
도 14를 참조하면, 일 실시예에 따라 서브 픽셀 구조가 적용된 내시현미경의 카메라 시스템에 포함되는 이미지 센서(1400)는, 복수의 파장들을 갖는 광선을 파장 별로 처리하는 복수의 픽셀들(1411, 1412, 1413, 1414)로 구성되는 픽셀 세트(1410)를 적어도 한 개 이상 구비할 수 있다. 도면에는, 이미지 센서(1400)가 9개의 픽셀 세트를 구비하는 경우로 도시되었으며, 픽셀 세트(1410)에 R 픽셀, G 픽셀, B 픽셀, W 픽셀이 포함되는 경우로 도시되었으나, 이에 제한되거나 한정되지는 않는다. 즉, 픽셀 세트(1410)는 R, G, B, W 픽셀들로 구성되는 대신에, W, R, B, W 픽셀들로 구성될 수도 있다.Referring to FIG. 14, an
특히, 이미지 센서(1400)에서 픽셀 세트(1410)에 포함되는 복수의 픽셀들(1411, 1412, 1413, 1414) 중 어느 하나의 픽셀(예컨대, 제4 픽셀(1414))은 서브 픽셀 구조를 가질 수 있다. 보다 상세하게, 제4 픽셀(1414)은 광선의 다발 중 중심부의 광선이 입사되는 중심 서브 픽셀(1414-1) 및 광선의 다발 중 주변부의 광선이 입사되는 적어도 하나의 주변 서브 픽셀(1414-2, 1414-3)을 포함할 수 있다. 이하, 서브 픽셀 구조를 갖는 제4 픽셀(1414)이 두 개의 주변 서브 픽셀들(1414-2, 1414-3)을 포함하는 경우로 설명되나 이에 제한되거나 한정되지 않는다.In particular, any one of the plurality of
따라서, 중심 서브 픽셀(1414-1)을 통해 획득되는 제1 이미지는 주변 서브 픽셀들(1414-2, 1414-3)을 통해 획득된 신호가 병합되어 생성되는 제2 이미지보다 더 선명하게 된다. 즉, 중심 서브 픽셀(1414-1)을 통해 획득되는 제1 이미지 및 주변 서브 픽셀들(1414-2, 1414-3)을 통해 획득된 신호가 병합되어 생성되는 제2 이미지 사이에는 블러 차이가 존재하게 된다.Therefore, the first image acquired through the center subpixel 1414-1 is sharper than the second image generated by merging the signals acquired through the peripheral subpixels 1414-2 and 1414-3. That is, a blur difference exists between a first image acquired through the center subpixel 1414-1 and a second image generated by merging a signal obtained through the neighboring subpixels 1414-2 and 1414-3. Done.
이에, 적어도 하나의 프로세서는, 중심 서브 픽셀(1414-1)을 통해 획득되는 제1 이미지 및 주변 서브 픽셀들(1414-2, 1414-3)을 통해 획득된 신호가 병합되어 생성되는 제2 이미지 사이의 블러 변화를 이용하여, 내시현미경 및 오브젝트 사이의 거리(보다 정확하게는, 이미지 센서(1400) 및 오브젝트 사이의 거리)를 산출할 수 있다.Accordingly, the at least one processor may be configured to merge the first image acquired through the center subpixel 1414-1 and the signal obtained through the neighboring subpixels 1414-2 and 1414-3. The blur change between the two may be used to calculate the distance between the endoscope microscope and the object (more precisely, the distance between the
또한, 두 개의 주변 서브 픽셀들(1414-2, 1414-3) 중 제1 주변 서브 픽셀(1414-2)의 중심과 과 제2 주변 서브 픽셀(1414-3)의 중심이 수평, 수직 또는 대각 방향으로 어긋나게 배치됨에 따라, 두 개의 주변 서브 픽셀들(1414-2, 1414-3) 중 제1 주변 서브 픽셀(1414-2)을 통해 획득되는 신호를 이용하여 생성되는 제3 이미지와 제2 주변 서브 픽셀(1414-3)을 통해 획득되는 신호를 이용하여 생성되는 제4 이미지 사이에는 수평, 수직 또는 대각 시차가 존재하게 된다.Also, the center of the first peripheral subpixel 1414-2 and the center of the second peripheral subpixel 1414-3 of the two peripheral subpixels 1414-2 and 1414-3 are horizontal, vertical, or diagonal. In a direction displaced, a third image and a second peripheral generated using a signal acquired through the first peripheral subpixel 1414-2 of the two peripheral subpixels 1414-2 and 1414-3. Horizontal, vertical, or diagonal parallaxes exist between the fourth images generated by using signals acquired through the subpixels 1414-3.
따라서, 적어도 하나의 프로세서는, 제1 주변 서브 픽셀(1414-2)을 통해 획득되는 제3 이미지 및 제2 주변 서브 픽셀(1414-3)을 통해 획득되는 제4 이미지 사이의 시차를 이용하여 내시현미경 및 오브젝트 사이의 거리(보다 정확하게는, 이미지 센서(1400) 및 오브젝트 사이의 거리)를 산출할 수 있다.Accordingly, the at least one processor may use the parallax between the third image acquired through the first peripheral subpixel 1414-2 and the fourth image acquired through the second peripheral subpixel 1414-3. The distance between the microscope and the object (more precisely, the distance between the
이와 같이, 일 실시예에 따른 내시현미경은 단일 광학계 아래 서브 픽셀 구조가 적용된 이미지 센서(1400)를 포함하는 카메라 시스템을 활용함으로써, 카메라 시스템의 단면적을 최소화하여 소형화를 도모하는 동시에, 이미지 센서(1400)에서 획득한 두 개의 이미지들(제1 이미지 및 제2 이미지) 사이의 블러 변화 또는 시차를 이용하여 내시현미경 및 오브젝트 사이의 거리(깊이)를 산출하는 기술을 제안할 수 있다.As such, the endoscope according to an embodiment utilizes a camera system including an
도 15는 일 실시예에 따른 내시현미경의 동작 방법을 나타낸 흐름도이다. 이하, 내시현미경의 동작 방법은 도 2 내지 14를 참조하여 상술된 카메라 시스템 및 적어도 하나의 프로세서를 포함하는 내시현미경에 의해 수행될 수 있다.15 is a flowchart illustrating a method of operating an endoscope according to an embodiment. Hereinafter, the method of operating the endoscope may be performed by the endoscope including the camera system described above with reference to FIGS. 2 to 14 and at least one processor.
도 15를 참조하면, 단계(S1510)에서, 단일 광학계와 함께 카메라 시스템을 구성하는 이미지 센서는, 내시현미경의 주변에 위치하는 오브젝트를 촬영한 두 개의 이미지들을 획득할 수 있다.Referring to FIG. 15, in operation S1510, an image sensor constituting a camera system together with a single optical system may acquire two images photographing an object located around the endoscope microscope.
이후, 단계(S1520)에서, 적어도 하나의 프로세서는 두 개의 이미지들을 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다.In operation S1520, at least one processor may calculate a distance between the endoscope microscope and the object using the two images.
이 때, 이미지 센서는 복수의 파장들을 갖는 광선을 파장 별로 처리하는 복수의 픽셀들로 구성되는 픽셀 세트를 적어도 한 개 이상 포함할 수 있으며, 실시예에 따라 OPA가 적용되거나, PA가 적용되거나, 서브 픽셀 구조가 적용될 수 있다. 또한, 실시예에 따라서는 카메라 시스템을 구성하는 단일 광학계에는 DA가 형성될 수 있다.In this case, the image sensor may include at least one pixel set consisting of a plurality of pixels for processing a light ray having a plurality of wavelengths for each wavelength, and according to an embodiment, OPA is applied, PA is applied, The sub pixel structure can be applied. Further, according to the embodiment, DA may be formed in a single optical system constituting the camera system.
따라서, 이미지 센서에 OPA가 적용된 경우, 단계(S1510)에서 이미지 센서는, 복수의 픽셀들 중 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 제1 이미지를 획득하고, 복수의 픽셀들 중 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 제외한 나머지 어느 하나의 픽셀(오프셋 마스크가 상부에 배치되지 않은 픽셀)을 통해 제2 이미지를 획득할 수 있으며, 단계(S1520)에서 적어도 하나의 프로세서는, 제1 이미지 및 제2 이미지 사이의 시차를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다.Therefore, when OPA is applied to the image sensor, in operation S1510, the image sensor acquires a first image through any one of the plurality of pixels in which an offset mask is disposed, and the offset among the plurality of pixels. The second image may be acquired through any one of the pixels (pixels in which the offset mask is not disposed above) except for any one pixel in which the mask is disposed thereon, and in operation S1520, the at least one processor may include: The distance between the endoscope microscope and the object may be calculated using the parallax between the first image and the second image.
또한, 이미지 센서에 픽셀 세트가 복수 개 포함되는 경우, 복수의 픽셀 세트들 중 어느 하나의 픽셀 세트에서 어느 하나의 픽셀의 상부에 배치되는 오프셋 마스크의 OPA는, 복수의 픽셀 세트들 중 어느 하나의 픽셀 세트를 제외한 나머지 어느 하나의 픽셀 세트에서 어느 하나의 픽셀의 상부에 배치되는 오프셋 마스크의 OPA의 중심과 어긋난 중심 위치를 가질 수 있다. 이에, 단계(S1510)에서 이미지 센서는, 복수의 픽셀 세트들 중 어느 하나의 픽셀 세트에서 오프셋 마스크가 상부에 배치되는 하나의 픽셀을 통해 제1 이미지를 획득하고, 복수의 픽셀 세트들 중 나머지 어느 하나의 픽셀 세트에서 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 제2 이미지를 획득할 수 있으며, 단계(S1020)에서 적어도 하나의 프로세서는, 제1 이미지 및 제2 이미지 사이의 시차를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다.In addition, when the image sensor includes a plurality of pixel sets, the OPA of the offset mask disposed on top of any one pixel in any one of the plurality of pixel sets may be set to any one of the plurality of pixel sets. In any one pixel set except for the pixel set, the pixel may have a center position that is offset from the center of the OPA of the offset mask disposed above the one pixel. Accordingly, in operation S1510, the image sensor acquires a first image through one pixel in which an offset mask is disposed in any one of the plurality of pixel sets, and the remaining one of the plurality of pixel sets. In one pixel set, a second image may be acquired through one pixel having an offset mask disposed thereon, and in operation S1020, the at least one processor may use a parallax between the first image and the second image. The distance between the endoscope microscope and the object can be calculated.
또한, 이미지 센서에 PA가 적용된 경우, 단계(S1510)에서 이미지 센서는, 복수의 픽셀들 중 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 제1 이미지를 획득하고, 복수의 픽셀들 중 상기 어느 하나의 픽셀을 제외한 나머지 어느 하나의 픽셀을 통해 제2 이미지를 획득할 수 있으며, 단계(S1520)에서 적어도 하나의 프로세서는 제1 이미지 및 제2 이미지 사이의 블러 변화를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다.In addition, when the PA is applied to the image sensor, in step S1510, the image sensor acquires a first image through any one of the plurality of pixels in which a mask is disposed, and any of the plurality of pixels. The second image may be acquired through any one pixel except for one pixel, and in operation S1520, the at least one processor may use the blurring between the first image and the second image between the endoscope and the object. The distance of can be calculated.
또한, 이미지 센서에 서브 픽셀 구조가 적용된 경우, 단계(S1510)에서 이미지 센서는, 서브 픽셀 구조를 갖는 어느 하나의 픽셀 중 중심부의 광선이 입사되는 중심 서브 픽셀을 통해 제1 이미지를 획득하고, 상기 어느 하나의 픽셀 중 주변부의 광선이 입사되는 주변 서브 픽셀을 통해 획득된 신호를 병합하여 제2 이미지를 생성할 수 있으며, 단계(S1520)에서 적어도 하나의 프로세서는 제1 이미지 및 제2 이미지 사이의 블러 변화를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다. 더 나아가, 적어도 하나의 주변 서브 픽셀이 복수 개 구비되는 경우, 단계(S1510)에서 이미지 센서는, 복수의 주변 서브 픽셀들 중 어느 하나의 주변 서브 픽셀을 통해 제3 이미지를 획득하고 복수의 주변 서브 픽셀들 중 상기 어느 하나의 주변 서브 픽셀을 제외한 나머지 어느 하나의 주변 서브 픽셀을 통해 제4 이미지를 획득할 수 있으며, 단계(S1520)에서 적어도 하나의 프로세서는, 제3 이미지 및 제4 이미지 사이의 시차를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다.In addition, when a subpixel structure is applied to the image sensor, in operation S1510, the image sensor acquires a first image through a center subpixel through which a light ray at a center of the pixels of the subpixel structure is incident. A second image may be generated by merging a signal obtained through a peripheral subpixel into which a ray of a periphery of one of the pixels is incident, and in operation S1520, at least one processor may generate a second image between the first image and the second image. The blur variation can be used to calculate the distance between the endoscope microscope and the object. Furthermore, when a plurality of at least one peripheral subpixel is provided, in operation S1510, the image sensor acquires a third image through one of the plurality of peripheral subpixels and the plurality of peripheral subpixels. The fourth image may be acquired through any one of the peripheral subpixels other than the one of the peripheral subpixels among the pixels, and in operation S1520, the at least one processor may generate a fourth image between the third image and the fourth image. The parallax may be used to calculate the distance between the endoscope microscope and the object.
또한, 이미지 센서가 일반적인 구조로 형성되며 단일 광학계 상에 DA가 적용된 경우(OPA, PA 또는 서브 픽셀 구조가 적용되지 않은 채, 서로 다른 파장의 광선을 유입시키되 서로 일치하는 중심 위치를 갖는 복수의 애퍼처들이 단일 광학계 상에 형성되는 경우), 단계(S1510)에서 이미지 센서는, 복수의 애퍼처들 중 어느 하나의 애퍼처를 통과하는 파장의 광선에 기초하여 제1 이미지를 획득하고 복수의 애퍼처들 중 상기 어느 하나의 애퍼처를 제외한 나머지 어느 하나의 애퍼처를 통과하는 파장의 광선에 기초하여 제2 이미지를 획득할 수 있으며, 단계(S1520)에서 적어도 하나의 프로세서는 제1 이미지 및 제2 이미지 사이의 블러 변화를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다.In addition, when the image sensor is formed in a general structure and DA is applied on a single optical system (OPA, PA, or a sub-pixel structure is not applied, a plurality of plural arcs having a central position coinciding with each other by introducing light beams of different wavelengths) are applied. If the apertures are formed on a single optical system), in step S1510 the image sensor acquires a first image based on the light of the wavelength passing through the aperture of any one of the plurality of apertures and the plurality of apertures. Among them, a second image may be acquired based on a light ray having a wavelength passing through any one of the apertures except for the aperture, and in operation S1520, the at least one processor may generate the first image and the second image. The blur variation between the images can be used to calculate the distance between the endoscope microscope and the object.
반면에, 이미지 센서가 일반적인 구조로 형성되며 단일 광학계 상에 DA가 적용된 경우(OPA, PA 또는 서브 픽셀 구조가 적용되지 않은 채, 서로 다른 파장의 광선을 유입시키되 서로 어긋난 중심 위치를 갖는 복수의 애퍼처들이 단일 광학계 상에 형성되는 경우), 단계(S1510)에서 이미지 센서는, 복수의 애퍼처들 중 어느 하나의 애퍼처를 통과하는 파장의 광선에 기초하여 제1 이미지를 획득하고 복수의 애퍼처들 중 상기 어느 하나의 애퍼처를 제외한 나머지 어느 하나의 애퍼처를 통과하는 파장의 광선에 기초하여 제2 이미지를 획득할 수 있으며, 단계(S1520)에서 적어도 하나의 프로세서는 제1 이미지 및 제2 이미지 사이의 시차를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다.On the other hand, when the image sensor is formed in a general structure and DA is applied on a single optical system (OPA, PA, or sub-pixel structure is not applied, a plurality of plural arcs having different center positions in which light rays of different wavelengths are introduced but are shifted from each other) If the apertures are formed on a single optical system), in step S1510 the image sensor acquires a first image based on the light of the wavelength passing through the aperture of any one of the plurality of apertures and the plurality of apertures. Among them, a second image may be acquired based on a light ray having a wavelength passing through any one of the apertures except for the aperture, and in operation S1520, the at least one processor may generate the first image and the second image. The parallax between the images can be used to calculate the distance between the endoscope microscope and the object.
도면에는 도시되지 않았지만, 내시현미경의 동작 방법은 단계들(S1510 내지 S1520) 이외에, 내시현미경 및 오브젝트 사이의 거리에 기초하여 내시현미경과 오브젝트 사이의 충돌을 회피하기 위한 동작을 수행하는 단계를 더 포함할 수도 있다. 이처럼 충돌을 회피하기 위한 동작은, 내시현미경 및 오브젝트 사이의 거리를 이용하여 내시현미경이 오브젝트에 충돌하지 않도록 자동으로 내시현미경을 조작하는 것일 수 있으나, 이에 제한되거나 한정되지 않는다. 일례로, 충돌을 회피하기 위한 동작은 내시현미경 및 오브젝트 사이의 거리가 내시현미경을 조작하는 사용자에게 제공되고, 이에 응답하여 사용자로부터 입력되는 조작에 따라 수행될 수도 있다.Although not shown in the drawings, the method of operating the endoscope further includes performing operations for avoiding collision between the endoscope microscope and the object based on the distance between the endoscope microscope and the object, in addition to steps S1510 to S1520. You may. As such, the operation for avoiding the collision may be to automatically manipulate the endoscope so that the endoscope does not collide with the object by using the distance between the endoscope and the object, but is not limited thereto. In one example, the operation for avoiding the collision may be performed according to an operation input from the user in response to the distance between the endoscope microscope and the object being provided to the user operating the endoscope microscope.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the devices and components described in the embodiments may include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), a programmable PLU (programmable). It can be implemented using one or more general purpose or special purpose computers, such as logic units, microprocessors, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of explanation, one processing device may be described as being used, but one of ordinary skill in the art will appreciate that the processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the above, and may configure the processing device to operate as desired, or process independently or collectively. You can command the device. The software and / or data may be embodied in any type of machine, component, physical device, computer storage medium or device in order to be interpreted by or provided to the processing device or to provide instructions or data to the processing device. have. The software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded on a computer readable medium. In this case, the medium may be to continuously store a computer executable program or to temporarily store the program for execution or download. In addition, the medium may be a variety of recording means or storage means in the form of a single or several hardware combined, not limited to a medium directly connected to any computer system, it may be distributed on the network. Examples of media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, And ROM, RAM, flash memory, and the like, configured to store program instructions. In addition, examples of another medium may include a recording medium or a storage medium managed by an app store that distributes an application, a site that supplies or distributes various software, a server, or the like.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described by the limited embodiments and the drawings as described above, various modifications and variations are possible to those skilled in the art from the above description. For example, the described techniques may be performed in a different order than the described method, and / or components of the described systems, structures, devices, circuits, etc. may be combined or combined in a different form than the described method, or other components. Or, even if replaced or substituted by equivalents, an appropriate result can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are within the scope of the claims that follow.
Claims (24)
상기 내시현미경의 선단부에 위치한 채, 단일 광학계 및 이미지 센서-상기 이미지 센서는 복수의 파장들을 갖는 광선을 파장 별로 처리하는 복수의 픽셀들로 구성되는 픽셀 세트를 적어도 한 개 이상 포함함-로 구성되는 카메라 시스템; 및
상기 이미지 센서에서 획득된 적어도 두 개의 이미지들을 이용하여 상기 내시현미경 및 상기 내시현미경의 주변에 위치하는 오브젝트 사이의 거리를 산출하는 적어도 하나의 프로세서
를 포함하고,
상기 이미지 센서의 상기 픽셀 세트 내에 포함되는 복수의 픽셀들 중 어느 하나의 픽셀의 상부에는,
상기 어느 하나의 픽셀의 중심과 어긋난 중심 위치를 갖는 OPA(Offset Pixel Aperture)가 형성된 오프셋 마스크가 배치되고,
상기 적어도 하나의 프로세서는,
상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 획득된 이미지 및 상기 복수의 픽셀들 중 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 제외한 나머지 어느 하나의 픽셀을 통해 획득된 이미지 사이의 시차(Disparity)를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단안 카메라를 이용한 내시현미경.In an endoscope microscope using a monocular camera,
A single optical system and an image sensor, the image sensor including at least one pixel set consisting of a plurality of pixels for processing wavelengths of light having a plurality of wavelengths, positioned at the distal end of the endoscope microscope Camera system; And
At least one processor configured to calculate a distance between the endoscope microscope and an object located around the endoscope microscope using at least two images acquired by the image sensor
Including,
On top of any one of a plurality of pixels included in the pixel set of the image sensor,
An offset mask having an Offset Pixel Aperture (OPA) having a center position deviated from the center of the one pixel is disposed,
The at least one processor,
Between an image obtained through one pixel on which the offset mask is disposed and an image obtained through any other pixel except any one of the plurality of pixels on which the offset mask is disposed An endoscope microscope using a monocular camera for calculating the distance between the endoscope microscope and the object using a disparity.
상기 오프셋 마스크에 형성된 OPA는,
상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀의 중심을 기준으로 수평, 수직 또는 대각 중 어느 하나의 방향으로 오프셋되는 중심 위치를 갖는, 단안 카메라를 이용한 내시현미경.The method of claim 1,
OPA formed in the offset mask,
An endoscope using a monocular camera having a center position that is offset in the direction of any one of the horizontal, vertical or diagonal with respect to the center of any one pixel disposed above the offset mask.
상기 오프셋 마스크는,
상기 복수의 픽셀들 중 최대 광 투과(Maximum light transmission) 특성을 갖는 어느 하나의 픽셀의 상부에 배치되는, 단안 카메라를 이용한 내시현미경.The method of claim 1,
The offset mask is,
An endoscope microscope using a monocular camera, disposed on top of any one of the plurality of pixels having the maximum light transmission characteristics.
상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀은,
상기 복수의 픽셀들 중 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 제외한 나머지 어느 하나의 픽셀에서 처리하는 광선의 파장과 구별되는 다른 파장의 광선을 처리하는, 단안 카메라를 이용한 내시현미경.The method of claim 1,
One pixel in which the offset mask is disposed above,
An endoscope microscope using a monocular camera, wherein the offset mask of the plurality of pixels processes a light beam having a wavelength different from that of the light beam to be processed in any one pixel except for any one pixel disposed above.
상기 이미지 센서에 상기 픽셀 세트가 복수 개 포함되는 경우, 상기 복수의 픽셀 세트들 중 어느 하나의 픽셀 세트에서 어느 하나의 픽셀의 상부에 배치되는 오프셋 마스크의 OPA는,
상기 복수의 픽셀 세트들 중 상기 어느 하나의 픽셀 세트를 제외한 나머지 어느 하나의 픽셀 세트에서 어느 하나의 픽셀의 상부에 배치되는 오프셋 마스크의 OPA의 중심과 어긋난 중심 위치를 갖는, 단안 카메라를 이용한 내시현미경.The method of claim 1,
When the plurality of pixel sets are included in the image sensor, the OPA of the offset mask disposed on any one pixel in any one of the plurality of pixel sets is
An endoscope microscope using a monocular camera having a center position deviating from the center of an OPA of an offset mask disposed above any one pixel in any other pixel set except the one of the plurality of pixel sets .
상기 적어도 하나의 프로세서는,
상기 어느 하나의 픽셀 세트에서 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 획득된 이미지 및 상기 나머지 어느 하나의 픽셀 세트에서 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 획득된 이미지 사이의 시차를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는, 단안 카메라를 이용한 내시현미경.The method of claim 6,
The at least one processor,
An image obtained through one pixel on which the offset mask is disposed in the set of one pixel and an image obtained through any pixel on which the offset mask is disposed in the other set of pixels An endoscope microscope using a monocular camera, to calculate the distance between the endoscope microscope and the object using the parallax between.
상기 OPA는,
원, 타원, 삼각, 사각 또는 다각 중 어느 하나의 형태를 갖도록 상기 오프셋 마스크 상에 형성되는, 단안 카메라를 이용한 내시현미경.The method of claim 1,
The OPA,
An endoscope microscope using a monocular camera, formed on the offset mask to have any one of a circle, an ellipse, a triangle, a square or a polygon.
상기 내시현미경의 선단부에 위치한 채, 단일 광학계 및 이미지 센서-상기 이미지 센서는 복수의 파장들을 갖는 광선을 파장 별로 처리하는 복수의 픽셀들로 구성되는 픽셀 세트를 적어도 한 개 이상 포함함-로 구성되는 카메라 시스템; 및
상기 이미지 센서에서 획득된 적어도 두 개의 이미지들을 이용하여 상기 내시현미경 및 상기 내시현미경의 주변에 위치하는 오브젝트 사이의 거리를 산출하는 적어도 하나의 프로세서
를 포함하고,
상기 이미지 센서의 상기 픽셀 세트 내에 포함되는 복수의 픽셀들 중 어느 하나의 픽셀은,
광선의 다발 중 중심부의 광선이 입사되는 중심 서브 픽셀 및 상기 광선의 다발 중 주변부의 광선이 입사되는 적어도 하나의 주변 서브 픽셀을 포함하고,
상기 적어도 하나의 프로세서는,
상기 중심 서브 픽셀을 통해 획득된 이미지 및 상기 적어도 하나의 주변 서브 픽셀을 통해 획득된 신호가 병합되어 생성되는 이미지 사이의 블러 변화를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는, 단안 카메라를 이용한 내시현미경.In an endoscope microscope using a monocular camera,
A single optical system and an image sensor, the image sensor including at least one pixel set consisting of a plurality of pixels for processing wavelengths of light having a plurality of wavelengths, positioned at the distal end of the endoscope microscope Camera system; And
At least one processor configured to calculate a distance between the endoscope microscope and an object located around the endoscope microscope using at least two images acquired by the image sensor
Including,
Any one of a plurality of pixels included in the pixel set of the image sensor,
A central subpixel into which a light ray in the center of the bundle of light beams is incident, and at least one peripheral subpixel into which a light ray in the periphery of the bundle of light rays is incident;
The at least one processor,
A monocular camera for calculating a distance between the endoscope microscope and the object using a blurring change between an image obtained through the center subpixel and an image obtained by merging a signal obtained through the at least one peripheral subpixel. Endoscopic Microscope.
상기 적어도 하나의 프로세서는,
상기 적어도 하나의 주변 서브 픽셀이 복수 개 구비되는 경우, 상기 복수의 주변 서브 픽셀들을 통해 각각 획득된 이미지들 사이의 시차를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는, 단안 카메라를 이용한 내시현미경.The method of claim 12,
The at least one processor,
When the at least one peripheral subpixel is provided in plural, the distance between the endoscope microscope and the object is calculated using the parallax between the images acquired through the plurality of peripheral subpixels, respectively. Endoscopic Microscope.
상기 적어도 하나의 프로세서는,
상기 내시현미경 및 상기 오브젝트 사이의 거리에 기초하여 상기 내시현미경과 상기 오브젝트의 충돌을 회피하기 위한 동작을 수행하는, 단안 카메라를 이용한 내시현미경.The method according to any one of claims 1 to 12,
The at least one processor,
And an operation to avoid collision between the endoscope microscope and the object based on the distance between the endoscope microscope and the object.
상기 카메라 시스템은,
상기 내시현미경에서 자유롭게 굴곡 또는 만곡 가능한 만곡부의 선단에 위치하는, 단안 카메라를 이용한 내시현미경.The method according to any one of claims 1 to 12,
The camera system,
An endoscope microscope using a monocular camera, which is located at the tip of the curved portion that can be bent or curved freely in the endoscope microscope.
상기 내시현미경의 선단부에 위치한 카메라 시스템을 단일 광학계와 함께 구성하는 이미지 센서-상기 이미지 센서는 복수의 파장들을 갖는 광선을 파장 별로 처리하는 복수의 픽셀들로 구성되는 픽셀 세트를 적어도 한 개 이상 포함함-에서, 상기 내시현미경의 주변에 위치하는 오브젝트를 촬영한 두 개의 이미지들을 획득하는 단계; 및
적어도 하나의 프로세서에서, 상기 두 개의 이미지들을 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계
를 포함하고,
상기 이미지 센서의 상기 픽셀 세트 내에 포함되는 복수의 픽셀들 중 어느 하나의 픽셀의 상부에는,
상기 어느 하나의 픽셀의 중심과 어긋난 중심 위치를 갖는 OPA(Offset Pixel Aperture)가 형성된 오프셋 마스크가 배치되고,
상기 두 개의 이미지들을 획득하는 단계는,
상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 제1 이미지를 획득하는 단계; 및
상기 복수의 픽셀들 중 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 제외한 나머지 어느 하나의 픽셀을 통해 제2 이미지를 획득하는 단계
를 포함하며,
상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계는,
상기 제1 이미지 및 상기 제2 이미지 사이의 시차(Disparity)를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계
를 포함하는 단안 카메라를 이용한 내시현미경의 동작 방법.In the operation method of the endoscope microscope using a monocular camera,
An image sensor constituting a camera system located at the distal end of the endoscope microscope with a single optical system, the image sensor including at least one pixel set consisting of a plurality of pixels for processing a light beam having a plurality of wavelengths for each wavelength Obtaining at least two images of an object located around the endoscope microscope; And
Calculating, at at least one processor, the distance between the endoscope microscope and the object using the two images
Including,
On top of any one of a plurality of pixels included in the pixel set of the image sensor,
An offset mask having an Offset Pixel Aperture (OPA) having a center position deviated from the center of the one pixel is disposed,
Acquiring the two images,
Acquiring a first image through any one pixel on which the offset mask is disposed; And
Acquiring a second image through any one of the plurality of pixels except for any one pixel in which the offset mask is disposed.
Including;
Calculating the distance between the endoscope microscope and the object,
Calculating a distance between the endoscope microscope and the object by using a disparity between the first image and the second image
Operation method of the endoscope microscope using a monocular camera comprising a.
상기 이미지 센서에 상기 픽셀 세트가 복수 개 포함되는 경우, 상기 복수의 픽셀 세트들 중 어느 하나의 픽셀 세트에서 어느 하나의 픽셀의 상부에 배치되는 오프셋 마스크의 OPA는,
상기 복수의 픽셀 세트들 중 상기 어느 하나의 픽셀 세트를 제외한 나머지 어느 하나의 픽셀 세트에서 어느 하나의 픽셀의 상부에 배치되는 오프셋 마스크의 OPA의 중심과 어긋난 중심 위치를 갖고,
상기 두 개의 이미지들을 획득하는 단계는,
상기 어느 하나의 픽셀 세트에서 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 제1 이미지를 획득하는 단계; 및
상기 나머지 어느 하나의 픽셀 세트에서 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 제2 이미지를 획득하는 단계
를 포함하고,
상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계는,
상기 제1 이미지 및 상기 제2 이미지 사이의 시차를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계
를 포함하는 단안 카메라를 이용한 내시현미경의 동작 방법.The method of claim 16,
When the plurality of pixel sets are included in the image sensor, the OPA of the offset mask disposed on any one pixel in any one of the plurality of pixel sets is
Has a center position deviated from the center of the OPA of the offset mask disposed on top of any one pixel in any one of the plurality of pixel sets except for any one of the pixel sets;
Acquiring the two images,
Acquiring a first image through any one pixel in which said offset mask is disposed on said one pixel set; And
Acquiring a second image through any one pixel in which the offset mask is disposed on the remaining one pixel set;
Including,
Calculating the distance between the endoscope microscope and the object,
Calculating a distance between the endoscope microscope and the object by using a parallax between the first image and the second image
Operation method of the endoscope microscope using a monocular camera comprising a.
상기 내시현미경의 선단부에 위치한 카메라 시스템을 단일 광학계와 함께 구성하는 이미지 센서-상기 이미지 센서는 복수의 파장들을 갖는 광선을 파장 별로 처리하는 복수의 픽셀들로 구성되는 픽셀 세트를 적어도 한 개 이상 포함함-에서, 상기 내시현미경의 주변에 위치하는 오브젝트를 촬영한 두 개의 이미지들을 획득하는 단계; 및
적어도 하나의 프로세서에서, 상기 두 개의 이미지들을 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계
를 포함하고,
상기 이미지 센서의 상기 픽셀 세트 내에 포함되는 복수의 픽셀들 중 어느 하나의 픽셀은,
광선의 다발 중 중심부의 광선이 입사되는 중심 서브 픽셀 및 상기 광선의 다발 중 주변부의 광선이 입사되는 적어도 하나의 주변 서브 픽셀을 포함하고,
상기 두 개의 이미지들을 획득하는 단계는,
상기 중심 서브 픽셀을 통해 제1 이미지를 획득하는 단계; 및
상기 적어도 하나의 주변 서브 픽셀을 통해 획득된 신호를 병합하여 제2 이미지를 생성하는 단계
를 포함하며,
상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계는,
상기 제1 이미지 및 상기 제2 이미지 사이의 블러 변화를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계
를 포함하는 단안 카메라를 이용한 내시현미경의 동작 방법.In the operation method of the endoscope microscope using a monocular camera,
An image sensor constituting a camera system located at the distal end of the endoscope microscope with a single optical system, the image sensor including at least one pixel set consisting of a plurality of pixels for processing a light beam having a plurality of wavelengths for each wavelength Obtaining at least two images of an object located around the endoscope microscope; And
Calculating, at at least one processor, the distance between the endoscope microscope and the object using the two images
Including,
Any one of a plurality of pixels included in the pixel set of the image sensor,
A central subpixel into which a light ray in the center of the bundle of light beams is incident, and at least one peripheral subpixel into which a light ray in the periphery of the bundle of light rays is incident;
Acquiring the two images,
Acquiring a first image through the center subpixel; And
Generating a second image by merging a signal acquired through the at least one peripheral subpixel
Including;
Calculating the distance between the endoscope microscope and the object,
Calculating a distance between the endoscope microscope and the object using a blur change between the first image and the second image
Operation method of the endoscope microscope using a monocular camera comprising a.
상기 제2 이미지를 생성하는 단계는,
상기 적어도 하나의 주변 서브 픽셀이 복수 개 구비되는 경우, 상기 복수의 주변 서브 픽셀들 중 어느 하나의 주변 서브 픽셀을 통해 제3 이미지를 획득하는 단계; 및
상기 복수의 주변 서브 픽셀들 중 상기 어느 하나의 주변 서브 픽셀을 제외한 나머지 어느 하나의 주변 서브 픽셀을 통해 제4 이미지를 획득하는 단계
를 포함하고,
상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계는,
상기 제3 이미지 및 상기 제4 이미지 사이의 시차를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계
를 포함하는 단안 카메라를 이용한 내시현미경의 동작 방법.The method of claim 22,
Generating the second image,
Acquiring a third image through any one of the plurality of peripheral subpixels when the at least one peripheral subpixel is provided; And
Acquiring a fourth image through any one of the plurality of neighboring subpixels except for one neighboring subpixel;
Including,
Calculating the distance between the endoscope microscope and the object,
Calculating a distance between the endoscope microscope and the object by using a parallax between the third image and the fourth image
Operation method of the endoscope microscope using a monocular camera comprising a.
상기 내시현미경 및 상기 오브젝트 사이의 거리에 기초하여 상기 내시현미경과 상기 오브젝트의 충돌을 회피하기 위한 동작을 수행하는 단계
를 더 포함하는 단안 카메라를 이용한 내시현미경의 동작 방법.The method according to any one of claims 16 to 22,
Performing an operation for avoiding collision between the endoscope microscope and the object based on a distance between the endoscope microscope and the object
Operation method of the endoscope microscope using a monocular camera further comprising.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180025797A KR102060880B1 (en) | 2018-03-05 | 2018-03-05 | Endomicroscopy using single lens camera and operating method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180025797A KR102060880B1 (en) | 2018-03-05 | 2018-03-05 | Endomicroscopy using single lens camera and operating method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190105357A KR20190105357A (en) | 2019-09-17 |
KR102060880B1 true KR102060880B1 (en) | 2020-02-11 |
Family
ID=68070284
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180025797A KR102060880B1 (en) | 2018-03-05 | 2018-03-05 | Endomicroscopy using single lens camera and operating method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102060880B1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019130593B3 (en) * | 2019-11-13 | 2021-05-20 | Karl Storz Se & Co. Kg | Stereo endoscopes |
KR102148127B1 (en) * | 2020-02-14 | 2020-08-26 | 재단법인 다차원 스마트 아이티 융합시스템 연구단 | Camera system with complementary pixlet structure |
KR102148128B1 (en) | 2020-03-06 | 2020-08-26 | 재단법인 다차원 스마트 아이티 융합시스템 연구단 | Camera system with complementary pixlet structure |
KR102177400B1 (en) * | 2020-03-09 | 2020-11-11 | 재단법인 다차원 스마트 아이티 융합시스템 연구단 | Camera system for improving depth accuracy with low complexity and operation method thereof |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101672669B1 (en) * | 2015-11-23 | 2016-11-03 | 재단법인 다차원 스마트 아이티 융합시스템 연구단 | Multi aperture camera system using disparity |
KR101764504B1 (en) * | 2015-12-15 | 2017-08-03 | 재단법인 다차원 스마트 아이티 융합시스템 연구단 | Multi aperture camera for adaptively selecting blur channel and opertation method thereof |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102087595B1 (en) * | 2013-02-28 | 2020-03-12 | 삼성전자주식회사 | Endoscope system and control method thereof |
-
2018
- 2018-03-05 KR KR1020180025797A patent/KR102060880B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101672669B1 (en) * | 2015-11-23 | 2016-11-03 | 재단법인 다차원 스마트 아이티 융합시스템 연구단 | Multi aperture camera system using disparity |
KR101764504B1 (en) * | 2015-12-15 | 2017-08-03 | 재단법인 다차원 스마트 아이티 융합시스템 연구단 | Multi aperture camera for adaptively selecting blur channel and opertation method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR20190105357A (en) | 2019-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102060880B1 (en) | Endomicroscopy using single lens camera and operating method thereof | |
KR102103983B1 (en) | Light field image capturing apparatus including shifted microlens array | |
TWI670521B (en) | Near-eye display system, rendering system, and method for use in near-eye display system | |
JP6010895B2 (en) | Imaging device | |
KR20160021968A (en) | Method and apparatus for processing image | |
JP6702796B2 (en) | Image processing device, imaging device, image processing method, and image processing program | |
JP7462890B2 (en) | Method and system for calibrating a plenoptic camera system - Patents.com | |
JP6600356B2 (en) | Image processing apparatus, endoscope apparatus, and program | |
KR102010487B1 (en) | Skin diagnosis apparatus | |
JP2013145979A (en) | Image generating method, imaging device, display device, program, and storage medium | |
KR102025012B1 (en) | Multi pixel micro lens pixel array and camera system for solving color mix and operating method thereof | |
US20170345176A1 (en) | Depth extracting camera system using multi focus image and operation method thereof | |
KR102018984B1 (en) | Camera system for increasing baseline | |
JP2016001853A (en) | Image processing system, imaging device, control method, and program | |
JP2015188251A (en) | Image processing system, imaging apparatus, image processing method, and program | |
JP2017060010A5 (en) | ||
JP6467997B2 (en) | Light field imaging system | |
US11051680B1 (en) | Endoscope stereo imaging device | |
KR102148128B1 (en) | Camera system with complementary pixlet structure | |
JP2018186508A (en) | Image processing apparatus | |
JP4205533B2 (en) | 3D image construction method, 3D object distance derivation method | |
US20140354774A1 (en) | Image processing device, image processing method, stereoscopic image display device, and assistant system | |
JPWO2015128918A1 (en) | Imaging device | |
KR102465492B1 (en) | Camera system with offset pixel aperture for acquiring horizontal and vertical disparity | |
KR102148127B1 (en) | Camera system with complementary pixlet structure |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |