KR102060880B1 - Endomicroscopy using single lens camera and operating method thereof - Google Patents

Endomicroscopy using single lens camera and operating method thereof Download PDF

Info

Publication number
KR102060880B1
KR102060880B1 KR1020180025797A KR20180025797A KR102060880B1 KR 102060880 B1 KR102060880 B1 KR 102060880B1 KR 1020180025797 A KR1020180025797 A KR 1020180025797A KR 20180025797 A KR20180025797 A KR 20180025797A KR 102060880 B1 KR102060880 B1 KR 102060880B1
Authority
KR
South Korea
Prior art keywords
pixel
image
endoscope
endoscope microscope
microscope
Prior art date
Application number
KR1020180025797A
Other languages
Korean (ko)
Other versions
KR20190105357A (en
Inventor
경종민
Original Assignee
재단법인 다차원 스마트 아이티 융합시스템 연구단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 다차원 스마트 아이티 융합시스템 연구단 filed Critical 재단법인 다차원 스마트 아이티 융합시스템 연구단
Priority to KR1020180025797A priority Critical patent/KR102060880B1/en
Publication of KR20190105357A publication Critical patent/KR20190105357A/en
Application granted granted Critical
Publication of KR102060880B1 publication Critical patent/KR102060880B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/042Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by a proximal camera, e.g. a CCD camera

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Endoscopes (AREA)

Abstract

단일 광학계 및 이미지 센서로 구성되는 카메라 시스템이 장착된 단안 카메라를 이용한 내시현미경 및 그 동작 방법이 개시된다. 일 실시예에 따른 단안 카메라를 이용한 내시현미경은, 상기 내시현미경의 선단부에 위치한 채, 단일 광학계 및 이미지 센서-상기 이미지 센서는 복수의 파장들을 갖는 광선을 파장 별로 처리하는 복수의 픽셀들로 구성되는 픽셀 세트를 적어도 한 개 이상 포함함-로 구성되는 카메라 시스템; 및 상기 이미지 센서에서 획득된 적어도 두 개의 이미지들을 이용하여 상기 내시현미경 및 상기 내시현미경의 주변에 위치하는 오브젝트 사이의 거리를 산출하는 적어도 하나의 프로세서를 포함한다.An endoscope microscope using a monocular camera equipped with a camera system composed of a single optical system and an image sensor and a method of operating the same are disclosed. An endoscope microscope using a monocular camera according to an embodiment is located in the distal end of the endoscope microscope, a single optical system and an image sensor-the image sensor is composed of a plurality of pixels for processing a light beam having a plurality of wavelengths for each wavelength A camera system comprising at least one pixel set; And at least one processor configured to calculate a distance between the endoscope microscope and an object located around the endoscope microscope using at least two images acquired by the image sensor.

Description

단안 카메라를 이용한 내시현미경 및 그 동작 방법{ENDOMICROSCOPY USING SINGLE LENS CAMERA AND OPERATING METHOD THEREOF}Endoscopic Microscope Using Monocular Camera and its Operation Method {ENDOMICROSCOPY USING SINGLE LENS CAMERA AND OPERATING METHOD THEREOF}

아래의 설명은 장기나 체강 내부를 직접 관찰할 수 있는 내시현미경에 관한 것으로, 보다 상세하게는 단안 카메라를 이용한 내시현미경 및 그 동작 방법에 대한 기술이다.The following description relates to an endoscope that can directly observe the inside of the organ or body cavity, and more specifically, an endoscope microscope using a monocular camera and a technique for operating the same.

내시현미경은 수술을 하거나 절개를 하지 않고서는 직접 병변을 볼 수 없는 신체의 내부에 삽입되어 장기나 체강 내부를 직접 볼 수 있게 만든 의료 기기이다. 이러한 내시현미경은 이미지 처리 기술의 발전에 따라 내시현미경에 장착된 카메라 시스템으로 체강 내의 각 부위를 촬영한 후, 촬영된 이미지를 통해 각 부위의 병변을 자세하게 관찰할 수 있게 되었다. 이러한 내시현미경에 대한 기술은 공개특허공보 제10-2014-0116341호에 개시되어 있다.An endoscopic microscope is a medical device that is inserted into the body where the lesion cannot be seen directly without surgery or incision. In accordance with the development of image processing technology, the endoscope microscope photographs each part of the body cavity with a camera system mounted on the endoscope microscope, and then the lesions of each part can be observed in detail through the captured image. A technique for such an endoscope is disclosed in Korean Patent Laid-Open Publication No. 10-2014-0116341.

그러나 기존의 내시현미경은 2차원 이미지만을 제공하기 때문에, 색상이 주변 조직과 유사하나 높이가 다른 병변의 경우 2차원 이미지만으로 정확히 검출하기 어려운 문제점이 있다.However, because the conventional endoscope only provides a two-dimensional image, the lesion is difficult to accurately detect only the two-dimensional image in the color similar to the surrounding tissue, but the height is different.

이에, 내시현미경에서 이미지에 깊이(Depth)가 적용된 3차원 이미지를 촬영할 수 있는 기술이 요구되고 있는 실정이다.Accordingly, there is a demand for a technology capable of capturing a 3D image having a depth applied to the image in an endoscope microscope.

일 실시예들은 깊이가 적용된 3차원 이미지를 획득할 수 있는 내시현미경 및 그 동작 방법을 제안한다.One embodiment proposes an endoscope microscope capable of obtaining a three-dimensional image to which the depth is applied, and a method of operating the same.

특히, 일 실시예들은 내시현미경에 포함되는 카메라 시스템이 단일 광학계 및 이미지 센서를 포함하는 구조를 갖도록 함으로써, 카메라 시스템의 단면적을 최소화하여 소형화를 도모하는 동시에, 이미지 센서에서 획득한 두 개의 이미지들을 이용하여 내시현미경 및 내시현미경의 주변에 위치하는 오브젝트 사이의 거리(깊이)를 산출하는 기술을 제안한다.In particular, one embodiment uses the two images obtained from the image sensor while minimizing the cross-sectional area of the camera system by minimizing the cross-sectional area of the camera system by having a structure including a single optical system and an image sensor included in the endoscope microscope A technique for calculating the distance (depth) between an endoscope microscope and an object located around the endoscope microscope is proposed.

일 실시예에 따르면, 단안 카메라를 이용한 내시현미경은, 상기 내시현미경의 선단부에 위치한 채, 단일 광학계 및 이미지 센서-상기 이미지 센서는 복수의 파장들을 갖는 광선을 파장 별로 처리하는 복수의 픽셀들로 구성되는 픽셀 세트를 적어도 한 개 이상 포함함-로 구성되는 카메라 시스템; 및 상기 이미지 센서에서 획득된 적어도 두 개의 이미지들을 이용하여 상기 내시현미경 및 상기 내시현미경의 주변에 위치하는 오브젝트 사이의 거리를 산출하는 적어도 하나의 프로세서를 포함한다.According to one embodiment, the endoscope microscope using a monocular camera, a single optical system and an image sensor, the image sensor is composed of a plurality of pixels for processing a light beam having a plurality of wavelengths for each wavelength while being located at the tip of the endoscope microscope A camera system comprising at least one set of pixels; And at least one processor configured to calculate a distance between the endoscope microscope and an object located around the endoscope microscope using at least two images acquired by the image sensor.

일 측면에 따르면, 상기 이미지 센서의 상기 픽셀 세트 내에 포함되는 복수의 픽셀들 중 어느 하나의 픽셀의 상부에는, 상기 어느 하나의 픽셀의 중심과 어긋난 중심 위치를 갖는 OPA(Offset Pixel Aperture)가 형성된 오프셋 마스크가 배치되고, 상기 적어도 하나의 프로세서는, 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 획득된 이미지 및 상기 복수의 픽셀들 중 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 제외한 나머지 어느 하나의 픽셀을 통해 획득된 이미지 사이의 시차(Disparity)를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출할 수 있다.According to an aspect of the present invention, an offset formed with an Offset Pixel Aperture (OPA) having a center position deviating from the center of the one pixel, on one of the plurality of pixels included in the pixel set of the image sensor. A mask is disposed, and the at least one processor excludes an image obtained through any one pixel on which the offset mask is disposed and any one pixel on which the offset mask is disposed among the plurality of pixels. The distance between the endoscope microscope and the object may be calculated by using a disparity between the images acquired through the other one pixel.

다른 측면에 따르면, 상기 오프셋 마스크에 형성된 OPA는, 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀의 중심을 기준으로 수평, 수직 또는 대각 중 어느 하나의 방향으로 오프셋되는 중심 위치를 가질 수 있다.According to another aspect, the OPA formed in the offset mask may have a center position that is offset in any one direction horizontally, vertically or diagonally with respect to the center of one pixel on which the offset mask is disposed.

또 다른 측면에 따르면, 상기 오프셋 마스크는, 상기 복수의 픽셀들 중 최대 광 투과(Maximum light transmission) 특성을 갖는 어느 하나의 픽셀의 상부에 배치될 수 있다.According to another aspect, the offset mask may be disposed on top of any one of the pixels having the maximum light transmission characteristics of the plurality of pixels.

또 다른 측면에 따르면, 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀은, 상기 복수의 픽셀들 중 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 제외한 나머지 어느 하나의 픽셀에서 처리하는 광선의 파장과 구별되는 다른 파장의 광선을 처리할 수 있다.According to another aspect of the present invention, any one pixel on which the offset mask is disposed may include a beam of light processed by any one pixel except for any one pixel among the plurality of pixels, on which the offset mask is disposed. It is possible to process light rays of different wavelengths that are distinct from the wavelength.

또 다른 측면에 따르면, 상기 이미지 센서에 상기 픽셀 세트가 복수 개 포함되는 경우, 상기 복수의 픽셀 세트들 중 어느 하나의 픽셀 세트에서 어느 하나의 픽셀의 상부에 배치되는 오프셋 마스크의 OPA는, 상기 복수의 픽셀 세트들 중 상기 어느 하나의 픽셀 세트를 제외한 나머지 어느 하나의 픽셀 세트에서 어느 하나의 픽셀의 상부에 배치되는 오프셋 마스크의 OPA의 중심과 어긋난 중심 위치를 가질 수 있다.According to another aspect, when the image sensor includes a plurality of pixel sets, an OPA of an offset mask disposed on an upper part of one pixel in any one of the plurality of pixel sets may include the plurality of pixel sets. The pixel set may have a center position that is offset from the center of the OPA of the offset mask disposed above any one pixel in any one of the pixel sets except for the one pixel set.

또 다른 측면에 따르면, 상기 적어도 하나의 프로세서는, 상기 어느 하나의 픽셀 세트에서 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 획득된 이미지 및 상기 나머지 어느 하나의 픽셀 세트에서 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 획득된 이미지 사이의 시차를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출할 수 있다.According to another aspect, the at least one processor further comprises: an image obtained through any one pixel in which the offset mask is disposed in the one pixel set and the offset mask in the other one pixel set; The distance between the endoscope microscope and the object may be calculated by using a parallax between images acquired through one pixel disposed above.

또 다른 측면에 따르면, 상기 OPA는, 원, 타원, 삼각, 사각 또는 다각 중 어느 하나의 형태를 갖도록 상기 오프셋 마스크 상에 형성될 수 있다.According to another aspect, the OPA may be formed on the offset mask to have any one of a circle, an ellipse, a triangle, a square, or a polygon.

또 다른 측면에 따르면, 상기 이미지 센서의 상기 픽셀 세트 내에 포함되는 복수의 픽셀들 중 어느 하나의 픽셀의 상부에는, 광선의 다발 중 주변부의 광선을 차단하고 중심부의 광선만을 상기 어느 하나의 픽셀에 유입시키도록 마스크-상기 마스크에는 상기 어느 하나의 픽셀과 일치하는 중심 위치를 갖는 PA(Pixel Aperture)가 형성됨-가 배치되고, 상기 적어도 하나의 프로세서는, 상기 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 획득된 이미지 및 상기 복수의 픽셀들 중 상기 마스크가 상부에 배치되는 어느 하나의 픽셀을 제외한 나머지 어느 하나의 픽셀을 통해 획득된 이미지 사이의 블러(Blur) 변화를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출할 수 있다.According to another aspect, an upper portion of any one of the plurality of pixels included in the pixel set of the image sensor blocks a light ray at a periphery of the bundle of light rays and injects only a central light ray into the one pixel. And a mask (Pixel Aperture) having a center position coincident with any one of the pixels is disposed in the mask, and the at least one processor is configured to select one pixel on which the mask is disposed. The endoscopic microscope and the object using a blur change between an image obtained through the image and an image obtained through any one of the pixels except for any one of the pixels on which the mask is disposed. The distance between them can be calculated.

또 다른 측면에 따르면, 상기 단일 광학계에는, 서로 다른 파장의 광선을 각각 유입시키는 복수의 애퍼처들-상기 복수의 애퍼처들은 서로 일치하는 중심 위치를 가짐-이 형성되고, 상기 적어도 하나의 프로세서는, 상기 복수의 애퍼처들 중 어느 하나의 애퍼처를 통해 유입된 파장의 광선을 처리하여 획득되는 이미지 및 상기 복수의 애퍼처들 중 상기 어느 하나의 애퍼처를 제외한 나머지 어느 하나의 애퍼처를 통해 유입된 파장의 광선을 처리하여 획득되는 이미지 사이의 블러 변화를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출할 수 있다.According to another aspect, the single optical system is formed with a plurality of apertures, each of which introduces light rays of different wavelengths, the plurality of apertures having a central position coinciding with each other, wherein the at least one processor is An image obtained by processing a light ray having a wavelength introduced through any one of the plurality of apertures, and any one of the plurality of apertures except the one of the plurality of apertures. The distance between the endoscope microscope and the object may be calculated by using a blurring change between images obtained by processing a light beam having an incoming wavelength.

또 다른 측면에 따르면, 상기 단일 광학계에는, 서로 다른 파장의 광선을 각각 유입시키는 복수의 애퍼처들-상기 복수의 애퍼처들은 서로 어긋난 중심 위치를 가짐-이 형성되고, 상기 적어도 하나의 프로세서는, 상기 복수의 애퍼처들 중 어느 하나의 애퍼처를 통해 유입된 파장의 광선을 처리하여 획득되는 이미지 및 상기 복수의 애퍼처들 중 상기 어느 하나의 애퍼처를 제외한 나머지 어느 하나의 애퍼처를 통해 유입된 파장의 광선을 처리하여 획득되는 이미지 사이의 시차를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출할 수 있다.According to another aspect, the single optical system is formed with a plurality of apertures, each of which injects light rays of different wavelengths, the plurality of apertures having a center position deviated from each other, the at least one processor, An image obtained by processing a light ray having a wavelength introduced through one of the plurality of apertures and an inflow through any one of the plurality of apertures except the one of the plurality of apertures The distance between the endoscope microscope and the object may be calculated using the parallax between the images obtained by processing light rays having a predetermined wavelength.

또 다른 측면에 따르면, 상기 이미지 센서의 상기 픽셀 세트 내에 포함되는 복수의 픽셀들 중 어느 하나의 픽셀은, 광선의 다발 중 중심부의 광선이 입사되는 중심 서브 픽셀 및 상기 광선의 다발 중 주변부의 광선이 입사되는 적어도 하나의 주변 서브 픽셀을 포함하고, 상기 적어도 하나의 프로세서는, 상기 중심 서브 픽셀을 통해 획득된 이미지 및 상기 적어도 하나의 주변 서브 픽셀을 통해 획득된 신호가 병합되어 생성되는 이미지 사이의 블러 변화를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출할 수 있다.According to another aspect, any one of a plurality of pixels included in the pixel set of the image sensor may include a center sub-pixel to which a light ray at a center of the bundle of rays is incident and a light ray at a periphery of the bundle of rays. And at least one peripheral sub-pixel incident, wherein the at least one processor is configured to blur between an image obtained through the center sub-pixel and an image obtained by merging a signal obtained through the at least one peripheral sub-pixel. The change may be used to calculate the distance between the endoscope microscope and the object.

또 다른 측면에 따르면, 상기 적어도 하나의 프로세서는, 상기 적어도 하나의 주변 서브 픽셀이 복수 개 구비되는 경우, 상기 복수의 주변 서브 픽셀들을 통해 각각 획득된 이미지들 사이의 시차를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출할 수 있다.According to another aspect, the at least one processor, when the at least one peripheral sub-pixel is provided with, the endoscope microscope and by using the parallax between the images respectively obtained through the plurality of peripheral sub-pixels The distance between the objects can be calculated.

또 다른 측면에 따르면, 상기 적어도 하나의 프로세서는, 상기 내시현미경 및 상기 오브젝트 사이의 거리에 기초하여 상기 내시현미경과 상기 오브젝트의 충돌을 회피하기 위한 동작을 수행할 수 있다.According to another aspect, the at least one processor may perform an operation for avoiding collision between the endoscope microscope and the object based on a distance between the endoscope microscope and the object.

또 다른 측면에 따르면, 상기 카메라 시스템은, 상기 내시현미경에서 자유롭게 굴곡 또는 만곡 가능한 만곡부의 선단에 위치할 수 있다.According to another aspect, the camera system may be located at the tip of the curved portion that can be bent or curved freely in the endoscope microscope.

일 실시예에 따르면, 단안 카메라를 이용한 내시현미경의 동작 방법은, 상기 내시현미경의 선단부에 위치한 카메라 시스템을 단일 광학계와 함께 구성하는 이미지 센서-상기 이미지 센서는 복수의 파장들을 갖는 광선을 파장 별로 처리하는 복수의 픽셀들로 구성되는 픽셀 세트를 적어도 한 개 이상 포함함-에서, 상기 내시현미경의 주변에 위치하는 오브젝트를 촬영한 두 개의 이미지들을 획득하는 단계; 및 적어도 하나의 프로세서에서, 상기 두 개의 이미지들을 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계를 포함한다,According to an embodiment, the method of operating an endoscope microscope using a monocular camera may include an image sensor constituting a camera system located at the distal end of the endoscope microscope together with a single optical system, wherein the image sensor processes light rays having a plurality of wavelengths for each wavelength. At least one pixel set consisting of a plurality of pixels, the method comprising: obtaining two images of an object located around the endoscope microscope; And calculating, at at least one processor, the distance between the endoscope microscope and the object using the two images,

일 측면에 따르면, 상기 이미지 센서의 상기 픽셀 세트 내에 포함되는 복수의 픽셀들 중 어느 하나의 픽셀의 상부에는, 상기 어느 하나의 픽셀의 중심과 어긋난 중심 위치를 갖는 OPA(Offset Pixel Aperture)가 형성된 오프셋 마스크가 배치되고, 상기 두 개의 이미지들을 획득하는 단계는, 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 제1 이미지를 획득하는 단계; 및 상기 복수의 픽셀들 중 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 제외한 나머지 어느 하나의 픽셀을 통해 제2 이미지를 획득하는 단계를 포함하며, 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계는, 상기 제1 이미지 및 상기 제2 이미지 사이의 시차(Disparity)를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계를 포함할 수 있다.According to an aspect of the present invention, an offset formed with an Offset Pixel Aperture (OPA) having a center position deviating from the center of the one pixel, on one of the plurality of pixels included in the pixel set of the image sensor. A mask is disposed, and the obtaining of the two images comprises: obtaining a first image through any pixel on which the offset mask is disposed; And acquiring a second image through any one of the pixels except for any one of the plurality of pixels in which the offset mask is disposed, and calculating a distance between the endoscope microscope and the object. The calculating may include calculating a distance between the endoscope microscope and the object by using a disparity between the first image and the second image.

다른 측면에 따르면, 상기 이미지 센서에 상기 픽셀 세트가 복수 개 포함되는 경우, 상기 복수의 픽셀 세트들 중 어느 하나의 픽셀 세트에서 어느 하나의 픽셀의 상부에 배치되는 오프셋 마스크의 OPA는, 상기 복수의 픽셀 세트들 중 상기 어느 하나의 픽셀 세트를 제외한 나머지 어느 하나의 픽셀 세트에서 어느 하나의 픽셀의 상부에 배치되는 오프셋 마스크의 OPA의 중심과 어긋난 중심 위치를 갖고, 상기 두 개의 이미지들을 획득하는 단계는, 상기 어느 하나의 픽셀 세트에서 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 제1 이미지를 획득하는 단계; 및 상기 나머지 어느 하나의 픽셀 세트에서 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 제2 이미지를 획득하는 단계를 포함하고, 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계는, 상기 제1 이미지 및 상기 제2 이미지 사이의 시차를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계를 포함할 수 있다.According to another aspect, when the image sensor includes a plurality of pixel sets, an OPA of an offset mask disposed above any one pixel in any one of the plurality of pixel sets includes: Obtaining the two images has a center position deviating from the center of the OPA of the offset mask disposed on top of any one pixel in any one of the pixel sets other than the one of the pixel sets. Acquiring a first image through any one pixel in which the offset mask is disposed above the one pixel set; And acquiring a second image through one pixel in which the offset mask is disposed in the other one pixel set, and calculating the distance between the endoscope microscope and the object comprises: Computing the distance between the endoscope microscope and the object using the parallax between the first image and the second image.

또 다른 측면에 따르면, 상기 이미지 센서의 상기 픽셀 세트 내에 포함되는 복수의 픽셀들 중 어느 하나의 픽셀의 상부에는, 광선의 다발 중 주변부의 광선을 차단하고 중심부의 광선만을 상기 어느 하나의 픽셀에 유입시키도록 마스크-상기 마스크에는 상기 어느 하나의 픽셀과 일치하는 중심 위치를 갖는 PA(Pixel Aperture)가 형성됨-가 배치되고, 상기 두 개의 이미지들을 획득하는 단계는, 상기 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 제1 이미지를 획득하는 단계; 및 상기 복수의 픽셀들 중 상기 마스크가 상부에 배치되는 어느 하나의 픽셀을 제외한 나머지 어느 하나의 픽셀을 통해 제2 이미지를 획득하는 단계를 포함하며, 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계는, 상기 제1 이미지 및 상기 제2 이미지 사이의 블러 변화를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계를 포함할 수 있다.According to another aspect, an upper portion of any one of the plurality of pixels included in the pixel set of the image sensor blocks a light ray at a periphery of the bundle of light rays and injects only a central light ray into the one pixel. A mask (Pixel Aperture) having a center position coincident with any one of the pixels is disposed thereon, and obtaining the two images comprises: a mask having the mask disposed thereon. Acquiring a first image through a pixel of; And acquiring a second image through any one of the plurality of pixels except for any one of the pixels on which the mask is disposed, and calculating a distance between the endoscope microscope and the object. The method may include calculating a distance between the endoscope microscope and the object by using a blur change between the first image and the second image.

또 다른 측면에 따르면, 상기 단일 광학계에는, 서로 다른 파장의 광선을 각각 유입시키는 복수의 애퍼처들-상기 복수의 애퍼처들은 서로 일치하는 중심 위치를 가짐-이 형성되고, 상기 두 개의 이미지들을 획득하는 단계는, 상기 복수의 애퍼처들 중 어느 하나의 애퍼처를 통과하는 파장의 광선에 기초하여 제1 이미지를 획득하는 단계; 및 상기 복수의 애퍼처들 중 상기 어느 하나의 애퍼처를 제외한 나머지 어느 하나의 애퍼처를 통과하는 파장의 광선에 기초하여 제2 이미지를 획득하는 단계를 포함하며, 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계는, 상기 제1 이미지 및 상기 제2 이미지 사이의 블러 변화를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계를 포함할 수 있다.According to another aspect, the single optical system is formed with a plurality of apertures, each of which injects light rays of different wavelengths, the plurality of apertures having a central position coinciding with each other, and obtaining the two images. The method may include obtaining a first image based on a light ray having a wavelength passing through an aperture of any one of the plurality of apertures; And acquiring a second image based on a light ray having a wavelength passing through any one of the plurality of apertures except the one of the plurality of apertures, wherein the second image is between the endoscope microscope and the object. The calculating of the distance may include calculating a distance between the endoscope microscope and the object by using a blur change between the first image and the second image.

또 다른 측면에 따르면, 상기 단일 광학계에는, 서로 다른 파장의 광선을 각각 유입시키는 복수의 애퍼처들-상기 복수의 애퍼처들은 서로 어긋난 중심 위치를 가짐-이 형성되고, 상기 두 개의 이미지들을 획득하는 단계는, 상기 복수의 애퍼처들 중 어느 하나의 애퍼처를 통과하는 파장의 광선에 기초하여 제1 이미지를 획득하는 단계; 및 상기 복수의 애퍼처들 중 상기 어느 하나의 애퍼처를 제외한 나머지 어느 하나의 애퍼처를 통과하는 파장의 광선에 기초하여 제2 이미지를 획득하는 단계를 포함하며, 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계는, 상기 제1 이미지 및 상기 제2 이미지 사이의 시차를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계를 포함할 수 있다.According to another aspect, the single optical system is formed with a plurality of apertures, each of which injects light rays of different wavelengths, the plurality of apertures having a displaced center position, and acquires the two images. The method may include obtaining a first image based on a light ray having a wavelength passing through an aperture of any one of the plurality of apertures; And acquiring a second image based on a light ray having a wavelength passing through any one of the plurality of apertures except the one of the plurality of apertures, wherein the second image is between the endoscope microscope and the object. The calculating of the distance may include calculating a distance between the endoscope microscope and the object by using a parallax between the first image and the second image.

또 다른 측면에 따르면, 상기 이미지 센서의 상기 픽셀 세트 내에 포함되는 복수의 픽셀들 중 어느 하나의 픽셀은, 광선의 다발 중 중심부의 광선이 입사되는 중심 서브 픽셀 및 상기 광선의 다발 중 주변부의 광선이 입사되는 적어도 하나의 주변 서브 픽셀을 포함하고, 상기 두 개의 이미지들을 획득하는 단계는, 상기 중심 서브 픽셀을 통해 제1 이미지를 획득하는 단계; 및 상기 적어도 하나의 주변 서브 픽셀을 통해 획득된 신호를 병합하여 제2 이미지를 생성하는 단계를 포함하며, 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계는, 상기 제1 이미지 및 상기 제2 이미지 사이의 블러 변화를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계를 포함할 수 있다.According to another aspect, any one of a plurality of pixels included in the pixel set of the image sensor may include a center sub-pixel to which a light ray at a center of the bundle of rays is incident and a light ray at a periphery of the bundle of rays. Comprising at least one peripheral sub-pixel incident, wherein acquiring the two images comprises: acquiring a first image through the central sub-pixel; And generating a second image by merging the signals acquired through the at least one peripheral subpixel, wherein calculating the distance between the endoscope microscope and the object comprises: the first image and the second image; Computing the distance between the endoscope microscope and the object using the blurring change between the images.

또 다른 측면에 따르면, 상기 제2 이미지를 생성하는 단계는, 상기 적어도 하나의 주변 서브 픽셀이 복수 개 구비되는 경우, 상기 복수의 주변 서브 픽셀들 중 어느 하나의 주변 서브 픽셀을 통해 제3 이미지를 획득하는 단계; 및 상기 복수의 주변 서브 픽셀들 중 상기 어느 하나의 주변 서브 픽셀을 제외한 나머지 어느 하나의 주변 서브 픽셀을 통해 제4 이미지를 획득하는 단계를 포함하고, 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계는, 상기 제3 이미지 및 상기 제4 이미지 사이의 시차를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계를 포함할 수 있다.According to another aspect, the generating of the second image may include generating a third image through one of the plurality of peripheral subpixels when the at least one peripheral subpixel is provided. Obtaining; And acquiring a fourth image through any one of the plurality of peripheral subpixels except for one of the peripheral subpixels, and calculating a distance between the endoscope microscope and the object. The step may include calculating a distance between the endoscope microscope and the object by using a parallax between the third image and the fourth image.

또 다른 측면에 따르면, 상기 단안 카메라를 이용한 내시현미경의 동작 방법은 상기 내시현미경 및 상기 오브젝트 사이의 거리에 기초하여 상기 내시현미경과 상기 오브젝트의 충돌을 회피하기 위한 동작을 수행하는 단계를 더 포함할 수 있다.According to another aspect, the method of operating the endoscope microscope using the monocular camera may further include performing an operation for avoiding collision between the endoscope microscope and the object based on a distance between the endoscope microscope and the object. Can be.

일 실시예들은 깊이가 적용된 3차원 이미지를 획득할 수 있는 내시현미경 및 그 동작 방법을 제안할 수 있다.One embodiment may propose an endoscope capable of obtaining a three-dimensional image to which the depth is applied, and an operation method thereof.

특히, 일 실시예들은 내시현미경에 포함되는 카메라 시스템이 단일 광학계 및 이미지 센서를 포함하는 구조를 갖도록 함으로써, 카메라 시스템의 단면적을 최소화하여 소형화를 도모하는 동시에, 이미지 센서에서 획득한 두 개의 이미지들을 이용하여 내시현미경 및 내시현미경의 주변에 위치하는 오브젝트 사이의 거리(깊이)를 산출하는 기술을 제안할 수 있다.In particular, one embodiment uses the two images obtained from the image sensor while minimizing the cross-sectional area of the camera system by minimizing the cross-sectional area of the camera system by having a structure including a single optical system and an image sensor included in the endoscope microscope Therefore, a technique for calculating a distance (depth) between an endoscope microscope and an object located around the endoscope microscope can be proposed.

도 1은 두 개의 이미지들 사이의 시차를 이용하여 이미지 센서와 피사체 사이의 거리를 산출하는 원리를 설명하기 위한 도면이다.
도 2 내지 4는 일 실시예에 따라 OPA(Offset Pixel Aperture)가 적용된 내시현미경의 카메라 시스템에서 내시현미경 및 오브젝트 사이의 거리를 산출하는 원리를 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 일 실시예에 따른 내시현미경의 개략적인 구조를 나타낸 도면이다.
도 6은 일 실시예에 따른 내시현미경에 장착된 카메라 시스템의 개략적인 구조를 나타낸 도면이다.
도 7은 일 실시예에 따라 OPA가 적용된 내시현미경의 카메라 시스템을 설명하기 위한 도면이다.
도 8은 다른 일 실시예에 따라 OPA가 적용된 내시현미경의 카메라 시스템을 설명하기 위한 도면이다.
도 9는 또 다른 일 실시예에 따라 OPA가 적용된 내시현미경의 카메라 시스템을 설명하기 위한 도면이다.
도 10은 도 9에 도시된 내시현미경의 카메라 시스템에서 획득한 두 개의 이미지들을 나타낸 도면이다.
도 11은 일 실시예에 따라 PA(Pixel Aperture)가 적용된 내시현미경의 카메라 시스템을 설명하기 위한 도면이다.
도 12는 일 실시예에 따라 DA(Dual Aperture)가 적용된 내시현미경의 카메라 시스템을 설명하기 위한 도면이다.
도 13은 다른 일 실시예에 따라 DA가 적용된 내시현미경의 카메라 시스템을 설명하기 위한 도면이다.
도 14는 일 실시예에 따라 서브 픽셀 구조가 적용된 내시현미경의 카메라 시스템을 설명하기 위한 도면이다.
도 15는 일 실시예에 따른 내시현미경의 동작 방법을 나타낸 흐름도이다.
FIG. 1 is a diagram for explaining a principle of calculating a distance between an image sensor and a subject by using parallax between two images.
2 to 4 are diagrams for describing a principle of calculating a distance between an endoscope microscope and an object in a camera system of an endoscope microscope to which an offset pixel aperture (OPA) is applied, according to an exemplary embodiment.
5 is a diagram illustrating a schematic structure of an endoscope according to an embodiment.
6 is a diagram illustrating a schematic structure of a camera system mounted on an endoscope according to an embodiment.
7 is a diagram for describing a camera system of an endoscope microscope to which an OPA is applied, according to an exemplary embodiment.
8 is a diagram for describing a camera system of an endoscope microscope to which OPA is applied, according to another exemplary embodiment.
9 is a diagram for describing a camera system of an endoscope microscope to which an OPA is applied, according to another embodiment.
FIG. 10 is a diagram illustrating two images acquired by the camera system of the endoscope microscope shown in FIG. 9.
FIG. 11 is a diagram for describing a camera system of an endoscope microscope to which a pixel aperture (PA) is applied, according to an exemplary embodiment.
12 is a diagram for describing a camera system of an endoscope microscope to which a dual aperture (DA) is applied, according to an exemplary embodiment.
13 is a diagram for describing a camera system of an endoscope microscope to which DA is applied, according to another exemplary embodiment.
14 is a diagram for describing a camera system of an endoscope microscope to which a subpixel structure is applied, according to an exemplary embodiment.
15 is a flowchart illustrating a method of operating an endoscope according to an embodiment.

이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 그러나 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited or limited by the embodiments. Also, like reference numerals in the drawings denote like elements.

또한, 본 명세서에서 사용되는 용어(Terminology)들은 본 발명의 바람직한 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 시청자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 예컨대, 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 또한, 본 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.In addition, terms used in the present specification are terms used to properly express preferred embodiments of the present invention, which may vary depending on the intention of the viewer, the operator, or customs in the field to which the present invention belongs. Therefore, the definitions of the terms should be made based on the contents throughout the specification. For example, in this specification, the singular also includes the plural unless specifically stated otherwise in the text. Also, as used herein, “comprises” and / or “comprising” refers to one or more other components, steps, operations and / or elements. It does not exclude the presence or addition of devices.

또한, 본 발명의 다양한 실시 예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 기술적 사상 및 범위를 벗어나지 않으면서 다른 실시 예로 구현될 수 있다. 또한, 제시된 각각의 실시예 범주에서 개별 구성요소의 위치, 배치, 또는 구성은 본 발명의 기술적 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다.In addition, it should be understood that various embodiments of the present invention are different from one another, but need not be mutually exclusive. For example, specific shapes, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention with respect to one embodiment. In addition, it should be understood that the position, arrangement, or configuration of individual components in each of the exemplary embodiments presented may be changed without departing from the spirit and scope of the present invention.

깊이가 적용된 3차원 이미지를 획득하기 위해서는, 2차원 이미지에 포함되는 픽셀들 각각의 깊이가 산출되어야 한다. 이 때, 2차원 이미지에 포함되는 픽셀들 각각의 깊이를 산출하는 종래의 방식으로는 촬영 대상이 되는 피사체(오브젝트)에 레이저를 조사하고 그 빛이 돌아오는 시간을 측정하는 TOF(time of flight) 방식, 두 개 이상의 카메라 시스템들에서 각각 획득한 이미지들 사이의 시차를 이용하여 깊이를 산출하는 스테레오(depth from stereo) 방식, 단일 카메라 시스템에서 단일 광학계에 형성된 복수의 애퍼처들 각각을 통과한 광 신호를 처리하여 획득한 이미지들 사이의 시차를 이용하여 깊이를 산출하는 방식(애퍼처를 이용한 시차 차이 방식), 단일 카메라 시스템에서 단일 광학계에 형성된 복수의 애퍼처들 각각을 통과한 광 신호를 처리하여 획득한 이미지들 사이의 블러 변화를 이용하여 깊이를 산출하는 방식 등이 있다.In order to obtain a three-dimensional image to which the depth is applied, the depth of each pixel included in the two-dimensional image should be calculated. In this case, a conventional method of calculating the depth of each pixel included in the two-dimensional image includes a time of flight (TOF) for irradiating a laser to a subject (object) to be photographed and measuring the time that the light is returned. Method, a depth from stereo method that calculates depth by using parallax between images acquired in two or more camera systems, and light passing through each of a plurality of apertures formed in a single optical system in a single camera system. A method of calculating depth using parallax between images obtained by processing a signal (a parallax difference method using apertures), and processing an optical signal passing through each of a plurality of apertures formed in a single optical system in a single camera system There is a method of calculating the depth by using the blurring change between the acquired images.

한편, 일 실시예에 따른 내시현미경에 포함되는 카메라 시스템은 단일 광학계 및 이미지 센서를 포함하는 구조를 가짐으로써, 카메라 시스템의 단면적을 최소화하여 소형화를 도모하는 동시에, 이미지 센서에서 획득한 두 개의 이미지들을 이용하여 내시현미경의 이미지 센서 및 내시현미경의 주변에 위치하는 피사체 사이의 거리(깊이)를 산출하는 방식을 사용한다.On the other hand, the camera system included in the endoscope microscope according to an embodiment has a structure including a single optical system and an image sensor, minimizing the cross-sectional area of the camera system, and at the same time the two images obtained from the image sensor By using the method to calculate the distance (depth) between the image sensor of the endoscope microscope and the subject located around the endoscope microscope.

특히, 일 실시예에 따른 내시현미경에 포함되는 카메라 시스템은 단안 카메라에서 활용할 수 있는 다양한 깊이 산출 방식들을 기반으로 내시현미경 및 피사체 사이의 거리를 산출한다. 보다 상세하게, 내시현미경에 포함되는 카메라 시스템은 OPA(Offset Pixel Aperture) 기반 깊이 산출 방식, PA(Pixel Aperture) 기반 깊이 산출 방식, DA(Dual Aperture) 기반 깊이 산출 방식, 서브 픽셀 구조 기반 깊이 산출 방식을 이용하여 내시현미경 및 피사체 사이의 거리를 산출할 수 있다.In particular, the camera system included in the endoscope microscope according to an embodiment calculates the distance between the endoscope microscope and the subject based on various depth calculation methods that can be utilized in the monocular camera. More specifically, the camera system included in the endoscope microscope includes an Offset Pixel Aperture based depth calculation method, a Pixel Aperture based depth calculation method, a DA (Dual Aperture) based depth calculation method, and a subpixel structure based depth calculation method. The distance between the endoscope microscope and the subject may be calculated using.

이러한 깊이 산출 방식들은 각각의 구조를 기반으로 결론적으로는 이미지들 사이의 시차를 이용하거나, 이미지들 사이의 블러 변화를 이용하여 깊이를 산출하게 된다. 이하, 이미지들 사이의 시차를 이용하여 깊이를 산출하는 DA 기반 깊이 산출 방식을 설명한 뒤, DA 기반 깊이 산출 방식을 토대로 하는 OPA 기반 깊이 산출 방식을 설명한다.These depth calculation methods, based on the respective structures, will ultimately calculate the depth using the parallax between the images or the blur variation between the images. Hereinafter, the DA-based depth calculation method for calculating depth using the parallax between images will be described, and then the OPA-based depth calculation method based on the DA-based depth calculation method will be described.

도 1은 두 개의 이미지들 사이의 시차를 이용하여 이미지 센서와 피사체 사이의 거리를 산출하는 원리를 설명하기 위한 도면이다.FIG. 1 is a diagram for explaining a principle of calculating a distance between an image sensor and a subject by using parallax between two images.

도 1을 참조하면, 카메라 시스템(100)에서 단일 광학계(110)에는 서로 다른 파장의 광선을 각각 유입시키는 복수의 애퍼처들이 형성된다. 특히, 복수의 애퍼처들은 단일 광학계(110) 상에서 서로 어긋난 중심 위치를 갖는다. 예컨대, 단일 광학계(110)에는 수평, 수직 또는 대각 중 어느 하나의 방향으로 오프셋되어 서로 어긋난 중심 위치를 갖는 제1 애퍼처 및 제2 애퍼처가 형성될 수 있다(즉, 제1 애퍼처의 중심 위치와 제2 애퍼처의 중심 위치가 일치하지 않음).Referring to FIG. 1, in the camera system 100, a plurality of apertures are formed in the single optical system 110 to introduce light rays having different wavelengths, respectively. In particular, the plurality of apertures have a central position deviated from each other on the single optical system 110. For example, the single optical system 110 may be formed with a first aperture and a second aperture having a center position offset from each other by being offset in one of horizontal, vertical, or diagonal directions (ie, a center position of the first aperture). And the central positions of the second aperture do not coincide).

이 때, 제1 애퍼처 및 제2 애퍼처는 서로 어긋난 중심 위치를 갖도록 형성되기 때문에, 제1 애퍼처에 의해 유입되는 파장의 광선을 이미지 센서(120)가 처리하여 획득되는 제1 이미지의 중심 위치는 제2 애퍼처에 의해 유입되는 파장의 광선을 이미지 센서(120)가 처리하여 획득되는 제2 이미지의 중심 위치와 일치하지 않게 된다.At this time, since the first aperture and the second aperture are formed to have a center position deviated from each other, the center of the first image obtained by the image sensor 120 processing a light ray having a wavelength introduced by the first aperture. The position does not coincide with the center position of the second image obtained by the image sensor 120 processing a light ray having a wavelength introduced by the second aperture.

카메라 시스템은 이와 같은 원리를 이용하여 제1 이미지 및 제2 이미지 사이의 시차 p를 식 1과 같이 계산할 수 있다. 이하, 제1 이미지 및 제2 이미지 사이의 시차는 제1 이미지의 중심 위치 및 제2 이미지의 중심 위치 사이의 시차를 의미한다.Using this principle, the camera system can calculate the parallax p between the first image and the second image as in Equation 1. Hereinafter, the parallax between the first image and the second image means the parallax between the center position of the first image and the center position of the second image.

<식 1><Equation 1>

Figure 112018022067516-pat00001
Figure 112018022067516-pat00001

식 1에서, x는 제1 애퍼처의 중심 위치와 제2 애퍼처의 중심 위치 사이의 거리를 나타내고, f는 초점 거리를 나타내며, a는 피사체 거리(피사체로부터 단일 광학계(110)의 제1 주평면까지의 거리)를 나타내고,

Figure 112018022067516-pat00002
는 이미지 센서(120)에 초점이 맞은 피사체 거리를 나타낸다.In Equation 1, x represents the distance between the center position of the first aperture and the center position of the second aperture, f represents the focal length, and a represents the subject distance (the first principal of the single optical system 110 from the subject). Distance to the plane)
Figure 112018022067516-pat00002
Denotes the distance of the subject in focus to the image sensor 120.

이 때, 제1 이미지의 중심 위치와 제2 이미지의 중심 위치 사이의 시차 p의 값이 양수에서 음수로 바뀌거나, 음수에서 양수로 바뀌는 경우, 두 이미지들 사이의 시차 방향이 바뀐 것이다. 따라서, p의 값의 부호에 따라, 에지가 있는 피사체가 초점은 위치를 기준으로 전경(Foreground)에 있는지 또는 배경(Background)에 있는지가 구분될 수 있다.At this time, when the value of parallax p between the center position of the first image and the center position of the second image is changed from positive to negative or from negative to positive, the direction of parallax between the two images is changed. Therefore, according to the sign of the value of p, whether the subject with the edge is in the foreground or background based on the position can be distinguished.

또한, 식 1로부터 피사체 거리 a가 식 2와 같이 계산될 수 있다.Also, from the equation 1, the subject distance a can be calculated as in the equation 2.

<식 2><Equation 2>

Figure 112018022067516-pat00003
Figure 112018022067516-pat00003

식 2에서,

Figure 112018022067516-pat00004
는 이미지 센서(120)에 초점이 맞은 피사체 거리를 나타내고, f는 초점 거리를 나타내며, p는 제1 이미지 및 제2 이미지 사이의 시차를 나타내고, x는 제1 애퍼처의 중심 위치와 제2 애퍼처의 중심 위치 사이의 거리를 나타낸다.In equation 2,
Figure 112018022067516-pat00004
Denotes the distance of the subject in focus to the image sensor 120, f denotes the focal length, p denotes the parallax between the first image and the second image, and x denotes the center position of the first aperture and the second aperture Represents the distance between the center position of the aperture.

따라서, 이미지 센서(120)와 피사체 사이의 거리 c는 식 3과 같이 결정될 수 있다.Therefore, the distance c between the image sensor 120 and the subject may be determined as in Equation 3.

<식 3><Equation 3>

Figure 112018022067516-pat00005
Figure 112018022067516-pat00005

식 3에서 a는 피사체 거리(피사체로부터 단일 광학계(110)의 제1 주평면까지의 거리)를 나타내고, b는 단일 광학계(110)의 제1 주평면과 이미지 센서(120) 사이의 거리를 나타낸다.In Equation 3, a represents the object distance (the distance from the subject to the first main plane of the single optical system 110), and b represents the distance between the first main plane of the single optical system 110 and the image sensor 120. .

도 2 내지 4는 일 실시예에 따라 OPA(Offset Pixel Aperture)가 적용된 내시현미경의 카메라 시스템에서 내시현미경 및 오브젝트 사이의 거리를 산출하는 원리를 설명하기 위한 도면이다. 보다 상세하게, 도 2는 일 실시예에 따라 OPA 구조의 카메라 시스템이 이용하는 거리 산출 원리는 설명하기 위하여, 내시현미경의 카메라 시스템에 포함되는 이미지 센서에서 복수의 픽셀들 중 OPA가 적용된 픽셀 하나만을 나타낸 개념도이고, 도 3 내지 4는 단일 광학계에 형성된 애퍼처와 OPA 사이의 관계를 설명하기 위한 도면이다.2 to 4 are diagrams for describing a principle of calculating a distance between an endoscope microscope and an object in a camera system of an endoscope microscope to which an offset pixel aperture (OPA) is applied, according to an exemplary embodiment. More specifically, FIG. 2 illustrates only one pixel to which the OPA is applied among the plurality of pixels in the image sensor included in the camera system of an endoscope for explaining the distance calculation principle used by the camera system of the OPA structure according to an embodiment. 3 to 4 are diagrams for explaining the relationship between the aperture and the OPA formed in a single optical system.

도 2를 참조하면, 일 실시예에 따라 OPA가 적용된 내시현미경의 카메라 시스템에 포함되는 이미지 센서의 어느 하나의 픽셀(200)은 어느 하나의 픽셀(200)의 중심(201)과 어긋난 중심 위치(211)를 갖는 OPA(212)가 형성된 오프셋 마스크(210)를 포함한다. 따라서, 카메라 시스템의 단일 광학계(220)로 유입된 광선은 어느 하나의 픽셀(200)의 마이크로 렌즈(230)와 컬러 필터(240)를 경유하여 오프셋 마스크(210)에 형성된 OPA(212)를 통과해 포토 다이오드(250)로 입사되게 된다.Referring to FIG. 2, one pixel 200 of an image sensor included in an OPA applied camera system according to an embodiment may have a center position deviated from the center 201 of one pixel 200. OPA 212 with 211 includes an offset mask 210 formed. Accordingly, the light rays introduced into the single optical system 220 of the camera system pass through the OPA 212 formed in the offset mask 210 via the micro lens 230 and the color filter 240 of any one pixel 200. The solution is incident on the photodiode 250.

이에, 도면에 도시된 바와 같은 원리를 통해, OPA(212)의 중심 위치(211)가 픽셀(200)의 중심(201)으로부터 오프셋된 거리인 O2는 단일 광학계(220) 상에 애퍼처가 형성되었을 경우 해당 애퍼처의 중심 위치(221)가 단일 광학계(220)의 중심(222)(픽셀(200)의 중심(201)과 동일함)으로부터 오프셋된 거리인 O1와 비례하는 관계를 갖는다.Accordingly, through the principle shown in the drawing, O 2, which is a distance at which the center position 211 of the OPA 212 is offset from the center 201 of the pixel 200, forms an aperture on the single optical system 220. In this case, the center position 221 of the aperture has a relationship proportional to O 1 , which is a distance offset from the center 222 of the single optical system 220 (which is the same as the center 201 of the pixel 200).

따라서, 픽셀(200)의 중심(201)으로부터 어긋난 중심 위치(211)를 갖는 OPA(212)는 단일 광학계(220)의 중심(222)(픽셀(200)의 중심(201)과 동일함)으로부터 어긋난 중심 위치(221)를 갖도록 단일 광학계(220) 상에 형성된 애퍼처와 동일하게 치부될 수 있으며, 이로 인해, 도 3에서 나타나듯이, 단일 광학계에 애퍼처가 형성된 경우(310)에서 이미지 센서의 어느 하나의 픽셀에 입사되는 광선이 단일 광학계에 형성된 애퍼처에 의해 가장자리 영역이 차단된 중심부의 광선인 것처럼, OPA가 적용된 경우(320)에서 이미지 센서의 어느 하나의 픽셀에 입사되는 광선은 오프셋 마스크에 의해 가장자리 영역이 차단된 중심부의 광선일 수 있다. 마찬가지로, 도 4에서 나타나듯이, 단일 광학계에 애퍼처가 형성된 경우(410)에서 이미지 센서의 어느 하나의 픽셀에 입사되는 광선이 단일 광학계에 형성된 애퍼처에 의해 가장자리 영역의 광선인 것처럼, OPA가 적용된 경우(420)에서 이미지 센서의 어느 하나의 픽셀에 입사되는 광선은 오프셋 마스크에 의해 가장자리 영역의의 광선일 수 있다.Thus, the OPA 212 having a center position 211 deviated from the center 201 of the pixel 200 is from the center 222 of the single optical system 220 (which is the same as the center 201 of the pixel 200). The aperture may be equal to the aperture formed on the single optical system 220 to have a misaligned center position 221, and as a result, as shown in FIG. 3, any of the image sensors in the case 310 is formed in the single optical system. In the case where the OPA is applied (320), the light incident on any one pixel of the image sensor is applied to the offset mask, as if the light incident on one pixel is the light of the center of which the edge region is blocked by the aperture formed in the single optical system. The edge region may be a light ray of the central portion blocked by the edge region. Similarly, as shown in FIG. 4, in the case where an aperture is formed in a single optical system (410), when the OPA is applied as if a light ray incident on one pixel of the image sensor is a light ray of an edge region by an aperture formed in the single optical system. The ray of light incident on any one pixel of the image sensor at 420 may be a ray of the edge region by an offset mask.

이에, 전술된 식 2에서 제1 애퍼처의 중심 위치와 제2 애퍼처의 중심 위치 사이의 거리인 x는 OPA(212)가 적용된 이미지 센서를 포함하는 카메라 시스템의 경우 이미지 센서 상 OPA(212)가 적용된 픽셀(200)의 OPA(212)의 중심 위치(211)와 OPA(212)가 적용되지 않은 일반 픽셀의 중심 위치 사이의 거리에 해당되고, 식 2에서 제1 이미지 및 제2 이미지 사이의 시차인 p는 OPA(212)가 적용된 이미지 센서를 포함하는 카메라 시스템의 경우 OPA(212)가 적용된 픽셀(200)을 통해 획득된 이미지 및 OPA(212)가 적용되지 않은 일반 픽셀을 통해 획득된 이미지 사이의 시차에 해당될 수 있다.Accordingly, in the above-described Equation 2, x, which is the distance between the center position of the first aperture and the center position of the second aperture, is OPA 212 on the image sensor in case of a camera system including an image sensor to which the OPA 212 is applied. Corresponds to the distance between the center position 211 of the OPA 212 of the pixel 200 to which the applied pixel 200 and the center position of the normal pixel to which the OPA 212 is not applied, and between Equation 2 between the first image and the second image. The parallax p is the image obtained through the pixel 200 with the OPA 212 applied and the image obtained through the normal pixel without the OPA 212 in the case of a camera system including an image sensor with the OPA 212 applied thereto. It can correspond to the time difference between.

따라서, 일 실시예에 따른 내시현미경에 장착된 카메라 시스템은 이미지 센서에 초점이 맞은 피사체 거리인

Figure 112018022067516-pat00006
, 초점 거리인 f, OPA(212)가 적용된 픽셀(200)을 통해 획득된 이미지 및 OPA(212)가 적용되지 않은 일반 픽셀을 통해 획득된 이미지 사이의 시차인 p, 그리고 OPA(212)가 적용된 픽셀(200)의 OPA(212)의 중심 위치(211)와 OPA(212)가 적용되지 않은 일반 픽셀의 중심 위치 사이의 거리인 x를 이용하여 식 2와 같이 피사체 거리 a를 계산할 수 있으며, 피사체 거리 a에 단일 광학계(220)와 이미지 센서 사이의 거리인 b를 더해 식 3과 같이 이미지 센서로부터 피사체 사이의 거리를 산출할 수 있다.Accordingly, the camera system mounted on the endoscope microscope according to an embodiment may be a subject distance focused on an image sensor.
Figure 112018022067516-pat00006
, The focal length f, p, which is the parallax between the image obtained through the pixel 200 with the OPA 212 applied and the image obtained through the normal pixel without the OPA 212 applied, and the OPA 212 applied The object distance a can be calculated using Equation 2 using x, which is the distance between the center position 211 of the OPA 212 of the pixel 200 and the center position of the general pixel to which the OPA 212 is not applied, The distance a between the single optical system 220 and the image sensor b may be calculated by adding b, which is a distance between the single optical system 220 and the image sensor.

이상, 단일 광학계(220) 아래 OPA(212)가 적용된 이미지 센서의 깊이 산출 원리가 DA 구조에서의 시차 차이 방식을 기초로 하는 경우로 설명되었으나, 이에 제한되거나 한정되지 않고, 시차가 발생된 두 개의 이미지들을 이용하여 이미지 내 깊이를 산출하는 다양한 방식들을 기초로 할 수 있다.As described above, the depth calculation principle of the image sensor to which the OPA 212 is applied under the single optical system 220 has been described as being based on the parallax difference method in the DA structure, but the present invention is not limited thereto, and two parallaxes are generated. The images may be based on various ways of calculating depth in the image.

이하에서는, 상술한 깊이 산출 원리를 이용할 수 있도록 단일 광학계(220) 아래 OPA(212)가 적용된 이미지 센서와 해당 이미지 센서를 포함하는 카메라 시스템의 개략적인 구조, 그리고 상술한 OPA 구조가 적용된 경우 이외에 PA가 적용된 구조, DA가 적용된 구조, 서브 픽셀 구조가 적용된 카메라 시스템의 개략적인 구조와 이러한 카메라 시스템이 장착된 내시현미경에 대해 상세히 설명한다.Hereinafter, a schematic structure of an image sensor to which the OPA 212 is applied under a single optical system 220 and a camera system including the image sensor, and a case in which the above-described OPA structure is applied to use the above-described depth calculation principle. The detailed structure of the camera system to which the system is applied, the structure to which the DA is applied, and the subpixel structure to which the camera system is mounted is described in detail.

도 5는 일 실시예에 따른 일 실시예에 따른 내시현미경의 개략적인 구조를 나타낸 도면이다.5 is a diagram illustrating a schematic structure of an endoscope according to an embodiment.

도 5를 참조하면, 일 실시예에 따른 내시현미경(500)은 피검사자의 신체 내부에 삽입되어 장기나 체강 내부를 촬영 대상으로 하여 촬영하는 장치로서, 검사자가 파지하여 조작할 수 있는 조작부(510), 조작부(510)와 연결되어 장기나 체강 내에 삽입되는 삽입부(520)를 포함한다.Referring to FIG. 5, the endoscope 500 according to an embodiment is a device inserted into an examinee's body and photographing an organ or a body cavity as a photographing target, and an operation unit 510 which the inspector can grip and operate. The insertion unit 520 is connected to the operation unit 510 and inserted into the organ or body cavity.

이 때, 삽입부(520)는 자유롭게 굴곡 또는 만곡 가능한 만곡부(521) 및 만곡부(521)의 선단에 설치되는 경질의 선단부(522)로 구성될 수 있으며, 선단부(522)에는 단일 광학계 아래 OPA가 적용된 이미지 센서를 포함하는 카메라 시스템이 위치할 수 있다.At this time, the insertion portion 520 may be composed of a freely bendable or bendable curved portion 521 and a hard tip portion 522 installed at the tip of the curved portion 521, and the tip portion 522 has an OPA under a single optical system. A camera system can be located that includes an applied image sensor.

따라서, 검사자의 조작에 의해 삽입부(520)가 피검사자의 신체 내부에 삽입될 시, 선단부(522)에 위치한 카메라 시스템의 동작에 의해 피검사자의 신체 내부 장기나 체강이 촬영될 수 있다. 카메라 시스템에 대한 상세한 설명은 도 6을 참조하여 기재하기로 한다.Therefore, when the insertion unit 520 is inserted into the examinee's body by the inspector's manipulation, the organ or body cavity of the examinee's body may be photographed by the operation of the camera system located at the tip 522. A detailed description of the camera system will be described with reference to FIG. 6.

또한, 도면에는 도시되지 않았지만, 내시현미경(500)은 내시현미경(500) 및 내시현미경(500)의 주변에 위치하는 오브젝트 사이의 거리를 산출하는 동작과 내시현미경 및 오브젝트 사이의 거리에 기초하여 내시현미경과 오브젝트의 충돌을 회피하기 위한 동작을 수행하는 적어도 하나의 프로세서를 포함할 수 있다. 이하, 적어도 하나의 프로세서가 카메라 시스템 내에 구비되는 경우로 설명하나, 이에 제한되거나 한정되지 않고, 내시현미경(500)과 무선 또는 유선으로 연결되는 별도의 컴퓨터 장치 상에 구비될 수도 있다.In addition, although not shown in the drawing, the endoscope 500 is an endoscope based on an operation of calculating the distance between the endoscope microscope 500 and the object located in the vicinity of the endoscope microscope 500 and the distance between the endoscope microscope and the object. At least one processor may perform an operation for avoiding collision between the microscope and the object. Hereinafter, the at least one processor will be described as being provided in the camera system. However, the present invention is not limited thereto and may be provided on a separate computer device connected to the endoscope 500 wirelessly or by wire.

도 6은 일 실시예에 따른 내시현미경에 장착된 카메라 시스템의 개략적인 구조를 나타낸 도면이다.6 is a diagram illustrating a schematic structure of a camera system mounted on an endoscope according to an embodiment.

도 6을 참조하면, 일 실시예에 따른 카메라 시스템(600)은 단안 카메라 구조를 갖는 것을 특징으로 하며, 구체적으로 단일 광학계(610), 이미지 센서(620) 및 적어도 하나의 프로세서(630)를 포함할 수 있다.Referring to FIG. 6, the camera system 600 according to an exemplary embodiment has a monocular camera structure, and specifically includes a single optical system 610, an image sensor 620, and at least one processor 630. can do.

단일 광학계(610)에는 R(Red), G(Green), B(Blue) 및 W(White) 광선이 입사될 수 있도록 하는 기본적인 애퍼처가 형성될 수 있으나, 이에 제한되거나 한정되지는 않는다. 후술되지만, 일 실시예에서는, DA(서로 일치하는 중심 위치를 가지며 서로 다른 파장의 광선을 유입시키는 DA 또는 서로 어긋난 중심 위치를 가지며 서로 다른 파장의 광선을 유입시키는 DA)가 적용될 수 있다.The single optical system 610 may be formed with a basic aperture for allowing the R (Red), G (Green), B (Blue) and W (White) light beams to be incident, but is not limited thereto. As will be described later, in one embodiment, DA (DA having mutually coincident center positions and introducing light rays of different wavelengths or DA having displaced center positions and light rays of different wavelengths) may be applied.

이미지 센서(620)는 단일 광학계(610)를 통해 유입되는 광선(복수의 파장들을 가짐)을 파장 별로 처리하는 복수의 픽셀들로 구성되는 픽셀 세트를 적어도 하나 이상 포함함으로써, 이미지들을 획득할 수 있다. 실시예에 따라 이미지 센서(620)는 전술한 바와 같이 OPA가 적용된 어느 하나의 픽셀을 포함함으로써, OPA가 적용된 어느 하나의 픽셀을 통해 제1 이미지를 획득하고, OPA가 적용되지 않은 나머지 어느 하나의 픽셀을 통해 제2 이미지를 획득할 수 있다. 이에 대한 상세한 설명은 도 7을 참조하여 기재하기로 한다.The image sensor 620 may acquire images by including at least one pixel set composed of a plurality of pixels for processing, for each wavelength, light rays (having a plurality of wavelengths) flowing through the single optical system 610. . According to the exemplary embodiment, the image sensor 620 includes any one of the pixels to which the OPA is applied as described above, thereby acquiring a first image through any one of the pixels to which the OPA is applied, and the other of the other ones to which the OPA is not applied. The second image may be acquired through the pixel. Detailed description thereof will be described with reference to FIG. 7.

다른 예를 들면, 이미지 센서(620)는 PA가 적용된 어느 하나의 픽셀을 포함함으로써, PA가 적용된 어느 하나의 픽셀을 통해 제1 이미지를 획득하고, PA가 적용되지 않은 나머지 어느 하나의 픽셀을 통해 제2 이미지를 획득할 수도 있다. 이에 대한 상세한 설명은 도 11을 참조하여 기재하기로 한다.In another example, the image sensor 620 includes any one of the pixels to which the PA has been applied, thereby acquiring the first image through any one of the pixels to which the PA has been applied, and through any other pixel to which the PA has not been applied. A second image may be obtained. A detailed description thereof will be described with reference to FIG. 11.

또 다른 예를 들면, 이미지 센서(620)는 서로 어긋난 중심 위치를 갖는 DA가 적용된 단일 광학계(610)를 통해 유입되는 서로 다른 파장의 광선들 각각을 처리하여 시차가 존재하는 제1 이미지 및 제2 이미지를 획득할 수 있으며, 서로 일치하는 중심 위치를 갖는 DA가 적용된 단일 광학계(610)를 통해 유입되는 서로 다른 파장의 광선들 각각을 처리하여 블러 차이가 존재하는 제1 이미지 및 제2 이미지를 획득할 수도 있다. 이에 대한 상세한 설명은 도 12 내지 13을 참조하여 기재하기로 한다.In another example, the image sensor 620 processes each of light rays of different wavelengths introduced through a single optical system 610 to which DAs having misaligned center positions are applied to each other. An image may be obtained, and the first and second images having a blur difference may be obtained by processing each of light rays having different wavelengths introduced through a single optical system 610 to which DAs having coincident center positions are applied. You may. Detailed description thereof will be described with reference to FIGS. 12 to 13.

또한, 이미지 센서(620)에 포함되는 픽셀 세트에서 어느 하나의 픽셀이 서브 픽셀 구조를 갖게 됨으로써, 이미지 센서(620)는 중심 서브 픽셀을 통해 제1 이미지를 획득하고, 적어도 하나의 주변 서브 픽셀을 통해 제2 이미지를 획득할 수 있다. 이에 대한 상세한 설명은 도 14를 참조하여 기재하기로 한다.In addition, any one pixel in the pixel set included in the image sensor 620 has a sub-pixel structure, so that the image sensor 620 acquires the first image through the center sub-pixel and acquires at least one peripheral sub-pixel. Through the second image can be obtained. Detailed description thereof will be described with reference to FIG. 14.

적어도 하나의 프로세서(630)는 이미지 센서(620)에서 획득된 적어도 두 개의 이미지들을 이용하여 내시현미경 및 내시현미경의 주변에 위치하는 오브젝트 사이의 거리를 산출한다. 예를 들어, OPA가 적용된 어느 하나의 픽셀을 통해 획득된 제1 이미지와 OPA가 적용되지 않은 나머지 어느 하나의 픽셀을 통해 획득된 제2 이미지 사이에는 시차가 존재하게 된다. 따라서, 적어도 하나의 프로세서(630)는 도 1 내지 4를 참조하여 전술한 원리를 기반으로, 시차가 존재하는 제 1 이미지 및 제2 이미지를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다.The at least one processor 630 calculates the distance between the endoscope microscope and the object located around the endoscope microscope using at least two images acquired by the image sensor 620. For example, a parallax exists between a first image acquired through one pixel to which the OPA is applied and a second image acquired through any other pixel to which the OPA is not applied. Accordingly, the at least one processor 630 may calculate the distance between the endoscope microscope and the object by using the first image and the second image having parallax based on the principle described above with reference to FIGS. 1 to 4. .

다른 예를 들면, PA가 적용된 어느 하나의 픽셀을 통해 획득된 제1 이미지 및 PA가 적용되지 않은 나머지 어느 하나의 픽셀을 통해 획득된 제2 이미지 사이에는 블러 차이가 존재하게 된다. 이에, 적어도 하나의 프로세서(630)는 제1 이미지 및 제2 이미지 사이의 블러 변화를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다.In another example, a blur difference exists between a first image acquired through one pixel to which the PA is applied and a second image acquired through any other pixel to which the PA is not applied. Accordingly, the at least one processor 630 may calculate a distance between the endoscope microscope and the object by using a blur change between the first image and the second image.

또 다른 예를 들면, 서로 일치하는 중심 위치를 가지며 서로 다른 파장의 광선을 유입시키는 DA가 적용된 경우, 복수의 애퍼처들 중 어느 하나의 애퍼처를 통과하는 파장의 광선에 기초하여 획득된 제1 이미지 및 복수의 애퍼처들 중 상기 어느 하나의 애퍼처를 제외한 나머지 어느 하나의 애퍼처를 통과하는 파장의 광선에 기초하여 획득된 제2 이미지 사이에는 블러 차이가 존재하게 된다. 따라서, 적어도 하나의 프로세서(630)는 제1 이미지 및 제2 이미지 사이의 블러 변화를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다.In another example, when a DA having a central position coinciding with each other and introducing light rays having different wavelengths is applied, a first obtained based on light rays having a wavelength passing through the aperture of any one of the plurality of apertures A blur difference exists between the image and the second image obtained based on the light of the wavelength passing through any one of the apertures except the one of the plurality of apertures. Accordingly, the at least one processor 630 may calculate the distance between the endoscope microscope and the object by using the blur change between the first image and the second image.

또 다른 예를 들면, 서로 어긋난 중심 위치를 가지며 서로 다른 파장의 광선을 유입시키는 DA가 적용된 경우, 복수의 애퍼처들 중 어느 하나의 애퍼처를 통과하는 파장의 광선에 기초하여 획득된 제1 이미지 및 복수의 애퍼처들 중 상기 어느 하나의 애퍼처를 제외한 나머지 어느 하나의 애퍼처를 통과하는 파장의 광선에 기초하여 획득된 제2 이미지 사이에는 시차가 존재하게 된다. 이에, 적어도 하나의 프로세서(630)는 제1 이미지 및 제2 이미지 사이의 시차를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다.In another example, when a DA having misaligned center positions and introducing light rays having different wavelengths is applied, the first image acquired based on light rays having wavelengths passing through any one of the plurality of apertures are applied. And a parallax between the second image acquired based on a light ray having a wavelength passing through any one of the plurality of apertures except for the one of the plurality of apertures. Accordingly, the at least one processor 630 may calculate the distance between the endoscope microscope and the object by using the parallax between the first image and the second image.

또 다른 예를 들면, 서브 픽셀 구조가 적용된 경우, 중심 서브 픽셀을 통해 획득된 제1 이미지 및 적어도 하나의 주변 서브 픽셀을 통해 획득된 신호가 병합되어 생성되는 제2 이미지 사이에는 블러 차이가 존재하게 된다. 따라서, 적어도 하나의 프로세서(630)는 제1 이미지 및 제2 이미지 사이의 블러 변화를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다. 또한, 서브 픽셀 구조가 적용되는 경우에서, 적어도 하나의 주변 서브 픽셀이 복수 개 구비되는 경우, 복수의 주변 서브 픽셀들 중 어느 하나의 주변 서브 픽셀을 통해 획득되는 제3 이미지 및 복수의 주변 서브 픽셀들 중 상기 어느 하나의 주변 서브 픽셀을 제외한 나머지 어느 하나의 주변 서브 픽셀을 통해 획득되는 제4 이미지 사이에는 시차가 존재하게 된다. 이에, 적어도 하나의 프로세서(630)는 제3 이미지 및 제4 이미지 사이의 시차를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다.In another example, when a subpixel structure is applied, a blur difference exists between a first image acquired through a center subpixel and a second image generated by merging a signal obtained through at least one peripheral subpixel. do. Accordingly, the at least one processor 630 may calculate the distance between the endoscope microscope and the object by using the blur change between the first image and the second image. Also, when a subpixel structure is applied, when a plurality of at least one peripheral subpixel is provided, a third image and a plurality of peripheral subpixels acquired through any one of the plurality of peripheral subpixels. The parallax exists between the fourth image acquired through any one of the peripheral subpixels except for the one of the peripheral subpixels. Accordingly, the at least one processor 630 may calculate the distance between the endoscope microscope and the object by using the parallax between the third image and the fourth image.

즉, 적어도 하나의 프로세서(630)는 카메라 시스템(600)에 OPA 구조, PA 구조, DA 구조 또는 서브 픽셀 구조 중 어느 하나가 적용되는지에 따라, 이미지들 사이의 시차 또는 블러 변화 중 어느 하나를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다.That is, the at least one processor 630 uses any one of the parallax or blur variation between the images, depending on which of the OPA structure, PA structure, DA structure or sub pixel structure is applied to the camera system 600. The distance between the endoscope microscope and the object can be calculated.

도 7은 일 실시예에 따라 OPA가 적용된 내시현미경의 카메라 시스템을 설명하기 위한 도면이다.7 is a diagram for describing a camera system of an endoscope microscope to which an OPA is applied, according to an exemplary embodiment.

도 7을 참조하면, 일 실시예에 따라 OPA가 적용된 내시현미경의 카메라 시스템에 포함되는 이미지 센서(700)는, 복수의 파장들을 갖는 광선을 파장 별로 처리하는 복수의 픽셀들(711, 712, 713, 714)로 구성되는 픽셀 세트(710)를 적어도 한 개 이상 구비할 수 있다. 도면에는, 이미지 센서(700)가 9개의 픽셀 세트를 구비하는 경우로 도시되었으며, 픽셀 세트(710)에 R 픽셀, G 픽셀, B 픽셀, W 픽셀이 포함되는 경우로 도시되었으나, 이에 제한되거나 한정되지는 않는다. 즉, 픽셀 세트(710)는 R, G, B, W 픽셀들로 구성되는 대신에, W, R, B, W 픽셀들로 구성될 수도 있다.Referring to FIG. 7, an image sensor 700 included in an OPA applied camera system according to an embodiment may include a plurality of pixels 711, 712, and 713 for processing light rays having a plurality of wavelengths for each wavelength. , At least one pixel set 710 including 714. In the drawing, the image sensor 700 is illustrated as having nine pixel sets, and the pixel set 710 includes R pixels, G pixels, B pixels, and W pixels, but is limited or limited thereto. It doesn't work. That is, the pixel set 710 may be composed of W, R, B, and W pixels instead of R, G, B, and W pixels.

특히, 이미지 센서(700)에서 픽셀 세트(710)에 포함되는 복수의 픽셀들(711, 712, 713, 714) 중 어느 하나의 픽셀(예컨대, 제4 픽셀(714))의 상부에는, 어느 하나의 픽셀(제4 픽셀(714))의 중심(714-1)과 어긋난 중심 위치(714-2)를 갖는 OPA(714-3)가 형성된 오프셋 마스크(714-4)가 배치될 수 있다. 이하, 픽셀(714)의 중심(714-1)은 픽셀(714)의 상면에서의 중심점을 의미하며, OPA(714-3)의 중심(714-2)은 OPA(714-3)의 홀의 중심점을 의미한다. 즉, 오프셋 마스크(714-4)에 형성된 OPA(714-3)는, 오프셋 마스크(714-4)가 상부에 배치되는 어느 하나의 픽셀(제4 픽셀(714))의 중심(714-1)을 기준으로 수평, 수직 또는 대각 중 어느 하나의 방향으로 오프셋되는 중심 위치(714-2)를 가질 수 있다.In particular, any one of the plurality of pixels 711, 712, 713, and 714 included in the pixel set 710 in the image sensor 700 may be disposed on the pixel (eg, the fourth pixel 714). An offset mask 714-4 having an OPA 714-3 having a center position 714-2 that is offset from the center 714-1 of the pixel (fourth pixel 714) may be disposed. Hereinafter, the center 714-1 of the pixel 714 means a center point on the top surface of the pixel 714, and the center 714-2 of the OPA 714-3 is the center point of the hole of the OPA 714-3. Means. That is, the OPA 714-3 formed in the offset mask 714-4 has the center 714-1 of any one pixel (fourth pixel 714) on which the offset mask 714-4 is disposed. It may have a center position 714-2 which is offset in the direction of any one of horizontal, vertical or diagonal with respect to.

또한, 이하, OPA(714-3)는 원, 타원, 삼각, 사각 또는 다각 중 어느 하나의 형태를 가지며 오프셋 마스크(714-4) 상에 형성될 수 있다. 이처럼, OPA(714-3)는 형상의 제한을 갖지는 않으며, 다만, 픽셀(제4 픽셀(714))의 중심(714-1)과 어긋난 중심 위치(714-2)를 갖기만 하면 된다.Also, hereinafter, the OPA 714-3 may be formed on the offset mask 714-4 in the form of a circle, an ellipse, a triangle, a square, or a polygon. As described above, the OPA 714-3 does not have a limitation in shape, but only needs to have a center position 714-2 deviated from the center 714-1 of the pixel (fourth pixel 714).

이에, 오프셋 마스크(714-4)가 상부에 배치되는 어느 하나의 픽셀(제4 픽셀(714))을 통해 획득된 제1 이미지와 복수의 픽셀들(711, 712, 713, 714) 중 오프셋 마스크(714-4)가 배치되는 어느 하나의 픽셀(제4 픽셀(714))을 제외한 나머지 어느 하나의 픽셀(예컨대, 제1 픽셀(711), 제2 픽셀(712) 또는 제3 픽셀(713) 중 어느 하나의 픽셀)을 통해 획득된 제2 이미지 사이에는 시차가 존재하게 된다.Accordingly, the offset mask of the first image and the plurality of pixels 711, 712, 713, and 714 obtained through one pixel (the fourth pixel 714) on which the offset mask 714-4 is disposed. Any one pixel (for example, the first pixel 711, the second pixel 712, or the third pixel 713 except for any one pixel where the 714-4 is disposed (the fourth pixel 714) is disposed. Parallax exists between the second images acquired through any one of the pixels).

따라서, 적어도 하나의 프로세서는, 오프셋 마스크(714-4)가 상부에 배치되는 어느 하나의 픽셀(제4 픽셀(714))을 통해 획득된 제1 이미지와 복수의 픽셀들(711,712, 713, 714) 중 오프셋 마스크(714-4)가 배치되는 어느 하나의 픽셀(제4 픽셀(714))을 제외한 나머지 어느 하나의 픽셀(예컨대, 제1 픽셀(711), 제2 픽셀(712) 또는 제3 픽셀(713) 중 어느 하나의 픽셀)을 통해 획득된 제2 이미지 사이의 시차를 이용하여, 내시현미경 및 오브젝트 사이의 거리(보다 정확하게는, 이미지 센서(700) 및 오브젝트 사이의 거리)를 산출할 수 있다.Accordingly, the at least one processor may include the first image and the plurality of pixels 711, 712, 713, and 714 obtained through any one pixel (the fourth pixel 714) on which the offset mask 714-4 is disposed. ) Any one of the pixels (for example, the first pixel 711, the second pixel 712, or the third) except for one pixel (the fourth pixel 714) in which the offset mask 714-4 is disposed. The distance between the endoscope microscope and the object (more precisely, the distance between the image sensor 700 and the object) can be calculated using the parallax between the second image acquired through any one of the pixels 713. Can be.

이 때, 오프셋 마스크(714-4)는 복수의 픽셀들(711, 712, 713, 714) 중 최대 광 투과(Maximum light transmission) 특성을 갖는 어느 하나의 픽셀(예컨대, W 픽셀인 제4 픽셀(714))의 상부에 배치될 수 있다. 이는, 오프셋 마스크(714-4)가 포토 다이오드에 입사되는 광량을 감소시키므로, 오프셋 마스크(714-4)가 배치된 픽셀을 통해 이미지를 획득하기 위해서는 해당 픽셀의 광 투과 특성이 기준치보다 높아야 하기 때문이다.In this case, the offset mask 714-4 may be any one pixel having a maximum light transmission characteristic among the plurality of pixels 711, 712, 713, and 714 (eg, a fourth pixel that is a W pixel). 714)). This is because the offset mask 714-4 reduces the amount of light incident on the photodiode, and therefore, in order to acquire an image through the pixel on which the offset mask 714-4 is disposed, the light transmission characteristic of the pixel must be higher than the reference value. to be.

또한, 도면에 도시된 바와 같이, 오프셋 마스크(714-4)가 상부에 배치되는 어느 하나의 픽셀(제4 픽셀(714))은, 복수의 픽셀들(711, 712, 713, 714) 중 오프셋 마스크(714-4)가 배치되는 어느 하나의 픽셀(제4 픽셀(714))을 제외한 나머지 어느 하나의 픽셀(예컨대, 제1 픽셀(711), 제2 픽셀(712) 또는 제3 픽셀(713) 중 어느 하나의 픽셀)에서 처리하는 광선의 파장과 구별되는 다른 파장의 광선을 처리할 수 있다. 다시 말해, 오프셋 마스크(714-4)는 복수의 픽셀들(711, 712, 713, 714) 중 처리하는 광선의 파장이 다른 어느 하나의 픽셀의 상부에 배치됨으로써, 오프셋 마스크(714-4)가 상부에 배치되지 않은 나머지 어느 하나의 픽셀을 통해 획득하는 이미지와 뚜렷하게 구별되는 이미지를 획득하도록 할 수 있다.In addition, as shown in the drawing, any one pixel (the fourth pixel 714) on which the offset mask 714-4 is disposed is offset from among the plurality of pixels 711, 712, 713, and 714. Any one pixel (eg, the first pixel 711, the second pixel 712, or the third pixel 713 except for any one pixel (fourth pixel 714) on which the mask 714-4 is disposed. Can treat light rays of different wavelengths that are distinct from the wavelengths of light rays processed by either pixel. In other words, the offset mask 714-4 is disposed above any one pixel having a different wavelength of the light beam to be processed among the plurality of pixels 711, 712, 713, and 714. It is possible to obtain an image that is distinct from an image acquired through any other pixel not disposed above.

이와 같이, 일 실시예에 따른 내시현미경은 단일 광학계 아래 OPA(714-3)가 적용된 이미지 센서(700)의 구조를 갖는 카메라 시스템을 포함함으로써, 카메라 시스템의 단면적을 최소화하여 소형화를 도모하는 동시에, 이미지 센서(700)에서 획득한 두 개의 이미지들(제1 이미지 및 제2 이미지) 사이의 시차를 이용하여 내시현미경 및 오브젝트 사이의 거리(깊이)를 산출하는 기술을 제안할 수 있다As such, the endoscope microscope according to an embodiment includes a camera system having a structure of an image sensor 700 to which an OPA 714-3 is applied under a single optical system, thereby minimizing the cross-sectional area of the camera system, A technique for calculating a distance (depth) between an endoscope microscope and an object using a parallax between two images (first image and second image) acquired by the image sensor 700 may be proposed.

또한, 일 실시예에 따라 OPA가 적용된 내시현미경은 픽셀 세트(710)에 포함되는 복수의 픽셀들(711, 712, 713, 714) 중 하나의 픽셀(제4 픽셀(714))에 오프셋 마스크(714-4)를 배치하는 대신에, 두 개의 픽셀들 각각에 서로 어긋난 중심 위치를 갖는 오프셋 마스크(714-4)를 배치하여, 두 개의 픽셀들 각각을 통해 획득된 이미지들 사이의 시차를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수도 있다. 이에 대한 상세한 설명은 도 8을 참조하여 기재하기로 한다.In addition, according to an exemplary embodiment, the endoscope microscope to which the OPA is applied may include an offset mask (or an offset mask) in one pixel (fourth pixel 714) of the plurality of pixels 711, 712, 713, and 714 included in the pixel set 710. Instead of arranging 714-4, an offset mask 714-4 having a center position deviated from each other in each of the two pixels is used to take advantage of the parallax between images acquired through each of the two pixels. The distance between the endoscope microscope and the object may be calculated. Detailed description thereof will be described with reference to FIG. 8.

도 8은 다른 일 실시예에 따라 OPA가 적용된 내시현미경의 카메라 시스템을 설명하기 위한 도면이다.8 is a diagram for describing a camera system of an endoscope microscope to which OPA is applied, according to another exemplary embodiment.

도 8을 참조하면, 다른 일 실시예에 따라 OPA가 적용된 내시현미경의 카메라 시스템에 포함되는 이미지 센서(800)는, 복수의 파장들을 갖는 광선을 파장 별로 처리하는 복수의 픽셀들(811, 812, 813, 814)로 구성되는 픽셀 세트(810)를 적어도 한 개 이상 구비할 수 있다. 예를 들어, 픽셀 세트(810)는 제1 W 픽셀(811), R 픽셀(812), B 픽셀(813) 및 제2 W 픽셀(814)로 구성될 수 있다.Referring to FIG. 8, the image sensor 800 included in the camera system of an endoscope microscope to which an OPA is applied according to another embodiment may include a plurality of pixels 811, 812, which process light rays having a plurality of wavelengths for each wavelength. At least one pixel set 810 including 813 and 814 may be provided. For example, the pixel set 810 may be composed of a first W pixel 811, an R pixel 812, a B pixel 813, and a second W pixel 814.

이 때, 픽셀 세트(810)에 포함되는 복수의 픽셀들(811, 812, 813, 814) 중 어느 하나의 픽셀(811)의 상부에는 어느 하나의 픽셀(811)의 중심(811-1)과 어긋난 중심 위치(811-2)를 갖는 OPA(811-3)가 형성된 오프셋 마스크(811-4)가 배치될 수 있다. 또한, 이미지 센서(800)에서 복수의 픽셀들(811, 812, 813, 814) 중 어느 하나의 픽셀(811)을 제외한 나머지 어느 하나의 픽셀(814)의 상부에도 나머지 어느 하나의 픽셀(814)의 중심(814-1)과 어긋난 중심 위치(814-2)를 갖는 OPA(814-3)가 형성된 오프셋 마스크(814-4)가 배치될 수 있다.At this time, the center 811-1 of any one pixel 811 is located above one of the pixels 811 of the plurality of pixels 811, 812, 813, and 814 included in the pixel set 810. An offset mask 811-4 with an OPA 811-3 having a shifted center position 811-2 may be disposed. In addition, in the image sensor 800, the other pixel 814 is also on the top of any other pixel 814 except for the pixel 811 of the plurality of pixels 811, 812, 813, and 814. An offset mask 814-4 with an OPA 814-3 having a center position 814-2 deviating from the center 814-1 may be disposed.

특히, 이미지 센서(800)에서, 제1 W 픽셀(811)의 상부에 배치되는 오프셋 마스크(811-4)의 OPA(811-3)는, 제2 W 픽셀(814)의 상부에 배치되는 오프셋 마스크(814-4)의 OPA(814-3)의 중심(814-2)과 어긋난 중심 위치(811-2)를 가질 수 있다.In particular, in the image sensor 800, the OPA 811-3 of the offset mask 811-4 disposed on the first W pixel 811 is offset on the second W pixel 814. The center position 811-2 deviated from the center 814-2 of the OPA 814-3 of the mask 814-4.

이에, 제1 W 픽셀(811)을 통해 획득된 제1 이미지와 제2 W 픽셀(814)을 통해 획득된 제2 이미지 사이에는 시차가 존재하게 된다. 따라서, 적어도 하나의 프로세서는, 제1 W 픽셀(811)을 통해 획득된 제1 이미지 및 제2 W 픽셀(814)을 통해 획득된 제2 이미지 사이의 시차를 이용하여 내시현미경 및 오브젝트 사이의 거리(보다 정확하게는, 이미지 센서(800) 및 오브젝트 사이의 거리)를 산출할 수 있다.Accordingly, there is a parallax between the first image acquired through the first W pixel 811 and the second image obtained through the second W pixel 814. Thus, the at least one processor uses the parallax between the first image acquired through the first W pixel 811 and the second image acquired through the second W pixel 814 to determine the distance between the endoscope microscope and the object. (More precisely, the distance between the image sensor 800 and the object) can be calculated.

도 9는 또 다른 일 실시예에 따라 OPA가 적용된 내시현미경의 카메라 시스템을 설명하기 위한 도면이고, 도 10은 도 9에 도시된 내시현미경의 카메라 시스템에서 획득한 두 개의 이미지들을 나타낸 도면이다.FIG. 9 is a diagram illustrating a camera system of an endoscope microscope to which an OPA is applied according to another embodiment, and FIG. 10 is a view illustrating two images acquired by the camera system of the endoscope microscope shown in FIG. 9.

도 9를 참조하면, 또 다른 일 실시예에 따라 OPA가 적용된 내시현미경의 카메라 시스템에 포함되는 이미지 센서(900)는, 복수의 파장들을 갖는 광선을 파장 별로 처리하는 복수의 픽셀들(911, 912, 913, 914, 921, 922, 923, 924)로 구성되는 픽셀 세트(10, 920)를 적어도 두 개 이상 구비할 수 있다. 도면에는, 이미지 센서(900)가 9개의 픽셀 세트를 구비하는 경우로 도시되었으며, 픽셀 세트(910, 920)에 R 픽셀, G 픽셀, B 픽셀, W 픽셀이 포함되는 경우로 도시되었으나, 이에 제한되거나 한정되지는 않는다. 즉, 픽셀 세트(910, 920)는 R, G, B, W 픽셀들로 구성되는 대신에, W, R, B, W 픽셀들로 구성될 수도 있다.9, an image sensor 900 included in an OPA applied camera system according to another embodiment may include a plurality of pixels 911 and 912 for processing light rays having a plurality of wavelengths for each wavelength. And at least two pixel sets 10 and 920 including 913, 914, 921, 922, 923, and 924. In the drawing, the image sensor 900 is illustrated as having nine pixel sets, and the pixel sets 910 and 920 include R pixels, G pixels, B pixels, and W pixels, but the present invention is not limited thereto. It is not limited or limited. That is, the pixel set 910, 920 may be composed of W, R, B, and W pixels instead of R, G, B, and W pixels.

이 때, 이미지 센서(900)에서 어느 하나의 픽셀 세트(예컨대, 제1 픽셀 세트(910))에 포함되는 복수의 픽셀들(911, 912, 913, 914) 중 어느 하나의 픽셀(예컨대, 제4 픽셀(914))의 상부에는, 어느 하나의 픽셀(제4 픽셀(914))의 중심(914-1)과 어긋난 중심 위치(914-2)를 갖는 OPA(914-3)가 형성된 오프셋 마스크(914-4)가 배치될 수 있다. 또한, 이미지 센서(900)에서 제1 픽셀 세트(910))를 제외한 나머지 어느 하나의 픽셀 세트(예컨대, 제2 픽셀 세트(820))에 포함되는 복수의 픽셀들(921, 922, 923, 924) 중 어느 하나의 픽셀(예컨대, 제4 픽셀(924))의 상부에도, 어느 하나의 픽셀(제4 픽셀(924))의 중심(924-1)과 어긋난 중심 위치(924-2)를 갖는 OPA(924-3)가 형성된 오프셋 마스크(924-4)가 배치될 수 있다.In this case, any one of the pixels 911, 912, 913, and 914 included in any one pixel set (eg, the first pixel set 910) in the image sensor 900 (eg, the second). On the top of the four pixels 914, an offset mask in which an OPA 914-3 is formed having a center position 914-2 that is offset from the center 914-1 of one pixel (fourth pixel 914). 914-4 may be deployed. In addition, the plurality of pixels 921, 922, 923, and 924 included in any one pixel set (eg, the second pixel set 820) except for the first pixel set 910 in the image sensor 900. ) Also has a center position 924-2 that is offset from the center 924-1 of any one pixel (eg, the fourth pixel 924). The offset mask 924-4 on which the OPA 924-3 is formed may be disposed.

특히, 이미지 센서(900)에서, 어느 하나의 픽셀 세트(제1 픽셀 세트(910))에 포함되는 복수의 픽셀들(911, 912, 913, 914) 중 어느 하나의 픽셀(제4 픽셀(914))의 상부에 배치되는 오프셋 마스크(914-4)의 OPA(914-3)는, 나머지 어느 하나의 픽셀 세트(제2 픽셀 세트(920))에 포함되는 복수의 픽셀들(921, 922, 923, 924) 중 어느 하나의 픽셀(제4 픽셀(924))의 상부에 배치되는 오프셋 마스크(924-4)의 OPA(924-3)의 중심(924-2)과 어긋난 중심 위치(914-2)를 가질 수 있다. 예를 들어, 제1 픽셀 세트(910)에 형성된 OPA(914-3)는 픽셀(914)의 중심(914-1)으로부터 우측으로 어긋난 중심 위치(914-2)를 갖는다면, 제2 픽셀 세트(920)에 형성된 OPA(924-3)는 픽셀(924)의 중심(924-1)으로부터 좌측으로 어긋난 중심 위치(924-2)를 가질 수 있다.In particular, in the image sensor 900, any one of the plurality of pixels 911, 912, 913, and 914 included in any one pixel set (first pixel set 910) (fourth pixel 914). The OPA 914-3 of the offset mask 914-4 disposed on the upper side of the)) includes a plurality of pixels 921, 922, and the like included in the other one pixel set (the second pixel set 920). A center position 914-deviated from the center 924-2 of the OPA 924-3 of the offset mask 924-4 disposed above any one of the pixels 923 and 924 (the fourth pixel 924). May have 2). For example, if the OPA 914-3 formed in the first pixel set 910 has a center position 914-2 deviated to the right from the center 914-1 of the pixel 914, the second pixel set The OPA 924-3 formed at 920 may have a center position 924-2 deviated to the left from the center 924-1 of the pixel 924.

이에, 제1 픽셀 세트(910)에서 오프셋 마스크(914-4)가 형성된 픽셀(914)을 통해 획득된 제1 이미지(1010)와 제2 픽셀 세트(920)에서 오프셋 마스크(924-4)가 형성된 픽셀(924)을 통해 획득된 제2 이미지(1020) 사이에는 도 10과 같이 시차가 존재하게 된다.Accordingly, the offset mask 924-4 is obtained from the first image 1010 and the second pixel set 920 obtained through the pixel 914 having the offset mask 914-4 formed in the first pixel set 910. As shown in FIG. 10, parallax exists between the second image 1020 acquired through the formed pixel 924.

따라서, 적어도 하나의 프로세서는, 복수의 픽셀 세트들(910, 920) 중 어느 하나의 픽셀 세트(제1 픽셀 세트(910))에서 오프셋 마스크(914-4)가 상부에 배치되는 어느 하나의 픽셀(914)을 통해 획득된 제1 이미지(1010) 및 복수의 픽셀 세트들(910, 920) 중 어느 하나의 픽셀 세트(제1 픽셀 세트(910))를 제외한 나머지 어느 하나의 픽셀 세트(제2 픽셀 세트(920))에서 오프셋 마스크(924-4)가 상부에 배치되는 어느 하나의 픽셀(924)을 통해 획득된 제2 이미지(1020) 사이의 시차를 이용하여 내시현미경 및 오브젝트 사이의 거리(보다 정확하게는, 이미지 센서(900) 및 오브젝트 사이의 거리)를 산출할 수 있다.Accordingly, the at least one processor may include at least one pixel having an offset mask 914-4 disposed thereon in one of the plurality of pixel sets 910 and 920 (the first pixel set 910). Any other pixel set except for the first image 1010 obtained through 914 and any one pixel set (first pixel set 910) of the plurality of pixel sets 910 and 920 (second) Distance between the endoscope microscope and the object using the parallax between the second image 1020 obtained through any one pixel 924 in which the offset mask 924-4 is disposed on the pixel set 920. More precisely, the distance between the image sensor 900 and the object) can be calculated.

이와 같이, 또 다른 일 실시예에 따른 내시현미경은 단일 광학계 아래 픽셀 세트(910, 920) 별로 서로 다르게 OPA(914-3, 924-3)가 적용된 이미지 센서(900)의 구조를 갖는 카메라 시스템을 포함함으로써, 카메라 시스템의 단면적으로 최소화하여 소형화를 도모하는 동시에, 이미지 센서(900)에서 획득한 두 개의 이미지들(1010, 1020) 사이의 시차를 이용하여 내시현미경 및 오브젝트 사이의 거리(깊이)를 산출하는 기술을 제안할 수 있다As such, the endoscope according to another embodiment is a camera system having the structure of the image sensor 900 to which the OPAs (914-3, 924-3) are applied differently for each pixel set (910, 920) under a single optical system. By minimizing the cross-sectional area of the camera system to achieve miniaturization, the distance (depth) between the endoscope microscope and the object is determined by using the parallax between the two images 1010 and 1020 acquired by the image sensor 900. Can offer the calculating technology

도 11은 일 실시예에 따라 PA(Pixel Aperture)가 적용된 내시현미경의 카메라 시스템을 설명하기 위한 도면이다.FIG. 11 is a diagram for describing a camera system of an endoscope microscope to which a PA (Pixel Aperture) is applied, according to an exemplary embodiment.

도 11을 참조하면, 일 실시예에 따라 PA가 적용된 내시현미경의 카메라 시스템에 포함되는 이미지 센서(1100)는, 복수의 파장들을 갖는 광선을 파장 별로 처리하는 복수의 픽셀들(1111, 1112, 1113, 1114)로 구성되는 픽셀 세트(1110)를 적어도 한 개 이상 구비할 수 있다. 도면에는, 이미지 센서(1100)가 9개의 픽셀 세트를 구비하는 경우로 도시되었으며, 픽셀 세트(1110)에 R 픽셀, G 픽셀, B 픽셀, W 픽셀이 포함되는 경우로 도시되었으나, 이에 제한되거나 한정되지는 않는다. 즉, 픽셀 세트(1110)는 R, G, B, W 픽셀들로 구성되는 대신에, W, R, B, W 픽셀들로 구성될 수도 있다.Referring to FIG. 11, an image sensor 1100 included in a camera system of an endoscope microscope to which a PA is applied according to an embodiment may include a plurality of pixels 1111, 1112, and 1113 for processing light rays having a plurality of wavelengths for each wavelength. , At least one pixel set 1110 configured as 1114. In the drawing, the image sensor 1100 is illustrated as having nine pixel sets, and the pixel set 1110 includes an R pixel, a G pixel, a B pixel, and a W pixel. It doesn't work. That is, the pixel set 1110 may be composed of W, R, B, and W pixels instead of R, G, B, and W pixels.

특히, 이미지 센서(1100)에서 픽셀 세트(1110)에 포함되는 복수의 픽셀들(1111, 1112, 1113, 1114) 중 어느 하나의 픽셀(예컨대, 제4 픽셀(1114))의 상부에는, 어느 하나의 픽셀(제4 픽셀(1114))의 중심과 일치하는 중심 위치(1114-1)를 갖는 PA(1114-2)가 형성된 오프셋 마스크(1114-3)가 배치될 수 있다. 이하, 픽셀(1114)의 중심은 픽셀(1114)의 상면에서의 중심점을 의미하며, PA(1114-2)의 중심(1114-1)은 PA(1114-2)의 홀의 중심점을 의미한다.In particular, any one of the plurality of pixels 1111, 1112, 1113, and 1114 included in the pixel set 1110 in the image sensor 1100 (eg, the fourth pixel 1114) An offset mask 1114-3 with a PA 1114-2 having a center position 1114-1 that coincides with the center of the pixel of the fourth pixel 1114-1 may be disposed. Hereinafter, the center of the pixel 1114 refers to the center point at the top surface of the pixel 1114, and the center 1114-1 of the PA 1114-2 refers to the center point of the hole of the PA 1114-2.

또한, 이하, PA(1114-2)는 원, 타원, 삼각, 사각 또는 다각 중 어느 하나의 형태를 가지며 오프셋 마스크(1114-3) 상에 형성될 수 있다. 이처럼, PA(1114-2)는 형상의 제한을 갖지는 않는다.In addition, hereinafter, the PA 1114-2 may be formed on the offset mask 1114-3 having any one of a circle, an ellipse, a triangle, a square, or a polygon. As such, the PA 1114-2 does not have a shape limitation.

이에, 오프셋 마스크(1114-3)는 광선의 다발 중 주변부의 광선을 차단하고 중심부의 광선만을 제4 픽셀(1114)로 유입시키게 되고, 제4 픽셀(1114)을 통해 획득되는 제1 이미지는 오프셋 마스크(1114-3)가 상부에 배치되지 않은 다른 픽셀들(1111, 1112, 1113)을 통해 획득되는 제2 이미지보다 더 선명하게 된다. 즉, 오프셋 마스크(1114-3)가 상부게 배치된 어느 하나의 픽셀(1114)을 통해 획득되는 제1 이미지 및 오프셋 마스크(1114-3)가 배치되지 않은 나머지 어느 하나의 픽셀(1111, 1112, 1113)을 통해 획득되는 제2 이미지 사이에는 블러 차이가 존재하게 된다.Thus, the offset mask 1114-3 blocks the light rays at the periphery of the bundle of light rays, and injects only the light rays at the center portion to the fourth pixel 1114, and the first image acquired through the fourth pixel 1114 is offset. The mask 1114-3 becomes sharper than the second image obtained through the other pixels 1111, 1112, and 1113 not disposed thereon. That is, the first image obtained through one pixel 1114 having the offset mask 1114-3 disposed thereon and the other pixels 1111, 1112, which do not have the offset mask 1114-3 disposed therein. There is a blur difference between the second images acquired through 1113.

따라서, 적어도 하나의 프로세서는, 오프셋 마스크(1114-3)가 상부에 배치되는 어느 하나의 픽셀(제4 픽셀(1114))을 통해 획득된 제1 이미지와 복수의 픽셀들(1111, 1112, 1113, 1114) 중 오프셋 마스크(1114-3)가 배치되는 어느 하나의 픽셀(제4 픽셀(1114))을 제외한 나머지 어느 하나의 픽셀(예컨대, 제1 픽셀(1111), 제2 픽셀(1112) 또는 제3 픽셀(1113) 중 어느 하나의 픽셀)을 통해 획득된 제2 이미지 사이의 블러 변화를 이용하여, 내시현미경 및 오브젝트 사이의 거리(보다 정확하게는, 이미지 센서(1100) 및 오브젝트 사이의 거리)를 산출할 수 있다.Accordingly, the at least one processor may include the first image and the plurality of pixels 1111, 1112, and 1113 obtained through any one pixel (the fourth pixel 1114) on which the offset mask 1114-3 is disposed. 1114, except for any one pixel (the fourth pixel 1114) in which the offset mask 1114-3 is disposed (eg, the first pixel 1111, the second pixel 1112, or The distance between the endoscope microscope and the object (more precisely, the distance between the image sensor 1100 and the object) using the blurring change between the second images obtained through any one of the third pixels 1113). Can be calculated.

이와 같이, 일 실시예에 따른 내시현미경은 단일 광학계 아래 PA(1114-2)가 적용된 이미지 센서(1100)의 구조를 갖는 카메라 시스템을 포함함으로써, 카메라 시스템의 단면적을 최소화하여 소형화를 도모하는 동시에, 이미지 센서(1100)에서 획득한 두 개의 이미지들(제1 이미지 및 제2 이미지) 사이의 블러 변화를 이용하여 내시현미경 및 오브젝트 사이의 거리(깊이)를 산출하는 기술을 제안할 수 있다. 이미지들 사이의 블러 변화를 이용하여 깊이를 산출하는 상세한 설명은 본 발명의 기술적 사상을 벗어나므로 생략하기로 한다.As such, the endoscope microscope according to the embodiment includes a camera system having a structure of the image sensor 1100 to which the PA 1114-2 is applied under a single optical system, thereby minimizing the cross-sectional area of the camera system, A technique for calculating a distance (depth) between an endoscope microscope and an object using a blur change between two images (first image and second image) acquired by the image sensor 1100 may be proposed. Detailed descriptions for calculating depths using blurring variations between images are omitted because they depart from the technical spirit of the present invention.

도 12는 일 실시예에 따라 DA(Dual Aperture)가 적용된 내시현미경의 카메라 시스템을 설명하기 위한 도면이다.12 is a diagram for describing a camera system of an endoscope microscope to which a dual aperture (DA) is applied, according to an exemplary embodiment.

도 12를 참조하면, 일 실시예에 따라 DA가 적용된 내시현미경의 카메라 시스템에 포함되는 단일 광학계(1200)에는 서로 다른 파장의 광선을 각각 유입시키며 서로 일치하는 중심 위치를 갖는 복수의 애퍼처들(1210, 1220)이 형성된다. 예를 들어, 단일 광학계(1200)에는 RGB 파장의 광선을 유입시키는 제1 애퍼처(1210)와 IR 파장의 광선을 유입시키는 제2 애퍼처(1220)가 서로 일치하는 중심 위치를 가진 채 형성될 수 있다. 예를 들어, 제1 애퍼처(1210)가 IR 파장의 광선을 차단하는 필터의 형태로 구현되고, 제1 애퍼처(1210)의 중심에 홀의 형태로 제2 애퍼처(1220)가 형성될 수 있다. 이하, 제1 애퍼처(1210)가 RGB 파장의 광선을 유입시키고, 제2 애퍼처(1220)가 IR 파장의 광선을 유입시키는 것으로 설명하나, 이에 제한되거나 한정되지 않고 제1 애퍼처(1210) 및 제2 애퍼처(1220)는 서로 다른 파장의 광선을 유입시키는 제약 아래 다양하게 구현될 수 있다.Referring to FIG. 12, a single optical system 1200 included in a camera system of an endoscope microscope to which DA is applied, according to an embodiment, introduces a plurality of apertures each having a central position coinciding with each other by introducing light beams having different wavelengths. 1210 and 1220 are formed. For example, in the single optical system 1200, a first aperture 1210 for introducing a light of an RGB wavelength and a second aperture 1220 for introducing a light of an IR wavelength may be formed with a central position coincident with each other. Can be. For example, the first aperture 1210 may be implemented in the form of a filter that blocks the light of the IR wavelength, and the second aperture 1220 may be formed in the form of a hole in the center of the first aperture 1210. have. Hereinafter, although the first aperture 1210 introduces the light of the RGB wavelength and the second aperture 1220 introduces the light of the IR wavelength, the first aperture 1210 is not limited thereto or limited thereto. The second aperture 1220 may be implemented in various ways under the constraint of introducing light beams having different wavelengths.

이에, 제1 애퍼처(1210)를 통해 유입된 파장의 광선이 이미지 센서(도면에는 도시되지 않음)에서 처리되어 획득되는 제1 이미지와 제2 애퍼처(1220)를 통해 유입된 파장의 광선이 이미지 센서에서 처리되어 획득되는 제2 이미지 사이에는 블러 차이가 존재하게 된다.Accordingly, the light rays of the wavelengths introduced through the first image and the second apertures 1220 obtained by processing the light rays of the wavelengths introduced through the first aperture 1210 are processed by an image sensor (not shown). A blur difference exists between the second images processed and acquired by the image sensor.

따라서, 적어도 하나의 프로세서는, 복수의 애퍼처들(1210, 1220) 중 어느 하나의 애퍼처(제1 애퍼처(1210))를 통해 유입된 파장의 광선을 처리하여 획득되는 제1 이미지 및 복수의 애퍼처들(1210, 1220) 중 상기 어느 하나의 애퍼처(제1 애퍼처(1210))를 제외한 나머지 어느 하나의 애퍼처(제2 애퍼처(1220))를 통해 유입된 파장의 광선을 처리하여 획득되는 제2 이미지 사이의 블러 변화를 이용하여, 내시현미경 및 오브젝트 사이의 거리(보다 정확하게는, 이미지 센서(1100) 및 오브젝트 사이의 거리)를 산출할 수 있다.Accordingly, the at least one processor may include a plurality of first images and a plurality of first images obtained by processing light rays having a wavelength introduced through one of the plurality of apertures 1210 and 1220 (the first aperture 1210). A light ray having a wavelength introduced through any one of the apertures 1210 and 1220 of the second aperture 1220 except for the first aperture 1210 of the apertures 1210 and 1220. Using the blur change between the second images obtained by processing, the distance between the endoscope microscope and the object (more precisely, the distance between the image sensor 1100 and the object) may be calculated.

이와 같이, 일 실시예에 따른 내시현미경은 단일 광학계 상에 서로 일치하는 중심 위치를 가진 채 서로 다른 파장의 광선을 각각 유입시키는 복수의 애퍼처들(1210, 1220)이 형성된 카메라 시스템을 포함함으로써, 카메라 시스템의 단면적을 최소화하여 소형화를 도모하는 동시에, 이미지 센서에서 획득한 두 개의 이미지들(제1 이미지 및 제2 이미지) 사이의 블러 변화를 이용하여 내시현미경 및 오브젝트 사이의 거리(깊이)를 산출하는 기술을 제안할 수 있다. 마찬가지로, 이미지들 사이의 블러 변화를 이용하여 깊이를 산출하는 상세한 설명은 본 발명의 기술적 사상을 벗어나므로 생략하기로 한다.As such, the endoscope microscope according to an embodiment includes a camera system in which a plurality of apertures 1210 and 1220 are formed to introduce light rays of different wavelengths, respectively, having a central position coincident with each other on a single optical system. Minimize the cross-sectional area of the camera system and at the same time calculate the distance (depth) between the endoscope and the object by using the blurring change between the two images (first image and second image) acquired by the image sensor You can suggest a technique. Similarly, detailed descriptions for calculating depths using blurring variations between images are omitted because they depart from the technical spirit of the present invention.

도 13은 다른 일 실시예에 따라 DA가 적용된 내시현미경의 카메라 시스템을 설명하기 위한 도면이다.13 is a diagram for describing a camera system of an endoscope microscope to which DA is applied, according to another exemplary embodiment.

도 13을 참조하면, 다른 일 실시예에 따라 DA가 적용된 내시현미경의 카메라 시스템에 포함되는 단일 광학계(1300)에는 서로 다른 파장의 광선을 각각 유입시키며 서로 어긋난 중심 위치를 갖는 복수의 애퍼처들(1310, 1320)이 형성된다. 예를 들어, 단일 광학계(1300)에는 RGB 파장의 광선을 유입시키는 제1 애퍼처(1310)와 IR 파장의 광선을 유입시키는 제2 애퍼처(1320)가 서로 어긋난 중심 위치를 가진 채 형성될 수 있다. 이하, 제1 애퍼처(1310)가 RGB 파장의 광선을 유입시키고, 제2 애퍼처(1320)가 IR 파장의 광선을 유입시키는 가운데, 서로 동일한 크기로 나란히 형성되는 것으로 설명하나, 이에 제한되거나 한정되지 않고 제1 애퍼처(1310) 및 제2 애퍼처(1320)는 서로 다른 파장의 광선을 유입시키며 서로 어긋난 중심 위치를 갖는 제약 아래 다양하게 구현될 수 있다. 예컨대, 제1 애퍼처(1310) 및 제2 애퍼처(1320)는 적어도 일부 영역이 겹치도록 형성되거나, 제1 애퍼처(1310) 상에 제2 애퍼처(1320)가 형성될 수도 있다.Referring to FIG. 13, in a single optical system 1300 included in a camera system of an endoscope microscope to which DA is applied, a plurality of apertures having different center positions from each other by introducing light beams having different wavelengths ( 1310, 1320 are formed. For example, in the single optical system 1300, the first aperture 1310 for introducing the light of the RGB wavelength and the second aperture 1320 for introducing the light of the IR wavelength may be formed with the center positions deviated from each other. have. Hereinafter, while the first aperture 1310 introduces the light of the RGB wavelength and the second aperture 1320 introduces the light of the IR wavelength, the first aperture 1310 is formed side by side with the same size, but is limited or limited thereto. Instead, the first aperture 1310 and the second aperture 1320 may be implemented in various ways under the constraint of introducing light rays having different wavelengths and having misaligned center positions. For example, the first aperture 1310 and the second aperture 1320 may be formed so that at least some regions overlap or the second aperture 1320 may be formed on the first aperture 1310.

이에, 제1 애퍼처(1310)를 통해 유입된 파장의 광선이 이미지 센서(도면에는 도시되지 않음)에서 처리되어 획득되는 제1 이미지와 제2 애퍼처(1320)를 통해 유입된 파장의 광선이 이미지 센서에서 처리되어 획득되는 제2 이미지 사이에는 시차가 존재하게 된다.Accordingly, the light rays of the wavelengths introduced through the first image and the second aperture 1320 obtained by processing the light rays of the wavelengths introduced through the first aperture 1310 are processed by an image sensor (not shown). A parallax exists between the second images processed and acquired by the image sensor.

따라서, 적어도 하나의 프로세서는, 복수의 애퍼처들(1310, 1320) 중 어느 하나의 애퍼처(제1 애퍼처(1310))를 통해 유입된 파장의 광선을 처리하여 획득되는 제1 이미지 및 복수의 애퍼처들(1310, 1320) 중 상기 어느 하나의 애퍼처(제1 애퍼처(1310))를 제외한 나머지 어느 하나의 애퍼처(제2 애퍼처(1320))를 통해 유입된 파장의 광선을 처리하여 획득되는 제2 이미지 사이의 시차를 이용하여, 내시현미경 및 오브젝트 사이의 거리(보다 정확하게는, 이미지 센서(1300) 및 오브젝트 사이의 거리)를 산출할 수 있다. 이처럼 복수의 애퍼처들(1310, 1320) 구조에서 이미지들 사이의 시차를 이용하여 깊이를 산출하는 방식은 도 1을 참조하여 상술되었으므로 생략하기로 한다.Accordingly, the at least one processor may include a plurality of first images and a plurality of first images obtained by processing light beams having a wavelength introduced through one of the plurality of apertures 1310 and 1320 (the first aperture 1310). Light rays of a wavelength introduced through any one of the apertures (the second aperture 1320) except for the one of the apertures 1310 and 1320 of the first (the first aperture 1310). The distance between the endoscope microscope and the object (more precisely, the distance between the image sensor 1300 and the object) may be calculated using the parallax between the second images obtained by processing. As described above with reference to FIG. 1, a method of calculating depth by using parallax between images in the plurality of apertures 1310 and 1320 is omitted.

이와 같이, 다른 일 실시예에 따른 내시현미경은 단일 광학계 상에 서로 어긋난 중심 위치를 가진 채 서로 다른 파장의 광선을 각각 유입시키는 복수의 애퍼처들(1310, 1320)이 형성된 카메라 시스템을 포함함으로써, 카메라 시스템의 단면적을 최소화하여 소형화를 도모하는 동시에, 이미지 센서에서 획득한 두 개의 이미지들(제1 이미지 및 제2 이미지) 사이의 시차를 이용하여 내시현미경 및 오브젝트 사이의 거리(깊이)를 산출하는 기술을 제안할 수 있다.As described above, the endoscope microscope according to another embodiment includes a camera system in which a plurality of apertures 1310 and 1320 are formed to introduce light rays having different wavelengths, respectively, having a center position deviated from each other on a single optical system. Minimizing the cross-sectional area of the camera system and minimizing the cross-sectional area of the camera system, while calculating the distance (depth) between the endoscope microscope and the object using the parallax between two images (first image and second image) acquired by the image sensor You can suggest a technique.

도 14는 일 실시예에 따라 서브 픽셀 구조가 적용된 내시현미경의 카메라 시스템을 설명하기 위한 도면이다.14 is a diagram for describing a camera system of an endoscope microscope to which a subpixel structure is applied, according to an exemplary embodiment.

도 14를 참조하면, 일 실시예에 따라 서브 픽셀 구조가 적용된 내시현미경의 카메라 시스템에 포함되는 이미지 센서(1400)는, 복수의 파장들을 갖는 광선을 파장 별로 처리하는 복수의 픽셀들(1411, 1412, 1413, 1414)로 구성되는 픽셀 세트(1410)를 적어도 한 개 이상 구비할 수 있다. 도면에는, 이미지 센서(1400)가 9개의 픽셀 세트를 구비하는 경우로 도시되었으며, 픽셀 세트(1410)에 R 픽셀, G 픽셀, B 픽셀, W 픽셀이 포함되는 경우로 도시되었으나, 이에 제한되거나 한정되지는 않는다. 즉, 픽셀 세트(1410)는 R, G, B, W 픽셀들로 구성되는 대신에, W, R, B, W 픽셀들로 구성될 수도 있다.Referring to FIG. 14, an image sensor 1400 included in a camera system of an endoscope microscope to which a sub-pixel structure is applied according to an embodiment may include a plurality of pixels 1411 and 1412 that process light rays having a plurality of wavelengths for each wavelength. , At least one pixel set 1410 including 1413 and 1414. In the drawing, the image sensor 1400 is illustrated as having nine pixel sets, and the pixel set 1410 includes R pixels, G pixels, B pixels, and W pixels. It doesn't work. That is, the pixel set 1410 may be composed of W, R, B, and W pixels instead of R, G, B, and W pixels.

특히, 이미지 센서(1400)에서 픽셀 세트(1410)에 포함되는 복수의 픽셀들(1411, 1412, 1413, 1414) 중 어느 하나의 픽셀(예컨대, 제4 픽셀(1414))은 서브 픽셀 구조를 가질 수 있다. 보다 상세하게, 제4 픽셀(1414)은 광선의 다발 중 중심부의 광선이 입사되는 중심 서브 픽셀(1414-1) 및 광선의 다발 중 주변부의 광선이 입사되는 적어도 하나의 주변 서브 픽셀(1414-2, 1414-3)을 포함할 수 있다. 이하, 서브 픽셀 구조를 갖는 제4 픽셀(1414)이 두 개의 주변 서브 픽셀들(1414-2, 1414-3)을 포함하는 경우로 설명되나 이에 제한되거나 한정되지 않는다.In particular, any one of the plurality of pixels 1411, 1412, 1413, and 1414 (eg, the fourth pixel 1414) included in the pixel set 1410 in the image sensor 1400 may have a subpixel structure. Can be. More specifically, the fourth pixel 1414 includes a center subpixel 1414-1 through which a light ray at the center of the bundle of light beams is incident and at least one peripheral subpixel 1414-2 through which light rays from the periphery of the bundle of light rays are incident , 1414-3). Hereinafter, the fourth pixel 1414 having the subpixel structure will be described as including two peripheral subpixels 1414-2 and 1414-3, but the present invention is not limited thereto.

따라서, 중심 서브 픽셀(1414-1)을 통해 획득되는 제1 이미지는 주변 서브 픽셀들(1414-2, 1414-3)을 통해 획득된 신호가 병합되어 생성되는 제2 이미지보다 더 선명하게 된다. 즉, 중심 서브 픽셀(1414-1)을 통해 획득되는 제1 이미지 및 주변 서브 픽셀들(1414-2, 1414-3)을 통해 획득된 신호가 병합되어 생성되는 제2 이미지 사이에는 블러 차이가 존재하게 된다.Therefore, the first image acquired through the center subpixel 1414-1 is sharper than the second image generated by merging the signals acquired through the peripheral subpixels 1414-2 and 1414-3. That is, a blur difference exists between a first image acquired through the center subpixel 1414-1 and a second image generated by merging a signal obtained through the neighboring subpixels 1414-2 and 1414-3. Done.

이에, 적어도 하나의 프로세서는, 중심 서브 픽셀(1414-1)을 통해 획득되는 제1 이미지 및 주변 서브 픽셀들(1414-2, 1414-3)을 통해 획득된 신호가 병합되어 생성되는 제2 이미지 사이의 블러 변화를 이용하여, 내시현미경 및 오브젝트 사이의 거리(보다 정확하게는, 이미지 센서(1400) 및 오브젝트 사이의 거리)를 산출할 수 있다.Accordingly, the at least one processor may be configured to merge the first image acquired through the center subpixel 1414-1 and the signal obtained through the neighboring subpixels 1414-2 and 1414-3. The blur change between the two may be used to calculate the distance between the endoscope microscope and the object (more precisely, the distance between the image sensor 1400 and the object).

또한, 두 개의 주변 서브 픽셀들(1414-2, 1414-3) 중 제1 주변 서브 픽셀(1414-2)의 중심과 과 제2 주변 서브 픽셀(1414-3)의 중심이 수평, 수직 또는 대각 방향으로 어긋나게 배치됨에 따라, 두 개의 주변 서브 픽셀들(1414-2, 1414-3) 중 제1 주변 서브 픽셀(1414-2)을 통해 획득되는 신호를 이용하여 생성되는 제3 이미지와 제2 주변 서브 픽셀(1414-3)을 통해 획득되는 신호를 이용하여 생성되는 제4 이미지 사이에는 수평, 수직 또는 대각 시차가 존재하게 된다.Also, the center of the first peripheral subpixel 1414-2 and the center of the second peripheral subpixel 1414-3 of the two peripheral subpixels 1414-2 and 1414-3 are horizontal, vertical, or diagonal. In a direction displaced, a third image and a second peripheral generated using a signal acquired through the first peripheral subpixel 1414-2 of the two peripheral subpixels 1414-2 and 1414-3. Horizontal, vertical, or diagonal parallaxes exist between the fourth images generated by using signals acquired through the subpixels 1414-3.

따라서, 적어도 하나의 프로세서는, 제1 주변 서브 픽셀(1414-2)을 통해 획득되는 제3 이미지 및 제2 주변 서브 픽셀(1414-3)을 통해 획득되는 제4 이미지 사이의 시차를 이용하여 내시현미경 및 오브젝트 사이의 거리(보다 정확하게는, 이미지 센서(1400) 및 오브젝트 사이의 거리)를 산출할 수 있다.Accordingly, the at least one processor may use the parallax between the third image acquired through the first peripheral subpixel 1414-2 and the fourth image acquired through the second peripheral subpixel 1414-3. The distance between the microscope and the object (more precisely, the distance between the image sensor 1400 and the object) can be calculated.

이와 같이, 일 실시예에 따른 내시현미경은 단일 광학계 아래 서브 픽셀 구조가 적용된 이미지 센서(1400)를 포함하는 카메라 시스템을 활용함으로써, 카메라 시스템의 단면적을 최소화하여 소형화를 도모하는 동시에, 이미지 센서(1400)에서 획득한 두 개의 이미지들(제1 이미지 및 제2 이미지) 사이의 블러 변화 또는 시차를 이용하여 내시현미경 및 오브젝트 사이의 거리(깊이)를 산출하는 기술을 제안할 수 있다.As such, the endoscope according to an embodiment utilizes a camera system including an image sensor 1400 to which a subpixel structure is applied under a single optical system, thereby minimizing the cross-sectional area of the camera system and simultaneously minimizing the cross-sectional area of the camera system. ), A technique for calculating a distance (depth) between an endoscope microscope and an object by using a blur variation or parallax between two images (first image and second image) acquired in FIG.

도 15는 일 실시예에 따른 내시현미경의 동작 방법을 나타낸 흐름도이다. 이하, 내시현미경의 동작 방법은 도 2 내지 14를 참조하여 상술된 카메라 시스템 및 적어도 하나의 프로세서를 포함하는 내시현미경에 의해 수행될 수 있다.15 is a flowchart illustrating a method of operating an endoscope according to an embodiment. Hereinafter, the method of operating the endoscope may be performed by the endoscope including the camera system described above with reference to FIGS. 2 to 14 and at least one processor.

도 15를 참조하면, 단계(S1510)에서, 단일 광학계와 함께 카메라 시스템을 구성하는 이미지 센서는, 내시현미경의 주변에 위치하는 오브젝트를 촬영한 두 개의 이미지들을 획득할 수 있다.Referring to FIG. 15, in operation S1510, an image sensor constituting a camera system together with a single optical system may acquire two images photographing an object located around the endoscope microscope.

이후, 단계(S1520)에서, 적어도 하나의 프로세서는 두 개의 이미지들을 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다.In operation S1520, at least one processor may calculate a distance between the endoscope microscope and the object using the two images.

이 때, 이미지 센서는 복수의 파장들을 갖는 광선을 파장 별로 처리하는 복수의 픽셀들로 구성되는 픽셀 세트를 적어도 한 개 이상 포함할 수 있으며, 실시예에 따라 OPA가 적용되거나, PA가 적용되거나, 서브 픽셀 구조가 적용될 수 있다. 또한, 실시예에 따라서는 카메라 시스템을 구성하는 단일 광학계에는 DA가 형성될 수 있다.In this case, the image sensor may include at least one pixel set consisting of a plurality of pixels for processing a light ray having a plurality of wavelengths for each wavelength, and according to an embodiment, OPA is applied, PA is applied, The sub pixel structure can be applied. Further, according to the embodiment, DA may be formed in a single optical system constituting the camera system.

따라서, 이미지 센서에 OPA가 적용된 경우, 단계(S1510)에서 이미지 센서는, 복수의 픽셀들 중 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 제1 이미지를 획득하고, 복수의 픽셀들 중 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 제외한 나머지 어느 하나의 픽셀(오프셋 마스크가 상부에 배치되지 않은 픽셀)을 통해 제2 이미지를 획득할 수 있으며, 단계(S1520)에서 적어도 하나의 프로세서는, 제1 이미지 및 제2 이미지 사이의 시차를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다.Therefore, when OPA is applied to the image sensor, in operation S1510, the image sensor acquires a first image through any one of the plurality of pixels in which an offset mask is disposed, and the offset among the plurality of pixels. The second image may be acquired through any one of the pixels (pixels in which the offset mask is not disposed above) except for any one pixel in which the mask is disposed thereon, and in operation S1520, the at least one processor may include: The distance between the endoscope microscope and the object may be calculated using the parallax between the first image and the second image.

또한, 이미지 센서에 픽셀 세트가 복수 개 포함되는 경우, 복수의 픽셀 세트들 중 어느 하나의 픽셀 세트에서 어느 하나의 픽셀의 상부에 배치되는 오프셋 마스크의 OPA는, 복수의 픽셀 세트들 중 어느 하나의 픽셀 세트를 제외한 나머지 어느 하나의 픽셀 세트에서 어느 하나의 픽셀의 상부에 배치되는 오프셋 마스크의 OPA의 중심과 어긋난 중심 위치를 가질 수 있다. 이에, 단계(S1510)에서 이미지 센서는, 복수의 픽셀 세트들 중 어느 하나의 픽셀 세트에서 오프셋 마스크가 상부에 배치되는 하나의 픽셀을 통해 제1 이미지를 획득하고, 복수의 픽셀 세트들 중 나머지 어느 하나의 픽셀 세트에서 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 제2 이미지를 획득할 수 있으며, 단계(S1020)에서 적어도 하나의 프로세서는, 제1 이미지 및 제2 이미지 사이의 시차를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다.In addition, when the image sensor includes a plurality of pixel sets, the OPA of the offset mask disposed on top of any one pixel in any one of the plurality of pixel sets may be set to any one of the plurality of pixel sets. In any one pixel set except for the pixel set, the pixel may have a center position that is offset from the center of the OPA of the offset mask disposed above the one pixel. Accordingly, in operation S1510, the image sensor acquires a first image through one pixel in which an offset mask is disposed in any one of the plurality of pixel sets, and the remaining one of the plurality of pixel sets. In one pixel set, a second image may be acquired through one pixel having an offset mask disposed thereon, and in operation S1020, the at least one processor may use a parallax between the first image and the second image. The distance between the endoscope microscope and the object can be calculated.

또한, 이미지 센서에 PA가 적용된 경우, 단계(S1510)에서 이미지 센서는, 복수의 픽셀들 중 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 제1 이미지를 획득하고, 복수의 픽셀들 중 상기 어느 하나의 픽셀을 제외한 나머지 어느 하나의 픽셀을 통해 제2 이미지를 획득할 수 있으며, 단계(S1520)에서 적어도 하나의 프로세서는 제1 이미지 및 제2 이미지 사이의 블러 변화를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다.In addition, when the PA is applied to the image sensor, in step S1510, the image sensor acquires a first image through any one of the plurality of pixels in which a mask is disposed, and any of the plurality of pixels. The second image may be acquired through any one pixel except for one pixel, and in operation S1520, the at least one processor may use the blurring between the first image and the second image between the endoscope and the object. The distance of can be calculated.

또한, 이미지 센서에 서브 픽셀 구조가 적용된 경우, 단계(S1510)에서 이미지 센서는, 서브 픽셀 구조를 갖는 어느 하나의 픽셀 중 중심부의 광선이 입사되는 중심 서브 픽셀을 통해 제1 이미지를 획득하고, 상기 어느 하나의 픽셀 중 주변부의 광선이 입사되는 주변 서브 픽셀을 통해 획득된 신호를 병합하여 제2 이미지를 생성할 수 있으며, 단계(S1520)에서 적어도 하나의 프로세서는 제1 이미지 및 제2 이미지 사이의 블러 변화를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다. 더 나아가, 적어도 하나의 주변 서브 픽셀이 복수 개 구비되는 경우, 단계(S1510)에서 이미지 센서는, 복수의 주변 서브 픽셀들 중 어느 하나의 주변 서브 픽셀을 통해 제3 이미지를 획득하고 복수의 주변 서브 픽셀들 중 상기 어느 하나의 주변 서브 픽셀을 제외한 나머지 어느 하나의 주변 서브 픽셀을 통해 제4 이미지를 획득할 수 있으며, 단계(S1520)에서 적어도 하나의 프로세서는, 제3 이미지 및 제4 이미지 사이의 시차를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다.In addition, when a subpixel structure is applied to the image sensor, in operation S1510, the image sensor acquires a first image through a center subpixel through which a light ray at a center of the pixels of the subpixel structure is incident. A second image may be generated by merging a signal obtained through a peripheral subpixel into which a ray of a periphery of one of the pixels is incident, and in operation S1520, at least one processor may generate a second image between the first image and the second image. The blur variation can be used to calculate the distance between the endoscope microscope and the object. Furthermore, when a plurality of at least one peripheral subpixel is provided, in operation S1510, the image sensor acquires a third image through one of the plurality of peripheral subpixels and the plurality of peripheral subpixels. The fourth image may be acquired through any one of the peripheral subpixels other than the one of the peripheral subpixels among the pixels, and in operation S1520, the at least one processor may generate a fourth image between the third image and the fourth image. The parallax may be used to calculate the distance between the endoscope microscope and the object.

또한, 이미지 센서가 일반적인 구조로 형성되며 단일 광학계 상에 DA가 적용된 경우(OPA, PA 또는 서브 픽셀 구조가 적용되지 않은 채, 서로 다른 파장의 광선을 유입시키되 서로 일치하는 중심 위치를 갖는 복수의 애퍼처들이 단일 광학계 상에 형성되는 경우), 단계(S1510)에서 이미지 센서는, 복수의 애퍼처들 중 어느 하나의 애퍼처를 통과하는 파장의 광선에 기초하여 제1 이미지를 획득하고 복수의 애퍼처들 중 상기 어느 하나의 애퍼처를 제외한 나머지 어느 하나의 애퍼처를 통과하는 파장의 광선에 기초하여 제2 이미지를 획득할 수 있으며, 단계(S1520)에서 적어도 하나의 프로세서는 제1 이미지 및 제2 이미지 사이의 블러 변화를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다.In addition, when the image sensor is formed in a general structure and DA is applied on a single optical system (OPA, PA, or a sub-pixel structure is not applied, a plurality of plural arcs having a central position coinciding with each other by introducing light beams of different wavelengths) are applied. If the apertures are formed on a single optical system), in step S1510 the image sensor acquires a first image based on the light of the wavelength passing through the aperture of any one of the plurality of apertures and the plurality of apertures. Among them, a second image may be acquired based on a light ray having a wavelength passing through any one of the apertures except for the aperture, and in operation S1520, the at least one processor may generate the first image and the second image. The blur variation between the images can be used to calculate the distance between the endoscope microscope and the object.

반면에, 이미지 센서가 일반적인 구조로 형성되며 단일 광학계 상에 DA가 적용된 경우(OPA, PA 또는 서브 픽셀 구조가 적용되지 않은 채, 서로 다른 파장의 광선을 유입시키되 서로 어긋난 중심 위치를 갖는 복수의 애퍼처들이 단일 광학계 상에 형성되는 경우), 단계(S1510)에서 이미지 센서는, 복수의 애퍼처들 중 어느 하나의 애퍼처를 통과하는 파장의 광선에 기초하여 제1 이미지를 획득하고 복수의 애퍼처들 중 상기 어느 하나의 애퍼처를 제외한 나머지 어느 하나의 애퍼처를 통과하는 파장의 광선에 기초하여 제2 이미지를 획득할 수 있으며, 단계(S1520)에서 적어도 하나의 프로세서는 제1 이미지 및 제2 이미지 사이의 시차를 이용하여 내시현미경 및 오브젝트 사이의 거리를 산출할 수 있다.On the other hand, when the image sensor is formed in a general structure and DA is applied on a single optical system (OPA, PA, or sub-pixel structure is not applied, a plurality of plural arcs having different center positions in which light rays of different wavelengths are introduced but are shifted from each other) If the apertures are formed on a single optical system), in step S1510 the image sensor acquires a first image based on the light of the wavelength passing through the aperture of any one of the plurality of apertures and the plurality of apertures. Among them, a second image may be acquired based on a light ray having a wavelength passing through any one of the apertures except for the aperture, and in operation S1520, the at least one processor may generate the first image and the second image. The parallax between the images can be used to calculate the distance between the endoscope microscope and the object.

도면에는 도시되지 않았지만, 내시현미경의 동작 방법은 단계들(S1510 내지 S1520) 이외에, 내시현미경 및 오브젝트 사이의 거리에 기초하여 내시현미경과 오브젝트 사이의 충돌을 회피하기 위한 동작을 수행하는 단계를 더 포함할 수도 있다. 이처럼 충돌을 회피하기 위한 동작은, 내시현미경 및 오브젝트 사이의 거리를 이용하여 내시현미경이 오브젝트에 충돌하지 않도록 자동으로 내시현미경을 조작하는 것일 수 있으나, 이에 제한되거나 한정되지 않는다. 일례로, 충돌을 회피하기 위한 동작은 내시현미경 및 오브젝트 사이의 거리가 내시현미경을 조작하는 사용자에게 제공되고, 이에 응답하여 사용자로부터 입력되는 조작에 따라 수행될 수도 있다.Although not shown in the drawings, the method of operating the endoscope further includes performing operations for avoiding collision between the endoscope microscope and the object based on the distance between the endoscope microscope and the object, in addition to steps S1510 to S1520. You may. As such, the operation for avoiding the collision may be to automatically manipulate the endoscope so that the endoscope does not collide with the object by using the distance between the endoscope and the object, but is not limited thereto. In one example, the operation for avoiding the collision may be performed according to an operation input from the user in response to the distance between the endoscope microscope and the object being provided to the user operating the endoscope microscope.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the devices and components described in the embodiments may include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), a programmable PLU (programmable). It can be implemented using one or more general purpose or special purpose computers, such as logic units, microprocessors, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of explanation, one processing device may be described as being used, but one of ordinary skill in the art will appreciate that the processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the above, and may configure the processing device to operate as desired, or process independently or collectively. You can command the device. The software and / or data may be embodied in any type of machine, component, physical device, computer storage medium or device in order to be interpreted by or provided to the processing device or to provide instructions or data to the processing device. have. The software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded on a computer readable medium. In this case, the medium may be to continuously store a computer executable program or to temporarily store the program for execution or download. In addition, the medium may be a variety of recording means or storage means in the form of a single or several hardware combined, not limited to a medium directly connected to any computer system, it may be distributed on the network. Examples of media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, And ROM, RAM, flash memory, and the like, configured to store program instructions. In addition, examples of another medium may include a recording medium or a storage medium managed by an app store that distributes an application, a site that supplies or distributes various software, a server, or the like.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described by the limited embodiments and the drawings as described above, various modifications and variations are possible to those skilled in the art from the above description. For example, the described techniques may be performed in a different order than the described method, and / or components of the described systems, structures, devices, circuits, etc. may be combined or combined in a different form than the described method, or other components. Or, even if replaced or substituted by equivalents, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are within the scope of the claims that follow.

Claims (24)

단안 카메라를 이용한 내시현미경에 있어서,
상기 내시현미경의 선단부에 위치한 채, 단일 광학계 및 이미지 센서-상기 이미지 센서는 복수의 파장들을 갖는 광선을 파장 별로 처리하는 복수의 픽셀들로 구성되는 픽셀 세트를 적어도 한 개 이상 포함함-로 구성되는 카메라 시스템; 및
상기 이미지 센서에서 획득된 적어도 두 개의 이미지들을 이용하여 상기 내시현미경 및 상기 내시현미경의 주변에 위치하는 오브젝트 사이의 거리를 산출하는 적어도 하나의 프로세서
를 포함하고,
상기 이미지 센서의 상기 픽셀 세트 내에 포함되는 복수의 픽셀들 중 어느 하나의 픽셀의 상부에는,
상기 어느 하나의 픽셀의 중심과 어긋난 중심 위치를 갖는 OPA(Offset Pixel Aperture)가 형성된 오프셋 마스크가 배치되고,
상기 적어도 하나의 프로세서는,
상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 획득된 이미지 및 상기 복수의 픽셀들 중 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 제외한 나머지 어느 하나의 픽셀을 통해 획득된 이미지 사이의 시차(Disparity)를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단안 카메라를 이용한 내시현미경.
In an endoscope microscope using a monocular camera,
A single optical system and an image sensor, the image sensor including at least one pixel set consisting of a plurality of pixels for processing wavelengths of light having a plurality of wavelengths, positioned at the distal end of the endoscope microscope Camera system; And
At least one processor configured to calculate a distance between the endoscope microscope and an object located around the endoscope microscope using at least two images acquired by the image sensor
Including,
On top of any one of a plurality of pixels included in the pixel set of the image sensor,
An offset mask having an Offset Pixel Aperture (OPA) having a center position deviated from the center of the one pixel is disposed,
The at least one processor,
Between an image obtained through one pixel on which the offset mask is disposed and an image obtained through any other pixel except any one of the plurality of pixels on which the offset mask is disposed An endoscope microscope using a monocular camera for calculating the distance between the endoscope microscope and the object using a disparity.
삭제delete 제1항에 있어서,
상기 오프셋 마스크에 형성된 OPA는,
상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀의 중심을 기준으로 수평, 수직 또는 대각 중 어느 하나의 방향으로 오프셋되는 중심 위치를 갖는, 단안 카메라를 이용한 내시현미경.
The method of claim 1,
OPA formed in the offset mask,
An endoscope using a monocular camera having a center position that is offset in the direction of any one of the horizontal, vertical or diagonal with respect to the center of any one pixel disposed above the offset mask.
제1항에 있어서,
상기 오프셋 마스크는,
상기 복수의 픽셀들 중 최대 광 투과(Maximum light transmission) 특성을 갖는 어느 하나의 픽셀의 상부에 배치되는, 단안 카메라를 이용한 내시현미경.
The method of claim 1,
The offset mask is,
An endoscope microscope using a monocular camera, disposed on top of any one of the plurality of pixels having the maximum light transmission characteristics.
제1항에 있어서,
상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀은,
상기 복수의 픽셀들 중 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 제외한 나머지 어느 하나의 픽셀에서 처리하는 광선의 파장과 구별되는 다른 파장의 광선을 처리하는, 단안 카메라를 이용한 내시현미경.
The method of claim 1,
One pixel in which the offset mask is disposed above,
An endoscope microscope using a monocular camera, wherein the offset mask of the plurality of pixels processes a light beam having a wavelength different from that of the light beam to be processed in any one pixel except for any one pixel disposed above.
제1항에 있어서,
상기 이미지 센서에 상기 픽셀 세트가 복수 개 포함되는 경우, 상기 복수의 픽셀 세트들 중 어느 하나의 픽셀 세트에서 어느 하나의 픽셀의 상부에 배치되는 오프셋 마스크의 OPA는,
상기 복수의 픽셀 세트들 중 상기 어느 하나의 픽셀 세트를 제외한 나머지 어느 하나의 픽셀 세트에서 어느 하나의 픽셀의 상부에 배치되는 오프셋 마스크의 OPA의 중심과 어긋난 중심 위치를 갖는, 단안 카메라를 이용한 내시현미경.
The method of claim 1,
When the plurality of pixel sets are included in the image sensor, the OPA of the offset mask disposed on any one pixel in any one of the plurality of pixel sets is
An endoscope microscope using a monocular camera having a center position deviating from the center of an OPA of an offset mask disposed above any one pixel in any other pixel set except the one of the plurality of pixel sets .
제6항에 있어서,
상기 적어도 하나의 프로세서는,
상기 어느 하나의 픽셀 세트에서 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 획득된 이미지 및 상기 나머지 어느 하나의 픽셀 세트에서 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 획득된 이미지 사이의 시차를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는, 단안 카메라를 이용한 내시현미경.
The method of claim 6,
The at least one processor,
An image obtained through one pixel on which the offset mask is disposed in the set of one pixel and an image obtained through any pixel on which the offset mask is disposed in the other set of pixels An endoscope microscope using a monocular camera, to calculate the distance between the endoscope microscope and the object using the parallax between.
제1항에 있어서,
상기 OPA는,
원, 타원, 삼각, 사각 또는 다각 중 어느 하나의 형태를 갖도록 상기 오프셋 마스크 상에 형성되는, 단안 카메라를 이용한 내시현미경.
The method of claim 1,
The OPA,
An endoscope microscope using a monocular camera, formed on the offset mask to have any one of a circle, an ellipse, a triangle, a square or a polygon.
삭제delete 삭제delete 삭제delete 단안 카메라를 이용한 내시현미경에 있어서,
상기 내시현미경의 선단부에 위치한 채, 단일 광학계 및 이미지 센서-상기 이미지 센서는 복수의 파장들을 갖는 광선을 파장 별로 처리하는 복수의 픽셀들로 구성되는 픽셀 세트를 적어도 한 개 이상 포함함-로 구성되는 카메라 시스템; 및
상기 이미지 센서에서 획득된 적어도 두 개의 이미지들을 이용하여 상기 내시현미경 및 상기 내시현미경의 주변에 위치하는 오브젝트 사이의 거리를 산출하는 적어도 하나의 프로세서
를 포함하고,
상기 이미지 센서의 상기 픽셀 세트 내에 포함되는 복수의 픽셀들 중 어느 하나의 픽셀은,
광선의 다발 중 중심부의 광선이 입사되는 중심 서브 픽셀 및 상기 광선의 다발 중 주변부의 광선이 입사되는 적어도 하나의 주변 서브 픽셀을 포함하고,
상기 적어도 하나의 프로세서는,
상기 중심 서브 픽셀을 통해 획득된 이미지 및 상기 적어도 하나의 주변 서브 픽셀을 통해 획득된 신호가 병합되어 생성되는 이미지 사이의 블러 변화를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는, 단안 카메라를 이용한 내시현미경.
In an endoscope microscope using a monocular camera,
A single optical system and an image sensor, the image sensor including at least one pixel set consisting of a plurality of pixels for processing wavelengths of light having a plurality of wavelengths, positioned at the distal end of the endoscope microscope Camera system; And
At least one processor configured to calculate a distance between the endoscope microscope and an object located around the endoscope microscope using at least two images acquired by the image sensor
Including,
Any one of a plurality of pixels included in the pixel set of the image sensor,
A central subpixel into which a light ray in the center of the bundle of light beams is incident, and at least one peripheral subpixel into which a light ray in the periphery of the bundle of light rays is incident;
The at least one processor,
A monocular camera for calculating a distance between the endoscope microscope and the object using a blurring change between an image obtained through the center subpixel and an image obtained by merging a signal obtained through the at least one peripheral subpixel. Endoscopic Microscope.
제12항에 있어서,
상기 적어도 하나의 프로세서는,
상기 적어도 하나의 주변 서브 픽셀이 복수 개 구비되는 경우, 상기 복수의 주변 서브 픽셀들을 통해 각각 획득된 이미지들 사이의 시차를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는, 단안 카메라를 이용한 내시현미경.
The method of claim 12,
The at least one processor,
When the at least one peripheral subpixel is provided in plural, the distance between the endoscope microscope and the object is calculated using the parallax between the images acquired through the plurality of peripheral subpixels, respectively. Endoscopic Microscope.
제1항 또는 제12항 중 어느 한 항에 있어서,
상기 적어도 하나의 프로세서는,
상기 내시현미경 및 상기 오브젝트 사이의 거리에 기초하여 상기 내시현미경과 상기 오브젝트의 충돌을 회피하기 위한 동작을 수행하는, 단안 카메라를 이용한 내시현미경.
The method according to any one of claims 1 to 12,
The at least one processor,
And an operation to avoid collision between the endoscope microscope and the object based on the distance between the endoscope microscope and the object.
제1항 또는 제12항 중 어느 한 항에 있어서,
상기 카메라 시스템은,
상기 내시현미경에서 자유롭게 굴곡 또는 만곡 가능한 만곡부의 선단에 위치하는, 단안 카메라를 이용한 내시현미경.
The method according to any one of claims 1 to 12,
The camera system,
An endoscope microscope using a monocular camera, which is located at the tip of the curved portion that can be bent or curved freely in the endoscope microscope.
단안 카메라를 이용한 내시현미경의 동작 방법에 있어서,
상기 내시현미경의 선단부에 위치한 카메라 시스템을 단일 광학계와 함께 구성하는 이미지 센서-상기 이미지 센서는 복수의 파장들을 갖는 광선을 파장 별로 처리하는 복수의 픽셀들로 구성되는 픽셀 세트를 적어도 한 개 이상 포함함-에서, 상기 내시현미경의 주변에 위치하는 오브젝트를 촬영한 두 개의 이미지들을 획득하는 단계; 및
적어도 하나의 프로세서에서, 상기 두 개의 이미지들을 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계
를 포함하고,
상기 이미지 센서의 상기 픽셀 세트 내에 포함되는 복수의 픽셀들 중 어느 하나의 픽셀의 상부에는,
상기 어느 하나의 픽셀의 중심과 어긋난 중심 위치를 갖는 OPA(Offset Pixel Aperture)가 형성된 오프셋 마스크가 배치되고,
상기 두 개의 이미지들을 획득하는 단계는,
상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 제1 이미지를 획득하는 단계; 및
상기 복수의 픽셀들 중 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 제외한 나머지 어느 하나의 픽셀을 통해 제2 이미지를 획득하는 단계
를 포함하며,
상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계는,
상기 제1 이미지 및 상기 제2 이미지 사이의 시차(Disparity)를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계
를 포함하는 단안 카메라를 이용한 내시현미경의 동작 방법.
In the operation method of the endoscope microscope using a monocular camera,
An image sensor constituting a camera system located at the distal end of the endoscope microscope with a single optical system, the image sensor including at least one pixel set consisting of a plurality of pixels for processing a light beam having a plurality of wavelengths for each wavelength Obtaining at least two images of an object located around the endoscope microscope; And
Calculating, at at least one processor, the distance between the endoscope microscope and the object using the two images
Including,
On top of any one of a plurality of pixels included in the pixel set of the image sensor,
An offset mask having an Offset Pixel Aperture (OPA) having a center position deviated from the center of the one pixel is disposed,
Acquiring the two images,
Acquiring a first image through any one pixel on which the offset mask is disposed; And
Acquiring a second image through any one of the plurality of pixels except for any one pixel in which the offset mask is disposed.
Including;
Calculating the distance between the endoscope microscope and the object,
Calculating a distance between the endoscope microscope and the object by using a disparity between the first image and the second image
Operation method of the endoscope microscope using a monocular camera comprising a.
삭제delete 제16항에 있어서,
상기 이미지 센서에 상기 픽셀 세트가 복수 개 포함되는 경우, 상기 복수의 픽셀 세트들 중 어느 하나의 픽셀 세트에서 어느 하나의 픽셀의 상부에 배치되는 오프셋 마스크의 OPA는,
상기 복수의 픽셀 세트들 중 상기 어느 하나의 픽셀 세트를 제외한 나머지 어느 하나의 픽셀 세트에서 어느 하나의 픽셀의 상부에 배치되는 오프셋 마스크의 OPA의 중심과 어긋난 중심 위치를 갖고,
상기 두 개의 이미지들을 획득하는 단계는,
상기 어느 하나의 픽셀 세트에서 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 제1 이미지를 획득하는 단계; 및
상기 나머지 어느 하나의 픽셀 세트에서 상기 오프셋 마스크가 상부에 배치되는 어느 하나의 픽셀을 통해 제2 이미지를 획득하는 단계
를 포함하고,
상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계는,
상기 제1 이미지 및 상기 제2 이미지 사이의 시차를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계
를 포함하는 단안 카메라를 이용한 내시현미경의 동작 방법.
The method of claim 16,
When the plurality of pixel sets are included in the image sensor, the OPA of the offset mask disposed on any one pixel in any one of the plurality of pixel sets is
Has a center position deviated from the center of the OPA of the offset mask disposed on top of any one pixel in any one of the plurality of pixel sets except for any one of the pixel sets;
Acquiring the two images,
Acquiring a first image through any one pixel in which said offset mask is disposed on said one pixel set; And
Acquiring a second image through any one pixel in which the offset mask is disposed on the remaining one pixel set;
Including,
Calculating the distance between the endoscope microscope and the object,
Calculating a distance between the endoscope microscope and the object by using a parallax between the first image and the second image
Operation method of the endoscope microscope using a monocular camera comprising a.
삭제delete 삭제delete 삭제delete 단안 카메라를 이용한 내시현미경의 동작 방법에 있어서,
상기 내시현미경의 선단부에 위치한 카메라 시스템을 단일 광학계와 함께 구성하는 이미지 센서-상기 이미지 센서는 복수의 파장들을 갖는 광선을 파장 별로 처리하는 복수의 픽셀들로 구성되는 픽셀 세트를 적어도 한 개 이상 포함함-에서, 상기 내시현미경의 주변에 위치하는 오브젝트를 촬영한 두 개의 이미지들을 획득하는 단계; 및
적어도 하나의 프로세서에서, 상기 두 개의 이미지들을 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계
를 포함하고,
상기 이미지 센서의 상기 픽셀 세트 내에 포함되는 복수의 픽셀들 중 어느 하나의 픽셀은,
광선의 다발 중 중심부의 광선이 입사되는 중심 서브 픽셀 및 상기 광선의 다발 중 주변부의 광선이 입사되는 적어도 하나의 주변 서브 픽셀을 포함하고,
상기 두 개의 이미지들을 획득하는 단계는,
상기 중심 서브 픽셀을 통해 제1 이미지를 획득하는 단계; 및
상기 적어도 하나의 주변 서브 픽셀을 통해 획득된 신호를 병합하여 제2 이미지를 생성하는 단계
를 포함하며,
상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계는,
상기 제1 이미지 및 상기 제2 이미지 사이의 블러 변화를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계
를 포함하는 단안 카메라를 이용한 내시현미경의 동작 방법.
In the operation method of the endoscope microscope using a monocular camera,
An image sensor constituting a camera system located at the distal end of the endoscope microscope with a single optical system, the image sensor including at least one pixel set consisting of a plurality of pixels for processing a light beam having a plurality of wavelengths for each wavelength Obtaining at least two images of an object located around the endoscope microscope; And
Calculating, at at least one processor, the distance between the endoscope microscope and the object using the two images
Including,
Any one of a plurality of pixels included in the pixel set of the image sensor,
A central subpixel into which a light ray in the center of the bundle of light beams is incident, and at least one peripheral subpixel into which a light ray in the periphery of the bundle of light rays is incident;
Acquiring the two images,
Acquiring a first image through the center subpixel; And
Generating a second image by merging a signal acquired through the at least one peripheral subpixel
Including;
Calculating the distance between the endoscope microscope and the object,
Calculating a distance between the endoscope microscope and the object using a blur change between the first image and the second image
Operation method of the endoscope microscope using a monocular camera comprising a.
제22항에 있어서,
상기 제2 이미지를 생성하는 단계는,
상기 적어도 하나의 주변 서브 픽셀이 복수 개 구비되는 경우, 상기 복수의 주변 서브 픽셀들 중 어느 하나의 주변 서브 픽셀을 통해 제3 이미지를 획득하는 단계; 및
상기 복수의 주변 서브 픽셀들 중 상기 어느 하나의 주변 서브 픽셀을 제외한 나머지 어느 하나의 주변 서브 픽셀을 통해 제4 이미지를 획득하는 단계
를 포함하고,
상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계는,
상기 제3 이미지 및 상기 제4 이미지 사이의 시차를 이용하여 상기 내시현미경 및 상기 오브젝트 사이의 거리를 산출하는 단계
를 포함하는 단안 카메라를 이용한 내시현미경의 동작 방법.
The method of claim 22,
Generating the second image,
Acquiring a third image through any one of the plurality of peripheral subpixels when the at least one peripheral subpixel is provided; And
Acquiring a fourth image through any one of the plurality of neighboring subpixels except for one neighboring subpixel;
Including,
Calculating the distance between the endoscope microscope and the object,
Calculating a distance between the endoscope microscope and the object by using a parallax between the third image and the fourth image
Operation method of the endoscope microscope using a monocular camera comprising a.
제16항 또는 제22항 중 어느 한 항에 있어서,
상기 내시현미경 및 상기 오브젝트 사이의 거리에 기초하여 상기 내시현미경과 상기 오브젝트의 충돌을 회피하기 위한 동작을 수행하는 단계
를 더 포함하는 단안 카메라를 이용한 내시현미경의 동작 방법.
The method according to any one of claims 16 to 22,
Performing an operation for avoiding collision between the endoscope microscope and the object based on a distance between the endoscope microscope and the object
Operation method of the endoscope microscope using a monocular camera further comprising.
KR1020180025797A 2018-03-05 2018-03-05 Endomicroscopy using single lens camera and operating method thereof KR102060880B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180025797A KR102060880B1 (en) 2018-03-05 2018-03-05 Endomicroscopy using single lens camera and operating method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180025797A KR102060880B1 (en) 2018-03-05 2018-03-05 Endomicroscopy using single lens camera and operating method thereof

Publications (2)

Publication Number Publication Date
KR20190105357A KR20190105357A (en) 2019-09-17
KR102060880B1 true KR102060880B1 (en) 2020-02-11

Family

ID=68070284

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180025797A KR102060880B1 (en) 2018-03-05 2018-03-05 Endomicroscopy using single lens camera and operating method thereof

Country Status (1)

Country Link
KR (1) KR102060880B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019130593B3 (en) * 2019-11-13 2021-05-20 Karl Storz Se & Co. Kg Stereo endoscopes
KR102148127B1 (en) * 2020-02-14 2020-08-26 재단법인 다차원 스마트 아이티 융합시스템 연구단 Camera system with complementary pixlet structure
KR102148128B1 (en) 2020-03-06 2020-08-26 재단법인 다차원 스마트 아이티 융합시스템 연구단 Camera system with complementary pixlet structure
KR102177400B1 (en) * 2020-03-09 2020-11-11 재단법인 다차원 스마트 아이티 융합시스템 연구단 Camera system for improving depth accuracy with low complexity and operation method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101672669B1 (en) * 2015-11-23 2016-11-03 재단법인 다차원 스마트 아이티 융합시스템 연구단 Multi aperture camera system using disparity
KR101764504B1 (en) * 2015-12-15 2017-08-03 재단법인 다차원 스마트 아이티 융합시스템 연구단 Multi aperture camera for adaptively selecting blur channel and opertation method thereof

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102087595B1 (en) * 2013-02-28 2020-03-12 삼성전자주식회사 Endoscope system and control method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101672669B1 (en) * 2015-11-23 2016-11-03 재단법인 다차원 스마트 아이티 융합시스템 연구단 Multi aperture camera system using disparity
KR101764504B1 (en) * 2015-12-15 2017-08-03 재단법인 다차원 스마트 아이티 융합시스템 연구단 Multi aperture camera for adaptively selecting blur channel and opertation method thereof

Also Published As

Publication number Publication date
KR20190105357A (en) 2019-09-17

Similar Documents

Publication Publication Date Title
KR102060880B1 (en) Endomicroscopy using single lens camera and operating method thereof
KR102103983B1 (en) Light field image capturing apparatus including shifted microlens array
TWI670521B (en) Near-eye display system, rendering system, and method for use in near-eye display system
JP6010895B2 (en) Imaging device
KR20160021968A (en) Method and apparatus for processing image
JP6702796B2 (en) Image processing device, imaging device, image processing method, and image processing program
JP7462890B2 (en) Method and system for calibrating a plenoptic camera system - Patents.com
JP6600356B2 (en) Image processing apparatus, endoscope apparatus, and program
KR102010487B1 (en) Skin diagnosis apparatus
JP2013145979A (en) Image generating method, imaging device, display device, program, and storage medium
KR102025012B1 (en) Multi pixel micro lens pixel array and camera system for solving color mix and operating method thereof
US20170345176A1 (en) Depth extracting camera system using multi focus image and operation method thereof
KR102018984B1 (en) Camera system for increasing baseline
JP2016001853A (en) Image processing system, imaging device, control method, and program
JP2015188251A (en) Image processing system, imaging apparatus, image processing method, and program
JP2017060010A5 (en)
JP6467997B2 (en) Light field imaging system
US11051680B1 (en) Endoscope stereo imaging device
KR102148128B1 (en) Camera system with complementary pixlet structure
JP2018186508A (en) Image processing apparatus
JP4205533B2 (en) 3D image construction method, 3D object distance derivation method
US20140354774A1 (en) Image processing device, image processing method, stereoscopic image display device, and assistant system
JPWO2015128918A1 (en) Imaging device
KR102465492B1 (en) Camera system with offset pixel aperture for acquiring horizontal and vertical disparity
KR102148127B1 (en) Camera system with complementary pixlet structure

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant