KR101838917B1 - Method for processing a dental image, apparatus and computer program therefor - Google Patents

Method for processing a dental image, apparatus and computer program therefor Download PDF

Info

Publication number
KR101838917B1
KR101838917B1 KR1020160081821A KR20160081821A KR101838917B1 KR 101838917 B1 KR101838917 B1 KR 101838917B1 KR 1020160081821 A KR1020160081821 A KR 1020160081821A KR 20160081821 A KR20160081821 A KR 20160081821A KR 101838917 B1 KR101838917 B1 KR 101838917B1
Authority
KR
South Korea
Prior art keywords
image
focus
value
deflection
processing
Prior art date
Application number
KR1020160081821A
Other languages
Korean (ko)
Other versions
KR20180002378A (en
Inventor
김진홍
한병희
이응준
Original Assignee
오스템임플란트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오스템임플란트 주식회사 filed Critical 오스템임플란트 주식회사
Priority to KR1020160081821A priority Critical patent/KR101838917B1/en
Publication of KR20180002378A publication Critical patent/KR20180002378A/en
Application granted granted Critical
Publication of KR101838917B1 publication Critical patent/KR101838917B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/24Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the mouth, i.e. stomatoscopes, e.g. with tongue depressors; Instruments for opening or keeping open the mouth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/12Indexing scheme for image data processing or generation, in general involving antialiasing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Dentistry (AREA)
  • Geometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)

Abstract

본 발명은 구강 이미지를 처리하는 방법에 관한 것으로서, 구강 내부를 촬영하는데 있어서 복수개의 초점을 기초로 하고, 촬영된 영상을 처리하는데 있어서 복수개의 초점을 기초로 커브 피팅을 수행하고 편향값을 계산하여 편향처리를 수행함으로써 3차원 이미지에서 에일리어싱을 제거할 수 있다. 또한, 본 발명에 따르면, 편향값을 계산하는데 있어서 계산을 선형적 함수로 단순화시킴으로써 계산 속도를 향상시킬 수 있다.The present invention relates to a method of processing an oral image, which is based on a plurality of foci in photographing the inside of the mouth, performs curve fitting based on a plurality of foci in processing a photographed image, calculates a deflection value By performing the deflection process, aliasing can be removed from the three-dimensional image. Further, according to the present invention, the calculation speed can be improved by simplifying the calculation to a linear function in calculating the deflection value.

Description

구강 이미지 처리 방법, 이를 위한 장치 및 컴퓨터 프로그램{Method for processing a dental image, apparatus and computer program therefor}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to an oral image processing method,

본 발명은 구강 이미지를 처리하는 방법에 관한 것으로서, 구강 이미지를 편향수정 처리 방식으로 프로세싱함으로써 영상 처리 속도를 향상시킬 수 있는 구강 이미지 처리 방법 및 이를 위한 장치 및 컴퓨터 프로그램에 관한 것이다.The present invention relates to a method of processing an oral image, and more particularly, to an oral image processing method capable of enhancing an image processing speed by processing an oral image by a bias correction processing method, and an apparatus and a computer program therefor.

치과 치료에 있어서 구강 구조에 대한 3차원의 이미지 등의 자료를 이용하는 것은 매우 유용하다. 이에 따라, 치과 의사는 치아와 같은 구강 구조에 대한 3차원의 이미지를 이용해 환자에게 시각적으로 즉각적인 치료 과정 내지는 방향을 보여줄 수 있다는 점에서 매우 활발하게 이용하고 있다.It is very useful to use data such as three-dimensional images of oral structures in dental treatment. Accordingly, the dentist is actively using the three-dimensional image of the oral structure, such as a tooth, in that the patient can visually show an immediate treatment course or direction.

3차원의 이미지를 획득하기 위해서 광학 3차원 스캐너가 이용된다. 구체적으로, 광학 3차원 카메라를 이용해 치아나 잇몸과 같은 구강 구조를 측정하고, CAD/CAM 시스템을 이용해 치과용 보철물을 설계하고 제작할 수도 있다. An optical three-dimensional scanner is used to acquire three-dimensional images. Specifically, it is possible to measure oral structures such as teeth or gums using an optical three-dimensional camera, and design and manufacture dental prostheses using a CAD / CAM system.

대표적으로 3차원 이미지는 PCD(Point cloud data)이다. 구강 스캐너를 이용해 3D PCD를 획득하기 위한 방법은 다양하며, 대표적 방식인 스테레오 비전(Stereo vision) 방식은 두 개 이상의 카메라에서 얻어진 이미지를 이용하는 것이다. 하지만, 스테레오 비전 방식의 경우에 각 이미지들이 이루는 등극선(Epipolar line)에서 동일점을 찾아야 하는 어려움이 있었다. 등극선에서 동일점을 찾지 못하는 경우에는 3D PCD를 얻을 수 없게 된다. 또한, 각 카메라의 위치와 초점상태, 노출상태에 따라서 각 영상의 편차가 크게 발생할 수도 있고, 피사체에 표면반사(Glare)가 존재하거나 또는 민무늬인 경우에도 동일점을 찾는 것이 불가능해질 수 있다.Typically, the 3D image is point cloud data (PCD). There are many ways to acquire a 3D PCD using an oral scanner, and the stereoscopic vision method, which is a typical method, uses an image obtained from two or more cameras. However, in the case of the stereo vision method, it was difficult to find the same point on the epipolar line of each image. 3D PCD can not be obtained if the same point is not found in the equipotential line. In addition, a deviation of each image may occur largely according to the position, the focus state, and the exposure state of each camera, and it may become impossible to find the same point even if there is a surface reflection (glare) on the subject or a fringe pattern.

이러한 문제를 해결하기 위해서 구조광을 이용하기도 하지만, 구조광을 이용하는 방식은 스캔영역의 제한성, 기구 사이즈의 한계, 표면 재질의 민감도, 특정 광원의 필요성 등에 의한 제약이 있다.Structured light is used to solve this problem. However, the method using the structured light is limited by the limitation of the scan area, the limitation of the instrument size, the sensitivity of the surface material, and the necessity of a specific light source.

한국공개특허 제10-2015-0059472호Korean Patent Publication No. 10-2015-0059472

본 발명은 전술한 문제점을 해결하기 위한 것으로서, DFD(Depth from defocus/focus) 방식을 이용해 3차원 이미지를 획득하고, 획득된 3차원 이미지에 대한 초점의 정도를 개선하여 3차원 이미지의 품질을 향상시키는 것을 그 기술적 과제로 한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and it is an object of the present invention to improve the quality of a three-dimensional image by obtaining a three-dimensional image using a depth-of-defocus / focus (DFD) As a technical problem.

위에서 언급된 본 발명의 기술적 과제 외에도, 본 발명의 다른 특징 및 이점들이 이하에서 기술되거나, 그러한 기술 및 설명으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Other features and advantages of the invention will be set forth in the description which follows, or may be obvious to those skilled in the art from the description and the claims.

본 발명의 일 실시예에 의한 구강 이미지를 처리하는 방법은, 복수개의 초점을 기초로 구강 내부를 촬영하는 단계; 촬영된 이미지를 영상 처리하는 단계; 및 상기 영상 처리된 이미지에 기초하여 3차원 이미지를 출력하는 단계를 포함하고, 상기 촬영된 이미지를 영상 처리하는 단계는: 상기 복수개의 초점을 기초로 커브 피팅을 수행하는 단계; 및 편향수정 처리를 위한 편향값을 계산하는 단계;를 포함할 수 있다.A method of processing an oral image according to an exemplary embodiment of the present invention includes: photographing an inside of a mouth based on a plurality of focal points; Image-processing the photographed image; And outputting a three-dimensional image based on the imaged image, wherein the step of image processing the imaged image comprises: performing curve fitting based on the plurality of foci; And calculating a deflection value for the deflection correcting process.

본 발명의 실시예에서 상기 편향값을 계산하는 단계는 최대의 초점 측정값을 갖는 초점을 기준 초점(fp)으로 설정하는 단계; 및 상기 기준 초점(fp)을 중심으로 이전의 복수개의 초점(fp - n ... fp -1) 및 이후의 복수개의 초점(fp + 1 ... fp +n)을 샘플링하는 단계;를 포함할 수 있다.In an embodiment of the present invention, the step of calculating the deflection value comprises: setting a focus having a maximum focus measurement value as a reference focus f p ; Sampling - (n -1 ... f p f p) and a plurality of focus (f 1 ... f p + p + n) and after the said reference focus (f p) to the center of the previous plurality of focus The method comprising the steps of:

본 발명의 실시예에서 상기 편향값을 계산하는 단계는 상기 샘플링된 초점의 초점 측정값을 제곱(y2 p - n ... y2 p -1, y2 p + 1 ... y2 p +n)하는 단계; 및 상기 기준 초점 이전의 복수개의 초점에 대한 제곱값을 합산하고(S0 = y2 p - n + ... y2 p -1), 기준 초점 이후의 복수개의 초점에 대한 제곱값을 합산하는(S1 = y2 p + 1 + ... y2 p +n) 단계;를 더 포함할 수 있다.In an embodiment of the present invention, the step of calculating the deflection value may include calculating a value of the focus of the sampled focus by using the square (y 2 p - n ... y 2 p -1 , y 2 p + 1 ... y 2 p + n ); And summing squared values for a plurality of foci before the reference focal point (S 0 = y 2 p - n + ... y 2 p -1 ), and summing squared values for a plurality of foci after the reference focal point (S 1 = y 2 p + 1 + ... y 2 p + n ).

본 발명의 실시예에서 상기 편향값을 계산하는 단계는 상기 합산 결과 S1이 S0보다 작은 경우에, 상기 편향값은 max(-1, (R-1)*A)로 결정하는 단계;를 더 포함하고, 여기서

Figure 112016063098692-pat00001
이고, A는 편향 계수일 수 있다.In the embodiment of the present invention, the step of calculating the deflection value may include determining the deflection value as max (-1, (R-1) * A) when the sum S 1 is smaller than S 0 Further comprising
Figure 112016063098692-pat00001
, And A can be a deflection coefficient.

본 발명의 실시예에서 상기 편향값을 계산하는 단계는 상기 합산 결과 S1이 S0보다 큰 경우에, 상기 편향값은 min(1, -(R-1)*A)로 결정되는 단계;를 더 포함하고, 여기서

Figure 112016063098692-pat00002
이고, A는 편향 계수일 수 있다.In the embodiment of the present invention, the step of calculating the deflection value may include determining that the deflection value is min (1, - (R-1) * A) when the summing result S 1 is greater than S 0 Further comprising
Figure 112016063098692-pat00002
, And A can be a deflection coefficient.

본 발명의 실시예에서 상기 촬영된 이미지를 영상 처리하는 단계는: 영상 이미지의 에지 보전 및 노이즈 억제를 위하여 바이래터럴 필터 처리를 수행하는 단계;를 더 포함할 수 있다.In the embodiment of the present invention, the image processing of the photographed image may further include: performing a bi-lateral filter processing for edge preservation and noise suppression of a video image.

본 발명의 실시에에 의한 컴퓨터 프로그램은 전술한 단계를 수행하기 위해서 매체에 저장되는 컴퓨터 프로그램일 수 있다.A computer program according to an embodiment of the present invention may be a computer program stored in a medium for performing the above-described steps.

본 발명의 실시예에 의한 구강 이미지를 처리하기 위한 장치는 본체; 헤드; 및 커버를 포함하고, 상기 본체는 복수개의 초점을 기초로 구강 내부를 촬영하기 위한 광출력부; 촬영된 이미지를 획득하기 위한 이미지 센싱부; 및 상기 광출력부 및 상기 이미지 센싱부를 제어하기 위한 제어부를 포함하고, 상기 제어부는: 상기 촬영된 이미지를 영상 처리하기 위해 상기 이미지에 대해 상기 복수개의 초점을 기초로 커브 피팅을 수행하고, 편향수정 처리를 위한 편향값을 계산하는 것을 수행하고, 상기 편향값을 계산하기 위해 최대의 초점 측정값을 갖는 초점을 기준 초점(fp)으로 설정하여, 상기 기준 초점(fp)을 중심으로 이전의 복수개의 초점(fp - n ... fp -1) 및 이후의 복수개의 초점(fp + 1 ... fp +n)을 샘플링하고, 상기 샘플링된 초점의 초점 측정값을 제곱(y2 p - n ... y2 p -1, y2 p + 1 ... y2 p +n)하고, 상기 기준 초점 이전의 복수개의 초점에 대한 제곱값을 합산하고(S0 = y2 p - n + ... y2 p -1), 기준 초점 이후의 복수개의 초점에 대한 제곱값을 합산하고(S1 = y2 p + 1 + ... y2 p +n), 상기 합산 결과 S1이 S0보다 작으면, 상기 편향값을 max(-1, (R-1)*A)로 결정하고, 상기 합산 결과 S1이 S0보다 큰면, 상기 편향값을 min(1, -(R-1)*A)로 결정하고, 상기 촬영된 이미지를 영상 처리하기 위해 영상 이미지의 에지 보전 및 노이즈 억제를 위하여 바이래터럴 필터 처리를 수행할 수 있다.An apparatus for processing an oral image according to an embodiment of the present invention includes: a body; head; And a cover, the body comprising: a light output section for imaging the interior of the mouth based on a plurality of foci; An image sensing unit for acquiring a photographed image; And a control unit for controlling the light output unit and the image sensing unit, wherein the control unit performs curve fitting based on the plurality of focuses on the image to process the photographed image, performed to calculate the deflection values for the process, by setting the focus with the maximum focus measurement value of the reference focus (f p) to calculate the bias value, a previously with respect to the reference focus (f p) a plurality of focus-sample the (f p f n ... p -1) and a plurality of focus since the (p + f 1 ... f n + p), and squaring the focus measurement value of the sampled focus ( y 2 p - n, y 2 p -1 , y 2 p + 1 ... y 2 p + n ), summing squared values for a plurality of foci before the reference focal point (S 0 = y 2 p - n + ... y 2 p -1), summing the squared values of the plurality of focus since the focus criteria, and (S 1 = y 2 + p 1 + p 2 + ... y n ), And if the sum S 1 is less than S 0 , the deflection value is determined as max (-1, (R-1) * A). If the sum S 1 is greater than S 0 , min (1, - (R-1) * A). In order to image the photographed image, a bilateral filter process may be performed for edge preservation and noise suppression of the image.

본 발명의 실시 예에 따른 구강 이미지 획득 및 처리 방법, 장치 및 컴퓨터 프로그램은 획득된 3차원 이미지를 분석하는데 있어서 초점의 정도를 평가하는 방식을 개선하도록 도움을 준다.The method, apparatus and computer program for oral image acquisition and processing according to embodiments of the present invention help improve the manner of evaluating the degree of focus in analyzing acquired three-dimensional images.

또한, 본 발명은 획득된 이미지의 품질을 향상시키는데 도움을 준다.The present invention also helps to improve the quality of acquired images.

또한, 본 발명은 편향값을 도출하는데 있어서 계산을 선형 함수로 단순화시키고 계산 속도를 향상시키는데 도움을 준다.The present invention also helps to simplify the calculation to a linear function and to improve the calculation speed in deriving the deflection value.

또한, 본 발명은 편향값을 도출하기 위한 계산의 대상이 되는 초점의 개수를 최소화시키는데 도움을 준다.The present invention also helps to minimize the number of focuses to be calculated for deriving the deflection value.

이 밖에도, 본 발명의 실시 예들을 통해 본 발명의 또 다른 특징 및 이점들이 새롭게 파악될 수도 있을 것이다.In addition, other features and advantages of the present invention may be newly understood through embodiments of the present invention.

도 1은 본 발명의 실시예에 따라 구강 이미지를 획득하는 방법을 나타내는 도면이다.
도 2는 본 발명의 실시예에 따른DOF 경향 그래프를 나타낸 것이다.
도 3은 액체렌즈 드라이버의 구성을 나타내는 도면이다.
도 4a 내지 도 4c는 본 발명의 실시예의 영상 처리 단계에서 대비값을 측정하는 방식을 설명하는 도면이다.
도 5a는 영상 처리를 통해 얻어진 이미지를 나타내는 도면이다.
도 5b는 도 5a의 이미지에 대해 깊이 정렬처리가 수행된 이미지를 나타내는 도면이다.
도 6은 깊이 정렬 처리가 수행된 또 다른 이미지를 나타내는 도면이다.
도 7은 이미지 스프레딩 처리가 수행된 이미지를 나타내는 도면이다.
도 8은 커브 피팅 처리를 설명하기 위한 도면이다.
도 9는 본 발명의 실시예에 따라 편향값을 도출해 내는 방식을 설명하기 위한 도면이다.
도 10은 이미지 텍스처링 처리가 수행된 이미지를 나타내는 도면이다.
도 11은 본 발명의 실시예에 따른 구강 스캐너를 개략적으로 도시하는 도면이다.
1 is a diagram illustrating a method of acquiring an oral image according to an embodiment of the present invention.
2 shows a DOF trend graph according to an embodiment of the present invention.
3 is a view showing a configuration of a liquid lens driver.
4A to 4C are views for explaining a method of measuring the contrast value in the image processing step of the embodiment of the present invention.
5A is a diagram showing an image obtained through image processing.
FIG. 5B is a view showing an image in which a depth alignment process is performed on the image of FIG. 5A. FIG.
6 is a view showing another image in which a depth alignment process is performed.
7 is a diagram showing an image in which an image spreading process is performed.
8 is a view for explaining a curve fitting process.
FIG. 9 is a diagram for explaining a method of deriving a deflection value according to an embodiment of the present invention.
10 is a diagram showing an image in which image texturing processing is performed.
11 is a view schematically showing an oral scanner according to an embodiment of the present invention.

이하, 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art to which the present invention pertains. The present invention may be embodied in many different forms and is not limited to the embodiments described herein.

본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조 부호를 붙이도록 한다.In order to clearly illustrate the present invention, parts not related to the description are omitted, and the same or similar components are denoted by the same reference numerals throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . Also, when an element is referred to as "comprising ", it means that it can include other elements as well, without departing from the other elements unless specifically stated otherwise.

어느 부분이 다른 부분의 "위에" 있다고 언급하는 경우, 이는 바로 다른 부분의 위에 있을 수 있거나 그 사이에 다른 부분이 수반될 수 있다. 대조적으로 어느 부분이 다른 부분의 "바로 위에" 있다고 언급하는 경우, 그 사이에 다른 부분이 수반되지 않는다.If any part is referred to as being "on" another part, it may be directly on the other part or may be accompanied by another part therebetween. In contrast, when a section is referred to as being "directly above" another section, no other section is involved.

제1, 제2 및 제3 등의 용어들은 다양한 부분, 성분, 영역, 층 및/또는 섹션들을 설명하기 위해 사용되나 이들에 한정되지 않는다. 이들 용어들은 어느 부분, 성분, 영역, 층 또는 섹션을 다른 부분, 성분, 영역, 층 또는 섹션과 구별하기 위해서만 사용된다. 따라서, 이하에서 서술하는 제1 부분, 성분, 영역, 층 또는 섹션은 본 발명의 범위를 벗어나지 않는 범위 내에서 제2 부분, 성분, 영역, 층 또는 섹션으로 언급될 수 있다.The terms first, second and third, etc. are used to describe various portions, components, regions, layers and / or sections, but are not limited thereto. These terms are only used to distinguish any moiety, element, region, layer or section from another moiety, moiety, region, layer or section. Thus, a first portion, component, region, layer or section described below may be referred to as a second portion, component, region, layer or section without departing from the scope of the present invention.

여기서 사용되는 전문 용어는 단지 특정 실시 예를 언급하기 위한 것이며, 본 발명을 한정하는 것을 의도하지 않는다. 여기서 사용되는 단수 형태들은 문구들이 이와 명백히 반대의 의미를 나타내지 않는 한 복수 형태들도 포함한다. 명세서에서 사용되는 "포함하는"의 의미는 특정 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분을 구체화하며, 다른 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분의 존재나 부가를 제외시키는 것은 아니다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to limit the invention. The singular forms as used herein include plural forms as long as the phrases do not expressly express the opposite meaning thereto. Means that a particular feature, region, integer, step, operation, element and / or component is specified and that the presence or absence of other features, regions, integers, steps, operations, elements, and / It does not exclude addition.

"아래", "위" 등의 상대적인 공간을 나타내는 용어는 도면에서 도시된 한 부분의 다른 부분에 대한 관계를 보다 쉽게 설명하기 위해 사용될 수 있다. 이러한 용어들은 도면에서 의도한 의미와 함께 사용 중인 장치의 다른 의미나 동작을 포함하도록 의도된다. 예를 들면, 도면 중의 장치를 뒤집으면, 다른 부분들의 "아래"에 있는 것으로 설명된 어느 부분들은 다른 부분들의 "위"에 있는 것으로 설명된다. 따라서 "아래"라는 예시적인 용어는 위와 아래 방향을 전부 포함한다. 장치는 90˚ 회전 또는 다른 각도로 회전할 수 있고, 상대적인 공간을 나타내는 용어도 이에 따라서 해석된다.Terms indicating relative space such as "below "," above ", and the like may be used to more easily describe the relationship to other portions of a portion shown in the figures. These terms are intended to include other meanings or acts of the apparatus in use, as well as intended meanings in the drawings. For example, when inverting a device in the figures, certain portions that are described as being "below" other portions are described as being "above " other portions. Thus, an exemplary term "below" includes both up and down directions. The device can be rotated by 90 degrees or rotated at different angles, and terms indicating relative space are interpreted accordingly.

다르게 정의하지는 않았지만, 여기에 사용되는 기술용어 및 과학용어를 포함하는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 일반적으로 이해하는 의미와 동일한 의미를 가진다. 보통 사용되는 사전에 정의된 용어들은 관련 기술문헌과 현재 개시된 내용에 부합하는 의미를 가지는 것으로 추가 해석되고, 정의되지 않는 한 이상적이거나 매우 공식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms including technical and scientific terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Commonly used predefined terms are further interpreted as having a meaning consistent with the relevant technical literature and the present disclosure, and are not to be construed as ideal or very formal meanings unless defined otherwise.

이하, 첨부한 도면을 참조하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein.

도 1은 본 발명의 실시예에 따라 구강 이미지를 획득하는 방법을 나타내는 도면이다.1 is a diagram illustrating a method of acquiring an oral image according to an embodiment of the present invention.

도 1을 참조하면, 구강 이미지를 획득하는 과정은 구강 내부 촬영 단계(S110), 영상 처리 단계(S120), 스캐너 위치 가이드 단계(S130) 및 데이터 처리 단계(S140)를 포함한다.Referring to FIG. 1, the process of obtaining an oral image includes an intraoral imaging step S110, an image processing step S120, a scanner position guiding step S130, and a data processing step S140.

구강 내부 촬영 단계(S110)는 구강 스캐너를 이용해 구강 내부의 치아나 잇몸을 촬영하는 단계이다. 구강 내부 촬영 단계(S110)에서는 구강 스캐너의 광학부가 이용된다. 광학부는 초점의 이동이 가능한 렌즈를 포함하며, 렌즈가 물리적으로 이동함으로써 초점 거리가 변경되는 방식이 사용될 수도 있고, 전압으로 유체렌즈의 면 형상을 변경함으로써 초점 거리가 조절되는 방식이 사용될 수도 있다.The intraoral imaging step S110 is a step of photographing teeth or gums in the oral cavity using an oral scanner. In the intraoral imaging step S110, the optical part of the oral scanner is used. The optical part includes a lens capable of moving the focal point, and a method in which the focal length is changed by physically moving the lens may be used, or a method in which the focal length is adjusted by changing the surface shape of the fluid lens with a voltage may be used.

또는, 광학부는 스테레오 비전 기반으로 대체될 수도 있으며 이러한 경우에는 최소한 2 개 이상의 액체렌즈가 수평 또는 수직으로 대칭된 위치에 배치될 수 있다. 구체적으로, DFD에 사용된 영상은 피사체가 1/2 HFD(Hyper focal distance) 내지 무한대(∞) 사이에 포함되어야 하고, 상기 포함된 영역의 경우 심도를 의미하게 되며, 상기 심도에 대한 정의는 다음과 같다.Alternatively, the optics may be replaced by stereo vision based, in which case at least two liquid lenses may be arranged in a horizontal or vertical symmetrical position. Specifically, the image used in the DFD should be included between 1/2 HFD (Hyper focal distance) and infinity (infinity), and the depth of the included area is defined as follows: Respectively.

Figure 112016063098692-pat00003
Figure 112016063098692-pat00003

Total DOF = FarpointDOF - NearpointDOFTotal DOF = FarpointDOF - NearpointDOF

Figure 112016063098692-pat00004
Figure 112016063098692-pat00004

Figure 112016063098692-pat00005
Figure 112016063098692-pat00005

[c] Circle of Confusion[c] Circle of Confusion

[s] Working Distance[s] Working Distance

[f] Focal Length[f] Focal Length

[F] F Number[F] F Number

심도를 얇게 할수록 초점측정방식을 통한 깊이의 예측이 더욱 분명해지며, 그러한 결과가 나올 수 있도록 렌즈의 설계 파라미터(Parameter)를 조절할 수 있다.The thinner the depth, the more clearly the prediction of the depth through the focus measurement method becomes, and the design parameters of the lens can be adjusted so that such results can be obtained.

도 2는 DOF (Depth of Field) 경향그래프를 나타낸 것으로, Working distance (s) 및 F Number(F)에 비례 또는 반비례하여 DOF가 변화하는 것을 확인할 수 있다. 따라서, Working distance(s) 및 F Number(F)를 조절하여 심도를 200um 이하가 될 수 있도록 구성할 수 있다. 도 2의 그래프 (a)는 working distance(s)의 변화에 따른 Farpoint DOF의 변화를 나타내는 도면이다. 해당 그래프에서 확인되는 바와 같이, working distance(s)가 150 [mm]일 때 Farpoint DOF는 약 0.16 [mm]이며 working distance(s)가 증가할수록 Farpoint DOF는 증가한다. 이러한 변화는 Nearpoint DOF에서도 마찬가지이며 도 2의 그래프 (d)에서 확인할 수 있다. 도 2에서 그래프 (b)는 Focal length(f)의 변화에 따른 Farpoint DOF의 변화를 나타내는 도면이다. 해당 그래프에서 확인되는 바와 같이, Focal length(f)가 15 [mm]일 때 Farpoint DOF는 약 3.5 [mm]이며 Focal length(f)가 증가할수록 Farpoint DOF는 감소한다. 이러한 변화는 Nearpoint DOF에서도 마찬가지이며 도 2의 그래프 (e)에서 확인할 수 있다. 도 2에서 그래프 (c)는 F Number(F)의 변화에 따른 Farpoint DOF의 변화를 나타내는 도면이다. 해당 그래프에서 확인되는 바와 같이, F Number(F)가 1.1 [mm]일 때 Farpoint DOF는 약 0.28 [mm]이며 F Number(F)가 증가할수록 Farpoint DOF는 증가한다. 이러한 변화는 Nearpoint DOF에서도 마찬가지이며 도 2의 그래프 (f)에서 확인할 수 있다.FIG. 2 shows a DOF (Depth of Field) tendency graph. It can be seen that the DOF changes proportionally or inversely to the working distance (s) and F number (F). Therefore, the working distance (s) and F number (F) can be adjusted to make the depth less than 200 μm. The graph (a) of FIG. 2 is a diagram showing the change of the Farpoint DOF according to the change of the working distance (s). As can be seen in the graph, the Farpoint DOF is about 0.16 [mm] when the working distance (s) is 150 [mm] and the Farpoint DOF increases with increasing working distance (s). This change is also true for the near point DOF and can be seen in the graph (d) of FIG. In FIG. 2, graph (b) shows the change of farpoint DOF according to the change of focal length (f). As shown in the graph, the farpoint DOF is about 3.5 [mm] when the focal length (f) is 15 [mm], and the farpoint DOF is decreased as the focal length (f) is increased. This change is also true for the near point DOF and can be seen in the graph (e) of FIG. 2 (c) is a graph showing the change of Farpoint DOF according to the change of F number (F). As shown in the graph, the farpoint DOF is about 0.28 [mm] when F number (F) is 1.1 [mm], and the Farpoint DOF increases with increasing F number (F). This change is also true for the near-point DOF and can be seen in the graph (f) of FIG.

구강 스캐너의 특성상 피사체는 근거리에 위치하는 것이 일반적이므로 HFD (Hyper focal distance)가 짧은 것이 유리하다. HFD에 대한 정의는 다음과 같다.Because of the nature of the oral scanner, the subject is usually located in close proximity, so it is advantageous to have a short hyperfocal distance (HFD). The definition of HFD is as follows.

Figure 112016063098692-pat00006
Figure 112016063098692-pat00006

Where,Where,

Figure 112016063098692-pat00007
Figure 112016063098692-pat00007

Figure 112016063098692-pat00008
Figure 112016063098692-pat00008

Figure 112016063098692-pat00009
Figure 112016063098692-pat00009

Figure 112016063098692-pat00010
Figure 112016063098692-pat00010

Figure 112016063098692-pat00011
Figure 112016063098692-pat00011

영상 처리 단계(S120)에서는 DFD 방식을 사용하여 렌즈의 설계 수치와 통계적인 정보에 기초하는 방법으로 모든 촬영점(Pixel)에 대한 렌즈로부터의 거리 정보를 구할 수 있다. DFD를 수행하기 위해서는 렌즈의 가변 초점 거리 f를 일정한 간격으로 이동하며 n개의 초점이 존재하는 이미지들을 얻어내야 한다. 구체적으로, 액체 렌즈로 촬영된 일정 깊이 구간의 각 깊이 영상의 대비를 조사하여 최적 초점 방향을 결정하고 이후에 액체 렌즈의 초점의 위치를 변경시키는 방법을 사용할 수 있으며, 이를 통해 정지된 초점이 정확한 영상을 획득할 수 있다.In the image processing step S120, the distance information from the lens to all the photographing points can be obtained by a method based on the design numerical value and statistical information of the lens using the DFD method. In order to perform the DFD, the variable focal length f of the lens must be moved at regular intervals and images having n focal points must be obtained. Specifically, it is possible to use a method of determining the optimum focus direction by changing the contrast of each depth image of a predetermined depth section photographed by the liquid lens, and then changing the position of the focus of the liquid lens, Images can be acquired.

즉, 액체 렌즈의 초점 거리를 변화(Sweep)시키면서 정해진 간격마다 촬영된 이미지의 대비값을 측정한다. 액체렌즈의 초점거리는 액체렌즈 드라이버를 통해 각 디옵터(Diopters)에 해당하는 전압을 PWM(Pulse width modulation)으로 인가하는 방식으로 조절된다.That is, the focal distance of the liquid lens is swept, and the contrast value of the photographed image is measured at predetermined intervals. The focal length of the liquid lens is adjusted by applying a pulse width modulation (PWM) voltage corresponding to each diopter through a liquid lens driver.

도 3에 도시된 액체렌즈 드라이버의 구조도는 일반적인 액체렌즈 드라이버의 구조를 나타내는 것이므로 구체적인 설명은 생략하기로 한다. 한편, 도 3에서 설명한 액체렌즈 및 그 구동 방식은 DFD(Depth from defocus/focus)를 이용하기 위한 대표적인 예시로서의 의미를 가지며 본 발명의 권리범위가 이에 국한되는 것은 아니다. 본 발명의 권리범위는 액체렌즈를 포함하여 DFD를 이용할 수 있는 다른 방식에 대해서도 미칠 수 있다는 점이 이해되어야 한다.The structure of the liquid lens driver shown in FIG. 3 shows a structure of a general liquid lens driver, and a detailed description thereof will be omitted. Meanwhile, the liquid lens and its driving method described in FIG. 3 have typical meaning as a representative example for using depth from defocus / focus (DFD), and the scope of the present invention is not limited thereto. It should be understood that the scope of the present invention is also applicable to other ways in which a DFD can be used, including liquid lenses.

한편, 대비값은 3×3 크기의 회선마스크(Convolution mask)에서 중앙의 픽셀의 밝기(Intensity)와 주변 픽셀의 밝기들의 차이를 누적하고 제곱하여 Convolution이 진행된 윈도우 크기 J ×K로 나누어 알 수 있다. 대비값 측정 방식은 3 × 3 영역에서 십자 모양의 부분만을 참조할 수 있고(도 4a), X 형태의 부분만을 참조할 수도 있고(도 4b), 모든 영역을 참조할 수도 있다(도 4c).On the other hand, the contrast value can be known by dividing the intensity of the center pixel and the brightness of the surrounding pixels by a 3 × 3 convolution mask and dividing the brightness by the window size J × K in which the convolution is performed . The contrast value measurement method can refer to only the cross-shaped portion in the 3 × 3 region (FIG. 4A), the X-shaped portion alone (FIG. 4B), or the entire region (FIG.

만약, 측정된 대비값이 임계치 이상인 경우 데이터 처리 단계(S140)로 진행하여 3차원 이미지로 재구성되게 된다. 반면, 측정된 대비값이 임계치 이하인 경우 대상 물체의 표면이 렌즈 스펙에 의한 초점거리 [A B] 디옵터에 포함되지 않는 것으로 판단하고, 사용자에게 구강 스캐너의 위치를 조정할 것을 가이드할 수 있다(S130). 또는, 측정된 대비값이 임계치 이하인 경우에는 데이터 처리 단계(S140)을 스킵하여 진행속도를 향상시킬 수도 있다. 구체적으로, 초점 거리를 변화시키는 범위 중에서 실제로 In-focus 영역에 들어가는 사물의 범위는 작을 수 있다. 따라서, Out-focus 영역에 대해서도 데이터 처리 단계(S140)을 수행해야 한다면 그만큼 처리 시간이 지연되는 것이기 때문이다. If the measured contrast value is equal to or more than the threshold value, the process proceeds to the data processing step S140 and is reconstructed into a three-dimensional image. On the other hand, if the measured contrast value is less than or equal to the threshold value, it is determined that the surface of the object is not included in the focal length [A B] diopter due to the lens specification, and the user is guided to adjust the position of the oral scanner (S 130). Alternatively, if the measured contrast value is less than or equal to the threshold value, the data processing step S140 may be skipped to improve the progress speed. Specifically, the range of the object that actually enters the in-focus region in the range for changing the focal distance can be small. Therefore, if the data processing step (S140) is performed also for the out-focus area, the processing time is delayed accordingly.

구강 스캐너 위치 가이드 단계(S130)에서는 영상 처리 단계(S120)에서 촬영된 이미지가 Out-focus인 것으로 판단되는 경우에, 사용자에게 구강 스캐너의 위치를 변경시킬 것을 표시하는 단계이다. In the oral-scanner-position guiding step S130, when it is determined that the image photographed in the image processing step S120 is out-focus, it is indicated that the user is to change the position of the oral-type scanner.

예를 들면, 구강 스캐너의 위치를 사물에 더 가깝도록 변경시킬 것을 표시하거나 사물로부터 멀어지도록 변경시킬 것을 표시할 수 있다. 예를 들어, 초점의 최대 거리에서의 대비값(A)과 초점의 최소 거리에서의 대비값(B)를 비교하여 A가 B보다 큰 경우라면 사물은 초점 영역의 밖에 있는 것을 의미하므로 이것은 구강 스캐너가 사물로부터 멀리 떨어져 있는 것을 의미하며, 따라서 구강 스캐너의 위치를 사물에 더 가깝도록 이동할 것을 표시할 수 있다. 반대의 경우에는 구강 스캐너의 위치를 사물에서 멀어지도록 변경시킬 것을 표시할 수 있다. 이동여부에 대한 사항은 구강 스캐너의 외부에 부착된 액정표시장치(LCD, Liquid crystal display)로 표시할 수 있고, 알람(Alarm) 방식을 이용할 수도 있다. For example, it may indicate to change the location of the oral scanner closer to the object, or to change it away from the object. For example, if A is greater than B and the contrast value A at the maximum distance of focus is compared with the contrast value B at the minimum distance of focus, then the object is outside the focus area, Quot; means far away from the object, thus indicating that the position of the mouth scanner is to be moved closer to the object. In the opposite case, it may indicate that the position of the oral scanner is to be changed away from the object. The movement information can be displayed on a liquid crystal display (LCD) attached to the outside of the mouth scanner, or an alarm system can be used.

데이터 처리 단계(S140)는 영상 처리 단계(S120)에서 얻어진 이미지를 프로세싱하는 단계이다. 더 구체적으로, 데이터 처리 단계(S140)는, 깊이 정렬(Depth alignment) 처리, 이미지 스프레딩(Image spreading) 처리, 커브 피팅(Curve fitting) 처리, 바이래터럴 필터(Bilateral filter) 처리 및 이미지 텍스처링(Image texturing) 처리를 포함한다.The data processing step S140 is a step of processing the image obtained in the image processing step S120. More specifically, the data processing step S140 includes a depth filtering process, a depth filtering process, an image spreading process, a curve fitting process, a bilateral filter process, texturing process.

예를 들어, 영상 처리 단계(S120)에서 얻어지는 이미지는 도 5a와 같을 수 있다(Aliased image). 도 5a를 참조하면 최초로 이미지가 획득되었으나, 이러한 이미지에는 사물의 경계선이 매끄럽지 않고 사각의 형태로 보여지는 이른바 에일리어싱(Aliasing)이 존재하고 있음이 보여진다. 이러한 에일리어싱을 제거하기 위해 깊이 정렬 처리가 수행될 수 있다. 깊이 정렬 처리는 예를 들어 가우스 저역 통과 필터(Gaussian low pass filter)를 이용해 수행될 수 있다. 깊이 정렬 처리를 수행한 후 얻어지는 이미지는 도 5b와 같을 수 있다(Depth aligned image). 도 5b를 참조하면 도 5a의 이미지와 비교하였을 때 에일리어싱이 정돈된 이미지가 획득된 것을 확인할 수 있다. 하지만, 깊이 정렬 처리에도 불구하고 에일리어싱은 완전히 제거되지 않고 일부 영역에서는 여전히 존재하고 있다. 도 6도 정렬 처리가 수행된 또 다른 이미지를 나타내는 도면으로서, 6에서도 확인되는 바와 같이, 깊이 정렬 처리를 수행하였음에도 불구하고 에일리어싱이 완전히 제거되지 않는다는 것을 알 수 있다. 에일리어싱을 제거함으로써 정확한 이미지를 생성하기 위해서 깊이 스프레딩(Spreading) 처리가 수행되어야 하고, 깊이 스프레딩 처리는 커브 피팅(curve fitting) 처리를 통해 수행된다. 깊이 스프레딩 처리가 수행된 이미지는 도 7과 같을 수 있다(Spreaded depth). 도 7을 참조하면 도 6과 비교하였을 때, 에일리어싱이 상당히 제거되어 사물의 표면이 정밀하게 표현되어 있음을 확인할 수 있다.For example, the image obtained in the image processing step S120 may be as shown in FIG. 5A (Aliased image). Referring to FIG. 5A, an image is acquired for the first time. However, in this image, there is a so-called aliasing in which the boundary line of objects is not smooth but is viewed in a rectangular shape. A depth alignment process can be performed to eliminate such aliasing. The depth alignment process can be performed using, for example, a Gaussian low pass filter. The image obtained after performing the depth alignment process may be as shown in FIG. 5B (Depth aligned image). Referring to FIG. 5B, it can be seen that an image in which aliasing is arranged is obtained when compared with the image of FIG. 5A. However, despite the depth alignment process, aliasing is not completely eliminated and still exists in some areas. FIG. 6 also shows another image in which the alignment process is performed. As can be seen in FIG. 6, aliasing is not completely removed even though the depth alignment process has been performed. In order to generate an accurate image by removing aliasing, a depth spreading process has to be performed, and a depth spreading process is performed through a curve fitting process. The image in which the depth spreading process is performed may be as shown in FIG. 7 (Spreaded depth). Referring to FIG. 7, when compared with FIG. 6, aliasing is considerably eliminated and the surface of the object is precisely represented.

이제 도 8을 참조하여 커브 피팅 처리에 대해서 설명하기로 한다. The curve fitting process will now be described with reference to FIG.

커브 피팅이란, 복수개의 데이터 포인트(Data point)을 연결하여 매끄러운 곡선(curve)를 생성하는 것을 의미한다. 커브 피팅은 복수개의 데이터 포인트 사이의 값을 추정하기 위한 인터폴레이션(Interpolation)을 포함할 수 있고, 평활화 함수(Smooth function)을 이용한 평활화(Smoothing)를 포함할 수 있다. 예를 들어 2개의 포인트를 연결하기 위해

Figure 112016063098692-pat00012
와 같은 1차 함수가 이용되고, 3개의 포인트를 연결하기 위해
Figure 112016063098692-pat00013
와 같은 2차 함수가 이용되고, 4개의 포인트를 연결하기 위해
Figure 112016063098692-pat00014
와 같은 3차 함수가 이용된다.Curve fitting refers to creating a smooth curve by connecting a plurality of data points. The curve fitting may include interpolation for estimating a value between a plurality of data points, and may include smoothing using a smoothing function. For example, to connect two points
Figure 112016063098692-pat00012
Are used, and to connect the three points
Figure 112016063098692-pat00013
Are used, and to connect the four points
Figure 112016063098692-pat00014
Is used.

또한, 커브 피팅 처리는 편향 처리(Biasing)를 포함할 수 있다. 편향 처리는 측정된 데이터를 이용해 생성한 곡선이 좌 또는 우 중 어느 하나로 편향된 경우에 그 편차를 보정하는 것을 의미한다. 예를 들어, 도 8을 참조하면 x축은 초점 인덱스(Focus index)이고, y축은 초점 측정 값(Focus measurement value)이다. 도 8에서 확인되는 바와 같이 구강 스캐너를 이용해 실제 측정한 데이터(Original index)는 x축 인덱스 5에서 최대값을 가지며 최대값 인덱스 5를 기준으로 우측으로 편향되어 있다. 이러한 실측 값을 기준으로 커브 피팅을 수행하고 그 편향을 보정하기 위한 값(편향값)으로 도 8의 예시에서와 같이 0.435를 적용하면 x축에서 4.565에서 최대값을 가지며 좌우 편차가 보정된 곡선(Biased index)를 생성할 수 있다.Further, the curve fitting process may include a bias process. The deflection processing means that the deviation is corrected when the curve generated by using the measured data is deflected to either the left or the right. For example, referring to FIG. 8, the x-axis is a focus index and the y-axis is a focus measurement value. As shown in FIG. 8, the actually measured data (original index) using the oral scanner has a maximum value in the x-axis index 5 and is biased to the right with reference to the maximum value index 5. Applying 0.435 as a value (deflection value) for correcting the deviation by performing the curve fitting on the basis of this measured value as shown in the example of FIG. 8, the curve having the maximum value at 4.565 on the x- Biased index) can be generated.

하지만, 종래의 기술에 따르면 이러한 커브 피팅의 계산 시간은 길게 소요된다. 구체적으로, 종래의 기술에 따르면 커브 피팅을 위해 3차 이상의 방정식 또는 삼각함수를 이용하며 고차 방정식이나 삼각함수는 그 계산 과정의 복잡성으로 인해 처리시간이 증가한다. 이에 본 발명에서는 단순화된 선형 함수를 이용하여 편향 값을 도출해 낼 수 있는 알고리즘을 제안하고자 한다.However, according to the conventional technique, the calculation time of such a curve fitting is long. Specifically, according to the conventional technique, a cubic equation or a trigonometric function is used for curve fitting, and a high-order equation or a trigonometric function increases processing time due to the complexity of the calculation process. Accordingly, the present invention proposes an algorithm that can derive a deflection value using a simplified linear function.

또한, 도 8에서는 설명상의 편의를 위해서 x 축의 초점 인덱스를 7개만 표시하였지만, 계산의 대상이 되는 초점인덱스가 많으면 많을수록 계산 속도는 느려지게 되며, 실제 구강 스캐너를 사용하는데 있어서는 수백개 이상의 초점 인덱스를 이용하는 것이 일반적이다. 이에 본 발명에서는 최소화된 개수의 초점만을 이용하여 편향값을 도출해 낼 수 있는 알고리즘을 제안하고자 한다.In FIG. 8, only seven x-axis focus indexes are shown for explanatory convenience. However, when the number of focus indexes to be calculated is larger, the calculation speed becomes slower. In actual use of the oral scanner, Is generally used. Accordingly, the present invention proposes an algorithm capable of deriving a deflection value using only a minimized number of foci.

도 9를 참조하여 본 발명의 실시예에 따라 편향값을 도출하는 방식을 설명하기로 한다.Referring to FIG. 9, a method of deriving a deflection value according to an embodiment of the present invention will be described.

먼저, 최대의 초점 측정값을 갖는 초점을 기준 초점(fp)으로 설정하는 단계(S710)가 수행된다. 예를 들어, 도 8에서는 최대의 초점 측정값을 갖는 기준 초점은 인덱스 5이다.First, a step (S710) of setting, based on the focus has the maximum value of the focus measurement focus (f p) is performed. For example, in FIG. 8, the reference focus having the maximum focus measurement value is index 5.

기준 초점(fp)를 중심으로 이전의 복수개의 초점(fp - n ... fp -1) 및 이후의 복수개의 초점(fp + 1 ... fp +n)을 샘플링하는 단계(S720)가 수행된다. 즉, 기준 초점을 중심으로 이전의 n개의 초점이 샘플링되고, 기준 초점을 중심으로 이후의 n개의 초점이 샘플링되어 총 2n개의 초점이 샘플링된다.Based on the focus (f p) of the plurality of focus before around the (p f - f n ... p -1) and a plurality of focus since the (p + f 1 ... f p + n) the sampling (S720) is performed. That is, the previous n focuses are sampled about the reference focus, and the following n focuses around the reference focus are sampled so that a total of 2n focuses are sampled.

샘플링된 초점들의 초점 측정값을 제곱(y2 p - n ... y2 p -1, y2 p + 1 ... y2 p +n)하는 단계(S730)가 수행된다. 제곱을 수행하는 이유는 초점 측정값이 음수인 경우가 있기 때문에 음수인 값을 양수인 값으로 변환하기 위함이다. 경우에 따라서는, 양수화하기 위한 다른 방식으로 대체될 수 있다. 예를 들어, 샘플링된 초점들의 초점 측정값에 절대값을 취하는 단계가 수행될 수 있다.Squaring the focus measurement values of the sampled focus-the step of (y 2 p n ... y 2 p -1, y 2 p + 1 ... y 2 p + n) (S730) is performed. The reason for performing the squaring is to convert a negative value to a positive value because the focus measurement value may be negative. In some cases, it may be replaced by another scheme for amphiping. For example, taking the absolute value of the focus measurement of the sampled foci may be performed.

기준 초점 이전의 복수개의 초점에 대한 제곱값을 합산하고(S0 = y2 p - n + ... y2 p -1), 기준 초점 이후의 복수개의 초점에 대한 제곱값을 합산하는(S1 = y2 p + 1 + ... y2 p +n) 단계가 수행된다(S740)Summing the squared values of the plurality of focus of the reference focus before and (S 0 = y 2 p - n + ... y 2 p -1), S ( for adding the squared value for a plurality of focus since the focus criteria 1 = y 2 p + 1 + ... y 2 p + n ) is performed (S740)

S0와 S1을 비교한 결과, S1이 S0보다 작은 경우에, 편향값은 max(-1, (R-1)*10)으로 결정되고 여기서

Figure 112016063098692-pat00015
이다 (S750). 즉, 이 경우에 편향값은 -1보다 작은 음수로서 좌측 이동을 의미한다. 만약에, 분모인 S0가 0인 경우에는 편향값은 0으로 결정된다. 여기서, 10은 편향 계수(A)로서 사용 환경에 따라서 다른 값으로 대체될 수 있다. As a result of comparison between S 0 and S 1 , when S 1 is smaller than S 0 , the deflection value is determined as max (-1, (R-1) * 10)
Figure 112016063098692-pat00015
(S750). That is, in this case, the deflection value means a leftward movement as a negative value smaller than -1. If the denominator S 0 is 0, then the deflection value is determined to be zero. Here, 10 can be replaced with another value depending on the use environment as the deflection coefficient (A).

S0와 S1을 비교한 결과, S1이 S0보다 큰 경우에, 편향값은 min(1, -(R-1)*10)으로 결정되고 여기서

Figure 112016063098692-pat00016
이다 (S760). 즉, 이 경우에 편향값은 1보다 작은 양수로서 우측 이동을 의미한다. 만약, 분모인 S1이 0인 경우에는 편향 값은 0으로 결정된다.As a result of comparing S 0 and S 1 , if S 1 is greater than S 0 , the deflection value is determined as min (1, - (R-1) * 10)
Figure 112016063098692-pat00016
(S760). That is, in this case, the deflection value means a rightward movement as a positive number smaller than one. If the denominator S 1 is 0, the deflection value is determined to be zero.

한편, 전술한 단계 S750 및 S760에 따르면, 편향값은 최소값으로 -1을 갖게되고, 최대값으로는 1을 갖게 된다. 본 발명에서는 편향값을 -1 내지 1의 범위 내에 있도록 설정한 이유는 다음과 같다. 편향값은 편향의 정도를 예측하기 위한 값으로서 그 값이 -1보다 작거나 1보다 큰 경우에는 초점 인덱스가 인근의 초점 인덱스를 넘어가게 되는 결과로 이어지기 때문이다.On the other hand, according to steps S750 and S760 described above, the deflection value has a minimum value of -1 and a maximum value of 1. In the present invention, the reason why the deflection value is set in the range of -1 to 1 is as follows. The deflection value is a value for predicting the degree of deflection. If the value is smaller than -1 or larger than 1, the focus index will exceed the neighboring focus index.

전술한 바와 같이, 본 발명에서 제안하는 편향값 도출 방식에 따르면 제곱, 덧셈, 비교와 같은 기본적인 선형 방정식만을 사용하여 편향값을 도출할 수 있다. 이는 종래의 기술에 따라서 고차 방정식이나 삼각함수를 이용하였던 방식과 비교하면 계산이 매우 단순하고 수행 속도가 향상된 것이다. As described above, according to the deflection value derivation method proposed by the present invention, it is possible to derive a deflection value using only basic linear equations such as square, addition, and comparison. According to the conventional technique, the calculation is very simple and the execution speed is improved as compared with the method using the high-order equation or the trigonometric function.

또한, 본 발명에서 제안하는 편향값 도출 방식에 따르면, 모든 초점을 계산의 대상으로 하지 않고, 하나의 기준 초점을 중심으로 이전과 이후의 몇 개의 초점만을 계산의 대상으로 하였다. 더 나아가, 본 발명자는 n값이 4인 경우(즉, 기준 초점을 중심으로 이전의 4개의 초점과 이후의 4개의 초점의 총 8개의 초점을 샘플링하는 경우)에도, 깊이 스프레딩(Depth spreading)이 가능하며 최적의 계산 속도를 달성할 수 있다는 것도 도출하였다.According to the deflection value derivation method proposed in the present invention, not all the focuses are calculated, but only a few focuses before and after one reference focus are calculated. Furthermore, the present inventor has found that even if the n value is 4 (i.e., when sampling four foci of the former four foci and a total of eight foci of the following four foci about the reference foci) And it is possible to achieve an optimal calculation speed.

한편, 깊이 스프레딩이 처리된 영상에도 적은 양의 노이즈 성분이 포함되어 있으며, 이러한 소수의 노이즈를 제거하기 위해서는 중요한 고주파 신호를 유지하면서 노이즈를 억제하는 바이래터럴 필터가 적용될 수 있다.On the other hand, the image subjected to the depth spreading includes a small amount of noise components. In order to remove such a small number of noise, a bilateral filter that suppresses noise while maintaining an important high-frequency signal can be applied.

바이래터럴 필터(Bilateral filter)는 비선형이며, Edge를 유지하고 노이즈를 감소시킨다. The bilateral filter is non-linear, maintaining the edge and reducing noise.

Figure 112016063098692-pat00017
Figure 112016063098692-pat00017

Figure 112016063098692-pat00018
Figure 112016063098692-pat00018

Figure 112016063098692-pat00019
Figure 112016063098692-pat00019

Figure 112016063098692-pat00020
Figure 112016063098692-pat00020

Figure 112016063098692-pat00021
Figure 112016063098692-pat00021

Figure 112016063098692-pat00022
Figure 112016063098692-pat00022

Figure 112016063098692-pat00023
Figure 112016063098692-pat00023

Figure 112016063098692-pat00024
Figure 112016063098692-pat00024

Figure 112016063098692-pat00025
Figure 112016063098692-pat00025

Figure 112016063098692-pat00026
Figure 112016063098692-pat00026

바이래터럴 필터는 가우스 분포(Gaussian distribution)를 2중으로 사용하며, 확률 밀도 함수가 회선(Convolution) 중 각 픽셀의 중앙으로부터의 거리(Distance)를 고려하여 기본 분포함수-A를 결정하고, 각 픽셀의 밝기와 중앙픽셀의 밝기와의 차이값을 고려하여 분포함수-B를 결정한다. 분포함수-B는 분포함수-A에 밝기차이를 비율로 곱한 것으로 밝기의 차이는 Edge의 존재를 의미하며 Edge가 심할 수록 밝기의 차이가 나타나므로, Edge의 보전이 가능하다.The Binary Lateral filter uses a Gaussian distribution doubly and determines the basic distribution function -A by taking the distance from the center of each pixel in the convolution into a probability density function, The distribution function-B is determined by considering the difference between the brightness and the brightness of the center pixel. The distribution function -B is obtained by multiplying the distribution function-A by the brightness difference. The difference in brightness means the existence of the edge. Since the brightness is different as the edge is larger, the edge can be preserved.

바이래터럴 필터는 2중 지수함수가 회선되므로 연산이 복잡하고 이를 회선을 위한 윈도우안의 모든 픽셀에 대해 처리하므로 처리량이 매우 많다. 따라서, 회선 루프를 병렬로 처리하여 처리속도를 향상시킬 수도 있다.The Binary Lateral filter is very complex because it has a double exponential function, and it handles all the pixels in the window for the line, so the throughput is very high. Therefore, the processing speed can be improved by processing the circuit loop in parallel.

다시 도 1의 데이터 처리 단계(S140)으로 돌아오면, 데이터 처리 단계(S140)는 이미지 텍스처링 처리를 포함한다. 이미지 텍스터링 처리는 세부적인 형태나 질감, 색상 등을 3D 이미지의 오브젝트에 추가하는 것이다. 도 12를 참조하면 이미지 텍스처링이 수행된 이미지를 확인할 수 있다.Returning to the data processing step S140 of FIG. 1 again, the data processing step S140 includes image texturing processing. The image texturing process is to add detailed shapes, textures, colors, etc. to the objects in the 3D image. Referring to FIG. 12, an image in which image texturing is performed can be confirmed.

한편, 자이로스코프(Gyroscope)와 같은 가속도계를 사용하여 구강 스캐너의 떨림이 기준 이상으로 발생하는 경우에는 데이터 처리 단계(S140)는 수행되지 않을 수 있다. 예를 들어, 전체 Sweep 범위에서 In-focus 영역을 [A B]라고 가정하면 그 중간을 C로 잡을 수 있다. A와 B의 위치는 동적으로 변하는 것이지만 칼만 필터(Kalman filter)와 같은 예측 필터를 사용한다면 위치를 예상할 수 있으며, 가속도계의 떨림 정보를 반영하면, 초점 거리를 Sweep시키기 이전에 다음 in-focus 영역을 예측하는 것도 가능하다. 이로써 측정의 범위를 감축시킬 수 있게 될 것이다.On the other hand, if the shaking of the oral scanner occurs above the reference using an accelerometer such as a gyroscope, the data processing step (S140) may not be performed. For example, assuming that the in-focus region is [A B] in the entire sweep range, you can get C in the middle. The positions of A and B are changed dynamically. However, if a prediction filter such as a Kalman filter is used, the position can be predicted. If the accelerometer shake information is reflected, the next in-focus area Can be predicted. This will reduce the scope of the measurement.

도 11은 본 발명의 실시예에 따른 구강 스캐너를 개략적으로 도시하는 도면이다. 11 is a view schematically showing an oral scanner according to an embodiment of the present invention.

본 발명의 실시예에 따른 구강 스캐너(10)는 외관상 크게 본체(100), 헤드(200), 커버(300)로 구분될 수 있다.The mouth scanner 10 according to the embodiment of the present invention can be roughly divided into a main body 100, a head 200 and a cover 300.

본체(100)는 그 내부에 광출력부(110), 이미지센싱부(120), 제어부(130) 등을 포함한다. 일 실시예에서 본체(100)는 사각형의 단면을 갖도록 형성되어 있으나, 이에 한정될 필요는 없다. 예컨대, 본체(100)는 원형 또는 다각형의 단면을 갖도록 형성될 수도 있다.The main body 100 includes an optical output unit 110, an image sensing unit 120, a control unit 130, and the like. In one embodiment, the main body 100 is formed to have a rectangular cross section, but the present invention is not limited thereto. For example, the main body 100 may be formed to have a circular or polygonal cross section.

광출력부(110)는 광을 소정의 파장대로 구성된 빛을 반사경을 통해 구강 내 피사체(S)에 조사하는 것으로서, 본체의 전방에 적어도 하나 이상 설치될 수 있다. 광원으로는 레이저, 발광다이오드(LED), 할로겐 램프, 백열 램프, 적외선 램프, 자외선 램프 또는 삼파장 램프 중 어느 한 가지가 선택적으로 사용될 수 있다. 광출력부는 일 실시예에서 본체(100)와 헤드(200)의 경계 부분에 설치된 것으로 설명하고 있으나, 그 배치가 한정될 필요는 없다. 예컨대, 광출력부(110)는 헤드 내부에 구비될 수도 있으며 소정의 패턴이 형성된 패턴광을 적용할 수 있다.The light output unit 110 irradiates light to the subject S in the oral cavity through a reflector, which is composed of a predetermined wavelength band, and may be installed at least one in front of the main body. As the light source, a laser, a light emitting diode (LED), a halogen lamp, an incandescent lamp, an infrared lamp, an ultraviolet lamp or a triple wavelength lamp may be selectively used. Although the optical output unit is described as being installed at the boundary portion between the main body 100 and the head 200 in one embodiment, the arrangement is not limited. For example, the light output unit 110 may be provided inside the head, or may apply pattern light in which a predetermined pattern is formed.

이미지센싱부(120)는 본체(100)의 전방 내부에 설치되며, 피사체에서 반사된 반사광에 의해 형성되는 이미지를 획득한다. 즉, 이미지센싱부(120)는 후술하는 광출력부(110)에서 조사되는 광에 의해 구강 내 피사체에서 반사되는 반사광을 센싱하는 것으로서, 광다이오드를 수광소자로 하고 전하연계소자(CCD: Charged Coupled Device)를 전하전송소자로 한 고체촬상소자 또는 상보성 금속 산화물 반도체(CMOS) 구조를 가진 저소비전력형의 촬상 소자인 CMOS 이미지 센서가 사용될 수 있다.The image sensing unit 120 is installed in the front of the main body 100 and acquires an image formed by the reflected light reflected from the subject. That is, the image sensing unit 120 senses the reflected light reflected from the subject in the oral cavity by the light emitted from the light output unit 110, which will be described later, and uses a photo diode as a light receiving element and a charge coupled device Device as a charge transfer element or a CMOS image sensor which is a low power consumption type imaging element having a complementary metal oxide semiconductor (CMOS) structure can be used.

제어부(130)는 광출력부(110) 및 이미지센싱부(120)를 제어한다. 예컨대, 제어부(130)는 광출력부(110)에 소정의 패턴 정보를 전송하고, 이미지센싱부(120)에서 감지된 데이터에 대한 신호처리 및 제어 동작을 수행한다. 제어부(130)는 이미지센싱부(120)로부터 반사광의 패턴 정보를 제공받아 이를 3차원 이미지로 변환한다. 변환된 3차원 이미지는 디스플레이부(도시 생략)에서 표시될 수 있다. The control unit 130 controls the optical output unit 110 and the image sensing unit 120. For example, the control unit 130 transmits predetermined pattern information to the optical output unit 110, and performs signal processing and control operations on the data sensed by the image sensing unit 120. The control unit 130 receives the pattern information of the reflected light from the image sensing unit 120, and converts the pattern information into a three-dimensional image. The converted three-dimensional image can be displayed on a display unit (not shown).

또한, 제어부(130)는 획득된 이미지를 프로세싱한다. 구체적으로 제어부(130)는 깊이 정렬 처리, 이미지 스프레딩 처리, 커브 피팅 처리, 바이래터럴 필터 처리 및 이미지 텍스처링 처리를 수행한다. 또한, 제어부(130)는 커브 피팅 처리를 위한 편향값 계산을 수행한다. 구체적으로, 제어부는 편향수정 처리를 위한 편향 값을 계산하기 위해서 최대의 초점을 갖는 초점을 기준 초점(fp)으로 설정하고, 그 기준 초점(fp)을 중심으로 이전의 복수개의 초점(fp - n ... fp -1) 및 이후의 복수개의 초점(fp + 1 ... fp +n)을 샘플링한다. 또한, 제어부는 샘플링된 초점의 초점 측정값을 제곱(y2 p - n ... y2 p -1, y2 p + 1 ... y2 p +n)을 계산하고 기준 초점 이전의 복수개의 초점에 대한 제곱값을 합산하고(S0 = y2 p - n + ... y2 p -1), 기준 초점 이후의 복수개의 초점에 대한 제곱값을 합산한다. 만약 합산 결과 S1이 S0보다 작은 경우에, 제어부는 편향값을 max(-1, (R-1)*A)로 결정한다. 이 때,

Figure 112016063098692-pat00027
이고, A는 편향 계수이다. 만약, 합산 결과 S1이 S0보다 큰 경우에, 제어부는 편향값을 min(1, -(R-1)*A)로 결정하고, 이 때,
Figure 112016063098692-pat00028
이고, A는 편향 계수이다.In addition, the control unit 130 processes the acquired image. Specifically, the control unit 130 performs depth alignment processing, image spreading processing, curve fitting processing, bi-lateral filter processing, and image texturing processing. In addition, the controller 130 performs a deflection value calculation for the curve fitting process. Specifically, the control based on the focus has the maximum of the focus the focus (f p) to set, and the reference focus (f p) central to the previous plurality of focus in order to calculate the deflection values for the deflection correction processing (f p - n samples a ... f p -1) and a plurality of focus since the (p + f 1 ... f n + p). Also, the control unit calculates the square of the focus measurement value of the sampled focus (y 2 p - n ... y 2 p -1 , y 2 p + 1 ... y 2 p + n ) (S 0 = y 2 p - n + ... y 2 p -1 ), and sums the squared values for a plurality of foci after the reference focal point. If the sum result S 1 is smaller than S 0 , the control unit determines the deflection value as max (-1, (R-1) * A). At this time,
Figure 112016063098692-pat00027
And A is a deflection coefficient. If the sum S 1 is greater than S 0 , the controller determines the deflection value as min (1, - (R-1) * A)
Figure 112016063098692-pat00028
And A is a deflection coefficient.

헤드(200)는 본체(100)의 전방에 설치되어 구강 내에 삽입되는 부분으로서, 구강 스캐너의 유지 보수 등이 용이하도록 본체(100)에 대해 착탈 가능하도록 결합될 수 있다. 헤드(200)는 구강 내 삽입이 용이하도록 선단으로 갈수록 점차 직경이 감소되는 형태 즉, 테이퍼(Taper) 형태를 취할 수 있으나, 스트레이트(Straight) 형태로도 적용 가능하다.The head 200 is installed in front of the main body 100 and is inserted into the oral cavity. The head 200 can be detachably coupled to the main body 100 to facilitate maintenance of the oral scanner. The head 200 may have a taper shape, which is gradually reduced in diameter toward the distal end so as to be easily inserted into the oral cavity, but may also be a straight shape.

본체(100)와 헤드(200)에는 광학계(210)가 구비된다. 광학계(210)는 광출력부(110)에서 출력된 광을 피사체로 조사하고, 피사체에서 반사되는 반사광을 이미지센싱부(120)로 반사하는 기능을 수행하는 렌즈 등의 집합체로서, 헤드(200)의 선단에 구비되는 반사경(211) 및 이미지센싱부(120)의 전방에 구비되는 집광렌즈(212) 등을 포함할 수 있다.An optical system 210 is provided in the main body 100 and the head 200. The optical system 210 is an aggregate of lenses or the like that irradiate the light output from the light output unit 110 to the subject and reflect the reflected light reflected from the subject to the image sensing unit 120, And a condenser lens 212 provided at the front of the image sensing unit 120. The condenser lens 212 may be a condenser lens,

반사경(211)은 헤드(200)의 선단에 구비되어 광출력부(110)로부터 발생한 광을 피사체에 조사하거나 피사체로부터 반사된 광을 집광렌즈(212)로 반사하는 역할을 한다. 집광렌즈(212)는 이미지센싱부(120)의 전방 또는 별도의 렌즈 지지대에 설치되어 피사체로부터 반사된 광을 집광하여 이미지센싱부(120)로 유도하는 역할을 한다. 광학계는 적절한 각도로 설계되며, 필요에 따라 그 각도를 보정할 수 있도록 구성할 수 있다.The reflector 211 is provided at the front end of the head 200 to irradiate the light from the light output unit 110 to the subject or to reflect the light reflected from the subject to the condenser lens 212. The condensing lens 212 is installed in front of the image sensing unit 120 or in a separate lens support to collect the light reflected from the subject and guide the light to the image sensing unit 120. The optical system is designed at an appropriate angle, and can be configured to correct the angle as needed.

이러한 광학계(210)는 초점의 이동이 가능한 렌즈를 포함하며, 렌즈가 물리적으로 이동함으로써 초점 거리가 변경되는 방식이 사용될 수도 있고, 전압으로 유체렌즈의 면 형상을 변경함으로써 초점 거리가 조절되는 방식이 사용될 수도 있다. 또는, 광학계(210)는 스테레오 비전 기반으로 대체될 수도 있으며 이러한 경우에는 최소한 2개 이상의 액체렌즈가 수평 또는 수직으로 대칭된 위치에 배치될 것이다.Such an optical system 210 includes a lens capable of moving the focus, and a method in which the focal length is changed by physically moving the lens may be used, and a method in which the focal length is adjusted by changing the surface shape of the fluid lens with voltage . Alternatively, the optical system 210 may be replaced on a stereo vision basis, in which case at least two or more liquid lenses may be positioned at either a horizontally or vertically symmetrical position.

커버(300)는 본체(100)의 후방에 구비된다. 예컨대, 본체(100) 내의 부품들의 교체나 보수 등이 용이하도록 커버(300)는 본체(100)에 압입 또는 나사 결합 등의 방식에 의해 착탈 가능하게 결합될 수 있다.The cover 300 is provided at the rear of the main body 100. For example, the cover 300 may be detachably coupled to the main body 100 by a method such as press-fitting or screw-coupling so that the parts in the main body 100 can be easily replaced or repaired.

본 발명이 속하는 기술 분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있으므로, 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention as defined by the following claims and their equivalents. Only. It is intended that the present invention covers the modifications and variations of this invention provided they come within the scope of the appended claims and their equivalents. .

하나 이상의 예시적인 실시예에서, 설명한 기능들은 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 임의의 조합으로 구현될 수 있다. 소프트웨어로 구현된다면, 이 기능들은 컴퓨터 판독 가능 매체 상에 하나 이상의 명령 또는 코드로서 저장 또는 전송될 수 있다. 컴퓨터 판독 가능 매체는 한 장소에서 다른 장소로 컴퓨터 프로그램의 전달을 용이하게 하는 임의의 매체를 포함하는 통신 매체 및 컴퓨터 저장 매체를 모두 포함한다. 저장 매체는 컴퓨터에 의해 액세스 가능한 임의의 이용 가능한 매체일 수 있다. 한정이 아닌 예시로, 이러한 컴퓨터 판독 가능 매체는 RAM, ROM, EEPROM, CD-ROM이나 다른 광 디스크 저장소, 자기 디스크 저장소 또는 다른 자기 저장 디바이스, 또는 명령이나 데이터 구조의 형태로 원하는 프로그램코드를 전달 또는 저장하는데 사용될 수 있으며 컴퓨터에 의해 액세스 가능한 임의의 다른 매체를 포함할 수 있다. 또한, 임의의 접속이 컴퓨터 판독 가능 매체로 적절히 지칭된다. 예를 들어, 소프트웨어가 동축 케이블, 광섬유 케이블, 꼬임 쌍선, 디지털 가입자 회선(DSL), 또는 적외선, 라디오 및 초고주파와 같은 무선 기술을 이용하여 웹사이트, 서버 또는 다른 원격 소스로부터 전송된다면, 동축 케이블, 광섬유 케이블, 꼬임 쌍선, DSL, 또는 적외선, 라디오 및 초고주파와 같은 무선 기술들이 매체의 정의에 포함된다. 여기서 사용된 것과 같은 디스크(Disk 및 Disc)는 콤팩트 디스크(CD), 레이저 디스크, 광 디스크, 디지털 다목적 디스크(DVD), 플로피디스크 및 블루레이 디스크를 포함하며, 디스크들은 보통 데이터를 자기적으로 재생하는 반면, 디스크들은 데이터를 레이저에 의해 광학적으로 재생한다. 상기의 조합들 또한 컴퓨터 판독 가능 매체의 범위 내에 포함되어야 한다.In one or more exemplary embodiments, the functions described may be implemented in hardware, software, firmware, or any combination thereof. If implemented in software, these functions may be stored or transmitted as one or more instructions or code on a computer readable medium. Computer-readable media includes both communication media and computer storage media including any medium that facilitates transfer of a computer program from one place to another. The storage medium may be any available media that is accessible by a computer. By way of example, and not limitation, such computer-readable media can comprise any computer-readable medium, such as RAM, ROM, EEPROM, CD-ROM or other optical disk storage, magnetic disk storage or other magnetic storage devices, And any other medium that can be used to store and be accessed by a computer. Also, any connection is properly referred to as a computer-readable medium. For example, if the software is transmitted from a web site, server, or other remote source using a wireless technology such as coaxial cable, fiber optic cable, twisted pair cable, digital subscriber line (DSL), or infrared, radio and ultra high frequency, Wireless technologies such as fiber optic cable, twisted pair, DSL, or infrared, radio and microwave are included in the definition of media. Discs (Discs and Discs) as used herein include compact discs (CDs), laser discs, optical discs, digital versatile discs (DVD), floppy discs and Blu-ray discs, While discs reproduce data optically by laser. Combinations of the above should also be included within the scope of computer readable media.

실시예들이 프로그램 코드나 코드 세그먼트들로 구현될 때, 코드 세그먼트는 프로시저, 함수, 서브프로그램, 프로그램, 루틴, 서브루틴, 모듈, 소프트웨어 패키지, 클래스, 또는 명령들, 데이터 구조들, 또는 프로그램 명령문들의 임의의 조합을 나타낼 수 있는 것으로 인식해야 한다. 코드 세그먼트는 정보, 데이터, 인수(Argument), 파라미터 또는 메모리 콘텐츠를 전달 및/또는 수신함으로써 다른 코드 세그먼트 또는 하드웨어 회로에 연결될 수 있다. 정보, 인수, 파라미터, 데이터 등은 메모리 공유, 메시지 전달, 토큰 전달, 네트워크 송신 등을 포함하는 임의의 적당한 수단을 이용하여 전달, 발송 또는 전송될 수 있다. 추가로, 어떤 측면들에서 방법 또는 알고리즘의 단계들 및/또는 동작들은 컴퓨터 프로그램 물건으로 통합될 수 있는 기계 판독 가능 매체 및/또는 컴퓨터 판독 가능 매체 상에 코드들 및/또는 명령들 중 하나 또는 이들의 임의의 조합이나 세트로서 상주할 수 있다.When embodiments are implemented as program code or code segments, the code segments may be stored as a procedure, a function, a subprogram, a program, a routine, a subroutine, a module, a software package, a class, As well as any combination thereof. A code segment may be connected to another code segment or hardware circuit by conveying and / or receiving information, data, arguments, parameters or memory contents. Information, arguments, parameters, data, etc. may be communicated, sent, or transmitted using any suitable means including memory sharing, message passing, token passing, Additionally, in some aspects, steps and / or operations of a method or algorithm may be performed on one or more of the codes and / or instructions on a machine readable medium and / or computer readable medium that may be integrated into a computer program product As a combination or set of < / RTI >

소프트웨어에서 구현에서, 여기서 설명한 기술들은 여기서 설명한 기능들을 수행하는 모듈들(예를 들어, 프로시저, 함수 등)로 구현될 수 있다. 소프트웨어 코드들은 메모리 유닛들에 저장될 수 있으며 프로세서들에 의해 실행될 수 있다. 메모리 유닛은 프로세서 내에 구현될 수도 있고 프로세서 외부에 구현될 수 있으며, 이 경우 메모리 유닛은 공지된 바와 같이 다양한 수단에 의해 프로세서에 통신 가능하게 연결될 수 있다.In an implementation in software, the techniques described herein may be implemented with modules (e.g., procedures, functions, and so on) that perform the functions described herein. The software codes may be stored in memory units and executed by processors. The memory unit may be implemented within the processor and external to the processor, in which case the memory unit may be communicatively coupled to the processor by various means as is known.

하드웨어 구현에서, 처리 유닛들은 하나 이상의 주문형 집적 회로(ASIC), 디지털 신호 프로세서(DSP), 디지털 신호 처리 디바이스(DSPD), 프로그래밍 가능 로직 디바이스(PLD), 현장 프로그래밍 가능 게이트어레이(FPGA), 프로세서, 제어기, 마이크로컨트롤러, 마이크로프로세서, 여기서 설명한 기능들을 수행하도록 설계된 다른 전자 유닛들, 또는 이들의 조합 내에 구현될 수 있다.In a hardware implementation, the processing units may be implemented as one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays Controllers, microcontrollers, microprocessors, other electronic units designed to perform the functions described herein, or a combination thereof.

상술한 것은 하나 이상의 실시예의 실례를 포함한다. 물론, 상술한 실시예들을 설명할 목적으로 컴포넌트(Component)들 또는 방법들의 가능한 모든 조합을 기술할 수 있는 것이 아니라, 당업자들은 다양한 실시예의 많은 추가 조합 및 치환이 가능함을 인식할 수 있다. 따라서 설명한 실시예들은 첨부된 청구범위의 진의 및 범위 내에 있는 모든 대안, 변형 및 개조를 포함하는 것이다. 더욱이, 상세한 설명 또는 청구범위에서 "포함한다"라는 용어가 사용되는 범위에 대해, 이러한 용어는 "구성되는"이라는 용어가 청구범위에서 과도적인 단어로 사용될 때 해석되는 것과 같이 "구성되는"과 비슷한 식으로 포함되는 것이다.What has been described above includes examples of one or more embodiments. It is, of course, not possible to describe all possible combinations of components or methods for purposes of describing the above-described embodiments, but one of ordinary skill in the art may recognize that many further combinations and permutations of various embodiments are possible. Accordingly, the described embodiments are intended to embrace all such alterations, modifications and variations that fall within the spirit and scope of the appended claims. Furthermore, to the extent that the term "comprises" is used in the detailed description or the claims, such terms are intended to be inclusive in a manner similar to "consisting" .

여기서 사용된 바와 같이, "추론하다" 또는 "추론"이라는 용어는 일반적으로 이벤트 및/또는 데이터에 의해 포착되는 한 세트의 관측으로부터 시스템, 환경 및/또는 사용자의 상태에 관해 판단하거나 추론하는 프로세스를 말한다. 추론은 특정 상황이나 동작을 식별하는데 이용될 수 있고, 또는 예를 들어 상태들에 대한 확률 분포를 생성할 수 있다. 추론은 확률적일 수 있는데, 즉 데이터 및 이벤트들의 고찰에 기초한 해당 상태들에 대한 확률 분포의 계산일 수 있다. 추론은 또한 한 세트의 이벤트들 및/또는 데이터로부터 상위 레벨 이벤트들을 구성하는데 이용되는 기술들을 말할 수도 있다. 이러한 추론은 한 세트의 관측된 이벤트들 및/또는 저장된 이벤트 데이터로부터의 새로운 이벤트들 또는 동작들, 이벤트들이 시간상 밀접하게 상관되는지 여부, 그리고 이벤트들과 데이터가 하나 또는 여러 이벤트 및 데이터 소스들로부터 나오는지를 추정하게 한다.As used herein, the term " infer "or" inference "generally refers to a process of determining or inferring a state of a system, environment, and / or user from a set of observations captured by events and / It says. The inference may be used to identify a particular situation or action, or may generate a probability distribution for, for example, states. The inference can be probabilistic, that is, it can be a computation of a probability distribution for corresponding states based on consideration of data and events. Inference may also refer to techniques used to construct higher level events from a set of events and / or data. This inference may be based on a set of observed events and / or new events or operations from stored event data, whether the events are closely correlated in time, and whether events and data are coming from one or more events and data sources .

더욱이, 본 출원에서 사용된 바와 같이, "컴포넌트", "모듈", "시스템" 등의 용어는 이에 한정되는 것은 아니지만, 하드웨어, 펌웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어 또는 실행중인 소프트웨어와 같은 컴퓨터 관련 엔티티를 포함하는 것이다. 예를 들어, 컴포넌트는 이에 한정되는 것은 아니지만, 프로세서상에서 실행하는 프로세스, 프로세서, 객체, 실행 가능한 실행 스레드, 프로그램 및/또는 컴퓨터일 수도 있다. 예시로, 연산 디바이스 상에서 구동하는 애플리케이션과 연산 디바이스 모두 컴포넌트일 수 있다. 하나 이상의 컴포넌트가 프로세스 및/또는 실행 생성자(Thread)내에 상주할 수 있으며, 컴포넌트가 하나의 컴퓨터에 집중될 수도 있고 그리고/또는 2개 이상의 컴퓨터 사이에 분산될 수도 있다. 또한, 이들 컴포넌트는 각종 데이터 구조를 저장한 각종 컴퓨터 판독 가능 매체로부터 실행될 수 있다. 컴포넌트들은 하나 이상의 데이터 패킷(예를 들어, 로컬 시스템, 분산 시스템의 다른 컴포넌트와 그리고/또는 신호에 의해 다른 시스템들과 인터넷과 같은 네트워크를 거쳐 상호 작용하는 어떤 컴포넌트로부터의 데이터)을 갖는 신호에 따르는 등 로컬 및/또는 원격 프로세스에 의해 통신할 수 있다.Furthermore, as used in this application, the terms "component," "module," "system," and the like are intended to encompass all types of computer- Entity. For example, a component may be, but is not limited to, a process running on a processor, a processor, an object, an executable execution thread, a program, and / or a computer. By way of illustration, both the application running on the computing device and the computing device can be components. One or more components may reside within a process and / or execution thread, and the components may be centralized on one computer and / or distributed between two or more computers. These components may also be executed from various computer readable media having various data structures stored thereon. The components may be associated with a signal having one or more data packets (e.g., data from a local system, data from another component of the distributed system and / or signals from other components interacting with other systems via a network such as the Internet) Lt; RTI ID = 0.0 > and / or < / RTI > remote processes.

10; 구강 스캐너
100; 본체 110; 광출력부
120; 이미지센싱부 130; 제어부
200; 헤드 210; 광학계
211; 반사경 212; 집광렌즈
300; 커버
10; Oral Scanner
100; A body 110; The light-
120; An image sensing unit 130; The control unit
200; Head 210; Optical system
211; Reflector 212; Condensing lens
300; cover

Claims (8)

구강 이미지를 처리하는 방법으로서,
복수개의 초점을 기초로 구강 내부를 촬영하는 단계;
촬영된 이미지를 영상 처리하는 단계; 및
상기 영상 처리된 이미지에 기초하여 3차원 이미지를 출력하는 단계를 포함하고,
상기 촬영된 이미지를 영상 처리하는 단계는:
상기 복수개의 초점을 기초로 커브 피팅을 수행하는 단계; 및
편향수정 처리를 위한 편향값을 계산하는 단계;를 포함하는,
구강 이미지를 처리하는 방법.
A method of processing an oral image,
Imaging the interior of the mouth based on a plurality of foci;
Image-processing the photographed image; And
And outputting a three-dimensional image based on the image-processed image,
The step of image processing the photographed image comprises:
Performing curve fitting based on the plurality of foci; And
And calculating a deflection value for the deflection correcting process.
How to process oral images.
제1 항에 있어서,
상기 편향값을 계산하는 단계는
최대의 초점 측정값을 갖는 초점을 기준 초점(fp)으로 설정하는 단계; 및
상기 기준 초점(fp)을 중심으로 이전의 복수개의 초점(fp - n ... fp -1) 및 이후의 복수개의 초점(fp + 1 ... fp +n)을 샘플링하는 단계;를 포함하는,
구강 이미지를 처리하는 방법.
The method according to claim 1,
The step of calculating the deflection value
Setting a focus having a maximum focus measurement value as a reference focus f p ; And
The reference focus (f p) the center as in the previous plurality of focus-sampling (f p f n ... p -1) and a plurality of focus since the (p + f 1 ... f n + p) Comprising:
How to process oral images.
제 2 항에 있어서,
상기 편향값을 계산하는 단계는
상기 샘플링된 초점의 초점 측정값을 제곱(y2 p - n ... y2 p -1, y2 p + 1 ... y2 p +n)하는 단계; 및
상기 기준 초점 이전의 복수개의 초점에 대한 제곱값을 합산하고(S0 = y2 p - n + ... y2 p -1), 기준 초점 이후의 복수개의 초점에 대한 제곱값을 합산하는(S1 = y2 p + 1 + ... y2 p +n) 단계;를 더 포함하는,
구강 이미지를 처리하는 방법.
3. The method of claim 2,
The step of calculating the deflection value
Squaring the focus measurement of the sampled focus (y 2 p - n ... y 2 p -1 , y 2 p + 1 ... y 2 p + n ); And
Summing squared values for a plurality of foci before the reference focal point (S 0 = y 2 p - n + ... y 2 p -1 ), summing squared values for a plurality of foci after the reference focal point S 1 = y 2 p + 1 + ... y 2 p + n )
How to process oral images.
제3 항에 있어서,
상기 편향값을 계산하는 단계는
상기 합산 결과 S1이 S0보다 작은 경우에, 상기 편향값은 max(-1, (R-1)*A)로 결정하는 단계;를 더 포함하고,
여기서
Figure 112016063098692-pat00029
이고, A는 편향 계수인,
구강 이미지를 처리하는 방법.
The method of claim 3,
The step of calculating the deflection value
Determining the deflection value to be max (-1, (R-1) * A) if the sum result S 1 is less than S 0 ,
here
Figure 112016063098692-pat00029
A is the deflection coefficient,
How to process oral images.
제3 항에 있어서,
상기 편향값을 계산하는 단계는
상기 합산 결과 S1이 S0보다 큰 경우에, 상기 편향값은 min(1, -(R-1)*A)로 결정되는 단계;를 더 포함하고,
여기서
Figure 112016063098692-pat00030
이고, A는 편향 계수인,
구강 이미지를 처리하는 방법.
The method of claim 3,
The step of calculating the deflection value
Wherein the deflection value is determined as min (1, - (R-1) * A) when the summing result S 1 is greater than S 0 ,
here
Figure 112016063098692-pat00030
A is the deflection coefficient,
How to process oral images.
제 2 항에 있어서,
상기 촬영된 이미지를 영상 처리하는 단계는:
영상 이미지의 에지 보전 및 노이즈 억제를 위하여 바이래터럴 필터 처리를 수행하는 단계;를 더 포함하는 것을 특징으로 하는,
구강 이미지를 처리하는 방법.
3. The method of claim 2,
The step of image processing the photographed image comprises:
And performing a bi-lateral filter process for edge preservation and noise suppression of the video image.
How to process oral images.
컴퓨터 상에서 실행될 때, 제1항 내지 제6항 중 어느 하나의 항에 기재된 방법을 수행하기 위해 매체에 저장되는 컴퓨터 프로그램.
A computer program stored on a medium for performing the method of any one of claims 1 to 6, when executed on a computer.
구강 이미지를 처리하기 위한 장치로서,
본체; 헤드; 및 커버를 포함하고,
상기 본체는 복수개의 초점을 기초로 구강 내부를 촬영하기 위한 광출력부; 촬영된 이미지를 획득하기 위한 이미지 센싱부; 및 상기 광출력부 및 상기 이미지 센싱부를 제어하기 위한 제어부를 포함하고,
상기 제어부는:
상기 촬영된 이미지를 영상 처리하기 위해 상기 이미지에 대해 상기 복수개의 초점을 기초로 커브 피팅을 수행하고, 편향수정 처리를 위한 편향값을 계산하는 것을 수행하고,
상기 편향값을 계산하기 위해 최대의 초점 측정값을 갖는 초점을 기준 초점(fp)으로 설정하여, 상기 기준 초점(fp)을 중심으로 이전의 복수개의 초점(fp - n ... fp -1) 및 이후의 복수개의 초점(fp + 1 ... fp +n)을 샘플링하고,
상기 샘플링된 초점의 초점 측정값을 제곱(y2 p - n ... y2 p -1, y2 p + 1 ... y2 p +n)하고, 상기 기준 초점 이전의 복수개의 초점에 대한 제곱값을 합산하고(S0 = y2 p - n + ... y2 p -1), 기준 초점 이후의 복수개의 초점에 대한 제곱값을 합산하고(S1 = y2 p + 1 + ... y2 p +n),
상기 합산 결과 S1이 S0보다 작으면 상기 편향값을 max(-1, (R-1)*A)로 결정하고, 상기 합산 결과 S1이 S0보다 크면 상기 편향값을 min(1, -(R-1)*A)로 결정하고,
상기 촬영된 이미지를 영상 처리하기 위해 영상 이미지의 에지 보전 및 노이즈 억제를 위하여 바이래터럴 필터 처리를 수행하는 것을 특징으로 하는,
구강 이미지를 처리하기 위한 장치.

An apparatus for processing an oral image,
main body; head; And a cover,
Wherein the main body comprises: a light output part for photographing the inside of the oral cavity based on a plurality of focal points; An image sensing unit for acquiring a photographed image; And a control unit for controlling the light output unit and the image sensing unit,
The control unit includes:
Performing curve fitting based on the plurality of foci for the image to image the photographed image, and calculating a deflection value for deflection correction processing,
The deflection value based on the focus has the maximum value of the focus measurement to calculate the focus (f p) as set by the reference focus (f p) to the center of the previous plurality of focus (f p - n ... f sampling a p -1) and a plurality of focus since the (p + f 1 ... f n + p), and
Focus measurement value of the sampled focus-square-on (y 2 ... y n p 2 p -1, p 2 + y 1 y 2 ... p + n), and a plurality of focus of the reference focus previous summing the squared values of the (S 0 = y 2 p - n + ... y 2 p -1), summing the squared values of the plurality of focus since the focus criteria, and (S 1 = y 2 p + 1 + ... y 2 p + n ),
The summation results S 1 S 0 is lower than the bias value max (-1, (R-1 ) * A) determined, and the summation result S 1 to S 0 is larger than the bias value min (1, - (R-1) * A)
And performing a bilateral filter process for edge preservation and noise suppression of the image image to image the photographed image.
Apparatus for processing oral images.

KR1020160081821A 2016-06-29 2016-06-29 Method for processing a dental image, apparatus and computer program therefor KR101838917B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160081821A KR101838917B1 (en) 2016-06-29 2016-06-29 Method for processing a dental image, apparatus and computer program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160081821A KR101838917B1 (en) 2016-06-29 2016-06-29 Method for processing a dental image, apparatus and computer program therefor

Publications (2)

Publication Number Publication Date
KR20180002378A KR20180002378A (en) 2018-01-08
KR101838917B1 true KR101838917B1 (en) 2018-03-15

Family

ID=61003874

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160081821A KR101838917B1 (en) 2016-06-29 2016-06-29 Method for processing a dental image, apparatus and computer program therefor

Country Status (1)

Country Link
KR (1) KR101838917B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019212245A1 (en) 2018-05-03 2019-11-07 주식회사 메디트 Three-dimensional oral scanner
KR102096612B1 (en) 2019-05-21 2020-04-02 주식회사 메디트 3-dimensional intraoral scanner
KR20200134145A (en) 2019-05-21 2020-12-01 주식회사 메디트 3-dimensional intraoral scanner

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111861887A (en) * 2020-07-18 2020-10-30 厦门五星珑科技有限公司 Method and system for detecting forming quality of dental crown and storage medium
KR102607610B1 (en) * 2021-05-20 2023-11-29 주식회사 디오에프연구소 3D scanner

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010188003A (en) 2009-02-19 2010-09-02 Fujifilm Corp Image displaying system and image capturing and displaying system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010188003A (en) 2009-02-19 2010-09-02 Fujifilm Corp Image displaying system and image capturing and displaying system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019212245A1 (en) 2018-05-03 2019-11-07 주식회사 메디트 Three-dimensional oral scanner
JP2021520979A (en) * 2018-05-03 2021-08-26 メディット コーポレーション 3D oral scanner
JP7087250B2 (en) 2018-05-03 2022-06-21 メディット コーポレーション 3D oral scanner
US11903678B2 (en) 2018-05-03 2024-02-20 Medit Corp. 3-dimensional intraoral scanner
KR102096612B1 (en) 2019-05-21 2020-04-02 주식회사 메디트 3-dimensional intraoral scanner
KR20200134145A (en) 2019-05-21 2020-12-01 주식회사 메디트 3-dimensional intraoral scanner

Also Published As

Publication number Publication date
KR20180002378A (en) 2018-01-08

Similar Documents

Publication Publication Date Title
KR101838917B1 (en) Method for processing a dental image, apparatus and computer program therefor
JP5868183B2 (en) Imaging apparatus and imaging method
JP5881960B2 (en) 3D imaging using telecentric defocusing
JP6168879B2 (en) Endoscope apparatus, operation method and program for endoscope apparatus
JP6245885B2 (en) Imaging apparatus and control method thereof
US8165351B2 (en) Method of structured light-based measurement
JP6137847B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
WO2011158508A1 (en) Image processing device and image processing method
JP2015035658A (en) Image processing apparatus, image processing method, and imaging apparatus
CN106455958B (en) Colposcopic device for performing a colposcopic procedure
JP6056746B2 (en) Face image photographing device and driver state determination device
JP2014511590A (en) Method for recording image, method for obtaining 3D information from image, camera system
JP6736670B2 (en) Endoscope system
US20210267447A1 (en) Extended depth of field intraoral imaging apparatus
JP6742713B2 (en) Method and system for magnification correction from multiple focal planes
US10362235B2 (en) Processing apparatus, processing system, image pickup apparatus, processing method, and storage medium
JP2016114830A (en) Focus control device, optical device and focus control method
KR101465996B1 (en) Method for measurement of high speed 3d shape using selective long period
KR20120121022A (en) Method for Improving Image Resolution of Full-Field Optical Coherence Tomography System
JP5050282B2 (en) Focus detection device, focus detection method, and focus detection program
KR101941907B1 (en) Endoscope using depth information and method for detecting polyp based on endoscope using depth information
Daneshpanah et al. Application issues in the use of depth from (de) focus analysis methods
JP2017116723A (en) Imaging device, focus adjustment device, and focus adjustment program
JP2017040704A (en) Imaging apparatus and imaging system
JP6597467B2 (en) Face orientation measuring device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant