KR102383546B1 - Apparatus and method for oral image registration - Google Patents

Apparatus and method for oral image registration Download PDF

Info

Publication number
KR102383546B1
KR102383546B1 KR1020200050086A KR20200050086A KR102383546B1 KR 102383546 B1 KR102383546 B1 KR 102383546B1 KR 1020200050086 A KR1020200050086 A KR 1020200050086A KR 20200050086 A KR20200050086 A KR 20200050086A KR 102383546 B1 KR102383546 B1 KR 102383546B1
Authority
KR
South Korea
Prior art keywords
marker
image
dividing
oral
registration
Prior art date
Application number
KR1020200050086A
Other languages
Korean (ko)
Other versions
KR102383546B9 (en
KR20210131685A (en
Inventor
김진철
김진백
Original Assignee
주식회사 디오
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 디오 filed Critical 주식회사 디오
Priority to KR1020200050086A priority Critical patent/KR102383546B1/en
Priority to CN202180025038.2A priority patent/CN115379800A/en
Priority to PCT/KR2021/005095 priority patent/WO2021215843A1/en
Priority to EP21792744.1A priority patent/EP4140411A4/en
Priority to US17/996,009 priority patent/US20230215027A1/en
Publication of KR20210131685A publication Critical patent/KR20210131685A/en
Application granted granted Critical
Publication of KR102383546B1 publication Critical patent/KR102383546B1/en
Publication of KR102383546B9 publication Critical patent/KR102383546B9/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/14Applications or adaptations for dentistry
    • A61B6/51
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C8/00Means to be fixed to the jaw-bone for consolidating natural teeth or for fixing dental prostheses thereon; Dental implants; Implanting tools
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides

Abstract

본 발명은, 오랄 스캔 영상 및 CT 영상을 정합하는 방법으로서, 오랄 스캔 영상에서 제1 마커 및 제1 치아 영역을 각각 분할하는 단계와, 제1 마커 및 제1 치아 영역을 통합하여 제1 정합 기준점을 생성하는 단계와, CT 영상에서 제2 마커 및 제2 치아 영역을 분할하는 단계와, 제2 마커 및 제2 치아 영역을 통합하여 제2 정합 기준점을 생성하는 단계와, 제1 및 제2 정합 기준점을 기초로 오랄 스캔 영상 및 CT 영상을 정합하는 단계를 포함하는 구강 영상 정합 방법을 제공한다.The present invention provides a method of registering an oral scan image and a CT image, comprising the steps of segmenting a first marker and a first tooth area in an oral scan image, respectively, and integrating the first marker and the first tooth area to obtain a first registration reference point generating a , dividing the second marker and the second tooth region in the CT image, and integrating the second marker and the second tooth region to generate a second registration reference point; first and second registration Provided is an oral image registration method comprising the step of registering an oral scan image and a CT image based on a reference point.

Description

구강 영상 정합 장치 및 방법{APPARATUS AND METHOD FOR ORAL IMAGE REGISTRATION}Oral image registration device and method {APPARATUS AND METHOD FOR ORAL IMAGE REGISTRATION}

본 발명은 구강 영상 정합 장치 및 방법에 관한 것이다.The present invention relates to an oral image registration device and method.

컴퓨터 비전에서 하나의 장면이나 대상을 다른 시간이나 관점에서 촬영할 경우, 서로 다른 좌표계에 따른 영상이 얻어지게 된다. 영상 정합은 이와 같은 서로 다른 영상을 변형하여 하나의 좌표계에 나타내기 위한 처리를 의미한다. In computer vision, when a scene or object is photographed from a different time or point of view, images according to different coordinate systems are obtained. Image registration refers to processing for transforming such different images and displaying them in one coordinate system.

이와 같은 영상 정합을 통하여 서로 다른 측정 방식을 통해 얻은 영상의 대응 관계를 확인할 수 있다.Through such image registration, it is possible to check the correspondence between images obtained through different measurement methods.

치과용 수술 가이드(surgical guide) 소프트웨어에서는 임플란트(dental implant) 시술 계획 단계로 진입하기 전에 일반적으로 CT(Computed Tomography) 영상과 오랄 스캔(Oral Scan) 영상 간의 영상 정합 과정을 거치게 된다. In a dental surgical guide software, an image registration process between a computed tomography (CT) image and an oral scan image is generally performed before entering the dental implant procedure planning stage.

이러한 영상 정합 과정을 거쳐 정합된 영상은 골조직과 신경관 위치 등을 파악하여 안전하고 최적의 임플란트 식립 위치를 결정하는 임플란트 계획 작업의 기초가 되므로 영상 정합의 정확성은 그 이후 절차 진행에 있어 매우 중요한 의미를 가진다.The image registered through this image registration process becomes the basis for implant planning work that determines the safe and optimal implant placement position by identifying the bone tissue and neural tube position, so the accuracy of image registration is very important in the subsequent procedure. have

종래의 의료용 소프트웨어에서 제공하는 영상 정합 방법은 시술자가 영상 정합의 기준이 되는 포인트를 수동으로 입력하고, 이를 기초로 영상 정합이 이루어지게 된다. In the image registration method provided by the conventional medical software, an operator manually inputs a point that is a reference point for image registration, and image registration is performed based on this.

이와 같은 종래의 영상 정합 방법에 따르면, 시술자가 눈으로 대략 판단하여 기준 포인트를 선택하므로 그 결과가 매우 부정확하여 영상 정합 후 시술자의 수동 조작 과정이 필연적으로 따르게 된다. 즉, 시술자는 포인트의 위치를 변경하거나 포인트를 재선택하여 정합 결과를 수정하게 된다. 이와 같이, 종래 기술에 따르면 정합 및 수정의 계속되는 반복 과정으로 인하여 영상 정합에 시술자가 많은 시간을 소비하게 되며, 소비된 시간만큼 만족하는 결과를 얻을 수 없는 문제점이 있었다.According to such a conventional image registration method, since the operator selects the reference point by roughly judging by the eye, the result is very inaccurate, so that the operator's manual operation process is inevitably followed after image registration. That is, the operator modifies the registration result by changing the position of the point or reselecting the point. As described above, according to the prior art, the operator spends a lot of time in image registration due to the continuous iterative process of registration and correction, and there is a problem in that satisfactory results cannot be obtained as much as the time spent.

또 다른 종래의 방법으로서, 구강 내 정합 기준으로 활용하기 위한 마커가 포함된 영상을 획득하고, 영상 내의 마커를 기준으로 이종 영상 촬영 장치로부터 획득된 영상을 정합하는 방법을 들 수 있다.As another conventional method, there is a method of acquiring an image including a marker for use as an intraoral registration standard, and matching an image obtained from a heterogeneous imaging device based on the marker in the image.

도 1은 영상 정합을 위해 구강 내부에 부착된 마커를 도시한 도면이다.1 is a view showing a marker attached to the inside of the oral cavity for image registration.

도 1을 참조하면, 마커(1)는 접착제(예컨대, 레진)를 이용해 피시술자의 구강 내의 정해진 위치에 복수 개로 부착된다. 이 후, 일정 시간이 경과하면 마커(1)와 잇몸 사이에 접착층(2)이 형성된다. 이 때, 마커(1)의 부착 위치 마다 접착제의 양과 형태가 달라 접착층(2)의 형태가 불균일하게 된다. Referring to FIG. 1 , a plurality of markers 1 are attached to a predetermined position in the oral cavity of the recipient using an adhesive (eg, resin). After that, when a certain time elapses, an adhesive layer 2 is formed between the marker 1 and the gums. At this time, since the amount and shape of the adhesive are different for each attachment position of the marker 1 , the shape of the adhesive layer 2 becomes non-uniform.

한편, 영상 정합을 위해 구강 영상에서 마커(1)를 검출함에 있어, 마커(1)와 접착층(2)은 일체로 형성되기 때문에, 마커(1)와 접착층(2)이 함께 검출될 수 있다. 그러나, 이러한 불균일한 접착층(2)은 영상 정합 시 정합에 방해가 요소가 되어, 영상 정합 시 정합 정확도를 떨어지게 하는 문제점을 야기한다.On the other hand, in detecting the marker 1 in the oral image for image registration, since the marker 1 and the adhesive layer 2 are integrally formed, the marker 1 and the adhesive layer 2 can be detected together. However, the non-uniform adhesive layer 2 becomes an obstacle to registration during image registration, and causes a problem of lowering the registration accuracy during image registration.

본 발명은, 구강 영상에서 마커 및 치아 영역을 분할하되 마커에서 정합에 방해되는 요소를 제거하고, 분할된 마커를 이용해 높은 정확도로 영상 정합을 자동으로 수행하는 구강 영상 정합 장치 및 방법을 제공하는 것을 목적으로 한다.The present invention is to provide an oral image registration apparatus and method for segmenting a marker and a tooth region in an oral image, but removing elements that interfere with registration from the marker, and automatically performing image registration with high accuracy using the segmented marker The purpose.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned can be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. There will be.

전술한 과제를 해결하기 위해, 본 발명은, 오랄 스캔 영상 및 CT 영상을 정합하는 방법으로서, 오랄 스캔 영상에서 제1 마커 및 제1 치아 영역을 각각 분할하는 단계와, 제1 마커 및 제1 치아 영역을 통합하여 제1 정합 기준점을 생성하는 단계와, CT 영상에서 제2 마커 및 제2 치아 영역을 분할하는 단계와, 제2 마커 및 제2 치아 영역을 통합하여 제2 정합 기준점을 생성하는 단계와, 제1 및 제2 정합 기준점을 기초로 오랄 스캔 영상 및 CT 영상을 정합하는 단계를 포함하는 구강 영상 정합 방법을 제공한다.In order to solve the above problems, the present invention provides a method of matching an oral scan image and a CT image, comprising the steps of segmenting a first marker and a first tooth region in an oral scan image, respectively, the first marker and the first tooth Generating a first registration reference point by integrating the regions, dividing the second marker and the second tooth region in the CT image, and generating a second registration reference point by integrating the second marker and the second tooth region and registering an oral scan image and a CT image based on first and second registration reference points.

여기서, 오랄 스캔 영상에서 제1 마커를 분할하는 단계는, 오랄 스캔 영상을 수평면 방향으로 정렬하는 단계와, 정렬된 오랄 스캔 영상에서 마커 후보 영역을 추정하고, 마커 후보 영역에서 미분할 마커를 검출하는 단계와, 미분할 마커를 분할하여 미분할 마커에서 제1 마커를 추정하되, 미분할 마커의 상부면에서 하부 방향으로 일정 깊이까지의 영역을 제1 마커로 추정하는 단계를 포함하는 구강 영상 정합 방법을 제공한다.Here, the step of segmenting the first marker in the oral scan image includes aligning the oral scan image in a horizontal plane direction, estimating a marker candidate region in the aligned oral scan image, and detecting an undivided marker in the marker candidate region. An oral image registration method comprising the steps of: estimating a first marker from the undivided marker by dividing the undivided marker, and estimating an area up to a predetermined depth from the upper surface of the undivided marker to a lower direction as the first marker provides

또한, 오랄 스캔 영상에서 제1 마커를 분할하는 단계는, 제1 마커가 부착된 다수의 제1 학습 영상을 학습하여 제1 학습 모델을 생성하는 단계와, 제1 학습 모델에 오랄 스캔 영상을 입력하는 단계와, 제1 학습 영상을 기반으로 오랄 스캔 영상에서 미분할 마커를 검출하는 단계를 포함한다.In addition, the step of dividing the first marker from the oral scan image includes generating a first learning model by learning a plurality of first learning images to which the first markers are attached, and inputting the oral scan image to the first learning model. and detecting an undivided marker in the oral scan image based on the first training image.

또한, 오랄 스캔 영상에서 제1 치아 영역을 분할하는 단계는, 상기 오랄 스캔 영상에 포함되는 복수의 메쉬의 곡률을 산출하는 단계와, 복수의 메쉬의 곡률을 기초로 오랄 스캔 영상에서 제1 치아 영역 및 잇몸 영역의 경계를 산출하는 단계와, 제1 치아 영역 및 잇몸 영역의 경계를 기초로 오랄 스캔 영상에서 제1 치아 영역을 분할하는 단계를 포함한다.In addition, the step of segmenting the first tooth region in the oral scan image includes calculating curvatures of a plurality of meshes included in the oral scan image, and the first tooth region in the oral scan image based on the curvatures of the plurality of meshes. and calculating a boundary of the gum area, and segmenting the first tooth area in the oral scan image based on the boundary between the first tooth area and the gum area.

또한, CT 영상에서 상기 제2 마커를 분할하는 단계는, 제2 마커의 부피 정보를 이용하여 CT 영상에서 상기 제2 마커를 검출하는 단계이다.In addition, the step of segmenting the second marker in the CT image is a step of detecting the second marker in the CT image using volume information of the second marker.

또한, CT 영상에서 제2 마커를 분할하는 단계는, 제2 마커의 부피 정보를 이용하여 제2 마커에 대응하는 형상으로 마스크를 생성하는 단계와, 마스크를 이용하여 CT 영상에서 상기 제2 마커를 탐색하는 단계를 포함한다.In addition, segmenting the second marker in the CT image includes generating a mask in a shape corresponding to the second marker using volume information of the second marker, and selecting the second marker in the CT image using the mask. It includes the step of exploring.

또한, CT 영상에서 제2 치아 영역을 분할하는 단계는, CT 영상에 포함되는 복수의 복셀의 HU(hounsfield unit)값을 기초로 제2 학습 영상을 학습하여 제2 학습 모델을 생성하는 단계와, 제2 학습 모델에 상기 CT 영상을 입력하는 단계와, 제2 학습 영상을 기반으로 CT 영상에서 제2 치아 영역을 분할하는 단계를 포함한다.In addition, the step of segmenting the second tooth region in the CT image may include: generating a second learning model by learning the second learning image based on hounsfield unit (HU) values of a plurality of voxels included in the CT image; inputting the CT image to a second learning model; and segmenting a second tooth region in the CT image based on the second learning image.

또한, 본 발명은, 오랄 스캔 영상 및 CT 영상을 정합하는 장치로서, 오랄 스캔 영상에서 제1 마커를 분할하는 제1 마커 분할부와, 오랄 스캔 영상에서 제1 치아 영역을 분할하는 제1 치아 영역 분할부와, 제1 마커 및 제1 치아 영역을 통합하여 제1 정합 기준점을 생성하는 제1 정합 기준점 생성부와, CT 영상에서 제2 마커를 분할하는 제2 마커 분할부와, CT 영상에서 제2 치아 영역을 분할하는 제2 치아 영역 분할부와, 제2 마커 및 제2 치아 영역을 통합하여 제2 정합 기준점을 생성하는 제2 정합 기준점 생성부와, 제1 및 제2 정합 기준점을 기초로 오랄 스캔 영상 및 CT 영상을 정합하는 영상 정합부를 포함하는 구강 영상 정합 장치를 제공한다.In addition, the present invention provides an apparatus for matching an oral scan image and a CT image, the first marker dividing unit dividing a first marker in the oral scan image, and a first tooth region dividing the first tooth region in the oral scan image A division unit, a first registration reference point generating unit generating a first registration reference point by integrating the first marker and the first tooth region, a second marker division unit dividing the second marker in the CT image, and a second marker in the CT image. A second tooth region dividing unit dividing the two tooth regions, a second registration reference point generating unit generating a second registration reference point by integrating the second marker and the second tooth region, and the first and second registration reference points based on the first and second registration reference points Provided is an oral image matching device including an image matching unit for registering an oral scan image and a CT image.

본 발명에 따르면, 구강 영상에서 마커 및 치아 영역을 분할하되 마커에서 정합에 방해되는 요소를 제거하고, 분할된 마커 및 치아 영역을 이용해 높은 정확도로 영상 정합을 자동으로 수행하여 사용자의 편의성을 증진시키고, 이에 수반하여 임플란트 계획에 소요되는 시간 단축 및 임플란트 계획의 정확성을 제고할 수 있는 효과가 있다.According to the present invention, a marker and a tooth area are segmented in an oral image, but elements that interfere with registration are removed from the marker, and image registration is automatically performed with high accuracy using the segmented marker and tooth area to improve user convenience and , it has the effect of reducing the time required for implant planning and improving the accuracy of implant planning.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be.

도 1은 영상 정합을 위해 구강 내부에 부착된 마커를 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 구강 영상 정합 장치의 개략적인 블록도이다.
도 3은 도 2의 제어부의 구체적인 블록도이다.
도 4는 본 발명의 실시예에 따른 구강 영상 정합 방법의 순서도이다.
도 5는 마커가 부착된 구강을 촬영하여 생성된 오랄 스캔 영상을 도시한 도면이다.
도 6은 미분할 마커를 확대한 도면이다.
도 7은 도 6의 미분할 마커에서 분할한 마커를 도시한 도면이다.
도 8은 오랄 스캔 영상에 포함되는 복수의 메쉬의 곡률을 산출하는 방법을 설명하기 위한 도면이다.
도 9는 도 8에서 산출한 복수의 메쉬의 곡률을 기초로 오랄 스캔 영상에서 분할된 치아 영역을 도시한 도면이다.
도 10은 오랄 스캔 영상에 제1 정합 기준점을 도시한 도면이다.
도 11은 마커가 부착된 구강을 촬영하여 생성된 CT 영상을 도시한 도면이다.
도 12는 도 11의 CT 영상에서 검출한 마커를 도시한 도면이다.
도 13은 CT 영상에서 분할된 치아 영역을 도시한 도면이다.
도 14는 CT 영상에 제2 정합 기준점을 도시한 도면이다.
도 15는 본 발명의 실시예에 따른 구강 영상 정합 방법으로 오랄 스캔 영상과 CT 영상을 정합한 도면이다.
1 is a view showing a marker attached to the inside of the oral cavity for image registration.
2 is a schematic block diagram of an oral image registration apparatus according to an embodiment of the present invention.
FIG. 3 is a detailed block diagram of the control unit of FIG. 2 .
4 is a flowchart of an oral image registration method according to an embodiment of the present invention.
5 is a diagram illustrating an oral scan image generated by photographing an oral cavity to which a marker is attached.
6 is an enlarged view of an undivided marker.
7 is a diagram illustrating a marker divided from the undivided marker of FIG. 6 .
8 is a diagram for explaining a method of calculating the curvature of a plurality of meshes included in an oral scan image.
9 is a diagram illustrating a tooth region divided in an oral scan image based on the curvatures of a plurality of meshes calculated in FIG. 8 .
10 is a diagram illustrating a first matching reference point in an oral scan image.
11 is a view illustrating a CT image generated by photographing an oral cavity to which a marker is attached.
12 is a diagram illustrating a marker detected in the CT image of FIG. 11 .
13 is a diagram illustrating a segmented tooth region in a CT image.
14 is a diagram illustrating a second matching reference point on a CT image.
15 is a diagram illustrating registration of an oral scan image and a CT image by an oral image registration method according to an embodiment of the present invention.

본 발명의 상기 목적과 수단 및 그에 따른 효과는 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다.The above object and means of the present invention and its effects will become more apparent through the following detailed description in relation to the accompanying drawings, and accordingly, those of ordinary skill in the art to which the present invention pertains can easily understand the technical idea of the present invention. will be able to carry out In addition, in describing the present invention, if it is determined that a detailed description of a known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.

본 명세서에서, “또는”, “적어도 하나” 등의 용어는 함께 나열된 단어들 중 하나를 나타내거나, 또는 둘 이상의 조합을 나타낼 수 있다. 예를 들어, “또는 B”“및 B 중 적어도 하나”는 A 또는 B 중 하나만을 포함할 수 있고, A와 B를 모두 포함할 수도 있다.In this specification, terms such as “or” and “at least one” may indicate one of the words listed together, or a combination of two or more. For example, “or B” and “at least one of B” may include only one of A or B, or both A and B.

본 명세서에서, '제1', '제2' 등의 용어는 다양한 구성요소를 설명하는데 사용될 수 있지만, 해당 구성요소는 위 용어에 의해 한정되어서는 안 된다. 또한, 위 용어는 각 구성요소의 순서를 한정하기 위한 것으로 해석되어서는 안되며, 하나의 구성요소와 다른 구성요소를 구별하는 목적으로 사용될 수 있다. 예를 들어, '제1구성요소'는 '제2구성요소'로 명명될 수 있고, 유사하게 '제2구성요소'도 '제1구성요소'로 명명될 수 있다.In this specification, terms such as 'first' and 'second' may be used to describe various components, but the components should not be limited by the above terms. In addition, the above terms should not be construed as limiting the order of each component, and may be used for the purpose of distinguishing one component from another. For example, a 'first component' may be referred to as a 'second component', and similarly, a 'second component' may also be referred to as a 'first component'.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하도록 한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본 발명의 실시예에 따른 구강 영상 정합 장치의 개략적인 블록도이고, 도 3은 도 2의 제어부의 구체적인 블록도이다.2 is a schematic block diagram of an oral image registration apparatus according to an embodiment of the present invention, and FIG. 3 is a detailed block diagram of the controller of FIG. 2 .

본 발명의 실시예에 따른 구강 영상 정합 장치(100)는, 컴퓨터 프로그램에 의해 실행 가능한 전자 장치로서, 마커 및 치아 영역을 정합 기준점으로 이용하여 피시술자의 오랄 스캔 영상과 CT 영상을 정합하는 장치이다. 여기서, 치아 영역은 하나의 개별 치아이거나 인접한 복수의 개별 치아가 합쳐진 형태일 수 있으며, 마커는 적어도 하나 이상일 수 있으나 이에 한정되는 것은 아니다. 또한, 마커는 결손 치아 영역에 부착될 수 있다.The oral image registration apparatus 100 according to an embodiment of the present invention is an electronic device executable by a computer program, and is an apparatus for matching an oral scan image and a CT image of a recipient by using a marker and a tooth region as a registration reference point. Here, the tooth region may be one individual tooth or a form in which a plurality of adjacent individual teeth are combined, and the number of markers may be at least one, but is not limited thereto. Also, a marker may be attached to the missing tooth area.

오랄 스캔 영상은, 3차원 영상으로서 외부로 드러난 치아의 치관 부분의 형상과 치아 주변의 잇몸 형상에 대한 정보를 제공할 수 있다. 이때, 오랄 스캔 영상은 오랄 스캐너(oral scanner) 등을 통해 피시술자의 구강 내부를 직접 스캔하여 획득되거나 피시술자의 구강 내부를 음각으로 본뜬 인상 모델이나 인상 모델의 양각을 통해 생성한 석고 모델을 스캔하여 획득될 수 있으며, 인상 모델의 스캔 이미지는 반전되어 오랄 스캔 영상으로 사용될 수 있다.The oral scan image may provide information on the shape of the crown portion of the tooth exposed to the outside as a 3D image and the shape of the gum around the tooth. At this time, the oral scan image is obtained by directly scanning the inside of the recipient’s oral cavity through an oral scanner, etc. The scan image of the impression model can be inverted and used as an oral scan image.

CT 영상은, 3차원 영상으로서 치관뿐만 아니라 치근과, 치조골의 형상 및 치관, 치근 및 치조골의 골밀도에 대한 정보를 제공할 수 있다. 이 때, CT 영상은 피시술자의 구강 내부를 CT 촬영하여 획득될 수 있다.The CT image, as a three-dimensional image, may provide information on not only the crown, but also the shape of the root and alveolar bone, and the bone density of the crown, root, and alveolar bone. In this case, the CT image may be obtained by performing a CT scan of the inside of the recipient's oral cavity.

오랄 스캔 영상과 CT 영상이 정합된 정합 영상은, 피시술자의 골조직과 신경관 위치 등을 파악하여 안전하고 최적의 임플란트 식립 위치를 결정하는 임플란트 계획 작업의 기초 영상이 된다.The registered image, in which the oral scan image and the CT image are matched, becomes the basic image for implant planning work that determines the safe and optimal implant placement position by identifying the bone tissue and neural tube position of the recipient.

도 2를 참조하면, 본 발명의 실시예에 따른 구강 영상 정합 장치(100)는, 통신부(110), 입력부(120), 표시부(130), 저장부(140) 및 제어부(150)를 포함할 수 있다.Referring to FIG. 2 , the oral image matching apparatus 100 according to an embodiment of the present invention may include a communication unit 110 , an input unit 120 , a display unit 130 , a storage unit 140 , and a control unit 150 . can

통신부(110)는 영상 획득 장치(미도시) 및 서버(미도시) 등의 외부 장치와의 통신을 수행하는 구성으로서, 영상 데이터를 수신할 수 있다. 예를 들어, 통신부(110)는 5G(5th generation communication), LTE-A(long term evolution-advanced), LTE(long term evolution), 블루투스, BLE(bluetooth low energe), NFC(near field communication) 등의 무선 통신을 수행할 수 있고, 케이블 통신 등의 유선 통신을 수행할 수 있다. 이때, 영상 데이터는 오랄 스캔 영상 데이터 및 CT 영상 데이터를 포함할 수 있다.The communication unit 110 is a component that communicates with an external device such as an image acquisition device (not shown) and a server (not shown), and may receive image data. For example, the communication unit 110 is 5 th generation communication (5G), long term evolution-advanced (LTE-A), long term evolution (LTE), Bluetooth, bluetooth low energe (BLE), near field communication (NFC). It is possible to perform wireless communication such as cable communication and the like, and can perform wired communication such as cable communication. In this case, the image data may include oral scan image data and CT image data.

입력부(120)는 사용자의 입력에 대응하여, 입력 데이터를 생성하며, 적어도 하나의 입력 수단을 포함할 수 있다. 예를 들어, 입력부(120)는 키보드(key board), 키패드(key pad), 돔 스위치(dome switch), 터치 패널(touch panel), 터치 키(touch key), 마우스(mouse), 메뉴 버튼(menu button) 등을 포함할 수 있다. The input unit 120 generates input data in response to a user's input, and may include at least one input means. For example, the input unit 120 includes a keyboard, a keypad, a dome switch, a touch panel, a touch key, a mouse, and a menu button ( menu button) and the like.

표시부(130)는 구강 영상 정합 장치(100)의 동작에 따른 표시 데이터를 표시한다. 이러한 표시 데이터에는 영상 데이터가 포함될 수 있다. 예를 들어, 표시부(130)는 액정 디스플레이(LCD; liquid crystal display), 발광 다이오드(LED; light emitting diode) 디스플레이, 유기 발광 다이오드(OLED; organic LED) 디스플레이, 마이크로 전자기계 시스템(MEMS; micro electro mechanical systems) 디스플레이 및 전자 종이(electronic paper) 디스플레이를 포함할 수 있다. 또한, 표시부(130)는 입력부(120)와 결합되어 터치 스크린(touch screen)으로 구현될 수 있다.The display unit 130 displays display data according to the operation of the oral image matching apparatus 100 . The display data may include image data. For example, the display unit 130 may include a liquid crystal display (LCD), a light emitting diode (LED) display, an organic light emitting diode (OLED) display, and a micro electromechanical system (MEMS). mechanical systems) displays and electronic paper displays. Also, the display unit 130 may be combined with the input unit 120 to be implemented as a touch screen.

저장부(140)는 구강 영상 정합 장치(100)의 동작에 필요한 각종 정보와 프로그램들을 저장한다. 예를 들어, 저장부(140)는 영상 획득 장치 등으로부터 수신된 영상 데이터와, 후술할 본 발명의 실시예에 따른 영상 정렬, 마커 및 치아 영역 검출 및 영상 정합 방법에 관련된 알고리즘 등을 저장할 수 있다. 또한, 저장부(140)는 마커 및 치아 영역을 검출하기 위해, 딥러닝(deep learning) 방법으로 다수의 학습 영상을 학습한 학습 모델을 저장할 수 있다.The storage unit 140 stores various information and programs necessary for the operation of the oral image matching apparatus 100 . For example, the storage 140 may store image data received from an image acquisition device, etc., and an algorithm related to image alignment, marker and tooth region detection, and image registration method according to an embodiment of the present invention, which will be described later. . Also, the storage unit 140 may store a learning model obtained by learning a plurality of learning images by a deep learning method in order to detect a marker and a tooth region.

제어부(150)는, 영상 획득 장치 또는 서버 등으로부터 수신되거나 저장부(140)에 기 저장된 구강 영상 데이터에서 마커 및 치아 영역을 검출하고 검출된 마커 및 치아 영역을 기준점으로 하여 구강 영상 데이터들을 정합하는 동작을 수행한다. 이를 위해, 제어부(150)는 영상 획득 장치 또는 서버 등으로부터 구강 영상 데이터를 수신하여 저장부(140)에 저장할 수 있다. 또한, 제어부(150)는 통신부(110), 입력부(120), 표시부(130) 및 저장부(140)의 동작을 제어할 수 있다.The control unit 150 detects a marker and a tooth region from oral image data received from an image acquisition device or server or pre-stored in the storage unit 140, and matches the oral image data using the detected marker and the tooth region as a reference point. perform the action To this end, the control unit 150 may receive the oral image data from the image acquisition device or the server and store it in the storage unit 140 . Also, the controller 150 may control the operations of the communication unit 110 , the input unit 120 , the display unit 130 , and the storage unit 140 .

도 3을 참조하면, 제어부(150)는, 제1 마커 분할부(151), 제1 치아 영역 분할부(152), 제1 정합 기준점 생성부(153), 제2 마커 분할부(154), 제2 치아 영역 분할부(155), 제2 정합 기준점 생성부(156) 및 영상 정합부(157)를 포함할 수 있다.Referring to FIG. 3 , the controller 150 includes a first marker dividing unit 151 , a first tooth region dividing unit 152 , a first matching reference point generating unit 153 , a second marker dividing unit 154 , It may include a second tooth region dividing unit 155 , a second matching reference point generating unit 156 , and an image matching unit 157 .

먼저, 영상 획득 장치는 마커가 부착된 구강 내부를 촬영하여 오랄 스캔 영상 및 CT 영상을 각각 획득한다. 이때, 획득된 오랄 스캔 영상 및 CT 영상은, 영상 정렬부(151)에 직접 전송되거나, 저장부(140)에 저장된 후 영상 정렬부(151)로 전송될 수 있다.First, the image acquisition device acquires an oral scan image and a CT image, respectively, by photographing the inside of the oral cavity to which the marker is attached. In this case, the acquired oral scan image and CT image may be directly transmitted to the image alignment unit 151 or may be stored in the storage unit 140 and then transmitted to the image alignment unit 151 .

제1 마커 분할부(151)는 오랄 스캔 영상에서 제1 마커를 분할한다. 구체적으로, 제1 마커 분할부(151)는 오랄 스캔 영상을 수평면 방향으로 정렬하고, 정렬된 오랄 스캔 영상에서 마커 후보 영역을 추정하고, 마커 후보 영역에서 미분할 마커를 검출한다. 그리고, 미분할 마커를 분할하여 미분할 마커에서 제1 마커를 추정하되, 미분할 마커의 상부면에서 하부 방향으로 일정 깊이까지의 영역을 제1 마커로 추정한다.The first marker divider 151 divides the first marker in the oral scan image. Specifically, the first marker divider 151 aligns the oral scan image in a horizontal plane direction, estimates a marker candidate region from the aligned oral scan image, and detects an undivided marker in the marker candidate region. Then, the first marker is estimated from the undivided marker by dividing the undivided marker, and a region up to a certain depth from the top surface of the undivided marker to the bottom is estimated as the first marker.

제1 치아 영역 분할부(152)는 오랄 스캔 영상에서 제1 치아 영역을 분할한다. 구체적으로, 제1 치아 영역 분할부(152)는, 오랄 스캔 영상에 포함되는 복수의 메쉬의 곡률을 산출하고, 복수의 메쉬의 곡률을 기초로 오랄 스캔 영상에서 제1 치아 영역 및 잇몸 영역의 경계를 산출한다. 그리고, 제1 치아 영역 및 잇몸 영역의 경계를 기초로 오랄 스캔 영상에서 상기 제1 치아 영역을 분할한다. The first tooth region dividing unit 152 divides the first tooth region in the oral scan image. Specifically, the first tooth region dividing unit 152 calculates curvatures of a plurality of meshes included in the oral scan image, and a boundary between the first tooth region and the gum region in the oral scan image based on the curvatures of the plurality of meshes. to calculate Then, the first tooth area is divided in the oral scan image based on the boundary between the first tooth area and the gum area.

제1 정합 기준점 생성부(153)는 제1 마커 및 제1 치아 영역을 통합하여 제1 정합 기준점을 생성한다.The first registration reference point generating unit 153 generates a first registration reference point by integrating the first marker and the first tooth region.

제2 마커 분할부(154)는 CT 영상에서 제2 마커를 분할한다. 구체적으로, 제2 마커 분할부(154)는 제2 마커의 부피 정보를 이용하여 제2 마커에 대응하는 형상으로 마스크를 생성하고, 마스크를 이용하여 CT 영상에서 제2 마커를 탐색하여 제2 마커를 분할한다.The second marker divider 154 divides the second marker in the CT image. Specifically, the second marker dividing unit 154 generates a mask in a shape corresponding to the second marker by using the volume information of the second marker, searches for the second marker in the CT image using the mask, and searches for the second marker. split the

제2 치아 영역 분할부(155)는 CT 영상에서 제2 치아 영역을 분할한다. 구체적으로, 제2 치아 영역 분할부(155)는, CT 영상에 포함되는 복수의 복셀의 HU(hounsfield unit)값을 기초로 제2 학습 영상을 학습하여 제2 학습 모델을 생성하고, 제2 학습 모델에 상기 오랄 스캔 영상을 입력하여, 제2 학습 영상을 기반으로 CT 영상에서 제2 치아 영역을 분할한다.The second tooth region dividing unit 155 divides the second tooth region in the CT image. Specifically, the second tooth region dividing unit 155 generates a second learning model by learning the second learning image based on hounsfield unit (HU) values of a plurality of voxels included in the CT image, and performs the second learning process. By inputting the oral scan image to the model, a second tooth region is divided in the CT image based on the second learning image.

제2 정합 기준점 생성부(156)는 제2 마커 및 제2 치아 영역을 통합하여 제2 정합 기준점을 생성한다. 그리고, 영상 정합부(157)는 제1 및 제2 정합 기준점을 기초로 오랄 스캔 영상 및 CT 영상을 정합한다.The second registration reference point generating unit 156 generates a second registration reference point by integrating the second marker and the second tooth region. In addition, the image matching unit 157 matches the oral scan image and the CT image based on the first and second matching reference points.

이와 같이, 본 발명의 구강 영상 정합 장치(100)에 따르면, 구강 영상에서 마커 및 치아 영역을 분할하되 마커에서 정합에 방해되는 요소를 제거하고, 분할된 마커 및 치아 영역을 이용해 높은 정확도로 영상 정합을 자동으로 수행하여 사용자의 편의성을 증진시키고, 이에 수반하여 임플란트 계획에 소요되는 시간 단축 및 임플란트 계획의 정확성을 제고할 수 있는 효과가 있다.As described above, according to the oral image registration apparatus 100 of the present invention, the marker and the tooth region are divided in the oral image, but elements that interfere with registration are removed from the marker, and the image is registered with high accuracy using the divided marker and the tooth region. is performed automatically to enhance the user's convenience, thereby reducing the time required for implant planning and improving the accuracy of implant planning.

이하, 제어부(150)에 의해 제어 동작되는 본 발명의 실시예에 따른 구강 영상의 구강 영상 정합 방법에 대하여 설명하도록 한다.Hereinafter, a method of registering an oral image of an oral image according to an embodiment of the present invention controlled by the controller 150 will be described.

본 발명의 실시예에 따른 구강 영상 정합 방법은, 피시술자의 잇몸에 마커를 부착한 상태에서 구강 영상을 촬영하고, 이 마커와 치아 영역을 기준점으로 하여 구강 영상을 정합한다.In the oral image registration method according to an embodiment of the present invention, an oral image is taken while a marker is attached to the gums of the recipient, and the oral image is matched using the marker and the tooth area as a reference point.

도 4는 본 발명의 실시예에 따른 구강 영상 정합 방법의 순서도이다.4 is a flowchart of an oral image registration method according to an embodiment of the present invention.

먼저, 피시술자의 구강 내 복수의 위치(예컨대, 잇몸) 특히, 결손 치아 영역에 마커를 레진 등의 접착제를 이용해 부착한다. 이 때, 일정 시간이 경과하면 마커와 잇몸 사이에 접착층이 형성된다. 이후, 마커가 부착된 구강 내부를 이종의 영상 획득 장치가 촬영하여 오랄 스캔 영상 및 CT 영상을 각각 획득한다.First, a marker is attached to a plurality of positions (eg, gums) in the recipient's oral cavity using an adhesive such as a resin, particularly in the area of a missing tooth. At this time, when a predetermined time elapses, an adhesive layer is formed between the marker and the gum. Thereafter, a heterogeneous image acquisition device captures the inside of the oral cavity to which the marker is attached to acquire an oral scan image and a CT image, respectively.

도 4를 참조하면, 본 발명의 실시예에 따른 구강 영상 정합 방법은, 마커 및 치아 영역을 이용하여 오랄 스캔 영상 및 CT 영상을 정합하는 방법으로서, 오랄 스캔 영상에서 제1 마커 및 제1 치아 영역을 분할하는 단계(S10)와, 제1 마커 및 제1 치아 영역을 통합하여 제1 정합 기준점을 생성하는 단계(S20)와, CT 영상에서 제2 마커 및 제2 치아 영역을 분할하는 단계(S30)와, 제2 마커 및 제2 치아 영역을 통합하여 제2 정합 기준점을 생성하는 단계(S40)와, 제1 및 제2 정합 기준점을 기초로 오랄 스캔 영상 및 CT 영상을 정합하는 단계(S50)를 포함할 수 있다.Referring to FIG. 4 , the oral image registration method according to an embodiment of the present invention is a method of registering an oral scan image and a CT image using a marker and a tooth region, and includes a first marker and a first tooth region in the oral scan image. dividing (S10), generating a first registration reference point by integrating the first marker and the first tooth region (S20), and dividing the second marker and the second tooth region in the CT image (S30) ), generating a second registration reference point by integrating the second marker and the second tooth region (S40), and registering the oral scan image and the CT image based on the first and second registration reference points (S50) may include

도 5는 마커가 부착된 구강을 촬영하여 생성된 오랄 스캔 영상을 도시한 도면이고, 도 6은 미분할 마커를 확대한 도면이고, 도 7은 도 6의 미분할 마커에서 분할한 마커를 도시한 도면이다.5 is a view showing an oral scan image generated by photographing an oral cavity to which a marker is attached, FIG. 6 is an enlarged view of the undivided marker, and FIG. 7 is a marker divided from the undivided marker of FIG. It is a drawing.

이하 도 5 내지 도 7을 참조하여 오랄 스캔 영상(10)에서 제1 마커(11a)를 분할하는 방법을 설명하겠다. 이하에서는 제1 마커(11a) 및 접착층(12)을 통칭하여 미분할 마커라고 하겠다.Hereinafter, a method of segmenting the first marker 11a in the oral scan image 10 will be described with reference to FIGS. 5 to 7 . Hereinafter, the first marker 11a and the adhesive layer 12 will be collectively referred to as an undivided marker.

도 5 내지 도 7을 참조하면, 오랄 스캔 영상(10)에서 마커(11a)가 위를 향하도록 오랄 스캔 영상(10)을 수평면 방향으로 정렬한다. 그리고, 정렬된 오랄 스캔 영상(10)에서 마커 후보 영역을 추정하고, 마커 후보 영역에서 미분할 마커를 검출한다.5 to 7 , the oral scan image 10 is aligned in the horizontal direction so that the marker 11a faces upward in the oral scan image 10 . Then, a marker candidate region is estimated from the aligned oral scan image 10 , and an undivided marker is detected from the marker candidate region.

미분할 마커는 학습 모델을 이용하여 검출될 수 있다. 즉, 딥러닝(deep learning) 방법(예컨대, YOLO(You Only Look Once) 알고리즘)을 이용하여, 제1 마커(11a)가 부착된 다수의 학습 영상을 학습하여 제1 학습 모델을 생성하고, 생성된 제1 학습 모델에 피시술자의 오랄 스캔 영상(10)을 입력하여 오랄 스캔 영상(10)에서 미분할 마커를 검출할 수 있다. 여기서, 미분할 마커의 개수, 크기 및 좌표 정보가 획득될 수 있다.The undivided marker may be detected using a learning model. That is, by using a deep learning method (eg, You Only Look Once (YOLO) algorithm), a first learning model is generated by learning a plurality of learning images to which the first marker 11a is attached, and the generation An undivided marker may be detected from the oral scan image 10 by inputting the oral scan image 10 of the recipient to the first learning model. Here, information on the number, size, and coordinates of undivided markers may be obtained.

미분할 마커는, 제1 마커(11a) 뿐만 아니라 불균일한 접착층(12)을 포함하기 때문에, 즉, 제1 마커(11)와 접착층(12)이 일체로 형성되기 때문에, 그 형태가 불균일하다. 이에 따라, 정합 정확도를 향상시키기 위해, 미분할 마커에서 제1 마커(11a)를 분할할 필요가 있다.Since the undivided marker includes the non-uniform adhesive layer 12 as well as the first marker 11a, that is, since the first marker 11 and the adhesive layer 12 are integrally formed, the shape is non-uniform. Accordingly, in order to improve the matching accuracy, it is necessary to divide the first marker 11a from the undivided marker.

도 6를 참조하면, 미분할 마커의 상부면에서 하부 방향으로 일정 깊이(d1)까지의 영역을 제1 마커(11a)로 추정한다. 그리고, 미분할 마커에서 상기 일정 깊이(d1)(예컨대, 5mm)를 초과하는 영역을 제1 마커(11a) 및 잇몸 사이에 개재되는 접착층(12)으로 추정한다. 즉, 미분할 마커의 하부면에서 상부 방향으로 일정 높이(d2)까지의 영역을 접착층(12)으로 추정한다. 이에 따라, 미분할 마커(11b)에서 마커(11)를 분할할 수 있다(S10).Referring to FIG. 6 , an area from the top surface of the undivided marker to a predetermined depth d1 in the downward direction is estimated as the first marker 11a. In addition, an area exceeding the predetermined depth d1 (eg, 5 mm) in the undivided marker is estimated as the adhesive layer 12 interposed between the first marker 11a and the gum. That is, an area from the lower surface of the undivided marker to a predetermined height d2 in the upper direction is estimated as the adhesive layer 12 . Accordingly, the marker 11 can be divided from the undivided marker 11b (S10).

한편, 도면과 달리, 오랄 스캔 영상(10)에서 제1 마커(11a)가 아래를 향하도록 오랄 스캔 영상(10)을 수평면 방향으로 정렬하여, 미분할 마커를 검출하고 미분할 마커에서 제1 마커(11a)를 분할할 수도 있다. 이 때, 미분할 마커의 하부면에서 상부 방향으로 일정 높이(d1)까지의 영역을 제1 마커(11a)로 추정하고, 미분할 마커에서 상기 일정 높이(d1)(예컨대, 5mm)를 초과하는 영역을 제1 마커(11a) 및 잇몸 사이에 개재되는 접착층(12)으로 추정한다.On the other hand, unlike the drawing, by aligning the oral scan image 10 in the horizontal plane direction so that the first marker 11a in the oral scan image 10 faces downward, the undivided marker is detected and the first marker from the undivided marker (11a) may be divided. At this time, the area from the lower surface of the undivided marker to a predetermined height d1 in the upward direction is estimated as the first marker 11a, and the predetermined height d1 (eg, 5 mm) is exceeded in the undivided marker. The area is estimated as the adhesive layer 12 interposed between the first marker 11a and the gum.

도 8은 오랄 스캔 영상에 포함되는 복수의 메쉬의 곡률을 산출하는 방법을 설명하기 위한 도면이고, 도 9는 도 8에서 산출한 복수의 메쉬의 곡률을 기초로 오랄 스캔 영상에서 분할된 치아 영역을 도시한 도면이다.8 is a view for explaining a method of calculating the curvatures of a plurality of meshes included in the oral scan image, and FIG. 9 is a tooth region divided in the oral scan image based on the curvatures of the plurality of meshes calculated in FIG. 8 It is the drawing shown.

이하 도 8 및 도 9를 참조하여 오랄 스캔 영상에서 제1 치아 영역을 분할하는 방법을 설명하겠다.Hereinafter, a method of segmenting the first tooth region in the oral scan image will be described with reference to FIGS. 8 and 9 .

오랄 스캔 영상(10)에 포함되는 복수의 메쉬의 곡률을 산출하고, 복수의 메쉬의 곡률을 기초로 오랄 스캔 영상(10)에서 제1 치아 영역(13a) 및 잇몸 영역의 경계를 산출한다.Curvatures of a plurality of meshes included in the oral scan image 10 are calculated, and a boundary between the first tooth region 13a and the gum region is calculated in the oral scan image 10 based on the curvatures of the plurality of meshes.

구체적으로, 인접 메쉬들이 공유하는 버텍스에서 그 법선(normal vector)을 포함하며 메쉬 곡면과 교차하는 평면을 그린 뒤 그 평면을 법선을 기준으로 돌려가며 메쉬 곡면과 계속하여 교차시킨다. 이 경우 메쉬 곡면 위에서 그 버텍스를 중심으로 하는 수많은 곡선을 얻을 수 있고 이 곡선들과 버텍스의 접평면(tangent plane) 사이의 각을 이용해 곡률을 각각 산출할 수 있다. 그리고, 이들 곡률 중 가장 큰 값을 최대 곡률로 정의하고 가장 작은 값을 최소 곡률로 정의할 수 있다. 한편, 산출된 곡률들 중 그 버텍스에서 가장 큰 최대 곡률과 가장 작은 최소 곡률을 가진 두 곡선을 포함하는 평면을 주곡률 평면(plane of principal curvatures)으로 정의할 수 있다.Specifically, a plane that includes a normal vector and intersects the mesh surface is drawn in a vertex shared by adjacent meshes, and then the plane is rotated based on the normal and continuously intersects the mesh surface. In this case, a number of curves centered on the vertex can be obtained on the mesh surface, and the curvature can be calculated using the angle between these curves and the tangent plane of the vertex. In addition, the largest value among these curvatures may be defined as the maximum curvature, and the smallest value may be defined as the minimum curvature. Meanwhile, a plane including two curves having the largest maximum curvature and the smallest minimum curvature at the vertex among the calculated curvatures may be defined as a plane of principal curvatures.

여기서, 가우시안 곡률은 최대 곡률 및 최소 곡률의 곱으로 정의되고, 평균 곡률은 최대 곡률 및 최소 곡률의 평균으로 정의된다.Here, the Gaussian curvature is defined as the product of the maximum curvature and the minimum curvature, and the average curvature is defined as the average of the maximum curvature and the minimum curvature.

이와 같은 방식으로 산출된 가우시안 곡률 및 평균 곡률 중 적어도 어느 하나가 기준 곡률 이상인 메쉬들을 선택하고, 선택된 메쉬들이 공유하는 버텍스를 경계 포인트로 결정한다. Meshes in which at least one of the Gaussian curvature and the average curvature calculated in this way is equal to or greater than the reference curvature are selected, and a vertex shared by the selected meshes is determined as a boundary point.

그리고, 모폴로지 연산 알고리즘을 이용해 경계 포인트들을 순차적으로 확장(Dilation) 및 축소(Erosion)하여 인접한 경계 포인트들을 연결한다. 여기서, 모폴로지 연산 알고리즘은 영역을 확장 및 축소하기 위한 알고리즘으로 일반적으로 근접한 점들을 연결시키거나 끊기 위한 용도로 사용된다.Then, the boundary points are sequentially expanded (dilation) and reduced (erosion) using a morphology calculation algorithm to connect adjacent boundary points. Here, the morphology calculation algorithm is an algorithm for expanding and reducing a region, and is generally used for connecting or disconnecting adjacent points.

이와 같이, 경계 포인트들에 대해 확장하고 난 이후 축소 과정을 거치게 되면 기존 경계 포인트 성분의 두께는 유지하면서 인접 경계 포인트들 간 연결만 시켜주기 때문에 치아 및 잇몸 영역 간 경계성을 더욱더 향상시킬 수 있다.In this way, when the boundary points are expanded and then reduced through the reduction process, the boundary between the teeth and the gum region can be further improved because only the connection between adjacent boundary points is performed while maintaining the thickness of the existing boundary point component.

이에 따라, 제1 치아 영역(13a) 및 잇몸 영역의 경계를 기초로 오랄 스캔 영상(10)에서 제1 치아 영역(13a)을 분할할 수 있다(S10).Accordingly, the first tooth area 13a may be divided in the oral scan image 10 based on the boundary between the first tooth area 13a and the gum area ( S10 ).

도 10은 오랄 스캔 영상에 제1 정합 기준점을 도시한 도면이다.10 is a diagram illustrating a first matching reference point in an oral scan image.

도 10에 도시한 바와 같이, 오랄 스캔 영상(10)에서 각각 분할한 제1 마커(11a) 및 제1 치아 영역(13a)을 통합하여 오랄 스캔 영상(10)과 CT 영상을 정합하는데 기준이 되는 제1 정합 기준점을 생성한다(S20).As shown in FIG. 10 , the first marker 11a and the first tooth region 13a that are respectively divided in the oral scan image 10 are integrated to become a standard for matching the oral scan image 10 and the CT image. A first matching reference point is generated (S20).

도 11은 마커가 부착된 구강을 촬영하여 생성된 CT 영상을 도시한 도면이고, 도 12는 도 11의 CT 영상에서 검출한 마커를 도시한 도면이다.11 is a diagram illustrating a CT image generated by photographing an oral cavity to which a marker is attached, and FIG. 12 is a diagram illustrating a marker detected in the CT image of FIG. 11 .

도 10 및 도 11을 참조하면, 제2 마커(11b)는 일정 부피를 갖는 3차원 형상(예컨대, 직육면체)일 수 있다. 여기서, 직육면체의 부피는 가로, 세로 및 높이의 곱(예컨대, 4mm×5mm×5mm)으로 정의될 수 있다. 또한, 제2 마커(11b)는 구강(예컨대, 잇몸) 내의 일정 위치에 적어도 1개 이상 부착될 수 있으나 이에 한정되는 것은 아니다.10 and 11 , the second marker 11b may have a three-dimensional shape (eg, a cuboid) having a predetermined volume. Here, the volume of the rectangular parallelepiped may be defined as the product of width, length, and height (eg, 4 mm×5 mm×5 mm). In addition, at least one second marker 11b may be attached to a predetermined position in the oral cavity (eg, gum), but is not limited thereto.

한편, 도 11을 참조하면, 제2 마커(11b)는 방사선 불투과성 재질(예컨대, 알루미나)로 이루어지고, 접착층(12)은 방사선 투과성 소재로 이루어질 수 있다. 이에 따라, CT 영상(20)에서 치관, 치근, 치조골을 포함하여 제2 마커(11b)는 표시되지만, 접착층(12)은 표시되지 않는다. 따라서, CT 영상(20)에서는 오랄 스캔 영상(10)과 같이 제2 마커(11b)와 접착층(12)을 분할할 필요가 없다. 다만, 치관, 치근 및 치조골과 제2 마커(11b) 간 구별이 용이하지 않아 제2 마커(11b)를 정확히 검출하기 어렵다.Meanwhile, referring to FIG. 11 , the second marker 11b may be made of a radiopaque material (eg, alumina), and the adhesive layer 12 may be made of a radioactive material. Accordingly, in the CT image 20 , the second marker 11b including the crown, tooth root, and alveolar bone is displayed, but the adhesive layer 12 is not displayed. Accordingly, in the CT image 20 , it is not necessary to divide the second marker 11b and the adhesive layer 12 like the oral scan image 10 . However, it is difficult to accurately detect the second marker 11b because it is not easy to distinguish between the crown, tooth root, and alveolar bone and the second marker 11b.

이와 같이 CT 영상(20)에서 제2 마커(11b)를 정확히 검출하기 위해, 제2 마커(11b)의 부피 정보를 이용하여 CT 영상(20)에서 제2 마커(11b)를 검출하여 분할한다(S30). 구체적으로, 제2 마커(11b)의 부피 정보를 이용하여 제2 마커(11b)에 대응하는 형상으로 마스크를 생성한다. 그리고, 마스크를 이용하여 CT 영상(20)에서 제2 마커(11b)를 탐색하여, 마스크에 대응하는 형상인 제2 마커(11b)를 검출하여 분할한다. 여기서, 제2 마커(11b)의 개수, 크기 및 좌표 정보가 획득될 수 있다.In order to accurately detect the second marker 11b in the CT image 20 as described above, the second marker 11b is detected and divided in the CT image 20 using the volume information of the second marker 11b ( S30). Specifically, a mask is created in a shape corresponding to the second marker 11b by using the volume information of the second marker 11b. Then, the second marker 11b is searched for in the CT image 20 using the mask, and the second marker 11b having a shape corresponding to the mask is detected and divided. Here, information on the number, size, and coordinates of the second markers 11b may be obtained.

도 13은 CT 영상에서 분할된 치아 영역을 도시한 도면이다.13 is a diagram illustrating a segmented tooth region in a CT image.

도 13을 참조하면, CT 영상(20)에서 제2 치아 영역(13b)은 학습 모델을 이용하여 검출될 수 있다. 즉, 딥러닝(deep learning) 방법을 이용하여, CT 영상(20)에 포함되는 복수의 복셀의 HU(hounsfield unit)값을 기초로 제2 학습 영상을 학습하여 제2 학습 모델을 생성하고, 제2 학습 모델에 CT 영상(20)을 입력하여, 제2 학습 영상을 기반으로 CT 영상(20)에서 제2 치아 영역(11b)을 검출한다.Referring to FIG. 13 , the second tooth region 13b in the CT image 20 may be detected using a learning model. That is, by using a deep learning method, a second learning model is generated by learning a second learning image based on hounsfield unit (HU) values of a plurality of voxels included in the CT image 20 , 2 The CT image 20 is input to the learning model, and the second tooth region 11b is detected from the CT image 20 based on the second learning image.

도 14는 CT 영상에 제2 정합 기준점을 도시한 도면이다.14 is a diagram illustrating a second matching reference point on a CT image.

도 14에 도시한 바와 같이, CT 영상(10)에서 각각 분할한 제2 마커(11b) 및 제2 치아 영역(13b)을 통합하여 오랄 스캔 영상(10)과 CT 영상(20)을 정합하는데 기준이 되는 제2 정합 기준점을 생성한다(S40).As shown in FIG. 14 , a criterion for matching the oral scan image 10 and the CT image 20 by integrating the second marker 11b and the second tooth region 13b respectively divided in the CT image 10 . A second matching reference point is generated (S40).

도 15는 본 발명의 실시예에 따른 구강 영상 정합 방법으로 오랄 스캔 영상과 CT 영상을 정합한 도면이다.15 is a diagram illustrating registration of an oral scan image and a CT image by an oral image registration method according to an embodiment of the present invention.

도 15를 참조하면, 오랄 스캔 영상(10)에서 분할한 제1 마크(11a) 및 제1 치아 영역과 CT 영상(20)에서 분할한 제2 마커(11b) 및 제2 치아 영역을 각각 정합 기준점으로 하여 오랄 스캔 영상(10) 및 CT 영상(20)을 자동으로 정합한다(S50).Referring to FIG. 15 , the first mark 11a and the first tooth area divided in the oral scan image 10 and the second marker 11b and the second tooth area divided in the CT image 20 are matched as reference points, respectively. Thus, the oral scan image 10 and the CT image 20 are automatically matched (S50).

이와 같이, 본 발명의 구강 영상 정합 방법에 따르면, 구강 영상에서 마커 및 치아 영역을 분할하되 마커에서 정합에 방해되는 요소를 제거하고, 분할된 마커 및 치아 영역을 이용해 높은 정확도로 영상 정합을 자동으로 수행하여 사용자의 편의성을 증진시키고, 이에 수반하여 임플란트 계획에 소요되는 시간 단축 및 임플란트 계획의 정확성을 제고할 수 있는 효과가 있다.As described above, according to the oral image registration method of the present invention, the marker and the tooth region are divided in the oral image, but elements that interfere with registration are removed from the marker, and the image registration is automatically performed with high accuracy using the divided marker and the tooth region. There is an effect of improving the convenience of the user by performing the procedure, and thereby reducing the time required for the implant planning and improving the accuracy of the implant planning.

본 발명의 상세한 설명에서는 구체적인 실시 예에 관하여 설명하였으나 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되지 않으며, 후술되는 청구범위 및 이 청구범위와 균등한 것들에 의해 정해져야 한다.In the detailed description of the present invention, although specific embodiments have been described, various modifications are possible without departing from the scope of the present invention. Therefore, the scope of the present invention is not limited to the described embodiments, and should be defined by the following claims and their equivalents.

100: 구강 영상 정합 장치
150: 제어부
151, 154: 제1 및 제2 마커 분할부
152, 155: 제1 및 제2 치아 영역 분할부
153, 156: 제1 및 제2 정합 기준점 생성부
157: 영상 정합부
100: oral image registration device
150: control unit
151, 154: first and second marker division parts
152, 155: first and second tooth region divisions
153 and 156: first and second matching reference point generators
157: image matching unit

Claims (8)

오랄 스캔 영상 및 CT 영상을 정합하는 방법으로서,
제1 마커 분할부가 상기 오랄 스캔 영상에서 제1 마커를 분할하고, 제1 치아 영역 분할부가 상기 오랄 스캔 영상에서 제1 치아 영역을 분할하는 단계;
제1 정합 기준점 생성부가 상기 제1 마커 및 제1 치아 영역을 통합하여 제1 정합 기준점을 생성하는 단계;
제2 마커 분할부가 상기 CT 영상에서 제2 마커를 분할하고, 제2 치아 영역 분할부가 상기 CT 영상에서 제2 치아 영역을 분할하는 단계;
제2 정합 기준점 생성부가 상기 제2 마커 및 제2 치아 영역을 통합하여 제2 정합 기준점을 생성하는 단계; 및
영상 정합부가 상기 제1 및 제2 정합 기준점을 기초로 상기 오랄 스캔 영상 및 CT 영상을 정합하는 단계를 포함하고,
상기 제2 마커 분할부가 상기 CT 영상에서 상기 제2 마커를 분할하는 단계는
상기 제2 마커의 부피 정보를 이용하여 상기 제2 마커에 대응하는 형상으로 마스크를 생성하는 단계; 및
상기 마스크를 이용하여 상기 CT 영상에서 상기 제2 마커를 탐색하는 단계를 포함하는
구강 영상 정합 방법.
A method of registering an oral scan image and a CT image, the method comprising:
dividing a first marker in the oral scan image by a first marker dividing unit, and dividing a first tooth region in the oral scan image by a first tooth region dividing unit;
generating, by a first registration reference point generating unit, a first registration reference point by integrating the first marker and the first tooth region;
dividing a second marker in the CT image by a second marker dividing unit, and dividing a second tooth region in the CT image by a second tooth region dividing unit;
generating, by a second registration reference point generating unit, a second registration reference point by integrating the second marker and the second tooth region; and
Comprising an image matching unit matching the oral scan image and the CT image based on the first and second registration reference points,
The step of dividing the second marker in the CT image by the second marker dividing unit
generating a mask in a shape corresponding to the second marker by using the volume information of the second marker; and
and searching for the second marker in the CT image using the mask.
Oral image registration method.
제 1 항에 있어서,
상기 제1 마커 분할부가 상기 오랄 스캔 영상에서 제1 마커를 분할하는 단계는
상기 오랄 스캔 영상을 수평면 방향으로 정렬하는 단계;
정렬된 상기 오랄 스캔 영상에서 마커 후보 영역을 추정하고, 상기 마커 후보 영역에서 미분할 마커를 검출하는 단계; 및
상기 미분할 마커를 분할하여 상기 미분할 마커에서 상기 제1 마커를 추정하되, 상기 미분할 마커의 상부면에서 하부 방향으로 일정 깊이까지의 영역을 상기 제1 마커로 추정하는 단계
를 포함하는 구강 영상 정합 방법.
The method of claim 1,
The step of dividing the first marker in the oral scan image by the first marker dividing unit
aligning the oral scan image in a horizontal direction;
estimating a marker candidate region from the aligned oral scan image, and detecting an undivided marker in the marker candidate region; and
estimating the first marker from the undivided marker by dividing the undivided marker, and estimating, as the first marker, an area up to a certain depth from the upper surface of the undivided marker to a lower direction
Oral image registration method comprising a.
제 1 항에 있어서,
상기 제1 마커 분할부가 상기 오랄 스캔 영상에서 상기 제1 마커를 분할하는 단계는
상기 제1 마커가 부착된 다수의 제1 학습 영상을 학습하여 제1 학습 모델을 생성하는 단계;
상기 제1 학습 모델에 상기 오랄 스캔 영상을 입력하는 단계; 및
상기 제1 학습 영상을 기반으로 상기 오랄 스캔 영상에서 미분할 마커를 검출하는 단계
를 포함하는 구강 영상 정합 방법.
The method of claim 1,
The step of dividing the first marker in the oral scan image by the first marker dividing unit comprises:
generating a first learning model by learning a plurality of first learning images to which the first markers are attached;
inputting the oral scan image to the first learning model; and
detecting an undivided marker in the oral scan image based on the first learning image
Oral image registration method comprising a.
제 1 항에 있어서,
상기 제1 치아 영역 분할부가 상기 오랄 스캔 영상에서 상기 제1 치아 영역을 분할하는 단계는
상기 오랄 스캔 영상에 포함되는 복수의 메쉬의 곡률을 산출하는 단계; 및
상기 복수의 메쉬의 곡률을 기초로 상기 오랄 스캔 영상에서 상기 제1 치아 영역 및 잇몸 영역의 경계를 산출하는 단계; 및
상기 제1 치아 영역 및 잇몸 영역의 경계를 기초로 상기 오랄 스캔 영상에서 상기 제1 치아 영역을 분할하는 단계
를 포함하는 구강 영상 정합 방법.
The method of claim 1,
The step of dividing the first tooth region in the oral scan image by the first tooth region dividing unit comprises:
calculating curvatures of a plurality of meshes included in the oral scan image; and
calculating a boundary between the first tooth region and the gum region in the oral scan image based on the curvatures of the plurality of meshes; and
dividing the first tooth area in the oral scan image based on the boundary between the first tooth area and the gum area
Oral image registration method comprising a.
제 1 항에 있어서,
제2 마커 분할부가 상기 CT 영상에서 상기 제2 마커를 분할하는 단계는
상기 제2 마커의 부피 정보를 이용하여 상기 CT 영상에서 상기 제2 마커를 검출하는 단계인
구강 영상 정합 방법.
The method of claim 1,
The step of dividing the second marker in the CT image by a second marker dividing unit comprises:
detecting the second marker in the CT image by using the volume information of the second marker
Oral image registration method.
삭제delete 제 1 항에 있어서,
상기 제2 치아 영역 분할부가 상기 CT 영상에서 상기 제2 치아 영역을 분할하는 단계는
상기 CT 영상에 포함되는 복수의 복셀의 HU(hounsfield unit)값을 기초로 제2 학습 영상을 학습하여 제2 학습 모델을 생성하는 단계;
상기 제2 학습 모델에 상기 CT 영상을 입력하는 단계; 및
상기 제2 학습 영상을 기반으로 상기 CT 영상에서 상기 제2 치아 영역을 분할하는 단계
를 포함하는 구강 영상 정합 방법
The method of claim 1,
The step of dividing the second tooth region in the CT image by the second tooth region divider comprises:
generating a second learning model by learning a second learning image based on hounsfield unit (HU) values of a plurality of voxels included in the CT image;
inputting the CT image to the second learning model; and
Segmenting the second tooth region in the CT image based on the second learning image
Oral image registration method comprising
오랄 스캔 영상 및 CT 영상을 정합하는 장치로서,
상기 오랄 스캔 영상에서 제1 마커를 분할하는 제1 마커 분할부;
상기 오랄 스캔 영상에서 제1 치아 영역을 분할하는 제1 치아 영역 분할부;
상기 제1 마커 및 제1 치아 영역을 통합하여 제1 정합 기준점을 생성하는 제1 정합 기준점 생성부;
상기 CT 영상에서 제2 마커를 분할하는 제2 마커 분할부;
상기 CT 영상에서 제2 치아 영역을 분할하는 제2 치아 영역 분할부;
상기 제2 마커 및 제2 치아 영역을 통합하여 제2 정합 기준점을 생성하는 제2 정합 기준점 생성부; 및
상기 제1 및 제2 정합 기준점을 기초로 상기 오랄 스캔 영상 및 CT 영상을 정합하는 영상 정합부를 포함하고,
상기 제2 마커 분할부는
상기 제2 마커의 부피 정보를 이용하여 상기 제2 마커에 대응하는 형상으로 마스크를 생성하고, 상기 마스크를 이용하여 상기 CT 영상에서 상기 제2 마커를 탐색하는
구강 영상 정합 장치.
An apparatus for registering an oral scan image and a CT image, comprising:
a first marker dividing unit dividing a first marker in the oral scan image;
a first tooth region dividing unit for dividing a first tooth region in the oral scan image;
a first registration reference point generating unit generating a first registration reference point by integrating the first marker and the first tooth region;
a second marker dividing unit dividing a second marker in the CT image;
a second tooth region dividing unit for dividing a second tooth region in the CT image;
a second registration reference point generating unit generating a second registration reference point by integrating the second marker and the second tooth region; and
an image matching unit for matching the oral scan image and the CT image based on the first and second registration reference points;
The second marker dividing unit
generating a mask in a shape corresponding to the second marker by using the volume information of the second marker, and searching for the second marker in the CT image using the mask
Oral image registration device.
KR1020200050086A 2020-04-24 2020-04-24 Apparatus and method for oral image registration KR102383546B1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020200050086A KR102383546B1 (en) 2020-04-24 2020-04-24 Apparatus and method for oral image registration
CN202180025038.2A CN115379800A (en) 2020-04-24 2021-04-22 Method for detecting mark of oral cavity image, and oral cavity image registration device and method using the same
PCT/KR2021/005095 WO2021215843A1 (en) 2020-04-24 2021-04-22 Oral image marker detection method, and oral image matching device and method using same
EP21792744.1A EP4140411A4 (en) 2020-04-24 2021-04-22 Oral image marker detection method, and oral image matching device and method using same
US17/996,009 US20230215027A1 (en) 2020-04-24 2021-04-22 Oral image marker detection method, and oral image matching device and method using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200050086A KR102383546B1 (en) 2020-04-24 2020-04-24 Apparatus and method for oral image registration

Publications (3)

Publication Number Publication Date
KR20210131685A KR20210131685A (en) 2021-11-03
KR102383546B1 true KR102383546B1 (en) 2022-04-06
KR102383546B9 KR102383546B9 (en) 2023-04-12

Family

ID=78505326

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200050086A KR102383546B1 (en) 2020-04-24 2020-04-24 Apparatus and method for oral image registration

Country Status (1)

Country Link
KR (1) KR102383546B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101554157B1 (en) * 2014-05-09 2015-09-21 주식회사 디오 reference marker for attaching intraoral and manufacturing method for guide stent of dental implant operation using the same

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101744080B1 (en) * 2014-07-04 2017-06-09 주식회사 인스바이오 Teeth-model generation method for Dental procedure simulation
WO2018195554A1 (en) * 2017-04-21 2018-10-25 Martz Andrew S Fabrication of dental appliances
KR101956109B1 (en) * 2017-08-31 2019-06-19 주식회사 디오 Method for adjusting intraorla images of different types

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101554157B1 (en) * 2014-05-09 2015-09-21 주식회사 디오 reference marker for attaching intraoral and manufacturing method for guide stent of dental implant operation using the same

Also Published As

Publication number Publication date
KR102383546B9 (en) 2023-04-12
KR20210131685A (en) 2021-11-03

Similar Documents

Publication Publication Date Title
KR102267488B1 (en) Apparatus And Method For Dental Image Registration
CN103829966B (en) For automatically determining the method and system of the position line in detecting image
US10582992B2 (en) Method for determining a mapping of the contacts and/or distances between the maxillary and mandibular arches of a patient
CN106663327A (en) Automatic restitching of 3-D surfaces
KR102255413B1 (en) Method and apparatus for extracting region of interest in ct image
KR102322634B1 (en) Method and apparatus for matching of images using tooth object
US20220164954A1 (en) Dental object detection method, and image matching method and device using dental object
KR102383546B1 (en) Apparatus and method for oral image registration
KR102193942B1 (en) Method and Apparatus for detecting of Alveolar Bone in Image Data
KR20220040023A (en) Method, device and computer program stored in recording medium for displaying teeth
KR102383544B1 (en) Method for detecting marker in oral image and apparatus and method for oral image registration using the same
US20230215027A1 (en) Oral image marker detection method, and oral image matching device and method using same
KR102205427B1 (en) Method and apparatus for correcting nerve position in dental image
US20220240852A1 (en) Nerve detection method and device
US20220198686A1 (en) Apparatus for preprocessing image data
EP3595527B1 (en) Computed tomography and positioning of a volume to be imaged
KR102277022B1 (en) Method and apparatus for matching oral scan image and oral scan image
TW202036468A (en) Apparatus and method for dental image registration
KR102277021B1 (en) Method and apparatus for separating maxilla and mandible of 3-d oral ct image
KR102383955B1 (en) Method and apparatus for detecting missing tooth in oral image, and method of positioning crown in oral image using the same
KR102267449B1 (en) Apparatus And Method For Dental Image Registration
KR102418810B1 (en) Margin line point picking method in margin line design process and dental CAD device for same
KR102378382B1 (en) Method and apparatus for matching medical images
CN116324901A (en) Determining target object type and location

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
G170 Re-publication after modification of scope of protection [patent]