KR102632338B1 - Data processing method - Google Patents
Data processing method Download PDFInfo
- Publication number
- KR102632338B1 KR102632338B1 KR1020210137277A KR20210137277A KR102632338B1 KR 102632338 B1 KR102632338 B1 KR 102632338B1 KR 1020210137277 A KR1020210137277 A KR 1020210137277A KR 20210137277 A KR20210137277 A KR 20210137277A KR 102632338 B1 KR102632338 B1 KR 102632338B1
- Authority
- KR
- South Korea
- Prior art keywords
- area
- model
- data processing
- tooth
- processing method
- Prior art date
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 66
- 238000004458 analytical method Methods 0.000 claims abstract description 124
- 210000004195 gingiva Anatomy 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 2
- 238000000034 method Methods 0.000 description 31
- 230000008569 process Effects 0.000 description 21
- 230000008901 benefit Effects 0.000 description 17
- 238000012545 processing Methods 0.000 description 14
- 210000000214 mouth Anatomy 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 5
- 238000011282 treatment Methods 0.000 description 5
- 210000004763 bicuspid Anatomy 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 239000011505 plaster Substances 0.000 description 3
- 241000282465 Canis Species 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000004904 shortening Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 210000004283 incisor Anatomy 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011369 optimal treatment Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 210000003296 saliva Anatomy 0.000 description 1
- 210000004872 soft tissue Anatomy 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C9/00—Impression cups, i.e. impression trays; Impression methods
- A61C9/004—Means or methods for taking digitized impressions
- A61C9/0046—Data acquisition means or methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0062—Arrangements for scanning
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0082—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
- A61B5/0088—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7221—Determining signal validity, reliability or quality
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C13/00—Dental prostheses; Making same
- A61C13/0003—Making bridge-work, inlays, implants or the like
- A61C13/0004—Computer-assisted sizing or machining of dental prostheses
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C9/00—Impression cups, i.e. impression trays; Impression methods
- A61C9/004—Means or methods for taking digitized impressions
- A61C9/0046—Data acquisition means or methods
- A61C9/0053—Optical means or methods, e.g. scanning the teeth by a laser or light beam
Abstract
본 발명에 따른 데이터 처리 방법은, 3차원 모델에서, 적어도 하나의 치아 영역을 포함하는 분석 영역을 구별하는 단계, 및 상기 분석 영역을 기초로 상기 3차원 모델의 완성도를 판단하는 단계를 포함한다.The data processing method according to the present invention includes the steps of distinguishing an analysis area including at least one tooth area in a 3D model, and determining the completeness of the 3D model based on the analysis area.
Description
본 발명은 데이터 처리 방법에 관한 것이며, 보다 상세하게는 대상체의 3차원 모델을 획득하여, 상기 3차원 모델의 완성도를 판단하는 데이터 처리 방법에 관한 것이다.The present invention relates to a data processing method, and more specifically, to a data processing method for obtaining a three-dimensional model of an object and determining the completeness of the three-dimensional model.
3차원 스캐닝 기술은 측정, 검사, 역설계, 컨텐츠 생성, 치과 치료용 CAD/CAM, 의료기기 등 다양한 산업 분야에서 사용되고 있으며 컴퓨팅 기술의 발전으로 인한 스캐닝 성능의 향상으로 인해 그 실용성이 더욱 확대되고 있다. 특히, 치과 치료 분야에서, 3차원 스캐닝 기술은 환자의 치료를 위하여 수행되므로, 3차원 스캐닝을 통해 획득되는 3차원 모델은 높은 완성도를 가질 것이 요구된다.3D scanning technology is used in various industrial fields such as measurement, inspection, reverse engineering, content creation, CAD/CAM for dental treatment, and medical devices, and its practicality is further expanding due to improvements in scanning performance due to advances in computing technology. . In particular, in the field of dental treatment, 3D scanning technology is performed for the treatment of patients, so 3D models obtained through 3D scanning are required to have a high level of completeness.
3차원 스캐너를 통해 3차원 모델을 생성하는 과정에서, 3차원 스캐너는 측정 대상에 대한 촬영을 통해 획득한 이미지 데이터(2차원 또는 3차원)를 3차원 모델로 변환함으로써 전체 3차원 모델 데이터를 획득한다. 또한, 측정 대상을 면밀히 촬영할수록 3차원 스캐너가 획득하는 이미지는 증가하고, 그에 따라 실시간으로 변환된 3차원 모델에 대한 최종 데이터의 신뢰도는 향상된다.In the process of creating a 3D model through a 3D scanner, the 3D scanner acquires the entire 3D model data by converting image data (2D or 3D) acquired through photography of the measurement object into a 3D model. do. In addition, the more closely the measurement object is photographed, the more images the 3D scanner acquires, and thus the reliability of the final data for the 3D model converted in real time improves.
종래에, 측정 대상에 대한 최종 데이터의 완성도 및/또는 신뢰도는 사용자의 개인적인 판단에 의존하였다. 다만, 사용자의 개인적인 판단은 그 기준이 모호하며 오직 감각에 의존하는 바, 최종 데이터의 완성도를 신뢰하기 어려운 문제점이 있었다.Conventionally, the completeness and/or reliability of final data for a measurement object depended on the user's personal judgment. However, the user's personal judgment has ambiguous standards and relies only on senses, so there is a problem in that it is difficult to trust the completeness of the final data.
이를 개선하기 위하여, 최근에는 3차원 모델에 소정 색상을 부여하거나 패턴을 적용하여 신뢰도를 시각적으로 표시하는 방법이 사용되었다. 예시적으로, 3차원 모델을 구성하는 데이터의 신뢰도에 따라, 낮은 신뢰도 영역은 적색, 중간 신뢰도 영역은 황색, 그리고 높은 신뢰도 영역은 녹색으로 표시하는 유저 인터페이스(user interface, UI)가 존재하였다.To improve this, a method of visually indicating reliability by assigning a predetermined color or applying a pattern to a 3D model has recently been used. For example, depending on the reliability of the data constituting the 3D model, there was a user interface (UI) that displayed low reliability areas in red, medium reliability areas in yellow, and high reliability areas in green.
그러나, 이러한 방법은 사용자에게 지속적으로 유저 인터페이스가 나타나는 디스플레이 장치를 주시해야 하는 단점이 있었다. 도 1에 도시된 유저 인터페이스 화면과 같이, 데이터의 신뢰도를 3차원 모델 상에 색상 등으로 나타내는 이른바 ‘신뢰도 맵’에서 3차원 모델의 실제 색상을 확인하기 위해, 사용자는 디스플레이 모드를 전환하는 버튼을 클릭하여야 했다. 예시적으로, 도 1을 참조하면, 3차원 모델의 신뢰도가 제1 신뢰도 색상(RD1), 제2 신뢰도 색상(RD2), 및 제3 신뢰도 색상(RD3)을 사용하여 표현될 수 있다. 신뢰도 색상(RD1, RD2, RD3)은 예시적인 것이며, 신뢰도를 나타내기 위한 다양한 수단(패턴 등)이 사용될 수 있다.However, this method had the disadvantage of requiring the user to constantly keep an eye on the display device on which the user interface appears. As shown in the user interface screen shown in Figure 1, in order to check the actual color of the 3D model in the so-called 'reliability map', which indicates the reliability of data in colors, etc. on the 3D model, the user presses the button to switch the display mode. I had to click. Exemplarily, referring to FIG. 1 , the reliability of a 3D model may be expressed using a first reliability color (RD1), a second reliability color (RD2), and a third reliability color (RD3). Reliability colors (RD1, RD2, RD3) are exemplary, and various means (patterns, etc.) to indicate reliability may be used.
또한, 사용자는 모드 전환 버튼(12)을 클릭하여 3차원 모델의 신뢰도를 나타내는 모드와 3차원 모델의 실제 색상을 나타내는 모드를 전환하여, 각각의 모드에서 나타나는 정보(신뢰도 또는 3차원 모델의 실제 색상)를 택일적으로 확인할 수밖에 없었다. 이러한 과정은 사용자에게 불필요한 조작을 요구하였고, 사용자가 3차원 모델을 신속하게 분석하는 것을 방해하였다. In addition, the user clicks the
또한, 신뢰도를 나타내는 모드를 사용하더라도, 사용자는 여전히 사용자의 시각적 판단에 의해 3차원 모델의 완성도를 판단할 수밖에 없었으며, 이는 일정한 수준 이상의 3차원 모델의 완성도를 보장하지 못하는 문제가 있다.In addition, even if a mode indicating reliability is used, the user still has no choice but to judge the completeness of the 3D model based on the user's visual judgment, which has the problem of not guaranteeing the completeness of the 3D model above a certain level.
따라서, 전술한 바와 같은 단점을 해소하기 위한 방법이 요구되고 있다.Accordingly, there is a need for a method to solve the above-described shortcomings.
본 발명은 사용자의 개인적인 판단이 요구되지 않고, 시스템 자체적으로 정량적인 데이터의 신뢰도를 판단하여, 사용자에게 그 판단 결과를 피드백할 수 있는 데이터 처리 방법을 제공하기 위한 것이다.The present invention is intended to provide a data processing method that does not require the user's personal judgment, but allows the system to determine the reliability of quantitative data on its own and feed back the judgment result to the user.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below.
전술한 바와 같은 목적을 달성하기 위해서, 본 발명에 따른 데이터 처리 방법은, 3차원 모델에서, 적어도 하나의 치아 영역을 포함하는 분석 영역을 구별하는 단계, 및 상기 분석 영역을 기초로 상기 3차원 모델의 완성도를 판단하는 단계를 포함한다.In order to achieve the above-described object, the data processing method according to the present invention includes distinguishing an analysis area including at least one tooth area in a three-dimensional model, and analyzing the three-dimensional model based on the analysis area. It includes the step of determining the degree of completeness.
또한, 본 발명에 따른 데이터 처리 방법은 전술한 단계들을 포함하여 다른 추가적인 단계들을 더 포함할 수 있으며, 이에 따라 사용자가 3차원 모델의 완성도를 용이하게 확인할 수 있도록 한다.In addition, the data processing method according to the present invention may further include other additional steps including the steps described above, thereby allowing the user to easily check the completeness of the 3D model.
본 발명에 따른 데이터 처리 방법을 사용함으로써, 사용자는 충분한 신뢰도를 가지는 3차원 모델을 용이하게 획득할 수 있는 이점이 있다.By using the data processing method according to the present invention, the user has the advantage of being able to easily obtain a three-dimensional model with sufficient reliability.
또한, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 3차원 모델 전체가 아닌 분석 영역에 대해 완성도를 판단하므로, 데이터 처리 시간을 단축시키는 이점이 있다.In addition, by using the data processing method according to the present invention, the completeness is judged for the analysis area rather than the entire 3D model, which has the advantage of shortening the data processing time.
또한, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 사용자는 자의적인 판단에 의하지 않고 정확히 계산되어 판단된 결과에 기초하여, 3차원 모델이 신뢰할 수 있을 정도의 완성도를 가졌는지 용이하게 확인할 수 있는 이점이 있다.In addition, by using the data processing method according to the present invention, the user has the advantage of being able to easily check whether the 3D model has a reliable degree of completeness based on the accurately calculated and judged results without relying on arbitrary judgment. there is.
또한, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 개별 치아 영역 별로 상이한 완성도 판단 임계값이 적용되어, 보다 중요한 치아에 대해 정밀하게 스캔하여 3차원 모델을 획득할 수 있는 이점이 있다.In addition, by using the data processing method according to the present invention, a different completeness judgment threshold is applied to each individual tooth area, which has the advantage of accurately scanning more important teeth to obtain a three-dimensional model.
또한, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 사용자는 주의 영역으로 감지된 3차원 모델의 부분들을 시각적으로 용이하게 확인할 수 있으며, 주의 영역을 최소화하기 위한 추가적인 스캔을 진행할 때 소요되는 시간과 노력을 절약하는 이점이 있다.In addition, by using the data processing method according to the present invention, the user can easily visually check the parts of the 3D model detected as attention areas, and reduce the time and effort required to perform additional scans to minimize the attention area. There is an advantage in saving.
도 1은 종래 기술에 따른 신뢰도 맵을 설명하기 위한 것이다.
도 2는 본 발명에 따른 데이터 처리 방법의 순서도이다.
도 3은 분석 영역을 설정하는 과정을 설명하기 위한 것이다.
도 4는 대상체를 스캔하여 3차원 모델을 획득하는 과정을 설명하기 위한 것이다.
도 5는 본 발명에 따른 데이터 처리 방법 중 분석 영역을 구별하는 단계의 세부 순서도이다.
도 6은 치아 영역을 개별 치아 영역으로 구별하기 위해 사용되는 구별 기준을 설명하기 위한 것이다.
도 7은 주의 영역 중 공백 영역을 감지하는 일 과정을 설명하기 위한 것이다.
도 8은 주의 영역 중 공백 영역을 감지하는 다른 과정을 설명하기 위한 것이다.
도 9는 본 발명에 따른 데이터 처리 방법 중 완성도를 판단 결과에 기초하여 피드백을 발생시키는 단계를 설명하기 위한 것이다.
도 10은 사용자에게 피드백되는 주의 영역을 설명하기 위한 것이다.
도 11은 본 발명의 다른 실시예에 따른 데이터 처리 방법의 순서도이다.
도 12는 분석 영역을 설정하는 과정을 설명하기 위한 것이다.
도 13은 본 발명에 따른 데이터 처리 방법을 수행하는 데이터 처리 장치의 개략적인 구성도이다.Figure 1 is for explaining a reliability map according to the prior art.
Figure 2 is a flowchart of a data processing method according to the present invention.
Figure 3 is for explaining the process of setting an analysis area.
Figure 4 is to explain the process of obtaining a 3D model by scanning an object.
Figure 5 is a detailed flowchart of the step of distinguishing analysis areas in the data processing method according to the present invention.
Figure 6 is for explaining the distinction criteria used to distinguish tooth regions into individual tooth regions.
Figure 7 is to explain the process of detecting a blank area in the attention area.
Figure 8 is to explain another process for detecting a blank area in the attention area.
Figure 9 is for explaining the step of generating feedback based on the result of determining completeness in the data processing method according to the present invention.
Figure 10 is for explaining the attention area fed back to the user.
11 is a flowchart of a data processing method according to another embodiment of the present invention.
Figure 12 is for explaining the process of setting an analysis area.
Figure 13 is a schematic configuration diagram of a data processing device that performs the data processing method according to the present invention.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail through illustrative drawings. When adding reference numerals to components in each drawing, it should be noted that identical components are given the same reference numerals as much as possible even if they are shown in different drawings. Additionally, when describing embodiments of the present invention, if detailed descriptions of related known configurations or functions are judged to impede understanding of the embodiments of the present invention, the detailed descriptions will be omitted.
본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In describing the components of the embodiment of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are only used to distinguish the component from other components, and the nature, sequence, or order of the component is not limited by the term. Additionally, unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as generally understood by a person of ordinary skill in the technical field to which the present invention pertains. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted in an ideal or excessively formal sense unless explicitly defined in the present application. No.
도 2는 본 발명에 따른 데이터 처리 방법의 순서도이다.Figure 2 is a flowchart of a data processing method according to the present invention.
도 2를 참조하면, 본 발명에 따른 데이터 처리 방법은 분석 영역을 설정하는 단계(S110), 3차원 모델을 획득하는 단계(S120), 분석 영역을 구별하는 단계(S130), 완성도를 판단하는 단계(S140), 및 피드백을 발생시키는 단계(S150)를 포함한다. 상기 단계들 및 상기 단계들이 가지는 세부 단계들에 따라, 본 발명에 따른 데이터 처리 방법이 수행될 수 있다.Referring to Figure 2, the data processing method according to the present invention includes the steps of setting an analysis area (S110), obtaining a 3D model (S120), distinguishing the analysis area (S130), and determining the degree of completeness. (S140), and generating feedback (S150). According to the steps and the detailed steps included in the steps, the data processing method according to the present invention can be performed.
이하에서는, 본 발명에 따른 데이터 처리 방법의 각 단계를 보다 상세하게 설명한다.Below, each step of the data processing method according to the present invention will be described in more detail.
도 3은 분석 영역을 설정하는 과정을 설명하기 위한 것이다.Figure 3 is for explaining the process of setting an analysis area.
도 2 및 도 3을 참조하면, 본 발명에 따른 데이터 처리 방법은 분석 영역을 설정하는 단계(S110)를 포함한다. 이 때, 분석 영역(100)은 3차원 모델의 완성도를 판단하기 위한 영역에 해당하며, 본 발명에 따른 데이터 처리 방법에서, 3차원 모델의 완성도는 3차원 모델 전체가 아니라 분석 영역(100)으로 설정된 3차원 모델의 적어도 일부분을 기준으로 판단된다. 도 3에 도시된 바에 따르면, 유저 인터페이스 화면(600)에 분석 영역(100)을 설정하기 위한 표준 구강 형상이 나타난다. 표준 구강 형상은 대상체를 나타내는 3차원 모델과는 상이한 것이며, 후술하는 분석 영역(100)을 설정하기 위해 일반적인 구강 배치를 도식적으로 나타낸 2차원 형상 또는 3차원 형상일 수 있다. 도 3에 도시된 바와 같이, 유저 인터페이스 화면(600)에 나타난 표준 구강 형상에서, 분석 영역(100)으로 설정될 부분들이 선택될 수 있다. 예시적으로, 분석 영역(100)은 상악 분석 영역(100a)과 하악 분석 영역(100b)을 포함할 수 있다. 사용자는 상악 분석 영역(100a)에서 상악에 배치된 치아들 중 적어도 하나를 분석 영역(100)으로 선택할 수 있거나, 하악 분석 영역(100b)에서 하악에 배치된 치아들 중 적어도 하나를 분석 영역(100)으로 선택할 수 있다. 즉, 분석 영역(100)은 상악 분석 영역(100a)의 적어도 일부 및/또는 하악 분석 영역(100b)의 적어도 일부로 설정될 수 있다. 예시적으로, 도 3에 도시된 바에 따르면, 분석 영역(100)은 상악 분석 영역(100a) 중 제1 치아(101), 제2 치아(102), 및 제3 치아(103)로 결정될 수 있다.Referring to Figures 2 and 3, the data processing method according to the present invention includes setting an analysis area (S110). At this time, the
도 4는 대상체를 스캔하여 3차원 모델을 획득하는 과정을 설명하기 위한 것이다.Figure 4 is to explain the process of obtaining a 3D model by scanning an object.
도 2 및 도 4를 참조하면, 본 발명에 따른 데이터 처리 방법은 대상체를 스캔하여 상기 대상체의 3차원 모델을 획득하는 단계(S120)를 포함할 수 있다. 대상체(Object)는 환자의 치아를 나타내는 것일 수 있다. 예시적으로, 대상체는 환자의 실제 구강일 수도 있고, 환자의 구강을 인상채득하여 획득한 주형에 석고를 가하여 생성된 석고 모형일 수도 있다.Referring to FIGS. 2 and 4 , the data processing method according to the present invention may include scanning an object to obtain a three-dimensional model of the object (S120). The object may represent the patient's teeth. Illustratively, the object may be the patient's actual mouth, or may be a plaster model created by applying plaster to a mold obtained by taking an impression of the patient's mouth.
사용자는 스캐너를 사용하여 대상체를 스캔하고, 대상체의 3차원 모델(200)을 획득할 수 있다. 이 때, 스캐너는 3차원 스캐너일 수 있다. 예시적으로, 3차원 스캐너는 트레이 상에 대상체를 배치하고, 상기 트레이가 회전 또는 틸팅 회동하면서 일측에 형성된 카메라를 통해 대상체의 3차원 모델(200)을 획득하는 테이블 스캐너이거나, 사용자가 직접 파지하여 대상체와의 다양한 각도 및 거리에서 스캔하여 3차원 모델(200)을 획득하는 핸드헬드(handheld) 방식의 스캐너일 수도 있다.A user can scan an object using a scanner and obtain a three-
스캐너를 사용하여 획득한 3차원 모델(200)은 환자의 구강 또는 환자의 구강을 본뜬 석고 모형을 나타내므로, 3차원 모델(200)은 치아를 나타내는 치아 영역(210)과 치은을 나타내는 치은 영역(220)을 포함할 수 있다. 치아 영역(210)과 치은 영역(220)은 소정 구별 기준을 통해 영역별로 구별될 수 있으며, 그 구별 과정에 대해서는 후술한다.Since the three-
도 5는 본 발명에 따른 데이터 처리 방법 중 분석 영역을 구별하는 단계의 세부 순서도이고, 도 6은 치아 영역을 개별 치아 영역으로 구별하기 위해 사용되는 구별 기준을 설명하기 위한 것이다.Figure 5 is a detailed flowchart of the step of distinguishing analysis areas in the data processing method according to the present invention, and Figure 6 is for explaining the distinction criteria used to distinguish tooth areas into individual tooth areas.
도 2 내지 도 5를 참조하면, 본 발명에 따른 데이터 처리 방법은, 획득한 3차원 모델(200)에서 적어도 하나의 치아 영역(210)을 포함하는 분석 영역을 구별하는 단계(S130)를 포함할 수 있다. 분석 영역을 구별하는 단계(S130)는 3차원 모델(200) 중 완성도 판단에 사용되는 적어도 일부의 영역을 3차원 모델(200) 전체로부터 결정하는 것을 의미할 수 있다. 예시적으로, 전술한 분석 영역을 설정하는 단계(S110)에서, 대상체의 치아 전체를 분석 영역(100)으로 설정한 경우, 3차원 모델(200) 중 치아 영역(210)이 분석 영역(100)으로 구별, 및 결정될 수 있다. 예시적으로, 치아 영역(210)은 3차원 모델(200)의 치아 전체 영역을 포함할 수 있다. 즉, 치아 영역(210)은 3차원 모델(200) 중 치은 영역(220)을 제외한 모든 영역을 의미할 수 있다. 예시적으로, 3차원 모델(200) 중 상악을 나타내는 부분과 하악을 나타내는 부분에서 치아 전체를 분석 영역(100)으로 설정한 경우, 3차원 모델(200)에서 상악의 치아 전체를 나타내는 치아 영역(210)과 하악의 치아 전체를 나타내는 치아 영역(210)이 분석 영역(100)으로 결정될 수 있다.2 to 5, the data processing method according to the present invention may include a step (S130) of distinguishing an analysis area including at least one
필요에 따라, 분석 영역(200)을 환자의 치아 전체로 설정할 때, 본 발명에 따른 데이터 처리 방법은 구별된 치아 영역(210)과 함께, 상기 치아 영역(210)을 둘러싸는 치은 영역(220) 중 적어도 일부를 분석 영역(200)으로 결정할 수 있다. 예시적으로, 분석 영역(200)은 치아 영역(210)의 주위로 소정 거리 이내의 치은 영역(220) 일부를 포함하도록 결정될 수 있다. 분석 영역(200)이 치은 영역(220) 일부를 포함하도록 결정됨으로써, 치아 자체를 나타내는 부분만 아니라 치아가 존재하는 치은 일부를 포함하여 3차원 모델의 완성도가 판단될 수 있다. 이로써, 사용자는 치아 삭제(preparation) 등으로 인하여 필요한 치아의 마진 라인(margin line)이 정밀하게 스캔되었는지 용이하게 확인할 수 있는 이점이 있다.If necessary, when setting the
이하에서는, 분석 영역을 구별하는 단계(S130)의 세부 단계에 대해 보다 상세히 설명한다.Below, the detailed steps of the step of distinguishing the analysis area (S130) will be described in more detail.
분석 영역을 구별하는 단계(S130)에서, 3차원 모델(200)은 치아를 나타내는 치아 영역(210)과 치은을 나타내는 치은 영역(220)으로 구별될 수 있다. 즉, 분석 영역을 구별하는 단계(S130)는 3차원 모델에서 치아 영역과 치은 영역을 구별하는 단계(S131)를 포함할 수 있다. 3차원 모델(200)을 치아 영역(210)과 치은 영역(220)으로 구별하기 위해, 소정 구별 정보들 중 적어도 하나가 사용될 수 있다. 상기 구별 정보는 색상 정보 및 굴곡 정보 중 적어도 하나를 포함할 수 있다. 예시적으로, 대상체가 환자의 실제 구강인 경우, 치은은 선홍색 또는 분홍색을 가지고, 치아는 백색 또는 상아색(아이보리색)을 가질 수 있다. 3차원 모델(200)은 복수의 복셀(voxel)로 디스플레이될 수 있고, 각각의 복셀은 상기 3차원 모델(200)이 대상체에 대응되는 위치의 색상 정보를 포함할 수 있다. 구별 정보로 색상 정보가 사용되는 경우, 3차원 모델(200)은 각각의 복셀이 가지는 색상 정보에 따라 치아 영역(210)에 해당하는 영역 또는 치은 영역(220)에 해당하는 영역으로 구별될 수 있다. 다만, 이에 한정되는 것은 아니며, 3차원 모델을 획득하는 단계(S120)에서 대상체의 3차원 모델(200)을 생성하기 위해 획득되는 평면의 2차원 이미지 데이터(미도시)를 기초로 3차원 모델(200)의 치아 영역(210)과 치은 영역(220)이 구별될 수 있다. 예시적으로, 2차원 이미지 데이터는 복수의 픽셀들로 구성되고, 각각의 픽셀은 대상체의 대응되는 위치의 색상 정보를 포함할 수 있다. 상기 각각의 픽셀이 가지는 색상 정보에 따라, 2차원 이미지 데이터가 3차원 모델로 변환되어 생성되는 복셀에 상기 색상 정보가 할당될 수 있으며, 3차원 모델(200)은 치아 영역(210)과 치은 영역(220)으로 구별될 수 있다.In the step of distinguishing the analysis area (S130), the
또한, 구별 정보로 굴곡 정보가 사용되는 경우, 3차원 모델(200)의 치아 영역(210)과 치은 영역(220)의 경계에서의 굴곡 값이 3차원 모델(200)의 다른 부분에서의 굴곡 값보다 크다. 따라서, 소정 임계값 이상의 굴곡 값을 가지는 부분을 경계로 하여, 3차원 모델(200)을 치아 영역(210)과 치은 영역(220)으로 구별할 수 있다.In addition, when curvature information is used as discrimination information, the curvature value at the boundary between the
필요에 따라, 대상체를 스캔하여 획득한 3차원 모델(200)에 타액, 연조직(soft tissue)와 같은 노이즈 데이터가 포함되는 경우, 분석 영역을 구별하는 단계(S130)는 치아 영역(210)과 치은 영역(220) 외에 노이즈 영역(미도시)을 추가적으로 구별할 수 있다. 노이즈 영역은 3차원 모델(200)의 판단 기준에서 제외될 수 있고, 따라서 분석 영역(100)으로 결정되지 않는다. 또한, 노이즈 영역은 각각 또는 별도로 선택되어 3차원 모델(200)에서 삭제될 수 있다. 따라서, 3차원 모델(200)의 전체적인 완성도를 향상시킬 수 있다.If necessary, if the three-
도 5 및 도 6을 참조하면, 분석 영역을 구별하는 단계(S130)는 치아 영역을 적어도 하나의 개별 치아 영역으로 구별하는 단계(S132)를 더 포함할 수 있다. 상기 개별 치아 영역으로 구별하는 단계(S132)는 전술한 분석 영역을 설정하는 단계(S110) 치아 영역 전체를 설정하지 않고 일부 치아만을 선택할 경우에 한정하여 수행될 수 있다.Referring to FIGS. 5 and 6 , the step of distinguishing the analysis area ( S130 ) may further include the step of distinguishing the tooth area into at least one individual tooth area ( S132 ). The step of distinguishing into individual tooth areas (S132) may be performed only when selecting only some teeth without setting the entire tooth area in the step of setting the analysis area (S110).
도 6에 도시된 바와 같이, 대상체(O)는 적어도 하나의 치아(T)를 포함하고, 각각의 치아(T)는 고유의 표면 굴곡(C) 정보를 가질 수 있다. 예시적으로, 제1 대구치, 제2 대구치, 제1 소구치, 제2 소구치, 견치, 전치는 서로 다른 표면 굴곡 정보를 가지며, 상기 표면 굴곡 정보는 본 발명에 따른 데이터 처리 방법이 수행되는 데이터 처리 시스템의 데이터베이스부에 기저장될 수 있다. 또한, 상기 표면 굴곡 정보는 딥러닝 기술을 사용하여 각각의 굴곡 정보에 대응되는 치식을 감지할 수 있도록 데이터베이스부에 기저장될 수 있다. 따라서, 치아 영역(210)은 치아(T)의 표면 굴곡(C) 정보를 포함하는 치식 구별 기준에 따라 개별 치아를 나타내는 개별 치아 영역으로 구별될 수 있다.As shown in FIG. 6, the object O includes at least one tooth T, and each tooth T may have unique surface curvature C information. Exemplarily, first molars, second molars, first premolars, second premolars, canines, and incisors have different surface curvature information, and the surface curvature information is used in a data processing system in which the data processing method according to the present invention is performed. It can be stored in the database part of . In addition, the surface curvature information can be pre-stored in the database so that the dental formula corresponding to each curvature information can be detected using deep learning technology. Accordingly, the
또한, 치아 영역(210)을 개별 치아 영역으로 구별하기 위한 치식 구별 기준으로 치아의 크기 정보, 치아의 형상 정보 등이 함께 사용될 수 있다. 예시적으로, 제1 대구치는 제1 소구치보다 크고, 제1 소구치는 견치보다 클 수 있다. 이와 같은 치아 간의 크기 관계에 따라, 3차원 모델(200)을 구성하는 치아들의 치식이 구별될 수 있으며, 개별 치아 영역이 결정되어 완성도 판단의 기초로 사용될 수 있다. 한편, 치식을 부여하는 방식은 FDI 방식, Palmer 방식, Universal numbering system 방식 중 어느 하나가 사용될 수 있으나, 나열되지 않은 다른 치식 부여 방식이 사용될 수도 있는 바, 치식 부여 방식의 종류는 제한되지 않는다.In addition, tooth size information, tooth shape information, etc. may be used together as a tooth formula discrimination standard for distinguishing the
한편, 치아 영역(210)을 개별 치아 영역으로 구별하기 위해, 데이터베이스부에 기저장된 템플릿(template)이 이용될 수 있다. 템플릿은 데이터베이스부에 저장된 표준 치아를 나타내는 데이터로, 상기 템플릿은 치식에 대한 정보를 가지고 있다. 따라서, 3차원 모델(200)과 그 형상이 유사한 템플릿을 매칭함으로써, 치아 영역(210)에 형성된 치아들은 개별 치아 영역으로 구별될 수 있다.Meanwhile, in order to distinguish the
또는, 치아 영역(210)을 개별 치아 영역으로 구별하기 위해, 각각의 치아의 윤곽(또는 경계)에서 나타나는 굴곡 값이 이용될 수 있다. 예시적으로, 개별 치아의 윤곽에서 높은 굴곡 값이 나타나므로, 소정 임계값 이상의 굴곡 값을 가지는 3차원 모델(200)의 부분들을 통해 치식별로 개별 치아 영역을 구별할 수 있다.Alternatively, in order to distinguish the
전술한 내용과 같이, 개별 치아 영역으로 구별하는 단계(S132)는 3차원 모델(200)에서 치아 영역(210)과 치은 영역(220)이 구별된 이후에 수행될 수도 있으나, 반드시 이에 한정되는 것은 아니다. 즉, 개별 치아 영역으로 구별하는 단계(S132)는 3차원 모델(200)이 치아 영역(210)과 치은 영역(220)으로 구별되는 S131 단계를 생략하고 바로 수행될 수도 있다.As described above, the step of distinguishing into individual tooth regions (S132) may be performed after the
3차원 모델(200)에서 분석 영역(100)이 구별되면, 상기 분석 영역(100)을 기초로 3차원 모델(200)의 완성도를 판단하는 단계(S140)가 수행될 수 있다. 예시적으로, 3차원 모델(200)의 완성도는 상기 3차원 모델(200)이 신뢰할 수 있을 정도의 데이터가 축적된 정도를 나타낼 수 있다.When the
3차원 모델(200)의 완성도를 판단하기 위한 데이터 신뢰도에 대해 설명한다. 3차원 모델(200)을 생성하기 위해, 복수의 스캔 데이터들이 필요하다. 예시적으로, 스캔 데이터들은 3차원 데이터의 샷(shot)들일 수 있다. 스캔 데이터들 중 적어도 일부는 상호 중첩되며, 스캔 데이터들 중 중첩되는 부분은 대상체의 동일한 부분을 나타낼 수 있다. 따라서, 스캔 데이터들은 중첩되는 부분에 의해 얼라인되어, 스캔 데이터들이 얼라인된 전체는 3차원 모델(200)이 될 수 있다.Data reliability for determining the completeness of the
한편, 스캔 데이터들이 얼라인될 때, 상대적으로 많은 수의 데이터가 중첩된 부분은 높은 신뢰도를 가질 수 있고, 상대적으로 적은 수의 데이터가 중첩된 부분은 낮은 신뢰도를 가질 수 있다. 또한, 경우에 따라, 3차원 모델(200)이 생성될 때 데이터가 누락된 부분이 존재할 수 있으며, 상기 누락된 부분은 공백으로 남는다.Meanwhile, when scan data is aligned, a portion where a relatively large amount of data overlaps may have high reliability, and a portion where a relatively small number of data overlaps may have low reliability. Additionally, in some cases, when the
이 때, 3차원 모델(200)에서 공백으로 남은 영역과 낮은 신뢰도를 가지는 영역을 ‘주의 영역’으로 지칭할 수 있다. 보다 상세하게는, 주의 영역은 3차원 모델(200) 중 스캔 데이터가 입력되지 않은 공백 영역(hollow area), 및 3차원 모델(200) 중 스캔 데이터가 소정 임계밀도 미만으로 입력된 저밀도 영역(low-density area) 중 적어도 하나의 유형을 포함할 수 있다.At this time, the area remaining blank and the area with low reliability in the
이하에서는, 주의 영역 중 공백 영역에 대해 보다 상세히 설명한다.Below, the blank area among the attention areas will be described in more detail.
도 7은 주의 영역 중 공백 영역(B)을 감지하는 일 과정을 설명하기 위해 3차원 모델(200)과 템플릿(300)을 간략하게 표시한 것이다.Figure 7 briefly displays the
도 7을 참조하면, 공백 영역(B)은 3차원 모델(200)과 템플릿(300)을 이용하여 감지될 수 있다. 예시적으로, 3차원 모델(200)은 데이터베이스부에 저장된 템플릿(300)과 얼라인될 수 있다. 템플릿(300)은 대상체(O)의 표준적인 형상을 나타내며, 템플릿(300)은 이론적으로 주의 영역이 존재하지 않는 모델일 수 있다. 한편, 대상체(O)를 스캔하여 획득한 3차원 모델(200)은 템플릿(300)에 정렬되고, 템플릿(300)의 표면으로부터 적어도 하나의 광선이 생성된다. 예시적으로, 템플릿(300)의 표면으로부터 생성되는 광선은 복수일 수 있다. 보다 상세하게는, 광선들은 템플릿(300)의 표면을 구성하는 모든 메쉬의 꼭지점으로부터 생성될 수 있다. 생성된 광선들은 템플릿(300)의 표면의 법선 방향으로 진행하며, 상기 광선들 중 적어도 일부는 3차원 모델(200)의 표면과 만날 수 있다. 광선들은 템플릿(300)의 표면으로부터 양방향으로 진행하거나, 템플릿(300)으로부터 3차원 모델(200)을 향하는 일방향으로 진행할 수 있다. 이 때, 광선들 중 3차원 모델(200)의 표면과 만나지 않고 통과되는 부분들이 존재할 수 있으며, 이러한 부분들은 데이터가 입력되지 않은 부분들에 해당한다(도 7에서 빗금친 부분으로 표시됨). 따라서, 광선들이 3차원 모델(200)의 표면과 만나지 않고 통과되는 부분들은 공백 영역(B)으로 정의할 수 있다. 이와 같이 공백 영역(B)을 감지하기 위해 광선을 생성하고, 3차원 모델과 템플릿의 광선 교차 여부를 확인하는 과정을 교차 검사(intersection test)라고 한다.Referring to FIG. 7, the blank area B can be detected using the
예시적으로 도 7에 도시된 바에 따르면, 제1 3차원 모델 표면(201)과 제2 3차원 모델 표면(202) 사이에 제1 공백 영역(B1)이 감지되고, 제2 3차원 모델 표면(202)과 제3 3차원 모델 표면(203) 사이에 제2 공백 영역(B2)이 감지되며, 제3 3차원 모델 표면(203)과 제4 3차원 모델 표면(204) 사이에 제3 공백 영역(B3)이 감지될 수 있다. 한편, 템플릿(300)의 표면으로부터 생성되는 광선의 수는 시스템의 사양, 데이터 처리 방법의 목표 수행 시간 등을 종합적으로 고려하여 적절한 수로 조절될 수 있으며, 사용자는 보다 정밀한 공백 영역(B)을 감지하기 위해서 생성되는 광선의 수를 증가시킬 수 있다.As exemplarily shown in FIG. 7, a first blank area B1 is detected between the first
이하에서는, 주의 영역 중 공백 영역을 감지하는 다른 방식에 대해 보다 상세히 설명한다.Below, another method for detecting a blank area in the attention area will be described in more detail.
도 8은 주의 영역 중 공백 영역(B)을 감지하는 다른 과정을 설명하기 위한 것이다. Figure 8 is to explain another process for detecting a blank area (B) in the attention area.
도 8을 참조하면, 샘플 3차원 모델(M’)은 스캔 데이터들이 가지는 복수의 지점들(P)의 집합인 포인트 클라우드(point cloud)를 통해 생성될 수 있으며, 상기 지점(P)들은 다각형의 메쉬 구조를 형성할 수 있다. 예시적으로, 상기 메쉬 구조는 삼각형 밀집 구조일 수 있다. 이 때, 지점(P)들 간 메쉬가 형성되지 않은 부분은 데이터가 입력되지 않은 것으로 판단될 수 있다.Referring to FIG. 8, a sample 3D model (M') can be created through a point cloud, which is a set of a plurality of points (P) contained in scan data, and the points (P) are polygonal. A mesh structure can be formed. By way of example, the mesh structure may be a triangular dense structure. At this time, it may be determined that no data has been input to the portion where the mesh between the points P is not formed.
보다 상세하게는, 샘플 3차원 모델(M’)에서 메쉬 구조를 형성한 지점(P)들을 외곽에서 연결하는 외부 루프(outer loop)가 형성될 수 있다. 상기 외부 루프는 샘플 3차원 모델(M’)의 윤곽을 표현할 수 있다.More specifically, an outer loop may be formed that connects the points (P) forming the mesh structure in the sample 3D model (M') from the outside. The outer loop can express the outline of the sample three-dimensional model (M').
한편, 도 8의 X 부분의 확대도를 참조하면, 샘플 3차원 모델(M’)은 폐루프 지점(P’)들을 더 포함할 수 있고, 상기 폐루프 지점(P’)들을 기초로 샘플 3차원 모델(M’)의 내부에서 메쉬들에 의해 폐쇄된 영역이 생성될 수 있다. 즉, 상기 폐루프 지점(P’)들이 연결되어 내부 루프(inner loop)가 형성될 수 있고, 상기 내부 루프(inner loop)는 메쉬들에 의해 외부와 이격된 폐루프(closed loop, L)를 형성한다. 이 때, 상기 폐루프(L)의 내부는 데이터가 입력되지 않은 공간이며, 상기 폐루프(L) 내부(내부 폐루프 영역)는 공백 영역(B)으로 감지될 수 있다.Meanwhile, referring to the enlarged view of part A closed area may be created by meshes inside the dimensional model (M'). That is, the closed loop points (P') may be connected to form an inner loop, and the inner loop may form a closed loop (L) spaced apart from the outside by meshes. form At this time, the inside of the closed loop (L) is a space where no data is input, and the inside of the closed loop (L) (internal closed loop area) can be sensed as a blank area (B).
이하에서는, 주의 영역 중 저밀도 영역에 대해 보다 상세히 설명한다.Below, the low-density area among the attention areas will be described in more detail.
저밀도 영역은, 임의의 영역에서 임계 스캔 데이터 수 미만의 스캔 데이터가 축적된 경우를 의미할 수 있다. 저밀도 영역은 축적된 스캔 데이터의 샷 수에 따라 제1 저밀도 영역, 제2 저밀도 영역으로 구별될 수도 있으나, 반드시 이에 한정되는 것은 아니다. 또한, 저밀도 영역은 반드시 2개의 그룹으로 분류되지 않을 수 있으며, 하나, 또는 3 이상의 저밀도 영역 그룹으로 분류될 수도 있다.A low-density area may mean a case where scan data less than the critical number of scan data is accumulated in a random area. The low-density area may be divided into a first low-density area and a second low-density area depending on the number of shots of accumulated scan data, but is not necessarily limited thereto. Additionally, low-density areas may not necessarily be classified into two groups, but may be classified into one or three or more low-density area groups.
선택적으로, 저밀도 영역은 스캔 데이터 수 및 추가적으로 획득된 스캔 데이터들 간의 스캔 각도 중 적어도 하나를 기준으로 계산될 수 있다. 예시적으로, 스캔 데이터를 획득하는 과정에서, 자동적으로 스캐너의 위치정보와 스캔 각도가 획득될 수 있다. 이 때, 실시간으로 2 이상의 스캔 데이터가 수집되면, 각각의 스캔 데이터 간의 관계를 도출한다. 스캔 데이터 간의 관계를 도출하기 위해, 하나의 스캔 데이터에서 복수의 정점들을 추출하고, 다른 스캔 데이터에서 복수의 정점들과 대응되는 복수의 대응점들을 계산하여, 하나의 스캔 데이터를 기준으로 다른 스캔 데이터에 대한 이동 함수를 계산하고, 각도 변경 및 이동되어 데이터 정렬이 수행된다. 이 때, 하나의 스캔 데이터를 기준으로 다른 스캔 데이터의 상대적인 위치(위치정보)와 스캔 각도(각도정보)를 획득할 수 있다. 획득된 위치와 스캔 각도에 따라, 복셀에 스캔 데이터가 축적될 수 있다.Optionally, the low-density area may be calculated based on at least one of the number of scan data and the scan angle between additionally acquired scan data. For example, in the process of acquiring scan data, the location information and scan angle of the scanner may be automatically obtained. At this time, when two or more scan data are collected in real time, a relationship between each scan data is derived. In order to derive relationships between scan data, a plurality of vertices are extracted from one scan data, a plurality of corresponding points corresponding to the plurality of vertices are calculated from other scan data, and a plurality of corresponding points are calculated based on one scan data to other scan data. The translation function is calculated, the angle changed and the data is moved and sorted. At this time, the relative position (position information) and scan angle (angle information) of other scan data can be obtained based on one scan data. Depending on the acquired position and scan angle, scan data may be accumulated in voxels.
예시적으로, 임의의 복셀은 제1 각도범위 내지 제3 각도범위를 가지고, 각각의 각도범위 당 최대 100개의 스캔 데이터가 축적될 수 있다. 이 때, 하나의 복셀에는 최대 300개의 스캔 데이터가 축적될 수 있으며, 300개의 스캔 데이터가 축적되었을 때 상기 복셀은 완성도를 만족하는 밀도를 가지는 것으로 판단될 수 있다.Illustratively, any voxel has a first to a third angle range, and up to 100 pieces of scan data can be accumulated for each angle range. At this time, a maximum of 300 pieces of scan data can be accumulated in one voxel, and when 300 pieces of scan data are accumulated, the voxel can be determined to have a density that satisfies completeness.
즉, 대상체의 동일한 부분을 스캔하더라도 상기 부분을 다각도로 스캔하여 3차원 모델의 신뢰도를 향상시킬 수 있으며, 불충분한 양의 스캔 데이터가 축적된 복셀은 저밀도 영역으로 감지될 수 있다.That is, even if the same part of the object is scanned, the reliability of the 3D model can be improved by scanning the part from multiple angles, and voxels with an insufficient amount of scan data accumulated can be detected as low-density areas.
완성도를 판단하는 단계(S140)는 전술한 분석 영역(100) 전체에 존재하는 주의 영역의 비율을 기초로 3차원 모델(200)의 완성도를 판단할 수 있다. 예시적으로, 완성도를 판단하는 단계(S140)는 전체 분석 영역(100) 대비 주의 영역의 면적 또는 부피가 소정 비율 미만인 경우 3차원 모델(200)을 완성 상태로 판단할 수 있다. 이 때, 소정 비율의 값은 분석 영역(100)이 충분한 신뢰도를 가질 수 있는 정도의 임계값으로 설정될 수 있다.In the step of determining the completeness (S140), the completeness of the
또한, 경우에 따라, 완성도를 판단하는 단계(S140)는 3차원 모델(200)에서의 분석 영역(100)이 개별 치아 영역 별로 구별된 경우, 개별 치아 영역 별로 상이한 임계값을 기초로 완성도를 판단할 수 있다. 예시적으로, 전치에 대응되는 분석 영역(100)의 일부분은 대구치에 대응되는 분석 영역(100)의 다른 부분보다 더 낮은 주의 영역 비율을 가지는 경우에만 완성 상태로 판단될 수 있다. 이와 같이, 개별 치아 영역 별로 완성도 판단을 위한 상이한 임계값을 적용함으로써, 대상체의 전체적인 완성도를 향상시킬 수 있고, 사용자의 스캔 속도를 향상시킬 수 있으며, 환자에게 최적의 치료를 제공하는 이점이 있다.In addition, in some cases, in the step of determining completeness (S140), when the
또한, 다른 경우에 따라, 완성도를 판단하는 단계(S140)는 3차원 모델(200)에서의 분석 영역(100)을 보다 세분화하여 완성도를 판단할 수 있다. 예시적으로, 분석 영역을 설정하는 단계(S110)에서, 완성도를 판단하기 위한 소정 임계값을 가지는 제1 분석 영역과, 상기 제1 분석 영역보다 작은 임계값을 가지는 제2 분석 영역이 설정될 수 있다. 즉, 제2 분석 영역은 제1 분석 영역보다 더욱 정밀한 스캔이 필요한 영역으로 설정될 수 있으며, 제2 분석 영역을 설정하는 과정은 사용자의 선택에 따라 이루어질 수 있다. 예시적으로, 개별 치아 영역 중 치료가 필요한 관심 치아가 제2 분석 영역으로 설정될 수 있다. 이에 따라, 제2 분석 영역은 제1 분석 영역보다 낮은 주의 영역 비율을 가지는 경우에만 완성 상태로 판단될 수 있으며, 치료가 필요한 관심 치아가 더욱 정밀하게 스캔되도록 사용자를 유도하는 이점이 있다.Additionally, in other cases, in the step of determining completeness (S140), the completeness may be determined by further subdividing the
한편, 상기 완성도를 판단하는 단계(S140)는 실시간으로 생성되는 3차원 모델(200)의 복셀에 대해 수행될 수도 있고, 스캔이 완료된 후 사용자가 임의의 버튼을 클릭하는 등의 동작에 의해 수행될 수도 있다.Meanwhile, the step of determining the completeness (S140) may be performed on voxels of the
도 9는 본 발명에 따른 데이터 처리 방법 중 완성도를 판단한 결과에 기초하여 피드백을 발생시키는 단계(S150)를 설명하기 위한 것이다.Figure 9 is for explaining the step (S150) of generating feedback based on the result of determining the degree of completeness in the data processing method according to the present invention.
도 9를 참조하면, 예시적으로 피드백을 발생시키는 단계(S150)는 3차원 모델(200)의 분석 영역(100)이 충분한 신뢰도를 가져 3차원 모델(200)이 완성되었다는 것을 표시할 수 있다. 도 9에 도시된 바에 따르면, 유저 인터페이스 화면(600)에 3차원 모델(200)과 상기 3차원 모델(200)에 적용된 분석 영역(100)이 표시되고, 유저 인터페이스 화면(600)의 일측에 피드백 수단(700)이 표시될 수 있다. 예시적으로, 피드백 수단(700)은 완성도 표시 수단(710)일 수 있으며, 완성도 표시 수단(710)은 ‘치아 영역: PASS’와 같은 메시지를 디스플레이하여 3차원 모델(200)의 완성 여부를 나타낼 수 있다. 그러나, 반드시 이에 한정되는 것은 아니며, 3차원 모델(200)의 완성도를 2 이상의 상태(예를 들면, 완성 상태, 충분 상태, 불충분 상태)로 나타낼 수도 있고, 완성도를 퍼센트(%)와 같은 수치로 나타낼 수도 있으며, 유저 인터페이스 화면(600) 상에 별도의 로딩 바(loading bar)가 표시되어 상기 완성도를 로딩 바의 그래픽 변화로 표현할 수도 있다.Referring to FIG. 9 , the step of generating feedback (S150) may indicate that the
이와 같이 피드백 수단(700)을 통해 사용자는 종래의 신뢰도 색상이 3차원 모델(200) 상에 표시되는 신뢰도 맵을 이용하지 않더라도, 3차원 모델(200)의 완성 여부를 용이하게 확인할 수 있다.In this way, through the feedback means 700, the user can easily check whether the
또한, 피드백 수단은 유저 인터페이스 화면(600)에 표시되는 것 이외에도 스캐너에 내장된 광 프로젝터에 의해 조사되는 광 색상 및/또는 광 패턴일 수 있다. 예시적으로, 완성도를 판단하는 단계(S140)에서 3차원 모델(200)이 완성 상태로 판단된 경우, 광 프로젝터는 스캐너가 지향하는 표면에 녹색 광을 조사할 수 있다. 반대로, 3차원 모델(200)이 완성 상태에 도달하지 못한 것으로 판단된 경우, 광 프로젝터는 스캐너가 지향하는 표면에 적색 광을 조사할 수 있다. 다른 예시로, 완성도를 판단하는 단계(S140)에서 3차원 모델(200)이 완성 상태로 판단된 경우, 광 프로젝터는 스캐너가 지향하는 표면에 ‘O’ 패턴을 조사할 수 있다. 반대로, 3차원 모델(200)이 완성 상태에 도달하지 못한 것으로 판단된 경우, 광 프로젝터는 스캐너가 지향하는 표면에 ‘X’ 패턴을 조사할 수 있다. 이와 같이 스캐너에 내장된 광 프로젝터를 사용하여 사용자에게 피드백하는 경우, 사용자는 유저 인터페이스 화면(600)이 표시되는 디스플레이 장치를 주시하지 않더라도 3차원 모델(200)의 완성 상태를 용이하게 파악할 수 있는 이점이 있다.Additionally, the feedback means may be a light color and/or a light pattern emitted by a light projector built into the scanner in addition to what is displayed on the
도 10은 사용자에게 피드백되는 주의 영역을 설명하기 위한 것이다.Figure 10 is for explaining the attention area fed back to the user.
도 10을 참조하면, 사용자는 추가적으로 주의 영역에 대한 피드백을 받을 수 있다. 예시적으로, 유저 인터페이스 화면(600) 상에서, 3차원 모델(200)의 분석 영역(100)에서 공백 영역과 저밀도 영역은 주의 영역 표시 수단(720)을 통해 시각적으로 표시될 수 있다. 주의 영역 표시 수단(720)은 소정 기호일 수 있으나, 이에 한정되는 것은 아니며, 주의 영역에 대해 가상의 스캐너 형상을 표시할 수도 있다. 또한, 주의 영역 표시 수단(720)은 공백 영역과 저밀도 영역이 구별되어 서로 다른 형태로 표시되도록 할 수도 있다. 주의 영역 표시 수단(720)을 통해 주의 영역이 사용자에게 피드백 됨으로써, 사용자는 용이하게 3차원 모델(200) 중 추가적인 스캔이 필요한 부분을 확인할 수 있고, 주의 영역을 추가로 스캔하여 3차원 모델(200)의 완성도를 신속하게 향상시킬 수 있는 이점이 있다.Referring to FIG. 10, the user can additionally receive feedback on the attention area. For example, on the
이하에서는 본 발명의 다른 실시예에 따른 데이터 처리 방법에 대해 설명한다. 본 발명의 다른 실시예에 따른 데이터 처리 방법을 설명함에 있어, 전술한 내용과 중복되는 내용은 간략히 언급하거나 생략한다.Below, a data processing method according to another embodiment of the present invention will be described. When describing a data processing method according to another embodiment of the present invention, content that overlaps with the above-described content will be briefly mentioned or omitted.
도 11은 본 발명의 다른 실시예에 따른 데이터 처리 방법의 순서도이다.11 is a flowchart of a data processing method according to another embodiment of the present invention.
도 11을 참조하면, 본 발명의 다른 실시예에 따른 데이터 처리 방법은, 3차원 모델을 획득하는 단계(S210)를 포함한다. 분석 영역을 설정하기 이전에 3차원 모델을 획득할 수 있으며, 이에 따라 3차원 모델의 형상을 먼저 유저 인터페이스 화면을 통해 확인한 후 분석이 필요한 부분을 설정할 수 있다.Referring to FIG. 11, a data processing method according to another embodiment of the present invention includes obtaining a 3D model (S210). A 3D model can be obtained before setting the analysis area, and the shape of the 3D model can first be checked through the user interface screen and then the parts that need to be analyzed can be set.
도 12는 분석 영역을 설정하는 과정을 설명하기 위한 것이다.Figure 12 is for explaining the process of setting an analysis area.
도 3, 도 11 및 도 12를 참조하면, 본 발명의 다른 실시예에 따른 데이터 처리 방법은 3차원 모델(200)을 획득한 이후, 획득한 3차원 모델(200)에서 분석 영역을 설정하는 단계(S220)를 포함할 수 있다. 분석 영역을 설정하는 단계(S220)는 도 3에 도시된 바와 같이 유저 인터페이스 화면(600)에서 사용자가 분석 대상으로 설정하고자 하는 치아를 선택하는 것일 수 있다. 한편, 본 발명의 다른 실시예에 따른 데이터 처리 방법은 이미 3차원 모델을 획득하였으므로, 3차원 모델 상에 직접적으로 분석 영역을 지정할 수도 있다. 예시적으로, 본 발명의 다른 실시예에 따른 데이터 처리 방법은, 3차원 모델 상에서 분석 영역을 입력받을 수 있으며, 상기 분석 영역은 브러쉬 선택 도구 또는 다각형 선택 도구 등을 통해 설정될 수 있다. 도 12에 도시된 바와 같이, 사용자는 다각형 선택 도구를 사용하여 제1 분석 영역(111), 제2 분석 영역(112), 제3 분석 영역(113), 및 제4 분석 영역(114)이 선택될 수 있다. 한편, 상기 분석 영역들(111, 112, 113, 114)는 중첩되는 영역들이 병합될 수도 있다.Referring to FIGS. 3, 11, and 12, the data processing method according to another embodiment of the present invention includes acquiring a
또한, 분석 영역(100)을 설정하기 위한 소정 항목들이 디스플레이될 수도 있다. 예시적으로, 사용자는 ‘치아 영역 전체’, ‘특정 치아 선택’ 등 유저 인터페이스 화면 상에 표시되는 항목들 중 어느 하나를 선택하여 분석 영역(100)을 설정할 수 있다. 예시적으로 나열한 내용 이외에도, 분석 영역(100)을 설정하는 과정은 특별히 제한되지 않는다. 분석 영역(100)을 설정하는 세부적인 내용은 S110 단계에서 전술한 내용을 공유한다.Additionally, certain items for setting the
또한, 본 발명의 다른 실시예에 따른 데이터 처리 방법은 분석 영역을 설정하는 단계(S220) 이후에 3차원 모델(200)에서 분석 영역을 구별하는 단계(S230)를 포함할 수 있다. 즉, 본 발명의 다른 실시예에 따른 데이터 처리 방법은, 분석 영역을 구별하는 단계(S230) 이전에 3차원 모델을 획득하는 단계(S210), 및 분석 영역을 설정하는 단계(S220)를 포함할 수 있다. 분석 영역을 구별하는 단계(S230)는 사용자가 유저 인터페이스 화면에 마련된 선택 도구를 이용하여 설정한 분석 영역을 구별하는 것이거나, 전술한 바와 같은 소정 항목들 중 어느 하나를 선택함으로써 3차원 모델(200)에서 분석 영역(100)을 구별하는 것일 수 있다. 분석 영역을 구별하는 단계(S230)에 대한 보다 상세한 설명은 전술한 S130 단계의 내용을 공유한다.Additionally, the data processing method according to another embodiment of the present invention may include a step of distinguishing the analysis area in the 3D model 200 (S230) after setting the analysis area (S220). That is, the data processing method according to another embodiment of the present invention may include the step of obtaining a 3D model (S210) before the step of distinguishing the analysis area (S230), and the step of setting the analysis area (S220). You can. The step of distinguishing the analysis area (S230) is to distinguish the analysis area set by the user using a selection tool provided on the user interface screen, or to select one of the predetermined items as described above to create a three-dimensional model (200 ) may be used to distinguish the
이하, 본 발명의 다른 실시예에 따른 데이터 처리 방법은 구별된 분석 영역(100)을 기초로 3차원 모델(200)의 완성도를 판단하는 단계(S240)와, 3차원 모델(200)의 분석 영역(100)의 완성도 판단 결과에 기초하여 피드백을 발생시키는 단계(S250)를 더 포함할 수 있다. 완성도를 판단하는 단계(S240)는 S140 단계에서 전술한 내용을 공유하고, 피드백을 발생시키는 단계(S250)는 S150 단계에서 전술한 내용을 공유한다.Hereinafter, a data processing method according to another embodiment of the present invention includes the step of determining the completeness of the
이상 설명한 내용에 따라, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 사용자는 충분한 신뢰도를 가지는 3차원 모델을 용이하게 획득할 수 있는 이점이 있다.According to the above-described content, by using the data processing method according to the present invention, the user has the advantage of being able to easily obtain a three-dimensional model with sufficient reliability.
또한, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 3차원 모델 전체가 아닌 분석 영역에 대해 완성도를 판단하므로, 데이터 처리 시간을 단축시키는 이점이 있다.In addition, by using the data processing method according to the present invention, the completeness is judged for the analysis area rather than the entire 3D model, which has the advantage of shortening the data processing time.
또한, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 사용자는 자의적인 판단에 의하지 않고 정확히 계산되어 판단된 결과에 기초하여, 3차원 모델이 신뢰할 수 있을 정도의 완성도를 가졌는지 용이하게 확인할 수 있는 이점이 있다.In addition, by using the data processing method according to the present invention, the user has the advantage of being able to easily check whether the 3D model has a reliable degree of completeness based on the accurately calculated and judged results without relying on arbitrary judgment. there is.
또한, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 개별 치아 영역 별로 상이한 완성도 판단 임계값이 적용되어, 보다 중요한 치아에 대해 정밀하게 스캔하여 3차원 모델을 획득할 수 있는 이점이 있다.In addition, by using the data processing method according to the present invention, a different completeness judgment threshold is applied to each individual tooth area, which has the advantage of accurately scanning more important teeth to obtain a three-dimensional model.
또한, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 사용자는 주의 영역으로 감지된 3차원 모델의 부분들을 시각적으로 용이하게 확인할 수 있으며, 주의 영역을 최소화하기 위한 추가적인 스캔을 진행할 때 소요되는 시간과 노력을 절약하는 이점이 있다.In addition, by using the data processing method according to the present invention, the user can easily visually check the parts of the 3D model detected as attention areas, and reduce the time and effort required to perform additional scans to minimize the attention area. There is an advantage in saving.
또한, 본 발명의 다른 실시예에 따른 데이터 처리 방법을 사용하면, 본 발명에 따른 데이터 처리 방법의 이점을 공유하고, 3차원 모델 상에 직접 분석 영역을 세밀하게 설정할 수 있으므로, 사용자가 분석에 필요한 부분만 정밀하게 분석 영역으로 설정 및 구별할 수 있는 이점이 있다.In addition, by using the data processing method according to another embodiment of the present invention, the advantages of the data processing method according to the present invention can be shared and the analysis area can be set in detail directly on the three-dimensional model, allowing the user to There is an advantage in that only a portion can be precisely set and distinguished as an analysis area.
이하에서는, 전술한 본 발명의 일 실시예에 따른 데이터 처리 방법 및/또는 본 발명의 다른 실시예에 따른 데이터 처리 방법을 수행하는 데이터 처리 장치에 대해 설명한다. 본 발명에 따른 데이터 처리 장치를 설명함에 있어서, 중복되는 내용은 간략하게 설명하거나 설명을 생략한다.Hereinafter, a data processing device that performs the data processing method according to one embodiment of the present invention and/or the data processing method according to another embodiment of the present invention described above will be described. When describing the data processing device according to the present invention, overlapping content will be briefly described or omitted.
도 13은 본 발명에 따른 데이터 처리 방법을 수행하는 데이터 처리 장치(900)의 개략적인 구성도이다.Figure 13 is a schematic configuration diagram of a
도 13을 참조하면, 본 발명에 따른 데이터 처리 장치(900)는 스캔부(910), 제어부(920), 및 디스플레이부(930)를 포함한다.Referring to FIG. 13, the
스캔부(910)는 대상체를 스캔하여 상기 대상체의 화상(image)를 획득할 수 있다. 대상체는 환자의 치아를 나타내는 것일 수 있다. 스캔부(910)는 전술한 데이터 처리 방법에서 3차원 모델을 획득하는 단계의 적어도 일부 과정을 수행할 수 있다. 스캔부(910)는 전술한 스캐너(예를 들면, 3차원 스캐너)일 수 있다.The
이하에서는 제어부(920)의 세부 구성에 대해 설명한다.Below, the detailed configuration of the
제어부(920)는 스캔부(910)로부터 획득된 대상체의 화상을 기초로 3차원 모델을 생성하고, 3차원 모델 중 상기 3차원 모델의 완성도를 판단하여 사용자에게 피드백할 수 있다. 예시적으로, 제어부(920)는 데이터 연산 처리를 위한 마이크로프로세서(microprocessor)를 포함할 수 있다.The
제어부(920)는 데이터베이스부(921)를 포함할 수 있다. 스캔부(910)가 획득한 대상체의 화상 및 특성정보(신뢰도, 스캔각도, 위치 등), 후술하는 3차원 모델링부(922)로부터 생성된 대상체의 3차원 모델, 분석 영역을 설정할 때 사용되는 표준 구강 형상, 스캔 데이터들을 중첩, 정렬하기 위한 정렬 알고리즘, 3차원 모델의 완성도 판단 알고리즘, 주의 영역을 판단하기 위한 기준, 피드백 발생을 위한 기준 등이 데이터베이스부(921)에 저장될 수 있다. 데이터베이스부(921)는 알려진 데이터 저장 수단이 사용될 수 있으며, SSD(Solid State Drive), HDD(Hard Disk Drive)를 포함한 알려진 저장 수단들 중 적어도 하나일 수 있다. 또한, 데이터베이스부(921)는 가상의 클라우드 저장 수단일 수도 있다.The
제어부(920)는 3차원 모델링부(922)를 포함할 수 있다. 3차원 모델링부(922)는 스캔부(910)로부터 획득한 대상체의 2차원 화상을 3차원으로 모델링할 수 있다. 한편, 3차원 모델링부(922)는 데이터베이스부(921)에 저장된 정렬 알고리즘에 따라 3차원 모델링된 스캔 데이터들(보다 상세하게는, 3차원 데이터 샷들)을 정렬할 수 있으며, 상기 스캔 데이터들의 정렬 및 머징(merging)을 통해 대상체를 나타내는 3차원 모델을 생성할 수 있다.The
또한, 제어부(920)는 분석 영역 설정부(923)를 더 포함할 수 있다. 분석 영역 설정부(923)는 3차원 모델에서 완성도를 판단할 분석 영역을 설정할 수 있다. 이 때, 분석 영역 설정부(923)는 3차원 모델이 획득되기 이전에 표준 구강 형상에서 분석 영역을 설정하여, 이후에 획득되는 3차원 모델에 상기 분석 영역을 적용할 수도 있고, 3차원 모델을 획득한 이후 상기 3차원 모델에 바로 분석 영역을 적용할 수도 있다.Additionally, the
또한, 제어부(920)는 완성도 판단부(924)를 포함할 수 있다. 완성도 판단부(924)는 획득된 3차원 모델의 분석 영역에서, 전체 분석 영역 대비 주의 영역의 비율이 소정 임계값 이하일 경우 상기 3차원 모델이 완성되었다고 판단할 수 있다. 주의 영역은 공백 영역과 저밀도 영역을 포함하는 것일 수 있다. 한편, 완성도 판단부(924)는 개별 치아 영역 별로 상이한 완성도 판단 임계값을 적용할 수 있으며, 관련된 설명은 전술한 바와 동일하다.Additionally, the
또한, 제어부(920)는 피드백 발생부(925)를 더 포함할 수 있다. 피드백 발생부(925)는 완성도 판단부(924)의 완성도 판단 결과에 기초하여 사용자에게 상기 완성도 판단 결과를 피드백할 수 있다. 이 때, 완성도 판단 결과는 ‘치아 영역: PASS’와 같은 메시지를 포함하는 완성도 표시 수단, 완성도 퍼센트, 로딩 바와 같은 다양한 형태들 중 적어도 하나로 표현될 수 있다.Additionally, the
피드백 발생부(925)는 3차원 모델 상에 주의 영역을 표시할 수도 있으며, 피드백 발생부(925)는 소정 기호 또는 가상의 스캐너 형상을 통해 주의 영역을 사용자에게 피드백할 수 있다. 이와 같이, 피드백 발생부(925)는 사용자가 주의 영역을 용이하게 확인할 수 있도록 하며, 사용자는 주의 영역을 추가로 스캔하여 3차원 모델의 완성도를 신속하게 향상시킬 수 있다.The
한편, 본 발명에 따른 데이터 처리 장치(900)는 디스플레이부(930)를 포함할 수 있다. 디스플레이부(930)는 스캔부(910)에 의해 획득되는 대상체의 화상, 제어부(920)에 의해 수행되는 일련의 과정들 중 적어도 일부를 시각적으로 표시할 수 있다. 디스플레이부(930)는 사용자에게 데이터 처리 과정을 표시하기 위해, 알려진 디바이스가 사용될 수 있다. 예시적으로, 디스플레이부(930)는 모니터, 태블릿과 같은 시각적 표시장치 중 어느 하나일 수 있다. 사용자는 디스플레이부(930)에 표시되는 데이터 처리 과정을 확인하여, 3차원 모델이 분석 영역에서 충분한 완성도를 가지도록 획득되었는지, 주의 영역의 위치는 어디인지와 같은 다양한 정보들을 용이하게 획득할 수 있다.Meanwhile, the
이상의 설명에 따라, 본 발명의 일 실시예에 따른 데이터 처리 방법, 및 본 발명의 다른 실시예에 따른 데이터 처리 방법을 수행하는 데이터 처리 장치를 사용함으로써, 사용자는 전술한 데이터 처리 방법을 실시함으로써 얻어지는 이점들을 함께 가진다.According to the above description, by using a data processing device that performs the data processing method according to one embodiment of the present invention and the data processing method according to another embodiment of the present invention, the user can obtain the data obtained by performing the above-described data processing method. They have advantages together.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.The above description is merely an illustrative explanation of the technical idea of the present invention, and various modifications and variations will be possible to those skilled in the art without departing from the essential characteristics of the present invention.
따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but are for illustrative purposes, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be construed as being included in the scope of rights of the present invention.
S110: 분석 영역을 설정하는 단계
S120: 3차원 모델을 획득하는 단계
S130: 분석 영역을 구별하는 단계
S140: 완성도를 판단하는 단계
S150: 피드백을 발생시키는 단계
100: 분석 영역 200: 3차원 모델
300: 템플릿 600: 유저 인터페이스 화면
700: 피드백 수단 710: 완성도 표시 수단
720: 주의 영역 표시 수단
900: 데이터 처리 장치S110: Step of setting analysis area
S120: Step of acquiring a 3D model
S130: Step to distinguish analysis area
S140: Step to judge completeness
S150: Step to generate feedback
100: analysis area 200: 3D model
300: Template 600: User interface screen
700: Feedback means 710: Completeness display means
720: Attention area display means
900: data processing device
Claims (15)
상기 분석 영역을 기초로 상기 3차원 모델의 완성도를 판단하는 단계; 를 포함하고,
상기 완성도를 판단하는 단계는 상기 분석 영역에 존재하는 주의 영역의 면적 또는 부피의 비율이 소정 비율 미만인 경우 상기 3차원 모델을 완성 상태로 판단하는 것을 특징으로 하는 데이터 처리 방법.In the three-dimensional model, distinguishing an analysis region containing at least one tooth region; and
determining the completeness of the three-dimensional model based on the analysis area; Including,
The step of determining the completeness is characterized in that the three-dimensional model is judged to be complete when the ratio of the area or volume of the attention area existing in the analysis area is less than a predetermined ratio.
상기 분석 영역을 구별하는 단계 이전에,
상기 분석 영역을 설정하는 단계; 및
상기 분석 영역을 설정한 이후 상기 3차원 모델을 획득하는 단계; 를 더 포함하는 것을 특징으로 하는 데이터 처리 방법.In claim 1,
Before the step of distinguishing the analysis area,
setting the analysis area; and
Obtaining the three-dimensional model after setting the analysis area; A data processing method further comprising:
상기 분석 영역을 구별하는 단계 이전에,
상기 3차원 모델을 획득하는 단계; 및
획득한 상기 3차원 모델에서 상기 분석 영역을 설정하는 단계; 를 더 포함하는 것을 특징으로 하는 데이터 처리 방법.In claim 1,
Before the step of distinguishing the analysis area,
Obtaining the three-dimensional model; and
Setting the analysis area in the acquired 3D model; A data processing method further comprising:
상기 치아 영역은 상기 3차원 모델의 치아 전체 영역을 포함하는 것을 특징으로 하는 데이터 처리 방법.In claim 1,
The data processing method, wherein the tooth area includes the entire tooth area of the three-dimensional model.
상기 3차원 모델은 색상 정보 및 굴곡 정보 중 적어도 하나를 통해 치아를 나타내는 상기 치아 영역과 치은을 나타내는 치은 영역으로 구별되는 것을 특징으로 하는 데이터 처리 방법.In claim 1,
The three-dimensional model is divided into the tooth area representing the tooth and the gingival area representing the gingiva through at least one of color information and curvature information.
상기 분석 영역을 구별하는 단계는,
치아의 표면 굴곡 정보를 포함하는 치식 구별 기준에 따라 상기 치아 영역을 개별 치아로 나타내는 개별 치아 영역으로 구별하는 것을 특징으로 하는 데이터 처리 방법.In claim 1,
The step of distinguishing the analysis area is,
A data processing method characterized in that the tooth area is distinguished into individual tooth areas represented by individual teeth according to a tooth formula discrimination standard including tooth surface curvature information.
상기 치식 구별 기준은 상기 치아의 크기 정보 및 형상 정보 중 적어도 하나를 더 포함하는 것을 특징으로 하는 데이터 처리 방법.In claim 6,
The data processing method characterized in that the tooth formula discrimination criterion further includes at least one of size information and shape information of the tooth.
상기 주의 영역은
상기 3차원 모델 중 스캔 데이터가 입력되지 않은 공백 영역, 및
상기 3차원 모델 중 스캔 데이터가 소정 임계밀도 미만으로 입력된 저밀도 영역 중 적어도 하나를 포함하는 것을 특징으로 하는 데이터 처리 방법.In claim 1,
The above caution area is
A blank area in the 3D model where scan data is not input, and
A data processing method comprising at least one of low-density areas in which scan data is input below a predetermined critical density among the three-dimensional models.
상기 완성도를 판단하는 단계는,
상기 3차원 모델의 개별 치아 영역 별로 상이한 임계값을 기초로 상기 완성도를 판단하는 것을 특징으로 하는 데이터 처리 방법.In claim 1,
The step of determining the degree of completeness is,
A data processing method characterized in that the completeness is determined based on a different threshold for each individual tooth area of the three-dimensional model.
상기 공백 영역은,
상기 3차원 모델을 기저장된 템플릿에 얼라인하고, 상기 템플릿의 표면으로부터 생성되는 적어도 하나의 광선을 통한 교차 검사(intersection test)를 이용하여 감지된 홀 영역을 포함하는 것을 특징으로 하는 데이터 처리 방법.In claim 9,
The blank area is,
A data processing method comprising aligning the three-dimensional model to a pre-stored template and including a hole area detected using an intersection test using at least one ray generated from the surface of the template.
상기 공백 영역은,
상기 3차원 모델을 구성하는 스캔 데이터들의 경계에 의해 생성되는 내부 폐루프 영역을 포함하는 것을 특징으로 하는 데이터 처리 방법.In claim 9,
The blank area is,
A data processing method comprising an internal closed loop area created by boundaries of scan data constituting the three-dimensional model.
상기 저밀도 영역은,
획득된 스캔 데이터의 수 및 상기 스캔 데이터들 간의 스캔 각도 중 적어도 하나를 기준으로 계산되는 것을 특징으로 하는 데이터 처리 방법.In claim 9,
The low-density area is,
A data processing method characterized in that the calculation is based on at least one of the number of acquired scan data and the scan angle between the scan data.
상기 3차원 모델의 완성도 판단 결과에 기초하여 사용자에게 피드백을 발생시키는 단계; 를 더 포함하는 것을 특징으로 하는 데이터 처리 방법.In claim 1,
Generating feedback to the user based on a result of determining the completeness of the 3D model; A data processing method further comprising:
상기 주의 영역은 사용자에게 피드백되는 것을 특징으로 하는 데이터 처리 방법.
In claim 1,
A data processing method, characterized in that the attention area is fed back to the user.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2021/015667 WO2022098039A1 (en) | 2020-11-05 | 2021-11-02 | Data processing method |
US18/035,461 US20230290093A1 (en) | 2020-11-05 | 2021-11-02 | Data processing method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200146535 | 2020-11-05 | ||
KR20200146535 | 2020-11-05 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220061001A KR20220061001A (en) | 2022-05-12 |
KR102632338B1 true KR102632338B1 (en) | 2024-02-01 |
Family
ID=81590431
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210137277A KR102632338B1 (en) | 2020-11-05 | 2021-10-15 | Data processing method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102632338B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040027347A1 (en) | 2002-06-12 | 2004-02-12 | Ali Farsaie | Discrete linear space sampling method and apparatus for generating digital 3D models |
KR101295610B1 (en) * | 2012-11-02 | 2013-08-12 | 주식회사 리얼오쏘 | Teeth coloring device |
US20150150684A1 (en) | 2012-06-05 | 2015-06-04 | Dental Vision B.V.B.A. | Method for manufacturing a template to adapt the shape of a bone defect in a jaw to a bone superstructure |
KR101915215B1 (en) * | 2014-05-07 | 2018-11-06 | 얼라인 테크널러지, 인크. | Identification of areas of interest during intraoral scans |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2642167C2 (en) | 2015-08-14 | 2018-01-24 | Самсунг Электроникс Ко., Лтд. | Device, method and system for reconstructing 3d-model of object |
-
2021
- 2021-10-15 KR KR1020210137277A patent/KR102632338B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040027347A1 (en) | 2002-06-12 | 2004-02-12 | Ali Farsaie | Discrete linear space sampling method and apparatus for generating digital 3D models |
US20150150684A1 (en) | 2012-06-05 | 2015-06-04 | Dental Vision B.V.B.A. | Method for manufacturing a template to adapt the shape of a bone defect in a jaw to a bone superstructure |
KR101295610B1 (en) * | 2012-11-02 | 2013-08-12 | 주식회사 리얼오쏘 | Teeth coloring device |
KR101915215B1 (en) * | 2014-05-07 | 2018-11-06 | 얼라인 테크널러지, 인크. | Identification of areas of interest during intraoral scans |
Also Published As
Publication number | Publication date |
---|---|
KR20220061001A (en) | 2022-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7840042B2 (en) | Superposition for visualization of three-dimensional data acquisition | |
US11723759B2 (en) | Detecting tooth shade | |
US9245374B2 (en) | Space carving in 3D data acquisition | |
CN110381880A (en) | Method for constructing dummy | |
CN107595413A (en) | Tooth preparations guiding piece | |
KR102232294B1 (en) | Method for displaying multi-bone density for dental implant planning and image processing apparatus thereof | |
JP2022516488A (en) | Teeth segmentation using tooth alignment | |
TWI744859B (en) | Method for detecting tooth object and method and apparatus for matching of images using tooth object | |
KR102632338B1 (en) | Data processing method | |
KR102534778B1 (en) | Method and apparatus for obtaining three dimensional data and computer readable medium storing a program for performing the same method | |
US20230290093A1 (en) | Data processing method | |
JP7245335B2 (en) | A blended method of acquiring 3D data using an intraoral scanner | |
KR102474298B1 (en) | Method for designing prosthetic model and apparatus thereof | |
US20240058105A1 (en) | Augmentation of 3d surface of dental site using 2d images | |
US11961238B2 (en) | Tooth segmentation using tooth registration | |
KR102593160B1 (en) | Data processing method | |
US20230218374A1 (en) | Data processing apparatus, data processing method, and data processing system | |
KR102344520B1 (en) | Dental implant simulation method and apparatus thereof | |
EP4113373A1 (en) | Dental procedures | |
US20230218375A1 (en) | Data processing apparatus, data processing method, and data processing system | |
Pupykina et al. | Algorithm for the boundary detection of dental crowns for 3D dental model segmentation | |
WO2024039547A1 (en) | Augmentation of 3d surface of dental site using 2d images | |
KR20220163859A (en) | Data processing method | |
CN115438017A (en) | Data processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |