KR102632338B1 - Data processing method - Google Patents

Data processing method Download PDF

Info

Publication number
KR102632338B1
KR102632338B1 KR1020210137277A KR20210137277A KR102632338B1 KR 102632338 B1 KR102632338 B1 KR 102632338B1 KR 1020210137277 A KR1020210137277 A KR 1020210137277A KR 20210137277 A KR20210137277 A KR 20210137277A KR 102632338 B1 KR102632338 B1 KR 102632338B1
Authority
KR
South Korea
Prior art keywords
area
model
data processing
tooth
processing method
Prior art date
Application number
KR1020210137277A
Other languages
Korean (ko)
Other versions
KR20220061001A (en
Inventor
이동훈
Original Assignee
주식회사 메디트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메디트 filed Critical 주식회사 메디트
Priority to PCT/KR2021/015667 priority Critical patent/WO2022098039A1/en
Priority to US18/035,461 priority patent/US20230290093A1/en
Publication of KR20220061001A publication Critical patent/KR20220061001A/en
Application granted granted Critical
Publication of KR102632338B1 publication Critical patent/KR102632338B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7221Determining signal validity, reliability or quality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • A61C13/0003Making bridge-work, inlays, implants or the like
    • A61C13/0004Computer-assisted sizing or machining of dental prostheses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam

Abstract

본 발명에 따른 데이터 처리 방법은, 3차원 모델에서, 적어도 하나의 치아 영역을 포함하는 분석 영역을 구별하는 단계, 및 상기 분석 영역을 기초로 상기 3차원 모델의 완성도를 판단하는 단계를 포함한다.The data processing method according to the present invention includes the steps of distinguishing an analysis area including at least one tooth area in a 3D model, and determining the completeness of the 3D model based on the analysis area.

Description

데이터 처리 방법{Data processing method}Data processing method

본 발명은 데이터 처리 방법에 관한 것이며, 보다 상세하게는 대상체의 3차원 모델을 획득하여, 상기 3차원 모델의 완성도를 판단하는 데이터 처리 방법에 관한 것이다.The present invention relates to a data processing method, and more specifically, to a data processing method for obtaining a three-dimensional model of an object and determining the completeness of the three-dimensional model.

3차원 스캐닝 기술은 측정, 검사, 역설계, 컨텐츠 생성, 치과 치료용 CAD/CAM, 의료기기 등 다양한 산업 분야에서 사용되고 있으며 컴퓨팅 기술의 발전으로 인한 스캐닝 성능의 향상으로 인해 그 실용성이 더욱 확대되고 있다. 특히, 치과 치료 분야에서, 3차원 스캐닝 기술은 환자의 치료를 위하여 수행되므로, 3차원 스캐닝을 통해 획득되는 3차원 모델은 높은 완성도를 가질 것이 요구된다.3D scanning technology is used in various industrial fields such as measurement, inspection, reverse engineering, content creation, CAD/CAM for dental treatment, and medical devices, and its practicality is further expanding due to improvements in scanning performance due to advances in computing technology. . In particular, in the field of dental treatment, 3D scanning technology is performed for the treatment of patients, so 3D models obtained through 3D scanning are required to have a high level of completeness.

3차원 스캐너를 통해 3차원 모델을 생성하는 과정에서, 3차원 스캐너는 측정 대상에 대한 촬영을 통해 획득한 이미지 데이터(2차원 또는 3차원)를 3차원 모델로 변환함으로써 전체 3차원 모델 데이터를 획득한다. 또한, 측정 대상을 면밀히 촬영할수록 3차원 스캐너가 획득하는 이미지는 증가하고, 그에 따라 실시간으로 변환된 3차원 모델에 대한 최종 데이터의 신뢰도는 향상된다.In the process of creating a 3D model through a 3D scanner, the 3D scanner acquires the entire 3D model data by converting image data (2D or 3D) acquired through photography of the measurement object into a 3D model. do. In addition, the more closely the measurement object is photographed, the more images the 3D scanner acquires, and thus the reliability of the final data for the 3D model converted in real time improves.

종래에, 측정 대상에 대한 최종 데이터의 완성도 및/또는 신뢰도는 사용자의 개인적인 판단에 의존하였다. 다만, 사용자의 개인적인 판단은 그 기준이 모호하며 오직 감각에 의존하는 바, 최종 데이터의 완성도를 신뢰하기 어려운 문제점이 있었다.Conventionally, the completeness and/or reliability of final data for a measurement object depended on the user's personal judgment. However, the user's personal judgment has ambiguous standards and relies only on senses, so there is a problem in that it is difficult to trust the completeness of the final data.

이를 개선하기 위하여, 최근에는 3차원 모델에 소정 색상을 부여하거나 패턴을 적용하여 신뢰도를 시각적으로 표시하는 방법이 사용되었다. 예시적으로, 3차원 모델을 구성하는 데이터의 신뢰도에 따라, 낮은 신뢰도 영역은 적색, 중간 신뢰도 영역은 황색, 그리고 높은 신뢰도 영역은 녹색으로 표시하는 유저 인터페이스(user interface, UI)가 존재하였다.To improve this, a method of visually indicating reliability by assigning a predetermined color or applying a pattern to a 3D model has recently been used. For example, depending on the reliability of the data constituting the 3D model, there was a user interface (UI) that displayed low reliability areas in red, medium reliability areas in yellow, and high reliability areas in green.

그러나, 이러한 방법은 사용자에게 지속적으로 유저 인터페이스가 나타나는 디스플레이 장치를 주시해야 하는 단점이 있었다. 도 1에 도시된 유저 인터페이스 화면과 같이, 데이터의 신뢰도를 3차원 모델 상에 색상 등으로 나타내는 이른바 ‘신뢰도 맵’에서 3차원 모델의 실제 색상을 확인하기 위해, 사용자는 디스플레이 모드를 전환하는 버튼을 클릭하여야 했다. 예시적으로, 도 1을 참조하면, 3차원 모델의 신뢰도가 제1 신뢰도 색상(RD1), 제2 신뢰도 색상(RD2), 및 제3 신뢰도 색상(RD3)을 사용하여 표현될 수 있다. 신뢰도 색상(RD1, RD2, RD3)은 예시적인 것이며, 신뢰도를 나타내기 위한 다양한 수단(패턴 등)이 사용될 수 있다.However, this method had the disadvantage of requiring the user to constantly keep an eye on the display device on which the user interface appears. As shown in the user interface screen shown in Figure 1, in order to check the actual color of the 3D model in the so-called 'reliability map', which indicates the reliability of data in colors, etc. on the 3D model, the user presses the button to switch the display mode. I had to click. Exemplarily, referring to FIG. 1 , the reliability of a 3D model may be expressed using a first reliability color (RD1), a second reliability color (RD2), and a third reliability color (RD3). Reliability colors (RD1, RD2, RD3) are exemplary, and various means (patterns, etc.) to indicate reliability may be used.

또한, 사용자는 모드 전환 버튼(12)을 클릭하여 3차원 모델의 신뢰도를 나타내는 모드와 3차원 모델의 실제 색상을 나타내는 모드를 전환하여, 각각의 모드에서 나타나는 정보(신뢰도 또는 3차원 모델의 실제 색상)를 택일적으로 확인할 수밖에 없었다. 이러한 과정은 사용자에게 불필요한 조작을 요구하였고, 사용자가 3차원 모델을 신속하게 분석하는 것을 방해하였다. In addition, the user clicks the mode switching button 12 to switch between the mode representing the reliability of the 3D model and the mode representing the actual color of the 3D model, and the information displayed in each mode (reliability or actual color of the 3D model) ) had no choice but to check selectively. This process required unnecessary manipulation from the user and prevented the user from quickly analyzing the 3D model.

또한, 신뢰도를 나타내는 모드를 사용하더라도, 사용자는 여전히 사용자의 시각적 판단에 의해 3차원 모델의 완성도를 판단할 수밖에 없었으며, 이는 일정한 수준 이상의 3차원 모델의 완성도를 보장하지 못하는 문제가 있다.In addition, even if a mode indicating reliability is used, the user still has no choice but to judge the completeness of the 3D model based on the user's visual judgment, which has the problem of not guaranteeing the completeness of the 3D model above a certain level.

따라서, 전술한 바와 같은 단점을 해소하기 위한 방법이 요구되고 있다.Accordingly, there is a need for a method to solve the above-described shortcomings.

대한민국 공개특허 10-2017-0020210호 (2017.02.22 공개)Republic of Korea Patent Publication No. 10-2017-0020210 (published on February 22, 2017)

본 발명은 사용자의 개인적인 판단이 요구되지 않고, 시스템 자체적으로 정량적인 데이터의 신뢰도를 판단하여, 사용자에게 그 판단 결과를 피드백할 수 있는 데이터 처리 방법을 제공하기 위한 것이다.The present invention is intended to provide a data processing method that does not require the user's personal judgment, but allows the system to determine the reliability of quantitative data on its own and feed back the judgment result to the user.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below.

전술한 바와 같은 목적을 달성하기 위해서, 본 발명에 따른 데이터 처리 방법은, 3차원 모델에서, 적어도 하나의 치아 영역을 포함하는 분석 영역을 구별하는 단계, 및 상기 분석 영역을 기초로 상기 3차원 모델의 완성도를 판단하는 단계를 포함한다.In order to achieve the above-described object, the data processing method according to the present invention includes distinguishing an analysis area including at least one tooth area in a three-dimensional model, and analyzing the three-dimensional model based on the analysis area. It includes the step of determining the degree of completeness.

또한, 본 발명에 따른 데이터 처리 방법은 전술한 단계들을 포함하여 다른 추가적인 단계들을 더 포함할 수 있으며, 이에 따라 사용자가 3차원 모델의 완성도를 용이하게 확인할 수 있도록 한다.In addition, the data processing method according to the present invention may further include other additional steps including the steps described above, thereby allowing the user to easily check the completeness of the 3D model.

본 발명에 따른 데이터 처리 방법을 사용함으로써, 사용자는 충분한 신뢰도를 가지는 3차원 모델을 용이하게 획득할 수 있는 이점이 있다.By using the data processing method according to the present invention, the user has the advantage of being able to easily obtain a three-dimensional model with sufficient reliability.

또한, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 3차원 모델 전체가 아닌 분석 영역에 대해 완성도를 판단하므로, 데이터 처리 시간을 단축시키는 이점이 있다.In addition, by using the data processing method according to the present invention, the completeness is judged for the analysis area rather than the entire 3D model, which has the advantage of shortening the data processing time.

또한, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 사용자는 자의적인 판단에 의하지 않고 정확히 계산되어 판단된 결과에 기초하여, 3차원 모델이 신뢰할 수 있을 정도의 완성도를 가졌는지 용이하게 확인할 수 있는 이점이 있다.In addition, by using the data processing method according to the present invention, the user has the advantage of being able to easily check whether the 3D model has a reliable degree of completeness based on the accurately calculated and judged results without relying on arbitrary judgment. there is.

또한, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 개별 치아 영역 별로 상이한 완성도 판단 임계값이 적용되어, 보다 중요한 치아에 대해 정밀하게 스캔하여 3차원 모델을 획득할 수 있는 이점이 있다.In addition, by using the data processing method according to the present invention, a different completeness judgment threshold is applied to each individual tooth area, which has the advantage of accurately scanning more important teeth to obtain a three-dimensional model.

또한, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 사용자는 주의 영역으로 감지된 3차원 모델의 부분들을 시각적으로 용이하게 확인할 수 있으며, 주의 영역을 최소화하기 위한 추가적인 스캔을 진행할 때 소요되는 시간과 노력을 절약하는 이점이 있다.In addition, by using the data processing method according to the present invention, the user can easily visually check the parts of the 3D model detected as attention areas, and reduce the time and effort required to perform additional scans to minimize the attention area. There is an advantage in saving.

도 1은 종래 기술에 따른 신뢰도 맵을 설명하기 위한 것이다.
도 2는 본 발명에 따른 데이터 처리 방법의 순서도이다.
도 3은 분석 영역을 설정하는 과정을 설명하기 위한 것이다.
도 4는 대상체를 스캔하여 3차원 모델을 획득하는 과정을 설명하기 위한 것이다.
도 5는 본 발명에 따른 데이터 처리 방법 중 분석 영역을 구별하는 단계의 세부 순서도이다.
도 6은 치아 영역을 개별 치아 영역으로 구별하기 위해 사용되는 구별 기준을 설명하기 위한 것이다.
도 7은 주의 영역 중 공백 영역을 감지하는 일 과정을 설명하기 위한 것이다.
도 8은 주의 영역 중 공백 영역을 감지하는 다른 과정을 설명하기 위한 것이다.
도 9는 본 발명에 따른 데이터 처리 방법 중 완성도를 판단 결과에 기초하여 피드백을 발생시키는 단계를 설명하기 위한 것이다.
도 10은 사용자에게 피드백되는 주의 영역을 설명하기 위한 것이다.
도 11은 본 발명의 다른 실시예에 따른 데이터 처리 방법의 순서도이다.
도 12는 분석 영역을 설정하는 과정을 설명하기 위한 것이다.
도 13은 본 발명에 따른 데이터 처리 방법을 수행하는 데이터 처리 장치의 개략적인 구성도이다.
Figure 1 is for explaining a reliability map according to the prior art.
Figure 2 is a flowchart of a data processing method according to the present invention.
Figure 3 is for explaining the process of setting an analysis area.
Figure 4 is to explain the process of obtaining a 3D model by scanning an object.
Figure 5 is a detailed flowchart of the step of distinguishing analysis areas in the data processing method according to the present invention.
Figure 6 is for explaining the distinction criteria used to distinguish tooth regions into individual tooth regions.
Figure 7 is to explain the process of detecting a blank area in the attention area.
Figure 8 is to explain another process for detecting a blank area in the attention area.
Figure 9 is for explaining the step of generating feedback based on the result of determining completeness in the data processing method according to the present invention.
Figure 10 is for explaining the attention area fed back to the user.
11 is a flowchart of a data processing method according to another embodiment of the present invention.
Figure 12 is for explaining the process of setting an analysis area.
Figure 13 is a schematic configuration diagram of a data processing device that performs the data processing method according to the present invention.

이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail through illustrative drawings. When adding reference numerals to components in each drawing, it should be noted that identical components are given the same reference numerals as much as possible even if they are shown in different drawings. Additionally, when describing embodiments of the present invention, if detailed descriptions of related known configurations or functions are judged to impede understanding of the embodiments of the present invention, the detailed descriptions will be omitted.

본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In describing the components of the embodiment of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are only used to distinguish the component from other components, and the nature, sequence, or order of the component is not limited by the term. Additionally, unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as generally understood by a person of ordinary skill in the technical field to which the present invention pertains. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted in an ideal or excessively formal sense unless explicitly defined in the present application. No.

도 2는 본 발명에 따른 데이터 처리 방법의 순서도이다.Figure 2 is a flowchart of a data processing method according to the present invention.

도 2를 참조하면, 본 발명에 따른 데이터 처리 방법은 분석 영역을 설정하는 단계(S110), 3차원 모델을 획득하는 단계(S120), 분석 영역을 구별하는 단계(S130), 완성도를 판단하는 단계(S140), 및 피드백을 발생시키는 단계(S150)를 포함한다. 상기 단계들 및 상기 단계들이 가지는 세부 단계들에 따라, 본 발명에 따른 데이터 처리 방법이 수행될 수 있다.Referring to Figure 2, the data processing method according to the present invention includes the steps of setting an analysis area (S110), obtaining a 3D model (S120), distinguishing the analysis area (S130), and determining the degree of completeness. (S140), and generating feedback (S150). According to the steps and the detailed steps included in the steps, the data processing method according to the present invention can be performed.

이하에서는, 본 발명에 따른 데이터 처리 방법의 각 단계를 보다 상세하게 설명한다.Below, each step of the data processing method according to the present invention will be described in more detail.

도 3은 분석 영역을 설정하는 과정을 설명하기 위한 것이다.Figure 3 is for explaining the process of setting an analysis area.

도 2 및 도 3을 참조하면, 본 발명에 따른 데이터 처리 방법은 분석 영역을 설정하는 단계(S110)를 포함한다. 이 때, 분석 영역(100)은 3차원 모델의 완성도를 판단하기 위한 영역에 해당하며, 본 발명에 따른 데이터 처리 방법에서, 3차원 모델의 완성도는 3차원 모델 전체가 아니라 분석 영역(100)으로 설정된 3차원 모델의 적어도 일부분을 기준으로 판단된다. 도 3에 도시된 바에 따르면, 유저 인터페이스 화면(600)에 분석 영역(100)을 설정하기 위한 표준 구강 형상이 나타난다. 표준 구강 형상은 대상체를 나타내는 3차원 모델과는 상이한 것이며, 후술하는 분석 영역(100)을 설정하기 위해 일반적인 구강 배치를 도식적으로 나타낸 2차원 형상 또는 3차원 형상일 수 있다. 도 3에 도시된 바와 같이, 유저 인터페이스 화면(600)에 나타난 표준 구강 형상에서, 분석 영역(100)으로 설정될 부분들이 선택될 수 있다. 예시적으로, 분석 영역(100)은 상악 분석 영역(100a)과 하악 분석 영역(100b)을 포함할 수 있다. 사용자는 상악 분석 영역(100a)에서 상악에 배치된 치아들 중 적어도 하나를 분석 영역(100)으로 선택할 수 있거나, 하악 분석 영역(100b)에서 하악에 배치된 치아들 중 적어도 하나를 분석 영역(100)으로 선택할 수 있다. 즉, 분석 영역(100)은 상악 분석 영역(100a)의 적어도 일부 및/또는 하악 분석 영역(100b)의 적어도 일부로 설정될 수 있다. 예시적으로, 도 3에 도시된 바에 따르면, 분석 영역(100)은 상악 분석 영역(100a) 중 제1 치아(101), 제2 치아(102), 및 제3 치아(103)로 결정될 수 있다.Referring to Figures 2 and 3, the data processing method according to the present invention includes setting an analysis area (S110). At this time, the analysis area 100 corresponds to an area for determining the completeness of the 3D model. In the data processing method according to the present invention, the completeness of the 3D model is determined by the analysis area 100 rather than the entire 3D model. It is judged based on at least part of the set 3D model. As shown in FIG. 3, a standard oral shape for setting the analysis area 100 appears on the user interface screen 600. The standard oral shape is different from the three-dimensional model representing the object, and may be a two-dimensional or three-dimensional shape that schematically represents the general oral cavity arrangement to set the analysis area 100, which will be described later. As shown in FIG. 3, from the standard oral cavity shape shown on the user interface screen 600, portions to be set as the analysis area 100 may be selected. By way of example, the analysis area 100 may include an upper jaw analysis area 100a and a lower jaw analysis area 100b. The user may select at least one of the teeth placed in the upper jaw in the maxillary analysis area 100a as the analysis area 100, or select at least one of the teeth placed in the lower jaw in the mandibular analysis area 100b as the analysis area 100. ) can be selected. That is, the analysis area 100 may be set to at least a portion of the upper jaw analysis area 100a and/or at least a portion of the lower jaw analysis area 100b. Exemplarily, as shown in FIG. 3, the analysis area 100 may be determined as the first tooth 101, the second tooth 102, and the third tooth 103 among the maxillary analysis area 100a. .

도 4는 대상체를 스캔하여 3차원 모델을 획득하는 과정을 설명하기 위한 것이다.Figure 4 is to explain the process of obtaining a 3D model by scanning an object.

도 2 및 도 4를 참조하면, 본 발명에 따른 데이터 처리 방법은 대상체를 스캔하여 상기 대상체의 3차원 모델을 획득하는 단계(S120)를 포함할 수 있다. 대상체(Object)는 환자의 치아를 나타내는 것일 수 있다. 예시적으로, 대상체는 환자의 실제 구강일 수도 있고, 환자의 구강을 인상채득하여 획득한 주형에 석고를 가하여 생성된 석고 모형일 수도 있다.Referring to FIGS. 2 and 4 , the data processing method according to the present invention may include scanning an object to obtain a three-dimensional model of the object (S120). The object may represent the patient's teeth. Illustratively, the object may be the patient's actual mouth, or may be a plaster model created by applying plaster to a mold obtained by taking an impression of the patient's mouth.

사용자는 스캐너를 사용하여 대상체를 스캔하고, 대상체의 3차원 모델(200)을 획득할 수 있다. 이 때, 스캐너는 3차원 스캐너일 수 있다. 예시적으로, 3차원 스캐너는 트레이 상에 대상체를 배치하고, 상기 트레이가 회전 또는 틸팅 회동하면서 일측에 형성된 카메라를 통해 대상체의 3차원 모델(200)을 획득하는 테이블 스캐너이거나, 사용자가 직접 파지하여 대상체와의 다양한 각도 및 거리에서 스캔하여 3차원 모델(200)을 획득하는 핸드헬드(handheld) 방식의 스캐너일 수도 있다.A user can scan an object using a scanner and obtain a three-dimensional model 200 of the object. At this time, the scanner may be a 3D scanner. For example, the 3D scanner is a table scanner that places an object on a tray and obtains a 3D model 200 of the object through a camera formed on one side while the tray rotates or tilts, or the user directly holds the object and It may be a handheld scanner that obtains a 3D model 200 by scanning at various angles and distances from the object.

스캐너를 사용하여 획득한 3차원 모델(200)은 환자의 구강 또는 환자의 구강을 본뜬 석고 모형을 나타내므로, 3차원 모델(200)은 치아를 나타내는 치아 영역(210)과 치은을 나타내는 치은 영역(220)을 포함할 수 있다. 치아 영역(210)과 치은 영역(220)은 소정 구별 기준을 통해 영역별로 구별될 수 있으며, 그 구별 과정에 대해서는 후술한다.Since the three-dimensional model 200 acquired using a scanner represents the patient's mouth or a plaster model modeled after the patient's mouth, the three-dimensional model 200 includes a tooth area 210 representing teeth and a gingival area representing the gingiva ( 220) may be included. The tooth area 210 and the gingival area 220 can be distinguished by region through a predetermined distinction standard, and the distinction process will be described later.

도 5는 본 발명에 따른 데이터 처리 방법 중 분석 영역을 구별하는 단계의 세부 순서도이고, 도 6은 치아 영역을 개별 치아 영역으로 구별하기 위해 사용되는 구별 기준을 설명하기 위한 것이다.Figure 5 is a detailed flowchart of the step of distinguishing analysis areas in the data processing method according to the present invention, and Figure 6 is for explaining the distinction criteria used to distinguish tooth areas into individual tooth areas.

도 2 내지 도 5를 참조하면, 본 발명에 따른 데이터 처리 방법은, 획득한 3차원 모델(200)에서 적어도 하나의 치아 영역(210)을 포함하는 분석 영역을 구별하는 단계(S130)를 포함할 수 있다. 분석 영역을 구별하는 단계(S130)는 3차원 모델(200) 중 완성도 판단에 사용되는 적어도 일부의 영역을 3차원 모델(200) 전체로부터 결정하는 것을 의미할 수 있다. 예시적으로, 전술한 분석 영역을 설정하는 단계(S110)에서, 대상체의 치아 전체를 분석 영역(100)으로 설정한 경우, 3차원 모델(200) 중 치아 영역(210)이 분석 영역(100)으로 구별, 및 결정될 수 있다. 예시적으로, 치아 영역(210)은 3차원 모델(200)의 치아 전체 영역을 포함할 수 있다. 즉, 치아 영역(210)은 3차원 모델(200) 중 치은 영역(220)을 제외한 모든 영역을 의미할 수 있다. 예시적으로, 3차원 모델(200) 중 상악을 나타내는 부분과 하악을 나타내는 부분에서 치아 전체를 분석 영역(100)으로 설정한 경우, 3차원 모델(200)에서 상악의 치아 전체를 나타내는 치아 영역(210)과 하악의 치아 전체를 나타내는 치아 영역(210)이 분석 영역(100)으로 결정될 수 있다.2 to 5, the data processing method according to the present invention may include a step (S130) of distinguishing an analysis area including at least one tooth area 210 in the obtained three-dimensional model 200. You can. The step of distinguishing the analysis area (S130) may mean determining at least some areas of the 3D model 200 that are used to determine completeness from the entire 3D model 200. For example, in the step of setting the analysis area described above (S110), when all of the object's teeth are set as the analysis area 100, the tooth area 210 of the 3D model 200 is the analysis area 100. can be distinguished, and determined. By way of example, the tooth area 210 may include the entire tooth area of the 3D model 200 . In other words, the tooth area 210 may mean all areas of the 3D model 200 except the gingival area 220. As an example, if the entire teeth in the part representing the upper jaw and the part representing the lower jaw in the 3D model 200 are set as the analysis area 100, the tooth area representing all the teeth in the upper jaw in the 3D model 200 ( 210 and the tooth area 210 representing all teeth of the lower jaw may be determined as the analysis area 100.

필요에 따라, 분석 영역(200)을 환자의 치아 전체로 설정할 때, 본 발명에 따른 데이터 처리 방법은 구별된 치아 영역(210)과 함께, 상기 치아 영역(210)을 둘러싸는 치은 영역(220) 중 적어도 일부를 분석 영역(200)으로 결정할 수 있다. 예시적으로, 분석 영역(200)은 치아 영역(210)의 주위로 소정 거리 이내의 치은 영역(220) 일부를 포함하도록 결정될 수 있다. 분석 영역(200)이 치은 영역(220) 일부를 포함하도록 결정됨으로써, 치아 자체를 나타내는 부분만 아니라 치아가 존재하는 치은 일부를 포함하여 3차원 모델의 완성도가 판단될 수 있다. 이로써, 사용자는 치아 삭제(preparation) 등으로 인하여 필요한 치아의 마진 라인(margin line)이 정밀하게 스캔되었는지 용이하게 확인할 수 있는 이점이 있다.If necessary, when setting the analysis area 200 to the entire patient's teeth, the data processing method according to the present invention includes a differentiated tooth area 210 and a gingival area 220 surrounding the tooth area 210. At least part of the area may be determined as the analysis area 200. Illustratively, the analysis area 200 may be determined to include a portion of the gingival area 220 within a predetermined distance around the tooth area 210. By determining the analysis area 200 to include a portion of the gingival area 220, the completeness of the three-dimensional model can be determined by including not only the portion representing the tooth itself but also a portion of the gingiva where the tooth exists. Thereby, the user has the advantage of being able to easily check whether the margin line of the tooth required for tooth preparation, etc. has been precisely scanned.

이하에서는, 분석 영역을 구별하는 단계(S130)의 세부 단계에 대해 보다 상세히 설명한다.Below, the detailed steps of the step of distinguishing the analysis area (S130) will be described in more detail.

분석 영역을 구별하는 단계(S130)에서, 3차원 모델(200)은 치아를 나타내는 치아 영역(210)과 치은을 나타내는 치은 영역(220)으로 구별될 수 있다. 즉, 분석 영역을 구별하는 단계(S130)는 3차원 모델에서 치아 영역과 치은 영역을 구별하는 단계(S131)를 포함할 수 있다. 3차원 모델(200)을 치아 영역(210)과 치은 영역(220)으로 구별하기 위해, 소정 구별 정보들 중 적어도 하나가 사용될 수 있다. 상기 구별 정보는 색상 정보 및 굴곡 정보 중 적어도 하나를 포함할 수 있다. 예시적으로, 대상체가 환자의 실제 구강인 경우, 치은은 선홍색 또는 분홍색을 가지고, 치아는 백색 또는 상아색(아이보리색)을 가질 수 있다. 3차원 모델(200)은 복수의 복셀(voxel)로 디스플레이될 수 있고, 각각의 복셀은 상기 3차원 모델(200)이 대상체에 대응되는 위치의 색상 정보를 포함할 수 있다. 구별 정보로 색상 정보가 사용되는 경우, 3차원 모델(200)은 각각의 복셀이 가지는 색상 정보에 따라 치아 영역(210)에 해당하는 영역 또는 치은 영역(220)에 해당하는 영역으로 구별될 수 있다. 다만, 이에 한정되는 것은 아니며, 3차원 모델을 획득하는 단계(S120)에서 대상체의 3차원 모델(200)을 생성하기 위해 획득되는 평면의 2차원 이미지 데이터(미도시)를 기초로 3차원 모델(200)의 치아 영역(210)과 치은 영역(220)이 구별될 수 있다. 예시적으로, 2차원 이미지 데이터는 복수의 픽셀들로 구성되고, 각각의 픽셀은 대상체의 대응되는 위치의 색상 정보를 포함할 수 있다. 상기 각각의 픽셀이 가지는 색상 정보에 따라, 2차원 이미지 데이터가 3차원 모델로 변환되어 생성되는 복셀에 상기 색상 정보가 할당될 수 있으며, 3차원 모델(200)은 치아 영역(210)과 치은 영역(220)으로 구별될 수 있다.In the step of distinguishing the analysis area (S130), the 3D model 200 may be divided into a tooth area 210 representing teeth and a gingival area 220 representing gingiva. That is, the step of distinguishing the analysis area (S130) may include the step of distinguishing the tooth area and the gingival area in the 3D model (S131). In order to distinguish the 3D model 200 into the tooth area 210 and the gingival area 220, at least one of predetermined distinction information may be used. The discrimination information may include at least one of color information and curvature information. Illustratively, when the object is the patient's actual oral cavity, the gingiva may have a bright red or pink color, and the teeth may have a white or ivory color. The 3D model 200 may be displayed as a plurality of voxels, and each voxel may include color information of a position where the 3D model 200 corresponds to an object. When color information is used as discrimination information, the 3D model 200 may be divided into an area corresponding to the tooth area 210 or an area corresponding to the gingival area 220 according to the color information of each voxel. . However, it is not limited to this, and a 3D model (not shown) is created based on planar 2D image data (not shown) acquired to generate the 3D model 200 of the object in the step of acquiring the 3D model (S120). The tooth area 210 and the gingival area 220 of 200 may be distinguished. By way of example, two-dimensional image data consists of a plurality of pixels, and each pixel may include color information of a corresponding position of the object. Depending on the color information of each pixel, the color information may be assigned to a voxel generated by converting two-dimensional image data into a three-dimensional model, and the three-dimensional model 200 includes a tooth area 210 and a gingival area. It can be distinguished as (220).

또한, 구별 정보로 굴곡 정보가 사용되는 경우, 3차원 모델(200)의 치아 영역(210)과 치은 영역(220)의 경계에서의 굴곡 값이 3차원 모델(200)의 다른 부분에서의 굴곡 값보다 크다. 따라서, 소정 임계값 이상의 굴곡 값을 가지는 부분을 경계로 하여, 3차원 모델(200)을 치아 영역(210)과 치은 영역(220)으로 구별할 수 있다.In addition, when curvature information is used as discrimination information, the curvature value at the boundary between the tooth area 210 and the gingival area 220 of the 3D model 200 is the curvature value in other parts of the 3D model 200. bigger than Accordingly, the 3D model 200 can be divided into a tooth area 210 and a gingival area 220 using a portion having a curvature value greater than a predetermined threshold as a boundary.

필요에 따라, 대상체를 스캔하여 획득한 3차원 모델(200)에 타액, 연조직(soft tissue)와 같은 노이즈 데이터가 포함되는 경우, 분석 영역을 구별하는 단계(S130)는 치아 영역(210)과 치은 영역(220) 외에 노이즈 영역(미도시)을 추가적으로 구별할 수 있다. 노이즈 영역은 3차원 모델(200)의 판단 기준에서 제외될 수 있고, 따라서 분석 영역(100)으로 결정되지 않는다. 또한, 노이즈 영역은 각각 또는 별도로 선택되어 3차원 모델(200)에서 삭제될 수 있다. 따라서, 3차원 모델(200)의 전체적인 완성도를 향상시킬 수 있다.If necessary, if the three-dimensional model 200 obtained by scanning the object includes noise data such as saliva or soft tissue, the step of distinguishing the analysis area (S130) is the tooth area 210 and the gingiva. In addition to the area 220, a noise area (not shown) may be additionally distinguished. The noise area may be excluded from the judgment criteria of the 3D model 200 and therefore is not determined as the analysis area 100. Additionally, noise areas may be individually or separately selected and deleted from the 3D model 200. Accordingly, the overall completeness of the 3D model 200 can be improved.

도 5 및 도 6을 참조하면, 분석 영역을 구별하는 단계(S130)는 치아 영역을 적어도 하나의 개별 치아 영역으로 구별하는 단계(S132)를 더 포함할 수 있다. 상기 개별 치아 영역으로 구별하는 단계(S132)는 전술한 분석 영역을 설정하는 단계(S110) 치아 영역 전체를 설정하지 않고 일부 치아만을 선택할 경우에 한정하여 수행될 수 있다.Referring to FIGS. 5 and 6 , the step of distinguishing the analysis area ( S130 ) may further include the step of distinguishing the tooth area into at least one individual tooth area ( S132 ). The step of distinguishing into individual tooth areas (S132) may be performed only when selecting only some teeth without setting the entire tooth area in the step of setting the analysis area (S110).

도 6에 도시된 바와 같이, 대상체(O)는 적어도 하나의 치아(T)를 포함하고, 각각의 치아(T)는 고유의 표면 굴곡(C) 정보를 가질 수 있다. 예시적으로, 제1 대구치, 제2 대구치, 제1 소구치, 제2 소구치, 견치, 전치는 서로 다른 표면 굴곡 정보를 가지며, 상기 표면 굴곡 정보는 본 발명에 따른 데이터 처리 방법이 수행되는 데이터 처리 시스템의 데이터베이스부에 기저장될 수 있다. 또한, 상기 표면 굴곡 정보는 딥러닝 기술을 사용하여 각각의 굴곡 정보에 대응되는 치식을 감지할 수 있도록 데이터베이스부에 기저장될 수 있다. 따라서, 치아 영역(210)은 치아(T)의 표면 굴곡(C) 정보를 포함하는 치식 구별 기준에 따라 개별 치아를 나타내는 개별 치아 영역으로 구별될 수 있다.As shown in FIG. 6, the object O includes at least one tooth T, and each tooth T may have unique surface curvature C information. Exemplarily, first molars, second molars, first premolars, second premolars, canines, and incisors have different surface curvature information, and the surface curvature information is used in a data processing system in which the data processing method according to the present invention is performed. It can be stored in the database part of . In addition, the surface curvature information can be pre-stored in the database so that the dental formula corresponding to each curvature information can be detected using deep learning technology. Accordingly, the tooth area 210 may be distinguished into individual tooth areas representing individual teeth according to a tooth formula discrimination standard including information on the surface curvature (C) of the tooth (T).

또한, 치아 영역(210)을 개별 치아 영역으로 구별하기 위한 치식 구별 기준으로 치아의 크기 정보, 치아의 형상 정보 등이 함께 사용될 수 있다. 예시적으로, 제1 대구치는 제1 소구치보다 크고, 제1 소구치는 견치보다 클 수 있다. 이와 같은 치아 간의 크기 관계에 따라, 3차원 모델(200)을 구성하는 치아들의 치식이 구별될 수 있으며, 개별 치아 영역이 결정되어 완성도 판단의 기초로 사용될 수 있다. 한편, 치식을 부여하는 방식은 FDI 방식, Palmer 방식, Universal numbering system 방식 중 어느 하나가 사용될 수 있으나, 나열되지 않은 다른 치식 부여 방식이 사용될 수도 있는 바, 치식 부여 방식의 종류는 제한되지 않는다.In addition, tooth size information, tooth shape information, etc. may be used together as a tooth formula discrimination standard for distinguishing the tooth area 210 into individual tooth areas. Exemplarily, the first molars may be larger than the first premolars, and the first premolars may be larger than the canines. According to the size relationship between teeth, the dental formulas of the teeth constituting the three-dimensional model 200 can be distinguished, and individual tooth areas can be determined and used as the basis for determining completeness. On the other hand, any one of the FDI method, Palmer method, and Universal numbering system method may be used as a method of assigning a tooth formula, but other dental formula granting methods not listed may be used, and the type of tooth granting method is not limited.

한편, 치아 영역(210)을 개별 치아 영역으로 구별하기 위해, 데이터베이스부에 기저장된 템플릿(template)이 이용될 수 있다. 템플릿은 데이터베이스부에 저장된 표준 치아를 나타내는 데이터로, 상기 템플릿은 치식에 대한 정보를 가지고 있다. 따라서, 3차원 모델(200)과 그 형상이 유사한 템플릿을 매칭함으로써, 치아 영역(210)에 형성된 치아들은 개별 치아 영역으로 구별될 수 있다.Meanwhile, in order to distinguish the tooth area 210 into individual tooth areas, a template previously stored in the database unit can be used. The template is data representing a standard tooth stored in the database unit, and the template has information about the dental formula. Therefore, by matching the 3D model 200 with a template having a similar shape, teeth formed in the tooth area 210 can be distinguished into individual tooth areas.

또는, 치아 영역(210)을 개별 치아 영역으로 구별하기 위해, 각각의 치아의 윤곽(또는 경계)에서 나타나는 굴곡 값이 이용될 수 있다. 예시적으로, 개별 치아의 윤곽에서 높은 굴곡 값이 나타나므로, 소정 임계값 이상의 굴곡 값을 가지는 3차원 모델(200)의 부분들을 통해 치식별로 개별 치아 영역을 구별할 수 있다.Alternatively, in order to distinguish the tooth area 210 into individual tooth areas, the curvature value appearing in the outline (or boundary) of each tooth may be used. For example, since a high curvature value appears in the outline of an individual tooth, individual tooth regions can be distinguished by tooth identification through parts of the 3D model 200 that have a curvature value greater than a predetermined threshold.

전술한 내용과 같이, 개별 치아 영역으로 구별하는 단계(S132)는 3차원 모델(200)에서 치아 영역(210)과 치은 영역(220)이 구별된 이후에 수행될 수도 있으나, 반드시 이에 한정되는 것은 아니다. 즉, 개별 치아 영역으로 구별하는 단계(S132)는 3차원 모델(200)이 치아 영역(210)과 치은 영역(220)으로 구별되는 S131 단계를 생략하고 바로 수행될 수도 있다.As described above, the step of distinguishing into individual tooth regions (S132) may be performed after the tooth region 210 and the gingival region 220 are distinguished in the 3D model 200, but is not necessarily limited to this. no. That is, the step S132 of distinguishing into individual tooth regions may be performed directly by omitting the step S131 of distinguishing the 3D model 200 into the tooth region 210 and the gingival region 220.

3차원 모델(200)에서 분석 영역(100)이 구별되면, 상기 분석 영역(100)을 기초로 3차원 모델(200)의 완성도를 판단하는 단계(S140)가 수행될 수 있다. 예시적으로, 3차원 모델(200)의 완성도는 상기 3차원 모델(200)이 신뢰할 수 있을 정도의 데이터가 축적된 정도를 나타낼 수 있다.When the analysis area 100 is distinguished from the 3D model 200, a step (S140) of determining the completeness of the 3D model 200 based on the analysis area 100 may be performed. As an example, the completeness of the 3D model 200 may indicate the extent to which data sufficient to make the 3D model 200 reliable has been accumulated.

3차원 모델(200)의 완성도를 판단하기 위한 데이터 신뢰도에 대해 설명한다. 3차원 모델(200)을 생성하기 위해, 복수의 스캔 데이터들이 필요하다. 예시적으로, 스캔 데이터들은 3차원 데이터의 샷(shot)들일 수 있다. 스캔 데이터들 중 적어도 일부는 상호 중첩되며, 스캔 데이터들 중 중첩되는 부분은 대상체의 동일한 부분을 나타낼 수 있다. 따라서, 스캔 데이터들은 중첩되는 부분에 의해 얼라인되어, 스캔 데이터들이 얼라인된 전체는 3차원 모델(200)이 될 수 있다.Data reliability for determining the completeness of the 3D model 200 will be explained. In order to create the 3D model 200, a plurality of scan data is required. By way of example, scan data may be shots of 3D data. At least some of the scan data overlap each other, and the overlapping portion of the scan data may represent the same part of the object. Accordingly, the scan data is aligned by overlapping portions, and the entire aligned scan data can become a three-dimensional model 200.

한편, 스캔 데이터들이 얼라인될 때, 상대적으로 많은 수의 데이터가 중첩된 부분은 높은 신뢰도를 가질 수 있고, 상대적으로 적은 수의 데이터가 중첩된 부분은 낮은 신뢰도를 가질 수 있다. 또한, 경우에 따라, 3차원 모델(200)이 생성될 때 데이터가 누락된 부분이 존재할 수 있으며, 상기 누락된 부분은 공백으로 남는다.Meanwhile, when scan data is aligned, a portion where a relatively large amount of data overlaps may have high reliability, and a portion where a relatively small number of data overlaps may have low reliability. Additionally, in some cases, when the 3D model 200 is created, there may be parts where data is missing, and the missing parts remain blank.

이 때, 3차원 모델(200)에서 공백으로 남은 영역과 낮은 신뢰도를 가지는 영역을 ‘주의 영역’으로 지칭할 수 있다. 보다 상세하게는, 주의 영역은 3차원 모델(200) 중 스캔 데이터가 입력되지 않은 공백 영역(hollow area), 및 3차원 모델(200) 중 스캔 데이터가 소정 임계밀도 미만으로 입력된 저밀도 영역(low-density area) 중 적어도 하나의 유형을 포함할 수 있다.At this time, the area remaining blank and the area with low reliability in the 3D model 200 may be referred to as the ‘attention area’. More specifically, the attention area includes a hollow area in the 3D model 200 where scan data is not input, and a low density area in the 3D model 200 where scan data is input below a predetermined threshold density. -density area).

이하에서는, 주의 영역 중 공백 영역에 대해 보다 상세히 설명한다.Below, the blank area among the attention areas will be described in more detail.

도 7은 주의 영역 중 공백 영역(B)을 감지하는 일 과정을 설명하기 위해 3차원 모델(200)과 템플릿(300)을 간략하게 표시한 것이다.Figure 7 briefly displays the 3D model 200 and template 300 to explain the process of detecting a blank area (B) in the attention area.

도 7을 참조하면, 공백 영역(B)은 3차원 모델(200)과 템플릿(300)을 이용하여 감지될 수 있다. 예시적으로, 3차원 모델(200)은 데이터베이스부에 저장된 템플릿(300)과 얼라인될 수 있다. 템플릿(300)은 대상체(O)의 표준적인 형상을 나타내며, 템플릿(300)은 이론적으로 주의 영역이 존재하지 않는 모델일 수 있다. 한편, 대상체(O)를 스캔하여 획득한 3차원 모델(200)은 템플릿(300)에 정렬되고, 템플릿(300)의 표면으로부터 적어도 하나의 광선이 생성된다. 예시적으로, 템플릿(300)의 표면으로부터 생성되는 광선은 복수일 수 있다. 보다 상세하게는, 광선들은 템플릿(300)의 표면을 구성하는 모든 메쉬의 꼭지점으로부터 생성될 수 있다. 생성된 광선들은 템플릿(300)의 표면의 법선 방향으로 진행하며, 상기 광선들 중 적어도 일부는 3차원 모델(200)의 표면과 만날 수 있다. 광선들은 템플릿(300)의 표면으로부터 양방향으로 진행하거나, 템플릿(300)으로부터 3차원 모델(200)을 향하는 일방향으로 진행할 수 있다. 이 때, 광선들 중 3차원 모델(200)의 표면과 만나지 않고 통과되는 부분들이 존재할 수 있으며, 이러한 부분들은 데이터가 입력되지 않은 부분들에 해당한다(도 7에서 빗금친 부분으로 표시됨). 따라서, 광선들이 3차원 모델(200)의 표면과 만나지 않고 통과되는 부분들은 공백 영역(B)으로 정의할 수 있다. 이와 같이 공백 영역(B)을 감지하기 위해 광선을 생성하고, 3차원 모델과 템플릿의 광선 교차 여부를 확인하는 과정을 교차 검사(intersection test)라고 한다.Referring to FIG. 7, the blank area B can be detected using the 3D model 200 and the template 300. As an example, the 3D model 200 may be aligned with the template 300 stored in the database unit. The template 300 represents the standard shape of the object O, and the template 300 may theoretically be a model in which an attention area does not exist. Meanwhile, the three-dimensional model 200 obtained by scanning the object O is aligned with the template 300, and at least one ray is generated from the surface of the template 300. By way of example, there may be multiple rays generated from the surface of the template 300. More specifically, rays may be generated from the vertices of all meshes constituting the surface of the template 300. The generated rays travel in the direction normal to the surface of the template 300, and at least some of the rays may meet the surface of the 3D model 200. The rays may proceed in two directions from the surface of the template 300 or may proceed in one direction from the template 300 toward the three-dimensional model 200. At this time, there may be parts of the rays that pass through without meeting the surface of the 3D model 200, and these parts correspond to parts for which no data has been input (indicated by the hatched part in FIG. 7). Accordingly, the portions through which rays pass without meeting the surface of the 3D model 200 can be defined as a blank area (B). In this way, the process of generating a ray to detect the blank area (B) and checking whether the ray of the 3D model and the template intersects is called an intersection test.

예시적으로 도 7에 도시된 바에 따르면, 제1 3차원 모델 표면(201)과 제2 3차원 모델 표면(202) 사이에 제1 공백 영역(B1)이 감지되고, 제2 3차원 모델 표면(202)과 제3 3차원 모델 표면(203) 사이에 제2 공백 영역(B2)이 감지되며, 제3 3차원 모델 표면(203)과 제4 3차원 모델 표면(204) 사이에 제3 공백 영역(B3)이 감지될 수 있다. 한편, 템플릿(300)의 표면으로부터 생성되는 광선의 수는 시스템의 사양, 데이터 처리 방법의 목표 수행 시간 등을 종합적으로 고려하여 적절한 수로 조절될 수 있으며, 사용자는 보다 정밀한 공백 영역(B)을 감지하기 위해서 생성되는 광선의 수를 증가시킬 수 있다.As exemplarily shown in FIG. 7, a first blank area B1 is detected between the first 3D model surface 201 and the second 3D model surface 202, and the second 3D model surface ( A second blank area B2 is detected between the third three-dimensional model surface 202) and the third three-dimensional model surface 203, and a third blank area B2 is detected between the third three-dimensional model surface 203 and the fourth three-dimensional model surface 204. (B3) can be detected. Meanwhile, the number of rays generated from the surface of the template 300 can be adjusted to an appropriate number by comprehensively considering the specifications of the system and the target execution time of the data processing method, and the user can detect the blank area (B) with more precision. To do this, the number of rays generated can be increased.

이하에서는, 주의 영역 중 공백 영역을 감지하는 다른 방식에 대해 보다 상세히 설명한다.Below, another method for detecting a blank area in the attention area will be described in more detail.

도 8은 주의 영역 중 공백 영역(B)을 감지하는 다른 과정을 설명하기 위한 것이다. Figure 8 is to explain another process for detecting a blank area (B) in the attention area.

도 8을 참조하면, 샘플 3차원 모델(M’)은 스캔 데이터들이 가지는 복수의 지점들(P)의 집합인 포인트 클라우드(point cloud)를 통해 생성될 수 있으며, 상기 지점(P)들은 다각형의 메쉬 구조를 형성할 수 있다. 예시적으로, 상기 메쉬 구조는 삼각형 밀집 구조일 수 있다. 이 때, 지점(P)들 간 메쉬가 형성되지 않은 부분은 데이터가 입력되지 않은 것으로 판단될 수 있다.Referring to FIG. 8, a sample 3D model (M') can be created through a point cloud, which is a set of a plurality of points (P) contained in scan data, and the points (P) are polygonal. A mesh structure can be formed. By way of example, the mesh structure may be a triangular dense structure. At this time, it may be determined that no data has been input to the portion where the mesh between the points P is not formed.

보다 상세하게는, 샘플 3차원 모델(M’)에서 메쉬 구조를 형성한 지점(P)들을 외곽에서 연결하는 외부 루프(outer loop)가 형성될 수 있다. 상기 외부 루프는 샘플 3차원 모델(M’)의 윤곽을 표현할 수 있다.More specifically, an outer loop may be formed that connects the points (P) forming the mesh structure in the sample 3D model (M') from the outside. The outer loop can express the outline of the sample three-dimensional model (M').

한편, 도 8의 X 부분의 확대도를 참조하면, 샘플 3차원 모델(M’)은 폐루프 지점(P’)들을 더 포함할 수 있고, 상기 폐루프 지점(P’)들을 기초로 샘플 3차원 모델(M’)의 내부에서 메쉬들에 의해 폐쇄된 영역이 생성될 수 있다. 즉, 상기 폐루프 지점(P’)들이 연결되어 내부 루프(inner loop)가 형성될 수 있고, 상기 내부 루프(inner loop)는 메쉬들에 의해 외부와 이격된 폐루프(closed loop, L)를 형성한다. 이 때, 상기 폐루프(L)의 내부는 데이터가 입력되지 않은 공간이며, 상기 폐루프(L) 내부(내부 폐루프 영역)는 공백 영역(B)으로 감지될 수 있다.Meanwhile, referring to the enlarged view of part A closed area may be created by meshes inside the dimensional model (M'). That is, the closed loop points (P') may be connected to form an inner loop, and the inner loop may form a closed loop (L) spaced apart from the outside by meshes. form At this time, the inside of the closed loop (L) is a space where no data is input, and the inside of the closed loop (L) (internal closed loop area) can be sensed as a blank area (B).

이하에서는, 주의 영역 중 저밀도 영역에 대해 보다 상세히 설명한다.Below, the low-density area among the attention areas will be described in more detail.

저밀도 영역은, 임의의 영역에서 임계 스캔 데이터 수 미만의 스캔 데이터가 축적된 경우를 의미할 수 있다. 저밀도 영역은 축적된 스캔 데이터의 샷 수에 따라 제1 저밀도 영역, 제2 저밀도 영역으로 구별될 수도 있으나, 반드시 이에 한정되는 것은 아니다. 또한, 저밀도 영역은 반드시 2개의 그룹으로 분류되지 않을 수 있으며, 하나, 또는 3 이상의 저밀도 영역 그룹으로 분류될 수도 있다.A low-density area may mean a case where scan data less than the critical number of scan data is accumulated in a random area. The low-density area may be divided into a first low-density area and a second low-density area depending on the number of shots of accumulated scan data, but is not necessarily limited thereto. Additionally, low-density areas may not necessarily be classified into two groups, but may be classified into one or three or more low-density area groups.

선택적으로, 저밀도 영역은 스캔 데이터 수 및 추가적으로 획득된 스캔 데이터들 간의 스캔 각도 중 적어도 하나를 기준으로 계산될 수 있다. 예시적으로, 스캔 데이터를 획득하는 과정에서, 자동적으로 스캐너의 위치정보와 스캔 각도가 획득될 수 있다. 이 때, 실시간으로 2 이상의 스캔 데이터가 수집되면, 각각의 스캔 데이터 간의 관계를 도출한다. 스캔 데이터 간의 관계를 도출하기 위해, 하나의 스캔 데이터에서 복수의 정점들을 추출하고, 다른 스캔 데이터에서 복수의 정점들과 대응되는 복수의 대응점들을 계산하여, 하나의 스캔 데이터를 기준으로 다른 스캔 데이터에 대한 이동 함수를 계산하고, 각도 변경 및 이동되어 데이터 정렬이 수행된다. 이 때, 하나의 스캔 데이터를 기준으로 다른 스캔 데이터의 상대적인 위치(위치정보)와 스캔 각도(각도정보)를 획득할 수 있다. 획득된 위치와 스캔 각도에 따라, 복셀에 스캔 데이터가 축적될 수 있다.Optionally, the low-density area may be calculated based on at least one of the number of scan data and the scan angle between additionally acquired scan data. For example, in the process of acquiring scan data, the location information and scan angle of the scanner may be automatically obtained. At this time, when two or more scan data are collected in real time, a relationship between each scan data is derived. In order to derive relationships between scan data, a plurality of vertices are extracted from one scan data, a plurality of corresponding points corresponding to the plurality of vertices are calculated from other scan data, and a plurality of corresponding points are calculated based on one scan data to other scan data. The translation function is calculated, the angle changed and the data is moved and sorted. At this time, the relative position (position information) and scan angle (angle information) of other scan data can be obtained based on one scan data. Depending on the acquired position and scan angle, scan data may be accumulated in voxels.

예시적으로, 임의의 복셀은 제1 각도범위 내지 제3 각도범위를 가지고, 각각의 각도범위 당 최대 100개의 스캔 데이터가 축적될 수 있다. 이 때, 하나의 복셀에는 최대 300개의 스캔 데이터가 축적될 수 있으며, 300개의 스캔 데이터가 축적되었을 때 상기 복셀은 완성도를 만족하는 밀도를 가지는 것으로 판단될 수 있다.Illustratively, any voxel has a first to a third angle range, and up to 100 pieces of scan data can be accumulated for each angle range. At this time, a maximum of 300 pieces of scan data can be accumulated in one voxel, and when 300 pieces of scan data are accumulated, the voxel can be determined to have a density that satisfies completeness.

즉, 대상체의 동일한 부분을 스캔하더라도 상기 부분을 다각도로 스캔하여 3차원 모델의 신뢰도를 향상시킬 수 있으며, 불충분한 양의 스캔 데이터가 축적된 복셀은 저밀도 영역으로 감지될 수 있다.That is, even if the same part of the object is scanned, the reliability of the 3D model can be improved by scanning the part from multiple angles, and voxels with an insufficient amount of scan data accumulated can be detected as low-density areas.

완성도를 판단하는 단계(S140)는 전술한 분석 영역(100) 전체에 존재하는 주의 영역의 비율을 기초로 3차원 모델(200)의 완성도를 판단할 수 있다. 예시적으로, 완성도를 판단하는 단계(S140)는 전체 분석 영역(100) 대비 주의 영역의 면적 또는 부피가 소정 비율 미만인 경우 3차원 모델(200)을 완성 상태로 판단할 수 있다. 이 때, 소정 비율의 값은 분석 영역(100)이 충분한 신뢰도를 가질 수 있는 정도의 임계값으로 설정될 수 있다.In the step of determining the completeness (S140), the completeness of the 3D model 200 may be determined based on the ratio of attention areas present in the entire analysis area 100 described above. As an example, in the step of determining the degree of completeness (S140), the 3D model 200 may be determined to be complete when the area or volume of the attention area compared to the entire analysis area 100 is less than a predetermined ratio. At this time, the value of the predetermined ratio may be set to a threshold at which the analysis area 100 can have sufficient reliability.

또한, 경우에 따라, 완성도를 판단하는 단계(S140)는 3차원 모델(200)에서의 분석 영역(100)이 개별 치아 영역 별로 구별된 경우, 개별 치아 영역 별로 상이한 임계값을 기초로 완성도를 판단할 수 있다. 예시적으로, 전치에 대응되는 분석 영역(100)의 일부분은 대구치에 대응되는 분석 영역(100)의 다른 부분보다 더 낮은 주의 영역 비율을 가지는 경우에만 완성 상태로 판단될 수 있다. 이와 같이, 개별 치아 영역 별로 완성도 판단을 위한 상이한 임계값을 적용함으로써, 대상체의 전체적인 완성도를 향상시킬 수 있고, 사용자의 스캔 속도를 향상시킬 수 있으며, 환자에게 최적의 치료를 제공하는 이점이 있다.In addition, in some cases, in the step of determining completeness (S140), when the analysis area 100 in the 3D model 200 is differentiated for each individual tooth region, the completeness is determined based on a different threshold for each individual tooth region. can do. As an example, a part of the analysis area 100 corresponding to the anterior teeth may be determined to be complete only when it has a lower attention area ratio than another part of the analysis area 100 corresponding to the molars. In this way, by applying different thresholds for determining completeness for each individual tooth area, the overall completeness of the object can be improved, the user's scanning speed can be improved, and there is an advantage in providing optimal treatment to the patient.

또한, 다른 경우에 따라, 완성도를 판단하는 단계(S140)는 3차원 모델(200)에서의 분석 영역(100)을 보다 세분화하여 완성도를 판단할 수 있다. 예시적으로, 분석 영역을 설정하는 단계(S110)에서, 완성도를 판단하기 위한 소정 임계값을 가지는 제1 분석 영역과, 상기 제1 분석 영역보다 작은 임계값을 가지는 제2 분석 영역이 설정될 수 있다. 즉, 제2 분석 영역은 제1 분석 영역보다 더욱 정밀한 스캔이 필요한 영역으로 설정될 수 있으며, 제2 분석 영역을 설정하는 과정은 사용자의 선택에 따라 이루어질 수 있다. 예시적으로, 개별 치아 영역 중 치료가 필요한 관심 치아가 제2 분석 영역으로 설정될 수 있다. 이에 따라, 제2 분석 영역은 제1 분석 영역보다 낮은 주의 영역 비율을 가지는 경우에만 완성 상태로 판단될 수 있으며, 치료가 필요한 관심 치아가 더욱 정밀하게 스캔되도록 사용자를 유도하는 이점이 있다.Additionally, in other cases, in the step of determining completeness (S140), the completeness may be determined by further subdividing the analysis area 100 in the 3D model 200. Exemplarily, in the step of setting the analysis area (S110), a first analysis area having a predetermined threshold for determining completeness and a second analysis area having a threshold smaller than the first analysis area may be set. there is. That is, the second analysis area can be set as an area that requires more precise scanning than the first analysis area, and the process of setting the second analysis area can be performed according to the user's selection. As an example, a tooth of interest that requires treatment among individual tooth areas may be set as the second analysis area. Accordingly, the second analysis area can be judged to be complete only when it has a lower attention area ratio than the first analysis area, and has the advantage of inducing the user to scan teeth of interest requiring treatment more precisely.

한편, 상기 완성도를 판단하는 단계(S140)는 실시간으로 생성되는 3차원 모델(200)의 복셀에 대해 수행될 수도 있고, 스캔이 완료된 후 사용자가 임의의 버튼을 클릭하는 등의 동작에 의해 수행될 수도 있다.Meanwhile, the step of determining the completeness (S140) may be performed on voxels of the 3D model 200 generated in real time, or may be performed by an action such as the user clicking a random button after the scan is completed. It may be possible.

도 9는 본 발명에 따른 데이터 처리 방법 중 완성도를 판단한 결과에 기초하여 피드백을 발생시키는 단계(S150)를 설명하기 위한 것이다.Figure 9 is for explaining the step (S150) of generating feedback based on the result of determining the degree of completeness in the data processing method according to the present invention.

도 9를 참조하면, 예시적으로 피드백을 발생시키는 단계(S150)는 3차원 모델(200)의 분석 영역(100)이 충분한 신뢰도를 가져 3차원 모델(200)이 완성되었다는 것을 표시할 수 있다. 도 9에 도시된 바에 따르면, 유저 인터페이스 화면(600)에 3차원 모델(200)과 상기 3차원 모델(200)에 적용된 분석 영역(100)이 표시되고, 유저 인터페이스 화면(600)의 일측에 피드백 수단(700)이 표시될 수 있다. 예시적으로, 피드백 수단(700)은 완성도 표시 수단(710)일 수 있으며, 완성도 표시 수단(710)은 ‘치아 영역: PASS’와 같은 메시지를 디스플레이하여 3차원 모델(200)의 완성 여부를 나타낼 수 있다. 그러나, 반드시 이에 한정되는 것은 아니며, 3차원 모델(200)의 완성도를 2 이상의 상태(예를 들면, 완성 상태, 충분 상태, 불충분 상태)로 나타낼 수도 있고, 완성도를 퍼센트(%)와 같은 수치로 나타낼 수도 있으며, 유저 인터페이스 화면(600) 상에 별도의 로딩 바(loading bar)가 표시되어 상기 완성도를 로딩 바의 그래픽 변화로 표현할 수도 있다.Referring to FIG. 9 , the step of generating feedback (S150) may indicate that the analysis area 100 of the 3D model 200 has sufficient reliability and the 3D model 200 has been completed. As shown in FIG. 9, the 3D model 200 and the analysis area 100 applied to the 3D model 200 are displayed on the user interface screen 600, and feedback is provided on one side of the user interface screen 600. Means 700 may be indicated. By way of example, the feedback means 700 may be a completeness display means 710, and the completeness display means 710 displays a message such as 'Tooth area: PASS' to indicate whether the three-dimensional model 200 is complete. You can. However, it is not necessarily limited to this, and the completeness of the 3D model 200 may be expressed in two or more states (e.g., complete, sufficient, and insufficient), and the completeness may be expressed as a number such as a percentage (%). Alternatively, a separate loading bar may be displayed on the user interface screen 600 to express the completeness through a graphical change in the loading bar.

이와 같이 피드백 수단(700)을 통해 사용자는 종래의 신뢰도 색상이 3차원 모델(200) 상에 표시되는 신뢰도 맵을 이용하지 않더라도, 3차원 모델(200)의 완성 여부를 용이하게 확인할 수 있다.In this way, through the feedback means 700, the user can easily check whether the 3D model 200 is complete even if the conventional reliability color does not use the reliability map displayed on the 3D model 200.

또한, 피드백 수단은 유저 인터페이스 화면(600)에 표시되는 것 이외에도 스캐너에 내장된 광 프로젝터에 의해 조사되는 광 색상 및/또는 광 패턴일 수 있다. 예시적으로, 완성도를 판단하는 단계(S140)에서 3차원 모델(200)이 완성 상태로 판단된 경우, 광 프로젝터는 스캐너가 지향하는 표면에 녹색 광을 조사할 수 있다. 반대로, 3차원 모델(200)이 완성 상태에 도달하지 못한 것으로 판단된 경우, 광 프로젝터는 스캐너가 지향하는 표면에 적색 광을 조사할 수 있다. 다른 예시로, 완성도를 판단하는 단계(S140)에서 3차원 모델(200)이 완성 상태로 판단된 경우, 광 프로젝터는 스캐너가 지향하는 표면에 ‘O’ 패턴을 조사할 수 있다. 반대로, 3차원 모델(200)이 완성 상태에 도달하지 못한 것으로 판단된 경우, 광 프로젝터는 스캐너가 지향하는 표면에 ‘X’ 패턴을 조사할 수 있다. 이와 같이 스캐너에 내장된 광 프로젝터를 사용하여 사용자에게 피드백하는 경우, 사용자는 유저 인터페이스 화면(600)이 표시되는 디스플레이 장치를 주시하지 않더라도 3차원 모델(200)의 완성 상태를 용이하게 파악할 수 있는 이점이 있다.Additionally, the feedback means may be a light color and/or a light pattern emitted by a light projector built into the scanner in addition to what is displayed on the user interface screen 600. As an example, if the 3D model 200 is determined to be complete in the step of determining the degree of completeness (S140), the light projector may irradiate green light to the surface toward which the scanner is aimed. Conversely, if it is determined that the 3D model 200 has not reached a completed state, the light projector may irradiate red light to the surface toward which the scanner is directed. As another example, if the 3D model 200 is determined to be complete in the step of determining completeness (S140), the light projector may radiate an ‘O’ pattern to the surface toward which the scanner is aimed. Conversely, if it is determined that the 3D model 200 has not reached completion, the light projector may irradiate an ‘X’ pattern on the surface toward which the scanner is directed. In this way, when feedback is provided to the user using an optical projector built into the scanner, the user can easily determine the completion status of the three-dimensional model 200 even without looking at the display device on which the user interface screen 600 is displayed. There is.

도 10은 사용자에게 피드백되는 주의 영역을 설명하기 위한 것이다.Figure 10 is for explaining the attention area fed back to the user.

도 10을 참조하면, 사용자는 추가적으로 주의 영역에 대한 피드백을 받을 수 있다. 예시적으로, 유저 인터페이스 화면(600) 상에서, 3차원 모델(200)의 분석 영역(100)에서 공백 영역과 저밀도 영역은 주의 영역 표시 수단(720)을 통해 시각적으로 표시될 수 있다. 주의 영역 표시 수단(720)은 소정 기호일 수 있으나, 이에 한정되는 것은 아니며, 주의 영역에 대해 가상의 스캐너 형상을 표시할 수도 있다. 또한, 주의 영역 표시 수단(720)은 공백 영역과 저밀도 영역이 구별되어 서로 다른 형태로 표시되도록 할 수도 있다. 주의 영역 표시 수단(720)을 통해 주의 영역이 사용자에게 피드백 됨으로써, 사용자는 용이하게 3차원 모델(200) 중 추가적인 스캔이 필요한 부분을 확인할 수 있고, 주의 영역을 추가로 스캔하여 3차원 모델(200)의 완성도를 신속하게 향상시킬 수 있는 이점이 있다.Referring to FIG. 10, the user can additionally receive feedback on the attention area. For example, on the user interface screen 600, a blank area and a low-density area in the analysis area 100 of the 3D model 200 may be visually displayed through the attention area display means 720. The attention area display means 720 may be a symbol, but is not limited thereto, and may display a virtual scanner shape for the attention area. Additionally, the attention area display unit 720 may distinguish between a blank area and a low-density area and display them in different forms. As the attention area is fed back to the user through the attention area display means 720, the user can easily check the parts of the 3D model 200 that require additional scanning, and additionally scan the attention area to scan the 3D model 200. ) has the advantage of being able to quickly improve the completeness of .

이하에서는 본 발명의 다른 실시예에 따른 데이터 처리 방법에 대해 설명한다. 본 발명의 다른 실시예에 따른 데이터 처리 방법을 설명함에 있어, 전술한 내용과 중복되는 내용은 간략히 언급하거나 생략한다.Below, a data processing method according to another embodiment of the present invention will be described. When describing a data processing method according to another embodiment of the present invention, content that overlaps with the above-described content will be briefly mentioned or omitted.

도 11은 본 발명의 다른 실시예에 따른 데이터 처리 방법의 순서도이다.11 is a flowchart of a data processing method according to another embodiment of the present invention.

도 11을 참조하면, 본 발명의 다른 실시예에 따른 데이터 처리 방법은, 3차원 모델을 획득하는 단계(S210)를 포함한다. 분석 영역을 설정하기 이전에 3차원 모델을 획득할 수 있으며, 이에 따라 3차원 모델의 형상을 먼저 유저 인터페이스 화면을 통해 확인한 후 분석이 필요한 부분을 설정할 수 있다.Referring to FIG. 11, a data processing method according to another embodiment of the present invention includes obtaining a 3D model (S210). A 3D model can be obtained before setting the analysis area, and the shape of the 3D model can first be checked through the user interface screen and then the parts that need to be analyzed can be set.

도 12는 분석 영역을 설정하는 과정을 설명하기 위한 것이다.Figure 12 is for explaining the process of setting an analysis area.

도 3, 도 11 및 도 12를 참조하면, 본 발명의 다른 실시예에 따른 데이터 처리 방법은 3차원 모델(200)을 획득한 이후, 획득한 3차원 모델(200)에서 분석 영역을 설정하는 단계(S220)를 포함할 수 있다. 분석 영역을 설정하는 단계(S220)는 도 3에 도시된 바와 같이 유저 인터페이스 화면(600)에서 사용자가 분석 대상으로 설정하고자 하는 치아를 선택하는 것일 수 있다. 한편, 본 발명의 다른 실시예에 따른 데이터 처리 방법은 이미 3차원 모델을 획득하였으므로, 3차원 모델 상에 직접적으로 분석 영역을 지정할 수도 있다. 예시적으로, 본 발명의 다른 실시예에 따른 데이터 처리 방법은, 3차원 모델 상에서 분석 영역을 입력받을 수 있으며, 상기 분석 영역은 브러쉬 선택 도구 또는 다각형 선택 도구 등을 통해 설정될 수 있다. 도 12에 도시된 바와 같이, 사용자는 다각형 선택 도구를 사용하여 제1 분석 영역(111), 제2 분석 영역(112), 제3 분석 영역(113), 및 제4 분석 영역(114)이 선택될 수 있다. 한편, 상기 분석 영역들(111, 112, 113, 114)는 중첩되는 영역들이 병합될 수도 있다.Referring to FIGS. 3, 11, and 12, the data processing method according to another embodiment of the present invention includes acquiring a 3D model 200 and then setting an analysis area in the acquired 3D model 200. (S220) may be included. In the step of setting the analysis area (S220), as shown in FIG. 3, the user may select a tooth to be set as an analysis target on the user interface screen 600. Meanwhile, in the data processing method according to another embodiment of the present invention, since the 3D model has already been obtained, the analysis area can be directly designated on the 3D model. Illustratively, in the data processing method according to another embodiment of the present invention, an analysis area can be input on a three-dimensional model, and the analysis area can be set through a brush selection tool or a polygon selection tool. As shown in Figure 12, the user selects the first analysis area 111, the second analysis area 112, the third analysis area 113, and the fourth analysis area 114 using the polygon selection tool. It can be. Meanwhile, overlapping areas of the analysis areas 111, 112, 113, and 114 may be merged.

또한, 분석 영역(100)을 설정하기 위한 소정 항목들이 디스플레이될 수도 있다. 예시적으로, 사용자는 ‘치아 영역 전체’, ‘특정 치아 선택’ 등 유저 인터페이스 화면 상에 표시되는 항목들 중 어느 하나를 선택하여 분석 영역(100)을 설정할 수 있다. 예시적으로 나열한 내용 이외에도, 분석 영역(100)을 설정하는 과정은 특별히 제한되지 않는다. 분석 영역(100)을 설정하는 세부적인 내용은 S110 단계에서 전술한 내용을 공유한다.Additionally, certain items for setting the analysis area 100 may be displayed. As an example, the user can set the analysis area 100 by selecting one of the items displayed on the user interface screen, such as ‘entire tooth area’ or ‘select specific tooth’. In addition to the illustrative contents listed, the process of setting the analysis area 100 is not particularly limited. The details of setting the analysis area 100 are shared above in step S110.

또한, 본 발명의 다른 실시예에 따른 데이터 처리 방법은 분석 영역을 설정하는 단계(S220) 이후에 3차원 모델(200)에서 분석 영역을 구별하는 단계(S230)를 포함할 수 있다. 즉, 본 발명의 다른 실시예에 따른 데이터 처리 방법은, 분석 영역을 구별하는 단계(S230) 이전에 3차원 모델을 획득하는 단계(S210), 및 분석 영역을 설정하는 단계(S220)를 포함할 수 있다. 분석 영역을 구별하는 단계(S230)는 사용자가 유저 인터페이스 화면에 마련된 선택 도구를 이용하여 설정한 분석 영역을 구별하는 것이거나, 전술한 바와 같은 소정 항목들 중 어느 하나를 선택함으로써 3차원 모델(200)에서 분석 영역(100)을 구별하는 것일 수 있다. 분석 영역을 구별하는 단계(S230)에 대한 보다 상세한 설명은 전술한 S130 단계의 내용을 공유한다.Additionally, the data processing method according to another embodiment of the present invention may include a step of distinguishing the analysis area in the 3D model 200 (S230) after setting the analysis area (S220). That is, the data processing method according to another embodiment of the present invention may include the step of obtaining a 3D model (S210) before the step of distinguishing the analysis area (S230), and the step of setting the analysis area (S220). You can. The step of distinguishing the analysis area (S230) is to distinguish the analysis area set by the user using a selection tool provided on the user interface screen, or to select one of the predetermined items as described above to create a three-dimensional model (200 ) may be used to distinguish the analysis area 100 from the analysis area 100. A more detailed description of the step of distinguishing the analysis area (S230) shares the contents of the above-described step S130.

이하, 본 발명의 다른 실시예에 따른 데이터 처리 방법은 구별된 분석 영역(100)을 기초로 3차원 모델(200)의 완성도를 판단하는 단계(S240)와, 3차원 모델(200)의 분석 영역(100)의 완성도 판단 결과에 기초하여 피드백을 발생시키는 단계(S250)를 더 포함할 수 있다. 완성도를 판단하는 단계(S240)는 S140 단계에서 전술한 내용을 공유하고, 피드백을 발생시키는 단계(S250)는 S150 단계에서 전술한 내용을 공유한다.Hereinafter, a data processing method according to another embodiment of the present invention includes the step of determining the completeness of the 3D model 200 based on the distinguished analysis area 100 (S240), and the analysis area of the 3D model 200. A step (S250) of generating feedback based on the completeness determination result of (100) may be further included. The step of determining completeness (S240) shares the above-described content in step S140, and the step of generating feedback (S250) shares the above-described content in step S150.

이상 설명한 내용에 따라, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 사용자는 충분한 신뢰도를 가지는 3차원 모델을 용이하게 획득할 수 있는 이점이 있다.According to the above-described content, by using the data processing method according to the present invention, the user has the advantage of being able to easily obtain a three-dimensional model with sufficient reliability.

또한, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 3차원 모델 전체가 아닌 분석 영역에 대해 완성도를 판단하므로, 데이터 처리 시간을 단축시키는 이점이 있다.In addition, by using the data processing method according to the present invention, the completeness is judged for the analysis area rather than the entire 3D model, which has the advantage of shortening the data processing time.

또한, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 사용자는 자의적인 판단에 의하지 않고 정확히 계산되어 판단된 결과에 기초하여, 3차원 모델이 신뢰할 수 있을 정도의 완성도를 가졌는지 용이하게 확인할 수 있는 이점이 있다.In addition, by using the data processing method according to the present invention, the user has the advantage of being able to easily check whether the 3D model has a reliable degree of completeness based on the accurately calculated and judged results without relying on arbitrary judgment. there is.

또한, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 개별 치아 영역 별로 상이한 완성도 판단 임계값이 적용되어, 보다 중요한 치아에 대해 정밀하게 스캔하여 3차원 모델을 획득할 수 있는 이점이 있다.In addition, by using the data processing method according to the present invention, a different completeness judgment threshold is applied to each individual tooth area, which has the advantage of accurately scanning more important teeth to obtain a three-dimensional model.

또한, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 사용자는 주의 영역으로 감지된 3차원 모델의 부분들을 시각적으로 용이하게 확인할 수 있으며, 주의 영역을 최소화하기 위한 추가적인 스캔을 진행할 때 소요되는 시간과 노력을 절약하는 이점이 있다.In addition, by using the data processing method according to the present invention, the user can easily visually check the parts of the 3D model detected as attention areas, and reduce the time and effort required to perform additional scans to minimize the attention area. There is an advantage in saving.

또한, 본 발명의 다른 실시예에 따른 데이터 처리 방법을 사용하면, 본 발명에 따른 데이터 처리 방법의 이점을 공유하고, 3차원 모델 상에 직접 분석 영역을 세밀하게 설정할 수 있으므로, 사용자가 분석에 필요한 부분만 정밀하게 분석 영역으로 설정 및 구별할 수 있는 이점이 있다.In addition, by using the data processing method according to another embodiment of the present invention, the advantages of the data processing method according to the present invention can be shared and the analysis area can be set in detail directly on the three-dimensional model, allowing the user to There is an advantage in that only a portion can be precisely set and distinguished as an analysis area.

이하에서는, 전술한 본 발명의 일 실시예에 따른 데이터 처리 방법 및/또는 본 발명의 다른 실시예에 따른 데이터 처리 방법을 수행하는 데이터 처리 장치에 대해 설명한다. 본 발명에 따른 데이터 처리 장치를 설명함에 있어서, 중복되는 내용은 간략하게 설명하거나 설명을 생략한다.Hereinafter, a data processing device that performs the data processing method according to one embodiment of the present invention and/or the data processing method according to another embodiment of the present invention described above will be described. When describing the data processing device according to the present invention, overlapping content will be briefly described or omitted.

도 13은 본 발명에 따른 데이터 처리 방법을 수행하는 데이터 처리 장치(900)의 개략적인 구성도이다.Figure 13 is a schematic configuration diagram of a data processing device 900 that performs the data processing method according to the present invention.

도 13을 참조하면, 본 발명에 따른 데이터 처리 장치(900)는 스캔부(910), 제어부(920), 및 디스플레이부(930)를 포함한다.Referring to FIG. 13, the data processing device 900 according to the present invention includes a scan unit 910, a control unit 920, and a display unit 930.

스캔부(910)는 대상체를 스캔하여 상기 대상체의 화상(image)를 획득할 수 있다. 대상체는 환자의 치아를 나타내는 것일 수 있다. 스캔부(910)는 전술한 데이터 처리 방법에서 3차원 모델을 획득하는 단계의 적어도 일부 과정을 수행할 수 있다. 스캔부(910)는 전술한 스캐너(예를 들면, 3차원 스캐너)일 수 있다.The scanning unit 910 may scan an object and obtain an image of the object. The object may represent the patient's teeth. The scan unit 910 may perform at least part of the process of acquiring a 3D model in the above-described data processing method. The scanning unit 910 may be the scanner described above (eg, a 3D scanner).

이하에서는 제어부(920)의 세부 구성에 대해 설명한다.Below, the detailed configuration of the control unit 920 will be described.

제어부(920)는 스캔부(910)로부터 획득된 대상체의 화상을 기초로 3차원 모델을 생성하고, 3차원 모델 중 상기 3차원 모델의 완성도를 판단하여 사용자에게 피드백할 수 있다. 예시적으로, 제어부(920)는 데이터 연산 처리를 위한 마이크로프로세서(microprocessor)를 포함할 수 있다.The control unit 920 may generate a 3D model based on the image of the object obtained from the scan unit 910, determine the completeness of the 3D model, and provide feedback to the user. By way of example, the control unit 920 may include a microprocessor for data operation processing.

제어부(920)는 데이터베이스부(921)를 포함할 수 있다. 스캔부(910)가 획득한 대상체의 화상 및 특성정보(신뢰도, 스캔각도, 위치 등), 후술하는 3차원 모델링부(922)로부터 생성된 대상체의 3차원 모델, 분석 영역을 설정할 때 사용되는 표준 구강 형상, 스캔 데이터들을 중첩, 정렬하기 위한 정렬 알고리즘, 3차원 모델의 완성도 판단 알고리즘, 주의 영역을 판단하기 위한 기준, 피드백 발생을 위한 기준 등이 데이터베이스부(921)에 저장될 수 있다. 데이터베이스부(921)는 알려진 데이터 저장 수단이 사용될 수 있으며, SSD(Solid State Drive), HDD(Hard Disk Drive)를 포함한 알려진 저장 수단들 중 적어도 하나일 수 있다. 또한, 데이터베이스부(921)는 가상의 클라우드 저장 수단일 수도 있다.The control unit 920 may include a database unit 921. Image and characteristic information (reliability, scan angle, position, etc.) of the object acquired by the scanning unit 910, a 3D model of the object generated by the 3D modeling unit 922, which will be described later, and a standard used when setting the analysis area. Oral shape, an alignment algorithm for overlapping and sorting scan data, an algorithm for determining the completeness of the 3D model, a standard for determining an attention area, a standard for generating feedback, etc. may be stored in the database unit 921. The database unit 921 may use a known data storage means, and may be at least one of known storage means including a solid state drive (SSD) and a hard disk drive (HDD). Additionally, the database unit 921 may be a virtual cloud storage means.

제어부(920)는 3차원 모델링부(922)를 포함할 수 있다. 3차원 모델링부(922)는 스캔부(910)로부터 획득한 대상체의 2차원 화상을 3차원으로 모델링할 수 있다. 한편, 3차원 모델링부(922)는 데이터베이스부(921)에 저장된 정렬 알고리즘에 따라 3차원 모델링된 스캔 데이터들(보다 상세하게는, 3차원 데이터 샷들)을 정렬할 수 있으며, 상기 스캔 데이터들의 정렬 및 머징(merging)을 통해 대상체를 나타내는 3차원 모델을 생성할 수 있다.The control unit 920 may include a 3D modeling unit 922. The 3D modeling unit 922 may model the 2D image of the object obtained from the scanning unit 910 in 3D. Meanwhile, the 3D modeling unit 922 can sort 3D modeled scan data (more specifically, 3D data shots) according to the sorting algorithm stored in the database unit 921, and aligns the scan data. And through merging, a three-dimensional model representing the object can be created.

또한, 제어부(920)는 분석 영역 설정부(923)를 더 포함할 수 있다. 분석 영역 설정부(923)는 3차원 모델에서 완성도를 판단할 분석 영역을 설정할 수 있다. 이 때, 분석 영역 설정부(923)는 3차원 모델이 획득되기 이전에 표준 구강 형상에서 분석 영역을 설정하여, 이후에 획득되는 3차원 모델에 상기 분석 영역을 적용할 수도 있고, 3차원 모델을 획득한 이후 상기 3차원 모델에 바로 분석 영역을 적용할 수도 있다.Additionally, the control unit 920 may further include an analysis area setting unit 923. The analysis area setting unit 923 can set an analysis area to determine completeness in the 3D model. At this time, the analysis area setting unit 923 may set the analysis area in the standard oral cavity shape before the 3D model is acquired and apply the analysis area to the 3D model acquired later, or the 3D model may be After acquisition, the analysis area can be applied directly to the 3D model.

또한, 제어부(920)는 완성도 판단부(924)를 포함할 수 있다. 완성도 판단부(924)는 획득된 3차원 모델의 분석 영역에서, 전체 분석 영역 대비 주의 영역의 비율이 소정 임계값 이하일 경우 상기 3차원 모델이 완성되었다고 판단할 수 있다. 주의 영역은 공백 영역과 저밀도 영역을 포함하는 것일 수 있다. 한편, 완성도 판단부(924)는 개별 치아 영역 별로 상이한 완성도 판단 임계값을 적용할 수 있으며, 관련된 설명은 전술한 바와 동일하다.Additionally, the control unit 920 may include a completeness determination unit 924. The completeness determination unit 924 may determine that the 3D model is complete when the ratio of the attention area to the entire analysis area in the analysis area of the acquired 3D model is less than or equal to a predetermined threshold. The attention area may include blank areas and low-density areas. Meanwhile, the completeness determination unit 924 may apply a different completeness determination threshold for each individual tooth region, and the related description is the same as described above.

또한, 제어부(920)는 피드백 발생부(925)를 더 포함할 수 있다. 피드백 발생부(925)는 완성도 판단부(924)의 완성도 판단 결과에 기초하여 사용자에게 상기 완성도 판단 결과를 피드백할 수 있다. 이 때, 완성도 판단 결과는 ‘치아 영역: PASS’와 같은 메시지를 포함하는 완성도 표시 수단, 완성도 퍼센트, 로딩 바와 같은 다양한 형태들 중 적어도 하나로 표현될 수 있다.Additionally, the control unit 920 may further include a feedback generator 925. The feedback generation unit 925 may feed back the completeness determination result to the user based on the completeness determination result of the completeness determination unit 924. At this time, the completeness judgment result may be expressed in at least one of various forms, such as a completeness display means including a message such as ‘Tooth area: PASS’, a completeness percentage, and a loading bar.

피드백 발생부(925)는 3차원 모델 상에 주의 영역을 표시할 수도 있으며, 피드백 발생부(925)는 소정 기호 또는 가상의 스캐너 형상을 통해 주의 영역을 사용자에게 피드백할 수 있다. 이와 같이, 피드백 발생부(925)는 사용자가 주의 영역을 용이하게 확인할 수 있도록 하며, 사용자는 주의 영역을 추가로 스캔하여 3차원 모델의 완성도를 신속하게 향상시킬 수 있다.The feedback generator 925 may display the attention area on the three-dimensional model, and the feedback generator 925 may feed back the attention area to the user through a predetermined symbol or a virtual scanner shape. In this way, the feedback generator 925 allows the user to easily check the attention area, and the user can quickly improve the completeness of the 3D model by additionally scanning the attention area.

한편, 본 발명에 따른 데이터 처리 장치(900)는 디스플레이부(930)를 포함할 수 있다. 디스플레이부(930)는 스캔부(910)에 의해 획득되는 대상체의 화상, 제어부(920)에 의해 수행되는 일련의 과정들 중 적어도 일부를 시각적으로 표시할 수 있다. 디스플레이부(930)는 사용자에게 데이터 처리 과정을 표시하기 위해, 알려진 디바이스가 사용될 수 있다. 예시적으로, 디스플레이부(930)는 모니터, 태블릿과 같은 시각적 표시장치 중 어느 하나일 수 있다. 사용자는 디스플레이부(930)에 표시되는 데이터 처리 과정을 확인하여, 3차원 모델이 분석 영역에서 충분한 완성도를 가지도록 획득되었는지, 주의 영역의 위치는 어디인지와 같은 다양한 정보들을 용이하게 획득할 수 있다.Meanwhile, the data processing device 900 according to the present invention may include a display unit 930. The display unit 930 may visually display an image of an object acquired by the scanning unit 910 and at least part of a series of processes performed by the control unit 920. The display unit 930 may use a known device to display the data processing process to the user. By way of example, the display unit 930 may be any one of a visual display device such as a monitor or a tablet. By checking the data processing process displayed on the display unit 930, the user can easily obtain various information such as whether the 3D model has been obtained with sufficient completeness in the analysis area and where the attention area is located. .

이상의 설명에 따라, 본 발명의 일 실시예에 따른 데이터 처리 방법, 및 본 발명의 다른 실시예에 따른 데이터 처리 방법을 수행하는 데이터 처리 장치를 사용함으로써, 사용자는 전술한 데이터 처리 방법을 실시함으로써 얻어지는 이점들을 함께 가진다.According to the above description, by using a data processing device that performs the data processing method according to one embodiment of the present invention and the data processing method according to another embodiment of the present invention, the user can obtain the data obtained by performing the above-described data processing method. They have advantages together.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.The above description is merely an illustrative explanation of the technical idea of the present invention, and various modifications and variations will be possible to those skilled in the art without departing from the essential characteristics of the present invention.

따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but are for illustrative purposes, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be construed as being included in the scope of rights of the present invention.

S110: 분석 영역을 설정하는 단계
S120: 3차원 모델을 획득하는 단계
S130: 분석 영역을 구별하는 단계
S140: 완성도를 판단하는 단계
S150: 피드백을 발생시키는 단계
100: 분석 영역 200: 3차원 모델
300: 템플릿 600: 유저 인터페이스 화면
700: 피드백 수단 710: 완성도 표시 수단
720: 주의 영역 표시 수단
900: 데이터 처리 장치
S110: Step of setting analysis area
S120: Step of acquiring a 3D model
S130: Step to distinguish analysis area
S140: Step to judge completeness
S150: Step to generate feedback
100: analysis area 200: 3D model
300: Template 600: User interface screen
700: Feedback means 710: Completeness display means
720: Attention area display means
900: data processing device

Claims (15)

3차원 모델에서, 적어도 하나의 치아 영역을 포함하는 분석 영역을 구별하는 단계; 및
상기 분석 영역을 기초로 상기 3차원 모델의 완성도를 판단하는 단계; 를 포함하고,
상기 완성도를 판단하는 단계는 상기 분석 영역에 존재하는 주의 영역의 면적 또는 부피의 비율이 소정 비율 미만인 경우 상기 3차원 모델을 완성 상태로 판단하는 것을 특징으로 하는 데이터 처리 방법.
In the three-dimensional model, distinguishing an analysis region containing at least one tooth region; and
determining the completeness of the three-dimensional model based on the analysis area; Including,
The step of determining the completeness is characterized in that the three-dimensional model is judged to be complete when the ratio of the area or volume of the attention area existing in the analysis area is less than a predetermined ratio.
청구항 1에 있어서,
상기 분석 영역을 구별하는 단계 이전에,
상기 분석 영역을 설정하는 단계; 및
상기 분석 영역을 설정한 이후 상기 3차원 모델을 획득하는 단계; 를 더 포함하는 것을 특징으로 하는 데이터 처리 방법.
In claim 1,
Before the step of distinguishing the analysis area,
setting the analysis area; and
Obtaining the three-dimensional model after setting the analysis area; A data processing method further comprising:
청구항 1에 있어서,
상기 분석 영역을 구별하는 단계 이전에,
상기 3차원 모델을 획득하는 단계; 및
획득한 상기 3차원 모델에서 상기 분석 영역을 설정하는 단계; 를 더 포함하는 것을 특징으로 하는 데이터 처리 방법.
In claim 1,
Before the step of distinguishing the analysis area,
Obtaining the three-dimensional model; and
Setting the analysis area in the acquired 3D model; A data processing method further comprising:
청구항 1에 있어서,
상기 치아 영역은 상기 3차원 모델의 치아 전체 영역을 포함하는 것을 특징으로 하는 데이터 처리 방법.
In claim 1,
The data processing method, wherein the tooth area includes the entire tooth area of the three-dimensional model.
청구항 1에 있어서,
상기 3차원 모델은 색상 정보 및 굴곡 정보 중 적어도 하나를 통해 치아를 나타내는 상기 치아 영역과 치은을 나타내는 치은 영역으로 구별되는 것을 특징으로 하는 데이터 처리 방법.
In claim 1,
The three-dimensional model is divided into the tooth area representing the tooth and the gingival area representing the gingiva through at least one of color information and curvature information.
청구항 1에 있어서,
상기 분석 영역을 구별하는 단계는,
치아의 표면 굴곡 정보를 포함하는 치식 구별 기준에 따라 상기 치아 영역을 개별 치아로 나타내는 개별 치아 영역으로 구별하는 것을 특징으로 하는 데이터 처리 방법.
In claim 1,
The step of distinguishing the analysis area is,
A data processing method characterized in that the tooth area is distinguished into individual tooth areas represented by individual teeth according to a tooth formula discrimination standard including tooth surface curvature information.
청구항 6에 있어서,
상기 치식 구별 기준은 상기 치아의 크기 정보 및 형상 정보 중 적어도 하나를 더 포함하는 것을 특징으로 하는 데이터 처리 방법.
In claim 6,
The data processing method characterized in that the tooth formula discrimination criterion further includes at least one of size information and shape information of the tooth.
삭제delete 청구항 1에 있어서,
상기 주의 영역은
상기 3차원 모델 중 스캔 데이터가 입력되지 않은 공백 영역, 및
상기 3차원 모델 중 스캔 데이터가 소정 임계밀도 미만으로 입력된 저밀도 영역 중 적어도 하나를 포함하는 것을 특징으로 하는 데이터 처리 방법.
In claim 1,
The above caution area is
A blank area in the 3D model where scan data is not input, and
A data processing method comprising at least one of low-density areas in which scan data is input below a predetermined critical density among the three-dimensional models.
청구항 1에 있어서,
상기 완성도를 판단하는 단계는,
상기 3차원 모델의 개별 치아 영역 별로 상이한 임계값을 기초로 상기 완성도를 판단하는 것을 특징으로 하는 데이터 처리 방법.
In claim 1,
The step of determining the degree of completeness is,
A data processing method characterized in that the completeness is determined based on a different threshold for each individual tooth area of the three-dimensional model.
청구항 9에 있어서,
상기 공백 영역은,
상기 3차원 모델을 기저장된 템플릿에 얼라인하고, 상기 템플릿의 표면으로부터 생성되는 적어도 하나의 광선을 통한 교차 검사(intersection test)를 이용하여 감지된 홀 영역을 포함하는 것을 특징으로 하는 데이터 처리 방법.
In claim 9,
The blank area is,
A data processing method comprising aligning the three-dimensional model to a pre-stored template and including a hole area detected using an intersection test using at least one ray generated from the surface of the template.
청구항 9에 있어서,
상기 공백 영역은,
상기 3차원 모델을 구성하는 스캔 데이터들의 경계에 의해 생성되는 내부 폐루프 영역을 포함하는 것을 특징으로 하는 데이터 처리 방법.
In claim 9,
The blank area is,
A data processing method comprising an internal closed loop area created by boundaries of scan data constituting the three-dimensional model.
청구항 9에 있어서,
상기 저밀도 영역은,
획득된 스캔 데이터의 수 및 상기 스캔 데이터들 간의 스캔 각도 중 적어도 하나를 기준으로 계산되는 것을 특징으로 하는 데이터 처리 방법.
In claim 9,
The low-density area is,
A data processing method characterized in that the calculation is based on at least one of the number of acquired scan data and the scan angle between the scan data.
청구항 1에 있어서,
상기 3차원 모델의 완성도 판단 결과에 기초하여 사용자에게 피드백을 발생시키는 단계; 를 더 포함하는 것을 특징으로 하는 데이터 처리 방법.
In claim 1,
Generating feedback to the user based on a result of determining the completeness of the 3D model; A data processing method further comprising:
청구항 1에 있어서,
상기 주의 영역은 사용자에게 피드백되는 것을 특징으로 하는 데이터 처리 방법.
In claim 1,
A data processing method, characterized in that the attention area is fed back to the user.
KR1020210137277A 2020-11-05 2021-10-15 Data processing method KR102632338B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2021/015667 WO2022098039A1 (en) 2020-11-05 2021-11-02 Data processing method
US18/035,461 US20230290093A1 (en) 2020-11-05 2021-11-02 Data processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200146535 2020-11-05
KR20200146535 2020-11-05

Publications (2)

Publication Number Publication Date
KR20220061001A KR20220061001A (en) 2022-05-12
KR102632338B1 true KR102632338B1 (en) 2024-02-01

Family

ID=81590431

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210137277A KR102632338B1 (en) 2020-11-05 2021-10-15 Data processing method

Country Status (1)

Country Link
KR (1) KR102632338B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040027347A1 (en) 2002-06-12 2004-02-12 Ali Farsaie Discrete linear space sampling method and apparatus for generating digital 3D models
KR101295610B1 (en) * 2012-11-02 2013-08-12 주식회사 리얼오쏘 Teeth coloring device
US20150150684A1 (en) 2012-06-05 2015-06-04 Dental Vision B.V.B.A. Method for manufacturing a template to adapt the shape of a bone defect in a jaw to a bone superstructure
KR101915215B1 (en) * 2014-05-07 2018-11-06 얼라인 테크널러지, 인크. Identification of areas of interest during intraoral scans

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2642167C2 (en) 2015-08-14 2018-01-24 Самсунг Электроникс Ко., Лтд. Device, method and system for reconstructing 3d-model of object

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040027347A1 (en) 2002-06-12 2004-02-12 Ali Farsaie Discrete linear space sampling method and apparatus for generating digital 3D models
US20150150684A1 (en) 2012-06-05 2015-06-04 Dental Vision B.V.B.A. Method for manufacturing a template to adapt the shape of a bone defect in a jaw to a bone superstructure
KR101295610B1 (en) * 2012-11-02 2013-08-12 주식회사 리얼오쏘 Teeth coloring device
KR101915215B1 (en) * 2014-05-07 2018-11-06 얼라인 테크널러지, 인크. Identification of areas of interest during intraoral scans

Also Published As

Publication number Publication date
KR20220061001A (en) 2022-05-12

Similar Documents

Publication Publication Date Title
US7840042B2 (en) Superposition for visualization of three-dimensional data acquisition
US11723759B2 (en) Detecting tooth shade
US9245374B2 (en) Space carving in 3D data acquisition
CN110381880A (en) Method for constructing dummy
CN107595413A (en) Tooth preparations guiding piece
KR102232294B1 (en) Method for displaying multi-bone density for dental implant planning and image processing apparatus thereof
JP2022516488A (en) Teeth segmentation using tooth alignment
TWI744859B (en) Method for detecting tooth object and method and apparatus for matching of images using tooth object
KR102632338B1 (en) Data processing method
KR102534778B1 (en) Method and apparatus for obtaining three dimensional data and computer readable medium storing a program for performing the same method
US20230290093A1 (en) Data processing method
JP7245335B2 (en) A blended method of acquiring 3D data using an intraoral scanner
KR102474298B1 (en) Method for designing prosthetic model and apparatus thereof
US20240058105A1 (en) Augmentation of 3d surface of dental site using 2d images
US11961238B2 (en) Tooth segmentation using tooth registration
KR102593160B1 (en) Data processing method
US20230218374A1 (en) Data processing apparatus, data processing method, and data processing system
KR102344520B1 (en) Dental implant simulation method and apparatus thereof
EP4113373A1 (en) Dental procedures
US20230218375A1 (en) Data processing apparatus, data processing method, and data processing system
Pupykina et al. Algorithm for the boundary detection of dental crowns for 3D dental model segmentation
WO2024039547A1 (en) Augmentation of 3d surface of dental site using 2d images
KR20220163859A (en) Data processing method
CN115438017A (en) Data processing method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant