KR102623248B1 - Data processing method - Google Patents
Data processing method Download PDFInfo
- Publication number
- KR102623248B1 KR102623248B1 KR1020210129065A KR20210129065A KR102623248B1 KR 102623248 B1 KR102623248 B1 KR 102623248B1 KR 1020210129065 A KR1020210129065 A KR 1020210129065A KR 20210129065 A KR20210129065 A KR 20210129065A KR 102623248 B1 KR102623248 B1 KR 102623248B1
- Authority
- KR
- South Korea
- Prior art keywords
- data
- group
- lower jaw
- processing method
- scanning
- Prior art date
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 46
- 238000000034 method Methods 0.000 claims description 93
- 210000002050 maxilla Anatomy 0.000 claims description 29
- 230000008569 process Effects 0.000 description 63
- 210000004373 mandible Anatomy 0.000 description 17
- 230000008901 benefit Effects 0.000 description 15
- 238000011282 treatment Methods 0.000 description 14
- 210000000214 mouth Anatomy 0.000 description 9
- 239000011505 plaster Substances 0.000 description 8
- 238000002360 preparation method Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 210000001847 jaw Anatomy 0.000 description 4
- 210000004283 incisor Anatomy 0.000 description 3
- 238000011369 optimal treatment Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000004904 shortening Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 241000282465 Canis Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 210000004195 gingiva Anatomy 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003254 palate Anatomy 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C9/00—Impression cups, i.e. impression trays; Impression methods
- A61C9/004—Means or methods for taking digitized impressions
- A61C9/0046—Data acquisition means or methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0082—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
- A61B5/0088—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B18/00—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
- A61B18/18—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves
- A61B18/20—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves using laser
- A61B2018/2035—Beam shaping or redirecting; Optical components therefor
- A61B2018/20351—Scanning mechanisms
- A61B2018/20353—Scanning in three dimensions [3D]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30036—Dental; Teeth
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
Abstract
본 발명에 따른 데이터 처리 방법은, 대상체를 스캔하여 상하악 데이터를 획득하는 단계, 및 획득한 상기 상하악 데이터를 기초로 상기 대상체의 3차원 모델을 생성하는 단계를 포함하고, 상기 상하악 데이터를 획득하는 단계는, 상기 상하악 데이터를 구성하는 그룹들 중 제1 그룹에 포함되는 데이터 조각들을 획득하고, 상기 제1 그룹과 상호 중첩되지 않는 제2 그룹에 포함되는 데이터 조각들을 획득하며, 상기 제1 그룹과 제2 그룹은 얼라인이 끊길 수 있다.The data processing method according to the present invention includes the steps of scanning an object to obtain upper and lower jaw data, and generating a three-dimensional model of the object based on the obtained upper and lower jaw data, wherein the upper and lower jaw data The acquiring step includes acquiring data pieces included in a first group among the groups constituting the upper and lower jaw data, acquiring data pieces included in a second group that do not overlap with the first group, and Group 1 and Group 2 may lose alignment.
Description
본 발명은 데이터 처리 방법에 관한 것이다.The present invention relates to a data processing method.
3차원 구강 스캐너는 인상채득(impression taking)을 실시하여 환자의 구강을 표현하는 석고 모형을 획득한 후, 상기 석고 모형을 분석하는 종래의 방식에서 탈피하여, 환자의 구강을 입체적으로 스캔하여 디지털 3차원 모델을 획득한다. 3차원 CAD/CAM 기술의 발전에 따라, 3차원 모델은 계속적으로 정밀해지고 있으며, 사용자는 다양한 분석을 수행하기 위해 복수의 석고 모형을 제작하는 대신, 하나의 3차원 모델을 사용할 수 있다. 또한, 3차원 모델에 복수의 치료 계획을 적용하는 것 또한 가능하며, 3차원 모델의 원본 파일이 유지되어 반복 사용이 가능한 이점이 있다.The 3D oral scanner breaks away from the conventional method of performing impression taking to obtain a plaster model representing the patient's mouth and then analyzing the plaster model, and scans the patient's mouth three-dimensionally to create a digital 3D scanner. Obtain a dimensional model. With the advancement of 3D CAD/CAM technology, 3D models continue to become more precise, allowing users to use a single 3D model instead of producing multiple plaster casts to perform various analyses. In addition, it is possible to apply multiple treatment plans to the 3D model, and the original file of the 3D model is maintained, allowing repeated use.
한편, 3차원 구강 스캐너의 사용자는 환자의 실제 구강, 또는 상기 구강을 본떠 획득한 석고 모형을 스캔할 때, 유저 인터페이스(user interface; UI) 상에서 정해진 순서에 따라 스캔을 진행해야 했다. 즉, 사용자는 스캔 소프트웨어의 기설정된 스캔 스테이지에 스캔 활동이 일부 제한되어 왔다. 예시적으로, 스캔 소프트웨어는 제1 스캔 스테이지에서 삭제(preparation) 이전의 상악을, 제2 스캔 스테이지에서 삭제 이전의 하악을, 제3 스캔 스테이지에서 삭제 이후의 상악을, 제4 스테이지에서 삭제 이후의 하악을, 제5 스테이지에서 스캔바디(scanbody)를, 그리고 제6 스테이지에서 교합을 스캔하도록 설정된다. 한편, 사용자는 각자의 편리한 스캔 전략을 사용하여 대상체를 스캔하고자 한다. 그러나, 종래의 시스템에서는 기설정된 스테이지별로 스캔을 수행하여야 하므로, 사용자의 자유로운 스캔이 실질적으로 불가능하였다. 사용자는 각각의 스테이지를 유저 인터페이스 화면에서 선택하는 과정과 3차원 구강 스캐너를 사용하는 과정을 번갈아 수행해야 했다. 예시적으로, 사용자는 6개의 스테이지에 대한 스캔 데이터를 획득할 때, 적어도 6회의 조작과 6회의 스캔을 수행하여야 하므로, 스캔 과정이 복잡한 문제가 있다. 이에 따라, 사용자의 집중력이 낮아지거나, 오랜 스캔 소요 시간에 의해 환자의 체어 타임(chair time)을 증가시켜 환자의 치료 피로감을 상승시키는 문제가 있다.Meanwhile, when scanning a patient's actual mouth or a plaster model obtained by imitating the mouth, the user of the 3D oral scanner had to scan according to a set order on the user interface (UI). That is, the user's scanning activities have been partially limited to preset scan stages of the scanning software. Exemplarily, the scan software may perform the maxilla before preparation in the first scan stage, the mandible before preparation in the second scan stage, the maxilla after preparation in the third scan stage, and the maxilla after preparation in the fourth stage. It is set up to scan the mandible, the scanbody in the 5th stage, and the occlusion in the 6th stage. Meanwhile, users want to scan the object using their own convenient scanning strategy. However, in the conventional system, scanning must be performed for each preset stage, making free scanning by the user virtually impossible. The user had to alternate between selecting each stage on the user interface screen and using the 3D intraoral scanner. For example, when a user acquires scan data for 6 stages, the user must perform at least 6 operations and 6 scans, making the scanning process complicated. Accordingly, there is a problem that the user's concentration is lowered or the patient's chair time is increased due to the long scanning time, which increases the patient's treatment fatigue.
게다가, 각각의 스테이지에 부합하는 주제의 스캔 데이터를 획득해야 하므로, 사용자의 스캔 자유도가 크게 제한되었다.In addition, since scan data of subjects corresponding to each stage had to be acquired, the user's freedom of scanning was greatly limited.
또한, 종래의 시스템에서 사용자는 스캔 과정에서 데이터 간 얼라인이 끊기는 경우, 해당 얼라인이 재개되지 않는 이상 후속 데이터를 획득할 수 없도록 설계되어 있었다. 사용자는, 얼라인이 중단된 지점을 찾아내어 해당 지점부터 스캔을 재개해야 했다. 이러한 과정은 사용자의 피로도를 증가시키고 스캔 소요 시간을 증가시키는 문제를 야기하였다.Additionally, in the conventional system, if the alignment between data is interrupted during the scanning process, the user is designed to be unable to obtain subsequent data unless the alignment is resumed. The user had to find the point where alignment was interrupted and resume scanning from that point. This process caused problems of increasing user fatigue and increasing scanning time.
전술한 문제점을 해결하기 위해서, 본 발명은 복잡한 스캔 스테이지를 단일화하고, 데이터 간 얼라인이 끊기더라도 스캔 과정이 중단되지 않고 계속적으로 수행되는 데이터 처리 방법을 제공한다.In order to solve the above-mentioned problems, the present invention provides a data processing method that unifies complex scan stages and allows the scanning process to be continuously performed without interruption even if the alignment between data is broken.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below.
전술한 바와 같은 목적을 달성하기 위해서, 본 발명에 따른 데이터 처리 방법은, 대상체를 스캔하여 상하악 데이터를 획득하는 단계, 및 획득한 상기 상하악 데이터를 기초로 상기 대상체의 3차원 모델을 생성하는 단계를 포함하고, 상기 상하악 데이터를 획득하는 단계는, 상기 상하악 데이터를 구성하는 그룹들 중 제1 그룹에 포함되는 데이터 조각들을 획득하고, 상기 제1 그룹과 상호 중첩되지 않는 제2 그룹에 포함되는 데이터 조각들을 획득하며, 상기 제1 그룹과 제2 그룹은 얼라인이 끊길 수 있다.In order to achieve the above-described object, the data processing method according to the present invention includes the steps of scanning an object to obtain upper and lower jaw data, and generating a three-dimensional model of the object based on the obtained upper and lower jaw data. The step of acquiring the upper and lower jaw data includes acquiring data pieces included in a first group among the groups constituting the upper and lower jaw data, and dividing them into a second group that does not overlap with the first group. When the included data pieces are acquired, the first group and the second group may be out of alignment.
또한, 본 발명에 따른 데이터 처리 방법은, 전술한 단계들의 세부적인 과정들에 따라 다양한 실시예를 통해 수행될 수 있다.Additionally, the data processing method according to the present invention can be performed through various embodiments according to the detailed processes of the steps described above.
본 발명에 따른 데이터 처리 방법을 사용함으로써, 사용자는 대상체를 자유롭게 스캔하여 정밀한 3차원 모델을 획득할 수 있으며, 얼라인이 끊겨도 계속적으로 후속의 스캔 데이터를 획득할 수 있으므로, 스캔 소요 시간을 단축시키는 이점이 있다.By using the data processing method according to the present invention, the user can freely scan the object to obtain a precise three-dimensional model, and even if the alignment is broken, subsequent scan data can be continuously acquired, shortening the time required for scanning. There is an advantage to doing so.
또한, 복잡한 스캔 스테이지를 단순화하여 사용자의 편의성을 증가시키고, 환자의 치료 피로감을 경감시키는 이점이 있다.In addition, there is an advantage of simplifying the complex scan stage to increase user convenience and reduce patient treatment fatigue.
도 1은 본 발명에 따른 데이터 처리 방법의 순서도이다.
도 2는 상하악 데이터를 설명하기 위한 것이다.
도 3은 상하악 데이터가 그룹별로 구성된 형태를 설명하기 위한 것이다.
도 4는 본 발명에 따른 데이터 처리 방법에서, 상하악 데이터를 획득하는 단계를 수행하는 일 예시이다.
도 5는 본 발명에 따른 데이터 처리 방법에서, 상하악 데이터를 획득하는 단계를 수행하는 다른 예시이다.
도 6은 본 발명에 따른 데이터 처리 방법에서, 동일한 스테이지에서 상하악 데이터가 획득되는 과정을 설명하기 위한 것이다.
도 7은 데이터 조각을 획득하는 과정을 설명하기 위한 것이다.
도 8은 얼라인이 끊겨 복수의 그룹이 생성되는 과정을 설명하기 위한 것이다.
도 9는 그룹들이 재얼라인되어 병합되는 과정을 설명하기 위한 것이다.
도 10은 교합 데이터를 획득하는 단계를 설명하기 위한 것이다.
도 11은 시술 중 치아 삭제 이후의 대상체를 스캔하는 과정을 설명하기 위한 것이다.
도 12는 시술 중 스캔바디 식립 이후의 대상체를 스캔하는 과정을 설명하기 위한 것이다.
도 13은 복수의 스캔 데이터를 유저 인터페이스 화면에 표시한 것이다.
도 14는 본 발명의 다른 실시예에 따른 데이터 처리 방법의 순서도이다.
도 15는 본 발명의 일 실시예에 따른 데이터 처리 장치의 개략적인 구성도이다.1 is a flowchart of a data processing method according to the present invention.
Figure 2 is for explaining upper and lower jaw data.
Figure 3 is for explaining how upper and lower jaw data are organized by group.
Figure 4 is an example of performing the step of acquiring upper and lower jaw data in the data processing method according to the present invention.
Figure 5 is another example of performing the step of acquiring upper and lower jaw data in the data processing method according to the present invention.
Figure 6 is for explaining the process of obtaining upper and lower jaw data at the same stage in the data processing method according to the present invention.
Figure 7 is to explain the process of acquiring a piece of data.
Figure 8 is to explain the process in which alignment is broken and multiple groups are created.
Figure 9 is to explain the process of realigning and merging groups.
Figure 10 is for explaining the step of acquiring occlusion data.
Figure 11 is for explaining the process of scanning an object after tooth removal during a procedure.
Figure 12 is for explaining the process of scanning an object after inserting a scan body during a procedure.
Figure 13 shows a plurality of scan data displayed on a user interface screen.
Figure 14 is a flowchart of a data processing method according to another embodiment of the present invention.
Figure 15 is a schematic configuration diagram of a data processing device according to an embodiment of the present invention.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail through illustrative drawings. When adding reference numerals to components in each drawing, it should be noted that identical components are given the same reference numerals as much as possible even if they are shown in different drawings. Additionally, when describing embodiments of the present invention, if detailed descriptions of related known configurations or functions are judged to impede understanding of the embodiments of the present invention, the detailed descriptions will be omitted.
본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In describing the components of the embodiment of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are only used to distinguish the component from other components, and the nature, sequence, or order of the component is not limited by the term. Additionally, unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as generally understood by a person of ordinary skill in the technical field to which the present invention pertains. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted in an ideal or excessively formal sense unless explicitly defined in the present application. No.
본 명세서에서 본 발명을 설명함에 있어서, '데이터가 획득된다'는 것은 대상체를 스캔하여 획득한 적어도 하나의 데이터 조각을 3차원으로 모델링하는 것을 의미할 수 있다. 이 때, 데이터 조각은 대상체를 스캔하는 과정에서 획득한 스캔 데이터일 수 있으며, 스캔 데이터는 2차원 평면 이미지 데이터이거나 3차원 입체 이미지 샷(shot)일 수 있다.In explaining the present invention herein, 'data is acquired' may mean modeling at least one piece of data obtained by scanning an object in three dimensions. At this time, the data piece may be scan data acquired in the process of scanning an object, and the scan data may be two-dimensional flat image data or a three-dimensional stereoscopic image shot.
또한, '얼라인이 끊긴다'는 것은 데이터 조각들 사이에 중첩되는 부분이 존재하지 않아 데이터 조각들이 정렬되지 않는 것을 의미할 수 있다.Additionally, 'the alignment is broken' may mean that the data pieces are not aligned because there is no overlapping part between the data pieces.
도 1은 본 발명에 따른 데이터 처리 방법의 순서도이고, 도 2는 상하악 데이터(100)를 설명하기 위한 것이다.Figure 1 is a flow chart of the data processing method according to the present invention, and Figure 2 is for explaining the upper and
도 1 및 도 2를 참조하면, 본 발명에 따른 데이터 처리 방법은 대상체를 스캔하여 상하악 데이터를 획득하는 단계(S110)를 포함한다. 대상체는 본 발명에 따른 데이터 처리 방법이 수행되는 3차원 구강 스캐너가 스캔하는 대상을 의미할 수 있다. 예시적으로, 대상체는 환자의 실제 구강일 수도 있고, 상기 구강을 인상 재료를 사용하여 채득한 인상(impression) 모형일 수도 있으며, 또는 상기 인상 모형에 석고를 부어 획득한 석고 모형일 수도 있다. 석고 모형은 환자 구강의 형상을 나타내며, 예시적으로 석고 모형은 치아 및/또는 치은의 굴곡, 치아의 크기, 교합된 형상 등을 나타낸다.Referring to Figures 1 and 2, the data processing method according to the present invention includes a step (S110) of acquiring upper and lower jaw data by scanning an object. The object may refer to an object scanned by a 3D intraoral scanner on which the data processing method according to the present invention is performed. Illustratively, the object may be the patient's actual mouth, an impression model of the mouth obtained using an impression material, or a plaster model obtained by pouring plaster on the impression model. The plaster model represents the shape of the patient's mouth. For example, the plaster model represents the curvature of the teeth and/or gingiva, the size of the teeth, the occlusal shape, etc.
상하악 데이터(100)는 상악 데이터(101)와 하악 데이터(102)를 포함할 수 있다. 예시적으로, 상악 데이터(101)와 하악 데이터(102)는 평면 형상으로 도시되었으나, 상악 데이터(101)와 하악 데이터(102)는 유저 인터페이스 화면 상에서 3차원으로 표시된다.The upper and
이하에서는, 상하악 데이터(100)를 구성하는 그룹(200)에 대해 설명한다.Below, the
도 3은 상하악 데이터(100)가 그룹(200)별로 구성된 형태를 설명하기 위한 것이다.FIG. 3 is for explaining how the upper and
도 3을 참조하면, 상하악 데이터(100)는 적어도 하나의 그룹(200)으로 구성될 수 있다. 예시적으로, 상하악 데이터(100)는 제1 그룹(201), 제2 그룹(201), 제3 그룹(미도시), 및 제n 그룹(210)을 포함하는 복수의 그룹(200)으로 구성될 수 있다. 이 때, 각각의 그룹(200)들은 상호 얼라인되지 않을 수 있다. 또한, 상기 그룹(200)은 데이터 조각들의 집합일 수 있다. 예시적으로, 데이터 조각들은 대상체를 스캔하는 과정에서 획득한 스캔 데이터일 수 있으며, 스캔 데이터는 대상체를 촬영하여 획득한 2차원 평면 이미지 데이터이거나, 상기 2차원 평면 이미지 데이터를 3차원 모델링하여 획득한 3차원 입체 이미지 샷(shot)일 수 있다.Referring to FIG. 3, upper and
상하악 데이터를 획득하는 단계(S110)는, 상하악 데이터(100)를 구성하는 그룹(200)들 중 제1 그룹(201)에 포함되는 데이터 조각들을 획득하고, 제2 그룹(202)에 포함되는 데이터 조각들을 획득할 수 있다. 이 때, 제1 그룹(201)과 제2 그룹(202)은 상호 중첩되지 않는다. 예시적으로, 제1 그룹(201)과 제2 그룹(202)은 얼라인이 끊길 수 있다. 보다 상세하게는, 대상체를 스캔하여 제1 그룹(201)에 포함되는 데이터 조각들을 획득하는 중에 얼라인이 끊기게 되면, 얼라인이 끊기기 전에 획득된 데이터 조각들은 제1 그룹(201)에 포함되며, 얼라인이 끊긴 후에 획득되는 데이터 조각들은 얼라인이 끊긴 후 신규로 생성되는 제2 그룹(202)에 포함될 수 있다. 이와 같이, 스캔 과정에서 얼라인이 끊기는 여부에 따라 상호 중첩되지 않는 복수의 그룹(200)들이 생성될 수 있다. 이러한 과정에 따라, 그룹(200)들은 각각 적어도 하나의 데이터 조각을 포함할 수 있으며, 상이한 그룹(200)에 포함된 데이터 조각은 상호 중첩되지 않을 수 있다.In the step of acquiring upper and lower jaw data (S110), data pieces included in the
도 4는 본 발명에 따른 데이터 처리 방법에서, 상하악 데이터를 획득하는 단계(S110)를 수행하는 일 예시이다.Figure 4 is an example of performing the step (S110) of acquiring upper and lower jaw data in the data processing method according to the present invention.
도 4를 참조하여 상하악 데이터(100)를 획득하는 과정에 대해 보다 자세한 예시를 들어 설명한다. 본 발명에 따른 데이터 처리 방법에서, 상하악 데이터를 획득하는 단계(S110)는 상악 데이터(101)를 나타내는 데이터 조각들을 획득하고, 하악 데이터(102)를 나타내는 데이터 조각들을 획득할 수 있다. 예시적으로, 제1 그룹(201)은 상악 데이터를 구성하는 적어도 하나의 상악 데이터 그룹이고, 제2 그룹(202)은 하악 데이터를 구성하는 적어도 하나의 하악 데이터 그룹일 수 있다. 보다 상세하게는, 제1 그룹(201), 제3 그룹(203), 및 제5 그룹(205)은 각각 상악 데이터의 일부분일 수 있으며, 제2 그룹(202), 제4 그룹(204), 및 제6 그룹(206)은 각각 하악 데이터의 일부분일 수 있다. 사용자는 스캐너를 통해 먼저 제1 그룹(201)에 포함되는 데이터 조각들을 획득할 수 있다. 이 때, 제1 그룹(201)에 포함되는 데이터 조각들은 대상체의 상악 제1 측을 나타낼 수 있다. 예시적으로, 제1 그룹(201)에 포함되는 데이터 조각들은 상악의 일측 제1 대구치, 및 상악의 일측 제2 대구치를 포함하는 상악의 특정 영역을 나타낼 수 있다.With reference to FIG. 4 , the process of acquiring upper and
한편, 사용자는 스캐너의 방향을 변경하여 제2 그룹(202)에 포함되는 데이터 조각들을 획득할 수 있다. 이 때, 제2 그룹(202)에 포함되는 데이터 조각들은 대상체의 하악 제1 측을 나타낼 수 있다. 예시적으로, 제2 그룹(202)에 포함되는 데이터 조각들은 하악의 일측 제1 대구치, 및 하악의 일측 제2 대구치를 포함하는 하악의 특정 영역을 나타낼 수 있다. 상악과 하악은 이개되어 상호 이격 형성되므로, 상악 데이터(101)에 포함되는 제1 그룹(201)과 하악 데이터(102)에 포함되는 제2 그룹(202)은 얼라인이 끊긴 상태로 형성된다.Meanwhile, the user can obtain data pieces included in the
또한, 사용자는 다시 스캐너의 방향을 변경하여 제3 그룹(203)에 포함되는 데이터 조각들을 획득할 수 있다. 이 때, 제3 그룹(203)에 포함되는 데이터 조각들은 대상체의 상악 제2 측을 나타낼 수 있다. 예시적으로, 제3 그룹(203)에 포함되는 데이터 조각들은 상악의 전치들 중 적어도 일부, 상악의 타측 제1 대구치, 및 상악의 타측 제2 대구치를 포함하는 상악의 특정 영역을 나타낼 수 있다. 제3 그룹(203)은 상악 데이터(101)에 포함된 제1 그룹(201)과 하악 데이터(102)에 포함된 제2 그룹(202)과 얼라인이 끊긴 상태로 형성된다.Additionally, the user can change the direction of the scanner again to obtain data pieces included in the
동일한 방식으로, 하악의 전치들 중 적어도 일부를 포함하는 제4 그룹(204)의 데이터 조각들, 상악의 견치들 중 적어도 일부를 포함하는 제5 그룹(205)의 데이터 조각들, 및 하악의 타측 제1 대구치 및 하악의 타측 제2 대구치를 포함하는 제6 그룹(206)의 데이터 조각들을 획득할 수 있다. 제1 그룹 내지 제6 그룹(201, 202, 203, 204, 205, 206)은 그룹간 얼라인이 끊긴 상태로 형성된다. 추가적인 데이터 조각들을 획득함으로써, 사용자는 상악 데이터(101)와 하악 데이터(102)를 획득할 수 있다.In the same way, data pieces of the
즉, 사용자는 대상체의 하악 일부를 스캔하다가, 대상체의 상악 일부를 스캔하고, 다시 대상체의 하악의 다른 일부를 스캔하는 방식으로 상하악 데이터(100)를 획득할 수 있다.That is, the user may obtain the upper and
전술한 바와 같이, 선행하는 그룹에 포함된 데이터 조각들과 얼라인되지 않는 데이터 조각들이 획득되더라도, 상하악 데이터(100)를 획득하는 과정이 중단되지 않고, 얼라인이 끊긴 이후 획득된 데이터 조각들을 후속 그룹에 포함되도록 한다. 이에 따라, 사용자는 얼라인이 끊긴 지점으로 복귀하여 스캔 과정을 재개할 필요없이 대상체를 자유롭게 스캔할 수 있는 이점이 있다. 또한, 사용자는 일측 구석의 상악과 하악을 스캔하고, 타측 구성의 상악과 하악을 스캔한 다음, 중앙 전치 부분의 상악과 하악을 스캔하는 과정과 같이, 사용자가 대상체를 스캔하기 편리한 순서에 따라 스캔 과정을 수행할 수 있는 이점도 있다.As described above, even if data pieces that are not aligned with the data pieces included in the preceding group are acquired, the process of acquiring the upper and
다만, 상하악 데이터(100)가 반드시 6개의 그룹(200)을 포함하는 것은 아니며, 경우에 따라 일부 그룹(200)들은 재얼라인(re-align)되어 병합될 수도 있다. 일부 그룹(200)의 재얼라인 및 병합 과정은 후술한다.However, the upper and
도 5는 본 발명에 따른 데이터 처리 방법에서, 상하악 데이터를 획득하는 단계(S110)를 수행하는 다른 예시이다.Figure 5 is another example of performing the step (S110) of acquiring upper and lower jaw data in the data processing method according to the present invention.
도 5를 참조하여, 새로운 예시를 들어 상하악 데이터를 획득하는 단계(S110)를 설명한다. 제1 그룹(201)은 상악 데이터(101)를 구성하는 적어도 하나의 상악 데이터 그룹이고, 제2 그룹(202)은 제1 그룹(201)과 상호 중첩되지 않는 상악 데이터(101)의 다른 그룹일 수 있다. 예시적으로, 제1 그룹(201)에 포함되는 데이터 조각들은 상악의 일측 제1 대구치, 및 상악의 일측 제2 대구치를 포함하는 상악의 특정 영역을 나타낼 수 있고, 제2 그룹(202)에 포함되는 데이터 조각들은 상악의 전치들 중 적어도 일부, 상악의 타측 제1 대구치, 및 상악의 타측 제2 대구치를 포함하는 상악의 특정 영역을 나타낼 수 있다. 사용자는 제1 그룹(201), 제2 그룹(202), 제3 그룹(203), 제4 그룹(204), 제5 그룹(205), 제6 그룹(206)의 순서로 스캔 과정을 수행할 수 있다. 제1 그룹 내지 제3 그룹(201, 202, 203)은 상악 데이터(101)에 포함되고, 제4 그룹 내지 제6 그룹(204, 205, 206)은 하악 데이터(102)에 포함될 때, 사용자는 제1 그룹 내지 제3 그룹(201, 202, 203)에 해당하는 대상체의 상악을 먼저 스캔하고, 대상체의 상악의 스캔을 완료한 후 제4 그룹 내지 제6 그룹(204, 205, 206)에 해당하는 대상체의 하악을 스캔할 수 있다. 이 때, 제3 그룹(203)은 상악 데이터(101)에 포함되고, 제4 그룹(204)은 하악 데이터(102)에 포함되며, 상악 데이터(101)와 하악 데이터(102)는 중첩되는 부분이 존재하지 않는다. 따라서, 대상체의 상악을 스캔하여 제3 그룹(203)의 스캔을 수행하다가, 대상체의 하악을 스캔하는 경우, 제3 그룹(203)에 포함된 데이터 조각들과의 얼라인이 끊기게 되고, 하악 데이터 그룹에 해당하는 신규의 제4 그룹(204)이 생성된다. 이와 같이, 제3 그룹(203)에 포함되는 데이터 조각들과 얼라인되지 않는 데이터 조각들이 입력되는 경우, 상기 얼라인되지 않는 데이터 조각들을 포함하는 신규의 그룹이 생성되어, 얼라인이 끊긴 이후에도 계속적으로 데이터 조각들을 획득할 수 있다.With reference to FIG. 5 , the step (S110) of acquiring upper and lower jaw data will be described using a new example. The
또는, 도시된 도면과는 달리, 제1 그룹은 하악 데이터를 구성하는 적어도 하나의 하악 데이터 그룹이고, 제2 그룹은 제1 그룹과 상호 중첩되지 않는 하악 데이터의 다른 그룹일 수 있다. 즉, 사용자는 대상체의 하악을 전체적으로 스캔한 후, 상악을 전체적으로 스캔하는 방식으로 상하악 데이터를 획득할 수 있다.Alternatively, unlike the drawings, the first group may be at least one lower jaw data group constituting lower jaw data, and the second group may be another group of lower jaw data that does not overlap with the first group. That is, the user can obtain upper and lower jaw data by scanning the entire lower jaw of the object and then scanning the upper jaw as a whole.
그룹(200)들은 상악 데이터(101)를 구성할 수도 있고, 하악 데이터(102)를 구성할 수도 있으며, 스캔 순서에 구속되지 않는다. 즉, 상하악 데이터를 획득하는 단계(S110)는 단일 스테이지에서 수행될 수 있다. 상하악 데이터를 획득하는 단계(S110)가 단일 스테이지에서 수행됨으로써, 사용자는 상악 데이터(101)와 하악 데이터(102)의 획득 순서를 고려하지 않고 자유롭게 스캔 과정을 수행할 수 있는 이점이 있다.The
도 6은 본 발명에 따른 데이터 처리 방법에서, 동일한 스테이지에서 상하악 데이터가 획득되는 과정을 설명하기 위한 것이다.Figure 6 is for explaining the process of obtaining upper and lower jaw data at the same stage in the data processing method according to the present invention.
도 6을 참조하면, 유저 인터페이스 화면(600) 상에 사용자가 대상체를 스캔하는 과정이 실시간으로 표시될 수 있다. 유저 인터페이스 화면(600)의 일측에 완성된 상악 데이터(101)의 형상이 썸네일의 형태로 표시될 수 있다. 이 때, 상악 데이터(101)는 제1 그룹(201)에 포함된 데이터 조각들이 3차원 모델링 및 얼라인되어 생성될 수 있다. 한편, 유저 인터페이스 화면 (600)의 타측에는 실시간 스캔 과정을 통해 획득되는 데이터 조각이 나타날 수 있다. 예시적으로, 제2 그룹(202)에 포함될 하악 데이터(102)의 제2 그룹 데이터 조각들(2021)이 획득될 수 있다. 이와 같이, 본 발명에 따른 데이터 처리 방법은 하나의 단일 스테이지에서 상악 데이터(101)와 하악 데이터(102)를 획득할 수 있다. 따라서, 각각의 스테이지(예를 들면, 상악 데이터 스테이지, 하악 데이터 스테이지, 및 교합 데이터 스테이지 등)에 대응되는 대상체의 부분들을 스캔해야 했던 종래 기술과 달리, 본 발명에 따른 데이터 처리 방법은 사용자가 스캔 과정에 집중할 수 있도록 하고, 사용자의 스캔 자유도를 향상시키는 이점이 있다.Referring to FIG. 6 , the process of a user scanning an object may be displayed in real time on the
즉, 도 4 내지 도 6을 참조하여 설명한 바와 같이, 본 발명에 따른 데이터 처리 방법은 사용자가 데이터 조각들 간의 얼라인이 끊기는지 여부를 고려하지 않고 스캔 과정을 수행할 수 있어 사용자 편의성을 향상시키고, 스캔 소요 시간을 단축시키는 이점이 있다.That is, as explained with reference to FIGS. 4 to 6, the data processing method according to the present invention allows the user to perform the scanning process without considering whether the alignment between data pieces is broken, thereby improving user convenience and , it has the advantage of shortening the scanning time.
이하에서는, 상하악 데이터(100)를 구성하는 그룹(200)에 포함되는 데이터 조각들이 획득되는 과정에 대해 설명한다.Below, the process by which data pieces included in the
도 7은 데이터 조각을 획득하는 과정을 설명하기 위한 것, 도 8은 얼라인이 끊겨 복수의 그룹이 생성되는 과정을 설명하기 위한 것이다.FIG. 7 is for explaining the process of acquiring a piece of data, and FIG. 8 is for explaining the process of creating multiple groups when alignment is broken.
도 7을 참조하면, 유저 인터페이스 화면(600) 상에 사용자가 대상체를 스캔하는 과정이 실시간으로 표시될 수 있다. 유저 인터페이스 화면(600)의 일측에 기형성된 그룹이 포함하는 데이터 조각들이 얼라인되어 썸네일(thumbnail)의 형태로 표시될 수 있다. 예시적으로, 제1 그룹(201)이 포함하는 데이터 조각들이 얼라인된 형상이 표시된다.Referring to FIG. 7 , the process of a user scanning an object may be displayed in real time on the
한편, 유저 인터페이스 화면(600)의 타측에는 제1 그룹(201)과 얼라인이 끊겨, 제2 그룹(202)을 구성하는 데이터 조각들이 실시간으로 획득되는 과정이 나타난다. 제2 그룹 데이터 조각들(2021)은 조각들 간에 얼라인되어 제2 그룹(202)을 구성할 수 있다.Meanwhile, on the other side of the
도 3, 도 7 및 도 8을 참조하면, 제2 그룹 데이터 조각들(2021)을 획득하다가, 획득되는 데이터 조각의 얼라인이 끊기는 경우, 얼라인이 끊긴 시점 이전에 획득된 데이터 조각은 제2 그룹(202)을 구성하고, 제2 그룹(202)이 포함하는 데이터 조각들이 얼라인된 형상이 썸네일의 형태로 유저 인터페이스 화면(600)의 일측에 생성된다. 예시적으로, 제1 그룹(201)의 썸네일과 제2 그룹(202)의 썸네일이 유저 인터페이스 화면(600)의 좌측에 표시되고, 제3 그룹(203)을 구성하는 제3 그룹 데이터 조각들(2031)이 획득될 수 있다.Referring to FIGS. 3, 7, and 8, while acquiring the second
다만, 데이터 조각들이 포함되는 그룹(200)들이 생성되는 시점은 제한되지 않는다. 예시적으로, 스캔 과정이 시작되어 데이터 조각들이 획득되다가 새로이 획득된 데이터 조각과의 얼라인이 끊어지는 경우, 얼라인이 끊어지기 전까지 획득한 데이터 조각들을 포함하는 제1 그룹(201)이 생성될 수 있다.However, the timing at which
또한, 다른 예시로, 스캔 과정이 시작되면 제1 그룹(201)이 생성되고, 스캔 과정을 통해 획득되는 데이터 조각들이 제1 그룹(201)에 포함될 수 있다. 이후, 새로이 획득된 데이터 조각과 기획득된 데이터 조각들과의 얼라인이 끊어지는 경우, 얼라인이 끊어진 이후에 획득한 데이터 조각들을 포함하기 위한 제2 그룹(202)이 생성될 수도 있다.Additionally, as another example, when a scanning process starts, a
이하에서는, 상이한 그룹(200)에 포함된 데이터 조각들이 중첩되어 재얼라인 및 병합되는 과정에 대해 설명한다.Below, a process in which data pieces included in
도 9는 그룹(200)들이 재얼라인되어 병합되는 과정을 설명하기 위한 것이다.Figure 9 is for explaining the process in which
도 9를 참조하면, 그룹(200)들 중 적어도 일부는, 대상체를 스캔하여 획득되는 신규 데이터 조각에 의해 상호 중첩되는 영역이 형성될 수 있다. 예시적으로, 제3 그룹(203)을 구성하는 제3 그룹 데이터 조각들(2031)을 획득하는 과정에서, 제3 그룹 데이터 조각들(2031) 중 적어도 일부가 제1 그룹(201)에 포함된 제1 그룹 데이터 조각들(2011) 중 적어도 일부와 상호 중첩될 수 있다. 이 때, 제1 그룹(201)과 제3 그룹(203)은 얼라인될 수 있다. 이러한 현상을 '재얼라인(re-align)'으로 지칭한다. 그룹(200)들이 재얼라인되는 경우, 재얼라인되는 그룹(200)들은 병합되어 하나의 병합 그룹을 형성할 수 있다. 예시적으로, 제1 그룹(201)과 제3 그룹(203)이 재얼라인되면, 제1 그룹(201)과 제3 그룹(203)은 병합되어 하나의 병합 그룹을 형성하고, 유저 인터페이스 화면(600)의 일측에 표시되던 제1 그룹(201)의 썸네일은 삭제될 수 있다. 병합 그룹이 형성된 이후, 획득된 신규 데이터 조각들은 병합 그룹에 포함된 데이터 조각들과 실시간으로 얼라인될 수 있다.Referring to FIG. 9 , in at least some of the
이와 같이, 그룹(200)들이 재얼라인 및 병합됨으로써, 본 발명에 따른 데이터 처리 방법이 수행되는 시스템의 연산 부하를 경감시킬 수 있으며, 최종적으로 대상체를 나타내는 데이터 공백이 최소화된 정밀한 3차원 모델을 획득할 수 있는 이점이 있다.In this way, by realigning and merging the
도 10은 교합 데이터를 획득하는 단계(S120)를 설명하기 위한 것이다.Figure 10 is for explaining the step (S120) of acquiring occlusion data.
도 1 및 도 10을 참조하면, 본 발명에 따른 데이터 처리 방법은 상하악 데이터(100)의 협면을 스캔하여 교합 데이터를 획득하는 단계(S120)를 포함한다. 교합 데이터(300)는 대상체의 상악과 하악이 이개되지 않고 맞물린 상태에서, 상악과 하악을 모두 포함하는 적어도 하나의 협면을 스캔하여 획득될 수 있다. 예시적으로, 교합 데이터(300)는 대상체의 상악 일측 협면과 대상체의 하악 일측 협면을 포함하는 제1 교합 데이터(301)와, 대상체의 상악 타측 협면과 대상체의 하악 타측 협면을 포함하는 제2 교합 데이터(302)를 포함할 수 있다. 교합 데이터(300)는 하나의 협면을 스캔하여 획득될 수 있으나, 보다 정밀한 대상체의 치아 교합 상태를 구현하기 위해 복수개의 협면을 스캔하여 획득될 수 있다.Referring to Figures 1 and 10, the data processing method according to the present invention includes a step (S120) of acquiring occlusion data by scanning the buccal surface of the upper and
한편, 본 발명에 따른 데이터 처리 방법은, 상하악 데이터를 획득하는 단계(S110) 이후, 획득된 상하악 데이터(100)를 기초로 대상체의 3차원 모델을 생성하는 단계(S130)를 더 포함할 수 있다. 즉, 사용자의 스캔 전략에 따라 획득된 그룹(200)들이 하나의 상악 데이터(101) 및 하나의 하악 데이터(102)를 형성하고, 이러한 상하악 데이터(100)가 대상체를 나타내는 3차원 모델로 생성된다.Meanwhile, the data processing method according to the present invention may further include, after the step of acquiring the upper and lower jaw data (S110), a step of generating a three-dimensional model of the object based on the obtained upper and lower jaw data (100) (S130). You can. That is, the
3차원 모델을 생성하는 단계(S130)는 상악 데이터(101)와 하악 데이터(102)를 포함하는 상하악 데이터(100), 및 대상체의 상악과 하악을 포함하는 협면을 스캔하여 획득한 교합 데이터(300)를 기초로 3차원 모델을 생성할 수 있다. 보다 상세하게는, 3차원 모델을 생성하는 단계(S130)는 상하악 데이터(100)와 교합 데이터(300)를 조합하여 3차원 모델을 생성할 수 있다. 본 발명에 따른 데이터 처리 방법을 사용함으로써, 상하악 데이터(100)가 용이하게 획득될 수 있고, 스캔 소요 시간이 단축되어, 신속하게 대상체를 나타내는 3차원 모델을 획득할 수 있는 이점이 있다. 또한, 단일 스테이지에서 상하악 데이터(100)를 획득하고, 사용자는 얼라인이 끊긴 지점으로 복귀하지 않고 계속하여 스캔 과정을 수행할 수 있으므로, 사용자 편의성을 향상시키는 이점이 있다.The step of generating a three-dimensional model (S130) includes upper and
이하에서는, 시술 이후의 대상체를 스캔하여 3차원 모델을 획득하는 과정을 설명한다.Below, the process of obtaining a 3D model by scanning an object after surgery will be described.
도 11은 시술 중 치아 삭제 이후의 대상체를 스캔하는 과정을 설명하기 위한 것이다.Figure 11 is for explaining the process of scanning an object after tooth removal during a procedure.
도 11을 참조하면, 상하악 데이터(100)를 구성하는 상악 데이터(101’) 및 하악 데이터(102’) 중 적어도 하나는 시술 이후의 대상체를 나타낼 수 있다. 예시적으로, 상하악 데이터(100)는 ‘시술’ 이후의 형상을 나타낼 수 있으며, 3차원 모델이 대상체의 시술 부위를 나타낼 수 있도록 한다. 또한, 그룹(200)들 중 적어도 하나는 시술 이후의 대상체를 나타내는 데이터 조각을 포함할 수 있다. 이 때, ‘시술’이란 대상체에 적용된 소정 처리를 의미할 수 있다. 예시적으로, ‘시술’은 치아 삭제(preparation), 치아 발치 및 스캔바디와 같은 보철물의 식립 등 다양한 처리들 중 적어도 하나를 포함할 수 있다.Referring to FIG. 11 , at least one of the upper jaw data 101' and the lower jaw data 102' constituting the upper and
도 11에 도시된 바와 같이, 사용자는 제1 그룹(201)에 포함되는 데이터 조각들을 획득할 수 있으며, 제1 그룹(201)은 시술 이전 또는 시술 이후의 대상체를 나타내는 일부분일 수 있다. 또한, 사용자는 대상체의 일부 치아를 삭제한 후, 상기 일부 치아가 삭제된 대상체를 스캔하여 삭제 치아 데이터 조각(4011)을 가지는 치아 삭제 그룹(401)을 획득할 수 있다. 제1 그룹(201)과 삭제 치아 그룹(401)이 각각 획득되어 재얼라인 되면, 상악 데이터(101')는 삭제 치아 영역을 나타낼 수 있다. 이와 같이, 삭제 치아 그룹(401)을 스캔하고, 삭제 치아 그룹(401)이 시술 이전의 대상체를 스캔하여 획득한 그룹(200)과 재얼라인 및 병합됨으로써, 사용자는 대상체의 시술 이후 부분만을 추가적으로 스캔하여 신속하게 시술 이후의 3차원 모델을 획득할 수 있다.As shown in FIG. 11, the user can obtain data pieces included in the
도 12는 시술 중 스캔바디 식립 이후의 대상체를 스캔하는 과정을 설명하기 위한 것이다.Figure 12 is for explaining the process of scanning an object after inserting a scan body during a procedure.
도 12를 참조하면, 대상체의 일부 영역에 스캔바디가 식립되어 스캔바디 적용 데이터 조각들(5011, 5012)을 가지는 스캔바디 적용 그룹(501)이 하악 데이터(102'')에 포함될 수 있다. 한편, 사용자는 제1 그룹(201)에 포함되는 데이터 조각들을 획득할 수 있으며, 제1 그룹(201)은 시술 이전 또는 이후의 대상체를 나타내는 일부분일 수 있다. 또한, 사용자는 대상체의 일부 영역에 스캔바디를 식립하고, 이를 스캔함으로서 스캔바디 적용 그룹(501)을 획득할 수 있다. 제1 그룹(201)과 스캔바디 적용 그룹(501)이 각각 획득되어 재얼라인 되면, 하악 데이터(102'')는 대상체의 스캔바디 적용 영역을 나타낼 수 있다. 이와 같이, 스캔바디 적용 그룹(501)을 스캔하고, 스캔바디 적용 그룹(501)이 시술 이전의 대상체를 스캔하여 획득한 제1 그룹(201)과 재얼라인 및 병합됨으로써, 사용자는 시술 이후의 대상체 전체를 스캔하지 않고, 대상체의 시술 이후 부분만을 추가적으로 스캔하여 신속하게 시술 이후의 3차원 모델을 획득할 수 있다.Referring to FIG. 12 , a scan body is implanted in a partial area of an object, and a scan
선택적으로, 시술 이후의 대상체의 시술 부위를 시술 이전의 대상체를 나타내는 상하악 데이터(100)와 얼라인하기 위해, 상하악 데이터(100) 중 시술 부위와 충돌하는 부분이 트리밍(trimming)되고 시술 데이터 조각(삭제 치아 데이터 조각, 스캔바디 적용 데이터 조각 등)이 해당 부분을 대체할 수 있다. 또한, 시술 데이터 조각은 시술 부위에서만 추가적으로 획득되어, 선택적으로 시술 이전의 대상체를 나타내는 상하악 데이터(100)와 얼라인되어 표시될 수도 있다.Optionally, in order to align the treatment area of the subject after the procedure with the upper and
시술 이후의 대상체를 나타내는 데이터 조각을 포함하는 그룹과 시술 이전의 대상체를 나타내는 데이터 조각을 포함하는 그룹을 얼라인하여 상하악 데이터를 획득하면, 획득한 상하악 데이터는 시술 이전의 교합 데이터와 함께 3차원 모델로 생성될 수 있다. 이 때, 시술 이후의 상하악 데이터가 시술 이전의 교합 데이터에 의해 정렬되므로, 시술 이후에 변경된 교합고경이 적용되지 않는다. 따라서, 사용자는 시술 이전의 대상체의 교합 형상을 기준으로 환자에게 최적의 치료를 제공할 수 있으며, 환자의 구강에 부합하는 보철물을 제작할 수 있는 이점이 있다.When upper and lower jaw data are obtained by aligning a group containing data pieces representing the object after the procedure and a group containing data pieces representing the object before the procedure, the obtained upper and lower jaw data together with the occlusion data before the procedure are displayed in three dimensions. It can be created as a model. At this time, since the upper and lower jaw data after the procedure are sorted by the occlusal data before the procedure, the occlusal diameter changed after the procedure is not applied. Accordingly, the user can provide optimal treatment to the patient based on the occlusal shape of the object before the procedure and has the advantage of manufacturing a prosthesis that matches the patient's oral cavity.
도 13은 복수의 스캔 데이터를 유저 인터페이스 화면(600)에 표시한 것이다.Figure 13 shows a plurality of scan data displayed on the
도 13을 참조하면, 복수의 스캔 데이터(상악 데이터, 하악 데이터, 교합 데이터, 스캔바디가 적용된 하악 데이터 등)가 하나의 유저 인터페이스 화면(600)에 표시될 수 있다. 이 때, 상하악 데이터(100)는 인공심층망(artificial deep network)을 통해 상악 데이터(101)와 하악 데이터(102)로 구분되어 유저 인터페이스 화면(600) 상에 표시될 수 있다. 예시적으로, 인공심층망은 학습된 상악의 특징 및 학습된 하악의 특징을 획득한 상하악 데이터(100)에 적용하며, 상악 데이터(101)와 하악 데이터(102)를 특정할 수 있다.Referring to FIG. 13, a plurality of scan data (upper jaw data, lower jaw data, occlusion data, lower jaw data to which a scan body is applied, etc.) may be displayed on one
전술한 학습 데이터는 상악 데이터(101)와 하악 데이터(102)를 감지하기 위한 적어도 하나의 해부학적 요소를 포함할 수 있다. 예시적으로, 학습 데이터는 상악골과 하악골의 형상 정보를 포함할 수 있다. 상악골 입천장과 하악골 저면의 형상 등을 통해, 상하악 데이터(100)는 상악 데이터(101)와 하악 데이터(102)로 구분될 수 있다. 다른 예시로, 학습 데이터는 치아의 형상 정보를 포함할 수 있다. 상악을 구성하는 치아(예를 들면, 상악의 대구치)와 하악을 구성하는 치아(예를 들면, 하악의 대구치)의 상이한 형상 등을 통해, 상하악 데이터(100)는 상악 데이터(101)와 하악 데이터(102)로 구분될 수 있다. 또다른 예시로, 상악을 구성하는 전치부의 면적과 하악을 구성하는 전치부의 면적을 비교하여, 상대적으로 큰 면적을 가지는 데이터를 상악 데이터(101)로, 상대적으로 작은 면적을 가지는 데이터를 하악 데이터(102)로 구분할 수도 있다.The above-described learning data may include at least one anatomical element for detecting the
상악 데이터(101)와 하악 데이터(102)가 특정됨으로써, 3차원 모델이 생성될 때 상악 데이터(101)와 하악 데이터(102)의 위치가 반전되어 배치되지 않도록 하고, 사용자가 용이하게 3차원 모델을 확인할 수 있도록 하는 이점이 있다. 또한, 상악 데이터(101)와 하악 데이터(102)가 구분됨으로써, 사용자는 스캔 과정에서 상악 데이터(101)와 하악 데이터(102)를 구분없이 획득하고, 분석 과정에서 상악 데이터(101)와 하악 데이터(102)가 자동으로 구분되어 사용자 편의성이 향상되는 이점이 있다.By specifying the
이하에서는 본 발명의 다른 실시예에 다른 데이터 처리 방법을 설명한다. 본 발명의 다른 실시예에 따른 데이터 처리 방법을 설명함에 있어, 전술한 내용과 중복되는 내용은 간략하게 설명하거나 생략한다.Below, a different data processing method according to another embodiment of the present invention will be described. When describing a data processing method according to another embodiment of the present invention, content that overlaps with the above-described content will be briefly described or omitted.
도 14는 본 발명의 다른 실시예에 따른 데이터 처리 방법의 순서도이다.Figure 14 is a flowchart of a data processing method according to another embodiment of the present invention.
도 14를 참조하면, 본 발명의 다른 실시예에 따른 데이터 처리 방법은 대상체를 스캔하여 교합 데이터를 획득하는 단계(S210), 대상체를 스캔하여 상하악 데이터를 획득하는 단계(S220), 및 대상체의 3차원 모델을 생성하는 단계(S230)를 포함할 수 있다. 본 발명의 다른 실시예에 따른 데이터 처리 방법은, 대상체의 교합 데이터를 먼저 획득하고 상하악 데이터를 그 이후에 획득하는 점에서 전술한 내용과 차이가 있다.Referring to FIG. 14, the data processing method according to another embodiment of the present invention includes a step of scanning the object to obtain occlusion data (S210), a step of scanning the object to obtain upper and lower jaw data (S220), and It may include a step of generating a 3D model (S230). The data processing method according to another embodiment of the present invention is different from the above in that the object's occlusion data is first acquired and the upper and lower jaw data are acquired thereafter.
이 때, 교합 데이터는 시술 이전의 대상체를 나타내거나, 시술 이후의 대상체를 나타낼 수 있다. 본 발명의 다른 실시예에 따른 데이터 처리 방법과 같이, 시술 이전 대상체의 교합 데이터를 먼저 획득(S210)하고 시술 이후 대상체를 스캔하여 상하악 데이터를 획득(S220)하면, 사용자는 시술 이전의 대상체의 교합 형상을 기준으로 환자에게 최적의 치료를 제공할 수 있다. 보다 상세하게는, 사용자는 환자의 구강에 부합하는 보철물을 제작하여 환자에게 제공할 수 있는 이점이 있다.At this time, the occlusion data may represent the object before the procedure or the object after the procedure. Like the data processing method according to another embodiment of the present invention, if the occlusion data of the object before the procedure is first acquired (S210) and the upper and lower jaw data are acquired by scanning the object after the procedure (S220), the user can Optimal treatment can be provided to patients based on occlusal shape. More specifically, the user has the advantage of being able to manufacture a prosthesis that matches the patient's mouth and provide it to the patient.
차이가 있는 내용을 제외한 나머지 과정들은 전술한 내용과 동일하며, 본 발명의 다른 실시예에 따른 데이터 처리 방법은 전술한 본 발명에 따른 데이터 처리 방법이 가지는 기술적 효과 및 이점들을 공유한다.Except for differences, the remaining processes are the same as those described above, and the data processing method according to another embodiment of the present invention shares the technical effects and advantages of the data processing method according to the present invention described above.
이하에서는, 전술한 데이터 처리 방법이 수행되는 데이터 처리 장치에 대해 설명한다.Below, a data processing device in which the above-described data processing method is performed will be described.
도 15는 본 발명의 일 실시예에 따른 데이터 처리 장치(900)의 개략적인 구성도이다.Figure 15 is a schematic configuration diagram of a
도 15를 참조하면, 본 발명에 따른 데이터 처리 장치(900)는 스캔부(910), 제어부(920), 및 디스플레이부(930)를 포함할 수 있다.Referring to FIG. 15, the
스캔부(910)는 대상체를 나타내는 이미지 데이터를 획득할 수 있다. 예시적으로, 스캔부(910)는 대상체의 표면으로부터 반사된 광을 수용하고, 수용된 광을 기초로 이미지 데이터를 획득할 수 있다. 스캔부(910)는 대상체를 나타내는 3차원 모델을 획득하기 위한 스캔 디바이스일 수 있다. 예를 들면, 스캔부(910)는 사용자가 파지하고 대상체를 다양한 거리 및 각도에서 스캔할 수 있는 3차원 구강 스캐너일 수 있다.The
스캔부(910)는 대상체의 색상 정보 및 형상 정보를 획득하기 위해, 소정 색상의 광 및/또는 소정 패턴의 광을 조사할 수 있는 광 프로젝터(미도시)를 포함할 수 있다. 예시적으로, 광 프로젝터는 상하악 데이터와 교합 데이터의 색상을 획득하기 위해, 적색 광, 녹색 광, 및 청색 광을 조사할 수 있다. 대상체의 표면으로부터 반사된 광을 수용하는 카메라가 모노 카메라인 경우, 상기 적색 광, 상기 녹색 광, 및 상기 청색 광을 대상체에 조사하여 획득한 2차원 이미지 데이터를 조합하여 대상체의 실제 색상을 획득할 수 있다. 한편, 대상체의 표면으로부터 반사된 광을 수용하는 카메라가 컬러 카메라The
또한, 스캔부(910)는 대상체의 표면으로부터 반사된 광을 수용하는 적어도 하나의 카메라를 포함한다. 카메라는 광을 수용하여 대상체를 나타내는 평면의 2차원 이미지 데이터를 획득할 수 있다. 카메라는 모노 카메라 또는 컬러 카메라일 수 있으며, 그 종류는 한정되지 않는다.Additionally, the
제어부(920)는 스캔부(910)로부터 획득된 이미지 데이터를 가공할 수 있다. 제어부(920)는 최종적으로 대상체 전체를 나타내는 3차원 모델을 획득할 수 있도록 한다. 예시적으로, 제어부(920)는 각종 연산 과정을 수행하는 마이크로프로세서(microprocessor)를 포함할 수 있다. 도 15에 도시된 바에 따르면, 제어부(920)는 스캔부(910)와 이격 형성된 구성일 수 있다. 예를 들면, 스캔부(910)는 제어부(920)와 유선 또는 무선으로 연결될 수 있으며, 스캔부(910)는 유선 통신 및/또는 무선 통신을 사용하여 획득한 데이터를 제어부(920)에 전송할 수 있다. 다만, 반드시 도 15에 도시된 바와 같은 구조에 한정되는 것은 아니며, 제어부(920)는 스캔부(910)의 일 구성으로 형성될 수도 있다.The
보다 상세하게는, 제어부(920)는 데이터베이스부(921)를 포함할 수 있다. 데이터베이스부(921)는 스캔부(910)로부터 획득한 데이터 조각들이 저장될 수 있다. 데이터 조각들은 데이터베이스부(921)에 저장될 때, 데이터 조각들 간 상호 얼라인 여부에 따라 구분되어 저장될 수 있다. 또한, 데이터베이스부(921)는 2차원 이미지 데이터, 상기 2차원 이미지 데이터를 기초로 3차원 모델링된 3차원 이미지 샷, 얼라인 알고리즘, 그룹 관리 알고리즘 등을 저장할 수 있다. 데이터베이스부(921)는 알려진 저장 디바이스일 수 있으며, 데이터베이스부(921)는 예시적으로 SSD(Solid State Drive), HDD(Hard Disk Drive) 등 알려진 저장 디바이스 중 적어도 하나일 수 있다.More specifically, the
제어부(920)는 3차원 모델링부(922)를 포함할 수 있다. 3차원 모델링부(922)는 획득한 2차원 이미지 데이터를 기초로 3차원 이미지의 샷을 생성할 수 있다.The
또한, 제어부(920)는 그룹 관리부(923)를 포함할 수 있다. 그룹 관리부(923)는 데이터 조각들의 얼라인 여부에 따라 상기 데이터 조각들을 소정 그룹으로 분류할 수 있다. 예시적으로, 스캔 과정이 수행될 때 데이터 조각들이 획득되다가 데이터 조각들 간 얼라인이 끊어지는 경우, 그룹 관리부(923)는 얼라인이 끊어진 시기 이전에 획득된 데이터 조각들과 얼라인이 끊어진 시기 이후에 획득된 데이터 조각들을 서로 다른 그룹으로 분류할 수 있다. 그룹 관리부(923)는 후술하는 얼라인부(924)에서 얼라인이 끊기는 여부에 따라 그룹을 생성하고, 데이터 조각들을 상기 그룹에 포함되도록 동작할 수 있다. 또한, 서로 다른 그룹들 간의 재얼라인 과정을 통해 그룹들 간 얼라인이 성공하는 경우, 그룹 관리부(923)는 얼라인이 성공한 그룹들을 병합할 수 있다. 데이터 조각들을 획득하는 과정에서 얼라인이 끊어짐에 따라 그룹들이 생성되고 상기 그룹들에 데이터 조각들이 포함되는 과정은 전술한 바와 동일하다.Additionally, the
또한, 제어부(920)는 얼라인부(924)를 포함할 수 있다. 얼라인부(924)는 기저장된 데이터 정렬 알고리즘을 사용하여 데이터 조각들을 얼라인할 수 있다. 데이터 조각들을 얼라인하기 위해 사용되는 데이터 정렬 알고리즘은 알려진 알고리즘일 수 있으며, 예시적으로 ICP(iterative closest point) 알고리즘이 사용될 수 있다. 데이터 조각들의 얼라인 여부에 따라, 데이터 조각들은 동일한 그룹에 포함될 수도 있고, 상이한 그룹에 각각 포함되도록 분류될 수도 있다. 데이터 조각들이 얼라인 및/또는 재얼라인되는 과정에 대해서는 전술한 바와 같다.Additionally, the
한편, 상기 스캔부(910)의 스캔 과정을 통해 실시간으로 데이터 조각들이 획득되는 과정, 상기 제어부(920)의 연산 과정을 통해 상기 데이터 조각들이 얼라인되는 과정, 얼라인이 끊어져 얼라인이 끊어지기 이전에 획득된 데이터 조각들이 썸네일의 형태로 유저 인터페이스 화면에 표시되는 과정을 포함한 데이터 처리 과정들 중 적어도 일부는 상기 제어부(920)와 연결된 디스플레이부(930)를 통해 표시될 수 있다. 디스플레이부(930)는 사용자가 상기 과정들을 시각적으로 용이하게 확인할 수 있는 디바이스가 사용될 수 있으며, 디스플레이부(930)는 모니터, 태블릿, 터치 패널 등 알려진 디바이스일 수 있다. 사용자는 디스플레이부(930)에 표시되는 유저 인터페이스 화면을 통해 본 발명에 따른 데이터 처리 방법이 수행되는 과정을 용이하게 확인할 수 있고, 결과적으로 환자에게 최적의 치료를 제공할 수 있다.Meanwhile, the process of acquiring data pieces in real time through the scanning process of the
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.The above description is merely an illustrative explanation of the technical idea of the present invention, and various modifications and variations will be possible to those skilled in the art without departing from the essential characteristics of the present invention.
따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but are for illustrative purposes, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be construed as being included in the scope of rights of the present invention.
S110: 상하악 데이터를 획득하는 단계
S120: 교합 데이터를 획득하는 단계
S130: 3차원 모델을 생성하는 단계
100: 상하악 데이터 101: 상악 데이터
102: 하악 데이터 200: 그룹
300: 교합 데이터 401: 삭제 치아 데이터
501: 보철물 식립 데이터 600: 유저 인터페이스 화면S110: Step of acquiring upper and lower jaw data
S120: Obtaining occlusion data
S130: Step of creating a 3D model
100: Upper and lower jaw data 101: Upper jaw data
102: Mandibular data 200: Group
300: Occlusal data 401: Deleted tooth data
501: Prosthesis placement data 600: User interface screen
Claims (11)
획득한 상기 상하악 데이터를 기초로 상기 대상체의 3차원 모델을 생성하는 단계; 를 포함하고,
상기 상하악 데이터를 획득하는 단계는,
상기 상하악 데이터를 구성하는 그룹들 중 제1 그룹에 포함되는 데이터 조각들을 획득하고,
상기 제1 그룹과 상호 중첩되지 않는 제2 그룹에 포함되는 데이터 조각들을 획득하며,
상기 제1 그룹과 제2 그룹은 얼라인이 끊기고,
상기 그룹들은 각각 적어도 하나의 데이터 조각을 포함하는 것을 특징으로 하는 데이터 처리 방법.Acquiring upper and lower jaw data by scanning the object; and
generating a three-dimensional model of the object based on the obtained upper and lower jaw data; Including,
The step of acquiring the upper and lower jaw data is,
Obtaining data pieces included in a first group among the groups constituting the upper and lower jaw data,
Obtaining data pieces included in a second group that do not overlap with the first group,
The first group and the second group are out of alignment,
A data processing method, wherein each of the groups includes at least one piece of data.
상기 제1 그룹은 상악 데이터를 구성하는 적어도 하나의 상악 데이터 그룹이고,
상기 제2 그룹은 하악 데이터를 구성하는 적어도 하나의 하악 데이터 그룹인 것을 특징으로 하는 데이터 처리 방법.In claim 1,
The first group is at least one maxilla data group constituting maxilla data,
A data processing method, characterized in that the second group is at least one lower jaw data group constituting lower jaw data.
상기 제1 그룹은 상악 데이터를 구성하는 적어도 하나의 상악 데이터 그룹이고,
상기 제2 그룹은 상기 제1 그룹과 상호 중첩되지 않는 상기 상악 데이터의 다른 그룹인 것을 특징으로 하는 데이터 처리 방법.In claim 1,
The first group is at least one maxilla data group constituting maxilla data,
A data processing method, characterized in that the second group is another group of the maxillary data that does not overlap with the first group.
상기 제1 그룹은 하악 데이터를 구성하는 적어도 하나의 하악 데이터 그룹이고,
상기 제2 그룹은 상기 제1 그룹과 상호 중첩되지 않는 상기 하악 데이터의 다른 그룹인 것을 특징으로 하는 데이터 처리 방법.In claim 1,
The first group is at least one lower jaw data group constituting lower jaw data,
The data processing method, characterized in that the second group is another group of the lower jaw data that does not overlap with the first group.
상기 그룹들 중 적어도 일부는, 상기 대상체를 스캔하여 획득되는 신규 데이터 조각에 의해 상호 중첩되는 영역이 형성되어 재얼라인 및 병합되는 것을 특징으로 하는 데이터 처리 방법.In claim 1,
A data processing method, wherein at least some of the groups are realigned and merged by forming overlapping areas by new data pieces obtained by scanning the object.
상기 상하악 데이터를 획득하는 단계 이전에, 상기 대상체의 협면을 스캔하여 교합 데이터를 획득하는 단계; 를 더 포함하고,
상기 3차원 모델을 생성하는 단계는 상기 상하악 데이터와 함께 상기 교합 데이터를 기초로 상기 3차원 모델을 생성하는 것을 특징으로 하는 데이터 처리 방법.In claim 1,
Before acquiring the upper and lower jaw data, acquiring occlusion data by scanning the buccal surface of the object; It further includes,
The step of generating the 3D model is a data processing method characterized in that the 3D model is generated based on the occlusion data together with the upper and lower jaw data.
상기 상하악 데이터를 구성하는 상악 데이터 및 하악 데이터 중 적어도 하나는 시술 이후의 대상체를 나타내고,
상기 교합 데이터는 시술 이전의 대상체를 나타내는 것을 특징으로 하는 데이터 처리 방법.In claim 7,
At least one of the upper and lower jaw data constituting the upper and lower jaw data represents an object after the procedure,
A data processing method wherein the occlusion data represents an object before the procedure.
상기 그룹들 중 적어도 하나는 시술 이후의 대상체를 나타내는 데이터 조각을 포함하는 것을 특징으로 하는 데이터 처리 방법.In claim 1,
A data processing method, wherein at least one of the groups includes a piece of data representing an object after a procedure.
상기 상하악 데이터를 획득하는 단계는 단일 스테이지에서 수행되는 것을 특징으로 하는 데이터 처리 방법.In claim 1,
A data processing method, characterized in that the step of acquiring the upper and lower jaw data is performed in a single stage.
상기 상하악 데이터는 인공심층망(artificial deep network)을 통해 상악 데이터와 하악 데이터로 구분되는 것을 특징으로 하는 데이터 처리 방법.
In claim 1,
A data processing method characterized in that the upper and lower jaw data are divided into upper jaw data and lower jaw data through an artificial deep network.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20210029623 | 2021-03-05 | ||
KR1020210029623 | 2021-03-05 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220125661A KR20220125661A (en) | 2022-09-14 |
KR102623248B1 true KR102623248B1 (en) | 2024-01-10 |
Family
ID=83279011
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210129065A KR102623248B1 (en) | 2021-03-05 | 2021-09-29 | Data processing method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102623248B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070207437A1 (en) | 1999-11-30 | 2007-09-06 | Orametrix, Inc. | Unified workstation for virtual craniofacial diagnosis, treatment planning and therapeutics |
KR101954487B1 (en) * | 2012-11-01 | 2019-03-05 | 얼라인 테크널러지, 인크. | Motion compensation in a three dimensional scan |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ES2669210T3 (en) * | 2011-11-15 | 2018-05-24 | Trispera Dental Inc. | Method and system to acquire data from an individual to prepare a 3D model |
KR102419010B1 (en) * | 2017-05-16 | 2022-07-08 | 주식회사 디오 | System for Providing of Procedure Information of Dental Implant, Doctor Apparatus thereof, and Method for Providing of Procedure Information of Dental Implant of using thereof |
KR102228939B1 (en) | 2021-02-05 | 2021-03-17 | 한국과학기술연구원 | System and method for automatic 3-dimensional scanning |
-
2021
- 2021-09-29 KR KR1020210129065A patent/KR102623248B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070207437A1 (en) | 1999-11-30 | 2007-09-06 | Orametrix, Inc. | Unified workstation for virtual craniofacial diagnosis, treatment planning and therapeutics |
KR101954487B1 (en) * | 2012-11-01 | 2019-03-05 | 얼라인 테크널러지, 인크. | Motion compensation in a three dimensional scan |
Also Published As
Publication number | Publication date |
---|---|
KR20220125661A (en) | 2022-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11478330B2 (en) | Dental preparation guide | |
KR102057207B1 (en) | Method for analizing 3d oral model and method for designing virtual prosthetics having the same | |
CN106687068B (en) | Complete denture manufacturing method and device based on data mining | |
US10327873B2 (en) | Method, system and user interface for creating a digital design for use in manufacturing a molding-shell for a dental restoration | |
CN104093375B (en) | Determine the stress on tooth | |
KR102121963B1 (en) | Appratus, method and program for setting a tranparent orthodontic model using orthodontics clinical bigdata | |
JP2020508734A (en) | How to build a restoration | |
KR102016018B1 (en) | Method for setting Gingival line to design prosthesis | |
JP2012508613A (en) | Method and system for forming a dental prosthesis | |
KR102314890B1 (en) | Method and apparatus for superimposition of medical images | |
US10595972B2 (en) | Method and user interface for use in manufacturing multi-shaded dental restorations | |
KR102292872B1 (en) | Method for designing prosthetic material and apparatus thereof | |
KR102623248B1 (en) | Data processing method | |
KR102085852B1 (en) | M method and apparatus for designing dental workpiece considering the occlusal relationship with an antagonistic teeth | |
KR102406485B1 (en) | Method for designing patient-specific abutment and apparatus thereof | |
KR102350098B1 (en) | Method for generating arch line and dental image processing apparatus therefor | |
KR102404189B1 (en) | Method for designing prosthetic insertion path and prosthesis design apparatus therefor | |
CN110381879A (en) | Prosthetic designs method and system based on camber line | |
KR102144369B1 (en) | Dental CAD apparatus using characteristic of mirroring teeth and operating method the dental CAD apparatus | |
KR102474298B1 (en) | Method for designing prosthetic model and apparatus thereof | |
KR102388411B1 (en) | Method for fabricating tray, data transfer method and simulation apparatus therefor | |
KR102573907B1 (en) | Method for editing arch line and tooth arrangement design apparatus thereof | |
KR102413696B1 (en) | Method and apparatus for designing margin line of abutment model | |
KR102549576B1 (en) | Apparatus for designing dental prosthesis and method thereof | |
KR20230115355A (en) | Method and apparatus for designing margin line of abutment model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |