KR102623248B1 - Data processing method - Google Patents

Data processing method Download PDF

Info

Publication number
KR102623248B1
KR102623248B1 KR1020210129065A KR20210129065A KR102623248B1 KR 102623248 B1 KR102623248 B1 KR 102623248B1 KR 1020210129065 A KR1020210129065 A KR 1020210129065A KR 20210129065 A KR20210129065 A KR 20210129065A KR 102623248 B1 KR102623248 B1 KR 102623248B1
Authority
KR
South Korea
Prior art keywords
data
group
lower jaw
processing method
scanning
Prior art date
Application number
KR1020210129065A
Other languages
Korean (ko)
Other versions
KR20220125661A (en
Inventor
이동훈
Original Assignee
주식회사 메디트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메디트 filed Critical 주식회사 메디트
Publication of KR20220125661A publication Critical patent/KR20220125661A/en
Application granted granted Critical
Publication of KR102623248B1 publication Critical patent/KR102623248B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/18Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves
    • A61B18/20Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves using laser
    • A61B2018/2035Beam shaping or redirecting; Optical components therefor
    • A61B2018/20351Scanning mechanisms
    • A61B2018/20353Scanning in three dimensions [3D]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Abstract

본 발명에 따른 데이터 처리 방법은, 대상체를 스캔하여 상하악 데이터를 획득하는 단계, 및 획득한 상기 상하악 데이터를 기초로 상기 대상체의 3차원 모델을 생성하는 단계를 포함하고, 상기 상하악 데이터를 획득하는 단계는, 상기 상하악 데이터를 구성하는 그룹들 중 제1 그룹에 포함되는 데이터 조각들을 획득하고, 상기 제1 그룹과 상호 중첩되지 않는 제2 그룹에 포함되는 데이터 조각들을 획득하며, 상기 제1 그룹과 제2 그룹은 얼라인이 끊길 수 있다.The data processing method according to the present invention includes the steps of scanning an object to obtain upper and lower jaw data, and generating a three-dimensional model of the object based on the obtained upper and lower jaw data, wherein the upper and lower jaw data The acquiring step includes acquiring data pieces included in a first group among the groups constituting the upper and lower jaw data, acquiring data pieces included in a second group that do not overlap with the first group, and Group 1 and Group 2 may lose alignment.

Description

데이터 처리 방법{Data processing method}Data processing method

본 발명은 데이터 처리 방법에 관한 것이다.The present invention relates to a data processing method.

3차원 구강 스캐너는 인상채득(impression taking)을 실시하여 환자의 구강을 표현하는 석고 모형을 획득한 후, 상기 석고 모형을 분석하는 종래의 방식에서 탈피하여, 환자의 구강을 입체적으로 스캔하여 디지털 3차원 모델을 획득한다. 3차원 CAD/CAM 기술의 발전에 따라, 3차원 모델은 계속적으로 정밀해지고 있으며, 사용자는 다양한 분석을 수행하기 위해 복수의 석고 모형을 제작하는 대신, 하나의 3차원 모델을 사용할 수 있다. 또한, 3차원 모델에 복수의 치료 계획을 적용하는 것 또한 가능하며, 3차원 모델의 원본 파일이 유지되어 반복 사용이 가능한 이점이 있다.The 3D oral scanner breaks away from the conventional method of performing impression taking to obtain a plaster model representing the patient's mouth and then analyzing the plaster model, and scans the patient's mouth three-dimensionally to create a digital 3D scanner. Obtain a dimensional model. With the advancement of 3D CAD/CAM technology, 3D models continue to become more precise, allowing users to use a single 3D model instead of producing multiple plaster casts to perform various analyses. In addition, it is possible to apply multiple treatment plans to the 3D model, and the original file of the 3D model is maintained, allowing repeated use.

한편, 3차원 구강 스캐너의 사용자는 환자의 실제 구강, 또는 상기 구강을 본떠 획득한 석고 모형을 스캔할 때, 유저 인터페이스(user interface; UI) 상에서 정해진 순서에 따라 스캔을 진행해야 했다. 즉, 사용자는 스캔 소프트웨어의 기설정된 스캔 스테이지에 스캔 활동이 일부 제한되어 왔다. 예시적으로, 스캔 소프트웨어는 제1 스캔 스테이지에서 삭제(preparation) 이전의 상악을, 제2 스캔 스테이지에서 삭제 이전의 하악을, 제3 스캔 스테이지에서 삭제 이후의 상악을, 제4 스테이지에서 삭제 이후의 하악을, 제5 스테이지에서 스캔바디(scanbody)를, 그리고 제6 스테이지에서 교합을 스캔하도록 설정된다. 한편, 사용자는 각자의 편리한 스캔 전략을 사용하여 대상체를 스캔하고자 한다. 그러나, 종래의 시스템에서는 기설정된 스테이지별로 스캔을 수행하여야 하므로, 사용자의 자유로운 스캔이 실질적으로 불가능하였다. 사용자는 각각의 스테이지를 유저 인터페이스 화면에서 선택하는 과정과 3차원 구강 스캐너를 사용하는 과정을 번갈아 수행해야 했다. 예시적으로, 사용자는 6개의 스테이지에 대한 스캔 데이터를 획득할 때, 적어도 6회의 조작과 6회의 스캔을 수행하여야 하므로, 스캔 과정이 복잡한 문제가 있다. 이에 따라, 사용자의 집중력이 낮아지거나, 오랜 스캔 소요 시간에 의해 환자의 체어 타임(chair time)을 증가시켜 환자의 치료 피로감을 상승시키는 문제가 있다.Meanwhile, when scanning a patient's actual mouth or a plaster model obtained by imitating the mouth, the user of the 3D oral scanner had to scan according to a set order on the user interface (UI). That is, the user's scanning activities have been partially limited to preset scan stages of the scanning software. Exemplarily, the scan software may perform the maxilla before preparation in the first scan stage, the mandible before preparation in the second scan stage, the maxilla after preparation in the third scan stage, and the maxilla after preparation in the fourth stage. It is set up to scan the mandible, the scanbody in the 5th stage, and the occlusion in the 6th stage. Meanwhile, users want to scan the object using their own convenient scanning strategy. However, in the conventional system, scanning must be performed for each preset stage, making free scanning by the user virtually impossible. The user had to alternate between selecting each stage on the user interface screen and using the 3D intraoral scanner. For example, when a user acquires scan data for 6 stages, the user must perform at least 6 operations and 6 scans, making the scanning process complicated. Accordingly, there is a problem that the user's concentration is lowered or the patient's chair time is increased due to the long scanning time, which increases the patient's treatment fatigue.

게다가, 각각의 스테이지에 부합하는 주제의 스캔 데이터를 획득해야 하므로, 사용자의 스캔 자유도가 크게 제한되었다.In addition, since scan data of subjects corresponding to each stage had to be acquired, the user's freedom of scanning was greatly limited.

또한, 종래의 시스템에서 사용자는 스캔 과정에서 데이터 간 얼라인이 끊기는 경우, 해당 얼라인이 재개되지 않는 이상 후속 데이터를 획득할 수 없도록 설계되어 있었다. 사용자는, 얼라인이 중단된 지점을 찾아내어 해당 지점부터 스캔을 재개해야 했다. 이러한 과정은 사용자의 피로도를 증가시키고 스캔 소요 시간을 증가시키는 문제를 야기하였다.Additionally, in the conventional system, if the alignment between data is interrupted during the scanning process, the user is designed to be unable to obtain subsequent data unless the alignment is resumed. The user had to find the point where alignment was interrupted and resume scanning from that point. This process caused problems of increasing user fatigue and increasing scanning time.

대한민국 공개특허 제10-2021-0018397호 (2021.02.17 공고)Republic of Korea Patent Publication No. 10-2021-0018397 (announced on February 17, 2021)

전술한 문제점을 해결하기 위해서, 본 발명은 복잡한 스캔 스테이지를 단일화하고, 데이터 간 얼라인이 끊기더라도 스캔 과정이 중단되지 않고 계속적으로 수행되는 데이터 처리 방법을 제공한다.In order to solve the above-mentioned problems, the present invention provides a data processing method that unifies complex scan stages and allows the scanning process to be continuously performed without interruption even if the alignment between data is broken.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below.

전술한 바와 같은 목적을 달성하기 위해서, 본 발명에 따른 데이터 처리 방법은, 대상체를 스캔하여 상하악 데이터를 획득하는 단계, 및 획득한 상기 상하악 데이터를 기초로 상기 대상체의 3차원 모델을 생성하는 단계를 포함하고, 상기 상하악 데이터를 획득하는 단계는, 상기 상하악 데이터를 구성하는 그룹들 중 제1 그룹에 포함되는 데이터 조각들을 획득하고, 상기 제1 그룹과 상호 중첩되지 않는 제2 그룹에 포함되는 데이터 조각들을 획득하며, 상기 제1 그룹과 제2 그룹은 얼라인이 끊길 수 있다.In order to achieve the above-described object, the data processing method according to the present invention includes the steps of scanning an object to obtain upper and lower jaw data, and generating a three-dimensional model of the object based on the obtained upper and lower jaw data. The step of acquiring the upper and lower jaw data includes acquiring data pieces included in a first group among the groups constituting the upper and lower jaw data, and dividing them into a second group that does not overlap with the first group. When the included data pieces are acquired, the first group and the second group may be out of alignment.

또한, 본 발명에 따른 데이터 처리 방법은, 전술한 단계들의 세부적인 과정들에 따라 다양한 실시예를 통해 수행될 수 있다.Additionally, the data processing method according to the present invention can be performed through various embodiments according to the detailed processes of the steps described above.

본 발명에 따른 데이터 처리 방법을 사용함으로써, 사용자는 대상체를 자유롭게 스캔하여 정밀한 3차원 모델을 획득할 수 있으며, 얼라인이 끊겨도 계속적으로 후속의 스캔 데이터를 획득할 수 있으므로, 스캔 소요 시간을 단축시키는 이점이 있다.By using the data processing method according to the present invention, the user can freely scan the object to obtain a precise three-dimensional model, and even if the alignment is broken, subsequent scan data can be continuously acquired, shortening the time required for scanning. There is an advantage to doing so.

또한, 복잡한 스캔 스테이지를 단순화하여 사용자의 편의성을 증가시키고, 환자의 치료 피로감을 경감시키는 이점이 있다.In addition, there is an advantage of simplifying the complex scan stage to increase user convenience and reduce patient treatment fatigue.

도 1은 본 발명에 따른 데이터 처리 방법의 순서도이다.
도 2는 상하악 데이터를 설명하기 위한 것이다.
도 3은 상하악 데이터가 그룹별로 구성된 형태를 설명하기 위한 것이다.
도 4는 본 발명에 따른 데이터 처리 방법에서, 상하악 데이터를 획득하는 단계를 수행하는 일 예시이다.
도 5는 본 발명에 따른 데이터 처리 방법에서, 상하악 데이터를 획득하는 단계를 수행하는 다른 예시이다.
도 6은 본 발명에 따른 데이터 처리 방법에서, 동일한 스테이지에서 상하악 데이터가 획득되는 과정을 설명하기 위한 것이다.
도 7은 데이터 조각을 획득하는 과정을 설명하기 위한 것이다.
도 8은 얼라인이 끊겨 복수의 그룹이 생성되는 과정을 설명하기 위한 것이다.
도 9는 그룹들이 재얼라인되어 병합되는 과정을 설명하기 위한 것이다.
도 10은 교합 데이터를 획득하는 단계를 설명하기 위한 것이다.
도 11은 시술 중 치아 삭제 이후의 대상체를 스캔하는 과정을 설명하기 위한 것이다.
도 12는 시술 중 스캔바디 식립 이후의 대상체를 스캔하는 과정을 설명하기 위한 것이다.
도 13은 복수의 스캔 데이터를 유저 인터페이스 화면에 표시한 것이다.
도 14는 본 발명의 다른 실시예에 따른 데이터 처리 방법의 순서도이다.
도 15는 본 발명의 일 실시예에 따른 데이터 처리 장치의 개략적인 구성도이다.
1 is a flowchart of a data processing method according to the present invention.
Figure 2 is for explaining upper and lower jaw data.
Figure 3 is for explaining how upper and lower jaw data are organized by group.
Figure 4 is an example of performing the step of acquiring upper and lower jaw data in the data processing method according to the present invention.
Figure 5 is another example of performing the step of acquiring upper and lower jaw data in the data processing method according to the present invention.
Figure 6 is for explaining the process of obtaining upper and lower jaw data at the same stage in the data processing method according to the present invention.
Figure 7 is to explain the process of acquiring a piece of data.
Figure 8 is to explain the process in which alignment is broken and multiple groups are created.
Figure 9 is to explain the process of realigning and merging groups.
Figure 10 is for explaining the step of acquiring occlusion data.
Figure 11 is for explaining the process of scanning an object after tooth removal during a procedure.
Figure 12 is for explaining the process of scanning an object after inserting a scan body during a procedure.
Figure 13 shows a plurality of scan data displayed on a user interface screen.
Figure 14 is a flowchart of a data processing method according to another embodiment of the present invention.
Figure 15 is a schematic configuration diagram of a data processing device according to an embodiment of the present invention.

이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail through illustrative drawings. When adding reference numerals to components in each drawing, it should be noted that identical components are given the same reference numerals as much as possible even if they are shown in different drawings. Additionally, when describing embodiments of the present invention, if detailed descriptions of related known configurations or functions are judged to impede understanding of the embodiments of the present invention, the detailed descriptions will be omitted.

본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In describing the components of the embodiment of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are only used to distinguish the component from other components, and the nature, sequence, or order of the component is not limited by the term. Additionally, unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as generally understood by a person of ordinary skill in the technical field to which the present invention pertains. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted in an ideal or excessively formal sense unless explicitly defined in the present application. No.

본 명세서에서 본 발명을 설명함에 있어서, '데이터가 획득된다'는 것은 대상체를 스캔하여 획득한 적어도 하나의 데이터 조각을 3차원으로 모델링하는 것을 의미할 수 있다. 이 때, 데이터 조각은 대상체를 스캔하는 과정에서 획득한 스캔 데이터일 수 있으며, 스캔 데이터는 2차원 평면 이미지 데이터이거나 3차원 입체 이미지 샷(shot)일 수 있다.In explaining the present invention herein, 'data is acquired' may mean modeling at least one piece of data obtained by scanning an object in three dimensions. At this time, the data piece may be scan data acquired in the process of scanning an object, and the scan data may be two-dimensional flat image data or a three-dimensional stereoscopic image shot.

또한, '얼라인이 끊긴다'는 것은 데이터 조각들 사이에 중첩되는 부분이 존재하지 않아 데이터 조각들이 정렬되지 않는 것을 의미할 수 있다.Additionally, 'the alignment is broken' may mean that the data pieces are not aligned because there is no overlapping part between the data pieces.

도 1은 본 발명에 따른 데이터 처리 방법의 순서도이고, 도 2는 상하악 데이터(100)를 설명하기 위한 것이다.Figure 1 is a flow chart of the data processing method according to the present invention, and Figure 2 is for explaining the upper and lower jaw data 100.

도 1 및 도 2를 참조하면, 본 발명에 따른 데이터 처리 방법은 대상체를 스캔하여 상하악 데이터를 획득하는 단계(S110)를 포함한다. 대상체는 본 발명에 따른 데이터 처리 방법이 수행되는 3차원 구강 스캐너가 스캔하는 대상을 의미할 수 있다. 예시적으로, 대상체는 환자의 실제 구강일 수도 있고, 상기 구강을 인상 재료를 사용하여 채득한 인상(impression) 모형일 수도 있으며, 또는 상기 인상 모형에 석고를 부어 획득한 석고 모형일 수도 있다. 석고 모형은 환자 구강의 형상을 나타내며, 예시적으로 석고 모형은 치아 및/또는 치은의 굴곡, 치아의 크기, 교합된 형상 등을 나타낸다.Referring to Figures 1 and 2, the data processing method according to the present invention includes a step (S110) of acquiring upper and lower jaw data by scanning an object. The object may refer to an object scanned by a 3D intraoral scanner on which the data processing method according to the present invention is performed. Illustratively, the object may be the patient's actual mouth, an impression model of the mouth obtained using an impression material, or a plaster model obtained by pouring plaster on the impression model. The plaster model represents the shape of the patient's mouth. For example, the plaster model represents the curvature of the teeth and/or gingiva, the size of the teeth, the occlusal shape, etc.

상하악 데이터(100)는 상악 데이터(101)와 하악 데이터(102)를 포함할 수 있다. 예시적으로, 상악 데이터(101)와 하악 데이터(102)는 평면 형상으로 도시되었으나, 상악 데이터(101)와 하악 데이터(102)는 유저 인터페이스 화면 상에서 3차원으로 표시된다.The upper and lower jaw data 100 may include upper jaw data 101 and lower jaw data 102. Exemplarily, the upper jaw data 101 and the lower jaw data 102 are shown in a planar shape, but the upper jaw data 101 and lower jaw data 102 are displayed in three dimensions on the user interface screen.

이하에서는, 상하악 데이터(100)를 구성하는 그룹(200)에 대해 설명한다.Below, the group 200 constituting the upper and lower jaw data 100 will be described.

도 3은 상하악 데이터(100)가 그룹(200)별로 구성된 형태를 설명하기 위한 것이다.FIG. 3 is for explaining how the upper and lower jaw data 100 are organized by group 200.

도 3을 참조하면, 상하악 데이터(100)는 적어도 하나의 그룹(200)으로 구성될 수 있다. 예시적으로, 상하악 데이터(100)는 제1 그룹(201), 제2 그룹(201), 제3 그룹(미도시), 및 제n 그룹(210)을 포함하는 복수의 그룹(200)으로 구성될 수 있다. 이 때, 각각의 그룹(200)들은 상호 얼라인되지 않을 수 있다. 또한, 상기 그룹(200)은 데이터 조각들의 집합일 수 있다. 예시적으로, 데이터 조각들은 대상체를 스캔하는 과정에서 획득한 스캔 데이터일 수 있으며, 스캔 데이터는 대상체를 촬영하여 획득한 2차원 평면 이미지 데이터이거나, 상기 2차원 평면 이미지 데이터를 3차원 모델링하여 획득한 3차원 입체 이미지 샷(shot)일 수 있다.Referring to FIG. 3, upper and lower jaw data 100 may be comprised of at least one group 200. Exemplarily, the upper and lower jaw data 100 are divided into a plurality of groups 200 including a first group 201, a second group 201, a third group (not shown), and an nth group 210. It can be configured. At this time, each group 200 may not be aligned with each other. Additionally, the group 200 may be a set of data pieces. For example, the data pieces may be scan data obtained in the process of scanning an object, and the scan data may be two-dimensional planar image data obtained by photographing the object, or obtained by three-dimensional modeling the two-dimensional planar image data. It may be a 3D stereoscopic image shot.

상하악 데이터를 획득하는 단계(S110)는, 상하악 데이터(100)를 구성하는 그룹(200)들 중 제1 그룹(201)에 포함되는 데이터 조각들을 획득하고, 제2 그룹(202)에 포함되는 데이터 조각들을 획득할 수 있다. 이 때, 제1 그룹(201)과 제2 그룹(202)은 상호 중첩되지 않는다. 예시적으로, 제1 그룹(201)과 제2 그룹(202)은 얼라인이 끊길 수 있다. 보다 상세하게는, 대상체를 스캔하여 제1 그룹(201)에 포함되는 데이터 조각들을 획득하는 중에 얼라인이 끊기게 되면, 얼라인이 끊기기 전에 획득된 데이터 조각들은 제1 그룹(201)에 포함되며, 얼라인이 끊긴 후에 획득되는 데이터 조각들은 얼라인이 끊긴 후 신규로 생성되는 제2 그룹(202)에 포함될 수 있다. 이와 같이, 스캔 과정에서 얼라인이 끊기는 여부에 따라 상호 중첩되지 않는 복수의 그룹(200)들이 생성될 수 있다. 이러한 과정에 따라, 그룹(200)들은 각각 적어도 하나의 데이터 조각을 포함할 수 있으며, 상이한 그룹(200)에 포함된 데이터 조각은 상호 중첩되지 않을 수 있다.In the step of acquiring upper and lower jaw data (S110), data pieces included in the first group 201 among the groups 200 constituting the upper and lower jaw data 100 are acquired and included in the second group 202. You can obtain pieces of data that are At this time, the first group 201 and the second group 202 do not overlap each other. As an example, the first group 201 and the second group 202 may be out of alignment. More specifically, if alignment is broken while scanning the object and acquiring data pieces included in the first group 201, the data pieces acquired before alignment is broken are included in the first group 201; Data pieces acquired after alignment is broken may be included in the second group 202 that is newly created after alignment is broken. In this way, a plurality of groups 200 that do not overlap each other may be created depending on whether alignment is broken during the scanning process. According to this process, the groups 200 may each include at least one data piece, and the data pieces included in different groups 200 may not overlap with each other.

도 4는 본 발명에 따른 데이터 처리 방법에서, 상하악 데이터를 획득하는 단계(S110)를 수행하는 일 예시이다.Figure 4 is an example of performing the step (S110) of acquiring upper and lower jaw data in the data processing method according to the present invention.

도 4를 참조하여 상하악 데이터(100)를 획득하는 과정에 대해 보다 자세한 예시를 들어 설명한다. 본 발명에 따른 데이터 처리 방법에서, 상하악 데이터를 획득하는 단계(S110)는 상악 데이터(101)를 나타내는 데이터 조각들을 획득하고, 하악 데이터(102)를 나타내는 데이터 조각들을 획득할 수 있다. 예시적으로, 제1 그룹(201)은 상악 데이터를 구성하는 적어도 하나의 상악 데이터 그룹이고, 제2 그룹(202)은 하악 데이터를 구성하는 적어도 하나의 하악 데이터 그룹일 수 있다. 보다 상세하게는, 제1 그룹(201), 제3 그룹(203), 및 제5 그룹(205)은 각각 상악 데이터의 일부분일 수 있으며, 제2 그룹(202), 제4 그룹(204), 및 제6 그룹(206)은 각각 하악 데이터의 일부분일 수 있다. 사용자는 스캐너를 통해 먼저 제1 그룹(201)에 포함되는 데이터 조각들을 획득할 수 있다. 이 때, 제1 그룹(201)에 포함되는 데이터 조각들은 대상체의 상악 제1 측을 나타낼 수 있다. 예시적으로, 제1 그룹(201)에 포함되는 데이터 조각들은 상악의 일측 제1 대구치, 및 상악의 일측 제2 대구치를 포함하는 상악의 특정 영역을 나타낼 수 있다.With reference to FIG. 4 , the process of acquiring upper and lower jaw data 100 will be described with a more detailed example. In the data processing method according to the present invention, the step of acquiring upper and lower jaw data (S110) may include acquiring data pieces representing the upper jaw data 101 and acquiring data pieces representing the lower jaw data 102. By way of example, the first group 201 may be at least one upper jaw data group constituting the upper jaw data, and the second group 202 may be at least one lower jaw data group constituting the lower jaw data. More specifically, the first group 201, the third group 203, and the fifth group 205 may each be part of the maxillary data, and the second group 202, the fourth group 204, and the sixth group 206 may each be a portion of lower jaw data. The user can first obtain data pieces included in the first group 201 through a scanner. At this time, data pieces included in the first group 201 may represent the first upper jaw side of the object. By way of example, the data pieces included in the first group 201 may represent a specific region of the maxilla including a first molar on one side of the maxilla and a second molar on one side of the maxilla.

한편, 사용자는 스캐너의 방향을 변경하여 제2 그룹(202)에 포함되는 데이터 조각들을 획득할 수 있다. 이 때, 제2 그룹(202)에 포함되는 데이터 조각들은 대상체의 하악 제1 측을 나타낼 수 있다. 예시적으로, 제2 그룹(202)에 포함되는 데이터 조각들은 하악의 일측 제1 대구치, 및 하악의 일측 제2 대구치를 포함하는 하악의 특정 영역을 나타낼 수 있다. 상악과 하악은 이개되어 상호 이격 형성되므로, 상악 데이터(101)에 포함되는 제1 그룹(201)과 하악 데이터(102)에 포함되는 제2 그룹(202)은 얼라인이 끊긴 상태로 형성된다.Meanwhile, the user can obtain data pieces included in the second group 202 by changing the direction of the scanner. At this time, data pieces included in the second group 202 may represent the first side of the lower jaw of the object. Exemplarily, data pieces included in the second group 202 may represent a specific region of the lower jaw including a first molar on one side of the mandible and a second molar on one side of the mandible. Since the upper and lower jaws are separated and spaced apart from each other, the first group 201 included in the upper jaw data 101 and the second group 202 included in the lower jaw data 102 are formed out of alignment.

또한, 사용자는 다시 스캐너의 방향을 변경하여 제3 그룹(203)에 포함되는 데이터 조각들을 획득할 수 있다. 이 때, 제3 그룹(203)에 포함되는 데이터 조각들은 대상체의 상악 제2 측을 나타낼 수 있다. 예시적으로, 제3 그룹(203)에 포함되는 데이터 조각들은 상악의 전치들 중 적어도 일부, 상악의 타측 제1 대구치, 및 상악의 타측 제2 대구치를 포함하는 상악의 특정 영역을 나타낼 수 있다. 제3 그룹(203)은 상악 데이터(101)에 포함된 제1 그룹(201)과 하악 데이터(102)에 포함된 제2 그룹(202)과 얼라인이 끊긴 상태로 형성된다.Additionally, the user can change the direction of the scanner again to obtain data pieces included in the third group 203. At this time, data pieces included in the third group 203 may represent the second upper jaw side of the object. Exemplarily, the data pieces included in the third group 203 may represent a specific region of the maxilla including at least some of the incisors of the maxilla, the first molar on the other side of the maxilla, and the second molar on the other side of the maxilla. The third group 203 is formed out of alignment with the first group 201 included in the upper jaw data 101 and the second group 202 included in the lower jaw data 102.

동일한 방식으로, 하악의 전치들 중 적어도 일부를 포함하는 제4 그룹(204)의 데이터 조각들, 상악의 견치들 중 적어도 일부를 포함하는 제5 그룹(205)의 데이터 조각들, 및 하악의 타측 제1 대구치 및 하악의 타측 제2 대구치를 포함하는 제6 그룹(206)의 데이터 조각들을 획득할 수 있다. 제1 그룹 내지 제6 그룹(201, 202, 203, 204, 205, 206)은 그룹간 얼라인이 끊긴 상태로 형성된다. 추가적인 데이터 조각들을 획득함으로써, 사용자는 상악 데이터(101)와 하악 데이터(102)를 획득할 수 있다.In the same way, data pieces of the fourth group 204 include at least some of the incisors of the mandible, pieces of data of the fifth group 205 include at least some of the canines of the maxilla, and the other side of the mandible. A sixth group 206 of data pieces can be obtained, including the first molars and the second molars on the other side of the mandible. The first to sixth groups 201, 202, 203, 204, 205, and 206 are formed with the alignment between groups broken. By acquiring additional data pieces, the user can obtain upper jaw data 101 and lower jaw data 102.

즉, 사용자는 대상체의 하악 일부를 스캔하다가, 대상체의 상악 일부를 스캔하고, 다시 대상체의 하악의 다른 일부를 스캔하는 방식으로 상하악 데이터(100)를 획득할 수 있다.That is, the user may obtain the upper and lower jaw data 100 by scanning a part of the lower jaw of the object, then scanning a part of the upper jaw of the object, and then scanning another part of the lower jaw of the object.

전술한 바와 같이, 선행하는 그룹에 포함된 데이터 조각들과 얼라인되지 않는 데이터 조각들이 획득되더라도, 상하악 데이터(100)를 획득하는 과정이 중단되지 않고, 얼라인이 끊긴 이후 획득된 데이터 조각들을 후속 그룹에 포함되도록 한다. 이에 따라, 사용자는 얼라인이 끊긴 지점으로 복귀하여 스캔 과정을 재개할 필요없이 대상체를 자유롭게 스캔할 수 있는 이점이 있다. 또한, 사용자는 일측 구석의 상악과 하악을 스캔하고, 타측 구성의 상악과 하악을 스캔한 다음, 중앙 전치 부분의 상악과 하악을 스캔하는 과정과 같이, 사용자가 대상체를 스캔하기 편리한 순서에 따라 스캔 과정을 수행할 수 있는 이점도 있다.As described above, even if data pieces that are not aligned with the data pieces included in the preceding group are acquired, the process of acquiring the upper and lower jaw data 100 is not stopped, and the data pieces acquired after the alignment is broken are Be included in the follow-up group. Accordingly, the user has the advantage of being able to freely scan the object without having to return to the point where alignment was interrupted and resume the scanning process. Additionally, the user can scan the object in an order that is convenient for the user, such as scanning the maxilla and mandible in one corner, scanning the maxilla and mandible in the other configuration, and then scanning the maxilla and mandible in the central anterior region. There are also advantages to carrying out the process.

다만, 상하악 데이터(100)가 반드시 6개의 그룹(200)을 포함하는 것은 아니며, 경우에 따라 일부 그룹(200)들은 재얼라인(re-align)되어 병합될 수도 있다. 일부 그룹(200)의 재얼라인 및 병합 과정은 후술한다.However, the upper and lower jaw data 100 does not necessarily include six groups 200, and in some cases, some groups 200 may be re-aligned and merged. The realignment and merging processes of some groups 200 will be described later.

도 5는 본 발명에 따른 데이터 처리 방법에서, 상하악 데이터를 획득하는 단계(S110)를 수행하는 다른 예시이다.Figure 5 is another example of performing the step (S110) of acquiring upper and lower jaw data in the data processing method according to the present invention.

도 5를 참조하여, 새로운 예시를 들어 상하악 데이터를 획득하는 단계(S110)를 설명한다. 제1 그룹(201)은 상악 데이터(101)를 구성하는 적어도 하나의 상악 데이터 그룹이고, 제2 그룹(202)은 제1 그룹(201)과 상호 중첩되지 않는 상악 데이터(101)의 다른 그룹일 수 있다. 예시적으로, 제1 그룹(201)에 포함되는 데이터 조각들은 상악의 일측 제1 대구치, 및 상악의 일측 제2 대구치를 포함하는 상악의 특정 영역을 나타낼 수 있고, 제2 그룹(202)에 포함되는 데이터 조각들은 상악의 전치들 중 적어도 일부, 상악의 타측 제1 대구치, 및 상악의 타측 제2 대구치를 포함하는 상악의 특정 영역을 나타낼 수 있다. 사용자는 제1 그룹(201), 제2 그룹(202), 제3 그룹(203), 제4 그룹(204), 제5 그룹(205), 제6 그룹(206)의 순서로 스캔 과정을 수행할 수 있다. 제1 그룹 내지 제3 그룹(201, 202, 203)은 상악 데이터(101)에 포함되고, 제4 그룹 내지 제6 그룹(204, 205, 206)은 하악 데이터(102)에 포함될 때, 사용자는 제1 그룹 내지 제3 그룹(201, 202, 203)에 해당하는 대상체의 상악을 먼저 스캔하고, 대상체의 상악의 스캔을 완료한 후 제4 그룹 내지 제6 그룹(204, 205, 206)에 해당하는 대상체의 하악을 스캔할 수 있다. 이 때, 제3 그룹(203)은 상악 데이터(101)에 포함되고, 제4 그룹(204)은 하악 데이터(102)에 포함되며, 상악 데이터(101)와 하악 데이터(102)는 중첩되는 부분이 존재하지 않는다. 따라서, 대상체의 상악을 스캔하여 제3 그룹(203)의 스캔을 수행하다가, 대상체의 하악을 스캔하는 경우, 제3 그룹(203)에 포함된 데이터 조각들과의 얼라인이 끊기게 되고, 하악 데이터 그룹에 해당하는 신규의 제4 그룹(204)이 생성된다. 이와 같이, 제3 그룹(203)에 포함되는 데이터 조각들과 얼라인되지 않는 데이터 조각들이 입력되는 경우, 상기 얼라인되지 않는 데이터 조각들을 포함하는 신규의 그룹이 생성되어, 얼라인이 끊긴 이후에도 계속적으로 데이터 조각들을 획득할 수 있다.With reference to FIG. 5 , the step (S110) of acquiring upper and lower jaw data will be described using a new example. The first group 201 is at least one upper jaw data group constituting the upper jaw data 101, and the second group 202 is another group of the upper jaw data 101 that does not overlap with the first group 201. You can. Exemplarily, the data pieces included in the first group 201 may represent a specific region of the maxilla including a first molar on one side of the maxilla and a second molar on one side of the maxilla, and are included in the second group 202 The data pieces may represent a specific region of the maxilla, including at least some of the maxillary incisors, the maxillary other first molars, and the maxillary other second molars. The user performs the scanning process in the following order: 1st group 201, 2nd group 202, 3rd group 203, 4th group 204, 5th group 205, and 6th group 206. can do. When the first to third groups (201, 202, 203) are included in the upper jaw data 101, and the fourth to sixth groups (204, 205, 206) are included in the lower jaw data 102, the user The upper jaw of the object corresponding to the first to third groups (201, 202, 203) is first scanned, and after completing the scanning of the upper jaw of the object, the upper jaw of the object corresponding to the fourth to sixth groups (204, 205, 206) is scanned. The lower jaw of the subject can be scanned. At this time, the third group 203 is included in the upper jaw data 101, the fourth group 204 is included in the lower jaw data 102, and the upper jaw data 101 and the lower jaw data 102 overlap. This doesn't exist. Therefore, when the upper jaw of the object is scanned to perform a scan of the third group 203, and the lower jaw of the object is scanned, the alignment with the data pieces included in the third group 203 is lost, and the lower jaw data A new fourth group 204 corresponding to the group is created. In this way, when data pieces that are not aligned with the data pieces included in the third group 203 are input, a new group including the unaligned data pieces is created and continues even after the alignment is broken. You can obtain pieces of data.

또는, 도시된 도면과는 달리, 제1 그룹은 하악 데이터를 구성하는 적어도 하나의 하악 데이터 그룹이고, 제2 그룹은 제1 그룹과 상호 중첩되지 않는 하악 데이터의 다른 그룹일 수 있다. 즉, 사용자는 대상체의 하악을 전체적으로 스캔한 후, 상악을 전체적으로 스캔하는 방식으로 상하악 데이터를 획득할 수 있다.Alternatively, unlike the drawings, the first group may be at least one lower jaw data group constituting lower jaw data, and the second group may be another group of lower jaw data that does not overlap with the first group. That is, the user can obtain upper and lower jaw data by scanning the entire lower jaw of the object and then scanning the upper jaw as a whole.

그룹(200)들은 상악 데이터(101)를 구성할 수도 있고, 하악 데이터(102)를 구성할 수도 있으며, 스캔 순서에 구속되지 않는다. 즉, 상하악 데이터를 획득하는 단계(S110)는 단일 스테이지에서 수행될 수 있다. 상하악 데이터를 획득하는 단계(S110)가 단일 스테이지에서 수행됨으로써, 사용자는 상악 데이터(101)와 하악 데이터(102)의 획득 순서를 고려하지 않고 자유롭게 스캔 과정을 수행할 수 있는 이점이 있다.The groups 200 may constitute the upper jaw data 101 or the lower jaw data 102, and are not limited to the scan order. That is, the step of acquiring upper and lower jaw data (S110) can be performed in a single stage. Since the step of acquiring the upper and lower jaw data (S110) is performed in a single stage, the user has the advantage of being able to freely perform the scanning process without considering the acquisition order of the upper and lower jaw data 101 and 102.

도 6은 본 발명에 따른 데이터 처리 방법에서, 동일한 스테이지에서 상하악 데이터가 획득되는 과정을 설명하기 위한 것이다.Figure 6 is for explaining the process of obtaining upper and lower jaw data at the same stage in the data processing method according to the present invention.

도 6을 참조하면, 유저 인터페이스 화면(600) 상에 사용자가 대상체를 스캔하는 과정이 실시간으로 표시될 수 있다. 유저 인터페이스 화면(600)의 일측에 완성된 상악 데이터(101)의 형상이 썸네일의 형태로 표시될 수 있다. 이 때, 상악 데이터(101)는 제1 그룹(201)에 포함된 데이터 조각들이 3차원 모델링 및 얼라인되어 생성될 수 있다. 한편, 유저 인터페이스 화면 (600)의 타측에는 실시간 스캔 과정을 통해 획득되는 데이터 조각이 나타날 수 있다. 예시적으로, 제2 그룹(202)에 포함될 하악 데이터(102)의 제2 그룹 데이터 조각들(2021)이 획득될 수 있다. 이와 같이, 본 발명에 따른 데이터 처리 방법은 하나의 단일 스테이지에서 상악 데이터(101)와 하악 데이터(102)를 획득할 수 있다. 따라서, 각각의 스테이지(예를 들면, 상악 데이터 스테이지, 하악 데이터 스테이지, 및 교합 데이터 스테이지 등)에 대응되는 대상체의 부분들을 스캔해야 했던 종래 기술과 달리, 본 발명에 따른 데이터 처리 방법은 사용자가 스캔 과정에 집중할 수 있도록 하고, 사용자의 스캔 자유도를 향상시키는 이점이 있다.Referring to FIG. 6 , the process of a user scanning an object may be displayed in real time on the user interface screen 600. The shape of the completed maxillary data 101 may be displayed in the form of a thumbnail on one side of the user interface screen 600. At this time, the maxillary data 101 may be generated by three-dimensional modeling and aligning data pieces included in the first group 201. Meanwhile, a piece of data acquired through a real-time scanning process may appear on the other side of the user interface screen 600. Exemplarily, second group data pieces 2021 of the lower jaw data 102 to be included in the second group 202 may be obtained. In this way, the data processing method according to the present invention can acquire the upper jaw data 101 and the lower jaw data 102 in one single stage. Therefore, unlike the prior art in which parts of the object corresponding to each stage (e.g., maxillary data stage, mandibular data stage, and occlusal data stage, etc.) had to be scanned, the data processing method according to the present invention allows the user to scan It has the advantage of allowing the user to focus on the process and improving the user's freedom of scanning.

즉, 도 4 내지 도 6을 참조하여 설명한 바와 같이, 본 발명에 따른 데이터 처리 방법은 사용자가 데이터 조각들 간의 얼라인이 끊기는지 여부를 고려하지 않고 스캔 과정을 수행할 수 있어 사용자 편의성을 향상시키고, 스캔 소요 시간을 단축시키는 이점이 있다.That is, as explained with reference to FIGS. 4 to 6, the data processing method according to the present invention allows the user to perform the scanning process without considering whether the alignment between data pieces is broken, thereby improving user convenience and , it has the advantage of shortening the scanning time.

이하에서는, 상하악 데이터(100)를 구성하는 그룹(200)에 포함되는 데이터 조각들이 획득되는 과정에 대해 설명한다.Below, the process by which data pieces included in the group 200 constituting the upper and lower jaw data 100 are acquired will be described.

도 7은 데이터 조각을 획득하는 과정을 설명하기 위한 것, 도 8은 얼라인이 끊겨 복수의 그룹이 생성되는 과정을 설명하기 위한 것이다.FIG. 7 is for explaining the process of acquiring a piece of data, and FIG. 8 is for explaining the process of creating multiple groups when alignment is broken.

도 7을 참조하면, 유저 인터페이스 화면(600) 상에 사용자가 대상체를 스캔하는 과정이 실시간으로 표시될 수 있다. 유저 인터페이스 화면(600)의 일측에 기형성된 그룹이 포함하는 데이터 조각들이 얼라인되어 썸네일(thumbnail)의 형태로 표시될 수 있다. 예시적으로, 제1 그룹(201)이 포함하는 데이터 조각들이 얼라인된 형상이 표시된다.Referring to FIG. 7 , the process of a user scanning an object may be displayed in real time on the user interface screen 600. On one side of the user interface screen 600, data pieces included in a preformed group may be aligned and displayed in the form of a thumbnail. As an example, the aligned shape of the data pieces included in the first group 201 is displayed.

한편, 유저 인터페이스 화면(600)의 타측에는 제1 그룹(201)과 얼라인이 끊겨, 제2 그룹(202)을 구성하는 데이터 조각들이 실시간으로 획득되는 과정이 나타난다. 제2 그룹 데이터 조각들(2021)은 조각들 간에 얼라인되어 제2 그룹(202)을 구성할 수 있다.Meanwhile, on the other side of the user interface screen 600, a process in which alignment with the first group 201 is lost and data pieces constituting the second group 202 are acquired in real time appears. The second group data pieces 2021 may be aligned between the pieces to form the second group 202.

도 3, 도 7 및 도 8을 참조하면, 제2 그룹 데이터 조각들(2021)을 획득하다가, 획득되는 데이터 조각의 얼라인이 끊기는 경우, 얼라인이 끊긴 시점 이전에 획득된 데이터 조각은 제2 그룹(202)을 구성하고, 제2 그룹(202)이 포함하는 데이터 조각들이 얼라인된 형상이 썸네일의 형태로 유저 인터페이스 화면(600)의 일측에 생성된다. 예시적으로, 제1 그룹(201)의 썸네일과 제2 그룹(202)의 썸네일이 유저 인터페이스 화면(600)의 좌측에 표시되고, 제3 그룹(203)을 구성하는 제3 그룹 데이터 조각들(2031)이 획득될 수 있다.Referring to FIGS. 3, 7, and 8, while acquiring the second group data pieces 2021, if the alignment of the acquired data piece is broken, the data piece acquired before the alignment is broken is the second group data piece 2021. The group 202 is formed, and the aligned shape of the data pieces included in the second group 202 is created on one side of the user interface screen 600 in the form of a thumbnail. Exemplarily, a thumbnail of the first group 201 and a thumbnail of the second group 202 are displayed on the left side of the user interface screen 600, and the third group data pieces constituting the third group 203 ( 2031) can be obtained.

다만, 데이터 조각들이 포함되는 그룹(200)들이 생성되는 시점은 제한되지 않는다. 예시적으로, 스캔 과정이 시작되어 데이터 조각들이 획득되다가 새로이 획득된 데이터 조각과의 얼라인이 끊어지는 경우, 얼라인이 끊어지기 전까지 획득한 데이터 조각들을 포함하는 제1 그룹(201)이 생성될 수 있다.However, the timing at which groups 200 containing data pieces are created is not limited. As an example, when the scanning process starts and data pieces are acquired and the alignment with the newly acquired data piece is broken, a first group 201 containing the data pieces acquired before the alignment is broken will be created. You can.

또한, 다른 예시로, 스캔 과정이 시작되면 제1 그룹(201)이 생성되고, 스캔 과정을 통해 획득되는 데이터 조각들이 제1 그룹(201)에 포함될 수 있다. 이후, 새로이 획득된 데이터 조각과 기획득된 데이터 조각들과의 얼라인이 끊어지는 경우, 얼라인이 끊어진 이후에 획득한 데이터 조각들을 포함하기 위한 제2 그룹(202)이 생성될 수도 있다.Additionally, as another example, when a scanning process starts, a first group 201 is created, and data pieces obtained through the scanning process may be included in the first group 201. Thereafter, when the alignment between the newly acquired data pieces and the previously acquired data pieces is broken, a second group 202 may be created to include the data pieces acquired after the alignment is broken.

이하에서는, 상이한 그룹(200)에 포함된 데이터 조각들이 중첩되어 재얼라인 및 병합되는 과정에 대해 설명한다.Below, a process in which data pieces included in different groups 200 overlap, realign, and merge will be described.

도 9는 그룹(200)들이 재얼라인되어 병합되는 과정을 설명하기 위한 것이다.Figure 9 is for explaining the process in which groups 200 are realigned and merged.

도 9를 참조하면, 그룹(200)들 중 적어도 일부는, 대상체를 스캔하여 획득되는 신규 데이터 조각에 의해 상호 중첩되는 영역이 형성될 수 있다. 예시적으로, 제3 그룹(203)을 구성하는 제3 그룹 데이터 조각들(2031)을 획득하는 과정에서, 제3 그룹 데이터 조각들(2031) 중 적어도 일부가 제1 그룹(201)에 포함된 제1 그룹 데이터 조각들(2011) 중 적어도 일부와 상호 중첩될 수 있다. 이 때, 제1 그룹(201)과 제3 그룹(203)은 얼라인될 수 있다. 이러한 현상을 '재얼라인(re-align)'으로 지칭한다. 그룹(200)들이 재얼라인되는 경우, 재얼라인되는 그룹(200)들은 병합되어 하나의 병합 그룹을 형성할 수 있다. 예시적으로, 제1 그룹(201)과 제3 그룹(203)이 재얼라인되면, 제1 그룹(201)과 제3 그룹(203)은 병합되어 하나의 병합 그룹을 형성하고, 유저 인터페이스 화면(600)의 일측에 표시되던 제1 그룹(201)의 썸네일은 삭제될 수 있다. 병합 그룹이 형성된 이후, 획득된 신규 데이터 조각들은 병합 그룹에 포함된 데이터 조각들과 실시간으로 얼라인될 수 있다.Referring to FIG. 9 , in at least some of the groups 200, overlapping areas may be formed by new data pieces obtained by scanning an object. Exemplarily, in the process of acquiring the third group data pieces 2031 constituting the third group 203, at least some of the third group data pieces 2031 are included in the first group 201. It may overlap with at least some of the first group data pieces 2011. At this time, the first group 201 and the third group 203 may be aligned. This phenomenon is referred to as ‘re-align’. When the groups 200 are realigned, the realigned groups 200 may be merged to form one merged group. For example, when the first group 201 and the third group 203 are realigned, the first group 201 and the third group 203 are merged to form one merge group, and the user interface screen The thumbnail of the first group 201 displayed on one side of 600 may be deleted. After the merge group is formed, the acquired new data pieces can be aligned in real time with the data pieces included in the merge group.

이와 같이, 그룹(200)들이 재얼라인 및 병합됨으로써, 본 발명에 따른 데이터 처리 방법이 수행되는 시스템의 연산 부하를 경감시킬 수 있으며, 최종적으로 대상체를 나타내는 데이터 공백이 최소화된 정밀한 3차원 모델을 획득할 수 있는 이점이 있다.In this way, by realigning and merging the groups 200, the computational load of the system in which the data processing method according to the present invention is performed can be reduced, and ultimately, a precise three-dimensional model with minimized data gaps representing the object can be created. There are advantages that can be gained.

도 10은 교합 데이터를 획득하는 단계(S120)를 설명하기 위한 것이다.Figure 10 is for explaining the step (S120) of acquiring occlusion data.

도 1 및 도 10을 참조하면, 본 발명에 따른 데이터 처리 방법은 상하악 데이터(100)의 협면을 스캔하여 교합 데이터를 획득하는 단계(S120)를 포함한다. 교합 데이터(300)는 대상체의 상악과 하악이 이개되지 않고 맞물린 상태에서, 상악과 하악을 모두 포함하는 적어도 하나의 협면을 스캔하여 획득될 수 있다. 예시적으로, 교합 데이터(300)는 대상체의 상악 일측 협면과 대상체의 하악 일측 협면을 포함하는 제1 교합 데이터(301)와, 대상체의 상악 타측 협면과 대상체의 하악 타측 협면을 포함하는 제2 교합 데이터(302)를 포함할 수 있다. 교합 데이터(300)는 하나의 협면을 스캔하여 획득될 수 있으나, 보다 정밀한 대상체의 치아 교합 상태를 구현하기 위해 복수개의 협면을 스캔하여 획득될 수 있다.Referring to Figures 1 and 10, the data processing method according to the present invention includes a step (S120) of acquiring occlusion data by scanning the buccal surface of the upper and lower jaw data 100. Occlusion data 300 may be obtained by scanning at least one buccal surface including both the upper and lower jaws in a state where the upper and lower jaws of the object are engaged without being separated. Exemplarily, the occlusion data 300 includes first occlusion data 301 including the buccal surface of the upper jaw of the object and the buccal surface of the lower jaw of the object, and second occlusion data 301 including the other buccal surface of the upper jaw of the object and the other buccal surface of the lower jaw of the object. May include data 302. Occlusal data 300 may be obtained by scanning one buccal surface, but may be obtained by scanning a plurality of buccal surfaces to implement a more precise occlusion state of the object's teeth.

한편, 본 발명에 따른 데이터 처리 방법은, 상하악 데이터를 획득하는 단계(S110) 이후, 획득된 상하악 데이터(100)를 기초로 대상체의 3차원 모델을 생성하는 단계(S130)를 더 포함할 수 있다. 즉, 사용자의 스캔 전략에 따라 획득된 그룹(200)들이 하나의 상악 데이터(101) 및 하나의 하악 데이터(102)를 형성하고, 이러한 상하악 데이터(100)가 대상체를 나타내는 3차원 모델로 생성된다.Meanwhile, the data processing method according to the present invention may further include, after the step of acquiring the upper and lower jaw data (S110), a step of generating a three-dimensional model of the object based on the obtained upper and lower jaw data (100) (S130). You can. That is, the groups 200 acquired according to the user's scanning strategy form one maxilla data 101 and one mandible data 102, and this upper and lower jaw data 100 is created as a three-dimensional model representing the object. do.

3차원 모델을 생성하는 단계(S130)는 상악 데이터(101)와 하악 데이터(102)를 포함하는 상하악 데이터(100), 및 대상체의 상악과 하악을 포함하는 협면을 스캔하여 획득한 교합 데이터(300)를 기초로 3차원 모델을 생성할 수 있다. 보다 상세하게는, 3차원 모델을 생성하는 단계(S130)는 상하악 데이터(100)와 교합 데이터(300)를 조합하여 3차원 모델을 생성할 수 있다. 본 발명에 따른 데이터 처리 방법을 사용함으로써, 상하악 데이터(100)가 용이하게 획득될 수 있고, 스캔 소요 시간이 단축되어, 신속하게 대상체를 나타내는 3차원 모델을 획득할 수 있는 이점이 있다. 또한, 단일 스테이지에서 상하악 데이터(100)를 획득하고, 사용자는 얼라인이 끊긴 지점으로 복귀하지 않고 계속하여 스캔 과정을 수행할 수 있으므로, 사용자 편의성을 향상시키는 이점이 있다.The step of generating a three-dimensional model (S130) includes upper and lower jaw data 100 including upper jaw data 101 and lower jaw data 102, and occlusion data obtained by scanning the buccal surface including the upper and lower jaws of the object ( A three-dimensional model can be created based on 300). More specifically, the step of generating a 3D model (S130) may generate a 3D model by combining the upper and lower jaw data 100 and the occlusion data 300. By using the data processing method according to the present invention, there is an advantage that the upper and lower jaw data 100 can be easily acquired, the time required for scanning is shortened, and a three-dimensional model representing the object can be quickly obtained. In addition, the upper and lower jaw data 100 is acquired on a single stage, and the user can continue the scanning process without returning to the point where the alignment was interrupted, which has the advantage of improving user convenience.

이하에서는, 시술 이후의 대상체를 스캔하여 3차원 모델을 획득하는 과정을 설명한다.Below, the process of obtaining a 3D model by scanning an object after surgery will be described.

도 11은 시술 중 치아 삭제 이후의 대상체를 스캔하는 과정을 설명하기 위한 것이다.Figure 11 is for explaining the process of scanning an object after tooth removal during a procedure.

도 11을 참조하면, 상하악 데이터(100)를 구성하는 상악 데이터(101’) 및 하악 데이터(102’) 중 적어도 하나는 시술 이후의 대상체를 나타낼 수 있다. 예시적으로, 상하악 데이터(100)는 ‘시술’ 이후의 형상을 나타낼 수 있으며, 3차원 모델이 대상체의 시술 부위를 나타낼 수 있도록 한다. 또한, 그룹(200)들 중 적어도 하나는 시술 이후의 대상체를 나타내는 데이터 조각을 포함할 수 있다. 이 때, ‘시술’이란 대상체에 적용된 소정 처리를 의미할 수 있다. 예시적으로, ‘시술’은 치아 삭제(preparation), 치아 발치 및 스캔바디와 같은 보철물의 식립 등 다양한 처리들 중 적어도 하나를 포함할 수 있다.Referring to FIG. 11 , at least one of the upper jaw data 101' and the lower jaw data 102' constituting the upper and lower jaw data 100 may represent an object after a procedure. By way of example, the upper and lower jaw data 100 may represent the shape after ‘treatment’ and allow the 3D model to represent the treatment area of the object. Additionally, at least one of the groups 200 may include a piece of data representing an object after a procedure. In this case, ‘treatment’ may mean a predetermined treatment applied to the object. By way of example, ‘procedure’ may include at least one of various processes such as tooth preparation, tooth extraction, and placement of a prosthesis such as a scan body.

도 11에 도시된 바와 같이, 사용자는 제1 그룹(201)에 포함되는 데이터 조각들을 획득할 수 있으며, 제1 그룹(201)은 시술 이전 또는 시술 이후의 대상체를 나타내는 일부분일 수 있다. 또한, 사용자는 대상체의 일부 치아를 삭제한 후, 상기 일부 치아가 삭제된 대상체를 스캔하여 삭제 치아 데이터 조각(4011)을 가지는 치아 삭제 그룹(401)을 획득할 수 있다. 제1 그룹(201)과 삭제 치아 그룹(401)이 각각 획득되어 재얼라인 되면, 상악 데이터(101')는 삭제 치아 영역을 나타낼 수 있다. 이와 같이, 삭제 치아 그룹(401)을 스캔하고, 삭제 치아 그룹(401)이 시술 이전의 대상체를 스캔하여 획득한 그룹(200)과 재얼라인 및 병합됨으로써, 사용자는 대상체의 시술 이후 부분만을 추가적으로 스캔하여 신속하게 시술 이후의 3차원 모델을 획득할 수 있다.As shown in FIG. 11, the user can obtain data pieces included in the first group 201, and the first group 201 may be a portion representing the object before or after the procedure. Additionally, after removing some of the teeth of the object, the user may scan the object from which the partial teeth have been removed to obtain a tooth deletion group 401 having a piece of deleted tooth data 4011. When the first group 201 and the prepared tooth group 401 are respectively acquired and realigned, the maxillary data 101' may represent the prepared tooth area. In this way, by scanning the prepared tooth group 401 and re-aligning and merging the prepared tooth group 401 with the group 200 obtained by scanning the object before the procedure, the user can additionally add only the post-procedure part of the object. By scanning, you can quickly obtain a 3D model after the procedure.

도 12는 시술 중 스캔바디 식립 이후의 대상체를 스캔하는 과정을 설명하기 위한 것이다.Figure 12 is for explaining the process of scanning an object after inserting a scan body during a procedure.

도 12를 참조하면, 대상체의 일부 영역에 스캔바디가 식립되어 스캔바디 적용 데이터 조각들(5011, 5012)을 가지는 스캔바디 적용 그룹(501)이 하악 데이터(102'')에 포함될 수 있다. 한편, 사용자는 제1 그룹(201)에 포함되는 데이터 조각들을 획득할 수 있으며, 제1 그룹(201)은 시술 이전 또는 이후의 대상체를 나타내는 일부분일 수 있다. 또한, 사용자는 대상체의 일부 영역에 스캔바디를 식립하고, 이를 스캔함으로서 스캔바디 적용 그룹(501)을 획득할 수 있다. 제1 그룹(201)과 스캔바디 적용 그룹(501)이 각각 획득되어 재얼라인 되면, 하악 데이터(102'')는 대상체의 스캔바디 적용 영역을 나타낼 수 있다. 이와 같이, 스캔바디 적용 그룹(501)을 스캔하고, 스캔바디 적용 그룹(501)이 시술 이전의 대상체를 스캔하여 획득한 제1 그룹(201)과 재얼라인 및 병합됨으로써, 사용자는 시술 이후의 대상체 전체를 스캔하지 않고, 대상체의 시술 이후 부분만을 추가적으로 스캔하여 신속하게 시술 이후의 3차원 모델을 획득할 수 있다.Referring to FIG. 12 , a scan body is implanted in a partial area of an object, and a scan body application group 501 having scan body application data pieces 5011 and 5012 may be included in the lower jaw data 102''. Meanwhile, the user may obtain data pieces included in the first group 201, and the first group 201 may be a portion representing the object before or after the procedure. Additionally, the user can obtain a scan body application group 501 by placing a scan body in a partial area of the object and scanning it. When the first group 201 and the scanbody application group 501 are respectively acquired and realigned, the lower jaw data 102'' may represent the scanbody application area of the object. In this way, by scanning the scanbody application group 501 and realigning and merging the scanbody application group 501 with the first group 201 obtained by scanning the object before the procedure, the user can Instead of scanning the entire object, it is possible to quickly obtain a 3D model after the procedure by additionally scanning only the portion of the object after the procedure.

선택적으로, 시술 이후의 대상체의 시술 부위를 시술 이전의 대상체를 나타내는 상하악 데이터(100)와 얼라인하기 위해, 상하악 데이터(100) 중 시술 부위와 충돌하는 부분이 트리밍(trimming)되고 시술 데이터 조각(삭제 치아 데이터 조각, 스캔바디 적용 데이터 조각 등)이 해당 부분을 대체할 수 있다. 또한, 시술 데이터 조각은 시술 부위에서만 추가적으로 획득되어, 선택적으로 시술 이전의 대상체를 나타내는 상하악 데이터(100)와 얼라인되어 표시될 수도 있다.Optionally, in order to align the treatment area of the subject after the procedure with the upper and lower jaw data 100 representing the subject before the treatment, the portion of the upper and lower jaw data 100 that collides with the treatment area is trimmed and the treatment data A piece (a piece of deleted tooth data, a piece of data applied to a scan body, etc.) can replace the corresponding part. Additionally, a piece of treatment data may be additionally obtained only from the treatment area and may be selectively displayed in alignment with the upper and lower jaw data 100 representing the object before the treatment.

시술 이후의 대상체를 나타내는 데이터 조각을 포함하는 그룹과 시술 이전의 대상체를 나타내는 데이터 조각을 포함하는 그룹을 얼라인하여 상하악 데이터를 획득하면, 획득한 상하악 데이터는 시술 이전의 교합 데이터와 함께 3차원 모델로 생성될 수 있다. 이 때, 시술 이후의 상하악 데이터가 시술 이전의 교합 데이터에 의해 정렬되므로, 시술 이후에 변경된 교합고경이 적용되지 않는다. 따라서, 사용자는 시술 이전의 대상체의 교합 형상을 기준으로 환자에게 최적의 치료를 제공할 수 있으며, 환자의 구강에 부합하는 보철물을 제작할 수 있는 이점이 있다.When upper and lower jaw data are obtained by aligning a group containing data pieces representing the object after the procedure and a group containing data pieces representing the object before the procedure, the obtained upper and lower jaw data together with the occlusion data before the procedure are displayed in three dimensions. It can be created as a model. At this time, since the upper and lower jaw data after the procedure are sorted by the occlusal data before the procedure, the occlusal diameter changed after the procedure is not applied. Accordingly, the user can provide optimal treatment to the patient based on the occlusal shape of the object before the procedure and has the advantage of manufacturing a prosthesis that matches the patient's oral cavity.

도 13은 복수의 스캔 데이터를 유저 인터페이스 화면(600)에 표시한 것이다.Figure 13 shows a plurality of scan data displayed on the user interface screen 600.

도 13을 참조하면, 복수의 스캔 데이터(상악 데이터, 하악 데이터, 교합 데이터, 스캔바디가 적용된 하악 데이터 등)가 하나의 유저 인터페이스 화면(600)에 표시될 수 있다. 이 때, 상하악 데이터(100)는 인공심층망(artificial deep network)을 통해 상악 데이터(101)와 하악 데이터(102)로 구분되어 유저 인터페이스 화면(600) 상에 표시될 수 있다. 예시적으로, 인공심층망은 학습된 상악의 특징 및 학습된 하악의 특징을 획득한 상하악 데이터(100)에 적용하며, 상악 데이터(101)와 하악 데이터(102)를 특정할 수 있다.Referring to FIG. 13, a plurality of scan data (upper jaw data, lower jaw data, occlusion data, lower jaw data to which a scan body is applied, etc.) may be displayed on one user interface screen 600. At this time, the upper and lower jaw data 100 may be divided into upper jaw data 101 and lower jaw data 102 through an artificial deep network and displayed on the user interface screen 600. As an example, the artificial deep network can apply the learned upper jaw characteristics and the learned lower jaw characteristics to the obtained upper and lower jaw data 100, and specify the upper jaw data 101 and lower jaw data 102.

전술한 학습 데이터는 상악 데이터(101)와 하악 데이터(102)를 감지하기 위한 적어도 하나의 해부학적 요소를 포함할 수 있다. 예시적으로, 학습 데이터는 상악골과 하악골의 형상 정보를 포함할 수 있다. 상악골 입천장과 하악골 저면의 형상 등을 통해, 상하악 데이터(100)는 상악 데이터(101)와 하악 데이터(102)로 구분될 수 있다. 다른 예시로, 학습 데이터는 치아의 형상 정보를 포함할 수 있다. 상악을 구성하는 치아(예를 들면, 상악의 대구치)와 하악을 구성하는 치아(예를 들면, 하악의 대구치)의 상이한 형상 등을 통해, 상하악 데이터(100)는 상악 데이터(101)와 하악 데이터(102)로 구분될 수 있다. 또다른 예시로, 상악을 구성하는 전치부의 면적과 하악을 구성하는 전치부의 면적을 비교하여, 상대적으로 큰 면적을 가지는 데이터를 상악 데이터(101)로, 상대적으로 작은 면적을 가지는 데이터를 하악 데이터(102)로 구분할 수도 있다.The above-described learning data may include at least one anatomical element for detecting the maxilla data 101 and the mandible data 102. By way of example, the learning data may include shape information of the maxilla and mandible. Through the shape of the palate of the maxilla and the bottom of the mandible, etc., the upper and lower jaw data 100 can be divided into upper jaw data 101 and lower jaw data 102. As another example, learning data may include shape information of teeth. Through the different shapes of the teeth constituting the upper jaw (e.g., upper molars) and the teeth constituting the lower jaw (e.g., lower jaw molars), the upper and lower jaw data 100 are divided into the upper and lower jaw data 101 and the lower jaw. It can be divided into data 102. As another example, by comparing the area of the anterior teeth constituting the upper jaw with the area of the anterior teeth constituting the lower jaw, data with a relatively large area are referred to as maxillary data 101, and data with a relatively small area are referred to as lower jaw data ( 102).

상악 데이터(101)와 하악 데이터(102)가 특정됨으로써, 3차원 모델이 생성될 때 상악 데이터(101)와 하악 데이터(102)의 위치가 반전되어 배치되지 않도록 하고, 사용자가 용이하게 3차원 모델을 확인할 수 있도록 하는 이점이 있다. 또한, 상악 데이터(101)와 하악 데이터(102)가 구분됨으로써, 사용자는 스캔 과정에서 상악 데이터(101)와 하악 데이터(102)를 구분없이 획득하고, 분석 과정에서 상악 데이터(101)와 하악 데이터(102)가 자동으로 구분되어 사용자 편의성이 향상되는 이점이 있다.By specifying the upper jaw data 101 and lower jaw data 102, the positions of the upper jaw data 101 and lower jaw data 102 are not reversed and placed when a 3D model is created, and the user can easily create a 3D model. There is an advantage in allowing you to check . In addition, by distinguishing between the maxilla data 101 and the mandible data 102, the user can obtain the maxilla data 101 and the mandible data 102 without distinction during the scanning process, and the maxilla data 101 and the mandible data during the analysis process. (102) is automatically distinguished, which has the advantage of improving user convenience.

이하에서는 본 발명의 다른 실시예에 다른 데이터 처리 방법을 설명한다. 본 발명의 다른 실시예에 따른 데이터 처리 방법을 설명함에 있어, 전술한 내용과 중복되는 내용은 간략하게 설명하거나 생략한다.Below, a different data processing method according to another embodiment of the present invention will be described. When describing a data processing method according to another embodiment of the present invention, content that overlaps with the above-described content will be briefly described or omitted.

도 14는 본 발명의 다른 실시예에 따른 데이터 처리 방법의 순서도이다.Figure 14 is a flowchart of a data processing method according to another embodiment of the present invention.

도 14를 참조하면, 본 발명의 다른 실시예에 따른 데이터 처리 방법은 대상체를 스캔하여 교합 데이터를 획득하는 단계(S210), 대상체를 스캔하여 상하악 데이터를 획득하는 단계(S220), 및 대상체의 3차원 모델을 생성하는 단계(S230)를 포함할 수 있다. 본 발명의 다른 실시예에 따른 데이터 처리 방법은, 대상체의 교합 데이터를 먼저 획득하고 상하악 데이터를 그 이후에 획득하는 점에서 전술한 내용과 차이가 있다.Referring to FIG. 14, the data processing method according to another embodiment of the present invention includes a step of scanning the object to obtain occlusion data (S210), a step of scanning the object to obtain upper and lower jaw data (S220), and It may include a step of generating a 3D model (S230). The data processing method according to another embodiment of the present invention is different from the above in that the object's occlusion data is first acquired and the upper and lower jaw data are acquired thereafter.

이 때, 교합 데이터는 시술 이전의 대상체를 나타내거나, 시술 이후의 대상체를 나타낼 수 있다. 본 발명의 다른 실시예에 따른 데이터 처리 방법과 같이, 시술 이전 대상체의 교합 데이터를 먼저 획득(S210)하고 시술 이후 대상체를 스캔하여 상하악 데이터를 획득(S220)하면, 사용자는 시술 이전의 대상체의 교합 형상을 기준으로 환자에게 최적의 치료를 제공할 수 있다. 보다 상세하게는, 사용자는 환자의 구강에 부합하는 보철물을 제작하여 환자에게 제공할 수 있는 이점이 있다.At this time, the occlusion data may represent the object before the procedure or the object after the procedure. Like the data processing method according to another embodiment of the present invention, if the occlusion data of the object before the procedure is first acquired (S210) and the upper and lower jaw data are acquired by scanning the object after the procedure (S220), the user can Optimal treatment can be provided to patients based on occlusal shape. More specifically, the user has the advantage of being able to manufacture a prosthesis that matches the patient's mouth and provide it to the patient.

차이가 있는 내용을 제외한 나머지 과정들은 전술한 내용과 동일하며, 본 발명의 다른 실시예에 따른 데이터 처리 방법은 전술한 본 발명에 따른 데이터 처리 방법이 가지는 기술적 효과 및 이점들을 공유한다.Except for differences, the remaining processes are the same as those described above, and the data processing method according to another embodiment of the present invention shares the technical effects and advantages of the data processing method according to the present invention described above.

이하에서는, 전술한 데이터 처리 방법이 수행되는 데이터 처리 장치에 대해 설명한다.Below, a data processing device in which the above-described data processing method is performed will be described.

도 15는 본 발명의 일 실시예에 따른 데이터 처리 장치(900)의 개략적인 구성도이다.Figure 15 is a schematic configuration diagram of a data processing device 900 according to an embodiment of the present invention.

도 15를 참조하면, 본 발명에 따른 데이터 처리 장치(900)는 스캔부(910), 제어부(920), 및 디스플레이부(930)를 포함할 수 있다.Referring to FIG. 15, the data processing device 900 according to the present invention may include a scan unit 910, a control unit 920, and a display unit 930.

스캔부(910)는 대상체를 나타내는 이미지 데이터를 획득할 수 있다. 예시적으로, 스캔부(910)는 대상체의 표면으로부터 반사된 광을 수용하고, 수용된 광을 기초로 이미지 데이터를 획득할 수 있다. 스캔부(910)는 대상체를 나타내는 3차원 모델을 획득하기 위한 스캔 디바이스일 수 있다. 예를 들면, 스캔부(910)는 사용자가 파지하고 대상체를 다양한 거리 및 각도에서 스캔할 수 있는 3차원 구강 스캐너일 수 있다.The scanning unit 910 may acquire image data representing the object. As an example, the scanning unit 910 may receive light reflected from the surface of an object and acquire image data based on the received light. The scanning unit 910 may be a scanning device for obtaining a three-dimensional model representing an object. For example, the scanning unit 910 may be a three-dimensional intraoral scanner that a user can hold and scan an object from various distances and angles.

스캔부(910)는 대상체의 색상 정보 및 형상 정보를 획득하기 위해, 소정 색상의 광 및/또는 소정 패턴의 광을 조사할 수 있는 광 프로젝터(미도시)를 포함할 수 있다. 예시적으로, 광 프로젝터는 상하악 데이터와 교합 데이터의 색상을 획득하기 위해, 적색 광, 녹색 광, 및 청색 광을 조사할 수 있다. 대상체의 표면으로부터 반사된 광을 수용하는 카메라가 모노 카메라인 경우, 상기 적색 광, 상기 녹색 광, 및 상기 청색 광을 대상체에 조사하여 획득한 2차원 이미지 데이터를 조합하여 대상체의 실제 색상을 획득할 수 있다. 한편, 대상체의 표면으로부터 반사된 광을 수용하는 카메라가 컬러 카메라The scanning unit 910 may include a light projector (not shown) that can irradiate light of a predetermined color and/or light of a predetermined pattern in order to obtain color information and shape information of the object. Exemplarily, the light projector may irradiate red light, green light, and blue light to obtain colors of the upper and lower jaw data and occlusion data. If the camera that receives the light reflected from the surface of the object is a mono camera, the actual color of the object can be obtained by combining the two-dimensional image data obtained by irradiating the red light, green light, and blue light to the object. You can. Meanwhile, a color camera is a camera that receives light reflected from the surface of an object.

또한, 스캔부(910)는 대상체의 표면으로부터 반사된 광을 수용하는 적어도 하나의 카메라를 포함한다. 카메라는 광을 수용하여 대상체를 나타내는 평면의 2차원 이미지 데이터를 획득할 수 있다. 카메라는 모노 카메라 또는 컬러 카메라일 수 있으며, 그 종류는 한정되지 않는다.Additionally, the scanning unit 910 includes at least one camera that receives light reflected from the surface of the object. The camera can receive light and acquire two-dimensional image data representing the object. The camera may be a mono camera or a color camera, and the type is not limited.

제어부(920)는 스캔부(910)로부터 획득된 이미지 데이터를 가공할 수 있다. 제어부(920)는 최종적으로 대상체 전체를 나타내는 3차원 모델을 획득할 수 있도록 한다. 예시적으로, 제어부(920)는 각종 연산 과정을 수행하는 마이크로프로세서(microprocessor)를 포함할 수 있다. 도 15에 도시된 바에 따르면, 제어부(920)는 스캔부(910)와 이격 형성된 구성일 수 있다. 예를 들면, 스캔부(910)는 제어부(920)와 유선 또는 무선으로 연결될 수 있으며, 스캔부(910)는 유선 통신 및/또는 무선 통신을 사용하여 획득한 데이터를 제어부(920)에 전송할 수 있다. 다만, 반드시 도 15에 도시된 바와 같은 구조에 한정되는 것은 아니며, 제어부(920)는 스캔부(910)의 일 구성으로 형성될 수도 있다.The control unit 920 may process image data obtained from the scanning unit 910. The control unit 920 ultimately enables obtaining a 3D model representing the entire object. By way of example, the control unit 920 may include a microprocessor that performs various calculation processes. As shown in FIG. 15, the control unit 920 may be configured to be spaced apart from the scanning unit 910. For example, the scan unit 910 may be connected to the control unit 920 by wire or wirelessly, and the scan unit 910 may transmit acquired data to the control unit 920 using wired communication and/or wireless communication. there is. However, it is not necessarily limited to the structure shown in FIG. 15, and the control unit 920 may be formed as a component of the scan unit 910.

보다 상세하게는, 제어부(920)는 데이터베이스부(921)를 포함할 수 있다. 데이터베이스부(921)는 스캔부(910)로부터 획득한 데이터 조각들이 저장될 수 있다. 데이터 조각들은 데이터베이스부(921)에 저장될 때, 데이터 조각들 간 상호 얼라인 여부에 따라 구분되어 저장될 수 있다. 또한, 데이터베이스부(921)는 2차원 이미지 데이터, 상기 2차원 이미지 데이터를 기초로 3차원 모델링된 3차원 이미지 샷, 얼라인 알고리즘, 그룹 관리 알고리즘 등을 저장할 수 있다. 데이터베이스부(921)는 알려진 저장 디바이스일 수 있으며, 데이터베이스부(921)는 예시적으로 SSD(Solid State Drive), HDD(Hard Disk Drive) 등 알려진 저장 디바이스 중 적어도 하나일 수 있다.More specifically, the control unit 920 may include a database unit 921. The database unit 921 may store data pieces obtained from the scan unit 910. When data pieces are stored in the database unit 921, they may be stored separately depending on whether the data pieces are aligned with each other. Additionally, the database unit 921 may store two-dimensional image data, a three-dimensional image shot modeled three-dimensionally based on the two-dimensional image data, an alignment algorithm, a group management algorithm, etc. The database unit 921 may be a known storage device, and the database unit 921 may be at least one of known storage devices, such as a solid state drive (SSD) or a hard disk drive (HDD).

제어부(920)는 3차원 모델링부(922)를 포함할 수 있다. 3차원 모델링부(922)는 획득한 2차원 이미지 데이터를 기초로 3차원 이미지의 샷을 생성할 수 있다.The control unit 920 may include a 3D modeling unit 922. The 3D modeling unit 922 may generate a 3D image shot based on the acquired 2D image data.

또한, 제어부(920)는 그룹 관리부(923)를 포함할 수 있다. 그룹 관리부(923)는 데이터 조각들의 얼라인 여부에 따라 상기 데이터 조각들을 소정 그룹으로 분류할 수 있다. 예시적으로, 스캔 과정이 수행될 때 데이터 조각들이 획득되다가 데이터 조각들 간 얼라인이 끊어지는 경우, 그룹 관리부(923)는 얼라인이 끊어진 시기 이전에 획득된 데이터 조각들과 얼라인이 끊어진 시기 이후에 획득된 데이터 조각들을 서로 다른 그룹으로 분류할 수 있다. 그룹 관리부(923)는 후술하는 얼라인부(924)에서 얼라인이 끊기는 여부에 따라 그룹을 생성하고, 데이터 조각들을 상기 그룹에 포함되도록 동작할 수 있다. 또한, 서로 다른 그룹들 간의 재얼라인 과정을 통해 그룹들 간 얼라인이 성공하는 경우, 그룹 관리부(923)는 얼라인이 성공한 그룹들을 병합할 수 있다. 데이터 조각들을 획득하는 과정에서 얼라인이 끊어짐에 따라 그룹들이 생성되고 상기 그룹들에 데이터 조각들이 포함되는 과정은 전술한 바와 동일하다.Additionally, the control unit 920 may include a group management unit 923. The group management unit 923 may classify the data pieces into predetermined groups depending on whether the data pieces are aligned. For example, when data pieces are acquired when a scanning process is performed and the alignment between the data pieces is broken, the group management unit 923 determines the data pieces acquired before the time when the alignment was broken and the time when the alignment was broken. Afterwards, the acquired data pieces can be classified into different groups. The group management unit 923 may create a group according to whether the alignment is broken in the aligner 924, which will be described later, and operate to include data pieces in the group. Additionally, if alignment between groups is successful through a re-alignment process between different groups, the group management unit 923 may merge the groups for which alignment was successful. As alignment is broken in the process of acquiring data pieces, groups are created, and the process of including data pieces in the groups is the same as described above.

또한, 제어부(920)는 얼라인부(924)를 포함할 수 있다. 얼라인부(924)는 기저장된 데이터 정렬 알고리즘을 사용하여 데이터 조각들을 얼라인할 수 있다. 데이터 조각들을 얼라인하기 위해 사용되는 데이터 정렬 알고리즘은 알려진 알고리즘일 수 있으며, 예시적으로 ICP(iterative closest point) 알고리즘이 사용될 수 있다. 데이터 조각들의 얼라인 여부에 따라, 데이터 조각들은 동일한 그룹에 포함될 수도 있고, 상이한 그룹에 각각 포함되도록 분류될 수도 있다. 데이터 조각들이 얼라인 및/또는 재얼라인되는 과정에 대해서는 전술한 바와 같다.Additionally, the control unit 920 may include an aligner 924. The aligner 924 may align data pieces using a pre-stored data sorting algorithm. The data sorting algorithm used to align the data pieces may be a known algorithm, and an iterative closest point (ICP) algorithm may be used as an example. Depending on whether the data pieces are aligned, the data pieces may be included in the same group or may be classified to be included in different groups. The process of aligning and/or re-aligning data pieces is the same as described above.

한편, 상기 스캔부(910)의 스캔 과정을 통해 실시간으로 데이터 조각들이 획득되는 과정, 상기 제어부(920)의 연산 과정을 통해 상기 데이터 조각들이 얼라인되는 과정, 얼라인이 끊어져 얼라인이 끊어지기 이전에 획득된 데이터 조각들이 썸네일의 형태로 유저 인터페이스 화면에 표시되는 과정을 포함한 데이터 처리 과정들 중 적어도 일부는 상기 제어부(920)와 연결된 디스플레이부(930)를 통해 표시될 수 있다. 디스플레이부(930)는 사용자가 상기 과정들을 시각적으로 용이하게 확인할 수 있는 디바이스가 사용될 수 있으며, 디스플레이부(930)는 모니터, 태블릿, 터치 패널 등 알려진 디바이스일 수 있다. 사용자는 디스플레이부(930)에 표시되는 유저 인터페이스 화면을 통해 본 발명에 따른 데이터 처리 방법이 수행되는 과정을 용이하게 확인할 수 있고, 결과적으로 환자에게 최적의 치료를 제공할 수 있다.Meanwhile, the process of acquiring data pieces in real time through the scanning process of the scan unit 910, the process of aligning the data pieces through the calculation process of the control unit 920, and the process of aligning the data pieces in real time through the scanning process of the scan unit 910. At least some of the data processing processes, including the process of displaying previously acquired data pieces in the form of thumbnails on the user interface screen, may be displayed through the display unit 930 connected to the control unit 920. The display unit 930 may be a device that allows the user to visually and easily check the above processes. The display unit 930 may be a known device such as a monitor, tablet, or touch panel. The user can easily check the process of performing the data processing method according to the present invention through the user interface screen displayed on the display unit 930, and as a result, can provide optimal treatment to the patient.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.The above description is merely an illustrative explanation of the technical idea of the present invention, and various modifications and variations will be possible to those skilled in the art without departing from the essential characteristics of the present invention.

따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but are for illustrative purposes, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be construed as being included in the scope of rights of the present invention.

S110: 상하악 데이터를 획득하는 단계
S120: 교합 데이터를 획득하는 단계
S130: 3차원 모델을 생성하는 단계
100: 상하악 데이터 101: 상악 데이터
102: 하악 데이터 200: 그룹
300: 교합 데이터 401: 삭제 치아 데이터
501: 보철물 식립 데이터 600: 유저 인터페이스 화면
S110: Step of acquiring upper and lower jaw data
S120: Obtaining occlusion data
S130: Step of creating a 3D model
100: Upper and lower jaw data 101: Upper jaw data
102: Mandibular data 200: Group
300: Occlusal data 401: Deleted tooth data
501: Prosthesis placement data 600: User interface screen

Claims (11)

대상체를 스캔하여 상하악 데이터를 획득하는 단계; 및
획득한 상기 상하악 데이터를 기초로 상기 대상체의 3차원 모델을 생성하는 단계; 를 포함하고,
상기 상하악 데이터를 획득하는 단계는,
상기 상하악 데이터를 구성하는 그룹들 중 제1 그룹에 포함되는 데이터 조각들을 획득하고,
상기 제1 그룹과 상호 중첩되지 않는 제2 그룹에 포함되는 데이터 조각들을 획득하며,
상기 제1 그룹과 제2 그룹은 얼라인이 끊기고,
상기 그룹들은 각각 적어도 하나의 데이터 조각을 포함하는 것을 특징으로 하는 데이터 처리 방법.
Acquiring upper and lower jaw data by scanning the object; and
generating a three-dimensional model of the object based on the obtained upper and lower jaw data; Including,
The step of acquiring the upper and lower jaw data is,
Obtaining data pieces included in a first group among the groups constituting the upper and lower jaw data,
Obtaining data pieces included in a second group that do not overlap with the first group,
The first group and the second group are out of alignment,
A data processing method, wherein each of the groups includes at least one piece of data.
청구항 1에 있어서,
상기 제1 그룹은 상악 데이터를 구성하는 적어도 하나의 상악 데이터 그룹이고,
상기 제2 그룹은 하악 데이터를 구성하는 적어도 하나의 하악 데이터 그룹인 것을 특징으로 하는 데이터 처리 방법.
In claim 1,
The first group is at least one maxilla data group constituting maxilla data,
A data processing method, characterized in that the second group is at least one lower jaw data group constituting lower jaw data.
청구항 1에 있어서,
상기 제1 그룹은 상악 데이터를 구성하는 적어도 하나의 상악 데이터 그룹이고,
상기 제2 그룹은 상기 제1 그룹과 상호 중첩되지 않는 상기 상악 데이터의 다른 그룹인 것을 특징으로 하는 데이터 처리 방법.
In claim 1,
The first group is at least one maxilla data group constituting maxilla data,
A data processing method, characterized in that the second group is another group of the maxillary data that does not overlap with the first group.
청구항 1에 있어서,
상기 제1 그룹은 하악 데이터를 구성하는 적어도 하나의 하악 데이터 그룹이고,
상기 제2 그룹은 상기 제1 그룹과 상호 중첩되지 않는 상기 하악 데이터의 다른 그룹인 것을 특징으로 하는 데이터 처리 방법.
In claim 1,
The first group is at least one lower jaw data group constituting lower jaw data,
The data processing method, characterized in that the second group is another group of the lower jaw data that does not overlap with the first group.
삭제delete 청구항 1에 있어서,
상기 그룹들 중 적어도 일부는, 상기 대상체를 스캔하여 획득되는 신규 데이터 조각에 의해 상호 중첩되는 영역이 형성되어 재얼라인 및 병합되는 것을 특징으로 하는 데이터 처리 방법.
In claim 1,
A data processing method, wherein at least some of the groups are realigned and merged by forming overlapping areas by new data pieces obtained by scanning the object.
청구항 1에 있어서,
상기 상하악 데이터를 획득하는 단계 이전에, 상기 대상체의 협면을 스캔하여 교합 데이터를 획득하는 단계; 를 더 포함하고,
상기 3차원 모델을 생성하는 단계는 상기 상하악 데이터와 함께 상기 교합 데이터를 기초로 상기 3차원 모델을 생성하는 것을 특징으로 하는 데이터 처리 방법.
In claim 1,
Before acquiring the upper and lower jaw data, acquiring occlusion data by scanning the buccal surface of the object; It further includes,
The step of generating the 3D model is a data processing method characterized in that the 3D model is generated based on the occlusion data together with the upper and lower jaw data.
청구항 7에 있어서,
상기 상하악 데이터를 구성하는 상악 데이터 및 하악 데이터 중 적어도 하나는 시술 이후의 대상체를 나타내고,
상기 교합 데이터는 시술 이전의 대상체를 나타내는 것을 특징으로 하는 데이터 처리 방법.
In claim 7,
At least one of the upper and lower jaw data constituting the upper and lower jaw data represents an object after the procedure,
A data processing method wherein the occlusion data represents an object before the procedure.
청구항 1에 있어서,
상기 그룹들 중 적어도 하나는 시술 이후의 대상체를 나타내는 데이터 조각을 포함하는 것을 특징으로 하는 데이터 처리 방법.
In claim 1,
A data processing method, wherein at least one of the groups includes a piece of data representing an object after a procedure.
청구항 1에 있어서,
상기 상하악 데이터를 획득하는 단계는 단일 스테이지에서 수행되는 것을 특징으로 하는 데이터 처리 방법.
In claim 1,
A data processing method, characterized in that the step of acquiring the upper and lower jaw data is performed in a single stage.
청구항 1에 있어서,
상기 상하악 데이터는 인공심층망(artificial deep network)을 통해 상악 데이터와 하악 데이터로 구분되는 것을 특징으로 하는 데이터 처리 방법.
In claim 1,
A data processing method characterized in that the upper and lower jaw data are divided into upper jaw data and lower jaw data through an artificial deep network.
KR1020210129065A 2021-03-05 2021-09-29 Data processing method KR102623248B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20210029623 2021-03-05
KR1020210029623 2021-03-05

Publications (2)

Publication Number Publication Date
KR20220125661A KR20220125661A (en) 2022-09-14
KR102623248B1 true KR102623248B1 (en) 2024-01-10

Family

ID=83279011

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210129065A KR102623248B1 (en) 2021-03-05 2021-09-29 Data processing method

Country Status (1)

Country Link
KR (1) KR102623248B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070207437A1 (en) 1999-11-30 2007-09-06 Orametrix, Inc. Unified workstation for virtual craniofacial diagnosis, treatment planning and therapeutics
KR101954487B1 (en) * 2012-11-01 2019-03-05 얼라인 테크널러지, 인크. Motion compensation in a three dimensional scan

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2669210T3 (en) * 2011-11-15 2018-05-24 Trispera Dental Inc. Method and system to acquire data from an individual to prepare a 3D model
KR102419010B1 (en) * 2017-05-16 2022-07-08 주식회사 디오 System for Providing of Procedure Information of Dental Implant, Doctor Apparatus thereof, and Method for Providing of Procedure Information of Dental Implant of using thereof
KR102228939B1 (en) 2021-02-05 2021-03-17 한국과학기술연구원 System and method for automatic 3-dimensional scanning

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070207437A1 (en) 1999-11-30 2007-09-06 Orametrix, Inc. Unified workstation for virtual craniofacial diagnosis, treatment planning and therapeutics
KR101954487B1 (en) * 2012-11-01 2019-03-05 얼라인 테크널러지, 인크. Motion compensation in a three dimensional scan

Also Published As

Publication number Publication date
KR20220125661A (en) 2022-09-14

Similar Documents

Publication Publication Date Title
US11478330B2 (en) Dental preparation guide
KR102057207B1 (en) Method for analizing 3d oral model and method for designing virtual prosthetics having the same
CN106687068B (en) Complete denture manufacturing method and device based on data mining
US10327873B2 (en) Method, system and user interface for creating a digital design for use in manufacturing a molding-shell for a dental restoration
CN104093375B (en) Determine the stress on tooth
KR102121963B1 (en) Appratus, method and program for setting a tranparent orthodontic model using orthodontics clinical bigdata
JP2020508734A (en) How to build a restoration
KR102016018B1 (en) Method for setting Gingival line to design prosthesis
JP2012508613A (en) Method and system for forming a dental prosthesis
KR102314890B1 (en) Method and apparatus for superimposition of medical images
US10595972B2 (en) Method and user interface for use in manufacturing multi-shaded dental restorations
KR102292872B1 (en) Method for designing prosthetic material and apparatus thereof
KR102623248B1 (en) Data processing method
KR102085852B1 (en) M method and apparatus for designing dental workpiece considering the occlusal relationship with an antagonistic teeth
KR102406485B1 (en) Method for designing patient-specific abutment and apparatus thereof
KR102350098B1 (en) Method for generating arch line and dental image processing apparatus therefor
KR102404189B1 (en) Method for designing prosthetic insertion path and prosthesis design apparatus therefor
CN110381879A (en) Prosthetic designs method and system based on camber line
KR102144369B1 (en) Dental CAD apparatus using characteristic of mirroring teeth and operating method the dental CAD apparatus
KR102474298B1 (en) Method for designing prosthetic model and apparatus thereof
KR102388411B1 (en) Method for fabricating tray, data transfer method and simulation apparatus therefor
KR102573907B1 (en) Method for editing arch line and tooth arrangement design apparatus thereof
KR102413696B1 (en) Method and apparatus for designing margin line of abutment model
KR102549576B1 (en) Apparatus for designing dental prosthesis and method thereof
KR20230115355A (en) Method and apparatus for designing margin line of abutment model

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right