KR20220125661A - 데이터 처리 방법 - Google Patents

데이터 처리 방법 Download PDF

Info

Publication number
KR20220125661A
KR20220125661A KR1020210129065A KR20210129065A KR20220125661A KR 20220125661 A KR20220125661 A KR 20220125661A KR 1020210129065 A KR1020210129065 A KR 1020210129065A KR 20210129065 A KR20210129065 A KR 20210129065A KR 20220125661 A KR20220125661 A KR 20220125661A
Authority
KR
South Korea
Prior art keywords
data
group
maxillary
mandibular
scanning
Prior art date
Application number
KR1020210129065A
Other languages
English (en)
Other versions
KR102623248B1 (ko
Inventor
이동훈
Original Assignee
주식회사 메디트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메디트 filed Critical 주식회사 메디트
Publication of KR20220125661A publication Critical patent/KR20220125661A/ko
Application granted granted Critical
Publication of KR102623248B1 publication Critical patent/KR102623248B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/18Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves
    • A61B18/20Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves using laser
    • A61B2018/2035Beam shaping or redirecting; Optical components therefor
    • A61B2018/20351Scanning mechanisms
    • A61B2018/20353Scanning in three dimensions [3D]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Abstract

본 발명에 따른 데이터 처리 방법은, 대상체를 스캔하여 상하악 데이터를 획득하는 단계, 및 획득한 상기 상하악 데이터를 기초로 상기 대상체의 3차원 모델을 생성하는 단계를 포함하고, 상기 상하악 데이터를 획득하는 단계는, 상기 상하악 데이터를 구성하는 그룹들 중 제1 그룹에 포함되는 데이터 조각들을 획득하고, 상기 제1 그룹과 상호 중첩되지 않는 제2 그룹에 포함되는 데이터 조각들을 획득하며, 상기 제1 그룹과 제2 그룹은 얼라인이 끊길 수 있다.

Description

데이터 처리 방법{Data processing method}
본 발명은 데이터 처리 방법에 관한 것이다.
3차원 구강 스캐너는 인상채득(impression taking)을 실시하여 환자의 구강을 표현하는 석고 모형을 획득한 후, 상기 석고 모형을 분석하는 종래의 방식에서 탈피하여, 환자의 구강을 입체적으로 스캔하여 디지털 3차원 모델을 획득한다. 3차원 CAD/CAM 기술의 발전에 따라, 3차원 모델은 계속적으로 정밀해지고 있으며, 사용자는 다양한 분석을 수행하기 위해 복수의 석고 모형을 제작하는 대신, 하나의 3차원 모델을 사용할 수 있다. 또한, 3차원 모델에 복수의 치료 계획을 적용하는 것 또한 가능하며, 3차원 모델의 원본 파일이 유지되어 반복 사용이 가능한 이점이 있다.
한편, 3차원 구강 스캐너의 사용자는 환자의 실제 구강, 또는 상기 구강을 본떠 획득한 석고 모형을 스캔할 때, 유저 인터페이스(user interface; UI) 상에서 정해진 순서에 따라 스캔을 진행해야 했다. 즉, 사용자는 스캔 소프트웨어의 기설정된 스캔 스테이지에 스캔 활동이 일부 제한되어 왔다. 예시적으로, 스캔 소프트웨어는 제1 스캔 스테이지에서 삭제(preparation) 이전의 상악을, 제2 스캔 스테이지에서 삭제 이전의 하악을, 제3 스캔 스테이지에서 삭제 이후의 상악을, 제4 스테이지에서 삭제 이후의 하악을, 제5 스테이지에서 스캔바디(scanbody)를, 그리고 제6 스테이지에서 교합을 스캔하도록 설정된다. 한편, 사용자는 각자의 편리한 스캔 전략을 사용하여 대상체를 스캔하고자 한다. 그러나, 종래의 시스템에서는 기설정된 스테이지별로 스캔을 수행하여야 하므로, 사용자의 자유로운 스캔이 실질적으로 불가능하였다. 사용자는 각각의 스테이지를 유저 인터페이스 화면에서 선택하는 과정과 3차원 구강 스캐너를 사용하는 과정을 번갈아 수행해야 했다. 예시적으로, 사용자는 6개의 스테이지에 대한 스캔 데이터를 획득할 때, 적어도 6회의 조작과 6회의 스캔을 수행하여야 하므로, 스캔 과정이 복잡한 문제가 있다. 이에 따라, 사용자의 집중력이 낮아지거나, 오랜 스캔 소요 시간에 의해 환자의 체어 타임(chair time)을 증가시켜 환자의 치료 피로감을 상승시키는 문제가 있다.
게다가, 각각의 스테이지에 부합하는 주제의 스캔 데이터를 획득해야 하므로, 사용자의 스캔 자유도가 크게 제한되었다.
또한, 종래의 시스템에서 사용자는 스캔 과정에서 데이터 간 얼라인이 끊기는 경우, 해당 얼라인이 재개되지 않는 이상 후속 데이터를 획득할 수 없도록 설계되어 있었다. 사용자는, 얼라인이 중단된 지점을 찾아내어 해당 지점부터 스캔을 재개해야 했다. 이러한 과정은 사용자의 피로도를 증가시키고 스캔 소요 시간을 증가시키는 문제를 야기하였다.
대한민국 공개특허 제10-2021-0018397호 (2021.02.17 공고)
전술한 문제점을 해결하기 위해서, 본 발명은 복잡한 스캔 스테이지를 단일화하고, 데이터 간 얼라인이 끊기더라도 스캔 과정이 중단되지 않고 계속적으로 수행되는 데이터 처리 방법을 제공한다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.
전술한 바와 같은 목적을 달성하기 위해서, 본 발명에 따른 데이터 처리 방법은, 대상체를 스캔하여 상하악 데이터를 획득하는 단계, 및 획득한 상기 상하악 데이터를 기초로 상기 대상체의 3차원 모델을 생성하는 단계를 포함하고, 상기 상하악 데이터를 획득하는 단계는, 상기 상하악 데이터를 구성하는 그룹들 중 제1 그룹에 포함되는 데이터 조각들을 획득하고, 상기 제1 그룹과 상호 중첩되지 않는 제2 그룹에 포함되는 데이터 조각들을 획득하며, 상기 제1 그룹과 제2 그룹은 얼라인이 끊길 수 있다.
또한, 본 발명에 따른 데이터 처리 방법은, 전술한 단계들의 세부적인 과정들에 따라 다양한 실시예를 통해 수행될 수 있다.
본 발명에 따른 데이터 처리 방법을 사용함으로써, 사용자는 대상체를 자유롭게 스캔하여 정밀한 3차원 모델을 획득할 수 있으며, 얼라인이 끊겨도 계속적으로 후속의 스캔 데이터를 획득할 수 있으므로, 스캔 소요 시간을 단축시키는 이점이 있다.
또한, 복잡한 스캔 스테이지를 단순화하여 사용자의 편의성을 증가시키고, 환자의 치료 피로감을 경감시키는 이점이 있다.
도 1은 본 발명에 따른 데이터 처리 방법의 순서도이다.
도 2는 상하악 데이터를 설명하기 위한 것이다.
도 3은 상하악 데이터가 그룹별로 구성된 형태를 설명하기 위한 것이다.
도 4는 본 발명에 따른 데이터 처리 방법에서, 상하악 데이터를 획득하는 단계를 수행하는 일 예시이다.
도 5는 본 발명에 따른 데이터 처리 방법에서, 상하악 데이터를 획득하는 단계를 수행하는 다른 예시이다.
도 6은 본 발명에 따른 데이터 처리 방법에서, 동일한 스테이지에서 상하악 데이터가 획득되는 과정을 설명하기 위한 것이다.
도 7은 데이터 조각을 획득하는 과정을 설명하기 위한 것이다.
도 8은 얼라인이 끊겨 복수의 그룹이 생성되는 과정을 설명하기 위한 것이다.
도 9는 그룹들이 재얼라인되어 병합되는 과정을 설명하기 위한 것이다.
도 10은 교합 데이터를 획득하는 단계를 설명하기 위한 것이다.
도 11은 시술 중 치아 삭제 이후의 대상체를 스캔하는 과정을 설명하기 위한 것이다.
도 12는 시술 중 스캔바디 식립 이후의 대상체를 스캔하는 과정을 설명하기 위한 것이다.
도 13은 복수의 스캔 데이터를 유저 인터페이스 화면에 표시한 것이다.
도 14는 본 발명의 다른 실시예에 따른 데이터 처리 방법의 순서도이다.
도 15는 본 발명의 일 실시예에 따른 데이터 처리 장치의 개략적인 구성도이다.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.
본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 명세서에서 본 발명을 설명함에 있어서, '데이터가 획득된다'는 것은 대상체를 스캔하여 획득한 적어도 하나의 데이터 조각을 3차원으로 모델링하는 것을 의미할 수 있다. 이 때, 데이터 조각은 대상체를 스캔하는 과정에서 획득한 스캔 데이터일 수 있으며, 스캔 데이터는 2차원 평면 이미지 데이터이거나 3차원 입체 이미지 샷(shot)일 수 있다.
또한, '얼라인이 끊긴다'는 것은 데이터 조각들 사이에 중첩되는 부분이 존재하지 않아 데이터 조각들이 정렬되지 않는 것을 의미할 수 있다.
도 1은 본 발명에 따른 데이터 처리 방법의 순서도이고, 도 2는 상하악 데이터(100)를 설명하기 위한 것이다.
도 1 및 도 2를 참조하면, 본 발명에 따른 데이터 처리 방법은 대상체를 스캔하여 상하악 데이터를 획득하는 단계(S110)를 포함한다. 대상체는 본 발명에 따른 데이터 처리 방법이 수행되는 3차원 구강 스캐너가 스캔하는 대상을 의미할 수 있다. 예시적으로, 대상체는 환자의 실제 구강일 수도 있고, 상기 구강을 인상 재료를 사용하여 채득한 인상(impression) 모형일 수도 있으며, 또는 상기 인상 모형에 석고를 부어 획득한 석고 모형일 수도 있다. 석고 모형은 환자 구강의 형상을 나타내며, 예시적으로 석고 모형은 치아 및/또는 치은의 굴곡, 치아의 크기, 교합된 형상 등을 나타낸다.
상하악 데이터(100)는 상악 데이터(101)와 하악 데이터(102)를 포함할 수 있다. 예시적으로, 상악 데이터(101)와 하악 데이터(102)는 평면 형상으로 도시되었으나, 상악 데이터(101)와 하악 데이터(102)는 유저 인터페이스 화면 상에서 3차원으로 표시된다.
이하에서는, 상하악 데이터(100)를 구성하는 그룹(200)에 대해 설명한다.
도 3은 상하악 데이터(100)가 그룹(200)별로 구성된 형태를 설명하기 위한 것이다.
도 3을 참조하면, 상하악 데이터(100)는 적어도 하나의 그룹(200)으로 구성될 수 있다. 예시적으로, 상하악 데이터(100)는 제1 그룹(201), 제2 그룹(201), 제3 그룹(미도시), 및 제n 그룹(210)을 포함하는 복수의 그룹(200)으로 구성될 수 있다. 이 때, 각각의 그룹(200)들은 상호 얼라인되지 않을 수 있다. 또한, 상기 그룹(200)은 데이터 조각들의 집합일 수 있다. 예시적으로, 데이터 조각들은 대상체를 스캔하는 과정에서 획득한 스캔 데이터일 수 있으며, 스캔 데이터는 대상체를 촬영하여 획득한 2차원 평면 이미지 데이터이거나, 상기 2차원 평면 이미지 데이터를 3차원 모델링하여 획득한 3차원 입체 이미지 샷(shot)일 수 있다.
상하악 데이터를 획득하는 단계(S110)는, 상하악 데이터(100)를 구성하는 그룹(200)들 중 제1 그룹(201)에 포함되는 데이터 조각들을 획득하고, 제2 그룹(202)에 포함되는 데이터 조각들을 획득할 수 있다. 이 때, 제1 그룹(201)과 제2 그룹(202)은 상호 중첩되지 않는다. 예시적으로, 제1 그룹(201)과 제2 그룹(202)은 얼라인이 끊길 수 있다. 보다 상세하게는, 대상체를 스캔하여 제1 그룹(201)에 포함되는 데이터 조각들을 획득하는 중에 얼라인이 끊기게 되면, 얼라인이 끊기기 전에 획득된 데이터 조각들은 제1 그룹(201)에 포함되며, 얼라인이 끊긴 후에 획득되는 데이터 조각들은 얼라인이 끊긴 후 신규로 생성되는 제2 그룹(202)에 포함될 수 있다. 이와 같이, 스캔 과정에서 얼라인이 끊기는 여부에 따라 상호 중첩되지 않는 복수의 그룹(200)들이 생성될 수 있다. 이러한 과정에 따라, 그룹(200)들은 각각 적어도 하나의 데이터 조각을 포함할 수 있으며, 상이한 그룹(200)에 포함된 데이터 조각은 상호 중첩되지 않을 수 있다.
도 4는 본 발명에 따른 데이터 처리 방법에서, 상하악 데이터를 획득하는 단계(S110)를 수행하는 일 예시이다.
도 4를 참조하여 상하악 데이터(100)를 획득하는 과정에 대해 보다 자세한 예시를 들어 설명한다. 본 발명에 따른 데이터 처리 방법에서, 상하악 데이터를 획득하는 단계(S110)는 상악 데이터(101)를 나타내는 데이터 조각들을 획득하고, 하악 데이터(102)를 나타내는 데이터 조각들을 획득할 수 있다. 예시적으로, 제1 그룹(201)은 상악 데이터를 구성하는 적어도 하나의 상악 데이터 그룹이고, 제2 그룹(202)은 하악 데이터를 구성하는 적어도 하나의 하악 데이터 그룹일 수 있다. 보다 상세하게는, 제1 그룹(201), 제3 그룹(203), 및 제5 그룹(205)은 각각 상악 데이터의 일부분일 수 있으며, 제2 그룹(202), 제4 그룹(204), 및 제6 그룹(206)은 각각 하악 데이터의 일부분일 수 있다. 사용자는 스캐너를 통해 먼저 제1 그룹(201)에 포함되는 데이터 조각들을 획득할 수 있다. 이 때, 제1 그룹(201)에 포함되는 데이터 조각들은 대상체의 상악 제1 측을 나타낼 수 있다. 예시적으로, 제1 그룹(201)에 포함되는 데이터 조각들은 상악의 일측 제1 대구치, 및 상악의 일측 제2 대구치를 포함하는 상악의 특정 영역을 나타낼 수 있다.
한편, 사용자는 스캐너의 방향을 변경하여 제2 그룹(202)에 포함되는 데이터 조각들을 획득할 수 있다. 이 때, 제2 그룹(202)에 포함되는 데이터 조각들은 대상체의 하악 제1 측을 나타낼 수 있다. 예시적으로, 제2 그룹(202)에 포함되는 데이터 조각들은 하악의 일측 제1 대구치, 및 하악의 일측 제2 대구치를 포함하는 하악의 특정 영역을 나타낼 수 있다. 상악과 하악은 이개되어 상호 이격 형성되므로, 상악 데이터(101)에 포함되는 제1 그룹(201)과 하악 데이터(102)에 포함되는 제2 그룹(202)은 얼라인이 끊긴 상태로 형성된다.
또한, 사용자는 다시 스캐너의 방향을 변경하여 제3 그룹(203)에 포함되는 데이터 조각들을 획득할 수 있다. 이 때, 제3 그룹(203)에 포함되는 데이터 조각들은 대상체의 상악 제2 측을 나타낼 수 있다. 예시적으로, 제3 그룹(203)에 포함되는 데이터 조각들은 상악의 전치들 중 적어도 일부, 상악의 타측 제1 대구치, 및 상악의 타측 제2 대구치를 포함하는 상악의 특정 영역을 나타낼 수 있다. 제3 그룹(203)은 상악 데이터(101)에 포함된 제1 그룹(201)과 하악 데이터(102)에 포함된 제2 그룹(202)과 얼라인이 끊긴 상태로 형성된다.
동일한 방식으로, 하악의 전치들 중 적어도 일부를 포함하는 제4 그룹(204)의 데이터 조각들, 상악의 견치들 중 적어도 일부를 포함하는 제5 그룹(205)의 데이터 조각들, 및 하악의 타측 제1 대구치 및 하악의 타측 제2 대구치를 포함하는 제6 그룹(206)의 데이터 조각들을 획득할 수 있다. 제1 그룹 내지 제6 그룹(201, 202, 203, 204, 205, 206)은 그룹간 얼라인이 끊긴 상태로 형성된다. 추가적인 데이터 조각들을 획득함으로써, 사용자는 상악 데이터(101)와 하악 데이터(102)를 획득할 수 있다.
즉, 사용자는 대상체의 하악 일부를 스캔하다가, 대상체의 상악 일부를 스캔하고, 다시 대상체의 하악의 다른 일부를 스캔하는 방식으로 상하악 데이터(100)를 획득할 수 있다.
전술한 바와 같이, 선행하는 그룹에 포함된 데이터 조각들과 얼라인되지 않는 데이터 조각들이 획득되더라도, 상하악 데이터(100)를 획득하는 과정이 중단되지 않고, 얼라인이 끊긴 이후 획득된 데이터 조각들을 후속 그룹에 포함되도록 한다. 이에 따라, 사용자는 얼라인이 끊긴 지점으로 복귀하여 스캔 과정을 재개할 필요없이 대상체를 자유롭게 스캔할 수 있는 이점이 있다. 또한, 사용자는 일측 구석의 상악과 하악을 스캔하고, 타측 구성의 상악과 하악을 스캔한 다음, 중앙 전치 부분의 상악과 하악을 스캔하는 과정과 같이, 사용자가 대상체를 스캔하기 편리한 순서에 따라 스캔 과정을 수행할 수 있는 이점도 있다.
다만, 상하악 데이터(100)가 반드시 6개의 그룹(200)을 포함하는 것은 아니며, 경우에 따라 일부 그룹(200)들은 재얼라인(re-align)되어 병합될 수도 있다. 일부 그룹(200)의 재얼라인 및 병합 과정은 후술한다.
도 5는 본 발명에 따른 데이터 처리 방법에서, 상하악 데이터를 획득하는 단계(S110)를 수행하는 다른 예시이다.
도 5를 참조하여, 새로운 예시를 들어 상하악 데이터를 획득하는 단계(S110)를 설명한다. 제1 그룹(201)은 상악 데이터(101)를 구성하는 적어도 하나의 상악 데이터 그룹이고, 제2 그룹(202)은 제1 그룹(201)과 상호 중첩되지 않는 상악 데이터(101)의 다른 그룹일 수 있다. 예시적으로, 제1 그룹(201)에 포함되는 데이터 조각들은 상악의 일측 제1 대구치, 및 상악의 일측 제2 대구치를 포함하는 상악의 특정 영역을 나타낼 수 있고, 제2 그룹(202)에 포함되는 데이터 조각들은 상악의 전치들 중 적어도 일부, 상악의 타측 제1 대구치, 및 상악의 타측 제2 대구치를 포함하는 상악의 특정 영역을 나타낼 수 있다. 사용자는 제1 그룹(201), 제2 그룹(202), 제3 그룹(203), 제4 그룹(204), 제5 그룹(205), 제6 그룹(206)의 순서로 스캔 과정을 수행할 수 있다. 제1 그룹 내지 제3 그룹(201, 202, 203)은 상악 데이터(101)에 포함되고, 제4 그룹 내지 제6 그룹(204, 205, 206)은 하악 데이터(102)에 포함될 때, 사용자는 제1 그룹 내지 제3 그룹(201, 202, 203)에 해당하는 대상체의 상악을 먼저 스캔하고, 대상체의 상악의 스캔을 완료한 후 제4 그룹 내지 제6 그룹(204, 205, 206)에 해당하는 대상체의 하악을 스캔할 수 있다. 이 때, 제3 그룹(203)은 상악 데이터(101)에 포함되고, 제4 그룹(204)은 하악 데이터(102)에 포함되며, 상악 데이터(101)와 하악 데이터(102)는 중첩되는 부분이 존재하지 않는다. 따라서, 대상체의 상악을 스캔하여 제3 그룹(203)의 스캔을 수행하다가, 대상체의 하악을 스캔하는 경우, 제3 그룹(203)에 포함된 데이터 조각들과의 얼라인이 끊기게 되고, 하악 데이터 그룹에 해당하는 신규의 제4 그룹(204)이 생성된다. 이와 같이, 제3 그룹(203)에 포함되는 데이터 조각들과 얼라인되지 않는 데이터 조각들이 입력되는 경우, 상기 얼라인되지 않는 데이터 조각들을 포함하는 신규의 그룹이 생성되어, 얼라인이 끊긴 이후에도 계속적으로 데이터 조각들을 획득할 수 있다.
또는, 도시된 도면과는 달리, 제1 그룹은 하악 데이터를 구성하는 적어도 하나의 하악 데이터 그룹이고, 제2 그룹은 제1 그룹과 상호 중첩되지 않는 하악 데이터의 다른 그룹일 수 있다. 즉, 사용자는 대상체의 하악을 전체적으로 스캔한 후, 상악을 전체적으로 스캔하는 방식으로 상하악 데이터를 획득할 수 있다.
그룹(200)들은 상악 데이터(101)를 구성할 수도 있고, 하악 데이터(102)를 구성할 수도 있으며, 스캔 순서에 구속되지 않는다. 즉, 상하악 데이터를 획득하는 단계(S110)는 단일 스테이지에서 수행될 수 있다. 상하악 데이터를 획득하는 단계(S110)가 단일 스테이지에서 수행됨으로써, 사용자는 상악 데이터(101)와 하악 데이터(102)의 획득 순서를 고려하지 않고 자유롭게 스캔 과정을 수행할 수 있는 이점이 있다.
도 6은 본 발명에 따른 데이터 처리 방법에서, 동일한 스테이지에서 상하악 데이터가 획득되는 과정을 설명하기 위한 것이다.
도 6을 참조하면, 유저 인터페이스 화면(600) 상에 사용자가 대상체를 스캔하는 과정이 실시간으로 표시될 수 있다. 유저 인터페이스 화면(600)의 일측에 완성된 상악 데이터(101)의 형상이 썸네일의 형태로 표시될 수 있다. 이 때, 상악 데이터(101)는 제1 그룹(201)에 포함된 데이터 조각들이 3차원 모델링 및 얼라인되어 생성될 수 있다. 한편, 유저 인터페이스 화면 (600)의 타측에는 실시간 스캔 과정을 통해 획득되는 데이터 조각이 나타날 수 있다. 예시적으로, 제2 그룹(202)에 포함될 하악 데이터(102)의 제2 그룹 데이터 조각들(2021)이 획득될 수 있다. 이와 같이, 본 발명에 따른 데이터 처리 방법은 하나의 단일 스테이지에서 상악 데이터(101)와 하악 데이터(102)를 획득할 수 있다. 따라서, 각각의 스테이지(예를 들면, 상악 데이터 스테이지, 하악 데이터 스테이지, 및 교합 데이터 스테이지 등)에 대응되는 대상체의 부분들을 스캔해야 했던 종래 기술과 달리, 본 발명에 따른 데이터 처리 방법은 사용자가 스캔 과정에 집중할 수 있도록 하고, 사용자의 스캔 자유도를 향상시키는 이점이 있다.
즉, 도 4 내지 도 6을 참조하여 설명한 바와 같이, 본 발명에 따른 데이터 처리 방법은 사용자가 데이터 조각들 간의 얼라인이 끊기는지 여부를 고려하지 않고 스캔 과정을 수행할 수 있어 사용자 편의성을 향상시키고, 스캔 소요 시간을 단축시키는 이점이 있다.
이하에서는, 상하악 데이터(100)를 구성하는 그룹(200)에 포함되는 데이터 조각들이 획득되는 과정에 대해 설명한다.
도 7은 데이터 조각을 획득하는 과정을 설명하기 위한 것, 도 8은 얼라인이 끊겨 복수의 그룹이 생성되는 과정을 설명하기 위한 것이다.
도 7을 참조하면, 유저 인터페이스 화면(600) 상에 사용자가 대상체를 스캔하는 과정이 실시간으로 표시될 수 있다. 유저 인터페이스 화면(600)의 일측에 기형성된 그룹이 포함하는 데이터 조각들이 얼라인되어 썸네일(thumbnail)의 형태로 표시될 수 있다. 예시적으로, 제1 그룹(201)이 포함하는 데이터 조각들이 얼라인된 형상이 표시된다.
한편, 유저 인터페이스 화면(600)의 타측에는 제1 그룹(201)과 얼라인이 끊겨, 제2 그룹(202)을 구성하는 데이터 조각들이 실시간으로 획득되는 과정이 나타난다. 제2 그룹 데이터 조각들(2021)은 조각들 간에 얼라인되어 제2 그룹(202)을 구성할 수 있다.
도 3, 도 7 및 도 8을 참조하면, 제2 그룹 데이터 조각들(2021)을 획득하다가, 획득되는 데이터 조각의 얼라인이 끊기는 경우, 얼라인이 끊긴 시점 이전에 획득된 데이터 조각은 제2 그룹(202)을 구성하고, 제2 그룹(202)이 포함하는 데이터 조각들이 얼라인된 형상이 썸네일의 형태로 유저 인터페이스 화면(600)의 일측에 생성된다. 예시적으로, 제1 그룹(201)의 썸네일과 제2 그룹(202)의 썸네일이 유저 인터페이스 화면(600)의 좌측에 표시되고, 제3 그룹(203)을 구성하는 제3 그룹 데이터 조각들(2031)이 획득될 수 있다.
다만, 데이터 조각들이 포함되는 그룹(200)들이 생성되는 시점은 제한되지 않는다. 예시적으로, 스캔 과정이 시작되어 데이터 조각들이 획득되다가 새로이 획득된 데이터 조각과의 얼라인이 끊어지는 경우, 얼라인이 끊어지기 전까지 획득한 데이터 조각들을 포함하는 제1 그룹(201)이 생성될 수 있다.
또한, 다른 예시로, 스캔 과정이 시작되면 제1 그룹(201)이 생성되고, 스캔 과정을 통해 획득되는 데이터 조각들이 제1 그룹(201)에 포함될 수 있다. 이후, 새로이 획득된 데이터 조각과 기획득된 데이터 조각들과의 얼라인이 끊어지는 경우, 얼라인이 끊어진 이후에 획득한 데이터 조각들을 포함하기 위한 제2 그룹(202)이 생성될 수도 있다.
이하에서는, 상이한 그룹(200)에 포함된 데이터 조각들이 중첩되어 재얼라인 및 병합되는 과정에 대해 설명한다.
도 9는 그룹(200)들이 재얼라인되어 병합되는 과정을 설명하기 위한 것이다.
도 9를 참조하면, 그룹(200)들 중 적어도 일부는, 대상체를 스캔하여 획득되는 신규 데이터 조각에 의해 상호 중첩되는 영역이 형성될 수 있다. 예시적으로, 제3 그룹(203)을 구성하는 제3 그룹 데이터 조각들(2031)을 획득하는 과정에서, 제3 그룹 데이터 조각들(2031) 중 적어도 일부가 제1 그룹(201)에 포함된 제1 그룹 데이터 조각들(2011) 중 적어도 일부와 상호 중첩될 수 있다. 이 때, 제1 그룹(201)과 제3 그룹(203)은 얼라인될 수 있다. 이러한 현상을 '재얼라인(re-align)'으로 지칭한다. 그룹(200)들이 재얼라인되는 경우, 재얼라인되는 그룹(200)들은 병합되어 하나의 병합 그룹을 형성할 수 있다. 예시적으로, 제1 그룹(201)과 제3 그룹(203)이 재얼라인되면, 제1 그룹(201)과 제3 그룹(203)은 병합되어 하나의 병합 그룹을 형성하고, 유저 인터페이스 화면(600)의 일측에 표시되던 제1 그룹(201)의 썸네일은 삭제될 수 있다. 병합 그룹이 형성된 이후, 획득된 신규 데이터 조각들은 병합 그룹에 포함된 데이터 조각들과 실시간으로 얼라인될 수 있다.
이와 같이, 그룹(200)들이 재얼라인 및 병합됨으로써, 본 발명에 따른 데이터 처리 방법이 수행되는 시스템의 연산 부하를 경감시킬 수 있으며, 최종적으로 대상체를 나타내는 데이터 공백이 최소화된 정밀한 3차원 모델을 획득할 수 있는 이점이 있다.
도 10은 교합 데이터를 획득하는 단계(S120)를 설명하기 위한 것이다.
도 1 및 도 10을 참조하면, 본 발명에 따른 데이터 처리 방법은 상하악 데이터(100)의 협면을 스캔하여 교합 데이터를 획득하는 단계(S120)를 포함한다. 교합 데이터(300)는 대상체의 상악과 하악이 이개되지 않고 맞물린 상태에서, 상악과 하악을 모두 포함하는 적어도 하나의 협면을 스캔하여 획득될 수 있다. 예시적으로, 교합 데이터(300)는 대상체의 상악 일측 협면과 대상체의 하악 일측 협면을 포함하는 제1 교합 데이터(301)와, 대상체의 상악 타측 협면과 대상체의 하악 타측 협면을 포함하는 제2 교합 데이터(302)를 포함할 수 있다. 교합 데이터(300)는 하나의 협면을 스캔하여 획득될 수 있으나, 보다 정밀한 대상체의 치아 교합 상태를 구현하기 위해 복수개의 협면을 스캔하여 획득될 수 있다.
한편, 본 발명에 따른 데이터 처리 방법은, 상하악 데이터를 획득하는 단계(S110) 이후, 획득된 상하악 데이터(100)를 기초로 대상체의 3차원 모델을 생성하는 단계(S130)를 더 포함할 수 있다. 즉, 사용자의 스캔 전략에 따라 획득된 그룹(200)들이 하나의 상악 데이터(101) 및 하나의 하악 데이터(102)를 형성하고, 이러한 상하악 데이터(100)가 대상체를 나타내는 3차원 모델로 생성된다.
3차원 모델을 생성하는 단계(S130)는 상악 데이터(101)와 하악 데이터(102)를 포함하는 상하악 데이터(100), 및 대상체의 상악과 하악을 포함하는 협면을 스캔하여 획득한 교합 데이터(300)를 기초로 3차원 모델을 생성할 수 있다. 보다 상세하게는, 3차원 모델을 생성하는 단계(S130)는 상하악 데이터(100)와 교합 데이터(300)를 조합하여 3차원 모델을 생성할 수 있다. 본 발명에 따른 데이터 처리 방법을 사용함으로써, 상하악 데이터(100)가 용이하게 획득될 수 있고, 스캔 소요 시간이 단축되어, 신속하게 대상체를 나타내는 3차원 모델을 획득할 수 있는 이점이 있다. 또한, 단일 스테이지에서 상하악 데이터(100)를 획득하고, 사용자는 얼라인이 끊긴 지점으로 복귀하지 않고 계속하여 스캔 과정을 수행할 수 있으므로, 사용자 편의성을 향상시키는 이점이 있다.
이하에서는, 시술 이후의 대상체를 스캔하여 3차원 모델을 획득하는 과정을 설명한다.
도 11은 시술 중 치아 삭제 이후의 대상체를 스캔하는 과정을 설명하기 위한 것이다.
도 11을 참조하면, 상하악 데이터(100)를 구성하는 상악 데이터(101’) 및 하악 데이터(102’) 중 적어도 하나는 시술 이후의 대상체를 나타낼 수 있다. 예시적으로, 상하악 데이터(100)는 ‘시술’ 이후의 형상을 나타낼 수 있으며, 3차원 모델이 대상체의 시술 부위를 나타낼 수 있도록 한다. 또한, 그룹(200)들 중 적어도 하나는 시술 이후의 대상체를 나타내는 데이터 조각을 포함할 수 있다. 이 때, ‘시술’이란 대상체에 적용된 소정 처리를 의미할 수 있다. 예시적으로, ‘시술’은 치아 삭제(preparation), 치아 발치 및 스캔바디와 같은 보철물의 식립 등 다양한 처리들 중 적어도 하나를 포함할 수 있다.
도 11에 도시된 바와 같이, 사용자는 제1 그룹(201)에 포함되는 데이터 조각들을 획득할 수 있으며, 제1 그룹(201)은 시술 이전 또는 시술 이후의 대상체를 나타내는 일부분일 수 있다. 또한, 사용자는 대상체의 일부 치아를 삭제한 후, 상기 일부 치아가 삭제된 대상체를 스캔하여 삭제 치아 데이터 조각(4011)을 가지는 치아 삭제 그룹(401)을 획득할 수 있다. 제1 그룹(201)과 삭제 치아 그룹(401)이 각각 획득되어 재얼라인 되면, 상악 데이터(101')는 삭제 치아 영역을 나타낼 수 있다. 이와 같이, 삭제 치아 그룹(401)을 스캔하고, 삭제 치아 그룹(401)이 시술 이전의 대상체를 스캔하여 획득한 그룹(200)과 재얼라인 및 병합됨으로써, 사용자는 대상체의 시술 이후 부분만을 추가적으로 스캔하여 신속하게 시술 이후의 3차원 모델을 획득할 수 있다.
도 12는 시술 중 스캔바디 식립 이후의 대상체를 스캔하는 과정을 설명하기 위한 것이다.
도 12를 참조하면, 대상체의 일부 영역에 스캔바디가 식립되어 스캔바디 적용 데이터 조각들(5011, 5012)을 가지는 스캔바디 적용 그룹(501)이 하악 데이터(102'')에 포함될 수 있다. 한편, 사용자는 제1 그룹(201)에 포함되는 데이터 조각들을 획득할 수 있으며, 제1 그룹(201)은 시술 이전 또는 이후의 대상체를 나타내는 일부분일 수 있다. 또한, 사용자는 대상체의 일부 영역에 스캔바디를 식립하고, 이를 스캔함으로서 스캔바디 적용 그룹(501)을 획득할 수 있다. 제1 그룹(201)과 스캔바디 적용 그룹(501)이 각각 획득되어 재얼라인 되면, 하악 데이터(102'')는 대상체의 스캔바디 적용 영역을 나타낼 수 있다. 이와 같이, 스캔바디 적용 그룹(501)을 스캔하고, 스캔바디 적용 그룹(501)이 시술 이전의 대상체를 스캔하여 획득한 제1 그룹(201)과 재얼라인 및 병합됨으로써, 사용자는 시술 이후의 대상체 전체를 스캔하지 않고, 대상체의 시술 이후 부분만을 추가적으로 스캔하여 신속하게 시술 이후의 3차원 모델을 획득할 수 있다.
선택적으로, 시술 이후의 대상체의 시술 부위를 시술 이전의 대상체를 나타내는 상하악 데이터(100)와 얼라인하기 위해, 상하악 데이터(100) 중 시술 부위와 충돌하는 부분이 트리밍(trimming)되고 시술 데이터 조각(삭제 치아 데이터 조각, 스캔바디 적용 데이터 조각 등)이 해당 부분을 대체할 수 있다. 또한, 시술 데이터 조각은 시술 부위에서만 추가적으로 획득되어, 선택적으로 시술 이전의 대상체를 나타내는 상하악 데이터(100)와 얼라인되어 표시될 수도 있다.
시술 이후의 대상체를 나타내는 데이터 조각을 포함하는 그룹과 시술 이전의 대상체를 나타내는 데이터 조각을 포함하는 그룹을 얼라인하여 상하악 데이터를 획득하면, 획득한 상하악 데이터는 시술 이전의 교합 데이터와 함께 3차원 모델로 생성될 수 있다. 이 때, 시술 이후의 상하악 데이터가 시술 이전의 교합 데이터에 의해 정렬되므로, 시술 이후에 변경된 교합고경이 적용되지 않는다. 따라서, 사용자는 시술 이전의 대상체의 교합 형상을 기준으로 환자에게 최적의 치료를 제공할 수 있으며, 환자의 구강에 부합하는 보철물을 제작할 수 있는 이점이 있다.
도 13은 복수의 스캔 데이터를 유저 인터페이스 화면(600)에 표시한 것이다.
도 13을 참조하면, 복수의 스캔 데이터(상악 데이터, 하악 데이터, 교합 데이터, 스캔바디가 적용된 하악 데이터 등)가 하나의 유저 인터페이스 화면(600)에 표시될 수 있다. 이 때, 상하악 데이터(100)는 인공심층망(artificial deep network)을 통해 상악 데이터(101)와 하악 데이터(102)로 구분되어 유저 인터페이스 화면(600) 상에 표시될 수 있다. 예시적으로, 인공심층망은 학습된 상악의 특징 및 학습된 하악의 특징을 획득한 상하악 데이터(100)에 적용하며, 상악 데이터(101)와 하악 데이터(102)를 특정할 수 있다.
전술한 학습 데이터는 상악 데이터(101)와 하악 데이터(102)를 감지하기 위한 적어도 하나의 해부학적 요소를 포함할 수 있다. 예시적으로, 학습 데이터는 상악골과 하악골의 형상 정보를 포함할 수 있다. 상악골 입천장과 하악골 저면의 형상 등을 통해, 상하악 데이터(100)는 상악 데이터(101)와 하악 데이터(102)로 구분될 수 있다. 다른 예시로, 학습 데이터는 치아의 형상 정보를 포함할 수 있다. 상악을 구성하는 치아(예를 들면, 상악의 대구치)와 하악을 구성하는 치아(예를 들면, 하악의 대구치)의 상이한 형상 등을 통해, 상하악 데이터(100)는 상악 데이터(101)와 하악 데이터(102)로 구분될 수 있다. 또다른 예시로, 상악을 구성하는 전치부의 면적과 하악을 구성하는 전치부의 면적을 비교하여, 상대적으로 큰 면적을 가지는 데이터를 상악 데이터(101)로, 상대적으로 작은 면적을 가지는 데이터를 하악 데이터(102)로 구분할 수도 있다.
상악 데이터(101)와 하악 데이터(102)가 특정됨으로써, 3차원 모델이 생성될 때 상악 데이터(101)와 하악 데이터(102)의 위치가 반전되어 배치되지 않도록 하고, 사용자가 용이하게 3차원 모델을 확인할 수 있도록 하는 이점이 있다. 또한, 상악 데이터(101)와 하악 데이터(102)가 구분됨으로써, 사용자는 스캔 과정에서 상악 데이터(101)와 하악 데이터(102)를 구분없이 획득하고, 분석 과정에서 상악 데이터(101)와 하악 데이터(102)가 자동으로 구분되어 사용자 편의성이 향상되는 이점이 있다.
이하에서는 본 발명의 다른 실시예에 다른 데이터 처리 방법을 설명한다. 본 발명의 다른 실시예에 따른 데이터 처리 방법을 설명함에 있어, 전술한 내용과 중복되는 내용은 간략하게 설명하거나 생략한다.
도 14는 본 발명의 다른 실시예에 따른 데이터 처리 방법의 순서도이다.
도 14를 참조하면, 본 발명의 다른 실시예에 따른 데이터 처리 방법은 대상체를 스캔하여 교합 데이터를 획득하는 단계(S210), 대상체를 스캔하여 상하악 데이터를 획득하는 단계(S220), 및 대상체의 3차원 모델을 생성하는 단계(S230)를 포함할 수 있다. 본 발명의 다른 실시예에 따른 데이터 처리 방법은, 대상체의 교합 데이터를 먼저 획득하고 상하악 데이터를 그 이후에 획득하는 점에서 전술한 내용과 차이가 있다.
이 때, 교합 데이터는 시술 이전의 대상체를 나타내거나, 시술 이후의 대상체를 나타낼 수 있다. 본 발명의 다른 실시예에 따른 데이터 처리 방법과 같이, 시술 이전 대상체의 교합 데이터를 먼저 획득(S210)하고 시술 이후 대상체를 스캔하여 상하악 데이터를 획득(S220)하면, 사용자는 시술 이전의 대상체의 교합 형상을 기준으로 환자에게 최적의 치료를 제공할 수 있다. 보다 상세하게는, 사용자는 환자의 구강에 부합하는 보철물을 제작하여 환자에게 제공할 수 있는 이점이 있다.
차이가 있는 내용을 제외한 나머지 과정들은 전술한 내용과 동일하며, 본 발명의 다른 실시예에 따른 데이터 처리 방법은 전술한 본 발명에 따른 데이터 처리 방법이 가지는 기술적 효과 및 이점들을 공유한다.
이하에서는, 전술한 데이터 처리 방법이 수행되는 데이터 처리 장치에 대해 설명한다.
도 15는 본 발명의 일 실시예에 따른 데이터 처리 장치(900)의 개략적인 구성도이다.
도 15를 참조하면, 본 발명에 따른 데이터 처리 장치(900)는 스캔부(910), 제어부(920), 및 디스플레이부(930)를 포함할 수 있다.
스캔부(910)는 대상체를 나타내는 이미지 데이터를 획득할 수 있다. 예시적으로, 스캔부(910)는 대상체의 표면으로부터 반사된 광을 수용하고, 수용된 광을 기초로 이미지 데이터를 획득할 수 있다. 스캔부(910)는 대상체를 나타내는 3차원 모델을 획득하기 위한 스캔 디바이스일 수 있다. 예를 들면, 스캔부(910)는 사용자가 파지하고 대상체를 다양한 거리 및 각도에서 스캔할 수 있는 3차원 구강 스캐너일 수 있다.
스캔부(910)는 대상체의 색상 정보 및 형상 정보를 획득하기 위해, 소정 색상의 광 및/또는 소정 패턴의 광을 조사할 수 있는 광 프로젝터(미도시)를 포함할 수 있다. 예시적으로, 광 프로젝터는 상하악 데이터와 교합 데이터의 색상을 획득하기 위해, 적색 광, 녹색 광, 및 청색 광을 조사할 수 있다. 대상체의 표면으로부터 반사된 광을 수용하는 카메라가 모노 카메라인 경우, 상기 적색 광, 상기 녹색 광, 및 상기 청색 광을 대상체에 조사하여 획득한 2차원 이미지 데이터를 조합하여 대상체의 실제 색상을 획득할 수 있다. 한편, 대상체의 표면으로부터 반사된 광을 수용하는 카메라가 컬러 카메라
또한, 스캔부(910)는 대상체의 표면으로부터 반사된 광을 수용하는 적어도 하나의 카메라를 포함한다. 카메라는 광을 수용하여 대상체를 나타내는 평면의 2차원 이미지 데이터를 획득할 수 있다. 카메라는 모노 카메라 또는 컬러 카메라일 수 있으며, 그 종류는 한정되지 않는다.
제어부(920)는 스캔부(910)로부터 획득된 이미지 데이터를 가공할 수 있다. 제어부(920)는 최종적으로 대상체 전체를 나타내는 3차원 모델을 획득할 수 있도록 한다. 예시적으로, 제어부(920)는 각종 연산 과정을 수행하는 마이크로프로세서(microprocessor)를 포함할 수 있다. 도 15에 도시된 바에 따르면, 제어부(920)는 스캔부(910)와 이격 형성된 구성일 수 있다. 예를 들면, 스캔부(910)는 제어부(920)와 유선 또는 무선으로 연결될 수 있으며, 스캔부(910)는 유선 통신 및/또는 무선 통신을 사용하여 획득한 데이터를 제어부(920)에 전송할 수 있다. 다만, 반드시 도 15에 도시된 바와 같은 구조에 한정되는 것은 아니며, 제어부(920)는 스캔부(910)의 일 구성으로 형성될 수도 있다.
보다 상세하게는, 제어부(920)는 데이터베이스부(921)를 포함할 수 있다. 데이터베이스부(921)는 스캔부(910)로부터 획득한 데이터 조각들이 저장될 수 있다. 데이터 조각들은 데이터베이스부(921)에 저장될 때, 데이터 조각들 간 상호 얼라인 여부에 따라 구분되어 저장될 수 있다. 또한, 데이터베이스부(921)는 2차원 이미지 데이터, 상기 2차원 이미지 데이터를 기초로 3차원 모델링된 3차원 이미지 샷, 얼라인 알고리즘, 그룹 관리 알고리즘 등을 저장할 수 있다. 데이터베이스부(921)는 알려진 저장 디바이스일 수 있으며, 데이터베이스부(921)는 예시적으로 SSD(Solid State Drive), HDD(Hard Disk Drive) 등 알려진 저장 디바이스 중 적어도 하나일 수 있다.
제어부(920)는 3차원 모델링부(922)를 포함할 수 있다. 3차원 모델링부(922)는 획득한 2차원 이미지 데이터를 기초로 3차원 이미지의 샷을 생성할 수 있다.
또한, 제어부(920)는 그룹 관리부(923)를 포함할 수 있다. 그룹 관리부(923)는 데이터 조각들의 얼라인 여부에 따라 상기 데이터 조각들을 소정 그룹으로 분류할 수 있다. 예시적으로, 스캔 과정이 수행될 때 데이터 조각들이 획득되다가 데이터 조각들 간 얼라인이 끊어지는 경우, 그룹 관리부(923)는 얼라인이 끊어진 시기 이전에 획득된 데이터 조각들과 얼라인이 끊어진 시기 이후에 획득된 데이터 조각들을 서로 다른 그룹으로 분류할 수 있다. 그룹 관리부(923)는 후술하는 얼라인부(924)에서 얼라인이 끊기는 여부에 따라 그룹을 생성하고, 데이터 조각들을 상기 그룹에 포함되도록 동작할 수 있다. 또한, 서로 다른 그룹들 간의 재얼라인 과정을 통해 그룹들 간 얼라인이 성공하는 경우, 그룹 관리부(923)는 얼라인이 성공한 그룹들을 병합할 수 있다. 데이터 조각들을 획득하는 과정에서 얼라인이 끊어짐에 따라 그룹들이 생성되고 상기 그룹들에 데이터 조각들이 포함되는 과정은 전술한 바와 동일하다.
또한, 제어부(920)는 얼라인부(924)를 포함할 수 있다. 얼라인부(924)는 기저장된 데이터 정렬 알고리즘을 사용하여 데이터 조각들을 얼라인할 수 있다. 데이터 조각들을 얼라인하기 위해 사용되는 데이터 정렬 알고리즘은 알려진 알고리즘일 수 있으며, 예시적으로 ICP(iterative closest point) 알고리즘이 사용될 수 있다. 데이터 조각들의 얼라인 여부에 따라, 데이터 조각들은 동일한 그룹에 포함될 수도 있고, 상이한 그룹에 각각 포함되도록 분류될 수도 있다. 데이터 조각들이 얼라인 및/또는 재얼라인되는 과정에 대해서는 전술한 바와 같다.
한편, 상기 스캔부(910)의 스캔 과정을 통해 실시간으로 데이터 조각들이 획득되는 과정, 상기 제어부(920)의 연산 과정을 통해 상기 데이터 조각들이 얼라인되는 과정, 얼라인이 끊어져 얼라인이 끊어지기 이전에 획득된 데이터 조각들이 썸네일의 형태로 유저 인터페이스 화면에 표시되는 과정을 포함한 데이터 처리 과정들 중 적어도 일부는 상기 제어부(920)와 연결된 디스플레이부(930)를 통해 표시될 수 있다. 디스플레이부(930)는 사용자가 상기 과정들을 시각적으로 용이하게 확인할 수 있는 디바이스가 사용될 수 있으며, 디스플레이부(930)는 모니터, 태블릿, 터치 패널 등 알려진 디바이스일 수 있다. 사용자는 디스플레이부(930)에 표시되는 유저 인터페이스 화면을 통해 본 발명에 따른 데이터 처리 방법이 수행되는 과정을 용이하게 확인할 수 있고, 결과적으로 환자에게 최적의 치료를 제공할 수 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
S110: 상하악 데이터를 획득하는 단계
S120: 교합 데이터를 획득하는 단계
S130: 3차원 모델을 생성하는 단계
100: 상하악 데이터 101: 상악 데이터
102: 하악 데이터 200: 그룹
300: 교합 데이터 401: 삭제 치아 데이터
501: 보철물 식립 데이터 600: 유저 인터페이스 화면

Claims (11)

  1. 대상체를 스캔하여 상하악 데이터를 획득하는 단계; 및
    획득한 상기 상하악 데이터를 기초로 상기 대상체의 3차원 모델을 생성하는 단계; 를 포함하고,
    상기 상하악 데이터를 획득하는 단계는,
    상기 상하악 데이터를 구성하는 그룹들 중 제1 그룹에 포함되는 데이터 조각들을 획득하고,
    상기 제1 그룹과 상호 중첩되지 않는 제2 그룹에 포함되는 데이터 조각들을 획득하며,
    상기 제1 그룹과 제2 그룹은 얼라인이 끊기는 것을 특징으로 하는 데이터 처리 방법.
  2. 청구항 1에 있어서,
    상기 제1 그룹은 상악 데이터를 구성하는 적어도 하나의 상악 데이터 그룹이고,
    상기 제2 그룹은 하악 데이터를 구성하는 적어도 하나의 하악 데이터 그룹인 것을 특징으로 하는 데이터 처리 방법.
  3. 청구항 1에 있어서,
    상기 제1 그룹은 상악 데이터를 구성하는 적어도 하나의 상악 데이터 그룹이고,
    상기 제2 그룹은 상기 제1 그룹과 상호 중첩되지 않는 상기 상악 데이터의 다른 그룹인 것을 특징으로 하는 데이터 처리 방법.
  4. 청구항 1에 있어서,
    상기 제1 그룹은 하악 데이터를 구성하는 적어도 하나의 하악 데이터 그룹이고,
    상기 제2 그룹은 상기 제1 그룹과 상호 중첩되지 않는 상기 하악 데이터의 다른 그룹인 것을 특징으로 하는 데이터 처리 방법.
  5. 청구항 1에 있어서,
    상기 그룹들은 각각 적어도 하나의 데이터 조각을 포함하는 것을 특징으로 하는 데이터 처리 방법.
  6. 청구항 1에 있어서,
    상기 그룹들 중 적어도 일부는, 상기 대상체를 스캔하여 획득되는 신규 데이터 조각에 의해 상호 중첩되는 영역이 형성되어 재얼라인 및 병합되는 것을 특징으로 하는 데이터 처리 방법.
  7. 청구항 1에 있어서,
    상기 상하악 데이터를 획득하는 단계 이전에, 상기 대상체의 협면을 스캔하여 교합 데이터를 획득하는 단계; 를 더 포함하고,
    상기 3차원 모델을 생성하는 단계는 상기 상하악 데이터와 함께 상기 교합 데이터를 기초로 상기 3차원 모델을 생성하는 것을 특징으로 하는 데이터 처리 방법.
  8. 청구항 7에 있어서,
    상기 상하악 데이터를 구성하는 상악 데이터 및 하악 데이터 중 적어도 하나는 시술 이후의 대상체를 나타내고,
    상기 교합 데이터는 시술 이전의 대상체를 나타내는 것을 특징으로 하는 데이터 처리 방법.
  9. 청구항 1에 있어서,
    상기 그룹들 중 적어도 하나는 시술 이후의 대상체를 나타내는 데이터 조각을 포함하는 것을 특징으로 하는 데이터 처리 방법.
  10. 청구항 1에 있어서,
    상기 상하악 데이터를 획득하는 단계는 단일 스테이지에서 수행되는 것을 특징으로 하는 데이터 처리 방법.
  11. 청구항 1에 있어서,
    상기 상하악 데이터는 인공심층망(artificial deep network)을 통해 상악 데이터와 하악 데이터로 구분되는 것을 특징으로 하는 데이터 처리 방법.
KR1020210129065A 2021-03-05 2021-09-29 데이터 처리 방법 KR102623248B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210029623 2021-03-05
KR20210029623 2021-03-05

Publications (2)

Publication Number Publication Date
KR20220125661A true KR20220125661A (ko) 2022-09-14
KR102623248B1 KR102623248B1 (ko) 2024-01-10

Family

ID=83279011

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210129065A KR102623248B1 (ko) 2021-03-05 2021-09-29 데이터 처리 방법

Country Status (1)

Country Link
KR (1) KR102623248B1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070207437A1 (en) * 1999-11-30 2007-09-06 Orametrix, Inc. Unified workstation for virtual craniofacial diagnosis, treatment planning and therapeutics
KR20140105473A (ko) * 2011-11-15 2014-09-01 트리스페라 덴탈 아이엔씨. 3d 모델을 준비하기 위해 개인으로부터 데이터를 획득하기 위한 방법 및 시스템
KR20180125798A (ko) * 2017-05-16 2018-11-26 주식회사 디오 인공 치아 시술 정보 제공 시스템, 이를 위한 시술자 장치 및 이를 이용한 인공 치아 시술 정보 제공 방법
KR101954487B1 (ko) * 2012-11-01 2019-03-05 얼라인 테크널러지, 인크. 3차원 스캔에서의 움직임 보상
KR20210018397A (ko) 2021-02-05 2021-02-17 한국과학기술연구원 3차원 자동 스캔 시스템 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070207437A1 (en) * 1999-11-30 2007-09-06 Orametrix, Inc. Unified workstation for virtual craniofacial diagnosis, treatment planning and therapeutics
KR20140105473A (ko) * 2011-11-15 2014-09-01 트리스페라 덴탈 아이엔씨. 3d 모델을 준비하기 위해 개인으로부터 데이터를 획득하기 위한 방법 및 시스템
KR101954487B1 (ko) * 2012-11-01 2019-03-05 얼라인 테크널러지, 인크. 3차원 스캔에서의 움직임 보상
KR20180125798A (ko) * 2017-05-16 2018-11-26 주식회사 디오 인공 치아 시술 정보 제공 시스템, 이를 위한 시술자 장치 및 이를 이용한 인공 치아 시술 정보 제공 방법
KR20210018397A (ko) 2021-02-05 2021-02-17 한국과학기술연구원 3차원 자동 스캔 시스템 및 방법

Also Published As

Publication number Publication date
KR102623248B1 (ko) 2024-01-10

Similar Documents

Publication Publication Date Title
US11653998B2 (en) Dental preparation guide
KR102057207B1 (ko) 3차원 구강 모델 분석방법 및 이를 포함하는 보철물 디자인 방법
CN104093375B (zh) 确定牙齿上的受力
US10327873B2 (en) Method, system and user interface for creating a digital design for use in manufacturing a molding-shell for a dental restoration
US20200081413A1 (en) System and method for generating an orthodontic appliance
KR102016018B1 (ko) 가상 보철물을 디자인 하기 위한 마진라인 설정방법
KR101984028B1 (ko) 아치라인에 기초한 보철물 디자인 방법 및 시스템
KR102314890B1 (ko) 의료영상 정합 방법 및 그 장치
KR20210146154A (ko) 임플란트 수술용 가이드의 구조물을 디자인하는 방법 및 그 장치
KR20220125661A (ko) 데이터 처리 방법
KR102350098B1 (ko) 악궁라인 생성 방법 및 이를 위한 치과영상 처리장치
JP2020508777A (ja) アーチラインに基づいた補綴物のデザイン方法及びシステム
KR102406485B1 (ko) 환자 맞춤형 어버트먼트 디자인 방법 및 그 장치
KR20210136573A (ko) 최적화된 어버트먼트를 제안하는 임플란트 수술용 가이드 디자인 방법 및 그 장치
KR102573907B1 (ko) 아치라인 수정방법 및 그 치아 배열 디자인 장치
KR102388411B1 (ko) 트레이 제조방법, 데이터 이전 방법 및 이를 수행하는 시뮬레이션 장치
KR102347493B1 (ko) 치아 배열 디자인 방법 및 그 장치
KR102389747B1 (ko) 임플란트 수술용 가이드 디자인 방법 및 그 장치
KR102474298B1 (ko) 보철물 모델 설계 방법 및 그 장치
KR102549576B1 (ko) 보철물 디자인 장치 및 그 방법
KR20220115661A (ko) 디지털 의치 디자인 방법 및 그 장치
KR20220067095A (ko) 치아 배열 디자인 방법 및 그 장치
KR20220166204A (ko) 구강 이미지를 처리하는 데이터 처리 장치 및 구강 이미지 처리 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right