KR20220061001A - 데이터 처리 방법 - Google Patents

데이터 처리 방법 Download PDF

Info

Publication number
KR20220061001A
KR20220061001A KR1020210137277A KR20210137277A KR20220061001A KR 20220061001 A KR20220061001 A KR 20220061001A KR 1020210137277 A KR1020210137277 A KR 1020210137277A KR 20210137277 A KR20210137277 A KR 20210137277A KR 20220061001 A KR20220061001 A KR 20220061001A
Authority
KR
South Korea
Prior art keywords
area
model
data processing
tooth
processing method
Prior art date
Application number
KR1020210137277A
Other languages
English (en)
Other versions
KR102632338B1 (ko
Inventor
이동훈
Original Assignee
주식회사 메디트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메디트 filed Critical 주식회사 메디트
Priority to PCT/KR2021/015667 priority Critical patent/WO2022098039A1/ko
Priority to US18/035,461 priority patent/US20230290093A1/en
Publication of KR20220061001A publication Critical patent/KR20220061001A/ko
Application granted granted Critical
Publication of KR102632338B1 publication Critical patent/KR102632338B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7221Determining signal validity, reliability or quality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • A61C13/0003Making bridge-work, inlays, implants or the like
    • A61C13/0004Computer-assisted sizing or machining of dental prostheses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Epidemiology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Optics & Photonics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

본 발명에 따른 데이터 처리 방법은, 3차원 모델에서, 적어도 하나의 치아 영역을 포함하는 분석 영역을 구별하는 단계, 및 상기 분석 영역을 기초로 상기 3차원 모델의 완성도를 판단하는 단계를 포함한다.

Description

데이터 처리 방법{Data processing method}
본 발명은 데이터 처리 방법에 관한 것이며, 보다 상세하게는 대상체의 3차원 모델을 획득하여, 상기 3차원 모델의 완성도를 판단하는 데이터 처리 방법에 관한 것이다.
3차원 스캐닝 기술은 측정, 검사, 역설계, 컨텐츠 생성, 치과 치료용 CAD/CAM, 의료기기 등 다양한 산업 분야에서 사용되고 있으며 컴퓨팅 기술의 발전으로 인한 스캐닝 성능의 향상으로 인해 그 실용성이 더욱 확대되고 있다. 특히, 치과 치료 분야에서, 3차원 스캐닝 기술은 환자의 치료를 위하여 수행되므로, 3차원 스캐닝을 통해 획득되는 3차원 모델은 높은 완성도를 가질 것이 요구된다.
3차원 스캐너를 통해 3차원 모델을 생성하는 과정에서, 3차원 스캐너는 측정 대상에 대한 촬영을 통해 획득한 이미지 데이터(2차원 또는 3차원)를 3차원 모델로 변환함으로써 전체 3차원 모델 데이터를 획득한다. 또한, 측정 대상을 면밀히 촬영할수록 3차원 스캐너가 획득하는 이미지는 증가하고, 그에 따라 실시간으로 변환된 3차원 모델에 대한 최종 데이터의 신뢰도는 향상된다.
종래에, 측정 대상에 대한 최종 데이터의 완성도 및/또는 신뢰도는 사용자의 개인적인 판단에 의존하였다. 다만, 사용자의 개인적인 판단은 그 기준이 모호하며 오직 감각에 의존하는 바, 최종 데이터의 완성도를 신뢰하기 어려운 문제점이 있었다.
이를 개선하기 위하여, 최근에는 3차원 모델에 소정 색상을 부여하거나 패턴을 적용하여 신뢰도를 시각적으로 표시하는 방법이 사용되었다. 예시적으로, 3차원 모델을 구성하는 데이터의 신뢰도에 따라, 낮은 신뢰도 영역은 적색, 중간 신뢰도 영역은 황색, 그리고 높은 신뢰도 영역은 녹색으로 표시하는 유저 인터페이스(user interface, UI)가 존재하였다.
그러나, 이러한 방법은 사용자에게 지속적으로 유저 인터페이스가 나타나는 디스플레이 장치를 주시해야 하는 단점이 있었다. 도 1에 도시된 유저 인터페이스 화면과 같이, 데이터의 신뢰도를 3차원 모델 상에 색상 등으로 나타내는 이른바 ‘신뢰도 맵’에서 3차원 모델의 실제 색상을 확인하기 위해, 사용자는 디스플레이 모드를 전환하는 버튼을 클릭하여야 했다. 예시적으로, 도 1을 참조하면, 3차원 모델의 신뢰도가 제1 신뢰도 색상(RD1), 제2 신뢰도 색상(RD2), 및 제3 신뢰도 색상(RD3)을 사용하여 표현될 수 있다. 신뢰도 색상(RD1, RD2, RD3)은 예시적인 것이며, 신뢰도를 나타내기 위한 다양한 수단(패턴 등)이 사용될 수 있다.
또한, 사용자는 모드 전환 버튼(12)을 클릭하여 3차원 모델의 신뢰도를 나타내는 모드와 3차원 모델의 실제 색상을 나타내는 모드를 전환하여, 각각의 모드에서 나타나는 정보(신뢰도 또는 3차원 모델의 실제 색상)를 택일적으로 확인할 수밖에 없었다. 이러한 과정은 사용자에게 불필요한 조작을 요구하였고, 사용자가 3차원 모델을 신속하게 분석하는 것을 방해하였다.
또한, 신뢰도를 나타내는 모드를 사용하더라도, 사용자는 여전히 사용자의 시각적 판단에 의해 3차원 모델의 완성도를 판단할 수밖에 없었으며, 이는 일정한 수준 이상의 3차원 모델의 완성도를 보장하지 못하는 문제가 있다.
따라서, 전술한 바와 같은 단점을 해소하기 위한 방법이 요구되고 있다.
대한민국 공개특허 10-2017-0020210호 (2017.02.22 공개)
본 발명은 사용자의 개인적인 판단이 요구되지 않고, 시스템 자체적으로 정량적인 데이터의 신뢰도를 판단하여, 사용자에게 그 판단 결과를 피드백할 수 있는 데이터 처리 방법을 제공하기 위한 것이다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.
전술한 바와 같은 목적을 달성하기 위해서, 본 발명에 따른 데이터 처리 방법은, 3차원 모델에서, 적어도 하나의 치아 영역을 포함하는 분석 영역을 구별하는 단계, 및 상기 분석 영역을 기초로 상기 3차원 모델의 완성도를 판단하는 단계를 포함한다.
또한, 본 발명에 따른 데이터 처리 방법은 전술한 단계들을 포함하여 다른 추가적인 단계들을 더 포함할 수 있으며, 이에 따라 사용자가 3차원 모델의 완성도를 용이하게 확인할 수 있도록 한다.
본 발명에 따른 데이터 처리 방법을 사용함으로써, 사용자는 충분한 신뢰도를 가지는 3차원 모델을 용이하게 획득할 수 있는 이점이 있다.
또한, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 3차원 모델 전체가 아닌 분석 영역에 대해 완성도를 판단하므로, 데이터 처리 시간을 단축시키는 이점이 있다.
또한, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 사용자는 자의적인 판단에 의하지 않고 정확히 계산되어 판단된 결과에 기초하여, 3차원 모델이 신뢰할 수 있을 정도의 완성도를 가졌는지 용이하게 확인할 수 있는 이점이 있다.
또한, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 개별 치아 영역 별로 상이한 완성도 판단 임계값이 적용되어, 보다 중요한 치아에 대해 정밀하게 스캔하여 3차원 모델을 획득할 수 있는 이점이 있다.
또한, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 사용자는 주의 영역으로 감지된 3차원 모델의 부분들을 시각적으로 용이하게 확인할 수 있으며, 주의 영역을 최소화하기 위한 추가적인 스캔을 진행할 때 소요되는 시간과 노력을 절약하는 이점이 있다.
도 1은 종래 기술에 따른 신뢰도 맵을 설명하기 위한 것이다.
도 2는 본 발명에 따른 데이터 처리 방법의 순서도이다.
도 3은 분석 영역을 설정하는 과정을 설명하기 위한 것이다.
도 4는 대상체를 스캔하여 3차원 모델을 획득하는 과정을 설명하기 위한 것이다.
도 5는 본 발명에 따른 데이터 처리 방법 중 분석 영역을 구별하는 단계의 세부 순서도이다.
도 6은 치아 영역을 개별 치아 영역으로 구별하기 위해 사용되는 구별 기준을 설명하기 위한 것이다.
도 7은 주의 영역 중 공백 영역을 감지하는 일 과정을 설명하기 위한 것이다.
도 8은 주의 영역 중 공백 영역을 감지하는 다른 과정을 설명하기 위한 것이다.
도 9는 본 발명에 따른 데이터 처리 방법 중 완성도를 판단 결과에 기초하여 피드백을 발생시키는 단계를 설명하기 위한 것이다.
도 10은 사용자에게 피드백되는 주의 영역을 설명하기 위한 것이다.
도 11은 본 발명의 다른 실시예에 따른 데이터 처리 방법의 순서도이다.
도 12는 분석 영역을 설정하는 과정을 설명하기 위한 것이다.
도 13은 본 발명에 따른 데이터 처리 방법을 수행하는 데이터 처리 장치의 개략적인 구성도이다.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.
본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
도 2는 본 발명에 따른 데이터 처리 방법의 순서도이다.
도 2를 참조하면, 본 발명에 따른 데이터 처리 방법은 분석 영역을 설정하는 단계(S110), 3차원 모델을 획득하는 단계(S120), 분석 영역을 구별하는 단계(S130), 완성도를 판단하는 단계(S140), 및 피드백을 발생시키는 단계(S150)를 포함한다. 상기 단계들 및 상기 단계들이 가지는 세부 단계들에 따라, 본 발명에 따른 데이터 처리 방법이 수행될 수 있다.
이하에서는, 본 발명에 따른 데이터 처리 방법의 각 단계를 보다 상세하게 설명한다.
도 3은 분석 영역을 설정하는 과정을 설명하기 위한 것이다.
도 2 및 도 3을 참조하면, 본 발명에 따른 데이터 처리 방법은 분석 영역을 설정하는 단계(S110)를 포함한다. 이 때, 분석 영역(100)은 3차원 모델의 완성도를 판단하기 위한 영역에 해당하며, 본 발명에 따른 데이터 처리 방법에서, 3차원 모델의 완성도는 3차원 모델 전체가 아니라 분석 영역(100)으로 설정된 3차원 모델의 적어도 일부분을 기준으로 판단된다. 도 3에 도시된 바에 따르면, 유저 인터페이스 화면(600)에 분석 영역(100)을 설정하기 위한 표준 구강 형상이 나타난다. 표준 구강 형상은 대상체를 나타내는 3차원 모델과는 상이한 것이며, 후술하는 분석 영역(100)을 설정하기 위해 일반적인 구강 배치를 도식적으로 나타낸 2차원 형상 또는 3차원 형상일 수 있다. 도 3에 도시된 바와 같이, 유저 인터페이스 화면(600)에 나타난 표준 구강 형상에서, 분석 영역(100)으로 설정될 부분들이 선택될 수 있다. 예시적으로, 분석 영역(100)은 상악 분석 영역(100a)과 하악 분석 영역(100b)을 포함할 수 있다. 사용자는 상악 분석 영역(100a)에서 상악에 배치된 치아들 중 적어도 하나를 분석 영역(100)으로 선택할 수 있거나, 하악 분석 영역(100b)에서 하악에 배치된 치아들 중 적어도 하나를 분석 영역(100)으로 선택할 수 있다. 즉, 분석 영역(100)은 상악 분석 영역(100a)의 적어도 일부 및/또는 하악 분석 영역(100b)의 적어도 일부로 설정될 수 있다. 예시적으로, 도 3에 도시된 바에 따르면, 분석 영역(100)은 상악 분석 영역(100a) 중 제1 치아(101), 제2 치아(102), 및 제3 치아(103)로 결정될 수 있다.
도 4는 대상체를 스캔하여 3차원 모델을 획득하는 과정을 설명하기 위한 것이다.
도 2 및 도 4를 참조하면, 본 발명에 따른 데이터 처리 방법은 대상체를 스캔하여 상기 대상체의 3차원 모델을 획득하는 단계(S120)를 포함할 수 있다. 대상체(Object)는 환자의 치아를 나타내는 것일 수 있다. 예시적으로, 대상체는 환자의 실제 구강일 수도 있고, 환자의 구강을 인상채득하여 획득한 주형에 석고를 가하여 생성된 석고 모형일 수도 있다.
사용자는 스캐너를 사용하여 대상체를 스캔하고, 대상체의 3차원 모델(200)을 획득할 수 있다. 이 때, 스캐너는 3차원 스캐너일 수 있다. 예시적으로, 3차원 스캐너는 트레이 상에 대상체를 배치하고, 상기 트레이가 회전 또는 틸팅 회동하면서 일측에 형성된 카메라를 통해 대상체의 3차원 모델(200)을 획득하는 테이블 스캐너이거나, 사용자가 직접 파지하여 대상체와의 다양한 각도 및 거리에서 스캔하여 3차원 모델(200)을 획득하는 핸드헬드(handheld) 방식의 스캐너일 수도 있다.
스캐너를 사용하여 획득한 3차원 모델(200)은 환자의 구강 또는 환자의 구강을 본뜬 석고 모형을 나타내므로, 3차원 모델(200)은 치아를 나타내는 치아 영역(210)과 치은을 나타내는 치은 영역(220)을 포함할 수 있다. 치아 영역(210)과 치은 영역(220)은 소정 구별 기준을 통해 영역별로 구별될 수 있으며, 그 구별 과정에 대해서는 후술한다.
도 5는 본 발명에 따른 데이터 처리 방법 중 분석 영역을 구별하는 단계의 세부 순서도이고, 도 6은 치아 영역을 개별 치아 영역으로 구별하기 위해 사용되는 구별 기준을 설명하기 위한 것이다.
도 2 내지 도 5를 참조하면, 본 발명에 따른 데이터 처리 방법은, 획득한 3차원 모델(200)에서 적어도 하나의 치아 영역(210)을 포함하는 분석 영역을 구별하는 단계(S130)를 포함할 수 있다. 분석 영역을 구별하는 단계(S130)는 3차원 모델(200) 중 완성도 판단에 사용되는 적어도 일부의 영역을 3차원 모델(200) 전체로부터 결정하는 것을 의미할 수 있다. 예시적으로, 전술한 분석 영역을 설정하는 단계(S110)에서, 대상체의 치아 전체를 분석 영역(100)으로 설정한 경우, 3차원 모델(200) 중 치아 영역(210)이 분석 영역(100)으로 구별, 및 결정될 수 있다. 예시적으로, 치아 영역(210)은 3차원 모델(200)의 치아 전체 영역을 포함할 수 있다. 즉, 치아 영역(210)은 3차원 모델(200) 중 치은 영역(220)을 제외한 모든 영역을 의미할 수 있다. 예시적으로, 3차원 모델(200) 중 상악을 나타내는 부분과 하악을 나타내는 부분에서 치아 전체를 분석 영역(100)으로 설정한 경우, 3차원 모델(200)에서 상악의 치아 전체를 나타내는 치아 영역(210)과 하악의 치아 전체를 나타내는 치아 영역(210)이 분석 영역(100)으로 결정될 수 있다.
필요에 따라, 분석 영역(200)을 환자의 치아 전체로 설정할 때, 본 발명에 따른 데이터 처리 방법은 구별된 치아 영역(210)과 함께, 상기 치아 영역(210)을 둘러싸는 치은 영역(220) 중 적어도 일부를 분석 영역(200)으로 결정할 수 있다. 예시적으로, 분석 영역(200)은 치아 영역(210)의 주위로 소정 거리 이내의 치은 영역(220) 일부를 포함하도록 결정될 수 있다. 분석 영역(200)이 치은 영역(220) 일부를 포함하도록 결정됨으로써, 치아 자체를 나타내는 부분만 아니라 치아가 존재하는 치은 일부를 포함하여 3차원 모델의 완성도가 판단될 수 있다. 이로써, 사용자는 치아 삭제(preparation) 등으로 인하여 필요한 치아의 마진 라인(margin line)이 정밀하게 스캔되었는지 용이하게 확인할 수 있는 이점이 있다.
이하에서는, 분석 영역을 구별하는 단계(S130)의 세부 단계에 대해 보다 상세히 설명한다.
분석 영역을 구별하는 단계(S130)에서, 3차원 모델(200)은 치아를 나타내는 치아 영역(210)과 치은을 나타내는 치은 영역(220)으로 구별될 수 있다. 즉, 분석 영역을 구별하는 단계(S130)는 3차원 모델에서 치아 영역과 치은 영역을 구별하는 단계(S131)를 포함할 수 있다. 3차원 모델(200)을 치아 영역(210)과 치은 영역(220)으로 구별하기 위해, 소정 구별 정보들 중 적어도 하나가 사용될 수 있다. 상기 구별 정보는 색상 정보 및 굴곡 정보 중 적어도 하나를 포함할 수 있다. 예시적으로, 대상체가 환자의 실제 구강인 경우, 치은은 선홍색 또는 분홍색을 가지고, 치아는 백색 또는 상아색(아이보리색)을 가질 수 있다. 3차원 모델(200)은 복수의 복셀(voxel)로 디스플레이될 수 있고, 각각의 복셀은 상기 3차원 모델(200)이 대상체에 대응되는 위치의 색상 정보를 포함할 수 있다. 구별 정보로 색상 정보가 사용되는 경우, 3차원 모델(200)은 각각의 복셀이 가지는 색상 정보에 따라 치아 영역(210)에 해당하는 영역 또는 치은 영역(220)에 해당하는 영역으로 구별될 수 있다. 다만, 이에 한정되는 것은 아니며, 3차원 모델을 획득하는 단계(S120)에서 대상체의 3차원 모델(200)을 생성하기 위해 획득되는 평면의 2차원 이미지 데이터(미도시)를 기초로 3차원 모델(200)의 치아 영역(210)과 치은 영역(220)이 구별될 수 있다. 예시적으로, 2차원 이미지 데이터는 복수의 픽셀들로 구성되고, 각각의 픽셀은 대상체의 대응되는 위치의 색상 정보를 포함할 수 있다. 상기 각각의 픽셀이 가지는 색상 정보에 따라, 2차원 이미지 데이터가 3차원 모델로 변환되어 생성되는 복셀에 상기 색상 정보가 할당될 수 있으며, 3차원 모델(200)은 치아 영역(210)과 치은 영역(220)으로 구별될 수 있다.
또한, 구별 정보로 굴곡 정보가 사용되는 경우, 3차원 모델(200)의 치아 영역(210)과 치은 영역(220)의 경계에서의 굴곡 값이 3차원 모델(200)의 다른 부분에서의 굴곡 값보다 크다. 따라서, 소정 임계값 이상의 굴곡 값을 가지는 부분을 경계로 하여, 3차원 모델(200)을 치아 영역(210)과 치은 영역(220)으로 구별할 수 있다.
필요에 따라, 대상체를 스캔하여 획득한 3차원 모델(200)에 타액, 연조직(soft tissue)와 같은 노이즈 데이터가 포함되는 경우, 분석 영역을 구별하는 단계(S130)는 치아 영역(210)과 치은 영역(220) 외에 노이즈 영역(미도시)을 추가적으로 구별할 수 있다. 노이즈 영역은 3차원 모델(200)의 판단 기준에서 제외될 수 있고, 따라서 분석 영역(100)으로 결정되지 않는다. 또한, 노이즈 영역은 각각 또는 별도로 선택되어 3차원 모델(200)에서 삭제될 수 있다. 따라서, 3차원 모델(200)의 전체적인 완성도를 향상시킬 수 있다.
도 5 및 도 6을 참조하면, 분석 영역을 구별하는 단계(S130)는 치아 영역을 적어도 하나의 개별 치아 영역으로 구별하는 단계(S132)를 더 포함할 수 있다. 상기 개별 치아 영역으로 구별하는 단계(S132)는 전술한 분석 영역을 설정하는 단계(S110) 치아 영역 전체를 설정하지 않고 일부 치아만을 선택할 경우에 한정하여 수행될 수 있다.
도 6에 도시된 바와 같이, 대상체(O)는 적어도 하나의 치아(T)를 포함하고, 각각의 치아(T)는 고유의 표면 굴곡(C) 정보를 가질 수 있다. 예시적으로, 제1 대구치, 제2 대구치, 제1 소구치, 제2 소구치, 견치, 전치는 서로 다른 표면 굴곡 정보를 가지며, 상기 표면 굴곡 정보는 본 발명에 따른 데이터 처리 방법이 수행되는 데이터 처리 시스템의 데이터베이스부에 기저장될 수 있다. 또한, 상기 표면 굴곡 정보는 딥러닝 기술을 사용하여 각각의 굴곡 정보에 대응되는 치식을 감지할 수 있도록 데이터베이스부에 기저장될 수 있다. 따라서, 치아 영역(210)은 치아(T)의 표면 굴곡(C) 정보를 포함하는 치식 구별 기준에 따라 개별 치아를 나타내는 개별 치아 영역으로 구별될 수 있다.
또한, 치아 영역(210)을 개별 치아 영역으로 구별하기 위한 치식 구별 기준으로 치아의 크기 정보, 치아의 형상 정보 등이 함께 사용될 수 있다. 예시적으로, 제1 대구치는 제1 소구치보다 크고, 제1 소구치는 견치보다 클 수 있다. 이와 같은 치아 간의 크기 관계에 따라, 3차원 모델(200)을 구성하는 치아들의 치식이 구별될 수 있으며, 개별 치아 영역이 결정되어 완성도 판단의 기초로 사용될 수 있다. 한편, 치식을 부여하는 방식은 FDI 방식, Palmer 방식, Universal numbering system 방식 중 어느 하나가 사용될 수 있으나, 나열되지 않은 다른 치식 부여 방식이 사용될 수도 있는 바, 치식 부여 방식의 종류는 제한되지 않는다.
한편, 치아 영역(210)을 개별 치아 영역으로 구별하기 위해, 데이터베이스부에 기저장된 템플릿(template)이 이용될 수 있다. 템플릿은 데이터베이스부에 저장된 표준 치아를 나타내는 데이터로, 상기 템플릿은 치식에 대한 정보를 가지고 있다. 따라서, 3차원 모델(200)과 그 형상이 유사한 템플릿을 매칭함으로써, 치아 영역(210)에 형성된 치아들은 개별 치아 영역으로 구별될 수 있다.
또는, 치아 영역(210)을 개별 치아 영역으로 구별하기 위해, 각각의 치아의 윤곽(또는 경계)에서 나타나는 굴곡 값이 이용될 수 있다. 예시적으로, 개별 치아의 윤곽에서 높은 굴곡 값이 나타나므로, 소정 임계값 이상의 굴곡 값을 가지는 3차원 모델(200)의 부분들을 통해 치식별로 개별 치아 영역을 구별할 수 있다.
전술한 내용과 같이, 개별 치아 영역으로 구별하는 단계(S132)는 3차원 모델(200)에서 치아 영역(210)과 치은 영역(220)이 구별된 이후에 수행될 수도 있으나, 반드시 이에 한정되는 것은 아니다. 즉, 개별 치아 영역으로 구별하는 단계(S132)는 3차원 모델(200)이 치아 영역(210)과 치은 영역(220)으로 구별되는 S131 단계를 생략하고 바로 수행될 수도 있다.
3차원 모델(200)에서 분석 영역(100)이 구별되면, 상기 분석 영역(100)을 기초로 3차원 모델(200)의 완성도를 판단하는 단계(S140)가 수행될 수 있다. 예시적으로, 3차원 모델(200)의 완성도는 상기 3차원 모델(200)이 신뢰할 수 있을 정도의 데이터가 축적된 정도를 나타낼 수 있다.
3차원 모델(200)의 완성도를 판단하기 위한 데이터 신뢰도에 대해 설명한다. 3차원 모델(200)을 생성하기 위해, 복수의 스캔 데이터들이 필요하다. 예시적으로, 스캔 데이터들은 3차원 데이터의 샷(shot)들일 수 있다. 스캔 데이터들 중 적어도 일부는 상호 중첩되며, 스캔 데이터들 중 중첩되는 부분은 대상체의 동일한 부분을 나타낼 수 있다. 따라서, 스캔 데이터들은 중첩되는 부분에 의해 얼라인되어, 스캔 데이터들이 얼라인된 전체는 3차원 모델(200)이 될 수 있다.
한편, 스캔 데이터들이 얼라인될 때, 상대적으로 많은 수의 데이터가 중첩된 부분은 높은 신뢰도를 가질 수 있고, 상대적으로 적은 수의 데이터가 중첩된 부분은 낮은 신뢰도를 가질 수 있다. 또한, 경우에 따라, 3차원 모델(200)이 생성될 때 데이터가 누락된 부분이 존재할 수 있으며, 상기 누락된 부분은 공백으로 남는다.
이 때, 3차원 모델(200)에서 공백으로 남은 영역과 낮은 신뢰도를 가지는 영역을 ‘주의 영역’으로 지칭할 수 있다. 보다 상세하게는, 주의 영역은 3차원 모델(200) 중 스캔 데이터가 입력되지 않은 공백 영역(hollow area), 및 3차원 모델(200) 중 스캔 데이터가 소정 임계밀도 미만으로 입력된 저밀도 영역(low-density area) 중 적어도 하나의 유형을 포함할 수 있다.
이하에서는, 주의 영역 중 공백 영역에 대해 보다 상세히 설명한다.
도 7은 주의 영역 중 공백 영역(B)을 감지하는 일 과정을 설명하기 위해 3차원 모델(200)과 템플릿(300)을 간략하게 표시한 것이다.
도 7을 참조하면, 공백 영역(B)은 3차원 모델(200)과 템플릿(300)을 이용하여 감지될 수 있다. 예시적으로, 3차원 모델(200)은 데이터베이스부에 저장된 템플릿(300)과 얼라인될 수 있다. 템플릿(300)은 대상체(O)의 표준적인 형상을 나타내며, 템플릿(300)은 이론적으로 주의 영역이 존재하지 않는 모델일 수 있다. 한편, 대상체(O)를 스캔하여 획득한 3차원 모델(200)은 템플릿(300)에 정렬되고, 템플릿(300)의 표면으로부터 적어도 하나의 광선이 생성된다. 예시적으로, 템플릿(300)의 표면으로부터 생성되는 광선은 복수일 수 있다. 보다 상세하게는, 광선들은 템플릿(300)의 표면을 구성하는 모든 메쉬의 꼭지점으로부터 생성될 수 있다. 생성된 광선들은 템플릿(300)의 표면의 법선 방향으로 진행하며, 상기 광선들 중 적어도 일부는 3차원 모델(200)의 표면과 만날 수 있다. 광선들은 템플릿(300)의 표면으로부터 양방향으로 진행하거나, 템플릿(300)으로부터 3차원 모델(200)을 향하는 일방향으로 진행할 수 있다. 이 때, 광선들 중 3차원 모델(200)의 표면과 만나지 않고 통과되는 부분들이 존재할 수 있으며, 이러한 부분들은 데이터가 입력되지 않은 부분들에 해당한다(도 7에서 빗금친 부분으로 표시됨). 따라서, 광선들이 3차원 모델(200)의 표면과 만나지 않고 통과되는 부분들은 공백 영역(B)으로 정의할 수 있다. 이와 같이 공백 영역(B)을 감지하기 위해 광선을 생성하고, 3차원 모델과 템플릿의 광선 교차 여부를 확인하는 과정을 교차 검사(intersection test)라고 한다.
예시적으로 도 7에 도시된 바에 따르면, 제1 3차원 모델 표면(201)과 제2 3차원 모델 표면(202) 사이에 제1 공백 영역(B1)이 감지되고, 제2 3차원 모델 표면(202)과 제3 3차원 모델 표면(203) 사이에 제2 공백 영역(B2)이 감지되며, 제3 3차원 모델 표면(203)과 제4 3차원 모델 표면(204) 사이에 제3 공백 영역(B3)이 감지될 수 있다. 한편, 템플릿(300)의 표면으로부터 생성되는 광선의 수는 시스템의 사양, 데이터 처리 방법의 목표 수행 시간 등을 종합적으로 고려하여 적절한 수로 조절될 수 있으며, 사용자는 보다 정밀한 공백 영역(B)을 감지하기 위해서 생성되는 광선의 수를 증가시킬 수 있다.
이하에서는, 주의 영역 중 공백 영역을 감지하는 다른 방식에 대해 보다 상세히 설명한다.
도 8은 주의 영역 중 공백 영역(B)을 감지하는 다른 과정을 설명하기 위한 것이다.
도 8을 참조하면, 샘플 3차원 모델(M’)은 스캔 데이터들이 가지는 복수의 지점들(P)의 집합인 포인트 클라우드(point cloud)를 통해 생성될 수 있으며, 상기 지점(P)들은 다각형의 메쉬 구조를 형성할 수 있다. 예시적으로, 상기 메쉬 구조는 삼각형 밀집 구조일 수 있다. 이 때, 지점(P)들 간 메쉬가 형성되지 않은 부분은 데이터가 입력되지 않은 것으로 판단될 수 있다.
보다 상세하게는, 샘플 3차원 모델(M’)에서 메쉬 구조를 형성한 지점(P)들을 외곽에서 연결하는 외부 루프(outer loop)가 형성될 수 있다. 상기 외부 루프는 샘플 3차원 모델(M’)의 윤곽을 표현할 수 있다.
한편, 도 8의 X 부분의 확대도를 참조하면, 샘플 3차원 모델(M’)은 폐루프 지점(P’)들을 더 포함할 수 있고, 상기 폐루프 지점(P’)들을 기초로 샘플 3차원 모델(M’)의 내부에서 메쉬들에 의해 폐쇄된 영역이 생성될 수 있다. 즉, 상기 폐루프 지점(P’)들이 연결되어 내부 루프(inner loop)가 형성될 수 있고, 상기 내부 루프(inner loop)는 메쉬들에 의해 외부와 이격된 폐루프(closed loop, L)를 형성한다. 이 때, 상기 폐루프(L)의 내부는 데이터가 입력되지 않은 공간이며, 상기 폐루프(L) 내부(내부 폐루프 영역)는 공백 영역(B)으로 감지될 수 있다.
이하에서는, 주의 영역 중 저밀도 영역에 대해 보다 상세히 설명한다.
저밀도 영역은, 임의의 영역에서 임계 스캔 데이터 수 미만의 스캔 데이터가 축적된 경우를 의미할 수 있다. 저밀도 영역은 축적된 스캔 데이터의 샷 수에 따라 제1 저밀도 영역, 제2 저밀도 영역으로 구별될 수도 있으나, 반드시 이에 한정되는 것은 아니다. 또한, 저밀도 영역은 반드시 2개의 그룹으로 분류되지 않을 수 있으며, 하나, 또는 3 이상의 저밀도 영역 그룹으로 분류될 수도 있다.
선택적으로, 저밀도 영역은 스캔 데이터 수 및 추가적으로 획득된 스캔 데이터들 간의 스캔 각도 중 적어도 하나를 기준으로 계산될 수 있다. 예시적으로, 스캔 데이터를 획득하는 과정에서, 자동적으로 스캐너의 위치정보와 스캔 각도가 획득될 수 있다. 이 때, 실시간으로 2 이상의 스캔 데이터가 수집되면, 각각의 스캔 데이터 간의 관계를 도출한다. 스캔 데이터 간의 관계를 도출하기 위해, 하나의 스캔 데이터에서 복수의 정점들을 추출하고, 다른 스캔 데이터에서 복수의 정점들과 대응되는 복수의 대응점들을 계산하여, 하나의 스캔 데이터를 기준으로 다른 스캔 데이터에 대한 이동 함수를 계산하고, 각도 변경 및 이동되어 데이터 정렬이 수행된다. 이 때, 하나의 스캔 데이터를 기준으로 다른 스캔 데이터의 상대적인 위치(위치정보)와 스캔 각도(각도정보)를 획득할 수 있다. 획득된 위치와 스캔 각도에 따라, 복셀에 스캔 데이터가 축적될 수 있다.
예시적으로, 임의의 복셀은 제1 각도범위 내지 제3 각도범위를 가지고, 각각의 각도범위 당 최대 100개의 스캔 데이터가 축적될 수 있다. 이 때, 하나의 복셀에는 최대 300개의 스캔 데이터가 축적될 수 있으며, 300개의 스캔 데이터가 축적되었을 때 상기 복셀은 완성도를 만족하는 밀도를 가지는 것으로 판단될 수 있다.
즉, 대상체의 동일한 부분을 스캔하더라도 상기 부분을 다각도로 스캔하여 3차원 모델의 신뢰도를 향상시킬 수 있으며, 불충분한 양의 스캔 데이터가 축적된 복셀은 저밀도 영역으로 감지될 수 있다.
완성도를 판단하는 단계(S140)는 전술한 분석 영역(100) 전체에 존재하는 주의 영역의 비율을 기초로 3차원 모델(200)의 완성도를 판단할 수 있다. 예시적으로, 완성도를 판단하는 단계(S140)는 전체 분석 영역(100) 대비 주의 영역의 면적 또는 부피가 소정 비율 미만인 경우 3차원 모델(200)을 완성 상태로 판단할 수 있다. 이 때, 소정 비율의 값은 분석 영역(100)이 충분한 신뢰도를 가질 수 있는 정도의 임계값으로 설정될 수 있다.
또한, 경우에 따라, 완성도를 판단하는 단계(S140)는 3차원 모델(200)에서의 분석 영역(100)이 개별 치아 영역 별로 구별된 경우, 개별 치아 영역 별로 상이한 임계값을 기초로 완성도를 판단할 수 있다. 예시적으로, 전치에 대응되는 분석 영역(100)의 일부분은 대구치에 대응되는 분석 영역(100)의 다른 부분보다 더 낮은 주의 영역 비율을 가지는 경우에만 완성 상태로 판단될 수 있다. 이와 같이, 개별 치아 영역 별로 완성도 판단을 위한 상이한 임계값을 적용함으로써, 대상체의 전체적인 완성도를 향상시킬 수 있고, 사용자의 스캔 속도를 향상시킬 수 있으며, 환자에게 최적의 치료를 제공하는 이점이 있다.
또한, 다른 경우에 따라, 완성도를 판단하는 단계(S140)는 3차원 모델(200)에서의 분석 영역(100)을 보다 세분화하여 완성도를 판단할 수 있다. 예시적으로, 분석 영역을 설정하는 단계(S110)에서, 완성도를 판단하기 위한 소정 임계값을 가지는 제1 분석 영역과, 상기 제1 분석 영역보다 작은 임계값을 가지는 제2 분석 영역이 설정될 수 있다. 즉, 제2 분석 영역은 제1 분석 영역보다 더욱 정밀한 스캔이 필요한 영역으로 설정될 수 있으며, 제2 분석 영역을 설정하는 과정은 사용자의 선택에 따라 이루어질 수 있다. 예시적으로, 개별 치아 영역 중 치료가 필요한 관심 치아가 제2 분석 영역으로 설정될 수 있다. 이에 따라, 제2 분석 영역은 제1 분석 영역보다 낮은 주의 영역 비율을 가지는 경우에만 완성 상태로 판단될 수 있으며, 치료가 필요한 관심 치아가 더욱 정밀하게 스캔되도록 사용자를 유도하는 이점이 있다.
한편, 상기 완성도를 판단하는 단계(S140)는 실시간으로 생성되는 3차원 모델(200)의 복셀에 대해 수행될 수도 있고, 스캔이 완료된 후 사용자가 임의의 버튼을 클릭하는 등의 동작에 의해 수행될 수도 있다.
도 9는 본 발명에 따른 데이터 처리 방법 중 완성도를 판단한 결과에 기초하여 피드백을 발생시키는 단계(S150)를 설명하기 위한 것이다.
도 9를 참조하면, 예시적으로 피드백을 발생시키는 단계(S150)는 3차원 모델(200)의 분석 영역(100)이 충분한 신뢰도를 가져 3차원 모델(200)이 완성되었다는 것을 표시할 수 있다. 도 9에 도시된 바에 따르면, 유저 인터페이스 화면(600)에 3차원 모델(200)과 상기 3차원 모델(200)에 적용된 분석 영역(100)이 표시되고, 유저 인터페이스 화면(600)의 일측에 피드백 수단(700)이 표시될 수 있다. 예시적으로, 피드백 수단(700)은 완성도 표시 수단(710)일 수 있으며, 완성도 표시 수단(710)은 ‘치아 영역: PASS’와 같은 메시지를 디스플레이하여 3차원 모델(200)의 완성 여부를 나타낼 수 있다. 그러나, 반드시 이에 한정되는 것은 아니며, 3차원 모델(200)의 완성도를 2 이상의 상태(예를 들면, 완성 상태, 충분 상태, 불충분 상태)로 나타낼 수도 있고, 완성도를 퍼센트(%)와 같은 수치로 나타낼 수도 있으며, 유저 인터페이스 화면(600) 상에 별도의 로딩 바(loading bar)가 표시되어 상기 완성도를 로딩 바의 그래픽 변화로 표현할 수도 있다.
이와 같이 피드백 수단(700)을 통해 사용자는 종래의 신뢰도 색상이 3차원 모델(200) 상에 표시되는 신뢰도 맵을 이용하지 않더라도, 3차원 모델(200)의 완성 여부를 용이하게 확인할 수 있다.
또한, 피드백 수단은 유저 인터페이스 화면(600)에 표시되는 것 이외에도 스캐너에 내장된 광 프로젝터에 의해 조사되는 광 색상 및/또는 광 패턴일 수 있다. 예시적으로, 완성도를 판단하는 단계(S140)에서 3차원 모델(200)이 완성 상태로 판단된 경우, 광 프로젝터는 스캐너가 지향하는 표면에 녹색 광을 조사할 수 있다. 반대로, 3차원 모델(200)이 완성 상태에 도달하지 못한 것으로 판단된 경우, 광 프로젝터는 스캐너가 지향하는 표면에 적색 광을 조사할 수 있다. 다른 예시로, 완성도를 판단하는 단계(S140)에서 3차원 모델(200)이 완성 상태로 판단된 경우, 광 프로젝터는 스캐너가 지향하는 표면에 ‘O’ 패턴을 조사할 수 있다. 반대로, 3차원 모델(200)이 완성 상태에 도달하지 못한 것으로 판단된 경우, 광 프로젝터는 스캐너가 지향하는 표면에 ‘X’ 패턴을 조사할 수 있다. 이와 같이 스캐너에 내장된 광 프로젝터를 사용하여 사용자에게 피드백하는 경우, 사용자는 유저 인터페이스 화면(600)이 표시되는 디스플레이 장치를 주시하지 않더라도 3차원 모델(200)의 완성 상태를 용이하게 파악할 수 있는 이점이 있다.
도 10은 사용자에게 피드백되는 주의 영역을 설명하기 위한 것이다.
도 10을 참조하면, 사용자는 추가적으로 주의 영역에 대한 피드백을 받을 수 있다. 예시적으로, 유저 인터페이스 화면(600) 상에서, 3차원 모델(200)의 분석 영역(100)에서 공백 영역과 저밀도 영역은 주의 영역 표시 수단(720)을 통해 시각적으로 표시될 수 있다. 주의 영역 표시 수단(720)은 소정 기호일 수 있으나, 이에 한정되는 것은 아니며, 주의 영역에 대해 가상의 스캐너 형상을 표시할 수도 있다. 또한, 주의 영역 표시 수단(720)은 공백 영역과 저밀도 영역이 구별되어 서로 다른 형태로 표시되도록 할 수도 있다. 주의 영역 표시 수단(720)을 통해 주의 영역이 사용자에게 피드백 됨으로써, 사용자는 용이하게 3차원 모델(200) 중 추가적인 스캔이 필요한 부분을 확인할 수 있고, 주의 영역을 추가로 스캔하여 3차원 모델(200)의 완성도를 신속하게 향상시킬 수 있는 이점이 있다.
이하에서는 본 발명의 다른 실시예에 따른 데이터 처리 방법에 대해 설명한다. 본 발명의 다른 실시예에 따른 데이터 처리 방법을 설명함에 있어, 전술한 내용과 중복되는 내용은 간략히 언급하거나 생략한다.
도 11은 본 발명의 다른 실시예에 따른 데이터 처리 방법의 순서도이다.
도 11을 참조하면, 본 발명의 다른 실시예에 따른 데이터 처리 방법은, 3차원 모델을 획득하는 단계(S210)를 포함한다. 분석 영역을 설정하기 이전에 3차원 모델을 획득할 수 있으며, 이에 따라 3차원 모델의 형상을 먼저 유저 인터페이스 화면을 통해 확인한 후 분석이 필요한 부분을 설정할 수 있다.
도 12는 분석 영역을 설정하는 과정을 설명하기 위한 것이다.
도 3, 도 11 및 도 12를 참조하면, 본 발명의 다른 실시예에 따른 데이터 처리 방법은 3차원 모델(200)을 획득한 이후, 획득한 3차원 모델(200)에서 분석 영역을 설정하는 단계(S220)를 포함할 수 있다. 분석 영역을 설정하는 단계(S220)는 도 3에 도시된 바와 같이 유저 인터페이스 화면(600)에서 사용자가 분석 대상으로 설정하고자 하는 치아를 선택하는 것일 수 있다. 한편, 본 발명의 다른 실시예에 따른 데이터 처리 방법은 이미 3차원 모델을 획득하였으므로, 3차원 모델 상에 직접적으로 분석 영역을 지정할 수도 있다. 예시적으로, 본 발명의 다른 실시예에 따른 데이터 처리 방법은, 3차원 모델 상에서 분석 영역을 입력받을 수 있으며, 상기 분석 영역은 브러쉬 선택 도구 또는 다각형 선택 도구 등을 통해 설정될 수 있다. 도 12에 도시된 바와 같이, 사용자는 다각형 선택 도구를 사용하여 제1 분석 영역(111), 제2 분석 영역(112), 제3 분석 영역(113), 및 제4 분석 영역(114)이 선택될 수 있다. 한편, 상기 분석 영역들(111, 112, 113, 114)는 중첩되는 영역들이 병합될 수도 있다.
또한, 분석 영역(100)을 설정하기 위한 소정 항목들이 디스플레이될 수도 있다. 예시적으로, 사용자는 ‘치아 영역 전체’, ‘특정 치아 선택’ 등 유저 인터페이스 화면 상에 표시되는 항목들 중 어느 하나를 선택하여 분석 영역(100)을 설정할 수 있다. 예시적으로 나열한 내용 이외에도, 분석 영역(100)을 설정하는 과정은 특별히 제한되지 않는다. 분석 영역(100)을 설정하는 세부적인 내용은 S110 단계에서 전술한 내용을 공유한다.
또한, 본 발명의 다른 실시예에 따른 데이터 처리 방법은 분석 영역을 설정하는 단계(S220) 이후에 3차원 모델(200)에서 분석 영역을 구별하는 단계(S230)를 포함할 수 있다. 즉, 본 발명의 다른 실시예에 따른 데이터 처리 방법은, 분석 영역을 구별하는 단계(S230) 이전에 3차원 모델을 획득하는 단계(S210), 및 분석 영역을 설정하는 단계(S220)를 포함할 수 있다. 분석 영역을 구별하는 단계(S230)는 사용자가 유저 인터페이스 화면에 마련된 선택 도구를 이용하여 설정한 분석 영역을 구별하는 것이거나, 전술한 바와 같은 소정 항목들 중 어느 하나를 선택함으로써 3차원 모델(200)에서 분석 영역(100)을 구별하는 것일 수 있다. 분석 영역을 구별하는 단계(S230)에 대한 보다 상세한 설명은 전술한 S130 단계의 내용을 공유한다.
이하, 본 발명의 다른 실시예에 따른 데이터 처리 방법은 구별된 분석 영역(100)을 기초로 3차원 모델(200)의 완성도를 판단하는 단계(S240)와, 3차원 모델(200)의 분석 영역(100)의 완성도 판단 결과에 기초하여 피드백을 발생시키는 단계(S250)를 더 포함할 수 있다. 완성도를 판단하는 단계(S240)는 S140 단계에서 전술한 내용을 공유하고, 피드백을 발생시키는 단계(S250)는 S150 단계에서 전술한 내용을 공유한다.
이상 설명한 내용에 따라, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 사용자는 충분한 신뢰도를 가지는 3차원 모델을 용이하게 획득할 수 있는 이점이 있다.
또한, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 3차원 모델 전체가 아닌 분석 영역에 대해 완성도를 판단하므로, 데이터 처리 시간을 단축시키는 이점이 있다.
또한, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 사용자는 자의적인 판단에 의하지 않고 정확히 계산되어 판단된 결과에 기초하여, 3차원 모델이 신뢰할 수 있을 정도의 완성도를 가졌는지 용이하게 확인할 수 있는 이점이 있다.
또한, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 개별 치아 영역 별로 상이한 완성도 판단 임계값이 적용되어, 보다 중요한 치아에 대해 정밀하게 스캔하여 3차원 모델을 획득할 수 있는 이점이 있다.
또한, 본 발명에 따른 데이터 처리 방법을 사용함으로써, 사용자는 주의 영역으로 감지된 3차원 모델의 부분들을 시각적으로 용이하게 확인할 수 있으며, 주의 영역을 최소화하기 위한 추가적인 스캔을 진행할 때 소요되는 시간과 노력을 절약하는 이점이 있다.
또한, 본 발명의 다른 실시예에 따른 데이터 처리 방법을 사용하면, 본 발명에 따른 데이터 처리 방법의 이점을 공유하고, 3차원 모델 상에 직접 분석 영역을 세밀하게 설정할 수 있으므로, 사용자가 분석에 필요한 부분만 정밀하게 분석 영역으로 설정 및 구별할 수 있는 이점이 있다.
이하에서는, 전술한 본 발명의 일 실시예에 따른 데이터 처리 방법 및/또는 본 발명의 다른 실시예에 따른 데이터 처리 방법을 수행하는 데이터 처리 장치에 대해 설명한다. 본 발명에 따른 데이터 처리 장치를 설명함에 있어서, 중복되는 내용은 간략하게 설명하거나 설명을 생략한다.
도 13은 본 발명에 따른 데이터 처리 방법을 수행하는 데이터 처리 장치(900)의 개략적인 구성도이다.
도 13을 참조하면, 본 발명에 따른 데이터 처리 장치(900)는 스캔부(910), 제어부(920), 및 디스플레이부(930)를 포함한다.
스캔부(910)는 대상체를 스캔하여 상기 대상체의 화상(image)를 획득할 수 있다. 대상체는 환자의 치아를 나타내는 것일 수 있다. 스캔부(910)는 전술한 데이터 처리 방법에서 3차원 모델을 획득하는 단계의 적어도 일부 과정을 수행할 수 있다. 스캔부(910)는 전술한 스캐너(예를 들면, 3차원 스캐너)일 수 있다.
이하에서는 제어부(920)의 세부 구성에 대해 설명한다.
제어부(920)는 스캔부(910)로부터 획득된 대상체의 화상을 기초로 3차원 모델을 생성하고, 3차원 모델 중 상기 3차원 모델의 완성도를 판단하여 사용자에게 피드백할 수 있다. 예시적으로, 제어부(920)는 데이터 연산 처리를 위한 마이크로프로세서(microprocessor)를 포함할 수 있다.
제어부(920)는 데이터베이스부(921)를 포함할 수 있다. 스캔부(910)가 획득한 대상체의 화상 및 특성정보(신뢰도, 스캔각도, 위치 등), 후술하는 3차원 모델링부(922)로부터 생성된 대상체의 3차원 모델, 분석 영역을 설정할 때 사용되는 표준 구강 형상, 스캔 데이터들을 중첩, 정렬하기 위한 정렬 알고리즘, 3차원 모델의 완성도 판단 알고리즘, 주의 영역을 판단하기 위한 기준, 피드백 발생을 위한 기준 등이 데이터베이스부(921)에 저장될 수 있다. 데이터베이스부(921)는 알려진 데이터 저장 수단이 사용될 수 있으며, SSD(Solid State Drive), HDD(Hard Disk Drive)를 포함한 알려진 저장 수단들 중 적어도 하나일 수 있다. 또한, 데이터베이스부(921)는 가상의 클라우드 저장 수단일 수도 있다.
제어부(920)는 3차원 모델링부(922)를 포함할 수 있다. 3차원 모델링부(922)는 스캔부(910)로부터 획득한 대상체의 2차원 화상을 3차원으로 모델링할 수 있다. 한편, 3차원 모델링부(922)는 데이터베이스부(921)에 저장된 정렬 알고리즘에 따라 3차원 모델링된 스캔 데이터들(보다 상세하게는, 3차원 데이터 샷들)을 정렬할 수 있으며, 상기 스캔 데이터들의 정렬 및 머징(merging)을 통해 대상체를 나타내는 3차원 모델을 생성할 수 있다.
또한, 제어부(920)는 분석 영역 설정부(923)를 더 포함할 수 있다. 분석 영역 설정부(923)는 3차원 모델에서 완성도를 판단할 분석 영역을 설정할 수 있다. 이 때, 분석 영역 설정부(923)는 3차원 모델이 획득되기 이전에 표준 구강 형상에서 분석 영역을 설정하여, 이후에 획득되는 3차원 모델에 상기 분석 영역을 적용할 수도 있고, 3차원 모델을 획득한 이후 상기 3차원 모델에 바로 분석 영역을 적용할 수도 있다.
또한, 제어부(920)는 완성도 판단부(924)를 포함할 수 있다. 완성도 판단부(924)는 획득된 3차원 모델의 분석 영역에서, 전체 분석 영역 대비 주의 영역의 비율이 소정 임계값 이하일 경우 상기 3차원 모델이 완성되었다고 판단할 수 있다. 주의 영역은 공백 영역과 저밀도 영역을 포함하는 것일 수 있다. 한편, 완성도 판단부(924)는 개별 치아 영역 별로 상이한 완성도 판단 임계값을 적용할 수 있으며, 관련된 설명은 전술한 바와 동일하다.
또한, 제어부(920)는 피드백 발생부(925)를 더 포함할 수 있다. 피드백 발생부(925)는 완성도 판단부(924)의 완성도 판단 결과에 기초하여 사용자에게 상기 완성도 판단 결과를 피드백할 수 있다. 이 때, 완성도 판단 결과는 ‘치아 영역: PASS’와 같은 메시지를 포함하는 완성도 표시 수단, 완성도 퍼센트, 로딩 바와 같은 다양한 형태들 중 적어도 하나로 표현될 수 있다.
피드백 발생부(925)는 3차원 모델 상에 주의 영역을 표시할 수도 있으며, 피드백 발생부(925)는 소정 기호 또는 가상의 스캐너 형상을 통해 주의 영역을 사용자에게 피드백할 수 있다. 이와 같이, 피드백 발생부(925)는 사용자가 주의 영역을 용이하게 확인할 수 있도록 하며, 사용자는 주의 영역을 추가로 스캔하여 3차원 모델의 완성도를 신속하게 향상시킬 수 있다.
한편, 본 발명에 따른 데이터 처리 장치(900)는 디스플레이부(930)를 포함할 수 있다. 디스플레이부(930)는 스캔부(910)에 의해 획득되는 대상체의 화상, 제어부(920)에 의해 수행되는 일련의 과정들 중 적어도 일부를 시각적으로 표시할 수 있다. 디스플레이부(930)는 사용자에게 데이터 처리 과정을 표시하기 위해, 알려진 디바이스가 사용될 수 있다. 예시적으로, 디스플레이부(930)는 모니터, 태블릿과 같은 시각적 표시장치 중 어느 하나일 수 있다. 사용자는 디스플레이부(930)에 표시되는 데이터 처리 과정을 확인하여, 3차원 모델이 분석 영역에서 충분한 완성도를 가지도록 획득되었는지, 주의 영역의 위치는 어디인지와 같은 다양한 정보들을 용이하게 획득할 수 있다.
이상의 설명에 따라, 본 발명의 일 실시예에 따른 데이터 처리 방법, 및 본 발명의 다른 실시예에 따른 데이터 처리 방법을 수행하는 데이터 처리 장치를 사용함으로써, 사용자는 전술한 데이터 처리 방법을 실시함으로써 얻어지는 이점들을 함께 가진다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
S110: 분석 영역을 설정하는 단계
S120: 3차원 모델을 획득하는 단계
S130: 분석 영역을 구별하는 단계
S140: 완성도를 판단하는 단계
S150: 피드백을 발생시키는 단계
100: 분석 영역 200: 3차원 모델
300: 템플릿 600: 유저 인터페이스 화면
700: 피드백 수단 710: 완성도 표시 수단
720: 주의 영역 표시 수단
900: 데이터 처리 장치

Claims (15)

  1. 3차원 모델에서, 적어도 하나의 치아 영역을 포함하는 분석 영역을 구별하는 단계; 및
    상기 분석 영역을 기초로 상기 3차원 모델의 완성도를 판단하는 단계; 를 포함하는 것을 특징으로 하는 데이터 처리 방법.
  2. 청구항 1에 있어서,
    상기 분석 영역을 구별하는 단계 이전에,
    상기 분석 영역을 설정하는 단계; 및
    상기 분석 영역을 설정한 이후 상기 3차원 모델을 획득하는 단계; 를 더 포함하는 것을 특징으로 하는 데이터 처리 방법.
  3. 청구항 1에 있어서,
    상기 분석 영역을 구별하는 단계 이전에,
    상기 3차원 모델을 획득하는 단계; 및
    획득한 상기 3차원 모델에서 상기 분석 영역을 설정하는 단계; 를 더 포함하는 것을 특징으로 하는 데이터 처리 방법.
  4. 청구항 1에 있어서,
    상기 치아 영역은 상기 3차원 모델의 치아 전체 영역을 포함하는 것을 특징으로 하는 데이터 처리 방법.
  5. 청구항 1에 있어서,
    상기 3차원 모델은 색상 정보 및 굴곡 정보 중 적어도 하나를 통해 치아를 나타내는 상기 치아 영역과 치은을 나타내는 치은 영역으로 구별되는 것을 특징으로 하는 데이터 처리 방법.
  6. 청구항 1에 있어서,
    상기 분석 영역을 구별하는 단계는,
    치아의 표면 굴곡 정보를 포함하는 치식 구별 기준에 따라 상기 치아 영역을 개별 치아로 나타내는 개별 치아 영역으로 구별하는 것을 특징으로 하는 데이터 처리 방법.
  7. 청구항 6에 있어서,
    상기 치식 구별 기준은 상기 치아의 크기 정보 및 형상 정보 중 적어도 하나를 더 포함하는 것을 특징으로 하는 데이터 처리 방법.
  8. 청구항 1에 있어서,
    상기 완성도를 판단하는 단계는,
    상기 분석 영역 대비 주의 영역의 면적 또는 부피가 소정 비율 미만인 경우 상기 3차원 모델을 완성 상태로 판단하는 것을 특징으로 하는 데이터 처리 방법.
  9. 청구항 8에 있어서,
    상기 주의 영역은
    상기 3차원 모델 중 스캔 데이터가 입력되지 않은 공백 영역, 및
    상기 3차원 모델 중 스캔 데이터가 소정 임계밀도 미만으로 입력된 저밀도 영역 중 적어도 하나를 포함하는 것을 특징으로 하는 데이터 처리 방법.
  10. 청구항 8에 있어서,
    상기 완성도를 판단하는 단계는,
    상기 3차원 모델의 개별 치아 영역 별로 상이한 임계값을 기초로 상기 완성도를 판단하는 것을 특징으로 하는 데이터 처리 방법.
  11. 청구항 9에 있어서,
    상기 공백 영역은,
    상기 3차원 모델을 기저장된 템플릿에 얼라인하고, 상기 템플릿의 표면으로부터 생성되는 적어도 하나의 광선을 통한 교차 검사(intersection test)를 이용하여 감지된 홀 영역을 포함하는 것을 특징으로 하는 데이터 처리 방법.
  12. 청구항 9에 있어서,
    상기 공백 영역은,
    상기 3차원 모델을 구성하는 스캔 데이터들의 경계에 의해 생성되는 내부 폐루프 영역을 포함하는 것을 특징으로 하는 데이터 처리 방법.
  13. 청구항 9에 있어서,
    상기 저밀도 영역은,
    획득된 스캔 데이터의 수 및 상기 스캔 데이터들 간의 스캔 각도 중 적어도 하나를 기준으로 계산되는 것을 특징으로 하는 데이터 처리 방법.
  14. 청구항 1에 있어서,
    상기 3차원 모델의 완성도 판단 결과에 기초하여 사용자에게 피드백을 발생시키는 단계; 를 더 포함하는 것을 특징으로 하는 데이터 처리 방법.
  15. 청구항 8에 있어서,
    상기 주의 영역은 사용자에게 피드백되는 것을 특징으로 하는 데이터 처리 방법.
KR1020210137277A 2020-11-05 2021-10-15 데이터 처리 방법 KR102632338B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2021/015667 WO2022098039A1 (ko) 2020-11-05 2021-11-02 데이터 처리 방법
US18/035,461 US20230290093A1 (en) 2020-11-05 2021-11-02 Data processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200146535 2020-11-05
KR1020200146535 2020-11-05

Publications (2)

Publication Number Publication Date
KR20220061001A true KR20220061001A (ko) 2022-05-12
KR102632338B1 KR102632338B1 (ko) 2024-02-01

Family

ID=81590431

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210137277A KR102632338B1 (ko) 2020-11-05 2021-10-15 데이터 처리 방법

Country Status (1)

Country Link
KR (1) KR102632338B1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040027347A1 (en) * 2002-06-12 2004-02-12 Ali Farsaie Discrete linear space sampling method and apparatus for generating digital 3D models
KR101295610B1 (ko) * 2012-11-02 2013-08-12 주식회사 리얼오쏘 치아 데이터 컬러링 장치
US20150150684A1 (en) * 2012-06-05 2015-06-04 Dental Vision B.V.B.A. Method for manufacturing a template to adapt the shape of a bone defect in a jaw to a bone superstructure
KR20170020210A (ko) 2015-08-14 2017-02-22 삼성전자주식회사 오브젝트의 3차원 모델을 구성하는 방법 및 장치
KR101915215B1 (ko) * 2014-05-07 2018-11-06 얼라인 테크널러지, 인크. 구강내 스캔 중 관심 구역의 식별

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040027347A1 (en) * 2002-06-12 2004-02-12 Ali Farsaie Discrete linear space sampling method and apparatus for generating digital 3D models
US20150150684A1 (en) * 2012-06-05 2015-06-04 Dental Vision B.V.B.A. Method for manufacturing a template to adapt the shape of a bone defect in a jaw to a bone superstructure
KR101295610B1 (ko) * 2012-11-02 2013-08-12 주식회사 리얼오쏘 치아 데이터 컬러링 장치
KR101915215B1 (ko) * 2014-05-07 2018-11-06 얼라인 테크널러지, 인크. 구강내 스캔 중 관심 구역의 식별
KR20170020210A (ko) 2015-08-14 2017-02-22 삼성전자주식회사 오브젝트의 3차원 모델을 구성하는 방법 및 장치

Also Published As

Publication number Publication date
KR102632338B1 (ko) 2024-02-01

Similar Documents

Publication Publication Date Title
US11723759B2 (en) Detecting tooth shade
US7840042B2 (en) Superposition for visualization of three-dimensional data acquisition
EP4309618A2 (en) Historical scan reference for intraoral scans
US11961238B2 (en) Tooth segmentation using tooth registration
US20220249202A1 (en) Multiple bone density displaying method for establishing implant procedure plan, and image processing device therefor
US9380986B2 (en) Dental surface models
KR102632338B1 (ko) 데이터 처리 방법
KR102534778B1 (ko) 3차원 데이터 획득 방법, 장치 및 그 방법을 수행하는 프로그램이 저장된 컴퓨터 판독 가능 저장 매체
US20230390032A1 (en) Method for determining object area from three-dimensional model, and three-dimensional model processing device
US20230290093A1 (en) Data processing method
JP7245335B2 (ja) 口腔内スキャナを使用して3dデータを取得する混合方法
US20230218374A1 (en) Data processing apparatus, data processing method, and data processing system
US20230218375A1 (en) Data processing apparatus, data processing method, and data processing system
KR102474298B1 (ko) 보철물 모델 설계 방법 및 그 장치
US20240058105A1 (en) Augmentation of 3d surface of dental site using 2d images
EP4095808A1 (en) Method and system for interactively rendering digital dental models
EP4113373A1 (en) Dental procedures
Pupykina et al. Algorithm for the boundary detection of dental crowns for 3D dental model segmentation
CN115438017A (zh) 数据处理方法
KR20220129476A (ko) 데이터 처리 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant