KR102372962B1 - 자연 두부 위치에서 촬영된 3차원 cbct 영상에서 기계 학습 기반 치아 교정 진단을 위한 두부 계측 파라미터 도출방법 - Google Patents

자연 두부 위치에서 촬영된 3차원 cbct 영상에서 기계 학습 기반 치아 교정 진단을 위한 두부 계측 파라미터 도출방법 Download PDF

Info

Publication number
KR102372962B1
KR102372962B1 KR1020210102733A KR20210102733A KR102372962B1 KR 102372962 B1 KR102372962 B1 KR 102372962B1 KR 1020210102733 A KR1020210102733 A KR 1020210102733A KR 20210102733 A KR20210102733 A KR 20210102733A KR 102372962 B1 KR102372962 B1 KR 102372962B1
Authority
KR
South Korea
Prior art keywords
point
image
parameters
head
machine learning
Prior art date
Application number
KR1020210102733A
Other languages
English (en)
Other versions
KR102372962B9 (ko
Inventor
안장훈
Original Assignee
(주)아인사이트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)아인사이트 filed Critical (주)아인사이트
Priority to KR1020210102733A priority Critical patent/KR102372962B1/ko
Priority to PCT/KR2021/011012 priority patent/WO2023013805A1/ko
Priority to CN202180101157.1A priority patent/CN117769391A/zh
Application granted granted Critical
Publication of KR102372962B1 publication Critical patent/KR102372962B1/ko
Publication of KR102372962B9 publication Critical patent/KR102372962B9/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • A61C7/002Orthodontic computer assisted systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6814Head
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/501Clinical applications involving diagnosis of head, e.g. neuroimaging, craniography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders

Abstract

본 발명은 기계 학습 기반 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법에 관한 것이다. 보다 상세하게, 본 발명은 기계 학습 알고리즘을 적용하여 자연 두부 위치에서 촬영된 콘빔 컴퓨터 단층 촬영(CBCT) 영상 데이터로부터 피검자 두부 계측 이미지를 획득하고, 치아 교정 정밀 진단을 위한 13개의 진단 파라미터를 도출하기 위하여 상기 두부 계측 이미지 상에서 복수 개의 계측점을 정밀하고 신속하게 검출할 수 있는 기계 학습 기반 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법에 관한 것이다.

Description

자연 두부 위치에서 촬영된 3차원 CBCT 영상에서 기계 학습 기반 치아 교정 진단을 위한 두부 계측 파라미터 도출방법{Method Of Determinating Cephalometric Prameters For Orthodontic Diagnosis From Three Dimensional CBCT Images Taken In Natural Head Position Based On Machine Learning}
본 발명은 기계 학습 기반 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법에 관한 것이다. 보다 상세하게, 본 발명은 기계 학습 알고리즘과 영상 분석 처리 기술을 적용하여 자연 두부 위치(Natural head position) 상태에서 콘빔 컴퓨터 단층 촬영(CBCT)된 영상 데이터로부터 피검자 두부 계측 이미지를 획득하고, 치아 교정 정밀 진단을 위한 13개의 파라미터를 도출하기 위하여 상기 두부 계측 이미지 상에서 복수 개의 계측점을 정밀하고 신속하게 검출할 수 있는 기계 학습 기반 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법에 관한 것이다.
일반적으로, 치열이 바르지 않고 상하의 치아 교합이 비정상적인 상태를 부정교합이라고 하며, 이러한 부정교합을 정상교합으로 만들기 위하여 치아 교정 치료가 수행될 수 있다. 한편, 치아교정을 위한 정밀 진단이나 치료 계획 수립에 있어서 피검자 두부계측 이미지 상에서 해부학적으로 미리 결정된 해부학적 계측점(anatomical landmark)을 검출하는 작업이 요구된다.
기존 엑스레이(X-ray) 영상에서의 화면 왜곡 현상 또는 불선명함 등의 문제점을 보완하여 최근에는 콘빔 컴퓨터 단층촬영(Cone-Beam Computer Tomography; CBCT) 장비를 통해 촬영한 피검자의 두부 의료 영상 데이터로부터 3차원 CBCT 이미지를 획득하고 있으며, 이를 기반으로 치아 교정 진단을 위한 파라미터를 도출하기 위한 계측점을 검출하는 연구가 실시되고 있다. 특히, 최근 연구에서는 콘빔씨티(CBCT) 이미지 분석 방법으로서 이마와 코의 경계 영역에서 가장 낮은 비근점(Nasion점)을 지나면서 지면에 수직인 NTVP(Nasion True Vertical Plane) 수직면과 상기 비근점(Nasion점)을 지나면서 지면에 수평인 THP(True Horizontal Plane) 수평면을 이용하여 전후 골격 관계 및 치아의 돌출 정도를 파악할 수 있는 방법 등이 제안되고 있다.
종래에는, 치아교정 진단 파라미터를 도출하기 위하여 의료인 등 숙련된 작업자가 복수 개의 CBCT 이미지 상에서 약 50개 이상의 다수 개의 계측점들을 수동으로 검출해야 했으나, 이러한 방법은 작업자의 숙련도에 따라 계측점 검출 방법과 검출 정확도가 달라지므로 정확한 교정 진단이 어려우며 상기 계측점 검출 시간이 약 30분 이상으로 장기간 소요되어 진료 효율이 감소되는 문제가 있었다.
이와 같은 문제를 해결하고자, 치아 교정 진단 분야에 기계 학습 알고리즘을 도입함으로서 자연 두부 위치(Natural head position) 상태에서 콘빔 컴퓨터 단층 촬영(CBCT)된 영상 데이터로부터 피검자 두부계측 이미지를 획득하고, 치아 교정 정밀 진단을 위하여 기존보다 감소된 개수의 파라미터를 도출하기 위하여 상기 두부계측 이미지 상에서 복수 개의 계측점들을 정밀하고 신속하게 검출하여 진료 효율을 향상시킬 수 있는 기계 학습 기반 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법에 대한 요구가 절실한 실정이다.
대한민국 공개특허 10-2017-0097929호(2017년08월29일 공개)
본 발명은 기계학습 알고리즘을 적용하여 자연 두부 위치(Natural head position) 상태에서 콘빔 컴퓨터 단층 촬영(CBCT)된 영상 데이터로부터 피검자 두부 계측 이미지를 획득하고, 치아 교정 정밀 진단을 위하여 기존보다 감소된 13개의 파라미터를 도출하기 위하여 상기 두부 계측 이미지 상에서 복수 개의 계측점을 정밀하고 신속하게 도출하여 진료 효율을 향상시킬 수 있는 기계 학습 기반 치아 교정 진단을 위한 두부계측 파라미터 도출 방법을 제공하는 것을 해결하고자 하는 과제로 한다.
상기 과제를 해결하기 위하여, 본 발명은 피검자의 두부를 자연 두부 위치 상태에서 3D 콘빔 컴퓨터 단층 촬영(CBCT)된 영상 데이터로부터 피검자에 대하여 각각 시상면 두부 이미지, 관상면 두부 이미지, 구강 파노라마 이미지 및 전치 단면 이미지를 포함하는 진단용 두부 계측 이미지를 획득하는 단계에서 추출된 두부 진단용 두부 계측 이미지를 이용한 기계 학습 기반 치아 교정 진단을 위한 두부 계측 파라미터 도출방법으로서, 기계 학습 알고리즘에 기초하여 상기 두부 계측 이미지 상에서 치아 교정 진단을 위한 13개 파라미터를 도출하기 위하여 복수 개의 계측점을 검출하는 단계 및 상기 검출된 복수 개의 계측점 사이의 거리 또는 각도에 대응하는 13개 파라미터를 도출하는 단계를 포함하는 것을 특징으로 하는 치아 교정 진단을 위한 두부계측 파라미터 도출방법을 제공할 수 있다.
여기서, 상기 13개 파라미터는 치아 교정 진단을 위한 정보를 제공하기 위하여 상악골의 돌출도, 하악골의 돌출도, 턱끝의 돌출도, 하악골 중심의 변위 정도, 상악 중절치 중심의 변위 정도, 하악 중절치 중심의 변위 정도, 이마와 코의 경계영역에서 가장 낮은 부분인 비근점(Nasion점)을 지나는 수평면(THP; True Horizontal Plane)에서 우측 견치 하단점까지의 수직 거리, 상기 THP에서 좌측 견치 하단점까지의 수직 거리, 상기 THP에서 우측 상악 제1 대구치까지의 수직 거리, 상기 THP에서 좌측 상악 제1 대구치까지의 수직 거리, 상악 중철치 경사도, 하악 중철치 경사도 및 상기 THP에 대한 하악골의 수직 경사도를 포함할 수 있다.
또한, 상기 기계 학습 알고리즘은 시상면 두부 이미지 상에서 전두부에서 비공점(rhinion) 사이에 구비되는 영역, 상기 비공점에서 상부 치아 사이 영역, 상기 상부 치아에서 하악골 턱끝점(Menton) 사이 영역 및 상기 하악골 턱끝점에서 턱 관절골(articulare) 사이 영역으로 분할하여 상기 13개 파라미터를 도출하기 위한 복수 개의 계측점을 검출할 수 있다.
그리고, 상기 기계학습 알고리즘은 관상면 두부 이미지 상에서 전두부에서 비공점(rhinion) 사이 영역 및 하악골 영역으로 분할하여 상기 13개 파라미터를 도출하기 위한 복수 개의 계측점을 검출할 수 있다.
또한, 상기 기계학습 알고리즘은 구강 파노라마 이미지에서 R-CNN(Region based convolutional neural networks) 기계 학습 모델을 적용하여 전체 치아에서의 개별 영역을 감지하는 과정, 상기 감지된 전체 치아의 각각의 개별 영역마다 치아의 위치를 나타내는 치아 계측점을 검출하는 과정, 상기 검출된 치아 계측점의 위치를 분석하여 전체 치아를 상악 치아 및 하악 치아로 분류하는 과정, 안면부 중앙선으로부터 상기 검출된 치아 계측점까지의 수평 거리에 따라 순차적으로 우측 상악 치아, 좌측 상악 치아, 우측 하악 치아 및 좌측 하악 치아마다 번호를 넘버링하는 과정 및 상기 넘버링된 치아를 분석하여 전치, 견치 및 제1 대구치를 포함한 특정 치아에서 파라미터를 도출하기 위한 복수 개의 계측점을 검출하는 과정을 포함할 수 있다.
그리고, 상기 기계 학습 알고리즘은 시상면 두부 이미지에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion) 및 상악골에 있는 전비극 (Anterior nasal spine) 및 상악 전치 치조점 (Prosthion)을 연결한 선에서 가장 깊은 부분인 A점 (A point, A)를 검출하고, 상기 비근점을 지나는 수직면인 NTVP(Nasion true vertical plane)과 상기 A점 사이 거리 측정을 통해 상악골의 돌출도가 도출될 수 있다.
또한, 상기 기계 학습 알고리즘은 시상면 두부 이미지에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion) 및 하악 전치의 치조점 (Infradentale) 및 턱끝 (Pog)을 연결한 가장 깊은 부분인 B점(B point, B)를 검출하고, 상기 비근점을 지나는 수직면인 NTVP(Nasion true vertical plane)과 상기 B점 사이 거리 측정을 통해 하악골의 돌출도가 도출될 수 있다.
또한, 상기 기계 학습 알고리즘은 시상면 두부 이미지에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion) 하악골에서 가장 전방으로 나온 포고니온(Pogonion, Pog)을 검출하고, 상기 비근점을 지나는 수직면인 NTVP(Nasion true vertical plane)과 상기 포고니온 사이 거리 측정을 통해 턱끝의 돌출도가 도출될 수 있다.
또한, 상기 기계 학습 알고리즘은 관상면 두부 이미지에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion) 및 하악골에서 가장 낮은 지점인 멘톤(Menton)을 검출하고, 상기 비근점을 지나는 수직면인 NTVP(Nasion true vertical palne)과 상기 멘톤 사이 거리 측정을 통해 하악골 중심의 변위 정도가 도출될 수 있다.
또한, 상기 기계 학습 알고리즘은 관상면 두부 이미지에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion) 및 구강 파노라마 이미지에서 상악 중절치 중앙점을 검출하고, 상기 비근점을 지나는 수직면인 NTVP(Nasion true vertical plane)과 상기 상악 중절치 중앙점 사이 거리 측정을 통해 상악 중철치 중심의 변위 정도가 도출될 수 있다.
또한, 상기 기계 학습 알고리즘은 관상면 두부 이미지에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion) 및 구강 파노라마 이미지 상에서 하악 중절치 중앙점을 검출하고, 상기 비근점을 지나는 수직면인 NTVP(Nasion true vertical plane)과 상기 하악 중절치 중앙점 사이 거리 측정을 통해 하악 중철치 중심의 변위 정도가 도출될 수 있다.
또한, 상기 기계 학습 알고리즘은 관상면 두부 이미지에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion) 및 구강 파노라마 이미지에서 우측 견치 하단점을 검출하고, 상기 비근점을 지나는 수평면인 THP(True horizontal plane)과 상기 우측 견치 하단점 사이의 수직 거리가 도출될 수 있다.
또한, 상기 기계 학습 알고리즘은 관상면 두부 이미지에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion) 및 구강 파노라마 이미지에서 좌측 견치 하단점을 검출하고, 상기 비근점을 지나는 수평면인 THP(True horizontal plane)과 상기 좌측 견치 하단점 사이의 수직 거리가 도출될 수 있다.
또한, 상기 기계 학습 알고리즘은 관상면 두부 이미지에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion) 및 구강 파노라마 이미지 상에서 상악 우측 제 1 대구치 하단점을 검출하고, 상기 비근점을 지나는 수평면인 THP(True horizontal plane)과 상기 상악 우측 제 1 대구치 하단점 사이의 거리를 통해 THP에서 우측 상악 제1 대구치까지의 수직 거리가 도출될 수 있다.
또한, 상기 기계 학습 알고리즘은 관상면 두부 이미지에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion) 및 구강 파노라마 이미지 상에서 상악 좌측 제 1 대구치 하단점을 검출하고, 상기 비근점을 지나는 수평선인 THP(True horizontal plane)과 상기 상악 좌측 제1 대구치 하단점 사이의 거리를 통해 THP에서 상악 좌측 제 1 대구치까지의 수직 거리가 도출될 수 있다.
또한, 상기 기계 학습 알고리즘은 관상면 두부 이미지에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion) 및 전치 단면 이미지 상에서 상악 전치 상단점과 상악 전치 하단점을 검출하고, 상기 비근점을 지나는 수평면인 THP(True horizontal plane)과 상기 상악 전치 상단점 및 상기 상악 전치 하단점 사이를 연결하는 벡터 사이의 각도를 통해 상악 중절치의 경사도가 도출될 수 있다.
또한, 상기 기계 학습 알고리즘은 시상면 두부 이미지에서 하악골에서 가장 낮은 지점인 멘톤(Menton)과 하악골에서 최대 곡률 지점인 고니온(Gonion) 및 전치 단면 이미지에서 하악 전치 상단점과 하악 전치 하단점을 검출하고, 상기 멘톤과 상기 고니온 사이를 연결하는 MeGo선 및 상기 하악 전치 상단점과 상기 하악 전치 하단점 사이를 연결하는 벡터 사이의 각도를 통해 하악 중절치의 경사도가 도출될 수 있다.
또한, 상기 기계 학습 알고리즘은 시상면 두부 이미지에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion), 하악골에서 가장 낮은 지점인 멘톤(Menton) 및 하악골에서 최대 곡률 지점인 고니온(Gonion)을 검출하고, 상기 비근점을 지나는 수평면인 THP(True horizontal plane) 및 상기 멘톤과 상기 고니온 사이를 연결하는 MeGo선 사이의 각도를 통해 THP에 대한 하악골의 수직 경사도가 도출될 수 있다.
본 발명은 상기 도출된 13개 파라미터에 대응하여 피검자의 안면부 형상 또는 교합 상태를 진단하는 단계를 더 포함할 수 있다.
여기서, 상기 도출된 13개 파라미터에 대응하여 피검자의 교합 상태를 진단하는 경우, 상악골 및 하악골의 전후 교합상태가 비교적 정상 범주인 상태, 상악골이 하악골에 비해 비교적 돌출된 상태 및 하악골이 상악골에 비해 비교적 돌출된 상태를 각각 분류하여 진단할 수 있다.
또한, 상기 도출된 13개 파라미터에 대응하여 피검자의 안면부 형상을 진단하는 경우, 안면부 길이가 정상 범주인 상태, 안면부 길이가 정상 범주보다 짧은 상태 및 안면부 길이가 정상 범주보다 긴 상태를 각각 분류하여 진단할 수 있다.
더 나아가, 본 발명은 치아 교정 진단을 위한 두부계측 파라미터 도출 방법의 진단용 두부계측 이미지를 획득하는 단계에서 추출된 두부 진단용 두부 계측 이미지를 입력 데이터로 하여, 상기 복수 개의 진단점을 출력 데이터로 검출하는 단계 및 상기 도출 프로그램은 상기 검출된 복수 개의 진단점 사이의 거리 또는 각도에 대응하는 13개 파라미터를 도출하는 단계가 자동으로 수행되도록 프로그래밍되어, 컴퓨팅 기기 또는 컴퓨팅이 가능한 클라우드 서버에 설치되는 것을 특징으로 하는 치아 교정 진단을 위한 파라미터 도출 프로그램을 제공할 수 있다.
본 발명에 따른 기계 학습 기반 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법에 의하면, 기계 학습 알고리즘을 적용하여 자연 두부 위치 (Natural head position)에서 콘빔 컴퓨터 단층 촬영(CBCT)된 영상 데이터로부터 피검자에 대하여 시상면(sagittal plane) 및 관상면(coronal plane) 방향으로의 두부 이미지, 전치 단면 이미지 및 구강 파노라마 이미지를 포함한 복수 개의 진단용 두부 계측 이미지를 추출하고, 상기 이미지로부터 파라미터를 추출하기 위하여 미리 결정된 계측점 위치를 자동으로 검출해줌으로서 치아 교정 진단 작업이 약 수 십초 이내 수준으로 매우 신속하게 처리될 수 있다.
본 발명에 따른 기계 학습 기반 치아 교정 진단을 위한 두부 계측 파라미터 도출방법에 의하면, 자연 두부 위치 (Natural head position)에서 촬영된 콘빔 컴퓨터 단층 촬영(CBCT) 두부계측 이미지 상에 검출된 계측점을 기반으로 시상면에서의 전후 골격 관계 및 치아의 돌출 정도를 원활하게 파악하기 위하여 종래보다 감소된 13개 진단 파라미터를 선정 및 도출함으로서 상기 계측점 검출을 위한 기계 학습 알고리즘이 단순화되고 치아교정 진단 소요 시간이 단축될 수 있다.
더 나아가, 본 발명에 따른 기계 학습 기반 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법에 의하면, 기계 학습 알고리즘을 통한 진단용 두부 계측 이미지 추출 및 상기 이미지 상에서의 계측점 검출을 통해 13개 파라미터를 도출하여 피검자의 안면부 형상 또는 교합 상태를 자동 진단해주는 기능 뿐만 아니라, 상기 도출된 파라미터에 대응하여 피검자를 위한 맞춤형 치과 교정 장치를 자동으로 설계해주는 등 응용 범위가 더욱 확대될 수 있다.
도 1은 본 발명에 따른 기계 학습 기반 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법의 순서도를 도시한 것이다.
도 2는 본 발명에 따른 기계 학습 기반 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법에서 피검자에 대한 진단용 두부 계측 이미지를 획득하는 과정을 도시한 것이다.
도 3은 진단용 두부 계측 이미지상에서 복수 개의 계측점들의 위치를 나타낸 것이다.
도 4는 기계 학습 알고리즘을 통해 시상면 두부 이미지에서 복수 개의 계측점을 검출하는 과정을 도시한다.
도 5은 기계 학습 알고리즘을 통해 관상면 두부 이미지에서 복수 개의 계측점을 검출하는 과정을 도시한다.
도 6 내지 도 10은 기계 학습 알고리즘을 통해 구강 파노라마 이미지에서 복수 개의 계측점을 검출하는 과정을 도시한다.
도 11 및 도 12는 본 발명에 따른 기계 학습 기반 치아 교정 진단을 위한 두부계측 파라미터 도출 방법이 적용된 그래픽 사용자 인터페이스(GUI) 화면을 도시한다.
이하, 첨부된 도면들을 참조하여 본 발명의 바람직한 실시 예들을 상세히 설명하기로 한다. 그러나, 본 발명은 여기서 설명된 실시 예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시 예들은 개시된 내용이 철저하고 완전해질 수 있도록, 그리고 당업자에게 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다. 명세서 전체에 걸쳐서 동일한 참조 번호들은 동일한 구성요소들을 나타낸다.
도 1은 본 발명에 따른 기계 학습 기반 치아 교정 진단을 위한 두부 계측 파라미터 도출방법의 순서도를 도시한 것이다.
도 1에 도시된 바와 같이, 본 발명에 따른 기계 학습 기반 두부 계측 파라미터 도출방법은 피검자의 두부를 자연 두부 위치 (Natural head position)에 위치시킨 상태에서 치과용 콘빔 컴퓨터 단층 촬영장치(Cone-Beam Computed Tomograph; CBCT)로 촬영한 CBCT 영상 데이터로부터 피검자에 대하여 각각 시상면(Sagittal plane) 및 관상면(Coronal plane) 방향으로의 두부 이미지, 수직 방향으로의 두부 이미지, 구강 파노라마 이미지 및 전치 단면 이미지를 포함하는 진단용 두부 계측 이미지를 획득하는 단계(S100), 기계학습 알고리즘에 기초하여 상기 진단용 두부 계측 이미지 상에서 치아 교정 진단을 위한 13개 파라미터를 도출하기 위하여 복수 개의 계측점을 검출하는 단계(S200), 상기 검출된 복수 개의 계측점 사이의 거리 또는 각도에 대응하는 13개 파라미터를 도출하는 단계(S300)을 포함하여 구성된다.
또한, 본 발명에 따른 기계 학습 기반 두부 계측 파라미터 도출 방법은 상기 도출된 13개 파라미터에 대응하여 피검자의 안면부 형상 또는 교합 상태를 진단하는 단계(S400)를 추가로 포함할 수 있다.
도 2는 본 발명에 따른 기계 학습 기반 두부 계측 파라미터 도출 방법에서 피검자에 대한 진단용 두부계측 이미지를 획득하는 과정을 도시한 것이다.
도 2에 도시된 바와 같이, 상기 진단용 두부계측 이미지를 획득하는 단계(S100)에서 콘빔 컴퓨터 단층 촬영 장치로 촬영하여 획득한 CBCT 영상 데이터(10)로부터 각각 피검자에 대하여 좌우로 분할하는 시상면(Sagittal plane) 방향 두부 이미지(20), 피검자에 대하여 전방과 후방으로 분할하는 관상면 방향(Coronal plane) 두부 이미지(30), 구강 파노라마 이미지(40) 및 전치 단면 이미지(50)를 포함하는 복수 개의 진단용 두부 계측 이미지를 각각 획득할 수 있다.
상기 진단용 두부 계측 이미지를 획득하는 단계(S100)에서 치과용 콘빔 컴퓨터 단층 촬영 장치(CBCT)를 사용하여 피검자에 대한 전 영역에서의 3차원 두부 의료 영상 데이터를 획득할 수 있다. 상기 CBCT 영상 데이터(10)는 기계 학습 알고리즘에 의하여 상기 의료용 디지털 영상 및 통신 표준(Digital Imaging and Communications in Medicine, DICOM) 규격을 만족할 수 있으며, 상기 CBCT 영상 데이터는 기계 학습 알고리즘에 입력된 이미지 추출 기능 또는 일반적인 다이콤 뷰어(DICOM Viewer)의 이미지 추출 기능에 의해 진단용 두부 계측 이미지를 획득할 수 있다.
여기서, 상기 CBCT 영상 데이터(10)는 시상면 두부 이미지(20), 관상면 두부 이미지(30), 구강 파노라마 이미지(40) 및 전치 단면 이미지(50)를 포함하는 진단용 두부 계측 이미지로 추출될 수 있고, 이 중 시상면 두부 이미지(20) 및 관상면 두부 이미지(30)는 각각 두개골 골조직 내부를 투사하여 이를 나타내는 모드인 시상면 뼈 모드 이미지(20a) 및 관상면 뼈 모드 이미지(30a)로 분류하여 추출할 수 있고, 또한 피검자 두개골 골조직의 깊이 또는 밀도 등을 고려하여 외부의 형태를 나타낼 수 있는 모드인 시상면 깊이 모드 이미지(20b) 및 관상면 깊이 모드 이미지(30b)로 분류하여 두부계측 이미지를 추출할 수 있다.
이후, 상기 복수 개의 계측점을 검출하는 단계(S200)에서 기계 학습 알고리즘을 통해 상기 진단용 두부 계측 이미지 상에 치아 교정 진단을 위한 파라미터를 도출하기 위한 복수 개의 계측점이 자동으로 검출될 수 있다. 종래에는 치과 전문의 등의 숙련자가 상기 진단용 두부 계측 이미지 상에 계측점을 수동으로 지정하였으나, 이와 같은 방법은 작업자의 숙련도에 따라 정확도에 편차가 발생하고, 계측점 검출 시간이 약 30분 내지 1시간 장기간 소요되어 진료 효율이 저하되는 문제가 있었다.
한편, 본 발명에서는 안면 프로필 자동 분석 모델과 R-CNN(Region based Convolutional Neural Network) 등을 포함하는 기계 학습 알고리즘을 사용하여 상기 진단용 두부계측 이미지에서 미리 결정된 복수 개의 계측점을 자동으로 감지할 수 있다. 결과적으로, 상기 13개 파라미터를 도출하는 단계(S300)에서 복수 개의 계측점 사이에 정의된 거리 또는 각도에 대응되도록 선택된 13개 파라미터를 도출하고, 상기 도출된 13개 파라미터를 통하여 피검자의 안면 상태 또는 구강 상태를 감지하여 피검자에 대한 치아 교정 진단을 수행할 수 있다.
종래에는, 치아 교정 진단 파라미터를 도출하기 위하여 상기 진단용 두부 계측 이미지에서 약 50개가 넘는 다수의 두부 계측 계측점을 검출해야 했으나, 본 발명에서는 피검자의 시상 전후 골격 관계, 교합상태 및 치아 돌출 정도 등을 효율적으로 진단하기 위하여 13개 파라미터를 엄선함으로서 이를 도출하기 위한 검출해야 하는 계측점 개수를 획기적으로 감소시키고, 이에 따라 이를 구현하기 위한 기계 학습 알고리즘이 간소화되며 교정 진단 소요 시간이 단축될 수 있다.
본 발명자들은 치아 교정 진단 목적으로 두부 계측 분석 방법에 있어서 기존 널리 수행되던 Wits 분석법이나 Rickett 분석법 또는 McNamara 분석법 등을 사용하는 대신, 자연 두부 위치 (Natural head position)에서 촬영된 영상에서 일반적으로 콧대가 시작되는 부분인 비근점(Nasion점, N점)을 지나는 수직면인 Nasion True Vertical Plane(NTVP) 또는 상기 비근점을 지나는 수평면인 THP(True horizontal plane)을 활용하여 계측점 개수를 기존보다 획기적으로 감소시키면서도 피검자의 전후 턱 관계를 용이하게 진단할 수 있는 방법을 고안하였으며, 이를 기계 학습 알고리즘에 적용함으로서 복수 개의 계측점 검출과정이 신속하고 효율적으로 이루어질 수 있다.
도 3은 시상면 두부 이미지(20), 관상면 두부 이미지(30), 구강 파노라마 이미지(40) 및 전치 단면 이미지(50) 상에서 13개 파라미터를 도출하기 위한 복수 개의 계측점들의 위치를 나타낸 것이다.
도 3에 도시된 바와 같이, 계측점 검출 단계(S200)에서 기계 학습 알고리즘에 기초하여 진단용 두부 계측 이미지 획득 단계(S100)에서 획득된 시상면 두부 이미지(20), 관상면 두부 이미지(30) 및 구강 파노라마 이미지(40)에서 상기 13개 파라미터를 도출하기 위하여 미리 결정된 계측점들이 기계 학습 알고리즘과 영상 분석 처리 기술에 의해 자동으로 검출될 수 있다.
여기서, 상기 13개 파라미터는 피검자에 대하여 치아 교정 진단을 위한 정보를 제공하기 위하여 상악골의 돌출도, 하악골의 돌출도, 턱끝의 돌출도, 하악골 중심의 변위 정도, 상악 중절치 중심의 변위 정도, 하악 중절치 중심의 변위 정도, 이마와 코의 경계영역에서 가장 낮은 부분인 비근점(Nasion점)을 지나는 수평면(THP; True Horizontal Plane)에서 우측 견치 하단점까지의 수직 거리, 상기 THP에서 좌측 견치 하단점까지의 수직 거리, 상기 THP에서 우측 상악 제1 대구치까지의 수직 거리, 상기 THP에서 좌측 상악 제1 대구치까지의 수직 거리, 상악 중철치 경사도, 하악 중철치 경사도 및 상기 THP에 대한 하악골의 수직 경사도가 도출될 수 있다.
이를 위해, 상기 13개 파라미터는 아래 표 1에 나타난 바와 같이 진단용 두부 계측 이미지로부터 검출된 복수 개의 계측점 사이의 거리 또는 각도에 대응하는 계측점 키포인트(keypoint)에 의하여 정의될 수 있다.
[표 1]
Figure 112021090153375-pat00001
도 3 및 표 1을 참조하여, 각각의 진단용 두부 계측 이미지에서 검출되는 복수 개의 계측점과 상기 복수 개의 계측점 사이의 거리 또는 각도에 대응하는 계측점 키포인트 및 이로부터 도출되는 13개 파라미터에 대하여 설명한다.
기계 학습 알고리즘은 시상면 두부 이미지(20)에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion, N) 및 상악골에 있는 전비극 (Anterior nasal spine) 및 상악 전치 치조점 (Prosthion)을 연결한 선에서 가장 낮은 부분인 A점 (A point, A)를 검출하고, 상기 비근점(N)을 지나는 수직면인 NTVP(Nasion true vertical plane)와 상기 A점(A) 사이를 상기 시상면 두부 이미지(20)에서 X축 방향으로의 거리 측정을 통해 상기 13개 파라미터 중 하나인 상악골의 돌출도가 도출되어 피검자의 상악골과 하악골의 전후 관계를 진단할 수 있다.
또한, 기계 학습 알고리즘은 시상면 두부 이미지(20)에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion점, N) 및 하악 전치의 치조점 (Infradentale) 및 턱끝 (Pog)을 연결한 가장 깊은 부분인 B점(B point, B)를 검출하고, 상기 비근점(N)을 지나는 수직면인 NTVP(Nasion true vertical plane)와 상기 B점(B) 사이를 상기 시상면 두부 이미지(20)에서 X축 방향으로의 거리 측정을 통해 상기 13개 파라미터 중 하나인 상악골의 돌출도가 도출되어 피검자의 상악골과 하악골의 전후 관계를 진단할 수 있다.
또한, 기계 학습 알고리즘은 시상면 두부 이미지(20)에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion점, N) 및 하악골에서 가장 전방으로 나온 포고니온(Pogonion, Pog)을 검출하고, 상기 비근점(N)을 지나는 수직면인 NTVP(Nasion true vertical plane)와 상기 포고니온(Pog) 사이를 상기 시상면 두부 이미지(20)에서 X축 방향으로의 거리 측정을 통해 상기 13개 파라미터 중 하나인 턱끝의 돌출도가 도출되어 피검자의 상악골과 하악골의 전후 관계를 진단할 수 있다.
또한, 기계 학습 알고리즘은 관상면 두부 이미지(30)에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion점, N) 및 하악골에서 가장 낮은 지점인 멘톤(Menton, Me)을 검출하고, 상기 비근점(N)을 지나는 수직면인 NTVP(Nasion true vertical plane)와 상기 멘톤(Me) 사이를 상기 관상면 두부 이미지(30)에서 Y축 방향으로의 거리 측정을 통해 상기 13개 파라미터 중 하나인 하악골 중심의 변위 정도가 도출되어 피검자의 상악골과 하악골의 좌우 교합 관계를 진단할 수 있다.
또한, 기계 학습 알고리즘은 관상면 두부 이미지(30)에서 추출한 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion점, N) 및 구강 파노라마 이미지(40)에서 상악 중절치 중심 (UDM)을 지나는 수직선을 검출하고, 상기 비근점(N)을 지나는 수직면인 NTVP(Nasion true vertical plane)와 상기 상악 중절치 중심 (UDM)을 지나는 수직선 사이를 상기 관상면 두부 이미지에서 Y축 방향으로의 거리 측정을 통해 상기 13개 파라미터 중 하나인 상악 중철치 중심의 변위 정도가 도출되어 피검자의 상악골과 하악골의 좌우 교합 관계를 진단할 수 있다.
또한, 기계학습 알고리즘은 관상면 두부 이미지(30)에서 추출한 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(N) 및 구강 파노라마 이미지(40)에서 하악 중절치 중심 (LDM)을 지나는 수직선을 검출하고, 상기 비근점(N)을 지나는 수직면인 NTVP(Nasion true vertical plane)와 상기 하악 중절치 중심 (LDM)을 지나는 수직선 사이를 상기 관상면 두부 이미지에서 Y축 방향으로의 거리 측정을 통해 상기 13개 파라미터 중 하나인 하악 중철치 중심의 변위 정도가 도출되어 피검자의 상악골과 하악골의 좌우교합 관계를 진단할 수 있다.
또한, 기계 학습 알고리즘은 관상면 두부 이미지(30)에서 추출한 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(N) 및 구강 파노라마 이미지(40)에서 상악 우측 견치 하단점(Ct(Rt))을 검출하고, 상기 비근점 (Nasion)을 지나는 수평면인 THP(True horizontal plane)과 상기 상악 우측 견치 하단점(Ct(Rt)) 사이 수직 거리가 상기 13개 파라미터 중 하나로서 도출되어 수평면과 상악 우측 견치 사이의 거리를 확인할 수 있다.
또한, 기계 학습 알고리즘은 관상면 두부 이미지(30)에서 추출한 이마와 코의 경계영역에서 가장 낮은 부분인 비근점(N) 및 구강 파노라마 이미지(40)에서 좌측 견치 하단점(Ct(Lt))을 검출하고, 상기 비근점을 지나는 수평면인 THP(True horizontal plane)과 상기 좌측 견치 하단점(Ct(Lt)) 사이를 상기 관상면 두부 이미지(30)에서 Z축 방향으로의 수직 거리가 상기 13개 파라미터 중 하나로서 도출되어 수평면과 상악 좌측 견치 사이의 거리를 확인할 수 있다.
결과적으로, 수평면에서 측정된 상악 우측 견치와 좌측 견치의 거리가 서로 일치해야 하는데 만약 차이가 난다면 견치부에서 상악골의 경사를 확인할 수 있다.
또한, 기계 학습 알고리즘은 관상면 두부 이미지(30)에서 추출한 이마와 코의 경계영역에서 가장 낮은 부분인 비근점(Nasion) 및 구강 파노라마 이미지(40)에서 상악 우측 제1 대구치(U6MB(Rt))을 검출하고, 상기 비근점을 지나는 수평면인 THP(True horizontal plane)과 상기 상악 우측 제1 대구치(U6MB(Rt)) 사이 수직 거리가 상기 13개 파라미터 중 하나로서 도출되어 수평면과 상악 우측 제 1대구치 사이의 거리를 확인할 수 있다.
또한, 학습 알고리즘은 관상면 두부 이미지(30)에서 추출한 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(N) 및 구강 파노라마 이미지(40)에서 상악 좌측 제1 대구치(U6MB(Lt))을 검출하고, 상기 비근점을 지나는 수평면인 THP(True horizontal plane)과 상기 상악 좌측 제1 대구치(U6MB(Lt)) 사이 수직 거리가 상기 13개 파라미터 중 하나로서 도출되어 수평면과 상악 좌측 제1 대구치 사이의 거리를 확인할 수 있다.
결과적으로, 수평면에서 측정된 상악 우측 제 1 대구치와 상악 좌측 제 1 대구치의 거리가 서로 일치해야 하는데 만약 차이가 난다면 구치부에서 상악골의 경사를 확인할 수 있다.
또한, 기계 학습 알고리즘은 시상면 두부 이미지(30)에서 추출한 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(N) 및 전치 단면 이미지(50) 상에서 상악 전치 상단점(T1)과 상악 전치 하단점(T2)을 검출하고, 상기 비근점 (Nasion)을 지나는 수평면인 THP(True horizontal plane)과 상기 상악 전치 상단점(T1) 및 상기 상악 전치 하단점(T2) 사이를 연결하는 벡터의 각도를 통해 상악 중절치의 경사도가 상기 13개 파라미터 중 하나로서 도출되어 피검자의 교합 상태를 진단할 수 있다.
또한, 기계 학습 알고리즘은 시상면 두부 이미지(30)에서 하악골에서 가장 낮은 지점인 멘톤(Me)과 하악골에서 최대 곡률 지점인 고니온(Go) 및 전치 단면 이미지(50)에서 각각 하악 전치 상담점(T3)과 하학 전치 하단점(T4)을 검출하고, 상기 멘톤(Me)과 상기 고니온(Go) 사이를 연결하는 MeGo선 및 상기 하악 전치 상단점(T3)과 상기 하악 전치 하단점(T4) 사이를 연결하는 벡터의 각도를 통해 하악 중절치의 경사도가 상기 13개 파라미터 중 하나로서 도출되어 피검자의 교합 상태를 진단할 수 있다.
또한, 기계 학습 알고리즘은 시상면 두부 이미지(20)에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(N), 하악골에서 가장 낮은 지점인 멘톤(Me) 및 하악골에서 최대 곡률 지점인 고니온(Go)을 검출하고, 상기 비근점(N)을 지나는 수평면인 THP(True horizontal plane) 및 상기 멘톤(Me)과 상기 고니온(Go) 사이를 연결하는 MeGo선 사이의 각도를 통해 수평 기준면 (THP)에 대한 하악골의 수직 경사도가 상기 13개 파라미터 중 하나로서 도출되어 피검자의 수직적 악골 관계를 진단할 수 있다.
도 4는 기계 학습 알고리즘을 통해 시상면 두부 이미지에서 파라미터 도출을 위한 복수 개의 계측점을 검출하는 과정을 도시한다.
도 4(a)에 도시된 바와 같이, 기계 학습 알고리즘은 복수 개의 계측점을 검출하기 위하여 피검자 시상면 두부 이미지(20)를 4개의 관심 영역(Region of Interest; ROI)로 분할할 수 있다. 여기서, 상기 시상면 두부 이미지(20)는 전두부에서 두 개의 코뼈가 만나는 가장 아래 위치하는 비공점 사이에 구비되는 제1 영역(21), 상기 비공점에서 상악치아 사이에 구비되는 제2 영역(23), 상기 상악 치아에서 하악골의 턱끝점(Menton, Me) 사이에 구비되는 제3 영역(25) 및 상기 하악골의 턱끝점에서 턱 관절골(Articulare, Ar) 사이에 구비되는 제4 영역(29)으로 분할하고, 각각의 4개의 관심 영역에서 파라미터 도출을 위한 복수 개의 계측점을 검출할 수 있다.
이를 위해, 기계 학습 알고리즘은 시상면 두부 이미지(20)를 각각의 4개 관심 영역으로 분할하기 위하여 피검자 안면부 전방을 따라 적색 선으로 표시되며 상기 제1 영역(21), 상기 제2 영역(23) 및 상기 제3 영역(25)으로 구성되는 안면부 프로필 영역(27) 및 피검자 하악골 영역을 따라 녹색 선으로 표시되며 상기 제4 영역(25)으로 구성되는 턱 프로필 영역을 분할하여 추출할 수 있다. 상기 시상면 두부 이미지(20)에서 안면부 프로필 영역(27)과 제4 영역(29)으로 구성되는 턱 프로필 영역의 추출을 위하여 상기 시상면 두부 이미지(20)는 y축 방향에 각각 수평 또는 수직인 복수 개의 단위 픽셀로 분할될 수 있다.
도 4(a)에 도시된 바와 같이, 시상면 두부 이미지(20) 상에서 피검자 안면부 프로필 영역(27)을 추출하는 과정은 시상면 두부 이미지(20) 내 임의의 지점에서 깊이 정도 및 두개골 경계로서의 특성 관점에서 다른 인접하는 픽셀과의 유사성을 기반으로 안면부 프로필 영역 추출 과정이 수행될 수 있다. 구체적으로, 상기 시상면 두부 이미지(20) 상에서 0이 아니면서 가장 큰 x축 값을 갖는 단위 픽셀의 좌표값 D(xi, i)은 이전 행 (i-1)에서 위치한 단위 픽셀과 비교하여 하기 식을 만족하는 경우 안면부 프로필 영역(27)에 존재하는 것으로 간주될 수 있다.
[식 1]
Figure 112021090153375-pat00002
여기서, n은 상기 시상면 두부 이미지에서 y축 방향으로 분할된 픽셀의 개수이다.
다음으로, 상기 시상면 두부 이미지(20)에서 획득된 안면부 프로필 영역(27)을 기반으로 제4 영역(29)을 포함하는 턱 프로필 영역을 추출하기 위하여 멘톤(Me)이 시작점으로서 지정되고, 도 4(b)에 도시된 바와 같이 상기 시상면 두부 이미지에서 제4 영역(29)으로 구성되는 턱 프로필 영역을 복수 개의 관심 영역(29s)로 분할한 이후 상기 복수 개의 관심 영역(29s) 각각에서의 평균 깊이 정도를 계산하고, 상기 깊이 정도가 급격하게 변화하는 관심 영역에서의 깊이 정도와 두개골의 수직면 사이의 실제 거리를 측정하여 턱 관절골(Ar)을 검출할 수 있다.
도 3 및 도 4를 참조하여 상기 기계학습 알고리즘은 시상면 방향 두부 이미지(20)를 구성하는 제1 영역(21)에서 x축 방향을 따라 가장 낮게 위치하는 지점을 비등점(N)으로 검출할 수 있고, 상기 검출된 비등점(N)을 지나면서 z축 방향을 따라 연장되는 수직면을 NTVP(Nasion true vertical plane)으로 인식하고, 상기 비등점(N)을 지나면서 y축 방향을 따라 연장되는 수평선을 THP(True horizontal plane)으로 인식함으로서 파라미터를 도출할 수 있다.
또한, 상기 기계학습 알고리즘은 시상면 두부 이미지(20)를 구성하는 제2 영역(23)에서 상악 전치부 중 가장 낮은 부분인 지점을 A점(A)으로 검출할 수 있다. 한편, 기계학습 알고리즘이 시상면 두부 이미지를 구성하는 제2 영역(23) 내 상악 전치부의 형상을 인식하기 어려운 경우, 상악 전치부 상부에 구비되어 치아 전방으로 돌출되는 전비융기점(acanthion)과 상악 전치부 사이의 경계 영역을 완만하게 이어줌으로서 상악 전치부의 형상을 보완할 수 있다. 이후, 기계 학습 알고리즘은 안면부 프로필 경계 영역 내 x축 방향으로 가장 낮게 위치하는 지점 또는 상기 안면부 프로필 경계 영역 내 기울기가 가장 작은 지점을 A점으로 검출할 수 있다.
또한, 상기 기계 학습 알고리즘은 시상면 두부 이미지(20)를 구성하는 제3 영역(25)에서 하악골에서 x축 방향으로 가장 낮은 지점인 B점(B), 하악골에서 가장 x축 방향으로 높은 지점인 포고니온(Pog) 및 하악골에서 y축 방향으로 가장 낮은 지점인 멘톤(Me)을 각각 검출할 수 있다.
한편, 피검자의 하악골이 하악 전치부에 비하여 안쪽으로 들어간 경우 상기와 같은 방법으로 B점(B)과 포고니온(Pog)을 원활하게 검출할 수 없으므로 이 경우, 기계 학습 알고리즘은 시상면 두부 이미지(20)를 구성하는 제3 영역(25)에서 하악골에서 가장 오목한 지점과 볼록한 지점을 각각 B점(B) 및 포고니온(Pog)으로 검출할 수 있다.
또한, 상기 기계 학습 알고리즘은 시상면 두부 이미지(20)를 구성하는 제4 영역(29)에서 하악골의 최대 곡률 지점인 고니온(Go)을 검출할 수 있다. 상기 기계 학습 알고리즘은 이를 위해 멘톤(Me)을 지나면서 하악골 하부에 접하는 접선과 관절골을 지나면서 하악골의 좌측부에 접하는 접선의 교차점을 고니온(Go)으로서 검출할 수 있다.
도 5은 기계 학습 알고리즘을 통해 관상면 방향 두부 이미지에서 복수 개의 계측점을 검출하는 과정을 도시한다.
도 5에 도시된 바와 같이, 기계 학습 알고리즘은 복수 개의 계측점을 검출하기 위하여 관상면 두부 이미지(30)를 2개의 관심 영역(Region of Interest; ROI)을 포함하여 분할할 수 있다. 상기 기계 학습 알고리즘은 관상면 두부 이미지(30)는 안면부에서 눈과 두 개의 코뼈가 만나는 가장 아래 지점인 비공점 사이에 포함되는 제5 영역(31) 및 하악골 영역인 제6 영역(33)으로 분할하여 각각 두부 계측 계측점을 검출할 수 있다.
한편, 관상면 두부 이미지(30)와 시상면 두부 이미지(20)에 검출되는 각각의 비근점(N)은 동일한 z축 위치 좌표를 공유하므로 상기 관상면 두부 이미지(30)에서의 y축 위치 좌표는 비근점(N)을 검출하는 과정에 있어서 주요 요소로 작용할 수 있다. 상기 관상면 두부 이미지(20)에서
Figure 112021090153375-pat00003
부터
Figure 112021090153375-pat00004
(여기서, ZN은 N점의 z축 위치 좌표이고, n은 자연수) 사이에 포함되는 복수 개의 단위 픽셀에서 비골(코뼈) 영역에서의 좌측단 좌표값(Ti) 및 우측단 좌표값(T'i)을 검출함으로서 상기 비근점(N)의 y축 위치 좌표(yN)은 하기 식 2에 의해 검출될 수 있다.
[식 2]
Figure 112021090153375-pat00005
상기 관상면 두부 이미지(30)에서 제6 영역(33)을 검출하는 과정에 있어서, 기계 학습 알고리즘은 시상면 두부 이미지(20)에서 검출된 A점(A)의 z축 위치 좌표(ZA) 및 B점의 z축 위치 좌표(ZB)의 중앙점의 z축 위치 좌표(Z=
Figure 112021090153375-pat00006
)를 지나는 수직선과 관상면 두부 이미지(30)에서의 좌측 하악골 및 우측 하악골이 각각 만나는 교차점(S1, S2)을 검출하고, 상기 검출된 한 쌍의 교차점(S1, S2) 하부 영역을 상기 관상면 두부 이미지(30)에서 제6 영역(33)으로 지정할 수 있다.
그리고, 상기 관상면 두부 이미지(30)의 제6 영역(33)에서 z축 방향으로 볼록한 형상의 영역을 검출하고, 상기 영역에서 x축 좌표값이 가장 최대인 지점을 멘톤(Me)으로 검출할 수 있다.
도 6 내지 도 10은 기계 학습 알고리즘을 통해 구강 파노라마 이미지에서 복수 개의 계측점을 검출하는 과정을 도시한다.
도 6은 기계 학습 알고리즘을 기초로 구강 파노라마 이미지(40)에서 R-CNN(Region based convolutional neural networks) 기계 학습 모델을 적용하여 피검자의 전체 치아에서 각각의 개별 치아 영역(41)을 감지하는 과정을 도시한 것이다. 상기 개별 치아 영역(41)은 인접한 영역과 서로 구분되기 위하여 복수 개의 서로 다른 색상으로 나타날 수 있다.
도 7은 상기 감지된 전체 치아에서 각각의 개별 치아 영역(41)마다 치아의 위치를 나타내는 치아 계측점(42)을 검출하는 과정을 도시한 것이다. 여기서, 상기 치아 계측점(42)은 Mask R-CNN 모델로부터 검출된 전체 치아에서 각각의 개별 치아 영역(41) 내부의 중앙점으로 검출될 수 있다.
도 8은 상기 검출된 치아 계측점(42)의 위치를 분석하여 구강 파노라마 이미지(40)에서 피검자 전체 치아를 상악치아(40a) 및 하악치아(40b)로 분류하는 과정을 도시한다.
상기 분류를 위한 통계적 기법으로서 선형 회귀 분석(Linear regression method) 방법에 따라 상기 검출된 복수 개의 치아 계측점(42) 위치에 각각 대응하는 2차원 위치 좌표를 설정하고, 상기 좌표를 지나는 이차함수(43)를 생성할 수 있다. 도 7에서 감지된 치아 계측점(42)의 위치와 상기 이차함수(43)의 상대적인 위치를 감지하여 상기 치아 계측점(42)을 상부 치아 계측점(42a)과 하부 치아 계측점(42b)으로 구분하고, 이를 통해 구강 파노라마 이미지(40) 상에 나타나는 전체 치아를 상악 치아(40a) 또는 하악 치아(40b)를 분류할 수 있다.
도 9는 구강 파노라마 이미지(40) 상에서 안면부 중앙선(44)으로부터 수평 거리에 따라 상악 치아(40a) 및 하악 치아(40b) 각각에서 검출된 치아 계측점(42)까지의 거리 계산을 통하여 우측 상악 치아(40a1), 좌측 상악 치아(40a2), 우측 하악 치아(40b1) 및 좌측 하악 치아(40b2)에 각각 넘버링하는 과정을 도시한 것이다.
상기 넘버링 과정을 통하여 구강 파노라마 이미지(40) 상에 나타나는 피검자의 전체 치아는 상기 안면부 중앙선(44)으로부터 상기 검출된 계측점(42, 도 8 참조)까지의 수평 방향 거리가 짧은 순서대로 순차적으로 번호가 지정될 수 있다.
또한, 상기 넘버링 과정을 통해 상기 안면부 중앙선(44)으로부터 인접한 두 개의 치아 각각에서 검출된 치아 계측점까지 거리의 비정상적인 편차를 감지하여 결손된 치아(40m)를 감지할 수 있다. 도 9의 실시예에서 기계 학습 알고리즘은 우측 상악 치아(40a1)의 제1 대구치(6번 치아)가 결손 치아(40m)임을 확인할 수 있다.
도 10은 상기 넘버링된 치아를 분석하여 구강 파노라마 이미지(40) 상에 나타난 전체 치아 중에서 전치, 견치 및 제1 대구치를 포함한 검출 대상 치아에서 파라미터를 도출하기 위한 복수 개의 계측점을 검출하는 과정을 도시한 것이다.
도 9를 참조하여, 상기 13개 파라미터 도출을 위하여 계측점의 검출이 요구되는 검출 대상 치아(45)는 구강 파노라마 이미지(40) 상에 나타나는 전체 치아 중 상기 우측 상악치아(40a1)에서 전치(1번 치아), 견치(3번 치아), 제 1 대구치(6번 치아), 상기 좌측 상악 치아(40a2)에서 전치(1번 치아), 견치(3번 치아), 제 1 대구치(6번 치아), 상기 우측 하악 치아(40b1)에서 전치(1번 치아) 및 상기 좌측 하악 치아(40a2)에서 전치(1번 치아)이다.
도 10에 도시된 바와 같이, 기계 학습 알고리즘은 앞서 전술한 전치, 견치 및 제 1 대구치를 포함한 복수 개의 검출 대상 치아(45)를 포함하는 관심 영역(Region of Interest; ROI)의 크기를 조정하고, 상기 조정된 검출 대상 치아에 대한 관심 영역을 CNN 모델에 로드함으로서 상기 복수 개의 검출 대상 치아(45) 각각에서 3개의 치아 계측점(47)을 검출할 수 있다.
여기서, 상기 복수 개의 검출 대상 치아(45) 각각에서 검출되는 3개의 치아 계측점(47)은 치아를 구성하는 치관 중 법랑질(tooth enamel) 부위에서의 좌측 치아 계측점(P1), 중앙 치아 계측점(P2) 및 우측 치아 계측점(P3)으로 구성된다. 결과적으로, CNN 모델로부터 학습된 검출 대상 치아(45)에서 검출된 3개의 치아 계측점 각각에 대한 위치 좌표(48)를 기초로 각각의 검출 대상 치아(45)에서 파라미터를 도출하기 위한 복수 개의 계측점이 구강 파노라마 이미지(40) 상에 검출할 수 있다.
예를 들면, 기계 학습 알고리즘은 파라미터를 도출하기 위한 복수 개의 계측점을 검출하기 위하여 도 10에 도시된 구강 파라미터 이미지(40)에서 상악 전치와 하악 전치 각각에 검출된 3개의 계측점 중 중앙 치아 계측점(P2)의 중앙점을 상악 중절치 중앙점(UDM) 및 하악 중절치 중앙점(LDM)으로 정의할 수 있다.
한편, 상기 구강 파노라마 이미지(40)를 통하여 감지된 4개의 전치(45)에서 각각 3개의 치아 계측점(P1, P2, P3)이 검출되고, 상기 4개의 전치(45) 각각에 검출된 3개의 치아 계측점(P1, P2, P3)을 기반으로 구강 파노라마 이미지(40)로부터 전치 단면 이미지(50)가 획득될 수 있다(도 3 참조). 도 3을 참조하여, 기계학습 알고리즘은 CNN 모델 분산 처리를 활용하여 상기 전치 단면 이미지(50) 상에서 상악 전치 상단점 (T1), 상악 전치 하단점(T2), 하악 전치 상단점(T3) 및 하악 전치 하단점(T4)을 정밀하게 검출할 수 있다.
기계 학습 알고리즘은 상기 전치 단면 이미지 상에서 검출된 상악 전치 상단점(T1)과 상악 전치 하단점(T2)을 연결하는 벡터와 N점을 지나는 수평면(NTVP) 사이의 각도를 측정하고, 상기 하악 전치 상단점(T3)과 하악 전치 하단점(T4)을 연결하는 벡터와 MeGo선 사이의 각도를 측정함으로서 결과적으로 전치부 경사도를 평가하고 이를 치아 교정 진단 파라미터로서 활용할 수 있다.
전술한 바와 같이, 본 발명에 따른 기계 학습 기반 치아 교정 두부 계측 파라미터 도출방법은 상기 13개 파라미터 도출 단계(S300)에서 도출된 13개 파라미터에 대응하여 피검자의 안면부 형상 또는 교합 상태를 진단하는 단계(S400)를 더 포함할 수 있다.
여기서, 상기 13개 파라미터에 대응하여 피검자의 교합 상태를 진단하는 경우, 기계 학습 알고리즘은 정상교합과 부정교합을 구별하기 위하여 내부 저장된 상기 파라미터 기준값에 따라 상악골과 하악골의 전후 관계가 비교적 정상 범주인 상태, 상악골이 하악골에 비해 비교적 돌출된 상태 및 하악골이 상악골에 비교적 돌출된 상태를 각각 분류하여 진단할 수 있다.
또한, 상기 도출된 13개 파라미터에 대응하여 피검자의 안면부 형상을 진단하는 경우, 기계 학습 알고리즘은 피검자의 안면부 길이 정도를 분석하여 교정 진단을 수행하기 위하여 내부 저장된 상기 파라미터 기준값에 따라 안면부 길이가 정상 범주인 상태, 안면부 길이가 정상 범주보다 짧은 상태 및 안면부 길이가 정상 범주보다 긴 상태를 각각 분류하여 진단할 수 있다.
도 11은 본 발명에 따른 기계학습 기반 두부계측 파라미터 도출방법이 적용된 그래픽 사용자 인터페이스의 화면을 도시한 것이고, 도 12은 도 11에 도시된 상기 그래픽 사용자 인터페이스의 화면에서 진단결과 표시영역을 확대 도시한 것이다.
도 11에 도시된 기계학습 기반 두부 계측 파라미터 도출 방법이 적용된 그래픽 사용자 인터페이스(Graphic user interface; GUI)는 디스플레이를 매개로 상기 기계 학습 기반 두부 계측 파라미터 도출방법을 구성하는 각각의 단계가 실행될 때마다 상기 각각의 단계 실행 과정을 나타내는 복수 개의 이미지 또는 입출력 아이콘 등이 디스플레이의 화면에 표시될 수 있다.
예를 들어, 기계 학습 기반 두부계측 파라미터 도출방법에서 진단용 두부 계측 이미지가 획득되는 단계(S100)가 실행되면, 두부 계측 이미지 생성 영역(100)를 통하여 피검자의 안면부를 3D 콘빔 컴퓨터 단층 촬영(CBCT)한 영상 데이터(10) 및 상기 CBCT 영상 데이터(10)로부터 추출한 시상면 두부 이미지(20), 관상면 두부 이미지(30), 구강 파노라마 이미지(40) 및 전치 단면 이미지(50) 등을 포함한 복수 개의 진단용 두부계측 이미지가 디스플레이 화면에 나타날 수 있다.
그리고, 기계 학습 기반 두부 계측 파라미터 도출 방법에서 복수 개의 계측점을 검출하는 단계(S200)가 실행되면, 계측점 표시 영역(200)에서 본 발명의 기계 학습 알고리즘에 의해 파라미터를 도출하기 위한 계측점들이 자동으로 검출되거나 또는 치과 전문의 등의 숙련자가 상기 디스플레이 화면 상에서 직접 수동으로 검출한 계측점을 표시할 수 있도록 하기 위하여 상기 검출된 계측점에 대응하는 여러 가지 기호, 도형 등의 아이콘이 디스플레이 화면에 나타날 수 있다.
도 12에 도시된 바와 같이, 기계 학습 기반 두부 계측 파라미터 도출 방법에서 복수 개의 계측점을 검출하는 단계(S200)가 수행되면 상기 사용자 그래픽 인터페이스(GUI) 장치를 구성하는 프로세서에 입력된 기계 학습 알고리즘에 의하여 13개 파라미터가 도출되는 단계(S300)가 수행된 이후 상기 디스플레이 화면에 나타나는 진단결과 표시영역(300)을 통하여 도출된 13개 파라미터에 대한 정보(310)가 표시될 수 있다.
한편, 본 발명에 따른 기계 학습 기반 두부 계측 파라미터 도출 방법은 상기 13개 파라미터 도출 단계(S300)에서 도출된 13개 파라미터에 대응하여 피검자의 안면부 형상 또는 교합 상태를 진단하는 단계(S400)를 더 포함할 수 있음은 전술한 바와 같다.
이에, 기계 학습 기반 치아 교정 도출 방법에서 피검자의 안면부 형상 또는 교합 상태를 진단하는 단계(S400)가 실행되면, 진단 결과 표시영역(300)을 통해 13개 파라미터에 대응하여 피검자의 교합 상태 또는 안면부 형상에 대하여 자동으로 진단한 정보(320)가 디스플레이 화면 상에 표시될 수 있다.
예를 들면, 피검자의 상악골과 하악골의 전후 교합상태가 비교적 정상 범주인 상태인 경우 상기 진단 정보는 'Class I', 피검자의 상악골이 하악골에 비해 비교적 돌출된 상태를 'Class II' 및 하악골이 상악골에 비교적 돌출된 상태를 'Class III' 등의 문구로 나타날 수 있다.
또한, 피검자 안면부 길이가 정상 범주인 상태를 'Meso-cephalic facial pattern', 안면부 길이가 정상 범주보다 짧은 상태를 'Brachy-cephalic facial pattern' 및 안면부 길이가 정상 범주보다 긴 상태를 'Dolicho-cephalic facial pattern' 등의 문구와 같이 피검자 안면부 형상에 대한 정보(320)를 상기 디스플레이 화면의 진단 결과 표시 영역(300)에 나타낼 수 있다.
이러한 두부 계측 파라미터 도출 방법은 두부 계측 파라미터 도출 프로그램으로 프로그램화되어 사용자 컴퓨팅 기기 또는 컴퓨팅이 가능한 클라우드 서버에 설치 또는 저장될 수 있으며, 이와 같은 프로그램은 전술한 두부 계측 파라미터 도출 방법의 단용 두부 계측 이미지를 획득하는 단계에서 추출된 두부 진단용 두부 계측 이미지를 입력 데이터로 하여, 상기 복수 개의 계측점을 출력 데이터로 검출하는 단계; 및, 상기 도출 프로그램은 상기 검출된 복수 개의 계측점 사이의 거리 또는 각도에 대응하는 13개 파라미터를 도출하는 단계가 자동으로 수행되도록 프로그래밍 될 수 있다.
물론, 복수 개의 계측점을 출력 데이터로 검출하는 단계와 상기 도출 프로그램은 상기 검출된 복수 개의 계측점 사이의 거리 또는 각도에 대응하는 13개 파라미터를 도출하는 단계는 순차적 또는 단계적으로 사용자의 선택에 따라 수행되도록 프로그래밍될 수도 있다.
이와 같이, 본 발명에 따른 기계 학습 기반 두부 계측 파라미터 도출 방법은 피검자에 대하여 CBCT 촬영된 영상 데이터로부터 기계학습 알고리즘을 적용하여 특정 각도에서 추출된 진단용 두부계측 이미지의 획득하고, 상기 진단용 두부 계측 이미지로부터 검출된 복수 개의 계측점에 대응하여 13개 파라미터를 도출하기 위한 전체 과정이 수초 내지 수십초 내에 수행될 수 있으므로, 치아 교정 진단을 위한 파라미터 도출이 신속하고 일관적으로 정확하게 이루어질 수 있다.
또한, 본 발명의 기계 학습 기반 두부 계측 파라미터 도출 방법이 그래픽 사용자 인터페이스와 결합되는 경우 상기 각각의 단계에서 수행된 결과를 디스플레이 화면에 나타냄으로서 피검자 및 치과 전문의 등의 제 3자가 치아 교정 진단을 위한 계측점 및 13개 파라미터의 도출 과정 및 진단 결과를 원활하게 파악할 수 있다.
더 나아가, 본 발명에 따른 기계 학습 기반 두부 계측 파라미터 도출 방법은 피검자의 안면부 형상 또는 교합 상태를 자동 진단하여 이를 나타내주는 효과에서 더 나아가, 상기 도출된 13개 파라미터에 대응하여 피검자를 위한 맞춤형 치과 교정 장치를 자동으로 설계해주는 등 그 응용 범위가 더욱 확대되는 우수한 기대 효과를 갖는다.
본 명세서는 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 당업자는 이하에서 서술하는 특허 청구 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경 실시할 수 있을 것이다. 그러므로 변형된 실시가 기본적으로 본 발명의 특허 청구 범위의 구성 요소를 포함한다면 모두 본 발명의 기술적 범주에 포함된다고 보아야 한다.
10 : CBCT 영상 데이터
20 : 시상면 두부 이미지
30 : 관상면 두부 이미지
40 : 구강 파노라마 이미지
50 : 전치 단면 이미지

Claims (22)

  1. 피검자의 두부를 자연 두부 위치 상태에서 3D 콘빔 컴퓨터 단층 촬영(CBCT)한 영상 데이터로부터 피검자에 대하여 각각 시상면 두부 이미지, 관상면 두부 이미지, 구강 파노라마 이미지 및 전치 단면 이미지를 포함하는 진단용 두부계측 이미지를 획득하는 단계에서 추출된 두부 진단용 두부 계측 이미지를 이용한 기계 학습 기반 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법으로서,
    기계 학습 알고리즘에 기초하여 상기 두부 계측 이미지 상에서 치아 교정 진단을 위한 13개 파라미터를 도출하기 위하여 복수 개의 계측점을 검출하는 단계;
    상기 검출된 복수 개의 계측점 사이의 거리 또는 각도에 대응하는 13개 파라미터를 도출하는 단계;를 포함하고,
    상기 13개 파라미터 중 적어도 하나 이상은 상기 복수 개의 계측점 중 비근점(Nasion점, N점)을 지나는 수직면인 NTVP(Nasion True Vertical Plane) 또는 상기 비근점(Nasion점, N점)을 지나는 수평면인 THP(True Horizontal Plane)을 사용하여 도출되는 것을 특징으로 하는 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법.
  2. 제1항에 있어서,
    상기 13개 파라미터는 치아 교정 진단을 위한 정보를 제공하기 위하여 상악골의 돌출도, 하악골의 돌출도, 턱끝의 돌출도, 하악골 중심의 변위 정도, 상악 중절치 중심의 변위 정도, 하악 중절치 중심의 변위 정도, 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion점)을 지나는 수평면(THP; True Horizontal Plane)에서 우측 견치 하단점까지의 수직 거리, 상기 THP에서 좌측 견치 하단점까지의 수직 거리, 상기 THP에서 우측 상악 제1 대구치까지의 수직 거리, 상기 THP에서 좌측 상악 제1 대구치까지의 수직 거리, 상악 중철치 경사도, 하악 중철치 경사도 및 상기 THP에 대한 하악골의 수직 경사도를 포함하는 것을 특징으로 하는 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법.
  3. 제1항에 있어서,
    상기 기계 학습 알고리즘은 시상면 두부 이미지 상에서 전두부에서 비공점(rhinion) 사이에 구비되는 영역, 상기 비공점에서 상부 치아 사이 영역, 상기 상부 치아에서 하악골 턱끝점(Menton) 사이 영역 및 상기 하악골 턱끝점에서 턱 관절골(articulare) 사이 영역으로 분할하여 상기 13개 파라미터를 도출하기 위한 복수 개의 계측점을 검출하는 것을 특징으로 하는 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법.
  4. 제1항에 있어서,
    상기 기계 학습 알고리즘은 관상면 두부 이미지 상에서 전두부에서 비공점(rhinion) 사이 영역 및 하악골 영역으로 분할하여 상기 13개 파라미터를 도출하기 위한 복수 개의 계측점을 검출하는 것을 특징으로 하는 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법.
  5. 제1항에 있어서,
    상기 기계 학습 알고리즘은 구강 파노라마 이미지에서 R-CNN(Region based convolutional neural networks) 기계 학습 모델을 적용하여 전체 치아에서의 개별 영역을 감지하는 과정;
    상기 감지된 전체 치아의 각각의 개별 영역마다 치아의 위치를 나타내는 치아 계측점을 검출하는 과정;
    상기 검출된 치아 계측점의 위치를 분석하여 전체 치아를 상악 치아 및 하악 치아로 분류하는 과정;
    안면부 중앙선으로부터 상기 검출된 치아 계측점까지의 수평 거리에 따라 순차적으로 우측 상악 치아, 좌측 상악 치아, 우측 하악 치아 및 좌측 하악 치아마다 번호를 넘버링하는 과정; 및
    상기 넘버링된 치아를 분석하여 전치, 견치 및 제1 대구치를 포함한 특정 치아에서 파라미터를 도출하기 위한 복수 개의 계측점을 검출하는 과정;를 포함하는 것을 특징으로 하는 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법.
  6. 제 2 항에 있어서,
    상기 기계 학습 알고리즘은 시상면 두부 이미지에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion) 및 상악골에 있는 전비극 (Anterior nasal spine) 및 상악 전치 치조점 (Prosthion)을 연결한 선에서 가장 깊은 부분인 A점 (A point, A)를 검출하고, 상기 비근점을 지나는 수직면인 NTVP(Nasion true vertical plane)과 상기 A점 사이 거리 측정을 통해 상악골의 돌출도가 도출되는 것을 특징으로 하는 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법.
  7. 제2항에 있어서,
    상기 기계 학습 알고리즘은 시상면 두부 이미지에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion) 및 하악 전치의 치조점 (Infradentale) 및 턱끝 (Pog)을 연결한 가장 깊은 부분인 B점(B point, B)를 검출하고, ,
    상기 비근점을 지나는 수직면인 NTVP(Nasion true vertical plane)과 상기 B점 사이 거리 측정을 통해 하악골의 돌출도가 도출되는 것을 특징으로 하는 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법.
  8. 제2항에 있어서,
    상기 기계학습 알고리즘은 시상면 두부 이미지에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion) 하악골에서 가장 전방으로 나온 포고니온(Pogonion, Pog)을 검출하고,
    상기 비근점을 지나는 수직면인 NTVP(Nasion true vertical plane)과 상기 포고니온 사이 거리 측정을 통해 턱끝의 돌출도가 도출되는 것을 특징으로 하는 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법.
  9. 제2항에 있어서,
    상기 기계 학습 알고리즘은 관상면 두부 이미지에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion) 및 하악골에서 가장 낮은 지점인 멘톤(Menton)을 검출하고,
    상기 비근점을 지나는 수직면인 NTVP(Nasion true vertical palne)과 상기 멘톤 사이 거리 측정을 통해 하악골 중심의 변위 정도가 도출되는 것을 특징으로 하는 치아 교정 진단을 위한 두부계측 파라미터 도출 방법.
  10. 제2항에 있어서,
    상기 기계 학습 알고리즘은 관상면 두부 이미지에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion) 및 구강 파노라마 이미지에서 상악 중절치 중앙점을 검출하고,
    상기 비근점을 지나는 수직면인 NTVP(Nasion true vertical plane)과 상기 상악 중절치 중앙점 사이 거리 측정을 통해 상악 중철치 중심의 변위 정도가 도출되는 것을 특징으로 하는 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법.
  11. 제2항에 있어서,
    상기 기계 학습 알고리즘은 관상면 두부 이미지에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion) 및 구강 파노라마 이미지 상에서 하악 중절치 중앙점을 검출하고,
    상기 비근점을 지나는 수직면인 NTVP(Nasion true vertical plane)과 상기 하악 중절치 중앙점 사이 거리 측정을 통해 하악 중철치 중심의 변위 정도가 도출되는 것을 특징으로 하는 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법.
  12. 제2항에 있어서,
    상기 기계 학습 알고리즘은 관상면 두부 이미지에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion) 및 구강 파노라마 이미지에서 우측 견치 하단점을 검출하고,
    상기 비근점을 지나는 수평면인 THP(True horizontal plane)과 상기 우측 견치 하단점 사이의 수직 거리가 도출되는 것을 특징으로 하는 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법.
  13. 제2항에 있어서,
    상기 기계학습 알고리즘은 관상면 두부 이미지에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion) 및 구강 파노라마 이미지에서 좌측 견치 하단점을 검출하고,
    상기 비근점을 지나는 수평면인 THP(True horizontal plane)과 상기 좌측 견치 하단점 사이의 수직 거리가 도출되는 것을 특징으로 하는 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법.
  14. 제2항에 있어서,
    상기 기계 학습 알고리즘은 관상면 두부 이미지에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion) 및 구강 파노라마 이미지 상에서 상악 우측 제1 대구치 하단점을 검출하고,
    상기 비근점을 지나는 수평면인 THP(True horizontal plane)과 상기 상악 우측 제1 대구치 하단점 사이의 거리를 통해 THP에서 우측 상악 제1 대구치까지의 수직 거리가 도출되는 것을 특징으로 하는 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법.
  15. 제2항에 있어서,
    상기 기계 학습 알고리즘은 관상면 두부 이미지에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion) 및 구강 파노라마 이미지 상에서 상악 좌측 제1 대구치 하단점을 검출하고,
    상기 비근점을 지나는 수평선인 THP(True horizontal plane)과 상기 상악 좌측 제1 대구치 하단점 사이의 거리를 통해 THP에서 상악 좌측 제1 대구치까지의 수직 거리가 도출되는 것을 특징으로 하는 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법.
  16. 제2항에 있어서,
    상기 기계 학습 알고리즘은 관상면 두부 이미지에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion) 및 전치 단면 이미지 상에서 상악 전치 상단점과 상악 전치 하단점을 검출하고,
    상기 비근점을 지나는 수평면인 THP(True horizontal plane)과 상기 상악 전치 상부점 및 상기 상악 전치 하단점 사이를 연결하는 벡터 사이의 각도를 통해 상악 중절치의 경사도가 도출되는 것을 특징으로 하는 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법.
  17. 제2항에 있어서,
    상기 기계 학습 알고리즘은 시상면 두부 이미지에서 하악골에서 가장 낮은 지점인 멘톤(Menton)과 하악골에서 최대 곡률 지점인 고니온(Gonion) 및 전치 단면 이미지에서 하악 전치 상단점과 하악 전치 하단점을 검출하고,
    상기 멘톤과 상기 고니온 사이를 연결하는 MeGo선 및 상기 하악 전치 상단점과 상기 하악 전치 하단점 사이를 연결하는 벡터 사이의 각도를 통해 하악 중절치의 경사도를 도출하는 것을 특징으로 하는 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법.
  18. 제2항에 있어서,
    상기 기계 학습 알고리즘은 시상면 두부 이미지에서 이마와 코의 경계 영역에서 가장 낮은 부분인 비근점(Nasion), 하악골에서 가장 낮은 지점인 멘톤(Menton) 및 하악골에서 최대 곡률 지점인 고니온(Gonion)을 검출하고,
    상기 비근점을 지나는 수평면인 THP(True horizontal plane) 및 상기 멘톤과 상기 고니온 사이를 연결하는 MeGo선 사이의 각도를 통해 THP에 대한 하악골의 수직 경사도가 도출되는 것을 특징으로 하는 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법.
  19. 제1항에 있어서,
    상기 도출된 13개 파라미터에 대응하여 피검자의 안면부 형상 또는 교합 상태를 진단하는 단계;를 더 포함하는 것을 특징으로 하는 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법.
  20. 제19항에 있어서,
    상기 도출된 13개 파라미터에 대응하여 피검자의 교합 상태를 진단하는 경우, 상악골 및 하악골의 전후 교합 상태가 비교적 정상 범주인 상태, 상악골이 하악골에 비해 비교적 돌출된 상태 및 하악골이 상악골에 비해 비교적 돌출된 상태를 각각 분류하여 진단하는 것을 특징으로 하는 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법.
  21. 제19항에 있어서,
    상기 도출된 13개 파라미터에 대응하여 피검자의 안면부 형상을 진단하는 경우, 안면부 길이가 정상 범주인 상태, 안면부 길이가 정상 범주보다 짧은 상태 및 안면부 길이가 정상 범주보다 긴 상태를 각각 분류하여 진단하는 것을 특징으로 하는 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법.
  22. 제1항 내지 제21항 중 어느 하나의 항의 치아 교정 진단을 위한 두부 계측 파라미터 도출 방법의 진단용 두부 계측 이미지를 획득하는 단계에서 추출된 두부 진단용 두부 계측 이미지를 입력 데이터로 하여, 상기 복수 개의 계측점을 출력 데이터로 검출하는 단계; 및,
    상기 검출된 복수 개의 계측점 사이의 거리 또는 각도에 대응하는 13개 파라미터를 도출하는 단계;가 자동으로 수행되도록 프로그래밍 되어, 컴퓨팅 기기 또는 컴퓨팅이 가능한 클라우드 서버에 설치되는 것을 특징으로 하는 치아 교정 진단을 위한 두부 계측 파라미터 도출 프로그램.
KR1020210102733A 2021-08-04 2021-08-04 자연 두부 위치에서 촬영된 3차원 cbct 영상에서 기계 학습 기반 치아 교정 진단을 위한 두부 계측 파라미터 도출방법 KR102372962B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020210102733A KR102372962B1 (ko) 2021-08-04 2021-08-04 자연 두부 위치에서 촬영된 3차원 cbct 영상에서 기계 학습 기반 치아 교정 진단을 위한 두부 계측 파라미터 도출방법
PCT/KR2021/011012 WO2023013805A1 (ko) 2021-08-04 2021-08-19 자연 두부 위치에서 촬영된 3차원 cbct 영상에서 기계 학습 기반 치아 교정 진단을 위한 두부 계측 파라미터 도출방법
CN202180101157.1A CN117769391A (zh) 2021-08-04 2021-08-19 在自然头位上拍摄的三维cbct影像中基于机器学习的用于牙齿矫正诊断的头部计测参数导出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210102733A KR102372962B1 (ko) 2021-08-04 2021-08-04 자연 두부 위치에서 촬영된 3차원 cbct 영상에서 기계 학습 기반 치아 교정 진단을 위한 두부 계측 파라미터 도출방법

Publications (2)

Publication Number Publication Date
KR102372962B1 true KR102372962B1 (ko) 2022-03-11
KR102372962B9 KR102372962B9 (ko) 2024-02-08

Family

ID=80814374

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210102733A KR102372962B1 (ko) 2021-08-04 2021-08-04 자연 두부 위치에서 촬영된 3차원 cbct 영상에서 기계 학습 기반 치아 교정 진단을 위한 두부 계측 파라미터 도출방법

Country Status (3)

Country Link
KR (1) KR102372962B1 (ko)
CN (1) CN117769391A (ko)
WO (1) WO2023013805A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102536834B1 (ko) * 2022-08-17 2023-05-26 주식회사 인비전랩 인공지능을 이용한 치아번호 식별 방법 및 치아 상태 판독문 생성 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116883428A (zh) * 2023-07-07 2023-10-13 东北大学 一种下颌骨螺旋ct影像分区分割方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140114308A (ko) * 2013-03-18 2014-09-26 삼성전자주식회사 3차원 의료 영상에서 랜드마크들의 자동 등록을 위한 장치 및 방법
KR20150072078A (ko) * 2013-12-19 2015-06-29 경희대학교 산학협력단 덴탈 정보 제공방법, 덴탈 정보 제공시스템 및 컴퓨터로 읽을 수 있는 기록매체
WO2017069231A1 (ja) * 2015-10-23 2017-04-27 国立大学法人大阪大学 人体における治療後の形態予測方法及びシステム
KR20170097929A (ko) 2016-02-19 2017-08-29 하신희 치과 의료용 ct 기반 3d 데이터 생성 시스템
KR20190067609A (ko) * 2017-12-07 2019-06-17 이혜주 환자의 치아 및 악골 구조를 분석하는 장치 및 그 방법
KR20190107683A (ko) * 2016-12-30 2019-09-20 케어스트림 덴탈 테크놀로지 톱코 리미티드 두부 계측 분석 방법
KR20200023703A (ko) * 2018-08-21 2020-03-06 디디에이치 주식회사 교정 진단을 위한 치과 영상 분석 방법 및 이를 이용한 장치
US10898298B1 (en) * 2020-04-08 2021-01-26 Oxilio Ltd Systems and methods for determining orthodontic treatment
KR20210017414A (ko) * 2019-08-08 2021-02-17 오스템임플란트 주식회사 치아교정 진단 방법 및 장치

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140114308A (ko) * 2013-03-18 2014-09-26 삼성전자주식회사 3차원 의료 영상에서 랜드마크들의 자동 등록을 위한 장치 및 방법
KR20150072078A (ko) * 2013-12-19 2015-06-29 경희대학교 산학협력단 덴탈 정보 제공방법, 덴탈 정보 제공시스템 및 컴퓨터로 읽을 수 있는 기록매체
WO2017069231A1 (ja) * 2015-10-23 2017-04-27 国立大学法人大阪大学 人体における治療後の形態予測方法及びシステム
KR20170097929A (ko) 2016-02-19 2017-08-29 하신희 치과 의료용 ct 기반 3d 데이터 생성 시스템
KR20190107683A (ko) * 2016-12-30 2019-09-20 케어스트림 덴탈 테크놀로지 톱코 리미티드 두부 계측 분석 방법
KR20190067609A (ko) * 2017-12-07 2019-06-17 이혜주 환자의 치아 및 악골 구조를 분석하는 장치 및 그 방법
KR20200023703A (ko) * 2018-08-21 2020-03-06 디디에이치 주식회사 교정 진단을 위한 치과 영상 분석 방법 및 이를 이용한 장치
KR20210017414A (ko) * 2019-08-08 2021-02-17 오스템임플란트 주식회사 치아교정 진단 방법 및 장치
US10898298B1 (en) * 2020-04-08 2021-01-26 Oxilio Ltd Systems and methods for determining orthodontic treatment

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102536834B1 (ko) * 2022-08-17 2023-05-26 주식회사 인비전랩 인공지능을 이용한 치아번호 식별 방법 및 치아 상태 판독문 생성 방법

Also Published As

Publication number Publication date
WO2023013805A1 (ko) 2023-02-09
KR102372962B9 (ko) 2024-02-08
CN117769391A (zh) 2024-03-26

Similar Documents

Publication Publication Date Title
US20230320818A1 (en) Reconstruction of a virtual computed-tomography volume to track orthodontics treatment evolution
JP4446094B2 (ja) 人体情報抽出装置
US8706672B2 (en) Computer-assisted creation of a custom tooth set-up using facial analysis
JP6273149B2 (ja) 顔面補正イメージ提供方法およびそのシステム
US20210153976A1 (en) Method of optimization in orthodontic applications
US11896452B2 (en) Method for virtual setup with mixed dentition
EP3471617B1 (en) Method and system for 3d cephalometric analysis
JP2023014295A (ja) 頭部計測解析のための方法
KR102372962B1 (ko) 자연 두부 위치에서 촬영된 3차원 cbct 영상에서 기계 학습 기반 치아 교정 진단을 위한 두부 계측 파라미터 도출방법
KR102373500B1 (ko) 딥러닝을 이용한 3차원 의료 영상 데이터의 특징점 자동 검출 방법 및 장치
KR102320857B1 (ko) 교정 디자인 방법 및 그 장치
EP4113440A1 (en) Non-invasive periodontal examination
JP7269587B2 (ja) セグメンテーション装置
KR102302249B1 (ko) 영상처리와 cnn을 이용한 자동 3차원 세팔로메트리 장치 및 방법
KR20230037247A (ko) 치과 교정치료 계획 수립 방법 및 그 장치
CN113039587B (zh) 使用口内扫描仪获取3d数据的混合方法
Elkholy et al. Artificial intellingence in orthodontics Part 2, Status quo
US20240099812A1 (en) Method of optimization in orthodontic applications
WO2023240333A1 (en) System, method and apparatus for personalized dental prostheses planning

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]