KR20200083822A - Computing device for analyzing dental image for orthodontic daignosis and dental image analyzing method - Google Patents
Computing device for analyzing dental image for orthodontic daignosis and dental image analyzing method Download PDFInfo
- Publication number
- KR20200083822A KR20200083822A KR1020180173159A KR20180173159A KR20200083822A KR 20200083822 A KR20200083822 A KR 20200083822A KR 1020180173159 A KR1020180173159 A KR 1020180173159A KR 20180173159 A KR20180173159 A KR 20180173159A KR 20200083822 A KR20200083822 A KR 20200083822A
- Authority
- KR
- South Korea
- Prior art keywords
- measurement point
- dental image
- standard
- dental
- measurement
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 31
- 238000003745 diagnosis Methods 0.000 claims abstract description 40
- 238000010801 machine learning Methods 0.000 claims abstract description 32
- 238000001514 detection method Methods 0.000 claims abstract description 31
- 238000004891 communication Methods 0.000 claims abstract description 13
- 238000013528 artificial neural network Methods 0.000 claims abstract description 10
- 230000001815 facial effect Effects 0.000 claims abstract description 10
- 238000010191 image analysis Methods 0.000 claims abstract description 6
- 238000005259 measurement Methods 0.000 claims description 189
- 238000001914 filtration Methods 0.000 claims description 12
- 230000000052 comparative effect Effects 0.000 claims description 7
- 238000004458 analytical method Methods 0.000 claims description 6
- 238000010990 cephalometric method Methods 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 claims description 3
- 230000001186 cumulative effect Effects 0.000 claims description 2
- 238000012937 correction Methods 0.000 abstract description 17
- 238000003703 image analysis method Methods 0.000 abstract description 15
- 238000007781 pre-processing Methods 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 7
- 206010061274 Malocclusion Diseases 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 208000002925 dental caries Diseases 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 210000004373 mandible Anatomy 0.000 description 2
- 210000002050 maxilla Anatomy 0.000 description 2
- 210000000214 mouth Anatomy 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 208000027205 Congenital disease Diseases 0.000 description 1
- 208000029767 Congenital, Hereditary, and Neonatal Diseases and Abnormalities Diseases 0.000 description 1
- 206010061218 Inflammation Diseases 0.000 description 1
- 206010062544 Tooth fracture Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000001680 brushing effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 210000004513 dentition Anatomy 0.000 description 1
- 230000003670 easy-to-clean Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000010794 food waste Substances 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 208000024693 gingival disease Diseases 0.000 description 1
- 230000004054 inflammatory process Effects 0.000 description 1
- 210000001847 jaw Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000036346 tooth eruption Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5217—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
-
- A61B6/14—
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/51—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Pathology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Optics & Photonics (AREA)
- Computing Systems (AREA)
- High Energy & Nuclear Physics (AREA)
- Evolutionary Computation (AREA)
- Heart & Thoracic Surgery (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Primary Health Care (AREA)
- Artificial Intelligence (AREA)
- Veterinary Medicine (AREA)
- Epidemiology (AREA)
- Databases & Information Systems (AREA)
- Physiology (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computational Linguistics (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Description
본 발명은 교정 진단을 위한 치과 영상 분석 방법 및 이를 이용한 장치에 관한 것으로서, 보다 구체적으로는 치과 영상으로부터 교정 진단을 위한 복수의 계측점을 정확하고 신속하게 검출 가능한 치과 영상 분석 방법 및 이를 이용한 장치에 관한 발명이다.The present invention relates to a dental image analysis method for corrective diagnosis and a device using the same, and more specifically, to a dental image analysis method capable of accurately and quickly detecting a plurality of measurement points for corrective diagnosis from a dental image and a device using the same It is an invention.
일반적으로 교합이란 입을 다물었을 때 상악 및 하악의 치아가 서로 맞물리는 상태를 의미한다. 그리고, 부정교합이란 어떤 원인에 의해 상기 치아의 배열이 가지런하지 않거나 상하악의 맞물림 상태가 정상의 위치를 벗어나서 기능적, 심미적으로 문제가 되는 부정확한 교합관계를 의미한다.In general, occlusion refers to a state in which the teeth of the maxilla and mandible are engaged with each other when the mouth is closed. And, the malocclusion refers to an incorrect occlusal relationship in which the arrangement of the teeth is not aligned due to any cause or the upper and lower mandibular engagement state is out of the normal position, which is a functional and aesthetic problem.
여기서, 상기 부정교합의 원인은 유전적인 영향이 큰 것으로 알려져 있으나 치아의 모양이나 크기의 문제, 환경적 영향, 좋지 않은 습관, 잘못된 자세 및 치아우식증과 같은 선천성 장애 등 다양한 원인에 의해 발생할 수 있다.Here, the cause of the malocclusion is known to have a large genetic effect, but may be caused by various causes, such as a problem in the shape or size of the teeth, environmental effects, bad habits, wrong posture, and congenital disorders such as dental caries.
부정교합이 발생하면, 치열이 가지런하지 않아 치아 사이에 음식물 찌꺼기가 남아 있기 쉽다. 또한, 정확한 칫솔질로 청결하게 관리하는 것도 쉽지 않기 때문에 구강 내 치태가 증가하게 되어 치아우식증이나 잇몸 염증 등 잇몸 질환으로 진행되기 쉽다. 더욱이, 정상치열에서 많이 벗어난 치아가 있거나 턱의 위치가 비정상이라면 외부에서 충격이 가해질 때 치아 파절 등 치아에 손상이 가해질 가능성도 크다.When malocclusion occurs, the teeth are not uniform and food residue is likely to remain between the teeth. In addition, since it is not easy to clean it with an accurate brushing, the plaque in the oral cavity increases, so it is easy to progress to gum disease such as dental caries or gum inflammation. Moreover, if there is a tooth that deviates from the normal dentition or the position of the jaw is abnormal, there is a high possibility of damage to the tooth, such as a tooth fracture when an external impact is applied.
이에, 부정교합을 치료하기 위해 교정 치료가 수행된다. 여기서, 치열 교정 치료는 치아가 외력을 받으면 이동하는 성질을 이용한다. 교정 치료는 원인이나 치료 시기에 따라 다양한 장치와 방법을 이용할 수 있으며, 예컨대, 위아래 턱뼈의 발육을 억제하거나 증진시키는 장치나 치아를 원하는 위치로 서서히 이동시키는 장치 등으로 분류될 수 있다. Thus, orthodontic treatment is performed to treat malocclusion. Here, orthodontic treatment uses the property that the tooth moves when it receives an external force. The orthodontic treatment may use various devices and methods according to the cause or treatment time, and may be classified into, for example, a device that suppresses or enhances the growth of the upper and lower jaw bones, or a device that gradually moves a tooth to a desired position.
이러한 교정 치료를 환자에 적합하게 수행하기 위해서는 환자의 얼굴형에 대한 판단이 우선되어야 한다. 이러한 얼굴형 판단(즉, 교정 진단)을 위해 도 1에 도시되는 세팔로 분석(cephalometric analysis) 방법이 주로 이용되고 있다.In order to perform such orthodontic treatment appropriately for a patient, judgment on a patient's face type must be given priority. The cephalometric analysis method illustrated in FIG. 1 is mainly used for the face shape determination (ie, corrective diagnosis).
이러한 세팔로 분석은 안면 골격, 치아, 얼굴 윤곽 등의 상대적인 위치를 지시하는 해부학점 기준점을 이용하여 교정 치료를 위한 얼굴형을 판단하는 방법으로서, 종래에는 교정 치료가 필요한 환자의 두부 방사선 영상(cephalogram)을 보면서 교정의가 직접 수작업으로 자신이 필요한 기준점을 마크하고, 기준점을 잇는 직선들의 상대 각도 등에 기초하여 환자의 얼굴형을 판단하였다.This cephaloanalysis is a method of determining a face shape for orthodontic treatment using an anatomical point reference point indicating a relative position of a facial skeleton, a tooth, or a facial contour. Conventionally, a head radiograph (cephalogram) of a patient in need of orthodontic treatment Looking at ), the orthodontist manually marked the required reference point by hand and judged the patient's face shape based on the relative angles of the straight lines connecting the reference point.
그러나, 이러한 종래 방식은 교정의가 자신의 학풍 등을 기초로 필요한 기준점을 임의 마크하는 방식이기 때문에 얼굴형 판단을 위해 사용하는 기준점이 교정의 별로 상이하게 됨으로써 기준점의 표준화 및 공유가 어렵고, 다수의 기준점을 교정의가 일일이 수작업으로 마크해야 하기 때문에 시간이 많이 소요되며, 교정의의 숙련도에 따라 정확도에 대한 편차 발생한다는 문제점을 가지고 있었다.However, since such a conventional method is a method in which the proofreader randomly marks the required reference points based on his or her academic academy, standardization and sharing of the reference points is difficult because the reference points used for face-type judgment are different for each correction. Since it is necessary for the clinician to manually mark the reference point, it takes a lot of time, and has a problem in that deviations in accuracy occur depending on the skill of the clinician.
따라서, 종래의 이러한 문제점을 해결하기 할 수 있는 교정 진단용 치과 영상 분석 방법이 요구된다.Therefore, there is a need for an orthodontic image analysis method for orthodontic diagnosis that can solve these problems.
본 발명은 상기 문제점들을 해결하기 위해서 안출된 것으로서, 본 발명은 치과 영상으로부터 교정 진단을 위한 복수의 계측점을 정확하고 신속하게 검출 가능한 교정 진단을 위한 치과 영상 분석 방법 및 이를 이용한 장치를 제공하는 것을 목적으로 한다.The present invention was devised to solve the above problems, and the present invention aims to provide a dental image analysis method and an apparatus using the same for corrective diagnosis capable of accurately and quickly detecting a plurality of measurement points for corrective diagnosis from a dental image. Is done.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following descriptions.
본 발명의 일 실시예에 따라 교정 진단을 위한 치과 영상 분석을 지원하는 컴퓨팅 장치가 제공된다. 상기 장치는, 본 발명의 일 실시예에 따라 교정 진단을 위한 치과 영상 분석 방법 및 이를 이용한 장치가 제공된다. 상기 장치는, 치과 영상 분석을 위한 프로그램을 저장하는 적어도 하나 이상의 메모리; 수진자의 치과 영상을 획득하는 통신부; 및 상기 치과 영상 크기를 리사이징(resizing)함으로써 상기 치과 영상을 전처리 하고, 상기 전처리된 치과 영상으로부터 계측점 검출 모듈을 이용하여 교정 진단을 위한 복수의 계측점(landmark) 중 적어도 일부를 검출하며, 검출된 복수의 계측점을 상기 치과 영상에 중첩하여 표시하도록 제어하는 적어도 하나의 프로세서를 포함하고, 상기 계측점은 교정 진단을 위해 요구되는 안면 골격, 치아 및 얼굴 윤곽 중 적어도 하나의 상대적인 위치를 지시하는 해부학점 기준점이며, 상기 계측점 검출 모듈은 인공 신경망(artificial neural network)에 기초한 기계 학습 모듈을 포함할 수 있다.According to an embodiment of the present invention, a computing device supporting dental image analysis for orthodontic diagnosis is provided. The device is provided with a dental image analysis method for corrective diagnosis and an apparatus using the same according to an embodiment of the present invention. The device includes at least one memory for storing a program for dental image analysis; Communication unit for obtaining the dental image of the examinee; And pre-processing the dental image by resizing the dental image size, detecting at least a portion of a plurality of landmarks for orthodontic diagnosis using a measurement point detection module from the pre-processed dental image, and detecting the detected multiples. And at least one processor that controls to display the measurement point of the superimposed on the dental image, wherein the measurement point is an anatomical point reference point indicating a relative position of at least one of a facial skeleton, a tooth, and a facial contour required for orthodontic diagnosis. , The measurement point detection module may include a machine learning module based on an artificial neural network.
본 발명에 따르면, 인공 신경망에 기반한 기계 학습 모듈을 이용하여 수진자의 치과 영상으로부터 80개 이상 계측점(landmark)을 숙련된 전공의 작업 수준으로 일관되게 자동 제시함으로써, 교정 진단의 정확성, 편의성 및 신속성이 증대될 수 있다.According to the present invention, by using a machine learning module based on an artificial neural network, automatically and consistently automatically presenting 80 or more landmarks from a dental image of a trainee to a work level of a skilled major, so that accuracy, convenience, and speed of corrective diagnosis Can be increased.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 종래의 세팔로 분석 방법을 개략적으로 도시한다.
도 2는 본 발명의 일 실시예에 따른 교정 진단을 위한 치과 영상 분석 방법을 수행하는 컴퓨팅 장치의 예시적인 구성을 도시한다.
도 3은 본 발명에 따른 교정 진단을 위한 치과 영상 분석 방법을 수행하는 컴퓨팅 장치의 하드웨어 및 소프트웨어 아키텍처를 예시적으로 도시한다.
도 4는 본 발명의 일 실시예에 따른 교정 진단을 위한 치과 영상 분석 방법을 도시한다.
도 5는 도 4의 S420 단계의 일 실시예를 도시한다.
도 6은 본 발명의 일 실시예에 따른 교정 진단을 위한 치과 영상 분석 방법을 도시한다.
도 7은 도 6의 S630 단계의 일 실시예를 도시한다.
도 8은 본 발명의 일 실시예에 따른 교정 진단을 위한 치과 영상 분석 방에서 있어서, 계측점 검출을 위한 경계 박스를 예시적으로 도시한다.
도 9 및 도 10은 본 발명의 일 실시예에 따른 교정 진단을 위한 치과 영상 분석 방법에서 있어서, 표준 치과 영상의 생성 과정을 예시적으로 도시한다.
도 11은 본 발명의 일 실시예에 따른 교정 진단을 위한 치과 영상 분석 방법의 수행 과정을 예시적으로 도시한다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다.
도 2는 본 발명의 일 실시예에 따른 교정 진단을 위한 치과 영상 분석 방법을 수행하는 컴퓨팅 장치의 예시적인 구성을 도시한다.
본 발명의 일 실시예에 따른 컴퓨팅 장치(100)는, 통신부(110), 프로세서(120) 및 메모리(130)를 포함하며, 통신부(110)를 통하여 외부 컴퓨팅 장치(미도시)와 직간접적으로 통신할 수 있다.
구체적으로, 컴퓨팅 장치(100)는, 전형적인 컴퓨터 하드웨어(예컨대, 컴퓨터 프로세서, 메모리, 스토리지, 입력 장치 및 출력 장치, 기타 기존의 컴퓨팅 장치의 구성요소들을 포함할 수 있는 장치; 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(NAS) 및 스토리지 영역 네트워크(SAN)와 같은 전자 정보 스토리지 시스템)와 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정의 방식으로 기능하게 하는 인스트럭션들)의 조합을 이용하여 원하는 시스템 성능을 달성하는 것일 수 있다.
이와 같은 컴퓨팅 장치(100)의 통신부(110)는 연동되는 타 컴퓨팅 장치와 요청과 응답을 송수신할 수 있는 바, 예를 들어, 이러한 요청과 응답은 동일한 TCP 세션에 의하여 이루어질 수 있지만, 이에 한정되지는 않으며, 예컨대 UDP 데이터그램으로서 송수신될 수도 있을 것이다. 덧붙여, 넓은 의미에서 통신부(110)는 명령어 또는 지시 등을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치를 포함할 수 있다.
또한, 컴퓨팅 장치(100)의 프로세서(120)는 MPU(Micro Processing Unit) 또는 CPU(Central Processing Unit), 캐시 메모리(Cache Memory), 데이터 버스(Data Bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다.
일 실시예에서, 프로세서(120)는 상기 치과 영상 크기를 리사이징함으로써 상기 치과 영상을 전처리 하고, 상기 전처리된 치과 영상으로부터 계측점 검출 모듈을 이용하여 교정 진단을 위한 복수의 계측점(landmark) 중 적어도 일부를 검출하며, 검출된 복수의 계측점을 상기 치과 영상에 중첩하여 표시하도록 제어할 수 있다.
일 실시예에서, 프로세서(120)는 누적된 복수의 비교 치과 영상을 포함하는 학습데이터로부터 상기 기계 학습 모듈을 학습시키도록 제어할 수 있다.
일 실시예에서, 프로세서(120)는 상기 계측점 검출 모듈이 단일 합성곱 망(single convolution network)에 기초하여 상기 복수의 계측점을 검출하도록 제어할 수 있다.
일 실시예에서, 프로세서(120)는 상기 복수의 계측점 각각에 대응하는 개별 해부학적 특징 중 적어도 일부가 존재하는 것으로 예측되는 복수의 경계 박스(boundary box)를 검출하고, 상기 검출된 경계 박스 중 적어도 일부 각각에 대하여, 내부에 포함되는 소정의 지점을 상기 계측점으로 결정하도록 제어할 수 있다.
일 실시예에서, 프로세서(120)는 상기 경계 박스 각각에 대하여 상기 개별 해부학적 특징의 존재 확률을 산출하고, 하나의 개별 해부학적 특징에 대하여 복수의 경계 박스가 검출되는 경우, 상기 존재 확률에 기초하여 상기 하나의 개별 해부학적 특징에 대응하는 복수의 경계 박스 중 하나를 필터링하며, 상기 필터링된 경계 박스에 포함되는 소정의 지점을 상기 계측점으로 결정하도록 제어할 수 있다.
일 실시예에서, 프로세서(120)는 상기 검출된 경계 박스 중 적어도 일부에 대하여 중심 좌표를 상기 계측점으로 결정하도록 제어할 수 있다.
일 실시예에서, 프로세서(120)는 상기 검출된 계측점을 기설정된 상기 복수의 계측점과 대비하여 검출 누락된 계측점을 식별하고, 표준 계측점 정보(standard landmark information)를 기초로, 상기 검출된 계측점 중 적어도 일부에 대응하는 표준 계측점을 가지는 표준 치과 영상을 탐색하며, 상기 탐색된 표준 치과 영상 및 상기 탐색된 표준 치과 영상의 상기 표준 계측점을 이용하여 상기 누락된 계측점의 위치를 결정하도록 제어할 수 있다. 이때, 상기 표준 계측점 정보는 복수의 상기 표준 치과 영상 및 복수의 상기 표준 치과 영상 각각에 대하여 판독된 복수의 상기 표준 계측점에 관한 정보를 포함할 수 있다.
일 실시예에서, 프로세서(120)는 상기 표준 계측점 정보에 포함된 상기 표준 계측점 각각과 인접하여 배치되는 복수의 인접 계측점에 관한 정보를 기초로, 상기 검출된 계측점 중 상기 누락된 계측점과 인접 배치되는 복수의 계측점에 대응하는 상기 표준 계측점을 가지는 상기 표준 치과 영상을 탐색하도록 제어할 수 있다.
일 실시예에서, 프로세서(120)는 상기 치과 영상에서 상기 검출된 계측점의 존재 영역을 추출하고, 상기 추출된 영역을 상기 표준 치과 영상과 동일한 스케일로 정규화(normalizing)하여 상기 검출된 계측점의 상대 좌표를 산출하며, 상기 검출된 계측점의 상대 좌표 및 상기 표준 계측점의 상대 좌표에 기초하여 상기 표준 치과 영상을 탐색하고, 상기 누락된 계측점의 위치를 결정하도록 제어할 수 있다.
일 실시예에서, 프로세서(120)는 상기 검출된 계측점에 기초하여 세팔로 분석(cephalometric analysis)을 수행함으로써 교정 치료를 위한 상기 수진자의 얼굴형을 판단하도록 제어할 수 있다.
또한, 컴퓨팅 장치(100)의 메모리(130)는 컴퓨팅 장치(100)의 동작에 수반되는 다양한 데이터가 저장될 수 있다. 특히, 메모리(130)에는 치과 영상에 대한 분석을 수행하기 위한 프로그램이 저장될 수 있다. 메모리(130)는, 통상의 기술자에게 알려진 바와 같이, HDD(Hard Disk Drive), ROM(Read Only Memory), RAM(Random Access Memory), EEPROM(Electrically Erasable and Programmable Read Only Memory), 플래시 메모리(flash memory), CF(Compact Flash) 카드, SD(Secure Digital) 카드, SM(Smart Media) 카드, MMC(Multimedia) 카드 또는 메모리 스틱(Memory Stick) 등 정보의 입출력이 가능한 다양한 형태의 저장 장치로 구현될 수 있으며, 컴퓨팅 장치(100) 내부에 구비되거나, 별도의 장치에 구비될 수 있다.
도 3은 본 발명에 따른 교정 진단을 위한 치과 영상 분석 방법을 수행하는 컴퓨팅 장치의 하드웨어 및 소프트웨어 아키텍처를 예시적으로 도시한다.
도 3을 참조하면, 본 발명의 일 실시예에 따른 컴퓨팅 장치(100)의 프로세서(120)는 영상 획득 모듈(210), 계측점 검출 모듈(220), 계측점 보정 모듈(230), 얼굴형 판단 모듈(240)과 저장 및 전송 모듈(250)을 포함할 수 있다. 예를 들어, 각각의 모듈은 프로세서(120)와 통신부(110) 및/또는 메모리(130)에 의해 구현되거나 이와 연동하여 동작하도록 구현될 수 있다.
영상 획득 모듈(210)은, 통신부(110)를 통해, 외부의 다른 컴퓨팅 장치 또는 컴퓨팅 장치(100)에 연동되는 타 장치(치과 영상 촬영 장치 등)로부터 수진자의 치과 영상을 획득할 수 있다. 여기서 치과 영상은 수진자의 두부 측면을 X-ray로 촬영한 두부 방사선 촬영 영상(cephalogram)일 수 있다.
계측점 검출 모듈(220)은 치과 영상으로부터 교정 진단에 필요한 복수의 계측점(landmark)을 검출할 수 있다. 여기서 복수의 계측점은 교정 진단을 위해 요구되는 안면 골격, 치아 및 얼굴 윤곽 중 적어도 하나의 상대적인 위치를 지시하는 해부학점 기준점을 지칭하는 것으로서, 사용자의 설정에 의해 또는 기본값(defalult)으로 정해진 N개로 구성될 수 있으며, 바람직하게는, 80개로 구성될 수 있다.
계측점 검출 모듈(220)은 기계 학습 모듈(222), 필터링 모듈(224) 및 계측점 결정 모듈(226)을 포함할 수 있다.
기계 학습 모듈((machine learning module, 222)은 영상 또는 이미지로부터 복수의 객체를 동시에 검출 가능하도록 구현된 것으로서, 인공 신경망(artificial neural network), 특히, 합성곱 신경망(CNN, convolution neural network) 또는 이를 변형/개량한 인공 신경망에 기초하여 구현될 수 있다.
일 실시예에서, 기계 학습 모듈(222)은 복수 객체에 대한 빠른 동시 검출이 가능하도록 단일 합성곱 망(single convolution network)으로 구현될 수 있다. 예를 들어, YOLO(you only look once) 알고리즘에 의해 구현된 인공 신경망이 적용될 수 있으나, 이에 한정하는 것은 아니며, 본 발명이 적용되는 실시예에 따라, SSD, R-CNN 등 복수의 객체 검출에 적합한 다양한 알고리즘 또는 인공 신경망이 적용될 수 있다.
기계 학습 모듈(222)은 복수의 합성곱 레이어(convolutional layer)와 완전 연결 레이어(fully connected layer)를 포함할 수 있다. 여기서, 복수의 합성곱 레이어는 영상을 추상화하여 특징을 추출하고, 완전 연결 레이어는 검출 객체의 출력 확률과 이를 검출하는 경계 박스의 좌표를 예측하도록 구현될 수 있다.
본 발명에서, 기계 학습 모듈(222)은, 경계 박스(boundary box)를 통해 치과 영상으로부터 복수의 계측점에 대응하는 개별 해부학적 특징을 식별(또는, 검출)할 수 있다. 예를 들어, 기계 학습 모듈(222)은 치과 영상을 복수의 셀로 분할하고 각각의 셀에 대하여 경계 박스를 소정의 개수만큼 할당될 수 있으며, 개별 해부학적 특징이 특정 셀에 존재하는 경우, 해당 셀에 할당된 경계 박스가 이를 식별하도록 구현될 수 있다.
이를 통해, 기계 학습 모듈(222)은, 치과 영상으로부터 복수의 계측점에 대응하는 개별 해부학적 특징이 존재하는 경계 박스(boundary box)와 해당 경계 박스의 좌표, 크기, 경계 박스내 각 개별 해부학적 특징의 존재 확률 등을 예측할 수 있다.
필터링 모듈(224)은 개별 해부학적 특징의 존재 확률에 기초하여 기계 학습 모듈(222)이 검출한 경계 박스를 필터링할 수 있다. 구체적으로, 하나의 개별 해부학적 특징에 대하여 2이상의 경계 박스가 검출되는 경우, 필터링 모듈(224)은 존재 확률에 기초하여 상기 복수의 경계 박스 중 하나를 해당 개별 해부학적 특징이 존재하는 경계 박스로 선택할 수 있다.
계측점 결정 모듈(226)은 필터링 결과를 반영하여 최종 선택된 경계 박스 각각에 대해 내부에 포함되는 소정의 지점을 계측점으로 결정할 수 있다. 예를 들어, 계측점 결정 모듈(226)은 각 경계 박스의 중심 좌표를 계측점으로 결정하도록 구현될 수 있다.
계측점 보정 모듈(230)은 계측점 검출 모듈(220)이 누락한 계측점이 존재하는지 여부를 식별하고, 표준 계측점 정보(standard landmark information)을 이용하여 누락 계측점의 위치(또는 좌표)를 예측할 수 있다. 여기서 표준 계측점 정보는 복수의 상기 표준 치과 영상, 복수의 상기 표준 치과 영상 각각에 대하여 판독된 복수의 상기 표준 계측점 및/또는 상기 표준 계측점 각각과 인접하여 배치되는 복수의 인접 계측점 등에 관한 정보를 포함할 수 있다.
얼굴형 판단 모듈(240)은 최종 검출된 계측점 중 적어도 일부를 기초로 세팔로 분석(cephalometric analysis)을 수행함으로써 교정 치료를 위한 수진자의 얼굴형을 분류 또는 판단할 수 있다. 이러한 얼굴형을 기초로 진단자는 추후, 수진자에 대한 교정 치료 계획을 수립할 수 있게 된다.
저장 및 전송 모듈(250)은 기계 학습 모듈(222)의 학습(training)을 위한 학습데이터(예를 들어, 비교 치과 영상), 수진자의 치과 영상 및 계측점 검출 결과를 메모리(130)에 저장하거나, 이를, 통신부(110)를 통해 외부 컴퓨팅 장치, 디스플레이 장치 등에 전송할 수 있다.
도 4는 본 발명의 일 실시예에 따른 교정 진단을 위한 치과 영상 분석 방법을 도시하며, 도 5는 도 4의 S420 단계의 일 실시예를 도시한다.
S410 단계에서, 영상 획득 모듈(210)은, 통신부(110)를 통해, 외부의 다른 컴퓨팅 장치 또는 컴퓨팅 장치(100)에 연동되는 타 장치(치과 영상 촬영 장치 등)로부터 수진자의 치과 영상을 획득할 수 있다. 상술한 바와 같이, 치과 영상은 수진자의 두부 방사선 촬영 영상일 수 있다.
S420 단계에서, 계측점 검출 모듈(220)은 수진자의 치과 영상으로부터 교정 진단을 위한 복수의 계측점 중 적어도 일부를 검출할 수 있다. 일 실시예에서, S420 단계는, 도 5에서 도시되는 바와 같이, S510 내지 S540 단계를 포함할 수 있다.
S510 단계에서, 계측점 검출 모듈(220)은 치과 영상에 대해 소정의 품질을 만족하는지를 판단하고, 품질을 만족하는 치과 영상에 대해 리사이징(resizing)을 수행함으로써, 치과 영상을 전처리할 수 있다. 즉, 계측점 검출 모듈(220)은 수진자의 치과 영상을 기계 학습 모듈(222)이 기 학습한 치과 영상과 동일한 스케일 또는 비율로 확대 또는 축소할 수 있다. 이를 통해, 본 발명에 따른 방법(400)은 기계 학습 모듈(222)의 검출 정확도를 보다 향상시킬 수 있게 된다. 치과 영상은, 바람직하게는, 416X640 픽셀(pixel)로 리사이징되도록 구현될 수 있다.
S520 단계에서, 기계 학습 모듈(222)은 누적된 복수의 비교 치과 영상에 대한 학습 결과를 기초로, 수진자의 치과 영상에서 복수의 계측점 각각에 대응하는 개별 해부학적 특징 중 적어도 일부가 존재하는 것으로 예측되는 복수의 경계 박스(boundary box)를 검출하고, 각각의 경계 박스 내에 개별 해부학적 특징 각각의 존재 확률을 산출할 수 있다.
일 실시예에서, S520 단계는 영상의 추상화 정도에 따라 3단계의 검출을 통해 수행될 수 있다. 즉, 수진자의 치과 영상은 기계 학습 모듈(222)에 포함되는 복수의 합성곱 레이어(convolution layer)를 거치면서 상이한 레벨로 추상화되며, 기계 학습 모듈(222)은 상이한 3개의 추상화 레벨에서 개별 해부학적 특징을 포함하는 경계 박스에 대한 검출 및 개별 해부학적 특징의 존재 확률의 산출을 수행하도록 구현될 수 있다.
S520 단계 수행 결과, 경계 박스 각각에 대하여 경계 박스의 중심 좌표, 크기, 각각의 개별 해부학적 특징의 존재 확률에 대한 정보가 출력값으로 생성될 수 있다.
S530 단계에서, 필터링 모듈(224)은 개별 해부학적 특징의 존재 확률을 기초로 경계 박스에 대한 필터링을 수행할 수 있다. 예를 들어, S520 단계에서 3 단계의 검출을 적용하여 하나의 개별 해부학적 특징에 대하여 2이상의 경계 박스가 검출되는 경우, 필터링 모듈(224)은 존재 확률에 기초하여 상기 복수의 경계 박스 중 하나를 해당 개별 해부학적 특징이 존재하는 경계 박스로 선택할 수 있다. 일 실시예에서, 필터링 모듈(224)은 복수의 경계 박스 중에서 해당 개별 해부학적 특징의 존재 확률이 가장 높은 하나를 선택하도록 구현될 수 있다.
S540 단계에서, 계측점 결정 모듈(226)은 필터링된 경계 박스 내의 일 지점을 계측점의 좌표로 결정할 수 있다. 예를 들어, 계측점 결정 모듈(226)은 각각의 개별 해부학적 특징에 대응하여 검출된 경계 박스의 중심 좌표를 계측점의 좌표로 결정할 수 있다.
이어서, S430 단계에서, 얼굴형 판단 모듈(240)은 검출된 계측점 중 적어도 일부에 기초하여 세팔로 분석을 수행함으로써 교정 치료를 위한 수진자의 얼굴형을 분류 또는 판단할 수 있다. 예를 들어, 얼굴형 판단 모듈(240)은 검출된 계측점으로부터 세팔로 분석에 필요한 유의미한 직선 또는 각도를 산출하기 위한 일부를 선택하면, 선택된 계측점에 기초하여 세팔로 분석을 자동 수행함으로써, 교정 치료를 위한 수진자의 얼굴형을 분류 또는 판단하게 된다. 여기서 교정 치료를 위한 얼굴형에는 hyperdivergent pattern, normodivergent pattern, hypodivergent pattern 등이 포함될 수 있으나, 이는 예시적인 것으로서, 본 발명에 적용되는 실시예에 따라, 얼굴형은 상하악의 상대적 위치 돌출 정도 등에 따라 보다 다양하게 분류될 수 있다. 이와 같이, 얼굴형이 판단되면 진단자는 이에 기초하여 교정 치료에 관한 전반적인 계획을 수립할 수 있게 된다.
한편, 도 4 및 도 5에는 도시되어 있지 않으나, 일 실시예에서, 방법(400)은 기계 학습 모듈(222)을 학습시키는 단계를 더 포함할 수 있다. 예를 들어, 이러한 학습은 누적된 복수의 비교 치과 영상을 이용하여 수행될 수 있다. 즉, 전문의에 의해 계측점이 판독된 다른 수진자의 치과 영상을 누적하여 수집하고, 이를 학습 데이터로서 기계 학습 모듈(222)에 입력함으로써, 기계 학습 모듈(222)을 학습시키도록 구현될 수 있다. 이때, 학습되는 비교 치과 영상의 사이즈는, 예를 들어, 416 X640 픽셀(pixel)일 수 있다.
또한, 일 실시예에서, 방법(400)은 검출된 계측점을 표시하는 단계를 더 포함할 수 있다. 즉, S420 단계를 통해 계측점의 검출이 완료되면, 저장 및 전송 모듈(250)이 통신부(110)를 통해 디스플레이 장치 또는 이것이 결합된 다른 컴퓨팅 장치에 검출된 계측점 중 적어도 일부에 대한 정보를 전송함으로써 이를 진단자 등에게 표시할 수 있다. 일 실시예에서, 이러한 표시는 진단자의 선호 계측점 정보에 기초하여 수행될 수 있다. 여기서, 선호 계측점 정보는 진단자의 지역, 출신 학교, 교정 진단과 관련된 선호 학풍, 수진자의 지역 중 적어도 하나에 관한 정보를 포함할 수 있다. 예를 들어, 계측점 검출 모듈(220) 또는 저장 및 전송 모듈(250)은 진단자의 선호 계측점 정보에 기초하여 일부 계측점을 선택하고, 이에 관한 정보만을 디스플레이 장치 등에 전송하거나, 디스플레이 장치에서 선택된 일부 계측점을 소정의 방식으로 강조하여 표시하도록 구현될 수 있다.
도 6은 본 발명의 일 실시예에 따른 교정 진단을 위한 치과 영상 분석 방법을 도시하며, 도 7은 도 6의 S630 단계의 일 실시예를 도시한다.
방법(600)에서 S610, S620 및 S640 단계는 도 4 및 도 5를 참조하여 상술한 방법(400)의 S410 내지 S430 단계와 동일하며, 여기서는 이에 대한 자세한 설명은 생략하기로 한다.
S630 단계에서, 계측점 보정 모듈(230)은 S620 단계에서 복수의 계측점 중 검출되지 않은 계측점이 있는 경우, 누락된 계측점을 표준 계측점 정보에 기초하여 보정할 수 있다.
여기서 표준 계측점 정보는 복수의 상기 표준 치과 영상, 복수의 상기 표준 치과 영상 각각에 대하여 판독된 복수의 상기 표준 계측점 및/또는 상기 표준 계측점 각각과 인접하여 배치되는 복수의 인접 계측점에 관한 정보를 포함할 수 있다. 표준 치과 영상은, 예를 들어, 전문의에 의해 계측점이 판단된 원본 치과 영상에서 계측점의 존재 영역을 추출함으로써 생성될 수 있으며, 이 경우, 표준 계측점에 관한 정보는 각각의 표준 치과 영상에서 표준 계측점의 상대 좌표에 관한 정보를 더 포함할 수 있다.
일 실시예에서, S630 단계는, 도 7에서 도시되는 바와 같이, S710 내지 S740 단계를 포함할 수 있다.
S710 단계에서, 계측점 보정 모듈(230)은 S620 단계에서 검출 누락된 적어도 하나의 계측점을 식별할 수 있다. 즉, 계측점 보정 모듈(230)은 사용자에 의해 설정되거나, 기본값으로 설정된 복수의 계측점과 검출된 계측점을 서로 대비하여, 누락 계측점을 식별할 수 있다.
한편, S710 단계에서, 누락된 계측점이 식별되지 않는 경우, 이하 상술되는 S720 내지 S740 단계는 수행되지 않고, 바로 S640 단계가 수행될 수 있다.
S720 단계에서, 계측점 보정 모듈(230)은 검출된 계측점 중 적어도 일부의 상대 좌표를 산출할 수 있다. 예를 들어, S720 단계는, 계측점이 검출된 수진자의 치과 영상에서 계측점을 존재 영역을 추출하고, 이를 표준 치과 영상과 동일한 스케일로 정규화(normalizing)함으로써 수행될 수 있다. 즉, 이하, 도 10 내지 도 11을 참조하여 상술되는 바와 같이, 계측점 보정 모듈(230)은 치과 영상에서 계측점 존재 영역을 추출한 이후, 해당 영역을 스케일 변환하여 계측점 중 적어도 하나의 상대 좌표를 (0, 0) 내지 (1, 1) 사이의 좌표로 산출하게 된다.
일 실시예에서, S720 단계는, 누락된 계측점과 인접 배치되는 2 이상의 계측점에 대하여 수행되도록 구현될 수 있다.
S730 단계에서, 계측점 보정 모듈(230)은 산출된 상대 좌표를 이용하여 검출된 계측점 중 적어도 일부에 대응하는 표준 계측점을 가지는 표준 치과 영상 탐색할 수 있다. 예를 들어, 계측점 보정 모듈(230)은 누락된 계측점에 인접 배치되는 복수의 주변 측점(바람직하게는, 5 내지 7개의 계측점)과, 각각의 표준 치과 영상에서 누락된 계측점에 대응하는 표준 계측점과 인접 배치되는 복수의 인접 계측점의 상대 좌표를 비교하여, 누락된 계측점의 주변 계측점과 가장 근접한 표준 계측점을 가지는 표준 치과 영상을 탐색할 수 있다.
S740 단계에서, 계측점 보정 모듈(230)은 탐색된 표준 치과 영상의 표준 계측점을 이용하여 누락된 계측점의 위치(또는, 좌표)를 결정할 수 있다. 즉, 계측점 보정 모듈(230)은 탐색된 표준 치과 영상에서 누락된 계측점에 대응하는 표준 계측점의 상대 좌표를 누락 계측점의 상대 좌표로 설정하고, 이러한 상대 좌표를 치과 영상의 원본에 맞춰 스케일 변환함으로써, 누락된 계측점의 위치(또는, 좌표)를 결정할 수 있다.
한편, 도 6 및 도 7에서 도시되어 있지 않으나, 일 실시예에서, 방법(600)은 최종 보정된 계측점 및 수진자의 치과 영상에 관한 정보를 기초로 기계 학습 모듈(222)을 재학습시키는 단계를 더 포함할 수 있다. 이와 같이, 누락 계측점이 보정된 결과를 기계 학습 모듈(222)이 재학습하게 함으로써, 기계 학습 모듈(222)의 검출 정확도를 보다 향상시킬 수 있게 된다.
도 8은 본 발명의 일 실시예에 따른 교정 진단을 위한 치과 영상 분석 방에서 있어서, 계측점 검출을 위한 경계 박스를 예시적으로 도시한다.
도 8을 참조하면, 복수의 경계 박스(810)는 복수의 계측점에 대응하는 개별 해부학적 특징이 정의되는 영역을 치과 영상으로부터 식별할 수 있다. 여기서, 각각의 개별 해부학적 특징을 정의하는 영역(label size)의 크기는 검출 정확도를 극대화하기 위하여, 바람직하게는, 30X30 픽셀(pixel)로 설정될 수 있다.
일 실시예에서, 기계 학습 모듈(222)은 치과 영상을 복수의 셀로 분할하고 각각의 셀에 대하여 경계 박스를 소정의 개수만큼 할당될 수 있으며, 개별 해부학적 특징이 특정 셀에 존재하는 경우, 해당 셀에 할당된 경계 박스가 이를 검출하도록 구현될 수 있다.
이에 따라, 상술한 바와 같이, 기계 학습 모듈(222)은 경계 박스 각각에 대한 중심 좌표(각 셀에서의 상대 좌표), 크기(폭, 높이), 각각의 개별 해부학적 특징의 존재 확률에 대한 정보를 출력하게 된다.
도 9 및 도 10은 본 발명의 일 실시예에 따른 교정 진단을 위한 치과 영상 분석 방법에서 있어서, 표준 치과 영상의 생성 과정을 예시적으로 도시한다.
도 9 및 도 10을 참조하면, 표준 치과 영상은 전문의에 의해 계측점이 판독된 소정의 원본 치과 영상을 기초로 생성될 수 있다. 여기서 원본 치과 영상은 기계 학습 모듈(222)의 학습데이터로 제공되는 비교 치과 영상의 적어도 일부일 수 있다.
즉, 예를 들어, 표준 치과 영상에서 2 이상의 최외곽 계측점을 기초로 표준 계측점의 존재 영역을 추출한 다음, 추출된 영역을 (0, 0) 내지 (1, 1)에 해당하는 좌표 영역으로 스케일 변환시킴으로써, 표준 치과 영상을 생성할 수 있다. 이에 따라, 변환된 좌표 영역 내에서 각각의 표준 계측점은 (0, 0) 내지 (1, 1) 사이의 상대 좌표를 가지게 될 수 있다.
도 11은 본 발명의 일 실시예에 따른 교정 진단을 위한 치과 영상 분석 방법의 수행 과정을 예시적으로 도시한다.
도 11을 참조하여, 본 발명의 일 실시예에 따른 교정 진단을 위한 치과 영상 분석 방법의 수행 과정을 정리하면 다음과 같다.
영상 획득 모듈(210) 및 통신부(110)를 통해 획득된 수진자의 치과 영상이 기계 학습 모듈(222)에 입력되면, 기계 학습 모듈(222)은 복수의 합성곱 레이어를 통해 치과 영상을 추상화하며, 추상화 정도에 따라 3단계의 레벨로 각각 계측점에 대응하는 개별 해부학적 특징이 존재하는 것으로 예측되는 경계 박스를 검출하게 된다.
이어서, 하나의 개별 해부학적 특징에 대한 복수의 경계 박스가 검출된 경우, 필터링 모듈(224)이 해당 해부학적 특징의 존재 확률에 기초하여, 존재 확률이 가장 높은 경계 박스를 필터링하며, 계측점 결정 모듈(226)은 필터링 결과에 따라 최종 검출된 경계 박스의 중심 좌표를 계측점으로 결정하게 된다.
이어서, 계측점 보정 모듈(230)이 설정된 복수의 계측점 중 검출이 누락된 계측점이 있는지 여부를 식별하고, 누락된 계측점의 위치(또는, 좌표)를 표준 계측점 정보를 참조하여 결정하게 되며, 최종적으로 설정된 모든 계측점이 검출되어, 예를 들어, 디스플레이 장치에 치과 영상에 중첩되어 좌표 또는 점의 형태로 출력될 수 있다.
한편, 본 명세서에 기재된 다양한 실시예들은 하드웨어, 소프트웨어 및/또는 이들의 조합 등에 의해 구현될 수 있다. 예를 들어, 다양한 실시예들은 하나 이상의 주문형 반도체(ASIC)들, 디지털 신호 프로세서(DSP)들, 디지털 신호 프로세싱 디바이스(DSPD)들, 프로그램어블 논리 디바이스(PLD)들, 필드 프로그램어블 게이트 어레이(FPGA)들, 프로세서들, 컨트롤러들, 마이크로컨트롤러들, 마이크로프로세서들, 여기서 제시되는 기능들을 수행하도록 설계되는 다른 전자 유닛들 또는 이들의 조합 내에서 구현될 수 있다.
또한, 예를 들어, 다양한 실시예들은 명령들을 포함하는 컴퓨터-판독가능한 매체에 수록되거나 인코딩될 수 있다. 컴퓨터-판독가능한 매체에 수록 또는 인코딩된 명령들은 프로그램 가능한 프로세서 또는 다른 프로세서로 하여금 예컨대, 명령들이 실행될 때 방법을 수행하게끔 할 수 있다. 컴퓨터-판독가능한 매체는 컴퓨터 저장 매체를 포함한다. 저장 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수도 있다. 예를 들어, 이러한 컴퓨터-판독가능한 매체는 RAM, ROM, EEPROM, CD-ROM 또는 기타 광학 디스크 저장 매체, 자기 디스크 저장 매체 또는 기타 자기 저장 디바이스, 또는 원하는 프로그램 코드를 컴퓨터에 의해 액세스가능한 명령들 또는 데이터 구조들의 형태로 저장하는데 이용될 수 있는 임의의 다른 매체를 포함할 수 있다.
이러한 하드웨어, 소프트웨어 등은 본 명세서에 기술된 다양한 동작들 및 기능들을 지원하도록 동일한 디바이스 내에서 또는 개별 디바이스들 내에서 구현될 수 있다. 추가적으로, 본 발명에서 "~부"로 기재된 구성요소들, 유닛들, 모듈들, 컴포넌트들 등은 함께 또는 개별적이지만 상호 운용가능한 로직 디바이스들로서 개별적으로 구현될 수 있다. 모듈들, 유닛들 등에 대한 서로 다른 특징들의 묘사는 서로 다른 기능적 실시예들을 강조하기 위해 의도된 것이며, 이들이 개별 하드웨어 또는 소프트웨어 컴포넌트들에 의해 실현되어야만 함을 필수적으로 의미하지 않는다. 오히려, 하나 이상의 모듈들 또는 유닛들과 관련된 기능은 개별 하드웨어 또는 소프트웨어 컴포넌트들에 의해 수행되거나 또는 공통의 또는 개별의 하드웨어 또는 소프트웨어 컴포넌트들 내에 통합될 수 있다.
특정한 순서로 동작들이 도면에 도시되어 있지만, 이러한 동작들이 원하는 결과를 달성하기 위해 도시된 특정한 순서, 또는 순차적인 순서로 수행되거나, 또는 모든 도시된 동작이 수행되어야 할 필요가 있는 것으로 이해되지 말아야 한다. 임의의 환경에서는, 멀티태스킹 및 병렬 프로세싱이 유리할 수 있다. 더욱이, 상술한 실시예에서 다양한 구성요소들의 구분은 모든 실시예에서 이러한 구분을 필요로 하는 것으로 이해되어서는 안되며, 기술된 구성요소들이 일반적으로 단일 소프트웨어 제품으로 함께 통합되거나 다수의 소프트웨어 제품으로 패키징될 수 있다는 것이 이해되어야 한다.
이상에서와 같이 도면과 명세서에서 최적 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.BRIEF DESCRIPTION OF THE DRAWINGS In order to better understand the drawings cited in the detailed description of the present invention, a brief description of each drawing is provided.
1 schematically shows a conventional Cephalo analysis method.
2 illustrates an exemplary configuration of a computing device that performs a dental image analysis method for orthodontic diagnosis according to an embodiment of the present invention.
3 exemplarily illustrates a hardware and software architecture of a computing device performing a dental image analysis method for orthodontic diagnosis according to the present invention.
4 shows a method of analyzing a dental image for orthodontic diagnosis according to an embodiment of the present invention.
5 illustrates an embodiment of step S420 of FIG. 4.
6 illustrates a method of analyzing dental images for orthodontic diagnosis according to an embodiment of the present invention.
FIG. 7 shows an embodiment of step S630 of FIG. 6.
8 exemplarily shows a boundary box for detecting a measurement point in a dental image analysis room for orthodontic diagnosis according to an embodiment of the present invention.
9 and 10 in the dental image analysis method for orthodontic diagnosis according to an embodiment of the present invention, illustratively shows the process of generating a standard dental image.
11 exemplarily shows a process of performing a dental image analysis method for orthodontic diagnosis according to an embodiment of the present invention.
Throughout the specification, when a part is "connected" to another part, this includes not only "directly connected" but also "indirectly connected" with another element in between. . Throughout the specification, when a part “includes” a certain component, it means that the component may further include other components, not to exclude other components, unless otherwise stated. In addition, in describing the components of the embodiments of the present invention, terms such as first, second, A, B, (a), (b), and the like can be used. These terms are only for distinguishing the component from other components, and the nature, order, or order of the component is not limited by the term.
2 illustrates an exemplary configuration of a computing device that performs a dental image analysis method for orthodontic diagnosis according to an embodiment of the present invention.
The
Specifically,
The
In addition, the
In one embodiment, the
In one embodiment, the
In one embodiment, the
In one embodiment, the
In one embodiment, the
In one embodiment, the
In one embodiment, the
In one embodiment, the
In one embodiment, the
In one embodiment, the
Also, various data associated with the operation of the
3 exemplarily illustrates a hardware and software architecture of a computing device performing a dental image analysis method for orthodontic diagnosis according to the present invention.
Referring to FIG. 3, the
The
The measurement
The measurement
The
In one embodiment, the
The
In the present invention, the
Through this, the
The
The measurement
The measurement
The face
The storage and
FIG. 4 shows a method of analyzing a dental image for orthodontic diagnosis according to an embodiment of the present invention, and FIG. 5 shows an embodiment of step S420 of FIG. 4.
In step S410, the
In step S420, the measurement
In step S510, the measurement
In step S520, the
In one embodiment, step S520 may be performed through three steps of detection according to the degree of abstraction of the image. That is, the dental image of the examinee is abstracted to different levels while passing through a plurality of convolution layers included in the
As a result of performing step S520, information on the center coordinates, size, and probability of existence of each individual anatomical feature for each boundary box may be generated as output values.
In operation S530, the
In step S540, the measurement
Subsequently, in step S430, the face
Meanwhile, although not shown in FIGS. 4 and 5, in one embodiment, the
Further, in one embodiment, the
FIG. 6 shows a method of analyzing a dental image for orthodontic diagnosis according to an embodiment of the present invention, and FIG. 7 shows an embodiment of step S630 of FIG. 6.
Steps S610, S620, and S640 in the
In step S630, the measurement
Here, the standard measurement point information includes information on a plurality of the standard dental images, a plurality of the standard measurement points read for each of the plurality of standard dental images, and/or a plurality of adjacent measurement points disposed adjacent to each of the standard measurement points. Can. The standard dental image may be generated, for example, by extracting the area of the measurement point from the original dental image at which the measurement point is determined by a specialist, and in this case, information regarding the standard measurement point may be obtained from the standard measurement point in each standard dental image. It may further include information about the relative coordinates.
In one embodiment, step S630 may include steps S710 to S740, as shown in FIG. 7.
In step S710, the measurement
Meanwhile, in step S710, if the missing measurement point is not identified, steps S720 to S740 described below are not performed, and step S640 may be performed immediately.
In step S720, the measurement
In one embodiment, step S720 may be implemented to be performed on two or more measurement points disposed adjacent to the missing measurement point.
In step S730, the measurement
In step S740, the measurement
On the other hand, although not shown in FIGS. 6 and 7, in one embodiment, the
8 exemplarily shows a boundary box for detecting a measurement point in a dental image analysis room for orthodontic diagnosis according to an embodiment of the present invention.
Referring to FIG. 8, the plurality of bounding
In one embodiment, the
Accordingly, as described above, the
9 and 10 in the dental image analysis method for orthodontic diagnosis according to an embodiment of the present invention, illustratively shows the process of generating a standard dental image.
9 and 10, a standard dental image may be generated based on a predetermined original dental image from which a measurement point is read by a specialist. Here, the original dental image may be at least a part of the comparative dental image provided as learning data of the
That is, for example, in the standard dental image, the presence area of the standard measurement point is extracted based on the outermost measurement points of 2 or more, and then the scale is converted into a coordinate area corresponding to (0, 0) to (1, 1). By doing so, a standard dental image can be generated. Accordingly, each standard measurement point in the transformed coordinate region may have relative coordinates between (0, 0) to (1, 1).
11 exemplarily shows a process of performing a dental image analysis method for orthodontic diagnosis according to an embodiment of the present invention.
Referring to FIG. 11, the process of performing a dental image analysis method for orthodontic diagnosis according to an embodiment of the present invention is summarized as follows.
When the dental image of the examinee acquired through the
Subsequently, when a plurality of bounding boxes for one individual anatomical feature is detected, the
Subsequently, the measurement
Meanwhile, various embodiments described in this specification may be implemented by hardware, software, and/or combinations thereof. For example, various embodiments may include one or more on-demand semiconductors (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGA) ), processors, controllers, microcontrollers, microprocessors, other electronic units designed to perform the functions presented herein, or combinations thereof.
Also, for example, various embodiments may be recorded or encoded in a computer-readable medium including instructions. Instructions stored or encoded on a computer-readable medium may cause a programmable processor or other processor to perform a method, such as when instructions are executed. Computer-readable media includes computer storage media. The storage medium may be any available medium that can be accessed by a computer. For example, such a computer-readable medium may include RAM, ROM, EEPROM, CD-ROM or other optical disk storage medium, magnetic disk storage medium or other magnetic storage device, or instructions that are accessible by a computer to a desired program code, or And any other media that can be used to store data in the form of structures.
Such hardware, software, etc. may be implemented within the same device or within separate devices to support various operations and functions described herein. Additionally, components, units, modules, components, etc., described as “˜parts” in the present invention may be implemented individually together as separate or interoperable logic devices. The depiction of different features for modules, units, etc. is intended to highlight different functional embodiments, and does not necessarily mean that they must be realized by individual hardware or software components. Rather, the functionality associated with one or more modules or units may be performed by separate hardware or software components or incorporated within common or separate hardware or software components.
Although the operations are shown in the drawings in a specific order, it should not be understood that these operations are performed in a specific order, or in a sequential order, to achieve the desired result, or that all the illustrated actions need to be performed. . In any environment, multitasking and parallel processing can be advantageous. Moreover, the division of various components in the above-described embodiments should not be understood as requiring such division in all embodiments, and the described components are generally integrated together into a single software product or packaged into multiple software products. It should be understood that it can.
As described above, optimal embodiments have been disclosed in the drawings and specifications. Although specific terms have been used herein, they are only used for the purpose of describing the present invention and are not used to limit the scope of the present invention as defined in the claims or claims. Therefore, those skilled in the art will appreciate that various modifications and other equivalent embodiments are possible. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.
Claims (15)
수진자의 치과 영상을 획득하는 단계; 및
상기 치과 영상으로부터 계측점 검출 모듈을 이용하여 교정 진단을 위한 복수의 계측점(landmark) 중 적어도 일부를 검출하는 단계를 포함하고,
상기 계측점은 교정 진단을 위해 요구되는 안면 골격, 치아 및 얼굴 윤곽 중 적어도 하나의 상대적인 위치를 지시하는 해부학점 기준점이며, 상기 계측점 검출 모듈은 인공 신경망(artificial neural network)에 기초한 기계 학습 모듈을 포함하는, 방법.As a dental imaging analysis method for orthodontic diagnosis,
Obtaining a dental image of the examinee; And
And detecting at least a part of a plurality of landmarks for orthodontic diagnosis using the measurement point detection module from the dental image,
The measurement point is an anatomical point reference point indicating a relative position of at least one of a facial skeleton, a tooth, and a face contour required for orthodontic diagnosis, and the measurement point detection module includes a machine learning module based on an artificial neural network. , Way.
누적된 복수의 비교 치과 영상을 포함하는 학습데이터로부터 상기 기계 학습 모듈을 학습시키는 단계를 더 포함하고,
상기 비교 치과 영상은 전문의에 의해 상기 계측점이 판독된 다른 수진자의 치과 영상인, 방법.According to claim 1,
Further comprising the step of learning the machine learning module from the learning data including a plurality of cumulative comparison dental image,
The comparative dental image is a dental image of another examinee whose measurement point is read by a specialist.
상기 치과 영상은 두부 방사선 촬영 영상(cephalogram)인, 방법.According to claim 1,
The dental image is a head radiograph (cephalogram), method.
상기 계측점 중 적어도 일부를 검출하는 단계에서, 상기 계측점 검출 모듈은 단일 합성곱 망(single convolution network)에 기초하여 상기 복수의 계측점을 검출하는, 방법.According to claim 1,
In the step of detecting at least some of the measurement points, the measurement point detection module detects the plurality of measurement points based on a single convolution network.
상기 계측점 중 적어도 일부를 검출하는 단계는,
상기 복수의 계측점 각각에 대응하는 개별 해부학적 특징 중 적어도 일부가 존재하는 것으로 예측되는 복수의 경계 박스(boundary box)를 검출하는 단계; 및
상기 검출된 경계 박스 중 적어도 일부 각각에 대하여, 내부에 포함되는 소정의 지점을 상기 계측점으로 결정하는 단계를 포함하는, 방법.According to claim 1,
The step of detecting at least a portion of the measurement point,
Detecting a plurality of bounding boxes predicted to exist at least part of individual anatomical features corresponding to each of the plurality of measuring points; And
And for each of at least some of the detected bounding boxes, determining a predetermined point included therein as the measurement point.
상기 계측점 중 적어도 일부를 검출하는 단계는,
상기 수신된 치과 영상을 리사이징(resizing)하는 단계를 더 포함하고,
상기 검출하는 단계는, 상기 리사이징된 치과 영상을 기초로 수행되는, 방법.The method of claim 5,
The step of detecting at least a portion of the measurement point,
Further comprising the step of resizing (resizing) the received dental image,
The detecting step is performed based on the resized dental image.
상기 계측점 중 적어도 일부를 검출하는 단계는,
상기 경계 박스 각각에 대하여 상기 개별 해부학적 특징의 존재 확률을 산출하는 단계를 더 포함하고,
상기 결정하는 단계는,
하나의 개별 해부학적 특징에 대하여 복수의 경계 박스가 검출되는 경우, 상기 존재 확률에 기초하여 상기 하나의 개별 해부학적 특징에 대응하는 복수의 경계 박스 중 하나를 필터링하는 단계; 및
상기 필터링된 경계 박스에 포함되는 소정의 지점을 상기 계측점으로 결정하는 단계를 포함하는, 방법.The method of claim 5,
The step of detecting at least a portion of the measurement point,
Calculating the probability of existence of the individual anatomical feature for each of the bounding boxes,
The determining step,
If a plurality of bounding boxes are detected for one individual anatomical feature, filtering one of the plurality of bounding boxes corresponding to the one individual anatomical feature based on the existence probability; And
And determining a predetermined point included in the filtered bounding box as the measurement point.
상기 결정하는 단계에서는, 상기 검출된 경계 박스 중 적어도 일부에 대하여 중심 좌표를 상기 계측점으로 결정하는, 방법.The method of claim 5,
In the determining step, a center coordinate is determined as the measurement point for at least a portion of the detected bounding box.
상기 검출된 계측점을 기설정된 상기 복수의 계측점과 대비하여 검출 누락된 계측점을 식별하는 단계; 및
표준 계측점 정보(standard landmark information)를 기초로, 상기 검출된 계측점 중 적어도 일부에 대응하는 표준 계측점을 가지는 표준 치과 영상을 탐색하는 단계 - 상기 표준 계측점 정보는 복수의 상기 표준 치과 영상 및 복수의 상기 표준 치과 영상 각각에 대하여 판독된 복수의 상기 표준 계측점에 관한 정보를 포함함 - ;
상기 탐색된 표준 치과 영상 및 상기 탐색된 표준 치과 영상의 상기 표준 계측점을 이용하여 상기 누락된 계측점의 위치를 결정하는 단계를 더 포함하는, 방법.According to claim 1,
Identifying a measurement point that is missing detection by comparing the detected measurement point with the plurality of predetermined measurement points; And
Searching for a standard dental image having a standard measurement point corresponding to at least a part of the detected measurement points based on standard landmark information-the standard measurement point information includes a plurality of the standard dental images and a plurality of the standards Contains information about the plurality of standard measurement points read for each dental image;
And determining the location of the missing measurement point using the searched standard dental image and the standard measurement point of the searched standard dental image.
상기 표준 계측점 정보는 상기 표준 계측점 각각과 인접하여 배치되는 복수의 인접 계측점에 관한 정보를 더 포함하고,
상기 표준 치과 영상을 탐색하는 단계에서는, 상기 인접 계측점에 관한 정보를 기초로, 상기 검출된 계측점 중 상기 누락된 계측점과 인접 배치되는 복수의 계측점에 대응하는 상기 표준 계측점을 가지는 상기 표준 치과 영상을 탐색하는, 방법.The method of claim 9,
The standard measurement point information further includes information about a plurality of adjacent measurement points disposed adjacent to each of the standard measurement points,
In the step of searching for the standard dental image, the standard dental image having the standard measurement point corresponding to a plurality of measurement points disposed adjacent to the missing measurement point among the detected measurement points is searched based on information about the adjacent measurement point. How to.
상기 표준 치과 영상은 원본 치과 영상에서 상기 표준 계측점의 존재 영역을 추출함으로써 생성되고, 상기 표준 계측점에 관한 정보는 상기 표준 치과 영상에서 상기 표준 계측점의 상대 좌표에 관한 정보를 포함하며,
상기 방법은,
상기 치과 영상에서 상기 검출된 계측점의 존재 영역을 추출하고, 상기 추출된 영역을 상기 표준 치과 영상과 동일한 스케일로 정규화(normalizing)하여 상기 검출된 계측점의 상대 좌표를 산출하는 단계를 더 포함하고,
상기 표준 치과 영상을 탐색하는 단계 및 상기 누락된 계측점의 위치를 결정하는 단계는, 상기 검출된 계측점의 상대 좌표 및 상기 표준 계측점의 상대 좌표에 기초하여 수행되는, 방법.The method of claim 9,
The standard dental image is generated by extracting the area of the standard measurement point from the original dental image, and the information on the standard measurement point includes information on the relative coordinates of the standard measurement point on the standard dental image,
The above method,
Further comprising the step of extracting the area of the detected measurement point from the dental image, and normalizing the extracted area to the same scale as the standard dental image to calculate the relative coordinates of the detected measurement point,
The step of searching for the standard dental image and determining the location of the missing measurement point is performed based on the relative coordinates of the detected measurement point and the relative coordinates of the standard measurement point.
진단자의 선호 계측점 정보를 수신하는 단계; 및
상기 검출된 계측점 중 상기 선호 계측점 정보에 대응하는 일부를 강조하여 표시하는 단계를 더 포함하는, 방법.According to claim 1,
Receiving information of a preferred measurement point of a diagnostician; And
And highlighting and displaying a part of the detected measurement points corresponding to the preferred measurement point information.
상기 검출된 계측점에 기초하여 세팔로 분석(cephalometric analysis)을 수행함으로써 교정 치료를 위한 상기 수진자의 얼굴형을 판단하는 단계를 더 포함하는, 방법.According to claim 1,
And determining a face shape of the examinee for corrective treatment by performing a cephalometric analysis based on the detected measurement point.
수진자의 치과 영상을 획득하는 통신부; 및
상기 치과 영상으로부터 교정 진단을 위한 복수의 계측점(landmark) 중 적어도 일부를 검출하는 계측점 검출 모듈을 포함하는 프로세서를 포함하고,
상기 계측점은 교정 진단을 위해 요구되는 안면 골격, 치아 및 얼굴 윤곽 중 적어도 하나의 상대적인 위치를 지시하는 해부학점 기준점이며, 상기 계측점 검출 모듈은 인공 신경망(artificial neural network)에 기초한 기계 학습 모듈을 포함하는, 장치.A computing device supporting dental image analysis for orthodontic diagnosis,
Communication unit for obtaining the dental image of the examinee; And
And a processor including a measurement point detection module that detects at least a portion of a plurality of landmarks for corrective diagnosis from the dental image,
The measurement point is an anatomical point reference point indicating a relative position of at least one of a facial skeleton, a tooth, and a face contour required for orthodontic diagnosis, and the measurement point detection module includes a machine learning module based on an artificial neural network. , Device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180173159A KR20200083822A (en) | 2018-12-28 | 2018-12-28 | Computing device for analyzing dental image for orthodontic daignosis and dental image analyzing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180173159A KR20200083822A (en) | 2018-12-28 | 2018-12-28 | Computing device for analyzing dental image for orthodontic daignosis and dental image analyzing method |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200083822A true KR20200083822A (en) | 2020-07-09 |
Family
ID=71602285
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180173159A KR20200083822A (en) | 2018-12-28 | 2018-12-28 | Computing device for analyzing dental image for orthodontic daignosis and dental image analyzing method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20200083822A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102331034B1 (en) | 2020-12-10 | 2021-12-01 | 이마고웍스 주식회사 | Automated method for extracting landmarks of three dimensional dental scan data and computer readable medium having program for performing the method |
KR102334519B1 (en) | 2020-12-14 | 2021-12-06 | 이마고웍스 주식회사 | Automated and simplified method for extracting landmarks of three dimensional dental scan data and computer readable medium having program for performing the method |
KR102386828B1 (en) * | 2020-10-28 | 2022-04-14 | 부산대학교 산학협력단 | System and Method for Predicting of facial profile after prosthodontic treatment using deep learning |
WO2022149664A1 (en) * | 2021-01-07 | 2022-07-14 | 디디에이치 주식회사 | Medical image analysis method and device using same |
KR20230089658A (en) | 2021-12-14 | 2023-06-21 | 사회복지법인 삼성생명공익재단 | Cephalometric landmark detection method based on deep reinforcement learning and analysis apparatus |
KR102619800B1 (en) * | 2022-12-22 | 2023-12-29 | 박선영 | Apparatus, method and recording medium of determining orthodontic method based on condition of patient |
-
2018
- 2018-12-28 KR KR1020180173159A patent/KR20200083822A/en unknown
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102386828B1 (en) * | 2020-10-28 | 2022-04-14 | 부산대학교 산학협력단 | System and Method for Predicting of facial profile after prosthodontic treatment using deep learning |
KR102331034B1 (en) | 2020-12-10 | 2021-12-01 | 이마고웍스 주식회사 | Automated method for extracting landmarks of three dimensional dental scan data and computer readable medium having program for performing the method |
KR102334519B1 (en) | 2020-12-14 | 2021-12-06 | 이마고웍스 주식회사 | Automated and simplified method for extracting landmarks of three dimensional dental scan data and computer readable medium having program for performing the method |
KR102369067B1 (en) | 2020-12-14 | 2022-03-03 | 이마고웍스 주식회사 | Automated and simplified method for extracting landmarks of three dimensional dental scan data and computer readable medium having program for performing the method |
WO2022149664A1 (en) * | 2021-01-07 | 2022-07-14 | 디디에이치 주식회사 | Medical image analysis method and device using same |
KR20230089658A (en) | 2021-12-14 | 2023-06-21 | 사회복지법인 삼성생명공익재단 | Cephalometric landmark detection method based on deep reinforcement learning and analysis apparatus |
KR102619800B1 (en) * | 2022-12-22 | 2023-12-29 | 박선영 | Apparatus, method and recording medium of determining orthodontic method based on condition of patient |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102099390B1 (en) | Dental image analyzing method for orthodontic daignosis and apparatus using the same | |
KR20200083822A (en) | Computing device for analyzing dental image for orthodontic daignosis and dental image analyzing method | |
US10049457B2 (en) | Automated cephalometric analysis using machine learning | |
CN110634125B (en) | Deep learning-based fetal ultrasound image identification method and system | |
JP6531115B2 (en) | Method of 3D cephalometric analysis | |
US11734825B2 (en) | Segmentation device and method of generating learning model | |
US20220084267A1 (en) | Systems and Methods for Generating Quick-Glance Interactive Diagnostic Reports | |
Kondo et al. | Computer-based extraction of the inferior alveolar nerve canal in 3-D space | |
Ahn et al. | Automated analysis of three-dimensional CBCT images taken in natural head position that combines facial profile processing and multiple deep-learning models | |
EP4248872A1 (en) | Medical image analysis method and device using same | |
US20230252748A1 (en) | System and Method for a Patch-Loaded Multi-Planar Reconstruction (MPR) | |
WO2023194500A1 (en) | Tooth position determination and generation of 2d reslice images with an artificial neural network | |
Spampinato et al. | Automatic 3D segmentation of mandible for assessment of facial asymmetry | |
KR20130036526A (en) | Diagnosis device for face form using facial image and cephalometric image | |
US20220351813A1 (en) | Method and apparatus for training automatic tooth charting systems | |
KR20220154471A (en) | Method for generating reconstructed images to identify teeth area | |
KR102200060B1 (en) | Mhthod and apparatus for easy moving to precision diagnostic module for teeth | |
WO2018076142A1 (en) | Method and system for classifiying maxillary central incisor | |
KR102369100B1 (en) | Method for displaying multi panoramic image and imaging processing apparatus thereof | |
KR102703557B1 (en) | Medical image processing method for diagnosing supernumerary tooth in radiographic images | |
CN117017249B (en) | Blood pressure detecting device | |
EP4307240A1 (en) | Method for identifying selection area in oral image and device therefor | |
WO2024164229A1 (en) | Image-based real-time tooth movement amount measurement method | |
CN118522048A (en) | Invisible correction face recognition system based on 3D scanning | |
JP2024106964A (en) | Dental image processing device, dental image processing system, dental image processing method, program, and program storage medium |