KR20190090664A - Dental area extraction system and method - Google Patents

Dental area extraction system and method Download PDF

Info

Publication number
KR20190090664A
KR20190090664A KR1020180009654A KR20180009654A KR20190090664A KR 20190090664 A KR20190090664 A KR 20190090664A KR 1020180009654 A KR1020180009654 A KR 1020180009654A KR 20180009654 A KR20180009654 A KR 20180009654A KR 20190090664 A KR20190090664 A KR 20190090664A
Authority
KR
South Korea
Prior art keywords
tooth
image
neural network
region
artificial neural
Prior art date
Application number
KR1020180009654A
Other languages
Korean (ko)
Other versions
KR102160097B1 (en
Inventor
김정훈
조현래
피재우
반 쿠옹 응우옌
권태웅
Original Assignee
(주)바텍이우홀딩스
주식회사 이우소프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)바텍이우홀딩스, 주식회사 이우소프트 filed Critical (주)바텍이우홀딩스
Priority to KR1020180009654A priority Critical patent/KR102160097B1/en
Publication of KR20190090664A publication Critical patent/KR20190090664A/en
Application granted granted Critical
Publication of KR102160097B1 publication Critical patent/KR102160097B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • A61B6/14
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/51Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Optics & Photonics (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Pulmonology (AREA)
  • Theoretical Computer Science (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

The present invention for achieving the above object relates to a dental area extraction system. The dental area extraction system includes: a database which stores a plurality of 3D dental CT images and a first dental area image obtained by separating a portion corresponding to a dental area from each of the 3D dental CT images; a first artificial neural network system which determines a first weight for the presence of teeth by learning based on the 3D dental CT image and the first dental area image provided from the database, and estimating the presence of teeth from the 3D dental CT image input from the outside; and a second artificial neural network system which determines a second weight of a dental region by learning based on the 3D dental CT image and the first dental area image provided from the database, estimating a dental area from the 3D dental CT image input from the outside, and extracting the dental area. It is possible to automatically separate and acquire the dental area by deep learning.

Description

치아영역 추출 시스템 및 방법{DENTAL AREA EXTRACTION SYSTEM AND METHOD}Dental area extraction system and method {DENTAL AREA EXTRACTION SYSTEM AND METHOD}

본 발명은 치아영역 추출 시스템 및 방법에 관한 것으로서, 보다 구체적으로 3차원 전산화 단층 촬영(이하, CT) 영상에서 딥러닝을 이용하여 자동으로 치아영역을 정밀하게 분리취득하는 치아영역 추출 시스템 및 방법에 관한 것이다.The present invention relates to a tooth region extraction system and method, and more particularly to a tooth region extraction system and method for automatically separating and precisely acquiring a tooth region using deep learning in a three-dimensional computed tomography (hereinafter, referred to as CT) image. It is about.

일반적으로 치과 전문의들은 환자 진료 및 크라운, 임플란트 등의 수술 설계를 위해 환자의 치아와 주변 조직 구조의 정확한 형태를 파악할 필요가 있다. 이를 위해, 치과 전문들의들은 환자의 구강을 3차원 CT 영상을 촬영하여 주변 조직의 형태와 사이즈를 확인하며, 보다 정밀한 진단을 위해서, 3차원 CT 영상에서 치아의 영역만을 분리하여 환자의 치아 상태를 살펴보길 원한다.Generally, dentists need to know the exact shape of the patient's teeth and surrounding tissue structures for patient care and surgical designs such as crowns and implants. To this end, dental practitioners take 3D CT images of the patient's mouth to check the shape and size of surrounding tissues. For more precise diagnosis, only the area of the tooth is separated from the 3D CT image to determine the patient's dental condition. I want to look.

이때, 치아 CT 영상의 복셀을 수치화하여 살펴보면, 동일한 조직에 대한 특징이 균일하지 못하며, CT 영상의 신체 내부를 투과한다는 특성으로 인해 노이즈가 포함된다. 따라서, 기존의 영상 처리 방식을 통해서는 CT 영상에서 치아와 그 주변의 조직을 정밀하게 분리하기 어렵다.In this case, when the voxel of the dental CT image is quantified, the characteristics of the same tissue are not uniform, and noise is included due to the characteristic of transmitting the inside of the body of the CT image. Therefore, it is difficult to precisely separate the teeth and the surrounding tissue from the CT image through the conventional image processing method.

또한, 치아 영역을 CT 영상에서 분리하기 위해 주로 사용하는 방법은, 수작업에 의해 치아 영역에 해당하는 영역을 지정해주고, 유사한 성질을 가진 영역을 알고리즘에 의해 자동 그룹화(grouping) 하는 방법이다. 다만, 이러한 방법은 정밀한 결과를 얻기 위해 작업자의 시간이 많이 소요되며, 정밀하게 치아 영역을 분리하기 어렵다. 따라서, CT 영상에서 치아 영역을 더 간단하고 정밀하게 분리할 수 있는 시스템 및 방법이 필요하다.In addition, a method mainly used for separating tooth regions from a CT image is a method of manually designating a region corresponding to a tooth region and automatically grouping regions having similar properties by an algorithm. However, this method takes a lot of time for the operator to obtain a precise result, it is difficult to precisely separate the tooth area. Therefore, there is a need for a system and method that allows simpler and more precise separation of dental regions from CT images.

본 발명은 치아영역 추출 시스템 및 방법에 관한 것으로서, 보다 구체적으로 3차원 CT 영상에서 딥러닝을 이용하여 자동으로 치아영역을 정밀하게 분리취득하는 데 그 목적이 있다. The present invention relates to a tooth region extraction system and method, and more particularly, to accurately separate and acquire a tooth region using deep learning in a 3D CT image.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시 예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention, which are not mentioned above, can be understood by the following description, and will be more clearly understood by the embodiments of the present invention. It will also be readily apparent that the objects and advantages of the invention may be realized and attained by means of the instrumentalities and combinations particularly pointed out in the appended claims.

상기 목적을 달성하기 위한 본 발명은, 치아영역 추출 시스템에 있어서, 다수의 3차원 치아 CT 영상 및 각각의 3차원 치아 CT 영상으로부터 치아영역에 해당하는 부분을 분리하여 취득된 제 1 치아영역 영상이 저장된 데이터 베이스, 상기 데이터 베이스로부터 제공된 상기 3차원 치아 CT 영상과 상기 제 1 치아영역 영상에 기반한 학습을 통해 치아 존재 유무에 대한 제 1 가중치를 결정하고, 외부로부터 입력된 3차원 치아 CT 영상으로부터 치아 존재 유무를 추정하는 제 1 인공 신경망 시스템 및 상기 데이터 베이스로부터 제공된 상기 3차원 치아 CT 영상과 상기 제 1 치아영역 영상에 기반한 학습을 통해 치아영역에 대한 제 2 가중치를 결정하고, 외부로부터 입력된 3차원 치아 CT 영상으로부터 치아영역을 추정하여 치아영역을 추출하는 제 2 인공 신경망 시스템을 포함한다.In order to achieve the above object, the present invention provides a tooth region extraction system comprising: a first tooth region image obtained by separating a portion corresponding to a tooth region from a plurality of three-dimensional teeth CT images and respective three-dimensional teeth CT images; A first weight for the presence or absence of a tooth is determined through a stored database and learning based on the 3D tooth CT image and the first tooth region image provided from the database, and the tooth is determined from an external 3D tooth CT image. The second artificial neural network system for estimating the presence or absence and a second weight for the tooth region are determined through learning based on the 3D tooth CT image and the first tooth region image provided from the database, Second artificial neural network system extracting tooth region by estimating tooth region from dimensional tooth CT image It includes.

본 발명은 대량의 3차원 CT 영상에 대해 인공 신경망을 학습시키면서, 원하는 치아영역이 획득될 때까지 반복하여 인공 신경망의 가중치를 업데이트함으로써, 3차원 CT 영상에 치아영역을 보다 정밀하게 분리취득하는 효과가 있다.The present invention, while learning the artificial neural network for a large number of three-dimensional CT image, by repeatedly updating the weight of the artificial neural network until the desired tooth region is obtained, the effect of more precise separation acquisition of the tooth region in the three-dimensional CT image There is.

또한, 본 발명에서 딥러닝에 이용되는 인공 신경망 구조는 손실되는 원본 데이터를 보완함으로써, 치아 영역의 추정 시 정확도를 향상시키는 효과가 있다. In addition, the artificial neural network structure used for deep learning in the present invention has the effect of improving the accuracy of the estimation of the tooth region by supplementing the original data is lost.

도 1은 본 발명의 일 실시예에 따른 치아영역 추출 시스템을 도시한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 치아영역 추출 시스템에서 사용되는 RNN(Recurrent Neural Network)방식을 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따른 치아영역 추출 시스템에서 사용되는 인공 신경망의 연결 구조를 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 치아영역 추출 시스템에서 제 1 인공 신경망 시스템의 구조를 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 치아영역 추출 시스템에서 제 2 인공 신경망 시스템의 구조를 나타낸 도면이다.
도 6은 본 발명의 일 실시예에 따른 치아영역 추출 시스템에서 치아 존재 유무 추정 및 치아영역의 추정 결과를 나타낸 도면이다.
도 7은 본 발명의 일 실시예에 따른 치아영역 추출 시스템의 영상 출력부에서 출력된 영상을 나타낸 도면이다.
도 8은 본 발명의 일 실시예에 따른 치아영역 추출 방법에 대한 흐름도이다.
도 9는 본 발명의 일 실시예에 따른 치아영역 추출 방법에서 S200 단계 및 S300 단계를 구체화한 흐름도이다.
1 is a block diagram showing a tooth region extraction system according to an embodiment of the present invention.
2 is a view showing a Recurrent Neural Network (RNN) method used in a tooth region extraction system according to an embodiment of the present invention.
3 is a view showing a connection structure of the artificial neural network used in the tooth region extraction system according to an embodiment of the present invention.
4 is a view showing the structure of the first artificial neural network system in the tooth region extraction system according to an embodiment of the present invention.
5 is a view showing the structure of the second artificial neural network system in the tooth region extraction system according to an embodiment of the present invention.
6 is a view showing the presence of teeth and the estimation result of the tooth region in the tooth region extraction system according to an embodiment of the present invention.
7 is a view showing an image output from the image output unit of the tooth region extraction system according to an embodiment of the present invention.
8 is a flowchart illustrating a tooth region extraction method according to an embodiment of the present invention.
9 is a flowchart illustrating steps S200 and S300 in the tooth region extraction method according to an embodiment of the present invention.

전술한 목적, 특징들 및 장점은 첨부된 도면과 관련한 다음의 실시예를 통하여 보다 분명해 질 것이다. The foregoing objects, features, and advantages will become more apparent from the following examples taken in conjunction with the accompanying drawings.

특정한 구조 내지 기능적 설명들은 단지 본 발명의 개념에 따른 실시예를 설명하기 위한 목적으로 예시된 것으로, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 출원의 명세서에서 설명된 실시예들에 한정되는 것으로 해석되어서는 아니된다.It is to be understood that the specific structure or functional description is illustrative only for the purpose of describing an embodiment according to the concept of the present invention and that the embodiments according to the concept of the present invention may be embodied in various forms, Should not be construed as limited to these.

본 발명의 개념에 따른 실시예는 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있으므로 특정 실시예들은 도면에 예시하고 본 출원의 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시 형태에 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The embodiments according to the concept of the present invention can make various changes and have various forms, so that specific embodiments are illustrated in the drawings and described in detail in the specification of the present application. However, it should be understood that the embodiments according to the concept of the present invention are not intended to limit the present invention to specific modes of operation, but include all changes, equivalents and alternatives included in the spirit and scope of the present invention.

어떠한 구성 요소가 다른 구성 요소에 "연결되어 있다"거나 "접속되어 있다"고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떠한 구성 요소가 다른 구성 요소에 "직접 연결되어 있다"거나 또는 "직접 접속되어 있다"고 언급된 때에는, 중간에 다른 구성 요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성 요소들 간의 관계를 설명하기 위한 다른 표현들, 즉 "∼사이에"와 "바로 ∼사이에" 또는 "∼에 인접하는"과 "∼에 직접 인접하는" 등의 표현도 마찬가지로 해석되어야 한다.Whenever an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but there may be other elements in between It should be understood. On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between. Other expressions for describing the relationship between components, such as "between" and "immediately between" or "adjacent to" and "directly adjacent to", should be interpreted as well.

본 출원의 명세서에서 사용하는 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로서, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서 "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in the specification of the present application is used only to describe a specific embodiment and is not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. It is to be understood that the terms such as " comprises "or" having "in this specification are intended to specify the presence of stated features, integers, But do not preclude the presence or addition of steps, operations, elements, parts, or combinations thereof.

다르게 정의되지 않는 한, 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. Unless defined otherwise, all terms used herein have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the meaning of the context in the relevant art and, unless explicitly defined herein, are to be interpreted as ideal or overly formal Do not.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로써 본 발명을 상세히 설명하도록 한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.Hereinafter, the present invention will be described in detail with reference to the preferred embodiments of the present invention with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements.

도 1은 본 발명의 일 실시예에 따른 치아영역 추출 시스템을 도시한 블록도이다. 도 1에 있어서, 치아영역 추출 시스템은 데이터 베이스(100), 영상 입력부(200), 제 1 인공 신경망 시스템(300), 제 2 인공 신경망 시스템(400) 및 영상 출력부(500)를 포함한다.1 is a block diagram showing a tooth region extraction system according to an embodiment of the present invention. In FIG. 1, the tooth region extraction system includes a database 100, an image input unit 200, a first artificial neural network system 300, a second artificial neural network system 400, and an image output unit 500.

데이터 베이스(100)는 다수의 3차원 치아 CT 영상 및 각각의 3차원 치아 CT 영상으로부터 치아영역에 해당하는 부분을 분리하여 취득된 치아영역 영상이 저장된다.The database 100 stores a plurality of 3D tooth CT images and a tooth region image obtained by separating a portion corresponding to a tooth region from each 3D tooth CT image.

영상 입력부(200)는 3차원 치아 CT 영상을 외부로부터 입력받고, CT 영상에 대한 전처리 과정을 진행한다. 여기서, 전처리 과정은 영상마다 다른 시계(Field of view)와 샘플링 간격 차이에 대한 정규화를 지칭한다. 즉, 3차원 CT 영상마다 다르게 구성될 수 있는 다수의 2차원 CT 슬라이스(slice)를 정규화함으로써, 이후 인공 신경망에서 CT 슬라이스에 대한 내부 연산을 용이하게 하기 위한 과정이다. The image input unit 200 receives a 3D dental CT image from the outside and performs a preprocessing process on the CT image. Here, the preprocessing process refers to normalization of a field of view and a sampling interval difference that are different for each image. That is, by normalizing a plurality of two-dimensional CT slices that can be configured differently for each three-dimensional CT image, it is a process for facilitating internal calculation of CT slices in an artificial neural network.

제 1 인공 신경망 시스템(300)은 데이터 베이스로부터 제공된 다수의 3차원 치아 CT 영상 및 각각의 3차원 치아 CT 영상으로부터 치아영역에 해당하는 부분을 분리하여 취득된 치아영역 영상에 기반한 학습을 통해, 치아 존재 유무에 대한 가중치를 결정하고, 외부로부터 입력된 3차원 치아 CT 영상으로부터 치아 존재 유무를 추정한다. 여기서, 인공 신경망은 인간의 인식방식과 유사하게 모델링된 복수 층의 계층적 구조를 말한다. 가중치는 인공 신경망(Neural Network)에서 각 층들을 연결하는 강도를 의미하며, 가중치를 반복적으로 조정하면 인공 신경망의 학습이 가능할 수 있다. 이하, 기존에 사용자가 수작업 등을 통해 3차원 치아 CT 영상으로부터 치아영역에 해당하는 부분을 분리하여 취득된 치아영역 영상을 제 1 치아영역 영상이라 한다. The first artificial neural network system (300) is a tooth through the learning based on the tooth region image obtained by separating a portion corresponding to the tooth region from a plurality of three-dimensional teeth CT images and each of the three-dimensional teeth CT images provided from the database, A weight for presence or absence is determined, and the presence or absence of teeth is estimated from an external 3D dental CT image. Here, the artificial neural network refers to a hierarchical structure of a plurality of layers modeled similarly to a human recognition method. The weight refers to the strength connecting the layers in the artificial neural network, and by adjusting the weight repeatedly, the artificial neural network may be learned. Hereinafter, a tooth region image acquired by separating a portion corresponding to a tooth region from a 3D tooth CT image by a user by hand or the like is referred to as a first tooth region image.

제 2 인공 신경망 시스템(400)은 데이터 베이스로부터 제공된 다수의 3차원 치아 CT 영상 및 각각의 3차원 치아 CT 영상에 대한 제 1 치아영역 영상에 기반한 학습을 통해, 치아영역에 대한 가중치를 결정하고, 외부로부터 입력된 3차원 치아 CT 영상으로부터 치아영역을 추정하여 치아영역을 추출한다.The second artificial neural network system 400 determines weights for tooth regions through learning based on a plurality of three-dimensional tooth CT images provided from a database and first tooth region images for each three-dimensional tooth CT images. The tooth region is extracted by estimating the tooth region from the 3D dental CT image input from the outside.

영상 출력부(500)는 추정된 치아영역에 기반하여, 치아영역이 분리된 이진 마스크(binary mask)를 출력한다.The image output unit 500 outputs a binary mask in which the tooth region is separated based on the estimated tooth region.

도 2는 본 발명의 일 실시예에 따른 치아영역 추출 시스템에서 사용되는 RNN(Recurrent Neural Network)방식을 나타낸 도면이며, 도 3은 본 발명의 일 실시예에 따른 치아영역 추출 시스템에서 사용되는 인공 신경망의 연결 구조를 나타낸 도면이다. 도 2를 참조하면, 본 발명에 있어서, 제 1 인공 신경망 시스템(300)과 제 2 인공 신경망 시스템(400)은 RNN(Recurrent Neural Network)방식을 채용한 딥러닝(Deep Learning) 기술을 활용한다. RNN 방식은 외부로부터 입력된 데이터(예컨대, CT 슬라이스)에 대한 출력 데이터(예컨대, 마스크 이미지)를 인공 신경망을 통해 추정하고, 다음으로 입력되는 데이터와 추정된 출력 데이터를 접합하여 다시 인공 신경망에 입력하는 것을 반복함으로써, 보다 정밀하게 출력 데이터를 추정하는 방식이다. 여기서, CT 슬라이스는 3차원 치아 CT 영상을 구성하는 2차원 치아 이미지를 의미하고, 마스크 이미지는 3차원 치아 CT 영상에서 치아 영역에 해당하는 부분이 분리취득된 마스크 영상을 구성하는 2차원 이미지를 의미한다.2 is a view showing a Recurrent Neural Network (RNN) method used in the tooth region extraction system according to an embodiment of the present invention, Figure 3 is an artificial neural network used in the tooth region extraction system according to an embodiment of the present invention Is a diagram showing a connection structure of a. Referring to FIG. 2, in the present invention, the first artificial neural network system 300 and the second artificial neural network system 400 utilize deep learning technology employing a Recurrent Neural Network (RNN) scheme. The RNN method estimates output data (e.g., mask image) for data input from the outside (e.g., a CT slice) through an artificial neural network, and then inputs the input data and the estimated output data to the artificial neural network again. By repeating the above operation, the output data is more accurately estimated. Here, the CT slice refers to the two-dimensional teeth image constituting the three-dimensional teeth CT image, the mask image refers to the two-dimensional image constituting the mask image obtained by separating the portion corresponding to the tooth region in the three-dimensional teeth CT image do.

또한, 본 발명에서 인공 신경망 구조는 FCN(Fully Convolutional Network)기법을 사용하는 것이 바람직하다. FCN 기법은 컨벌루션 계층(Convolution layer)들을 여러번 거치면서 입력된 이미지의 크기가 줄어들게 하고, 이미지 내의 특징(Feature)이 추출된 뒤에, 풀리 커넥티드 계층(Fully-Connected Layer)를 거치면서 이미지가 분류되게 하는 기법을 말한다.In addition, in the present invention, the artificial neural network structure preferably uses FCN (Fully Convolutional Network) technique. The FCN technique reduces the size of the input image through the convolution layers several times, extracts the features within the image, and then classifies the images through the fully-connected layer. Say technique.

도 3을 참조하면, 본 발명에 있어서, 제 1 인공 신경망 시스템(300)과 제 2 인공 신경망 시스템(400)은 제 1 신경망, 제 2 신경망 및 제 3 신경망으로 구성될 수 있다. 각각의 신경망은 서로 연결될 수 있으며, 점선으로 된 화살표는 제 1 신경망과 제 2 신경망이 연결될 때의 데이터 흐름을 의미한다.Referring to FIG. 3, in the present invention, the first artificial neural network system 300 and the second artificial neural network system 400 may include a first neural network, a second neural network, and a third neural network. Each neural network may be connected to each other, and a dotted arrow indicates a data flow when the first and second neural networks are connected.

제 1 신경망은 CT 영상의 위치 정보를 고려하여, CT 슬라이스가 다수의 컨벌루션 계층(Convoultion layer) 및 풀링 계층(Polling layer)을 단계적으로 거치게 하는 신경망이다. 이 과정에서 CT 슬라이스는 압축되어 특징이 추출된다. 여기서, 컨벌루션 계층은 입력 데이터로부터 특징을 추출하는 계층이며, 풀링 계층은 컨벌루션 계층을 거쳐서 추출된 특징들을 서브 샘플링(Sub sampling)하여 데이터를 압축하는 계층이다. 이때, 풀링 계층은 컨벌루션 계층에서 추출된 특징들 중 최대 값을 추출함으로써 데이터를 압축하는 맥스 풀링 계층(Max pulling layer)일 수 있다.The first neural network is a neural network that allows a CT slice to pass through a plurality of convolutional layers and a pulling layer in consideration of position information of a CT image. In this process, the CT slices are compressed to extract features. Here, the convolutional layer is a layer for extracting features from the input data, and the pooling layer is a layer for compressing data by subsampling the features extracted through the convolutional layer. In this case, the pooling layer may be a max pulling layer that compresses data by extracting a maximum value among features extracted from the convolutional layer.

제 2 신경망은 제 1 신경망에서 제공된 데이터와 CT 슬라이스에 대한 접합(concatenation)과정 이후, 제 1 신경망에서 제공된 데이터와 접합된 CT 슬라이스가 컨벌루션 계층 및 업 컨브 계층(Up-Conv layer)을 거치며, 최종적으로 시그모이드(Sigmoid) 함수를 통해 특정 영역이 추정된 이미지 데이터를 추출하는 신경망이다. 이 과정에서 CT 슬라이스가 단계적으로 확대되면서 해상도가 복원된다. 여기서, 접합은 두 개의 매트릭스를 특정 축 방향으로 나란히 붙여서 하나의 매트릭스로 만드는 것이며, 업 컨브 계층은 업 샘플링, 즉, 축소된 매트릭스를 다시 확대시키고, 컨벌루션 연산을 반대로 적용하는 계층이다. 시그모이드 함수는 최소 지점을 찾는 이산 분류 함수를 말한다.In the second neural network, after the concatenation process of the data provided from the first neural network with the CT slice, the CT slice concatenated with the data provided from the first neural network passes through the convolutional layer and the up-conv layer. This is a neural network that extracts image data from which a specific region is estimated through a sigmoid function. In this process, the resolution is restored as the CT slice is enlarged in stages. In this case, the joining is to combine two matrices side by side in a specific axial direction to form one matrix, and the upconve layer is a layer for upsampling, ie, expanding the reduced matrix again, and applying convolution operations in reverse. The sigmoid function is a discrete classification function for finding the minimum point.

제 3 신경망은 다수의 풀리 커넥티드 계층(Fully-Connected Layer)으로 이루어진 MLP(Multi layer perceptron)로써, 전체적으로 연결된 신경망 연결 구조를 통해 CT 영상에서 영상의 의미를 파악하는 신경망이다.The third neural network is a multi-layer perceptron (MLP) composed of a plurality of fully-connected layers, and is a neural network that grasps the meaning of an image in a CT image through an entirely connected neural network connection structure.

도 4는 본 발명의 일 실시예에 따른 치아영역 추출 시스템에서 제 1 인공 신경망 시스템(300)의 구조를 도시한 도면이며, 도 5는 본 발명의 일 실시예에 따른 치아영역 추출 시스템에서 제 2 인공 신경망 시스템(400)의 구조를 도시한 도면이다. 또한, 도 6은 본 발명의 일 실시예에 따른 치아영역 추출 시스템에서 치아 존재 유무 추정 및 치아영역의 추정 결과를 나타낸 도면이고, 도 7은 본 발명의 일 실시예에 따른 치아영역 추출 시스템의 영상 출력부(500)에서 출력된 영상을 나타낸 도면이다.4 is a view showing the structure of the first artificial neural network system 300 in the tooth region extraction system according to an embodiment of the present invention, Figure 5 is a second in the tooth region extraction system according to an embodiment of the present invention The structure of the artificial neural network system 400 is shown. 6 is a view showing the presence of the tooth and the estimation result of the tooth region in the tooth region extraction system according to an embodiment of the present invention, Figure 7 is an image of the tooth region extraction system according to an embodiment of the present invention The image output from the output unit 500 is a view.

도 1 내지 도 7을 참조하여, 치아영역 분리 시스템의 동작을 구체적으로 설명하겠다. 각각의 인공 신경망에서 이루어지는 동작은 다수의 CT 슬라이스 각각에 대하여 순차적으로 이루어진다. 1 to 7, the operation of the tooth region separation system will be described in detail. The operations in each artificial neural network are performed sequentially for each of the plurality of CT slices.

제 1 인공 신경망 시스템(300)은 순방향으로 진행하면서, 치아의 존재를 구분할 수 있도록 입력된 3차원 치아 CT 영상을 압축하고, 압축된 영상을 일렬로 된 벡터로 변경함으로써 치아 유무를 추정하는 데이터를 생성한다. 구체적으로, 제 1 인공 신경망 시스템(300)은 치아의 존재를 구분할 수 있도록 제 1 신경망을 통해 입력된 CT 슬라이스의 사이즈를 축소시키고, 축소된 결과를 일렬로 된 벡터로 변경(flatten)하여, 제 3 신경망을 거쳐 치아의 유무를 추정한다. 이때, 최종 결과는 2차원의 벡터로 표현되며, 소프트맥스(softmax) 함수를 통해 출력 값이 치아가 존재하지 않으면 벡터의 0 번째 인덱스가 1로 나타나고, 치아가 존재하면 1 번째 인덱스가 1로 나타난다. 여기서, 소프트맥스(softmax) 함수는 입력을 0~1 사이의 값으로 모두 정규화하여 출력하고, 출력의 합이 1이 되게 만드는 함수이다. K 차원의 벡터 데이터가 z가 있을때, softmax 함수는 다음의 수학식 1과 같다.The first artificial neural network system 300 proceeds in the forward direction, compresses the input 3D dental CT image to distinguish the presence of teeth, and converts the compressed image into a lined vector to estimate the presence or absence of teeth. Create Specifically, the first artificial neural network system 300 reduces the size of the CT slice input through the first neural network so as to distinguish the presence of teeth, and flattens the reduced result into a lined vector, 3 Neural network to estimate the presence of teeth. At this time, the final result is expressed as a two-dimensional vector. If the output value is not present through the softmax function, the zeroth index of the vector appears as 1, and if the tooth exists, the first index is represented as 1. . Here, the softmax function is a function that normalizes all inputs to a value between 0 and 1, and outputs them so that the sum of the outputs is 1. When the vector data of the K dimension is z, the softmax function is represented by Equation 1 below.

Figure pat00001
Figure pat00001

제 2 인공 신경망 시스템(400)은 순방향으로 진행하면서, CT 영상에서 치아 중심 영역을 추정하며, 입력 데이터는 CT 슬라이스와 제 1 인공 신경망 시스템(300)의 치아 유무 존재에 대한 추정 데이터 및 이전에 입력된 CT 슬라이스에서 치아 중심 영역에 대한 추정이 이루어진 데이터가 접합된 데이터일 수 있다. 제 2 인공 신경망 시스템(400)은 제 1 신경망과 제 2 신경망이 연결된 인공 신경망을 사용한다. 제 1 신경망은 치아의 특징을 가지는 영역을 구분할 수 있는 사이즈로 입력 데이터를 사영(projection)시키며, 제 2 신경망은 제 1 신경망을 통해 구분된 특징들을 조합하여 동일한 특징을 지닌 영역으로 그룹화(grouping)한다. 이에 따라, 치아가 존재하는 것으로 추정되는 영역은 1로 나타나고 치아가 존재하지 않는 것으로 추정되는 영역은 0으로 나타나는 마스크(mask) 이미지가 출력된다. 여기서, 제 2 신경망을 이용한 그룹화는 영상로부터 추출된 특징이 같은 영역을 동일한 레이블(lable)로 그룹화하는 시맨틱 분할(semantic segmentation) 기법일 수 있다. 또한, 도 2에서의 데이터 흐름을 참고하면, 제 1 신경망과 제 2 신경망이 연결되는 방식은 유넷(u-net) 방식일 수 있으며, 여기서, 유넷(u-net) 방식은 제 1 신경망에서 영상 사이즈가 다운샘플링될 때 출력되는 데이터가 제 2 신경망에서 영상 사이즈의 업샘플링 과정 중 접합하는 단계에 연결되는 방식을 말한다. 즉, 인공 신경망 구조에서 계층(layer)이 깊어짐에 따라, 손실되는 원본 데이터의 정보를 깊은 층에 피딩(feeding)시켜, 추정의 정확도를 향상시키고, 인공 신경망의 학습이 원활히 이루어질 수 있도록 한다.The second artificial neural network system 400 proceeds in the forward direction, and estimates the tooth center region in the CT image, and the input data are previously inputted data for the presence of the CT slice and the presence of the teeth of the first artificial neural network system 300, and previously inputted. The data on which the estimation of the tooth center region in the CT slice has been made may be the joined data. The second artificial neural network system 400 uses an artificial neural network to which the first neural network and the second neural network are connected. The first neural network projects the input data in a size that can distinguish regions having tooth characteristics, and the second neural network groups the regions having the same characteristics by combining features distinguished through the first neural network. do. Accordingly, a mask image in which a region in which the tooth is assumed to exist is represented by 1 and a region in which the tooth is estimated to be absent is represented by 0 is output. Here, the grouping using the second neural network may be a semantic segmentation technique in which regions having the same feature extracted from the image are grouped with the same label. In addition, referring to the data flow of FIG. 2, a method in which the first neural network and the second neural network are connected may be a u-net method, wherein the u-net method is an image in the first neural network. When the size is downsampled, the output data is connected to the splicing step in the upsampling process of the image size in the second neural network. That is, as the layer deepens in the artificial neural network structure, the information of the original data lost is fed to the deep layer to improve the accuracy of the estimation and to facilitate the learning of the artificial neural network.

또한, 도 6을 참조하면, 치아 유무의 추정 결과는 우측 그래프로 표현되며, X축은 치아가 존재하는 CT 슬라이스이면 1 값을, 치아가 존재하지 않는 CT 슬라이스이면 0 값을 갖는 확률 값이고, Y축은 CT 슬라이스의 넘버이다. CT 영상 아래에 나타난 아치 형태의 점 영상은 치아영역의 추정 영상으로 오른쪽 그래프에서 X축이 1인 영역에만 CT 슬라이스에 점 영상이 표시된다.In addition, referring to FIG. 6, the estimation result of the presence or absence of a tooth is represented by a graph on the right, and the X axis is a probability value having a value of 1 for CT slices with teeth and 0 for CT slices without teeth, and Y. The axis is the number of CT slices. The arch-shaped point image shown below the CT image is an estimated image of the tooth region, and the point image is displayed on the CT slice only in the region where the X axis is 1 in the right graph.

제 2 인공 신경망 시스템(400)은 순방향으로 재 진행하면서, 보다 정밀하게 치아 영역을 추정한다. 입력 데이터는 CT 슬라이스와 마스크 이미지 및 이전에 입력된 CT 슬라이스의 마스크 영상이 접합된 데이터일 수 있다. 제 2 인공 신경망 시스템(400)은 입력된 CT 영상을 재 진행을 통해 추정된 치아영역에 대한 위치 정보와 접합하여, 치아 영역은 1로 표현되고, 치아 영역은 0으로 표현되는 마스크(mask) 영상을 출력한다.The second artificial neural network system 400 re-progresses in the forward direction and estimates the tooth region more precisely. The input data may be data in which a CT slice and a mask image and a mask image of a previously input CT slice are bonded. The second artificial neural network system 400 joins the input CT image with the position information about the tooth region estimated through re-progression, so that the tooth region is represented by 1 and the tooth region is represented by 0. Outputs

이후, 제 2 인공 신경망 시스템(400)은 출력된 마스크 영상에서 치아영역을 분리한다. 이때, 영상처리는 당업자에게 널리 알려진 라벨링(labeling) 알고리즘과 워터셔드(watershed) 알고리즘을 이용하여 분리하므로, 구체적인 동작은 생략한다.Thereafter, the second artificial neural network system 400 separates the tooth region from the output mask image. In this case, the image processing is separated using a labeling algorithm and a watershed algorithm, which are well known to those skilled in the art, and thus a detailed operation thereof will be omitted.

각 인공 신경망 시스템의 학습 시에는 각 인공 신경망 시스템의 추정 방향과 역방향으로 진행되며, 원하는 결과(Ground Truth)와 인공 신경망 시스템에서 추정한 예측 영상과의 차이가 최소화되는 방향으로 인공 신경망을 학습시킨다. 본 발명에 있어서, 인공 신경망에 대한 학습 시에는 경사 하강법(gradient descent)을 적용하고, 지역 최적점(local minima)문제를 해결하기 위해 배치 정규화(batch normalization)를 이용할 수 있다. 여기서, 경사 하강법은 현재 위치에서 가장 경사가 급한 곳을 찾고, 그 방향으로 이동하여 새로운 위치를 지정하는 과정을 통해 가장 낮은 지점을 찾아가는 방법이다. 지역 최적점의 문제는 인공 신경망을 통해 가장 낮은 지점을 찾아가는 과정에서 사용자가 의도한 방향으로 진행되지 않고, 전혀 다른 방향으로 진행되는 문제를 말하며, 배치 정규화는 함수의 출력 값 또는 활성화 값을 정규화하는 방법으로, 신경망의 각 계층에 대해 데이터의 분포를 정규화하는 것을 말한다.At the time of learning each artificial neural network system, the artificial neural network system is processed in the opposite direction to the estimated direction of each artificial neural network system, and the artificial neural network is trained in a direction that minimizes the difference between the desired result (Ground Truth) and the predicted image estimated by the artificial neural network system. In the present invention, when learning about artificial neural networks, gradient descent may be applied, and batch normalization may be used to solve a local minima problem. Here, the gradient descent method is a method of finding the lowest slope from the current position and moving to that direction to find the lowest point. The problem of the local optimal point is a problem that does not go in the direction intended by the user in the process of finding the lowest point through the artificial neural network, but in a different direction. Batch normalization is used to normalize the output value or activation value of the function. In this method, the distribution of data is normalized for each layer of the neural network.

구체적으로, 제 1 인공 신경망 시스템(300)은 역방향으로 진행하면서, 데이터 베이스로부터 제공된 다수의 3차원 치아 CT 영상과 각각의 3차원 치아 CT 영상에 대한 제 1 치아영역 영상에 기반한 학습을 통해, 치아 존재 유무에 대한 제 1 가중치를 결정한다. 그리고, 데이터 베이스에 저장된 3차원 치아 CT 영상과 제 1 치아영역 영상을 제공받아, 3차원 치아 CT 영상으로부터 치아영역에 해당하는 부분을 분리하여 제 2 치아영역 영상을 취득한 후, 제 1 치아영역 영상과 제 2 치아영역 영상의 비교를 통해, 사용자가 원하는 결과를 얻을 때까지 반복하여 제 1 가중치를 업데이트한다. 여기서, 제 2 치아영역 영상은 인공 신경망 시스템을 통해 3차원 치아 CT 영상에서 치아영역에 해당하는 부분을 분리취득한 영상을 의미한다.Specifically, the first artificial neural network system 300 proceeds in the reverse direction, and through the learning based on a plurality of three-dimensional teeth CT images provided from the database and the first tooth region image for each three-dimensional teeth CT image, The first weight for presence or absence is determined. After receiving the 3D tooth CT image and the first tooth region image stored in the database, the second tooth region image is obtained by separating the portion corresponding to the tooth region from the 3D tooth CT image and then obtaining the first tooth region image. By comparing the second tooth region image, the first weight is repeatedly updated until a desired result is obtained by the user. Here, the second tooth region image refers to an image obtained by separating and acquiring a portion corresponding to the tooth region in the 3D tooth CT image through an artificial neural network system.

제 2 인공 신경망 시스템(400)은 역방향으로 진행하면서, 데이터 베이스로부터 제공된 다수의 3차원 치아 CT 영상과 각각의 3차원 치아 CT 영상에 대한 제 1 치아영역 영상에 기반한 학습을 통해, 치아영역에 대한 제 2 가중치를 결정한다. 그리고, 데이터 베이스에 저장된 3차원 치아 CT 영상과 제 1 치아영역 영상을 제공받아, 3차원 치아 CT 영상으로부터 치아영역에 해당하는 부분을 분리하여 제 2 치아영역 영상을 취득한 후, 제 1 치아영역 영상과 제 2 치아영역 영상의 비교를 통해, 사용자가 원하는 결과를 얻을 때까지 반복하여 제 2 가중치를 업데이트한다. The second artificial neural network system 400 proceeds in the reverse direction and learns about the tooth region through learning based on a plurality of three-dimensional tooth CT images provided from a database and a first tooth region image of each three-dimensional tooth CT image. Determine a second weight. After receiving the 3D tooth CT image and the first tooth region image stored in the database, the second tooth region image is obtained by separating the portion corresponding to the tooth region from the 3D tooth CT image and then obtaining the first tooth region image. By comparing the second tooth region image with the second tooth region image, the second weight value is repeatedly updated until a desired result is obtained by the user.

도 6을 참조하면, 영상 출력부(500)는 전체 치아가 정밀하게 분리된 이진 마스크를 출력하며, 경계를 부드럽게 하기위한 스무딩(smoothing) 필터링 후처리를 할 수 있다. 스무딩 필터링 후처리는 당업자에게 널리 알려진 알고리즘을 사용하므로, 구체적인 설명은 생략한다.Referring to FIG. 6, the image output unit 500 may output a binary mask in which all teeth are precisely separated, and may perform post-filtering smoothing to smooth the boundary. Smooth filtering post-processing uses algorithms well known to those skilled in the art, and thus, detailed descriptions thereof will be omitted.

도 8은 본 발명의 일 실시예에 따른 치아영역 추출 방법에 대한 흐름도이다. 도 8에 있어서, 상술한 치아영역 추출 시스템에 대한 설명을 참조하여, 3차원 치아 CT 영상으로부터의 치아영역 추출 방법을 설명하겠다. 8 is a flowchart illustrating a tooth region extraction method according to an embodiment of the present invention. In FIG. 8, a tooth region extraction method from a 3D dental CT image will be described with reference to the description of the tooth region extraction system described above.

우선, S100 단계에서, 인공 신경망의 학습에 필요한 영상들을 데이터 베이스에 저장한다. 여기서, 인공 신경망의 학습에 필요한 영상들은 다수의 3차원 치아 CT 영상 및 각각의 3차원 치아 CT 영상으로부터 치아영역에 해당하는 부분을 분리하여 취득한 제 1 치아영역 영상을 의미한다.First, in step S100, images necessary for learning the artificial neural network are stored in a database. Here, the images necessary for learning the artificial neural network mean a first tooth region image obtained by separating a portion corresponding to a tooth region from a plurality of 3D tooth CT images and respective 3D tooth CT images.

S200 단계에서, 데이터 베이스로부터 제공된 3차원 치아 CT 영상과 제 1 치아영역 영상에 기반하여, 인공 신경망을 학습시킴으로써 가중치를 결정한다.In step S200, the weight is determined by learning an artificial neural network based on the 3D dental CT image and the first tooth region image provided from the database.

S300 단계에서, 가중치가 결정된 인공 신경망을 사용하여, 외부로부터 입력된 3차원 치아 CT 영상으로부터 치아 영역에 해당하는 부분을 분리취득한다.In operation S300, a part corresponding to the tooth region is separately acquired from the 3D dental CT image input from the outside by using the artificial neural network whose weight is determined.

S400 단계에서, 분리취득된 치아영역을 이진 마스크로 출력한다.In operation S400, the separated tooth region is output as a binary mask.

도 9는 본 발명의 일 실시예에 따른 치아영역 추출 방법에서 S200 단계 및 S300 단계를 구체화한 흐름도이다. 9 is a flowchart illustrating steps S200 and S300 in the tooth region extraction method according to an embodiment of the present invention.

도 9에 도시된 바와 같이, S210 단계에서, 제 1 인공 신경망 시스템을 데이터 베이스에 저장된 다수의 3차원 치아 CT 영상으로부터 치아 존재 유무에 대해 학습시켜, 제 1 인공 신경망 시스템의 제 1 가중치를 결정한다. As shown in FIG. 9, in step S210, the first artificial neural network system is trained on the presence of teeth from a plurality of three-dimensional dental CT images stored in a database to determine a first weight of the first artificial neural network system. .

S310 단계에서, 치아의 존재를 구분할 수 있도록 입력된 3차원 치아 CT 영상을 압축하고, 압축된 영상을 일렬로 된 벡터로 변경함으로써 치아 존재 유무를 추정하는 데이터를 생성하는 제 1 인공 신경망 시스템을 사용한다.In step S310, using the first artificial neural network system to compress the input three-dimensional teeth CT image to distinguish the presence of the teeth, and to generate data for estimating the presence of teeth by changing the compressed image into a lined vector do.

S220 단계에서, 제 2 인공 신경망 시스템을 데이터 베이스에 저장된 다수의 3차원 치아 CT 영상으로부터 3차원 CT 영상에서의 치아 중심 영역에 대해 학습시켜, 제 2 인공 신경망 시스템의 제 2 가중치를 결정한다.In operation S220, the second artificial neural network system is trained on the tooth center region of the three-dimensional CT image from the plurality of three-dimensional dental CT images stored in the database to determine a second weight of the second artificial neural network system.

S320 단계에서, 치아 중심 영역을 구분할 수 있도록 상기 입력된 3차원 치아 CT 영상에서 동일한 특징값을 지닌 영역이 그룹화된 데이터, 즉, 마스크 이미지를 생성하는 제 2 인공 신경망 시스템을 사용한다.In operation S320, a second artificial neural network system generating data, that is, a mask image, in which regions having the same feature values are grouped in the input 3D dental CT image so as to distinguish a tooth center region is used.

S230 단계에서,제 2 인공 신경망 시스템을 데이터 베이스에 저장된 제 1 치아영역 영상과 제 2 치아영역 영상의 비교를 통해 제 2 가중치를 업데이트한다.In operation S230, the second artificial neural network system updates the second weight by comparing the first tooth region image and the second tooth region image stored in the database.

S330 단계에서, 마스크 이미지를 입력되는 3차원 치아 CT 영상에 접합시키고, 제 2 인공 신경망 시스템을 사용하여 접합된 3차원 치아 CT 영상로부터 치아 전체 영역을 추정하며, 3차원 치아 CT 영상에서 치아 영역에 해당하는 부분을 분리취득한다.In operation S330, the mask image is bonded to the input 3D dental CT image, and the entire tooth region is estimated from the 3D dental CT image bonded using the second artificial neural network system. Separate the relevant parts.

발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.Although the invention has been described with reference to the embodiments shown in the drawings, this is merely exemplary, and those skilled in the art will appreciate that various modifications and equivalent other embodiments are possible therefrom. . Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

Claims (16)

치아영역 추출 시스템에 있어서,
다수의 3차원 치아 CT 영상 및 각각의 3차원 치아 CT 영상으로부터 치아영역에 해당하는 부분을 분리하여 취득된 제 1 치아영역 영상이 저장된 데이터 베이스;
상기 데이터 베이스로부터 제공된 상기 3차원 치아 CT 영상과 상기 제 1 치아영역 영상에 기반하여 외부로부터 입력된 3차원 치아 CT 영상으로부터 치아 존재 유무와 치아영역을 추정하여 치아영역을 추출하는 인공 신경망 시스템 및
상기 추출된 치아영역을 이진 마스크로 출력하는 영상 출력부를 포함하는
치아영역 추출 시스템.
In the tooth area extraction system,
A database storing a first tooth region image obtained by separating a portion corresponding to a tooth region from a plurality of 3D tooth CT images and each 3D tooth CT image;
An artificial neural network system extracting a tooth region by estimating the presence or absence of a tooth from a 3D tooth CT image input from the outside based on the 3D tooth CT image and the first tooth region image provided from the database;
An image output unit for outputting the extracted tooth region as a binary mask
Tooth area extraction system.
제 1 항에 있어서,
상기 인공 신경망 시스템은,
상기 데이터 베이스로부터 제공된 상기 3차원 치아 CT 영상과 상기 제 1 치아영역 영상에 기반한 학습을 통해 상기 치아 존재 유무에 대한 제 1 가중치를 결정하고, 상기 외부로부터 입력된 3차원 치아 CT 영상으로부터 상기 치아 존재 유무를 추정하는 제 1 인공 신경망 시스템 및
상기 데이터 베이스로부터 제공된 상기 3차원 치아 CT 영상과 상기 제 1 치아영역 영상에 기반한 학습을 통해 상기 치아영역에 대한 제 2 가중치를 결정하고, 상기 외부로부터 입력된 3차원 치아 CT 영상으로부터 상기 치아영역을 추출하는 제 2 인공 신경망 시스템을 포함하는
치아영역 추출 시스템.
The method of claim 1,
The artificial neural network system,
The first weight for the presence of the tooth is determined by learning based on the 3D tooth CT image and the first tooth region image provided from the database, and the tooth is present from the 3D tooth CT image input from the outside. A first artificial neural network system for estimating the presence and absence of
The second weight of the tooth region is determined by learning based on the 3D tooth CT image and the first tooth region image provided from the database, and the tooth region is determined from the 3D tooth CT image input from the outside. Including a second artificial neural network system to extract
Tooth area extraction system.
제 2 항에 있어서,
상기 제 1 또는 제 2 인공 신경망 시스템 중 적어도 하나는,
상기 데이터 베이스에 저장된 3차원 치아 CT 영상과 상기 제 1 치아영역 영상을 제공받아, 3차원 치아 CT 영상으로부터 치아영역에 해당하는 부분을 분리하여 제 2 치아영역 영상을 취득한 후, 상기 제 1 치아영역 영상과 제 2 치아영역 영상의 비교를 통해 상기 제 1 또는 제 2 가중치 중 적어도 하나를 업데이트하는
치아영역 추출 시스템.
3. The method of claim 2,
At least one of the first or second artificial neural network system,
After receiving the 3D tooth CT image and the first tooth region image stored in the database, and obtaining a second tooth region image by separating a portion corresponding to the tooth region from the 3D tooth CT image, the first tooth region Updating at least one of the first or second weights by comparing an image with a second tooth region image
Tooth area extraction system.
제 3 항에 있어서,
상기 제 1 인공 신경망 시스템은,
치아의 존재를 구분할 수 있도록 상기 입력된 3차원 치아 CT 영상을 압축하고, 압축된 영상을 일렬로 된 벡터로 변경함으로써 치아 유무를 추정하는 데이터를 생성하는
치아영역 추출 시스템.
The method of claim 3, wherein
The first artificial neural network system,
Compressing the input three-dimensional teeth CT image to distinguish the presence of the teeth, and converts the compressed image into a lined vector to generate data to estimate the presence of teeth
Tooth area extraction system.
제 3 항에 있어서,
상기 제 2 인공 신경망 시스템은,
치아 중심 영역을 구분할 수 있도록 상기 입력된 3차원 치아 CT 영상에서 동일한 특징값을 지닌 영역이 그룹화된 데이터를 생성하며,
상기 그룹화된 데이터를 상기 3차원 치아 CT 영상에 접합시키고, 상기 접합된 3차원 치아 CT 영상 및 그룹화된 데이터로부터 치아 전체 영역을 추정하며, 상기 3차원 치아 CT 영상에서 치아 영역에 해당하는 부분을 분리하는
치아영역 추출 시스템.
The method of claim 3, wherein
The second artificial neural network system,
In order to distinguish the central tooth region, the data having the same feature values are grouped in the input 3D dental CT image.
The grouped data is bonded to the 3D tooth CT image, the entire tooth region is estimated from the bonded 3D tooth CT image and the grouped data, and a portion corresponding to the tooth region is separated from the 3D tooth CT image. doing
Tooth area extraction system.
제 4 항에 있어서,
상기 치아 유무를 추정하는 데이터는,
2차원 벡터로 표현되며, 치아가 존재하면 1번째 인덱스가 1로 활성화되고, 치아가 존재하지 않으면 0번째 인덱스가 1로 활성화되는 원-핫 벡터(one-hot vector)형태인
치아영역 추출 시스템.
5. The method of claim 4,
The data for estimating the presence or absence of teeth,
Represented as a two-dimensional vector, the tooth has a one-hot vector in which the first index is activated to 1, and if the tooth is not present, the zero index is activated to 1.
Tooth area extraction system.
제 5 항에 있어서,
상기 그룹화된 데이터는,
치아가 존재하는 것으로 추정되는 영역은 1로 나타나고, 치아가 존재하지 않는 것으로 추정되는 영역은 0으로 나타나는 마스크 이미지 데이터인
치아영역 추출 시스템.
The method of claim 5, wherein
The grouped data is,
The area where teeth are assumed to be present is represented by 1, and the area where the tooth is not present is represented by 0, which is mask image data.
Tooth area extraction system.
제 5 항에 있어서,
상기 추정된 치아 전체 영역은,
치아가 존재하는 영역은 1로 나타나고, 치아가 존재하지 않는 영역은 0으로 나타나는 마스크 영상인
치아영역 추출 시스템.
The method of claim 5, wherein
The estimated entire area of the tooth is,
The area where the tooth is present is 1 and the area where the tooth is not is 0.
Tooth area extraction system.
치아영역 추출 방법에 있어서,
다수의 3차원 치아 CT 영상 및 각각의 3차원 치아 CT 영상으로부터 치아영역에 해당하는 부분을 분리하여 취득한 제 1 치아영역 영상을 데이터 베이스에 저장하는 단계;
상기 데이터 베이스로부터 제공된 상기 3차원 치아 CT 영상과 상기 제 1치아영역 영상에 기반하여, 인공 신경망을 학습시킴으로써 가중치를 결정하는 단계 및
상기 가중치가 결정된 인공 신경망을 사용하여, 외부로부터 입력된 3차원 치아 CT 영상으로부터 치아 영역에 해당하는 부분을 분리취득하는 단계를 포함하는
치아영역 추출 방법.
In the tooth region extraction method,
Storing a first tooth region image obtained by separating a portion corresponding to a tooth region from a plurality of 3D tooth CT images and each 3D tooth CT image in a database;
Determining a weight by learning an artificial neural network based on the 3D dental CT image and the first tooth region image provided from the database; and
Using the weighted artificial neural network, separating and acquiring a portion corresponding to a tooth region from an external 3D dental CT image
Tooth area extraction method.
제 9 항에 있어서,
상기 가중치를 결정하는 단계는,
상기 데이터 베이스에 저장된 3차원 치아 CT 영상과 상기 제 1 치아영역 영상을 제공받아, 3차원 치아 CT 영상으로부터 치아영역에 해당하는 부분을 분리하여 제 2 치아영역 영상을 취득한 후, 상기 제 1 치아영역 영상과 제 2 치아영역 영상의 비교를 통해 가중치를 업데이트하는 단계를 포함하는
치아영역 추출 방법.
The method of claim 9,
Determining the weight,
After receiving the 3D tooth CT image and the first tooth region image stored in the database, and obtaining a second tooth region image by separating a portion corresponding to the tooth region from the 3D tooth CT image, the first tooth region And updating the weight by comparing the image with the second tooth region image.
Tooth area extraction method.
제 10 항에 있어서,
상기 치아 영역을 분리취득하는 단계는,
치아의 존재를 구분할 수 있도록 상기 입력된 3차원 치아 CT 영상을 압축하고, 압축된 영상을 일렬로 된 벡터로 변경함으로써 치아 유무를 추정하는 데이터를 생성하는 제 1 인공 신경망 시스템을 사용하는 단계;
치아 중심 영역을 구분할 수 있도록 상기 입력된 3차원 치아 CT 영상에서 동일한 특징값을 지닌 영역이 그룹화된 데이터를 생성하는 제 2 인공 신경망 시스템을 사용하는 단계; 및
상기 그룹화된 데이터를 상기 3차원 치아 CT 영상에 접합시키고, 상기 제 2 인공 신경망 시스템을 사용하여 상기 접합된 3차원 치아 CT 영상 및 그룹화된 데이터로부터 치아 전체 영역을 추정하며, 상기 3차원 치아 CT 영상에서 치아 영역에 해당하는 부분을 분리취득하는 단계를 포함하는
치아영역 추출 방법.
11. The method of claim 10,
Separately acquiring the tooth region,
Using a first artificial neural network system to compress the input 3D dental CT image to distinguish the presence of teeth and to generate data estimating the presence of teeth by changing the compressed image into a lined vector;
Using a second artificial neural network system to generate data in which regions having the same feature values are grouped in the input 3D dental CT image so as to distinguish a central tooth region; And
Bonding the grouped data to the 3D dental CT image, estimating the entire tooth region from the bonded 3D dental CT image and the grouped data using the second artificial neural network system, and the 3D dental CT image Comprising the step of obtaining a portion corresponding to the tooth region in the
Tooth area extraction method.
제 11 항에 있어서,
상기 치아 유무를 추정하는 데이터는,
2차원 벡터로 표현되며, 치아가 존재하면 1번째 인덱스가 1로 활성화되고, 치아가 존재하지 않으면 0번째 인덱스가 1로 활성화되는 원-핫 벡터(one-hot vector)형태인
치아영역 추출 방법.
The method of claim 11,
The data for estimating the presence or absence of teeth,
Represented as a two-dimensional vector, the tooth has a one-hot vector in which the first index is activated to 1, and if the tooth is not present, the zero index is activated to 1.
Tooth area extraction method.
제 11 항에 있어서,
상기 그룹화된 데이터는,
치아가 존재하는 것으로 추정되는 영역은 1로 나타나고, 치아가 존재하지 않는 것으로 추정되는 영역은 0으로 나타나는 마스크 이미지 데이터인
치아영역 추출 방법.
The method of claim 11,
The grouped data is,
The area where teeth are assumed to be present is represented by 1, and the area where the tooth is not present is represented by 0, which is mask image data.
Tooth area extraction method.
제 11 항에 있어서,
상기 추정된 치아 전체 영역은,
치아가 존재하는 영역은 1로 나타나고, 치아가 존재하지 않는 영역은 0으로 나타나는 마스크 영상인
치아영역 추출 방법.
The method of claim 11,
The estimated entire area of the tooth is,
The area where the tooth is present is 1 and the area where the tooth is not is 0.
Tooth area extraction method.
제 11 항에 있어서,
상기 가중치를 결정하는 단계는,
상기 제 1 인공 신경망 시스템을 상기 데이터 베이스에 저장된 상기 다수의 3차원 치아 CT 영상으로부터 치아 존재 유무에 대해 학습시켜, 상기 제 1 인공 신경망 시스템의 제 1 가중치를 결정하는 단계;
상기 제 2 인공 신경망 시스템을 상기 데이터 베이스에 저장된 상기 다수의 3차원 치아 CT 영상으로부터 3차원 CT 영상에서의 치아 중심 영역에 대해 학습시켜, 상기 제 2 인공 신경망 시스템의 제 2 가중치를 결정하는 단계; 및
상기 제 2 인공 신경망 시스템을 상기 데이터 베이스에 저장된 상기 제 1 치아영역 영상과 상기 제 2 치아영역 영상의 비교를 통해 제 2 가중치를 업데이트하는 단계를 포함하는
치아영역 추출 방법.
The method of claim 11,
Determining the weight,
Learning the presence of teeth from the plurality of three-dimensional dental CT images stored in the database to determine the first weight of the first artificial neural network system;
Learning the second artificial neural network system from the plurality of three-dimensional dental CT images stored in the database on a tooth center region in a three-dimensional CT image to determine a second weight of the second artificial neural network system; And
And updating the second artificial neural network system by comparing the first tooth region image and the second tooth region image stored in the database with a second weight.
Tooth area extraction method.
제 9 항에 있어서,
상기 분리취득된 치아 영역을 이진 마스크로 출력하는 단계를 더 포함하는
치아영역 추출 방법.
The method of claim 9,
Outputting the separated tooth region as a binary mask;
Tooth area extraction method.
KR1020180009654A 2018-01-25 2018-01-25 Dental area extraction system and method KR102160097B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180009654A KR102160097B1 (en) 2018-01-25 2018-01-25 Dental area extraction system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180009654A KR102160097B1 (en) 2018-01-25 2018-01-25 Dental area extraction system and method

Publications (2)

Publication Number Publication Date
KR20190090664A true KR20190090664A (en) 2019-08-02
KR102160097B1 KR102160097B1 (en) 2020-09-25

Family

ID=67614298

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180009654A KR102160097B1 (en) 2018-01-25 2018-01-25 Dental area extraction system and method

Country Status (1)

Country Link
KR (1) KR102160097B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102267739B1 (en) * 2020-02-24 2021-06-22 주식회사 딥덴탈스 Method for dental diagnostic and computing device for executing the method
KR20210099835A (en) * 2020-02-05 2021-08-13 오스템임플란트 주식회사 Method for generating panoramic image and image processing apparatus therefor
KR20210116778A (en) * 2020-03-13 2021-09-28 주식회사 인비전랩 Apparatus of reading medical image using neural network
WO2022055158A1 (en) * 2020-09-08 2022-03-17 주식회사 뷰노 Method for converting part of dental image and apparatus therefor
KR102491837B1 (en) * 2021-11-04 2023-01-27 주식회사 카이아이컴퍼니 A system and method for diagnosing the risk of dental caries and oral management using tooth surface coloring image data
KR102505539B1 (en) * 2022-06-21 2023-03-02 가천대학교 산학협력단 Method for providing information on segmentation of liver and device for using the same

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102502588B1 (en) * 2020-11-13 2023-02-23 주식회사 메디트 Occlusion alignment method and occlusion alignment apparatus
KR102453932B1 (en) * 2020-12-28 2022-10-14 주식회사 크리에이티브마인드 Method for recognizing teeth from 3D teeth data and apparatus therefor

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007524461A (en) * 2003-06-25 2007-08-30 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド Mammography automatic diagnosis and decision support system and method
JP2011200625A (en) * 2010-03-05 2011-10-13 Fujifilm Corp Image diagnosis support apparatus, method and program
KR20140015031A (en) * 2012-07-27 2014-02-06 경희대학교 산학협력단 A method for extracting the structure of teeth automatically from computed tomography image
KR20170047423A (en) * 2015-10-22 2017-05-08 한국디지털병원수출사업협동조합 Automatic diagnosis system of digital xray based on cad
KR20170098386A (en) * 2016-02-19 2017-08-30 주식회사바텍 Method and Apparatus for Detection of a Region Representing Interdental Caries in an X-ray Image

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007524461A (en) * 2003-06-25 2007-08-30 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド Mammography automatic diagnosis and decision support system and method
JP2011200625A (en) * 2010-03-05 2011-10-13 Fujifilm Corp Image diagnosis support apparatus, method and program
KR20140015031A (en) * 2012-07-27 2014-02-06 경희대학교 산학협력단 A method for extracting the structure of teeth automatically from computed tomography image
KR20170047423A (en) * 2015-10-22 2017-05-08 한국디지털병원수출사업협동조합 Automatic diagnosis system of digital xray based on cad
KR20170098386A (en) * 2016-02-19 2017-08-30 주식회사바텍 Method and Apparatus for Detection of a Region Representing Interdental Caries in an X-ray Image

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210099835A (en) * 2020-02-05 2021-08-13 오스템임플란트 주식회사 Method for generating panoramic image and image processing apparatus therefor
KR102267739B1 (en) * 2020-02-24 2021-06-22 주식회사 딥덴탈스 Method for dental diagnostic and computing device for executing the method
KR20210116778A (en) * 2020-03-13 2021-09-28 주식회사 인비전랩 Apparatus of reading medical image using neural network
WO2022055158A1 (en) * 2020-09-08 2022-03-17 주식회사 뷰노 Method for converting part of dental image and apparatus therefor
KR102491837B1 (en) * 2021-11-04 2023-01-27 주식회사 카이아이컴퍼니 A system and method for diagnosing the risk of dental caries and oral management using tooth surface coloring image data
KR102505539B1 (en) * 2022-06-21 2023-03-02 가천대학교 산학협력단 Method for providing information on segmentation of liver and device for using the same

Also Published As

Publication number Publication date
KR102160097B1 (en) 2020-09-25

Similar Documents

Publication Publication Date Title
KR102160097B1 (en) Dental area extraction system and method
US11195280B2 (en) Progressive and multi-path holistically nested networks for segmentation
JP3902765B2 (en) Various approaches to left ventricular segmentation in MR heart images
KR102250164B1 (en) Method and system for automatic segmentation of vessels in medical images using machine learning and image processing algorithm
Koss et al. Abdominal organ segmentation using texture transforms and a hopfield neural network
EP3639240A1 (en) A system and computer-implemented method for segmenting an image
Ejaz et al. Segmentation method for pathological brain tumor and accurate detection using MRI
US20210133473A1 (en) Learning apparatus and learning method
JP2002500795A (en) Image processing method and system including contour detection step
CN113506334A (en) Multi-modal medical image fusion method and system based on deep learning
KR102332088B1 (en) Apparatus and method for polyp segmentation in colonoscopy images through polyp boundary aware using detailed upsampling encoder-decoder networks
CN112136157B (en) Method, system and computer program for segmenting dental pulp area from image
JP7114737B2 (en) Image processing device, image processing method, and program
CN113012173A (en) Heart segmentation model and pathology classification model training, heart segmentation and pathology classification method and device based on cardiac MRI
JP7317306B2 (en) Method and apparatus for predicting cerebral cortex contraction rate by region based on CT image
CN113762285A (en) System and method for analyzing and processing medical image
Daliri et al. Skull segmentation in 3D neonatal MRI using hybrid Hopfield Neural Network
CN114255235A (en) Method and arrangement for automatic localization of organ segments in three-dimensional images
CN116935164A (en) Cerebral vessel recognition model construction method and network construction method
KR20210050790A (en) Apparatus and methods for classifying neurodegenerative diseases image of amyloid-positive based on deep-learning
US20220122261A1 (en) Probabilistic Segmentation of Volumetric Images
KR102250173B1 (en) Method and system for automatic segmentation of vessels in medical images using machine learning and image processing algorithm
CN111466894B (en) Ejection fraction calculation method and system based on deep learning
Kahaki et al. Automated age estimation based on geometric mean projection transform using orthopantomographs
Agrawal et al. Classification of Vitiligo using CNN Autoencoder

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant