KR20240044045A - Method and device for processing medical image - Google Patents

Method and device for processing medical image Download PDF

Info

Publication number
KR20240044045A
KR20240044045A KR1020220123287A KR20220123287A KR20240044045A KR 20240044045 A KR20240044045 A KR 20240044045A KR 1020220123287 A KR1020220123287 A KR 1020220123287A KR 20220123287 A KR20220123287 A KR 20220123287A KR 20240044045 A KR20240044045 A KR 20240044045A
Authority
KR
South Korea
Prior art keywords
data
images
unit
tooth
model
Prior art date
Application number
KR1020220123287A
Other languages
Korean (ko)
Inventor
임재관
이창규
이명학
Original Assignee
주식회사 엑스큐브
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엑스큐브 filed Critical 주식회사 엑스큐브
Priority to KR1020220123287A priority Critical patent/KR20240044045A/en
Publication of KR20240044045A publication Critical patent/KR20240044045A/en

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • A61C13/0003Making bridge-work, inlays, implants or the like
    • A61C13/0004Computer-assisted sizing or machining of dental prostheses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • A61C7/002Orthodontic computer assisted systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • Multimedia (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Veterinary Medicine (AREA)
  • Primary Health Care (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Pathology (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biophysics (AREA)
  • Pulmonology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

피검자의 구강 부위에 대한 복수의 2차원 단면 영상을 획득하는 단계, 데이터 인식 모델을 사용하여 상기 복수의 2차원 단면 영상으로부터 치아 영역이 추출된 복수의 전처리 영상을 생성하는 단계, 및 상기 복수의 전처리 영상을 저장하는 단계를 포함하는 의료 영상 처리 방법이 개시된다.Obtaining a plurality of two-dimensional cross-sectional images of the oral cavity of the subject, generating a plurality of pre-processing images in which tooth areas are extracted from the plurality of two-dimensional cross-sectional images using a data recognition model, and performing the plurality of pre-processing A medical image processing method including storing an image is disclosed.

Description

의료 영상 처리 방법 및 디바이스{METHOD AND DEVICE FOR PROCESSING MEDICAL IMAGE}Medical image processing method and device {METHOD AND DEVICE FOR PROCESSING MEDICAL IMAGE}

본 발명은 의료 영상 처리 방법 및 그 디바이스에 관한 것으로서, 보다 구체적으로는 구강을 촬영한 이미지에서 치아를 선택하는 기술에 관련된 것이다. 이는 임플란트 식립 가이드, 치아 수술 가이드, 치아 교정기, 치아용 크라운 등에 활용될 수 있다.The present invention relates to a medical image processing method and device, and more specifically, to a technology for selecting teeth from images taken of the oral cavity. This can be used for implant installation guides, dental surgery guides, dental braces, dental crowns, etc.

치아의 형상을 정확하게 모델링하는 것은 수복 치의술 및 관련 서비스를 제공하기 위해 중요하다. 하지만 치과 환자별로 치아와 잇몸의 형태는 변형이 많고 특징을 일반화할 수가 없고 특히 잇몸 아래에 있는 치근단 영역에서 치아와 잇몸간의 경계를 구분하기가 쉽지 않아, 교정 및 시술계획 수립에는 한계가 있어 왔다. 정밀 의료 구현을 위해서는 치아의 형상을 획득하여야 하는데 종래에는 구강을 촬영한 영상에서 의료진이 수동으로 치아의 외곽선을 표시함으로써 치아 영역을 추출하였다. 이에 치아 형상의 획득에 있어서 사람의 실수가 개입하기 쉬우며, 전체적인 정확도는 흔히 실무자의 상대적인 경험에 따라 달라질 수 있다. 또한, 약 400여장의 슬라이드로 구성된 치아 영상의 각 슬라이드마다 사람이 일일이 치아 경계를 표시하여야 하여서 치아 형상 획득에 오랜 시간이 걸리는 단점도 있다.Accurately modeling the shape of teeth is important for providing restorative dentistry and related services. However, the shape of the teeth and gums varies greatly for each dental patient, and the characteristics cannot be generalized, and it is not easy to distinguish the boundary between the teeth and gums, especially in the periapical area below the gums, so there have been limitations in establishing orthodontic treatment plans. In order to implement precision medicine, the shape of the teeth must be obtained. Conventionally, medical staff extracted the tooth area by manually marking the outline of the tooth in an image taken of the oral cavity. Therefore, it is easy for human error to intervene in the acquisition of tooth shape, and overall accuracy can often vary depending on the relative experience of the practitioner. In addition, a tooth image consisting of about 400 slides has the disadvantage that it takes a long time to obtain the tooth shape because a person must manually mark the tooth boundaries on each slide.

이에 따라, 인공지능을 통해 치아의 형상을 정확하게 모델링하는 기술이 요구되고 있다. 예를 들어, 대한민국 특허 등록 번호 10-21048899에는 3차원 객체의 복수의 2차원 단면 이미지에 기초하여 3D 모델 데이터를 생성하는 컴퓨터 구현 방법 및 시스템이 개시되어 있다. Accordingly, there is a demand for technology to accurately model the shape of teeth through artificial intelligence. For example, Republic of Korea Patent Registration No. 10-21048899 discloses a computer-implemented method and system for generating 3D model data based on a plurality of two-dimensional cross-sectional images of a three-dimensional object.

대한민국 특허 등록 번호 10-21048899Republic of Korea Patent Registration No. 10-21048899

본 발명은 인공지능을 이용하여 치아 영역을 정확히 추출할 수 있는 의료 영상 처리 방법과 그 디바이스를 제공하고자 한다.The present invention seeks to provide a medical image processing method and device that can accurately extract tooth areas using artificial intelligence.

상술한 과제를 달성하기 위한 기술적 수단으로서 본 발명의 제1측면은, 피검자의 구강 부위에 대한 복수의 2차원 단면 영상을 획득하는 단계, 데이터 인식 모델을 사용하여, 상기 복수의 2차원 단면 영상으로부터 치아 영역이 추출된 복수의 전처리 영상을 생성하는 단계; 및 상기 복수의 전처리 영상을 저장하는 단계를 포함하는 의료 영상 처리 방법을 제공할 수 있다.As a technical means for achieving the above-described problem, the first aspect of the present invention includes obtaining a plurality of two-dimensional cross-sectional images of the oral cavity of a subject, using a data recognition model, from the plurality of two-dimensional cross-sectional images. Generating a plurality of preprocessed images from which tooth regions are extracted; and storing the plurality of pre-processed images.

또한 의료 영상 처리 방법은, 복수의 2차원 단면 영상에서 치아 영역과 잇몸 영역을 구분하는 단계, 치아 영역은 강조하고 상기 잇몸 영역은 제거하는 단계, 상기 치아 영역의 윤곽선을 추출하는 단계, 윤곽선 내부에 색상을 채우는 단계, 및 복수의 2차원 단면 영상에서 상기 윤곽선의 외부는 제거함으로써 복수의 전처리 영상을 생성하는 단계를 포함할 수 있다.In addition, the medical image processing method includes distinguishing the tooth area and the gum area in a plurality of two-dimensional cross-sectional images, emphasizing the tooth area and removing the gum area, extracting the outline of the tooth area, and It may include filling the color, and generating a plurality of pre-processed images by removing the outside of the outline from the plurality of two-dimensional cross-sectional images.

또한 의료 영상 처리 방법은, 복수의 전처리 영상을 불러오는 단계, 복수의 전처리 영상에서 윤곽선 내부의 색상을 서로 다르게 설정하는 단계, 및 복수의 전처리 영상을 기초로 3차원 치아 모델을 생성하는 단계를 포함할 수 있다.In addition, the medical image processing method may include loading a plurality of pre-processed images, setting different colors inside the outline in the plurality of pre-processed images, and generating a three-dimensional tooth model based on the plurality of pre-processed images. You can.

또한 의료 영상 처리 방법은 3차원 치아 모델에서 상기 서로 다르게 설정된 색상의 치아를 각각 저장하는 단계를 더 포함할 수 있다.Additionally, the medical image processing method may further include storing each of the differently colored teeth in a 3D tooth model.

또한, 복수의 2차원 단면 영상은 CBCT(Cone Beam CT) 및 MDCT(Multi Detector CT) 영상 중 적어도 하나일 수 있다.Additionally, the plurality of two-dimensional cross-sectional images may be at least one of Cone Beam CT (CBCT) and Multi Detector CT (MDCT) images.

또한 본 발명의 제2측면은, 컴퓨터 실행가능 명령어가 저장되는 메모리; 및 상기 컴퓨터 실행가능 명령어를 실행함으로써, 제1측면의 방법을 사용하여 복수의 전처리 영상을 생성하는 제어부를 포함하는 의료 영상 처리 디바이스를 제공할 수 있다.Additionally, a second aspect of the present invention includes a memory in which computer-executable instructions are stored; and a control unit that generates a plurality of pre-processed images using the method of the first aspect by executing the computer-executable instructions.

본 발명의 제3측면은 제1측면의 방법을 컴퓨터에서 실행시키기 위한 프로그램이 기록된 컴퓨터 판독가능 저장매체를 제공할 수 있다.A third aspect of the present invention can provide a computer-readable storage medium on which a program for executing the method of the first aspect is recorded on a computer.

본 발명은 인공지능을 통해 실무자의 실수가 배제됨에 따라 치아 형상이 보다 정밀하게 제조될 수 있는 장점이 있다. 또한, 본 발명의 독창적인 치아 경계 판단 알고리즘을 통해 치아의 경계 추출이 보다 정확하게 이루어지는 기술적 효과가 있다. 추가적으로, 인공지능을 통해 치아 영역 판단이 신속하게 이루어져, 3D 프린팅 기술과 연계함으로써 당일에 치과 시술이 가능해져 치과 환자들의 불편이 해소되고 이에 수반되는 각종 기회비용이 감소하는 효과가 있다.The present invention has the advantage that tooth shapes can be manufactured more precisely by eliminating operator errors through artificial intelligence. In addition, there is a technical effect of more accurately extracting the boundaries of teeth through the unique tooth boundary determination algorithm of the present invention. Additionally, the tooth area can be quickly determined through artificial intelligence, and by linking it with 3D printing technology, dental procedures can be performed on the same day, eliminating the inconvenience of dental patients and reducing various opportunity costs associated with it.

도 1은 일 실시예에 따라 복수의 2차원 단면 영상으로부터 3차원 치아 모델을 생성하는 제공하는 예시를 나타내는 도면이다.
도 2는 일 실시예에 따른 의료 영상 처리 방법을 설명하기 위한 흐름도이다.
도 3은 일 실시예에 따른 의료 영상을 처리하는 예시를 나타내는 도면이다.
도4a 내지 도4h는 다른 실시예에 따른 의료 영상을 처리하는 예시를 나타내는 도면이다.
도 5는 일 실시예에 따라 전처리 영상에 치아별로 색상을 채우는 예시를 나타내는 도면이다.
도 6 및 도 7은 3차원 치아 모델에서 치아를 각각 저장하는 예시를 나타내는 도면이다.
도 8은 일 실시예에 따른 의료 영상 처리 디바이스의 구성을 도시한 블록도이다.
도 9는 일 실시예에 따른 제어부를 상세히 도시한 블록도이다.
도 10은 일 실시예에 따른 데이터 학습부를 상세히 도시한 블록도이다.
도 11은 일 실시예에 따른 데이터 인식부를 상세히 도시한 블록도이다.
FIG. 1 is a diagram illustrating an example of generating a 3D tooth model from a plurality of 2D cross-sectional images according to an embodiment.
Figure 2 is a flowchart illustrating a medical image processing method according to an embodiment.
Figure 3 is a diagram illustrating an example of processing a medical image according to an embodiment.
Figures 4A to 4H are diagrams illustrating examples of medical image processing according to another embodiment.
Figure 5 is a diagram illustrating an example of filling a pre-processed image with color for each tooth, according to an embodiment.
Figures 6 and 7 are diagrams showing examples of storing teeth in a 3D tooth model.
Figure 8 is a block diagram showing the configuration of a medical image processing device according to an embodiment.
Figure 9 is a detailed block diagram of a control unit according to an embodiment.
Figure 10 is a block diagram showing in detail a data learning unit according to an embodiment.
Figure 11 is a block diagram showing in detail a data recognition unit according to an embodiment.

이하 첨부된 도면을 참조하여 예시적인 실시예에 의해 발명을 상세히 설명하기로 한다. 하기 실시예는 발명을 구체화하기 위한 것일 뿐 발명의 권리 범위를 제한하거나 한정하는 것이 아니다. 상세한 설명 및 실시예로부터 발명이 속하는 기술분야의 전문가가 용이하게 유추할 수 있는 것은 발명의 권리범위에 속하는 것으로 해석된다.Hereinafter, the invention will be described in detail by exemplary embodiments with reference to the attached drawings. The following examples are only intended to embody the invention and do not limit or limit the scope of the invention. Anything that can be easily inferred by an expert in the technical field to which the invention belongs from the detailed description and examples will be interpreted as falling within the scope of the invention's rights.

본 명세서에서 사용되는 '구성된다' 또는 '포함한다' 등의 용어는 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Terms such as 'consists of' or 'includes' used in this specification should not be construed as necessarily including all of several components or steps, and some of the components or steps may not be included. It may be possible, or it should be interpreted as being able to further include additional components or steps.

본 명세서에서 사용되는 용어는, 본 명세서에서 언급되는 기능을 고려하여 현재 사용되는 일반적인 용어로 기재되었으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 다양한 다른 용어를 의미할 수 있다. 따라서 본 명세서에서 사용되는 용어는 용어의 명칭만으로 해석되어서는 안되며, 용어가 가지는 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 한다. 또한, 단수의 표현은 문맥상 명백하게 단수를 뜻하지 않는 한, 복수의 의미를 포함한다. The terms used in this specification are described as general terms currently used in consideration of the functions mentioned in this specification, but they may mean various other terms depending on the intention or precedents of those skilled in the art, the emergence of new technologies, etc. You can. Therefore, the terms used in this specification should not be interpreted only by the name of the term, but should be interpreted based on the meaning of the term and the overall content of this specification. Additionally, singular expressions include plural meanings, unless the context clearly indicates singularity.

본 명세서(특히, 특허 청구 범위에서)에서 사용된 “상기” 및 이와 유사한 지시어는 단수 및 복수 모두를 지시하는 것일 수 있다. 또한, 본 명세서에 따른 방법을 설명하는 단계들의 순서를 명백하게 지정하는 기재가 없다면, 기재된 단계들은 적당한 순서로 행해질 수 있다. 기재된 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다.As used herein (particularly in the claims), “the” and similar referents may refer to both the singular and the plural. Additionally, in the absence of any description explicitly specifying the order of steps describing the method according to the present specification, the steps described may be performed in any suitable order. The present invention is not limited by the order of description of the steps described.

본 명세서에서 다양한 곳에 등장하는 "일 실시예에서" 등의 어구는 반드시 모두 동일한 실시예를 가리키는 것은 아니다.Phrases such as “in one embodiment” that appear in various places in this specification do not necessarily all refer to the same embodiment.

본 명세서의 일부 실시예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. Some embodiments herein may be represented by functional block configurations and various processing steps. Some or all of these functional blocks may be implemented in various numbers of hardware and/or software configurations that perform specific functions.

또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다. Additionally, connection lines or connection members between components shown in the drawings merely exemplify functional connections and/or physical or circuit connections. In an actual device, connections between components may be represented by various replaceable or additional functional connections, physical connections, or circuit connections.

본 실시예들은 의료 영상 처리 방법 및 디바이스에 관한 것으로서 이하의 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서는 자세한 설명을 생략한다. 이하 첨부된 도면을 참조하여 본 발명을 상세히 설명하기로 한다.These embodiments relate to medical image processing methods and devices, and detailed descriptions of matters widely known to those skilled in the art to which the following embodiments belong will be omitted. Hereinafter, the present invention will be described in detail with reference to the attached drawings.

이하 본 발명의 바람직한 실시예를 도면을 참조하여 상세히 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

도 1은 일 실시예에 따라 복수의 2차원 단면 영상으로부터 3차원 치아 모델을 생성하는 제공하는 예시를 나타내는 도면이다.FIG. 1 is a diagram illustrating an example of generating a 3D tooth model from a plurality of 2D cross-sectional images according to an embodiment.

피검자는 치과 시술을 받기 위해 검사를 받는 자로서, 본 발명에 따른 방법은 피검자가 최적의 시술을 받도록 피검자의 개별 치아 형상을 3차원 모델로 제작하기 위해, 피검자의 구강 부위를 촬영한 복수의 2차원 단면 영상으로부터 치아 영역을 추출하는 기술에 관한 것이다. 이를 위해 먼저 피검자의 구강 부위에 대한 2차원(2D) 단면 영상(예를 들어, 컴퓨터 단층 촬영(CT) 스캔 이미지 또는 자기 공명 영상(MRI) 스캔 이미지)을 촬영하거나, 촬영된 영상을 로딩할 수 있다. 예를 들어, 2차원 단면 영상은 CBCT(Cone Beam CT) 및 MDCT(Multi Detector CT) 영상일 수 있다. 도 1에 도시된 바와 같이, 인간 피검자의 구강의 예시적인 CBCT 또는 MDCT 영상은 일례로, 측두 하악 관절, 척추뼈 구멍, 척추, 및 치아를 나타낸다. 예시적인 오브젝트들은 뼈, 치아 또는 오브젝트의 의학적 상태를 결정하기 위한 신체 부위를 포함할 수 있다.The subject is a person who undergoes an examination to receive a dental procedure, and the method according to the present invention uses a plurality of two images of the subject's oral region to create a three-dimensional model of the subject's individual tooth shape so that the subject receives the optimal treatment. This relates to technology for extracting tooth areas from dimensional cross-sectional images. To do this, you can first take a two-dimensional (2D) cross-sectional image (e.g., computed tomography (CT) scan image or magnetic resonance imaging (MRI) scan image) of the subject's oral region, or load the captured image. there is. For example, the 2D cross-sectional image may be a Cone Beam CT (CBCT) and a Multi Detector CT (MDCT) image. As shown in Figure 1, an exemplary CBCT or MDCT image of the oral cavity of a human subject shows, for example, the temporomandibular joint, vertebral foramen, spine, and teeth. Example objects may include bones, teeth, or body parts to determine the object's medical condition.

또한, 본 발명에 따른 방법은 치아 경계 판단 알고리즘을 적용하여 복수의 2차원 단면 영상으로부터 치아 영역이 추출된 복수의 전처리 영상을 생성 및 저장할 수 있다. 복수의 전처리 영상을 생성하는 구체적인 방법에 대해서는 도 2 내지 도 4f를 참조하여 후술하기로 한다. 이후, 복수의 전처리 영상을 기초로 피검자의 치아 전체에 대한 3차원 치아 모델을 생성할 수 있다. 여기서 개별 치아마다 다른 색상으로 라벨링할 수 있다. 그리고 3차원 치아 모델에서 개별 치아를 STL 파일로 저장할 수 있다. 이는 3차원(3D) 프린터에 입력되는 파일로서, 3차원 프린터는 3차원 치아 모델링 파일을 통하여 개별 치아 형상을 3차원 프린팅하여 제작할 수 있다. 종래에는 STL 파일 변환 후 출력을 위해 파일의 보정을 거쳤는데 본 발명에서는 별도의 보정 과정 없이도 영상 촬영, 3차원 모델링, 출력이 가능하여 신속하면서도 실제 치아의 구조를 정확하게 반영한 치아 복제본을 제작해낼 수 있다. 3차원 치아 모델은 복잡한 모양을 가진 치아를 쉽게 이해할 수 있게 해 준다. 컴퓨터에 의해 생성된 가상 3D 모델을 통해 치아의 모양과 배열을 다양한 시점에서 시각적으로 표현할 수 있다. 또한, 3D 모델을 수정하여 치아의 개수나 위치가 변경되는 경우를 시뮬레이션 할 수 있고, 3D 치아 모델은 3D 프린터를 통해 유형 복제본으로 구현될 수 있다.Additionally, the method according to the present invention can generate and store a plurality of preprocessed images in which tooth areas are extracted from a plurality of two-dimensional cross-sectional images by applying a tooth boundary determination algorithm. A specific method for generating a plurality of preprocessed images will be described later with reference to FIGS. 2 to 4F. Afterwards, a 3D tooth model of the subject's entire teeth can be created based on the plurality of preprocessed images. Here, individual teeth can be labeled with a different color. And in the 3D tooth model, individual teeth can be saved as STL files. This is a file that is input to a three-dimensional (3D) printer, and the 3D printer can produce it by 3D printing individual tooth shapes through a 3D tooth modeling file. In the past, after converting an STL file, the file was corrected for output, but in the present invention, image capture, 3D modeling, and output are possible without a separate correction process, making it possible to quickly and accurately produce a tooth replica that accurately reflects the structure of an actual tooth. . 3D tooth models make it easier to understand teeth with complex shapes. The shape and arrangement of teeth can be visually expressed from various perspectives through a virtual 3D model generated by a computer. Additionally, the 3D model can be modified to simulate changes in the number or position of teeth, and the 3D tooth model can be implemented as a tangible replica through a 3D printer.

도 2는 일 실시예에 따른 의료 영상 처리 방법을 설명하기 위한 흐름도이다.Figure 2 is a flowchart illustrating a medical image processing method according to an embodiment.

S210 단계에서, 의료 영상 처리 방법은 피검자의 구강 부위에 대한 복수의 2차원 단면 영상을 획득할 수 있다. 예를 들어, 복수의 2차원 단면 영상은 MRI 영상, CT 영상, CBCT(Cone Beam CT), 또는 MDCT(Multi Detector CT) 영상일 수 있다. 또한, 복수의 2차원 단면 영상은 의료 영상 처리 디바이스(1000)에서 촬영된 영상일 수 있고, 외부 디바이스 또는 서버로부터 수신된 영상일 수 있다.In step S210, the medical image processing method may acquire a plurality of two-dimensional cross-sectional images of the subject's oral region. For example, the plurality of two-dimensional cross-sectional images may be MRI images, CT images, Cone Beam CT (CBCT), or Multi Detector CT (MDCT) images. Additionally, the plurality of two-dimensional cross-sectional images may be images captured by the medical image processing device 1000 or may be images received from an external device or server.

S220 단계에서, 의료 영상 처리 방법은 데이터 인식 모델을 사용하여 복수의 2차원 단면 영상으로부터 치아 영역이 추출된 복수의 전처리 영상을 생성할 수 있다. 데이터 인식 모델을 사용하여 전처리 영상을 생성하는 예시에 대해서는 도 3을 참조하여 후술하기로 한다.In step S220, the medical image processing method may use a data recognition model to generate a plurality of preprocessed images in which tooth regions are extracted from a plurality of two-dimensional cross-sectional images. An example of generating a preprocessed image using a data recognition model will be described later with reference to FIG. 3.

S230 단계에서, 복수의 전처리 영상을 저장할 수 있다. 일 실시예에서, 생성된 복수의 전처리 영상은 별도의 사용자 입력 또는 명령 없이도 자동으로 의료 영상 처리 디바이스(1000)에 저장될 수 있다. 또한, 이때 전처리 영상은 dcm, nifti 포맷으로 저장될 수 있다.In step S230, a plurality of preprocessed images may be stored. In one embodiment, the plurality of generated preprocessed images may be automatically stored in the medical image processing device 1000 without separate user input or command. Additionally, at this time, the preprocessed image may be saved in dcm or nifti format.

도 3은 일 실시예에 따른 의료 영상을 처리하는 예시를 나타내는 도면이다.Figure 3 is a diagram illustrating an example of processing a medical image according to an embodiment.

도 3을 참조하면, 복수의 2차원 단면 영상으로부터 치아 영역을 추출하기 위해, 데이터 인식 모델에 복수의 2차원 단면 영상을 입력할 수 있다. 예를 들어, 입력된 2차원 단면 영상들은 단일 피검자의 구강부위를 10분 이내에 촬영한 CBCT 또는 MDCT 영상일 수 있다. 데이터 인식 모델은, 예를 들어, 신경망(Neural Network)을 기반으로 하는 모델일 수 있다. 예컨대, CNN(Convolutional Neural Network), DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 등과 같은 모델이 데이터 인식 모델로서 사용될 수 있으나, 이에 제한되지 않는다. 일 실시예에서, 입력된 영상들에서 치아 영역의 파악은 CNN 기술에 따른 학습에 기초하여 수행될 수 있다. 이를 통해, 데이터 인식 모델의 출력으로서 피검자의 치아 영역만 흰색으로 채워진 복수의 전처리 영상이 생성될 수 있다. 여기서, 출력된 복수의 전처리 영상의 개수는 입력된 복수의 2차원 단면 영상의 개수와 같을 것이다. 종래에는 치근단에서 치아와 잇몸부위의 구별이 쉽지 않았는데, 인공지능을 통해 보다 정확히 치근단에서도 치아 영역을 구별해 낼 수 있는 장점이 있다. 데이터 인식 모델이 어떻게 데이터를 인식하고 학습하는지에 대해서는 도 9 내지 도 11에서 자세히 설명하기로 한다.Referring to FIG. 3, in order to extract a tooth area from a plurality of two-dimensional cross-sectional images, a plurality of two-dimensional cross-sectional images may be input into a data recognition model. For example, the input 2D cross-sectional images may be CBCT or MDCT images taken within 10 minutes of the oral cavity of a single subject. The data recognition model may be, for example, a model based on a neural network. For example, models such as Convolutional Neural Network (CNN), Deep Neural Network (DNN), Recurrent Neural Network (RNN), Bidirectional Recurrent Deep Neural Network (BRDNN), etc. may be used as data recognition models, but are not limited thereto. In one embodiment, identification of tooth areas in input images may be performed based on learning according to CNN technology. Through this, a plurality of preprocessed images in which only the subject's teeth area is filled with white can be generated as the output of the data recognition model. Here, the number of output preprocessed images will be equal to the number of input two-dimensional cross-sectional images. Previously, it was not easy to distinguish between the teeth and gum area at the root end of the tooth, but artificial intelligence has the advantage of being able to more accurately distinguish the tooth area at the root end of the tooth. How the data recognition model recognizes and learns data will be described in detail in FIGS. 9 to 11.

도4a 내지 도4f는 다른 실시예에 따른 의료 영상을 처리하는 예시를 나타내는 도면이다. 도4a 내지 도4f는, 도 3에서와 달리, 일부 단계에서 인간의 입력이 개입되어 반자동으로 치아 영역이 추출된 전처리 영상을 생성하는 예시를 나타낸다. Figures 4A to 4F are diagrams illustrating examples of medical image processing according to another embodiment. 4A to 4F show an example of generating a preprocessed image from which a tooth region is extracted semi-automatically with human input involved in some steps, unlike in FIG. 3 .

복수의 전처리 영상을 생성하기 위해 도 4a에서 피검자의 구강 부위에 대한 복수의 2차원 단면 영상을 로딩할 수 있다. 도 4b에서는 복수의 2차원 단면 영상에서 치아 영역과 잇몸 영역을 구분하여 자동으로 잇몸 영역(연조직)은 제거하고 치아 영역(골조직)은 강조할 수 있다. 이를 위하여는, 오토 윈도잉(auto-windowing) 이미지 기법이 사용될 수 있다. 윈도잉(windowing) 기법이란 관심 없는 영역을 검은색 또는 흰색으로 변환한 후 관심 영역의 색상 대비를 높여 관심 영역이 보다 구분되어 보이도록 하는 방법이다. 예를 들어, 치아 영역을 강조하기 위해 가우스 필터 등을 통한 이미지 산술 연산을 수행할 수 있다. 이후 치아 영역 분리를 위해, 가우스 필터 및 Otsu Thresholding 기법을 최적화하여 마스크 이미지를 생성할 수 있다. 또한, 가우스 필터 등을 통해 산술 연산을 수행한 이미지와 전술한 마스크 이미지와의 AND 연산 결과 잇몸 영역은 제거되고 치아 영역이 강조된 영상이 도출될 수 있다(도 4b 참조). 도 4c에서 치아 영역의 윤곽선을 추출할 수 있다. 일 실시예에서, 치아마다 노출된 정도와 밝기가 서로 상이하기 때문에 치아별로 밝기 설정을 다르게 한 후 외곽선 반자동 누적 추출을 통해 치아별 경계선을 구분 처리할 수 있다. 도 4d는 치아의 윤곽선 내부에 색상을 채우는 과정을 나타내고, 도 4e는 피검자의 모든 치아에 색상을 채워 치아 부위의 설정을 완료한 것을 나타낸다. 치아의 윤곽선 내부에 색상을 채우기 위해 디바이스(1000)의 사용자가 윤곽선 안쪽을 수동으로 seed position을 선택하면 해당 폐곡선에 자동으로 색상이 채워진다(auto hole filling). 도 4f에서 치아의 윤곽선 외부는 제거함으로써 전처리 영상을 생성 및 저장할 수 있다. 예를 들어, 디바이스(1000)가 윤곽선 내부를 자동으로 치아 영역으로 인식하고 자동으로 노이즈를 제거하여 전처리 영상을 생성할 수 있다. 도 4g에서는 자동 외곽선 추적 알고리즘을 통해 치아의 윤곽선 부분을 재추출한 것을 도시한다. 도 4h에서는 도4a와 도4g를 블렌딩하여 치아의 경계를 디바이스(1000)의 사용자가 최종 확인하는 것을 도시한다.To generate a plurality of preprocessed images, a plurality of two-dimensional cross-sectional images of the oral cavity of the subject in FIG. 4A can be loaded. In Figure 4b, the tooth area and the gum area can be distinguished from a plurality of two-dimensional cross-sectional images, and the gum area (soft tissue) can be automatically removed and the tooth area (bone tissue) can be emphasized. For this purpose, an auto-windowing image technique can be used. The windowing technique is a method of converting an area of interest to black or white and then increasing the color contrast of the area of interest to make the area of interest appear more distinct. For example, image arithmetic operations through a Gaussian filter, etc. can be performed to emphasize tooth areas. Afterwards, to separate the tooth area, a mask image can be created by optimizing the Gaussian filter and Otsu Thresholding technique. In addition, as a result of the AND operation between the image on which arithmetic operations have been performed through a Gaussian filter, etc., and the above-mentioned mask image, an image in which the gum area is removed and the tooth area is emphasized can be derived (see FIG. 4b). In Figure 4c, the outline of the tooth area can be extracted. In one embodiment, since the degree of exposure and brightness of each tooth is different, the brightness setting for each tooth can be set differently and then the boundary line of each tooth can be distinguished and processed through semi-automatic cumulative extraction of the outline. Figure 4d shows the process of filling color inside the outline of a tooth, and Figure 4e shows completing the setting of the tooth area by filling all the teeth of the subject with color. In order to fill color inside the outline of a tooth, when the user of the device 1000 manually selects a seed position inside the outline, the corresponding closed curve is automatically filled with color (auto hole filling). In Figure 4f, a preprocessed image can be created and stored by removing the area outside the tooth outline. For example, the device 1000 may automatically recognize the inside of the outline as a tooth area and automatically remove noise to generate a preprocessed image. Figure 4g shows re-extraction of the tooth outline portion through an automatic outline tracking algorithm. Figure 4h shows the user of the device 1000 finally confirming the boundary of the tooth by blending Figures 4a and 4g.

도 5는 일 실시예에 따라 전처리 영상에 치아별로 색상을 채우는 예시를 나타내는 도면이다.Figure 5 is a diagram illustrating an example of filling a pre-processed image with color for each tooth, according to an embodiment.

먼저, 도4f와 같이 저장된 복수의 전처리 영상을 불러올 수 있다. 전처리 영상에는 이미 치아 윤곽선 내부의 영역에 동일하게 흰색이 채워져 있을 것이다. 개별 치아를 보다 직관적으로 구분하기 위해 윤곽선 내부의 색상을 서로 다르게 설정할 수 있다. 개별 치아 별로 칼라 라벨링을 적용하면 치아마다 서로 다른 색상으로 칠해질 수 있다. 예를 들어, 피검자의 모든 치아에 모두 서로 다른 색상이 채워질 수 있고, 일부 치아에는 동일한 색상이 채워질 수도 있다. 치아별로 색상을 다르게 설정한 2차원 전처리 영상에 STlizing(DICOM TO STL) 과정을 거치면 색상 구별이 가능한 개별 치아가 3D STL로 추출될 수 있다.First, a plurality of stored preprocessed images can be loaded as shown in Figure 4f. In the pre-processed image, the area inside the tooth outline will already be equally filled with white. To distinguish individual teeth more intuitively, the colors inside the outline can be set differently. If color labeling is applied to individual teeth, each tooth can be painted a different color. For example, all of a subject's teeth may be filled with different colors, and some teeth may be filled with the same color. By going through the STlizing (DICOM TO STL) process on a 2D preprocessed image with different colors for each tooth, individual teeth that can distinguish colors can be extracted as 3D STL.

도 6 및 도 7은 3차원 치아 모델에서 치아를 각각 저장하는 예시를 나타내는 도면이다.Figures 6 and 7 are diagrams showing examples of storing teeth in a 3D tooth model.

복수의 2차원 전처리 영상을 기초로 3차원 치아 모델을 만들면, 피검자의 전체 치아에 대한 3차원 치아 모델 생성될 것이다. 3차원 치아 모델에서 서로 다르게 설정된 색상의 치아를 각각 저장하기 위해 STlizing(DICOM TO STL) 과정을 거치면, 도 6에 도시된 바와 같이 치아에 격자 형태의 계단 현상이 두드러지게 나타난다. 일 실시예에서 인접한 2개의 치아를 개별 치아로 분리하는 경우 기존에 연결되어 있던 부위에 크랙(구멍)이 생길 수 있다. 본 기술은 여러개의 크랙을 자동으로 그룹핑하여(multi hole grouping), 절단면 또는 크랙이 볼록한(convex) 경우 단순 채우기(simple filling) 알고리즘을 통해 크랙을 자동으로 메꿀 수 있다(auto repair). 도 6의 오른쪽 그림 및 도 7의 왼쪽 그림에서 크랙이 자동 수선된 치아가 도시된다. 다만, 계단 현상 때문에 원형 치아처럼 매끄럽게 표현되지는 않았다. 이를 Laplacian Smoothing 알고리즘을 적용함으로써 3D 프린팅을 위한 STlizing(DICOM TO STL) 과정의 특성상 나타나는 적층 모델링으로 인한 계단 현상을 제거할 수 있다. 계단 현상 제거 후 원형 치아처럼 매끄럽게 표현된 개별 치아 모델을 도 7의 오른쪽 그림에서 확인할 수 있다.If a 3D tooth model is created based on a plurality of 2D preprocessed images, a 3D tooth model for all of the subject's teeth will be created. When a STlizing (DICOM TO STL) process is performed to store differently colored teeth in a 3D tooth model, a grid-like staircase phenomenon is prominently displayed on the teeth, as shown in FIG. 6 . In one embodiment, when two adjacent teeth are separated into individual teeth, a crack (hole) may form in the previously connected area. This technology automatically groups multiple cracks (multi hole grouping), and when the cut surface or crack is convex, the crack can be automatically filled (auto repair) through a simple filling algorithm. In the right picture of FIG. 6 and the left picture of FIG. 7, a tooth whose crack has been automatically repaired is shown. However, due to the staircase phenomenon, it was not expressed as smoothly as a round tooth. By applying the Laplacian Smoothing algorithm, it is possible to eliminate the staircase phenomenon caused by layered modeling that occurs due to the characteristics of the STlizing (DICOM TO STL) process for 3D printing. The individual tooth model, which is smoothly expressed like a round tooth after removing the staircase phenomenon, can be seen in the picture on the right of FIG. 7.

도 8은 일 실시예에 따른 의료 영상 처리 디바이스의 구성을 도시한 블록도이다. 도 8에 도시된 바와 같이, 본 발명의 일 실시예에 따른 의료 영상 처리 디바이스(1000)는 제어부(1300) 및 메모리(1700)를 포함할 수 있다. 그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 디바이스(1000)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 디바이스(1000)는 구현될 수 있다. 이하 상기 구성요소들에 대해 차례로 살펴본다.Figure 8 is a block diagram showing the configuration of a medical image processing device according to an embodiment. As shown in FIG. 8, the medical image processing device 1000 according to an embodiment of the present invention may include a control unit 1300 and a memory 1700. However, not all of the illustrated components are essential components. The device 1000 may be implemented with more components than the illustrated components, or the device 1000 may be implemented with fewer components. Below, we look at the above components in turn.

제어부(1300)는, 통상적으로 디바이스(1000)의 전반적인 동작을 제어한다. 제어부(1300)는 적어도 하나의 프로세서를 구비할 수 있다. 제어부(1300)는 그 기능 및 역할에 따라, 복수의 프로세서들을 포함하거나, 통합된 형태의 하나의 프로세서를 포함할 수 있다. 프로세서는 주로, 중앙 연산 장치(CPU), 어플리케이션 프로세서(AP), 그래픽스 처리 장치(GPU) 등을 의미할 수 있다. 또한, CPU, AP 또는 GPU는 그 내부에 하나 또는 그 이상의 코어들을 포함할 수 있으며, CPU, AP 또는 GPU는 작동 전압과 클락 신호를 이용하여 작동할 수 있다. 다만, CPU 또는 AP는 직렬 처리에 최적화된 몇 개의 코어로 구성된 반면, GPU는 병렬 처리용으로 설계된 수 천 개의 보다 소형이고 효율적인 코어로 구성될 수 있다.The control unit 1300 typically controls the overall operation of the device 1000. The control unit 1300 may include at least one processor. Depending on its function and role, the control unit 1300 may include a plurality of processors or may include one processor in an integrated form. A processor may mainly refer to a central processing unit (CPU), an application processor (AP), or a graphics processing unit (GPU). Additionally, the CPU, AP, or GPU may include one or more cores therein, and the CPU, AP, or GPU may operate using an operating voltage and clock signal. However, while a CPU or AP consists of a few cores optimized for serial processing, a GPU can consist of thousands of smaller, more efficient cores designed for parallel processing.

예를 들어, 제어부(1300)는, 메모리(1700)에 저장된 프로그램들을 실행함으로써, 사용자 입력부(미도시), 출력부(미도시), 센싱부(미도시), 통신부(미도시), A/V 입력부(미도시) 등을 전반적으로 제어할 수 있다. 또한, 제어부(1300)는 디바이스(1000)가 치아 영역이 추출된 복수의 전처리 영상을 생성하도록 할 수 있다.For example, the control unit 1300 executes programs stored in the memory 1700, such as a user input unit (not shown), an output unit (not shown), a sensing unit (not shown), a communication unit (not shown), and A/ The V input unit (not shown) can be controlled overall. Additionally, the control unit 1300 may cause the device 1000 to generate a plurality of preprocessed images from which tooth regions are extracted.

메모리(1700)는 제어부(1300)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(1700)는 제어부(1300)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 제어부(1300)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 응용 프로그램은, 메모리(1700)에 저장되고, 제어부(1300)에 설치되어, 프로세서에 의하여 상기 제어부(1300)의 동작(또는 기능)을 수행하도록 구동될 수 있다.The memory 1700 stores data supporting various functions of the control unit 1300. The memory 1700 may store a number of application programs (application programs or applications) running on the control unit 1300, data for operating the control unit 1300, and commands. At least some of these applications may be downloaded from an external server via wireless communication. Additionally, the application program may be stored in the memory 1700, installed in the control unit 1300, and driven by a processor to perform the operation (or function) of the control unit 1300.

메모리(1700)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 메모리(520)는 인터넷(internet)상에서 저장 기능을 수행하는 웹 스토리지(web storage)를 포함할 수도 있다.The memory 1700 is a flash memory type, hard disk type, solid state disk type, SDD type (Silicon Disk Drive type), and multimedia card micro type. ), card-type memory (e.g. SD or XD memory, etc.), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), EEPROM (electrically erasable programmable read) -only memory), PROM (programmable read-only memory), magnetic memory, magnetic disk, and optical disk may include at least one type of storage medium. Additionally, the memory 520 may include web storage that performs a storage function on the Internet.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 모델링하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 모델링되는 것도 포함한다. The above-described present invention can be modeled as computer-readable code on a program-recorded medium. Computer-readable media includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. and also includes those modeled in the form of carrier waves (e.g., transmission over the Internet).

한편, 도 8에 도시된 디바이스(1000)의 구성은 일 실시예이며, 디바이스(1000)의 각 구성요소는 구현되는 디바이스 (1000)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 구성(또는, 모듈)에서 수행하는 기능은 실시예들을 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.Meanwhile, the configuration of the device 1000 shown in FIG. 8 is an example, and each component of the device 1000 may be integrated, added, or omitted depending on the specifications of the device 1000 to be implemented. That is, as needed, two or more components may be combined into one component, or one component may be subdivided into two or more components. In addition, the functions performed by each component (or module) are for explaining the embodiments, and the specific operations or devices do not limit the scope of the present invention.

도 9는 일 실시예에 따른 제어부(1300)의 블록도이다.Figure 9 is a block diagram of the control unit 1300 according to one embodiment.

도 9를 참조하면, 일 실시예에 따른 제어부(1300)는 데이터 학습부(1310) 및 데이터 인식부(1320)를 포함할 수 있다.Referring to FIG. 9, the control unit 1300 according to one embodiment may include a data learning unit 1310 and a data recognition unit 1320.

데이터 학습부(1310)는 복수의 2차원 단면 영상을 분석하고, 치아 영역을 파악하여, 치아 영역이 추출된 복수의 전처리 영상을 생성하기 위한 기준을 학습할 수 있다. 데이터 학습부(1310)는 소정의 치아 영역을 판단하기 위하여 어떤 데이터를 이용할 지, 데이터를 이용하여 어떻게 치아 영역을 결정할 지에 관한 기준을 학습할 수 있다. 데이터 학습부(1310)는 학습에 이용될 데이터를 획득하고, 획득된 데이터를 후술할 데이터 인식 모델에 적용함으로써, 치아 영역이 추출된 복수의 전처리 영상을 생성하기 위한 기준을 학습할 수 있다.The data learning unit 1310 may analyze a plurality of two-dimensional cross-sectional images, identify the tooth area, and learn a standard for generating a plurality of preprocessed images from which the tooth area is extracted. The data learning unit 1310 can learn standards regarding what data to use to determine a predetermined tooth area and how to determine the tooth area using the data. The data learning unit 1310 acquires data to be used for learning, and applies the acquired data to a data recognition model to be described later, thereby learning standards for generating a plurality of preprocessed images from which tooth regions are extracted.

데이터 인식부(1320)는 데이터에 기초하여 복수의 2차원 단면 영상에서 어떤 영역이 치아 영역인지를 판단할 수 있다. 데이터 인식부(1320)는 학습된 데이터 인식 모델을 이용하여, 소정의 데이터로부터 치아 영역을 인식할 수 있다. 데이터 인식부(1320)는 학습에 의한 기 설정된 기준에 따라 소정의 데이터를 획득하고, 획득된 데이터를 입력 값으로 하여 데이터 인식 모델을 이용함으로써, 소정의 데이터에 기초하여 치아 영역을 추출할 수 있다. 또한, 획득된 데이터를 입력 값으로 하여 데이터 인식 모델에 의해 출력된 결과 값은, 데이터 인식 모델을 갱신하는데 이용될 수 있다.The data recognition unit 1320 may determine which area in the plurality of two-dimensional cross-sectional images is a tooth area based on the data. The data recognition unit 1320 can recognize the tooth area from predetermined data using a learned data recognition model. The data recognition unit 1320 acquires predetermined data according to a preset standard through learning and uses a data recognition model using the obtained data as an input value, thereby extracting the tooth area based on the predetermined data. . Additionally, the result value output by the data recognition model using the acquired data as an input value can be used to update the data recognition model.

데이터 학습부(1310) 및 데이터 인식부(1320) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 디바이스(1000)에 탑재될 수 있다. 예를 들어, 데이터 학습부(1310) 및 데이터 인식부(1320) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 전술한 각종 디바이스에 탑재될 수도 있다.At least one of the data learning unit 1310 and the data recognition unit 1320 may be manufactured in the form of at least one hardware chip and mounted on the device 1000. For example, at least one of the data learning unit 1310 and the data recognition unit 1320 may be manufactured in the form of a dedicated hardware chip for artificial intelligence (AI), or an existing general-purpose processor (e.g. CPU Alternatively, it may be manufactured as part of an application processor) or a graphics-specific processor (e.g., GPU) and may be mounted on the various devices described above.

이 경우, 데이터 학습부(1310) 및 데이터 인식부(1320)는 하나의 디바이스에 탑재될 수도 있으며, 서버에 탑재될 수도 있고, 또는 별개의 디바이스들 또는 서버에 각각 탑재될 수도 있다. 예를 들어, 데이터 학습부(1310) 및 데이터 인식부(1320) 중 하나는 디바이스(1000)에 포함되고, 나머지 하나는 서버에 포함될 수 있다. 또한, 데이터 학습부(1310) 및 데이터 인식부(1320)는 유선 또는 무선으로 통하여, 데이터 학습부(1310)가 구축한 모델 정보를 데이터 인식부(1320)로 제공할 수도 있고, 데이터 인식부(1320)로 입력된 데이터가 추가 학습 데이터로서 데이터 학습부(1310)로 제공될 수도 있다.In this case, the data learning unit 1310 and the data recognition unit 1320 may be mounted on one device, a server, or may be mounted on separate devices or servers. For example, one of the data learning unit 1310 and the data recognition unit 1320 may be included in the device 1000, and the other may be included in the server. In addition, the data learning unit 1310 and the data recognition unit 1320 may provide model information built by the data learning unit 1310 to the data recognition unit 1320 through wired or wireless communication, and the data recognition unit ( Data input through 1320) may be provided to the data learning unit 1310 as additional learning data.

한편, 데이터 학습부(1310) 및 데이터 인식부(1320) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 학습부(1310) 및 데이터 인식부(1320) 중 적어도 하나가 소프트웨어 모듈(또는, 인스터력션(instruction) 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다. Meanwhile, at least one of the data learning unit 1310 and the data recognition unit 1320 may be implemented as a software module. When at least one of the data learning unit 1310 and the data recognition unit 1320 is implemented as a software module (or a program module including instructions), the software module is a readable non-transitory program that can be read by a computer. It may be stored on a readable recording medium (non-transitory computer readable media). Additionally, in this case, at least one software module may be provided by an operating system (OS) or a predetermined application. Alternatively, part of at least one software module may be provided by an operating system (OS), and the remaining part may be provided by a predetermined application.

도 10은 일 실시예에 따른 데이터 학습부(1310)의 블록도이다.Figure 10 is a block diagram of the data learning unit 1310 according to one embodiment.

도 10을 참조하면, 일 실시예에 따른 데이터 학습부(1310)는 데이터 획득부(1310-1), 전처리부(1310-2), 학습 데이터 선택부(1310-3), 모델 학습부(1310-4) 및 모델 평가부(1310-5)를 포함할 수 있다.Referring to FIG. 10, the data learning unit 1310 according to one embodiment includes a data acquisition unit 1310-1, a preprocessing unit 1310-2, a learning data selection unit 1310-3, and a model learning unit 1310. -4) and a model evaluation unit (1310-5).

데이터 획득부(1310-1)는 치아 영역이 추출된 복수의 전처리 영상의 생성에 필요한 데이터를 획득할 수 있다. 데이터 획득부(1310-1)는 치아 영역을 추출하기 위한 학습에 필요한 데이터를 획득할 수 있다.The data acquisition unit 1310-1 may acquire data necessary for generating a plurality of preprocessed images from which tooth regions are extracted. The data acquisition unit 1310-1 may acquire data necessary for learning to extract the tooth area.

예를 들어, 데이터 획득부(1310-1)는 영상 데이터(예를 들어, 이미지, 동영상) 등을 획득할 수 있다. 예를 들어, 데이터 획득부(1310-1)는 디바이스(1000)의 입력 기기(예: 마이크로폰, 카메라 또는 센서 등)를 통해 데이터를 입력 받을 수 있다. 또는, 데이터 획득부(1310-1)는 디바이스(1000)와 통신하는 외부 장치를 통해 데이터를 획득할 수 있다.For example, the data acquisition unit 1310-1 may acquire video data (eg, image, video), etc. For example, the data acquisition unit 1310-1 may receive data through an input device (eg, a microphone, camera, or sensor) of the device 1000. Alternatively, the data acquisition unit 1310-1 may acquire data through an external device that communicates with the device 1000.

또한, 예를 들어, 데이터 획득부(1310-1)는 사용자로부터 데이터를 입력 받을 수도 있고, 디바이스(1000)에 기 저장된 데이터를 불러올 수도 있고, 또는 서버로부터 데이터를 수신할 수도 있으나, 이에 제한되지 않는다. 예를 들어, 디바이스(1000)에 기 저장된 데이터, 디바이스(1000)에서 센싱한 데이터, 사용자로부터 입력 받은 데이터 및 서버로부터 획득한 데이터를 조합하여 필요한 데이터를 획득할 수도 있다. 데이터는 이미지, 동영상, 이미지의 메타데이터 중 적어도 하나를 포함할 수 있다. 예를 들어, 데이터 획득부(1310-1)는 이미지를 입력 받을 수 있다. 예를 들어, 데이터 획득부(1310-1)는 데이터 학습부(1310)를 포함하는 디바이스(1000)의 카메라, 또는 데이터 학습부(1310)를 포함하는 디바이스(1000)와 통신 가능한 외부의 CT 스캐너를 통하여 이미지를 입력 받을 수 있다. Additionally, for example, the data acquisition unit 1310-1 may receive data input from a user, load data previously stored in the device 1000, or receive data from a server, but is not limited thereto. No. For example, necessary data may be obtained by combining data previously stored in the device 1000, data sensed by the device 1000, data input from the user, and data obtained from the server. The data may include at least one of an image, a video, and image metadata. For example, the data acquisition unit 1310-1 may receive an image as input. For example, the data acquisition unit 1310-1 is a camera of the device 1000 including the data learning unit 1310, or an external CT scanner capable of communicating with the device 1000 including the data learning unit 1310. You can input an image through .

전처리부(1310-2)는 텍스트와 이미지의 연관도 결정을 위한 학습에 획득된 데이터가 이용될 수 있도록, 획득된 데이터를 전처리할 수 있다. 전처리부(1310-2)는 후술할 모델 학습부(1310-4)가 텍스트와 이미지의 연관도 결정을 위한 학습을 위하여 획득된 데이터를 이용할 수 있도록, 획득된 데이터를 기 설정된 포맷으로 가공할 수 있다. The preprocessor 1310-2 may preprocess the acquired data so that the acquired data can be used for learning to determine the degree of correlation between text and images. The pre-processing unit 1310-2 can process the acquired data into a preset format so that the model learning unit 1310-4, which will be described later, can use the acquired data for learning to determine the correlation between text and images. there is.

예를 들어, 전처리부(1310-2)는 입력된 복수의 이미지(또는 프레임(frame))들 각각에 포함된 공통 영역을 기초로, 복수의 이미지들의 적어도 일부를 중첩할 수 있다. 공통 영역은, 복수의 이미지들 각각에서 동일 또는 유사한 공통 오브젝트(예로, 치아 및 잇몸 등)를 포함한 영역이 될 수 있다. 또는, 공통 영역은, 복수의 이미지들 각각에서 색, 음영, RGB 값 또는 CMYK 값 등이 동일 또는 유사한 영역이 될 수 있다.For example, the preprocessor 1310-2 may overlap at least a portion of the plurality of images based on a common area included in each of the plurality of input images (or frames). The common area may be an area containing the same or similar common objects (eg, teeth and gums, etc.) in each of the plurality of images. Alternatively, the common area may be an area in which the color, shade, RGB value, or CMYK value is the same or similar in each of the plurality of images.

학습 데이터 선택부(1310-3)는 전처리된 데이터 중에서 학습에 필요한 데이터를 선택할 수 있다. 선택된 데이터는 모델 학습부(1310-4)에 제공될 수 있다. 학습 데이터 선택부(1310-3)는 치아 영역의 판단을 위한 기 설정된 기준에 따라, 전처리된 데이터 중에서 학습에 필요한 데이터를 선택할 수 있다. 또한, 학습 데이터 선택부(1310-3)는 후술할 모델 학습부(1310-4)에 의한 학습에 의해 기 설정된 기준에 따라 데이터를 선택할 수도 있다.The learning data selection unit 1310-3 may select data required for learning from preprocessed data. The selected data may be provided to the model learning unit 1310-4. The learning data selection unit 1310-3 may select data required for learning from preprocessed data according to preset standards for determining the tooth area. Additionally, the learning data selection unit 1310-3 may select data according to preset criteria through learning by the model learning unit 1310-4, which will be described later.

모델 학습부(1310-4)는 학습 데이터에 기초하여 치아 영역을 어떻게 판단할 지에 관한 기준을 학습할 수 있다. 또한, 모델 학습부(1310-4)는 치아 영역의 판단을 위하여 어떤 학습 데이터를 이용해야 하는 지에 대한 기준을 학습할 수도 있다.The model learning unit 1310-4 may learn standards for how to determine the tooth area based on the learning data. Additionally, the model learning unit 1310-4 may learn standards for what learning data should be used to determine the tooth area.

또한, 모델 학습부(1310-4)는 치아 영역의 결정에 이용되는 데이터 인식 모델을 학습 데이터를 이용하여 학습시킬 수 있다. 이 경우, 데이터 인식 모델은 미리 구축된 모델일 수 있다. 예를 들어, 데이터 인식 모델은 기본 학습 데이터(예를 들어, 샘플 이미지 등)을 입력 받아 미리 구축된 모델일 수 있다.Additionally, the model learning unit 1310-4 can train a data recognition model used to determine the tooth area using training data. In this case, the data recognition model may be a pre-built model. For example, a data recognition model may be a pre-built model that receives basic training data (e.g., sample images, etc.) as input.

데이터 인식 모델은, 인식 모델의 적용 분야, 학습의 목적 또는 장치의 컴퓨터 성능 등을 고려하여 구축될 수 있다. 데이터 인식 모델은, 예를 들어, 신경망(Neural Network)을 기반으로 하는 모델일 수 있다. 예컨대, CNN(Convolutional Neural Network), DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 등과 같은 모델이 데이터 인식 모델로서 사용될 수 있으나, 이에 한정되지 않는다.A data recognition model may be built considering the application field of the recognition model, the purpose of learning, or the computer performance of the device. The data recognition model may be, for example, a model based on a neural network. For example, models such as Convolutional Neural Network (CNN), Deep Neural Network (DNN), Recurrent Neural Network (RNN), Bidirectional Recurrent Deep Neural Network (BRDNN), etc. may be used as data recognition models, but are not limited thereto.

다양한 실시예에 따르면, 모델 학습부(1310-4)는 미리 구축된 데이터 인식 모델이 복수 개가 존재하는 경우, 입력된 학습 데이터와 기본 학습 데이터의 관련성이 큰 데이터 인식 모델을 학습할 데이터 인식 모델로 결정할 수 있다. 이 경우, 기본 학습 데이터는 데이터의 타입 별로 기 분류되어 있을 수 있으며, 데이터 인식 모델은 데이터의 타입 별로 미리 구축되어 있을 수 있다. 예를 들어, 기본 학습 데이터는 학습 데이터가 생성된 지역, 학습 데이터가 생성된 시간, 학습 데이터의 크기, 학습 데이터의 장르, 학습 데이터의 생성자, 학습 데이터 내의 오브젝트의 종류 등과 같은 다양한 기준으로 기 분류되어 있을 수 있다. According to various embodiments, when there are a plurality of pre-built data recognition models, the model learning unit 1310-4 selects a data recognition model with a high correlation between the input training data and the basic training data as a data recognition model to be learned. You can decide. In this case, the basic learning data may be pre-classified by data type, and the data recognition model may be pre-built by data type. For example, the basic training data is pre-classified by various criteria such as the region where the training data was created, the time the training data was created, the size of the training data, the genre of the training data, the creator of the training data, the type of object in the training data, etc. It may be.

또한, 모델 학습부(1310-4)는, 예를 들어, 오류 역전파법(error back-propagation) 또는 경사 하강법(gradient descent)을 포함하는 학습 알고리즘 등을 이용하여 데이터 인식 모델을 학습시킬 수 있다.Additionally, the model learning unit 1310-4 may train a data recognition model using, for example, a learning algorithm including error back-propagation or gradient descent. .

또한, 모델 학습부(1310-4)는, 예를 들어, 학습 데이터를 입력 값으로 하는 지도 학습(supervised learning)을 통하여, 데이터 인식 모델을 학습시킬 수 있다. 또한, 모델 학습부(1310-4)는, 예를 들어, 별다른 지도 없이 텍스트와 이미지의 연관도 결정을 위해 필요한 데이터의 종류를 스스로 학습함으로써, 텍스트와 이미지의 연관도 결정을 위한 기준을 발견하는 비지도 학습(unsupervised learning)을 통하여, 데이터 인식 모델을 학습시킬 수 있다. 또한, 모델 학습부(1310-4)는 의사결정나무(Decision Tree, DT), 서 포트벡터머신(Support Vector Machine, SVM), 준지도학습(Semi-Supervised Learning, SSL) 등을 통하여 데이터 인식 모델을 학습시킬 수도 있다. 또한, 모델 학습부(1310-4)는, 예를 들어, 학습에 따른 치아 영역 추출의 결과가 올바른 지에 대한 피드백을 이용하는 강화 학습(reinforcement learning)을 통하여, 데이터 인식 모델을 학습시킬 수 있다.Additionally, the model learning unit 1310-4 may learn a data recognition model through, for example, supervised learning using training data as input. In addition, the model learning unit 1310-4 discovers a standard for determining the correlation between text and images, for example, by learning the type of data needed to determine the correlation between text and images without any guidance. Through unsupervised learning, a data recognition model can be learned. In addition, the model learning unit (1310-4) is a data recognition model through Decision Tree (DT), Support Vector Machine (SVM), Semi-Supervised Learning (SSL), etc. can also be learned. Additionally, the model learning unit 1310-4 may learn a data recognition model through, for example, reinforcement learning that uses feedback regarding whether the result of tooth region extraction according to learning is correct.

또한, 데이터 인식 모델이 학습되면, 모델 학습부(1310-4)는 학습된 데이터 인식 모델을 저장할 수 있다. 이 경우, 모델 학습부(1310-4)는 학습된 데이터 인식 모델을 데이터 인식부(1320)를 포함하는 디바이스(1000)의 메모리(1700)에 저장할 수 있다. 또는, 모델 학습부(1310-4)는 학습된 데이터 인식 모델을 디바이스(1000)와 유선 또는 무선 네트워크로 연결되는 서버의 메모리에 저장할 수도 있다.Additionally, when the data recognition model is learned, the model learning unit 1310-4 may store the learned data recognition model. In this case, the model learning unit 1310-4 may store the learned data recognition model in the memory 1700 of the device 1000 including the data recognition unit 1320. Alternatively, the model learning unit 1310-4 may store the learned data recognition model in the memory of a server connected to the device 1000 through a wired or wireless network.

이 경우, 학습된 데이터 인식 모델이 저장되는 메모리는, 예를 들면, 디바이스(1000)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 함께 저장할 수도 있다. 또한, 메모리는 소프트웨어 및/또는 프로그램을 저장할 수도 있다. 프로그램은, 예를 들면, 커널, 미들웨어, 애플리케이션 프로그래밍 인터페이스(API) 및/또는 애플리케이션 프로그램(또는 "애플리케이션") 등을 포함할 수 있다.In this case, the memory where the learned data recognition model is stored may also store, for example, commands or data related to at least one other component of the device 1000. Additionally, memory may store software and/or programs. A program may include, for example, a kernel, middleware, an application programming interface (API), and/or an application program (or “application”).

모델 평가부(1310-5)는 데이터 인식 모델에 평가 데이터를 입력하고, 평가 데이터로부터 출력되는 인식 결과가 소정 기준을 만족하지 못하는 경우, 모델 학습부(1310-4)로 하여금 다시 학습하도록 할 수 있다. 이 경우, 평가 데이터는 데이터 인식 모델을 평가하기 위한 기 설정된 데이터일 수 있다. 예를 들어, 사용자에 의해 치아 영역으로 선택된 이미지를 데이터 인식 모델에 입력하여 출력된 치아 영역과, 사용자에 의해 선택된 치아 영역의 차이가 미리 결정된 값을 초과하는 경우, 모델 학습부(1310-4)는 다시 학습되어야 하는 것으로 평가될 수 있다.The model evaluation unit 1310-5 inputs evaluation data into the data recognition model, and if the recognition result output from the evaluation data does not meet a predetermined standard, it can cause the model learning unit 1310-4 to learn again. there is. In this case, the evaluation data may be preset data for evaluating the data recognition model. For example, if the difference between the tooth area output by inputting the image selected as the tooth area by the user into the data recognition model and the tooth area selected by the user exceeds a predetermined value, the model learning unit 1310-4 can be evaluated as something that needs to be learned again.

예를 들어, 모델 평가부(1310-5)는 평가 데이터에 대한 학습된 데이터 인식 모델의 인식 결과 중에서, 인식 결과가 정확하지 않은 평가 데이터의 개수 또는 비율이 미리 설정된 임계치를 초과하는 경우 소정 기준을 만족하지 못한 것으로 평가할 수 있다. 예컨대, 소정 기준이 비율 2%로 정의되는 경우, 학습된 데이터 인식 모델이 총 1000개의 평가 데이터 중의 20개를 초과하는 평가 데이터에 대하여 잘못된 인식 결과를 출력하는 경우, 모델 평가부(1310-5)는 학습된 데이터 인식 모델이 적합하지 않은 것으로 평가할 수 있다.For example, the model evaluation unit 1310-5 applies a predetermined criterion when the number or ratio of evaluation data for which the recognition result is inaccurate among the recognition results of the data recognition model learned for the evaluation data exceeds a preset threshold. It can be evaluated as unsatisfactory. For example, when the predetermined standard is defined as a ratio of 2%, and the learned data recognition model outputs incorrect recognition results for more than 20 evaluation data out of a total of 1000 evaluation data, the model evaluation unit 1310-5 It can be evaluated that the learned data recognition model is not suitable.

한편, 학습된 데이터 인식 모델이 복수 개가 존재하는 경우, 모델 평가부(1310-5)는 각각의 학습된 동영상 인식 모델에 대하여 소정 기준을 만족하는지를 평가하고, 소정 기준을 만족하는 모델을 최종 데이터 인식 모델로서 결정할 수 있다. 이 경우, 소정 기준을 만족하는 모델이 복수 개인 경우, 모델 평가부(1310-5)는 평가 점수가 높은 순으로 미리 설정된 어느 하나 또는 소정 개수의 모델을 최종 데이터 인식 모델로서 결정할 수 있다.Meanwhile, when there are a plurality of learned data recognition models, the model evaluation unit 1310-5 evaluates whether each learned video recognition model satisfies a predetermined standard, and recognizes the model that satisfies the predetermined standard as the final data. You can decide as a model. In this case, when there are multiple models that satisfy the predetermined criteria, the model evaluation unit 1310-5 may determine one or a predetermined number of models preset in descending order of evaluation scores as the final data recognition model.

한편, 데이터 학습부(1310) 내의 데이터 획득부(1310-1), 전처리부(1310-2), 학습 데이터 선택부(1310-3), 모델 학습부(1310-4) 및 모델 평가부(1310-5) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 디바이스(1000)에 탑재될 수 있다. 예를 들어, 데이터 획득부(1310-1), 전처리부(1310-2), 학습 데이터 선택부(1310-3), 모델 학습부(1310-4) 및 모델 평가부(1310-5) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 전술한 각종 디바이스에 탑재될 수도 있다.Meanwhile, in the data learning unit 1310, the data acquisition unit 1310-1, preprocessing unit 1310-2, learning data selection unit 1310-3, model learning unit 1310-4, and model evaluation unit 1310 At least one of -5) may be manufactured in the form of at least one hardware chip and mounted on the device 1000. For example, at least one of the data acquisition unit 1310-1, the preprocessor 1310-2, the learning data selection unit 1310-3, the model learning unit 1310-4, and the model evaluation unit 1310-5. One may be manufactured in the form of a dedicated hardware chip for artificial intelligence (AI), or it may be manufactured as part of an existing general-purpose processor (e.g. CPU or application processor) or graphics-specific processor (e.g. GPU), as described above. It can be mounted on various devices.

또한, 데이터 획득부(1310-1), 전처리부(1310-2), 학습 데이터 선택부(1310-3), 모델 학습부(1310-4) 및 모델 평가부(1310-5)는 하나의 디바이스에 탑재될 수도 있으며, 서버에 탑재될 수도 있고, 또는 별개의 디바이스들에 각각 탑재될 수도 있다. 예를 들어, 데이터 획득부(1310-1), 전처리부(1310-2), 학습 데이터 선택부(1310-3), 모델 학습부(1310-4) 및 모델 평가부(1310-5) 중 일부는 디바이스(1000)에 포함되고, 나머지 일부는 서버에 포함될 수 있다.In addition, the data acquisition unit 1310-1, preprocessing unit 1310-2, learning data selection unit 1310-3, model learning unit 1310-4, and model evaluation unit 1310-5 are one device. It may be mounted on a server, or it may be mounted on separate devices. For example, some of the data acquisition unit 1310-1, preprocessing unit 1310-2, learning data selection unit 1310-3, model learning unit 1310-4, and model evaluation unit 1310-5. may be included in the device 1000, and the remaining portion may be included in the server.

또한, 데이터 획득부(1310-1), 전처리부(1310-2), 학습 데이터 선택부(1310-3), 모델 학습부(1310-4) 및 모델 평가부(1310-5) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 획득부(1310-1), 전처리부(1310-2), 학습 데이터 선택부(1310-3), 모델 학습부(1310-4) 및 모델 평가부(1310-5) 중 적어도 하나가 소프트웨어 모듈(또는, 인스터력션(instruction) 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다.In addition, at least one of the data acquisition unit 1310-1, the preprocessor 1310-2, the learning data selection unit 1310-3, the model learning unit 1310-4, and the model evaluation unit 1310-5 It can be implemented as a software module. At least one of the data acquisition unit 1310-1, preprocessing unit 1310-2, learning data selection unit 1310-3, model learning unit 1310-4, and model evaluation unit 1310-5 is a software module. When implemented as a program module (or a program module including instructions), the software module may be stored in a non-transitory computer readable recording medium that can be read by a computer. Additionally, in this case, at least one software module may be provided by an operating system (OS) or a predetermined application. Alternatively, part of at least one software module may be provided by an operating system (OS), and the remaining part may be provided by a predetermined application.

도 11은 일 실시예에 따른 데이터 인식부(1320)의 블록도이다.Figure 11 is a block diagram of the data recognition unit 1320 according to one embodiment.

도 11을 참조하면, 일 실시예에 따른 데이터 인식부(1320)는 데이터 획득부(1320-1), 전처리부(1320-2), 인식 데이터 선택부(1320-3), 인식 결과 제공부(1320-4) 및 모델 갱신부(1320-5)를 포함할 수 있다.Referring to FIG. 11, the data recognition unit 1320 according to one embodiment includes a data acquisition unit 1320-1, a preprocessing unit 1320-2, a recognition data selection unit 1320-3, and a recognition result providing unit ( 1320-4) and a model update unit 1320-5.

데이터 획득부(1320-1)는 치아 영역 결정에 필요한 데이터를 획득할 수 있으며, 전처리부(1320-2)는 치아 영역 결정을 위해 획득된 데이터가 이용될 수 있도록, 획득된 데이터를 전처리할 수 있다. 전처리부(1320-2)는 후술할 인식 결과 제공부(1320-4)가 치아 영역 결정을 위하여 획득된 데이터를 이용할 수 있도록, 획득된 데이터를 기 설정된 포맷으로 가공할 수 있다. The data acquisition unit 1320-1 may acquire data necessary for determining the tooth area, and the preprocessing unit 1320-2 may preprocess the acquired data so that the acquired data can be used to determine the tooth area. there is. The pre-processing unit 1320-2 may process the acquired data into a preset format so that the recognition result providing unit 1320-4, which will be described later, can use the acquired data to determine the tooth area.

인식 데이터 선택부(1320-3)는 전처리된 데이터 중에서 치아 영역 결정에 필요한 데이터를 선택할 수 있다. 선택된 데이터는 인식 결과 제공부(1320-4)에게 제공될 수 있다. 인식 데이터 선택부(1320-3)는 치아 영역 결정을 위한 기 설정된 기준에 따라, 전처리된 데이터 중에서 일부 또는 전부를 선택할 수 있다. 또한, 인식 데이터 선택부(1320-3)는 후술할 모델 학습부(1310-4)에 의한 학습에 의해 기 설정된 기준에 따라 데이터를 선택할 수도 있다.The recognition data selection unit 1320-3 may select data necessary for determining the tooth area from the preprocessed data. The selected data may be provided to the recognition result provider 1320-4. The recognition data selection unit 1320-3 may select some or all of the preprocessed data according to preset criteria for determining the tooth area. Additionally, the recognition data selection unit 1320-3 may select data according to preset criteria through learning by the model learning unit 1310-4, which will be described later.

인식 결과 제공부(1320-4)는 선택된 데이터를 데이터 인식 모델에 적용하여 치아 영역을 결정할 수 있다. 인식 결과 제공부(1320-4)는 데이터의 인식 목적에 따른 인식 결과를 제공할 수 있다. 인식 결과 제공부(1320-4)는 인식 데이터 선택부(1320-3)에 의해 선택된 데이터를 입력 값으로 이용함으로써, 선택된 데이터를 데이터 인식 모델에 적용할 수 있다. 또한, 인식 결과는 데이터 인식 모델에 의해 결정될 수 있다.The recognition result provider 1320-4 may determine the tooth area by applying the selected data to the data recognition model. The recognition result providing unit 1320-4 can provide recognition results according to the recognition purpose of the data. The recognition result provider 1320-4 can apply the selected data to the data recognition model by using the data selected by the recognition data selection unit 1320-3 as an input value. Additionally, the recognition result may be determined by a data recognition model.

예를 들어, 이미지의 인식 결과는 동영상, 이미지 또는 명령어(예를 들어, 애플리케이션 실행 명령어, 모듈 기능 실행 명령어 등) 등으로 제공될 수 있다. 인식 결과 제공부(1320-4)는 복수의 이미지들로부터 생성된 합성 이미지를 데이터 인식 모델에 적용하여 이미지의 인식 결과를 제공할 수 있다. 일 예로, 인식 결과 제공부(1320-4)는 이미지에 포함된 오브젝트의 인식 결과를 제공 할 수 있다. 인식 결과는, 예로, 구강 이미지에 포함된 치아의 정보를 3D 모델, 이미지 또는 명령어 등으로 제공할 수 있다.For example, the image recognition result may be provided as a video, image, or command (eg, application execution command, module function execution command, etc.). The recognition result provider 1320-4 may apply a composite image generated from a plurality of images to a data recognition model to provide an image recognition result. As an example, the recognition result providing unit 1320-4 may provide a recognition result of an object included in an image. The recognition result may, for example, provide information about teeth included in the oral image in the form of a 3D model, image, or command.

모델 갱신부(1320-5)는 인식 결과 제공부(1320-4)에 의해 제공되는 인식 결과에 대한 평가에 기초하여, 데이터 인식 모델이 갱신되도록 할 수 있다. 예를 들어, 모델 갱신부(1320-5)는 인식 결과 제공부(1320-4)에 의해 제공되는 인식 결과를 모델 학습부(1310-4)에게 제공함으로써, 모델 학습부(1310-4)가 데이터 인식 모델을 갱신하도록 할 수 있다.The model updating unit 1320-5 may update the data recognition model based on the evaluation of the recognition result provided by the recognition result providing unit 1320-4. For example, the model updating unit 1320-5 provides the recognition result provided by the recognition result providing unit 1320-4 to the model learning unit 1310-4, so that the model learning unit 1310-4 The data recognition model can be updated.

한편, 데이터 인식부(1320) 내의 데이터 획득부(1320-1), 전처리부(1320-2), 인식 데이터 선택부(1320-3), 인식 결과 제공부(1320-4) 및 모델 갱신부(1320-5) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 디바이스(1000)에 탑재될 수 있다. 예를 들어, 데이터 획득부(1320-1), 전처리부(1320-2), 인식 데이터 선택부(1320-3), 인식 결과 제공부(1320-4) 및 모델 갱신부(1320-5) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 전술한 각종 디바이스에 탑재될 수도 있다.Meanwhile, in the data recognition unit 1320, a data acquisition unit 1320-1, a pre-processing unit 1320-2, a recognition data selection unit 1320-3, a recognition result providing unit 1320-4, and a model update unit ( At least one of 1320-5) may be manufactured in the form of at least one hardware chip and mounted on the device 1000. For example, among the data acquisition unit 1320-1, pre-processing unit 1320-2, recognition data selection unit 1320-3, recognition result providing unit 1320-4, and model update unit 1320-5. At least one may be manufactured in the form of a dedicated hardware chip for artificial intelligence (AI), or may be manufactured as part of an existing general-purpose processor (eg, CPU or application processor) or graphics-specific processor (eg, GPU). It can be mounted on various devices.

또한, 데이터 획득부(1320-1), 전처리부(1320-2), 인식 데이터 선택부(1320-3), 인식 결과 제공부(1320-4) 및 모델 갱신부(1320-5)는 하나의 디바이스에 탑재될 수도 있으며, 또는 별개의 디바이스들에 각각 탑재될 수도 있다. 예를 들어, 데이터 획득부(1320-1), 전처리부(1320-2), 인식 데이터 선택부(1320-3), 인식 결과 제공부(1320-4) 및 모델 갱신부(1320-5) 중 일부는 디바이스(1000)에 포함되고, 나머지 일부는 서버에 포함될 수 있다.In addition, the data acquisition unit 1320-1, the preprocessor 1320-2, the recognition data selection unit 1320-3, the recognition result provision unit 1320-4, and the model update unit 1320-5 are one unit. It may be mounted on a device, or it may be mounted on separate devices. For example, among the data acquisition unit 1320-1, pre-processing unit 1320-2, recognition data selection unit 1320-3, recognition result providing unit 1320-4, and model update unit 1320-5. Some may be included in the device 1000, and others may be included in the server.

또한, 데이터 획득부(1320-1), 전처리부(1320-2), 인식 데이터 선택부(1320-3), 인식 결과 제공부(1320-4) 및 모델 갱신부(1320-5) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 획득부(1320-1), 전처리부(1320-2), 인식 데이터 선택부(1320-3), 인식 결과 제공부(1320-4) 및 모델 갱신부(1320-5) 중 적어도 하나가 소프트웨어 모듈(또는, 인스터력션(instruction) 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다.In addition, at least one of the data acquisition unit 1320-1, the preprocessor 1320-2, the recognition data selection unit 1320-3, the recognition result provision unit 1320-4, and the model update unit 1320-5. Can be implemented as a software module. At least one of the data acquisition unit 1320-1, the pre-processing unit 1320-2, the recognition data selection unit 1320-3, the recognition result providing unit 1320-4, and the model update unit 1320-5 is software. When implemented as a module (or a program module including instructions), the software module may be stored in a non-transitory computer readable recording medium that can be read by a computer. Additionally, in this case, at least one software module may be provided by an operating system (OS) or a predetermined application. Alternatively, part of at least one software module may be provided by an operating system (OS), and the remaining part may be provided by a predetermined application.

한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.Meanwhile, the above-described embodiments of the present invention can be written as a program that can be executed on a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium.

상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 및 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다. The computer-readable recording media includes storage media such as magnetic storage media (eg, ROM, floppy disk, hard disk, etc.) and optical readable media (eg, CD-ROM, DVD, etc.).

이상과 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although embodiments of the present invention have been described with reference to the above and the attached drawings, those skilled in the art will understand that the present invention can be implemented in other specific forms without changing the technical idea or essential features. You will understand that it exists. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive.

1000: 디바이스
1300: 제어부
1700: 메모리
1000: device
1300: Control unit
1700: Memory

Claims (7)

피검자의 구강 부위에 대한 복수의 2차원 단면 영상을 획득하는 단계;
데이터 인식 모델을 사용하여, 상기 복수의 2차원 단면 영상으로부터 치아 영역이 추출된 복수의 전처리 영상을 생성하는 단계; 및
상기 복수의 전처리 영상을 저장하는 단계;
를 포함하는, 의료 영상 처리 방법.
Obtaining a plurality of two-dimensional cross-sectional images of the oral region of the subject;
Using a data recognition model, generating a plurality of preprocessed images in which tooth regions are extracted from the plurality of two-dimensional cross-sectional images; and
storing the plurality of pre-processed images;
Including, a medical image processing method.
제1항에 있어서,
상기 복수의 전처리 영상을 생성하는 단계는,
상기 복수의 2차원 단면 영상에서 치아 영역과 잇몸 영역을 구분하는 단계;
상기 치아 영역은 강조하고 상기 잇몸 영역은 제거하는 단계;
상기 치아 영역의 윤곽선을 추출하는 단계;
상기 윤곽선 내부에 색상을 채우는 단계; 및
상기 복수의 2차원 단면 영상에서 상기 윤곽선의 외부는 제거함으로써 복수의 전처리 영상을 생성하는 단계;
를 포함하는, 의료 영상 처리 방법.
According to paragraph 1,
The step of generating the plurality of preprocessed images is,
distinguishing a tooth area and a gum area from the plurality of two-dimensional cross-sectional images;
emphasizing the tooth area and removing the gum area;
Extracting the outline of the tooth area;
filling the inside of the outline with color; and
generating a plurality of pre-processed images by removing the exterior of the outline from the plurality of two-dimensional cross-sectional images;
Including, a medical image processing method.
제2항에 있어서,
상기 복수의 전처리 영상을 불러오는 단계;
상기 복수의 전처리 영상에서 상기 윤곽선 내부의 색상을 서로 다르게 설정하는 단계; 및
상기 복수의 전처리 영상을 기초로 3차원 치아 모델을 생성하는 단계;
를 더 포함하는, 의료 영상 처리 방법.
According to paragraph 2,
Loading the plurality of pre-processed images;
setting different colors inside the outline in the plurality of pre-processed images; and
Generating a 3D tooth model based on the plurality of preprocessed images;
A medical image processing method further comprising:
제3항에 있어서,
상기 3차원 치아 모델에서 상기 서로 다르게 설정된 색상의 치아를 각각 저장하는 단계;
를 더 포함하는, 의료 영상 처리 방법.
According to paragraph 3,
Saving each of the differently colored teeth in the three-dimensional tooth model;
A medical image processing method further comprising:
제1항에 있어서,
상기 복수의 2차원 단면 영상은 CBCT(Cone Beam CT) 및 MDCT(Multi Detector CT) 영상 중 적어도 하나인, 의료 영상 처리 방법.
According to paragraph 1,
A medical image processing method, wherein the plurality of two-dimensional cross-sectional images are at least one of CBCT (Cone Beam CT) and MDCT (Multi Detector CT) images.
컴퓨터 실행가능 명령어가 저장되는 메모리; 및
상기 컴퓨터 실행가능 명령어를 실행함으로써, 제1항 내지 제5항 중 어느 한 항의 방법을 사용하여 복수의 전처리 영상을 생성하는 제어부;
를 포함하는, 의료 영상 처리 디바이스.
a memory in which computer executable instructions are stored; and
a control unit generating a plurality of pre-processed images using the method of any one of claims 1 to 5 by executing the computer-executable instructions;
A medical image processing device comprising:
제1항 내지 제5항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램이 기록된 컴퓨터 판독가능 저장매체.A computer-readable storage medium on which a program for executing the method of any one of claims 1 to 5 on a computer is recorded.
KR1020220123287A 2022-09-28 2022-09-28 Method and device for processing medical image KR20240044045A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220123287A KR20240044045A (en) 2022-09-28 2022-09-28 Method and device for processing medical image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220123287A KR20240044045A (en) 2022-09-28 2022-09-28 Method and device for processing medical image

Publications (1)

Publication Number Publication Date
KR20240044045A true KR20240044045A (en) 2024-04-04

Family

ID=90638013

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220123287A KR20240044045A (en) 2022-09-28 2022-09-28 Method and device for processing medical image

Country Status (1)

Country Link
KR (1) KR20240044045A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040008899A (en) 2002-07-19 2004-01-31 주식회사 하이닉스반도체 Ferroelectric Random Access Memory and Method for fabricating the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040008899A (en) 2002-07-19 2004-01-31 주식회사 하이닉스반도체 Ferroelectric Random Access Memory and Method for fabricating the same

Similar Documents

Publication Publication Date Title
CN112638312B (en) System for training deep neural network and system for determining final position of tooth
JP7493464B2 (en) Automated canonical pose determination for 3D objects and 3D object registration using deep learning
US20200305808A1 (en) Automated Tooth Localization, Enumeration, and Diagnostic System and Method
US10098715B2 (en) Generating a design for a dental restorative product from dental images
CN114730466A (en) Automatic detection, generation and/or correction of tooth features in digital models
CN107106117B (en) Method and device for segmenting and reconstructing teeth and alveolar bones
AU2020341455A1 (en) Method, system and devices for instant automated design of a customized dental object
KR102566541B1 (en) Method for establishing orthodontic treatment plan and apparatus thereof
CN112912008A (en) Weight image generation device, method, and program, discriminator learning device, method, and program, region extraction device, method, and program, and discriminator
KR20200006507A (en) Method and apparatus for extracting region of interest in ct image
KR20240044045A (en) Method and device for processing medical image
US20220122261A1 (en) Probabilistic Segmentation of Volumetric Images
TWI766446B (en) Apparatus for automatically converting color of computerized tomography images on oral cavity based on artificial intelligence and driving method thereof
KR20220145758A (en) Mandibular asymmetry evaluation method using computing device and surgical simulation method using the same
US11244458B2 (en) Image processing apparatus, image processing method, and program
US10909773B2 (en) Medical image modeling system and medical image modeling method
KR102456703B1 (en) Method for creating nerve tube line and dental implant surgery planning device therefor
KR20200134037A (en) Automatic generation method of neural tube line and medical image processing apparatus therefor
KR102659927B1 (en) Method, device and recording medium for erasing tooth shape
US20230419631A1 (en) Guided Implant Surgery Planning System and Method
US20230298272A1 (en) System and Method for an Automated Surgical Guide Design (SGD)
CN117274601A (en) Processing method, device and system for three-dimensional tooth image
Abdo et al. Teeth and Jaw Segmentation from CBCT images Using 3D Deep Learning Models
KR20230163182A (en) 3D Face Scan Automatic Matching Device with Artificial Intelligence and Driving Method Thereof, and Computer Programs Stored on Medium
KR20230090824A (en) Method for providing information of endodontic treatment and device using the same