KR20220019860A - Teeth examination system using deep learning algorithms - Google Patents

Teeth examination system using deep learning algorithms Download PDF

Info

Publication number
KR20220019860A
KR20220019860A KR1020200099628A KR20200099628A KR20220019860A KR 20220019860 A KR20220019860 A KR 20220019860A KR 1020200099628 A KR1020200099628 A KR 1020200099628A KR 20200099628 A KR20200099628 A KR 20200099628A KR 20220019860 A KR20220019860 A KR 20220019860A
Authority
KR
South Korea
Prior art keywords
image
tooth
deep learning
dental
learning algorithm
Prior art date
Application number
KR1020200099628A
Other languages
Korean (ko)
Other versions
KR102428636B1 (en
Inventor
최재호
김도건
한영재
나현준
김동우
박윤기
박영기
신경선
Original Assignee
주식회사 위노아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 위노아이 filed Critical 주식회사 위노아이
Priority to KR1020200099628A priority Critical patent/KR102428636B1/en
Publication of KR20220019860A publication Critical patent/KR20220019860A/en
Application granted granted Critical
Publication of KR102428636B1 publication Critical patent/KR102428636B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0013Medical image data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4542Evaluating the mouth, e.g. the jaw
    • A61B5/4547Evaluating teeth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Physiology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Dentistry (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Fuzzy Systems (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Orthopedic Medicine & Surgery (AREA)

Abstract

Disclosed is a dental examination method using a deep learning algorithm. The dental examination method using the deep learning algorithm comprises: a dental image acquisition step of photographing the upper jaw teeth image and the lower jaw teeth image with an oral camera; an individual tooth ROI image extraction step of extracting an individual tooth ROI image by learning the upper jaw teeth image and the lower jaw teeth image with a deep learning algorithm; and a dental disease prediction step of learning the individual tooth ROI image with the deep learning algorithm to determine whether or not the corresponding tooth needs a dental treatment. Therefore, the present invention is capable of effectively managing the dental health of a user.

Description

딥러닝 알고리즘을 이용한 치아 검진 방법{Teeth examination system using deep learning algorithms}Teeth examination system using deep learning algorithms

본 발명은 치아 검진 방법에 관한 것으로, 보다 상세하게는 딥러닝 알고리즘을 이용한 치아 검진 방법을 제공한다.The present invention relates to a dental examination method, and more particularly, to a dental examination method using a deep learning algorithm.

충치, 치주 질환 및 치아 손실을 포함한 구강 질환은 전 세계적으로 가장 널리 퍼진 질병 중 하나이며 질병으로 인한 고통과 경제적 손실로 사람들의 삶의 질을 떨어트린다. 구강 건강은 지속적인 모니터링을 통해 관리된다면, 초기 단계에서 치료하고 구강 질환의 진행을 예방할 수 있다. 네트워크 및 센서 기술의 발전으로 IOT 기반의 다양한 헬스케어 서비스가 제공되고 있으며 사람들의 건강관리를 다양한 방법으로 지원하고 있다. 하지만, 이러한 IOT 기반 헬스케어 서비스 플랫폼 중에 개인이 편리하게 구강 진료 및 서비스를 제공받을 수 있도록 서비스하는 플랫폼 및 관련 연구가 부족하다.Oral diseases, including tooth decay, periodontal disease and tooth loss, are one of the most prevalent diseases worldwide and reduce people's quality of life due to the pain and economic loss caused by the disease. If oral health is managed through continuous monitoring, treatment at an early stage and progression of oral disease can be prevented. With the development of network and sensor technology, various IOT-based health care services are being provided, and people's health management is supported in various ways. However, among these IOT-based healthcare service platforms, there is a lack of platforms and related research that provide services so that individuals can conveniently receive oral care and services.

최근 몇 년간 classification, object detection, instance segmentation, image captioning 등 컴퓨터 비전 분야에서 딥러닝은 엄청난 잠재력을 보여주었다. CPU, GPU, Dataset 발전으로 딥러닝 기반 방법론은 의료 분야에서 유망한 결과를 낳았다. 이는 대부분의 radiographic와 같은 의료 영상을 분석하는 임상 수준의 치과 문제에 적용되었다. 치과 산업에 대한 대부분의 접근 방식은 단층 촬영 및 방사선 사진 이미지를 기반으로 CNN (Convolutional Neural Network) 딥러닝 방법론을 사용하여 치과 의사의 진료 보조 도구 형태로 진행되었다. 특히, Radiographic을 이용해 사랑니를 제거한 후 신경 손상의 잠재적 위험과 그에 따른 아랫입술과 턱의 감각 장애를 예상하는 방법, 치주 골 손실을 감지하는 방법, 치아 질환을 분류하는 방법 등에 관한 연구들이 활발히 진행되고 있다.In recent years, deep learning has shown tremendous potential in computer vision fields such as classification, object detection, instance segmentation, and image captioning. With the advancement of CPU, GPU, and dataset, deep learning-based methodologies have produced promising results in the medical field. It has been applied to most clinical-level dental problems analyzing medical images such as radiographic. Most approaches to the dental industry have been in the form of dental practice assistants using a Convolutional Neural Network (CNN) deep learning methodology based on tomographic and radiographic images. In particular, studies are being actively conducted on the potential risk of nerve damage after removal of a wisdom tooth using radiographic, a method for predicting sensory impairment of the lower lip and jaw, a method for detecting periodontal bone loss, and a method for classifying dental diseases. there is.

본 발명은 치아건강을 효과적으로 관리할 수 있는 딥러닝 알고리즘을 이용한 치아 검진 방법을 제공한다.The present invention provides a dental examination method using a deep learning algorithm that can effectively manage dental health.

본 발명에 따른 딥러닝 알고리즘을 이용한 치아 검진 방법은 구강 카메라로 상악 치아 영상과 하악 치아 영상을 촬영하는 치아 영상 획득 단계; 상기 상악 치아 영상과 상기 하악 치아 영상을 딥러닝 알고리즘으로 학습하여 개별 치아 ROI 영상을 추출하는 개별 치아 ROI 영상 추출 단계; 및 상기 개별 치아 ROI 영상을 딥러닝 알고리즘으로 학습하여 해당 치아의 치과 치료가 필요한지 여부를 판단하는 치아 질병 예측 단계를 포함한다.A dental examination method using a deep learning algorithm according to the present invention includes: a tooth image acquisition step of photographing an image of a maxillary tooth and an image of a mandible with an oral camera; an individual tooth ROI image extraction step of extracting an individual tooth ROI image by learning the maxillary tooth image and the mandibular tooth image using a deep learning algorithm; and a dental disease prediction step of learning the individual tooth ROI image with a deep learning algorithm to determine whether the corresponding tooth needs dental treatment.

또한, 상기 구강 카메라는 머릿부와 몸통부를 갖는 바디; 상기 머릿부의 일 면에 제공되는 카메라 렌즈; 상기 머릿부의 일 면에 제공되는 엘이디 조명; 및 상기 카메라 렌즈를 통해 입력된 영상 정보를 사용자 단말에 제공하는 통신부를 포함할 수 있다.In addition, the oral camera may include a body having a head and a torso; a camera lens provided on one surface of the head; LED lighting provided on one surface of the head; and a communication unit that provides image information input through the camera lens to a user terminal.

또한, 상기 치아 영상 획득 단계는, 상기 카메라 렌즈로부터 입력된 상기 상악 치아 영상과 상기 하악 치아 영상 각각으로부터 어금니 치아 영상과 앞니 치아 영상을 추출하고, 상기 어금니 치아 영상의 전방 경계선과 상기 앞니 치아 영상의 전방 경계선을 연결하는 기준 가이드 라인을 생성하고, 상기 어금니 치아 영상의 두께에 대응하는 간격으로 상기 기준 가이드 라인의 후방에 보조 가이드 라인을 생성하고, 상기 기준 가이드 라인과 상기 보조 가이드 라인을 상기 사용자 단말의 디스플레이에 표시할 수 있다.In addition, the tooth image acquisition step extracts a molar tooth image and an incisor tooth image from each of the maxillary tooth image and the mandibular tooth image input from the camera lens, and the front boundary line of the molar tooth image and the incisor tooth image. Create a reference guide line connecting the front boundary line, create an auxiliary guide line behind the reference guide line at an interval corresponding to the thickness of the molar tooth image, and set the reference guide line and the auxiliary guide line to the user terminal can be displayed on the display of

또한, 상기 치아 영상 획득 단계는, 상기 카메라 렌즈로부터 입력된 상기 상악 치아 영상과 상기 하악 치아 영상 각각으로부터 치아 ROI 박스를 추출하고, 상기 치아 ROI 박스들의 외측 모서리를 연결하여 기준 가이드 라인을 생성하고, 내측 모서리를 연결하여 보조 가리드 라인을 생성하고, 상기 기준 가이드 라인과 상기 보조 가이드 라인을 상기 사용자 단말의 디스플레이에 표시할 수 있다.In addition, the tooth image acquisition step extracts a tooth ROI box from each of the maxillary tooth image and the mandibular tooth image input from the camera lens, and connects the outer corners of the tooth ROI boxes to generate a reference guideline, An auxiliary guard line may be generated by connecting the inner corners, and the reference guide line and the auxiliary guide line may be displayed on the display of the user terminal.

또한, 상기 치아 질병 예측 단계는 영상 블렌딩을 적용하여 상기 치아의 질병 영상을 제공할 수 있다.In addition, the dental disease prediction step may provide an image of the tooth disease by applying image blending.

본 발명에 의하면, 사용자의 치아 질환 검증이 용이하고, 치과 방문 치료의 필요성을 정확하고 신속하게 사용자에게 제공할 수 있으므로, 사용자의 치아건강이 효과적으로 관리될 수 있다.According to the present invention, it is easy to verify the user's dental disease, and the need for dental visit treatment can be accurately and quickly provided to the user, so that the user's dental health can be effectively managed.

도 1은 본 발명의 실시 예에 따른 딥러닝 알고리즘을 이용한 치아 검진 시스템을 나타내는 도면이다.
도 2는 본 발명의 실시 예에 따른 구강 카메라를 나타내는 도면이다.
도 3은 도 2의 구강 카메라로 촬영한 상악 치아 영상을 나타내는 도면이다.
도 4는 도 2의 구강 카메라로 촬영한 하악 치아 영상을 나타내는 도면이다.
도 5는 본 발명의 실시 예에 따라 가이드 라인이 표시된 사용자 단말기를 나타내는 도면이다.
도 6은 본 발명의 실시 예에 따라 딥러닝 분석 엔진이 딥러닝 알고리즘으로 학습하여 개별 치아 ROI 영상을 추출하는 과정을 나타내는 도면이다.
도 7은 도 6에서 추출된 개별 치아 ROI 영상을 나타내는 도면이다.
도 8은 포아송 영상 블렌딩이 적용된 치아의 질병 영상을 나타내는 도면이다.
도 9는 본 발명의 실시 예에 따른 딥러닝 알고리즘을 이용한 치아 검진 방법을 나타내는 순서도이다.
도 10은 본 발명의 실시 예에 따라 사용자 단말기에 표시되는 개별 치아 ROI 영상과 치아의 질병 영상을 나타내는 도면이다.
1 is a diagram illustrating a dental examination system using a deep learning algorithm according to an embodiment of the present invention.
Figure 2 is a view showing an oral camera according to an embodiment of the present invention.
3 is a view showing an image of the maxillary teeth taken with the oral camera of FIG. 2 .
Figure 4 is a view showing an image of the mandible taken with the oral camera of Figure 2;
5 is a diagram illustrating a user terminal on which guide lines are displayed according to an embodiment of the present invention.
6 is a diagram illustrating a process of extracting an individual tooth ROI image by a deep learning analysis engine learning with a deep learning algorithm according to an embodiment of the present invention.
7 is a diagram illustrating an individual tooth ROI image extracted in FIG. 6 .
8 is a diagram illustrating a disease image of a tooth to which Poisson image blending is applied.
9 is a flowchart illustrating a dental examination method using a deep learning algorithm according to an embodiment of the present invention.
10 is a diagram illustrating an individual tooth ROI image and a tooth disease image displayed on a user terminal according to an embodiment of the present invention.

이하, 첨부된 도면들을 참조하여 본 발명의 바람직한 실시 예를 상세히 설명할 것이다. 그러나 본 발명의 기술적 사상은 여기서 설명되는 실시 예에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시 예는 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the technical spirit of the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided so that the disclosed content may be thorough and complete, and the spirit of the present invention may be sufficiently conveyed to those skilled in the art.

본 명세서에서, 어떤 구성요소가 다른 구성요소 상에 있다고 언급되는 경우에 그것은 다른 구성요소 상에 직접 형성될 수 있거나 또는 그들 사이에 제 3의 구성요소가 개재될 수도 있다는 것을 의미한다. 또한, 도면들에 있어서, 막 및 영역들의 두께는 기술적 내용의 효과적인 설명을 위해 과장된 것이다. In this specification, when a component is referred to as being on another component, it means that it may be directly formed on the other component or a third component may be interposed therebetween. In addition, in the drawings, thicknesses of films and regions are exaggerated for effective description of technical content.

또한, 본 명세서의 다양한 실시 예 들에서 제1, 제2, 제3 등의 용어가 다양한 구성요소들을 기술하기 위해서 사용되었지만, 이들 구성요소들이 이 같은 용어들에 의해서 한정되어서는 안 된다. 이들 용어들은 단지 어느 구성요소를 다른 구성요소와 구별시키기 위해서 사용되었을 뿐이다. 따라서, 어느 한 실시 예에 제 1 구성요소로 언급된 것이 다른 실시 예에서는 제 2 구성요소로 언급될 수도 있다. 여기에 설명되고 예시되는 각 실시 예는 그것의 상보적인 실시 예도 포함한다. 또한, 본 명세서에서 '및/또는'은 전후에 나열한 구성요소들 중 적어도 하나를 포함하는 의미로 사용되었다.In addition, in various embodiments of the present specification, terms such as first, second, third, etc. are used to describe various components, but these components should not be limited by these terms. These terms are only used to distinguish one component from another. Accordingly, what is referred to as a first component in one embodiment may be referred to as a second component in another embodiment. Each embodiment described and illustrated herein also includes a complementary embodiment thereof. In addition, in this specification, 'and/or' is used in the sense of including at least one of the components listed before and after.

명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 또한, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 구성요소 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 구성요소 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하는 것으로 이해되어서는 안 된다. 또한, 본 명세서에서 "연결"은 복수의 구성 요소를 간접적으로 연결하는 것, 및 직접적으로 연결하는 것을 모두 포함하는 의미로 사용된다. In the specification, the singular expression includes the plural expression unless the context clearly dictates otherwise. In addition, terms such as "comprise" or "have" are intended to designate that a feature, number, step, element, or a combination thereof described in the specification exists, but one or more other features, number, step, configuration It should not be construed as excluding the possibility of the presence or addition of elements or combinations thereof. In addition, in this specification, "connection" is used in a sense including both indirectly connecting a plurality of components and directly connecting a plurality of components.

또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 것이다.In addition, in the following description of the present invention, if it is determined that a detailed description of a related well-known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.

도 1은 본 발명의 실시 예에 따른 딥러닝 알고리즘을 이용한 치아 검진 시스템을 나타내는 도면이고, 도 2는 본 발명의 실시 예에 따른 구강 카메라를 나타내는 도면이고, 도 3은 도 2의 구강 카메라로 촬영한 상악 치아 영상을 나타내는 도면이고, 도 4는 도 2의 구강 카메라로 촬영한 하악 치아 영상을 나타내는 도면이다.1 is a view showing a dental examination system using a deep learning algorithm according to an embodiment of the present invention, FIG. 2 is a view showing an oral camera according to an embodiment of the present invention, and FIG. 3 is taken with the oral camera of FIG. It is a view showing an image of a maxillary tooth, and FIG. 4 is a view showing an image of a mandible taken with the oral camera of FIG. 2 .

도 1 내지 도 4를 참조하면, 딥러닝 알고리즘을 이용한 치아 검진 시스템(10)은 구강 카메라(100), 사용자 단말기(200), 그리고 영상 분석부(300)를 포함한다.1 to 4 , the dental examination system 10 using a deep learning algorithm includes an oral camera 100 , a user terminal 200 , and an image analysis unit 300 .

구강 카메라(100)는 사용자의 입안에 삽입되거나, 사용자의 입 밖에서 상악 치아 영상과 하악 치아 영상을 촬영한다. 구강 카메라(100)는 바디(110, 120), 카메라 렌즈(130), 조명(140), 통신부(150), 그리고 배터리(160)를 포함한다.The oral camera 100 is inserted into the user's mouth or takes images of the upper and lower teeth outside the user's mouth. The intraoral camera 100 includes a body 110 , 120 , a camera lens 130 , a light 140 , a communication unit 150 , and a battery 160 .

바디(110, 120)는 사용자의 입안에 삽입가능한 얇은 두께로 제공되며, 사용자가 손으로 쥘 수 있는 몸통부(110)와 상기 몸통부(110)의 전방에 제공되는 머릿부(120)를 포함한다. The bodies 110 and 120 are provided with a thin thickness that can be inserted into the user's mouth, and include a body part 110 that the user can hold by hand, and a head part 120 provided in front of the body part 110 . do.

카메라 렌즈(130)는 머릿부(120)의 일 면에 제공되며, 치아 영상이 입력된다. 카메라 렌즈(130)는 넓은 화각을 가질 수 있다. 실시 예에 의하면, 카메라 렌즈(130)는 100°~150°의 화각을 가질 수 있다. 바람직하게 카메라 렌즈(130)는 120°의 화각을 가질 수 있다. 카메라 렌즈(130)는 상악 치아와의 거리를 고려하여 1~3cm의 초점 길이를 가질 수 있다. 상기 카메라 렌즈(130)를 통해 상악 치아의 전체 영역과 하악 치아의 전체 영역 각각이 개별 영상으로 촬영될 수 있다.The camera lens 130 is provided on one surface of the head 120, and a tooth image is input. The camera lens 130 may have a wide angle of view. According to an embodiment, the camera lens 130 may have an angle of view of 100° to 150°. Preferably, the camera lens 130 may have an angle of view of 120°. The camera lens 130 may have a focal length of 1 to 3 cm in consideration of the distance from the maxillary teeth. Through the camera lens 130 , the entire area of the maxillary tooth and the entire area of the mandible may be captured as individual images.

조명(140)은 머릿부(120)의 일 면에 제공되며, 카메라 렌즈(130)의 전방으로 광을 조사한다. 조명(140)은 카메라 렌즈(130)에 인접한 지점에 위치할 수 있다. 조명(140)은 일반 LED, 적외선 LED, 그리고 큐레이 검사용 LED가 사용될 수 있다.The illumination 140 is provided on one surface of the head 120 , and irradiates light to the front of the camera lens 130 . The light 140 may be located at a point adjacent to the camera lens 130 . As the lighting 140 , a general LED, an infrared LED, and an LED for Q-ray inspection may be used.

통신부(150)는 몸통부(110) 내에 위치하며, 카메라 렌즈(130)를 통해 입력된 영상 정보를 사용자 단말(200)에 전송한다.The communication unit 150 is located in the body 110 , and transmits image information input through the camera lens 130 to the user terminal 200 .

배터리(160)는 몸통부(110) 내에 위치하며, 구강 카메라(100))의 각 구성에 전력을 제공한다.The battery 160 is located in the body 110, and provides power to each component of the oral camera 100).

도면에는 도시하지 않았지만, 구강 카메라(100)는 가스 센서, 열선, HW 촬영 가이드를 더 포함할 수 있다.Although not shown in the drawings, the oral camera 100 may further include a gas sensor, a heat wire, and a HW photographing guide.

가스 센서는 머릿부(120)에 제공되며, 치아 영상 촬영 시, 사용자의 입냄새를 측정한다. 측정된 입냄새는 통신부(150)를 통해 사용자 단말(200)에 전송된다. 사용자 단말(200)은 사용자의 입냄새의 변화와 충치의 변화를 사용자에게 제공할 수 있다.The gas sensor is provided on the head 120 and measures the user's bad breath when taking a dental image. The measured bad breath is transmitted to the user terminal 200 through the communication unit 150 . The user terminal 200 may provide a change in the user's bad breath and a change in tooth decay to the user.

열선은 카메라 렌즈(130)의 주변에 매설되며, 카메라 렌즈(130)를 가열하여 김서림 발생을 방지한다.The heating wire is embedded in the periphery of the camera lens 130 , and prevents fogging by heating the camera lens 130 .

HW 촬영 가이드는 머릿부(120)의 타 면에 결합하며, 치아에 걸칠 수 있는 홈을 제공한다. 카메라 렌즈(130)가 상악 치아를 촬영하는 경우, HW 촬영 가이드의 홈에는 하악 치아가 삽입되고, 카메라 렌즈(130)가 하악 치아를 촬영하는 경우, HW 촬영 가이드의 홈에는 상악 치아가 삽입된다. HW 촬영 가이드의 홈에 치아가 삽입되는 경우, 구강 카메라의 흔들림 및 떨림이 예방되어 안정적인 영상을 획득할 수 있다.The HW shooting guide is coupled to the other surface of the head 120, and provides a groove that can be hung over the teeth. When the camera lens 130 captures the maxillary teeth, the mandibular teeth are inserted into the grooves of the HW imaging guide, and when the camera lens 130 captures the mandibular teeth, the maxillary teeth are inserted into the grooves of the HW imaging guides. When a tooth is inserted into the groove of the HW shooting guide, shaking and shaking of the oral camera are prevented, so that a stable image can be obtained.

사용자 단말기(200)에는 치아 검진을 위한 전용 어플리케이션이 설치되며, 상기 어플리케이션을 통해 구강 카메라(100)로부터 영상 정보를 수신하고, 수신된 영상 정보를 영상 분석부(300)에 전송한다. 그리고 사용자 단말기(200)는 구강 카메라(100)와 영상 분석부(300)로부터 전송된 영상을 디스플레이에 표시한다. A dedicated application for dental examination is installed in the user terminal 200 , and image information is received from the oral camera 100 through the application, and the received image information is transmitted to the image analysis unit 300 . And the user terminal 200 displays the image transmitted from the oral camera 100 and the image analysis unit 300 on the display.

또한 사용자 단말기(200)는 구강 카메라(100)에서 전송된 영상 정보에 가이드 라인을 생성하고, 생성된 가이드 라인을 영상 정보와 함께 디스플레이에 표시한다. In addition, the user terminal 200 generates a guide line on the image information transmitted from the oral camera 100, and displays the generated guide line on the display together with the image information.

도 5는 본 발명의 실시 예에 따라 가이드 라인이 표시된 사용자 단말기를 나타내는 도면이다.5 is a diagram illustrating a user terminal on which a guide line is displayed according to an embodiment of the present invention.

도 5를 참조하면, 사용자 단말기는 상악 치아 영상과 하악 치아 영상 각각으로부터 어금니 치아 영상(T1)과 앞니 치아 영상(T2)을 추출하고, 어금니 치아 영상(T1)의 전방 경계선과 앞니 치아 영상(T2)의 전방 경계선을 연결하는 기준 가이드 라인(L1)을 생성하고, 어금니 치아 영상(T1)의 두께(d)에 대응하는 간격으로 기준 가이드 라인(L1)의 후방에 보조 가이드 라인(L2)을 생성하고, 기준 가이드 라인(L1)과 보조 가이드 라인(L2)을 상기 사용자 단말(200)의 디스플레이부에 표시한다. 사용자는 영상 정보에 나타난 자신의 치아를 상기 가이드 라인(L1, L2)에 정렬시켜 상악 치아 영상과 하악 치아 영상을 각각 획득할 수 있다.Referring to FIG. 5 , the user terminal extracts a molar tooth image T1 and an incisor tooth image T2 from each of the maxillary tooth image and the mandibular tooth image, and the front boundary line of the molar tooth image T1 and the incisor tooth image T2 ), create a reference guide line (L1) connecting the anterior boundary of and the reference guide line L1 and the auxiliary guide line L2 are displayed on the display unit of the user terminal 200 . The user may acquire the maxillary tooth image and the mandibular tooth image, respectively, by aligning his/her teeth indicated in the image information to the guide lines L1 and L2.

다른 실시 예에 의하면, 사용자 단말기는 카메라 렌즈(130)로부터 입력된 상악 치아 영상과 하악 치아 영상 각각으로부터 치아 ROI 박스(도 6의 11)를 추출하고, 치아 ROI 박스들의 외측 모서리를 연결하여 기준 가이드 라인(L1)을 생성하고, 내측 모서리를 연결하여 보조 가리드 라인(L2)을 생성할 수 있다. 사용자 단말기는 기준 가이드 라인(L1)과 보조 가이드 라인(L2)을 상기 사용자 단말(200)의 디스플레이부에 표시한다. 사용자는 영상 정보에 나타난 자신의 치아를 상기 가이드 라인(L1, L2)에 정렬시켜 상악 치아 영상과 하악 치아 영상을 각각 획득할 수 있다.According to another embodiment, the user terminal extracts a tooth ROI box (11 in FIG. 6) from each of the maxillary tooth image and the mandibular tooth image input from the camera lens 130, and connects the outer corners of the tooth ROI boxes to guide the reference The auxiliary guard line L2 may be created by creating the line L1 and connecting the inner corners. The user terminal displays the reference guide line L1 and the auxiliary guide line L2 on the display unit of the user terminal 200 . The user may acquire the maxillary tooth image and the mandibular tooth image, respectively, by aligning his/her teeth indicated in the image information to the guide lines L1 and L2.

영상 분석부(300)는 사용자 단말기(200)로부터 상악 치아 영상과 하악 치아 영상을 수신하고, 상기 영상을 딥러닝 알고리즘으로 학습하여 개별 치아 ROI (Region Of Interest) 영상을 추출하고, 개별 치아 ROI 영상을 딥러닝 알고리즘으로 학습하여 해당 치아의 치과 치료가 필요한지 여부를 판단한다. The image analysis unit 300 receives the maxillary tooth image and the mandibular tooth image from the user terminal 200, learns the image with a deep learning algorithm, extracts an individual tooth ROI (Region Of Interest) image, and extracts an individual tooth ROI image is learned with a deep learning algorithm to determine whether or not dental treatment is required for the corresponding tooth.

그리고 영상 분석부(300)는 영상 블렌딩을 적용하여 치아의 질병 영상을 사용자 단말기에 전송한다. 영상 블렌딩은 포아송 영상 블렌딩, 가우시안 커널을 이용한 영상 블렌딩, 그리고 2D Kernel을 직접 만들어서 블렌딩하는 방법이 사용될 수 있다. 영상 분석부(300)는 별도의 서버로 제공되거나 사용자 단말기 내에 탑재될 수 있다.And the image analysis unit 300 transmits the disease image of the tooth to the user terminal by applying image blending. For image blending, Poisson image blending, image blending using a Gaussian kernel, and a method of directly creating and blending a 2D kernel may be used. The image analysis unit 300 may be provided as a separate server or may be mounted in the user terminal.

영상 분석부(300)는 통신부(310), 데이터 저장부(320), 딥러닝 분석 엔진(330)을 포함한다.The image analysis unit 300 includes a communication unit 310 , a data storage unit 320 , and a deep learning analysis engine 330 .

통신부(310)는 사용자 단말기(200)와 유선 또는 무선 통신할 수 있다. The communication unit 310 may communicate with the user terminal 200 by wire or wirelessly.

데이터 저장부(320)는 딥러닝 알고리즘의 학습에 사용되는 다양한 치아 영상 정보를 저장한다. 데이터 저장부(320)에는 구강 카메라(100)로 촬영한 상악 치아 영상과 하악 치아 영상이 저장될 수 있다. 그리고 데이터 저장부(320)에는 성별, 연령, 그리고 인종에 따라 촬영된 치아 영상이 저장될 수 있다. The data storage unit 320 stores various tooth image information used for learning of a deep learning algorithm. The data storage unit 320 may store the maxillary tooth image and the mandibular tooth image captured by the oral camera 100 . In addition, the data storage unit 320 may store a tooth image taken according to gender, age, and race.

도 6은 본 발명의 실시 예에 따라 딥러닝 분석 엔진이 딥러닝 알고리즘으로 학습하여 개별 치아 ROI 영상을 추출하는 과정을 나타내는 도면이고, 도 7은 도 6에서 추출된 개별 치아 ROI 영상을 나타내는 도면이다.6 is a diagram illustrating a process in which a deep learning analysis engine extracts an individual tooth ROI image by learning with a deep learning algorithm according to an embodiment of the present invention, and FIG. 7 is a diagram illustrating an individual tooth ROI image extracted in FIG. .

도 6 및 도 7을 참조하면, 딥러닝 분석 엔진(330)은 딥러닝 알고리즘으로 학습하여 개별 치아 ROI 영상(11)을 추출한다. 딥러닝 분석 엔진(330)은 Tooth ROI network를 이용하여 치아 ROI 영상(11)을 추출하며, 상기 Tooth ROI network는 CNN 네트워크와 RPN(Region Proposal Network)로 구성된다. 6 and 7 , the deep learning analysis engine 330 extracts an individual tooth ROI image 11 by learning with a deep learning algorithm. The deep learning analysis engine 330 extracts the tooth ROI image 11 using a Tooth ROI network, and the Tooth ROI network is composed of a CNN network and a Region Proposal Network (RPN).

그리고 딥러닝 분석 엔진(330)은 개별 치아 ROI 영상을 딥러닝 알고리즘으로 학습하여 해당 치아의 치과 치료가 필요한지 여부를 판단한다. 딥러닝 분석 엔진(330)은 개별 치아 ROI 영상에서 특징점 추출(Feature extraction)을 위해 ResNet과 같은 CNN 네트워크에 이미지의 high level feature, low level feature를 효과적으로 전달하기 위한 FPN(Feature Pyramid Network) 방법을 사용할 수 있다. 딥러닝 분석 엔진(330)은 포아송 영상 블렌딩을 적용하여 치아의 질병 영상을 생성할 수 있다. 도 8은 포아송 영상 블렌딩이 적용된 치아의 질병 영상을 나타내는 도면이다.And the deep learning analysis engine 330 learns the individual tooth ROI image with a deep learning algorithm to determine whether the corresponding tooth needs dental treatment. The deep learning analysis engine 330 uses a Feature Pyramid Network (FPN) method to effectively deliver high-level features and low-level features of an image to a CNN network such as ResNet for feature extraction from individual tooth ROI images. can The deep learning analysis engine 330 may generate an image of a tooth disease by applying Poisson image blending. 8 is a diagram illustrating a disease image of a tooth to which Poisson image blending is applied.

딥러닝 분석 엔진(330)은 치아의 질병 영상을 통해 Occlusal caries, proximal caries, cavitation, dental fluorosis, periodontitis, cracked tooth, dental calculus, dental plaque, tooth loss를 포함한 다양한 dental 치과 질병을 예측할 수 있다.The deep learning analysis engine 330 may predict various dental diseases including occlusal caries, proximal caries, cavitation, dental fluorosis, periodontitis, cracked tooth, dental calculus, dental plaque, and tooth loss through the disease image of the tooth.

도 9는 본 발명의 실시 예에 따른 딥러닝 알고리즘을 이용한 치아 검진 방법을 나타내는 순서도이다.9 is a flowchart illustrating a dental examination method using a deep learning algorithm according to an embodiment of the present invention.

도 9를 참조하면, 딥러닝 알고리즘을 이용한 치아 검진 방법은 치아 영상 획득 단계(S10), 개별 치아 ROI 영상 추출 단계(S20), 그리고 치아 질병 예측 단계(S30)를 포함한다.Referring to FIG. 9 , a dental examination method using a deep learning algorithm includes a tooth image acquisition step (S10), an individual tooth ROI image extraction step (S20), and a dental disease prediction step (S30).

치아 영상 획득 단계(S10)는 구강 카메라(100)의 머릿부(120)를 사용자가 입안에 삽입한 상태에서 사용자의 상악 치아 영상과 하악 치아 영상을 촬영한다. 엘이디 조명(140)이 온(ON) 상태에서 카메라 렌즈(130)가 상악 치아 또는 하악 치아를 촬영하고, 촬영된 영상은 통신부(150)를 통해 사용자 단말기(200)에 전송된다. 사용자 단말기(200)는 전용 어플리케이션의 실행으로 카메라 렌즈(130)로부터 전송되는 영상을 실시간으로 디스플레이부에 나타내고, 영상에 나타난 치아들을 분석하여 가이드 라인(L1, L2)을 디스플레이부에 표시한다. 어플리케이션은 영상에 나타난 어금니(T1)와 앞니(T2)를 추출하고, 어금니 치아 영상의 전방 경계선과 앞니 치아 영상의 전방 경계선을 연결하는 기준 가이드 라인(L1)을 생성하고, 어금니 치아 영상의 두께(d)에 대응하는 간격으로 기준 가이드 라인(L1)의 후방에 보조 가이드 라인(L2)을 생성한다. 사용자는 영상에 표시되는 치아 라인을 가이드 라인(L1, L2)과 일치시켜 상악 치아 영상과 하악 치아 영상을 촬영할 수 있다. 상악 치아 영상과 하악 치아 영상은 사용자 단말기를 통해 영상 분석부에 전송된다.In the tooth image acquisition step (S10), the user's upper and lower teeth images are captured while the user inserts the head 120 of the oral camera 100 into the mouth. When the LED lighting 140 is on, the camera lens 130 photographs the maxillary or mandibular teeth, and the captured image is transmitted to the user terminal 200 through the communication unit 150 . The user terminal 200 displays the image transmitted from the camera lens 130 on the display unit in real time by executing the dedicated application, analyzes the teeth displayed in the image, and displays the guide lines L1 and L2 on the display unit. The application extracts the molar teeth (T1) and the incisors (T2) shown in the image, creates a reference guideline (L1) that connects the anterior boundary line of the molar tooth image and the front boundary line of the incisor tooth image, and the thickness of the molar tooth image ( An auxiliary guide line L2 is generated behind the reference guide line L1 at an interval corresponding to d). The user may photograph the maxillary tooth image and the mandibular tooth image by matching the tooth line displayed on the image with the guide lines L1 and L2. The maxillary tooth image and the mandibular tooth image are transmitted to the image analysis unit through the user terminal.

개별 치아 ROI 영상 추출 단계(S20)는 상악 치아 영상과 하악 치아 영상을 딥러닝 알고리즘으로 학습하여 개별 치아 ROI 영상을 추출한다. 개별 치아 ROI 영상 추출을 위한 딥러닝 알고리즘 학습은 데이터 저장부에 저장된 상악 치아 영상과 하악 치아 영상의 개별 치아 영역에 전문 치과의사가 픽셀 단위로 주석을 달고, 이를 ROI 검출 네트워크로 학습하여 개별 치아 ROI 영상을 추출할 수 있다.In the individual tooth ROI image extraction step (S20), an individual tooth ROI image is extracted by learning the maxillary tooth image and the mandibular tooth image with a deep learning algorithm. Deep learning algorithm learning for individual tooth ROI image extraction is performed by a professional dentist who annotates individual tooth regions of the maxillary and mandibular teeth images stored in the data storage unit in pixel units, and learns them with an ROI detection network to ROI on individual teeth. You can extract images.

또한, 딥러닝 알고리즘 학습 시 개별 영상에 대해 전처리 과정이 먼저 수행 될 수 있다. 전처리 과정은 영상 정규화 단계와 데이터 증가 단계를 포함한다. In addition, when learning a deep learning algorithm, a preprocessing process may be performed first for individual images. The preprocessing process includes an image normalization step and a data augmentation step.

영상 정규화 단계는 입력 치아 영상에 대하여 전체적인 명암값의 분포를 고르게 하도록 정규화하고 치아 질병들의 특징을 부각하기 위해 대비를 높여준다. 영상 정규화 단계는 0~255 사이의 이미지 픽셀값을 0~1로 변환하여 딥러닝 학습 최적화를 한다. In the image normalization step, the input tooth image is normalized to make the distribution of the overall contrast values even, and the contrast is increased to highlight features of dental diseases. The image normalization step optimizes deep learning learning by converting image pixel values between 0 and 255 into 0-1.

데이터 증가 단계는 딥러닝 학습 시 분류하려는 클래스 간의 불균형 문제, 오버피팅 문제를 해결하기 위해 더 많은 데이터를 확보하기 위해 수행된다. 데이터 증가 단계는 random horizontal and vertical shift, color jitter, contrast enhancement, affine transformation, crop 등 데이터 특성은 유지하면서 다양한 데이터를 확보하는 영상 처리 방법론이 적용될 수 있다.The data increase step is performed to obtain more data to solve the problem of imbalance between classes to be classified and overfitting problems during deep learning learning. In the data increase step, an image processing methodology that secures various data while maintaining data characteristics such as random horizontal and vertical shift, color jitter, contrast enhancement, affine transformation, and crop may be applied.

치아 질병 예측 단계(S30)는 개별 치아 ROI 영상을 딥러닝 알고리즘으로 학습하여 해당 치아의 치과 치료가 필요한지 여부를 판단한다. 치아 질병 예측 단계(S30)는 개별 치아 ROI 영상에서 특징점 추출을 통해 치과 치료가 필요한 영역을 추출할 수 있다. In the tooth disease prediction step (S30), the individual tooth ROI image is learned by a deep learning algorithm to determine whether the corresponding tooth needs dental treatment. In the dental disease prediction step ( S30 ), a region requiring dental treatment may be extracted by extracting key points from the individual tooth ROI image.

다른 실시 예에 의하면, 치아 질병 예측 단계(S30)는 개별 치아 ROI 영상을 딥러닝 알고리즘으로 학습하여 정상 치아와 치과 치료가 필요한 치아를 검출하고, 치과 치료가 필요한 치아 영상에서 의심 부분을 찾아 하이라이트로 표시할 수 있다. According to another embodiment, the dental disease prediction step (S30) learns individual tooth ROI images with a deep learning algorithm to detect normal teeth and teeth requiring dental treatment, and finds a suspicious part in the tooth image requiring dental treatment and highlights it. can be displayed

또 다른 실시 예에 의하면, 치아 질병 예측 단계(S30)는 개별 치아 ROI 영상을 딥러닝 알고리즘으로 학습하여 정상 치아, 표면 충치 치아, 깊은 충치 치아, 그리고 단순 착색 치아로 분류 후 표면 충치 치아 영상과 깊은 충치 치아 영상에서 의심 부분을 찾아 하이라이트로 표시할 수 있다.According to another embodiment, in the tooth disease prediction step (S30), the individual tooth ROI image is learned by a deep learning algorithm and classified into normal teeth, superficially decayed teeth, deep decayed teeth, and simple colored teeth. It is possible to find and highlight the suspicious part in the decayed tooth image.

치아 질병 예측 단계(S30)는 상술한 영상 블렌딩을 적용하여 치아의 질병 영상을 제공할 수 있다.The dental disease prediction step S30 may provide an image of a tooth disease by applying the above-described image blending.

치아 질병 예측 단계(S30)에서 생성된 개별 치아 ROI 영상과 치아의 질병 영상은 사용자의 단말기(200)에 전송된다.The individual tooth ROI image and the tooth disease image generated in the tooth disease prediction step S30 are transmitted to the user's terminal 200 .

도 10은 본 발명의 실시 예에 따라 사용자 단말기에 표시되는 개별 치아 ROI 영상과 치아의 질병 영상을 나타내는 도면이다.10 is a diagram illustrating an individual tooth ROI image and a tooth disease image displayed on a user terminal according to an embodiment of the present invention.

도 10의 (A)를 참조하면, 상악 치아 영상과 하악 치아 영상에서 개별 치아 ROI 영상이 추출된 영역(15)이 표시된다. 개발 영역(15)에는 개별 치아 ROI 영상의 순번이 부여된다.Referring to FIG. 10A , a region 15 from which individual tooth ROI images are extracted from the maxillary tooth image and the mandibular tooth image is displayed. The development area 15 is given a sequence number of the individual tooth ROI image.

도 10의 (B)를 참조하면, 치과 치료가 필요하다고 예측된 치아의 ROI영상과 포아송 영상 블렌딩이 적용된 치아의 질병 영상(16)이 표시된다. 그리고 치아의 질병 확률이 수치로 표현되고, 치과 치료가 필요한 정도(17))가 단계별로 표시된다.Referring to FIG. 10B , an ROI image of a tooth predicted to require dental treatment and a disease image 16 of a tooth to which Poisson image blending is applied are displayed. And the disease probability of the tooth is expressed as a numerical value, and the degree of need for dental treatment (17)) is displayed in stages.

이러한 분석 정보는 사용자의 요청에 따라 사용자 단말기를 통해 사용자가 지정한 치과 병원의 전산 영상 분석부로 전송될 수 있으며, 치과 의사의 치료 진단에 활용될 수 있다. 또한, 이러한 분석 정보는 원격 진료용으로 사용가능하다.Such analysis information may be transmitted to a computerized image analysis unit of a dental hospital designated by a user through a user terminal according to a user's request, and may be utilized for treatment diagnosis by a dentist. In addition, such analysis information is available for telemedicine.

이상, 본 발명을 바람직한 실시 예를 사용하여 상세히 설명하였으나, 본 발명의 범위는 특정 실시 예에 한정되는 것은 아니며, 첨부된 특허청구범위에 의하여 해석되어야 할 것이다. 또한, 이 기술분야에서 통상의 지식을 습득한 자라면, 본 발명의 범위에서 벗어나지 않으면서도 많은 수정과 변형이 가능함을 이해하여야 할 것이다.As mentioned above, although the present invention has been described in detail using preferred embodiments, the scope of the present invention is not limited to specific embodiments and should be construed according to the appended claims. In addition, those skilled in the art should understand that many modifications and variations are possible without departing from the scope of the present invention.

10: 치아 검진 시스템
100: 구강 카메라
200: 사용자 단말기
300: 영상 분석부
10: dental examination system
100: oral camera
200: user terminal
300: image analysis unit

Claims (5)

구강 카메라로 상악 치아 영상과 하악 치아 영상을 촬영하는 치아 영상 획득 단계;
상기 상악 치아 영상과 상기 하악 치아 영상을 딥러닝 알고리즘으로 학습하여 개별 치아 ROI 영상을 추출하는 개별 치아 ROI 영상 추출 단계; 및
상기 개별 치아 ROI 영상을 딥러닝 알고리즘으로 학습하여 해당 치아의 치과 치료가 필요한지 여부를 판단하는 치아 질병 예측 단계를 포함하는 딥러닝 알고리즘을 이용한 치아 검진 방법.
A dental image acquisition step of taking a maxillary tooth image and a mandibular tooth image with an oral camera;
an individual tooth ROI image extraction step of extracting an individual tooth ROI image by learning the maxillary tooth image and the mandibular tooth image using a deep learning algorithm; and
A dental examination method using a deep learning algorithm, comprising a dental disease prediction step of learning the individual tooth ROI image with a deep learning algorithm to determine whether the corresponding tooth needs dental treatment.
제 1 항에 있어서,
상기 구강 카메라는
머릿부와 몸통부를 갖는 바디;
상기 머릿부의 일 면에 제공되는 카메라 렌즈;
상기 머릿부의 일 면에 제공되는 엘이디 조명; 및
상기 카메라 렌즈를 통해 입력된 영상 정보를 사용자 단말에 제공하는 통신부를 포함하는 딥러닝 알고리즘을 이용한 치아 검진 방법.
The method of claim 1,
the oral camera
a body having a head and a torso;
a camera lens provided on one surface of the head;
LED lighting provided on one surface of the head; and
A dental examination method using a deep learning algorithm comprising a communication unit that provides image information input through the camera lens to a user terminal.
제 2 항에 있어서,
상기 치아 영상 획득 단계는,
상기 카메라 렌즈로부터 입력된 상기 상악 치아 영상과 상기 하악 치아 영상 각각으로부터 어금니 치아 영상과 앞니 치아 영상을 추출하고, 상기 어금니 치아 영상의 전방 경계선과 상기 앞니 치아 영상의 전방 경계선을 연결하는 기준 가이드 라인을 생성하고,
상기 어금니 치아 영상의 두께에 대응하는 간격으로 상기 기준 가이드 라인의 후방에 보조 가이드 라인을 생성하고,
상기 기준 가이드 라인과 상기 보조 가이드 라인을 상기 사용자 단말의 디스플레이에 표시하는 딥러닝 알고리즘을 이용한 치아 검진 방법.
3. The method of claim 2,
The tooth image acquisition step is,
A molar tooth image and an incisor tooth image are extracted from each of the maxillary tooth image and the mandibular tooth image input from the camera lens, and a reference guideline connecting the front boundary line of the molar tooth image and the front boundary line of the incisor tooth image. create,
creating an auxiliary guide line behind the reference guide line at an interval corresponding to the thickness of the molar tooth image,
A dental examination method using a deep learning algorithm for displaying the reference guideline and the auxiliary guideline on a display of the user terminal.
제 2 항에 있어서,
상기 치아 영상 획득 단계는,
상기 카메라 렌즈로부터 입력된 상기 상악 치아 영상과 상기 하악 치아 영상 각각으로부터 치아 ROI 박스를 추출하고,
상기 치아 ROI 박스들의 외측 모서리를 연결하여 기준 가이드 라인을 생성하고, 내측 모서리를 연결하여 보조 가리드 라인을 생성하고,
상기 기준 가이드 라인과 상기 보조 가이드 라인을 상기 사용자 단말의 디스플레이에 표시하는 딥러닝 알고리즘을 이용한 치아 검진 방법.
3. The method of claim 2,
The tooth image acquisition step is,
Extracting a tooth ROI box from each of the maxillary tooth image and the mandibular tooth image input from the camera lens,
Connecting the outer corners of the tooth ROI boxes to create a reference guide line, connecting the inner corners to create an auxiliary guard line,
A dental examination method using a deep learning algorithm for displaying the reference guideline and the auxiliary guideline on a display of the user terminal.
제 1 항에 있어서,
상기 치아 질병 예측 단계는 영상 블렌딩을 적용하여 상기 치아의 질병 영상을 제공하는 딥러닝 알고리즘을 이용한 치아 검진 방법.
The method of claim 1,
The dental disease prediction step is a dental examination method using a deep learning algorithm that provides an image of the tooth disease by applying image blending.
KR1020200099628A 2020-08-10 2020-08-10 Teeth examination system using deep learning algorithms KR102428636B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200099628A KR102428636B1 (en) 2020-08-10 2020-08-10 Teeth examination system using deep learning algorithms

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200099628A KR102428636B1 (en) 2020-08-10 2020-08-10 Teeth examination system using deep learning algorithms

Publications (2)

Publication Number Publication Date
KR20220019860A true KR20220019860A (en) 2022-02-18
KR102428636B1 KR102428636B1 (en) 2022-08-04

Family

ID=80495123

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200099628A KR102428636B1 (en) 2020-08-10 2020-08-10 Teeth examination system using deep learning algorithms

Country Status (1)

Country Link
KR (1) KR102428636B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117078631A (en) * 2023-08-21 2023-11-17 四川大学 Tooth and tooth disease identification method based on deep learning algorithm
KR102672173B1 (en) * 2023-04-14 2024-06-07 주식회사 오비젠 Artificial intelligence-based system and method for identifying adjacent surfaces between teeth

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170127950A (en) * 2016-05-13 2017-11-22 연세대학교 산학협력단 Fully automatic dental segmentation system and method for computerized tomography
KR20190105333A (en) 2018-03-05 2019-09-17 재단법인 경북아이티융합 산업기술원 Oral conditon management remote monitoring system using image analysis
US20200146646A1 (en) * 2018-06-27 2020-05-14 Denti.Ai Technology Inc. Systems and methods for processing of dental images

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170127950A (en) * 2016-05-13 2017-11-22 연세대학교 산학협력단 Fully automatic dental segmentation system and method for computerized tomography
KR20190105333A (en) 2018-03-05 2019-09-17 재단법인 경북아이티융합 산업기술원 Oral conditon management remote monitoring system using image analysis
US20200146646A1 (en) * 2018-06-27 2020-05-14 Denti.Ai Technology Inc. Systems and methods for processing of dental images

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102672173B1 (en) * 2023-04-14 2024-06-07 주식회사 오비젠 Artificial intelligence-based system and method for identifying adjacent surfaces between teeth
CN117078631A (en) * 2023-08-21 2023-11-17 四川大学 Tooth and tooth disease identification method based on deep learning algorithm

Also Published As

Publication number Publication date
KR102428636B1 (en) 2022-08-04

Similar Documents

Publication Publication Date Title
US11398013B2 (en) Generative adversarial network for dental image super-resolution, image sharpening, and denoising
US11367188B2 (en) Dental image synthesis using generative adversarial networks with semantic activation blocks
US20210118132A1 (en) Artificial Intelligence System For Orthodontic Measurement, Treatment Planning, And Risk Assessment
US20200364624A1 (en) Privacy Preserving Artificial Intelligence System For Dental Data From Disparate Sources
US11189028B1 (en) AI platform for pixel spacing, distance, and volumetric predictions from dental images
US10405754B2 (en) Standardized oral health assessment and scoring using digital imaging
US20200411167A1 (en) Automated Dental Patient Identification And Duplicate Content Extraction Using Adversarial Learning
US11276151B2 (en) Inpainting dental images with missing anatomy
US11217350B2 (en) Systems and method for artificial-intelligence-based dental image to text generation
US20210357688A1 (en) Artificial Intelligence System For Automated Extraction And Processing Of Dental Claim Forms
US11311247B2 (en) System and methods for restorative dentistry treatment planning using adversarial learning
JP6830082B2 (en) Dental analysis system and dental analysis X-ray system
US20200387829A1 (en) Systems And Methods For Dental Treatment Prediction From Cross- Institutional Time-Series Information
US20210358604A1 (en) Interface For Generating Workflows Operating On Processing Dental Information From Artificial Intelligence
KR102428636B1 (en) Teeth examination system using deep learning algorithms
Park et al. Caries detection with tooth surface segmentation on intraoral photographic images using deep learning
KR102041888B1 (en) Dental care system
Mallick et al. Analysis of Panoramic Images using Deep Learning For Dental Disease Identification
Zhao et al. Recognition and segmentation of teeth and mandibular nerve canals in panoramic dental X-rays by Mask RCNN
Jain et al. Dental image analysis for disease diagnosis
Jaiswal et al. A cropping algorithm for automatically extracting regions of ınterest from panoramic radiographs based on maxilla and mandible parts
Shivpuje et al. A review on digital dental radiographic images for disease identification and classification
Carneiro Enhanced tooth segmentation algorithm for panoramic radiographs
Hussein Artificial intelligence in dentistry: current issues and perspectives
Jain et al. Domain Study and Literature Review

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right