KR102311385B1 - Oral Health Prediction Device and Method Using Dental Caries Detection - Google Patents

Oral Health Prediction Device and Method Using Dental Caries Detection Download PDF

Info

Publication number
KR102311385B1
KR102311385B1 KR1020190127250A KR20190127250A KR102311385B1 KR 102311385 B1 KR102311385 B1 KR 102311385B1 KR 1020190127250 A KR1020190127250 A KR 1020190127250A KR 20190127250 A KR20190127250 A KR 20190127250A KR 102311385 B1 KR102311385 B1 KR 102311385B1
Authority
KR
South Korea
Prior art keywords
oral
oral health
information
dental caries
health prediction
Prior art date
Application number
KR1020190127250A
Other languages
Korean (ko)
Other versions
KR20210044096A (en
Inventor
고태연
장완호
한종구
양희영
신동욱
Original Assignee
주식회사 큐티티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 큐티티 filed Critical 주식회사 큐티티
Priority to KR1020190127250A priority Critical patent/KR102311385B1/en
Priority to PCT/KR2019/013563 priority patent/WO2020080819A1/en
Priority to US17/285,651 priority patent/US20210398275A1/en
Priority to JP2021547020A priority patent/JP2022508923A/en
Publication of KR20210044096A publication Critical patent/KR20210044096A/en
Application granted granted Critical
Publication of KR102311385B1 publication Critical patent/KR102311385B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4542Evaluating the mouth, e.g. the jaw
    • A61B5/4547Evaluating teeth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • G06N3/0427
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Rheumatology (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

사용자가 구강사진을 업-로드하면, 기계학습 알고리즘을 이용한 사진 분석을 통해 교정 유무, 치아우식 상태, 보철물 상태 등을 종합적으로 분석하여 사용자의 구강건강을 정확하게 예측할 수 있도록 한 치아우식 탐지를 이용한 구강건강 예측장치 및 방법에 관한 것으로서, 사용자가 사용자 단말을 이용하여 네트워크를 통해 사용자의 구강 이미지를 제공하고, 구강건강 판정결과를 요청하면, 구강 이미지를 기계학습 알고리즘으로 분석하여 구강건강 상태를 예측하되, 구강사진의 분석을 통해 치아우식 상태, 보철물 상태를 분석하고, 분석한 치아우식 상태정보 및 보철물 상태정보를 기초로 구강건강 상태를 예측하고, 구강건강 상태 예측정보를 사용자에게 제공한다.Oral using dental caries detection, which allows users to accurately predict the user's oral health by comprehensively analyzing the presence or absence of orthodontics, the state of dental caries, and the state of prostheses through photo analysis using a machine learning algorithm when the user uploads an oral photograph. A health prediction device and method, wherein the user provides an oral image of the user through a network using a user terminal and requests an oral health determination result, the oral health condition is predicted by analyzing the oral image with a machine learning algorithm. , analyzes dental caries status and prosthesis status through the analysis of oral photos, predicts oral health status based on the analyzed dental caries status information and prosthesis status information, and provides oral health status prediction information to users.

Description

치아우식 탐지를 이용한 구강건강 예측장치 및 방법{Oral Health Prediction Device and Method Using Dental Caries Detection}Oral Health Prediction Device and Method Using Dental Caries Detection

본 발명은 치아우식(dental caries) 탐지를 이용한 구강건강 예측에 관한 것으로, 더욱 상세하게는 사용자가 구강사진을 업-로드하면, 기계학습 알고리즘을 이용한 사진 분석을 통해 교정 유무, 치아우식 상태, 보철물 상태 등을 종합적으로 분석하여 사용자의 구강건강을 정확하게 예측할 수 있도록 한 치아우식 탐지를 이용한 구강건강 예측장치 및 방법에 관한 것이다.The present invention relates to oral health prediction using dental caries detection, and more particularly, when a user uploads an oral photograph, the presence or absence of correction, dental caries state, and prosthesis through photo analysis using a machine learning algorithm It relates to a device and method for predicting oral health using dental caries detection, which enables accurate prediction of a user's oral health by comprehensively analyzing the condition.

구강 질환은 적절한 예방 치료 및 꾸준한 관리를 통해서 높은 예방 효과를 얻을 수 있지만, 많은 구강 질환 환자들은 구강 건강에 문제가 발생하지 않으면 의사에게 진단을 받거나 치료를 의뢰하지 않는 등 아직까지는 구강 예방에 대해 인식이 부족한 실정이다.Although oral diseases can be highly preventable through proper preventive treatment and continuous management, many patients with oral diseases are still aware of oral prevention, such as not receiving a diagnosis or referral to a doctor unless there is a problem with oral health. This is insufficient.

또한, 환자의 현재 구강 상태를 예측함에 있어 치과 의사나 치위생사의 주관적 견해가 아닌, 정확한 검사 및 진단 결과와 그에 따른 객관적 수치 정보가 필요하지만 구강의 건강 상태를 객관적으로 산출하는 시스템이 부재한 상황이다.In addition, in predicting the patient's current oral condition, accurate examination and diagnosis results and objective numerical information are required, not the subjective opinion of a dentist or dental hygienist, but there is no system for objectively calculating the oral health condition. .

구강의 2대 질환은 충치(치아우식), 치주질환을 의미한다. 특히, 치주염과 치은염을 의미하는 치주질환은 초기에는 동통도 없고 만성적으로 진행하기 때문에 발견이 늦어져, 치주질환을 사전에 예방하는 것은 매우 어려운 상황이다.The two major diseases of the oral cavity are tooth decay (dental caries) and periodontal disease. In particular, periodontal disease, which means periodontitis and gingivitis, is difficult to prevent in advance because there is no pain in the initial stage and is delayed because it progresses chronically.

따라서 이러한 구강 질환의 상태를 사전에 진단하고, 이를 기반으로 구강건강 증진 및 구강질환 예방을 위한 다양한 방법들이 연구 및 제안되고 있으며, 이러한 연구를 토대로 종래에 제안된 기술이 하기의 <특허문헌 1> 내지 <특허문헌 3> 에 개시되어 있다.Therefore, various methods for diagnosing the condition of oral diseases in advance, and based on this, various methods for improving oral health and preventing oral diseases have been studied and proposed. to <Patent Document 3> are disclosed.

<특허문헌 1> 은 사용자 단말기로부터 사용자의 성별, 나이, 치주질환 및 목표 설정 정보 중 적어도 하나에 대한 정보를 포함하는 사용자 조건 정보와 사용자의 가맹 의료기관에서의 치료 정보를 입력받는다. 아울러 구강 관리 용품 가맹점으로부터 구강 관리 용품에 대한 정보를 입력받는다. 이후, 사용자의 조건 정보 및 치료 정보에 대응하는 특정 카테고리에 포함되는 특정 구강 관리 용품의 정보를 사용자 단말기에 제공하여, 사용자 맞춤형 구강 관리 서비스를 제공한다.<Patent Document 1> receives user condition information including information on at least one of a user's gender, age, periodontal disease, and goal setting information from a user terminal and treatment information at a user's affiliated medical institution. In addition, information on oral care products is received from an oral care product store. Thereafter, information on a specific oral care product included in a specific category corresponding to the user's condition information and treatment information is provided to the user terminal to provide a user-customized oral care service.

또한, <특허문헌 2> 는 환자의 구강 상태를 검진하고, 환자의 구강 검진 자료를 포함하는 구강 검진 지수 산정 기준 데이터, 거주 지역 및 연령 정보를 빅데이터화한 후, 이를 분석하여 현재 시점에서 환자의 거주 지역 및 연령에 따라 구강 검진 지수 산정 기준 데이터가 구강 건강에 미치는 영향력을 판단한다. 이어, 구강 검진 지수 산정 기준 데이터에 가중치를 부여하여 구강 검진 지수 산정 기준 데이터를 현행화하여 구강 건강을 관리하도록 한다.In addition, <Patent Document 2> examines the oral condition of the patient, converts the oral examination index calculation standard data including the oral examination data of the patient into big data, and analyzes it to analyze the patient's The influence of the oral examination index calculation standard data on oral health is determined according to the region of residence and age. Then, weight is given to the oral examination index calculation standard data to make the oral examination index calculation standard data current to manage oral health.

또한, <특허문헌 3> 은 사용자의 개인정보, 사용자의 구강 위생 행동 데이터 및 구강 문진 데이터, 사용자가 전문 의료기관을 방문하여 생성된 구강검진 데이터를 수집한다. 이렇게 수집한 각각의 정보들을 통합 분석하여 사용자의 구강질환 위험도를 평가하고, 개인별 맞춤 서비스를 제공한다.In addition, <Patent Document 3> collects the user's personal information, the user's oral hygiene behavior data and oral questionnaire data, and oral examination data generated by the user visiting a specialized medical institution. By integrating and analyzing each information collected in this way, the user's risk of oral disease is evaluated and personalized service is provided.

그러나 상기와 같은 종래의 구강 질환 관리 시스템들은 사용자의 개인 정보나 구강 데이터 및 문진 데이터, 전문 의료기관을 통해 생성된 구강검진 데이터를 분석하여 구강 질환 관리정보를 생성하는 방식으로서, 실시간성이 떨어지고 현재 사용자의 구강 이미지를 분석하는 방식이 아니므로 구강 질환의 분석에 정확성이 결여되는 단점이 있다.However, the conventional oral disease management systems as described above are a method of generating oral disease management information by analyzing the user's personal information, oral data and questionnaire data, and oral examination data generated through a specialized medical institution. Since it is not a method to analyze oral images of

또한, 종래의 기술들은 사용자가 실시간으로 자신의 치주질환 상태를 인지하는 것도 어려운 단점이 있다.In addition, conventional techniques have a disadvantage in that it is difficult for a user to recognize his or her periodontal disease state in real time.

대한민국 공개특허 10-2017-0050467(2017.05.11. 공개)(사용자 맞춤형 구강 관리 서비스 제공방법 및 구강 관리 서비스 제공서버)Republic of Korea Patent Publication 10-2017-0050467 (published on May 11, 2017) (User-customized oral care service providing method and oral care service providing server) 대한민국 등록특허 10-1868979(2018.06.12. 등록)(딥러닝 알고리즘을 이용한 구강 건강관리 시스템 및 방법)Republic of Korea Patent Registration 10-1868979 (registered on June 12, 2018) (Oral health management system and method using deep learning algorithm) 대한민국 등록특허 10-1788030(2017.10.13. 등록)(구강질환 위험도 진단 및 구강관리 시스템과 그 방법)Republic of Korea Patent Registration 10-1788030 (Registered on October 13, 2017) (Oral disease risk diagnosis and oral care system and method)

따라서 본 발명은 상기와 같은 종래기술에서 발생하는 제반 문제점을 해결하기 위해서 제안된 것으로서, 사용자가 구강사진을 업-로드하면, 기계학습 알고리즘을 이용한 사진 분석을 통해 교정 유무, 치아우식 상태, 보철물 상태 등을 종합적으로 분석하여 사용자의 구강건강을 정확하게 예측할 수 있도록 한 치아우식 탐지를 이용한 구강건강 예측장치 및 방법을 제공하는 데 그 목적이 있다.Therefore, the present invention has been proposed to solve the problems occurring in the prior art as described above, and when a user uploads an oral photograph, the presence or absence of correction, dental caries state, and prosthesis state through photo analysis using a machine learning algorithm An object of the present invention is to provide an oral health prediction device and method using dental caries detection that can accurately predict a user's oral health by comprehensively analyzing the

상기한 바와 같은 목적을 달성하기 위하여, 본 발명에 따른 "치아우식 탐지를 이용한 구강건강 예측장치"는, 사용자의 구강 이미지를 제공하고, 구강건강 판정결과를 요청하는 사용자 단말; 상기 사용자 단말로부터 제공되는 구강 이미지를 기계학습 알고리즘으로 분석하여 구강건강 상태를 예측하는 구강건강 예측서버를 포함하고,In order to achieve the above object, "oral health prediction device using dental caries detection" according to the present invention, provides a user's oral image, a user terminal for requesting the oral health determination result; An oral health prediction server for predicting oral health status by analyzing the oral image provided from the user terminal with a machine learning algorithm,

상기 구강건강 예측서버는 구강사진의 분석을 통해 치아우식 상태, 보철물 상태를 분석하고, 분석한 치아우식 상태정보 및 보철물 상태정보를 기초로 구강건강 상태를 예측하는 것을 특징으로 한다.The oral health prediction server analyzes the dental caries state and the prosthesis state through the analysis of the oral photograph, and predicts the oral health state based on the analyzed dental caries state information and the prosthesis state information.

상기에서 구강건강 예측서버는 사용자의 구강 이미지를 CNN(Convolutional Neural Network) 알고리즘으로 학습하여 사진의 분석 가능 여부와 교정 여부 및 발치 여부를 판단하고, 판단한 결과 정보를 개체 탐지(Object Detection)로 분석하여 치아우식 상태 정보 및 보철물 상태정보를 획득하고, 획득한 치아우식 상태정보 및 보철물 상태정보를 ANN(Artificial Neural Network) 알고리즘으로 학습하여 구강건강 상태를 판정하는 구강건강 예측부를 포함하는 것을 특징으로 한다.In the above, the oral health prediction server learns the user's oral image with a CNN (Convolutional Neural Network) algorithm to determine whether the picture can be analyzed, whether to correct it, and whether to extract it, and analyze the determined result information with object detection. It is characterized in that it includes an oral health prediction unit that acquires dental caries state information and prosthesis state information, and determines the oral health state by learning the acquired dental caries state information and prosthesis state information with an Artificial Neural Network (ANN) algorithm.

상기에서 구강건강 예측서버는 상기 구강건강 예측부에서 판정한 구강건강 상태정보를 구강건강 예측정보로 사용자 단말에 전송하는 구강건강정보 제공부를 더 포함하는 것을 특징으로 한다.The oral health prediction server is characterized in that it further comprises an oral health information providing unit for transmitting the oral health state information determined by the oral health prediction unit to the user terminal as oral health prediction information.

상기에서 구강건강 예측부는 사용자 단말로부터 전송된 구강 사진을 구강건강 예측대상으로 등록하는 사진 등록부; 상기 사진 등록부에 등록된 이미지를 CNN(Convolutional Neural Network) 알고리즘으로 학습하여 사진의 분석 가능 여부와 교정 여부 및 발치 여부를 판단하는 교정 유무 판단부; 상기 교정 유무 판단부에서 판단한 결과 정보를 개체 탐지(Object Detection)로 분석하여 치아우식 상태 정보 및 보철물 상태정보를 획득하는 구강질환 및 보철물 탐지부; 상기 교정 유무 판단부에서 획득한 교정 여부 정보 및 발치 여부 정보와 상기 구강질환 및 보철물 탐지부에서 획득한 치아우식 상태정보 및 보철물 상태정보를 ANN(Artificial Neural Network) 알고리즘으로 학습하여 구강건강 상태를 판정하는 구강건강 판정부를 포함하는 것을 특징으로 한다.The oral health prediction unit includes: a photo registration unit for registering an oral photograph transmitted from the user terminal as an oral health prediction target; a correction determination unit that learns the image registered in the photo registration unit with a Convolutional Neural Network (CNN) algorithm to determine whether a photo can be analyzed, whether or not to be corrected, and whether or not to be extracted; an oral disease and prosthesis detection unit for obtaining dental caries status information and prosthesis status information by analyzing the result information determined by the orthodontic presence/absence determination unit through object detection; Oral health status is determined by learning the orthodontic status information and tooth extraction information acquired from the orthodontic presence determination unit, and the dental caries status information and prosthesis status information acquired from the oral disease and prosthesis detection unit using an Artificial Neural Network (ANN) algorithm. It is characterized in that it includes an oral health determination unit.

또한, 본 발명에 따른 치아우식 탐지를 이용한 구강건강 예측방법은, In addition, the oral health prediction method using dental caries detection according to the present invention,

(a) 사용자 단말로부터 제공되는 구강 이미지를 기계학습 알고리즘으로 분석하여 구강건강 상태를 예측하는 구강건강 예측서버에서 상기 사용자 단말로부터 제공되는 구강 이미지를 구강건강 예측대상으로 등록하는 단계; (b) 상기 구강건강 예측서버에서 상기 구강 이미지를 CNN(Convolutional Neural Network) 알고리즘으로 학습하여 구강 사진 유무를 판단하는 단계; (c) 상기 구강건강 예측서버에서 구강 사진일 경우, 구강 이미지를 CNN(Convolutional Neural Network) 알고리즘으로 학습하여 교정 여부 및 발치 여부를 판단하는 단계; (d) 상기 구강건강 예측서버에서 판단한 교정 여부 정보와 발치 여부 정보를 개체 탐지(Object Detection)로 분석하여 치아우식 상태 정보 및 보철물 상태정보를 획득하는 단계; (e) 상기 구강건강 예측서버에서 상기 교정 여부 정보 및 발치 여부 정보와 치아우식 상태정보 및 보철물 상태정보를 ANN(Artificial Neural Network) 알고리즘으로 학습하여 구강건강 상태를 판정하는 단계를 포함하는 것을 특징으로 한다.(a) registering the oral image provided from the user terminal as an oral health prediction target in the oral health prediction server that predicts the oral health state by analyzing the oral image provided from the user terminal with a machine learning algorithm; (b) determining the presence or absence of an oral photograph by learning the oral image in the oral health prediction server with a CNN (Convolutional Neural Network) algorithm; (c) if the oral health prediction server is an oral photograph, learning an oral image using a CNN (Convolutional Neural Network) algorithm to determine whether or not to correct or not; (d) obtaining dental caries status information and prosthesis status information by analyzing the orthodontic information and tooth extraction information determined by the oral health prediction server by object detection; (e) determining the oral health state by learning the orthodontic information, tooth extraction information, dental caries state information, and prosthesis state information from the oral health prediction server with an Artificial Neural Network (ANN) algorithm do.

상기에서 치아우식 상태정보는 치아우식의 존재 유무 정보와 치아우식이 존재할 경우 치아우식 개수정보를 포함하는 것을 특징으로 한다.In the above, the dental caries state information is characterized in that it includes information on the presence or absence of dental caries and the number of dental caries when there is dental caries.

상기에서 보철물 상태정보는 보철물 존재 유무 정보와 보철물이 존재할 경우 보철물 개수정보를 포함하는 것을 특징으로 한다.In the above, the prosthesis state information is characterized in that it includes information on the presence or absence of the prosthesis and information on the number of prostheses when the prosthesis exists.

또한, 본 발명에 따른 치아우식 탐지를 이용한 구강건강 예측방법은, In addition, the oral health prediction method using dental caries detection according to the present invention,

(f) 상기 (e)단계에서 판정을 통해 획득한 구강건강 예측정보를 사용자 단말로 전송하는 단계를 더 포함하는 것을 특징으로 한다.(f) it characterized in that it further comprises the step of transmitting the oral health prediction information obtained through the determination in step (e) to the user terminal.

상기에서 (b)단계 대신에 사용자가 구강 사진 이외의 이미지는 등록하지 말도록 유도하는 안내 문구를 제공하는 단계로 대체할 수 있는 것을 특징으로 한다.In the above (b), instead of step (b), it is characterized in that it can be replaced with a step of providing a guide phrase to induce the user not to register an image other than an oral photograph.

상기에서 (c)단계는 사용자의 문진표 작성을 통해 교정 여부를 선택하도록 유도하여, 교정 여부를 판단하기 위한 CNN(Convolutional Neural Network) 알고리즘의 학습 과정을 생략하는 것을 특징으로 한다.In the step (c), the user is guided to select whether or not to calibrate by creating a questionnaire, thereby omitting the learning process of a Convolutional Neural Network (CNN) algorithm for determining whether to calibrate.

본 발명에 따르면 사용자가 구강사진을 업-로드하면, 기계학습 알고리즘을 이용한 사진 분석을 통해 교정 유무, 치아우식 상태, 보철물 상태 등을 종합적으로 실시간 분석하여 사용자의 구강건강을 정확하게 예측할 수 있는 효과가 있다.According to the present invention, when a user uploads an oral photograph, it is possible to accurately predict the user's oral health by comprehensively real-time analysis of the presence or absence of orthodontics, the state of dental caries, the state of prostheses, etc. through photo analysis using a machine learning algorithm. have.

아울러 예측한 구강건강 상태정보를 사용자에게 제공함으로써, 사용자가 실시간으로 자신의 구강 상태를 인지하고 이를 관리하도록 유도하여 구강건강 악화를 사전에 예방할 수 있도록 도모해주는 장점이 있다.In addition, by providing the predicted oral health status information to the user, there is an advantage in that the user can recognize and manage his or her oral health in real time to prevent deterioration of oral health in advance.

도 1은 본 발명에 따른 치아우식 탐지를 이용한 구강건강 예측장치의 전체 구성도,
도 2는 도 1의 구강건강 예측서버의 실시 예 구성도,
도 3은 본 발명에 따른 치아우식 탐지를 이용한 구강건강 예측방법을 보인 흐름도,
도 4는 본 발명에서 구강 사진을 CNN 알고리즘으로 학습하여 구강사진 유무를 판정하는 예시도,
도 5는 본 발명에서 구강 사진을 CNN 알고리즘으로 학습하여 교정 여부를 판정하는 예시도,
도 6은 본 발명에서 구강 사진을 개체 탐지 알고리즘으로 학습하여 구강질환 및 보철물을 탐지하는 예시도,
도 7은 본 발명에서 교정 여부 정보와 탐지한 구강질환 정보 및 보철물 정보를 DNN 알고리즘으로 학습하여 구강건강 상태를 판정하는 예시도이다.
1 is an overall configuration diagram of an oral health prediction device using dental caries detection according to the present invention;
Figure 2 is a configuration diagram of an embodiment of the oral health prediction server of Figure 1;
3 is a flowchart showing a method for predicting oral health using dental caries detection according to the present invention;
4 is an example of determining the presence or absence of an oral photograph by learning an oral photograph with a CNN algorithm in the present invention;
5 is an example of determining whether or not correction by learning an oral photograph with a CNN algorithm in the present invention;
6 is an exemplary diagram for detecting oral diseases and prostheses by learning an oral photograph with an object detection algorithm in the present invention;
7 is an exemplary diagram for determining the oral health state by learning the correction information, the detected oral disease information, and the prosthesis information using the DNN algorithm in the present invention.

이하 본 발명의 바람직한 실시 예에 따른 치아우식 탐지를 이용한 구강건강 예측장치 및 방법을 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, an apparatus and method for predicting oral health using dental caries detection according to a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

이하에서 설명되는 본 발명에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 안 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.The terms or words used in the present invention described below should not be construed as being limited to conventional or dictionary meanings, and the inventor may appropriately define the concept of terms in order to best describe his invention. It should be interpreted as meaning and concept consistent with the technical idea of the present invention based on the principle that it can be

따라서 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 바람직한 실시 예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원 시점에서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.Therefore, the embodiments described in this specification and the configurations shown in the drawings are only preferred embodiments of the present invention, and do not represent all of the technical spirit of the present invention, so various equivalents and It should be understood that there may be variations.

도 1은 본 발명의 바람직한 실시 예에 따른 치아우식 탐지를 이용한 구강건강 예측장치의 전체 구성도로서, 사용자 단말(100)과 구강건강 예측서버(200)를 포함할 수 있다.1 is an overall configuration diagram of an oral health prediction apparatus using dental caries detection according to a preferred embodiment of the present invention, and may include a user terminal 100 and an oral health prediction server 200 .

사용자 단말(100)과 구강건강 예측서버(200)는 다양한 유무선 네트워크로 연결될 수 있으며, 실시간성을 갖고 통신 인터페이스가 이루어질 수 있다.The user terminal 100 and the oral health prediction server 200 may be connected to various wired and wireless networks, and a communication interface may be formed with real-time properties.

사용자 단말(100)은 구강건강 상태를 확인해보고자 하는 사용자가 사용하는 단말로서, 사용자의 구강 이미지를 제공하고, 구강건강 판정결과를 요청하는 역할을 한다. 여기서 사용자는 사용자 단말(100)을 이용하여 사용자 개인 정보, 문진 데이터와 같은 일반 데이터 등을 제공할 수 있다.The user terminal 100 is a terminal used by a user who wants to check the oral health state, and serves to provide an oral image of the user and to request an oral health determination result. Here, the user may provide user personal information and general data such as questionnaire data using the user terminal 100 .

사용자는 사용자 단말(100)을 통해 구강건강 상태 보고서를 수신하고, 이를 통해 자신의 구강건강 상태를 인지하며, 구강건강 상태가 좋지 않은 것으로 예측되면 치과병원 등을 방문하여 후속 조치를 취하여 구강건강을 관리하는 것이 바람직하다. 이러한 사용자 단말(100)은 스마트폰 및 스마트 패드와 같은 모바일 기기, 인터넷이 가능한 퍼스널컴퓨터 및 노트북 컴퓨터 등으로 구현할 수 있으며, 본 발명에서는 실시 예로 스마트폰으로 구현된 것으로 가정한다.The user receives the oral health state report through the user terminal 100, recognizes his or her oral health state through this, and if it is predicted that the oral health state is not good, visit a dental hospital and take follow-up measures to improve oral health It is desirable to manage The user terminal 100 may be implemented as a mobile device such as a smart phone and a smart pad, a personal computer or a notebook computer capable of the Internet, and the like, and it is assumed that the user terminal 100 is implemented as a smart phone as an embodiment of the present invention.

구강건강 예측서버(200)는 상기 사용자 단말(100)로부터 제공되는 구강 이미지를 기계학습 알고리즘(CNN, DNN, 기타)으로 분석하여 구강건강 상태를 예측하는 역할을 한다. 이러한 구강건강 예측서버(200)는 구강사진의 분석을 통해 치아우식 상태, 보철물 상태를 분석하고, 분석한 치아우식 상태정보 및 보철물 상태정보를 기초로 구강건강 상태를 예측할 수 있다.The oral health prediction server 200 serves to predict the oral health state by analyzing the oral image provided from the user terminal 100 with a machine learning algorithm (CNN, DNN, etc.). The oral health prediction server 200 may analyze the dental caries state and the prosthesis state through the analysis of the oral photograph, and predict the oral health state based on the analyzed dental caries state information and the prosthesis state information.

상기 구강건강 예측서버(200)는 사용자의 구강 이미지를 CNN(Convolutional Neural Network) 알고리즘으로 학습하여 사진의 분석 가능 여부와 교정 여부 및 발치 여부를 판단하고, 판단한 결과 정보를 개체 탐지(Object Detection)로 분석하여 치아우식 상태 정보 및 보철물 상태정보를 획득하고, 획득한 치아우식 상태정보 및 보철물 상태정보를 ANN(Artificial Neural Network) 알고리즘으로 학습하여 구강건강 상태를 판정하는 구강건강 예측부(210), 상기 구강건강 예측부(210)에서 판정한 구강건강 상태정보를 구강건강 예측정보로 사용자 단말(100)에 전송하는 구강건강정보 제공부(220)를 포함할 수 있다.The oral health prediction server 200 learns the user's oral image with a CNN (Convolutional Neural Network) algorithm to determine whether a photo can be analyzed, whether to correct, and whether to extract, and converts the determined result information into object detection. An oral health prediction unit 210 that analyzes to obtain dental caries state information and prosthesis state information, and determines the oral health state by learning the acquired dental caries state information and prosthesis state information with an Artificial Neural Network (ANN) algorithm. It may include an oral health information provider 220 that transmits the oral health state information determined by the oral health prediction unit 210 to the user terminal 100 as oral health prediction information.

또한, 상기 구강건강 예측부(210)는 도 2에 도시한 바와 같이, 사용자 단말(100)로부터 전송된 구강 사진을 구강건강 예측대상으로 등록하는 사진 등록부(211), 상기 사진 등록부(211)에 등록된 이미지를 CNN(Convolutional Neural Network) 알고리즘으로 학습하여 사진의 분석 가능 여부와 교정 여부 및 발치 여부를 판단하는 교정 유무 판단부(212), 상기 교정 유무 판단부(212)에서 판단한 결과 정보를 개체 탐지(Object Detection)로 분석하여 치아우식 상태 정보 및 보철물 상태정보를 획득하는 구강질환 및 보철물 탐지부(213), 상기 교정 유무 판단부(212)에서 획득한 교정 여부 정보 및 발치 여부 정보와 상기 구강질환 및 보철물 탐지부(213)에서 획득한 치아우식 상태정보 및 보철물 상태정보를 ANN(Artificial Neural Network) 알고리즘으로 학습하여 구강건강 상태를 판정하는 구강건강 판정부(214)를 포함할 수 있다.In addition, the oral health prediction unit 210, as shown in FIG. 2, a photo registration unit 211 for registering an oral photograph transmitted from the user terminal 100 as an oral health prediction target, the photograph registration unit 211. By learning the registered image with a CNN (Convolutional Neural Network) algorithm, the correction result determination unit 212 that determines whether the photo can be analyzed, whether or not to correct it, and whether or not to extract the image, and the result information determined by the correction determination unit 212 as an object Oral disease and prosthesis detection unit 213 that obtains dental caries status information and prosthesis status information by analyzing with object detection, orthodontic information and tooth extraction information obtained from the orthodontic presence determination unit 212, and the oral cavity The disease and prosthesis detection unit 213 may include an oral health determination unit 214 that determines the oral health state by learning the dental caries state information and the prosthesis state information obtained by the ANN (Artificial Neural Network) algorithm.

도 3은 본 발명에 따른 치아우식 탐지를 이용한 구강건강 예측방법을 보인 흐름도로서, S는 단계(Step)를 나타낸다.3 is a flowchart showing a method for predicting oral health using dental caries detection according to the present invention, where S represents a step.

본 발명에 따른 치아우식 탐지를 이용한 구강건강 예측방법은, (a) 사용자 단말(100)로부터 제공되는 구강 이미지를 기계학습 알고리즘으로 분석하여 구강건강 상태를 예측하는 구강건강 예측서버(200)에서 상기 사용자 단말(100)로부터 제공되는 구강 이미지를 구강건강 예측대상으로 등록하는 단계(S101), (b) 상기 구강건강 예측서버(200)에서 상기 구강 이미지를 CNN(Convolutional Neural Network) 알고리즘으로 학습하여 구강 사진 유무를 판단하는 단계(S102 - S103), (c) 상기 구강건강 예측서버(200)에서 구강 사진일 경우, 구강 이미지를 CNN(Convolutional Neural Network) 알고리즘으로 학습하여 교정 여부 및 발치 여부를 판단하는 단계(S104 - S105), (d) 상기 구강건강 예측서버(200)에서 판단한 교정 여부 정보와 발치 여부 정보를 개체 탐지(Object Detection)로 분석하여 치아우식 상태 정보 및 보철물 상태정보를 획득하는 단계(S106 - S110), (e) 상기 구강건강 예측서버(200)에서 상기 교정 여부 정보 및 발치 여부 정보와 치아우식 상태정보 및 보철물 상태정보를 ANN(Artificial Neural Network) 알고리즘으로 학습하여 구강건강 상태를 판정하는 단계(S111)를 포함한다.In the oral health prediction method using dental caries detection according to the present invention, (a) the oral health prediction server 200 predicts the oral health state by analyzing the oral image provided from the user terminal 100 with a machine learning algorithm. Registering the oral image provided from the user terminal 100 as an oral health prediction target (S101), (b) learning the oral image from the oral health prediction server 200 with a CNN (Convolutional Neural Network) algorithm Steps (S102 - S103) of determining the presence of a photograph (S102 - S103), (c) In the case of an oral photograph in the oral health prediction server 200, the oral image is learned by a CNN (Convolutional Neural Network) algorithm to determine whether or not to correct or not Steps (S104 - S105), (d) obtaining dental caries status information and prosthesis status information by analyzing the orthodontic information and tooth extraction information determined by the oral health prediction server 200 by object detection ( S106 - S110), (e) the oral health prediction server 200 determines the oral health status by learning the orthodontic information, tooth extraction information, dental caries status information, and prosthesis status information with an ANN (Artificial Neural Network) algorithm. It includes a step (S111) to.

상기 치아우식 상태정보는 치아우식의 존재 유무 정보와 치아우식이 존재할 경우 치아우식 개수정보를 포함할 수 있으며, 상기 보철물 상태정보는 보철물 존재 유무 정보와 보철물이 존재할 경우 보철물 개수정보를 포함할 수 있다.The dental caries status information may include information on the presence or absence of dental caries and information on the number of dental caries when there is dental caries, and the prosthesis status information includes information on the presence or absence of a prosthesis and information on the number of prostheses when there is a prosthesis. .

또한, 본 발명에 따른 치아우식 탐지를 이용한 구강건강 예측방법은, (f) 상기 (e)단계에서 판정을 통해 획득한 구강건강 예측정보를 사용자 단말(100)로 전송하는 단계(S112)를 더 포함할 수 있다.In addition, the oral health prediction method using dental caries detection according to the present invention, (f) transmitting the oral health prediction information obtained through the determination in step (e) to the user terminal 100 (S112) further may include

이와 같이 구성된 본 발명에 따른 치아우식 탐지를 이용한 구강건강 예측장치 및 방법을 구체적으로 설명하면 다음과 같다.The oral health prediction apparatus and method using the dental caries detection according to the present invention configured as described above will be described in detail as follows.

먼저, 사용자는 자신의 구강건강 상태를 확인하고 관리하기 위한 구강건강 예측 애플리케이션을 상기 구강건강 예측서버(200)로부터 다운-로드 받아 사용자 단말(100)에 저장한다.First, the user downloads an oral health prediction application for checking and managing his or her oral health condition from the oral health prediction server 200 and stores it in the user terminal 100 .

이어, 구강건강 상태를 확인하기 위해서, 상기 구강건강 애플리케이션을 실행하고, 구강 사진, 개인 정보 등을 제공하면서 구강건강 진단을 요청한다. 여기서 필요에 따라 구강건강 진단을 위한 문진 데이터를 작성하여 제공할 수 있다. 문진 데이터는 문진표로서, 체크 형식으로 이루어질 수 있다. 문진표에는 교정 여부를 확인하기 위한 항목을 포함할 수 있다.Next, in order to check the oral health state, the oral health application is executed, and oral health diagnosis is requested while providing an oral photograph, personal information, and the like. Here, if necessary, questionnaire data for oral health diagnosis may be prepared and provided. The questionnaire data is a questionnaire, and may be made in a check format. The questionnaire may include items for checking whether or not corrections are made.

구강 사진은 구강 전체를 촬영한 사진이 바람직하며, 구강의 일부만을 촬영한 사진을 이용할 수도 있다.A photograph of the oral cavity is preferably a photograph of the entire oral cavity, and a photograph of only a part of the oral cavity may be used.

상기 구강건강 예측서버(200)는 네트워크를 통해 접속한 사용자 단말(100)을 통해 구강 사진과 개인 정보 및/또는 문진 데이터가 수신되면, 구강건강 예측부(210)에서 구강 사진(이미지)을 CNN(Convolutional Neural Network) 알고리즘으로 학습하여 사진의 분석 가능 여부와 교정 여부 및 발치 여부를 판단하고, 판단한 결과 정보를 개체 탐지(Object Detection)로 분석하여 치아우식 상태 정보 및 보철물 상태정보를 획득하고, 획득한 치아우식 상태정보 및 보철물 상태정보를 ANN(Artificial Neural Network) 알고리즘으로 학습하여 구강건강 상태를 판정한다.When the oral health prediction server 200 receives an oral photograph and personal information and/or questionnaire data through the user terminal 100 accessed through the network, the oral health prediction unit 210 CNNs the oral photograph (image). (Convolutional Neural Network) learns with algorithm to determine whether a photo can be analyzed, whether correction is made, and whether or not tooth extraction is performed Oral health status is determined by learning dental caries status information and prosthesis status information with an Artificial Neural Network (ANN) algorithm.

예컨대, 구강건강 예측부(210)의 사진 등록부(211)는 사용자가 전송한 구강사진을 구강건강 예측대상 이미지로 내부 데이터베이스에 등록한다. 여기서 구강이미지는, 개인이 직접 촬영하기에 촬영 환경이 각각 달라 실제 촬영 이미지 색상의 기준이 없다. 따라서 기준점을 잡아서 모든 사진들이 기준점과 동일하도록 색상 보정을 자동으로 진행한 후 저장할 수 있다(S101).For example, the photo registration unit 211 of the oral health prediction unit 210 registers the oral photograph transmitted by the user as an oral health prediction target image in the internal database. Here, since the oral image is taken by an individual, the shooting environment is different, so there is no standard for the color of the actual shot image. Therefore, it is possible to take a reference point, automatically perform color correction so that all photos are identical to the reference point, and then store it (S101).

다음으로, 교정 유무 판정부(212)는 상기 구강 이미지를 CNN(Convolutional Neural Network) 알고리즘으로 학습하여 구강 사진 유무를 판단한다(S102). 여기서 판단 결과, 구강 사진 유무가 아닐 경우, 사용자 단말(100)로 구강 사진이 아니므로 구강 사진을 등록하는 안내 문자를 전송한다(S103).Next, the orthodontic presence determination unit 212 determines the presence or absence of an oral photograph by learning the oral image with a CNN (Convolutional Neural Network) algorithm (S102). Here, as a result of the determination, if there is no oral photograph, a guide text for registering an oral photograph is transmitted to the user terminal 100 because it is not an oral photograph (S103).

상기 구강 이미지를 CNN 알고리즘으로 학습하여 구강 사진 유무를 판단하는 과정이 도 4에 도시되어 있다. 이를 위해 사전에 촬영되어 등록 요청된 사진이 구강 사진인지 판정하는 CNN 모델이 구축된 것으로 가정한다. 사전 훈련된 CNN 모델은 VGG16(https://neurohive.io/en/popular-networks/vgg16/), ResNet50 등과 같이 이미 알려진 CNN 모델에 구강 사진 범주를 추가하여 사용하는 것이 바람직하다. 학습 데이터로는 구강 사진 데이터, 추가할 범주의 사진 데이터일 수 있다. The process of determining the presence or absence of an oral photograph by learning the oral image with a CNN algorithm is shown in FIG. For this purpose, it is assumed that a CNN model that determines whether a photo taken in advance and requested to be registered is an oral photo is built. It is preferable to use the pre-trained CNN model by adding the oral picture category to the already known CNN models such as VGG16 (https://neurohive.io/en/popular-networks/vgg16/) and ResNet50. The training data may be oral photo data or photo data of a category to be added.

이러한 구강 사진 데이터를 이용하여 CNN 모델로 학습을 하여 구강 사진 유무를 판단할 수 있으나, 이 경우 추가되는 학습 데이터의 양에 따라 학습시간이 많이 소요되는 단점을 유발할 수 있다.The presence or absence of an oral photograph can be determined by learning with a CNN model using this oral photograph data, but in this case, it may cause a disadvantage in that it takes a lot of learning time depending on the amount of added learning data.

따라서 구강 사진 유무를 판정하는 다른 방법으로서, CNN 알고리즘을 이용하는 대신에 상기 구강건강 예측 애플리케이션을 이용하여 사용자가 구강 사진 이외의 이미지는 등록하지 말도록 유도하여, 구강 사진 유무를 판단하는 과정을 생략할 수 있다. 여기서 구강 사진 이외의 이미지는 등록하지 말도록 유도하는 방법으로서, 안내 문구를 이용할 수 있다.Therefore, as another method of determining the presence or absence of an oral photograph, the oral health prediction application is used instead of using the CNN algorithm to induce the user not to register an image other than an oral photograph, thereby omitting the process of determining the presence or absence of an oral photograph. can Here, as a method of inducing not to register an image other than an oral photograph, a guide phrase may be used.

상기 단계 S102의 확인 결과, 구강 이미지로 판정이 되면, 다음으로 교정 유무 판정부(212)에서 구강 이미지를 도 5에 도시한 CNN(Convolutional Neural Network) 알고리즘으로 학습하여 교정 여부를 판단한다(S104 - S105). 여기서 도 5는 입력된 구강 이미지로부터 교정 여부를 판정하는 CNN 모델의 예시이다. 이러한 CNN 모델은 AutoKeras를 이용하여 CNN 모델을 구축할 수 있다. 사전 훈련된 VGG16, ResNet50 등을 이용한 전이학습(transfer learning 가능)을 이용할 수도 있다. 필요 데이터는 교정기 착용/미착용 구강 사진 데이터이며, CNN 모델에 구강 사진 범주 2가지(교정기 착용/미착용)를 추가함으로써, 간단하게 교정 여부를 판단할 수 있다. As a result of the confirmation of step S102, if it is determined as an oral image, then the correction is determined by learning the oral image in the presence or absence determination unit 212 with the CNN (Convolutional Neural Network) algorithm shown in FIG. 5 to determine whether correction (S104 - S105). Here, Figure 5 is an example of a CNN model that determines whether or not correction from the input oral image. These CNN models can be built using AutoKeras. Transfer learning using pre-trained VGG16, ResNet50, etc. can also be used. Required data is oral photo data with/without braces, and by adding two categories of oral photos (with/without braces) to the CNN model, it is possible to simply determine whether or not correction is made.

이러한 CNN 모델을 이용하여 교정 여부를 판정할 수 있으나, 이 또한 충분한 학습 시간 및 데이터가 필요하고, 학습 데이터의 증가는 결과적으로 계산량 증가를 유발한다. 따라서 사용자의 문진표 작성을 통해 교정 여부를 선택하도록 유도하여, 교정 여부를 판단하기 위한 CNN(Convolutional Neural Network) 알고리즘의 학습 과정을 생략할 수도 있다.Correction can be determined using this CNN model, but this also requires sufficient learning time and data, and an increase in the training data results in an increase in the amount of computation. Therefore, it is possible to omit the learning process of a CNN (Convolutional Neural Network) algorithm for determining whether or not to calibrate by inducing the user to select whether or not to calibrate by creating a questionnaire.

문진표 작성을 통해 문진 정보가 제공된 경우, 문진 정보를 FFNN(Feed Forward Neural Network) 알고리즘으로 분류한다. 여기서 FFNN 알고리즘은 설문 응답(사용자 정보)이 입력이고, 진단 결과가 출력이 되는 기계학습 알고리즘이다. Tensorflow, Keras 등의 Python 기반 라이브러리를 사용하여 입출력 구조에 적합한 FFNN를 설계하여 사용하는 것이 바람직하다. 활성화 함수, 손실 함수, 최적화 방법, 병렬 컴퓨팅 구조, 과적합 문제 등에 대해서는 최근 연구 및 분석된 FFNN 알고리즘을 이용할 수 있다. 입력 데이터(설문 응답)를 전처리하고, 전처리 데이터를 학습 데이터와 검증 데이터로 분할한다. 이어, 학습 데이터는 신경 회로망 학습을 통해 학습이 이루어지고, 검증 데이터와 학습 결과 데이터를 검증 및 보완 절차를 통해 새롭게 설계된 신경 회로망으로 학습 된다. 그리고 검증 및 보완이 완료되면 최종 모델이 설문 진단 결과로 출력된다.When the questionnaire information is provided through the preparation of the questionnaire, the questionnaire information is classified by the FFNN (Feed Forward Neural Network) algorithm. Here, the FFNN algorithm is a machine learning algorithm in which a questionnaire response (user information) is an input and a diagnosis result is an output. It is desirable to design and use an FFNN suitable for the input/output structure using a Python-based library such as Tensorflow or Keras. For activation function, loss function, optimization method, parallel computing structure, overfitting problem, etc., FFNN algorithms that have been recently studied and analyzed can be used. The input data (survey response) is preprocessed, and the preprocessed data is divided into training data and verification data. Then, learning data is learned through neural network learning, and the validation data and learning result data are verified and supplemented through a newly designed neural network. And when verification and supplementation are completed, the final model is output as a questionnaire diagnosis result.

여기서 구축된 CNN 모델을 이용하여 교정 여부를 판정하는 것도 가능하나, 부가적으로 동일한 CNN 모델을 이용하여 발치 여부로 판정할 수 있다. CNN 모델에 발치 구강 사진 범주를 추가하면, 간단하게 발치 여부로 판정할 수 있다.It is also possible to determine whether or not correction is made using the CNN model constructed here, but it can be additionally determined whether tooth extraction is performed using the same CNN model. By adding the category of extracted oral photos to the CNN model, it is possible to simply determine whether or not the tooth has been extracted.

다음으로, 구강질환 및 보철물 탐지부(213)는 상기 판단한 교정 여부 정보와 발치 여부 정보를 개체 탐지(Object Detection)로 분석하여 치아우식 상태 정보 및 보철물 상태정보를 획득한다(S106 - S110). 이를 위해 도 6과 같은 입력된 구간 사진(이미지)으로부터 구강질환(치아우식) 및 보철물 탐지를 판정하는 개체 탐지(Object Detection) 알고리즘을 구축한다. 구강질환 및 보철물 탐지를 판정하는 개체 탐지 알고리즘은 기개발된 Faster R-CNN, SSD, YOLO(W.Liu et al., 2015, arXiv(http://arxiv.org/abs/1512.02325)) 등을 이용할 수 있다. 상기 개체 탐지 알고리즘으로 치아우식 상태정보 및 보철물 상태 정보를 획득하기 위한 필요 데이터로는 구강질환 및 보철물이 표시된 사진 데이터를 이용할 수 있다. 교정기 착용 여부를 구분하여 학습함으로써 정확도를 향상시킬 수 있다. 하나의 알고리즘으로 치아우식과 보철물을 모두 탐지할 수 있는 장점이 있다. 여기서 치아우식 상태정보는 치아우식의 존재 유무 정보와 치아우식이 존재할 경우 치아우식 개수정보를 포함할 수 있으며, 상기 보철물 상태정보는 보철물 존재 유무 정보와 보철물이 존재할 경우 보철물 개수정보를 포함할 수 있다. 치아우식 이미지 학습은 사용자가 제공한 구강 사진이 전체 구강 부위의 어느 부위인지를 확인하고, 구강 부위 이미지의 위치를 확인한 후 이미지 학습을 수행하고, 이를 통해 치아우식 존재 유무와 치아우식 개수를 추출한다. 동일한 방법으로, 보철물 존재 유무와 보철물 개수도 추출한다.Next, the oral disease and prosthesis detection unit 213 obtains the dental caries status information and the prosthesis status information by analyzing the determined orthodontic information and the tooth extraction information by object detection (S106 - S110). To this end, an object detection algorithm for determining oral disease (dental caries) and prosthesis detection from the input section photo (image) as shown in FIG. 6 is constructed. The object detection algorithm that determines the detection of oral diseases and prostheses uses the previously developed Faster R-CNN, SSD, and YOLO (W.Liu et al., 2015, arXiv (http://arxiv.org/abs/1512.02325)). Available. As data required for obtaining dental caries status information and prosthesis status information with the object detection algorithm, photo data showing oral diseases and prostheses may be used. Accuracy can be improved by classifying whether or not to wear braces and learning. It has the advantage of being able to detect both dental caries and prostheses with one algorithm. Here, the dental caries status information may include information on the presence or absence of dental caries and information on the number of dental caries when there is dental caries, and the prosthesis status information includes information on the presence or absence of a prosthesis and information on the number of prostheses when there is a prosthesis. . Dental caries image learning checks which part of the entire oral region the oral photo provided by the user is, and performs image learning after confirming the position of the oral region image, and through this, the presence or absence of dental caries and the number of dental caries are extracted. . In the same way, the presence or absence of the prosthesis and the number of prostheses are also extracted.

이어, 구강건강 판정부(214)는 상기 교정 여부 정보 및 발치 여부 정보와 치아우식 상태정보 및 보철물 상태정보를 도 7과 같은 ANN(Artificial Neural Network) 알고리즘(2019년 NIMS 산업수학 문제해결 워크숍 제안 모델)으로 학습하여 구강건강 상태를 판정한다. 여기서 기계학습 알고리즘인 ANN 알고리즘은 상기 교정 여부 정보와 발치 여부 정보와 치아우식 상태정보 및 보철물 상태정보를 입력(input)으로 하여, 구강 건강 상태(구강건강도)를 판정한다. 이를 위해 전문의 또는 전공의로부터 획득한 신뢰할 수 있는 사진 데이터에 해당하는 환자의 구강건강도 판정 자료를 이용할 수 있다. 상기 구강 건강 상태 판정이 완료되면 구강건강 예측정보를 생성하여 내부 데이터베이스에 저장한다.Next, the oral health determination unit 214 uses the ANN (Artificial Neural Network) algorithm (2019 NIMS Industrial Mathematics Problem Solving Workshop Proposal Model) as shown in FIG. ) to determine the state of oral health. Here, the ANN algorithm, which is a machine learning algorithm, determines an oral health state (oral health) by inputting the orthodontic information, tooth extraction information, dental caries state information, and prosthesis state information as inputs. For this purpose, the patient's oral health evaluation data corresponding to reliable photographic data obtained from a specialist or a specialist may be used. When the oral health state determination is completed, oral health prediction information is generated and stored in an internal database.

다음으로, 구강건강정보 제공부(220)는 상기 판정을 통해 획득한 구강건강 예측정보를 사용자 단말(100)로 전송한다. 여기서 구강건강 예측정보는 보고서 형태일 수 있다. 이를 위해 구강건강정보 제공부(220)는 사용자 단말(100)과 데이터를 송수신할 수 있는 통신 모듈을 구비할 수 있다.Next, the oral health information providing unit 220 transmits the oral health prediction information obtained through the determination to the user terminal 100 . Here, the oral health prediction information may be in the form of a report. To this end, the oral health information providing unit 220 may include a communication module capable of transmitting and receiving data to and from the user terminal 100 .

여기서 구강건강 예측정보는 평상시 구강 관리를 위한 전문 모니터링 서비스가 함께 이루어진다. 구강건강 예측정보는 원격 혹은 디지털로 행해지는 의료행위가 아닌 예방을 목적으로 하는 보고서이다. 즉, 단순히 사용자의 구강건강 상태만을 보고서 형식으로 제공해주는 것이다. 사용자는 제공되는 구강건강 보고서를 보고, 병원 방문이 필요하다고 판단이 되면, 병원을 방문하여 신속하게 구강 문제를 치료하여 구강건강을 관리하는 것이 바람직하다.Here, the oral health prediction information is provided with a professional monitoring service for everyday oral care. Oral health prediction information is a report for the purpose of prevention, not medical treatment performed remotely or digitally. That is, it simply provides only the user's oral health status in the form of a report. When the user sees the oral health report provided and determines that a visit to the hospital is necessary, it is preferable to visit the hospital and quickly treat oral problems to manage oral health.

이러한 본 발명에 따르면 사용자가 자신의 구강을 촬영하여 업-로드하고, 문진표를 작성하여 전송하면, 기계학습 알고리즘을 이용하여 구강질환 및 보철물을 탐지하고, 이를 이용하여 구강건강 상태를 예측하여 구강건강 보고서를 실시간으로 사용자에게 제공함으로써, 사용자가 자신의 구강건강을 용이하게 관리하고, 구강건강 악화를 사전에 예방할 수 있게 되는 것이다.According to the present invention, when a user takes a picture of his/her oral cavity, uploads it, creates and transmits a questionnaire, uses a machine learning algorithm to detect oral diseases and prostheses, and uses this to predict oral health status to improve oral health By providing the report to the user in real time, the user can easily manage their oral health and prevent deterioration of their oral health in advance.

이상 본 발명자에 의해서 이루어진 발명을 상기 실시 예에 따라 구체적으로 설명하였지만, 본 발명은 상기 실시 예에 한정되는 것은 아니고 그 요지를 이탈하지 않는 범위에서 여러 가지로 변경 가능한 것은 이 기술분야에서 통상의 지식을 가진 자에게 자명하다.Although the invention made by the present inventor has been described in detail according to the above embodiment, the present invention is not limited to the above embodiment, and it is common knowledge in the art that various changes can be made without departing from the gist of the present invention. self-evident to those who have

100: 사용자 단말
200: 구강건강 예측서버
210: 구강건강 예측부
211: 사진 등록부
212: 교정 유무 판정부
213: 구강질환 및 보철물 탐지부
214: 구강건강 판정부
220: 구강건강정보 제공부
100: user terminal
200: oral health prediction server
210: oral health prediction unit
211: photo register
212: calibration presence determination unit
213: oral disease and prosthesis detection unit
214: oral health judgment unit
220: oral health information provider

Claims (9)

구강사진을 기계학습 알고리즘으로 분석하여 구강건강을 예측하는 장치로서,
사용자가 직접 촬영한 구강 이미지를 제공하고, 구강건강 판정결과를 요청하는 사용자 단말; 및
상기 사용자 단말로부터 제공되는 구강 이미지를 기계학습 알고리즘으로 분석하여 구강건강 상태를 예측하는 구강건강 예측서버를 포함하고,
상기 구강건강 예측서버는 구강사진의 분석을 통해 치아우식 상태, 보철물 상태를 분석하고, 분석한 치아우식 상태정보 및 보철물 상태정보를 기초로 구강건강 상태를 예측하며,
상기 구강건강 예측서버는 상기 사용자 단말로부터 제공된 구강 이미지에 대하여 기준점을 잡아서 기준점과 동일하도록 색상 보정을 자동으로 진행한 후 저장하며, 상기 사용자 단말에서 문진표 작성을 통해 문진 정보가 제공되면, 제공된 문진 정보를 FFNN(Feed Forward Neural Network) 알고리즘으로 분류하여 교정 여부를 판정하며,
상기 구강건강 예측서버는 구강건강 상태 예측 결과인 구강건강 예측정보를 예방을 목적으로 하는 보고서 형식으로 상기 사용자 단말에 제공해주되, 상기 구강건강 예측정보에는 평상시 구강 관리를 위한 전문 모니터링 서비스 정보를 포함하여 사용자 단말에 제공해주는 것을 특징으로 하는 치아우식 탐지를 이용한 구강건강 예측장치.
As a device for predicting oral health by analyzing oral photos with a machine learning algorithm,
A user terminal that provides an oral image taken by the user and requests an oral health determination result; and
An oral health prediction server for predicting oral health status by analyzing the oral image provided from the user terminal with a machine learning algorithm,
The oral health prediction server analyzes the dental caries state and prosthesis state through the analysis of the oral photograph, and predicts the oral health state based on the analyzed dental caries state information and prosthesis state information,
The oral health prediction server captures a reference point for the oral image provided from the user terminal, automatically performs color correction to be the same as the reference point, and then stores it. is classified as an FFNN (Feed Forward Neural Network) algorithm to determine whether to correct it,
The oral health prediction server provides oral health prediction information, which is the result of oral health state prediction, to the user terminal in the form of a report for the purpose of prevention, the oral health prediction information includes professional monitoring service information for everyday oral care. Oral health prediction device using dental caries detection, characterized in that provided to the user terminal.
청구항 1에서, 상기 구강건강 예측서버는 사용자의 구강 이미지를 CNN(Convolutional Neural Network) 알고리즘으로 학습하여 사진의 분석 가능 여부와 교정 여부 및 발치 여부를 판단하고, 판단한 결과 정보를 개체 탐지(Object Detection)로 분석하여 치아우식 상태 정보 및 보철물 상태정보를 획득하고, 획득한 치아우식 상태정보 및 보철물 상태정보를 ANN(Artificial Neural Network) 알고리즘으로 학습하여 구강건강 상태를 판정하는 구강건강 예측부를 포함하는 것을 특징으로 하는 치아우식 탐지를 이용한 구강건강 예측장치.
The method according to claim 1, The oral health prediction server learns the user's oral image with a CNN (Convolutional Neural Network) algorithm to determine whether the picture can be analyzed, whether to correct it, and whether or not to extract, and use the determined result information to detect an object (Object Detection). to obtain dental caries state information and prosthesis state information by analyzing it with an oral health Oral health prediction device using dental caries detection.
청구항 2에서, 상기 구강건강 예측서버는 상기 구강건강 예측부에서 판정한 구강건강 상태정보를 구강건강 예측정보로 사용자 단말에 전송하는 구강건강정보 제공부를 더 포함하는 것을 특징으로 하는 치아우식 탐지를 이용한 구강건강 예측장치.
The method according to claim 2, The oral health prediction server using dental caries detection, characterized in that it further comprises an oral health information providing unit for transmitting the oral health state information determined by the oral health prediction unit to the user terminal as oral health prediction information Oral health prediction device.
청구항 2에서, 상기 구강건강 예측부는 등록된 구강 이미지를 CNN(Convolutional Neural Network) 알고리즘으로 학습하여 사진의 분석 가능 여부와 교정 여부 및 발치 여부를 판단하는 교정 유무 판단부; 상기 교정 유무 판단부에서 판단한 결과 정보를 개체 탐지(Object Detection)로 분석하여 치아우식 상태 정보 및 보철물 상태정보를 획득하는 구강질환 및 보철물 탐지부; 상기 교정 유무 판단부에서 획득한 교정 여부 정보 및 발치 여부 정보와 상기 구강질환 및 보철물 탐지부에서 획득한 치아우식 상태정보 및 보철물 상태정보를 ANN(Artificial Neural Network) 알고리즘으로 학습하여 구강건강 상태를 판정하는 구강건강 판정부를 포함하는 것을 특징으로 하는 치아우식 탐지를 이용한 구강건강 예측장치.
The method according to claim 2, wherein the oral health prediction unit orthodontic presence determination unit for learning the registered oral image with a CNN (Convolutional Neural Network) algorithm to determine whether the picture can be analyzed and whether or not correction and tooth extraction; an oral disease and prosthesis detection unit for obtaining dental caries status information and prosthesis status information by analyzing the result information determined by the orthodontic presence/absence determination unit through object detection; Oral health status is determined by learning the orthodontic status information and tooth extraction information acquired from the orthodontic presence determination unit, and the dental caries status information and prosthesis status information acquired from the oral disease and prosthesis detection unit using an Artificial Neural Network (ANN) algorithm. Oral health prediction device using dental caries detection, characterized in that it comprises an oral health determination unit.
청구항 1 내지 청구항 4중 어느 하나의 청구항에 기재된 치아우식 탐지를 이용한 구강건강 예측장치를 이용하여 구강사진을 기계학습 알고리즘으로 분석하여 구강건강을 예측하는 방법으로서,
(a) 사용자 단말로부터 제공되는 구강 이미지를 기계학습 알고리즘으로 분석하여 구강건강 상태를 예측하는 구강건강 예측서버에서 상기 사용자 단말로부터 제공되는 구강 이미지를 구강건강 예측대상으로 등록하는 단계;
(b) 상기 구강건강 예측서버에서 상기 구강 이미지를 CNN(Convolutional Neural Network) 알고리즘으로 학습하여 구강 사진 유무를 판단하는 단계;
(c) 상기 구강건강 예측서버에서 구강 사진일 경우, 구강 이미지를 CNN(Convolutional Neural Network) 알고리즘으로 학습하여 교정 여부 및 발치 여부를 판단하는 단계;
(d) 상기 구강건강 예측서버에서 판단한 교정 여부 정보와 발치 여부 정보를 개체 탐지(Object Detection)로 분석하여 치아우식 상태 정보 및 보철물 상태정보를 획득하는 단계; 및
(e) 상기 구강건강 예측서버에서 상기 교정 여부 정보 및 발치 여부 정보와 치아우식 상태정보 및 보철물 상태정보를 ANN(Artificial Neural Network) 알고리즘으로 학습하여 구강건강 상태를 판정하는 단계를 포함하며,
상기 (a)단계는 상기 사용자 단말로부터 제공된 구강 이미지에 대하여 기준점을 잡아서 기준점과 동일하도록 색상 보정을 자동으로 진행한 후 저장하며,
상기 (c)단계는 상기 사용자 단말에서 문진표 작성을 통해 문진 정보가 제공되면, 상기 CNN을 이용한 교정 여부를 판별하는 과정을 생략하고 제공된 문진 정보를 FFNN(Feed Forward Neural Network) 알고리즘으로 분류하여 교정 여부를 판정하며,
상기 (e)단계는 구강건강 상태를 판정한 결과인 구강건강 예측정보를 예방을 목적으로 하는 보고서 형식으로 상기 사용자 단말에 제공해주되, 상기 구강건강 예측정보에는 평상시 구강 관리를 위한 전문 모니터링 서비스 정보를 포함하여 사용자 단말에 제공해주는 것을 특징으로 하는 치아우식 탐지를 이용한 구강건강 예측방법.
A method of predicting oral health by analyzing an oral photograph with a machine learning algorithm using the oral health prediction device using the dental caries detection according to any one of claims 1 to 4,
(a) registering the oral image provided from the user terminal as an oral health prediction target in the oral health prediction server that predicts the oral health state by analyzing the oral image provided from the user terminal with a machine learning algorithm;
(b) learning the oral image in the oral health prediction server with a CNN (Convolutional Neural Network) algorithm to determine whether an oral photograph is present;
(c) if the oral health prediction server is an oral photograph, learning an oral image with a CNN (Convolutional Neural Network) algorithm to determine whether or not to correct or not;
(d) obtaining dental caries status information and prosthesis status information by analyzing the orthodontic information and tooth extraction information determined by the oral health prediction server by object detection; and
(e) determining the oral health status by learning the orthodontic information and tooth extraction information, dental caries status information, and prosthesis status information in the oral health prediction server with an Artificial Neural Network (ANN) algorithm,
The step (a) is stored after automatically performing color correction to be the same as the reference point by capturing the reference point for the oral image provided from the user terminal,
In the step (c), when the questionnaire information is provided through the creation of a questionnaire in the user terminal, the process of determining whether or not correction is performed using the CNN is omitted and the provided questionnaire information is classified into an FFNN (Feed Forward Neural Network) algorithm to determine whether or not the questionnaire is corrected. to judge,
In step (e), the oral health prediction information, which is the result of determining the oral health condition, is provided to the user terminal in the form of a report for the purpose of prevention, and the oral health prediction information includes professional monitoring service information for everyday oral care. Oral health prediction method using dental caries detection, characterized in that provided to the user terminal, including.
청구항 5에서, 상기 치아우식 상태정보는 치아우식의 존재 유무 정보와 치아우식이 존재할 경우 치아우식 개수정보를 포함하는 것을 특징으로 하는 치아우식 탐지를 이용한 구강건강 예측방법.
The method for predicting oral health using dental caries detection according to claim 5, wherein the dental caries status information includes information on the presence or absence of dental caries and information on the number of dental caries if there is dental caries.
청구항 5에서, 상기 보철물 상태정보는 보철물 존재 유무 정보와 보철물이 존재할 경우 보철물 개수정보를 포함하는 것을 특징으로 하는 치아우식 탐지를 이용한 구강건강 예측방법.
The method for predicting oral health using dental caries detection as set forth in claim 5 , wherein the prosthetic state information includes information on the presence or absence of the prosthesis and information on the number of prostheses if the prosthesis exists.
청구항 5에서, (f) 상기 (e)단계에서 판정을 통해 획득한 구강건강 예측정보를 사용자 단말로 전송하는 단계를 더 포함하는 것을 특징으로 하는 치아우식 탐지를 이용한 구강건강 예측방법.
The method for predicting oral health using dental caries detection according to claim 5, (f) further comprising the step of transmitting the oral health prediction information obtained through the determination in step (e) to the user terminal.
청구항 5에서, 상기 (b)단계 대신에 사용자가 구강 사진 이외의 이미지는 등록하지 말도록 유도하는 안내 정보를 구강건강 예측 애플리케이션을 통해 제공하는 단계로 대체하여 구강 사진 여부를 판단하기 위한 CNN(Convolutional Neural Network) 알고리즘의 학습 과정을 생략하는 것을 특징으로 하는 치아우식 탐지를 이용한 구강건강 예측방법.

In claim 5, instead of step (b), CNN (Convolutional Convolutional An oral health prediction method using dental caries detection, characterized in that the learning process of the Neural Network) algorithm is omitted.

KR1020190127250A 2018-10-16 2019-10-14 Oral Health Prediction Device and Method Using Dental Caries Detection KR102311385B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020190127250A KR102311385B1 (en) 2019-10-14 2019-10-14 Oral Health Prediction Device and Method Using Dental Caries Detection
PCT/KR2019/013563 WO2020080819A1 (en) 2018-10-16 2019-10-16 Oral health prediction apparatus and method using machine learning algorithm
US17/285,651 US20210398275A1 (en) 2018-10-16 2019-10-16 Oral health prediction apparatus and method using machine learning algorithm
JP2021547020A JP2022508923A (en) 2018-10-16 2019-10-16 Oral health prediction device and method using machine learning algorithms

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190127250A KR102311385B1 (en) 2019-10-14 2019-10-14 Oral Health Prediction Device and Method Using Dental Caries Detection

Publications (2)

Publication Number Publication Date
KR20210044096A KR20210044096A (en) 2021-04-22
KR102311385B1 true KR102311385B1 (en) 2021-10-13

Family

ID=75731283

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190127250A KR102311385B1 (en) 2018-10-16 2019-10-14 Oral Health Prediction Device and Method Using Dental Caries Detection

Country Status (1)

Country Link
KR (1) KR102311385B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230116451A (en) 2022-01-28 2023-08-04 금오공과대학교 산학협력단 Kit for early diagnosis of dental caries using optical sensor

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102368681B1 (en) * 2021-08-13 2022-02-28 백인규 Device and system for monitoring oral health based on artificial neural network
KR102496567B1 (en) 2021-10-05 2023-02-06 주식회사 인비전랩 Apparatus and Method for Providing Oral Health Analysis Services
KR102496565B1 (en) 2022-01-12 2023-02-06 주식회사 인비전랩 Method and device for providing oral health analysis service based on remote reading of oral images including cone beam ct
KR102626265B1 (en) 2023-11-09 2024-01-18 (주)서울티이엔티 Ring device for maintenance of air dome structure

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200480257Y1 (en) * 2014-10-07 2016-05-04 김경수 Camera apparatus for confirming teeth image based on smartphone
KR101788030B1 (en) * 2016-06-15 2017-11-15 주식회사 카이아이컴퍼니 System and method for risk diagnosis on oral disease and oral care
KR101839789B1 (en) * 2017-08-01 2018-03-19 주식회사 뷰노 System for generating interpretation data of dental image

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101836187B1 (en) 2015-10-30 2018-03-08 동의대학교 산학협력단 Method and server for providing user-costomized oral care service and
KR101868979B1 (en) 2016-05-31 2018-07-23 (주)이너웨이브 A system and method for managing of oral care using deep learning

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200480257Y1 (en) * 2014-10-07 2016-05-04 김경수 Camera apparatus for confirming teeth image based on smartphone
KR101788030B1 (en) * 2016-06-15 2017-11-15 주식회사 카이아이컴퍼니 System and method for risk diagnosis on oral disease and oral care
KR101839789B1 (en) * 2017-08-01 2018-03-19 주식회사 뷰노 System for generating interpretation data of dental image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230116451A (en) 2022-01-28 2023-08-04 금오공과대학교 산학협력단 Kit for early diagnosis of dental caries using optical sensor

Also Published As

Publication number Publication date
KR20210044096A (en) 2021-04-22

Similar Documents

Publication Publication Date Title
KR102311385B1 (en) Oral Health Prediction Device and Method Using Dental Caries Detection
US20210398275A1 (en) Oral health prediction apparatus and method using machine learning algorithm
KR102311398B1 (en) Mobile based self-oral examination device
US11676701B2 (en) Systems and methods for automated medical image analysis
KR101788030B1 (en) System and method for risk diagnosis on oral disease and oral care
KR102218752B1 (en) Periodontal disease management system using deep learning and big data
US10937160B1 (en) Dental images processed with artificial intelligence
KR102284579B1 (en) Dental diagnosis system using big data-based artificial intelligence
KR20200023931A (en) A method and system for providing of health care service using block-chain
US12040078B2 (en) Dental image analysis and treatment planning using an artificial intelligence engine
JP7090592B2 (en) A device for assessing the quality of medical devices
US20200146794A1 (en) Oral information management system using smart toothbrush
KR102311395B1 (en) Oral Health Prediction Device and Method Using Periodontitis Detection
KR20200054366A (en) Children oral health care and education system
CN118402009A (en) Computer-implemented method and system
JP7313603B1 (en) Dental information processing device, dental information processing system, program, and dental information processing method
KR102496567B1 (en) Apparatus and Method for Providing Oral Health Analysis Services
Minkin et al. COVID-19 diagnosis by 5-second facial video processing using vibraimage and artificial intelligence
KR102392912B1 (en) Booth based self-oral examination device
US20160339299A1 (en) Integrated impairment value calculation system
KR102248251B1 (en) Medical diagnosis support apparatus using body heat information
JP2023065876A (en) Mobile-based self oral cavity medical examination apparatus
KR20220102310A (en) Common Data Model (CDM) based Chronic Disease Prediction System and Method
KR102392916B1 (en) Oral examination apparatus using examination booth
KR20240057778A (en) Dental caries risk diagnosis system according to the morphological structure and location of teeth

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant