JP2023099273A - Oral cavity image learning/classification device and method of the same - Google Patents

Oral cavity image learning/classification device and method of the same Download PDF

Info

Publication number
JP2023099273A
JP2023099273A JP2022066113A JP2022066113A JP2023099273A JP 2023099273 A JP2023099273 A JP 2023099273A JP 2022066113 A JP2022066113 A JP 2022066113A JP 2022066113 A JP2022066113 A JP 2022066113A JP 2023099273 A JP2023099273 A JP 2023099273A
Authority
JP
Japan
Prior art keywords
oral
image
oral cavity
user terminal
photograph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022066113A
Other languages
Japanese (ja)
Inventor
ヨン ゴ,テ
Taeyeon Go
グ ハン,ゾン
Jonggu Han
ユ チェ,ジェ
Jay You Choi
ホ ジャン,ワン
Wanho Jang
ヨン ヤン,ヒ
Heeyoung Yang
ス ミ ムン,ジ
Jisumi Moon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qtt Co
Original Assignee
Qtt Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qtt Co filed Critical Qtt Co
Publication of JP2023099273A publication Critical patent/JP2023099273A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0013Medical image data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4542Evaluating the mouth, e.g. the jaw
    • A61B5/4547Evaluating teeth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Dentistry (AREA)
  • Physiology (AREA)
  • Artificial Intelligence (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Rheumatology (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Image Analysis (AREA)

Abstract

To provide an oral cavity image learning/classification device which can determine whether or not an image is an image related to an oral cavity and guide a determination result with image analysis using a machine learning algorithm when an image obtained by imaging the oral cavity is uploaded and a method of the same.SOLUTION: An oral cavity image learning/classification device includes a user terminal which guides determination information obtained by determining whether or not an oral cavity photograph directly captured by a user is an oral cavity image including an image of an oral cavity, collects the oral cavity photograph provided from the user terminal, learns and analyzes the collected oral cavity photograph with a CNN algorithm, and can determine whether or not the oral cavity photograph is the oral cavity image.SELECTED DRAWING: Figure 1

Description

本発明は、口腔画像学習/分類方法に係り、より詳しくは、口腔及び口腔ではない種類に関する訓練画像を基にする画像分類モデルを訓練し、アップロードされる画像を分類する口腔画像学習/分類装置及びその方法に関する。 The present invention relates to an oral image learning/classification method, and more particularly, an oral image learning/classifying device that trains an image classification model based on training images for oral and non-oral types and classifies uploaded images. and its method.

口腔疾患は、適切な予防治療及び持続的な管理により、高い予防効果を得られるが、多くの口腔疾患患者は、口腔健康に問題が発生しないと、医者に診断を受けるか、治療を依頼しないなど、未だは口腔予防に対する認識が不足な実情である。 Appropriate preventive treatment and continuous management of oral diseases can provide a high preventive effect, but many patients with oral diseases do not seek medical advice or seek treatment because they do not experience oral health problems. As such, there is still a lack of awareness of oral prevention.

口腔疾患は、他の疾病とは異なり、その予防法が非常に重要であり、スケーリングのような簡単な施術でも歯周疾患を予防することができ、不正咬合が予測される子供に簡単な予防治療を施すと、成長期以後に矯正治療を受けなくても済み、口腔健康管理だけではなく、コストの面でも非常に有利である。 Oral diseases are different from other diseases in that preventive methods are very important. Even simple treatments such as scaling can prevent periodontal diseases, which is a simple preventive measure for children who are expected to have malocclusion. If treatment is given, there is no need to receive orthodontic treatment after the growth period, which is very advantageous not only in terms of oral health management but also in terms of cost.

患者の現在の口腔状態を予測するに当たり、歯科医師の主観的な見解ではなく、正確な検査及び診断結果と、それによる客観的な数値情報が必要であるが、口腔の健康状態を客観的に算出するシステムが無い状況である。 In predicting the current oral condition of the patient, accurate examination and diagnosis results and objective numerical information are required, not the subjective opinion of the dentist. There is no system to calculate it.

口腔の疾患としては大きく、虫歯と歯周疾患がある。 Oral diseases include tooth decay and periodontal disease.

特に、歯周炎と歯肉炎を含む歯周疾患は、初期には疼痛もなく、慢性的に進行するため、発見が遅くなり、歯周疾患を事前に予防することは、非常に難しい状況である。 In particular, periodontal diseases, including periodontitis and gingivitis, do not cause pain in the early stages and progress chronically. be.

そこで、このような口腔疾患の状態を事前に診断し、これを基に、口腔健康の増進及び口腔疾患の予防のための様々な方法が研究及び提案されている。 Therefore, various methods for promoting oral health and preventing oral diseases have been researched and proposed based on the preliminary diagnosis of such oral diseases.

例えば、下記の特許文献1乃至3には、従来技術による口腔健康増進及び口腔疾患予防に関する技術が開示されている。 For example, Patent Literatures 1 to 3 below disclose conventional techniques for oral health promotion and oral disease prevention.

特許文献1においては、ユーザ端末機から、ユーザの性別、年齢、歯周疾患、及び目標設定情報のうちの少なくとも1つに関する情報を含むユーザ条件情報と、ユーザの加盟医療機関での治療情報が入力される。また、口腔管理用品加盟店から、口腔管理用品に関する情報が入力される。以後、ユーザの条件情報及び治療情報に対応する特定のカテゴリーに含まれる特定の口腔管理用品の情報をユーザ端末機に提供して、ユーザに適する口腔管理サービスを提供する。 In Patent Document 1, user condition information including information on at least one of the user's gender, age, periodontal disease, and goal setting information and treatment information at the user's member medical institution are sent from the user terminal. is entered. Also, information on oral care products is input from an oral care product member store. Thereafter, information on specific oral care products included in a specific category corresponding to the user's condition information and treatment information is provided to the user terminal to provide oral care services suitable for the user.

特許文献2においては、患者の口腔状態を検診し、患者の口腔検診資料を含む口腔検診指数算定基準データ、居住地、及び年齢情報をビッグデータ化した後、これを分析して、現在時点での患者の居住地及び年齢によって、口腔検診指数算定基準データが口腔健康に及ぶ影響力を判断する。ついで、口腔検診指数算定基準データに加重値を付与して、口腔検診指数算定のための基準データを数値化して、口腔健康を管理する。 In Patent Document 2, the patient's oral condition is examined, and the oral examination index calculation reference data including the patient's oral examination data, residence, and age information are converted into big data, and then analyzed. The patient's place of residence and age determine the impact of the oral health examination index calculation standard data on oral health. Then, a weight is given to the oral examination index calculation reference data to quantify the reference data for oral examination index calculation, and oral health is managed.

特許文献3においては、ユーザの個人情報、口腔衛生行動データ、及び口腔問診データ、ユーザが専門医療機関を訪問して生成された口腔検診データを収集する。このように収集されたそれぞれの情報を統合分析して、ユーザの口腔疾患危険度を評価し、個人に適するサービスを提供する。 In Patent Document 3, user's personal information, oral hygiene behavior data, oral interview data, and oral examination data generated by the user visiting a specialized medical institution are collected. Each information collected in this way is integrated and analyzed to evaluate the user's risk of oral disease and provide personalized service.

一方、従来技術による口腔検診装置は、口腔分析のために、ユーザが撮影した全ての画像を受諾するが、誤った口腔検診結果に繋がることがある。 On the other hand, prior art oral examination devices accept all images taken by the user for oral analysis, which may lead to erroneous oral examination results.

そこで、更なる分析を行う前に、ユーザが撮影した写真が口腔に関する写真であるかを確認し、口腔に関する写真のみを撮影するように案内することができる技術の開発が求められている。 Therefore, there is a demand for development of a technique that can confirm whether the photograph taken by the user is a photograph of the oral cavity before performing further analysis, and guide the user to take only the photograph of the oral cavity.

韓国公開特許第10-2017-0050467号公報Korean Patent Publication No. 10-2017-0050467 韓国登録特許第10-1868979号公報Korean Patent No. 10-1868979 韓国登録特許第10-1788030号公報Korean Patent No. 10-1788030

本発明の目的は、前述のような問題点を解決するためになされたもので、ユーザが口腔を撮影した画像をアップ-ロードすると、機械学習アルゴリズムを用いた画像分析により、口腔に関する画像であるか否かを判定し、判定結果を案内することができる口腔画像学習/分類装置及びその方法を提供することにある。 The object of the present invention is to solve the above-mentioned problems. When a user uploads an image of the oral cavity, it analyzes the image using a machine learning algorithm to obtain an image of the oral cavity. It is an object of the present invention to provide an oral cavity image learning/classifying device and method capable of determining whether or not and guiding the determination result.

前記したような目的を達成するために、本発明による口腔画像学習/分類装置は、ユーザが直接撮影した口腔写真を提供し、前記口腔写真が口腔内の画像を含む口腔画像であるかを判定した判定情報を案内するユーザ端末と、前記ユーザ端末から提供される口腔写真を収集し、前記収集された口腔写真を、CNNアルゴリズムで学習し分析して、該当口腔写真が口腔画像であるか否かを判定して、前記判定情報を前記ユーザ端末に提供する分析サーバと、を含むことを特徴とする。 In order to achieve the above objects, the oral cavity image learning/classifying device according to the present invention provides an oral cavity photograph taken directly by a user, and determines whether the oral cavity photo is an oral cavity image containing an intraoral image. Collect the user terminal that guides the determination information and the oral cavity photograph provided from the user terminal, learn and analyze the collected oral cavity photo with the CNN algorithm, and determine whether the relevant oral cavity photo is an oral cavity image and an analysis server that determines whether or not the user terminal has the determination information and provides the determination information to the user terminal.

また、前記したような目的を達成するために、本発明による口腔画像学習/分類方法は、(a)分析サーバにおいて、ユーザ端末を用いて、撮影された口腔写真を収集するステップと、(b)収集された口腔写真を前処理して、訓練データ及びテストデータに分割するステップと、(c)分割された訓練データを用いて、分類モデルを設計するステップと、(d)分割されたテストデータを用いて、設計された前記分類モデルの性能をテスト及び評価するステップと、(e)前記テスト及び評価が行われた分析モデルを用いて、収集された口腔写真が口腔画像であるか否かを判定するステップと、を含むことを特徴とする。 Further, in order to achieve the above-described objects, the oral cavity image learning/classification method according to the present invention includes (a) a step of collecting oral cavity photographs taken using a user terminal in an analysis server; (c) using the split training data to design a classification model; (d) split testing using data to test and evaluate the performance of the designed classification model; and (e) using the tested and evaluated analysis model to determine whether the collected oral photographs are oral images. and a step of determining whether the

本発明による口腔画像学習/分類装置及びその方法によると、ユーザが口腔写真をアップロードすると、機械学習アルゴリズムを用いて、口腔写真をリアルタイムで分析して、該当口腔写真に口腔内の画像が含まれた口腔画像であるか否かを正確に判定することができる。 According to the oral cavity image learning/classifying apparatus and method according to the present invention, when a user uploads oral cavity photos, the oral cavity photos are analyzed in real time using machine learning algorithms to determine whether the intraoral images are included in the corresponding oral cavity photos. It is possible to accurately determine whether or not the image is an oral cavity image.

これにより、本発明によると、口腔写真を用いて口腔健康状態を判定するための更なる分析を行う前に、撮影された口腔写真が口腔画像であるか否かを判定して、判定情報を案内することができ、更なる分析に際して、口腔画像を提供することができる。 Thus, according to the present invention, before performing further analysis for determining oral health conditions using oral photographs, it is determined whether or not the photographed oral photographs are oral images, and determination information is obtained. It can guide and provide oral images for further analysis.

本発明の好適な実施例による口腔画像学習/分類装置の構成図である。1 is a block diagram of an oral image learning/classifying device according to a preferred embodiment of the present invention; FIG. 本発明の好適な実施例による口腔画像学習/分類方法をステップ別に説明するフローチャートである。1 is a flow chart explaining step by step an oral cavity image learning/classification method according to a preferred embodiment of the present invention; CNNアルゴリズムで入力された口腔写真を分析して分類する過程を説明する図である。FIG. 4 is a diagram illustrating a process of analyzing and classifying input oral cavity photographs with the CNN algorithm; フィルターを用いて入力された画像を畳み込み、特徴を抽出する過程を説明する図である。FIG. 4 is a diagram illustrating a process of convolving an input image using a filter and extracting features; 1次元ベクトルで変換された層を1つのベクトルで連結して、口腔画像と非口腔画像を分類する過程を説明する図である。FIG. 10 is a diagram illustrating a process of classifying an oral image and a non-oral image by connecting layers transformed by a one-dimensional vector into one vector; 口腔画像の存在可否を認識するための分類モデルを示す図である。FIG. 10 is a diagram showing a classification model for recognizing whether or not an oral cavity image exists; 分類モデルを用いて、入力画像を判定する過程を示す図である。FIG. 4 is a diagram showing the process of judging an input image using a classification model;

以下、本発明の好適な実施例による口腔画像学習/分類装置及びその方法を、添付の図面を参照して詳述する。 Hereinafter, an oral image learning/classifying apparatus and method according to preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明の好適な実施例による口腔画像学習/分類装置の構成図である。 FIG. 1 is a block diagram of an oral image learning/classifying device according to a preferred embodiment of the present invention.

本発明の好適な実施例による口腔画像学習/分類装置10は、図1に示しているように、ユーザ端末20と、分析サーバ30とを含む。 The oral image learning/classifying device 10 according to the preferred embodiment of the present invention includes a user terminal 20 and an analysis server 30, as shown in FIG.

ユーザ端末20と分析サーバ30は、様々な有無線ネットワークで連結され、リアルタイム性を有する通信インターフェースを有する。 The user terminal 20 and the analysis server 30 are connected by various wired/wireless networks and have real-time communication interfaces.

ユーザ端末20は、口腔健康状態を確認しようとするユーザが使用する端末であって、ユーザの口腔写真を撮影して提供することができる。 The user terminal 20 is a terminal used by a user who wants to check the oral health condition, and can take and provide oral photographs of the user.

ここで、ユーザは、ユーザ端末20を用いて、ユーザの個人情報、問診データ、及び一般のデータなどを提供する。 Here, the user uses the user terminal 20 to provide the user's personal information, interview data, general data, and the like.

ユーザは、ユーザ端末20により、分析サーバ30において、口腔画像(Oral Images)又は非口腔画像(Non Oral Images)と判定した結果に対応する判定情報を受信し、これにより、自分が撮影した写真が口腔画像であるか、非口腔画像であるかを確認することができる。そこで、ユーザは、非口腔画像と判定されると、再度、口腔写真を撮影して提供することができる。 Through the user terminal 20, the analysis server 30 receives determination information corresponding to the result of determination as an oral image (oral image) or a non-oral image (non-oral image). Whether it is an oral image or a non-oral image can be confirmed. Therefore, when the user determines that the image is a non-oral image, the user can again take and provide an intraoral photograph.

このようなユーザ端末20は、スマートフォン及びスマートパッドのようなモバイル機器、通信が可能なデスクトップコンピュータ及びラップトップコンピューターなどで具現可能であり、本実施例では、スマートフォンで具現する。 Such a user terminal 20 can be implemented as a mobile device such as a smart phone and a smart pad, a desktop computer and a laptop computer capable of communication, etc. In this embodiment, it is implemented as a smart phone.

分析サーバ30は、ユーザ端末20から提供された口腔写真を収集し、収集された口腔写真を、機械学習アルゴリズム(CNN、DNN、その他)で分析して、該当口腔写真が口腔内を含む口腔画像であるか否かを判定する機能をする。 The analysis server 30 collects the oral cavity photos provided from the user terminal 20, analyzes the collected oral cavity photos with a machine learning algorithm (CNN, DNN, etc.), and the oral cavity photo contains the oral cavity image It has the function of determining whether or not

このような分析サーバ30は、収集された口腔写真の分析により、該当口腔写真が口腔画像であるか、非口腔画像であるかを判定し、判定情報を、ユーザ端末20に提供する。 Such an analysis server 30 analyzes the collected oral cavity photographs to determine whether the relevant oral cavity photographs are oral images or non-oral images, and provides determination information to the user terminal 20 .

このため、分析サーバ30は、ユーザ端末20からの撮影された口腔写真を収集するデータ収集部31と、収集された口腔写真をCNNアルゴリズムで学習し分析するデータ分析部32と、分析された結果に基づいて、口腔内の画像が含まれた口腔画像と非口腔画像を分類して判定する画像判定部33と、判定結果を判定情報として、ユーザ端末20に転送する判定情報提供部34とを含む。 For this reason, the analysis server 30 includes a data collection unit 31 that collects oral cavity photographs taken from the user terminal 20, a data analysis unit 32 that learns and analyzes the collected oral cavity photographs with the CNN algorithm, and an analyzed result Based on, an image determination unit 33 that classifies and determines an oral image and a non-oral image containing an intraoral image, and a determination information providing unit 34 that transfers the determination result to the user terminal 20 as determination information include.

すなわち、本実施例において、分析サーバ30は、画像分類モデルを訓練し、口腔画像と非口腔画像を分類する。 That is, in this embodiment, the analysis server 30 trains an image classification model to classify oral and non-oral images.

このような分類モデルを訓練させるために、分析サーバ30のデータ収集部31は、口腔内が含まれた口腔画像と非口腔画像に関する膨大な量の画像データを収集する。 In order to train such a classification model, the data collection unit 31 of the analysis server 30 collects a huge amount of image data regarding oral images and non-oral images including the intraoral area.

データ分析部32は、テンソルフロー(Tensorflow)及びケラス(Keras)のようなパイソン(Python)基盤のライブラリを用いて、CNNモデルを設計する。このため、データ分析部32は、収集された口腔写真を前処理して、訓練データ及びテストデータにランダムに分割する。 The data analysis unit 32 designs CNN models using Python-based libraries such as Tensorflow and Keras. To this end, the data analysis unit 32 preprocesses the collected oral photographs and randomly divides them into training data and test data.

また、データ分析部32は、分割された訓練データを用いて、設計された分類モデルが、最上の性能を提供するかを確認するため、分割されたテストデータを用いて、分類モデルをテスト及び評価する。 The data analysis unit 32 also tests and tests the classification model using the split test data to see if the classification model designed using the split training data provides the best performance. evaluate.

評価結果から、分類モデルの性能が最適化されると、最適化した分類モデルは保存され、画像判定部33は、最適化した分類モデルを用いて、ランダムの入力画像を分類し製作する。 When the performance of the classification model is optimized from the evaluation results, the optimized classification model is stored, and the image determination unit 33 uses the optimized classification model to classify and produce random input images.

図2は、本発明の好適な実施例による口腔画像学習/分類方法を、ステップ別に説明するフローチャートである。 FIG. 2 is a flow chart explaining step by step an oral image learning/classification method according to a preferred embodiment of the present invention.

本発明の好適な実施例による口腔画像学習/分類方法は、(a)分析サーバにおいて、ユーザ端末を用いて、撮影された口腔写真を収集するステップと、(b)収集された口腔写真を前処理して、訓練データ及びテストデータに分割するステップと、(c)分割された訓練データを用いて、分類モデルを設計するステップと、(d)分割されたテストデータを用いて、設計された前記分類モデルの性能をテスト及び評価するステップと、(e)前記テスト及び評価が行われた分析モデルを用いて、収集された口腔写真が口腔画像であるか否かを判定するステップと、を含む。 The oral cavity image learning/classifying method according to the preferred embodiment of the present invention includes the steps of (a) collecting taken oral cavity photographs using a user terminal in an analysis server; (c) using the split training data to design a classification model; (d) using the split test data to design (e) using the tested and evaluated analysis model to determine whether the collected oral photograph is an oral image; include.

また、本発明の好適な実施例による口腔画像学習/分類方法は、(f) 前記ステップ(e)で判定された判定情報を、ユーザ端末に転送するステップを更に含む。 Also, the oral cavity image learning/classification method according to the preferred embodiment of the present invention further includes the step of (f) transferring the determination information determined in step (e) to the user terminal.

まず、ユーザは、自分の口腔健康状態を確認し管理するために、口腔健康管理アプリケーションをダウンロードして、ユーザ端末20に保存する。 First, the user downloads an oral health management application and stores it in the user terminal 20 in order to check and manage his/her oral health condition.

ついで、ユーザは、口腔健康状態を確認するために、前記口腔健康管理アプリケーションを実行し、口腔写真、個人情報などを提供しながら、口腔健康診断を要請する。ここで、必要に応じて、口腔健康診断のための問診データを作成して提供する。問診データは、問診票であって、チェック形式からなる。問診票には、矯正可否を確認するための項目を含むことができる。 Then, the user executes the oral health management application and requests an oral health examination while providing oral photos, personal information, etc., in order to check the oral health status. Here, if necessary, interview data for oral health examination is created and provided. The medical interview data is a medical questionnaire in a check format. The medical questionnaire can include items for confirming whether or not correction is possible.

口腔写真は、口腔全体を撮影した写真が好適であり、口腔の一部のみを撮影した写真も利用可能である。 The oral cavity photograph is preferably a photograph of the entire oral cavity, and a photograph of only a part of the oral cavity can also be used.

また、前記口腔写真は、口腔内が含まれた口腔画像であるか、又は、口腔内が含まれない非口腔画像である。 Further, the oral cavity photograph is an oral cavity image including the intraoral area, or a non-oral image not including the intraoral area.

これにより、分析サーバ30は、口腔写真の更なる分析を行って口腔健康状態を確認する前に、収集された口腔写真が口腔画像であるか、又は非口腔画像であるかを判定する。 Analysis server 30 thereby determines whether the collected oral photographs are oral or non-oral images before performing further analysis of the oral photographs to ascertain oral health.

詳述すると、ステップS10において、ユーザ端末20は、ユーザ操作で口腔写真を撮影し、撮影した口腔写真を、分析サーバ30にアップロードする。 More specifically, in step S<b>10 , the user terminal 20 takes an oral cavity photograph by user operation and uploads the taken oral cavity photograph to the analysis server 30 .

すると、分析サーバ30のデータ収集部31は、ユーザ端末20からの受信された口腔写真を収集する。 Then, the data collection unit 31 of the analysis server 30 collects the oral cavity photographs received from the user terminal 20 .

これにより、データ分析部32は、収集された口腔写真を、CNNアルゴリズムで学習して、収集された口腔写真が口腔画像であるか否かを判定する。 Thereby, the data analysis unit 32 learns the collected oral cavity photographs by the CNN algorithm and determines whether or not the collected oral cavity photographs are oral cavity images.

ディープラーニングは、人間の脳構造から着眼して、その活動を模倣する一連のアルゴリズムで構成されたマシンラーニングの一つである。 Deep learning is a type of machine learning that focuses on the structure of the human brain and consists of a series of algorithms that imitate its activity.

CNNは、畳み込み演算を用いて変換を行うディープラーニング技法である。 CNN is a deep learning technique that uses convolutional operations to transform.

このようなCNNは、畳み込み層(Convolution Layer)、プーリング層(Pooling Layer)、及び全結合層(Fully-Connected Layer)を基本層として含む。そして、CNNモデルの深層構造には、全体モデル性能を向上させる活性化層、正規化層、及びドロップアウト(Drop-Out)層を含む。 Such a CNN includes a convolution layer, a pooling layer, and a fully-connected layer as basic layers. A deep structure of the CNN model includes an activation layer, a normalization layer, and a drop-out layer that improve the overall model performance.

本実施例では、分類モデルの訓練を目的に、各ラベルの多量の訓練画像を含む口腔及び非口腔ラベル/クラスに関する画像を訓練させるモデル/アルゴリズムを開発する。これは、口腔及び非口腔画像に存在する様々な特徴を学習し抽出するCNNにより行われる。 In this example, for the purpose of training a classification model, we develop a model/algorithm that trains images for oral and non-oral labels/classes containing a large number of training images for each label. This is done by a CNN that learns and extracts various features present in oral and non-oral images.

CNNアルゴリズムの開発は、時間が多くかかり、膨大な量のデータを必要とするが、一旦開発されると、プロセスが自動化され、速くなる。 Developing CNN algorithms is time consuming and requires huge amounts of data, but once developed, the process is automated and fast.

また、このアクセス方式は、開発されたソリューションを、分析サーバ30で検索して、ユーザ端末20に対する即時応答を生成することができる。 This access method can also search the analysis server 30 for the developed solution and generate an immediate response to the user terminal 20 .

ユーザが口腔写真を撮影してアップロードすると、分類モデルは、分析サーバ30で撮像した画像を分析して、撮影した口腔写真を口腔又は非口腔画像と判定し、ユーザに報知することができる。 When the user takes and uploads oral photographs, the classification model can analyze the images taken by the analysis server 30, determine the taken oral photographs as oral or non-oral images, and notify the user.

分類モデルは、口腔写真が口腔画像である場合、更なる分析のために、該当口腔写真を承認する。 The classification model accepts the oral picture for further analysis if the oral picture is an oral picture.

また、分類モデルは、口腔写真が非口腔画像である場合、分類モデルは、ユーザに口腔画像ではないことを案内することによって、ユーザは、再度、口腔画像を撮影してアップロードすることができる。 In addition, if the oral cavity photograph is a non-oral image, the classification model guides the user that it is not an oral cavity image, so that the user can take and upload the oral cavity image again.

図3は、CNNアルゴリズムで入力された口腔写真を分析し分類する過程を説明する図であり、図4は、フィルターを用いて入力された画像を畳み込み、特徴を抽出する過程を説明する図であり、図5は、1次元ベクトルで変換された層を、1つのベクトルで連結して、口腔画像と非口腔画像を分類する過程を説明する図である。 FIG. 3 is a diagram illustrating the process of analyzing and classifying input oral photographs using the CNN algorithm, and FIG. 4 is a diagram illustrating the process of extracting features by convolving the input image using a filter. FIG. 5 is a diagram for explaining the process of classifying an oral image and a non-oral image by connecting layers converted by one-dimensional vectors into one vector.

図3には、口腔画像と非口腔画像を含む多数の口腔写真に対して、CNNアルゴリズムで畳み込み層(Convolution Layer)とプーリング層(Pooling Layer)を複数経た後、全結合層(Fully-Connected Layer)を介して、最終的に判定結果を導出する過程を示している。 In FIG. 3, for a large number of oral photographs including oral and non-oral images, after going through multiple convolution layers and pooling layers with the CNN algorithm, a fully-connected layer ) to finally derive the determination result.

図4には、入力画像、すなわち、口腔写真とフィルターを合成乗算して畳み込んだ結果について、最大値プーリング(Max Pooling)及び平均プーリング(Average Pooling)する過程を示している。 FIG. 4 shows the process of max pooling and average pooling of the input image, that is, the oral cavity photograph and the filter combined and multiplied and convoluted.

図5には、平坦化(flatten)により、1次元ベクトルで変換された前層で全結合層を介して、口腔画像、または非口腔画像として判定する過程が示されている。 FIG. 5 shows a process of judging an oral image or a non-oral image through a fully connected layer with a previous layer transformed into a one-dimensional vector by flattening.

図3乃至図5に示しているように、口腔画像又は非口腔画像がCNNに入力されて転送されると、CNNアルゴリズムは、多数の畳み込み層とプーリング層を通過した後、全結合層を介して画像認識結果、すなわち、口腔画像であるかを判定した訂正情報を出力する。 As shown in FIGS. 3-5, when oral or non-oral images are input to the CNN and transferred, the CNN algorithm passes through a number of convolutional and pooling layers and then through fully connected layers. image recognition result, that is, correction information for determining whether or not it is an oral cavity image.

CNNモデルを構築し、入力サイズ及び出力クラスを合わせるために、システムGPUを完全に活用できるように、Tensorflow及びKerasのようなパイソン(Python)パッケージを使用することができる。このように、システムGPUを用いると、訓練速度を高め、訓練時間を短縮することができる。 Python packages such as Tensorflow and Keras can be used to build CNN models and match input sizes and output classes so that the system GPU can be fully utilized. Thus, the system GPU can be used to increase training speed and reduce training time.

一方、ユーザが口腔画像のみを撮影するように案内するためには、強力なCNNモデルを設計するのが重要である。しかし、CNNモデルが常に最高の結果を保証することではない。 On the other hand, it is important to design a strong CNN model to guide the user to take oral images only. However, CNN models do not always guarantee the best results.

そこで、本実施例では、性能を向上するために、ResNet50のような事前訓練されたモデルを活用することができ、CNNモデルが訓練課程で、口腔及び非口腔画像を学習するように、初期加重値を加えることができる。 Thus, in the present example, to improve performance, pre-trained models such as ResNet50 can be leveraged, with initial weights value can be added.

このように、事前訓練されたモデルを用いると、予測正確度を高めると共に、性能時間を短縮することができ、ユーザが口腔写真を撮影するに際して、CNNアルゴリズムは、撮影された写真が口腔画像であるかを判定し、非口腔画像の場合は、ユーザに口腔画像を再度撮影するように、案内メッセージを転送することができる。 Thus, using a pre-trained model can increase prediction accuracy and reduce performance time. If it is a non-oral image, a guidance message can be forwarded to the user to take an oral image again.

ResNet50のような事前訓練されたモデルは、転移学習のアクセス方式を基盤とする。 Pretrained models such as ResNet50 are based on transfer learning access methods.

前記転移学習とは、全結合層を微調整し、モデルを全てのタイプの作業に合わせてユーザ定義して、事前訓練されたモデルを活用することを言う。 Transfer learning refers to leveraging pre-trained models by fine-tuning fully connected layers and user-defining models for all types of tasks.

このような転移学習は、基本的に、いずれのモデルも新たな作業の出発点として使用する。 Such transfer learning essentially uses any model as a starting point for new work.

ResNetとして知られている深層残余ネットワークは、スキップ接続又は短縮接続で指示された核心概念を基に作られており、前記スキップ接続又は短縮接続は、データとグラデーション(gradation)が実際のネットワークフローと共に、ネットワークを介して、移動可能な代替経路を提供することができる。 A deep residual network, known as ResNet, builds on the core concept denoted by skip connections or shortened connections, where data and gradations are combined with the actual network flow. , through the network, can provide alternate routes that can be traveled.

詳述すると、図2のステップS12において、データ分析部32は、収集された口腔写真を前処理して、訓練データ及びテストデータにランダムで分割する。 Specifically, in step S12 of FIG. 2, the data analysis unit 32 preprocesses the collected oral photographs and randomly divides them into training data and test data.

ステップS14において、データ分析部32は、分割された訓練データを用いて、パイソン(Python)基盤のライブラリを基に、分類モデルを設計する。 In step S14, the data analysis unit 32 uses the divided training data to design a classification model based on a Python-based library.

ステップS16において、データ分析部32は、設計された分類モデルが、最上の性能を提供するかを確認するために、分割されたテストデータを用いて、分類モデルを訓練及びテストし、訓練及びテスト結果を評価する。 In step S16, the data analysis unit 32 trains and tests the classification model using the split test data to see if the designed classification model provides the best performance. Evaluate the results.

このような評価過程により、分類モデルを持続的にアップグレード及びチューニングする過程を介して、分類モデルの性能が最適化されると、最適化した分類モデルは、保存される。 When the performance of the classification model is optimized through the process of continuously upgrading and tuning the classification model through such an evaluation process, the optimized classification model is saved.

ステップS18において、画像判定部33は、最適化した分類モデルを用いて収集された口腔写真に対して、口腔画像であるか、非口腔画像であるかを判定し、判定情報提供部34は、判定結果を、ユーザ端末に転送する(S20)。 In step S18, the image determination unit 33 determines whether the oral cavity photograph collected using the optimized classification model is an oral image or a non-oral image, and the determination information providing unit 34 The determination result is transferred to the user terminal (S20).

ここで、非口腔画像と判定されると、ユーザ端末20は、ユーザに口腔画像を再度撮影するように、案内メッセージを表示する。 Here, if the non-oral image is determined, the user terminal 20 displays a guidance message to prompt the user to take an oral image again.

一方、口腔画像と判定された場合、分析サーバ30は、該当口腔写真で口腔健康状態を確認するための更なる分析情報を提供する。 On the other hand, if it is determined to be an oral image, the analysis server 30 provides further analysis information for confirming the oral health condition from the corresponding oral image.

図6は、口腔画像の存在可否を認識するための分類モデルを示す図であり、図7は、分類モデルを用いて、入力画像を判定する過程を示す図である。 FIG. 6 is a diagram showing a classification model for recognizing whether or not an oral cavity image exists, and FIG. 7 is a diagram showing a process of judging an input image using the classification model.

口腔及び非口腔画像からなる口腔写真、すなわち画像データは、CNNブロックに入力されて転送され、CNNブロックは、訓練ステップで、口腔写真から様々な特徴を抽出し学習する。 Oral photographs, ie, image data consisting of oral and non-oral images, are input and transferred to the CNN block, and the CNN block extracts and learns various features from the oral photographs in a training step.

CNN訓練中、畳み込み層は、入力された画像から、特徴又は特徴マップを抽出し、プーリング層は、特徴マップのサイズを減らすために、非線形ダウンサンプリングを行い、全結合層は、最終の畳み込み又はプーリング層の出力特徴マップを呼び出して、画像を分類する。 During CNN training, convolutional layers extract features or feature maps from input images, pooling layers perform non-linear downsampling to reduce the size of feature maps, and fully connected layers perform final convolutions or Call the output feature map of the pooling layer to classify the image.

ここで、入力画像対比出力値のサイズは、図6に示しているように、大きく減少することを明らかに確認することができる。 Here, it can be clearly seen that the size of the input image comparison output value is significantly reduced, as shown in FIG.

前記事前訓練されたモデルとして、ResNet50は、スキップ接続で分類モデルを、密度が高いことに対して、図7に示しているように、浅くないようにしてくれる。このようなスキップ接続は、さらに多くの特徴を抽出し、分類モデルの性能を向上することに寄与する。 As the pre-trained model, ResNet 50 makes the classification model with skip connections not shallow, as shown in FIG. 7, for high density. Such skip connections help extract more features and improve the performance of the classification model.

そこで、分類モデルは、訓練過程及びテスト過程を経て最適化され、最適化した分類モデルは、生産及び今後の使用のために、未知の画像がテストされる場所に保存される。 The classification model is then optimized through a training and testing process, and the optimized classification model is stored for production and future use where unknown images are tested.

そして、分類モデルは、モデル展開APIの一部で、ユーザが口腔画像を撮影し、撮影された口腔写真を、分析サーバ30にアップロードできるようにする。 The classification model is part of the model deployment API and allows the user to take oral cavity images and upload the taken oral cavity photographs to the analysis server 30 .

前述のような過程により、本発明は、ユーザが口腔写真をアップロードすると、機械学習アルゴリズムを用いて、口腔写真をリアルタイム分析して、該当口腔写真に口腔内の画像が含まれた口腔画像であるかを正しく判定することができる。 According to the above-described process, when a user uploads an oral cavity photograph, the present invention uses a machine learning algorithm to analyze the oral cavity photo in real time, and obtains an oral cavity image containing an intraoral image in the corresponding oral cavity photo. can be determined correctly.

これにより、本発明は、口腔写真を用いて、口腔健康状態を判定するための更なる分析を行う前に、撮影された口腔写真が口腔画像であるかを判定して、判定情報を案内することができ、更なる分析に際して、口腔画像を提供することができる。 Thereby, the present invention uses the oral photograph to determine whether the photographed oral photograph is an oral image before performing further analysis to determine the oral health condition, and guides the determination information. can provide oral images for further analysis.

以上、本発明者によりなされた発明を、実施例により具体的に説明したが、本発明は、前記した実施例に限定されるものではなく、その要旨を逸脱しない範囲で、様々に変更可能なことは、言うまでもない。 The invention made by the present inventors has been specifically described above with reference to examples, but the present invention is not limited to the above-described examples, and can be variously modified without departing from the scope of the invention. It goes without saying.

10 口腔画像学習/分類装置
20 ユーザ端末
30 分析サーバ
31 データ収集部
32 データ分析部
33 画像判定部
34 判定情報提供部
10 Oral image learning/classification device 20 User terminal 30 Analysis server 31 Data collection unit 32 Data analysis unit 33 Image judgment unit 34 Judgment information provision unit

Claims (5)

口腔写真を機械学習アルゴリズムで分析して、学習し分類する口腔画像学習/分類装置であって、
ユーザが直接撮影した口腔写真を提供し、前記口腔写真が口腔内の画像を含む口腔画像であるかを判定した判定情報を案内するユーザ端末と、
前記ユーザ端末から提供される口腔写真を収集し、前記収集された口腔写真を、CNNアルゴリズムで学習し分析して、該当口腔写真が口腔画像であるか否かを判定して、前記判定情報を前記ユーザ端末に提供する分析サーバと、を含むことを特徴とする口腔画像学習/分類装置。
An oral image learning/classifying device that analyzes oral photographs with a machine learning algorithm to learn and classify,
A user terminal that provides an oral cavity photograph directly taken by a user and guides determination information for determining whether the oral cavity photo is an oral cavity image including an intraoral image;
Collect oral photos provided from the user terminal, learn and analyze the collected oral photos with the CNN algorithm, determine whether the relevant oral photos are oral images, and the determination information an analysis server provided to the user terminal; and an oral image learning/classification device.
前記分析サーバは、
前記ユーザ端末からの撮影された前記口腔写真を収集するデータ収集部と、
前記収集された口腔写真を前記CNNアルゴリズムで学習し分析するデータ分析部と、
分析結果に基づいて、前記口腔画像と非口腔画像を分類して判定する画像判定部と、
判定された結果を前記判定情報として、前記ユーザ端末に転送する判定情報提供部と、を含むことを特徴とする請求項1に記載の口腔画像学習/分類装置。
The analysis server is
a data collection unit that collects the oral cavity photograph taken from the user terminal;
a data analysis unit that learns and analyzes the collected oral photographs with the CNN algorithm;
an image determination unit that classifies and determines the oral image and the non-oral image based on the analysis result;
The oral cavity image learning/classification device according to claim 1, further comprising a determination information providing unit that transfers a determined result as the determination information to the user terminal.
前記データ分析部は、前記収集された口腔写真を前処理して訓練データ及びテストデータに分割し、前記分割された訓練データを用いて、分類モデルを設計し、前記分割されたテストデータを用いて、設計された前記分類モデルの性能をテスト及び評価し、
前記画像判定部は、前記テスト及び評価が行われた分析モデルを用いて、前記収集された口腔写真が前記口腔画像であるか否かを判定することを特徴とする請求項2に記載の口腔画像学習/分類装置。
The data analysis unit preprocesses the collected oral photographs and divides them into training data and test data, uses the divided training data to design a classification model, and uses the divided test data. to test and evaluate the performance of the designed classification model;
3. The oral cavity according to claim 2, wherein the image determination unit determines whether or not the collected oral cavity photograph is the oral cavity image using the analytical model subjected to the testing and evaluation. Image learning/classifier.
請求項1乃至3のいずれか一項に記載の口腔画像学習/分類装置を用いて、前記口腔写真を前記機械学習アルゴリズムで分析して学習し分類する口腔画像学習/分類方法であって、
(a)分析サーバにおいて、ユーザ端末を用いて、撮影された前記口腔写真を収集するステップと、
(b)前記収集された口腔写真を前処理して、訓練データ及びテストデータに分割するステップと、
(c)前記分割された訓練データを用いて、分類モデルを設計するステップと、
(d)分割されたテストデータを用いて、設計された前記分類モデルの性能をテスト及び評価するステップと、
(e)前記テスト及び評価が行われた分析モデルを用いて、前記収集された口腔写真が前記口腔画像であるか否かを判定するステップと、を含むことを特徴とする口腔画像学習/分類方法。
An oral image learning / classification method for analyzing, learning and classifying by analyzing the oral cavity photograph with the machine learning algorithm using the oral cavity image learning / classification device according to any one of claims 1 to 3,
(a) collecting the photographed oral cavity photograph using a user terminal in an analysis server;
(b) preprocessing the collected oral photographs to divide them into training data and test data;
(c) using the split training data to design a classification model;
(d) testing and evaluating the performance of the designed classification model using split test data;
(e) using the tested and evaluated analytical model to determine whether the collected oral photograph is the oral image. Method.
更に、(f)前記ステップ(e)で判定された判定情報を、前記ユーザ端末に転送するステップを含み、
前記分析サーバは、前記口腔写真が前記口腔画像と判定されると、口腔健康状態を確認するための更なる分析情報を提供し、
前記ユーザ端末は、前記口腔写真が非口腔画像と判定されると、口腔内を再度撮影するように案内メッセージを表示することを特徴とする請求項4に記載の口腔画像学習/分類方法。
(f) forwarding the determination information determined in step (e) to the user terminal;
The analysis server provides further analysis information for confirming oral health status when the oral photograph is determined to be the oral image;
5. The oral cavity image learning/classifying method according to claim 4, wherein, when the oral cavity photograph is determined to be a non-oral image, the user terminal displays a guidance message to take an intraoral image again.
JP2022066113A 2021-12-30 2022-04-13 Oral cavity image learning/classification device and method of the same Pending JP2023099273A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0193077 2021-12-30
KR1020210193077A KR20230102720A (en) 2021-12-30 2021-12-30 Method for oral image training and classification and apparatus for executing the same

Publications (1)

Publication Number Publication Date
JP2023099273A true JP2023099273A (en) 2023-07-12

Family

ID=87074537

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022066113A Pending JP2023099273A (en) 2021-12-30 2022-04-13 Oral cavity image learning/classification device and method of the same

Country Status (2)

Country Link
JP (1) JP2023099273A (en)
KR (1) KR20230102720A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180174367A1 (en) * 2016-12-16 2018-06-21 Align Technology, Inc. Augmented reality planning and viewing of dental treatment outcomes
JP2020008904A (en) * 2018-07-02 2020-01-16 パナソニックIpマネジメント株式会社 Learning data collection apparatus, learning data collection system and learning data collection method
CN112037913A (en) * 2020-09-15 2020-12-04 南昌大学 Intelligent periodontitis detection method and system based on convolutional neural network
KR20210083478A (en) * 2019-12-26 2021-07-07 주식회사 큐티티 Mobile based self-oral examination device
CN113244009A (en) * 2021-06-17 2021-08-13 深圳市弘玉信息技术有限公司 Oral health management system for adjusting electric toothbrush based on artificial intelligence image recognition
WO2021167998A1 (en) * 2020-02-17 2021-08-26 DataRobot, Inc. Automated data analytics methods for non-tabular data, and related systems and apparatus

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101836187B1 (en) 2015-10-30 2018-03-08 동의대학교 산학협력단 Method and server for providing user-costomized oral care service and
KR101868979B1 (en) 2016-05-31 2018-07-23 (주)이너웨이브 A system and method for managing of oral care using deep learning
KR101788030B1 (en) 2016-06-15 2017-11-15 주식회사 카이아이컴퍼니 System and method for risk diagnosis on oral disease and oral care

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180174367A1 (en) * 2016-12-16 2018-06-21 Align Technology, Inc. Augmented reality planning and viewing of dental treatment outcomes
JP2020008904A (en) * 2018-07-02 2020-01-16 パナソニックIpマネジメント株式会社 Learning data collection apparatus, learning data collection system and learning data collection method
KR20210083478A (en) * 2019-12-26 2021-07-07 주식회사 큐티티 Mobile based self-oral examination device
WO2021167998A1 (en) * 2020-02-17 2021-08-26 DataRobot, Inc. Automated data analytics methods for non-tabular data, and related systems and apparatus
CN112037913A (en) * 2020-09-15 2020-12-04 南昌大学 Intelligent periodontitis detection method and system based on convolutional neural network
CN113244009A (en) * 2021-06-17 2021-08-13 深圳市弘玉信息技术有限公司 Oral health management system for adjusting electric toothbrush based on artificial intelligence image recognition

Also Published As

Publication number Publication date
KR20230102720A (en) 2023-07-07

Similar Documents

Publication Publication Date Title
JP6993027B2 (en) Image analysis methods, equipment and computer programs
KR102284579B1 (en) Dental diagnosis system using big data-based artificial intelligence
US11488717B2 (en) Method and system for analysis of spine anatomy and spine disease
KR102311385B1 (en) Oral Health Prediction Device and Method Using Dental Caries Detection
KR102218752B1 (en) Periodontal disease management system using deep learning and big data
KR102311398B1 (en) Mobile based self-oral examination device
JP7353684B2 (en) Artificial intelligence scalp image diagnosis and analysis system using big data and product recommendation system using this
KR102670492B1 (en) Method and apparatus for psychological counselingusing artificial intelligence
Munsif et al. Monitoring neurological disorder patients via deep learning based facial expressions analysis
JP7372614B2 (en) Information processing systems and programs
CN115769309A (en) Prediction of preterm birth
CN115221941A (en) Cognitive disorder detection method and related device, electronic equipment and storage medium
WO2024074921A1 (en) Distinguishing a disease state from a non-disease state in an image
Ataş et al. Forensic dental age estimation using modified deep learning neural network
Shanthi et al. An integrated approach for mental health assessment using emotion analysis and scales
CN117257302B (en) Personnel mental health state assessment method and system
CN117010971B (en) Intelligent health risk providing method and system based on portrait identification
Fadhillah et al. Smart Odontogram: Dental Diagnosis of Patients Using Deep Learning
JP2023099273A (en) Oral cavity image learning/classification device and method of the same
US8473314B2 (en) Method and system for determining precursors of health abnormalities from processing medical records
KR102311395B1 (en) Oral Health Prediction Device and Method Using Periodontitis Detection
KR20230134887A (en) System and Method for recognizing tartar using artificial intelligence
Gamage et al. Academic depression detection using behavioral aspects for Sri Lankan university students
Can et al. CVApool: using null-space of CNN weights for the tooth disease classification
US20240197287A1 (en) Artificial Intelligence System for Determining Drug Use through Medical Imaging

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230809

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230905