JP2022097176A - Oral cavity state evaluation system - Google Patents
Oral cavity state evaluation system Download PDFInfo
- Publication number
- JP2022097176A JP2022097176A JP2020210608A JP2020210608A JP2022097176A JP 2022097176 A JP2022097176 A JP 2022097176A JP 2020210608 A JP2020210608 A JP 2020210608A JP 2020210608 A JP2020210608 A JP 2020210608A JP 2022097176 A JP2022097176 A JP 2022097176A
- Authority
- JP
- Japan
- Prior art keywords
- oral
- image
- analysis
- information
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 210000000214 mouth Anatomy 0.000 title claims abstract description 80
- 238000011156 evaluation Methods 0.000 title claims abstract description 59
- 238000007689 inspection Methods 0.000 claims description 9
- 238000004891 communication Methods 0.000 description 20
- 238000000034 method Methods 0.000 description 14
- 201000005562 gingival recession Diseases 0.000 description 9
- 210000004283 incisor Anatomy 0.000 description 8
- 238000012360 testing method Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000012795 verification Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 230000001680 brushing effect Effects 0.000 description 5
- 230000000875 corresponding effect Effects 0.000 description 5
- 241000282465 Canis Species 0.000 description 4
- 208000002925 dental caries Diseases 0.000 description 4
- 208000028169 periodontal disease Diseases 0.000 description 4
- 230000028327 secretion Effects 0.000 description 4
- 206010006326 Breath odour Diseases 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000002787 reinforcement Effects 0.000 description 3
- 230000009747 swallowing Effects 0.000 description 3
- 241000894006 Bacteria Species 0.000 description 2
- 208000034619 Gingival inflammation Diseases 0.000 description 2
- 208000032139 Halitosis Diseases 0.000 description 2
- 206010020751 Hypersensitivity Diseases 0.000 description 2
- 208000026935 allergic disease Diseases 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 210000004763 bicuspid Anatomy 0.000 description 2
- 238000004040 coloring Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 210000004195 gingiva Anatomy 0.000 description 2
- 230000009610 hypersensitivity Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 210000002200 mouth mucosa Anatomy 0.000 description 2
- 210000003296 saliva Anatomy 0.000 description 2
- 239000011800 void material Substances 0.000 description 2
- 208000019505 Deglutition disease Diseases 0.000 description 1
- 208000005888 Periodontal Pocket Diseases 0.000 description 1
- 208000008312 Tooth Loss Diseases 0.000 description 1
- 208000004188 Tooth Wear Diseases 0.000 description 1
- 206010062544 Tooth fracture Diseases 0.000 description 1
- 230000000844 anti-bacterial effect Effects 0.000 description 1
- 230000001580 bacterial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000740 bleeding effect Effects 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 230000001055 chewing effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 235000005911 diet Nutrition 0.000 description 1
- 230000000378 dietary effect Effects 0.000 description 1
- 230000035622 drinking Effects 0.000 description 1
- 230000007937 eating Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- GPRLSGONYQIRFK-UHFFFAOYSA-N hydron Chemical compound [H+] GPRLSGONYQIRFK-UHFFFAOYSA-N 0.000 description 1
- 238000010030 laminating Methods 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 230000018984 mastication Effects 0.000 description 1
- 238000010077 mastication Methods 0.000 description 1
- 210000004400 mucous membrane Anatomy 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 230000004622 sleep time Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Landscapes
- Endoscopes (AREA)
Abstract
Description
本開示は、ユーザの口腔状態を評価する口腔状態評価システムに関する。 The present disclosure relates to an oral condition evaluation system for evaluating a user's oral condition.
口腔内全体を含む口腔画像から口腔状態を分析し、歯科医師等の専門家による判断を補助するシステムが知られている。特許文献1は、ユーザの口腔内全体を撮影したX線画像から、病変箇所を抽出する歯科分析システムを開示する。 There is known a system that analyzes the oral condition from an oral image including the entire oral cavity and assists a judgment by a specialist such as a dentist. Patent Document 1 discloses a dental analysis system that extracts a lesion site from an X-ray image of the entire oral cavity of a user.
口腔状態は、ユーザが高齢になるにつれてユーザごとの多様性が増加する。多様性は、一例では後天的な歯の欠損、う蝕、および、治療により生じる。多様性のある口腔状態を反映した口腔画像は、1つの手段では適切な解析および評価が実施できない場合がある。 The oral condition becomes more diverse for each user as the user gets older. Diversity arises, in one case, from acquired tooth loss, caries, and treatment. Oral images that reflect diverse oral conditions may not be properly analyzed and evaluated by one means.
本発明に関する口腔状態評価システムは、入力画像に含まれる口腔画像を第1解析手段で解析する情報解析部を含む口腔状態評価システムであって、前記情報解析部は、前記口腔画像を前記第1解析手段で解析が可能である第1口腔画像および前記第1解析手段で解析が不可能である第2口腔画像に分類し、前記第1口腔画像は、前記情報解析部により前記第1解析手段で解析され、前記口腔画像が前記第2口腔画像である場合、前記第1解析手段とは異なる第2解析手段で解析される。 The oral condition evaluation system according to the present invention is an oral condition evaluation system including an information analysis unit that analyzes the oral image included in the input image by the first analysis means, and the information analysis unit analyzes the oral image by the first analysis unit. The first oral cavity image that can be analyzed by the analysis means and the second oral cavity image that cannot be analyzed by the first analysis means are classified, and the first oral cavity image is the first analysis means by the information analysis unit. When the oral cavity image is the second oral cavity image, it is analyzed by a second analysis means different from the first analysis means.
本発明に関する口腔状態評価システムによれば、口腔画像の適切な解析および評価が実施できる。 According to the oral condition evaluation system according to the present invention, appropriate analysis and evaluation of oral images can be performed.
(口腔状態評価システムが取り得る形態の一例)
(1)本開示に関する口腔状態評価システムによれば、入力画像に含まれる口腔画像を第1解析手段で解析する情報解析部を含む口腔状態評価システムであって、前記情報解析部は、前記口腔画像を前記第1解析手段で解析が可能である第1口腔画像および前記第1解析手段で解析が不可能である第2口腔画像に分類し、前記第1口腔画像は、前記情報解析部により前記第1解析手段で解析され、前記口腔画像が前記第2口腔画像である場合、前記第1解析手段とは異なる第2解析手段で解析される。
上記口腔状態評価システムによれば、口腔画像を第1口腔画像および第2口腔画像に分類し、第1口腔画像を第1解析手段で解析し、第2口腔画像である場合は第2解析手段で解析する。このため、口腔画像の適切な解析および評価が実施される。
(Example of possible forms of oral condition evaluation system)
(1) According to the oral condition evaluation system according to the present disclosure, the oral condition evaluation system includes an information analysis unit that analyzes the oral image included in the input image by the first analysis means, and the information analysis unit is the oral cavity. The images are classified into a first oral cavity image that can be analyzed by the first analysis means and a second oral cavity image that cannot be analyzed by the first analysis means, and the first oral cavity image is obtained by the information analysis unit. It is analyzed by the first analysis means, and when the oral image is the second oral image, it is analyzed by a second analysis means different from the first analysis means.
According to the oral condition evaluation system, the oral image is classified into a first oral image and a second oral image, the first oral image is analyzed by the first analysis means, and in the case of the second oral image, the second analysis means. Analyze with. Therefore, appropriate analysis and evaluation of oral images are performed.
(2)前記口腔状態評価システムの一例によれば、前記第1解析手段は、口腔に関する画像を予め学習した解析学習モデルによる解析を含み、前記第1解析手段による前記第1口腔画像の解析結果である第1解析結果が出力される。
上記口腔状態評価システムによれば、第1解析手段による第1解析結果によりユーザが口腔状態を適切に認識できる。
(2) According to an example of the oral condition evaluation system, the first analysis means includes analysis by an analysis learning model in which an image relating to the oral cavity is learned in advance, and the analysis result of the first oral image by the first analysis means. The first analysis result is output.
According to the oral condition evaluation system, the user can appropriately recognize the oral condition from the first analysis result by the first analysis means.
(3)前記口腔状態評価システムの一例によれば、前記第2解析手段は、専門家、検査用装置、および、検査用器具の少なくとも1つによる解析を含み、前記第2解析手段による前記第2口腔画像の解析結果である第2解析結果が出力される。
上記口腔状態評価システムによれば、第2解析手段による第2解析結果によりユーザが口腔状態を適切に認識できる。
(3) According to an example of the oral condition evaluation system, the second analysis means includes analysis by at least one of a specialist, an inspection device, and an inspection instrument, and the second analysis means by the second analysis means. 2 The second analysis result, which is the analysis result of the oral image, is output.
According to the oral condition evaluation system, the user can appropriately recognize the oral condition by the second analysis result by the second analysis means.
(4)前記口腔状態評価システムの一例によれば、前記第2口腔画像および前記第2解析結果の少なくとも1つは、データベースに保存される。
上記口腔状態評価システムによれば、第2口腔画像に関する情報が好適に保存される。
(4) According to an example of the oral condition evaluation system, at least one of the second oral image and the second analysis result is stored in a database.
According to the oral condition evaluation system, information regarding the second oral image is preferably stored.
(5)前記口腔状態評価システムの一例によれば、前記情報解析部は、前記第1口腔画像および前記第2口腔画像の分類を口腔に関する画像を学習した分類学習モデルにより実行する。
上記口腔状態評価システムによれば、第1口腔画像と第2口腔画像とを好適に分類できる。
(5) According to an example of the oral condition evaluation system, the information analysis unit executes classification of the first oral image and the second oral image by a classification learning model in which images related to the oral cavity are learned.
According to the oral condition evaluation system, the first oral image and the second oral image can be suitably classified.
(6)前記口腔状態評価システムの一例によれば、前記解析学習モデルおよび前記分類学習モデルの少なくとも1つは、前記第2口腔画像の解析に基づいて更新される。
上記口腔状態評価システムによれば、第2口腔画像に関する情報により学習モデルが更新されるため、学習モデルの精度が向上する。
(6) According to an example of the oral condition evaluation system, at least one of the analysis learning model and the classification learning model is updated based on the analysis of the second oral image.
According to the oral condition evaluation system, the learning model is updated by the information about the second oral image, so that the accuracy of the learning model is improved.
(7)前記口腔状態評価システムの一例によれば、前記第2口腔画像を表示し、前記第2口腔画像の解析結果を入力する外部端末をさらに含む。
上記口腔状態評価システムによれば、インターフェイス部とは異なる外部端末により例えば専門家による解析が容易に実施できる。
(7) According to an example of the oral condition evaluation system, an external terminal that displays the second oral image and inputs the analysis result of the second oral image is further included.
According to the oral condition evaluation system, for example, analysis by an expert can be easily performed by an external terminal different from the interface unit.
(8)前記口腔状態評価システムの一例によれば、前記情報解析部は、前記入力画像を前記口腔画像および口腔を含まない非口腔画像にさらに分類し、前記入力画像が前記非口腔画像である場合、第3解析結果を出力する。
上記口腔状態評価システムによれば、第3解析結果により、ユーザは入力画像が適切ではないことを容易に認識できる。
(8) According to an example of the oral condition evaluation system, the information analysis unit further classifies the input image into the oral image and the non-oral image not including the oral cavity, and the input image is the non-oral image. If so, the third analysis result is output.
According to the oral condition evaluation system, the user can easily recognize that the input image is not appropriate based on the third analysis result.
(9)前記口腔状態評価システムの一例によれば、前記入力画像を取得するインターフェイス部をさらに備える。
上記口腔状態評価システムによれば、入力画像をユーザが好適に入力できる。
(9) According to an example of the oral condition evaluation system, an interface unit for acquiring the input image is further provided.
According to the oral condition evaluation system, the user can suitably input the input image.
(10)前記口腔状態評価システムの一例によれば、前記インターフェイス部は、表示部を備え、前記表示部は、第1解析結果、第2解析結果、および、第3解析結果の少なくとも1つを表示する。
上記口腔状態評価システムによれば、第1解析結果、第2解析結果、および、第3解析結果の少なくとも1つをユーザが容易に認識できる。
(10) According to an example of the oral condition evaluation system, the interface unit includes a display unit, and the display unit has at least one of a first analysis result, a second analysis result, and a third analysis result. indicate.
According to the oral condition evaluation system, the user can easily recognize at least one of the first analysis result, the second analysis result, and the third analysis result.
(実施形態)
図1から図4を参照して、本実施形態の口腔状態評価システム10について説明する。口腔状態評価システム10は、口腔状態に関する入力情報Iを取得および解析し出力情報Oを出力するシステムである。口腔状態評価システム10を構成する主な要素は、サーバ30である。好ましくは、口腔状態評価システム10は、サーバ30と情報のやり取りを実行するためのインターフェイス部20を備える。インターフェイス部20は、一例ではユーザが持ち運び可能に構成されたスマートデバイスである。スマートデバイスは、タブレット端末またはスマートフォンを含む。別の例では、インターフェイス部20は、パーソナルコンピュータである。パーソナルコンピュータは、ユーザの住居、店舗または歯科医院に設置される。店舗は、口腔ケアアイテムを販売する店舗またはその他商品を販売する店舗を含む。インターフェイス部20とサーバ30とは、例えばインターネット回線Nを使用して互いに通信可能に構成される。別の例では、インターフェイス部20とサーバ30とは一体で構成される。
(Embodiment)
The oral
インターフェイス部20は、制御部21、記憶部22、取得部23、通信部24、および、表示部25を備える。制御部21は、予め定められる制御プログラムを実行する演算処理装置を含む。演算処理装置は、例えばCPU、GPUまたはMPUを含む。
The
記憶部22は、制御部21が実行する各種の制御プログラムおよび各種の制御処理に用いられる情報が記憶される。記憶部22は、例えば不揮発性メモリおよび揮発性メモリを含む。不揮発性メモリは、例えば、ROM、EPROM、EEPROM、および、フラッシュメモリの少なくとも1つを含む。揮発性メモリは、例えば、RAMを含む。
The
取得部23は、ユーザから入力情報Iを取得する。取得部23は、ユーザの入力情報Iを取得するための任意の構成を備える。一例では、入力情報Iはユーザの口腔の口腔画像Pを入力画像として取得できるカメラである。入力画像は、静止画および動画を含む。入力画像は、奥行き情報を有する3次元画像または複数の画像を張り合わせることにより構成されるパノラマ画像を含む。カメラは、スマートデバイスに搭載されるカメラであってもよく、別途独立したカメラであってもよい。独立したカメラは、例えば口腔内の撮影に適する先端部にカメラが設けられたペン型のカメラまたは360°の範囲の撮影が可能なカメラである。独立したカメラは、制御部21と有線または無線通信が可能に構成される。独立したカメラが撮影した入力画像は、有線又は無線通信により制御部21に送信される。
The
通信部24は、制御部21の制御に基づいてインターフェイス部20外と通信可能に構成される。通信部24は、インターネット回線Nを介して通信可能に構成される。通信部24は、有線通信または無線通信によりインターフェイス部20のサーバ30と通信可能に構成されていてもよい。通信部24は、例えば取得部23が取得したユーザの入力情報Iを制御部21の制御に基づいて送信し、サーバ30からの情報を受信する。
The
表示部25は、制御部21の制御に基づいて種々の情報を表示する。種々の情報は、例えば、ユーザの入力情報Iに関する情報およびサーバ30からの情報である。一例では、表示部25は、ディスプレイにより構成される。表示部25のディスプレイがタッチパネルで構成されていてもよい。表示部25の一部が、タッチパネルで構成される場合、タッチパネルの一部が取得部23のユーザインタフェースの機能を兼ねていてもよい。
The
ユーザは、例えばインターフェイス部20に所定のURLを入力すること、または、インターフェイス部20でQRコード(登録商標)を読み取ることによりサーバ30と通信する。ユーザが表示部25に表示されるアイコンを選択することにより、サーバ30との通信が開始されてもよい。
The user communicates with the
サーバ30は、情報取得部31、情報出力部32、情報解析部33、および、情報記憶部34を備える。情報取得部31は、情報が取得可能に構成される。一例では、情報取得部31は、インターフェイス部20の通信部24から情報を取得する。情報出力部32は、情報が出力可能に構成される。一例では、情報出力部32は、インターフェイス部20の通信部24に情報を出力する。
The
情報解析部33は、種々の解析および制御を実行する。情報解析部33は、予め定められる制御プログラムを実行する演算処理装置を含む。演算処理装置は、例えばCPUまたはMPUを含む。情報解析部33は、ユーザからの入力情報Iを解析可能に構成される。一例では、情報解析部33は第1解析手段で入力情報Iに含まれる口腔画像Pを解析する。第1解析手段は、機械学習による学習モデルによる解析を含む。学習モデルは、一例では機械学習のモデルの一つである教師あり学習モデルである。別の例では、学習モデルは教師なし学習モデル、または、強化学習モデルである。
The
情報記憶部34は、学習モデル、および、種々の情報の少なくとも1つを記憶する。情報解析部33は、必要に応じて情報記憶部34に記憶される学習モデル、および、種々の情報を参照する。
The
口腔状態評価システム10は、データベース40および外部端末50をさらに含む。データベース40は、第2口腔画像P2および第2解析結果の少なくとも1つを保存する。データベース40は、インターフェイス部20、サーバ30、および、外部端末50の少なくとも1つと通信可能に構成される。
The oral
外部端末50は、第2解析手段により第2口腔画像P2を解析するために用いられる。外部端末50は、一例ではスマートデバイスまたはパーソナルコンピュータである。外部端末50は、制御部51、記憶部52、通信部53、および、表示部54を含む。制御部51は、予め定められる制御プログラムを実行する演算処理装置を含む。演算処理装置は、例えばCPU、GPUまたはMPUを含む。
The
記憶部52は、制御部51が実行する各種の制御プログラムおよび各種の制御処理に用いられる情報が記憶される。記憶部52は、例えば不揮発性メモリおよび揮発性メモリを含む。不揮発性メモリは、例えば、ROM、EPROM、EEPROM、および、フラッシュメモリの少なくとも1つを含む。揮発性メモリは、例えば、RAMを含む。
The
通信部53は、制御部51の制御に基づいて外部端末50以外の要素と通信可能に構成される。一例では通信部53は、インターネット回線Nを介して通信可能に構成される。通信対象は、インターフェイス部20、サーバ30、および、データベース40の少なくとも1つである。
The
表示部54は、制御部51の制御に基づいて情報を表示する。表示する情報は、例えば、第2口腔画像P2である。一例では、表示部25は、ディスプレイにより構成される。表示部25のディスプレイは、タッチパネルで構成されていてもよい。
The
情報解析部33は、入力画像を口腔画像Pまたは非口腔画像に分類する。一例では、顔を検出することに適した学習済みモデルを利用して、入力画像から口腔領域Rが検出できるか否かにより口腔画像Pか非口腔画像かを判定する。口腔領域Rは、ユーザの上あごの歯を含む第1口腔領域R1およびユーザの下あごの歯を含む第2口腔領域R2を含む。顔を検出する学習済みモデルは、例えばAPIにより情報解析部33に導入される。非口腔画像は、例えば口腔領域Rが含まれない、画像がぶれている、または、画像の明るさが適切ではないことにより口腔領域Rが認識できない画像を含む。
The
情報解析部33は、入力画像が非口腔画像である場合口腔画像Pを含む入力情報Iを再度入力することをユーザに要求する情報をインターフェイス部20の表示部25に出力する。第1口腔領域R1および第2口腔領域R2の一方が取得でき、他方が取得できない場合、情報解析部33は、入力画像が口腔画像Pであると判断するように構成されていてもよく、非口腔画像と判断するように構成されていてもよい。
When the input image is a non-oral image, the
口腔画像Pは、第1口腔画像P1および第2口腔画像P2を含む。図2は、第1口腔画像P1の一例を示す。第1口腔画像P1は、解析学習モデルMAによる解析が可能と判断される画像である。図3は、第2口腔画像P2の一例を示す。第2口腔画像P2は、解析学習モデルMAによる解析が不可能と判断される画像である。第2口腔画像P2は、例えば口腔領域Rに歯の欠損、退縮、う蝕、詰め物を含む。図3に示される第2口腔画像P2は、一部の歯が欠損している。第1口腔画像P1は、第1解析手段により解析される。 The oral image P includes a first oral image P1 and a second oral image P2. FIG. 2 shows an example of the first oral cavity image P1. The first oral cavity image P1 is an image that can be analyzed by the analysis learning model MA. FIG. 3 shows an example of the second oral cavity image P2. The second oral cavity image P2 is an image that is determined to be impossible to analyze by the analysis learning model MA. The second oral image P2 includes, for example, a tooth defect, involution, caries, and padding in the oral region R. In the second oral cavity image P2 shown in FIG. 3, some teeth are missing. The first oral image P1 is analyzed by the first analysis means.
第1口腔画像P1は、少なくとも口腔内の第1特定部位を含む。第1特定部位は、中切歯T1、中切歯T1に対応する歯茎、側切歯T2、側切歯T2に対応する歯茎、犬歯T3、および、犬歯T3に対応する歯茎を含む。第1口腔画像P1は、口腔内の歯画像および歯茎画像を含む。歯画像は、口腔内の中切歯T1画像、側切歯T2画像、および、犬歯T3画像を含む。歯茎画像は、中切歯T1、側切歯T2、および、犬歯T3に対応する歯茎の画像を含む。第1口腔画像P1は、ユーザの口腔内における上下左右の4つの第1特定部位のうち、少なくとも1つの第1特定部位を含む。第1解析手段による第1口腔画像P1の解析結果は、第1解析結果として出力される。 The first oral image P1 includes at least the first specific site in the oral cavity. The first specific site includes a middle incisor T1, a tooth corresponding to the middle incisor T1, a side incisor T2, a tooth corresponding to the side incisor T2, a canine T3, and a tooth stem corresponding to the canine T3. The first oral image P1 includes a tooth image and a gum image in the oral cavity. Tooth images include intraoral central incisor T1 images, lateral incisor T2 images, and canine T3 images. The gingival image includes an image of the gingiva corresponding to the central incisor T1, the lateral incisor T2, and the canine T3. The first oral image P1 includes at least one first specific site among the four first specific sites on the top, bottom, left, and right in the user's oral cavity. The analysis result of the first oral cavity image P1 by the first analysis means is output as the first analysis result.
情報解析部33が実行する学習モデルを用いた口腔画像Pの解析について説明する。学習モデルは、第1口腔画像P1の口腔領域Rを解析する解析学習モデルMA、および、口腔画像Pを第1口腔画像P1および第2口腔画像P2に分類する分類学習モデルMCを少なくとも含む。
The analysis of the oral cavity image P using the learning model executed by the
各学習モデルは、およそ1万枚の口腔画像Pに基づいて開発された。開発者は、口腔画像Pを学習用画像、検証用画像、および、テスト用画像に分類した。学習用画像は、学習モデル作成時の教師ありデータである。検証用画像は、学習用画像に基づいた学習モデルの動作を修正するための画像である。テスト用画像は、学習モデルの動作を最終的に確認するための画像である。テスト用画像は、例えば学習モデルが過学習を起こしているか否かの確認のために使用される。学習用画像は、全体の約56パーセントである。検証用画像は、全体の約24%である。テスト用画像は、全体の20%である。 Each learning model was developed based on approximately 10,000 oral images P. The developer classified the oral image P into a learning image, a verification image, and a test image. The learning image is supervised data at the time of creating the learning model. The verification image is an image for modifying the behavior of the learning model based on the learning image. The test image is an image for finally confirming the operation of the learning model. The test image is used, for example, to confirm whether the learning model is overfitting. The learning image is about 56% of the whole. The verification image is about 24% of the whole. The test image is 20% of the total.
解析学習モデルMA作成のための第1口腔画像P1は、専門家により教師付けを行った。専門家は、例えば歯科医師、歯科衛生士、口腔状態の研究を行う研究者、または、口腔ケア用品の開発を行う開発者である。口腔を解析する専門家は、少なくとも第1口腔画像P1の第1口腔領域R1および第2口腔領域R2ごとに叢生の程度の判定、歯肉退縮の程度の判定、および歯間空隙の程度の判定を行った。口腔を解析する専門家は、叢生の程度の判定において叢生の種類に基づく判定を行った。口腔を解析する専門家は歯肉退縮の判定において、歯肉退縮なしから全体歯肉退縮まで複数の段階の判定を行った。口腔を解析する専門家は歯間空隙の判定において、上あごと下あごのそれぞれに対して、歯間空隙なしから重度の歯間空隙ありまで、複数の段階の評価を行った。 The first oral image P1 for creating the analytical learning model MA was supervised by an expert. Experts are, for example, dentists, dental hygienists, researchers who study oral conditions, or developers who develop oral care products. Experts who analyze the oral cavity determine the degree of crowding, the degree of gingival recession, and the degree of interdental space for at least the first oral region R1 and the second oral region R2 of the first oral image P1. gone. Experts analyzing the oral cavity made decisions based on the type of crowding in determining the degree of crowding. Experts who analyze the oral cavity made multiple stages of judgment of gingival recession, from no gingival recession to total gingival recession. Experts analyzing the oral cavity performed multiple stages of evaluation of the interdental space, from no interdental space to severe interdental space, for each of the upper and lower jaws.
解析学習モデルMAは、複数の学習済みモデルを含む。解析学習モデルMAは、口腔領域Rを評価できるか否かを判定する第1学習済みモデルM1と口腔領域Rを実際に評価する第2学習済みモデルM2を含む。 The analysis learning model MA includes a plurality of trained models. The analytical learning model MA includes a first trained model M1 for determining whether or not the oral region R can be evaluated and a second trained model M2 for actually evaluating the oral region R.
第1学習済みモデルM1は、口腔画像Pの口腔領域Rが解析可能な画質か否かをする学習モデルM11、叢生評価が可能か否かを判定する学習モデルM12、上あごの歯における歯間空隙評価が可能か否かを判定する学習モデルM13、下あごの歯における歯間空隙評価が可能か否かを判定する学習モデルM14、および、歯肉退縮評価が可能か否かを判定する学習モデルM15の少なくとも1つを含む。 The first trained model M1 is a learning model M11 that determines whether or not the oral region R of the oral image P can be analyzed, a learning model M12 that determines whether crowding evaluation is possible, and an interdental space in the upper jaw teeth. A learning model M13 for determining whether or not the void evaluation is possible, a learning model M14 for determining whether or not the interdental void evaluation in the lower jaw teeth is possible, and a learning model for determining whether or not the gingival retraction evaluation is possible. Includes at least one of M15.
第2学習済みモデルM2は、上あごの歯における叢生の有無を判定する学習モデルM21、下あごの歯における叢生の有無を判定する学習モデルM22、上あごの歯における歯間空隙の有無を判定する学習モデルM23、下あごの歯における歯間空隙の有無を判定する学習モデルM24、および、歯間退縮の有無を判定する学習モデルM25の少なくとも1つを含む。 The second trained model M2 is a learning model M21 for determining the presence or absence of crowding in the upper jaw teeth, a learning model M22 for determining the presence or absence of crowding in the lower jaw teeth, and a determination for the presence or absence of interdental gaps in the upper jaw teeth. It includes at least one of a learning model M23 for determining the presence or absence of interdental space in the lower jaw teeth, and a learning model M25 for determining the presence or absence of interdental retraction.
第1口腔画像P1を解析する解析学習モデルMAは、クラス分類の結果を出力する。解析学習モデルMAは、第1特定部位における歯間空隙、歯肉退縮、叢生、歯肉炎症、磨き残し、歯ぎしり、う蝕、知覚過敏、口臭、および、着色の有無または程度に関する情報、ユーザの口腔内に歯周病が存在するか否かに関する情報、咀嚼機能が正常か否かに関する情報、咬合が正常か否かに関する情報、嚥下機能が正常か否かに関する情報を出力する。 The analysis learning model MA that analyzes the first oral image P1 outputs the result of classification. The analytical learning model MA is an information on the interdental space, gingival retraction, crowding, gingival inflammation, unpolished, chewing, caries, hypersensitivity, halitosis, and the presence or absence or degree of coloring in the first specific site, in the user's oral cavity. It outputs information on whether or not periodontal disease is present, information on whether or not masticatory function is normal, information on whether or not occlusion is normal, and information on whether or not swallowing function is normal.
分類学習モデルMCは、一例では第1口腔画像P1を学習することで作成される。この場合、分類学習モデルMCは、口腔画像Pが第1口腔画像P1らしい特徴量を持つかに基づいて判断する。別の例では、分類学習モデルMCは、第2口腔画像P2を学習することで作成される。この場合、分類学習モデルMCは、口腔画像Pが第2口腔画像P2らしい特徴量を持つかに基づいて判断する。分類学習モデルMCは、第1口腔画像P1と第2口腔画像P2の両方を学習することで作成されてもよい。学習に用いられる口腔画像Pの第1口腔画像P1および第2口腔画像P2の分類は、専門家により実施される。 The classification learning model MC is created by learning the first oral image P1 in one example. In this case, the classification learning model MC determines whether the oral image P has a feature amount peculiar to the first oral image P1. In another example, the classification learning model MC is created by learning the second oral image P2. In this case, the classification learning model MC makes a judgment based on whether the oral image P has a feature amount peculiar to the second oral image P2. The classification learning model MC may be created by learning both the first oral image P1 and the second oral image P2. The classification of the first oral image P1 and the second oral image P2 of the oral image P used for learning is performed by a specialist.
口腔画像Pが第2口腔画像P2である場合、第1解析手段とは異なる第2解析手段により解析される。第2解析手段は、学習モデルによらない解析手段が含まれる。一例では、第2解析手段は、専門家による第2口腔画像P2の解析である。専門家による解析は、第1口腔画像P1に対する教師付けと同様の手法で実施される。専門家は、例えば外部端末50に表示される第2口腔画像P2を参照して、解析を実施する。第2解析手段は、検査用装置、および、検査用器具の少なくとも1つによる解析を含んでいてもよい。検査用装置による解析は、例えば第2口腔画像P2に映る口腔のユーザに対するレントゲン撮影である。検査用器具による解析は、例えば第2口腔画像P2に映る口腔のユーザに対するプローブを用いた検査である。
When the oral image P is the second oral image P2, it is analyzed by a second analysis means different from the first analysis means. The second analysis means includes analysis means that do not depend on the learning model. In one example, the second analysis means is the analysis of the second oral image P2 by an expert. The analysis by the expert is carried out in the same manner as the supervision for the first oral image P1. The expert performs the analysis with reference to, for example, the second oral cavity image P2 displayed on the
情報解析部33は、第2解析手段による解析結果である第2解析結果および第2口腔画像P2をサーバ30の外部に出力する。一例では、情報解析部33は、データベース40および外部端末50の少なくとも一方に出力する。
The
情報解析部33は、入力情報Iに基づいて出力情報Oを出力する。出力情報Oは、第1解析結果、第2解析結果、第3解析結果の少なくとも1つを含む。第1解析結果および第2解析結果は、所定状態の有無、程度、および、発生確率の少なくとも1つに関する情報を含む。第1解析結果および第2解析結果は、第1特定部位における歯間空隙、歯肉退縮、叢生、歯肉炎症、磨き残し、歯ぎしり、う蝕、知覚過敏、口臭、および、着色の有無または程度に関する情報、または、歯、歯茎、および、口腔粘膜の状態に関する情報の少なくとも1つを含む。歯、歯茎、および、口腔粘膜の状態に関する情報は、例えば歯の摩耗、歯の欠損、歯の破折の有無または程度、血色、乾燥状態、および、質感の少なくとも1つを含む。質感は、例えば指で触った場合に引き締まっていると感じられる硬めの質感と、指で触った場合にぶよぶよとしていると感じられる柔らかい質感とを含む複数の質感を含む。第1解析結果および第2解析結果は、ユーザの口腔内に歯周病が存在するか否かに関する情報、咀嚼機能が正常か否かに関する情報、咬合が正常か否かに関する情報、嚥下機能が正常か否かに関する情報の少なくとも1つを含んでいてもよい。歯周病が存在するか否かに関する情報は、歯肉と歯との間に生じるいわゆる歯周ポケットの大きさ、深さ、および数の少なくとも1つに関する情報である。咀嚼機能が正常か否かに関する情報は、例えば咀嚼力、偏咀嚼の有無、および、咀嚼音に関する情報である。咬合が正常か否かに関する情報は、例えば咬合力および上あごの歯と下あごの歯とのかみ合わせに関する情報である。嚥下機能が正常か否かに関する情報は、例えば嚥下障害の有無に関する情報である。第3解析結果は、入力された入力画像が非口腔画像であるという情報を含む。
The
解析学習モデルMAは、データベース40に保存される第2口腔画像P2および第2解析結果により、定期的に更新される。一例では、第2口腔画像P2が所定枚数以上データベース40に保存された場合である。所定枚数は、例えば100~1000枚の範囲に含まれる。具体的には、第2解析結果が対応付けられている所定枚数の第2口腔画像P2を学習用画像、検証用画像、および、テスト用画像に分類し、学習、検証、および、テストのステップを実行し、解析学習モデルMAを更新する。
The analysis learning model MA is periodically updated by the second oral image P2 and the second analysis result stored in the
分類学習モデルMCは、データベース40に記憶される第2口腔画像P2および第2解析結果により、定期的に更新される。一例では、第2口腔画像P2が所定枚数以上データベース40に保存された場合である。所定枚数は、例えば100~1000枚の範囲に含まれる。具体的には、第2解析結果が対応付けられている第2口腔画像P2を学習用画像、検証用画像、および、テスト用画像し、学習、検証、および、テストのステップを実行し、分類学習モデルMCを更新する。
The classification learning model MC is periodically updated by the second oral image P2 stored in the
図4を参照して、情報解析部33が実行する解析の手順の一例について説明する。情報解析部33は、以下に示される工程を定期的、または、入力画像が入力されるごとに実行する。
An example of the analysis procedure executed by the
ステップS11において、情報解析部33は、口腔画像Pが入力されたか否かを判定する。肯定判定の場合、情報解析部33は、ステップS12の処理を実行する。否定判定の場合、情報解析部33は、ステップS17の処理を実行する。
In step S11, the
ステップS12において、情報解析部33は、口腔画像Pを分類学習モデルMCにより第1口腔画像P1または第2口腔画像P2に分類する。
In step S12, the
ステップS13において、情報解析部33は、口腔画像Pが第1口腔画像P1か否かを判定する。肯定判定の場合、情報解析部33は、ステップS14の処理を実行する。否定判定の場合、ステップS16の処理を実行する。
In step S13, the
ステップS14において、情報解析部33は、第1解析手段により第1口腔画像P1を解析する。具体的には、解析学習モデルMAにより第1口腔画像P1を解析する。ステップS14の終了後、情報解析部33は、ステップS15の処理を実行する。
In step S14, the
ステップS15において、情報解析部33は、第1解析結果を出力する。具体的には、インターフェイス部20に出力する。インターフェイス部20の制御部21は、表示部25に第1解析結果を表示させる。
In step S15, the
ステップS16において、情報解析部33は、第2口腔画像P2を外部に出力する。具体的には、データベース40および外部端末50の少なくとも一方に出力する。外部端末50は、表示部54に第2口腔画像P2を表示させ、専門家が第2解析手段により解析する。専門家は、第2口腔画像P2の解析結果である第2解析結果をサーバ30およびデータベース40の少なくとも一方に出力する。
In step S16, the
ステップS17において、情報解析部33は、口腔画像が入力されておらず非口腔画像が入力されたことを示す情報を含む第3解析結果を出力する。具体的には、インターフェイス部20に出力する。
In step S17, the
ステップS18において、情報解析部33は、第2解析結果を受信したか否かを判定する。具体的には、情報解析部33は、口腔画像Pに対応する第2解析結果が外部端末50から受信したか否かを判定する。肯定判定の場合、情報解析部33は、ステップS19の処理を実行する。否定判定の場合、情報解析部33は、解析を終了する。
In step S18, the
ステップS19において、情報解析部33は、第2解析結果を出力する。具体的には、インターフェイス部20に出力する。インターフェイス部20の制御部21は、表示部25に第2解析結果を表示させる。
In step S19, the
本実施形態の口腔状態評価システム10の作用について説明する。ユーザは、インターフェイス部20の取得部23に対して入力画像を入力する。インターフェイス部20は、サーバ30に入力画像を出力する。サーバ30の情報解析部33は、入力画像を解析する。情報解析部33は、入力画像が第1口腔画像P1である場合第1解析結果をインターフェイス部20に出力する。情報解析部33は、入力画像が第2口腔画像P2である場合外部に出力する。出力先は、データベース40および外部端末50である。入力画像が口腔画像Pではない非口腔画像である場合、第3解析結果をインターフェイス部20に出力する。第2口腔画像は、外部端末50を介して専門家により解析される。外部端末50は、第2解析結果をサーバ30に出力する。情報解析部33は、第2解析結果をインターフェイス部20に出力する。ユーザは、インターフェイス部20の表示部25に表示される解析結果を参照することで、口腔状態を認識する。
The operation of the oral
本実施形態の口腔状態評価システム10によれば、以下の効果がさらに得られる。
第2解析手段による第2解析結果が、例えばインターフェイス部20に出力される。このため、第1解析手段による解析が不可能な入力情報Iの場合でも、ユーザは第2解析結果を参照することで、容易に口腔状態を認識できる。
According to the oral
The second analysis result by the second analysis means is output to, for example, the
解析学習モデルMAおよび分類学習モデルMCの少なくとも1つは、第2解析結果に応じて更新される。このため、第2口腔画像および第2解析結果がデータベースに保存されることに伴い、解析学習モデルMAおよび分類学習モデルMCの精度が向上する。 At least one of the analysis learning model MA and the classification learning model MC is updated according to the second analysis result. Therefore, the accuracy of the analysis learning model MA and the classification learning model MC is improved as the second oral image and the second analysis result are stored in the database.
(変形例)
実施の形態に関する説明は本発明に関する口腔状態評価システムが取り得る形態の例示であり、その形態を制限することを意図していない。本発明は実施形態以外に例えば以下に示される実施形態の変形例、および、相互に矛盾しない少なくとも2つの変形例が組み合わせられた形態を取り得る。
(Modification example)
The description of the embodiments is an example of possible forms of the oral condition evaluation system according to the present invention, and is not intended to limit the forms. In addition to the embodiments, the present invention may take, for example, a modification of the embodiment shown below and a combination of at least two modifications that do not contradict each other.
・解析学習モデルMAは、回帰分析の結果を出力するように構成されていてもよい。この場合、解析学習モデルMAは、叢生の程度、歯間空隙の程度、および、歯肉退縮の程度の少なくとも1つを数値化して出力する。 -The analysis learning model MA may be configured to output the result of regression analysis. In this case, the analysis learning model MA quantifies and outputs at least one of the degree of crowding, the degree of interdental space, and the degree of gingival recession.
・学習済みモデルM1および学習済みモデルM2の少なくとも一方は、教師なし学習または強化学習により学習されたモデルであってもよい。各学習モデルM11~M15および各学習モデルM21~M25の少なくとも1つが教師なし学習または強化学習により学習されたモデルであってもよい。 -At least one of the trained model M1 and the trained model M2 may be a model trained by unsupervised learning or reinforcement learning. At least one of each learning model M11 to M15 and each learning model M21 to M25 may be a model learned by unsupervised learning or reinforcement learning.
・解析学習モデルMAは、口腔画像Pにおいて第1口腔領域R1と第2口腔領域R2を区別することなく、評価が可能か否かを判定してもよい。解析学習モデルMAは、口腔画像Pにおいて、1組の歯および歯茎を認識して、評価が可能か否かを判定してもよい。また、口腔領域R内の1組の歯および歯茎をそれぞれ認識して、過半数が評価可能である場合に、解析を実行する解析学習モデルMAであってもよい。 -The analysis learning model MA may determine whether or not evaluation is possible without distinguishing between the first oral region R1 and the second oral region R2 in the oral image P. The analysis learning model MA may recognize a set of teeth and gums in the oral image P and determine whether or not the evaluation is possible. Further, it may be an analysis learning model MA that recognizes a set of teeth and gums in the oral cavity region R and executes an analysis when the majority can be evaluated.
・解析学習モデルMAは、口腔画像Pを疑似色で表示されるように構成されていてもよい。一例では、口腔画像Pにおいて学習モデルが解析に使用した領域、または、歯間空隙、歯肉退縮、および、叢生が生じている領域を赤色で表示する。ユーザは、解析に利用した領域および口腔状態に問題が生じている領域を容易に認識できる。 -The analysis learning model MA may be configured to display the oral image P in a pseudo color. In one example, the region used for analysis by the learning model in the oral image P, or the region where interdental space, gingival recession, and crowding occur is displayed in red. The user can easily recognize the area used for the analysis and the area where the oral condition has a problem.
取得部23の構成は、実施例に限定されない。一例では、取得部23はユーザが文字等を入力または選択できるように構成されたユーザインタフェースである。ユーザの入力情報Iは、ユーザの生活習慣に関する情報、ユーザの口腔内分泌物に関する情報、ユーザの口腔内細菌叢に関する情報、所定の質問に対する回答情報、および、ユーザ自身の属性に関する情報の少なくとも1つをさらに含んでいてもよい。ユーザの生活習慣に関する情報は、ユーザの食事内容、口腔ケア行動、起床または睡眠時間に関する情報を含む。ユーザの口腔内分泌物に関する情報は、唾液の量、粘性、水素イオン濃度、抗菌成分の量、および、歯の再石灰化に関する成分の量に関する情報を含む。ユーザの口腔内細菌叢に関する情報は、唾液中、歯垢、または粘膜に存在する主な細菌の量および種類に関する情報および主な細菌の抗体の種類および量に関する情報を含む。ユーザの口腔内分泌物に関する情報およびユーザの口腔内細菌叢に関する情報は、ユーザに対する問診の結果であってもよく、ユーザの口腔内に存在する口腔内分泌物等を所定の手段により検査した結果情報であってもよい。所定の質問に関する回答情報は、ユーザの歯茎の状態に関する質問、口腔ケア時の好みのブラッシング方法、1日の歯磨きの回数、1回あたりの歯磨きにかける時間、歯磨きを実施する時刻、および入れ歯の有無を含む。ユーザの歯茎の状態に関する質問は、例えばブラッシング時または飲食時の歯茎からの出血の有無を含む。ユーザ自身の属性に関する情報は、例えばユーザ自身の年齢、性別、身長、体重、利き腕、および、既往歴である。別の例では、取得部23は口腔内の状態を検出するセンサである。センサは、例えば蛍光センサおよび温度センサである。蛍光センサは、所定の波長の光を照射し、光の量を定量して口腔内における所定物の分布および量を測定する。所定物は、例えばステインまたはプラークである。温度センサは、口腔内の温度を測定する。センサは、制御部21と有線または無線通信が可能に構成される。センサにより得られる情報は、有線または無線通信により制御部21に送信される。センサは、咀嚼力、咬合力、歯茎の血流量、口臭、ブラッシング時のブラシ圧の強さ、または、ブラッシング時の歯ブラシの動きの少なくとも1つをさらに測定可能に構成されていてもよい。情報解析部33は、取得部23から取得される情報を加味して口腔画像Pを解析してもよい。
The configuration of the
・入力情報Iは、IoT機器を介して取得されてもよい。一例では、ブラッシングに使用する口腔ケアアイテムにIoT機器を接続することで、入力情報Iを取得する。一例では、入力情報Iは1日の歯磨きの回数および口腔ケアアイテムの使用頻度に関する情報を含む。IoT機器は、取得部23に対して入力情報Iを送信してもよく、サーバ30に対して入力情報Iを送信してもよい。
-The input information I may be acquired via the IoT device. In one example, input information I is acquired by connecting an IoT device to an oral care item used for brushing. In one example, input information I includes information about the number of tooth brushes per day and the frequency of use of oral care items. The IoT device may transmit the input information I to the
入力情報Iは、ユーザの現在の状態情報を含む第1入力情報I1とユーザの過去の状態情報である第2入力情報I2を含んでいてもよい。第1入力情報I1および第2入力情報I2がユーザの口腔画像Pを含む場合、第2入力情報I2に含まれる口腔画像Pは、第1入力情報I1を取得するよりも所定時間前のユーザの口腔内の画像である。第1入力情報I1および第2入力情報I2がユーザの口腔ケアに関する情報を含む場合、第2入力情報I2に含まれる口腔ケアに関する情報は、第1入力情報I1を取得するよりも所定時間前の口腔ケアに関する情報である。所定時間は、一例では1か月以上の時間である。別の例では、所定時間は1年以上の時間である。第2入力情報I2は、取得部23による第1入力情報I1の取得の前に通信部24を介してサーバ30に送信されてもよく、第1入力情報I1の送信と同時に通信部24を介してサーバ30に送信されてもよい。この場合、インターフェイス部20は、第2入力情報I2を少なくとも記憶する記憶部をさらに備える。入力情報Iは、第2入力情報I2よりも所定時間前に取得された第3入力情報I3をさらに含んでいてもよい。情報解析部33は、第1入力情報I1~第3入力情報I3の少なくとも1つを用いて推定情報Eを演算する。第3入力情報I3が追加されることにより、精度がさらに向上する。所定時間の間隔は、各入力情報Iで変更してもよい。入力情報Iは、第4入力情報以降の入力情報Iをさらに含んでいてもよい。
The input information I may include a first input information I1 including the current state information of the user and a second input information I2 which is the past state information of the user. When the first input information I1 and the second input information I2 include the oral image P of the user, the oral image P included in the second input information I2 is the user's oral image P included in the second input information I2 at a predetermined time before the acquisition of the first input information I1. It is an image in the oral cavity. When the first input information I1 and the second input information I2 include the information about the oral care of the user, the information about the oral care contained in the second input information I2 is a predetermined time before the acquisition of the first input information I1. Information about oral care. The predetermined time is, in one example, one month or more. In another example, the predetermined time is one year or more. The second input information I2 may be transmitted to the
データベース40は、サーバ30に設けられていてもよい。データベース40は、一例では情報記憶部34に設けられる。各学習モデル、および種々の情報の少なくとも1つがサーバ30の情報記憶部34以外の場所に記憶されていてもよい。一例では、インターフェイス部20に設けられる記憶部に記憶される。別の例では、データベース40に記憶される。
The
第1解析結果および第2解析結果は、口腔画像Pに含まれる第1特定部位以外の情報である推定情報を含んでいてもよい。一例では、第1解析結果および第2解析結果は、第2特定部位に関する情報を含む。第2特定部位は、口腔内の小臼歯および大臼歯の少なくとも1つを含む。推定情報は、口腔内の小臼歯および大臼歯に関する情報の少なくとも1つを含む。口腔内の第1特定部位における状態は、口腔内の第1特定部位とは異なる第2特定部位における状態と相関関係にある。一例では、40~70代の女性75人を対象とした試験において、前歯における歯肉の状態と奥歯における歯肉の状態とが高く相関している。すなわち、第1特定部位において歯肉退縮が発生している場合、第2特定部位においても歯肉退縮が発生している。歯間空隙および叢生の程度についても、同様である。 The first analysis result and the second analysis result may include estimation information which is information other than the first specific site included in the oral image P. In one example, the first analysis result and the second analysis result include information about the second specific site. The second specific site comprises at least one of the premolars and molars in the oral cavity. Estimated information includes at least one piece of information about premolars and molars in the oral cavity. The state at the first specific site in the oral cavity correlates with the state at the second specific site different from the first specific site in the oral cavity. In one example, in a study of 75 women in their 40s and 70s, the gingival condition in the anterior teeth and the gingival condition in the back teeth were highly correlated. That is, when gingival recession occurs at the first specific site, gingival recession also occurs at the second specific site. The same applies to the degree of interdental space and crowding.
第1解析結果および第2解析結果は、ユーザの将来の口腔状態予測に関する情報、ユーザに対する口腔ケア方法に関する情報、および、ユーザの口腔状態が影響をおよぼすユーザの健康状態に関する情報の少なくとも1つを含んでいてもよい。ユーザの将来の口腔予測に関する情報は、所定期間が経過後のユーザの口腔状態を示す推定画像を含む。ユーザに対する口腔ケア方法に関する情報は、ユーザの口腔状態に適した口腔ケア用品および使用方法に関する情報を含む。ユーザの口腔状態が影響をおよぼすユーザの健康状態に関する情報は、例えば歯周病または口腔状態に関連する口腔以外の健康状態に関する情報を含む。 The first analysis result and the second analysis result contain at least one of information on the prediction of the future oral condition of the user, information on the oral care method for the user, and information on the health condition of the user affected by the oral condition of the user. It may be included. Information about the user's future oral prediction includes an estimated image showing the user's oral condition after a predetermined period of time. Information on oral care methods for the user includes information on oral care products and usage methods suitable for the user's oral condition. Information about the user's health condition affected by the user's oral condition includes, for example, information about non-oral health related to periodontal disease or oral condition.
解析学習モデルMAおよび分類学習モデルMCの学習が完了した場合、情報解析部33が実行する、ステップS13、ステップS16、ステップS18、および、ステップS19の処理を省略してもよい。この場合、すべての口腔画像Pが第1解析手段により解析される。このため、ユーザは第1解析結果を参照することで口腔状態を認識できる。
When the learning of the analysis learning model MA and the classification learning model MC is completed, the processes of step S13, step S16, step S18, and step S19 executed by the
外部端末50に代えてまたは加えて、サーバ30とローカル接続されるその他の端末が設けられていてもよい。その他の端末は、第2解析手段により第2口腔画像P2を解析するために用いられる。その他の端末は、スマートデバイスまたはパーソナルコンピュータであってもよい。第2解析手段により第2口腔画像P2の解析に、外部端末50に代えてまたは加えて、インターフェイス部20で解析してもよい。
In place of or in addition to the
10 :口腔状態評価システム
20 :インターフェイス部
30 :サーバ
31 :情報取得部
32 :情報出力部
33 :情報解析部
34 :情報記憶部
40 :データベース
50 :外部端末
I :入力情報
O :出力情報
MA :解析学習モデル
MC :分類学習モデル
10: Oral condition evaluation system 20: Interface unit 30: Server 31: Information acquisition unit 32: Information output unit 33: Information analysis unit 34: Information storage unit 40: Database 50: External terminal I: Input information O: Output information MA: Analytical learning model MC: Classification learning model
Claims (10)
前記情報解析部は、前記口腔画像を前記第1解析手段で解析が可能である第1口腔画像および前記第1解析手段で解析が不可能である第2口腔画像に分類し、
前記第1口腔画像は、前記情報解析部により前記第1解析手段で解析され、
前記口腔画像が前記第2口腔画像である場合、前記第1解析手段とは異なる第2解析手段で解析される
口腔状態評価システム。 An oral condition evaluation system including an information analysis unit that analyzes an oral image included in an input image by a first analysis means.
The information analysis unit classifies the oral image into a first oral image that can be analyzed by the first analysis means and a second oral image that cannot be analyzed by the first analysis means.
The first oral cavity image is analyzed by the information analysis unit by the first analysis means.
When the oral image is the second oral image, the oral condition evaluation system is analyzed by a second analysis means different from the first analysis means.
前記第1解析手段による前記第1口腔画像の解析結果である第1解析結果が出力される
請求項1に記載の口腔状態評価システム。 The first analysis means includes analysis by an analysis learning model in which an image relating to the oral cavity is learned in advance.
The oral condition evaluation system according to claim 1, wherein the first analysis result, which is the analysis result of the first oral image by the first analysis means, is output.
前記第2解析手段による前記第2口腔画像の解析結果である第2解析結果が出力される
請求項2に記載の口腔状態評価システム。 The second analysis means includes analysis by at least one of a specialist, an inspection device, and an inspection instrument.
The oral condition evaluation system according to claim 2, wherein the second analysis result, which is the analysis result of the second oral image by the second analysis means, is output.
請求項3に記載の口腔状態評価システム。 The oral condition evaluation system according to claim 3, wherein at least one of the second oral image and the second analysis result is stored in a database.
請求項2~4のいずれか一項に記載の口腔状態評価システム。 The oral condition evaluation system according to any one of claims 2 to 4, wherein the information analysis unit executes classification of the first oral image and the second oral image by a classification learning model in which an image relating to the oral cavity is learned.
請求項5に記載の口腔状態評価システム。 The oral condition evaluation system according to claim 5, wherein at least one of the analysis learning model and the classification learning model is updated based on the analysis of the second oral image.
請求項6に記載の口腔状態評価システム。 The oral condition evaluation system according to claim 6, further comprising an external terminal that displays the second oral image and inputs the analysis result of the second oral image.
前記入力画像が前記非口腔画像である場合、第3解析結果を出力する
請求項1~7のいずれか一項に記載の口腔状態評価システム。 The information analysis unit further classifies the input image into the oral cavity image and the non-oral cavity image that does not include the oral cavity.
The oral condition evaluation system according to any one of claims 1 to 7, wherein when the input image is the non-oral image, the third analysis result is output.
請求項1~8のいずれか一項に記載の口腔状態評価システム。 The oral condition evaluation system according to any one of claims 1 to 8, further comprising an interface unit for acquiring the input image.
前記表示部は、第1解析結果、第2解析結果、および、第3解析結果の少なくとも1つを表示する
請求項9に記載の口腔状態評価システム。 The interface unit includes a display unit and has a display unit.
The oral condition evaluation system according to claim 9, wherein the display unit displays at least one of a first analysis result, a second analysis result, and a third analysis result.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020210608A JP2022097176A (en) | 2020-12-18 | 2020-12-18 | Oral cavity state evaluation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020210608A JP2022097176A (en) | 2020-12-18 | 2020-12-18 | Oral cavity state evaluation system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022097176A true JP2022097176A (en) | 2022-06-30 |
Family
ID=82165524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020210608A Pending JP2022097176A (en) | 2020-12-18 | 2020-12-18 | Oral cavity state evaluation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022097176A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024142809A1 (en) * | 2022-12-27 | 2024-07-04 | サンスター スイス エスエー | Evaluation device, evaluation method, evaluation system, and evaluation program |
-
2020
- 2020-12-18 JP JP2020210608A patent/JP2022097176A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024142809A1 (en) * | 2022-12-27 | 2024-07-04 | サンスター スイス エスエー | Evaluation device, evaluation method, evaluation system, and evaluation program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11707180B2 (en) | Digital dental examination and documentation | |
CN105832291B (en) | Tracking and prediction of tooth changes | |
WO2022085724A1 (en) | Oral condition evaluation system, oral care recommendation system, and oral condition notification system | |
Richter et al. | Incidence of caries lesions among patients treated with comprehensive orthodontics | |
JP7564637B2 (en) | Information processing system, information processing method, and control program | |
KR101710357B1 (en) | A system, engine and method for managing of oral care | |
KR20110125421A (en) | System and method for providing dental care service | |
JP2023162434A (en) | Support server of support system for extending healthy life expectancy | |
US20230026220A1 (en) | Oral health assessment for generating a dental treatment plan | |
US12076115B2 (en) | System and method for classification of dental health based on digital imagery | |
Baelum et al. | Defining and predicting outcomes of non‐surgical periodontal treatment: a 1‐yr follow‐up study | |
JP2022097176A (en) | Oral cavity state evaluation system | |
Sultan et al. | Does the dentist have a role in identifying patients with undiagnosed diabetes mellitus? | |
JP2022068485A (en) | Oral cavity state evaluation system | |
JP7102037B1 (en) | Programs, information processing equipment and information processing methods | |
KR20230147839A (en) | Personalized oral care product recommendation system and method thereof | |
JP2022068483A (en) | Oral cavity state evaluation system | |
JP2022068486A (en) | Oral condition notification system | |
JP2022068484A (en) | Oral care recommendation system | |
JP4426500B2 (en) | Evaluation method and apparatus for dental caries risk and program | |
JP7324735B2 (en) | IDENTIFICATION DEVICE, SCANNER SYSTEM, IDENTIFICATION METHOD, AND IDENTIFICATION PROGRAM | |
US20240266030A1 (en) | Method and terminal device for providing oral state information including periodontitis | |
KR102491837B1 (en) | A system and method for diagnosing the risk of dental caries and oral management using tooth surface coloring image data | |
JP7317171B2 (en) | Program, information processing device and information processing method | |
Sutor et al. | Effect of a powered and a manual toothbrush in subjects susceptible to gingival recession: A 36‐month randomized controlled clinical study |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240802 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240806 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241007 |