JP2022097176A - Oral cavity state evaluation system - Google Patents

Oral cavity state evaluation system Download PDF

Info

Publication number
JP2022097176A
JP2022097176A JP2020210608A JP2020210608A JP2022097176A JP 2022097176 A JP2022097176 A JP 2022097176A JP 2020210608 A JP2020210608 A JP 2020210608A JP 2020210608 A JP2020210608 A JP 2020210608A JP 2022097176 A JP2022097176 A JP 2022097176A
Authority
JP
Japan
Prior art keywords
oral
image
analysis
information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020210608A
Other languages
Japanese (ja)
Inventor
安里 太田
Anri Ota
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sunstar Inc
Original Assignee
Sunstar Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sunstar Inc filed Critical Sunstar Inc
Priority to JP2020210608A priority Critical patent/JP2022097176A/en
Publication of JP2022097176A publication Critical patent/JP2022097176A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Endoscopes (AREA)

Abstract

To provide an oral cavity state evaluation system capable of suitable analysis and estimation of an oral cavity image.SOLUTION: The oral cavity state evaluation system includes an information analysis part which analyzes an oral cavity image included in an input image with first analysis means. The information analysis part classifies the oral cavity image into a first oral cavity image which can be analyzed with the first analysis means and a second oral cavity image which cannot be analyzed with the first analysis means. The first oral cavity image is analyzed with the first analysis means by the information analysis part and in a case where the oral cavity image is the second oral cavity image, the oral cavity image is analyzed with second analysis means different from the first analysis means.SELECTED DRAWING: Figure 1

Description

本開示は、ユーザの口腔状態を評価する口腔状態評価システムに関する。 The present disclosure relates to an oral condition evaluation system for evaluating a user's oral condition.

口腔内全体を含む口腔画像から口腔状態を分析し、歯科医師等の専門家による判断を補助するシステムが知られている。特許文献1は、ユーザの口腔内全体を撮影したX線画像から、病変箇所を抽出する歯科分析システムを開示する。 There is known a system that analyzes the oral condition from an oral image including the entire oral cavity and assists a judgment by a specialist such as a dentist. Patent Document 1 discloses a dental analysis system that extracts a lesion site from an X-ray image of the entire oral cavity of a user.

特開2019-208831号公報Japanese Unexamined Patent Publication No. 2019-208831

口腔状態は、ユーザが高齢になるにつれてユーザごとの多様性が増加する。多様性は、一例では後天的な歯の欠損、う蝕、および、治療により生じる。多様性のある口腔状態を反映した口腔画像は、1つの手段では適切な解析および評価が実施できない場合がある。 The oral condition becomes more diverse for each user as the user gets older. Diversity arises, in one case, from acquired tooth loss, caries, and treatment. Oral images that reflect diverse oral conditions may not be properly analyzed and evaluated by one means.

本発明に関する口腔状態評価システムは、入力画像に含まれる口腔画像を第1解析手段で解析する情報解析部を含む口腔状態評価システムであって、前記情報解析部は、前記口腔画像を前記第1解析手段で解析が可能である第1口腔画像および前記第1解析手段で解析が不可能である第2口腔画像に分類し、前記第1口腔画像は、前記情報解析部により前記第1解析手段で解析され、前記口腔画像が前記第2口腔画像である場合、前記第1解析手段とは異なる第2解析手段で解析される。 The oral condition evaluation system according to the present invention is an oral condition evaluation system including an information analysis unit that analyzes the oral image included in the input image by the first analysis means, and the information analysis unit analyzes the oral image by the first analysis unit. The first oral cavity image that can be analyzed by the analysis means and the second oral cavity image that cannot be analyzed by the first analysis means are classified, and the first oral cavity image is the first analysis means by the information analysis unit. When the oral cavity image is the second oral cavity image, it is analyzed by a second analysis means different from the first analysis means.

本発明に関する口腔状態評価システムによれば、口腔画像の適切な解析および評価が実施できる。 According to the oral condition evaluation system according to the present invention, appropriate analysis and evaluation of oral images can be performed.

実施形態の口腔状態評価システムの構成を示すブロック図。The block diagram which shows the structure of the oral condition evaluation system of embodiment. 第1口腔画像の一例を示す図。The figure which shows an example of the 1st oral cavity image. 第2口腔画像の一例を示す図。The figure which shows an example of the 2nd oral cavity image. 情報解析部が実行する口腔画像の解析の一例を示すフローチャート。The flowchart which shows an example of the analysis of the oral cavity image performed by the information analysis part.

(口腔状態評価システムが取り得る形態の一例)
(1)本開示に関する口腔状態評価システムによれば、入力画像に含まれる口腔画像を第1解析手段で解析する情報解析部を含む口腔状態評価システムであって、前記情報解析部は、前記口腔画像を前記第1解析手段で解析が可能である第1口腔画像および前記第1解析手段で解析が不可能である第2口腔画像に分類し、前記第1口腔画像は、前記情報解析部により前記第1解析手段で解析され、前記口腔画像が前記第2口腔画像である場合、前記第1解析手段とは異なる第2解析手段で解析される。
上記口腔状態評価システムによれば、口腔画像を第1口腔画像および第2口腔画像に分類し、第1口腔画像を第1解析手段で解析し、第2口腔画像である場合は第2解析手段で解析する。このため、口腔画像の適切な解析および評価が実施される。
(Example of possible forms of oral condition evaluation system)
(1) According to the oral condition evaluation system according to the present disclosure, the oral condition evaluation system includes an information analysis unit that analyzes the oral image included in the input image by the first analysis means, and the information analysis unit is the oral cavity. The images are classified into a first oral cavity image that can be analyzed by the first analysis means and a second oral cavity image that cannot be analyzed by the first analysis means, and the first oral cavity image is obtained by the information analysis unit. It is analyzed by the first analysis means, and when the oral image is the second oral image, it is analyzed by a second analysis means different from the first analysis means.
According to the oral condition evaluation system, the oral image is classified into a first oral image and a second oral image, the first oral image is analyzed by the first analysis means, and in the case of the second oral image, the second analysis means. Analyze with. Therefore, appropriate analysis and evaluation of oral images are performed.

(2)前記口腔状態評価システムの一例によれば、前記第1解析手段は、口腔に関する画像を予め学習した解析学習モデルによる解析を含み、前記第1解析手段による前記第1口腔画像の解析結果である第1解析結果が出力される。
上記口腔状態評価システムによれば、第1解析手段による第1解析結果によりユーザが口腔状態を適切に認識できる。
(2) According to an example of the oral condition evaluation system, the first analysis means includes analysis by an analysis learning model in which an image relating to the oral cavity is learned in advance, and the analysis result of the first oral image by the first analysis means. The first analysis result is output.
According to the oral condition evaluation system, the user can appropriately recognize the oral condition from the first analysis result by the first analysis means.

(3)前記口腔状態評価システムの一例によれば、前記第2解析手段は、専門家、検査用装置、および、検査用器具の少なくとも1つによる解析を含み、前記第2解析手段による前記第2口腔画像の解析結果である第2解析結果が出力される。
上記口腔状態評価システムによれば、第2解析手段による第2解析結果によりユーザが口腔状態を適切に認識できる。
(3) According to an example of the oral condition evaluation system, the second analysis means includes analysis by at least one of a specialist, an inspection device, and an inspection instrument, and the second analysis means by the second analysis means. 2 The second analysis result, which is the analysis result of the oral image, is output.
According to the oral condition evaluation system, the user can appropriately recognize the oral condition by the second analysis result by the second analysis means.

(4)前記口腔状態評価システムの一例によれば、前記第2口腔画像および前記第2解析結果の少なくとも1つは、データベースに保存される。
上記口腔状態評価システムによれば、第2口腔画像に関する情報が好適に保存される。
(4) According to an example of the oral condition evaluation system, at least one of the second oral image and the second analysis result is stored in a database.
According to the oral condition evaluation system, information regarding the second oral image is preferably stored.

(5)前記口腔状態評価システムの一例によれば、前記情報解析部は、前記第1口腔画像および前記第2口腔画像の分類を口腔に関する画像を学習した分類学習モデルにより実行する。
上記口腔状態評価システムによれば、第1口腔画像と第2口腔画像とを好適に分類できる。
(5) According to an example of the oral condition evaluation system, the information analysis unit executes classification of the first oral image and the second oral image by a classification learning model in which images related to the oral cavity are learned.
According to the oral condition evaluation system, the first oral image and the second oral image can be suitably classified.

(6)前記口腔状態評価システムの一例によれば、前記解析学習モデルおよび前記分類学習モデルの少なくとも1つは、前記第2口腔画像の解析に基づいて更新される。
上記口腔状態評価システムによれば、第2口腔画像に関する情報により学習モデルが更新されるため、学習モデルの精度が向上する。
(6) According to an example of the oral condition evaluation system, at least one of the analysis learning model and the classification learning model is updated based on the analysis of the second oral image.
According to the oral condition evaluation system, the learning model is updated by the information about the second oral image, so that the accuracy of the learning model is improved.

(7)前記口腔状態評価システムの一例によれば、前記第2口腔画像を表示し、前記第2口腔画像の解析結果を入力する外部端末をさらに含む。
上記口腔状態評価システムによれば、インターフェイス部とは異なる外部端末により例えば専門家による解析が容易に実施できる。
(7) According to an example of the oral condition evaluation system, an external terminal that displays the second oral image and inputs the analysis result of the second oral image is further included.
According to the oral condition evaluation system, for example, analysis by an expert can be easily performed by an external terminal different from the interface unit.

(8)前記口腔状態評価システムの一例によれば、前記情報解析部は、前記入力画像を前記口腔画像および口腔を含まない非口腔画像にさらに分類し、前記入力画像が前記非口腔画像である場合、第3解析結果を出力する。
上記口腔状態評価システムによれば、第3解析結果により、ユーザは入力画像が適切ではないことを容易に認識できる。
(8) According to an example of the oral condition evaluation system, the information analysis unit further classifies the input image into the oral image and the non-oral image not including the oral cavity, and the input image is the non-oral image. If so, the third analysis result is output.
According to the oral condition evaluation system, the user can easily recognize that the input image is not appropriate based on the third analysis result.

(9)前記口腔状態評価システムの一例によれば、前記入力画像を取得するインターフェイス部をさらに備える。
上記口腔状態評価システムによれば、入力画像をユーザが好適に入力できる。
(9) According to an example of the oral condition evaluation system, an interface unit for acquiring the input image is further provided.
According to the oral condition evaluation system, the user can suitably input the input image.

(10)前記口腔状態評価システムの一例によれば、前記インターフェイス部は、表示部を備え、前記表示部は、第1解析結果、第2解析結果、および、第3解析結果の少なくとも1つを表示する。
上記口腔状態評価システムによれば、第1解析結果、第2解析結果、および、第3解析結果の少なくとも1つをユーザが容易に認識できる。
(10) According to an example of the oral condition evaluation system, the interface unit includes a display unit, and the display unit has at least one of a first analysis result, a second analysis result, and a third analysis result. indicate.
According to the oral condition evaluation system, the user can easily recognize at least one of the first analysis result, the second analysis result, and the third analysis result.

(実施形態)
図1から図4を参照して、本実施形態の口腔状態評価システム10について説明する。口腔状態評価システム10は、口腔状態に関する入力情報Iを取得および解析し出力情報Oを出力するシステムである。口腔状態評価システム10を構成する主な要素は、サーバ30である。好ましくは、口腔状態評価システム10は、サーバ30と情報のやり取りを実行するためのインターフェイス部20を備える。インターフェイス部20は、一例ではユーザが持ち運び可能に構成されたスマートデバイスである。スマートデバイスは、タブレット端末またはスマートフォンを含む。別の例では、インターフェイス部20は、パーソナルコンピュータである。パーソナルコンピュータは、ユーザの住居、店舗または歯科医院に設置される。店舗は、口腔ケアアイテムを販売する店舗またはその他商品を販売する店舗を含む。インターフェイス部20とサーバ30とは、例えばインターネット回線Nを使用して互いに通信可能に構成される。別の例では、インターフェイス部20とサーバ30とは一体で構成される。
(Embodiment)
The oral condition evaluation system 10 of the present embodiment will be described with reference to FIGS. 1 to 4. The oral condition evaluation system 10 is a system that acquires and analyzes input information I regarding the oral condition and outputs output information O. The main element constituting the oral condition evaluation system 10 is the server 30. Preferably, the oral condition evaluation system 10 includes an interface unit 20 for executing information exchange with the server 30. The interface unit 20 is, for example, a smart device configured to be portable by a user. Smart devices include tablet devices or smartphones. In another example, the interface unit 20 is a personal computer. The personal computer is installed in the user's residence, store or dental office. Stores include stores that sell oral care items or other products. The interface unit 20 and the server 30 are configured to be able to communicate with each other using, for example, the Internet line N. In another example, the interface unit 20 and the server 30 are integrally configured.

インターフェイス部20は、制御部21、記憶部22、取得部23、通信部24、および、表示部25を備える。制御部21は、予め定められる制御プログラムを実行する演算処理装置を含む。演算処理装置は、例えばCPU、GPUまたはMPUを含む。 The interface unit 20 includes a control unit 21, a storage unit 22, an acquisition unit 23, a communication unit 24, and a display unit 25. The control unit 21 includes an arithmetic processing device that executes a predetermined control program. The arithmetic processing unit includes, for example, a CPU, GPU or MPU.

記憶部22は、制御部21が実行する各種の制御プログラムおよび各種の制御処理に用いられる情報が記憶される。記憶部22は、例えば不揮発性メモリおよび揮発性メモリを含む。不揮発性メモリは、例えば、ROM、EPROM、EEPROM、および、フラッシュメモリの少なくとも1つを含む。揮発性メモリは、例えば、RAMを含む。 The storage unit 22 stores various control programs executed by the control unit 21 and information used for various control processes. The storage unit 22 includes, for example, a non-volatile memory and a volatile memory. The non-volatile memory includes, for example, at least one of ROM, EPROM, EEPROM, and flash memory. Volatile memory includes, for example, RAM.

取得部23は、ユーザから入力情報Iを取得する。取得部23は、ユーザの入力情報Iを取得するための任意の構成を備える。一例では、入力情報Iはユーザの口腔の口腔画像Pを入力画像として取得できるカメラである。入力画像は、静止画および動画を含む。入力画像は、奥行き情報を有する3次元画像または複数の画像を張り合わせることにより構成されるパノラマ画像を含む。カメラは、スマートデバイスに搭載されるカメラであってもよく、別途独立したカメラであってもよい。独立したカメラは、例えば口腔内の撮影に適する先端部にカメラが設けられたペン型のカメラまたは360°の範囲の撮影が可能なカメラである。独立したカメラは、制御部21と有線または無線通信が可能に構成される。独立したカメラが撮影した入力画像は、有線又は無線通信により制御部21に送信される。 The acquisition unit 23 acquires the input information I from the user. The acquisition unit 23 includes an arbitrary configuration for acquiring the input information I of the user. In one example, the input information I is a camera capable of acquiring an oral image P of the user's oral cavity as an input image. Input images include still images and moving images. The input image includes a three-dimensional image having depth information or a panoramic image composed by laminating a plurality of images. The camera may be a camera mounted on a smart device, or may be a separately independent camera. The independent camera is, for example, a pen-type camera provided with a camera at the tip suitable for photographing in the oral cavity or a camera capable of photographing in a range of 360 °. The independent camera is configured to enable wired or wireless communication with the control unit 21. The input image taken by the independent camera is transmitted to the control unit 21 by wired or wireless communication.

通信部24は、制御部21の制御に基づいてインターフェイス部20外と通信可能に構成される。通信部24は、インターネット回線Nを介して通信可能に構成される。通信部24は、有線通信または無線通信によりインターフェイス部20のサーバ30と通信可能に構成されていてもよい。通信部24は、例えば取得部23が取得したユーザの入力情報Iを制御部21の制御に基づいて送信し、サーバ30からの情報を受信する。 The communication unit 24 is configured to be able to communicate with the outside of the interface unit 20 based on the control of the control unit 21. The communication unit 24 is configured to be able to communicate via the Internet line N. The communication unit 24 may be configured to be able to communicate with the server 30 of the interface unit 20 by wired communication or wireless communication. For example, the communication unit 24 transmits the user input information I acquired by the acquisition unit 23 under the control of the control unit 21, and receives the information from the server 30.

表示部25は、制御部21の制御に基づいて種々の情報を表示する。種々の情報は、例えば、ユーザの入力情報Iに関する情報およびサーバ30からの情報である。一例では、表示部25は、ディスプレイにより構成される。表示部25のディスプレイがタッチパネルで構成されていてもよい。表示部25の一部が、タッチパネルで構成される場合、タッチパネルの一部が取得部23のユーザインタフェースの機能を兼ねていてもよい。 The display unit 25 displays various information based on the control of the control unit 21. The various information is, for example, information about the user's input information I and information from the server 30. In one example, the display unit 25 is composed of a display. The display of the display unit 25 may be composed of a touch panel. When a part of the display unit 25 is composed of a touch panel, a part of the touch panel may also serve as a user interface function of the acquisition unit 23.

ユーザは、例えばインターフェイス部20に所定のURLを入力すること、または、インターフェイス部20でQRコード(登録商標)を読み取ることによりサーバ30と通信する。ユーザが表示部25に表示されるアイコンを選択することにより、サーバ30との通信が開始されてもよい。 The user communicates with the server 30 by, for example, inputting a predetermined URL in the interface unit 20 or reading a QR code (registered trademark) in the interface unit 20. Communication with the server 30 may be started by the user selecting an icon displayed on the display unit 25.

サーバ30は、情報取得部31、情報出力部32、情報解析部33、および、情報記憶部34を備える。情報取得部31は、情報が取得可能に構成される。一例では、情報取得部31は、インターフェイス部20の通信部24から情報を取得する。情報出力部32は、情報が出力可能に構成される。一例では、情報出力部32は、インターフェイス部20の通信部24に情報を出力する。 The server 30 includes an information acquisition unit 31, an information output unit 32, an information analysis unit 33, and an information storage unit 34. The information acquisition unit 31 is configured so that information can be acquired. In one example, the information acquisition unit 31 acquires information from the communication unit 24 of the interface unit 20. The information output unit 32 is configured to be able to output information. In one example, the information output unit 32 outputs information to the communication unit 24 of the interface unit 20.

情報解析部33は、種々の解析および制御を実行する。情報解析部33は、予め定められる制御プログラムを実行する演算処理装置を含む。演算処理装置は、例えばCPUまたはMPUを含む。情報解析部33は、ユーザからの入力情報Iを解析可能に構成される。一例では、情報解析部33は第1解析手段で入力情報Iに含まれる口腔画像Pを解析する。第1解析手段は、機械学習による学習モデルによる解析を含む。学習モデルは、一例では機械学習のモデルの一つである教師あり学習モデルである。別の例では、学習モデルは教師なし学習モデル、または、強化学習モデルである。 The information analysis unit 33 executes various analyzes and controls. The information analysis unit 33 includes an arithmetic processing device that executes a predetermined control program. The arithmetic processing unit includes, for example, a CPU or an MPU. The information analysis unit 33 is configured to be able to analyze the input information I from the user. In one example, the information analysis unit 33 analyzes the oral image P included in the input information I by the first analysis means. The first analysis means includes analysis by a learning model by machine learning. The learning model is, for example, a supervised learning model, which is one of the models of machine learning. In another example, the learning model is an unsupervised learning model or a reinforcement learning model.

情報記憶部34は、学習モデル、および、種々の情報の少なくとも1つを記憶する。情報解析部33は、必要に応じて情報記憶部34に記憶される学習モデル、および、種々の情報を参照する。 The information storage unit 34 stores at least one of the learning model and various information. The information analysis unit 33 refers to a learning model stored in the information storage unit 34 and various information as needed.

口腔状態評価システム10は、データベース40および外部端末50をさらに含む。データベース40は、第2口腔画像P2および第2解析結果の少なくとも1つを保存する。データベース40は、インターフェイス部20、サーバ30、および、外部端末50の少なくとも1つと通信可能に構成される。 The oral condition evaluation system 10 further includes a database 40 and an external terminal 50. The database 40 stores at least one of the second oral image P2 and the second analysis result. The database 40 is configured to be communicable with at least one of the interface unit 20, the server 30, and the external terminal 50.

外部端末50は、第2解析手段により第2口腔画像P2を解析するために用いられる。外部端末50は、一例ではスマートデバイスまたはパーソナルコンピュータである。外部端末50は、制御部51、記憶部52、通信部53、および、表示部54を含む。制御部51は、予め定められる制御プログラムを実行する演算処理装置を含む。演算処理装置は、例えばCPU、GPUまたはMPUを含む。 The external terminal 50 is used to analyze the second oral image P2 by the second analysis means. The external terminal 50 is, for example, a smart device or a personal computer. The external terminal 50 includes a control unit 51, a storage unit 52, a communication unit 53, and a display unit 54. The control unit 51 includes an arithmetic processing device that executes a predetermined control program. The arithmetic processing unit includes, for example, a CPU, GPU or MPU.

記憶部52は、制御部51が実行する各種の制御プログラムおよび各種の制御処理に用いられる情報が記憶される。記憶部52は、例えば不揮発性メモリおよび揮発性メモリを含む。不揮発性メモリは、例えば、ROM、EPROM、EEPROM、および、フラッシュメモリの少なくとも1つを含む。揮発性メモリは、例えば、RAMを含む。 The storage unit 52 stores various control programs executed by the control unit 51 and information used for various control processes. The storage unit 52 includes, for example, a non-volatile memory and a volatile memory. The non-volatile memory includes, for example, at least one of ROM, EPROM, EEPROM, and flash memory. Volatile memory includes, for example, RAM.

通信部53は、制御部51の制御に基づいて外部端末50以外の要素と通信可能に構成される。一例では通信部53は、インターネット回線Nを介して通信可能に構成される。通信対象は、インターフェイス部20、サーバ30、および、データベース40の少なくとも1つである。 The communication unit 53 is configured to be able to communicate with an element other than the external terminal 50 based on the control of the control unit 51. In one example, the communication unit 53 is configured to be able to communicate via the Internet line N. The communication target is at least one of the interface unit 20, the server 30, and the database 40.

表示部54は、制御部51の制御に基づいて情報を表示する。表示する情報は、例えば、第2口腔画像P2である。一例では、表示部25は、ディスプレイにより構成される。表示部25のディスプレイは、タッチパネルで構成されていてもよい。 The display unit 54 displays information based on the control of the control unit 51. The information to be displayed is, for example, the second oral cavity image P2. In one example, the display unit 25 is composed of a display. The display of the display unit 25 may be composed of a touch panel.

情報解析部33は、入力画像を口腔画像Pまたは非口腔画像に分類する。一例では、顔を検出することに適した学習済みモデルを利用して、入力画像から口腔領域Rが検出できるか否かにより口腔画像Pか非口腔画像かを判定する。口腔領域Rは、ユーザの上あごの歯を含む第1口腔領域R1およびユーザの下あごの歯を含む第2口腔領域R2を含む。顔を検出する学習済みモデルは、例えばAPIにより情報解析部33に導入される。非口腔画像は、例えば口腔領域Rが含まれない、画像がぶれている、または、画像の明るさが適切ではないことにより口腔領域Rが認識できない画像を含む。 The information analysis unit 33 classifies the input image into an oral image P or a non-oral image. In one example, a trained model suitable for detecting a face is used to determine whether it is an oral image P or a non-oral image depending on whether the oral region R can be detected from the input image. The oral region R includes a first oral region R1 including the teeth of the user's upper jaw and a second oral region R2 including the teeth of the user's lower jaw. The trained model for detecting the face is introduced into the information analysis unit 33 by, for example, API. The non-oral image includes, for example, an image in which the oral region R cannot be recognized because the oral region R is not included, the image is blurred, or the brightness of the image is not appropriate.

情報解析部33は、入力画像が非口腔画像である場合口腔画像Pを含む入力情報Iを再度入力することをユーザに要求する情報をインターフェイス部20の表示部25に出力する。第1口腔領域R1および第2口腔領域R2の一方が取得でき、他方が取得できない場合、情報解析部33は、入力画像が口腔画像Pであると判断するように構成されていてもよく、非口腔画像と判断するように構成されていてもよい。 When the input image is a non-oral image, the information analysis unit 33 outputs information requesting the user to re-input the input information I including the oral image P to the display unit 25 of the interface unit 20. When one of the first oral region R1 and the second oral region R2 can be acquired and the other cannot be acquired, the information analysis unit 33 may be configured to determine that the input image is the oral image P. It may be configured to be judged as an oral image.

口腔画像Pは、第1口腔画像P1および第2口腔画像P2を含む。図2は、第1口腔画像P1の一例を示す。第1口腔画像P1は、解析学習モデルMAによる解析が可能と判断される画像である。図3は、第2口腔画像P2の一例を示す。第2口腔画像P2は、解析学習モデルMAによる解析が不可能と判断される画像である。第2口腔画像P2は、例えば口腔領域Rに歯の欠損、退縮、う蝕、詰め物を含む。図3に示される第2口腔画像P2は、一部の歯が欠損している。第1口腔画像P1は、第1解析手段により解析される。 The oral image P includes a first oral image P1 and a second oral image P2. FIG. 2 shows an example of the first oral cavity image P1. The first oral cavity image P1 is an image that can be analyzed by the analysis learning model MA. FIG. 3 shows an example of the second oral cavity image P2. The second oral cavity image P2 is an image that is determined to be impossible to analyze by the analysis learning model MA. The second oral image P2 includes, for example, a tooth defect, involution, caries, and padding in the oral region R. In the second oral cavity image P2 shown in FIG. 3, some teeth are missing. The first oral image P1 is analyzed by the first analysis means.

第1口腔画像P1は、少なくとも口腔内の第1特定部位を含む。第1特定部位は、中切歯T1、中切歯T1に対応する歯茎、側切歯T2、側切歯T2に対応する歯茎、犬歯T3、および、犬歯T3に対応する歯茎を含む。第1口腔画像P1は、口腔内の歯画像および歯茎画像を含む。歯画像は、口腔内の中切歯T1画像、側切歯T2画像、および、犬歯T3画像を含む。歯茎画像は、中切歯T1、側切歯T2、および、犬歯T3に対応する歯茎の画像を含む。第1口腔画像P1は、ユーザの口腔内における上下左右の4つの第1特定部位のうち、少なくとも1つの第1特定部位を含む。第1解析手段による第1口腔画像P1の解析結果は、第1解析結果として出力される。 The first oral image P1 includes at least the first specific site in the oral cavity. The first specific site includes a middle incisor T1, a tooth corresponding to the middle incisor T1, a side incisor T2, a tooth corresponding to the side incisor T2, a canine T3, and a tooth stem corresponding to the canine T3. The first oral image P1 includes a tooth image and a gum image in the oral cavity. Tooth images include intraoral central incisor T1 images, lateral incisor T2 images, and canine T3 images. The gingival image includes an image of the gingiva corresponding to the central incisor T1, the lateral incisor T2, and the canine T3. The first oral image P1 includes at least one first specific site among the four first specific sites on the top, bottom, left, and right in the user's oral cavity. The analysis result of the first oral cavity image P1 by the first analysis means is output as the first analysis result.

情報解析部33が実行する学習モデルを用いた口腔画像Pの解析について説明する。学習モデルは、第1口腔画像P1の口腔領域Rを解析する解析学習モデルMA、および、口腔画像Pを第1口腔画像P1および第2口腔画像P2に分類する分類学習モデルMCを少なくとも含む。 The analysis of the oral cavity image P using the learning model executed by the information analysis unit 33 will be described. The learning model includes at least an analysis learning model MA that analyzes the oral region R of the first oral image P1 and a classification learning model MC that classifies the oral image P into the first oral image P1 and the second oral image P2.

各学習モデルは、およそ1万枚の口腔画像Pに基づいて開発された。開発者は、口腔画像Pを学習用画像、検証用画像、および、テスト用画像に分類した。学習用画像は、学習モデル作成時の教師ありデータである。検証用画像は、学習用画像に基づいた学習モデルの動作を修正するための画像である。テスト用画像は、学習モデルの動作を最終的に確認するための画像である。テスト用画像は、例えば学習モデルが過学習を起こしているか否かの確認のために使用される。学習用画像は、全体の約56パーセントである。検証用画像は、全体の約24%である。テスト用画像は、全体の20%である。 Each learning model was developed based on approximately 10,000 oral images P. The developer classified the oral image P into a learning image, a verification image, and a test image. The learning image is supervised data at the time of creating the learning model. The verification image is an image for modifying the behavior of the learning model based on the learning image. The test image is an image for finally confirming the operation of the learning model. The test image is used, for example, to confirm whether the learning model is overfitting. The learning image is about 56% of the whole. The verification image is about 24% of the whole. The test image is 20% of the total.

解析学習モデルMA作成のための第1口腔画像P1は、専門家により教師付けを行った。専門家は、例えば歯科医師、歯科衛生士、口腔状態の研究を行う研究者、または、口腔ケア用品の開発を行う開発者である。口腔を解析する専門家は、少なくとも第1口腔画像P1の第1口腔領域R1および第2口腔領域R2ごとに叢生の程度の判定、歯肉退縮の程度の判定、および歯間空隙の程度の判定を行った。口腔を解析する専門家は、叢生の程度の判定において叢生の種類に基づく判定を行った。口腔を解析する専門家は歯肉退縮の判定において、歯肉退縮なしから全体歯肉退縮まで複数の段階の判定を行った。口腔を解析する専門家は歯間空隙の判定において、上あごと下あごのそれぞれに対して、歯間空隙なしから重度の歯間空隙ありまで、複数の段階の評価を行った。 The first oral image P1 for creating the analytical learning model MA was supervised by an expert. Experts are, for example, dentists, dental hygienists, researchers who study oral conditions, or developers who develop oral care products. Experts who analyze the oral cavity determine the degree of crowding, the degree of gingival recession, and the degree of interdental space for at least the first oral region R1 and the second oral region R2 of the first oral image P1. gone. Experts analyzing the oral cavity made decisions based on the type of crowding in determining the degree of crowding. Experts who analyze the oral cavity made multiple stages of judgment of gingival recession, from no gingival recession to total gingival recession. Experts analyzing the oral cavity performed multiple stages of evaluation of the interdental space, from no interdental space to severe interdental space, for each of the upper and lower jaws.

解析学習モデルMAは、複数の学習済みモデルを含む。解析学習モデルMAは、口腔領域Rを評価できるか否かを判定する第1学習済みモデルM1と口腔領域Rを実際に評価する第2学習済みモデルM2を含む。 The analysis learning model MA includes a plurality of trained models. The analytical learning model MA includes a first trained model M1 for determining whether or not the oral region R can be evaluated and a second trained model M2 for actually evaluating the oral region R.

第1学習済みモデルM1は、口腔画像Pの口腔領域Rが解析可能な画質か否かをする学習モデルM11、叢生評価が可能か否かを判定する学習モデルM12、上あごの歯における歯間空隙評価が可能か否かを判定する学習モデルM13、下あごの歯における歯間空隙評価が可能か否かを判定する学習モデルM14、および、歯肉退縮評価が可能か否かを判定する学習モデルM15の少なくとも1つを含む。 The first trained model M1 is a learning model M11 that determines whether or not the oral region R of the oral image P can be analyzed, a learning model M12 that determines whether crowding evaluation is possible, and an interdental space in the upper jaw teeth. A learning model M13 for determining whether or not the void evaluation is possible, a learning model M14 for determining whether or not the interdental void evaluation in the lower jaw teeth is possible, and a learning model for determining whether or not the gingival retraction evaluation is possible. Includes at least one of M15.

第2学習済みモデルM2は、上あごの歯における叢生の有無を判定する学習モデルM21、下あごの歯における叢生の有無を判定する学習モデルM22、上あごの歯における歯間空隙の有無を判定する学習モデルM23、下あごの歯における歯間空隙の有無を判定する学習モデルM24、および、歯間退縮の有無を判定する学習モデルM25の少なくとも1つを含む。 The second trained model M2 is a learning model M21 for determining the presence or absence of crowding in the upper jaw teeth, a learning model M22 for determining the presence or absence of crowding in the lower jaw teeth, and a determination for the presence or absence of interdental gaps in the upper jaw teeth. It includes at least one of a learning model M23 for determining the presence or absence of interdental space in the lower jaw teeth, and a learning model M25 for determining the presence or absence of interdental retraction.

第1口腔画像P1を解析する解析学習モデルMAは、クラス分類の結果を出力する。解析学習モデルMAは、第1特定部位における歯間空隙、歯肉退縮、叢生、歯肉炎症、磨き残し、歯ぎしり、う蝕、知覚過敏、口臭、および、着色の有無または程度に関する情報、ユーザの口腔内に歯周病が存在するか否かに関する情報、咀嚼機能が正常か否かに関する情報、咬合が正常か否かに関する情報、嚥下機能が正常か否かに関する情報を出力する。 The analysis learning model MA that analyzes the first oral image P1 outputs the result of classification. The analytical learning model MA is an information on the interdental space, gingival retraction, crowding, gingival inflammation, unpolished, chewing, caries, hypersensitivity, halitosis, and the presence or absence or degree of coloring in the first specific site, in the user's oral cavity. It outputs information on whether or not periodontal disease is present, information on whether or not masticatory function is normal, information on whether or not occlusion is normal, and information on whether or not swallowing function is normal.

分類学習モデルMCは、一例では第1口腔画像P1を学習することで作成される。この場合、分類学習モデルMCは、口腔画像Pが第1口腔画像P1らしい特徴量を持つかに基づいて判断する。別の例では、分類学習モデルMCは、第2口腔画像P2を学習することで作成される。この場合、分類学習モデルMCは、口腔画像Pが第2口腔画像P2らしい特徴量を持つかに基づいて判断する。分類学習モデルMCは、第1口腔画像P1と第2口腔画像P2の両方を学習することで作成されてもよい。学習に用いられる口腔画像Pの第1口腔画像P1および第2口腔画像P2の分類は、専門家により実施される。 The classification learning model MC is created by learning the first oral image P1 in one example. In this case, the classification learning model MC determines whether the oral image P has a feature amount peculiar to the first oral image P1. In another example, the classification learning model MC is created by learning the second oral image P2. In this case, the classification learning model MC makes a judgment based on whether the oral image P has a feature amount peculiar to the second oral image P2. The classification learning model MC may be created by learning both the first oral image P1 and the second oral image P2. The classification of the first oral image P1 and the second oral image P2 of the oral image P used for learning is performed by a specialist.

口腔画像Pが第2口腔画像P2である場合、第1解析手段とは異なる第2解析手段により解析される。第2解析手段は、学習モデルによらない解析手段が含まれる。一例では、第2解析手段は、専門家による第2口腔画像P2の解析である。専門家による解析は、第1口腔画像P1に対する教師付けと同様の手法で実施される。専門家は、例えば外部端末50に表示される第2口腔画像P2を参照して、解析を実施する。第2解析手段は、検査用装置、および、検査用器具の少なくとも1つによる解析を含んでいてもよい。検査用装置による解析は、例えば第2口腔画像P2に映る口腔のユーザに対するレントゲン撮影である。検査用器具による解析は、例えば第2口腔画像P2に映る口腔のユーザに対するプローブを用いた検査である。 When the oral image P is the second oral image P2, it is analyzed by a second analysis means different from the first analysis means. The second analysis means includes analysis means that do not depend on the learning model. In one example, the second analysis means is the analysis of the second oral image P2 by an expert. The analysis by the expert is carried out in the same manner as the supervision for the first oral image P1. The expert performs the analysis with reference to, for example, the second oral cavity image P2 displayed on the external terminal 50. The second analysis means may include analysis by at least one of the inspection device and the inspection instrument. The analysis by the inspection device is, for example, X-ray photography for the user of the oral cavity shown in the second oral cavity image P2. The analysis using the inspection instrument is, for example, an inspection using a probe for the user of the oral cavity shown in the second oral cavity image P2.

情報解析部33は、第2解析手段による解析結果である第2解析結果および第2口腔画像P2をサーバ30の外部に出力する。一例では、情報解析部33は、データベース40および外部端末50の少なくとも一方に出力する。 The information analysis unit 33 outputs the second analysis result and the second oral cavity image P2, which are the analysis results by the second analysis means, to the outside of the server 30. In one example, the information analysis unit 33 outputs to at least one of the database 40 and the external terminal 50.

情報解析部33は、入力情報Iに基づいて出力情報Oを出力する。出力情報Oは、第1解析結果、第2解析結果、第3解析結果の少なくとも1つを含む。第1解析結果および第2解析結果は、所定状態の有無、程度、および、発生確率の少なくとも1つに関する情報を含む。第1解析結果および第2解析結果は、第1特定部位における歯間空隙、歯肉退縮、叢生、歯肉炎症、磨き残し、歯ぎしり、う蝕、知覚過敏、口臭、および、着色の有無または程度に関する情報、または、歯、歯茎、および、口腔粘膜の状態に関する情報の少なくとも1つを含む。歯、歯茎、および、口腔粘膜の状態に関する情報は、例えば歯の摩耗、歯の欠損、歯の破折の有無または程度、血色、乾燥状態、および、質感の少なくとも1つを含む。質感は、例えば指で触った場合に引き締まっていると感じられる硬めの質感と、指で触った場合にぶよぶよとしていると感じられる柔らかい質感とを含む複数の質感を含む。第1解析結果および第2解析結果は、ユーザの口腔内に歯周病が存在するか否かに関する情報、咀嚼機能が正常か否かに関する情報、咬合が正常か否かに関する情報、嚥下機能が正常か否かに関する情報の少なくとも1つを含んでいてもよい。歯周病が存在するか否かに関する情報は、歯肉と歯との間に生じるいわゆる歯周ポケットの大きさ、深さ、および数の少なくとも1つに関する情報である。咀嚼機能が正常か否かに関する情報は、例えば咀嚼力、偏咀嚼の有無、および、咀嚼音に関する情報である。咬合が正常か否かに関する情報は、例えば咬合力および上あごの歯と下あごの歯とのかみ合わせに関する情報である。嚥下機能が正常か否かに関する情報は、例えば嚥下障害の有無に関する情報である。第3解析結果は、入力された入力画像が非口腔画像であるという情報を含む。 The information analysis unit 33 outputs the output information O based on the input information I. The output information O includes at least one of the first analysis result, the second analysis result, and the third analysis result. The first analysis result and the second analysis result include information regarding the presence / absence of a predetermined state, the degree, and at least one of the occurrence probabilities. The first analysis result and the second analysis result are information on the interdental space, gingival recession, crowding, gingival inflammation, unpolished, gingival, caries, hypersensitivity, halitosis, and the presence or absence or degree of coloring in the first specific site. , Or at least one piece of information regarding the condition of the teeth, gums, and oral mucosa. Information about the condition of the teeth, gums, and oral mucosa includes, for example, at least one of tooth wear, tooth defects, presence or absence or degree of tooth fracture, complexion, dryness, and texture. The texture includes a plurality of textures including, for example, a hard texture that feels firm when touched with a finger and a soft texture that feels bumpy when touched with a finger. The first analysis result and the second analysis result include information on whether or not periodontal disease is present in the user's oral cavity, information on whether or not masticatory function is normal, information on whether or not occlusion is normal, and swallowing function. It may contain at least one piece of information as to whether it is normal or not. Information regarding the presence or absence of periodontal disease is information regarding at least one of the size, depth, and number of so-called periodontal pockets that occur between the gingiva and the tooth. The information on whether or not the masticatory function is normal is, for example, information on masticatory force, presence or absence of uneven mastication, and masticatory sound. Information on whether or not the occlusion is normal is, for example, information on the occlusal force and the engagement of the upper jaw tooth and the lower jaw tooth. The information regarding whether or not the swallowing function is normal is, for example, information regarding the presence or absence of dysphagia. The third analysis result includes information that the input input image is a non-oral image.

解析学習モデルMAは、データベース40に保存される第2口腔画像P2および第2解析結果により、定期的に更新される。一例では、第2口腔画像P2が所定枚数以上データベース40に保存された場合である。所定枚数は、例えば100~1000枚の範囲に含まれる。具体的には、第2解析結果が対応付けられている所定枚数の第2口腔画像P2を学習用画像、検証用画像、および、テスト用画像に分類し、学習、検証、および、テストのステップを実行し、解析学習モデルMAを更新する。 The analysis learning model MA is periodically updated by the second oral image P2 and the second analysis result stored in the database 40. One example is a case where a predetermined number or more of the second oral images P2 are stored in the database 40. The predetermined number of sheets is included in the range of, for example, 100 to 1000 sheets. Specifically, a predetermined number of second oral images P2 to which the second analysis result is associated are classified into a learning image, a verification image, and a test image, and the steps of learning, verification, and testing are performed. To update the analysis learning model MA.

分類学習モデルMCは、データベース40に記憶される第2口腔画像P2および第2解析結果により、定期的に更新される。一例では、第2口腔画像P2が所定枚数以上データベース40に保存された場合である。所定枚数は、例えば100~1000枚の範囲に含まれる。具体的には、第2解析結果が対応付けられている第2口腔画像P2を学習用画像、検証用画像、および、テスト用画像し、学習、検証、および、テストのステップを実行し、分類学習モデルMCを更新する。 The classification learning model MC is periodically updated by the second oral image P2 stored in the database 40 and the second analysis result. One example is a case where a predetermined number or more of the second oral images P2 are stored in the database 40. The predetermined number of sheets is included in the range of, for example, 100 to 1000 sheets. Specifically, the second oral cavity image P2 to which the second analysis result is associated is used as a learning image, a verification image, and a test image, and the steps of learning, verification, and test are executed and classified. Update the learning model MC.

図4を参照して、情報解析部33が実行する解析の手順の一例について説明する。情報解析部33は、以下に示される工程を定期的、または、入力画像が入力されるごとに実行する。 An example of the analysis procedure executed by the information analysis unit 33 will be described with reference to FIG. The information analysis unit 33 executes the steps shown below periodically or every time an input image is input.

ステップS11において、情報解析部33は、口腔画像Pが入力されたか否かを判定する。肯定判定の場合、情報解析部33は、ステップS12の処理を実行する。否定判定の場合、情報解析部33は、ステップS17の処理を実行する。 In step S11, the information analysis unit 33 determines whether or not the oral image P has been input. In the case of affirmative determination, the information analysis unit 33 executes the process of step S12. In the case of a negative determination, the information analysis unit 33 executes the process of step S17.

ステップS12において、情報解析部33は、口腔画像Pを分類学習モデルMCにより第1口腔画像P1または第2口腔画像P2に分類する。 In step S12, the information analysis unit 33 classifies the oral image P into the first oral image P1 or the second oral image P2 by the classification learning model MC.

ステップS13において、情報解析部33は、口腔画像Pが第1口腔画像P1か否かを判定する。肯定判定の場合、情報解析部33は、ステップS14の処理を実行する。否定判定の場合、ステップS16の処理を実行する。 In step S13, the information analysis unit 33 determines whether or not the oral image P is the first oral image P1. In the case of affirmative determination, the information analysis unit 33 executes the process of step S14. In the case of a negative determination, the process of step S16 is executed.

ステップS14において、情報解析部33は、第1解析手段により第1口腔画像P1を解析する。具体的には、解析学習モデルMAにより第1口腔画像P1を解析する。ステップS14の終了後、情報解析部33は、ステップS15の処理を実行する。 In step S14, the information analysis unit 33 analyzes the first oral image P1 by the first analysis means. Specifically, the first oral cavity image P1 is analyzed by the analysis learning model MA. After the end of step S14, the information analysis unit 33 executes the process of step S15.

ステップS15において、情報解析部33は、第1解析結果を出力する。具体的には、インターフェイス部20に出力する。インターフェイス部20の制御部21は、表示部25に第1解析結果を表示させる。 In step S15, the information analysis unit 33 outputs the first analysis result. Specifically, it is output to the interface unit 20. The control unit 21 of the interface unit 20 causes the display unit 25 to display the first analysis result.

ステップS16において、情報解析部33は、第2口腔画像P2を外部に出力する。具体的には、データベース40および外部端末50の少なくとも一方に出力する。外部端末50は、表示部54に第2口腔画像P2を表示させ、専門家が第2解析手段により解析する。専門家は、第2口腔画像P2の解析結果である第2解析結果をサーバ30およびデータベース40の少なくとも一方に出力する。 In step S16, the information analysis unit 33 outputs the second oral image P2 to the outside. Specifically, it is output to at least one of the database 40 and the external terminal 50. The external terminal 50 causes the display unit 54 to display the second oral cavity image P2, and an expert analyzes it by the second analysis means. The expert outputs the second analysis result, which is the analysis result of the second oral cavity image P2, to at least one of the server 30 and the database 40.

ステップS17において、情報解析部33は、口腔画像が入力されておらず非口腔画像が入力されたことを示す情報を含む第3解析結果を出力する。具体的には、インターフェイス部20に出力する。 In step S17, the information analysis unit 33 outputs a third analysis result including information indicating that the oral image has not been input and the non-oral image has been input. Specifically, it is output to the interface unit 20.

ステップS18において、情報解析部33は、第2解析結果を受信したか否かを判定する。具体的には、情報解析部33は、口腔画像Pに対応する第2解析結果が外部端末50から受信したか否かを判定する。肯定判定の場合、情報解析部33は、ステップS19の処理を実行する。否定判定の場合、情報解析部33は、解析を終了する。 In step S18, the information analysis unit 33 determines whether or not the second analysis result has been received. Specifically, the information analysis unit 33 determines whether or not the second analysis result corresponding to the oral image P has been received from the external terminal 50. In the case of affirmative determination, the information analysis unit 33 executes the process of step S19. In the case of a negative determination, the information analysis unit 33 ends the analysis.

ステップS19において、情報解析部33は、第2解析結果を出力する。具体的には、インターフェイス部20に出力する。インターフェイス部20の制御部21は、表示部25に第2解析結果を表示させる。 In step S19, the information analysis unit 33 outputs the second analysis result. Specifically, it is output to the interface unit 20. The control unit 21 of the interface unit 20 causes the display unit 25 to display the second analysis result.

本実施形態の口腔状態評価システム10の作用について説明する。ユーザは、インターフェイス部20の取得部23に対して入力画像を入力する。インターフェイス部20は、サーバ30に入力画像を出力する。サーバ30の情報解析部33は、入力画像を解析する。情報解析部33は、入力画像が第1口腔画像P1である場合第1解析結果をインターフェイス部20に出力する。情報解析部33は、入力画像が第2口腔画像P2である場合外部に出力する。出力先は、データベース40および外部端末50である。入力画像が口腔画像Pではない非口腔画像である場合、第3解析結果をインターフェイス部20に出力する。第2口腔画像は、外部端末50を介して専門家により解析される。外部端末50は、第2解析結果をサーバ30に出力する。情報解析部33は、第2解析結果をインターフェイス部20に出力する。ユーザは、インターフェイス部20の表示部25に表示される解析結果を参照することで、口腔状態を認識する。 The operation of the oral condition evaluation system 10 of the present embodiment will be described. The user inputs an input image to the acquisition unit 23 of the interface unit 20. The interface unit 20 outputs an input image to the server 30. The information analysis unit 33 of the server 30 analyzes the input image. When the input image is the first oral cavity image P1, the information analysis unit 33 outputs the first analysis result to the interface unit 20. When the input image is the second oral cavity image P2, the information analysis unit 33 outputs the input image to the outside. The output destination is the database 40 and the external terminal 50. When the input image is a non-oral image other than the oral image P, the third analysis result is output to the interface unit 20. The second oral image is analyzed by an expert via the external terminal 50. The external terminal 50 outputs the second analysis result to the server 30. The information analysis unit 33 outputs the second analysis result to the interface unit 20. The user recognizes the oral cavity state by referring to the analysis result displayed on the display unit 25 of the interface unit 20.

本実施形態の口腔状態評価システム10によれば、以下の効果がさらに得られる。
第2解析手段による第2解析結果が、例えばインターフェイス部20に出力される。このため、第1解析手段による解析が不可能な入力情報Iの場合でも、ユーザは第2解析結果を参照することで、容易に口腔状態を認識できる。
According to the oral condition evaluation system 10 of the present embodiment, the following effects can be further obtained.
The second analysis result by the second analysis means is output to, for example, the interface unit 20. Therefore, even in the case of the input information I that cannot be analyzed by the first analysis means, the user can easily recognize the oral cavity state by referring to the second analysis result.

解析学習モデルMAおよび分類学習モデルMCの少なくとも1つは、第2解析結果に応じて更新される。このため、第2口腔画像および第2解析結果がデータベースに保存されることに伴い、解析学習モデルMAおよび分類学習モデルMCの精度が向上する。 At least one of the analysis learning model MA and the classification learning model MC is updated according to the second analysis result. Therefore, the accuracy of the analysis learning model MA and the classification learning model MC is improved as the second oral image and the second analysis result are stored in the database.

(変形例)
実施の形態に関する説明は本発明に関する口腔状態評価システムが取り得る形態の例示であり、その形態を制限することを意図していない。本発明は実施形態以外に例えば以下に示される実施形態の変形例、および、相互に矛盾しない少なくとも2つの変形例が組み合わせられた形態を取り得る。
(Modification example)
The description of the embodiments is an example of possible forms of the oral condition evaluation system according to the present invention, and is not intended to limit the forms. In addition to the embodiments, the present invention may take, for example, a modification of the embodiment shown below and a combination of at least two modifications that do not contradict each other.

・解析学習モデルMAは、回帰分析の結果を出力するように構成されていてもよい。この場合、解析学習モデルMAは、叢生の程度、歯間空隙の程度、および、歯肉退縮の程度の少なくとも1つを数値化して出力する。 -The analysis learning model MA may be configured to output the result of regression analysis. In this case, the analysis learning model MA quantifies and outputs at least one of the degree of crowding, the degree of interdental space, and the degree of gingival recession.

・学習済みモデルM1および学習済みモデルM2の少なくとも一方は、教師なし学習または強化学習により学習されたモデルであってもよい。各学習モデルM11~M15および各学習モデルM21~M25の少なくとも1つが教師なし学習または強化学習により学習されたモデルであってもよい。 -At least one of the trained model M1 and the trained model M2 may be a model trained by unsupervised learning or reinforcement learning. At least one of each learning model M11 to M15 and each learning model M21 to M25 may be a model learned by unsupervised learning or reinforcement learning.

・解析学習モデルMAは、口腔画像Pにおいて第1口腔領域R1と第2口腔領域R2を区別することなく、評価が可能か否かを判定してもよい。解析学習モデルMAは、口腔画像Pにおいて、1組の歯および歯茎を認識して、評価が可能か否かを判定してもよい。また、口腔領域R内の1組の歯および歯茎をそれぞれ認識して、過半数が評価可能である場合に、解析を実行する解析学習モデルMAであってもよい。 -The analysis learning model MA may determine whether or not evaluation is possible without distinguishing between the first oral region R1 and the second oral region R2 in the oral image P. The analysis learning model MA may recognize a set of teeth and gums in the oral image P and determine whether or not the evaluation is possible. Further, it may be an analysis learning model MA that recognizes a set of teeth and gums in the oral cavity region R and executes an analysis when the majority can be evaluated.

・解析学習モデルMAは、口腔画像Pを疑似色で表示されるように構成されていてもよい。一例では、口腔画像Pにおいて学習モデルが解析に使用した領域、または、歯間空隙、歯肉退縮、および、叢生が生じている領域を赤色で表示する。ユーザは、解析に利用した領域および口腔状態に問題が生じている領域を容易に認識できる。 -The analysis learning model MA may be configured to display the oral image P in a pseudo color. In one example, the region used for analysis by the learning model in the oral image P, or the region where interdental space, gingival recession, and crowding occur is displayed in red. The user can easily recognize the area used for the analysis and the area where the oral condition has a problem.

取得部23の構成は、実施例に限定されない。一例では、取得部23はユーザが文字等を入力または選択できるように構成されたユーザインタフェースである。ユーザの入力情報Iは、ユーザの生活習慣に関する情報、ユーザの口腔内分泌物に関する情報、ユーザの口腔内細菌叢に関する情報、所定の質問に対する回答情報、および、ユーザ自身の属性に関する情報の少なくとも1つをさらに含んでいてもよい。ユーザの生活習慣に関する情報は、ユーザの食事内容、口腔ケア行動、起床または睡眠時間に関する情報を含む。ユーザの口腔内分泌物に関する情報は、唾液の量、粘性、水素イオン濃度、抗菌成分の量、および、歯の再石灰化に関する成分の量に関する情報を含む。ユーザの口腔内細菌叢に関する情報は、唾液中、歯垢、または粘膜に存在する主な細菌の量および種類に関する情報および主な細菌の抗体の種類および量に関する情報を含む。ユーザの口腔内分泌物に関する情報およびユーザの口腔内細菌叢に関する情報は、ユーザに対する問診の結果であってもよく、ユーザの口腔内に存在する口腔内分泌物等を所定の手段により検査した結果情報であってもよい。所定の質問に関する回答情報は、ユーザの歯茎の状態に関する質問、口腔ケア時の好みのブラッシング方法、1日の歯磨きの回数、1回あたりの歯磨きにかける時間、歯磨きを実施する時刻、および入れ歯の有無を含む。ユーザの歯茎の状態に関する質問は、例えばブラッシング時または飲食時の歯茎からの出血の有無を含む。ユーザ自身の属性に関する情報は、例えばユーザ自身の年齢、性別、身長、体重、利き腕、および、既往歴である。別の例では、取得部23は口腔内の状態を検出するセンサである。センサは、例えば蛍光センサおよび温度センサである。蛍光センサは、所定の波長の光を照射し、光の量を定量して口腔内における所定物の分布および量を測定する。所定物は、例えばステインまたはプラークである。温度センサは、口腔内の温度を測定する。センサは、制御部21と有線または無線通信が可能に構成される。センサにより得られる情報は、有線または無線通信により制御部21に送信される。センサは、咀嚼力、咬合力、歯茎の血流量、口臭、ブラッシング時のブラシ圧の強さ、または、ブラッシング時の歯ブラシの動きの少なくとも1つをさらに測定可能に構成されていてもよい。情報解析部33は、取得部23から取得される情報を加味して口腔画像Pを解析してもよい。 The configuration of the acquisition unit 23 is not limited to the embodiment. In one example, the acquisition unit 23 is a user interface configured so that the user can input or select characters or the like. The user input information I is at least one of information about the user's lifestyle, information about the user's oral secretions, information about the user's oral flora, answer information to a predetermined question, and information about the user's own attributes. May further be included. Information about the user's lifestyle includes information about the user's dietary content, oral care behavior, wake-up or sleep time. Information about the user's oral secretions includes information about the amount of saliva, viscosity, hydrogen ion concentration, amount of antibacterial component, and amount of component related to tooth remineralization. Information about the user's oral flora includes information about the amount and type of major bacteria present in saliva, plaque, or mucous membranes and information about the type and amount of antibodies of the major bacteria. The information on the oral secretions of the user and the information on the bacterial flora in the oral cavity of the user may be the result of an interview with the user, and are the result information of inspecting the oral secretions and the like existing in the oral cavity of the user by a predetermined means. There may be. The answer information for a given question is the user's gum condition question, preferred brushing method for oral care, number of brushes per day, time to brush each time, time to brush, and dentures. Including the presence or absence. Questions about the condition of the user's gums include, for example, the presence or absence of bleeding from the gums when brushing or eating or drinking. Information about the user's own attributes is, for example, the user's own age, gender, height, weight, dominant arm, and medical history. In another example, the acquisition unit 23 is a sensor that detects a state in the oral cavity. The sensor is, for example, a fluorescence sensor and a temperature sensor. The fluorescence sensor irradiates light of a predetermined wavelength, quantifies the amount of light, and measures the distribution and amount of a predetermined substance in the oral cavity. Predetermines are, for example, stains or plaques. The temperature sensor measures the temperature in the oral cavity. The sensor is configured to enable wired or wireless communication with the control unit 21. The information obtained by the sensor is transmitted to the control unit 21 by wired or wireless communication. The sensor may be configured to be able to further measure at least one of masticatory force, quotient force, gum blood flow, bad breath, brush pressure strength during brushing, or toothbrush movement during brushing. The information analysis unit 33 may analyze the oral image P by adding the information acquired from the acquisition unit 23.

・入力情報Iは、IoT機器を介して取得されてもよい。一例では、ブラッシングに使用する口腔ケアアイテムにIoT機器を接続することで、入力情報Iを取得する。一例では、入力情報Iは1日の歯磨きの回数および口腔ケアアイテムの使用頻度に関する情報を含む。IoT機器は、取得部23に対して入力情報Iを送信してもよく、サーバ30に対して入力情報Iを送信してもよい。 -The input information I may be acquired via the IoT device. In one example, input information I is acquired by connecting an IoT device to an oral care item used for brushing. In one example, input information I includes information about the number of tooth brushes per day and the frequency of use of oral care items. The IoT device may transmit the input information I to the acquisition unit 23, or may transmit the input information I to the server 30.

入力情報Iは、ユーザの現在の状態情報を含む第1入力情報I1とユーザの過去の状態情報である第2入力情報I2を含んでいてもよい。第1入力情報I1および第2入力情報I2がユーザの口腔画像Pを含む場合、第2入力情報I2に含まれる口腔画像Pは、第1入力情報I1を取得するよりも所定時間前のユーザの口腔内の画像である。第1入力情報I1および第2入力情報I2がユーザの口腔ケアに関する情報を含む場合、第2入力情報I2に含まれる口腔ケアに関する情報は、第1入力情報I1を取得するよりも所定時間前の口腔ケアに関する情報である。所定時間は、一例では1か月以上の時間である。別の例では、所定時間は1年以上の時間である。第2入力情報I2は、取得部23による第1入力情報I1の取得の前に通信部24を介してサーバ30に送信されてもよく、第1入力情報I1の送信と同時に通信部24を介してサーバ30に送信されてもよい。この場合、インターフェイス部20は、第2入力情報I2を少なくとも記憶する記憶部をさらに備える。入力情報Iは、第2入力情報I2よりも所定時間前に取得された第3入力情報I3をさらに含んでいてもよい。情報解析部33は、第1入力情報I1~第3入力情報I3の少なくとも1つを用いて推定情報Eを演算する。第3入力情報I3が追加されることにより、精度がさらに向上する。所定時間の間隔は、各入力情報Iで変更してもよい。入力情報Iは、第4入力情報以降の入力情報Iをさらに含んでいてもよい。 The input information I may include a first input information I1 including the current state information of the user and a second input information I2 which is the past state information of the user. When the first input information I1 and the second input information I2 include the oral image P of the user, the oral image P included in the second input information I2 is the user's oral image P included in the second input information I2 at a predetermined time before the acquisition of the first input information I1. It is an image in the oral cavity. When the first input information I1 and the second input information I2 include the information about the oral care of the user, the information about the oral care contained in the second input information I2 is a predetermined time before the acquisition of the first input information I1. Information about oral care. The predetermined time is, in one example, one month or more. In another example, the predetermined time is one year or more. The second input information I2 may be transmitted to the server 30 via the communication unit 24 before the acquisition unit 23 acquires the first input information I1, and the second input information I2 may be transmitted to the server 30 at the same time as the transmission of the first input information I1 via the communication unit 24. May be transmitted to the server 30. In this case, the interface unit 20 further includes a storage unit that stores at least the second input information I2. The input information I may further include the third input information I3 acquired before the second input information I2 by a predetermined time. The information analysis unit 33 calculates the estimation information E using at least one of the first input information I1 to the third input information I3. The accuracy is further improved by adding the third input information I3. The interval of the predetermined time may be changed by each input information I. The input information I may further include the input information I after the fourth input information.

データベース40は、サーバ30に設けられていてもよい。データベース40は、一例では情報記憶部34に設けられる。各学習モデル、および種々の情報の少なくとも1つがサーバ30の情報記憶部34以外の場所に記憶されていてもよい。一例では、インターフェイス部20に設けられる記憶部に記憶される。別の例では、データベース40に記憶される。 The database 40 may be provided in the server 30. The database 40 is provided in the information storage unit 34 in one example. Each learning model and at least one of various information may be stored in a place other than the information storage unit 34 of the server 30. In one example, it is stored in a storage unit provided in the interface unit 20. In another example, it is stored in the database 40.

第1解析結果および第2解析結果は、口腔画像Pに含まれる第1特定部位以外の情報である推定情報を含んでいてもよい。一例では、第1解析結果および第2解析結果は、第2特定部位に関する情報を含む。第2特定部位は、口腔内の小臼歯および大臼歯の少なくとも1つを含む。推定情報は、口腔内の小臼歯および大臼歯に関する情報の少なくとも1つを含む。口腔内の第1特定部位における状態は、口腔内の第1特定部位とは異なる第2特定部位における状態と相関関係にある。一例では、40~70代の女性75人を対象とした試験において、前歯における歯肉の状態と奥歯における歯肉の状態とが高く相関している。すなわち、第1特定部位において歯肉退縮が発生している場合、第2特定部位においても歯肉退縮が発生している。歯間空隙および叢生の程度についても、同様である。 The first analysis result and the second analysis result may include estimation information which is information other than the first specific site included in the oral image P. In one example, the first analysis result and the second analysis result include information about the second specific site. The second specific site comprises at least one of the premolars and molars in the oral cavity. Estimated information includes at least one piece of information about premolars and molars in the oral cavity. The state at the first specific site in the oral cavity correlates with the state at the second specific site different from the first specific site in the oral cavity. In one example, in a study of 75 women in their 40s and 70s, the gingival condition in the anterior teeth and the gingival condition in the back teeth were highly correlated. That is, when gingival recession occurs at the first specific site, gingival recession also occurs at the second specific site. The same applies to the degree of interdental space and crowding.

第1解析結果および第2解析結果は、ユーザの将来の口腔状態予測に関する情報、ユーザに対する口腔ケア方法に関する情報、および、ユーザの口腔状態が影響をおよぼすユーザの健康状態に関する情報の少なくとも1つを含んでいてもよい。ユーザの将来の口腔予測に関する情報は、所定期間が経過後のユーザの口腔状態を示す推定画像を含む。ユーザに対する口腔ケア方法に関する情報は、ユーザの口腔状態に適した口腔ケア用品および使用方法に関する情報を含む。ユーザの口腔状態が影響をおよぼすユーザの健康状態に関する情報は、例えば歯周病または口腔状態に関連する口腔以外の健康状態に関する情報を含む。 The first analysis result and the second analysis result contain at least one of information on the prediction of the future oral condition of the user, information on the oral care method for the user, and information on the health condition of the user affected by the oral condition of the user. It may be included. Information about the user's future oral prediction includes an estimated image showing the user's oral condition after a predetermined period of time. Information on oral care methods for the user includes information on oral care products and usage methods suitable for the user's oral condition. Information about the user's health condition affected by the user's oral condition includes, for example, information about non-oral health related to periodontal disease or oral condition.

解析学習モデルMAおよび分類学習モデルMCの学習が完了した場合、情報解析部33が実行する、ステップS13、ステップS16、ステップS18、および、ステップS19の処理を省略してもよい。この場合、すべての口腔画像Pが第1解析手段により解析される。このため、ユーザは第1解析結果を参照することで口腔状態を認識できる。 When the learning of the analysis learning model MA and the classification learning model MC is completed, the processes of step S13, step S16, step S18, and step S19 executed by the information analysis unit 33 may be omitted. In this case, all oral images P are analyzed by the first analysis means. Therefore, the user can recognize the oral condition by referring to the first analysis result.

外部端末50に代えてまたは加えて、サーバ30とローカル接続されるその他の端末が設けられていてもよい。その他の端末は、第2解析手段により第2口腔画像P2を解析するために用いられる。その他の端末は、スマートデバイスまたはパーソナルコンピュータであってもよい。第2解析手段により第2口腔画像P2の解析に、外部端末50に代えてまたは加えて、インターフェイス部20で解析してもよい。 In place of or in addition to the external terminal 50, other terminals locally connected to the server 30 may be provided. Other terminals are used to analyze the second oral image P2 by the second analysis means. The other terminal may be a smart device or a personal computer. The interface unit 20 may analyze the second oral cavity image P2 by the second analysis means in place of or in addition to the external terminal 50.

10 :口腔状態評価システム
20 :インターフェイス部
30 :サーバ
31 :情報取得部
32 :情報出力部
33 :情報解析部
34 :情報記憶部
40 :データベース
50 :外部端末
I :入力情報
O :出力情報
MA :解析学習モデル
MC :分類学習モデル
10: Oral condition evaluation system 20: Interface unit 30: Server 31: Information acquisition unit 32: Information output unit 33: Information analysis unit 34: Information storage unit 40: Database 50: External terminal I: Input information O: Output information MA: Analytical learning model MC: Classification learning model

Claims (10)

入力画像に含まれる口腔画像を第1解析手段で解析する情報解析部を含む口腔状態評価システムであって、
前記情報解析部は、前記口腔画像を前記第1解析手段で解析が可能である第1口腔画像および前記第1解析手段で解析が不可能である第2口腔画像に分類し、
前記第1口腔画像は、前記情報解析部により前記第1解析手段で解析され、
前記口腔画像が前記第2口腔画像である場合、前記第1解析手段とは異なる第2解析手段で解析される
口腔状態評価システム。
An oral condition evaluation system including an information analysis unit that analyzes an oral image included in an input image by a first analysis means.
The information analysis unit classifies the oral image into a first oral image that can be analyzed by the first analysis means and a second oral image that cannot be analyzed by the first analysis means.
The first oral cavity image is analyzed by the information analysis unit by the first analysis means.
When the oral image is the second oral image, the oral condition evaluation system is analyzed by a second analysis means different from the first analysis means.
前記第1解析手段は、口腔に関する画像を予め学習した解析学習モデルによる解析を含み、
前記第1解析手段による前記第1口腔画像の解析結果である第1解析結果が出力される
請求項1に記載の口腔状態評価システム。
The first analysis means includes analysis by an analysis learning model in which an image relating to the oral cavity is learned in advance.
The oral condition evaluation system according to claim 1, wherein the first analysis result, which is the analysis result of the first oral image by the first analysis means, is output.
前記第2解析手段は、専門家、検査用装置、および、検査用器具の少なくとも1つによる解析を含み、
前記第2解析手段による前記第2口腔画像の解析結果である第2解析結果が出力される
請求項2に記載の口腔状態評価システム。
The second analysis means includes analysis by at least one of a specialist, an inspection device, and an inspection instrument.
The oral condition evaluation system according to claim 2, wherein the second analysis result, which is the analysis result of the second oral image by the second analysis means, is output.
前記第2口腔画像および前記第2解析結果の少なくとも1つは、データベースに保存される
請求項3に記載の口腔状態評価システム。
The oral condition evaluation system according to claim 3, wherein at least one of the second oral image and the second analysis result is stored in a database.
前記情報解析部は、前記第1口腔画像および前記第2口腔画像の分類を口腔に関する画像を学習した分類学習モデルにより実行する
請求項2~4のいずれか一項に記載の口腔状態評価システム。
The oral condition evaluation system according to any one of claims 2 to 4, wherein the information analysis unit executes classification of the first oral image and the second oral image by a classification learning model in which an image relating to the oral cavity is learned.
前記解析学習モデルおよび前記分類学習モデルの少なくとも1つは、前記第2口腔画像の解析に基づいて更新される
請求項5に記載の口腔状態評価システム。
The oral condition evaluation system according to claim 5, wherein at least one of the analysis learning model and the classification learning model is updated based on the analysis of the second oral image.
前記第2口腔画像を表示し、前記第2口腔画像の解析結果を入力する外部端末をさらに含む
請求項6に記載の口腔状態評価システム。
The oral condition evaluation system according to claim 6, further comprising an external terminal that displays the second oral image and inputs the analysis result of the second oral image.
前記情報解析部は、前記入力画像を前記口腔画像および口腔を含まない非口腔画像にさらに分類し、
前記入力画像が前記非口腔画像である場合、第3解析結果を出力する
請求項1~7のいずれか一項に記載の口腔状態評価システム。
The information analysis unit further classifies the input image into the oral cavity image and the non-oral cavity image that does not include the oral cavity.
The oral condition evaluation system according to any one of claims 1 to 7, wherein when the input image is the non-oral image, the third analysis result is output.
前記入力画像を取得するインターフェイス部をさらに備える
請求項1~8のいずれか一項に記載の口腔状態評価システム。
The oral condition evaluation system according to any one of claims 1 to 8, further comprising an interface unit for acquiring the input image.
前記インターフェイス部は、表示部を備え、
前記表示部は、第1解析結果、第2解析結果、および、第3解析結果の少なくとも1つを表示する
請求項9に記載の口腔状態評価システム。
The interface unit includes a display unit and has a display unit.
The oral condition evaluation system according to claim 9, wherein the display unit displays at least one of a first analysis result, a second analysis result, and a third analysis result.
JP2020210608A 2020-12-18 2020-12-18 Oral cavity state evaluation system Pending JP2022097176A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020210608A JP2022097176A (en) 2020-12-18 2020-12-18 Oral cavity state evaluation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020210608A JP2022097176A (en) 2020-12-18 2020-12-18 Oral cavity state evaluation system

Publications (1)

Publication Number Publication Date
JP2022097176A true JP2022097176A (en) 2022-06-30

Family

ID=82165524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020210608A Pending JP2022097176A (en) 2020-12-18 2020-12-18 Oral cavity state evaluation system

Country Status (1)

Country Link
JP (1) JP2022097176A (en)

Similar Documents

Publication Publication Date Title
US11707180B2 (en) Digital dental examination and documentation
CN105832291B (en) Tracking and prediction of tooth changes
WO2022085724A1 (en) Oral condition evaluation system, oral care recommendation system, and oral condition notification system
Richter et al. Incidence of caries lesions among patients treated with comprehensive orthodontics
KR102267197B1 (en) Method and apparatus for recording and displaying dental care data on a digital dental image
KR102135874B1 (en) Apparatus, method, system and program for analysing state information
KR20110125421A (en) System and method for providing dental care service
JP7115833B2 (en) Support system for extending healthy life expectancy
KR101710357B1 (en) A system, engine and method for managing of oral care
US20230026220A1 (en) Oral health assessment for generating a dental treatment plan
Baelum et al. Defining and predicting outcomes of non‐surgical periodontal treatment: a 1‐yr follow‐up study
Sultan et al. Does the dentist have a role in identifying patients with undiagnosed diabetes mellitus?
US20230248243A1 (en) System and method for classification of dental health based on digital imagery
JP2022097176A (en) Oral cavity state evaluation system
JP2023099629A (en) Identification device, scanner system, identification method, and identification program
JP2022068485A (en) Oral cavity state evaluation system
JP2022068483A (en) Oral cavity state evaluation system
JP2022068486A (en) Oral condition notification system
JP2022068484A (en) Oral care recommendation system
JP4426500B2 (en) Evaluation method and apparatus for dental caries risk and program
KR102491837B1 (en) A system and method for diagnosing the risk of dental caries and oral management using tooth surface coloring image data
JP7317171B2 (en) Program, information processing device and information processing method
JP7102037B1 (en) Programs, information processing equipment and information processing methods
DK181284B1 (en) Customized oral care products
JP7267974B2 (en) IDENTIFICATION DEVICE, SCANNER SYSTEM, IDENTIFICATION METHOD, AND IDENTIFICATION PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231208