JP2022068485A - Oral cavity state evaluation system - Google Patents

Oral cavity state evaluation system Download PDF

Info

Publication number
JP2022068485A
JP2022068485A JP2020177192A JP2020177192A JP2022068485A JP 2022068485 A JP2022068485 A JP 2022068485A JP 2020177192 A JP2020177192 A JP 2020177192A JP 2020177192 A JP2020177192 A JP 2020177192A JP 2022068485 A JP2022068485 A JP 2022068485A
Authority
JP
Japan
Prior art keywords
information
oral
user
image
oral cavity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020177192A
Other languages
Japanese (ja)
Inventor
安里 太田
Anri Ota
都 清水
Miyako Shimizu
正洋 西浦
Masahiro Nishiura
道明 東松
Michiaki Tosho
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sunstar Inc
Original Assignee
Sunstar Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sunstar Inc filed Critical Sunstar Inc
Priority to JP2020177192A priority Critical patent/JP2022068485A/en
Priority to US18/033,047 priority patent/US20230394653A1/en
Priority to PCT/JP2021/038774 priority patent/WO2022085724A1/en
Priority to EP21882865.5A priority patent/EP4233683A1/en
Priority to CN202180071230.5A priority patent/CN116322469A/en
Publication of JP2022068485A publication Critical patent/JP2022068485A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an oral cavity state evaluation system capable of evaluating the state of an oral cavity by simple means.SOLUTION: An oral cavity state evaluation system 10 comprises: an information acquisition unit which acquires an oral cavity image including at least a first specific portion in the oral cavity from an interface part 20 as input information; and an information analysis part 33 which analyzes the input information by means of a learned model which is obtained by previously learning the oral cavity image to evaluate the state in the oral cavity. The information analysis part 33 estimates estimation information concerning the state of a second specific portion in the oral cavity different from the first specific portion.SELECTED DRAWING: Figure 1

Description

本発明は、ユーザの口腔状態を評価する口腔状態評価システムに関する。 The present invention relates to an oral condition evaluation system for evaluating a user's oral condition.

口腔内全体を含む画像から口腔状態を分析し、歯科医師等の専門家による判断を補助するシステムが知られている。特許文献1は、ユーザの口腔内全体を撮影したX線画像から、病変箇所を抽出する歯科分析システムを開示する。 There is known a system that analyzes the oral condition from an image including the entire oral cavity and assists a judgment by a specialist such as a dentist. Patent Document 1 discloses a dental analysis system that extracts a lesion site from an X-ray image of the entire oral cavity of a user.

特開2019-208831号公報Japanese Unexamined Patent Publication No. 2019-208831

口腔内全体の状態に関する情報取得は、専門家およびプローブなどの検査用器具または検査用装置によらない場合は困難である。このため簡易な手段により、ユーザ自身の口腔状態を把握できることが求められる。 Obtaining information about the condition of the entire oral cavity is difficult without the help of specialists and testing instruments or devices such as probes. Therefore, it is required that the user's own oral condition can be grasped by a simple means.

本発明に関する口腔状態評価システムは、少なくとも口腔内の第1特定部位を含む口腔画像をインターフェイス部から入力情報として取得する情報取得部と、前記入力情報を前記口腔内の状態を評価するために予め前記口腔画像を学習した学習モデルにより解析する情報解析部と、を備え、前記情報解析部は、前記第1特定部位とは異なる前記口腔内の第2特定部位における状態に関する推定情報を推定する。 The oral condition evaluation system according to the present invention includes an information acquisition unit that acquires an oral image including at least the first specific portion in the oral cavity as input information from the interface unit, and a preliminarily used unit for evaluating the input information in order to evaluate the condition in the oral cavity. The information analysis unit includes an information analysis unit that analyzes the oral image by a learning model that has learned the oral image, and the information analysis unit estimates estimated information about a state in the second specific portion in the oral cavity that is different from the first specific portion.

本発明に関する口腔状態評価システムによれば、簡易な手段により口腔状態を評価できる口腔状態評価システムを提供できる。 According to the oral condition evaluation system according to the present invention, it is possible to provide an oral condition evaluation system capable of evaluating an oral condition by a simple means.

実施形態の口腔状態評価システムの構成を示すブロック図。The block diagram which shows the structure of the oral condition evaluation system of embodiment. 入力情報の一例である口腔画像を示す図。The figure which shows the oral cavity image which is an example of input information. 図2の口腔画像の部分拡大模式図。FIG. 2 is a partially enlarged schematic view of the oral image of FIG. 叢生がある場合の口腔状態の一例を示す図。The figure which shows an example of the oral condition when there is crowding. 叢生がない場合の口腔状態の一例を示す図。The figure which shows an example of the oral condition in the absence of crowding. 歯間空隙がある場合の口腔状態の一例を示す図。The figure which shows an example of the oral condition when there is an interdental space. 歯間空隙がない場合の口腔状態の一例を示す図。The figure which shows an example of the oral condition when there is no interdental space. 歯肉退縮がある場合の口腔状態の一例を示す図。The figure which shows an example of the oral condition when there is gingival recession. 歯肉退縮がない場合の口腔状態の一例を示す図。The figure which shows an example of the oral condition when there is no gingival recession.

(口腔状態評価システムが取り得る形態の一例)
(1)本発明に関する口腔状態評価システムは、少なくとも口腔内の第1特定部位を含む口腔画像をインターフェイス部から入力情報として取得する情報取得部と、前記入力情報を前記口腔内の状態を評価するために予め前記口腔画像を学習した学習モデルにより解析する情報解析部と、を備え、前記情報解析部は、前記第1特定部位とは異なる前記口腔内の第2特定部位における状態に関する推定情報を推定する。
上記口腔状態評価システムによれば、情報解析部は、第1特定部位を含む口腔画像から第1特定部位とは異なる口腔内の第2特定部位の状態に関する推定情報を推定する。口腔画像に第2特定部位が含まれるか否かに関わらず口腔全体の口腔状態を評価できる。このため、簡易な手段により口腔状態を評価できる。
(Example of possible forms of oral condition evaluation system)
(1) The oral condition evaluation system according to the present invention evaluates an information acquisition unit that acquires an oral image including at least the first specific portion in the oral cavity as input information from the interface unit, and the input information to evaluate the condition in the oral cavity. Therefore, the information analysis unit includes an information analysis unit that analyzes the oral cavity image by a learning model that has been learned in advance, and the information analysis unit obtains estimated information about a state in the second specific part of the oral cavity that is different from the first specific part. presume.
According to the oral condition evaluation system, the information analysis unit estimates estimated information about the state of the second specific part in the oral cavity different from the first specific part from the oral image including the first specific part. The oral condition of the entire oral cavity can be evaluated regardless of whether or not the second specific site is included in the oral image. Therefore, the oral condition can be evaluated by a simple means.

(2)前記口腔状態評価システムの一例によれば、前記口腔画像は、前記口腔内の歯画像および歯茎画像を含む。
上記口腔状態評価システムによれば、口腔画像は、口腔内の適切な部位の画像を含むため口腔状態を適切に評価できる。
(2) According to an example of the oral condition evaluation system, the oral image includes a tooth image and a gum image in the oral cavity.
According to the oral condition evaluation system, since the oral image includes an image of an appropriate part in the oral cavity, the oral condition can be appropriately evaluated.

(3)前記口腔状態評価システムの一例によれば、前記歯画像は、前記口腔内の中切歯画像、側切歯画像、および、犬歯画像を含む。
上記口腔状態評価システムによれば、口腔画像は、口腔内の適切な歯の画像を含むため口腔状態を適切に評価できる。
(3) According to an example of the oral condition evaluation system, the tooth image includes a central incisor image, a lateral incisor image, and a canine image in the oral cavity.
According to the oral condition evaluation system, since the oral image includes an image of an appropriate tooth in the oral cavity, the oral condition can be appropriately evaluated.

(4)前記口腔状態評価システムの一例によれば、前記第2特定部位は、前記口腔内の小臼歯および大臼歯の少なくとも1つを含み、前記推定情報は、前記口腔内の小臼歯および大臼歯に関する情報の少なくとも1つを含む。
上記口腔状態評価システムによれば、口腔内の小臼歯および大臼歯に関する情報の少なくとも1つを推定するため、口腔状態を適切に評価できる。
(4) According to an example of the oral condition evaluation system, the second specific site includes at least one of the premolars and molars in the oral cavity, and the estimated information is the premolars and molars in the oral cavity. Contains at least one piece of information about the molars.
According to the oral condition evaluation system, at least one of the information regarding the premolars and molars in the oral cavity is estimated, so that the oral condition can be appropriately evaluated.

(5)前記口腔状態評価システムの一例によれば、前記推定情報は、前記第2特定部位における歯間空隙、歯肉退縮、叢生、歯肉炎症、磨き残し、歯ぎしり、う蝕、知覚過敏、口臭、および、着色の有無または程度に関する情報、歯周病が存在するか否かに関する情報、咀嚼機能が正常か否かに関する情報、咬合が正常か否かに関する情報、嚥下機能が正常か否かに関する情報、および、前記第2特定部位に対応する歯、歯茎、および、口腔粘膜の状態に関する情報の少なくとも1つを含む。
上記口腔状態評価システムによれば、第2特定部位における歯および歯茎の状態の少なくとも1つを推定できる。このため口腔状態を適切に評価できる。
(5) According to an example of the oral condition evaluation system, the estimated information includes interdental space, gingival retraction, crowding, gingival inflammation, unpolished, gingival, caries, hypersensitivity, and mouth odor at the second specific site. And information on the presence or absence or degree of coloring, information on the presence of periodontal disease, information on whether the chewing function is normal, information on whether the occlusion is normal, information on whether the swallowing function is normal. , And at least one of the information regarding the condition of the teeth, gums, and oral mucosa corresponding to the second specific site.
According to the oral condition evaluation system, at least one of the tooth and gum conditions at the second specific site can be estimated. Therefore, the oral condition can be appropriately evaluated.

(6)前記口腔状態評価システムの一例によれば、前記学習モデルを記憶する情報記憶部をさらに備える。
上記口腔状態評価システムによれば、口腔状態を解析するための学習モデルを好適に参照できる。
(6) According to an example of the oral condition evaluation system, an information storage unit for storing the learning model is further provided.
According to the oral condition evaluation system, a learning model for analyzing the oral condition can be preferably referred to.

(7)前記口腔状態評価システムの一例によれば、前記入力情報は、ユーザの生活習慣に関する情報、前記ユーザの口腔内分泌物に関する情報、前記ユーザの口腔内細菌叢に関する情報、前記ユーザ自身の属性に関する情報、および、前記口腔内の状態を検出するセンサにより得られる情報の少なくとも1つをさらに含む。
上記口腔状態評価システムによれば、口腔状態をより適切に評価できる。
(7) According to an example of the oral condition evaluation system, the input information includes information on the lifestyle of the user, information on the oral secretions of the user, information on the oral flora of the user, and attributes of the user himself / herself. And at least one of the information obtained by the sensor that detects the condition in the oral cavity.
According to the oral condition evaluation system, the oral condition can be evaluated more appropriately.

(8)前記口腔状態評価システムの一例によれば、前記推定情報に対応する情報を出力情報として出力する情報出力部をさらに備え、前記情報出力部は、前記出力情報を少なくとも前記インターフェイス部に出力する。
上記口腔状態評価システムによれば、ユーザが出力情報を容易に認識できる。
(8) According to an example of the oral condition evaluation system, an information output unit that outputs information corresponding to the estimated information as output information is further provided, and the information output unit outputs the output information to at least the interface unit. do.
According to the oral condition evaluation system, the user can easily recognize the output information.

(9)前記口腔状態評価システムの一例によれば、前記出力情報は、ユーザの現在の口腔状態に関する情報、前記ユーザの将来の口腔状態予測に関する情報、前記ユーザに対する口腔ケア方法に関する情報、および、前記ユーザの口腔状態が影響をおよぼす前記ユーザの健康状態に関する情報の少なくとも1つを含む。
上記口腔状態評価システムによれば、ユーザが口腔状態に関する出力情報を好適に認識できる。
(9) According to an example of the oral condition evaluation system, the output information includes information on the current oral condition of the user, information on the prediction of the future oral condition of the user, information on the oral care method for the user, and information on the oral care method for the user. Includes at least one piece of information about the user's health condition affected by the user's oral condition.
According to the oral condition evaluation system, the user can suitably recognize the output information regarding the oral condition.

(実施形態)
図1から図9を参照して、本実施形態の口腔状態評価システム10について説明する。口腔状態評価システム10は、入力情報Iを取得および解析し推定情報Eを推定するシステムである。口腔状態評価システム10は、推定情報Eに対応する出力情報Oを演算し、所定の構成に出力してもよい。口腔状態評価システム10を構成する主な要素は、サーバ30である。好ましくは、口腔状態評価システム10は、サーバ30と情報のやり取りを実行するためのインターフェイス部20を備える。インターフェイス部20は、一例ではユーザが持ち運び可能に構成されたスマートデバイスである。スマートデバイスは、タブレット端末またはスマートフォンを含む。別の例では、インターフェイス部20は、パーソナルコンピュータである。パーソナルコンピュータは、ユーザの住居、店舗または歯科医院に設置される。店舗は、口腔ケアアイテムを販売する店舗またはその他商品を販売する店舗を含む。インターフェイス部20とサーバ30とは、例えばインターネット回線Nを使用して互いに通信可能に構成される。別の例では、インターフェイス部20とサーバ30とは一体で構成される。
(Embodiment)
The oral condition evaluation system 10 of the present embodiment will be described with reference to FIGS. 1 to 9. The oral condition evaluation system 10 is a system that acquires and analyzes the input information I and estimates the estimated information E. The oral condition evaluation system 10 may calculate the output information O corresponding to the estimation information E and output it to a predetermined configuration. The main element constituting the oral condition evaluation system 10 is the server 30. Preferably, the oral condition evaluation system 10 includes an interface unit 20 for executing information exchange with the server 30. The interface unit 20 is, for example, a smart device configured to be portable by the user. Smart devices include tablet terminals or smartphones. In another example, the interface unit 20 is a personal computer. The personal computer is installed in the user's residence, store or dental office. Stores include stores that sell oral care items or other products. The interface unit 20 and the server 30 are configured to be able to communicate with each other using, for example, the Internet line N. In another example, the interface unit 20 and the server 30 are integrally configured.

インターフェイス部20は、制御部21、記憶部22、取得部23、通信部24、および、表示部25を備える。制御部21は、予め定められる制御プログラムを実行する演算処理装置を含む。演算処理装置は、例えばCPU、GPUまたはMPUを含む。 The interface unit 20 includes a control unit 21, a storage unit 22, an acquisition unit 23, a communication unit 24, and a display unit 25. The control unit 21 includes an arithmetic processing device that executes a predetermined control program. The arithmetic processing unit includes, for example, a CPU, GPU or MPU.

記憶部22は、制御部21が実行する各種の制御プログラムおよび各種の制御処理に用いられる情報が記憶される。記憶部22は、例えば不揮発性メモリおよび揮発性メモリを含む。不揮発性メモリは、例えば、ROM、EPROM、EEPROM、および、フラッシュメモリの少なくとも1つを含む。揮発性メモリは、例えば、RAMを含む。 The storage unit 22 stores various control programs executed by the control unit 21 and information used for various control processes. The storage unit 22 includes, for example, a non-volatile memory and a volatile memory. The non-volatile memory includes, for example, at least one of ROM, EPROM, EEPROM, and flash memory. Volatile memory includes, for example, RAM.

取得部23は、ユーザから入力情報Iを取得する。取得部23は、ユーザの入力情報Iを取得するための任意の構成を備える。第1例では、ユーザの口腔の口腔画像Pを取得できるカメラである。口腔画像Pは、静止画および動画を含む。口腔画像Pは、奥行き情報を有する3次元画像または複数の画像を張り合わせることにより構成されるパノラマ画像を含む。カメラは、スマートデバイスに搭載されるカメラであってもよく、別途独立したカメラであってもよい。独立したカメラは、例えば口腔内の撮影に適する先端部にカメラが設けられたペン型のカメラまたは360°の範囲の撮影が可能なカメラである。独立したカメラは、制御部21と有線または無線通信が可能に構成される。独立したカメラが撮影した口腔画像Pは、有線又は無線通信により制御部21に送信される。第2例では、取得部23はユーザが文字等を入力または選択できるように構成されたユーザインタフェースである。ユーザの入力情報Iは、ユーザの生活習慣に関する情報、ユーザの口腔内分泌物に関する情報、ユーザの口腔内細菌叢に関する情報、所定の質問に対する回答情報、および、ユーザ自身の属性に関する情報の少なくとも1つをさらに含んでいてもよい。ユーザの生活習慣に関する情報は、ユーザの食事内容、口腔ケア行動、起床または睡眠時間に関する情報を含む。ユーザの口腔内分泌物に関する情報は、唾液の量、粘性、水素イオン濃度、抗菌成分の量、および、歯の再石灰化に関する成分の量に関する情報を含む。ユーザの口腔内細菌叢に関する情報は、唾液中、歯垢、または粘膜に存在する主な細菌の量および種類に関する情報および主な細菌の抗体の種類および量に関する情報を含む。ユーザの口腔内分泌物に関する情報およびユーザの口腔内細菌叢に関する情報は、ユーザに対する問診の結果であってもよく、ユーザの口腔内に存在する口腔内分泌物等を所定の手段により検査した結果情報であってもよい。所定の質問に関する回答情報は、ユーザの歯茎の状態に関する質問、口腔ケア時の好みのブラッシング方法、1日の歯磨きの回数、1回あたりの歯磨きにかける時間、歯磨きを実施する時刻、および入れ歯の有無を含む。ユーザの歯茎の状態に関する質問は、例えばブラッシング時または飲食時の歯茎からの出血の有無を含む。ユーザ自身の属性に関する情報は、例えばユーザ自身の年齢、性別、身長、体重、利き腕、および、既往歴である。第3例では、取得部23は口腔内の状態を検出するセンサである。センサは、例えば蛍光センサおよび温度センサである。蛍光センサは、所定の波長の光を照射し、光の量を定量して口腔内における所定物の分布および量を測定する。所定物は、例えばステインまたはプラークである。温度センサは、口腔内の温度を測定する。センサは、制御部21と有線または無線通信が可能に構成される。センサにより得られる情報は、有線または無線通信により制御部21に送信される。本実施形態において、取得部23は、第1例から第3例の複数を組み合わせて構成されていてもよい。センサは、咀嚼力、咬合力、歯茎の血流量、口臭、ブラッシング時のブラシ圧の強さ、または、ブラッシング時の歯ブラシの動きの少なくとも1つをさらに測定可能に構成されていてもよい。 The acquisition unit 23 acquires the input information I from the user. The acquisition unit 23 includes an arbitrary configuration for acquiring the input information I of the user. The first example is a camera capable of acquiring an oral image P of the user's oral cavity. The oral image P includes still images and moving images. The oral cavity image P includes a three-dimensional image having depth information or a panoramic image composed by laminating a plurality of images. The camera may be a camera mounted on a smart device, or may be a separately independent camera. The independent camera is, for example, a pen-type camera provided with a camera at the tip suitable for photographing in the oral cavity or a camera capable of photographing in a range of 360 °. The independent camera is configured to enable wired or wireless communication with the control unit 21. The oral cavity image P taken by the independent camera is transmitted to the control unit 21 by wired or wireless communication. In the second example, the acquisition unit 23 is a user interface configured so that the user can input or select characters and the like. The user input information I is at least one of information about the user's lifestyle, information about the user's oral secretions, information about the user's oral flora, answer information to a predetermined question, and information about the user's own attributes. May further be included. Information about the user's lifestyle includes information about the user's dietary content, oral care behavior, wake-up or sleep time. Information about the user's oral secretions includes information about the amount of saliva, viscosity, hydrogen ion concentration, amount of antibacterial component, and amount of component related to tooth remineralization. Information about the user's oral flora includes information about the amount and type of major bacteria present in saliva, plaque, or mucous membranes and information about the type and amount of antibodies of the major bacteria. The information on the user's oral secretions and the information on the user's oral bacterial flora may be the result of an interview with the user, and are the results of inspection of the oral endocrines and the like existing in the user's oral cavity by a predetermined means. There may be. The answer information for a given question is the user's gum condition question, preferred brushing method for oral care, number of brushes per day, time to brush each time, time to brush, and dentures. Including the presence or absence. Questions about the condition of the user's gums include, for example, the presence or absence of bleeding from the gums when brushing or eating or drinking. Information about the user's own attributes is, for example, the user's own age, gender, height, weight, dominant arm, and medical history. In the third example, the acquisition unit 23 is a sensor that detects the state in the oral cavity. The sensor is, for example, a fluorescence sensor and a temperature sensor. The fluorescence sensor irradiates light of a predetermined wavelength, quantifies the amount of light, and measures the distribution and amount of a predetermined substance in the oral cavity. Predetermines are, for example, stains or plaques. The temperature sensor measures the temperature in the oral cavity. The sensor is configured to enable wired or wireless communication with the control unit 21. The information obtained by the sensor is transmitted to the control unit 21 by wired or wireless communication. In the present embodiment, the acquisition unit 23 may be configured by combining a plurality of the first to third examples. The sensor may be configured to be able to further measure at least one of masticatory force, quotient force, gum blood flow, bad breath, brush pressure strength during brushing, or toothbrush movement during brushing.

通信部24は、制御部21の制御に基づいてインターフェイス部20外と通信可能に構成される。通信部24は、インターネット回線Nを介して通信可能に構成される。通信部24は、有線通信または無線通信によりインターフェイス部20のサーバ30と通信可能に構成されていてもよい。通信部24は、例えば取得部23が取得したユーザの入力情報Iを制御部21の制御に基づいて送信し、サーバ30からの出力情報Oを受信する。 The communication unit 24 is configured to be able to communicate with the outside of the interface unit 20 based on the control of the control unit 21. The communication unit 24 is configured to be able to communicate via the Internet line N. The communication unit 24 may be configured to be able to communicate with the server 30 of the interface unit 20 by wired communication or wireless communication. For example, the communication unit 24 transmits the user input information I acquired by the acquisition unit 23 under the control of the control unit 21, and receives the output information O from the server 30.

表示部25は、制御部21の制御に基づいて種々の情報を表示する。種々の情報は、例えば、ユーザの入力情報Iに関する情報およびサーバ30からの出力情報Oに関する情報である。一例では、表示部25は、ディスプレイにより構成される。表示部25のディスプレイがタッチパネルで構成されていてもよい。表示部25の一部が、タッチパネルで構成される場合、その一部が取得部23のユーザインタフェースの機能を兼ねていてもよい。 The display unit 25 displays various information based on the control of the control unit 21. The various information is, for example, information regarding the input information I of the user and information regarding the output information O from the server 30. In one example, the display unit 25 is composed of a display. The display of the display unit 25 may be composed of a touch panel. When a part of the display unit 25 is composed of a touch panel, a part of the display unit 25 may also serve as a user interface function of the acquisition unit 23.

ユーザは、例えばインターフェイス部20に所定のURLを入力すること、または、インターフェイス部20でQRコード(登録商標)を読み取ることによりサーバ30と通信する。ユーザが表示部25に表示されるアイコンを選択することにより、サーバ30との通信が開始されてもよい。 The user communicates with the server 30 by, for example, inputting a predetermined URL in the interface unit 20 or reading a QR code (registered trademark) in the interface unit 20. Communication with the server 30 may be started by the user selecting an icon displayed on the display unit 25.

サーバ30は、情報取得部31、情報出力部32、情報解析部33、および、情報記憶部34を備える。情報取得部31は、情報が取得可能に構成される。一例では、情報取得部31は、インターフェイス部20の通信部24から情報を取得する。情報出力部32は、情報が出力可能に構成される。一例では、情報出力部32は、インターフェイス部20の通信部24に情報を出力する。 The server 30 includes an information acquisition unit 31, an information output unit 32, an information analysis unit 33, and an information storage unit 34. The information acquisition unit 31 is configured so that information can be acquired. In one example, the information acquisition unit 31 acquires information from the communication unit 24 of the interface unit 20. The information output unit 32 is configured to be able to output information. In one example, the information output unit 32 outputs information to the communication unit 24 of the interface unit 20.

情報解析部33は、種々の解析および制御を実行する。情報解析部33は、予め定められる制御プログラムを実行する演算処理装置を含む。演算処理装置は、例えばCPUまたはMPUを含む。情報解析部33は、ユーザからの入力情報Iを解析可能に構成される。第1例では、情報解析部33は、機械学習による学習モデルMにより入力情報Iを解析する。この場合の入力情報Iは、ユーザの口腔画像Pを含む。学習モデルMは、一例では機械学習のモデルの一つである教師あり学習モデルである。第2例では、情報解析部33は、情報記憶部34に記憶される対応表を参照して、入力情報Iを解析する。この場合の入力情報Iは、口腔画像Pに変えてまたは加えてユーザの生活習慣に関する情報、ユーザの口腔内分泌物に関する情報、および、ユーザの口腔内細菌叢に関する情報、所定の質問に対する回答情報の少なくとも1つを含む。対応表は、入力情報Iまたは推定情報Eの少なくとも1つと出力情報Oとが対応付けられた表である。口腔画像Pに加えてさらに入力情報Iを含む場合、一例では学習モデルMは、口腔画像P以外の入力情報Iを解析する別の学習モデルをさらに含む。別の学習モデルは、例えば口腔画像Pの推定情報Eを補正するためのパラメータを出力可能に構成される。別の例では学習モデルMは、口腔画像Pおよび口腔画像Pを含まない入力情報Iの両方を組み合わせて学習させるマルチモーダル学習が実行可能なモデルとして構成される。 The information analysis unit 33 executes various analyzes and controls. The information analysis unit 33 includes an arithmetic processing device that executes a predetermined control program. The arithmetic processing unit includes, for example, a CPU or an MPU. The information analysis unit 33 is configured to be able to analyze the input information I from the user. In the first example, the information analysis unit 33 analyzes the input information I by the learning model M by machine learning. The input information I in this case includes the user's oral image P. The learning model M is, for example, a supervised learning model which is one of the models of machine learning. In the second example, the information analysis unit 33 analyzes the input information I with reference to the correspondence table stored in the information storage unit 34. The input information I in this case is changed to or in addition to the oral image P, and includes information on the user's lifestyle, information on the user's oral secretions, information on the user's oral bacterial flora, and answer information for a predetermined question. Includes at least one. The correspondence table is a table in which at least one of the input information I or the estimation information E and the output information O are associated with each other. When the input information I is further included in addition to the oral image P, in one example, the learning model M further includes another learning model that analyzes the input information I other than the oral image P. Another learning model is configured to be able to output parameters for correcting the estimation information E of the oral image P, for example. In another example, the learning model M is configured as a model capable of performing multimodal learning in which both the oral image P and the input information I not including the oral image P are combined and learned.

情報記憶部34は、学習モデルM、対応表、および種々の情報の少なくとも1つを記憶する。情報解析部33は、必要に応じて情報記憶部34に記憶される学習モデルM、対応表、および種々の情報を参照する。 The information storage unit 34 stores at least one of the learning model M, the correspondence table, and various information. The information analysis unit 33 refers to the learning model M, the correspondence table, and various information stored in the information storage unit 34 as needed.

情報解析部33が実行する学習モデルMを用いた口腔画像Pを含む入力情報Iの解析について説明する。情報解析部33が実行する解析のステップは、複数の工程を含む。複数の工程は、ユーザの口腔画像Pから口腔領域Rを検出する第1工程、入力情報Iから推定情報Eを推定する第2工程、および、推定情報Eに対応する出力情報Oを演算する第3工程を含む。 The analysis of the input information I including the oral cavity image P using the learning model M executed by the information analysis unit 33 will be described. The analysis step executed by the information analysis unit 33 includes a plurality of steps. The plurality of steps include the first step of detecting the oral cavity region R from the oral cavity image P of the user, the second step of estimating the estimated information E from the input information I, and the second step of calculating the output information O corresponding to the estimated information E. Includes 3 steps.

第1工程は、情報解析部33により任意の手段により実行される。一例では、顔を検出することに適した学習済みモデルを利用して、ユーザの口腔の口腔画像Pから口腔領域Rを検出する。口腔領域Rは、ユーザの上あごの歯を含む第1口腔領域R1およびユーザの下あごの歯を含む第2口腔領域R2を含む。顔を検出する学習済みモデルは、例えばAPIにより情報解析部33に導入される。 The first step is executed by the information analysis unit 33 by any means. In one example, the oral region R is detected from the oral image P of the user's oral cavity by using a trained model suitable for detecting the face. The oral region R includes a first oral region R1 including the teeth of the user's upper jaw and a second oral region R2 including the teeth of the user's lower jaw. The trained model for detecting the face is introduced into the information analysis unit 33 by, for example, API.

第1工程において、口腔画像Pから口腔領域Rが取得できない場合、情報解析部33は、情報出力部32を介してインターフェイス部20の表示部25にその内容を出力する。一例では、口腔画像Pに口腔領域Rが含まれない、口腔画像Pがぶれている、または、口腔画像Pの明るさが適切ではないことにより口腔領域Rが認識できないため、口腔画像Pを含む入力情報Iを再度入力することをユーザに要求する情報をインターフェイス部20の表示部25に出力する。第1口腔領域R1および第2口腔領域R2の一方が取得でき、他方が取得できない場合、情報解析部33は第1工程が完了したと判断してもよく、入力情報Iを再度入力することをユーザに要求する情報をインターフェイス部20に出力してもよい。 When the oral cavity region R cannot be acquired from the oral cavity image P in the first step, the information analysis unit 33 outputs the contents to the display unit 25 of the interface unit 20 via the information output unit 32. In one example, the oral cavity image P is included because the oral cavity image P does not include the oral cavity region R, the oral cavity image P is blurred, or the oral cavity image P cannot be recognized because the brightness of the oral cavity image P is not appropriate. The information requesting the user to input the input information I again is output to the display unit 25 of the interface unit 20. If one of the first oral region R1 and the second oral region R2 can be acquired and the other cannot be acquired, the information analysis unit 33 may determine that the first step has been completed, and the input information I may be input again. The information requested from the user may be output to the interface unit 20.

第2工程において、情報解析部33は、情報記憶部34に記憶される学習モデルMにより口腔画像Pを解析し、推定情報Eを推定する。推定情報Eは、所定状態の有無、程度、および、発生確率の少なくとも1つに関する情報を含む。推定情報Eは、第1特定部位とは異なる第2特定部位における歯間空隙、歯肉退縮、叢生、歯肉炎症、磨き残し、歯ぎしり、う蝕、知覚過敏、口臭、および、着色の有無または程度に関する情報、または、第2特定部位に対応する歯、歯茎、および、口腔粘膜の状態に関する情報の少なくとも1つを含む。歯、歯茎、および、口腔粘膜の状態に関する情報は、例えば歯の摩耗、歯の欠損、歯の破折の有無または程度、血色、乾燥状態、および、質感の少なくとも1つを含む。質感は、例えば指で触った場合に引き締まっていると感じられる硬めの質感と、指で触った場合にぶよぶよとしていると感じられる柔らかい質感とを含む複数の質感を含む。第2特定部位は、口腔内の小臼歯および大臼歯の少なくとも1つを含む。推定情報Eは、口腔内の小臼歯および大臼歯に関する情報の少なくとも1つを含む。推定情報Eは、ユーザの口腔内に歯周病が存在するか否かに関する情報、咀嚼機能が正常か否かに関する情報、咬合が正常か否かに関する情報、嚥下機能が正常か否かに関する情報の少なくとも1つを含んでいてもよい。歯周病が存在するか否かに関する情報は、歯肉と歯との間に生じるいわゆる歯周ポケットの大きさ、深さ、および数の少なくとも1つに関する情報である。咀嚼機能が正常か否かに関する情報は、例えば咀嚼力、偏咀嚼の有無、および、咀嚼音に関する情報である。咬合が正常か否かに関する情報は、例えば咬合力および上あごの歯と下あごの歯とのかみ合わせに関する情報である。嚥下機能が正常か否かに関する情報は、例えば嚥下障害の有無に関する情報である。 In the second step, the information analysis unit 33 analyzes the oral image P by the learning model M stored in the information storage unit 34, and estimates the estimated information E. The estimation information E includes information regarding the presence / absence of a predetermined state, the degree, and at least one of the occurrence probabilities. Estimated information E relates to interdental space, gingival recession, crowding, gingival inflammation, unpolished, bruxism, caries, hypersensitivity, halitosis, and the presence or absence or degree of coloring in a second specific site different from the first specific site. It contains at least one piece of information, or information about the condition of the teeth, gums, and oral mucosa corresponding to the second particular site. Information about the condition of the teeth, gums, and oral mucosa includes, for example, at least one of tooth wear, tooth defects, presence or absence or degree of tooth fracture, complexion, dryness, and texture. The texture includes a plurality of textures including, for example, a hard texture that feels firm when touched with a finger and a soft texture that feels bumpy when touched with a finger. The second specific site comprises at least one of the premolars and molars in the oral cavity. Estimated information E includes at least one piece of information about the premolars and molars in the oral cavity. The estimation information E is information on whether or not periodontal disease is present in the user's oral cavity, information on whether or not the masticatory function is normal, information on whether or not the occlusion is normal, and information on whether or not the swallowing function is normal. May contain at least one of. Information regarding the presence or absence of periodontal disease is information regarding at least one of the size, depth, and number of so-called periodontal pockets that occur between the gingiva and the tooth. The information on whether or not the masticatory function is normal is, for example, information on masticatory force, presence or absence of uneven mastication, and masticatory sound. Information on whether or not the occlusion is normal is, for example, information on the occlusal force and the engagement between the teeth of the upper jaw and the teeth of the lower jaw. The information regarding whether or not the swallowing function is normal is, for example, information regarding the presence or absence of dysphagia.

第2工程において、学習モデルMは第1情報と第2情報との対応をさらに演算する。第1情報は、例えば第1特定部位における叢生の有無である。第2情報は、例えば第2特定部位における歯間空隙の有無である。情報解析部33は、例えば第1情報と第2情報との関連性を統計学的解析で演算する。第1特定部位において叢生が存在する場合に、第2特定部位において歯間空隙が存在することについて相関があることが学習モデルMによる統計学的解析で明らかとなった場合、情報解析部33は推定情報Eにその内容を追加する。別の例では、第1情報は、ユーザの利き腕に関する情報である。第2情報は、第1特定部位における歯肉退縮の有無である。学習モデルMによる解析により、例えば第1特定部位において利き腕と同じ側の歯肉退縮の程度が利き腕と反対側の歯肉退縮の程度よりも大きい場合、ユーザのケア方法に偏りが生じている可能性がある。情報解析部33は、その内容を推定情報Eに追加する。 In the second step, the learning model M further calculates the correspondence between the first information and the second information. The first information is, for example, the presence or absence of crowding at the first specific site. The second information is, for example, the presence or absence of an interdental space in the second specific site. The information analysis unit 33 calculates, for example, the relationship between the first information and the second information by statistical analysis. When the statistical analysis by the learning model M reveals that there is a correlation between the presence of crowding in the first specific site and the presence of interdental space in the second specific site, the information analysis unit 33 will perform the information analysis unit 33. Add the content to the estimation information E. In another example, the first information is information about the user's dominant arm. The second information is the presence or absence of gingival recession at the first specific site. According to the analysis by the learning model M, for example, when the degree of gingival recession on the same side as the dominant arm is larger than the degree of gingival recession on the opposite side of the dominant arm in the first specific site, there is a possibility that the user's care method is biased. be. The information analysis unit 33 adds the content to the estimation information E.

第3工程において、情報解析部33は、推定情報Eの少なくとも一方に対応する出力情報Oを演算する。出力情報Oは、ユーザの現在の口腔状態に関する情報、ユーザの将来の口腔状態予測に関する情報、ユーザに対する口腔ケア方法に関する情報、およびユーザの口腔状態が影響をおよぼすユーザの健康状態に関する情報の少なくとも1つを含む。 In the third step, the information analysis unit 33 calculates the output information O corresponding to at least one of the estimated information E. The output information O is at least one of information about the user's current oral condition, information about the user's future oral condition prediction, information about the oral care method for the user, and information about the user's health condition affected by the user's oral condition. Including one.

口腔領域Rを解析するための学習モデルMについて説明する。学習モデルMは、複数の学習済みモデルを含む。学習モデルMは、口腔領域Rを評価できるか否かを判定する第1学習済みモデルM1と口腔領域Rを実際に評価する第2学習済みモデルM2を含む。 A learning model M for analyzing the oral region R will be described. The training model M includes a plurality of trained models. The learning model M includes a first trained model M1 for determining whether or not the oral region R can be evaluated and a second trained model M2 for actually evaluating the oral region R.

第1学習済みモデルM1は、口腔画像Pの口腔領域Rが解析可能な画質か否かをする学習モデルM11、叢生評価が可能か否かを判定する学習モデルM12、上あごの歯における歯間空隙評価が可能か否かを判定する学習モデルM13、下あごの歯における歯間空隙評価が可能か否かを判定する学習モデルM14、および、歯肉退縮評価が可能か否かを判定する学習モデルM15の少なくとも1つを含む。 The first trained model M1 is a learning model M11 for determining whether the oral region R of the oral image P has an analyzable image quality, a learning model M12 for determining whether crowding evaluation is possible, and an interdental space in the upper jaw teeth. A learning model M13 for determining whether or not the gap can be evaluated, a learning model M14 for determining whether or not the interdental space in the lower jaw tooth can be evaluated, and a learning model for determining whether or not the gingival recession can be evaluated. Includes at least one of M15.

第2学習済みモデルM2は、上あごの歯における叢生の有無を判定する学習モデルM21、下あごの歯における叢生の有無を判定する学習モデルM22、上あごの歯における歯間空隙の有無を判定する学習モデルM23、下あごの歯における歯間空隙の有無を判定する学習モデルM24、および、歯間退縮の有無を判定する学習モデルM25の少なくとも1つを含む。 The second trained model M2 is a learning model M21 for determining the presence or absence of crowding in the upper jaw teeth, a learning model M22 for determining the presence or absence of crowding in the lower jaw teeth, and a determination for the presence or absence of interdental gaps in the upper jaw teeth. It includes at least one of a learning model M23 for determining the presence or absence of interdental space in the lower jaw teeth, and a learning model M25 for determining the presence or absence of interdental retraction.

学習モデルMの作成について説明する。学習モデルMは、およそ1万枚の口腔画像Pに基づいて作成した。開発者は、口腔画像Pを学習用画像、検証用画像、および、テスト用画像に分類した。学習用画像は、学習モデルM作成時の教師ありデータである。検証用画像は、学習用画像に基づいた学習モデルMの動作を修正するための画像である。テスト用画像は、学習モデルMの動作を最終的に確認するための画像である。テスト用画像は、例えば学習モデルMが過学習を起こしているか否かの確認のために使用される。学習用画像は、全体の約56パーセントである。検証用画像は、全体の約24%である。テスト用画像は、全体の20%である。本実施形態において、学習モデルMはクラス分類の結果を出力する。学習モデルMは、歯間空隙、歯肉退縮、叢生、歯肉炎症、磨き残し、歯ぎしり、う蝕、知覚過敏、口臭、および、着色の有無または程度に関する情報、ユーザの口腔内に歯周病が存在するか否かに関する情報、咀嚼機能が正常か否かに関する情報、咬合が正常か否かに関する情報、嚥下機能が正常か否かに関する情報、および、第2特定部位に対応する歯、歯茎、および、口腔粘膜の状態に関する情報の少なくとも1つを出力する。 The creation of the learning model M will be described. The learning model M was created based on approximately 10,000 oral images P. The developer classified the oral image P into a learning image, a verification image, and a test image. The learning image is supervised data at the time of creating the learning model M. The verification image is an image for modifying the operation of the learning model M based on the learning image. The test image is an image for finally confirming the operation of the learning model M. The test image is used, for example, to confirm whether or not the learning model M is overfitting. The learning image is about 56% of the whole. The verification image is about 24% of the whole. The test image is 20% of the total. In this embodiment, the learning model M outputs the result of classification. The learning model M includes interdental space, gingival retraction, crowding, gingival inflammation, unpolished, gingival, caries, hypersensitivity, mouth odor, and information on the presence or absence or degree of coloring, and periodontal disease in the user's oral cavity. Information on whether or not to do, information on whether or not chewing function is normal, information on whether or not occlusion is normal, information on whether or not swallowing function is normal, and teeth, gums, and teeth corresponding to the second specific site, and , Output at least one piece of information about the condition of the oral mucosa.

図2は、ユーザの口腔画像Pの一例を示す。口腔画像Pは、少なくとも口腔内の第1特定部位を含む。第1特定部位は、中切歯T1、中切歯T1に対応する歯茎、側切歯T2、側切歯T2に対応する歯茎、犬歯T3、および、犬歯T3に対応する歯茎を含む。口腔画像Pは、口腔内の歯画像および歯茎画像を含む。歯画像は、口腔内の中切歯T1画像、側切歯T2画像、および、犬歯T3画像を含む。歯茎画像は、中切歯T1、側切歯T2、および、犬歯T3に対応する歯茎の画像を含む。口腔画像Pは、ユーザの口腔内における上下左右の4つの第1特定部位のうち、少なくとも1つの第1特定部位を含む。 FIG. 2 shows an example of the oral cavity image P of the user. The oral image P includes at least the first specific site in the oral cavity. The first specific site includes a middle incisor T1, a tooth corresponding to the middle incisor T1, a side incisor T2, a tooth corresponding to the side incisor T2, a canine T3, and a tooth stem corresponding to the canine T3. The oral image P includes a tooth image and a gum image in the oral cavity. Tooth images include intraoral central incisor T1 images, lateral incisor T2 images, and canine T3 images. The gingival image includes an image of the gingiva corresponding to the central incisor T1, the lateral incisor T2, and the canine T3. The oral image P includes at least one first specific site among the four first specific sites on the top, bottom, left, and right in the user's oral cavity.

図3を参照して、口腔画像Pに含まれる歯画像の好ましい範囲について説明する。叢生の有無の判断においては、中切歯T1の端部E1から破線L2の範囲が口腔画像Pに含まれることが好ましい。歯間空隙の有無の判定においては、中切歯T1の端部E1から2点鎖線L3の範囲が口腔画像Pに含まれることが好ましい。歯肉退縮の有無の判定においては、中切歯T1の端部E1から実線L1の範囲が口腔画像Pに含まれることが好ましい。この範囲の中切歯T1の画像が口腔画像Pに含まれることにより、対応する歯茎の画像が口腔画像Pに含まれる。 With reference to FIG. 3, a preferable range of the tooth image included in the oral image P will be described. In determining the presence or absence of crowding, it is preferable that the range from the end E1 of the central incisor T1 to the broken line L2 is included in the oral image P. In determining the presence or absence of the interdental space, it is preferable that the oral image P includes the range from the end E1 of the central incisor T1 to the two-dot chain line L3. In determining the presence or absence of gingival recession, it is preferable that the range from the end E1 of the central incisor T1 to the solid line L1 is included in the oral image P. Since the image of the central incisor T1 in this range is included in the oral image P, the image of the corresponding gum is included in the oral image P.

各口腔画像Pは、口腔を解析する専門家により教師付けを行った。図4から図9は、教師付けを行った口腔画像Pの一例を示す。口腔を解析する専門家は、例えば歯科医師、歯科衛生士、口腔状態の研究を行う研究者、または、口腔ケア用品の開発を行う開発者である。口腔を解析する専門家は、口腔の口腔画像Pの第1口腔領域R1および第2口腔領域R2ごとに叢生の程度の判定、歯肉退縮の程度の判定、および歯間空隙の程度の判定を行った。口腔を解析する専門家は、叢生の程度の判定において叢生の種類に基づく判定を行った。口腔を解析する専門家は歯肉退縮の判定において、歯肉退縮なしから全体歯肉退縮まで複数の段階の判定を行った。口腔を解析する専門家は歯間空隙の判定において、上あごと下あごのそれぞれに対して、歯間空隙なしから重度の歯間空隙ありまで、複数の段階の評価を行った。 Each oral image P was supervised by a specialist who analyzes the oral cavity. 4 to 9 show an example of a supervised oral image P. Professionals who analyze the oral cavity are, for example, dentists, dental hygienists, researchers who study oral conditions, or developers who develop oral care products. An expert who analyzes the oral cavity determines the degree of crowding, the degree of gingival recession, and the degree of interdental space for each of the first oral region R1 and the second oral region R2 of the oral image P of the oral cavity. rice field. Experts analyzing the oral cavity made decisions based on the type of crowding in determining the degree of crowding. Experts who analyze the oral cavity made multiple stages of judgment of gingival recession, from no gingival recession to total gingival recession. Experts analyzing the oral cavity performed multiple stages of evaluation of the interdental space, from no interdental space to severe interdental space, for each of the upper and lower jaws.

口腔内の第1特定部位における状態は、口腔内の第1特定部位とは異なる第2特定部位における状態と相関関係にある。一例では、40~70代の女性75人を対象とした試験において、前歯における歯肉の状態と奥歯における歯肉の状態とが高く相関している。すなわち、第1特定部位において歯肉退縮が発生している場合、第2特定部位においても歯肉退縮が発生している。歯間空隙および叢生の程度についても、同様である。 The state at the first specific site in the oral cavity correlates with the state at the second specific site different from the first specific site in the oral cavity. In one example, in a study of 75 women in their 40s and 70s, the gingival condition in the anterior teeth and the gingival condition in the back teeth were highly correlated. That is, when gingival recession occurs at the first specific site, gingival recession also occurs at the second specific site. The same applies to the degree of interdental space and crowding.

情報解析部33は、推定情報Eを所定の構成に出力する。第1例では、情報解析部33は、情報出力部32に出力する。第2例では、情報解析部33は、情報記憶部34に出力する。第3例では、情報解析部33は、情報出力部32および情報記憶部34の両方に推定情報Eを出力する。 The information analysis unit 33 outputs the estimated information E to a predetermined configuration. In the first example, the information analysis unit 33 outputs to the information output unit 32. In the second example, the information analysis unit 33 outputs to the information storage unit 34. In the third example, the information analysis unit 33 outputs the estimated information E to both the information output unit 32 and the information storage unit 34.

推定情報Eは、出力情報Oに対応付けられる。出力情報Oについて説明する。出力情報Oは、ユーザの現在の口腔状態に関する情報、ユーザの将来の口腔状態予測に関する情報、ユーザに対する口腔ケア方法に関する情報、および、ユーザの口腔状態が影響をおよぼすユーザの健康状態に関する情報の少なくとも1つを含む。ユーザの現在の口腔状態に関する情報は、ユーザの口腔内全体の叢生の有無、歯肉退縮の有無、および、歯間空隙の有無に関する情報の少なくとも1つを含む。ユーザの現在の口腔状態に関する情報は、歯肉炎症の有無、磨き残しの有無、磨き残しの状態、歯ぎしりの有無、知覚過敏の有無、および、口臭の有無の少なくとも1つをさらに含んでいてもよい。 The estimation information E is associated with the output information O. The output information O will be described. The output information O is at least information about the user's current oral condition, information about the user's future oral condition prediction, information about the oral care method for the user, and information about the user's health condition affected by the user's oral condition. Includes one. The information about the user's current oral condition includes at least one of information about the presence or absence of crowding in the entire oral cavity of the user, the presence or absence of gingival recession, and the presence or absence of interdental space. Information about the user's current oral condition may further include at least one of gingival inflammation, unpolished condition, unpolished condition, bruxism, hyperesthesia, and halitosis. ..

ユーザの将来の口腔予測に関する情報は、所定期間が経過後のユーザの口腔状態を示す推定画像を含む。ユーザに対する口腔ケア方法に関する情報は、ユーザの口腔状態に適した口腔ケア用品および使用方法に関する情報を含む。ユーザの口腔状態が影響をおよぼすユーザの健康状態に関する情報は、例えば歯周病または口腔状態に関連する口腔以外の健康状態に関する情報を含む。 Information about the user's future oral prediction includes an estimated image showing the user's oral condition after a predetermined period of time. Information on oral care methods for the user includes information on oral care products and usage methods suitable for the user's oral condition. Information about the user's health condition affected by the user's oral condition includes, for example, information about non-oral health related to periodontal disease or oral condition.

推定情報Eと出力情報Oとの対応は、情報解析部33により任意の手段で実行される。第1例では、予め口腔状態の研究を行う研究者、または、口腔ケア用品の開発を行う開発者によって推定情報Eと出力情報Oとが対応付けられた対応表により実行される。第2例では、推定情報Eと出力情報Oとの対応は、機械学習のモデルにより実行される。 The correspondence between the estimation information E and the output information O is executed by the information analysis unit 33 by any means. In the first example, the estimation information E and the output information O are associated with each other by a researcher who studies the oral condition in advance or a developer who develops oral care products. In the second example, the correspondence between the estimation information E and the output information O is executed by a machine learning model.

本実施形態の口腔状態評価システム10の作用について説明する。ユーザは、取得部23に対して入力情報Iを入力する。制御部21は、通信部24を制御してサーバ30に入力情報Iを出力する。サーバ30は、情報取得部31で入力情報Iを取得する。情報解析部33は、情報記憶部34に記憶される学習モデルMを利用して入力情報Iから推定情報Eを演算する。情報解析部33は、推定情報Eと対応する出力情報Oを演算する。サーバ30は、情報出力部32から出力情報Oをインターフェイス部20に出力する。制御部21は、出力情報Oを通信部24から取得して、表示部25に表示する。ユーザは、出力情報Oを表示部25の表示を介して認識する。 The operation of the oral condition evaluation system 10 of the present embodiment will be described. The user inputs the input information I to the acquisition unit 23. The control unit 21 controls the communication unit 24 to output the input information I to the server 30. The server 30 acquires the input information I in the information acquisition unit 31. The information analysis unit 33 calculates the estimation information E from the input information I by using the learning model M stored in the information storage unit 34. The information analysis unit 33 calculates the output information O corresponding to the estimation information E. The server 30 outputs the output information O from the information output unit 32 to the interface unit 20. The control unit 21 acquires the output information O from the communication unit 24 and displays it on the display unit 25. The user recognizes the output information O through the display of the display unit 25.

本実施形態の口腔状態評価システム10によれば、以下の効果がさらに得られる。
情報解析部33は、任意の組み合わせの第1情報と第2情報との関連を解析する。このため、情報解析部33が実行する学習モデルMによる解析により、口腔を解析する専門家による分析では顕在化しなかった口腔状態の評価を実行できる。
According to the oral condition evaluation system 10 of the present embodiment, the following effects can be further obtained.
The information analysis unit 33 analyzes the relationship between the first information and the second information in any combination. Therefore, by the analysis by the learning model M executed by the information analysis unit 33, it is possible to evaluate the oral condition that was not manifested by the analysis by the expert who analyzes the oral cavity.

(変形例)
実施の形態に関する説明は本発明に関する口腔状態評価システムおよび口腔ケア推薦方法が取り得る形態の例示であり、その形態を制限することを意図していない。本発明は実施形態以外に例えば以下に示される実施形態の変形例、および、相互に矛盾しない少なくとも2つの変形例が組み合わせられた形態を取り得る。
(Modification example)
The description of the embodiments is an example of possible forms of the oral condition evaluation system and the oral care recommendation method according to the present invention, and is not intended to limit the forms. In addition to the embodiments, the present invention may take, for example, a modification of the embodiment shown below and a combination of at least two modifications that do not contradict each other.

・学習モデルMは、回帰分析の結果を出力するように構成されていてもよい。この場合、学習モデルMは、叢生の程度、歯間空隙の程度、および、歯肉退縮の程度の少なくとも1つを数値化して出力する。 -The learning model M may be configured to output the result of regression analysis. In this case, the learning model M quantifies and outputs at least one of the degree of crowding, the degree of interdental space, and the degree of gingival recession.

・学習済みモデルM1および学習済みモデルM2の少なくとも一方は、教師なし学習または強化学習により学習されたモデルであってもよい。各学習モデルM11~M15および各学習モデルM21~M25の少なくとも1つが教師なし学習または強化学習により学習されたモデルであってもよい。 -At least one of the trained model M1 and the trained model M2 may be a model trained by unsupervised learning or reinforcement learning. At least one of each learning model M11 to M15 and each learning model M21 to M25 may be a model learned by unsupervised learning or reinforcement learning.

・学習モデルMは、口腔画像Pにおいて第1口腔領域R1と第2口腔領域R2を区別することなく、評価が可能か否かを判定する第1学習済みモデルM1および評価を行う第2学習済みモデルM2であってもよい。学習モデルMは、口腔画像Pにおいて、1組の歯および歯茎を認識して、評価が可能か否かを判定する第1学習済みモデルM1および評価を行う第2学習済みモデルM2であってもよい。また、口腔領域R内の1組の歯および歯茎をそれぞれ認識して、過半数が評価可能である場合に、解析を実行する学習モデルMであってもよい。 The learning model M is a first trained model M1 for determining whether or not evaluation is possible without distinguishing between the first oral region R1 and the second oral region R2 in the oral image P, and a second trained model M for evaluation. It may be model M2. The learning model M may be a first trained model M1 that recognizes a set of teeth and gums in the oral image P and determines whether or not evaluation is possible, and a second trained model M2 that performs evaluation. good. Further, it may be a learning model M that recognizes a set of teeth and gums in the oral cavity region R and executes analysis when the majority can be evaluated.

・学習モデルMは、口腔画像Pを出力情報Oとして疑似色で表示されるように構成されていてもよい。一例では、口腔画像Pにおいて学習モデルMが解析に使用した領域、または、歯間空隙、歯肉退縮、および、叢生が生じている領域を赤色で表示する。ユーザは、解析に利用した領域および口腔状態に問題が生じている領域を容易に認識できる。 The learning model M may be configured so that the oral cavity image P is displayed as output information O in a pseudo color. In one example, the region used for analysis by the learning model M in the oral image P, or the region where the interdental space, gingival recession, and crowding occur is displayed in red. The user can easily recognize the area used for the analysis and the area where the oral condition has a problem.

・第2工程における第1情報および第2情報の組み合わせは任意の組み合わせが選択される。第1情報および第2情報の両方がそれぞれ異なる入力情報Iであってもよく、第1情報および第2情報の両方がそれぞれ異なる推定情報Eであってもよい。 -Any combination is selected as the combination of the first information and the second information in the second step. Both the first information and the second information may be different input information I, and both the first information and the second information may be different estimation information E.

・出力情報Oがユーザの口腔ケア用品および使用方法に関する情報を含む場合、該当する口腔ケア用品を購入するための購入情報が含まれるように構成されていてもよい。一例では、購入情報は該当する口腔ケア用品を購入または体験可能な店舗に関する情報である。別の例では、購入情報は該当する口腔ケア用品を販売するウェブ上のサイト情報である。 -When the output information O includes information on the user's oral care products and usage, the output information O may be configured to include purchase information for purchasing the corresponding oral care products. In one example, the purchase information is information about the store where the relevant oral care product can be purchased or experienced. In another example, the purchase information is website information on the web that sells the relevant oral care product.

・入力情報Iは、IoT機器を介して取得されてもよい。一例では、ブラッシングに使用する口腔ケアアイテムにIoT機器を接続することで、入力情報Iを取得する。一例では、入力情報Iは1日の歯磨きの回数および口腔ケアアイテムの使用頻度に関する情報を含む。IoT機器は、取得部23に対して入力情報Iを送信してもよく、サーバ30に対して入力情報Iを送信してもよい。 -The input information I may be acquired via the IoT device. In one example, input information I is acquired by connecting an IoT device to an oral care item used for brushing. In one example, input information I includes information about the number of tooth brushes per day and the frequency of use of oral care items. The IoT device may transmit the input information I to the acquisition unit 23, or may transmit the input information I to the server 30.

・学習モデルM、対応表、および種々の情報の少なくとも1つがサーバ30の情報記憶部34以外の場所に記憶されていてもよい。一例では、インターフェイス部20に設けられる記憶部に記憶される。別の例では、外部環境に構成されるデータベースに記憶される。 -At least one of the learning model M, the correspondence table, and various information may be stored in a place other than the information storage unit 34 of the server 30. In one example, it is stored in a storage unit provided in the interface unit 20. In another example, it is stored in a database configured in the external environment.

入力情報Iは、ユーザの現在の状態情報を含む第1入力情報I1とユーザの過去の状態情報である第2入力情報I2を含んでいてもよい。第1入力情報I1および第2入力情報I2がユーザの口腔画像Pを含む場合、第2入力情報I2に含まれる口腔画像Pは、第1入力情報I1を取得するよりも所定時間前のユーザの口腔内の画像である。第1入力情報I1および第2入力情報I2がユーザの口腔ケアに関する情報を含む場合、第2入力情報I2に含まれる口腔ケアに関する情報は、第1入力情報I1を取得するよりも所定時間前の口腔ケアに関する情報である。所定時間は、一例では1か月以上の時間である。別の例では、所定時間は1年以上の時間である。第2入力情報I2は、取得部23による第1入力情報I1の取得の前に通信部24を介してサーバ30に送信されてもよく、第1入力情報I1の送信と同時に通信部24を介してサーバ30に送信されてもよい。この場合、インターフェイス部20は、第2入力情報I2を少なくとも記憶する記憶部をさらに備える。入力情報Iは、第2入力情報I2よりも所定時間前に取得された第3入力情報I3をさらに含んでいてもよい。情報解析部33は、第1入力情報I1~第3入力情報I3の少なくとも1つを用いて推定情報Eを演算する。第3入力情報I3が追加されることにより、精度がさらに向上する。所定時間の間隔は、各入力情報Iで変更してもよい。入力情報Iは、第4入力情報以降の入力情報Iをさらに含んでいてもよい。 The input information I may include a first input information I1 including the current state information of the user and a second input information I2 which is the past state information of the user. When the first input information I1 and the second input information I2 include the oral image P of the user, the oral image P included in the second input information I2 is the user's oral image P before the acquisition of the first input information I1. It is an image in the oral cavity. When the first input information I1 and the second input information I2 include the information about the oral care of the user, the information about the oral care contained in the second input information I2 is a predetermined time before the acquisition of the first input information I1. Information about oral care. The predetermined time is, in one example, one month or more. In another example, the predetermined time is one year or more. The second input information I2 may be transmitted to the server 30 via the communication unit 24 before the acquisition unit 23 acquires the first input information I1, and the second input information I2 may be transmitted to the server 30 at the same time as the transmission of the first input information I1 via the communication unit 24. May be transmitted to the server 30. In this case, the interface unit 20 further includes a storage unit that stores at least the second input information I2. The input information I may further include the third input information I3 acquired before the second input information I2 by a predetermined time. The information analysis unit 33 calculates the estimation information E using at least one of the first input information I1 to the third input information I3. The accuracy is further improved by adding the third input information I3. The interval of the predetermined time may be changed by each input information I. The input information I may further include the input information I after the fourth input information.

10 :口腔状態評価システム
20 :インターフェイス部
30 :サーバ
31 :情報取得部
32 :情報出力部
33 :情報解析部
34 :情報記憶部
E :推定情報
I :入力情報
O :出力情報
10: Oral condition evaluation system 20: Interface unit 30: Server 31: Information acquisition unit 32: Information output unit 33: Information analysis unit 34: Information storage unit E: Estimated information I: Input information O: Output information

Claims (9)

少なくとも口腔内の第1特定部位を含む口腔画像をインターフェイス部から入力情報として取得する情報取得部と、
前記入力情報を前記口腔内の状態を評価するために予め前記口腔画像を学習した学習モデルにより解析する情報解析部と、を備え、
前記情報解析部は、前記第1特定部位とは異なる前記口腔内の第2特定部位における状態に関する推定情報を推定する
口腔状態評価システム。
An information acquisition unit that acquires an oral image including at least the first specific part in the oral cavity as input information from the interface unit.
It is provided with an information analysis unit that analyzes the input information by a learning model that has learned the oral image in advance in order to evaluate the state in the oral cavity.
The information analysis unit is an oral condition evaluation system that estimates estimated information about a state in a second specific part in the oral cavity different from the first specific part.
前記口腔画像は、前記口腔内の歯画像および歯茎画像を含む
請求項1に記載の口腔状態評価システム。
The oral condition evaluation system according to claim 1, wherein the oral image includes a tooth image and a gum image in the oral cavity.
前記歯画像は、前記口腔内の中切歯画像、側切歯画像、および、犬歯画像を含む、
請求項2に記載の口腔状態評価システム。
The tooth image includes a central incisor image, a lateral incisor image, and a canine image in the oral cavity.
The oral condition evaluation system according to claim 2.
前記第2特定部位は、前記口腔内の小臼歯および大臼歯の少なくとも1つを含み、
前記推定情報は、前記口腔内の小臼歯および大臼歯に関する情報の少なくとも1つを含む
請求項1から3のいずれか一項に記載の口腔状態評価システム。
The second specific site comprises at least one of the premolars and molars in the oral cavity.
The oral condition evaluation system according to any one of claims 1 to 3, wherein the estimated information includes at least one of information regarding premolars and molars in the oral cavity.
前記推定情報は、前記第2特定部位における歯間空隙、歯肉退縮、叢生、歯肉炎症、磨き残し、歯ぎしり、う蝕、知覚過敏、口臭、および、着色の有無または程度に関する情報、歯周病が存在するか否かに関する情報、咀嚼機能が正常か否かに関する情報、咬合が正常か否かに関する情報、嚥下機能が正常か否かに関する情報、および、前記第2特定部位に対応する歯、歯茎、および、口腔粘膜の状態に関する情報の少なくとも1つを含む
請求項1から4のいずれか一項に記載の口腔状態評価システム。
The estimated information includes interdental space, gingival recession, crowding, gingival inflammation, unpolished, gingival, caries, hypersensitivity, mouth odor, and information on the presence or absence or degree of coloring at the second specific site, and periodontal disease. Information on the presence or absence, information on whether the chewing function is normal, information on whether the occlusion is normal, information on whether the swallowing function is normal, and the teeth and gums corresponding to the second specific site. , And the oral condition evaluation system according to any one of claims 1 to 4, which comprises at least one piece of information regarding the condition of the oral mucosa.
前記学習モデルを記憶する情報記憶部をさらに備える、
請求項1から5のいずれか一項に記載の口腔状態評価システム。
Further provided with an information storage unit for storing the learning model.
The oral condition evaluation system according to any one of claims 1 to 5.
前記入力情報は、ユーザの生活習慣に関する情報、前記ユーザの口腔内分泌物に関する情報、前記ユーザの口腔内細菌叢に関する情報、前記ユーザ自身の属性に関する情報、および、前記口腔内の状態を検出するセンサにより得られる情報の少なくとも1つをさらに含む
請求項1から6のいずれか一項に記載の口腔状態評価システム。
The input information includes information on the lifestyle of the user, information on the oral secretions of the user, information on the bacterial flora in the oral cavity of the user, information on the attributes of the user himself, and a sensor for detecting the state in the oral cavity. The oral condition evaluation system according to any one of claims 1 to 6, further comprising at least one of the information obtained by.
前記推定情報に対応する情報を出力情報として出力する情報出力部をさらに備え、
前記情報出力部は、前記出力情報を少なくとも前記インターフェイス部に出力する
請求項1から7のいずれか一項に記載の口腔状態評価システム。
Further provided with an information output unit that outputs information corresponding to the estimated information as output information.
The oral condition evaluation system according to any one of claims 1 to 7, wherein the information output unit outputs the output information to at least the interface unit.
前記出力情報は、ユーザの現在の口腔状態に関する情報、前記ユーザの将来の口腔状態予測に関する情報、前記ユーザに対する口腔ケア方法に関する情報、および、前記ユーザの口腔状態が影響をおよぼす前記ユーザの健康状態に関する情報の少なくとも1つを含む
請求項8に記載の口腔状態評価システム。
The output information includes information on the user's current oral condition, information on the user's future oral condition prediction, information on the oral care method for the user, and the user's health condition affected by the user's oral condition. The oral condition assessment system according to claim 8, which comprises at least one piece of information relating to.
JP2020177192A 2020-10-22 2020-10-22 Oral cavity state evaluation system Pending JP2022068485A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020177192A JP2022068485A (en) 2020-10-22 2020-10-22 Oral cavity state evaluation system
US18/033,047 US20230394653A1 (en) 2020-10-22 2021-10-10 Oral Condition Evaluation System, Oral Care Recommendation System, and Oral Condition Notification System
PCT/JP2021/038774 WO2022085724A1 (en) 2020-10-22 2021-10-20 Oral condition evaluation system, oral care recommendation system, and oral condition notification system
EP21882865.5A EP4233683A1 (en) 2020-10-22 2021-10-20 Oral condition evaluation system, oral care recommendation system, and oral condition notification system
CN202180071230.5A CN116322469A (en) 2020-10-22 2021-10-20 Oral state evaluation system, oral care recommendation system, and oral state notification system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020177192A JP2022068485A (en) 2020-10-22 2020-10-22 Oral cavity state evaluation system

Publications (1)

Publication Number Publication Date
JP2022068485A true JP2022068485A (en) 2022-05-10

Family

ID=81460042

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020177192A Pending JP2022068485A (en) 2020-10-22 2020-10-22 Oral cavity state evaluation system

Country Status (1)

Country Link
JP (1) JP2022068485A (en)

Similar Documents

Publication Publication Date Title
WO2022085724A1 (en) Oral condition evaluation system, oral care recommendation system, and oral condition notification system
Richter et al. Incidence of caries lesions among patients treated with comprehensive orthodontics
JP6673703B2 (en) Tracking and predicting tooth movement
Saito et al. Effect of initial periodontal therapy on oral health–related quality of life in patients with periodontitis in Japan
EP4114248B1 (en) Dental feature identification for assessing oral health
Gillam A new perspective on dentine hypersensitivity–guidelines for general dental practice
JP7115833B2 (en) Support system for extending healthy life expectancy
KR20110125421A (en) System and method for providing dental care service
KR101710357B1 (en) A system, engine and method for managing of oral care
US20230026220A1 (en) Oral health assessment for generating a dental treatment plan
Wetselaar et al. Developing diagnostic criteria for tooth wear, a preliminary beta version based on expert opinion, and a narrative literature review
JP2022068485A (en) Oral cavity state evaluation system
JP6356899B1 (en) Dental health management support system
JP2022068483A (en) Oral cavity state evaluation system
JP2022068484A (en) Oral care recommendation system
JP2022068486A (en) Oral condition notification system
JP2022097176A (en) Oral cavity state evaluation system
JP4426500B2 (en) Evaluation method and apparatus for dental caries risk and program
JP7002632B2 (en) Examination method for determining the oral index
KR102491837B1 (en) A system and method for diagnosing the risk of dental caries and oral management using tooth surface coloring image data
Wetselaar Monitoring tooth wear
JP7317171B2 (en) Program, information processing device and information processing method
JP7102037B1 (en) Programs, information processing equipment and information processing methods
DK181284B1 (en) Customized oral care products
Lektemur Alpan et al. Comparison of oral hygiene attitudes, awareness and periodontal parameters of undergraduate dental students

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231011