JP7267974B2 - IDENTIFICATION DEVICE, SCANNER SYSTEM, IDENTIFICATION METHOD, AND IDENTIFICATION PROGRAM - Google Patents

IDENTIFICATION DEVICE, SCANNER SYSTEM, IDENTIFICATION METHOD, AND IDENTIFICATION PROGRAM Download PDF

Info

Publication number
JP7267974B2
JP7267974B2 JP2020113850A JP2020113850A JP7267974B2 JP 7267974 B2 JP7267974 B2 JP 7267974B2 JP 2020113850 A JP2020113850 A JP 2020113850A JP 2020113850 A JP2020113850 A JP 2020113850A JP 7267974 B2 JP7267974 B2 JP 7267974B2
Authority
JP
Japan
Prior art keywords
identification
tooth
type
dimensional data
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020113850A
Other languages
Japanese (ja)
Other versions
JP2022012198A (en
Inventor
亮佑 鍛治
巳貴則 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
J Morita Manufaturing Corp
Original Assignee
J Morita Manufaturing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by J Morita Manufaturing Corp filed Critical J Morita Manufaturing Corp
Priority to JP2020113850A priority Critical patent/JP7267974B2/en
Publication of JP2022012198A publication Critical patent/JP2022012198A/en
Application granted granted Critical
Publication of JP7267974B2 publication Critical patent/JP7267974B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Endoscopes (AREA)

Description

本開示は、識別装置、当該識別装置を備えるスキャナシステム、識別方法、および識別用プログラムに関する。 The present disclosure relates to an identification device, a scanner system including the identification device, an identification method, and an identification program.

従来、歯科分野において、補綴物などをコンピュータ上でデジタル設計するために、歯牙の三次元形状を取得する三次元カメラを内蔵した三次元スキャナが公知である。たとえば、特許文献1には、三次元カメラを用いて歯牙を撮像することで、歯牙の形状を記録する技術が開示されている。 2. Description of the Related Art Conventionally, in the field of dentistry, a 3D scanner with a built-in 3D camera for acquiring a 3D shape of a tooth is known for digital designing of a prosthesis or the like on a computer. For example, Patent Literature 1 discloses a technique for recording the shape of a tooth by capturing an image of the tooth using a three-dimensional camera.

特開2000-74635号公報JP-A-2000-74635

このように、三次元スキャナは、補綴物などをデジタル設計することに利用されてきた。しかし、三次元スキャナによって得られる情報を、他の用途で利用することは鑑みられていなかった。 Thus, three-dimensional scanners have been used to digitally design prostheses and the like. However, no consideration has been given to using the information obtained by the three-dimensional scanner for other purposes.

本開示は、三次元スキャナによって得られる三次元データの用途を広げることであって、歯科分野における三次元スキャナの可能性を高めることを目的とする。 An object of the present disclosure is to expand the use of three-dimensional data obtained by a three-dimensional scanner, and to enhance the possibilities of three-dimensional scanners in the dental field.

本開示に従えば、口腔内の生体部位に対する加工部位を識別する識別装置が提供される。識別装置は、口腔内の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力される入力部と、入力部から入力された三次元データと、三次元データに基づき加工部位を推定するためのニューラルネットワークを含む推定モデルとに基づき、加工部位を識別する識別部と、識別部による識別結果を出力する出力部とを備える。識別部は、推定モデルに含まれるニューラルネットワークに、三次元データのうち少なくとも三次元の位置情報を直接入力する。 According to the present disclosure, an identification device is provided for identifying a processed site with respect to a living body site in the oral cavity. The identification device includes an input unit into which three-dimensional data including three-dimensional position information at each of a plurality of points representing the three-dimensional shape of the oral cavity is input, three-dimensional data input from the input unit, and three-dimensional data. and an estimating model including a neural network for estimating the machined portion based on the identification unit for identifying the machined portion, and an output unit for outputting the identification result of the identification unit. The identification unit directly inputs at least three-dimensional position information of the three-dimensional data to a neural network included in the estimation model.

本開示に従えば、口腔内の形状情報を取得するスキャナシステムが提供される。スキャナシステムは、三次元カメラを用いて口腔内の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報を含む三次元データを取得する三次元スキャナと、三次元スキャナによって取得された三次元データに基づき、口腔内の生体部位に対する加工部位を識別する識別装置とを備え、識別装置は、三次元スキャナによって取得された三次元データが入力される入力部と、入力部から入力された三次元データと、三次元データに基づき加工部位を推定するためのニューラルネットワークを含む推定モデルとに基づき、加工部位を識別する識別部と、識別部による識別結果を出力する出力部とを含む。識別部は、推定モデルに含まれるニューラルネットワークに、三次元データのうち少なくとも三次元の位置情報を直接入力する。 According to the present disclosure, a scanner system is provided for acquiring intraoral shape information. The scanner system includes a three-dimensional scanner that acquires three-dimensional data including three-dimensional position information at each of a plurality of points that indicate the three-dimensional shape of the oral cavity using a three-dimensional camera, and a three-dimensional scanner acquired by the three-dimensional scanner. and an identification device that identifies the processed part of the living body part in the oral cavity based on the original data. An identification unit for identifying a machined portion based on three-dimensional data and an estimation model including a neural network for estimating the machined portion based on the three-dimensional data, and an output unit for outputting the identification result of the identification unit. The identification unit directly inputs at least three-dimensional position information of the three-dimensional data to a neural network included in the estimation model.

本開示に従えば、コンピュータによる口腔内の生体部位に対する加工部位を識別する識別方法が提供される。識別方法は、口腔内の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力されるステップと、入力されるステップによって入力された三次元データと、三次元データに基づき加工部位を推定するためのニューラルネットワークを含む推定モデルとに基づき、加工部位を識別するステップと、識別するステップによる識別結果を出力するステップとを含む。推定モデルに含まれるニューラルネットワークに、三次元データのうち少なくとも三次元の位置情報が直接入力される。 According to the present disclosure, a computer-assisted identification method is provided for identifying a processed portion for a biological portion within an oral cavity. The identification method includes a step of inputting three -dimensional data including three-dimensional position information at each of a plurality of points representing a three-dimensional shape of the oral cavity; a step of identifying a machined portion based on an estimation model including a neural network for estimating a machined portion based on data; and a step of outputting an identification result obtained by the identifying step. At least three-dimensional position information among the three-dimensional data is directly input to a neural network included in the estimation model.

本開示に従えば、口腔内の生体部位に対する加工部位を識別する識別用プログラムは提供される。識別用プログラムは、コンピュータに、口腔内の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力されるステップと、入力されるステップによって入力された三次元データと、三次元データに基づき加工部位を推定するためのニューラルネットワークを含む推定モデルとに基づき、加工部位を識別するステップと、識別するステップによる識別結果を出力するステップとを実行させる。推定モデルに含まれるニューラルネットワークに、三次元データのうち少なくとも三次元の位置情報が直接入力される。 According to the present disclosure, an identification program is provided for identifying a processed site relative to an intraoral biometric site. The identification program includes a step of inputting three-dimensional data including three-dimensional position information of each of a plurality of points representing a three-dimensional shape of the oral cavity into the computer, and the three-dimensional data input by the input step. and an estimation model including a neural network for estimating the machined part based on the three-dimensional data. At least three-dimensional position information among the three-dimensional data is directly input to a neural network included in the estimation model.

本開示によれば、口腔内の形状を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データから、口腔内の加工部位を識別することができ、加工部位を識別するという新たな用途を提供できる。 According to the present disclosure, it is possible to identify a processed site in the oral cavity from three-dimensional data including three-dimensional position information at each of a plurality of points that constitute the shape of the oral cavity, and to identify the processed site. can provide a variety of uses.

実施形態1にかかるスキャナシステム10の全体構成を示す模式図である。1 is a schematic diagram showing the overall configuration of a scanner system 10 according to a first embodiment; FIG. 実施形態1にかかるスキャナシステム10の適用例を示す模式図である。1 is a schematic diagram showing an application example of the scanner system 10 according to the first embodiment; FIG. 実施形態1にかかるスキャナシステム10を適用可能なシステムの全体構成を示す模式図である。1 is a schematic diagram showing the overall configuration of a system to which the scanner system 10 according to the first embodiment can be applied; FIG. 実施形態1にかかる識別装置100のハードウェア構成を示す模式図である。1 is a schematic diagram showing a hardware configuration of an identification device 100 according to Embodiment 1; FIG. 実施形態1にかかる識別装置100の機能構成を示す模式図である。1 is a schematic diagram showing a functional configuration of an identification device 100 according to Embodiment 1; FIG. 実施形態1にかかる識別装置100による識別処理を説明するための模式図である。FIG. 4 is a schematic diagram for explaining identification processing by the identification device 100 according to the first embodiment; 実施形態1にかかる学習用データの生成を説明するための模式図である。4 is a schematic diagram for explaining generation of learning data according to the first embodiment; FIG. 実施形態1にかかる学習用データの一例を説明するための模式図である。4 is a schematic diagram for explaining an example of learning data according to the first embodiment; FIG. 実施形態1にかかる識別装置100が実行する加工種用の学習処理の一例を説明するためのフローチャートである。4 is a flowchart for explaining an example of processing type learning processing executed by the identification device 100 according to the first embodiment. 実施形態1にかかる識別装置100が実行するサービス提供処理の一例を説明するためのフローチャートである。5 is a flowchart for explaining an example of service providing processing executed by the identification device 100 according to the first embodiment; 測定中の出力例を示す図である。FIG. 10 is a diagram showing an output example during measurement; 測定中の出力例の変形例を示す図である。FIG. 10 is a diagram showing a modified example of an output during measurement; 実施形態2にかかるスキャナシステム10aの測定中に機能する機能構成を示す模式図である。FIG. 10 is a schematic diagram showing a functional configuration that functions during measurement of the scanner system 10a according to the second embodiment; 実施形態2にかかる識別装置100aの測定後にカルテを生成する際に機能する機能構成を示す模式図である。FIG. 11 is a schematic diagram showing a functional configuration that functions when a medical chart is generated after measurement of the identification device 100a according to the second embodiment; 加工部位の歯牙の種類を推定する方法を説明するための模式図である。FIG. 4 is a schematic diagram for explaining a method of estimating the type of tooth of a machined region; 実施形態2にかかる学習用データセット116aの一例を説明するための模式図である。FIG. 11 is a schematic diagram for explaining an example of a learning data set 116a according to the second embodiment; FIG. 実施形態2にかかる学習用データセット116aに基づく学習済モデル115aの生成を説明するための模式図である。FIG. 11 is a schematic diagram for explaining generation of a trained model 115a based on a learning data set 116a according to the second embodiment; 実施形態2にかかる識別装置100aが実行する歯牙種用の学習処理の一例を説明するためのフローチャートである。10 is a flowchart for explaining an example of tooth type learning processing executed by the identification device 100a according to the second embodiment. 実施形態2にかかる識別装置100aが実行するサービス提供処理の一例を説明するためのフローチャートである。9 is a flowchart for explaining an example of service providing processing executed by the identification device 100a according to the second embodiment; 実施形態2にかかる識別装置100aが実行するカルテ生成処理の一例を説明するためのフローチャートである。10 is a flowchart for explaining an example of chart generation processing executed by the identification device 100a according to the second embodiment; 実施形態3にかかるスキャナシステム10bの測定中に機能する機能構成を示す模式図である。FIG. 11 is a schematic diagram showing a functional configuration functioning during measurement of the scanner system 10b according to the third embodiment; 測定後にカルテを生成する際に機能する識別装置100bの機能構成を示す模式図である。FIG. 3 is a schematic diagram showing a functional configuration of an identification device 100b that functions when generating a chart after measurement; 実施形態3にかかる学習用データセット116bに基づく学習済モデル115bの生成を説明するための模式図である。FIG. 11 is a schematic diagram for explaining generation of a trained model 115b based on a learning data set 116b according to the third embodiment; 実施形態3にかかる識別装置100bが実行する病変用の学習処理の一例を説明するためのフローチャートである。FIG. 12 is a flowchart for explaining an example of a lesion learning process executed by the identification device 100b according to the third embodiment; FIG. 実施形態3にかかる識別装置100bが実行するサービス提供処理の一例を説明するためのフローチャートである。FIG. 12 is a flowchart for explaining an example of service providing processing executed by the identification device 100b according to the third embodiment; FIG. 実施形態3にかかる識別装置100bが実行するカルテ生成処理の一例を説明するためのフローチャートである。FIG. 12 is a flowchart for explaining an example of a medical record generation process executed by the identification device 100b according to the third embodiment; FIG. 変形例にかかる学習用データセットの一例を説明するための模式図である。FIG. 11 is a schematic diagram for explaining an example of a learning data set according to a modification; 変形例にかかる学習用データセットを説明するための図である。It is a figure for demonstrating the data set for learning concerning a modification. 変形例に係る識別装置100cが実行するサービス提供処理の一例を説明するためのフローチャートである。FIG. 11 is a flowchart for explaining an example of service providing processing executed by an identification device 100c according to a modification; FIG.

本開示の実施形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰り返さない。 Embodiments of the present disclosure will be described in detail with reference to the drawings. The same or corresponding parts in the drawings are given the same reference numerals, and the description thereof will not be repeated.

<実施形態1>
[スキャナシステム10の概略]
図1~図3を参照しながら、実施形態1にかかるスキャナシステム10の概略について説明する。図1は、実施形態1にかかるスキャナシステム10の全体構成を示す模式図である。図2は、実施形態1にかかるスキャナシステム10の適用例を示す模式図である。図3は、実施形態1にかかるスキャナシステム10を適用可能なシステムの全体構成を示す模式図である。
<Embodiment 1>
[Overview of scanner system 10]
An overview of the scanner system 10 according to the first embodiment will be described with reference to FIGS. 1 to 3. FIG. FIG. 1 is a schematic diagram showing the overall configuration of a scanner system 10 according to the first embodiment. FIG. 2 is a schematic diagram showing an application example of the scanner system 10 according to the first embodiment. FIG. 3 is a schematic diagram showing the overall configuration of a system to which the scanner system 10 according to the first embodiment can be applied.

図1を参照して、実施形態1にかかるスキャナシステム10は、三次元スキャナ200と、識別装置100と、ディスプレイ300とを備える。三次元スキャナ200は、内蔵された三次元カメラによってスキャン対象の三次元データ122を取得する。具体的には、三次元スキャナ200は、口腔内をスキャンすることで、三次元データ122として、口腔内の形状を構成する複数の点のそれぞれの位置情報(縦方向,横方向,高さ方向の各軸の座標)を、光学センサなどを用いて取得する。あるいは、三次元スキャナ200は、口腔内の印象採得によって作成された模型に対してスキャンすることで、三次元データとして、スキャン対象部分を構成する複数の点のそれぞれの位置情報(たとえば、縦方向に沿ったX軸,横方向に沿ったY軸,高さ方向に沿ったZ軸の座標)を、光学センサなどを用いて取得する。識別装置100は、三次元スキャナ200によって取得された三次元データ122に基づき、任意の視点からの歯牙などの像を含む二次元画像、またはホログラムなどによる立体的な歯牙などの画像を含む三次元画像を生成し、生成した三次元画像をディスプレイ300に表示する。 Referring to FIG. 1 , scanner system 10 according to the first embodiment includes three-dimensional scanner 200 , identification device 100 and display 300 . The three-dimensional scanner 200 acquires three-dimensional data 122 to be scanned by a built-in three-dimensional camera. Specifically, the three-dimensional scanner 200 scans the intraoral cavity to generate three-dimensional data 122 of positional information (longitudinal direction, lateral direction, height direction) of each of a plurality of points forming the shape of the intraoral cavity. ) are acquired using an optical sensor or the like. Alternatively, the three-dimensional scanner 200 scans a model created by taking an impression of the oral cavity, and obtains positional information (for example, longitudinal X-axis along the direction, Y-axis along the horizontal direction, and Z-axis along the height direction) are acquired using an optical sensor or the like. Based on the three-dimensional data 122 acquired by the three-dimensional scanner 200, the identification device 100 generates a two-dimensional image including a tooth image from an arbitrary viewpoint, or a three-dimensional image including a three-dimensional image such as a hologram. An image is generated and the generated three-dimensional image is displayed on the display 300 .

実施形態1にかかるスキャナシステム10は、識別装置100が有するAI(人工知能:Artificial Intelligence)を利用して、三次元スキャナ200によって取得された三次元データ122に基づき、加工部位を自動的に識別する処理を実行するように構成されている。「加工部位を識別する」とは、三次元データ122に対応する部位が加工部位であるか否かを識別すると共に、加工部位である場合は当該加工部位の種類を識別することを意味する。なお、以下では、識別装置100による三次元データ122に対応する部位がどのような部位であるかを識別する処理を「識別処理」とも称する。 The scanner system 10 according to the first embodiment uses AI (Artificial Intelligence) possessed by the identification device 100 to automatically identify the processed region based on the three-dimensional data 122 acquired by the three-dimensional scanner 200. It is configured to execute a process that “Identifying a machined portion” means identifying whether or not a portion corresponding to the three-dimensional data 122 is a machined portion, and if it is a machined portion, identifying the type of the machined portion. Note that hereinafter, the process of identifying what kind of part the part corresponding to the three-dimensional data 122 is by the identification device 100 is also referred to as "identification process".

なお、「加工部位」は、口腔内の生体部位に対して治療を施すために加工された部位を意味する。また、「口腔内の生体部位」には、歯牙だけに限られず、歯肉部分を含み得る。加工部位には、歯牙に対して補綴物または人工歯を取り付けた部位に限られず、顎骨に対してインプラント体を取り付けた部位を含み得る。また、加工部位には、インプラント体、または補綴物といった人工的に生成した物(人工物)が取り付けられた部位に限らず、支台歯や窩洞形成歯のように天然歯を削った部位を含み得る。 The term "processed site" means a site that has been processed to treat a living body site in the oral cavity. In addition, the “biological site in the oral cavity” is not limited to teeth, and may include gums. The processed site is not limited to the site where the prosthesis or artificial tooth is attached to the tooth, and may include the site where the implant body is attached to the jawbone. In addition, the processed part is not limited to the part where an artificially produced object (artificial object) such as an implant body or prosthesis is attached, but also the part where the natural tooth is shaved such as an abutment tooth or a cavity-formed tooth. can contain.

図2を参照して、ユーザ1が三次元スキャナ200を用いて対象者2の口腔内の生体部位をスキャンすると、三次元データ122が識別装置100に入力される。識別装置100は、入力された三次元データ122およびニューラルネットワークを含む推定モデルに基づき、入力された三次元データ122に対応する部位がどのような部位であるかを識別する識別処理を実行する。実施形態1においては、識別装置100は、三次元データ122に対応する部位が加工部位であるか否かを識別すると共に、加工部位である場合は加工部位の種類を識別する識別処理を実行する。 With reference to FIG. 2 , when user 1 scans the intraoral biological part of subject 2 using three-dimensional scanner 200 , three-dimensional data 122 is input to identification device 100 . The identification device 100 performs identification processing for identifying what kind of part the part corresponding to the input three-dimensional data 122 is, based on the input three-dimensional data 122 and an estimation model including a neural network. In the first embodiment, the identification device 100 identifies whether or not the part corresponding to the three-dimensional data 122 is a machined part, and if it is a machined part, executes identification processing to identify the type of the machined part. .

「推定モデル」は、ニューラルネットワークと当該ニューラルネットワークによって用いられるパラメータとを含む。たとえば、「推定モデル」は、入力データである加工部位の三次元データと、当該三次元データに対応する加工部位の種類を示す正解データとを含む教師データを利用してパラメータが最適化される。 An "estimation model" includes a neural network and parameters used by the neural network. For example, the "estimation model" is parameter optimized using teacher data including three-dimensional data of the machined part, which is input data, and correct data indicating the type of the machined part corresponding to the three-dimensional data. .

ここで、表1に、正解データとして設定され得る加工部位の種類を示す。表1に示すように、加工部位の種類は、大分類として、たとえば、「インプラント」、「窩洞形成歯」、「支台歯」、および「補綴物」などを含む。「インプラント」は、歯根部分に相当する「インプラント体」および支台部分に相当する「アバットメント」などに分類され得る。また、「インプラント体」および「アバットメント」は、どのような補綴物が取り付けられるかによって、分類され得る。「支台歯」および「窩洞形成歯」は、さらに、どのような補綴物が取り付けられるかによって、分類され得る。「補綴物」は、さらに、インレー、アンレー、クラウン、ブリッジ、ベニア、デンチャーなどに分類され得る。 Here, Table 1 shows types of machined parts that can be set as correct data. As shown in Table 1, the types of processed parts are broadly classified into, for example, "implant", "cavity forming tooth", "abutment tooth", and "prosthesis". An “implant” can be classified into an “implant body” corresponding to a tooth root portion, an “abutment” corresponding to an abutment portion, and the like. Also, "implant body" and "abutment" can be classified according to what kind of prosthesis is attached. "Abutment teeth" and "cavity-forming teeth" can be further classified according to what prosthesis is attached. A "prosthesis" can be further classified into inlays, onlays, crowns, bridges, veneers, dentures, and the like.

Figure 0007267974000001
Figure 0007267974000001

表1に示すように、「加工部位」は、任意に細分化することができ、「支台歯」、「窩洞形成歯」、「補綴物」、および「インプラント」というように分類してもよく、また、「支台歯」、「窩洞形成歯」、「補綴物」、および「インプラント」の各々をさらに細分化して分類してもよい。すなわち、加工部位の分類方法は、任意に設計可能である。 As shown in Table 1, the "processing site" can be arbitrarily subdivided, and can be classified as "abutment tooth", "cavitated tooth", "prosthesis", and "implant". Also, each of "abutment teeth", "cavitated teeth", "prostheses" and "implants" may be further subdivided and classified. In other words, the method of classifying processed parts can be arbitrarily designed.

加工部位の分類方法は、任意に設計可能である。そのため、教師データに含まれる加工部位の種類を示す情報は、特定の分類方法によって分類された種類に加えて、さらに別の分類方法によって分類された場合の種類を含んでいてもよい。たとえば、加工部位の種類を示す情報は、「支台歯」と、「インレー適用の支台歯」とを含んでいてもよい。 The method of classifying processed parts can be arbitrarily designed. Therefore, the information indicating the types of machined parts included in the training data may include the types classified by a specific classification method, as well as the types classified by another classification method. For example, the information indicating the type of machined portion may include "abutment tooth" and "inlay-applied abutment tooth".

また、加工部位は、治療中の加工部位と、治療が完了している加工部位とに大別することもできる。そこで、正解データは、加工部位の種類を示す情報に加えて、「治療中」であるのか「治療済み」であるのかを特定可能な情報を含んでいてもよい。 Also, the processed region can be broadly classified into a processed region that is being treated and a processed region that has been completely treated. Therefore, in addition to information indicating the type of processed region, the correct data may include information that can specify whether the treatment is "under treatment" or "treated".

また、加工部位の種類によって、歯牙に施されている治療内容が異なる。そこで、正解データは、加工部位の種類を示す情報に加えて、「治療内容」を示す情報を含んでいても良い。 In addition, the content of treatment applied to the tooth differs depending on the type of processed portion. Therefore, the correct answer data may include information indicating "treatment content" in addition to information indicating the type of processed region.

また、教師データは、加工部位ではない生体部位(たとえば、天然歯、歯肉)の三次元データと、当該三次元データが加工部位ではないことを示す正解データとを含み得る。 Also, the teacher data can include three-dimensional data of a living body part (for example, natural tooth, gum) that is not a machined part, and correct data indicating that the three-dimensional data is not a machined part.

なお、このような推定モデルを学習する処理を「学習処理」とも称する。また、学習処理によって最適化された推定モデルを、特に「学習済モデル」とも称する。つまり、学習前の推定モデルおよび学習済みの推定モデルをまとめて「推定モデル」と総称する一方で、特に、学習済みの推定モデルを「学習済モデル」とも称する。 Note that processing for learning such an estimation model is also referred to as “learning processing”. In addition, the estimation model optimized by the learning process is particularly called a "learned model". That is, pre-learning estimation models and trained estimation models are collectively referred to as "estimation models", while trained estimation models are also particularly referred to as "learned models".

図2を参照して、スキャナシステム10を適用可能な場面について説明する。ユーザ1は、スキャナシステム10を用いることで、対象者2が有する歯牙を含む三次元形状のデータ(以下、「三次元データ」とも称する)を取得できる。なお、「ユーザ」は、歯科医師などの術者、歯科助手、歯科大学の先生または生徒、歯科技工士、メーカの技術者、製造工場の作業者など、スキャナシステム10を用いる者であればいずれであってもよい。「対象者」は、歯科医院の患者、歯科大学における被験者など、スキャナシステム10の対象となる者であればいずれであってもよい。 A scene to which the scanner system 10 can be applied will be described with reference to FIG. By using the scanner system 10, the user 1 can acquire three-dimensional shape data (hereinafter also referred to as "three-dimensional data") including the teeth that the subject 2 has. It should be noted that the “user” is any person who uses the scanner system 10, such as an operator such as a dentist, a dental assistant, a teacher or student at a dental college, a dental technician, an engineer at a manufacturer, or an operator at a manufacturing plant. may be The “subject” may be any person to whom the scanner system 10 is applied, such as a patient at a dental clinic or a subject at a dental college.

識別装置100によって学習済モデルを用いて識別処理が実行されると、その識別結果が、ディスプレイ300に出力される。 When identification processing is executed by identification device 100 using the trained model, the identification result is output to display 300 .

ディスプレイ300は、識別結果に対応する画像、文字、数字、アイコン、および記号の少なくともいずれか1つを表示する。 Display 300 displays at least one of images, letters, numbers, icons, and symbols corresponding to the identification result.

識別装置100は、三次元データ122および識別結果に基づいて、識別結果が反映された口腔内の三次元画像を生成してディスプレイ300に出力する。たとえば、識別装置100は、加工部位の種類に応じた色で加工部位をディスプレイ300に表示することで、識別結果を三次元画像に反映する。 Based on the three-dimensional data 122 and the identification result, the identification device 100 generates a three-dimensional intraoral image reflecting the identification result and outputs the image to the display 300 . For example, the identification device 100 reflects the identification result in the three-dimensional image by displaying the processed region on the display 300 in a color corresponding to the type of the processed region.

三次元スキャナ200は、補綴物などをデジタル設計することに利用されてきた。識別装置100は、三次元データから口腔内の加工部位の種類を識別することで、三次元スキャナ200に対して加工部位の種類を識別するという新たな用途を提供できる。 Three-dimensional scanners 200 have been used to digitally design prostheses and the like. The identification device 100 can provide the three-dimensional scanner 200 with a new application of identifying the type of the processed region by identifying the type of the processed region in the oral cavity from the three-dimensional data.

たとえば、口腔内の生体部位に対する加工部位の種類が識別され、その識別結果が出力されることで、ユーザ1は、スキャンをしながら判断した自身の診察結果と識別結果とを比較しながら、カルテの入力を行うことができる。また、自身の診察結果と識別結果とが異なり、加工部位を再度確認する場合であっても、ユーザ1は、ディスプレイ300に表示された識別結果を確認することで、口腔内における加工部位のおおよその位置を把握できる。その結果、対象者2が口を開いている時間を短くでき、対象者2の負担を軽減できる。 For example, by identifying the type of processed part for a living body part in the oral cavity and outputting the identification result, the user 1 can read the medical record while comparing the identification result with the diagnosis result determined while scanning. can be entered. In addition, even if the user 1 confirms the processed site again because the diagnosis result and the identification result are different from each other, the user 1 can check the recognition result displayed on the display 300 to obtain a rough estimate of the processed site in the oral cavity. position can be determined. As a result, the time during which the subject 2 has his/her mouth open can be shortened, and the burden on the subject 2 can be reduced.

また、スキャンした後にユーザ1が診療をする場合も、加工部位の種類という診察を補助する情報を得られるため、ユーザ1の個人の能力による診察結果の差を減らすことができる。 Also, when the user 1 performs medical examination after scanning, information such as the type of processed part that assists the medical examination can be obtained.

また、ユーザ1は、識別結果の反映された三次元画像をディスプレイ300に表示させながら、対象者2に診察結果を説明できる。これにより、対象者2は、自身の歯の状態を客観的に確認できる。 In addition, the user 1 can explain the diagnosis result to the subject 2 while causing the display 300 to display the three-dimensional image reflecting the identification result. This allows the subject 2 to objectively check the condition of his or her teeth.

図1および図3を参照して、識別装置100による識別結果は、識別処理時に用いられた三次元データとともに、スキャン情報として歯科技工所および管理センターに配置されたサーバ装置500に出力されてもよい。 1 and 3, the identification result by identification device 100 may be output as scan information to server device 500 located in the dental laboratory and management center along with the three-dimensional data used in identification processing. good.

たとえば、図3に示すように、スキャナシステム10は、複数のローカルA~Cのそれぞれに配置されている。たとえば、ローカルAおよびローカルBは歯科医院であり、当該歯科医院の院内において、ユーザ1である術者や歯科助手は、スキャナシステム10を利用して対象者2である患者の歯牙および歯肉を少なくとも含む口腔内の三次元データを取得する。また、ローカルCは歯科大学であり、当該歯科大学において、ユーザ1である先生や生徒は、対象者2である被験者の口腔内の三次元データを取得する。ローカルA~Cのそれぞれで取得されたスキャン情報(三次元データ,識別結果)は、ネットワーク5を介して、ローカルDである歯科技工所および管理センターに配置されたサーバ装置500に出力される。 For example, as shown in FIG. 3, scanner system 10 is located at each of a plurality of locals AC. For example, local A and local B are dental clinics, and in the dental clinics, an operator or a dental assistant who is user 1 uses scanner system 10 to at least scan teeth and gums of a patient who is subject 2. Acquire 3D data of the oral cavity including Also, the local C is a dental college, and at the dental college, a teacher or a student who is the user 1 acquires intraoral three-dimensional data of a subject who is the subject 2 . The scan information (three-dimensional data, identification results) acquired by each of the locals A to C is output via the network 5 to the server device 500 located in the dental laboratory and management center as the local D.

なお、識別装置100による識別結果と、ユーザ1による診察結果とが一致しない場合、ユーザ1は、カルテに入力するなどして、当該識別結果を修正する場合がある。このような場合に、ローカルA~Cの各々に配置されたスキャナシステム10は、修正前の識別結果と、修正後の識別結果との両方をスキャン情報に含めてサーバ装置500に出力してもよい。また、ローカルA~Cの各々に配置されたスキャナシステム10は、修正前の識別結果を含めることなく、修正後の識別結果をスキャン情報に含めてサーバ装置500に出力してもよい。 If the identification result by the identification device 100 and the medical examination result by the user 1 do not match, the user 1 may correct the identification result by inputting it into a chart. In such a case, the scanner systems 10 arranged in each of the locals A to C may include both the pre-correction identification result and the post-correction identification result in the scan information and output it to the server device 500. good. Further, the scanner systems 10 arranged in each of the locals A to C may include the corrected identification result in the scan information and output it to the server apparatus 500 without including the identification result before the correction.

歯科技工所においては、歯科技工士などが、ローカルA~Cのそれぞれから取得したスキャン情報に基づき、対象者2の歯牙の欠損部分を補う補綴物などを作成する。管理センターにおいては、サーバ装置500が、ローカルA~Cのそれぞれから取得したスキャン情報を蓄積して記憶し、ビッグデータとして保持する。 In the dental laboratory, a dental technician or the like creates a prosthesis or the like to replace the missing tooth portion of the subject 2 based on the scan information obtained from each of the locals A to C. In the management center, the server device 500 accumulates and stores the scan information obtained from each of the locals A to C, and holds it as big data.

なお、サーバ装置500は、歯科医院にローカルとは異なる管理センターに配置されるものに限らず、ローカル内に配置されてもよい。たとえば、ローカルA~Cのうちのいずれかのローカル内にサーバ装置500が配置されてもよい。また、1つのローカル内に複数の識別装置100が配置されてもよく、さらに、当該1つのローカル内に当該複数の識別装置100と通信可能なサーバ装置500が配置されてもよい。また、サーバ装置500は、クラウドサービスの形態で実現されてもよい。 Note that the server device 500 is not limited to being arranged in a management center different from the local one in the dental clinic, and may be arranged locally. For example, the server apparatus 500 may be arranged within any one of the locals A to C. FIG. Also, a plurality of identification devices 100 may be arranged within one local, and a server device 500 capable of communicating with the plurality of identification devices 100 may be arranged within the one local. Moreover, the server device 500 may be implemented in the form of a cloud service.

歯科技工所においては、ローカルA~Cのように、様々な所からスキャン情報が集約される。このため、歯科技工所で保持されているスキャン情報は、ネットワーク5を介して管理センターに送信されてもよいし、あるいは、CD(Compact Disc)およびUSB(Universal Serial Bus)メモリなどのリムーバブルディスク550を介して管理センターに送られてもよい。 In the dental laboratory, scan information is aggregated from various locations, such as local A-C. For this reason, the scan information held at the dental laboratory may be transmitted to the management center via the network 5, or may be sent to a removable disk 550 such as a CD (Compact Disc) and USB (Universal Serial Bus) memory. may be sent to the management center via

なお、ネットワーク5を介さずに、ローカルA~Cのそれぞれからも、リムーバブルディスク550を介してスキャン情報が管理センターに送られてもよい。また、ローカルA~Cのそれぞれの間においても、ネットワーク5またはリムーバブルディスク550を介してスキャン情報を互いに送り合ってもよい。 The scan information may also be sent to the management center from each of the local A to C via the removable disk 550 without going through the network 5 . Also, between each of the locals A to C, scan information may be sent to each other via the network 5 or the removable disk 550 .

各ローカルA~Cの識別装置100は、各自で推定モデルを保持しており、識別処理時に各自が保持する推定モデルを使用して加工部位の種類を識別する。各ローカルA~Cの識別装置100は、各自の学習処理によって各自の推定モデルを学習することで、学習済モデルを生成する。さらに、本実施の形態においては、サーバ装置500も推定モデルを保持している。サーバ装置500は、各ローカルA~Cの識別装置100および歯科技工所から取得したスキャン情報を用いた学習処理によって推定モデルを学習することで、学習済モデルを生成し、各ローカルA~Cの識別装置100に当該学習済モデルを配布する。 Each identification device 100 of local A to C has its own estimated model, and uses its own estimated model to identify the type of machined part during the identification process. Each local identification device 100 generates a trained model by learning its own estimation model through its own learning process. Furthermore, in the present embodiment, server device 500 also holds an estimation model. The server device 500 generates a trained model by learning an estimated model through learning processing using scan information acquired from the identification device 100 of each of the locals A to C and the dental laboratory. The trained model is distributed to the identification device 100 .

また、各ローカルA~Cの識別装置100は、ユーザ1により識別結果が修正された場合、修正後の識別結果を正解データとして、各自の推定モデルについて再度学習してもよい。 Further, when the identification result is corrected by the user 1, the identification devices 100 of the local A to C may re-learn their own estimation models using the corrected identification result as correct data.

なお、本実施の形態においては、各ローカルA~Cの識別装置100およびサーバ装置500のいずれも学習処理を実行する形態であるが、各ローカルA~Cの識別装置100のみが学習処理を実行する形態、あるいはサーバ装置500のみが学習処理を実行する形態であってもよい。なお、サーバ装置500のみが学習処理を実行する形態である場合、各ローカルA~Cの識別装置100が保持する推定モデル(学習済モデル)は、各ローカルA~Cの識別装置100で共通化される。 In the present embodiment, both local identification devices 100 and server devices 500 of local A to C execute learning processing, but only local identification devices 100 of local A to C execute learning processing. Alternatively, only the server device 500 may execute the learning process. In the case where only the server device 500 executes the learning process, the estimation model (learned model) held by the identification devices 100 of the local A to C is shared by the identification devices 100 of the local A to C. be done.

また、サーバ装置500が識別装置100における識別処理の機能を有していてもよい。たとえば、各ローカルA~Cは、取得した三次元データをサーバ装置500に送信し、サーバ装置500は、各ローカルA~Cから受信したそれぞれの三次元データに基づき、それぞれにおける加工部位の種類の識別結果を算出してもよい。そして、サーバ装置500は、それぞれの識別結果を各ローカルA~Cに送信し、各ローカルA~Cは、サーバ装置500から受信した推定結果をディスプレイなどに出力してもよい。このように、各ローカルA~Cとサーバ装置500とがクラウドサービスの形態で構成されてもよい。このようにすれば、サーバ装置500が推定モデル(学習済モデル)を保持してさえいれば、各ローカルA~Cは、推定モデル(学習済モデル)を保持することなく推定結果を得ることができる。 Also, the server device 500 may have the function of identification processing in the identification device 100 . For example, each of the locals A to C transmits the acquired three-dimensional data to the server device 500, and the server device 500 determines the type of machined region in each based on the three-dimensional data received from each of the locals A to C. An identification result may be calculated. Then, server device 500 may transmit each identification result to each of locals A to C, and each of locals A to C may output the estimation result received from server device 500 to a display or the like. In this way, each local A to C and the server device 500 may be configured in the form of a cloud service. In this way, as long as server device 500 holds an estimation model (learned model), each of locals A to C can obtain an estimation result without holding an estimation model (learned model). can.

このように、本実施の形態に係るスキャナシステム10によれば、識別装置100が有するAIを利用して、三次元スキャナ200によって取得された三次元データに基づき加工部位の種類が識別される。 As described above, according to the scanner system 10 according to the present embodiment, the AI of the identification device 100 is used to identify the type of processed region based on the three-dimensional data acquired by the three-dimensional scanner 200 .

なお、以下では、各ローカルA~Cに配置されたスキャナシステム10の識別装置100について説明するものの、サーバ装置500は、識別装置100が実行可能な処理を同様に実行できるものとして、サーバ装置500が実行する処理については説明を省略する。また、実施形態2および実施形態3についても同様に、サーバ装置500は、識別装置100a,識別装置100bの各々が実行可能な処理を同様に実行できるものとする。 Although the identification device 100 of the scanner system 10 arranged in each of the locals A to C will be described below, the server device 500 is assumed to be capable of executing the same processing that the identification device 100 can execute. The description of the processing executed by is omitted. Similarly, in the second and third embodiments, the server device 500 can similarly execute processing that can be executed by each of the identification device 100a and the identification device 100b.

[識別装置100のハードウェア構成]
図4を参照しながら、実施形態1にかかる識別装置100のハードウェア構成の一例を説明する。図4は、実施形態1にかかる識別装置100のハードウェア構成を示す模式図である。識別装置100は、たとえば、汎用コンピュータで実現されてもよいし、スキャナシステム10専用のコンピュータで実現されてもよい。
[Hardware Configuration of Identification Device 100]
An example of the hardware configuration of the identification device 100 according to the first embodiment will be described with reference to FIG. FIG. 4 is a schematic diagram showing the hardware configuration of the identification device 100 according to the first embodiment. The identification device 100 may be realized, for example, by a general-purpose computer or a computer dedicated to the scanner system 10 .

図4に示すように、識別装置100は、主なハードウェア要素として、スキャナインターフェース102と、ディスプレイインターフェース103と、周辺機器インターフェース105と、メディア読取装置107と、PCディスプレイ108と、メモリ109と、ストレージ110と、演算装置130とを備える。 As shown in FIG. 4, the identification device 100 includes, as main hardware elements, a scanner interface 102, a display interface 103, a peripheral device interface 105, a media reader 107, a PC display 108, a memory 109, It includes a storage 110 and an arithmetic unit 130 .

スキャナインターフェース102は、三次元スキャナ200を接続するためのインターフェースであり、識別装置100と三次元スキャナ200との間のデータの入出力を実現する。 The scanner interface 102 is an interface for connecting the three-dimensional scanner 200 and realizes input/output of data between the identification device 100 and the three-dimensional scanner 200 .

ディスプレイインターフェース103は、ディスプレイ300を接続するためのインターフェースであり、識別装置100とディスプレイ300との間のデータの入出力を実現する。ディスプレイ300は、たとえば、LCD(Liquid Crystal Display)または有機ELD(Electroluminescence)ディスプレイなどで構成される。 The display interface 103 is an interface for connecting the display 300 and realizes input/output of data between the identification device 100 and the display 300 . Display 300 is configured by, for example, an LCD (Liquid Crystal Display) or an organic ELD (Electroluminescence) display.

周辺機器インターフェース105は、キーボード601およびマウス602などの周辺機器を接続するためのインターフェースであり、識別装置100と周辺機器との間のデータの入出力を実現する。 The peripheral device interface 105 is an interface for connecting peripheral devices such as the keyboard 601 and the mouse 602, and realizes input/output of data between the identification device 100 and the peripheral devices.

メディア読取装置107は、リムーバブルディスク550に格納されているスキャン情報などの各種データを読み出す。 The media reader 107 reads various data such as scan information stored in the removable disk 550 .

PCディスプレイ108は、識別装置100専用のディスプレイである。PCディスプレイ108は、たとえば、LCDまたは有機ELディスプレイなどで構成される。なお、実施形態1においては、PCディスプレイ108は、ディスプレイ300と別体であるが、ディスプレイ300と共通化されてもよい。 The PC display 108 is a dedicated display for the identification device 100 . PC display 108 is configured by, for example, an LCD or an organic EL display. Although the PC display 108 is separate from the display 300 in the first embodiment, it may be shared with the display 300 .

メモリ109は、演算装置130が任意のプログラムを実行するにあたって、プログラムコードやワークメモリなどを一時的に格納する記憶領域を提供する。メモリ109は、たとえば、DRAM(Dynamic Random Access Memory)またはSRAM(Static Random Access Memory)などの揮発性メモリデバイスで構成される。 The memory 109 provides a storage area for temporarily storing program codes, work memory, etc. when the arithmetic unit 130 executes an arbitrary program. The memory 109 is composed of, for example, a volatile memory device such as a DRAM (Dynamic Random Access Memory) or SRAM (Static Random Access Memory).

ストレージ110は、識別処理および学習処理などに必要な各種のデータを格納する記憶領域を提供する。ストレージ110は、たとえば、ハードディスクまたはSSD(Solid State Drive)などの不揮発性メモリデバイスで構成される。 The storage 110 provides storage areas for storing various data necessary for identification processing, learning processing, and the like. The storage 110 is composed of a non-volatile memory device such as a hard disk or SSD (Solid State Drive), for example.

ストレージ110は、スキャン情報112と、加工種推定モデル114(学習済モデル115)と、学習用データセット116と、色分類データ118と、識別用プログラム120と、学習用プログラム121と、OS(Operating System)127とを格納する。 Storage 110 includes scan information 112, processed species estimation model 114 (learned model 115), learning data set 116, color classification data 118, identification program 120, learning program 121, OS (Operating System) 127 is stored.

スキャン情報112は、三次元スキャナ200によって取得された三次元データ122と、当該三次元データ122に基づき実行された識別処理による加工部位の種類を示す識別結果124とを含む。識別結果124は、識別処理に用いられた三次元データ122に関連付けられてストレージ110に格納される。学習用データセット116は、加工種推定モデル114の学習処理に用いられる一群の学習用データである。色分類データ118は、学習用データセット116の生成および学習処理に用いられるデータである。識別用プログラム120は、識別処理を実行するためのプログラムである。学習用プログラム121は、加工種推定モデル114の学習処理を実行するためのプログラムであり、その一部には識別処理を実行するためのプログラムも含まれる。 The scan information 112 includes three-dimensional data 122 acquired by the three-dimensional scanner 200 and an identification result 124 indicating the type of machined region obtained by identification processing executed based on the three-dimensional data 122 . The identification result 124 is stored in the storage 110 in association with the three-dimensional data 122 used for identification processing. The learning data set 116 is a group of learning data used for learning processing of the processed species estimation model 114 . The color classification data 118 is data used for generating the learning data set 116 and for learning processing. The identification program 120 is a program for executing identification processing. The learning program 121 is a program for executing the learning process of the processed species estimation model 114, and part of it also includes a program for executing the identification process.

演算装置130は、各種のプログラムを実行することで、識別処理および学習処理などの各種の処理を実行する演算主体であり、コンピュータの一例である。演算装置130は、たとえば、CPU(Central Processing Unit)132、FPGA(Field-Programmable Gate Array)134、およびGPU(Graphics Processing Unit)136などで構成される。 The arithmetic unit 130 is an arithmetic entity that executes various types of processing such as identification processing and learning processing by executing various programs, and is an example of a computer. Arithmetic device 130 includes, for example, a CPU (Central Processing Unit) 132, an FPGA (Field-Programmable Gate Array) 134, a GPU (Graphics Processing Unit) 136, and the like.

[識別装置100による識別処理]
図5および図6を参照しながら、実施形態1にかかる識別装置100による識別処理の一例を説明する。図5は、実施形態1にかかる識別装置100の機能構成を示す模式図である。図6は、実施形態1にかかる識別装置100による識別処理を説明するための模式図である。
[Identification processing by identification device 100]
An example of identification processing by the identification device 100 according to the first embodiment will be described with reference to FIGS. 5 and 6. FIG. FIG. 5 is a schematic diagram showing the functional configuration of the identification device 100 according to the first embodiment. FIG. 6 is a schematic diagram for explaining identification processing by the identification device 100 according to the first embodiment.

図5に示すように、識別装置100は、識別処理にかかる機能部として、入力部1102と、加工種識別部1132と、出力部1103とを有する。これらの各機能は、識別装置100の演算装置130がOS127および識別用プログラム120を実行することで実現される。 As shown in FIG. 5, the identification device 100 has an input unit 1102, a processing type identification unit 1132, and an output unit 1103 as functional units involved in identification processing. Each of these functions is realized by executing the OS 127 and the identification program 120 by the arithmetic device 130 of the identification device 100 .

入力部1102には、三次元スキャナ200によって取得された三次元データが入力される。加工種識別部1132は、入力部1102に入力された三次元データに基づき、加工種推定モデル114(学習済モデル115)を用いて、入力された三次元データに対応する部位が加工部位であるか否かを識別すると共に、加工部位である場合に当該加工部位の種類を識別する識別処理を実行する。 Three-dimensional data acquired by the three-dimensional scanner 200 is input to the input unit 1102 . Based on the three-dimensional data input to the input unit 1102, the processing type identification unit 1132 uses the processing type estimation model 114 (learned model 115) to identify the region corresponding to the input three-dimensional data as the processing region. Identification processing is performed to identify whether or not the machined portion is a machined portion, and to identify the type of the machined portion if the machined portion.

加工種推定モデル114は、第1ニューラルネットワーク(Neural Network:NNW)1142と、当該第1NNW1142によって用いられるパラメータ1144とを含む。パラメータ1144は、第1NNW1142による計算に用いられる重み付け係数と、識別の判定に用いられる判定値とを含む。出力部1103は、加工種識別部1132による識別結果を、ディスプレイ300に出力する。 The processed species estimation model 114 includes a first neural network (NNW) 1142 and parameters 1144 used by the first NNW 1142 . Parameters 1144 include weighting factors used in calculations by first NNW 1142 and decision values used to determine identity. Output unit 1103 outputs the result of identification by processing type identification unit 1132 to display 300 .

ここで、図6に示すように、入力部1102に入力される三次元データには、口腔内の形状を構成する各点における三次元の位置情報と、口腔内の形状を構成する各点における色情報とが含まれる。実施形態1にかかる識別処理においては、位置情報が用いられる。位置情報は、予め定められた位置を基準とした三次元における絶対位置の座標を含む。たとえば、位置情報は、口腔内の予め定められた位置を原点として、X軸、Y軸、Z軸の各軸における絶対位置の座標を含む。原点は、たとえば、測定開始時の所定の測定点を原点としてもよい。なお、位置情報は、予め定められた位置を基準とした三次元における絶対位置の座標に限らず、たとえば、隣接する点からの距離を示す三次元における相対位置の座標を含んでいてもよい。 Here, as shown in FIG. 6, the three-dimensional data input to the input unit 1102 includes three-dimensional position information at each point that constitutes the shape of the oral cavity, and and color information. Location information is used in the identification processing according to the first embodiment. The position information includes the coordinates of the absolute position in three dimensions with reference to a predetermined position. For example, the position information includes absolute position coordinates on each of the X-axis, Y-axis, and Z-axis, with a predetermined position in the oral cavity as the origin. The origin may be, for example, a predetermined measurement point at the start of measurement. Note that the position information is not limited to coordinates of a three-dimensional absolute position based on a predetermined position, and may include, for example, coordinates of a three-dimensional relative position indicating a distance from an adjacent point.

インプラント体や歯牙に形成された窩洞部のように、治療途中の状態であれば、ユーザ1は、一見して、加工部位を識別できる。しかし、歯科の分野では、審美性の確保という観点から、天然歯と遜色のない審美性の優れた加工部品の開発が進んでいる。そのため、治療完了後の状態で加工部位をユーザ1の目で識別することが徐々に難しくなっている。 The user 1 can identify the processed part at a glance if it is in the middle of treatment, such as an implant body or a cavity formed in a tooth. However, in the field of dentistry, from the viewpoint of ensuring aesthetics, the development of machined parts with excellent aesthetics comparable to natural teeth is progressing. Therefore, it is gradually becoming difficult for the user 1 to visually identify the processed site after the treatment is completed.

人工物と天然物とでは、人の目で識別しにくいものの、表面の凹凸、全体的な形状に僅かな差異が生まれる場合がある。また、歯に補綴物を被せている場合には、補綴物が被さっていない場合と比べて、歯肉と補綴物との境目の形状に差異が生まれる場合がある。 Although it is difficult for the human eye to distinguish between an artificial material and a natural material, there may be slight differences in surface unevenness and overall shape. In addition, when a prosthesis is placed over a tooth, there may be a difference in the shape of the boundary between the gingiva and the prosthesis compared to when the prosthesis is not placed.

識別装置100は、加工部位の特徴的な形状および大きさが数値化された三次元データに基づき、加工種推定モデル114を用いて当該三次元データに対応する部位が加工部位であるか否かを識別すると共に、加工部位である場合は加工部位の種類を識別する。 Based on the three-dimensional data in which the characteristic shape and size of the machined part are digitized, the identification device 100 uses the machining type estimation model 114 to determine whether the part corresponding to the three-dimensional data is a machined part. is identified, and if it is a machined part, the type of machined part is identified.

このように、AIを利用することで、人の目で識別し難い加工物の特徴を見出すことができる。そして、ユーザ1の知見という、人によってばらつきのある情報に頼ることなく、精度良く加工部位を識別できる。また、加工部位の種類が識別されることにより、ユーザ1のカルテ入力を補助することができ、初診時の診察を容易にできる。 In this way, by using AI, it is possible to find out the features of a workpiece that are difficult to identify with the human eye. Then, the machined part can be accurately identified without relying on the knowledge of the user 1, which varies from person to person. In addition, by identifying the type of processed part, it is possible to assist the user 1 in entering a medical record, thereby facilitating the examination at the first visit.

また、補綴物は、被せる範囲、被せ方などによって、複数に分類される。窩洞部や支台歯に被せる補綴物の種類は、窩洞部および支台歯の形状などによって異なり、行う治療内容が異なることがある。また、被せられた補綴物の種類によって、治療経過も変わる。しかし、補綴物の種類を識別するためには、ユーザ1の高い知見が必要である。また、ユーザ1は、狭い口腔内を観察して識別する必要があり、対象者2への負担も大きくなる。 In addition, the prosthesis is classified into a plurality of types according to the covering range, covering method, and the like. The type of prosthesis to be placed over the cavity portion and the abutment tooth differs depending on the shape of the cavity portion and the abutment tooth, and the content of treatment to be performed may differ. In addition, the course of treatment changes depending on the type of prosthesis that is put on. However, in order to identify the type of prosthesis, a high level of knowledge of the user 1 is required. Moreover, the user 1 needs to observe and identify the narrow oral cavity, which increases the burden on the subject 2 .

取り付けられた補綴物の種類、および窩洞部または支台歯に取り付ける補綴物の種類など、加工部位の種類をより細かく識別できると、より細やかな診察を実現できる。 A finer identification of the type of work site, such as the type of prosthesis fitted and the type of prosthesis attached to the cavity or abutment, allows for a more detailed examination.

図5に示すように、加工種推定モデル114は、第1NNW1142を含む。第1NNW1142においては、入力部1102に入力された三次元データに含まれる位置情報の値が入力層に入力される。そして、第1NNW1142においては、たとえば、中間層によって、入力された位置情報の値に対して重み付け係数が乗算されたり所定のバイアスが加算されたりするとともに所定の関数による計算が行われ、その計算結果が判定値と比較される。そして、第1NNW1142においては、その計算および判定の結果が識別結果として出力層から出力される。なお、第1NNW1142による計算および判定については、三次元データに基づき三次元データに対応する部位が加工部位であるか否かを識別すると共に、加工部位である場合に加工部位の種類を識別できるものであれば、いずれの手法が用いられてもよい。 As shown in FIG. 5 , processing species estimation model 114 includes first NNW 1142 . In the first NNW 1142, the value of the position information included in the three-dimensional data input to the input unit 1102 is input to the input layer. In the first NNW 1142, for example, the intermediate layer multiplies the value of the input positional information by a weighting factor or adds a predetermined bias, and performs calculation using a predetermined function. is compared with the judgment value. Then, in the first NNW 1142, the result of the calculation and determination is output from the output layer as the identification result. Regarding the calculation and determination by the first NNW 1142, it is possible to identify whether or not the part corresponding to the three-dimensional data is a machined part based on the three-dimensional data, and to identify the type of machined part if it is a machined part. Either method may be used.

加工種推定モデル114の第1NNW1142においては、中間層が多層構造になることで、ディープラーニングによる処理が行われる。実施形態1においては、3次元画像に特化した識別処理を行う識別用プログラム120として、たとえば、VoxNet、3DShapeNets、Multi-View CNN、RotationNet、OctNet、FusionNet、PointNet、PointNet++、SSCNet、およびMarrNetなどが用いられるが、その他のプログラムが用いられてもよい。また、第1NNW1142の仕組みには既存のものが適用されてもよい。 In the first NNW 1142 of the processing species estimation model 114, processing by deep learning is performed because the intermediate layer has a multi-layer structure. In the first embodiment, examples of the identification program 120 that performs identification processing specialized for three-dimensional images include VoxNet, 3DShapeNets, Multi-View CNN, RotationNet, OctNet, FusionNet, PointNet, PointNet++, SSCNet, and MarrNet. used, but other programs may also be used. Also, an existing one may be applied to the mechanism of the first NNW 1142 .

このような構成において、識別装置100は、複数の歯牙が含まれる三次元画像に対応する三次元データが入力されると、当該三次元データに基づいて、加工部位の特徴を加工種推定モデル114の第1NNW1142を用いて抽出し、抽出した特徴に基づき、加工部位の種類を識別できる。なお、識別装置100は、第1NNW1142を用いて加工部位の特徴に加えて、加工の施されていない生体部位(たとえば、天然歯、歯肉)の特徴を抽出し、抽出結果に基づいて加工部位であるか否か識別してもよい。 In such a configuration, when three-dimensional data corresponding to a three-dimensional image including a plurality of teeth is input, the identification device 100 identifies the feature of the processed region based on the three-dimensional data, and calculates the processed species estimation model 114 based on the three-dimensional data. can be extracted using the first NNW 1142 of , and the type of machined portion can be identified based on the extracted features. Note that the identification device 100 uses the first NNW 1142 to extract the features of the unprocessed living body part (for example, natural teeth and gums) in addition to the features of the processed part, and based on the extraction results, You can identify whether there is

実施形態1においては、識別装置100は、第1NNW1142を用いて加工部位の特徴を抽出し、抽出した特徴から加工部位の種類を識別するものとする。 In the first embodiment, the identification device 100 uses the first NNW 1142 to extract features of the machined part, and identifies the type of the machined part from the extracted features.

[学習用データの生成]
図7および図8を参照しながら、学習用データの生成の一例を説明する。図7は、実施形態1にかかる学習用データの生成を説明するための模式図である。図8は、実施形態1にかかる学習用データの一例を説明するための模式図である。
[Generation of learning data]
An example of generating learning data will be described with reference to FIGS. 7 and 8. FIG. FIG. 7 is a schematic diagram for explaining generation of learning data according to the first embodiment. FIG. 8 is a schematic diagram for explaining an example of learning data according to the first embodiment;

図7に示すように、まず、三次元スキャナ200によって三次元データが取得される(STEP1)。三次元スキャナ200によって取得された三次元データには、当該三次元データに対応する口腔内の形状を構成する各点における三次元の位置情報と、各点における色情報(RGB値)とが含まれる。三次元スキャナ200によって取得された三次元データに基づき三次元画像が生成されると、図7(a)に示すように実際の色が付された歯牙を含む三次元画像が生成される。 As shown in FIG. 7, first, three-dimensional data is acquired by the three-dimensional scanner 200 (STEP 1). The three-dimensional data acquired by the three-dimensional scanner 200 includes three-dimensional position information at each point constituting the intraoral shape corresponding to the three-dimensional data and color information (RGB values) at each point. be When a 3D image is generated based on the 3D data acquired by the 3D scanner 200, a 3D image including actual colored teeth is generated as shown in FIG. 7(a).

次に、後述する各歯牙の色分け処理の準備として、ノイズ除去処理が行われる。たとえば、実施形態1においては、三次元データに対応する3次元画像がグレースケール化される(STEP2)。3次元画像のグレースケール化は、ユーザ1(この場合、学習用データを生成するメーカの技術者または製造工場の作業者など)によって行われる。三次元画像がグレースケール化されると、図7(b)に示すようにグレースケール化された三次元画像が生成される。また、三次元画像のグレースケール化に応じて、三次元データに対応する各点における色情報(RGB値)がグレースケールに対応する値に変更される。 Next, noise removal processing is performed in preparation for color-coding processing for each tooth, which will be described later. For example, in Embodiment 1, a three-dimensional image corresponding to three-dimensional data is grayscaled (STEP 2). The grayscaling of the three-dimensional image is performed by the user 1 (in this case, an engineer of the manufacturer who generates the learning data, a worker of the manufacturing plant, or the like). When the three-dimensional image is grayscaled, a grayscaled three-dimensional image is generated as shown in FIG. 7(b). In addition, according to the grayscaling of the three-dimensional image, the color information (RGB values) at each point corresponding to the three-dimensional data is changed to a value corresponding to the grayscale.

次に、三次元データに対応する三次元画像に含まれる各部位に対して予め定められた色が塗布されることで各部位が加工部位の種類に応じた色で色分けされる(STEP3)。塗布する色は、部位ごとに予め割り当てられている。割り当て内容は、色分類データ118としてストレージ110内に格納されている。また、図7に示す例では、加工の施されていない部位に対して、いずれの種類の加工部位に対しても割り当てられていない白色が塗布されたものとする。色分類データ118には、加工の施されていない部位に対して割り当てられる色に関する情報が含まれていてもよい。 Next, a predetermined color is applied to each part included in the three-dimensional image corresponding to the three-dimensional data, so that each part is color-coded according to the type of the processed part (STEP 3). The color to be applied is assigned in advance to each part. The allocation details are stored in storage 110 as color classification data 118 . Also, in the example shown in FIG. 7, it is assumed that white, which is not assigned to any type of processed portion, is applied to the unprocessed portion. The color classification data 118 may include information on colors assigned to unprocessed regions.

各部位に対する色の塗布は、ユーザ1(特に、歯科医師、歯科技工士などの歯科の知識を有する者など)によって行われる。具体的には、ユーザ1は、自身の知見に基づき三次元画像に含まれる各部位が加工部位であるか否か、および加工部位である場合は加工部位の種類を識別し、識別した部位に対応する色を、色分類データ118を参照しながら特定し、特定した色を当該部位の画像に塗布する。 Color application to each part is performed by the user 1 (particularly, a dentist, a dental technician, or other person who has knowledge of dentistry). Specifically, the user 1 identifies whether or not each part included in the three-dimensional image is a machined part based on his/her own knowledge, and if it is a machined part, identifies the type of the machined part, and identifies the identified part. The corresponding color is specified while referring to the color classification data 118, and the specified color is applied to the image of the site.

たとえば、ユーザ1は、三次元画像に含まれる部位が加工の施されていない生体部位であると識別すると、当該部位の画像に白色を塗布する。また、ユーザ1は、三次元画像に含まれる部位がインプラントであると識別すると、当該部位の画像に色aを塗布する。また、ユーザ1は、三次元画像に含まれる部位が補綴物であると識別すると、当該部位の画像に色bを塗布する。三次元画像に含まれる各歯牙および歯肉に対して色が塗布されると、図7(c)および図8に示すように各部位に対して予め定められた色が塗布された三次元画像が生成される。なお、分かり易いように、図面上では色a、bがハッチングで表されている。 For example, when the user 1 identifies that the site included in the three-dimensional image is a living body site that has not been processed, the user 1 paints the image of the site in white. Further, when the user 1 identifies that the site included in the three-dimensional image is an implant, the user 1 applies color a to the image of the site. Further, when the user 1 identifies that the site included in the three-dimensional image is a prosthesis, the user 1 applies the color b to the image of the site. When a color is applied to each tooth and gum included in the three-dimensional image, a three-dimensional image in which a predetermined color is applied to each part as shown in FIGS. 7(c) and 8 is obtained. generated. For easy understanding, the colors a and b are hatched on the drawing.

また、各部位の色分けに応じて、三次元データに対応する歯牙の各点における色情報(RGB値)が塗布された色に対応する値に変更される。これにより、三次元データに対応する各点に対して、予め定められた色情報(RGB値)が関連付けられる。 Further, the color information (RGB values) at each point of the tooth corresponding to the three-dimensional data is changed to a value corresponding to the applied color according to the color coding of each part. Thereby, predetermined color information (RGB values) is associated with each point corresponding to the three-dimensional data.

各部位に対して予め定められた色情報が関連付けられると、三次元データには、位置情報と、塗布された色に対応する色情報とが含まれるようになり、このような三次元データが学習用データとして採用される。つまり、実施形態1にかかる学習用データにおいては、識別処理で参照される位置情報に対して、当該位置情報がいずれの部位に対応する位置情報であるかを示す色情報が関連付けられる(ラベリングされる)。このような学習用データを複数生成し、生成した複数の学習用データの集まりが学習用データセット116として、識別装置100に保持される。 When predetermined color information is associated with each part, the three-dimensional data includes position information and color information corresponding to the applied color. Adopted as training data. That is, in the learning data according to the first embodiment, the position information referred to in the identification process is associated with color information indicating to which part the position information corresponds (labeled). ). A plurality of such learning data are generated, and a collection of the generated learning data is held in the identification device 100 as a learning data set 116 .

なお、実施形態1においては、ユーザ1が自身の知見に基づき手作業で三次元画像に含まれる各部位に色を塗布しているが、対象者2の治療歴などを確認しながらユーザ1が手作業で三次元画像に含まれる各部位に色を塗布してもよい。また、一部の作業をソフトウェアで補うことも可能である。 In the first embodiment, the user 1 manually applies colors to each part included in the three-dimensional image based on his/her own knowledge. Color may be applied manually to each part included in the three-dimensional image. It is also possible to supplement some of the work with software.

また、実施形態1においては、ノイズ除去処理としてグレースケール化が行われたが、ノイズ除去処理は、行われなくともよく、また、グレースケール化とは別の処理によって実現されてもよい。 Further, in the first embodiment, grayscaling is performed as noise removal processing, but noise removal processing may not be performed, and may be realized by processing different from grayscaling.

なお、正解データである識別情報として色情報を各位置情報に対応付けたが、識別情報は、色情報に限られない。たとえば、色を塗布することで正解データを入力した上で、入力された正解データを色情報とは異なる別の識別情報に変換することで学習用データを作成してもよい。この場合、RGB値よりもデータ量の低い情報を正解データとすることが好ましい。これにより、色を塗布するという直感的に分かりやすい作業でユーザ1に正解データを対応付けさせることができるとともに、学習用データのデータ量を減らすことができる。 Although color information is associated with each piece of position information as identification information that is correct data, identification information is not limited to color information. For example, learning data may be created by inputting correct data by applying a color and then converting the input correct data into identification information different from color information. In this case, it is preferable to use information having a data amount smaller than the RGB values as the correct data. As a result, the user 1 can be made to associate the correct data with the intuitively understandable work of applying the color, and the data amount of the learning data can be reduced.

なお、図7および図8に示した正解データの生成方法は、一例である。たとえば、加工部位であると識別した部位だけに、加工部位の種類に応じた色を塗布し、色が塗布されていない部位の三次元データは、正解データとして利用しないようにしてもよい。 Note that the method of generating the correct answer data shown in FIGS. 7 and 8 is an example. For example, a color corresponding to the type of the processed portion may be applied only to the portion identified as the processed portion, and the three-dimensional data of the portion to which the color is not applied may not be used as the correct data.

また、図8に示した例では、加工部位を、「インプラント」、「窩洞部」、「支台歯」、および「補綴物」といった大分類に従って仕分けたものの、上記表1に示した小分類に従って仕分けてもよい。 In addition, in the example shown in FIG. 8, the processed parts are classified according to the major classifications of "implant", "cavity", "abutment tooth", and "prosthesis". may be sorted according to

[識別装置100の学習処理]
図9を参照しながら、識別装置100が実行する学習処理について説明する。図9は、実施形態1にかかる識別装置100が実行する加工種用の学習処理の一例を説明するためのフローチャートである。図9に示す各ステップは、識別装置100の演算装置130がOS127および学習用プログラム121を実行することで実現される。
[Learning processing of identification device 100]
A learning process performed by the identification device 100 will be described with reference to FIG. 9 . FIG. 9 is a flowchart for explaining an example of processing type learning processing executed by the identification device 100 according to the first embodiment. Each step shown in FIG. 9 is realized by executing the OS 127 and the learning program 121 by the arithmetic device 130 of the identification device 100 .

図9に示すように、識別装置100は、学習用データセット116の中から、学習に用いる学習用データを選択する(S1)。なお、識別装置100は、学習用データセット116の中から、一の学習用データを選択しても、複数の学習用データを選択してもよい。また、識別装置100は、学習用データを自動で選択するものに限らず、ユーザ1が選択した学習用データを学習処理に用いてもよい。 As shown in FIG. 9, the identification device 100 selects learning data to be used for learning from the learning data set 116 (S1). Note that the identification device 100 may select one learning data or a plurality of learning data from the learning data set 116 . Further, the identification device 100 is not limited to automatically selecting learning data, and may use learning data selected by the user 1 for learning processing.

識別装置100は、選択した学習用データに含まれる三次元データの位置情報を加工種推定モデル114に入力する(S2)。このとき、識別装置100は、三次元データにラベリングされた正解データは入力しない。識別装置100は、加工種推定モデル114を用いて三次元データの特徴を抽出し、三次元データに対応する部位の加工部位の種類を識別する識別処理を実行する(S3)。 The identification device 100 inputs the position information of the three-dimensional data included in the selected learning data to the processed species estimation model 114 (S2). At this time, the identification device 100 does not input the correct data labeled with the three-dimensional data. The identification device 100 extracts features of the three-dimensional data using the processing type estimation model 114, and executes identification processing for identifying the type of the processed portion of the portion corresponding to the three-dimensional data (S3).

識別装置100は、識別処理による識別結果と、学習処理に用いた学習用データに対応する正解データとの誤差に基づき、加工種推定モデル114のパラメータ1144を更新する(S4)。 The identification device 100 updates the parameter 1144 of the processed species estimation model 114 based on the error between the identification result of the identification process and the correct data corresponding to the learning data used in the learning process (S4).

たとえば、識別装置100は、入力された位置情報に基づき識別した結果、当該入力された位置情報が示す部位に対応する色情報を推定する。識別装置100は、学習用データに含まれる当該入力された位置情報が示す部位に対応する色情報(正解データ)と、自身が推定した色情報とを比較し、一致すれば加工種推定モデル114のパラメータ1144を維持する一方で、不正解であれば両者が一致するように加工種推定モデル114のパラメータ1144を更新する。 For example, as a result of identification based on the input position information, the identification device 100 estimates color information corresponding to the part indicated by the input position information. The identification device 100 compares the color information (correct data) corresponding to the part indicated by the input position information included in the learning data with the color information estimated by itself, and if they match, the processed species estimation model 114 while maintaining the parameter 1144 of the processing species estimation model 114 so that the two match if the answer is incorrect.

次に、識別装置100は、全ての学習用データに基づき学習したか否かを判定する(S5)。識別装置100は、全ての学習用データに基づき学習していない場合(S5でNO)、S1の処理に戻る。 Next, the identification device 100 determines whether or not it has learned based on all the learning data (S5). If the identification device 100 has not learned based on all the learning data (NO in S5), the process returns to S1.

一方、識別装置100は、全ての学習用データに基づき学習した場合(S5でYES)、学習済みの加工種推定モデル114を学習済モデル115として記憶し(S6)、本処理を終了する。 On the other hand, if the identification device 100 has learned based on all the learning data (YES in S5), the identification device 100 stores the learned processed species estimation model 114 as the learned model 115 (S6), and ends this process.

このように、識別装置100は、学習用データに含まれる三次元データに関連付けられた色情報を正解データとして、当該三次元データを用いた識別処理による識別結果に基づき、加工種推定モデル114を学習することで、学習済モデル115を生成する。 In this way, the identification device 100 uses the color information associated with the three-dimensional data included in the learning data as correct data, and based on the identification result of the identification processing using the three-dimensional data, the processing species estimation model 114 is generated. By learning, a trained model 115 is generated.

[識別装置100のサービス提供処理]
図10を参照しながら、識別装置100が実行するサービス提供処理について説明する。図10は、実施形態1にかかる識別装置100が実行するサービス提供処理の一例を説明するためのフローチャートである。図10に示す各ステップは、識別装置100の演算装置130がOS127および識別用プログラム120を実行することで実現される。サービス提供処理が実行されることで、三次元スキャナ200によって取得された三次元データに対する識別結果の関連付けがされる。
[Service provision processing of identification device 100]
A service providing process executed by the identification device 100 will be described with reference to FIG. FIG. 10 is a flowchart for explaining an example of service providing processing executed by the identification device 100 according to the first embodiment. Each step shown in FIG. 10 is realized by executing the OS 127 and the identification program 120 by the arithmetic device 130 of the identification device 100 . By executing the service providing process, the identification result is associated with the three-dimensional data acquired by the three-dimensional scanner 200 .

図10に示すように、識別装置100は、所定の点に対応する三次元データが入力されたか否かを判定する(S11)。たとえば、識別装置100は、ストレージ110に識別結果と関連付けられてない三次元データが格納されている場合に、所定の点に対応する三次元データが入力されたと判定する。 As shown in FIG. 10, the identification device 100 determines whether three-dimensional data corresponding to a predetermined point has been input (S11). For example, if the storage 110 stores three-dimensional data that is not associated with an identification result, the identification device 100 determines that three-dimensional data corresponding to a predetermined point has been input.

識別装置100は、三次元スキャナ200から三次元データが送られるとストレージ110に当該三次元データを格納していく。サービス提供処理は、任意の呼出サイクルで実行され、ストレージ110に格納されたすべての三次元データに対して識別結果の関連付けがされるまで繰り返し実行される。ストレージ110に格納されたすべての三次元データに対して識別結果の関連付けがされると、識別装置100は、所定の点に対応する三次元データが入力されていないと判断して(S11でNO)、サービス提供処理を終了する。 When the three-dimensional data is sent from the three-dimensional scanner 200 , the identification device 100 stores the three-dimensional data in the storage 110 . The service providing process is executed in an arbitrary calling cycle, and is repeatedly executed until all three-dimensional data stored in the storage 110 are associated with identification results. When the identification results are associated with all the three-dimensional data stored in the storage 110, the identification device 100 determines that the three-dimensional data corresponding to the predetermined point has not been input (NO in S11). ) to end the service providing process.

一方、識別装置100は、所定の点に対応する三次元データが入力された場合(S11でYES)、三次元データ(位置情報)を学習済モデル115に入力し、当該学習済モデル115を用いて加工部位の種類を識別する識別処理を実行する(S12)。 On the other hand, when three-dimensional data corresponding to a predetermined point is input (YES in S11), the identification device 100 inputs the three-dimensional data (position information) to the learned model 115, and uses the learned model 115. identification processing for identifying the type of the machined portion is executed (S12).

識別装置100は、識別処理によって得られた識別結果を、S11で入力された三次元データに関連付ける(S13)。具体的には、識別装置100は、三次元データに含まれる位置情報に対して、識別結果を示す色情報(色a~色d、または白色を示す色情報)を関連付ける。これにより、入力された三次元データに対応する点に対して、当該点に対応する部位の状態(加工されているか否か、加工内容)を示す識別結果が関連付けられる。 The identification device 100 associates the identification result obtained by the identification process with the three-dimensional data input in S11 (S13). Specifically, the identification device 100 associates color information indicating identification results (color a to color d or color information indicating white) with the position information included in the three-dimensional data. As a result, the point corresponding to the input three-dimensional data is associated with the identification result indicating the state of the portion corresponding to the point (whether or not it has been processed, the details of processing).

識別装置100は、関連付けの結果を外部(たとえば、ディスプレイ300)に出力する(S14)。具体的には、入力された三次元データに対応する点に対する関連付けの結果がディスプレイ300に表示される。その後、識別装置100は、本処理を終了する。 The identification device 100 outputs the association result to the outside (for example, the display 300) (S14). Specifically, the display 300 displays the result of the association of the points corresponding to the input three-dimensional data. After that, the identification device 100 terminates this process.

[測定中にディスプレイ300に出力される表示の一例]
図11および図12を参照して、測定中にディスプレイ300に出力される表示の一例を説明する。図11は、測定中の出力例を示す図である。図12は、測定中の出力例の変形例を示す図である。
[Example of display output to display 300 during measurement]
An example of a display output to display 300 during measurement will be described with reference to FIGS. 11 and 12. FIG. FIG. 11 is a diagram showing an output example during measurement. FIG. 12 is a diagram showing a modified example of an output during measurement.

識別装置100は、サービス提供処理を実行して、所定の点に対応する三次元データが入力されたタイミングで、識別結果に基づく当該三次元データに対する関連付けを行う。ユーザ1は、三次元スキャナ200を口腔内で徐々に動かしながら、順々にスキャンしていく。そのため、識別装置100は、三次元スキャナ200が動かされて新たな三次元データを取得すると、取得した各三次元データに対応する複数の点のそれぞれに識別結果を関連付ける。識別結果が関連付けた三次元データは、関連付けられた識別結果を示す態様でディスプレイ300に出力される。 The identification device 100 executes the service providing process, and at the timing when the three-dimensional data corresponding to a predetermined point is input, associates the three-dimensional data based on the identification result. The user 1 scans in order while gradually moving the three-dimensional scanner 200 in the oral cavity. Therefore, when the three-dimensional scanner 200 is moved to acquire new three-dimensional data, the identification device 100 associates the identification result with each of the plurality of points corresponding to each acquired three-dimensional data. The three-dimensional data associated with the identification result is output to the display 300 in a manner showing the associated identification result.

たとえば、図11(a)に示すように、加工の施されていない天然歯をスキャンすると、スキャンして得られた各三次元データに対応する複数の点のそれぞれが、白色で表示される。なお、図11(a)において、便宜上、白色で出力された点を、三角形で表している。 For example, as shown in FIG. 11(a), when an unprocessed natural tooth is scanned, each of a plurality of points corresponding to each three-dimensional data obtained by scanning is displayed in white. In addition, in FIG. 11A, for convenience, points output in white are represented by triangles.

その後、新たに加工部位を含む生体部位がスキャンされると、図11(b)に示すように、スキャンして得られた各三次元データに対応する複数の点のうち、インプラントに対応する三次元データは、色aの点(図中の黒丸の点)で表示される一方、加工の施されていない部位に対応する三次元データは、白色の点(図中の三角形の点)で表される。なお、図11には示していないものの、補綴物、窩洞形成歯、支台歯といった、他の種類の加工部位に対応する三次元データは、各々の種類に応じた色の点で表示される。 After that, when the living body part including the processed part is newly scanned, as shown in FIG. The original data are indicated by points of color a (dots of black circles in the figure), while the three-dimensional data corresponding to unprocessed parts are indicated by white points (dots of triangles in the figure). be done. Although not shown in FIG. 11, three-dimensional data corresponding to other types of processed parts such as prostheses, cavity-forming teeth, and abutment teeth are displayed with dots colored according to each type. .

なお、識別装置100は、三次元データに対応する複数の点を、それぞれ、点でディスプレイ300に表示するものとしたが、得られた三次元データをポリゴンメッシュを用いてディスプレイ300に表示してもよい。ポリゴンメッシュとは、たとえば、三角形および四角形など、ポリゴンを画面上に配置することでオブジェクトを表示する手法である。 Although the identification device 100 displays a plurality of points corresponding to three-dimensional data on the display 300 as points, the obtained three-dimensional data is displayed on the display 300 using a polygon mesh. good too. A polygon mesh is a method of displaying an object by arranging polygons such as triangles and quadrilaterals on the screen.

具体的には、図12に示すように、識別装置100は、入力された三次元データに対応する複数の点を、ポリゴンに置き換えることで、当該複数の点に識別結果を関連付けた結果をディスプレイ300に表示してもよい。 Specifically, as shown in FIG. 12, the identification device 100 replaces a plurality of points corresponding to the input three-dimensional data with polygons, and displays the results of associating the identification results with the plurality of points. 300 may be displayed.

このように、三次元データを取得したタイミングで、取得した三次元データに対する識別結果が順々にディスプレイ300に表示されるため、ユーザ1は、入力されたタイミングで入力された三次元データに対応する部位の種類を確認できる。また、識別装置100は、加工部位の種類に応じた表示態様でディスプレイ300に表示するため、各加工部位の境目を分かり易くユーザ1に示すことができる。 In this way, the identification results for the acquired three-dimensional data are sequentially displayed on the display 300 at the timing when the three-dimensional data is acquired, so that the user 1 can respond to the three-dimensional data input at the input timing. You can check the type of part to be treated. In addition, since the identification device 100 displays on the display 300 in a display mode according to the type of the processed part, it is possible to show the user 1 the boundary between the processed parts in an easy-to-understand manner.

なお、三次元スキャナ200による口腔内のスキャンが開始した当初においては、得られた三次元データの数が少ないため、識別装置100は、三次元データに基づいて識別結果を出すことができない。そのため、識別装置100は、関連付けができていないこと、すなわち識別結果が出せていないことを示す態様で三次元データに対応する画像(点またはポリゴン)をディスプレイ300に表示してもよい。そして、三次元スキャナ200による口腔内のスキャンが進み、得られた三次元データの数が増えたタイミングで、再度、サービス提供処理を実行して、識別結果を出すことを試みるようにしてもよい。この場合、識別装置100は、識別結果が出せた場合には、既に表示していた三次元データに対応する画像の表示態様を識別結果に応じた態様に切り替える。 Note that at the beginning of intraoral scanning by the three-dimensional scanner 200, the number of obtained three-dimensional data is small, so the identification device 100 cannot output identification results based on the three-dimensional data. Therefore, the identification device 100 may display an image (point or polygon) corresponding to the three-dimensional data on the display 300 in a manner indicating that no association has been established, that is, no identification result has been obtained. Then, when the scanning of the oral cavity by the three-dimensional scanner 200 progresses and the number of obtained three-dimensional data increases, the service providing process may be executed again to try to obtain the identification result. . In this case, when the identification result is obtained, the identification device 100 switches the display mode of the image corresponding to the three-dimensional data that has already been displayed to a mode according to the identification result.

以上のように、実施形態1にかかる識別装置100は、AIを利用することで、人の目では識別し難い加工物の特徴を見いだし、人によってばらつきのあるユーザの知見に頼ることなく、精度良く加工部位の種類を識別できる。 As described above, the identification apparatus 100 according to the first embodiment uses AI to find features of a workpiece that are difficult to identify with the human eye, and to detect the accuracy without relying on the user's knowledge, which varies from person to person. The type of machined part can be identified well.

<実施形態2>
図13~図20を参照して、実施形態2にかかる識別装置100aについて説明する。実施形態1において、ユーザ1は、識別結果を参照することでカルテを生成するものとした。実施形態2にかかる識別装置100aは、識別結果に従い、さらにカルテを自動的に生成してもよい。
<Embodiment 2>
An identification device 100a according to the second embodiment will be described with reference to FIGS. 13 to 20. FIG. In the first embodiment, the user 1 generates a chart by referring to the identification result. The identification device 100a according to the second embodiment may automatically generate a medical record according to the identification result.

識別装置100aは、識別装置100と比較して、加工部位の種類を識別することに加えて、歯牙の種類の識別を行う。これにより、識別装置100aは、加工部位に対応する歯牙の種類の推定を行う。また、識別装置100aは、加工部位の種類を示す識別結果に基づいて、当該加工部位に施された治療内容を推定する。このように、識別装置100aは、加工部位に対応する歯牙の種類、および加工部位に施された治療内容を推定することで、対象者2のカルテを生成する。 Compared with the identification device 100, the identification device 100a identifies the type of tooth in addition to identifying the type of machined region. Accordingly, the identification device 100a estimates the type of tooth corresponding to the machined portion. Further, the identification device 100a estimates the content of the treatment given to the processed region based on the identification result indicating the type of the processed region. In this way, the identification device 100a generates the chart of the subject 2 by estimating the type of tooth corresponding to the processed region and the details of treatment given to the processed region.

なお、「歯牙の種類」は、上顎右側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯、上顎左側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯、下顎右側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯、下顎左側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯といったような各歯牙の種類を意味する。 The "types of teeth" are upper right central incisors, lateral incisors, canines, first premolars, second premolars, first molars, second molars, and third molars, upper left side. central incisors, lateral incisors, canines, first premolars, second premolars, first molars, second molars, and third molars, lower right central incisors, lateral incisors, canines, 1st premolar, 2nd premolar, 1st molar, 2nd molar, and 3rd molar, mandibular left central incisor, lateral incisor, canine, 1st premolar, 2nd premolar, 3rd molar It refers to each tooth type such as 1 molar, 2nd molar, and 3rd molar.

[測定中に機能する構成]
図13は、実施形態2にかかるスキャナシステム10aの測定中に機能する機能構成を示す模式図である。図13を参照して、スキャナシステム10aは、識別装置100に替えて識別装置100aを備える点で実施形態1にかかるスキャナシステム10と異なる。また、識別装置100aは、歯牙種識別部1134をさらに備え、さらに、三次元データに加えてプロファイルデータ119が識別処理に利用される点で、実施形態1にかかる識別装置100と異なる。
[Configuration that works during measurement]
FIG. 13 is a schematic diagram showing a functional configuration functioning during measurement of the scanner system 10a according to the second embodiment. Referring to FIG. 13, a scanner system 10a differs from the scanner system 10 according to the first embodiment in that an identification device 100a is provided instead of the identification device 100. FIG. Further, the identification device 100a is different from the identification device 100 according to the first embodiment in that the identification device 100a further includes a tooth type identification unit 1134 and uses the profile data 119 for identification processing in addition to the three-dimensional data.

プロファイルデータ119は、対象者2の年齢、性別、人種、身長、体重、および居住地といったプロファイルを示す情報である。なお、プロファイルデータ119は、必ずしも必要な情報ではなく、歯牙の種類を識別する際の精度を上げるために利用される情報である。また、プロファイルデータ119は、初診の際に対象者2から得られる情報であって、カルテの情報に含まれる。 The profile data 119 is information indicating the profile of the subject 2, such as age, sex, race, height, weight, and place of residence. Note that the profile data 119 is not necessarily required information, but is information that is used to improve accuracy when identifying the type of tooth. Also, the profile data 119 is information obtained from the subject 2 at the first visit, and is included in the medical record information.

歯牙種識別部1134は、入力部1102に入力された三次元データと、プロファイルデータ119とに基づき、歯牙種推定モデル114a(学習済モデル115a)を用いて、歯牙の種類を識別する。歯牙種推定モデル114aは、第2NNW1142aと、当該第2NNW1142aによって用いられるパラメータ1144aとを含む。なお、第2NNW1142aおよびパラメータ1144aは、上記実施形態1において説明した第1NNW1142およびパラメータ1144と共通するため、説明を省略する。 The tooth type identification unit 1134 identifies the tooth type based on the three-dimensional data input to the input unit 1102 and the profile data 119, using the tooth type estimation model 114a (learned model 115a). The tooth type estimation model 114a includes a second NNW 1142a and parameters 1144a used by the second NNW 1142a. Note that the second NNW 1142a and the parameters 1144a are common to the first NNW 1142 and the parameters 1144 described in the first embodiment, so description thereof will be omitted.

加工部位は、生体部位に対して加工を施した部位であるため、天然の歯牙とは形状の特徴などが異なる。そのため、加工部位をスキャンして得られた三次元データに基づいて歯牙種識別部1134が歯牙の種類を識別する識別処理をした場合、歯牙の種類を識別できないことがある。本実施の形態において、識別装置100aは、歯牙種識別部1134によって歯牙の種類が識別できなかった場合に、入力部1102に入力された三次元データに対応する部位が加工部位であるとして、加工種識別部1132が加工部位の種類を識別する識別処理を実行する。 Since the processed part is a part obtained by processing a living body part, it differs from a natural tooth in features such as shape. Therefore, when the tooth type identification unit 1134 performs identification processing for identifying the type of tooth based on three-dimensional data obtained by scanning the processed region, the type of tooth may not be identified. In the present embodiment, when the tooth type identification unit 1134 cannot identify the type of tooth, the identification device 100a determines that the portion corresponding to the three-dimensional data input to the input unit 1102 is the processed portion. The species identification unit 1132 executes identification processing for identifying the type of processed portion.

出力部1103は、歯牙種識別部1134および加工種識別部1132の各々による識別結果をディスプレイ300に出力する。 Output unit 1103 outputs identification results from tooth type identification unit 1134 and processing type identification unit 1132 to display 300 .

また、識別装置100aが備えるストレージ110には、三次元データ122と、三次元データ122に対応する部位の歯牙の種類を示す識別結果124aと、三次元データ122に対応する加工部位の種類を示す識別結果124とが格納される。 In addition, the storage 110 provided in the identification device 100a stores three-dimensional data 122, an identification result 124a indicating the type of tooth in the region corresponding to the three-dimensional data 122, and the type of the processed region corresponding to the three-dimensional data 122. The identification result 124 is stored.

[測定後に機能する構成]
図14および図15を参照して、カルテの生成にかかる機能について説明する。図14は、実施形態2にかかる識別装置100aの測定後にカルテを生成する際に機能する機能構成を示す模式図である。図15は、加工部位の歯牙の種類を推定する方法を説明するための模式図である。
[Configuration that functions after measurement]
Functions related to chart generation will be described with reference to FIGS. 14 and 15. FIG. FIG. 14 is a schematic diagram showing a functional configuration that functions when generating a chart after measurement of the identification device 100a according to the second embodiment. 15A and 15B are schematic diagrams for explaining a method of estimating the type of tooth of the machined portion.

図14を参照して、測定後にカルテを生成する際の機能として、識別装置100aは、治療推定部1152、歯牙種推定部1154、およびカルテ生成部1156を備える。 Referring to FIG. 14, identification device 100a includes treatment estimation unit 1152, tooth type estimation unit 1154, and chart generation unit 1156 as functions for generating a chart after measurement.

治療推定部1152は、加工部位の種類を示す識別結果124に基づいて、当該加工部位に施された治療内容を推定する。 Based on the identification result 124 indicating the type of the processed part, the treatment estimation unit 1152 estimates the content of the treatment given to the processed part.

加工種識別部1132は、三次元データに対応する部位の加工部位の種類を識別する。生体部位に対する加工は、治療のために行われる。そのため、加工部位の種類と、治療内容とは対応関係にある。加工部位の種類と治療内容との関係を表2に示す。 The processing type identification unit 1132 identifies the type of processing region of the region corresponding to the three-dimensional data. Processing of a living body part is performed for treatment. Therefore, there is a correspondence relationship between the type of processed region and the content of treatment. Table 2 shows the relationship between the type of processed site and the content of treatment.

Figure 0007267974000002
Figure 0007267974000002

表2を参照して、「加工部位」は、治療途中の加工部位と、治療済の加工部位とに分類できる。たとえば、「インプラント」、「窩洞形成歯」および「支台歯」は、治療中の加工部位であり、「補綴物」は、治療済の加工部位である。加工部位の種類と治療内容の種類とは互いに対応しているため、治療推定部1152は、加工部位の種類を示す識別結果124に基づいて対象者2に対して行われた治療内容を推定できる。また、加工部位は、治療途中の加工部位と治療済の加工部位とに分類される。そのため、治療推定部1152は、加工部位の種類を示す識別結果124に基づいて治療の途中であるのか、あるいは治療が完了しているのかを推定できる。 Referring to Table 2, the "processed site" can be classified into a processed site in the middle of treatment and a processed site that has already been treated. For example, "implant", "cavity-forming tooth" and "abutment tooth" are working sites under treatment, and "prosthesis" are working sites that have been treated. Since the type of processed part and the type of treatment content correspond to each other, the treatment estimating unit 1152 can estimate the content of treatment performed on the subject 2 based on the identification result 124 indicating the type of the processed part. . In addition, the processed region is classified into a processed region in the middle of treatment and a processed region that has already been treated. Therefore, the treatment estimation unit 1152 can estimate whether the treatment is in progress or has been completed based on the identification result 124 indicating the type of the processed part.

治療推定部1152は、表2に示すようなテーブルを参照して治療内容を推定してもよく、また、加工部位の種類を示す識別結果124を入力値としてディープラーニングを行うことで識別結果124に対応する治療内容を推定してもよい。治療内容の推定をディープラーニングで行う場合、治療推定部1152は、加工部位の種類に対して正解データとして治療内容を対応付けた教師データを利用してパラメータを最適化させたニューラルネットワークを利用して治療内容を推定する。 The treatment estimating unit 1152 may refer to a table as shown in Table 2 to estimate the content of treatment, and performs deep learning using the identification result 124 indicating the type of processed part as an input value to obtain the identification result 124 . You may presume the contents of treatment corresponding to. When the treatment content is estimated by deep learning, the treatment estimation unit 1152 uses a neural network that optimizes parameters using training data that associates treatment content as correct data with respect to the type of processed part. to estimate the treatment content.

歯牙種推定部1154は、加工部位に対応する歯牙の種類を推定する。歯牙種推定部1154は、加工部位に対応する歯牙あるいは隣接する歯牙の種類から、当該加工部位に対応する歯牙の種類を推定する。「加工部位に対応する歯牙」とは、補綴物が取り付けられた歯牙に限らず、天然歯の代わりに人工歯が取り付けられている場合には元の天然歯の歯牙を意味する。また、「加工部位に対応する歯牙」とは、インプラントが取り付けられている場合には当該インプラントを取り付ける前に存在していた歯牙を意味する。 The tooth type estimation unit 1154 estimates the type of tooth corresponding to the machining site. The tooth type estimating unit 1154 estimates the type of tooth corresponding to the machining site from the type of the tooth corresponding to the machining site or the adjacent tooth. The "tooth corresponding to the processed part" is not limited to the tooth to which the prosthesis is attached, and means the tooth of the original natural tooth when the artificial tooth is attached instead of the natural tooth. In addition, the "tooth corresponding to the processed site" means, when an implant is attached, the tooth that existed before the implant was attached.

カルテ生成部1156は、歯牙種推定部1154が推定した加工部位に対応する歯牙の種類と、治療推定部1152が推定した治療内容とに基づいて、カルテ150を生成する。 The chart generation unit 1156 generates the chart 150 based on the tooth type corresponding to the processed region estimated by the tooth type estimation unit 1154 and the treatment content estimated by the treatment estimation unit 1152 .

カルテ150には、プロファイルデータ119から特定される対象者2の基本情報を示すプロファイル表示領域152と、加工部位に対応する歯牙の種類が示される歯牙種表示領域154と、表示されている歯牙に施された治療内容が示されるコメント表示領域156と、歯式が示される歯式表示領域158とを含む。なお、カルテ生成部1156は、歯式表示領域158に、歯式に変えて、または歯式とともに、三次元データに基づいて任意の視点からみた加工部位を含めた歯牙の像を含む二次元画像を表示してもよい。 The medical record 150 includes a profile display area 152 showing basic information of the subject 2 specified from the profile data 119, a tooth type display area 154 showing the type of tooth corresponding to the processed part, and information about the displayed tooth. It includes a comment display area 156 showing the details of the treatment performed and a dental formula display area 158 showing the dental formula. Note that the medical record generation unit 1156 displays a two-dimensional image of the tooth including the processed part viewed from an arbitrary viewpoint based on the three-dimensional data instead of or together with the tooth formula in the tooth formula display area 158. may be displayed.

図15を参照して、加工部位に対応する歯牙の種類を推定する方法を具体的に説明する。まず、三次元スキャナ200によって三次元データが取得される(STEP1)。次に、識別装置100aは、歯牙種識別部1134による識別処理によって歯牙の種類を識別する(STEP2)。たとえば、図15のSTEP2に示す例では、識別装置100aは、下顎右側および上顎右側に位置する各歯牙の種類を識別している。具体的には、識別装置100aは、識別処理によって、下顎右側については第二大臼歯、第一大臼歯、第二小臼歯、および第一小臼歯を、上顎右側については第二大臼歯、第二小臼歯、および第一小臼歯を、それぞれ特定する。 A method for estimating the type of tooth corresponding to the machined portion will be specifically described with reference to FIG. First, three-dimensional data is acquired by the three-dimensional scanner 200 (STEP 1). Next, the identification device 100a identifies the type of tooth through identification processing by the tooth type identification unit 1134 (STEP 2). For example, in the example shown in STEP2 of FIG. 15, the identification device 100a identifies the type of each tooth located on the right side of the lower jaw and the right side of the upper jaw. Specifically, the identification device 100a performs identification processing to identify the second molar, first molar, second premolar, and first premolar on the right side of the lower jaw, and the second molar, first molar, and second molar on the right side of the upper jaw. Identify the second premolar and the first premolar, respectively.

ここで、口腔内に加工部位が存在する場合、識別装置100aの歯牙種識別部1134は識別処理によって、加工部位に対応する歯牙の種類を識別できないことがある。しかし、歯牙種識別部1134は、加工部位に対応する歯牙に隣り合う隣接歯牙および、加工部位に対応する歯牙に対向する対向歯牙については、識別処理によってその種類を推定できる。歯牙種推定部1154は、隣接歯牙および対向歯牙の種類に基づいて、加工部位に対応する歯牙の種類を推定する(STEP3)。 Here, when there is a processed site in the oral cavity, the tooth type identification unit 1134 of the identification device 100a may not be able to identify the type of tooth corresponding to the processed site by the identification processing. However, the tooth type identifying unit 1134 can estimate the type of adjacent teeth adjacent to the tooth corresponding to the processed region and opposing teeth facing the tooth corresponding to the processed region through identification processing. The tooth type estimating section 1154 estimates the type of tooth corresponding to the processed portion based on the types of adjacent teeth and opposing teeth (STEP 3).

たとえば、図15のSTEP3に示す例では、歯牙種識別部1134は、上顎右側において第二大臼歯と第二小臼歯との間の加工部位に対応する歯牙の種類を識別できない。しかし、歯牙種識別部1134は、上顎右側において第二大臼歯および第二小臼歯を少なくとも識別している。そのため、歯牙種推定部1154は、それらの間の歯牙が上顎右側の第一大臼歯であると推定できる。あるいは、歯牙種識別部1134は、加工部位に対応する歯牙に対向する下顎右側の第一大臼歯を少なくとも識別している。そのため、歯牙種推定部1154は、下顎右側の第一大臼歯に対向する歯牙が上顎右側の第一大臼歯であると推定できる。 For example, in the example shown in STEP 3 of FIG. 15, the tooth type identification unit 1134 cannot identify the type of tooth corresponding to the processed region between the second molar and the second premolar on the right side of the upper jaw. However, the tooth type identifying section 1134 identifies at least the second molar and the second premolar on the right side of the upper jaw. Therefore, the tooth type estimation unit 1154 can estimate that the tooth between them is the upper right first molar. Alternatively, the tooth type identification unit 1134 identifies at least the first molar on the right side of the mandible facing the tooth corresponding to the processed region. Therefore, the tooth type estimation unit 1154 can estimate that the tooth facing the lower right first molar is the upper right first molar.

なお、歯牙種推定部1154、加工部位の種類がインレー、アンレー、クラウンといった、歯の一部に取り付けられた補綴物である場合には、加工部位と識別された三次元データの周囲の、歯牙の種類が識別された三次元データに基づいて加工部位に対応する歯牙の種類を識別してもよい。たとえば、加工部位の三次元データに対応する歯牙の種類は、当該加工部位の三次元データの周囲の歯牙の三次元データに対応付けられた歯牙の種類と同じであると推定される。 In addition, when the type of tooth type estimation unit 1154 is a prosthesis attached to a part of the tooth, such as an inlay, an onlay, or a crown, the teeth around the three-dimensional data identified as the processed part The type of tooth corresponding to the machining site may be identified based on the three-dimensional data in which the type of tooth is identified. For example, the tooth type corresponding to the three-dimensional data of the machined portion is estimated to be the same as the tooth type associated with the three-dimensional data of the surrounding teeth of the three-dimensional data of the machined portion.

[歯牙種推定モデル114a(学習済モデル115a)の生成]
図16~図18を参照して、学習済モデル115aを生成するための学習処理について説明する。図16は、実施形態2にかかる学習用データセット116aの一例を説明するための模式図である。図17は、実施形態2にかかる学習用データセット116aに基づく学習済モデル115aの生成を説明するための模式図である。図18は、実施形態2にかかる識別装置100aが実行する歯牙種用の学習処理の一例を説明するためのフローチャートである。なお、加工種推定モデル114の学習済モデル115を生成するための学習処理は、実施形態1において説明した学習済モデル115を生成するための学習処理(図9参照)と共通するため、説明を省略する。
[Generation of tooth type estimation model 114a (learned model 115a)]
The learning process for generating the trained model 115a will be described with reference to FIGS. 16 to 18. FIG. FIG. 16 is a schematic diagram for explaining an example of the learning data set 116a according to the second embodiment. FIG. 17 is a schematic diagram for explaining generation of the trained model 115a based on the learning data set 116a according to the second embodiment. FIG. 18 is a flowchart for explaining an example of tooth type learning processing executed by the identification device 100a according to the second embodiment. Note that the learning process for generating the learned model 115 of the processed species estimation model 114 is common to the learning process (see FIG. 9) for generating the learned model 115 described in the first embodiment. omitted.

歯牙の種類を識別するために学習用データを生成する際に、ユーザ1(特に、歯科医師、歯科技工士などの歯科の知識を有する者など)は、三次元画像を確認しながら歯牙の種類を識別し、識別した歯牙の種類に応じた色を三次元画像に塗布することで、位置情報と識別情報とを対応付ける。なお、塗布する色は、歯牙の種類ごとに予め割り当てられている。割り当て内容は、色分類データ118aとしてストレージ110内に格納されている。 When generating learning data for identifying tooth types, user 1 (particularly, a person with dental knowledge such as a dentist or a dental technician) confirms the three-dimensional image and identifies the tooth types. is identified, and a color corresponding to the type of the identified tooth is applied to the three-dimensional image, thereby associating the position information with the identification information. The color to be applied is assigned in advance for each tooth type. The allocation contents are stored in the storage 110 as the color classification data 118a.

たとえば、ユーザ1は、三次元画像に含まれる歯牙が第二大臼歯であると識別すると、当該歯牙の画像に赤色を塗布する。また、三次元画像に含まれる歯牙が第一大臼歯であると識別すると、当該歯牙の画像に緑色を塗布する。三次元画像に含まれる各歯牙に対して予め定められた色が塗布されると、図16に示すように各歯牙に対して予め定められた色が塗布された三次元画像が生成される。なお、分かり易いように、図面上では各色がハッチングで表されている。 For example, when the user 1 identifies that the tooth included in the three-dimensional image is the second molar, the user 1 paints the image of the tooth in red. Further, when the tooth included in the three-dimensional image is identified as the first molar, the image of the tooth is painted green. When each tooth included in the three-dimensional image is painted with a predetermined color, a three-dimensional image is generated in which each tooth is painted with a predetermined color as shown in FIG. For easy understanding, each color is represented by hatching on the drawing.

各歯牙に対して予め定められた色情報(識別情報)が関連付けられると、三次元データには、位置情報と、塗布された色に対応する色情報(識別情報)とが含まれるようになり、このような三次元データが学習用データとして採用される。つまり、実施形態2にかかる歯牙種推定モデル114aの学習用データにおいては、識別処理で参照される位置情報に対して、歯牙の種類に対応する色情報が関連付けられる(ラベリングされる)。さらに、三次元データに対応する複数の歯牙のそれぞれの範囲を特定可能に当該三次元データに色情報が関連付けられる。具体的には、各歯牙に対応する位置情報ごとに、同じ色情報が関連付けられる。このような学習用データの集まりが学習用データセット116aとして、識別装置100aに保持される。 When predetermined color information (identification information) is associated with each tooth, the three-dimensional data includes position information and color information (identification information) corresponding to the applied color. , such three-dimensional data is employed as learning data. That is, in the learning data of the tooth type estimation model 114a according to the second embodiment, color information corresponding to the tooth type is associated (labeled) with the position information referred to in the identification process. Further, color information is associated with the three-dimensional data so that each range of a plurality of teeth corresponding to the three-dimensional data can be specified. Specifically, the same color information is associated with each piece of position information corresponding to each tooth. A collection of such learning data is held in the identification device 100a as a learning data set 116a.

なお、実施形態2においては、ユーザ1が自身の知見に基づき手作業で三次元画像に含まれる各歯牙に色を塗布しているが、一部の作業をソフトウェアで補うことも可能である。たとえば、ラベリング対象である歯牙と当該歯牙に隣接する歯牙との間の境界、およびラベリング対象である歯牙と歯肉との間の境界を、エッジ検出によって特定してもよく、このようにすれば、ラベリング対象である歯牙のみを抽出できる。 In the second embodiment, the user 1 manually applies the color to each tooth included in the three-dimensional image based on his/her own knowledge, but it is also possible to supplement part of the work with software. For example, the boundary between the tooth to be labeled and the tooth adjacent to it, and the boundary between the tooth to be labeled and the gingiva may be identified by edge detection, such that: Only teeth to be labeled can be extracted.

図17に示すように、学習用データセット116aは、当該学習用データセット116aを生成する際にスキャン対象となった対象者2のプロファイルに基づきカテゴリごとに分類できる。たとえば、年齢(未成年者,現役世代,高齢者)、性別(男性,女性)、人種(アジア人,欧米人,アフリカ系)、身長(150cm未満,150以上)、体重(50kg未満,50kg以上)、および居住地(日本在住,日本以外に在住)のそれぞれに対して、該当する対象者2の歯牙を含む三次元データから生成された学習用データセットを割り当てることができる。なお、各カテゴリの層別は、適宜設定可能である。たとえば、年齢に関しては、所定の年齢差ごと(この場合は3歳ごと)、具体的には、0歳~3歳、4歳~6歳、7歳~9歳、…といったように、より詳細に層別できる。 As shown in FIG. 17, the learning data set 116a can be classified into categories based on the profile of the subject 2 who was scanned when the learning data set 116a was generated. For example, age (minor, working generation, elderly), gender (male, female), race (Asian, Western, African), height (less than 150 cm, 150 or more), weight (less than 50 kg, 50 kg) above), and place of residence (resident in Japan, residing outside of Japan) can be assigned a learning data set generated from three-dimensional data including the teeth of the corresponding subject 2 . Note that the stratification of each category can be set as appropriate. For example, with respect to age, for each predetermined age difference (every three years in this case), specifically, more detailed information such as 0 to 3 years old, 4 to 6 years old, 7 to 9 years old, etc. can be stratified into

識別装置100aは、カテゴリごとに分類できる複数の学習用データセット116aを用いて歯牙種推定モデル114aを学習させることで、学習済モデル115aを生成する。なお、学習用データは、カテゴリの分類の仕方によっては重複することがあるが、学習用データが重複する場合には、いずれかの学習用データのみを用いて歯牙種推定モデル114aを学習させればよい。 The identification device 100a generates a trained model 115a by training the tooth type estimation model 114a using a plurality of learning data sets 116a that can be classified by category. Note that the learning data may overlap depending on how the categories are classified. If the learning data overlaps, only one of the learning data is used to train the tooth type estimation model 114a. Just do it.

一般的に歯牙の形状は、年齢、性別、人種、身長、体重、および居住地など、遺伝または生活環境などに依存してその特徴が異なる。たとえば、一般的に、大人の永久歯は、子供の乳歯よりも大きく、両者でその形状が異なる。また、一般的に、男性の歯牙は、女性の歯牙よりも大きく、両者でその形状が異なる。また、一般的に、欧米人の歯牙は、硬い肉やパンを噛み切り易いように先端が尖る傾向があるのに対して、日本人の歯牙は、柔らかい米や野菜をすり潰し易いように先端が滑らかになる傾向がある。このため、実施形態2のように、プロファイルデータに基づき学習処理を実行すれば、遺伝または生活環境などを考慮して歯牙の種類を識別できる学習済モデルを生成できる。 In general, tooth shape differs depending on genetics or living environment such as age, sex, race, height, weight, place of residence, and the like. For example, the permanent teeth of adults are generally larger than the milk teeth of children, and the two have different shapes. In general, male teeth are larger than female teeth, and the two have different shapes. In general, the teeth of Westerners tend to have sharp tips so that they can easily bite off hard meat and bread, whereas the teeth of Japanese people tend to have sharp tips so that they can easily grind soft rice and vegetables. It tends to be smooth. Therefore, by performing learning processing based on profile data as in the second embodiment, it is possible to generate a trained model that can identify the type of tooth in consideration of heredity or living environment.

図18に示すように、識別装置100aは、学習済モデル115aを生成するために歯牙種用の学習処理を実行する。歯牙種用の学習処理は、利用する推定モデルが歯牙種推定モデル114aである点、および、歯牙種推定モデル114aに入力する情報が三次元データの位置情報に加えて、学習用データを生成する際にスキャン対象となった対象者2のプロファイルデータを入力する(S2a)点で、実施形態1にかかる識別装置100が実行する加工種用の学習処理(図9参照)と異なる。 As shown in FIG. 18, the identification device 100a performs learning processing for the tooth type to generate a trained model 115a. The learning process for the tooth type is based on the fact that the estimation model to be used is the tooth type estimation model 114a, and the information input to the tooth type estimation model 114a is the position information of the three-dimensional data, and the learning data is generated. This differs from the processing type learning process (see FIG. 9) executed by the identification device 100 according to the first embodiment in that the profile data of the subject 2 who was actually scanned is input (S2a).

具体的に、識別装置100aは、学習用データセット116aの中から、学習に用いる学習用データを選択する(S1a)。識別装置100aは、選択した学習用データに含まれる三次元データの位置情報、および当該学習用データを生成する際にスキャン対象となった対象者2のプロファイルデータを歯牙種推定モデル114aに入力する(S2a)。識別装置100は、三次元データに対応する歯牙の特徴に基づき、歯牙種推定モデル114aを用いて当該歯牙の種類を識別する識別処理を実行する(S3a)。識別処理において、識別装置100は、三次元データに加えてプロファイルデータに基づき、歯牙種推定モデル114aを用いて当該歯牙の種類を識別する。 Specifically, the identification device 100a selects learning data to be used for learning from the learning data set 116a (S1a). The identification device 100a inputs the position information of the three-dimensional data included in the selected learning data and the profile data of the subject 2 who was scanned when the learning data was generated into the tooth type estimation model 114a. (S2a). The identification device 100 executes identification processing for identifying the type of tooth using the tooth type estimation model 114a based on the characteristics of the tooth corresponding to the three-dimensional data (S3a). In the identification process, the identification device 100 identifies the type of tooth using the tooth type estimation model 114a based on profile data in addition to three-dimensional data.

識別装置100aは、識別処理によって識別した歯牙の種類の識別結果と、学習処理に用いた学習用データに対応する正解データとの誤差に基づき、歯牙種推定モデル114aのパラメータ1144aを更新する(S4a)。 The identification device 100a updates the parameter 1144a of the tooth type estimation model 114a based on the error between the tooth type identification result identified by the identification process and the correct data corresponding to the learning data used in the learning process (S4a ).

次に、識別装置100aは、全ての学習用データに基づき学習したか否かを判定する(S5a)。識別装置100aは、全ての学習用データに基づき学習していない場合(S5aでNO)、S1aの処理に戻る。 Next, the identification device 100a determines whether or not it has learned based on all the learning data (S5a). If the identification device 100a has not learned based on all the learning data (NO in S5a), the identification device 100a returns to the process of S1a.

一方、識別装置100aは、全ての学習用データに基づき学習した場合(S5aでYES)、学習済みの歯牙種推定モデル114aを学習済モデル115aとして記憶し(S6a)、本処理を終了する。 On the other hand, if the identification device 100a has learned based on all the learning data (YES in S5a), the identification device 100a stores the learned tooth type estimation model 114a as the learned model 115a (S6a), and ends this process.

このように、識別装置100aは、学習用データに含まれる三次元データに関連付けられた歯牙の種類に対応する識別情報(たとえば、色情報)を正解データとして、識別処理による当該三次元データを用いた当該歯牙の種類の識別結果に基づき、歯牙種推定モデル114aを学習することで、学習済モデル115aを生成できる。 In this way, the identification device 100a uses the identification information (for example, color information) corresponding to the type of tooth associated with the three-dimensional data included in the learning data as correct data, and uses the three-dimensional data obtained by the identification process. A learned model 115a can be generated by learning the tooth type estimation model 114a based on the tooth type identification result.

さらに、識別装置100aは、学習処理において、学習用データに加えてプロファイルデータを考慮して歯牙種推定モデル114aを学習するため、対象者2のプロファイルを考慮した学習済モデル115aを生成できる。 Furthermore, in the learning process, the identification device 100a learns the tooth type estimation model 114a in consideration of profile data in addition to learning data, so it is possible to generate a trained model 115a in consideration of the profile of the subject 2.

なお、正解データである識別情報として色情報を各位置情報に対応付けたが、識別情報は、歯牙の名称または歯牙の番号など、色情報とは異なる情報であってもよい。 Although the color information is associated with each positional information as identification information, which is correct data, the identification information may be information different from the color information, such as the name of the tooth or the number of the tooth.

[サービス提供処理]
図19は、実施形態2にかかる識別装置100aが実行するサービス提供処理の一例を説明するためのフローチャートである。実施形態2にかかる識別装置100aが実行するサービス提供処理は、S12に代わりS121~S126が実行される点で、図10に示した実施形態1にかかる識別装置100が実行するサービス提供処理と異なる。以下、識別装置100が実行するサービス提供処理と異なる点を中心に説明する。
[Service provision processing]
FIG. 19 is a flowchart for explaining an example of service providing processing executed by the identification device 100a according to the second embodiment. The service providing process executed by the identification device 100a according to the second embodiment differs from the service providing process executed by the identification device 100 according to the first embodiment shown in FIG. 10 in that S121 to S126 are executed instead of S12. . Differences from the service providing process executed by the identification device 100 will be mainly described below.

識別装置100aは、所定の点に対応する三次元データが入力された場合(S11でYES)、プロファイルデータがあるか否かを判定する(S121)。識別装置100aは、プロファイルデータがない場合(S121でNO)、三次元データ(位置情報)を学習済みの歯牙種推定モデル114a(学習済モデル115a)に入力する(S123)。一方、識別装置100aは、プロファイルデータがある場合(S121でYES)、三次元データ(位置情報)およびプロファイルデータを学習済みの歯牙種推定モデル114a(学習済モデル115a)に入力する(S122)。 When three-dimensional data corresponding to a predetermined point is input (YES in S11), the identification device 100a determines whether there is profile data (S121). If there is no profile data (NO in S121), the identification device 100a inputs the three-dimensional data (positional information) to the learned tooth type estimation model 114a (learned model 115a) (S123). On the other hand, if there is profile data (YES in S121), the identification device 100a inputs the three-dimensional data (position information) and profile data to the learned tooth type estimation model 114a (learned model 115a) (S122).

S122およびS123のあと、識別装置100aは、三次元データに対応する歯牙の特徴に基づき、学習済の歯牙種推定モデル114a(学習済モデル115a)を用いて当該歯牙の種類を識別する識別処理を実行する(S124)。このとき、S122でプロファイルデータが学習済モデル115aに入力されていた場合、識別装置100aは、三次元データに加えてプロファイルデータに基づき、学習済モデル115aを用いて当該歯牙の種類を識別する。 After S122 and S123, the identification device 100a performs identification processing to identify the type of tooth using the trained tooth type estimation model 114a (learned model 115a) based on the characteristics of the tooth corresponding to the three-dimensional data. Execute (S124). At this time, if profile data has been input to the learned model 115a in S122, the identification device 100a identifies the type of tooth using the learned model 115a based on profile data in addition to three-dimensional data.

識別装置100aは、歯牙の種類を識別できたか否かを判定する(S125)。識別できたか否かは、たとえば、パラメータ1144aに含まれる判定値と計算結果との比較に基づいて判断される。 The identification device 100a determines whether or not the type of tooth has been identified (S125). Whether or not it has been identified is determined, for example, based on a comparison between the determination value included in the parameter 1144a and the calculation result.

識別装置100aは、歯牙の種類を識別できた場合(S125においてYES)、S13以降の処理を実行する。一方、識別装置100aは、歯牙の種類を識別できなかった場合(S125においてNO)、三次元データを学習済の加工種推定モデル114(学習済モデル115)に入力し、当該学習済モデル115を用いて加工部位の種類を識別する識別処理を実行する(S126)。 If the identification device 100a can identify the type of tooth (YES in S125), the identification device 100a executes the processes from S13 onward. On the other hand, if identification device 100a fails to identify the type of tooth (NO in S125), identification device 100a inputs the three-dimensional data to trained processed species estimation model 114 (learned model 115), and uses learned model 115 as input. Identification processing for identifying the type of the machined portion is executed (S126).

S125およびS126のあと、識別装置100aは、識別結果を、S11で入力された三次元データに関連付ける(S13)。たとえば、識別装置100aは、歯牙の種類が識別できた場合、三次元データに含まれる位置情報に対して、歯牙の種類を示す識別結果124aを示す色情報(赤色、緑色などを示す色情報)を関連付ける。一方、歯牙の種類を識別できず、加工部位の種類を識別できた場合、識別装置100aは、三次元データに含まれる位置情報に対して、加工部位の種類を示す識別結果124を示す色情報(色a、色bなどを示す色情報)を関連付ける。 After S125 and S126, the identification device 100a associates the identification result with the three-dimensional data input in S11 (S13). For example, when the identification device 100a can identify the type of tooth, the color information (color information indicating red, green, etc.) indicating the identification result 124a indicating the type of tooth is used for the position information included in the three-dimensional data. associate. On the other hand, if the type of the tooth cannot be identified but the type of the machined portion can be identified, the identification device 100a generates color information indicating the identification result 124 indicating the type of the machined portion for the position information included in the three-dimensional data. (color information indicating color a, color b, etc.) is associated.

識別装置100aは、関連付けの結果を外部(たとえば、ディスプレイ300)に出力する(S14)。具体的には、入力された三次元データに対応する点に対して、当該点に対応する部位に対する関連付けの結果がディスプレイ300に表示される。その後、識別装置100aは、本処理を終了する。たとえば、図11および図12に示した測定中の出力例のように、三次元データを取得したタイミングで、取得した三次元データに対する識別結果が順々にディスプレイ300に表示される。 The identification device 100a outputs the association result to the outside (for example, the display 300) (S14). Specifically, for points corresponding to the input three-dimensional data, display 300 displays the results of associating parts corresponding to the points. After that, the identification device 100a terminates this process. For example, as in the output examples during measurement shown in FIGS. 11 and 12, the identification results for the acquired three-dimensional data are sequentially displayed on the display 300 at the timing of acquiring the three-dimensional data.

以上のように、実施形態2において、識別装置100aは、歯牙種識別部1134が歯牙の種類を識別できなかった場合に、加工種識別部1132による加工部位の種類を識別する処理を実行し、歯牙種識別部1134が歯牙の種類を識別できた場合には、加工種識別部1132による加工部位の種類を識別する処理を実行しない。 As described above, in the second embodiment, when the tooth type identification unit 1134 fails to identify the type of tooth, the identification device 100a executes the process of identifying the type of the processed portion by the processing type identification unit 1132, If the tooth type identification unit 1134 can identify the type of tooth, the processing type identification unit 1132 does not perform the process of identifying the type of the processed portion.

図19に示したサービス提供処理において、識別装置100aは、歯牙の種類を識別できなかった場合に、S126において、加工部位ではないと識別した場合には、S13において、識別できなかったことを示す情報を三次元データに対応付けるようにしてもよい。 In the service providing process shown in FIG. 19, if the identifying device 100a cannot identify the type of tooth and identifies that it is not a machined part in S126, it indicates that it could not be identified in S13. Information may be associated with three-dimensional data.

[カルテ生成処理]
図20は、実施形態2にかかる識別装置100aが実行するカルテ生成処理の一例を説明するためのフローチャートである。カルテ生成処理は、三次元スキャナ200による三次元データの取得が完了した後であって、当該三次元データに対する識別処理(サービス提供処理)が完了したときに行われる。
[Cart generation process]
FIG. 20 is a flowchart for explaining an example of chart generation processing executed by the identification device 100a according to the second embodiment. The medical record generation process is performed after the acquisition of the three-dimensional data by the three-dimensional scanner 200 is completed and when the identification process (service provision process) for the three-dimensional data is completed.

カルテ生成処理において、識別装置100aは、加工部位に対応する歯牙種と、当該加工部位に施された治療内容を推定し、推定した歯牙種に対応付けて加工部位に施された治療内容をカルテとして出力する。 In the chart generating process, the identification device 100a estimates the tooth type corresponding to the processed site and the details of the treatment performed on the processed site, and creates a chart of the details of the treatment performed on the processed site in association with the estimated tooth type. output as

図20を参照して、識別装置100aは、歯牙種および治療内容の推定がされていない加工部位があるか否かを判定する(S21)。歯牙種および治療内容の推定がされていない加工部位がないと判定した場合(S21においてNO)、すなわち、すべての加工部位に対して、当該加工部位に対応する歯牙種の推定と、治療内容の推定とがされたと判定した場合、識別装置100aは、S26の処理を実行して、カルテ生成処理を終了する。 Referring to FIG. 20, identification device 100a determines whether or not there is a machined portion for which tooth type and treatment details have not been estimated (S21). If it is determined that there is no processed portion for which the tooth type and treatment content have not been estimated (NO in S21), that is, for all processed portions, the tooth type corresponding to the processed portion is estimated and the treatment content is determined. If it is determined that the estimation has been made, the identification device 100a executes the process of S26 and ends the chart generation process.

歯牙種および治療内容の推定がされていない加工部位があると判定した場合(S21においてYES)、識別装置100aは、加工部位の三次元データに基づき、当該加工部位に隣接する歯牙の種類を識別結果124a(歯牙の種類を示す識別結果)から取得する(S22)。 If it is determined that there is a processed portion for which the tooth type and treatment details have not been estimated (YES in S21), the identification device 100a identifies the type of tooth adjacent to the processed portion based on the three-dimensional data of the processed portion. Obtained from the result 124a (identification result indicating the type of tooth) (S22).

識別装置100aは、取得した歯牙の種類から、加工部位に対応する歯牙の種類を推定する(S23)。識別装置100aは、当該加工部位の種類を示す識別結果124に基づいて、当該加工部位に施された治療内容を推定する(S24)。識別装置100aは、推定した治療内容と推定した歯牙の種類とを対応付けてカルテに反映する(S25)。識別装置100aは、カルテに反映したのち、S21の処理を実行し、すべての加工部位に対して歯牙の種類および治療内容を推定するまでS22~S25を繰り返したのち、カルテを出力する(S26)。たとえば、識別装置100aは、図14に示したカルテ150をディスプレイ300に表示したり、あるいは、カルテ150を印刷したりする。 The identification device 100a estimates the type of tooth corresponding to the processed region from the acquired tooth type (S23). Based on the identification result 124 indicating the type of the machined part, the identification device 100a estimates the content of treatment given to the machined part (S24). The identification device 100a associates the estimated treatment content with the estimated tooth type and reflects them in the chart (S25). The identification device 100a executes the process of S21 after reflecting it in the medical chart, repeats S22 to S25 until the tooth type and treatment details are estimated for all processed parts, and then outputs the medical chart (S26). . For example, identification device 100a displays chart 150 shown in FIG. 14 on display 300, or prints chart 150. FIG.

以上のように、実施形態2においては、加工部位に施された治療内容が推定され、さらに加工部位に対応する歯牙の種類が推定される。そして、推定された治療内容と、推定された歯牙の種類とが対応付けて出力されることで、カルテが自動的に生成される。 As described above, in the second embodiment, the details of the treatment performed on the processed region are estimated, and the type of tooth corresponding to the processed region is estimated. A chart is automatically generated by outputting the estimated treatment content and the estimated tooth type in association with each other.

なお、実施形態2において、治療推定部1152は、測定後に機能するとした。なお、治療推定部1152が実行する処理は、図19に示したサービス提供処理に組み込まれていてもよい。たとえば、識別装置100aは、S126を実行した後に、得られた識別結果に基づいて治療内容を推定する処理を実行してもよい。 Note that in the second embodiment, the treatment estimation unit 1152 is assumed to function after measurement. Note that the processing executed by the treatment estimation unit 1152 may be incorporated in the service providing processing shown in FIG. 19 . For example, after executing S126, the identification device 100a may execute a process of estimating the content of treatment based on the obtained identification result.

<実施形態3>
図21~図26を参照して、実施形態3にかかる識別装置100bについて説明する。識別装置100bは、歯牙種の識別および加工部位の識別に加えて、病変部位の識別を行う。なお、「病変部位を識別する」とは、三次元データ122に対応する部位が病変部位であるか否かを識別すると共に、病変部位である場合は当該病変部位の病変内容を識別することを意味する。
<Embodiment 3>
An identification device 100b according to the third embodiment will be described with reference to FIGS. 21 to 26. FIG. The identifying device 100b identifies a lesion site in addition to identifying a tooth type and a processed site. It should be noted that "identifying a lesion site" means identifying whether or not a site corresponding to the three-dimensional data 122 is a lesion site, and if so, identifying the content of the lesion of the lesion site. means.

なお、「病変部位」は、口腔内の病変部位であって、たとえば、う蝕された部位、歯周病の症状が見られる部位を含む。また、「病変部位」は、実際に病気であると診断を受ける部位だけに限らず、歯石がたまっている部位のように病気を引き起こしそうな部位を含み得る。 The “lesion site” is a lesion site in the oral cavity, and includes, for example, a carious site and a site showing symptoms of periodontal disease. In addition, the "lesion site" is not limited to a site that is actually diagnosed as having a disease, and may include a site that is likely to cause a disease, such as a site where dental calculus is accumulated.

[測定中に機能する構成]
図21は、実施形態3にかかるスキャナシステム10bの測定中に機能する機能構成を示す模式図である。図21を参照して、スキャナシステム10bは、識別装置100aに替えて識別装置100bを備える点で実施形態2にかかるスキャナシステム10aと異なる。また、識別装置100bは、病変識別部1136をさらに備える点で、実施形態2にかかる識別装置100aと異なる。病変識別部1136は、入力部1102に入力された、三次元データに基づき、病変推定モデル114b(学習済モデル115b)を用いて、病変の種類を識別する。
[Configuration that works during measurement]
FIG. 21 is a schematic diagram showing a functional configuration functioning during measurement of the scanner system 10b according to the third embodiment. Referring to FIG. 21, a scanner system 10b differs from the scanner system 10a according to the second embodiment in that an identification device 100b is provided instead of the identification device 100a. Further, the identification device 100b differs from the identification device 100a according to the second embodiment in that a lesion identification unit 1136 is further provided. The lesion identification unit 1136 identifies the type of lesion based on the three-dimensional data input to the input unit 1102, using the lesion estimation model 114b (learned model 115b).

病変推定モデル114bは、第3NNW1142bと、当該第3NNW1142bによって用いられるパラメータ1144bとを含む。なお、第3NNW1142bおよびパラメータ1144bは、上記実施形態1において説明した第1NNW1142およびパラメータ1144と共通するため、説明を省略する。 The lesion estimation model 114b includes a third NNW 1142b and parameters 1144b used by the third NNW 1142b. Note that the third NNW 1142b and the parameters 1144b are common to the first NNW 1142 and the parameters 1144 described in the first embodiment, so description thereof will be omitted.

出力部1103は、歯牙種識別部1134、加工種識別部1132、および病変識別部1136の各々による識別結果をディスプレイ300に出力する。 Output unit 1103 outputs identification results from each of tooth type identification unit 1134 , processing type identification unit 1132 , and lesion identification unit 1136 to display 300 .

また、識別装置100bが備えるストレージ110には、三次元データ122と、三次元データ122に対応する部位の歯牙の種類を示す識別結果124aと、三次元データ122に対応する加工部位の種類を示す識別結果124と、三次元データ122に対応する部位の病変内容を示す識別結果124bとが格納される。 In addition, the storage 110 provided in the identification device 100b stores three-dimensional data 122, an identification result 124a indicating the type of tooth in the region corresponding to the three-dimensional data 122, and the type of the processed region corresponding to the three-dimensional data 122. An identification result 124 and an identification result 124b indicating the content of a lesion at a site corresponding to the three-dimensional data 122 are stored.

[測定後に機能する構成]
図22を参照して、カルテの生成にかかる機能について説明する。図22は、測定後にカルテを生成する際に機能する識別装置100bの機能構成を示す模式図である。
[Configuration that functions after measurement]
With reference to FIG. 22, functions related to chart generation will be described. FIG. 22 is a schematic diagram showing the functional configuration of the identification device 100b that functions when generating a chart after measurement.

図22を参照して、測定後にカルテを生成する際の機能として、識別装置100bは、実施形態2にかかる識別装置100aと同様に、治療推定部1152、歯牙種推定部1154およびカルテ生成部1156を備える。 Referring to FIG. 22, as functions for generating a chart after measurement, the identification device 100b includes a treatment estimation unit 1152, a tooth type estimation unit 1154, and a chart generation unit 1156, similarly to the identification device 100a according to the second embodiment. Prepare.

実施形態3にかかる歯牙種推定部1154は、加工部位に対応する歯牙の種類に加えて、病変部位に対応する歯牙の種類を推定する。歯牙種推定部1154は、加工部位または病変部位に対応する歯牙あるいは隣接する歯牙の種類から、当該加工部位または当該病変部位に対応する歯牙の種類を推定する。「病変部位に対応する歯牙」とは、う蝕された歯牙、病変のある歯肉の近傍の歯牙を意味する。なお、治療推定部1152の機能は、実施形態2にかかる識別装置100aが備える治療推定部1152と共通する。 The tooth type estimation unit 1154 according to the third embodiment estimates the type of tooth corresponding to the lesion site in addition to the type of tooth corresponding to the processed site. The tooth type estimation unit 1154 estimates the type of tooth corresponding to the processed site or lesion site from the type of the tooth corresponding to the processed site or lesion site or the adjacent tooth. A “tooth corresponding to a lesion site” means a carious tooth or a tooth in the vicinity of a lesioned gingiva. The function of the treatment estimation unit 1152 is common to that of the treatment estimation unit 1152 included in the identification device 100a according to the second embodiment.

カルテ生成部1156は、歯牙種推定部1154が推定した加工部位に対応する歯牙の種類および治療推定部1152が推定した当該加工部位に施された治療内容、ならびに歯牙種推定部1154が推定した病変部位に対応する歯牙の種類および識別結果124bが示す病変内容に基づいて、カルテ150を生成する。 The chart generating unit 1156 generates information on the type of tooth corresponding to the processed region estimated by the tooth type estimating unit 1154, the treatment given to the processed region estimated by the treatment estimating unit 1152, and the lesion estimated by the tooth type estimating unit 1154. A chart 150 is generated based on the type of tooth corresponding to the site and the content of the lesion indicated by the identification result 124b.

カルテ150には、プロファイルデータ119から特定される対象者2のプロファイルを示すプロファイル表示領域152と、加工部位または病変部位に対応する歯牙の種類が示される歯牙種表示領域154と、表示されている歯牙に施された治療内容または病変の内容が示されるコメント表示領域156と、歯式が示される歯式表示領域158とを含む。 The chart 150 displays a profile display area 152 showing the profile of the subject 2 specified from the profile data 119, and a tooth type display area 154 showing the type of tooth corresponding to the processed site or lesion site. It includes a comment display area 156 showing details of treatments or lesions applied to the tooth, and a tooth formula display area 158 showing the tooth formula.

なお、病変部位に対応する歯牙の種類を推定する方法は、上記実施形態2において説明した加工部位に対応する歯牙の種類を推定する方法と共通する。たとえば、歯牙種推定部1154は、病変部位が歯牙である場合には、当該病変部位に対応する歯牙あるいは隣接する歯牙の種類から、当該病変部位に対応する歯牙の種類を推定する。また、歯牙種推定部1154は、病変部位が歯肉である場合には、当該歯肉に隣接する歯牙を当該病変部位に対応する歯牙として、当該病変部位(歯肉)に対応する歯牙の種類を推定する。 The method for estimating the type of tooth corresponding to the lesion site is the same as the method for estimating the type of tooth corresponding to the processed site described in the second embodiment. For example, when the lesion site is a tooth, the tooth type estimation unit 1154 estimates the type of tooth corresponding to the lesion site from the type of the tooth corresponding to the lesion site or adjacent teeth. Further, when the lesion site is the gingiva, the tooth type estimation unit 1154 assumes that the tooth adjacent to the gingiva corresponds to the lesion site, and estimates the type of tooth corresponding to the lesion site (gingiva). .

[病変推定モデル114b(学習済モデル115b)の生成]
図23および図24を参照して、学習済モデル115bを生成するための学習処理について説明する。図23は、実施形態3にかかる学習用データセット116bに基づく学習済モデル115bの生成を説明するための模式図である。図24は、実施形態3にかかる識別装置100bが実行する病変用の学習処理の一例を説明するためのフローチャートである。なお、歯牙種推定モデル114aの学習済モデル115a、および加工種推定モデル114の学習済モデル115を生成するための学習処理は、上記実施形態において説明した学習処理と共通するため、説明を省略する。
[Generation of lesion estimation model 114b (learned model 115b)]
The learning process for generating the trained model 115b will be described with reference to FIGS. 23 and 24. FIG. FIG. 23 is a schematic diagram for explaining generation of the trained model 115b based on the learning data set 116b according to the third embodiment. FIG. 24 is a flowchart for explaining an example of a lesion learning process performed by the identification device 100b according to the third embodiment. The learning process for generating the trained model 115a of the tooth type estimation model 114a and the trained model 115 of the processing type estimation model 114 are common to the learning process described in the above embodiment, so description thereof will be omitted. .

図23を参照して、病変内容を識別するために学習用データを生成する際に、ユーザ1(特に、歯科医師、歯科技工士などの歯科の知識を有する者など)は、三次元画像を確認しながら、病変部位を識別し、識別した病変内容に応じた色を三次元画像に塗布することで、位置情報と識別情報とを対応付ける。なお、塗布する色は、病変内容ごとに予め割り当てられている。割り当て内容は、色分類データ118bとしてストレージ110内に格納されている。 Referring to FIG. 23 , when generating learning data for identifying lesion content, user 1 (particularly, a dentist, a dental technician, or other person with dental knowledge) uses a three-dimensional image to generate learning data. The positional information and the identification information are associated with each other by identifying the lesion site while confirming and applying a color corresponding to the content of the identified lesion to the three-dimensional image. The color to be applied is assigned in advance for each lesion content. The allocation contents are stored in the storage 110 as the color classification data 118b.

たとえば、ユーザ1は、三次元画像に含まれる部位が病変のない歯牙であると識別すると、当該歯牙の画像に白色を塗布する。また、ユーザ1は、三次元画像に含まれる部位が初期のう歯であると識別すると、当該部位の画像に色Aを塗布する。なお、分かり易いように、図面上では色A、Cがハッチングで表されている。 For example, when the user 1 identifies that the site included in the three-dimensional image is a tooth with no lesion, the user 1 paints the image of the tooth white. Further, when the user 1 identifies that a site included in the three-dimensional image is an early dental caries, the user 1 applies color A to the image of the site. For easy understanding, the colors A and C are hatched on the drawing.

位置情報に、正解データとして病変内容を示す色情報(識別情報)が対応付けられると、三次元データには、位置情報と、塗布された色に対応する色情報(識別情報)とが含まれるようになり、このような三次元データが学習用データとして採用される。つまり、実施形態3にかかる病変推定モデル114bの学習用データにおいては、識別処理で参照される位置情報に対して、病変内容に対応する色情報が関連付けられる(ラベリングされる)。さらに、三次元データに対応する病変の範囲を特定可能に当該三次元データに色情報が関連付けられる。具体的には、各病変部位に対応する位置情報ごとに、同じ色情報が関連付けられる。このような学習用データの集まりが学習用データセット116bとして、識別装置100bに保持される。 When color information (identification information) indicating lesion content is associated with position information as correct data, the three-dimensional data includes position information and color information (identification information) corresponding to the applied color. Thus, such three-dimensional data is adopted as learning data. In other words, in the training data of the lesion estimation model 114b according to the third embodiment, color information corresponding to lesion details is associated (labeled) with position information referred to in the identification process. Furthermore, color information is associated with the three-dimensional data so that the lesion range corresponding to the three-dimensional data can be specified. Specifically, the same color information is associated with each position information corresponding to each lesion site. A collection of such learning data is held in the identification device 100b as a learning data set 116b.

なお、実施形態3においては、ユーザ1が自身の知見に基づき手作業で三次元画像に含まれる各部位に色を塗布しているが、対象者2のカルテなどを確認しながらユーザ1が手作業で三次元画像に含まれる各部位に色を塗布してもよい。また、一部の作業をソフトウェアで補うことも可能である。たとえば、カルテに基づいて塗布する色が自動で選択されるような構成であってもよい。 In the third embodiment, the user 1 manually applies colors to each part included in the three-dimensional image based on his/her own knowledge. A color may be applied to each part included in the three-dimensional image in the operation. It is also possible to supplement some of the work with software. For example, the configuration may be such that the color to be applied is automatically selected based on the chart.

識別装置100bは、このようにして生成された1または複数の学習用データセット116bを用いて病変推定モデル114bを学習させることで、学習済モデル115bを生成する。 The identification device 100b generates a trained model 115b by training the lesion estimation model 114b using one or more training data sets 116b generated in this way.

なお、図23の色分類データ118bに示した病変内容の分類は、一例である。たとえば、歯牙について、異常なし、初期のう歯、治療が必要なう歯の3つに分類する例を示したが、当該分類に対する、臨床現場で用いられる進行度を示すC0~C4という5段階の指標で分類してもよい。同様に、歯肉について、異常なし、歯周病ありの2つに分類する例を示したが、歯周病をさらに進行度を示す複数の段階に分類してもよい。具体的には、歯肉炎、軽度歯周炎、中度歯周炎、重度歯周炎に分類してもよい。 Note that the lesion content classification shown in the color classification data 118b of FIG. 23 is an example. For example, an example was shown in which teeth are classified into three categories: no abnormality, early caries, and caries requiring treatment. can be classified according to the index of Similarly, although the gingiva is classified into two categories, ie, no abnormality and periodontal disease, the periodontal disease may be further classified into a plurality of stages indicating the degree of progression. Specifically, it may be classified into gingivitis, mild periodontitis, moderate periodontitis, and severe periodontitis.

図24に示すように、識別装置100bは、学習済モデル115bを生成するために病変用の学習処理を実行する。病変用の学習処理は、利用する推定モデルが病変推定モデル114bであり、入力する学習用データが学習用データセット116bである点で実施形態1にかかる識別装置100が実行する加工種用の学習処理(図9参照)と異なる。 As shown in FIG. 24, the identification device 100b performs a lesion learning process to generate a trained model 115b. In the lesion learning process, the lesion estimation model 114b is used as the estimation model, and the input learning data is the learning data set 116b. It differs from the processing (see FIG. 9).

具体的には、識別装置100bは、学習用データセット116bの中から、学習に用いる学習用データを選択する(S1b)。識別装置100bは、選択した学習用データに含まれる三次元データの位置情報を病変推定モデル114bに入力する(S2b)。識別装置100bは、病変推定モデル114bを用いて三次元データの特徴を抽出し、三次元データに対応する部位が病変部位であるか否かを識別すると共に、病変部位である場合は病変内容を識別する識別処理を実行する(S3b)。 Specifically, the identification device 100b selects learning data to be used for learning from the learning data set 116b (S1b). The identification device 100b inputs the position information of the three-dimensional data included in the selected learning data to the lesion estimation model 114b (S2b). The identification device 100b uses the lesion estimation model 114b to extract features of the three-dimensional data, identifies whether or not the site corresponding to the three-dimensional data is a lesion site, and if so, identifies the content of the lesion. Identification processing for identification is executed (S3b).

識別装置100bは、識別処理による識別結果と、学習処理に用いた学習用データに対応する正解データとの誤差に基づき、病変推定モデル114bのパラメータ1144bを更新する(S4b)。 The identification device 100b updates the parameter 1144b of the lesion estimation model 114b based on the error between the identification result of the identification processing and the correct data corresponding to the learning data used in the learning processing (S4b).

次に、識別装置100bは、全ての学習用データに基づき学習したか否かを判定する(S5b)。識別装置100bは、全ての学習用データに基づき学習していない場合(S5bでNO)、S1bの処理に戻る。 Next, the identification device 100b determines whether or not it has learned based on all the learning data (S5b). If the identification device 100b has not learned based on all the learning data (NO in S5b), the identification device 100b returns to the process of S1b.

一方、識別装置100bは、全ての学習用データに基づき学習した場合(S5bでYES)、学習済みの病変推定モデル114bを学習済モデル115bとして記憶し(S6b)、本処理を終了する。 On the other hand, if the identification device 100b has learned based on all the learning data (YES in S5b), the identification device 100b stores the learned lesion estimation model 114b as the learned model 115b (S6b), and terminates this process.

[サービス提供処理]
図25は、実施形態3にかかる識別装置100bが実行するサービス提供処理の一例を説明するためのフローチャートである。実施形態3にかかる識別装置100bが実行するサービス提供処理は、S127がさらに実行される点で、図19に示した実施形態2にかかる識別装置100aが実行するサービス提供処理と異なる。以下、実施形態2にかかる識別装置100aが実行するサービス提供処理と異なる点を中心に説明する。
[Service provision processing]
FIG. 25 is a flowchart for explaining an example of service providing processing executed by the identification device 100b according to the third embodiment. The service providing process executed by the identification device 100b according to the third embodiment differs from the service providing process executed by the identification device 100a according to the second embodiment shown in FIG. 19 in that S127 is further executed. Differences from the service providing process executed by the identification device 100a according to the second embodiment will be mainly described below.

識別装置100bは、歯牙の種類を識別できなかった場合(S125においてNO)、三次元データを学習済の加工種推定モデル114(学習済モデル115)に入力し、当該学習済モデル115を用いて加工部位の種類を識別する識別処理を実行する(S126)。 If the identification device 100b fails to identify the type of tooth (NO in S125), the three-dimensional data is input to the learned processed species estimation model 114 (learned model 115), and the learned model 115 is used. An identification process for identifying the type of machined portion is executed (S126).

また、識別装置100bは、三次元データを学習済の病変推定モデル114b(学習済モデル115b)に入力し、当該学習済モデル115bを用いて病変内容を識別する識別処理を実行する(S127)。 Further, the identification device 100b inputs the three-dimensional data to the learned lesion estimation model 114b (learned model 115b), and executes identification processing for identifying lesion content using the learned model 115b (S127).

S125およびS127のあと、識別装置100bは、識別結果を、S11で入力された三次元データに関連付ける(S13)。たとえば、歯牙の種類が識別できず、入力された三次元データに対応する部位に対して、S126において加工部位の種類を識別できなかった一方、S127において病変の種類を識別できた場合、識別装置100bは、三次元データに含まれる位置情報に対して、識別結果124bを示す色情報(色A、色Bなどを示す色情報)を関連付ける。また、歯牙の種類が識別できず、入力された三次元データに対応する部位に対して、S126において加工部位の種類を識別でき、S127において病変の種類を識別できなかった場合、識別装置100bは、三次元データに含まれる位置情報に対して、識別結果124を示す色情報(色a、色bなどを示す色情報)を関連付ける。また、歯牙の種類が識別できず、入力された三次元データに対応する部位に対して、S126において加工部位の種類を識別でき、かつ、S127において病変の種類を識別できた場合、識別装置100bは、三次元データに含まれる位置情報に対して、識別結果124を示す色情報(色a、色bなどを示す色情報)および識別結果124bを示す色情報(色A、色Bなどを示す色情報)を関連付ける。 After S125 and S127, the identification device 100b associates the identification result with the three-dimensional data input in S11 (S13). For example, if the type of tooth cannot be identified and the type of the processed part could not be identified in S126 for the part corresponding to the input three-dimensional data, but the type of lesion could be identified in S127, the identification device 100b associates color information (color information indicating color A, color B, etc.) indicating the identification result 124b with the position information included in the three-dimensional data. In addition, if the type of tooth cannot be identified and the type of the processed region can be identified in S126 and the type of lesion cannot be identified in S127 for the region corresponding to the input three-dimensional data, the identification device 100b , position information included in the three-dimensional data is associated with color information indicating the identification result 124 (color information indicating color a, color b, etc.). In addition, if the type of tooth cannot be identified and the type of the processed region can be identified in S126 and the type of lesion can be identified in S127 for the region corresponding to the input three-dimensional data, the identification device 100b is color information indicating the identification result 124 (color information indicating color a, color b, etc.) and color information indicating the identification result 124b (color A, color B, etc.) for the position information included in the three-dimensional data. color information).

そして、識別装置100bは、関連付けの結果を外部(たとえば、ディスプレイ300)に出力する(S14)。具体的には、入力された三次元データに対応する点に対して、当該点に対応する部位に対する関連付けの結果がディスプレイ300に表示される。その後、識別装置100bは、本処理を終了する。たとえば、図11および図12に示した測定中の出力例のように、三次元データを取得したタイミングで、取得した三次元データに対する識別結果が順々にディスプレイ300に表示される。なお、三次元データに含まれる位置情報に対して、2つの識別結果(たとえば、加工部位の種類を示す識別結果124と、病変内容を示す識別結果124b)が関連付けられた場合には、2色で交互に点滅するような態様でディスプレイ300に表示されてもよい。 The identification device 100b then outputs the association result to the outside (for example, the display 300) (S14). Specifically, for points corresponding to the input three-dimensional data, display 300 displays the results of associating parts corresponding to the points. After that, the identification device 100b terminates this process. For example, as in the output examples during measurement shown in FIGS. 11 and 12, the identification results for the acquired three-dimensional data are sequentially displayed on the display 300 at the timing of acquiring the three-dimensional data. Note that when two identification results (for example, identification result 124 indicating the type of processed site and identification result 124b indicating lesion details) are associated with the position information included in the three-dimensional data, two colors are used. may be displayed on the display 300 in such a manner as to alternately blink at .

以上のように、実施形態3において、識別装置100bは、三次元データに対応する部位の歯牙の種類を識別したのち、歯牙の種類を識別できなかった場合には、当該部位に施された治療内容を識別する識別処理と当該部位の病変内容を識別する識別処理とを実行する。 As described above, in the third embodiment, the identification device 100b identifies the type of tooth in the region corresponding to the three-dimensional data, and then, if the type of tooth cannot be identified, determines whether the type of treatment applied to the region is identified. An identification process for identifying the content and an identification process for identifying the content of the lesion at the site are performed.

[カルテ生成処理]
図26は、実施形態3にかかる識別装置100bが実行するカルテ生成処理の一例を説明するためのフローチャートである。実施形態3にかかる識別装置100bが実行するカルテ生成処理は、S251~S254がさらに実行される点で、図20に示した実施形態2にかかる識別装置100aが実行するカルテ生成処理と異なる。以下、実施形態2にかかる識別装置100aが実行するカルテ生成処理と異なる点を中心に説明する。
[Cart generation process]
FIG. 26 is a flowchart for explaining an example of chart generation processing executed by the identification device 100b according to the third embodiment. The chart generation process executed by the identification device 100b according to the third embodiment differs from the chart generation process executed by the identification device 100a according to the second embodiment shown in FIG. 20 in that S251 to S254 are further executed. Differences from the chart generation process executed by the identification device 100a according to the second embodiment will be mainly described below.

識別装置100bは、すべての加工部位に対して歯牙の種類および治療内容を推定するまでS22~S25を繰り返し、すべての加工部位に対して歯牙の種類を推定したと判定すると(S21においてNO)、S251以降の処理を実行する。 The identification device 100b repeats S22 to S25 until the tooth type and treatment details have been estimated for all processed parts, and when it determines that the tooth type has been estimated for all processed parts (NO in S21), The processing after S251 is executed.

識別装置100bは、歯牙種の推定がされていない病変部位があるか否かを判定する(S251)。歯牙種の推定がされていない病変部位がないと判定した場合(S251においてNO)、すなわち、すべての病変部位に対してS251~S254の処理を実行して当該病変部位に対応する歯牙種の推定がされた場合、識別装置100bは、S26の処理を実行して、カルテ生成処理を終了する。 The identification device 100b determines whether or not there is a lesion site for which the tooth type has not been estimated (S251). If it is determined that there is no lesion site for which the tooth type has not been estimated (NO in S251), that is, the processes of S251 to S254 are executed for all lesion sites to estimate the tooth type corresponding to the lesion site. If yes, the identification device 100b executes the process of S26 and ends the medical record generation process.

歯牙種の推定がされていない病変部位があると判定した場合(S251においてYES)、識別装置100bは、病変部位の三次元データに基づき、当該病変部位に隣接する歯牙の種類を識別結果124aから取得する(S252)。 If it is determined that there is a lesion site for which the tooth type has not been estimated (YES in S251), the identification device 100b identifies the type of tooth adjacent to the lesion site from the identification result 124a based on the three-dimensional data of the lesion site. Acquire (S252).

識別装置100bは、取得した歯牙の種類から、病変部位に対応する歯牙の種類を推定する(S253)。識別装置100bは、当該病変部位の病変内容を識別結果124bから取得し、取得した病変内容と推定した歯牙の種類とを対応付けてカルテに反映する(S254)。 The identification device 100b estimates the type of tooth corresponding to the lesion site from the acquired type of tooth (S253). The identification device 100b acquires the lesion content of the lesion site from the identification result 124b, associates the acquired lesion content with the estimated tooth type, and reflects them in the chart (S254).

識別装置100bは、カルテに反映したのち、S251の処理を実行し、すべての病変部位に対して歯牙の種類を推定するまでS252~S254を繰り返したのち、カルテを出力する(S26)。たとえば、識別装置100aは、図22に示したカルテ150をディスプレイ300に表示したり、あるいは、カルテ150を印刷したりする。 The identification device 100b reflects the data in the medical chart, executes the process of S251, repeats S252 to S254 until the tooth types are estimated for all lesion sites, and then outputs the medical chart (S26). For example, identification device 100a displays chart 150 shown in FIG. 22 on display 300, or prints chart 150. FIG.

以上のように、実施形態3にかかる識別装置100bは、加工部位に加えて病変部位の識別も行う。そのため、識別装置100bは、より正確な識別処理を実行できるとともに、ユーザ1に多くの情報を提供できる。 As described above, the identification device 100b according to the third embodiment also identifies the lesion site in addition to the processed site. Therefore, the identification device 100b can perform more accurate identification processing and can provide the user 1 with a large amount of information.

たとえば、う蝕が進むことで形成された孔のように、病気が進行することで形状が大きく変化しているような場合、ユーザ1は、一見して病変部位を識別できる。しかし、初期のう歯、また、わずかに欠けている部位などは、一見しては分からないこともある。また、歯周病は、歯肉の腫れや垂れ下がりなどから診断される。そのため、歯周病の診断は、ユーザ1の知見によりばらつきが生じることもある。 For example, in the case where the shape of a hole is greatly changed as the disease progresses, such as a hole formed by progressing caries, the user 1 can identify the lesion site at a glance. However, early caries and slightly missing parts may not be apparent at first glance. Also, periodontal disease is diagnosed from swollen and drooping gums. Therefore, the diagnosis of periodontal disease may vary depending on the knowledge of the user 1 .

そこで、AIを利用することで、診断のばらつきを減らすことができるとともに、一見しては分からない病変部位についても、病変部位の特徴を見出すことができる。 Therefore, by using AI, it is possible to reduce the variability in diagnosis and to find out the characteristics of the lesion site even if it is not apparent at first glance.

また、ユーザ1は、う蝕の形状を三次元で確認できるため、口腔内を観察する場合に比べて、切削範囲の検討、治療方法の検討などを行いやすい。また、識別装置100bは、病変内容と病変部位とを識別することで、う蝕の形状を推定できる。そのため、識別装置100bは、う蝕の形状に基づいて切削範囲を自動で設定し、設定した切削範囲を表示した口腔内(歯牙)の三次元データ上に表してディスプレイ300に表示することができる。また、識別装置100bは、病変内容と病変部位とを識別することで、治療方法を自動で提案できる。 In addition, since the user 1 can confirm the shape of the caries three-dimensionally, it is easier for the user 1 to examine the cutting range, the treatment method, and the like than when observing the inside of the oral cavity. Further, the identification device 100b can estimate the shape of the caries by identifying the content of the lesion and the lesion site. Therefore, the identification device 100b can automatically set the cutting range based on the caries shape, express the set cutting range on the displayed three-dimensional data of the oral cavity (tooth), and display it on the display 300. . Further, the identification device 100b can automatically propose a treatment method by identifying the content of the lesion and the lesion site.

また、識別装置100bが歯石またはプラークなどを識別してディスプレイ300に表示すると、ユーザ1は、対象者2に対して対象者2の歯の状態を三次元的に分かり易く説明することができ、歯の磨き方の指導などを容易に行うことができる。 In addition, when the identification device 100b identifies tartar or plaque and displays it on the display 300, the user 1 can explain to the subject 2 the condition of the teeth of the subject 2 three-dimensionally in an easy-to-understand manner. Instruction on how to brush teeth can be easily performed.

また、ユーザ1は、ディスプレイ300に表示された口腔内の三次元画像を確認することで、歯肉と歯牙との隙間の距離を三次元的に認識できるため、歯周病の進行度合いを診断しやすい。また、歯周病の進行度合いは、識別装置100bによって、歯肉と歯牙との距離などに基づいて推定されてもよい。そして、識別装置100bは、推定した歯周病の進行度合いをディスプレイ300に表示してもよい。 Further, by checking the three-dimensional image of the oral cavity displayed on the display 300, the user 1 can three-dimensionally recognize the distance of the gap between the gum and the tooth, thereby diagnosing the progress of periodontal disease. Cheap. Further, the degree of progression of periodontal disease may be estimated by the identification device 100b based on the distance between the gingiva and the tooth. Then, the identification device 100b may display the estimated degree of progression of periodontal disease on the display 300 .

また、歯周病の初期症状として、歯肉の腫れがある。歯肉の腫れは、ユーザ1が見逃し易い症状である。そこで、識別装置100bが歯肉の形状の特徴(腫れ)に基づいて歯周病の初期症状が現れている部位を識別することで、歯周病の早期発見が実現される。 Further, as an early symptom of periodontal disease, there is swelling of the gums. Swollen gums are a symptom that the user 1 tends to overlook. Therefore, early detection of periodontal disease is realized by the identification device 100b identifying the site where the initial symptoms of periodontal disease appear based on the shape characteristics (swelling) of the gingiva.

上記カルテ生成処理において、識別装置100bは、加工部位および病変部位ごとに歯牙の種類を推定した。なお、識別装置100bは、三次元データ122ごとに歯牙の種類を推定してもよい。実施形態3において、一の三次元データに対して、当該三次元データに対応する部位が加工部位であり、かつ病変部位であると識別されることもある。そのような場合に、加工部位および病変部位ごとに歯牙の種類を推定すると、処理が重複してしまうことになる。そこで、識別装置100bは、歯牙の種類を識別できなかった三次元データ122について、隣接する歯牙の種類を識別できた三次元データ122に基づいて、歯牙の種類を推定してもよい。 In the chart generation process, the identification device 100b estimates the type of tooth for each processed site and lesion site. Note that the identification device 100 b may estimate the type of tooth for each three-dimensional data 122 . In the third embodiment, for one piece of three-dimensional data, a part corresponding to the three-dimensional data may be identified as both a processed part and a lesion part. In such a case, estimating the tooth type for each processed site and diseased site results in duplication of processing. Therefore, the identification device 100b may estimate the type of tooth based on the three-dimensional data 122 in which the type of adjacent tooth can be identified for the three-dimensional data 122 in which the type of tooth cannot be identified.

[変形例]
<識別処理の変形例>
実施形態1にかかる識別装置100は、三次元データに対応する部位が加工部位であるか否かを識別すると共に、加工部位である場合は加工部位の種類を識別した。なお、識別装置100は、実施形態2および実施形態3のように、治療内容をさらに推定してもよい。また、識別装置100は、実施形態2および実施形態3のように、歯牙の種類を識別する識別処理を実行して、歯牙の種類に基づいて加工部位に対応する歯牙の種類を推定してもよい。
[Modification]
<Modified example of identification processing>
The identification device 100 according to the first embodiment identifies whether or not a portion corresponding to three-dimensional data is a processed portion, and if it is a processed portion, identifies the type of the processed portion. Note that the identification device 100 may further estimate the treatment content as in the second and third embodiments. Further, the identification device 100 may perform identification processing for identifying the type of tooth as in Embodiments 2 and 3, and estimate the type of tooth corresponding to the machining site based on the type of tooth. good.

実施形態2にかかる識別装置100aは、歯牙の種類を識別する識別処理を実行して、歯牙の種類を識別できなかった場合に、三次元データに対応する部位を加工部位であると識別して、加工部位の種類を識別する識別処理を実行した。 The identification device 100a according to the second embodiment executes identification processing for identifying the type of tooth, and if the type of tooth cannot be identified, identifies the site corresponding to the three-dimensional data as a processed site. , an identification process was performed to identify the type of machined portion.

なお、識別装置100aは、加工部位の種類を識別する識別処理を実行したのち、加工部位ではないと識別した場合に歯牙の種類を識別する識別処理を実行してもよい。 Note that the identification device 100a may execute identification processing for identifying the type of the processed region, and then execute identification processing for identifying the type of the tooth if the region is identified as not being processed.

また、識別装置100aは、得られた各三次元データに対して、歯牙の種類を識別する識別処理および加工部位を識別する識別処理の両方の処理を実行して、2つの識別結果を得るようにしてもよい。この場合に、歯牙種推定部1154は、歯牙種を識別することができなかった部位に対応する歯牙の種類を隣接する歯牙の種類に基づいて推定するようにしてもよい。識別結果を得るための各処理を実行する順番は、予め定められていればよく、歯牙種に関する識別結果124aからでも、加工部位に関する識別結果124からでもどちらでもよい。また、識別結果を得るための各処理をタスク制御で実行してもよい。 In addition, the identification device 100a performs both identification processing for identifying the tooth type and identification processing for identifying the machined portion on each of the obtained three-dimensional data, so as to obtain two identification results. can be In this case, the tooth type estimating section 1154 may estimate the type of tooth corresponding to the portion whose tooth type could not be identified based on the type of adjacent tooth. The order of execution of each process for obtaining the identification result may be determined in advance, and may be either from the identification result 124a regarding the tooth type or from the identification result 124 regarding the machined part. Also, each process for obtaining the identification result may be executed under task control.

実施形態3にかかる識別装置100bは、歯牙の種類を識別する識別処理を実行して、歯牙の種類を識別できなかった場合に、加工部位の種類を識別する識別処理および病変内容を識別する識別処理を実行した。なお、識別装置100bは、歯牙の種類を識別する識別処理、治療内容を識別する識別処理および病変内容を識別する識別処理のそれぞれを実行して、3つの識別結果を得てもよい。 The identification apparatus 100b according to the third embodiment executes identification processing for identifying the type of tooth, and if the type of tooth cannot be identified, identification processing for identifying the type of processed portion and identification for identifying lesion content. processed. Note that the identification device 100b may perform identification processing for identifying the type of tooth, identification processing for identifying treatment content, and identification processing for identifying lesion content, and obtain three identification results.

また、識別装置100bは、加工部位の種類を識別することができず、かつ、病変内容を識別できなかった場合に、歯牙の種類を識別する識別処理を実行してもよい。 Further, the identification device 100b may perform identification processing for identifying the type of tooth when the type of the processed region cannot be identified and the contents of the lesion cannot be identified.

一の三次元データに対して複数の識別結果を得る場合に、識別結果を得るための各処理を実行する順番は、予め定められていればよく、どのような順番で実行されてもよいし、タスク制御で実行してもよい。 When obtaining a plurality of identification results for one piece of three-dimensional data, the order of executing each process for obtaining the identification results may be determined in advance, and may be executed in any order. , may be executed under task control.

また、実施形態2において、識別装置100aは、加工種推定モデル114で加工部位の種類を識別したのち、加工部位の種類に基づいて治療内容を推定した。なお、識別装置100aは、1つの推定モデルを用いて、加工部位の種類および治療内容を推定してもよい。また、識別装置100aは、2つの推定モデルを有するとしたが、1つの推定モデルを用いて、歯牙の種類および加工部位の種類(または治療内容)を識別する構成であってもよい。同様に、実施形態3にかかる識別装置100bは、3つの推定モデルを用いて、3種類の事項を識別したが、1つまたは2つの推定モデルを用いて3種類の事項を識別してもよい。 Further, in the second embodiment, the identification device 100a identifies the type of the processed part using the processed type estimation model 114, and then estimates the treatment details based on the type of the processed part. Note that the identification device 100a may use one estimation model to estimate the type of the processed region and the content of treatment. In addition, although the identification device 100a has two estimation models, it may be configured to identify the type of tooth and the type of processed site (or treatment content) using one estimation model. Similarly, the identification device 100b according to the third embodiment uses three estimation models to identify three types of items, but one or two estimation models may be used to identify three types of items. .

また、実施形態1~実施形態3において、識別装置100bは、加工部位と加工部位に施された治療内容を識別するとした。なお、これらに加えて、加工部位に用いられた部品の材質、または、インプラントメーカーの品番を識別するための構成を備えていてもよい。 Further, in Embodiments 1 to 3, the identification device 100b identifies the processed site and the content of treatment given to the processed site. In addition to these, a configuration for identifying the material of the part used for the processed site or the product number of the implant manufacturer may be provided.

<学習用データセットの変形例>
上記実施形態1~実施形態3のいずれにおいても、三次元データに含まれる位置情報に基づいて識別処理が行われた。なお、位置情報に加えてさらに色情報を用いて識別処理が行われてもよい。図27は、変形例にかかる学習用データセットの一例を説明するための模式図である。位置情報に加えて色情報を学習済モデルに入力して識別結果を得る場合、図27に示すように、学習用データにも色情報を含めて学習処理が実行される。学習処理においては、推定モデルに対して位置情報に加えて色分け前の色情報が入力されることで、各部位の実際の色も考慮された上で学習済モデルが生成される。
<Modified example of training data set>
In any one of the first to third embodiments, identification processing is performed based on the position information included in the three-dimensional data. The identification process may be performed using color information in addition to position information. FIG. 27 is a schematic diagram for explaining an example of a learning data set according to the modification; When color information is input to a learned model in addition to position information to obtain a classification result, the learning process is executed with the color information included in the learning data as shown in FIG. 27 . In the learning process, color information before color-coding is input to the estimated model in addition to position information, so that a learned model is generated after considering the actual color of each part.

補綴物は、通常、審美性および機能性の観点から、天然歯と遜色のない形状で歯牙に取り付けられる。そのため、形状の特徴が現れる位置情報だけでは、入力された三次元データに対応する部位が補綴物に対応する部位であるか否かを十分に識別することが難しい場合もある。推定モデルによって、形状に関する特徴に加えて色の特徴を抽出できることで、より精度良く加工部位を識別できる。 A prosthesis is usually attached to a tooth in a shape comparable to that of a natural tooth from the viewpoint of esthetics and functionality. Therefore, it may be difficult to sufficiently identify whether or not the site corresponding to the input three-dimensional data is a site corresponding to the prosthesis only with the positional information where the shape features appear. By using the estimation model, it is possible to extract color features in addition to shape features, so that the machined part can be identified with higher accuracy.

また、歯周病の初期症状として、歯肉の腫れや、歯肉の色の変化がある。推定モデルによって、形状に関する特徴に加えて色の特徴を抽出できるため、より正確に歯周病の識別を行うことができる。また、う蝕の初期症状として、歯牙できる白い斑点(ホワイトスポット)がある。推定モデルによって、形状に関する特徴に加えて色の特徴を抽出できることで、より精度良くう蝕を識別できる。 In addition, early symptoms of periodontal disease include swollen gums and changes in the color of the gums. Since the estimation model can extract color features in addition to shape features, periodontal disease can be identified more accurately. Also, as an early symptom of dental caries, there are white spots that form on the teeth (white spots). By using the estimation model, it is possible to extract color features in addition to shape features, so that caries can be identified with higher accuracy.

上記実施形態1~実施形態3のいずれにおいても、対象者2の口腔内をスキャンすることで学習用データセットを生成した。なお、加工部位を識別するために利用される学習用データセットは、加工に用いる部品をスキャンすることで生成されてもよい。 In any of Embodiments 1 to 3, the learning data set was generated by scanning the oral cavity of the subject 2 . Note that the learning data set used to identify the machined part may be generated by scanning the part used for machining.

図28は、変形例にかかる学習用データセットを説明するための図である。たとえば、学習用データセットは、治療をする際に用いる部品をスキャンして得られる三次元データを用いて生成されてもよい。たとえば、学習用データセットは、インプラント治療をするために利用されるインプラント体をスキャンして得られる三次元データを集め、集めた三次元データから生成されてもよい。また、学習用データセットは、支台歯をスキャンして得られた三次元データを集め、集めた三次元データから生成されてもよい。識別装置は、治療をする際に用いる部品ごとに生成した各学習用データセットを推定モデルに入力することで学習済モデルを生成してもよい。 FIG. 28 is a diagram for explaining a learning data set according to the modification; For example, the learning data set may be generated using three-dimensional data obtained by scanning parts used for treatment. For example, the learning data set may be generated from the collected three-dimensional data by collecting three-dimensional data obtained by scanning an implant body used for implant treatment. Also, the learning data set may be generated by collecting three-dimensional data obtained by scanning the abutment tooth and generating the collected three-dimensional data. The identification device may generate a learned model by inputting each learning data set generated for each part used in treatment into an estimation model.

<カルテ生成部の変形例>
上記実施形態2および実施形態3において、カルテ生成部1156は、歯牙種推定部1154が推定した歯牙種と、治療推定部1152が識別結果124に基づいて推定した治療内容、または病変内容を示す識別結果124bとに基づいてカルテ150を生成した。なお、カルテ生成部1156は、カルテ150という最終成果物を生成する必要はなく、たとえば、ユーザ1によるカルテの入力をアシストする機能を提供するものであってもよい。具体的には、加工部位または病変部位であると識別した部位を示す情報(たとえば、歯牙種)を出力し、ユーザ1にカルテ150の入力を促すようにしてもよい。
<Modified example of the medical chart generator>
In Embodiments 2 and 3 above, the medical chart generation unit 1156 includes a tooth type estimated by the tooth type estimation unit 1154, and an identification data indicating treatment content or lesion content estimated by the treatment estimation unit 1152 based on the identification result 124. A chart 150 was generated based on the results 124b. Note that the chart generation unit 1156 does not need to generate the final product of the chart 150, and may provide a function of assisting the input of the chart by the user 1, for example. Specifically, information (for example, tooth type) indicating a site identified as a processed site or a diseased site may be output to prompt user 1 to enter chart 150 .

<サービス提供処理の変形例>
実施形態1~実施形態3にかかる識別装置は、図10,図19,図25に示すように、サービス提供処理において学習処理を実行するものではない。しかし、図29に示すように、識別装置は、サービス提供処理において学習処理を実行するものであってもよい。識別装置は、所謂、協調学習(Federated Learning)を行うものであってもよい。
<Modified example of service provision processing>
As shown in FIGS. 10, 19, and 25, the identification devices according to Embodiments 1 to 3 do not perform learning processing in service providing processing. However, as shown in FIG. 29, the identification device may perform the learning process in the service providing process. The identification device may perform so-called Federated Learning.

図29は、変形例に係る識別装置100cが実行するサービス提供処理の一例を説明するためのフローチャートである。図29に示すS11~S14の処理は、図10に示すS11~S14の処理と同じであるため、図29においては、S11~S14の処理についての詳細な説明を省略する。なお、以下では、実施形態1にかかる識別装置100がサービス提供処理において学習処理を実行するものとして説明する。 FIG. 29 is a flowchart for explaining an example of service providing processing executed by the identification device 100c according to the modification. Since the processing of S11 to S14 shown in FIG. 29 is the same as the processing of S11 to S14 shown in FIG. 10, detailed description of the processing of S11 to S14 is omitted in FIG. In the following description, it is assumed that the identification device 100 according to the first embodiment executes learning processing in service providing processing.

図29に示すように、識別装置100cは、S11~S14の処理によって、入力された三次元データに対応する点に対して、当該点に対応する部位の状態(加工されているか否か、加工内容)を示す識別結果に基づく当該点に対する関連付けの結果を出力した後、サービス提供時学習処理を実行する。具体的には、識別装置100cは、S14の後、誤り訂正のための正解データが入力されたか否かを判定する(S15)。たとえば、識別装置100cは、S12によって得られた識別結果(加工されているか否か、加工内容)が、実際にスキャン対象であった部位からユーザ1が判断する判断結果と異なる場合において、実際にスキャン対象であった部位に対するユーザ1の判断結果である正解データをユーザ1が入力することで誤りを訂正したか否かを判定する。 As shown in FIG. 29, the identification device 100c performs the processing of S11 to S14 to determine the state of the part corresponding to the point corresponding to the input three-dimensional data (whether it has been processed, whether it has been After outputting the result of association with the point based on the identification result indicating the content), the learning process at the time of service provision is executed. Specifically, after S14, the identification device 100c determines whether correct data for error correction has been input (S15). For example, when the identification result obtained in S12 (whether or not it has been processed, details of processing) is different from the determination result determined by the user 1 based on the part that was actually scanned, the identification device 100c actually It is determined whether or not the error has been corrected by the user 1 inputting correct data, which is the determination result of the user 1 for the part to be scanned.

識別装置100cは、誤り訂正のための正解データが入力されなかった場合(S15でNO)、本処理を終了する。一方、識別装置100cは、誤り訂正のための正解データが入力された場合(S15でYES)、識別結果と正解データとに基づき報酬を付与する(S16)。 If the correct data for error correction is not input (NO in S15), the identification device 100c ends this process. On the other hand, when the correct data for error correction is input (YES in S15), the identification device 100c gives a reward based on the identification result and the correct data (S16).

たとえば、識別結果と正解データとの解離度が小さければ小さいほど、付与する報酬として値の小さいマイナスポイントを与え、両者の解離度が大きければ大きいほど、付与する報酬として値の大きいマイナスポイントを与えればよい。なお、報酬はマイナスポイントに限らず、プラスポイントであってもよい。 For example, the smaller the degree of dissociation between the identification result and the correct answer data, the smaller the negative points given as a reward, and the greater the degree of dissociation between the two, the larger the negative points given as a reward. Just do it. Note that the reward is not limited to minus points, and may be plus points.

報酬を与える方法は、任意に設計可能である。たとえば、識別装置100cは、識別結果と正解データとの組み合わせとして考えられる複数種類の組み合わせの各々に対して予め設定された報酬の大きさに基づいて、報酬を与えてもよい。また、識別装置100cは、予め定められたルールに従って報酬を与えてもよい。具体的には、識別装置100cは、識別結果と正解データとで小分類は異なるものの大分類(表1参照)が共通していれば解離度が小さく、値の小さいマイナスポイントを与えてもよい。一方、識別装置100cは、識別結果と正解データとで小分類および大分類の両方が異なれば解離度が大きく、値の大きなマイナスポイントを与えてもよい。また、識別装置100cは、このようなルールに従った報酬の付与方法と、複数種類の組み合わせの各々に対して予め報酬を設定しておく付与方法とを組み合わせた方法で、報酬を与えても良い。 The method of rewarding can be designed arbitrarily. For example, the identification device 100c may give a reward based on a preset reward size for each of a plurality of possible combinations of identification results and correct data. Also, the identification device 100c may reward according to a predetermined rule. Specifically, the identification device 100c may give negative points with a small degree of dissociation and a small value if the identification result and the correct data are in different minor categories but share the same major category (see Table 1). . On the other hand, if the identification result and the correct data are different in both the small classification and the large classification, the identification device 100c may give a large negative point with a large degree of dissociation. Further, the identification device 100c may give a reward by a method combining a reward giving method according to such a rule and a giving method in which a reward is set in advance for each of a plurality of types of combinations. good.

識別装置100cは、付与した報酬に基づき、学習済モデル115のパラメータ1144を更新する(S17)。たとえば、識別装置100cは、報酬として付与したマイナスポイントが0に近づくように学習済モデル115のパラメータ1144を更新する。その後、識別装置100cは、本処理を終了する。 The identification device 100c updates the parameter 1144 of the trained model 115 based on the given reward (S17). For example, the identification device 100c updates the parameter 1144 of the trained model 115 so that the negative points given as rewards approach zero. After that, the identification device 100c ends this process.

なお、加工部位の種類だけを識別するサービス提供処理中に実行される学習処理について説明したが、識別装置は、実施形態2および実施形態3に示した複数の事項(加工部位の種類と歯牙の種類、加工部位の種類と歯牙の種類と病変内容)を識別するサービス提供処理中であっても学習処理を実行可能である。 Although the learning process executed during the service providing process for identifying only the type of machined part has been described, the identification device is capable of handling the plurality of items shown in the second and third embodiments (the type of machined part and tooth type). The learning process can be executed even during the service providing process for identifying the type, type of machined part, type of tooth, and content of lesion).

たとえば、加工部位の種類と歯牙の種類とを識別するサービス提供処理において、歯牙の種類が識別された識別結果に対して別の歯牙の種類の正解データが入力された場合、識別装置は、歯牙の種類を示す識別結果124aと正解データとに基づいて歯牙種推定モデル114aのパラメータ1144aを更新する。この場合、一例として、識別装置は、識別結果124aとして出力した歯牙と、正解データとして入力された歯牙とが隣接していれば、値の小さいマイナスポイントを与え、両者が離れていれば、値の大きいマイナスポイントを与える。 For example, in the service providing process for identifying the type of machined part and the type of tooth, when correct data for another tooth type is input in response to the identification result in which the type of tooth is identified, the identification device The parameter 1144a of the tooth type estimation model 114a is updated based on the identification result 124a indicating the type of teeth and the correct answer data. In this case, as an example, if the tooth output as the identification result 124a and the tooth input as the correct answer data are adjacent to each other, the identification device gives a small minus point, and if the two are separated, a value give a big minus point.

他の例として、加工部位の種類と歯牙の種類と病変内容とを識別するサービス提供処理において、識別された病変内容に対して別の病変内容の正解データが入力された場合、識別装置は、病変内容を示す識別結果124bと正解データとに基づいて病変推定モデル114bのパラメータ1144bを更新する。この場合、一例として、識別装置は、炎症の度合い(う蝕の進行度合い、または歯肉炎の進行度合い)が近ければ値の小さいマイナスポイントを与え、炎症の度合いが遠ければ値の大きいマイナスポイントを与える。 As another example, in the service providing process for identifying the type of processed part, the type of tooth, and the content of the lesion, when correct data of different content of the lesion is input with respect to the content of the identified lesion, the identification device: The parameter 1144b of the lesion estimation model 114b is updated based on the identification result 124b indicating the content of the lesion and the correct data. In this case, for example, if the degree of inflammation (degree of caries progression or progression of gingivitis) is close, the identification device gives a small minus point, and if the degree of inflammation is far, a large minus point. give.

また、複数の推定モデルを備える識別装置は、識別結果と正解データとの組み合わせに応じて再学習させる推定モデルを選択してもよい。たとえば、識別結果と正解データとがいずれも歯牙種に関する事項であれば、識別装置は、歯牙種推定モデル114aのパラメータ1144aを更新する処理を実行する。識別結果と正解データとがいずれも加工内容に関する事項であれば、識別装置は、加工種推定モデル114のパラメータ1144を更新する処理を実行する。識別結果と正解データとがいずれも病変内容に関する事項であれば、識別装置は、病変推定モデル114bのパラメータ1144bを更新する処理を実行する。また、識別装置は、加工種推定モデル114のパラメータ1144と、歯牙種推定モデル114aのパラメータ1144aと、病変推定モデル114bのパラメータ1144bとの中から複数のパラメータを更新してもよい。 Further, an identification device having a plurality of estimation models may select an estimation model to be re-learned according to a combination of identification results and correct data. For example, if both the identification result and the correct data relate to the tooth type, the identification device executes processing to update the parameter 1144a of the tooth type estimation model 114a. If both the identification result and the correct data are related to the content of processing, the identification device executes processing to update the parameters 1144 of the processing type estimation model 114 . If both the identification result and the correct data are matters related to lesion content, the identification device executes processing to update the parameter 1144b of the lesion estimation model 114b. Further, the identification device may update a plurality of parameters out of the parameter 1144 of the processed species estimation model 114, the parameter 1144a of the tooth species estimation model 114a, and the parameter 1144b of the lesion estimation model 114b.

このように、変形例に係る識別装置は、サービス提供処理においても学習処理を実行するため、ユーザ1が使用すればするほど識別処理の精度が向上し、より精度良く加工部位の種類、歯牙の種類、または病変内容を識別することができる。このような処理は、所謂、協調学習の一種である。 In this way, the identification device according to the modification executes learning processing even in the service providing processing. The type, or lesion content, can be identified. Such processing is a kind of so-called collaborative learning.

今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は上記した説明ではなく特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。なお、本実施の形態で例示された構成および変形例で例示された構成は、適宜組み合わせることができる。 It should be considered that the embodiments disclosed this time are illustrative in all respects and not restrictive. The scope of the present disclosure is indicated by the scope of claims rather than the above description, and is intended to include all modifications within the meaning and scope of equivalents of the scope of claims. Note that the configurations exemplified in this embodiment and the configurations exemplified in the modifications can be combined as appropriate.

1 ユーザ、2 対象者、10,10a,10b スキャナシステム、100,100a,100b,100c 識別装置、102 スキャナインターフェース、103 ディスプレイインターフェース、105 周辺機器インターフェース、107 メディア読取装置、108 PCディスプレイ、109 メモリ、110 ストレージ、112 スキャン情報、114 加工種推定モデル、114a 歯牙種推定モデル、114b 病変推定モデル、115,115a,115b 学習済モデル、116,116a,116b 学習用データセット、118,118a,118b 色分類データ、119 プロファイルデータ、120 識別用プログラム、121 学習用プログラム、122 三次元データ、124,124a,124b 識別結果、130 演算装置、150 カルテ、152 プロファイル表示領域、154 歯牙種表示領域、156 コメント表示領域、158 歯式表示領域、200 三次元スキャナ、300 ディスプレイ、550 リムーバブルディスク、601 キーボード、602 マウス、1102 入力部、1103 出力部、1132 加工種識別部、1134 歯牙種識別部、1136 病変識別部、1142 第1NNW、1142a 第2NNW、1142b 第3NNW、1144,1144a,1144b パラメータ、1152 治療推定部、1154 歯牙種推定部、1156 カルテ生成部。 1 user, 2 subject, 10, 10a, 10b scanner system, 100, 100a, 100b, 100c identification device, 102 scanner interface, 103 display interface, 105 peripheral device interface, 107 media reader, 108 PC display, 109 memory, 110 storage, 112 scan information, 114 processed species estimation model, 114a tooth species estimation model, 114b lesion estimation model, 115, 115a, 115b learned model, 116, 116a, 116b learning data set, 118, 118a, 118b color classification data, 119 profile data, 120 identification program, 121 learning program, 122 three-dimensional data, 124, 124a, 124b identification result, 130 arithmetic device, 150 chart, 152 profile display area, 154 tooth type display area, 156 comment display Area 158 Dental formula display area 200 Three-dimensional scanner 300 Display 550 Removable disk 601 Keyboard 602 Mouse 1102 Input unit 1103 Output unit 1132 Processing type identification unit 1134 Tooth type identification unit 1136 Lesion identification unit , 1142 first NNW, 1142a second NNW, 1142b third NNW, 1144, 1144a, 1144b parameters, 1152 treatment estimation unit, 1154 tooth type estimation unit, 1156 chart generation unit.

Claims (10)

口腔内の生体部位に対する加工部位を識別する識別装置であって、
口腔内の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力される入力部と、
前記入力部から入力された三次元データと、当該三次元データに基づき加工部位を推定するためのニューラルネットワークを含む推定モデルとに基づき、当該加工部位を識別する識別部と、
前記識別部による識別結果を出力する出力部とを備え
前記識別部は、前記推定モデルに含まれる前記ニューラルネットワークに、前記三次元データのうち少なくとも前記三次元の位置情報を直接入力する、識別装置。
An identification device for identifying a processed part with respect to a living body part in the oral cavity,
an input unit for inputting three -dimensional data including three-dimensional position information at each of a plurality of points representing a three-dimensional shape of the oral cavity;
an identification unit that identifies the machined portion based on the three-dimensional data input from the input unit and an estimation model including a neural network for estimating the machined portion based on the three-dimensional data;
An output unit that outputs the identification result by the identification unit ,
The identification device, wherein the identification unit directly inputs at least the three-dimensional position information of the three-dimensional data to the neural network included in the estimation model.
三次元データは、口腔内の三次元形状を示す複数の点のそれぞれにおける色情報を含む、請求項1に記載の識別装置。 The identification device according to claim 1, wherein the three-dimensional data includes color information at each of a plurality of points representing a three-dimensional shape in the oral cavity. 前記ニューラルネットワークは、前記入力部から入力された三次元データに基づき加工部位を推定するとともに、当該三次元データに対応する部位の歯牙の種類を推定するためのニューラルネットワークであり、
前記識別部は、前記推定モデルに含まれる前記ニューラルネットワークに、加工部位に対応する歯牙の周辺の歯牙の三次元データのうち少なくとも前記三次元の位置情報を直接入力して、当該周辺の歯牙の種類を識別し、
前記識別部が識別した前記周辺の歯牙の種類に基づき、前記加工部位に対応する歯牙の種類を推定する歯牙種推定部をさらに備える、請求項1または請求項2に記載の識別装置。
The neural network is a neural network for estimating the processed part based on the three-dimensional data input from the input unit and estimating the type of tooth of the part corresponding to the three-dimensional data,
The identification unit directly inputs at least the three-dimensional positional information of the three-dimensional data of the teeth around the tooth corresponding to the machining site into the neural network included in the estimation model , and identify the type of
3. The identifying device according to claim 1, further comprising a tooth type estimating section that estimates the type of tooth corresponding to the machining site based on the type of the peripheral tooth identified by the identifying section.
前記出力部は、前記識別部が識別した加工部位を、前記歯牙種推定部が推定した当該加工部位に対応する歯牙の種類に対応付けて出力する、請求項3に記載の識別装置。 4. The identifying device according to claim 3, wherein the output unit outputs the machined part identified by the identifying part in association with the tooth type corresponding to the machined part estimated by the tooth type estimating part. 前記識別部が識別した前記加工部位に基づいて、当該加工部位に施された治療内容を推定する治療推定部をさらに備える、請求項1~請求項4のうちいずれか1項に記載の識別装置。 The identification device according to any one of claims 1 to 4, further comprising a treatment estimating unit that estimates, based on the processed portion identified by the identifying unit, details of treatment given to the processed portion. . 前記ニューラルネットワークは、前記入力部から入力された三次元データに基づき加工部位を推定するとともに、当該三次元データに対応する部位の歯牙の種類を推定するためのニューラルネットワークであり、
前記識別部は、前記推定モデルに含まれる前記ニューラルネットワークに、加工部位に対応する歯牙の周辺の歯牙の三次元データのうち少なくとも前記三次元の位置情報を直接入力して、当該周辺の歯牙の種類を識別し、
前記識別部が識別した前記加工部位に基づいて、当該加工部位に施された治療内容を推定する治療推定部と、
前記識別部が識別した前記周辺の歯牙の種類に基づき、前記加工部位に対応する歯牙の種類を推定する歯牙種推定部とをさらに備え、
前記出力部は、前記識別部が識別した加工部位を、前記治療推定部が推定した当該加工部位に施された治療内容と、前記歯牙種推定部が推定した当該加工部位に対応する歯牙の種類とに対応付けて出力する、請求項1または請求項2に記載の識別装置。
The neural network is a neural network for estimating the processed part based on the three-dimensional data input from the input unit and estimating the type of tooth of the part corresponding to the three-dimensional data,
The identification unit directly inputs at least the three-dimensional positional information of the three-dimensional data of the teeth around the tooth corresponding to the machining site into the neural network included in the estimation model , and identify the type of
a treatment estimating unit for estimating, based on the processed part identified by the identifying unit, details of treatment given to the processed part;
a tooth type estimating unit for estimating the type of tooth corresponding to the processed portion based on the type of the peripheral tooth identified by the identifying unit;
The output unit converts the processed region identified by the identifying unit to the details of the treatment performed on the processed region estimated by the treatment estimation unit, and the type of tooth corresponding to the processed region estimated by the tooth type estimation unit. 3. The identification device according to claim 1 or 2, which outputs in association with and.
前記推定モデルは、
前記入力部から入力された三次元データに基づき加工部位を推定するための第1ニューラルネットワークを含む第1推定モデルと、
前記入力部から入力された三次元データに基づき当該三次元データに対応する部位の歯牙の種類を推定するための第2ニューラルネットワークを含む第2推定モデルとを含み、
前記識別部は、前記入力部から入力された三次元データのうち少なくとも前記三次元の位置情報を前記第2ニューラルネットワークに直接入力し、入力された当該三次元データに対応する部位の歯牙の種類を推定できなかった場合に、前記入力部から入力された三次元データのうち少なくとも前記三次元の位置情報を前記第1ニューラルネットワークに直接入力して加工部位を識別する、請求項1~請求項6のうちいずれか1項に記載の識別装置。
The estimation model is
a first estimation model including a first neural network for estimating a machined part based on the three-dimensional data input from the input unit;
a second estimation model including a second neural network for estimating the type of tooth of the part corresponding to the three-dimensional data based on the three-dimensional data input from the input unit;
The identification unit directly inputs at least the three-dimensional positional information of the three-dimensional data input from the input unit into the second neural network , and determines the type of tooth of the site corresponding to the input three-dimensional data. is not estimated, at least the three-dimensional positional information among the three-dimensional data input from the input unit is directly input to the first neural network to identify the processed part. 7. Identification device according to any one of 6.
口腔内の形状情報を取得するスキャナシステムであって、
三次元カメラを用いて口腔内の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報を含む三次元データを取得する三次元スキャナと、
前記三次元スキャナによって取得された三次元データに基づき、口腔内の生体部位に対する加工部位を識別する識別装置とを備え、
前記識別装置は、
前記三次元スキャナによって取得された三次元データが入力される入力部と、
前記入力部から入力された三次元データと、当該三次元データに基づき加工部位を推定するためのニューラルネットワークを含む推定モデルとに基づき、当該加工部位を識別する識別部と、
前記識別部による識別結果を出力する出力部とを含み、
前記識別部は、前記推定モデルに含まれる前記ニューラルネットワークに、前記三次元データのうち少なくとも前記三次元の位置情報を直接入力する、スキャナシステム。
A scanner system for acquiring intraoral shape information,
A three-dimensional scanner that acquires three-dimensional data including three-dimensional positional information at each of a plurality of points representing the three-dimensional shape of the oral cavity using a three-dimensional camera;
an identification device that identifies a processed part of a living body part in the oral cavity based on the three-dimensional data acquired by the three-dimensional scanner;
The identification device
an input unit into which three-dimensional data acquired by the three-dimensional scanner is input;
an identification unit that identifies the machined portion based on the three-dimensional data input from the input unit and an estimation model including a neural network for estimating the machined portion based on the three-dimensional data;
an output unit that outputs a result of identification by the identification unit ;
The scanner system , wherein the identification unit directly inputs at least the three-dimensional positional information of the three-dimensional data to the neural network included in the estimation model.
コンピュータによる口腔内の生体部位に対する加工部位を識別する識別方法であって、
口腔内の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力されるステップと、
前記入力されるステップによって入力された三次元データと、当該三次元データに基づき加工部位を推定するためのニューラルネットワークを含む推定モデルとに基づき、当該加工部位を識別するステップと、
前記識別するステップによる識別結果を出力するステップとを含み、
前記推定モデルに含まれる前記ニューラルネットワークに、前記三次元データのうち少なくとも前記三次元の位置情報が直接入力される、識別方法。
An identification method for identifying a processed part of a living body part in the oral cavity by a computer,
a step of inputting three-dimensional data including three-dimensional position information at each of a plurality of points representing a three-dimensional shape of the oral cavity;
a step of identifying the machined portion based on the three-dimensional data input in the inputting step and an estimation model including a neural network for estimating the machined portion based on the three-dimensional data;
and outputting an identification result from the identifying step ,
The identification method , wherein at least the three-dimensional positional information of the three-dimensional data is directly input to the neural network included in the estimation model.
口腔内の生体部位に対する加工部位を識別する識別用プログラムであって、
前記識別用プログラムは、コンピュータに、
口腔内の三次元形状を示す複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力されるステップと、
前記入力されるステップによって入力された三次元データと、当該三次元データに基づき加工部位を推定するためのニューラルネットワークを含む推定モデルとに基づき、当該加工部位を識別するステップと、
前記識別するステップによる識別結果を出力するステップとを実行させ、
前記推定モデルに含まれる前記ニューラルネットワークに、前記三次元データのうち少なくとも前記三次元の位置情報が直接入力される、識別用プログラム。
An identification program for identifying a processed part with respect to a living body part in the oral cavity,
The identification program, in a computer,
a step of inputting three-dimensional data including three-dimensional position information at each of a plurality of points representing a three-dimensional shape of the oral cavity;
a step of identifying the machined portion based on the three-dimensional data input in the inputting step and an estimation model including a neural network for estimating the machined portion based on the three-dimensional data;
a step of outputting an identification result obtained by the identifying step ;
A program for identification, wherein at least the three-dimensional positional information of the three-dimensional data is directly input to the neural network included in the estimation model.
JP2020113850A 2020-07-01 2020-07-01 IDENTIFICATION DEVICE, SCANNER SYSTEM, IDENTIFICATION METHOD, AND IDENTIFICATION PROGRAM Active JP7267974B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020113850A JP7267974B2 (en) 2020-07-01 2020-07-01 IDENTIFICATION DEVICE, SCANNER SYSTEM, IDENTIFICATION METHOD, AND IDENTIFICATION PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020113850A JP7267974B2 (en) 2020-07-01 2020-07-01 IDENTIFICATION DEVICE, SCANNER SYSTEM, IDENTIFICATION METHOD, AND IDENTIFICATION PROGRAM

Publications (2)

Publication Number Publication Date
JP2022012198A JP2022012198A (en) 2022-01-17
JP7267974B2 true JP7267974B2 (en) 2023-05-02

Family

ID=80148571

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020113850A Active JP7267974B2 (en) 2020-07-01 2020-07-01 IDENTIFICATION DEVICE, SCANNER SYSTEM, IDENTIFICATION METHOD, AND IDENTIFICATION PROGRAM

Country Status (1)

Country Link
JP (1) JP7267974B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015523108A (en) 2012-05-07 2015-08-13 シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング How to measure dental conditions
JP2017521113A (en) 2014-05-07 2017-08-03 アライン テクノロジー, インコーポレイテッド Region of interest identification during intraoral scanning
US20180028294A1 (en) 2016-07-27 2018-02-01 James R. Glidewell Dental Ceramics, Inc. Dental cad automation using deep learning
JP2019208832A (en) 2018-06-04 2019-12-12 聖士 田島 Dental analysis system and dental analysis X-ray system
JP2020096800A (en) 2019-10-17 2020-06-25 株式会社モリタ製作所 Identification device, teeth type identification system, identification method, and identification program
WO2020129799A1 (en) 2018-12-17 2020-06-25 株式会社モリタ製作所 Identification device, scanner system, identification method, and identification program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102026026B1 (en) * 2018-05-31 2019-09-26 오스템임플란트 주식회사 Method and System for Designing Of Prosthetics

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015523108A (en) 2012-05-07 2015-08-13 シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング How to measure dental conditions
JP2017521113A (en) 2014-05-07 2017-08-03 アライン テクノロジー, インコーポレイテッド Region of interest identification during intraoral scanning
US20180028294A1 (en) 2016-07-27 2018-02-01 James R. Glidewell Dental Ceramics, Inc. Dental cad automation using deep learning
JP2019208832A (en) 2018-06-04 2019-12-12 聖士 田島 Dental analysis system and dental analysis X-ray system
WO2020129799A1 (en) 2018-12-17 2020-06-25 株式会社モリタ製作所 Identification device, scanner system, identification method, and identification program
JP2020096800A (en) 2019-10-17 2020-06-25 株式会社モリタ製作所 Identification device, teeth type identification system, identification method, and identification program

Also Published As

Publication number Publication date
JP2022012198A (en) 2022-01-17

Similar Documents

Publication Publication Date Title
US11651494B2 (en) Apparatuses and methods for three-dimensional dental segmentation using dental image data
KR102056480B1 (en) Method and system for managing digital dental care data
DK3050534T3 (en) TRACKING AND PREDICTING DENTAL CHANGES
CN113520641B (en) Method for constructing a prosthesis
EP2134290B1 (en) Computer-assisted creation of a custom tooth set-up using facial analysis
KR102267197B1 (en) Method and apparatus for recording and displaying dental care data on a digital dental image
Revilla-León et al. Artificial intelligence models for tooth-supported fixed and removable prosthodontics: A systematic review
CN102438545B (en) System and method for effective planning, visualization, and optimization of dental restorations
JP7244113B2 (en) Tooth virtual editing method, system, computer equipment and storage medium
WO2020129799A1 (en) Identification device, scanner system, identification method, and identification program
JP7220569B2 (en) Imaging support device, scanner system, and imaging support method
JP7398512B2 (en) Data generation device, scanner system, data generation method, and data generation program
JP2023099629A (en) Identification device, scanner system, identification method, and identification program
JP7030076B2 (en) Data generator, scanner system, data generation method, and data generation program
JP7267974B2 (en) IDENTIFICATION DEVICE, SCANNER SYSTEM, IDENTIFICATION METHOD, AND IDENTIFICATION PROGRAM
JP7227188B2 (en) Identification device, identification system, identification method, and identification program
JP7265359B2 (en) DATA GENERATION DEVICE, SCANNER SYSTEM, DATA GENERATION METHOD, AND DATA GENERATION PROGRAM
JP7195466B2 (en) DATA GENERATION DEVICE, SCANNER SYSTEM, DATA GENERATION METHOD, AND DATA GENERATION PROGRAM
US11992380B2 (en) System and method for providing a pediatric crown
US20240099810A1 (en) System and method for providing a pediatric crown
WO2024056719A1 (en) 3d digital visualization, annotation and communication of dental oral health
JP2024072028A (en) DATA PROCESSING APPARATUS, DATA PROCESSING METHOD, DATA PROCESSING PROGRAM, AND DATA PROCESSING SYSTEM
KR20240013207A (en) Method for obtaining a model of a dental arch
Barmak et al. Artificial intelligence models for tooth-supported fixed and removable prosthodontics: A systematic review

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230420

R150 Certificate of patent or registration of utility model

Ref document number: 7267974

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150