JP7195291B2 - DATA PROCESSING APPARATUS, DATA PROCESSING SYSTEM, DATA PROCESSING METHOD, AND DATA PROCESSING PROGRAM - Google Patents

DATA PROCESSING APPARATUS, DATA PROCESSING SYSTEM, DATA PROCESSING METHOD, AND DATA PROCESSING PROGRAM Download PDF

Info

Publication number
JP7195291B2
JP7195291B2 JP2020113849A JP2020113849A JP7195291B2 JP 7195291 B2 JP7195291 B2 JP 7195291B2 JP 2020113849 A JP2020113849 A JP 2020113849A JP 2020113849 A JP2020113849 A JP 2020113849A JP 7195291 B2 JP7195291 B2 JP 7195291B2
Authority
JP
Japan
Prior art keywords
data
tooth
dimensional
data processing
dimensional data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020113849A
Other languages
Japanese (ja)
Other versions
JP2022012197A (en
Inventor
亮佑 鍛治
巳貴則 西村
学 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
J Morita Manufaturing Corp
Original Assignee
J Morita Manufaturing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by J Morita Manufaturing Corp filed Critical J Morita Manufaturing Corp
Priority to JP2020113849A priority Critical patent/JP7195291B2/en
Publication of JP2022012197A publication Critical patent/JP2022012197A/en
Application granted granted Critical
Publication of JP7195291B2 publication Critical patent/JP7195291B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Image Analysis (AREA)

Description

本開示は、データ処理装置、データ処理システム、データ処理方法、およびデータ処理用プログラムに関する。 The present disclosure relates to a data processing device, a data processing system, a data processing method, and a data processing program.

従来から、歯科分野において、補綴物などをコンピュータ上でデジタル設計するために、歯牙の三次元形状を取得する三次元カメラを内蔵した三次元スキャナが公知である。たとえば、特許文献1には、三次元カメラを用いて歯牙を撮像することで、歯牙の形状を記録する技術が開示されている。歯科医師などの術者は、特許文献1に開示された三次元カメラを用いることで、撮像対象となった歯牙の三次元形状を記録することができ、さらに記録された歯牙の三次元形状が示された三次元画像を確認しながら、自身の知見によって当該歯牙の種類を識別することができる。 2. Description of the Related Art Conventionally, in the field of dentistry, a three-dimensional scanner with a built-in three-dimensional camera for obtaining a three-dimensional shape of a tooth has been known for digital designing of a prosthesis or the like on a computer. For example, Patent Literature 1 discloses a technique for recording the shape of a tooth by capturing an image of the tooth using a three-dimensional camera. An operator such as a dentist can record the three-dimensional shape of the tooth to be imaged by using the three-dimensional camera disclosed in Patent Document 1, and the recorded three-dimensional shape of the tooth can be recorded. While confirming the displayed three-dimensional image, the user can identify the type of tooth according to his/her own knowledge.

特開2000-74635号公報JP-A-2000-74635

このように、従来から、術者は、三次元カメラによって取得された歯牙を含む三次元画像に基づき、自身の知見によって当該歯牙の種類を識別していたが、知見のレベルは術者ごとに異なるため、術者の知見のレベルに応じて識別結果の精度がばらつくという問題があった。たとえば、中切歯と側切歯、犬歯と第一小臼歯、第一小臼歯と第二小臼歯、第二小臼歯と第一大臼歯、第一台臼歯と第二大臼歯など、形状が類似する歯牙同士では特に識別精度は高くない。 In this way, conventionally, the operator has identified the type of the tooth based on his/her own knowledge based on the three-dimensional image including the tooth acquired by the three-dimensional camera, but the level of knowledge varies for each operator. Therefore, there is a problem that the accuracy of the identification result varies depending on the level of knowledge of the operator. For example, central incisors and lateral incisors, canines and first premolars, first premolars and second premolars, second premolars and first molars, first premolars and second molars, etc. The accuracy of discrimination between similar teeth is not particularly high.

本開示は、このような問題を解決するためになされたものであり、精度良く歯牙の種類を識別することができるデータ処理装置、データ処理システム、データ処理方法、およびデータ処理用プログラムを提供することを目的とする。 The present disclosure is made to solve such problems, and provides a data processing device, a data processing system, a data processing method, and a data processing program that can accurately identify the type of tooth. for the purpose.

本開示に従えば、歯牙の種類に関連するデータを処理するデータ処理装置が提供される。データ処理装置は、歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力される入力部と、入力部から入力された三次元データと、当該三次元データに基づき歯牙の種類を推定するためのニューラルネットワークを含む推定モデルとに基づき、当該三次元データに対応する複数の点のそれぞれに対して歯牙の種類に関連する関連データを関連付ける関連付け部と、関連付け部による関連付けの結果を出力する出力部とを備える。 According to the present disclosure, a data processing apparatus is provided for processing data related to tooth type. The data processing device includes an input unit for inputting three-dimensional data including three-dimensional positional information on each of a plurality of points constituting a tooth, three-dimensional data input from the input unit, and based on the three-dimensional data. an associating unit that associates relevant data related to the type of tooth with each of a plurality of points corresponding to the three-dimensional data based on an estimation model including a neural network for estimating the type of tooth; and an associating unit. and an output unit that outputs the association result.

本開示に従えば、歯牙の種類に関連するデータを処理するデータ処理システムが提供される。データ処理システムは、三次元カメラを用いて、歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データを取得する三次元スキャナと、三次元スキャナによって取得された三次元データに対応する複数の点のそれぞれに対して歯牙の種類に関連する関連データを関連付けるデータ処理装置とを備える。データ処理装置は、三次元スキャナによって取得された三次元データが入力される入力部と、入力部から入力された三次元データと、当該三次元データに基づき歯牙の種類を推定するためのニューラルネットワークを含む推定モデルとに基づき、当該三次元データに対応する複数の点のそれぞれに対して歯牙の種類に関連する関連データを関連付ける関連付け部と、関連付け部による関連付けの結果を出力する出力部とを含む。 According to the present disclosure, a data processing system is provided for processing data related to tooth type. The data processing system includes a three-dimensional scanner that acquires three-dimensional data including three-dimensional positional information on each of a plurality of points that constitute the tooth using a three-dimensional camera, and three-dimensional data acquired by the three-dimensional scanner. and a data processing device for associating relevant data relating to tooth type to each of a plurality of points corresponding to . The data processing device includes an input unit for inputting three-dimensional data acquired by a three-dimensional scanner, three-dimensional data input from the input unit, and a neural network for estimating the type of tooth based on the three-dimensional data. An associating unit that associates relevant data related to tooth types with each of the plurality of points corresponding to the three-dimensional data based on the estimated model including the above, and an output unit that outputs the result of association by the associating unit include.

本開示に従えば、コンピュータによる歯牙の種類に関連するデータを処理するデータ処理方法が提供される。データ処理方法は、歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力されるステップと、入力されるステップによって入力された三次元データと、当該三次元データに基づき歯牙の種類を推定するためのニューラルネットワークを含む推定モデルとに基づき、当該三次元データに対応する複数の点のそれぞれに対して歯牙の種類に関連する関連データを関連付けるステップと、関連付けるステップによる関連付けの結果を出力するステップとを含む。 According to the present disclosure, a data processing method is provided for processing data related to tooth type by a computer. The data processing method includes a step of inputting three-dimensional data including three-dimensional positional information on each of a plurality of points constituting a tooth, the three-dimensional data input by the input step, and the three-dimensional data an estimation model including a neural network for estimating the type of tooth based on the step of associating relevant data related to the type of tooth with each of a plurality of points corresponding to the three-dimensional data; and outputting the results of the association.

本開示に従えば、歯牙の種類に関連するデータを処理するデータ処理用プログラムが提供される。データ処理用プログラムは、コンピュータに、歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力されるステップと、入力されるステップによって入力された三次元データと、当該三次元データに基づき歯牙の種類を推定するためのニューラルネットワークを含む推定モデルとに基づき、当該三次元データに対応する複数の点のそれぞれに対して歯牙の種類に関連する関連データを関連付けるステップと、関連付けるステップによる関連付けの結果を出力するステップとを実行させる。 According to the present disclosure, a data processing program is provided for processing data related to tooth type. The data processing program comprises a step of inputting three-dimensional data including three-dimensional position information of each of a plurality of points constituting a tooth into a computer; a step of associating relevant data related to the tooth type with each of a plurality of points corresponding to the three-dimensional data, based on an estimation model including a neural network for estimating the tooth type based on the three-dimensional data; , and a step of outputting the result of association by the associating step.

本開示によれば、歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データに基づいて、精度良く歯牙の種類を識別することができる。 According to the present disclosure, it is possible to accurately identify the type of tooth based on three-dimensional data including three-dimensional position information on each of a plurality of points that constitute the tooth.

本実施の形態に係るデータ処理装置の適用例を示す模式図である。1 is a schematic diagram showing an application example of a data processing device according to an embodiment; FIG. 本実施の形態に係るシステムの全体構成を示す模式図である。1 is a schematic diagram showing the overall configuration of a system according to an embodiment; FIG. 本実施の形態に係るデータ処理装置のハードウェア構成を示す模式図である。1 is a schematic diagram showing a hardware configuration of a data processing device according to an embodiment; FIG. 本実施の形態に係るサーバ装置のハードウェア構成を示す模式図である。2 is a schematic diagram showing a hardware configuration of a server device according to this embodiment; FIG. 本実施の形態に係るデータ処理装置の機能構成を示す模式図である。1 is a schematic diagram showing a functional configuration of a data processing device according to an embodiment; FIG. 本実施の形態に係るデータ処理装置に入力される三次元データの内容を説明するための模式図である。FIG. 4 is a schematic diagram for explaining the contents of three-dimensional data input to the data processing device according to the embodiment; 本実施の形態に係るデータ処理装置の推定対象となる歯牙の一例を示す模式図である。FIG. 4 is a schematic diagram showing an example of a tooth to be estimated by the data processing device according to the present embodiment; 本実施の形態に係る学習用データの生成を説明するための模式図である。FIG. 4 is a schematic diagram for explaining generation of learning data according to the present embodiment; 本実施の形態に係る学習用データセットの一例を説明するための模式図である。FIG. 4 is a schematic diagram for explaining an example of a learning data set according to the embodiment; FIG. 本実施の形態に係る学習用データセットに基づく学習済モデルの生成を説明するための模式図である。FIG. 4 is a schematic diagram for explaining generation of a trained model based on a learning data set according to the present embodiment; 本実施の形態に係る関連付け結果の出力の一例を説明するための模式図である。FIG. 10 is a schematic diagram for explaining an example of output of an association result according to the embodiment; 本実施の形態に係る関連付け結果の出力の一例を説明するための模式図である。FIG. 10 is a schematic diagram for explaining an example of output of an association result according to the embodiment; 本実施の形態に係る出力データの一例を説明するための模式図である。FIG. 4 is a schematic diagram for explaining an example of output data according to the embodiment; FIG. 本実施の形態に係る出力データの一例を説明するための模式図である。FIG. 4 is a schematic diagram for explaining an example of output data according to the embodiment; FIG. 本実施の形態に係るデータ処理装置が実行する学習処理の一例を説明するためのフローチャートである。5 is a flowchart for explaining an example of learning processing executed by the data processing device according to the embodiment; 本実施の形態に係るサーバ装置が実行する学習処理の一例を説明するためのフローチャートである。6 is a flowchart for explaining an example of learning processing executed by the server device according to the present embodiment; 本実施の形態に係るデータ処理装置が実行するサービス提供処理の一例を説明するためのフローチャートである。6 is a flowchart for explaining an example of service providing processing executed by the data processing device according to the embodiment; 変形例に係る関連付け結果の出力の一例を説明するための模式図である。FIG. 11 is a schematic diagram for explaining an example of output of an association result according to a modification; 変形例に係るデータ処理装置が実行するサービス提供処理の一例を説明するためのフローチャートである。FIG. 11 is a flowchart for explaining an example of service providing processing executed by a data processing device according to a modification; FIG. 変形例に係る学習用データセットに基づく学習済モデルの生成を説明するための模式図である。FIG. 11 is a schematic diagram for explaining generation of a trained model based on a learning data set according to a modification; 変形例に係るデータ処理装置が実行するサービス提供処理の一例を説明するためのフローチャートである。FIG. 11 is a flowchart for explaining an example of service providing processing executed by a data processing device according to a modification; FIG. 変形例に係る学習用データセットの一例を説明するための模式図である。FIG. 11 is a schematic diagram for explaining an example of a learning data set according to a modification; 変形例に係るデータ処理装置が実行するサービス提供処理の一例を説明するためのフローチャートである。FIG. 11 is a flowchart for explaining an example of service providing processing executed by a data processing device according to a modification; FIG.

本開示の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰り返さない。 Embodiments of the present disclosure will be described in detail with reference to the drawings. The same or corresponding parts in the drawings are given the same reference numerals, and the description thereof will not be repeated.

[適用例]
図1および図2を参照しながら、本実施の形態に係るデータ処理装置100の適用例を説明する。図1は、本実施の形態に係るデータ処理装置100の適用例を示す模式図である。図2は、本実施の形態に係るシステムの全体構成を示す模式図である。
[Application example]
An application example of the data processing apparatus 100 according to the present embodiment will be described with reference to FIGS. 1 and 2. FIG. FIG. 1 is a schematic diagram showing an application example of a data processing device 100 according to this embodiment. FIG. 2 is a schematic diagram showing the overall configuration of the system according to this embodiment.

図1に示すように、ユーザ1は、データ処理システム10を用いることで、対象者2の歯牙および歯肉を少なくとも含む口腔内の三次元形状のデータ(以下、「三次元データ」とも称する)を取得することができる。三次元データは、スキャンされた口腔内の歯牙および歯肉を構成する各点の位置情報を含む。なお、「ユーザ」は、歯科医師などの術者、歯科助手、歯科大学の先生または生徒、歯科技工士、メーカの技術者、製造工場の作業者など、データ処理システム10を用いる者であればいずれであってもよい。「対象者」は、歯科医院の患者、歯科大学における被験者など、データ処理システム10のスキャン対象となる者であればいずれであってもよい。 As shown in FIG. 1, a user 1 uses a data processing system 10 to obtain three-dimensional intraoral data (hereinafter also referred to as "three-dimensional data") including at least teeth and gums of a subject 2. can be obtained. The three-dimensional data includes position information of each point that constitutes the scanned teeth and gums in the oral cavity. The “user” is a person who uses the data processing system 10, such as an operator such as a dentist, a dental assistant, a teacher or student at a dental university, a dental technician, a manufacturer's engineer, or a factory worker. Either can be used. The “subject” may be any person to be scanned by the data processing system 10, such as a patient at a dental clinic or a subject at a dental college.

本実施の形態に係るデータ処理システム10は、三次元スキャナ200と、データ処理装置100と、ディスプレイ300とを備える。三次元スキャナ200は、内蔵された三次元カメラによってスキャン対象の三次元データを取得する。具体的には、三次元スキャナ200は、口腔内をスキャンすることで、三次元データとして、スキャン対象の歯牙および歯肉を構成する複数の点のそれぞれの位置情報(たとえば、縦方向に沿ったX軸,横方向に沿ったY軸,高さ方向に沿ったZ軸の座標)を、光学センサなどを用いて取得する。あるいは、三次元スキャナ200は、口腔内の印象採得によって作成された模型に対してスキャンすることで、三次元データとして、スキャン対象部分を構成する複数の点のそれぞれの位置情報(たとえば、縦方向に沿ったX軸,横方向に沿ったY軸,高さ方向に沿ったZ軸の座標)を、光学センサなどを用いて取得する。データ処理装置100は、三次元スキャナ200によって取得された三次元データに基づき、任意の視点からの歯牙などの像を含む二次元画像、またはホログラムなどによる立体的な歯牙などの画像を含む三次元画像を生成し、生成した三次元画像をディスプレイ300に表示する。三次元スキャナ200およびデータ処理装置100の少なくともいずれか一方は、移動可能なポータブル型のものであってもよいし、固定された据え置き型のものであってもよい。たとえば、三次元スキャナ200およびデータ処理装置100が据え置き型のデスクトップスキャナである場合、スキャン対象は石膏模型や義歯などの人工的に生成された歯牙であってもよい。 Data processing system 10 according to the present embodiment includes three-dimensional scanner 200 , data processing device 100 , and display 300 . The three-dimensional scanner 200 acquires three-dimensional data of a scanning target by a built-in three-dimensional camera. Specifically, the three-dimensional scanner 200 scans the inside of the oral cavity to generate three-dimensional data as positional information of each of a plurality of points that constitute the teeth and gums to be scanned (for example, X axis, Y-axis along the horizontal direction, and Z-axis along the height direction) are acquired using an optical sensor or the like. Alternatively, the three-dimensional scanner 200 scans a model created by taking an impression of the oral cavity, and obtains positional information (for example, longitudinal X-axis along the direction, Y-axis along the horizontal direction, and Z-axis along the height direction) are acquired using an optical sensor or the like. Based on the three-dimensional data acquired by the three-dimensional scanner 200, the data processing device 100 generates a two-dimensional image including a tooth image from an arbitrary viewpoint, or a three-dimensional image including a three-dimensional image such as a hologram. An image is generated and the generated three-dimensional image is displayed on the display 300 . At least one of the three-dimensional scanner 200 and the data processing device 100 may be of a movable portable type or of a fixed stationary type. For example, if the three-dimensional scanner 200 and the data processing device 100 are stationary desktop scanners, the scanned object may be an artificially generated tooth such as a plaster model or a denture.

たとえば、ユーザ1は、対象者2の歯牙の欠損部分を補う補綴物などをコンピュータ上でデジタル設計するために、三次元スキャナ200によって対象者2の口腔内を撮像することで、歯牙および歯肉を少なくとも含む口腔内の三次元データを取得する。三次元データは、歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を少なくとも含む。ユーザ1が口腔内を撮像するたびに三次元データが順次取得され、口腔内の三次元画像がディスプレイ300に表示される。ユーザ1は、ディスプレイ300に表示された三次元画像を確認しながら三次元データの不足部分を重点的にスキャンしていく。 For example, in order to digitally design on a computer a prosthesis or the like that compensates for missing teeth of the subject 2, the user 1 images the intraoral cavity of the subject 2 with the three-dimensional scanner 200, thereby reshaping the teeth and gums. Acquire at least three-dimensional intraoral data. The three-dimensional data includes at least three-dimensional positional information for each of a plurality of points forming the tooth. Each time the user 1 takes an intraoral image, three-dimensional data is sequentially acquired, and the three-dimensional image of the intraoral cavity is displayed on the display 300 . The user 1 confirms the three-dimensional image displayed on the display 300 and scans the missing part of the three-dimensional data.

従来であれば、ユーザ1は、三次元スキャナ200によって取得された歯牙を含む三次元データが可視化された三次元画像に基づき、自身の知見によってスキャン中またはスキャンが完了した歯牙の種類を識別する。しかし、知見のレベルはユーザ1ごとに異なるため、ユーザ1の知見に頼っていると識別結果の精度がばらつくことがあった。また、矯正歯科などにおいては、矯正用の器具を設計する際に、歯牙とその隣の歯牙とを区別しながら、また、歯牙と歯肉とを区別しながら、歯牙をその種類ごとに分類(セグメント化)することも要求される。 Conventionally, based on a three-dimensional image in which three-dimensional data including the tooth acquired by the three-dimensional scanner 200 is visualized, the user 1 identifies the type of tooth that is being scanned or has been scanned based on his/her own knowledge. . However, since the level of knowledge differs for each user 1, depending on the knowledge of the user 1 may result in variations in the accuracy of the identification results. In orthodontics, etc., when designing orthodontic appliances, the teeth are classified by type (segmentation) while distinguishing between the teeth and adjacent teeth, and between the teeth and the gingiva. conversion) is also required.

そこで、本実施の形態に係るデータ処理システム10は、データ処理装置100が有するAI(人工知能:Artificial Intelligence)を利用して、三次元スキャナ200によって取得された三次元データに基づき、当該三次元データに対応する複数の点ごとに歯牙の種類を推定し、その推定結果を含む歯牙の種類に関連する関連データを、当該三次元データに対応する複数の点のそれぞれに関連付けるように構成されている。なお、データ処理装置100による歯牙の種類を推定する処理を「推定処理」とも称する。 Therefore, the data processing system 10 according to the present embodiment utilizes AI (Artificial Intelligence) of the data processing apparatus 100, based on the three-dimensional data acquired by the three-dimensional scanner 200, the three-dimensional The tooth type is estimated for each of the plurality of points corresponding to the data, and associated data related to the tooth type including the estimation result is associated with each of the plurality of points corresponding to the three-dimensional data. there is Note that the process of estimating the tooth type by the data processing device 100 is also referred to as "estimating process".

なお、「歯牙の種類」は、上顎右側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯、上顎左側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯、下顎右側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯、下顎左側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯といったような各歯牙の種類を意味する。 The "types of teeth" are upper right central incisors, lateral incisors, canines, first premolars, second premolars, first molars, second molars, and third molars, upper left side. central incisors, lateral incisors, canines, first premolars, second premolars, first molars, second molars, and third molars, lower right central incisors, lateral incisors, canines, 1st premolar, 2nd premolar, 1st molar, 2nd molar, and 3rd molar, mandibular left central incisor, lateral incisor, canine, 1st premolar, 2nd premolar, 3rd molar It refers to each tooth type such as 1 molar, 2nd molar, and 3rd molar.

具体的には、ユーザ1が三次元スキャナ200を用いて対象者2の口腔内をスキャンすると、歯牙および歯肉を少なくとも含む口腔内の三次元データがデータ処理装置100に入力される。データ処理装置100は、入力された歯牙の特徴を含む三次元データとニューラルネットワークを含む推定モデルとに基づき、当該歯牙の種類を推定する推定処理を実行する。 Specifically, when the user 1 scans the oral cavity of the subject 2 using the three-dimensional scanner 200 , three-dimensional data of the oral cavity including at least teeth and gums is input to the data processing device 100 . The data processing device 100 executes an estimation process for estimating the type of tooth based on the input three-dimensional data including tooth characteristics and an estimation model including a neural network.

「推定モデル」は、ニューラルネットワークと当該ニューラルネットワークによって用いられるパラメータとを含み、三次元データに関連付けられた歯牙の種類に対応する歯牙情報と、当該三次元データを用いた当該歯牙の種類の推定結果とに基づき学習されることで最適化(調整)される。 "Estimation model" includes a neural network and parameters used by the neural network, tooth information corresponding to the type of tooth associated with three-dimensional data, and estimation of the type of tooth using the three-dimensional data It is optimized (adjusted) by being learned based on the results.

具体的には、推定モデルは、歯牙を含む三次元データが入力されると、当該三次元データに基づきニューラルネットワークによって当該三次元データごとに歯牙の特徴を抽出し、抽出した歯牙の特徴に基づき当該三次元データごとに歯牙の種類を推定する。そして、推定モデルは、自身が推定した歯牙の種類と、入力された三次元データに関連付けられた歯牙の種類(歯牙情報)とに基づき、両者が一致すればパラメータを更新しない一方で、両者が一致しなければ両者が一致するようにパラメータを更新することで、パラメータを最適化する。このように、推定モデルは、入力データである三次元データと、正解データである歯牙の種類(歯牙情報)とを含む教師データを利用して、パラメータが最適化されることで学習される。 Specifically, when three-dimensional data including teeth is input to the estimation model, a neural network based on the three-dimensional data extracts features of the teeth for each three-dimensional data, and based on the extracted tooth features, The type of tooth is estimated for each three-dimensional data. Then, the estimation model does not update the parameters based on the type of tooth estimated by itself and the type of tooth (tooth information) associated with the input three-dimensional data, if both match. If they do not match, the parameters are optimized by updating the parameters so that they match. In this way, the estimation model is learned by optimizing parameters using teacher data including three-dimensional data as input data and tooth types (tooth information) as correct data.

なお、このような推定モデルを学習する処理を「学習処理」とも称する。また、学習処理によって最適化された推定モデルを、特に「学習済モデル」とも称する。つまり、本実施の形態においては、学習前の推定モデルおよび学習済みの推定モデルをまとめて「推定モデル」と総称する一方で、特に、学習済みの推定モデルを「学習済モデル」とも称する。 Note that processing for learning such an estimation model is also referred to as “learning processing”. In addition, the estimation model optimized by the learning process is particularly called a "learned model". That is, in the present embodiment, pre-learning estimation models and trained estimation models are collectively referred to as "estimation models", while trained estimation models are also particularly referred to as "learned models".

「歯牙情報」は、上顎右側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯、上顎左側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯、下顎右側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯、下顎左側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯といったような各歯牙の名称を含む。また、「歯牙情報」は、中切歯に割り当てられた1番、側切歯に割り当てられた2番、犬歯に割り当てられた3番、第1小臼歯に割り当てられた4番、第2小臼歯に割り当てられた5番、第1大臼歯に割り当てられた6番、第2大臼歯に割り当てられた7番、第3大臼歯に割り当てられた8番といったような各歯牙に割り当てられた番号(たとえば、歯科分野において一般的に用いられている歯牙の番号)を含む。その他、「歯牙情報」は、各歯牙に割り当てられた色の情報を含んでいてもよいし、各歯牙に割り当てられた記号の情報を含んでいてもよい。 "Tooth information" includes upper right central incisors, lateral incisors, canines, first premolars, second premolars, first molars, second molars, and third molars, upper left central incisors Teeth, lateral incisors, canines, first premolars, second premolars, first molars, second molars, and third molars, mandibular right central incisors, lateral incisors, canines, first minors Molars, second premolars, first molars, second molars, and third molars, mandibular left central incisors, lateral incisors, canines, first premolars, second premolars, first molars , second molars, and third molars. In addition, "tooth information" includes the number 1 assigned to the central incisor, the number 2 assigned to the lateral incisor, the number 3 assigned to the canine, the number 4 assigned to the first premolar, the second small A number assigned to each tooth, such as number 5 assigned to the molar, number 6 assigned to the first molar, number 7 assigned to the second molar, number 8 assigned to the third molar, and so on. (eg tooth numbers commonly used in the dental field). In addition, the "tooth information" may include color information assigned to each tooth, or may include symbol information assigned to each tooth.

データ処理装置100によって学習済モデルを用いて推定処理が実行されると、その推定結果を含む歯牙の種類に関連する関連データが、当該三次元データに対応する複数の点のそれぞれに関連付けられる。このようにして得られた関連付けの結果は、ディスプレイ300に出力される。 When the data processing device 100 executes the estimation process using the trained model, related data related to the tooth type including the estimation result is associated with each of the plurality of points corresponding to the three-dimensional data. The association result obtained in this manner is output to display 300 .

「関連データ」は、推定された歯牙の種類を示す色、文字、記号、および歯牙番号など、推定された歯牙の種類を示す任意のデータを含む。たとえば、ディスプレイ300は、歯牙の種類に対応する色、文字、記号、および歯牙番号などを用いて、三次元スキャナ200によって取得された三次元データに対応する複数の点ごとに歯牙の種類を指し示す。 "Associated data" includes any data indicative of an inferred tooth type, such as colors, letters, symbols, and tooth numbers indicating an inferred tooth type. For example, the display 300 uses colors, characters, symbols, tooth numbers, etc. corresponding to tooth types to indicate tooth types for each of a plurality of points corresponding to the three-dimensional data acquired by the three-dimensional scanner 200. .

データ処理装置100による推定結果は、推定処理時に用いられた三次元データとともに、スキャン情報として歯科技工所および管理センターに配置されたサーバ装置500に出力される。 The estimation result by the data processing apparatus 100 is output as scan information to the server apparatus 500 arranged in the dental laboratory and the management center together with the three-dimensional data used in the estimation process.

たとえば、図2に示すように、データ処理システム10は、複数のローカルA~Cのそれぞれに配置されている。たとえば、ローカルAおよびローカルBは歯科医院であり、当該歯科医院の院内において、ユーザ1である術者や歯科助手は、データ処理システム10を利用して対象者2である患者の歯牙および歯肉を少なくとも含む口腔内の三次元データを取得する。また、ローカルCは歯科大学であり、当該歯科大学において、ユーザ1である先生や生徒は、対象者2である被験者の口腔内の三次元データを取得する。ローカルA~Cのそれぞれで取得されたスキャン情報(三次元データ,推定結果)は、ネットワーク5を介して、ローカルDである歯科技工所および管理センターに配置されたサーバ装置500に出力される。 For example, as shown in FIG. 2, data processing system 10 is located at each of a plurality of locals AC. For example, local A and local B are dental clinics, and in the dental clinics, an operator and a dental assistant who are user 1 use the data processing system 10 to examine teeth and gums of a patient who is the subject 2. Acquire at least three-dimensional intraoral data. Also, the local C is a dental college, and at the dental college, a teacher or a student who is the user 1 acquires intraoral three-dimensional data of a subject who is the subject 2 . The scan information (three-dimensional data, estimation results) acquired by each of the locals A to C is output via the network 5 to the server device 500 located in the dental laboratory and management center which is the local D. FIG.

歯科技工所においては、歯科技工士などが、ローカルA~Cのそれぞれから取得したスキャン情報に基づき、対象者2の歯牙の欠損部分を補う補綴物などを作成する。管理センターにおいては、サーバ装置500が、ローカルA~Cのそれぞれから取得したスキャン情報を蓄積して記憶し、ビッグデータとして保持する。 In the dental laboratory, a dental technician or the like creates a prosthesis or the like to replace the missing tooth portion of the subject 2 based on the scan information obtained from each of the locals A to C. In the management center, the server device 500 accumulates and stores the scan information obtained from each of the locals A to C, and holds it as big data.

なお、サーバ装置500は、歯科医院にローカルとは異なる管理センターに配置されるものに限らず、ローカル内に配置されてもよい。たとえば、ローカルA~Cのうちのいずれかのローカル内にサーバ装置500が配置されてもよい。また、1つのローカル内に複数のデータ処理装置100が配置されてもよく、さらに、当該1つのローカル内に当該複数のデータ処理装置100と通信可能なサーバ装置500が配置されてもよい。また、サーバ装置500は、クラウドサービスの形態で実現されてもよい。 Note that the server device 500 is not limited to being arranged in a management center different from the local one in the dental clinic, and may be arranged locally. For example, the server apparatus 500 may be arranged within any one of the locals A to C. FIG. Also, a plurality of data processing devices 100 may be arranged within one local, and furthermore, a server device 500 capable of communicating with the plurality of data processing devices 100 may be arranged within the one local. Moreover, the server device 500 may be implemented in the form of a cloud service.

歯科技工所においては、ローカルA~Cのように、様々な所からスキャン情報が集約される。このため、歯科技工所で保持されているスキャン情報は、ネットワーク5を介して管理センターに送信されてもよいし、あるいは、CD(Compact Disc)およびUSB(Universal Serial Bus)メモリなどのリムーバブルディスク550を介して管理センターに送られてもよい。 In the dental laboratory, scan information is aggregated from various locations, such as local A-C. For this reason, the scan information held at the dental laboratory may be transmitted to the management center via the network 5, or may be sent to a removable disk 550 such as a CD (Compact Disc) and USB (Universal Serial Bus) memory. may be sent to the management center via

なお、ネットワーク5を介さずに、ローカルA~Cのそれぞれからも、リムーバブルディスク550を介してスキャン情報が管理センターに送られてもよい。また、ローカルA~Cのそれぞれの間においても、ネットワーク5またはリムーバブルディスク550を介してスキャン情報を互いに送り合ってもよい。 The scan information may also be sent to the management center from each of the local A to C via the removable disk 550 without going through the network 5 . Also, between each of the locals A to C, scan information may be sent to each other via the network 5 or the removable disk 550 .

各ローカルA~Cのデータ処理装置100は、各自で推定モデルを保持しており、推定処理時に各自が保持する推定モデルを使用して歯牙の種類を推定する。各ローカルA~Cのデータ処理装置100は、各自の学習処理によって各自の推定モデルを学習することで、学習済モデルを生成する。さらに、本実施の形態においては、サーバ装置500も推定モデルを保持している。サーバ装置500は、各ローカルA~Cのデータ処理装置100および歯科技工所から取得したスキャン情報を用いた学習処理によって推定モデルを学習することで、学習済モデルを生成し、各ローカルA~Cのデータ処理装置100に当該学習済モデルを配布する。 Each local A to C data processing device 100 has its own estimation model, and estimates the type of tooth using the estimation model held by each at the time of estimation processing. Each of the local A to C data processors 100 learns its own estimation model through its own learning process, thereby generating a trained model. Furthermore, in the present embodiment, server device 500 also holds an estimation model. The server device 500 generates a trained model by learning the estimated model by learning processing using the scan information acquired from the data processing device 100 of each local A to C and the dental laboratory, and each local A to C , the learned model is distributed to the data processing devices 100 of .

なお、本実施の形態においては、各ローカルA~Cのデータ処理装置100およびサーバ装置500のいずれも学習処理を実行する形態であるが、各ローカルA~Cのデータ処理装置100のみが学習処理を実行する形態、あるいはサーバ装置500のみが学習処理を実行する形態であってもよい。なお、サーバ装置500のみが学習処理を実行する形態である場合、各ローカルA~Cのデータ処理装置100が保持する推定モデル(学習済モデル)は、各ローカルA~Cのデータ処理装置100間で共通化される。 In the present embodiment, both the data processing devices 100 of the local A to C and the server devices 500 execute the learning process, but only the data processing devices 100 of the local A to C perform the learning process. , or a form in which only the server device 500 executes the learning process. In the case where only the server device 500 executes the learning process, the estimated model (learned model) held by each local A to C data processing device 100 is are made common.

また、サーバ装置500がデータ処理装置100における推定処理の機能を有していてもよい。たとえば、各ローカルA~Cは、取得した三次元データをサーバ装置500に送信し、サーバ装置500は、各ローカルA~Cから受信したそれぞれの三次元データに基づき、それぞれにおける歯牙の種類の推定結果を算出してもよい。そして、サーバ装置500は、それぞれの推定結果を各ローカルA~Cに送信し、各ローカルA~Cは、サーバ装置500から受信した推定結果をディスプレイなどに出力してもよい。このように、各ローカルA~Cとサーバ装置500とがクラウドサービスの形態で構成されてもよい。このようにすれば、サーバ装置500が推定モデル(学習済モデル)を保持してさえいれば、各ローカルA~Cは、推定モデル(学習済モデル)を保持することなく推定結果を得ることができる。 Also, the server device 500 may have the function of the estimation processing in the data processing device 100 . For example, each local A to C transmits the acquired three-dimensional data to the server device 500, and the server device 500 estimates the type of tooth in each based on the three-dimensional data received from each local A to C. Results may be calculated. Then, server device 500 may transmit the respective estimation results to each of locals A to C, and each of locals A to C may output the estimation results received from server device 500 to a display or the like. In this way, each local A to C and the server device 500 may be configured in the form of a cloud service. In this way, as long as server device 500 holds an estimation model (learned model), each of locals A to C can obtain an estimation result without holding an estimation model (learned model). can.

このように、本実施の形態に係るデータ処理システム10によれば、データ処理装置100が有するAIを利用して、三次元スキャナ200によって取得された三次元データに基づき歯牙の種類が推定される。そして、その推定結果に基づき、三次元スキャナ200によって取得された三次元データに対応する複数の点のそれぞれに対して、歯牙の種類に関連する関連データが関連付けられ、その関連付けの結果がディスプレイ300などに出力される。このように、AIを利用することで、ユーザ1が抽出できる歯牙の特徴に限らずユーザ1では抽出できない歯牙の特徴をも見出すこともでき、見出された歯牙の特徴に基づき三次元データに対応する複数の点ごとに歯牙の種類が識別されるため、ユーザ1は、自身の知見に頼ることなく、精度良く歯牙の種類を識別することができる。 As described above, according to the data processing system 10 according to the present embodiment, the type of tooth is estimated based on the three-dimensional data acquired by the three-dimensional scanner 200 using the AI of the data processing apparatus 100. . Then, based on the estimation result, each of the plurality of points corresponding to the three-dimensional data acquired by the three-dimensional scanner 200 is associated with related data related to the tooth type, and the result of the association is displayed on the display 300. etc. In this way, by using AI, it is possible to find not only tooth features that can be extracted by the user 1, but also tooth features that the user 1 cannot extract. Since the tooth type is identified for each of a plurality of corresponding points, the user 1 can accurately identify the tooth type without relying on his/her own knowledge.

[データ処理装置のハードウェア構成]
図3を参照しながら、本実施の形態に係るデータ処理装置100のハードウェア構成の一例を説明する。図3は、本実施の形態に係るデータ処理装置100のハードウェア構成を示す模式図である。データ処理装置100は、たとえば、汎用コンピュータで実現されてもよいし、データ処理システム10専用のコンピュータで実現されてもよい。
[Hardware Configuration of Data Processor]
An example of the hardware configuration of the data processing device 100 according to this embodiment will be described with reference to FIG. FIG. 3 is a schematic diagram showing the hardware configuration of the data processing device 100 according to this embodiment. Data processing apparatus 100 may be implemented by, for example, a general-purpose computer or a computer dedicated to data processing system 10 .

図3に示すように、データ処理装置100は、主なハードウェア要素として、スキャナインターフェース102と、ディスプレイインターフェース103と、周辺機器インターフェース105と、ネットワークコントローラ106と、メディア読取装置107と、PCディスプレイ108と、メモリ109と、ストレージ110と、演算装置130とを備える。 As shown in FIG. 3, the data processing apparatus 100 includes, as main hardware elements, a scanner interface 102, a display interface 103, a peripheral device interface 105, a network controller 106, a media reader 107, and a PC display 108. , a memory 109 , a storage 110 , and an arithmetic device 130 .

スキャナインターフェース102は、三次元スキャナ200を接続するためのインターフェースであり、データ処理装置100と三次元スキャナ200との間のデータの入出力を実現する。 The scanner interface 102 is an interface for connecting the three-dimensional scanner 200 and realizes input/output of data between the data processing device 100 and the three-dimensional scanner 200 .

ディスプレイインターフェース103は、ディスプレイ300を接続するためのインターフェースであり、データ処理装置100とディスプレイ300との間のデータの入出力を実現する。ディスプレイ300は、たとえば、LCD(Liquid Crystal Display)または有機ELD(Electroluminescence)ディスプレイなどで構成される。 The display interface 103 is an interface for connecting the display 300 and realizes input/output of data between the data processing device 100 and the display 300 . Display 300 is configured by, for example, an LCD (Liquid Crystal Display) or an organic ELD (Electroluminescence) display.

周辺機器インターフェース105は、キーボード601およびマウス602などの周辺機器を接続するためのインターフェースであり、データ処理装置100と周辺機器との間のデータの入出力を実現する。 Peripheral device interface 105 is an interface for connecting peripheral devices such as keyboard 601 and mouse 602, and implements data input/output between data processing apparatus 100 and the peripheral devices.

ネットワークコントローラ106は、ネットワーク5を介して、歯科技工所に配置された装置、管理センターに配置されたサーバ装置500、および他のローカルに配置された他のデータ処理装置100のそれぞれとの間でデータを送受信する。ネットワークコントローラ106は、たとえば、イーサネット(登録商標)、無線LAN(Local Area Network)、Bluetooth(登録商標)などの任意の通信方式に対応する。 The network controller 106 communicates with each of the devices located at the dental laboratory, the server device 500 located at the management center, and other locally located data processing devices 100 via the network 5. Send and receive data. The network controller 106 supports arbitrary communication methods such as Ethernet (registered trademark), wireless LAN (Local Area Network), and Bluetooth (registered trademark).

メディア読取装置107は、記憶媒体であるリムーバブルディスク550に格納されているスキャン情報などの各種データを読み出す。 The media reading device 107 reads various data such as scan information stored in a removable disk 550, which is a storage medium.

PCディスプレイ108は、データ処理装置100専用のディスプレイである。PCディスプレイ108は、たとえば、LCDまたは有機ELディスプレイなどで構成される。なお、本実施の形態においては、PCディスプレイ108は、ディスプレイ300と別体であるが、ディスプレイ300と共通化されてもよい。 A PC display 108 is a dedicated display for the data processing apparatus 100 . PC display 108 is configured by, for example, an LCD or an organic EL display. Although PC display 108 is separate from display 300 in the present embodiment, it may be shared with display 300 .

メモリ109は、演算装置130が任意のプログラムを実行するにあたって、プログラムコードやワークメモリなどを一時的に格納する記憶領域を提供する。メモリ109は、たとえば、DRAM(Dynamic Random Access Memory)またはSRAM(Static Random Access Memory)などの揮発性メモリデバイスで構成される。 The memory 109 provides a storage area for temporarily storing program codes, work memory, etc. when the arithmetic unit 130 executes an arbitrary program. The memory 109 is composed of, for example, a volatile memory device such as a DRAM (Dynamic Random Access Memory) or SRAM (Static Random Access Memory).

ストレージ110は、推定処理および学習処理などに必要な各種のデータを格納する記憶領域を提供する。ストレージ110は、たとえば、ハードディスクまたはSSD(Solid State Drive)などの不揮発性メモリデバイスで構成される。 The storage 110 provides storage areas for storing various data necessary for estimation processing, learning processing, and the like. The storage 110 is composed of a non-volatile memory device such as a hard disk or SSD (Solid State Drive), for example.

ストレージ110は、スキャン情報112と、推定モデル114(学習済モデル)と、学習用データセット116と、色分類データ118と、プロファイルデータ119と、データ処理用プログラム120と、学習用プログラム121と、OS(Operating System)127とを格納する。 The storage 110 includes scan information 112, an estimated model 114 (learned model), a learning data set 116, color classification data 118, profile data 119, a data processing program 120, a learning program 121, An OS (Operating System) 127 is stored.

スキャン情報112は、三次元スキャナ200によって取得された三次元データ122と、当該三次元データ122に基づき実行された推定処理による推定結果124とを含む。推定結果124は、推定処理に用いられた三次元データ122に関連付けられてストレージ110に格納される。学習用データセット116は、推定モデル114の学習処理に用いられる一群の学習用データである。色分類データ118は、学習用データセット116の生成および学習処理に用いられるデータである。プロファイルデータ119は、対象者2に関する属性情報であって、当該対象者2の年齢、性別、人種、身長、体重、および居住地などのプロファイルがまとめられたデータ(たとえば、カルテの情報)である。データ処理用プログラム120は、歯牙を構成する複数の点のそれぞれに対して関連データを関連付けてその関連付けの結果を出力するといった処理を実行するためのプログラムであり、その一部には推定処理を実行するためのプログラムも含まれる。学習用プログラム121は、推定モデル114の学習処理を実行するためのプログラムであり、その一部には推定処理を実行するためのプログラムも含まれる。 The scan information 112 includes three-dimensional data 122 acquired by the three-dimensional scanner 200 and an estimation result 124 of estimation processing executed based on the three-dimensional data 122 . The estimation result 124 is stored in the storage 110 in association with the three-dimensional data 122 used in the estimation process. The learning data set 116 is a group of learning data used for learning processing of the estimation model 114 . The color classification data 118 is data used for generating the learning data set 116 and for learning processing. The profile data 119 is attribute information about the target person 2, and is data (for example, medical record information) in which profiles such as age, sex, race, height, weight, and place of residence of the target person 2 are summarized. be. The data processing program 120 is a program for executing processing such as associating relevant data with each of a plurality of points constituting a tooth and outputting the result of the association. A program for execution is also included. The learning program 121 is a program for executing the learning process of the estimation model 114, and part of it also includes a program for executing the estimation process.

演算装置130は、各種のプログラムを実行することで、推定処理および学習処理などの各種の処理を実行する演算主体であり、コンピュータの一例である。演算装置130は、たとえば、CPU(Central Processing Unit)132、FPGA(Field-Programmable Gate Array)134、およびGPU(Graphics Processing Unit)136などで構成される。 The arithmetic unit 130 is an arithmetic entity that executes various processes such as an estimation process and a learning process by executing various programs, and is an example of a computer. Arithmetic device 130 includes, for example, a CPU (Central Processing Unit) 132, an FPGA (Field-Programmable Gate Array) 134, a GPU (Graphics Processing Unit) 136, and the like.

なお、演算装置130は、CPU132、FPGA134、およびGPU136のうちの少なくともいずれか1つで構成されてもよいし、CPU132とFPGA134、FPGA134とGPU136、CPU132とGPU136、あるいはCPU132、FPGA134、およびGPU136から構成されてもよい。また、演算装置130は、演算回路(processing circuitry)と称されてもよい。 Arithmetic device 130 may be configured with at least one of CPU 132, FPGA 134, and GPU 136, or may be configured with CPU 132 and FPGA 134, FPGA 134 and GPU 136, CPU 132 and GPU 136, or CPU 132, FPGA 134, and GPU 136. may be Processing units 130 may also be referred to as processing circuitry.

[サーバ装置のハードウェア構成]
図4を参照しながら、本実施の形態に係るサーバ装置500のハードウェア構成の一例を説明する。図4は、本実施の形態に係るサーバ装置500のハードウェア構成を示す模式図である。サーバ装置500は、たとえば、汎用コンピュータで実現されてもよいし、データ処理システム10専用のコンピュータで実現されてもよい。
[Hardware Configuration of Server Device]
An example of the hardware configuration of server device 500 according to the present embodiment will be described with reference to FIG. FIG. 4 is a schematic diagram showing the hardware configuration of server device 500 according to the present embodiment. Server device 500 may be implemented by, for example, a general-purpose computer or a computer dedicated to data processing system 10 .

図4に示すように、サーバ装置500は、主なハードウェア要素として、ディスプレイインターフェース503と、周辺機器インターフェース505と、ネットワークコントローラ506と、メディア読取装置507と、メモリ509と、ストレージ510と、演算装置530とを備える。 As shown in FIG. 4, the server device 500 includes, as main hardware elements, a display interface 503, a peripheral device interface 505, a network controller 506, a media reader 507, a memory 509, a storage 510, and a computing device. and a device 530 .

ディスプレイインターフェース503は、ディスプレイ350を接続するためのインターフェースであり、サーバ装置500とディスプレイ350との間のデータの入出力を実現する。ディスプレイ350は、たとえば、LCDまたは有機ELDディスプレイなどで構成される。 The display interface 503 is an interface for connecting the display 350 and realizes input/output of data between the server device 500 and the display 350 . Display 350 is configured by, for example, an LCD or an organic ELD display.

周辺機器インターフェース505は、キーボード651およびマウス652などの周辺機器を接続するためのインターフェースであり、サーバ装置500と周辺機器との間のデータの入出力を実現する。 Peripheral device interface 505 is an interface for connecting peripheral devices such as keyboard 651 and mouse 652, and implements data input/output between server device 500 and the peripheral devices.

ネットワークコントローラ506は、ネットワーク5を介して、ローカルに配置されたデータ処理装置100、および歯科技工所に配置された装置のそれぞれとの間でデータを送受信する。ネットワークコントローラ506は、たとえば、イーサネット(登録商標)、無線LAN、Bluetooth(登録商標)などの任意の通信方式に対応してもよい。 The network controller 506 transmits and receives data via the network 5 to and from each of the locally located data processing apparatus 100 and the apparatus located at the dental laboratory. The network controller 506 may support any communication method such as Ethernet (registered trademark), wireless LAN, Bluetooth (registered trademark), or the like.

メディア読取装置507は、リムーバブルディスク550に格納されているスキャン情報などの各種データを読み出す。 The media reader 507 reads various data such as scan information stored in the removable disk 550 .

メモリ509は、演算装置530が任意のプログラムを実行するにあたって、プログラムコードやワークメモリなどを一時的に格納する記憶領域を提供する。メモリ509は、たとえば、DRAMまたはSRAMなどの揮発性メモリデバイスで構成される。 The memory 509 provides a storage area for temporarily storing program codes, work memory, etc. when the arithmetic unit 530 executes an arbitrary program. Memory 509 comprises, for example, a volatile memory device such as a DRAM or SRAM.

ストレージ510は、学習処理などに必要な各種のデータを格納する記憶領域を提供する。ストレージ510は、たとえば、ハードディスクまたはSSDなどの不揮発性メモリデバイスで構成される。 The storage 510 provides storage areas for storing various data necessary for learning processing and the like. The storage 510 is configured with a non-volatile memory device such as a hard disk or SSD, for example.

ストレージ510は、スキャン情報512と、推定モデル514(学習済モデル)と、学習用データセット516と、色分類データ518と、プロファイルデータ519と、学習用プログラム521と、OS527とを格納する。 Storage 510 stores scan information 512 , estimated model 514 (learned model), learning data set 516 , color classification data 518 , profile data 519 , learning program 521 , and OS 527 .

スキャン情報512は、ネットワーク5を介してローカルに配置されたデータ処理装置100および歯科技工所から取得した三次元データ522と、当該三次元データ522に基づき実行された推定処理による推定結果524とを含む。推定結果524は、推定処理に用いられた三次元データ522に関連付けられてストレージ510に格納される。学習用データセット516は、推定モデル514の学習処理に用いられる一群の学習用データである。色分類データ518は、学習用データセット516の生成および学習処理に用いられるデータである。プロファイルデータ519は、対象者2に関する属性情報であって、対象者2の年齢、性別、人種、身長、体重、および居住地などのプロファイルがまとめられたデータ(たとえば、カルテの情報)である。学習用プログラム521は、推定モデル514の学習処理を実行するためのプログラムであり、その一部には推定処理を実行するためのプログラムも含まれる。 The scan information 512 consists of three-dimensional data 522 acquired from the data processing apparatus 100 and the dental laboratory locally arranged via the network 5, and an estimation result 524 from an estimation process executed based on the three-dimensional data 522. include. The estimation result 524 is stored in the storage 510 in association with the three-dimensional data 522 used for the estimation process. A learning data set 516 is a group of learning data used for learning processing of the estimation model 514 . The color classification data 518 is data used for generating the learning data set 516 and for learning processing. The profile data 519 is attribute information about the subject 2, and is data in which the profile of the subject 2 such as age, sex, race, height, weight, place of residence, etc. is summarized (for example, medical record information). . The learning program 521 is a program for executing the learning process of the estimation model 514, and part of it also includes a program for executing the estimation process.

なお、推定モデル514(学習済モデル)は、ローカルのデータ処理装置100に送信されることで、データ処理装置100によって、推定モデル114(学習済モデル)として保持される。 Note that the estimated model 514 (learned model) is transmitted to the local data processing device 100 and is held as the estimated model 114 (learned model) by the data processing device 100 .

演算装置530は、各種のプログラムを実行することで、学習処理などの各種の処理を実行する演算主体であり、コンピュータの一例である。演算装置530は、たとえば、CPU532、FPGA534、およびGPU536などで構成される。 The arithmetic device 530 is an arithmetic entity that executes various types of processing such as learning processing by executing various programs, and is an example of a computer. Arithmetic device 530 includes, for example, CPU 532, FPGA 534, GPU 536, and the like.

なお、演算装置530は、CPU532、FPGA534、およびGPU536のうちの少なくともいずれか1つで構成されてもよいし、CPU532とFPGA534、FPGA534とGPU536、CPU532とGPU536、あるいはCPU532、FPGA534、およびGPU536から構成されてもよい。また、演算装置530は、演算回路(processing circuitry)と称されてもよい。 Note that the arithmetic device 530 may be configured with at least one of the CPU 532, FPGA 534, and GPU 536, or may include the CPU 532 and FPGA 534, the FPGA 534 and GPU 536, the CPU 532 and GPU 536, or the CPU 532, FPGA 534, and GPU 536. may be Processing units 530 may also be referred to as processing circuitry.

[データ処理装置による処理]
図5を参照しながら、本実施の形態に係るデータ処理装置100による推定処理の一例を説明する。図5は、本実施の形態に係るデータ処理装置100の機能構成を示す模式図である。図6は、本実施の形態に係るデータ処理装置100に入力される三次元データの内容を説明するための模式図である。図7は、本実施の形態に係るデータ処理装置100の推定対象となる歯牙の一例を示す模式図である。なお、図7においては、三次元スキャナ200のスキャン対象となる歯牙が線図によって表されている。
[Processing by data processor]
An example of estimation processing by data processing apparatus 100 according to the present embodiment will be described with reference to FIG. FIG. 5 is a schematic diagram showing the functional configuration of the data processing device 100 according to this embodiment. FIG. 6 is a schematic diagram for explaining the contents of three-dimensional data input to the data processing apparatus 100 according to this embodiment. FIG. 7 is a schematic diagram showing an example of a tooth to be estimated by the data processing apparatus 100 according to this embodiment. In FIG. 7, the tooth to be scanned by the three-dimensional scanner 200 is represented by a diagram.

図5に示すように、データ処理装置100は、データ処理に係る機能部として、入力部1102と、プロファイル取得部1119と、推定部1130と、関連付け部1101と、出力部1103とを有する。これらの各機能は、データ処理装置100の演算装置130がOS127およびデータ処理用プログラム120を実行することで実現される。 As shown in FIG. 5, the data processing apparatus 100 has an input unit 1102, a profile acquisition unit 1119, an estimation unit 1130, an association unit 1101, and an output unit 1103 as functional units related to data processing. Each of these functions is realized by the arithmetic unit 130 of the data processing device 100 executing the OS 127 and the data processing program 120 .

入力部1102には、三次元スキャナ200によって取得された三次元データが入力される。プロファイル取得部1119は、対象者2のプロファイルデータ119を取得する。推定部1130は、入力部1102に入力された三次元データと、プロファイル取得部1119によって取得された対象者2のプロファイルデータ119とに基づき、推定モデル114(学習済モデル)を用いて歯牙の種類を推定する推定処理を実行する。 Three-dimensional data acquired by the three-dimensional scanner 200 is input to the input unit 1102 . Profile acquisition unit 1119 acquires profile data 119 of subject 2 . The estimation unit 1130 uses the estimation model 114 (learned model) based on the three-dimensional data input to the input unit 1102 and the profile data 119 of the subject 2 acquired by the profile acquisition unit 1119 to determine the type of tooth. Perform an estimation process to estimate .

推定モデル114は、ニューラルネットワーク1142と、当該ニューラルネットワーク1142によって用いられるパラメータ1144とを含む。パラメータ1144は、ニューラルネットワーク1142による計算に用いられる重み付け係数と、識別の判定に用いられる判定値とを含む。関連付け部1101は、推定部1130による歯牙の種類の推定結果に基づき、入力部1102から入力された三次元データに対応する複数の点のそれぞれに対して歯牙の種類に関連する関連データを関連付ける。出力部1103は、関連付け部1101による関連付けの結果を、ディスプレイ300およびサーバ装置500などの出力装置に出力する。 Estimation model 114 includes a neural network 1142 and parameters 1144 used by neural network 1142 . Parameters 1144 include weighting factors used in calculations by neural network 1142 and decision values used to determine identity. The associating unit 1101 associates each of the points corresponding to the three-dimensional data input from the input unit 1102 with related data related to the tooth type based on the tooth type estimation result by the estimating unit 1130 . Output unit 1103 outputs the result of association by association unit 1101 to output devices such as display 300 and server device 500 .

ここで、図6に示すように、入力部1102に入力される三次元データには、歯牙の各点における三次元の位置情報と、歯牙の各点における色情報とが含まれる。位置情報は、予め定められた位置を基準とした三次元における絶対位置の座標を含む。たとえば、位置情報は、歯牙の各点における中心位置を原点として、X軸(たとえば、歯牙の横方向に沿った軸)、Y軸(たとえば、歯牙の縦方向に沿った軸)、およびZ軸(たとえば、歯牙の高さ方向に沿った軸)の各軸における絶対位置の座標を含む。なお、位置情報は、予め定められた位置を原点とした三次元における絶対位置の座標に限らず、たとえば、隣接する点からの距離および方向(ベクトル)を示す三次元における相対位置の座標を含んでいてもよい。 Here, as shown in FIG. 6, the three-dimensional data input to the input unit 1102 includes three-dimensional position information at each point on the tooth and color information at each point on the tooth. The position information includes the coordinates of the absolute position in three dimensions with reference to a predetermined position. For example, the positional information can be obtained by using the center position of each point of the tooth as the origin, the X-axis (for example, the axis along the lateral direction of the tooth), the Y-axis (for example, the axis along the longitudinal direction of the tooth), and the Z-axis. (eg, the axis along the height direction of the tooth). Note that the position information is not limited to coordinates of a three-dimensional absolute position with a predetermined position as the origin, but includes coordinates of a three-dimensional relative position indicating the distance and direction (vector) from an adjacent point, for example. You can stay.

ここで、図7に示すように、三次元スキャナ200のスキャン対象となる歯牙が上顎の切歯である場合、得られる三次元画像が、上唇側の部位、口蓋側の部位、および切縁側の部位の画像を少なくとも含むように、ユーザ1によって対象者2の口腔内がスキャンされる。また、三次元スキャナ200のスキャン対象となる歯牙が上顎の犬歯および臼歯である場合、得られる三次元画像が、頬側の部位、口蓋側の部位、および咬合する部位の画像を少なくとも含むように、ユーザ1によって対象者2の口腔内がスキャンされる。三次元スキャナ200のスキャン対象となる歯牙が下顎の切歯である場合、得られる三次元画像が、下唇側の部位、舌側の部位、および切縁側の部位の画像を少なくとも含むように、ユーザ1によって対象者2の口腔内がスキャンされる。三次元スキャナ200のスキャン対象となる歯牙が下顎の犬歯および臼歯である場合、得られる三次元画像が、頬側の部位、舌側の部位、および咬合する部位の画像を少なくとも含むように、ユーザ1によって対象者2の口腔内がスキャンされる。 Here, as shown in FIG. 7, when the tooth to be scanned by the three-dimensional scanner 200 is an incisor of the upper jaw, the obtained three-dimensional image is a region on the upper lip side, a region on the palate side, and a region on the incisal side. The oral cavity of a subject 2 is scanned by a user 1 so as to include at least an image of the site. Also, when the teeth to be scanned by the three-dimensional scanner 200 are the canines and molars of the upper jaw, the obtained three-dimensional image should include at least images of the buccal region, the palatal region, and the occlusal region. , the oral cavity of a subject 2 is scanned by a user 1 . When the tooth to be scanned by the three-dimensional scanner 200 is a mandibular incisor, the three-dimensional image obtained includes at least images of the lower lip side region, the lingual region, and the incisal side region. A user 1 scans the oral cavity of a subject 2 . When the teeth to be scanned by the three-dimensional scanner 200 are the canines and molars of the mandible, the resulting three-dimensional image includes at least images of the buccal region, the lingual region, and the occlusal region. 1 scans the oral cavity of a subject 2 .

一般的に、対象者2の歯牙は、その種類によって形状および大きさが異なる。たとえば、上顎の切歯の場合、上唇側の面は一般的にU字形であるのに対して、上顎の犬歯の場合、頬側の面は一般的に五角形である。各歯牙は、形状および大きさがその種類に応じて特徴的であり、推定部1130は、これらの特徴的な形状および大きさが数値化された三次元データに基づき、推定モデル114を用いて当該三次元データに対応する歯牙の種類を推定する。 In general, the teeth of the subject 2 differ in shape and size depending on their type. For example, for maxillary incisors, the upper labial surface is generally U-shaped, whereas for maxillary canines, the buccal surface is generally pentagonal. Each tooth has a characteristic shape and size according to its type, and the estimation unit 1130 uses the estimation model 114 based on three-dimensional data in which these characteristic shapes and sizes are quantified. The type of tooth corresponding to the three-dimensional data is estimated.

図5に示すように、推定モデル114は、ニューラルネットワーク1142を含む。ニューラルネットワーク1142においては、入力部1102に入力された三次元データに含まれる位置情報の値が入力層に入力される。そして、ニューラルネットワーク1142においては、たとえば、中間層によって、入力された位置情報の値に対して重み付け係数が乗算されたり所定のバイアスが加算されたりするとともに所定の関数による計算が行われ、その計算結果が判定値と比較される。そして、ニューラルネットワーク1142においては、その計算および判定の結果が推定結果として出力層から出力される。なお、ニューラルネットワーク1142による計算および判定については、三次元データに基づき歯牙を推定できるものであれば、いずれの手法が用いられてもよい。 As shown in FIG. 5, estimation model 114 includes neural network 1142 . In the neural network 1142, the value of the positional information included in the three-dimensional data input to the input unit 1102 is input to the input layer. In the neural network 1142, for example, the intermediate layer multiplies the value of the input positional information by a weighting factor or adds a predetermined bias, and performs calculation using a predetermined function. The result is compared with the decision value. Then, in the neural network 1142, the result of the calculation and determination is output from the output layer as the estimation result. Any method may be used for the calculation and determination by the neural network 1142 as long as the tooth can be estimated based on the three-dimensional data.

推定モデル114のニューラルネットワーク1142においては、中間層が多層構造になることで、ディープラーニングによる処理が行われる。本実施の形態においては、3次元画像に特化した推定処理を行うプログラムとして、たとえば、VoxNet、3D ShapeNets、Multi-View CNN、RotationNet、OctNet、FusionNet、PointNet、PointNet++、SSCNet、およびMarrNetなどが用いられるが、その他のプログラムが用いられてもよい。また、ニューラルネットワーク1142の仕組みには既存のものが適用されてもよい。 In the neural network 1142 of the estimation model 114, processing by deep learning is performed because the intermediate layer has a multi-layered structure. In the present embodiment, for example, VoxNet, 3D ShapeNets, Multi-View CNN, RotationNet, OctNet, FusionNet, PointNet, PointNet++, SSCNet, MarrNet, etc. are used as programs that perform estimation processing specialized for 3D images. program, but other programs may be used. Also, an existing mechanism may be applied to the mechanism of the neural network 1142 .

このような構成において、データ処理装置100は、歯牙を構成する複数の点に対応する三次元データが入力されると、当該複数の点における位置情報などに基づき、当該歯牙の特徴を推定モデル114のニューラルネットワーク1142を用いて抽出し、抽出した特徴に基づき、当該複数の点のそれぞれに対応する歯牙の種類を推定することができる。さらに、データ処理装置100は、複数の点のそれぞれに対応する歯牙の種類の推定結果に基づき、当該複数の点のそれぞれに対して歯牙の種類に関連する関連データを関連付けることができる。また、図5に示すように、推定対象となる歯牙に限らず、隣接する歯牙を含む三次元データについてもデータ処理装置100に入力されることで、推定モデル114のニューラルネットワーク1142は、隣接する複数の歯牙を構成する複数の点における位置情報などを考慮して歯牙の特徴を抽出することができる。データ処理装置100は、ユーザ1などによって一般的に認識されている歯牙の特徴に限らず、一般的に認識されていない歯牙の特徴についても抽出することができ、それによって精度良く歯牙の種類を識別することができる。 With such a configuration, when three-dimensional data corresponding to a plurality of points forming a tooth is input, the data processing apparatus 100 estimates the features of the tooth based on the positional information of the plurality of points. can be extracted using the neural network 1142, and the type of tooth corresponding to each of the plurality of points can be estimated based on the extracted features. Furthermore, the data processing device 100 can associate relevant data related to the tooth type with each of the plurality of points based on the estimation result of the tooth type corresponding to each of the plurality of points. In addition, as shown in FIG. 5, not only the tooth to be estimated but also three-dimensional data including adjacent teeth are input to the data processing apparatus 100, so that the neural network 1142 of the estimation model 114 It is possible to extract features of teeth by taking into consideration positional information of a plurality of points constituting a plurality of teeth. The data processing apparatus 100 can extract not only tooth features that are generally recognized by the user 1 or the like, but also tooth features that are not generally recognized, thereby accurately identifying the type of tooth. can be identified.

なお、サーバ装置500が保持する推定モデル514に含まれるニューラルネットワークは、図5に示した推定モデル114に含まれるニューラルネットワーク1142と同様の構成を有する。 The neural network included in estimation model 514 held by server device 500 has the same configuration as neural network 1142 included in estimation model 114 shown in FIG.

[学習用データの生成]
図8および図9を参照しながら、学習用データセット116の生成の一例を説明する。図8は、本実施の形態に係る学習用データの生成を説明するための模式図である。図9は、本実施の形態に係る学習用データセット116の一例を説明するための模式図である。
[Generation of learning data]
An example of generating the learning data set 116 will be described with reference to FIGS. 8 and 9. FIG. FIG. 8 is a schematic diagram for explaining generation of learning data according to the present embodiment. FIG. 9 is a schematic diagram for explaining an example of the learning data set 116 according to this embodiment.

図8に示すように、まず、三次元スキャナ200によって三次元データが取得される(STEP1)。三次元スキャナ200によって取得された三次元データは、当該三次元データに対応する歯牙および歯肉の各点における三次元の位置情報と、歯牙および歯肉の各点における色情報(RGB値)とを含む。三次元スキャナ200によって取得された三次元データに基づき三次元画像が生成されると、図8(a)に示すように実際の色が付された歯牙および歯肉を含む三次元画像が生成される。 As shown in FIG. 8, first, three-dimensional data is acquired by the three-dimensional scanner 200 (STEP 1). The three-dimensional data acquired by the three-dimensional scanner 200 includes three-dimensional position information at each point on the teeth and gums corresponding to the three-dimensional data, and color information (RGB values) at each point on the teeth and gums. . When a three-dimensional image is generated based on the three-dimensional data acquired by the three-dimensional scanner 200, a three-dimensional image including teeth and gums with actual colors is generated as shown in FIG. 8(a). .

次に、後述する各歯牙の色分け処理の準備として、ノイズ除去処理が行われる。たとえば、本実施の形態においては、三次元データに対応する3次元画像がグレースケール化される(STEP2)。3次元画像のグレースケール化は、ユーザ1(この場合、学習用データを生成するメーカの技術者または製造工場の作業者、歯科医師、歯科技工士などの歯科の知識を有する者など)によって行われる。三次元画像がグレースケール化されると、図8(b)に示すようにグレースケール化された歯牙および歯肉を含む三次元画像が生成される。また、三次元画像のグレースケール化に応じて、三次元データに対応する歯牙および歯肉の各点における色情報(RGB値)がグレースケールに対応する値(たとえば、192192192)に変更される。 Next, noise removal processing is performed in preparation for color-coding processing for each tooth, which will be described later. For example, in the present embodiment, a 3D image corresponding to 3D data is grayscaled (STEP 2). Grayscaling of the three-dimensional image is performed by the user 1 (in this case, a manufacturer engineer who generates learning data, an operator at a manufacturing plant, a dentist, a dental technician, or other person with dental knowledge). will be When the 3D image is grayscaled, a 3D image including grayscaled teeth and gums is generated as shown in FIG. 8(b). Further, in accordance with the grayscaling of the three-dimensional image, the color information (RGB values) at each point of the teeth and gums corresponding to the three-dimensional data is changed to a value corresponding to the grayscale (for example, 192192192).

次に、三次元データに対応する三次元画像に含まれる各歯牙に対して予め定められた色が塗布されることで各歯牙が色分けされる(STEP3)。たとえば、図9に示すように、データ処理装置100が保持する色分類データ118は、下顎左側、下顎右側、上顎左側、および上顎右側といったように口腔内の各部位ごとに設けられている。図9においては、下顎左側に対応する色分類データ118が示されている。各色分類データ118においては、歯牙の種類ごとに、歯科分野において一般的に用いられている歯牙の番号と、予め定められた色情報とが割り当てられている。 Next, each tooth is color-coded by applying a predetermined color to each tooth included in the three-dimensional image corresponding to the three-dimensional data (STEP 3). For example, as shown in FIG. 9, the color classification data 118 held by the data processing device 100 is provided for each site in the oral cavity such as the left mandible, the right mandible, the left mandible, and the right mandible. FIG. 9 shows color classification data 118 corresponding to the left side of the lower jaw. In each color classification data 118, a tooth number generally used in the dental field and predetermined color information are assigned to each tooth type.

たとえば、第二大臼歯は、歯牙の番号として7番が割り当てられ、色情報として色aが割り当てられている。第一大臼歯は、歯牙の番号として6番が割り当てられ、色情報として色bが割り当てられている。第二小臼歯は、歯牙の番号として5番が割り当てられ、色情報として色cが割り当てられている。このように、各色分類データ118においては、各歯牙の種類に対して歯牙の番号および色情報が予め割り当てられている。 For example, the second molar is assigned number 7 as the tooth number and color a as the color information. The first molar is assigned number 6 as the tooth number and color b as the color information. The second premolar is assigned number 5 as the tooth number and color c as the color information. Thus, in each color classification data 118, tooth numbers and color information are assigned in advance to each tooth type.

各歯牙に対する色の塗布は、ユーザ1(特に、歯科医師、歯科技工士などの歯科の知識を有する者など)によって行われる。具体的には、ユーザ1は、自身の知見に基づき三次元画像に含まれる各歯牙の種類を識別し、識別した歯牙の種類に対応する色を、色分類データ118を参照しながら特定し、特定した色を当該歯牙の画像に塗布する。 The application of color to each tooth is performed by a user 1 (in particular, a person with dental knowledge such as a dentist, dental technician, etc.). Specifically, the user 1 identifies the type of each tooth included in the three-dimensional image based on his/her own knowledge, identifies the color corresponding to the identified tooth type with reference to the color classification data 118, Apply the specified color to the image of the tooth.

たとえば、ユーザ1は、三次元画像に含まれる歯牙が第二大臼歯であると識別すると、当該歯牙の画像に色aを塗布する。また、三次元画像に含まれる歯牙が第一大臼歯であると識別すると、当該歯牙の画像に色bを塗布する。三次元画像に含まれる各歯牙に対して予め定められた色が塗布されると、図8(c)および図9(d)に示すように各歯牙に対して予め定められた色が塗布された三次元画像が生成される。なお、分かり易いように、図面上では各歯牙の色分けがハッチングで表されているが、実際には歯牙を構成する複数の点ごとに各歯牙が色分けされている。 For example, when the user 1 identifies that the tooth included in the three-dimensional image is the second molar, the user 1 applies color a to the image of the tooth. Further, when the tooth included in the three-dimensional image is identified as the first molar, the color b is applied to the image of the tooth. When the predetermined color is applied to each tooth included in the three-dimensional image, the predetermined color is applied to each tooth as shown in FIGS. 8(c) and 9(d). A three-dimensional image is generated. For the sake of clarity, each tooth is indicated by hatching in the drawing, but actually each tooth is color-coded for each of a plurality of points constituting the tooth.

また、各歯牙の色分けに応じて、三次元データに対応する歯牙の各点における色情報(RGB値)が各歯牙に塗布された色に対応する値に変更される。たとえば、色a(赤色)に塗布された第二大臼歯の各位置座標に対しては、色情報(RGB値)が“255000000”となり、色b(緑色)に塗布された第一大臼歯の各位置座標に対しては、色情報(RGB値)が“000255000”となり、色c(青色)に塗布された第二小臼歯の各位置座標に対しては、色情報(RGB値)が“00000255”となる。つまり、三次元データに対応する歯牙の各点に対して、予め定められた色情報(RGB値)が関連付けられる。 Further, according to the color coding of each tooth, the color information (RGB values) at each point of the tooth corresponding to the three-dimensional data is changed to a value corresponding to the color applied to each tooth. For example, for each position coordinate of the second molar painted in color a (red), the color information (RGB value) is "255000000", and for the first molar painted in color b (green) For each position coordinate, the color information (RGB value) is "000255000", and for each position coordinate of the second premolar tooth painted in color c (blue), the color information (RGB value) is " 00000255″. That is, predetermined color information (RGB values) is associated with each point of the tooth corresponding to the three-dimensional data.

各歯牙に対して予め定められた色情報が関連付けられると、三次元データには、位置情報と、塗布された色に対応する色情報とが含まれるようになり、このような三次元データが学習用データとして採用される。つまり、本実施の形態に係る学習用データにおいては、推定処理で参照される位置情報に対して、歯牙の種類に対応する色情報が関連付けられる(ラベリングされる)。さらに、三次元データに対応する複数の歯牙のそれぞれの範囲を特定可能に当該三次元データに色情報が関連付けられる。具体的には、各歯牙に対応する位置情報ごとに、同じ色情報が関連付けられる。このような学習用データの集まりが学習用データセット116として、データ処理装置100に保持される。 When predetermined color information is associated with each tooth, the three-dimensional data includes position information and color information corresponding to the applied color. Adopted as training data. That is, in the learning data according to the present embodiment, color information corresponding to the type of tooth is associated (labeled) with the position information referred to in the estimation process. Further, color information is associated with the three-dimensional data so that each range of a plurality of teeth corresponding to the three-dimensional data can be specified. Specifically, the same color information is associated with each piece of position information corresponding to each tooth. A collection of such learning data is held in the data processing device 100 as a learning data set 116 .

このように、学習用データを生成する際に、ユーザ1が三次元画像に含まれる各歯牙に色を塗布して正解データをラベリングすることにおいては、多くの利点がある。たとえば、単なる文字または記号を用いてラベリングした場合、ユーザ1は、各歯牙の範囲を認識し難いが、色分けによってラベリングした場合、ユーザ1は、ラベリング対象である歯牙と当該歯牙に隣接する歯牙との間の境界、およびラベリング対象である歯牙と歯肉との間の境界を色の塗布によって容易に認識することができる。また、ユーザ1は、ラベリング時に様々な角度から三次元画像を確認しながら色を塗布するが、視点の角度を変更した場合でも、ラベリング作業中の歯牙に対してどの範囲まで塗布が完了したのかを認識し易くなる。 In this way, there are many advantages in labeling correct data by applying colors to each tooth included in the three-dimensional image by the user 1 when generating learning data. For example, if the labeling is done using simple characters or symbols, the user 1 will find it difficult to recognize the range of each tooth, but if the labeling is done by color coding, the user 1 will be able to distinguish between the tooth to be labeled and the adjacent tooth. , and between the tooth and gingiva to be labeled can be easily recognized by the application of color. In addition, the user 1 applies the color while checking the three-dimensional image from various angles during labeling. becomes easier to recognize.

なお、本実施の形態においては、ユーザ1が自身の知見に基づき手作業で三次元画像に含まれる各歯牙に色を塗布しているが、一部の作業をソフトウェアで補うことも可能である。たとえば、ラベリング対象である歯牙と当該歯牙に隣接する歯牙との間の境界、およびラベリング対象である歯牙と歯肉との間の境界を、エッジ検出によって特定してもよく、このようにすれば、ラベリング対象である歯牙のみを抽出することができる。 In this embodiment, the user 1 manually applies the color to each tooth included in the three-dimensional image based on his/her own knowledge, but it is also possible to supplement part of the work with software. . For example, the boundary between the tooth to be labeled and the tooth adjacent to it, and the boundary between the tooth to be labeled and the gingiva may be identified by edge detection, such that: Only teeth that are labeling targets can be extracted.

なお、図8および図9に示す学習用データセット116の生成は、サーバ装置500が保持する学習用データセット516の生成についても適用可能である。たとえば、図9に示す学習用データセット116を、サーバ装置500が保持する学習用データセット516に適用してもよいし、図9に示す色分類データ118を、サーバ装置500が保持する色分類データ518に適用してもよい。 Generating the learning data set 116 shown in FIGS. 8 and 9 can also be applied to generating the learning data set 516 held by the server device 500 . For example, learning data set 116 shown in FIG. 9 may be applied to learning data set 516 held by server device 500, and color classification data 118 shown in FIG. It may be applied to data 518 .

[学習済モデルの生成]
図10を参照しながら、学習済モデルの生成の一例を説明する。図10は、本実施の形態に係る学習用データセット116に基づく学習済モデルの生成を説明するための模式図である。
[Generate trained model]
An example of generating a learned model will be described with reference to FIG. FIG. 10 is a schematic diagram for explaining generation of a trained model based on learning data set 116 according to the present embodiment.

図10に示すように、学習用データセット116は、当該学習用データセット116を生成する際にスキャン対象となった対象者2のプロファイルに基づきカテゴリごとに分類することができる。たとえば、年齢(未成年者,現役世代,高齢者)、性別(男性,女性)、人種(アジア人,欧米人,アフリカ系)、身長(150cm未満,150以上)、体重(50kg未満,50kg以上)、および居住地(日本在住,日本以外に在住)のそれぞれに対して、該当する対象者2の歯牙を含む三次元データから生成された学習用データセットを割り当てることができる。なお、各カテゴリの層別は、適宜設定可能である。たとえば、年齢に関しては、所定の年齢差ごと(この場合は3歳ごと)、具体的には、0歳~3歳、4歳~6歳、7歳~9歳、…といったように、より詳細に層別することができる。 As shown in FIG. 10, the learning data set 116 can be classified into categories based on the profile of the subject 2 who was scanned when the learning data set 116 was generated. For example, age (minor, working generation, elderly), gender (male, female), race (Asian, Western, African), height (less than 150 cm, 150 or more), weight (less than 50 kg, 50 kg) above), and place of residence (resident in Japan, residing outside of Japan) can be assigned a learning data set generated from three-dimensional data including the teeth of the corresponding subject 2 . Note that the stratification of each category can be set as appropriate. For example, with respect to age, for each predetermined age difference (every three years in this case), specifically, more detailed information such as 0 to 3 years old, 4 to 6 years old, 7 to 9 years old, etc. can be stratified into

データ処理装置100は、カテゴリごとに分類することができる複数の学習用データセット116a~116oを用いて推定モデル114を学習させることで、学習済モデルを生成する。なお、学習用データは、カテゴリの分類の仕方によっては重複することがあるが、学習用データが重複する場合には、いずれかの学習用データのみを用いて推定モデル114を学習させればよい。 The data processing device 100 generates a trained model by training the estimation model 114 using a plurality of training data sets 116a to 116o that can be classified by category. Note that the learning data may overlap depending on how the categories are classified, but if the learning data overlaps, the estimation model 114 may be trained using only one of the learning data. .

一般的に歯牙の形状は、年齢、性別、人種、身長、体重、および居住地など、遺伝または生活環境などに依存してその特徴が異なる。たとえば、一般的に、大人の永久歯は、子供の乳歯よりも大きく、両者でその形状が異なる。また、一般的に、男性の歯牙は、女性の歯牙よりも大きく、両者でその形状が異なる。また、一般的に、欧米人の歯牙は、硬い肉やパンを噛み切り易いように先端が尖る傾向があるのに対して、日本人の歯牙は、柔らかい米や野菜をすり潰し易いように先端が滑らかになる傾向がある。このため、本実施の形態のように、プロファイルデータに基づき学習処理を実行すれば、遺伝または生活環境などを考慮して歯牙の種類を識別することができる学習済モデルを生成することができる。 In general, tooth shape differs depending on genetics or living environment such as age, sex, race, height, weight, place of residence, and the like. For example, the permanent teeth of adults are generally larger than the milk teeth of children, and the two have different shapes. In general, male teeth are larger than female teeth, and the two have different shapes. In general, the teeth of Westerners tend to have sharp tips so that they can easily bite off hard meat and bread, whereas the teeth of Japanese people tend to have sharp tips so that they can easily grind soft rice and vegetables. It tends to be smooth. Therefore, by performing learning processing based on profile data as in the present embodiment, it is possible to generate a trained model that can identify the type of tooth in consideration of heredity or living environment.

なお、図10に示す学習済モデルの生成は、サーバ装置500が保持する学習済モデルの生成についても適用可能である。たとえば、図10に示す学習用データセット116a~116oを、サーバ装置500が保持する学習用データセット516に適用してもよいし、図10に示す推定モデル114を、サーバ装置500が保持する推定モデル514に適用してもよい。 It should be noted that the generation of the trained model shown in FIG. 10 can also be applied to the generation of the trained model held by the server device 500 . For example, the learning data sets 116a to 116o shown in FIG. It may be applied to model 514 .

[関連付け結果の出力の一例]
図11~図14を参照しながら、歯牙および歯肉を構成する各点に対して関連付けられた関連付け結果の出力の一例を説明する。図11および図12は、本実施の形態に係る関連付け結果の出力の一例を説明するための模式図である。図13および図14は、本実施の形態に係る出力データの一例を説明するための模式図である。
[Example of association result output]
An example of the output of association results associated with each point constituting the tooth and gum will be described with reference to FIGS. 11 to 14. FIG. 11 and 12 are schematic diagrams for explaining an example of output of the association result according to the present embodiment. 13 and 14 are schematic diagrams for explaining an example of output data according to this embodiment.

図11(a)に示すように、三次元スキャナ200による口腔内のスキャンが開始した当初においては、得られた三次元データの数が少ないため、データ処理装置100は、各三次元データに対応する各点に対して歯牙の種類を推定することができない。また、データ処理装置100は、各点に対して歯牙を推定することができないため、歯牙と歯肉とを区別することもできない。よって、データ処理装置100は、各点に対して、歯牙の種類に関連する関連データとして色情報を関連付けることもできないため、ディスプレイ300の画面上には、関連データが関連付けされていない状態で、スキャンによって得られた三次元データに対応する各点が表示される。 As shown in FIG. 11( a ), at the beginning of intraoral scanning by the three-dimensional scanner 200 , the number of three-dimensional data obtained is small, so the data processing device 100 corresponds to each three-dimensional data. Tooth type cannot be estimated for each point. Further, since the data processing apparatus 100 cannot estimate the tooth for each point, it cannot distinguish between the tooth and the gingiva. Therefore, the data processing apparatus 100 cannot associate color information with each point as related data related to the type of tooth. Each point corresponding to the three-dimensional data obtained by scanning is displayed.

図13(a)は、図11(a)に示すディスプレイ300による画像表示に用いられる出力データの一例を示している。図13(a)に示すように、出力データは、スキャンによって得られた各点の位置情報と、当該位置情報に関連付けられた色情報(関連データ)とを含むが、未だ各点に対して歯牙の種類が推定されていないため、各点の位置情報には、色情報(関連データ)としてグレースケールに対応する値(192192192)が関連付けられている。なお、色情報としてグレースケールに対応する値が各点に関連付けられた場合、図11(a)に示すように、当該各点が四角で表されるが、実際は、ディスプレイ300の画面上の各点がグレー色で表される。 FIG. 13(a) shows an example of output data used for image display by the display 300 shown in FIG. 11(a). As shown in FIG. 13(a), the output data includes positional information of each point obtained by scanning and color information (associated data) associated with the positional information. Since the type of tooth is not estimated, the position information of each point is associated with the value (192192192) corresponding to the gray scale as color information (related data). When a value corresponding to a grayscale is associated with each point as color information, each point is represented by a square as shown in FIG. Points are represented in gray.

図11(b)に示すように、三次元スキャナ200による口腔内のスキャンがある程度進むと、得られた三次元データの数が増えてくる。ある一の点に注目すると、当該一の点の周りに位置する他の点の三次元データがデータ処理装置100に入力され、その入力される他の点の三次元データの数が次第に増える。データ処理装置100は、推定モデル114を用いた推定処理において、当該一の点と他の点との間の関係(たとえば、両者の間の距離,一の点から他の点に向かうベクトル)に基づき、当該一の点における歯牙の種類を推定する。このため、データ処理装置100に入力される三次元データの数が増えることによって、データ処理装置100は、各点に対応する歯牙の種類を次第に推定することができるようになり、歯牙と歯肉とを区別することもできるようになる。よって、データ処理装置100は、各点に対して関連データ(色情報)を関連付けることもでき、ディスプレイ300の画面上には、関連データが関連付けされた状態で、スキャンによって得られた三次元データに対応する各点が表示される。 As shown in FIG. 11B, as the intraoral scanning by the three-dimensional scanner 200 progresses to some extent, the number of three-dimensional data obtained increases. Focusing on one point, three-dimensional data of other points located around the one point is input to the data processing device 100, and the number of input three-dimensional data of other points gradually increases. In the estimation process using the estimation model 114, the data processing device 100 determines the relationship between the one point and the other point (for example, the distance between the two, the vector from the one point to the other point). Based on this, the type of tooth at the one point is estimated. Therefore, as the number of three-dimensional data input to the data processing apparatus 100 increases, the data processing apparatus 100 can gradually estimate the type of tooth corresponding to each point. can also be distinguished. Therefore, the data processing device 100 can also associate relevant data (color information) with each point, and the three-dimensional data obtained by scanning can be displayed on the screen of the display 300 with the relevant data associated. Each point corresponding to is displayed.

ここで、データ処理装置100に入力される三次元データの数が増えたとしても、周りの点に対応する三次元データの数が不十分だと、データ処理装置100は、歯牙の種類を推定することができないこともある。たとえば、図11(b)に示すように、一部の点については、歯牙の種類を推定することが未だできていないため、当該一部の点に対して関連データ(色情報)を関連付けることもできない。後述するが、このような関連データが関連付けできない一部の点についても、データ処理装置100は、入力される三次元データの数が増えることによって、次第に関連データを関連付けることができるようになる。 Here, even if the number of three-dimensional data input to the data processing device 100 increases, if the number of three-dimensional data corresponding to the surrounding points is insufficient, the data processing device 100 estimates the type of tooth. sometimes you can't. For example, as shown in FIG. 11(b), for some points, the type of tooth cannot be estimated yet, so it is necessary to associate related data (color information) with those points. I can't do it either. As will be described later, the data processing device 100 can gradually associate related data even for some points that cannot be associated with related data as the number of input three-dimensional data increases.

図13(b)は、図11(b)に示すディスプレイ300による画像表示に用いられる出力データの一例を示している。図13(b)に示すように、歯牙の種類が推定された点については、色情報(関連データ)として歯牙の種類に対応する色aの値(255000000)が関連付けられ、歯牙の種類が推定されていない点については、色情報(関連データ)としてグレースケールに対応する値が関連付けられている。なお、色情報として歯牙の種類に対応する色aの値が各点に関連付けられた場合、図11(b)に示すように、当該各点が丸で表されるが、実際は、ディスプレイ300の画面上の各点が色a(たとえば、赤色)で表される。 FIG. 13(b) shows an example of output data used for image display by the display 300 shown in FIG. 11(b). As shown in FIG. 13(b), the point where the tooth type is estimated is associated with the value of color a (255000000) corresponding to the tooth type as color information (related data), and the tooth type is estimated. Points that are not marked are associated with values corresponding to grayscale as color information (related data). When the value of color a corresponding to the type of tooth is associated with each point as color information, each point is represented by a circle as shown in FIG. Each point on the screen is represented by color a (eg, red).

このように、データ処理装置100は、入力された一の三次元データについて、当該一の三次元データの特定範囲内に含まれる他の三次元データとの関係(距離,ベクトル)に基づき、当該一の三次元データに対応する点における歯牙の種類を推定する。 In this way, the data processing apparatus 100, for one input three-dimensional data, based on the relationship (distance, vector) with other three-dimensional data contained within a specific range of the one three-dimensional data, A tooth type is estimated at a point corresponding to one three-dimensional data.

より具体的に例示すると、データ処理装置100は、情報量が少ないために任意の一の点(一の三次元データに対応する注目点)について歯牙の種類を推定できなかった場合、または誤って推定してしまった場合でも、その後、当該一の点(注目点)を中心に任意の半径で球を描いた範囲内(特定範囲内)に存在する他の点(他の三次元データに対応する点)について歯牙の種類を推定できた場合には、当該特定範囲内に最も多い割合で存在する点に対応する歯牙の種類を、当該一の点(注目点)に対応する歯牙の種類とする。このように、データ処理装置100は、一の点に注目して、当該一の点(注目点)の特定範囲内に存在する他の点についての歯牙の種類の推定結果を考慮して、当該一の点(注目点)についての歯牙の種類を推定する。なお、本実施の形態においては、歯牙を構成する各点が三次元データで表されるため、「特定範囲内」を一の点(注目点)を中心に任意の半径で球を描いた範囲内としたが、「特定範囲内」は球を描いた範囲内に限らず、一の点(注目点)を取り囲む直方体や立方体の範囲内であってもよい。あるいは、他の点のうち、一の点(注目点)から三次元的な距離で一番近い他の点から、近い順番に任意の数を選び出してもよい。「特定範囲内」は、一の点(注目点)を取り囲む範囲内であって、かつ当該一の点(注目点)についての歯牙の種類の推定結果に影響を与える可能性のある点が存在する範囲内であればいずれの範囲内であってもよい。 As a more specific example, data processing apparatus 100 cannot estimate the type of tooth for any one point (attention point corresponding to one three-dimensional data) due to a small amount of information, or Even if it is estimated, after that, other points (corresponding to other 3D data If the type of tooth can be estimated for the point (point of interest), the type of tooth corresponding to the point that exists in the largest proportion within the specific range is regarded as the type of tooth corresponding to the point (point of interest). do. In this way, the data processing device 100 focuses on one point, considers the tooth type estimation results for other points existing within a specific range of the one point (point of interest), and Estimate the type of tooth for one point (point of interest). In the present embodiment, since each point constituting the tooth is represented by three-dimensional data, the "within a specific range" is a range drawn with an arbitrary radius centered on one point (point of interest). However, "within a specific range" is not limited to the range within which the sphere is drawn, and may be within the range of a rectangular parallelepiped or cube surrounding one point (point of interest). Alternatively, an arbitrary number may be selected in order of proximity from other points that are three-dimensionally closest to one point (target point) from among the other points. “Within a specific range” means a range surrounding one point (point of interest), and there is a point that may affect the result of estimating the type of tooth for the one point (point of interest). It may be within any range as long as it is within the range.

そして、データ処理装置100は、その推定結果に基づき、入力された三次元データに対応する複数の点のそれぞれに対して、推定した歯牙の種類に対応する色aの関連データを関連付ける。これにより、データ処理装置100は、色aの色情報を含む関連データを用いて、スキャン対象となった歯牙を識別することができる。さらに、データ処理装置100は、色aによって歯牙を識別することで、隣り合う複数の歯牙の各々を区別することができ、歯牙とその隣の歯牙との境界を色によって表すことができる。また、データ処理装置100は、色aによって歯牙を識別することで、歯牙と歯肉とを区別することができ、歯牙と歯肉との境界を色によって表すことができる。 Then, based on the estimation result, the data processing device 100 associates the related data of the color a corresponding to the estimated tooth type with each of the plurality of points corresponding to the input three-dimensional data. Thereby, the data processing apparatus 100 can identify the tooth to be scanned using the related data including the color information of the color a. Further, the data processing device 100 can distinguish each of a plurality of adjacent teeth by identifying the tooth with the color a, and can represent the boundary between the tooth and its adjacent tooth with the color. Further, the data processing apparatus 100 can distinguish between the tooth and the gum by identifying the tooth with the color a, and can represent the boundary between the tooth and the gum with the color.

図11(c)に示すように、三次元スキャナ200による口腔内のスキャンがさらに進むと、得られた三次元データの数がさらに増えてくる。そうすると、データ処理装置100は、歯牙の種類を推定できていなかった一部の点についても、歯牙の種類を推定することができる。このようにして、歯牙1本分の関連付けが完了する。 As shown in FIG. 11(c), as the intraoral scanning by the three-dimensional scanner 200 progresses further, the number of three-dimensional data obtained further increases. Then, the data processing apparatus 100 can estimate the tooth type even for some points where the tooth type could not be estimated. In this way, the association for one tooth is completed.

図13(c)は、図11(c)に示すディスプレイ300による画像表示に用いられる出力データの一例を示している。図13(c)に示すように、歯牙の種類が推定された点については、色情報(関連データ)として歯牙の種類に対応する色aの値が関連付けられる。さらに、歯牙の種類を推定できていなかった一部の点についても、歯牙の種類が推定されたため、関連付けられる関連データがグレースケールに対応する値から歯牙の種類に対応する色aの値に変更される。 FIG. 13(c) shows an example of output data used for image display by the display 300 shown in FIG. 11(c). As shown in FIG. 13(c), the point for which the tooth type is estimated is associated with the color a value corresponding to the tooth type as color information (related data). Furthermore, for some points where the tooth type could not be estimated, the tooth type was estimated, so the associated related data changed from the value corresponding to the gray scale to the color a value corresponding to the tooth type. be done.

このように、データ処理装置100は、入力された一の三次元データに対応する点に対してグレースケールに対応する値の関連データを関連付けた後、当該一の三次元データの特定範囲内に含まれる他の三次元データに対応する点に対して関連付けた歯牙の種類に対応する色aの関連データに基づき、当該一の三次元データに対応する点に対して関連付けたグレースケールに対応する値の関連データを、歯牙の種類に対応する色aの関連データに変更する。 In this way, the data processing device 100 associates the point corresponding to the input three-dimensional data with the related data of the value corresponding to the gray scale, and then, within the specific range of the one three-dimensional data Corresponding to the gray scale associated with the point corresponding to the one three-dimensional data based on the related data of the color a corresponding to the tooth type associated with the point corresponding to the other three-dimensional data included The value related data is changed to the color a related data corresponding to the tooth type.

より具体的に例示すると、データ処理装置100は、情報量が少ないために任意の一の点(一の三次元データに対応する注目点)について歯牙の種類を推定できずに一旦グレースケールに対応する値を関連付けた場合でも、その後、当該一の点(注目点)を中心に任意の半径で球を描いた範囲内(特定範囲内)に存在する他の点(他の三次元データに対応する点)について歯牙の種類を推定できた場合には、当該特定範囲内に最も多い割合で存在する点に対応する歯牙の種類を、当該一の点(注目点)に対応する歯牙の種類とする。このように、データ処理装置100は、一の点に注目して、当該一の点(注目点)の特定範囲内に存在する点についての歯牙の種類の推定結果を考慮して、当該一の点(注目点)についての歯牙の種類を推定する。 To give a more specific example, the data processing apparatus 100 cannot estimate the type of tooth for any one point (attention point corresponding to one three-dimensional data) due to the small amount of information, and once corresponds to gray scale. Even if a value is associated with the other point (point of interest), other points existing within the range (within a specific range) where a sphere is drawn with an arbitrary radius centered on the point (point of interest) (corresponding to other three-dimensional data If the type of tooth can be estimated for the point (point of interest), the type of tooth corresponding to the point that exists in the largest proportion within the specific range is regarded as the type of tooth corresponding to the point (point of interest). do. In this way, the data processing apparatus 100 focuses on one point, considers the result of estimating the tooth type for points existing within a specific range of the one point (point of interest), and Estimate the type of tooth for a point (point of interest).

図12(d)に示すように、次の歯牙のスキャンが開始した当初においては、得られた三次元データの数が少ないため、データ処理装置100は、各三次元データに対応する各点に対して歯牙の種類を推定することができない。また、データ処理装置100は、各点に対して歯牙を推定することができないため、歯牙と歯肉とを区別することもできない。よって、データ処理装置100は、各点に対して歯牙の種類に関連する関連データとして色情報を関連付けることもできないため、ディスプレイ300の画面上には、関連データが関連付けされていない状態で、スキャンによって得られた三次元データに対応する各点が表示される。 As shown in FIG. 12(d), at the beginning of the scan of the next tooth, the number of three-dimensional data obtained is small. On the other hand, the type of tooth cannot be estimated. Further, since the data processing apparatus 100 cannot estimate the tooth for each point, it cannot distinguish between the tooth and the gingiva. Therefore, since the data processing apparatus 100 cannot associate color information with each point as related data related to the type of tooth, the scanned image is displayed on the screen of the display 300 in a state in which the related data is not related. Each point corresponding to the three-dimensional data obtained by is displayed.

図14(d)は、図12(d)に示すディスプレイ300による画像表示に用いられる出力データの一例を示している。図14(d)に示すように、未だ各点に対して歯牙の種類が推定されていないため、各点の位置情報には、色情報(関連データ)としてグレースケールに対応する値が関連付けられている。 FIG. 14(d) shows an example of output data used for image display by the display 300 shown in FIG. 12(d). As shown in FIG. 14(d), since the tooth type has not yet been estimated for each point, the position information of each point is associated with a value corresponding to a grayscale as color information (related data). ing.

図12(e)に示すように、三次元スキャナ200による口腔内のスキャンがある程度進むと、得られた三次元データの数が増えてくる。そうすると、ある一の点に注目すると、当該一の点の周りに位置する他の点の三次元データがデータ処理装置100に入力され、その入力される他の点の三次元データの数が増えてくる。このため、データ処理装置100に入力される三次元データの数が増えることによって、データ処理装置100は、各点に対応する歯牙の種類を推定することができるようになり、歯牙と歯肉とを区別することもできるようになる。よって、データ処理装置100は、各点に対して関連データ(色情報)を関連付けることもでき、ディスプレイ300の画面上には、関連データが関連付けされた状態で、スキャンによって得られた三次元データに対応する各点が表示される。 As shown in FIG. 12(e), as the intraoral scanning by the three-dimensional scanner 200 progresses to some extent, the number of three-dimensional data obtained increases. Then, when a certain point is focused on, three-dimensional data of other points located around the one point are input to the data processing device 100, and the number of input three-dimensional data of other points increases. come. Therefore, by increasing the number of three-dimensional data input to the data processing device 100, the data processing device 100 can estimate the type of tooth corresponding to each point, and distinguish between the tooth and the gingiva. can also be distinguished. Therefore, the data processing device 100 can also associate relevant data (color information) with each point, and the three-dimensional data obtained by scanning can be displayed on the screen of the display 300 with the relevant data associated. Each point corresponding to is displayed.

ここで、データ処理装置100に入力される三次元データの数が増えたとしても、周りの点に対応する三次元データによっては、データ処理装置100は、歯牙の種類を誤って推定することもある。たとえば、図12(e)に示すように、一部の点については、歯牙の種類を誤って推定しているため、当該一部の点に対して誤った値の関連データ(色情報)を関連付けしている。後述するが、このように誤った関連データが関連付けられた一部の点についても、データ処理装置100は、入力される三次元データの数が増えることによって、次第に正しい関連データを関連付けることができるようになる。 Here, even if the number of three-dimensional data input to the data processing device 100 increases, the data processing device 100 may incorrectly estimate the type of tooth depending on the three-dimensional data corresponding to the surrounding points. be. For example, as shown in FIG. 12(e), since the tooth type is incorrectly estimated for some points, the associated data (color information) with incorrect values for those points is generated. Associated. As will be described later, the data processing device 100 can gradually associate correct related data even for some points associated with incorrect related data as the number of input three-dimensional data increases. become.

図14(e)は、図12(e)に示すディスプレイ300による画像表示に用いられる出力データの一例を示している。図14(e)に示すように、正しく歯牙の種類が推定された点については、色情報(関連データ)として正しい歯牙の種類に対応する色bの値(000255000)が関連付けられ、誤って歯牙の種類が推定された点については、色情報(関連データ)として誤った歯牙の種類に対応する色aの値が関連付けられている。なお、色情報として歯牙の種類に対応する色bの値が各点に関連付けられた場合、図12(e)に示すように、当該各点が×で表されるが、実際は、ディスプレイ300の画面上の各点が色b(たとえば、緑色)で表される。 FIG. 14(e) shows an example of output data used for image display by the display 300 shown in FIG. 12(e). As shown in FIG. 14(e), the points for which the tooth type was correctly estimated are associated with the color b value (000255000) corresponding to the correct tooth type as color information (related data). The point for which the type of is estimated is associated with the color a value corresponding to the wrong tooth type as color information (related data). When the value of color b corresponding to the type of tooth is associated with each point as color information, each point is represented by x as shown in FIG. Each point on the screen is represented by color b (eg, green).

このように、データ処理装置100は、入力された一の三次元データについて、当該一の三次元データの特定範囲内に含まれる他の三次元データとの関係(距離,ベクトル)に基づき、当該一の三次元データに対応する点における歯牙の種類を推定する。そして、データ処理装置100は、その推定結果に基づき、入力された三次元データに対応する複数の点のそれぞれに対して、推定した歯牙の種類に対応する色bの関連データを関連付ける。これにより、データ処理装置100は、色bの色情報を含む関連データを用いて、スキャン対象となった歯牙を識別することができる。さらに、データ処理装置100は、色bによって歯牙を識別することで、歯牙と歯肉とを区別することができ、歯牙と歯肉との境界を色によって表すことができる。 In this way, the data processing apparatus 100, for one input three-dimensional data, based on the relationship (distance, vector) with other three-dimensional data contained within a specific range of the one three-dimensional data, A tooth type is estimated at a point corresponding to one three-dimensional data. Then, based on the estimation result, the data processing device 100 associates the related data of the color b corresponding to the estimated tooth type with each of the plurality of points corresponding to the input three-dimensional data. As a result, the data processing apparatus 100 can identify the tooth to be scanned using the related data including the color information of the color b. Further, the data processing apparatus 100 can distinguish between the tooth and the gum by identifying the tooth with the color b, and can represent the boundary between the tooth and the gum with the color.

図12(f)に示すように、三次元スキャナ200による口腔内のスキャンがさらに進むと、得られた三次元データの数がさらに増えてくる。そうすると、データ処理装置100は、誤って歯牙の種類を推定していた一部の点についても、正しく歯牙の種類を推定することができる。 As shown in FIG. 12(f), as the intraoral scanning by the three-dimensional scanner 200 progresses further, the number of three-dimensional data obtained further increases. Then, the data processing apparatus 100 can correctly estimate the tooth type even for some points where the tooth type was erroneously estimated.

図14(f)は、図12(f)に示すディスプレイ300による画像表示に用いられる出力データの一例を示している。図14(f)に示すように、歯牙の種類が推定された点については、色情報(関連データ)として歯牙の種類に対応する色bの値が関連付けられる。さらに、誤って歯牙の種類を推定していた一部の点についても、正しく歯牙の種類が推定されたため、関連付けられる関連データが誤った歯牙の種類に対応する色aの値から正しい歯牙の種類に対応する色bの値に変更される。 FIG. 14(f) shows an example of output data used for image display by the display 300 shown in FIG. 12(f). As shown in FIG. 14(f), the point for which the tooth type is estimated is associated with the color b value corresponding to the tooth type as color information (related data). Furthermore, for some points where the tooth type was erroneously estimated, the tooth type was correctly estimated. is changed to the value of color b corresponding to .

このように、データ処理装置100は、入力された一の三次元データに対応する点に対して誤った歯牙の種類に対応する色aの関連データを関連付けた後、当該一の三次元データの特定範囲内に含まれる他の三次元データに対応する点に対して関連付けた正しい歯牙の種類に対応する色bの関連データに基づき、当該一の三次元データに対応する点に対して関連付けた色aの関連データを、色bの関連データに変更する。 In this way, the data processing apparatus 100 associates the point corresponding to the one input three-dimensional data with the related data of the color a corresponding to the wrong tooth type, and then Based on the related data of the color b corresponding to the correct tooth type associated with the point corresponding to the other three-dimensional data included in the specific range, the point corresponding to the one three-dimensional data is associated Change the related data of color a to the related data of color b.

より具体的に例示すると、データ処理装置100は、任意の一の点(一の三次元データに対応する点)について歯牙の種類がA(たとえば、色aに対応する歯牙)であると一旦推定した後、当該一の点(注目点)を中心に任意の半径で球を描いた範囲内(特定範囲内)に存在する他の点(他の三次元データに対応する点)について歯牙の種類を推定する。そして、一の点(注目点)の特定範囲内に存在する点の中に、歯牙の種類がB(たとえば、色bに対応する歯牙)であると推定した点が歯牙の種類がAであると推定した点よりも多く存在し、かつ最も多い割合で存在する場合、データ処理装置100は、当該一の点(注目点)についての歯牙の種類をAからBに変更する。このように、データ処理装置100は、一の点に注目して、当該一の点(注目点)の特定範囲内に存在する点についての歯牙の種類の推定結果を考慮して、当該一の点(注目点)についての歯牙の種類の推定結果を補正(変更)し、当該一の点(注目点)に対応する三次元データ関連付けられた関連データを変更する。 As a more specific example, the data processing device 100 once estimates that the tooth type is A (for example, the tooth corresponding to color a) for any one point (point corresponding to one three-dimensional data). After that, the type of tooth for other points (points corresponding to other three-dimensional data) existing within a range (within a specific range) where a sphere is drawn with an arbitrary radius centered on the one point (point of interest) to estimate Among the points existing within the specific range of one point (target point), the point estimated to be tooth type B (for example, the tooth corresponding to color b) is tooth type A. If there are more points than the estimated points and they exist at the highest ratio, the data processing apparatus 100 changes the tooth type from A to B for the one point (target point). In this way, the data processing apparatus 100 focuses on one point, considers the result of estimating the tooth type for points existing within a specific range of the one point (point of interest), and Correct (change) the tooth type estimation result for the point (point of interest), and change the related data associated with the three-dimensional data corresponding to the one point (point of interest).

なお、一旦、一の点(注目点)について歯牙の種類を誤って推定して、当該一の点(注目点)に対応する三次元データに誤った関連データを関連付けた後、当該一の点(注目点)の特定範囲内に存在する点についての推定結果を考慮して当該一の点(注目点)についての推定結果を補正する場合、データ処理装置100は、当該一の点(注目点)に対応する三次元データに関連付けた関連データを、いずれのタイミングで変更してもよい。たとえば、データ処理装置100は、一の点(注目点)の特定範囲内に存在する点についての推定結果を考慮して当該一の点(注目点)についての推定結果を補正すると判断したタイミングで、当該一の点(注目点)に対応する三次元データに関連付けた関連データを正しい関連データに変更してもよい。あるいは、データ処理装置100は、一の点(注目点)の特定範囲内に存在する点についての推定結果を考慮して当該一の点(注目点)についての推定結果を補正すると判断した後、所定時間が経過したタイミング、または所定量の三次元データが追加で取得されたタイミング、あるいは三次元スキャナ200によるスキャンが終了したタイミングなどで、当該一の点(注目点)に対応する三次元データに関連付けた関連データを正しい関連データに変更してもよい。 In addition, once the type of tooth is erroneously estimated for one point (point of interest), and after associating erroneous related data with the three-dimensional data corresponding to the one point (point of interest), When correcting the estimation result for one point (point of interest) in consideration of the estimation result for points existing within a specific range of (point of interest), data processing device 100 corrects the one point (point of interest). ) may be changed at any timing. For example, at the timing when data processing device 100 determines to correct the estimation result for one point (point of interest) in consideration of the estimation results for points existing within a specific range of the one point (point of interest). , the related data associated with the three-dimensional data corresponding to the one point (target point) may be changed to correct related data. Alternatively, after determining that data processing device 100 corrects the estimation result for one point (point of interest) in consideration of the estimation results for points existing within a specific range of the one point (point of interest), Three-dimensional data corresponding to the one point (point of interest) at the timing when a predetermined amount of time has passed, the timing when a predetermined amount of three-dimensional data is additionally acquired, or the timing when the scanning by the three-dimensional scanner 200 is completed. may be changed to correct related data.

このように、データ処理装置100は、入力された三次元データに対応する複数の点が集まった点群を表示することによって、色情報を含む関連データを用いて歯牙をその種類ごとに分類(セグメント化)することができる。また、データ処理装置100は、色情報を含む関連データを用いて点ごとに歯牙を識別することで、歯牙と歯肉とを区別することができ、歯牙と歯肉との境界を色によって表すことができる。さらに、データ処理装置100は、色情報を含む関連データを用いて点ごとに歯牙を識別することで、入力された三次元データを2次元のイラスト画像で表示して作業する際に利用し易くなる。これにより、データ処理装置100は、矯正歯科において矯正用の器具のデジタル設計を容易にさせることができる。 In this way, the data processing apparatus 100 displays a point group in which a plurality of points corresponding to the input three-dimensional data are collected, thereby classifying teeth by type using related data including color information ( segmentation). Further, the data processing apparatus 100 can distinguish between teeth and gums by identifying the teeth for each point using related data including color information, and can represent the boundary between the teeth and gums by color. can. Further, the data processing apparatus 100 identifies teeth for each point using related data including color information, thereby displaying the input three-dimensional data as a two-dimensional illustration image for easy use when working. Become. Thereby, the data processing device 100 can facilitate the digital design of orthodontic appliances in orthodontics.

さらに、データ処理装置100は、口腔内において隣接する複数の歯牙および歯肉を構成する各点に対して歯牙の種類を推定することができるため、隣接する歯牙の形状との関係も考慮してニューラルネットワーク1142を含む推定モデル114によって歯牙の特徴を抽出させることができるため、精度良く歯牙の種類を推定することができる。 Furthermore, since the data processing apparatus 100 can estimate the type of tooth for each point that constitutes a plurality of adjacent teeth and gingiva in the oral cavity, it is possible to perform neural calculation in consideration of the relationship with the shape of the adjacent tooth. Since the tooth features can be extracted by the estimation model 114 including the network 1142, the type of tooth can be estimated with high accuracy.

[データ処理装置の学習処理]
図15を参照しながら、データ処理装置100が実行する学習処理について説明する。図11は、本実施の形態に係るデータ処理装置100が実行する学習処理の一例を説明するためのフローチャートである。本実施の形態において、データ処理装置100は、学習用データを用いた教師あり学習によって推定モデル114を学習させる。図15に示す各ステップは、データ処理装置100の演算装置130がOS127および学習用プログラム121を実行することで実現される。
[Learning processing of data processor]
A learning process executed by the data processing apparatus 100 will be described with reference to FIG. 15 . FIG. 11 is a flowchart for explaining an example of the learning process executed by data processing apparatus 100 according to the present embodiment. In the present embodiment, data processing device 100 causes estimation model 114 to learn by supervised learning using learning data. Each step shown in FIG. 15 is implemented by the arithmetic device 130 of the data processing device 100 executing the OS 127 and the learning program 121 .

図15に示すように、データ処理装置100は、学習用データセット116の中から、学習に用いる学習用データを選択する(S1)。具体的には、データ処理装置100は、図10に示す学習用データセット群に含まれる学習用データセット116の中から、一または複数の学習用データを選択する。なお、データ処理装置100は、学習用データを自動で選択するものに限らず、ユーザ1が選択した学習用データを学習処理に用いてもよい。 As shown in FIG. 15, the data processing device 100 selects learning data to be used for learning from the learning data set 116 (S1). Specifically, the data processing device 100 selects one or a plurality of learning data from the learning data sets 116 included in the learning data set group shown in FIG. Note that the data processing apparatus 100 is not limited to automatically selecting learning data, and may use learning data selected by the user 1 for learning processing.

データ処理装置100は、選択した学習用データに含まれる三次元データおよび当該学習用データを生成する際にスキャン対象となった対象者2のプロファイルデータを推定モデル114に入力する(S2)。このとき、データ処理装置100には、三次元データにラベリングされた正解データは入力されない。データ処理装置100は、三次元データに対応する歯牙の特徴に基づき、推定モデル114を用いて当該歯牙の種類を推定する推定処理を実行する(S3)。推定処理において、データ処理装置100は、三次元データに加えてプロファイルデータに基づき、推定モデル114を用いて当該歯牙の種類を推定する。このとき、データ処理装置100は、スキャンによって入力された三次元データに対応する複数の点ごとに、推定モデル114を用いて歯牙の種類を推定する。 The data processing device 100 inputs the three-dimensional data included in the selected learning data and the profile data of the subject 2 who was scanned when the learning data was generated to the estimation model 114 (S2). At this time, the data processing device 100 does not receive the correct answer data labeled with the three-dimensional data. The data processing device 100 executes an estimation process of estimating the type of tooth using the estimation model 114 based on the characteristics of the tooth corresponding to the three-dimensional data (S3). In the estimation process, the data processing device 100 estimates the type of tooth using the estimation model 114 based on profile data in addition to three-dimensional data. At this time, the data processing apparatus 100 estimates the type of tooth using the estimation model 114 for each of a plurality of points corresponding to the three-dimensional data input by scanning.

データ処理装置100は、推定処理によって推定した各点における歯牙の種類の推定結果と、学習処理に用いた学習用データに対応する各点における正解データとの誤差に基づき、推定モデル114のパラメータ1144を更新する(S4)。 The data processing device 100 calculates the parameters 1144 of the estimation model 114 based on the error between the tooth type estimation result at each point estimated by the estimation process and the correct data at each point corresponding to the learning data used in the learning process. is updated (S4).

たとえば、データ処理装置100は、特定の歯牙を構成する複数の点に対応する三次元データに基づき、当該特定の歯牙の種類に対応する色情報を複数の点ごとに推定する。データ処理装置100は、学習用データに含まれる当該特定の歯牙に対応する複数の点ごとの色情報(正解データ)と、自身が推定した複数の点ごとの色情報とを比較し、一致する点に関しては推定モデル114のパラメータ1144を維持する一方で、一致しない点に関しては両者が一致するように推定モデル114のパラメータ1144を更新する。 For example, the data processing device 100 estimates color information corresponding to a specific tooth type for each of a plurality of points based on three-dimensional data corresponding to a plurality of points forming the specific tooth. The data processing device 100 compares the color information (correct data) for each of the plurality of points corresponding to the specific tooth included in the learning data with the color information for each of the plurality of points estimated by itself, and matches. For the points, the parameters 1144 of the estimation model 114 are maintained, while for the points that do not match, the parameters 1144 of the estimation model 114 are updated so that they match.

あるいは、データ処理装置100は、特定の歯牙を構成する複数の点に対応する三次元データに基づき、当該特定の歯牙の種類に対応する色情報を複数の点ごとに推定し、色分類データ118に基づき当該色情報に対応する歯牙の種類や歯牙の番号(正解データ)を複数の点ごとに特定する。データ処理装置100は、学習用データに含まれる当該特定の歯牙に対応する複数の点ごとの色情報に割り当てられた歯牙の種類や歯牙の番号(正解データ)と、自身が推定した複数の点ごとの歯牙の種類や歯牙の番号とを比較し、一致する点に関しては推定モデル114のパラメータ1144を維持する一方で、一致しない点に関しては両者が一致するように推定モデル114のパラメータ1144を更新する。 Alternatively, the data processing device 100 estimates color information corresponding to a specific tooth type for each of a plurality of points based on three-dimensional data corresponding to a plurality of points forming the specific tooth, and performs color classification data 118. Based on this, the tooth type and tooth number (correct data) corresponding to the color information are specified for each of a plurality of points. The data processing device 100 stores the tooth type and tooth number (correct data) assigned to the color information for each of the plurality of points corresponding to the specific tooth included in the learning data, and the plurality of points estimated by itself. The tooth type and tooth number are compared for each tooth, and while maintaining the parameters 1144 of the estimation model 114 for the points that match, the parameters 1144 of the estimation model 114 are updated so that the two match for points that do not match. do.

次に、データ処理装置100は、全ての学習用データに基づき学習したか否かを判定する(S5)。データ処理装置100は、全ての学習用データに基づき学習していない場合(S5でNO)、S1の処理に戻る。 Next, the data processing device 100 determines whether or not learning has been performed based on all the learning data (S5). If the data processing apparatus 100 has not learned based on all the learning data (NO in S5), the process returns to S1.

一方、データ処理装置100は、全ての学習用データに基づき学習した場合(S5でYES)、学習済みの推定モデル114を学習済モデルとして記憶し(S6)、本処理を終了する。 On the other hand, if the data processing device 100 has learned based on all the learning data (YES in S5), the data processing device 100 stores the learned estimation model 114 as a learned model (S6), and terminates this process.

このように、データ処理装置100は、学習用データに含まれる三次元データに関連付けられた歯牙の種類に対応する歯牙情報(色情報、歯牙の名称、または歯牙の番号など)を正解データとして、推定処理による当該三次元データを用いた当該歯牙の種類の推定結果に基づき、推定モデル114を学習させることで、学習済モデルを生成することができる。 In this way, the data processing device 100 uses the tooth information (color information, tooth name, tooth number, etc.) corresponding to the tooth type associated with the three-dimensional data included in the learning data as correct data, A learned model can be generated by causing the estimation model 114 to learn based on the estimation result of the tooth type using the three-dimensional data obtained by the estimation process.

また、データ処理装置100は、歯牙を構成する複数の点のそれぞれに対応付けられた歯牙の種類と、当該複数の点のそれぞれにおける三次元の位置情報を含む三次元データを用いた当該歯牙の種類の推定結果とに基づき、推定モデル114を学習させることで、歯牙を構成する複数の点ごとに歯牙の種類を推定することができる。 In addition, the data processing device 100 uses three-dimensional data including tooth types associated with each of a plurality of points constituting the tooth and three-dimensional positional information of each of the plurality of points to determine the tooth type. By making the estimation model 114 learn based on the estimation result of the type, the type of tooth can be estimated for each of a plurality of points forming the tooth.

さらに、データ処理装置100は、学習処理において、学習用データに加えてプロファイルデータを考慮して推定モデル114を学習するため、対象者2のプロファイルを考慮した学習済モデルを生成することができる。 Furthermore, in the learning process, the data processing device 100 learns the estimation model 114 in consideration of the profile data in addition to the learning data.

[サーバ装置の学習処理]
図16を参照しながら、サーバ装置500が実行する学習処理について説明する。図16は、本実施の形態に係るサーバ装置500が実行する学習処理の一例を説明するためのフローチャートである。本実施の形態において、サーバ装置500は、学習用データを用いた教師あり学習によって推定モデル514を学習させる。図16に示す各ステップは、サーバ装置500の演算装置530がOS527および学習用プログラム521を実行することで実現される。
[Learning processing of the server device]
The learning process executed by the server device 500 will be described with reference to FIG. 16 . FIG. 16 is a flowchart for explaining an example of learning processing executed by server device 500 according to the present embodiment. In the present embodiment, server device 500 learns estimation model 514 by supervised learning using learning data. Each step shown in FIG. 16 is implemented by the arithmetic device 530 of the server device 500 executing the OS 527 and the learning program 521 .

図16に示すように、サーバ装置500は、学習用データセット516の中から、学習に用いる学習用データを選択する(S501)。ここで、学習用データは、サーバ装置500によって蓄積して記憶されたビッグデータを利用して生成されたものであってもよい。たとえば、サーバ装置500は、各ローカルA~Cのデータ処理装置100および歯科技工所から取得したスキャン情報に含まれる三次元データを利用して学習用データを生成しておき、生成した当該学習用データを用いて学習処理を実行してもよい。なお、サーバ装置500は、学習用データを自動で選択するものに限らず、ユーザ1が選択した学習用データを学習処理に用いてもよい。 As shown in FIG. 16, the server device 500 selects learning data to be used for learning from the learning data set 516 (S501). Here, the learning data may be generated using big data accumulated and stored by the server device 500 . For example, the server device 500 generates learning data in advance using three-dimensional data included in the scan information acquired from the data processing devices 100 of each of the local A to C and the dental laboratory, and the generated learning data A learning process may be performed using the data. Note that the server device 500 is not limited to automatically selecting learning data, and may use learning data selected by the user 1 for learning processing.

サーバ装置500は、選択した学習用データに含まれる三次元データおよび当該学習用データを生成する際にスキャン対象となった対象者2のプロファイルデータを推定モデル514に入力する(S502)。このとき、サーバ装置500には、三次元データにラベリングされた正解データは入力されない。サーバ装置500は、三次元データに対応する歯牙の特徴に基づき、推定モデル514を用いて当該歯牙の種類を推定する推定処理を実行する(S503)。推定処理において、サーバ装置500は、三次元データに加えてプロファイルデータに基づき、推定モデル514を用いて当該歯牙の種類を推定する。このとき、サーバ装置500は、スキャンによって入力された三次元データに対応する複数の点ごとに、推定モデル514を用いて歯牙の種類を推定する。 The server device 500 inputs the three-dimensional data included in the selected learning data and the profile data of the subject 2 who was scanned when the learning data was generated to the estimation model 514 (S502). At this time, the correct answer data labeled with the three-dimensional data is not input to the server device 500 . The server apparatus 500 executes an estimation process of estimating the type of tooth using the estimation model 514 based on the characteristics of the tooth corresponding to the three-dimensional data (S503). In the estimation process, server device 500 estimates the type of tooth using estimation model 514 based on profile data in addition to three-dimensional data. At this time, server device 500 estimates the type of tooth using estimation model 514 for each of a plurality of points corresponding to the three-dimensional data input by scanning.

サーバ装置500は、推定処理によって推定した各点における歯牙の種類の推定結果と、学習処理に用いた学習用データに対応する各点における正解データとの誤差に基づき、推定モデル514のパラメータを更新する(S504)。 The server device 500 updates the parameters of the estimation model 514 based on the error between the tooth type estimation result at each point estimated by the estimation process and the correct data at each point corresponding to the learning data used in the learning process. (S504).

たとえば、サーバ装置500は、特定の歯牙を構成する複数の点に対応する三次元データに基づき、当該特定の歯牙に対応する色情報を複数の点ごとに推定する。サーバ装置500は、学習用データに含まれる当該特定の歯牙に対応する複数の点ごとの色情報(正解データ)と、自身が推定した複数の点ごとの色情報とを比較し、一致する点に関しては推定モデル514のパラメータを維持する一方で、一致しない点に関しては両者が一致するように推定モデル514のパラメータを更新する。 For example, server device 500 estimates color information corresponding to a specific tooth for each of a plurality of points based on three-dimensional data corresponding to a plurality of points forming the specific tooth. The server device 500 compares the color information (correct data) for each of a plurality of points corresponding to the specific tooth included in the learning data with the color information for each of a plurality of points estimated by itself, and finds the matching points. While maintaining the parameters of the estimation model 514 for the points that do not match, the parameters of the estimation model 514 are updated so that both match.

あるいは、サーバ装置500は、特定の歯牙を構成する複数の点に対応する三次元データに基づき、当該特定の歯牙の種類に対応する色情報を複数の点ごとに推定し、色分類データ518に基づき当該色情報に対応する歯牙の種類や歯牙の番号(正解データ)を複数の点ごとに特定する。サーバ装置500は、学習用データに含まれる当該特定の歯牙に対応する複数の点ごとの色情報に割り当てられた歯牙の種類や歯牙の番号(正解データ)と、自身が推定した複数の点ごとの歯牙の種類や歯牙の番号とを比較し、一致する点に関しては推定モデル514のパラメータを維持する一方で、一致しない点に関しては両者が一致するように推定モデル514のパラメータを更新する。 Alternatively, server device 500 estimates color information corresponding to a specific tooth type for each of a plurality of points based on three-dimensional data corresponding to a plurality of points forming a specific tooth, and stores the color information in color classification data 518. Based on this, the tooth type and tooth number (correct data) corresponding to the color information are specified for each of a plurality of points. The server device 500 stores the tooth type and tooth number (correct data) assigned to the color information for each of the plurality of points corresponding to the specific tooth included in the learning data, and the color information for each of the plurality of points estimated by itself. The tooth type and tooth number are compared with each other, and while maintaining the parameters of the estimated model 514 for the points that match, the parameters of the estimated model 514 are updated so that both match for the points that do not match.

次に、サーバ装置500は、全ての学習用データに基づき学習したか否かを判定する(S505)。サーバ装置500は、全ての学習用データに基づき学習していない場合(S505でNO)、S501の処理に戻る。 Next, the server apparatus 500 determines whether or not learning has been performed based on all the learning data (S505). If the server apparatus 500 has not learned based on all the learning data (NO in S505), the process returns to S501.

一方、サーバ装置500は、全ての学習用データに基づき学習した場合(S505でYES)、学習済みの推定モデル514を学習済モデルとして記憶する(S506)。その後、サーバ装置500は、生成した学習済モデルを各ローカルのデータ処理装置100に送信し(S507)、本処理を終了する。 On the other hand, if the server device 500 has learned based on all the learning data (YES in S505), the server device 500 stores the learned estimation model 514 as a learned model (S506). After that, the server device 500 transmits the generated learned model to each local data processing device 100 (S507), and ends this processing.

このように、サーバ装置500は、学習用データに含まれる三次元データに関連付けられた歯牙の種類に対応する歯牙情報(色情報,歯牙の名称,歯牙の番号)を正解データとして、推定処理による当該三次元データを用いた当該歯牙の種類の推定結果に基づき、推定モデル514を学習させることで、学習済モデルを生成することができる。 In this way, the server device 500 uses the tooth information (color information, tooth name, tooth number) corresponding to the type of tooth associated with the three-dimensional data included in the learning data as correct data, and performs estimation processing. A learned model can be generated by causing the estimation model 514 to learn based on the result of estimating the type of tooth using the three-dimensional data.

また、サーバ装置500は、歯牙を構成する複数の点のそれぞれに対応付けられた歯牙の種類と、当該複数の点のそれぞれにおける三次元の位置情報を含む三次元データを用いた当該歯牙の種類の推定結果とに基づき、推定モデル514を学習させることで、歯牙を構成する複数の点ごとに歯牙の種類を推定することができる。 In addition, the server device 500 uses three-dimensional data including tooth types associated with each of a plurality of points forming a tooth and three-dimensional positional information of each of the plurality of points to determine the tooth type. By making the estimation model 514 learn based on the estimation results of , the type of tooth can be estimated for each of a plurality of points forming the tooth.

また、サーバ装置500は、学習処理において、学習用データに加えてプロファイルデータを考慮して推定モデル514を学習するため、対象者2のプロファイルを考慮した学習済モデルを生成することができる。 In addition, in the learning process, the server device 500 learns the estimation model 514 in consideration of the profile data in addition to the learning data.

さらに、サーバ装置500は、学習処理に用いる学習用データとして、各ローカルA~Cのデータ処理装置100および歯科技工所から取得したスキャン情報に含まれる三次元データを利用しているため、データ処理装置100ごとに実行される学習処理よりも、より多くの学習用データに基づいて学習処理を実行することができ、より精度良く歯牙の種類を識別することができる学習済モデルを生成することができる。 Furthermore, since the server device 500 uses the three-dimensional data included in the scan information acquired from the data processing devices 100 of the local A to C and the dental laboratory as learning data used for learning processing, the data processing The learning process can be performed based on more learning data than the learning process performed for each device 100, and a trained model that can identify the type of tooth with higher accuracy can be generated. can.

[データ処理装置のサービス提供処理]
図17を参照しながら、データ処理装置100が実行するサービス提供処理について説明する。図17は、本実施の形態に係るデータ処理装置100が実行するサービス提供処理の一例を説明するためのフローチャートである。なお、図17、および後述する図19、図21、図23に示すサービス提供処理は、「データ処理」の一実施形態である。図17に示す各ステップは、データ処理装置100の演算装置130がOS127およびデータ処理用プログラム120を実行することで実現される。
[Service provision processing of data processor]
A service providing process executed by the data processing apparatus 100 will be described with reference to FIG. 17 . FIG. 17 is a flowchart for explaining an example of service providing processing executed by data processing apparatus 100 according to the present embodiment. Note that the service providing processing shown in FIG. 17 and FIGS. 19, 21, and 23, which will be described later, is an embodiment of "data processing." Each step shown in FIG. 17 is realized by the arithmetic device 130 of the data processing device 100 executing the OS 127 and the data processing program 120 .

図17に示すように、データ処理装置100は、所定の点に対応する三次元データが入力されたか否かを判定する(S41)。データ処理装置100は、三次元データが入力されていない場合(S41でNO)、本処理を終了する。 As shown in FIG. 17, the data processing device 100 determines whether three-dimensional data corresponding to a predetermined point has been input (S41). If three-dimensional data has not been input (NO in S41), the data processing device 100 ends this process.

一方、データ処理装置100は、三次元データが入力された場合(S41でYES)、ユーザ1によって対象者2のプロファイルデータが入力されているか否かを判定する(S42)。データ処理装置100は、プロファイルデータが入力されていない場合(S42でNO)、三次元データを学習済モデルに入力する(S43)。一方、データ処理装置100は、プロファイルデータが入力されている場合(S42でYES)、三次元データおよびプロファイルデータを学習済モデルに入力する(S44)。なお、このとき使用する学習済モデルは、図15に示す学習処理でデータ処理装置100によって生成された学習済モデルに限らず、図16に示す学習処理でサーバ装置500によって生成された学習済モデルであってもよい。 On the other hand, when the three-dimensional data is input (YES in S41), the data processing device 100 determines whether or not the profile data of the subject 2 is input by the user 1 (S42). If profile data has not been input (NO in S42), data processing device 100 inputs three-dimensional data to the learned model (S43). On the other hand, if profile data has been input (YES in S42), data processing device 100 inputs the three-dimensional data and profile data to the learned model (S44). The trained model used at this time is not limited to the trained model generated by the data processing device 100 in the learning process shown in FIG. 15, and the trained model generated by the server device 500 in the learning process shown in FIG. may be

S43およびS44の後、データ処理装置100は、三次元データに対応する歯牙の特徴に基づき、学習済モデルを用いて当該歯牙の種類を推定する推定処理を実行する(S45)。このとき、S44でプロファイルデータが学習済モデルに入力されていた場合、データ処理装置100は、三次元データに加えてプロファイルデータに基づき、学習済モデルを用いて当該歯牙の種類を推定する。この場合、三次元データのみに基づき学習済モデルを用いて歯牙の種類を推定するよりも、より精度良く歯牙の種類を推定することができる。 After S43 and S44, the data processing apparatus 100 executes an estimation process of estimating the type of tooth using a learned model based on the characteristics of the tooth corresponding to the three-dimensional data (S45). At this time, if the profile data has been input to the learned model in S44, the data processing device 100 estimates the type of the tooth using the learned model based on the profile data in addition to the three-dimensional data. In this case, the tooth type can be estimated with higher accuracy than when the tooth type is estimated using a trained model based only on three-dimensional data.

データ処理装置100は、推定処理によって得られた推定結果に基づき、推定された歯牙の種類を示す関連データ(たとえば、色情報)を、S41で入力された三次元データに関連付ける(S46)。具体的には、図13および図14に示したように、三次元データに含まれる位置情報に対して、推定された歯牙の種類に対応する色情報を関連付ける。これにより、入力された三次元データに対応する点に対して、当該点に対応する歯牙の種類の推定結果として関連データ(色情報)が関連付けられる。 Based on the estimation result obtained by the estimation process, the data processing device 100 associates related data (for example, color information) indicating the estimated tooth type with the three-dimensional data input in S41 (S46). Specifically, as shown in FIGS. 13 and 14, position information included in the three-dimensional data is associated with color information corresponding to the estimated tooth type. As a result, the point corresponding to the input three-dimensional data is associated with related data (color information) as a result of estimating the type of tooth corresponding to the point.

データ処理装置100は、関連付けの結果を、ディスプレイ300およびサーバ装置500などに出力する(S47)。具体的には、図11および図12に示したように、入力された三次元データに対応する点に対して、当該点に対応する歯牙の種類の推定結果として関連データ(色情報)が関連付けられ、その関連付けの結果がディスプレイ300に表示される。その後、データ処理装置100は、本処理を終了する。 Data processing device 100 outputs the association result to display 300, server device 500, etc. (S47). Specifically, as shown in FIGS. 11 and 12, the point corresponding to the input three-dimensional data is associated with related data (color information) as a result of estimating the type of tooth corresponding to the point. and the result of the association is displayed on the display 300. FIG. After that, the data processing device 100 terminates this process.

データ処理装置100は、歯牙を構成する複数の点ごとに、図17に示すようなサービス提供処理を実行することで、スキャン対象となった口腔内の歯牙をその種類ごとに区別するとともに、歯牙と歯肉とを区別することもできる。 The data processing apparatus 100 executes the service providing process shown in FIG. 17 for each of a plurality of points that constitute the tooth, thereby distinguishing the intraoral tooth that is the scanning target for each type and and gingiva.

また、データ処理装置100は、所定の点について実行したサービス提供処理によって歯牙の種類を推定することができない場合は、S45~S47の処理をスキップして本処理を終了する。そして、データ処理装置100は、それ以降において他の点について実行したサービス提供処理によって歯牙の種類を推定して関連データを関連付けしたときに、当該他の点に関連付けられた関連データに基づいて、当該所定の点についても関連データを関連付ける。 Further, when the data processing apparatus 100 cannot estimate the type of tooth by the service providing process executed for the predetermined point, the data processing apparatus 100 skips the processes of S45 to S47 and ends this process. After that, when the data processing device 100 estimates the type of tooth by the service providing process executed for another point and associates the relevant data, based on the relevant data associated with the other point, Related data is also associated with the predetermined point.

さらに、データ処理装置100は、所定の点について実行したサービス提供処理によって歯牙の種類を誤って推定して誤った関連データを関連付けた場合は、それ以降において他の点について実行したサービス提供処理によって歯牙の種類を推定して関連データを関連付けしたときに、当該他の点に関連付けられた関連データに基づいて、当該所定の点についても正しい関連データを関連付ける。 Furthermore, if the data processing device 100 erroneously estimates the type of tooth and associates erroneous related data with the service provision processing executed for a predetermined point, the data processing device 100 subsequently performs service provision processing for other points. When the tooth type is estimated and the related data is associated, the correct related data is associated with the predetermined point based on the related data associated with the other points.

このように、データ処理装置100は、入力された三次元データに対応する歯牙の特徴に基づき、学習済モデルを用いて当該歯牙の種類を推定するため、ユーザ自身の知見に頼って歯牙の種類を推定するよりも、精度良く歯牙の種類を推定することができる。 As described above, the data processing apparatus 100 estimates the type of the tooth using the learned model based on the characteristics of the tooth corresponding to the input three-dimensional data. The type of tooth can be estimated with higher accuracy than estimating .

また、データ処理装置100は、スキャン対象となった歯牙を構成する複数の点ごとに歯牙の種類を推定し、その推定結果を色情報に紐付けて関連データとして当該複数の点ごとに関連付けるため、より詳細な範囲で歯牙の種類の推定結果をユーザに示すことができる。データ処理装置100は、歯牙に対して関連データを関連付けることで、歯牙と歯肉とを区別するとともに、歯牙をその種類ごとに分類(セグメント化)することもでき、矯正用の器具のデジタル設計が容易になる。 In addition, the data processing device 100 estimates the type of tooth for each of a plurality of points forming the tooth to be scanned, and associates the estimation result with color information as related data for each of the plurality of points. , it is possible to show the user the estimation result of the tooth type in a more detailed range. The data processing device 100 can distinguish between teeth and gingiva by associating relevant data with teeth, and can also classify (segment) teeth according to their types, enabling digital design of orthodontic appliances. become easier.

さらに、データ処理装置100は、推定処理において、入力された三次元データに加えてプロファイルデータを考慮して歯牙の種類を識別するため、より精度良く歯牙の種類を識別することができる。 Furthermore, in the estimation process, the data processing apparatus 100 considers the profile data in addition to the input three-dimensional data to identify the type of tooth, so that the type of tooth can be identified with higher accuracy.

[主な開示]
以上のように、本実施の形態では以下のような開示を含む。
[Main Disclosure]
As described above, the present embodiment includes the following disclosures.

データ処理装置100は、歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力される入力部1102と、入力部1102から入力された三次元データと、当該三次元データに基づき歯牙の種類を推定するためのニューラルネットワーク1142を含む推定モデル114とに基づき、当該三次元データに対応する複数の点のそれぞれに対して歯牙の種類に関連する関連データを関連付ける関連付け部1101と、関連付け部1101による関連付けの結果を出力する出力部1103とを備える。 The data processing apparatus 100 includes an input unit 1102 to which three-dimensional data including three-dimensional positional information on each of a plurality of points constituting a tooth is input, the three-dimensional data input from the input unit 1102, and the three-dimensional data input from the input unit 1102. an estimation model 114 including a neural network 1142 for estimating the type of tooth based on the data; 1101 and an output unit 1103 that outputs the result of association by the association unit 1101 .

これにより、データ処理装置100は、歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データを、ニューラルネットワーク1142を含む推定モデル114(学習済モデル)に入力することで、三次元データに対応する複数の点のそれぞれに対して歯牙の種類に関連する関連データを関連付けることができるため、歯牙を構成する複数の点ごとに歯牙を分類(セグメント化)することができ、精度良く歯牙の種類を識別することができる。 As a result, the data processing device 100 inputs three-dimensional data including three-dimensional position information of each of a plurality of points that constitute the tooth to the estimation model 114 (learned model) including the neural network 1142, Since each of a plurality of points corresponding to three-dimensional data can be associated with related data related to the type of tooth, the tooth can be classified (segmented) for each of the plurality of points that constitute the tooth, The type of tooth can be identified with high accuracy.

データ処理装置100は、入力部1102から入力された三次元データと、推定モデル114とに基づき、当該三次元データに対応する複数の点ごとに歯牙の種類を推定する推定部1130を備え、関連付け部1101は、推定部1130による推定結果に基づき、入力部1102から入力された三次元データに対応する複数の点のそれぞれに対して関連データを関連付ける。 The data processing apparatus 100 includes an estimation unit 1130 that estimates the type of tooth for each of a plurality of points corresponding to the three-dimensional data based on the three-dimensional data input from the input unit 1102 and the estimation model 114. Unit 1101 associates related data with each of a plurality of points corresponding to three-dimensional data input from input unit 1102 based on the estimation result by estimation unit 1130 .

これにより、ユーザ1は、歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データを、ニューラルネットワーク1142を含む推定モデル114(学習済モデル)に入力することで、当該歯牙の種類を推定することができるため、ユーザ自身の知見に頼って歯牙の種類を識別するよりも、精度良く歯牙の種類を識別することができる。また、ユーザ1は、歯牙を構成する複数の点ごとに歯牙の種類を推定することができるため、より詳細な範囲で歯牙の種類の推定結果を得ることができる。 As a result, the user 1 inputs three-dimensional data including three-dimensional positional information for each of a plurality of points forming the tooth into the estimation model 114 (learned model) including the neural network 1142, thereby can be estimated, the type of tooth can be identified with higher accuracy than when identifying the type of tooth depending on the user's own knowledge. Further, since the user 1 can estimate the type of tooth for each of a plurality of points forming the tooth, it is possible to obtain the result of tooth type estimation in a more detailed range.

推定部1130は、入力部1102から入力された一の三次元データについて、当該一の三次元データの特定範囲内に含まれる他の三次元データとの関係に基づき、当該一の三次元データに対応する点における歯牙の種類を推定する。 The estimating unit 1130 estimates the one three-dimensional data input from the input unit 1102 based on the relationship with other three-dimensional data included in the specific range of the one three-dimensional data. Estimate the tooth type at the corresponding point.

これにより、ユーザ1は、歯牙を構成する複数の点のうち、一の点の特定範囲内に含まれる他の点に対応する他の三次元データを考慮して、当該一の点における歯牙の種類を推定することができるため、より精度良く各点を歯牙の種類ごとに分類することができる。 With this, the user 1 can consider other three-dimensional data corresponding to other points included within a specific range of one point among the plurality of points constituting the tooth, and can Since the type can be estimated, each point can be classified by tooth type with higher accuracy.

関連付け部1101は、入力部1102から入力された一の三次元データに対応する点に対して関連データを関連付けた後、当該一の三次元データの特定範囲内に含まれる他の三次元データに対応する点に対して関連付けた関連データに基づき、当該一の三次元データに対応する点に対して関連付けた関連データを変更する。 The associating unit 1101 associates the related data with the point corresponding to the one three-dimensional data input from the input unit 1102, and then associates the other three-dimensional data included in the specific range of the one three-dimensional data with Based on the relevant data associated with the corresponding point, the relevant data associated with the point corresponding to the one three-dimensional data is changed.

これにより、ユーザ1は、歯牙を構成する複数の点のうち、一の点の特定範囲内に含まれる他の点に対応する他の三次元データを考慮して、当該一の点に関連付けた誤った関連データを、正しい関連データに変更することができるため、より精度良く各点を歯牙の種類ごとに分類することができる。 With this, the user 1 considers other three-dimensional data corresponding to other points included in a specific range of one point among the plurality of points constituting the tooth, and associates the point with the one point. Since erroneous related data can be changed to correct related data, each point can be classified by tooth type with higher accuracy.

推定モデル114は、歯牙を構成する複数の点のそれぞれに対応付けられた歯牙の種類と、当該複数の点のそれぞれにおける三次元の位置情報を含む三次元データを用いた当該歯牙の種類の推定結果とに基づき学習される。 The estimation model 114 estimates the type of the tooth using three-dimensional data including the type of tooth associated with each of a plurality of points constituting the tooth and three-dimensional positional information of each of the plurality of points. It is learned based on results.

これにより、ユーザ1は、歯牙を構成する複数の点ごとに推定モデル114を学習させることができる。 This allows the user 1 to learn the estimation model 114 for each of a plurality of points forming the tooth.

入力部1102から入力された三次元データは、口腔内の歯牙および歯肉を構成する複数の点のそれぞれにおける三次元の位置情報を含む。 The three-dimensional data input from the input unit 1102 includes three-dimensional positional information for each of a plurality of points forming teeth and gums in the oral cavity.

これにより、ユーザ1は、口腔内の歯牙および歯肉の形状を考慮してニューラルネットワーク1142を含む推定モデル114によって歯牙の特徴を抽出させることができるため、精度良く歯牙の種類を識別することができる。また、ユーザ1は、歯牙と歯肉とを区別するとともに、歯牙をその種類ごとに分類(セグメント化)することもでき、矯正用の器具のデジタル設計を容易に行うことができる。 As a result, the user 1 can extract the characteristics of the teeth by the estimation model 114 including the neural network 1142 in consideration of the shapes of the teeth and gums in the oral cavity, so that the type of the teeth can be accurately identified. . In addition, the user 1 can distinguish between teeth and gingiva and classify (segment) teeth according to their types, thereby facilitating digital design of orthodontic appliances.

関連データは、歯牙の種類に対応する色、文字、数字、および記号の少なくともいずれか1つを含む。 The related data includes at least one of colors, letters, numbers, and symbols corresponding to tooth types.

これにより、ユーザ1は、色、文字、数字、および記号の少なくともいずれかを用いて、歯牙を構成する複数の点のそれぞれに対して、推定した歯牙の種類に関連する関連データを関連付けるため、より分かり易く歯牙を分類(セグメント化)することができる。また、ユーザ1は、直感的に関連付けの結果を認識することができ、利便性が向上する。 Thereby, the user 1 uses at least one of colors, letters, numbers, and symbols to associate relevant data related to the estimated tooth type with each of the plurality of points that constitute the tooth. The teeth can be classified (segmented) in a more comprehensible manner. Also, the user 1 can intuitively recognize the result of association, which improves convenience.

出力部1103は、入力部1102から入力された三次元データに対応する複数の点を表す点群表示によって、関連付け部1101による関連付けの結果を出力する。 The output unit 1103 outputs the result of the association by the association unit 1101 by point cloud display representing a plurality of points corresponding to the three-dimensional data input from the input unit 1102 .

これにより、ユーザ1は、歯牙を構成する複数の点のそれぞれに対して関連データを関連付けた結果を、点群表示によって表すことができるため、複数の点ごとにより分かり易く歯牙を分類(セグメント化)することができる。 As a result, the user 1 can display the result of associating the relevant data with each of the plurality of points that constitute the tooth by the point cloud display, so that the tooth can be classified (segmented) for each of the plurality of points in a more comprehensible manner. )can do.

データ処理システム10は、三次元カメラを用いて、歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データを取得する三次元スキャナ200と、三次元スキャナ200によって取得された三次元データに対応する複数の点のそれぞれに対して歯牙の種類に関連する関連データを関連付けるデータ処理装置100とを備え、データ処理装置100は、三次元スキャナ200によって取得された三次元データが入力される入力部1102と、入力部1102から入力された三次元データと、当該三次元データに基づき歯牙の種類を推定するためのニューラルネットワーク1142を含む推定モデル114とに基づき、当該三次元データに対応する複数の点のそれぞれに対して歯牙の種類に関連する関連データを関連付ける関連付け部1101と、関連付け部1101による関連付けの結果を出力する出力部1103とを含む。 The data processing system 10 uses a three-dimensional camera to acquire three-dimensional data including three-dimensional position information at each of a plurality of points that constitute the tooth, and a three-dimensional scanner 200 acquired by the three-dimensional scanner 200. a data processing device 100 for associating relevant data related to tooth types with each of a plurality of points corresponding to three-dimensional data, wherein the data processing device 100 stores the three-dimensional data acquired by the three-dimensional scanner 200 as: Based on an input unit 1102 to be input, three-dimensional data input from the input unit 1102, and an estimation model 114 including a neural network 1142 for estimating the type of tooth based on the three-dimensional data, the three-dimensional data and an output unit 1103 for outputting the result of association by the associating unit 1101 .

これにより、ユーザ1は、歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データを、ニューラルネットワーク1142を含む推定モデル114(学習済モデル)に入力することで、三次元データに対応する複数の点のそれぞれに対して歯牙の種類に関連する関連データを関連付けることができるため、歯牙を構成する複数の点ごとに歯牙を分類(セグメント化)することができ、精度良く歯牙の種類を識別することができる。 As a result, the user 1 inputs three-dimensional data including three-dimensional positional information of each of a plurality of points forming the tooth into the estimation model 114 (learned model) including the neural network 1142, thereby obtaining a three-dimensional Since each of the multiple points corresponding to the data can be associated with related data related to the type of tooth, it is possible to classify (segment) the tooth for each of the multiple points that make up the tooth with high accuracy. Tooth type can be identified.

データ処理方法は、歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力されるステップ(S41)と、入力されるステップ(S41)によって入力された三次元データと、当該三次元データに基づき歯牙の種類を推定するためのニューラルネットワーク1142を含む推定モデル114とに基づき、当該三次元データに対応する複数の点のそれぞれに対して歯牙の種類に関連する関連データを関連付けるステップ(S46)と、関連付けるステップ(S46)による関連付けの結果を出力するステップ(S47)とを含む。 The data processing method includes a step (S41) of inputting three-dimensional data including three-dimensional positional information of each of a plurality of points constituting a tooth, and a step of inputting (S41) the input three-dimensional data. , an estimation model 114 including a neural network 1142 for estimating the tooth type based on the three-dimensional data, and related data related to the tooth type for each of a plurality of points corresponding to the three-dimensional data. and a step (S47) of outputting the result of the association by the associating step (S46).

これにより、ユーザ1は、歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データを、ニューラルネットワーク1142を含む推定モデル114(学習済モデル)に入力することで、三次元データに対応する複数の点のそれぞれに対して歯牙の種類に関連する関連データを関連付けることができるため、歯牙を構成する複数の点ごとに歯牙を分類(セグメント化)することができ、精度良く歯牙の種類を識別することができる。 As a result, the user 1 inputs three-dimensional data including three-dimensional positional information of each of a plurality of points forming the tooth into the estimation model 114 (learned model) including the neural network 1142, thereby obtaining a three-dimensional Since each of the multiple points corresponding to the data can be associated with related data related to the type of tooth, it is possible to classify (segment) the tooth for each of the multiple points that make up the tooth with high accuracy. Tooth type can be identified.

データ処理用プログラム120は、演算装置130に、歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力されるステップ(S41)と、入力されるステップ(S41)によって入力された三次元データと、当該三次元データに基づき歯牙の種類を推定するためのニューラルネットワーク1142を含む推定モデル114とに基づき、当該三次元データに対応する複数の点のそれぞれに対して歯牙の種類に関連する関連データを関連付けるステップ(S46)と、関連付けるステップ(S46)による関連付けの結果を出力するステップ(S47)とを実行させる。 The data processing program 120 performs a step (S41) of inputting three-dimensional data including three-dimensional position information of each of a plurality of points forming a tooth into the arithmetic device 130, and a step of inputting (S41). Based on the input three-dimensional data and an estimation model 114 including a neural network 1142 for estimating the type of tooth based on the three-dimensional data, a tooth is extracted for each of a plurality of points corresponding to the three-dimensional data. and a step (S47) of outputting the result of association by the step of associating (S46).

これにより、ユーザ1は、歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データを、ニューラルネットワーク1142を含む推定モデル114(学習済モデル)に入力することで、三次元データに対応する複数の点のそれぞれに対して歯牙の種類に関連する関連データを関連付けることができるため、歯牙を構成する複数の点ごとに歯牙を分類(セグメント化)することができ、精度良く歯牙の種類を識別することができる。 As a result, the user 1 inputs three-dimensional data including three-dimensional positional information of each of a plurality of points forming the tooth into the estimation model 114 (learned model) including the neural network 1142, thereby obtaining a three-dimensional Since each of the multiple points corresponding to the data can be associated with related data related to the type of tooth, it is possible to classify (segment) the tooth for each of the multiple points that make up the tooth with high accuracy. Tooth type can be identified.

[変形例]
本開示は、上記の実施例に限られず、さらに種々の変形、応用が可能である。以下、本発明に適用可能な変形例について説明する。
[Modification]
The present disclosure is not limited to the above embodiments, and various modifications and applications are possible. Modifications applicable to the present invention will be described below.

(関連付け結果の出力)
本実施の形態に係るデータ処理装置100は、図11および図12に示すように、入力された三次元データに対応する複数の点に対する関連データの関連付けの結果を、当該複数の点が集まった点群を表示することによってユーザ1に示すものであったが、点群表示以外の手法で関連付けの結果をユーザ1に示してもよい。
(Output of association result)
As shown in FIGS. 11 and 12, data processing apparatus 100 according to the present embodiment obtains the result of associating relevant data with respect to a plurality of points corresponding to input three-dimensional data. Although the point cloud is displayed to the user 1, the association result may be displayed to the user 1 by a method other than the point cloud display.

たとえば、図18は、変形例に係る関連付け結果の出力の一例を説明するための模式図である。図18に示すように、データ処理装置100は、入力された三次元データに対応する複数の点に対する関連データの関連付けの結果を、ポリゴンメッシュを用いてディスプレイ300に表示してもよい。ポリゴンメッシュとは、たとえば、三角形および四角形など、ポリゴンを画面上に配置することでオブジェクトを表示する手法である。データ処理装置100は、入力された三次元データに対応する複数の点を、ポリゴンに置き換えることで、当該複数の点に関連データが関連付けられた結果をディスプレイ300に表示する。 For example, FIG. 18 is a schematic diagram for explaining an example of an association result output according to the modification. As shown in FIG. 18, the data processing device 100 may display the results of association of related data with a plurality of points corresponding to the input three-dimensional data on the display 300 using polygon meshes. A polygon mesh is a method of displaying an object by arranging polygons such as triangles and quadrilaterals on the screen. Data processing device 100 replaces a plurality of points corresponding to the input three-dimensional data with polygons, and displays on display 300 a result in which related data is associated with the plurality of points.

たとえば、図18(a),(b)に示すように、データ処理装置100は、一部の点について関連データを関連付けできない場合、その関連付けの結果を、関連データを関連付けできた場合と異なる態様で、ポリゴンメッシュを用いて表示する。また、図18(a),(b)に示すように、データ処理装置100は、一部の点について誤って関連データを関連付けした場合、その関連付けの結果を、正しく関連データを関連付けできた他の点と異なる態様で、ポリゴンメッシュを用いて表示する。 For example, as shown in FIGS. 18(a) and 18(b), when data processing device 100 cannot associate related data with respect to some points, the result of association is different from the case where related data can be associated. display using a polygon mesh. Further, as shown in FIGS. 18A and 18B, when the data processing device 100 erroneously associates the related data with respect to some points, the result of the association is changed to the other It is displayed using a polygon mesh in a manner different from the point of .

このように、データ処理装置100の出力部1103は、入力部1102から入力された三次元データに対応する複数の点によって構成される歯牙を表すポリゴンメッシュによって、関連付け部1101による関連付けの結果を出力してもよい。 In this way, the output unit 1103 of the data processing apparatus 100 outputs the result of the association by the association unit 1101 using polygon meshes representing the tooth composed of a plurality of points corresponding to the three-dimensional data input from the input unit 1102. You may

これにより、ユーザ1は、歯牙を構成する複数の点のそれぞれに対して関連データを関連付けた結果を、ポリゴンメッシュによって表すことができるため、立体的な画像によってより分かり易く歯牙を分類(セグメント化)することができ、歯牙と歯肉とを区別することもできる。 As a result, the user 1 can represent the result of associating the relevant data with each of the plurality of points that constitute the tooth by the polygon mesh, so that the tooth can be classified (segmented) in a more comprehensible manner using a three-dimensional image. ) and can also distinguish between teeth and gums.

さらに、データ処理装置100は、入力された三次元データに対応する複数の点に対する関連データの関連付けの結果を、サーフェスモデルまたはソリッドモデルなどの3次元モデルを用いてディスプレイ300に表示してもよい。 Furthermore, the data processing device 100 may display the result of association of related data with a plurality of points corresponding to the input three-dimensional data on the display 300 using a three-dimensional model such as a surface model or a solid model. .

(サービス提供処理時学習処理)
本実施の形態に係るデータ処理装置100は、図17に示すように、サービス提供処理において学習処理を実行するものではないが、図19に示すように、変形例に係るデータ処理装置100aは、サービス提供処理において学習処理を実行するものであってもよい。データ処理装置100は、所謂、協調学習(Federated Learning)を行うものであってもよい。図19は、変形例に係るデータ処理装置100aが実行するサービス提供処理の一例を説明するためのフローチャートである。なお、図19に示すS41~S47の処理は、図17に示すS41~S47の処理と同じであるため、図19においては、S41~S47の処理についての詳細な説明を省略する。
(Learning processing during service provision processing)
As shown in FIG. 17, the data processing device 100 according to the present embodiment does not execute learning processing in the service providing processing, but as shown in FIG. The learning process may be executed in the service providing process. The data processing device 100 may perform so-called federated learning. FIG. 19 is a flowchart for explaining an example of service providing processing executed by the data processing device 100a according to the modification. 19 are the same as the processes of S41 to S47 shown in FIG. 17, detailed description of the processes of S41 to S47 is omitted in FIG.

図19に示すように、データ処理装置100aは、S41~S47の処理によって推定結果に基づき関連データを関連付けた結果を出力した後、サービス提供時学習処理を実行する。具体的には、データ処理装置100aは、S47の後、誤り訂正のための正解データが入力されたか否かを判定する(S61a)。たとえば、データ処理装置100aは、S45において推定された歯牙の種類が実際にスキャン対象であった歯牙の種類と異なる場合において、実際にスキャン対象であった歯牙の種類をユーザ1が入力することで誤りを訂正したか否かを判定する。 As shown in FIG. 19, the data processing device 100a outputs the results of associating related data based on the estimation results by the processes of S41 to S47, and then executes the learning process at the time of service provision. Specifically, after S47, the data processing device 100a determines whether correct data for error correction has been input (S61a). For example, when the type of tooth estimated in S45 is different from the type of tooth that was actually scanned, the data processing device 100a allows the user 1 to input the type of tooth that was actually scanned. Determine whether the error has been corrected.

データ処理装置100aは、誤り訂正のための正解データが入力されなかった場合(S61aでNO)、本処理を終了する。一方、データ処理装置100aは、誤り訂正のための正解データが入力された場合(S61aでYES)、推定結果と正解データとに基づき報酬を付与する(S62a)。 If the correct data for error correction is not input (NO in S61a), the data processing device 100a ends this process. On the other hand, when the correct data for error correction is input (YES in S61a), the data processing device 100a gives a reward based on the estimation result and the correct data (S62a).

たとえば、推定結果と正解データとの解離度が小さければ小さいほど、付与する報酬として値の小さいマイナスポイントを与え、両者の解離度が大きければ大きいほど、付与する報酬として値の大きいマイナスポイントを与えればよい。具体的には、データ処理装置100aは、推定結果として出力した歯牙と、正解データとして入力された歯牙とが隣接していれば、値の小さいマイナスポイントを与え、両者が離れていれば、値の大きいマイナスポイントを与える。このように、データ処理装置100aは、推定結果と正解データとの解離度に応じて異なる値の報酬を付与する。なお、報酬はマイナスポイントに限らず、プラスポイントであってもよい。 For example, the smaller the degree of dissociation between the estimation result and the correct answer data, the smaller the negative points given as a reward, and the greater the degree of dissociation between the two, the larger the negative points given as a reward. Just do it. Specifically, if the tooth output as the estimation result and the tooth input as correct data are adjacent to each other, the data processing device 100a gives a small negative point, and if the two are separated, a negative point is given. give a big minus point. In this way, the data processing device 100a gives different rewards depending on the degree of dissociation between the estimation result and the correct data. Note that the reward is not limited to minus points, and may be plus points.

データ処理装置100aは、付与した報酬に基づき、学習済モデルのパラメータ1144を更新する(S63a)。たとえば、データ処理装置100aは、報酬として付与したマイナスポイントが0に近づくように学習済モデルのパラメータ1144を更新する。その後、データ処理装置100aは、本処理を終了する。 The data processing device 100a updates the parameters 1144 of the trained model based on the given reward (S63a). For example, the data processing device 100a updates the parameter 1144 of the learned model so that the negative points given as a reward approach zero. After that, the data processing device 100a terminates this process.

このように、変形例に係るデータ処理装置100aは、サービス提供処理においても学習処理を実行するため、ユーザ1が使用すればするほど推定処理の精度が向上し、より精度良く歯牙の種類を識別することができる。このような処理は、所謂、協調学習の一種である。 In this way, the data processing device 100a according to the modification executes learning processing even in the service providing processing. Therefore, the more the user 1 uses the data processing device 100a, the more the accuracy of the estimation processing improves, and the more accurately the type of tooth is identified. can do. Such processing is a kind of so-called collaborative learning.

(カテゴリごとの学習済モデルの生成)
本実施の形態に係るデータ処理装置100は、図10に示すように、カテゴリごとに分類された複数の学習用データセット116a~116oが含まれる学習用データセット群を用いて推定モデル114を学習させることで、1つの学習済モデルを生成するものであったが、図20に示すように、変形例に係るデータ処理装置100bは、カテゴリごとに分類された複数の学習用データセットのそれぞれをカテゴリごとに用いて推定モデル114を学習させることで、カテゴリごとの学習済モデルを生成してもよい。図20は、変形例に係る学習用データセットに基づく学習済モデルの生成を説明するための模式図である。
(Generation of trained models for each category)
As shown in FIG. 10, the data processing device 100 according to the present embodiment learns the estimation model 114 using a learning data set group including a plurality of learning data sets 116a to 116o classified by category. However, as shown in FIG. 20, the data processing device 100b according to the modification generates each of a plurality of learning data sets classified by category. A trained model for each category may be generated by training the estimation model 114 using each category. FIG. 20 is a schematic diagram for explaining generation of a trained model based on the learning data set according to the modification.

図20に示すように、学習用データセット116は、当該学習用データセット116を生成する際にスキャン対象となった対象者2のプロファイルに基づきカテゴリごとに分類されて保持される。たとえば、年齢(未成年者,現役世代,高齢者)、および性別(男性,女性)に基づき、6個のカテゴリに対して、学習用データセットが割り当てられる。 As shown in FIG. 20, the learning data set 116 is classified and held for each category based on the profile of the subject 2 who was scanned when the learning data set 116 was generated. For example, learning data sets are assigned to six categories based on age (minors, working generation, elderly) and sex (male, female).

変形例に係るデータ処理装置100bは、カテゴリごとに分類された複数の学習用データセット116p~116uのそれぞれをカテゴリごとに用いて推定モデル114を学習させることで、カテゴリごとの学習済モデル114p~114uを生成する。 The data processing device 100b according to the modification causes the estimation model 114 to learn using each of the plurality of learning data sets 116p to 116u classified for each category, thereby learning the trained models 114p to 114p for each category. 114u.

このように、変形例に係るデータ処理装置100bは、カテゴリごとに分類された複数の学習済モデル114p~114uを生成することができるため、対象者2のプロファイルに応じたより詳細な分析によって、より精度良く歯牙の種類を識別することができる。 In this way, the data processing device 100b according to the modification can generate a plurality of trained models 114p to 114u classified by category. The type of tooth can be identified with high accuracy.

なお、図20に示す学習済モデル114p~114uの生成は、サーバ装置500が保持する学習済モデルの生成についても適用可能である。たとえば、図20に示す学習用データセット116p~116uを、サーバ装置500が保持する学習用データセット516に適用してもよいし、図20に示す学習済モデル114p~114uを、サーバ装置500が保持する学習済モデルに適用してもよい。 The generation of the trained models 114p to 114u shown in FIG. 20 can also be applied to the generation of trained models held by the server device 500. FIG. For example, the learning data sets 116p-116u shown in FIG. It may be applied to the retained trained model.

(カテゴリごとの学習済モデルを用いたサービス提供処理)
図21を参照しながら、カテゴリごとの学習済モデル114p~114uを用いてデータ処理装置100が実行するサービス提供処理について説明する。図21は、変形例に係るデータ処理装置100bが実行するサービス提供処理の一例を説明するためのフローチャートである。なお、図21に示すS41、S42、S45~S47の処理は、図17に示すS41、S42、S45~S47の処理と同じであるため、図21においては、S41、S42、S45~S47の処理についての詳細な説明を省略する。
(Service provision processing using trained model for each category)
A service providing process executed by the data processing device 100 using the trained models 114p to 114u for each category will be described with reference to FIG. FIG. 21 is a flowchart for explaining an example of service providing processing executed by the data processing device 100b according to the modification. 21 are the same as the processes of S41, S42, and S45 to S47 shown in FIG. 17, therefore, in FIG. A detailed description of is omitted.

図21に示すように、データ処理装置100bは、所定の点に対応する三次元データが入力され(S41でYES)、かつユーザ1によって対象者2のプロファイルデータが入力されている場合(S42でYES)、図20に示す学習済モデル群の中からプロファイルデータに対応する学習済モデルを選択する(S61b)。たとえば、対象者2が高齢者の女性であれば、データ処理装置100bは、学習済モデル114uを選択する。 As shown in FIG. 21, data processing device 100b receives three-dimensional data corresponding to a predetermined point (YES in S41), and when user 1 inputs profile data of subject 2 (YES in S42). YES), a trained model corresponding to the profile data is selected from the trained model group shown in FIG. 20 (S61b). For example, if the subject 2 is an elderly woman, the data processing device 100b selects the learned model 114u.

その後、データ処理装置100bは、三次元データを学習済モデルに入力する(S62b)。データ処理装置100bは、三次元データに対応する歯牙の特徴に基づき、学習済モデルを用いて当該歯牙の種類を推定する推定処理を実行し(S45)、推定処理によって得られた推定結果に基づき、推定された歯牙の種類を示す関連データ三次元データに関連付け(S46)、その関連付けの結果を出力する(S47)。 After that, the data processing device 100b inputs the three-dimensional data to the learned model (S62b). The data processing device 100b executes an estimation process for estimating the type of the tooth using the learned model based on the characteristics of the tooth corresponding to the three-dimensional data (S45), and based on the estimation result obtained by the estimation process , associated data indicating the estimated tooth type with three-dimensional data (S46), and the result of the association is output (S47).

このように、変形例に係るデータ処理装置100bは、対象者2のプロファイルに最も適した学習済モデルを用いて推定処理を実行することができるため、対象者2のプロファイルに応じたより詳細な分析によって、より精度良く歯牙の種類を識別することができる。 In this way, the data processing device 100b according to the modification can execute the estimation process using the trained model most suitable for the profile of the subject 2, so that more detailed analysis according to the profile of the subject 2 Therefore, the type of tooth can be identified with higher accuracy.

(プロファイルの出力)
本実施の形態に係るデータ処理装置100は、推定処理によって、歯牙の種類を識別するものであった。しかし、図10および図22に示すように、対象者2のプロファイルを考慮した学習用データセットに基づき学習済モデルが生成されることに鑑みると、推定処理において三次元データが学習済モデルに入力されることで、当該三次元データに対応する歯牙の特徴に基づき、当該歯牙の所有者のプロファイルが推定結果として出力されてもよい。このようにすれば、災害や事件などで発見された身元不明の対象者2について、歯牙を含む三次元データからプロファイルを特定することができる。
(Profile output)
The data processing apparatus 100 according to the present embodiment identifies the type of tooth by estimation processing. However, as shown in FIGS. 10 and 22, in view of the fact that the trained model is generated based on the learning data set considering the profile of the subject 2, the three-dimensional data is input to the trained model in the estimation process. By doing so, the profile of the owner of the tooth may be output as an estimation result based on the characteristics of the tooth corresponding to the three-dimensional data. In this way, the profile of the unidentified subject 2 found in a disaster or incident can be specified from the three-dimensional data including teeth.

(学習処理)
本実施の形態に係るデータ処理装置100は、学習処理によって推定モデル114のパラメータ1144を更新するものであったが、パラメータ1144を更新するものに限らず、学習処理によってニューラルネットワーク1142が更新される(たとえば、ニューラルネットワーク1142のアルゴリズムが更新される)ものであってもよい。また、本実施の形態に係るサーバ装置500は、学習処理によって推定モデル514のパラメータを更新するものであったが、パラメータを更新するものに限らず、学習処理によってニューラルネットワークが更新される(たとえば、ニューラルネットワークのアルゴリズムが更新される)ものであってもよい。
(learning process)
Data processing apparatus 100 according to the present embodiment updates parameter 1144 of estimation model 114 by learning processing, but is not limited to updating parameter 1144, and neural network 1142 is updated by learning processing. (eg, the algorithm of neural network 1142 is updated). Server device 500 according to the present embodiment updates the parameters of estimation model 514 by learning processing, but is not limited to updating the parameters, and the neural network is updated by learning processing (for example, , the algorithm of the neural network is updated).

(法線および/または色情報を用いた識別)
図22は、変形例に係る学習用データセットの一例を説明するための模式図である。変形例に係るデータ処理装置100cは、三次元スキャナ200によって取得された三次元データに含まれる位置情報に加えて、歯牙の実際の色情報を推定モデル114に入力することで、推定モデル114を学習してもよい。
(identification using normal and/or color information)
FIG. 22 is a schematic diagram for explaining an example of a learning data set according to a modification. The data processing device 100c according to the modified example inputs the actual color information of the tooth into the estimation model 114 in addition to the position information included in the three-dimensional data acquired by the three-dimensional scanner 200, thereby making the estimation model 114 You can learn.

たとえば、図9を用いて説明したように、学習用データセットには、推定モデル114に対する入力データである位置情報と、正解データである歯牙の種類に対応付けられた色分け後の色情報とが含まれているが、これに加えて、図22に示すように、色分け前の歯牙の色情報が含まれてもよい。そして、学習処理においては、推定モデル114に対して位置情報に加えて色分け前の歯牙の色情報が入力されることで、歯牙の実際の色情報も考慮して、学習済モデルが生成されてもよい。 For example, as described with reference to FIG. 9, the learning data set includes position information, which is input data for the estimation model 114, and color information after color coding associated with tooth types, which is correct data. In addition to this, as shown in FIG. 22, tooth color information before color-coding may also be included. In the learning process, in addition to the positional information, the color information of the teeth before color-coding is input to the estimation model 114, so that a learned model is generated in consideration of the actual color information of the teeth. good too.

さらに、学習用データセットには、推定モデル114に対する入力データである位置情報と、正解データである歯牙の種類に対応付けられた色分け後の色情報とに加えて、図22に示すように、位置情報に基づき算出可能な法線情報が含まれてもよい。そして、学習処理においては、推定モデル114に対して位置情報に加えて法線情報が入力されることで、法線情報も考慮して、学習済モデルが生成されてもよい。 Furthermore, in the learning data set, in addition to position information, which is input data for the estimation model 114, and color information after color coding associated with tooth types, which is correct data, as shown in FIG. Normal information that can be calculated based on the position information may also be included. Then, in the learning process, by inputting the normal information in addition to the position information to the estimation model 114, the learned model may be generated in consideration of the normal information.

法線情報は、たとえば、以下のようにして算出することができる。たとえば、歯牙を構成する複数の点のうち、一の点に注目し、その注目点の近傍の所定範囲内に属する複数の点に基づいて、注目点の法線を生成する。具体的には、注目点の法線は、注目点の近傍の所定範囲内に属する複数の点に対し、主成分分析を用いて生成することができる。主成分分析は、一般的に、分散共分散行列を計算することで実施することができる。この分散共分散行列の計算において固有ベクトルを計算し、主成分方向を注目点の法線として生成すればよい。なお、点群におけるある点に対する法線の生成方法は公知であるため、一般的に知られているその他の技術を用いてもよい。 Normal information can be calculated, for example, as follows. For example, one of a plurality of points forming a tooth is focused on, and a normal to the point of interest is generated based on a plurality of points belonging to a predetermined range near the point of interest. Specifically, the normal to the point of interest can be generated using principal component analysis for a plurality of points belonging to a predetermined range near the point of interest. Principal component analysis can generally be performed by computing a variance-covariance matrix. Eigenvectors are calculated in the calculation of the variance-covariance matrix, and the principal component direction is generated as the normal to the point of interest. Since the method of generating a normal to a point in the point group is well known, other generally known techniques may be used.

このように、学習用データセットに法線情報を加えることで、歯牙を構成する複数の点のそれぞれにおいて、各点が構成する歯牙のどちら側が表面なのかについてもデータ処理装置が学習することができる。また、注目点の近傍の所定範囲内に属する少数の点群のみに基づいて窪みなどの形状の特徴をデータ処理装置が学習することができる。 In this way, by adding the normal information to the learning data set, the data processing device can also learn which side of the tooth that each point constitutes is the surface for each of the plurality of points that constitute the tooth. can. In addition, the data processing device can learn features of a shape such as a depression based only on a small number of point groups belonging to a predetermined range near the point of interest.

なお、学習用データセットには、色分け前の歯牙の色情報と法線情報との両方が含まれてもよいし、一方のみが含まれてもよい。 The learning data set may contain both color information and normal line information of the tooth before color-coding, or may contain only one of them.

次に、色分け前の歯牙の色情報および法線情報を含む学習用データセットに基づき学習された学習済モデルを用いて推定処理を実行するサービス提供処理について、図23を参照しながら説明する。図23は、変形例に係るデータ処理装置100cが実行するサービス提供処理の一例を説明するためのフローチャートである。なお、図23に示すS41、S42、S45~S47の処理は、図17に示すS41、S42、S45~S47の処理と同じであるため、図23においては、S41、S42、S45~S47の処理についての詳細な説明を省略する。 Next, a service providing process for performing an estimation process using a trained model trained based on a learning data set containing tooth color information and normal information before color-coding will be described with reference to FIG. 23 . FIG. 23 is a flowchart for explaining an example of service providing processing executed by the data processing device 100c according to the modification. Note that the processes of S41, S42, S45 to S47 shown in FIG. 23 are the same as the processes of S41, S42, S45 to S47 shown in FIG. A detailed description of is omitted.

図23に示すように、変形例に係るデータ処理装置100cは、図17に示したデータ処理装置100が実行するサービス提供処理と異なり、S61cの処理を追加で実行する。すなわち、データ処理装置100cは、所定の点に対応する三次元データが入力された後(S41でYES)、入力された三次元データに含まれる位置情報に基づき、歯牙を構成する点における法線を生成する(S61c)。なお、入力された三次元データには、位置情報に加えて色分け前の歯牙の色情報が含まれている。 As shown in FIG. 23, the data processing device 100c according to the modification additionally executes the processing of S61c, unlike the service providing processing executed by the data processing device 100 shown in FIG. That is, after the three-dimensional data corresponding to the predetermined point is input (YES in S41), the data processing device 100c determines the normal line of the point forming the tooth based on the position information included in the input three-dimensional data. is generated (S61c). In addition to the position information, the input three-dimensional data includes color information of the teeth before color-coding.

その後、データ処理装置100cは、プロファイルデータが入力されていない場合(S42でNO)、三次元データに加えて法線情報を学習済モデルに入力する(S62c)。一方、データ処理装置100cは、プロファイルデータが入力されている場合(S42でYES)、三次元データおよびプロファイルデータに加えて法線情報を学習済モデルに入力する(S63c)。そして、S62cおよびS63cの後、データ処理装置100cは、学習済モデルを用いて歯牙の種類を推定する推定処理を実行する(S45)。 After that, if the profile data has not been input (NO in S42), the data processing device 100c inputs the normal information to the learned model in addition to the three-dimensional data (S62c). On the other hand, if the profile data has been input (YES in S42), the data processing device 100c inputs the normal information to the learned model in addition to the three-dimensional data and the profile data (S63c). After S62c and S63c, the data processing device 100c executes an estimation process of estimating the type of tooth using the learned model (S45).

このように、変形例に係るデータ処理装置100cは、色分け前の歯牙の色情報、および三次元データに対応する歯牙を構成する複数の点のそれぞれについて生成された法線にさらに基づき、歯牙の種類を識別してもよい。なお、データ処理装置100cには、色分け前の歯牙の色情報が入力される一方で、法線情報が入力されない場合であってもよい。あるいは、データ処理装置100cには、法線情報が入力される一方で、色分け前の歯牙の色情報が入力されない場合であってもよい。 In this way, the data processing device 100c according to the modification further calculates the color information of the tooth before color-coding and the normal lines generated for each of the plurality of points forming the tooth corresponding to the three-dimensional data. The type may be identified. Note that the data processing device 100c may be input with color information of teeth before color separation, but without input of normal line information. Alternatively, the data processing device 100c may receive normal line information but not tooth color information before color separation.

このように、データ処理装置100cは、色分け前の歯牙の色情報、および/または複数の点のそれぞれについて生成された法線に基づき歯牙の種類を識別することができるため、より精度良く歯牙の種類を識別することができる。 In this way, the data processing device 100c can identify the type of tooth based on the color information of the tooth before color-coding and/or the normal lines generated for each of the plurality of points. Able to identify types.

今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は上記した説明ではなく特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。なお、本実施の形態で例示された構成および変形例で例示された構成は、適宜組み合わせることができる。 It should be considered that the embodiments disclosed this time are illustrative in all respects and not restrictive. The scope of the present disclosure is indicated by the scope of claims rather than the above description, and is intended to include all modifications within the meaning and scope of equivalents of the scope of claims. Note that the configurations exemplified in this embodiment and the configurations exemplified in the modifications can be combined as appropriate.

1 ユーザ、2 対象者、5 ネットワーク、10 データ処理システム、100,100a,100b データ処理装置、102 スキャナインターフェース、103,503 ディスプレイインターフェース、105,505 周辺機器インターフェース、106,506 ネットワークコントローラ、107,507 メディア読取装置、108 PCディスプレイ、109,509 メモリ、110,510 ストレージ、112,512 スキャン情報、114,514 推定モデル、114a,514a 学習済モデル、116,516 学習用データセット、118,518 色分類データ、119,519 プロファイルデータ、120 データ処理用プログラム、121,521 学習用プログラム、122,522 三次元データ、124,524 推定結果、127,527 OS、130,530 演算装置、200 三次元スキャナ、300,350 ディスプレイ、500 サーバ装置、550 リムーバブルディスク、601,651 キーボード、602,652 マウス、1102 入力部、1103 出力部、1119 プロファイル取得部、1130 推定部、1142 ニューラルネットワーク、1144 パラメータ。 1 user, 2 subject, 5 network, 10 data processing system, 100, 100a, 100b data processing device, 102 scanner interface, 103, 503 display interface, 105, 505 peripheral device interface, 106, 506 network controller, 107, 507 Media reader, 108 PC display, 109,509 memory, 110,510 storage, 112,512 scan information, 114,514 estimation model, 114a, 514a trained model, 116,516 learning data set, 118,518 color classification data, 119,519 profile data, 120 data processing program, 121,521 learning program, 122,522 three-dimensional data, 124,524 estimation result, 127,527 OS, 130,530 arithmetic device, 200 three-dimensional scanner, 300,350 display, 500 server device, 550 removable disk, 601,651 keyboard, 602,652 mouse, 1102 input unit, 1103 output unit, 1119 profile acquisition unit, 1130 estimation unit, 1142 neural network, 1144 parameters.

Claims (13)

歯牙の種類に関連するデータを処理するデータ処理装置であって、
歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力される入力部と、
前記入力部から入力された三次元データと、当該三次元データに基づき歯牙の種類を推定するためのニューラルネットワークを含む推定モデルとに基づき、当該三次元データに対応する複数の点のそれぞれに対して歯牙の種類に関連する関連データを関連付ける関連付け部と、
前記関連付け部による関連付けの結果を出力する出力部とを備える、データ処理装置。
A data processing device for processing data related to tooth type, comprising:
an input unit for inputting three-dimensional data including three-dimensional positional information for each of a plurality of points forming a tooth;
Based on the three-dimensional data input from the input unit and an estimation model including a neural network for estimating the type of tooth based on the three-dimensional data, for each of a plurality of points corresponding to the three-dimensional data an associating unit for associating relevant data associated with tooth types;
and an output unit that outputs a result of association by the association unit.
前記入力部から入力された三次元データと、前記推定モデルとに基づき、当該三次元データに対応する複数の点ごとに歯牙の種類を推定する推定部を備え、
前記関連付け部は、前記推定部による推定結果に基づき、前記入力部から入力された三次元データに対応する複数の点のそれぞれに対して前記関連データを関連付ける、請求項1に記載のデータ処理装置。
an estimation unit for estimating the type of tooth for each of a plurality of points corresponding to the three-dimensional data based on the three-dimensional data input from the input unit and the estimation model;
2. The data processing device according to claim 1, wherein said associating unit associates said related data with each of a plurality of points corresponding to three-dimensional data input from said input unit based on an estimation result by said estimating unit. .
前記推定部は、前記入力部から入力された一の三次元データについて、当該一の三次元データの特定範囲内に含まれる他の三次元データとの関係に基づき、当該一の三次元データに対応する点における歯牙の種類を推定する、請求項2に記載のデータ処理装置。 The estimation unit converts the one three-dimensional data input from the input unit to the one three-dimensional data based on the relationship with other three-dimensional data included in a specific range of the one three-dimensional data 3. A data processing apparatus according to claim 2, for estimating tooth type at corresponding points. 前記推定部は、前記入力部から入力された三次元データに対応する複数の点ごとに生成された法線にさらに基づき、当該複数の点ごとに歯牙の種類を推定する、請求項2または請求項3に記載のデータ処理装置。 3. The estimating unit further estimates the type of tooth for each of the plurality of points based on normal lines generated for each of the plurality of points corresponding to the three-dimensional data input from the input unit. Item 4. The data processing device according to item 3. 前記関連付け部は、前記入力部から入力された一の三次元データに対応する点に対して前記関連データを関連付けた後、当該一の三次元データの特定範囲内に含まれる他の三次元データに対応する点に対して関連付けた前記関連データに基づき、当該一の三次元データに対応する点に対して関連付けた前記関連データを変更する、請求項1~請求項4のいずれか1項に記載のデータ処理装置。 The associating unit, after associating the related data with a point corresponding to the one three-dimensional data input from the input unit, other three-dimensional data included within a specific range of the one three-dimensional data According to any one of claims 1 to 4, the relevant data associated with the point corresponding to the one three-dimensional data is changed based on the relevant data associated with the point corresponding to Data processing apparatus as described. 前記推定モデルは、歯牙を構成する複数の点のそれぞれに対応付けられた歯牙の種類と、当該複数の点のそれぞれにおける三次元の位置情報を含む三次元データを用いた当該歯牙の種類の推定結果とに基づき学習されたものである、請求項1~請求項5のいずれか1項に記載のデータ処理装置。 The estimation model estimates the type of tooth using three-dimensional data including tooth types associated with each of a plurality of points constituting a tooth and three-dimensional position information of each of the plurality of points. 6. The data processing device according to any one of claims 1 to 5, wherein the learning is performed based on the results. 前記入力部から入力された三次元データは、口腔内の歯牙および歯肉を構成する複数の点のそれぞれにおける三次元の位置情報を含む、請求項1~請求項6のいずれか1項に記載のデータ処理装置。 The three-dimensional data input from the input unit according to any one of claims 1 to 6, wherein the three-dimensional data includes three-dimensional position information at each of a plurality of points that constitute teeth and gums in the oral cavity. Data processing equipment. 前記関連データは、歯牙の種類に対応する色、文字、数字、および記号の少なくともいずれか1つを含む、請求項1~請求項7のいずれか1項に記載のデータ処理装置。 The data processing device according to any one of claims 1 to 7, wherein said related data includes at least one of colors, letters, numbers, and symbols corresponding to tooth types. 前記出力部は、前記入力部から入力された三次元データに対応する複数の点を表す点群表示によって、前記関連付け部による関連付けの結果を出力する、請求項1~請求項8のいずれか1項に記載のデータ処理装置。 9. The output unit according to any one of claims 1 to 8, wherein the output unit outputs the result of association by the association unit using a point cloud display representing a plurality of points corresponding to the three-dimensional data input from the input unit. A data processing device according to any one of the preceding paragraphs. 前記出力部は、前記入力部から入力された三次元データに対応する複数の点によって構成される歯牙を表すポリゴンメッシュによって、前記関連付け部による関連付けの結果を出力する、請求項1~請求項9のいずれか1項に記載のデータ処理装置。 1 to 9, wherein the output unit outputs the result of the association by the association unit using a polygon mesh representing a tooth composed of a plurality of points corresponding to the three-dimensional data input from the input unit. The data processing device according to any one of . 歯牙の種類に関連するデータを処理するデータ処理システムであって、
三次元カメラを用いて、歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データを取得する三次元スキャナと、
前記三次元スキャナによって取得された三次元データに対応する複数の点のそれぞれに対して歯牙の種類に関連する関連データを関連付けるデータ処理装置とを備え、
前記データ処理装置は、
前記三次元スキャナによって取得された三次元データが入力される入力部と、
前記入力部から入力された三次元データと、当該三次元データに基づき歯牙の種類を推定するためのニューラルネットワークを含む推定モデルとに基づき、当該三次元データに対応する複数の点のそれぞれに対して歯牙の種類に関連する関連データを関連付ける関連付け部と、
前記関連付け部による関連付けの結果を出力する出力部とを含む、データ処理システム。
A data processing system for processing data related to tooth type, comprising:
A three-dimensional scanner that acquires three-dimensional data including three-dimensional position information at each of a plurality of points that constitute the tooth using a three-dimensional camera;
a data processing device that associates relevant data related to tooth types with each of a plurality of points corresponding to the three-dimensional data acquired by the three-dimensional scanner;
The data processing device is
an input unit into which three-dimensional data acquired by the three-dimensional scanner is input;
Based on the three-dimensional data input from the input unit and an estimation model including a neural network for estimating the type of tooth based on the three-dimensional data, for each of a plurality of points corresponding to the three-dimensional data an associating unit for associating relevant data associated with tooth types;
and an output unit that outputs a result of association by the association unit.
コンピュータによる歯牙の種類に関連するデータを処理するデータ処理方法であって、
歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力されるステップと、
前記入力されるステップによって入力された三次元データと、当該三次元データに基づき歯牙の種類を推定するためのニューラルネットワークを含む推定モデルとに基づき、当該三次元データに対応する複数の点のそれぞれに対して歯牙の種類に関連する関連データを関連付けるステップと、
前記関連付けるステップによる関連付けの結果を出力するステップとを含む、データ処理方法。
A computer data processing method for processing data relating to tooth type, comprising:
a step of inputting three-dimensional data including three-dimensional positional information of each of a plurality of points constituting the tooth;
Each of a plurality of points corresponding to the three-dimensional data based on the three-dimensional data input in the input step and an estimation model including a neural network for estimating the type of tooth based on the three-dimensional data associating relevant data relating to tooth type to
and outputting a result of association by the associating step.
歯牙の種類に関連するデータを処理するデータ処理用プログラムであって、
前記データ処理用プログラムは、コンピュータに、
歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力されるステップと、
前記入力されるステップによって入力された三次元データと、当該三次元データに基づき歯牙の種類を推定するためのニューラルネットワークを含む推定モデルとに基づき、当該三次元データに対応する複数の点のそれぞれに対して歯牙の種類に関連する関連データを関連付けるステップと、
前記関連付けるステップによる関連付けの結果を出力するステップとを実行させる、データ処理用プログラム。
A data processing program for processing data related to tooth type,
The data processing program is a computer,
a step of inputting three-dimensional data including three-dimensional positional information of each of a plurality of points constituting the tooth;
Each of a plurality of points corresponding to the three-dimensional data based on the three-dimensional data input in the input step and an estimation model including a neural network for estimating the type of tooth based on the three-dimensional data associating relevant data relating to tooth type to
A data processing program causing execution of a step of outputting a result of association by the associating step.
JP2020113849A 2020-07-01 2020-07-01 DATA PROCESSING APPARATUS, DATA PROCESSING SYSTEM, DATA PROCESSING METHOD, AND DATA PROCESSING PROGRAM Active JP7195291B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020113849A JP7195291B2 (en) 2020-07-01 2020-07-01 DATA PROCESSING APPARATUS, DATA PROCESSING SYSTEM, DATA PROCESSING METHOD, AND DATA PROCESSING PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020113849A JP7195291B2 (en) 2020-07-01 2020-07-01 DATA PROCESSING APPARATUS, DATA PROCESSING SYSTEM, DATA PROCESSING METHOD, AND DATA PROCESSING PROGRAM

Publications (2)

Publication Number Publication Date
JP2022012197A JP2022012197A (en) 2022-01-17
JP7195291B2 true JP7195291B2 (en) 2022-12-23

Family

ID=80148566

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020113849A Active JP7195291B2 (en) 2020-07-01 2020-07-01 DATA PROCESSING APPARATUS, DATA PROCESSING SYSTEM, DATA PROCESSING METHOD, AND DATA PROCESSING PROGRAM

Country Status (1)

Country Link
JP (1) JP7195291B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017213060A (en) 2016-05-30 2017-12-07 富士通株式会社 Tooth type determination program, crown position determination device and its method
WO2019243233A1 (en) 2018-06-22 2019-12-26 Sirona Dental Systems Gmbh Method for designing a drilling template
WO2020007941A1 (en) 2018-07-03 2020-01-09 Promaton Holding B.V. Automated determination of a canonical pose of a 3d objects and superimposition of 3d objects using deep learning
US20200085546A1 (en) 2018-09-14 2020-03-19 Align Technology, Inc. Machine learning scoring system and methods for tooth position assessment

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6831432B2 (en) * 2019-10-17 2021-02-17 株式会社モリタ製作所 Identification device, tooth type identification system, identification method, and identification program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017213060A (en) 2016-05-30 2017-12-07 富士通株式会社 Tooth type determination program, crown position determination device and its method
WO2019243233A1 (en) 2018-06-22 2019-12-26 Sirona Dental Systems Gmbh Method for designing a drilling template
WO2020007941A1 (en) 2018-07-03 2020-01-09 Promaton Holding B.V. Automated determination of a canonical pose of a 3d objects and superimposition of 3d objects using deep learning
US20200085546A1 (en) 2018-09-14 2020-03-19 Align Technology, Inc. Machine learning scoring system and methods for tooth position assessment

Also Published As

Publication number Publication date
JP2022012197A (en) 2022-01-17

Similar Documents

Publication Publication Date Title
JP6650996B1 (en) Identification apparatus, scanner system, identification method, and identification program
US20220218449A1 (en) Dental cad automation using deep learning
US11651494B2 (en) Apparatuses and methods for three-dimensional dental segmentation using dental image data
JP7220569B2 (en) Imaging support device, scanner system, and imaging support method
US8706672B2 (en) Computer-assisted creation of a custom tooth set-up using facial analysis
JP7398512B2 (en) Data generation device, scanner system, data generation method, and data generation program
JP6831432B2 (en) Identification device, tooth type identification system, identification method, and identification program
JP6831433B2 (en) Identification device, tooth type identification system, identification method, and identification program
JP7227188B2 (en) Identification device, identification system, identification method, and identification program
JP6900445B2 (en) Identification device, tooth type identification system, identification method, and identification program
JP6831431B2 (en) Identification device, tooth type identification system, identification method, and identification program
JP2023099629A (en) Identification device, scanner system, identification method, and identification program
JP7195291B2 (en) DATA PROCESSING APPARATUS, DATA PROCESSING SYSTEM, DATA PROCESSING METHOD, AND DATA PROCESSING PROGRAM
JP7265359B2 (en) DATA GENERATION DEVICE, SCANNER SYSTEM, DATA GENERATION METHOD, AND DATA GENERATION PROGRAM
JP7405809B2 (en) Estimation device, estimation method, and estimation program
JP7507135B2 (en) Estimation device, estimation method, and estimation program
JP7267974B2 (en) IDENTIFICATION DEVICE, SCANNER SYSTEM, IDENTIFICATION METHOD, AND IDENTIFICATION PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221213

R150 Certificate of patent or registration of utility model

Ref document number: 7195291

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150