JP7227188B2 - Identification device, identification system, identification method, and identification program - Google Patents

Identification device, identification system, identification method, and identification program Download PDF

Info

Publication number
JP7227188B2
JP7227188B2 JP2020113848A JP2020113848A JP7227188B2 JP 7227188 B2 JP7227188 B2 JP 7227188B2 JP 2020113848 A JP2020113848 A JP 2020113848A JP 2020113848 A JP2020113848 A JP 2020113848A JP 7227188 B2 JP7227188 B2 JP 7227188B2
Authority
JP
Japan
Prior art keywords
identification
tooth
teeth
adjacent
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020113848A
Other languages
Japanese (ja)
Other versions
JP2022012196A (en
Inventor
亮佑 鍛治
巳貴則 西村
学 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
J Morita Manufaturing Corp
Original Assignee
J Morita Manufaturing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by J Morita Manufaturing Corp filed Critical J Morita Manufaturing Corp
Priority to JP2020113848A priority Critical patent/JP7227188B2/en
Publication of JP2022012196A publication Critical patent/JP2022012196A/en
Application granted granted Critical
Publication of JP7227188B2 publication Critical patent/JP7227188B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Image Analysis (AREA)

Description

本開示は、識別装置、識別システム、識別方法、および識別用プログラムに関する。 The present disclosure relates to an identification device, an identification system, an identification method, and an identification program.

従来から、歯科分野において、補綴物などをコンピュータ上でデジタル設計するために、歯牙の三次元形状を取得する三次元カメラを内蔵した三次元スキャナが公知である。たとえば、特許文献1には、三次元カメラを用いて歯牙を撮像することで、歯牙の形状を記録する技術が開示されている。歯科医師などの術者は、特許文献1に開示された三次元カメラを用いることで、撮像対象となった歯牙の三次元形状を記録することができ、さらに記録された歯牙の三次元形状が示された三次元画像を確認しながら、自身の知見によって当該歯牙の種類を識別することができる。 2. Description of the Related Art Conventionally, in the field of dentistry, a three-dimensional scanner with a built-in three-dimensional camera for obtaining a three-dimensional shape of a tooth has been known for digital designing of a prosthesis or the like on a computer. For example, Patent Literature 1 discloses a technique for recording the shape of a tooth by capturing an image of the tooth using a three-dimensional camera. An operator such as a dentist can record the three-dimensional shape of the tooth to be imaged by using the three-dimensional camera disclosed in Patent Document 1, and the recorded three-dimensional shape of the tooth can be recorded. While confirming the displayed three-dimensional image, the user can identify the type of tooth according to his/her own knowledge.

特開2000-74635号公報JP-A-2000-74635

このように、従来から、術者は、三次元カメラによって取得された歯牙を含む三次元画像に基づき、自身の知見によって当該歯牙の種類を識別していたが、知見のレベルは術者ごとに異なるため、術者の知見のレベルに応じて識別結果の精度がばらつくという問題があった。たとえば、中切歯と側切歯、犬歯と第一小臼歯、第一小臼歯と第二小臼歯、第二小臼歯と第一大臼歯、第一台臼歯と第二大臼歯など、形状が類似する歯牙同士では特に識別精度は高くない。 In this way, conventionally, the operator has identified the type of the tooth based on his/her own knowledge based on the three-dimensional image including the tooth acquired by the three-dimensional camera, but the level of knowledge varies for each operator. Therefore, there is a problem that the accuracy of the identification result varies depending on the level of knowledge of the operator. For example, central incisors and lateral incisors, canines and first premolars, first premolars and second premolars, second premolars and first molars, first premolars and second molars, etc. The accuracy of discrimination between similar teeth is not particularly high.

本開示は、このような問題を解決するためになされたものであり、精度良く歯牙の種類を識別することができる識別装置、当該識別装置を備える識別システム、識別方法、および識別用プログラムを提供することを目的とする。 The present disclosure has been made to solve such problems, and provides an identification device capable of accurately identifying the type of tooth, an identification system including the identification device, an identification method, and an identification program. intended to

本開示に従えば、歯牙の種類を識別する識別装置が提供される。識別装置は、複数の歯牙が隣接する隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力される入力部と、入力部から入力された三次元データに基づき、隣接歯牙に含まれる歯牙の種類を識別する識別部と、識別部による識別結果を出力する出力部とを備え、識別部は、複数の歯牙が隣接する第1隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データと、第1ニューラルネットワークを含む第1推定モデルとに基づき、当該第1隣接歯牙と同一の数または当該第1隣接歯牙よりも少ない数の複数の歯牙が隣接する第2隣接歯牙を識別する第1識別部と、第1識別部による識別結果と、第2ニューラルネットワークを含む第2推定モデルとに基づき、第2隣接歯牙に含まれる歯牙の種類を識別する第2識別部とを含む。 According to the present disclosure, an identification device is provided for identifying tooth types. The identification device includes an input unit for inputting three-dimensional data including three-dimensional position information at each of a plurality of points forming adjacent teeth where a plurality of teeth are adjacent, and based on the three-dimensional data input from the input unit. , an identification unit for identifying types of teeth included in adjacent teeth, and an output unit for outputting identification results by the identification unit, wherein the identification unit includes a plurality of points constituting a first adjacent tooth to which the plurality of teeth are adjacent. Based on three-dimensional data including three-dimensional position information in each of and a first estimation model including a first neural network, the same number as the first adjacent tooth or a plurality of numbers less than the first adjacent tooth of teeth included in the second adjacent tooth based on a first identification unit that identifies the second adjacent tooth adjacent to the tooth, the identification result of the first identification unit, and a second estimation model that includes a second neural network and a second identification portion for identifying the type.

本開示に従えば、歯牙の種類を識別する識別システムが提供される。識別システムは、三次元カメラを用いて、複数の歯牙が隣接する隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データを取得する三次元スキャナと、三次元スキャナによって取得された三次元データに基づき、隣接歯牙に含まれる歯牙の種類を識別する識別装置とを備え、識別装置は、三次元スキャナによって取得された三次元データが入力される入力部と、入力部から入力された三次元データに基づき、隣接歯牙に含まれる歯牙の種類を識別する識別部と、識別部による識別結果を出力する出力部とを含み、識別部は、複数の歯牙が隣接する第1隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データと、第1ニューラルネットワークを含む第1推定モデルとに基づき、当該第1隣接歯牙と同一の数または当該第1隣接歯牙よりも少ない数の複数の歯牙が隣接する第2隣接歯牙を識別する第1識別部と、第1識別部による識別結果と、第2ニューラルネットワークを含む第2推定モデルとに基づき、第2隣接歯牙に含まれる歯牙の種類を識別する第2識別部とを有する。 According to the present disclosure, an identification system is provided for identifying tooth types. The identification system uses a three-dimensional camera to acquire three-dimensional data including three-dimensional position information at each of a plurality of points forming adjacent teeth adjacent to each other, and a three-dimensional scanner. an identification device that identifies types of teeth included in adjacent teeth based on the acquired three-dimensional data, and the identification device includes an input unit into which the three-dimensional data acquired by the three-dimensional scanner is input; An identification unit that identifies the types of teeth included in adjacent teeth based on the three-dimensional data input from the identification unit, and an output unit that outputs identification results obtained by the identification unit. Based on three-dimensional data containing three-dimensional position information at each of a plurality of points constituting one adjacent tooth and a first estimation model including a first neural network, the same number as the first adjacent tooth or the first Based on a first identification unit that identifies a second adjacent tooth adjacent to a plurality of teeth that are less than one adjacent tooth, a result of identification by the first identification unit, and a second estimation model that includes a second neural network, and a second identification portion for identifying the type of tooth included in the second adjacent tooth.

本開示に従えば、コンピュータによる歯牙の種類を識別する識別方法が提供される。識別方法は、コンピュータが実行する処理として、複数の歯牙が隣接する隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力されるステップと、入力されるステップによって入力された三次元データに基づき、隣接歯牙に含まれる歯牙の種類を識別するステップと、識別するステップによる識別結果を出力するステップとを含み、識別するステップは、複数の歯牙が隣接する第1隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データと、第1ニューラルネットワークを含む第1推定モデルとに基づき、当該第1隣接歯牙と同一の数または当該第1隣接歯牙よりも少ない数の複数の歯牙が隣接する第2隣接歯牙を識別する第1識別ステップと、第1識別ステップによる識別結果と、第2ニューラルネットワークを含む第2推定モデルとに基づき、第2隣接歯牙に含まれる歯牙の種類を識別する第2識別ステップとを有する。 According to the present disclosure, a computerized identification method for identifying tooth types is provided. The identification method includes a step of inputting three-dimensional data including three-dimensional position information at each of a plurality of points forming adjacent teeth where a plurality of teeth are adjacent , as a process executed by a computer , and a step of inputting Based on the input three-dimensional data, identifying the types of teeth included in adjacent teeth; and outputting identification results obtained by the identifying step. Based on three-dimensional data including three-dimensional positional information at each of a plurality of points constituting adjacent teeth and a first estimation model including a first neural network, the same number as the first adjacent tooth or the first Based on a first identification step of identifying a second adjacent tooth adjacent to a plurality of teeth in a number smaller than the number of adjacent teeth, an identification result of the first identification step, and a second estimation model including a second neural network, a second and a second identification step of identifying the types of teeth included in the two adjacent teeth.

本開示に従えば、歯牙の種類を識別する識別用プログラムが提供される。識別用プログラムは、コンピュータに、複数の歯牙が隣接する隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力されるステップと、入力されるステップによって入力された三次元データに基づき、隣接歯牙に含まれる歯牙の種類を識別するステップと、識別するステップによる識別結果を出力するステップとを実行させ、識別するステップは、複数の歯牙が隣接する第1隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データと、第1ニューラルネットワークを含む第1推定モデルとに基づき、当該第1隣接歯牙と同一の数または当該第1隣接歯牙よりも少ない数の複数の歯牙が隣接する第2隣接歯牙を識別する第1識別ステップと、第1識別ステップによる識別結果と、第2ニューラルネットワークを含む第2推定モデルとに基づき、第2隣接歯牙に含まれる歯牙の種類を識別する第2識別ステップとを含む。 According to the present disclosure, an identification program is provided for identifying tooth types. The identification program comprises a step of inputting three-dimensional data including three-dimensional position information at each of a plurality of points forming adjacent teeth adjacent to each other into a computer; Based on the three-dimensional data, a step of identifying types of teeth included in adjacent teeth and a step of outputting an identification result of the identifying step are executed, wherein the identifying step includes a first adjacent tooth to which a plurality of teeth are adjacent. Based on three-dimensional data containing three-dimensional position information at each of a plurality of points that constitute the and a first estimation model containing a first neural network, the same number as the first adjacent tooth or the first adjacent tooth Based on a first identification step of identifying a second adjacent tooth adjacent to a plurality of teeth having a number less than the number of adjacent teeth, the identification result of the first identification step, and a second estimation model including a second neural network, a second adjacent tooth and a second identification step of identifying the type of tooth contained in the tooth.

本開示によれば、歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データに基づいて、精度良く歯牙の種類を識別することができる。 According to the present disclosure, it is possible to accurately identify the type of tooth based on three-dimensional data including three-dimensional position information on each of a plurality of points that constitute the tooth.

本実施の形態に係る識別装置の適用例を示す模式図である。It is a schematic diagram showing an application example of the identification device according to the present embodiment. 本実施の形態に係るシステムの全体構成を示す模式図である。1 is a schematic diagram showing the overall configuration of a system according to an embodiment; FIG. 本実施の形態に係る識別装置のハードウェア構成を示す模式図である。1 is a schematic diagram showing a hardware configuration of an identification device according to an embodiment; FIG. 本実施の形態に係るサーバ装置のハードウェア構成を示す模式図である。2 is a schematic diagram showing a hardware configuration of a server device according to this embodiment; FIG. 本実施の形態に係る識別装置の機能構成を示す模式図である。1 is a schematic diagram showing a functional configuration of an identification device according to an embodiment; FIG. 本実施の形態に係る識別装置に入力される三次元データの内容を説明するための模式図である。FIG. 4 is a schematic diagram for explaining the contents of three-dimensional data input to the identification device according to the present embodiment; 本実施の形態に係る識別処理における識別対象となる歯牙の一例を示す模式図である。FIG. 4 is a schematic diagram showing an example of a tooth to be identified in identification processing according to the present embodiment; 本実施の形態に係る識別装置が有する識別部の具体例を示す模式図である。FIG. 4 is a schematic diagram showing a specific example of an identification unit included in the identification device according to the present embodiment; 本実施の形態に係る学習用データの生成を説明するための模式図である。FIG. 4 is a schematic diagram for explaining generation of learning data according to the present embodiment; 本実施の形態に係る学習用データの一例を説明するための模式図である。FIG. 3 is a schematic diagram for explaining an example of learning data according to the present embodiment; FIG. 本実施の形態に係る色分類データの一例を示す模式図である。4 is a schematic diagram showing an example of color classification data according to the embodiment; FIG. 本実施の形態に係る学習用データセットに基づく学習済モデルの生成を説明するための模式図である。FIG. 4 is a schematic diagram for explaining generation of a trained model based on a learning data set according to the present embodiment; 本実施の形態に係る推定モデルのうちの1段目の推定モデルの学習を説明するための模式図である。FIG. 4 is a schematic diagram for explaining learning of a first-stage estimation model among estimation models according to the present embodiment; 本実施の形態に係る推定モデルのうちの2段目の推定モデルの学習を説明するための模式図である。FIG. 5 is a schematic diagram for explaining learning of a second-stage estimation model among the estimation models according to the present embodiment; 本実施の形態に係る推定モデルのうちの3段目の推定モデルの学習を説明するための模式図である。FIG. 10 is a schematic diagram for explaining learning of a third-stage estimation model among the estimation models according to the present embodiment; 本実施の形態に係る識別装置が実行する学習処理の一例を説明するためのフローチャートである。6 is a flowchart for explaining an example of learning processing executed by the identification device according to the present embodiment; 本実施の形態に係るサーバ装置が実行する学習処理の一例を説明するためのフローチャートである。6 is a flowchart for explaining an example of learning processing executed by the server device according to the present embodiment; 本実施の形態に係る識別装置が実行するサービス提供処理の一例を説明するためのフローチャートである。4 is a flowchart for explaining an example of service providing processing executed by the identification device according to the present embodiment; 変形例に係る識別装置が実行するサービス提供処理の一例を説明するためのフローチャートである。FIG. 11 is a flowchart for explaining an example of service providing processing executed by an identification device according to a modification; FIG. 変形例に係る学習用データセットに基づく学習済モデルの生成を説明するための模式図である。FIG. 11 is a schematic diagram for explaining generation of a trained model based on a learning data set according to a modification; 変形例に係る識別装置が実行するサービス提供処理の一例を説明するためのフローチャートである。FIG. 11 is a flowchart for explaining an example of service providing processing executed by an identification device according to a modification; FIG. 変形例に係る学習用データセットの一例を説明するための模式図である。FIG. 11 is a schematic diagram for explaining an example of a learning data set according to a modification; 変形例に係る識別装置が実行するサービス提供処理の一例を説明するためのフローチャートである。FIG. 11 is a flowchart for explaining an example of service providing processing executed by an identification device according to a modification; FIG.

本開示の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰り返さない。 Embodiments of the present disclosure will be described in detail with reference to the drawings. The same or corresponding parts in the drawings are given the same reference numerals, and the description thereof will not be repeated.

[適用例]
図1および図2を参照しながら、本実施の形態に係る識別装置100の適用例を説明する。図1は、本実施の形態に係る識別装置100の適用例を示す模式図である。図2は、本実施の形態に係るシステムの全体構成を示す模式図である。
[Application example]
An application example of the identification device 100 according to the present embodiment will be described with reference to FIGS. 1 and 2. FIG. FIG. 1 is a schematic diagram showing an application example of an identification device 100 according to this embodiment. FIG. 2 is a schematic diagram showing the overall configuration of the system according to this embodiment.

図1に示すように、ユーザ1は、識別システム10を用いることで、対象者2の隣接する複数の歯牙(以下、「隣接歯牙」とも称する)および歯肉の三次元形状のデータ(以下、「三次元データ」とも称する)を取得することができる。なお、「ユーザ」は、歯科医師などの術者、歯科助手、歯科大学の先生または生徒、歯科技工士、メーカの技術者、製造工場の作業者など、識別システム10を用いる者であればいずれであってもよい。「対象者」は、歯科医院の患者、歯科大学における被験者など、識別システム10の対象となる者であればいずれであってもよい。また、「隣接歯牙」とは、隣接する複数の歯牙群であり、後述する「第1隣接歯牙」および「第2隣接歯牙」も同様である。 As shown in FIG. 1, a user 1 uses an identification system 10 to obtain a plurality of adjacent teeth of a subject 2 (hereinafter also referred to as "adjacent teeth") and three-dimensional shape data of gingiva (hereinafter referred to as " (also referred to as "three-dimensional data") can be acquired. The “user” is any person who uses the identification system 10, such as an operator such as a dentist, a dental assistant, a teacher or student at a dental college, a dental technician, a manufacturer's engineer, or a factory worker. may be A “subject” may be any person who is a target of the identification system 10, such as a patient at a dental clinic or a subject at a dental college. "Adjacent teeth" means a group of adjacent teeth, and the same applies to "first adjacent teeth" and "second adjacent teeth", which will be described later.

本実施の形態に係る識別システム10は、三次元スキャナ200と、識別装置100と、ディスプレイ300と、スピーカ400とを備える。三次元スキャナ200は、内蔵された三次元カメラによってスキャン対象の三次元データを取得する。具体的には、三次元スキャナ200は、口腔内をスキャンすることで、三次元データとして、スキャン対象の歯牙および歯肉を構成する複数の点のそれぞれの位置情報(たとえば、縦方向に沿ったX軸,横方向に沿ったY軸,高さ方向に沿ったZ軸の座標)を、光学センサなどを用いて取得する。あるいは、三次元スキャナ200は、口腔内の印象採得によって作成された模型に対してスキャンすることで、三次元データとして、スキャン対象部分を構成する複数の点のそれぞれの位置情報(たとえば、縦方向に沿ったX軸,横方向に沿ったY軸,高さ方向に沿ったZ軸の座標)を、光学センサなどを用いて取得する。識別装置100は、三次元スキャナ200によって取得された三次元データに基づき、任意の視点からの歯牙などの像を含む二次元画像、またはホログラムなどによる立体的な歯牙などの画像を含む三次元画像を生成し、生成した三次元画像をディスプレイ300に表示する。三次元スキャナ200および識別装置100の少なくともいずれか一方は、移動可能なポータブル型のものであってもよいし、固定された据え置き型のものであってもよい。たとえば、三次元スキャナ200および識別装置100が据え置き型のデスクトップスキャナである場合、スキャン対象は石膏模型や義歯などの人工的に生成された歯牙であってもよい。 Identification system 10 according to the present embodiment includes three-dimensional scanner 200 , identification device 100 , display 300 , and speaker 400 . The three-dimensional scanner 200 acquires three-dimensional data of a scanning target by a built-in three-dimensional camera. Specifically, the three-dimensional scanner 200 scans the inside of the oral cavity to generate three-dimensional data as positional information of each of a plurality of points that constitute the teeth and gums to be scanned (for example, X axis, Y-axis along the horizontal direction, and Z-axis along the height direction) are acquired using an optical sensor or the like. Alternatively, the three-dimensional scanner 200 scans a model created by taking an impression of the oral cavity, and obtains positional information (for example, longitudinal X-axis along the direction, Y-axis along the horizontal direction, and Z-axis along the height direction) are acquired using an optical sensor or the like. Based on the three-dimensional data acquired by the three-dimensional scanner 200, the identification device 100 generates a two-dimensional image including a tooth image from an arbitrary viewpoint, or a three-dimensional image including a three-dimensional image of a tooth such as a hologram. is generated, and the generated three-dimensional image is displayed on the display 300 . At least one of the three-dimensional scanner 200 and the identification device 100 may be a movable portable type or a fixed stationary type. For example, if the three-dimensional scanner 200 and the identification device 100 are stationary desktop scanners, the scanned object may be an artificially generated tooth such as a plaster model or a denture.

たとえば、ユーザ1は、対象者2の歯牙の欠損部分を補う補綴物などをコンピュータ上でデジタル設計するために、三次元スキャナ200によって対象者2の口腔内を撮像することで、隣接歯牙および歯肉を含む口腔内の三次元データを取得する。三次元データは、歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を少なくとも含む。ユーザ1が口腔内を撮像するたびに三次元データが順次取得され、口腔内の三次元画像がディスプレイ300に表示される。ユーザ1は、ディスプレイ300に表示された三次元画像を確認しながら三次元データの不足部分を重点的にスキャンしていく。 For example, in order to digitally design, on a computer, a prosthesis that compensates for missing teeth of the subject 2, the user 1 uses the three-dimensional scanner 200 to image the intraoral cavity of the subject 2, thereby obtaining images of adjacent teeth and gums. Acquire 3D intraoral data including The three-dimensional data includes at least three-dimensional positional information for each of a plurality of points forming the tooth. Each time the user 1 takes an intraoral image, three-dimensional data is sequentially acquired, and the three-dimensional image of the intraoral cavity is displayed on the display 300 . The user 1 confirms the three-dimensional image displayed on the display 300 and scans the missing part of the three-dimensional data.

従来であれば、ユーザ1は、三次元スキャナ200によって取得された歯牙を含む三次元データが可視化された三次元画像に基づき、自身の知見によってスキャン中またはスキャンが完了した歯牙の種類を識別する。しかし、知見のレベルはユーザ1ごとに異なるため、ユーザ1の知見に頼っていると識別結果の精度がばらつくことがあった。また、矯正歯科などにおいては、矯正用の器具を設計する際に、取得された隣接する複数の歯牙を含む三次元データにおける、歯牙と歯肉とを区別しながら、歯牙をその種類ごとに分類(セグメント化)することも要求される。 Conventionally, based on a three-dimensional image in which three-dimensional data including the tooth acquired by the three-dimensional scanner 200 is visualized, the user 1 identifies the type of tooth that is being scanned or has been scanned based on his/her own knowledge. . However, since the level of knowledge differs for each user 1, depending on the knowledge of the user 1 may result in variations in the accuracy of the identification results. In orthodontics and the like, when designing orthodontic appliances, the teeth are classified by type while distinguishing between teeth and gingiva in the acquired three-dimensional data containing multiple adjacent teeth ( segmentation) is also required.

そこで、本実施の形態に係る識別システム10は、識別装置100が有するAI(人工知能:Artificial Intelligence)を利用して、三次元スキャナ200によって取得された三次元データに基づき歯牙の種類を自動的に識別する処理を実行するように構成されている。なお、識別装置100による歯牙の種類を識別する処理を「識別処理」とも称する。 Therefore, the identification system 10 according to the present embodiment uses AI (Artificial Intelligence) of the identification device 100 to automatically identify the type of tooth based on the three-dimensional data acquired by the three-dimensional scanner 200. It is configured to perform a process of identifying Note that the process of identifying the type of tooth by the identification device 100 is also referred to as "identification process".

なお、「歯牙の種類」は、上顎右側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯、上顎左側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯、下顎右側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯、下顎左側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯といったような各歯牙の種類を意味する。 The "types of teeth" are upper right central incisors, lateral incisors, canines, first premolars, second premolars, first molars, second molars, and third molars, upper left side. central incisors, lateral incisors, canines, first premolars, second premolars, first molars, second molars, and third molars, lower right central incisors, lateral incisors, canines, 1st premolar, 2nd premolar, 1st molar, 2nd molar, and 3rd molar, mandibular left central incisor, lateral incisor, canine, 1st premolar, 2nd premolar, 3rd molar It refers to each tooth type such as 1 molar, 2nd molar, and 3rd molar.

具体的には、ユーザ1が三次元スキャナ200を用いて対象者2の口腔内の歯牙をスキャンすると、歯牙および歯肉を少なくとも含む口腔内の三次元データが識別装置100に入力される。識別装置100は、入力された歯牙の特徴を含む三次元データとニューラルネットワークを含む推定モデルとに基づき、当該歯牙の種類を識別する識別処理を実行する。 Specifically, when the user 1 scans the intraoral teeth of the subject 2 using the 3D scanner 200 , intraoral 3D data including at least the teeth and gums is input to the identification device 100 . The identification device 100 executes identification processing for identifying the type of the tooth based on the inputted three-dimensional data including tooth characteristics and an estimation model including a neural network.

「推定モデル」は、ニューラルネットワークと当該ニューラルネットワークによって用いられるパラメータとを含み、三次元データに関連付けられた歯牙の種類に対応する歯牙情報と、当該三次元データを用いた当該歯牙の種類の識別結果とに基づき学習されることで最適化(調整)される。 The "estimation model" includes a neural network and parameters used by the neural network, tooth information corresponding to the type of tooth associated with the three-dimensional data, and identification of the type of tooth using the three-dimensional data. It is optimized (adjusted) by being learned based on the results.

具体的には、推定モデルは、隣接歯牙を構成する複数の点に対応する三次元データが入力されると、当該三次元データに基づきニューラルネットワークによって歯牙の特徴を抽出し、抽出した歯牙の特徴に基づき歯牙の種類を推定する。そして、推定モデルは、自身が推定した歯牙の種類と、入力された三次元データに関連付けられた歯牙の種類(歯牙情報)とに基づき、両者が一致すればパラメータを更新しない一方で、両者が一致しなければ両者が一致するようにパラメータを更新することで、パラメータを最適化する。このように、推定モデルは、入力データである三次元データと、正解データである歯牙の種類(歯牙情報)とを含む教師データを利用して、パラメータが最適化されることで学習される。 Specifically, when three-dimensional data corresponding to a plurality of points constituting adjacent teeth are input, the estimation model extracts tooth features using a neural network based on the three-dimensional data, and extracts tooth features. Estimate the type of tooth based on Then, the estimation model does not update the parameters based on the type of tooth estimated by itself and the type of tooth (tooth information) associated with the input three-dimensional data, if both match. If they do not match, the parameters are optimized by updating the parameters so that they match. In this way, the estimation model is learned by optimizing parameters using teacher data including three-dimensional data as input data and tooth types (tooth information) as correct data.

なお、このような推定モデルを学習する処理を「学習処理」とも称する。また、学習処理によって最適化された推定モデルを、特に「学習済モデル」とも称する。つまり、本実施の形態においては、学習前の推定モデルおよび学習済みの推定モデルをまとめて「推定モデル」と総称する一方で、特に、学習済みの推定モデルを「学習済モデル」とも称する。 Note that processing for learning such an estimation model is also referred to as “learning processing”. In addition, the estimation model optimized by the learning process is particularly called a "learned model". That is, in the present embodiment, pre-learning estimation models and trained estimation models are collectively referred to as "estimation models", while trained estimation models are also particularly referred to as "learned models".

「歯牙情報」は、上顎右側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯、上顎左側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯、下顎右側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯、下顎左側の中切歯、側切歯、犬歯、第1小臼歯、第2小臼歯、第1大臼歯、第2大臼歯、および第3大臼歯といったような各歯牙の名称を含む。また、「歯牙情報」は、中切歯に割り当てられた1番、側切歯に割り当てられた2番、犬歯に割り当てられた3番、第1小臼歯に割り当てられた4番、第2小臼歯に割り当てられた5番、第1大臼歯に割り当てられた6番、第2大臼歯に割り当てられた7番、第3大臼歯に割り当てられた8番といったような各歯牙に割り当てられた番号(たとえば、歯科分野において一般的に用いられている歯牙の番号)を含む。その他、「歯牙情報」は、各歯牙に割り当てられた色の情報を含んでいてもよいし、各歯牙に割り当てられた記号の情報を含んでいてもよい。 "Tooth information" includes upper right central incisors, lateral incisors, canines, first premolars, second premolars, first molars, second molars, and third molars, upper left central incisors Teeth, lateral incisors, canines, first premolars, second premolars, first molars, second molars, and third molars, mandibular right central incisors, lateral incisors, canines, first minors Molars, second premolars, first molars, second molars, and third molars, mandibular left central incisors, lateral incisors, canines, first premolars, second premolars, first molars , second molars, and third molars. In addition, "tooth information" includes the number 1 assigned to the central incisor, the number 2 assigned to the lateral incisor, the number 3 assigned to the canine, the number 4 assigned to the first premolar, the second small A number assigned to each tooth, such as number 5 assigned to the molar, number 6 assigned to the first molar, number 7 assigned to the second molar, number 8 assigned to the third molar, and so on. (eg tooth numbers commonly used in the dental field). In addition, the "tooth information" may include color information assigned to each tooth, or may include symbol information assigned to each tooth.

識別装置100によって学習済モデルを用いて識別処理が実行されると、その識別結果が、ディスプレイ300、およびスピーカ400に出力される。 When identification processing is executed by identification device 100 using a trained model, the identification result is output to display 300 and speaker 400 .

ディスプレイ300は、識別結果に対応する画像、文字、数字、アイコン、および記号の少なくともいずれか1つを表示する。たとえば、ディスプレイ300は、三次元スキャナ200によって下顎右側の7番に対応する第2大臼歯のスキャンが完了した後において、識別装置100による歯牙の識別結果を利用して、「右下7番のスキャンが完了しました。」というように、下顎右側の7番に対応する第2大臼歯のスキャンが完了した旨の画像を表示する。 Display 300 displays at least one of images, letters, numbers, icons, and symbols corresponding to the identification result. For example, after the three-dimensional scanner 200 completes the scanning of the second molar corresponding to the number 7 on the right side of the mandible, the display 300 uses the identification result of the tooth by the identification device 100 to display "lower right number 7 Scanning is completed.", an image is displayed to the effect that scanning of the second molar corresponding to number 7 on the right side of the mandible has been completed.

スピーカ400は、識別結果に対応する音声を出力する。たとえば、スピーカ400は、三次元スキャナ200によって下顎右側の7番に対応する第2大臼歯のスキャンが完了した後において、識別装置100による歯牙の識別結果を利用して、「右下7番完了」というように、下顎右側の7番に対応する第2大臼歯のスキャンが完了した旨の音声を出力する。 Speaker 400 outputs a sound corresponding to the identification result. For example, after the three-dimensional scanner 200 completes the scanning of the second molar corresponding to the number 7 on the right side of the mandible, the speaker 400 uses the identification result of the teeth by the identification device 100 to say, "right bottom 7 completed. ', outputting a voice indicating that the scanning of the second molar corresponding to the number 7 on the right side of the mandible has been completed.

さらに、識別装置100による識別結果は、識別処理時に用いられた三次元データとともに、スキャン情報として歯科技工所および管理センターに配置されたサーバ装置500に出力される。 Furthermore, the identification result by the identification device 100 is output as scan information to the server device 500 arranged in the dental laboratory and the management center together with the three-dimensional data used in the identification processing.

たとえば、図2に示すように、識別システム10は、複数のローカルA~Cのそれぞれに配置されている。たとえば、ローカルAおよびローカルBは歯科医院であり、当該歯科医院の院内において、ユーザ1である術者や歯科助手は、識別システム10を利用して対象者2である患者の歯牙を構成する複数の点に対応する三次元データを取得する。また、ローカルCは歯科大学であり、当該歯科大学において、ユーザ1である先生や生徒は、対象者2である被験者の口腔内の三次元データを取得する。ローカルA~Cのそれぞれで取得されたスキャン情報(三次元データ,識別結果)は、ネットワーク5を介して、ローカルDである歯科技工所および管理センターに配置されたサーバ装置500に出力される。 For example, as shown in FIG. 2, an identification system 10 is located at each of a plurality of locals AC. For example, local A and local B are dental clinics, and in the dental clinics, an operator or a dental assistant who is user 1 utilizes identification system 10 to form a plurality of teeth of a patient who is target person 2. Acquire the 3D data corresponding to the points of . Also, the local C is a dental college, and at the dental college, a teacher or a student who is the user 1 acquires intraoral three-dimensional data of a subject who is the subject 2 . The scan information (three-dimensional data, identification results) acquired by each of the locals A to C is output via the network 5 to the server device 500 located in the dental laboratory and management center as the local D.

歯科技工所においては、歯科技工士などが、ローカルA~Cのそれぞれから取得したスキャン情報に基づき、対象者2の歯牙の欠損部分を補う補綴物などを作成する。管理センターにおいては、サーバ装置500が、ローカルA~Cのそれぞれから取得したスキャン情報を蓄積して記憶し、ビッグデータとして保持する。 In the dental laboratory, a dental technician or the like creates a prosthesis or the like to replace the missing tooth portion of the subject 2 based on the scan information obtained from each of the locals A to C. In the management center, the server device 500 accumulates and stores the scan information obtained from each of the locals A to C, and holds it as big data.

なお、サーバ装置500は、歯科医院にローカルとは異なる管理センターに配置されるものに限らず、ローカル内に配置されてもよい。たとえば、ローカルA~Cのうちのいずれかのローカル内にサーバ装置500が配置されてもよい。また、1つのローカル内に複数の識別装置100が配置されてもよく、さらに、当該1つのローカル内に当該複数の識別装置100と通信可能なサーバ装置500が配置されてもよい。また、サーバ装置500は、クラウドサービスの形態で実現されてもよい。 Note that the server device 500 is not limited to being arranged in a management center different from the local one in the dental clinic, and may be arranged locally. For example, the server apparatus 500 may be arranged within any one of the locals A to C. FIG. Also, a plurality of identification devices 100 may be arranged within one local, and a server device 500 capable of communicating with the plurality of identification devices 100 may be arranged within the one local. Moreover, the server device 500 may be implemented in the form of a cloud service.

歯科技工所においては、ローカルA~Cのように、様々な所からスキャン情報が集約される。このため、歯科技工所で保持されているスキャン情報は、ネットワーク5を介して管理センターに送信されてもよいし、あるいは、CD(Compact Disc)およびUSB(Universal Serial Bus)メモリなどのリムーバブルディスク550を介して管理センターに送られてもよい。 In the dental laboratory, scan information is aggregated from various locations, such as local A-C. For this reason, the scan information held at the dental laboratory may be transmitted to the management center via the network 5, or may be sent to a removable disk 550 such as a CD (Compact Disc) and USB (Universal Serial Bus) memory. may be sent to the management center via

なお、ネットワーク5を介さずに、ローカルA~Cのそれぞれからも、リムーバブルディスク550を介してスキャン情報が管理センターに送られてもよい。また、ローカルA~Cのそれぞれの間においても、ネットワーク5またはリムーバブルディスク550を介してスキャン情報を互いに送り合ってもよい。 The scan information may also be sent to the management center from each of the local A to C via the removable disk 550 without going through the network 5 . Also, between each of the locals A to C, scan information may be sent to each other via the network 5 or the removable disk 550 .

各ローカルA~Cの識別装置100は、各自で推定モデルを保持しており、識別処理時に各自が保持する推定モデルを使用して歯牙の種類を識別する。各ローカルA~Cの識別装置100は、各自の学習処理によって各自の推定モデルを学習することで、学習済モデルを生成する。さらに、本実施の形態においては、サーバ装置500も推定モデルを保持している。サーバ装置500は、各ローカルA~Cの識別装置100および歯科技工所から取得したスキャン情報を用いた学習処理によって推定モデルを学習することで、学習済モデルを生成し、各ローカルA~Cの識別装置100に当該学習済モデルを配布する。 Each identification device 100 of local A to C has its own estimated model, and identifies the type of tooth using its own estimated model during the identification process. Each local identification device 100 generates a trained model by learning its own estimation model through its own learning process. Furthermore, in the present embodiment, server device 500 also holds an estimation model. The server device 500 generates a trained model by learning an estimated model through learning processing using scan information acquired from the identification device 100 of each of the locals A to C and the dental laboratory. The trained model is distributed to the identification device 100 .

なお、本実施の形態においては、各ローカルA~Cの識別装置100およびサーバ装置500のいずれも学習処理を実行する形態であるが、各ローカルA~Cの識別装置100のみが学習処理を実行する形態、あるいはサーバ装置500のみが学習処理を実行する形態であってもよい。なお、サーバ装置500のみが学習処理を実行する形態である場合、各ローカルA~Cの識別装置100が保持する推定モデル(学習済モデル)は、各ローカルA~Cの識別装置100間で共通化される。 In the present embodiment, both local identification devices 100 and server devices 500 of local A to C execute learning processing, but only local identification devices 100 of local A to C execute learning processing. Alternatively, only the server device 500 may execute the learning process. If only the server device 500 executes the learning process, the estimation model (learned model) held by each local identification device 100 is common among the local identification devices 100. become.

また、サーバ装置500が識別装置100における識別処理の機能を有していてもよい。たとえば、各ローカルA~Cは、取得した三次元データをサーバ装置500に送信し、サーバ装置500は、各ローカルA~Cから受信したそれぞれの三次元データに基づき、それぞれにおける歯牙の種類の識別結果を算出してもよい。そして、サーバ装置500は、それぞれの識別結果を各ローカルA~Cに送信し、各ローカルA~Cは、サーバ装置500から受信した識別結果をディスプレイなどに出力してもよい。このように、各ローカルA~Cとサーバ装置500とがクラウドサービスの形態で構成されてもよい。このようにすれば、サーバ装置500が推定モデル(学習済モデル)を保持してさえいれば、各ローカルA~Cは、推定モデル(学習済モデル)を保持することなく識別結果を得ることができる。 Also, the server device 500 may have the function of identification processing in the identification device 100 . For example, each of the locals A to C transmits the acquired three-dimensional data to the server device 500, and the server device 500 identifies the type of tooth in each based on the three-dimensional data received from each of the locals A to C. Results may be calculated. Then, server device 500 may transmit the respective identification results to each of locals A to C, and each of locals A to C may output the identification results received from server device 500 to a display or the like. In this way, each local A to C and the server device 500 may be configured in the form of a cloud service. In this way, as long as server device 500 holds an estimation model (learned model), each of locals A to C can obtain an identification result without holding an estimation model (learned model). can.

このように、本実施の形態に係る識別システム10によれば、識別装置100が有するAIを利用して、三次元スキャナ200によって取得された三次元データに基づき歯牙の種類が自動的に識別される。AIを利用することで、ユーザ1が抽出することができる歯牙の特徴に限らずユーザ1では抽出できない歯牙の特徴をも見出すこともでき、見出された歯牙の特徴に基づき歯牙の種類が識別されるため、ユーザ1は、自身の知見に頼ることなく、精度良く歯牙の種類を識別することができる。 Thus, according to the identification system 10 according to the present embodiment, the type of tooth is automatically identified based on the three-dimensional data acquired by the three-dimensional scanner 200 using the AI of the identification device 100. be. By using AI, it is possible to find not only tooth features that can be extracted by the user 1, but also tooth features that cannot be extracted by the user 1, and the type of tooth can be identified based on the found tooth features. Therefore, the user 1 can accurately identify the type of tooth without relying on his/her own knowledge.

[識別装置のハードウェア構成]
図3を参照しながら、本実施の形態に係る識別装置100のハードウェア構成の一例を説明する。図3は、本実施の形態に係る識別装置100のハードウェア構成を示す模式図である。識別装置100は、たとえば、汎用コンピュータで実現されてもよいし、識別システム10専用のコンピュータで実現されてもよい。
[Hardware Configuration of Identification Device]
An example of the hardware configuration of the identification device 100 according to this embodiment will be described with reference to FIG. FIG. 3 is a schematic diagram showing the hardware configuration of the identification device 100 according to this embodiment. The identification device 100 may be realized, for example, by a general-purpose computer, or by a computer dedicated to the identification system 10 .

図3に示すように、識別装置100は、主なハードウェア要素として、スキャナインターフェース102と、ディスプレイインターフェース103と、スピーカインターフェース104と、周辺機器インターフェース105と、ネットワークコントローラ106と、メディア読取装置107と、PCディスプレイ108と、メモリ109と、ストレージ110と、演算装置130とを備える。 As shown in FIG. 3, the identification device 100 includes a scanner interface 102, a display interface 103, a speaker interface 104, a peripheral device interface 105, a network controller 106, and a media reader 107 as main hardware elements. , a PC display 108 , a memory 109 , a storage 110 and an arithmetic unit 130 .

スキャナインターフェース102は、三次元スキャナ200を接続するためのインターフェースであり、識別装置100と三次元スキャナ200との間のデータの入出力を実現する。 The scanner interface 102 is an interface for connecting the three-dimensional scanner 200 and realizes input/output of data between the identification device 100 and the three-dimensional scanner 200 .

ディスプレイインターフェース103は、ディスプレイ300を接続するためのインターフェースであり、識別装置100とディスプレイ300との間のデータの入出力を実現する。ディスプレイ300は、たとえば、LCD(Liquid Crystal Display)または有機ELD(Electroluminescence)ディスプレイなどで構成される。 The display interface 103 is an interface for connecting the display 300 and realizes input/output of data between the identification device 100 and the display 300 . Display 300 is configured by, for example, an LCD (Liquid Crystal Display) or an organic ELD (Electroluminescence) display.

スピーカインターフェース104は、スピーカ400を接続するためのインターフェースであり、識別装置100とスピーカ400との間のデータの入出力を実現する。 The speaker interface 104 is an interface for connecting the speaker 400 and realizes input/output of data between the identification device 100 and the speaker 400 .

周辺機器インターフェース105は、キーボード601およびマウス602などの周辺機器を接続するためのインターフェースであり、識別装置100と周辺機器との間のデータの入出力を実現する。 The peripheral device interface 105 is an interface for connecting peripheral devices such as the keyboard 601 and the mouse 602, and realizes input/output of data between the identification device 100 and the peripheral devices.

ネットワークコントローラ106は、ネットワーク5を介して、歯科技工所に配置された装置、管理センターに配置されたサーバ装置500、および他のローカルに配置された他の識別装置100のそれぞれとの間でデータを送受信する。ネットワークコントローラ106は、たとえば、イーサネット(登録商標)、無線LAN(Local Area Network)、Bluetooth(登録商標)などの任意の通信方式に対応する。 The network controller 106 communicates data to and from each of the devices located at the dental laboratory, the server device 500 located at the management center, and other locally located identification devices 100 via the network 5 . send and receive The network controller 106 supports arbitrary communication methods such as Ethernet (registered trademark), wireless LAN (Local Area Network), and Bluetooth (registered trademark).

メディア読取装置107は、記憶媒体であるリムーバブルディスク550に格納されているスキャン情報などの各種データを読み出す。 The media reading device 107 reads various data such as scan information stored in a removable disk 550, which is a storage medium.

PCディスプレイ108は、識別装置100専用のディスプレイである。PCディスプレイ108は、たとえば、LCDまたは有機ELディスプレイなどで構成される。なお、本実施の形態においては、PCディスプレイ108は、ディスプレイ300と別体であるが、ディスプレイ300と共通化されてもよい。 The PC display 108 is a dedicated display for the identification device 100 . PC display 108 is configured by, for example, an LCD or an organic EL display. Although PC display 108 is separate from display 300 in the present embodiment, it may be shared with display 300 .

メモリ109は、演算装置130が任意のプログラムを実行するにあたって、プログラムコードやワークメモリなどを一時的に格納する記憶領域を提供する。メモリ109は、たとえば、DRAM(Dynamic Random Access Memory)またはSRAM(Static Random Access Memory)などの揮発性メモリデバイスで構成される。 The memory 109 provides a storage area for temporarily storing program codes, work memory, etc. when the arithmetic unit 130 executes an arbitrary program. The memory 109 is composed of, for example, a volatile memory device such as a DRAM (Dynamic Random Access Memory) or SRAM (Static Random Access Memory).

ストレージ110は、識別処理および学習処理などに必要な各種のデータを格納する記憶領域を提供する。ストレージ110は、たとえば、ハードディスクまたはSSD(Solid State Drive)などの不揮発性メモリデバイスで構成される。 The storage 110 provides storage areas for storing various data necessary for identification processing, learning processing, and the like. The storage 110 is composed of a non-volatile memory device such as a hard disk or SSD (Solid State Drive), for example.

ストレージ110は、スキャン情報112と、推定モデル114(学習済モデル)と、学習用データセット116と、色分類データ118と、プロファイルデータ119と、識別用プログラム120と、学習用プログラム121と、OS(Operating System)127とを格納する。 Storage 110 includes scan information 112, estimated model 114 (learned model), learning data set 116, color classification data 118, profile data 119, identification program 120, learning program 121, OS (Operating System) 127 is stored.

スキャン情報112は、三次元スキャナ200によって取得された三次元データ122と、当該三次元データ122に基づき実行された識別処理による識別結果124とを含む。識別結果124は、識別処理に用いられた三次元データ122に関連付けられてストレージ110に格納される。学習用データセット116は、推定モデル114の学習処理に用いられる一群の学習用データである。色分類データ118は、学習用データセット116の生成および学習処理に用いられるデータである。プロファイルデータ119は、対象者2に関する属性情報であって、当該対象者2の年齢、性別、人種、身長、体重、および居住地などのプロファイルがまとめられたデータ(たとえば、カルテの情報)である。識別用プログラム120は、識別処理を実行するためのプログラムである。学習用プログラム121は、推定モデル114の学習処理を実行するためのプログラムであり、その一部には識別処理を実行するためのプログラムも含まれる。 The scan information 112 includes three-dimensional data 122 acquired by the three-dimensional scanner 200 and identification results 124 obtained by identification processing executed based on the three-dimensional data 122 . The identification result 124 is stored in the storage 110 in association with the three-dimensional data 122 used for identification processing. The learning data set 116 is a group of learning data used for learning processing of the estimation model 114 . The color classification data 118 is data used for generating the learning data set 116 and for learning processing. The profile data 119 is attribute information about the target person 2, and is data (for example, medical record information) in which profiles such as age, sex, race, height, weight, and place of residence of the target person 2 are summarized. be. The identification program 120 is a program for executing identification processing. The learning program 121 is a program for executing the learning process of the estimation model 114, and part of it also includes a program for executing the identification process.

演算装置130は、各種のプログラムを実行することで、識別処理および学習処理などの各種の処理を実行する演算主体であり、コンピュータの一例である。演算装置130は、たとえば、CPU(Central Processing Unit)132、FPGA(Field-Programmable Gate Array)134、およびGPU(Graphics Processing Unit)136などで構成される。 The arithmetic unit 130 is an arithmetic entity that executes various types of processing such as identification processing and learning processing by executing various programs, and is an example of a computer. Arithmetic device 130 includes, for example, a CPU (Central Processing Unit) 132, an FPGA (Field-Programmable Gate Array) 134, a GPU (Graphics Processing Unit) 136, and the like.

なお、演算装置130は、CPU132、FPGA134、およびGPU136のうちの少なくともいずれか1つで構成されてもよいし、CPU132とFPGA134、FPGA134とGPU136、CPU132とGPU136、あるいはCPU132、FPGA134、およびGPU136から構成されてもよい。また、演算装置130は、演算回路(processing circuitry)と称されてもよい。 Arithmetic device 130 may be configured with at least one of CPU 132, FPGA 134, and GPU 136, or may be configured with CPU 132 and FPGA 134, FPGA 134 and GPU 136, CPU 132 and GPU 136, or CPU 132, FPGA 134, and GPU 136. may be Processing units 130 may also be referred to as processing circuitry.

[サーバ装置のハードウェア構成]
図4を参照しながら、本実施の形態に係るサーバ装置500のハードウェア構成の一例を説明する。図4は、本実施の形態に係るサーバ装置500のハードウェア構成を示す模式図である。サーバ装置500は、たとえば、汎用コンピュータで実現されてもよいし、識別システム10専用のコンピュータで実現されてもよい。
[Hardware Configuration of Server Device]
An example of the hardware configuration of server device 500 according to the present embodiment will be described with reference to FIG. FIG. 4 is a schematic diagram showing the hardware configuration of server device 500 according to the present embodiment. Server device 500 may be implemented by, for example, a general-purpose computer, or may be implemented by a computer dedicated to identification system 10 .

図4に示すように、サーバ装置500は、主なハードウェア要素として、ディスプレイインターフェース503と、周辺機器インターフェース505と、ネットワークコントローラ506と、メディア読取装置507と、メモリ509と、ストレージ510と、演算装置530とを備える。 As shown in FIG. 4, the server device 500 includes, as main hardware elements, a display interface 503, a peripheral device interface 505, a network controller 506, a media reader 507, a memory 509, a storage 510, and a computing device. and a device 530 .

ディスプレイインターフェース503は、ディスプレイ350を接続するためのインターフェースであり、サーバ装置500とディスプレイ350との間のデータの入出力を実現する。ディスプレイ350は、たとえば、LCDまたは有機ELDディスプレイなどで構成される。 The display interface 503 is an interface for connecting the display 350 and realizes input/output of data between the server device 500 and the display 350 . Display 350 is configured by, for example, an LCD or an organic ELD display.

周辺機器インターフェース505は、キーボード651およびマウス652などの周辺機器を接続するためのインターフェースであり、サーバ装置500と周辺機器との間のデータの入出力を実現する。 Peripheral device interface 505 is an interface for connecting peripheral devices such as keyboard 651 and mouse 652, and implements data input/output between server device 500 and the peripheral devices.

ネットワークコントローラ506は、ネットワーク5を介して、ローカルに配置された識別装置100、および歯科技工所に配置された装置のそれぞれとの間でデータを送受信する。ネットワークコントローラ506は、たとえば、イーサネット(登録商標)、無線LAN、Bluetooth(登録商標)などの任意の通信方式に対応してもよい。 The network controller 506 transmits and receives data via the network 5 to and from each of the locally located identification device 100 and the device located at the dental laboratory. The network controller 506 may support any communication method such as Ethernet (registered trademark), wireless LAN, Bluetooth (registered trademark), or the like.

メディア読取装置507は、リムーバブルディスク550に格納されているスキャン情報などの各種データを読み出す。 The media reader 507 reads various data such as scan information stored in the removable disk 550 .

メモリ509は、演算装置530が任意のプログラムを実行するにあたって、プログラムコードやワークメモリなどを一時的に格納する記憶領域を提供する。メモリ509は、たとえば、DRAMまたはSRAMなどの揮発性メモリデバイスで構成される。 The memory 509 provides a storage area for temporarily storing program codes, work memory, etc. when the arithmetic unit 530 executes an arbitrary program. Memory 509 comprises, for example, a volatile memory device such as a DRAM or SRAM.

ストレージ510は、学習処理などに必要な各種のデータを格納する記憶領域を提供する。ストレージ510は、たとえば、ハードディスクまたはSSDなどの不揮発性メモリデバイスで構成される。 The storage 510 provides storage areas for storing various data necessary for learning processing and the like. The storage 510 is configured with a non-volatile memory device such as a hard disk or SSD, for example.

ストレージ510は、スキャン情報512と、推定モデル514(学習済モデル)と、学習用データセット516と、色分類データ518と、プロファイルデータ519と、学習用プログラム521と、OS527とを格納する。 Storage 510 stores scan information 512 , estimated model 514 (learned model), learning data set 516 , color classification data 518 , profile data 519 , learning program 521 , and OS 527 .

スキャン情報512は、ネットワーク5を介してローカルに配置された識別装置100および歯科技工所から取得した三次元データ522と、当該三次元データ522に基づき実行された識別処理による識別結果524とを含む。識別結果524は、識別処理に用いられた三次元データ522に関連付けられてストレージ510に格納される。学習用データセット516は、推定モデル514の学習処理に用いられる一群の学習用データである。色分類データ518は、学習用データセット516の生成および学習処理に用いられるデータである。プロファイルデータ519は、対象者2に関する属性情報であって、対象者2の年齢、性別、人種、身長、体重、および居住地などのプロファイルがまとめられたデータ(たとえば、カルテの情報)である。学習用プログラム521は、推定モデル514の学習処理を実行するためのプログラムであり、その一部には識別処理を実行するためのプログラムも含まれる。 The scan information 512 includes three-dimensional data 522 acquired from the identification device 100 and the dental laboratory locally arranged via the network 5, and an identification result 524 by identification processing executed based on the three-dimensional data 522. . The identification result 524 is stored in the storage 510 in association with the three-dimensional data 522 used for identification processing. A learning data set 516 is a group of learning data used for learning processing of the estimation model 514 . The color classification data 518 is data used for generating the learning data set 516 and for learning processing. The profile data 519 is attribute information about the subject 2, and is data in which the profile of the subject 2 such as age, sex, race, height, weight, place of residence, etc. is summarized (for example, medical record information). . The learning program 521 is a program for executing the learning process of the estimation model 514, and part of it also includes a program for executing the identification process.

なお、推定モデル514(学習済モデル)は、ローカルの識別装置100に送信されることで、識別装置100によって、推定モデル114(学習済モデル)として保持される。 The estimation model 514 (learned model) is transmitted to the local identification device 100 and is held as the estimation model 114 (learned model) by the identification device 100 .

演算装置530は、各種のプログラムを実行することで、学習処理などの各種の処理を実行する演算主体であり、コンピュータの一例である。演算装置530は、たとえば、CPU532、FPGA534、およびGPU536などで構成される。 The arithmetic device 530 is an arithmetic entity that executes various types of processing such as learning processing by executing various programs, and is an example of a computer. Arithmetic device 530 includes, for example, CPU 532, FPGA 534, GPU 536, and the like.

なお、演算装置530は、CPU532、FPGA534、およびGPU536のうちの少なくともいずれか1つで構成されてもよいし、CPU532とFPGA534、FPGA534とGPU536、CPU532とGPU536、あるいはCPU532、FPGA534、およびGPU536から構成されてもよい。また、演算装置530は、演算回路(processing circuitry)と称されてもよい。 Note that the arithmetic device 530 may be configured with at least one of the CPU 532, FPGA 534, and GPU 536, or may include the CPU 532 and FPGA 534, the FPGA 534 and GPU 536, the CPU 532 and GPU 536, or the CPU 532, FPGA 534, and GPU 536. may be Processing units 530 may also be referred to as processing circuitry.

[識別装置による識別処理]
図5~図8を参照しながら、本実施の形態に係る識別装置100による識別処理の一例を説明する。図5は、本実施の形態に係る識別装置100の機能構成を示す模式図である。図6は、本実施の形態に係る識別装置に入力される三次元データの内容を説明するための模式図である。図7は、本実施の形態に係る識別処理における識別対象となる歯牙の一例を示す模式図である。図8は、本実施の形態に係る識別装置が有する識別部の具体例を示す模式図である。なお、図7においては、三次元スキャナ200のスキャン対象となる歯牙が線図によって表されている。
[Identification processing by identification device]
An example of identification processing by the identification device 100 according to the present embodiment will be described with reference to FIGS. 5 to 8. FIG. FIG. 5 is a schematic diagram showing the functional configuration of the identification device 100 according to this embodiment. FIG. 6 is a schematic diagram for explaining the contents of three-dimensional data input to the identification device according to this embodiment. FIG. 7 is a schematic diagram showing an example of a tooth to be identified in the identification processing according to this embodiment. FIG. 8 is a schematic diagram showing a specific example of an identification unit included in the identification device according to this embodiment. In FIG. 7, the tooth to be scanned by the three-dimensional scanner 200 is represented by a diagram.

図5に示すように、識別装置100は、識別処理に係る機能部として、入力部1102と、プロファイル取得部1119と、識別部1101と、出力部1103とを有する。これらの各機能は、識別装置100の演算装置130がOS127および識別用プログラム120を実行することで実現される。 As shown in FIG. 5, the identification device 100 has an input unit 1102, a profile acquisition unit 1119, an identification unit 1101, and an output unit 1103 as functional units related to identification processing. Each of these functions is realized by executing the OS 127 and the identification program 120 by the arithmetic device 130 of the identification device 100 .

入力部1102には、三次元スキャナ200によって取得された隣接歯牙を構成する複数の点に対応する三次元データが入力される。プロファイル取得部1119は、対象者2のプロファイルデータ119を取得する。 Three-dimensional data corresponding to a plurality of points forming adjacent teeth acquired by the three-dimensional scanner 200 is input to the input unit 1102 . Profile acquisition unit 1119 acquires profile data 119 of subject 2 .

識別部1101は、複数の識別部を含む多段式の識別部である。本実施形態においては、識別部1101は、第1識別部1131と、第2識別部1132とを有する。 The identification unit 1101 is a multistage identification unit including a plurality of identification units. In this embodiment, the identification section 1101 has a first identification section 1131 and a second identification section 1132 .

第1識別部1131は、入力部1102に入力された隣接歯牙(第1隣接歯牙)を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データと、第1推定モデル1141(第1学習済モデル)とに基づき、当該第1隣接歯牙と同一の数または当該第1隣接歯牙よりも少ない数の複数の歯牙が隣接する隣接歯牙(第2隣接歯牙)を識別する。第2隣接歯牙は、第1隣接歯牙に含まれる複数の歯牙のうちから選択された隣接する複数の歯牙であり、予めグルーピングによって設定されている。また、本実施の形態においては、第1識別部1131は、入力部1102に入力された三次元データと、プロファイル取得部1119によって取得された対象者2のプロファイルデータ119とに基づき、第1推定モデル1141(第1学習済モデル)を用いて第2隣接歯牙を識別する。なお、第1識別部1131は、識別処理においてプロファイルデータ119を用いなくてもよい。 The first identification unit 1131 includes three-dimensional data including three-dimensional positional information of each of a plurality of points forming adjacent teeth (first adjacent teeth) input to the input unit 1102, and a first estimation model 1141 (first 1 trained model), adjacent teeth (second adjacent teeth) adjacent to a plurality of teeth equal in number to or less than the first adjacent tooth are identified. The second adjacent teeth are adjacent teeth selected from among the teeth included in the first adjacent teeth, and are set in advance by grouping. Further, in the present embodiment, the first identification unit 1131 performs the first estimation based on the three-dimensional data input to the input unit 1102 and the profile data 119 of the subject 2 acquired by the profile acquisition unit 1119. Identify the second adjacent tooth using model 1141 (first trained model). Note that the first identification unit 1131 does not have to use the profile data 119 in identification processing.

第1推定モデル1141は、第1ニューラルネットワーク1151と、当該第1ニューラルネットワーク1151によって用いられる第1パラメータ1161とを含む。第1パラメータ1161は、第1ニューラルネットワーク1151による計算に用いられる重み付け係数と、識別の判定に用いられる判定値とを含む。 The first estimation model 1141 includes a first neural network 1151 and a first parameter 1161 used by the first neural network 1151 . The first parameter 1161 includes a weighting factor used for calculation by the first neural network 1151 and a decision value used for identification decision.

第2識別部1132は、第1識別部1131による第2隣接歯牙の識別結果と、第2推定モデル1142とに基づき、当該第2隣接歯牙に含まれる歯牙の種類を識別する。 The second identification unit 1132 identifies the type of tooth included in the second adjacent tooth based on the identification result of the second adjacent tooth by the first identification unit 1131 and the second estimation model 1142 .

第2推定モデル1142は、第2ニューラルネットワーク1152と、当該第2ニューラルネットワーク1152によって用いられる第2パラメータ1162とを含む。第2パラメータ1162は、第2ニューラルネットワーク1152による計算に用いられる重み付け係数と、識別の判定に用いられる判定値とを含む。 Second estimation model 1142 includes second neural network 1152 and second parameters 1162 used by second neural network 1152 . Second parameters 1162 include weighting factors used in calculations by second neural network 1152 and decision values used to determine identity.

なお、上述した第1推定モデル1141および第2推定モデル1142は、図3に示した推定モデル114に対応する。 Note that the first estimation model 1141 and the second estimation model 1142 described above correspond to the estimation model 114 shown in FIG.

出力部1103は、第2識別部1132による歯牙の種類の識別結果を、ディスプレイ300、スピーカ400、およびサーバ装置500に出力する。 The output unit 1103 outputs the identification result of the tooth type by the second identification unit 1132 to the display 300 , the speaker 400 and the server device 500 .

ここで、図6に示すように、入力部1102に入力される三次元データには、歯牙の各点における三次元の位置情報と、歯牙の各点における色情報とが含まれる。位置情報は、予め定められた位置を基準とした三次元における絶対位置の座標を含む。たとえば、位置情報は、歯牙の各点における中心位置を原点として、X軸(たとえば、歯牙の横方向に沿った軸)、Y軸(たとえば、歯牙の縦方向に沿った軸)、およびZ軸(たとえば、歯牙の高さ方向に沿った軸)の各軸における絶対位置の座標を含む。なお、位置情報は、予め定められた位置を原点とした三次元における絶対位置の座標に限らず、たとえば、隣接する点からの距離および方向(ベクトル)を示す三次元における相対位置の座標を含んでいてもよい。 Here, as shown in FIG. 6, the three-dimensional data input to the input unit 1102 includes three-dimensional position information at each point on the tooth and color information at each point on the tooth. The position information includes the coordinates of the absolute position in three dimensions with reference to a predetermined position. For example, the positional information can be obtained by using the center position of each point of the tooth as the origin, the X-axis (for example, the axis along the lateral direction of the tooth), the Y-axis (for example, the axis along the longitudinal direction of the tooth), and the Z-axis. (eg, the axis along the height direction of the tooth). Note that the position information is not limited to coordinates of a three-dimensional absolute position with a predetermined position as the origin, but includes coordinates of a three-dimensional relative position indicating the distance and direction (vector) from an adjacent point, for example. You can stay.

ここで、図7に示すように、三次元スキャナ200のスキャン対象となる歯牙が上顎の切歯である場合、得られる三次元画像が、上唇側の部位、口蓋側の部位、および切縁側の部位の画像を少なくとも含むように、ユーザ1によって対象者2の口腔内がスキャンされる。また、三次元スキャナ200のスキャン対象となる歯牙が上顎の犬歯および臼歯である場合、得られる三次元画像が、頬側の部位、口蓋側の部位、および咬合する部位の画像を少なくとも含むように、ユーザ1によって対象者2の口腔内がスキャンされる。三次元スキャナ200のスキャン対象となる歯牙が下顎の切歯である場合、得られる三次元画像が、下唇側の部位、舌側の部位、および切縁側の部位の画像を少なくとも含むように、ユーザ1によって対象者2の口腔内がスキャンされる。三次元スキャナ200のスキャン対象となる歯牙が下顎の犬歯および臼歯である場合、得られる三次元画像が、頬側の部位、舌側の部位、および咬合する部位の画像を少なくとも含むように、ユーザ1によって対象者2の口腔内がスキャンされる。 Here, as shown in FIG. 7, when the tooth to be scanned by the three-dimensional scanner 200 is an incisor of the upper jaw, the obtained three-dimensional image is a region on the upper lip side, a region on the palate side, and a region on the incisal side. The oral cavity of a subject 2 is scanned by a user 1 so as to include at least an image of the site. Also, when the teeth to be scanned by the three-dimensional scanner 200 are the canines and molars of the upper jaw, the obtained three-dimensional image should include at least images of the buccal region, the palatal region, and the occlusal region. , the oral cavity of a subject 2 is scanned by a user 1 . When the tooth to be scanned by the three-dimensional scanner 200 is a mandibular incisor, the three-dimensional image obtained includes at least images of the lower lip side region, the lingual region, and the incisal side region. A user 1 scans the oral cavity of a subject 2 . When the teeth to be scanned by the three-dimensional scanner 200 are the canines and molars of the mandible, the resulting three-dimensional image includes at least images of the buccal region, the lingual region, and the occlusal region. 1 scans the oral cavity of a subject 2 .

一般的に、対象者2の歯牙は、その種類によって形状および大きさが異なる。たとえば、上顎の切歯の場合、上唇側の面は一般的にU字形であるのに対して、上顎の犬歯の場合、頬側の面は一般的に五角形である。各歯牙は、形状および大きさがその種類に応じて特徴的であり、識別部1101は、これらの特徴的な形状および大きさが数値化された三次元データに基づき、推定モデル114を用いて当該三次元データに対応する歯牙の種類を識別する。 In general, the teeth of the subject 2 differ in shape and size depending on their type. For example, for maxillary incisors, the upper labial surface is generally U-shaped, whereas for maxillary canines, the buccal surface is generally pentagonal. Each tooth has a characteristic shape and size according to its type, and the identification unit 1101 uses the estimation model 114 based on three-dimensional data in which these characteristic shapes and sizes are quantified. Identify the type of tooth corresponding to the three-dimensional data.

第1ニューラルネットワーク1151においては、入力部1102に入力された三次元データに含まれる位置情報の値が入力層に入力される。そして、第1ニューラルネットワーク1151においては、たとえば、中間層によって、入力された位置情報の値に対して重み付け係数が乗算されたり所定のバイアスが加算されたりするとともに所定の関数による計算が行われ、その計算結果が判定値と比較される。そして、第1ニューラルネットワーク1151においては、その計算および判定の結果が識別結果として出力層から出力される。なお、第1ニューラルネットワーク1151による計算および判定については、いずれの手法が用いられてもよい。 In the first neural network 1151, the value of position information included in the three-dimensional data input to the input unit 1102 is input to the input layer. In the first neural network 1151, for example, the intermediate layer multiplies the value of the input positional information by a weighting factor or adds a predetermined bias, and performs calculation using a predetermined function. The calculation result is compared with the judgment value. Then, in the first neural network 1151, the result of the calculation and determination is output from the output layer as the identification result. Any method may be used for the calculation and determination by the first neural network 1151 .

第2ニューラルネットワーク1152においては、第1識別部1131による識別結果に対応する値が入力層に入力される。そして、第2ニューラルネットワーク1152においては、たとえば、中間層によって、入力された識別結果に対応する値に対して重み付け係数が乗算されたり所定のバイアスが加算されたりするとともに所定の関数による計算が行われ、その計算結果が判定値と比較される。そして、第2ニューラルネットワーク1152においては、その計算および判定の結果が識別結果として出力層から出力される。なお、第2ニューラルネットワーク1152による計算および判定については、いずれの手法が用いられてもよい。 In the second neural network 1152, a value corresponding to the identification result by the first identification section 1131 is input to the input layer. In the second neural network 1152, for example, the intermediate layer multiplies the value corresponding to the input identification result by a weighting factor or adds a predetermined bias, and performs calculation using a predetermined function. and the calculated result is compared with the decision value. Then, in the second neural network 1152, the result of the calculation and determination is output from the output layer as the identification result. Any method may be used for the calculation and determination by the second neural network 1152 .

第1ニューラルネットワーク1151および第2ニューラルネットワーク1152においては、中間層が多層構造になることで、ディープラーニングによる処理が行われる。本実施の形態においては、3次元画像に特化した識別処理を行う識別用プログラム120として、たとえば、VoxNet、3D ShapeNets、Multi-View CNN、RotationNet、OctNet、FusionNet、PointNet、PointNet++、SSCNet、およびMarrNetなどが用いられるが、その他のプログラムが用いられてもよい。また、第1ニューラルネットワーク1151および第2ニューラルネットワーク1152の仕組みには既存のものが適用されてもよい。 In the first neural network 1151 and the second neural network 1152, processing by deep learning is performed because the intermediate layer has a multi-layer structure. In this embodiment, the identification program 120 that performs identification processing specialized for three-dimensional images includes, for example, VoxNet, 3D ShapeNets, Multi-View CNN, RotationNet, OctNet, FusionNet, PointNet, PointNet++, SSCNet, and MarrNet etc. are used, but other programs may be used. Also, an existing one may be applied to the mechanisms of the first neural network 1151 and the second neural network 1152 .

なお、サーバ装置500が保持する推定モデル514に含まれるニューラルネットワークは、第1ニューラルネットワーク1151および第2ニューラルネットワーク1152と同様の構成を有する。 A neural network included in estimation model 514 held by server device 500 has the same configuration as first neural network 1151 and second neural network 1152 .

図8を参照しながら、識別部1101の具体例を説明する。なお、図8においては、下顎左側の3番~7番の隣接歯牙および歯肉を構成する複数の点に対応する三次元データが、識別部1101に入力される例が示されている。なお、3番~7番の隣接歯牙は、「第1隣接歯牙」の一例である。識別部1101に入力される三次元データは、3番~7番の隣接歯牙について色加工されていない色情報(すなわち、歯牙の色そのものの色を示す色情報)を含んでいてもよいし、3番~7番の隣接歯牙についてグレースケール化された色情報を含んでいてもよい。識別部1101は、入力された三次元データに基づき、下顎左側の3番~7番の隣接歯牙を識別する。 A specific example of the identification unit 1101 will be described with reference to FIG. Note that FIG. 8 shows an example in which three-dimensional data corresponding to a plurality of points forming the 3rd to 7th adjacent teeth and gingiva on the left side of the mandible are input to the identification unit 1101 . Note that the 3rd to 7th adjacent teeth are an example of the "first adjacent tooth". The three-dimensional data input to the identification unit 1101 may include non-color-processed color information (that is, color information indicating the color of the tooth itself) for the 3rd to 7th adjacent teeth, Grayscaled color information may be included for adjacent teeth numbered 3-7. The identification unit 1101 identifies the third to seventh adjacent teeth on the left side of the mandible based on the input three-dimensional data.

図8に示すように、識別部1101は、識別部1130aと、識別部1130bと、識別部1130cと、推定モデル1140aと、推定モデル1140bと、推定モデル1140cとを有する。 As shown in FIG. 8, identification section 1101 includes identification section 1130a, identification section 1130b, identification section 1130c, estimation model 1140a, estimation model 1140b, and estimation model 1140c.

1段目の識別部1130aは、図5に示した第1識別部1131の一例であり、入力された隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データと、推定モデル1140aとに基づき、当該隣接歯牙と同一の数または当該隣接歯牙よりも少ない数の複数の歯牙が隣接する隣接歯牙を識別する。推定モデル1140aは、図5に示した第1推定モデル1141の一例であり、図示しないニューラルネットワークと、当該ニューラルネットワークによって用いられる図示しないパラメータとを含む。なお、図8においては、1段目の識別部1130aが、入力された三次元データに対応する隣接歯牙よりも少ない数の隣接歯牙を識別する例を説明する。 The identification unit 1130a on the first stage is an example of the first identification unit 1131 shown in FIG. Based on the estimated model 1140a, adjacent teeth are identified that are adjacent to a plurality of teeth equal in number to or less than the adjacent tooth. Estimation model 1140a is an example of first estimation model 1141 shown in FIG. 5, and includes a neural network (not shown) and parameters (not shown) used by the neural network. In FIG. 8, an example will be described in which the identification unit 1130a on the first stage identifies adjacent teeth whose number is smaller than the number of adjacent teeth corresponding to the input three-dimensional data.

具体的には、識別部1130aは、下顎左側の3番~7番の隣接歯牙および歯肉を構成する複数の点に対応する三次元データが入力されると、推定モデル1140aを用いて、3番~7番の歯牙のうちの複数の歯牙が隣接する隣接歯牙を識別する。たとえば、識別部1130aは、3番~7番の歯牙のうち、4番~7番の歯牙がセットになった歯牙群(隣接歯牙)に対応するとともにそれらの指標である色aを推定する。色aは、4番~7番の歯牙がセットになった歯牙群(隣接歯牙)に対応付けられたラベルである。また、識別部1130aは、3番~7番の歯牙のうち、3番~6番の歯牙がセットになった歯牙群(隣接歯牙)に対応するとともにそれらの指標である色bを推定する。色bは、3番~6番の歯牙がセットになった歯牙群(隣接歯牙)に対応付けられたラベルである。あるいは、識別部1130aは、いずれか1つの歯牙群(隣接歯牙)に対応する色を推定してもよい。識別部1130aによる識別結果は、2段目の識別部1130bに入力される。なお、4番~7番の隣接歯牙および3番~6番の隣接歯牙は、「第2隣接歯牙」の一例である。 Specifically, when the identification unit 1130a receives three-dimensional data corresponding to a plurality of points forming adjacent teeth and gums of numbers 3 to 7 on the left side of the mandible, the identification unit 1130a uses the estimation model 1140a to identify the number 3 Identifies neighboring teeth that are adjacent to a plurality of teeth among teeth numbered 1 through 7. For example, the identification unit 1130a estimates a color a that corresponds to a set of teeth (neighboring teeth) consisting of teeth Nos. 4 to 7 among Nos. 3 to 7 and is an index thereof. Color a is a label associated with a group of teeth (adjacent teeth) in which teeth No. 4 to No. 7 are set. Further, the identification unit 1130a estimates the color b that corresponds to a group of teeth (neighboring teeth) in which the teeth No. 3 to No. 6 are set (adjacent teeth) among the teeth No. 3 to No. 7 and that is an index thereof. Color b is a label associated with a group of teeth (adjacent teeth) in which teeth No. 3 to No. 6 are set. Alternatively, the identification unit 1130a may estimate the color corresponding to any one group of teeth (adjacent teeth). The identification result obtained by the identifying section 1130a is input to the second stage identifying section 1130b. The 4th to 7th adjacent teeth and the 3rd to 6th adjacent teeth are examples of the "second adjacent teeth".

このように、1段目の識別部1130aは、入力された3番~7番の隣接歯牙および歯肉を構成する複数の点に対応する三次元データと、推定モデル1140aとに基づき、4番~7番の歯牙がセットになった隣接歯牙と、3番~6番の歯牙がセットになった隣接歯牙とを識別する。あるいは、識別部1130aは、いずれか1つの隣接歯牙を識別する。 In this way, the identification unit 1130a on the first stage uses the three-dimensional data corresponding to the input three-dimensional data corresponding to a plurality of points constituting the adjacent teeth and gingiva of numbers 3 to 7 and the estimation model 1140a to determine numbers 4 to 4. Discriminate between adjacent teeth in which tooth No. 7 is a set and adjacent teeth in which teeth No. 3 to 6 are in a set. Alternatively, identifier 1130a identifies any one adjacent tooth.

2段目の識別部1130bは、図5に示した第1識別部1131の一例であり、入力された隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データと、推定モデル1140bとに基づき、当該隣接歯牙と同一の数または当該隣接歯牙よりも少ない数の複数の歯牙が隣接する隣接歯牙を識別する。推定モデル1140bは、図5に示した第1推定モデル1141の一例であり、図示しないニューラルネットワークと、当該ニューラルネットワークによって用いられる図示しないパラメータとを含む。なお、2段目の識別部1130bは、1段目の識別部1130aの後段に接続され、当該識別部1130aによって識別された隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データが、識別部1130bに入力される。なお、図8においては、2段目の識別部1130bが、入力された三次元データに対応する隣接歯牙よりも少ない数の隣接歯牙を識別する例を説明する。 The identification unit 1130b on the second stage is an example of the first identification unit 1131 shown in FIG. Based on the estimated model 1140b, adjacent teeth are identified that are adjacent to a plurality of teeth equal in number to or less than the adjacent tooth. The estimation model 1140b is an example of the first estimation model 1141 shown in FIG. 5, and includes a neural network (not shown) and parameters (not shown) used by the neural network. The identification unit 1130b on the second stage is connected to the rear stage of the identification unit 1130a on the first stage, and includes three-dimensional position information for each of a plurality of points constituting adjacent teeth identified by the identification unit 1130a. Three-dimensional data is input to identification section 1130b. In FIG. 8, an example will be described in which the identification unit 1130b on the second stage identifies adjacent teeth whose number is smaller than the number of adjacent teeth corresponding to the input three-dimensional data.

具体的には、識別部1130bは、識別部1130aによって出力された4番~7番の隣接歯牙の識別結果(たとえば、色aの推定結果、4番~7番の隣接歯牙に対応する三次元データ)に基づき、推定モデル1140bを用いて、4番~7番の隣接歯牙のうちの複数の歯牙が隣接する隣接歯牙を識別する。たとえば、識別部1130bは、4番~7番の隣接歯牙のうち、6番および7番の歯牙がセットになった歯牙群(隣接歯牙)に対応するとともにそれらの指標である色c、5番および6番の歯牙がセットになった歯牙群(隣接歯牙)に対応するとともにそれらの指標である色d、4番および5番の歯牙がセットになった歯牙群(隣接歯牙)に対応するとともにそれらの指標である色eを推定する。色cは、6番および7番の歯牙がセットになった歯牙群(隣接歯牙)に対応付けられたラベルであり、色dは、5番および6番の歯牙がセットになった歯牙群(隣接歯牙)に対応付けられたラベルであり、色eは、4番および5番の歯牙がセットになった歯牙群(隣接歯牙)に対応付けられたラベルである。あるいは、識別部1130bは、いずれか1つの歯牙群(隣接歯牙)に対応する色を推定してもよい。識別部1130bによる識別結果は、3段目の識別部1130cに入力される。なお、4番および5番の隣接歯牙、5番および6番の隣接歯牙、6番および7番の隣接歯牙は、「第2隣接歯牙」の一例である。 Specifically, the identification unit 1130b outputs the identification results of the 4th to 7th adjacent teeth output by the identification unit 1130a (for example, the estimation result of the color a, the three-dimensional data corresponding to the 4th to 7th adjacent teeth). data), the estimation model 1140b is used to identify neighboring teeth adjacent to a plurality of teeth among the 4th to 7th neighboring teeth. For example, identification part 1130b corresponds to a group of teeth (adjacent teeth) in which teeth No. 6 and No. 7 are set among No. 4 to No. 7 adjacent teeth, and colors c and no. and 6 corresponding to a set of teeth (adjacent teeth), and corresponding to the color d that is their index, and corresponding to a set of teeth (adjacent teeth) of the 4th and 5th teeth Estimate the color e that is their index. Color c is a label associated with a group of teeth (neighboring teeth) in which teeth No. 6 and 7 are set, and color d is a label associated with a group of teeth in which teeth No. 5 and 6 are a set ( adjacent teeth), and the color e is a label associated with a tooth group (adjacent teeth) in which teeth No. 4 and No. 5 are set. Alternatively, the identification unit 1130b may estimate the color corresponding to any one group of teeth (adjacent teeth). The identification result obtained by the identifying section 1130b is input to the identifying section 1130c on the third stage. The 4th and 5th adjacent teeth, the 5th and 6th adjacent teeth, and the 6th and 7th adjacent teeth are examples of the "second adjacent teeth".

また、2段目の識別部1130bは、識別部1130aによって出力された3番~6番の隣接歯牙の識別結果(たとえば、色bの推定結果、3番~6番の隣接歯牙に対応する三次元データ)に基づき、推定モデル1140bを用いて、3番~6番の隣接歯牙のうちの複数の歯牙が隣接する隣接歯牙を識別する。たとえば、識別部1130bは、3番~6番の隣接歯牙のうち、5番および6番の歯牙がセットになった歯牙群(隣接歯牙)に対応するとともにそれらの指標である色d、4番および5番の歯牙がセットになった歯牙群(隣接歯牙)に対応するとともにそれらの指標である色e、3番および4番の歯牙がセットになった歯牙群(隣接歯牙)に対応するとともにそれらの指標である色fを推定する。色fは、3番および4番の歯牙がセットになった歯牙群(隣接歯牙)に対応付けられたラベルである。あるいは、識別部1130bは、いずれか1つの歯牙群(隣接歯牙)に対応する色を推定してもよい。識別部1130bによる識別結果は、3段目の識別部1130cに入力される。なお、3番および4番の隣接歯牙、4番および5番の隣接歯牙、4番および6番の隣接歯牙は、「第2隣接歯牙」の一例である。 In addition, the identification unit 1130b in the second stage outputs the identification results of the 3rd to 6th adjacent teeth output by the identification unit 1130a (for example, the estimation result of the color b, the tertiary data corresponding to the 3rd to 6th adjacent teeth). Based on the original data), the estimation model 1140b is used to identify adjacent teeth among the 3rd to 6th adjacent teeth that are adjacent to each other. For example, identification unit 1130b corresponds to a group of teeth (adjacent teeth) in which teeth No. 5 and No. 6 are a set of adjacent teeth No. 3 to No. 6, and colors d and No. and 5 correspond to a set of teeth (adjacent teeth), and the color e, which is their index, corresponds to a set of teeth (adjacent teeth) of teeth 3 and 4, and Estimate the color f that is their index. Color f is a label associated with a group of teeth (adjacent teeth) in which teeth No. 3 and No. 4 are set. Alternatively, the identification unit 1130b may estimate the color corresponding to any one group of teeth (adjacent teeth). The identification result obtained by the identifying section 1130b is input to the identifying section 1130c on the third stage. The 3rd and 4th adjacent teeth, the 4th and 5th adjacent teeth, and the 4th and 6th adjacent teeth are examples of the "second adjacent teeth".

第2隣接歯牙のうち、4番~7番の隣接歯牙の識別結果に基づき識別部1130bによって識別された第2隣接歯牙(4番および5番の隣接歯牙、5番および6番の隣接歯牙、6番および7番の隣接歯牙)と、3番~6番の隣接歯牙の識別結果に基づき識別部1130bによって識別された第2隣接歯牙(3番および4番の隣接歯牙、4番および5番の隣接歯牙、4番および6番の隣接歯牙)とでは、4番~6番の各歯牙が重複している。 Among the second adjacent teeth, the second adjacent teeth identified by the identification unit 1130b based on the identification results of the 4th to 7th adjacent teeth (4th and 5th adjacent teeth, 5th and 6th adjacent teeth, 6 and 7 adjacent teeth) and the second adjacent teeth identified by the identification unit 1130b based on the identification results of the 3rd to 6th adjacent teeth (3rd and 4th adjacent teeth, 4th and 5th adjacent teeth adjacent teeth, adjacent teeth of No. 4 and No. 6), each tooth No. 4 to No. 6 overlaps.

このように、2段目の識別部1130bは、入力された4番~7番の隣接歯牙の識別結果と、3番~6番の隣接歯牙の識別結果と、推定モデル1140bとに基づき、6番および7番の歯牙がセットになった隣接歯牙と、5番および6番の歯牙がセットになった隣接歯牙と、4番および5番の歯牙がセットになった隣接歯牙と、3番および4番の歯牙がセットになった隣接歯牙とを識別する。あるいは、識別部1130bは、いずれか1つの隣接歯牙を識別する。なお、識別部1130bは、入力された4番~7番の隣接歯牙の識別結果と、3番~6番の隣接歯牙の識別結果とのうち、少なくともいずれか1つの識別結果と、推定モデル1140bとに基づき、6番および7番の歯牙がセットになった隣接歯牙と、5番および6番の歯牙がセットになった隣接歯牙と、4番および5番の歯牙がセットになった隣接歯牙と、3番および4番の歯牙がセットになった隣接歯牙とのうち、少なくともいずれか1つの隣接歯牙を識別してもよい。 In this way, the identification unit 1130b in the second stage performs 6 Adjacent teeth with teeth No. 7 and No. 7, adjacent teeth with teeth No. 5 and No. 6, adjacent teeth with teeth No. 4 and No. 5, teeth No. 3 and Tooth No. 4 identifies adjacent teeth in a set. Alternatively, identifier 1130b identifies any one adjacent tooth. Note that the identification unit 1130b uses at least one of the input identification results of the 4th to 7th adjacent teeth and the input identification results of the 3rd to 6th adjacent teeth, and the estimation model 1140b. Based on the above, adjacent teeth set of teeth 6 and 7, adjacent teeth set of teeth 5 and 6, and adjacent teeth set of teeth 4 and 5 , and the set of teeth #3 and #4.

3段目の識別部1130cは、図5に示した第2識別部1132の一例であり、識別部1130bによる隣接歯牙(第2隣接歯牙)の識別結果と、推定モデル1140cとに基づき、当該隣接歯牙に含まれる歯牙の種類を識別する。推定モデル1140cは、図5に示した第2推定モデル1142の一例であり、図示しないニューラルネットワークと、当該ニューラルネットワークによって用いられる図示しないパラメータとを含む。なお、3段目の識別部1130cは、2段目の識別部1130bの後段に接続され、当該識別部1130bによって識別された隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データが、識別部1130cに入力される。 The identification unit 1130c on the third stage is an example of the second identification unit 1132 shown in FIG. Identify the type of tooth contained in the tooth. Estimation model 1140c is an example of second estimation model 1142 shown in FIG. 5, and includes a neural network (not shown) and parameters (not shown) used by the neural network. The identification unit 1130c on the third stage is connected to the rear stage of the identification unit 1130b on the second stage, and includes three-dimensional position information for each of a plurality of points constituting adjacent teeth identified by the identification unit 1130b. Three-dimensional data is input to identification section 1130c.

具体的には、識別部1130cは、識別部1130bによって出力された6番および7番の隣接歯牙の識別結果(たとえば、色cの推定結果、6番および7番の隣接歯牙に対応する三次元データ)に基づき、推定モデル1140cを用いて、6番および7番の隣接歯牙のうちの各々の歯牙の種類を識別する。たとえば、識別部1130cは、6番および7番の隣接歯牙のうち、6番の指標である色hおよび7番の指標である色gを推定する。色hは、6番の歯牙に対応付けられたラベルであり、色gは、7番の歯牙に対応付けられたラベルである。あるいは、識別部1130cは、いずれか1つの歯牙に対応する色(種類)を推定してもよい。 Specifically, the identification unit 1130c outputs the identification results of the 6th and 7th adjacent teeth output by the identification unit 1130b (for example, the estimation result of the color c, the three-dimensional data), the estimated model 1140c is used to identify the tooth type for each of the 6th and 7th adjacent teeth. For example, the identification unit 1130c estimates the color h that is the indicator of the number 6 and the color g that is the indicator of the number 7 among the adjacent teeth numbered 6 and 7. Color h is the label associated with tooth #6, and color g is the label associated with tooth #7. Alternatively, the identification unit 1130c may estimate the color (type) corresponding to any one tooth.

また、3段目の識別部1130cは、識別部1130bによって出力された5番および6番の隣接歯牙の識別結果(たとえば、色dの推定結果、5番および6番の隣接歯牙に対応する三次元データ)に基づき、推定モデル1140cを用いて、5番および6番の隣接歯牙のうちの各々の歯牙の種類を識別する。たとえば、識別部1130cは、5番および6番の隣接歯牙のうち、5番の指標である色iおよび6番の指標である色hを推定する。色iは、5番の歯牙に対応付けられたラベルである。あるいは、識別部1130cは、いずれか1つの歯牙に対応する色(種類)を推定してもよい。 In addition, the identification unit 1130c at the third stage outputs the identification results of the 5th and 6th adjacent teeth output by the identification unit 1130b (for example, the estimation result of the color d, the tertiary data corresponding to the 5th and 6th adjacent teeth). (original data), the estimation model 1140c is used to identify the tooth type for each of the 5th and 6th adjacent teeth. For example, the identification unit 1130c estimates the color i that is the index of number 5 and the color h that is the index of number 6 of the adjacent teeth numbered 5 and 6. Color i is the label associated with tooth #5. Alternatively, the identification unit 1130c may estimate the color (type) corresponding to any one tooth.

また、3段目の識別部1130cは、識別部1130bによって出力された4番および5番の隣接歯牙の識別結果(たとえば、色eの推定結果、4番および5番の隣接歯牙に対応する三次元データ)に基づき、推定モデル1140cを用いて、4番および5番の隣接歯牙のうちの各々の歯牙の種類を識別する。たとえば、識別部1130cは、4番および5番の隣接歯牙のうち、4番の指標である色jおよび5番の指標である色iを推定する。色jは、4番の歯牙に対応付けられたラベルである。あるいは、識別部1130cは、いずれか1つの歯牙に対応する色(種類)を推定してもよい。 In addition, the identification unit 1130c at the third stage uses the identification result (for example, the estimation result of the color e, the tertiary data corresponding to the 4th and 5th adjacent teeth) of the 4th and 5th adjacent teeth output by the identification unit 1130b. (original data), the estimated model 1140c is used to identify the tooth type for each of the 4th and 5th adjacent teeth. For example, the identification unit 1130c estimates the color j that is the index of No. 4 and the color i that is the index of No. 5 among the adjacent teeth No. 4 and No. 5. Color j is the label associated with tooth #4. Alternatively, the identification unit 1130c may estimate the color (type) corresponding to any one tooth.

さらに、3段目の識別部1130cは、識別部1130bによって出力された3番および4番の隣接歯牙の識別結果(たとえば、色fの推定結果、3番および4番の隣接歯牙に対応する三次元データ)に基づき、推定モデル1140cを用いて、3番および4番の隣接歯牙のうちの各々の歯牙の種類を識別する。たとえば、識別部1130cは、3番および4番の隣接歯牙のうち、3番の指標である色kおよび4番の指標である色jを推定する。色kは、3番の歯牙に対応付けられたラベルである。あるいは、識別部1130cは、いずれか1つの歯牙に対応する色(種類)を推定してもよい。 Furthermore, the identification unit 1130c at the third stage uses the identification results of the third and fourth adjacent teeth output by the identification unit 1130b (for example, the estimation result of the color f, the tertiary (original data), the estimated model 1140c is used to identify the tooth type for each of the 3rd and 4th adjacent teeth. For example, the identification unit 1130c estimates the color k that is the index of number 3 and the color j that is the index of number 4 of the adjacent teeth numbered 3 and 4. Color k is the label associated with tooth #3. Alternatively, the identification unit 1130c may estimate the color (type) corresponding to any one tooth.

このように、3段目の識別部1130cは、入力された6番および7番の隣接歯牙の識別結果と、5番および6番の隣接歯牙の識別結果と、4番および5番の隣接歯牙の識別結果と、3番および4番の隣接歯牙の識別結果と、推定モデル1140cとに基づき、3番~7番のそれぞれの歯牙の種類を識別する。あるいは、識別部1130cは、いずれか1つの歯牙の種類を識別する。なお、識別部1130cは、入力された6番および7番の隣接歯牙の識別結果と、5番および6番の隣接歯牙の識別結果と、4番および5番の隣接歯牙の識別結果と、3番および4番の隣接歯牙の識別結果とのうち、少なくともいずれか1つの識別結果と、推定モデル1140cとに基づき、3番~7番の歯牙のうち、少なくともいずれか1つの歯牙の種類を識別してもよい。 In this way, the identification unit 1130c on the third stage obtains the input identification results of the adjacent teeth Nos. 6 and 7, the identification results of the adjacent teeth Nos. 5 and 6, and the adjacent teeth Nos. 4 and 5. , the identification results of adjacent teeth No. 3 and No. 4, and the estimation model 1140c, the types of teeth No. 3 to No. 7 are identified. Alternatively, the identification unit 1130c identifies any one tooth type. The identification unit 1130c receives identification results of adjacent teeth No. 6 and 7, identification results of adjacent teeth No. 5 and 6, identification results of adjacent teeth No. 4 and 5, and 3 Based on at least one of the identification results of adjacent teeth No. 3 and No. 4 and the estimation model 1140c, at least one tooth type among teeth No. 3 to No. 7 is identified. You may

このような構成において、識別装置100は、隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力されると、当該三次元データに基づいて、複数の歯牙のそれぞれの特徴を多段式の複数の推定モデル1141(1140a,1140b),1142(1140c)を用いて抽出し、抽出した複数の歯牙のそれぞれの特徴に基づき、当該複数の歯牙のそれぞれの種類を識別することができる。識別装置100は、一般的に認識されている歯牙の特徴に限らず、一般的に認識されていない歯牙の特徴についても抽出することができ、それによって精度良く歯牙の種類を識別することができる。 In such a configuration, when three-dimensional data including three-dimensional position information on each of a plurality of points forming adjacent teeth is input, the identification device 100 identifies the positions of the plurality of teeth based on the three-dimensional data. Each feature is extracted using a plurality of multistage estimation models 1141 (1140a, 1140b) and 1142 (1140c), and the type of each of the plurality of teeth is identified based on the features of each of the extracted teeth. can do. The identification device 100 can extract not only generally recognized tooth features but also generally unrecognized tooth features, thereby accurately identifying the type of tooth. .

また、識別装置100は、多段式になった複数の推定モデル1141(1140a,1140b),1142(1140c)を用いて隣接する歯牙の数を段階的に絞りながら歯牙を識別するため、数多くの歯牙が隣接する隣接歯牙に対応する三次元データに基づき各歯牙の種類を一度に識別するよりも、精度良く歯牙の種類を識別することができる。より具体的には、1つの歯牙を一度に識別する場合、当該歯牙(または当該歯牙に隣接する歯牙)の特徴のみで識別する必要がある。歯牙の種類は16種類あるため、16種類からなる各歯牙の種類を一度に識別する場合、各歯牙(または各歯牙に隣接する歯牙)の特徴のみで識別する必要があり、識別の精度はなかなか上がらない。一方、複数の歯牙を識別する場合は、その特徴が1つの歯牙を識別する場合よりも増えるため、識別の精度が向上する。さらに、複数の歯牙の識別を多段式にすることで、2段目以降は、1段目で識別した複数の歯牙の中のみで識別を行うため、より精度が向上する。たとえば、1段目で4つ歯牙(4番、5番、6番、7番)を識別し、2段目で2つの歯牙を識別する場合、2段目では3種類の歯牙(4番および5番、5番および6番、6番および7番)を識別するだけでよいため、より精度が向上する。 Further, since the identification apparatus 100 identifies teeth while gradually reducing the number of adjacent teeth using a plurality of multistage estimation models 1141 (1140a, 1140b) and 1142 (1140c), a large number of teeth can be identified. It is possible to identify the type of tooth with higher accuracy than when identifying the type of each tooth at once based on the three-dimensional data corresponding to adjacent teeth adjacent to each other. More specifically, when identifying one tooth at a time, it is necessary to identify only the characteristics of that tooth (or teeth adjacent to that tooth). Since there are 16 types of teeth, when identifying each tooth type consisting of 16 types at once, it is necessary to identify only the characteristics of each tooth (or teeth adjacent to each tooth), and the accuracy of identification is difficult. won't go up On the other hand, when identifying a plurality of teeth, the number of features is greater than when identifying a single tooth, so the accuracy of identification is improved. Furthermore, by making identification of a plurality of teeth multistage, identification is performed only in the plurality of teeth identified in the first stage from the second stage onwards, so that the accuracy is further improved. For example, if the first row identifies four teeth (numbers 4, 5, 6, and 7) and the second row identifies two teeth, the second row identifies three types of teeth (numbers 4 and 7). 5, 5 and 6, 6 and 7) are only required to be identified, resulting in greater accuracy.

さらに、識別装置100は、段階的に隣接歯牙を推定するにあたって、複数の第2隣接歯牙において重複する歯牙(4番~6番の各歯牙)については複数回に亘って識別されるため、より精度良く歯牙の種類を識別することができる。 Furthermore, when estimating adjacent teeth step by step, the identification device 100 identifies overlapping teeth (each of Nos. 4 to 6) in a plurality of second adjacent teeth a plurality of times. The type of tooth can be identified with high accuracy.

以上、説明した図8に示す例では、2段目の識別部1130bが、入力された三次元データに対応する隣接歯牙よりも少ない数の隣接歯牙を識別していたが、2段目の識別部1130bが、入力された三次元データに対応する隣接歯牙と同一の数の隣接歯牙を識別してもよい。 As described above, in the example shown in FIG. 8, the identification unit 1130b on the second stage identifies a smaller number of adjacent teeth than the adjacent teeth corresponding to the input three-dimensional data. Part 1130b may identify the same number of adjacent teeth as the adjacent teeth corresponding to the input three-dimensional data.

たとえば、2段目の識別部1130bは、識別部1130aによって出力された3番~6番の隣接歯牙の識別結果に基づき、推定モデル1140bを用いて、3番~6番の隣接歯牙を識別する。そして、3段目の識別部1130cは、識別部1130bによって出力された3番~6番の隣接歯牙の識別結果に基づき、推定モデル1140cを用いて、3番~6番の隣接歯牙のうちの各々の歯牙の種類を識別してもよい。 For example, the identification unit 1130b in the second stage identifies the 3rd to 6th adjacent teeth using the estimation model 1140b based on the identification results of the 3rd to 6th adjacent teeth output by the identification unit 1130a. . Based on the identification results of the 3rd to 6th adjacent teeth output by the identification unit 1130b, the identification unit 1130c in the third stage uses the estimation model 1140c to identify the 3rd to 6th adjacent teeth. Each tooth type may be identified.

また、2段目の識別部1130bは、識別部1130aによって出力された4番~7番の隣接歯牙の識別結果に基づき、推定モデル1140bを用いて、4番~7番の隣接歯牙を識別する。そして、3段目の識別部1130cは、識別部1130bによって出力された4番~7番の隣接歯牙の識別結果に基づき、推定モデル1140cを用いて、4番~7番の隣接歯牙のうちの各々の歯牙の種類を識別してもよい。 Further, the identification unit 1130b in the second stage identifies the 4th to 7th adjacent teeth using the estimation model 1140b based on the identification results of the 4th to 7th adjacent teeth output by the identification unit 1130a. . Then, the identification unit 1130c in the third stage uses the estimation model 1140c based on the identification results of the 4th to 7th adjacent teeth output by the identification unit 1130b to identify the 4th to 7th adjacent teeth. Each tooth type may be identified.

[学習用データの生成]
図9~図11を参照しながら、学習用データセット116の生成の一例を説明する。図9は、本実施の形態に係る学習用データの生成を説明するための模式図である。図10は、本実施の形態に係る学習用データの一例を説明するための模式図である。図11は、本実施の形態に係る色分類データの一例を示す模式図である。
[Generation of learning data]
An example of generating the learning data set 116 will be described with reference to FIGS. 9 to 11. FIG. FIG. 9 is a schematic diagram for explaining generation of learning data according to the present embodiment. FIG. 10 is a schematic diagram for explaining an example of learning data according to the present embodiment. FIG. 11 is a schematic diagram showing an example of color classification data according to this embodiment.

図9に示すように、まず、三次元スキャナ200によって三次元データが取得される(STEP1)。三次元スキャナ200によって取得された三次元データは、当該三次元データに対応する歯牙および歯肉を構成する複数の点のそれぞれにおける三次元の位置情報と、当該複数の点のそれぞれにおける色情報(RGB値)とを含む。三次元スキャナ200によって取得された三次元データに基づき三次元画像が生成されると、図9(a)に示すように実際の色が付された歯牙および歯肉を含む三次元画像が生成される。 As shown in FIG. 9, first, three-dimensional data is acquired by the three-dimensional scanner 200 (STEP 1). The three-dimensional data acquired by the three-dimensional scanner 200 includes three-dimensional position information at each of a plurality of points that constitute the teeth and gums corresponding to the three-dimensional data, and color information (RGB) at each of the plurality of points. value). When a three-dimensional image is generated based on the three-dimensional data acquired by the three-dimensional scanner 200, a three-dimensional image including teeth and gums with actual colors is generated as shown in FIG. 9(a). .

次に、後述する各歯牙の色分け処理の準備として、ノイズ除去処理が行われる。たとえば、本実施の形態においては、三次元データに対応する3次元画像がグレースケール化される(STEP2)。3次元画像のグレースケール化は、ユーザ1(この場合、学習用データを生成するメーカの技術者または製造工場の作業者、歯科医師、歯科技工士などの歯科の知識を有する者など)によって行われる。三次元画像がグレースケール化されると、図9(b)に示すようにグレースケール化された歯牙を含む三次元画像が生成される。また、三次元画像のグレースケール化に応じて、三次元データに対応する歯牙の各点における色情報(RGB値)がグレースケールに対応する値(たとえば、192192192)に変更される。 Next, noise removal processing is performed in preparation for color-coding processing for each tooth, which will be described later. For example, in the present embodiment, a 3D image corresponding to 3D data is grayscaled (STEP 2). Grayscaling of the three-dimensional image is performed by the user 1 (in this case, a manufacturer engineer who generates learning data, an operator at a manufacturing plant, a dentist, a dental technician, or other person with dental knowledge). will be When the 3D image is grayscaled, a 3D image including the grayscaled teeth is generated as shown in FIG. 9(b). Further, in accordance with the grayscaling of the 3D image, the color information (RGB values) at each point of the tooth corresponding to the 3D data is changed to a value (for example, 192192192) corresponding to the grayscale.

次に、三次元データに対応する三次元画像に含まれる各歯牙に対して予め定められた色が塗布されることで各歯牙が色分けされる(STEP3)。 Next, each tooth is color-coded by applying a predetermined color to each tooth included in the three-dimensional image corresponding to the three-dimensional data (STEP 3).

たとえば、図10に示すように、4番~7番の歯牙がセットになった歯牙群(隣接歯牙)に対して色aが塗布されることで、4番~7番の隣接歯牙と色aとが対応付けられた学習用データが生成される。この学習用データは、図8に示した推定モデル1140aの学習に用いられる。すなわち、推定モデル1140aは、図9(a)または図9(b)に示すような4番~7番の隣接歯牙を含む3番~7番の隣接歯牙に対応する三次元データに基づき、4番~7番の隣接歯牙を推定して色情報として出力し、その推定結果と正解データである色情報(色a)との比較結果に基づき学習する。 For example, as shown in FIG. 10, by applying color a to a group of teeth (adjacent teeth) consisting of teeth No. 4 to No. 7, adjacent teeth No. 4 to No. 7 and color a and learning data associated with is generated. This learning data is used for learning the estimation model 1140a shown in FIG. That is, the estimation model 1140a is based on the three-dimensional data corresponding to the 3rd to 7th adjacent teeth including the 4th to 7th adjacent teeth as shown in FIG. 9(a) or 9(b). Adjacent teeth No. 7 to No. 7 are estimated and output as color information, and learning is performed based on the result of comparison between the estimation result and color information (color a) which is correct data.

また、図10に示すように、6番および7番の歯牙がセットになった歯牙群(隣接歯牙)に対して色cが塗布されることで、6番および7番の隣接歯牙と色cとが対応付けられた学習用データが生成される。この学習用データは、図8に示した推定モデル1140bの学習に用いられる。すなわち、推定モデル1140bは、6番および7番の隣接歯牙を含む4番~7番の隣接歯牙に対応する三次元データに基づき、6番および7番の隣接歯牙を推定して色情報として出力し、その推定結果と正解データである色情報(色c)との比較結果に基づき学習する。 Further, as shown in FIG. 10, by applying color c to a group of teeth (adjacent teeth) in which teeth No. 6 and No. 7 are set, adjacent teeth No. 6 and No. 7 and color c and learning data associated with is generated. This learning data is used for learning the estimation model 1140b shown in FIG. That is, the estimation model 1140b estimates the 6th and 7th adjacent teeth based on the three-dimensional data corresponding to the 4th to 7th adjacent teeth including the 6th and 7th adjacent teeth, and outputs them as color information. Then, learning is performed based on the result of comparison between the estimation result and the color information (color c) that is the correct data.

さらに、図10に示すように、7番の歯牙に対して色gが塗布されることで、7番の歯牙と色gとが対応付けられた学習用データが生成される。この学習用データは、図8に示した推定モデル1140cの学習に用いられる。すなわち、推定モデル1140cは、7番の歯牙を含む6番および7番の隣接歯牙に対応する三次元データに基づき、7番の歯牙を推定して色情報として出力し、その推定結果と正解データである色情報(色g)との比較結果に基づき学習する。 Further, as shown in FIG. 10, by applying the color g to the tooth number 7, learning data in which the tooth number 7 and the color g are associated is generated. This learning data is used for learning the estimation model 1140c shown in FIG. That is, the estimation model 1140c estimates the 7th tooth based on the three-dimensional data corresponding to the 6th and 7th adjacent teeth including the 7th tooth, and outputs it as color information. is learned based on the result of comparison with the color information (color g).

図11に示すように、1つの歯牙または複数の歯牙からなる隣接歯牙ごとに色分けするための色分類データ118は、下顎左側、下顎右側、上顎左側、および上顎右側といったように口腔内の各部位ごとに設けられている。図11においては、下顎左側に対応する色分類データ118が示されている。各色分類データ118においては、歯牙の種類ごとに、歯科分野において一般的に用いられている歯牙の番号と、予め定められた色情報とが割り当てられている。 As shown in FIG. 11, the color classification data 118 for color-coding one tooth or adjacent teeth consisting of a plurality of teeth is used for each region in the oral cavity such as the left lower jaw, the right lower jaw, the left upper jaw, and the right upper jaw. provided for each. FIG. 11 shows color classification data 118 corresponding to the left side of the lower jaw. In each color classification data 118, a tooth number generally used in the dental field and predetermined color information are assigned to each tooth type.

たとえば、第二大臼歯は、歯牙の番号として7番が割り当てられ、色情報として色gが割り当てられている。第一大臼歯は、歯牙の番号として6番が割り当てられ、色情報として色hが割り当てられている。第二小臼歯は、歯牙の番号として5番が割り当てられ、色情報として色iが割り当てられている。このように、各色分類データ118においては、1つの歯牙または複数の歯牙からなる隣接歯牙ごとに色情報が予め割り当てられている。 For example, the second molar is assigned number 7 as the tooth number and color g as the color information. The first molar is assigned number 6 as the tooth number and color h as color information. The second premolar is assigned number 5 as the tooth number and color i as the color information. In this way, in each color classification data 118, color information is assigned in advance to each adjacent tooth consisting of one tooth or a plurality of teeth.

各歯牙に対する色の塗布は、ユーザ1(特に、歯科医師、歯科技工士などの歯科の知識を有する者など)によって行われる。具体的には、ユーザ1は、自身の知見に基づき三次元画像に含まれる各歯牙の種類を識別し、識別した歯牙の種類に対応する色を、色分類データ118を参照しながら特定し、特定した色を当該歯牙の画像に塗布する。 The application of color to each tooth is performed by a user 1 (in particular, a person with dental knowledge such as a dentist, dental technician, etc.). Specifically, the user 1 identifies the type of each tooth included in the three-dimensional image based on his/her own knowledge, identifies the color corresponding to the identified tooth type with reference to the color classification data 118, Apply the specified color to the image of the tooth.

たとえば、ユーザ1は、三次元画像に含まれる歯牙が7番の歯牙であると識別すると、当該歯牙の画像に色gを塗布する。また、三次元画像に含まれる歯牙が6番の歯牙であると識別すると、当該歯牙の画像に色hを塗布する。なお、図9および図10においては、分かり易いように、各色がハッチングで表されている。 For example, when the user 1 identifies that the tooth included in the three-dimensional image is the number 7 tooth, the user 1 applies the color g to the image of the tooth. Further, when the tooth included in the three-dimensional image is identified as tooth number 6, the color h is applied to the image of the tooth. In addition, in FIGS. 9 and 10, each color is represented by hatching for easy understanding.

また、1つの歯牙または複数の歯牙からなる隣接歯牙の色分けに応じて、三次元データに対応する歯牙の各点における色情報(RGB値)が各歯牙に塗布された色に対応する値に変更される。たとえば、色a(赤色)に塗布された4番~7番の隣接歯牙の各位置座標に対しては、色情報(RGB値)が“255000000”となり、色c(緑色)に塗布された6番および7番の隣接歯牙の各位置座標に対しては、色情報(RGB値)が“000255000”となり、色g(青色)に塗布された7番の歯牙の各位置座標に対しては、色情報(RGB値)が“00000255”となる。つまり、三次元データに対応する歯牙の各点に対して、予め定められた色情報(RGB値)が関連付けられる。 In addition, according to the color coding of one tooth or adjacent teeth consisting of a plurality of teeth, the color information (RGB values) at each point of the tooth corresponding to the three-dimensional data is changed to a value corresponding to the color applied to each tooth. be done. For example, the color information (RGB value) is "255000000" for each of the position coordinates of the 4th to 7th adjacent teeth painted in color a (red), and 6 is painted in color c (green). The color information (RGB value) is "000255000" for each of the position coordinates of the adjacent teeth No. 7 and No. 7, and the position coordinates of the No. 7 tooth painted in color g (blue) is: The color information (RGB values) becomes "00000255". That is, predetermined color information (RGB values) is associated with each point of the tooth corresponding to the three-dimensional data.

各歯牙に対して予め定められた色情報が関連付けられると、三次元データには、位置情報と、塗布された色に対応する色情報とが含まれるようになり、このような三次元データが学習用データとして採用される。つまり、本実施の形態に係る学習用データにおいては、識別処理で参照される位置情報に対して、歯牙の種類に対応する色情報が関連付けられる(ラベリングされる)。さらに、三次元データに対応する複数の歯牙のそれぞれの範囲を特定可能に当該三次元データに色情報が関連付けられる。具体的には、各歯牙に対応する位置情報ごとに、同じ色情報が関連付けられる。このような学習用データの集まりが学習用データセット116として、識別装置100に保持される。 When predetermined color information is associated with each tooth, the three-dimensional data includes position information and color information corresponding to the applied color. Adopted as training data. That is, in the learning data according to the present embodiment, color information corresponding to the type of tooth is associated (labeled) with position information referred to in identification processing. Further, color information is associated with the three-dimensional data so that each range of a plurality of teeth corresponding to the three-dimensional data can be specified. Specifically, the same color information is associated with each piece of position information corresponding to each tooth. A collection of such learning data is held in the identification device 100 as a learning data set 116 .

このように、学習用データを生成する際に、ユーザ1が三次元画像に含まれる各歯牙に色を塗布して正解データをラベリングすることにおいては、多くの利点がある。たとえば、単なる文字または記号を用いてラベリングした場合、ユーザ1は、各歯牙の範囲を認識し難いが、色分けによってラベリングした場合、ユーザ1は、ラベリング対象である歯牙と当該歯牙に隣接する歯牙との間の境界、およびラベリング対象である歯牙と歯肉との間の境界を色の塗布によって容易に認識することができる。また、ユーザ1は、ラベリング時に様々な角度から三次元画像を確認しながら色を塗布するが、視点の角度を変更した場合でも、ラベリング作業中の歯牙に対してどの範囲まで塗布が完了したのかを認識し易くなる。 In this way, there are many advantages in labeling correct data by applying colors to each tooth included in the three-dimensional image by the user 1 when generating learning data. For example, if the labeling is done using simple characters or symbols, the user 1 will find it difficult to recognize the range of each tooth, but if the labeling is done by color coding, the user 1 will be able to distinguish between the tooth to be labeled and the adjacent tooth. , and between the tooth and gingiva to be labeled can be easily recognized by the application of color. In addition, the user 1 applies the color while checking the three-dimensional image from various angles during labeling. becomes easier to recognize.

なお、本実施の形態においては、ユーザ1が自身の知見に基づき手作業で三次元画像に含まれる各歯牙に色を塗布しているが、一部の作業をソフトウェアで補うことも可能である。たとえば、ラベリング対象である歯牙と当該歯牙に隣接する歯牙との間の境界、およびラベリング対象である歯牙と歯肉との間の境界を、エッジ検出によって特定してもよく、このようにすれば、ラベリング対象である歯牙のみを抽出することができる。 In this embodiment, the user 1 manually applies the color to each tooth included in the three-dimensional image based on his/her own knowledge, but it is also possible to supplement part of the work with software. . For example, the boundary between the tooth to be labeled and the tooth adjacent to it, and the boundary between the tooth to be labeled and the gingiva may be identified by edge detection, such that: Only teeth that are labeling targets can be extracted.

なお、図9および図10に示す学習用データセット116の生成は、サーバ装置500が保持する学習用データセット516の生成についても適用可能である。たとえば、図10に示す学習用データセット116を、サーバ装置500が保持する学習用データセット516に適用してもよいし、図11に示す色分類データ118を、サーバ装置500が保持する色分類データ518に適用してもよい。 Generating the learning data set 116 shown in FIGS. 9 and 10 can also be applied to generating the learning data set 516 held by the server device 500 . For example, learning data set 116 shown in FIG. 10 may be applied to learning data set 516 held by server device 500, and color classification data 118 shown in FIG. It may be applied to data 518 .

[学習済モデルの生成]
図12を参照しながら、学習済モデルの生成の一例を説明する。図12は、本実施の形態に係る学習用データセット116に基づく学習済モデルの生成を説明するための模式図である。
[Generate trained model]
An example of generating a learned model will be described with reference to FIG. FIG. 12 is a schematic diagram for explaining generation of a trained model based on learning data set 116 according to the present embodiment.

図12に示すように、学習用データセット116は、当該学習用データセット116を生成する際にスキャン対象となった対象者2のプロファイルに基づきカテゴリごとに分類することができる。たとえば、年齢(未成年者,現役世代,高齢者)、性別(男性,女性)、人種(アジア人,欧米人,アフリカ系)、身長(150cm未満,150以上)、体重(50kg未満,50kg以上)、および居住地(日本在住,日本以外に在住)のそれぞれに対して、該当する対象者2の歯牙を含む三次元データから生成された学習用データセットを割り当てることができる。なお、各カテゴリの層別は、適宜設定可能である。たとえば、年齢に関しては、所定の年齢差ごと(この場合は3歳ごと)、具体的には、0歳~3歳、4歳~6歳、7歳~9歳、…といったように、より詳細に層別することができる。 As shown in FIG. 12, the learning data set 116 can be classified into categories based on the profile of the subject 2 who was scanned when the learning data set 116 was generated. For example, age (minor, working generation, elderly), gender (male, female), race (Asian, Western, African), height (less than 150 cm, 150 or more), weight (less than 50 kg, 50 kg) above), and place of residence (resident in Japan, residing outside of Japan) can be assigned a learning data set generated from three-dimensional data including the teeth of the corresponding subject 2 . Note that the stratification of each category can be set as appropriate. For example, with respect to age, for each predetermined age difference (every three years in this case), specifically, more detailed information such as 0 to 3 years old, 4 to 6 years old, 7 to 9 years old, etc. can be stratified into

識別装置100は、カテゴリごとに分類することができる複数の学習用データセット116a~116oを用いて推定モデル114を学習させることで、学習済モデルを生成する。なお、学習用データは、カテゴリの分類の仕方によっては重複することがあるが、学習用データが重複する場合には、いずれかの学習用データのみを用いて推定モデル114を学習させればよい。 The identification device 100 generates a trained model by training the estimation model 114 using a plurality of training data sets 116a to 116o that can be classified by category. Note that the learning data may overlap depending on how the categories are classified, but if the learning data overlaps, the estimation model 114 may be trained using only one of the learning data. .

一般的に歯牙の形状は、年齢、性別、人種、身長、体重、および居住地など、遺伝または生活環境などに依存してその特徴が異なる。たとえば、一般的に、大人の永久歯は、子供の乳歯よりも大きく、両者でその形状が異なる。また、一般的に、男性の歯牙は、女性の歯牙よりも大きく、両者でその形状が異なる。また、一般的に、欧米人の歯牙は、硬い肉やパンを噛み切り易いように先端が尖る傾向があるのに対して、日本人の歯牙は、柔らかい米や野菜をすり潰し易いように先端が滑らかになる傾向がある。このため、本実施の形態のように、プロファイルデータに基づき学習処理を実行すれば、遺伝または生活環境などを考慮して歯牙の種類を識別することができる学習済モデルを生成することができる。 In general, tooth shape differs depending on genetics or living environment such as age, sex, race, height, weight, place of residence, and the like. For example, the permanent teeth of adults are generally larger than the milk teeth of children, and the two have different shapes. In general, male teeth are larger than female teeth, and the two have different shapes. In general, the teeth of Westerners tend to have sharp tips so that they can easily bite off hard meat and bread, whereas the teeth of Japanese people tend to have sharp tips so that they can easily grind soft rice and vegetables. It tends to be smooth. Therefore, by performing learning processing based on profile data as in the present embodiment, it is possible to generate a trained model that can identify the type of tooth in consideration of heredity or living environment.

なお、図12に示す学習済モデルの生成は、サーバ装置500が保持する学習済モデルの生成についても適用可能である。たとえば、図12に示す学習用データセット116a~116oを、サーバ装置500が保持する学習用データセット516に適用してもよいし、図10に示す推定モデル114を、サーバ装置500が保持する推定モデル514に適用してもよい。 Note that the generation of the trained model shown in FIG. 12 can also be applied to the generation of the trained model held by the server device 500 . For example, the learning datasets 116a to 116o shown in FIG. 12 may be applied to the learning dataset 516 held by the server device 500, and the estimation model 114 shown in FIG. It may be applied to model 514 .

[推定モデルの学習]
図13~図15を参照しながら、推定モデルの学習について説明する。識別部1101によって実行される推定アルゴリズムとしては、たとえば、4本の歯牙からなる隣接歯牙を推定するための推定アルゴリズム、2本の歯牙からなる隣接歯牙を推定するための推定アルゴリズム、および1本の歯牙を推定するための推定アルゴリズムがある。
[Learning of estimation model]
The learning of the estimation model will be described with reference to FIGS. 13 to 15. FIG. The estimation algorithms executed by the identification unit 1101 include, for example, an estimation algorithm for estimating adjacent teeth consisting of four teeth, an estimation algorithm for estimating adjacent teeth consisting of two teeth, and an estimation algorithm for estimating adjacent teeth consisting of two teeth. There are estimation algorithms for estimating teeth.

4本の歯牙からなる隣接歯牙を推定するための推定アルゴリズムは、たとえば、下顎の場合は、左下4番~7番の隣接歯牙、左下3番~6番の隣接歯牙、左下2番~5番の隣接歯牙、左下1番~4番の隣接歯牙、右下1番と左下1番~3番の隣接歯牙、右下1番および2番と左下1番および2番の隣接歯牙、右下1番~3番と左下1番の隣接歯牙、右下1番~4番の隣接歯牙、右下2番~5番の隣接歯牙、右下3番~6番の隣接歯牙、右下4番~7番の隣接歯牙といった4本の歯牙からなる隣接歯牙を推定するための全てのパターンの推定アルゴリズムを含む。さらに、4本の歯牙からなる隣接歯牙を推定するための推定アルゴリズムは、上顎の場合も同様に、全てのパターンの推定アルゴリズムを含む。 The estimation algorithm for estimating adjacent teeth consisting of four teeth is, for example, in the case of the lower jaw, the 4th to 7th adjacent teeth on the lower left, the 3rd to 6th adjacent teeth on the lower left, and the 2nd to 5th lower left. lower left 1-4 adjacent teeth, lower right 1 and lower left 1-3 adjacent teeth, lower right 1 and 2 and lower left 1 and 2 adjacent teeth, lower right 1 No. 3 to No. 3 and lower left adjacent teeth, lower right No. 1 to 4 adjacent teeth, lower right No. 2 to 5 adjacent teeth, lower right No. 3 to 6 adjacent teeth, lower right No. 4 and up It contains all pattern estimation algorithms for estimating four-tooth adjacent teeth such as the number 7 adjacent tooth. Furthermore, the estimation algorithm for estimating adjacent teeth consisting of four teeth similarly includes estimation algorithms for all patterns in the case of the upper jaw.

2本の歯牙からなる隣接歯牙を推定するための推定アルゴリズムは、たとえば、左下4番~7番の隣接歯牙の場合は、左下4番および5番の隣接歯牙、左下5番および6番の隣接歯牙、左下6番および7番の隣接歯牙といった2本の歯牙からなる隣接歯牙を推定するための全てのパターンの推定アルゴリズムを含む。さらに、2本の歯牙からなる隣接歯牙を推定するための推定アルゴリズムは、左下3番~6番の隣接歯牙、左下2番~5番の隣接歯牙、左下1番~4番の隣接歯牙、右下1番と左下1番~3番の隣接歯牙、右下1番および2番と左下1番および2番の隣接歯牙、右下1番~3番と左下1番の隣接歯牙、右下1番~4番の隣接歯牙、右下2番~5番の隣接歯牙、右下3番~6番の隣接歯牙、右下4番~7番の隣接歯牙、上顎の場合も同様に、全てのパターンの推定アルゴリズムを含む。 The estimation algorithm for estimating adjacent teeth consisting of two teeth is, for example, the lower left 4th to 7th adjacent teeth, the lower left 4th and 5th adjacent teeth, the lower left 5th and 6th adjacent teeth Includes all pattern estimation algorithms for estimating adjacent teeth consisting of two teeth, such as teeth, lower left 6th and 7th adjacent teeth. Furthermore, the estimation algorithm for estimating the adjacent teeth consisting of two teeth is the lower left 3rd to 6th adjacent teeth, the lower left 2nd to 5th adjacent teeth, the lower left 1st to 4th adjacent teeth, the right Lower 1st and lower left 1st to 3rd adjacent teeth, lower right 1st and 2nd and lower left 1st and 2nd adjacent teeth, lower right 1st to 3rd and lower left 1st adjacent teeth, lower right 1 No. 4 to No. 4 adjacent teeth, lower right No. 2 to No. 5 adjacent teeth, lower right No. 3 to No. 6 adjacent teeth, lower right No. 4 to No. 7 adjacent teeth, and in the case of the upper jaw, all Contains pattern estimation algorithms.

1本の歯牙を推定するための推定アルゴリズムは、たとえば、左下6番および7番の隣接歯牙の場合は、左下6番および7番の各歯牙といった1本の歯牙を推定するための全てのパターンの推定アルゴリズムを含む。さらに、1本の歯牙を推定するための推定アルゴリズムは、左下5番および6番の隣接歯牙、左下4番および5番の隣接歯牙、左下3番および4番の隣接歯牙、左下2番および3番の隣接歯牙、左下1番および2番の隣接歯牙、右下1番および左下1番の隣接歯牙、右下1番および右下2番の隣接歯牙、右下2番および右下3番の隣接歯牙、右下3番および右下4番の隣接歯牙、右下4番および5番の隣接歯牙、右下5番および6番の隣接歯牙、右下6番および7番の隣接歯牙、上顎の場合も同様に、全てのパターンの推定アルゴリズムを含む。 The estimation algorithm for estimating one tooth is, for example, in the case of the lower left 6th and 7th adjacent teeth, all the patterns for estimating one tooth, such as each of the lower left 6th and 7th teeth. contains an estimation algorithm for Further, the estimation algorithm for estimating a single tooth is: lower left 5th and 6th adjacent teeth, lower left 4th and 5th adjacent teeth, lower left 3rd and 4th adjacent teeth, lower left 2nd and 3rd adjacent teeth, 1st and 2nd lower left adjacent teeth, 1st lower left and 1st lower left adjacent teeth, 1st lower right and 2nd lower right adjacent teeth, 2nd lower right and 3rd lower right adjacent teeth Adjacent teeth, lower right 3rd and lower right 4th neighboring teeth, lower right 4th and 5th neighboring teeth, lower right 5th and 6th neighboring teeth, lower right 6th and 7th neighboring teeth, upper jaw also includes all pattern estimation algorithms.

識別部1101は、まず、三次元スキャナ200によって所定周期(数msecごと)でスキャンされた3次元データに基づいて、4本の歯牙からなる隣接歯牙を推定するための推定アルゴリズムを実行する。具体的には、三次元スキャナ200によって1本の歯牙のみスキャンされた場合、識別部1101は、未だ識別のためのデータが揃っていないために、隣接歯牙を推定するための推定アルゴリズムを実行せず、識別結果を出力しない、または、識別結果を出力できない旨の情報を出力する。三次元スキャナ200によるスキャンが進み、やがて4本以上の歯牙がスキャンされた場合、または、5本の歯牙の80%程度がスキャンされた場合、あるいは、4本以上の歯牙分のデータ量を取得したと推定できる所定の累積データ量が入力された場合、識別部1101は、上述したような4本の歯牙からなる隣接歯牙を推定するための推定アルゴリズムを実行し、識別結果を出力する。その後、識別部1101は、4本の歯牙からなる隣接歯牙を推定するための推定アルゴリズムの実行によって得られた識別結果に基づき、上述したような2本の歯牙からなる隣接歯牙を推定するための推定アルゴリズムを実行し、識別結果を出力する。その後、識別部1101は、2本の歯牙からなる隣接歯牙を推定するための推定アルゴリズムの実行によって得られた識別結果に基づき、上述したような1本の歯牙を推定するための推定アルゴリズムを実行し、識別結果を出力する。 The identification unit 1101 first executes an estimation algorithm for estimating adjacent teeth consisting of four teeth based on three-dimensional data scanned by the three-dimensional scanner 200 at predetermined intervals (every several milliseconds). Specifically, when only one tooth is scanned by the three-dimensional scanner 200, the identification unit 1101 does not have all the data for identification yet, so the identification unit 1101 executes an estimation algorithm for estimating adjacent teeth. Instead, it does not output the identification result, or outputs information indicating that the identification result cannot be output. Scanning by the three-dimensional scanner 200 progresses, and when 4 or more teeth are scanned eventually, or when about 80% of 5 teeth are scanned, or when 4 or more teeth are scanned, the amount of data is acquired. When a predetermined amount of accumulated data that can be estimated to have been obtained is input, the identification unit 1101 executes the estimation algorithm for estimating adjacent teeth consisting of four teeth as described above, and outputs identification results. After that, the identification unit 1101 performs an estimation algorithm for estimating adjacent teeth consisting of two teeth as described above, based on the identification result obtained by executing the estimation algorithm for estimating adjacent teeth consisting of four teeth. Run the estimation algorithm and output the identification result. After that, the identification unit 1101 executes the above-described estimation algorithm for estimating one tooth based on the identification result obtained by executing the estimation algorithm for estimating adjacent teeth consisting of two teeth. and output the identification result.

図13は、本実施の形態に係る推定モデル114のうちの1段目の推定モデル1140aの学習を説明するための模式図である。図13に示すように、識別部1130aは、学習用データセット116に含まれる学習用データのうち、3番~7番の隣接歯牙および歯肉を構成する複数の点の三次元データが入力されると、当該三次元データに基づき、学習処理によって推定モデル1140aを学習する。 FIG. 13 is a schematic diagram for explaining learning of first-stage estimation model 1140a of estimation models 114 according to the present embodiment. As shown in FIG. 13, the identification unit 1130a receives the three-dimensional data of a plurality of points forming adjacent teeth and gingiva of Nos. 3 to 7 among the learning data included in the learning data set 116. Then, the estimation model 1140a is learned by learning processing based on the three-dimensional data.

具体的には、識別部1130aは、3番~7番の隣接歯牙および歯肉を構成する複数の点の三次元データが入力されると、当該三次元データに対してノイズ除去などの前処理を行う。次に、識別部1130aは、4本の歯牙からなる隣接歯牙を推定するための推定アルゴリズムを実行することで、3番~7番の隣接歯牙のうち、4本の隣接歯牙(たとえば、4番~7番の隣接歯牙、3番~6番の隣接歯牙)の特徴を抽出する。次に、識別部1130aは、識別処理によって、特徴が抽出された4本の隣接歯牙を識別する。次に、識別部1130aは、識別処理によって得られた識別結果(たとえば、推定された色情報)と、学習用データに含まれる正解データである色情報(たとえば、4番~7番の隣接歯牙に対応する色a、3番~6番の隣接歯牙に対応する色b)とが一致するか否かを判定し、その判定結果に基づき推定モデル1140aに含まれるパラメータを調整する。 Specifically, when the three-dimensional data of a plurality of points forming adjacent teeth and gums numbered 3 to 7 is input, the identification unit 1130a performs preprocessing such as noise removal on the three-dimensional data. conduct. Next, the identification unit 1130a executes an estimation algorithm for estimating adjacent teeth consisting of four teeth, thereby determining four adjacent teeth (for example, number 4) among the adjacent teeth numbered 3 to 7. to 7 adjacent teeth, 3 to 6 adjacent teeth) are extracted. Next, the identification unit 1130a identifies the four adjacent teeth whose features have been extracted by identification processing. Next, the identification unit 1130a identifies the identification result (eg, estimated color information) obtained by the identification processing, and the color information (eg, adjacent teeth Nos. 4 to 7) which is correct data included in the learning data. and color b) corresponding to adjacent teeth Nos. 3 to 6 are matched, and parameters included in estimation model 1140a are adjusted based on the result of the determination.

なお、識別部1130aは、3番~7番以外の5本の歯牙からなる隣接歯牙(たとえば、2番~6番の隣接歯牙や1番~5番の隣接歯牙)を構成する複数の点の三次元データが入力された場合も、上記と同様の学習処理を実行することで、推定モデル1140aに含まれるパラメータを調整する。 Note that the identification unit 1130a identifies a plurality of points that constitute five adjacent teeth other than the 3rd to 7th teeth (for example, the 2nd to 6th adjacent teeth and the 1st to 5th adjacent teeth). Even when three-dimensional data is input, the parameters included in estimation model 1140a are adjusted by executing the same learning process as described above.

図14に示すように、識別部1130bは、学習用データセット116に含まれる学習用データのうち、4番~7番の隣接歯牙を構成する複数の点の三次元データが入力されると、当該三次元データに基づき、学習処理によって推定モデル1140bを学習する。 As shown in FIG. 14, the identification unit 1130b receives three-dimensional data of a plurality of points forming adjacent teeth Nos. 4 to 7 among the learning data included in the learning data set 116. Based on the three-dimensional data, the estimation model 1140b is learned by learning processing.

識別部1130bは、4番~7番の隣接歯牙を構成する複数の点の三次元データが入力されると、当該三次元データに対してノイズ除去などの前処理を行う。次に、識別部1130bは、2本の歯牙からなる隣接歯牙を推定するための推定アルゴリズムを実行することで、4番~7番の隣接歯牙のうち、2本の隣接歯牙(たとえば、6番および7番の隣接歯牙、5番および6番の隣接歯牙、4番および5番の隣接歯牙)の特徴を抽出する。次に、識別部1130bは、識別処理によって、特徴が抽出された2本の隣接歯牙を識別する。次に、識別部1130bは、識別処理によって得られた識別結果(たとえば、推定された色情報)と、学習用データに含まれる正解データである色情報(たとえば、6番および7番の隣接歯牙に対応する色c、5番および6番の隣接歯牙に対応する色d、4番および5番の隣接歯牙に対応する色e)とが一致するか否かを判定し、その判定結果に基づき推定モデル1140bに含まれるパラメータを調整する。 When the three-dimensional data of a plurality of points forming adjacent teeth No. 4 to No. 7 are input, the identification unit 1130b performs preprocessing such as noise removal on the three-dimensional data. Next, the identification unit 1130b executes an estimation algorithm for estimating adjacent teeth consisting of two teeth, thereby determining two adjacent teeth (for example, number 6) among the number 4 to number 7 adjacent teeth. and No. 7 adjacent teeth, No. 5 and No. 6 adjacent teeth, No. 4 and No. 5 adjacent teeth). Next, the identification unit 1130b identifies two adjacent teeth from which features have been extracted by identification processing. Next, the identification unit 1130b generates the identification result obtained by the identification process (eg, estimated color information) and the color information (eg, adjacent teeth No. 6 and No. 7) which is correct data included in the learning data. color c corresponding to , color d corresponding to the 5th and 6th adjacent teeth, and color e) corresponding to the 4th and 5th adjacent teeth match, and based on the determination result Adjust parameters included in estimation model 1140b.

なお、識別部1130bは、4番~7番以外の4本の歯牙からなる隣接歯牙(たとえば、3番~6番の隣接歯牙)を構成する複数の点の三次元データが入力された場合も、上記と同様の学習処理を実行することで、推定モデル1140bに含まれるパラメータを調整する。 Note that the identification unit 1130b can also receive three-dimensional data of a plurality of points that form four adjacent teeth other than the 4th to 7th teeth (for example, the 3rd to 6th adjacent teeth). , the parameters included in the estimation model 1140b are adjusted by executing the same learning process as described above.

図15に示すように、識別部1130cは、学習用データセット116に含まれる学習用データのうち、6番および7番の隣接歯牙を構成する複数の点の三次元データが入力されると、当該三次元データに基づき、学習処理によって推定モデル1140cを学習する。 As shown in FIG. 15, the identification unit 1130c receives three-dimensional data of a plurality of points forming adjacent teeth Nos. 6 and 7 among the learning data included in the learning data set 116. Based on the three-dimensional data, the estimation model 1140c is learned by learning processing.

識別部1130cは、6番および7番の隣接歯牙を構成する複数の点の三次元データが入力されると、当該三次元データに対してノイズ除去などの前処理を行う。次に、識別部1130cは、1本の歯牙を推定するための推定アルゴリズムを実行することで、6番および7番の隣接歯牙のうち、1本の歯牙(たとえば、7番の歯牙、6番の歯牙)の特徴を抽出する。次に、識別部1130cは、識別処理によって、特徴が抽出された1本の歯牙の種類を識別する。次に、識別部1130cは、識別処理によって得られた識別結果(たとえば、推定された色情報)と、学習用データに含まれる正解データである色情報(たとえば、7番の歯牙に対応する色g、6番の歯牙に対応する色h)とが一致するか否かを判定し、その判定結果に基づき推定モデル1140cに含まれるパラメータを調整する。 When the 3D data of a plurality of points forming the 6th and 7th adjacent teeth are input, the identification unit 1130c performs preprocessing such as noise removal on the 3D data. Next, the identifying unit 1130c executes an estimation algorithm for estimating one tooth, thereby determining one tooth (for example, tooth 7, tooth 6) among adjacent teeth numbered 6 and 7. teeth). Next, the identification unit 1130c identifies the type of one tooth from which the features have been extracted by identification processing. Next, the identification unit 1130c identifies the identification result (eg, estimated color information) obtained by the identification processing, and the color information (eg, the color corresponding to tooth number 7) that is correct data included in the learning data. It is determined whether or not g matches the color h) corresponding to tooth number 6, and the parameters included in the estimation model 1140c are adjusted based on the determination result.

なお、識別部1130cは、6番および7番以外の2本の歯牙からなる隣接歯牙(たとえば、5番および6番の隣接歯牙、4番および5番の隣接歯牙)を構成する複数の点の三次元データが入力された場合も、上記と同様の学習処理を実行することで、推定モデル1140cに含まれるパラメータを調整する。 Note that the identification unit 1130c identifies a plurality of points that constitute two adjacent teeth other than the 6th and 7th teeth (for example, the 5th and 6th adjacent teeth, the 4th and 5th adjacent teeth). Even when three-dimensional data is input, the parameters included in the estimation model 1140c are adjusted by executing the same learning process as described above.

このようにして、第1識別部1131(本実施形態では識別部1130a,1130b)による第1推定モデル1141(本実施形態では推定モデル1140a,1140b)の学習、および第2識別部1132(本実施形態では識別部1130c)による第2推定モデル1142(本実施形態では推定モデル1140c)の学習が行われる。 In this way, the learning of the first estimation model 1141 (estimation models 1140a and 1140b in this embodiment) by the first identification unit 1131 (identification units 1130a and 1130b in this embodiment) and the second identification unit 1132 (this embodiment In the embodiment, learning of the second estimation model 1142 (estimation model 1140c in this embodiment) is performed by the identification unit 1130c).

なお、上述した例では、「第1識別部」として識別部1130aおよび識別部1130bを例示したが、識別装置100は、識別部1130aを有しなくてもよい。たとえば、識別装置100は、「第1識別部」として入力部1102に接続された識別部1130bを有し、「第2識別部」として識別部1130bに接続された識別部1130cを有していてもよい。この場合、識別部1130bに入力される三次元データに対応する4番~7番の隣接歯牙および3番~6番の隣接歯牙は、「第1隣接歯牙」に対応する。また、識別部1130cに入力される三次元データに対応する3番および4番の隣接歯牙、4番および5番の隣接歯牙、4番および6番の隣接歯牙、6番および7番の隣接歯牙は、「第2隣接歯牙」に対応する。 In the above example, the identification unit 1130a and the identification unit 1130b are illustrated as the "first identification unit", but the identification device 100 may not have the identification unit 1130a. For example, the identification device 100 has an identification unit 1130b connected to the input unit 1102 as a "first identification unit" and an identification unit 1130c connected to the identification unit 1130b as a "second identification unit". good too. In this case, the 4th to 7th adjacent teeth and the 3rd to 6th adjacent teeth corresponding to the three-dimensional data input to the identification unit 1130b correspond to the "first adjacent tooth". In addition, the 3rd and 4th adjacent teeth, the 4th and 5th adjacent teeth, the 4th and 6th adjacent teeth, the 6th and 7th adjacent teeth corresponding to the three-dimensional data input to the identification unit 1130c corresponds to the "second adjacent tooth".

[識別装置の学習処理]
図16を参照しながら、識別装置100が実行する学習処理について説明する。図16は、本実施の形態に係る識別装置100が実行する学習処理の一例を説明するためのフローチャートである。図16に示す各ステップは、識別装置100の演算装置130がOS127および学習用プログラム121を実行することで実現される。なお、図16に示す学習処理は、複数の推定モデル1140a,1140b,1140cの各々に対して行われる。
[Learning processing of identification device]
A learning process executed by the identification device 100 will be described with reference to FIG. 16 . FIG. 16 is a flowchart for explaining an example of the learning process executed by the identification device 100 according to this embodiment. Each step shown in FIG. 16 is realized by executing the OS 127 and the learning program 121 by the arithmetic device 130 of the identification device 100 . Note that the learning process shown in FIG. 16 is performed for each of the plurality of estimation models 1140a, 1140b, and 1140c.

図16に示すように、識別装置100は、学習用データセット116の中から、学習に用いる学習用データを選択する(S1)。具体的には、識別装置100は、図12に示す学習用データセット群に含まれる学習用データセット116の中から、一または複数の学習用データを選択する。なお、識別装置100は、学習用データを自動で選択するものに限らず、ユーザ1が選択した学習用データを学習処理に用いてもよい。 As shown in FIG. 16, the identification device 100 selects learning data to be used for learning from the learning data set 116 (S1). Specifically, the identification device 100 selects one or a plurality of learning data from the learning data sets 116 included in the learning data set group shown in FIG. 12 . Note that the identification device 100 is not limited to automatically selecting learning data, and may use learning data selected by the user 1 for learning processing.

識別装置100は、選択した学習用データに含まれる三次元データ、および当該学習用データを生成する際にスキャン対象となった対象者2のプロファイルデータを推定モデル114に入力する(S2)。このとき、識別装置100には、三次元データにラベリングされた正解データは入力されない。識別装置100は、三次元データに対応する1つの歯牙の特徴または複数の歯牙を含む隣接歯牙の特徴に基づき、推定モデル114を用いて当該1つの歯牙または隣接歯牙を識別する識別処理を実行する(S3)。識別処理において、識別装置100は、三次元データに加えてプロファイルデータに基づき、推定モデル114を用いて1つの歯牙または隣接歯牙を識別する。 The identification device 100 inputs the three-dimensional data included in the selected learning data and the profile data of the subject 2 who was scanned when the learning data was generated to the estimation model 114 (S2). At this time, the correct answer data labeled with the three-dimensional data is not input to the identification device 100 . The identification device 100 performs identification processing for identifying one tooth or adjacent teeth using the estimation model 114 based on the characteristics of one tooth or adjacent teeth including a plurality of teeth corresponding to the three-dimensional data. (S3). In the identification process, identification device 100 identifies a tooth or adjacent teeth using estimation model 114 based on three-dimensional data as well as profile data.

識別装置100は、識別処理による識別結果と、学習処理に用いた学習用データに対応する正解データとの誤差に基づき、推定モデル114のパラメータ1144を更新する(S4)。 The identification device 100 updates the parameters 1144 of the estimation model 114 based on the error between the identification result of the identification process and the correct data corresponding to the learning data used in the learning process (S4).

たとえば、識別装置100は、特定の1つの歯牙を構成する複数の点の位置情報に基づき識別した結果、当該特定の1つの歯牙に対応する色情報を推定する。そして、識別装置100は、学習用データに含まれる当該特定の1つの歯牙に対応する色情報(正解データ)と、自身が推定した色情報とを比較し、一致すれば推定モデル114のパラメータを維持する一方で、不正解であれば両者が一致するように推定モデル114のパラメータを更新する。あるいは、識別装置100は、特定の複数の歯牙を含む隣接歯牙を構成する複数の点の位置情報に基づき識別した結果、当該特定の隣接歯牙に対応する色情報を推定する。そして、識別装置100は、学習用データに含まれる当該特定の隣接歯牙に対応する色情報(正解データ)と、自身が推定した色情報とを比較し、一致すれば推定モデル114のパラメータを維持する一方で、不正解であれば両者が一致するように推定モデル114のパラメータを更新する。 For example, the identification device 100 estimates color information corresponding to one specific tooth as a result of identification based on the position information of a plurality of points forming one specific tooth. Then, the identification device 100 compares the color information (correct data) corresponding to the specific tooth included in the learning data with the color information estimated by itself, and if they match, the parameters of the estimation model 114 are changed. On the other hand, if the answer is incorrect, the parameters of the estimation model 114 are updated so that both match. Alternatively, the identification device 100 estimates color information corresponding to the specific adjacent tooth as a result of identification based on position information of a plurality of points forming adjacent teeth including the specific teeth. Then, the identification device 100 compares the color information (correct data) corresponding to the specific adjacent tooth included in the learning data with the color information estimated by itself, and if they match, the parameters of the estimation model 114 are maintained. On the other hand, if the answer is incorrect, the parameters of the estimation model 114 are updated so that both match.

なお、識別装置100は、特定の歯牙の位置情報に基づき識別した結果、当該特定の歯牙に対応する色情報を推定し、色分類データ118に基づき当該色情報に対応する歯牙の種類や歯牙の番号(正解データ)を特定してもよい。識別装置100は、学習用データに含まれる当該特定の歯牙に対応する色情報に割り当てられた歯牙の種類や歯牙の番号(正解データ)と、自身が推定した歯牙の種類や歯牙の番号とを比較し、一致すれば推定モデル114のパラメータを維持する一方で、不正解であれば両者が一致するように推定モデル114のパラメータを更新してもよい。 Note that the identification device 100 estimates the color information corresponding to the specific tooth as a result of identification based on the position information of the specific tooth, and based on the color classification data 118, the type of tooth and the type of tooth corresponding to the color information. A number (correct answer data) may be specified. The identification device 100 identifies the tooth type and tooth number (correct data) assigned to the color information corresponding to the specific tooth included in the learning data, and the tooth type and tooth number estimated by itself. The parameters of the estimation model 114 may be maintained if they are compared, and if they match, the parameters of the estimation model 114 may be updated so that they match if they are incorrect.

次に、識別装置100は、全ての学習用データに基づき学習したか否かを判定する(S5)。識別装置100は、全ての学習用データに基づき学習していない場合(S5でNO)、S1の処理に戻る。 Next, the identification device 100 determines whether or not it has learned based on all the learning data (S5). If the identification device 100 has not learned based on all the learning data (NO in S5), the process returns to S1.

一方、識別装置100は、全ての学習用データに基づき学習した場合(S5でYES)、学習済みの推定モデル114を学習済モデルとして記憶し(S6)、本処理を終了する。 On the other hand, if the identification device 100 has learned based on all the learning data (YES in S5), the identification device 100 stores the learned estimation model 114 as a learned model (S6), and terminates this process.

このように、識別装置100は、学習用データに含まれる三次元データに関連付けられた1つの歯牙の種類に対応する歯牙情報(色情報、歯牙の名称、または歯牙の番号など)、および複数の歯牙を含む隣接歯牙に対応する歯牙情報(色情報、歯牙の名称、または歯牙の番号など)を正解データとして、識別処理による当該三次元データを用いた歯牙の識別結果に基づき、推定モデル114を学習することで、学習済モデルを生成することができる。 In this way, the identification device 100 provides tooth information (color information, tooth name, tooth number, etc.) corresponding to one tooth type associated with the three-dimensional data included in the learning data, and a plurality of Using tooth information (color information, tooth name, tooth number, etc.) corresponding to adjacent teeth including teeth as correct data, the estimation model 114 is generated based on the results of tooth identification using the three-dimensional data obtained by identification processing. By learning, a trained model can be generated.

さらに、識別装置100は、学習処理において、学習用データに加えてプロファイルデータを考慮して推定モデル114を学習するため、対象者2のプロファイルを考慮した学習済モデルを生成することができる。なお、識別装置100は、プロファイルデータを用いることなく、各推定モデル114(1140a,1140b,1140c)に対して学習処理を実行してもよい。 Furthermore, since the identification device 100 learns the estimation model 114 in consideration of profile data in addition to learning data in the learning process, it is possible to generate a trained model considering the profile of the subject 2 . Note that the identification device 100 may perform learning processing on each estimation model 114 (1140a, 1140b, 1140c) without using profile data.

[サーバ装置の学習処理]
図17を参照しながら、サーバ装置500が実行する学習処理について説明する。図17は、本実施の形態に係るサーバ装置500が実行する学習処理の一例を説明するためのフローチャートである。図17に示す各ステップは、サーバ装置500の演算装置530がOS527および学習用プログラム521を実行することで実現される。なお、図17に示す学習処理は、複数の推定モデルの各々に対して行われる。
[Learning processing of the server device]
A learning process executed by the server device 500 will be described with reference to FIG. 17 . FIG. 17 is a flowchart for explaining an example of learning processing executed by server device 500 according to the present embodiment. Each step shown in FIG. 17 is implemented by the arithmetic device 530 of the server device 500 executing the OS 527 and the learning program 521 . Note that the learning process shown in FIG. 17 is performed for each of a plurality of estimation models.

図17に示すように、サーバ装置500は、学習用データセットの中から、学習に用いる学習用データを選択する(S501)。ここで、学習用データは、サーバ装置500によって蓄積して記憶されたビッグデータを利用して生成されたものであってもよい。たとえば、サーバ装置500は、各ローカルA~Cの識別装置100および歯科技工所から取得したスキャン情報に含まれる三次元データを利用して学習用データを生成しておき、生成した当該学習用データを用いて学習処理を実行してもよい。なお、サーバ装置500は、学習用データを自動で選択するものに限らず、ユーザ1が選択した学習用データを学習処理に用いてもよい。 As shown in FIG. 17, the server device 500 selects learning data to be used for learning from the learning data set (S501). Here, the learning data may be generated using big data accumulated and stored by the server device 500 . For example, the server device 500 generates learning data in advance using the three-dimensional data included in the scan information acquired from the identification devices 100 of the local A to C and the dental laboratory, and the generated learning data may be used to perform the learning process. Note that the server device 500 is not limited to automatically selecting learning data, and may use learning data selected by the user 1 for learning processing.

サーバ装置500は、選択した学習用データに含まれる三次元データ、および当該学習用データを生成する際にスキャン対象となった対象者2のプロファイルデータを推定モデル514に入力する(S502)。このとき、サーバ装置500には、三次元データにラベリングされた正解データは入力されない。サーバ装置500は、三次元データに対応する1つの歯牙の特徴または複数の歯牙を含む隣接歯牙の特徴に基づき、推定モデル514を用いて当該1つの歯牙または隣接歯牙を識別する識別処理を実行する(S503)。識別処理において、サーバ装置500は、三次元データに加えてプロファイルデータに基づき、推定モデル514を用いて1つの歯牙または隣接歯牙を識別する。 The server device 500 inputs the three-dimensional data included in the selected learning data and the profile data of the subject 2 who was scanned when the learning data was generated to the estimation model 514 (S502). At this time, the correct answer data labeled with the three-dimensional data is not input to the server device 500 . The server device 500 performs identification processing to identify one tooth or adjacent teeth using the estimation model 514 based on the features of one tooth or adjacent teeth including a plurality of teeth corresponding to the three-dimensional data. (S503). In the identification process, server device 500 identifies a tooth or adjacent teeth using estimation model 514 based on profile data in addition to three-dimensional data.

サーバ装置500は、識別処理による識別結果と、学習に用いた学習用データに対応する正解データとの誤差に基づき、推定モデル514のパラメータを更新する(S504)。 The server device 500 updates the parameters of the estimation model 514 based on the error between the identification result of the identification processing and the correct data corresponding to the learning data used for learning (S504).

たとえば、サーバ装置500は、特定の歯牙の位置情報に基づき識別した結果、当該特定の歯牙に対応する色情報を推定する。サーバ装置500は、学習用データセットに含まれる当該特定の歯牙に対応する色情報(正解データ)と、自身が推定した色情報とを比較し、一致すれば推定モデル514のパラメータを維持する一方で、不正解であれば両者が一致するように推定モデル514のパラメータを更新する。 For example, server device 500 estimates color information corresponding to a specific tooth as a result of identification based on the position information of the specific tooth. Server device 500 compares the color information (correct data) corresponding to the specific tooth included in the learning data set with the color information estimated by itself, and if they match, maintains the parameters of estimation model 514. If the answer is incorrect, the parameters of the estimation model 514 are updated so that both match.

あるいは、サーバ装置500は、特定の1つの歯牙を構成する複数の点の位置情報に基づき識別した結果、当該特定の1つの歯牙に対応する色情報を推定する。そして、サーバ装置500は、学習用データに含まれる当該特定の1つの歯牙に対応する色情報(正解データ)と、自身が推定した色情報とを比較し、一致すれば推定モデル514のパラメータを維持する一方で、不正解であれば両者が一致するように推定モデル514のパラメータを更新する。あるいは、サーバ装置500は、特定の複数の歯牙を含む隣接歯牙を構成する複数の点の位置情報に基づき識別した結果、当該特定の隣接歯牙に対応する色情報を推定する。そして、サーバ装置500は、学習用データに含まれる当該特定の隣接歯牙に対応する色情報(正解データ)と、自身が推定した色情報とを比較し、一致すれば推定モデル514のパラメータを維持する一方で、不正解であれば両者が一致するように推定モデル514のパラメータを更新する。 Alternatively, server device 500 estimates color information corresponding to one specific tooth as a result of identification based on the position information of a plurality of points forming one specific tooth. Then, server device 500 compares the color information (correct data) corresponding to the specific one tooth included in the learning data with the color information estimated by itself, and if they match, the parameters of estimation model 514 are changed. On the other hand, if the answer is incorrect, the parameters of the estimation model 514 are updated so that both match. Alternatively, the server device 500 estimates color information corresponding to the specific adjacent tooth as a result of identification based on position information of a plurality of points forming adjacent teeth including the specific teeth. Then, the server device 500 compares the color information (correct data) corresponding to the specific adjacent tooth included in the learning data with the color information estimated by itself, and maintains the parameters of the estimation model 514 if they match. On the other hand, if the answer is incorrect, the parameters of the estimation model 514 are updated so that both match.

なお、サーバ装置500は、特定の歯牙の位置情報に基づき識別した結果、当該特定の歯牙に対応する色情報を推定し、色分類データ518に基づき当該色情報に対応する歯牙の種類や歯牙の番号(正解データ)を特定してもよい。サーバ装置500は、学習用データに含まれる当該特定の歯牙に対応する色情報に割り当てられた歯牙の種類や歯牙の番号(正解データ)と、自身が推定した歯牙の種類や歯牙の番号とを比較し、一致すれば推定モデル514のパラメータを維持する一方で、不正解であれば両者が一致するように推定モデル514のパラメータを更新してもよい。 Server device 500 estimates the color information corresponding to the specific tooth as a result of identification based on the position information of the specific tooth, and based on the color classification data 518, the type of tooth and the type of tooth corresponding to the color information. A number (correct answer data) may be specified. The server device 500 stores the tooth type and tooth number (correct data) assigned to the color information corresponding to the specific tooth included in the learning data, and the tooth type and tooth number estimated by itself. The parameters of the estimation model 514 may be maintained if the comparison is made and if they match, while the parameters of the estimation model 514 may be updated so that the two match if the answer is incorrect.

次に、サーバ装置500は、全ての学習用データに基づき学習したか否かを判定する(S505)。サーバ装置500は、全ての学習用データに基づき学習していない場合(S505でNO)、S501の処理に戻る。 Next, the server apparatus 500 determines whether or not learning has been performed based on all the learning data (S505). If the server apparatus 500 has not learned based on all the learning data (NO in S505), the process returns to S501.

一方、サーバ装置500は、全ての学習用データに基づき学習した場合(S505でYES)、学習済みの推定モデル514を学習済モデルとして記憶する(S506)。その後、サーバ装置500は、生成した学習済モデルを各ローカルの識別装置100に送信し(S507)、本処理を終了する。 On the other hand, if the server device 500 has learned based on all the learning data (YES in S505), the server device 500 stores the learned estimation model 514 as a learned model (S506). After that, the server device 500 transmits the generated learned model to each local identification device 100 (S507), and ends this process.

このように、サーバ装置500は、学習用データに含まれる三次元データに関連付けられた1つの歯牙の種類に対応する歯牙情報(色情報、歯牙の名称、または歯牙の番号など)、および複数の歯牙を含む隣接歯牙に対応する歯牙情報(色情報、歯牙の名称、または歯牙の番号など)を正解データとして、識別処理による当該三次元データを用いた当該歯牙の識別結果に基づき、推定モデル514を学習することで、学習済モデルを生成することができる。 In this way, the server device 500 provides tooth information (color information, tooth name, tooth number, etc.) corresponding to one tooth type associated with the three-dimensional data included in the learning data, and a plurality of Using tooth information (color information, tooth name, tooth number, etc.) corresponding to adjacent teeth including a tooth as correct data, an estimation model 514 is generated based on the identification result of the tooth using the three-dimensional data in the identification process. By learning , a trained model can be generated.

また、サーバ装置500は、学習処理において、学習用データに加えてプロファイルデータを考慮して推定モデル514を学習するため、対象者2のプロファイルを考慮した学習済モデルを生成することができる。なお、サーバ装置500は、プロファイルデータを用いることなく、各推定モデル514に対して学習処理を実行してもよい。 In addition, in the learning process, the server device 500 learns the estimation model 514 in consideration of the profile data in addition to the learning data. Note that server device 500 may perform learning processing on each estimation model 514 without using profile data.

さらに、サーバ装置500は、学習処理に用いる学習用データとして、各ローカルA~Cの識別装置100および歯科技工所から取得したスキャン情報に含まれる三次元データを利用しているため、識別装置100ごとに実行される学習処理よりも、より多くの学習用データに基づいて学習処理を実行することができ、より精度良く歯牙の種類を識別することができる学習済モデルを生成することができる。 Furthermore, since the server device 500 uses the three-dimensional data included in the scan information acquired from the identification devices 100 of the local A to C and the dental laboratory as learning data used in the learning process, the identification device 100 The learning process can be executed based on a larger amount of learning data than the learning process that is executed each time, and a trained model that can identify the type of tooth with higher accuracy can be generated.

[識別装置のサービス提供処理]
図18を参照しながら、識別装置100が実行するサービス提供処理について説明する。図18は、本実施の形態に係る識別装置100が実行するサービス提供処理の一例を説明するためのフローチャートである。図18に示す各ステップは、識別装置100の演算装置130がOS127および識別用プログラム120を実行することで実現される。
[Service provision processing of identification device]
The service providing process executed by the identification device 100 will be described with reference to FIG. 18 . FIG. 18 is a flowchart for explaining an example of service providing processing executed by the identification device 100 according to this embodiment. Each step shown in FIG. 18 is realized by executing the OS 127 and the identification program 120 by the arithmetic device 130 of the identification device 100 .

図18に示すように、識別装置100は、三次元データが入力されたか否かを判定する(S41)。たとえば、識別装置100は、識別処理を実行するのに十分な量の三次元データが入力されたか否かを判定する。識別装置100は、十分な量の三次元データが入力されていない場合(S41でNO)、本処理を終了する。 As shown in FIG. 18, the identification device 100 determines whether three-dimensional data has been input (S41). For example, the identification device 100 determines whether or not a sufficient amount of three-dimensional data has been input to perform identification processing. If a sufficient amount of three-dimensional data has not been input (NO in S41), the identification device 100 ends this process.

一方、識別装置100は、十分な量の三次元データが入力された場合(S41でYES)、ユーザ1によって対象者2のプロファイルデータが入力されているか否かを判定する(S42)。識別装置100は、プロファイルデータが入力されていない場合(S42でNO)、三次元データを1段目の学習済モデル(たとえば、学習済みの推定モデル1140a)に入力する(S43)。一方、識別装置100は、プロファイルデータが入力されている場合(S42でYES)、三次元データおよびプロファイルデータを1段目の学習済モデルに入力する(S44)。なお、このとき使用する学習済モデルは、図16に示す学習処理で識別装置100によって生成された学習済モデルに限らず、図17に示す学習処理でサーバ装置500によって生成された学習済モデルであってもよい。 On the other hand, when a sufficient amount of three-dimensional data has been input (YES in S41), the identification device 100 determines whether the user 1 has input the profile data of the subject 2 (S42). If profile data has not been input (NO in S42), identification device 100 inputs three-dimensional data to a first-stage trained model (for example, trained estimation model 1140a) (S43). On the other hand, if the profile data has been input (YES in S42), the identification device 100 inputs the three-dimensional data and the profile data to the learned model in the first stage (S44). Note that the trained model used at this time is not limited to the trained model generated by the identification device 100 in the learning process shown in FIG. There may be.

S43およびS44の後、識別装置100は、入力された三次元データに対応する複数の歯牙の特徴に基づき、1段目の学習済モデルを用いた識別処理によって、入力された三次元データに対応する複数の歯牙のうち、一部の複数の歯牙を含む隣接歯牙を識別する(S45)。このとき、S42でプロファイルデータが1段目の学習済モデルに入力されていた場合、識別装置100は、三次元データに加えてプロファイルデータに基づき、学習済モデルを用いて当該歯牙の種類を識別する。この場合、三次元データのみに基づき学習済モデルを用いて歯牙の種類を識別するよりも、より精度良く歯牙の種類を識別することができる。 After S43 and S44, the identification device 100 performs identification processing using the first-stage learned model based on the features of a plurality of teeth corresponding to the input three-dimensional data, and corresponds to the input three-dimensional data. Adjacent teeth including some of the plurality of teeth are identified (S45). At this time, if the profile data has been input to the first learned model in S42, the identification device 100 identifies the type of the tooth using the learned model based on the profile data in addition to the three-dimensional data. do. In this case, the type of tooth can be identified with higher accuracy than when identifying the type of tooth using a trained model based only on three-dimensional data.

次に、識別装置100は、1段目の学習済みモデルによる識別結果を2段目の学習済モデル(たとえば、学習済みの推定モデル1140b)に入力する(S46)。識別装置100は、1段目の学習済モデルによる識別結果に基づき、2段目の学習済モデルを用いた識別処理によって、1段目の学習済みモデルによって識別された複数の歯牙のうち、一部の複数の歯牙を含む隣接歯牙を識別する(S47)。 Next, the identification device 100 inputs the identification result of the first-stage trained model to the second-stage trained model (for example, the trained estimation model 1140b) (S46). Based on the identification result of the first-stage trained model, the identification device 100 performs identification processing using the second-stage trained model to select one of a plurality of teeth identified by the first-stage trained model. Identify adjacent teeth that include multiple teeth of the part (S47).

次に、識別装置100は、2段目の学習済みモデルによる識別結果を3段目の学習済モデル(たとえば、学習済みの推定モデル1140c)に入力する(S48)。識別装置100は、2段目の学習済モデルによる識別結果に基づき、3段目の学習済モデルを用いた識別処理によって、2段目の学習済みモデルによって識別された複数の歯牙のうち、一部の歯牙の種類を識別する(S49)。 Next, the identification device 100 inputs the identification result of the second trained model to the third trained model (for example, the trained estimation model 1140c) (S48). Based on the identification result of the second-stage trained model, the identification device 100 performs identification processing using the third-stage trained model to select one of the plurality of teeth identified by the second-stage trained model. The type of tooth in the part is identified (S49).

その後、識別装置100は、3段目の学習済モデルを用いた識別処理によって得られた識別結果を、ディスプレイ300、スピーカ400、およびサーバ装置500などに出力し(S50)、本処理を終了する。 After that, the identification device 100 outputs the identification result obtained by the identification processing using the learned model in the third stage to the display 300, the speaker 400, the server device 500, etc. (S50), and ends this processing. .

このように、識別装置100は、入力された三次元データに対応する複数の歯牙の特徴に基づき、学習済モデルを用いて当該歯牙の種類を識別するため、ユーザ自身の知見に頼って歯牙の種類を識別するよりも、精度良く歯牙の種類を識別することができる。 In this way, the identification device 100 identifies the type of tooth using a learned model based on the characteristics of a plurality of teeth corresponding to the input three-dimensional data, and therefore relies on the knowledge of the user himself to identify the type of tooth. It is possible to identify the type of tooth with higher accuracy than to identify the type.

また、識別装置100は、多段式になった複数の推定モデル(学習済みモデル)を用いて隣接する歯牙の数を段階的に絞りながら歯牙を識別するため、数多くの歯牙が隣接する隣接歯牙に対応する三次元データに基づき各歯牙の種類を識別するよりも、精度良く歯牙の種類を識別することができる。 In addition, since the identification device 100 identifies teeth while gradually reducing the number of adjacent teeth using a plurality of multistage estimation models (learned models), a large number of teeth can be identified as adjacent adjacent teeth. The type of tooth can be identified with higher accuracy than identifying the type of each tooth based on the corresponding three-dimensional data.

さらに、識別装置100は、識別処理において、入力された三次元データに加えてプロファイルデータを考慮して歯牙の種類を識別するため、より精度良く歯牙の種類を識別することができる。 Furthermore, since the identification device 100 identifies the tooth type in consideration of profile data in addition to the input three-dimensional data in the identification process, it is possible to identify the tooth type with higher accuracy.

[主な開示]
以上のように、本実施の形態では以下のような開示を含む。
[Main Disclosure]
As described above, the present embodiment includes the following disclosures.

識別装置100は、複数の歯牙が隣接する隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力される入力部1102と、入力部1102から入力された三次元データに基づき、隣接歯牙に含まれる歯牙の種類を識別する識別部1101と、識別部1101による識別結果を出力する出力部1103とを備え、識別部1101は、複数の歯牙が隣接する第1隣接歯牙(たとえば、3番~6番の歯牙を含む隣接歯牙、4番~7番の歯牙を含む隣接歯牙)を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データと、第1ニューラルネットワーク1151を含む第1推定モデル1141とに基づき、当該第1隣接歯牙よりも少ない数の複数の歯牙が隣接する第2隣接歯牙(たとえば、6番および7番の隣接歯牙、5番および6番の隣接歯牙、4番および5番の隣接歯牙、3番および4番の隣接歯牙)を識別する第1識別部1131と、第1識別部1131による識別結果と、第2ニューラルネットワーク1152を含む第2推定モデル1142とに基づき、第2隣接歯牙に含まれる歯牙(たとえば、3番~6番の各歯牙、4番~7番の各歯牙)の種類を識別する第2識別部1132とを含む。 The identification device 100 includes an input unit 1102 to which three-dimensional data including three-dimensional position information at each of a plurality of points forming adjacent teeth adjacent to each other is input, and a three-dimensional data input from the input unit 1102. An identification unit 1101 for identifying types of teeth included in adjacent teeth based on data, and an output unit 1103 for outputting the identification result of the identification unit 1101. The identification unit 1101 outputs a first adjacent tooth to which a plurality of teeth are adjacent. Three-dimensional data including three-dimensional positional information at each of a plurality of points constituting teeth (for example, adjacent teeth including teeth Nos. 3 to 6 and adjacent teeth including teeth Nos. 4 to 7); 1 Neural network 1151 and a first estimation model 1141 including a neural network 1151, a second adjacent tooth adjacent to a plurality of teeth less than the first adjacent tooth (e.g., the 6th and 7th adjacent teeth, the 5th and No. 6 adjacent tooth, No. 4 and No. 5 adjacent teeth, No. 3 and No. 4 adjacent teeth), the identification result by the first identification unit 1131, and the second neural network 1152 A second identification unit 1132 that identifies the types of teeth included in the second adjacent teeth (for example, teeth 3 to 6, teeth 4 to 7) based on a second estimation model 1142 including including.

なお、第1識別部1131は、複数の歯牙が隣接する第1隣接歯牙(たとえば、3番~6番の歯牙を含む隣接歯牙、4番~7番の歯牙を含む隣接歯牙)を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データと、第1ニューラルネットワーク1151を含む第1推定モデル1141とに基づき、当該隣接歯牙と同一の数の複数の歯牙が隣接する第2隣接歯牙(たとえば、3番~6番の隣接歯牙、4番~7番の隣接歯牙)を識別するものであってもよい。 In addition, the first identification portion 1131 identifies a plurality of adjacent first adjacent teeth (for example, adjacent teeth including teeth Nos. 3 to 6 and adjacent teeth including teeth Nos. 4 to 7). Based on the three-dimensional data including the three-dimensional positional information at each of the points and the first estimation model 1141 including the first neural network 1151, the same number of teeth as the adjacent teeth are adjacent to the second adjacent tooth It may also identify teeth (eg, adjacent teeth numbered 3-6, adjacent teeth numbered 4-7).

これにより、識別装置100は、多段式の複数の推定モデル114(第1推定モデル1141,第2推定モデル1142、第1学習済モデル,第2学習済モデル)を用いて、隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データに基づき、当該隣接歯牙に含まれる歯牙の種類を識別することができるため、ユーザ自身の知見に頼って歯牙の種類を識別するよりも、精度良く歯牙の種類を識別することができる。さらに、識別装置100は、多段式になった複数の推定モデル114を用いて隣接する歯牙の数を段階的に絞りながら歯牙を識別するため、複数の歯牙が隣接する隣接歯牙に対応する三次元データに基づき各歯牙の種類を一度に識別するよりも、精度良く歯牙の種類を識別することができる。 As a result, the identification device 100 configures adjacent teeth using a plurality of multistage estimation models 114 (first estimation model 1141, second estimation model 1142, first trained model, second trained model). Since the type of tooth included in the adjacent tooth can be identified based on three-dimensional data including three-dimensional positional information for each of a plurality of points, it is possible to identify the type of tooth rather than relying on the user's own knowledge. Also, the type of tooth can be identified with high accuracy. Furthermore, since the identification device 100 identifies teeth while gradually reducing the number of adjacent teeth using a plurality of multi-stage estimation models 114, a plurality of teeth correspond to adjacent teeth in three dimensions. The type of tooth can be identified with higher accuracy than the type of each tooth can be identified at once based on the data.

なお、識別装置の識別部は、第1識別部および第2識別部の2段の識別部であってもよいし、第1識別部および第2識別部以外の識別部を含んだ3段以上の多段式の識別部であってもよい。たとえば、第1識別部は、入力部1102の直後で当該入力部1102に接続された識別部に限らず、入力部1102の直後の他の識別部(たとえば、図8に示す識別部1130a)に接続された識別部(たとえば、図8に示す識別部1130b)を指すものであってもよい。 The identification unit of the identification device may be a two-stage identification unit of the first identification unit and the second identification unit, or may be a three-stage identification unit including identification units other than the first identification unit and the second identification unit. may be a multistage identification unit. For example, the first identification unit is not limited to the identification unit connected to the input unit 1102 immediately after the input unit 1102, and is connected to another identification unit (for example, the identification unit 1130a shown in FIG. 8) immediately after the input unit 1102. It may also refer to a connected identifier (eg, identifier 1130b shown in FIG. 8).

第1識別部1131は、第1隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データと、第1推定モデル1141とに基づき、第2隣接歯牙として複数の第2隣接歯牙(たとえば、6番および7番の隣接歯牙、5番および6番の隣接歯牙、4番および5番の隣接歯牙、3番および4番の隣接歯牙)のそれぞれを識別し、複数の第2隣接歯牙は、互いに重複する歯牙(たとえば、4番~6番の各歯牙)を含み、第2識別部1132は、第1識別部1131による識別結果と、第2推定モデル1142とに基づき、複数の第2隣接歯牙のそれぞれに含まれる重複する歯牙の種類を識別する。 Based on the first estimation model 1141 and the three-dimensional data including the three-dimensional positional information of each of the plurality of points forming the first adjacent tooth, the first identification unit 1131 selects a plurality of second teeth as the second adjacent teeth. Identify each of the adjacent teeth (e.g., 6th and 7th adjacent teeth, 5th and 6th adjacent teeth, 4th and 5th adjacent teeth, 3rd and 4th adjacent teeth); The two adjacent teeth include mutually overlapping teeth (for example, teeth No. 4 to No. 6), and the second identification unit 1132 is based on the identification result of the first identification unit 1131 and the second estimation model 1142, A duplicate tooth type included in each of the plurality of second adjacent teeth is identified.

これにより、識別装置100は、複数の第2隣接歯牙において重複する歯牙(4番~6番の各歯牙)については第2識別部1132を用いて複数回に亘って識別するため、より精度良く歯牙の種類を識別することができる。 As a result, the identification device 100 uses the second identification unit 1132 to identify overlapping teeth (each of Nos. 4 to 6) among the plurality of second adjacent teeth a plurality of times. Tooth type can be identified.

第1推定モデル1141は、第1隣接歯牙(たとえば、4番~7番の隣接歯牙)を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データに対応付けられた第2隣接歯牙(たとえば、4番および5番の隣接歯牙)と、当該三次元データを用いた当該第2隣接歯牙の推定結果とに基づき学習されたものであり、第2推定モデル1142は、第2隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データに対応付けられた当該第2隣接歯牙に含まれる歯牙の種類と、当該三次元データを用いた当該第2隣接歯牙に含まれる歯牙(たとえば、4番および5番の各歯牙)の種類の推定結果とに基づき学習されたものである。 The first estimation model 1141 is a second adjacent tooth associated with three-dimensional data including three-dimensional position information at each of a plurality of points that constitute the first adjacent tooth (for example, adjacent teeth No. 4 to No. 7). The second estimation model 1142 is learned based on the teeth (for example, the 4th and 5th adjacent teeth) and the estimation results of the second adjacent teeth using the three-dimensional data. The type of tooth included in the second adjacent tooth associated with three-dimensional data including three-dimensional position information for each of a plurality of points constituting the tooth, and the second adjacent tooth using the three-dimensional data is learned based on the results of estimating the types of teeth (for example, teeth Nos. 4 and 5) included in .

なお、推定モデル114の学習は、サーバ装置500によって実行される推定モデル514の学習によって実現されるものであってもよい。 Note that the learning of the estimation model 114 may be realized by the learning of the estimation model 514 executed by the server device 500 .

入力部1102から入力された三次元データは、口腔内の歯牙および歯肉を構成する複数の点のそれぞれにおける三次元の位置情報を含む。 The three-dimensional data input from the input unit 1102 includes three-dimensional positional information for each of a plurality of points forming teeth and gums in the oral cavity.

これにより、識別装置100は、口腔内において隣接する複数の歯牙および歯肉に対応する三次元データを、推定モデル114(学習済モデル)に入力することで、当該複数の歯牙のそれぞれの種類を識別することができるため、ユーザ自身の知見に頼って歯牙の種類を1つ1つ識別するよりも、精度良くかつスムーズに歯牙の種類を識別することができる。 As a result, the identification device 100 inputs three-dimensional data corresponding to a plurality of adjacent teeth and gingiva in the oral cavity to the estimation model 114 (learned model), thereby identifying each type of the plurality of teeth. Therefore, the type of tooth can be identified more accurately and smoothly than when the type of tooth is identified one by one by relying on the user's own knowledge.

出力部1103は、色、文字、数字、および記号の少なくともいずれか1つを用いて第2識別部1132による識別結果を出力する。 The output unit 1103 outputs the result of identification by the second identification unit 1132 using at least one of colors, characters, numbers, and symbols.

これにより、推定モデル114(学習済モデル)による識別結果が、色、文字、数字、および記号の少なくともいずれか1つを用いて出力されるため、ユーザ1は、直感的に識別結果を認識することができ、利便性が向上する。 As a result, the identification result by the estimation model 114 (learned model) is output using at least one of colors, letters, numbers, and symbols, so that the user 1 intuitively recognizes the identification result. and improve convenience.

出力部1103は、識別部1101による識別結果をサーバ装置500に出力し、サーバ装置500は、識別部1101による識別結果を蓄積して記憶する。 The output unit 1103 outputs the result of identification by the identification unit 1101 to the server device 500, and the server device 500 accumulates and stores the result of identification by the identification unit 1101. FIG.

これにより、サーバ装置500によって識別結果が蓄積して記憶されることでビッグデータが形成されるため、ユーザ1は、たとえば、このようなビッグデータを用いて学習処理をサーバ装置500に実行させることで、より精度良く歯牙の種類を識別することができる学習済モデルを生成することができる。 As a result, big data is formed by accumulating and storing identification results by server device 500, so user 1 can cause server device 500 to execute learning processing using such big data, for example. , it is possible to generate a trained model that can more accurately identify the type of tooth.

歯牙情報は、三次元データに対応する歯牙の種類に対応付けられた色、文字、数字、および記号のうちの少なくともいずれか1つの情報を含む。 The tooth information includes at least one of colors, letters, numbers, and symbols associated with the type of tooth corresponding to the three-dimensional data.

これにより、識別装置100は、歯牙の種類に対応付けられた色、文字、数字、および記号などに基づいて、より精度良く歯牙の種類を識別することができる学習済モデルを生成することができる。 As a result, the identification device 100 can generate a trained model that can more accurately identify the type of tooth based on the colors, letters, numbers, symbols, etc. associated with the type of tooth. .

図9に示すように、歯牙情報は、三次元データに対応する複数の歯牙のそれぞれの範囲を特定可能に当該三次元データに関連付けられる。 As shown in FIG. 9, the tooth information is associated with the three-dimensional data so that the range of each of the plurality of teeth corresponding to the three-dimensional data can be specified.

これにより、ユーザ1は、歯牙情報によって、複数の歯牙のそれぞれの範囲を特定することができるため、ラベリング時の利便性が向上する。 As a result, the user 1 can specify the range of each of the plurality of teeth based on the tooth information, which improves convenience during labeling.

図9に示すように、歯牙情報は、三次元データに対応する歯牙を構成する複数の点のそれぞれに関連付けられる。 As shown in FIG. 9, tooth information is associated with each of a plurality of points forming a tooth corresponding to three-dimensional data.

これにより、三次元データに対応する歯牙を構成する複数の点のそれぞれに対して歯牙情報が関連付けられるため、ユーザ1は、歯牙に対して細かく歯牙情報を関連付けることができ、ラベリング時の利便性が向上する。 As a result, the tooth information is associated with each of the plurality of points forming the tooth corresponding to the three-dimensional data, so that the user 1 can associate the tooth with the tooth information in detail, which improves convenience during labeling. improves.

推定モデル114は、歯牙情報および識別部1101による識別結果に加えて、歯牙を有する対象者2に関する属性情報に基づき、学習される。 The estimation model 114 is learned based on attribute information about the subject 2 who has teeth, in addition to the tooth information and the identification result by the identification unit 1101 .

これにより、識別装置100は、学習用データに加えて対象者2に関する属性情報に基づいて推定モデル114を学習させることができるため、対象者2の属性情報を考慮した学習済モデルを生成することができる。 As a result, the identification device 100 can make the estimation model 114 learn based on the attribute information about the subject 2 in addition to the learning data, so that the trained model considering the attribute information of the subject 2 can be generated. can be done.

図12に示すように、属性情報は、対象者の年齢、性別、人種、身長、体重、および居住地のうちの少なくともいずれか1つの情報を含む。 As shown in FIG. 12, the attribute information includes information on at least one of subject's age, sex, race, height, weight, and place of residence.

これにより、識別装置100は、学習用データに加えて、対象者の年齢、性別、人種、身長、体重、および居住地のうちの少なくともいずれか1つに基づいて推定モデル114を学習させることができるため、これら対象者2のプロファイルを考慮した学習済モデルを生成することができる。 As a result, the identification device 100 learns the estimation model 114 based on at least one of the subject's age, sex, race, height, weight, and place of residence in addition to the learning data. Therefore, it is possible to generate a trained model considering the profile of the subject 2.

識別システム10は、三次元カメラを用いて、複数の歯牙が隣接する隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データを取得する三次元スキャナ200と、三次元スキャナ200によって取得された三次元データに基づき、隣接歯牙に含まれる歯牙の種類を識別する識別装置100とを備え、識別装置100は、三次元スキャナによって取得された三次元データが入力される入力部1102と、入力部1102から入力された三次元データに基づき、隣接歯牙に含まれる歯牙の種類を識別する識別部1101と、識別部1101による識別結果を出力する出力部1103とを含み、識別部1101は、複数の歯牙が隣接する第1隣接歯牙(たとえば、3番~6番の歯牙を含む隣接歯牙、4番~7番の歯牙を含む隣接歯牙)を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データと、第1ニューラルネットワーク1151を含む第1推定モデル1141とに基づき、当該第1隣接歯牙よりも少ない数の複数の歯牙が隣接する第2隣接歯牙(たとえば、6番および7番の隣接歯牙、5番および6番の隣接歯牙、4番および5番の隣接歯牙、3番および4番の隣接歯牙)を識別する第1識別部1131と、第1識別部1131による識別結果と、第2ニューラルネットワーク1152を含む第2推定モデル1142とに基づき、第2隣接歯牙に含まれる歯牙(たとえば、3番~6番の各歯牙、4番~7番の各歯牙)の種類を識別する第2識別部1132とを有する。 The identification system 10 uses a three-dimensional camera to acquire three-dimensional data including three-dimensional position information at each of a plurality of points forming adjacent teeth adjacent to each other, and a three-dimensional scanner 200. and an identification device 100 for identifying types of teeth included in adjacent teeth based on the three-dimensional data acquired by the scanner 200. The identification device 100 receives input of the three-dimensional data acquired by the three-dimensional scanner. an identification unit 1101 for identifying types of teeth included in adjacent teeth based on three-dimensional data input from the input unit 1102; and an output unit 1103 for outputting identification results from the identification unit 1101. A portion 1101 is at each of a plurality of points constituting a first adjacent tooth (for example, adjacent teeth including teeth Nos. 3 to 6 and adjacent teeth including teeth Nos. 4 to 7) to which a plurality of teeth are adjacent. A second adjacent tooth (for example , No. 6 and No. 7 adjacent teeth, No. 5 and No. 6 adjacent teeth, No. 4 and No. 5 adjacent teeth, No. 3 and No. 4 adjacent teeth); Based on the identification result by the unit 1131 and the second estimation model 1142 including the second neural network 1152, the teeth included in the second adjacent teeth (for example, teeth 3 to 6, teeth 4 to 7 and a second identification section 1132 for identifying the type of teeth.

なお、第1識別部1131は、複数の歯牙が隣接する第1隣接歯牙(たとえば、3番~6番の歯牙を含む隣接歯牙、4番~7番の歯牙を含む隣接歯牙)を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データと、第1ニューラルネットワーク1151を含む第1推定モデル1141とに基づき、当該隣接歯牙と同一の数の複数の歯牙が隣接する第2隣接歯牙(たとえば、3番~6番の隣接歯牙、4番~7番の隣接歯牙)を識別するものであってもよい。 In addition, the first identification portion 1131 identifies a plurality of adjacent first adjacent teeth (for example, adjacent teeth including teeth Nos. 3 to 6 and adjacent teeth including teeth Nos. 4 to 7). Based on the three-dimensional data including the three-dimensional positional information at each of the points and the first estimation model 1141 including the first neural network 1151, the same number of teeth as the adjacent teeth are adjacent to the second adjacent tooth It may also identify teeth (eg, adjacent teeth numbered 3-6, adjacent teeth numbered 4-7).

これにより、識別システム10は、多段式の複数の推定モデル114(第1推定モデル1141,第2推定モデル1142、第1学習済モデル,第2学習済モデル)を備える識別装置100を用いて、隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データに基づき、当該隣接歯牙に含まれる歯牙の種類を識別することができるため、ユーザ自身の知見に頼って歯牙の種類を識別するよりも、精度良く歯牙の種類を識別することができる。さらに、識別装置100は、多段式になった複数の推定モデル114を用いて隣接する歯牙の数を段階的に絞りながら歯牙を識別するため、複数の歯牙が隣接する隣接歯牙に対応する三次元データに基づき各歯牙の種類を一度に識別するよりも、精度良く歯牙の種類を識別することができる。 As a result, the identification system 10 uses the identification device 100 having a plurality of multi-stage estimation models 114 (first estimation model 1141, second estimation model 1142, first trained model, second trained model), Since the type of tooth included in the adjacent tooth can be identified based on the three-dimensional data including the three-dimensional positional information of each of a plurality of points that constitute the adjacent tooth, the user can rely on his/her own knowledge of the tooth. It is possible to identify the type of tooth with higher accuracy than to identify the type. Furthermore, since the identification device 100 identifies teeth while gradually reducing the number of adjacent teeth using a plurality of multi-stage estimation models 114, a plurality of teeth correspond to adjacent teeth in three dimensions. The type of tooth can be identified with higher accuracy than the type of each tooth can be identified at once based on the data.

識別方法は、複数の歯牙が隣接する隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力されるステップ(S41)と、入力されるステップ(S41)によって入力された三次元データに基づき、隣接歯牙に含まれる歯牙の種類を識別するステップ(S45~S49)と、識別するステップ(S45~S49)による識別結果を出力するステップ(S50)とを含み、識別するステップ(S45~S49)は、複数の歯牙が隣接する第1隣接歯牙(たとえば、3番~6番の歯牙を含む隣接歯牙、4番~7番の歯牙を含む隣接歯牙)を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データと、第1ニューラルネットワーク1151を含む第1推定モデル1141とに基づき、当該第1隣接歯牙よりも少ない数の複数の歯牙が隣接する第2隣接歯牙(たとえば、6番および7番の隣接歯牙、5番および6番の隣接歯牙、4番および5番の隣接歯牙、3番および4番の隣接歯牙)を識別する第1識別ステップ(S45,S47)と、第1識別ステップ(S45,S47)による識別結果と、第2ニューラルネットワーク1152を含む第2推定モデル1142とに基づき、第2隣接歯牙に含まれる歯牙(たとえば、3番~6番の各歯牙、4番~7番の各歯牙)の種類を識別する第2識別ステップ(S49)とを有する。 The identification method comprises a step (S41) of inputting three-dimensional data including three-dimensional position information at each of a plurality of points forming adjacent teeth adjacent to a plurality of teeth (S41), and a step of inputting (S41). identifying the types of teeth included in adjacent teeth based on the obtained three-dimensional data (S45 to S49); Steps (S45 to S49) include a plurality of adjacent teeth that constitute first adjacent teeth (for example, adjacent teeth including teeth No. 3 to 6, adjacent teeth including teeth No. 4 to 7). Based on the three-dimensional data including three-dimensional positional information at each of the points and the first estimation model 1141 including the first neural network 1151, a plurality of teeth that are less in number than the first adjacent teeth are adjacent to the first A first identification step of identifying two adjacent teeth (e.g., 6th and 7th adjacent teeth, 5th and 6th adjacent teeth, 4th and 5th adjacent teeth, 3rd and 4th adjacent teeth) ( S45, S47), the identification result of the first identification step (S45, S47), and the second estimation model 1142 including the second neural network 1152, the tooth included in the second adjacent tooth (for example, No. 3 to and a second identification step (S49) for identifying the type of each tooth No. 6 and each tooth No. 4 to No. 7).

なお、第1識別ステップ(S45,S47)は、複数の歯牙が隣接する第1隣接歯牙(たとえば、3番~6番の歯牙を含む隣接歯牙、4番~7番の歯牙を含む隣接歯牙)を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データと、第1ニューラルネットワーク1151を含む第1推定モデル1141とに基づき、当該隣接歯牙と同一の数の複数の歯牙が隣接する第2隣接歯牙(たとえば、3番~6番の隣接歯牙、4番~7番の隣接歯牙)を識別するものであってもよい。 In addition, the first identification step (S45, S47) includes a plurality of adjacent first adjacent teeth (for example, adjacent teeth including teeth Nos. 3 to 6, adjacent teeth including teeth Nos. 4 to 7). and a first estimation model 1141 including a first neural network 1151, a plurality of teeth of the same number as the adjacent teeth are adjacent It may also identify the second adjacent tooth (eg, the 3rd to 6th adjacent teeth, the 4th to 7th adjacent teeth).

これにより、識別方法は、多段式の複数の推定モデル114(第1推定モデル1141,第2推定モデル1142、第1学習済モデル,第2学習済モデル)を用いて、隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データに基づき、当該隣接歯牙に含まれる歯牙の種類を識別することができるため、ユーザ自身の知見に頼って歯牙の種類を識別するよりも、精度良く歯牙の種類を識別することができる。さらに、識別方法は、多段式になった複数の推定モデル114を用いて隣接する歯牙の数を段階的に絞りながら歯牙を識別するため、複数の歯牙が隣接する隣接歯牙に対応する三次元データに基づき各歯牙の種類を一度に識別するよりも、精度良く歯牙の種類を識別することができる。 As a result, the identification method uses a plurality of multistage estimation models 114 (a first estimation model 1141, a second estimation model 1142, a first trained model, and a second trained model). Since the type of tooth included in the adjacent tooth can be identified based on the three-dimensional data including the three-dimensional positional information of each of the points, it is possible to identify the type of tooth rather than relying on the user's own knowledge. , the type of tooth can be identified with high accuracy. Furthermore, the identification method uses a plurality of multistage estimation models 114 to identify teeth while gradually reducing the number of adjacent teeth. The type of tooth can be identified with higher accuracy than when each type of tooth is identified at once based on .

識別用プログラム120は、演算装置130に、複数の歯牙が隣接する隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力されるステップ(S41)と、入力されるステップ(S41)によって入力された三次元データに基づき、隣接歯牙に含まれる歯牙の種類を識別するステップ(S45~S49)と、識別するステップ(S45~S49)による識別結果を出力するステップ(S50)とを実行させ、識別するステップ(S45~S49)は、複数の歯牙が隣接する第1隣接歯牙(たとえば、3番~6番の歯牙を含む隣接歯牙、4番~7番の歯牙を含む隣接歯牙)を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データと、第1ニューラルネットワーク1151を含む第1推定モデル1141とに基づき、当該第1隣接歯牙よりも少ない数の複数の歯牙が隣接する第2隣接歯牙(たとえば、6番および7番の隣接歯牙、5番および6番の隣接歯牙、4番および5番の隣接歯牙、3番および4番の隣接歯牙)を識別する第1識別ステップ(S45,S47)と、第1識別ステップ(S45,S47)による識別結果と、第2ニューラルネットワーク1152を含む第2推定モデル1142とに基づき、第2隣接歯牙に含まれる歯牙(たとえば、3番~6番の各歯牙、4番~7番の各歯牙)の種類を識別する第2識別ステップ(S49)とを含む。 The identification program 120 inputs to the computing device 130 three-dimensional data including three-dimensional position information at each of a plurality of points forming adjacent teeth adjacent to each other (S41); Based on the three-dimensional data input in the step (S41), a step (S45 to S49) of identifying the type of tooth included in the adjacent tooth, and a step of outputting the identification result of the identifying step (S45 to S49) ( S50), and the identifying step (S45 to S49) is to identify a first adjacent tooth (for example, adjacent teeth including teeth No. 3 to 6, teeth No. 4 to 7) to which a plurality of teeth are adjacent. Based on three-dimensional data including three-dimensional position information at each of a plurality of points that constitute the adjacent teeth) and the first estimation model 1141 including the first neural network 1151, a number less than the first adjacent teeth adjacent teeth (e.g., 6th and 7th adjacent teeth, 5th and 6th adjacent teeth, 4th and 5th adjacent teeth, 3rd and 4th adjacent teeth) Based on the first identification step (S45, S47) for identifying the first identification step (S45, S47), the identification result of the first identification step (S45, S47), and the second estimation model 1142 including the second neural network 1152, the second adjacent tooth includes and a second identification step (S49) of identifying the types of teeth (eg, teeth Nos. 3 to 6, teeth Nos. 4 to 7).

なお、第1識別ステップ(S45,S47)は、複数の歯牙が隣接する第1隣接歯牙(たとえば、3番~6番の歯牙を含む隣接歯牙、4番~7番の歯牙を含む隣接歯牙)を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データと、第1ニューラルネットワーク1151を含む第1推定モデル1141とに基づき、当該隣接歯牙と同一の数の複数の歯牙が隣接する第2隣接歯牙(たとえば、3番~6番の隣接歯牙、4番~7番の隣接歯牙)を識別するものであってもよい。 In addition, the first identification step (S45, S47) includes a plurality of adjacent first adjacent teeth (for example, adjacent teeth including teeth Nos. 3 to 6, adjacent teeth including teeth Nos. 4 to 7). and a first estimation model 1141 including a first neural network 1151, a plurality of teeth of the same number as the adjacent teeth are adjacent It may also identify the second adjacent tooth (eg, the 3rd to 6th adjacent teeth, the 4th to 7th adjacent teeth).

これにより、識別方法は、多段式の複数の推定モデル114(第1推定モデル1141,第2推定モデル1142、第1学習済モデル,第2学習済モデル)を用いて、隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データに基づき、当該隣接歯牙に含まれる歯牙の種類を識別することができるため、ユーザ自身の知見に頼って歯牙の種類を識別するよりも、精度良く歯牙の種類を識別することができる。さらに、識別方法は、多段式になった複数の推定モデル114を用いて隣接する歯牙の数を段階的に絞りながら歯牙を識別するため、複数の歯牙が隣接する隣接歯牙に対応する三次元データに基づき各歯牙の種類を一度に識別するよりも、精度良く歯牙の種類を識別することができる。 As a result, the identification method uses a plurality of multistage estimation models 114 (a first estimation model 1141, a second estimation model 1142, a first trained model, and a second trained model). Since the type of tooth included in the adjacent tooth can be identified based on the three-dimensional data including the three-dimensional positional information of each of the points, it is possible to identify the type of tooth rather than relying on the user's own knowledge. , the type of tooth can be identified with high accuracy. Furthermore, the identification method uses a plurality of multistage estimation models 114 to identify teeth while gradually reducing the number of adjacent teeth. The type of tooth can be identified with higher accuracy than when each type of tooth is identified at once based on .

[変形例]
本開示は、上記の実施例に限られず、さらに種々の変形、応用が可能である。以下、本発明に適用可能な変形例について説明する。
[Modification]
The present disclosure is not limited to the above embodiments, and various modifications and applications are possible. Modifications applicable to the present invention will be described below.

(サービス提供処理時学習処理)
本実施の形態に係る識別装置100は、図18に示すように、サービス提供処理において学習処理を実行するものではないが、図19に示すように、変形例に係る識別装置100aは、サービス提供処理において学習処理を実行するものであってもよい。識別装置100は、所謂、協調学習(Federated Learning)を行うものであってもよい。図19は、変形例に係る識別装置100aが実行するサービス提供処理の一例を説明するためのフローチャートである。なお、図19に示すS41~S50の処理は、図18に示すS41~S50の処理と同じであるため、図19においては、S50以降の処理についてのみ説明する。
(Learning processing during service provision processing)
As shown in FIG. 18, the identification device 100 according to the present embodiment does not execute learning processing in the service provision processing, but as shown in FIG. A learning process may be executed in the process. The identification device 100 may perform so-called federated learning. FIG. 19 is a flowchart for explaining an example of service providing processing executed by the identification device 100a according to the modification. 19 are the same as the processes of S41 to S50 shown in FIG. 18, only the processes after S50 will be described in FIG.

図14に示すように、識別装置100aは、S41~S50の処理によって識別結果を出力した後、サービス提供時学習処理を実行する。具体的には、識別装置100aは、S50の後、誤り訂正のための正解データが入力されたか否かを判定する(S61a)。たとえば、識別装置100aは、S50において出力された識別結果である歯牙の種類が、実際にスキャン対象であった歯牙の種類と異なる場合において、実際にスキャン対象であった歯牙の種類をユーザ1が入力することで誤りを訂正したか否かを判定する。 As shown in FIG. 14, the identification device 100a outputs the identification result by the processing of S41 to S50, and then executes the learning processing at the time of service provision. Specifically, after S50, the identification device 100a determines whether correct data for error correction has been input (S61a). For example, when the type of tooth, which is the identification result output in S50, is different from the type of tooth that was actually scanned, the identification device 100a allows the user 1 to identify the type of tooth that was actually scanned. It is determined whether or not the input has corrected the error.

識別装置100aは、誤り訂正のための正解データが入力されなかった場合(S61aでNO)、本処理を終了する。一方、識別装置100aは、誤り訂正のための正解データが入力された場合(S61aでYES)、識別結果と正解データとに基づき報酬を付与する(S62)。 If the correct data for error correction is not input (NO in S61a), the identification device 100a ends this process. On the other hand, when the correct data for error correction is input (YES in S61a), the identification device 100a gives a reward based on the identification result and the correct data (S62).

たとえば、識別結果と正解データとの解離度が小さければ小さいほど、付与する報酬として値の小さいマイナスポイントを与え、両者の解離度が大きければ大きいほど、付与する報酬として値の大きいマイナスポイントを与えればよい。具体的には、識別装置100aは、識別結果として出力した歯牙と、正解データとして入力された歯牙とが隣接していれば、値の小さいマイナスポイントを与え、両者が離れていれば、値の大きいマイナスポイントを与える。このように、識別装置100aは、識別結果と正解データとの解離度に応じて異なる値の報酬を付与する。なお、報酬はマイナスポイントに限らず、プラスポイントであってもよい。 For example, the smaller the degree of dissociation between the identification result and the correct answer data, the smaller the negative points given as a reward, and the greater the degree of dissociation between the two, the larger the negative points given as a reward. Just do it. Specifically, if the tooth output as the identification result and the tooth input as the correct answer data are adjacent to each other, the identification device 100a gives a small negative point, and if the two are separated, a negative point is given. Give a big minus point. In this way, the identification device 100a gives different rewards depending on the degree of dissociation between the identification result and the correct answer data. Note that the reward is not limited to minus points, and may be plus points.

識別装置100aは、付与した報酬に基づき、学習済モデルのパラメータ(たとえば、第1パラメータ1161,第2パラメータ1162の少なくともいずれか一方)を更新する(S63)。たとえば、識別装置100aは、報酬として付与したマイナスポイントが0に近づくように学習済モデルのパラメータを更新する。その後、識別装置100aは、本処理を終了する。 The identification device 100a updates the parameters of the trained model (for example, at least one of the first parameter 1161 and the second parameter 1162) based on the given reward (S63). For example, the identification device 100a updates the parameters of the learned model so that the negative points given as a reward approach zero. After that, the identification device 100a terminates this process.

このように、変形例に係る識別装置100aは、サービス提供処理においても学習処理を実行するため、ユーザ1が使用すればするほど識別処理の精度が向上し、より精度良く歯牙の種類を識別することができる。このような処理は、所謂、協調学習の一種である。 In this way, the identification device 100a according to the modification executes learning processing even in the service providing processing. Therefore, the more the user 1 uses the identification device 100a, the more the accuracy of the identification processing improves, and the more accurately the type of tooth is identified. be able to. Such processing is a kind of so-called collaborative learning.

(カテゴリごとの学習済モデルの生成)
本実施の形態に係る識別装置100は、図12に示すように、カテゴリごとに分類された複数の学習用データセット116a~116oが含まれる学習用データセット群を用いて推定モデル114を学習させることで、1つの学習済モデルを生成するものであったが、図20に示すように、変形例に係る識別装置100bは、カテゴリごとに分類された複数の学習用データセットのそれぞれをカテゴリごとに用いて推定モデル114を学習させることで、カテゴリごとの学習済モデルを生成してもよい。図20は、変形例に係る学習用データセットに基づく学習済モデルの生成を説明するための模式図である。
(Generation of trained models for each category)
The identification device 100 according to the present embodiment, as shown in FIG. 12, uses a learning data set group including a plurality of learning data sets 116a to 116o classified for each category to learn the estimation model 114. Thus, one trained model is generated, but as shown in FIG. 20, the identification device 100b according to the modification classifies each of the plurality of learning data sets classified for each category into may be used to train the estimation model 114 to generate a trained model for each category. FIG. 20 is a schematic diagram for explaining generation of a trained model based on the learning data set according to the modification.

図20に示すように、学習用データセット116は、当該学習用データセット116を生成する際にスキャン対象となった対象者2のプロファイルに基づきカテゴリごとに分類されて保持される。たとえば、年齢(未成年者,現役世代,高齢者)、および性別(男性,女性)に基づき、6個のカテゴリに対して、学習用データセットが割り当てられる。 As shown in FIG. 20, the learning data set 116 is classified and held for each category based on the profile of the subject 2 who was scanned when the learning data set 116 was generated. For example, learning data sets are assigned to six categories based on age (minors, working generation, elderly) and sex (male, female).

識別装置100bは、カテゴリごとに分類された複数の学習用データセット116p~116uのそれぞれをカテゴリごとに用いて推定モデル114を学習させることで、カテゴリごとの学習済モデル114p~114uを生成する。 The identification device 100b generates trained models 114p-114u for each category by causing the estimation model 114 to learn using each of the plurality of learning data sets 116p-116u classified for each category.

このように、変形例に係る識別装置100bは、カテゴリごとに分類された複数の学習済モデル114p~114uを生成することができるため、対象者2のプロファイルに応じたより詳細な分析によって、より精度良く歯牙の種類を識別することができる。 In this way, the identification device 100b according to the modification can generate a plurality of trained models 114p to 114u classified by category. Able to identify different types of teeth.

なお、図20に示す学習済モデル114p~114uの生成は、サーバ装置500が保持する学習済モデルの生成についても適用可能である。たとえば、図20に示す学習用データセット116p~116uを、サーバ装置500が保持する学習用データセット516に適用してもよいし、図20に示す学習済モデル114p~114uを、サーバ装置500が保持する学習済モデルに適用してもよい。 The generation of the trained models 114p to 114u shown in FIG. 20 can also be applied to the generation of trained models held by the server device 500. FIG. For example, the learning data sets 116p-116u shown in FIG. It may be applied to the retained trained model.

(カテゴリごとの学習済モデルを用いたサービス提供処理)
図21を参照しながら、カテゴリごとの学習済モデル114p~114uを用いて識別装置100が実行するサービス提供処理について説明する。図21は、変形例に係る識別装置100bが実行するサービス提供処理の一例を説明するためのフローチャートである。図21に示す各ステップは、識別装置100bの演算装置130がOS127および識別用プログラム120を実行することで実現される。
(Service provision processing using trained model for each category)
A service providing process executed by the identification device 100 using the trained models 114p to 114u for each category will be described with reference to FIG. FIG. 21 is a flowchart for explaining an example of service providing processing executed by the identification device 100b according to the modification. Each step shown in FIG. 21 is realized by executing the OS 127 and the identification program 120 by the arithmetic device 130 of the identification device 100b.

図21に示すように、識別装置100bは、三次元データが入力されたか否かを判定する(S41)。たとえば、識別装置100bは、識別処理を実行するのに十分な量の三次元データを取得したか否かを判定する。識別装置100bは、十分な量の三次元データを取得していない場合(S41でNO)、本処理を終了する。 As shown in FIG. 21, the identification device 100b determines whether three-dimensional data has been input (S41). For example, the identification device 100b determines whether or not a sufficient amount of three-dimensional data to perform identification processing has been acquired. If the identification device 100b has not acquired a sufficient amount of three-dimensional data (NO in S41), the process ends.

一方、識別装置100bは、十分な量の三次元データが入力された場合(S41でYES)、ユーザ1によって対象者2のプロファイルデータが入力されているか否かを判定する(S42)。その後、識別装置100bは、図20に示す学習済モデル群の中からプロファイルデータに対応する学習済モデルを選択する(S61b)。たとえば、対象者2が高齢者の女性であれば、識別装置100bは、学習済モデル114uを選択する。 On the other hand, when a sufficient amount of three-dimensional data has been input (YES in S41), the identification device 100b determines whether or not the user 1 has input the profile data of the subject 2 (S42). After that, the identification device 100b selects a learned model corresponding to the profile data from among the group of learned models shown in FIG. 20 (S61b). For example, if the subject 2 is an elderly female, the identification device 100b selects the learned model 114u.

その後、識別装置100bは、三次元データを1段目の学習済モデル(たとえば、学習済みの推定モデル1140a)に入力する(S62b)。識別装置100は、入力された三次元データに対応する複数の歯牙の特徴に基づき、1段目の学習済モデルを用いた識別処理によって、入力された三次元データに対応する複数の歯牙のうち、一部の複数の歯牙を含む隣接歯牙を識別する(S45)。その後、S46~S50に示す処理は、図18に示したS46~S50に示す処理と同様の処理を実行する。 After that, identification device 100b inputs the three-dimensional data to the first stage trained model (for example, trained estimation model 1140a) (S62b). The identification device 100 performs identification processing using a first-stage trained model based on the features of the plurality of teeth corresponding to the input three-dimensional data, among the plurality of teeth corresponding to the input three-dimensional data. , adjacent teeth including some teeth are identified (S45). After that, the processes shown in S46 to S50 are the same as the processes shown in S46 to S50 shown in FIG.

このように、変形例に係る識別装置100bは、対象者2のプロファイルに最も適した学習済モデルを用いて識別処理を実行することができるため、対象者2のプロファイルに応じたより詳細な分析によって、より精度良く歯牙の種類を識別することができる。 In this way, the identification device 100b according to the modification can perform identification processing using a trained model that is most suitable for the profile of the subject 2, so that more detailed analysis according to the profile of the subject 2 , the type of tooth can be identified with higher accuracy.

(プロファイルの出力)
本実施の形態に係る識別装置100は、識別処理によって、歯牙の種類を識別するものであった。しかし、図12および図20に示すように、対象者2のプロファイルを考慮した学習用データセットに基づき学習済モデルが生成されることに鑑みると、識別処理において三次元データが学習済モデルに入力されることで、当該三次元データに対応する歯牙の特徴に基づき、当該歯牙の所有者のプロファイルが識別結果として出力されてもよい。このようにすれば、災害や事件などで発見された身元不明の対象者2について、歯牙を含む三次元データからプロファイルを特定することができる。
(Profile output)
The identification device 100 according to the present embodiment identifies the type of tooth through identification processing. However, as shown in FIGS. 12 and 20, considering that the trained model is generated based on the learning data set that considers the profile of the subject 2, three-dimensional data is input to the trained model in the identification process. By doing so, a profile of the owner of the tooth may be output as an identification result based on the characteristics of the tooth corresponding to the three-dimensional data. In this way, the profile of the unidentified subject 2 found in a disaster or incident can be specified from the three-dimensional data including teeth.

(学習処理)
本実施の形態に係る識別装置100は、学習処理によって推定モデル114のパラメータ(第1パラメータ1161,第2パラメータ1162)を更新するものであったが、パラメータを更新するものに限らず、学習処理によってニューラルネットワーク(第1ニューラルネットワーク1151,第2ニューラルネットワーク1152)が更新される(たとえば、ニューラルネットワークのアルゴリズムが更新される)ものであってもよい。また、本実施の形態に係るサーバ装置500は、学習処理によって推定モデル514のパラメータを更新するものであったが、パラメータを更新するものに限らず、学習処理によってニューラルネットワークが更新される(たとえば、ニューラルネットワークのアルゴリズムが更新される)ものであってもよい。
(learning process)
Identification device 100 according to the present embodiment updates the parameters (first parameter 1161 and second parameter 1162) of estimation model 114 by learning processing. The neural network (first neural network 1151, second neural network 1152) may be updated (for example, the algorithm of the neural network may be updated). Server device 500 according to the present embodiment updates the parameters of estimation model 514 by learning processing, but is not limited to updating the parameters, and the neural network is updated by learning processing (for example, , the algorithm of the neural network is updated).

(法線および/または色情報を用いた識別)
図22は、変形例に係る学習用データセットの一例を説明するための模式図である。変形例に係る識別装置100cは、三次元スキャナ200によって取得された三次元データに含まれる位置情報に加えて、歯牙の実際の色情報を推定モデル114に入力することで、推定モデル114を学習してもよい。
(identification using normal and/or color information)
FIG. 22 is a schematic diagram for explaining an example of a learning data set according to a modification. The identification device 100c according to the modification learns the estimation model 114 by inputting the actual color information of the tooth into the estimation model 114 in addition to the position information included in the three-dimensional data acquired by the three-dimensional scanner 200. You may

たとえば、図9を用いて説明したように、学習用データセットには、推定モデル114に対する入力データである位置情報と、正解データである歯牙の種類に対応付けられた色分け後の色情報とが含まれているが、これに加えて、図22に示すように、色分け前の歯牙の色情報が含まれてもよい。そして、学習処理においては、推定モデル114に対して位置情報に加えて色分け前の歯牙の色情報が入力されることで、歯牙の実際の色情報も考慮して、学習済モデルが生成されてもよい。 For example, as described with reference to FIG. 9, the learning data set includes position information, which is input data for the estimation model 114, and color information after color coding associated with tooth types, which is correct data. In addition to this, as shown in FIG. 22, tooth color information before color-coding may also be included. In the learning process, in addition to the positional information, the color information of the teeth before color-coding is input to the estimation model 114, so that a learned model is generated in consideration of the actual color information of the teeth. good too.

さらに、学習用データセットには、推定モデル114に対する入力データである位置情報と、正解データである歯牙の種類に対応付けられた色分け後の色情報とに加えて、図22に示すように、位置情報に基づき算出可能な法線情報が含まれてもよい。そして、学習処理においては、推定モデル114に対して位置情報に加えて法線情報が入力されることで、法線情報も考慮して、学習済モデルが生成されてもよい。 Furthermore, in the learning data set, in addition to position information, which is input data for the estimation model 114, and color information after color coding associated with tooth types, which is correct data, as shown in FIG. Normal information that can be calculated based on the position information may also be included. Then, in the learning process, by inputting the normal information in addition to the position information to the estimation model 114, the learned model may be generated in consideration of the normal information.

法線情報は、たとえば、以下のようにして算出することができる。たとえば、歯牙を構成する複数の点のうち、一の点に注目し、その注目点の近傍の所定範囲内に属する複数の点に基づいて、注目点の法線を生成する。具体的には、注目点の法線は、注目点の近傍の所定範囲内に属する複数の点に対し、主成分分析を用いて生成することができる。主成分分析は、一般的に、分散共分散行列を計算することで実施することができる。この分散共分散行列の計算において固有ベクトルを計算し、主成分方向を注目点の法線として生成すればよい。なお、点群におけるある点に対する法線の生成方法は公知であるため、一般的に知られているその他の技術を用いてもよい。 Normal information can be calculated, for example, as follows. For example, one of a plurality of points forming a tooth is focused on, and a normal to the point of interest is generated based on a plurality of points belonging to a predetermined range near the point of interest. Specifically, the normal to the point of interest can be generated using principal component analysis for a plurality of points belonging to a predetermined range near the point of interest. Principal component analysis can generally be performed by computing a variance-covariance matrix. Eigenvectors are calculated in the calculation of the variance-covariance matrix, and the principal component direction is generated as the normal to the point of interest. Since the method of generating a normal to a point in the point group is well known, other generally known techniques may be used.

このように、学習用データセットに法線情報を加えることで、歯牙を構成する複数の点のそれぞれにおいて、各点が構成する歯牙のどちら側が表面なのかについても識別装置が学習することができる。また、注目点の近傍の所定範囲内に属する少数の点群のみに基づいて窪みなどの形状の特徴を識別装置が学習することができる。 In this way, by adding normal line information to the learning data set, the identification device can also learn which side of the tooth that each point constitutes is the surface for each of the plurality of points that constitute the tooth. . In addition, the identification device can learn features of a shape such as a dent based only on a small number of point groups belonging to a predetermined range near the point of interest.

なお、学習用データセットには、色分け前の歯牙の色情報と法線情報との両方が含まれてもよいし、一方のみが含まれてもよい。 The learning data set may contain both color information and normal line information of the tooth before color-coding, or may contain only one of them.

次に、色分け前の歯牙の色情報および法線情報を含む学習用データセットに基づき学習された学習済モデルを用いて識別処理を実行するサービス提供処理について、図18を参照しながら説明する。図23は、変形例に係る識別装置100cが実行するサービス提供処理の一例を説明するためのフローチャートである。 Next, the service providing process for executing the identification process using the trained model trained based on the learning data set containing the tooth color information and normal information before color-coding will be described with reference to FIG. 18 . FIG. 23 is a flowchart for explaining an example of service providing processing executed by the identification device 100c according to the modification.

図23に示すように、変形例に係る識別装置100cは、図18に示した識別装置100が実行するサービス提供処理と異なり、S61cの処理を追加で実行する。すなわち、識別装置100cは、三次元データが入力された後(S41でYES)、入力された三次元データに含まれる位置情報に基づき、歯牙を構成する複数の点における法線を生成する(S61c)。なお、入力された三次元データには、位置情報に加えて色分け前の歯牙の色情報が含まれている。 As shown in FIG. 23, the identification device 100c according to the modification additionally executes the processing of S61c, unlike the service provision processing executed by the identification device 100 shown in FIG. That is, after the three-dimensional data is input (YES in S41), the identification device 100c generates normal lines at a plurality of points forming the tooth based on the position information included in the input three-dimensional data (S61c). ). In addition to the position information, the input three-dimensional data includes color information of the teeth before color-coding.

その後、識別装置100cは、プロファイルデータが入力されていないと判定した場合(S42でNO)、三次元データ(位置情報,色情報)に加えて法線情報を1段目の学習済モデルに入力する(S62c)。一方、識別装置100cは、プロファイルデータが入力されたと判定した場合(S42でYES)、三次元データ(位置情報,色情報)およびプロファイルデータに加えて法線情報を学習済モデルに入力する(S63c)。そして、S62cおよびS63cの後、識別装置100cは、1段目の学習済モデルを用いて隣接歯牙を識別する識別処理を実行する(S45)。 After that, if the identification device 100c determines that the profile data has not been input (NO in S42), it inputs the normal information in addition to the three-dimensional data (position information and color information) to the learned model in the first stage. (S62c). On the other hand, if the identification device 100c determines that the profile data has been input (YES in S42), the identification device 100c inputs the normal information in addition to the three-dimensional data (position information, color information) and profile data to the learned model (S63c). ). After S62c and S63c, the identification device 100c executes identification processing for identifying adjacent teeth using the learned model of the first stage (S45).

このように、変形例に係る識別装置100cは、色分け前の歯牙の色情報、および三次元データに対応する歯牙を構成する複数の点のそれぞれについて生成された法線にさらに基づき、歯牙の種類を識別してもよい。なお、識別装置100cには、色分け前の歯牙の色情報が入力される一方で、法線情報が入力されない場合であってもよい。あるいは、識別装置100cには、法線情報が入力される一方で、色分け前の歯牙の色情報が入力されない場合であってもよい。 In this way, the identification device 100c according to the modified example further determines the type of tooth based on the color information of the tooth before color-coding and the normal lines generated for each of the plurality of points forming the tooth corresponding to the three-dimensional data. may be identified. Note that the identification device 100c may be input with color information of teeth before color separation, but without input of normal line information. Alternatively, the identification device 100c may receive normal line information but not tooth color information before color-coding.

このように、識別装置100cは、色分け前の歯牙の色情報、および/または複数の点のそれぞれについて生成された法線に基づき歯牙の種類を識別することができるため、より精度良く歯牙の種類を識別することができる。 In this way, the identification device 100c can identify the type of tooth based on the color information of the tooth before color-coding and/or the normal lines generated for each of the plurality of points. can be identified.

今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は上記した説明ではなく特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。なお、本実施の形態で例示された構成および変形例で例示された構成は、適宜組み合わせることができる。 It should be considered that the embodiments disclosed this time are illustrative in all respects and not restrictive. The scope of the present disclosure is indicated by the scope of claims rather than the above description, and is intended to include all modifications within the meaning and scope of equivalents of the scope of claims. Note that the configurations exemplified in this embodiment and the configurations exemplified in the modifications can be combined as appropriate.

1 ユーザ、2 対象者、5 ネットワーク、10 識別システム、100,100a,100b,100c 識別装置、102 スキャナインターフェース、103,503 ディスプレイインターフェース、104 スピーカインターフェース、105,505 周辺機器インターフェース、106,506 ネットワークコントローラ、107,507 メディア読取装置、108 PCディスプレイ、109,509 メモリ、110,510 ストレージ、112,512 スキャン情報、114,514,1140a,1140b,1140c 推定モデル、116,516 学習用データセット、118,518 色分類データ、119,519 プロファイルデータ、120 識別用プログラム、121,521 学習用プログラム、122,522 三次元データ、124,524 識別結果、127,527 OS、130,530 演算装置、200 三次元スキャナ、300,350 ディスプレイ、400 スピーカ、500 サーバ装置、550 リムーバブルディスク、601,651 キーボード、602,652 マウス、1101,1130a,1130b,1130c 識別部、1102 入力部、1103 出力部、1119 プロファイル取得部、1131 第1識別部、1132 第2識別部、1141 第1推定モデル、1142 第2推定モデル、1144 パラメータ、1151 第1ニューラルネットワーク、1152 第2ニューラルネットワーク、1161 第1パラメータ、1162 第2パラメータ。 1 user, 2 subject, 5 network, 10 identification system, 100, 100a, 100b, 100c identification device, 102 scanner interface, 103, 503 display interface, 104 speaker interface, 105, 505 peripheral device interface, 106, 506 network controller , 107,507 media reader, 108 PC display, 109,509 memory, 110,510 storage, 112,512 scan information, 114,514,1140a, 1140b, 1140c estimation model, 116,516 training data set, 118, 518 color classification data 119,519 profile data 120 identification program 121,521 learning program 122,522 three-dimensional data 124,524 identification result 127,527 OS 130,530 arithmetic unit 200 three-dimensional Scanner, 300, 350 Display, 400 Speaker, 500 Server Device, 550 Removable Disk, 601, 651 Keyboard, 602, 652 Mouse, 1101, 1130a, 1130b, 1130c Identification Unit, 1102 Input Unit, 1103 Output Unit, 1119 Profile Acquisition Unit , 1131 first identification unit, 1132 second identification unit, 1141 first estimation model, 1142 second estimation model, 1144 parameters, 1151 first neural network, 1152 second neural network, 1161 first parameters, 1162 second parameters.

Claims (9)

歯牙の種類を識別する識別装置であって、
複数の歯牙が隣接する隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力される入力部と、
前記入力部から入力された三次元データに基づき、前記隣接歯牙に含まれる歯牙の種類を識別する識別部と、
前記識別部による識別結果を出力する出力部とを備え、
前記識別部は、
複数の歯牙が隣接する第1隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データと、第1ニューラルネットワークを含む第1推定モデルとに基づき、当該第1隣接歯牙と同一の数または当該第1隣接歯牙よりも少ない数の複数の歯牙が隣接する第2隣接歯牙を識別する第1識別部と、
前記第1識別部による識別結果と、第2ニューラルネットワークを含む第2推定モデルとに基づき、前記第2隣接歯牙に含まれる歯牙の種類を識別する第2識別部とを含む、識別装置。
An identification device for identifying the type of tooth,
an input unit for inputting three-dimensional data including three-dimensional position information at each of a plurality of points forming adjacent teeth where a plurality of teeth are adjacent;
an identification unit that identifies types of teeth included in the adjacent teeth based on the three-dimensional data input from the input unit;
An output unit that outputs the identification result by the identification unit,
The identification unit
Based on three-dimensional data including three-dimensional position information at each of a plurality of points constituting a first adjacent tooth adjacent to a plurality of teeth and a first estimation model including a first neural network, the first adjacent tooth A first identification unit that identifies a second adjacent tooth that is adjacent to a plurality of teeth that are the same number as or less than the first adjacent tooth;
An identification device, comprising a second identification unit that identifies the type of tooth included in the second adjacent tooth based on the identification result of the first identification unit and a second estimation model including a second neural network.
前記第1識別部は、前記第1隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データと、前記第1推定モデルとに基づき、前記第2隣接歯牙として複数の第2隣接歯牙のそれぞれを識別し、
前記複数の第2隣接歯牙は、互いに重複する歯牙を含み、
前記第2識別部は、前記第1識別部による識別結果と、前記第2推定モデルとに基づき、前記複数の第2隣接歯牙のそれぞれに含まれる前記重複する歯牙の種類を識別する、請求項1に記載の識別装置。
The first identifying unit, based on three-dimensional data including three-dimensional position information of each of a plurality of points constituting the first adjacent tooth and the first estimation model, selects a plurality of points as the second adjacent tooth. identifying each of the second adjacent teeth;
the plurality of second adjacent teeth includes teeth that overlap each other;
The second identification unit identifies the type of the overlapping tooth included in each of the plurality of second adjacent teeth based on the identification result of the first identification unit and the second estimation model. 1. The identification device according to 1.
前記識別部は、前記入力部から入力された三次元データに対応する複数の点ごとに生成された法線にさらに基づき、前記隣接歯牙に含まれる歯牙の種類を識別する、請求項1または請求項2に記載の識別装置。 3. The identification unit identifies types of teeth included in the adjacent teeth based on normal lines generated for each of a plurality of points corresponding to the three-dimensional data input from the input unit. Item 3. The identification device according to item 2. 前記第1推定モデルは、前記第1隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データに対応付けられた前記第2隣接歯牙と、当該三次元データを用いた当該第2隣接歯牙の推定結果とに基づき学習されたものであり、
前記第2推定モデルは、前記第2隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データに対応付けられた当該第2隣接歯牙に含まれる歯牙の種類と、当該三次元データを用いた当該第2隣接歯牙に含まれる歯牙の種類の推定結果とに基づき学習されたものである、請求項1~請求項3のいずれか1項に記載の識別装置。
The first estimation model uses the second adjacent tooth associated with three-dimensional data including three-dimensional positional information of each of the plurality of points constituting the first adjacent tooth, and the three-dimensional data. It is learned based on the estimation result of the second adjacent tooth,
The second estimation model includes a type of tooth included in the second adjacent tooth associated with three-dimensional data including three-dimensional position information at each of a plurality of points constituting the second adjacent tooth; 4. The identification device according to any one of claims 1 to 3, wherein the identification device is learned based on the result of estimating the type of tooth included in the second adjacent tooth using three-dimensional data.
前記入力部から入力された三次元データは、口腔内の歯牙および歯肉を構成する複数の点のそれぞれにおける三次元の位置情報を含む、請求項1~請求項4のいずれか1項に記載の識別装置。 The three-dimensional data input from the input unit according to any one of claims 1 to 4, wherein the three-dimensional data includes three-dimensional position information at each of a plurality of points that constitute teeth and gums in the oral cavity. identification device. 前記出力部は、色、文字、数字、および記号の少なくともいずれか1つを用いて前記第2識別部による識別結果を出力する、請求項1~請求項5のいずれか1項に記載の識別装置。 The identification according to any one of claims 1 to 5, wherein the output unit outputs identification results by the second identification unit using at least one of colors, letters, numbers, and symbols. Device. 歯牙の種類を識別する識別システムであって、
三次元カメラを用いて、複数の歯牙が隣接する隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データを取得する三次元スキャナと、
前記三次元スキャナによって取得された三次元データに基づき、前記隣接歯牙に含まれる歯牙の種類を識別する識別装置とを備え、
前記識別装置は、
前記三次元スキャナによって取得された三次元データが入力される入力部と、
前記入力部から入力された三次元データに基づき、前記隣接歯牙に含まれる歯牙の種類を識別する識別部と、
前記識別部による識別結果を出力する出力部とを含み、
前記識別部は、
複数の歯牙が隣接する第1隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データと、第1ニューラルネットワークを含む第1推定モデルとに基づき、当該第1隣接歯牙と同一の数または当該第1隣接歯牙よりも少ない数の複数の歯牙が隣接する第2隣接歯牙を識別する第1識別部と、
前記第1識別部による識別結果と、第2ニューラルネットワークを含む第2推定モデルとに基づき、前記第2隣接歯牙に含まれる歯牙の種類を識別する第2識別部とを有する、識別システム。
An identification system for identifying tooth types, comprising:
A three-dimensional scanner that uses a three-dimensional camera to acquire three-dimensional data including three-dimensional position information at each of a plurality of points that constitute adjacent teeth adjacent to each other;
an identification device that identifies the type of tooth included in the adjacent tooth based on the three-dimensional data acquired by the three-dimensional scanner;
The identification device
an input unit into which three-dimensional data acquired by the three-dimensional scanner is input;
an identification unit that identifies types of teeth included in the adjacent teeth based on the three-dimensional data input from the input unit;
an output unit that outputs a result of identification by the identification unit;
The identification unit
Based on three-dimensional data including three-dimensional position information at each of a plurality of points constituting a first adjacent tooth adjacent to a plurality of teeth and a first estimation model including a first neural network, the first adjacent tooth A first identification unit that identifies a second adjacent tooth that is adjacent to a plurality of teeth that are the same number as or less than the first adjacent tooth;
An identification system, comprising a second identification unit that identifies the type of tooth included in the second adjacent tooth based on the identification result of the first identification unit and a second estimation model including a second neural network.
コンピュータによる歯牙の種類を識別する識別方法であって、
前記識別方法は、前記コンピュータが実行する処理として、
複数の歯牙が隣接する隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力されるステップと、
前記入力されるステップによって入力された三次元データに基づき、前記隣接歯牙に含まれる歯牙の種類を識別するステップと、
前記識別するステップによる識別結果を出力するステップとを含み、
前記識別するステップは、
複数の歯牙が隣接する第1隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データと、第1ニューラルネットワークを含む第1推定モデルとに基づき、当該第1隣接歯牙と同一の数または当該第1隣接歯牙よりも少ない数の複数の歯牙が隣接する第2隣接歯牙を識別する第1識別ステップと、
前記第1識別ステップによる識別結果と、第2ニューラルネットワークを含む第2推定モデルとに基づき、前記第2隣接歯牙に含まれる歯牙の種類を識別する第2識別ステップとを有する、識別方法。
A computer-based identification method for identifying tooth types, comprising:
The identification method includes, as processing executed by the computer,
a step of inputting three-dimensional data including three-dimensional positional information at each of a plurality of points forming adjacent teeth adjacent to each other;
identifying the types of teeth included in the adjacent teeth based on the three-dimensional data input in the inputting step;
and outputting an identification result from the identifying step,
The identifying step includes:
Based on three-dimensional data including three-dimensional position information at each of a plurality of points constituting a first adjacent tooth adjacent to a plurality of teeth and a first estimation model including a first neural network, the first adjacent tooth a first identification step of identifying a second adjacent tooth adjacent to a plurality of teeth equal in number to or less than the first adjacent tooth;
An identification method, comprising a second identification step of identifying the type of tooth included in the second adjacent tooth based on the identification result of the first identification step and a second estimation model including a second neural network.
歯牙の種類を識別する識別用プログラムであって、
前記識別用プログラムは、コンピュータに、
複数の歯牙が隣接する隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データが入力されるステップと、
前記入力されるステップによって入力された三次元データに基づき、前記隣接歯牙に含まれる歯牙の種類を識別するステップと、
前記識別するステップによる識別結果を出力するステップとを実行させ、
前記識別するステップは、
複数の歯牙が隣接する第1隣接歯牙を構成する複数の点のそれぞれにおける三次元の位置情報を含む三次元データと、第1ニューラルネットワークを含む第1推定モデルとに基づき、当該第1隣接歯牙と同一の数または当該第1隣接歯牙よりも少ない数の複数の歯牙が隣接する第2隣接歯牙を識別する第1識別ステップと、
前記第1識別ステップによる識別結果と、第2ニューラルネットワークを含む第2推定モデルとに基づき、前記第2隣接歯牙に含まれる歯牙の種類を識別する第2識別ステップとを含む、識別用プログラム。
An identification program for identifying tooth types,
The identification program, in a computer,
a step of inputting three-dimensional data including three-dimensional position information at each of a plurality of points forming adjacent teeth adjacent to each other;
a step of identifying the types of teeth included in the adjacent teeth based on the three-dimensional data input in the step of inputting;
a step of outputting an identification result obtained by the identifying step;
The identifying step includes:
Based on three-dimensional data including three-dimensional position information at each of a plurality of points constituting a first adjacent tooth adjacent to a plurality of teeth and a first estimation model including a first neural network, the first adjacent tooth a first identification step of identifying a second adjacent tooth adjacent to a plurality of teeth equal in number to or less than the first adjacent tooth;
A program for identification, comprising a second identification step of identifying the type of tooth included in the second adjacent tooth based on the identification result of the first identification step and a second estimation model including a second neural network.
JP2020113848A 2020-07-01 2020-07-01 Identification device, identification system, identification method, and identification program Active JP7227188B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020113848A JP7227188B2 (en) 2020-07-01 2020-07-01 Identification device, identification system, identification method, and identification program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020113848A JP7227188B2 (en) 2020-07-01 2020-07-01 Identification device, identification system, identification method, and identification program

Publications (2)

Publication Number Publication Date
JP2022012196A JP2022012196A (en) 2022-01-17
JP7227188B2 true JP7227188B2 (en) 2023-02-21

Family

ID=80148567

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020113848A Active JP7227188B2 (en) 2020-07-01 2020-07-01 Identification device, identification system, identification method, and identification program

Country Status (1)

Country Link
JP (1) JP7227188B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102570662B1 (en) * 2022-11-14 2023-08-28 변성철 Method for controlling a dental implant system with a library of tooth models of a particular race

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017084320A (en) 2015-03-06 2017-05-18 パナソニックIpマネジメント株式会社 Learning method and program
US20190180443A1 (en) 2017-11-07 2019-06-13 Align Technology, Inc. Deep learning for tooth detection and evaluation
JP2020096691A (en) 2018-12-17 2020-06-25 株式会社モリタ製作所 Identification device, scanner system, identification method, and program for identification

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017084320A (en) 2015-03-06 2017-05-18 パナソニックIpマネジメント株式会社 Learning method and program
US20190180443A1 (en) 2017-11-07 2019-06-13 Align Technology, Inc. Deep learning for tooth detection and evaluation
JP2020096691A (en) 2018-12-17 2020-06-25 株式会社モリタ製作所 Identification device, scanner system, identification method, and program for identification

Also Published As

Publication number Publication date
JP2022012196A (en) 2022-01-17

Similar Documents

Publication Publication Date Title
JP6650996B1 (en) Identification apparatus, scanner system, identification method, and identification program
US11651494B2 (en) Apparatuses and methods for three-dimensional dental segmentation using dental image data
CN110769777B (en) Automatic detection of tooth type and eruption status
US11534275B2 (en) Method for constructing a restoration
JP7220569B2 (en) Imaging support device, scanner system, and imaging support method
JP7398512B2 (en) Data generation device, scanner system, data generation method, and data generation program
JP6831432B2 (en) Identification device, tooth type identification system, identification method, and identification program
JP6831433B2 (en) Identification device, tooth type identification system, identification method, and identification program
JP7227188B2 (en) Identification device, identification system, identification method, and identification program
JP7030076B2 (en) Data generator, scanner system, data generation method, and data generation program
JP2023099629A (en) Identification device, scanner system, identification method, and identification program
JP6831431B2 (en) Identification device, tooth type identification system, identification method, and identification program
JP6900445B2 (en) Identification device, tooth type identification system, identification method, and identification program
JP7265359B2 (en) DATA GENERATION DEVICE, SCANNER SYSTEM, DATA GENERATION METHOD, AND DATA GENERATION PROGRAM
JP7195291B2 (en) DATA PROCESSING APPARATUS, DATA PROCESSING SYSTEM, DATA PROCESSING METHOD, AND DATA PROCESSING PROGRAM
JP7405809B2 (en) Estimation device, estimation method, and estimation program
JP7267974B2 (en) IDENTIFICATION DEVICE, SCANNER SYSTEM, IDENTIFICATION METHOD, AND IDENTIFICATION PROGRAM
US12002271B2 (en) Identification device, scanner system, and identification method
JP7195466B2 (en) DATA GENERATION DEVICE, SCANNER SYSTEM, DATA GENERATION METHOD, AND DATA GENERATION PROGRAM
JP2023058939A (en) Estimation device, estimation method, and estimation program
KR20240009900A (en) A method for processing image, an electronic apparatus and a computer readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230209

R150 Certificate of patent or registration of utility model

Ref document number: 7227188

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150