JP2024022277A - Periodontal pocket measurement apparatus and periodontal pocket measurement method - Google Patents

Periodontal pocket measurement apparatus and periodontal pocket measurement method Download PDF

Info

Publication number
JP2024022277A
JP2024022277A JP2022125738A JP2022125738A JP2024022277A JP 2024022277 A JP2024022277 A JP 2024022277A JP 2022125738 A JP2022125738 A JP 2022125738A JP 2022125738 A JP2022125738 A JP 2022125738A JP 2024022277 A JP2024022277 A JP 2024022277A
Authority
JP
Japan
Prior art keywords
periodontal pocket
point cloud
periodontal
scanner
cloud data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022125738A
Other languages
Japanese (ja)
Inventor
浩志 佐藤
Hiroshi Sato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DSI Corp
Original Assignee
DSI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DSI Corp filed Critical DSI Corp
Priority to JP2022125738A priority Critical patent/JP2024022277A/en
Publication of JP2024022277A publication Critical patent/JP2024022277A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)

Abstract

To provide a periodontal pocket measurement apparatus and a periodontal pocket measurement method which can correctly and easily measure a depth of a periodontal pocket.SOLUTION: A periodontal pocket measurement apparatus 1 comprises: a scanner 111 which acquires an oral cavity shape by imaging an oral cavity; an air blower 113 which jets compressed air to an imaging object when the scanner performs the imaging; and an information processing device 13. The scanner acquires point cloud data indicating the oral cavity shape while the air blower jets the compressed air to the imaging object. The information processing device comprises: a sensing data acquisition unit 131 which receives the point cloud data from the scanner; a model generation unit 133 which generates a model on the basis of the point cloud data; a recognition unit 135 which identifies a gum, a tooth root and a gingiva on the basis of a feature of the model; and a measurement unit 137 which measures a depth of a periodontal pocket on the basis of the identification result of the gum, the tooth root and the gingiva.SELECTED DRAWING: Figure 1

Description

本発明は、歯周ポケット測定装置及び歯周ポケット測定方法に関し、具体的には、歯周ポケットの深さを正確かつ簡便に測定する技術に関する。 The present invention relates to a periodontal pocket measuring device and a periodontal pocket measuring method, and specifically relates to a technique for accurately and simply measuring the depth of a periodontal pocket.

歯周病の進行度合いを示す指標として、歯周ポケットの深さが用いられている。歯周ポケットの深さとは、歯と歯肉の間の溝すなわち歯肉溝の深さのことである。歯周ポケットの深さは、健康な状態では1mmから3mm程度であるが、歯周病の進行に伴い3mmから6mm以上になることがある。 The depth of periodontal pockets is used as an indicator of the degree of progress of periodontal disease. Periodontal pocket depth refers to the depth of the groove between the teeth and the gums, or the gingival sulcus. The depth of periodontal pockets is approximately 1 mm to 3 mm in a healthy state, but may increase from 3 mm to 6 mm or more as periodontal disease progresses.

従来、歯周ポケットの深さの測定には、探針(プローブ)と呼ばれる目盛付きの針状の器具が用いられてきた。探針を歯肉溝に入れていき、止まったときの深さを実施者が目視で確認する。1本の歯につき歯肉の数カ所でこれを行う。このような工程による歯周ポケットの深さの測定は、多くの手間と時間を要するだけでなく、実施者による測定結果のばらつきが避けられないという課題があった。例えば、ある患者の歯周病の治療経過をトレースするためのエビデンスとして用いるにはばらつきが大きく、より安定かつ信頼できる測定方法が望まれていた。 Conventionally, a needle-shaped instrument with a scale called a probe has been used to measure the depth of periodontal pockets. The probe is inserted into the gingival sulcus, and the practitioner visually confirms the depth when it stops. Do this at several points on the gums for each tooth. Measuring the depth of periodontal pockets through such a process not only requires a lot of effort and time, but also has the problem of unavoidable variations in measurement results depending on the operator. For example, there is a large degree of variation in the use of evidence to trace the progress of periodontal disease treatment in a patient, and a more stable and reliable measurement method was desired.

一方、歯科業界におけるデジタル化(デジタルデンティストリー)の進展により、従来よりも簡易かつ高精度に治療を行うことができる機材が登場している。例えば、Intra Oral Scanner(IOS)と呼ばれる機器は、ワンドと呼ばれる読取器によって患者の口腔内を撮影し、口腔内形状をデジタルデータ(モデル)として出力することができる。典型的には、ワンドは対象物(歯牙や歯肉等)に対して光を放射し、反射光をセンサで検出することにより、対象物の3次元形状を示す点群データを取得する。 On the other hand, with the advancement of digitalization (digital dentistry) in the dental industry, equipment that can perform treatment more easily and with higher precision than before has appeared. For example, a device called an Intra Oral Scanner (IOS) can photograph the inside of a patient's oral cavity using a reader called a wand and output the shape of the oral cavity as digital data (model). Typically, a wand emits light toward an object (teeth, gums, etc.), and a sensor detects the reflected light, thereby acquiring point cloud data indicating the three-dimensional shape of the object.

しかしながら、IOSが撮影できるのは口腔内の可視領域のみであるため、通常は、歯肉溝下にある不可視領域をモデル化することができない。したがって、歯周ポケットの深さの測定用途にはIOSは不向きであると考えられてきた。 However, since IOS can only image the visible region within the oral cavity, it is usually not possible to model the invisible region below the gingival sulcus. Therefore, IOS has been considered unsuitable for measuring the depth of periodontal pockets.

関連技術として特許文献1及び2がある。特許文献1及び2には、スタイラス状の測定用治具によって歯の表面をなぞることで、歯肉縁下にある支台歯の形状を取得する口腔内スキャナが開示されている。 Related technologies include Patent Documents 1 and 2. Patent Documents 1 and 2 disclose intraoral scanners that acquire the shape of an abutment tooth located below the gingival margin by tracing the tooth surface with a stylus-like measuring jig.

特開2018-047299号公報Japanese Patent Application Publication No. 2018-047299 特表2016-508754号公報Special table 2016-508754 publication 特開2017-213060号公報JP2017-213060A

小野寺亮ほか,「レーサ゛反射強度を用いた色付き点群の補正手法」,[online],電子通信大学,[令和4年7月26日検索],インターネット<URL: http://www.ddm.mi.uec.ac.jp/papers/smt2015s_onodera.pdf>Ryo Onodera et al., “Correction method for colored point clouds using laser reflection intensity”, [online], University of Electronics and Communication, [searched on July 26, 2020], Internet <URL: http://www. ddm. mi. uec. ac. jp/papers/smt2015s_onodera. pdf>

本発明は、このような課題を解決するためになされたものであり、歯周ポケットの深さを正確かつ簡便に測定することが可能な歯周ポケット測定装置及び歯周ポケット測定方法を提供することを目的とする。 The present invention has been made to solve these problems, and provides a periodontal pocket measuring device and a periodontal pocket measuring method that can accurately and easily measure the depth of periodontal pockets. The purpose is to

本発明の一実施の形態に係る歯周ポケット測定装置は、口腔内を撮影して口腔内形状を取得するスキャナと、前記スキャナが前記撮影を行うとき、撮影対象に対し圧縮空気を噴射するエアーブロアーと、情報処理装置と、を含み、前記スキャナは、前記エアーブロアーが前記撮影対象に対し前記圧縮空気を噴射している間、前記口腔内形状を示す点群データを取得し、前記情報処理装置は、前記スキャナから前記点群データを受信するセンシングデータ取得部と、前記点群データに基づいてモデルを生成するモデル生成部と、前記モデルの特徴に基づいて、歯茎、歯根、歯肉を識別する認識部と、前記歯茎、歯根、歯肉の識別結果に基づいて歯周ポケットの深さを測定する測定部と、を有する。
一実施形態に係る歯周ポケット測定装置は、さらに、少なくとも前記歯周ポケットの深さに基づいて歯周病の進行度を判定する判定部と、を有する。
一実施の形態に係る歯周ポケット測定装置において、前記スキャナは、複数の前記点群データを連続的に取得し、前記認識部は、時間経過に伴う前記点群データの位置の変化の特徴に基づいて、歯と歯肉を識別する。
一実施の形態に係る歯周ポケット測定装置において、前記スキャナは、色情報を有する前記点群データを取得し、前記認識部は、前記点群データの位置の色情報に基づいて、前記歯茎、歯根、歯肉を識別する。
本発明の一実施の形態に係る歯周ポケット測定方法は、エアーブロアーが前記撮影対象に対し前記圧縮空気を噴射している間にスキャナが口腔内を撮影して得られた、口腔内形状を示す点群データを受信するセンシングデータ取得ステップと、前記点群データに基づいてモデルを生成するモデル生成ステップと、前記モデルの特徴に基づいて、歯茎、歯根、歯肉を識別する認識ステップと、前記歯茎、歯根、歯肉の識別結果に基づいて歯周ポケットの深さを測定する測定ステップと、を有する。
一実施の形態に係る歯周ポケット測定方法は、さらに、少なくとも前記歯周ポケットの深さに基づいて歯周病の進行度を判定する判定ステップと、を有する。
本発明の一実施の形態に係るプログラムは、上記方法をコンピュータに実行させる。
A periodontal pocket measuring device according to an embodiment of the present invention includes a scanner that photographs the inside of the oral cavity to obtain the shape of the oral cavity, and an air scanner that injects compressed air to the object to be photographed when the scanner performs the photographing. The scanner includes a blower and an information processing device, and the scanner acquires point cloud data indicating the intraoral shape while the air blower injects the compressed air to the imaging target, and performs the information processing. The device includes a sensing data acquisition unit that receives the point cloud data from the scanner, a model generation unit that generates a model based on the point cloud data, and identifies gums, tooth roots, and gingiva based on the characteristics of the model. and a measuring section that measures the depth of the periodontal pocket based on the identification results of the gums, tooth roots, and gingiva.
The periodontal pocket measuring device according to one embodiment further includes a determination unit that determines the degree of progress of periodontal disease based on at least the depth of the periodontal pocket.
In the periodontal pocket measuring device according to one embodiment, the scanner continuously acquires a plurality of the point cloud data, and the recognition unit recognizes characteristics of changes in position of the point cloud data over time. Identify teeth and gums based on.
In the periodontal pocket measuring device according to one embodiment, the scanner acquires the point cloud data having color information, and the recognition unit detects the gums, Identify the tooth root and gingiva.
In the periodontal pocket measuring method according to an embodiment of the present invention, a scanner images the inside of the oral cavity while an air blower injects the compressed air to the object to be imaged, and the intraoral shape is obtained. a sensing data acquisition step of receiving point cloud data indicating the point cloud; a model generation step of generating a model based on the point cloud data; a recognition step of identifying gums, tooth roots, and gingiva based on the characteristics of the model; and a measuring step of measuring the depth of the periodontal pocket based on the identification results of the gums, tooth roots, and gingiva.
The periodontal pocket measuring method according to one embodiment further includes a determination step of determining the degree of progress of periodontal disease based on at least the depth of the periodontal pocket.
A program according to an embodiment of the present invention causes a computer to execute the above method.

本発明により、歯周ポケットの深さを正確かつ簡便に測定することが可能な歯周ポケット測定装置及び歯周ポケット測定方法を提供することができる。 According to the present invention, it is possible to provide a periodontal pocket measuring device and a periodontal pocket measuring method that can accurately and easily measure the depth of a periodontal pocket.

歯周ポケット測定装置1の構成を示すブロック図である。1 is a block diagram showing the configuration of a periodontal pocket measuring device 1. FIG. ワンド11の外観を示す斜視図である。FIG. 2 is a perspective view showing the appearance of the wand 11. FIG. ワンド11の外観を示す斜視図である。FIG. 2 is a perspective view showing the appearance of the wand 11. FIG. 歯周ポケット測定装置1の動作を示すフローチャートである。It is a flowchart showing the operation of the periodontal pocket measuring device 1. 歯周ポケット測定装置1の動作を示すフローチャートである。It is a flowchart showing the operation of the periodontal pocket measuring device 1. 歯周ポケット測定装置1の動作を示すフローチャートである。It is a flowchart showing the operation of the periodontal pocket measuring device 1. 歯周ポケット測定装置1の動作を示すフローチャートである。It is a flowchart showing the operation of the periodontal pocket measuring device 1. 歯及び歯肉の模式図である。It is a schematic diagram of teeth and gums. 歯冠、歯根及び歯肉の模式図である。It is a schematic diagram of a tooth crown, a tooth root, and a gingiva.

以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。 Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.

図1は、本発明の実施の形態1にかかる歯周ポケット測定装置1の構成を示すブロック図である。歯周ポケット測定装置1は、ワンド11、情報処理装置13を含む。 FIG. 1 is a block diagram showing the configuration of a periodontal pocket measuring device 1 according to Embodiment 1 of the present invention. The periodontal pocket measuring device 1 includes a wand 11 and an information processing device 13.

ワンド11は、典型的には歯科医師や歯科衛生士をはじめとする医療スタッフ等(以下、単に歯科医師等という)が把持できるような形状を備えた杖状の機器であり、患者の口腔内形状を撮影するために使用される。図2は、本実施の形態におけるワンド11の外観を示す斜視図である。ワンド11は、スキャナ111、エアーブロアー113を備える。この例では、ワンド11の筐体内に、スキャナ111及びエアーブロアー113が内蔵されている。 The wand 11 is typically a cane-shaped device that can be grasped by medical staff such as dentists and dental hygienists (hereinafter simply referred to as dentists), and is Used to photograph shapes. FIG. 2 is a perspective view showing the appearance of the wand 11 in this embodiment. The wand 11 includes a scanner 111 and an air blower 113. In this example, a scanner 111 and an air blower 113 are built into the housing of the wand 11.

スキャナ111は、光源1111、センサ1113、カメラ1115を含む。光源1111は、対象物表面の複数の点に光を放射し、その反射光がセンサ1113によって検出される。カメラ1115は、好ましくは対象物表面のカラー画像を取得する。なお、カメラ1115はモノクロ画像を取得するものであっても良い。 Scanner 111 includes a light source 1111, a sensor 1113, and a camera 1115. The light source 1111 emits light to a plurality of points on the surface of the object, and the reflected light is detected by the sensor 1113. Camera 1115 preferably captures a color image of the object surface. Note that the camera 1115 may be one that captures monochrome images.

なお、図2では光源1111、センサ1113及びカメラ1115がワンド11の筐体の先端付近に露出し、並列に配置されている例を示したが、この配置は適宜変更されて良い。例えば、光源1111、センサ1113又はカメラ1115はワンド11の筐体内に外から見えないように配置されても良い。この場合、光源1111、センサ1113又はカメラ1115と筐体外部を結ぶ光路を設け、放射光又は反射光がこの光路を通るように設計することができる。 Note that although FIG. 2 shows an example in which the light source 1111, sensor 1113, and camera 1115 are exposed near the tip of the housing of the wand 11 and are arranged in parallel, this arrangement may be changed as appropriate. For example, the light source 1111, the sensor 1113, or the camera 1115 may be arranged inside the housing of the wand 11 so as not to be visible from the outside. In this case, an optical path connecting the light source 1111, sensor 1113, or camera 1115 to the outside of the housing can be provided, and the design can be such that the emitted light or reflected light passes through this optical path.

情報処理装置13は、センシングデータ取得部131、モデル生成部133、認識部135、測定部137、判定部139を含む。 The information processing device 13 includes a sensing data acquisition section 131, a model generation section 133, a recognition section 135, a measurement section 137, and a determination section 139.

センシングデータ取得部131は、センサ1113による反射光の検出結果を取得する。また、カメラ1115により撮影された対象物表面の画像を取得する。画像はカラー画像であることが好ましいが、モノクロ画像であっても良い。 The sensing data acquisition unit 131 acquires the detection result of the reflected light by the sensor 1113. Furthermore, an image of the surface of the object photographed by the camera 1115 is acquired. The image is preferably a color image, but may be a monochrome image.

モデル生成部133は、センサ1113による反射光の検出結果を使用して、例えばActive wavefront sampling法や共焦点法などの公知の手法により、スキャナ111から対象物表面の各点までの距離を特定する。また、この距離に基づいて、対象物表面の各点の3次元座標を特定する。この点の集合を点群データとという。 The model generation unit 133 uses the detection results of the reflected light by the sensor 1113 to identify the distance from the scanner 111 to each point on the object surface by a known method such as the active wavefront sampling method or the confocal method. . Furthermore, based on this distance, the three-dimensional coordinates of each point on the object surface are specified. This set of points is called point cloud data.

また、モデル生成部133は、カメラ1115が取得した対象物表面のカラー画像を使用して、点群データに色情報を付加する。通常、点群データは座標情報しか持たないが、2次元のカメラ画像上に3次元の点群データを写像し、対応する画素の色情報を点群データに対応づけることにより、点群データに色情報を持たせることができる(非特許文献1参照)。これを色付き点群データという。 Furthermore, the model generation unit 133 adds color information to the point cloud data using the color image of the object surface acquired by the camera 1115. Normally, point cloud data only has coordinate information, but by mapping 3D point cloud data onto a 2D camera image and associating the color information of the corresponding pixel with the point cloud data, point cloud data can be converted into point cloud data. Color information can be provided (see Non-Patent Document 1). This is called colored point cloud data.

なお、カメラ1115が取得した画像がモノクロである場合、モデル生成部133は、点群データにモノクロの色情報(白黒の濃淡を示す情報)を付加する。以下、モノクロの色情報が付加された点群データについても色付き点群データと称する。 Note that when the image acquired by the camera 1115 is monochrome, the model generation unit 133 adds monochrome color information (information indicating black and white shading) to the point cloud data. Hereinafter, point cloud data to which monochrome color information is added will also be referred to as colored point cloud data.

モデル生成部133は、色付き点群データ又は色付き点群データに基づいて作成した3次元データ(ポリゴンデータやCADデータ等)を、モデルとして出力する。 The model generation unit 133 outputs colored point group data or three-dimensional data (polygon data, CAD data, etc.) created based on the colored point group data as a model.

センシングデータ取得部131、モデル生成部133は、一定の間隔でセンシング及びモデル生成を繰り返し実行する。こうして生成した複数のモデルを使用することにより、モデルの時間的な変化(動きなど)を利用した各種処理が可能となる。 The sensing data acquisition unit 131 and the model generation unit 133 repeatedly perform sensing and model generation at regular intervals. By using a plurality of models generated in this way, various types of processing can be performed using temporal changes (such as movement) of the models.

認識部135は、モデル生成部133が出力したモデルから、歯冠、歯根、歯肉を認識する。典型的には、歯(歯冠、歯根を含む)と歯肉の判別手法として、エアーブロアー113噴射時の組織の動きに着目する手法と、組織の色に着目する手法がある。歯冠と歯根の判別手法としては、組織の色に着目する手法がある。そして動き、色いずれを用いる場合にも、閾値による判別手法と、機械学習による判別手法とがある。詳しくは後述する。 The recognition unit 135 recognizes the crown, tooth root, and gingiva from the model output by the model generation unit 133. Typically, methods for distinguishing between teeth (including crowns and roots) and gums include a method that focuses on the movement of the tissue when the air blower 113 is injected, and a method that focuses on the color of the tissue. One method for distinguishing between a tooth crown and a tooth root is to focus on the color of the tissue. Regardless of whether motion or color is used, there are a discrimination method based on a threshold value and a discrimination method based on machine learning. The details will be described later.

測定部137は、認識部135の認識結果を使用して、歯周ポケットの深さを測定する。詳しくは後述する。
測定部137は、測定した歯周ポケットの深さを画面表示したり、データベースやファイルに出力したり、帳票に印刷するなどして出力することができる。
The measurement unit 137 uses the recognition result of the recognition unit 135 to measure the depth of the periodontal pocket. The details will be described later.
The measurement unit 137 can output the measured periodontal pocket depth by displaying it on a screen, outputting it to a database or file, or printing it on a form.

判定部139は、モデル生成部133が出力したモデルが持つ情報(例えば色、動きなど)及び測定部137により測定された歯周ポケットの深さに基づいて、歯周病の進行度を判定する。詳しくは後述する。
判定部139は、判定した歯周病の進行度を画面表示したり、データベースやファイルに出力したり、帳票に印刷するなどして出力することができる。
The determining unit 139 determines the degree of progress of periodontal disease based on the information (for example, color, movement, etc.) possessed by the model output by the model generating unit 133 and the depth of the periodontal pocket measured by the measuring unit 137. . The details will be described later.
The determination unit 139 can output the determined degree of progress of periodontal disease by displaying it on a screen, outputting it to a database or file, or printing it on a form.

なお、情報処理装置13は、処理装置(CPU)、記憶装置、入出力装置、通信装置等のハードウェアを有している。上述の各処理部(131,133)は、CPUが記憶装置に格納されたプログラムを実行することによって論理的に実現される。 Note that the information processing device 13 includes hardware such as a processing device (CPU), a storage device, an input/output device, and a communication device. Each of the processing units (131, 133) described above is logically realized by the CPU executing a program stored in a storage device.

エアーブロアー113は、噴射口1131から圧縮空気を噴射する。図2の例では、スキャナ111の筐体の先端付近にエアーブロアー113の噴射口1131が設けられている。噴射口1131の向きは可変であることが好ましいが、固定されていても良い。いずれにしても、噴射口1131の向きは、対象物に効率良く圧縮空気を噴射できるように設定されているものとする。エアーブロアー113は、スキャナ111が対象物の撮影を行う際(撮影前又は撮影中を含む)、対象物に圧縮空気を噴射する。噴射された圧縮空気は、対象物の表面に存在する唾液や血液等を飛散させて除去する。これにより、スキャナ111は対象物表面からの正確な反射光を取得することができる。また、歯と歯肉の間のポケット状の領域(歯肉溝)内に圧縮空気を噴射すると、圧縮空気によりポケットが押し広げられる。これにより、圧排などの措置を要せずに、歯肉縁下の歯を容易に撮影することができる。 The air blower 113 injects compressed air from an injection port 1131. In the example of FIG. 2, an injection port 1131 of the air blower 113 is provided near the tip of the casing of the scanner 111. Although the direction of the injection port 1131 is preferably variable, it may be fixed. In any case, it is assumed that the direction of the injection port 1131 is set so that compressed air can be efficiently injected onto the target object. The air blower 113 injects compressed air to the target object when the scanner 111 photographs the target object (including before or during photographing). The injected compressed air scatters and removes saliva, blood, etc. present on the surface of the object. Thereby, the scanner 111 can acquire accurate reflected light from the surface of the object. Furthermore, when compressed air is injected into the pocket-like area (gingival sulcus) between the teeth and the gums, the pocket is expanded by the compressed air. Thereby, it is possible to easily image the teeth below the gingival margin without requiring measures such as exclusion.

エアーブロアー113は、スキャナ111の動作に連動して、圧縮空気の噴射を自動的に開始するよう構成されていても良い。又は、エアーブロアー113は、圧縮空気の噴射を手動で開始するためのボタン等を備えていても良い。 The air blower 113 may be configured to automatically start jetting compressed air in conjunction with the operation of the scanner 111. Alternatively, the air blower 113 may include a button or the like for manually starting the injection of compressed air.

エアーブロアー113の風量又は風圧は、固定であっても可変であっても良い。可変である場合、噴射時の風量又は風圧を示す情報を情報処理装置13が取得できることが望ましい。風量又は風圧を示す情報は、例えばm3/minやPaなどの単位で表される物理量であっても良いし、単純に1,2,3,..といった風量又は風圧の大小を示す設定値であっても良い。 The air volume or air pressure of the air blower 113 may be fixed or variable. If it is variable, it is desirable that the information processing device 13 be able to acquire information indicating the air volume or air pressure at the time of injection. The information indicating the air volume or wind pressure may be a physical quantity expressed in units such as m3/min or Pa, or simply expressed in units of 1, 2, 3, . .. It may be a set value indicating the magnitude of the air volume or wind pressure.

なお、図2の例では、スキャナ111とエアーブロアー113とは一体化されているが、両者は分離可能に構成されていても良い。例えば、図3に示すように、従来のスキャナ111に、アタッチメント1132を介してエアーブロアー113を外付けすることで、ワンド11を実現しても良い。 In the example of FIG. 2, the scanner 111 and the air blower 113 are integrated, but they may be configured to be separable. For example, as shown in FIG. 3, the wand 11 may be realized by externally attaching an air blower 113 to a conventional scanner 111 via an attachment 1132.

エアーブロアー113が、スキャナ111が対象物を撮影する際、対象物に圧縮空気を噴射することにより、唾液や血液等で対象物が濡れていたり、対象物が歯肉縁下にあったりするような状況でも、吸引又は圧排等の措置を要せずに、片手の操作のみで対象物の正確なモデルを取得することができる。したがって、従来よりも歯科医師等の手間や労力を軽減できる。また、患者の身体的負担も軽減できる。 When the scanner 111 photographs the object, the air blower 113 sprays compressed air onto the object, thereby preventing the object from being wet with saliva, blood, etc., or being located below the gingival margin. An accurate model of the object can be obtained with one-handed operation, without requiring any measures such as suction or exclusion. Therefore, the time and effort of dentists and the like can be reduced compared to conventional methods. In addition, the physical burden on the patient can be reduced.

<歯冠、歯根、歯肉の識別>
(1)振動特性の相違による手法
図5Aは、歯と歯肉の模式図である。歯と歯肉の間のポケット状の領域内に圧縮空気を噴射すると、圧縮空気によりポケットが押し広げられる。圧縮空気の噴射を受けた対象物(歯と歯肉)は振動するが、振動の特性は部位により大きく異なる。すなわち、比較的柔らかい歯肉と、固くて骨に固定された歯(歯冠、歯根を含む)とでは、振幅や周期に相違が生じるはずである。
<Identification of tooth crown, tooth root, and gingiva>
(1) Method based on differences in vibration characteristics FIG. 5A is a schematic diagram of teeth and gums. When compressed air is injected into the pocket-like area between the teeth and gums, the compressed air forces the pocket open. Objects (teeth and gums) that are sprayed with compressed air vibrate, but the characteristics of the vibrations vary greatly depending on the area. That is, there should be a difference in amplitude and period between relatively soft gums and teeth (including crowns and roots) that are hard and fixed to bone.

そこで、本実施の形態では、圧縮空気を噴射しながら、歯肉縁下の歯周辺の状態を連続的に撮影する。言い換えれば、所定のフレームレートで「動画」を撮影する。次に、撮影された動画を解析して、対象物の振動特性の相違を検出する。これにより、モデルに含まれる歯と歯肉とを判別する。認識部135が、歯と歯肉とを識別する処理を行う。 Therefore, in this embodiment, the state around the teeth under the gum line is continuously photographed while injecting compressed air. In other words, a "video" is shot at a predetermined frame rate. Next, the captured video is analyzed to detect differences in the vibration characteristics of the object. Thereby, teeth and gums included in the model are distinguished. The recognition unit 135 performs processing to identify teeth and gums.

図4Aのフローチャートを用いて、振動特性の相違により歯(歯冠、歯根を含む)と歯肉を判別する歯周ポケット測定装置1の動作例について説明する。 An example of the operation of the periodontal pocket measuring device 1 that discriminates between teeth (including crowns and roots) and gingiva based on differences in vibration characteristics will be described using the flowchart of FIG. 4A.

ステップ1:動画の撮影
歯科医師等は、ワンド11を歯肉縁下に向けて撮影を開始する。エアーブロアー113が動作を開始し、噴射された圧縮空気により歯と歯肉の間のポケットが押し広げられる。スキャナ111が撮影を開始し、所定の間隔(フレームレート)で、歯及び歯肉縁下の口腔内形状を連続的に撮影する。これにより、モデル生成部133は、時系列的に連続する複数のモデルを出力する。これは、いわば3次元の「動画」である。この「動画」は、情報処理装置13内の記憶装置に格納される。
Step 1: Shooting a video The dentist or the like points the wand 11 at the subgingival margin and starts shooting. The air blower 113 starts operating, and the pockets between the teeth and gums are expanded by the jetted compressed air. The scanner 111 starts photographing and continuously photographs the intraoral shape of the teeth and subgingival region at predetermined intervals (frame rate). Thereby, the model generation unit 133 outputs a plurality of models that are continuous in time series. This is, so to speak, a three-dimensional "video." This “video” is stored in a storage device within the information processing device 13.

ステップ2:特徴点の抽出
認識部135は、「動画」に含まれる各モデルから特徴点を抽出する。典型的には、モデルに含まれる点群の全部又は一部を特徴点として利用できる。
Step 2: Extraction of feature points The recognition unit 135 extracts feature points from each model included in the "video". Typically, all or part of the point group included in the model can be used as feature points.

ステップ3:特徴点の動きの算出
認識部135は、時間的に連続する複数のモデルを比較して、対応する特徴点を見つけ出し、各フレームにおける当該特徴点の座標を記録する。この処理を全てのフレームについて行う。すなわち、時刻t1におけるモデルにおける特徴点Nの座標n1、時刻t2におけるモデルにおける特徴点Nの座標n2、時刻t3におけるモデルにおける特徴点Nの座標n3・・・を順次特定する。そして、特徴点Nの動きを示すデータセット{n1,n2,n3・・・}を生成する。他の特徴点O,P,Q・・・についても同様に処理を行う。
Step 3: Calculating the movement of feature points The recognition unit 135 compares a plurality of temporally continuous models, finds corresponding feature points, and records the coordinates of the feature points in each frame. This process is performed for all frames. That is, the coordinate n1 of the feature point N in the model at time t1, the coordinate n2 of the feature point N in the model at time t2, the coordinate n3 of the feature point N in the model at time t3, etc. are sequentially specified. Then, a data set {n1, n2, n3...} indicating the movement of the feature point N is generated. Similar processing is performed for other feature points O, P, Q, . . . .

ステップ4:特徴点の動きの特性に基づく歯と歯肉との判別
認識部135は、特徴点の動きの特性の違いを検出する。典型的には、閾値による判別手法と、機械学習による判別手法とがある。
Step 4: Distinguish between teeth and gums based on characteristic point movement The recognition unit 135 detects a difference in the characteristic point movement. Typically, there are a discrimination method based on a threshold value and a discrimination method based on machine learning.

(閾値による判別)
認識部135は、特徴点Nの動きを示すデータセット{n1,n2,n3・・・}に基づいて、特徴点Nの動きを評価するための指標を算出する。例えば、特徴点Nが振動しているならば、その振幅及び周期を指標として算出することができる。他の特徴点O,P,Q・・・についても同様に指標を算出する。
(Discrimination based on threshold)
The recognition unit 135 calculates an index for evaluating the movement of the feature point N based on the data set {n1, n2, n3...} indicating the movement of the feature point N. For example, if the feature point N is vibrating, it can be calculated using its amplitude and period as indicators. Indices are similarly calculated for other feature points O, P, Q, and so on.

認識部135は、算出した指標に予め定義した閾値を適用することで、特徴点を分別する。例えば、振幅が閾値Xを超える特徴点に対しては歯肉を示すラベルを、閾値X以下の特徴点に対しては歯を示すラベルを付与する。ここで、閾値は、試験等により予め求められた値を採用することができる。例えば、患者の年齢や性別(図示しない記憶領域に予め記憶されているものとする)、エアーブロアー113の風量又は風圧を示す情報等に応じて異なる閾値が定義されていても良い。 The recognition unit 135 classifies feature points by applying a predefined threshold to the calculated index. For example, a label indicating gingiva is assigned to a feature point whose amplitude exceeds the threshold value X, and a label indicating teeth is assigned to a feature point whose amplitude is equal to or less than the threshold value X. Here, the threshold value may be a value determined in advance through a test or the like. For example, different threshold values may be defined depending on the patient's age and gender (assumed to be stored in advance in a storage area not shown), information indicating the air volume or air pressure of the air blower 113, and the like.

(機械学習による判別)
認識部135は、特徴点Nの動きを示すデータセット{n1,n2,n3・・・}を学習データとして使用し、機械学習を行うことにより、特徴点を支台歯と歯肉とに分別することができる。例えば、認識部135は、教師なし学習を行う機械学習部1351を有する。機械学習部1351は、多数の特徴点の動きを示すデータセットを学習データとして入力すると、その特性の違いを自動的に識別し、同じ特性を有する特徴点の集合(クラスタ)を形成する。機械学習部1351は、一方のクラスタに含まれる特徴点には歯肉を示すラベルを、他方のクラスタに含まれる特徴点には支台歯を示すラベルを付与する。
(Discrimination by machine learning)
The recognition unit 135 uses the dataset {n1, n2, n3...} indicating the movement of the feature points N as learning data and performs machine learning to classify the feature points into abutment teeth and gingiva. be able to. For example, the recognition unit 135 includes a machine learning unit 1351 that performs unsupervised learning. When the machine learning unit 1351 receives a data set indicating the movement of a large number of feature points as learning data, it automatically identifies differences in characteristics and forms a set (cluster) of feature points having the same characteristics. The machine learning unit 1351 assigns a label indicating gingiva to the feature points included in one cluster, and a label indicating an abutment tooth to the feature points included in the other cluster.

なお、機械学習部1351は、教師あり学習や深層学習など、他の公知の機械学習手法により、特徴点を支台歯と歯肉とに分別することとしても良い。例えば教師あり学習では、学習フェーズにおいて、特徴点の動きを示すデータセットと、その特徴点が支台歯又は歯肉のいずれであるかを示すラベルと、を組にした多数の既知の教師データを機械学習部1351に与える。これにより、機械学習部1351は、特徴点の動きを示すデータセットと、その特徴点が支台歯又は歯肉のいずれであるかを示すラベルと、の相関を徐々に学習する。学習が進むと、機械学習部1351は、特徴点の動きを示す未知のデータセットを入力して、その特徴点に相関の高いラベルを出力する、推定器として動作するようになる。 Note that the machine learning unit 1351 may classify the feature points into abutment teeth and gingiva using other known machine learning methods such as supervised learning and deep learning. For example, in supervised learning, in the learning phase, a large amount of known training data is used, which consists of a dataset showing the movement of a feature point and a label indicating whether the feature point is an abutment tooth or gingiva. The information is given to the machine learning unit 1351. Thereby, the machine learning unit 1351 gradually learns the correlation between the data set indicating the movement of the feature point and the label indicating whether the feature point is an abutment tooth or a gingiva. As learning progresses, the machine learning unit 1351 operates as an estimator that inputs an unknown data set indicating the movement of feature points and outputs a label with a high correlation to the feature points.

なお、学習フェーズ及び推定フェーズにおいては、特徴点の動きを示すデータセットの他に、例えば患者の年齢や性別、エアーブロアー113の風量又は風圧を示す情報等を入力しても良い。これにより、患者の年齢や性別、エアーブロアー113の風量又は風圧等に応じて最適な推定を行う学習モデルを生成することが可能となる。 In addition, in the learning phase and the estimation phase, in addition to the data set indicating the movement of the feature points, for example, information indicating the age and gender of the patient, the air volume or air pressure of the air blower 113, etc. may be input. This makes it possible to generate a learning model that performs optimal estimation according to the patient's age and gender, the air volume or air pressure of the air blower 113, and the like.

(2)色の相違による手法
図5Bは、図5Aの部分拡大図である。歯は、歯冠と歯根とに分けられる。一般に、歯冠部はエナメル質の特性である白に近い色を呈し、歯根部はセメント質の特性であるクリーム色に近い色を呈する。また、歯肉はピンク色や赤色を呈する。本実施の形態では色付き点群データを取得可能であるため、上述のような色の相違に着目して歯冠部、歯根部、歯肉を識別することが可能である。なお、モノクロ画像を使用する場合は、色を白黒の濃淡を示す情報に読み替えるものとする。
(2) Method based on color difference FIG. 5B is a partially enlarged view of FIG. 5A. Teeth are divided into crowns and roots. Generally, the crown of the tooth exhibits a color close to white, which is a characteristic of enamel, and the root of the tooth exhibits a color close to cream, which is a characteristic of cementum. Also, the gums appear pink or red. In this embodiment, since colored point cloud data can be acquired, it is possible to identify the crown, root, and gingiva by focusing on the difference in color as described above. Note that when using a monochrome image, the color should be read as information indicating black and white shading.

図4Bのフローチャートを用いて、色の相違により歯冠、歯根、歯肉を判別する歯周ポケット測定装置1の動作例について説明する。 An example of the operation of the periodontal pocket measuring device 1 that distinguishes the crown, root, and gingiva based on the difference in color will be described using the flowchart in FIG. 4B.

ステップ1:撮影
歯科医師等は、ワンド11を歯肉縁下に向けて撮影を開始する。エアーブロアー113が動作を開始し、噴射された圧縮空気により歯と歯肉の間のポケットが押し広げられる。スキャナ111が撮影を開始し、モデル生成部133は歯肉縁下の口腔内形状を示す3次元のモデルを出力する。このモデルは、色付き点群データを含んでいる。モデルは、情報処理装置13内の記憶装置に格納される。
Step 1: Imaging A dentist or the like points the wand 11 at the subgingival margin and starts imaging. The air blower 113 starts operating, and the pockets between the teeth and gums are expanded by the jetted compressed air. The scanner 111 starts photographing, and the model generation unit 133 outputs a three-dimensional model showing the intraoral shape of the subgingival region. This model includes colored point cloud data. The model is stored in a storage device within the information processing device 13.

ステップ2:特徴点の抽出
認識部135は、モデルから特徴点を抽出する。ここで特徴点には、座標情報のほか色情報も含める。典型的には、モデルに含まれる点群の全部又は一部を特徴点として利用できる。
Step 2: Extraction of feature points The recognition unit 135 extracts feature points from the model. Here, the feature points include color information as well as coordinate information. Typically, all or part of the point group included in the model can be used as feature points.

ステップ3:特徴点の色に基づく歯冠、歯根、歯肉の判別
認識部135は、特徴点の色の違いを検出する。典型的には、閾値による判別手法と、機械学習による判別手法とがある。
Step 3: Distinguishing tooth crown, tooth root, and gingiva based on the color of the feature points The recognition unit 135 detects differences in the colors of the feature points. Typically, there are a discrimination method based on a threshold value and a discrimination method based on machine learning.

(閾値による判別)
認識部135は、特徴点Nの色を評価するための指標を算出する。例えば、特徴点Nが保持している色情報のRGB値を指標として用いることができる。
(Discrimination based on threshold)
The recognition unit 135 calculates an index for evaluating the color of the feature point N. For example, the RGB values of color information held by the feature point N can be used as an index.

認識部135は、算出した指標に予め定義した閾値を適用することで、特徴点を分別する。例えば、RGBの各値がr1<R≦r2、g1<G≦g2、かつb1<B≦b2であれば歯冠、r3<R≦r4、g3<G≦g4、かつb3<B≦b4であれば歯根、r5<R≦r6、g5<G≦g6、かつb5<B≦b6であれば歯肉を示すラベルをそれぞれ付与する。ここで、閾値は、試験等により予め求められた値を採用することができる。例えば、患者の年齢や性別に応じて異なる閾値が定義されていても良い。 The recognition unit 135 classifies feature points by applying a predefined threshold to the calculated index. For example, if each RGB value is r1<R≦r2, g1<G≦g2, and b1<B≦b2, it is a tooth crown, and r3<R≦r4, g3<G≦g4, and b3<B≦b4. If so, a label indicating the tooth root, and if r5<R≦r6, g5<G≦g6, and b5<B≦b6, a label indicating the gingiva is provided, respectively. Here, the threshold value may be a value determined in advance through a test or the like. For example, different threshold values may be defined depending on the age and gender of the patient.

同様の手法として色クラスタリング、減色又は単純化がある。色クラスタリングは、例えばK-means法などの公知技術により実現できる。特徴点の色は実際にはそれぞれ異なるところ、色数Kを指定して色クラスタリングをおこなうことにより、特徴点の色をK個の色に分類することができる。認識部135は、各クラスタに分類された特徴点に対し、クラスタ(歯冠、歯根、歯肉)を示すラベルを付与する。 Similar techniques include color clustering, color reduction or simplification. Color clustering can be realized by a known technique such as the K-means method. Although the colors of the feature points are actually different, by specifying the number of colors K and performing color clustering, the colors of the feature points can be classified into K colors. The recognition unit 135 assigns a label indicating the cluster (dental crown, tooth root, gingiva) to the feature points classified into each cluster.

(機械学習による判別)
認識部135は、特徴点Nの色情報を学習データとして使用し、機械学習を行うことにより、特徴点を歯冠、歯根、歯肉に分別することができる。例えば、認識部135は、教師なし学習を行う機械学習部1351を有する。機械学習部1351は、多数の特徴点の色を示すデータセットを学習データとして入力すると、その特性の違いを自動的に識別し、同じ特性を有する特徴点の集合(クラスタ)を形成する。機械学習部1351は、白に近い色クラスタに含まれる特徴点には歯冠を示すラベルを、クリーム色に近い色クラスタに含まれる特徴点には歯根を示すラベルを、赤色に近い色クラスタに含まれる特徴点には歯肉を示すラベルを付与する。
(Discrimination by machine learning)
The recognition unit 135 can classify the feature points into crowns, roots, and gums by performing machine learning using the color information of the feature points N as learning data. For example, the recognition unit 135 includes a machine learning unit 1351 that performs unsupervised learning. When the machine learning unit 1351 receives a data set indicating the colors of a large number of feature points as learning data, it automatically identifies differences in the characteristics and forms a set (cluster) of feature points having the same characteristics. The machine learning unit 1351 assigns a label indicating a tooth crown to a feature point included in a color cluster close to white, a label indicating a tooth root to a feature point included in a color cluster close to cream color, and a label indicating a tooth root to a feature point included in a color cluster close to red. A label indicating gingiva is given to the included minutiae.

なお、機械学習部1351は、教師あり学習や深層学習など、他の公知の機械学習手法により、特徴点を歯冠、歯根、歯肉とに分別することとしても良い。例えば教師あり学習では、学習フェーズにおいて、特徴点の色を示すデータと、その特徴点が歯冠、歯根、歯肉のいずれであるかを示すラベルと、を組にした多数の既知の教師データを機械学習部1351に与える。これにより、機械学習部1351は、特徴点の色を示すデータと、その特徴点が歯冠、歯根、歯肉のいずれであるかを示すラベルと、の相関を徐々に学習する。学習が進むと、機械学習部1351は、特徴点の色を示す未知のデータを入力して、その特徴点に相関の高いラベルを出力する、推定器として動作するようになる。 Note that the machine learning unit 1351 may use other known machine learning methods such as supervised learning and deep learning to classify feature points into crowns, roots, and gingiva. For example, in supervised learning, during the learning phase, a large amount of known training data is used, which is a set of data indicating the color of a feature point and a label indicating whether the feature point is a crown, root, or gingiva. The information is given to the machine learning unit 1351. Thereby, the machine learning unit 1351 gradually learns the correlation between the data indicating the color of the feature point and the label indicating whether the feature point is a crown, a tooth root, or a gingiva. As learning progresses, the machine learning unit 1351 operates as an estimator that inputs unknown data indicating the color of a feature point and outputs a label with a high correlation to the feature point.

なお、学習フェーズ及び推定フェーズにおいては、特徴点の色を示すデータの他に、例えば患者の年齢や性別を示す情報等を入力しても良い。これにより、患者の年齢や性別に応じて最適な推定を行う学習モデルを生成することが可能となる。 Note that in the learning phase and the estimation phase, in addition to the data indicating the color of the feature points, information indicating the patient's age and gender, for example, may be input. This makes it possible to generate a learning model that performs optimal estimation according to the patient's age and gender.

ステップ4:歯の種類の判別
認識部135は、特徴点群に含まれる歯のひとつひとつを認識し、それぞれの種類を特定する。すなわち、各歯の種類(一般に中切歯、側切歯、犬歯・・・といった名称や、1番、2番、3番・・・といった番号で識別される)を特定する。この処理は、例えば特許文献3に記載されているような公知技術を利用することで実現できる。
Step 4: Determining tooth type The recognition unit 135 recognizes each tooth included in the feature point group and specifies the type of each tooth. That is, the type of each tooth (generally identified by a name such as central incisor, lateral incisor, canine, etc., or a number such as No. 1, No. 2, No. 3, etc.) is specified. This process can be realized by using a known technique such as that described in Patent Document 3, for example.

<歯周ポケットの深さの測定>
測定部137は、認識部135により歯冠、歯根、歯肉に分類された特徴点を使用して、歯周ポケットの深さを測定する。
(1)歯冠-歯根境界からポケット底までの深さを測定する手法
測定部137は、歯冠-歯根境界からポケット底までの深さ(図5B参照)を測定し、これを歯周ポケットの深さとして出力する。図4Cのフローチャートを用いて、歯周ポケット測定装置1の動作例について説明する。
<Measurement of periodontal pocket depth>
The measurement unit 137 measures the depth of the periodontal pocket using the feature points classified by the recognition unit 135 into crowns, roots, and gingiva.
(1) Method for measuring the depth from the crown-tooth root boundary to the pocket bottom The measuring unit 137 measures the depth from the crown-tooth root boundary to the pocket bottom (see FIG. 5B), and measures this depth in the periodontal pocket. Output as depth. An example of the operation of the periodontal pocket measuring device 1 will be described using the flowchart in FIG. 4C.

ステップ1:歯冠-歯根境界線の特定
測定部137は、歯冠-歯根の境界線を特定する。具体的には、例えば歯冠クラスタに属する特徴点群と、歯根クラスタに属する特徴点群の境界線を示す3次元の曲線オブジェクトを生成する。
Step 1: Identifying the tooth crown-tooth root boundary line The measuring unit 137 identifies the tooth crown-tooth root boundary line. Specifically, for example, a three-dimensional curved object is generated that indicates a boundary line between a group of feature points belonging to a tooth crown cluster and a group of feature points belonging to a tooth root cluster.

ステップ2:ポケット底の特定
測定部137は、ポケット底を特定する。具体的には、例えば歯根クラスタに属する特徴点群と、歯肉クラスタに属する特徴点群の境界線を示す3次元の曲線オブジェクトを生成する。又は、測定部137は、単に歯肉の最も低いところを繋いだ線を示す3次元の曲線オブジェクトを生成し、ポケット底としても良い。
Step 2: Identifying the bottom of the pocket The measuring unit 137 identifies the bottom of the pocket. Specifically, for example, a three-dimensional curved object is generated that indicates a boundary line between a group of feature points belonging to a tooth root cluster and a group of feature points belonging to a gum cluster. Alternatively, the measurement unit 137 may simply generate a three-dimensional curved object indicating a line connecting the lowest points of the gums, and use this object as the pocket bottom.

ステップ3:測定点の設定
一般に、歯周ポケットの深さの測定は、歯1本あたり数カ所の測定点で行われる。ここでいう測定点とは、従来、歯肉溝に探針を差し込んでいた場所のことである。同様に、測定部137は、歯冠-歯根境界線上に複数の測定点を設定する。設定する測定点の数及び設定の方法は任意である。
Step 3: Setting measurement points Generally, periodontal pocket depth is measured at several measurement points per tooth. The measurement point here refers to the location where a probe was conventionally inserted into the gingival sulcus. Similarly, the measurement unit 137 sets a plurality of measurement points on the crown-tooth root boundary line. The number of measurement points to be set and the setting method are arbitrary.

ステップ4:歯周ポケットの深さの測定
測定部137は、歯冠-歯根境界線上に設定した測定点と、測定点から最も近いポケット底上の点と、の垂直距離(高さの差分)を算出し、歯周ポケットの深さとして出力する。
Step 4: Measuring the depth of the periodontal pocket The measuring unit 137 measures the vertical distance (difference in height) between the measurement point set on the crown-tooth root boundary line and the point on the bottom of the pocket closest to the measurement point. is calculated and output as the periodontal pocket depth.

なお、ステップ3の測定点はポケット底上に設けても良い。この場合、測定部137はステップ4で、ポケット底上に設定した測定点と、測定点から最も近い歯冠-歯根境界線上の点と、の垂直距離(高さの差分)を算出し、歯周ポケットの深さとして出力する。
(2)歯肉頂からポケット底までの深さを測定する手法
測定部137は、歯肉頂からポケット底までの深さ(図5B参照)を測定し、これを歯周ポケットの深さとして出力する。図4Dのフローチャートを用いて、歯周ポケット測定装置1の動作例について説明する。
Note that the measurement point in step 3 may be provided on the bottom of the pocket. In this case, in step 4, the measurement unit 137 calculates the vertical distance (difference in height) between the measurement point set on the pocket bottom and the point on the tooth crown-tooth root boundary line closest to the measurement point, and Output as the depth of the circumferential pocket.
(2) Method of measuring the depth from the gingival crest to the pocket bottom The measuring unit 137 measures the depth from the gingival crest to the pocket bottom (see FIG. 5B) and outputs this as the depth of the periodontal pocket. . An example of the operation of the periodontal pocket measuring device 1 will be described using the flowchart in FIG. 4D.

ステップ1:ポケット底の特定
測定部137は、ポケット底を特定する。具体的には、例えば歯根クラスタに属する特徴点群と、歯肉クラスタに属する特徴点群の境界線を示す3次元の曲線オブジェクトを生成する。又は、測定部137は、単に歯肉の最も低いところを繋いだ線を示す3次元の曲線オブジェクトを生成し、ポケット底としても良い。
Step 1: Identifying the Pocket Bottom The measuring unit 137 identifies the pocket bottom. Specifically, for example, a three-dimensional curved object is generated that indicates a boundary line between a group of feature points belonging to a tooth root cluster and a group of feature points belonging to a gum cluster. Alternatively, the measurement unit 137 may simply generate a three-dimensional curved object indicating a line connecting the lowest points of the gums, and use this object as the pocket bottom.

ステップ2:歯肉頂線の設定
測定部137は、歯肉頂(歯肉の最も高いところ)を繋いだ線(歯肉頂線という)を示す3次元の曲線オブジェクトを生成する。
Step 2: Setting the gingival crest line The measuring unit 137 generates a three-dimensional curve object indicating a line (referred to as a gingival crest line) connecting the gingival crests (the highest points of the gums).

ステップ3:測定点の設定
測定部137は、ポケット底上に複数の測定点を設定する。設定する測定点の数及び設定の方法は任意である。
Step 3: Setting measurement points The measurement unit 137 sets a plurality of measurement points on the bottom of the pocket. The number of measurement points to be set and the setting method are arbitrary.

ステップ4:歯周ポケットの深さの測定
測定部137は、ポケット底上に設定した測定点と、測定点から最も近い歯肉頂線上の点と、の垂直距離(高さの差分)を算出し、歯周ポケットの深さとして出力する。
Step 4: Measurement of periodontal pocket depth The measurement unit 137 calculates the vertical distance (difference in height) between the measurement point set on the pocket bottom and the point on the gingival crest line closest to the measurement point. , output as periodontal pocket depth.

なお、ステップ3の測定点は歯肉頂線上に設けても良い。この場合、測定部137はステップ4で、歯肉頂線上に設定した測定点と、測定点から最も近いポケット底上の点と、の垂直距離(高さの差分)を算出し、歯周ポケットの深さとして出力する。 Note that the measurement point in step 3 may be provided on the gingival crest line. In this case, in step 4, the measuring unit 137 calculates the vertical distance (difference in height) between the measurement point set on the gingival crest line and the point on the bottom of the pocket closest to the measurement point, and Output as depth.

<歯周ポケットの進行度の判定>
判定部139は、モデルが持つ情報(例えば歯肉などの色、エアを噴射した際の歯肉の動きなど)、歯周ポケットの深さに基づいて、歯周病の進行度を判定する。
<Determination of progress of periodontal pockets>
The determination unit 139 determines the degree of progress of periodontal disease based on information possessed by the model (for example, the color of the gums, movement of the gums when air is injected, etc.) and the depth of periodontal pockets.

歯周病の進行に伴い、歯周ポケットの深さは増加する傾向があることが知られている。また、歯肉が炎症を起こすことにより、鬱血して歯肉が赤みがかったり、歯肉に締まりがなくなるためエアを噴射した際の振動が大きくなったりする傾向がある。従来は、これらの所見を総合して歯科医師が歯周病の進行度を判定していた。しかしながら、その判定にばらつきがあると、例えば歯周病の治療の成果を正確にトレースすることが困難になってしまう。そこで、本実施の形態では、機械学習により歯周病の進行度合いを判定し、より客観的なデータに基づく治療を支援する。 It is known that the depth of periodontal pockets tends to increase as periodontal disease progresses. In addition, when the gums become inflamed, they become congested and become reddish, and the gums tend to become loose and vibrate when air is injected. Conventionally, dentists have determined the degree of progress of periodontal disease by integrating these findings. However, if there are variations in the determination, it becomes difficult to accurately trace the results of treatment for, for example, periodontal disease. Therefore, in this embodiment, the degree of progression of periodontal disease is determined by machine learning to support treatment based on more objective data.

機械学習部1351は、教師あり学習や深層学習など、公知の機械学習手法により、歯周病の進行度を判定することができる。例えば教師あり学習では、学習フェーズにおいて、特徴点の座標及び色情報、特徴点の動きを示す時系列データ(図4Aのステップ3参照)又は特徴点の動きを示す指標(振幅、周期、振動数など)、測定点の座標、測定点における歯周ポケットの深さなどを含むデータセットと、歯周病の進行度を示すラベルと、を組にした多数の既知の教師データを機械学習部1351に与える。ここで歯周病の進行度を示すラベルは、歯科医師による診断結果を用いることができる。例えば、歯科医師は、歯周ポケットの深さが3mm以下であれば「健康」、歯周ポケットの深さが3-5mm程度であって、歯肉が赤く腫れブヨブヨしているときは「軽度歯周病」、歯周ポケットの深さが5-7mm程度であって歯槽骨が溶け始めているときは「中度歯周病」、歯周ポケットの深さが7mm以上であって骨吸収が進み歯がぐらぐらしているときは「重度歯周病」と診断することがある。このような「健康」「軽度歯周病」「中度歯周病」「重度歯周病」といった診断結果が、学習フェーズにおけるラベルとして使用されうる。 The machine learning unit 1351 can determine the degree of progress of periodontal disease using known machine learning techniques such as supervised learning and deep learning. For example, in supervised learning, in the learning phase, coordinates and color information of feature points, time series data indicating the movement of the feature points (see step 3 in Figure 4A), or indicators indicating the movement of the feature points (amplitude, period, frequency The machine learning unit 1351 generates a large number of known training data that is a set of data sets including coordinates of measurement points, depths of periodontal pockets at measurement points, etc.), and labels indicating the degree of progress of periodontal disease. give to Here, the label indicating the degree of progress of periodontal disease can be based on the diagnosis result by a dentist. For example, dentists consider a periodontal pocket depth of 3 mm or less to be considered "healthy," and a periodontal pocket depth of about 3 to 5 mm with red, swollen, and swollen gums to be considered "mild dental health." ``periodontal disease'', when the periodontal pocket depth is about 5-7 mm and the alveolar bone has begun to dissolve, ``moderate periodontal disease'', and when the periodontal pocket depth is 7 mm or more, bone resorption has progressed. If your teeth are loose, you may be diagnosed with ``severe periodontal disease.'' Such diagnostic results such as "healthy", "mild periodontal disease", "moderate periodontal disease", and "severe periodontal disease" can be used as labels in the learning phase.

これにより、機械学習部1351は、データセットに含まれる種々の情報と、歯周病の進行度を示すラベルと、の相関を徐々に学習する。学習が進むと、機械学習部1351は、未知のデータセットを入力して、そのデータセットに相関の高いラベルすなわち歯周病の進行度を出力する、推定器として動作するようになる。 Thereby, the machine learning unit 1351 gradually learns the correlation between various information included in the data set and the label indicating the degree of progress of periodontal disease. As the learning progresses, the machine learning unit 1351 operates as an estimator that inputs an unknown data set and outputs a label highly correlated with the data set, that is, the degree of progress of periodontal disease.

なお、判定部139は、モデルが持つ情報(例えば歯肉などの色、エアを噴射した際の歯肉の動きなど)、歯周ポケットの深さに加えて、患者の年齢、歯の種類に関する情報を利用して歯周病の進行度を判定しても良い。歯肉の退縮の進行状況は、患者の年齢、歯の種類によってある程度異なることが知られている。これらの情報を利用することにより、患者の年齢、歯の種類に応じたより適切な判定が可能となる。 In addition to the information held by the model (for example, the color of the gingiva, the movement of the gingiva when air is injected, etc.) and the depth of the periodontal pocket, the determination unit 139 also collects information regarding the patient's age and tooth type. It may be used to determine the degree of progress of periodontal disease. It is known that the progress of gingival recession varies to some extent depending on the age of the patient and the type of teeth. By using this information, more appropriate judgments can be made according to the patient's age and tooth type.

この場合も、機械学習部1351は、教師あり学習や深層学習など、公知の機械学習手法により、患者の年齢、歯の種類を加味して歯周病の進行度を判定することができる。例えば教師あり学習では、学習フェーズにおいて、特徴点の座標及び色情報、特徴点の動きを示す時系列データ又は特徴点の動きを示す指標、測定点の座標、測定点における歯周ポケットの深さ、測定点が設定された歯の種類(認識部135が特定したものを使用する)、患者の年齢(図示しない記憶領域に予め記憶されているものとする)を含むデータセットと、歯周病の進行度を示すラベルと、を組にした多数の既知の教師データを機械学習部1351に与える。ここで歯周病の進行度を示すラベルは、歯科医師による診断結果を用いることができる。 In this case as well, the machine learning unit 1351 can determine the degree of progress of periodontal disease by using known machine learning methods such as supervised learning and deep learning, taking into account the age of the patient and the type of teeth. For example, in supervised learning, in the learning phase, the coordinates and color information of the feature points, time series data indicating the movement of the feature points or indicators indicating the movement of the feature points, the coordinates of the measurement point, the depth of the periodontal pocket at the measurement point , the type of tooth for which the measurement point was set (the one specified by the recognition unit 135 is used), the patient's age (assumed to be stored in advance in a storage area not shown), and periodontal disease. The machine learning unit 1351 is provided with a large number of known teacher data, each pairing with a label indicating the degree of progress. Here, the label indicating the degree of progress of periodontal disease can be based on the diagnosis result by a dentist.

これにより、機械学習部1351は、患者の年齢、歯の種類に関する情報を含むデータセットと、歯周病の進行度を示すラベルと、の相関を徐々に学習する。学習が進むと、機械学習部1351は、未知のデータセットを入力して、そのデータセットに相関の高いラベルすなわち歯周病の進行度を出力する、推定器として動作するようになる。 Thereby, the machine learning unit 1351 gradually learns the correlation between the data set including information regarding the patient's age and tooth type, and the label indicating the degree of progress of periodontal disease. As the learning progresses, the machine learning unit 1351 operates as an estimator that inputs an unknown data set and outputs a label highly correlated with the data set, that is, the degree of progress of periodontal disease.

<測定結果、判定結果の保存及び利用>
測定部137は、測定した歯周ポケットの深さの測定結果を、例えば患者の識別子や測定日時と共に、図示しない記憶領域に保存することができる。同様に、判定部139は、歯周病の進行度の判定結果を、患者の識別子や測定日時と共に、図示しない記憶領域に保存することができる。この際、測定又は判定に使用されたカメラ撮影画像やセンシングデータ、モデル等と共に保存しても良い。
<Storage and use of measurement results and judgment results>
The measurement unit 137 can store the measured periodontal pocket depth measurement results in a storage area (not shown) together with, for example, the patient's identifier and the measurement date and time. Similarly, the determination unit 139 can save the determination result of the degree of progression of periodontal disease, together with the patient's identifier and the date and time of measurement, in a storage area (not shown). At this time, it may be saved together with camera images, sensing data, models, etc. used for measurement or determination.

患者が歯科医院に来院するたびに上述の測定及び判定を行うと、各患者の歯周ポケットの深さ、歯周病の進行度に関する履歴情報が時系列で蓄積されていくことになる。この履歴情報は、患者の治療経過を示すエビデンスとして利用することができる。例えば、過去複数回分の、各測定点における歯周ポケットの深さの測定結果、歯周病の進行度の判定結果、カメラ撮影画像を表やタイムライン等の形式で並べて表示する。歯周ポケットの深さの測定結果のような数値データであれば、グラフによりその時間変化を表現することもできる。これらの時系列の情報に基づいて、患者の歯周病が改善している、又は歯周病が悪化しているといった判断を提示しても良い。これらの表示は、例えば画面、ファイル、帳票等に出力することで実現されうる。 If the above-mentioned measurements and judgments are performed every time a patient visits a dental clinic, historical information regarding the depth of each patient's periodontal pockets and the degree of progress of periodontal disease will be accumulated in chronological order. This history information can be used as evidence showing the patient's treatment progress. For example, the results of measuring the depth of periodontal pockets at each measurement point, the results of determining the degree of progress of periodontal disease, and the images taken by the camera from multiple past measurements are displayed side by side in a table, timeline, or the like. If it is numerical data such as the measurement results of periodontal pocket depth, its changes over time can be expressed using a graph. Based on this time-series information, a determination that the patient's periodontal disease is improving or worsening may be presented. These displays can be realized by outputting to a screen, file, form, etc., for example.

なお、上述の実施の形態では、特徴点の座標及び色情報、特徴点の動きを示す時系列データ(図4Aのステップ3参照)又は特徴点の動きを示す指標(振幅、周期、振動数など)、測定点の座標、測定点における歯周ポケットの深さなどをデータセットに含めうることとしたが、これらはあくまで例示であり、これらの情報の一部のみを利用してもよく、ここに示されていない情報をデータセットに含めることとしても良い。 In the above-described embodiment, coordinates and color information of the feature points, time series data indicating the movement of the feature points (see step 3 in FIG. 4A), or indicators indicating the movement of the feature points (amplitude, period, frequency, etc.) are used. ), the coordinates of the measurement point, the depth of the periodontal pocket at the measurement point, etc. can be included in the dataset, but these are just examples, and only part of this information may be used. It is also possible to include information not shown in the data set.

本実施の形態によれば、歯周ポケット測定装置1は、時系列的に連続するモデルデータを解析することにより、歯と歯肉とを、その挙動の違いに応じて判別することができる。また、色付き点群データを利用することにより、歯茎、歯根、歯肉を色の違いに応じて判別することができる。そして、これらの解析結果に基づいて歯周ポケットの深さを正確かつ簡便に推定し、また歯周病の進行度を客観的に判定することができる。 According to the present embodiment, the periodontal pocket measuring device 1 can distinguish between teeth and gingiva according to the difference in their behavior by analyzing model data that is continuous over time. In addition, by using colored point cloud data, it is possible to distinguish between gums, tooth roots, and gingiva according to differences in color. Based on these analysis results, the depth of periodontal pockets can be accurately and easily estimated, and the degree of progression of periodontal disease can be objectively determined.

なお、本発明は上述の実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲において適宜変更することが可能である。例えば、上述の実施の形態において、歯周ポケット測定装置1は3次元点群データを取得したが、例えば2次元の画像データを取得するものであっても良い。この場合、モデル生成部133は、複数の2次元画像データに基づいて3次元モデルを構築することができる。なお、2次元画像からの3次元モデル構築手法は公知技術であるため詳細な説明は割愛する。 Note that the present invention is not limited to the above-described embodiments, and can be modified as appropriate without departing from the spirit of the present invention. For example, in the above-described embodiment, the periodontal pocket measuring device 1 acquires three-dimensional point group data, but it may also acquire, for example, two-dimensional image data. In this case, the model generation unit 133 can construct a three-dimensional model based on a plurality of two-dimensional image data. Note that since the method of constructing a three-dimensional model from two-dimensional images is a known technique, a detailed explanation will be omitted.

また、歯周ポケット測定装置1は、点群データを取得する際、色情報(白黒の濃淡に関する情報も含む)に加えて温度等に関する情報を追加で取得しても良い。この場合、例えば、機械学習部1351がこれらの追加的な情報を学習データとして用いるならば、判別精度を向上させることが可能である。 Further, when acquiring point cloud data, the periodontal pocket measuring device 1 may additionally acquire information regarding temperature and the like in addition to color information (including information regarding black and white shading). In this case, for example, if the machine learning unit 1351 uses this additional information as learning data, it is possible to improve the discrimination accuracy.

1 歯周ポケット測定装置
11 ワンド
111 スキャナ
1111 光源
1113 センサ
1115 カメラ
113 エアーブロアー
1131 噴射口
1132 アタッチメント
13 情報処理装置
131 センシングデータ取得部
133 モデル生成部
135 認識部
1351 機械学習部
137 測定部
139 判定部
1 Periodontal pocket measurement device 11 Wand 111 Scanner 1111 Light source 1113 Sensor 1115 Camera 113 Air blower 1131 Nozzle 1132 Attachment 13 Information processing device 131 Sensing data acquisition section 133 Model generation section 135 Recognition section 1351 Machine learning section 137 Measurement section 139 Judgment section

Claims (8)

口腔内を撮影して口腔内形状を取得するスキャナと、
前記スキャナが前記撮影を行うとき、撮影対象に対し圧縮空気を噴射するエアーブロアーと、
情報処理装置と、を含み、
前記スキャナは、前記エアーブロアーが前記撮影対象に対し前記圧縮空気を噴射している間、前記口腔内形状を示す点群データを取得し、
前記情報処理装置は、
前記スキャナから前記点群データを受信するセンシングデータ取得部と、
前記点群データに基づいてモデルを生成するモデル生成部と、
前記モデルの特徴に基づいて、歯茎、歯根、歯肉を識別する認識部と、
前記歯茎、歯根、歯肉の識別結果に基づいて歯周ポケットの深さを測定する測定部と、
を有する、
歯周ポケット測定装置。
A scanner that photographs the inside of the oral cavity and obtains the shape of the oral cavity,
an air blower that injects compressed air to the object to be imaged when the scanner performs the imaging;
an information processing device;
The scanner acquires point cloud data indicating the intraoral shape while the air blower injects the compressed air to the imaging target;
The information processing device includes:
a sensing data acquisition unit that receives the point cloud data from the scanner;
a model generation unit that generates a model based on the point cloud data;
a recognition unit that identifies gums, tooth roots, and gingiva based on the characteristics of the model;
a measurement unit that measures the depth of periodontal pockets based on the identification results of the gums, tooth roots, and gingiva;
has,
Periodontal pocket measuring device.
さらに、少なくとも前記歯周ポケットの深さに基づいて歯周病の進行度を判定する判定部と、を有する
請求項1記載の歯周ポケット測定装置。
The periodontal pocket measuring device according to claim 1, further comprising a determination unit that determines the degree of progress of periodontal disease based on at least the depth of the periodontal pocket.
前記スキャナは、複数の前記点群データを連続的に取得し、
前記認識部は、時間経過に伴う前記点群データの位置の変化の特徴に基づいて、歯と歯肉を識別する
請求項1記載の歯周ポケット測定装置。
The scanner continuously acquires the plurality of point cloud data,
The periodontal pocket measuring device according to claim 1, wherein the recognition unit identifies teeth and gums based on characteristics of changes in position of the point cloud data over time.
前記スキャナは、色情報を有する前記点群データを取得し、
前記認識部は、前記点群データの位置の色情報に基づいて、前記歯茎、歯根、歯肉を識別する
請求項1記載の歯周ポケット測定装置。
the scanner acquires the point cloud data having color information;
The periodontal pocket measuring device according to claim 1, wherein the recognition unit identifies the gums, tooth roots, and gingiva based on color information of positions of the point cloud data.
エアーブロアーが撮影対象に対し圧縮空気を噴射している間にスキャナが口腔内を撮影して得られた、口腔内形状を示す点群データを受信するセンシングデータ取得ステップと、
前記点群データに基づいてモデルを生成するモデル生成ステップと、
前記モデルの特徴に基づいて、歯茎、歯根、歯肉を識別する認識ステップと、
前記歯茎、歯根、歯肉の識別結果に基づいて歯周ポケットの深さを測定する測定ステップと、を有する
歯周ポケット測定方法。
a sensing data acquisition step of receiving point cloud data indicating the intraoral shape obtained by imaging the intraoral cavity with the scanner while the air blower injects compressed air to the imaging target;
a model generation step of generating a model based on the point cloud data;
a recognition step of identifying gums, roots, and gingiva based on features of the model;
A periodontal pocket measuring method, comprising: a measuring step of measuring the depth of a periodontal pocket based on the identification results of the gums, tooth roots, and gingiva.
さらに、少なくとも前記歯周ポケットの深さに基づいて歯周病の進行度を判定する判定ステップと、を有する
請求項5記載の歯周ポケット測定方法。
The periodontal pocket measuring method according to claim 5, further comprising a determination step of determining the degree of progress of periodontal disease based on at least the depth of the periodontal pocket.
請求項5記載の方法をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute the method according to claim 5. 請求項6記載の方法をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute the method according to claim 6.
JP2022125738A 2022-08-05 2022-08-05 Periodontal pocket measurement apparatus and periodontal pocket measurement method Pending JP2024022277A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022125738A JP2024022277A (en) 2022-08-05 2022-08-05 Periodontal pocket measurement apparatus and periodontal pocket measurement method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022125738A JP2024022277A (en) 2022-08-05 2022-08-05 Periodontal pocket measurement apparatus and periodontal pocket measurement method

Publications (1)

Publication Number Publication Date
JP2024022277A true JP2024022277A (en) 2024-02-16

Family

ID=89854820

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022125738A Pending JP2024022277A (en) 2022-08-05 2022-08-05 Periodontal pocket measurement apparatus and periodontal pocket measurement method

Country Status (1)

Country Link
JP (1) JP2024022277A (en)

Similar Documents

Publication Publication Date Title
US11944187B2 (en) Tracked toothbrush and toothbrush tracking system
US10685259B2 (en) Method for analyzing an image of a dental arch
US20190026598A1 (en) Method for analyzing an image of a dental arch
US20220265402A1 (en) Detecting tooth shade
US20210358124A1 (en) Method for analyzing an image of a dental arch
US11049248B2 (en) Method for analyzing an image of a dental arch
US20140146142A1 (en) Three-dimensional measuring device used in the dental field
US20190026889A1 (en) Method for analyzing an image of a dental arch
US11974900B2 (en) Intraoral scanning with surface differentiation
JP6632800B2 (en) Periodontal disease diagnosis support device, periodontal disease diagnosis support system, periodontal disease diagnosis support program, and periodontal disease diagnosis support method
US12053351B2 (en) Method for analyzing an image of a dental arch
EP4250248A1 (en) Identification apparatus, identification method, and identification program
JP2024022277A (en) Periodontal pocket measurement apparatus and periodontal pocket measurement method
US20220215547A1 (en) Method for analyzing an image of a dental arch
WO2022244139A1 (en) Oral cavity shape acquisition device and oral cavity shape acquisition method
JP7181557B2 (en) INTRAORAL SHAPE ACQUISITION DEVICE AND INTRAORAL SHAPE ACQUISITION METHOD
KR102724016B1 (en) Intraoral scanning with surface differentiation
WO2024133423A1 (en) Method and system for user-specific oral health care product selection
JP2023142940A (en) Data processor, dara processing method and dara processing program
JP2023143585A (en) Data processing apparatus, data processing method, and data processing program
JP2024094047A (en) Evaluation device, evaluation method, evaluation model generation method, and evaluation program
CN118429262A (en) Auxiliary device, auxiliary method, and storage medium storing auxiliary program