JP2022127947A - Intraoral camera system and tooth column model generating method - Google Patents
Intraoral camera system and tooth column model generating method Download PDFInfo
- Publication number
- JP2022127947A JP2022127947A JP2021026202A JP2021026202A JP2022127947A JP 2022127947 A JP2022127947 A JP 2022127947A JP 2021026202 A JP2021026202 A JP 2021026202A JP 2021026202 A JP2021026202 A JP 2021026202A JP 2022127947 A JP2022127947 A JP 2022127947A
- Authority
- JP
- Japan
- Prior art keywords
- tooth
- model
- image data
- image
- teeth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
Abstract
Description
本開示は、口腔内カメラシステム及び歯牙列モデル生成方法に関する。 The present disclosure relates to an intraoral camera system and a tooth row model generation method.
口腔内の歯牙列の状態を示す情報として、歯牙列のパノラマ画像を生成する方法が特許文献1に開示されている。
このような、口腔内カメラシステム等においては、歯牙列の状態を示す情報の精度を向上できることが望まれている。 In such an intraoral camera system or the like, it is desired to be able to improve the accuracy of information indicating the state of the tooth row.
そこで、本開示は、歯牙列の状態を示す情報の精度を向上できる口腔内カメラシステム及び歯牙列モデル生成方法を提供することを目的とする。 Therefore, an object of the present disclosure is to provide an intraoral camera system and a tooth row model generation method that can improve the accuracy of information indicating the state of the tooth row.
本開示の一態様に係る口腔内カメラシステムは、ユーザの口腔内の歯牙を手動により撮影することで画像データを生成する撮影部と、上面視においてU字形状を有する三次元モデルである基本モデルに、前記画像データを貼り付けることで前記ユーザの歯牙列モデルを生成するモデル生成部とを備える。 An intraoral camera system according to an aspect of the present disclosure includes an imaging unit that generates image data by manually imaging teeth in the oral cavity of a user, and a basic model that is a three-dimensional model having a U shape in top view and a model generation unit that generates a tooth row model of the user by pasting the image data.
本開示は、歯牙列の状態を示す情報の精度を向上できる口腔内カメラシステム及び歯牙列モデル生成方法を提供できる。 The present disclosure can provide an intraoral camera system and a dentition model generation method that can improve the accuracy of information indicating the state of dentition.
本開示の一態様に係る口腔内カメラシステムは、ユーザの口腔内の歯牙を手動により撮影することで画像データを生成する撮影部と、上面視においてU字形状を有する三次元モデルである基本モデルに、前記画像データを貼り付けることで前記ユーザの歯牙列モデルを生成するモデル生成部とを備える。 An intraoral camera system according to an aspect of the present disclosure includes an imaging unit that generates image data by manually imaging teeth in the oral cavity of a user, and a basic model that is a three-dimensional model having a U shape in top view and a model generation unit that generates a tooth row model of the user by pasting the image data.
これによれば、当該口腔内カメラシステムは、歯牙列の状態を精度よく表した歯牙列モデルを生成できる。 According to this, the intraoral camera system can generate a tooth row model that accurately represents the state of the tooth row.
例えば、前記画像データは、前記ユーザの上顎の歯牙が撮影された上顎画像データと、前記ユーザの下顎の歯牙が撮影された下顎画像データとを含み、前記基本モデルは、上顎に対応する上顎基本モデルと、下顎に対応する下顎基本モデルとを含み、前記モデル生成部は、前記上顎基本モデルに前記上顎画像データを貼り付け、前記下顎基本モデルに前記下顎画像データを貼り付けることで前記歯牙列モデルを生成してもよい。 For example, the image data includes upper jaw image data obtained by photographing the teeth of the upper jaw of the user and lower jaw image data obtained by photographing the teeth of the lower jaw of the user, and the basic model is an upper jaw basic model corresponding to the upper jaw. The model generation unit pastes the upper jaw image data to the upper jaw basic model, and pastes the lower jaw image data to the lower jaw basic model. model may be generated.
例えば、前記画像データは、前記歯牙が頬側から撮影された頬側画像データと、前記歯牙が舌側から撮影された舌側画像データと、前記歯牙が歯冠側から撮影された歯冠側画像
データとを含み、前記モデル生成部は、前記基本モデルに頬側から前記頬側画像データを貼り付け、前記基本モデルに舌側から前記舌側画像データを貼り付け、前記基本モデルに歯冠側から前記歯冠側画像データを貼り付けることで前記歯牙列モデルを生成してもよい。
For example, the image data includes buccal image data obtained by photographing the tooth from the buccal side, lingual image data obtained by photographing the tooth from the lingual side, and crown side image data obtained by photographing the tooth from the crown side. The model generating unit pastes the buccal image data from the buccal side to the basic model, pastes the lingual image data from the lingual side to the basic model, and attaches the dental crown to the basic model. The tooth row model may be generated by pasting the crown side image data from the side.
例えば、前記基本モデルの断面形状は歯牙の位置に応じて異なってもよい。 For example, the cross-sectional shape of the basic model may differ depending on the position of the tooth.
例えば、前記口腔内カメラシステムは、さらに、前記ユーザの性別、年齢層及び人種の少なくとも一つを示すユーザ情報を取得するユーザ情報取得部を含み、前記モデル生成部は、前記ユーザ情報に基づき、複数の基本モデルから、使用する基本モデルを選択し、選択した基本モデルに前記画像データを貼り付けることで前記歯牙列モデルを生成してもよい。 For example, the intraoral camera system further includes a user information acquisition unit that acquires user information indicating at least one of gender, age group, and race of the user, and the model generation unit generates Alternatively, the tooth row model may be generated by selecting a basic model to be used from a plurality of basic models and pasting the image data onto the selected basic model.
これによれば、当該口腔内カメラシステムは、ユーザに応じた歯牙列モデルを生成できる。 According to this, the intraoral camera system can generate a tooth row model according to the user.
例えば、前記口腔内カメラシステムは、さらに、前記画像データから、前記画像データで示される歯牙の種類及び位置を識別する識別部を備え、前記基本モデルは、各々が一つの歯牙に対応する複数のブロックで構成されており、前記モデル生成部は、前記識別部で識別された前記歯牙の種類及び位置に基づき、前記基本モデルの対応する位置に、前記画像データを貼り付けてもよい。 For example, the intraoral camera system further comprises an identification unit that identifies the type and position of the tooth indicated by the image data from the image data, and the basic model includes a plurality of models each corresponding to one tooth. The model generation unit may paste the image data to the corresponding position of the basic model based on the type and position of the tooth identified by the identification unit.
例えば、前記識別部は、ニューラルネットワークを含み、前記画像データを入力とし、前記歯牙の種類及び位置を出力する推定モデルを用いて、前記歯牙の種類及び位置を識別してもよい。 For example, the identification unit may identify the type and position of the tooth using an estimation model that includes a neural network, receives the image data, and outputs the type and position of the tooth.
例えば、前記識別部は、前記画像データから歯間位置を検出し、検出された歯間位置に基づき、各々が一つの歯牙を示す歯牙画像を生成し、前記歯牙画像に基づき前記歯牙画像で示される歯牙の種類及び位置を識別し、識別された前記歯牙の種類及び位置に基づき、前記歯牙画像を、前記基本モデルの対応する位置に貼り付けてもよい。 For example, the identification unit detects interdental positions from the image data, generates tooth images each representing one tooth based on the detected interdental positions, and generates tooth images based on the tooth images. The type and position of the tooth to be extracted may be identified, and based on the identified type and position of the tooth, the tooth image may be pasted onto the corresponding position of the base model.
例えば、前記モデル生成部は、前記画像データから互に隣接する歯牙同士を連結した連結画像データを生成し、前記連結画像データを前記基本モデルに貼り付けてもよい。 For example, the model generation unit may generate connected image data in which adjacent teeth are connected from the image data, and paste the connected image data on the basic model.
また、本開示の一態様に係る歯牙列モデル生成方法は、撮影部が、ユーザの口腔内の歯牙を手動により撮影することで画像データを生成し、上面視においてU字形状を有する三次元モデルである基本モデルに、前記画像データを貼り付けることで前記ユーザの歯牙列モデルを生成する。 Further, in the tooth row model generating method according to an aspect of the present disclosure, the image capturing unit manually captures images of the teeth in the oral cavity of the user to generate image data, and a three-dimensional model having a U shape in top view. The user's tooth row model is generated by pasting the image data onto the basic model.
これによれば、当該歯牙列モデル生成方法は、歯牙列の状態を精度よく表した歯牙列モデルを生成できる。 According to this, the tooth row model generating method can generate a tooth row model that accurately represents the state of the tooth row.
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。 In addition, these general or specific aspects may be realized by a system, method, integrated circuit, computer program, or a recording medium such as a computer-readable CD-ROM. and any combination of recording media.
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長にな
るのを避け、当業者の理解を容易にするためである。
Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of well-known matters and redundant descriptions of substantially the same configurations may be omitted. This is to avoid unnecessary verbosity in the following description and to facilitate understanding by those skilled in the art.
なお、発明者らは、当業者が本開示を十分に理解するために添付図面及び以下の説明を提供するものであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。 It is to be noted that the inventors provide the accompanying drawings and the following description for a full understanding of the present disclosure by those skilled in the art, which are intended to limit the subject matter of the claims. not a thing
(実施の形態)
図1は、本実施の形態に係る口腔内カメラシステムにおける口腔内カメラの斜視図である。図1に示すように、口腔内カメラ10は、片手で取り扱うことが可能な歯ブラシ状の筺体を備え、その筺体は、歯列撮影時にユーザの口腔内に配置されるヘッド部10aと、ユーザが把持するハンドル部10bと、ヘッド部10aとハンドル部10bとを接続するネック部10cとを含んでいる。
(Embodiment)
FIG. 1 is a perspective view of an intraoral camera in an intraoral camera system according to this embodiment. As shown in FIG. 1, the
撮影光学系12は、ヘッド部10aとネック部10cとに組み込まれている。撮影光学系12は、その光軸LA上に配置された撮像素子14とレンズとを含んでいる(図1には図示せず)。
The photographing
撮像素子14は、例えばC-MOSセンサまたはCCD素子などの撮影デバイスであって、レンズによって歯牙の像が結像される。その結像した像に対応する信号(画像データ)を、撮像素子14は外部に出力する。 The imaging element 14 is a photographing device such as a C-MOS sensor or a CCD element, and an image of the tooth is formed by a lens. The imaging device 14 outputs a signal (image data) corresponding to the formed image to the outside.
また、口腔内カメラ10は、撮影時に撮影対象の歯牙に対して光を照射する照明デバイスとして、複数の第1~第4のLED26A~26Dを搭載している。第1~第4のLED26A~26Dは、例えば白色LEDである。
In addition, the
図2は、本実施の形態に係る口腔内カメラシステムの概略的構成図である。図2に示すように、本実施の形態に係る口腔内カメラシステムは、概略的には、口腔内カメラ10を用いて歯列を撮影し、その撮影画像に対して画像処理を実行するように構成されている。
FIG. 2 is a schematic configuration diagram of an intraoral camera system according to this embodiment. As shown in FIG. 2, the intraoral camera system according to the present embodiment generally captures an image of a row of teeth using an
図2に示すように、口腔内カメラシステムは、口腔内カメラ10と、携帯端末70と、クラウドサーバ80とを含んでいる。携帯端末70は、例えば、無線通信可能なスマートフォン又はタブレット端末等である。携帯端末70は、入力デバイス及び出力デバイスとして、例えば歯列画像を表示可能なタッチスクリーン72を備える。携帯端末70は、口腔内カメラシステムのユーザインタフェースとして機能する。
As shown in FIG. 2 , the intraoral camera system includes an
クラウドサーバ80は、携帯端末70に対してインターネットなどを介して通信可能なサーバであって、携帯端末70に口腔内カメラ10を使用するためのアプリケーションを提供する。例えば、ユーザがアプリケーションをクラウドサーバ80からダウンロードして携帯端末70にインストールする。また、クラウドサーバ80は、口腔内カメラ10によって撮影された歯列画像を携帯端末70を介して取得する。
The
口腔内カメラシステムは、システムの制御を行う主要部分として中央制御部50と、撮像素子14からの歯列画像を画像処理する画像処理部52と、複数のLED26A~26Dを制御するLED制御部54と、構図調節機構のアクチュエータ36と焦点調節機構のアクチュエータ40を制御するレンズドライバ56と、位置センサ90とを含んでいる。
The intraoral camera system includes a
また、口腔内カメラシステムは、携帯端末70と無線通信を行う無線通信モジュール58と、中央制御部50などに電力供給を行う電源制御部60とを有する。
The intraoral camera system also includes a
口腔内カメラシステムの中央制御部50は、例えば、口腔内カメラ10のハンドル部1
0bに搭載されている。例えば、また、中央制御部50は、後述する様々な処理を実行するCPUやMPUなどのコントローラ62と、コントローラ62に様々な処理を実行させるためのプログラムを記憶するRAMやROMなどのメモリ64とを含んでいる。なお、メモリ64には、プログラム以外に、撮像素子14によって撮影された歯列画像(画像データ)や種々の設定データなどが記憶される。
The
0b is installed. For example, the
画像処理部52は、例えば、口腔内カメラ10のハンドル部10bに搭載され、中央制御部50のコントローラ62からの制御信号に基づいて、撮像素子14が撮影した歯列画像(画像データ)を取得し、その取得した歯列画像に対して画像処理を実行し、その画像処理後の歯列画像を中央制御部50に出力する。画像処理部52は、例えば回路で構成され、例えば歯列画像に対してノイズ除去、AWB(Automatic White Balance)処理などの画像処理を実行する。画像処理部52から出力された歯列画像を、コントローラ62は、無線通信モジュール58を介して携帯端末70に送信する。携帯端末70は、その送信された歯列画像をタッチスクリーン72に表示し、それによりユーザに歯列画像を提示する。
The
LED制御部54は、例えば、口腔内カメラ10のハンドル部10bに搭載され、コントローラ62からの制御信号に基づいて、第1~第4のLED26A~26Dの点灯および消灯を実行する。LED制御部54は、例えば回路で構成される。例えば、ユーザが携帯端末70のタッチスクリーン72に対して口腔内カメラ10を起動させる操作を実行すると、携帯端末70から対応する信号が無線通信モジュール58を介してコントローラ62に送信される。コントローラ62は、受信した信号に基づいて、第1~第4のLED26A~26Dを点灯させるようにLED制御部54に制御信号を送信する。
The
レンズドライバ56は、例えば、口腔内カメラ10のハンドル部10bに搭載され、中央制御部50のコントローラ62からの制御信号に基づいて、構図調節機構のアクチュエータ36と焦点調節機構のアクチュエータ40を制御する。レンズドライバ56は、例えば回路で構成される。例えば、ユーザが携帯端末70のタッチスクリーン72に対して構図調節やピント調節に関する操作を実行すると、携帯端末70から対応する信号が無線通信モジュール58を介して中央制御部50に送信される。中央制御部50のコントローラ62は、受信した信号に基づいて、構図調節やピント調節を実行するようにレンズドライバ56に制御信号を送信する。また例えば、コントローラ62が画像処理部52からの歯列画像に基づいて構図調節やピント調節に必要なアクチュエータ36、40の制御量を演算し、その演算された制御量に対応する制御信号がレンズドライバ56に送信される。
The
無線通信モジュール58は、例えば、口腔内カメラ10のハンドル部10bに搭載され、コントローラ62からの制御信号に基づいて、携帯端末70と無線通信を行う。無線通信モジュール58は、例えばWiFi(登録商標)やBluetooth(登録商標)などの既存の通信規格に準拠した無線通信を携帯端末70との間で実行する。無線通信モジュール58を介して、口腔内カメラ10から歯牙Dが写る歯列画像が携帯端末70に送信されたり、携帯端末70から口腔内カメラ10に操作信号が送信される。
The
電源制御部60は、本実施の形態の場合、口腔内カメラ10のハンドル部10bに搭載され、中央制御部50、画像処理部52、LED制御部54、レンズドライバ56、および無線通信モジュール58に、電池66の電力を分配する。電源制御部60は、例えば回路で構成される。なお、本実施の形態の場合、電池66は、充電可能な二次電池であって、口腔内カメラ10に搭載されたコイル68を介して、商用電源に接続された外部の充電器69によってワイヤレス充電される。
In the case of the present embodiment, the
位置センサ90は、口腔内カメラ10の姿勢及び位置を検出するためのセンサであり、
例えば、多軸(ここではx,y,zの三軸)の加速度センサである。例えば、図1に示すように、z軸は光軸LAに一致する。y軸は、撮像面と平行であり、かつ口腔内カメラ10の長手方向に延びる。また、x軸は、撮像面と平行であり、y軸と直交する。位置センサ90の各軸の出力(センサデータ)は、中央制御部50及び無線通信モジュール58を介して、携帯端末70に送信される。
The
For example, it is a multi-axis (three axes of x, y, and z in this case) acceleration sensor. For example, as shown in FIG. 1, the z-axis coincides with the optical axis LA. The y-axis is parallel to the imaging plane and extends longitudinally of the
位置センサ90としては、ピエゾ抵抗タイプ、静電容量タイプ、もしくは熱検知タイプのMEMSセンサが用いられてもよい。また特に図示しないが、各軸のセンサの感度のバランス、感度の温度特性、温度ドリフトなどを補正するための補正回路を設けるとよい。また、動加速度成分やノイズを除去するためのバンドパスフィルタ(ローパスフィルタ)を設けてもよい。また、加速度センサの出力波形を平滑化することによりノイズを低減してもよい。
The
次に、口腔内カメラシステムにおける口腔内撮影動作について説明する。図3は、口腔内カメラシステムにおける口腔内撮影動作の流れを示す図である。 Next, the intraoral imaging operation in the intraoral camera system will be described. FIG. 3 is a diagram showing the flow of intraoral imaging operations in the intraoral camera system.
ユーザが口腔内カメラ10を用いて、自身の口腔内の歯牙及び歯茎を撮影することで画像データが生成される(S101)。次に、口腔内カメラ10は、撮影された画像データと、撮影時において位置センサ90で得られたセンサデータとを携帯端末70に送信する(S102)。なお、ここで、画像データは、動画であってもよいし、1又は複数の静止画であってもよい。また、画像データが動画又は複数の静止画である場合には、動画のフレーム毎、又は静止画毎に、センサデータが送信される。なお、画像データが動画である場合において複数フレーム毎にセンサデータが送信されてもよい。
The user uses the
また、画像データ及びセンサデータの送信は、リアルタイムで行われてもよいし、一連の撮影(例えば口腔内の全ての歯牙の撮影)が行われた後にまとめて送信されてもよい。 Also, the image data and sensor data may be transmitted in real time, or may be collectively transmitted after a series of images (for example, images of all teeth in the oral cavity) are performed.
携帯端末70は、クラウドサーバ80から参照データを取得し(S103)、受信した画像データ及びセンサデータと、取得した参照データとを用いて、画像データに含まれる複数の歯牙の各々の種別及び位置を識別する(S104)。
The
図4は、口腔内の歯牙を示す図である。携帯端末70で識別される歯牙の種類とは、例えば、図4に示す中切歯、側切歯、犬歯等であり、携帯端末70で識別される歯牙の位置とは、上顎、下顎、右側、左側等である。つまり、歯牙の種別及び位置を識別するとは、対象の歯牙が図4に示す複数の歯牙のいずれであるかを識別することである。
FIG. 4 is a diagram showing teeth in the oral cavity. The types of teeth identified by the
また、携帯端末70は、例えば、識別した歯牙の種別及び位置を用いて、撮影された画像データから、口腔内の複数の歯牙の三次元モデルである歯牙列モデルを生成する(S105)。また、携帯端末70は、生成された歯牙列モデルに基づく画像を表示してもよい。
Further, the
このような、口腔内カメラシステムを用いることで、ユーザは、口腔内カメラ10でユーザ自身の口腔内の画像を撮影し、携帯端末70に表示された口腔内の状態を確認できる。これにより、ユーザは自身の歯牙の健康状態の確認などを容易に行うことができる。
By using such an intraoral camera system, the user can capture an image of the user's own intraoral cavity with the
なお、ここでは、携帯端末70が歯牙の種類等の識別及び歯牙列モデルの生成を行う例を述べるが、携帯端末70が行う処理の一部又は全てを口腔内カメラ10又はクラウドサーバ80が行ってもよい。
Here, an example in which the
図5は、携帯端末70の機能ブロック図である。携帯端末70は、領域検出部101と
、ユーザ情報取得部102と、識別部103と、モデル生成部107とを備える。これらの各処理部の機能は、例えば、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現される。
FIG. 5 is a functional block diagram of the
領域検出部101は、センサデータを用いて、各画像データに対応する口腔内の領域を検出し、検出した領域を示す領域情報を生成する。
The
ユーザ情報取得部102は、ユーザ属性を示すユーザ情報を取得する。例えば、ユーザ情報取得部102は、携帯端末70のユーザインタフェースを介してユーザにより入力されたユーザ情報を取得する。または、ユーザ情報取得部102は、携帯端末70又は他の装置(例えばクラウドサーバ80)に保存されているユーザ情報を取得してもよい。具体的には、ユーザ情報は、ユーザの性別、年齢層(又は年齢)及び人種の少なくとも一つを示す。
The user
識別部103は、画像データ、領域情報、ユーザ情報、及び参照データを用いて画像データに含まれる各歯牙の種別及び位置を識別する。識別部103は、歯牙画像生成部104と、種別識別部105とを含む。画像データから、各々が一つの歯牙を示す歯牙画像を生成する。種別識別部105は、領域情報、ユーザ情報、参照データ及び推定モデル106を用いて歯牙画像に含まれる歯牙の種別及び位置を識別する。
The
推定モデル106は、歯牙画像と参照データとから歯牙画像に含まれる歯牙の種別及び位置を推定するためのモデルである。例えば、推定モデル106は、ニューラルネットワークを含んでもよい。 The estimation model 106 is a model for estimating the types and positions of teeth included in the tooth image from the tooth image and reference data. For example, estimation model 106 may include a neural network.
モデル生成部107は、歯牙列の形状の基本となる三次元モデルである複数の基本モデル108を保持している。モデル生成部107は、複数の基本モデル108のいずれかと、識別部103で生成された歯牙画像及び位置情報(歯牙の種別及び位置)を用いて、歯牙列モデルを生成する。
The
なお、歯列の撮影では、例えば図6に示す上顎左領域から上顎前領域(上顎の左臼歯部から前歯部)を経由し、上顎前領域から上顎右領域(上顎の前歯部から右臼歯部)、下顎左領域から下顎前領域(下顎の左臼歯部から前歯部)を経由し、下顎前領域から下顎右領域(下顎の前歯部から右臼歯部)の流れで歯列を撮影して複数の歯牙列モデルを生成する。また、歯列の撮影では歯列が複雑に湾曲しているため、例えば図6に示す上顎左領域から上顎前領域(上顎の左臼歯部から前歯部)、上顎右領域から上顎前領域(上顎の右臼歯部から前歯部)、下顎左領域から下顎前領域(下顎の左臼歯部から前歯部)、下顎右領域から上顎前領域(上顎の右臼歯部から前歯部)に分けて撮影して複数の歯牙列モデルを生成してもよい。 In the imaging of the dentition, for example, from the upper left region shown in FIG. ), from the left region of the mandible to the pre-mandibular region (left molars to anterior teeth of the mandible), and then from the pre-mandibular region to the right region of the mandible (front teeth to the right molars of the mandible). to generate a tooth row model. Also, since the dentition is complicatedly curved in photographing the dentition, for example, from the left upper jaw region to the pre-maxillary region (from the left molar region to the front tooth region of the upper jaw), from the right region of the upper jaw to the pre-maxillary region (upper jaw) From the right molars to the anterior teeth of the upper jaw), the left mandibular region to the pre-mandibular region (the left molars to the anterior teeth of the mandible), and the right mandibular region to the pre-maxillary region (the right molars to the anterior teeth of the upper jaw). A plurality of tooth row models may be generated.
次に、領域検出部101で検出される領域の例を説明する。図6は、この口腔内の領域の例を示す図である。同図では、例えば、口腔内の複数の歯牙が、上顎左、上顎前、上顎右、下顎左、下顎前、下顎右の6つの領域に分割される。なお、ここでは、6つの領域に分割される例を示すが、領域の数は任意でよい。また、上顎と下顎との2つの領域に分割されてもよい。また、各領域は、撮影方向によりさらに分割されてもよい。例えば、図6に示すように、各領域は、頬側と舌側とに2つの撮影方向に分割されてもよい。また、ここでは、各歯牙が、複数の領域に重複して属さない例を示したが、一部の歯牙が2以上の領域に属してもよい。例えば、隣接する2つの領域の境界付近の歯牙は、当該2つの領域の両方に属してもよい。例えば、図6において上顎前の左端の3番の犬歯は、上顎前と上顎左の両方に属してもよい。
Next, examples of areas detected by the
以下、センサデータからこの領域及び撮影方向を判定する方法の具体例を説明する。まず領域検出部101は、z方向の加速度センサの出力Azに基づき、上顎か下顎かを判定する。ここで、上顎の歯列を撮影するときは撮像面が少なからず上向きになり、下顎の歯列を撮影するときは撮像面が少なからず下向きになる。よって、領域検出部101は、Az>0の場合は画像データに対応する領域が下顎であり、Az≦0の場合は画像データに対応する領域が上顎であると判定する。
A specific example of a method for determining this area and shooting direction from sensor data will be described below. First, the
次に、上顎と判定された場合、上顎のどの領域であるかを判定する方法を説明する。領域検出部101は、y方向の加速度センサの出力Ayに基づいて前歯か否かを判定する。ここで、前歯を撮影するときは口腔内カメラ10が比較的水平になるが、臼歯を撮影するときは唇との干渉があるため口腔内カメラ10が斜めにならざるをえない。よって、領域検出部101は、Ay≦閾値aの場合は上顎前と判定する。
Next, a method of determining which region of the maxilla is determined when the region is determined to be the maxilla will be described. The
さらに、領域検出部101は、上顎前と判定した場合、x方向の加速度センサの出力Axに基づいて頬側か舌側かを判定する。ここで、頬側と舌側とでは撮像面の向きが反転する。よって、領域検出部101は、Ax>0の場合は「上顎前頬側」と判定し、Ax≦0の場合は「上顎前舌側」と判定する。
Furthermore, when the
一方、領域検出部101は、上顎前でないと判定した場合、x方向の加速度センサの出力Axに基づいて撮像面の向きを判定する。具体的には、領域検出部101は、Ax>0の場合は「上顎右頬側または上顎左舌側」と判定し、Ax≦0の場合は「上顎左頬側または上顎右舌側」と判定する。
On the other hand, if the
さらに。そこで領域検出部101は、前回の処理で判定された領域に基づき、領域の絞り込みを行う。具体的には、領域検出部101は、上顎右頬側か上顎左舌側かを判定する場合、前回の領域が「上顎前頬側、上顎右頬側、上顎右舌側、下顎前頬側、下顎右頬側、下顎右舌側」のいずれかであれば、現在の領域は「上顎右頬側」であると推定し、前回の領域が「上顎前舌側、上顎左頬側、上顎左舌側、下顎前舌側、下顎左頬側、下顎左舌側」のいずれかであれば、現在の領域は「上顎左舌側」であると推定する。
moreover. Therefore, the
また、領域検出部101は、上顎左頬側または上顎右舌側かを判定する場合、前回の領域が「上顎前頬側、上顎左頬側、上顎左舌側、下顎前頬側、下顎左頬側、下顎左舌側」のいずれかの場合は、現在の領域が「上顎左頬側」であると推定し、前回の領域が「上顎前舌側、上顎右頬側、上顎右舌側、下顎前舌側、下顎右頬側、下顎右舌側」のいずれかであれば、現在の領域は「上顎右舌側」であると推定する。これは、撮像面の移動量や向き変更がなるべく少なくなるように撮像面の移動が行われる蓋然性が高いことを利用している。
Further, when determining whether the upper jaw left buccal side or the upper jaw right lingual side, the
また、下顎に対しても同様の判定が用いられる。具体的には、領域検出部101は、y方向の加速度センサの出力Ayに基づいて前歯か否かを判定する。具体的には、領域検出部101は、Ay≦閾値bの場合は下顎前と判定する。
Similar determination is also used for the mandible. Specifically, the
下顎前と判定した場合、領域検出部101は、x方向の加速度センサの出力Axに基づいて頬側か舌側かを判定する。具体的には、領域検出部101は、Ax<0の場合は「下顎前頬側」と判定し、Ax≧0の場合は「下顎前舌側」と判定する。
If it is determined to be in front of the mandible, the
一方、領域検出部101は、下顎前でないと判定した場合、x方向の加速度センサの出力Axに基づいて撮像面の向きを判定する。具体的には、領域検出部101は、Ax>0の場合は「下顎右頬側または下顎左舌側」と判定し、Ax≦0の場合は「下顎左頬側また
は下顎右舌側」と判定する。
On the other hand, if the
また、領域検出部101は、下顎右頬側または下顎左舌側かを判定する場合、前回の領域が「下顎前頬側、下顎右頬側、下顎右舌側、下顎前頬側、上顎右頬側、上顎右舌側」のいずれかであれば、現在の領域は「下顎右頬側」であると推定し、前回の領域が「下顎前舌側、下顎左頬側、下顎左舌側、上顎前舌側、上顎左頬側、上顎左舌側」のいずれかであれば、現在の領域は「下顎左舌側」であると推定する。
Further, when determining whether the
また、領域検出部101は、下顎左頬側または下顎右舌側かを判定する場合、前回の領域が「下顎前頬側、下顎左頬側、下顎左舌側、上顎前頬側、上顎左頬側、上顎左舌側」のいずれかの場合は、現在の領域が「下顎左頬側」であると推定し、前回の領域が「下顎前舌側、下顎右頬側、下顎右舌側、上顎前舌側、上顎右頬側、上顎右舌側」のいずれかであれば、現在の領域は「下顎右舌側」であると推定する。
Further, when determining whether the region is on the left buccal side of the mandible or the right lingual side of the mandible, the
以上の処理によって、現在の領域が、「上顎前頬側」、「上顎前舌側」、「上顎右頬側」、「上顎左舌側」、「上顎左頬側」、「上顎右舌側」、「下顎前頬側」、「下顎前舌側」、「下顎右頬側」、「下顎左舌側」、「下顎左頬側」、「下顎右舌側」のいずれかに特定される。 By the above processing, the current regions are "maxillary anterior buccal side", "maxillary anterior lingual side", "maxillary right buccal side", "maxillary left buccal side", "maxillary left buccal side", and "maxillary right lingual side". , "mandibular anterior buccal side", "mandibular anterior lingual side", "mandibular right buccal side", "mandibular left lingual side", "mandibular left buccal side", and "mandibular right lingual side". .
なお、上記判定アルゴリズムはあくまでも一例であり、加速度センサの出力Ax、Ay、Azから領域を特定できるのであればどのような判定アルゴリズムが用いられてもよい。例えばAx、Ay、Azの値をそのまま判定の変数として用いるのでなく、Ax、Ay、Azを適宜組み合わせることで得られる2次変数を判定に用いてもよい。2次変数は、たとえば、Ay/Az、Ax・Ax+Ay・Ay、Az-Axなど、任意に設定できる。あるいは、各軸の加速度情報Ax、Ay、Azを、角度情報(姿勢角)α、β、γに変換した後で、領域を判定してもよい。例えば、重力加速度方向に対するx軸の角度をロール角α、重力加速度方向に対するy軸の角度をピッチ角β、重力加速度方向に対するz軸の角度をヨー角γのように定義してもよい。また、各判定に用いる閾値は臨床実験等の結果から決定することができる。 The above determination algorithm is merely an example, and any determination algorithm may be used as long as the area can be identified from the outputs Ax, Ay, and Az of the acceleration sensor. For example, instead of using the values of Ax, Ay, and Az as they are as variables for determination, secondary variables obtained by appropriately combining Ax, Ay, and Az may be used for determination. Secondary variables can be arbitrarily set, for example, Ay/Az, Ax·Ax+Ay·Ay, Az−Ax. Alternatively, the area may be determined after converting the acceleration information Ax, Ay, and Az of each axis into angle information (attitude angles) α, β, and γ. For example, the angle of the x-axis with respect to the direction of gravitational acceleration may be defined as roll angle α, the angle of y-axis with respect to the direction of gravitational acceleration as pitch angle β, and the angle of z-axis with respect to the direction of gravitational acceleration as yaw angle γ. Also, the threshold used for each determination can be determined from the results of clinical experiments and the like.
また、上記説明では、撮影方向として頬側と舌側との2方向を判定しているが、さらに、歯冠側を含む3方向を判定してもよい。例えば、歯冠側の撮影時には、頬側及び舌側の撮影時よりも撮像面がより水平になることを利用して、撮影方向が歯冠側であるかを判定できる。 Also, in the above description, two directions, ie, the buccal side and the lingual side, are determined as imaging directions, but three directions including the crown side may be determined. For example, when photographing the crown side, it is possible to determine whether the photographing direction is the crown side by utilizing the fact that the imaging surface is more horizontal than when photographing the buccal and lingual sides.
次に、識別部103の動作の詳細を説明する。なお、以下では、1つの画像データ(動画像に含まれる1フレーム、又は1枚の静止画)に対する処理を説明する。
Next, the details of the operation of the
まず、歯牙画像生成部104は、画像データから、各々が一つの歯牙を示す歯牙画像を生成する。具体的には、歯牙画像生成部104は、画像データから、画像解析等により歯間位置を検出し、検出された歯間位置を用いて歯牙画像を抽出する。例えば、歯牙画像生成部104は、歯間位置を境界として用いて画像を抽出することで歯牙画像を生成する。 First, the tooth image generation unit 104 generates tooth images each representing one tooth from the image data. Specifically, the tooth image generation unit 104 detects interdental positions from image data by image analysis or the like, and extracts a tooth image using the detected interdental positions. For example, the tooth image generating unit 104 generates a tooth image by extracting an image using interdental positions as boundaries.
次に、種別識別部105は、領域情報、ユーザ情報、参照データ及び推定モデル106を用いて歯牙画像に含まれる歯牙の種別及び位置を識別する。
Next, the
参照データは、歯牙画像に含まれる歯牙の種別及び位置を識別する際に、参照されるデータである。例えば、参照データは、種別及び位置が既知の歯牙のデータである。具体的には、参照データは、予め撮影した歯牙の画像データ群であってもよいし、歯牙列の画像データ群であってもよいし、歯列のパノラマ画像であってもよい。または、参照データは
、標準的な各歯の形状又は特徴量を示す情報であってもよい。
The reference data is data that is referred to when identifying the type and position of the tooth included in the tooth image. For example, the reference data is tooth data whose type and position are known. Specifically, the reference data may be a group of image data of teeth photographed in advance, a group of image data of a row of teeth, or a panoramic image of the row of teeth. Alternatively, the reference data may be information indicating the standard shape or characteristic amount of each tooth.
なお、参照データは、種別及び位置に加え、撮影方向毎、及びユーザ属性毎に、分類されていてもよい。なお、ユーザ属性は、ユーザの性別、年齢層(又は年齢)及び人種の一つ、又は2以上の組み合わせである。つまり、ユーザの性別、年齢層及び人種に応じてユーザ属性が一意に決定される。 Note that the reference data may be classified by shooting direction and by user attribute in addition to the type and position. A user attribute is one of a user's sex, age group (or age), and race, or a combination of two or more. That is, user attributes are uniquely determined according to the user's gender, age group, and race.
図7は、参照データの分類の例を示す図である。なお同図では、階層的に参照データの分類を示しているが、必ずしも階層的に分類を行う必要はない。また、識別に用いられる参照データをA(n)と表す。また、nは歯牙の種別、位置及び撮影方向の組に一意に対応付けられている。図8は、参照データの例を示す図である。一例として上顎の切歯、犬歯及び第1大臼歯のそれぞれについて、頬側、舌側及び歯冠側の参照データを示す。 FIG. 7 is a diagram showing an example of classification of reference data. Note that although reference data is hierarchically classified in the figure, it is not always necessary to classify reference data hierarchically. Reference data used for identification is represented as A(n). Also, n is uniquely associated with a set of tooth type, position, and imaging direction. FIG. 8 is a diagram showing an example of reference data. As an example, buccal, lingual and coronal reference data are shown for maxillary incisors, canines and first molars, respectively.
図8に示すように、歯牙はその種類によって形状および大きさが異なる。例えば、上顎の中切歯は以下の特徴を有する。頬側の外形は一般的に縦長の台形であり、切縁はほぼ直線である。歯頸線は歯根に向けて凸弯し、近心縁及び遠心縁は軽度に弯曲している。近心縁の弯曲頂は近心切縁隅角部付近である。遠心縁の弯曲頂は切縁側の1/3の高さである。舌側の外形は三角形であり、近心及び遠心辺縁隆線と舌面歯頸隆線とにより周縁隆線をつくり、舌側窩を形成する。 As shown in FIG. 8, teeth vary in shape and size depending on their type. For example, the maxillary central incisors have the following characteristics: The buccal profile is generally elongated and trapezoidal, with an almost straight incisal edge. The cervical line is convex towards the root, and the mesial and distal margins are slightly curved. The apex of the mesial curve is near the mesial incisal corner. The curved top of the distal edge is 1/3 the height of the incisal side. The lingual profile is triangular, with the mesial and distal marginal ridges and the lingual cervical ridge forming the marginal ridge, forming the lingual fossa.
また、上顎の犬歯は以下の特徴を有する。頬側の外形は一般的に五角形であり、切縁は中央が突出して尖頭を形成する。歯頸線は歯根に向けて凸湾である。近心縁は直線かやや外側に凸弯し、遠心縁は直線かやや凹弯する。舌側の外形は菱形であり、近心及び遠心辺縁隆線と舌面歯頸隆線とにより周縁隆線をつくる。 In addition, the canine teeth of the upper jaw have the following characteristics. The buccal profile is generally pentagonal, with the incisal margin projecting centrally to form a cusp. The cervical line is convex towards the root. The mesial margin is straight or slightly convex and the distal margin is straight or slightly concave. The lingual profile is rhomboid, with the mesial and distal marginal ridges and the lingual cervical ridge forming the marginal ridge.
また、上顎の第1大臼歯は以下の特徴を有する。頬側の外形は一般的に台形であり、近遠心縁はほぼ直線である。歯頸線は水平及び中央部で分岐部に凸となる。また接触点は近心で咬合面側の1/3の高さであり、遠心で1/2の高さとなる。舌側の外形は台形で、舌側面溝がほぼ中央を縦走する。歯冠側は平行四辺形の外形で、頬舌径が近遠心径より大きい。 Also, the maxillary first molar has the following characteristics. The buccal profile is generally trapezoidal and the mesiodistal margin is nearly straight. The cervical line becomes convex at the bifurcation in the horizontal and central parts. The contact point is mesial and 1/3 of the height on the occlusal side, and distal to 1/2 of the height. The lingual profile is trapezoidal, with a lingual groove running almost centrally. The coronal side has a parallelogram shape, and the buccolingual diameter is greater than the mesiodistal diameter.
また、処理対象の歯牙画像をB(m)と表す。よって、処理対象の歯牙画像に両隣する歯牙の歯牙画像はB(m-1)、B(m+1)で表される。 A tooth image to be processed is represented by B(m). Therefore, the tooth images of the teeth adjacent to the tooth image to be processed are represented by B(m−1) and B(m+1).
また、領域検出部101で検出された、処理対象の歯牙画像(B(m))に対応する領域情報をC(m)と表す。例えば、画像データ毎に領域情報が生成される。よって、一つの画像データに複数の歯牙が含まれており、複数の歯牙画像が生成された場合には、当該複数の歯牙画像に対して、当該一つの画像データに対応する同一の領域情報が対応付けられる。
Also, the area information corresponding to the tooth image (B(m)) to be processed, which is detected by the
図9は、種別識別部105による種別識別処理のフローチャートである。まず、種別識別部105は、初期化を行う(S111)。具体的には、種別識別部105は、nを0に設定し、ErrをErr_Maxに設定し、Nを0に設定する。ここで、Errは、後述する評価値であり、Errの値が小さいほど評価が高いことを意味する。また、Err_Maxは、Errが理論上とりうる最大値である。また、Nは、最小のErrのnの値を示す。
FIG. 9 is a flowchart of type identification processing by the
次に、種別識別部105は、ユーザ情報及び領域情報に基づき、使用する参照データを選択する(S112)。具体的には、種別識別部105は、ユーザ情報で示されるユーザ属性が割り当てられており、かつ、領域情報で示される領域に対応する歯牙の種別、位置
及び撮影方向に割り当てられている参照データを選択する。例えば、領域情報で示される領域が上顎左舌側であれば、上顎左に含まれる5つの歯牙の舌側の計5つの参照データが使用する参照データとして選択される。また、選択された参照データの数に応じて、nの最大値であるn_maxが設定される。例えば、参照データの数が5であれば、この5つの参照データにn=0~4が割り当てられ、n_maxは4に設定される。
Next, the
次に、種別識別部105は、歯牙画像B(m)と、参照データ(A(n))とからErr(n)を算出する(S113)。例えば、種別識別部105は、Err(n)=f(A(n))-f(B(m))を用いて、Err(n)を算出する。ここで、f(A(n))及びf(B(m))は、A(n)及びB(m)を関数f()に投じた値である。関数f()は、A(n)及びB(m)の特徴量を抽出する関数である。なお、f()はスカラでなくベクトルであらわされる場合もある。
Next, the
図8に示したように各歯牙は、形状および大きさがその種類に応じて特徴的である。種別識別部105は、これらの特徴的な形状および大きさを、上述した関数fにより特徴量として抽出する。
As shown in FIG. 8, each tooth has a characteristic shape and size according to its type. The
図10を用いて関数fによって抽出される特徴量について説明する。図10は上顎右側領域の第1大臼歯を歯冠側から撮影した画像を示す図である。第一大臼歯の咬合面は平行四辺形に近い形状であり、近遠心の頬側咬頭頂と舌側咬頭頂とのそれぞれを結んだ直線ABと直線DCとは平行に近い関係であり、直線ADと直線BCは平行に近い関係である。また、咬頭頂間の距離もそれぞれは略等しい(AB=DC、AD=BC)。一例として。上記した2つの咬頭間距離を特徴量とすることができる。 The feature quantity extracted by the function f will be described with reference to FIG. FIG. 10 is a diagram showing an image of the first molar in the maxillary right region taken from the crown side. The occlusal surface of the first molar has a shape close to a parallelogram, and the straight line AB and the straight line DC connecting the mesiodistal buccal cusp and the lingual cusp are in a nearly parallel relationship. AD and straight line BC are almost parallel to each other. Also, the distances between the cusp vertices are substantially equal (AB=DC, AD=BC). As an example. The above-described two cusp-to-cusp distances can be used as feature amounts.
また、Err(n)は、f(A(n))とf(B(m))との差分(ベクトルの場合は距離)を示す値である。つまり、B(m)がA(n)と近いほど、「f1(A(n))-f1(B(m))」は小さくなり、n=mのときにErr(n)は極小値を取る。 Err(n) is a value indicating the difference (distance in the case of a vector) between f(A(n)) and f(B(m)). In other words, the closer B(m) is to A(n), the smaller "f1(A(n)) - f1(B(m))" is, and when n=m, Err(n) has a local minimum value. take.
種別識別部105は、算出されたErr(n)がErrより小さい場合、ErrをErr(n)に設定し、Nをnに設定する(S114)。
When the calculated Err(n) is smaller than Err, the
n=n_maxでない場合(S115でNo)、種別識別部105は、nを1インクリメントし(S116)、再度ステップS113以降の処理を行う。つまり、使用する全ての参照データに対して、ステップS113及びS114が行われる。
If n is not n_max (No in S115), the
n=n_maxである場合(S115でYes)、種別識別部105は、Nに対応する種別、位置及び撮影方向を、歯牙画像に含まれる歯牙の種別、位置及び撮影方向として出力する(S117)。
If n=n_max (Yes in S115), the
上記の処理により、種別識別部105は、歯牙画像の種別、位置及び撮影方向を識別できる。また、ステップS112において、ユーザ情報及び領域情報により、歯牙の種別、位置及び撮影方向の候補を削減できる。よって、処理量を低減できるとともに、識別精度を向上できる。
Through the above processing, the
図11は、種別識別部105による種別識別処理の別の例を示すフローチャートである。図11に示す処理は、図9に示す処理に対して、ステップS112がステップS112Aに変更されており、ステップS118が追加されている。
FIG. 11 is a flow chart showing another example of type identification processing by the
ステップS112Aでは、種別識別部105は、ユーザ情報に基づき、使用する参照データを選択する。具体的には、種別識別部105は、ユーザ情報で示されるユーザ属性が
割り当てられている参照データを選択する。
At step S112A, the
ステップS118では、種別識別部105は、領域情報に基づき、ステップS113で算出したErr(n)に、重み付けを行う。具体的には、種別識別部105は、Err(n)に、領域情報に応じたwを乗算する。例えば、領域情報で示される領域に、nに対応する歯牙が含まれる場合には、Err(n)にw0が乗算される。また、領域情報で示される領域に、nに対応する歯牙が含まれない場合には、Err(n)にw0より大きいw1が乗算される。これにより、領域情報に示される領域に含まれる歯牙のErrが小さくなるため、歯牙画像に含まれる歯牙が、当該領域に含まれる歯牙と判定されやすくなる。
In step S118, the
また、重み付けは領域に含まれるか否かの2段階でなくてもよい。例えば、領域情報で示される領域からの距離に応じて重みが設定されてもよい。例えば、領域情報で示される領域に近い位置の歯牙の重みは、当該領域から離れた位置の歯牙の重みより小さく設定されてもよい。 Also, the weighting does not have to be in two stages, i.e. whether it is included in the area or not. For example, the weight may be set according to the distance from the area indicated by the area information. For example, the weight of teeth located close to the area indicated by the area information may be set smaller than the weight of teeth located far from the area.
また、ユーザ情報を参照データの選択に用いるのではなく、領域情報と同様にErr(n)の重み付けに用いてもよい。 Also, the user information may be used for weighting Err(n) in the same manner as the region information, rather than for selecting reference data.
また、図9で述べたように領域情報に基づく参照データの選択と、図11で述べた重み付けとを組みわせてもよい。例えば、領域情報で示される領域から離れた位置の歯牙は、対象から除外し、当該領域に近い位置の歯牙に対しては重みを用いてもよい。 Further, selection of reference data based on area information as described with reference to FIG. 9 and weighting described with reference to FIG. 11 may be combined. For example, teeth located far from the area indicated by the area information may be excluded from the target, and weights may be used for teeth located close to the area.
また、ユーザが定期的に口腔内撮影を行っている場合など、当該ユーザの歯牙画像が過去に得られている場合には、当該歯牙画像が参照データとして用いられてもよい。この場合、上記のユーザ情報に基づく参照データの選択は行われず、領域情報に基づく処理のみが行われる。 In addition, in the case where a tooth image of the user has been obtained in the past, such as when the user performs intraoral imaging on a regular basis, the tooth image may be used as reference data. In this case, selection of reference data based on the user information is not performed, and only processing based on area information is performed.
また、上記では、処理対象の歯牙画像と参照データとの比較を行っているが、処理対象の歯牙を含む歯牙列に対応する複数の歯牙画像と、複数の参照データとの比較が行われてもよい。 In the above description, the tooth image to be processed is compared with the reference data. good too.
例えば、種別識別部105は、Err(n)=f(A(n))-f(B(m))+f’(A(n-1))-f’(B(m-1))+f’(A(n+1))-f’(B(m+1))により、Err(n)を算出してもよい。ここで、A(n-1)及びA(n+1)は、A(n)の歯牙に隣接する歯牙の参照データであり、B(m-1)及びB(m+1)は、B(m)の歯牙に隣接する歯牙の歯牙画像である。また、f’()は、注目すべき歯の両隣の歯を評価するための特徴量を抽出する関数である。このように、隣接する歯牙の情報も用いることで識別精度を向上できる。
For example, the
また、上記では、参照データとして歯牙の画像が用いられる例を述べたが、特徴量(つまり、上記のf(A(n))の値)が参照データとして用いられてもよい。 Also, in the above, an example in which a tooth image is used as reference data has been described, but a feature amount (that is, the value of f(A(n)) described above) may be used as reference data.
また、種別識別部105が識別に使用する推定モデル106は、ニューラルネットワーク等の学習済みモデルを含んでもよい。例えば、上述した関数f又はf’が学習済みモデルであってもよい。また、ニューラルネットワークを用いる手法は、これに限らず、例えば、種別推定を行う推定モデル106の全体外がニューラルネットワークで構成されてもよい。この場合、例えば、ユーザ属性毎に推定モデル106が設けられてもよい。各推定モデル106は、対応するユーザ属性の、歯牙画像と、領域情報と、歯牙の種別、位置及び撮影方向との組複数を教師データ(学習データ)として用いた機械学習により生成された学習済みモデルである。推定モデル106は、歯牙画像と、領域情報とを入力として、
歯牙の種別、位置及び撮影方向を出力する。この場合、種別識別部105は、ユーザ情報を用いて対応する推定モデル106を選択し、選択した推定モデル106に歯牙画像と領域情報とを入力することで歯牙の種別、位置及び撮影方向を取得する。
In addition, the estimation model 106 used for identification by the
Tooth type, position and imaging direction are output. In this case, the
または、推定モデル106は、ユーザ属性と領域情報との組毎に設けられてもよい。この場合、各推定モデル106は、対応するユーザ属性かつ領域情報の、歯牙画像と、歯牙の種別、位置及び撮影方向との組複数を教師データとして用いた機械学習により生成された学習済みモデルである。また、推定モデル106は、歯牙画像を入力として、歯牙の種別、位置及び撮影方向を出力する。この場合、種別識別部105は、ユーザ情報及び領域情報を用いて対応する推定モデル106を選択し、選択した推定モデル106に歯牙画像を入力することで歯牙の種別、位置及び撮影方向を取得する。
Alternatively, the estimation model 106 may be provided for each set of user attribute and area information. In this case, each estimated model 106 is a learned model generated by machine learning using a plurality of pairs of corresponding user attributes and region information, tooth images, tooth types, positions, and imaging directions as teacher data. be. Also, the estimation model 106 receives tooth images as input and outputs tooth types, positions, and imaging directions. In this case, the
なお、上記説明では、ユーザ情報と領域情報との両方が用いられる例を述べたが、いずれか一方のみが用いられてもよい。 In the above description, an example in which both user information and area information are used has been described, but only one of them may be used.
また、上記説明では、領域情報は、領域と撮影方向とを示す例を述べたが、いずれか一方のみを示してもよい。 Also, in the above description, the example where the area information indicates the area and the shooting direction was described, but only one of them may be indicated.
次に、ユーザが齲歯の治療などにより一部の歯牙(例えば「上顎左側の第2小臼歯」)が抜けている場合に、口腔内カメラシステムにおける識別部103が行う動作の詳細を説明する。なお、以下では、1つの画像データ(動画像に含まれる1フレーム、又は1枚の静止画)に対する処理を説明する。図12は、上顎左の第2小臼歯が抜けているユーザの口腔内の状態を示す図である。
Next, the details of the operation performed by the
領域検出部101は、口腔内カメラ10が第2小臼歯が含まれる「上顎左側」の領域を撮影していることを特定する。そして、口腔内カメラ10が第2小臼歯に対応する部位の画像B(m’)を撮影し、画像解析等により歯牙が存在しないことを検出する。
The
次に、種別識別部105は、歯牙画像B(m’-1)、B(m’+1)と、参照データ(A(n))とからErr(n)を算出し、歯牙画像B(m’-1)、B(m’+1)の歯牙の種類と位置を特定し、B(m’)が上顎左側の第1小臼歯と第1大臼歯に挟まれた領域の画像であることを特定し、第2小臼歯が抜けていると判定し、判定結果を出力する。
Next, the
なお、第3大臼歯が抜けている場合には、隣り合う第2大臼歯を特定することで第3大臼歯が抜けていることを判定できる。 When the third molar is missing, it can be determined that the third molar is missing by specifying the adjacent second molar.
また、ユーザが定期的に口腔内撮影を行っている場合など、当該ユーザの歯牙画像が過去に得られている場合には、当該歯牙画像が参照データとして用いられてよい。この場合、過去の口腔内撮影の結果からユーザの抜けた歯牙の情報を得ることができる。 In addition, in the case where a tooth image of the user has been obtained in the past, such as when the user performs intraoral imaging on a regular basis, the tooth image may be used as reference data. In this case, it is possible to obtain information about the missing tooth of the user from the results of past intraoral imaging.
次に、モデル生成部107の動作の詳細を説明する。図13は、モデル生成部107による歯牙列モデル生成処理のフローチャートである。まず、モデル生成部107は、ユーザ情報に基づき、複数の基本モデル108から使用する基本モデル108を選択する(S121)。具体的には、基本モデル108は、ユーザ属性(ユーザの性別、年齢層(又は年齢)及び人種の一つ、又は2以上の組み合わせ)毎に設けられている。モデル生成部107は、ユーザ情報で示されるユーザ属性に対応付けられている基本モデル108を、使用する基本モデル108として選択する。
Next, the details of the operation of the
図14は、基本モデル108の構成を示す斜視図である。基本モデル108は、歯列の
形状を模式的に表した三次元モデルであり、上面視において(歯冠側から見て)U字形状(アーチ形状、又は馬蹄形状)を有する。なお、ここでは、下顎の歯列の基本モデル(下顎基本モデル)を例に説明するが、上顎の歯列の基本モデル(上顎基本モデル)も同様に用いられ、同様の処理が行われる。なお、上顎基本モデルは、例えば、下顎基本モデルを上下反転した形状である。
FIG. 14 is a perspective view showing the configuration of the
図15は、下顎の基本モデル108の上面図であり、基本モデル108を歯冠側から見た平面図である。ここでは、基本モデル108は、複数のブロック108Aで構成される。図16は、ブロック108Aの構成を示す斜視図である。ここで、1つのブロック108Aは、口腔内の1つの歯牙に対応する。つまり、下顎基本モデルは、下顎に含まれる複数の歯牙と一対一に対応付けられた複数のブロック108Aで構成される。また、図14、図16に示した基本モデル108の断面形状は矩形である。
FIG. 15 is a top view of the
なお、基本モデル108の形状は上記に限定されない。図18は、基本モデル108の変形例の構成を示す斜視図である。図19は、この場合のブロック108Aの斜視図である。例えば、図18及び図19に示すように、基本モデル108の断面形状は、全てが直線で構成されている必要はなく、曲線を含んでもよい。また、この場合においても、位置に応じて断面形状が異なってもよい。また、断面形状は、正方形であってもよいし、長方形であってもよいし、台形であってもよい。また、断面形状は、四角形に限らず、任意の多角形であってもよい。また、断面形状は、全てが直線で構成されている必要はなく、曲線を含んでもよい。また、この場合においても、位置に応じて断面形状が異なってもよい。
Note that the shape of the
また、基本モデル108の断面形状は、位置に応じて異なってもよい。例えば、図15に示すように奥歯の幅(頬側と舌側との間の幅)w1は、前歯の幅w2より広くてもよい。なお、長さ(平面視において上記幅と直交する方向の長さ)又は高さが異なってもよいし、断面の形(例えば、歯間側の円弧の曲率等)が異なってもよい。
Also, the cross-sectional shape of the
次に、モデル生成部107は、選択した基本モデル108に複数の歯牙画像を貼り付けるスティッチング処理を行う(S122)。モデル生成部107はスティッチング処理において隣り合う歯牙との境界部の画像を用いる。そのため、スティッチング処理に用いる歯牙画像には隣り合う歯牙の少なくとも一方の歯牙との境界の画像が含まれることが望ましい。
Next, the
そのため、歯牙画像生成部104は、歯間位置を用いて画像を抽出することで歯牙画像を生成する際、撮影する歯牙と隣り合う少なくとも一方の歯牙との境界部の画像を含むように歯牙画像を生成することが望ましい。あるいは、歯牙画像生成部104は、歯間位置を用いて画像を抽出することで歯牙画像を生成し、併せて、歯牙画像を生成した歯牙と隣り合う歯牙との境界部の画像を生成するようにしてもよい。なお、例えば、対象の歯牙の左右両側の歯牙が欠損している場合には、対象の歯牙に隣り合う歯牙が存在しない。この場合には、例えば、歯牙画像には、対象の歯牙と、歯牙が欠落している領域(本来隣接する歯牙が存在する空間)との境界部が含まれることが好ましい。 Therefore, when generating a tooth image by extracting an image using interdental positions, the tooth image generating unit 104 generates a tooth image so as to include an image of the boundary between the photographed tooth and at least one adjacent tooth. It is desirable to generate Alternatively, the tooth image generation unit 104 generates a tooth image by extracting an image using the interdental positions, and also generates an image of the boundary between the tooth for which the tooth image was generated and the adjacent tooth. can be It should be noted that, for example, when teeth on both the left and right sides of the target tooth are missing, there are no teeth adjacent to the target tooth. In this case, for example, the tooth image preferably includes a boundary portion between the target tooth and the area where the tooth is missing (the space where the adjacent tooth originally exists).
なお、上述した歯牙の種別及び位置の識別処理に用いられる歯牙画像には、上記の境界部は、必ずしも含まれる必要はない。つまり、歯牙の種別及び位置の識別処理に用いられる歯牙画像と、スティチング処理に用いられる歯牙画像とは異なってもよい。例えば、歯牙の種別及び位置の識別処理に用いられる歯牙画像は境界部を含まず、スティチング処理に用いられる歯牙画像を含んでもよい。 It should be noted that the tooth image used for identifying the tooth type and position described above does not necessarily include the boundary portion described above. That is, the tooth image used for identifying the tooth type and position may be different from the tooth image used for the stitching process. For example, the tooth image used for identifying the tooth type and position may not include the boundary portion, and the tooth image used for the stitching process may be included.
図17は、このスティッチング処理の例を示す図である。例えば、モデル生成部107
は、ブロック108Aと同じ位置情報(種別及び位置)を有する歯牙画像を、ブロック108Aに貼り付ける。具体的には、モデル生成部107は、頬側歯牙画像をブロック108Aの頬側に貼り付け、舌側歯牙画像をブロック108Aの舌側に貼り付け、歯冠側歯牙画像をブロック108Aの歯冠側に貼り付ける。ここで、頬側歯牙画像、舌側歯牙画像、及び歯冠側歯牙画像は、それぞれ撮影方向が頬側、舌側、及び歯冠側の歯牙画像である。モデル生成部107は、この処理を全てのブロック108Aに対して行うことで、基本モデル108に口腔内の全ての歯牙の歯牙画像が貼り付けられた歯牙列モデルを生成する。
FIG. 17 is a diagram showing an example of this stitching process. For example, the
pastes a tooth image having the same location information (type and location) as
なお、ここでは、各撮影方向の歯牙画像を個別に貼り付ける例を示したが、複数の撮影方向の歯牙画像を連結した画像(パノラマ画像)を生成し、生成した画像をブロック108Aの表面形状に沿うように貼り付けてもよい。
Here, an example in which tooth images in each imaging direction are individually pasted is shown, but an image (panoramic image) is generated by connecting tooth images in a plurality of imaging directions, and the generated image is applied to the surface shape of
また、ここでは、ブロック108A毎に歯牙画像を貼り付ける例を示したが、複数の歯牙を含む歯牙列を示す歯牙列画像(連結画像データ)を、対応する複数ブロック108Aに一括して貼り付けてもよい。なお、歯牙列画像に含まれる歯牙列は、上顎又は下顎の歯牙の全てを含んでもよいし、一部を含んでもよい。
Also, although an example of pasting a tooth image for each
例えば、モデル生成部107は、複数の歯牙画像を用いて、歯牙列画像を生成してもよいし、口腔内カメラ10で得られた画像データに含まれる歯牙列の画像を歯牙列画像として用いてもよい。例えば、モデル生成部107は、複数の歯牙画像又は画像データを連結することで歯牙列画像を生成する。例えば、画像の連結には、ブロックマッチング法、オプティカルフロー法、中間輝度法などの公知のパノラマ画像の生成方法等を用いることができる。
For example, the
例えば、モデル生成部107は、2つの画像の特徴点マッチングにより、互に対応する特徴点である対応点を検出し、対応点が重なるように2つの画像を連結する。この時、モデル生成部107は、2つの画像の少なくとも一方に、アフィン変換などにより拡大、縮小、回転等の変換処理を行ってもよい。また、モデル生成部107は、2つの画像で重複する領域の画素値として、いずれかの画像の画素値を用いてもよいし、2つの画像の画素値を演算(例えば平均又は重み付け加算等)することで当該領域の画素値を算出してもよい。また、モデル生成部107は、歯間位置を特徴点として用いてもよい。また、モデル生成部107は、連結の際に、各歯牙画像の位置情報を用いてもよい。モデル生成部107は、2つの画像を連結するのに、各画像内の隣り合う歯牙の境界部の画像を用い、2つの画像の特徴点マッチングにより、互に対応する特徴点である対応点を検出し、対応点が重なるように2つの画像を連結する。このため、歯牙画像には隣り合う歯牙の少なくとも一方の歯牙との境界の画像が含まれることが望ましい。あるいは、モデル生成部107は、歯牙画像を生成した歯牙と隣り合う歯牙との境界部の画像を用い、連結して合成する2つの歯牙画像と、その間の境界部の画像との3つの画像の特徴点マッチングにより、互に対応する特徴点である対応点を検出し、対応点が重なるように3つの画像を連結してもよい。つまり、モデル生成部107は、2つの歯牙画像を連結する際に、当該2つの歯牙画像と、2つの歯牙の境界部の画像との3つの画像を用いて連結を行ってもよい。このように、境界部の画像を追加で用いることで、連結対象の2つの歯牙画像の少なくとも一方に境界部が含まれない場合、境界部の一部のみが含まれる場合、及び歯牙画像の画像端と境界部とが一致又は近接する場合等においても、精度よく画像の連結を行うことができる。
For example, the
なお、歯牙画像には隣り合う歯牙の少なくとも一方の歯牙との境界の画像が含まれることが望ましいが、この場合、隣接する歯牙の歯牙寸法(例えば、咬合面の凹凸の寸法を含む歯牙全体の寸法)、あるいは、配列寸法(例えば、隣リ合う歯牙の間隔)の少なくとも1割程度の範囲の隣接する歯牙の画像が歯牙画像に含まれることが好ましい。 It is desirable that the tooth image includes an image of the boundary between at least one of the adjacent teeth. dimension), or an image of adjacent teeth within a range of at least about 10% of the array dimension (for example, the interval between adjacent teeth) is included in the tooth image.
なお、上記では、識別部103で得られた歯牙画像の位置情報が用いられる例を述べたが、位置情報の生成方法はこれに限定されない。例えば、モデル生成部107は、外部の装置から歯牙画像及び位置情報を取得してもよい。
In the above, an example of using the position information of the tooth image obtained by the
このように、モデル生成部107は、画像データから互に隣接する歯牙同士を連結した連結画像データを生成し、連結画像データを基本モデル108に貼り付けてもよい。
In this manner, the
なお、歯牙画像を個別に貼り付ける場合においても、貼り付けた画像が重複する領域(ブロックの境界付近の領域)において、上記と同様の画像の連結処理又は補完処理を行ってもよい。 Even when tooth images are pasted individually, image linking processing or complementing processing similar to that described above may be performed in an area where the pasted images overlap (an area near the boundaries of blocks).
図20は、下顎の基本モデル108の上面図であり、基本モデル108を歯冠側から見た平面図である。以下に、図20に示すように、下顎右の第2大臼歯、第1大臼歯、第2小臼歯の歯冠側画像を、基本モデル108の対応するブロック108A1及び108A2の歯冠側面にスティッチングする動作について説明する。
FIG. 20 is a top view of the
図21A及び図21Bは、スティッチング処理に用いる歯牙画像の例を示す図である。図21Aは、上顎の中切歯と側切歯の一部が撮影された画像121を示す図である。図21Bは、下顎の第2大臼歯と第1大臼歯の一部が撮影された画像122を示す図である。図21Aに示す画像121には、中切歯と側切歯との境界部が含まれている。図21Bに示す画像122には、第2大臼歯と第1大臼歯との境界部が含まれている。
21A and 21B are diagrams showing examples of tooth images used for stitching processing. FIG. 21A is a diagram showing an
次にスティッチング処理の一例として、基本モデル108の歯冠側に第2大臼歯と第1大臼歯の歯冠画像を貼り付ける動作を説明する。図22A及び図22Bは、スティッチング処理において、下顎右側の第2大臼歯を基本モデル108の歯冠側面に貼り付ける処理を説明するための図である。図22Aは、第2大臼歯の画像122の例である。この画像122には、第2大臼歯と、第1大臼歯の一部とが含まれている。第1大臼歯の歯冠の頬側の輪郭には、頬面溝が縦走している。例えば、図22Bに示すように、モデル生成部107は、頬面溝が形成されている頬側の輪郭110が基本モデル108のブロック108A1の歯冠面の頬側の縁に接するように画像122をブロック108A1の歯冠面に貼り付ける。このように、画像122を貼り付ける向きが決定される。このとき、モデル生成部107は、第2大臼歯の画像122をブロック108A1の歯冠面の形状に合わせるために、例えばアフィン変換などにより拡大、縮小、及び回転等の変換処理を画像122に行うことが好ましい。
Next, as an example of the stitching process, the operation of pasting the crown images of the second molar and the first molar on the crown side of the
図23A、図23B及び図23Cは、ブロック108A1の歯冠面に貼り付けられた第2大臼歯の画像に第1大臼歯の画像を連結する動作を説明するための図である。図23Aは、ブロック108A1の歯冠面に貼り付けられた第2大臼歯の画像122から、第1大臼歯との境界部に面する第2大臼歯の輪郭112を特異点として抽出した状態を示している。図23Bは、第1大臼歯の画像123を示す図である。この画像123には、第1大臼歯と、第1大臼歯の上側に配置された第2大臼歯の一部とが含まれている。図23Bは、第1大臼歯の画像123において、第2大臼歯の第1大臼歯との境界部に面する輪郭114を特異点として抽出した状態を示している。図23Cは、図23Aと図23Bとにおいて抽出した輪郭112と、輪郭114とを重ねることで第2大臼歯の画像122と第1大臼歯の画像123とを連結した状態を示している。このとき、モデル生成部107は、第2大臼歯の画像122で抽出した輪郭112と、第1大臼歯の画像123で抽出した輪郭114とを重ねる際に、第1大臼歯の画像123に対し、例えばアフィン変換などにより拡大、縮小、回転等の変換処理を行うことが好ましい。また、輪郭112と輪郭114とを重ねる処理に加え、ブロック108A2の歯冠面の頬側に第1大臼歯の歯冠の頬側輪郭が接するように、画像123を貼り付けることが実際の歯並びに則しており望ましい。
23A, 23B, and 23C are diagrams for explaining the operation of connecting the image of the first molar to the image of the second molar attached to the crown surface of block 108A1. FIG. 23A shows a state in which the
なお、上記の説明では輪郭を貼り合わせに用いたが、歯牙に複数の特異点を設定して特異点マッチングにより画像を連結してもよい。 In the above description, contours are used for pasting, but a plurality of singular points may be set on the tooth and images may be connected by singular point matching.
また、歯牙の画像を中切歯から側切歯、犬歯に向かう向きに連結してもよい。この場合、第2大臼歯、第2大臼歯で説明した動作で画像を連結することができる。また、中切歯、側切歯、犬歯の歯冠の画像を基本モデル108の歯冠面に貼り付ける際に、ブロック108Aの頬側(唇側)に中切歯、側切歯、犬歯の頬側(唇側)の輪郭が接するように画像をブロック108Aに貼り付けることが実際の歯並びに則しており望ましい。
Also, the tooth images may be connected in the direction from the central incisor to the lateral incisor to the canine. In this case, the images can be connected by the operation described for the second molar. Also, when pasting the images of the crowns of the central incisors, the lateral incisors, and the canines on the crown surface of the
上記動作により下顎の左側領域(下顎左および下顎前の左側)と右側領域(下顎右および下顎前の右側)の部分パノラマ画像を生成できる。次に、モデル生成部107は、図20に示す基本モデル108の下顎前の左側中切歯が貼り付けられたブロック108A3の歯冠面と下顎前の右側中切歯が貼り付けられたブロック108A4の歯冠面を連結し、全体のパノラマ歯列画像を生成する。
By the above operation, a partial panorama image of the left region (left mandible and left front of mandible) and right region (right mandible and right front of mandible) of the mandible can be generated. Next, the
モデル生成部107は、ブロック108A3の歯冠面とブロック108A4の歯冠面を連結するとき、下顎前の左側中切歯と下顎前の右側中切歯の境界部の画像を用いてスティッチング処理を行うことで歯間領域をより鮮明にすることができる。
When the tooth crown surface of block 108A3 and the tooth crown surface of block 108A4 are connected, the
図24A、図24B、図24Cは、ブロック108A3の歯冠面とブロック108A3の歯冠面を連結するのに用いる歯牙画像の例を示す図である。図24Aは、下顎の左側の中切歯、右側の中切歯の一部、及び左側の側切歯の一部が撮影された画像124を示す図である。図24Bは、下顎の右側の中切歯、左側の中切歯の一部、及び右側の側切歯の一部が撮影された画像125を示す図である。図24A及び図24Bのそれぞれの画像124及び125には、左側の中切歯と右側の中切歯との境界部が含まれている。また、ブロック108A3の歯冠面の頬側(唇側)に左側の中切歯の歯冠の頬側(唇皮側)輪郭が接するように画像124をブロック108A3に貼り付けることが実際の歯並びに則しており望ましい。同様に、ブロック108A4の歯冠面の頬側(唇側)に右側の中切歯の歯冠の頬側(唇皮側)輪郭が接するように画像125をブロック108A4に貼り付けることが実際の歯並びに則しており望ましい。
24A, 24B, and 24C are diagrams showing examples of tooth images used to connect the coronal surfaces of blocks 108A3 and 108A3. FIG. 24A shows an
図24Aは、ブロック108A3の歯冠面に貼り付けられた左側の中切歯の画像124から、右側の中切歯との境界部に面する左側に中切歯の輪郭116を特異点として抽出した状態を示している。図24Bは、ブロック108A4の歯冠面に貼り付けられた右側に中切歯の画像125に含まれる左側の中切歯の一部に対し、右側の中切歯との境界部に面する左側に中切歯の輪郭118を特異点として抽出した状態を示している。図24Cは、図24Aと図24Bで抽出した輪郭116及び輪郭118を重ねることでブロック108A3の左側の中切歯の画像124とブロック108A4の右側の中切歯の画像125とを連結した状態を示している。このとき、モデル生成部107は、輪郭116と輪郭118を重ねる際に、例えば右側の中切歯の画像125に対し、例えばアフィン変換などにより拡大、縮小、回転等の変換処理を行うことが好ましい。
FIG. 24A extracts the
なお、上記の説明では輪郭を貼り合わせに用いたが、歯牙に複数の特異点を設定して特異点マッチングにより画像を連結してもよい。 In the above description, contours are used for pasting, but a plurality of singular points may be set on the tooth and images may be connected by singular point matching.
また、上記では歯牙を中心に歯牙列モデルの生成処理を説明したが、画像データ、歯牙画像、歯牙列画像、及び歯牙列モデルは、歯牙に加え歯肉(歯茎)の画像を含んでもよい。また、図12に示すように、一部の歯牙が抜けている場合には、モデル生成部107は、歯牙のないブロック108Aの画像を貼り付ける面に、歯牙がない旨を示すマーク、又
は、表記を行ってもよい。
In the above, the tooth row model generation processing has been described with a focus on teeth, but the image data, the tooth image, the tooth row image, and the tooth row model may include an image of the gingiva (gums) in addition to the teeth. Further, as shown in FIG. 12, when some teeth are missing, the
以上のように、口腔内カメラシステムは、ユーザの口腔内の歯牙を手動により撮影することで画像データを生成する撮影部(例えば口腔内カメラ10)と、上面視においてU字形状を有する三次元モデルである基本モデル108に、画像データを貼り付けることでユーザの歯牙列モデルを生成するモデル生成部107とを備える。
As described above, the intraoral camera system includes a photographing unit (for example, the intraoral camera 10) that generates image data by manually photographing the teeth in the user's oral cavity, and a three-dimensional A
これによれば、当該口腔内カメラシステムは、歯牙列の状態を精度よく表した歯牙列モデルを生成できる。 According to this, the intraoral camera system can generate a tooth row model that accurately represents the state of the tooth row.
ここで、歯牙列及び歯肉の画像スティッチング処理に関して、歯牙列及び歯肉の撮影を行い、その局部的な撮影画像を貼り合わせて歯牙列及び歯肉の全体的な視覚的情報をモデル化する場合、パノラマ写真などで使われる一般的なスティッチングでは上手にモデル化できない場合がある。これは、上顎の歯牙列及び歯肉、及び下顎の歯牙列及び歯肉は、平面的に構成されているわけではなく、立体的に構成されているため、一般的なスティッチングでは歪み等が発生してしまう。 Here, regarding the image stitching process of the tooth row and the gingiva, when the tooth row and the gingiva are photographed and the local photographed images are stitched together to model the overall visual information of the tooth row and the gingiva, In some cases, general stitching used in panorama photos cannot be modeled well. This is because the tooth row and gingiva of the upper jaw and the tooth row and gingiva of the lower jaw are not two-dimensional but three-dimensional. end up
一方で、本実施の形態では、歯牙列をU字形状で表した基本モデル108の面に対してスティッチング処理を行う。これにより、歪みの発生等を抑制できるので、歯牙列モデルの精度を向上できる。また、例えば、歯牙列モデルを任意の方向から見た画像をユーザに表示できるので、ユーザの利便性を向上できる。
On the other hand, in the present embodiment, the stitching process is performed on the surface of the
例えば、画像データは、ユーザの上顎の歯牙が撮影された上顎画像データと、ユーザの下顎の歯牙が撮影された下顎画像データとを含む。基本モデル108は、上顎に対応する上顎基本モデルと、下顎に対応する下顎基本モデルとを含む。モデル生成部107は、上顎基本モデルに上顎画像データを貼り付け、下顎基本モデルに下顎画像データを貼り付けることで歯牙列モデルを生成する。
For example, the image data includes upper jaw image data obtained by photographing the teeth of the user's upper jaw and lower jaw image data obtained by photographing the teeth of the user's lower jaw. The
例えば、図17等に示すように、画像データは、歯牙が頬側から撮影された頬側画像データと、歯牙が舌側から撮影された舌側画像データと、歯牙が歯冠側から撮影された歯冠側画像データとを含み、モデル生成部107は、基本モデル108に頬側から頬側画像データを貼り付け、基本モデル108に舌側から舌側画像データを貼り付け、基本モデル108に歯冠側から歯冠側画像データを貼り付けることで歯牙列モデルを生成する。
For example, as shown in FIG. 17 and the like, the image data includes buccal image data in which the teeth are photographed from the buccal side, lingual image data in which the teeth are photographed from the lingual side, and image data in which the teeth are photographed from the crown side. The
例えば、図15等に示すように、基本モデル108の断面形状は歯牙の位置に応じて異なる。
For example, as shown in FIG. 15, etc., the cross-sectional shape of the
例えば、口腔内カメラシステムは、さらに、ユーザの性別、年齢層及び人種の少なくとも一つを示すユーザ情報を取得するユーザ情報取得部102を含み、モデル生成部107は、ユーザ情報に基づき、複数の基本モデル108から、使用する基本モデル108を選択し、選択した基本モデル108に画像データを貼り付けることで歯牙列モデルを生成する。これによれば、当該口腔内カメラシステムは、ユーザに応じた歯牙列モデルを生成できる。
For example, the intraoral camera system further includes a user
例えば、口腔内カメラシステムは、さらに、画像データから、画像データで示される歯牙の種類及び位置を識別する識別部103を備える。図15等に示ように、基本モデル108は、各々が一つの歯牙に対応する複数のブロック108Aで構成されており、モデル生成部107は、識別部103で識別された歯牙の種類及び位置に基づき、基本モデル108の対応する位置に、画像データを貼り付ける。
For example, the intraoral camera system further includes an
これによれば、モデル生成部107は、識別部103で得られた情報に基づき、基本モデル108の各位置に貼り付ける画像を容易に判定できる。また、ブロック108A単位、つまり歯牙単位で歯牙列モデルを管理できるので、例えば、特定の歯牙のモデルを表示する等の処理を容易に行うことができる。
According to this, the
例えば、識別部103は、ニューラルネットワークを含み、画像データを入力とし、歯牙の種類及び位置を出力する推定モデル106を用いて、歯牙の種類及び位置を識別する。
For example, the
例えば、識別部103は、画像データから歯間位置を検出し、検出された歯間位置に基づき、各々が一つの歯牙を示す歯牙画像を生成し、歯牙画像に基づき歯牙画像で示される歯牙の種類及び位置を識別し、識別された歯牙の種類及び位置に基づき、歯牙画像を、基本モデル108の対応する位置に貼り付ける。
For example, the
例えば、モデル生成部107は、画像データから互に隣接する歯牙同士を連結した連結画像データを生成し、連結画像データを基本モデル108に貼り付ける。
For example, the
以上、本開示の実施の形態に係る口腔内カメラシステムについて説明したが、本開示は、この実施の形態に限定されるものではない。 Although the intraoral camera system according to the embodiment of the present disclosure has been described above, the present disclosure is not limited to this embodiment.
また、上記実施の形態に係る口腔内カメラシステムに含まれる各処理部は典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。 Each processing unit included in the intraoral camera system according to the above embodiment is typically implemented as an LSI, which is an integrated circuit. These may be made into one chip individually, or may be made into one chip so as to include part or all of them.
また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。 Further, circuit integration is not limited to LSIs, and may be realized by dedicated circuits or general-purpose processors. An FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure connections and settings of circuit cells inside the LSI may be used.
また、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。 Further, in each of the above embodiments, each component may be implemented by dedicated hardware or by executing a software program suitable for each component. Each component may be realized by reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory by a program execution unit such as a CPU or processor.
また、本開示は、口腔内カメラシステムにより実行される歯牙列モデル生成方法等として実現されてもよい。また、本開示は、口腔内カメラシステムに含まれる口腔内カメラ、携帯端末、又はクラウドサーバとして実現されてもよい。 The present disclosure may also be implemented as a tooth row model generation method or the like executed by an intraoral camera system. Also, the present disclosure may be implemented as an intraoral camera, a mobile terminal, or a cloud server included in an intraoral camera system.
また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。 Also, the division of functional blocks in the block diagram is an example, and a plurality of functional blocks can be realized as one functional block, one functional block can be divided into a plurality of functional blocks, and some functions can be moved to other functional blocks. may Moreover, single hardware or software may process the functions of a plurality of functional blocks having similar functions in parallel or in a time-sharing manner.
また、フローチャートにおける各ステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。 Also, the order in which each step in the flowchart is executed is for illustrative purposes in order to specifically describe the present disclosure, and orders other than the above may be used. Also, some of the above steps may be executed concurrently (in parallel) with other steps.
以上、一つまたは複数の態様に係る口腔内カメラシステム等について、実施の形態に基づいて説明したが、本開示は、この実施の形態に限定されるものではない。本開示の趣旨
を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。
Although the intraoral camera system and the like according to one or more aspects have been described above based on the embodiments, the present disclosure is not limited to these embodiments. As long as it does not deviate from the spirit of the present disclosure, various modifications that a person skilled in the art can think of are applied to this embodiment, and a form constructed by combining the components of different embodiments is also within the scope of one or more aspects may be included within
本開示は、口腔内カメラシステムに適用できる。 The present disclosure is applicable to intraoral camera systems.
10 口腔内カメラ
10a ヘッド部
10b ハンドル部
10c ネック部
12 撮影光学系
14 撮像素子
26A 第1のLED
26B 第2のLED
26C 第3のLED
26D 第4のLED
36、40 アクチュエータ
50 中央制御部
52 画像処理部
54 LED制御部
56 レンズドライバ
58 無線通信モジュール
60 電源制御部
62 コントローラ
64 メモリ
66 電池
68 コイル
69 充電器
70 携帯端末
72 タッチスクリーン
80 クラウドサーバ
90 位置センサ
101 領域検出部
102 ユーザ情報取得部
103 識別部
104 歯牙画像生成部
105 種別識別部
106 推定モデル
107 モデル生成部
108 基本モデル
108A ブロック
REFERENCE SIGNS
26B second LED
26C Third LED
26D 4th LED
36, 40
Claims (10)
上面視においてU字形状を有する三次元モデルである基本モデルに、前記画像データを貼り付けることで前記ユーザの歯牙列モデルを生成するモデル生成部とを備える
口腔内カメラシステム。 an imaging unit that generates image data by manually imaging the teeth in the user's oral cavity;
an intraoral camera system, comprising: a model generation unit that generates a tooth row model of the user by pasting the image data onto a base model that is a three-dimensional model having a U-shape in top view.
前記基本モデルは、上顎に対応する上顎基本モデルと、下顎に対応する下顎基本モデルとを含み、
前記モデル生成部は、前記上顎基本モデルに前記上顎画像データを貼り付け、前記下顎基本モデルに前記下顎画像データを貼り付けることで前記歯牙列モデルを生成する
請求項1記載の口腔内カメラシステム。 The image data includes upper jaw image data obtained by photographing the teeth of the upper jaw of the user and lower jaw image data obtained by photographing the teeth of the lower jaw of the user,
The basic model includes an upper jaw basic model corresponding to the upper jaw and a lower jaw basic model corresponding to the lower jaw,
The intraoral camera system according to claim 1, wherein the model generating unit generates the tooth row model by pasting the upper jaw image data to the upper jaw basic model and pasting the lower jaw image data to the lower jaw basic model.
前記モデル生成部は、前記基本モデルに頬側から前記頬側画像データを貼り付け、前記基本モデルに舌側から前記舌側画像データを貼り付け、前記基本モデルに歯冠側から前記歯冠側画像データを貼り付けることで前記歯牙列モデルを生成する
請求項1又は2記載の口腔内カメラシステム。 The image data includes buccal image data obtained by photographing the tooth from the buccal side, lingual image data obtained by photographing the tooth from the lingual side, and coronal image data obtained by photographing the tooth from the crown side. and
The model generation unit pastes the buccal image data from the buccal side to the basic model, pastes the lingual image data from the lingual side to the basic model, and pastes the basic model from the dental crown side to the dental crown side. The intraoral camera system according to claim 1 or 2, wherein the tooth row model is generated by pasting image data.
請求項1~3のいずれか1項に記載の口腔内カメラシステム。 The intraoral camera system according to any one of claims 1 to 3, wherein the cross-sectional shape of the basic model differs according to the position of the tooth.
前記モデル生成部は、前記ユーザ情報に基づき、複数の基本モデルから、使用する基本モデルを選択し、選択した基本モデルに前記画像データを貼り付けることで前記歯牙列モデルを生成する
請求項1~4のいずれか1項に記載の口腔内カメラシステム。 The intraoral camera system further includes a user information acquisition unit that acquires user information indicating at least one of gender, age group, and race of the user,
The model generating unit selects a basic model to be used from a plurality of basic models based on the user information, and pastes the image data to the selected basic model to create the tooth row model. 5. The intraoral camera system according to any one of 4.
前記画像データから、前記画像データで示される歯牙の種類及び位置を識別する識別部を備え、
前記基本モデルは、各々が一つの歯牙に対応する複数のブロックで構成されており、
前記モデル生成部は、前記識別部で識別された前記歯牙の種類及び位置に基づき、前記基本モデルの対応する位置に、前記画像データを貼り付ける
請求項1~5のいずれか1項に記載の口腔内カメラシステム。 The intraoral camera system further comprises:
An identification unit that identifies the type and position of the tooth indicated by the image data from the image data,
The basic model is composed of a plurality of blocks each corresponding to one tooth,
6. The model generation unit according to any one of claims 1 to 5, wherein the image data is pasted on the corresponding position of the basic model based on the type and position of the tooth identified by the identification unit. Intraoral camera system.
請求項6記載の口腔内カメラシステム。 7. The intraoral camera system according to claim 6, wherein the identification unit identifies the type and position of the tooth using an estimation model that includes a neural network, receives the image data, and outputs the type and position of the tooth. .
前記画像データから歯間位置を検出し、
検出された歯間位置に基づき、各々が一つの歯牙を示す歯牙画像を生成し、
前記歯牙画像に基づき前記歯牙画像で示される歯牙の種類及び位置を識別し、
識別された前記歯牙の種類及び位置に基づき、前記歯牙画像を、前記基本モデルの対応
する位置に貼り付ける
請求項6又は7記載の口腔内カメラシステム。 The identification unit
Detecting interdental positions from the image data,
generating tooth images, each representing one tooth, based on the detected interdental positions;
identifying the type and position of the tooth shown in the tooth image based on the tooth image;
8. The intraoral camera system according to claim 6 or 7, wherein the tooth image is pasted on the corresponding position of the base model based on the identified tooth type and position.
請求項1~5のいずれか1項に記載の口腔内カメラシステム。 6. The model generation unit according to any one of claims 1 to 5, wherein connected image data is generated by connecting mutually adjacent teeth from the image data, and the connected image data is pasted on the basic model. Intraoral camera system.
上面視においてU字形状を有する三次元モデルである基本モデルに、前記画像データを貼り付けることで前記ユーザの歯牙列モデルを生成する
歯牙列モデル生成方法。 an image capturing unit manually capturing an image of teeth in the user's oral cavity to generate image data;
A tooth row model generation method for generating a tooth row model of the user by pasting the image data onto a basic model, which is a three-dimensional model having a U-shape in top view.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021026202A JP2022127947A (en) | 2021-02-22 | 2021-02-22 | Intraoral camera system and tooth column model generating method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021026202A JP2022127947A (en) | 2021-02-22 | 2021-02-22 | Intraoral camera system and tooth column model generating method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022127947A true JP2022127947A (en) | 2022-09-01 |
Family
ID=83060872
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021026202A Pending JP2022127947A (en) | 2021-02-22 | 2021-02-22 | Intraoral camera system and tooth column model generating method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022127947A (en) |
-
2021
- 2021-02-22 JP JP2021026202A patent/JP2022127947A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6935036B1 (en) | Dental mirror with integrated camera and its applications | |
US11534275B2 (en) | Method for constructing a restoration | |
JP5671734B2 (en) | Computer-aided creation of custom tooth setup using facial analysis | |
CN113260335B (en) | System for measuring periodontal pocket depth | |
WO2017205294A1 (en) | A dental mirror with an integrated camera, and applications thereof | |
US20240033057A1 (en) | Real-time bite articulation | |
JP2022127947A (en) | Intraoral camera system and tooth column model generating method | |
JP7429939B2 (en) | Intraoral camera system and image display method | |
JP7462170B2 (en) | Intraoral camera system, tooth identification method, control method and program | |
WO2023157803A1 (en) | Intraoral camera system and signal processing method | |
JP7469351B2 (en) | Identification device, identification method, and identification program | |
WO2022176942A1 (en) | Intraoral camera system and photography operation determination method | |
JP7265359B2 (en) | DATA GENERATION DEVICE, SCANNER SYSTEM, DATA GENERATION METHOD, AND DATA GENERATION PROGRAM | |
JP7227188B2 (en) | Identification device, identification system, identification method, and identification program | |
JP6900445B2 (en) | Identification device, tooth type identification system, identification method, and identification program | |
WO2023157842A1 (en) | Intraoral camera, illumination control device, and illumination control method | |
JP7195291B2 (en) | DATA PROCESSING APPARATUS, DATA PROCESSING SYSTEM, DATA PROCESSING METHOD, AND DATA PROCESSING PROGRAM | |
KR102377629B1 (en) | Artificial Intelligence Deep learning-based orthodontic diagnostic device for analyzing patient image and generating orthodontic diagnostic report and operation method thereof | |
WO2023240333A1 (en) | System, method and apparatus for personalized dental prostheses planning | |
KR20240013207A (en) | Method for obtaining a model of a dental arch |