JP2019097851A - Dental surgery support system and program - Google Patents

Dental surgery support system and program Download PDF

Info

Publication number
JP2019097851A
JP2019097851A JP2017231483A JP2017231483A JP2019097851A JP 2019097851 A JP2019097851 A JP 2019097851A JP 2017231483 A JP2017231483 A JP 2017231483A JP 2017231483 A JP2017231483 A JP 2017231483A JP 2019097851 A JP2019097851 A JP 2019097851A
Authority
JP
Japan
Prior art keywords
information
operator
dimensional shape
projection image
tooth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017231483A
Other languages
Japanese (ja)
Inventor
聖史 菊地
Seiji Kikuchi
聖史 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kagoshima University NUC
Original Assignee
Kagoshima University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kagoshima University NUC filed Critical Kagoshima University NUC
Priority to JP2017231483A priority Critical patent/JP2019097851A/en
Publication of JP2019097851A publication Critical patent/JP2019097851A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)

Abstract

To provide a dental surgery support system and program which allow an operator to perform proper dental surgery.SOLUTION: A storage part 10 stores before-cutting three-dimensional shape data 10A of a tooth T related to dental surgery. A detection part 11 detects information related to an orientation and size of a tooth T viewed from an operator D who performs dental surgery. A projection image generation part 12 identifies an apparent three-dimensional shape of the tooth T viewed from the operator D on the basis of the before-cutting three-dimensional shape data 10A of the tooth T stored in the storage part 10 and information related to the orientation and size of the tooth T detected by the detection part 11, and generates a projection image I including information for supporting the operator D according to the three-dimensional shape. A projection part 13 projects a projection image I generated by the projection image generation part 12 to the tooth T.SELECTED DRAWING: Figure 1

Description

本発明は、歯科手術支援システム及びプログラムに関する。   The present invention relates to a dental surgery support system and program.

歯の切削(広義の切削であり、研削又は研磨も含まれる)に用いるハンドピースは、臨床に欠かせない基本的な治療機器の1つである。ハンドピースは、現在までその出力や耐久性などの面において改良が積み重ねられ、高い切削性能を有するようになってきている(例えば、特許文献1参照)。   Handpieces used for cutting teeth (in a broad sense, including grinding or grinding) are one of the basic therapeutic devices essential to the clinic. Until now, improvements have been made to the handpiece in terms of its output and durability, and it has come to have high cutting performance (see, for example, Patent Document 1).

特開2017−176229号公報JP, 2017-176229, A

しかしながら、ハンドピースは、あくまで歯科医師(術者)が手に持って操作するものである。そのため、ハンドピースによって切削した歯の仕上がりは術者の技量に大きく左右されるという問題が残されたままである。このことは、歯科用CAD/CAM(Computer Aided Design/Computer Aided Manufacture)システムを用いても変わるものではない。歯科用CAD/CAMシステムは、口腔内に装着される修復物や補綴物の設計及び製造に用いられるものであり、ハンドピースを用いた術者の操作を支援するものではないからである。   However, the handpiece is what the dentist (operator) holds by hand. Therefore, the problem remains that the finish of the teeth cut by the handpiece largely depends on the skill of the operator. This does not change even if a dental CAD / CAM (Computer Aided Design / Computer Aided Manufacture) system is used. The dental CAD / CAM system is used to design and manufacture restorations and prostheses to be mounted in the oral cavity, and does not support the operation of the operator using a handpiece.

現在、歯科用CAD/CAMシステムを製造・販売する企業からハンドピースによる歯の削り方に関する資料が提供されている。しかしながら、術者は、削り過ぎなのか削り足らないのかを目測で判断しているのが現状である。   Currently, companies that manufacture and sell dental CAD / CAM systems provide data on how to cut teeth with a handpiece. However, the present condition is that the operator judges by visual observation whether it is overcutting or not enough.

本発明は、上記実情に鑑みてなされたものであり、術者が適切な歯科手術を行うことができる歯科手術支援システム及びプログラムを提供することを目的とする。   The present invention has been made in view of the above-described circumstances, and an object thereof is to provide a dental surgery support system and program that allow an operator to perform appropriate dental surgery.

上記目的を達成するために、本発明の第1の観点に係る歯科手術支援システムは、
歯科手術に関連する部位の3次元形状に関する情報を記憶する記憶部と、
歯科手術を行う術者から見た前記部位の向き及び大きさに関する情報を検出する検出部と、
前記記憶部に記憶された前記部位の3次元形状に関する情報と前記検出部で検出された前記部位の向き及び大きさに関する情報とに基づいて、前記術者から見た前記部位の見かけの3次元形状を特定し、その3次元形状に応じて前記術者を支援する情報を含む投影像を生成する投影像生成部と、
前記投影像生成部で生成された投影像を、前記部位に投影する投影部と、
を備える。
In order to achieve the above object, a dental surgery support system according to a first aspect of the present invention is:
A storage unit for storing information on a three-dimensional shape of a part related to dental surgery;
A detection unit for detecting information on the direction and size of the site as seen from the operator performing dental surgery;
Apparent three-dimensional appearance of the part viewed from the operator based on the information on the three-dimensional shape of the part stored in the storage unit and the information on the direction and size of the part detected by the detection unit A projection image generation unit that specifies a shape and generates a projection image including information for assisting the operator according to the three-dimensional shape;
A projection unit that projects the projection image generated by the projection image generation unit onto the part;
Equipped with

この場合、前記術者から見た前記部位を互いに視差のある状態で撮像する複数のカメラと、
前記投影像を投影するプロジェクタと、
を備え、
前記カメラ及び前記プロジェクタは、
前記術者の頭部に装着される装着具に取り付けられるか、前記術者が前記部位を観察するのに用いるマイクロスコープに組み込まれている、
こととしてもよい。
In this case, a plurality of cameras for imaging the parts viewed from the operator in a mutually parallax state;
A projector for projecting the projected image;
Equipped with
The camera and the projector are
It is attached to a mounting tool attached to the head of the operator, or incorporated into a microscope used by the operator to observe the site.
You may do it.

前記記憶部に記憶される前記部位の3次元形状に関する情報には、前記部位において切削対象となる領域との位置関係が変わらず、互いに識別可能な少なくとも3つのマーカの位置情報が含まれ、
前記検出部は、
前記術者から見た前記部位の向き及び大きさに関する情報として、前記術者から見た少なくとも3つのマーカの現在の位置情報を検出し、
前記投影像生成部は、
前記記憶部に記憶された少なくとも3つのマーカの位置情報と前記検出部で検出された少なくとも3つのマーカの現在の位置情報とに基づいて、前記術者が見た前記部位の見かけの3次元形状を特定し、
特定された前記部位の3次元形状に基づいて、前記術者を支援する情報を含む投影像を生成する、
こととしてもよい。
The information on the three-dimensional shape of the part stored in the storage unit includes positional information of at least three markers that can be distinguished from each other without changing the positional relationship with the area to be cut in the part.
The detection unit is
Detecting current position information of at least three markers viewed from the operator as information on the direction and size of the portion viewed from the operator;
The projected image generation unit
Apparent three-dimensional shape of the portion seen by the operator based on position information of at least three markers stored in the storage unit and current position information of at least three markers detected by the detection unit To identify
Generating a projection image including information for assisting the operator based on the three-dimensional shape of the identified part;
You may do it.

前記検出部は、
前記部位の向き及び大きさに関する情報として、前記部位において切削対象となる領域との位置関係が変わらない少なくとも3つの前記部位の特徴点の現在の位置情報を検出し、
前記投影像生成部は、
前記記憶部に記憶された少なくとも3つの前記部位の特徴点の位置情報と前記検出部で検出された少なくとも3つの特徴点の現在の位置情報とに基づいて、前記術者が見た前記部位の見かけの3次元形状を特定し、
特定された前記部位の3次元形状に基づいて、前記術者を支援する情報を含む投影像を生成する、
こととしてもよい。
The detection unit is
As information on the direction and size of the part, current position information of feature points of at least three of the parts whose position relationship with the area to be cut in the part does not change is detected.
The projected image generation unit
The portion of the portion viewed by the operator based on position information of feature points of at least three of the portions stored in the storage unit and current position information of at least three feature points detected by the detection unit Identify the apparent three-dimensional shape,
Generating a projection image including information for assisting the operator based on the three-dimensional shape of the identified part;
You may do it.

前記記憶部に記憶された前記部位の3次元形状に関する情報に基づいて、術後の前記部位の3次元形状に関する情報を生成する切削後データ生成部を備え、
前記記憶部は、
術後の前記部位の3次元形状に関する情報を記憶し、
前記投影像生成部は、
前記記憶部に記憶された術後の前記部位の3次元形状に関する情報に基づいて、前記投影像として、前記部位における切削する部分と、切削しない部分とを区別する像を生成する、
こととしてもよい。
The post-cutting data generation unit is configured to generate information on the three-dimensional shape of the post-operative region based on the information on the three-dimensional shape of the region stored in the storage unit;
The storage unit is
Storing information on the three-dimensional shape of the post-operative site;
The projected image generation unit
Based on the information on the three-dimensional shape of the post-operative site stored in the storage unit, an image is generated as the projection image that distinguishes a portion to be cut from the site and a non-cut portion.
You may do it.

前記投影像生成部は、
前記投影像として、前記部位に対する術具の姿勢又は位置に関する指標を生成する、
こととしてもよい。
The projected image generation unit
An index relating to the posture or position of the surgical instrument with respect to the site is generated as the projection image.
You may do it.

本発明の第2の観点に係るプログラムは、
コンピュータを、
歯科手術に関連する部位の3次元形状に関する情報を記憶する記憶部、
歯科手術を行う術者から見た前記部位の向き及び大きさに関する情報を検出する検出部、
前記記憶部に記憶された前記部位の3次元形状に関する情報と前記検出部で検出された前記部位の向き及び大きさに関する情報とに基づいて、前記術者から見た前記部位の見かけの3次元形状を特定し、その3次元形状に応じて前記術者を支援する情報を含む投影像を生成する投影像生成部、
前記投影像生成部で生成された投影像を、前記部位に投影する投影部、
として機能させる。
The program according to the second aspect of the present invention is
Computer,
A storage unit for storing information on the three-dimensional shape of a part related to dental surgery,
A detection unit for detecting information on the direction and size of the site as seen from the operator performing dental surgery;
Apparent three-dimensional appearance of the part viewed from the operator based on the information on the three-dimensional shape of the part stored in the storage unit and the information on the direction and size of the part detected by the detection unit A projection image generation unit that specifies a shape and generates a projection image including information for assisting the operator according to the three-dimensional shape;
A projection unit that projects the projection image generated by the projection image generation unit onto the part;
Act as

本発明によれば、術者を支援する情報を含む投影像を、歯科手術に関連する部位に投影する。このようにすれば、術者がその部位から視線をそらさずに、支援する情報を見ながら歯科手術を行うことができる。この結果、術者が適切な歯科手術を行うことができる。   According to the present invention, a projection image including information for assisting an operator is projected to a site relevant to dental surgery. In this way, the dental surgery can be performed while looking at the information to be supported without the operator turning his or her eyes from the site. As a result, the operator can perform appropriate dental surgery.

本発明の実施の形態1に係る歯科手術支援システムの斜視図である。1 is a perspective view of a dental surgery support system according to a first embodiment of the present invention. 図1の情報処理装置のハードウエア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the information processing apparatus of FIG. 切削前の歯の3次元形状と切削後の歯の3次元形状とを示す斜視図である。It is a perspective view which shows the three-dimensional shape of the tooth before cutting, and the three-dimensional shape of the tooth after cutting. 術者と歯との位置関係を示す図である。It is a figure which shows the positional relationship of an operator and a tooth. 左のカメラの撮像視野と、右のカメラの撮像視野との関係を示す模式図である。It is a schematic diagram which shows the relationship between the imaging visual field of the camera of the left, and the imaging visual field of the camera of the right. 歯の3つの特徴点の一例を示す図である。It is a figure which shows an example of three feature points of a tooth. 歯に投影される投影像の一例を示す図である。It is a figure which shows an example of the projection image projected on a tooth. 図1の情報処理装置のフローチャートである。It is a flowchart of the information processing apparatus of FIG. 本発明の実施の形態2に係る歯科手術支援システムのマイクロスコープの光学系の構成を示す図である。It is a figure which shows the structure of the optical system of the microscope of the dental surgery assistance system which concerns on Embodiment 2 of this invention. 図9のマイクロスコープの変形例1を示す図である。It is a figure which shows the modification 1 of the microscope of FIG. 図9のマイクロスコープの変形例2を示す図である。It is a figure which shows the modification 2 of the microscope of FIG. 投影像の変形例を示す図である。It is a figure which shows the modification of a projection image. マーカを用いて歯の向き及び大きさを検出する場合を示す模式図である。It is a schematic diagram which shows the case where the direction and magnitude | size of a tooth are detected using a marker.

以下、本発明の実施の形態について、図面を参照して詳細に説明する。なお、図中、同一又は対応する部分には同一の符号を付している。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals.

実施の形態1.
まず、本発明の実施の形態1について説明する。
Embodiment 1
First, the first embodiment of the present invention will be described.

図1に示すように、本実施の形態に係る歯科手術支援システム1は、歯科医師(以下、「術者」という)Dが、手術に関連する部位としての患者の歯T(手術の対象)を、例えばハンドピース2を用いて切削する場合に用いられる。術者Dは、頭部Hに装着具としてメガネ3を装着しつつ、ハンドピース2を操作して歯Tを見ながら切削する。ここで、手術に関連する部位とは、手術の対象となる歯Tであってもよいし、歯Tを含む周辺の領域であってもよい。   As shown in FIG. 1, in the dental surgery support system 1 according to the present embodiment, a dentist (hereinafter referred to as “operator”) D is a patient's tooth T (a target of surgery) as a site related to surgery. Is used, for example, when cutting with a hand piece 2. The operator D wears the glasses 3 as a mounting tool on the head H and operates the hand piece 2 to cut while looking at the teeth T. Here, the site related to the operation may be the tooth T to be subjected to the operation, or may be a surrounding area including the tooth T.

メガネ3には、2台のカメラ4と、プロジェクタ5とが取り付けられている。カメラ4は、術者Dの視線の先にある領域(ここでは、歯T及びその周辺領域)を撮像する。カメラ4はそれぞれメガネ3の両端に設けられ、視差を有しているので、2台のカメラ4の撮像結果から、歯T及びその周辺領域に関する3次元の位置情報を得ることができる。   Two glasses 4 and a projector 5 are attached to the glasses 3. The camera 4 images an area (here, the tooth T and its surrounding area) which is beyond the line of sight of the operator D. The cameras 4 are respectively provided at both ends of the glasses 3 and have parallax, so that three-dimensional positional information on the tooth T and its surrounding area can be obtained from the imaging results of the two cameras 4.

プロジェクタ5は、メガネ3の中央部分に設けられており、歯Tに、術者Dを支援する情報を含む投影像Iを投影する。これにより、術者Dは、歯Tに投影された投影像Iを見ながら、ハンドピース2を用いて歯Tを切削することができる。これにより、歯Tが正確に切削され、適切な歯科手術が実現される。   The projector 5 is provided at a central portion of the glasses 3 and projects a projection image I including information for assisting the operator D on the teeth T. As a result, the operator D can cut the tooth T using the handpiece 2 while looking at the projected image I projected on the tooth T. As a result, the teeth T are accurately cut, and appropriate dental surgery is realized.

歯科手術支援システム1は、カメラ4の撮像結果に基づいて、プロジェクタ5が投影する投影像Iを生成する情報処理装置6を備える。情報処理装置6は、プログラムによって動作するコンピュータである。   The dental surgery support system 1 includes an information processing device 6 that generates a projection image I to be projected by the projector 5 based on the imaging result of the camera 4. The information processing device 6 is a computer operated by a program.

図2に示すように、情報処理装置6は、ハードウエア構成として、内部バス20と、制御部21、主記憶部22、外部記憶部23及び通信部24を備える。主記憶部22、外部記憶部23及び通信部24はいずれも内部バス20を介して制御部21に接続されている。   As shown in FIG. 2, the information processing apparatus 6 includes an internal bus 20, a control unit 21, a main storage unit 22, an external storage unit 23, and a communication unit 24 as a hardware configuration. The main storage unit 22, the external storage unit 23 and the communication unit 24 are all connected to the control unit 21 via the internal bus 20.

制御部21は、CPU(Central Processing Unit)等から構成されている。このCPUが、外部記憶部23に記憶され主記憶部22にロードされたプログラム29を実行することにより、情報処理装置6の各構成要素が実現される。   The control unit 21 is configured of a CPU (Central Processing Unit) or the like. Each component of the information processing apparatus 6 is realized by the CPU executing the program 29 stored in the external storage unit 23 and loaded in the main storage unit 22.

主記憶部22は、RAM(Random-Access Memory)等から構成されている。主記憶部22には、外部記憶部23に記憶されているプログラム29がロードされる。この他、主記憶部22は、制御部21の作業領域(データの一時記憶領域)として用いられる。   The main storage unit 22 is configured by a RAM (Random-Access Memory) or the like. The program 29 stored in the external storage unit 23 is loaded into the main storage unit 22. Besides, the main storage unit 22 is used as a work area (temporary storage area of data) of the control unit 21.

外部記憶部23は、フラッシュメモリ、ハードディスク、DVD(Digital Versatile Disc)、Blu−ray(登録商標) Disc等の不揮発性メモリから構成される。外部記憶部23には、制御部21に実行させるためのプログラム29があらかじめ記憶されている。また、外部記憶部23は、制御部21の指示に従って、このプログラム29の実行の際に用いられるデータを制御部21に供給し、制御部21から供給されたデータを記憶する。   The external storage unit 23 is configured from a non-volatile memory such as a flash memory, a hard disk, a DVD (Digital Versatile Disc), and a Blu-ray (registered trademark) Disc. In the external storage unit 23, a program 29 to be executed by the control unit 21 is stored in advance. Further, the external storage unit 23 supplies data used in executing the program 29 to the control unit 21 according to the instruction of the control unit 21 and stores the data supplied from the control unit 21.

通信部24は、シリアルインターフェイス又はパラレルインターフェイスから構成されている。通信部24は、通信ネットワークを介してカメラ4及びプロジェクタ5と接続されており、カメラ4から画像データを受信するとともにプロジェクタ5に投影像Iの映像データを送る。   The communication unit 24 is configured of a serial interface or a parallel interface. The communication unit 24 is connected to the camera 4 and the projector 5 via a communication network, and receives image data from the camera 4 and sends video data of the projected image I to the projector 5.

情報処理装置6の各種構成要素は、制御部21、主記憶部22、外部記憶部23及び通信部24などをハードウエア資源として用いてプログラム29が実行されることによってその機能を発揮する。   The various components of the information processing apparatus 6 exert their functions by executing the program 29 using the control unit 21, the main storage unit 22, the external storage unit 23, the communication unit 24, and the like as hardware resources.

図1に戻り、情報処理装置6は、プログラム29の実行により実現される機能要素として、記憶部10と、検出部11と、投影像生成部12と、投影部13と、を備える。   Returning to FIG. 1, the information processing apparatus 6 includes a storage unit 10, a detection unit 11, a projection image generation unit 12, and a projection unit 13 as functional elements realized by execution of the program 29.

記憶部10は、歯科手術の対象となる歯Tの切削前の3次元形状を示す切削前3次元形状データ10Aを記憶する。切削前3次元形状データ10Aは、口腔内スキャナ7を用いてあらかじめ測定されたものである。   The storage unit 10 stores pre-cutting three-dimensional shape data 10A indicating the three-dimensional shape of the tooth T to be subjected to dental surgery before cutting. The three-dimensional shape data 10A before cutting is measured in advance using the intraoral scanner 7.

また、記憶部10は、歯Tの術後、すなわち切削後の3次元形状を示す切削後3次元形状データ10Bを記憶する。切削後3次元形状データ10Bは、術者Dによる手術後の歯の3次元形状を示すデータであり、切削後データ生成部としての歯科用CAD/CAMシステム8が、記憶部10に記憶された切削前3次元形状データ10Aに基づいて生成する。生成後、切削後3次元形状データ10Bは、記憶部10に記憶される。   Further, the storage unit 10 stores post-cutting three-dimensional shape data 10B indicating the three-dimensional shape after the teeth T, that is, after the cutting. The three-dimensional shape data after cutting 10B is data indicating the three-dimensional shape of the tooth after the operation by the operator D, and the dental CAD / CAM system 8 as a data generation unit after cutting is stored in the storage unit 10 It is generated based on the three-dimensional shape data 10A before cutting. After generation, the three-dimensional shape data 10B after cutting is stored in the storage unit 10.

切削前3次元形状データ10Aと切削後3次元形状データ10Bとを視覚的に表示すると、例えば図3に示すようになる。図3では、切削前3次元形状データ10Aが実線で示され、切削後3次元形状データ10Bが点線で示されている。術者Dは、ハンドピース2を用いて、歯Tを切削前3次元形状データ10Aで示す形状から切削後3次元形状データ10Bに示す形状に切削する。したがって、点線の部分を除く実線の部分が、切削される部分となり、点線の部分が切削されない部分となる。   When the three-dimensional shape data before cutting 10A and the three-dimensional shape data after cutting 10B are visually displayed, for example, it becomes as shown in FIG. In FIG. 3, the three-dimensional shape data 10A before cutting is indicated by a solid line, and the three-dimensional shape data 10B after cutting is indicated by a dotted line. The operator D uses the handpiece 2 to cut the teeth T from the shape shown by the three-dimensional shape data 10A before cutting into the shape shown by the three-dimensional shape data 10B after cutting. Therefore, the solid line part excluding the dotted line part is the part to be cut, and the dotted line part is the part not to be cut.

検出部11は、歯科手術を行う術者Dから見た歯Tの見え方、すなわち術者Dから見た歯Tの向き及び大きさに関する情報を検出する。術者Dと患者の一方あるいは両方が動くと、図4に示すように、術者Dと歯Tとの位置関係が変わる。術者Dと歯Tとの位置関係が変わると、術者Dから見た歯Tの見え方は異なってくる。歯Tに正確な投影像Iを投影すべく、検出部11は、歯科手術を行う術者Dから見た歯Tの向き及び大きさに関する情報を検出する。   The detection unit 11 detects information on how the tooth T looks as viewed from the operator D who performs dental surgery, that is, the direction and size of the tooth T as viewed from the operator D. When one or both of the operator D and the patient move, the positional relationship between the operator D and the tooth T changes as shown in FIG. When the positional relationship between the operator D and the tooth T changes, the way of seeing the tooth T viewed from the operator D becomes different. In order to project an accurate projection image I on the tooth T, the detection unit 11 detects information on the direction and size of the tooth T as viewed from the operator D who performs dental surgery.

ここで、歯Tの全体の3次元形状は既知であるので、術者Dから見た歯Tの向き及び大きさがわかれば、術者Dから見た歯Tの見かけの3次元形状を特定することができる。この見かけの3次元形状を特定するために、メガネ3には、カメラ4が2台取り付けられている。   Here, since the entire three-dimensional shape of the tooth T is known, if the direction and size of the tooth T viewed from the operator D are known, the apparent three-dimensional shape of the tooth T viewed from the operator D is specified be able to. In order to identify this apparent three-dimensional shape, two cameras 4 are attached to the glasses 3.

図5には、左のカメラ4の撮像視野4Lと、右のカメラ4の撮像視野4Rとが示されている。図5に示すように、左のカメラ4の撮像視野4Lと、右のカメラ4の撮像視野4R内に位置が異なる3つの点P1,P2,P3が入っているものとする。左右のカメラ4の視差により、点P1,P2,P3では、撮像視野4L及び撮像視野4R内の位置が異なる。これは、左右のカメラ4の撮像データ内の点P1,P2,P3に基づいて、術者Dから見た点P1,P2,P3それぞれの位置情報を検出することができることを示している。   In FIG. 5, an imaging field of view 4L of the left camera 4 and an imaging field of view 4R of the right camera 4 are shown. As shown in FIG. 5, it is assumed that three points P1, P2 and P3 having different positions are included in the imaging field 4L of the left camera 4 and the imaging field 4R of the right camera 4. The positions within the imaging field of view 4L and the imaging field of view 4R differ at points P1, P2, and P3 due to the parallax of the left and right cameras 4. This indicates that the position information of each of the points P1, P2 and P3 seen from the operator D can be detected based on the points P1, P2 and P3 in the imaging data of the left and right cameras 4.

そこで、検出部11は、各カメラ4からそれぞれの撮像データを受信し、受信した撮像結果に基づいて、図6に示すように、術者Dから見た歯Tの直線上にない少なくとも3つの特徴点P1,P2,P3の位置情報を検出する。少なくとも3つの特徴点P1,P2,P3の位置情報は、術者Dから見た歯Tの向き及び大きさに関する情報となる。なお、特徴点P1〜P3は、切削対象となる領域以外に設定する必要がある。また、特徴点P1〜P3は、それらと歯Tにおいて切削対象となる領域との位置関係が変わらないように、切削対象の歯Tが上顎の歯なら上顎の硬組織(歯や骨)やインプラントなど、下顎の歯なら下顎の硬組織やインプラントなどに設定する必要がある。図6では、特徴点P1は、歯Tの切削されない領域に設定されている。   Therefore, the detection unit 11 receives the respective imaging data from each camera 4 and, based on the received imaging result, as shown in FIG. The position information of the feature points P1, P2 and P3 is detected. The positional information of at least three feature points P1, P2, and P3 is information on the direction and size of the tooth T viewed from the operator D. The feature points P1 to P3 need to be set outside the area to be cut. Also, if the tooth T to be cut is an upper jaw tooth, the hard tissue (tooth or bone) or implant of the upper jaw should be such that the feature points P1 to P3 do not change their positional relationship with the region to be cut in the tooth T For example, if the teeth of the lower jaw need to be set in the hard tissue or implant of the lower jaw. In FIG. 6, the feature point P1 is set in the area where the tooth T is not cut.

投影像生成部12は、記憶部10に記憶された歯Tの切削前3次元形状データ10Aと、検出部11で検出された術者Dから見た歯Tの向き及び大きさに関する情報と、に基づいて、術者Dから見た歯Tの見かけの3次元形状を特定する。より具体的には、投影像生成部12は、記憶部10に記憶された少なくとも3つの歯Tの特徴点の位置情報と検出部11で検出された少なくとも3つの特徴点の現在の位置情報とに基づいて、術者Dが見た歯Tの見かけの3次元形状を特定する。   The projected image generation unit 12 includes three-dimensional shape data 10A of the tooth T stored in the storage unit 10 before cutting, and information on the direction and size of the tooth T viewed from the operator D detected by the detection unit 11 Based on the above, the apparent three-dimensional shape of the tooth T seen from the operator D is specified. More specifically, the projection image generation unit 12 includes position information of feature points of at least three teeth T stored in the storage unit 10 and current position information of at least three feature points detected by the detection unit 11. And identify the apparent three-dimensional shape of the tooth T seen by the operator D.

さらに、投影像生成部12は、特定された3次元形状に応じて術者Dを支援する情報を含む投影像Iを、術者Dから見た歯Tの3次元形状に基づいて生成する。具体的には、投影像生成部12は、記憶部10に記憶された術後の歯Tの3次元形状に関する情報に基づいて、投影像Iとして、歯Tにおける切削する部分と、切削しない部分とを区別する像を生成する。ここで、術者Dから見て、歯Tの裏側、すなわち見えない部分については、投影像Iから消去すれば、術者Dが像を見やすくなる。   Furthermore, the projection image generation unit 12 generates a projection image I including information for assisting the operator D according to the specified three-dimensional shape, based on the three-dimensional shape of the tooth T viewed from the operator D. Specifically, based on the information on the three-dimensional shape of the postoperative tooth T stored in the storage unit 10, the projected image generation unit 12 cuts a portion of the tooth T as a projected image I and a portion that is not cut. Generate an image that distinguishes Here, when the operator D sees the back side of the tooth T, that is, the invisible part from the projected image I, the operator D can easily see the image.

投影部13は、投影像生成部12で生成された投影像Iを、歯Tに投影する。本実施の形態では、図7に示すように、切削後の歯Tの3次元形状の輪郭が投影像Iとして投影される。この輪郭は、ハンドピース2によって切削される部分と、切削されるべきでない領域との境目となるため、術者Dを支援する情報となる。   The projection unit 13 projects the projection image I generated by the projection image generation unit 12 on the tooth T. In the present embodiment, as shown in FIG. 7, the contour of the three-dimensional shape of the tooth T after cutting is projected as a projected image I. This contour is a boundary between the portion to be cut by the handpiece 2 and the area not to be cut, and is thus information for assisting the operator D.

次に、本実施の形態に係る歯科手術支援システム1の処理の流れについて説明する。図8に示すように、まず、口腔内スキャナ7によって読み込まれた歯Tの3次元形状が測定される(ステップS1;3次元測定ステップ)。測定された歯Tの3次元形状は、記憶部10に切削前3次元形状データ10Aとして記憶される。   Next, the flow of processing of the dental surgery support system 1 according to the present embodiment will be described. As shown in FIG. 8, first, the three-dimensional shape of the tooth T read by the intraoral scanner 7 is measured (step S1; three-dimensional measurement step). The three-dimensional shape of the measured tooth T is stored in the storage unit 10 as three-dimensional shape data 10A before cutting.

続いて、歯科用CAD/CAMシステム8は、記憶部10に記憶された歯Tの切削前3次元形状データ10Aを読み出して、切削後3次元形状データ10Bを生成する(ステップS2;切削後データ生成ステップ)。生成された切削後3次元形状データ10Bは、記憶部10に記憶される。   Subsequently, the dental CAD / CAM system 8 reads the before-cutting three-dimensional shape data 10A of the tooth T stored in the storage unit 10, and generates the after-cutting three-dimensional shape data 10B (step S2; post-cutting data) Generation step). The generated three-dimensional shape data after cutting 10 B is stored in the storage unit 10.

その後、検出部11、投影像生成部12及び投影部13による、繰り返し処理が行われる。その周期は、例えば数msである。すなわち、図8に示すように、情報処理装置6では、その周期毎に、検出部11により、歯科手術を行う術者Dから見た歯Tの向き及び大きさに関する情報が検出され(ステップS3;検出ステップ)、投影像生成部12により、記憶部10に記憶された歯Tの3次元形状データと検出部11で検出された歯Tの向き及び大きさに関する情報とに基づいて、術者Dから見た歯Tの見かけの3次元形状を特定し、特定した3次元形状に応じて術者Dを支援する情報を含む投影像Iが生成され(ステップS4;投影像生成ステップ)、投影部13により、投影像Iが、歯Tに投影される(ステップS5;投影ステップ)。   Thereafter, repetitive processing is performed by the detection unit 11, the projection image generation unit 12, and the projection unit 13. The cycle is, for example, several ms. That is, as shown in FIG. 8, in the information processing apparatus 6, the detection unit 11 detects information on the direction and size of the tooth T viewed from the operator D who performs dental surgery in each cycle (step S3 Detection step), based on the three-dimensional shape data of the tooth T stored in the storage unit 10 by the projection image generation unit 12 and information on the direction and size of the tooth T detected by the detection unit 11; The apparent three-dimensional shape of the tooth T seen from D is specified, and a projection image I including information for assisting the operator D is generated according to the specified three-dimensional shape (step S4; projection image generation step), projection The projection image I is projected onto the tooth T by the unit 13 (step S5; projection step).

このようにして、常に術者Dから見た歯Tの向き及び大きさ、その向き及び大きさに応じた3次元形状が検出され、検出された3次元形状に従った投影像Iが歯Tに投影される。投影像Iが投影されている間、術者Dによるハンドピース2による歯Tの切削が行われる。この切削は、投影像Iを用いた支援により、例えば切削すべきでない場所を削らないように、かつ、削り残しがないように行われる。   In this manner, the three-dimensional shape according to the direction and size of the tooth T, the direction and the size as seen from the operator D is always detected, and the projection image I according to the detected three-dimensional shape is the tooth T Projected to While the projected image I is being projected, cutting of the teeth T by the handpiece 2 by the operator D is performed. This cutting is performed with the aid of the projection image I, for example, so as not to cut the place which should not be cut and so as not to be left uncut.

なお、本実施の形態では、記憶部10は、主記憶部22、外部記憶部23によって実現される。また、検出部11は、制御部21、主記憶部22及び通信部24によって実現される。また、投影像生成部12は、制御部21、主記憶部22によって実現される。さらに、投影部13は、制御部21、主記憶部22及び通信部24によって実現される。   In the present embodiment, the storage unit 10 is realized by the main storage unit 22 and the external storage unit 23. The detection unit 11 is realized by the control unit 21, the main storage unit 22, and the communication unit 24. The projection image generation unit 12 is realized by the control unit 21 and the main storage unit 22. Furthermore, the projection unit 13 is realized by the control unit 21, the main storage unit 22, and the communication unit 24.

以上詳細に説明したように、本実施の形態によれば、術者Dを支援する情報を含む投影像Iを、歯科手術の対象となる歯Tに投影する。このようにすれば、術者Dが歯Tから視線をそらさずに、支援する情報を見ながら歯科手術を行うことができる。この結果、術者Dが適切な歯科手術を行うことができる。   As described above in detail, according to the present embodiment, the projection image I including the information for supporting the operator D is projected onto the tooth T to be subjected to the dental surgery. In this way, the dental surgery can be performed while the operator D looks at the information to support without turning his / her eyes off the teeth T. As a result, the operator D can perform appropriate dental surgery.

なお、本実施の形態では、歯科手術に関連する部位を歯Tとしたが、本発明はこれには限られない。複数の歯Tや、歯T及びその周辺の領域を歯科手術に関連する部位とするようにしてもよい。   In addition, although the site | part relevant to dental surgery was made into the tooth T in this Embodiment, this invention is not limited to this. The plurality of teeth T, and the region around the teeth T may be a part related to dental surgery.

実施の形態2.
次に、本発明の実施の形態2について説明する。
Second Embodiment
Next, a second embodiment of the present invention will be described.

上記実施の形態では、装着具にカメラ4及びプロジェクタ5を取り付けたが、本実施の形態に係る歯科手術支援システムは、術中に術者Dが歯Tを観察するのに用いるマイクロスコープ30(図9参照)にカメラ及びプロジェクタが組み込まれている他は、上記実施の形態1と同じである。   In the above embodiment, the camera 4 and the projector 5 are attached to the mounting tool, but in the dental surgery support system according to the present embodiment, the microscope 30 used by the operator D to observe the teeth T during surgery Except that the camera and the projector are incorporated in 9), it is the same as the first embodiment.

マイクロスコープ30の構成について説明する。図9に示すように、マイクロスコープ30には、左眼用の拡大観察光学系30Lと、右眼用の拡大観察光学系30Rとが設けられている。拡大観察光学系30L及び30Rでは、対物レンズ31、結像レンズ33L,33R、ハーフミラー32L,32R及びカメラ34L,34Rが、術部(歯T)に近い方から順に配置されている。   The configuration of the microscope 30 will be described. As shown in FIG. 9, the microscope 30 is provided with a magnifying observation optical system 30L for the left eye and a magnifying observation optical system 30R for the right eye. In the magnifying observation optical systems 30L and 30R, the objective lens 31, the imaging lenses 33L and 33R, the half mirrors 32L and 32R, and the cameras 34L and 34R are arranged in order from the side closer to the operation site (tooth T).

歯Tには、照明装置40から照明光が照射されている。図9では、照明装置40として1台の側斜照明を例示しているが、照明装置40は、2台以上設けられてもよい。また、照明装置40は、マイクロスコープ30の内部に設けられてもよく、側斜照明に限らず、同軸落射照明であってもよい。なお、照明装置40は、ハロゲンランプや蛍光ランプでもよいが、発熱量が小さく、長寿命であり、また消費電力が小さいという利点があることから、LEDを使用するのが望ましい。   Illumination light from the illumination device 40 is applied to the teeth T. Although one side oblique illumination is illustrated as the illuminating device 40 in FIG. 9, two or more illuminating devices 40 may be provided. In addition, the illumination device 40 may be provided inside the microscope 30, and may be coaxial epi-illumination as well as the side oblique illumination. Although the lighting device 40 may be a halogen lamp or a fluorescent lamp, it is desirable to use an LED because it has advantages such as low heat generation, long life, and low power consumption.

照明装置40によって照らされた歯Tの像は、対物レンズ31から結像レンズ33L,33R及びハーフミラー32L,32Rを通り、それぞれのカメラ34L,34Rで電子画像化される。   The image of the tooth T illuminated by the illumination device 40 passes from the objective lens 31 through the imaging lenses 33L and 33R and the half mirrors 32L and 32R, and is electronically imaged by the respective cameras 34L and 34R.

カメラ34L,34Rで撮像された画像は、カメラ34L,34Rに電気的に接続されたモニタ35L,35Rにそれぞれ表示される。モニタ35L,35Rは一対の接眼鏡筒36L,36Rの内部に搭載されており、歯科医が接眼鏡筒36L,36Rを覗くことで、歯Tの像を立体視できる構成になっている。   Images captured by the cameras 34L and 34R are displayed on monitors 35L and 35R electrically connected to the cameras 34L and 34R, respectively. The monitors 35L and 35R are mounted inside the pair of eyepiece tubes 36L and 36R, and the dentist looks in the eyepiece tubes 36L and 36R so that the image of the tooth T can be viewed stereoscopically.

本実施の形態では、カメラ34L,34Rが、上記実施の形態1に係る左右のカメラ4に相当する。カメラ34L,34Rで撮像された撮像データは、情報処理装置6の検出部11に送られる。検出部11、投影像生成部12及び投影部13は、上記実施の形態1と同様の処理を行い、投影像Iをプロジェクタ37L、37Rに投影させる。   In the present embodiment, the cameras 34L and 34R correspond to the left and right cameras 4 according to the first embodiment. The imaging data captured by the cameras 34L and 34R are sent to the detection unit 11 of the information processing device 6. The detection unit 11, the projection image generation unit 12, and the projection unit 13 perform the same processing as that of the first embodiment and cause the projectors 37L and 37R to project the projection image I.

また、本実施の形態では、プロジェクタ37L,37Rが、上記実施の形態1に係るプロジェクタ5に相当する。プロジェクタ37L,37Rから投影された光は、ハーフミラー32L,32Rで反射して、結像レンズ33L,33R及び対物レンズ31を介して、歯Tに到達する。これにより、情報処理装置6の投影部13から送信された投影像Iが、歯Tに投影される。実際には、プロジェクタ37Lで投影される像と、プロジェクタ37Rで投影される像との間には、視差が生じる。そこで、プロジェクタ37Lで投影される像とプロジェクタ37Rで投影される像とを交互に投影し、カメラ34L、34Rの撮像タイミングをプロジェクタ37L,37Rの投影タイミングと同期させる。このようにすれば、プロジェクタ37Lで投影される投影像Iは、カメラ34Lのみで撮像され、プロジェクタ37Rで投影される投影像Iは、カメラ34Rのみで撮像されるようになるので、上述のような視差の問題を解消することができる。なお、この場合、投影像Iとしては、視差を考慮して、右目用のものと、左目用のものとを用意する必要がある。   Further, in the present embodiment, the projectors 37L and 37R correspond to the projector 5 according to the first embodiment. The light projected from the projectors 37L and 37R is reflected by the half mirrors 32L and 32R, and reaches the tooth T through the imaging lenses 33L and 33R and the objective lens 31. Thereby, the projection image I transmitted from the projection unit 13 of the information processing device 6 is projected on the tooth T. In practice, parallax occurs between the image projected by the projector 37L and the image projected by the projector 37R. Therefore, the image projected by the projector 37L and the image projected by the projector 37R are alternately projected, and the imaging timings of the cameras 34L, 34R are synchronized with the projection timings of the projectors 37L, 37R. In this way, the projection image I projected by the projector 37L is imaged only by the camera 34L, and the projection image I projected by the projector 37R is imaged only by the camera 34R, as described above. It is possible to solve the problem of various parallaxes. In this case, as the projection image I, it is necessary to prepare one for the right eye and one for the left eye in consideration of parallax.

マイクロスコープ30の内部構成は、上述のものには限られず、例えば図10に示すように変形が可能である。このマイクロスコープ30では、術者Dは、カメラ34L,34Rの撮像結果を見るのではなく、結像レンズ33L,33R、ハーフミラー32L,32R、接眼鏡筒36L,36Rの接眼レンズ35L’,35R’を介して、歯Tを直接観察する。この構成では、左右のカメラ34L’,34R’は、ハーフミラー32L,32Rで反射した光で歯Tを撮像する。カメラ34L’,34R’で撮像された撮像データは、情報処理装置6の検出部11に送られる。検出部11、投影像生成部12及び投影部13は、上記実施の形態1と同様の処理を行い、投影像Iをプロジェクタ37に投影させる。プロジェクタ37から出射された光は、ハーフミラー32で反射され、投影レンズ33及び対物レンズ31を経て、歯Tに到達する。これにより、投影像Iが歯T上に結像する。   The internal configuration of the microscope 30 is not limited to that described above, and can be modified as shown in FIG. 10, for example. In the microscope 30, the operator D does not look at the imaging results of the cameras 34L and 34R, but the imaging lenses 33L and 33R, the half mirrors 32L and 32R, and the eyepiece lenses 35L 'and 35R of the eyepiece tubes 36L and 36R. Observe the teeth T directly through '. In this configuration, the left and right cameras 34L 'and 34R' pick up the teeth T with the light reflected by the half mirrors 32L and 32R. The imaging data imaged by the cameras 34 L ′ and 34 R ′ are sent to the detection unit 11 of the information processing device 6. The detection unit 11, the projection image generation unit 12, and the projection unit 13 perform the same processing as that of the first embodiment and cause the projector 37 to project the projection image I. The light emitted from the projector 37 is reflected by the half mirror 32, passes through the projection lens 33 and the objective lens 31, and reaches the tooth T. Thereby, the projected image I forms an image on the tooth T.

なお、図10において、カメラ34L’,34R’は、マイクロスコープ30の外部に設けられるようにしてもよい。また、ハーフミラー32及びプロジェクタ37は、対物レンズ31と、歯Tとの間に設けられるようにしてもよい。この場合、投影レンズ33は不要となる。また、この場合、ハーフミラー32及びプロジェクタ37は、マイクロスコープ30の内部に設けられていてもよいし、マイクロスコープ30の外部に設けられていてもよい。   In FIG. 10, the cameras 34L 'and 34R' may be provided outside the microscope 30. In addition, the half mirror 32 and the projector 37 may be provided between the objective lens 31 and the tooth T. In this case, the projection lens 33 is unnecessary. In this case, the half mirror 32 and the projector 37 may be provided inside the microscope 30 or may be provided outside the microscope 30.

マイクロスコープ30の内部構成は、図11に示すように、さらに変形が可能である。例えば、図11に示すように、このマイクロスコープ30においても、術者Dは、カメラ34L,34Rの撮像結果を見るのではなく、結像レンズ33L,33R、接眼鏡筒36L,36Rの接眼レンズ35L’,35R’を介して、歯Tを直接観察する。結像レンズ33L,33Rと、接眼レンズ35L’,35R’との間には、ハーフミラー39L,39R、液晶シャッタ38L,38R、ハーフミラー32L,32Rが設けられている。この場合、左右のカメラ34L’,34R’は、ハーフミラー32L,32Rで反射した光で歯Tを撮像する。カメラ34L’,34R’で撮像された撮像データは、情報処理装置6の検出部11に送られる。検出部11、投影像生成部12及び投影部13は、上記実施の形態1と同様の処理を行う。このマイクロスコープ30は、左右のプロジェクタ37L,37Rを備えている。左右のプロジェクタ37L,37Rからの光は、ハーフミラー39L,39Rで反射され、結像レンズ33L,33R及び対物レンズ31を経て、歯Tに到達する。これにより、歯Tに投影像Iが結像する。   The internal configuration of the microscope 30 can be further modified as shown in FIG. For example, as shown in FIG. 11, in the microscope 30, the operator D does not look at the imaging results of the cameras 34L and 34R, but the eyepieces of the imaging lenses 33L and 33R and the eyepiece tubes 36L and 36R. The teeth T are directly observed through 35L 'and 35R'. Half mirrors 39L and 39R, liquid crystal shutters 38L and 38R, and half mirrors 32L and 32R are provided between the imaging lenses 33L and 33R and the eyepieces 35L 'and 35R'. In this case, the left and right cameras 34L 'and 34R' pick up the teeth T with the light reflected by the half mirrors 32L and 32R. The imaging data imaged by the cameras 34 L ′ and 34 R ′ are sent to the detection unit 11 of the information processing device 6. The detection unit 11, the projection image generation unit 12, and the projection unit 13 perform the same processing as that of the first embodiment. The microscope 30 includes left and right projectors 37L and 37R. The light from the left and right projectors 37L and 37R is reflected by the half mirrors 39L and 39R, passes through the imaging lenses 33L and 33R and the objective lens 31, and reaches the tooth T. Thus, the projected image I is formed on the teeth T.

実際には、プロジェクタ37Lで投影される像と、プロジェクタ37Rで投影される像との間には、視差が生じる。そこで、プロジェクタ37Lで投影される像とプロジェクタ37Rで投影される像とを交互に投影し、液晶シャッタ38L,38Rの開閉タイミングをプロジェクタ37L,37Rの投影タイミングと同期させることで、視差の問題を解消することができる。   In practice, parallax occurs between the image projected by the projector 37L and the image projected by the projector 37R. Therefore, by alternately projecting the image projected by the projector 37L and the image projected by the projector 37R, and synchronizing the opening / closing timing of the liquid crystal shutters 38L, 38R with the projection timing of the projectors 37L, 37R, the parallax problem is caused. It can be eliminated.

なお、液晶シャッタ38L,38Rを、ハーフミラー32L,32Rと接眼レンズ35L’,35R’との間に配置するようにしてもよい。ただし、この場合には、カメラ34L’,34R’とプロジェクタ37L,37Rとを同期させる必要がある。   The liquid crystal shutters 38L and 38R may be disposed between the half mirrors 32L and 32R and the eyepieces 35L 'and 35R'. However, in this case, it is necessary to synchronize the cameras 34L 'and 34R' with the projectors 37L and 37R.

なお、上記各実施の形態では、切削後の歯Tの3次元形状の輪郭のように、歯Tにおける切削する部分と、切削しない部分とを区別する像を投影像Iとして投影した。このような像としては、他に切削する部分と切削しない部分とを色分けした像であってもよいし、切削する部分だけ又は切削しない部分だけ輝度が高い像などであってもよい。   In each of the above-described embodiments, as in the outline of the three-dimensional shape of the tooth T after cutting, an image that distinguishes a portion to be cut in the tooth T and a portion not to be cut is projected as the projection image I. Such an image may be an image obtained by color-coding another portion to be cut and a portion not to be cut, or an image having high brightness only in the portion to be cut or only the portion not to be cut.

また、投影像生成部12は、投影像Iとして、歯Tに対する術具の姿勢に関する指標を生成するようにしてもよい。図12に示すように、ハンドピース2の理想的な姿勢を示す線分を投影像Iとして投影するようにしてもよい。例えば、ハンドピース2の術具としての工具2Aが鉛直方向となるのが適切な姿勢である場合には、縦線の像を投影像Iとして歯Tに投影すればよい。このようにすれば、術者Dが、ハンドピース2を適切な姿勢に保ちながら(工具2Aの回転軸を縦線に沿わせながら)、例えば術者Dから見た歯Tの右側面(又は左側面)、すなわち紙面左右側面等を切削することができる。工具2Aを傾けるべき場合には、斜線を投影すればよい。この投影像Iは、ハンドピース2上にも投影されるので、ハンドピース2と投影像Iの線分とのずれを一致させ易くすることができる。また、ハンドピース2の位置に関する指標を投影像Iとして表示するようにしてもよい。例えばハンドピース2の工具2Aが位置すべき場所だけを他の場所とは識別可能な投影像Iを表示することができる。   In addition, the projected image generation unit 12 may generate an index related to the posture of the surgical instrument with respect to the tooth T as the projected image I. As shown in FIG. 12, a line segment indicating an ideal posture of the handpiece 2 may be projected as a projection image I. For example, when it is an appropriate posture that the tool 2A as a surgical tool of the handpiece 2 is in the vertical direction, an image of the vertical line may be projected as a projected image I on the tooth T. In this way, for example, the right side of the tooth T seen from the operator D (or the operator D looks at the operator D while keeping the handpiece 2 in an appropriate posture (while keeping the rotation axis of the tool 2A along the vertical line) It is possible to cut the left side), that is, the left and right sides in the drawing. When the tool 2A is to be inclined, a diagonal line may be projected. Since this projection image I is also projected onto the handpiece 2, the shift between the handpiece 2 and the line segment of the projection image I can be made to easily coincide. Further, an index related to the position of the handpiece 2 may be displayed as the projected image I. For example, it is possible to display a projection image I which can be distinguished from the other places only at the place where the tool 2A of the handpiece 2 should be located.

このように、投影像Iで示す、術者Dを支援する情報としては様々なものが考えられる。例えば、歯Tの切削場所に望ましい順番がある場合には、次に切削するのが望ましい場所に投影像Iを投影するようにしてもよい。また、歯Tの3次元の内部構造が明らかになっている場合には、その内部構造を歯Tに投影するようにしてもよい。また、投影像Iに切削対象となる領域だけでなく周囲の像(例えば臨在歯の輪郭)も含めるようにしてもよい。このようにすれば、投影像Iがずれて投影されていないことを、術者Dが視覚的に確認しやすくなる(投影像Iがずれた場合にそれを術者Dが気が付きやすくなる)。   As described above, various pieces of information can be considered as the information for supporting the operator D, which is indicated by the projection image I. For example, if there is a desired order of cutting places of the teeth T, the projected image I may be projected to the place where it is desirable to cut next. In addition, when the three-dimensional internal structure of the tooth T is clarified, the internal structure may be projected to the tooth T. Further, not only the area to be cut but also an image of the surrounding (for example, the contour of a resident tooth) may be included in the projected image I. In this way, it becomes easier for the operator D to visually confirm that the projection image I is not projected in a shifted manner (the operator D is more likely to notice when the projected image I is shifted).

また、上記各実施の形態では、歯Tの少なくとも3つの特徴点の位置情報に基づいて、歯Tの見え方に関する情報を検出したが、本発明はこれには限られない。例えば、図13に示すように、あらかじめ歯Tとの位置関係が変わらず既知であり、直線上になく、互いに識別可能なマーカM1〜M3を少なくとも3つ配置し、手術に関連する部位を歯T及びマーカM1〜M3が配置された領域とする。そして、記憶部10に記憶される部位の切削前3次元形状データ10Aには、少なくとも3つのマーカM1〜M3の位置情報が含まれるものとする。なお、マーカM1〜M3の位置はできるだけ離れているのが望ましい。ただし、歯の咬合面(上下の歯が噛み合わさる面)へ体積のあるマーカM1〜M3を配置することは避けることが望ましい。なお、マーカM1〜M3は、切削対象となる領域以外に配置する必要がある。また、マーカM1〜M3についても、それらと歯Tにおいて切削対象となる領域との位置関係が変わらないように、切削対象の歯Tが上顎の歯なら上顎の硬い組織、下顎の歯なら下顎の硬い組織(歯、インプラント、骨など)に配置する必要がある。図13では、マーカM3は、歯Tの切削されない領域に配置されている。   In each of the above-described embodiments, information related to the appearance of the tooth T is detected based on positional information of at least three feature points of the tooth T, but the present invention is not limited to this. For example, as shown in FIG. 13, at least three markers M1 to M3 which are known in advance without changing their positional relationship with the tooth T and which are not on straight lines and which can be distinguished from each other are arranged. It is assumed that T and markers M1 to M3 are arranged. The three-dimensional shape data 10A before cutting of the portion stored in the storage unit 10 includes positional information of at least three markers M1 to M3. It is desirable that the positions of the markers M1 to M3 be as far apart as possible. However, it is desirable to avoid placing markers M1 to M3 having a volume on the occlusal surface of the teeth (surface on which the upper and lower teeth engage). The markers M1 to M3 need to be arranged outside the area to be cut. Also for the markers M1 to M3, if the tooth T to be cut is an upper jaw tooth, the hard tissue of the upper jaw, if it is a lower jaw tooth, so that the positional relationship between them and the region to be cut in the tooth T does not change. It needs to be placed on hard tissue (tooth, implant, bone etc). In FIG. 13, the marker M3 is disposed in the non-cut area of the tooth T.

この場合、検出部11は、術者Dから見た歯Tを含む部位の向き及び大きさに関する情報として、少なくとも3つのマーカM1〜M3の現在の位置情報を検出する。そして、投影像生成部12は、記憶部10に記憶された少なくとも3つのマーカM1〜M3の位置情報と検出部11で検出された少なくとも3つのマーカM1〜M3の現在の位置情報とに基づいて、術者Dが見た部位の見かけの3次元形状を特定する。そして投影像生成部12は、特定された3次元形状に基づいて、術者Dを支援する情報を含む投影像Iを生成するようにしてもよい。   In this case, the detection unit 11 detects current position information of at least three markers M1 to M3 as information on the direction and size of the part including the tooth T as viewed from the operator D. Then, based on the positional information on at least three markers M1 to M3 stored in the storage unit 10 and the current positional information on at least three markers M1 to M3 detected by the detection unit 11, the projection image generation unit 12 , Identify the apparent three-dimensional shape of the site seen by the operator D. Then, the projection image generation unit 12 may generate the projection image I including information for assisting the operator D based on the specified three-dimensional shape.

なお、上記各実施の形態では、2台のカメラで歯T等の部位の3次元形状を検出するものとしたが、3台以上のカメラで歯T等の部位の3次元形状を検出するようにしてもよい。   In the above embodiments, the two cameras detect the three-dimensional shape of the site such as the tooth T, but three or more cameras detect the three-dimensional shape of the site such as the tooth T You may

なお、上記各実施の形態では、歯T等の部位の少なくとも3つの特徴点に基づいて、術者Dから見た歯Tの向き及び大きさに関する情報を検出したが、本発明はこれには限られない。術者Dから見た歯T等の部位の概略的な3次元形状を求め、3次元形状同士のマッチングなどを行って、術者Dから見た歯Tの向き及び大きさに関する情報を検出するようにしてもよい。   In each of the above-described embodiments, the information on the direction and size of the tooth T viewed from the operator D is detected based on at least three feature points of the site such as the tooth T, but the present invention It is not limited. A schematic three-dimensional shape of a portion such as a tooth T as viewed from the operator D is determined, and matching between three-dimensional shapes is performed to detect information on the direction and size of the tooth T viewed from the operator D. You may do so.

また、上記各実施の形態によれば、検出部11により、切削中の歯T等の部位の3次元形状の変化を検出するようにしてもよい。例えば、この場合、切削中に変化する歯T等の部位の3次元形状に合わせて、投影像Iを生成することができる。   In addition, according to each of the above-described embodiments, the detection unit 11 may detect a change in the three-dimensional shape of the portion such as the tooth T during cutting. For example, in this case, the projected image I can be generated in accordance with the three-dimensional shape of the portion such as the tooth T which changes during cutting.

部位の3次元形状の検出方法も、上述したものには限られない。例えば、術者Dを支援する投影像Iを投影し、術者Dが感知できない短い時間停止し、その時間に、歯科手術に関連する部位にプロジェクタに位置測定用のパターンを投影し、1台又は複数台のカメラによりパターン像を撮像する。そして、その撮像データに基づいて、3次元形状を測定するようにしてもよい。   The method of detecting the three-dimensional shape of the part is also not limited to that described above. For example, the projection image I supporting the operator D is projected, and the operator D stops for a short time that can not be detected, and at that time, the pattern for position measurement is projected on the projector at the site related to dental surgery, Alternatively, pattern images are captured by a plurality of cameras. Then, the three-dimensional shape may be measured based on the imaging data.

上記各実施の形態に係る歯科手術支援システム1は、ブリッジ手術やインプラント手術にも適用することができる。これらの場合、例えば1歯中間欠損のブリッジの2つの支台歯(土台となる歯)を歯科手術に関連する部位として、それらの切削後の3次元形状の投影像Iを投影したり、インプラント体を埋めるために開ける穴に相当する投影像Iを投影したりすることができる。   The dental surgery support system 1 according to each of the above embodiments can be applied to bridge surgery and implant surgery. In these cases, for example, projection of a projected image I of a three-dimensional shape after cutting is performed with the two abutment teeth (base teeth) of the bridge of one tooth intermediate defect as a site related to dental surgery, It is possible to project a projected image I corresponding to a hole that is opened to fill the body.

その他、情報処理装置6のハードウエア構成やソフトウエア構成は一例であり、任意に変更及び修正が可能である。   In addition, the hardware configuration and the software configuration of the information processing device 6 are an example, and can be arbitrarily changed and corrected.

制御部21、主記憶部22、外部記憶部23及び通信部24、内部バス20などから構成される情報処理装置6の処理を行う中心となる部分は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。例えば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読み取り可能な記録媒体(フレキシブルディスク、CD−ROM、DVD−ROM等)に格納して配布し、当該コンピュータプログラムをインストールすることにより、前記の処理を実行する情報処理装置6を構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置に当該コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロード等することで情報処理装置6を構成してもよい。   The central portion of the information processing apparatus 6 configured of the control unit 21, the main storage unit 22, the external storage unit 23, the communication unit 24, the internal bus 20, etc. It can be realized using a system. For example, by storing and distributing a computer program for executing the above operation in a computer readable recording medium (flexible disc, CD-ROM, DVD-ROM, etc.), and installing the computer program, You may comprise the information processing apparatus 6 which performs said process. Alternatively, the computer program may be stored in a storage device of a server device on a communication network such as the Internet, and the information processing device 6 may be configured by a normal computer system downloading or the like.

情報処理装置6の機能を、OS(オペレーティングシステム)とアプリケーションプログラムの分担、又はOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。   In the case where the function of the information processing device 6 is realized by sharing the OS (operating system) and the application program, or by cooperation between the OS and the application program, etc. It is also good.

搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上のサーバにコンピュータプログラムをアップロードし、ネットワークを介してコンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。   It is also possible to superimpose a computer program on a carrier wave and distribute it via a communication network. For example, the computer program may be uploaded to a server on a communication network, and the computer program may be distributed via the network. Then, the computer program may be activated and executed in the same manner as other application programs under the control of the OS so that the above-described processing can be executed.

この発明は、この発明の広義の精神と範囲を逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、上述した実施の形態は、この発明を説明するためのものであり、この発明の範囲を限定するものではない。すなわち、この発明の範囲は、実施の形態ではなく、特許請求の範囲によって示される。そして、特許請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、この発明の範囲内とみなされる。   The present invention is capable of various embodiments and modifications without departing from the broad spirit and scope of the present invention. In addition, the embodiment described above is for explaining the present invention, and does not limit the scope of the present invention. That is, the scope of the present invention is indicated not by the embodiments but by the claims. And, various modifications applied within the scope of the claims and the meaning of the invention are considered to be within the scope of the present invention.

本発明は、歯科手術の支援及び歯科教育に用いることができる。   The present invention can be used for dental surgery support and dental education.

1 歯科手術支援システム、2 ハンドピース、2A 工具、3 メガネ、4 カメラ、4L,4R 撮像視野、5 プロジェクタ、6 情報処理装置、7 口腔内スキャナ、8 歯科用CAD/CAMシステム、10 記憶部、10A 切削前3次元形状データ、10B 切削後3次元形状データ、11 検出部、12 投影像生成部、13 投影部、20 内部バス、21 制御部、22 主記憶部、23 外部記憶部、24 通信部、29 プログラム、30 マイクロスコープ、30L,30R 拡大観察光学系、31 対物レンズ、32,32L,32R ハーフミラー、33 投影レンズ、33L,33R 結像レンズ、34L,34R,34L’,34R’ カメラ、35L,35R モニタ、35L’,35R’ 接眼レンズ、36L,36R 接眼鏡筒、37,37L,37R プロジェクタ、38L,38R 液晶シャッタ、39L,39R ハーフミラー、40 照明装置、D 歯科医師(術者)、I 投影像、H 頭部、T 部位(歯)   1 dental surgery support system, 2 handpiece, 2A tool, 3 glasses, 4 cameras, 4L, 4R imaging field of view, 5 projectors, 6 information processor, 7 intraoral scanner, 8 dental CAD / CAM system, 10 storage unit, 10A Three-dimensional shape data before cutting, 10B Three-dimensional shape data after cutting, 11 Detection unit, 12 Projection image generation unit, 13 Projection unit, 20 Internal bus, 21 Control unit, 22 Main storage unit, 23 External storage unit, 24 Communication , 29 programs, 30 microscopes, 30L, 30R magnification observation optical system, 31 objective lenses, 32, 32L, 32R half mirrors, 33 projection lenses, 33L, 33R imaging lenses, 34L, 34R, 34L ', 34R' cameras , 35L, 35R monitor, 35L ', 35R' eyepiece, 36L, 36R Eyeglass tube, 37, 37L, 37R projector, 38L, 38R liquid crystal shutter, 39L, 39R half mirror, 40 illuminator, D dentist (operator), I projection image, H head, T site (tooth)

Claims (7)

歯科手術に関連する部位の3次元形状に関する情報を記憶する記憶部と、
歯科手術を行う術者から見た前記部位の向き及び大きさに関する情報を検出する検出部と、
前記記憶部に記憶された前記部位の3次元形状に関する情報と前記検出部で検出された前記部位の向き及び大きさに関する情報とに基づいて、前記術者から見た前記部位の見かけの3次元形状を特定し、その3次元形状に応じて前記術者を支援する情報を含む投影像を生成する投影像生成部と、
前記投影像生成部で生成された投影像を、前記部位に投影する投影部と、
を備える歯科手術支援システム。
A storage unit for storing information on a three-dimensional shape of a part related to dental surgery;
A detection unit for detecting information on the direction and size of the site as seen from the operator performing dental surgery;
Apparent three-dimensional appearance of the part viewed from the operator based on the information on the three-dimensional shape of the part stored in the storage unit and the information on the direction and size of the part detected by the detection unit A projection image generation unit that specifies a shape and generates a projection image including information for assisting the operator according to the three-dimensional shape;
A projection unit that projects the projection image generated by the projection image generation unit onto the part;
Surgery support system equipped with
前記術者から見た前記部位を互いに視差のある状態で撮像する複数のカメラと、
前記投影像を投影するプロジェクタと、
を備え、
前記カメラ及び前記プロジェクタは、
前記術者の頭部に装着される装着具に取り付けられるか、前記術者が前記部位を観察するのに用いるマイクロスコープに組み込まれている、
請求項1に記載の歯科手術支援システム。
A plurality of cameras for imaging the regions viewed from the operator in a mutually parallax state;
A projector for projecting the projected image;
Equipped with
The camera and the projector are
It is attached to a mounting tool attached to the head of the operator, or incorporated into a microscope used by the operator to observe the site.
The dental surgery support system according to claim 1.
前記記憶部に記憶される前記部位の3次元形状に関する情報には、前記部位において切削対象となる領域との位置関係が変わらず、互いに識別可能な少なくとも3つのマーカの位置情報が含まれ、
前記検出部は、
前記術者から見た前記部位の向き及び大きさに関する情報として、前記術者から見た少なくとも3つのマーカの現在の位置情報を検出し、
前記投影像生成部は、
前記記憶部に記憶された少なくとも3つのマーカの位置情報と前記検出部で検出された少なくとも3つのマーカの現在の位置情報とに基づいて、前記術者が見た前記部位の見かけの3次元形状を特定し、
特定された前記部位の3次元形状に基づいて、前記術者を支援する情報を含む投影像を生成する、
請求項1又は2に記載の歯科手術支援システム。
The information on the three-dimensional shape of the part stored in the storage unit includes positional information of at least three markers that can be distinguished from each other without changing the positional relationship with the area to be cut in the part.
The detection unit is
Detecting current position information of at least three markers viewed from the operator as information on the direction and size of the portion viewed from the operator;
The projected image generation unit
Apparent three-dimensional shape of the portion seen by the operator based on position information of at least three markers stored in the storage unit and current position information of at least three markers detected by the detection unit To identify
Generating a projection image including information for assisting the operator based on the three-dimensional shape of the identified part;
The dental surgery support system according to claim 1 or 2.
前記検出部は、
前記部位の向き及び大きさに関する情報として、前記部位において切削対象となる領域との位置関係が変わらない少なくとも3つの前記部位の特徴点の現在の位置情報を検出し、
前記投影像生成部は、
前記記憶部に記憶された少なくとも3つの前記部位の特徴点の位置情報と前記検出部で検出された少なくとも3つの特徴点の現在の位置情報とに基づいて、前記術者が見た前記部位の見かけの3次元形状を特定し、
特定された前記部位の3次元形状に基づいて、前記術者を支援する情報を含む投影像を生成する、
請求項1から3のいずれか一項に記載の歯科手術支援システム。
The detection unit is
As information on the direction and size of the part, current position information of feature points of at least three of the parts whose position relationship with the area to be cut in the part does not change is detected.
The projected image generation unit
The portion of the portion viewed by the operator based on position information of feature points of at least three of the portions stored in the storage unit and current position information of at least three feature points detected by the detection unit Identify the apparent three-dimensional shape,
Generating a projection image including information for assisting the operator based on the three-dimensional shape of the identified part;
The dental surgery support system according to any one of claims 1 to 3.
前記記憶部に記憶された前記部位の3次元形状に関する情報に基づいて、術後の前記部位の3次元形状に関する情報を生成する切削後データ生成部を備え、
前記記憶部は、
術後の前記部位の3次元形状に関する情報を記憶し、
前記投影像生成部は、
前記記憶部に記憶された術後の前記部位の3次元形状に関する情報に基づいて、前記投影像として、前記部位における切削する部分と、切削しない部分とを区別する像を生成する、
請求項1から4のいずれか一項に記載の歯科手術支援システム。
The post-cutting data generation unit is configured to generate information on the three-dimensional shape of the post-operative region based on the information on the three-dimensional shape of the region stored in the storage unit;
The storage unit is
Storing information on the three-dimensional shape of the post-operative site;
The projected image generation unit
Based on the information on the three-dimensional shape of the post-operative site stored in the storage unit, an image is generated as the projection image that distinguishes a portion to be cut from the site and a non-cut portion.
The dental surgery support system according to any one of claims 1 to 4.
前記投影像生成部は、
前記投影像として、前記部位に対する術具の姿勢又は位置に関する指標を生成する、
請求項1から4のいずれか一項に記載の歯科手術支援システム。
The projected image generation unit
An index relating to the posture or position of the surgical instrument with respect to the site is generated as the projection image.
The dental surgery support system according to any one of claims 1 to 4.
コンピュータを、
歯科手術に関連する部位の3次元形状に関する情報を記憶する記憶部、
歯科手術を行う術者から見た前記部位の向き及び大きさに関する情報を検出する検出部、
前記記憶部に記憶された前記部位の3次元形状に関する情報と前記検出部で検出された前記部位の向き及び大きさに関する情報とに基づいて、前記術者から見た前記部位の見かけの3次元形状を特定し、その3次元形状に応じて前記術者を支援する情報を含む投影像を生成する投影像生成部、
前記投影像生成部で生成された投影像を、前記部位に投影する投影部、
として機能させるプログラム。
Computer,
A storage unit for storing information on the three-dimensional shape of a part related to dental surgery,
A detection unit for detecting information on the direction and size of the site as seen from the operator performing dental surgery;
Apparent three-dimensional appearance of the part viewed from the operator based on the information on the three-dimensional shape of the part stored in the storage unit and the information on the direction and size of the part detected by the detection unit A projection image generation unit that specifies a shape and generates a projection image including information for assisting the operator according to the three-dimensional shape;
A projection unit that projects the projection image generated by the projection image generation unit onto the part;
A program to function as
JP2017231483A 2017-12-01 2017-12-01 Dental surgery support system and program Pending JP2019097851A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017231483A JP2019097851A (en) 2017-12-01 2017-12-01 Dental surgery support system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017231483A JP2019097851A (en) 2017-12-01 2017-12-01 Dental surgery support system and program

Publications (1)

Publication Number Publication Date
JP2019097851A true JP2019097851A (en) 2019-06-24

Family

ID=66974629

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017231483A Pending JP2019097851A (en) 2017-12-01 2017-12-01 Dental surgery support system and program

Country Status (1)

Country Link
JP (1) JP2019097851A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114569257A (en) * 2020-12-01 2022-06-03 财团法人金属工业研究发展中心 Real-time positioning compensation method and image positioning system capable of real-time positioning compensation

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011030906A1 (en) * 2009-09-14 2011-03-17 国立大学法人東北大学 Tooth-cutting device and method
JP2014522249A (en) * 2011-04-07 2014-09-04 3シェイプ アー/エス 3D system and method for guiding an object
JP2016067736A (en) * 2014-09-30 2016-05-09 京セラメディカル株式会社 Surgical operation support device and program
JP2016536098A (en) * 2013-10-02 2016-11-24 ミニナビデント アクチェンゲゼルシャフトMininav Navigation system and method for tooth and oral surgery, positioning tool, and method for positioning a marker member
JP2017200537A (en) * 2016-05-06 2017-11-09 岳 芳本 Treatment support system, treatment support device, treatment support method, and computer program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011030906A1 (en) * 2009-09-14 2011-03-17 国立大学法人東北大学 Tooth-cutting device and method
JP2014522249A (en) * 2011-04-07 2014-09-04 3シェイプ アー/エス 3D system and method for guiding an object
JP2016536098A (en) * 2013-10-02 2016-11-24 ミニナビデント アクチェンゲゼルシャフトMininav Navigation system and method for tooth and oral surgery, positioning tool, and method for positioning a marker member
JP2016067736A (en) * 2014-09-30 2016-05-09 京セラメディカル株式会社 Surgical operation support device and program
JP2017200537A (en) * 2016-05-06 2017-11-09 岳 芳本 Treatment support system, treatment support device, treatment support method, and computer program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114569257A (en) * 2020-12-01 2022-06-03 财团法人金属工业研究发展中心 Real-time positioning compensation method and image positioning system capable of real-time positioning compensation

Similar Documents

Publication Publication Date Title
JP6875550B2 (en) 3D visualization camera and platform
US11571272B2 (en) Stereoscopic camera with fluorescence visualization
JP3905393B2 (en) Surgical device
US10495881B2 (en) Eyeglasses having at least one partially transparent screen, and method for operation of eyeglasses
US20040119943A1 (en) Ophthalmologic device and ophthalmologic measuring method
JP2003233031A5 (en)
JP2020114491A (en) Surgical microscope having data unit and method for overlaying images
JP2015221201A (en) Head-worn platform for integrating virtuality with reality
JP2011125717A (en) Ophthalmic optical observation apparatus
US11698535B2 (en) Systems and methods for superimposing virtual image on real-time image
TW201400084A (en) Fixation line measuring method, fixation line measuring device, eyeball rotation center measuring device, and view point measuring device
CN204427992U (en) Dentist's operation is with wearing formula visual structure
JP2019097851A (en) Dental surgery support system and program
JP7309628B2 (en) CAP, IMAGING DEVICE, DATA GENERATION SYSTEM, AND DATA GENERATION METHOD
US20230120611A1 (en) Stereoscopic camera with fluorescence strobing based visualization
JP7086929B2 (en) Medical information processing system
JP7121740B2 (en) DENTAL OBSERVATION DEVICE AND METHOD FOR DISPLAYING DENTAL IMAGES
CN113660914A (en) Operating lamp for dental care
JP2016540611A (en) Headlamp camera system in which a camera objective lens is installed between two light sources
KR101854728B1 (en) Artificial tooth integrated system
JP2013223115A (en) Eyeglass-mounted operative field camera
TW202418223A (en) Head wearable virtual image module for superimposing virtual image on real-time image
WO2019082452A1 (en) Dental image acquiring device and dental image acquiring method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201008

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210921

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220208