JP5043145B2 - Diagnostic system - Google Patents

Diagnostic system Download PDF

Info

Publication number
JP5043145B2
JP5043145B2 JP2010085073A JP2010085073A JP5043145B2 JP 5043145 B2 JP5043145 B2 JP 5043145B2 JP 2010085073 A JP2010085073 A JP 2010085073A JP 2010085073 A JP2010085073 A JP 2010085073A JP 5043145 B2 JP5043145 B2 JP 5043145B2
Authority
JP
Japan
Prior art keywords
image information
image
recognition
shape
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010085073A
Other languages
Japanese (ja)
Other versions
JP2011212367A (en
Inventor
俊道 森
Original Assignee
俊道 森
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 俊道 森 filed Critical 俊道 森
Priority to JP2010085073A priority Critical patent/JP5043145B2/en
Publication of JP2011212367A publication Critical patent/JP2011212367A/en
Application granted granted Critical
Publication of JP5043145B2 publication Critical patent/JP5043145B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、医療の技術分野に関し、特に詳しくは、CT等の3D画像情報を利用して診断技術の向上を図るシステム関する。   The present invention relates to a medical technical field, and particularly relates to a system for improving diagnostic technology using 3D image information such as CT.

近年、ポジトロン断層法 (PET)や単一光子放射断層撮影 (SPECT)、更には核磁気共鳴画像法 (MRI)に代表されるCT(コンピュータ断層撮影:Computed Tomography)技術を利用して、人体の一部を立体的な画像に置き換え、当該立体画像を参照しながら診断(例えば歯科診断など)を行うといったことが現実に行われている。ここでは人体の特定の内部構造(神経、血管等)のみを例えば色分け表示する事も可能であり、通常肉眼では把握できない内部構造の形状や位置を参照することが可能となっている。   In recent years, using positron tomography (PET), single photon emission tomography (SPECT), and CT (Computed Tomography) technology represented by nuclear magnetic resonance imaging (MRI), In practice, a part of the image is replaced with a three-dimensional image, and diagnosis (for example, dental diagnosis) is performed with reference to the three-dimensional image. Here, it is possible to display only specific internal structures (nerves, blood vessels, etc.) of the human body in different colors, for example, and it is possible to refer to shapes and positions of internal structures that cannot be normally grasped by the naked eye.

また、特許文献1に示されているように、口腔内の画像をディスプレイに表示させ、当該ディスプレイを見ながら診断や患者への説明を行うといったことも現実に行われている。   In addition, as disclosed in Patent Document 1, it is actually performed that an intraoral image is displayed on a display and diagnosis or explanation to a patient is performed while viewing the display.

特開2005−334426号公報JP 2005-334426 A

しかしながら、たとえ画像自体が立体的に表示されているとしても、ディスプレイの表示はあくまで平面的である。また、医師が当該画像(例えばCTにより取得された立体画像)を見ながら治療を行う場合も、治療を行う実体としての患者の位置とディスプレイの位置とは物理的に異なるのであり、医師はディスプレイと実体とを交互に確認しつつ治療を行う必要がある。即ち、ディスプレイに表示された画像(立体画像)を参照しつつ治療を行う場合、医師は自身の「経験と勘」によってその画像と実体との重ね合わせ作業を行いながら治療する必要がある。   However, even if the image itself is displayed three-dimensionally, the display on the display is only flat. In addition, even when a doctor performs treatment while viewing the image (for example, a three-dimensional image acquired by CT), the position of the patient as the entity performing the treatment is physically different from the position of the display. It is necessary to perform treatment while confirming the substance and substance alternately. That is, when a treatment is performed with reference to an image (stereoscopic image) displayed on the display, it is necessary for the doctor to perform the treatment while superimposing the image and the substance by his / her “experience and intuition”.

このような経験と勘による治療行為は、医師個人のテクニックやノウハウに依存する部分が大きく、適切に治療がなされる確率を低下させる原因となるばかりか、ともすると医療事故など重大な問題へと発展しかねない。一方で、当然ながらこういった経験と勘は、数多くの治療行為(相当数の失敗経験を含む)を経てはじめて身につけることができるものであり、一朝一夕で得ることができるものではない。   Such treatment based on experience and intuition largely depends on the individual doctor's technique and know-how, which not only reduces the probability of appropriate treatment, but also causes serious problems such as medical accidents. It can develop. On the other hand, as a matter of course, such experience and intuition can be acquired only after many therapeutic actions (including a considerable number of failed experiences), and cannot be obtained overnight.

そこで本発明は、このような「経験と勘」に頼らざるを得なかった診断行為を脱却し、未だ経験の浅い医師であっても経験豊富な医師と同等のレベルで、また、経験豊富な医師はより正確な診断が行えるような診断システムを提供することをその目的としている。   Therefore, the present invention has escaped the diagnostic act that had to rely on such “experience and intuition”, and even a doctor who is still inexperienced is at the same level as an experienced doctor, The purpose of doctors is to provide a diagnostic system that allows more accurate diagnosis.

請求項1に記載の発明は、走査線を利用した検査により得られた上顎又は下顎の一部を少なくとも含んだ3D画像情報を入力する3D画像情報入力手段と、口腔内表面の形状・位置を認識する認識手段と、前記認識手段により認識された形状・位置と前記3D画像情報とに基づいて、両者を位置決めする位置決め手段と、該位置決めされた3D画像情報の全部又は一部を、立体画像認識デバイスに出力する出力手段と、を備え
診療チェアユニットからアーム部を介して支持される口腔内照射ライトに前記認識手段を備え、且つ、前記アーム部の回転部に回転角度を測定できる角度センサを設けることによって当該認識手段自身の位置を算出する
ことを特徴とする歯科診断システム。
According to the first aspect of the present invention, 3D image information input means for inputting 3D image information including at least a part of the upper jaw or lower jaw obtained by an inspection using a scanning line, and the shape and position of the oral cavity surface Recognizing means for recognizing, positioning means for positioning both based on the shape / position recognized by the recognizing means and the 3D image information, and all or a part of the positioned 3D image information is converted into a stereoscopic image. Output means for outputting to the recognition device ,
The intraoral irradiation light supported from the medical chair unit via the arm unit includes the recognition unit, and the rotation unit of the arm unit is provided with an angle sensor capable of measuring the rotation angle, thereby recognizing the position of the recognition unit itself. A dental diagnosis system characterized by calculating .

即ち、CT等により得た上顎及び/又は下顎部(内部構造を含む)の3D画像情報の必要な部分(例えば神経や血管の位置や形状等)を取り出して、診断時に当該3D画像を実体に対して立体的に重ね合わせることにより、通常肉眼では把握できない(若しくは把握し難い)内部構造等を視覚的に(同じ目線のままで)捉えながら診断を行うことを可能とするシステムである。これは、歯及びその関連組織が、上顎骨又は下顎骨という強固なベースに対して位置が固定されているからこそ、正確な位置決めが可能となっているのであり、人体のその他の部分では同じレベルでの位置決めは困難である。即ち、例えば、上顎全体若しくは下顎全体で動くことはあっても、上顎若しくは下顎から生えている各歯同士や歯と神経管の位置、歯と動脈の位置などは基本的に位置が動くことはない(少なくとも診断している時間レベルでの移動は無視できる)。発明者は正にこの上顎又は/及び下顎部分の特徴的な性質を利用することを前提に本願発明をするに至ったのである。   That is, a necessary part (for example, the position or shape of a nerve or a blood vessel) of 3D image information of the upper jaw and / or lower jaw (including internal structure) obtained by CT or the like is taken out, and the 3D image is used as an entity at the time of diagnosis. On the other hand, by superimposing three-dimensionally, it is a system that makes it possible to make a diagnosis while visually grasping (with the same line of sight) an internal structure that cannot be grasped (or difficult to grasp) by the naked eye. This is because the position of the tooth and its related tissue is fixed with respect to the rigid base of the maxilla or mandible, which enables accurate positioning and is the same in other parts of the human body. Positioning at the level is difficult. That is, for example, even if the entire upper jaw or the entire lower jaw moves, the positions of the teeth growing from the upper jaw or the lower jaw, the positions of the teeth and the neural tube, the positions of the teeth and the arteries, etc. No (at least the movement at the time level being diagnosed is negligible). The inventor has come to make the present invention on the premise that the characteristic properties of the upper and / or lower jaws are used.

発明により、診断経験の少ない者であっても、経験豊富な医師等と同様のレベル(若しくはそれ以上のレベル)で、正確な診断を行うことが可能となる。 According to the present invention, even a person who has little diagnostic experience can make an accurate diagnosis at the same level (or higher level) as an experienced doctor or the like.

本発明の歯科診断システムの概略構成図である。It is a schematic block diagram of the dental diagnosis system of this invention. 網膜操作ディスプレイ(立体画像認識デバイス)と小型カメラ(CCDカメラ)が一体化されたメガネ型ヘッドセットの斜視図である。FIG. 2 is a perspective view of a glasses-type headset in which a retina operation display (stereoscopic image recognition device) and a small camera (CCD camera) are integrated. 本発明にかかる診断システムの処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the process of the diagnostic system concerning this invention. 網膜操作ディスプレイを通して見ることができる立体画像のイメージ図であって、実体としての下顎部に対して、3D画像情報としての下歯槽管神経が立体的に投影されている状態のイメージ図である。It is an image figure of the stereo image which can be seen through a retina operation display, Comprising: It is an image figure of the state in which the inferior alveolar duct nerve as 3D image information is projected in three dimensions with respect to the lower jaw part as a substance. 図4における矢視α線に沿う断面図であって、(a)が適切な人工歯根の植立状態を示した断面図、(b)が不適切な人工歯根の植立状態を示した断面図である。It is sectional drawing in alignment with arrow (alpha) line in FIG. 4, Comprising: (a) The sectional view which showed the planting state of the appropriate artificial tooth root, (b) The cross section which showed the planting state of the inappropriate artificial tooth root FIG. 図4における矢視α線に沿う断面図であって、人工歯根の植立状態が傾斜している状態を示した断面図である。FIG. 5 is a cross-sectional view taken along the arrow α line in FIG. 4, and is a cross-sectional view showing a state where the planted state of the artificial tooth root is inclined. 歯科診断システムが組み込まれた歯科診療チェアユニットで診断を受ける状態を示した全体斜視図である。It is the whole perspective view which showed the state which receives a diagnosis with the dental treatment chair unit incorporating the dental diagnosis system.

以下、添付図面を参照しつつ、本願発明の実施形態の一例としての診断システムについて詳細に説明を加える。   Hereinafter, a diagnostic system as an example of an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

〈診断システムの構成〉
本発明にかかる診断システム10は、ハードウェア資源として一般的なパーソナルコンピュータ(以下単に「PC」という。)を利用している。よって、キーボートやマウス等の入力装置、モニタ等の出力装置、タッチパネル等の入出力装置、中央演算処理装置(CPU)、主記憶装置、補助記憶装置を当該システムの一部として利用する。
<Configuration of diagnostic system>
The diagnosis system 10 according to the present invention uses a general personal computer (hereinafter simply referred to as “PC”) as a hardware resource. Therefore, an input device such as a keyboard and a mouse, an output device such as a monitor, an input / output device such as a touch panel, a central processing unit (CPU), a main storage device, and an auxiliary storage device are used as a part of the system.

診断システム10は、ポジトロン断層法 (PET)や単一光子放射断層撮影
(SPECT)、更には核磁気共鳴画像法 (MRI)に代表されるCT(コンピュータ断層撮影:Computed Tomography)装置70から上顎又は下顎の一部のデータを少なくとも含んだ3D画像情報を取得する入力手段20と、口腔内表面の形状・位置を認識する認識手段30と、この認識手段30により認識された形状・位置と3D画像情報とに基づいて、両者を位置決めする位置決め手段40と、該位置決めされた3D画像情報の全部又は一部を、網膜操作ディスプレイ(立体画像認識デバイス)80に出力する出力手段50と、を備える。
The diagnostic system 10 includes a positron tomography (PET), a single photon emission tomography (SPECT), and a CT (Computed Tomography) device 70 represented by a nuclear magnetic resonance imaging (MRI) 70 to the upper jaw or Input means 20 for acquiring 3D image information including at least partial data of the lower jaw, recognition means 30 for recognizing the shape / position of the oral cavity surface, and the shape / position and 3D image recognized by the recognition means 30 Positioning means 40 for positioning both based on the information, and output means 50 for outputting all or part of the positioned 3D image information to a retina operation display (stereoscopic image recognition device) 80.

また当然ながら診断システム10は、インストールされたプログラムによりその機能を発揮する。即ち、診断システム10を、走査線を利用した検査により得られた上顎又は下顎の一部を少なくとも含んだ3D画像情報を入力し、口腔内表面の形状を認識し、認識された形状と前記3D画像情報とに基づいて、両者を位置決めし、該位置決めされた3D画像情報の全部又は一部を、網膜操作ディスプレイに出力する、ように作動させるための診断システム用プログラムがインストールされている。   Needless to say, the diagnostic system 10 performs its function by the installed program. That is, the diagnosis system 10 inputs 3D image information including at least a part of the upper jaw or the lower jaw obtained by the examination using the scanning line, recognizes the shape of the intraoral surface, and recognizes the recognized shape and the 3D. Based on the image information, a program for a diagnostic system is installed to operate both to position both and output all or part of the positioned 3D image information to a retinal operation display.

CT装置70は、市販されている装置をそのまま利用することができる。例えば、3DX MULTI−IMAGE MICRO CT FP08(モリタ社製)、ベラビューエポックス3D(モリタ社製)や、ファインキューブCT(ヨシダ社製)などが利用可能である。   As the CT apparatus 70, a commercially available apparatus can be used as it is. For example, 3DX MULTI-IMAGE MICRO CT FP08 (Morita), Bellaview Epox 3D (Morita), Fine Cube CT (Yoshida) and the like can be used.

入力手段20は、上記CT装置70によりデータ変換された3D画像情報を取得し必要に応じて記憶する機能を備える。ハードウェア資源としては、中央演算処理装置、主記憶装置、補助記憶装置が連携して入力手段20の機能を発揮する。   The input unit 20 has a function of acquiring 3D image information converted by the CT apparatus 70 and storing it as necessary. As hardware resources, the central processing unit, the main storage device, and the auxiliary storage device cooperate to exhibit the function of the input means 20.

認識手段30は、本実施形態においては、後述するCCDカメラ32と、当該CCDカメラ32により取得された映像を解析する画像解析ソフトにより構成される。当該画像解析ソフトは予めPCにインストールされる。この画像解析ソフトは対象となる物体(例えば歯など)の表面形状とCCDカメラ32からの距離を認識できる限りにおいて種々のものを利用することができる。もちろんCCDカメラ以外にもCMOSカメラを利用することもでき、また、高精細レーザの照射による3次元プロファイリング技術を利用してもよい。   In the present embodiment, the recognition unit 30 includes a CCD camera 32 (to be described later) and image analysis software that analyzes an image acquired by the CCD camera 32. The image analysis software is installed in the PC in advance. Various image analysis software can be used as long as the surface shape of a target object (for example, a tooth) and the distance from the CCD camera 32 can be recognized. Of course, a CMOS camera can be used in addition to the CCD camera, and a three-dimensional profiling technique using high-definition laser irradiation may be used.

位置決め手段40は、PCに予めインストールされている画像解析ソフトによりその機能が発揮される。ハードウェア資源としては、中央演算処理装置、主記憶装置、補助記憶装置が連携して位置決め手段40の機能を発揮する。この画像解析ソフトは、入力手段20が取得・記憶したCTの3D画像情報と、認識手段30が認識した口腔内の実体(歯など)の形状とを重ね合わせるように位置決め(XYZの軸方向位置を確定)できる限りにおいて種々のものを利用できる。   The function of the positioning means 40 is exhibited by image analysis software installed in advance in the PC. As a hardware resource, the central processing unit, the main storage device, and the auxiliary storage device cooperate to exhibit the function of the positioning means 40. This image analysis software performs positioning (XYZ axial position) so that the CT 3D image information acquired and stored by the input means 20 and the shape of the substance (such as teeth) in the oral cavity recognized by the recognition means 30 are superimposed. As long as possible, various things can be used.

出力手段50は、位置決め手段40により実体に対して位置決めされた3D画像情報を、網膜操作ディスプレイ80が受信できる信号形態に置き換えて出力する。本実施形態ではPCにインストールされたソフトウェアにより実現されているが、PC外部に別体として構成してもよい。   The output unit 50 replaces the 3D image information positioned with respect to the entity by the positioning unit 40 into a signal form that can be received by the retinal operation display 80 and outputs the information. In the present embodiment, it is realized by software installed in the PC, but may be configured separately from the PC.

網膜操作ディスプレイ80は、図2に示しているようにメガネ型ヘッドセット90の側方に取り付けられている。本実施形態では、当該ヘッドセット90装着者の左目網膜に対して安全なレベルの光を高速で照射し、その残像効果を利用して画像を表示できるように構成されている。なお、このメガネ型ヘッドセット90の右側側方(装着者から見て右側側方)には認識手段30の一部を構成するCCDカメラ32が設置されている。即ち、網膜操作ディスプレイ80とCCDカメラ32との位置関係は固定され、予め既知情報として取得することが可能な構成となっている。   The retina operation display 80 is attached to the side of the glasses-type headset 90 as shown in FIG. In this embodiment, the left eye retina of the wearer of the headset 90 is irradiated with a safe level of light at high speed, and an image can be displayed using the afterimage effect. A CCD camera 32 constituting a part of the recognition means 30 is installed on the right side of the glasses-type headset 90 (right side as viewed from the wearer). That is, the positional relationship between the retinal operation display 80 and the CCD camera 32 is fixed and can be acquired in advance as known information.

〈診断システムにおける処理手順〉
次に、図3に示したフローチャートを参照しつつ、診断システム10における処理手順について説明を加える。
<Processing procedure in diagnostic system>
Next, a processing procedure in the diagnostic system 10 will be described with reference to the flowchart shown in FIG.

ステップS101からスタートし、入力手段20が、CT検査により得られた上顎及び/又は下顎の少なくとも一部を含んだ3D画像情報を取得する(S102)。この取得は、CT装置70とオンラインで取得してもよいし、得られたデータを一旦情報記録媒体に記録し、当該情報記録媒体を介して取得してもよい。   Starting from step S101, the input means 20 acquires 3D image information including at least a part of the upper jaw and / or the lower jaw obtained by the CT examination (S102). This acquisition may be performed online with the CT apparatus 70, or the obtained data may be temporarily recorded on an information recording medium and acquired via the information recording medium.

続いて、3D画像情報を取得したか否かの判断が行われる(S103)。適切に取得された場合にはS104へと進み、取得されていない場合にはS102へと戻る。   Subsequently, it is determined whether or not 3D image information has been acquired (S103). If it is properly acquired, the process proceeds to S104, and if it is not acquired, the process returns to S102.

続いて、認識手段30が、実体としての患者口腔内の形状と位置(本実施形態ではCCDカメラ32からの距離)を認識する(S104)。特に歯の表面形状を中心に形状等が認識されるように予めプログラムされていることが望ましい。   Subsequently, the recognizing unit 30 recognizes the shape and position (the distance from the CCD camera 32 in this embodiment) in the patient's oral cavity as an entity (S104). In particular, it is desirable to program in advance so that the shape and the like are recognized around the tooth surface shape.

続いて、実体の形状・位置が認識できたか否かの判断が行われる(S105)。認識できている場合にはS106へと進み、認識できていない場合はS104へと戻る。   Subsequently, it is determined whether or not the shape / position of the entity has been recognized (S105). If it can be recognized, the process proceeds to S106, and if it cannot be recognized, the process returns to S104.

続いて、入力手段20により取得された3D画像情報と、認識手段30により認識された実体の形状等を重ね合わせるように位置決めする   Subsequently, positioning is performed so that the 3D image information acquired by the input unit 20 and the shape of the entity recognized by the recognition unit 30 are superimposed.

続いて、位置決めが完了したか否かを判断する。完了していればS108へ進み、完了していなければS106へと戻る。   Subsequently, it is determined whether or not the positioning is completed. If completed, the process proceeds to S108, and if not completed, the process returns to S106.

続いて、位置決めされた3D画像情報(の全部若しくは一部)を網膜操作ディスプレイ80に対して出力する(S108)。このとき、認識手段30の一部としてのCCDカメラ32と網膜操作ディスプレイ80との位置関係は既知であることから、当該情報を利用してヘッドセット90装着者が見ている実体に立体的に重ね合わさるように(あたかも出力された3D画像情報が実体のそこに存在しているように)出力される。より具体的には、ヘッドセット90の装着者から見ると、例えば図4に示しているように、実体Rに対して、3D画像情報としての下顎骨100や下歯槽管神経110が立体的に投影されて表示される。このとき例えば、表示される3D画像情報を半透明とすれば、実体に対して暗視野が生じることが無い。   Subsequently, the positioned 3D image information (all or a part thereof) is output to the retina operation display 80 (S108). At this time, since the positional relationship between the CCD camera 32 as a part of the recognition unit 30 and the retinal operation display 80 is known, the information is used to three-dimensionally represent the entity that the headset 90 wearer is looking at. It is output as if superimposed (as if the output 3D image information exists in the entity). More specifically, when viewed from the wearer of the headset 90, for example, as shown in FIG. 4, the mandible 100 and the lower alveolar canal nerve 110 are three-dimensionally displayed as 3D image information with respect to the entity R. Projected and displayed. At this time, for example, if the displayed 3D image information is translucent, a dark field does not occur with respect to the substance.

続いて、実体の形状・位置に変化が無いかが判断される(S109)。変化が無い場合は引き続き形状・位置の変化が無いかどうかが判断され(S109)、変化がある場合にはS104へと戻る。ここでS109の判断は、極めて短い間隔(リアルタイム)で繰り返し行われ、少しでも形状・位置が変化した場合には直ちに修正される。即ち、実体として患者側の動き及び/又は診断を行う医師側の動きにより位置等にズレが生じた場合でもその動きに合わせて3D画像情報が表示される。   Subsequently, it is determined whether there is any change in the shape / position of the entity (S109). If there is no change, it is determined whether there is no change in shape / position (S109). If there is a change, the process returns to S104. Here, the determination in S109 is repeatedly performed at an extremely short interval (real time), and if the shape / position changes even a little, it is immediately corrected. That is, 3D image information is displayed in accordance with the movement even when the position or the like is shifted due to the movement of the patient and / or the movement of the doctor performing the diagnosis.

このように、本発明にかかる診断システム10においては、CT等により得た上顎又は/及び下顎部(内部構造を含む)の3D画像情報の必要な部分(例えば神経や血管の位置や形状等)を取り出して、診断時に当該3D画像を実体に対して立体的に重ね合わせることにより、通常肉眼では把握できない(若しくは把握し難い)内部構造等を視覚的に(同じ目線のままで)捉えながら診断を行うことが可能となっている。即ち、診断経験の少ない者(例えば医師になって間もない者)であっても、経験豊富な医師に近いレベル(若しくはそれ以上のレベル)で、正確な診断を行うことが可能となっている。   As described above, in the diagnostic system 10 according to the present invention, a necessary portion (for example, the position and shape of nerves and blood vessels) of 3D image information of the upper jaw and / or the lower jaw (including the internal structure) obtained by CT or the like. By taking out the 3D image and stereoscopically superimposing the 3D image on the entity at the time of diagnosis, diagnosis is performed while visually grasping (with the same line of sight) the internal structure that cannot be grasped (or difficult to grasp) with the naked eye. It is possible to do. That is, even those who have little diagnostic experience (for example, those who have just become doctors) can make an accurate diagnosis at a level close to (or higher than) an experienced doctor. Yes.

例えば図5に示しているように、人工歯根200の植立は下顎骨100の内部に位置する下歯槽管神経110に接触等しないように十分な注意のもとで植立される必要があるところ、本発明にかかる診断システム10を利用すれば、下歯槽管神経110の位置や形状、人工歯根200先端の位置等が容易に(あたかも実際にそこに存在しているように)把握できるので、正確且つ迅速な植立が可能となる。   For example, as shown in FIG. 5, the artificial dental root 200 needs to be planted with sufficient care so as not to contact the lower alveolar canal nerve 110 located inside the mandible 100. However, if the diagnostic system 10 according to the present invention is used, the position and shape of the inferior alveolar nerve 110, the position of the tip of the artificial root 200, etc. can be easily grasped (as if they actually existed). Accurate and quick planting becomes possible.

〈その他の実施形態〉
なお上記では、ハードウェア資源として一般的なPCを利用しているが、専用のハードウェアを利用してシステムを構築することももちろん可能である。
<Other embodiments>
In the above description, a general PC is used as a hardware resource, but it is of course possible to construct a system using dedicated hardware.

また上記では、CT(コンピュータ断層撮影:Computed Tomography)の例としてポジトロン断層法
(PET)や単一光子放射断層撮影 (SPECT)、更には核磁気共鳴画像法
(MRI)を示しているが、これに限られるものではない。人体を走査線により断層的に解析し、当該解析情報を3D画像情報として利用できる限りにおいて、その他の手法によるものであっても同様に利用できる。
In the above, positron tomography (PET), single photon emission tomography (SPECT), and nuclear magnetic resonance imaging (MRI) are shown as examples of computed tomography (CT). It is not limited to. As long as the human body is analyzed in a tomographic manner by scanning lines and the analysis information can be used as 3D image information, it can be used in the same manner even if it is based on other methods.

また出力手段50が、3D画像情報と併せて(若しくは切り替えて)、作業の為のマーカを出力するように構成してもよい。例えば、図6に示しているように、人工歯根の理想的な植立角度を示すガイド線GLを網膜操作ディスプレイ80に出力させる。このようにすれば、経験の浅い医師であっても、適切な方向に人工歯根を容易に埋め込むことが可能となる。   Further, the output unit 50 may be configured to output a marker for work together (or switched) with the 3D image information. For example, as shown in FIG. 6, a guide line GL indicating an ideal planting angle of the artificial tooth root is output to the retina operation display 80. In this way, even an inexperienced doctor can easily implant an artificial tooth root in an appropriate direction.

更には、各種道具(治療行為を行う際に使用する機械・器具・装置など)の操作方向や位置、順番などを表示させてもよい。そのようにすれば都度他の資料を確認する必要を無くし、迅速且つ的確な治療が可能となる。   Furthermore, the operation direction, position, order, and the like of various tools (machines, instruments, devices, etc. used when performing a therapeutic action) may be displayed. By doing so, it is not necessary to check other materials each time, and prompt and accurate treatment is possible.

また出力手段50が、例えば、患者の基礎情報(身長、体重、年齢、性別、血液型、体温、心拍数、既往歴等)を常に、若しくは必要に応じて表示させるような構成を採用してもよい。これにより医師等は網膜操作ディスプレイを見たままで様々な情報を入手できるので、診断(治療を含む)をより正確、迅速且つ的確に行うことが可能となる。   Further, for example, the output means 50 adopts a configuration in which basic information (height, weight, age, sex, blood type, body temperature, heart rate, medical history, etc.) of the patient is displayed constantly or as necessary. Also good. Accordingly, doctors and the like can obtain various information while looking at the retinal operation display, so that diagnosis (including treatment) can be performed more accurately, quickly and accurately.

なお、3D画像情報としては、例えば、下歯槽管神経、動脈、歯髄神経、虫歯領域、歯石等が想定でき、診断内容に応じて、これらのうちいずれか、若しくは組み合わせて表示させることも可能である。具体的には、歯石を除去する場合であれば、歯石の位置や形状(歯肉の裏側や歯間に隠れて直接見ることができない歯石を含む)を表示する。   As the 3D image information, for example, the lower alveolar canal nerve, artery, dental pulp nerve, caries region, tartar, etc. can be assumed, and any one or a combination of these can be displayed depending on the diagnosis contents. is there. Specifically, if the calculus is to be removed, the position and shape of the calculus (including the calculus that cannot be seen directly behind the gingiva or between the teeth) are displayed.

また既に歯が全て抜歯されてしまっているような場合は、口腔内に人工マーカを後付けし、認識手段30が当該人工マーカを認識するように構成してもよい。こうすることで口腔内に歯が残っていない場合でも、当該システムを利用した診断が可能となる。   Moreover, when all the teeth have already been extracted, an artificial marker may be retrofitted in the oral cavity, and the recognition means 30 may be configured to recognize the artificial marker. This makes it possible to make a diagnosis using the system even when no teeth remain in the oral cavity.

また認識手段30が、更に治療器具(タービン、バー、エンジン、2wayポイント、ミラー、ピン、探針、バキューム、注射器、リーマ、ブローチ、クレンザー、トレイ、抜歯鉗子、ヘーベル、メス、鋭匙(えいひ)等)の治療位置を認識し、当該治療位置を網膜操作ディスプレイ80に出力するように構成してもよい。これにより、直接視覚的に捉えることができない部分を治療する場合でも、治療位置を把握しながら治療することができる。   Further, the recognition means 30 further includes a treatment instrument (turbine, bar, engine, 2 way point, mirror, pin, probe, vacuum, syringe, reamer, broach, cleanser, tray, extraction forceps, hebel, scalpel, sharp knife. ) Etc.) may be recognized, and the treatment position may be output to the retinal operation display 80. Thereby, even when a portion that cannot be directly visually recognized is treated, treatment can be performed while grasping the treatment position.

また上記では、立体画像認識デバイスとして網膜操作ディスプレイ80を例に説明しているが、この網膜操作ディスプレイに限定されるものではない。人間が立体画像をあたかもそこに存在しているように認識可能なデバイスである限りにおいて同様に適用可能である。   In the above description, the retinal operation display 80 is described as an example of the stereoscopic image recognition device, but is not limited to this retinal operation display. The present invention can be similarly applied as long as the device can recognize a stereoscopic image as if it existed there.

また上記では、メガネ型の網膜操作ディスプレイ80に認識手段としてのCCDカメラ32が組付けられて構成されていたが、その他の構成を採用することも可能である。例えば、図に示しているように、診療チェアユニット200に備わる口腔内照射ライト220に認識手段としてのCCDカメラ223を装着して構成してもよい。かかる場合、歯科診療チェアユニット本体201は位置決めされているので、例えばこの本体部201を基準位置として、CCDカメラ223の位置を算出できる(例えばアーム部210の各回転軸に角度センサ等を取り付けることにより算出可能となる。)。一方で網膜操作ディスプレイの位置も別途検知して算出できる構成とすれば、本発明に係る診断システムを構築できる。
In the above description, the glasses-type retinal operation display 80 is configured to be assembled with the CCD camera 32 as a recognition unit. However, other configurations may be employed. For example, as shown in FIG. 7 , a CCD camera 223 as a recognition unit may be attached to the intraoral irradiation light 220 provided in the medical chair unit 200. In this case, since the dental treatment chair unit main body 201 is positioned, the position of the CCD camera 223 can be calculated using, for example, the main body portion 201 as a reference position (for example, an angle sensor or the like is attached to each rotation axis of the arm portion 210). It can be calculated by.) On the other hand, if the configuration is such that the position of the retina operation display can be separately detected and calculated, the diagnostic system according to the present invention can be constructed.

このとき、網膜操作ディスプレイの位置を算出する方法は種々考えられるが、例えば、CCDカメラ223により患者の口腔内の形状・位置等を認識すると同時に、網膜操作ディスプレイ自体の形状・位置を認識させるようにプログラミングすることで算出することが可能である。   At this time, various methods for calculating the position of the retina operation display can be considered. For example, the CCD camera 223 recognizes the shape and position of the patient's oral cavity, and at the same time, recognizes the shape and position of the retina operation display itself. It is possible to calculate by programming.

なお、本願発明は、歯や神経、血管等が、上顎骨又は/及び下顎骨をベースとして位置決めされているという点を効果的に利用してなされた発明であるが、その他の部分の診断システムとして除外するものではない。即ち、請求項1の発明をより上位の概念として捉え、走査線を利用した検査により得られた人体の少なくとも一部の3D画像情報を入力する3D画像情報入力手段と、人体の形状を認識する認識手段と、当該認識手段により認識された形状と前記3D画像情報とに基づいて、両者を位置決めする位置決め手段と、該位置決めされた3D画像情報の全部又は一部を、網膜操作ディスプレイに出力する出力手段と、を備えたことを特徴とする診断システムとして構築することも可能である。   The invention of the present application is an invention that is made by effectively utilizing the fact that teeth, nerves, blood vessels, and the like are positioned based on the maxilla or / and the mandible. Is not to be excluded. That is, the invention of claim 1 is regarded as a higher concept, and 3D image information input means for inputting 3D image information of at least a part of the human body obtained by the inspection using the scanning line, and the shape of the human body are recognized. Recognizing means, positioning means for positioning both based on the shape recognized by the recognizing means and the 3D image information, and all or part of the positioned 3D image information is output to the retinal operation display. It is also possible to construct as a diagnostic system characterized by comprising output means.

10…診断システム
20…入力手段
30…認識手段
32…CCDカメラ
40…位置決め手段
50…出力手段
80…網膜操作ディスプレイ
90…ヘッドセット(メガネ型)
100…下顎骨
100…下歯槽管神経
200…人工歯根

DESCRIPTION OF SYMBOLS 10 ... Diagnostic system 20 ... Input means 30 ... Recognition means 32 ... CCD camera 40 ... Positioning means 50 ... Output means 80 ... Retina operation display 90 ... Headset (glasses type)
100 ... mandible 100 ... inferior alveolar canal nerve 200 ... artificial tooth root

Claims (1)

走査線を利用した検査により得られた上顎又は下顎の一部を少なくとも含んだ3D画像情報を入力する3D画像情報入力手段と、
口腔内表面の形状・位置を認識する認識手段と、
前記認識手段により認識された形状・位置と前記3D画像情報とに基づいて、両者を位置決めする位置決め手段と、
該位置決めされた3D画像情報の全部又は一部を、立体画像認識デバイスに出力する出力手段と、を備え
診療チェアユニットからアーム部を介して支持される口腔内照射ライトに前記認識手段を備え、且つ、前記アーム部の回転部に回転角度を測定できる角度センサを設けることによって当該認識手段自身の位置を算出する
ことを特徴とする歯科診断システム。
3D image information input means for inputting 3D image information including at least a part of the upper jaw or the lower jaw obtained by an examination using a scanning line;
Recognition means for recognizing the shape and position of the oral cavity surface;
Positioning means for positioning both based on the shape / position recognized by the recognition means and the 3D image information;
Output means for outputting all or part of the positioned 3D image information to a stereoscopic image recognition device ;
The intraoral irradiation light supported from the medical chair unit via the arm unit includes the recognition unit, and the rotation unit of the arm unit is provided with an angle sensor capable of measuring the rotation angle, thereby recognizing the position of the recognition unit itself. A dental diagnosis system characterized by calculating .
JP2010085073A 2010-04-01 2010-04-01 Diagnostic system Expired - Fee Related JP5043145B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010085073A JP5043145B2 (en) 2010-04-01 2010-04-01 Diagnostic system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010085073A JP5043145B2 (en) 2010-04-01 2010-04-01 Diagnostic system

Publications (2)

Publication Number Publication Date
JP2011212367A JP2011212367A (en) 2011-10-27
JP5043145B2 true JP5043145B2 (en) 2012-10-10

Family

ID=44942725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010085073A Expired - Fee Related JP5043145B2 (en) 2010-04-01 2010-04-01 Diagnostic system

Country Status (1)

Country Link
JP (1) JP5043145B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3636159A1 (en) * 2018-10-09 2020-04-15 Ivoclar Vivadent AG Dental tool control system
EP3636202A1 (en) * 2018-10-09 2020-04-15 Ivoclar Vivadent AG Dental guiding system for dental preparation

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5744084B2 (en) * 2013-03-06 2015-07-01 株式会社モリタ製作所 Dental image display device, dental treatment device, and method of operating dental image display device
JP6496242B2 (en) * 2015-12-25 2019-04-03 ウエストユニティス株式会社 Camera and wearable system
WO2017179350A1 (en) 2016-04-11 2017-10-19 富士フイルム株式会社 Device, method and program for controlling image display
JPWO2020075796A1 (en) * 2018-10-11 2021-11-18 クラレノリタケデンタル株式会社 Dental treatment support device, dental treatment support system, dental treatment support method, dental treatment support program and dental product sales promotion device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05266215A (en) * 1992-03-18 1993-10-15 Toshiba Corp Picture display device
JP2000350733A (en) * 1999-06-10 2000-12-19 Olympus Optical Co Ltd Positioning frame and operation navigating system
DE19952962B4 (en) * 1999-11-03 2004-07-01 Sirona Dental Systems Gmbh Method for producing a drilling aid for a dental implant
US7559895B2 (en) * 2000-07-07 2009-07-14 University Of Pittsburgh-Of The Commonwealth System Of Higher Education Combining tomographic images in situ with direct vision using a holographic optical element
JP2007136133A (en) * 2005-11-18 2007-06-07 Toshio Fukuda System for presenting augmented reality
JP5335201B2 (en) * 2007-05-08 2013-11-06 キヤノン株式会社 Diagnostic imaging equipment

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3636159A1 (en) * 2018-10-09 2020-04-15 Ivoclar Vivadent AG Dental tool control system
EP3636202A1 (en) * 2018-10-09 2020-04-15 Ivoclar Vivadent AG Dental guiding system for dental preparation
WO2020074204A1 (en) * 2018-10-09 2020-04-16 Ivoclar Vivadent Ag Dental guide system for tooth preparation
WO2020074203A1 (en) * 2018-10-09 2020-04-16 Ivoclar Vivadent Ag Dental tool control system

Also Published As

Publication number Publication date
JP2011212367A (en) 2011-10-27

Similar Documents

Publication Publication Date Title
CN107529968B (en) Device for observing inside of oral cavity
Silva et al. Present status and future directions–Minimal endodontic access cavities
JP5043145B2 (en) Diagnostic system
JP2017525522A (en) Visualization device in the patient&#39;s mouth
US10335099B2 (en) Periodontal disease testing apparatus and image processing program used therein
CN108670447B (en) Real-time navigation system and method in root canal
CN112885436B (en) Dental surgery real-time auxiliary system based on augmented reality three-dimensional imaging
JP6829763B2 (en) Medical medical equipment
JP2023099042A (en) Volume rendering using surface guided cropping
WO2023274690A1 (en) Non-invasive periodontal examination
US11090014B2 (en) Dental image processing device, dental imaging system, dental image processing method, and program
JP5477840B2 (en) Two-dimensional image display device
US20220051406A1 (en) Dental imaging mixed reality system
CN112545650A (en) Navigation positioning method and system for dentistry
RU2580043C1 (en) Method of determining glide path for scheduling endodontal treatment of root canals of molars of upper jaw
CN114903635A (en) Dental microscopic diagnosis and treatment system
Chen et al. 3D printing of drill guide template for access cavity preparation in human molars: a preliminary study
TWI633875B (en) Method and system for manufacturing apical resection surgery guide plate and computer-readable recording medium
Bóveda et al. The Role of Modern Technologies for Dentin Preservation in Root Canal Treatment
CN216021503U (en) Micro diagnosis and treatment system for dentistry
JP6559819B1 (en) Image processing apparatus and image processing program
WO2022170927A1 (en) Surgical microscope diagnosis and treatment system
JP6632652B2 (en) Image processing apparatus and image processing program
Pandey et al. Application of CBCT in Oral Medicine: A Review
Shen et al. Fusion Modeling of Intraoral Scanning and CBCT Images on Dental Caries

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111215

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20111215

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20120207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120703

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120711

R150 Certificate of patent or registration of utility model

Ref document number: 5043145

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150720

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees