JP5043145B2 - Diagnostic system - Google Patents
Diagnostic system Download PDFInfo
- Publication number
- JP5043145B2 JP5043145B2 JP2010085073A JP2010085073A JP5043145B2 JP 5043145 B2 JP5043145 B2 JP 5043145B2 JP 2010085073 A JP2010085073 A JP 2010085073A JP 2010085073 A JP2010085073 A JP 2010085073A JP 5043145 B2 JP5043145 B2 JP 5043145B2
- Authority
- JP
- Japan
- Prior art keywords
- image information
- image
- recognition
- shape
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003745 diagnosis Methods 0.000 claims description 21
- 210000000214 mouth Anatomy 0.000 claims description 8
- 238000002591 computed tomography Methods 0.000 description 17
- 238000000034 method Methods 0.000 description 14
- 210000001525 retina Anatomy 0.000 description 11
- 210000000515 tooth Anatomy 0.000 description 11
- 210000005036 nerve Anatomy 0.000 description 10
- 230000002207 retinal effect Effects 0.000 description 10
- 210000004746 tooth root Anatomy 0.000 description 7
- 239000000126 substance Substances 0.000 description 6
- 238000003325 tomography Methods 0.000 description 6
- 210000004373 mandible Anatomy 0.000 description 5
- 210000004204 blood vessel Anatomy 0.000 description 4
- 238000002595 magnetic resonance imaging Methods 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 238000013421 nuclear magnetic resonance imaging Methods 0.000 description 3
- 238000002603 single-photon emission computed tomography Methods 0.000 description 3
- 210000001367 artery Anatomy 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 210000002050 maxilla Anatomy 0.000 description 2
- 230000001225 therapeutic effect Effects 0.000 description 2
- 208000006558 Dental Calculus Diseases 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 206010047571 Visual impairment Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 208000002925 dental caries Diseases 0.000 description 1
- 210000003074 dental pulp Anatomy 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000004195 gingiva Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000007943 implant Substances 0.000 description 1
- 210000001847 jaw Anatomy 0.000 description 1
- 210000002698 mandibular nerve Anatomy 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 210000000276 neural tube Anatomy 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
Description
本発明は、医療の技術分野に関し、特に詳しくは、CT等の3D画像情報を利用して診断技術の向上を図るシステム関する。 The present invention relates to a medical technical field, and particularly relates to a system for improving diagnostic technology using 3D image information such as CT.
近年、ポジトロン断層法 (PET)や単一光子放射断層撮影 (SPECT)、更には核磁気共鳴画像法 (MRI)に代表されるCT(コンピュータ断層撮影:Computed Tomography)技術を利用して、人体の一部を立体的な画像に置き換え、当該立体画像を参照しながら診断(例えば歯科診断など)を行うといったことが現実に行われている。ここでは人体の特定の内部構造(神経、血管等)のみを例えば色分け表示する事も可能であり、通常肉眼では把握できない内部構造の形状や位置を参照することが可能となっている。 In recent years, using positron tomography (PET), single photon emission tomography (SPECT), and CT (Computed Tomography) technology represented by nuclear magnetic resonance imaging (MRI), In practice, a part of the image is replaced with a three-dimensional image, and diagnosis (for example, dental diagnosis) is performed with reference to the three-dimensional image. Here, it is possible to display only specific internal structures (nerves, blood vessels, etc.) of the human body in different colors, for example, and it is possible to refer to shapes and positions of internal structures that cannot be normally grasped by the naked eye.
また、特許文献1に示されているように、口腔内の画像をディスプレイに表示させ、当該ディスプレイを見ながら診断や患者への説明を行うといったことも現実に行われている。 In addition, as disclosed in Patent Document 1, it is actually performed that an intraoral image is displayed on a display and diagnosis or explanation to a patient is performed while viewing the display.
しかしながら、たとえ画像自体が立体的に表示されているとしても、ディスプレイの表示はあくまで平面的である。また、医師が当該画像(例えばCTにより取得された立体画像)を見ながら治療を行う場合も、治療を行う実体としての患者の位置とディスプレイの位置とは物理的に異なるのであり、医師はディスプレイと実体とを交互に確認しつつ治療を行う必要がある。即ち、ディスプレイに表示された画像(立体画像)を参照しつつ治療を行う場合、医師は自身の「経験と勘」によってその画像と実体との重ね合わせ作業を行いながら治療する必要がある。 However, even if the image itself is displayed three-dimensionally, the display on the display is only flat. In addition, even when a doctor performs treatment while viewing the image (for example, a three-dimensional image acquired by CT), the position of the patient as the entity performing the treatment is physically different from the position of the display. It is necessary to perform treatment while confirming the substance and substance alternately. That is, when a treatment is performed with reference to an image (stereoscopic image) displayed on the display, it is necessary for the doctor to perform the treatment while superimposing the image and the substance by his / her “experience and intuition”.
このような経験と勘による治療行為は、医師個人のテクニックやノウハウに依存する部分が大きく、適切に治療がなされる確率を低下させる原因となるばかりか、ともすると医療事故など重大な問題へと発展しかねない。一方で、当然ながらこういった経験と勘は、数多くの治療行為(相当数の失敗経験を含む)を経てはじめて身につけることができるものであり、一朝一夕で得ることができるものではない。 Such treatment based on experience and intuition largely depends on the individual doctor's technique and know-how, which not only reduces the probability of appropriate treatment, but also causes serious problems such as medical accidents. It can develop. On the other hand, as a matter of course, such experience and intuition can be acquired only after many therapeutic actions (including a considerable number of failed experiences), and cannot be obtained overnight.
そこで本発明は、このような「経験と勘」に頼らざるを得なかった診断行為を脱却し、未だ経験の浅い医師であっても経験豊富な医師と同等のレベルで、また、経験豊富な医師はより正確な診断が行えるような診断システムを提供することをその目的としている。 Therefore, the present invention has escaped the diagnostic act that had to rely on such “experience and intuition”, and even a doctor who is still inexperienced is at the same level as an experienced doctor, The purpose of doctors is to provide a diagnostic system that allows more accurate diagnosis.
請求項1に記載の発明は、走査線を利用した検査により得られた上顎又は下顎の一部を少なくとも含んだ3D画像情報を入力する3D画像情報入力手段と、口腔内表面の形状・位置を認識する認識手段と、前記認識手段により認識された形状・位置と前記3D画像情報とに基づいて、両者を位置決めする位置決め手段と、該位置決めされた3D画像情報の全部又は一部を、立体画像認識デバイスに出力する出力手段と、を備え、
診療チェアユニットからアーム部を介して支持される口腔内照射ライトに前記認識手段を備え、且つ、前記アーム部の回転部に回転角度を測定できる角度センサを設けることによって当該認識手段自身の位置を算出する
ことを特徴とする歯科診断システム。
According to the first aspect of the present invention, 3D image information input means for inputting 3D image information including at least a part of the upper jaw or lower jaw obtained by an inspection using a scanning line, and the shape and position of the oral cavity surface Recognizing means for recognizing, positioning means for positioning both based on the shape / position recognized by the recognizing means and the 3D image information, and all or a part of the positioned 3D image information is converted into a stereoscopic image. Output means for outputting to the recognition device ,
The intraoral irradiation light supported from the medical chair unit via the arm unit includes the recognition unit, and the rotation unit of the arm unit is provided with an angle sensor capable of measuring the rotation angle, thereby recognizing the position of the recognition unit itself. A dental diagnosis system characterized by calculating .
即ち、CT等により得た上顎及び/又は下顎部(内部構造を含む)の3D画像情報の必要な部分(例えば神経や血管の位置や形状等)を取り出して、診断時に当該3D画像を実体に対して立体的に重ね合わせることにより、通常肉眼では把握できない(若しくは把握し難い)内部構造等を視覚的に(同じ目線のままで)捉えながら診断を行うことを可能とするシステムである。これは、歯及びその関連組織が、上顎骨又は下顎骨という強固なベースに対して位置が固定されているからこそ、正確な位置決めが可能となっているのであり、人体のその他の部分では同じレベルでの位置決めは困難である。即ち、例えば、上顎全体若しくは下顎全体で動くことはあっても、上顎若しくは下顎から生えている各歯同士や歯と神経管の位置、歯と動脈の位置などは基本的に位置が動くことはない(少なくとも診断している時間レベルでの移動は無視できる)。発明者は正にこの上顎又は/及び下顎部分の特徴的な性質を利用することを前提に本願発明をするに至ったのである。 That is, a necessary part (for example, the position or shape of a nerve or a blood vessel) of 3D image information of the upper jaw and / or lower jaw (including internal structure) obtained by CT or the like is taken out, and the 3D image is used as an entity at the time of diagnosis. On the other hand, by superimposing three-dimensionally, it is a system that makes it possible to make a diagnosis while visually grasping (with the same line of sight) an internal structure that cannot be grasped (or difficult to grasp) by the naked eye. This is because the position of the tooth and its related tissue is fixed with respect to the rigid base of the maxilla or mandible, which enables accurate positioning and is the same in other parts of the human body. Positioning at the level is difficult. That is, for example, even if the entire upper jaw or the entire lower jaw moves, the positions of the teeth growing from the upper jaw or the lower jaw, the positions of the teeth and the neural tube, the positions of the teeth and the arteries, etc. No (at least the movement at the time level being diagnosed is negligible). The inventor has come to make the present invention on the premise that the characteristic properties of the upper and / or lower jaws are used.
本発明により、診断経験の少ない者であっても、経験豊富な医師等と同様のレベル(若しくはそれ以上のレベル)で、正確な診断を行うことが可能となる。 According to the present invention, even a person who has little diagnostic experience can make an accurate diagnosis at the same level (or higher level) as an experienced doctor or the like.
以下、添付図面を参照しつつ、本願発明の実施形態の一例としての診断システムについて詳細に説明を加える。 Hereinafter, a diagnostic system as an example of an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
〈診断システムの構成〉
本発明にかかる診断システム10は、ハードウェア資源として一般的なパーソナルコンピュータ(以下単に「PC」という。)を利用している。よって、キーボートやマウス等の入力装置、モニタ等の出力装置、タッチパネル等の入出力装置、中央演算処理装置(CPU)、主記憶装置、補助記憶装置を当該システムの一部として利用する。
<Configuration of diagnostic system>
The diagnosis system 10 according to the present invention uses a general personal computer (hereinafter simply referred to as “PC”) as a hardware resource. Therefore, an input device such as a keyboard and a mouse, an output device such as a monitor, an input / output device such as a touch panel, a central processing unit (CPU), a main storage device, and an auxiliary storage device are used as a part of the system.
診断システム10は、ポジトロン断層法 (PET)や単一光子放射断層撮影
(SPECT)、更には核磁気共鳴画像法 (MRI)に代表されるCT(コンピュータ断層撮影:Computed Tomography)装置70から上顎又は下顎の一部のデータを少なくとも含んだ3D画像情報を取得する入力手段20と、口腔内表面の形状・位置を認識する認識手段30と、この認識手段30により認識された形状・位置と3D画像情報とに基づいて、両者を位置決めする位置決め手段40と、該位置決めされた3D画像情報の全部又は一部を、網膜操作ディスプレイ(立体画像認識デバイス)80に出力する出力手段50と、を備える。
The diagnostic system 10 includes a positron tomography (PET), a single photon emission tomography (SPECT), and a CT (Computed Tomography) device 70 represented by a nuclear magnetic resonance imaging (MRI) 70 to the upper jaw or Input means 20 for acquiring 3D image information including at least partial data of the lower jaw, recognition means 30 for recognizing the shape / position of the oral cavity surface, and the shape / position and 3D image recognized by the recognition means 30 Positioning means 40 for positioning both based on the information, and output means 50 for outputting all or part of the positioned 3D image information to a retina operation display (stereoscopic image recognition device) 80.
また当然ながら診断システム10は、インストールされたプログラムによりその機能を発揮する。即ち、診断システム10を、走査線を利用した検査により得られた上顎又は下顎の一部を少なくとも含んだ3D画像情報を入力し、口腔内表面の形状を認識し、認識された形状と前記3D画像情報とに基づいて、両者を位置決めし、該位置決めされた3D画像情報の全部又は一部を、網膜操作ディスプレイに出力する、ように作動させるための診断システム用プログラムがインストールされている。 Needless to say, the diagnostic system 10 performs its function by the installed program. That is, the diagnosis system 10 inputs 3D image information including at least a part of the upper jaw or the lower jaw obtained by the examination using the scanning line, recognizes the shape of the intraoral surface, and recognizes the recognized shape and the 3D. Based on the image information, a program for a diagnostic system is installed to operate both to position both and output all or part of the positioned 3D image information to a retinal operation display.
CT装置70は、市販されている装置をそのまま利用することができる。例えば、3DX MULTI−IMAGE MICRO CT FP08(モリタ社製)、ベラビューエポックス3D(モリタ社製)や、ファインキューブCT(ヨシダ社製)などが利用可能である。 As the CT apparatus 70, a commercially available apparatus can be used as it is. For example, 3DX MULTI-IMAGE MICRO CT FP08 (Morita), Bellaview Epox 3D (Morita), Fine Cube CT (Yoshida) and the like can be used.
入力手段20は、上記CT装置70によりデータ変換された3D画像情報を取得し必要に応じて記憶する機能を備える。ハードウェア資源としては、中央演算処理装置、主記憶装置、補助記憶装置が連携して入力手段20の機能を発揮する。 The input unit 20 has a function of acquiring 3D image information converted by the CT apparatus 70 and storing it as necessary. As hardware resources, the central processing unit, the main storage device, and the auxiliary storage device cooperate to exhibit the function of the input means 20.
認識手段30は、本実施形態においては、後述するCCDカメラ32と、当該CCDカメラ32により取得された映像を解析する画像解析ソフトにより構成される。当該画像解析ソフトは予めPCにインストールされる。この画像解析ソフトは対象となる物体(例えば歯など)の表面形状とCCDカメラ32からの距離を認識できる限りにおいて種々のものを利用することができる。もちろんCCDカメラ以外にもCMOSカメラを利用することもでき、また、高精細レーザの照射による3次元プロファイリング技術を利用してもよい。 In the present embodiment, the recognition unit 30 includes a CCD camera 32 (to be described later) and image analysis software that analyzes an image acquired by the CCD camera 32. The image analysis software is installed in the PC in advance. Various image analysis software can be used as long as the surface shape of a target object (for example, a tooth) and the distance from the CCD camera 32 can be recognized. Of course, a CMOS camera can be used in addition to the CCD camera, and a three-dimensional profiling technique using high-definition laser irradiation may be used.
位置決め手段40は、PCに予めインストールされている画像解析ソフトによりその機能が発揮される。ハードウェア資源としては、中央演算処理装置、主記憶装置、補助記憶装置が連携して位置決め手段40の機能を発揮する。この画像解析ソフトは、入力手段20が取得・記憶したCTの3D画像情報と、認識手段30が認識した口腔内の実体(歯など)の形状とを重ね合わせるように位置決め(XYZの軸方向位置を確定)できる限りにおいて種々のものを利用できる。 The function of the positioning means 40 is exhibited by image analysis software installed in advance in the PC. As a hardware resource, the central processing unit, the main storage device, and the auxiliary storage device cooperate to exhibit the function of the positioning means 40. This image analysis software performs positioning (XYZ axial position) so that the CT 3D image information acquired and stored by the input means 20 and the shape of the substance (such as teeth) in the oral cavity recognized by the recognition means 30 are superimposed. As long as possible, various things can be used.
出力手段50は、位置決め手段40により実体に対して位置決めされた3D画像情報を、網膜操作ディスプレイ80が受信できる信号形態に置き換えて出力する。本実施形態ではPCにインストールされたソフトウェアにより実現されているが、PC外部に別体として構成してもよい。 The output unit 50 replaces the 3D image information positioned with respect to the entity by the positioning unit 40 into a signal form that can be received by the retinal operation display 80 and outputs the information. In the present embodiment, it is realized by software installed in the PC, but may be configured separately from the PC.
網膜操作ディスプレイ80は、図2に示しているようにメガネ型ヘッドセット90の側方に取り付けられている。本実施形態では、当該ヘッドセット90装着者の左目網膜に対して安全なレベルの光を高速で照射し、その残像効果を利用して画像を表示できるように構成されている。なお、このメガネ型ヘッドセット90の右側側方(装着者から見て右側側方)には認識手段30の一部を構成するCCDカメラ32が設置されている。即ち、網膜操作ディスプレイ80とCCDカメラ32との位置関係は固定され、予め既知情報として取得することが可能な構成となっている。 The retina operation display 80 is attached to the side of the glasses-type headset 90 as shown in FIG. In this embodiment, the left eye retina of the wearer of the headset 90 is irradiated with a safe level of light at high speed, and an image can be displayed using the afterimage effect. A CCD camera 32 constituting a part of the recognition means 30 is installed on the right side of the glasses-type headset 90 (right side as viewed from the wearer). That is, the positional relationship between the retinal operation display 80 and the CCD camera 32 is fixed and can be acquired in advance as known information.
〈診断システムにおける処理手順〉
次に、図3に示したフローチャートを参照しつつ、診断システム10における処理手順について説明を加える。
<Processing procedure in diagnostic system>
Next, a processing procedure in the diagnostic system 10 will be described with reference to the flowchart shown in FIG.
ステップS101からスタートし、入力手段20が、CT検査により得られた上顎及び/又は下顎の少なくとも一部を含んだ3D画像情報を取得する(S102)。この取得は、CT装置70とオンラインで取得してもよいし、得られたデータを一旦情報記録媒体に記録し、当該情報記録媒体を介して取得してもよい。 Starting from step S101, the input means 20 acquires 3D image information including at least a part of the upper jaw and / or the lower jaw obtained by the CT examination (S102). This acquisition may be performed online with the CT apparatus 70, or the obtained data may be temporarily recorded on an information recording medium and acquired via the information recording medium.
続いて、3D画像情報を取得したか否かの判断が行われる(S103)。適切に取得された場合にはS104へと進み、取得されていない場合にはS102へと戻る。 Subsequently, it is determined whether or not 3D image information has been acquired (S103). If it is properly acquired, the process proceeds to S104, and if it is not acquired, the process returns to S102.
続いて、認識手段30が、実体としての患者口腔内の形状と位置(本実施形態ではCCDカメラ32からの距離)を認識する(S104)。特に歯の表面形状を中心に形状等が認識されるように予めプログラムされていることが望ましい。 Subsequently, the recognizing unit 30 recognizes the shape and position (the distance from the CCD camera 32 in this embodiment) in the patient's oral cavity as an entity (S104). In particular, it is desirable to program in advance so that the shape and the like are recognized around the tooth surface shape.
続いて、実体の形状・位置が認識できたか否かの判断が行われる(S105)。認識できている場合にはS106へと進み、認識できていない場合はS104へと戻る。 Subsequently, it is determined whether or not the shape / position of the entity has been recognized (S105). If it can be recognized, the process proceeds to S106, and if it cannot be recognized, the process returns to S104.
続いて、入力手段20により取得された3D画像情報と、認識手段30により認識された実体の形状等を重ね合わせるように位置決めする Subsequently, positioning is performed so that the 3D image information acquired by the input unit 20 and the shape of the entity recognized by the recognition unit 30 are superimposed.
続いて、位置決めが完了したか否かを判断する。完了していればS108へ進み、完了していなければS106へと戻る。 Subsequently, it is determined whether or not the positioning is completed. If completed, the process proceeds to S108, and if not completed, the process returns to S106.
続いて、位置決めされた3D画像情報(の全部若しくは一部)を網膜操作ディスプレイ80に対して出力する(S108)。このとき、認識手段30の一部としてのCCDカメラ32と網膜操作ディスプレイ80との位置関係は既知であることから、当該情報を利用してヘッドセット90装着者が見ている実体に立体的に重ね合わさるように(あたかも出力された3D画像情報が実体のそこに存在しているように)出力される。より具体的には、ヘッドセット90の装着者から見ると、例えば図4に示しているように、実体Rに対して、3D画像情報としての下顎骨100や下歯槽管神経110が立体的に投影されて表示される。このとき例えば、表示される3D画像情報を半透明とすれば、実体に対して暗視野が生じることが無い。 Subsequently, the positioned 3D image information (all or a part thereof) is output to the retina operation display 80 (S108). At this time, since the positional relationship between the CCD camera 32 as a part of the recognition unit 30 and the retinal operation display 80 is known, the information is used to three-dimensionally represent the entity that the headset 90 wearer is looking at. It is output as if superimposed (as if the output 3D image information exists in the entity). More specifically, when viewed from the wearer of the headset 90, for example, as shown in FIG. 4, the mandible 100 and the lower alveolar canal nerve 110 are three-dimensionally displayed as 3D image information with respect to the entity R. Projected and displayed. At this time, for example, if the displayed 3D image information is translucent, a dark field does not occur with respect to the substance.
続いて、実体の形状・位置に変化が無いかが判断される(S109)。変化が無い場合は引き続き形状・位置の変化が無いかどうかが判断され(S109)、変化がある場合にはS104へと戻る。ここでS109の判断は、極めて短い間隔(リアルタイム)で繰り返し行われ、少しでも形状・位置が変化した場合には直ちに修正される。即ち、実体として患者側の動き及び/又は診断を行う医師側の動きにより位置等にズレが生じた場合でもその動きに合わせて3D画像情報が表示される。 Subsequently, it is determined whether there is any change in the shape / position of the entity (S109). If there is no change, it is determined whether there is no change in shape / position (S109). If there is a change, the process returns to S104. Here, the determination in S109 is repeatedly performed at an extremely short interval (real time), and if the shape / position changes even a little, it is immediately corrected. That is, 3D image information is displayed in accordance with the movement even when the position or the like is shifted due to the movement of the patient and / or the movement of the doctor performing the diagnosis.
このように、本発明にかかる診断システム10においては、CT等により得た上顎又は/及び下顎部(内部構造を含む)の3D画像情報の必要な部分(例えば神経や血管の位置や形状等)を取り出して、診断時に当該3D画像を実体に対して立体的に重ね合わせることにより、通常肉眼では把握できない(若しくは把握し難い)内部構造等を視覚的に(同じ目線のままで)捉えながら診断を行うことが可能となっている。即ち、診断経験の少ない者(例えば医師になって間もない者)であっても、経験豊富な医師に近いレベル(若しくはそれ以上のレベル)で、正確な診断を行うことが可能となっている。 As described above, in the diagnostic system 10 according to the present invention, a necessary portion (for example, the position and shape of nerves and blood vessels) of 3D image information of the upper jaw and / or the lower jaw (including the internal structure) obtained by CT or the like. By taking out the 3D image and stereoscopically superimposing the 3D image on the entity at the time of diagnosis, diagnosis is performed while visually grasping (with the same line of sight) the internal structure that cannot be grasped (or difficult to grasp) with the naked eye. It is possible to do. That is, even those who have little diagnostic experience (for example, those who have just become doctors) can make an accurate diagnosis at a level close to (or higher than) an experienced doctor. Yes.
例えば図5に示しているように、人工歯根200の植立は下顎骨100の内部に位置する下歯槽管神経110に接触等しないように十分な注意のもとで植立される必要があるところ、本発明にかかる診断システム10を利用すれば、下歯槽管神経110の位置や形状、人工歯根200先端の位置等が容易に(あたかも実際にそこに存在しているように)把握できるので、正確且つ迅速な植立が可能となる。 For example, as shown in FIG. 5, the artificial dental root 200 needs to be planted with sufficient care so as not to contact the lower alveolar canal nerve 110 located inside the mandible 100. However, if the diagnostic system 10 according to the present invention is used, the position and shape of the inferior alveolar nerve 110, the position of the tip of the artificial root 200, etc. can be easily grasped (as if they actually existed). Accurate and quick planting becomes possible.
〈その他の実施形態〉
なお上記では、ハードウェア資源として一般的なPCを利用しているが、専用のハードウェアを利用してシステムを構築することももちろん可能である。
<Other embodiments>
In the above description, a general PC is used as a hardware resource, but it is of course possible to construct a system using dedicated hardware.
また上記では、CT(コンピュータ断層撮影:Computed Tomography)の例としてポジトロン断層法
(PET)や単一光子放射断層撮影 (SPECT)、更には核磁気共鳴画像法
(MRI)を示しているが、これに限られるものではない。人体を走査線により断層的に解析し、当該解析情報を3D画像情報として利用できる限りにおいて、その他の手法によるものであっても同様に利用できる。
In the above, positron tomography (PET), single photon emission tomography (SPECT), and nuclear magnetic resonance imaging (MRI) are shown as examples of computed tomography (CT). It is not limited to. As long as the human body is analyzed in a tomographic manner by scanning lines and the analysis information can be used as 3D image information, it can be used in the same manner even if it is based on other methods.
また出力手段50が、3D画像情報と併せて(若しくは切り替えて)、作業の為のマーカを出力するように構成してもよい。例えば、図6に示しているように、人工歯根の理想的な植立角度を示すガイド線GLを網膜操作ディスプレイ80に出力させる。このようにすれば、経験の浅い医師であっても、適切な方向に人工歯根を容易に埋め込むことが可能となる。 Further, the output unit 50 may be configured to output a marker for work together (or switched) with the 3D image information. For example, as shown in FIG. 6, a guide line GL indicating an ideal planting angle of the artificial tooth root is output to the retina operation display 80. In this way, even an inexperienced doctor can easily implant an artificial tooth root in an appropriate direction.
更には、各種道具(治療行為を行う際に使用する機械・器具・装置など)の操作方向や位置、順番などを表示させてもよい。そのようにすれば都度他の資料を確認する必要を無くし、迅速且つ的確な治療が可能となる。 Furthermore, the operation direction, position, order, and the like of various tools (machines, instruments, devices, etc. used when performing a therapeutic action) may be displayed. By doing so, it is not necessary to check other materials each time, and prompt and accurate treatment is possible.
また出力手段50が、例えば、患者の基礎情報(身長、体重、年齢、性別、血液型、体温、心拍数、既往歴等)を常に、若しくは必要に応じて表示させるような構成を採用してもよい。これにより医師等は網膜操作ディスプレイを見たままで様々な情報を入手できるので、診断(治療を含む)をより正確、迅速且つ的確に行うことが可能となる。 Further, for example, the output means 50 adopts a configuration in which basic information (height, weight, age, sex, blood type, body temperature, heart rate, medical history, etc.) of the patient is displayed constantly or as necessary. Also good. Accordingly, doctors and the like can obtain various information while looking at the retinal operation display, so that diagnosis (including treatment) can be performed more accurately, quickly and accurately.
なお、3D画像情報としては、例えば、下歯槽管神経、動脈、歯髄神経、虫歯領域、歯石等が想定でき、診断内容に応じて、これらのうちいずれか、若しくは組み合わせて表示させることも可能である。具体的には、歯石を除去する場合であれば、歯石の位置や形状(歯肉の裏側や歯間に隠れて直接見ることができない歯石を含む)を表示する。 As the 3D image information, for example, the lower alveolar canal nerve, artery, dental pulp nerve, caries region, tartar, etc. can be assumed, and any one or a combination of these can be displayed depending on the diagnosis contents. is there. Specifically, if the calculus is to be removed, the position and shape of the calculus (including the calculus that cannot be seen directly behind the gingiva or between the teeth) are displayed.
また既に歯が全て抜歯されてしまっているような場合は、口腔内に人工マーカを後付けし、認識手段30が当該人工マーカを認識するように構成してもよい。こうすることで口腔内に歯が残っていない場合でも、当該システムを利用した診断が可能となる。 Moreover, when all the teeth have already been extracted, an artificial marker may be retrofitted in the oral cavity, and the recognition means 30 may be configured to recognize the artificial marker. This makes it possible to make a diagnosis using the system even when no teeth remain in the oral cavity.
また認識手段30が、更に治療器具(タービン、バー、エンジン、2wayポイント、ミラー、ピン、探針、バキューム、注射器、リーマ、ブローチ、クレンザー、トレイ、抜歯鉗子、ヘーベル、メス、鋭匙(えいひ)等)の治療位置を認識し、当該治療位置を網膜操作ディスプレイ80に出力するように構成してもよい。これにより、直接視覚的に捉えることができない部分を治療する場合でも、治療位置を把握しながら治療することができる。 Further, the recognition means 30 further includes a treatment instrument (turbine, bar, engine, 2 way point, mirror, pin, probe, vacuum, syringe, reamer, broach, cleanser, tray, extraction forceps, hebel, scalpel, sharp knife. ) Etc.) may be recognized, and the treatment position may be output to the retinal operation display 80. Thereby, even when a portion that cannot be directly visually recognized is treated, treatment can be performed while grasping the treatment position.
また上記では、立体画像認識デバイスとして網膜操作ディスプレイ80を例に説明しているが、この網膜操作ディスプレイに限定されるものではない。人間が立体画像をあたかもそこに存在しているように認識可能なデバイスである限りにおいて同様に適用可能である。 In the above description, the retinal operation display 80 is described as an example of the stereoscopic image recognition device, but is not limited to this retinal operation display. The present invention can be similarly applied as long as the device can recognize a stereoscopic image as if it existed there.
また上記では、メガネ型の網膜操作ディスプレイ80に認識手段としてのCCDカメラ32が組付けられて構成されていたが、その他の構成を採用することも可能である。例えば、図7に示しているように、診療チェアユニット200に備わる口腔内照射ライト220に認識手段としてのCCDカメラ223を装着して構成してもよい。かかる場合、歯科診療チェアユニット本体201は位置決めされているので、例えばこの本体部201を基準位置として、CCDカメラ223の位置を算出できる(例えばアーム部210の各回転軸に角度センサ等を取り付けることにより算出可能となる。)。一方で網膜操作ディスプレイの位置も別途検知して算出できる構成とすれば、本発明に係る診断システムを構築できる。
In the above description, the glasses-type retinal operation display 80 is configured to be assembled with the CCD camera 32 as a recognition unit. However, other configurations may be employed. For example, as shown in FIG. 7 , a CCD camera 223 as a recognition unit may be attached to the intraoral irradiation light 220 provided in the medical chair unit 200. In this case, since the dental treatment chair unit main body 201 is positioned, the position of the CCD camera 223 can be calculated using, for example, the main body portion 201 as a reference position (for example, an angle sensor or the like is attached to each rotation axis of the arm portion 210). It can be calculated by.) On the other hand, if the configuration is such that the position of the retina operation display can be separately detected and calculated, the diagnostic system according to the present invention can be constructed.
このとき、網膜操作ディスプレイの位置を算出する方法は種々考えられるが、例えば、CCDカメラ223により患者の口腔内の形状・位置等を認識すると同時に、網膜操作ディスプレイ自体の形状・位置を認識させるようにプログラミングすることで算出することが可能である。 At this time, various methods for calculating the position of the retina operation display can be considered. For example, the CCD camera 223 recognizes the shape and position of the patient's oral cavity, and at the same time, recognizes the shape and position of the retina operation display itself. It is possible to calculate by programming.
なお、本願発明は、歯や神経、血管等が、上顎骨又は/及び下顎骨をベースとして位置決めされているという点を効果的に利用してなされた発明であるが、その他の部分の診断システムとして除外するものではない。即ち、請求項1の発明をより上位の概念として捉え、走査線を利用した検査により得られた人体の少なくとも一部の3D画像情報を入力する3D画像情報入力手段と、人体の形状を認識する認識手段と、当該認識手段により認識された形状と前記3D画像情報とに基づいて、両者を位置決めする位置決め手段と、該位置決めされた3D画像情報の全部又は一部を、網膜操作ディスプレイに出力する出力手段と、を備えたことを特徴とする診断システムとして構築することも可能である。 The invention of the present application is an invention that is made by effectively utilizing the fact that teeth, nerves, blood vessels, and the like are positioned based on the maxilla or / and the mandible. Is not to be excluded. That is, the invention of claim 1 is regarded as a higher concept, and 3D image information input means for inputting 3D image information of at least a part of the human body obtained by the inspection using the scanning line, and the shape of the human body are recognized. Recognizing means, positioning means for positioning both based on the shape recognized by the recognizing means and the 3D image information, and all or part of the positioned 3D image information is output to the retinal operation display. It is also possible to construct as a diagnostic system characterized by comprising output means.
10…診断システム
20…入力手段
30…認識手段
32…CCDカメラ
40…位置決め手段
50…出力手段
80…網膜操作ディスプレイ
90…ヘッドセット(メガネ型)
100…下顎骨
100…下歯槽管神経
200…人工歯根
DESCRIPTION OF SYMBOLS 10 ... Diagnostic system 20 ... Input means 30 ... Recognition means 32 ... CCD camera 40 ... Positioning means 50 ... Output means 80 ... Retina operation display 90 ... Headset (glasses type)
100 ... mandible 100 ... inferior alveolar canal nerve 200 ... artificial tooth root
Claims (1)
口腔内表面の形状・位置を認識する認識手段と、
前記認識手段により認識された形状・位置と前記3D画像情報とに基づいて、両者を位置決めする位置決め手段と、
該位置決めされた3D画像情報の全部又は一部を、立体画像認識デバイスに出力する出力手段と、を備え、
診療チェアユニットからアーム部を介して支持される口腔内照射ライトに前記認識手段を備え、且つ、前記アーム部の回転部に回転角度を測定できる角度センサを設けることによって当該認識手段自身の位置を算出する
ことを特徴とする歯科診断システム。 3D image information input means for inputting 3D image information including at least a part of the upper jaw or the lower jaw obtained by an examination using a scanning line;
Recognition means for recognizing the shape and position of the oral cavity surface;
Positioning means for positioning both based on the shape / position recognized by the recognition means and the 3D image information;
Output means for outputting all or part of the positioned 3D image information to a stereoscopic image recognition device ;
The intraoral irradiation light supported from the medical chair unit via the arm unit includes the recognition unit, and the rotation unit of the arm unit is provided with an angle sensor capable of measuring the rotation angle, thereby recognizing the position of the recognition unit itself. A dental diagnosis system characterized by calculating .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010085073A JP5043145B2 (en) | 2010-04-01 | 2010-04-01 | Diagnostic system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010085073A JP5043145B2 (en) | 2010-04-01 | 2010-04-01 | Diagnostic system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011212367A JP2011212367A (en) | 2011-10-27 |
JP5043145B2 true JP5043145B2 (en) | 2012-10-10 |
Family
ID=44942725
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010085073A Expired - Fee Related JP5043145B2 (en) | 2010-04-01 | 2010-04-01 | Diagnostic system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5043145B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3636159A1 (en) * | 2018-10-09 | 2020-04-15 | Ivoclar Vivadent AG | Dental tool control system |
EP3636202A1 (en) * | 2018-10-09 | 2020-04-15 | Ivoclar Vivadent AG | Dental guiding system for dental preparation |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5744084B2 (en) * | 2013-03-06 | 2015-07-01 | 株式会社モリタ製作所 | Dental image display device, dental treatment device, and method of operating dental image display device |
JP6496242B2 (en) * | 2015-12-25 | 2019-04-03 | ウエストユニティス株式会社 | Camera and wearable system |
WO2017179350A1 (en) | 2016-04-11 | 2017-10-19 | 富士フイルム株式会社 | Device, method and program for controlling image display |
JPWO2020075796A1 (en) * | 2018-10-11 | 2021-11-18 | クラレノリタケデンタル株式会社 | Dental treatment support device, dental treatment support system, dental treatment support method, dental treatment support program and dental product sales promotion device |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05266215A (en) * | 1992-03-18 | 1993-10-15 | Toshiba Corp | Picture display device |
JP2000350733A (en) * | 1999-06-10 | 2000-12-19 | Olympus Optical Co Ltd | Positioning frame and operation navigating system |
DE19952962B4 (en) * | 1999-11-03 | 2004-07-01 | Sirona Dental Systems Gmbh | Method for producing a drilling aid for a dental implant |
US7559895B2 (en) * | 2000-07-07 | 2009-07-14 | University Of Pittsburgh-Of The Commonwealth System Of Higher Education | Combining tomographic images in situ with direct vision using a holographic optical element |
JP2007136133A (en) * | 2005-11-18 | 2007-06-07 | Toshio Fukuda | System for presenting augmented reality |
JP5335201B2 (en) * | 2007-05-08 | 2013-11-06 | キヤノン株式会社 | Diagnostic imaging equipment |
-
2010
- 2010-04-01 JP JP2010085073A patent/JP5043145B2/en not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3636159A1 (en) * | 2018-10-09 | 2020-04-15 | Ivoclar Vivadent AG | Dental tool control system |
EP3636202A1 (en) * | 2018-10-09 | 2020-04-15 | Ivoclar Vivadent AG | Dental guiding system for dental preparation |
WO2020074204A1 (en) * | 2018-10-09 | 2020-04-16 | Ivoclar Vivadent Ag | Dental guide system for tooth preparation |
WO2020074203A1 (en) * | 2018-10-09 | 2020-04-16 | Ivoclar Vivadent Ag | Dental tool control system |
Also Published As
Publication number | Publication date |
---|---|
JP2011212367A (en) | 2011-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107529968B (en) | Device for observing inside of oral cavity | |
Silva et al. | Present status and future directions–Minimal endodontic access cavities | |
JP5043145B2 (en) | Diagnostic system | |
JP2017525522A (en) | Visualization device in the patient's mouth | |
US10335099B2 (en) | Periodontal disease testing apparatus and image processing program used therein | |
CN108670447B (en) | Real-time navigation system and method in root canal | |
CN112885436B (en) | Dental surgery real-time auxiliary system based on augmented reality three-dimensional imaging | |
JP6829763B2 (en) | Medical medical equipment | |
JP2023099042A (en) | Volume rendering using surface guided cropping | |
WO2023274690A1 (en) | Non-invasive periodontal examination | |
US11090014B2 (en) | Dental image processing device, dental imaging system, dental image processing method, and program | |
JP5477840B2 (en) | Two-dimensional image display device | |
US20220051406A1 (en) | Dental imaging mixed reality system | |
CN112545650A (en) | Navigation positioning method and system for dentistry | |
RU2580043C1 (en) | Method of determining glide path for scheduling endodontal treatment of root canals of molars of upper jaw | |
CN114903635A (en) | Dental microscopic diagnosis and treatment system | |
Chen et al. | 3D printing of drill guide template for access cavity preparation in human molars: a preliminary study | |
TWI633875B (en) | Method and system for manufacturing apical resection surgery guide plate and computer-readable recording medium | |
Bóveda et al. | The Role of Modern Technologies for Dentin Preservation in Root Canal Treatment | |
CN216021503U (en) | Micro diagnosis and treatment system for dentistry | |
JP6559819B1 (en) | Image processing apparatus and image processing program | |
WO2022170927A1 (en) | Surgical microscope diagnosis and treatment system | |
JP6632652B2 (en) | Image processing apparatus and image processing program | |
Pandey et al. | Application of CBCT in Oral Medicine: A Review | |
Shen et al. | Fusion Modeling of Intraoral Scanning and CBCT Images on Dental Caries |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111215 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20111215 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20120207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120328 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120703 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120711 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5043145 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150720 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |