JP6801117B2 - モバイル連動インプラント診断システム - Google Patents

モバイル連動インプラント診断システム Download PDF

Info

Publication number
JP6801117B2
JP6801117B2 JP2019541058A JP2019541058A JP6801117B2 JP 6801117 B2 JP6801117 B2 JP 6801117B2 JP 2019541058 A JP2019541058 A JP 2019541058A JP 2019541058 A JP2019541058 A JP 2019541058A JP 6801117 B2 JP6801117 B2 JP 6801117B2
Authority
JP
Japan
Prior art keywords
video data
region
stereoscopic video
implant
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019541058A
Other languages
English (en)
Other versions
JP2019531173A (ja
Inventor
ジョン チョル キム
ジョン チョル キム
ワン ブン パーク
ワン ブン パーク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Megagen Implant Co Ltd
Original Assignee
Megagen Implant Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Megagen Implant Co Ltd filed Critical Megagen Implant Co Ltd
Publication of JP2019531173A publication Critical patent/JP2019531173A/ja
Application granted granted Critical
Publication of JP6801117B2 publication Critical patent/JP6801117B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • A61C13/0003Making bridge-work, inlays, implants or the like
    • A61C13/0004Computer-assisted sizing or machining of dental prostheses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4504Bones
    • A61B5/4509Bone density determination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/725Cordless telephones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30052Implant; Prosthesis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/008Cut plane or projection plane definition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/028Multiple view windows (top-side-front-sagittal-orthogonal)
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Robotics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Engineering & Computer Science (AREA)
  • Epidemiology (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Rheumatology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Dental Prosthetics (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

本発明は、モバイル連動インプラント診断システムに係り、より詳細には、施術者がインプラント施術計画についての情報をデスクトップPC(desktop PC)のような固定された位置で検討できるだけではなく、モバイル装備でも簡便に検討できるモバイル連動インプラント診断システムに関する。
歯科用インプラントは、元々人体組織が喪失された時、回復させる代替物を意味するが、歯科では、人工歯牙を移植する一連の施術を示す。
喪失された歯根の代わりに、人体に拒絶反応のないチタン(titanium)などで作った歯根であるフィクスチャー(fixture)を抜歯された歯槽骨に植えた後、人工歯牙を固定させて、歯牙の機能を回復させる施術である。
一般補綴物や総入れ歯の場合、経時的に周りの歯牙と骨とが傷むが、インプラントは周辺歯牙組織を傷まないようにし、自然歯牙と機能や形状が同じながらも虫歯が生じないので、半永久的に使用できるという長所がある。
人工歯牙施術(インプラントまたはインプラント施術とも言う)は、フィクスチャーの種類によって多様であるが、所定のドリルを使用して植立位置を穿孔した後、フィクスチャーを歯槽骨に植立して骨に骨融合させた後、フィクスチャーに支台柱(abutment)を結合させた後に、支台柱に最終補綴物を被せることにより、完了することが一般的である。
歯科用インプラントは、単一欠損歯の修復はもとより部分無歯牙及び完全無歯牙患者に義歯の機能を増進させ、歯牙補綴修復の審美的な面を改善させ、さらに周りの支持骨組織に加えられる過度な応力を分散させると同時に、歯列の安定化に役に立つ。
このような歯科用インプラントは、一般的に、人工歯根として植立されるフィクスチャーと、フィクスチャー上に結合される支台柱と、支台柱をフィクスチャーに固定する支台柱スクリュー(Abutment Screw)と、支台柱に結合される人工歯牙と、を含む。ここで、支台柱をフィクスチャーに結合させる前に、すなわち、歯槽骨にフィクスチャーが骨融合されるまでの期間の間に支台柱がフィクスチャーに結合されて結合状態を保持する。
歯科用インプラントの一構成要素であるフィクスチャーは、インプラントが施術される位置にドリルなどを用いて歯槽骨に形成されたドリルホールに植立される部分であって、人工歯根の役割を担当する。したがって、フィクスチャーは、歯槽骨に堅固に植立されなければならない。
このようなインプラントの植立は、患者ごとに多くの差があるが、これは、患者の歯牙の状態、インプラント施術が必要な歯牙の位置、患者の歯槽骨の状態など多様な要因によってインプラントの植立位置などが決定されるためである。
特に、歯槽骨の骨密度は、インプラント植立時に非常に重要な要素であり、患者の骨密度の状態によってインプラントの植立位置及び深さと方向とを決定するが、これは、患者の特性を考慮して愼重に決定しなければならない。
一方、前述したように、インプラントの植立は、患者ごとに多くの差があるので、従来、このような差を医師が正確に認知できるように助けて、模擬施術及び施術計画を樹立可能にするインプラント診断システムが開発された。
従来技術によるインプラント診断システムは、患者の口腔領域に対する骨及び歯牙の位置、骨密度などが含まれた立体映像データに仮想のインプラントを重畳させて、最適のインプラント植立位置及び角度を確認可能にする。
このようなインプラント診断システムは、3次元立体映像データを処理しなければならないので、高性能のコンピュータが要求されるが、高性能のコンピュータには、主にデスクトップPCが使われる。
したがって、高性能のデスクトップPCでインプラント植立の最適位置及び最適角度などが表示されたインプラント施術計画データが生成され、該生成されたインプラント施術計画データも、高性能のデスクトップPCで検討される。
ところで、診療時間に追われている歯科医師が、インプラント施術計画データを検討するために、デスクトップPCが配された診断センターを尋ねることは時間的に問題が多い。
特に、簡単な事項のみを検討するために、歯科医師が診断センターを尋ねることは時間浪費が多いので、交通手段内で、または合間の休み時間にスマートフォンを通じて簡単にインプラント施術計画データを検討することができるモバイル連動インプラント診断システムに対する要求が高まっている。
このような要求に復興するために、従来、スマートフォンを通じて簡単にインプラント施術計画データを検討することができるモバイル連動インプラント診断システムが提示されたが、従来技術によるモバイル連動インプラント診断システムで、モバイル機器に提供される情報は、CTデータのような3次元立体映像データではなく、単に施術計画のイメージ(2D絵ファイル)ファイルである。
すなわち、性能に限界があるモバイル機器が大容量データである3次元立体映像データをハンドリングしにくく、それによって、3Dファイルで2Dファイル、例えば、JPGファイルを生成してモバイル機器に提供する方式を取ることにより、インプラント施術計画データの単純な2Dイメージファイルのみがモバイル機器に提供された。
ところで、このような従来のモバイル連動インプラント診断システムでモバイル機器に提供されるインプラント施術計画データの2Dイメージは、単純なイメージであるだけなので、歯科医師がモバイル機器でインプラント施術計画を少しでも補正(例えば、フィクスチャーを、他のフィクスチャーに変える補正、インプラントの植立角度を微細に変えるなどの補正)することができず、それにより、従来のモバイル連動インプラント診断システム下では、歯科医師がモバイル機器を通じて意味のある施術計画検討を行うことはできないという問題点がある。
本発明が解決しようとする課題は、施術者がモバイル機器でインプラント施術計画を補正することができるモバイル連動インプラント診断システムを提供するところにある。
本発明の一側面によれば、被施術者の口腔領域に対する統合立体映像データを獲得し、前記統合立体映像データを基盤として、前記統合立体映像データに仮想のインプラントデータが重畳されたインプラント施術計画データを生成するインプラント診断装置;前記インプラント診断装置に有線または無線で連結され、前記インプラント診断装置から生成された前記インプラント施術計画データのうち、一部である関心情報を伝達されて保存するサーバ装置;及び前記サーバ装置に有線または無線で連結され、前記サーバ装置から前記関心情報を伝達されて表示するモバイル装置;を含み、前記関心情報は、前記インプラント施術データのうち、前記仮想のインプラント周りの既定の領域のデータである部分立体映像データを含むモバイル連動インプラント診断システムが提供されうる。
前記部分立体映像データは、前記仮想のインプラントの中心から既定の間隔ほど離隔した境界領域内部の前記インプラント施術計画データを含みうる。
前記境界領域は、六面体状に設けられうる。
前記六面体状に設けられた境界領域は、第1軸方向の長さが15〜45mmであり、第2軸方向の長さが15〜45mmであり、第3軸方向の長さが20〜60mmであり得る。
前記モバイル装置は、スマートフォン、ハンドヘルド端末機(hand held terminal)を含みうる。
前記モバイル装置は、前記部分立体映像データをディスプレイするモバイル装置用表示ユニット;ユーザから情報を入力されるモバイル装置用入力ユニット;及び前記入力部に電気的に連結されて、前記ユーザから入力された情報に基づいて、前記部分立体映像データを補正するモバイル装置用演算ユニット;を含みうる。
前記モバイル装置用表示ユニットは、前記ユーザに提供される画面を多数個の分割領域に区画し、前記分割領域は、前記部分立体映像データを第1軸と前記第1軸に交差する第2軸に切った平面イメージが表示された第1領域;前記部分立体映像データを前記第2軸と前記第2軸に交差する第3軸に切った平面イメージが表示された第2領域;及び前記部分立体映像データを前記第1軸と前記第3軸に切った平面イメージが表示された第3領域;を含みうる。
前記モバイル装置用表示ユニットは、前記第1領域ないし第3領域で骨密度を視覚的に表示される。
前記モバイル装置用表示ユニットは、前記第1領域ないし第3領域で既定の領域内部の骨密度を視覚的に表示される。
前記骨密度は、前記骨密度の数値によって互いに異なる色相で表示される。
前記色相は、有彩色であり得る。
前記分割領域は、前記被施術者の歯牙石膏型(Plaster Patterns of Teeth)をスキャンして獲得された第2立体映像データに、前記仮想のインプラントが重畳された立体映像データが表示された第4領域をさらに含みうる。
前記インプラント診断装置は、前記被施術者の口腔領域に対する第1立体映像データを獲得する第1映像情報獲得装置;前記被施術者の歯牙石膏型をスキャンして第2立体映像データを獲得する第2映像情報獲得装置;及び前記第1立体映像データ及び前記第2立体映像データを伝達されて整合(matching)して、前記統合立体映像データを生成し、前記統合立体映像データを基盤として、前記施術計画データを生成するデータ処理装置;を含みうる。
前記歯牙石膏型には、前記第1立体映像データと前記第2立体映像データとの整合のための整合用基準マーカー(marker)が設けられうる。
前記整合用基準マーカーは、多数個設けられ、互いに離隔して配置される。
前記データ処理装置は、ユーザから情報を入力される入力部;前記統合立体映像データを生成し、前記入力部に電気的に連結されて、前記ユーザから入力された情報に基づいて、前記統合立体映像データを補正する演算部;及び前記演算部に電気的に連結され、前記統合立体映像データと前記仮想のフィクスチャー周りの骨密度を視覚的に表示する表示部;を含みうる。
前記データ処理装置は、前記第2立体映像データの整合用基準マーカーの座標を基準にして、前記第1立体映像データと前記第2立体映像データとを先整合(pre−matching)する先整合段階後、前記先整合された統合立体映像データで前記第2立体映像データを前記第1立体映像データに精密整合する精密整合段階を経て、前記統合立体映像データを生成することができる。
前記先整合段階で前記演算部は、前記表示部の表示領域を前記第1立体映像データのうち、前記被施術者の歯牙領域が視覚的に表示される歯牙領域表示区域と、前記第2立体映像データが視覚的に表示される第2立体映像データ表示区域と、前記統合立体映像データが視覚的に表示される統合立体映像データ表示区域と、に区画し、前記入力部を通じて前記第2立体映像データ表示区域で前記整合用基準マーカーの座標を入力され、前記入力部を通じて前記歯牙領域表示区域で前記整合用基準マーカーの座標に該当する仮想の座標を入力され、該入力された前記整合用基準マーカーの座標と前記仮想の座標とを整合して、前記統合立体映像データ表示区域に前記先整合された統合立体映像データを表示することができる。
前記精密整合段階で前記演算部は、前記表示部の表示領域を多数個の分割領域に区画し、前記先整合された統合立体映像データの互いに異なる平面映像を前記多数個の分割領域に配置し、前記入力部を通じて前記それぞれの分割領域で第1立体映像データに第2立体映像データが整合された状態を入力されうる。
前記多数個の分割領域は、前記先整合された統合立体映像データを第1軸と前記第1軸に交差する第2軸に切った平面イメージが示された第1領域;前記第1領域に表示される第1移動点の位置で前記第2軸と前記第2軸に交差する第3軸に切った平面イメージが示された第2領域;前記第1移動点の位置で前記第1軸と前記第3軸に切った平面イメージが示された第3領域;前記第1領域に表示される第2移動点の位置で前記第2軸と第3軸に切った平面イメージが示された第4領域;前記第1領域に表示される第2移動点の位置で前記第1軸と第3軸に切った平面イメージが示された第5領域;及び前記第1領域に表示される第3移動点の位置で前記第2軸と第3軸に切った平面イメージが示された第6領域;を含みうる。
前記第1ないし第3移動点は、前記ユーザの操作によって移動可能であり、前記第2領域及び前記第3領域のイメージは、前記第1移動点の移動に連動して可変され、前記第4領域及び前記第5領域のイメージは、前記第2移動点の移動に連動して可変され、前記第6領域のイメージは、前記第3移動点の移動に連動して可変されうる。
前記データ処理装置は、前記統合立体映像データに前記被施術者に植立される仮想のフィクスチャーが重畳されれば、前記仮想のフィクスチャーを基準にして、前記仮想のフィクスチャー周りの骨密度を視覚的に表示することができる。
前記データ処理装置は、前記仮想のフィクスチャーの外郭コンツアー(contour)に接する領域の骨密度を視覚的に表示することができる。
前記仮想のフィクスチャー周りの骨密度は、前記骨密度の数値によって互いに異なる色相で表示される。
本発明の実施形態は、モバイル装置にインプラント施術計画データのうち、一部である関心情報のみを提供し、このような関心情報は、インプラント施術データのうち、仮想のインプラント周りの立体映像データである部分立体映像データを含むことにより、施術者がモバイル装置の仕様内でモバイル装置を通じて施術者の主要関心である仮想のインプラント周りの部分立体映像データを補正(例えば、フィクスチャーを、他のフィクスチャーに変える補正、インプラントの植立角度を微細に変えるなどの補正など)可能にするという利点がある。
本発明の第1実施形態によるモバイル連動インプラント診断システムが示された図面である。 図1の歯牙石膏型が示された図面である。 図1の表示部に仮想のフィクスチャー周りの骨密度が視覚的に表示された図面である。 図1の表示部に仮想のフィクスチャー周りの骨密度が視覚的に表示された図面である。 図1のインプラント診断装置でインプラント診断用映像生成方法が示された図面である。 図5の統合立体映像データ獲得段階のうち、先整合段階で表示部の画面が示された図面である。 図5の統合立体映像データ獲得段階のうち、先整合段階で表示部の画面が示された図面である。 図5の統合立体映像データ獲得段階のうち、精密整合段階で表示部の画面が示された図面である。 図5の統合立体映像データ獲得段階のうち、精密整合段階で表示部の画面が示された図面である。 図1のサーバ装置に伝達される部分立体映像データの境界領域が示された図面である。 図1のモバイル装置にディスプレイされる画面が示された図面である。 図1のモバイル装置にディスプレイされる画面が示された図面である。 本発明の第2実施形態によるモバイル連動インプラント診断システムでモバイル装置にディスプレイされる画面が示された図面である。
本発明と本発明の動作上の利点及び本発明の実施によって達成される目的を十分に理解するためには、本発明の望ましい実施形態を例示する添付図面及び添付図面に記載の内容を参照しなければならない。
以下、添付図面を参照して、本発明の望ましい実施形態を説明することにより、本発明を詳しく説明する。但し、本発明を説明するに当って、既に公知の機能あるいは構成についての説明は、本発明の要旨を明瞭にするために省略する。
以下、第1軸は、X軸を、第2軸は、Y軸を、第3軸は、Z軸を意味する。
図1は、本発明の第1実施形態によるモバイル連動インプラント診断システムが示された図面であり、図2は、図1の歯牙石膏型が示された図面であり、図3及び図4は、図1の表示部に仮想のフィクスチャー周りの骨密度が視覚的に表示された図面であり、図5は、図1のインプラント診断装置でインプラント診断用映像生成方法が示された図面であり、図6及び図7は、図5の統合立体映像データ獲得段階のうち、先整合段階で表示部の画面が示された図面であり、図8及び図9は、図5の統合立体映像データ獲得段階のうち、精密整合段階で表示部の画面が示された図面であり、図10は、図1のサーバ装置に伝達される部分立体映像データの境界領域が示された図面であり、図11及び図12は、図1のモバイル装置にディスプレイされる画面が示された図面である。
本実施形態によるモバイル連動インプラント診断システムは、図1に示したように、被施術者の口腔領域に対する統合立体映像データを獲得し、統合立体映像データを基盤として、統合立体映像データに仮想のインプラント(K)データが重畳されたインプラント施術計画データを生成するインプラント診断装置100と、インプラント診断装置100に有線または無線で連結され、インプラント診断装置100から生成されたインプラント施術計画データのうち、一部である関心情報を伝達されて保存するサーバ装置200と、サーバ装置200に有線または無線で連結され、サーバ装置200から関心情報を伝達されて表示するモバイル装置300と、を含む。
インプラント診断装置100は、被施術者の口腔領域に対する統合立体映像データを獲得し、統合立体映像データを基盤として、統合立体映像データに仮想のインプラント(K)が重畳されたインプラント施術計画データを生成する。
本実施形態のインプラント診断装置100は、被施術者の口腔領域に対する第1立体映像データを獲得する第1映像情報獲得装置110と、被施術者の歯牙石膏型(G)をスキャンして第2立体映像データを獲得する第2映像情報獲得装置120と、第1立体映像データ及び第2立体映像データを伝達されて整合して、統合立体映像データを生成するデータ処理装置130と、を含む。
第1映像情報獲得装置110は、被施術者の口腔領域に対する第1立体映像データを獲得する。本実施形態の第1映像情報獲得装置110は、コンピュータ断層撮影(Computed Tomography、CT)を含み、本実施形態の第1立体映像データは、複数の断面映像を用いて具現された立体映像を意味するが、これにより、本発明の権利範囲が限定されず、磁気共鳴映像(magnetic resonance imaging)装置など多様な立体映像獲得装置が、本実施形態の第1映像情報獲得装置110として使われる。
第2映像情報獲得装置120は、被施術者の歯牙石膏型(G)をスキャンして第2立体映像データを獲得する。
本実施形態の歯牙石膏型(G)は、被施術者の歯牙及び歯茎に対する形態で形成されるが、印象材が設けられたトレーが被施術者の口腔内に挿入された後、被施術者の歯牙が印象材を押して印象採得した歯牙と周辺歯茎の形状に製作される。
本実施形態の歯牙石膏型(G)には、第1立体映像データと第2立体映像データとの整合のための整合用基準マーカー(G2)が設けられる。
このような整合用基準マーカー(G2)は、第1立体映像データと第2立体映像データとの整合のための基準座標になるものであって、データ処理装置130を通じて第2立体映像データの整合用基準マーカー(G2)の座標と第1立体映像データで整合用基準マーカー(G2)に該当する仮想の位置座標との整合を通じて統合立体映像データを生成する時に使われる。
本実施形態の整合用基準マーカー(G2)は、多数個設けられ、互いに離隔して配される。本実施形態において、整合用基準マーカー(G2)は、少なくとも3個以上に設けられ、3個以上の整合用基準マーカー(G2)は、互いに離隔して配される。
このような整合用基準マーカー(G2)は、第2立体映像データで歯牙石膏型の本体(G1)と区別される構造または材質からなる。
第2映像情報獲得装置120は、歯牙石膏型(G)をスキャンして第2立体映像データを獲得する3次元スキャナー(図示せず)を含む。本実施形態の第2立体映像データは、ステレオリソグラフィー(stereolithography、STL)データを含み、ステレオリソグラフィー(STL)データは、アスキー(ASCII)またはバイナリ(binary)形式を有し、3D(Dimension)プログラムで立体物のモデリングデータを他種の3Dプログラムで認識するのに容易になるように立体物の表面を多角形化されたポリゴン(Polygon)で表現するデータである。
一方、データ処理装置130は、第1立体映像データ及び第2立体映像データを伝達されて整合して、統合立体映像データを生成する。
このようなデータ処理装置130は、ユーザから情報を入力される入力部131と、第1立体映像データ及び第2立体映像データを伝達されて統合立体映像データを生成する演算部132と、演算部132に電気的に連結され、統合立体映像データを視覚的に表示する表示部133と、を含む。
入力部131は、演算部132に電気的に連結されて、ユーザからの制御情報を入力されて演算部132に伝達する。
演算部132は、第1立体映像データ及び第2立体映像データを伝達されて統合立体映像データを生成して、表示部133に視覚的に表示する。
すなわち、統合立体映像データの生成は、入力部131、表示部133及び演算部132の有機的な連携によってなされる。このような統合立体映像データの生成は、下記で詳しく後述する。
一方、前述したような統合立体映像データの生成が完了した後、統合立体映像データで被施術者に植立される仮想のインプラント(K)の位置を決定する。この際、ユーザは、表示部133に表示される統合立体映像データの多様な位置に被施術者に植立される仮想のインプラント(K)を重畳させながら、仮想のインプラント(K)の位置を決定する。
このように統合立体映像データを基盤として、統合立体映像データに仮想のインプラント(K)データが重畳されたデータをインプラント施術計画データと言う。
インプラント施術計画データが生成された後、本実施形態の演算部132は、インプラント施術計画データのうち、一部である関心情報を生成してサーバ装置200に伝達する。モバイル装置300は、サーバ装置200から関心情報を伝送されて、それをディスプレイする。
ここで、関心情報は、インプラント施術データのうち、仮想のインプラント(K)周りの既定の領域のデータである部分立体映像データを含む。すなわち、施術者(歯科医師)が関心のある部分は、仮想のインプラント(K)周りの情報なので、本実施形態のモバイル連動インプラント診断システムは、モバイルの装置の性能限界上、インプラント施術計画データ全部をモバイル装置300に提供せず、仮想のインプラント(K)周りの立体映像データである部分立体映像データのみをモバイル装置300に提供する。
このような部分立体映像データは、仮想のインプラント(K)の中心から既定の間隔ほど離隔した境界領域内部のインプラント施術計画データである。本実施形態において、部分立体映像データの境界領域は、図10に詳しく示したように、六面体状に設けられる。
このような六面体状に設けられた境界領域は、第1軸方向の長さ(a)が15〜45mmであり、第2軸方向の長さ(b)が15〜45mmであり、第3軸方向(c)の長さが20〜60mmに設けられる。
一方、モバイル装置300は、サーバ装置200に有線または無線で連結され、サーバ装置200から関心情報を伝達されて表示する。本実施形態において、モバイル装置300は、スマートフォン、アイパッド(iPad)(登録商標)、ハンドヘルド端末機などを含むが、これにより、本発明の権利範囲が限定されず、ディスプレイ部と通信部及び入力部などを備える多様なハンドヘルド電子機器が、本発明のモバイル装置300として使われる。
このようなモバイル装置300は、部分立体映像データをディスプレイするモバイル装置用表示ユニット310と、ユーザから情報を入力されるモバイル装置用入力ユニット(図示せず)と、入力部に電気的に連結されて、ユーザから入力された情報に基づいて、部分立体映像データを補正するモバイル装置用演算ユニット(図示せず)と、サーバ装置200から関心情報を伝達され、ユーザによって補正された関心情報をサーバ装置200に伝送するモバイル装置用通信ユニット(図示せず)と、を含む。
モバイル装置用表示ユニットは、部分立体映像データをディスプレイする。モバイル装置用表示ユニット310は、図11ないし図13に示したように、ユーザに提供される画面を多数個の分割領域(E1、E2、E3、E4)に区画する。
本実施形態の分割領域は、部分立体映像データを第1軸と第1軸に交差する第2軸に切った平面イメージが表示された第1領域(E1)と、部分立体映像データを第2軸と第2軸に交差する第3軸に切った平面イメージが表示された第2領域(E2)と、部分立体映像データを第1軸と第3軸に切った平面イメージが表示された第3領域(E3)と、被施術者の歯牙石膏型をスキャンして獲得された第2立体映像データに仮想のインプラント(K)が重畳された立体映像データが表示された第4領域(E4)と、を含む。
第4領域(E4)に視覚的に表示されるデータは、被施術者の歯牙石膏型をスキャンして獲得された第2立体映像データに仮想のインプラント(K)が重畳された立体映像データである。これは、仮想のインプラント(K)が植立される位置を巨視的に示すものであって、大容量の第1立体映像データを基盤とせず、第2立体映像データを基盤として、データ伝送量を減らしうる。
第4領域(E4)に視覚的に表示されるデータには、ユーザが被施術者の口腔内で仮想のインプラント(K)の位置を直観的に分かるようにすることを目的とする。
第1領域(E1)ないし第3領域(E3)には、部分立体映像データの中心点(主に仮想のインプラント(K)の中心点)でのX−Y断面、Y−Z断面、X−Z断面がそれぞれ表示される。
このように第1領域(E1)ないし第3領域(E3)に部分立体映像データの断面が表示された状態で、ユーザは、何れか一領域でタッチスクリーンなどの入力手段を通じてインプラントの植立角度を変更するか、インプラントの位置を微細に移動させることができる。
本実施形態において、第1領域(E1)ないし第3領域(E3)に表示される部分立体映像データの断面は、互いに連動して可変されるので、ユーザが、何れか一領域でインプラントの位置を可変させる場合、他の領域でのイメージも可変される。
このようなインプラントの位置変更及び角度変更時に、施術者は、インプラントが植立される位置の骨密度を確認しなければならない。
したがって、本実施形態のモバイル装置用表示ユニット310は、図12に詳しく示したように、第1領域(E1)ないし第3領域(E3)で骨密度を視覚的に表示する。このような骨密度の数値によって互いに異なる色相で表示される。
また、本実施形態において、骨密度の数値によって表示ユニットに表示される色相は、有彩色からなる。このように、本実施形態のモバイル装置用表示ユニット310は、第1領域(E1)ないし第3領域(E3)に表示される骨密度を骨密度の数値によって互いに異なる有彩色の色相で表示することにより、施術者が仮想のフィクスチャー周りの骨密度を直観的に認識可能にするという利点がある。
本実施形態において、高い骨密度数値は、黄色または緑色で表示され、低い骨密度数値は、赤色や青色で表示されるが、本発明の権利範囲が、これに限定されるものではなく、骨密度の数値を他の多様な色相で表示することができる。
一方、施術者(歯科医師)は、インプラントの植立位置及び植立角度を微細に可変させる場合の以外にも、部分立体映像データで仮想のインプラント(K)の種類(例えば、フィクスチャー、アバットメントなどの種類)を可変させることもできる。
このようなインプラントの植立位置及び植立角度の変更する補正とインプラントの種類の変更する補正とが完了した後に、施術者が補正結果を保存すれば、補正された部分立体映像データがサーバ装置200に伝送されて保存される。
このように、本実施形態によるモバイル連動インプラント診断システムは、モバイル装置300にインプラント施術データのうち、仮想のインプラント(K)周りの立体映像データである部分立体映像データのみを提供することにより、施術者がモバイル装置300の仕様内でモバイル装置300を通じて施術者の主要関心である仮想のインプラント(K)周りの部分立体映像データを補正(例えば、フィクスチャーを、他のフィクスチャーに変える補正、インプラントの植立角度を微細に変えるなどの補正など)可能にするという利点がある。
以下、インプラント施術計画データを生成するインプラント診断装置100でインプラント施術計画データを生成する過程を説明する。
インプラント施術計画データを生成するためには、先に統合立体映像データが生成されなければならない。このような統合立体映像データを生成する過程を下記で簡単に説明する。
コンピュータ断層撮影(CT)装置のような第1映像情報獲得装置110から獲得された第1立体映像データは、被施術者の骨形状などを正確に把握することができる長所に比べて、被施術者の口腔内部に設けられる多様な形態の補綴物及び保形物によって映像が歪曲されうるという問題がある。
したがって、被施術者の歯牙石膏型(G)をスキャンすることにより、被施術者の口腔内部構造についての非常に正確な情報を含めている第2立体映像データと被施術者の骨形状などについての正確な情報を含めている第1立体映像データとが重畳された統合立体映像データが生成されなければならず、第1立体映像データと第2立体映像データとの重畳のために、第1立体映像データと第2立体映像データとを整合する過程が必要である。
第1立体映像データと第2立体映像データとを整合する過程は、第2立体映像データの整合用基準マーカー(G2)の座標を基準にして、第1立体映像データと第2立体映像データとを先整合する先整合段階と、先整合された統合立体映像データで第2立体映像データを第1立体映像データに精密整合する精密整合段階と、を含む。
先整合段階は、第1立体映像データと第2立体映像データとを概略的に迅速に整合する方式であって、このような先整合段階では、第2立体映像データの整合用基準マーカー(G2)の座標を基準にして、第1立体映像データと第2立体映像データとを先整合する。
このような先整合段階で表示部133の画面には、図6ないし図7に示したような画面がユーザに提供される。このような画面には、第1立体映像データのうち、被施術者の歯牙領域が視覚的に表示される歯牙領域表示区域(Z1)と、第2立体映像データが視覚的に表示される第2立体映像データ表示区域(Z2)と、統合立体映像データが視覚的に表示される統合立体映像データ表示区域(Z3)と、が表示される。
歯牙領域表示区域(Z1)には、第1立体映像データのうち、被施術者の歯牙領域が視覚的に表示される。歯牙領域表示区域(Z1)に表示される被施術者の歯牙領域は、ユーザの入力部131を通じる制御信号によって、その領域が選択されうる。
また、第2立体映像データ表示区域(Z2)には、第2立体映像データが視覚的に表示され、統合立体映像データ表示区域(Z3)には、統合立体映像データが視覚的に表示される。
図6に示された表示部133の画面でユーザが第2立体映像データ表示区域(Z2)で整合用基準マーカー(G2)の座標を演算部132に入力する。すなわち、ユーザが、入力部131、例えば、マウスを通じて第2立体映像データ表示区域(Z2)に表示された3個の整合用基準マーカー(G2)をクリックすれば、該クリックされた座標が演算部132に伝達される。
以後、ユーザが、歯牙領域表示区域(Z1)で整合用基準マーカー(G2)の座標に該当する仮想の座標を演算部132に入力する。すなわち、ユーザが、歯牙領域表示区域(Z1)に表示された歯牙領域のイメージと第2立体映像データ表示区域(Z2)に表示された歯牙石膏型(G)のイメージとを比較した後、歯牙領域表示区域(Z1)に表示された歯牙領域のイメージに整合用基準マーカー(G2)の位置に該当する仮想の位置をクリックすれば、該クリックされた座標が演算部132に伝達される。
以後、演算部132では、入力された整合用基準マーカー(G2)の座標と仮想の座標とを比較して、第1立体映像データと第2立体映像データとを重畳させた後、統合立体映像データ表示区域(Z3)に第1立体映像データに第2立体映像データが重畳された先整合された統合立体映像データを表示する。
図6の統合立体映像データ表示区域(Z3)には、ユーザによる座標入力が行われず、第1立体映像データのみ表示されているが、図7の統合立体映像データ表示区域(Z3)には、整合用基準マーカー(G2)の座標と整合用基準マーカー(G2)の座標とに該当する仮想の座標が入力されることによって、第2立体映像データが第1立体映像データに先整合された統合立体映像データが表示される。
このような先整合段階は、ユーザが、歯牙領域表示区域(Z1)のイメージと第2立体映像データ表示区域(Z2)のイメージとを比較して、歯牙領域表示区域(Z1)のイメージに整合用基準マーカー(G2)がある仮想の位置をクリックする方式を取るので、先整合段階を経た先整合された統合立体映像データの整合度は、完璧な状態ではないが、先整合段階を経た先整合された統合立体映像データは、ほぼ整合された状態である。
したがって、精密整合段階では、ほぼ整合された状態である先整合された統合立体映像データで第2立体映像データを第1立体映像データに精密整合させる。
このような精密整合段階で表示部133の画面には、図8ないし図9に示したような画面がユーザに提供される。すなわち、精密整合段階で表示部133を通じてユーザに提供される画面には、多数個の分割領域(D1、D2、D3、D4、D5、D6)が表示される。このような多数個の分割領域(D1、D2、D3、D4、D5、D6)には、先整合された統合立体映像データの互いに異なる平面映像が配される。
この際、多数個の分割領域(D1、D2、D3、D4、D5、D6)に表示される先整合された統合立体映像データの平面映像は、第1立体映像データと第2立体映像データとの区分を可能にして(例えば、第1立体映像データと第2立体映像データとの外観ラインが互いに異なる色で表現される)、ユーザが視覚的に整合の有無が分かるようにする。
図8または図9に示したように、本実施形態において、精密整合段階で表示部133を通じてユーザに提供される画面の表示領域は、第1ないし第6分割領域(D1、D2、D3、D4、D5、D6)に区画される。
第1分割領域(D1)は、先整合された統合立体映像データの平面であり、ユーザの操作画面に該当する。本実施形態において、第1分割領域は、先整合された統合立体映像データをX−Y軸平面で切ったイメージが表示される。
第1分割領域には、3個の移動点(M1、M2、M3)が表示されるが、ユーザがマウスなどの入力部131を通じて入力点を移動させれば、第2ないし第6分割領域(D2、D3、D4、D5、D6)のイメージが変更される。
第2分割領域(D2)には、第1分割領域(D1)の第1移動点(M1)の位置でY−Z軸平面で切ったイメージが表示される。第3分割領域(D3)には、第1分割領域(D1)の第1移動点(M1)の位置でX−Z軸平面で切ったイメージが表示される。
第2分割領域(D2)及び第3分割領域(D3)のイメージは、第1分割領域(D1)の第1移動点(M1)の移動によって移動した第1移動点(M1)の位置での平面イメージに可変される。
第4分割領域(D4)には、第1分割領域(D1)の第2移動点(M2)の位置でY−Z軸平面で切ったイメージが表示される。第5分割領域(D5)には、第1分割領域(D1)の第2移動点(M2)の位置でX−Z軸平面で切ったイメージが表示される。
第4分割領域(D4)及び第5分割領域(D5)のイメージは、第1分割領域(D1)の第2移動点(M2)の移動によって移動した第2移動点(M2)の位置での平面イメージに可変される。
第6分割領域(D6)には、第1分割領域(D1)の第3移動点(M3)の位置でY−Z軸平面で切ったイメージが表示される。第6分割領域(D6)のイメージは、第1分割領域(D1)の第3移動点(M3)の移動によって移動した第3移動点(M3)の位置での平面イメージに可変される。
図8と図9とを比べると、第1ないし第3移動点(M1、M2、M3)の位置変化によって第2ないし第6分割領域(D2、D3、D4、D5、D6)のイメージが変更されたことが見られる。
一方、第2ないし第6分割領域(D2、D3、D4、D5、D6)のイメージは、ユーザの入力部131を通じる操作に影響を受ける。すなわち、第2ないし第6分割領域(D2、D3、D4、D5、D6)に表示された第2立体映像データの位置及び姿勢などのイメージが、ユーザの操作によって変化されうる。
したがって、ユーザは、第1ないし第3移動点(M1、M2、M3)を移動させながら、多様な部位で先整合された統合立体映像データの平面映像で第1立体映像データと第2立体映像データとの整合の有無を確認し、入力部131を通じて第2立体映像データを第1立体映像データに対して相対移動させて、第1立体映像データと第2立体映像データとを精密に整合する。
この際、前述したように、第1ないし第6分割領域(D1、D2、D3、D4、D5、D6)に表示された平面映像は、外観ラインが互いに異なる色で表現されて、第1立体映像データと第2立体映像データとの区分が可能なので、ユーザは、マウスのような入力部131を通じて第2立体映像データをクリックした後、それをドラッグ(drag)する方式で精密整合する。
ユーザが、入力部131を用いて第1立体映像データのイメージに第2立体映像データのイメージを精密整合した状態の情報は、演算部132に入力され、演算部132は、先整合された統合立体映像データを入力部131によって入力された精密整合された状態の情報に基づいて、先整合された統合立体映像データを補正して、精密整合された統合立体映像データを生成する。
このような精密整合された統合立体映像データ生成後、演算部132は、第1立体映像データに第2立体映像データに重畳し、第1立体映像データのうち、第2立体映像データに該当する部分を第2立体映像データに代替して、最終的な統合立体映像データを生成する。
前述したような統合立体映像データの生成が完了した後、統合立体映像データで被施術者に植立されるフィクスチャー(P)の位置を決定する。この際、ユーザは、表示部133に表示される統合立体映像データの多様な位置に被施術者に植立される仮想のフィクスチャー(P)を重畳させながら、フィクスチャー(P)の位置を決定する。
本実施形態のデータ処理装置130は、統合立体映像データに被施術者に植立される仮想のフィクスチャー(P)が重畳されれば、仮想のフィクスチャー(P)を基準にして、仮想のフィクスチャー(P)周りの骨密度を視覚的に表示する。
すなわち、本実施形態において、演算部132は、統合立体映像データに被施術者に植立される仮想のフィクスチャー(P)が重畳されれば、仮想のフィクスチャー(P)を基準にして、仮想のフィクスチャー(P)周りの骨密度を計算する。
本実施形態において、仮想のフィクスチャー(P)周りの骨密度は、仮想のフィクスチャー(P)の外郭コンツアーに接する領域の骨密度を言うものであって、フィクスチャー(P)のネジ山の外郭ラインが位置される部位の骨密度である。
表示部133は、演算部132に電気的に連結され、統合立体映像データを視覚的に表示する(すなわち、2次元平面イメージ及び3次元イメージなどで表示する)。このような表示部133は、統合立体映像データだけではなく、第1立体映像データと第2立体映像データも、視覚的イメージで表示することができる。
また、本実施形態の表示部133は、演算部132で演算された仮想のフィクスチャー(P)を基準にして、仮想のフィクスチャー(P)周りの骨密度を視覚的に表示する。
すなわち、表示部133は、図3及び図4に示したように、演算部132で計算された仮想のフィクスチャー(P)の外郭コンツアーに接する領域の骨密度を視覚的に表示する。本実施形態において、表示部133に表示される仮想のフィクスチャー(P)周りの骨密度は、骨密度の数値によって互いに異なる色相で表示される。
また、本実施形態において、骨密度の数値によって表示部133に表示される色相は、有彩色からなる。このように、本実施形態のモバイル連動インプラント診断システムは、仮想のフィクスチャー(P)周りの骨密度を骨密度の数値によって互いに異なる有彩色の色相で表示することにより、ユーザが、仮想のフィクスチャー(P)周りの骨密度を直観的に認識可能にするという利点がある。
本実施形態において、高い骨密度数値は、黄色または緑色で表示され、低い骨密度数値は、赤色や青色で表示されるが、本発明の権利範囲が、これに限定されるものではなく、骨密度の数値を他の多様な色相で表示することができる。
以下、本実施形態のモバイル連動インプラント診断システムの動作を図1ないし図12を参照して説明する。
サーバ装置200から部分立体映像データを伝送された後、モバイル装置300が実行されれば、モバイル装置300の画面に図11のような画面が表示される。
図11のように、第1領域(E1)ないし第3領域(E3)に部分立体映像データの断面が表示された状態で、ユーザは、何れか一領域でタッチスクリーンなどの入力手段を通じてインプラントの植立角度を変更するか、インプラントの位置を微細に移動させることができる。
本実施形態において、第1領域(E1)ないし第3領域(E3)に表示される部分立体映像データの断面は、互いに連動して可変されるので、ユーザが、何れか一領域でインプラントの位置を可変させる場合、他の領域でのイメージも可変される。
施術者(歯科医師)は、インプラントの植立位置及び植立角度を微細に可変させる場合の以外にも、部分立体映像データで仮想のインプラント(K)の種類(例えば、フィクスチャー、アバットメントなどの種類)を可変させることもできる。
このようなインプラントの植立位置及び植立角度の変更する補正とインプラントの種類の変更する補正とが完了した後に、施術者が補正結果を保存すれば、補正された部分立体映像データがサーバ装置200に伝送されて保存される。
以後、施術者は、サーバ装置200に保存された補正された部分立体映像データを再びモバイル装置300に伝送されて、再び検討することができるができる。
このように、本実施形態によるモバイル連動インプラント診断システムは、モバイル装置300にインプラント施術データのうち、仮想のインプラント(K)周りの立体映像データである部分立体映像データのみを提供することにより、施術者がモバイル装置300の仕様内でモバイル装置300を通じて施術者の主要関心である仮想のインプラント(K)周りの部分立体映像データを補正(例えば、フィクスチャーを、他のフィクスチャーに変える補正、インプラントの植立角度を微細に変えるなどの補正など)可能にするという利点がある。
以下、インプラント施術計画データを生成するインプラント診断装置100でインプラント施術計画データを生成する過程を説明する。
インプラント施術計画データを生成するためには、先に統合立体映像データが生成されなければならない。このような統合立体映像データの生成方法を下記で説明する。
本実施形態によるモバイル連動インプラント診断システムのインプラント診断用映像生成方法は、図5に詳しく示したように、被施術者の口腔領域に対する第1立体映像データを獲得する第1映像情報獲得段階(ステップS110)と、被施術者の歯牙石膏型(G)をスキャンして第2立体映像データを獲得する第2映像情報獲得段階(ステップS120)と、第1立体映像データ及び第2立体映像データを整合して、統合立体映像データを生成する統合立体映像データ獲得段階(ステップS130)と、統合立体映像データに被施術者に植立される仮想のフィクスチャー(P)が重畳されれば、仮想のフィクスチャー(P)を基準にして、仮想のフィクスチャー(P)周りの骨密度を視覚的に表示する骨密度表示段階(ステップS140)と、を含む。
第1映像情報獲得段階(ステップS110)では、被施術者の口腔領域に対する第1立体映像データを獲得する。このような第1映像情報獲得段階(ステップS110)では、図1に示したように、第1映像情報獲得装置110が被施術者の口腔領域を撮影して第1立体映像データを獲得する。
第2映像情報獲得段階(ステップS120)では、第2映像情報獲得装置120が被施術者の歯牙石膏型(G)をスキャンして第2立体映像データを獲得する。
さらに詳しく説明すれば、本実施形態の第2映像情報獲得段階(ステップS120)は、被施術者の歯牙石膏型(G)を生成する段階と、被施術者の歯牙石膏型(G)に整合用基準マーカー(G2)を設ける段階と、整合用基準マーカー(G2)が設けられた歯牙石膏型(G)をスキャンする段階と、を含む。
整合用基準マーカー(G2)を設ける段階では、歯牙石膏型(G)を生成する段階で製作された被施術者の歯牙石膏型の本体(G1)に第2立体映像データの整合のための整合用基準マーカー(G2)を形成する。
歯牙石膏型の本体(G1)に設けられた整合用基準マーカー(G2)は、統合立体映像データ獲得段階(ステップS130)で第1立体映像データと第2立体映像データとの整合のための基準座標として活用される。
統合立体映像データ獲得段階(ステップS130)では、第1立体映像データ及び第2立体映像データを整合して、統合立体映像データを生成する。
コンピュータ断層撮影(CT)装置のような第1映像情報獲得装置110から獲得された第1立体映像データは、被施術者の骨形状などを正確に把握することができる長所に比べて、被施術者の口腔内部に設けられる多様な形態の補綴物及び保形物によって映像が歪曲されうるという問題がある。
したがって、被施術者の歯牙石膏型(G)をスキャンすることにより、被施術者の口腔内部構造についての非常に正確な情報を含めている第2立体映像データと被施術者の骨形状などについての正確な情報を含めている第1立体映像データとが重畳された統合立体映像データが生成されなければならず、第1立体映像データと第2立体映像データとの重畳のために必須的に伴われなければならないマッチング過程が統合立体映像データ獲得段階(ステップS130)で行われる。
このような統合立体映像データ獲得段階(ステップS130)は、第2立体映像データの整合用基準マーカー(G2)の座標を基準にして、第1立体映像データと第2立体映像データとを先整合する先整合段階(ステップS131)と、先整合された統合立体映像データで第2立体映像データを第1立体映像データに精密整合する精密整合段階(ステップS132)と、を含む。
先整合段階(ステップS131)は、第1立体映像データと第2立体映像データとを概略的に迅速に整合する方式であって、このような先整合段階(ステップS131)では、第2立体映像データの整合用基準マーカー(G2)の座標を基準にして、第1立体映像データと第2立体映像データとを先整合する。
このような先整合段階(ステップS131)は、ユーザに提供される画面の表示領域を第1立体映像データのうち、被施術者の歯牙領域が視覚的に表示される歯牙領域表示区域(Z1)、第2立体映像データが視覚的に表示される第2立体映像データ表示区域(Z2)、そして、統合立体映像データが視覚的に表示される統合立体映像データ表示区域(Z3)に区画する段階と、第2立体映像データ表示区域(Z2)で整合用基準マーカー(G2)の座標が入力される基準マーカー座標入力段階と、歯牙領域表示区域(Z1)で整合用基準マーカー(G2)の座標に該当する仮想の座標が入力される仮想座標入力段階と、入力された整合用基準マーカー(G2)の座標と仮想の座標とを整合して統合立体映像データ表示区域(Z3)に先整合された統合立体映像データを表示する段階と、を含む。
図6ないし図7を参考にして、先整合段階(ステップS131)を説明すれば、図6に示したように、表示部133を通じてユーザに提供される画面の表示領域は、第1立体映像データのうち、被施術者の歯牙領域が視覚的に表示される歯牙領域表示区域(Z1)と、第2立体映像データが視覚的に表示される第2立体映像データ表示区域(Z2)と、統合立体映像データが視覚的に表示される統合立体映像データ表示区域(Z3)と、に区画される。
歯牙領域表示区域(Z1)には、第1立体映像データのうち、被施術者の歯牙領域が視覚的に表示される。歯牙領域表示区域(Z1)に表示される被施術者の歯牙領域は、ユーザの入力部131を通じる制御信号によって、その領域が選択されうる。
また、第2立体映像データ表示区域(Z2)には、第2立体映像データが視覚的に表示され、統合立体映像データ表示区域(Z3)には、統合立体映像データが視覚的に表示される。
歯牙領域表示区域(Z1)に表示された被施術者の歯牙領域と第2立体映像データ表示区域(Z2)に表示された第2立体映像データは、いずれも被施術者の口腔領域の構造を示すものであって、前述したように、被施術者の口腔領域の構造に対しては、第2立体映像データがさらに正確な情報を有しているので、統合立体映像データを生成する時には、第1立体映像データのうち、被施術者の口腔領域に対する構造は第2立体映像データに代替される。このような代替のためには、第1立体映像データと第2立体映像データが、基準マーカー座標入力段階と仮想座標入力段階とを通じて整合されなければならない。
基準マーカー座標入力段階では、第2立体映像データ表示区域(Z2)で整合用基準マーカー(G2)の座標が入力される。すなわち、ユーザが、入力部131、例えば、マウスを通じて第2立体映像データ表示区域(Z2)に表示された3個の整合用基準マーカー(G2)をクリックすれば、該クリックされた座標が演算部132に伝達される。
仮想座標入力段階では、歯牙領域表示区域(Z1)で整合用基準マーカー(G2)の座標に該当する仮想の座標が入力される。すなわち、ユーザが、歯牙領域表示区域(Z1)に表示された歯牙領域のイメージと第2立体映像データ表示区域(Z2)に表示された歯牙石膏型(G)のイメージとを比較した後、歯牙領域表示区域(Z1)に表示された歯牙領域のイメージに整合用基準マーカー(G2)の位置に該当する仮想の位置をクリックすれば、該クリックされた座標が演算部132に伝達される。
以後、先整合された統合立体映像データを表示する段階では、演算部132に入力された整合用基準マーカー(G2)の座標と仮想の座標とを比較して、第1立体映像データと第2立体映像データとを重畳させた後、統合立体映像データ表示区域(Z3)に第1立体映像データに第2立体映像データが重畳された先整合された統合立体映像データを表示する。
図6の統合立体映像データ表示区域(Z3)には、まだ基準マーカー座標入力段階と仮想座標入力段階とが行われず、第1立体映像データのみ表示されているが、図7の統合立体映像データ表示区域(Z3)には、基準マーカー座標入力段階と仮想座標入力段階との遂行によって、第2立体映像データが第1立体映像データに重畳された統合立体映像データのイメージが表示されたことが見られる。
前述した先整合段階(ステップS131)の仮想座標入力段階では、ユーザが、歯牙領域表示区域(Z1)のイメージと第2立体映像データ表示区域(Z2)のイメージとを比較して、歯牙領域表示区域(Z1)のイメージに整合用基準マーカー(G2)がある仮想の位置をクリックする方式を取るので、先整合段階(ステップS131)を経た先整合された統合立体映像データの整合度は、完璧な状態ではないが、先整合段階(ステップS131)を経た先整合された統合立体映像データは、ほぼ整合された状態である。
したがって、精密整合段階(ステップS132)では、ほぼ整合された状態である先整合された統合立体映像データで第2立体映像データを第1立体映像データに精密整合させる。
精密整合段階(ステップS132)は、表示部133を通じてユーザに提供される画面の表示領域が多数個の分割領域に区画され、先整合された統合立体映像データの互いに異なる平面映像が多数個の分割領域に配される段階と、それぞれの分割領域で第1立体映像データに第2立体映像データが整合されるように補正される段階と、を含む。
図8または図9に示したように、精密整合段階(ステップS132)で表示部133を通じてユーザに提供される画面の表示領域は、多数個の分割領域(D1、D2、D3、D4、D5、D6)に区画される。このような多数個の分割領域(D1、D2、D3、D4、D5、D6)には、先整合された統合立体映像データの互いに異なる平面映像が配される。
この際、多数個の分割領域(D1、D2、D3、D4、D5、D6)に表示される先整合された統合立体映像データの平面映像は、第1立体映像データと第2立体映像データとの区分を可能にして(例えば、第1立体映像データと第2立体映像データとの外観ラインが互いに異なる色で表現される)、ユーザが視覚的に整合の有無が分かるようにする。
図8または図9に示したように、本実施形態において、精密整合段階(ステップS132)で表示部133を通じてユーザに提供される画面の表示領域は、第1ないし第6分割領域(D1、D2、D3、D4、D5、D6)に区画される。
第1分割領域(D1)は、先整合された統合立体映像データの平面であり、ユーザの操作画面に該当する。本実施形態において、第1分割領域は、先整合された統合立体映像データをX−Y軸平面で切ったイメージが表示される。
第1分割領域には、3個の移動点(M1、M2、M3)が表示されるが、ユーザがマウスなどの入力部131を通じて入力点を移動させれば、第2ないし第6分割領域(D2、D3、D4、D5、D6)のイメージが変更される。
第2分割領域(D2)には、第1分割領域(D1)の第1移動点(M1)の位置でY−Z軸平面で切ったイメージが表示される。第3分割領域(D3)には、第1分割領域(D1)の第1移動点(M1)の位置でX−Z軸平面で切ったイメージが表示される。
第2分割領域(D2)及び第3分割領域(D3)のイメージは、第1分割領域(D1)の第1移動点(M1)の移動によって移動した第1移動点(M1)の位置での平面イメージに可変される。
第4分割領域(D4)には、第1分割領域(D1)の第2移動点(M2)の位置でY−Z軸平面で切ったイメージが表示される。第5分割領域(D5)には、第1分割領域(D1)の第2移動点(M2)の位置でX−Z軸平面で切ったイメージが表示される。
第4分割領域(D4)及び第5分割領域(D5)のイメージは、第1分割領域(D1)の第2移動点(M2)の移動によって移動した第2移動点(M2)の位置での平面イメージに可変される。
第6分割領域(D6)には、第1分割領域(D1)の第3移動点(M3)の位置でY−Z軸平面で切ったイメージが表示される。第6分割領域(D6)のイメージは、第1分割領域(D1)の第3移動点(M3)の移動によって移動した第3移動点(M3)の位置での平面イメージに可変される。
図8と図9とを比べると、第1ないし第3移動点(M1、M2、M3)の位置変化によって第2ないし第6分割領域(D2、D3、D4、D5、D6)のイメージが変更されたことが見られる。
一方、第2ないし第6分割領域(D2、D3、D4、D5、D6)のイメージは、ユーザの入力部131を通じる操作に影響を受ける。すなわち、第2ないし第6分割領域(D2、D3、D4、D5、D6)に表示された第2立体映像データの位置及び姿勢などのイメージが、ユーザの操作によって変化されうる。
したがって、ユーザは、第1ないし第3移動点(M1、M2、M3)を移動させながら、多様な部位で先整合された統合立体映像データの平面映像で第1立体映像データと第2立体映像データとの整合の有無を確認し、入力部131を通じて第2立体映像データを第1立体映像データに対して相対移動させて、第1立体映像データと第2立体映像データとを精密に整合する。
一方、ユーザは、表示部133を通じてユーザに提供される画面の表示領域に表示されたスケール操作部(S)を通じて第1立体映像データのスケールを操作することができる。このような第1立体映像データのスケール操作は、第1立体映像データと第2立体映像データとの間に全体的なサイズの差がある時に、第1立体映像データの全体的なサイズを第2立体映像データに対して相対的に可変させて、第1立体映像データと第2立体映像データとの精密整合操作をさらに容易にする。
このように、本実施形態によるインプラント診断用映像生成方法は、第1立体映像データと第2立体映像データとを概略的に迅速に先整合した後、概略的に先整合された統合立体映像データを再び精密整合することにより、全体的な整合時間を短縮しながらも、整合正確度を高めうる。
次に、精密整合段階(ステップS132)を経た統合立体映像データ獲得段階(ステップS130)が完成された後、ユーザは施術計画を樹立する。このような施術計画時に、被施術者の歯槽骨などの骨密度は非常に重要な要素であり、被施術者の骨密度の状態によってインプラントの植立位置及び深さと方向とを決定する。
したがって、フィクスチャー(P)植立部位の骨密度が非常に重要であるが、本実施形態の骨密度表示段階(ステップS140)では、フィクスチャー(P)植立部位の骨密度を非常に直観的に表示する。
すなわち、本実施形態の骨密度表示段階(ステップS140)では、図3及び図4に示したように、統合立体映像データに被施術者に植立される仮想のフィクスチャー(P)を重畳させるが、仮想のフィクスチャー(P)を基準にして、仮想のフィクスチャー(P)周りの骨密度を視覚的に表示する。
このような骨密度表示段階(ステップS140)では、演算部132で計算された仮想のフィクスチャー(P)の外郭コンツアーに接する領域の骨密度を骨密度の数値によって互いに異なる色相で表示される。
このように、本実施形態によるモバイル連動インプラント診断システムで診断用映像生成方法は、仮想のフィクスチャー(P)周りの骨密度を骨密度の数値によって互いに異なる色相で表示することにより、ユーザが、仮想のフィクスチャー(P)周りの骨密度を直観的に認識可能にするという利点がある。
図13は、本発明の第2実施形態によるモバイル連動インプラント診断システムでモバイル装置にディスプレイされる画面が示された図面である。
本実施形態は、第1実施形態と比較する時に、モバイル装置用表示ユニット310aが、前記第1領域ないし第3領域で既定の領域(U)内部の骨密度を視覚的に表示する点で第1実施形態と差があり、他の構成においては、図1ないし図12の第1実施形態の構成と同一なので、以下、同じ構成については、その説明を省略する。
本実施形態のモバイル装置用表示ユニットは、前記第1領域(E1)ないし第3領域(E3)で既定の領域(U)内部の骨密度を視覚的に表示する。
本実施形態の既定の領域(U)は、図13に示したように、円状に設けられ、タッチスクリーンのような方式でユーザの操作によって第1領域(E1)ないし第3領域(E3)のそれぞれの内部で移動することができる。
このように、本実施形態のモバイル連動インプラント診断システムは、モバイル装置用表示ユニット310aの第1領域(E1)ないし第3領域(E3)で既定の領域(U)内部の骨密度を視覚的に表示することにより、施術者が関心のある部位の骨密度を集中して検討可能にするという利点がある。
以上、図面を参照して、本実施形態について詳しく説明したが、本実施形態の権利範囲が、前述した図面及び説明に限定されるものではない。
このように、本発明は、記載の実施形態に限定されるものではなく、本発明の思想及び範囲を外れずに多様に修正及び変形できるということは、当業者に自明である。したがって、そのような修正例または変形例は、本発明の特許請求の範囲に属するものと言わなければならない。
本発明は、医療産業、特に、歯科医療産業に用いられうる。

Claims (19)

  1. 被施術者の口腔領域に対する統合立体映像データを獲得し、前記統合立体映像データを基盤として、前記統合立体映像データに仮想のインプラントデータが重畳されたインプラント施術計画データを生成するインプラント診断装置と、
    前記インプラント診断装置に有線または無線で連結され、前記インプラント診断装置から生成された前記インプラント施術計画データのうち、一部である関心情報を伝達されて保存するサーバ装置と、
    前記サーバ装置に有線または無線で連結され、前記サーバ装置から前記関心情報を伝達されて表示するモバイル装置と、を含み、
    前記関心情報は、
    前記インプラント施術データのうち、前記仮想のインプラント周りの既定の領域のデータである部分立体映像データを含み、
    前記インプラント診断装置は、
    前記被施術者の口腔領域に対する第1立体映像データを獲得する第1映像情報獲得装置と、
    前記被施術者の歯牙石膏型をスキャンして第2立体映像データを獲得する第2映像情報獲得装置と、
    前記第1立体映像データ及び前記第2立体映像データを伝達されて整合して、前記統合立体映像データを生成し、前記統合立体映像データを基盤として、前記施術計画データを生成するデータ処理装置と、を含み、
    前記歯牙石膏型には、前記第1立体映像データと前記第2立体映像データとの整合のための整合用基準マーカーが設けられ、
    前記データ処理装置は、
    ユーザから情報を入力される入力部と、
    前記統合立体映像データを生成し、前記入力部に電気的に連結されて、前記ユーザから入力された情報に基づいて、前記統合立体映像データを補正する演算部と、
    前記演算部に電気的に連結され、前記統合立体映像データと前記仮想のフィクスチャー周りの骨密度を視覚的に表示する表示部と、を含み、
    前記データ処理装置は、
    前記第2立体映像データの整合用基準マーカーの座標を基準にして、前記第1立体映像データと前記第2立体映像データとを先整合する先整合段階後、前記先整合された統合立体映像データで前記第2立体映像データを前記第1立体映像データに精密整合する精密整合段階を経て、前記統合立体映像データを生成し、
    前記精密整合段階で前記演算部は、
    前記表示部の表示領域を多数個の分割領域に区画し、
    前記先整合された統合立体映像データの互いに異なる平面映像を前記多数個の分割領域に配置し、
    前記入力部を通じて前記それぞれの分割領域で第1立体映像データに第2立体映像データが整合された状態を入力される、
    モバイル連動インプラント診断システム。
  2. 前記部分立体映像データは、
    前記仮想のインプラントの中心から既定の間隔ほど離隔した境界領域内部の前記インプラント施術計画データを含む請求項1に記載のモバイル連動インプラント診断システム。
  3. 前記境界領域は、六面体状に設けられることを特徴とする請求項2に記載のモバイル連動インプラント診断システム。
  4. 前記六面体状に設けられた境界領域は、
    第1軸方向の長さが15〜45mmであり、
    第2軸方向の長さが15〜45mmであり、
    第3軸方向の長さが20〜60mmであることを特徴とする請求項3に記載のモバイル連動インプラント診断システム。
  5. 前記モバイル装置は、スマートフォン、ハンドヘルド端末機を含む請求項1に記載のモバイル連動インプラント診断システム。
  6. 前記モバイル装置は、
    前記部分立体映像データをディスプレイするモバイル装置用表示ユニットと、
    ユーザから情報を入力されるモバイル装置用入力ユニットと、
    前記入力部に電気的に連結されて、前記ユーザから入力された情報に基づいて、前記部分立体映像データを補正するモバイル装置用演算ユニットと、
    を含む請求項1に記載のモバイル連動インプラント診断システム。
  7. 前記モバイル装置用表示ユニットは、前記ユーザに提供される画面を多数個の分割領域に区画し、
    前記分割領域は、
    前記部分立体映像データを第1軸と前記第1軸に交差する第2軸に切った平面イメージが表示された第1領域と、
    前記部分立体映像データを前記第2軸と前記第2軸に交差する第3軸に切った平面イメージが表示された第2領域と、
    前記部分立体映像データを前記第1軸と前記第3軸に切った平面イメージが表示された第3領域と、
    を含む請求項6に記載のモバイル連動インプラント診断システム。
  8. 前記モバイル装置用表示ユニットは、
    前記第1領域ないし第3領域で骨密度を視覚的に表示することを特徴とする請求項7に記載のモバイル連動インプラント診断システム。
  9. 前記モバイル装置用表示ユニットは、
    前記第1領域ないし第3領域で既定の領域内部の骨密度を視覚的に表示することを特徴とする請求項7に記載のモバイル連動インプラント診断システム。
  10. 前記骨密度は、
    前記骨密度の数値によって互いに異なる色相で表示されることを特徴とする請求項8または9に記載のモバイル連動インプラント診断システム。
  11. 前記色相は、有彩色であることを特徴とする請求項10に記載のモバイル連動インプラント診断システム。
  12. 前記分割領域は、
    前記被施術者の歯牙石膏型をスキャンして獲得された第2立体映像データに、前記仮想のインプラントが重畳された立体映像データが表示された第4領域をさらに含む請求項7に記載のモバイル連動インプラント診断システム。
  13. 前記整合用基準マーカーは、多数個設けられ、互いに離隔して配されることを特徴とする請求項に記載のモバイル連動インプラント診断システム。
  14. 前記先整合段階で前記演算部は、
    前記表示部の表示領域を前記第1立体映像データのうち、前記被施術者の歯牙領域が視覚的に表示される歯牙領域表示区域と、前記第2立体映像データが視覚的に表示される第2立体映像データ表示区域と、前記統合立体映像データが視覚的に表示される統合立体映像データ表示区域と、に区画し、
    前記入力部を通じて前記第2立体映像データ表示区域で前記整合用基準マーカーの座標を入力され、
    前記入力部を通じて前記歯牙領域表示区域で前記整合用基準マーカーの座標に該当する仮想の座標を入力され、
    入力された前記整合用基準マーカーの座標と前記仮想の座標とを整合して、前記統合立体映像データ表示区域に前記先整合された統合立体映像データを表示する請求項に記載のモバイル連動インプラント診断システム。
  15. 前記多数個の分割領域は、
    前記先整合された統合立体映像データを第1軸と前記第1軸に交差する第2軸に切った平面イメージが示された第1領域と、
    前記第1領域に表示される第1移動点の位置で前記第2軸と前記第2軸に交差する第3軸に切った平面イメージが示された第2領域と、
    前記第1領域に表示される第1移動点の位置で前記第1軸と前記第3軸に切った平面イメージが示された第3領域と、
    前記第1領域に表示される第2移動点の位置で前記第2軸と第3軸に切った平面イメージが示された第4領域と、
    前記第1領域に表示される第2移動点の位置で前記第1軸と第3軸に切った平面イメージが示された第5領域と、
    前記第1領域に表示される第3移動点の位置で前記第2軸と第3軸に切った平面イメージが示された第6領域と、
    を含む請求項に記載のモバイル連動インプラント診断システム。
  16. 前記第1ないし第3移動点は、
    前記ユーザの操作によって移動可能であり、
    前記第2領域及び前記第3領域のイメージは、前記第1移動点の移動に連動して可変され、
    前記第4領域及び前記第5領域のイメージは、前記第2移動点の移動に連動して可変され、
    前記第6領域のイメージは、前記第3移動点の移動に連動して可変されることを特徴とする請求項15に記載のモバイル連動インプラント診断システム。
  17. 前記データ処理装置は、
    前記統合立体映像データに前記被施術者に植立される仮想のフィクスチャーが重畳されれば、前記仮想のフィクスチャーを基準にして、前記仮想のフィクスチャー周りの骨密度を視覚的に表示することを特徴とする請求項に記載のモバイル連動インプラント診断システム。
  18. 前記データ処理装置は、前記仮想のフィクスチャーの外郭コンツアーに接する領域の骨密度を視覚的に表示することを特徴とする請求項17に記載のモバイル連動インプラント診断システム。
  19. 前記仮想のフィクスチャー周りの骨密度は、
    前記骨密度の数値によって互いに異なる色相で表示されることを特徴とする請求項17に記載のモバイル連動インプラント診断システム。
JP2019541058A 2016-10-06 2017-01-10 モバイル連動インプラント診断システム Active JP6801117B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2016-0129286 2016-10-06
KR1020160129286A KR101865701B1 (ko) 2016-10-06 2016-10-06 모바일 연동 임플란트 진단 시스템
PCT/KR2017/000331 WO2018066765A1 (ko) 2016-10-06 2017-01-10 모바일 연동 임플란트 진단 시스템

Publications (2)

Publication Number Publication Date
JP2019531173A JP2019531173A (ja) 2019-10-31
JP6801117B2 true JP6801117B2 (ja) 2020-12-16

Family

ID=61832098

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019541058A Active JP6801117B2 (ja) 2016-10-06 2017-01-10 モバイル連動インプラント診断システム

Country Status (7)

Country Link
US (1) US10888402B2 (ja)
EP (1) EP3524139B1 (ja)
JP (1) JP6801117B2 (ja)
KR (1) KR101865701B1 (ja)
CN (1) CN211484515U (ja)
TW (1) TWI663962B (ja)
WO (1) WO2018066765A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11024064B2 (en) * 2017-02-24 2021-06-01 Masimo Corporation Augmented reality system for displaying patient data
EP3585254B1 (en) 2017-02-24 2024-03-20 Masimo Corporation Medical device cable and method of sharing data between connected medical devices
CN110809804B (zh) 2017-05-08 2023-10-27 梅西莫股份有限公司 使用适配器将医疗系统与网络控制器配对的系统
CN108830915B (zh) * 2018-05-28 2023-03-31 牙博士医疗控股集团有限公司 口腔影像3d模拟动画实现方法及装置
WO2020153410A1 (ja) * 2019-01-22 2020-07-30 Safe Approach Medical株式会社 施術支援システム、処理装置、及びプレート
KR102232294B1 (ko) * 2019-07-11 2021-03-26 오스템임플란트 주식회사 임플란트 시술 계획 수립을 위한 다중 골밀도 표시방법 및 그 영상 처리장치
KR20210099988A (ko) 2020-02-05 2021-08-13 삼성전자주식회사 뉴럴 네트워크의 메타 학습 방법 및 장치와 뉴럴 네트워크의 클래스 벡터 학습 방법 및 장치
KR20220045763A (ko) * 2020-10-06 2022-04-13 오스템임플란트 주식회사 인공치아 구조물을 디스플레이하는 디바이스, 방법 및 이를 실행하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체
KR102441943B1 (ko) * 2021-05-10 2022-09-08 오스템임플란트 주식회사 다중 골밀도 표시방법 및 장치, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램
CN115778590A (zh) * 2022-11-25 2023-03-14 先临三维科技股份有限公司 一种牙颌模型剖面线生成方法、装置、设备及介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100338974B1 (ko) * 1999-03-15 2002-05-31 최은백, 이찬경 턱뼈의 뼈밀도를 확인하기 위한 시뮬레이션 방법 및 이를 실현시키기 위한 프로그램이 기록된 기록매체
JP2003245289A (ja) * 2002-02-22 2003-09-02 Univ Nihon 歯科用インプラント施術支援装置
GB0514554D0 (en) 2005-07-15 2005-08-24 Materialise Nv Method for (semi-) automatic dental implant planning
US20100035212A1 (en) * 2008-08-11 2010-02-11 Jean Robichaud Preparation of dental implant surgery and prosthesis installation
WO2010120990A1 (en) * 2009-04-15 2010-10-21 James Schroeder Personal fit medical implants and orthopedic surgical instruments and methods for making
KR101271255B1 (ko) 2009-06-12 2013-06-10 주식회사 엔씨테크론 Ct방식에 의한 악골의 골밀도 측정장치
WO2013102190A1 (en) * 2011-12-30 2013-07-04 Gole Philip D Image-overlay medical evaluation devices and techniques
US8548778B1 (en) 2012-05-14 2013-10-01 Heartflow, Inc. Method and system for providing information from a patient-specific model of blood flow
US9135498B2 (en) * 2012-12-14 2015-09-15 Ormco Corporation Integration of intra-oral imagery and volumetric imagery
CN103156693B (zh) * 2013-01-31 2015-07-08 浙江大学 一种基于体图像处理的植牙手术导板的制作方法
KR101731593B1 (ko) * 2013-02-08 2017-05-11 주식회사 이우소프트 깊이 변경에 따라 내부 구조를 디스플레이 하는 영상 디스플레이
KR20140111902A (ko) * 2013-03-12 2014-09-22 주식회사 이우소프트 치과용 치료계획 수립방법
US10169534B2 (en) * 2013-09-30 2019-01-01 Toshiba Medical Systems Corporation Medical image display system and method
EP2929854B1 (en) * 2014-03-18 2017-08-23 Dio Corporation Dental implant insertion set and manufacturing method thereof
KR101554157B1 (ko) * 2014-05-09 2015-09-21 주식회사 디오 구강 내부 부착용 레퍼런스 마커 및 그를 이용한 임플란트 시술용 가이드 스탠트 제조방법
WO2015154125A1 (en) * 2014-04-07 2015-10-15 Instaguide Pty Ltd Dental implant guide formation system
WO2016148297A1 (ja) * 2015-03-18 2016-09-22 株式会社アドバンス 歯科診療システム及び口腔内カメラ
KR101544773B1 (ko) 2015-04-01 2015-08-17 주식회사 디오 치과 임플란트용 서지컬 가이드를 이용한 시술 안내정보 제공방법

Also Published As

Publication number Publication date
CN211484515U (zh) 2020-09-15
EP3524139B1 (en) 2021-05-26
KR20180038319A (ko) 2018-04-16
TWI663962B (zh) 2019-07-01
JP2019531173A (ja) 2019-10-31
US10888402B2 (en) 2021-01-12
EP3524139A1 (en) 2019-08-14
EP3524139A4 (en) 2020-06-24
TW201813587A (zh) 2018-04-16
KR101865701B1 (ko) 2018-06-11
WO2018066765A1 (ko) 2018-04-12
US20200046473A1 (en) 2020-02-13

Similar Documents

Publication Publication Date Title
JP6801117B2 (ja) モバイル連動インプラント診断システム
US10964425B2 (en) Method for manipulating a dental virtual model, method for creating physical entities based on a dental virtual model thus manipulated, and dental models thus created
US20230293261A1 (en) Dental preparation guide
CN210446984U (zh) 植入体诊断用图像生成系统
KR101726706B1 (ko) 디지털 라이브러리를 이용한 치과 임플란트용 보철물 제조방법
KR102442720B1 (ko) 치아 보철 제조를 위한 3차원 스캔 데이터 처리 방법
KR101877895B1 (ko) 임플란트 진단용 영상 생성 시스템 및 그 생성방법
CN104921822A (zh) 制造牙种植体的导引支架的方法
JP2015533607A (ja) インプラント映像生成方法およびインプラント映像生成システム
KR102082917B1 (ko) 치과용 임플란트 시술 가이드장치, 치과용 임플란트 시술 가이드장치 제작시스템 및 그 제작방법
KR102061644B1 (ko) 임플란트 진단용 영상 생성 시스템 및 그 생성방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190603

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201125

R150 Certificate of patent or registration of utility model

Ref document number: 6801117

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250