JP7336504B2 - 拡張現実誘導手術の方法およびシステム - Google Patents

拡張現実誘導手術の方法およびシステム Download PDF

Info

Publication number
JP7336504B2
JP7336504B2 JP2021500050A JP2021500050A JP7336504B2 JP 7336504 B2 JP7336504 B2 JP 7336504B2 JP 2021500050 A JP2021500050 A JP 2021500050A JP 2021500050 A JP2021500050 A JP 2021500050A JP 7336504 B2 JP7336504 B2 JP 7336504B2
Authority
JP
Japan
Prior art keywords
implant
patient
images
processor
planned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021500050A
Other languages
English (en)
Other versions
JP2021529618A (ja
Inventor
ジョー,ジェレミー
ラガッツィニ,ジェフリー
Original Assignee
デンツプライ シロナ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by デンツプライ シロナ インコーポレイテッド filed Critical デンツプライ シロナ インコーポレイテッド
Publication of JP2021529618A publication Critical patent/JP2021529618A/ja
Application granted granted Critical
Publication of JP7336504B2 publication Critical patent/JP7336504B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C1/00Dental machines for boring or cutting ; General features of dental machines or apparatus, e.g. hand-piece design
    • A61C1/08Machine parts specially adapted for dentistry
    • A61C1/082Positioning or guiding, e.g. of drills
    • A61C1/084Positioning or guiding, e.g. of drills of implanting tools
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/51Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
    • A61B6/512Intraoral means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • A61C13/0003Making bridge-work, inlays, implants or the like
    • A61C13/0004Computer-assisted sizing or machining of dental prostheses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C8/00Means to be fixed to the jaw-bone for consolidating natural teeth or for fixing dental prostheses thereon; Dental implants; Implanting tools
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C8/00Means to be fixed to the jaw-bone for consolidating natural teeth or for fixing dental prostheses thereon; Dental implants; Implanting tools
    • A61C8/0089Implanting tools or instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/51Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Surgery (AREA)
  • Epidemiology (AREA)
  • Medical Informatics (AREA)
  • Dentistry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Robotics (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Pathology (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Biophysics (AREA)
  • Gynecology & Obstetrics (AREA)
  • Architecture (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Computer Graphics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Dental Prosthetics (AREA)

Description

関連出願への相互参照
本国際出願は、あらゆる目的のために参照により本明細書に組み込まれる、2018年7月5日に出願された米国特許仮出願第62/694,127号、および2018年8月23日に出願された対応する米国特許出願第16/110,511号の利益を主張するものである。
本出願は、概して、画像誘導手術の方法およびシステム、より具体的には、歯科手順中に拡張現実を使用することで、後続の計画手順に従って配置した場合の結果も同時に捕捉する、歯科インプラントの誘導配置の方法およびシステムに関する。
修復物の使用によって、ならびに物理的ガイド/スリーブおよび修復物を使用する歯科インプラントの配置によって、歯の欠損を治療して歯の機能を回復させるための様々な選択肢が存在する。別の選択肢は、歯科インプラントを配置するロボット手術の使用である。
臨床医は、コンピュータ、およびCBCTまたはX線などのデジタル画像または走査を使用して、骨および神経組織に対する歯科インプラントの位置付け可能な位置をデジタル処理で視覚化および操作し得る。しかしながら、理想的なインプラント位置を得るには、物理的ガイドまたはロボット手術の形態の支援が必要な場合がある。物理的ガイドは製造および輸送に時間がかかり、ロボット手術は高価である。
物理的ガイドを使用する歯科インプラントの配置では、通常、物理的ガイドを設計/製造および/または輸送するために、患者および臨床医は、コーンビームコンピュータ断層撮影(CBCT)走査を行ってからインプラント配置手順に至るまでに数日間を要する。走査およびインプラント配置に別々の予約が必要な場合があり、これは、時間がかかり、かつ高価であり得る。
既存のインプラント配置技術では、最終的なインプラントの位置の誤差は、計画されたインプラントの位置に対して200~1000ミクロンの間であり得る。正確な修復物設計に許容されるばらつきは、はるかに小さく、<100ミクロンの精度を要求する。十分に信頼できる修復物設計になるようにインプラントを正確に配置することができないことから、修復物設計プロセスへの入力として、インプラント配置後に印象が採得されてよい。この印象は、修復物を設計および作製するのに十分な正確度で、隣接する歯列に対するインプラントの位置のデジタル表現を提供し得る。しかしながら、手術中に追加の走査設備、口腔内走査フラグまたは伝統的な印象構成要素/材料の使用、デジタルまたは物理的な印象採得のために患者が臨床医に追加で受診する必要が生じ得る。誘導されたインプラント配置の幾何学的詳細/結果を捕捉することによって、修復物設計のために追加の印象は必要ない場合があり、口腔内走査フラグ、インプラント配置中もしくはインプラント配置後の口腔内走査、または追加の印象採得の予約の必要性を排除する。
米国特許出願第2017202633号は、ユーザが見るためのウェアラブルディスプレイを備える、医療介入を誘導するための撮像および表示システムを開示し、ディスプレイは、術前手術ナビゲーション画像、術中画像、および生体顕微鏡画像、または感知データを含む、合成または複合画像を提示する。顕微鏡プローブまたは感知プローブなどのプローブは、患者から生体内撮像/感知データを取得するために使用されてよく、術中画像および生体内画像は、それらを術前画像および患者と位置合わせして表示用合成画像を形成するための追跡および登録技術を使用して取得されてよい。
米国特許出願第20020082498号は、患者の一部の3次元(3D)体積データを捕捉すること、データの図形表現を提供するために体積データを処理すること、前述の患者の一部を含む現場の立体視映像を捕捉すること、立体拡張画像を提供するために、図形表現および立体視映像を融合した方法でレンダリングすること、ならびに前述の立体拡張画像をビデオシースルー型ディスプレイに表示することを含む、画像誘導手術の方法を開示する。
米国特許出願公開第20160191887号は、外科医の静的または動的視点からの患者の拡張ビューを表示するための、リアルタイムの手術ナビゲーション方法および装置について記載している。表面画像、術前または術中画像から処理された患者の内部の解剖学的構造の図形表現、および両画像を幾何学的に登録するコンピュータが使用されてよい。画像の幾何学的登録に応答して、ヘッドマウントディスプレイは、外科医に患者の拡張ビューを提示してよい。
上記に関連する既存の限界ならびに他の限界は、歯科手順中に拡張現実を使用することで、後続の計画手順に従って配置した場合の結果も同時に捕捉する、歯科インプラントの誘導配置の方法およびシステムによって克服することができる。
本明細書の態様では、本発明は、拡張視覚化を利用する方法を提供してよく、方法は、患者の1つまたは複数の術前画像を得ることと、1つまたは複数の術前画像中の共通の特徴または基準点に基づいて、1つまたは複数の術前画像を幾何学的に登録してまとめることと、計画されたインプラントの位置を含む治療計画を提供することと、幾何学的に登録された術前画像および/または計画されたインプラントの位置を、患者の標的領域上に直接重なって見えるように患者の上に重ね合わせることと、重ね合わされた幾何学的に登録された術前画像と計画されたインプラントの位置との間の位置関係に基づいて、切削孔を作り、かつ/またはインプラントを埋入するためのナビゲーション指示を提供することと、を含む。
本明細書の別の態様では、方法は、(i)最終的なインプラントの位置を決定することおよび最終的なインプラントの位置に基づいて修復物を設計することをさらに含むステップ、(ii)最終的なインプラントの位置を、(a)ハンドピース、ハンドピースの構成要素、および/もしくはインプラントのジオメトリデータ、ならびに/または(b)治療領域の術後画像に基づいて決定することをさらに含むステップ、(iii)最終的なインプラントの位置を、(a)患者の臨床環境を追跡することと、(b)臨床環境に対するハンドピース位置を追跡することと、(c)ハンドピース位置に対するドリル位置を追跡することと、(d)臨床環境に対するドリル位置を得ることと、(e)インプラントを最終的な位置に打ち込むのに使用されるインプラントドライバーの寸法を得ることとによって決定することをさらに含むステップ、(iv)術前画像は、X線走査データ、口腔内走査データ、および/または顔面走査データを含み、(v)幾何学的登録は、手動または自律的であり、(vi)共通の特徴または基準点は、所定のマーカー、咬合平面、および/または歯の解剖学的特徴を含み、(vii)計画されたインプラントの位置についての情報は、インプラントに最適な穿孔を含み、(viii)幾何学的に登録された術前画像の位置および/または計画されたインプラントの位置を追跡手段を使用して更新することをさらに含むステップ、(ix)ナビゲーション指示は、視覚/デジタル、聴覚、および/または触覚形態である、の1つまたは複数をさらに含んでよい。
別の態様では、システムが提供されてよく、システムは拡張視覚化を利用し、システムは、患者の1つまたは複数の術前画像を得ることと、1つまたは複数の術前画像中の共通の特徴または基準点に基づいて、1つまたは複数の術前画像を幾何学的に登録してまとめることと、計画されたインプラントの位置を含む治療計画を提供することと、幾何学的に登録された術前画像および/または計画されたインプラントの位置を、患者の標的領域上に直接重なって見えるように患者の上に重ね合わせることと、重ね合わされた幾何学的に登録された術前画像と計画されたインプラントの位置との間の位置関係に基づいて、切削孔を作り、かつ/またはインプラントを埋入するためのナビゲーション指示を提供することと、を行うように構成された少なくとも1つのプロセッサを備える。別の態様では、システムは、(i)前述の重ね合わせのために画像を受信するように構成されたディスプレイ装置をさらに備えるシステム、(ii)共通の座標系での画像および物体の精密な位置および配向のために、リアルタイムの位置データを提示するように構成された追跡手段をさらに備えるシステム、(iii)追跡手段は、センサベースおよび/または視覚ベースであるシステム、(iv)プロセッサは、最終的なインプラントの位置を決定することおよび最終的なインプラントの位置に基づいて修復物を設計することを行うようにさらに構成されるシステム、(v)プロセッサは、最終的なインプラントの位置を、(a)ハンドピース、ハンドピースの構成要素、および/もしくはインプラントのジオメトリデータ、ならびに/または(b)治療領域の術後画像に基づいて決定するようにさらに構成されるシステム、(vi)プロセッサは、最終的なインプラントの位置を、(a)患者の臨床環境を追跡することと、(b)臨床環境に対するハンドピース位置を追跡することと、(c)ハンドピース位置に対するドリル位置を追跡することと、(d)臨床環境に対するドリル位置を得ることと、(e)インプラントを最終的な位置に打ち込むのに使用されるインプラントドライバーの寸法を得ることとによって決定するようにさらに構成されるシステム、(vii)術前画像は、X線走査データ、口腔内走査データ、および/または顔面走査データを含むシステム、(viii)幾何学的登録は、手動または自律的であるシステム、(ix)共通の特徴または基準点は、所定のマーカー、咬合平面、および/または歯の解剖学的特徴を含むシステム、(x)計画されたインプラントの位置についての情報は、インプラントに最適な穿孔を含むシステム、(xi)プロセッサは、ナビゲーション指示を、視覚/デジタル、聴覚、および/または触覚形態で提供するようにさらに構成されるシステム、の構成の1つまたは複数を含んでよい。
例示的実施形態は、本明細書で以下に示されている詳細な説明、および同様の要素が同様の符号によって表されている添付の図面から、より完全に理解されるであろうが、これらは例示のためにのみ与えられており、したがって、本明細書の例示的実施形態に限定されない。
本発明の実施形態によるシステムを示す図である。 本発明の実施形態による例示的コンピュータシステムのブロック図を示す。 本発明の実施形態による方法を示す図である。 本発明の実施形態による別の方法を示す別の図を示す。
図面のうち異なる図が、同じ構成要素を識別するために同じであり得る少なくともいくつかの符号を有する場合があるが、そのような各構成要素の詳細な説明は、各図に関して以下に提供されていない場合がある。
発明の詳細な説明
本明細書に記載された例示的態様によれば、歯科インプラント装置4を容易に配置し提供するために複数のデジタルおよび/または物理データ入力を使用し、拡張現実ポータルを使用することで、修復物設計などの後続の計画手順に従って配置した場合の結果も同時に捕捉することが可能となる方法およびシステムが提供されてよい。患者の1つまたは複数の術前画像を使用して所望の歯科インプラントの位置32を計画し、仮想現実手段によって計画された歯科インプラントの位置/計画された手術部位32および1つまたは複数の術前画像を患者の上に重ね合わせることによって、臨床医は、術前画像と計画された手術部位32との間の位置関係の認識を提供されてよく、これによって、インプラント切削手順を通して誘導されてよい。前述の重ね合わせは、(i)ディスプレイを通して見ると、画像が直接患者の上に位置しているかのように見えるように、ディスプレイ上に画像を提供すること、および/または(ii)プロジェクタを使用して、画像を患者の標的部位14a上に直接投影することを意味し得るが、これらに限定されない場合がある。さらに、手術後に最終的なインプラントの位置34(計画されたインプラントの位置32からの任意のずれを含む最終的なインプラントの位置34)を記録または捕捉し、最終的なインプラントの位置34の情報を患者の基準走査と組み合わせることによって、歯科修復物は、最終的なインプラントの位置34に基づいて設計されてよく、通常、修復物設計の前に採得される歯科印象の必要性を排除する。
拡張現実誘導手術用のシステム
図1は、ヘッドマウント拡張現実眼鏡、HUDディスプレイ、または立体映像を受信することができる立体視ディスプレイなどのディスプレイ装置12、または患者14が治療椅子24に座っている時、CBCTもしくはMRI画像18、口腔内画像20、顔面画像(図示せず)、もしくはその他の画像などの画像を、患者14もしくは患者14の立体映像上に重ね合わせるために使用され得るその他のディスプレイ装置12を備えるシステム1を示す。CBCTまたはMRIデータは、歯列、骨、および神経のジオメトリを含む、既存の歯の解剖学的構造を示してよく、口腔内走査データは、軟組織、およびトポグラフィ表面/歯列ジオメトリを示してよく、3D顔面走査および/または顔面の従来の写真は、鼻または外科的印などの他の顔面特徴に対する口/歯の位置を示してよい。
ディスプレイ装置12は、コンピュータシステム100に接続されてよいか、またはコンピュータシステム100の一部を形成してよい。コンピュータシステム100(図2にも示す)は、追跡手段2およびプロセッサ122を含んでよい。あるいは、追跡手段2は、本明細書で論じる装置、構成要素、および/またはシステムのいずれかの少なくとも一部を形成してよい。追跡手段2は、プロセッサ122に電気的に接続されてよく、共通の座標系での画像および物体の精密な位置および配向のために、リアルタイムの位置データを提示してよい。本明細書の例示的実施形態では、追跡手段は、(例えば、ハンドピースの位置またはハンドピース16中のドリル24の回転サイクルを追跡するための、圧力センサ、タッチセンサ、近接センサ、超音波センサ、赤外線センサ、回転センサおよびジャイロセンサならびに加速度計などの、ハンドピース16中の埋め込みセンサ26またはマーカー、患者14および/または臨床医10の動きを追跡するためのジャイロスコープおよび/または加速度計などのような)センサベースであってよい。別の実施形態では、追跡手段は、例えば、(i)患者14、または(ii)患者14上のマーカー(図示せず)の視覚追跡用カメラのような、視覚ベースであってよい。さらに別の実施形態では、追跡手段は、センサベースの追跡手段と視覚ベースの追跡手段との融合であってよい。さらに、無線プロトコルが、追跡用の既知のマーカー位置を送信するのに使用されてよい。
システムは、治療部位の術前CBCT/MRI走査を得るためのX線スキャナ28(CBCT/MRIスキャナ)、患者の口の術前3D画像を得るための口腔内スキャナ30、および/または顔面の3D走査を得るための3D顔面スキャナ36をさらに備えてよい。3D光学追跡システムおよび/または立体カメラシステムなどのカメラシステム3が、コンピュータシステムに含まれてよく、追跡手段2を形成するか、または追跡手段2の一部であってよい。あるいは、カメラシステム3は、臨床医10のディスプレイ装置12に埋め込まれてよいか、または追跡手段2の一部であってよい。
プロセッサ122は、CBCT/MRIデータ18、口腔内画像20、および/または顔面走査を受信し、それらを幾何学的に登録してまとめ、例えば、シースルー型拡張現実眼鏡/HUDディスプレイを通して患者14上に、または例えば、ヘッドマウント立体視ディスプレイを使用して患者の立体映像上に、重ね合わせるように構成されてよい。計画されたインプラントの位置32(計画された/所望のドリル深さを任意選択で含む計画されたインプラントの位置)を含む治療計画も、CBCT/MRI画像18、および口腔内画像20、および/または2D/3D顔面走査に幾何学的に登録され、治療部位14a上に重ね合わされてよい。別の実施形態では、治療計画/計画されたインプラントの位置32は、任意選択で、臨床医から要求を受信した後、および/または術前画像が別々に登録されてまとめられた後、治療部位14a上に重ね合わされてよい。本明細書の実施形態では、幾何学的に登録された画像は、以下で論じるインプラント切削手順の前またはインプラント切削手順中に、コンピュータシステム100のユーザインタフェース126(例えば、ジェスチャ認識システムおよび/または音声認識システムなど)を通して臨床医10によって調節されてよい。
手順を実行するために、プロセッサ122は、メモリ装置上に格納されている適切な命令をロードしてよく、次いでロードされた命令を実行してよい。ディスプレイを通した患者14の上へのCBCT/MRI画像および/または口腔内画像の重ね合わせは、動的かつリアルタイムに行われてよく、追跡手段2と連携して機能するプロセッサ122によって達成されてよく、(i)患者14および(ii)臨床医10の位置の変化は、追跡手段2によって捕捉され、重ね合わされた画像が患者14の標的領域/部位14a(例えば、頬側口腔)上に直接重なって見えるように、対応する変化を重ね合わされた画像の位置に反映させてよい。ここで、重ね合わされた画像中に示された患者の内部構造間の空間的関係を様々な位置から見るために、臨床医10が頭を動かすことに応答して、プロセッサは、臨床医10に、インプラント切削手順に関連する患者特有の術前画像情報への直接かつ精密なアクセスを与えるCBCTデータ18と口腔内データ20での登録を提供するように構成されてよい。前述のインプラント切削手順についての指示は、プロセッサ122によって制御されてよく、任意選択でディスプレイ12上に示されてよく、(i)ハンドピース16のドリル24が重ね合わされた計画されたインプラントの位置32からそれた場合、視覚/デジタルまたは聴覚合図を活性化させること、(ii)ハンドピース16のドリル24が重ね合わされた計画されたインプラントの位置32からそれた場合、ハンドピース16を不活性化させること、(iii)重要な神経22(例えば、歯槽神経)からのドリル24の距離、およびインプラント配置に最適な骨質および骨量の領域をディスプレイに示し、前述の距離は、術前画像および追跡手段2からの動作データ(例えば、ドリル回転データ)から計算されることを含み得るが、これらに限定されない場合がある。インプラント切削手順の結果は、以下で論じる方法に記載されるようなさらなる設計のために、術後画像として追跡手段2および/またはカメラシステム3によって捕捉されてよい。
拡張現実誘導手術用のコンピュータシステム
拡張現実ポータルを使用することで、後続の計画手順に従った場合の結果も同時に捕捉し、歯科インプラント装置4の配置が容易になるシステム1について記載してきたが、次に、本明細書の例示的実施形態の少なくともいくつかに従って採用されてよいコンピュータシステム100のブロック図を示す図2を参照する。この例示的コンピュータシステム100に関して様々な実施形態が本明細書に記載されている場合があるが、本記載を読んだ後に、他のコンピュータシステムおよび/またはアーキテクチャを使用して本開示を実装する方法が当業者には明らかになるであろう。
本明細書の1つの例示的実施形態では、コンピュータシステム100は、少なくとも1つのコンピュータプロセッサ122を含んでよく、追跡手段2、ユーザインタフェース126、および入力ユニット130を含んでよい。入力ユニット130は、情報をコンピュータプロセッサ122に送信するために、コンピュータシステム100のユーザがモニタなどのディスプレイユニット128とともに使用することができる。本明細書の1つの例示的実施形態では、入力ユニット130は、タッチスクリーンインタフェース21で使用される指またはスタイラスである。あるいは、入力ユニット130は、ジェスチャ/音声認識装置、トラックボール、マウス、またはキーボードもしくはスタイラスなどの他の入力装置であってよい。一例では、ディスプレイユニット128、入力ユニット130、およびコンピュータプロセッサ122は、集合的にユーザインタフェース126を形成してよい。
コンピュータプロセッサ122としては、例えば、中央処理装置、多重処理装置、特定用途向け集積回路(「ASIC」)、フィールドプログラマブルゲートアレイ(「FPGA」)などが挙げられてよい。プロセッサ122は、通信インフラ124(例えば、通信バスまたはネットワーク)に接続されてよい。本明細書の実施形態では、プロセッサ122は、術前画像の登録が必要である、またはインプラント切削手順の治療計画が必要であるという要求を受信してよく、コンピュータシステム100のモデリングシステム152のメモリおよび/またはコンピュータシステム100の1つまたは複数のストレージユニットから、要求に関する命令を得てよい。次いで、プロセッサ122は、幾何学的に登録された画像を、臨床医10のディスプレイ12を通して治療部位上に重ね合わせるなどの命令をロードし、ロードされた命令を実行してよい。代替の実施形態では、コンピュータシステムは、拡張現実システムに基づいた投影を使用してよく、例えば、プロジェクタおよび深さセンサが、追跡手段2および/または患者14上のマーカー(例えば、隠しマーカー)とともに、術前画像および計画された治療位置を患者の標的部位14a(例えば、頬側口腔)上に直接投影してよい。ここで、拡張現実眼鏡などのディスプレイ12は必要ない場合がある。
ユーザインタフェース(または他の出力インタフェース)126は、ディスプレイユニット128(これは1つの例示的実施形態では、臨床医のディスプレイ12を形成するか、またはディスプレイ12に含まれてよい)上で表示するために、ビデオグラフィックス、テキスト、および他のデータを通信インフラ124(またはフレームバッファ(図示せず))から転送してよい。例えば、ユーザインタフェース126は、グラフィックス処理装置とともにビデオカードを含んでよい。
画像を重ね合わせるための1つまたは複数のステップは、コンピュータ可読プログラム命令の形態で非一時的ストレージ装置に格納されてよい。手順を実行するために、プロセッサ122は、ストレージ装置上に格納されている適切な命令をメモリにロードし、次いでロードされた命令を実行する。
図2のコンピュータシステム100は、ランダムアクセスメモリ(「RAM」)であってよいメインメモリ132をさらに備えてよく、二次メモリ134も含んでよい。二次メモリ134としては、例えば、ハードディスクドライブ136および/または取外し可能なストレージドライブ138(例えば、フロッピーディスクドライブ、磁気テープドライブ、光ディスクドライブ、フラッシュメモリドライブなど)が挙げられてよい。取外し可能なストレージドライブ138は、周知の方法で取外し可能なストレージユニット140から読み出し、かつ/またはそこに書き込んでよい。取外し可能なストレージユニット140は、例えば、取外し可能なストレージドライブ138によって書き込みおよび読み出し可能なフロッピーディスク、磁気テープ、光ディスク、フラッシュメモリ装置などであってよい。取外し可能なストレージユニット140は、コンピュータ実行可能なソフトウェア命令および/またはデータを格納する非一時的コンピュータ可読ストレージ媒体を含んでよい。
さらなる代替の実施形態では、二次メモリ134は、コンピュータ実行可能なプログラムまたはコンピュータシステム100にロードされる他の命令を格納する他のコンピュータ可読媒体を含んでよい。そのような装置としては、取外し可能なストレージユニット144およびインタフェース142(例えば、プログラムカートリッジおよびカートリッジインタフェース)、取外し可能なメモリチップ(例えば、消去可能プログラム可能読み出し専用メモリ(「EPROM」)またはプログラム可能読み出し専用メモリ(「PROM」))および関連するメモリソケット、ならびにソフトウェアおよびデータを取外し可能なストレージユニット144からコンピュータシステム100の他の部分に転送するのを可能とする他の取外し可能なストレージユニット144およびインタフェース142が挙げられてよい。
コンピュータシステム100は、ソフトウェアおよびデータをコンピュータシステム100と外部装置との間で転送するのを可能とする通信インタフェース146も含んでよい。そのようなインタフェースとしては、モデム、ネットワークインタフェース(例えば、イーサネットカードまたはIEEE 802.11無線LANインタフェース)、通信ポート(例えば、ユニバーサルシリアルバス(「USB」)ポートまたはFireWire(登録商標)ポート)、パーソナルコンピュータメモリカード国際協会(「PCMCIA」)インタフェース、Bluetooth(登録商標)などが挙げられてよい。通信インタフェース146を介して転送されるソフトウェアおよびデータは、信号の形態であってよく、この信号は、通信インタフェース146によって送信および/または受信することが可能であってよい電子信号、電磁信号、光信号、または別のタイプの信号であってよい。信号は、通信路148(例えば、チャネル)を介して通信インタフェース146に提供されてよい。通信路148は信号を搬送し、ワイヤまたはケーブル、光ファイバー、電話線、セルラーリンク、無線周波数(「RF」)リンクなどを使用して実装されてよい。コンピュータシステム100とリモートサーバまたはクラウドベースのストレージ(図示せず)との間でソフトウェアまたはデータまたは他の情報を転送するために、通信インタフェース146が使用されてよい。
1つまたは複数のコンピュータプログラムまたはコンピュータ制御論理は、メインメモリ132および/または二次メモリ134に格納されてよい。コンピュータプログラムはまた、通信インタフェース146を介して受信されてもよい。コンピュータプログラムは、コンピュータプロセッサ122によって実行されるとき、コンピュータシステム100に以下に記載されるような方法を実行させるコンピュータ実行可能な命令を含んでよい。
別の実施形態では、ソフトウェアは非一時的コンピュータ可読ストレージ媒体に格納され、取外し可能なストレージドライブ138、ハードディスクドライブ136、および/または通信インタフェース146を使用して、コンピュータシステム100のメインメモリ132および/または二次メモリ134にロードされてよい。制御論理(ソフトウェア)は、プロセッサ122によって実行されるとき、コンピュータシステム100、より一般的には、拡張現実誘導手術用のシステムに、本明細書に記載された方法のすべてまたはいくつかを実行させる。
本明細書に記載された機能を実行するための他のハードウェア構成の実装は、本記載を考慮すれば当業者には明らかであろう。
拡張現実誘導手術の方法
図2のコンピュータシステム100について記載してきたが、次に、拡張現実誘導手術の方法について、拡張現実を使用することで、修復物設計などの後続の計画手順に従って配置した場合の結果も同時に捕捉し、歯科インプラント装置4の配置が容易になる方法を示す図3~図4とともにさらに記載する。
方法は、複数のデジタルおよび物理入力データを使用することで、歯科インプラント4を容易に配置し提供することを含んでよい。
図3のステップS100で、一次術前画像を得てよい。画像は、患者14特有の歯の解剖学的構造または標的部位14aのX線走査18であってよい。この走査内で捕捉されるものは、骨密度、骨質、骨多孔率、関連する神経22の位置、隣接する歯の解剖学的構造、および歯科インプラント4に理想的な位置(計画されたインプラントの位置32)を決定するのに必要な他の目印であり得る。このデータは、CBCT、MRI、および/または2D X線撮像などの体積走査法を使用して捕捉されてよい。
ステップS200で、二次術前画像を得てよい。画像は任意選択であってよく、歯および歯茎の口腔内走査20などの基準面のセットを含んでよく、X線18に幾何学的に登録されてよい。
実施形態では、ステップS300で、さらに別の術前画像(三次入力)を得てよい。画像は、2次元または3次元顔面画像であってよく、処理ステップS400で一次および二次入力の両方に幾何学的に登録されてよい。画像は、必要に応じて基準点とともに取得されてよく、追跡手段2またはカメラシステム3による3D物体(例えば、目、鼻、頤など)または2Dパターン(例えば、サージカルスキンマーカーの印)の認識は、手術中、追加のナビゲーションウェイポイントとして使用されてよい。幾何学的登録は、異なる医用画像タイプにおける共通の特徴(例えば、CBCTおよび口腔内走査データ中のおおよその咬合平面、歯列弓咬合、歯肉/歯の解剖学的特徴、顔面の2Dまたは3D画像中の上下の唇の間など)を検出し、検出された特徴を使用して画像をスティッチングし、かつ/またはベストフィットアルゴリズム(反復最接近点アルゴリズムなど)によって登録を繰り返し改良することによって、手動でまたは自律的に達成されてよい。さらに、所定の基準マーカーが、幾何学的登録のための補助的な較正基準点として患者(皮膚上または口腔内など)に使用されてよい。結果として得られる医用画像/術前画像の完全に登録された「スタック」は、インプラント配置手順のさらなる計画および実行のための基準モデルとして使用されてよい。
プロセッサ122は、幾何学的登録に基づいて患者特有のインプラント配置プロトコルを提供するように構成されてよい。ここで、術前画像は相互に関連付けられ、X線走査18および/または口腔内走査20に含まれる情報(例えば、歯槽神経の位置、骨密度、隣接する歯の表面の相対位置など)に基づいて、計画されたインプラントの位置32に歯科インプラント4のための最適な切削孔を決定してよい(S450)。決定に必要とされ得る他の情報としては、インプラントの設計/ジオメトリ、インプラントの位置(高さ、角度、回転)、ならびに理想的な切開部位および切削プロトコルなどの外科手順の詳細が挙げられてよい。情報の1つまたは複数は、プロセッサ122に既に提供したか、またはプロセッサ122に提供されてよい。さらに、プロセッサ122は、前述の決定に必要な情報の1つまたは複数を決定するために、本明細書に記載された装置のいずれか、例えば、カメラシステム3、埋め込みセンサ26などを利用してよい。代替の実施形態では、臨床医10は、計画されたインプラントの位置32を変更または決定してよい。
手術プロセス中、プロセッサは、幾何学的に登録された画像をディスプレイ12上に表示するように構成されてよい(S500)。臨床医から見ると、画像は、標的部位14a上に重ね合わされていてよい。この重ね合わせは、患者が動いても画像が患者の標的部位上に直接重なって見えるように、追跡手段を使用して更新されてよい。これにより、臨床医10はリアルタイムでナビゲートされ、歯科インプラント4を計画されたインプラントの位置32に導いてよい。これはまた、任意の物理的誘導装置、またはナビゲーション手術手順で一般に使用されるような手術中の登録フラグの使用の必要性を取り除いてよい。
例示的実施形態では、ドリルの正確度を高めるために、ドリル24に対するインプラントの配向を、以下により詳細に記載されるようなツールナビゲーションの歯科環境に対するインプラントの配向に変換するように、埋め込みセンサ26がハンドピース16に組み込まれてよい。加えて、患者の歯列に対するハンドピース16の絶対配向を測定するために、カメラシステム3によって検出可能であってよい視覚的マーキングおよび特徴がハンドピース16に組み込まれてよい。埋入後の歯科インプラントの位置を確認するために、所定の特徴が、歯科インプラント4のヒーリングアバットメント(図示せず)の咬合面上に含まれてよい。拡張現実カメラを使用して、計画された位置32に対する最終的なインプラントの位置34が、修復物の設計のために得られてよい。
(a)歯科インプラント4を埋入するための切削孔を作り、かつ(b)インプラントを埋入するための、臨床医10へのナビゲーション指示は、ステップS600および図4に示すように、以下によって得られてよい:(i)ステップS602で、例えば、カメラシステム3(例えば、3D光学追跡システム)、および顔面の目印(例えば、鼻、口など)、および/または所定のマーカー(例えば、頬側口腔の軟組織上のインクマーカー、歯に取り付けられたマーカーなど)を使用して臨床環境(患者の頭、顔、口など)を追跡すること。(ii)ステップS604に示すように、ハンドピース26およびドリル24を追跡することであって、ここで、患者14に対するハンドピース16の位置は、ステップS606で追跡されてよく、ハンドピースに対するドリル24の位置は、ステップS608で得られてよく、臨床環境に対するドリル24の位置を得るために臨床環境に対するハンドピースの位置と組み合わされてよい(ステップS610)。(iii)ドリル24をナビゲートし、インプラント4を配置するための指示を提供すること(ステップS612)。ここで、臨床環境に対するドリル24の位置が分かると、(a)(計画されたインプラントの位置32でのインプラントの深さと比較した)切削深さの正確度を指示する、例えば赤色-黄色-緑色光、着色光、またはその他の光が、ディスプレイ12上に表示され得る視覚形態、(b)例えば言葉による合図または他の可聴音が、ドリル24をどこに動かすべきか、切削をいつ開始/停止するべきかを指示するように活性化される聴覚形態、(c)ツールが所定のドリル深さに近づくと、例えば振動要素(図示せず)の振動の強度が増減する触覚形態を含む1つまたは複数の形態で、ナビゲーション推奨がユーザに提供されてよい。本明細書の実施形態では、ハンドピース16は、切削の位置が計画されたインプラントの位置32から所定量(例えば、0.5~2mm)それた場合、またはドリルが損傷してはならない神経22に接近している場合、不活性化されてよい。
切削後、インプラント4は、インプラント4をインプラントドライバーツールに取り付け、インプラントドライバーをハンドピースに取り付け、インプラント4を所定の位置に詰め込むことによって切削孔に埋入されてよい。ステップS610から、ハンドピースに対するインプラントの位置は、インプラントドライバーの長さ/寸法を使用してプロセッサによって決定されてよい。臨床環境に対するハンドピースの位置も、患者およびハンドピースの継続中の追跡によって分かる。さらに、インプラントの内部嵌合ジオメトリの回転配向は、ドライバーのインプラント界面ジオメトリによって、インプラントドライバーの回転配向と相関する。同様に、インプラントドライバーの回転位置は、例えば、ハンドピース16中の回転式ポテンショメータで監視および記録されてよい。結果として得られる臨床データ、ハンドピース/構成要素ジオメトリデータ、ドライバージオメトリデータ、および/またはカメラシステム3からの術後画像を組み合わせることは、患者の歯列内で最終的なインプラントの位置34を定めるための情報を提供する(ステップS700、図3)。この位置データは、隣接する歯列および軟組織の最初の口腔内走査データ20と組み合わされ、最終的または一時的なアバットメント、クラウン、ヒーリングアバットメント、ブリッジ、および修復または美容目的で周囲の歯の解剖学的構造と相関させるためにインプラントの位置の把握を必要とし得る任意の他の装置などの、歯科修復物を設計するための入力として使用されてよい(ステップS800)。ここでは、最終的なインプラントの位置を決定するために、その他の方法では必要とされるような物理的印象はもはや必要ない場合があり、臨床医の職場で過ごす時間は短縮され得る。
さらに別の実施形態では、幾何学的に登録された画像は、患者14の上に重ね合わされない場合がある。代わりに、臨床医10は、例えば従来の手段によって、インプラント4を埋入してよく、埋入されたインプラント4の最終的な位置は、追跡手段2/カメラシステム3を使用して得られてよく、例えば、ハンドピース16中の埋め込みセンサ26および/または術後画像が採用されてよい。最終的なインプラントの位置が分かっているので、修復物の設計などの計画/設計プロセスは、物理的印象を採得する必要なく達成され得る。
上の記載を考慮すれば、本明細書に記載された例示的実施形態が、拡張現実を使用することで、修復物設計などの後続の計画手順に従って配置した場合の結果も同時に捕捉し、歯科インプラント装置4の配置が容易になる方法およびシステムを提供することが理解され得る。
特に定義されない限り、本明細書で使用されるすべての技術用語および科学用語は、本発明が属する当業者によって一般に理解されるのと同じ意味を有する。本明細書に記載されたものと同様または同等の方法および材料を本開示の実施または試験に使用することができるが、好適な方法および材料は上に記載されている。本明細書で言及されているすべての刊行物、特許出願、特許、および他の参考文献は、適用法および規則によって許容される程度までそれら全体が参照により組み込まれる。本開示はその趣旨または必須の特性から逸脱することなく他の特定の形態で具体化されてよく、したがって、本実施形態はあらゆる点で限定するものとしてではなく例示としてみなされることが望ましい。本記載の中で利用された任意の見出しは単に便宜上のものであり、法的または限定的効果を有しない。

Claims (17)

  1. システムが拡張視覚化を利用する方法であって、前記方法は
    前記システムに含まれるプロセッサが患者の1つまたは複数の術前画像を得ることと、
    前記プロセッサが前記1つまたは複数の術前画像中の共通の特徴または基準点に基づいて、前記1つまたは複数の術前画像を幾何学的に登録してまとめることと、
    前記プロセッサが計画されたインプラントの位置を含む治療計画を提供することと、
    前記プロセッサが前記幾何学的に登録された術前画像および/または前記計画されたインプラントの位置を、前記患者の標的領域上に直接重なって見えるように前記患者の上に重ね合わせることと、
    前記プロセッサが前記重ね合わされた幾何学的に登録された術前画像と前記計画されたインプラントの位置との間の位置関係に基づいて、切削孔を作るため、かつ/またはインプラントを埋入するためのナビゲーション指示を提供することと
    前記プロセッサが最終的なインプラントの位置を決定することと、
    前記プロセッサが前記最終的なインプラントの位置に基づいて修復物を設計することと、
    を含み、
    前記プロセッサは、前記最終的なインプラントの位置を、(i)前記患者の臨床環境を追跡することと、(ii)前記臨床環境に対するハンドピース位置を追跡することと、(iii)前記ハンドピース位置に対するドリル位置を追跡することと、(iv)前記臨床環境に対するドリル位置を得ることと、(v)前記インプラントを前記最終的な位置に打ち込むのに使用されるインプラントドライバーの寸法を得ることとによって決定する、
    方法。
  2. 前記重ね合わせは、ディスプレイを通して行われる、請求項1に記載の方法。
  3. 前記術前画像は、X線走査データ、口腔内走査データ、および/または顔面走査データを含む、請求項1に記載の方法。
  4. 前記幾何学的登録は、手動または自律的である、請求項1に記載の方法。
  5. 前記共通の特徴または基準点は、所定のマーカー、咬合平面、および/または歯の解剖学的特徴を含む、請求項1に記載の方法。
  6. 前記計画されたインプラントの位置についての情報は、前記インプラントに最適な穿孔を含む、請求項1に記載の方法。
  7. 前記幾何学的に登録された術前画像の位置および/または前記計画されたインプラントの位置を、追跡手段を使用して更新することをさらに含む、請求項1に記載の方法。
  8. 前記ナビゲーション指示は、視覚、聴覚、および/または触覚形態である、請求項1に記載の方法。
  9. 拡張視覚化を利用するシステムであって、前記システムは、
    患者の1つまたは複数の術前画像を得ることと、
    前記1つまたは複数の術前画像中の共通の特徴または基準点に基づいて、前記1つまたは複数の術前画像を幾何学的に登録してまとめることと、
    計画されたインプラントの位置を含む治療計画を提供することと、
    前記幾何学的に登録された術前画像および/または前記計画されたインプラントの位置を、前記患者の標的領域上に直接重なって見えるように前記患者の上に重ね合わせることと、
    前記重ね合わされた幾何学的に登録された術前画像と前記計画されたインプラントの位置との間の位置関係に基づいて、切削孔を作るため、かつ/またはインプラントを埋入するためのナビゲーション指示を提供することと
    を行うように構成された少なくとも1つのプロセッサを備え
    前記プロセッサは、
    最終的なインプラントの位置を決定することと、
    前記最終的なインプラントの位置に基づいて修復物を設計することと、
    前記最終的なインプラントの位置を、(i)前記患者の臨床環境を追跡することと、(ii)前記臨床環境に対するハンドピース位置を追跡することと、(iii)前記ハンドピース位置に対するドリル位置を追跡することと、(iv)前記臨床環境に対するドリル位置を得ることと、(v)前記インプラントを前記最終的な位置に打ち込むのに使用されるインプラントドライバーの寸法を得ることによって決定するように構成される、
    システム。
  10. 前記重ね合わせのために画像を受信するように構成されたディスプレイ装置をさらに備える、請求項に記載のシステム。
  11. 共通の座標系での画像および物体の精密な位置および配向のために、リアルタイムの位置データを提示するように構成された追跡手段をさらに備える、請求項に記載のシステム。
  12. 前記追跡手段は、センサベースおよび/または視覚ベースである、請求項11に記載のシステム。
  13. 前記術前画像は、X線走査データ、口腔内走査データ、および/または顔面走査データを含む、請求項に記載のシステム。
  14. 前記幾何学的登録は、手動または自律的である、請求項に記載のシステム。
  15. 前記共通の特徴または基準点は、所定のマーカー、咬合平面、および/または歯の解剖学的特徴を含む、請求項に記載のシステム。
  16. 前記計画されたインプラントの位置についての情報は、前記インプラントに最適な穿孔を含む、請求項に記載のシステム。
  17. 前記プロセッサは、前記ナビゲーション指示を、視覚、聴覚、および/または触覚形態で提供するようにさらに構成される、請求項に記載のシステム。
JP2021500050A 2018-07-05 2019-07-02 拡張現実誘導手術の方法およびシステム Active JP7336504B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862694127P 2018-07-05 2018-07-05
US62/694,127 2018-07-05
US16/110,511 US11357576B2 (en) 2018-07-05 2018-08-23 Method and system for augmented reality guided surgery
US16/110,511 2018-08-23
PCT/US2019/040220 WO2020010034A1 (en) 2018-07-05 2019-07-02 Method and system for augmented reality guided surgery

Publications (2)

Publication Number Publication Date
JP2021529618A JP2021529618A (ja) 2021-11-04
JP7336504B2 true JP7336504B2 (ja) 2023-08-31

Family

ID=67439423

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021500050A Active JP7336504B2 (ja) 2018-07-05 2019-07-02 拡張現実誘導手術の方法およびシステム

Country Status (7)

Country Link
US (1) US11357576B2 (ja)
EP (1) EP3817684B1 (ja)
JP (1) JP7336504B2 (ja)
KR (1) KR20210029196A (ja)
CN (1) CN112367941B (ja)
BR (1) BR112020026114B1 (ja)
WO (1) WO2020010034A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2955481B1 (fr) 2010-01-27 2013-06-14 Tornier Sa Dispositif et procede de caracterisation glenoidienne d'une omoplate a protheser ou a resurfacer
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
US11227509B2 (en) * 2014-12-29 2022-01-18 Help Me See Inc. Surgical simulator systems and methods
CN105395295B (zh) * 2015-11-24 2017-05-10 张海钟 一种用于口腔和牙齿治疗的机器人系统
EP3810013A1 (en) 2018-06-19 2021-04-28 Tornier, Inc. Neural network for recommendation of shoulder surgery type
US10980612B2 (en) * 2018-08-13 2021-04-20 Align Technology, Inc. Face tracking and reproduction with post-treatment smile
US10810416B2 (en) * 2018-12-14 2020-10-20 Palo Alto Reseach Center Incorporated Method and system for facilitating dynamic materialization for real-world interaction with virtual reality
DE102020201070A1 (de) * 2020-01-29 2021-07-29 Siemens Healthcare Gmbh Darstellungsvorrichtung
US20220168044A1 (en) * 2020-12-01 2022-06-02 August de Oliveira Augmented Reality Dental Display System and Method
CN112885436B (zh) * 2021-02-25 2021-11-30 刘春煦 一种基于增强现实三维成像的牙科手术实时辅助系统
CN113349927B (zh) * 2021-05-19 2022-11-22 上海交通大学 面部自体脂肪移植手术导航系统及虚拟刻度提示方法
CN113855288B (zh) * 2021-11-01 2023-05-05 杭州柳叶刀机器人有限公司 图像生成方法、装置、电子设备及存储介质
CN114098964A (zh) * 2021-11-19 2022-03-01 四川大学 一种无牙颌导航系统及方法
CN113855291B (zh) * 2021-12-01 2022-02-22 极限人工智能有限公司 种植体辅助规划方法、装置、电子设备及存储介质
CN113925633B (zh) * 2021-12-17 2022-02-25 极限人工智能有限公司 一种车针辅助导航及预警方法、装置、手术机器人
WO2023159104A2 (en) * 2022-02-16 2023-08-24 Monogram Orthopaedics Inc. Implant placement guides and methods
TWI777902B (zh) * 2022-03-11 2022-09-11 柯百俞 植牙之工作角度導引裝置及其方法
US20230338121A1 (en) * 2022-04-20 2023-10-26 Dentsply Sirona Inc. Camera-based guidance of dental instruments

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009116663A1 (ja) 2008-03-21 2009-09-24 Takahashi Atsushi 三次元デジタル拡大鏡手術支援システム
JP2010259497A (ja) 2009-04-30 2010-11-18 Osaka Univ 網膜投影型ヘッドマウントディスプレイ装置を用いた手術ナビゲーションシステムおよびシミュレーションイメージの重ね合わせ方法
JP2012527951A (ja) 2009-05-27 2012-11-12 ジェームス アール. グライドウェル デンタル セラミックス, インコーポレイティド 患者に特有の修復物をデジタル印象コーピングの口腔内走査から設計及び作製する方法
WO2015110859A1 (en) 2014-01-21 2015-07-30 Trophy Method for implant surgery using augmented visualization
WO2017144628A1 (en) 2016-02-26 2017-08-31 Trophy Guided surgery apparatus and method

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1356413A2 (en) 2000-10-05 2003-10-29 Siemens Corporate Research, Inc. Intra-operative image-guided neurosurgery with augmented reality visualization
US7813591B2 (en) * 2006-01-20 2010-10-12 3M Innovative Properties Company Visual feedback of 3D scan parameters
EP2322114A1 (en) * 2009-11-16 2011-05-18 Nobel Biocare Services AG System and method for planning a first and a second dental restoration
WO2012090211A1 (en) * 2010-12-29 2012-07-05 Santiago Jeevan Kumar Augmented reality computer model facebow system for use in dentistry
WO2015126466A1 (en) 2014-02-21 2015-08-27 The University Of Akron Imaging and display system for guiding medical interventions
JP6635929B2 (ja) * 2014-02-21 2020-01-29 トリスペラ デンタル インコーポレイテッド 拡張現実歯科設計方法およびシステム
US10154239B2 (en) 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
DE102015215587A1 (de) * 2015-08-14 2017-02-16 Nt-Trading Gmbh & Co. Kg Verfahren zum Herstellen eines Knochenersatzstücks
JP6063599B1 (ja) * 2016-08-01 2017-01-18 林 俊輔 インプラント手術補助システムおよびインプラント手術補助方法
US20180165818A1 (en) * 2016-12-13 2018-06-14 Ormco Corporation Methods and systems for registering multiple dental imageries
US10888399B2 (en) * 2016-12-16 2021-01-12 Align Technology, Inc. Augmented reality enhancements for dental practitioners
CN108210098A (zh) * 2018-01-16 2018-06-29 浙江工业大学 基于增强现实的人机协作机器人种牙方法及人机协作机器人种牙系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009116663A1 (ja) 2008-03-21 2009-09-24 Takahashi Atsushi 三次元デジタル拡大鏡手術支援システム
JP2010259497A (ja) 2009-04-30 2010-11-18 Osaka Univ 網膜投影型ヘッドマウントディスプレイ装置を用いた手術ナビゲーションシステムおよびシミュレーションイメージの重ね合わせ方法
JP2012527951A (ja) 2009-05-27 2012-11-12 ジェームス アール. グライドウェル デンタル セラミックス, インコーポレイティド 患者に特有の修復物をデジタル印象コーピングの口腔内走査から設計及び作製する方法
WO2015110859A1 (en) 2014-01-21 2015-07-30 Trophy Method for implant surgery using augmented visualization
WO2017144628A1 (en) 2016-02-26 2017-08-31 Trophy Guided surgery apparatus and method

Also Published As

Publication number Publication date
CN112367941A (zh) 2021-02-12
US20200008877A1 (en) 2020-01-09
EP3817684B1 (en) 2023-06-07
JP2021529618A (ja) 2021-11-04
US11357576B2 (en) 2022-06-14
KR20210029196A (ko) 2021-03-15
BR112020026114A2 (pt) 2021-03-16
CN112367941B (zh) 2023-03-31
BR112020026114B1 (pt) 2022-12-27
WO2020010034A1 (en) 2020-01-09
EP3817684A1 (en) 2021-05-12

Similar Documents

Publication Publication Date Title
JP7336504B2 (ja) 拡張現実誘導手術の方法およびシステム
JP5231350B2 (ja) 断面画像検出装置
US9936166B2 (en) Method for planning a dental treatment
EP1486900A1 (en) Method and system for manufacturing a surgical guide
CN108201470B (zh) 一种自主式种植牙机器人系统及其设备和方法
US20140221819A1 (en) Apparatus, system and method for surgical navigation
EP3689218B1 (en) Method and system for guiding an intra-oral scan
EP3903724B1 (en) Calibration method and device for dental implantology navigation surgeries
US20170231718A1 (en) System and Method for Guiding Medical Instruments
KR20160136330A (ko) 통합된 수술 계획 및 임플란트 준비를 위한 수술 로봇 시스템 및 관련 방법
JP6063599B1 (ja) インプラント手術補助システムおよびインプラント手術補助方法
EP3689287B1 (en) System for proposing and visualizing dental treatments
US20230355367A1 (en) Method for dynamically guiding a dental oral and maxillofacial prosthesis using a 3d dataset
KR20100116758A (ko) 표준화된 가이드 스탠트와 이를 이용한 임플란트 시스템 및 그 제어방법
KR102434755B1 (ko) 구강 스텐트와 일체로 형성된 마커
KR102486198B1 (ko) 실시간 영상유도를 이용한 임플란트 식립 가이드시스템
JP2024054010A (ja) 施術支援装置、施術支援方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220509

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230821

R150 Certificate of patent or registration of utility model

Ref document number: 7336504

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150