JP7189939B2 - 手術ナビゲーションシステム - Google Patents

手術ナビゲーションシステム Download PDF

Info

Publication number
JP7189939B2
JP7189939B2 JP2020512103A JP2020512103A JP7189939B2 JP 7189939 B2 JP7189939 B2 JP 7189939B2 JP 2020512103 A JP2020512103 A JP 2020512103A JP 2020512103 A JP2020512103 A JP 2020512103A JP 7189939 B2 JP7189939 B2 JP 7189939B2
Authority
JP
Japan
Prior art keywords
axis
augmented reality
visualization
vector
deviation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020512103A
Other languages
English (en)
Other versions
JP2020518423A (ja
JP2020518423A5 (ja
Inventor
ウズベク,クリストファー
ヴィンネ,クリスティアン
コスメッキ,バルトシュ
Original Assignee
ストライカー・ユーロピアン・オペレーションズ・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ストライカー・ユーロピアン・オペレーションズ・リミテッド filed Critical ストライカー・ユーロピアン・オペレーションズ・リミテッド
Publication of JP2020518423A publication Critical patent/JP2020518423A/ja
Publication of JP2020518423A5 publication Critical patent/JP2020518423A5/ja
Application granted granted Critical
Publication of JP7189939B2 publication Critical patent/JP7189939B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/368Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Gynecology & Obstetrics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Surgical Instruments (AREA)

Description

[関連出願]
本出願は、2017年5月5日に出願された欧州特許出願第17169700.6号の優先権及び利益を主張しており、その内容全体を引用することにより本明細書の一部を成すものとする。
[技術分野]
本開示は、概して、外科的処置をサポートする手術ナビゲーションシステムに関する。より詳細には、本開示は、限定するものではないが、概して、ホログラフィック手術ナビゲーションシステムに関する。
手術ナビゲーションシステムを含むコンピュータ支援手術が、医療分野において増える傾向にある。手術ナビゲーションシステムは、手術前画像及び/又は患者データと組み合わせて、医療手技を行うに当たって外科医をサポートするために、外科的処置中に利用される場合がある。そのため、脊椎、関節、及び/又は神経手術等の観血的であるが、侵襲が少ない外科的処置のために画像誘導手術ナビゲーションシステムが使用される。このような手術ナビゲーションシステムの目的は、外科医によって使用される手術器具の位置を特定することにあり、このような位置は、手術前画像及び/又は患者の人体構造に対応する患者データにおいて図解又は可視化することができる。患者に対する手術器具の正確な空間表現を与えるために、患者及び/又は手術器具の位置及び/又は向き(すなわち、姿勢)(いわゆる、ナビゲーションデータ)を連続的に検出する必要がある。
また、手術ナビゲーションシステムは、脊椎手術との関連において複数の椎骨を固定する椎弓根スクリューの位置及びアライメント(alignment)等のような医療デバイス又は埋込物の位置及び/又はアライメントを外科医に対して可視化することもできる。手術中に、手術ナビゲーションシステムは、外科医に可視化表示を提供することができ、外科医が、患者の画像又は視覚化表示上に厳密に投影される手術器具及び/又は医療デバイス/埋込物の位置のオーバーレイを確認できるようにする。
既存の解決策を考慮するとき、既知の手術ナビゲーションの解決策は、手術ナビゲーションシステムの誘導及び手術器具のアライメントに対して十分に対処していないことに留意されたい。既存の解決策のさらなる不都合は、視覚化表示が手術部位から切り離されて、外科医の注意が反れるのを余儀なくされることにある。
よって、これらの不都合に対処する新規の手術ナビゲーションシステムが必要とされている。
手術器具を位置合わせする手術ナビゲーションシステム及び方法の例示的な構成において、手術ナビゲーションシステムは、医療処置中に拡張現実可視化表示を提供するように構成することができる。概して、手術ナビゲーションシステムは、追跡ユニットを備えることができる。追跡ユニットは1つ以上の位置センサを備えることができる。手術ナビゲーションシステムは、ヘッドマウントディスプレイと、患者トラッカ(tracker)と、手術器具とをさらに備えることができ、これらの各々が、追跡ユニットの1つ以上の位置センサによって検出されるように構成される1つ以上の追跡部材又はマーカを備えることができる。追跡ユニットは、局所的な又は共通の座標系内でヘッドマウントディスプレイ、患者トラッカ、及び手術器具の位置及び/又は向き(姿勢)を連続的に追跡するように構成される。手術ナビゲーションシステムは、拡張現実可視化表示を生成し、かつヘッドマウントディスプレイのレンズ又は画面上に表示するために、ヘッドマウントディスプレイ、患者トラッカ、及び手術器具の位置及び/又は向きを患者データと整合させる(register、registration)ようにさらに構成することができる。拡張現実可視化表示は、患者データ上に重ね合わせられる手術器具及び/又は目標軌道軸を含むことができ、患者データは、患者の人体構造及び/又は目標物の手術前画像を含むことができる。目標物(複数の場合もある)は、計画された手術経路、埋込物、又は医療デバイスに関する計画された位置、及び/又は患者の人体構造の特徴を含むことができる。
拡張現実可視化表示は、位置アライメント可視化表示及び/又は角度アライメント可視化表示を含むことができる。3D又はホログラフィック可視化表示を生成するために可視化表示が外科医の視点から実際の患者に重ね合わされるように、ナビゲーションシステムは、位置アライメント可視化表示及び/又は角度アライメント可視化表示をヘッドマウントディスプレイ上に表示するように構成することができる。
拡張現実システムの別の例示的な構成において、拡張現実システムは、手術ナビゲーションシステムと、この手術ナビゲーションシステムによって追跡可能な患者トラッカと、上記手術ナビゲーションシステムによって追跡可能な手術器具とを備えることができる。拡張現実システムは、レンズと、拡張現実位置アライメント可視化表示を、目標軌道軸上の目標点からレンズ上の手術器具までの距離ベクトルの分解を含む2つの軸平行偏差ベクトル(axis-aligned deviation vector)として表示するように構成されるコントローラとを有するヘッドマウントディスプレイをさらに備えることができる。
拡張現実システムのさらなる別の例示的な構成において、拡張現実システムは、レンズを含むヘッドマウントディスプレイを備えることができる。また、拡張現実システムは、手術野等の画定された場所又は座標系内に位置決めされるいくつかの物体を追跡するように構成される追跡ユニットを有する手術ナビゲーションシステムを備えることもできる。また、拡張現実システムは、患者データに整合され、かつ上記手術ナビゲーションシステムによって追跡可能な患者トラッカと、上記手術ナビゲーションシステムによって追跡可能な器具トラッカを有する手術器具とを備えることができる。器具トラッカは、手術器具の器具軸を規定するように構成することができる。また、拡張現実システムは、拡張現実位置アライメント可視化表示を、ヘッドマウントディスプレイのレンズ上に表示するように、目標軌道軸上の目標点から手術器具上の点までの距離ベクトルの分解を含む2つの軸平行偏差ベクトルとして生成する構成であるコントローラを備えることができる。
拡張現実システムのさらなる別の例示的な構成において、手術ナビゲーションシステムは、患者トラッカ及び手術器具トラッカを備えることができる。手術ナビゲーションシステムは、患者データに基づいて、手術器具の先端を目標軌道軸と位置合わせするために、目標軌道軸を計画するように構成することができる。手術ナビゲーションシステムは、ヘッドマウントディスプレイトラッカを有するヘッドマウントディスプレイをさらに備えることができ、ヘッドマウントディスプレイは、目標軌道軸上の点から手術器具の先端までの距離ベクトルの分解を含む2つの軸平行偏差ベクトルを含む拡張現実位置アライメント可視化表示を表示するように構成される。ヘッドマウントディスプレイは、器具軸の第1の方向ベクトルと目標軌道軸の第2の方向ベクトルとの間の角度を表す偏差角を含む拡張現実角度アライメント可視化表示を表示するようにさらに構成することができる。
手術ナビゲーション情報を表示する例示的な方法が、目標軌道軸を含む手術計画を考慮に入れて、先端を有する手術器具を含む手術ナビゲーションシステムを備えるヘッドマウントディスプレイを含むことができる。その方法は、2つの軸平行偏差ベクトルを含む拡張現実位置アライメント可視化表示をヘッドマウントディスプレイ上に表示するステップを含むことができ、この2つの軸平行偏差ベクトルは第1のベクトル及び第2のベクトルを含み、第1のベクトル及び第2のベクトルは目標軌道軸上の点から手術器具の先端までの距離ベクトルの分解を表す。その方法は、ヘッドマウントディスプレイの視点から目標軌道軸に対する手術器具の相対的な場所を示すために、ヘッドマウントディスプレイ上に表示された拡張現実位置アライメント可視化表示を更新するステップをさらに含むことができる。
手術器具を位置合わせする別の例示的な方法が、手術ナビゲーションシステムを含むことができ、手術ナビゲーションシステムは、ヘッドマウントディスプレイの位置を追跡するように構成される追跡ユニットと、患者トラッカと、手術器具トラッカとを備える。手術ナビゲーションシステムは、患者トラッカに整合された患者データに基づいて、目標軌道軸を計画するようにさらに構成することができる。手術器具を位置合わせする方法は、ヘッドマウントディスプレイ上に、拡張現実位置アライメント可視化表示を、目標軌道軸上の点から手術器具の先端までの距離ベクトルの分解を含む2つの軸平行偏差ベクトルとして表示するステップを含むことができる。その方法は、ヘッドマウントディスプレイ上に、手術器具の軸の第1の方向ベクトルと目標軌道軸の第2の方向ベクトルとの間の角度を示す偏差角を含む拡張現実角度アライメント可視化表示を表示するステップをさらに含むことができる。その方法は、ヘッドマウントディスプレイの視点から目標軌道軸に対する手術器具の相対的な場所を示すために、追跡ユニットに基づいてヘッドマウントディスプレイ上に表示された拡張現実位置アライメント可視化表示及び/又は拡張現実角度アライメント可視化表示を絶えず更新するステップをさらに含むことができる。
ここで提案される装置及び方法の利点は、医療処置をより効果的に、より安全に、そしてより正確にすることにある。
本開示の利点は、添付の図面に関連して検討されるときに、以下の詳細な説明を参照することによりさらに深く理解されるので、容易に理解されよう。
ヘッドマウントディスプレイ及び手術追跡ユニットを備える手術ナビゲーションシステムの第1の構成を使用する外科医の斜視図である。 図1Aの手術ナビゲーションシステムに関する制御システムの概略図である。 患者トラッカが対象領域の近位で患者に結合される、図1Aの手術追跡ユニットの患者トラッカの斜視図である。 レンズ上に投影される拡張現実可視化表示が、仮想線で示される人体構造上に重ね合わせられる仮想画像を含む、図1Aのヘッドマウントディスプレイのレンズ上に投影される拡張現実可視化表示の第1の構成の概略図である。 レンズ上に投影される拡張現実可視化表示が、仮想線で示される人体構造上に重ね合わせられる仮想画像を含む、図1Aのヘッドマウントディスプレイのレンズ上に投影される拡張現実可視化表示の第2の構成の概略図である。 手術器具を含む、手術手技中にヘッドマウントディスプレイ上に描画されるような、例示的な拡張現実可視化表示の拡大図である。 患者トラッカ及び手術前画像のスライス部分を含む、手術手技中にヘッドマウントディスプレイ上でユーザによって観察されるような、第2の例示的な拡張現実可視化表示の拡大図である。 レンズ上に投影される拡張現実可視化表示が、表示ウィンドウ内に示される手術前データの仮想画像を含む、図1Aのヘッドマウントディスプレイのレンズ上に投影される拡張現実可視化表示の第3の構成の概略図である。 レンズ上に投影される拡張現実可視化表示が、手術前データの仮想画像を含む、図1Aのヘッドマウントディスプレイのレンズ上に投影される拡張現実可視化表示の第4の構成の概略図である。
図1A及び図1Bは、手術ナビゲーションシステム20の例示的な構成を示し、そのシステムは、追跡ユニット10と、ヘッドマウントディスプレイ30とを備えることができる。手術ナビゲーションシステム20は、複数椎骨固定の一部として椎弓根スクリューを挿入すること、又は脳腫瘍を除去すること等のような医療手技を実行する際に外科医を支援するために、外科医によって利用される場合がある。
手術ナビゲーションシステム20は、1つ以上のユーザ入力I及び1つ以上のディスプレイ22を含むナビゲーションインターフェースを備えることができる。ユーザ入力Iは、外科医が患者データを入力又は記入できるように構成することができる。患者データは、患者の人体構造の手術前画像等の患者画像を含むことができる。これらの画像は、患者の人体構造のMRIスキャン、放射線スキャン、又はコンピュータ断層撮影(CT)スキャンに基づくことができる。また、患者データは、実行される医療手技のタイプ、患者の人体構造の特徴、患者の特定の病状、及び/又は手術ナビゲーション設定のための動作設定に関連する付加情報を含むこともできる。例えば、脊髄手術を実行する際に、外科医は、ユーザ入力Iを介して、医療手技が実行されつつある特定の椎骨に関連する情報を入力することができる。また、外科医は、椎骨、及び/又は医療手技中に挿入されることになる医療デバイス又は埋込物の大きさ及び形状に関連する種々の解剖学的寸法を入力することもできる。
手術ナビゲーションシステム20のディスプレイ22は、種々のプロンプト又はデータエントリボックスを表示するように構成することができる。例えば、ディスプレイ22は、実行されることになる手術手技のタイプを外科医が手動で入力又は選択できるようにするテキストボックス又はプロンプトを表示するように構成することができる。また、ディスプレイ22は、手術前画像又はスキャン等の患者データを表示するように構成することができる。上記のように、手術前画像は、患者の人体構造のMRIスキャン、放射線スキャン、又はコンピュータ断層撮影(CT)スキャンに基づくことができる。手術前画像は、手術ナビゲーションシステムにアップロードし、ディスプレイ22上に表示することができる。ディスプレイ22は、患者データ又は画像上に重ね合わせられる医療手技に関する手術計画を表示するようにさらに構成することができる。手術計画は、医療手技を実行するための手術経路、又は医療処置中に医療器具に関して計画された軌道若しくは向きを含むことができる。また、手術計画は、医療手技中に挿入されることになる埋込物又は医療デバイスの位置及び/又は向きを患者データ又は画像上に重ね合わせることを含むことができる。
手術ナビゲーションシステム20はナビゲーションコントローラ80をさらに備えることができる。ナビゲーションコントローラ80は、パーソナルコンピュータ又はラップトップコンピュータとすることができる。ナビゲーションコントローラ80は、ユーザ入力I、ディスプレイ22、中央処理ユニット(CPU)及び/又は他のプロセッサ、メモリ(図示せず)、及び記憶装置(図示せず)と通信することができる。ナビゲーションコントローラ80は、手術ナビゲーションシステム20の動作に関連するソフトウェア及び/又は動作命令をさらに含むことができる。ソフトウェア及び/又は動作命令は、患者60との関連において手術器具50の正確な位置及び/又は角度アライメントを見つけるように構成される計画システムを含むことができる。ナビゲーションコントローラ80は、ヘッドマウントディスプレイと有線又はワイヤレス通信することができる。したがって、ヘッドマウントディスプレイ30は、ワイヤレス又は有線送受信機を備えることができる。
手術ナビゲーションシステム20は、追跡ユニット10をさらに備えることができる。追跡ユニット10は、追跡システム又はカメラユニットと呼ばれる場合もある。追跡ユニット10は、1つ以上の位置センサ14を収容する外部ケーシングを含むハウジング12を備えることができる。位置センサは、電荷結合素子(CCD)カメラ、CMOSカメラ、及び/又は光学画像カメラ等のカメラ、電磁センサ、磁気抵抗センサ、無線周波数センサ、又はナビゲーションマーカの位置を十分に検知するように構成される任意の他のセンサを含むことができる。いくつかの構成において、少なくとも2つの位置センサ14が利用される場合があり、好ましくは、3個又は4個の位置センサが利用される。例えば、位置センサ14は個別のCCDとすることができる。1つの構成では、3個の1次元CCDが利用される。2次元又は3次元センサを利用することもできる。他の構成では、それぞれが個別のCCDを、又は2つ以上のCCDを備える個別の追跡ユニット10を、手術室を囲むように配置することもできる。CCDは、赤外線(IR)信号等の光信号を検出する。
追跡ユニット10のハウジング12は、位置センサ(複数の場合もある)14を位置決めし直すことができるように、調整可能なスタンド又はアーム上に取り付けることができる。理想的には障害物がない手術野の最適な視界を与えるために、例えば、調整可能なスタンド又はアームは、位置センサ(複数の場合もある)14を位置決めし直すことができるように構成することができる。
追跡ユニット10は、光センサ14等の位置センサ14と通信し、光センサ14から信号を受信するように構成されるセンサコントローラ(図示せず)を備えることができる。センサコントローラは、有線接続及び/又はワイヤレス接続のいずれかを通して、ナビゲーションコントローラ80と通信することができる。1つのそのような接続は、高速通信及びアイソクロナスリアルタイムデータ転送用のシリアルバスインターフェース規格である、RS-232通信規格又はIEEE1394インターフェースとすることができる。また、接続は、企業特有プロトコル、UDP又はTCP等のネットワークプロトコルを使用することもできる。他の実施形態では、光センサ14は、ナビゲーションコントローラ80と直接通信するように構成することができる。
ナビゲーションコントローラ80を介して手術ナビゲーションシステム20と通信する追跡ユニット10を用いて、ヘッドマウントディスプレイ30、手術器具50、及び患者60又は対象領域62の相対位置を特定することができる。ヘッドマウントディスプレイ30、1つ以上の手術器具50、及び患者60の相対位置を利用するとき、手術ナビゲーションシステム20のナビゲーションコントローラ80は、それにより、拡張現実(AR)可視化表示を計算することができ、それは、患者60及びヘッドマウントディスプレイ30に整合させて、ヘッドマウントディスプレイ30内に表示することができる。
手術器具50は、追跡ユニット10の位置センサ14によって検出可能であるように構成される1つ以上の器具マーカ52を備えることができる。手術器具50は、光信号を位置センサ(複数の場合もある)14に送信する(例えば、追跡ユニット10から放出される光を反射する)受動追跡要素又は器具マーカ52(例えば、反射体)を備えるように構成することができる。代替的には、器具マーカ52は、位置センサ(複数の場合もある)14によって識別され、追跡可能である放射線不透過性(radio opaque)材料を含むことができる。他の構成では、能動追跡マーカを利用することができる。能動追跡マーカは、例えば、赤外光等の光を送信する発光ダイオードとすることができる。能動構成及び受動構成が可能である。手術ナビゲーションシステム20が手術器具50の位置及び向き(姿勢)を特定できるようにするために、器具マーカ52は他の器具マーカ52に対する規定された又は既に知られた位置及び向きに配置することができる。手術ナビゲーションシステム20が手術野等のような画定された空間内の手術器具50の先端54又は器具部分の位置及び/又は向きを特定できるようにするために、例えば、器具マーカ52は手術器具50に整合させることができる。
手術ナビゲーションシステム20は患者トラッカ40をさらに備えることができ、患者トラッカ40は、手術野等の空間内の患者60の位置を特定するように構成することができる。患者トラッカ40は、患者トラッカ40を患者60に固定するように構成される取付部材44を備えることができる。取付部材44は、クランプ、接着剤、ストラップ、ねじ式取付具、又は他の類似の取付デバイスを含むことができる。例えば、取付部材44は、患者60に固定されるように構成されるクランプを含むことができる。これは、クランプを利用して、患者60の対象領域62の近位の椎骨に患者トラッカ40を固定することを含むことができる。これは、追跡ユニット10が、脊髄手術中に患者の脊椎の位置及び/又は向きを特定できるようにする場合がある。代替的な取付部材44はストラップを含むことができ、ストラップは、患者の頭部を取り囲み、患者トラッカを患者の頭部に固定するように構成される。これは、追跡システムが、神経系外科手術中に患者の頭部の位置及び/又は向きを特定できるようにする場合がある。
患者トラッカ40は、追跡ユニット10の位置センサ14によって検出可能であるように構成される1つ以上の患者マーカ42をさらに備えることができる。患者トラッカ40は、光信号を位置センサ(複数の場合もある)14に送信する(例えば、追跡ユニット10から放出される光を反射する)受動追跡要素又は患者マーカ42(例えば、反射体)を備えるように構成することができる。代替的には、患者マーカ42は、位置センサ(複数の場合もある)14によって識別され、追跡可能である放射線不透過性材料を含むことができる。手術ナビゲーションシステム20が患者60及び/又は対象領域62の位置及び向き(姿勢)を特定できるようにするために、患者マーカ42は他の患者マーカ42に対する規定された又は既に知られた位置及び向きに配置することができる。他の構成では、能動追跡マーカを利用することができる。能動マーカは、例えば、赤外光等の光を送信する発光ダイオードとすることができる。能動構成及び受動構成が可能である。手術ナビゲーションシステム20が患者60及び/又は対象領域62の位置及び向き(姿勢)を特定できるようにするために、患者マーカ42は、他の患者マーカ42に対する規定された又は既に知られた位置及び向きに配置することができる。
図1A及び図1Bを参照すると、手術前、手術中、及び/又は手術後に可視化表示を向上させるために、ディスプレイ(複数の場合もある)22の1つ以上に加えて、又はその代わりとして、ヘッドマウントディスプレイ(HMD)30を利用することができる。HMD30は、ディスプレイ(複数の場合もある)22上に可視化されるように説明される同じ物体を可視化するために使用することができ、他の物体、特徴、命令、警告等を可視化するために使用することもできる。HMD30を用いて、医療手技に関連する目標物の位置を特定し、及び/又は可視化するのを支援することができる。また、HMD30を用いて、以下にさらに説明されるように、数ある用途の中でも、命令及び/又は警告を可視化することができる。
HMD30は、Microsoft Corporation社によって提供されるHOLOLENS(登録商標)とすることができ、それは拡張現実可視化表示又はコンピュータ生成画像を現実世界に重ね合わせられることに起因して、複合現実又は拡張現実HMDと呼ばれる。拡張現実への任意の参照が複合現実を含むことは理解されたい。したがって、本明細書において説明される構成において、HMD30は計算ホログラフィックディスプレイを提供する。現実世界のビデオ画像上にコンピュータ生成画像を重ね合わせるHMD等のような他のタイプの複合/拡張現実HMDを使用することもできる。HMD30は、陰極線管ディスプレイ、液晶ディスプレイ、液晶オンシリコンディスプレイ、又は有機発光ダイオードディスプレイを含むことができる。HMD30は、回折導波路、ホログラフィック導波路、偏光導波路、反射導波路、又は切替可能導波路を含むシースルー技法であって、本明細書において説明されるようなシースルー技法を含むことができる。
HMD30はヘッドマウント型構造体32を備え、それは眼鏡の形をとることができ、HMD30をユーザの頭部に保持する付加的なヘッドバンド38又は支持体を備えることができる。他の実施形態では、HMD30は、ヘルメット、又はユーザの頭、首、及び/若しくは肩に装着される他の構造体に組み込むことができる。
HMD30は、バイザー32と、レンズ/導波路36構成体とを有する。レンズ/導波路36の構成体は、HMD30がユーザの頭部に配置されるときに、ユーザの両目の前方に配置されるように構成される。導波路は、拡張現実可視化表示又は画像(コンピュータ生成画像、仮想画像、又はホログラフィック画像とも呼ばれる)をユーザの両目に送信し、その一方で、ユーザが現実物体及び仮想物体の両方を含む複合現実又は拡張現実を見るように、同時にレンズ/導波路36(透明である)を通して現実画像を見ることができるようにする。
図1Bを参照すると、HMD30は、手術ナビゲーションシステム20のナビゲーションコントローラ80と通信するように構成されるヘッドマウントディスプレイコントローラ(HMDコントローラ)180をさらに備えることができる。HMDコントローラ180は画像生成器を備えることができ、画像生成器は、拡張現実可視化表示を生成するように構成することができ、それらの可視化表示をレンズ/導波路36構成体を通してユーザに送信する。HMDコントローラ180は、HMD30のレンズ/導波路36の構成体への拡張現実可視化表示の送信を制御することができる。HMDコントローラ180は、HMD30から離れて位置する別のコンピュータとすることができる。代替的には、HMDコントローラ180は、HMD30のヘッドマウント型構造体32に組み込むことができる。HMDコントローラ180は、メモリ、1つ以上のプロセッサ(例えば、マルチコアプロセッサ)、入力I、出力デバイス(HMD30に加えて固定ディスプレイ)、記憶能力等を備えるラップトップコンピュータ、デスクトップコンピュータ、マイクロコントローラ等とすることができる。
HMD30は、追跡ユニット10の位置センサ(複数の場合もある)14によって検出可能であるように構成される1つ以上のヘッドマウントディスプレイマーカ又はHMDマーカ34を備える。HMD30は、光信号を位置センサ(複数の場合もある)14に送信する(例えば、追跡ユニット10から放出される光を反射する)受動追跡要素又はHMDマーカ34(例えば、反射体)を備えるように構成することができる。代替的には、HMDマーカ34は、位置センサ(複数の場合もある)14によって検出可能であり、追跡可能である放射線不透過性材料を含むことができる。他の構成では、能動追跡マーカを利用することができる。能動マーカは、例えば、赤外光等の光を送信する発光ダイオードとすることができる。能動構成及び受動構成が可能である。手術ナビゲーションシステム20が手術野等の画定されたエリア内のHMD30の位置及び向き(姿勢)を特定できるようにするために、HMDマーカ34は他のHMDマーカ34に対する規定された又は既に知られた位置及び向きに配置することができる。
また、HMD30は、HMDコントローラ180と通信する光学及び/又はビデオカメラ170を備えることができる。カメラ170を用いて、HMD30とともに写真又はビデオ画像を入手することができ、後にさらに説明されるように、それは物体又は物体に取り付けられるマーカを識別する際に役に立つ可能性がある。
HMD30は、HMDコントローラ180と通信する慣性測定ユニット(IMU)176をさらに備えることができる。IMU176は、HMD座標系内のHMD30の位置及び/又は向きを特定するのを支援するか、又は他の座標系に対する追跡を支援する1つ以上の3D加速度計、3Dジャイロスコープ、及び他のセンサを備えることができる。また、HMD30は、ユーザからのジェスチャーコマンドを認識する赤外線運動センサを備えることができる。他のタイプのジェスチャーセンサも考えられる。ユーザのジェスチャーコマンドを判断し、それに応じて、HMD30、HMDコントローラ180、及び/又はナビゲーションコントローラ80を制御するために、赤外線運動センサ178がユーザの手、指、又は他の物体を検知できるように、赤外線運動センサ178はHMD30の前方に赤外光又は他の光を投光するように構成することができる。
図1AはHMD30を装着する1人の個人又は外科医のみを含むが、複数のHMD30を手術ナビゲーションシステム20と通信するように構成できることもさらに考えられる。例えば、手術チーム全員がHMD30を装着することができる。ポイントオブビュー(POV)ビデオストリーム解析又はより簡易なコンテキストアウェアネス機構(例えば、感覚ベースフィードバック、隔離されたセンサからの入力に基づくヒューリスティックス等)を通して、POVビデオを提供するためにビデオカメラ170がHMD30に組み込まれる構成等のようないくつかの構成において、手術状況のコンピュータベースモデルが、関係者特有の複合/拡張現実支援を提供し、現在の作業が個々の関係者によって実行されるのを容易にすることができるか、又は手術手技若しくは医療手技に対する次の貢献の準備をするのを助けることができる。
1つの構成において、医療手技のコンテキスト情報とともに、2人以上の関係者及びそのHMD30同士をリンクすることができる。現在のPOVを共有することによって、又はより本質的には、いずれかの関係者によって任意の所与の時点において対処される対象物を共有することによって、関係者をリンクすることができる。この構成の範囲内で、第1の関係者が自らの個人POVを第2の関係者のPOVに向けるのに応じて、複合/拡張現実支援の表示を通して、第1の関係者は第2の関係者の状況に関する自らの個人的評価を向上させることができる。第1の関係者が最適化の機会、又は計画された医療手技を変更する機会を実現するとき、異なる関係者又は手術環境との適切な相互交流を行うことができる。このインタラクションは、第1の関係者によって直接実行することができるか、又は複合/拡張現実支援若しくは他のコンピュータ支援補助を通して容易にすることができ、この支援は、第2の関係者の行動指針をサポートするために、自動的に生成又は第1の関係者によって作成することができる。
図2を参照すると、HMD30のレンズ36を通して、ユーザによって認知されるような対象領域62の拡張現実可視化表示の例示的な表現が示される。図2に示されるように、患者トラッカ40を、取付部材44を介して患者60に結合又は固定することができる。これにより、レンズ36を通して視認されるような患者60の現実部分上に画像の仮想部分を適切に重ね合わせることができるように、レンズ36上に適切な拡張現実可視化表示を生成し、方向を合わせるために、追跡ユニット10がHMD30に対する患者60及び/又は対象領域62の位置及び/又は向きを識別できるようになる。図1A及び図2には単一の患者トラッカ40のみが示されるが、患者60に追加の患者トラッカ40を結合するか又は取り付けることができることもさらに考えられる。追加の患者トラッカ40を使用することによって、患者60及び/又は対象領域62の複数の部分の位置及び/又は動きを追跡できるようになる場合がある。また、複数の患者トラッカ40を使用することよって、患者60及び/又は対象領域62の位置及び/又は動きを追跡する精度を高めることができる。
対象領域62の拡張現実可視化表示は、拡張現実境界可視化表示、及び/又は拡張現実テキストラベルによる複合境界の両方を含むことができる。例えば、図2に示されるように、拡張現実境界可視化表示は、レンズ36を通して患者60の実際の脊椎を観察するときにユーザによって視認されるような立方体であって、HMD30のレンズ36上に投影又は表示されるような個々の椎骨を包囲する立方体として示される。拡張現実境界可視化表示は、L1等の拡張現実テキストラベルによって、HMD30のレンズ36上でユーザによってさらに識別される場合がある。例えば、図2に示されるように、「L1」は、拡張現実境界可視化表示によって包囲される特定の椎骨を識別するために、HMD30のレンズ36上に投影される拡張現実可視化表示内に含まれる。図2には、単一の拡張現実テキストラベルのみが示されるが、HMD30のユーザに対してさらなる特徴又は物体をラベル付け及び/又は識別するために、複数の追加の拡張現実テキストラベルが拡張現実可視化表示の一部として含まれる場合があることは理解されたい。
図3を参照すると、HMD30のレンズ36を通してユーザによって認知されるような拡張現実可視化表示のさらなる構成が示される。図3に示される例示的な構成では、ユーザが、HMD30のレンズ36を通して患者60の頭部の一部を視認している。例えば、図3は、腫瘍を除去する等のような神経外科手技を実行している外科医によって視認される拡張現実可視化表示を表す場合がある。レンズ36内で、仮想線で示される、すなわち、点線を使用して示されるアイテムは、ユーザによって視認される場合がある実際の特徴物を表す。これは、患者60の頭部の一部と、切開部位すなわち対象領域62とを含むことができる。また、ユーザは、HMD30のレンズ36を通して、患者トラッカ40、取付部材44、及び/又は患者マーカ42の一部を見ることができる場合がある。
HMD30のユーザは、実線を用いて図3のレンズ36内に示される、いくつかの拡張現実可視化表示を観察することもできる。1つのそのような拡張現実可視化表示は、医療手技に関連する単一の点形ランドマークを表す目標物を含むことができる。例えば、図3に示されるように、目標物130は、腫瘍又は臓器等のアイテムであって、医療手技中に手術されることになる患者60内のアイテムを表すことができる。代替的には、目標物230は、後に詳細に論じられる医療デバイス又は埋込物であって、医療手技中に患者60内に挿入されることになる医療デバイス又は埋込物を表すことができる。
また、拡張現実可視化表示は、目標軌道軸210を含むことができる。目標軌道軸210は、計画された又は意図した手術経路を表すことができる。例えば、目標軌道軸210は、医療手技の実行中に手術器具50を位置合わせし及び/又は挿入するための最適な又は好ましい角度又は方向を表すことができる。目標軌道軸210は、目標物130,230、及び対象領域62の近位の入口点又は挿入点を接続する実線又は破線によって規定することができる。
拡張現実可視化表示は、拡張現実ウィンドウ、インジケータ、又はテキストボックス310をさらに含むことができる。拡張現実ウィンドウ310は、HMD30のレンズ36上に表示されるウィンドウを含むことができる。拡張現実ウィンドウ310は、手術前画像又はスキャン等の患者データを表示するように構成することができる。また、拡張現実ウィンドウ310は、医療手技を実行するときにユーザが知っておきたい場合があるアイテムであって、神経、臓器又は類似の要素等のような任意の不可欠なアイテムを識別することを含む、計画された手術手技の画像を表示するように構成することができる。例えば、患者60の椎骨にスクリューを挿入するときに、その画像は、回避すべき神経末端を含むことができる。また、拡張現実ウィンドウ310は、医療手技に関連するテキスト又は指示を含むことができる。例えば、拡張現実ウィンドウ310は、患者60の病状に特有の事実等のように、医療手技に関連する注記を含むことができる。代替的には、拡張現実ウィンドウ310は、患者60、対象領域62、目標物130,230、及び/又は目標軌道軸210から、手術器具50が存在する距離に関連する情報のテキストを含むこともできる。
また、拡張現実可視化表示は、HMD30のレンズ36上に表示されることになる1つ以上の制御ボタン320,322,324を含むことができる。1つ以上の制御ボタン320,322,324は、レンズ36上に表示される拡張現実可視化表示をユーザが操作できるように構成することができる。例えば、ユーザは、上記のように、手及び/又は顔によるジェスチャー又は動きを用いて、制御ボタン320,322,324のうちの1つを選択又は起動することができる。制御ボタン320,322,324は、レンズ36上の拡張現実可視化表示のコントラスト、透明度、及び/又は色を調整するように構成することができる。また、制御ボタン320,322,324を用いて、レンズ36上に表示される情報を操作又は拡張することもできる。例えば、制御ボタン320,322,324は、拡張現実ウィンドウ310内に表示される患者データ上でズームイン及び/又はズームアウトするように構成することができる。これは、ユーザが目標物130,230の近位のエリアをより良好に可視化できるようにするために、患者60の手術前画像又はスキャン上でズームインすることを含むことができる。制御ボタン320,322,324は、患者データの画像を回転又は移動させるようにさらに構成することができる。これは、患者60上の拡張現実可視化表示のユーザの視界を遮断するか、又は妨げるのを防ぐために、拡張現実ウィンドウ310がレンズ36上に表示される位置及び/又は場所を移動させることを含むことができる。
図4は、手術器具50を含み、かつHMD30のレンズ36を通してユーザによって認知される拡張現実可視化表示の別の構成を含む。上記の例と同様に、拡張現実可視化表示は、目標軌道軸210、目標物130、拡張現実ウィンドウ310、及び/又は制御ボタン320,322,324を備えることができる。しかしながら、拡張現実可視化表示は器具軸240をさらに備えることができる。器具軸240は、手術器具50の先端54において開始し、手術器具50の垂直軸に沿って先端54から延在する線によって規定することができ、垂直線は概して手術器具50を二等分する。例えば、図4に示されるように、器具軸240は、手術器具50の先端54において開始し、手術器具50を二等分する縦線に対して概ね平行に延在する線によって規定される。また、器具軸54は、手術器具50の端部又は先端54を越えて突き出すこともできる。
図4に示される拡張現実可視化表示は、拡張現実位置アライメント可視化表示220をさらに備える。拡張現実位置アライメント可視化表示220は、目標軌道軸210上の点から手術器具50の先端54又は手術器具50上の他の部分までの距離ベクトルの分解を含む、2つの軸平行偏差ベクトル222,224を含む。軸平行は、基準座標系の3つの主軸のうちの1つに平行になるように向けられる偏差ベクトル(複数の場合もある)222,224を表す線(複数の場合もある)を指すことができる。通常、第1の偏差ベクトル222は、基準座標系の第1の軸に平行に向けることができ、第2の偏差ベクトル224は、基準座標系の第2の軸に平行に向けることができる。例えば、2つの軸平行偏差ベクトル222,224は、x軸に平行になるように向けられる第1の偏差ベクトル222を表す線、及び基準座標系のy軸に平行になるように向けられる第2の偏差ベクトル224を表す線を指すことができる。基準座標系はHMD30、患者トラッカ40、手術器具50、追跡ユニット10、ユーザの視線、又は手術野内の何らかの他の点に対して規定することができる。
第1の偏差ベクトル222及び第2の偏差ベクトル224を表す線は、原点において交わるように構成することができ、第1の偏差ベクトル222及び第2の偏差ベクトル224は、互いに概ね垂直になるように位置決めされる。第1の偏差ベクトル222及び第2の偏差ベクトル224の原点は、目標軌道軸210上に、又は目標軌道軸210に沿って、位置決めし、及び/又は位置することができる。代替的には、第1の偏差ベクトル222及び第2の偏差ベクトル224の原点は、手術器具50の先端54の近位に位置決めし、及び/又は位置することができる。さらなる別の構成では、第1の偏差ベクトル222及び第2の偏差ベクトル224の原点は、拡張現実ウィンドウ310内に位置決めし、及び/若しくは位置することができるか、又はヘッドマウントディスプレイ30のレンズ36上に浮いていることができる。
第1の偏差ベクトル222は、目標軌道軸210及び/又は目標物130に対する手術器具50の先端54の横方向及び/又は水平位置によって規定することができる。第2の偏差ベクトル224は、目標軌道軸210及び/又は目標物130に対する手術器具50の先端54の縦方向及び/又は垂直位置によって規定することができる。第1の偏差ベクトル222及び/又は第2の偏差ベクトル224の大きさ及び/又は長さは、それぞれの偏差ベクトル222又は224の方向における目標軌道軸210に対する手術器具50の距離又は偏差を示すことができる。例えば、第1の偏差ベクトル222又は第2の偏差ベクトル224を表す線が長いほど、手術器具50が目標軌道軸210から離れて位置決めされている場合がある。代替的には、第1の偏差ベクトル222又は第2の偏差ベクトル224を表す線が短いほど、手術器具50が目標軌道軸210から近くに位置決めされている。また、第1の偏差ベクトル222又は第2の偏差ベクトル224を表す線の欠如は、手術器具50が不在の偏差ベクトル222,224に対応する方向において適切に位置決めされている、及び/又は位置合わせされていることを示すと考えられる。2つの軸平行偏差ベクトル222,224は、ユーザが目標軌道軸210及び/又は目標物130に対して手術器具50を正確に位置決めし、及び/又は位置合わせするのを助けることができる。例えば、拡張現実位置アライメント可視化表示220を構成する2つの軸平行偏差ベクトル222,224は、目標軌道軸210に対する手術器具50の相対的な場所をユーザに知らせるように構成される。
拡張現実可視化表示における種々の構成の各々にて、拡張現実可視化表示は、ユーザがさらなる細部を確認できるように拡大することができる。また、拡大することにより、ユーザがより小さな偏差を確認できるようになる場合がある。図4を参照すると、拡張現実位置アライメント可視化表示220の2つの軸平行偏差ベクトル222,224は、ユーザがより小さな偏差を確認できるように、その大きさを決定し、及び/又は伸長することができる。例えば、第1の偏差ベクトル222及び/又は第2の偏差ベクトル224の長さはK倍だけ伸長することができ、目標軌道軸210と手術器具50の先端54との間の2ミリメートルの小さな偏差を、レンズ36上に表示される第1の偏差ベクトル222及び/又は第2の偏差ベクトル224を表す1インチ長の線によって表すことができる。
別の例において、図4に示される2つの軸平行偏差ベクトル222,224への距離ベクトルの分解は、目標軌道軸210に対して最も大きな角度を成す3つの主患者軸のうちの2つから、又は、目標軌道軸210に対して垂直な平面上に投影され、かつ手術器具54の先端54から目標軌道軸210上の最も近い点に結合される視線軸、及び投影される視線軸に対する同じ平面内の垂直ベクトルから導出される2つの固有ベクトルに基づいて行うことができる。拡張現実位置アライメント可視化表示220を構成する2つの軸平行偏差ベクトルへの距離ベクトルの分解は、2つの固有ベクトルに基づいて計算することができる。例えば、2つの固有ベクトルは、目標軌道軸210に対して最も大きな角度を成す患者座標系の3つの主患者軸のうちの2つに基づくことができる。患者座標系の主患者軸は、患者トラッカ40に以前に整合された3D画像データセット等の患者データから導出することができる。代替的には、2つの固有ベクトルは、外科医のための拡張現実位置アライメント可視化表示220の一部として第1の偏差ベクトル222及び/又は第2の偏差ベクトル224の識別性を高めることを意図して、ユーザの視線によって規定される基準座標系に基づくことができる。これは、ユーザの視認方向が目標軌道軸210に対して概ね垂直である場合に役に立つ場合がある。基準座標系は、目標軌道軸210に対して垂直であり、手術器具50の先端54から目標軌道軸210上の最も近い点に結合される平面、及び外科医の視線から導出することができる。また、2つの固有ベクトルが、患者座標系の主患者軸と、ユーザの視線によって規定される基準座標系との両方の組み合わせに基づくことができることも考えられる。
1つの構成において、手術器具50と目標軌道軸210との間の距離は、目標物130,230と目標軌道軸210の入口点とを接続する線分と、目標物130,230と目標軌道軸210の入口点とを接続する線と、目標物130,230又は目標軌道軸210の入口点とからなる群から選択される少なくとも1つの場所への手術器具50の先端54の距離に基づいて計算される。
図5を参照すると、HMD30のレンズ36越しに見ているユーザの視点からの拡張現実可視化表示の別の構成が示される。図4に関して上記のように、拡張現実可視化表示は、拡張現実位置アライメント可視化表示220を含むことができる。また、拡張現実可視化表示は、拡張現実角度アライメント可視化表示200を含むことができる。拡張現実角度アライメント可視化表示200は、器具軸240からオフセットされ、器具軸240に平行な軸を表す第1の角度ベクトル204と、目標軌道軸210を表す第2の角度ベクトル202との間の角度を表す偏差角206を含むことができる。例えば、拡張現実角度アライメント可視化表示200は、手術器具50の器具軸54からオフセットされ、器具軸に平行である軸を表す第1の角度ベクトル204、及び目標軌道軸210を表す第2の角度ベクトル202として示される。第1の角度ベクトル204及び第2の角度ベクトル202は、第1の角度ベクトル204と第2の角度ベクトル202との間の偏差角206を表す円弧によって接続することができる。これは、目標軌道軸210と器具軸54との間の偏差角206を表すことができる。上記のように、目標軌道軸210は、目標物130,230と、対象領域62の近位の入口点又は挿入点とを接続する線によって規定することができる。例えば、図5に示されるように、目標物230は、計画された位置において患者に重ね合わせられるスクリューの画像を含むことができる。これは、患者60の椎骨の中に挿入されることになるスクリュー230の重ね合わせられた画像を含むことができる。拡張現実可視化表示は、上記のように、拡張現実ウィンドウ310をさらに備え、拡張現実ウィンドウ310は、第1の角度ベクトル204と第2の角度ベクトル202との間の偏差角206を識別するラベル、テキスト、又は類似の指示を含む。例えば、拡張現実ウィンドウ310は、拡張現実角度アライメント可視化表示200の近位に位置決めし、偏差角206を識別するテキストラベルを表示するように構成することができる。拡張現実ウィンドウ310内に表示されるテキストラベルは、「30度」、「1ラジアン」、又は類似の角度測定値を含むことができる。
別の例において、偏差角206の可視化表示は、器具軸240、目標軌道軸210、並びに器具軸240及び目標軌道軸210の両方の基端を接続する円弧の位置補正拡張現実可視化表示、又は位置補正拡張現実可視化表示の軸測投影を含む。軸測投影は、3次元物体の平面画像を生成する画法幾何学に属する図式化手順である。「軸測投影」という用語は、「軸に沿って測定すること」と定義することができ、座標軸の寸法及び伸縮が重要であることを示すことができる。軸測投影手順の結果は、物体の均等に拡縮された平行投影である。
図5に示される例示的な構成において、目標物230は、患者60の椎骨内に挿入されることになるスクリューに関する計画された場所の拡張現実可視化表示を含み、第2の角度ベクトル202は、識別された場所においてスクリューを挿入するための目標軌道軸210の向きを表す。目標物230の拡張現実可視化表示は、現実の手術目標が外科医の視界から隠されている状況にあるときに、空間認識を高める。さらに、目標物230に対する手術器具50の器具軸240を表す第1の角度ベクトル204と、目標軌道軸210を表す第2の角度ベクトル202とを接続する偏差206を表す円弧は、第1の角度ベクトル204と第2の角度ベクトル202との間の角度206の偏差を補正するための近似の視覚的合図をユーザに与える。
また、拡張現実角度アライメント可視化表示200は、ユーザが偏差角206のより小さな偏差をより容易に確認できるように拡大することもできる。例えば、図5に示されるように、第1の角度ベクトル204を表す線の長さ及び/又は第2の角度ベクトル202を表す線の長さは、第1の角度ベクトル204及び第2の角度ベクトル202を表す線を誇張し、ユーザが円弧によって表される偏差角206のより小さな偏差をより容易に確認できるようにするために、K倍だけ伸長することができる。第1の角度ベクトル204を表す線及び/又は第2の角度ベクトル202を表す線の伸長は通常、第1の角度ベクトル204の可視化される長さ及び/又は第2の角度ベクトル202を表す線の長さが数センチメートルに対応するように選択される。椎弓根スクリュー等の目標物130,230の追加の可視化表示の場合に、第1の角度ベクトル204及び/又は第2の角度ベクトル202を表す線の長さは、この目標物130,230の長さ/大きさにも依存することができる。また、伸長は、第1の角度ベクトル204を表す線及び/又は第2の角度ベクトル202を表す線を長くするために、第1の角度ベクトル204を表す線及び/又は第2の角度ベクトル202を表す線を伸長することを含むことができる。代替的には、これは、第1の角度ベクトル204を表す線及び/又は第2の角度ベクトル202を表す線を短くし、レンズ36上の拡張現実角度アライメント可視化表示200の大きさを縮小するために、第1の角度ベクトル204を表す線及び/又は第2の角度ベクトル202を表す線を短縮することを含むこともできる。これは、拡張現実角度アライメント可視化表示200が、ユーザの視界を遮断するか、又は妨げるのを防ぐことができる。
別の例において、偏差角206の分解は、目標軌道軸210に対して最も大きな角度を成す3つの主患者軸のうちの2つから、又は、目標軌道軸210に対して垂直な平面上に投影され、かつ手術器具50の先端54から目標軌道軸210上の最も近い点に結合される視線軸、及び投影される視線軸に対する同じ平面内の垂直ベクトルから導出される2つの固有ベクトルに対して拡縮することができる。上記のように、2つの固有ベクトルは、目標軌道軸210に対して最も大きな角度を成す患者座標系の3つの主患者軸のうちの2つに基づくことができる。代替的には、2つの固有ベクトルは、外科医のための拡張現実位置アライメント可視化表示220の一部として第1の偏差ベクトル222及び/又は第2の偏差ベクトル224の識別性を高めることを意図して、ユーザの視線によって規定される基準座標系に基づくことができる。これは、ユーザの視認方向が目標軌道軸210に対して概ね垂直である場合に役に立つ場合がある。
さらに、上記の拡張現実可視化表示の種々の構成は、ユーザが種々のタイプの拡張現実可視化表示を区別できるようにするハイライト(highlight、強調)表示及び/又は着色方式を含むことができることは理解されたい。例えば、拡張現実位置アライメント可視化表示220は、HMD30のレンズ36上に第1の色において表示することができ、拡張現実角度アライメント可視化表示200は、HMD30のレンズ36上に第2の色において表示することができる。第1の色及び第2の色は、互いに区別可能であるように選択することができる。拡張現実可視化表示の種々の特徴又は要素に関する区別可能な色及び/又は異なる色は、白色点の周りの色度空間内の交互の色を等距離に配置し、外挿によってその主波長を選択することによって、軌道の基調色から選択することができる。色は、黄色、ピンク、緑色、及びシアンを含む群から選択される高輝度の補色から選択することができる。図5を再び参照すると、非限定的な例において、拡張現実位置アライメント可視化表示220の第1の偏差ベクトル222及び第2の偏差ベクトル224は、HMD30のレンズ36上に紫色の線として表示することができる。対照的に、拡張現実角度アライメント可視化表示200の第1の角度ベクトル204及び第2の角度ベクトル202は、HMD30のレンズ36上に青色又はシアンの線として表示することができる。目標軌道軸210を他の可視化表示から区別するために、異なる色を同様に使用することができる。例えば、目標軌道軸210は、HMD30のレンズ36上に黄色の線として表示することができる。種々の拡張現実可視化表示を互いに区別するために、種々の拡張現実可視化表示ごとに色の任意の組み合わせを利用できることも考えられることは理解されたい。
上記の拡張現実可視化表示は、各拡張現実可視化表示の透明度及び/又は不透明度を変更することによってHMD30のレンズ36上に表示されるように区別可能にすることもできる。例えば、拡張現実位置アライメント可視化表示220をHMD30のレンズ36上に不透明な線で表示することができ、拡張現実角度アライメント可視化表示200をHMD30のレンズ36上に少なくとも部分的に透明な線として表示することができるか、又は完全に見えなくすることができるように、拡張現実可視化表示を構成することができる。別の例において、拡張現実可視化表示は複数の軌道及び/又は軸を含み、手術器具50の器具軸240及び/又は先端54から最短距離にあるものを除く全ての軌道及び/又は軸を高い透明度で表示することができる。これは、不要な、又は重要性が低い拡張現実可視化表示をユーザの視界から排除する。
上記の種々の拡張現実可視化表示を区別するために、線タイプを同様に利用することができる。図5を再び参照すると、非限定的な例において、拡張現実位置アライメント可視化表示220の第1の偏差ベクトル222及び第2の偏差ベクトル224は、HMD30のレンズ36上に、規定された線幅を有する実線として表示することができる。対照的に、拡張現実角度アライメント可視化表示200の第1の角度ベクトル204及び第2の角度ベクトル202は、HMD30のレンズ36上に、拡張現実位置アライメント可視化表示220の線幅とは異なる線幅を有する実線として表示することができる。目標軌道軸210を他の可視化表示から区別するために、異なる線タイプを同様に使用することができる。例えば、目標軌道軸210は、HMD30のレンズ36上に、破線、点線、又は類似の異なる線タイプとして表示することができる。それらの線を互いに区別するために、種々の拡張現実可視化表示ごとに、線タイプの任意の組み合わせを利用できることが考えられることは理解されたい。
図6は、HMD30のレンズ36を通してユーザによって認知されるような拡張現実可視化表示であって、仮想画像のみを含む拡張現実可視化表示の例示的な構成を示す。図6に示されるように、拡張現実可視化表示は、レンズ36を通して視認されるような現実手術部位すなわち対象領域62の上方の定位置フローティングフレーム300内に示される患者画像データのスライス部分の仮想画像を含むことができる。上記の例と同様に、ユーザは、HMD30のレンズ36を通して、患者60の脊椎等のような患者60の現実の特徴物を依然として視認することができる。しかしながら、レンズ36上のフローティングフレーム300内に、患者データ等の付加情報又は画像を表示することができる。例えば、図6に示されるように、拡張現実可視化表示は、特定の椎骨の2次元画像等の患者データのスライス部分の画像を含むことができる。フローティングフレーム300内に表される患者データのスライス部分上に、軸又は座標系を重ねることができる。軸又は座標系は、フローティングフレーム300内に表される患者データに対する手術器具50の位置及び/又は向きを表すように構成することができる。
図7を参照すると、拡張現実可視化表示の別の例示的な構成において、拡張現実可視化表示は、表示ウィンドウ330内のHMD30のレンズ36上に表示される仮想画像を含むことができる。上記の拡張現実可視化表示の先行する例示的な構成のうちのいくつかとは異なり、図7の拡張現実可視化表示は、レンズ36上に表示される仮想画像のみを含む拡張現実可視化表示の一例である。例えば、拡張現実可視化表示は、HMD30のユーザに、患者60及び/又は対象領域62が見える場所にいるように要求しない。拡張現実可視化表示は、ユーザが仮想画像上に重ね合わせられる手術計画又は患者260のモデルの画像又は描写を視認できるようにするために、レンズ36上に表示することができる。上記のフローティングフレーム300と同様に、表示ウィンドウ330は、画像又は患者スキャン等の患者データを描写するように構成することができる。表示ウィンドウ330は、患者データ上に重ね合わせられる目標軌道軸210、器具軸240、及び/又は目標物130を描写するようにさらに構成することができる。上記の類似の例と同様に、この拡張現実可視化表示の表示ウィンドウ330は、制御ボタン(複数の場合もある)320,322,324を用いてユーザによって操作することができる。例えば、ユーザはハンドジェスチャーを用いて、制御ボタン(複数の場合もある)320,322,324のうちの1つ以上を選択し、目標軌道軸210、器具軸240及び/又は目標物130がより良好に見えるようにズームイン又はズームアウトすることができる。
図8は、HMD30のレンズ36上に表示されるような拡張現実可視化表示であって、患者260の一部及び/又は患者データの仮想画像を含む拡張現実可視化表示の別の代替的な構成を示す。拡張現実可視化表示としてレンズ36上に表示される患者260の一部及び/又は患者データは、目標軌道軸210、対象領域262、及び/又は目標物130を含むことができる。また、拡張現実可視化表示は、患者260及び/又は患者データ上に重ね合わせられるさらなる人体構造の特徴及び/又は計画された手術経路の描写を含むことができる。例えば、拡張現実可視化表示は、レンズ36上に表示される患者260の仮想3D画像を含むことができる。これにより、別の外部ディスプレイにユーザの注意が反れるのを余儀なくされる場合とは対照的に、ユーザはHMD30のレンズ36上にさらなる人体構造の特徴及び/又は計画された手術経路を可視化できるようになる場合がある。拡張現実可視化表示は、追加の制御ボタン326,328をさらに備えることができ、制御ボタン326,328は、レンズ36上に表示される拡張現実可視化表示を操作するように構成される。例えば、制御ボタン326,328のうちの1つはズームイン及び/又はズームアウトするように構成することができる。さらに、制御ボタン326,328のうちの1つは、ユーザが異なる角度又は視点から拡張現実可視化表示を観察又は視認できるようにするために、拡張現実可視化表示を回転させるように構成することができる。拡張現実可視化表示が、患者260の仮想3D画像であるとき、制御ボタン326,328は、ユーザが複数の角度から手術計画及び/又は目標軌道軸210を視認できるようにするために、患者260の仮想3Dモデルを回転させるように構成することができる。
上記のヘッドマウントディスプレイ30を含む手術ナビゲーションシステム20を用いて手術器具50を位置合わせする方法は、患者トラッカ40に整合された患者データに基づいて、目標軌道軸210を計画することを含むことができる。その方法は、ヘッドマウントディスプレイ30上に、拡張現実位置アライメント可視化表示220を、目標軌道軸210上の点から手術器具50の先端54までの距離ベクトルの分解を含む2つの軸平行偏差ベクトル222,224として表示するステップをさらに含むことができる。例えば、その方法は、ヘッドマウントディスプレイ30のレンズ36上に第1の偏差ベクトル222及び第2の偏差ベクトル224を表示することを含むことができる。第1の偏差ベクトル222及び/又は第2の偏差ベクトル224は、実線及び/又は点線として表示することができる。第1の偏差ベクトル222及び第2の偏差ベクトル224は、矢印として表示することもできる。
その方法は、ヘッドマウントディスプレイ30上に、手術器具50の器具軸240を表す第1の角度ベクトル204と、目標軌道軸210の第2の角度ベクトル202との間の角度を示す偏差角206を含む拡張現実角度アライメント可視化表示200を表示するステップをさらに含むことができる。例えば、その方法は、第1の角度ベクトル204及び第2の角度ベクトル202を、第1の角度ベクトル204と第2の角度ベクトル202との間の偏差角206を表す円弧によって接続される線として表示することを含むことができる。
また、その方法は、ヘッドマウントディスプレイ30の視点から、目標軌道軸210に対する手術器具50の相対的な場所を示すために、追跡ユニット10の測定データに基づいて、ヘッドマウントディスプレイ30上に表示される拡張現実位置アライメント可視化表示220及び/又は拡張現実角度アライメント可視化表示200を更新するステップを含むことができる。目標軌道軸210は、目標物130,230と入口点とを接続する線によって規定することができる。この更新は連続的に行うことができる。
手術器具50を位置合わせする方法は、手術器具50の器具軸240の拡張現実可視化表示を表示することをさらに含むことができる。器具軸240は、手術器具50の線又は輪郭として表示することができる。ヘッドマウントディスプレイ30のレンズ36上に表示される器具軸240の拡張現実可視化表示は、患者60、対象領域62、目標軌道軸210、及び/又は目標物130,230に対する手術器具50の位置を示すことができる。
手術器具50を位置合わせする方法は、ユーザがそれぞれのアライメント可視化表示を区別できるように、拡張現実位置アライメント可視化表示220及び/又は拡張現実角度アライメント可視化表示200を表示するために異なる色を使用することをさらに含むことができる。拡張現実可視化表示のための異なる色は、白色点の周りの色度空間内の交互の色を等距離に配置し、外挿によってその主波長を選択することによって、軌道の基調色から選択することができる。例えば、色は、黄色、ピンク、緑色、及びシアンを含む群から選択される高輝度の補色から選択することができる。
また、その方法は、目標軌道軸210までの手術器具50の距離に基づいて、拡張現実位置アライメント可視化表示220及び/又は拡張現実角度アライメント可視化表示200をユーザにハイライト表示することを含むことができる。例えば、拡張現実位置アライメント可視化表示220を表す線の色及び/又は線幅は、拡張現実角度アライメント可視化表示200を表す線の色及び/又は線幅とは異なる場合がある。上記のように、これを利用して、ユーザが、ヘッドマウントディスプレイ30のレンズ36上に表示される拡張現実位置アライメント可視化表示220及び/又は拡張現実角度アライメント可視化表示200を区別できるようになる場合がある。
目標軌道軸210をハイライト表示するステップは、最短距離を有する軌道を除く全ての追加の軌道をユーザから隠すステップをさらに含むことができる。また、目標軌道軸210をハイライト表示するステップは、最短距離を有する軌道を除く全ての追加の軌道を高い透明度で示すことを含むことができる。例えば、手術器具50が拡張現実位置アライメント可視化表示220の第1の偏差ベクトル222に対応する方向及び向きと適切に位置合わせされているとき、第1の偏差ベクトル222は、ヘッドマウントディスプレイ30のレンズ36上で隠すことができるか、又は透明に表示することができる。対照的に、手術器具50が、拡張現実位置アライメント可視化表示220の第1の偏差ベクトル222に対応する方向及び向きと位置合わせされていない場合には、目標軌道軸210に基づいてアライメントの補正が必要とされることをユーザに知らせるために、第1の偏差ベクトル222は、ヘッドマウントディスプレイ30のレンズ36上でハイライト表示することができる。
手術器具50を位置合わせする方法は、拡張現実位置アライメント可視化表示220を2つの軸平行偏差ベクトル222,224としてヘッドマウントディスプレイ30上に表示するステップをさらに含むことができ、手術器具50と目標軌道軸210との間の距離は、目標物130,230と目標軌道軸210の入口点とを接続する線分と、目標物130,230と目標軌道軸210の入り口点とを接続する線と、目標物130,230、又は目標軌道軸210の入口点とからなる群から選択される少なくとも1つに向けた手術器具50の先端54の距離に基づいて計算される。
手術器具50を位置合わせする方法においては、距離ベクトルの2つの軸平行偏差ベクトル222,224への分解が、目標軌道軸210に対して最も大きな角度を成す3つの主患者軸のうちの2つから、又は、目標軌道軸210に対して垂直な平面上に投影され、かつ手術器具50の先端54から目標軌道軸210上の最も近い点に結合される視線軸、及び投影される視線軸に対する同じ平面内の垂直ベクトルから導出される2つの固有ベクトルに関連する。
手術器具50を位置合わせする方法は、ユーザが目標軌道軸210に対する手術器具50の位置及び/又はアライメントの小さな偏差をより容易に観察できるようにするために、拡張現実位置アライメント可視化表示220を拡大するステップをさらに含むことができる。例えば、ユーザが小さな偏差をより容易に観察できるようにするために、第1の偏差ベクトル222及び/又は第2の偏差ベクトル224の長さを伸長することができる。代替的には、拡張現実可視化表示をヘッドマウントディスプレイ30のレンズ36上に収めることができるように、第1の偏差ベクトル222及び/又は第2の偏差ベクトル224の長さを短縮することができる。距離ベクトルの分解の伸縮は、絶対最大可視化長及びヘッドマウントディスプレイ30の視界に関連する最大可視化長に制限される。
手術器具50を位置合わせする方法においては、偏差角206の分解が、目標軌道軸に対して最も大きな角度を成す3つの主患者軸のうちの2つ、又は目標軌道軸に対して垂直な平面上に投影され、手術器具50の先端54から目標軌道軸上の最も近い点に結合される視線軸、及び投影される視線軸に対する同じ平面内の垂直ベクトルから導出される2つの固有ベクトルに関連する。
手術器具50を位置合わせする方法においては、偏差角206の可視化表示が、器具軸240、目標軌道軸210、並びに器具軸240を表す第1の角度ベクトル204及び目標軌道軸210を表す第2の角度ベクトル202の両方の基端を接続する円弧の位置補正拡張現実可視化表示、又は位置補正拡張現実可視化表示の軸測投影を含む。
手術器具50を位置合わせする方法は、手術器具50の先端54から目標軌道軸210までの距離を記述する第1の拡張現実テキストラベル310と、器具軸240と角度可視化表示内、又は付近に位置決めされる目標軌道軸210との間における度単位の偏差角206を記述する第2の拡張現実テキストラベル310とを表示するステップをさらに含むことができる。
手術器具50を位置合わせする方法は、目標軌道軸210の目標点において配置又は除去されることになる目標物130,230の拡張現実可視化表示を表示するステップをさらに含むことができる。
手術器具50を位置合わせする方法は、目標軌道軸210の目標点において配置又は除去されることになる目標物130,230の拡張現実可視化表示を表示するステップをさらに含むことができ、目標物130,230の拡張現実可視化表示は、手術器具50の目標位置又は現在の位置に位置決めされる。
手術器具50を位置合わせする方法は、患者画像データの拡張現実可視化表示を表示するステップをさらに含むことができる。このステップは、空間内の固定フレーム、頭部の動きに追従するフローティングフレーム300、患者画像データのスライス部分の位置におけるインプレース(in-place)、又はユーザ定義の固定空間ベクトルによる患者位置からのオフセットのうちの1つであるように、ユーザによって選択される拡張現実可視化表示の場所を選択することを含むことができる。ユーザは、ヘッドマウントディスプレイ30のレンズ36上に表示される制御ボタン320,322,324,326,328を用いて患者画像データのスライス部分を操作することができる。ユーザは、手及び/又は顔によるジェスチャーを用いて、レンズ36上に表示される制御ボタン320,322,324,326,328を選択することができる。このステップは、患者画像データ色情報から、アルファ透明度目標範囲を含む拡張現実可視化表示色情報へのカラーマッピング(color mapping)をさらに含むことができる。このステップは、拡張現実可視化表示の場所を選択し、位置決めし直すために、そして患者画像データのスライス部分を選択するために、ユーザが音声、マウス、キーボード、凝視、又は手術器具のいずれかを使用することができるユーザインタラクション(user interaction)をさらに含むことができる。
手術器具50を位置合わせする方法は、対象領域インジケータを表示することをさらに含むことができる。対象領域インジケータは、対象領域62付近に示される拡張現実テキストラベル310、又は対象領域62を画定する拡張現実境界可視化表示を含むことができる。対象領域インジケータは、対象領域62への手術器具50の距離に基づいて、ユーザに拡張現実テキストラベル310及び拡張現実境界可視化表示をハイライト表示するカラーマッピング方法をさらに含むことができる。
拡張現実位置アライメント可視化表示220及び/又は拡張現実角度アライメント可視化表示200等の拡張現実可視化表示のいくつかの構成が上記で説明されている。拡張現実可視化表示の構成の多くがヘッドマウントディスプレイ30のレンズ36上に、及び/又はヘッドマウントディスプレイ30上に表示されることに関して説明されるが、拡張現実可視化表示の種々の構成のいずれかをディスプレイ22上に表示することもできると考えられることも理解されたい。ディスプレイ22は、陰極線管ディスプレイ(CRT)、発光ダイオードディスプレイ(LED)、エレクトロルミネセントディスプレイ(ELD)、液晶ディスプレイ(LCD)、有機発光ダイオードディスプレイ(OLED)、デジタルライトプロセッシングディスプレイ(DLP)、プロジェクションモニタ、又は類似のデバイスを含むことができる。
手術ナビゲーションシステム20及び/又は拡張現実可視化表示のいくつかの構成が、上記の説明において論じられてきた。しかしながら、本明細書で論じる構成は、網羅的であることも本開示を任意の特定の形態に限定することも意図されない。使用された用語は、制限的であるのではなく、説明の言葉(words of description)の性質内にあることを意図される。多くの変更及び変形が、上記教示を考慮して可能であり、本開示は、具体的に述べられる以外の方法で実施することができる。
さらなる構成に関する条項(当初の欧州特許請求項)
I.手術器具を位置合わせする案内システムであって、立体視ヘッドマウントディスプレイを備え、立体視ヘッドマウントディスプレイが、少なくともHMDトラッカと、追跡システムを有する手術ナビゲーションシステムと、追跡システムによって追跡可能な患者トラッカに整合される患者データと、患者データ上の1つ以上の軌道を計画する計画システムと、追跡システムによって追跡されるナビゲートされる器具と、AR位置アライメント可視化表示と、AR角度アライメント可視化表示とを備える、案内システム。
Ia.第I項に記載の案内システムは、ユーザが立体視ヘッドマウントディスプレイ上の小さな偏差を確認できるようにするために、ナビゲートされる器具の先端の軌道軸上においける最も近い点からナビゲートされる器具の先端までの距離ベクトルの分解であり、スケーリング関数によって長さが伸長される、位置アライメント可視化表示のための2つの軸平行偏差ベクトルを表示するように構成することができる。
Ib.第I項又は第Ia項に記載の案内システムは、1つ又は2つの偏差角からなる角度アライメント可視化表示を表示するようにさらに構成することができ、偏差角は、器具の軸の方向ベクトルと軌道軸の方向ベクトルとの間の角度、又は2つの偏差角への上記角度の分解を示し、各々が、ユーザが小さな偏差を確認できるようにするために、スケーリング関数によって開口角が拡大される。
Ic.第I項、第Ia項及び第Ib項のいずれか一項に記載の案内システムは、立体視ヘッドマウントディスプレイの両目の視点から、患者データに対するナビゲートされる器具の相対的な場所を示すために、追跡システムに基づいて、可視化表示を絶えず更新するようにさらに構成することができる。
Id.第I項、第Ia項、第Ib項、及び第Ic項のいずれか一項に記載の案内システムは、ユーザがそれぞれのアライメント可視化表示を区別できるように、可視化表示のために異なる色を使用し、各軌道へのナビゲートされる器具の距離に基づいて、可視化表示をユーザにハイライト表示するようにさらに構成することができる。
II.第I項に記載の案内システムを用いて手術器具を位置合わせする方法であって、立体視HMDの両目の視点から、患者データに対するナビゲートされる器具の相対的な場所を示すために、追跡システムに基づいて、可視化表示を絶えず更新するステップと、ユーザがそれぞれのアライメント可視化表示を区別できるように、可視化表示のために異なる色を使用するステップと、各軌道へのナビゲートされる器具の距離に基づいて、可視化表示をユーザにハイライト表示するステップとを含む方法。
II-a.第II項に記載の方法は、ナビゲートされる器具の先端の軌道軸上の最も近い点からナビゲートされる器具の先端までの距離ベクトルの分解であり、ユーザが小さな偏差を確認できるようにスケーリング関数によって伸長される、位置アライメント可視化表示のための2つの軸平行偏差ベクトルを使用及び/又は表示することをさらに含むことができる。
II-b.第II項又は第II-a項に記載の方法は、1つ又は2つの偏差角からなる角度アライメント可視化表示を使用及び/又は表示することをさらに含むことができ、偏差角は、器具の軸の方向ベクトルと軌道軸の方向ベクトルとの間の角度、又は2つの偏差角への上記角度の分解を示し、各々が、ユーザが小さな偏差を確認できるようにするために、スケーリング関数によって開口角が拡大される場合がある。
II-c.ナビゲートされる器具と軌道との間の距離は、ナビゲートされる器具の先端から、目標物と軌道の入口点とを接続する線分と、目標物と軌道の入口点とを接続する線と、目標物又は軌道の入口点とからなる群から選択される少なくとも1つまでの距離に基づいて計算されることを特徴とする、第II項、第II-a項及び第II-b項のいずれか一項に記載の方法。
II-d.ナビゲートされる器具と軌道との間の角度偏差は、ナビゲートされる器具の軸の垂線と、目標物と軌道の入口点とを接続する線の垂線との間の角度に基づいて計算されることを特徴とする、第II項、第II-a項及び第II-b項のいずれか一項に記載の方法。
II-e.軌道のハイライト表示は、最短距離を有する軌道を除く全ての軌道をユーザから隠し、最短距離を有する軌道を除く全ての軌道を高い透明度で示すことを特徴とする、第II項、第II-a項及び第II-b項のいずれか一項に記載の方法。
II-f.2つの軸平行偏差ベクトルの距離ベクトルの分解は、軌道軸に対して最も大きな角度を成す3つの主患者軸のうちの2つから、又は軌道軸に対して垂直な平面上に投影され、かつナビゲートされる器具の先端から軌道軸上の最も近い点に結合される視線軸、及び投影される視線軸に対する同じ平面内の垂直ベクトルから導出される2つの固有ベクトルに関連することを特徴とする、第II項、第II-a項及び第II-b項のいずれか一項に記載の方法。
II-g.距離ベクトルの分解の伸長は、絶対最大可視化長及びヘッドマウントディスプレイの視界に関連する最大可視化長に制限されることを特徴とする、第II項、第II-a項及び第II-b項のいずれか一項に記載の方法。
II-h.2つの偏差角の分解は、軌道軸に対して最も大きな角度を成す3つの主患者軸のうちの2つから、又は軌道軸に対して垂直な平面上に投影され、ナビゲートされる器具の先端から軌道軸上の5最も近い点に結合される視線軸、及び投影される視線軸に対する同じ平面内の垂直ベクトルから導出される2つの固有ベクトルに関連することを特徴とする、第II項、第II-a項及び第II-b項のいずれか一項に記載の方法。
II-i.偏差角の可視化表示は、現在の垂直軸、目標垂直軸、並びに現在の垂直軸及び目標垂直軸の両方の基端を接続する円弧の位置補正拡張現実可視化表示、又は位置補正拡張現実可視化表示の軸測投影からなることを特徴とする、第II項、第II-a項及び第II-b項のいずれか一項に記載の方法。
II-j.器具先端から軌道軸までの距離を記述するARテキストラベルと、器具軸と角度可視化表示内又は付近に位置決めされる軌道軸との間における度単位の角度偏差を記述するARテキストラベルをさらに使用する、第II項、第II-a項及び第II-b項のいずれか一項に記載の方法。
II-k.軌道のAR可視化表示をさらに使用する、第II項、第II-a項及び第II-b項のいずれか一項に記載の方法。
II-l.軌道の目標点において配置又は除去されることになる目標物のAR可視化表示をさらに使用し、目標物のAR可視化表示は、ナビゲートされる器具の目標位置又は現在の位置に位置決めされることを特徴とする、第II項、第II-a項及び第II-b項のいずれか一項に記載の方法。
II-m.軌道の目標点において配置又は除去されることになる目標物のAR可視化表示のステップをさらに含む、第II項、第II-a項及び第II-b項のいずれか一項に記載の方法。
II-n.可視化表示のための異なる色は、白色点の周りの色度空間内の交互の色を等距離に配置し、外挿によってその主波長を選択することによって、軌道の基調色から選択されるか、又はその色は黄色、ピンク、緑色、及びシアンを含む群から選択される高輝度の補色から選択されることを特徴とする、第II項、第II-a項及び第II-b項のいずれか一項に記載の方法。
II-о.患者画像データのスライス部分のAR可視化表示のステップをさらに含み、このステップが、空間内の固定フレーム、頭部の動きに追従するフローティングフレーム、患者画像データスライス部分の位置にあるインプレース、又はユーザ定義の固定空間ベクトルによる患者位置からのオフセットのうちの1つであるように外科医によって選択されるAR可視化表示場所のステップ、患者画像データ色情報からアルファ透明度目標範囲を含むAR可視化表示色情報へのカラーマッピングのステップ、及びAR可視化表示場所を選択し、位置決めし直し、そして患者画像データのスライス部分を選択するために、ユーザが音声、マウス、キーボード、凝視、又はナビゲートされる手術器具のいずれかを使用することができるユーザインタラクションのステップを含む、第II項、第II-a項及び第II-b項のいずれか一項に記載の方法。
II-p.対象領域インジケータの使用をさらに含み、かかる使用が、対象領域付近に示されるARテキストラベル又は対象領域を画定するAR境界可視化表示、及び対象領域までのナビゲートされる器具の距離に基づいて、ARテキストラベル及びAR境界可視化表示をユーザにハイライト表示するカラーマッピング方法を含む、第II項、第II-a項及び第II-b項のいずれか一項に記載の方法。
なお、出願当初の請求項は以下の通りであった。
[請求項1]
レンズを有するヘッドマウントディスプレイと、
追跡ユニットを有する手術ナビゲーションシステムと、
患者データに整合され、かつ前記手術ナビゲーションシステムによって追跡可能な患者トラッカと、
前記手術ナビゲーションシステムによって追跡可能な器具トラッカを有する手術器具であって、器具軸を規定する手術器具と
拡張現実位置アライメント可視化表示を、前記ヘッドマウントディスプレイの前記レンズ上に表示するように、目標軌道軸上の目標点から前記手術器具上の点までの距離ベクトルの分解を含む2つの軸平行偏差ベクトルとして生成する構成であるコントローラと
を備える手術ナビゲーションシステム。
[請求項2]
前記コントローラが、前記レンズ上に表示される前記2つの軸平行偏差ベクトルを伸縮するように構成される、請求項1に記載の手術ナビゲーションシステム。
[請求項3]
前記コントローラが、前記レンズ上に表示するように、拡張現実角度アライメント可視化表示を生成する構成である、請求項1に記載の手術ナビゲーションシステム。
[請求項4]
前記拡張現実角度アライメント可視化表示が、前記器具軸に対して平行な軸を表す第1の角度ベクトルと、前記目標軌道軸を表す第2の角度ベクトルとの間の角度を表す偏差角を含む、請求項3に記載の手術ナビゲーションシステム。
[請求項5]
前記コントローラは、ユーザが前記偏差角の小さな偏差を確認できるようにするために、前記偏差角を表す第1の線及び第2の線の長さを伸長するように構成される、請求項4に記載の手術ナビゲーションシステム。
[請求項6
前記拡張現実角度アライメント可視化表示は、前記器具軸を表す第1の角度ベクトルと、前記目標軌道軸を表す第2の角度ベクトルとの間の角度における2つの偏差角への分解を含む、請求項3に記載の手術ナビゲーションシステム。
[請求項7]
前記2つの偏差角を表す線の長さは、ユーザが前記2つの偏差角の小さな偏差を確認できるようにするために、伸長されるように構成される、請求項6に記載の手術ナビゲーションシステム。
[請求項8]
前記拡張現実位置アライメント可視化表示が第1の色を含み、
前記拡張現実角度アライメント可視化表示が前記第1の色から区別可能である異なる色を含む、請求項3~7のいずれか一項に記載の手術ナビゲーションシステム。
[請求項9]
手術ナビゲーションシステム、前記手術ナビゲーションシステムによって追跡可能な患者トラッカ、及び前記手術ナビゲーションシステムによって追跡可能な手術器具と共に使用するヘッドマウントディスプレイシステムであって、
レンズと、
前記レンズ上にて、拡張現実位置アライメント可視化表示を、目標軌道軸上の目標点から前記手術器具までの距離ベクトルの分解を含む2つの軸平行偏差ベクトルとして表示するように構成されるコントローラと
を備えるヘッドマウントディスプレイシステム。
[請求項10]
前記コントローラが、前記レンズ上に拡張現実角度アライメント可視化表示を生成するように構成される、請求項9に記載のヘッドマウントディスプレイシステム。
[請求項11]
前記拡張現実角度アライメント可視化表示が、前記器具軸を表す第1の角度ベクトルと、前記目標軌道軸を表す第2の角度ベクトルとの間の角度を表す偏差角を含み、
前記偏差角を表す第1の線及び第2の線の長さは、ユーザが小さな偏差を確認できるようにするために、伸長されるように構成される、請求項10に記載のヘッドマウントディスプレイシステム。
[請求項12]
前記拡張現実角度アライメント可視化表示が、前記器具軸を表す第1の角度ベクトルと、前記目標軌道軸を表す第2の角度ベクトルとの間の角度における2つの偏差角への分解を含み、
前記2つの偏差角を表す線の長さは、ユーザが小さな偏差を確認できるようにするために、伸長されるように構成される、請求項10に記載のヘッドマウントディスプレイシステム。
[請求項13]
前記拡張現実位置アライメント可視化表示が第1の色を含み、
前記拡張現実角度アライメント可視化表示が、前記第1の色から区別可能である異なる色を含む、請求項10~12のいずれか一項に記載のヘッドマウントディスプレイシステム。
[請求項14]
手術ナビゲーションシステムと、先端を有し、かつ目標軌道軸を含む手術計画を考慮して器具軸を少なくとも部分的に規定する手術器具とを備えるヘッドマウントディスプレイシステムを用いて、手術ナビゲーション情報を表示する方法であって、
ヘッドマウントディスプレイ上に2つの軸平行偏差ベクトルを含む拡張現実位置アライメント可視化表示を表示することであって、前記2つの軸平行偏差ベクトルが、第1の偏差ベクトル及び第2の偏差ベクトルを含み、前記第1の偏差ベクトル及び前記第2の偏差ベクトルが、前記目標軌道軸上の点から前記手術器具の前記先端までの距離ベクトルの分解を表す、表示することと、
前記ヘッドマウントディスプレイの視点から、前記目標軌道軸に対する前記手術器具の相対的な場所を示すために、前記ヘッドマウントディスプレイ上に表示された前記拡張現実位置アライメント可視化表示を更新することと
を含む方法。
[請求項15]
前記距離ベクトルの2つの軸平行偏差ベクトルへの前記分解が、前記目標軌道軸に対して最も大きな角度を成す患者の向きから導出される3つの主患者軸のうち2つから導出される2つの固有ベクトルに関連する、請求項14に記載の方法。
[請求項16]
前記距離ベクトルの2つの軸平行偏差ベクトルへの前記分解が、前記目標軌道軸に対して垂直な平面上に投影され、かつ前記手術器具の先端から前記目標軌道軸上の最も近い点に結合される視線軸と、前記投影される視線軸に対する同じ平面内の垂直ベクトルとから導出される2つの固有ベクトルに関連する、請求項14に記載の方法。
[請求項17]
前記手術器具の前記軸を表す第1の角度ベクトルと、前記目標軌道軸を表す第2の角度ベクトルとの間の角度を示す偏差角を含む拡張現実角度アライメント可視化表示を表示することをさらに含む、請求項14に記載の方法。
[請求項18]
前記ヘッドマウントディスプレイの視点から、前記目標軌道軸に対する前記手術器具の軸の角度を示すために、前記拡張現実角度アライメントを更新することをさらに含む、請求項17に記載の方法。
[請求項19]
前記拡張現実位置アライメント可視化表示又は前記拡張現実角度アライメント可視化表示を表示するために第1の色を使用し、かつ前記拡張現実位置アライメント可視化表示又は前記拡張現実角度アライメント可視化表示の他方のために異なる色を使用することをさらに含む、請求項17又は18に記載の方法。
[請求項20]
前記目標軌道軸に対する前記手術器具の距離に基づいて、前記拡張現実位置アライメント可視化表示及び/又は前記拡張現実角度アライメント可視化表示をユーザに対してハイライト表示することをさらに含む、請求項17又は18に記載の方法。
[請求項21]
前記手術器具と前記目標軌道軸との間の距離は、目標物と前記目標軌道軸の入口点とを接続する線分と、前記目標物と前記目標軌道軸の入口点とを接続する線と、及び前記目標物又は前記軌道の入口点とから成る群から選択される少なくとも1つの基点に向けた前記手術器具の先端の距離に基づいて計算される、請求項14に記載の方法。
[請求項22]
患者トラッカ及び手術器具トラッカを含む手術ナビゲーションシステムと共に使用するヘッドマウントディスプレイであって、前記手術ナビゲーションシステムは、患者データに基づいて、手術器具の先端によって少なくとも部分的に規定される器具軸と目標軌道軸とのアライメントのために、前記目標軌道軸を計画するように構成される、ヘッドマウントディスプレイであって
レンズを備え、
ヘッドマウントディスプレイが、前記目標軌道軸上の点から前記手術器具の先端までの距離ベクトルの分解を含む2つの軸平行偏差ベクトルを含む拡張現実位置アライメント可視化表示を表示するように構成され、及び/又は、
ヘッドマウントディスプレイが、前記器具軸を表す第1の角度ベクトルと、前記目標軌道軸を表す第2の角度ベクトルとの間の角度を表す偏差角を含む拡張現実角度アライメント可視化表示を表示するようにさらに構成される、ヘッドマウントディスプレイ。
[請求項23]
前記2つの軸平行偏差ベクトルは、ユーザが前記手術器具軸から前記目標軌道軸までの距離の小さな偏差を確認できるようにするために、長さを伸長されるように構成される、請求項22に記載のシステム。
[請求項24]
前記偏差角は、ユーザが前記第1の角度ベクトルと前記第2の角度ベクトルとの間の角度における小さな偏差を確認できるようにするために、拡大されるように構成される、請求項22に記載のシステム。
[請求項25]
前記拡張現実角度アライメント可視化表示が、前記器具軸を表す第1の角度ベクトルと、前記目標軌道軸を表す第2の角度ベクトルとの間の角度における2つの偏差角への分解を含む、請求項22に記載のシステム。
[請求項26]
前記拡張現実位置アライメント可視化表示が第1の色を含み、
前記拡張現実角度アライメント可視化表示が第2の色を含み、
前記第1の色が前記第2の色から区別可能である、請求項22に記載のシステム。
[請求項27]
手術ナビゲーションシステムを用いて手術器具を位置合わせする方法であって、前記手術ナビゲーションシステムが追跡ユニットを備え、前記追跡ユニットが、ヘッドマウントディスプレイ、患者トラッカ、及び先端を有すると共に器具軸を規定する手術器具に結合される手術器具トラッカの位置を追跡するように構成され、前記手術ナビゲーションシステムが、前記患者トラッカに整合される患者データに基づいて、目標軌道軸を計画するように構成される、方法であって、
前記ヘッドマウントディスプレイ上に、拡張現実位置アライメント可視化表示を、前記目標軌道軸上の点から前記手術器具の先端までの距離ベクトルの分解を含む2つの軸平行偏差ベクトルとして表示するステップ、及び/又は、
前記ヘッドマウントディスプレイ上に、前記手術器具軸を表す第1の角度ベクトルと、前記目標軌道軸を表す第2の角度ベクトルとの間の角度を示す偏差角を含む拡張現実角度アライメント可視化表示を表示するステップ
を含み、かつ
前記ヘッドマウントディスプレイの視点から、前記目標軌道軸に対する前記手術器具軸の場所を示すために、前記追跡ユニットに基づいて、前記ヘッドマウントディスプレイ上に表示された前記拡張現実位置アライメント可視化表示及び/又は前記拡張現実角度アライメント可視化表示を連続的に更新するステップ
を含む方法。
[請求項28]
前記目標軌道軸が目標物と入口点とを接続する線によって規定される、請求項27に記載の方法。
[請求項29
前記ヘッドマウントディスプレイ上に前記手術器具の器具軸の拡張現実可視化表示を表示することをさらに含む、請求項27又は28に記載の方法。
[請求項30]
ユーザがそれぞれのアライメント可視化表示を区別できるようにすべく、前記拡張現実位置アライメント可視化表示及び/又は前記拡張現実角度アライメント可視化表示を表示するように異なる色を使用することと、
前記目標軌道軸への前記手術器具の距離に基づいて、前記拡張現実位置アライメント可視化表示及び/又は前記拡張現実角度アライメント可視化表示をユーザに対してハイライト表示することと
をさらに含む請求項27に記載の方法。
[請求項31]
前記手術器具と前記目標軌道軸との間の距離が、目標物と前記目標軌道軸の入口点とを接続する線分と、前記目標物と前記目標軌道軸の前記入口点とを接続する線と、前記目標物及び前記軌道の前記入口点とからなる群から選択される少なくとも1つに向けた前記手術器具の先端の距離に基づいて計算される、請求項27に記載の方法。
[請求項32]
前記目標軌道軸を前記ハイライト表示することが、最短距離を有する軌道を除く全ての追加の軌道をユーザから隠すことを含む、請求項30に記載の方法。
[請求項33]
前記最短距離を有する軌道を除く全ての追加の軌道を高い透明度で示す、請求項30に記載の方法。
[請求項34]
前記距離ベクトルの2つの軸平行偏差ベクトルへの前記分解は、前記目標軌道軸に対して最も大きな角度を成す3つの主患者軸のうちの2つと、前記目標軌道軸に対して垂直な平面上に投影され、かつ前記手術器具の先端から前記目標軌道軸上の最も近い点に結合される視線軸、及び前記投影される視線軸に対する同じ平面内の垂直ベクトルとから導出される2つの固有ベクトルに関連する、請求項27に記載の方法。
[請求項35]
前記拡張現実位置アライメント可視化表示を伸縮することをさらに含み、
前記距離ベクトルの前記分解の前記伸縮は、絶対最大可視化長及び前記ヘッドマウントディスプレイの視界に関連する最大可視化長に制限される、請求項27に記載の方法。
[請求項36]
前記2つの偏差角の前記分解は、前記目標軌道軸に対して最も大きな角度を成す3つの主患者軸のうちの2つと、前記目標軌道軸に対して垂直な平面上に投影され、かつ前記手術器具の先端から前記目標軌道軸上の最も近い点に結合される視線軸、及び前記投影される視線軸に対する同じ平面内の垂直ベクトルとから導出される2つの固有ベクトルに関連する、請求項27に記載の方法。
[請求項37]
前記偏差角の可視化表示は、前記器具軸、前記目標軌道軸、並びに前記器具軸及び前記目標軌道軸の両方の基端を接続する円弧の位置補正拡張現実可視化表示を含む、請求項30に記載の方法。
[請求項38]
前記偏差角の可視化表示は、前記器具軸の位置補正拡張現実可視化表示の軸測投影を含む、請求項30に記載の方法。
[請求項39]
前記手術器具の先端から前記目標軌道軸までの距離を記述する第1の拡張現実テキストラベルと、前記器具軸と前記角度可視化表示内、又は付近に位置決めされる前記目標軌道軸との間における度単位の偏差角を記述する第2の拡張現実テキストラベルとを表示することをさらに含む、請求項29に記載の方法。
[請求項40]
前記目標軌道軸の目標点にて配置又は除去されることになる目標物の拡張現実可視化表示を表示することをさらに含み、
前記目標物の拡張現実可視化表示は、前記手術器具の目標位置又は現在の位置に位置決めされる、請求項27に記載の方法。
[請求項41]
前記目標軌道軸の目標点にて配置又は除去されることになる目標物の拡張現実可視化表示のステップをさらに含む、請求項27に記載の方法。
[請求項42]
前記拡張現実可視化表示のための異なる色は、白色点の周りの色度空間内における交互の色を等距離に配置し、かつ外挿によってその主波長を選択することによって、軌道の基調色から選択され、及び/又は
前記色は、黄色、ピンク、緑色、及びシアンを含む群から選択される高輝度の補色から選択される、請求項28に記載の方法。
[請求項43]
患者画像データのスライス部分の拡張現実可視化表示を表示するステップをさらに含み、このステップは、
空間内の固定フレーム、頭部の動きに追従するフローティングフレーム、患者画像データのスライス部分の位置におけるインプレース、又はユーザ定義の固定空間ベクトルによる前記患者位置からのオフセットのうちの1つであるように外科医によって選択される拡張現実可視化表示場所を選択するステップと、
患者画像データ色情報から、アルファ透明度目標範囲を含む拡張現実可視化表示色情報にカラーマッピングするステップと、
前記拡張現実可視化表示場所を選択し、位置決めし直し、そして患者画像データの前記スライス部分を選択するために、ユーザが音声、マウス、キーボード、凝視、又は手術器具のいずれかを使用することができるようにユーザインタラクションを実施するステップと
を含む請求項27に記載の方法。
[請求項44]
対象領域インジケータを表示するステップをさらに含み、前記対象領域インジケータは、
前記対象領域付近に示される拡張現実テキストラベル、又は、
前記対象領域を画定する拡張現実境界可視化表示と、
前記対象領域までのナビゲートされる器具の距離に基づいて、前記拡張現実テキストラベル及び拡張現実境界可視化表示をユーザにハイライト表示するカラーマッピング手法と
を含む、請求項27に記載の方法。
[請求項45]
手術ナビゲーションシステム、前記手術ナビゲーションシステムによって追跡可能な患者トラッカ、及び前記手術ナビゲーションシステムによって追跡可能な手術器具であって、前記手術器具案内システムは、
ディスプレイと、
拡張現実位置アライメント可視化表示を、前記ディスプレイ上の目標軌道軸上の目標点から前記手術器具までの距離ベクトルの分解を含む2つの軸平行偏差ベクトルとして前記ディスプレイ上に表示するように構成されるコントローラと
を備え、及び/又は、
前記コントローラは、前記器具軸を表す第1の角度ベクトルと、前記目標軌道軸を表す第2の角度ベクトルとの間の角度を表す偏差角を含む拡張現実角度アライメント可視化表示を前記ディスプレイ上に表示するようにさらに構成される、手術ナビゲーションシステム、患者トラッカ、及び手術器具。

Claims (12)

  1. レンズを有するヘッドマウントディスプレイと、
    追跡ユニットと、
    患者データに整合され、かつ前記追跡ユニットによって追跡可能な患者トラッカと、
    前記追跡ユニットによって追跡可能な器具トラッカを有する手術器具であって、器具軸を規定する手術器具と、
    拡張現実位置アライメント可視化表示を、前記ヘッドマウントディスプレイの前記レンズ上に表示するように、目標軌道軸上の目標点から前記手術器具上の点までの距離ベクトルの分解からなる2つの軸平行偏差ベクトルとして生成する構成であるコントローラと、
    を備え、
    前記2つの軸平行偏差ベクトルの一方が基準座標系の第1の軸と平行であり、
    前記2つの軸平行偏差ベクトルの他方が基準座標系の第2の軸と平行である、手術ナビゲーションシステム。
  2. 前記コントローラが、前記レンズ上に表示される前記2つの軸平行偏差ベクトルを伸縮するように構成される、請求項1に記載の手術ナビゲーションシステム。
  3. 前記コントローラが、前記レンズ上に表示するように、拡張現実角度アライメント可視化表示を生成する構成であり、
    前記拡張現実角度アライメント可視化表示が、下記(i)及び(ii)の少なくとも一方からなる、請求項1又は請求項2に記載の手術ナビゲーションシステム。
    (i)前記器具軸に対して平行な軸を表す第1の角度ベクトルと、前記目標軌道軸を表す第2の角度ベクトルとの間の角度を表す偏差角。
    (ii)前記器具軸を表す第1の角度ベクトルと、前記目標軌道軸を表す第2の角度ベクトルとの間の角度における2つの偏差角への分解。
  4. 前記拡張現実位置アライメント可視化表示が第1の色を含み、
    前記拡張現実角度アライメント可視化表示が、前記第1の色から区別可能である異なる色を含む、請求項3に記載の手術ナビゲーションシステム。
  5. 手術ナビゲーションシステム、前記手術ナビゲーションシステムの追跡ユニットによって追跡可能な患者トラッカ、及び、前記手術ナビゲーションシステムの前記追跡ユニットによって追跡可能な器具トラッカを有する手術器具であって器具軸を少なくとも部分的に規定する手術器具、と共に使用するヘッドマウントディスプレイシステムであって、
    レンズと、
    前記レンズ上にて、拡張現実位置アライメント可視化表示を、目標軌道軸上の目標点から前記手術器具までの距離ベクトルの分解からなる2つの軸平行偏差ベクトルとして表示するように構成されるコントローラと、
    を備え、
    前記2つの軸平行偏差ベクトルの一方が基準座標系の第1の軸と平行であり、
    前記2つの軸平行偏差ベクトルの他方が基準座標系の第2の軸と平行である、ヘッドマウントディスプレイシステム。
  6. 前記コントローラが、前記レンズ上に拡張現実角度アライメント可視化表示を生成するように構成され、
    前記拡張現実角度アライメント可視化表示が、下記(i)及び(ii)の少なくとも一方からなる、請求項5に記載のヘッドマウントディスプレイシステム。
    (i)前記器具軸に対して平行な軸を表す第1の角度ベクトルと、前記目標軌道軸を表す第2の角度ベクトルとの間の角度を表す偏差角。
    (ii)前記器具軸を表す第1の角度ベクトルと、前記目標軌道軸を表す第2の角度ベクトルとの間の角度における2つの偏差角への分解。
  7. 前記拡張現実位置アライメント可視化表示が第1の色を含み、
    前記拡張現実角度アライメント可視化表示が、前記第1の色から区別可能である異なる色を含む、請求項6に記載のヘッドマウントディスプレイシステム。
  8. 手術ナビゲーションシステムのヘッドマウントディスプレイシステムと、先端を有し、かつ目標軌道軸を含む手術計画を考慮して器具軸を少なくとも部分的に規定する手術器具とを用いて、手術ナビゲーション情報を表示する方法であって、
    ヘッドマウントディスプレイ上に2つの軸平行偏差ベクトルを含む拡張現実位置アライメント可視化表示を表示することであって、前記2つの軸平行偏差ベクトルが、第1の偏差ベクトル及び第2の偏差ベクトルからなり、前記第1の偏差ベクトル及び前記第2の偏差ベクトルが、前記目標軌道軸上の点から前記手術器具の前記先端までの距離ベクトルの分解を表す、表示することと、
    前記ヘッドマウントディスプレイの視点から、前記目標軌道軸に対する前記手術器具の相対的な場所を示すために、前記ヘッドマウントディスプレイ上に表示された前記拡張現実位置アライメント可視化表示を更新することと、
    を含み、
    前記第1の偏差ベクトルが基準座標系の第1の軸と平行であり、
    前記第2の偏差ベクトルが基準座標系の第2の軸と平行である、方法。
  9. 前記手術器具の前記器具軸を表す第1の角度ベクトルと、前記目標軌道軸を表す第2の角度ベクトルとの間の角度を示す偏差角からなる拡張現実角度アライメント可視化表示を表示することをさらに含む、請求項8に記載の方法。
  10. 前記ヘッドマウントディスプレイの視点から、前記目標軌道軸に対する前記手術器具の前記器具軸の角度を示すために、前記拡張現実角度アライメントを更新することをさらに含む、請求項9に記載の方法。
  11. 前記拡張現実位置アライメント可視化表示及び前記拡張現実角度アライメント可視化表示の一方を表示するために第1の色を使用し、前記拡張現実位置アライメント可視化表示及び前記拡張現実角度アライメント可視化表示の他方のために前記第1の色とは異なる色を使用することをさらに含む、請求項9又は請求項10に記載の方法。
  12. 前記目標軌道軸に対する前記手術器具の距離に基づいて、前記拡張現実位置アライメント可視化表示及び/又は前記拡張現実角度アライメント可視化表示をユーザに対してハイライト表示することをさらに含む、請求項9~請求項11のいずれか1つに記載の方法。
JP2020512103A 2017-05-05 2018-05-04 手術ナビゲーションシステム Active JP7189939B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP17169700.6 2017-05-05
EP17169700 2017-05-05
PCT/IB2018/053130 WO2018203304A1 (en) 2017-05-05 2018-05-04 Surgical navigation system

Publications (3)

Publication Number Publication Date
JP2020518423A JP2020518423A (ja) 2020-06-25
JP2020518423A5 JP2020518423A5 (ja) 2021-06-17
JP7189939B2 true JP7189939B2 (ja) 2022-12-14

Family

ID=58672440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020512103A Active JP7189939B2 (ja) 2017-05-05 2018-05-04 手術ナビゲーションシステム

Country Status (6)

Country Link
US (2) US11589927B2 (ja)
EP (1) EP3618748B1 (ja)
JP (1) JP7189939B2 (ja)
CN (2) CN116236282A (ja)
AU (1) AU2018262533B2 (ja)
WO (1) WO2018203304A1 (ja)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
US11250947B2 (en) * 2017-02-24 2022-02-15 General Electric Company Providing auxiliary information regarding healthcare procedure and system performance using augmented reality
WO2018156809A1 (en) * 2017-02-24 2018-08-30 Masimo Corporation Augmented reality system for displaying patient data
EP3787543A4 (en) 2018-05-02 2022-01-19 Augmedics Ltd. REGISTRATION OF A REFERENCE MARK FOR AN AUGMENTED REALITY SYSTEM
WO2019245852A1 (en) 2018-06-19 2019-12-26 Tornier, Inc. Virtual checklists for orthopedic surgery
TWI741196B (zh) * 2018-06-26 2021-10-01 華宇藥品股份有限公司 整合擴增實境之手術導航方法及系統
US11227447B2 (en) * 2018-07-16 2022-01-18 Hewlett-Packard Development Company, L.P. Physical controls for mixing views
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US20220015982A1 (en) * 2018-11-30 2022-01-20 University Of Southern California Double-blinded, randomized trial of augmented reality low-vision mobility and grasp aid
US11911110B2 (en) * 2019-01-30 2024-02-27 Medtronic Navigation, Inc. System and method for registration between coordinate systems and navigation of selected members
CN109758230B (zh) * 2019-02-26 2021-04-13 中国电子科技集团公司信息科学研究院 一种基于增强现实技术的神经外科手术导航方法和系统
JP7532416B2 (ja) 2019-05-29 2024-08-13 マーフィー,ステファン,ビー 外科手術に拡張現実を利用するためのシステム及び方法
EP3760157A1 (en) 2019-07-04 2021-01-06 Scopis GmbH Technique for calibrating a registration of an augmented reality device
EP3760150A1 (en) 2019-07-04 2021-01-06 Scopis GmbH Tracker for a head-mounted display
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
JP7239117B2 (ja) * 2019-09-03 2023-03-14 株式会社インキュビット 手術支援装置
JP2022550148A (ja) 2019-09-26 2022-11-30 ストライカー・ユーロピアン・オペレーションズ・リミテッド 手術器具用トラッカ
US20210121238A1 (en) * 2019-10-24 2021-04-29 Acclarent, Inc. Visualization system and method for ent procedures
WO2021084484A2 (en) 2019-10-29 2021-05-06 Stryker European Operations Limited Surgical navigation tracker, system, and method
DE102019130368A1 (de) * 2019-11-11 2021-05-12 Timo Krüger Verfahren und System zum Wiedergeben eines Einstichpunktes für ein medizinisches Instrument
US11992373B2 (en) * 2019-12-10 2024-05-28 Globus Medical, Inc Augmented reality headset with varied opacity for navigated robotic surgery
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
EP3847990B1 (en) * 2020-01-13 2022-04-06 Stryker European Operations Limited Technique of controlling display of a navigation view indicating an instantaneously changing recommended entry point
WO2021180331A1 (en) * 2020-03-12 2021-09-16 Brainlab Ag Method for registering a virtual representation of a patient anatomy with a coordinate system of a physical patient anatomy
US11950968B2 (en) 2020-03-13 2024-04-09 Trumpf Medizin Systeme Gmbh + Co. Kg Surgical augmented reality
CN111407406B (zh) * 2020-03-31 2022-04-26 武汉联影智融医疗科技有限公司 头部位置标识系统、术中控制系统及控制方法
US20210346093A1 (en) * 2020-05-06 2021-11-11 Warsaw Orthopedic, Inc. Spinal surgery system and methods of use
US20230186574A1 (en) * 2020-05-11 2023-06-15 Intuitive Surgical Operations, Inc. Systems and methods for region-based presentation of augmented content
CN111658065A (zh) * 2020-05-12 2020-09-15 北京航空航天大学 一种下颌骨切削手术的数字化引导系统
TWI790447B (zh) 2020-06-10 2023-01-21 長庚大學 手術路徑定位方法、資訊顯示裝置、電腦可讀取的記錄媒體及特殊應用積體電路晶片
US11389252B2 (en) * 2020-06-15 2022-07-19 Augmedics Ltd. Rotating marker for image guided surgery
US11481931B2 (en) * 2020-07-07 2022-10-25 Qualcomm Incorporated Virtual private space for extended reality
US11164391B1 (en) 2021-02-12 2021-11-02 Optum Technology, Inc. Mixed reality object detection
US11210793B1 (en) 2021-02-12 2021-12-28 Optum Technology, Inc. Mixed reality object detection
US11273003B1 (en) * 2021-02-18 2022-03-15 Xenco Medical, Inc. Surgical display
US11478327B2 (en) 2021-02-18 2022-10-25 Xenco Medical, Inc. Surgical display
CN113509266A (zh) * 2021-04-01 2021-10-19 上海复拓知达医疗科技有限公司 增强现实信息显示装置、方法、可读存储介质及设备
CN113509265A (zh) * 2021-04-01 2021-10-19 上海复拓知达医疗科技有限公司 一种动态位置识别提示系统及其方法
CN113456220B (zh) * 2021-06-30 2023-02-28 上海微创医疗机器人(集团)股份有限公司 对准方法、手术机器人及计算机存储介质
EP4387552A1 (en) * 2021-08-18 2024-06-26 Augmedics Ltd. Augmented-reality surgical system using depth sensing
WO2023039032A1 (en) * 2021-09-08 2023-03-16 Arthrex, Inc. Surgical systems and methods for positioning objects using augmented reality navigation
AU2022370478A1 (en) 2021-10-18 2024-05-02 Stryker European Operations Limited Attachment and system for tracking a surgical instrument
EP4197475B1 (en) * 2021-12-16 2023-11-01 Stryker European Operations Limited Technique of determining a scan region to be imaged by a medical image acquisition device
CN114587584B (zh) * 2022-03-04 2023-10-03 杭州湖西云百生科技有限公司 提高骨科置钉操作安全性的导航系统可视化方法及系统
WO2024006578A2 (en) 2022-07-01 2024-01-04 Stryker Corporation Methods and systems for zone and implant planning for a surgical procedure
WO2024057210A1 (en) 2022-09-13 2024-03-21 Augmedics Ltd. Augmented reality eyewear for image-guided medical intervention
CN115624384B (zh) * 2022-10-18 2024-03-22 方田医创(成都)科技有限公司 基于混合现实技术的手术辅助导航系统、方法和存储介质
US11850005B1 (en) * 2022-10-27 2023-12-26 Mammen Thomas Use of immersive real-time metaverse and avatar and 3-D hologram for medical and veterinary applications using spatially coordinated multi-imager based 3-D imaging
SE2350088A1 (en) * 2023-01-31 2024-08-01 Tobii Ab Systems and methods for head pose data
EP4431041A1 (en) * 2023-03-13 2024-09-18 Incremed AG Marker system
US20240312141A1 (en) * 2023-03-17 2024-09-19 Depuy Ireland Unlimited Company Augmented reality (ar) virtual objects for aligning an instrument plane with a planned target plane
CN116919596B (zh) * 2023-09-14 2024-01-09 武汉联影智融医疗科技有限公司 器械导航方法、系统、装置、设备和存储介质
CN116919599B (zh) * 2023-09-19 2024-01-09 中南大学 一种基于增强现实的触觉可视化手术导航系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014524753A (ja) 2011-04-28 2014-09-25 コーニンクレッカ フィリップス エヌ ヴェ 人工弁の誘導送達
JP2016529999A (ja) 2013-08-15 2016-09-29 インテュイティブ サージカル オペレーションズ, インコーポレイテッド カテーテルの位置付け及び挿入のためのグラフィカル・ユーザインターフェイス
WO2016207628A1 (en) 2015-06-22 2016-12-29 Ec Medica Ltd Augmented reality imaging system, apparatus and method

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5638819A (en) * 1995-08-29 1997-06-17 Manwaring; Kim H. Method and apparatus for guiding an instrument to a target
US6671538B1 (en) 1999-11-26 2003-12-30 Koninklijke Philips Electronics, N.V. Interface system for use with imaging devices to facilitate visualization of image-guided interventional procedure planning
EP1356413A2 (en) 2000-10-05 2003-10-29 Siemens Corporate Research, Inc. Intra-operative image-guided neurosurgery with augmented reality visualization
EP1377679B1 (en) * 2000-12-14 2009-10-28 Gen-Probe Incorporated Method and kit for enhancing the association rates of polynucleotides
EP1550024A2 (en) 2002-06-21 2005-07-06 Cedara Software Corp. Computer assisted system and method for minimal invasive hip, uni knee and total knee replacement
US7660623B2 (en) 2003-01-30 2010-02-09 Medtronic Navigation, Inc. Six degree of freedom alignment display for medical procedures
US20080154120A1 (en) 2006-12-22 2008-06-26 General Electric Company Systems and methods for intraoperative measurements on navigated placements of implants
WO2010067267A1 (en) * 2008-12-09 2010-06-17 Philips Intellectual Property & Standards Gmbh Head-mounted wireless camera and display unit
WO2011134083A1 (en) * 2010-04-28 2011-11-03 Ryerson University System and methods for intraoperative guidance feedback
US8882662B2 (en) 2012-06-27 2014-11-11 Camplex, Inc. Interface for viewing video from cameras on a surgical visualization system
JP2017524281A (ja) 2014-05-20 2017-08-24 ユニヴァーシティ オブ ワシントン 媒介現実の外科用視覚化のためのシステム及び方法
US9538962B1 (en) 2014-12-31 2017-01-10 Verily Life Sciences Llc Heads-up displays for augmented reality network in a medical environment
US20160324580A1 (en) 2015-03-23 2016-11-10 Justin Esterberg Systems and methods for assisted surgical navigation
USRE49930E1 (en) * 2015-03-26 2024-04-23 Universidade De Coimbra Methods and systems for computer-aided surgery using intra-operative video acquired by a free moving camera
CA2976516C (en) 2015-07-27 2022-11-22 Synaptive Medical (Barbados) Inc. Navigational feedback for intraoperative waypoint
EP3361979A4 (en) * 2015-10-14 2019-06-26 Surgical Theater LLC SURGICAL NAVIGATION WITH EXTENDED REALITY
CN111329554B (zh) 2016-03-12 2021-01-05 P·K·朗 用于手术的装置与方法
EP4345831A3 (en) 2016-07-25 2024-04-24 Magic Leap, Inc. Imaging modification, display and visualization using augmented and virtual reality eyewear
CN106109015A (zh) 2016-08-18 2016-11-16 秦春晖 一种头戴式医疗系统及其操作方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014524753A (ja) 2011-04-28 2014-09-25 コーニンクレッカ フィリップス エヌ ヴェ 人工弁の誘導送達
JP2016529999A (ja) 2013-08-15 2016-09-29 インテュイティブ サージカル オペレーションズ, インコーポレイテッド カテーテルの位置付け及び挿入のためのグラフィカル・ユーザインターフェイス
WO2016207628A1 (en) 2015-06-22 2016-12-29 Ec Medica Ltd Augmented reality imaging system, apparatus and method

Also Published As

Publication number Publication date
US20200085511A1 (en) 2020-03-19
US20230131515A1 (en) 2023-04-27
CN110650703A (zh) 2020-01-03
CN110650703B (zh) 2023-05-12
CN116236282A (zh) 2023-06-09
JP2020518423A (ja) 2020-06-25
US11589927B2 (en) 2023-02-28
EP3618748A1 (en) 2020-03-11
EP3618748B1 (en) 2023-10-25
AU2018262533A1 (en) 2019-11-21
WO2018203304A1 (en) 2018-11-08
AU2018262533B2 (en) 2024-01-18

Similar Documents

Publication Publication Date Title
JP7189939B2 (ja) 手術ナビゲーションシステム
US20200246081A1 (en) Augmented reality navigation systems for use with robotic surgical systems and methods of their use
US11707330B2 (en) Systems and methods for surgical navigation
US12115028B2 (en) Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US20220084298A1 (en) Surgeon head-mounted display apparatuses
US7774044B2 (en) System and method for augmented reality navigation in a medical intervention procedure
TW572748B (en) A guide system and a probe therefor
ES2292593T3 (es) Sistema de guiado.
EP2153794A2 (en) System for and method of visualizing an interior of a body
JP2023526716A (ja) 外科手術ナビゲーションシステムおよびそのアプリケーション
Zhang et al. 3D augmented reality based orthopaedic interventions
EP3871193B1 (en) Mixed reality systems and methods for indicating an extent of a field of view of an imaging device
EP2453290A1 (en) Image presentation method and apparatus therefor
WO2012062872A1 (en) Image presentation method, and apparatus therefor
Eng et al. STEREO AUGMENTED REALITY IN A NAVIGATED SURGICAL MICROSCOPE

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210426

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220218

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20220224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221202

R150 Certificate of patent or registration of utility model

Ref document number: 7189939

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150