JP2022017422A - 拡張現実感手術ナビゲーション - Google Patents

拡張現実感手術ナビゲーション Download PDF

Info

Publication number
JP2022017422A
JP2022017422A JP2021176447A JP2021176447A JP2022017422A JP 2022017422 A JP2022017422 A JP 2022017422A JP 2021176447 A JP2021176447 A JP 2021176447A JP 2021176447 A JP2021176447 A JP 2021176447A JP 2022017422 A JP2022017422 A JP 2022017422A
Authority
JP
Japan
Prior art keywords
patient
virtual
view
user
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021176447A
Other languages
English (en)
Inventor
タコ,ヤハヴ
Tako Yahav
ゲリ,アロン,ヤコブ
Yakob Geri Alon
アヴィザル,モルデチャイ
Avisar Mordechai
テイクマン,エリアフ
Teichman Eliahu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Surgical Theater Inc
Original Assignee
Surgical Theater Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Surgical Theater Inc filed Critical Surgical Theater Inc
Publication of JP2022017422A publication Critical patent/JP2022017422A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/62Semi-transparency

Abstract

【課題】ユーザ(外科医)が手術に集中し続ける一方で、患者から目を離すことなく手術中に必要とされる情報を処理可能とする。【解決手段】拡張現実感手術ナビゲーション方法は、患者104に関連する多次元仮想モデルを準備するステップを含む。方法はさらに、患者に対する外科医102の位置、および患者に対する外科医のビューの角度を含む、患者に対する外科医の現在のビューを示すトラッキング情報を受信するステップを含む。方法はさらに、受信されたトラッキング情報に基づき仮想モデル内の仮想ビューを識別し、識別された仮想ビューは患者に対する外科医のビューに対応するステップを含む。方法はさらに、識別された仮想ビューに基づき仮想モデルから仮想画像を表現するステップを含む。【選択図】図1

Description

本出願は、2015年10月14日出願の米国仮出願シリアル番号62/241,447の受益を主張し、これは参照により本明細書に組み込まれる。
脳動脈瘤の修復術のような高リスクの手術の間、例えば外科医が動脈瘤領域にアプローチするよう組織を押すおよび切断するため、脳組織の絶対方向が著しく変更される。従って、予め登録された3D像に基づいた画像誘導ナビゲーションシステムのような先進の手術準備および支援システムの現在の利用は、外科医の補助に限定される。また、動脈瘤修復のような手術は、動脈瘤領域への一時的血管クランプを含む種々の処置のため、非常に時間的制約がある。従って、処置の効率が極めて重要で、患者特有の局部の幾何学構造および動脈瘤の物理的特性に基づいた詳細な計画が基本的である。新しいレベルの手術前準備を達成するのに、3DのCTおよびMRI画像がますます利用されている。しかし、それらの画像は、単体では手術リハーサルに大したことのない利点しか提供しない。
米国特許第8,311,791号(参照により本明細書に組み込まれる)に以前に記載された手術リハーサルおよび準備ツールは、静止した医療画像を動的および相互作用する多次元の全球形仮想現実の6つの自由度モデル(「MD6DM」)に変換するため開発され、MD6DMをリアルタイムの医療処置のシミュレーションに医師が使用可能である。
MD6DMは、医師が全球形仮想現実環境で介入を経験、計画、実行、およびナビゲートするのを可能にするグラフィカルシミュレーション環境を提供する。特にMD6DMは、外科医に従来の2次元患者医療スキャンから作られ、容積球形仮想現実モデル全体で6つの自由度(すなわち並進:x、y、z、および角度:ヨー、ピッチ、ロール)の球形仮想現実をもたらす、独特の多次元モデルを用いてナビゲートする機能を提供する。
MD6DMは、CT、MRI、DTIなどを含む患者自身の医療画像のデータセットから作られ、患者特有である。アトラスデータのような代表的な脳モデルは、外科医が望む場合、部分的に患者特有のモデルを生成するよう統合可能である。モデルは、MD6DM上のあらゆるポイントから360°の球形ビューをもたらす。MD6DMを用いて、観察者は解剖学的構造の仮想的に内部に位置し、観察者が患者の身体内部に立っているかのように解剖学的構造および病理学的構造の両方を見て観察可能である。観察者は、患者内で見られる本来の構造を互いに対して正確に、上を見る、下を見る、肩越しに見るなどが可能である。MD6DMを用いて、内部の構造間の空間的関係が保存され、評価可能である。
MD6DMのアルゴリズムは医療画像情報を取り込み、それを球形モデルの、あらゆる角度から見ることが可能である一方で解剖学的構造内部に「飛ぶ」、完全な連続したリアルタイムモデルを作る。特に、CT、MRI、などが実際の生体を取り込み、それを数千のポイントから作られた何百もの薄いスライスに分解した後、MD6DMはそれを、内側および外側の両方からそれらのポイントのそれぞれの360°のビューを示すことによって3Dモデルに戻す。
1つの例では、医師は、手術室(OR)内の実際の手術処置の間、MD6DM内で利用可能な情報を活用し、それを使用したいかもしれない。しかし、外科医はすでに、処置の間、手術室内で顕微鏡または内視鏡を使用しているかもしれない。よって、外科医がMD6DMまたは他のタイプの患者のスキャンまたはデータを見るために顕微鏡または内視鏡から眼を逸らすことは、非効率的で気が散り、時間がかかりうる。また、すでに混みあった手術室内にMD6DMのような患者のスキャンおよびモデルを見るさらなる機器およびシステムを含めることは、実用的または可能でないかもしれない。
拡張現実感手術ナビゲーションシステムは、1つまたは複数のプロセッサと、1つまたは複数のコンピュータ可読な有形の記憶装置と、1つまたは複数のプロセッサのうち少なくとも1つによる実行のため、1つまたは複数の記憶装置のうち少なくとも1つに格納されたプログラム命令を有する。プログラム命令は、患者に関連する多次元仮想モデルを準備する第1のプログラム命令を含む。プログラム命令はさらに、患者のライブのビデオフィードを受信する第2のプログラム命令を含む。プログラム命令はさらに、患者に対する位置を示すトラッキング情報を受信する第3のプログラム命令を含む。プログラム命令はさらに、トラッキング情報に基づき仮想モデルをライブのビデオフィードと組み合わせることにより、患者の拡張現実感ビューを生成する第4のプログラム命令を含む。プログラム命令はさらに、患者の拡張現実感ビューをディスプレイへ通信する第5のプログラム命令を含む。
コンピュータプログラム製品は、1つまたは複数のコンピュータ可読な有形の記憶装置、および1つまたは複数の記憶装置のうち少なくとも1つに格納されたプログラム命令を含む。プログラム命令は、患者に関連する多次元仮想モデルを準備する第1のプログラム命令を含む。プログラム命令はさらに、患者のライブのビデオフィードを受信する第2のプログラム命令を含む。プログラム命令はさらに、患者に対する位置を示すトラッキング情報を受信する第3のプログラム命令を含む。プログラム命令はさらに、トラッキング情報に基づき仮想モデルをライブのビデオフィードと組み合わせることにより、患者の拡張現実感ビューを生成する第4のプログラム命令を含む。プログラム命令はさらに、患者の拡張現実感ビューをディスプレイへ通信する第5のプログラム命令を含む。
提供されるのは、患者に関連する多次元仮想モデルを準備するステップを含む拡張現実感手術ナビゲーション方法である。方法はさらに、患者のライブのビデオフィードを受信するステップを含む。方法はさらに、患者に対する位置を示すトラッキング情報を受信するステップを含む。方法はさらに、トラッキング情報に基づき仮想モデルをライブのビデオフィードと組み合わせることにより、患者の拡張現実感ビューを生成するステップを含む。方法はさらに、患者の拡張現実感ビューをディスプレイへ通信するステップを含む。
また提供されるのは、1つまたは複数のプロセッサと、1つまたは複数のコンピュータ可読な有形の記憶装置と、患者に対するユーザの位置についての情報を検出する少なくとも1つのセンサと、1つまたは複数のプロセッサのうち少なくとも1つによる実行のため、1つまたは複数の記憶装置のうち少なくとも1つに格納されたプログラム命令とを備える拡張現実感手術ナビゲーションシステムである。そのようなシステムのプログラム命令は、患者に関連する多次元仮想モデルを準備する第1のプログラム命令と、センサにより検出された患者に対するユーザの位置、および患者に対するユーザのビューの角度を含む、患者に対するユーザの現在のビューを示すトラッキング情報を受信する第2のプログラム命令と、受信されたトラッキング情報に基づき仮想モデル内の仮想ビューを識別し、識別された仮想ビューは患者に対するユーザのビューに対応する第3のプログラム命令と、識別された仮想ビューに基づき仮想モデルから仮想画像を表現する第4のプログラム命令と、表現された仮想画像をディスプレイに通信し、表現された仮想画像は患者の拡張現実感ビューを形成するようユーザのビューと組み合わされる第5のプログラム命令を有する。
さらに提供されるのは、第2のプログラム命令がさらに、患者に対するユーザの位置および患者に対するユーザのビューの角度が変化するとき、更新されたトラッキング情報をリアルタイムに連続的に受信するよう構成され、第3のプログラム命令がさらに、仮想ビューが患者に対するユーザのビューと連続的に同期されるように、注意して更新されたトラッキング情報に対応する仮想ビューをリアルタイムで連続的に識別するよう構成された前述のシステムである。
また提供されるのは、患者に対するユーザのビューに対応するライブのビデオフィードを受信する第6のプログラム命令と、仮想画像をリアルタイムで連続的に表現しライブのビデオフィードと組み合わせることにより、患者に対する拡張現実感ビューを生成し、仮想画像はトラッキング情報に基づきライブのビデオフィードと同期される、第7のプログラム命令をさらに含む前述のシステムのいずれかである。
またさらに提供されるのは、第2のプログラム命令がさらに、患者に対する第2のユーザの位置、および患者に対する第2のユーザのビューの角度を含む患者に対する第2のユーザの現在のビューを示す第2のトラッキング情報を受信するよう構成され、第2のユーザの現在のビューが患者に対するユーザの現在のビューと異なり、第3のプログラム命令がさらに、受信された第2のトラッキング情報に基づき、仮想モデル内の第2の仮想ビューを識別するよう構成され、識別された第2の仮想ビューは患者に対する第2のユーザのビューに対応し、第4のプログラム命令がさらに、識別された第2の仮想ビューに基づき仮想モデルから第2の仮想画像を表現するよう構成され、第5のプログラム命令がさらに、表現された第2の仮想画像を第2のディスプレイに通信するよう構成され、表現された第2の仮想画像は、患者に対する第2の拡張現実感ビューを形成するよう第2のユーザのビューと組み合わされ、同時に第1の表現された仮想画像を第1のディスプレイに通信する前述のシステムのいずれかである。
また提供されるのは、患者に関連する多次元仮想モデルを準備するステップと、患者に対するユーザの位置、および患者に対するユーザのビューの角度を含む、患者に対するユーザの現在のビューを示すトラッキング情報を受信するステップと、受信されたトラッキング情報に基づき仮想モデル内の仮想ビューを識別し、識別された仮想ビューは患者に対するユーザのビューに対応するステップと、識別された仮想ビューに基づき仮想モデルから仮想画像を表現するステップと、表現された仮想画像をディスプレイに通信し、表現された仮想画像はディスプレイにより表示された患者に対する拡張現実感ビューを形成するようユーザのビューと組み合わされるステップを含む、拡張現実感手術ナビゲーション方法である。
またさらに提供されるのは、患者に対するユーザの位置および患者に対するユーザのビューの角度が変化するとき、更新されたトラッキング情報を受信するステップと、仮想ビューが患者に対するユーザのビューと連続的に同期されるように、注意して更新されたトラッキング情報に対応する仮想ビューを識別するステップと、患者に対するユーザのビューに対応するライブのビデオフィードを受信するステップと、仮想画像をリアルタイムで連続的に表現しライブのビデオフィードと組み合わせることにより、患者に対する拡張現実感ビューを生成し、仮想画像はトラッキング情報に基づきライブのビデオフィードと同期されるステップと、患者に対する第2のユーザの位置、および患者に対する第2のユーザのビューの角度を含む、患者に対する第2のユーザの現在のビューを示す第2のトラッキング情報を受信し、第2のユーザの現在のビューが患者に対するユーザの現在のビューと異なるステップと、受信された第2のトラッキング情報に基づき仮想モデル内の第2の仮想ビューを識別し、識別された第2の仮想ビューは患者に対する第2のユーザのビューに対応するステップと、識別された第2の仮想ビューに基づき仮想モデルから第2の仮想画像を表現するステップと、および/または、表現された第2の仮想画像を第2のディスプレイに通信し、表現された第2の仮想画像は患者に対する第2の拡張現実感ビューを形成するよう第2のユーザのビューと組み合わされ、同時に第1の表現された仮想画像を第1のディスプレイに通信するステップのいずれかをさらに含む、前述の方法である。
さらに提供されるのは、1つまたは複数のプロセッサと、1つまたは複数のコンピュータ可読な有形の記憶装置と、患者に対するユーザの位置についての情報を検出する第1のセンサと、ユーザの現在の動作に基づき画像を捕捉する第2のセンサと、1つまたは複数のプロセッサのうち少なくとも1つによる実行のため、1つまたは複数の記憶装置のうち少なくとも1つに格納されたプログラム命令とを備える拡張現実感手術ナビゲーションシステムである。プログラム命令は、患者に関連する多次元仮想モデルを準備する第1のプログラム命令と、第1のセンサにより検出された患者に対するユーザの現在の位置を示すトラッキング情報を受信する第2のプログラム命令と、ユーザの現在の動作に基づき画像を受信および処理する第3のプログラム命令と、受信されたトラッキング情報に基づき仮想モデル内の仮想ビューを識別し、識別された仮想ビューはユーザの現在の動作に対応する第4のプログラム命令と、識別された仮想ビューに基づき仮想モデルから仮想画像を表現する第5のプログラム命令と、表現された仮想画像をディスプレイに通信し、表現された仮想画像は患者に対する拡張現実感ビューを形成するようユーザの現在の動作に基づく画像と組み合わされる第6のプログラム命令を含む。
さらなる実施形態例も提供され、そのいくつか(しかし全てではない)を本明細書に詳細をさらに後述する。
特許または出願書類は、白黒で実行された少なくとも1枚の写真を含む。白黒写真の図を含む本特許または特許出願公開のコピーは、要請および必要な費用の支払があれば本事務所から提供される。添付の図で、構造が示され、後述の詳細な記載と共に、主張される発明の例示的な実施形態を説明する。同一の構成要素は、同一の参照番号で識別される。単一の構成要素として示された構成要素を複数の構成要素で置き換えてもよく、複数の構成要素として示された構成要素を単一の構成要素で置き換えてもよいことを理解するべきである。図は縮尺通りではなく、例示の目的のため特定の構成要素の大きさを強調するかもしれない。
拡張現実感手術ナビゲーションシステムの例を示す。 拡張現実感手術ナビゲーションシステムの例のブロック図を示す。 同一のスクリーン上の光学ビューおよびスキャンされたビューの統合されたビューの例を示す。 外側通路からの腫瘍ケースのビューの例を示す。 外側通路からの腫瘍ケースのビューの例を示す。 内側通路からの腫瘍ケースのビューの例を示す。 内側通路から左下の腫瘍ケースのビューの例を示す。 内側通路から左の腫瘍ケースのビューの例を示す。 内側通路から左上の腫瘍ケースのビューの例を示す。 内側通路から上の腫瘍ケースのビューの例を示す。 内側通路から右上の腫瘍ケースのビューの例を示す。 内側通路から右の腫瘍ケースのビューの例を示す。 内側通路から右下の腫瘍ケースのビューの例を示す。 外側通路からの動脈瘤ケースのビューの例を示す。 内側通路からの動脈瘤ケースのビューの例を示す。 内側通路から下の動脈瘤ケースのビューの例を示す。 内側通路から左下の動脈瘤ケースのビューの例を示す。 内側通路から左の動脈瘤ケースのビューの例を示す。 内側通路から左上の動脈瘤ケースのビューの例を示す。 内側通路から上の動脈瘤ケースのビューの例を示す。 内側通路から右上の動脈瘤ケースのビューの例を示す。 内側通路から右の動脈瘤ケースのビューの例を示す。 内側通路から右下の動脈瘤ケースのビューの例を示す。 手術室内の上面図の例を示す。 ヘッドマウントディスプレイ(HMD)の例の正面図を示す。 ヘッドマウントディスプレイ(HMD)の例の背面図を示す。 ヘッドマウントディスプレイ(HMD)の他の例を示す。 拡張現実感手術ナビゲーション方法の例を示す。 4つの光学ビューディスプレイフォーマットの例を示す。 シーンの例内でアバターで表わされる複数のユーザの例を示す。 入力コントローラの例を示す。 図1のARS計算装置の例を実装するコンピュータの例の概略図である。 本明細書中に開示される改良とともに使用可能なSNAPシステムの例を使用するシステム構造の例およびインタフェースのブロック図である。 SNAPシステムの例に関するSNAPツール構成要素の例を示すブロック図である。 SNAPシステムの例に関するソフトウェアインタフェースの例を示すブロック図である。 ヘッドマウントディスプレイの例のいずれかで使用可能な種々のセンサ構成要素を示すブロック図である。
以下の頭字語および定義は、詳細な記載の理解を助ける。
AR-拡張現実感-要素が音、ビデオ、またはグラフィックスのようなコンピュータ生成知覚要素により強化された物理的な現実世界の環境のライブのビュー
VR-仮想現実-種類を変えて人が調査および相互作用可能な3次元のコンピュータ生成環境。
HMD-ヘッドマウントディスプレイ(図26)は、ARまたはVR環境で使用可能なヘッドセットを指し、有線または無線であってもよく、また、ヘッドホン、マイクロホン、HDカメラ、赤外線カメラ、ハンド追跡器、位置追跡器などのような1つまたは複数の付加装置を有してもよい。
コントローラ-ボタンおよび方向コントローラを有する装置であり、有線または無線であってもよい。この装置の例は、Xboxゲームパッド、プレイステーションゲームパッド、オキュラスタッチなどである。
HMDスイッチ-ユーザがHMDおよび/またはコントローラを用いてソフトウェアと相互作用することを可能にするスイッチ。このスイッチは、ソフトウェアまたはコントローラのボタンを押す、例えば「HMDスタート」、「HMDストップ」といった語句または単語を言う、フットスイッチを押す、長波のようなハンドジェスチャを含むいくつかの方法で始動/停止可能である。
セグメンテーション-デジタル画像を複数のセグメント(ピクセルのセット)に分割するプロセス。セグメンテーションの目的は、画像表示の単純化および/または画像表示をより重要でより分析が容易なものに変更することである。
クリッピング-内部の構造を「スライスずつ」見せるよう、ビューの角度に垂直なモデル化された解剖学的構造の層を(一度に1つの予め設定された厚さで)取り除くプロセス。層は、側面/遠位で中間/近位方向へ取り除かれる。
SNAPケース-SNAPケースは、DICOMファイルフォーマットの患者の1つまたは複数のスキャン(CT、MR、fMR、DTI、など)を用いて生成された3Dテクスチャまたは3Dオブジェクトを指し、また、特定の範囲のフィルタリングおよび他を3Dテクスチャで着色するためのセグメンテーションの種々のプリセットを含む。また、対象となる特定のポイントまたは解剖学的構造にマーク付けする3D形状、3Dラベル、3D計測マーカー、誘導のための3D矢印、および3D手術ツールを含むシーン内に置かれる3Dオブジェクトを含んでもよい。手術ツールおよび装置は、教育および患者特有のリハーサル、特に動脈瘤クリップの適切な寸法についてモデル化されてきた。
シーン-その中に3Dテクスチャおよび3Dオブジェクトを含む3D仮想空間を指す。
アドオンセンサ-仮想経験の強化のため、現実環境からより多くの情報を受信するのを可能にする装置。例えば、Microsoft Kinect、Leap Motion。
アバター-ユーザのビューのポイントは「頭の影」(図1-101)で指定され、「アバター」と呼ばれる。ユーザのアバターは、例えば外科医の頭が右に動けばアバターは右に動くなど、全ての方向において、外科医の頭の動きに従う。外科医が他のビューのポイントを望めば、コントローラを用いてアバターをMD6DM内部の新しいポイントに再配置可能である。
MD6DM-多次元全球形仮想現実、6つの自由度モデルであり、医師が全球形仮想現実で介入を経験、計画、実行、およびナビゲートするのを可能にするグラフィカルシミュレーション環境を提供する。
開示されたシステムは、手術室の技術と統合して、進化した3D機能および拡張現実感を提供し、外科医が手術実績を強化し前もって準備するのを可能にする、手術グラフィカルツール(SNAP)の例のようなモデリングシステム上で実装される。SNAPツールは、他の使用の中でも、例えば脳腫瘍を取り除き血管形成異常を治療するのに最も安全で最も効率的な経路を判断するよう、神経外科医に比類のない仮想現実誘導を提供する。
SNAPツールは、例えば鍵穴および他の最小侵襲技術のための開頭、頭部の位置、病態への経路アプローチの3D計画をインポートする。SNAPは、外科医が前もって予測される外科医の眼のビューで見ることを可能にする。
SNAPツールを使用することで、外科医は、手術室にいる間に、特定の患者の実際のCT/MRI(および他の)スキャンを使用して、正確性および効率の強化が可能になる手術計画を実行可能である。SNAPはまた、外科医により有益な画像を作成するよう変更可能な回転可能の3Dフォーマットで、背後の動脈および他の重要な構造を外科医が見ることを可能にする革新的な機能を提供する。例えばSNAPは、画像を回転するまたは半透明にする性能を提供し、操作の視覚化において外科医を支援する。SNAPは、「患者特有の」手術で外科医が実際に「フライスルー」のを可能にする進化した画像化技術を使用する。ツールは手術室外の準備支援を提供し、処置中に外科医(および彼のスタッフ)が使用するため、手術室内に予め計画された経路を取り込むのにも使用可能である。
SNAPは、手術ツール、ナビゲーションプローブ、顕微鏡の焦点などのどれかがOR内部で作動可能な追跡ナビゲーションシステムに接続することにより、それらの追跡座標を取得する。SNAPは、強化された状況認識を遅らせる3Dナビゲーションモデルを提供する。SNAPは、画像またはトラッキング/ナビゲーション情報を収集するよう構成されたあらゆるこれらの手術ツールからそのような情報を受信可能であり、SNAPシステムは、受信された情報に対応する外科医にそのような情報を高解像度画像で表示させることができる。例えば、SNAP画像は表示された画像内のツールの位置を追跡してもよいし、または例えばツールにより提供された視覚情報に基づき画像を更新してもよい。
SNAP接近警報システムは、地面および他の障害物への接近を引き起こしうる接近および/操縦を乗務員に示し警告する、航空機の対地接近警報システム(GPWS)および航空機衝突防止システム(ACAS)、地勢衝突防止システム(TCAS)および他の同様のシステムと同様の方法で作動する。SNAP接近警報システムは、以下の主な段階を含んで作動する。
SNAP接近警報システムは、外科医が避ける必要がある解剖学的構造に、自動的にマーク付けすることが可能である。そのような解剖学的構造は、ファイバートラッキング、神経、血管、動脈などを含んでもよい。SNAP接近警報システムは、3Dまたは2Dナビゲーションシーン内のマーケットの手動配置を可能にする。それらのマーケットは、避ける障害物および解剖学的構造のどちらかをマーク付け、または外科医がナビゲートされる目標をマーク付け可能である。取り付けられる全てのマーカーはラベル付け可能であり、特定の色、特定の形状などを有することが可能である。SNAP接近警報システムの警報の表示は、視覚(例えば色の変化)、声(音)および他であることが可能である。
SNAPは、軌道の生成を可能にする。挿入ポイントを売買し、それからこの挿入ポイントを上記マーカー/目標と関連付けることにより、SNAPは挿入ポイントから目標へナビゲートするのを可能にする軌道を生成する。SNAPパスプランナーは、外科医がいくつかのマーカー、目標、および挿入ポイントをつなげてパスを生成することを可能にする。複数のパスを生成可能である。パスは所望の従うルート、または避けるパスであることが可能である。
SNAPは、外科医に視覚のグラフィック誘導を提供する。外科医が誘導されたマーカー内に自らの動きを維持する限り、正確にポイントAからポイントB(挿入ポイントから目標)に達する。ツールは、施設(例えば、病院)およびそれらのそれぞれの外科医に、手術エラーの減少、手術での廃棄物量および関連する費用の減少、手術室での時間の減少、および処置での高リスクの性質の最小化の機会を提供する。ツールは、神経外科手術のトレーニングの高い質を維持する機会、および手術室外で受ける教育、多数の広範囲にわたる例、病院でのおよそ終わりがない常駐時間における手術スキルのハルステッドトレーニングを提供する。最近の進歩は、ハルステッドシステムの再考を強いてきた。最近のハルステッドシステムへの圧力の高まりは、制限された作業時間、世間の高まる厳しい目、および作業経験の減少を含む。
ツールを使用したリハーサルは、後に続く処置および調整の必要を減少することが可能である。例えば、ツールが動脈瘤手術に使用されるとき、ツールの使用は動脈瘤クリップを調整または交換する必要を減少することが可能である。クリップの調整および交換は、通常は、一時的閉塞を延ばし全体の処置時間を延ばす結果となりうる。これは、処置全体のリスクを増す可能性がある。
当業者が理解するように、本明細書中に開示される実施形態例は、方法、システム、コンピュータプログラム製品、または前述の組み合わせとして実現されてもよく、または通常使用してもよい。従って、あらゆる実施形態は、完全にハードウェアの実施形態、ハードウェアを実行する(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)完全にソフトウェアの実施形態、またはソフトウェアおよびハードウェアの態様の組み合わせ(本明細書では通常「システム」と呼ぶかもしれない)の実施形態を取ってもよい。さらに、あらゆる実施形態は、媒体内に具体化されたコンピュータで使用可能なプログラムコードを有するコンピュータが使用可能な記憶媒体上のコンピュータプログラム製品の形態を取ってもよい。
例えば、本明細書中に開示される機能は、図31Aに示されたように、(手術室内のような)病院環境内に設けられたネットワーク化されたコンピュータシステム1を用いて実装可能である。このシステムを手術環境内に設けることが可能であり、そこで外科医20がさまざまな手術スタッフ22に支援されて患者5を手術する。そのようなシステム1は、コンピュータネットワーク12を用いて共にネットワーク化された、1つまたは複数のデータベース15A~15nからデータをアクセスする1つまたは複数のサーバ(例えば、PC)10A~10nを統合する。システムは、本明細書に記載された機能および他の機能を実装するよう提供された専有のソフトウェアを実行する。1つまたは複数のコンピュータ20を、コンピュータ18とツール間のインタフェースとして1つまたは複数のコンピュータバスまたはネットワーク30を用いて、手術プローブ/カメラ32、他の手術ツール34、および/またはコンピュータ(1台または複数)20に接続された他の機器36のような種々の手術ツールとインタフェース接続するのに使用可能である。いくつかの状態で、コンピュータ18、サーバ10、およびデータベース15の全てを単一のサーバプラットフォーム内に収容してもよいことに留意されたい。
システムは高解像度3Dディスプレイ40に接続され、ディスプレイ40上で外科医は種々のツール32、34、および36の操作および活動を監視可能である。一部のケースで、ディスプレイは3D機能を有さなくてもよい。さらに、後述する例のヘッドマウントディスプレイ(HMD)は、外科医および/または助手に本物そっくりの画像を提供するのに使用可能である。1つまたは複数のそのようなディスプレイを、インターネットのような通信ネットワークを介した接続を通してのように、手術場所から遠隔に設けてもよい。
システムは患者特有のパラメータ7と共に構成され、パラメータ7は、予め取得された患者の利用可能なCTおよびMRI画像、および患者の年齢、性別などのようなシミュレーションされたモデルに関する他の情報から準備された画像を含む、患者の画像化された詳細を含む(それのいくつかまたは全てを、例えば医療データベース、研究所または他のソースのような外部実体から取得してもよい)。システムは、組織および器官の特徴を記載するシステムデータベース(1台または複数)から取得された組織情報パラメータを使用する。所望の場合、システムを、インターネットのような通信ネットワーク50を介して1つまたは複数の外部実体60と情報を交換するよう構成してもよい。
任意の適切なコンピュータで使用可能な(コンピュータ可読な)媒体を、開示されたプロセスの実現、および開示されたデータおよび情報の格納のため、1つまたは複数のコンピュータ上で実行されるソフトウェアの格納に使用してもよい。コンピュータで使用可能またはコンピュータ可読な媒体は、例えば、電子、磁気、光学、電磁、赤外線、または半導体システム、機器、装置、または伝搬媒体であってもよいが、それらに限定されない。コンピュータ可読な媒体のより具体的な例(完全網羅でないリスト)は、1つまたは複数の電線を有する電気接続、持ち運び可能なコンピュータフロッピーディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能プログラム可能読み出し専用メモリ(EPROMまたはフラッシュメモリ)、コンパクトディスク読み出し専用メモリ(CDROM)、または他の有形の光学または磁気記憶装置のような有形の媒体、またはインターネットまたはイントラネットを支援するもののような送信媒体を含むであろう。コンピュータで使用可能またはコンピュータ可読な媒体は、そこから例えば光学または磁気スキャンによりプログラムを電子的に取り込むことができ、例えば必要がある場合、適切な方法でコンパイル、解釈、または別の方法で処理され、それからあらゆるアクセス可能なタイプのコンピュータメモリ内に格納されうる他の媒体さえも含むことに留意されたい。
この文書の文脈で、コンピュータで使用可能またはコンピュータ可読な媒体は、命令実行システム、プラットフォーム、機器、または装置により、またはそれらと接続して、使用するプログラムを包含、格納、通信、伝搬または移送可能なあらゆる媒体であってもよく、それらは1つまたは複数のプログラム可能なまたは専用プロセッサ/コントローラ(1台または複数)を含む任意の適切なコンピュータ(またはコンピュータシステム)を含むことが可能である。コンピュータで使用可能な媒体は、ベースバンド内または搬送波の一部として、伝搬されたデータ信号とそれと共に具体化されるコンピュータで使用可能プログラムコードを有してもよい。コンピュータで使用可能なプログラムコードを、インターネット、有線、光ファイバケーブル、高周波(RF)または他の手段を含むが、それらに限定されないあらゆる適切な媒体を使用して送信してもよい。
実施形態例の動作を実行するコンピュータプログラムコードを、BASIC、Lisp、VBA、またはVBScriptのような解釈またはイベントドリブン言語、またはvisual basicのようなGUI実施形態、FORTRAN、COBOL、またはPascalのようなコンパイルされるプログラミング言語、Java、JavaScript、Perl、Smalltalk、C++、Object Pascalなどのようなオブジェクト指向、記述または非記述プログラミング言語、Prologのような人工知能言語、Adaのようなリアルタイム組み込み言語、またはラダー・ロジック、を用いてさらにより直接または単純化したプログラミング、アセンブラ言語、または適切な機械言語を用いた直接プログラミングを含むが、それらに限定されないいずれかのコンピュータ言語を用いて従来の手段により記述してもよい。
コンピュータ可読なメモリ内に格納された命令が、本明細書で明示された機能/動作を実装する命令手段を含む製造の物品を作り出すように、コンピュータプログラム命令を、(図31Aのシステム1の例により記載されたような)計算装置またはシステムを管理可能なコンピュータ可読なメモリ、または特定の方法で機能する他のプログラム可能なデータ処理機器内に格納さもなければロードしてもよい。
ソフトウェアは、実行装置または構成要素に提供されることにより実行される特殊化したコンピュータプログラム命令を有し、特殊化したコンピュータプログラムが実行されるとき、本明細書に明示された機能/動作を実装する手段を生成するように、実行装置または構成要素は、汎用コンピュータのプロセッサ、特殊用途コンピュータまたはコントローラ、または本明細書に記載されたようにカスタマイズされた他のプログラム可能なデータ処理機器または構成要素を含むことが可能である。よって、カスタマイズされたソフトウェアのコンピュータプログラム命令により、一連の動作が実行装置または構成要素、または他のプログラム可能な機器上で実行される状態を生じさせ、それにより、命令は、この開示で明示された機能/動作を実装するステップをコンピュータまたは他のプログラム可能な機器上で実行するように、コンピュータ実装プロセスを作り出す。本発明の実施形態の幾つもの例を実行するため、これらのステップまたは動作を、操作者または人間が実装するステップまたは動作、および他の構成要素または機器により提供されるステップまたは動作と組み合わせてもよい。カスタマイズされたソフトウェアはまた、所望に応じて、コンピュータオペレーティングシステム、データベースプラットフォーム(例えばMySQL)、または他のCOTSソフトウェアのような種々の市販ソフトウェアを使用してもよい。
「手術ナビゲーション先進プラットフォーム」(SNAP)と呼ばれるシステムの例について、実際の患者の医療画像は、動的な相互作用3Dシーンに変換される。この動的および相互作用画像/モデルは、医療画像に関する新しい今までにない初めての標準を作り、多くの適用を有する。
SNAPは、例えば腫瘍(脳など)を取り除き血管形成異常のような異常を治療するのに最も安全で最も効率的な経路を判断するよう、外科医(神経外科医など)、医師、および補助者に比類のない仮想現実誘導を提供する。「手術ナビゲーション先進プラットフォーム」(SNAP)を、スタンドアロンシステムまたは手術ナビゲーションシステムのアプリケーションとして使用することが可能であり、または、サードパーティのナビゲーションシステムが使用される処置のタイプに関して、サードパーティのナビゲーションシステムと共に使用することが可能である。これらの処置は、脳、脊椎、および耳、鼻、咽喉(ENT)を含むが、それらに限定されない。
SNAPは、外科医が手術前に特定の患者のケースを分析および計画し、それから手術中にその計画を手術室(OR)内で考慮し、その計画をナビゲーションシステムと併せて使用することを可能にする。それからSNAPは、ナビゲーションデータを先進の相互作用、高品質の3D画像に複数ポイントのビューで示す。
SNAPは、手術処置のリアルタイムおよび動的な複数ラインの(さまざまな/複数の見方からの)視界ビューを示す医療画像化装置を含む実画像誘導手術システムである。画像は、(CT、MRI、超音波、X線などのようなスキャンに基づいた)スキャンされた医療画像、および手術器具を含む。それは、顕微鏡または他のソースからのビデオに基づいたリアルタイムビデオおよびモデルを含んでもよい。SNAPは、外科医のためのリアルタイム3D相互作用誘導画像を提供する。解剖学的構造(すなわち頭、脳、ひざ、肩など)の方向はマーケットであり、物理的/患者のおよびスキャンされた医療画像(CT、MRI、超音波、X線など)の両方で予め登録され、従って、スキャンされた医療画像の方向および手術を受ける患者の実際の解剖学的構造の方向は、同期され整列される。
さらに、前述の予め登録されたマーカーは、手術器具およびOR顕微鏡(および/または外科医の頭)を追跡する、従ってスキャンされた医療画像に関する空間に手術器具画像/モデルを示すことを可能にする球形の参照を提供する。
2Dまたは3Dの患者の解剖学的構造と手術器具の位置および方向は、リアルタイムで同期され、解剖学的構造に関する空間内の器具およびマーカーのリアルタイムの位置および方向と共に外科医に示される。
SNAPシステムは、複数のスキャンされたデータセットを持つケースを準備可能である。組込み「結合」モードは、ユーザが1次データセットとして機能する1つのデータセットを選択し、1次スキャンデータセットに整列される(「結合される」)2次データセットを追加することを可能にする。
SNAPシステムは、比類のないクリップ機能を有する。全面IG立方体クリッピングは、ユーザがあらゆる所望の角度から3Dモデルを「クリップ」し、本質的にモデルに切り取り、モデル内部を露出するよう区画を取り除く機能である。クリッピング面は、それによって3Dモデルが2つの変数-面法線(ベクトル)および平面位置(面が通る空間内のポイント)によって定義される面に「クリップされる」面である。
さらにSNAPシステムは、シーンで全面IG立方体クリッピングを3D移動構成要素に従属させるのを承知している。立方体クリッピング面が標準および位置により定義されるので、ユーザのためにこれを定義するのにシーン内で移動構成要素を使用可能である。構成要素は、ナビゲーションプローブ、3Dコントローラ(Omni)、通路、IGビューポイント(アイカメラ)などである。
他の特徴は、変換機能である。SNAPシステムは、「組織特有の強度」を表示する特別な能力を持つ。原型のデータセットスライスが収集され、積層されてピクセルの立方体、または我々がボクセル立方体と呼ぶものを再構成する。3Dモデルは、ボクセルの立方体容積である。変換機能は、それぞれのボクセル強度値を色および不透明度にマッピングするのに使用される。その方法で、我々は組織強度を制御し、外科医が通常見ることができないものを見ることを可能にする。この革新的な機能は、外科医が動脈の後側、および他の重要な構造、今日まで不可能だったものを見ることを可能にする。
SNAPは、同一のスクリーンまたは多数のスクリーン上の1つまたは多数のウィンドウにモデルを表示可能である。SNAPの機能および適用の例では、複数の機能をスクリーン上で並列して始動可能である。
一般的なSNAPシステム構成は、(1)可動性のためのシステムに据え付けられたカート、(2)医療グレード絶縁変圧器、(3)Microsoft Windows7オペレーティングシステムを実行するパーソナルコンピュータ(またはサーバ)、(4)高品質グラフィックスのためのハイエンドnVIDIAグラフィックスアダプタ、(5)27”または32”フルHDタッチスクリーンディスプレイ、(6)医療グレードキーボードおよびマウス、および(7)本明細書に記載された機能を実装するSNAPソフトウェアアプリケーションの主な構成要素を備える。そのようなシステムが図31Bのブロック図に示され、そこではタッチスクリーンモニタ71を有する可動カート据付SNAPシステム例70は、PC72および電源システム73と共に構成され、それらの全てを手術室内に設けることが可能である。システム例70は、手術室内に設けられた画像誘導手術(IGS)システム例のようなナビゲーションシステム75に接続され、そこから、SNAPシステム70がナビゲーションシステムの動作に従って、高解像度の本物そっくりの3D画像を表示可能なように、SNAPシステム70がデータを受信可能で、手術される特定の患者の画像に基づき、SNAPの高解像度画像化機能で、ナビゲーションシステムの動作および表示機能を効果的に強化する。
手術ナビゲーション先進プラットフォーム(SNAP)は、CTまたはMR医療スキャナからの画像化情報を出力ファイルに変換するソフトウェアインタフェースおよび画像セグメンテーションシステムとしての使用が意図される。組織セグメンテーションウィンドウは、ケースを準備するよう組織セグメンテーションを編集および更新するために提供される。組織セグメンテーション内の変更は3D画像内に反映され、結果をケースファイルとして保存可能である。手術前および手術中の両方で手術治療の選択肢をシミュレーション/評価するソフトウェアとしてもまた意図される。手術ナビゲーション先進プラットフォーム(SNAP)は、手術前および手術中の両方に手術治療の選択肢をシミュレーション/評価するツールである。
システムは通常、手術室に適合可能であるEMC免疫を提供し、ナビゲーション、タイピング、および画像操作にタッチスクリーン操作を使用する。システムはケースファイルを用いて個々の患者ケースを格納可能であり、患者ケースは所望に応じてシステム内にロード可能である。外科医は、特定の患者のスキャンされた情報(例えばMR、またはCT DIACOM画像データファイル)および患者データを用いて、スクラッチからケースを生成可能である。これらのケースを、所望に応じて編集および更新可能である。画像およびファイルの編集および操作に、編集ウィンドウを使用可能である。
種々の器官および組織の一般的なモデルを提供可能であり、それらを患者画像または他の診断ツールまたは検査室の入力に基づいた患者特有のモデルと重ねることが可能である。よって、特定の対象でない器官または他の機能について、システムは、意図される治療について患者特有の情報が必要とされない箇所に、一般的なモデル(例えば眼球または他の器官)を使用可能である。
手術ナビゲーション先進プラットフォーム(SNAP)は、リアルタイムナビゲーションデータと共に患者特有の動的および相互作用3Dモデルを表示する。ナビゲーションセッションを実行するとき、患者の視認可能な構造(すなわち鼻先、耳たぶ)を指しおよび触れ、SNAPスクリーンポイントのポインタが3Dモデル内の同一の位置にあることを確認することによって、ツールを(SNAP高解像度ディスプレイ上に提供される)SNAPナビゲーションポインタ位置の正確性を確認するのに使用可能である。
図31Cは、SNAPツールにより提供された画像を生成するソフトウェアモジュールにより駆動された1次処理ルーチンの例を示す。画像生成器110は、一般的な組織画像、患者特有の画像などのようなデータベース115上に格納された情報を用いて、ディスプレイ160に表示する本物そっくりの表示用組織画像を生成する。画像生成器110は、それぞれのセグメントの視覚表示(影の質感など)を割り当て、機械的特性および他のモデリング機能は、本物そっくりの画像を提供する。
同様に、ユーザツール生成器は、動的に表示され、画像生成器により生成された組織画像と相互作用する手術ツールの本物そっくりの画像を生成する。手術環境で、ディスプレイ160上に表示されたツール画像は、実際の手術ツールインタフェース140を示してもよく、その表示は、例えば画像生成器110またはユーザツール生成器120により生成されることも可能である。手術ツールインタフェースは、画像生成器110により生成された組織画像と動的に相互作用してもよい。また、ツール画像についての仕様および詳細を、データベース115内に格納してもよい。ディスプレイ160はタッチスクリーンディスプレイであってもよいので、ディスプレイ160はキーボード、マウス、または他の入力装置のような他の装置とともにユーザインタフェース130として機能してもよいことに留意されたい。またディスプレイ160は、外科医および/または他の参加者に本物そっくりの視覚画像を提供するよう、ディスプレイ160の一部としてヘッドマウントディスプレイを有してもよい。
SNAPツールが外部システムの出力に一致した画像を生成、例えば外部システム(1つまたは複数)の動作に基づきナビゲーションを反映または画像を更新するように、SNAPツールはまた、システムがナビゲーションまたは他の機能を外科医に提供する他の外部システムにインタフェース接続するのを可能にする外部システムインタフェース150を提供する。それからSNAPツールは、外科医にグラフィカルツールと相互作用する高解像度3D画像の統合されたビューを提供するため、その表示画像を適切に更新可能である。
手術ツールおよび他のオブジェクトが外科医により選択されると、それらはディスプレイ160により表示される仮想手術シーンに統合され、本物そっくりの視覚機能および機械的特性および動作特性を含むシミュレートされたシナリオの統合された要素に変わり、それらの選択されたアイテムのそれぞれに加えられる。例えば表示された鋏は実際の機械的特性を持ち、実際の鋏がするように切り取り、動脈瘤クリップを血管に取り付けると血流を遮断する。この方法で、表示されたツールは本物そっくりの方法で、しかし種々の機能である透明化、画像の回転、処置の逆向など、外科医が現実世界で不可能な視点を提供する操作を可能な方法で、組織モデルと相互作用する。
外科医に表示される相互作用の画像/シーンは、容積的に表現される要素および表面的に表現される要素の両方の要素から構成される。さらに、それぞれの容積的または表面的要素は、容積的な1つまたは複数の要素と相互作用する。要素間の相互作用は、圧力、要素の材質(弾性、粘性など)のような物理的状況による要素の実際の物理的移動、および衝突角および要素の方向のような衝突状況を再現する、要素の移動および/または再形成によりもたらされる要素間の相互作用を示すよう実装される衝突モデルのような物理的相互作用を含むが、それらに限定されない。
表現プロセスの均等化は、全ての光っている影およびシャドーイング現象の主な原因となり、全ての視覚要素を内包した最終出力ストリームを作り出す。
組織ペイントまたはマジック組織ワンド(Magic Tissue Wand)アルゴリズムを用いて生成され、スキャンされた画像と統合された解剖学的構造は、画像の統合された部分である。例えば、元は部分的で完全だった解剖学的構造の血管は、マジック組織ペイント(Magic Tissue Paint)および組織ワンドアルゴリズムを適用した後、元のスキャンされた画像と新しい生成された構造から組み合わされた構造を持つ完全な解剖学的構造になる。さらに、制御(チェックボックス)は、新しい生成された構造を選択、およびオン(新しい生成された構造を表示する)またはオフ(新しい生成された構造を隠す)の間を切り替えることを可能にする。また、新しい生成された構造を容積的に、およびまたは押しつぶす/多角形での表現/再構成で表現するための選択に関する選択肢が提供される。
開発されたアルゴリズムおよびソフトウェアツールは、ユーザに2次元または3次元のあらゆる幾何学的な形またはフリーハンド描画の形(例えば線、円、診療所、ボールなど)を描くインタフェースを提供する。前述の幾何学的な形内に含まれ/包み込まれ/捕捉された領域(2次元または3次元)は、「マーク付けされた領域」として定義される。ユーザはそれから、その「マーク付けされた領域」へ、例えば画像の一部を着色し、それらを透明にし、またはそれらに影を付ける能力を含む、あらゆる視覚特性およびあらゆる機械的特性を定義および割り当てる能力を有する。仮想光源に、空間内での球形箇所、光の色、光の強度、アスペクト比、仮想源の幾何学的な形などを含む特性を提供可能である。
組織ペイント、マジック組織ワンドアルゴリズムまたはマーク付けされた領域で生成された構造に、所望の機械的特性を与えることが可能である。あらゆる解剖学的構造の機械的特性の係数(剛性、弾性など)を、調整された機械的動作を生じるよう、ユーザにより調節可能である。
システムは、手術中に実際の手術器具を追跡する(track)リアルタイムトラッキングおよびフィードバックを提供する。トラッキングシステムは、実際の解剖学的構造の方向および位置(例えば患者の頭部上の特定のスポット)に対する手術器具の位置および空間内の座標を変換する。器具の位置および方向は、それから手術シミュレーションシステムに送信される。患者特有のシミュレーションおよび器具の位置および方向に基づき、フィードバックが外科医に提供される。そのようなフィードバックの1つの例は、外科医が切除している組織のタイプについてフィードバックを生成し、万一、外科医が腫瘍ではなく健全な脳組織を切除してしまいそうなケースにおいて、外科医に警告することでありうる。付加的な例は、外科医が実際の解剖学的構造に器具を付けた(例えば実際の患者の動脈瘤に付けられた動脈瘤クリップ)後、システムは、外科医がトラッキングに基づいた実際の解剖学的構造としてたいへん方向付けられたシミュレーションされた画像/モデルを回転し、取り付けられた移植材の位置および効き目を観察および評価することを可能にする。
この実際の器具のトラッキングおよびフィードバックを、器具の位置および移動、および患者の特徴を追跡するビデオシステムの使用のような、多数の方法で達成可能である。代わりに(またはビデオトラッキングに加え)、手術器具を、GPS、加速度計、磁気検出、または他の位置および運動検出装置および方法を用いることのように、トラッキングを可能にするよう改良してもよい。そのような改良された器具は、例えばWiFi、ブルートゥース、MICS、有線USB、RF通信または他の通信方法を用いて、(例えば図31Cの手術ツールインタフェース140を介して)SNAPツールと通信してもよい。
SNAPシステムは、本明細書に後述する拡張現実感システムを内包するMD6DM機能を用いて強化および改良される。MD6DMは、前述のSNAPシステムの機能および有用性を大きく拡張する拡張現実感機能を追加して、医師が外科的介入を全球形仮想現実環境で経験、計画、実行、およびナビゲートするグラフィカルシミュレーション環境を提供する。
この改良により、本明細書に記載され、および図1で示された拡張現実感手術ナビゲーションシステム(「ARS」)100が得られ、外科医102または(助手、看護師、または他の医師のような)他のユーザに、(図3に示されるように)同一のスクリーン上に光学およびスキャンされたビューの統合されたビューを提供する。図1のシステム100に戻ると、外科医102は、特定の患者104の解剖学的構造を、予め作られたモデルならびに患者104のライブの構造の両方で同時に調べることが可能である。システム100は、MD6DMモデル内に入り、物理的にユーザの身体を動かし、特定の構造を見回す能力を与える。ユーザは、対象の解剖学的構造または病態を360°見回し、病態の後方を探ってそれが患者の解剖学的構造を変化させている様子を見ることが可能である。よって、仮想画像および実際の光学画像が並列して写し出され、または共に融合されてディスプレイモニタ108またはヘッドマウントディスプレイ(HMD)160’上のどちらかに表示されるので、外科医102はもはや、患者のスキャン、ソフトウェアまたはMD6DMモデルの計画を見るために眼を顕微鏡または内視鏡106から逸らす必要がない。
手術シアター「内部SNAP」システム(例えば前述および図31A~図31Cに示された、MD6DMの機能を含むよう改良されたSNAPシステム1の全てまたは一部)のような計算装置112は、患者のDICOM 2D画像を取得しリアルタイムで仮想モデルを作る、または予め作られたモデルを取得することにより、ARSシステム100を作動させる。データは、例えばデータベース114から取得される。ARS計算装置112はさらに、トラッキング機能で患者104に対する拡張現実感ビューを形成するよう、予め作られた画像と内視鏡106のトラッキング先端部から受信されたナビゲーションデータに基づき内視鏡106から受信されたライブのビデオフィードを統合するよう構成される。複数ビュー(すなわちライブのフィードおよび読み出された画像)をまた、ディスプレイモニタ上またはHMD160’を通して、分離してまたは並列で見ることも可能であることを理解すべきである。
図2は、ARSシステム100の例のブロック図を示す。手術シアター内部SNAPシステムのようなARS計算装置112は、第1の入力として患者のDICOM 2D画像202を受信するよう構成される。ARS計算装置112はさらに、第2の入力として、内視鏡からのビデオフィードのようなライブのビデオフィード204を受信するよう構成される。ARS計算装置112はさらに、第3の入力として、ナビゲーションシステムトラッキングデータ206を受信するよう構成される。1つの例では、トラッキングデータ206は、患者104に対する外科医102の位置および方向を示す。そのようなナビゲーションシステムトラッキングデータ206に基づき、ARS計算装置112は、外科医102がいる部屋内でだけではなく外科医102が見ている位置でも判断可能であることを理解すべきである。例えば、外科医102は、患者104の身体の右側に位置してもよい。しかし外科医102は、その位置から例えば患者104の頭頂部、または患者104の頭側部を見てもよい。
しかし、適切なナビゲーションシステムトラッキングデータ206で、ARS計算装置112は位置に加えビューの角度を計算および正確に示すことが可能であり、従って手術室内で外科医により比類のない異なる経験を提供する。特にARS計算装置112は、3つの入力202、204、および206を処理し、それらをトラッキングおよびナビゲーション機能で統合して患者104に対する拡張現実感ビューを形成する。ARS計算装置112はさらに、患者に対する拡張現実感ビューを視覚のための装置208へ出力するよう構成される。装置208は例えば、ディスプレイモニタ108またはHMD160’(または両方)であってもよい。3つの入力のみが示されるが、特定の手術の実行に有用でありうるより完全な情報を外科医102に提供するため、ARS計算装置112を、さまざまな適切な入力ソースから任意の適切な数の入力を受信するよう構成してもよいことを理解すべきである。例えばARS計算装置112を、手術室内の外科医の位置を示すさらなるライブのビデオフィードまたはさらなるトラッキングおよびセンサ情報を受信するよう構成してもよい。
1つの例では、HMD160’は、ビデオフィードに頼ることなく患者104の直接の実際の通過ビューを外科医102に提供してもよい。よって1つの例では、ARS計算装置112は、ライブのビデオフィードなしに拡張現実感ビューを生成するよう構成される。代わりに、外科医に患者104に対する拡張現実感ビューを提供するため、仮想モデルが患者104に対する外科医102の実際のビューを重ねるように、ARS計算装置112は、HDM160’を介して外科医102に仮想モデルを表示するよう構成される。ARS計算装置112は、ナビゲーションシステムトラッキングデータ206に依存して、表示される仮想モデルと患者104に対する外科医102の実際のビューを同期する。
外科医102の位置、方向またはビューの角度が変化するにつれ、拡張現実感のビューは連続的に更新されることを理解すべきである。よって、外科医102が患者の周辺を移動する、または焦点を患者104上の異なる位置に調整するとき、拡張現実感のビューがそのような動作と同期され外科医102の視点を等しい状態を保つように、仮想モデルが調整される。
さらにシステムは、さらなる外科医、看護師、助手、または、その場所にいるか遠隔に位置しインターネットのような通信ネットワークを介してシステムに接続されうる他者のような多数の付加的なユーザに対応可能である。システムは、医療処置を補助する第2の外科医の動作のようなそのような付加的なユーザの情報を用いてビューをさらに拡張するよう、これらの付加的なユーザののうち何人かまたは全員からの情報を利用可能である。また、HMDディスプレイまたはいくつかの他のタイプのディスプレイを使用するかにかかわらず、システムは外科医が見る拡張された画像をこれらの付加的なユーザの誰かに提供可能である。よっていくつかの実施形態は、処置を補助する看護師のような助手の動作もまた、拡張されたビューの一部、または付加的な拡張されたビューとして表示可能である。
HMD160’での作業プロセスの例は、1)SNAP計算装置112により提供されるケースウィザードを用いてユーザがSNAPケースを作る、またはデータベース114から予め作られたSNAPケースを選択すること、2)HMD160’のスイッチを始動すること、および3)HMD160’のタイプおよびそのアドオンセンサの構成によって、ユーザがシーンと相互作用し、仮想協同シーンで他者と協同することが可能であることを含む。
HMD160’の機能は、ハードウェアの機能、特にARまたはVR、または両方かどうかによって分かれる。両方のハードウェア構成が利用可能であれば、両方のモードがソフトウェアで利用可能である。ユーザは、コントローラ、音声命令、ハンドジェスチャ、仮想ボタン、および他のアドオンセンサを用いて、システム機能全てを制御する。これは、ユーザが、SNAPケースと相互作用する、または協同モード中に遠隔ユーザと通信するのに、最も状況的に適切または直観的な方法を選択するのを可能にする。ユーザが見ているものを外部の観察者が見て理解するよう、仮想世界内の全てのユーザの相互作用もまた、SNAPディスプレイ108モニタ上に視覚化される。HMDモードのうちの1つにある間、ユーザはSNAPシステム112上で利用可能な全ての機能を始動することが可能である。HMDモードで利用可能な機能は、セグメンテーションのプリセットを変更すること、融合層を選択すること、マーカー/パス/軌道を示す/隠すこと、SNAPケースからスライスを取り入れる/取り出すこと(クリッピング)、仮想手術ツールを追加することなどの能力を含むが、それらに限定されない。それらの機能の始動または停止は、例えばコントローラ、音声命令、アドオンセンサまたはシーン内の仮想ボタンを用いてなされる。
図32は、開示されたHMD装置のいずれかに設けることが可能な種々のセンサを有するブロック図を示す。そのようなセンサは、1つまたは複数の位置検出センサ3020(例えば、GPS)、1つまたは複数のビデオおよび/または画像センサ3040、1つまたは複数のオーディオセンサ3030、1つまたは複数の運動センサ3050、および(高解像度ディスプレイ、ボタン、スクロール装置などのような)1つまたは複数の入力/出力装置3060を含む。これらのセンサは、HMDプロセッサ3010と通信可能であり、HMDプロセッサ3010はインタフェース3070を介してSNAPシステムとインタフェース接続する。他のタイプのセンサおよび制御もまた、設けることが可能である。
機能および制御の例は、コントローラ上のボタンを押下しSNAPケースからスライスを除去すること、「左にスワイプ」のハンドジェスチャをしてSNAPケースを左に回転すること、「方向表示」のキーワード語句を言うことで、ユーザをSNAPケースのビューから外し、全体の視点におけるユーザ自身の位置を出すこと、またはシーン内で仮想ボタンを押下し、数ある中で仮想での使用のため手術ツールを選択することを含む。図29は、システムのこれらの操作を制御する入力装置として使用可能なコントローラの例を示す。
VRモードで、ユーザは完全な仮想環境でSNAPケースと相互作用する。ユーザは例えば、以下のいくつかを含む方法でシーンと相互作用する。
頭の動き-HMD160’の回転センサを用いて、システムはユーザの頭の動きおよび角度を追跡し、それらをシーン内に写し出す。これは、ユーザが頭の動きおよび角度調整に基づき、360度のシーン内で頭の動きおよび角度のビューを変更することを可能にする。
コントローラ-方向コントローラを使用して、ユーザはユーザ自身が見ている箇所に基づき所望の方向に移動可能である。他のボタンを使用して、ユーザは特定のSNAPコア機能または特定のモード機能を始動することが可能である。例えば、コントローラ上の特定のボタンを押下し続けると、ユーザにシーン全体のビューが出される。これは、ユーザがシーン内のユーザ自身の位置および方向を理解することを可能にする。
音声-キーワードまたは語句を話し、それがマイクロホンのようなセンサに受信されると、特定の機能を始動する。例えば、「マーカー1へジャンプ」は、ユーザを予め定義済のマーカー1の位置に移動する。協同が可能なとき、「プレイヤー2のビューに移動」は、メインユーザを第2の「プレイヤーの」位置に移動し、メインユーザのビューをそのときの第2の「プレイヤーの」方向に方向付ける。
位置センサ-メインユーザの移動を追跡する位置トラッキングセンサを用いて、ユーザの移動はシーン内の仮想移動に変換される。シーン中の間のユーザの移動のトラッキングは、ユーザが特定の機能を始動する仮想ボタンを選択するのを可能にする。
ハンドセンサ-これは、ユーザがユーザ自身の手および手の位置の仮想表示を見ることを可能にし、シーン内でユーザがSNAPケースとさらに相互作用することを可能にする。例えばユーザは、手術ツールと相互作用し、仮想ボタンを押下し、またはハンドジェスチャを用いてビューを回転して写すことが可能である。
外部の観察者は、ディスプレイモニタ108上で外科医102の仮想経験を見ることが可能であり、ディスプレイモニタ108は外科医102が見ているものを反映し、外科医102の動きはリアルタイムで連続的に調整される。図4Aに示されるように、ディスプレイモニタ108はユーザのビューを単一のビュー300上に反映し、または図4Bに示されるように、3Dで見るのを補助するモニタについて3Dの立体視的な並列したビュー301として反映する。
1つの例では、外部の観察者は、ディスプレイ画面108上のシーン内に位置するアバターとして示されるユーザの身体および頭の位置、回転、および動きを見る。1つの例では、観察者はまた、ソフトウェアインタフェースを用いてシーンと相互作用可能であり、それはHMD160’上でユーザが見るシーン上に反映する。よって、HMDは、拡張された方法でユーザ(例えば外科医)をシーン内に含める。
ARモードで、外科医102は、現実世界に加えSNAPケースと相互作用する。SNAPケースは、拡張世界を生成するようさまざまな特定の箇所に位置決められる。SNAPケースは、現実世界環境内の外科医が指定する場所に仮想的に位置決められる。可能性がある位置は、患者のベッド、部屋内のテーブル、患者の3Dプリントした部分、特殊なマーカーを有するツール、および部屋内の適切な場所を含む。
このプロセスの一部として、患者の位置が、患者上または近辺のセンサ、ビデオ、または他のメカニズムを用いることのような多数のいろいろな手段のいずれかの使用により判断される。場所および時間に関して正確な表示画像を保つため、患者の部分、および所望に応じて観察されたそれらの位置をシステム内に登録してもよい。
登録プロセスを用いる場合、それは登録された解剖学的部分上に示される。例えば、脳の3D仮想画像を、脳のライブのビデオフィードの頂部上に直接重ねて表示してもよい。また、トラッキング情報を使用して、外科医102が内視鏡を動かすにつれ、3D仮想画像が調整される。1つの例では、外科医102の位置もまた追跡され、従って患者104の位置に対する外科医102の位置に基づき、3DのVR画像が調整され、ライブのビデオフィードと同期されてもよい。言い換えれば、外科医102が現実世界内で彼の頭を動かすまたは位置を変えるとき、現実世界の固定した物体としてそれをシミュレーションするよう、SNAPケースは仮想的に再配置および再配向される。音声命令またはコントローラが、位置間の切り替えを可能にしてもよい。
システム100は、OR内の追跡された手術ツールの視覚化を可能にすることを理解すべきである。これは、手術ナビゲーションシステムまたは分離して設けてもHMD内に統合してもよい他のアドオンセンサのような、部屋内の他のシステムからシステムが受信する情報の使用を通じてなされる。1つの例では、HMD160’は1つまたは複数のそのようなセンサを有してもよく、それらは、運動センサ、マイクロホン、ビデオセンサ、カメラ、加速度計、位置センサなどのうちいずれかまたは全てを含んでもよい。1つの例では、1つまたは複数のセンサを、外科医102上の適切な位置、または外科医102が使用する入力装置または他のツール上に位置決めてもよい。
外部の観察者は、ディスプレイモニタ108上でメインユーザまたは外科医102の仮想経験を見ることが可能であり、ディスプレイモニタ108はユーザが見ているものを反映し、メインユーザの動きはリアルタイムで連続的に調整される。このウィンドウはユーザのビューを単一のビュー上に反映し、またはVRモードにあるように正確に3D画像化を補助するモニタ上で3Dの立体視的な並列したビューとして反映する。
登録プロセスは、データベース114から受信されたSNAPケースを、患者のスキャンされた解剖学的部分、または内視鏡を介してリアルタイムのビデオフィードで見られる部分に整列する必要があることを理解すべきである。整列は、患者自身の予め作動可能なスキャンから読み出された情報(これに基づきSNAPケースが作られた)、および整列/登録プロセス情報に基づく。1つの例では、手術室内のナビゲーションシステムから登録情報を受信し、受信された情報に基づきケースを整列することにより、整列が達成される。他の例では、ユーザがそれを手動で解剖学的構造に整列するのを可能にすることにより、整列が達成される。これは、コントローラを用いてなされる。他の例では、ナビゲーションシステムを用いて登録プロセスを実装し、結果をSNAPケースに整列することにより、整列が達成される。他の例では、IRセンサを用いて患者104の頭をマッピングし、それを自動的にSNAPケースに整列することにより、整列が達成される。
システム100の一般的な臨床的使用のケースは、神経外科的介入、例えば腫瘍切除であろう。腫瘍のケースで、図4Bに示されるような頭蓋骨内部へ予め計画された手術用通路をフライスルーし、図5~図12にそれぞれ示されるように、下、左下、左、左上、上、右上、右および右下を含むCW方向を見回すことが可能であろう。ユーザはまた、腫瘍の後方に飛び、腫瘍を包む血管を観察可能である。このケースの例では、臨床的な価値は、腫瘍による後部循環血管の移動をそれらの正常な解剖学位置から見られる能力である。ユーザは、前部循環血管および腫瘍によるそれらの移動を完全に理解するため、腫瘍表面に沿って回り前面へ飛ぶことが可能である。
記載を通した言及は、特に脳腫瘍の手術処置と関連したシステム100の使用についてなされているかもしれないが、システム100を患者104の種々の解剖学的部分のさまざまな手術の適用に同様に使用してもよいことを理解すべきである。
例えば、システム100をまた、神経血管のケース、ならびに腫瘍のケースで適用可能である。動脈瘤のケース例で、図13に示されるように、飛ぶことは通路の外側から始まり、それから図14に示されるように開頭部へ移動し、ちょうど望む開頭部の縁で止まる。それから図15~図22にそれぞれ示されるように、下、左下、左、左上、上、右上、右および右下を含む異なるビューでナビゲートすることにより、患者特有の解剖学的構造の調査を達成可能である。これらのビューは、外科医が動脈瘤を取り囲む全ての詳細について見ることを可能にする。手術シアターの手術プランナー(「SRP」)、およびSNAP先進VR機能と3Dモデル化された動脈瘤クリップのライブラリのような手術計画ツールの使用によって、外科医は、動脈瘤部位内部へ仮想的に飛び、一方で患者の実際の解剖学的構造内の3Dクリップ配置を評価および計画することが可能である。外科医は、解剖学的構造(すなわち頸部、頭など)、およびクリップに対する病態を、外科医が患者の身体内部に立っているかのように観察することが可能である。外科医が頭を上下および肩の後ろへ回して動かすことにより、外科医は患者の病態部位内部を「見て回っている」ように、比類のない以前は可能でなかった処置の没入型評価および計画を得ている。
SNAPをトラッキング装置に接続することにより、記載された「仮想ナビゲーション操作」を手術処置中に行うことが可能である。1つの例では、図23に示されるように、センサ2302は外科医の位置または観察ポイント2306に対する、およびツール(顕微鏡、内視鏡、プローブなど)に対する患者の頭2304の方向を追跡する。
1つの例では、図24に示されるように、HMD160’は外科医の観察ポイントのトラッキングを容易にする1つまたは複数のセンサ2402を有する。図25Aに示されるように、HMD160’は、手術中、外科医が必要な全ての情報を表示(2502)する。特に、外科医は、(内視鏡、顕微鏡などを介して)外科医のビューポイントからライブのビデオにアクセス、ならびにスキャンおよびMD6DMモデルを見ることが可能である。図2で示されたように、外科医は、ライブの手術部位に対する外科医のビューポイントからのライブのビューを、患者特有のMD6DMモデルと組み合わせている拡張現実感ビューを得ることが可能である。
再び図24を参照すると、解剖学的構造(すなわち頭、脳、ひざ、肩など)の方向がマーク付けされ、物理的患者およびスキャンされた医療画像(CT、MRI、超音波、X線などの)の両方で予め登録されていることを理解すべきである。従って、スキャンされた医療画像および手術で評価される患者の実際の解剖学的構造の方向は、同期および整列される。さらに、レンズおよび光学構成要素が向上しているので、1つの例ではHMD160’は、全てのスキャンされた画像およびMD6DMと同期および整列される組込みHD光学システム2404(顕微鏡、カメラなど)を有してもよい。これは、従来の手術顕微鏡、およびそれらのシステムでの現在の制限をなくすのを可能にする。眼鏡およびループを変えることなく、多数の外科医は、実際の患者上で個々のHMDおよびヘッドドッキングステーションを用いて「顕微鏡下」状態で協同可能である。ヘッドドッキングステーションは、直接の操作者が重篤な顕微手術環境で安定した非常に複雑なシーンを保ち、一方で外部の観察者が正確な同一のARで強化された「視野の」シーンを認識するよう機能する。
再び図1を参照すると、システム100はさらに、PlayStation、Xbox、PCゲームなどのコントローラと同様のコントローラ116を有してもよいが、コントローラ116は任意の適切なコントローラであってもよいことを理解すべきである。他の利用可能なコントローラのタイプは、HMD160’上に映されるARコントローラ、ジェスチャ認識インタフェース、または音声認識などを含む。外科医102は、これらのさまざまなコントローラ116を使用して、システムの選択肢とスクリーンの間を移動する。
システム100はさらに、図26で示される使用方法2600を参照して理解される。ステップ2602で、ケース情報が準備される。特に、患者特有のDICOM(CT、MRIなど)データが、MD6DMを生成するためSNAP計算装置112内にアップロードされ、処理される。SNAP計算装置112により生成されたMD6DMもまた、臨床補助技術者または外科医102自身により編集可能である。技術者は、特定の外科医の好みまたは意図を反映するようモデルを調整可能である。技術者は組織セグメンテーションの調整、患者データに加える組織特有の強度範囲の変更、または組織の透明度の変更が可能である。外科医102はまた、準備中または手術中のいつでもモデルを編集可能である。外科医は、CTおよびDTIまたはCT、MRIおよびDTIのようなMD6DMの一部である複数のDICOMデータセット、または手術中の画像を含むSNAP計算装置112内にアップロードされたあらゆる他のデータセットを融合可能である。外科医102は、いくつかの異なる方法で対象のかたまりをマーク付けまたは強調可能である。さらに、対象のかたまりは頭蓋に限定されず、身体の他の部分にも使用可能である。DICOMデータセットが十分な情報(1mmのスライス厚さまたはそれ以下)を有し、容積的な取得でも収集されたならば、画像化された解剖学的構造のあらゆる部分がモデル化可能である。準備は、ケース情報の用意ができ、外科医102が準備されたビューに満足するまで続く。
ステップ2604で、位置決めおよび登録の間、SNAP計算装置112は、実際の生体、例えば神経外科手術の頭部、システム100のセンサ、DICOMスキャンとMD6DMの間で適合または共同登録する。登録または「マッチング」プロセスは、手術中のナビゲート機能をもたらす。全ての機器が運びこまれ、患者が手術の位置におかれるとき、手術の開始時にこのマッピングプロセスを行うことが重要である。マッピングは、いくつかの方法で行うことが可能である。方法はナビゲーションシステムの製造業者によって決まり、表面基礎登録、患者の顔のスキャン、またはシステム誘導による患者の頭の接触ポイントを含むポイントベースの登録を含む。さまざまな製造業者が登録を行うさまざまなタイプのセンサを使用し、SNAPとMD6DMは、あらゆる方法およびセンサとともに作動可能である。
登録されると、ステップ2606でリアルタイムのナビゲーションが可能である。特に、外科医102はHMD160’を装着する。外科医は、自身の視点(組込みカメラ)からのライブのビデオ映像を得る。コントローラ116を使用することにより、外科医は、拡大縮小、ビュー間の移動および拡大縮小を含む従来のスキャンされたビューの追加、モデルの周辺を歩くこと、軌道をシミュレーションおよび決定すること、および病態の後方を見ることを含むMD6DMモデルビューの追加、および、拡張現実感ビューでナビゲートすることを含む、多数のナビゲーション機能を実行することが可能である。リアルタイムナビゲーション機能は、ARS計算装置112によって可能にされ、ARS計算装置112はトラッキング情報を活用して、ライブのビデオフィードと予め定義済のスキャンおよびモデルを組み合わせ、外科医の動きおよび動作に基づき外科医に送達される画像を表現する。
ナビゲーションを用いて、外科医102は主要な血管を避ける最適のアプローチを判断することが可能である。外科医は、HMD160’下で同一の方向から並列した現実世界のビューとMD6DMモデルを見ることが可能である。髄膜腫を治療する適用で、外科医102は、髄膜腫の後方を見て病態が患者の解剖学的構造に有する影響を見ることが可能である。MD6DM上で、外科医102が髄膜腫を切除する間、腫瘍の境界を視覚化可能であり、外科医が血管または他の不可欠構造からどの程度の距離にいるかを見ることが可能である。
他の適用例では、外科医102は、内視鏡アプローチを用いて動脈瘤クリッピングを実行することが可能である。皮膚切開および開頭がなされる前、外科医102はMD6DMを参考にして、主要な血管および他の重要な構造を避ける軌道を判断する。開頭(鍵穴)にマーク付けした後、外科医は切開を開始する。外科医102はすぐに、手術に内視鏡106を使用する。HMD160’上で、内視鏡カメラからのビューが、予め作られたモデルのシミュレートされた内視鏡ビューと共に拡張される。代わりに、外科医102は、内視鏡カメラビューと内視鏡106の方向のモデルとの並列を得ることが可能である。モデルとリアルタイムビューが整列され続けるよう、システム内のセンサは外科医102の動きによるモデルのビューポイントを移動する。最小の侵襲的アプローチを得る一方で他の重要な構造の損傷を避けるため、外科医102は、ビューの間を移動可能である。
他の例では、外科医102は、動脈瘤または動静脈奇形(AVM)のような神経血管病理にARS100を使用可能である。登録ステップ2604の前または後に、軌道は開頭切開前に判断または確認可能である。外科医102は、内視鏡または切開のどのアプローチが最も適切か判断するのに、患者特有のケースモデルを使用可能である。登録後、外科医102はHMD160’または他のVRディスプレイを使用して、動脈瘤を切除し、一方でモデルに並列した内視鏡/カメラビューを交互に見る。前述のように、ARSシステム100はセンサ入力を通してモデルの回転および調整を感知するので、モデルは外科医102のビューと整列され続ける。動脈瘤に到達したとき、外科医102は動脈瘤の頸部を評価し、ならびにARモデルでの動脈瘤周辺の360度のビューを得ることが可能である。さらなる正確な計画のため、外科医102は、適切なクリップ寸法を確実にするのを補助するよう、動脈瘤にさまざまなクリップを仮想的に付けることが可能である。
本明細書に記載されたシステム100は、外科医102がより多く状況を認識して内視鏡手術を実行するのを可能にすることを理解すべきである。図27に示されるように、操作者は4つのビューのディスプレイ2700を有し、ディスプレイ2700はディスプレイモニタ108上またはHMD160’を介して外科医に、内視鏡カメラビューからのライブのビデオフィード2702、SNAPの3Dの患者特有のモデル化されたシーンの内視鏡の仮想現実カメラからのライブの仮想ビデオフィード2704、SNAPの仮想患者特有の3Dモデル化されたシーン(解剖学的構造と病態)の調整可能な「神の眼ビュー」2706と患者の解剖学的構造に対して正確な位置および方向で表示された仮想内視鏡ツール、および2DのDICOM画像(軸/冠状/矢状)のライブの3つのパネルビュー2708と現在の内視鏡先端部位置への全てのビュー内の調整されたスライスの情報を提示可能である。
仮想内視鏡のビュー2704は、位置および方向の両方、ならびにカメラパラメータ(ズーム、視野など)で実際の内視鏡カメラ2702に整列される。外科医102は、右/左/上/下を見る頭のベクトルの調整で仮想内視鏡カメラ2704を制御する能力を有することを理解すべきである。これは、よりよく状況を認識するため、外科医が実際のカメラ2702から仮想カメラ2704を切り離し、見まわすことを可能にする。また、外科医102は、神の眼ビュー(シーン全体の方向付けられたハイレベルのビュー)を調整し、外科医の好ましい角度でのシーンのビューと調整可能なシーンのクリッピングおよび組織セグメンテーションを形成する能力を有する。
1つの例では、仮想カメラビュー2704が実際のカメラ2702に整列されないとき、ユーザは実際のカメラ2702からどれぐらい偏っているかを示すマーカーを仮想カメラビュー2704上で見る。
1つの例で、HMD160’上に表示される4スクリーン出力2700は、ユーザが調整可能である。特に、外科医102は、一度に全ての4スクリーン間を切り替え、4つのいずれかを全画面で見るようディスプレイ上で最大化することが可能である。
手術中にユーザの状態を追跡する、手術室内の多くのシステムがあることを理解すべきである。従って、1つの例では、ARのHMD160’はユーザがそれらのシステムから情報を視覚化し、無音の場合を除いて手術室外からの通知を受けることも可能にする。これはユーザが手術に集中し続ける一方で、患者から目を離すことなく手術中に必要とされる情報を処理可能であることを可能にする。
1つの例では、システム100は手術室内のビデオシステムと統合し、ユーザがHMD160’内で見ているものをOR内の他者が見ることを可能にする。
1つの例では、本明細書に記載されたシステム100および方法2600を、協同モードで使用してもよい。このモードで、外科医102は所望のとき他の遠隔ユーザがシーンに加わることを可能にするよう選択可能である。ユーザは、以下のように遠隔ユーザと通信してもよい。1)全ての他の遠隔ユーザを聞くようにヘッドホン/スピーカが使用される、2)全ての遠隔ユーザに話しかけるようにマイクロホンが使用される、および3)ビデオストリームは2つの形態のうちの1つを含む:ARモードで、HMD160’上でユーザが見る拡張されたビューが他の遠隔ユーザにビデオストリーミングされ、一方ではVRモードでユーザは、コントローラ116を用いて、他の遠隔ユーザが見るものを見るか、または遠隔ユーザのビューをユーザ自身のビューに変更するかを選択可能である。
図28に示されるように、協同モード中、シーン内の他のユーザは、他のユーザの位置、頭および身体の動きを示すアバター2810として見える。
協同モード中、ユーザおよびシーンと通信するため、1)全ての他の遠隔ユーザを聞くためのヘッドホン/スピーカ、2)全ての遠隔ユーザに話しかけるためのマイクロホン、3)手の動きのトラッキングおよびシーン上で手の動きを表示する(それぞれのユーザを異なる色で表わしてもよい)ハンド追跡器、4)シーン内で領域を選択しマーク付けする3Dマーカー、および5)シーン内の他のユーザが、他のユーザの位置、頭および身体の動きを示すアバターとして見えるアバターを含むいくつかの機能が利用可能である。
協同モードの適用例で、SNAPケース(登録後)に基づき開頭を計画しているOR内のユーザは、助言を求めるためユーザのARのHMD160’から遠隔の外科医にビデオ送信を開始、またはユーザが計画したアプローチにフィードバックを得ることが可能である。協同者の外科医は、遠隔システム上でOR内の外科医102が見ているものを視覚化することが可能である。遠隔の外科医はまた、手の動きおよび仮想ツールを通じ手の動きおよび仮想ツールを通じて、シーンと相互作用、および仮想的に領域をマーク付け可能である。
1つの例では、「探検者」モードが可能である。このモードで、ポイントが予め定義され、シーン内で続き番号と共に配置される。探検者機能が始動されるとき、予め計画されたポイントが自動車の後部座席にあるかのように、ユーザはそれらのポイントの間を自動的に仮想的に動かされる。ユーザは、頭を回転させて、ポイントを通ってゆっくり連れていかれているようにユーザの周りの構造を評価する能力を有する。
そのような探検者モードは、協同モードでの訓練、および内視鏡手術中でも利用可能である。特に、予め定義された、テスト理解のための教育での設定に特に有用な機能である探検者パスを通るとき、ユーザは自身の位置を止めて、議論することが可能である。内視鏡手術中に、解剖学的構造の予め計画されたポイントに到達する能力は、身体内外の内視鏡および手術ナビゲーションプローブを交換して切除中に位置および軌道を継続的にチェックする必要をなくし、潜在的に手術を短縮する。
1つの例では、トラッキングシステムは、OR内の全てのツールおよび動きを追跡および記録する。これは、OR外のユーザが、外科医102が仮想的に行っているものを、細かな器具移動および全般的な頭/身体の動きの両方で見ることを可能にする。それはまた、直接操作するチームが手術中に外科医102が行ったことの報告を受けることを可能にし、外科医102にケース中の外科医自身の動きを評価および批評する方法を与える。
あらゆる適切なタイプのヘッドマウントディスプレイ(HMD)160’を、システム100と共に使用してもよいことを理解すべきである。図25Bは、HDM2900の代替的な例を示す。HDM2900は、例えば無線アンテナ(図示せず)を有する。従って、HDM2900はワイヤレスで作動してもよく、従って手術室内で余分なコードの必要をなくす。
HDM2900はさらに、プロセッサおよびメモリ(図示せず)を有する。よって1つの例では、HDM2900を、ARS計算装置112に依存することなくMD6DMモデルを受信、格納、および処理するよう構成してもよい。例えば、手術室に入る前に、HDM2900に適切なMD6DMモデルまたは特定の患者および処置に関連するモデルをあらかじめロードしてもよい。これは、すでに混みあった部屋内に余計な機器を持ち込む必要がないはるかに大きな柔軟性および可動性を手術室内に提供する。
1つの例では、HDM2900はMD6DMモデル全体の格納および処理に十分なメモリまたは処理機能を有していないかもしれない。よって、1つの例では、ARS計算装置112を、外科医がHDM2900をOR内に持ち込む前に軽いまたは最低限のバージョンの拡張現実感モデルを生成し、軽いバージョンをHDM2900に転送するよう構成してもよい。例えば、ある処置を実行するのに脳のある層の詳細が必要ない場合、その層の情報をモデルから取り除き、それによってHDM2900上に格納および処理がより容易になりうるより軽いバージョンを生成してもよい。
本明細書に記載されたシステムおよび方法例は、いくつかの方法で拡大・縮小してもよいことを理解すべきである。例えば、システムおよび方法例は単一のHDMに関して記載されているが、システムは手術中、手術室内に複数の外科医またはユーザと複数のHDMを有し、全員が部屋内の位置および方向に基づき、自身専用の拡張現実感経験を相対的に同時に受信してもよいことを理解すべきである。また、手術の時間にORにいない遠隔ユーザ、またはORにいるユーザさえも、OR内の他のユーザのうちの1人の視点からの拡張現実感経験を経験してもよい。
1つの例では、手術室は、ユーザがどの位置にいてもユーザを追跡するため部屋の周囲に取り付けられた複数のカメラまたはセンサを有してもよい。よって、患者の特定の側または区画に限定されるのではなく、ユーザは手術中、患者の周辺を360度歩き、患者のあらゆる側または角度から部屋内の任意の位置の拡張現実感画像を経験してもよい。
1つの例では、さらなる入力ソースを、手術中の参照に有用でありうる適切な情報を外科医に提供するのに適切でありうる拡張現実感経験に統合してもよい。例えば、外科医はヘッドセットに据え付けられた付加的なカメラを有してもよく、それは内視鏡検査から受信されたビデオフィードに加え、拡張可能な他の視点のライブのビデオフィードを提供してもよい。他の例では、付加的なカメラは、手術室内のある固定位置に据え付けられた、または部屋の周囲を移動可能な固定していないカメラであってもよい。
図30は、図1のAR計算装置112の例を実装するコンピュータの例の概略図である。コンピュータ3000の例は、ラップトップ、デスクトップ、ハンドヘルドコンピュータ、タブレットコンピュータ、スマートフォン、サーバ、および他の同様のタイプの計算装置を含む種々の形態のデジタルコンピュータを表すことが意図される。コンピュータ3000は、プロセッサ3002、メモリ3004、記憶装置3006、およびバス3012を介してインタフェース3010により動作可能に接続された通信ポート3008を有する。
プロセッサ3002は、コンピュータ3000内の実行のため、メモリ3004を介して命令を処理する。実施形態例で、複数のプロセッサとともに複数のメモリを使用してもよい。
メモリ3004は、揮発性メモリまたは不揮発性メモリであってもよい。メモリ3004は、磁気ディスクまたは光ディスクのようなコンピュータ可読な媒体であってもよい。記憶装置3006は、フロッピーディスク装置、ハードディスク装置、光ディスク装置、テープ装置、フラッシュメモリ、相変化メモリ、または他の同様のソリッドステートメモリ装置、または他の構成のストレージエリアネットワークの装置を含む装置の配列のようなコンピュータ可読な媒体であってもよい。コンピュータプログラム製品は、メモリ3004または記憶装置3006のようなコンピュータ可読な媒体内で明白に実現可能である。
コンピュータ3000を、ディスプレイ3014、プリンタ3016、スキャナ3018、およびマウス3020のような1つまたは複数の入力装置および出力装置に接続可能である。
例を記載することでシステム、方法などの例を示したが、また例をかなり詳細に記載したが、添付の請求項の範囲をそのような詳細に制限またはどんな方法であれ限定することを意図しない。もちろん、本明細書に記載されたシステム、方法などを記載する目的で、全ての考えられる構成要素または方法論の組み合わせを記載することは可能ではない。さらなる利点および改良は、当業者に容易に明らかだろう。従って本発明は、特定の詳細、および示されまたは記載された例に限定されない。よって本出願は、添付の請求項の範囲内に入る修正、改良、および変形を内包することが意図される。さらに、前述の記載は、本発明の範囲の限定を意味しない。そうではなく、本発明の範囲は、添付の請求項およびそれらの均等物によって決定されるべきである。
明細書または請求項内で使用される「含む」または「含んで」の語の範囲について、請求項内で移行部の語として採用されるとき「備える」の語が解釈されるのと同様の、包含する方法であることが意図される。さらに、「または」の語が採用される(例えば、AまたはB)範囲について、「AまたはBまたは両方」を意味することが意図される。出願人が「AまたはBのみで両方ではない」を示すよう意図するときは、「AまたはBのみで両方ではない」の語を採用する。よって、本明細書の「または」の語の使用は、包含的であり排他的な使用ではない。Bryan A.Garner、A Dictionary of Modern Legal Usage 624(2d.Ed.1995)を見られたい。また、明細書または請求項内で使用される「内」または「内へ」の語の範囲について、さらに「上」または「上へ」を意味することが意図される。さらに、明細書または請求項内で使用される「接続する」の語の範囲について、「に直接接続される」のみではなく、他の構成要素(1つまたは複数)を通して接続されるような、「に間接的に接続される」も意味することが意図される。
本発明の実施形態の多くの例は、前述の機能の種々の組み合わせを通じて提供可能である。本発明を特定の例および実施形態を用いて本明細書に前述したが、当業者は、種々の代替物を使用してもよく、本発明の意図される範囲から必ずしも逸脱することなく、均等物を本明細書に記載された構成要素および/またはステップと置き換えうることを理解するだろう。本発明の意図される範囲から逸脱することなく、本発明を特定の状況または特定の必要に適合するよう、改良の必要があるかもしれない。本発明は本明細書に記載された特定の実装および実施形態に限定されず、請求項に、それらが及ぶ全ての新規の明らかでない実施形態、文字通りのものまたは均等物、開示されたものまたは開示されていないものに及ぶ、最も広範囲の合理的な解釈が与えられることが意図される。

Claims (49)

  1. 仮想現実手術ナビゲーション方法であって、
    患者の内部の解剖学的構造に関連する多次元仮想モデルを準備するステップと、
    前記患者の解剖学的特徴のライブのビデオデータを取り込むステップと、
    位置センサからユーザの現在の頭の位置を示す位置データを受信するステップであって、前記位置センサは、前記ユーザの場所あるいは運動または前記患者の物理的特徴を直接検出するように構成され、前記位置データは、ビューの方向およびビューの角度を含むステップと、
    コンピュータシステム上でソフトウェア命令を実行することにより、前記仮想モデルから最初の仮想3次元画像を表現するステップであって、前記仮想3次元画像は、前記患者の内部の特定の場所での最初の視点からの解剖学的ビューを表し、前記視点は、前記ユーザの現在の頭の位置および前記特定の場所を示すデータにより判断され、第1の場所での最初の視点の解剖学的ビューは、前記ユーザの頭の様々なビューの方向への動きにより変更することができるステップと、
    最初の表現された仮想画像を仮想ヘッドセットディスプレイへ通信するステップと、
    更新された位置へ動く前記ユーザの頭を示すデータ入力を受信するステップと、
    前記ユーザから、前記特定の場所を前記患者内の任意の新しい場所へ動かす入力を受信するステップと、
    前記コンピュータシステム上でソフトウェア命令を実行することにより、前記仮想モデルから更新された仮想3次元画像を表現するステップであって、前記更新された仮想3次元画像は、前記患者の内部の新しい場所での更新された視点からの解剖学的ビューを表し、前記更新された視点は、前記ユーザの現在の頭の位置および前記新しい場所の周囲のユーザからの入力を示すデータにより判断され、第2の仮想3次元画像が、前記画像を生成するために前記患者の解剖学的特徴のライブのビデオデータを利用し、前記第1の場所での最初の視点および前記新しい場所での更新された視点の両方の解剖学的ビューは、前記ユーザの頭の様々なビューの方向への動きにより変更することができるステップと、
    を備える、方法。
  2. 第2の場所から前記患者の内部を見る前記ユーザの要望を示すデータ入力を受信するステップと、
    前記コンピュータシステム上でソフトウェア命令を実行することにより、前記仮想モデルから第3の仮想3次元画像を表現するステップであって、前記第3の仮想3次元画像は、受信されたデータにより示されるような前記患者の内部の第2の場所での解剖学的ビューを表すステップと、
    をさらに備える、請求項1に記載の方法。
  3. 前記ユーザの頭の位置が変化し、前記患者の内部の所望の場所が変化する際に、非ビデオセンサから更新された位置データを連続的にリアルタイムで受信するステップと、
    更新された頭の位置および更新された場所に対応する視点および場所からの解剖学的ビューを表す仮想3次元画像を連続的にリアルタイムで受信するステップと、
    をさらに備える、請求項1に記載の方法。
  4. 前記患者の解剖学的特徴のライブのビデオデータは、前記第2の仮想3次元画像内にリアルタイムの患者の器官のデータを提供するために、前記患者に使用される内視鏡カメラにより取り込まれる、請求項1に記載の方法。
  5. 前記内視鏡カメラの画像は、前記第2の仮想3次元画像内に含まれる、請求項4に記載の方法。
  6. 前記位置センサは、前記ユーザにより着用されるヘッドマウントディスプレイ上に据え付けられ、前記ヘッドマウントディスプレイは、前記患者のパススルービューを前記ユーザに提供する、請求項1に記載の方法。
  7. 前記ユーザの視点の現在の場所が変化する際に前記場所を示す、前記仮想3次元画像内での表示のための仮想アバターを生成するステップをさらに備える、請求項1に記載の方法。
  8. 前記アバターが仮想モデルマーカーの予め定義済の近接度内にあるときに前記マーカーが動作を行うように構成されるように、前記マーカーが表現された仮想3次元画像内に提供される、請求項7に記載の方法。
  9. 前記患者の内部の前記ユーザの視点は、コントローラの操作により変更することができる、請求項1に記載の方法。
  10. 前記患者の内部の前記ユーザの視点は、前記ユーザの位置の場所の変化により変更することができる、請求項1に記載の方法。
  11. 拡張現実感手術ナビゲーション方法であって、
    患者に関連する多次元仮想モデルを準備するステップと、
    位置センサからトラッキング情報を受信するステップであって、前記位置センサは、ユーザの場所あるいは運動または前記患者の中あるいは周囲の特定の場所での前記患者の前記ユーザの現在のビューを示す前記患者の物理的特徴を直接検出するように構成され、前記トラッキング情報は、前記患者に対する前記ユーザの位置および前記患者の前記ユーザのビューの角度を含むステップと、
    前記患者の解剖学的特徴のライブのビデオデータを取り込むステップと、
    前記仮想モデル内で、受信されたトラッキング情報および前記患者内の特定の場所に基づき仮想ビューを識別するステップであって、識別された仮想ビューは、前記患者の前記ユーザのビューに対応するステップと、
    コンピュータシステム上でソフトウェア命令を実行することにより、前記患者内の特定の場所での識別された仮想ビューに基づき前記仮想モデルから仮想画像を表現するステップと、
    表現された仮想画像を、前記表現された仮想画像が前記患者の解剖学的特徴のライブのビデオおよび前記ユーザのビューと組み合わされるディスプレイへ通信し、前記ディスプレイにより表現される前記患者の拡張現実感ビューを形成するステップと、
    前記ユーザから、前記特定の場所を前記患者内の任意の新しい場所へ動かす入力を受信するステップと、
    前記仮想モデル内で、前記受信されたトラッキング情報および前記患者内の新しい場所に基づき更新された仮想ビューを識別するステップであって、前記更新された仮想ビューは、前記患者の前記ユーザの現在のビューに対応するステップと、
    前記コンピュータシステム上でソフトウェア命令を実行することにより、前記患者内の新しい場所での現在の仮想ビューに基づき前記仮想モデルから更新された仮想画像を表現するステップと、
    前記更新された仮想画像を、前記更新された仮想画像が前記患者の解剖学的特徴のライブのビデオおよび前記ユーザの現在のビューと組み合わされるディスプレイへ通信し、前記ディスプレイにより表現される前記患者の拡張現実感ビューを形成するステップと、
    を備える、方法。
  12. 前記患者に対する前記ユーザの位置および前記患者の前記ユーザのビューの角度が変化する際に、前記位置センサから更新されたトラッキング情報を連続的にリアルタイムで受信するステップと、
    前記仮想ビューが前記患者の前記ユーザのビューと連続的に同期されるように、前記更新されたトラッキング情報に対応する仮想ビューをリアルタイムで識別するステップと、
    をさらに備える、請求項11に記載の方法。
  13. 前記患者の前記ユーザのビューに対応する内視鏡カメラからライブのビデオフィードを受信するステップと、
    前記コンピュータシステム上でソフトウェア命令を実行することにより、前記仮想画像を連続的にリアルタイムで表現して前記ライブのビデオフィードと組み合わせることによって、前記患者の拡張現実感ビューを生成するステップであって、前記仮想画像は、前記トラッキング情報に基づき前記ライブのビデオフィードと同期されるステップと、
    をさらに備える、請求項11に記載の方法。
  14. 前記患者に対する第2のユーザの位置および前記患者の前記第2のユーザのビューの角度を含む、前記第2のユーザの場所あるいは運動または前記患者の前記第2のユーザの現在のビューを示す前記患者の物理的特徴を直接検出するように構成された位置センサから第2のトラッキング情報を受信するステップであって、前記第2のユーザの現在のビューは、前記患者の前記ユーザの現在のビューとは異なるステップと、
    前記仮想モデル内で、受信された第2のトラッキング情報に基づき第2の仮想ビューを識別するステップであって、識別された第2の仮想ビューは、前記患者の前記第2のユーザのビューに対応するステップと、
    前記コンピュータシステム上でソフトウェア命令を実行することにより、前記識別された第2の仮想ビューに基づき前記仮想モデルから第2の仮想画像を表現するステップと、
    第1の表現された仮想画像を第1のディスプレイに通信するのと同時に、表現された第2の仮想画像を、前記表現された第2の仮想画像が前記第2のユーザのビューと組み合わされる第2のディスプレイへ通信し、前記患者の第2の拡張現実感ビューを形成するステップと、
    を備える、請求項11に記載の方法。
  15. 前記方法は、前記患者または前記患者の一部の場所についてのトラッキング情報を受信するステップをさらに備え、前記拡張現実感ビューは、前記患者の場所についての情報を用いて表現される、請求項11に記載の方法。
  16. 前記患者の解剖学的特徴のライブのビデオデータは、前記拡張現実感ビュー内の画像を支援するためにリアルタイムの患者の器官のデータを提供するために、前記患者に使用される内視鏡カメラにより取り込まれる、請求項11に記載の方法。
  17. 前記内視鏡カメラの画像は、前記拡張現実感ビュー内に含まれる、請求項16に記載の方法。
  18. 前記位置センサは、前記ユーザにより着用されるヘッドマウントディスプレイ上に据え付けられ、前記ヘッドマウントディスプレイは、前記患者のパススルービューを前記ユーザに提供する、請求項11に記載の方法。
  19. 前記ユーザの視点の現在の場所が変化する際に前記場所を示す、仮想3次元画像内での表示のための仮想アバターを生成するステップをさらに備える、請求項11に記載の方法。
  20. 前記アバターが仮想モデルマーカーの予め定義済の近接度内にあるときに前記マーカーが動作を行うように構成されるように、前記マーカーが表現された仮想3次元画像内に提供される、請求項19に記載の方法。
  21. 前記患者の内部の前記ユーザの視点は、コントローラの操作により変更することができる、請求項11に記載の方法。
  22. 前記患者の内部の前記ユーザの視点は、前記ユーザの位置の場所の変化により変更することができる、請求項11に記載の方法。
  23. 仮想現実手術ナビゲーション方法であって、
    特定の患者の内部の解剖学的構造に関連する医療画像を取得するステップと、
    前記患者の内部の解剖学的構造に関連する医療画像から多次元仮想モデルを準備するステップと、
    前記患者内の特定の場所に関する位置データを受信するステップと、
    位置センサからユーザの現在のビューの方向を示す位置データを受信するステップであって、前記位置センサは、前記ユーザの場所あるいは運動または前記患者の物理的特徴を直接検出するように構成され、前記位置データはビューの方向を含むステップと、
    コンピュータシステム上でソフトウェア命令を実行することにより、前記仮想モデルから最初の仮想3次元画像を表現するステップであって、前記仮想3次元画像は、前記患者の内部の特定の場所での最初の視点からの前記患者の解剖学的ビューを表し、前記視点は、前記ユーザの現在のビューの方向および前記特定の場所を示すデータにより判断され、前記特定の場所での最初の視点の解剖学的ビューは、前記ユーザの様々なビューの方向に対する変更により変更することができるステップと、
    前記特定の場所を前記患者内の任意の新しい場所へ動かす入力を受信するステップと、
    前記コンピュータシステム上でソフトウェア命令を実行することにより、前記仮想モデルから更新された仮想3次元画像を表現するステップであって、前記更新された仮想3次元画像は、前記患者の内部の新しい場所での更新された視点からの解剖学的ビューを表し、前記更新された視点は、前記新しい場所での前記ユーザの現在のビューの方向を示すデータにより判断されるステップと、
    前記仮想3次元画像を表現する際の使用のための方法の実行の最中に前記患者の解剖学的特徴のビデオデータを取り込むステップであって、前記新しい場所での更新された視点の解剖学的ビューは、前記ユーザの様々なビューの方向に対する変更により変更することができ、表現された仮想画像が、前記ユーザへの表示のための仮想ヘッドセットディスプレイに連続的に提供されるステップと、
    を備える、方法。
  24. 前記ユーザの視点の現在の場所が変化する際に前記場所を示す、前記仮想3次元画像内での表示のための仮想アバターを生成するステップをさらに備える、請求項23に記載の方法。
  25. 前記アバターが仮想モデルマーカーの予め定義済の近接度内にあるときに前記マーカーが動作を行うように構成されるように、前記マーカーが表現された仮想3次元画像内に提供される、請求項24に記載の方法。
  26. 前記患者の内部の前記ユーザの視点は、コントローラの操作により変更することができる、請求項23に記載の方法。
  27. 前記患者の内部の前記ユーザの視点は、前記ユーザの位置の場所の変化により変更することができる、請求項23に記載の方法。
  28. 前記ユーザの現在の頭の位置を示す位置データは、前記ユーザの頭の上に据え付けられる仮想ヘッドセットディスプレイ内に含まれる位置センサにより判断される、請求項23に記載の方法。
  29. 前記新しい場所から前記患者の内部を見る前記ユーザの要望を示す入力は、前記ユーザの位置を追跡するセンサにより生成される、請求項23に記載の方法。
  30. 前記新しい場所から前記患者の内部を見る前記ユーザの要望を示す入力は、コントローラを介してデータを入力するユーザにより生成される、請求項23に記載の方法。
  31. 前記新しい場所は、3次元座標系のX、Y、およびZ座標のうち少なくとも1つにおける変更を備える、請求項23に記載の方法。
  32. 前記ユーザの頭の位置が変化し、前記患者の内部の所望の場所が変化する際に、前記位置センサから更新された位置データを連続的にリアルタイムで受信するステップと、
    更新された頭の位置および更新された場所に対応する視点および場所からの解剖学的ビューを表す仮想3次元画像を連続的にリアルタイムで受信するステップと、
    をさらに備える、請求項23に記載の方法。
  33. 前記仮想モデルは、受信された患者特有のDICOMデータに基づく、請求項23に記載の方法。
  34. 前記仮想モデルは、ライブのビデオフィードを受信し、前記仮想モデルと同期させてその中に統合するように構成される、請求項23に記載の方法。
  35. 前記ライブのビデオフィードは、顕微鏡の視覚、内視鏡の視覚、およびロボットアームの視覚のうち1つを備える、請求項34に記載の方法。
  36. 前記仮想モデルは、リアルタイムで、複数のユーザの現在の相対位置および前記仮想モデルとの同時の相互作用を表す複数のアバターを受信し、前記仮想モデルと同期させてその中に統合するように構成される、請求項23に記載の方法。
  37. 前記アバターのうち1つがマーカーの予め定義済の近接度内にある事象に応答する動作を行うように前記マーカーが構成される、請求項36に記載の方法。
  38. 前記動作は、色を変更すること、可聴警報を作動させること、および追加の情報を表示することのうち少なくとも1つを備える、請求項37に記載の方法。
  39. 前記仮想モデルは、リアルタイムで、前記ユーザにより生成された手動で作成された要素を受信し、前記仮想モデルと同期させてその中に統合するように構成される、請求項23に記載の方法。
  40. 前記仮想モデルは、リアルタイムで、前記解剖学的ビューを強化するために一般的な解剖学的モデルを受信し、前記仮想モデルと同期させてその中に統合するように構成される、請求項23に記載の方法。
  41. 前記仮想モデルは、リアルタイムで、前記ユーザが前記解剖学的ビュー内の病態を理解するのを支援するための情報を受信し、前記仮想モデルと同期させてその中に統合するように構成される、請求項23に記載の方法。
  42. 前記ユーザに提供される3次元画像の一部として拡張現実感ビュー内の画像を支援するリアルタイムの患者の器官のデータを提供するために、内視鏡カメラが前記患者に使用される、請求項23に記載の方法。
  43. 前記内視鏡カメラの画像は、前記拡張現実感ビュー内に含まれる、請求項42に記載の方法。
  44. 前記位置センサは、前記ユーザにより着用されるヘッドマウントディスプレイ上に据え付けられ、前記ヘッドマウントディスプレイは、前記患者のパススルービューを前記ユーザに提供する、請求項23に記載の方法。
  45. 仮想現実手術ナビゲーション方法であって、
    患者の内部の解剖学的構造に関連する多次元仮想モデルを準備するステップと、
    前記患者内の場所に関する位置データを受信するステップと、
    位置センサからユーザの現在のビューの方向を示す位置データを受信するステップであって、前記位置センサは、前記ユーザの場所あるいは運動または前記患者の物理的特徴を直接検出するように構成され、前記位置データはビューの方向を含むステップと、
    コンピュータシステム上でソフトウェア命令を実行することにより、前記仮想モデルから仮想3次元画像を表現するステップであって、前記仮想3次元画像は、前記患者の内部の場所での視点からの前記患者の解剖学的ビューを表し、前記視点は、前記ユーザの現在のビューの方向を示すデータにより判断され、特定の場所での最初の視点の解剖学的ビューは、前記ユーザの様々なビューの方向に対する変更により変更することができるステップと、
    前記ユーザのビューの方向における変更を示す位置データを受信するステップと、
    前記コンピュータシステム上でソフトウェア命令を実行することにより、前記仮想モデルから更新された仮想3次元画像を表現するステップであって、前記更新された仮想3次元画像は、前記ビューの方向における変更を示すデータにより判断されるステップと、
    前記仮想モデル内に、前記仮想モデル内での前記ユーザの現在の相対位置を表す少なくとも1つのアバターをリアルタイムで統合するステップと、
    前記仮想モデル内にマーカーを統合するステップであって、前記マーカーは、前記少なくとも1つのアバターのうち少なくとも1つが前記マーカーの予め定義済の近接度内にあると判断することに応答する動作を行うように構成され、表現された仮想画像が、前記ユーザへの表示のための仮想ヘッドセットディスプレイに連続的に提供されるステップと、
    を備える、方法。
  46. 前記動作が、前記仮想モデル内の色を変更することを含む、請求項45に記載の方法。
  47. 前記動作が、可聴警報を作動させることを含む、請求項45に記載の方法。
  48. 前記動作が、前記ディスプレイ内に追加の情報を表示することを含む、請求項45に記載の方法。
  49. 仮想現実手術ナビゲーション方法であって、
    特定の患者の内部の解剖学的構造に関連する医療画像を取得するステップと、
    前記患者の内部の解剖学的構造に関連する医療画像から多次元仮想モデルを準備するステップと、
    前記患者内の特定の場所に関する位置データを受信するステップと、
    位置センサからユーザの現在のビューの方向を示す位置データを受信するステップであって、前記位置センサは、前記ユーザの場所あるいは運動または前記患者の物理的特徴を直接検出するように構成され、前記位置データはビューの方向を含むステップと、
    コンピュータシステム上でソフトウェア命令を実行することにより、前記仮想モデルから最初の仮想3次元画像を表現するステップであって、前記仮想3次元画像は、前記患者の内部の特定の場所での最初の視点からの前記患者の解剖学的ビューを表し、前記視点は、前記ユーザの現在のビューの方向および前記特定の場所を示すデータにより判断され、前記特定の場所での最初の視点の解剖学的ビューは、前記ユーザの様々なビューの方向に対する変更により変更することができるステップと、
    前記特定の場所を前記患者内の任意の新しい場所へ動かす入力を受信するステップと、
    前記コンピュータシステム上でソフトウェア命令を実行することにより、前記仮想モデルから更新された仮想3次元画像を表現するステップであって、前記更新された仮想3次元画像は、前記患者の内部の新しい場所での更新された視点からの解剖学的ビューを表し、前記更新された視点は、前記新しい場所での前記ユーザの現在のビューの方向を示すデータにより判断されるステップと、
    前記ユーザの視点の現在の場所が変化する際に前記場所を示す、前記仮想3次元画像内での表示のための仮想アバターを生成するステップであって、前記新しい場所での更新された視点の解剖学的ビューは、前記ユーザの様々なビューの方向に対する変更により変更することができ、表現された仮想画像が、前記ユーザへの表示のための仮想ヘッドセットディスプレイに連続的に提供され、前記アバターが仮想モデルマーカーの予め定義済の近接度内にあるときに前記マーカーが動作を行うように構成されるように、前記マーカーが表現された仮想3次元画像内に提供されるステップと、
    を備える、方法。
JP2021176447A 2015-10-14 2021-10-28 拡張現実感手術ナビゲーション Pending JP2022017422A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201562241447P 2015-10-14 2015-10-14
US62/241,447 2015-10-14
PCT/US2016/056727 WO2017066373A1 (en) 2015-10-14 2016-10-13 Augmented reality surgical navigation
JP2018514860A JP2018534011A (ja) 2015-10-14 2016-10-13 拡張現実感手術ナビゲーション

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018514860A Division JP2018534011A (ja) 2015-10-14 2016-10-13 拡張現実感手術ナビゲーション

Publications (1)

Publication Number Publication Date
JP2022017422A true JP2022017422A (ja) 2022-01-25

Family

ID=58517893

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018514860A Pending JP2018534011A (ja) 2015-10-14 2016-10-13 拡張現実感手術ナビゲーション
JP2021176447A Pending JP2022017422A (ja) 2015-10-14 2021-10-28 拡張現実感手術ナビゲーション

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018514860A Pending JP2018534011A (ja) 2015-10-14 2016-10-13 拡張現実感手術ナビゲーション

Country Status (8)

Country Link
US (2) US11197722B2 (ja)
EP (1) EP3361979A4 (ja)
JP (2) JP2018534011A (ja)
CN (1) CN107613897B (ja)
BR (1) BR112018007473A2 (ja)
CA (1) CA2997965C (ja)
TW (1) TWI745307B (ja)
WO (1) WO2017066373A1 (ja)

Families Citing this family (207)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10795457B2 (en) 2006-12-28 2020-10-06 D3D Technologies, Inc. Interactive 3D cursor
US11871901B2 (en) 2012-05-20 2024-01-16 Cilag Gmbh International Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage
US11504192B2 (en) 2014-10-30 2022-11-22 Cilag Gmbh International Method of hub communication with surgical instrument systems
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
US11638615B2 (en) * 2015-08-30 2023-05-02 Asensus Surgical Us, Inc. Intelligent surgical tool control system for laparoscopic surgeries
ITUB20155830A1 (it) * 2015-11-23 2017-05-23 R A W Srl "sistema di navigazione, tracciamento, e guida per il posizionamento di strumenti operatori"
CA3016220A1 (en) * 2016-02-29 2017-09-08 Mohamed R. Mahfouz Connected healthcare environment
EP3497544B1 (en) * 2016-08-12 2021-09-22 Boston Scientific Scimed, Inc. Distributed interactive medical visualization system with primary/secondary interaction features
EP3497600B1 (en) 2016-08-12 2021-11-17 Boston Scientific Scimed Inc. Distributed interactive medical visualization system with user interface features
WO2018045061A1 (en) * 2016-08-30 2018-03-08 Abella Gustavo Apparatus and method for optical ultrasound simulation
EP3551117A1 (en) * 2016-12-07 2019-10-16 Koninklijke Philips N.V. Image guided motion scaling for robot control
KR102567007B1 (ko) 2017-02-24 2023-08-16 마시모 코오퍼레이션 의료 모니터링 데이터 표시 시스템
WO2018156809A1 (en) * 2017-02-24 2018-08-30 Masimo Corporation Augmented reality system for displaying patient data
EP3612126A1 (en) * 2017-04-20 2020-02-26 The Cleveland Clinic Foundation System and method for holographic image-guided non-vascular percutaneous procedures
WO2018201155A1 (en) * 2017-04-28 2018-11-01 The Brigham And Women's Hospital, Inc. Systems, methods, and media for presenting medical imaging data in an interactive virtual reality environment
AU2018262533B2 (en) 2017-05-05 2024-01-18 Stryker European Operations Limited Surgical navigation system
WO2018208616A1 (en) 2017-05-08 2018-11-15 Masimo Corporation System for pairing a medical system to a network controller by use of a dongle
US10470645B2 (en) 2017-05-22 2019-11-12 Gustav Lo Imaging system and method
EP3412242A1 (de) * 2017-06-09 2018-12-12 Siemens Healthcare GmbH Ausgabe von positionsinformationen eines medizintechnischen instruments
US11284955B2 (en) 2017-06-29 2022-03-29 Verb Surgical Inc. Emulation of robotic arms and control thereof in a virtual reality environment
US11011077B2 (en) 2017-06-29 2021-05-18 Verb Surgical Inc. Virtual reality training, simulation, and collaboration in a robotic surgical system
EP3445048A1 (en) 2017-08-15 2019-02-20 Holo Surgical Inc. A graphical user interface for a surgical navigation system for providing an augmented reality image during operation
EP3336848B1 (en) * 2017-08-15 2023-09-27 Siemens Healthcare GmbH Method for operating a medical imaging device and medical imaging device
EP3470006B1 (en) 2017-10-10 2020-06-10 Holo Surgical Inc. Automated segmentation of three dimensional bony structure images
US20200187901A1 (en) * 2017-08-31 2020-06-18 The Regents Of The University Of California Enhanced ultrasound systems and methods
US10861236B2 (en) * 2017-09-08 2020-12-08 Surgical Theater, Inc. Dual mode augmented reality surgical system and method
US11727629B2 (en) 2017-09-21 2023-08-15 Samsung Electronics Co., Ltd. Un-occluded visualization of focus with depth continuity with context in volume rendering
TWI663546B (zh) * 2017-10-02 2019-06-21 宏碁股份有限公司 可支援虛擬實境應用程式的混合實境系統及其顯示方法
EP3700457A4 (en) * 2017-10-23 2021-11-17 Intuitive Surgical Operations, Inc. SYSTEMS AND METHODS FOR PRESENTATION OF AUGMENTED REALITY ON A DISPLAY OF A TELEOPERATION SYSTEM
US11911045B2 (en) 2017-10-30 2024-02-27 Cllag GmbH International Method for operating a powered articulating multi-clip applier
US11311342B2 (en) 2017-10-30 2022-04-26 Cilag Gmbh International Method for communicating with surgical instrument systems
US11510741B2 (en) 2017-10-30 2022-11-29 Cilag Gmbh International Method for producing a surgical instrument comprising a smart electrical system
US10980560B2 (en) 2017-10-30 2021-04-20 Ethicon Llc Surgical instrument systems comprising feedback mechanisms
US11291510B2 (en) 2017-10-30 2022-04-05 Cilag Gmbh International Method of hub communication with surgical instrument systems
US11801098B2 (en) 2017-10-30 2023-10-31 Cilag Gmbh International Method of hub communication with surgical instrument systems
US11229436B2 (en) 2017-10-30 2022-01-25 Cilag Gmbh International Surgical system comprising a surgical tool and a surgical hub
US11564756B2 (en) 2017-10-30 2023-01-31 Cilag Gmbh International Method of hub communication with surgical instrument systems
US11026687B2 (en) 2017-10-30 2021-06-08 Cilag Gmbh International Clip applier comprising clip advancing systems
US11317919B2 (en) 2017-10-30 2022-05-03 Cilag Gmbh International Clip applier comprising a clip crimping system
US11058497B2 (en) * 2017-12-26 2021-07-13 Biosense Webster (Israel) Ltd. Use of augmented reality to assist navigation during medical procedures
US11786245B2 (en) 2017-12-28 2023-10-17 Cilag Gmbh International Surgical systems with prioritized data transmission capabilities
US11559307B2 (en) 2017-12-28 2023-01-24 Cilag Gmbh International Method of robotic hub communication, detection, and control
US11419667B2 (en) 2017-12-28 2022-08-23 Cilag Gmbh International Ultrasonic energy device which varies pressure applied by clamp arm to provide threshold control pressure at a cut progression location
US11464535B2 (en) 2017-12-28 2022-10-11 Cilag Gmbh International Detection of end effector emersion in liquid
US11844579B2 (en) 2017-12-28 2023-12-19 Cilag Gmbh International Adjustments based on airborne particle properties
US11446052B2 (en) 2017-12-28 2022-09-20 Cilag Gmbh International Variation of radio frequency and ultrasonic power level in cooperation with varying clamp arm pressure to achieve predefined heat flux or power applied to tissue
US11304763B2 (en) 2017-12-28 2022-04-19 Cilag Gmbh International Image capturing of the areas outside the abdomen to improve placement and control of a surgical device in use
US11308075B2 (en) 2017-12-28 2022-04-19 Cilag Gmbh International Surgical network, instrument, and cloud responses based on validation of received dataset and authentication of its source and integrity
US11013563B2 (en) 2017-12-28 2021-05-25 Ethicon Llc Drive arrangements for robot-assisted surgical platforms
US11147607B2 (en) 2017-12-28 2021-10-19 Cilag Gmbh International Bipolar combination device that automatically adjusts pressure based on energy modality
US11969142B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Method of compressing tissue within a stapling device and simultaneously displaying the location of the tissue within the jaws
US11291495B2 (en) 2017-12-28 2022-04-05 Cilag Gmbh International Interruption of energy due to inadvertent capacitive coupling
US11096693B2 (en) 2017-12-28 2021-08-24 Cilag Gmbh International Adjustment of staple height of at least one row of staples based on the sensed tissue thickness or force in closing
US11786251B2 (en) 2017-12-28 2023-10-17 Cilag Gmbh International Method for adaptive control schemes for surgical network control and interaction
US11659023B2 (en) 2017-12-28 2023-05-23 Cilag Gmbh International Method of hub communication
US11896322B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Sensing the patient position and contact utilizing the mono-polar return pad electrode to provide situational awareness to the hub
US11234756B2 (en) 2017-12-28 2022-02-01 Cilag Gmbh International Powered surgical tool with predefined adjustable control algorithm for controlling end effector parameter
US11903601B2 (en) 2017-12-28 2024-02-20 Cilag Gmbh International Surgical instrument comprising a plurality of drive systems
US11571234B2 (en) 2017-12-28 2023-02-07 Cilag Gmbh International Temperature control of ultrasonic end effector and control system therefor
US11166772B2 (en) 2017-12-28 2021-11-09 Cilag Gmbh International Surgical hub coordination of control and communication of operating room devices
US11364075B2 (en) 2017-12-28 2022-06-21 Cilag Gmbh International Radio frequency energy device for delivering combined electrical signals
US11576677B2 (en) 2017-12-28 2023-02-14 Cilag Gmbh International Method of hub communication, processing, display, and cloud analytics
US11273001B2 (en) 2017-12-28 2022-03-15 Cilag Gmbh International Surgical hub and modular device response adjustment based on situational awareness
US11969216B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Surgical network recommendations from real time analysis of procedure variables against a baseline highlighting differences from the optimal solution
US11253315B2 (en) 2017-12-28 2022-02-22 Cilag Gmbh International Increasing radio frequency to create pad-less monopolar loop
US11937769B2 (en) 2017-12-28 2024-03-26 Cilag Gmbh International Method of hub communication, processing, storage and display
US11284936B2 (en) 2017-12-28 2022-03-29 Cilag Gmbh International Surgical instrument having a flexible electrode
US11376002B2 (en) 2017-12-28 2022-07-05 Cilag Gmbh International Surgical instrument cartridge sensor assemblies
US11317937B2 (en) 2018-03-08 2022-05-03 Cilag Gmbh International Determining the state of an ultrasonic end effector
US11056244B2 (en) * 2017-12-28 2021-07-06 Cilag Gmbh International Automated data scaling, alignment, and organizing based on predefined parameters within surgical networks
US11424027B2 (en) 2017-12-28 2022-08-23 Cilag Gmbh International Method for operating surgical instrument systems
US11389164B2 (en) 2017-12-28 2022-07-19 Cilag Gmbh International Method of using reinforced flexible circuits with multiple sensors to optimize performance of radio frequency devices
US11672605B2 (en) 2017-12-28 2023-06-13 Cilag Gmbh International Sterile field interactive control displays
US11304720B2 (en) 2017-12-28 2022-04-19 Cilag Gmbh International Activation of energy devices
US11109866B2 (en) 2017-12-28 2021-09-07 Cilag Gmbh International Method for circular stapler control algorithm adjustment based on situational awareness
US11832840B2 (en) 2017-12-28 2023-12-05 Cilag Gmbh International Surgical instrument having a flexible circuit
US11257589B2 (en) 2017-12-28 2022-02-22 Cilag Gmbh International Real-time analysis of comprehensive cost of all instrumentation used in surgery utilizing data fluidity to track instruments through stocking and in-house processes
US11666331B2 (en) 2017-12-28 2023-06-06 Cilag Gmbh International Systems for detecting proximity of surgical end effector to cancerous tissue
US11633237B2 (en) 2017-12-28 2023-04-25 Cilag Gmbh International Usage and technique analysis of surgeon / staff performance against a baseline to optimize device utilization and performance for both current and future procedures
US11266468B2 (en) 2017-12-28 2022-03-08 Cilag Gmbh International Cooperative utilization of data derived from secondary sources by intelligent surgical hubs
US11464559B2 (en) 2017-12-28 2022-10-11 Cilag Gmbh International Estimating state of ultrasonic end effector and control system therefor
US11832899B2 (en) 2017-12-28 2023-12-05 Cilag Gmbh International Surgical systems with autonomously adjustable control programs
US11857152B2 (en) * 2017-12-28 2024-01-02 Cilag Gmbh International Surgical hub spatial awareness to determine devices in operating theater
US11419630B2 (en) 2017-12-28 2022-08-23 Cilag Gmbh International Surgical system distributed processing
US11132462B2 (en) 2017-12-28 2021-09-28 Cilag Gmbh International Data stripping method to interrogate patient records and create anonymized record
US11529187B2 (en) 2017-12-28 2022-12-20 Cilag Gmbh International Surgical evacuation sensor arrangements
US11696760B2 (en) 2017-12-28 2023-07-11 Cilag Gmbh International Safety systems for smart powered surgical stapling
US10758310B2 (en) 2017-12-28 2020-09-01 Ethicon Llc Wireless pairing of a surgical device with another device within a sterile surgical field based on the usage and situational awareness of devices
US11896443B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Control of a surgical system through a surgical barrier
US11540855B2 (en) 2017-12-28 2023-01-03 Cilag Gmbh International Controlling activation of an ultrasonic surgical instrument according to the presence of tissue
US11311306B2 (en) 2017-12-28 2022-04-26 Cilag Gmbh International Surgical systems for detecting end effector tissue distribution irregularities
US20190201118A1 (en) 2017-12-28 2019-07-04 Ethicon Llc Display arrangements for robot-assisted surgical platforms
US11744604B2 (en) 2017-12-28 2023-09-05 Cilag Gmbh International Surgical instrument with a hardware-only control circuit
US11278281B2 (en) 2017-12-28 2022-03-22 Cilag Gmbh International Interactive surgical system
US11864728B2 (en) 2017-12-28 2024-01-09 Cilag Gmbh International Characterization of tissue irregularities through the use of mono-chromatic light refractivity
US10892995B2 (en) 2017-12-28 2021-01-12 Ethicon Llc Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs
US11423007B2 (en) 2017-12-28 2022-08-23 Cilag Gmbh International Adjustment of device control programs based on stratified contextual data in addition to the data
US11602393B2 (en) 2017-12-28 2023-03-14 Cilag Gmbh International Surgical evacuation sensing and generator control
US11179175B2 (en) 2017-12-28 2021-11-23 Cilag Gmbh International Controlling an ultrasonic surgical instrument according to tissue location
US11432885B2 (en) 2017-12-28 2022-09-06 Cilag Gmbh International Sensing arrangements for robot-assisted surgical platforms
US11589888B2 (en) 2017-12-28 2023-02-28 Cilag Gmbh International Method for controlling smart energy devices
US11678881B2 (en) 2017-12-28 2023-06-20 Cilag Gmbh International Spatial awareness of surgical hubs in operating rooms
US11100631B2 (en) 2017-12-28 2021-08-24 Cilag Gmbh International Use of laser light and red-green-blue coloration to determine properties of back scattered light
US11771487B2 (en) 2017-12-28 2023-10-03 Cilag Gmbh International Mechanisms for controlling different electromechanical systems of an electrosurgical instrument
US11202570B2 (en) 2017-12-28 2021-12-21 Cilag Gmbh International Communication hub and storage device for storing parameters and status of a surgical device to be shared with cloud based analytics systems
US11559308B2 (en) 2017-12-28 2023-01-24 Cilag Gmbh International Method for smart energy device infrastructure
US11818052B2 (en) 2017-12-28 2023-11-14 Cilag Gmbh International Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs
US11304745B2 (en) 2017-12-28 2022-04-19 Cilag Gmbh International Surgical evacuation sensing and display
US11304699B2 (en) 2017-12-28 2022-04-19 Cilag Gmbh International Method for adaptive control schemes for surgical network control and interaction
US11324557B2 (en) 2017-12-28 2022-05-10 Cilag Gmbh International Surgical instrument with a sensing array
US11179208B2 (en) 2017-12-28 2021-11-23 Cilag Gmbh International Cloud-based medical analytics for security and authentication trends and reactive measures
US11160605B2 (en) 2017-12-28 2021-11-02 Cilag Gmbh International Surgical evacuation sensing and motor control
US11410259B2 (en) 2017-12-28 2022-08-09 Cilag Gmbh International Adaptive control program updates for surgical devices
US11113887B2 (en) * 2018-01-08 2021-09-07 Verizon Patent And Licensing Inc Generating three-dimensional content from two-dimensional images
US20210052348A1 (en) 2018-01-22 2021-02-25 Medivation Ag An Augmented Reality Surgical Guidance System
CN110520932A (zh) * 2018-01-26 2019-11-29 外科手术室公司 用于患者参与的系统和方法
US10864043B2 (en) * 2018-02-09 2020-12-15 Kathleen M Douglas Interactive placement of a 3D digital representation of a surgical device or anatomic feature into a 3D radiologic image for pre-operative planning
US20190254753A1 (en) * 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
US11399858B2 (en) 2018-03-08 2022-08-02 Cilag Gmbh International Application of smart blade technology
US11259830B2 (en) 2018-03-08 2022-03-01 Cilag Gmbh International Methods for controlling temperature in ultrasonic device
US11337746B2 (en) 2018-03-08 2022-05-24 Cilag Gmbh International Smart blade and power pulsing
US11219453B2 (en) 2018-03-28 2022-01-11 Cilag Gmbh International Surgical stapling devices with cartridge compatible closure and firing lockout arrangements
US11207067B2 (en) 2018-03-28 2021-12-28 Cilag Gmbh International Surgical stapling device with separate rotary driven closure and firing systems and firing member that engages both jaws while firing
US11589865B2 (en) 2018-03-28 2023-02-28 Cilag Gmbh International Methods for controlling a powered surgical stapler that has separate rotary closure and firing systems
US11166716B2 (en) 2018-03-28 2021-11-09 Cilag Gmbh International Stapling instrument comprising a deactivatable lockout
US11090047B2 (en) 2018-03-28 2021-08-17 Cilag Gmbh International Surgical instrument comprising an adaptive control system
US11278280B2 (en) 2018-03-28 2022-03-22 Cilag Gmbh International Surgical instrument comprising a jaw closure lockout
US11471156B2 (en) 2018-03-28 2022-10-18 Cilag Gmbh International Surgical stapling devices with improved rotary driven closure systems
CN111970986A (zh) * 2018-04-09 2020-11-20 7D外科有限公司 用于执行术中指导的系统和方法
US10248981B1 (en) * 2018-04-10 2019-04-02 Prisma Systems Corporation Platform and acquisition system for generating and maintaining digital product visuals
WO2019211741A1 (en) 2018-05-02 2019-11-07 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
TWI671762B (zh) * 2018-05-17 2019-09-11 高雄榮民總醫院 隨選第三人視角或操作者視角的虛擬實境醫護處置評分方法、電腦可讀取記錄媒體、電腦程式產品、系統
US11340708B2 (en) 2018-06-11 2022-05-24 Brainlab Ag Gesture control of medical displays
WO2019238214A1 (en) * 2018-06-11 2019-12-19 Brainlab Ag Visualization of medical data depending on viewing-characteristics
WO2019245869A1 (en) 2018-06-19 2019-12-26 Tornier, Inc. Closed-loop tool control for orthopedic surgical procedures
TWI741196B (zh) * 2018-06-26 2021-10-01 華宇藥品股份有限公司 整合擴增實境之手術導航方法及系統
CA3105192A1 (en) * 2018-06-27 2020-01-02 SentiAR, Inc. Gaze based interface for augmented reality environment
EP3608870A1 (en) 2018-08-10 2020-02-12 Holo Surgical Inc. Computer assisted identification of appropriate anatomical structure for medical device placement during a surgical procedure
US11612438B2 (en) 2018-09-05 2023-03-28 Point Robotics Medtech Inc. Navigation system and method for medical operation by a robotic system using a tool
JP2021191320A (ja) * 2018-09-11 2021-12-16 ソニーグループ株式会社 手術支援システム、表示制御装置、および表示制御方法
US11429333B2 (en) * 2018-09-22 2022-08-30 BadVR, Inc. Immersive data visualization
CN113196413A (zh) * 2018-09-24 2021-07-30 外科手术公司 360 vr体积媒体编辑器
US11062527B2 (en) * 2018-09-28 2021-07-13 General Electric Company Overlay and manipulation of medical images in a virtual environment
EP3841590A1 (en) * 2018-10-12 2021-06-30 Sony Corporation Surgical support system, data processing apparatus and method
US11204677B2 (en) * 2018-10-22 2021-12-21 Acclarent, Inc. Method for real time update of fly-through camera placement
BR102018072428A2 (pt) * 2018-10-31 2020-05-26 Protótipos Indústria E Comércio De Produtos Protótipos Ltda - Me Sistema guia com realidade aumentada
KR102270170B1 (ko) * 2018-11-14 2021-06-25 임승준 증강 현실을 이용한 수술 보조 장치
CN109410680A (zh) * 2018-11-19 2019-03-01 叶哲伟 一种基于混合现实的虚拟手术训练方法及系统
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
CN109545003B (zh) * 2018-12-24 2022-05-03 北京卡路里信息技术有限公司 一种显示方法、装置、终端设备及存储介质
TW202037332A (zh) * 2019-02-12 2020-10-16 美商外科劇院有限責任公司 用於將神經活動模型化之系統及方法
US11357503B2 (en) 2019-02-19 2022-06-14 Cilag Gmbh International Staple cartridge retainers with frangible retention features and methods of using same
US11751872B2 (en) 2019-02-19 2023-09-12 Cilag Gmbh International Insertable deactivator element for surgical stapler lockouts
US11298130B2 (en) 2019-02-19 2022-04-12 Cilag Gmbh International Staple cartridge retainer with frangible authentication key
US11317915B2 (en) 2019-02-19 2022-05-03 Cilag Gmbh International Universal cartridge based key feature that unlocks multiple lockout arrangements in different surgical staplers
US11369377B2 (en) 2019-02-19 2022-06-28 Cilag Gmbh International Surgical stapling assembly with cartridge based retainer configured to unlock a firing lockout
CN109864820A (zh) * 2019-03-19 2019-06-11 安徽紫薇帝星数字科技有限公司 一种基于ct三维模型映射混合定位导航系统
TWI696085B (zh) * 2019-06-06 2020-06-11 崑山科技大學 虛擬實境輔助室內設計系統及其互動方法
USD964564S1 (en) 2019-06-25 2022-09-20 Cilag Gmbh International Surgical staple cartridge retainer with a closure system authentication key
USD952144S1 (en) 2019-06-25 2022-05-17 Cilag Gmbh International Surgical staple cartridge retainer with firing system authentication key
USD950728S1 (en) 2019-06-25 2022-05-03 Cilag Gmbh International Surgical staple cartridge
TW202103646A (zh) * 2019-07-15 2021-02-01 美商外科劇院股份有限公司 用於遠距監督手術程序之擴增實境系統及方法
US10832486B1 (en) 2019-07-17 2020-11-10 Gustav Lo Systems and methods for displaying augmented anatomical features
US11871904B2 (en) * 2019-11-08 2024-01-16 Covidien Ag Steerable endoscope system with augmented view
USD991278S1 (en) * 2019-12-09 2023-07-04 Ankon Technologies Co., Ltd Display screen or portion thereof with transitional graphical user interface for auxiliary reading
USD991279S1 (en) * 2019-12-09 2023-07-04 Ankon Technologies Co., Ltd Display screen or portion thereof with transitional graphical user interface
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
WO2021155334A1 (en) * 2020-01-31 2021-08-05 Surgical Theater, Inc. System and method for augmenting and synchronizing a virtual model with a physical model
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
JP2023526716A (ja) * 2020-02-28 2023-06-23 エイト・チリ インコーポレイテッド 外科手術ナビゲーションシステムおよびそのアプリケーション
EP4128171A1 (en) * 2020-03-30 2023-02-08 Intuitive Surgical Operations, Inc. Method and system for facilitating remote presentation or interaction
EP3893239B1 (en) 2020-04-07 2022-06-22 Stryker European Operations Limited Surgical system control based on voice commands
US20210330396A1 (en) * 2020-04-23 2021-10-28 Johnson & Johnson Surgical Vision, Inc. Location pad surrounding at least part of patient eye and having optical tracking elements
US11832883B2 (en) * 2020-04-23 2023-12-05 Johnson & Johnson Surgical Vision, Inc. Using real-time images for augmented-reality visualization of an ophthalmology surgical tool
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US11701176B2 (en) 2020-05-06 2023-07-18 Warsaw Orthopedic, Inc. Spinal surgery system and methods of use
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
CN111651043B (zh) * 2020-05-29 2021-10-12 北京航空航天大学 一种支持定制化多通道交互的增强现实系统
US11087557B1 (en) 2020-06-03 2021-08-10 Tovy Kamine Methods and systems for remote augmented reality communication for guided surgery
US11389252B2 (en) 2020-06-15 2022-07-19 Augmedics Ltd. Rotating marker for image guided surgery
US11393434B2 (en) 2020-07-09 2022-07-19 Industrial Technology Research Institute Method, processing device, and display system for information display
EP3951749A1 (en) * 2020-08-06 2022-02-09 Virtonomy GmbH Collaborative system for visual analysis of a virtual medical model
US11571225B2 (en) 2020-08-17 2023-02-07 Russell Todd Nevins System and method for location determination using movement between optical labels and a 3D spatial mapping camera
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure
CN112258390B (zh) * 2020-09-10 2021-06-25 华中师范大学 一种高精度微观虚拟学习资源生成方法
US11138806B1 (en) * 2020-12-14 2021-10-05 MediVis, Inc. Distributed augmented reality image display and generation of composite images
US11430562B2 (en) * 2021-01-04 2022-08-30 Healthy.Io Ltd. Selective reaction to failure to complete medical action
CN113509265A (zh) * 2021-04-01 2021-10-19 上海复拓知达医疗科技有限公司 一种动态位置识别提示系统及其方法
US20220331008A1 (en) 2021-04-02 2022-10-20 Russell Todd Nevins System and method for location determination using movement of an optical label fixed to a bone using a spatial mapping camera
CN113100935A (zh) * 2021-04-13 2021-07-13 上海大学 一种肺部穿刺手术术前穿刺路径规划方法及训练系统
EP4139932A1 (en) * 2021-04-27 2023-03-01 Cilag GmbH International Surgical stapler reload simulation
US11948226B2 (en) * 2021-05-28 2024-04-02 Covidien Lp Systems and methods for clinical workspace simulation
CN115437490A (zh) * 2021-06-01 2022-12-06 深圳富桂精密工业有限公司 交互方法、装置、服务器及计算机可读存储介质
CN113633387B (zh) * 2021-06-21 2024-01-26 安徽理工大学 术野追踪的扶持腹腔镜微创机器人触力交互方法和系统
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
US11600053B1 (en) 2021-10-04 2023-03-07 Russell Todd Nevins System and method for location determination using a mixed reality device and multiple imaging cameras
WO2023094913A1 (en) * 2021-11-23 2023-06-01 Medtronic, Inc. Extended intelligence ecosystem for soft tissue luminal applications
WO2023114470A1 (en) * 2021-12-16 2023-06-22 University Of Miami Augmented and mixed reality incorporating pathology results in surgical settings
US20230240790A1 (en) * 2022-02-03 2023-08-03 Medtronic Navigation, Inc. Systems, methods, and devices for providing an augmented display
US11855831B1 (en) 2022-06-10 2023-12-26 T-Mobile Usa, Inc. Enabling an operator to resolve an issue associated with a 5G wireless telecommunication network using AR glasses
CN115363751B (zh) * 2022-08-12 2023-05-16 华平祥晟(上海)医疗科技有限公司 术中解剖结构指示方法
WO2024089503A1 (en) * 2022-10-28 2024-05-02 Medtronic, Inc. System and method for illustrating a pose of an object

Family Cites Families (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BE1008128A3 (nl) 1994-03-10 1996-01-23 Materialise Nv Werkwijze voor het ondersteunen van een voorwerp vervaardigd door stereolithografie of een andere snelle prototypevervaardigingswerkwijze en voor het vervaardigen van de daarbij gebruikte steunkonstruktie.
BE1008372A3 (nl) 1994-04-19 1996-04-02 Materialise Nv Werkwijze voor het vervaardigen van een geperfektioneerd medisch model uitgaande van digitale beeldinformatie van een lichaamsdeel.
US5623582A (en) 1994-07-14 1997-04-22 Immersion Human Interface Corporation Computer interface or control input device for laparoscopic surgical instrument and other elongated mechanical objects
US5765561A (en) 1994-10-07 1998-06-16 Medical Media Systems Video-based surgical targeting system
US5826206A (en) 1996-03-12 1998-10-20 Training Inovations Group, Llc Debriefing systems and methods for retrieving and presenting multiple datastreams with time indication marks in time synchronism
US6847336B1 (en) 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
IL123073A0 (en) 1998-01-26 1998-09-24 Simbionix Ltd Endoscopic tutorial system
US6113395A (en) 1998-08-18 2000-09-05 Hon; David C. Selectable instruments with homing devices for haptic virtual reality medical simulation
JP3559495B2 (ja) 2000-03-28 2004-09-02 京セラ株式会社 誘電体磁器組成物およびそれを用いた誘電体共振器並びに非放射性誘電体線路
US6939138B2 (en) 2000-04-12 2005-09-06 Simbionix Ltd. Endoscopic tutorial system for urology
AU2001260559A1 (en) 2000-05-19 2001-11-26 Simbionics Ltd. Endoscopic tutorial system for the pancreatic system
US20020059284A1 (en) 2000-10-20 2002-05-16 Ran Bronstein Method for rapid transfer of data with a multi-spline model
IL143255A (en) 2001-05-20 2015-09-24 Simbionix Ltd Endoscopic ultrasonography simulation
WO2002100284A1 (en) 2001-06-13 2002-12-19 Volume Interactions Pte Ltd A guide system
FR2836372B1 (fr) 2002-02-28 2004-06-04 Obl Procede et dispositif pour la mise en place d'implants dentaires
SE0202863D0 (sv) 2002-09-30 2002-09-30 Goeteborgs University Surgical Improved computer-based minimal-invasive surgery simulation system
SE525157C2 (sv) 2002-12-03 2004-12-14 Mentice Ab Simuleringssystem för invasiv kirurgi
US7850456B2 (en) 2003-07-15 2010-12-14 Simbionix Ltd. Surgical simulation device, system and method
US7101383B1 (en) 2003-11-26 2006-09-05 Van Ess Lester J Laparoscopic instrument and method for its use
US20060036167A1 (en) 2004-07-03 2006-02-16 Shina Systems Ltd. Vascular image processing
US7331929B2 (en) 2004-10-01 2008-02-19 General Electric Company Method and apparatus for surgical operating room information display gaze detection and user prioritization for control
US8702580B2 (en) 2004-10-06 2014-04-22 Brainlab Ag Method and device for assisting in a tissue treatment
US8480404B2 (en) 2004-11-30 2013-07-09 Eric A. Savitsky Multimodal ultrasound training system
JP2006223374A (ja) 2005-02-15 2006-08-31 Olympus Corp 手術支援装置、手術支援システム及び手術支援方法
US8249687B2 (en) * 2005-06-02 2012-08-21 Vital Images, Inc. Systems and methods for virtual identification of polyps
US9289267B2 (en) * 2005-06-14 2016-03-22 Siemens Medical Solutions Usa, Inc. Method and apparatus for minimally invasive surgery using endoscopes
US20070129626A1 (en) 2005-11-23 2007-06-07 Prakash Mahesh Methods and systems for facilitating surgical procedures
US20070134637A1 (en) 2005-12-08 2007-06-14 Simbionix Ltd. Medical simulation device with motion detector
EP1966767A2 (en) 2005-12-31 2008-09-10 BRACCO IMAGING S.p.A. Systems and methods for collaborative interactive visualization of 3d data sets over a network ("dextronet")
US20070238981A1 (en) * 2006-03-13 2007-10-11 Bracco Imaging Spa Methods and apparatuses for recording and reviewing surgical navigation processes
US20070236514A1 (en) * 2006-03-29 2007-10-11 Bracco Imaging Spa Methods and Apparatuses for Stereoscopic Image Guided Surgical Navigation
GB0609988D0 (en) 2006-05-19 2006-06-28 Materialise Nv Method for creating a personalized digital planning file for simulation of dental implant placement
US20120150243A9 (en) 2006-08-31 2012-06-14 Catholic Healthcare West (Chw) Computerized Planning Tool For Spine Surgery and Method and Device for Creating a Customized Guide for Implantations
DE102006056884A1 (de) 2006-12-01 2008-06-05 Siemens Ag Verfahren und CT-System zur Durchführung einer Cardio-CT-Untersuchung eines Patienten
WO2008076079A1 (en) * 2006-12-19 2008-06-26 Bracco Imaging S.P.A. Methods and apparatuses for cursor control in image guided surgery
US8500451B2 (en) 2007-01-16 2013-08-06 Simbionix Ltd. Preoperative surgical simulation
US8543338B2 (en) 2007-01-16 2013-09-24 Simbionix Ltd. System and method for performing computerized simulations for image-guided procedures using a patient specific model
GB0703141D0 (en) 2007-02-19 2007-03-28 Materialise Dental Nv Dual transfer device for guided direct bonding
JP5335201B2 (ja) * 2007-05-08 2013-11-06 キヤノン株式会社 画像診断装置
DE102007053008A1 (de) 2007-11-05 2009-05-14 Repetzki, Sebastian, Dr.-Ing. Zielkörper und Verfahren zur Bestimmung seiner räumlichen Lage
WO2009094621A2 (en) 2008-01-25 2009-07-30 University Of Florida Research Foundation, Inc. Devices and methods for implementing endoscopic surgical procedures and instruments within a virtual environment
US9396669B2 (en) 2008-06-16 2016-07-19 Microsoft Technology Licensing, Llc Surgical procedure capture, modelling, and editing interactive playback
US9679499B2 (en) 2008-09-15 2017-06-13 Immersion Medical, Inc. Systems and methods for sensing hand motion by measuring remote displacement
JP5215828B2 (ja) 2008-12-02 2013-06-19 三菱プレシジョン株式会社 術前シミュレーションのためのモデル生成方法
GB0822590D0 (en) 2008-12-11 2009-01-21 Materialise Nv Orthotic prosthetic cushioned device and method of making the same
US20100178644A1 (en) 2009-01-15 2010-07-15 Simquest Llc Interactive simulation of biological tissue
US8685093B2 (en) 2009-01-23 2014-04-01 Warsaw Orthopedic, Inc. Methods and systems for diagnosing, treating, or tracking spinal disorders
WO2010132606A1 (en) 2009-05-12 2010-11-18 Edda Technology, Inc. System, method, apparatus, and computer program for interactive pre-operative assessment
US9104791B2 (en) 2009-05-28 2015-08-11 Immersion Corporation Systems and methods for editing a model of a physical system for a simulation
US8504136B1 (en) 2009-10-06 2013-08-06 University Of South Florida See-through abdomen display for minimally invasive surgery
US8311791B1 (en) 2009-10-19 2012-11-13 Surgical Theater LLC Method and system for simulating surgical procedures
US10580325B2 (en) 2010-03-24 2020-03-03 Simbionix Ltd. System and method for performing a computerized simulation of a medical procedure
US8315812B2 (en) * 2010-08-12 2012-11-20 Heartflow, Inc. Method and system for patient-specific modeling of blood flow
WO2012033739A2 (en) 2010-09-08 2012-03-15 Disruptive Navigational Technologies, Llc Surgical and medical instrument tracking using a depth-sensing device
WO2012135653A1 (en) 2011-03-30 2012-10-04 Avisar Mordechai Method and system for simulating surgical procedures
WO2012168836A2 (en) 2011-06-10 2012-12-13 Koninklijke Philips Electronics N.V. Dynamic constraining with optical shape sensing
CN102354345A (zh) 2011-10-21 2012-02-15 北京理工大学 一种具有体感交互方式的医学影像浏览设备
US20130267838A1 (en) 2012-04-09 2013-10-10 Board Of Regents, The University Of Texas System Augmented Reality System for Use in Medical Procedures
CN107822690B (zh) 2012-05-25 2020-10-02 外科手术室公司 具有不用手的控制的混合图像/场景再现器
US9563266B2 (en) * 2012-09-27 2017-02-07 Immersivetouch, Inc. Haptic augmented and virtual reality system for simulation of surgical procedures
US20140176661A1 (en) 2012-12-21 2014-06-26 G. Anthony Reina System and method for surgical telementoring and training with virtualized telestration and haptic holograms, including metadata tagging, encapsulation and saving multi-modal streaming medical imagery together with multi-dimensional [4-d] virtual mesh and multi-sensory annotation in standard file formats used for digital imaging and communications in medicine (dicom)
EP2961325A2 (en) * 2013-02-26 2016-01-06 Butterfly Network Inc. Transmissive imaging and related apparatus and methods
EP2996557B1 (en) * 2013-03-11 2019-05-01 Institut Hospitalo-Universitaire de Chirurgie Mini -Invasive Guidee Par l'Image Anatomical site relocalisation using dual data synchronisation
KR20140112207A (ko) * 2013-03-13 2014-09-23 삼성전자주식회사 증강현실 영상 표시 시스템 및 이를 포함하는 수술 로봇 시스템
CN103169445B (zh) * 2013-04-16 2016-07-06 苏州朗开医疗技术有限公司 一种内窥镜的导航方法及系统
US10070929B2 (en) * 2013-06-11 2018-09-11 Atsushi Tanji Surgical operation support system, surgical operation support apparatus, surgical operation support method, surgical operation support program, and information processing apparatus
US9940750B2 (en) * 2013-06-27 2018-04-10 Help Lighting, Inc. System and method for role negotiation in multi-reality environments
US20150019260A1 (en) * 2013-07-09 2015-01-15 Pristine Methods and systems for presenting medical information
US10408613B2 (en) * 2013-07-12 2019-09-10 Magic Leap, Inc. Method and system for rendering virtual content
TW201505603A (zh) * 2013-07-16 2015-02-16 Seiko Epson Corp 資訊處理裝置、資訊處理方法及資訊處理系統
JP2015019679A (ja) * 2013-07-16 2015-02-02 セイコーエプソン株式会社 情報処理装置、情報処理方法、および、情報処理システム
US9990771B2 (en) * 2013-08-28 2018-06-05 Aurelian Viorel DRAGNEA Method and system of displaying information during a medical procedure
CN105992996B (zh) 2014-04-04 2019-11-26 外科手术室公司 外科手术环境中的动态和交互式导航
CA2949241A1 (en) * 2014-05-20 2015-11-26 University Of Washington Through Its Center For Commercialization Systems and methods for mediated-reality surgical visualization
US20160027141A1 (en) * 2014-07-22 2016-01-28 Oculus Vr, Llc In-band latency detection system
EP3280344A2 (en) * 2015-04-07 2018-02-14 King Abdullah University Of Science And Technology Method, apparatus, and system for utilizing augmented reality to improve surgery
US20180092698A1 (en) 2016-10-04 2018-04-05 WortheeMed, Inc. Enhanced Reality Medical Guidance Systems and Methods of Use

Also Published As

Publication number Publication date
JP2018534011A (ja) 2018-11-22
BR112018007473A2 (pt) 2018-10-23
US11197722B2 (en) 2021-12-14
CN107613897A (zh) 2018-01-19
CN107613897B (zh) 2021-12-17
EP3361979A4 (en) 2019-06-26
US20210022812A1 (en) 2021-01-28
WO2017066373A1 (en) 2017-04-20
US20170367771A1 (en) 2017-12-28
CA2997965A1 (en) 2017-04-20
TWI745307B (zh) 2021-11-11
EP3361979A1 (en) 2018-08-22
CA2997965C (en) 2021-04-27
TW201717837A (zh) 2017-06-01

Similar Documents

Publication Publication Date Title
JP2022017422A (ja) 拡張現実感手術ナビゲーション
CN109464195B (zh) 双模式增强现实外科手术系统和方法
US11483532B2 (en) Augmented reality guidance system for spinal surgery using inertial measurement units
US11547499B2 (en) Dynamic and interactive navigation in a surgical environment
Bichlmeier et al. The virtual mirror: a new interaction paradigm for augmented reality environments
JP6081907B2 (ja) 医療処置のコンピュータ化シミュレーションを行うシステム及び方法
Gsaxner et al. The HoloLens in medicine: A systematic review and taxonomy
Birlo et al. Utility of optical see-through head mounted displays in augmented reality-assisted surgery: A systematic review
JP2022540898A (ja) 外科手術を遠隔監督するための拡張現実システムおよび方法
US20210393358A1 (en) Enhanced haptic feedback system
Cameron et al. Virtual-reality-assisted interventional procedures.
US20240163411A1 (en) Augmented reality guidance for spinal surgery with stereoscopic displays and magnified views
de la Lastra Augmented Reality in Image-Guided Therapy to Improve Surgical Planning and Guidance.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221221

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230222

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230530