JP2015527090A - ハイブリッド画像/ハンズフリー制御によるシーンレンダラー - Google Patents

ハイブリッド画像/ハンズフリー制御によるシーンレンダラー Download PDF

Info

Publication number
JP2015527090A
JP2015527090A JP2015514221A JP2015514221A JP2015527090A JP 2015527090 A JP2015527090 A JP 2015527090A JP 2015514221 A JP2015514221 A JP 2015514221A JP 2015514221 A JP2015514221 A JP 2015514221A JP 2015527090 A JP2015527090 A JP 2015527090A
Authority
JP
Japan
Prior art keywords
tissue
image
tool
display
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015514221A
Other languages
English (en)
Other versions
JP6343606B2 (ja
Inventor
ゲリ,アロン,ヤコブ
アヴィザル,モルデチャイ
Original Assignee
サージカル シアター エルエルシー
サージカル シアター エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サージカル シアター エルエルシー, サージカル シアター エルエルシー filed Critical サージカル シアター エルエルシー
Publication of JP2015527090A publication Critical patent/JP2015527090A/ja
Application granted granted Critical
Publication of JP6343606B2 publication Critical patent/JP6343606B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/12Surgical instruments, devices or methods, e.g. tourniquets for ligaturing or otherwise compressing tubular parts of the body, e.g. blood vessels, umbilical cord
    • A61B17/122Clamps or clips, e.g. for the umbilical cord
    • A61B17/1227Spring clips
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/12Surgical instruments, devices or methods, e.g. tourniquets for ligaturing or otherwise compressing tubular parts of the body, e.g. blood vessels, umbilical cord
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/12Surgical instruments, devices or methods, e.g. tourniquets for ligaturing or otherwise compressing tubular parts of the body, e.g. blood vessels, umbilical cord
    • A61B17/128Surgical instruments, devices or methods, e.g. tourniquets for ligaturing or otherwise compressing tubular parts of the body, e.g. blood vessels, umbilical cord for applying or removing clamps or clips
    • A61B17/1285Surgical instruments, devices or methods, e.g. tourniquets for ligaturing or otherwise compressing tubular parts of the body, e.g. blood vessels, umbilical cord for applying or removing clamps or clips for minimally invasive surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00707Dummies, phantoms; Devices simulating patient or parts of patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • A61B2034/104Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring

Abstract

特定の患者の手術をシミュレートするために、組織動態モデルを患者特有の映像に結び付けることにより医療処置を正確な動的手法でシミュレートするために、組織動態モデルおよび器具の特徴を患者特有の映像に結び付けることにより、特定患者の静態/静止医用画像を動的でインタラクティブな画像に変換して医用デバイスをはじめとする医療器具とインタラクトするためのシステムおよび方法。該方法は、組織の動的画像を追加および/または調節するツールと、組織の動的画像に任意の幾何学的形状を描写してその形状をモデリングシステムに追加する能力と、を含む。【選択図】図1

Description

関連出願の相互参照
本願は、2012年5月25日に出願され、参照により本明細書に組み入れられる、米国特許仮出願第61/651,775号の利益を主張するものである。
背景
本願は一般に、外科処置をシミュレートするためのシステムおよび方法に関する。より詳細には、本願は、ハンズフリー制御を利用して組織動態モデルを患者特有の映像に結び付けることにより、静態/静止医用画像を動的でインタラクティブな映像に変換して、医療器具(例えば手術器具、プローブ、および/または移植可能な医療デバイス)とインタラクトするためのシステムおよび方法に関する。
外科医は、身体組織の性質を有する現実的な視覚モデルをもたらすリハーサルおよび準備のツールを持たない。最も重要なこととして、(i)患者特有の手術領域(例えば、動脈瘤)の現実的な「本物そっくりの」2Dおよび/または3Dディスプレイ;(ii)手術の幾何学的配置の局部的な患者特有領域および身体特性のモデリング;(iii)手術モデルの患者特有領域の操作と、切断、移動および締付などの手術上の行動の仮想的実践と、を可能にするインターフェース;ならびに(iv)外科医にフィードバックキューを提供するインターフェース、をはじめとする「全没入型の」外科的ツールを有することが望ましい。
更に、外科医にハンズフリー制御を利用したシミュレーションを実施させるツールも、組織モデルのグラフィック画像の欠陥を修正する手段、さもなければそれを改良する手段と共に、有用となろう。
概要
非限定的に、ディスプレイと;ディスプレイに組織を表示して、対応する実際の生体組織を現実的に表現するために、組織の動的画像をディスプレイへの表示用に作成する画像ジェネレータと;ディスプレイへの表示のためにユーザー入力によりもたらされる操作を通して組織の動的画像と動的にインタラクトするユーザーツールのツールモデルを作成するユーザーツールジェネレータと;実際の生体組織内には存在するが最初に表示された組織の動的画像には存在しないため、表示された組織の動的画像を、次に追加または改良された特色と共にディスプレイに表示する、解剖学的構造を補正するために組織の特色を追加または改良することによりディスプレイに表示された組織の動的画像を調節するツールを提供するユーザーインターフェースと、を含む、医療処置を実施するためのモデリングシステムをはじめとする複数の例示的実施形態が提供される。このツールモデルは、ディスプレイに表示され、医療処置を現実的にシミュレートするために組織の動的画像と動的にインタラクトする。
1つ以上のコンピュータと;ユーザーに画像を表示するディスプレイと;特定患者の組織の物理的特徴を保存するデータベースと;特定患者の組織の動的現実的画像をディスプレイへの表示用に作成するためのソフトウエアを実行するコンピュータを1つ以上用いて、特定患者の組織を示す付影およびテクスチャなどの外観を示す組織の現実的画像を提供する画像ジェネレータと;医療処置で用いられる実際のユーザーツールの複数のユーザーツールモデルを提供するユーザーツールライブラリと;ユーザーツールモデルの1つを選択するためにユーザーからの入力を受け取るユーザーインターフェースと;ディスプレイに表示するための選択されたユーザーツールモデルの現実的なツール画像を作成するためのソフトウエアを実行するコンピュータを1つ以上用いるユーザーツールジェネレータと;ユーザーに実時間でディスプレイに表示するために、シミュレートされた医療処置の間に組織の現実的画像と動的にインタラクトするための選択されたユーザーツール画像を動的に操作するための入力をユーザーから受け取るためのユーザーインターフェースと;特定患者の実際の生体組織内には存在するが最初に表示された組織の動的画像には存在しないため、表示された組織の動的画像を、次に追加または改良された特色と共にディスプレイに表示する、表示用に組織の特色を追加または改良して解剖学的構造を補正することによりディスプレイに表示された組織の動的画像を調節するツールを提供するユーザーインターフェースと、を含む、シミュレートされた医療処置をユーザーに実施させるモデリングシステムも提供される。ユーザーツール画像と組織の画像との動的インタラクションは、保存された物理的特徴に基づく現実的な機械的インタラクションを呈する現実的な視覚的特色のある画像を利用してディスプレイに表示される。
更に、特定患者の医用画像から取得または誘導された患者組織画像情報を保存し、該組織の標準的特徴も保存するデータベースと;ディスプレイと;患者画像情報を利用し、組織の動的画像をディスプレイに表示して特定患者の対応する実際の組織を現実的に表現する、特定患者の組織の動的画像をディスプレイへの表示用に作成する画像ジェネレータと;ディスプレイへの表示のためにユーザーによりもたらされる操作を通して組織の動的画像と動的にインタラクトするユーザーツールのツールモデルを作成するユーザーツールジェネレータと;特定患者の実際の生体組織内には存在するが最初に表示された組織の動的画像には存在しないため、表示された組織の動的画像を、次に追加または改良された特色と共にディスプレイに表示する、表示用に組織の特色を追加または改良して解剖学的構造を補正することによりディスプレイに表示された組織の動的画像を調節するツールを提供するユーザーインターフェースと、を含む、手術のシミュレーションを実施するモデリングシステムが提供される。ツールモデルは、医療処置を現実的にシミュレートするために、ディスプレイに表示されて、組織の動的画像と動的にインタラクトする。
1つ以上のコンピュータと;ユーザーに画像を表示するディスプレイと;特定患者の組織の特徴を保存するデータベースと;特定患者の保存された特徴に基づく特定患者の組織の動的現実的画像をディスプレイへの表示用に作成するためのソフトウエアを実行するコンピュータを1つ以上用いて、特定患者の組織を示す付影およびテクスチャなどの外観を示す組織の現実的画像を提供する画像ジェネレータと;医療処置で用いられる実際のユーザーツールの複数のユーザーツールモデルを提供するユーザーツールライブラリと;ユーザーツールモデルの1つを選択するためにユーザーからの入力を受け取るユーザーインターフェースと;選択されたユーザーツールモデルの現実的なツール画像をディスプレイへの表示用に作成するソフトウエアを実行するためにコンピュータを1つ以上用いるユーザーツールジェネレータと;ユーザーに実時間でディスプレイに表示するために、シミュレートされた医療処置の間に組織の現実的画像と動的にインタラクトするための選択されたユーザーツール画像および/または組織画像を動的に操作するためのハンズフリー入力をユーザーから受け取るためのカメラを含むユーザーインターフェースと、を含む、シミュレートされた医療処置をユーザーに実施させるモデリングシステムも提供される。ユーザーツール画像と組織の画像との動的インタラクションは、現実的な機械的インタラクションを呈する現実的な視覚的特色のある画像を利用してディスプレイに表示される。
1つ以上のコンピュータと;ユーザーに画像を表示するディスプレイと;特定患者の組織の動的現実的画像をディスプレイへの表示用に作成するためのソフトウエアを実行するコンピュータを1つ以上用いて、実際の組織を示す付影およびテクスチャなどの外観を示す組織の現実的画像を提供する画像ジェネレータと;医療処置で用いられる実際のユーザーツールの複数のユーザーツールモデルを提供するユーザーツールライブラリと;ユーザーツールモデルの1つを選択するためにユーザーからの入力を受け取るユーザーインターフェースと;選択されたユーザーツールモデルの現実的なツール画像をディスプレイへの表示用に作成するためのソフトウエアを実行するコンピュータを1つ以上用いるユーザーツールジェネレータと;特定の患者を伴う、ユーザーにより使用されている実際の手術用機器の運動を追跡することができ、それにより前記運動を利用して、シミュレートされた医療処置の間に、ユーザーに実時間でディスプレイに表示するために、選択されたユーザーツール画像および/または組織画像を組織の現実的画像と動的にインタラクトするように動的に操作するユーザーインターフェースと、を含む、シミュレートされた医療処置をユーザーに実施させるモデリングシステムも提供される。
更に、
コンピュータシステムを準備するステップと;
コンピュータデバイスに接続されたディスプレイを準備するステップと;
コンピュータシステムに保存する特定患者の生体組織についての患者画像情報を得るステップと;
コンピュータシステムを利用して、特定患者の生体組織の動的画像をディスプレイへの表示用に患者画像情報を用いて作成することにより、組織の動的画像をディスプレイに表示して、特定患者の対応する実際の組織を現実的に表現するステップと;
コンピュータシステムを利用して、ディスプレイに表示するためにユーザーによる操作入力を介して組織の動的画像と動的にインタラクトするユーザーツールモデルを作成するステップと;
コンピュータシステムへのユーザー入力を利用して、特定患者の実際の生体組織内には存在するが最初に表示された組織の動的画像には存在しないため、表示された組織の動的画像を、次に追加または改良された特色と共にディスプレイに表示する、表示用に組織の特色を追加または改良して解剖学的構造を補正することによりディスプレイに表示された組織の動的画像を調節するステップと;
コンピュータシステムを利用して、組織の動的画像とユーザーの入力によるユーザーツールモデルとのインタラクションを示す医療処置の現実的なシミュレーションをディスプレイへの表示用に作成するステップと、
を含む、手術のシミュレーションを実施する方法が提供される。
追加の例示的実施形態も示し、その全てではないが一部をより詳細に以下に記載する。
本明細書に記載された本発明の実施例の特色および利点は、添付の図面を参照しながら以下の説明を読むことにより、本発明が関係する当業者に明白となろう。
例示的サージカルシアター(Surgical Theater)システムの高レベルの略図を示す。 例示的サージカルシアターシステム構造を実行するための例示的コンピュータシステム構造を示す。 共にネットワーク化された複数のサージカルシアターを用いたコラボレイティブシアター(Collaborative Theater)コンセプトの実施例の高レベル図である。 例示的サージカルシアターの実施形態の分散型シミュレーションネットワークコンセプトの例示的作業構成を示す。 例示的サージカルシアターシステムの例示的ソフトウエア機能を示すブロック図である。 高レベルの現実的画像ジェネレータ(Realistic Image Generator)(RIG)プラットホームを示す図である。 例示的サージカルシアターシステムのサージカルリハーサルプラットフォーム(Surgery Rehearsal Platform)(SRP)の高レベルアーキテクチャおよびワークフローを示す。 例示的SRPの例示的コンピュータアーキテクチャを示す。 動的組織画像を調節する例示的ツールを示すフローチャートである。 例示的インタラクションツールおよび組織要素を示すスクリーンショットである。 例示的ハンズフリーの入力インタラクションを示す画像である。 ユーザーによりドラッグされ得る例示的マーカおよびツールを示すスクリーンショットである。 マジック組織ワンドツールを用いて改良され得る例示的構造を示すスクリーンショットである。 組織ペインティングツールを用いて改良され得る例示的構造を示すスクリーンショットである。
例示的実施形態の詳細な説明
図1は、患者特有のスキャン画像(CT、MRIなど)(14)がシステムのコンソール(10)に送られ、三次元の現実的な解剖学的表示(18)を作成するアルゴリズムが、テクスチャ、陰影、付影および他のキュー(Cue)を画像に加え、機械的性質のアルゴリズム(16)が機械的挙動特性を画像に割り付けて、画像を静止/静態画像から動的なインタラクティブ画像/モデルに転換する、システム1の一適用例の例示的実施形態を示している。フォースフィードバック(20)を有する、または有さないインターフェースが、システムに接続されて、システムが作成する画像/モデルを外科医/オペレータ(12)に操作させることができ;外科医は、それらのツールおよびインプラントの特徴を含むツールおよびインプラントのライブラリからツールおよびインプラントを選択することができる。その後、外科医は、現実的で動的な手法で患者の生体の操作可能で動的なインタラクティブ三次元画像/モデルで仮想手術を実施する。
該システムは、システムの要素全てを運用および管理し、外科医/オペレーター(12)の行動に従って従属要素の状態をアップデートするエグゼクティブプログラムを含む。例えば、外科医がインターフェース(20)を利用して、ディスプレイ(18)で見る組織を押圧する場合、機械的性質モデル(16)が、加えられた力に関する情報、例えば力の方向、材料および形状などの用いられているツール、ならびにツールの他の機械的特徴を受け取り、その後、機械的性質を利用して、加えられた力に従う三次元方向の新規状態および画像のセットアップを計算して、エグゼクティブプログラムが計算された三次元マトリックスを機械的性質アルゴリズム(16)により作成された現実的な解剖学的表示(18)に送信し、現実的な解剖学的表示が、新規画像を計算し、画像変更によるキュー、例えば画像要素の新しい方向による新しい陰影および付影が決定される。同時に、機械的性質モデル(16)は、外科医/オペレータ(12)が臓器とのインタラクションにより感じる必要のある力(外科医が組織を押圧した後、または組織とインタラクトした後に、臓器が戻る力)の情報を含む一組のパラメータを、フォースフィードバックインターフェース(20)に送信する。システムの要素(14、16、18、20)の互いの新しい段階を計算するこのプロセスは、周期的手法で迅速かつ連続的に実行され、各サイクルは、ミリ秒のフレーム時間内で完了されて、実時間の現実的なキューおよび彼らの行動への実時間反応を外科医/オペレータに受け取らせることができる。
サージカルシアターは、図1Aに示される通り、1つ以上のコンピュータ(PC)2A〜2n、1つ以上のデータベース3A〜3n、ならびに他のハードウエア要素(例えば、ネットワーク5、6)および所有権付きのソフトウエアを、小さなウォークインクローゼットほどのサイズの没入型チャンバー/コンソール(図1のコンソール10参照)中に構築された1つの完全なシステム1(図1および1Aの両方を参照)に統合したシステムである。外科医12がシステムを始動すると、外科医は患者の詳細を含む患者のセットアップパラメータをロードして、システムに関連データをアップロードさせて、その後、サージカルシアターが患者画像14から得た患者の利用可能なCTおよびMRI画像の全てを、データベース(複数可)3および患者の年齢、性別などのシミュレートされたモデルに関係する他の情報にロードする(それらの一部または全ては、例えば医用データベースなどの外部団体8から得てもよい)。該システムは、システムデータベースからの組織情報パラメータ16を利用する。システム1は、セグメント化プロセスを実施し、臓器のエンティティー(血管、組織、腫瘍など)を認識して、デバイスのディスプレイで外科医に示されたシミュレートされた画像モデル18を作成する。該システムは、フィードバック機構を通して現実的な触覚フィードバック20を提供して、シミュレーションに更なる現実性を加える。
該システムは、現実的な視覚、システムデータベース(複数可)から得た機械的性質および他の関連パラメータ16、ならびに症例に関連する特徴の層を適用し、その全てが、患者の画像データベース(複数可)3からのCTおよびMRI画像14の最上に加えられ、それらの画像と同調される。その同調により、例えば血管画像などに「締付られる」または「付着される」血管の機械的性質を生成して、現実的なシミュレーション能力をもたらす。外科医は、モデルを「微調整」して、臓器の特定領域の機械的性質を調節する能力を提供され得る。例えば外科医は、そのエンティティーの挙動の弾性および他の機械的特徴を調節することができる。
次に、そのようなセットアップの後、サージカルシアターは、現実的な特色、例えばテクスチャ、付影、および他の特色がシミュレートされた画像に現実性を加えている、現実的な視覚的忠実性が存在する三次元臓器モデル18を映し出す。視覚的モデル18の各セグメントは、具体的症例のシステムデータベース16および他の関連の性質から得た適切な機械的性質モデルと整合されて調和される。
この段階では、該システムは、手術(または他の処置)を実施するのに必要となり得る関連の手術器具および他の要素(システムソフトウエアの用語ではそれらのツールおよび要素も「エンティティー」である)を、システムデータベース内のシステムの視覚的ライブラリ16から外科医に閲覧および選択させる。そのような要素としては、各症例に適したセイザー(Seizers)およびクランプ、動脈瘤用クリップ、人工心臓弁、および他の要素を挙げることができる。(インターネットまたはプライベートネットワークなどにより、ネットワーク9を通してシステム1に接続された追加のシステム1’、1''を加えることで、本開示の後により詳細に記載される、コラボレイティブシアタープラットフォームを得ることができる。)
様々なエンティティーの全てが、高忠実性分散モデル内のシステムおよび分散型アーキテクチャ内の機能により表され、例えば各エンティティーは、典型的には別個のサブエンティティーを有し、サブエンティティーは、例えば「視覚的エンティティー」または「機械的エンティティー」などである。各サブエンティティーは、複数のコンピュータの間に分布する異なる環境(例えば、以下により詳細に記載される、視覚的システム環境、機械的モデリング環境など)の1つに存在する。そのような各サブエンティティーは、それ自体のパフォーマンス(例えば、エンティティーの現実的な視野を表すこと、またはエンティティーの機械操作を実演すること)を担う。
サブエンティティーは、分散型ネットワークを介して通信を行って(以下により詳細に記載)、サブエンティティーを1つの統合されたエンティティーコンパウンドモデルに整合して調和する。例えば組織が手術器具により圧迫されている時に、手術器具の圧力特性(例えば、圧力の配置、方向および量など)が、ネットワークを介して分散され、サブエンティティーの各1つは、この手術器具の圧力により影響を受けているならば、「リスニング(listening)」およびコンクルーディング(concluding)を担い;サブエンティティーが影響を受けていることを決定すれば、それぞれのそのようなサブエンティティー(例えば、組織エンティティー)モデル、つまりそれらのサブエンティティーモデル、例えば視覚サブエンティティーへの影響は、視覚的影響(組織の出血状態など)を表し、機械的性質モデルは、組織の移動を表す。それぞれのサブエンティティーは、ネットワークを通して変動(例えば組織の配置および寸法の変動)を分散し、それにより他のサブエンティティーが、この変動により影響を受けているかどうかを決定することができる。そのような行動の終了時に、先の実施例に関する組織のサブエンティティー全て(および他のエンティティー)が、順応するようになり、そして必要に応じてそれらの状況に適合し、モデルは、先の例では手術器具から起こり、開始する新しい行動に適合する。
つまり様々な機能(サブエンティティー)は、分散されたデータおよび状態の複製を利用してピアツーピアネットワーク内で接続された様々なコンピュータ間に分散させることができ(シミュレーションの状態のローカルコピーを維持するために)、全てがシミュレーションのそれらの部分に影響を与える任意の行動に関してネットワーク上でリスニングし、その場合、ネットワークを通してパラメータをアップデートしてシステムを正確に保ち、もちろん他のサブエンティティー内の他の機能に影響を及ぼす場合があり、それゆえその事実をネットワークのモニタリングにより取得して、更なるアップデートに誘導するなどである。この方法では、該システムは、多くのコンピュータ間の機能性を並行して分散し、それによりアップデートをコンピュータが1つだけ用いられる場合よりもかなり迅速に行うことができる。変動により影響を受けたそれらのサブエンティティーのみが、応答を必要とし、つまりネットワークトラフィックを必要最小限まで減らすことができる。
サージカルシアターは、外科医に行動を記録させ、後に再生するためにそれを保存して、外科医の責任者もしくはレジデントに手術計画を示して、または他の外科医と情報を共有して、外科医が取り組んでいる新しい技術を示し、手術を実践するなどである。該システムの、外科医へのインターフェースは、外科医に行動のフォースフィードバックキューを感知させて実際の処置を現実的にシミュレートするためのツールに送達されるフォースフィードバックを含む。
手術器具および他のエンティティーが、外科医により選択されたら、それらが仮想手術シーンに統合されて、現実的な視覚特性と、選択された項目の各1つに適用される機械的性質および操作的性質をはじめとする、シミュレートされたシナリオの統合された要素に変換する。例えばシミュレートされたはさみは、実物のはさみの機械的特徴を反映し、実物のはさみが切断するようにシミュレーションにおいて切断し、シミュレートされた血管に配置された場合の動脈瘤用クリップは、血流の遮断をシミュレートする。
次に外科医は、仮想手術の任意の段階で手術の行動を実施するが;外科医は、シミュレーションを「フリーズ」して臓器を回転させ、異なる方位および遠近感から該当する領域を観察することができる。外科医は、仮想手術の「時点を標識する」ことができ、「標識された時点に戻す」をコマンドすることができる。例えば外科医は、動脈瘤を締付ける前にその時間を標識して、この時点の後に実行された行動全てを「復元」しながら、この時点に戻すことができる。この方式では、外科医は、本来の開始点から手術全体を再開することなく、手術の選択された時期の異なる手術アプローチを評価することができる。複数のそのような「標識ポイント」を利用でき、外科医に行動を回復および「再現」させて、手術の複数の選択された時期に検査/リハーサルすることができる。サージカルシアターの使用は、外科医の手術に向けたリハーサル;外科医責任者および研修医への手術のデモンストレーション;手術の実践および発展、ツールおよび方法のテストおよび検証、ならびに知識の共有を含むことができる。以下に記載されたハンズフリー操作は、この特色のために利用することができる。
コラボレイティブシアター
図2は、サージカルシアターにより導入されたコラボレイティブシアターコンセプトの高レベルの例示的実施を示す。次世代のブロードバンドインフラストラクチャー25を活用することにより、異なる病院のSRP21、22、23・・・を利用している個人が連携して、国中および世界中の外科医に、例えば2つ以上に分散された場所からSRPに、外科症例を共同的に計画させて、手術に向けて一緒に患者症例でリハーサルすることができる。このコラボレイティブシアターで、過去のサージカルシアター症例を観察するだけでなく遠隔教育および指導を提供することにより、外科医に最良の実践方法を研究させることができる。コラボレイティブシアターは、連携していてSRPを利用している全ての病院で、最新の知識および最近の「最良実践法」へのアクセスを増加させることができる。更に、以下に記載されるハンズフリー操作は、コラボレイティブシアターコンセプトに用いることができる。
システムレベルデザイン
システムレベルデザインの説明は、先行の区分に概説されている。視覚レンダリングエンジンで、3D MRIおよびCTの患者特有の画像を分析して、特定の画像の解剖学的構造および特色を表すコンピュータ化されたセグメント化モジュールを作成する。医療市場は、膨大な数の先進的デジタル・イメージング・アンド・コミュニケーション・イン・メディスン(Digital Imaging and Communication in Medicine)−DICOM(1)ビューワを有する。それらの特色を組み合わせば、相互参照し得る3枚の異なるパネルの層状白黒断面から、患者の臓器の3D画像の静態サブセットをフライスルーする完全な能力まで様々である。加えて、臓器の様々な機能的および動的変化をムービークリップの形態で記録する4Dおよび5D機能も存在する。取込み画像または動画と同様に見事なことは、それらが、決められた時間内での一定のスナップショット画像セットということである。
サージカルシアターは、既存の3D変換プロセスを受けて、物理的および機械的性質に基づくヒト組織および構造に特有の性質を加え、それは後にシステムデータベースに保存される。この患者に基づくモデルが、仮想世界で運動に設定されると、サージカルシアターは、仮想手術器具セットを導入しており、現実の手術での組織操作と同様のモデルを外科医に操作させて(押圧、切断、締付を行わせるなど)、外科医に直観的経験を積ませる。
図3は、例示的サージカルシアターの分散型シミュレーションネットワーク(サージカルシアターDIS(ST−DIS)が提示される)の作業構成を示す。図の要素(即ちブロック)のそれぞれは、設計された機能を有する隔離型演算ステーション(独立型コンピュータまたは集合型コンピュータで実行され得る)である。該ステーションは、膨大な量のDICOMデータを転送させるのと同様に、緩やかな変則的トラフィックを取り扱うレギュラーサポートネットワーク31(例えば、イーサネット(登録商標)のネットワークなど)に適宜、接続される。より強いデータ処理要求の際には、該ステーションは、優先性の高いシミュレーションデータ(例えば、高帯域幅のイーサネット(登録商標)で実行され得るもの)のみに用いられるハードウエア隔離型ネットワークである専用の分散型インタラクティブシミュレーション(ST−DIS)ネットワーク(Distributed Interactive Simulation(ST−DIS)Network)32によりサポートされる。ST−DISネットワーク32は、非持久性シミュレーション情報を伝え、そのような精巧なシミュレーション負荷分散を可能にする。
サージカルシアターのST−DISは、独立した一組のシミュレータノードから大規模な仮想世界を構築するためのネットワークアーキテクチャである。シミュレータノード33〜38は、ネットワークにより連結され、共通のネットワークプロトコル(例えば、TCP/IPなど)を介して通信を行う。ST−DISインフラストラクチャーは、様々なシミュレータを時間的および空間的にコヒーレントな環境で一緒に使用することができる。サージカルシアターのST−DIS ST−DISシステムでは、仮想世界が、誘発するイベントにより互いにインタラクトする一組の「エンティティー」としてモデル化される。シミュレータノード33〜38は、それぞれ独立して、シミュレーションの仮想世界でエンティティーの1つ以上の活動をシミュレートし、ネットワーク上のメッセージを介して他のシミュレータノードに該当する属性および行動を報告する。ネットワーク上の他のシミュレータノードは、ネットワークメッセージの「リスニング」を担い、どれがそれらに該当するか(それらがシミュレートしているエンティティーに基づく)を決定し、適宜、応答する。
分散型インタラクディブシミュレーションに関係するST−DISネットワークおよびシミュレーションアーキテクチャの特色の1つが、中央サーバーまたはプロセッサを全く必要としないことである。各シミュレーションアプリケーションが、独自のメモリまたはデータベース内で共通の仮想環境の独自コピーを維持する。この環境の表示が、任意の実時間操作の前に、様々な手段で全てのシミュレーションアプリケーションに分散される。ST−DISは、基本的にはピアツーピアアーキテクチャであり、そこでデータは、全てのシミュレータに利用可能に伝送されて、受信者の要求に応じて拒絶または受信され得る。全てのメッセージが通過する中央サーバーを排除することにより、ST−DISでは、シミュレータが重要な情報を別のシミュレータに送信するタイムラグが減少する。待機時間として知られるこのタイムラグは、現実性と、それに応じ、ネットワーク化されたシミュレータの有効性を、大きく低下させる可能性がある。有効な分散型シミュレーションは、新しい状態/イベントがシミュレートされたエンティティーについて起こる時間から、その状態/イベントが反応しなければならない別のエンティティーにより認知される時間までの非常に短い待機時間に依存する。トレーニングデバイスにより導入された任意の遅延は、トレーニング受講者に負の強化をもたらす可能性がある。
再度、図3を参照すると、アーカイブサーバー(Archive Server)34は概ね、シミュレーションに必要な多量のデータを、データベース内にダウンロードおよび保存するタスクを実施するために用いられる。加えて、アーカイブサーバー34は、シミュレーションの更なる使用のために、得られたデータを準備するのに用いることができる。そのデューティーは典型的には世界全体のことであり、シミュレーション活動に重要でないため、アーカイブサーバー34が典型的にはサポートネットワーク31のみに接続される、ということに留意されたい。
図3は、オフライン「サポート」ネットワーク(31)と、データベースに保存された医用画像(CT/MRI)および追加の初期化データ(例えば、患者の名前、年齢など、および手術器具ライブラリなどのシナリオに含まれるファイル)をロードする「アーカイブサーバー」(34)と、制御入力を記録し、そのシナリオおよびタイムライン情報の行動全てを保存して、シナリオおよび行動の再生を可能にする「デブリーフサーバー(Debrief Server)」(38)と、を含むネットワークアーキテクチャを示す。実時間ネットワーク(32)は、実時間フュージョンでのシミュレーションの間にシステムノード間でメッセージを転送するネットワークであり、このネットワークを実行する1つの方法が、分散型インタラクティブシミュレーション(DIS)ネットワーク(32)であってもよく、このネットワークに接続された要素が、外科医/オペレータシステムインターフェースに接続された制御入力(Controll Input)(33)であり、このノードは、システムの実時間の要求がDSIネットワーク、および必要となるノード間の直接的な物理的接続により満たされ得ない場合に実行され得る、ホストコンピュータ(Host Computer)(35)への任意の直接的な物理的接続を有する。ホストコンピュータ(35)は、エグゼクティブマネージャプログラム、ならびに他のモデルおよびシミュレーションの要素を含み、システム全体の実時間同調およびタイミングを担う。
シアター初期化システム(Theater Initialization Systems)(TIS)(36)は、ノードの各1つについてシステムの配分およびセットアップを実行し、例えば、外科医が専用の使用ツールを選択する場合に、TISは、ノードの全てについて正確なツールシミュレーションを作成するために(データベース内に保存されたツールの特徴により)、このツールの適切なモデルを配分/活性化して、ノードの全てが確実に同じ初期化でセットアップされるようにする。画像ジェネレータ(36)は、シナリオのレンダリングおよび可視化のタスクを実行する。ホストコンピュータ(35)、TIS(36)、画像ジェネレータ(36)およびデブリーフサーバーは、サポートネットワーク(Support Network)(31)からの初期化についてオフラインで情報を受信および交換し、「オンライン」および実時間シミュレーションについては、実時間ネットワーク(32)により情報を受信および交換する。
必要とされる臓器表面および体積のデータは、既存のMRI/CTスキャンから抽出されて、データベース内に保存される。3D臓器表面データを得るために、該システムでは、DICOMビューワと、例えばアップルマッキントッシュコンピュータ用に実行されるオープンソースソフトウエアであるOsiriX(または同等品)などのデータ管理システムと、を利用することができる。Objective Cソースコードでボクセル密度値に基づく臓器および臓器群の3D表面を作成するOsiriXの能力に「トラップする」ことにより、サージカルシアターは、記載する3D表面および臓器タイプについての情報を保存する能力をデータベース内のフラットファイルに追加する。この研究の部分的組み合わせ全体が、この手法でシステムデータベースに保存されて、後に臓器の標準的特徴に基づく患者特有画像を再現する画像ジェネレータステーション(Image Generator Station)37に転送される。必要なレンダリングデータが得られたら、画像ジェネレータステーション37のレンダリングプラットフォームが、画像に適用される。このため所有権付きの画像ジェネレータアルゴリズムが、視覚化ツールキット(Visualization Tool Kit)と統合される(フライトIGなど;現実的な画像ジェネレータ−RIGに関する別の項目にある特色を参照されたい)
IGは、視覚モデルに割り付けられ、RIGの区分に更に詳述された、付影、テクスチャ、および材料特性などの微細なキューを送達す独特の性質を有する。IGがそれらの特色を利用することにより現実的で全没入型環境を生成するだけでなく、厳しい実時間拘束の下で多量の視覚データベースモデルを処理することもできる。DISアーキテクチャと「エンティティー」設計との組み合わせにより可能になるため、ネットワークトラフィックが最小限に抑えられ、ピアツーピアノードで高効率の実時間システムが作成される。
患者特有の画像が、有効にレンダリングされた後、適切なシミュレーションを作成するために、様々な物理演算ライブラリが加えられる。脳組織の押圧および用手操作は、入手可能なライブラリのOpenTissue(または同等の)コレクションなどのモデリングプラットフォーム内で具現化される広範囲の研究を利用してシミュレートされる。例えばOpenTissueは、例えば三次元形状のボリュメトリックシェルおよび他の複雑な挙動をモデル化するライブラリのオープンソースコレクションである。カスタマイズされたライブラリを、使用のために開発することもできる。例えば、緊張した脳組織の機械的性質の調査から得られた脳組織の物理学的および機械学的性質の特殊性を利用することができる。動物脳試料の機械的操作の数学モデルを提供する実験論文が、入手可能である。シミュレートされた手術器具とシミュレートされた組織との動的および現実的インタラクションは、2012年3月30日に出願された同時係属の特許出願PCT/US12/31514号および2010年10月19日に出願された米国特許第8,311,791号(参照により本明細書に組み入れられる)に記載されたアルゴリズムおよびアプローチで実行されている。その研究では、様々なツールおよび組織タイプを検査して、特に手術のシミュレーションを実行するために、現実的なシミュレーションを作成している。
例示的サージカルシアターのソフトウエアコードは、C++などの商業的環境に記載され、そのコードは、ウィンドウズ(登録商標)オペレーティングシステムのLinux(登録商標)システム、または互換性のあるシステムで実施されるように設計されている。コーディングの開発プロセスでは、コードの実時間実行およびコード効率に重点が置かれているが、それらは全て待機時間を最小限に抑えながら、実時間システムのパフォーマンスを維持することを目的としている。
画像ジェネレータ(37)内に配置された視覚システムドライバーは、OpenGLまたはその同等物などのオプティマイザー環境と共に設計され、要求された高いモデル忠実性を維持しながら高性能のレンダリングおよび大きなモデルとのインタラクションを可能にして、クロスプラットフォーム環境において高性能を維持しながら細部に注意を払うことができる。
計算効率の目的のために、視覚モデルのエンティティーのそれぞれは、複数のレベルオブディテイル(Level of Details)(LOD)表現を有し;高いLODは、外科医が高い解像度を必要とするシミュレーションシーンの領域で提示され、低いLODは、外科医が即座に関心またはインタラクションを有さないシミュレーションシーンの領域で提示される。例えば組織の視覚モデルは、外科医インタラクションの周辺領域では高いLODで提示され、外科医が即座にインタラクションを有さない領域では低いLODで提示される。LODは、動的に適合することができ、手術器具を特定領域に向けるなどの外科医の行動を、視覚モデルの特定区分についてのLODの動的配分のためのLOD最適化アルゴリズムにより利用することができる。
典型的なシステムのコンピュータは、柔軟性および成長能力をもたらすマルチプルコア(マルチプルプロセッサ)を有するPCである。コンピュータシステムは、ランダムアクセスメモリ、イーサネット(登録商標)ポート、システムディスク、およびデータディスクを含む。
サージカルシアターの妥当性検証(画像品質、現実性、画像コントローラおよび操作)のために、古参の外科医の技術および経験が利用される。外科医が、特定の手術処置を、膨大な神経手術経験と、既に手術を終えていてサージカルシアターでシミュレートされている特定の症例と、に比較しながら実践することにより、システムを評価するために利用される。
図4のサージカルシアターのブロック図は、生データをセグメント化する(軟組織、血管などを同定するため)プロセスを通してスキャンされた画像DICOM 41の生データからプロセスの機能および流れを記載している(図3の実際のネットワーク接続と対比させて)。その後、画像ジェネレータは、各セグメントの視覚表示を割り付けて(陰影、テクスチャなど)、この画像をDIA 44ネットワークを介してプロジェクションインターフェース46およびホスト45に接続し、外科医インターフェース(Sergeon Interface)47を通して接続された外科医の行動と、機械的性質と、ホストが含む他のモデリングと、により画像ジェネレータ43をアップデートすれば、全てが、各シミュレーションサイクルの間にホストがIG43に送信する新しい状態を反映することになる。
全てのメッセージが通過する中央サーバーを排除することにより、ST−DISは、1つのシミュレータ(コンピュータ)が重要な情報を別のシミュレータ(コンピュータ)に送信する際のタイムラグを劇的に減少させる。待機時間として知られるこのタイムラグは、過度に大きければ現実性と、それに応じ、ネットワーク化されたシミュレータの有効性を大きく低下させる可能性がある。有効な分散型シミュレーションは、新しい状態/イベントがシミュレートされたエンティティーについて起こる時間から、その状態/イベントが反応しなければならない別のエンティティーにより認知される時間までの非常に短い待機時間に依存する。トレーニングデバイスにより導入された任意の遅延は、オペレータ(例えば、外科医)に負の強化をもたらす。
通信アーキテクシャ(IEEE 1278.2)の推奨される実践法に従えば、潜在的通信構造は、実時間でシミュレートされたエンティティーの間でインタラクションを綿密に連携するために、パケット交換の待機時間が100ms以下になるよう支援しなければならない(例えば、空中戦で高性能航空機をシミュレートするか、または外科医が実践する脳の手術をシミュレートする)。この要件は、長年にわたりヒューマン・イン・ザ・ループ(Human−In−The−Loop)(HITL)フライトシミュレータデザインの基礎をなしてきたヒトの反応時間に基づいている。
ST−DISシステム内では、仮想世界が、誘発するイベントにより互いにインタラクトする一組の「エンティティー」(これまで記載された)としてモデル化される。エンティティーは、「組織エンティティー」のサブグループを作成する組織、特定の特徴(組織の機械的性質など)など、シミュレートされたシナリオにおける従属要素である。別のエンティティーは、例えば血管などであってもよい。各エンティティーは、分散的手法で(異なるシミュレータ/コンピュータなどで)動作する複数のサブエンティティーを有することができる。総括すると、それらのサブエンティティーは、一緒になって完全なエンティティーモデルを作成する。それらのエンティティーは、例えばエンティティーの視覚的特色および特徴を保持およびシミュレートする視覚サブエンティティー、またはエンティティーの機械的特色および特徴を保持およびシミュレートする機械的性質サブエンティティーである。サブエンティティーモデルコードのそれぞれが、PCなどの異なるコンピュータ(またはコンピュータ群)で動作することができ、それらは、ST−DISネットワークを通して互いに、そして他のエンティティーと通信を行う。シミュレータノードは、独立して、シミュレーションの仮想世界で1つ以上のエンティティー(またはサブエンティティー)の活動をシミュレートし、ST−DISネットワーク上のメッセージを介して他のシミュレータノードに該当する属性および行動を報告する。ネットワーク上の他のシミュレータノードは、ネットワークメッセージの「リスニング」を担い、どれがそれに該当するかを(それらがシミュレートしているエンティティーに基づき)決定し、適宜、応答する。
先に記載されたサージカルシアターアーキテクチャは、この分散型シミュレーションコンセプトに基づいており、そのため直接的なヒトの感覚により外科医(複数可)が臓器(複数可)とインタラクトする直視下手術/従来の手術のリハーサルに不可欠の没入型シナリオを作成するための必須要件である最高忠実性(premier fidelity)を送達する先駆的で独占的な能力を与える。各エンティティーは、従属要素(視覚的性質、機械的性質など)に分割され、それらの従属要素/エンティティーのシミュレーションコードのそれぞれが、別個のコンピュータで動作するため、これが、フライトシミュレーション(Flight Simulation)テクノロジーのコア能力である実時間性能(例えば、100ミリ秒未満の待機時間)を維持しながら、「実時間」拘束の下で数テラバイトの情報を取り扱うと同時にコンピュータの能力と、それによる独特で卓越した最高忠実性の生成、微細なキュー、および計算能力を最大にすることができる。
サージカルシアターは、3D MRIおよびCTの患者特有画像を分析して、特定画像の解剖学的構造および特色を表すコンピュータ化されたセグメント化モジュールを作成する視覚レンダリングエンジンを促進した。医療市場は、膨大な数の先進的DICOMビューワを有するが、取込み画像または動画と同様に見事なことは、それらは、決められた時間内での一定のスナップショットトということである。サージカルシアターは、既存の3D変換アルゴリズムを受けて、物理的および機械的性質に基づくヒト組織および構造に特有の性質を加えて、外科医が行った行動に従い患者特有のCT/MRI画像を再形成するモデルを用いて、画像の各ピクセルの機械的性質をシミュレートするモデルおよび現実的な視覚特性モデルに基づいて、「生きた」画像を作成する。この患者に基づくモデルが、仮想世界で移動を設定されると、一組の仮想手術器具(動脈瘤用クリップおよびクリップアプライヤー、インプラント、例えば関節インプラントまたは他のデバイスを含み得る)が導入されて、現実の手術での組織操作と同様のモデルを外科医に操作させる(押圧、切断、締付などを行わせる)。こうしてサージカルシアターは、ユーザに直観的経験を積ませる。
画像ジェネレータでは、例示的実施形態のサージカルシアターで、所有権付きのフライトシミュレーション画像ジェネレータ(Flight Simulation Image Generator)アルゴリズムを、可視化ツールキット(VTK)などの可視化コードと統合する。以下の区分に詳述される通り、サージカルシアターの現実的画像ジェネレータは、視覚モデルに割り付けられる付影、テクスチャおよび機械的性質などの微細なキューを送達する特色を有する。
現実的な視覚サブシステム
この区分では、衛星画像を現実的な三次元画像にレンダリングすることが可能なフライトシミュレーション画像ジェネレータの改良であるサージカルシアターの「現実的視覚」セグメント、サージカルシアターの現実的画像ジェネレータ(RIG)に変換してCT/MRI DICOM画像を取扱い、患者特有の現実的活動的なCT/MRI画像に実時間レンダリングするモデル、および外科医が直接的な人の間隔により臓器とインタラクトする直視下手術/従来の手術に不可欠なモデル、に焦点を当てる。
ヒューマンファクターエンジニアリングの分野で、没入型シミュレーションシステムの作製における視覚システムの使用は重要であり;複数の研究で、高い割合での没入が構築され、オペレータ(例えば、パイロットまたは外科医)がインタラクトする視覚システムの忠実性および現実性のレベルに寄与されることが実証されている。忠実性の高い視覚システムでリハーサルするオペレータが、忠実性の低い群よりも有意に高レベルで、信頼および認知状態の自己報告をはじめとするメモリータスクを完了したことを、複数の知見が示している。正しい「覚える」という応答と「知る」という応答との間にある有意な正の相関、および信頼性スコアが、忠実性の高い現実的シミュレーションを利用した場合に見出される。
先に概説された通り、サージカルシアターは、手術部位および組織/構造周辺の現実的な「本物そっくりの」デジタルレンディションを作成する。このデジタルレンディションは、患者特有で「本物そっくり」であるため、それは、手術部位の近似的なレンディションを作成する一般画像を使用する他のシミュレータ、または外科医/オペレータがカメラ(外科医が目の直接の感覚で生物体とインタラクトする直視下手術/従来の手術でありのままに直接見た場合の視覚的特色とは非常に異なり、カメラの仕様により画定および限定される独自の視覚特性を有する)と生物体をインターフェースする内視鏡処置、血管処置および類似の処置などの非侵襲的処置をシミュレートする他のシステムとは別のサージカルシアターを設定する。しかし、生きた生体組織の性質が複雑であることから、現実的な「本物そっくりの」レンダリングでは、克服可能な課題になる。そのように高度の現実性を生成するために、サージカルシアターは、手術部位の患者特有画像が周囲組織と共に現実的に表示され、このため多用途に操作することができる視覚システムである、リアル画像ジェネレータ(Real Image Generator)アドオン(RIG)を含む。
図5は、RIGアーキテクチャのブロック図を示す。データベースのボックス − 患者特有のCT/MRI、3Dおよびセグメント化画像に基づくメッシュモジュールの回収、画像の前処理、平滑化、マスキング、拡大縮小。グラフィッククリエータのボックス − グラフィックスカードへのインターフェース。ST−DISインターフェースのボックス − ST−DISネットワークへのインターフェース。図は、視覚システムの階層図を示す。該システムは、システムコンポーネント全てを運営および管理するエグゼクティブプログラムを含み、外科医/オペレータによる従属要素の状態、およびDISネットワーク(502)を通して読み取る従属要素全ての状態をアップデートする。オペレーティング/エグゼクティブエンジン(Operating/Executive Engine)(501)は、システムの要素全てが同じデータベース(例えば、外科医が選ぶツールの組み合わせ)で運用しているような方法で、ソフトウエアおよびハードウエア要素全ての初期化を担う。シナリオが始動したら、オペレーティング/エグゼクティブエンジン(502)は、サイクルおよびタイミングの制御を実行し、各要素を管理するタスクを実行して、システムの従属要素の全てが他の従属要素からの情報を受け取ってシステム全体に所定の時間フレーム内のシミュレーションサイクルを完了させるような方法で、計画された時間フレーム内で計算サイクルを完了する。例えば、ある行動が外科医により起こされて、DISネットワーク(502)により伝送されると、フィーチャージェネレータ(Feature Generator)(504)が、機械的性質アルゴリズムにより計算されたこの行動の関連部分/この行動の結果を読み取り、グラフィッククリエータ(Graphic Creator)(503)が、この行動により画像を変化させて(例えば、外科医により押圧された血管を移動させて)、その後、この変化の結果として画像に加えられる必要のある変化を計算し、例えば血管の配置および方向の変化により得られた陰影を作成する。このサイクルは、各サイクルがミリ秒のフレーム時間内に完了されて外科医/オペレータに実時間の現実的なキューを受け取らせるような方法で、周期的手法でオペレーティング/エグゼクティブエンジン(501)により迅速に実行され、連続して管理される。
SRPの概説:
SRPでは、手術部位および組織/構造周辺の患者特有DICOMデータを動的でインタラクティブな3Dモデルに変換することによる脳の動脈瘤クリッピング手術を計画して、物理的にリハーサルするために、神経手術用の現実的な「本物そっくりの」全没入型実習が作成される。既存の手術の準備用デバイスとは異なり、SRPは、(i)患者特有の組織の外観、感触および機械的挙動の微細なキュー、(ii)患者特有の解剖学的構造の3Dディスプレイ、(iii)3D組織モデルの実時間手術と同様の操作、そして将来的には(iv)「全没入型」実習のための外科医へのハプティックフィードバック、を提供することができる。生きた生体組織の構成および機械的性質が複雑であるため、そのような現実的で「本物そっくりの」レンディションを開発するには、以下のサブデベロップメント(sub−development)が求められる(図6):ビルトインのセグメント化関心体積(Volume of Interest)(VOI)モデルジェネレータ(Model Generator)(611)を有するDICOM画像体積リーダー(DICOM Image Volume Reader)(602)およびビューワ、(ii)3D画像ジェネレータ(IG)(604)、(iii)実時間軟組織変形エンジン(Real Time Soft Tissue Deformation Engine)(RTTDE)(612)、(iv)手術の分散型インタラクティブシミュレーション(SDIS)ネットワーク(610)、(v)シミュレーションエグゼクティブアプリケーション(Simulation Executive Application)(SimExec)ソフトウエア(601)、(vi)外科医ユーザーインターフェース(Surgeon User Interface)(SUI)(605)、および(vii)ユーザーインタープリターエンジン(User Interpreter Engine)(UIIE)(613)、(vi)ツールライブラリの心拍数、血流などの視覚用VisCHasDBデータベース。
一組の2D患者特有DICOMデータの、正確な患者特有組織属性を有するセグメント化3D VOI モデルへの変換は、DICOMボリュームビューワ(611)(サージカルシアターLLC(Surgical Theater LLC)により開発された所有権付きのソフトウエア)を用いて実施される。最初、患者特有のDICOMデータセットが、3Dデータセット(603)に適合された数学アルゴリズムを用いて画像増強ステージを受ける。この増強ステージは、異なる組織タイプ間で識別させる能力に影響を及ぼさずに、画像の平滑性を上昇させて画像ノイズを減少させる。
次に、DICOMボリュームビューワ(602)内のマルチパネルビューウィンドウを用いて、外科医が、VOI、即ち動脈瘤および周辺の欠陥および構造を含む手術部位を画定する。次のステップは、組織のセグメント化であり、即ち最初の組織特有の強度範囲が、DICOMボリュームビューワのトップビュー(Top View)ウィンドウを用いて組織に割り付けられて、高解像度、高品質でカスタマイズ可能なデータ構造を有する3D VOIモデル、および組織特有のセグメント化が得られる。3D VOIモデルは、患者特有のレポジトリに保存され、以下のような操作サイクルの間にアクセスされる:(I)3D画像ジェネレータ(IG)(604)がグラフィックインターフェースを通してモデルの高忠実性視覚表示を外科医に提示する:(II)外科医は、サージカルユーザーインターフェース(SUI)(605)の内部の現実的な手術器具を用いてモデルを操作する;(III)ユーザーインターフェースインタープリターエンジン(UIIE)が、外科医の操作を一組の数学的値に翻訳し、他の患者特有入力(例えば、心拍数、血流など)と共に、実時間組織変形エンジン(RTTDE)(612)によりモデルに適用される。モデルが変化すると、IG(604)が、それらの変化を外科医に実時間で反映させ、こうして1つのシミュレーションサイクルが完了する。なめらかで連続した「本物そっくりの」SRPフローは、IGにより1秒あたり60回以上、およびRTTDE(612)により1秒あたり20回の反復サイクルにより実現される。
SDISに基づくアーキテクチャ
SDISに基づくアーキテクチャは、フライトシミュレーションテクノロジーのコア能力である実時間性能を維持しながら、厳密な「実時間」拘束の下で多量の情報を取り扱うと同時に、最高忠実性、微細なキューおよび計算能力についての独特の卓越した可能性を促す。SDISネットワークの特色の1つが、中央サーバーまたはプロセッサが全く存在せず、各シミュレーションノード(ノードは、画像ジェネレータ、ユーザーインターフェース、機械的モデリングコンピュータなどであってもよい)が、共通の仮想環境、つまり血管、組織およびシミュレーションノードのそれぞれで受け留められ維持される他のモデルの独自コピーを維持し;そのようなモデルのそれぞれが別個の「エンティティー」として取り扱われること、である。このアーキテクチャは、厳密な実時間拘束の下で同調的手法で複数のPCを動作させて、シミュレートされたシーンの最高忠実性を送達するSRPの先駆的で独特の能力を実現することができる。これは、外科医が直接のヒトの感覚により臓器とインタラクトする直視下手術/従来の手術のリハーサルを可能にする没入型シナリオを作成する。
手術器具および他のエンティティーが外科医により選択されると、それらは仮想手術シーンに統合されて、現実的な視覚的特色と、選択された物品の各1つに適用される機械的性質および操作的性質と、を含むシミュレートされたシナリオの統合された要素に変わり、例えばはさみは、現実の機械的性質を有し、現実のはさみが切断するように切断し、動脈瘤用クリップは、血管に配置されると、血流を遮断する。
SRPシステムは、構成、シミュレートされるのに必要な体積、および特有の適用例に応じて、以下のユニット、またはユニットのサブパートの組み合わせにより構成される。これらは、図4に示すサージカルシアターシステムのものと類似しているが、この区分で記載される通り改良されている。従属要素は、複数のPC内の複数の分離された計算プロセッサユニットで実行することができる(図7)。
外科医が働くワークステーションは、ユーザーインターフェース101である。画像ジェネレータ102は、サージカルシアター内の類似デバイスと同様に動作する。シミュレーションエグゼクティブマネージャ(Simulation Executive Manager)103 − システムの実時間動作を同調して、モデリングプログラムを実行する。STDEワークステーション(STDE Workstation)104 − このPCは、STDE(軟組織変形エンジン)を取り扱う。アーカイブサーバー105 − このステーションは、関連のファイルおよびデータの全てを受け取り、将来のデブリーフィングおよびデータ回収のための処置を記録することができ、このPCは、ネットワークドメインコントローラとしても働く。IOS(インストラクターオペレーションステーション(Instructor Operation Station))106は、トレーニングセッションをモニタリングおよび制御し、インストラクターにイベントを「注入」させるためのものである。それに司会者としても働き、トレーニングセッション全体を活性化する。1つ以上のユーザーインターフェース107が、以下に記載される通り、ハンズフリー制御のため、そして/または現実の手術器具を追跡するために、提供される。
これらの計算プロセッサユニットのそれぞれが、SDISを介して、ネットワークをネットワークスイッチ(図示しない)に接続する。
サージカルインターフェース
先に、そして関連出願において議論された通り、アップデートされたサージカルシアターは、複数の形式(例えば、デジタル・イメージング・アンド・コミュニケーション・イン・メディスン−DICOM)のシーンファイル(例えば、医用スキャンファイル)からインタラクティブ画像/シーンへの画像のハイブリッドレンダリング(体積および表面)のための方法を提供する。アウトプット画像/シーンは、二次元または三次元にすることができ、幾何学的配置、ビューポイント、テクスチャ、照光、陰影、および濃淡の情報、ならびに仮想シーンの説明の他の要素を含む。図8は、本明細書の以下に議論される具体的詳細と共にアップレートされた特色を示すフローチャートを示す。
インタラクティブ画像/シーンは、体積測定用のレンダリング要素と、表面レンダリング要素の両方の要素から構成される。更に各要素、体積または表面は、体積(図9に示された画像の112参照)および/または表面の要素(図9の111参照)である1つ以上の要素とインタラクトする。
要素間のインタラクションとしては、非限定的に、物理的インタラクション、例えば圧力、要素の材料(弾性、粘着性など)などの物理的条件およびコリジョン角などのコリジョン条件および要素の方向により要素の実際の物理的移動を複製する要素の移動および/または再形成と共に生じる要素間のインタラクションを表すために実行されるコリジョンモデルなどの物理的インタラクションが挙げられる。
レンダリング処理の方程式は、照明装置の影および付影現象の全てを説明しており、視覚要素全てを組み入れた最終的なアウトプット流れを生成する。
サージカルシアターのレンダリングソフトウエアは、アウトプット画像/シーン/モデルの現実的な外観を維持しながら要素間の物理的インタラクションを反映し、同時に実時間でレンダリング方程式を解く。
例えば図9において、クリップ112は、血管(体積レンダリング要素)を圧迫して、血管111の再形成をもたらす。ユーザーは、以下に記載されるマウスコントローラ、タッチスクリーン、3Dもしくは6Dコントローラ、またはハンズフリーコントローラのいずれかによりインタラクションを制御する。
ハンズフリーコントローラまたはタッチスクリーン:ユーザーの身体要素を実時間で取り込み、認識するカメラを基にしたデバイスを統合することにより(MicrosoftによるKinectシステム(例えば、www.xbox.com/en−US/kinect/kinect−effect参照)と類似のテクノロジー、および別の実施例であるLeap MotionによるLeapテクノロジー(live.leapmotion.com/about.html参照)を利用し得る手法で、両者とも参照により本明細書に組み入れられる。図7の項目107参照)、またはタッチスクリーンもしくは任意の他のインターフェースにより、ユーザーは、所定の方法により手を振り(waiving)、画像/シーンを制御することにより、画像/シーンとインターフェースおよびインタラクトすることができる(図10Aおよび10B)。ユーザーは、中でも、以下の行動を行うことができる:
画像/シーンを回転、運動および移動させる(図10A〜図10Bに示された手の動きと、画像121および122のそれぞれ移動および再配向を参照)
ズームインおよびズームアウトする
ライブラリから要素を選択して、それを画像/シーンに追加する
画像/シーン内の要素をドラッグおよびドロップする
1つ以上の要素をコマンドして、1つ以上の他の要素とインタラクトする、例えば動脈瘤用クリップを配置させて、それを動脈瘤上で閉じさせるようコマンドし、その後、「閉じる」をコマンドして、クリップ(表面要素)を動脈瘤(体積要素)とインタラクトさせて、動脈瘤の物理的圧搾およびクリップの運動(開いたブレードから閉じたブレードへ)を行う
要素を選択し、それを画像/シーンから取り出す
画像/シーンが複数のスライスで積層/構築されている場合(CT/MRIなど)、スライス間でスクロールする
シーンの対象物を選択し、その後、それを所望の3D位置にドラッグすることにより、対象物を再配置する。これにより、非限定的にツールと組織のインタラクション(図11においてドラッグされている具132の場合)またはシーンの測定を実施すること(測定マーカ131をドラッグする場合、図11参照)が可能になる。
「ペイント付組織」
概説:スキャナー(MRI、CTなど)から作成された医用画像は、スキャンされた解剖学的構造に関する物理的、機能的構造または他の情報を提供する。様々な理由、中でもスキャナーの制約により、解剖学的構造で、得られた画像において明瞭に見ることができるのは、全てではない。この現象/限定についての2つの例は、以下の通りである:
1−MRでは、スキャンがいつも可視であるとは限らない。具体的例は、微小血管圧迫の処置に対する脳スキャンの画像に見出される場合があり、そこでは脳血管は神経に接触していて、神経への物理的圧力を生じており、それらのスキャンでは、血管がスキャンされた画像で可視であることが多いが、神経は観察できない。
2−MR、CT、または他のスキャンでは、解剖学的構造の一部が可視の場合があるが、様々な理由、とりわけスキャナーの制約により、解剖学的構造の一部しか可視にならない。一例は、CTまたはMRIスキャンの画像であり、血管構造の一部が可視であり、他の部分が可視でない場合がある。この例では、血管の画像は、歪曲し、そして/または完全なものにならない。
「組織ペインティング」−開発されたアルゴリズムおよびソフトウエアツールは、任意の幾何学的形状またはフリーハンド描写の形状(例えば、線、円、病院、ボールなど)を二次元または三次元で描写するためのインターフェースをユーザーに提供する。得られたペイント用インターフェースは、ユーザーに、線または曲面の壁、および三次元形状の壁の太さを決定させる。ユーザーは、形状、色、透明性などの視覚的特色を決定することもできる。新たに作成された形状を、スキャンの一部にさせて(マジック組織(Magic Tissue))スキャン画像と統合させるような方法で、新しい形状を医用画像内に作成させる。例えばユーザーは、神経を表す線を引くことができる。この神経は、ユーザーが選択した長さ、形状、色、透明性、配置および方向で作成することができる。ユーザーは、スキャン画像内で観察された既存の解剖学的構造の付近の既存の解剖学的構造にそれを「連結して」、該形状を配置させる。ユーザーは、新たに描写された形状を特有の組織タイプにも割り付ける。この新しい形状が作成されたら、レンダリングして、三次元解剖学的モデルに加える。新しい形状をレンダリングして、体積のあるモデルとして、またはマッシュ(mash)/多角形モデルとして再構成させることができる。図14Aおよび14Bは、それぞれ181、182の組織ペインティングの例を示す。
「マジック組織ワンド(Magic Tissue Wand)」−様々な理由、とりわけスキャナーの制約により、解剖学的構造で得られた画像内で可視になるのは、全てではない。多くの場合、解剖学的構造(例えば、血管)が、画像に一部しか現れず、構造全体が可視化されるわけではなく;解剖学的構造の映っていない部分が生じ、解剖学的構造が、全体として連続したもの/完全なものにならない。解剖学的構造を完成させて画像を再構成し、より完全な解剖学的構造を作成するアルゴリズムおよびソフトウエアツールが、提供される。再構成アルゴリズムは、解剖学的構造の映っていない部分を完成させるために、解剖学的な幾何学計算、およびスキャン画像上で実施される計算を利用して、スキャン画像内の既存の「暗示」、「キュー」および他のサインに基づいて、解剖学的構造を分析および再生成する。これは、ハウンスフィールド単位(HU)で類似のボクセルの幾何分布および球面分布、ならびに解剖学的構造の映っていない部分を分析および再構成する分布のベクトルの作成を含む(HUのスケールは、元の線減衰係数測定値を、標準の圧力および温度(STP)の蒸留水の放射線濃度を0ハウンスフィールド単位(HU)と定義して、例えばSTPでの空気の放射線濃度を−1000HUと定義した場合の測定値に線形変換したものである)。
マジック組織ワンドアルゴリズムは、補足的方法で球面分布ボクセルに結合しており、即ち、ボクセルは、一緒に加えることで解剖学的構造がより完全になるならば(例えば、全体的な/完全な解剖学的構造に連続し、結合するならば。図12B5の項目151、および図13Bの項目161を参照)、元の不完全な解剖学的構造に加えられる(図12Bの項目152、および図13Aの項目162を参照)。例えば組織ワンドアルゴリズムが適用された後、画像の特定部分の可視でない血管は、完全なものになり、より連続した解剖学的構造として現れる(例えば、図13Bの項目161を参照)。
体積および/またはマッシュ/多角形の再構成−組織ペイントおよびマジック組織ワンドアルゴリズムの両方で作成されて、スキャン画像と統合された解剖学的構造は、任意の実践的判断のために、画像の統合された部分となる。例えば、元々、部分的で完成された解剖学的構造である血管は、マジック組織ペイントおよび組織ワンドアルゴリズムを適用した後に、本来のスキャン画像に新たに作成された構造を合わせた構造を有する完全な解剖学的構造になる。更に制御(チェックボックス)により、新たに作成された構造を選択し、オン(新たに作成された構造を示す)とオフ(新たに作成された構造を隠す)とで切り替えることが可能になる。加えて、体積および/またはマッシュ/多角形のレンダリング/再構成において、新たに作成された構造をレンダリングすることを選択するオプションが設けられている。
標識された領域(Marked Region)−開発されたアルゴリズムおよびソフトウエアツールは、任意の幾何学的形状またはフリーハンド描写の形状(例えば、線、円、病院、ボールなど)を二次元または三次元で描写するためのインターフェースをユーザーに提供する。前記幾何学的形状(二次元または三次元)で包含/封入/取得された領域は、「標識された領域」と定義される。そのためユーザーは、任意の視覚的特色および任意の機械的性質を定義して、「標識された領域」に割り付ける能力を有する。
視覚的特色;色/透明性/濃淡−新たに作成された構造、またはマジック組織ペイントと組織ワンドアルゴリズムと標識領域のいずれかを用いて、利用可能な色のライブラリから選択され得る色と、1〜100の任意のレベルで選択され得る透明性と、の任意の選択された視覚的特色で表すことができる。更に、仮想光源の特徴を調整することにより、新たに作成された構造の濃淡および付影の特徴を改良することができる。仮想光源の特徴としては、空間における球面配置、光の色、光の強さ、縦横比、仮想光源の幾何学的形状などが挙げられる。
機械的性質−新たに作成された構造、またはマジック組織ペイントと組織ワンドアルゴリズムと標識領域のいずれかを用いて、機械的性質の特徴で割り付けることができる。即ち、特有の組織の機械的モデルを、新たに作成された構造に結び付けることができ、それゆえ、新たに作成された構造は、そのような機械的性質を本来備えており、それらの機械的性質に従って動的および静的に反応する。例えば、「軟組織の」機械的性質は、新たに作成された構造に割り付けられると、それが軟組織に従って反応する。例えばそれが仮想手術機器により押圧される場合、加えられた力および組織の機械的モデルに従って圧搾および再形成する。更に新たに作成された構造と他の新たに作成された構造とのインタラクション、本来通りスキャニングされた構造と新たに作成された構造とのインタラクション、および新たに作成された構造と本来通りスキャニングされた構造とのインタラクションは、継ぎ目がない。任意の解剖学的構造の機械的性質係数(剛性、弾性など)は、テイラーメイドの機械的挙動を作成するように、ユーザーが調整することができる。
実時間追跡およびフィードバック(Real Time Tracking and Feedback)−手術の際に実際の手術機器を追跡するシステム。追跡システムは、手術機器の配置、ならびに実際の解剖学的構造(例えば、患者の頭部の具体的箇所)の配向および配置に対する空間的整合性を転送する。機器の配置および配向はその後、手術のシミュレーティングシステムに送信される。フィードバックは、患者特有のシミュレーション、ならびに機器の配置および配向に基づき、外科医に提供される。そのようなフィードバックの一例として、システムが外科医が解剖している組織のタイプについて外科医にフィードバックを行い、腫瘍の代わりに健常な脳組織を解剖している場合には外科医に警告する、が考えられる。 追加の例として、外科医が実際の解剖学的構造に器具(例えば、実際の患者の動脈瘤に適用された動脈瘤用クリップ)を適用した後、システムは、追跡に基づいた実際の解剖学的構造として堂々と(princely)配向されたシミュレート画像/モデルを外科医に回転させて、留置されたインプラントの配置および効率を観察および評価することができる
実際の機器のこの追跡およびフィードバックは、機器の配置および運動、ならびに患者の特色を追跡するために、ビデオシステムを用いるなど複数の方法で遂行することができる。あるいは(またはビデオ追跡に加えて)、手術機器は、例えばGPS、加速度計、磁気検出器、または他の配置および運動検出デバイスおよび方法を用いることなどにより、追跡するように改良されてもよい。そのような改良された機器は、例えばワイファイ(WiFi)、ブルートゥース、MICS、または他の通信方法を用いて、サージカルシアターと通信してもよい。例えば図7のインターフェース107を、この特色のために用いることができる。
本発明の多くの例示的実施形態は、先に記載された特色の様々な実施形態を通して提供することができる。本発明を、具体的な実施例および実施形態を用いて本明細書の先に記載したが、本発明の意図する範囲を必ずしも逸脱せずに、様々な代替法が用いられ得ること、ならびに均等物が本明細書に記載された要素および/またはステップの代わりに用いられ得ることは、当業者に理解されよう。改良は、本発明の意図する範囲を逸脱せずに、本発明を特定の状況または特定の要件に適合させるために必須となり得る。本発明が本明細書に記載された特定の実施および実施形態に限定されず、特許請求の範囲が、それにより開示された、または開示されていない、または網羅された、全ての新規で非明白な実施形態を網羅する最も広範の合理的解釈を与えられるものとする。

Claims (28)

  1. ディスプレイと;
    前記ディスプレイに組織を表示して、対応する実際の生体組織を現実的に表現するために、前記組織の動的画像を前記ディスプレイへの表示用に作成する画像ジェネレータと;
    前記ディスプレイへの表示のためにユーザー入力によりもたらされる操作を通して組織の前記動的画像と動的にインタラクトするユーザーツールのツールモデルを作成するユーザーツールジェネレータと;
    前記実際の生体組織内には存在するが最初に表示された組織の動的画像には存在しないため、表示された組織の動的画像を、次に追加または改良された特色と共に前記ディスプレイに表示する、解剖学的構造を補正するために前記組織の特色を追加または改良することにより前記ディスプレイに表示された組織の前記動的画像を調節するツールを提供するユーザーインターフェースと、
    を含む、医療処置を実施するためのモデリングシステムであって、ここで、
    前記ツールモデルが、前記ディスプレイに表示され、医療処置を現実的にシミュレートするために組織の前記動的画像と動的にインタラクトする、モデリングシステム。
  2. 前記ユーザーインターフェースが、タッチスクリーンディスプレイを含む、請求項1に記載のモデリングシステム。
  3. 組織の前記動的画像を調節する前記ツールが、組織の前記動的画像上で任意の幾何学的形状を描写する能力を提供するツールを含む、前記請求項のいずれかに記載のモデリングシステム。
  4. 組織の前記動的画像を調節する前記ツールが、組織の前記動的画像の不完全な解剖学的構造を完全にする能力を提供するツールを含む、前記請求項のいずれかに記載のモデリングシステム。
  5. 組織の前記動的画像を調節する前記ツールが、組織の前記動的画像の一部のテクスチャ、照光、陰影および/または濃淡を改良する能力を提供する、前記請求項のいずれかに記載のモデリングシステム。
  6. 組織の前記動的画像が、解剖学的構造の画像を含み、前記ユーザーツールが、前記解剖学的構造と動的にインタラクトするための機器を含む、前記請求項のいずれかに記載のモデリングシステム。
  7. 異なる移植片の複数のモデルのライブラリを保存するデータベースと;
    組織の前記画像と動的にインタラクトする前記ユーザーツールモデルを用いて、使用のために前記複数のモデルから一つのインプラントモデルを選択するためのユーザーインターフェースと、
    を更に含む、前記請求項のいずれかに記載のモデリングシステム。
  8. 組織の前記動的画像を調節する前記ツールが、組織の前記動的画像の1つ以上の部分とインタラクトするツールをコマンドする能力を提供する前記ツールを含む、前記請求項のいずれかに記載のモデリングシステム。
  9. 組織の前記動的画像を調節する前記ツールが、前記表示された画像から除去される、ツールのモデルの要素および/または組織の前記動的画像を選択する能力を提供する前記ツールを含む、前記請求項のいずれかに記載のモデリングシステム。
  10. 組織の前記動的画像を調節する前記ツールが、対象を選択して、前記対象を前記画像の表示に望ましい位置にドラッグすることにより、前記表示された画像内の前記対象を再配置する能力を提供するツールを含む、前記請求項のいずれかに記載のモデリングシステム。
  11. 組織の前記動的画像を調節する前記ツールが、前記動的画像内の解剖学的構造を増強および統合する能力を提供するツールを含む、前記請求項のいずれかに記載のモデリングシステム。
  12. 組織の前記動的画像を調節する前記ツールが、組織の前記動的画像に付加するために任意の幾何学的形状を描写する能力を提供するツールを含む、前記請求項のいずれかに記載のモデリングシステム。
  13. 前記ユーザーによるハンズフリー操作のためのユーザーインプットを提供するカメラを更に含む、前記請求項のいずれかに記載のモデリングシステム。
  14. 1つ以上のコンピュータと;
    ユーザーに画像を表示するディスプレイと;
    特定患者の組織の物理的特徴を保存するデータベースと;
    前記特定患者の組織の動的現実的画像を前記ディスプレイへの表示用に作成するためのソフトウエアを実行する前記コンピュータを1つ以上用いて、前記特定患者の組織を示す付影およびテクスチャなどの外観を示す前記組織の現実的画像を提供する画像ジェネレータと;
    医療処置で用いられる実際のユーザーツールの複数のユーザーツールモデルを提供するユーザーツールライブラリを含むデータベースと;
    前記ユーザーツールモデルの1つを選択するために前記ユーザーからの入力を受け取るユーザーインターフェースと;
    前記ディスプレイに表示するための前記選択されたユーザーツールモデルの現実的なツール画像を作成するためのソフトウエアを実行する前記コンピュータを1つ以上用いるユーザーツールジェネレータと;
    前記ユーザーに実時間で前記ディスプレイに表示するために、シミュレートされた医療処置の間に組織の前記現実的画像と動的にインタラクトするための前記選択されたユーザーツール画像を動的に操作するための入力を前記ユーザーから受け取るためのユーザーインターフェースと;
    前記特定患者の実際の生体組織内には存在するが最初に表示された組織の動的画像には存在しないため、表示された組織の前記動的画像を、次に追加または改良された特色と共に前記ディスプレイに表示する、表示用に前記組織の特色を前記追加または改良して解剖学的構造を補正することにより前記ディスプレイに表示された組織の前記動的画像を調節するツールを提供するユーザーインターフェースと、
    を含む、シミュレートされた医療処置をユーザーに実施させるモデリングシステムであって、ここで
    前記ユーザーツール画像と前記組織の画像との前記動的インタラクションが、前記ディスプレイに表示されて、前記保存された物理的特徴に基づく現実的な機械的インタラクションを呈する現実的な視覚的特色を提供する、モデリングシステム。
  15. 前記ユーザーインターフェースが、タッチスクリーンディスプレイを含む、請求項14に記載のモデリングシステム。
  16. 組織の前記動的画像を調節する前記ツールが、組織の前記動的画像上で任意の幾何学的形状を描写する能力を提供するツールを含む、請求項14に記載のモデリングシステム。
  17. 組織の前記動的画像を調節する前記ツールが、組織の前記動的画像の不完全な解剖学的構造を完全にする能力を提供するツールを含む、請求項14〜16のいずれかに記載のモデリングシステム。
  18. 組織の前記動的画像を調節する前記ツールが、組織の前記動的画像の一部のテクスチャ、照光、陰影および/または濃淡を改良する能力を提供するツールを含む、請求項14〜17のいずれかに記載のモデリングシステム。
  19. 前記特定患者の前記医療画像が、動脈瘤の画像を含み、前記動的画像が、前記動脈瘤の画像を含み、更に前記ユーザーツールが、組織の画像と動的にインタラクトする動脈瘤用クリップモデルを適用するための動脈瘤用クリップアプライヤーを含む、請求項14〜18のいずれかに記載のモデリングシステム。
  20. 組織の前記動的画像を調節する前記ツールが、組織の前記動的画像の1つ以上の部分とインタラクトするツールをコマンドする能力を提供する前記ツールを含む、請求項14〜19のいずれかに記載のモデリングシステム。
  21. 組織の前記動的画像を調節する前記ツールが、前記表示された画像から除去される、ツールモデルの要素および/または組織の前記動的画像を選択する能力を提供するツールを含む、請求項14〜20のいずれかに記載のモデリングシステム。
  22. 組織の前記動的画像を調節する前記ツールが、対象を選択して、前記対象を前記画像の表示に望ましい位置にドラッグすることにより、前記表示された画像内の前記対象を再配置する能力を提供するツールを含む、請求項14〜21のいずれかに記載のモデリングシステム。
  23. 少なくとも1つのユーザーインターフェースが、前記ユーザーによるハンズフリー操作のためのカメラを含む、請求項14〜22のいずれかに記載のモデリングシステム。
  24. 特定患者の医用画像から取得または誘導された患者組織画像情報を保存するデータベースと;
    前記組織の標準的特徴を保存するデータベースと;
    ディスプレイと;
    前記患者画像情報を利用し、組織の前記動的画像を前記ディスプレイに表示して前記特定患者の対応する実際の組織を現実的に表現する、前記特定患者の組織の動的画像を前記ディスプレイへの表示用に作成する画像ジェネレータと;
    前記ディスプレイへの表示のためにユーザーによりもたらされる操作を通して組織の前記動的画像と動的にインタラクトするユーザーツールのツールモデルを作成するユーザーツールジェネレータと;
    前記特定患者の実際の生体組織内には存在するが最初に表示された組織の動的画像には存在しないため、表示された組織の前記動的画像を、次に追加または改良された特色と共に前記ディスプレイに表示する、表示用に前記組織の特色を前記追加または改良して解剖学的構造を補正することにより前記ディスプレイに表示された組織の前記動的画像を調節するツールを提供するユーザーインターフェースと、
    を含む、手術のシミュレーションを実施するモデリングシステムであって、ここで
    前記ツールモデルが、医療処置を現実的にシミュレートするために、前記ディスプレイに表示されて、組織の前記動的画像と動的にインタラクトする、モデリングシステム。
  25. 1つ以上のコンピュータと;
    ユーザーに画像を表示するディスプレイと;
    特定患者の組織の特徴を保存するデータベースと;
    前記特定患者の保存された特徴に基づく前記特定患者の組織の動的現実的画像を前記ディスプレイへの表示用に作成するためのソフトウエアを実行する前記コンピュータを1つ以上用いて、前記特定患者の組織を示す付影およびテクスチャなどの外観を示す前記組織の現実的画像を提供する画像ジェネレータと;
    医療処置で用いられる実際のユーザーツールの複数のユーザーツールモデルを提供するユーザーツールライブラリを保存するデータベースと;
    前記ユーザーツールモデルの1つを選択するために前記ユーザーからの入力を受け取るユーザーインターフェースと;
    前記選択されたユーザーツールモデルの現実的なツール画像を前記ディスプレイへの表示用に作成するソフトウエアを実行するために前記コンピュータを1つ以上用いるユーザーツールジェネレータと;
    前記ユーザーに実時間で前記ディスプレイに表示するために、シミュレートされた医療処置の間に前記組織の現実的画像と動的にインタラクトするための前記選択されたユーザーツール画像および/または前記組織の画像を動的に操作するためのハンズフリー入力を前記ユーザーから受け取るためのカメラを含むユーザーインターフェースと、
    を含む、シミュレートされた医療処置をユーザーに実施させるモデリングシステムであって、ここで
    前記ユーザーツール画像と前記組織の画像との動的インタラクションが、現実的な機械的インタラクションを呈する現実的な視覚的特色のある画像を利用して前記ディスプレイに表示される、モデリングシステム。
  26. 前記特定患者の前記医用画像が、解剖学的構造の画像を含み、前記動的画像が、前記解剖学的構造の画像を含み、更に前記ユーザーツールが、前記解剖学的構造と動的にインタラクトするための機器を含む、請求項25に記載のモデリングシステム。
  27. コンピュータシステムを準備するステップと;
    前記コンピュータデバイスに接続されたディスプレイを準備するステップと;
    前記コンピュータシステムに保存する特定患者の生体組織についての患者画像情報を得るステップと;
    前記コンピュータシステムを利用して、前記特定患者の生体組織の動的画像を前記ディスプレイへの表示用に前記患者画像情報を用いて作成することにより、組織の動的画像を前記ディスプレイに表示して、前記特定患者の対応する実際の組織を現実的に表現するステップと;
    前記コンピュータシステムを利用して、前記ディスプレイに表示するためにユーザーによる操作入力を介して組織の前記動的画像と動的にインタラクトするユーザーツールモデルを作成するステップと;
    前記コンピュータシステムへのユーザー入力を利用して、前記特定患者の実際の生体組織内には存在するが最初に表示された組織の動的画像には存在しないため、表示された組織の前記動的画像を、次に追加または改良された特色と共に前記ディスプレイに表示する、表示用に前記組織の特色を前記追加または改良して解剖学的構造を補正することにより前記ディスプレイに表示された組織の前記動的画像を調節するステップと;
    前記コンピュータシステムを利用して、組織の前記動的画像と前記ユーザーの入力による前記ユーザーツールモデルとのインタラクションを示す医療処置の現実的なシミュレーションを前記ディスプレイへの表示用に作成するステップと、
    を含む、手術のシミュレーションを実施する方法。
  28. 1つ以上のコンピュータと;
    ユーザーに画像を表示するディスプレイと;
    特定患者の組織の動的現実的画像を前記ディスプレイへの表示用に作成するためのソフトウエアを実行する前記コンピュータを1つ以上用いて、実際の組織を示す付影およびテクスチャなどの外観を示す前記組織の現実的画像を提供する画像ジェネレータと;
    医療処置で用いられる実際のユーザーツールの複数のユーザーツールモデルを提供するユーザーツールライブラリを保存するデータベースと;
    前記ユーザーツールモデルの1つを選択するために前記ユーザーからの入力を受け取るユーザーインターフェースと;
    前記選択されたユーザーツールモデルの現実的なツール画像を前記ディスプレイへの表示用に作成するためのソフトウエアを実行する前記コンピュータを1つ以上用いるユーザーツールジェネレータと;
    前記特定の患者を伴う、前記ユーザーにより使用されている実際の手術用機器の運動を追跡することができ、それにより前記運動を利用して、シミュレートされた医療処置の間に、前記ユーザーに実時間で前記ディスプレイに表示するために、前記選択されたユーザーツール画像および/または前記組織の画像を前記組織の現実的画像と動的にインタラクトするように動的に操作するユーザーインターフェースと、
    を含む、シミュレートされた医療処置をユーザーに実施させるモデリングシステム。
JP2015514221A 2012-05-25 2013-05-24 ハイブリッド画像/ハンズフリー制御によるシーンレンダラー Expired - Fee Related JP6343606B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261651775P 2012-05-25 2012-05-25
US61/651,775 2012-05-25
PCT/US2013/042654 WO2013177520A1 (en) 2012-05-25 2013-05-24 Hybrid image/scene renderer with hands free control

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018097197A Division JP6677758B2 (ja) 2012-05-25 2018-05-21 ハイブリッド画像/ハンズフリー制御によるシーンレンダラー

Publications (2)

Publication Number Publication Date
JP2015527090A true JP2015527090A (ja) 2015-09-17
JP6343606B2 JP6343606B2 (ja) 2018-06-13

Family

ID=49624378

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015514221A Expired - Fee Related JP6343606B2 (ja) 2012-05-25 2013-05-24 ハイブリッド画像/ハンズフリー制御によるシーンレンダラー
JP2018097197A Expired - Fee Related JP6677758B2 (ja) 2012-05-25 2018-05-21 ハイブリッド画像/ハンズフリー制御によるシーンレンダラー

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018097197A Expired - Fee Related JP6677758B2 (ja) 2012-05-25 2018-05-21 ハイブリッド画像/ハンズフリー制御によるシーンレンダラー

Country Status (7)

Country Link
US (2) US10056012B2 (ja)
EP (1) EP2856296B1 (ja)
JP (2) JP6343606B2 (ja)
CN (2) CN104271066B (ja)
ES (1) ES2872298T3 (ja)
IN (1) IN2014DN08500A (ja)
WO (1) WO2013177520A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017073702A1 (ja) * 2015-10-29 2017-05-04 キヤノン株式会社 医用画像処理装置、医用画像処理装置に搭載可能なプログラム、及び医用画像処理方法
JP2017080192A (ja) * 2015-10-29 2017-05-18 キヤノンマーケティングジャパン株式会社 医用画像処理装置、医用画像処理装置に搭載可能なプログラム、及び医用画像処理方法
JP2017080193A (ja) * 2015-10-29 2017-05-18 キヤノンマーケティングジャパン株式会社 医用画像処理装置、医用画像処理装置に搭載可能なプログラム、及び医用画像処理方法
JP2017084191A (ja) * 2015-10-29 2017-05-18 キヤノンマーケティングジャパン株式会社 医用画像処理装置、医用画像処理装置に搭載可能なプログラム、及び医用画像処理方法
JP2018089310A (ja) * 2016-12-07 2018-06-14 株式会社デンソー 情報統合装置

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9526586B2 (en) * 2013-08-12 2016-12-27 Z Microsystems, Inc. Software tools platform for medical environments
US10758314B2 (en) * 2011-12-12 2020-09-01 Jack Wade Enhanced video enabled software tools for medical environments
US8311791B1 (en) 2009-10-19 2012-11-13 Surgical Theater LLC Method and system for simulating surgical procedures
EP2691946A4 (en) 2011-03-30 2015-09-23 Mordechai Avisar METHOD AND SYSTEM FOR SIMULATING SURGICAL PROCEDURES
US10350431B2 (en) 2011-04-28 2019-07-16 Gt Medical Technologies, Inc. Customizable radioactive carriers and loading system
IN2014DN08500A (ja) * 2012-05-25 2015-05-15 Surgical Theater LLC
US9492683B2 (en) 2013-03-15 2016-11-15 Gammatile Llc Dosimetrically customizable brachytherapy carriers and methods thereof in the treatment of tumors
US20150007031A1 (en) * 2013-06-26 2015-01-01 Lucid Global, Llc. Medical Environment Simulation and Presentation System
US20150082226A1 (en) * 2013-09-18 2015-03-19 Sharp Vision Software Llc Systems and Methods for Providing Software Simulation of Human Anatomy and Endoscopic Guided Procedures
WO2015154069A1 (en) * 2014-04-04 2015-10-08 Surgical Theater LLC Dynamic and interactive navigation in a surgical environment
US9821174B1 (en) 2015-02-06 2017-11-21 Gammatile Llc Radioactive implant planning system and placement guide system
JP2018516718A (ja) 2015-03-01 2018-06-28 アリス エムディー, インコーポレイテッドARIS MD, Inc. 拡張リアリティの形態学的診断法
US9403033B1 (en) 2015-04-24 2016-08-02 Gammatile Llc Apparatus and method for loading radioactive seeds into carriers
WO2016179420A1 (en) 2015-05-06 2016-11-10 Gammatile Llc Radiation shielding
CN107613897B (zh) 2015-10-14 2021-12-17 外科手术室公司 扩增实境的外科导航
EP3424021A4 (en) 2016-03-01 2020-03-25 Aris MD, Inc. SYSTEMS AND METHODS FOR MAKING ENVIRONMENTS IMMERSIVE
RU2618843C1 (ru) * 2016-03-02 2017-05-11 Иннокентий Константинович Алайцев Способ симуляции взаимодействий с твёрдыми телами и их обработки бормашиной с имитацией тактильной обратной связи, реализуемый на эвм
EP3179450B1 (de) * 2016-04-12 2020-09-09 Siemens Healthcare GmbH Verfahren zur multisensorischen darstellung eines objekts und darstellungssystem
US10607735B2 (en) 2016-09-06 2020-03-31 International Business Machines Corporation Hybrid rendering system for medical imaging applications
CA3041344A1 (en) 2016-10-21 2018-04-26 Synaptive Medical (Barbados) Inc. Mixed reality training system
US10888710B1 (en) 2016-11-29 2021-01-12 Gt Medical Technologies, Inc. Transparent loading apparatus
US10810907B2 (en) 2016-12-19 2020-10-20 National Board Of Medical Examiners Medical training and performance assessment instruments, methods, and systems
WO2019045144A1 (ko) 2017-08-31 2019-03-07 (주)레벨소프트 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법
US10565802B2 (en) * 2017-08-31 2020-02-18 Disney Enterprises, Inc. Collaborative multi-modal mixed-reality system and methods leveraging reconfigurable tangible user interfaces for the production of immersive, cinematic, and interactive content
US10861236B2 (en) 2017-09-08 2020-12-08 Surgical Theater, Inc. Dual mode augmented reality surgical system and method
JP7109936B2 (ja) * 2018-02-28 2022-08-01 ソニー・オリンパスメディカルソリューションズ株式会社 医療用制御装置、および制御方法
US10981018B2 (en) 2019-02-14 2021-04-20 Gt Medical Technologies, Inc. Radioactive seed loading apparatus
EP3664036B1 (de) * 2019-04-30 2022-08-17 Siemens Healthcare GmbH Verfahren und system zur berechnung einer ausgabe von einem durch einen tomographen bereitgestellten scrollbaren bildstapel
US11830621B2 (en) * 2020-05-29 2023-11-28 Dartmouth-Hitchcock Clinic System and method for rapid and accurate histologic analysis of tumor margins using machine learning
CN112451070A (zh) * 2020-10-15 2021-03-09 中国医学科学院北京协和医院 一种基于HoloLens的游离腓骨瓣重建颌骨系统
JP2024517160A (ja) * 2021-04-27 2024-04-19 シラグ・ゲーエムベーハー・インターナショナル 手術用ステープラ再装填シミュレーション
CN114267220B (zh) * 2021-12-27 2024-01-26 林华 一种外科手术教学模拟方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040009459A1 (en) * 2002-05-06 2004-01-15 Anderson James H. Simulation system for medical procedures
JP2006223374A (ja) * 2005-02-15 2006-08-31 Olympus Corp 手術支援装置、手術支援システム及び手術支援方法
JP2010131047A (ja) * 2008-12-02 2010-06-17 Mitsubishi Precision Co Ltd 術前シミュレーションのためのモデル生成方法
US20100217336A1 (en) * 2006-08-31 2010-08-26 Catholic Healthcare West (Chw) Computerized Planning Tool For Spine Surgery and Method and Device for Creating a Customized Guide for Implantations
WO2010106532A1 (en) * 2009-03-17 2010-09-23 Simbionix Ltd. System and method for performing computerized simulations for image-guided procedures using a patient specific model
US20110236868A1 (en) * 2010-03-24 2011-09-29 Ran Bronstein System and method for performing a computerized simulation of a medical procedure
JP2014522248A (ja) * 2011-03-30 2014-09-04 アヴィザル,モルデチャイ 外科手術をシミュレーションする方法およびシステム
JP2014525764A (ja) * 2011-06-10 2014-10-02 コーニンクレッカ フィリップス エヌ ヴェ 光学形状センシングに伴う動的な制約

Family Cites Families (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BE1008128A3 (nl) 1994-03-10 1996-01-23 Materialise Nv Werkwijze voor het ondersteunen van een voorwerp vervaardigd door stereolithografie of een andere snelle prototypevervaardigingswerkwijze en voor het vervaardigen van de daarbij gebruikte steunkonstruktie.
BE1008372A3 (nl) 1994-04-19 1996-04-02 Materialise Nv Werkwijze voor het vervaardigen van een geperfektioneerd medisch model uitgaande van digitale beeldinformatie van een lichaamsdeel.
US5623582A (en) 1994-07-14 1997-04-22 Immersion Human Interface Corporation Computer interface or control input device for laparoscopic surgical instrument and other elongated mechanical objects
US5765561A (en) * 1994-10-07 1998-06-16 Medical Media Systems Video-based surgical targeting system
US5826206A (en) 1996-03-12 1998-10-20 Training Inovations Group, Llc Debriefing systems and methods for retrieving and presenting multiple datastreams with time indication marks in time synchronism
US6847336B1 (en) 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
IL123073A0 (en) 1998-01-26 1998-09-24 Simbionix Ltd Endoscopic tutorial system
US6113395A (en) 1998-08-18 2000-09-05 Hon; David C. Selectable instruments with homing devices for haptic virtual reality medical simulation
JP3559495B2 (ja) 2000-03-28 2004-09-02 京セラ株式会社 誘電体磁器組成物およびそれを用いた誘電体共振器並びに非放射性誘電体線路
US6939138B2 (en) 2000-04-12 2005-09-06 Simbionix Ltd. Endoscopic tutorial system for urology
AU2001260559A1 (en) 2000-05-19 2001-11-26 Simbionics Ltd. Endoscopic tutorial system for the pancreatic system
US20020059284A1 (en) 2000-10-20 2002-05-16 Ran Bronstein Method for rapid transfer of data with a multi-spline model
IL143255A (en) 2001-05-20 2015-09-24 Simbionix Ltd Endoscopic ultrasonography simulation
WO2002097735A1 (en) * 2001-05-31 2002-12-05 Kent Ridge Digital Labs System and method of anatomical modeling
US7493153B2 (en) 2001-06-13 2009-02-17 Volume Interactions Pte., Ltd. Augmented reality system controlled by probe position
FR2836372B1 (fr) 2002-02-28 2004-06-04 Obl Procede et dispositif pour la mise en place d'implants dentaires
SE0202863D0 (sv) 2002-09-30 2002-09-30 Goeteborgs University Surgical Improved computer-based minimal-invasive surgery simulation system
SE525157C2 (sv) 2002-12-03 2004-12-14 Mentice Ab Simuleringssystem för invasiv kirurgi
US7850456B2 (en) 2003-07-15 2010-12-14 Simbionix Ltd. Surgical simulation device, system and method
US8276091B2 (en) * 2003-09-16 2012-09-25 Ram Consulting Haptic response system and method of use
US7101383B1 (en) 2003-11-26 2006-09-05 Van Ess Lester J Laparoscopic instrument and method for its use
US20060036167A1 (en) 2004-07-03 2006-02-16 Shina Systems Ltd. Vascular image processing
US7331929B2 (en) 2004-10-01 2008-02-19 General Electric Company Method and apparatus for surgical operating room information display gaze detection and user prioritization for control
US8702580B2 (en) 2004-10-06 2014-04-22 Brainlab Ag Method and device for assisting in a tissue treatment
US8480404B2 (en) 2004-11-30 2013-07-09 Eric A. Savitsky Multimodal ultrasound training system
EP1861035A1 (en) * 2005-03-11 2007-12-05 Bracco Imaging S.P.A. Methods and apparati for surgical navigation and visualization with microscope
US9289267B2 (en) 2005-06-14 2016-03-22 Siemens Medical Solutions Usa, Inc. Method and apparatus for minimally invasive surgery using endoscopes
US20070038059A1 (en) * 2005-07-07 2007-02-15 Garrett Sheffer Implant and instrument morphing
US20070129626A1 (en) 2005-11-23 2007-06-07 Prakash Mahesh Methods and systems for facilitating surgical procedures
US20070134637A1 (en) 2005-12-08 2007-06-14 Simbionix Ltd. Medical simulation device with motion detector
WO2007108776A2 (en) 2005-12-31 2007-09-27 Bracco Imaging S.P.A. Systems and methods for collaborative interactive visualization of 3d data sets over a network ('dextronet')
WO2007121572A1 (en) * 2006-04-21 2007-11-01 Mcmaster University Haptic enabled robotic training system and method
GB0609988D0 (en) 2006-05-19 2006-06-28 Materialise Nv Method for creating a personalized digital planning file for simulation of dental implant placement
EP2081494B1 (en) * 2006-11-16 2018-07-11 Vanderbilt University System and method of compensating for organ deformation
DE102006056884A1 (de) 2006-12-01 2008-06-05 Siemens Ag Verfahren und CT-System zur Durchführung einer Cardio-CT-Untersuchung eines Patienten
WO2008076079A1 (en) 2006-12-19 2008-06-26 Bracco Imaging S.P.A. Methods and apparatuses for cursor control in image guided surgery
US8500451B2 (en) 2007-01-16 2013-08-06 Simbionix Ltd. Preoperative surgical simulation
GB0703141D0 (en) 2007-02-19 2007-03-28 Materialise Dental Nv Dual transfer device for guided direct bonding
US8382765B2 (en) * 2007-08-07 2013-02-26 Stryker Leibinger Gmbh & Co. Kg. Method of and system for planning a surgery
DE102007053008A1 (de) * 2007-11-05 2009-05-14 Repetzki, Sebastian, Dr.-Ing. Zielkörper und Verfahren zur Bestimmung seiner räumlichen Lage
US8956165B2 (en) 2008-01-25 2015-02-17 University Of Florida Research Foundation, Inc. Devices and methods for implementing endoscopic surgical procedures and instruments within a virtual environment
US9396669B2 (en) * 2008-06-16 2016-07-19 Microsoft Technology Licensing, Llc Surgical procedure capture, modelling, and editing interactive playback
US9679499B2 (en) 2008-09-15 2017-06-13 Immersion Medical, Inc. Systems and methods for sensing hand motion by measuring remote displacement
GB0822590D0 (en) 2008-12-11 2009-01-21 Materialise Nv Orthotic prosthetic cushioned device and method of making the same
US8401686B2 (en) * 2008-12-18 2013-03-19 Align Technology, Inc. Reduced registration bonding template
US20100178644A1 (en) 2009-01-15 2010-07-15 Simquest Llc Interactive simulation of biological tissue
US8685093B2 (en) 2009-01-23 2014-04-01 Warsaw Orthopedic, Inc. Methods and systems for diagnosing, treating, or tracking spinal disorders
EP3872794A1 (en) 2009-05-12 2021-09-01 Edda Technology, Inc. System, method, apparatus, and computer program for interactive pre-operative assessment
US9104791B2 (en) 2009-05-28 2015-08-11 Immersion Corporation Systems and methods for editing a model of a physical system for a simulation
US8662900B2 (en) * 2009-06-04 2014-03-04 Zimmer Dental Inc. Dental implant surgical training simulation system
US8504136B1 (en) 2009-10-06 2013-08-06 University Of South Florida See-through abdomen display for minimally invasive surgery
US8311791B1 (en) 2009-10-19 2012-11-13 Surgical Theater LLC Method and system for simulating surgical procedures
US8819591B2 (en) * 2009-10-30 2014-08-26 Accuray Incorporated Treatment planning in a virtual environment
US8995736B2 (en) * 2010-01-22 2015-03-31 The Research Foundation Of The State University Of New York System and method for prostate visualization and cancer detection
WO2012033739A2 (en) 2010-09-08 2012-03-15 Disruptive Navigational Technologies, Llc Surgical and medical instrument tracking using a depth-sensing device
CN102354345A (zh) * 2011-10-21 2012-02-15 北京理工大学 一种具有体感交互方式的医学影像浏览设备
US20130267838A1 (en) 2012-04-09 2013-10-10 Board Of Regents, The University Of Texas System Augmented Reality System for Use in Medical Procedures
US10553130B2 (en) * 2012-05-03 2020-02-04 Regents Of The University Of Minnesota Systems and methods for analyzing surgical techniques
IN2014DN08500A (ja) * 2012-05-25 2015-05-15 Surgical Theater LLC
US9563266B2 (en) 2012-09-27 2017-02-07 Immersivetouch, Inc. Haptic augmented and virtual reality system for simulation of surgical procedures
WO2015154069A1 (en) 2014-04-04 2015-10-08 Surgical Theater LLC Dynamic and interactive navigation in a surgical environment
KR101570857B1 (ko) * 2014-04-29 2015-11-24 큐렉소 주식회사 로봇 수술 계획 조정 장치
US20180092698A1 (en) 2016-10-04 2018-04-05 WortheeMed, Inc. Enhanced Reality Medical Guidance Systems and Methods of Use

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040009459A1 (en) * 2002-05-06 2004-01-15 Anderson James H. Simulation system for medical procedures
JP2006223374A (ja) * 2005-02-15 2006-08-31 Olympus Corp 手術支援装置、手術支援システム及び手術支援方法
US20100217336A1 (en) * 2006-08-31 2010-08-26 Catholic Healthcare West (Chw) Computerized Planning Tool For Spine Surgery and Method and Device for Creating a Customized Guide for Implantations
JP2010131047A (ja) * 2008-12-02 2010-06-17 Mitsubishi Precision Co Ltd 術前シミュレーションのためのモデル生成方法
US20110238395A1 (en) * 2008-12-02 2011-09-29 Yoshinobu Kubota Method for generating model for preoperative simulation
WO2010106532A1 (en) * 2009-03-17 2010-09-23 Simbionix Ltd. System and method for performing computerized simulations for image-guided procedures using a patient specific model
US20110236868A1 (en) * 2010-03-24 2011-09-29 Ran Bronstein System and method for performing a computerized simulation of a medical procedure
JP2014522248A (ja) * 2011-03-30 2014-09-04 アヴィザル,モルデチャイ 外科手術をシミュレーションする方法およびシステム
JP2014525764A (ja) * 2011-06-10 2014-10-02 コーニンクレッカ フィリップス エヌ ヴェ 光学形状センシングに伴う動的な制約

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017073702A1 (ja) * 2015-10-29 2017-05-04 キヤノン株式会社 医用画像処理装置、医用画像処理装置に搭載可能なプログラム、及び医用画像処理方法
JP2017080192A (ja) * 2015-10-29 2017-05-18 キヤノンマーケティングジャパン株式会社 医用画像処理装置、医用画像処理装置に搭載可能なプログラム、及び医用画像処理方法
JP2017080193A (ja) * 2015-10-29 2017-05-18 キヤノンマーケティングジャパン株式会社 医用画像処理装置、医用画像処理装置に搭載可能なプログラム、及び医用画像処理方法
JP2017084191A (ja) * 2015-10-29 2017-05-18 キヤノンマーケティングジャパン株式会社 医用画像処理装置、医用画像処理装置に搭載可能なプログラム、及び医用画像処理方法
US10984906B2 (en) 2015-10-29 2021-04-20 Canon Kabushiki Kaisha Medical image processing apparatus, program installable into medical image processing apparatus, and medical image processing method
JP2018089310A (ja) * 2016-12-07 2018-06-14 株式会社デンソー 情報統合装置

Also Published As

Publication number Publication date
CN104271066A (zh) 2015-01-07
WO2013177520A1 (en) 2013-11-28
JP6343606B2 (ja) 2018-06-13
US20150140535A1 (en) 2015-05-21
ES2872298T3 (es) 2021-11-02
CN107822690B (zh) 2020-10-02
CN107822690A (zh) 2018-03-23
US10056012B2 (en) 2018-08-21
IN2014DN08500A (ja) 2015-05-15
JP6677758B2 (ja) 2020-04-08
US20180322806A1 (en) 2018-11-08
JP2018187399A (ja) 2018-11-29
EP2856296A1 (en) 2015-04-08
US10943505B2 (en) 2021-03-09
EP2856296A4 (en) 2016-03-09
EP2856296B1 (en) 2021-04-14
CN104271066B (zh) 2017-10-24

Similar Documents

Publication Publication Date Title
JP6677758B2 (ja) ハイブリッド画像/ハンズフリー制御によるシーンレンダラー
US20190238621A1 (en) Method and system for simulating surgical procedures
US20210287779A1 (en) Method and System for Simulating Surgical Procedures
John The impact of Web3D technologies on medical education and training
Montgomery et al. Spring: A general framework for collaborative, real-time surgical simulation
Lu et al. Virtual learning environment for medical education based on VRML and VTK
JP2024056777A (ja) 双方向にマルチユーザの仮想現実体験を効率的にレンダリング、管理、記録、および再生するための方法及び装置
Rasool et al. Image-driven virtual simulation of arthroscopy
KR20050047548A (ko) 가상 해부 환경을 생성하는 장치 및 방법
CN114333482A (zh) 一种基于混合现实技术的虚拟解剖教学系统
KR101275938B1 (ko) 가상 수술 시뮬레이션 방법 및 장치
Chheang et al. An interactive demonstration of collaborative vr for laparoscopic liver surgery training
Tai Research on real-time physics-based deformation for haptic-enabled medical simulation
Eilertsen Virtual Reality for medical images
Chacko et al. Virtual surgery on geometric model of real human organ data
und Algorithmen et al. EndoView: a System for Fast Virtual Endoscopic Rendering and Registration
Collaborative et al. 296 Medicine Meets Virtual Reality 02/10 JD Westwood et al.(Eds.) IOS Press, 2002
Cavusoglu SURGICAL SIMULATION TECHNOLOGIES

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180424

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180521

R150 Certificate of patent or registration of utility model

Ref document number: 6343606

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees