JP6886448B2 - アブレーションゾーンのシミュレーションおよび可視化のためのデバイス、システムおよび方法 - Google Patents

アブレーションゾーンのシミュレーションおよび可視化のためのデバイス、システムおよび方法 Download PDF

Info

Publication number
JP6886448B2
JP6886448B2 JP2018218090A JP2018218090A JP6886448B2 JP 6886448 B2 JP6886448 B2 JP 6886448B2 JP 2018218090 A JP2018218090 A JP 2018218090A JP 2018218090 A JP2018218090 A JP 2018218090A JP 6886448 B2 JP6886448 B2 JP 6886448B2
Authority
JP
Japan
Prior art keywords
image
lantern
visualization
volume
lanthanum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018218090A
Other languages
English (en)
Other versions
JP2019122756A (ja
Inventor
ジミン ルー
ジミン ルー
克己 石井
克己 石井
ヴァカ アントニオ ボニラス
ヴァカ アントニオ ボニラス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon USA Inc
Original Assignee
Canon USA Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon USA Inc filed Critical Canon USA Inc
Publication of JP2019122756A publication Critical patent/JP2019122756A/ja
Application granted granted Critical
Publication of JP6886448B2 publication Critical patent/JP6886448B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • A61B2034/104Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Robotics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

関連出願の相互参照
本出願は、現在係属中であり、かつ2018年2月15日に出願された米国特許出願第15/897,973号の一部継続出願であり、その利益を主張する。これらの出願はいずれも、2017年11月22日に出願された米国仮出願第62/590,229号の利益を主張する。これらの出願の開示はその内容全体が参照により本明細書に組み込まれる。
本出願は一般に、医療用アブレーションのシミュレーション、可視化および計画に関する。
アブレーションにはさまざまな形態があり、アブレーションは、優れた計画によって成功しやすくなる。アブレーションは、アブレーションが病変または腫瘍の最善の治療法であると判断する腫瘍専門医による診断の後に指示されることがある。インターベンショナルラジオロジスト(IR)は、腫瘍およびその大きさを正確に特性分析するために画像を収集し分析できる。また、IRは、アブレーション戦略を開発する前に何らかの初期イメージングを実施する場合がある。アブレーション戦略は、イメージング様式、プローブの数、プローブ挿入の軌跡、プローブ挿入点、およびアブレーションの様式(例えば、マイクロ波、冷凍、レーザ、高周波、高集束超音波)を選択することを含んでよい。
デバイスのいくつかの実施形態は、1つまたは複数のプロセッサと、1つまたは複数のプロセッサに接続された1つまたは複数のコンピュータ可読媒体とを備える。1つまたは複数のコンピュータ可読媒体は、画像ボリューム(image volume)を取得し、表面の形状、表面のサイズ、および画像ボリューム内の表面の位置を含む表面の記述を取得し、表面上で、または表面から形状内の別の点にまで投影された光線に沿って、画像ボリュームをサンプリングし、サンプリングされた表面画像データが生成されるように、サンプリングされた値に関数を適用し、サンプリングされた表面画像データの可視化(visualization)を生成するための命令を含む。1つまたは複数の実施形態において、1つまたは複数のプロセッサは、画像ボリュームを取得し、表面の形状、表面のサイズ、および画像ボリューム内の表面の位置を含む表面の記述を取得し、表面上で、または表面から形状内の別の点まで投影された光線に沿って画像ボリュームをサンプリングし、サンプリングされた表面画像データが生成されるように、サンプリングされた値に関数を適用し、サンプリングされた表面画像データの可視化を生成するように動作する。
方法のいくつかの実施形態は、画像スタック(image stack)で構成される画像ボリュームを取得することと、第1の表面上で、または表面から形状内の別の点までの光線に沿って、画像ボリュームをサンプリングし、例えば第1のサンプリングされた表面画像データが生成されるように、サンプリングされた値に関数を適用することと、第1のサンプリングされた表面画像データの可視化を生成することとを含む。
1つまたは複数のコンピュータ可読記憶媒体のいくつかの実施形態は、1つまたは複数の計算装置によって実行されたときに、1つまたは複数の計算装置に、画像スタックで構成される画像ボリュームを取得することと、対応するアブレーションゾーンをモデリングした第1の表面を記述する情報を得ることと、第1の表面上で、または表面から形状内の別の点までの光線に沿って画像ボリュームをサンプリングし、例えば第1のサンプリングされた表面画像データが生成されるように、サンプリングされた値に関数を適用することと、第1のサンプリングされた表面画像データの画像を生成することとを含む動作を実行させる命令を記憶する。
本開示の他の態様によれば、さまざまなアブレーション技術を使用する1つまたは複数の追加のデバイス、1つまたは複数のシステム、1つまたは複数の方法、および1つまたは複数の記憶媒体が本明細書で説明される。本開示のさらなる特徴は、部分的に理解可能であり、また部分的に、以下の説明からおよび添付の図面を参照して明らかになるであろう。
類似の数字は類似の要素を示す本開示のさまざまな態様を例示するために、使用可能な単純化された形態が図面に示されているが、本開示は示されている厳密な構成および手段に限定されないことを理解されたい。当業者が本主題を製造および使用するのを手助けするために、添付の図および図面を参照する。
図1は、アブレーションゾーンをシミュレーションし可視化するためのシステムの例示的な実施形態を示す図である。 図2は、画像ボリュームの例示的な実施形態を示す図である。 図3Aは、画像ボリュームの可視化の例示的な実施形態を示す図である。図3Bは、画像ボリュームおよびアブレーションゾーンの可視化の例示的な実施形態を示す図である。 図4Aは、データ点セットおよびアブレーションゾーン表面の例示的な実施形態を示す図である。図4Bは、データ点セットおよびアブレーションゾーン表面の例示的な実施形態を示す図である。 図5Aは、アブレーションゾーンを示すディスプレイの例示的な実施形態を示す図である。図5Bは、複数のアブレーションゾーンおよび複数のプローブを示すディスプレイの例示的な実施形態を示す図である。 図6は、アブレーションゾーンを可視化するための動作フローの例示的な実施形態を示す図である。 図7は、アブレーションゾーンを可視化するための動作フローの例示的な実施形態を示す図である。 図8は、画像ボリューム内のデータ点セットおよびアブレーションゾーンの表面の例示的な実施形態を示す図である。 図9は、アブレーションゾーンを可視化するための動作フローの例示的な実施形態を示す図である。 図10Aは、画像ボリュームの可視化の例示的な実施形態を示す図である。図10Bは、画像ボリュームの合成可視化の例示的な実施形態を示す図である。 図11は、アブレーションゾーンの可視化を含むユーザインタフェースの例示的な実施形態を示す図である。 図12は、アブレーションゾーンの可視化を含むユーザインタフェースの例示的な実施形態を示す図である。 図13は、アブレーションゾーンの可視化を含むユーザインタフェースの例示的な実施形態を示す図である。 図14Aは、アブレーションゾーンの可視化を含むユーザインタフェースの例示的な実施形態を示す図である。図14Bは、アブレーションゾーンの可視化を含むユーザインタフェースの例示的な実施形態を示す図である。 図15Aは、アブレーションゾーンの可視化を含むユーザインタフェースの例示的な実施形態を示す図である。図15Bは、アブレーションゾーンの可視化を含むユーザインタフェースの例示的な実施形態を示す図である。図15Cは、アブレーションゾーンの可視化を含むユーザインタフェースの例示的な実施形態を示す図である。図15Dは、アブレーションゾーンの可視化を含むユーザインタフェースの例示的な実施形態を示す図である。 図16は、アブレーションゾーンをシミュレーションし可視化するためのシステムの例示的な実施形態を示す図である。 図17は、本開示の1つまたは複数の態様による、少なくとも1つのランタンを視野に入れたくり抜きおよびズームインの例示的な実施形態を示す図である。
以下の段落は、ある説明的な実施形態を記述する。他の実施形態は、代替物、等価物および変形物を含んでよい。さらに、説明的な実施形態は、いくつかの新規な特徴を含むことができ、特定の特徴は、本明細書に記載されているデバイス、システムおよび方法のいくつかの実施形態に必須ではない場合がある。
図1は、アブレーションゾーンをシミュレーションし可視化するためのシステム(本明細書では「可視化システム」とも呼ばれる)の例示的な実施形態を示す。可視化システム10は、各々が特別に構成された計算装置(例えば、特別に構成されたデスクトップコンピュータ、特別に構成されたラップトップコンピュータ、特別に構成されたサーバ)である1つまたは複数のシミュレーションデバイス100と、画像キャプチャデバイス110(本実施例ではCTスキャナ)と、画像リポジトリ130と通信する画像サーバ120と、ディスプレイデバイス140とを備える。また、いくつかの実施形態では、画像キャプチャデバイス110は、CTスキャナではない画像キャプチャデバイス(例えば、磁気共鳴イメージング(MRI)デバイスまたは光干渉断層撮影(OCT)デバイス)である。
1つまたは複数のシミュレーションデバイス100は、画像キャプチャデバイス110または画像サーバ120から画像を取得する。次に、1つまたは複数のシミュレーションデバイス100は、画像の可視化を生成し、その可視化をディスプレイデバイス140に送信し、ディスプレイデバイス140は可視化を表示する。
取得された画像は、それぞれ、物体(例えば、身体の一部)のスライスを描くことができる。例えば、画像は、それぞれ、肺または肝臓のスライスを描くことができる。画像は、この物体を含む3次元画像ボリュームを定義する画像スタック内に配置することができる。画像ボリューム219の一実施例を図2に示す。画像の可視領域を大きくするために、画像3枚の間の空間が広げられている。画像は、皮膚281および腫瘍282を示す。1つまたは複数のシミュレーションデバイス100が画像ボリューム219の表示を生成すると、その表示により、ユーザは、例えば画像ボリューム219をスクロールすることによって、ボリューム219上の画像またはボリューム219から広がった画像を変更することができる。
取得された画像は、各画像ボクセルが定義された解剖学的構造(anatomical structure)(例えば、腫瘍(例えば、腫瘍282)、器官、骨、皮膚(例えば、皮膚281)等)の一部であるか否かをラベル付けするセグメンテーションマップ(segmentation map)を生成するために使用され得る。これらのセグメンテーションマップは、画像キャプチャデバイスからの画像の可視化にオーバレイされても、または画像をマスキングするために使用されてもよい。例えば、図13に最も良く見られるように、少なくとも3つのセグメンテーションマップ1396、1397、1398が画像にオーバレイされている。セグメンテーションマップ1396は、腫瘍282および/またはランタン(lantern)1384の外側に位置する解剖学的構造の一部を指すために使用され得る。セグメンテーションマップの幾何学的形状は、使用される用途に応じて異なり得る(例えば、図示の通り、セグメンテーションマップ1396は円形であってよく、破線を使用し得る(かつ/または別のセグメンテーションマップとは異なる色で示され得る)、セグメンテーションマップ1397は卵形(ovular)であってよく、実線を用いて使用され得る(かつ/または別のセグメンテーションマップとは異なる色で示され得る)、セグメンテーションマップ1398は円形であってよく、実線を使用し得る(かつ/または1つもしくは複数の他のセグメンテーションマップとは異なる色で示され得る)。セグメンテーションマップ1396、1397のうちの1つまたは複数は、ランタン1384の外側に位置し得る。セグメンテーションマップ1398等の1つまたは複数のセグメンテーションマップは、(例えば、腫瘍282等の標的の特定の部分を指定するために)ランタン1384の内側に位置し得る。1つまたは複数の他の解剖学的構造(例えば、皮膚281、骨、器官等)を指定するために、代替的または追加的に、1つまたは複数の他のセグメンテーションマップを使用してもよい。
アブレーション処置は3次元(3D)空間に影響を与えるため、1つまたは複数のシミュレーションデバイス100は、アブレーション処置の3次元効果を示す可視化を生成する。医療専門家は、アブレーション処置を計画するために可視化を使用することができる。例えば、医療専門家は、可視化を使用して、プローブの挿入点、プローブの挿入角度、アブレーション処置の持続時間、およびアブレーション処置の出力を計画することができる。可視化は、影響を受ける3次元空間を球形、楕円形または他の形状として示すことができる。また、影響を受ける3次元空間は、アブレーション処置の出力または持続時間が増加するにつれてサイズが増加し得、アブレーション処置の出力または持続期間が減少するにつれてサイズが減少し得る。また、アブレーションゾーンのサイズにも影響し得る、アブレーションされる組織の種類をシミュレーションすることができる。
図3Aは、画像ボリューム319の可視化の例示的な実施形態を示す。この可視化は、プローブ383(例えば、針)のシミュレーションを含む。したがって、可視化は、皮膚381および腫瘍382に対するプローブ383のおおよその位置を示す。
図3Bは、画像ボリューム319の可視化の例示的な実施形態を示す。この可視化は、プローブ383およびランタン384のシミュレーションを含み、これはアブレーションゾーンの表面の可視化である。アブレーションゾーンは、アブレーション処置に影響され得るボリュームである。1つまたは複数のシミュレーションデバイス100は、シミュレーションされたアブレーション処置の持続時間、シミュレーションされたアブレーション処置の出力、プローブ383のシミュレーションされた先端、およびアブレーションされる物質(例えば組織)のうちの1つまたは複数に基づき、ランタン384のサイズを計算する。本実施形態では、ランタン384は、図3Aの腫瘍382全体を包含する。さらに、いくつかの実施形態では、ランタン384は変形可能であり、このことによって、複雑な熱の影響をシミュレーションできる。例えば、ユーザインタフェースのいくつかの実施形態によって、ランタン384は、ユーザがカーソルを用いてランタン384上の1つまたはいくつかの点を押すことができることにより変形され得る。さらに後述されるように、画像ボリュームは、ランタン384表面を通るかもしくは表面から延びる、または別様にランタン384と相互作用する光線385(図3Bに最も良く示される)から、または光線385に沿って取得またはサンプリングされ得る。
1つまたは複数のシミュレーションデバイス100のいくつかの実施形態は、少なくとも以下の動作を実行する:(A)画像ボリューム(例えばCTボリュームまたはMRIボリューム)を取得すること、(B)画像ボリュームの可視化を生成すること、(C)アブレーションゾーンをモデリングする幾何学的関数を生成すること(例えば、球形、楕円形、円錐形)、(D)生成された幾何学的関数の表面上の画像ボリュームをサンプリングする(例えば、再サンプリングする)こと、(E)生成された幾何学的関数の表面上で画像を再構成すること(これは、例えば、ランタン(その表面に画像を有するシミュレーションされたアブレーションゾーン)が生成されるように、サンプリングされた画像ボリュームをアブレーションゾーンの表面上にマッピングすることを含み得る)、(G)元の画像ボリュームにオーバレイされてもよいランタンを表示すること、および(H)ユーザがランタンのサイズ、形状および位置を操作できるように、ランタンと画像ボリュームとの間に対話機構(例えば、グラフィカルユーザインタフェース(GUI))を提供すること。また、いくつかの実施形態では、ランタンはGUIによって任意に操作することができる(例えば、ズームイン、ズームアウト、移動、回転)。
したがって、ランタンを使用して画像ボリュームの内容を表示することは、画像ボリュームの内容をより正確な形式で示すことができ、このことによって、医療専門家に、アブレーション処置を計画するために使用できるビューを与える。また、ランタンは、アブレーションゾーンとアブレーションゾーンに隣接する解剖学的構造との間の相互作用を示す。医療専門家は、ランタンの表面を見ることによってアブレーションゾーンと交わる特徴を見ることができるため、医療専門家は、アブレーションゾーンから他の特徴までの距離を測定する必要がなくなり得る。また、これらの実施形態は、複雑な相互作用を同時に可視化することを可能にする。例えば、いくつかの実施形態は、複数のランタンを同時に示し、それによって医療専門家がアブレーション処置を微調整できる。また、これらの実施形態は、医療専門家がランタンを所望の処置位置に移動させ、次いでプローブ挿入のためのアブレーションゾーンの中心を決定すること、またはプローブの挿入点を最適化することを可能にし得る。
代替的実施形態では、ランタンは、ランタン表面に対する即時データ点の値の代わりに、ランタン表面からランタン領域内の別の点、例えば、その中心または別の表面の点までの光線(例えば、図3Bに示す光線1385を参照、例えば、図17の光線(限定はしないが光線1385等)に沿った点P1、P2、P3、P4を参照)に沿ったデータ点のサンプリングに適用される関数から計算された値を表示できる。この関数は、例えば、医療専門家にアブレーションゾーンの内側に何があるかというビューが提供されるように、例えばサンプリングされたデータ点の最大値、最小値または平均値であり得る。図17に最も良く示されるように、ランタンの少なくとも1つの実施形態(ランタン1384等)は、ランタンビューの描写においてくり抜かれたりズームインされたりして提示されてもよい。少なくともこの実施例では、ランタンの中心(例えば点P1が位置する場所)からランタン(例えばランタン1384)の表面まで延びる光線(例えば光線1385)が示されている。1つまたは複数の実施形態では、光線1385等の光線は別様に配向されてもよく、図17に示す実施形態の構成に限定されない。図17の光線に沿った点P1、P2、P3、P4は、ランタン表面からランタン領域の別の点(例えばランタンの中心)までの光線に沿ってとられたデータ点のサンプリングの少なくとも1つの実施形態を示す。前述のように、点P1はランタン(例えばランタン1384)の中心に位置してもよい。点P1、P2、P3は、異なる値を表すために異なる強度で塗りつぶされてもよい(例えば、点P2の強度がP1の強度より大きいことを表すために点P1は点P2よりも明るく、点P3の強度が点P1、P2それぞれの強度よりも小さいことを表すために点P3はP1およびP2よりも明るくてもよい、等)。点P4は、ランタン(例えばランタン1384)の表面に配置されてもよく、ランタン(例えばランタン1384)の表面において対応する値(破線で示される描写)で塗りつぶされてもよい。しかしながら、1つまたは複数の実施形態では、表面値は、ランタン(例えば、ランタン1384)の表面下に位置する値についての状況を正確に提供しない可能性がある。したがって、1つまたは複数の実施形態では、ランタン(例えばランタン1384)の表面下に位置する点の値および状況を正確に提供するために(例えば、光線1385等の光線に沿って)関数を適用することができる。本明細書で論じられるように、そのような関数の1つまたは複数の例としては、最大サンプリング点数(例えば、所定のサンプリング点の最大距離、所定の最大サンプリング点数等)を挙げることができるがこれに限定されず、この場合、点P4は点P2からの陰影で塗りつぶされてもよい。最小値関数は、点P3の値を取り込む点P4を有することができる。平均関数値は、点P1〜P3の値を平均し、それを適切な値または点P4内の陰影強度として表すことができる。選択される関数(または使用され得る他の関数)は、用途に依存しても、またはユーザにより設定されてもよい。CT画像で表される腫瘍物体は均一ではなく、腫瘍物体は強度の勾配で構成され、そのような腫瘍物体の構成は対象となる形によって異なり得る。したがって、セグメンテーションマップ(例えば、セグメンテーションマップ1396、1397、1398等)は、時間の経過とともに対象となる形に応じて、形状を変化させても、または不均一な形状を有していてもよい。セグメンテーションマップまたは他のセグメンテーションマップ(例えば、マップ1396、1397等)は、医療処置または用途において標的とされる器官の異なる構造(例えば、肝臓構造1、肝臓構造2等)であり得る。
他の実施形態は、ランタンの表面上または表面からランタン領域内の別の点までの光線に沿ったセグメンテーションマップのサンプリングに関する値をランタン内に表示できるため、例えば、セグメント化された解剖学的領域がサンプリングされた点、または解剖学的領域の表面からランタン表面までの距離に含まれるかどうかが示される。例えば、図13の上部に示すように、ランタン1384表面上の値のサンプリングである点1399a、1399b、1399cを用いて値を得ることができる。前述のように、点P1〜P4は光線(例えば光線1385)に沿ってとられ、値を得ることができる。データ点のサンプリングの位置にかかわらず、得られる値は、これらに限定されないが、異なる強度、幾何学的形状、破線または実線、異なる色を使用すること、画像に数字として値を表示する等、任意の有意義な方法で得ることができる。
図4Aは、画像ボリューム内のデータ点セットおよびアブレーションゾーンの表面の例示的な実施形態を示す。データ点461は、集合的に画像ボリューム419を画定する(すべてのデータ点がラベル付けされているわけではないが、黒塗りの円はすべてそれぞれのデータ点を表すことに留意されたい)。例えば、各データ点461は対応する画素であってよく、各画像は画像ボリューム内の画素のそれぞれの平面を形成することができる。また、アブレーションゾーン484の表面485は、データ点461のうちの3つを通過するかまたはその近くを通る。したがって、1つまたは複数のシミュレーションデバイス100は、アブレーションゾーンの表面485上で画像データをサンプリングするときにこれら3つのデータ点461を使用できる。
図4Bは、画像ボリューム内のデータ点セットおよびアブレーションゾーンの表面の例示的な実施形態を示す。データ点461は、集合的に画像ボリューム419を画定する。しかしながら、この実施例では、アブレーションゾーンの表面485は、データ点461のいずれもまたはその近くを通過しない。したがって、表面485の画像ボリューム419をサンプリングするとき、1つまたは複数のシミュレーションデバイス100は補間データ点462を使用する。表面485の経路に応じて、表面485の画像ボリューム419をサンプリングするときに、1つまたは複数のシミュレーションデバイス100は、データ点461および補間データ点462の両方を使用することができる。
図5Aは、アブレーションゾーンを示すディスプレイの例示的な実施形態を示す。図5Aのディスプレイ591では、アブレーションゾーン584は球形ではない。プローブ583の先端の形状によって、非球状のアブレーションゾーンを生成できる。
図5Bは、複数のアブレーションゾーンを示すディスプレイの例示的な実施形態を示す。このディスプレイ591の実施形態は、複数のプローブ583A〜Eを示しており、これらのプローブは各々、それぞれのアブレーションゾーン584A〜Eを生成する。複数のアブレーションゾーン584A〜Eを組み合わせて、より複雑な形状を生成できる。例えば、アブレーションゾーン584A〜Eは、和集合演算によって組み合わされて、アブレーションゾーン584A〜Eのうちのいずれか1つよりも複雑な形状を形成し得る。
図6は、アブレーションゾーンを可視化するための動作フローの例示的な実施形態を示す。この動作フローおよび本明細書に記載の他の動作フローはそれぞれ特定の順序で提示されるが、いくつかの実施形態は提示された順序とは異なる順序で動作の少なくともいくつかを実行し得る。異なる順序付けの例としては、並行、並列、重複、並べ替え、同時、増分、および交互の順序付けが挙げられる。したがって、本明細書に記載の動作フローの他の実施形態は、ブロックを省略し、ブロックを追加し、ブロックの順序を変更し、ブロックを結合し、またはブロックをより多くのブロックに分割することができる。
さらに、この動作フローおよび本明細書に記載の他の動作フローはシミュレーションデバイスによって実行されるが、これらの動作フローのいくつかの実施形態は2つ以上のシミュレーションデバイスまたは1つもしくは複数の他の特別に構成された計算装置によって実行される。
図6の動作フローは、第1のフロー、第2のフロー、第3のフロー、および第4のフローを含む。第1のフローはブロックB600で開始し、そこでシミュレーションデバイスは形状を定義する関数671を取得する(例えば受信する、生成する)。関数671は、アブレーションゾーンの形状と、アブレーション処置の時間、アブレーション処置の出力、アブレーションゾーンの形状、およびアブレーションされる物質の組成との関係を記述またはモデリングできる。
次に、ブロックB605において、シミュレーションデバイスは関数に基づいて表面672を生成する。次に、第1のフローはブロックB615に移動し、そこで第1のフローは第2のフローと合流して結合されたフローを形成する。
第2のフローはブロックB610で開始し、そこでシミュレーションデバイスは画像ボリューム673を取得する。次に第2のフローはブロックB615に進み、そこで第2のフローは第1のフローと合流して結合されたフローを形成する。
ブロックB615において、シミュレーションデバイスは、表面上で、または表面から投影された光線に沿って画像ボリューム673をサンプリングし、表面674上で、または表面674から投影された光線(例えば光線はランタンを通って投影され得る)に沿って画像データを出力する。ブロックB615において、シミュレーションデバイスは、表面または表面から投影された光線が、例えば図4Bに示されるように画像ボリューム673内のデータ点に近くない領域において画像データを補間できる。次に結合されたフローはブロックB625に進み、結合されたフローは第3のフローと合流する。
第3のフローは、ブロックB620で開始し、そこでシミュレーションデバイスは、1つまたは複数のカラーマップ675を取得する。次に、第3のフローは、ブロックB625に移動し、そこで、第3のフローは、結合されたフローと合流する。ブロックB625において、シミュレーションデバイスは、例えばカラーマップ675および表面674上でもしくは表面674から投影された光線に沿った画像データに基づいてランタン676(画像ボリューム673からの画像データを有する表面)が生成されるように、表面上で画像データを再構成する。結合されたフローは、次にブロックB635に移動し、そこで結合されたフローは、第4のフローと合流する。
第4のフローは、ブロックB610で開始してからブロックB630に移動し、そこでシミュレーションデバイスは、画像ボリューム673の可視化677を生成する。第4のフローは、次にブロックB635に移動し、そこで、第4のフローは、結合されたフローと合流する。
ブロックB635において、シミュレーションデバイスは、ランタン676および画像ボリューム673の可視化677に基づいて合成可視化678を生成する。合成可視化678の例は、図10A、図10B、図11、図11、図12、図13、図14B、および図15A〜Dに示される。
図7は、アブレーションゾーンを可視化するための動作フローの例示的な実施形態を示す。図7の動作フローは、第1のフロー、第2のフロー、第3のフロー、第4のフロー、および第5のフローを含む。第1のフローは、ブロックB700で開始し、そこでシミュレーションデバイスは、形状を定義する第1の関数711Aを取得し(例えば受信する、生成する)、次にブロックB710に進み、そこで第1のフローは、第2のフローと合流して結合されたフローを形成する。
第2のフローは、ブロックB705で開始し、そこでシミュレーションデバイスは、第2の関数771Bを取得し、次に第2のフローは、ブロックB710に移動し、そこで第1のフローと合流して結合されたフローを形成する。
ブロックB710において、シミュレーションデバイスは、第1の関数771Aおよび第2の関数771Bに基づいて1つまたは複数の表面772(例えば、アブレーションゾーンの表面)を生成する。例えば、シミュレーションデバイスのいくつかの実施形態は、第1の関数771Aと第2の関数771Bとが重複する場合、和集合演算を用いて第1の関数771Aおよび第2の関数771Bを単一の表面へとマージし、第1の関数771Aと第2の関数771Bとが重複しない場合、第1の関数771Aおよび第2の関数771Bを単一の表面へとマージさせない。次に結合されたフローは、ブロックB720に移動し、そこで結合されたフローは、第3のフローと合流する。
第3のフローは、ブロックB715で開始し、そこでシミュレーションデバイスは、画像ボリューム773(例えば、画像ボリューム)を取得する。次に第3のフローは、ブロックB720に進み、第3のフローは、結合されたフローと合流する。
ブロックB720において、シミュレーションデバイスは、例えば、1つもしくは複数の表面772上で、または1つもしくは複数の表面772から投影された光線(例えば、光線はランタンを通って投影され得る)に沿って、画像ボリューム773をサンプリング(例えば、再サンプリング)し、1つもしくは複数の表面774上で、または1つもしくは複数の表面774から投影された光線に沿って画像データを生成する。ブロックB720において、シミュレーションデバイスは、表面または表面から投影された光線が、例えば図4Bおよび図8に示されるように画像ボリューム内のデータ点に近くない領域において画像データを補間できる。結合されたフローは、次にブロックB730に移動し、そこで結合されたフローは、第4のフローと合流する。
第4のフローは、ブロックB725で開始し、そこでシミュレーションデバイスは、1つまたは複数のカラーマップ775を取得する。第4のフローは、次にブロックB730に移動し、そこで第4のフローは、結合されたフローと合流する。ブロックB730において、シミュレーションデバイスは、カラーマップ775および再サンプリングされた画像データ774に基づいて1つまたは複数のランタン776を生成する。結合されたフローは、次にブロックB740に移動し、そこで結合されたフローは、第5のフローと合流する。
第5のフローはブロックB715で開始してからブロックB735に移動し、そこでシミュレーションデバイスは画像ボリューム773の可視化777を生成する。第5のフローは次にブロックB740に移動し、そこで第5のフローは結合されたフローと合流する。
ブロックB740において、シミュレーションデバイスは、1つまたは複数のランタン776および画像データ773の可視化777に基づいて合成可視化778を生成する。合成可視化778の例は、図10A、図10B、図11、図11、図12、図13、図14B、および図15A〜Dに示される。
図8は、画像ボリューム内のデータ点セットおよびアブレーションゾーンの表面の例示的な実施形態を示す。このセットは、集合的に画像ボリューム819を画定するデータ点861を含む。また、図8は、アブレーションゾーンの第1の表面885Aを示し、アブレーションゾーンの修正に応答して生成される第2の表面885Bを示す。例えば、アブレーションゾーンのサイズまたは位置を変更することができる。アブレーションゾーンの第1の表面885Aは、画像ボリューム819内の1つのデータ点861Aまたは非常に近くを通る。図示された表面の残りについての画像データを取得するために、3つの補間データ点862Aが生成される。
アブレーションゾーンの修正により、第2の表面885Bが作り出される。画像ボリューム819内の第2の表面885Bの位置は第1の表面885Aの位置とは異なるため、第2の表面885Bのための新しいデータ点が得られる。第2の表面は、2つのデータ点861Bまたは近くを通る。図8に示す表面の残りについての画像データを取得するために、隣接するデータ点861に基づき補間データ点862Bが生成される。したがって、第1の表面885Aの画像データは、第1の表面885Aの位置における画像ボリュームを示し、第2の表面885Bの画像データは、第2の表面885Bの位置における画像ボリュームを示す。したがって、第2の表面885Bの画像は、第1の表面885Aの画像とは異なる。
図9は、アブレーションゾーンを可視化するための動作フローの例示的な実施形態を示す。図9の動作フローは、第1のフロー、第2のフロー、および第3のフローを含む。第1のフローは、ブロックB900で開始し、そこでシミュレーションデバイスは、関数971を取得する。次に、第1のフローは、ブロックB910に移動し、そこで第1のフローは、第2のフローと合流する。
第2のフローは、ブロックB905で開始し、そこでシミュレーションデバイスは、アブレーションゾーンの位置およびサイズ979Aを取得する。次に第2のフローは、ブロックB910に進み、第2のフローは、第1のフローと合流して、例えば結合されたフローを作り出す。
ブロックB910において、シミュレーションデバイスは、関数971ならびに位置およびサイズ979Aに基づいて表面972を生成する。次に結合されたフローは、ブロックB920に移動し、そこで結合されたフローは、第3のフローと合流する。
第3のフローは、ブロックB915で開始し、そこでシミュレーションデバイスは、画像ボリューム973を取得する。次に第3のフローは、ブロックB920に進み、第3のフローは、結合されたフローと合流する。
ブロックB920において、シミュレーションデバイスは、表面972上で、または表面972から投影された光線に沿って、画像ボリューム973をサンプリングし、例えば、表面974上で、または表面974から投影された光線(例えば光線はランタンを通って投影され得る)に沿って、画像データを生成する。次に、ブロックB925において、シミュレーションデバイスは、表面974上で、または表面974から投影された光線(例えば光線はランタンを通って投影され得る)に沿った画像に基づき、ランタン976を生成する。
結合されたフローは、次にブロックB930に移動し、そこでシミュレーションデバイスは、ランタンの位置またはサイズを変更すべきかどうかを決定する。そうでなければ(ブロックB930=いいえ)、結合されたフローは、ブロックB930で待機する。例えばユーザ入力に応答して、位置またはサイズを変更すべきである場合(ブロックB930=はい)、フローは、ブロックB935に移動する。例えば、アブレーションゾーンを移動させるためのコマンド、アブレーションゾーンをサイズ変更するためのコマンド、またはアブレーションゾーンを定義する関数を変更するためのコマンドに応答して、位置またはサイズを変更することができる。
ブロックB935において、シミュレーションデバイスは、ランタンの新しい位置または新しいサイズ979Bを得る。これは表面の新しい形状を得ることを含んでよい。また、いくつかの実施形態において、ブロックB935では、シミュレーションデバイスは新しい関数を取得する。フローは、次にブロックB910に戻り、そこでシミュレーションデバイスは、関数971(関数が変化しなかった場合)および新しい位置またはサイズ979B(または、関数が変化した場合は関数)に基づいて表面972を生成する。
図10Aは、可視化の例示的な実施形態を示す。可視化は、アブレーションゾーン1089、シミュレーションされたプローブ1083、および画像ボリューム1086の可視化を含む。可視化は、さらに、3つの可視化平面、すなわち、軸方向(アキシャル)可視化平面(axial−visualization plane)1087A、矢状方向(サジタル)可視化平面(sagittal−visualization plane)1087B、および冠状方向(コロナル)可視化平面1087C(coronal−visualization plane)を含む。可視化平面1087A〜Cは、可視化平面1087A〜C上にある画像ボリューム内の画像データを示す。図10Aでは、アブレーションゾーン1089は円で表されており、画像データを含まない。
図10Bは、合成可視化1091の例示的な実施形態を示す。合成可視化1091は、ランタン1084、シミュレーションされたプローブ1083、および画像ボリューム1086の可視化を含む。合成可視化1091は、さらに、軸方向(アキシャル)可視化平面1087A、矢状方向(サジタル)可視化平面1087B、および冠状方向(コロナル)可視化平面1087Cを含む。ランタン1084は、アブレーションゾーンの表面にマッピングする画像データを表示する。ランタン1084は、アブレーションゾーンの表面(例えば、球の表面)上の画像ボリュームをサンプリングし、サンプリングされたデータの画像を形成し、ランタン1084にサンプリングされたデータの画像を表示することによって生成される表面上に画像を有する。
したがって、画像ボリュームからの画像データは、アブレーションゾーンの表面にマッピングされ、アブレーションゾーン表面の可視化は、3次元画像ボリュームから切り取られた形状の表面の外観をシミュレーションする。画像データは、画像データが入手できない形状における点(例えば、画像ボリュームの画像スライスの間にある形状の点)が補間されてもよい。
図11は、アブレーションゾーンの可視化を含むユーザインタフェースの例示的な実施形態を示す。ユーザインタフェース1190は、合成可視化を示す斜視表示領域1191を含み、これは、ランタン1184と、シミュレーションされたプローブ1183と、画像ボリューム(例えば、表面上(例えば、図13に示すようにランタン1384の表面上に位置する点1399a、1399b、1399cを参照)、または表面から形状内の別の点まで投影された光線(例えば、図3Bに示す光線385、さらに点P1〜P4を有する図17に示す光線も参照)に沿った画像ボリューム)(例えば、光線(例えば、図3Bに示す光線385、さらに点P1〜P4を有する図17に示す光線も参照、等)は、ランタン1184を通って投影され得る)からの画像データ1186と、軸方向(アキシャル)可視化平面1187A、矢状方向(サジタル)可視化平面1187B、および冠状方向(コロナル)可視化平面1187Cとを含む。斜視表示領域1191により、ユーザは、例えば可視化を任意の軸上で回転させることによって、斜視ビューの視点を変更することができる。さらに、斜視表示領域1191により、軸方向(アキシャル)可視化平面1187A、矢状方向(サジタル)可視化平面1187B、および冠状方向(コロナル)可視化平面1187Cの位置をユーザが変更することを可能にする。
一実施形態では、図11の可視化平面の垂線に沿った位置は、ランタンビュー(例えば、ランタン1184参照)内の表面位置にポインタを配置することによって自動的に選択され得る。ランタン値が表面で画像をサンプリングすることによって生成される場合、可視化平面は、選択された表面点に対応するように選択され得る。ランタン値が、ランタン表面から所定の位置(例えば、ランタンの中心、物体の中心等)までの光線に沿った画像値のサンプリングに適用される関数によって生成される代替的実施形態では、適用されたサンプリング関数に従って、光線に沿った代表値(例えば最大値または最小値)の位置に基づいて可視化平面を選択することができる。例えば、図17に示す少なくとも1つの実施形態において、点P1〜P4のうちのどの1つまたは複数の点を所望の1つまたは複数の観察平面として選択するかに応じて、1つまたは複数の可視化平面を選択することができる。
別の実施形態では、可視化平面は、単一のスライスの代わりに、対応するビューの配向でランタン領域に及ぶスライスのスタックの投影を表示してもよい(例えば、図2、図3A〜図3B、図4A〜図4B、図8、図11、図13、図17等参照)。
ユーザインタフェース1190は、また、軸方向(アキシャル)可視化平面1187Aを示す軸方向(アキシャル)ビュー1192Aと、矢状方向(サジタル)可視化平面1187Bを示す矢状方向(サジタル)ビュー1192Bと、冠状方向(コロナル)可視化平面1187Cを示す冠状方向(コロナル)ビュー1192Cとを示す。ユーザインタフェース1190は、また、制御部1195を含む。制御部1195は、ユーザがアブレーションゾーンおよびその対応するランタン1184のサイズ、アブレーション処置のシミュレーション出力、アブレーション処置の持続時間、ならびにプローブおよび対応するアブレーションゾーンの数を調整することを可能にするアブレーションゾーン制御部1195Aを含む。ランタン1184の外観は、アブレーションゾーン制御部1195Aの設定に従って調整される。
ユーザインタフェース1190は、また、制御部1195のうちの1つのアクティブ化に応答して生成される軌跡1197を示す。本実施例では、制御部は、軌跡チェックボックス1195Bである。軌跡チェックボックス1195Bがアクティブにされると、ユーザインタフェース1190は、軌跡1197の入口点1197Aおよび目標点1197Bをユーザが定義することを可能にする。目標点1197Bは、例えば、腫瘍の中心であり得る。入口点1197Aおよび目標点1197Bが定義されると、ユーザインタフェース1190は軌跡1197を表示し、これはプローブの挿入軌跡を示すことができる。また、挿入制御部1195Cをアクティブにすると、ユーザインタフェース1190は、斜視表示領域1191内の軌跡1197の代わりにシミュレーションされたプローブ1183を表示する。
ユーザインタフェース1190は、また、ランタン1184を操作(例えば、移動、サイズ変更)することを可能にする。ユーザインタフェース1190のこの実施形態は、ユーザがランタン1184を移動し、回転させ、そのサイズを変更し、ズームインし、そしてズームアウトすることによってランタン1184を操作することを可能にする。ランタンは操作可能であるため、平面のみを使用して画像ボリュームを見る場合には見えない多くの特徴を可視化するために使用することができる。
また、本実施形態では、ランタン1184およびその対応するアブレーションゾーンのサイズは、ゾーンサイズ制御部1195Dの調整によって変更することができる。本実施形態では、ゾーンサイズ制御部1195Dは、スライダである。ランタン1184に提示される画像は、異なる画像データがランタン1184に対応するサイズ変更されたアブレーションゾーンの表面にマッピングされるため、ゾーンサイズ制御部1195Dの設定が変化するにつれて変化する。ランタン1184の生成は、アブレーションゾーンの位置およびサイズに同期され得る。したがって、ランタン1184は、ユーザがランタン1184の対応するアブレーションゾーンを操作(例えば、サイズ変更、移動)するにつれて動的に生成されてもよい。
関連する実施形態では、ゾーンサイズの調整は自動的に実行されてもよく、0から設定最大値まで徐々に変化し、これはランタン領域の内容を時間内に見るための特徴を提供できる。例えば、少なくとも図17に示す実施形態では、いくつかの画像の時間経過が示されてよく、第1の画像が、ランタン1384の中心点(例えば点P1)またはそこから光線が延びる別の所定の点から始まるランタン1384の空のビューであってよく、かつさらなる目標点に対して外向きに拡張できる(例えば、次の画像は、点P2と、ランタン1384の中心(またはそこから光線が延びる他の所定の位置)を中心とした点P2からP1までの半径に位置するデータであってよく、その次の画像は、点P3と、ランタン1384の中心(またはそこから光線が延びる他の所定の位置)を中心とした点P3からP1までの半径に位置するデータであってよく、後の画像は、ランタン1384表面上の点P4と、ランタン1384の中心(またはそこから光線が延びる他の所定の位置)を中心とした点P4からP1までの半径に位置するデータであってよい、等)。1つまたは複数の実施形態では、光線1385は、ランタン1384の少なくとも2つの表面点の間に延びることができる。
図12は、アブレーションゾーンの可視化を含むユーザインタフェースの例示的な実施形態を示す。ユーザインタフェース1290は、ランタン1284およびシミュレーションされたプローブ1283を示すランタン表示領域1293を含む。ユーザインタフェースは、また、軸方向(アキシャル)ビュー1292Aと、矢状方向(サジタル)ビュー1292Bと、冠状方向(コロナル)ビュー1292Cとを含む。この例示的な実施形態では、ランタン表示領域1293はランタン1284を示すが、他の画像データは一切示していない。ユーザインタフェース1290は、また、制御部1295を含む。制御部1295は、ユーザがアブレーションゾーンのサイズ、アブレーション処置のシミュレーション出力、アブレーション処置の持続時間、ならびにプローブおよび対応するアブレーションゾーンの数を調整することを可能にするアブレーションゾーン制御部1295Aを含む。
図13は、アブレーションゾーンの可視化を含むユーザインタフェースの例示的な実施形態を示す。ユーザインタフェース1390は、ランタン1384、シミュレーションされたプローブ1383、および画像データ1386を示す斜視表示領域1391を含む。斜視表示領域1391は、さらに、軸方向(アキシャル)可視化平面1387A、矢状方向(サジタル)可視化平面1387B、および冠状方向(コロナル)可視化平面1387Cを含む。ユーザインタフェースは、また、軸方向(アキシャル)可視化平面1387Aを示す軸方向(アキシャル)ビュー1392を示す。また、図13に示されるように、ユーザインタフェース1390は、制御部1395を含む。
図14Aは、アブレーションゾーンの可視化を含むユーザインタフェースの例示的な実施形態を示す。ユーザインタフェース1490は、第1のランタン1484Aおよび第2のランタン1484Bを含む可視化を提示する。
図14Bは、アブレーションゾーンの可視化を含むユーザインタフェースの例示的な実施形態を示す。ユーザインタフェース1490は、第1のランタン1484A、第2のランタン1484Bおよび画像データ1486を含む合成可視化を提示する。
図15Aは、アブレーションゾーンの可視化を含むユーザインタフェースの例示的な実施形態を示す。ユーザインタフェース1590Aは、ランタン1584A、画像データ1586、シミュレーションされたプローブ1583、カーソル1596、軸方向(アキシャル)可視化平面1587A、矢状方向(サジタル)可視化平面1587B、および冠状方向(コロナル)可視化平面1587Cを示す。ユーザは、カーソル1596を使用してランタン1584Aおよびその対応するアブレーションゾーンを再配置することができる。
図15Bは、アブレーションゾーンの可視化を提示するユーザインタフェースの例示的な実施形態を示す。ユーザインタフェース1590Bは、ランタン1584B、画像データ1586、シミュレーションされたプローブ1583、カーソル1596、軸方向(アキシャル)可視化平面1587A、矢状方向(サジタル)可視化平面1587B、および冠状方向(コロナル)可視化平面1587Cを示す。カーソル1596は、図15Aのランタン1584Aを図15Bの位置に再配置するために使用されるため、図15Bのランタン1584Bは、図15Aのランタン1584Aとは異なる位置を有する。その結果、これらのランタンは、図15Aのランタン1584Aが生成されたときにサンプリングされた画像データが、両方のランタンが同じ画像ボリュームから生成されたとしても、図15Bのランタン1584Bが生成されたときにサンプリングされた画像データの少なくとも一部とは異なるため、異なる外観を有する。
図15Cは、アブレーションゾーンの可視化を含むユーザインタフェースの例示的な実施形態を示す。ユーザインタフェース1590Cは、ランタン1584C、画像データ1586、シミュレーションされたプローブ1583、カーソル1596、軸方向(アキシャル)可視化平面1587A、矢状方向(サジタル)可視化平面1587B、および冠状方向(コロナル)可視化平面1587Cを示す。このランタン1584Cは、図15Bのランタン1584Bとは異なるサイズを有し、その結果、図15Bのランタン1584Bが生成されたときにサンプリングされた画像データの少なくとも一部が、図15Cのランタン1584Cが生成されたときにサンプリングされた画像データとは異なるため、異なる外観を有する。
図15Dは、アブレーションゾーンの可視化を含むユーザインタフェースの例示的な実施形態を示す。ユーザインタフェース1590Dは、ランタン1584D、画像データ1586、カーソル1596、軸方向(アキシャル)可視化平面1587A、矢状方向(サジタル)可視化平面1587B、および冠状方向(コロナル)可視化平面1587Cを示す。このランタン1584Dは、図15Cのランタン1584Cとは異なるサイズおよび異なる位置を有し、その結果、図15Cのランタン1584Cが生成されたときにサンプリングされた画像データの少なくとも一部が、図15Dのランタン1584Dが生成されたときにサンプリングされた画像データとは異なるため、異なる外観を有する。
本実施形態では、軸方向(アキシャル)可視化平面1587A、矢状方向(サジタル)可視化平面1587B、および冠状方向(コロナル)可視化平面1587Cのそれぞれの位置は、図15Cの軸方向(アキシャル)可視化平面1587A、矢状方向(サジタル)可視化平面1587B、および冠状方向(コロナル)可視化平面1587Cのそれぞれの位置とは異なる。その結果、軸方向(アキシャル)可視化平面1587A、矢状方向(サジタル)可視化平面1587B、および冠状方向(コロナル)可視化平面1587Cの外観は、図15C〜Dとは異なる画像データを示すため、図15C〜Dと同じではない。
図16は、アブレーションゾーンをシミュレーションし可視化するためのシステムの例示的な実施形態を示す。システムは、特別に構成された計算デバイスであるシミュレーションデバイス1600、画像キャプチャデバイス1610、および画像サーバ1620を備える。本実施形態では、デバイスは、有線ネットワーク、無線ネットワーク、LAN、WAN、MAN、およびPANを含むことができる1つまたは複数のネットワーク1609によって通信する。また、いくつかの実施形態では、デバイスは他の有線または無線チャネルによって通信する。
シミュレーションデバイス1600は、1つまたは複数のプロセッサ1601、1つまたは複数のI/Oコンポーネント1602、および記憶装置1603を備える。また、シミュレーションデバイス1600のハードウェアコンポーネントは、1つもしくは複数のバスまたは他の電気接続によって通信する。バスの例としては、ユニバーサルシリアルバス(USB)、IEEE1394バス、PCIバス、アクセラレーテッドグラフィックスポート(AGP)バス、シリアルATアタッチメント(SATA)バス、および小型コンピュータ用周辺機器インタフェース(SCSI)バスが挙げられる。
1つまたは複数のプロセッサ1601としては、1つまたは複数の中央演算処理装置(CPU)が挙げられる。CPUとしては、マイクロプロセッサ(例えば、シングルコアマイクロプロセッサ、マルチコアマイクロプロセッサ)、1つまたは複数のグラフィックスプロセッシングユニット(GPU)、1つまたは複数の特定用途向け集積回路(ASIC)、1つまたは複数のフィールドプログラマブルゲートアレイ(FPGA)、1つまたは複数のデジタル信号プロセッサ(DSP)、または他の電子回路(例えば他の集積回路)が挙げられる。I/Oコンポーネント1602としては、入力デバイスおよび出力デバイスと通信する通信コンポーネント(例えばGPU、ネットワークインタフェースコントローラ)が挙げられる。入力デバイスおよび出力デバイスとしては、キーボード、表示デバイス、マウス、印刷デバイス、タッチスクリーン、ライトペン、光記憶デバイス、スキャナ、マイクロホン、ドライブ、コントローラ(例えば、ジョイスティック、制御パッド)、およびネットワーク1609が挙げられる。いくつかの実施形態では、I/Oコンポーネント1602としてはさらに、画像キャプチャデバイス1610と通信する特別に構成された通信コンポーネントが挙げられる。
記憶装置1603としては、1つまたは複数のコンピュータ可読記憶媒体が挙げられる。本明細書で使用する場合、コンピュータ可読記憶媒体は、単なる一時的な伝搬信号自体とは対照的に、製造物品を含むコンピュータ可読媒体、例えば磁気ディスク(例えば、フロッピーディスク、ハードディスク)、光ディスク(例えば、CD、DVD、Blu−ray)、光磁気ディスク、磁気テープ、および半導体メモリ(例えば、不揮発性メモリカード、フラッシュメモリ、ソリッドステートドライブ、SRAM、DRAM、EPROM、EEPROM)を指す。また、本明細書で使用される場合、一時的なコンピュータ可読媒体は、単なる一時的な伝搬信号自体を指し、非一時的なコンピュータ可読媒体は、単なる一時的な伝搬信号自体ではない任意のコンピュータ可読媒体を指す。ROMおよびRAMの両方を含んでもよい記憶装置1603は、コンピュータ可読データまたはコンピュータ実行可能命令を記憶することができる。
シミュレーションデバイス1600は、また、画像取得モジュール1603A、アブレーションシミュレーションモジュール1603B、アブレーションゾーンレンダリングモジュール1603C、可視化レンダリングモジュール1603D、インタフェース生成モジュール1603E、および通信モジュール1603Fを備える。モジュールは、論理、コンピュータ可読データ、またはコンピュータ実行可能命令を含み、ソフトウェア(例えば、アセンブリ、C、C++、C#、Java、BASIC、Perl、Visual Basic)、ハードウェア(例えば、カスタマイズされた回路)、またはソフトウェアおよびハードウェアの組み合わせで実装され得る。いくつかの実施形態では、システム内のデバイスは、追加の、またはより少ないモジュールを含み、モジュールはより少ないモジュールに組み合わされるか、またはモジュールはより多くのモジュールに分割される。モジュールがソフトウェアで実装される場合、ソフトウェアは、記憶装置1603に記憶することができる。
画像取得モジュール1603Aは、実行されたときに、または起動されたときに、シミュレーションデバイス1600に、例えば、図6のブロックB610、図7のブロックB715、または図9のブロックB915に記載のように、画像キャプチャデバイス1610または画像サーバ1620から1つまたは複数の画像ボリュームを取得させる、命令または回路を含む。
アブレーションシミュレーションモジュール1603Bは、実行されたときに、または起動されたときにシミュレーションデバイス1600に、アブレーション処置の時間、アブレーション処置の出力、アブレーションゾーンの形状、およびアブレーションされる物質の組成のうちの1つまたは複数に基づいて、アブレーションゾーンのサイズおよび形状を計算させる命令または回路を含む。いくつかの実施形態では、アブレーションゾーンのサイズおよび形状は、関数によってモデリングされる。また、いくつかの実施形態では、これらの動作は、図6のブロックB600およびB605、図7のブロックB700、B705およびB710、または図9のブロックB900、B905およびB910の動作を含む。
アブレーションゾーンレンダリングモジュール1603Cは、実行されたときに、または起動されたときに、シミュレーションデバイス1600に、サンプリングされた画像データの画像を含め、ランタンを生成することによって、アブレーションゾーン表面にある画像ボリュームの画像データをサンプリングさせる、命令または回路を含む。いくつかの実施形態では、これらの動作は、図6のブロックB615、B620およびB625、図7のブロックB720、B725およびB730、または図9のブロックB920およびB925に記載された動作を含む。
可視化レンダリングモジュール1603Dは、実行されたときに、または起動されたときに、シミュレーションデバイス1600に、例えば、図6のブロックB630およびB635または図7のブロックB735およびB740に記載のように、画像ボリュームの可視化およびランタンを生成させる、命令または回路を含む。
インタフェース生成モジュール1603Eは、実行されたときに、または起動されたときに、シミュレーションデバイス1600に、メニューを生成させ、メニューからコマンドを受信させる、命令または回路を含む。
通信モジュール1603Fは、実行されたときに、または起動されたときに、シミュレーションデバイス1600に、1つまたは複数の他のデバイス、例えば、画像キャプチャデバイス1610および画像サーバ1620と通信させる、命令または回路を含む。
画像キャプチャデバイス1610は、1つまたは複数のプロセッサ1611、1つまたは複数のI/Oコンポーネント1612、記憶装置1613、通信モジュール1613A、および画像キャプチャアセンブリ1614を備える。画像キャプチャアセンブリ1614は、1つまたは複数の画像センサ、1つまたは複数のレンズ、およびアパーチャを含む。通信モジュール1613Aは、実行されたときに、または起動されたときに、画像キャプチャデバイス1610に、画像をキャプチャさせ、要求デバイスによる画像に対する要求を受信させ、記憶装置1613から要求された画像を検索させ、または検索された画像を要求デバイス(例えばシミュレーションデバイス1600)に送信させる、命令または回路を含む。
画像サーバ1620は、1つまたは複数のプロセッサ1621、1つまたは複数のI/Oコンポーネント1622、および記憶装置1623を備える。記憶装置は、画像を記憶する画像リポジトリ1623Aおよび通信モジュール1623Bを備える。通信モジュール1623Bは、実行されたときに、または起動されたときに、画像サーバ1620に、要求デバイスによる画像に対する要求を受信させ、画像リポジトリ1623Aから要求された画像を検索させ、または検索された画像を要求デバイス(例えばシミュレーションデバイス1600)に送信させる、命令または回路を含む。
上記のデバイス、システムおよび方法の少なくとも一部は、少なくとも部分的には、コンピュータ実行可能命令を読み取り、実行するように構成された1つまたは複数の計算装置に対する上記の動作を実現するためのコンピュータ実行可能命令を含む、1つまたは複数のコンピュータ可読媒体を提供することによって実施可能である。システムまたはデバイスは、コンピュータ実行可能命令を実行するときに上述の実施形態の動作を実行する。また、1つまたは複数のシステムまたはデバイスのオペレーティングシステムは、上記の実施形態の動作の少なくとも一部を実施することができる。
さらに、いくつかの実施形態は、上述のデバイス、システムおよび方法を実施するために1つまたは複数の関数ユニットを使用する。関数ユニットは、ハードウェアのみ(例えば、カスタマイズされた回路)に、またはソフトウェアおよびハードウェアの組み合わせ(例えば、ソフトウェアを実行するマイクロプロセッサ)に実装することができる。
特許請求の範囲は、上述した実施形態に限定されるものではなく、さまざまな変形例および等価構成を含む。また、本明細書で使用される場合、接続詞「または」は、包括的な「または」を一般的に指すが、「または」は、明示的に示される場合または文脈が「または」が排他的な「または」でなければならないことを示す場合、排他的な「または」を指すことができる。

Claims (29)

  1. 1つまたは複数のプロセッサを備えるデバイスであって、前記1つまたは複数のプロセッサは、
    画像ボリュームを取得し、
    表面の形状、表面のサイズ、および前記画像ボリューム内の表面の位置を含む表面の記述を取得し、
    サンプリングされた表面画像データが生成されるように、前記表面上で、または前記表面から前記形状内の別の所定の点まで投影された光線に沿って、前記画像ボリュームをサンプリングし、
    1つまたは複数のランタンを定義する前記サンプリングされた表面画像データの可視化画像を生成し、前記1つまたは複数のランタンの各々は、前記画像ボリュームの又は前記画像ボリューム内のそれぞれの目標ゾーンの表面の可視化画像であり、前記それぞれの目標ゾーンは、医療処置によって影響され得るボリュームであり、
    前記デバイスのディスプレイ上に、(i)前記1つまたは複数のランタンが前記画像ボリューム上にオーバレイされ、かつ(ii)前記1つまたは複数のランタンの各々が、その表面に、前記それぞれの目標ゾーンの表面にマッピングし表示するそれぞれの画像を含むように、前記1つまたは複数のランタンを表示する
    ように動作する、デバイス。
  2. 前記1つまたは複数のプロセッサは、
    前記サンプリングされた表面画像データの前記可視化画像に含まれない、前記画像ボリュームの一部の可視化を生成するようにさらに動作する、請求項1に記載のデバイス。
  3. 前記1つまたは複数のプロセッサは、
    前記サンプリングされた表面画像データの前記可視化画像を含み、かつ前記サンプリングされた表面画像データの前記可視化画像に含まれない前記画像ボリュームの一部の可視化画像を含むインタフェースを生成するようにさらに動作する、請求項2に記載のデバイス。
  4. (i)前記表面の前記記述は、1つまたは複数の関数を含むこと、
    (ii)前記1つまたは複数の関数は、前記1つまたは複数のランタンが前記1つまたは複数の関数から生成されるように、前記それぞれの目標ゾーンをモデリングすること、
    (iii)前記1つまたは複数の関数は、前記それぞれの目標ゾーンをアブレーションゾーンとしてモデリングすること、
    (iv)前記記述を有する前記サンプリングされた表面は、前記1つまたは複数の関数の表面であること、および/または、
    (v)前記1つまたは複数の関数が第1の関数および第2の関数を含み、前記第1の関数と前記第2の関数が重複する場合、前記第1の関数および前記第2の関数は、単一の表面へとマージされ、かつ/または、前記サンプリングされた表面を定義するようにマージされること、
    のうちの1つまたは複数である、請求項1に記載のデバイス。
  5. 前記1つまたは複数のプロセッサは、
    前記画像ボリューム内の異なる位置、異なる形状、または異なるサイズを有する修正された表面を取得し、
    少なくとも一部が前記サンプリングされた表面画像データとは異なる修正されたサンプリングされた表面画像データが生成されるように、前記修正された表面上で、または前記修正された表面から前記形状内の別の所定の点まで投影された光線に沿って、前記画像ボリュームをサンプリングし、
    前記修正されたサンプリングされた表面画像データの可視化画像を生成する
    ようにさらに動作する、請求項1に記載のデバイス。
  6. 前記1つまたは複数のプロセッサは、
    (i)前記取得された画像ボリューム、前記サンプリングされた表面画像データおよび/または前記生成された可視化画像を使用して、前記画像ボリューム、前記サンプリングされた表面画像データおよび/または前記生成された可視化画像の各ボクセルが、1つまたは複数の定義された解剖学的構造の一部であるか否かをラベル付けするセグメンテーションマップを生成すること、ならびに/または、
    (ii)前記生成された可視化画像に前記セグメンテーションマップをオーバレイするか、または、前記画像ボリューム、前記サンプリングされた表面画像データおよび/または前記生成された可視化画像をマスキングするために前記セグメンテーションマップを用いること
    のうちの1つまたは複数を行うようにさらに動作する、請求項1に記載のデバイス。
  7. 前記1つまたは複数のプロセッサは、
    (i)前記生成された可視化画像を用いて、前記生成された可視化画像によって定義されるランタンを表示すること、
    (ii)前記ランタンの表面から前記ランタンの領域内の点までの光線に沿った画像ボリュームデータ点に関数を適用することによって、1つまたは複数の値を計算すること、
    (iii)前記ランタンの前記表面から前記ランタンの前記領域内の別の点までの前記光線に沿った画像ボリュームデータ点に前記関数を適用することによって、1つまたは複数の値を計算することであって、前記ランタンの前記別の点は、前記ランタンの中心、前記ランタンの別の表面点、および前記ランタンの前記可視化画像において前記デバイスのユーザによって選択される前記ランタン内の点のうちの1つである、計算すること、
    (iv)前記画像ボリュームデータ点の最大値、前記画像ボリュームデータ点の平均値および前記画像ボリュームデータ点の最小値のうちの1つを前記関数を適用することによって計算された前記1つまたは複数の値として使用すること、ならびに/または、
    (v)前記ランタンの前記表面上で交わるかまたは前記表面から前記ランタンの前記領域内の前記別の点までの光線に沿って延びる1つまたは複数のセグメンテーションマップに関する値を前記ランタンと一緒に表示することにより、前記値が、セグメント化された解剖学的領域が前記ランタンの前記領域内の前記画像ボリュームデータに含まれるか、または前記ランタンの前記表面から一定の距離に含まれるかどうかを示すこと
    のうちの1つまたは複数を行うようにさらに動作する、請求項1に記載のデバイス。
  8. 前記1つまたは複数のプロセッサは、
    (i)前記デバイスのユーザが、表示された前記ランタンの表面位置上にポインタを配置したときに、前記可視化画像から前記ランタンの表面点を自動的に選択すること、
    (ii)前記1つまたは複数の値が、前記ランタンの前記表面で画像ボリュームデータ点に前記関数を適用することによって計算される場合、前記ランタンの前記選択された表面点に対応する可視化平面を選択すること、または前記1つまたは複数の値が、前記ランタン表面から前記ランタンの前記領域内の前記別の点までの前記光線に沿った画像ボリュームデータ点に前記関数を適用することによって計算される場合、前記適用される関数に基づく、前記光線に沿った代表値の位置に基づき、可視化平面を選択すること、
    (iii)選択された前記可視化平面に交わる平面における前記ランタンの単一の画像スライスまたは画像スライスのスタックの投影として、前記可視化平面を表示すること、および/または、
    (iv)前記画像ボリュームまたは前記ランタンの前記領域を自動的に調整し、前記デバイスの前記ユーザが前記ランタンの前記領域の1つまたは複数の内容を時間の経過とともに見ることができるように、0から設定された最大へと徐々に変更すること
    のうちの1つまたは複数を行うようにさらに動作する、請求項7に記載のデバイス。
  9. 画像スタックで構成される画像ボリュームを取得することと、
    第1のサンプリングされた表面画像データが生成されるように、第1の表面上で、または前記第1の表面から前記画像ボリューム内もしくは前記第1の表面の形状内の別の所定の点まで投影される光線に沿って、前記画像ボリュームをサンプリングすることと、
    1つまたは複数のランタンを定義する、前記第1のサンプリングされた表面画像データの可視化画像を生成することであって、前記1つまたは複数のランタンの各々は、前記画像ボリュームの又は前記画像ボリューム内のそれぞれの目標ゾーンの表面の可視化画像であり、前記それぞれの目標ゾーンは、医療処置によって影響され得るボリュームであることと、
    ディスプレイ上に、(i)前記1つまたは複数のランタンが前記画像ボリューム上にオーバレイされ、かつ(ii)前記1つまたは複数のランタンの各々が、その表面に、前記それぞれの目標ゾーンの表面にマッピングし表示するそれぞれの画像を含むように、前記1つまたは複数のランタンを表示することと、
    を含む方法。
  10. 第2のサンプリングされた表面画像データが生成されるように、前記第1の表面とは異なるサイズ、前記第1の表面とは異なる形状または前記第1の表面とは異なる位置を有する第2の表面上で、または前記第2の表面から前記画像ボリューム内もしくは前記第2の表面の前記異なるサイズ内の別の所定の点まで投影される光線に沿って、前記画像ボリュームをサンプリングすることと、
    1つまたは複数の他のランタンを定義する、前記第2のサンプリングされた表面画像データの可視化画像を生成することであって、前記1つまたは複数の他のランタンの各々は、前記画像ボリュームの又は前記画像ボリューム内のそれぞれの他の目標ゾーンの表面の可視化画像であり、前記それぞれの他の目標ゾーンは、医療処置によって影響され得るボリュームであることと、
    前記ディスプレイ上に、(i)前記1つまたは複数の他のランタンが前記画像ボリューム上にオーバレイされ、かつ(ii)前記1つまたは複数の他のランタンの各々が、その表面に、前記それぞれの他の目標ゾーンの表面にマッピングし表示するそれぞれの画像を含むように、前記1つまたは複数の他のランタンを表示することと、
    をさらに含む、請求項9に記載の方法。
  11. 前記第1のサンプリングされた表面画像データの前記可視化画像を含み、かつ前記第2のサンプリングされた表面画像データの前記可視化画像を含むインタフェースを前記ディスプレイ上に生成すること
    をさらに含む、請求項10に記載の方法。
  12. (i)前記インタフェースは、前記ディスプレイ上に軸方向画像平面、矢状方向画像平面および冠状方向画像平面をさらに含むこと、(ii)前記インタフェースは、前記ディスプレイ上に画像をさらに含み、前記画像は、前記画像ボリュームを通してまたは前記画像ボリューム内で互いに交わる前記軸方向画像平面、前記矢状方向画像平面および前記冠状方向画像平面を有すること、(iii)前記インタフェースは、シミュレーションされたプローブ、前記1つまたは複数のランタンおよび/もしくは前記1つまたは複数の他のランタンのうちの1つまたは複数を示すランタン表示領域をさらに含むこと、ならびに/または、(iv)前記それぞれの目標ゾーンはアブレーションゾーンであること、のうちの1つまたは複数である、請求項11に記載の方法。
  13. 前記第1の表面における前記画像ボリュームの前記サンプリングは、(i)前記画像ボリュームおよび前記第1の表面に基づいて画像データを補間することであって、前記補間された画像データは、前記第1のサンプリングされた表面画像データに含まれること、および/または、(ii)前記第1の表面が前記画像ボリューム内のデータ点に近くない領域において、前記第1の表面上に又は前記第1の表面に沿って配置されたデータ点を含むように、前記画像データを補間すること、のうちの1つまたは複数を含む、請求項9に記載の方法。
  14. (i)前記取得された画像ボリューム、前記サンプリングされた第1の表面画像データおよび/または前記生成された可視化画像を使用して、前記画像ボリューム、前記サンプリングされた第1の表面画像データおよび/または前記生成された可視化画像の各ボクセルが、1つまたは複数の定義された解剖学的構造の一部であるか否かをラベル付けするセグメンテーションマップを生成すること、ならびに/または、
    (ii)前記生成された可視化画像に前記セグメンテーションマップをオーバレイするか、または、前記画像ボリューム、前記サンプリングされた第1の表面画像データおよび/または前記生成された可視化画像をマスキングするために前記セグメンテーションマップを用いること
    のうちの1つまたは複数をさらに含む、請求項9に記載の方法。
  15. (i)前記生成された可視化画像を用いて、前記生成された可視化画像によって定義されるランタンを表示すること、
    (ii)前記ランタンの表面から前記ランタンの領域内の点までの光線に沿った画像ボリュームデータ点に関数を適用することによって、1つまたは複数の値を計算すること、
    (iii)前記ランタンの前記表面から前記ランタンの前記領域内の別の点までの前記光線に沿った画像ボリュームデータ点に前記関数を適用することによって、1つまたは複数の値を計算することであって、前記ランタンの前記別の点は、前記ランタンの中心、前記ランタンの別の表面点、および前記ランタンの前記可視化画像においてユーザによって選択される前記ランタン内の点のうちの1つである、計算すること、
    (iv)前記画像ボリュームデータ点の最大値、前記画像ボリュームデータ点の平均値および前記画像ボリュームデータ点の最小値のうちの1つを前記関数を適用することによって計算された前記1つまたは複数の値として使用すること、ならびに/または、
    (v)前記ランタンの前記表面上で交わるかまたは前記表面から前記ランタンの前記領域内の前記別の点までの光線に沿って延びる1つまたは複数のセグメンテーションマップに関する値を前記ランタンと一緒に表示することにより、前記値が、セグメント化された解剖学的領域が前記ランタンの前記領域内の前記画像ボリュームデータに含まれるか、または前記ランタンの前記表面から一定の距離に含まれるかどうかを示すこと
    のうちの1つまたは複数をさらに含む、請求項9に記載の方法。
  16. (i)前記ディスプレイのユーザが、表示された前記ランタンの表面位置上にポインタを配置したときに、前記可視化画像から前記ランタンの表面点を自動的に選択すること、
    (ii)前記1つまたは複数の値が、前記ランタンの前記表面で画像ボリュームデータ点に前記関数を適用することによって計算される場合、前記ランタンの前記選択された表面点に対応する可視化平面を選択すること、または前記1つまたは複数の値が、前記ランタン表面から前記ランタンの前記領域内の前記別の点までの前記光線に沿った画像ボリュームデータ点に前記関数を適用することによって計算される場合、前記適用される関数に基づく、前記光線に沿った代表値の位置に基づき、可視化平面を選択すること、
    (iii)選択された前記可視化平面に交わる平面における前記ランタンの単一の画像スライスまたは画像スライスのスタックの投影として、前記可視化平面を表示すること、および/または、
    (iv)前記画像ボリュームまたは前記ランタンの前記領域を自動的に調整し、前記ディスプレイの前記ユーザが前記ランタンの前記領域の1つまたは複数の内容を時間の経過とともに見ることができるように、0から設定された最大へと徐々に変更すること
    のうちの1つまたは複数をさらに含む、請求項15に記載の方法。
  17. 1つまたは複数のプロセッサによって実行されたときに、前記1つまたは複数のプロセッサに、
    画像スタックで構成される画像ボリュームを取得することと、
    対応する目標ゾーンをモデリングする第1の表面を記述する情報を取得することと、
    第1のサンプリングされた表面画像データが生成されるように、前記第1の表面上で、または前記第1の表面から前記画像ボリューム内もしくは前記第1の表面の形状内の別の所定の点まで投影される光線に沿って、前記画像ボリュームをサンプリングすることと、
    1つまたは複数のランタンを定義する、前記第1のサンプリングされた表面画像データの画像を生成することであって、前記1つまたは複数のランタンの各々は、前記画像ボリュームの又は前記画像ボリューム内のそれぞれの目標ゾーンの表面の可視化画像であり、前記それぞれの目標ゾーンは、医療処置によって影響され得るボリュームであることと、
    ディスプレイ上に、(i)前記1つまたは複数のランタンが前記画像ボリューム上にオーバレイされ、かつ(ii)前記1つまたは複数のランタンの各々が、その表面に、前記それぞれの目標ゾーンの表面にマッピングし表示するそれぞれの画像を含むように、前記1つまたは複数のランタンを表示することと、
    を含む方法を実行させる命令を記憶する、1つまたは複数のコンピュータ可読記憶媒体。
  18. 前記方法は、さらに、
    前記目標ゾーンに対応する医療処置のための新しい設定を取得することと、
    修正された第1の表面が生成されるように、前記新しい設定に基づいて前記第1の表面を修正することと、
    修正された第1のサンプリングされた表面画像データが生成されるように、前記修正された第1の表面上で、または前記修正された第1の表面から前記画像ボリューム内もしくは前記第1の表面の形状内の別の所定の点まで投影される光線に沿って、前記画像ボリュームをサンプリングすることであって、前記修正された第1のサンプリングされた表面画像データの少なくとも一部は、前記第1のサンプリングされた表面画像データとは異なる、サンプリングすることと、
    前記修正された第1のサンプリングされた表面画像データの画像を生成して、(i)1つまたは複数の修正されたランタンが前記画像ボリューム上にオーバレイされ、かつ(ii)前記1つまたは複数の修正されたランタンの各々が、その表面に、前記それぞれの目標ゾーンの表面にマッピングし表示するそれぞれの画像を含むように、前記1つまたは複数の修正されたランタンを表示することと、
    を含む、請求項17に記載の1つまたは複数のコンピュータ可読記憶媒体。
  19. 前記方法は、さらに、
    対応する他の目標ゾーンをモデリングする第2の表面を記述する情報を取得することと、
    第2のサンプリングされた表面画像データが生成されるように、前記第2の表面上で、または前記第2の表面から前記画像ボリューム内もしくは前記第2の表面の形状内の別の所定の点まで投影される光線に沿って、前記画像ボリュームをサンプリングすることと、
    1つまたは複数の他のランタンを定義する、前記第2のサンプリングされた表面画像データの画像を生成することであって、前記1つまたは複数の他のランタンの各々は、前記画像ボリュームの又は前記画像ボリューム内のそれぞれの他の目標ゾーンの表面の可視化画像であり、前記それぞれの他の目標ゾーンは、医療処置によって影響され得るボリュームであることと、
    前記ディスプレイ上に、(i)前記1つまたは複数の他のランタンが前記画像ボリューム上にオーバレイされ、かつ(ii)前記1つまたは複数のランタンの各々が、その表面に、前記それぞれの他の目標ゾーンの表面にマッピングし表示するそれぞれの画像を含むように、前記1つまたは複数の他のランタンを表示することと、
    を含む、請求項17に記載の1つまたは複数のコンピュータ可読記憶媒体。
  20. (i)前記第1の表面は、球形または楕円形の形状を有すること、および/または、
    (ii)前記対応する目標ゾーンはアブレーションゾーンであること、のうちの1つまたは複数である、請求項17に記載の1つまたは複数のコンピュータ可読記憶媒体。
  21. 前記方法は、さらに、
    前記第1のサンプリングされた表面画像データの前記画像を含むインタフェースを生成することを含む、請求項17に記載の1つまたは複数のコンピュータ可読記憶媒体。
  22. 前記インタフェースは、さらに、前記第1のサンプリングされた表面画像データの前記画像に含まれない、前記画像ボリュームの少なくとも一部の画像を表示する、請求項21に記載の1つまたは複数のコンピュータ可読記憶媒体。
  23. 前記方法は、さらに、
    (i)前記取得された画像ボリューム、前記サンプリングされた第1の表面画像データおよび/または前記生成された画像を使用して、前記画像ボリューム、前記サンプリングされた第1の表面画像データおよび/または前記生成された画像の各ボクセルが、1つまたは複数の定義された解剖学的構造の一部であるか否かをラベル付けするセグメンテーションマップを生成すること、ならびに/または、
    (ii)前記生成された画像に前記セグメンテーションマップをオーバレイするか、または前記画像ボリューム、前記サンプリングされた第1の表面画像データおよび/または前記生成された画像をマスキングするために前記セグメンテーションマップを用いること
    のうちの1つまたは複数を含む、請求項17に記載の1つまたは複数のコンピュータ可読記憶媒体。
  24. 前記方法は、さらに、
    (i)前記生成された画像を用いて、前記生成された画像によって定義されるランタンを表示すること、
    (ii)前記第1のサンプリングされた表面画像データの、前記ランタンの表面から前記ランタンの領域内の点までの光線に沿った画像ボリュームデータ点に関数を適用することによって、1つまたは複数の値を計算すること、
    (iii)前記第1のサンプリングされた表面画像データの、前記ランタンの前記表面から前記ランタンの前記領域内の別の点までの前記光線に沿った前記画像ボリュームデータ点に前記関数を適用することによって、1つまたは複数の値を計算することであって、前記ランタンの前記別の点は、前記ランタンの中心、前記ランタンの別の表面点、および前記ランタンの前記可視化画像において前記ディスプレイのユーザによって選択される前記ランタン内の点のうちの1つである、計算すること、
    (iv)前記第1のサンプリングされた表面画像データの前記画像ボリュームデータ点の最大値、前記第1のサンプリングされた表面画像データの前記画像ボリュームデータ点の平均値、および前記第1のサンプリングされた表面画像データの前記画像ボリュームデータ点の最小値のうちの1つを前記関数を適用することによって計算された前記1つまたは複数の値として使用すること、ならびに/または、
    (v)前記ランタンの前記表面上で交わるかまたは前記表面から前記ランタンの前記領域内の別の点までの光線に沿って延びる1つまたは複数のセグメンテーションマップに関する値を前記ランタンと一緒に表示することにより、前記値が、セグメント化された解剖学的領域が前記画像ボリュームデータ点に含まれるか、または前記ランタンの前記表面から一定の距離に含まれるかどうかを示すこと
    のうちの1つまたは複数を含む、請求項17に記載の1つまたは複数のコンピュータ可読記憶媒体。
  25. 前記方法は、さらに、
    (i)前記ディスプレイのユーザが、表示された前記ランタンの表面位置上にポインタを配置したときに、生成された前記画像から前記ランタンの表面点を自動的に選択すること、
    (ii)前記1つまたは複数の値が、前記ランタンの前記表面で前記画像ボリュームに前記関数を適用することによって計算される場合、前記ランタンの前記選択された表面点に対応する可視化平面を選択すること、または前記1つまたは複数の値が、前記ランタン表面から前記ランタンの前記領域内の前記別の点までの前記光線に沿った前記画像ボリュームデータ点に前記関数を適用することによって計算される場合、前記適用される関数に基づく、前記光線に沿った代表値の位置に基づき、可視化平面を選択すること、
    (iii)選択された前記可視化平面に交わる平面における前記ランタンの単一の画像スライスまたは画像スライスのスタックの投影として、前記可視化平面を表示すること、および/または、
    (iv)前記画像ボリュームまたは前記ランタンの前記領域を自動的に調整し、前記ディスプレイの前記ユーザが前記ランタンの前記領域の1つまたは複数の内容を時間の経過とともに見ることができるように、0から設定された最大へと徐々に変更すること
    のうちの1つまたは複数を含む、請求項24に記載の1つまたは複数のコンピュータ可読記憶媒体。
  26. 前記1つまたは複数のプロセッサは、さらに、前記ディスプレイ上のカーソルを用いて、前記1つまたは複数のランタンの位置、形状および/またはサイズを変更するように動作する、請求項1に記載のデバイス。
  27. (i)前記1つまたは複数のランタン上の前記それぞれの画像は、前記画像ボリュームから切り取られたかまたは除去されたそれぞれの部分の外観をシミュレーションまたは表示すること、
    (ii)前記1つまたは複数のランタン上の前記それぞれの画像は、前記オーバレイされた1つまたは複数のランタンの下に位置する、前記画像ボリュームの前記それぞれの部分を表示すること、
    (iii)前記1つまたは複数のランタン上の前記それぞれの画像は、前記それぞれの目標ゾーンと交わる1つまたは複数の特徴を表示すること、および/または、
    (iv)前記1つまたは複数のランタン上の前記それぞれの画像は、前記医療処置の計画および/または実行に用いられること、
    のうちの1つまたは複数である、請求項1に記載のデバイス。
  28. 前記1つまたは複数のランタンは、前記サンプリングされた表面画像データに加えて、1つまたは複数のカラーマップに基づいて生成される、請求項1に記載のデバイス。
  29. (i)前記インタフェースは、前記シミュレーションされたプローブの軌跡を表示するように動作すること、
    (ii)前記インタフェースは、前記軌跡の入口点および目標点を定義するための入力を可能にするように動作すること、
    (iii)前記入口点および前記目標点は、前記シミュレーションされたプローブの前記軌跡を定義するように機能すること、
    (iv)前記インタフェースは、前記軌跡の代わりに前記シミュレーションされたプローブを表示するように動作すること、および/または、
    (v)前記インタフェースは、前記軸方向画像平面において、かつ/または、前記画像ボリュームを通してまたは前記画像ボリューム内で互いに交わる前記軸方向画像平面、前記矢状方向画像平面および前記冠状方向画像平面を有する前記画像において、前記軌跡および/または前記シミュレーションされたプローブを表示するように動作すること、
    のうちの1つまたは複数である、請求項12に記載の方法。
JP2018218090A 2017-11-22 2018-11-21 アブレーションゾーンのシミュレーションおよび可視化のためのデバイス、システムおよび方法 Active JP6886448B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201762590229P 2017-11-22 2017-11-22
US62/590,229 2017-11-22
US15/897,973 2018-02-15
US15/897,973 US10751128B2 (en) 2017-11-22 2018-02-15 Devices, systems, and methods for ablation-zone simulation and visualization

Publications (2)

Publication Number Publication Date
JP2019122756A JP2019122756A (ja) 2019-07-25
JP6886448B2 true JP6886448B2 (ja) 2021-06-16

Family

ID=64453291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018218090A Active JP6886448B2 (ja) 2017-11-22 2018-11-21 アブレーションゾーンのシミュレーションおよび可視化のためのデバイス、システムおよび方法

Country Status (3)

Country Link
US (1) US10751128B2 (ja)
EP (1) EP3499467A3 (ja)
JP (1) JP6886448B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10918441B2 (en) 2017-11-22 2021-02-16 Canon U.S.A., Inc. Devices, systems, and methods for ablation-zone simulation and visualization
US11786307B2 (en) 2018-10-19 2023-10-17 Canon U.S.A., Inc. Visualization and manipulation of results from a device-to-image registration algorithm
US11707259B2 (en) 2018-10-19 2023-07-25 Canon U.S.A., Inc. Wireless needle guidance using encoder sensor and encoder scale to achieve positional sensing between movable components
US11344371B2 (en) 2018-10-19 2022-05-31 Canon U.S.A., Inc. Visualization of three-dimensional image data on a two-dimensional image
US11031118B2 (en) * 2019-08-12 2021-06-08 Biosense Webster (Israel) Ltd. Mixed electroanatomical map coloring tool having draggable geodesic overlay

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8102392B2 (en) 2003-06-27 2012-01-24 Kabushiki Kaisha Toshiba Image processing/displaying apparatus having free moving control unit and limited moving control unit and method of controlling the same
US9622813B2 (en) 2007-11-01 2017-04-18 Covidien Lp Method for volume determination and geometric reconstruction
CN102982716B (zh) 2008-03-28 2015-01-21 泰尔茂株式会社 生物体组织立体模型及其制造方法
US9144461B2 (en) 2008-12-03 2015-09-29 Koninklijke Philips N.V. Feedback system for integrating interventional planning and navigation
US8554307B2 (en) 2010-04-12 2013-10-08 Inneroptic Technology, Inc. Image annotation in image-guided medical procedures
EP2440130A4 (en) * 2009-06-08 2015-06-03 Mri Interventions Inc MRI GUIDED SURGICAL SYSTEMS WITH PROXIMITY ALERTS
WO2011001299A1 (en) * 2009-06-29 2011-01-06 Koninklijke Philips Electronics, N.V. Tumor ablation training system
EP2293247B1 (en) 2009-07-29 2012-09-05 Harman Becker Automotive Systems GmbH Edge detection with adaptive threshold
JP5610761B2 (ja) 2009-12-16 2014-10-22 キヤノン株式会社 X線画像処理装置、x線画像処理システム、x線画像処理方法、及びコンピュータプログラム
US9424680B2 (en) 2010-04-16 2016-08-23 Koninklijke Philips N.V. Image data reformatting
US8571314B2 (en) 2010-09-02 2013-10-29 Samsung Electronics Co., Ltd. Three-dimensional display system with depth map mechanism and method of operation thereof
CN103209653B (zh) 2010-11-18 2017-04-26 皇家飞利浦电子股份有限公司 用于概率消融规划的系统
WO2013014648A1 (en) 2011-07-28 2013-01-31 Koninklijke Philips Electronics N.V. Ablation planning system
EP2562717B1 (en) 2011-08-25 2014-06-18 Samsung Electronics Co., Ltd. Three-dimensional display system with depth map mechanism and method of operation thereof
EP2744438B1 (en) 2011-09-13 2015-04-22 Koninklijke Philips N.V. Ablation planning with lesion coverage feedback
US8670816B2 (en) 2012-01-30 2014-03-11 Inneroptic Technology, Inc. Multiple medical device guidance
RU2541353C2 (ru) 2013-06-19 2015-02-10 Общество с ограниченной ответственностью "Аби Девелопмент" Автоматическая съемка документа с заданными пропорциями
JP6513669B2 (ja) 2013-08-13 2019-05-15 ボストン サイエンティフィック サイムド,インコーポレイテッドBoston Scientific Scimed,Inc. 解剖学的アイテムのコンピュータによる視覚化
CA2943030A1 (en) 2014-03-22 2015-10-01 Endocare, Inc. System and methods for ablation treatment planning and intraoperative position updates of ablation devices
JP6334735B2 (ja) 2014-05-06 2018-05-30 ナント・ホールデイングス・アイ・ピー・エル・エル・シー エッジベクトルを利用した画像特徴検出
US10643371B2 (en) 2014-08-11 2020-05-05 Covidien Lp Treatment procedure planning system and method
JP2018509231A (ja) 2015-03-26 2018-04-05 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. コア腫瘍、マージン、及び健康組織の範囲を含む腫瘍焼灼治療計画のためのシステム及び方法
US10102654B1 (en) * 2015-07-28 2018-10-16 Cascade Technologies, Inc. System and method for a scalable interactive image-based visualization environment of computational model surfaces
US10565774B2 (en) * 2015-09-03 2020-02-18 Siemens Healthcare Gmbh Visualization of surface-volume hybrid models in medical imaging
WO2018092059A1 (en) * 2016-11-16 2018-05-24 Navix International Limited Tissue model dynamic visual rendering
US10709507B2 (en) * 2016-11-16 2020-07-14 Navix International Limited Real-time display of treatment-related tissue changes using virtual material

Also Published As

Publication number Publication date
EP3499467A2 (en) 2019-06-19
US20190151023A1 (en) 2019-05-23
US10751128B2 (en) 2020-08-25
JP2019122756A (ja) 2019-07-25
EP3499467A3 (en) 2019-12-04

Similar Documents

Publication Publication Date Title
JP6886448B2 (ja) アブレーションゾーンのシミュレーションおよび可視化のためのデバイス、システムおよび方法
US11547499B2 (en) Dynamic and interactive navigation in a surgical environment
US9965838B2 (en) Caliper for measuring objects in an image
US10380787B2 (en) Method and system for indicating light direction for a volume-rendered image
JP4541434B2 (ja) 画像処理装置及び画像処理プログラム
Burns et al. Feature emphasis and contextual cutaways for multimodal medical visualization.
JP6560745B2 (ja) 生体構造のボリュメトリック画像を視覚化すること
US20080084415A1 (en) Orientation of 3-dimensional displays as a function of the regions to be examined
CN109427059A (zh) 解剖结构的平面可视化
CN113645896A (zh) 手术计划、手术导航和成像用系统
Hachaj et al. Visualization of perfusion abnormalities with GPU-based volume rendering
US20210233330A1 (en) Virtual or Augmented Reality Aided 3D Visualization and Marking System
US10918441B2 (en) Devices, systems, and methods for ablation-zone simulation and visualization
JP6114266B2 (ja) 画像をズームするシステム及び方法
WO2024037109A1 (zh) 显示方法、装置、设备和存储介质
US10548570B2 (en) Medical image navigation system
EP3637374A1 (en) Method and system for visualising a spatial surface curvature of a 3d-object, computer program product, and computer-readable storage medium
Williams A method for viewing and interacting with medical volumes in virtual reality
Montilla et al. Computer assisted planning using dependent texture mapping and multiple rendering projections in medical applications
CN111724388B (zh) 医学图像数据的可视化
EP4160543A1 (en) Method for analysing 3d medical image data, computer program and 3d medical image data evaluation device
Fong et al. Development of a virtual reality system for Hepatocellular Carcinoma pre-surgical planning
Lagos et al. Fast Contextual View Generation in 3D Medical Images Using a 3D Widget User Interface and Super-Ellipsoids
WO2023175001A1 (en) Method for displaying a 3d model of a patient
Shukla et al. Integrating images from a moveable tracked display of three-dimensional data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210514

R150 Certificate of patent or registration of utility model

Ref document number: 6886448

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250