JP2012019964A - 医用情報提示装置 - Google Patents
医用情報提示装置 Download PDFInfo
- Publication number
- JP2012019964A JP2012019964A JP2010160220A JP2010160220A JP2012019964A JP 2012019964 A JP2012019964 A JP 2012019964A JP 2010160220 A JP2010160220 A JP 2010160220A JP 2010160220 A JP2010160220 A JP 2010160220A JP 2012019964 A JP2012019964 A JP 2012019964A
- Authority
- JP
- Japan
- Prior art keywords
- route
- medical information
- image
- information presentation
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000001514 detection method Methods 0.000 claims abstract description 7
- 238000012545 processing Methods 0.000 claims description 27
- 239000007787 solid Substances 0.000 claims description 12
- 238000001356 surgical procedure Methods 0.000 claims description 9
- 238000003780 insertion Methods 0.000 abstract description 12
- 230000037431 insertion Effects 0.000 abstract description 12
- 230000037361 pathway Effects 0.000 abstract 3
- 238000004364 calculation method Methods 0.000 description 34
- 238000000034 method Methods 0.000 description 32
- 239000003550 marker Substances 0.000 description 21
- 238000002372 labelling Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 14
- 238000006243 chemical reaction Methods 0.000 description 10
- 239000011159 matrix material Substances 0.000 description 10
- 238000000926 separation method Methods 0.000 description 9
- 238000004040 coloring Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 206010028980 Neoplasm Diseases 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 210000004204 blood vessel Anatomy 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000007428 craniotomy Methods 0.000 description 2
- 230000005389 magnetism Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 238000002599 functional magnetic resonance imaging Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
Abstract
【課題】術経路の3次元モデル上での直感的な把握を促す医用情報提示装置を提供する。
【解決手段】位置指定機器、第1処理部、第2処理部、及び、表示部を有する。位置指定機器は、把持可能に構成され、空間的に位置関係または方向の少なくとも一方を検出する。第1処理部は、位置指定機器の検出結果に基づいて、3次元立体モデル表面の投入位置を求める。第2処理部は、第1処理部により求められた投入位置から3次元立体モデル内部に設けられた目標位置までの術経路を求める。表示部は、術経路を表示する。
【選択図】図1
【解決手段】位置指定機器、第1処理部、第2処理部、及び、表示部を有する。位置指定機器は、把持可能に構成され、空間的に位置関係または方向の少なくとも一方を検出する。第1処理部は、位置指定機器の検出結果に基づいて、3次元立体モデル表面の投入位置を求める。第2処理部は、第1処理部により求められた投入位置から3次元立体モデル内部に設けられた目標位置までの術経路を求める。表示部は、術経路を表示する。
【選択図】図1
Description
この発明は、医用画像診断装置によって取得された対象物の3次元画像データに対応して形成された3次元立体モデルを用いて、手術を支援する医用情報提示装置に関する。
3次元立体モデル(以下、「RPモデル」という。)は、X線CT装置、MR装置、または、陽電子断層撮影装置(PET)などの医用画像診断装置で撮像された医用画像(形体画像及び機能画像)から作成される。
従来の医用情報提示装置は、例えば、脳外科手術の術前計画において、RPモデルを用いて開頭位置やメスの投入方向を確認するなど、術計画を支援するものであり、医用画像診断装置で取得された形状情報及び機能情報から回避すべき領域を抽出し、その回避すべき領域を迂回した術経路を算出するとともに、RPモデル上で術経路を確認する際に3次元的な位置をより直感的に把握することを可能とするために使用される。
術前計画において術経路を提示する技術として、画像上で指定した手術開始点と終了点から手術経路を算出し、算出した経路を画像上に重畳させモニター上で表示する技術(例えば、特許文献1)、3次元位置検出装置を用いて術前に行った手術シミュレーションで決定した手術領域や手術経路情報を実際の手術のデータと比較表示するとともに、術中も必要に応じてシミュレーションを行い手術ガイド情報として術具の位置及び姿勢を示す画像をモニターに表示する技術(例えば、特許文献2)がある。
しかしながら、特許文献1及び特許文献2に記載された手術支援方法では、モニターを使用して画像上で術経路を確認できるが、モニターとRPモデルを交互に確認する必要がある。患者の医用画像を基にRPモデルを作成し断面画像を用いて術経路を確認できたとしても、RPモデルを使ってその術経路の3次元的な位置関係を把握することは難しく、術計画に時間を要する。
この実施形態は、上記の問題を解決するものであり、RPモデルとモニター間の頻繁な視線移動を要することなしに、RPモデル上で操作しながら術経路を提示し、術経路の3次元モデル上での直感的な把握を促すことが可能な医用情報提示装置を提供することを目的とする。
上記課題を解決するため、この実施形態は、位置指定機器、第1処理部、第2処理部、及び、表示部を有する。位置指定機器は、把持可能に構成され、空間的に位置関係または方向の少なくとも一方を検出する。第1処理部は、位置指定機器の検出結果に基づいて、3次元立体モデル表面の投入位置を求める。第2処理部は、第1処理部により求められた投入位置から3次元立体モデル内部に設けられた目標位置までの術経路を求める。表示部は、術経路を表示する。
医用情報提示装置の実施形態について、各図を参照して説明する。この実施形態に係る医用情報提示装置は、RPモデルを用いて手術を支援するものである。RPモデルは、医用画像診断装置によって取得された対象物の3次元画像データに対応して形成される。
この実施形態に係る医用情報提示装置の説明においては、先ず、RPモデルを作成する手順について説明し、続いて、RPモデルの位置合わせについて説明し、最後に、PRモデルを用いて術経路及び誘導情報を提示する手順について説明する。なお、以下の説明において、術経路及び誘導情報をまとめて、「術経路等」という場合がある。
〈RPモデルの作成〉
先ず、RPモデルを作成する手順について、図1〜図7を参照して説明する。図1は医用情報提示装置の構成図、図2はRPモデル上を指し示したポインティングデバイスを示す斜視図、図3は誘導画像を提示する一例を示す図、図4は、画像の読込から術経路等を提示するまでの処理を示すフローチャート、図5は術経路を算出する処理を示すフローチャートである。ここで、ポインティングデバイスとは、ペン型、筒状形、又は、軸状形に形成され、両端を有し、ユーザにより直接的に又は間接的に操縦されるものである。例えば、ポインティングデバイスは、その先端でRPモデル上の位置を指し示すようにして用いられる。ポインティングデバイスがこの発明の「位置指定機器」の一例である。
先ず、RPモデルを作成する手順について、図1〜図7を参照して説明する。図1は医用情報提示装置の構成図、図2はRPモデル上を指し示したポインティングデバイスを示す斜視図、図3は誘導画像を提示する一例を示す図、図4は、画像の読込から術経路等を提示するまでの処理を示すフローチャート、図5は術経路を算出する処理を示すフローチャートである。ここで、ポインティングデバイスとは、ペン型、筒状形、又は、軸状形に形成され、両端を有し、ユーザにより直接的に又は間接的に操縦されるものである。例えば、ポインティングデバイスは、その先端でRPモデル上の位置を指し示すようにして用いられる。ポインティングデバイスがこの発明の「位置指定機器」の一例である。
RPモデルを作成する手順を、図4に示すフローチャートのS101〜S107に示す。
(S101)
医用画像読込み部21は、スクリーニングや検査にて術前にCTやMRで撮影された形体画像、及び、functional MRI像やTractographyなどの機能画像を読み込む。
医用画像読込み部21は、スクリーニングや検査にて術前にCTやMRで撮影された形体画像、及び、functional MRI像やTractographyなどの機能画像を読み込む。
(S102)
ボリュームデータ(Volume Data)作成部22では、医用画像読込み部21に入力された形体画像と機能画像の位置合わせを行い、位置合わせされた形体画像と機能画像のそれぞれを任意大きさのボクセルに分割しボリュームデータを作成する。位置合わせは、両画像上の同じ形状を持つ領域を特徴領域として抽出して方向を合わせ込む既存の方法を用いる。ボリュームデータ作成は、画像の解像度を維持するために画像撮像時のピクセルサイズと同じ大きさでボクセルサイズを決める方法を基本とするが、RPモデル作成時に使用する3D造形プリンターの解像度に合わせてボクセルサイズを決めても良い。
ボリュームデータ(Volume Data)作成部22では、医用画像読込み部21に入力された形体画像と機能画像の位置合わせを行い、位置合わせされた形体画像と機能画像のそれぞれを任意大きさのボクセルに分割しボリュームデータを作成する。位置合わせは、両画像上の同じ形状を持つ領域を特徴領域として抽出して方向を合わせ込む既存の方法を用いる。ボリュームデータ作成は、画像の解像度を維持するために画像撮像時のピクセルサイズと同じ大きさでボクセルサイズを決める方法を基本とするが、RPモデル作成時に使用する3D造形プリンターの解像度に合わせてボクセルサイズを決めても良い。
(S103)
領域抽出部23は、ボリュームデータ作成部22にて作成された形体画像に対するボリュームデータから腫瘍、血管、臓器、その他形状領域を抽出し、ボリュームデータ作成部22にて作成された機能画像に対するボリュームデータから言語野や運動野などの領域を抽出する。ここでは、シェーデットボリュームレンダリング(Shaded Volume Rendering)画像(以下、「SVR画像」という。)を作成、ボリュームデータに対する従来のセグメンテーション(Segmentation)方法にて各領域を抽出することを想定している。位置合わせされたスライス画像に対して、従来の閾値を使用した領域抽出方法を用いて処理を行っても良い。
領域抽出部23は、ボリュームデータ作成部22にて作成された形体画像に対するボリュームデータから腫瘍、血管、臓器、その他形状領域を抽出し、ボリュームデータ作成部22にて作成された機能画像に対するボリュームデータから言語野や運動野などの領域を抽出する。ここでは、シェーデットボリュームレンダリング(Shaded Volume Rendering)画像(以下、「SVR画像」という。)を作成、ボリュームデータに対する従来のセグメンテーション(Segmentation)方法にて各領域を抽出することを想定している。位置合わせされたスライス画像に対して、従来の閾値を使用した領域抽出方法を用いて処理を行っても良い。
(S104)
パラメータ入力部10のキャリブレーション用ポイント(Point)指定部11は、ボリュームデータ上でマーカーポイントを指定する。マーカーポイントは、RPモデルの座標系とセンサー座標系(位置計測空間の座標系)とのキャリブレーションをする際に用いられる。RPモデルの座標系とセンサー座標系とのキャリブレーションの詳細については後述する。
パラメータ入力部10のキャリブレーション用ポイント(Point)指定部11は、ボリュームデータ上でマーカーポイントを指定する。マーカーポイントは、RPモデルの座標系とセンサー座標系(位置計測空間の座標系)とのキャリブレーションをする際に用いられる。RPモデルの座標系とセンサー座標系とのキャリブレーションの詳細については後述する。
PRモデルは、実空間の設置面に設置される。実空間には、トランスミッタ(磁気発生装置)から発生される磁気を検出する装置として一般的な磁気センサーが設けられている。このトランスミッタを基にしてセンサー座標系が設定される。ここで、設置面は、高さ方向をZ軸方向とすれば、Z軸上の値が一定の水平面となっている。なお、この実施形態の説明では、トランスミッタ、及び、その磁気を検出する磁気センサーを共にセンサーという場合がある。
RPモデルには、マーカーポイントが設けられている。マーカーポイントにトランスミッタが用いられる。センサー座標系の座標軸(x軸、y軸)に対し、対象物体(RPモデル)を置く方向を決める。次に、設置面に相当する断面内で、センサー座標系の座標軸(x軸、y軸)と平行な直線(xa軸、ya軸)と対象物体輪郭との交点を4点求める。図7に示す4点(x1、x2、y1、y2)がマーカーポイントの一例である。この4点からセンサー座標系の座標軸(x軸、y軸)を決めことができる。
(S105)
パラメータ入力部10のセンサー位置指定部12は、領域抽出部23にて抽出された形状領域のうち手術の対象となる部分(腫瘍領域など)を、センサーSaを埋めこむ領域として指定する。このセンサーSaには磁気センサーが用いられる。埋めこむセンサーSaの大きさによってセンサー領域を変動させ、ラベリング処理/補正部24にて処理の対象とする。センサー領域が手術の対象領域よりも大きい場合は、はみ出した領域を無効とし、領域抽出部23にて抽出された領域と置き換える補正を行う。このセンサーSaを埋め込む領域がこの発明の「目標位置」の一例である。目標位置は、センサーSaが埋め込まれた位置を検出することにより求めることができるし、ラベリング処理によって特定のラベリング値が割り当てられる領域として求めることができる。
パラメータ入力部10のセンサー位置指定部12は、領域抽出部23にて抽出された形状領域のうち手術の対象となる部分(腫瘍領域など)を、センサーSaを埋めこむ領域として指定する。このセンサーSaには磁気センサーが用いられる。埋めこむセンサーSaの大きさによってセンサー領域を変動させ、ラベリング処理/補正部24にて処理の対象とする。センサー領域が手術の対象領域よりも大きい場合は、はみ出した領域を無効とし、領域抽出部23にて抽出された領域と置き換える補正を行う。このセンサーSaを埋め込む領域がこの発明の「目標位置」の一例である。目標位置は、センサーSaが埋め込まれた位置を検出することにより求めることができるし、ラベリング処理によって特定のラベリング値が割り当てられる領域として求めることができる。
(S106)
ラベリング処理/補正部24は、領域抽出部23で抽出された各形状領域と各機能領域、キャリブレーション用ポイント指定部11で指定されたマーカーポイント(4点)、及びセンサー位置指定部12にて指定されたセンサー領域に対し、領域ごとに番号を割り振っていく。
ラベリング処理/補正部24は、領域抽出部23で抽出された各形状領域と各機能領域、キャリブレーション用ポイント指定部11で指定されたマーカーポイント(4点)、及びセンサー位置指定部12にて指定されたセンサー領域に対し、領域ごとに番号を割り振っていく。
例えば、血管領域(形状領域)は1、腫瘍領域(形状領域)は2、正常領域(形状領域)は3、言語野領域(機能領域)は4、運動野領域(機能領域)は5、マーカーポイント領域は6、センサー領域は7などの様に、重複しない番号を設定する。各領域内は全て同じ値が割り振られるものとする。同一位置においては、形状領域のラベリング値「1〜3」と、機能領域「4、5」のラベリング値との異なるラベリング値がそれぞれ割り振られる場合がある。
同一位置の各ラベリング値を加算した場合に、形状領域のラベリング「3」、機能領域のラベリング値「4」というように、1つの領域内で異なるラベリング値を示す部分を重畳領域として抽出し、新たなラベリング値、例えば、「8」を設定するなどの補正処理を行う。次に、ラベリング値ごとにカラーを指定しカラー画像としてラベリング画像を作成し、その画像上でラベリング結果を確認するとともに、その他領域の修正や補正を行う。
色付け領域/回避領域設定部25は、RPモデル化しない領域の削除、各領域の色を設定する。正常な組織に該当する領域の色として必ず透明を設定し、その他の領域はユーザが任意カラーを指定しても良い。また、術経路として含めたくない領域を回避領域として設定する。ボリュームデータ上で対象となる領域を3次元領域(例えば、ユーザが指定したある点から指定された距離で計算される楕円領域)として設定し、その内部に存在する領域のラベリング番号で回避領域を指定する。
(S107)
RPデータ作成部31は、色付け領域設定部25にて色が指定された各画像のラベリング領域を用いてRP作成用のデータを作成する。ここで、「RP作成用のデータとを作成する」とは、RPモデル作成部41で使用する3次元造形プリンターのサポートするデータ形式に変換することを意味する。データ変換の方法は従来技術を用いて行うものとする。
RPデータ作成部31は、色付け領域設定部25にて色が指定された各画像のラベリング領域を用いてRP作成用のデータを作成する。ここで、「RP作成用のデータとを作成する」とは、RPモデル作成部41で使用する3次元造形プリンターのサポートするデータ形式に変換することを意味する。データ変換の方法は従来技術を用いて行うものとする。
RPモデル作成部41では、既存の3次元造形プリンターを用いて、RPデータ作成部31で作成したRP作成用のデータを基にRPモデルを作成する。センサー領域には実際のセンサーSaが埋めこまれた状態で作成される。
〈RPモデルの位置合わせ〉
以上、RPモデルを作成する手順について、図4に示すフローチャートのS101〜S107を参照して説明した。このように作成されたRPモデルを用いて術経路等を提示する前に、RPモデルの位置合わせを行う必要がある。
以上、RPモデルを作成する手順について、図4に示すフローチャートのS101〜S107を参照して説明した。このように作成されたRPモデルを用いて術経路等を提示する前に、RPモデルの位置合わせを行う必要がある。
次に、PRモデルの位置合わせについて、図4、図6及び図7を参照して説明する。図6は、断面画像の画像座標系を示す概念図、図7はセンサー座標系を示す概念図である。RPモデルの位置合わせを、図4のフローチャートのS108に示す。
(S108)
RPモデル/画像の位置合わせ部32では、RPモデル作成部41にて作成したRPモデルをセンサー座標系(実空間内の位置計測空間)に設置し、RPモデルの座標系(ボリュームデータの座標系)とセンサー座標系とのキャリブレーションを行う。このRPモデル/画像の位置合わせ部32が、この発明の「第3処理部」の一例である。
RPモデル/画像の位置合わせ部32では、RPモデル作成部41にて作成したRPモデルをセンサー座標系(実空間内の位置計測空間)に設置し、RPモデルの座標系(ボリュームデータの座標系)とセンサー座標系とのキャリブレーションを行う。このRPモデル/画像の位置合わせ部32が、この発明の「第3処理部」の一例である。
先ず、断面画像の画像座標系とセンサー座標系とのキャリブレーションについて説明する。センサー座標系としてトランスミッタの中心部分を原点として床平面に平行な2軸をx軸、y軸とした場合に、原点からのx軸、y軸の延長線上にRPモデルのマーカーポイントが来るようにRPモデルを設定する。それにより、マーカーポイントのxy座標は、例えば、(x1’、0)、(x2’、0)、(0、y1’)、及び、(0、y2’)の4点となる。断面画像の画像座標系に設けられた4点のマーカーポイントを図6に示す。
このRPモデルを設置するとき、4点のマーカーポイントがx軸、y軸の各軸に対して回転する回転角がそれぞれ一致する。さらに、4点のマーカーポイントを平行移動するとき、4点のマーカーポイントがx軸に対して平行移動する移動量uがそれぞれ一致し、さらに、4点のマーカーポイントがy軸に対して平行移動するvがそれぞれ一致する。このときの回転角、x軸方向の移動量、及び、y軸方向の移動量をそれぞれθ、u、vとする。
次に、4点のマーカーポイントにセンサー部51のセンサーSbを移動させ、センサー座標系での4点のマーカーポイントのxy座標(x1、0)、(x2、0)、(0、y1)、及び、(0、y2)を取得する。センサー座標系に設けられた4点のマーカーポイントを図7に示す。
断面画像の画像座標系の4点のマーカーポイントのxy座標(x1’、0)、(x2’、0)、(0、y1’)、及び、(0、y2’)、及び、センサー座標系の4点のマーカーポイントのxy座標(x1、0)、(x2、0)、(0、y1)、及び、(0、y2)を用いて、断面画像の画像座標系とセンサー座標系のキャリブレーションを行う。
断面画像の画像座標系をセンサー座標系に変換する式を次に示す。
4点のマーカーポイントのうちの3点のxy座標を、(1)式に代入することより、回転角θ1、X軸方向の平行移動量u1、Y軸方向の平行移動量v1を求める。
たとえば、第1の点のxy座標として、(x1、0)及び(x1’、0)を(1)式に代入し、第2の点のxy座標として、(x2、0)及び(x2’、0)を(1)式に代入し、第3の点のxy座標として、(y1、0)及び(y1’、0)を(1)式に代入することにより、θ1、u1、v1を求める。
このようにして求めたθ1、u1、v1から、マーカーポイントが存在する断面画像の画像座標系とセンサー座標系の位置関係(変換マトリックス)を算出する。この変換マトリックスを用いて、断面画像の画像座標系からセンサー座標系への座標変換を次の式を用いて行うことができる。
次に、断面画像の画像座標系からボリュームデータ座標系への変換マトリックスを算出する。この変換マトリックスは、断面画像の画像座標系からセンサー座標系への変換マトリックスと同様に算出することができるので、その説明を省略する。
断面画像の画像座標系からセンサー座標系への変換マトリックス、及び、断面画像の画像座標系からボリュームデータ座標系への変換マトリックスを用いて、ボリュームデータ座標系からセンサー座標系への変換マトリックスを算出する。
このボリュームデータ座標系からセンサー座標系への変換マトリックスを用いることにより、ボリュームデータの座標系とセンサー座標系との対応付けをすることが可能となる。このボリュームデータの座標系がこの発明の「3次元画像データの座標系」の一例である。また、このセンサー座標系がこの発明の「3次元立体モデルに対して定義される座標系」の一例である。
以上で、RPモデルの位置合わせについて説明した。
〈術経路等の提示〉
次に、RPモデルを用いて、術経路等を提示する手順について、図2、図4、図5、図8及び図9を参照にして説明する。図5は術経路を算出する方法を示すフローチャート、図8は術経路を算出方法の概念図、図9は、分離面を正面から見たときの概念図である。
次に、RPモデルを用いて、術経路等を提示する手順について、図2、図4、図5、図8及び図9を参照にして説明する。図5は術経路を算出する方法を示すフローチャート、図8は術経路を算出方法の概念図、図9は、分離面を正面から見たときの概念図である。
先ず、提供すべき術経路の算出方法について説明し、続いて、誘導画像の作成、さらに、誘導画像の表示について説明する。提供すべき術経路の算出方法、誘導画像の作成、及び、誘導画像の表示を図4のフローチャートのS109〜S111に示す。
(術経路の算出方法:S109)
ポインティングデバイスPDの少なくとも二箇所の位置を検出するためのセンサー部51が設けられている。このセンサー51の一例としてはセンサーSbが用いられる。センサーSbによりポインティングデバイスPDの各箇所を検出することで、ポインティングデバイスPDの両端(図2に示す先端部の位置bと基端部の位置c)とを結ぶ直線の方向(以下、「投入方向」という)、ポインティングデバイスPDの先端部が指し示す位置bを求めることが可能となる。この位置bが手術具(メスなど)により開頭する位置に相当する。投入方向が、手術具(神経内視鏡など)の投入方向に相当する。このセンサー部51がこの発明の「位置検出部」の一例である。
ポインティングデバイスPDの少なくとも二箇所の位置を検出するためのセンサー部51が設けられている。このセンサー51の一例としてはセンサーSbが用いられる。センサーSbによりポインティングデバイスPDの各箇所を検出することで、ポインティングデバイスPDの両端(図2に示す先端部の位置bと基端部の位置c)とを結ぶ直線の方向(以下、「投入方向」という)、ポインティングデバイスPDの先端部が指し示す位置bを求めることが可能となる。この位置bが手術具(メスなど)により開頭する位置に相当する。投入方向が、手術具(神経内視鏡など)の投入方向に相当する。このセンサー部51がこの発明の「位置検出部」の一例である。
経路算出部33は、センサー部51のセンサーSbをユーザが位置計測空間内で動かしRPモデル上の点を指し示した場合に、その指し示す位置bとRPモデル内に埋めこまれたセンサーSaの位置aを取得し、現在の指し示す位置bからセンサーSaの位置aまでの経路を術経路Rt1として算出する。位置a、及び、術経路Rt1を図2に概念的に示す。色付け領域/回避領域設定部25にて設定された回避領域Arが両位置a、bの間に存在する場合は、回避領域Arを迂回した経路を算出する。なお、術経路Rt1の算出方法の詳細については後述する。
(誘導画像の作成:S110)
誘導画像作成部26は、経路算出部33で算出した術経路Rt1をポインティングデバイスPDの投入方向Dr1(図2参照)に直交する投影面に投影した投影経路Rt2として算出し、投影経路Rt2を示すガイドを提示する誘導画像を作成すると共に、投影面に位置bを投影した位置b’から投影経路Rt2が進む方向(以下、「経路方向」という。)を示すガイドを提示する誘導画像を作成する。経路方向Dr2は、センサーSbを手術具(神経内視鏡など)と仮定した場合に、現在の位置bから次に手術具を移動すべき方向と一致する。この誘導画像作成部26が、この発明の「第4処理部」の一例である。
誘導画像作成部26は、経路算出部33で算出した術経路Rt1をポインティングデバイスPDの投入方向Dr1(図2参照)に直交する投影面に投影した投影経路Rt2として算出し、投影経路Rt2を示すガイドを提示する誘導画像を作成すると共に、投影面に位置bを投影した位置b’から投影経路Rt2が進む方向(以下、「経路方向」という。)を示すガイドを提示する誘導画像を作成する。経路方向Dr2は、センサーSbを手術具(神経内視鏡など)と仮定した場合に、現在の位置bから次に手術具を移動すべき方向と一致する。この誘導画像作成部26が、この発明の「第4処理部」の一例である。
(誘導画像の表示:S111)
画像表示部61は、図2に示すようなペン型のポインティングデバイスPDの基端部側に取り付けられ、投影経路Rt2、及び、経路方向Dr2を含む誘導画像を表示する。画像表示部61の画面は、投入方向Dr1に対して直交する平面と平行に配されている。画像表示部61に表示される投影経路Rt2、及び、経路方向Dr2は、ポインティングデバイスPDの基端部側から見たときの術経路Rt1、及び、ポインティングデバイスPDの投入方向Dr1に相当する(図3参照)。この画像表示部61がこの発明の「表示部」の一例である。
画像表示部61は、図2に示すようなペン型のポインティングデバイスPDの基端部側に取り付けられ、投影経路Rt2、及び、経路方向Dr2を含む誘導画像を表示する。画像表示部61の画面は、投入方向Dr1に対して直交する平面と平行に配されている。画像表示部61に表示される投影経路Rt2、及び、経路方向Dr2は、ポインティングデバイスPDの基端部側から見たときの術経路Rt1、及び、ポインティングデバイスPDの投入方向Dr1に相当する(図3参照)。この画像表示部61がこの発明の「表示部」の一例である。
画像表示部61は、これに限らない。例えば、図10に示すように、RPモデルに被せられるようなシート状の画像表示部61であっても良い。このシート状の画像表示部61に、投影経路Rt2、及び、経路方向Dr2をマップし、術前に患者に被せて、それらを提示するようにしても良い。ここでは、誘導画像作成部26は、位置bに接する投影面に術経路Rt1を投影して投影経路Rt2を作成し、また、投影経路Rt2が位置bから進む方向としての経路方向Dr2を、投影経路Rt2上の点として作成する。
さらに、経路方向Dr2を提示するための経路方向提示部62が設けられている。経路方向提示部62の一例としては、複数のLED63が、ポインティングデバイスPDの基端部側の周囲360度に等間隔で取り付けられたものである(図2参照)。この経路方向提示部62では、次に手術具を移動すべき方向である経路方向Dr2に位置するLED63のみを点灯し、経路方向Dr2を直接提示して誘導する(図11参照)。
図12〜図14に示すように、ペン型のポインティングデバイスPDの胴体部に取り付けられた液晶ディスプレイである経路方向提示部62に誘導情報を提示しても良い。誘導情報としては、文字や記号によって提示される経路方向Dr2を含む。提示された経路方向Dr2を基に、術経路Rt1の修正を行うことができる。
経路方向提示部62は、投入方向Dr1を12時の方向として予め定めている。経路方向提示部62は、この投入方向Dr1と、誘導画像作成部26が作成した経路方向Dr2との角度差を基に、経路方向Dr2が、投入方向Dr1(12時)の方向からどちらの方向に何度行った所であるかを求める。
図12に経路方向Dr2の一例として示す「左下方向」は、投入方向Dr2(12時)から反時計方向に135度行った所に、経路方向Dr2があることを表している。ユーザは、その誘導情報を基に、ポインティングデバイスPDの投入方向Dr1を12時の方向から7時半の方向に変更する。
また、図13に誘導情報の一例として示す「右に25度」は、ポインティングデバイスPDを軸回りに25度時計方向に回転させることを促す情報である。図14に誘導情報の他の例として示す「25度及び右回りの矢印」は、同じく、ポインティングデバイスPDを軸回りに25度時計方向に回転させることを促す情報である。
また、参考画像として手元ではなくモニター(図示省略)上に、画像合成部27にて既存の医用画像(形体画像/機能画像)、ラベリング画像、モデル画像などと誘導画像を合成した画像を作成し、表示しても良い。
〈術経路の算出〉
次に、術経路の算出方法について、図5、図8及び図9を参照して説明する。図8は術経路を算出する方法の概念図、図9は分離面を正面から見たときの概念図である。
次に、術経路の算出方法について、図5、図8及び図9を参照して説明する。図8は術経路を算出する方法の概念図、図9は分離面を正面から見たときの概念図である。
(S201)
センサー部51は、RPモデルにセンサーSaが埋めこまれた位置aの座標と現在ユーザが指定している位置bの座標を取得する。経路算出部33は、両位置a、b間の線分を算出する。この位置aがこの発明の「目標位置」の一例である。なお、位置(目標位置)aの座標は、センサーSaが埋め込まれた位置aをセンサー部51によって検出することにより取得することができるが、ラベリング処理によって特定のラベリング値が割り当てられる領域として取得することができる。
センサー部51は、RPモデルにセンサーSaが埋めこまれた位置aの座標と現在ユーザが指定している位置bの座標を取得する。経路算出部33は、両位置a、b間の線分を算出する。この位置aがこの発明の「目標位置」の一例である。なお、位置(目標位置)aの座標は、センサーSaが埋め込まれた位置aをセンサー部51によって検出することにより取得することができるが、ラベリング処理によって特定のラベリング値が割り当てられる領域として取得することができる。
(S202)
次に、経路算出部33は、投入方向Dr1の情報、及び、両位置a、b間の線分から、両位置a、b間を連結した経路を算出する。算出した経路は、術経路Rt1として記憶される。経路算出部33は、センサー部51により検出されたポインティングデバイスPDの方向を基に、対応付けられたボリュームデータ座標系とセンサー座標系とを参照して、術開始時の投入方向Dr1を求める。この投入方向Dr1を求める経路算出部33が、この発明の「第1処理部」の一例である。
次に、経路算出部33は、投入方向Dr1の情報、及び、両位置a、b間の線分から、両位置a、b間を連結した経路を算出する。算出した経路は、術経路Rt1として記憶される。経路算出部33は、センサー部51により検出されたポインティングデバイスPDの方向を基に、対応付けられたボリュームデータ座標系とセンサー座標系とを参照して、術開始時の投入方向Dr1を求める。この投入方向Dr1を求める経路算出部33が、この発明の「第1処理部」の一例である。
(S203)
次に、算出した経路は3次元的に曲折する線分となるため、スムージング処理を行い曲線化する。曲線化した経路を所定長の線分に分割する。なお、曲線化せず、直線の線分を連結した経路としても良い。線分の一例として、図8に線分Sk−Sk+1を示す。ここで、線分Sk−Sk+1は、ポインティングデバイスPDの先端部がRPモデル上で指し示した位置bからセンサーSaが埋め込まれた位置aまでの中にn個の線分があったとき、k番目に位置する線分とする。
次に、算出した経路は3次元的に曲折する線分となるため、スムージング処理を行い曲線化する。曲線化した経路を所定長の線分に分割する。なお、曲線化せず、直線の線分を連結した経路としても良い。線分の一例として、図8に線分Sk−Sk+1を示す。ここで、線分Sk−Sk+1は、ポインティングデバイスPDの先端部がRPモデル上で指し示した位置bからセンサーSaが埋め込まれた位置aまでの中にn個の線分があったとき、k番目に位置する線分とする。
(S204)
次に、経路算出部33は、経路の各線分が回避領域Arと交わる部分が存在するか否か判定する。交わる部分がない場合(S204:No)、現在の線分を出力結果とする。交わる部分が存在する場合(S204:Yes)、迂回経路を算出するための処理を行う。図8に示すように、線分Sk−Sk+1が回避領域Arと交わる部分が存在する場合、経路算出部33は、以下の迂回経路を算出するための処理を行う。
次に、経路算出部33は、経路の各線分が回避領域Arと交わる部分が存在するか否か判定する。交わる部分がない場合(S204:No)、現在の線分を出力結果とする。交わる部分が存在する場合(S204:Yes)、迂回経路を算出するための処理を行う。図8に示すように、線分Sk−Sk+1が回避領域Arと交わる部分が存在する場合、経路算出部33は、以下の迂回経路を算出するための処理を行う。
(S205)
迂回経路を算出するための処理では、回避領域Arの重心位置gを求める。次に、図8に示すように、回避領域Arと交わっている線分Sk−Sk+1を含む面であって、重心位置gから線分Sk−Sk+1に対して直角に下ろした線と直交する面(以下、「分離面」という。)を算出する。分離面Fで分離された回避領域Arの内、重心位置gを含まない分離領域Ar1を抽出する。図9に示す分離面を正面から見たときの概念図では、重心位置gから線分Sk−Sk+1に対して直角に下ろした線が、重心位置gと重なって示される。
迂回経路を算出するための処理では、回避領域Arの重心位置gを求める。次に、図8に示すように、回避領域Arと交わっている線分Sk−Sk+1を含む面であって、重心位置gから線分Sk−Sk+1に対して直角に下ろした線と直交する面(以下、「分離面」という。)を算出する。分離面Fで分離された回避領域Arの内、重心位置gを含まない分離領域Ar1を抽出する。図9に示す分離面を正面から見たときの概念図では、重心位置gから線分Sk−Sk+1に対して直角に下ろした線が、重心位置gと重なって示される。
(S206)
続いて、経路算出部33は、抽出した分離領域Ar1の内、分離面Fからの距離が最長となる点dを抽出し、その点dから任意長さのマージンを持った位置を点mとし、新たな線分Sk−Sm、及び、線分Sm−Sk+1を算出する。図8に算出した線分Sk−Sm、Sm−Sk+1を示す。
続いて、経路算出部33は、抽出した分離領域Ar1の内、分離面Fからの距離が最長となる点dを抽出し、その点dから任意長さのマージンを持った位置を点mとし、新たな線分Sk−Sm、及び、線分Sm−Sk+1を算出する。図8に算出した線分Sk−Sm、Sm−Sk+1を示す。
経路算出部33が線分Sk−Smを算出すると、経路算出部33は、線分Sk−Smが回避領域Arと交わる部分が存在するか否かを判断する(S204)に戻る。そこで、経路算出部33が交わらないと判断した場合(S204:No)、その経路として線分Sk−Smを出力する(S207)。
続いて、経路算出部33は、出力した線分の次の線分があるか否かを判断する(S208)。最後の線分でない場合(S208;No)、次の線分と交わる部分が存在するか否かを判断する(S204)に戻る。このようにして、線分が回避領域Arと交わる部分が存在するか否かの経路算出部33による判定(S204)から、経路算出部33による新たな線分の追加(S206)までの処理を線分が回避領域Arと交わる部分が存在しなくなるまで繰り返す。
経路算出部33は、次の線分Sm−Sk+1が、回避領域Arと交わるか否かを判断する(S204)。経路算出部33が交わらないと判断した場合(S204:No)、線分Sm−Sk+1を出力する(207)。
続いて、経路算出部33は、出力した線分の次の線分があるか否かを判断する(S208)。次の線分がなければ、術経路の算出処理を終了する。
以上のように、経路算出部33は、術経路Rt1の算出を全部の線分S1−S2、・・・、Sk−Sk+1、・・・、Sn−1−Snについて繰り返し、回避領域Arと交わらない線分の全部を出力し、出力した全部の線分を連結することにより、術経路Rt1を算出する。
すなわち、経路算出部33は、ポインティングデバイスPDの先端部が示すRPモデル上の位置bの情報、及び、術開始時の投入方向Dr1の情報を基に、対応付けられたボリュームデータ座標系とセンサー座標系とを参照して、術開始時の投入方向Dr1に応じた、位置bからセンサーSaが設けられた位置aまでの術経路を求める。この術経路を求める経路算出部33が、この発明の「第2処理部」の一例である。
以上に、術経路Rt1を算出する手順について説明した。このように算出した術経路Rt1を投影面に投影することにより、投影経路Rt2を算出する。また、例えば、最初の線分S1−S2を投影面に投影することにより、経路方向を算出する。
この実施形態に係る医用情報提示装置によれば、RPモデルを用いて回避領域を迂回した術経路を確認することができる。センサーを手術具に想定しRPモデル上でポインティングデバイスPDを操作しながら操作する手元(ポインティングデバイスPDの基板部側)の画像表示部61に、投影経路Rt2及び経路方向Dr2が提示されるため、3次元的な位置の把握がより容易になる。
また、RPモデルに装着可能なシート状の画像表示部61を作成し、その画像表示部61を術中に患者に被せ、画像表示部61に投影経路Rt2を表記することで、計画した経路を容易に確認することができるようになる。これにより、神経内視鏡を使用した脳外科手術などの術前計画において、回避すべき部位を考慮しながら術経路Rt1を決めることが可能になり、3次元的なモデル上及び術中に容易に確認することが出来るようになる。また、術計画の時間が短縮される。
なお、この実施形態は例示であり、発明の範囲はそれらに限定されない。
実施形態では、センサー部51からの位置検出信号を基に、ポインティングデバイスPDの先端部が示すRPモデル上の投入位置b、並びに、センサーSaが埋め込まれた位置a、及び、投入位置bを基に投入方向Dr1を求めるものとして経路算出部33を用いたが、これに限定されない。センサー部51からの出力信号と投入位置b及び投入方向Dr1との対応関係を予めテーブルとして記憶しておき、センサー部51からの出力信号を基に、テーブルを参照して、投入位置b及び投入方向Dr1を求めるようにしても良い。このテーブルをデータ演算部30(図1参照)に設けても良く、または、センサー部51に設けても良い。
また、実施形態では、投入位置b及び投入方向Dr1を基に、術経路Rt1を求めるものとして、データ演算部30に経路算出部33を設けたが、これに限定されない。経路算出部33を画像処理部20に設けても良い。さらに、ポインティングデバイスPDにより検出された投入位置bを基に術経路Rr1を求めても良く、ポインティングデバイスPDにより検出された方向(投入方向Dr1)を基に投入位置bを求め、求められた投入位置bを基に術経路Rt1を求めるようにしても良く、検出された投入方向Dr1及び求められた投入位置bを基に術経路Rt1を求めるようにしても良い。
PD ポインティングデバイス
10 パラメータ入力部
11 キャリブレーション用ポイント指定部
12 センサー位置指定部
20 画像処理部
21 医用画像読込み部
22 ボリュームデータ作成部
23 領域抽出部
24 ラベリング処理/補正部
25 色付け領域/回避領域設定部
26 誘導画像作成部
27 画像合成部
30 データ演算部
31 RPデータ作成部
32 RPモデル/画像の位置合わせ部
33 経路算出部
41 RPモデル作成部
51 センサー部
61 画像表示部
62 経路方向提示部
63 LED
10 パラメータ入力部
11 キャリブレーション用ポイント指定部
12 センサー位置指定部
20 画像処理部
21 医用画像読込み部
22 ボリュームデータ作成部
23 領域抽出部
24 ラベリング処理/補正部
25 色付け領域/回避領域設定部
26 誘導画像作成部
27 画像合成部
30 データ演算部
31 RPデータ作成部
32 RPモデル/画像の位置合わせ部
33 経路算出部
41 RPモデル作成部
51 センサー部
61 画像表示部
62 経路方向提示部
63 LED
Claims (7)
- 医用画像診断装置によって取得された対象物の3次元画像データに対応して形成された3次元立体モデルを用いて、手術を支援する医用情報提示装置において、
把持可能に構成され、空間的に位置関係または方向の少なくとも一方を検出する位置指定機器と、
前記位置指定機器の検出結果に基づいて、前記3次元立体モデル表面の投入位置を求める第1処理部と、
前記第1処理部により求められた前記投入位置から前記3次元立体モデル内部に設けられた目標位置までの術経路を求める第2処理部と、
前記術経路を表示する表示部と、
を有する
ことを特徴とする医用情報提示装置。 - 前記位置指定機器の少なくとも二箇所の位置を検出する位置検出部を更に有し、
前記第1処理部は、前記検出された各位置を基に、位置指定機器の先端部を前記3次元立体モデル表面上を指定したときの投入位置、及び、位置指定機器の先端部を前記3次元立体モデル内部に向けたときの投入方向を求め、
前記第2処理部は、前記第1処理部により求められた前記位置指定機器の投入方向を基に、前記投入位置から前記3次元立体モデル内部に設けられた目標位置までの術経路を求め、
前記表示部は、前記位置指定機器の基端部側から見たときの前記術経路を表示することを特徴とする請求項1に記載の医用情報提示装置。 - 前記3次元画像データの座標系、及び、前記3次元立体モデルに対して定義される座標系の両座標系の対応付けを行う第3処理部をさらに有し、
前記第1処理部は、前記対応付けられた前記両座標系を参照して、前記投入方向を求め、
前記第2処理部は、前記対応付けられた前記両座標系を参照して、前記術経路を求めることを特徴とする請求項2に記載の医用情報提示装置。 - 前記位置検出部は、前記目標位置をさらに検出し、
前記第2処理部は、前記位置検出部により検出された前記目標位置までの前記術経路を求めることを特徴とする請求項2に記載の医用情報提示装置。 - 前記表示部は、前記位置指定機器の基端部側に設けられることを特徴とする請求項2に記載の医用情報提示装置。
- 前記表示部は、前記3次元立体モデルに被せられるように構成されることを特徴とする請求項2に記載の医用情報提示装置。
- 前記求められた前記術経路を基に、前記位置指定機器の基端部側から見たときの経路方向を求める第4処理部と、前記経路方向をさらに提示する経路方向提示部とをさらに有することを特徴とする請求項1から請求項6のいずれかに記載の医用情報提示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010160220A JP2012019964A (ja) | 2010-07-15 | 2010-07-15 | 医用情報提示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010160220A JP2012019964A (ja) | 2010-07-15 | 2010-07-15 | 医用情報提示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012019964A true JP2012019964A (ja) | 2012-02-02 |
Family
ID=45774758
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010160220A Withdrawn JP2012019964A (ja) | 2010-07-15 | 2010-07-15 | 医用情報提示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012019964A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015526111A (ja) * | 2012-05-22 | 2015-09-10 | コビディエン エルピー | 治療計画システム |
JP2018089310A (ja) * | 2016-12-07 | 2018-06-14 | 株式会社デンソー | 情報統合装置 |
JP2019535413A (ja) * | 2016-11-16 | 2019-12-12 | ジ アサン ファウンデーション | オーダーメイド手術ガイド、オーダーメイド手術ガイド生成方法及び生成プログラム |
-
2010
- 2010-07-15 JP JP2010160220A patent/JP2012019964A/ja not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015526111A (ja) * | 2012-05-22 | 2015-09-10 | コビディエン エルピー | 治療計画システム |
JP2019535413A (ja) * | 2016-11-16 | 2019-12-12 | ジ アサン ファウンデーション | オーダーメイド手術ガイド、オーダーメイド手術ガイド生成方法及び生成プログラム |
JP2021079121A (ja) * | 2016-11-16 | 2021-05-27 | ジ アサン ファウンデーション | オーダーメイド手術ガイド、オーダーメイド手術ガイド生成方法及び生成プログラム |
US11154362B2 (en) | 2016-11-16 | 2021-10-26 | The Asan Foundation | Customized surgical guide and customized surgical guide generating method and generating program |
JP2018089310A (ja) * | 2016-12-07 | 2018-06-14 | 株式会社デンソー | 情報統合装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11896414B2 (en) | System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target | |
JP6707036B2 (ja) | アラインメント | |
JP6604977B2 (ja) | 3dのナビゲーションの間に距離および向きのフィードバックを提供するシステム | |
JP6511050B2 (ja) | イメージング装置を追跡装置と位置合わせする位置合わせシステム、イメージングシステム、介入システム、位置合わせ方法、イメージングシステムの作動方法、位置合わせコンピュータプログラム、及びイメージングコンピュータプログラム | |
EP2699166B1 (en) | Mpr slice selection for visualization of catheter in three-dimensional ultrasound | |
CN106163408B (zh) | 使用同时的x平面成像的图像配准和引导 | |
CN106232011B (zh) | 气管标记 | |
US20170281134A1 (en) | Information processing apparatus, ultrasonic imaging apparatus, and information processing method | |
JP6496403B2 (ja) | 光学形状検知可能な介入デバイスと協働するよう構成される処理システム | |
JP6078559B2 (ja) | オブジェクトを撮像するイメージング装置 | |
WO2017017496A1 (en) | Dynamic reference frame for surgical navigation system | |
WO2019074958A1 (en) | SYSTEM AND METHOD FOR MEDICAL GUIDANCE USING A LOCALIZED PLAN | |
US20160379368A1 (en) | Method for determining an imaging specification and image-assisted navigation as well as device for image-assisted navigation | |
JP2017086917A (ja) | Ct画像に対して局所的に適用される透過法 | |
EP3127085A1 (en) | Method for segmentation and visualisation | |
EP3440988A1 (en) | Visualizing navigation of a medical device in a patient organ using a dummy device and a physical 3d model | |
CN106175931B (zh) | 荧光镜视场的标记 | |
JP2012019964A (ja) | 医用情報提示装置 | |
JP6952740B2 (ja) | ユーザーを支援する方法、コンピュータープログラム製品、データ記憶媒体、及び撮像システム | |
JP2016168078A (ja) | 医用観察支援システム及び臓器の3次元模型 | |
CN210301211U (zh) | 用于导航到靶标的系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20131001 |