JP6275488B2 - 手術支援装置および手術支援プログラム - Google Patents
手術支援装置および手術支援プログラム Download PDFInfo
- Publication number
- JP6275488B2 JP6275488B2 JP2014002538A JP2014002538A JP6275488B2 JP 6275488 B2 JP6275488 B2 JP 6275488B2 JP 2014002538 A JP2014002538 A JP 2014002538A JP 2014002538 A JP2014002538 A JP 2014002538A JP 6275488 B2 JP6275488 B2 JP 6275488B2
- Authority
- JP
- Japan
- Prior art keywords
- surgical instrument
- image
- dimensional
- dimensional image
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001356 surgical procedure Methods 0.000 title claims description 94
- 238000000034 method Methods 0.000 claims description 46
- 238000009877 rendering Methods 0.000 claims description 23
- 238000001514 detection method Methods 0.000 claims description 18
- 230000002194 synthesizing effect Effects 0.000 claims description 13
- 230000000007 visual effect Effects 0.000 claims description 7
- 239000000203 mixture Substances 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 3
- 210000004204 blood vessel Anatomy 0.000 description 49
- 210000000056 organ Anatomy 0.000 description 49
- 238000004364 calculation method Methods 0.000 description 24
- 239000011159 matrix material Substances 0.000 description 24
- 210000000988 bone and bone Anatomy 0.000 description 16
- 239000013598 vector Substances 0.000 description 14
- 210000003734 kidney Anatomy 0.000 description 10
- 230000009466 transformation Effects 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 238000000605 extraction Methods 0.000 description 5
- 210000005036 nerve Anatomy 0.000 description 5
- 238000002600 positron emission tomography Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 230000005484 gravity Effects 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000003780 insertion Methods 0.000 description 3
- 230000037431 insertion Effects 0.000 description 3
- 210000004185 liver Anatomy 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000010287 polarization Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 210000001835 viscera Anatomy 0.000 description 2
- 238000005481 NMR spectroscopy Methods 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000002674 endoscopic surgery Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000001621 ilium bone Anatomy 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Nuclear Medicine (AREA)
Description
従来の手術支援装置は、例えば、X線CT画像や核磁気共鳴画像(MRI画像)、PET(陽電子放射断層法)によって取得された画像等の断層画像情報を取得する断層画像情報取得部と、断層画像情報取得部に接続されたメモリと、メモリに接続されたボリュームレンダリング演算部と、ボリュームレンダリング演算部の演算結果を表示するディスプレイと、ディスプレイに表示された表示対象物に対して切削指示を行う入力部と、を備えていた。
すなわち、上記公報に開示された手術支援装置では、リアルタイムの内視鏡画像に同期した仮想内視鏡画像および仮想内視鏡画像に合成される術具が平面状の画像であるため、表示画像に立体感がなく、術具、特に、術具先端の位置と臓器や血管等との前後の位置関係が認識しにくいという問題がある。
これにより、術具の先端が視線の交点の位置にくるように3次元画像と3次元術具画像とが位置合わせされて表示されるため、術具の先端位置に対応する表示装置の表示画面の表面を基準として、臓器や血管、術具を含む立体的な3次元画像を表示することができる。よって、従来よりも立体感のある3次元画像を表示することで、術具の位置と臓器や血管、神経等の位置を術者に正確に認識させることができるため、より効果的な手術ナビゲーションを実施することができる。
ここでは、3次元画像を表示する際に、術具の先端が視線の交点にくるように3次元画像が位置合わせされた表示装置の表示画面の表面付近を基準にして、3次元画像を表示する。
第3の発明に係る手術支援装置は、第1または第2の発明に係る手術支援装置であって、表示制御部は、術具先端よりも手前側にある物体が、表示装置の表示画面よりも手前側に飛び出した位置に3次元表示を行う。
これにより、手術中の術者から見た視点と同じ方向から3次元の手術ナビゲーション画像を表示することができる。よって、術者は術具の先端が臓器や血管に対してどの位置にあるのかを正確に認識することができるため、より精度の高い手術ナビゲーションを実施することができる。
ここでは、3次元画像の所定の視点群からの視線の交点上に術具の先端位置が配置されるように表示させる際に、術具先端よりも奥側にある臓器や血管等の物体が、表示画面から奥まった位置にあるように表示させる。
第5の発明に係る手術支援装置は、術具を用いて実施される手術中に、断層画像情報から生成される3次元画像を表示装置に表示させながらナビゲーションを行う手術支援装置であって、仮想内視鏡画像生成部と、術具画像生成部と、先端位置情報取得部と、画像合成部と、表示制御部と、を備えている。仮想内視鏡画像生成部は、内視鏡の位置情報に基づいて、仮想内視鏡画像を生成する。術具画像生成部は、術具の3次元術具画像を生成する。先端位置情報取得部は、術具の先端位置に関する情報を取得する。画像合成部は、術具画像生成部において生成された3次元術具画像を、先端位置情報取得部において取得された術具の先端位置に関する情報に基づいて、仮想内視鏡画像生成部において生成された3次元画像と合成する。表示制御部は、内視鏡の位置と内視鏡特性に基づいて決定される内視鏡焦点の近傍位置が、所定の視点群からの視線の交点上に配置されるように、術具の3次元画像が合成された3次元画像を表示する。
ここで、仮想内視鏡画像は、3次元術具画像と同様に、内視鏡に取り付けられた位置センサ等における検出結果に基づいて立体的な3次元画像として生成されることが好ましい。また、上記術具の先端位置に関する情報とは、術具の先端位置の近傍に関する情報を含む。
第6の発明に係る手術支援装置は、第5の発明に係る手術支援装置であって、表示制御部は、内視鏡焦点の近傍位置よりも手前側にある物体が、表示装置の表示画面よりも手前側に飛び出した位置に3次元表示を行う。
これにより、手術中の術者から見た視点と同じ方向から3次元の手術ナビゲーション画像を表示することができる。よって、術者は内視鏡焦点の近傍位置に対する臓器や血管の位置を正確に認識することができるため、より精度の高い手術ナビゲーションを実施することができる。
ここでは、3次元画像の所定の視点群からの視線の交点上に内視鏡焦点の近傍位置が配置されるように表示させる際に、内視鏡焦点の近傍位置よりも奥側にある臓器や血管等の物体が、表示画面から奥まった位置にあるように表示させる。
第8の発明に係る手術支援装置は、第5から第7の発明のいずれかに係る手術支援装置であって、表示制御部は、仮想内視鏡画像における内視鏡の先端位置よりも手前側に配置された物体を表示しない、あるいは半透明で表示する。
これにより、実際の内視鏡手術と同様に、内視鏡によって視野が制限された表示態様とすることができる。よって、実際の内視鏡を用いた手術と同様の見せ方で、手術ナビゲーションを実施することができる。
ここでは、3次元術具画像を生成する際に、実際の術具の先端・根元位置情報に基づいて、術具の立体画像の位置や方向を設定して仮想的な術具画像を生成する。
これにより、臓器等を含む3次元画像に3次元術具画像を合成して、より立体感のある3次元画像を表示しながら手術ナビゲーションを実施することができる。
ここでは、術具の位置情報取得手段として、術具の根元付近に配置された2つの位置角度センサ、あるいは3つの位置センサを用いている。
第11の発明に係る手術支援プログラムは、術具を用いて行われる手術中に、断層画像情報から生成される3次元画像を表示装置に表示させながらナビゲーションを行う手術支援プログラムであって、以下のようなステップを備えた手術支援方法をコンピュータに実行させる。患者の断層画像情報を取得するステップ。断層画像情報のボクセル情報に基づいて、ボクセル情報をサンプリングして3次元画像を再構成するステップ。術具の3次元術具画像を生成するステップ。術具の先端位置に関する情報を取得するステップ。術具の先端位置に関する情報に基づいて3次元術具画像と3次元画像とを合成するステップ。術具の先端位置近傍が、所定の視点群からの視線の交点上に配置されるように、術具の3次元画像が合成された3次元画像を表示するステップ。
通常、立体感のある画像表示を行う3次元画像は、左右の視点からの視線の交点が表示画面の表面にくるように表示される。
ここで、仮想内視鏡画像は、3次元術具画像と同様に、内視鏡に取り付けられた位置センサ等における検出結果に基づいて立体的な3次元画像として生成されることが好ましい。また、上記術具の先端位置に関する情報とは、術具の先端位置の近傍に関する情報を含む。
本実施形態に係るパーソナルコンピュータ1は、図1に示すように、ディスプレイ(表示装置)2、位置・角度検出装置29、術具33、測位用トランスミッタ(磁場発生装置)34とともに手術支援システム100を構成する。
ディスプレイ(表示装置)2は、後段にて詳述する手術中のナビゲーションや術前シミュレーションを行う3次元画像を表示するとともに、手術ナビゲーションや術前シミュレーションの設定画面等を表示する。
位置・角度検出装置29は、パーソナルコンピュータ1、測位用トランスミッタ34、および術具33に接続されており、術具33に取り付けられた位置角度センサ41a,41b(図7等参照)における検知結果に基づいて、実際の手術中の術具33の位置や姿勢を検出する。
(パーソナルコンピュータ1)
パーソナルコンピュータ1は、図2に示すように、ディスプレイ(表示装置)2と、各種入力部(キーボード3、マウス4、およびタブレット5(図4参照)等))と、を備えている。
また、パーソナルコンピュータ1は、メモリ9に格納された手術支援プログラムをCPUが読み込むことで、内部に、図5に示すように、断層画像情報取得部51、ボリュームレンダリング演算部52、術具画像生成部53、画像合成部54、先端位置情報取得部55、および表示制御部56等の機能ブロックを形成する。なお、各機能ブロックの機能については、後段にて詳述する。
ボクセル情報格納部10は、ボクセル情報抽出部7から断層画像情報取得部51を介して受信したボクセル情報を格納している。
術具パラメータ設定部25は、キーボード3やマウス4を介して、術具33の各種パラメータの設定を行い、術具パラメータ格納部24へ送る。
バス16には、上述したボリュームレンダリング演算部52に加えて、メモリ9内の色情報格納部12等、ウィンドウ座標取得部20、術具位置・姿勢取得部26が接続されており、キーボード3、マウス4、タブレット5、位置・角度検出装置29等から入力された内容に基づいて、ディスプレイ2,102に3次元画像等を表示する。
色情報設定部21は、メモリ9内の色情報格納部12に接続されている。
術具位置・姿勢取得部26は、上述したように、術具33に取り付けられる位置角度センサ41a,41bにおいて測位用トランスミッタ34で発生した磁場を検出することで、術具33の位置や姿勢に関する情報を取得する。
レジストレーション演算部27は、ボリュームレンダリング演算部52において生成される3次元画像と、実際の手術中の患者の基準位置、術具33の3次元位置および回転角度を一致させるための演算を行う。なお、このレジストレーション演算部27におけるレジストレーション処理(座標変換処理)については、後段にて詳述する。
位置・角度検出装置29は、上述したように、パーソナルコンピュータ1、測位用トランスミッタ34に接続されており、術具33に取り付けられた位置角度センサ41a,41b(図7等参照)における検知結果に基づいて、実際の手術中の術具33の位置や姿勢を検出する。
本実施形態では、上述したように、メモリ9に格納された手術支援プログラムをCPUが読み込むことで、パーソナルコンピュータ1の内部に、図5に示すように、断層画像情報取得部51、ボリュームレンダリング演算部52、術具画像生成部53、画像合成部54、先端位置情報取得部55、および表示制御部56等の機能ブロックが形成される。
ボリュームレンダリング演算部52は、ボクセル情報格納部10に格納されているボクセル情報と、ボクセルラベル格納部11に格納されているボクセルラベルと、色情報格納部12に格納されている色情報と、に基づいて、視線に対して垂直、かつZ方向の間隔が一定の複数枚のスライス情報を取得する。そして、ボリュームレンダリング演算部52は、その演算結果を3次元画像としてディスプレイ2に表示させる。
画像合成部54は、ボリュームレンダリング演算部52において生成された患者の臓器や血管等を含む3次元画像と、術具画像生成部53において生成された術具画像33aとを合成する。
表示制御部56は、図6に示すように、画像合成部54において臓器等を含む3次元画像と術具33の3次元術具画像33aとを合成する際に、術具33の先端位置が、ディスプレイ2,102の表示画面の表面に設定された所定の視点群{Pe-n,・・・,Pe-1,Pe-2,Pe-3,・・・,Pe+n}からのそれぞれのベクトル{Ve-n,・・・,Ve-1,Ve-2,Ve-3,・・・,Ve+n}方向における視線の交点Pt上に配置されるように、表示制御を行う。なお、各視点Pe-n,Pe-1,Pe-2,Pe-3,・・・,Pe+n間の距離dとする。
また、本実施形態では、術具33の先端位置が、ディスプレイ2,102の表示画面の表面に設定された所定の視点群{Pe-n,Pe-1,Pe-2,Pe-3,・・・,Pe+n}からの視線の交点Pt上に配置されるように3次元画像が表示されるため、ディスプレイ2,102の表示画像の表面、つまり術具33の先端の位置を基準にして、立体的な3次元画像を表示することができる。
<本手術支援方法に関する制御フロー>
ここで、本実施形態のパーソナルコンピュータ1による手術支援方法の流れを示す制御フローについて、図8(a)から図8(c)を用いて説明すれば以下の通りである。
次に、S2において、ボクセル情報抽出部7において、断層画像情報からボクセル情報が抽出される。抽出されたボクセル情報は、断層画像情報取得部51を介して、メモリ9のボクセル情報格納部10に格納される。ボクセル情報格納部10に格納されるボクセル情報は、例えば、I(x,y,z,α)で構成される点の情報である。このとき、Iは当該点の輝度情報であり、x,y,zは座標点を示し、αは透明度情報である。
なお、上述した視線に対して垂直なスライス情報とは、視線に対して直交する面を意味している。例えば、ディスプレイ2を鉛直方向に沿って立てた状態で、これと顔の面とを平行にした状態で見た場合に、スライス情報が視線に対して垂直な面となる。
次に、S4において、ディスプレイ2には、レンダリング像が表示される。このとき、ディスプレイ2では、マウス4等を用いてCT値の範囲が指定されることで、ナビゲーション表示対象物となる骨や血管等が選択されて表示される。
すなわち、まず、S61において、レジストレーションの特徴点となる位置を指示する。具体的には、体表面から位置が確認し易い骨の部分、例えば、第五棘突起、左右の腸骨等を特徴点とする。
次に、S63において、取得したセンサ位置を示す実空間座標系を、仮想空間座標系へ変換するための変換行列を算出する。
まず、Pv0は、仮想空間内で指定した特徴点三角形の重心なので
Pv0=(Pv1+Pv2+Pv3)/3 (1)
となる。この、仮想空間の原点ベクトルPv0と特徴点3点Pv1,Pv2,Pv3から仮想空間における正規直交ベクトルを下記の手順で求める。
Vv1=1/(│Pv2−Pv0│)×(Pv2−Pv0) (2)
と定義し、特徴点Pv2,Pv3を含む平面に直交するベクトルを3軸目として求めるための一時2軸ベクトルVv2_Tmpを、
Vv2_Tmp=1/(│Pv3−Pv0│)×(Pv3−Pv0) (3)
と定義し、Vv1,Vv2_Tmpの外積をとって3軸ベクトルVv3を、
Vv3=Vv1×Vv2_Tmp (4)
Vv3,Vv1の外積をとって2軸ベクトルVv2を、
Vv2=Vv3×Vv1 (5)
と求める。
Pr0=(Pr1+Pr2+Pr3)/3 (6)
となり、Pr0と特徴点3点Pr1,Pr2,Pr3から実空間の正規直交ベクトルVr1,Vr2,Vr3を下記のように求める。
Vr1=1/(│Pr2−Pr0│)×(Pr2−Pr0) (7)
Vr2_Tmp=1/(│Pr3−Pr0│)×(Pr3−Pr0) (8)
Vr3=Vr1×Vr2_Tmp (9)
Vr2=Vr3×Vr1 (10)
次に、本実施形態の主な特徴部分となる内容について説明する。具体的には、仮想空間と、実空間の正規直交ベクトルから、各空間座標への回転行列を求める。まず、仮想空間上の回転行列Mvは、
Mv=[Vv1 Vv2 Vv3]T (11)
となり、実空間の回転行列Mrは、
Mr=[Vr1 Vr2 Vr3]T (12)
となる。
Mrotate=Mv Mr -1 (13)
スケーリング行列Hscaleは、実空間とDICOMデータは同一であると考えられるので仮想空間も同一になる。よって単位行列として定義する。
求まった回転行列Mrotate、スケーリング行列と平行移動分である仮想空間の原点Pv0により、実空間座標系から仮想空間座標系への変換行列Htは下記のようになる。
なお、変換行列Hは、変換行列保持部28内に複数保存されている。
次に、S64において、レジストレーションの精度が十分か否かを判定する。ここで、レジストレーションの精度が所定の範囲内であることを確認できるまで、S61〜S64を繰り返し行う。そして、精度が所定の範囲内確認できた段階で終了する。
なお、レジストレーションの補正処理については、後段にて詳述する。
以上のように、S5においてレジストレーションの実施指示を受けた場合にはレジストレーションを実施後、あるいはレジストレーションの実施指示を受け付けていない場合にはそのままS7に移行する。
すなわち、S81において、術具位置・姿勢取得部26が、位置・角度検出装置29における検出結果に基づいて、術具33の3次元位置および姿勢に関する情報を取得する。
次に、S83において、術具画像生成部53が、術具パラメータ格納部24から術具33の長さ、形状等に関する各種パラメータを取得する。
次に、S84において、術具画像生成部53が、術具パラメータ格納部24から術具のパラメータに基づいて、仮想的に、術具33の3次元術具画像33aを生成する。
次に、S86において、術具先端位置情報に基づいて、ボリュームレンダリング演算部52によって生成された臓器や血管等を含む患者の3次元画像と、術具33の3次元術具画像33aとを用いて、術具33の先端位置が複数の視点群からの視線の交点Pt上にくるように重ね合わせて合成する。
すなわち、仮想的な術具33の術具画像33aを臓器等を含む3次元画像に重畳した状態でボリュームレンダリングを行うことで、以下のように生成することができる。
具体的には、右手座標系で説明すると、実空間において位置角度センサ41a,41bにおける検出結果に基づいて設定される術具先端座標をPsとすると、実空間座標系から仮想空間座標系への変換行列Htを用いて、仮想空間座標における術具先端位置Ptは、
Pt=HtPs (15)
となる。
術具先端までの視線を示す単位ベクトルVeは、術具先端位置Ptと視点Pe0から、以下のように求められる。
そして、視差画像生成に必要な視点を生成するための視点移動ベクトルVmを、
Vm=Ve×Vup (17)
として求め、各視差画像の視差量を示すパラメータdを使って視点を以下のように生成する。
:
Pe-1=Pe0−dVm
Pe0=Pe0 (18)
Pe+1=Pe0+dVm
:
Pe+n=Pe0+ndVm
各視点からの視線は、視差0のポイントが術具33の先端位置となるように、術具先端位置Ptから、以下のように生成する。
:
Ve-1=Pt−Pe-1
Ve0=Pt−Pe0 (19)
Ve+1=Pt−Pe+1
:
Ve+n=Pt−Pe+n
次に、上記視点Pe-n,・・・,Pe-1,Pe0,Pe+1,・・・,Pe+n、視線Ve-n,・・・,Ve-1,Ve0,Ve+1,・・・,Ve+n
と視野の上方向ベクトルVupの設定から、各視野設定における視差画像をレンダリングする。
なお、立体視画像の出力フォーマットとしては、Pe-1を左目視点L,Pe+1を右目視点Rとした2視点の視差画像であればよい。
具体的には、視差画像の作成方法としては、アナグリフ方式、サイドバイサイド方式、ラインバイライン方式、トップアンドボトム方式がある。これらの方式で作成された視差画像は、アナグリフ(赤・青)式、偏光式やアクティブシャッター式のメガネを用いることで立体視として認識することができる。また、サイドバイサイド方式、ラインバイライン方式、トップアンドボトム方式で作成された視差画像は、裸眼立体ディスプレイを用いることで立体視として認識することができる。
図9(a)および図9(b)は、腎臓Kを含むアナグリフ方式の立体視画像に対して、術具33を近づけていく際の様子を示している。
すなわち、図9(a)に示すディスプレイ2,102のモニタ画面Mは、ナビゲーション画面として、腎臓Kの切削部位に対して、3次元の術具画像33aの先端33bが手前側にある状態を示している。
なお、図9(a)および図9(b)に示す立体視画像は、例えば、右目用のレンズは青、左目用のレンズは赤に着色加工された3Dメガネを装着することで、立体的な画像として見ることができる。
また、立体視の別の例としては、図10(a)および図10(b)に示すように、裸眼でも立体的な画像を表示することが可能なラインバイライン方式が考えられる。
この場合でも、上述したアナグリフ方式の立体視画像と同様に、術具33の先端位置、つまりディスプレイ2,102の表示画面の表面を基準にして複数の視線の交点が設定されているため、術具画像33aの先端33bよりも手前側にある血管B等については、表示画面の表面から飛び出しているように表示することができるとともに、先端33bよりも奥にある腎臓K等については、表示画面の表面よりも奥まった位置にあるように表示することができる。
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、発明の要旨を逸脱しない範囲で種々の変更が可能である。
(A)
上記実施形態では、手術支援装置として本発明を実現した例を挙げて説明した。しかし、本発明はこれに限定されるものではない。
(B)
上記実施形態では、術具33の3次元位置と姿勢を検出して、臓器等を含む3次元画像中に実際の術具33の動きに応じて移動する3次元術具画像を表示する例を挙げて説明した。しかし、本発明はこれに限定されるものではない。
この場合には、実際に内視鏡によって見える範囲を限定したナビゲーション画像を形成するために、図12に示すように、仮想的な内視鏡画像データを生成すればよい。
また、仮想内視鏡画像を用いた手術ナビゲーションでは、視野が限定されるため、内視鏡先端よりも手前側にある臓器や血管等は画面上から消えていくという特質がある。よって、上記実施形態の3次元画像、3次元術具画像と、仮想内視鏡画像とを組み合わせて表示させる場合には、内視鏡の先端よりも手前側にある臓器や血管については表示しない、あるいは半透明にして表示する等、実際の内視鏡画像に近い表示とすることが望ましい。
上記実施形態では、3次元画像の表示方法として、実際に術具先端よりも手前にある臓器や血管等については、表示画面から手前に飛び出すように表示するとともに、術具先端よりも奥にある臓器や血管等については、表示画面から奥まった位置にあるように表示する例を挙げて説明した。しかし、本発明はこれに限定されるものではない。
この場合には、術具を奥側(先端側)から見た3次元画像を表示することができるため、上記と同様の効果を得ることができる。
上記実施形態では、術具33の3次元位置および姿勢を検出するために、図7に示すように、術具33の根元付近に位置角度センサ41a,41bを2つ取り付けた例を挙げて説明した。しかし、本発明はこれに限定されるものではない。
例えば、位置角度センサの代わりに位置センサを用いる場合には、術具の根元付近に3つ取り付けることで、術具の3次元位置や姿勢を検出することが可能である。
また、術具の先端位置を検出するためのセンサとしては、磁気センサに限らず、他のセンサを用いてもよい。
(E)
上記実施形態では、図9(a)および図9(b)に示すように、3Dメガネを用いて立体画像を見るアナグリフ方式の3次元画像や、図10(a)および図10(b)に示すように、裸眼立体視ディスプレイに表示されるラインバイライン方式の3次元画像を表示する例を挙げて説明した。しかし、本発明はこれに限定されるものではない。
また、裸眼でも3次元画像が表示される表示の出力方式としては、上記ラインバイライン方式以外にも、左目用の画像と右目用の画像とを左右に並べて表示するサイドバイサイド方式や、上下に並べて表示するトップアンドボトム方式等を用いてもよい。
2 ディスプレイ(表示装置)
3 キーボード
4 マウス
5 タブレット
7 ボクセル情報抽出部
8 断層画像情報部
9 メモリ
10 ボクセル情報格納部
11 ボクセルラベル格納部
12 色情報格納部
16 バス
20 ウィンドウ座標取得部
21 色情報設定部
24 術具パラメータ格納部
25 術具パラメータ設定部
26 術具位置・姿勢取得部
27 レジストレーション演算部
28 変換行列保持部
29 位置・角度検出装置
33 術具
33a 術具画像
33b 先端
34 BOX型トランスミッタ
41a,41b 位置角度センサ
51 断層画像取得部
52 ボリュームレンダリング演算部
53 術具画像生成部
54 画像合成部
55 先端位置情報取得部
56 表示制御部
57 仮想内視鏡画像生成部
100 手術支援システム
101 手術支援装置
102 液晶ディスプレイ(表示装置)
B 血管
K 腎臓
M モニタ表示画面
Claims (10)
- 術具を用いて実施される手術中に、断層画像情報から生成される3次元画像を表示装置に表示させながらナビゲーションを行う手術支援装置であって、
患者の断層画像情報を取得する断層画像情報取得部と、
前記断層画像情報取得部において取得された前記断層画像情報のボクセル情報に基づいて、ボクセル情報をサンプリングして3次元画像を再構成するボリュームレンダリング演算部と、
前記術具の3次元術具画像を生成する術具画像生成部と、
前記術具の根元付近に取り付けられたセンサから、前記術具の先端位置に関する情報を取得する先端位置情報取得部と、
前記術具画像生成部において生成された前記3次元術具画像を、前記先端位置情報取得部において取得された前記術具の先端位置に基づいて、前記ボリュームレンダリング演算部において生成された3次元画像と合成する画像合成部と、
前記先端位置情報取得部において取得された前記術具の先端位置近傍が、所定の視点群からの視線の交点上に配置されるように、前記術具の3次元画像が合成された前記3次元画像を表示する表示制御部と、
を備え、
前記表示制御部は、前記視線の交点が前記表示装置の表示画面の表面付近に配置されるように、前記術具の3次元画像が合成された前記3次元画像を表示するとともに、手術中の術者から見た視点と同じ方向から前記3次元画像を表示する、
手術支援装置。 - 前記表示制御部は、前記術具先端よりも手前側にある物体が、前記表示装置の表示画面よりも手前に飛び出した位置に3次元表示を行う、
請求項1に記載の手術支援装置。 - 前記表示制御部は、前記術具先端よりも奥側にある物体が、前記表示装置の表示画面よりも奥まった位置にあるように3次元表示を行う、
請求項1または2に記載の手術支援装置。 - 術具を用いて実施される手術中に、断層画像情報から生成される3次元画像を表示装置に表示させながらナビゲーションを行う手術支援装置であって、
内視鏡の位置情報に基づいて、仮想内視鏡画像を生成する仮想内視鏡画像生成部と、
前記術具の3次元術具画像を生成する術具画像生成部と、
前記術具の根元付近に取り付けられたセンサから、前記術具の先端位置に関する情報を取得する先端位置情報取得部と、
前記術具画像生成部において生成された前記3次元術具画像を、前記先端位置情報取得部において取得された前記術具の先端位置に関する情報に基づいて、前記仮想内視鏡画像生成部において生成された3次元画像と合成する画像合成部と、
前記内視鏡の位置と内視鏡特性に基づいて決定される内視鏡焦点の近傍位置が、所定の視点群からの視線の交点上に配置されるように、前記術具の3次元画像が合成された前記3次元画像を表示する表示制御部と、
を備え、
前記表示制御部は、さらに前記視線の交点が前記表示装置の表示画面の表面付近に配置されるように、前記術具の3次元画像が合成された前記3次元画像を表示し、手術中の術者から見た視点と同じ方向から前記3次元画像を表示する、
手術支援装置。 - 前記表示制御部は、前記内視鏡焦点の近傍位置よりも手前側にある物体が、前記表示装置の表示画面よりも手前に飛び出した位置に3次元表示を行う、
請求項4に記載の手術支援装置。 - 前記表示制御部は、前記内視鏡焦点の近傍位置よりも奥側にある物体が、前記表示装置の表示画面よりも奥まった位置にあるように3次元表示を行う、
請求項4から5のいずれか1項に記載の手術支援装置。 - 前記術具画像生成部は、前記術具の先端位置、その反対側の根元位置、および前記術具の立体画像に基づいて、仮想的な術具画像を生成する、
請求項1から6のいずれか1項に記載の手術支援装置。 - 前記先端位置情報取得部は、前記術具の先端とは反対側の端部に設けられた2つの位置角度センサ、あるいは3つの位置センサにおける検出結果を用いて、前記術具の先端位置情報を取得する、
請求項1から7のいずれか1項に記載の手術支援装置。 - 術具を用いて実施される手術中に、断層画像情報から生成される3次元画像を表示装置に表示させながらナビゲーションを行う手術支援プログラムであって、
患者の断層画像情報を取得するステップと、
前記断層画像情報のボクセル情報に基づいて、ボクセル情報をサンプリングして3次元画像を再構成するステップと、
前記術具の3次元術具画像を生成するステップと、
前記術具の根元付近に取り付けられたセンサから、前記術具の先端位置に関する情報を取得するステップと、
前記術具の先端位置に関する情報に基づいて、前記3次元術具画像と前記3次元画像とを合成するステップと、
前記術具の先端位置近傍が、所定の視点群からの視線の交点上に配置されるように、前記術具の3次元画像が合成された前記3次元画像を表示するステップと、
前記視線の交点が前記表示装置の表示画面の表面付近に配置されるように、前記術具の3次元画像が合成された前記3次元画像を表示するステップと、
手術中の術者から見た視点と同じ方向から前記3次元画像を表示するステップと、
を備えた手術支援方法をコンピュータに実行させる手術支援プログラム。 - 術具を用いて実施される手術中に、断層画像情報から生成される3次元画像を表示装置に表示させながらナビゲーションを行う手術支援プログラムであって、
内視鏡の位置情報に基づいて、仮想内視鏡画像を生成するステップと、
前記術具の3次元術具画像を生成するステップと、
前記術具の根元付近に取り付けられたセンサから、前記術具の先端位置に関する情報を取得するステップと、
前記3次元術具画像を、前記術具の先端位置に関する情報に基づいて、3次元画像と合成するステップと、
前記内視鏡の位置と内視鏡特性に基づいて決定される内視鏡焦点の近傍位置が、所定の視点群からの視線の交点上に配置されるように、前記術具の3次元画像が合成された前記3次元画像を表示するステップと、
前記視線の交点が前記表示装置の表示画面の表面付近に配置されるように、前記術具の3次元画像が合成された前記3次元画像を表示するステップと、
手術中の術者から見た視点と同じ方向から前記3次元画像を表示するステップと、
を備えた手術支援方法をコンピュータに実行させる手術支援プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014002538A JP6275488B2 (ja) | 2014-01-09 | 2014-01-09 | 手術支援装置および手術支援プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014002538A JP6275488B2 (ja) | 2014-01-09 | 2014-01-09 | 手術支援装置および手術支援プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015130911A JP2015130911A (ja) | 2015-07-23 |
JP6275488B2 true JP6275488B2 (ja) | 2018-02-07 |
Family
ID=53898692
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014002538A Active JP6275488B2 (ja) | 2014-01-09 | 2014-01-09 | 手術支援装置および手術支援プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6275488B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018130375A (ja) * | 2017-02-16 | 2018-08-23 | 池上通信機株式会社 | 映像データ表示装置 |
JP2022116559A (ja) * | 2021-01-29 | 2022-08-10 | ソニーグループ株式会社 | 画像処理装置、画像処理方法及び手術顕微鏡システム |
JP2023183004A (ja) * | 2022-06-15 | 2023-12-27 | 株式会社アールテック | 医用画像処理装置及び医用画像処理方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001149366A (ja) * | 1999-11-25 | 2001-06-05 | Toshiba Corp | 三次元画像処理装置 |
JP6242569B2 (ja) * | 2011-08-25 | 2017-12-06 | 東芝メディカルシステムズ株式会社 | 医用画像表示装置及びx線診断装置 |
JP2013202313A (ja) * | 2012-03-29 | 2013-10-07 | Panasonic Corp | 手術支援装置および手術支援プログラム |
JP5787030B2 (ja) * | 2012-03-29 | 2015-09-30 | 株式会社島津製作所 | 医療用x線装置 |
-
2014
- 2014-01-09 JP JP2014002538A patent/JP6275488B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015130911A (ja) | 2015-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12010285B2 (en) | Augmented reality guidance for spinal surgery with stereoscopic displays | |
US11484365B2 (en) | Medical image guidance | |
US20220296208A1 (en) | Loupe display | |
US10398513B2 (en) | Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures | |
EP2548495B1 (en) | System and program for supporting endoscopic observation | |
EP2554103B1 (en) | Endoscope observation supporting system and programme | |
KR101189550B1 (ko) | 3차원 디지털 확대경 수술지원 시스템 | |
US20100208958A1 (en) | Image processing device, image processing system, and computer readable medium | |
WO2013145730A1 (ja) | 手術支援装置および手術支援プログラム | |
WO2016207628A1 (en) | Augmented reality imaging system, apparatus and method | |
JPH11309A (ja) | 画像処理装置 | |
CN108629845B (zh) | 手术导航装置、设备、系统和可读存储介质 | |
WO2012045626A1 (en) | Image projection system for projecting image on the surface of an object | |
WO2013014868A1 (ja) | 切削シミュレーション装置および切削シミュレーションプログラム | |
Reiter et al. | Surgical structured light for 3D minimally invasive surgical imaging | |
JP6275488B2 (ja) | 手術支援装置および手術支援プログラム | |
WO2016194446A1 (ja) | 情報処理装置、情報処理方法、及び生体内撮像システム | |
US20220392173A1 (en) | Virtual enhancement of a camera image | |
Singla | Intra-operative ultrasound-based augmented reality for laparoscopic surgical guidance | |
Wang et al. | Innovative 3D augmented reality techniques for spinal surgery applications | |
Raposio et al. | Three-dimensional computer-assisted design of plastic reconstructive surgery procedures |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160805 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170417 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170425 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20170425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170619 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170829 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20170901 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171018 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180110 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6275488 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |