JP2015130911A - 手術支援装置および手術支援プログラム - Google Patents

手術支援装置および手術支援プログラム Download PDF

Info

Publication number
JP2015130911A
JP2015130911A JP2014002538A JP2014002538A JP2015130911A JP 2015130911 A JP2015130911 A JP 2015130911A JP 2014002538 A JP2014002538 A JP 2014002538A JP 2014002538 A JP2014002538 A JP 2014002538A JP 2015130911 A JP2015130911 A JP 2015130911A
Authority
JP
Japan
Prior art keywords
surgical instrument
image
dimensional
information
surgical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014002538A
Other languages
English (en)
Other versions
JP6275488B2 (ja
Inventor
伸幸 高嶋
Nobuyuki Takashima
伸幸 高嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PHC Holdings Corp
Original Assignee
Panasonic Healthcare Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Healthcare Holdings Co Ltd filed Critical Panasonic Healthcare Holdings Co Ltd
Priority to JP2014002538A priority Critical patent/JP6275488B2/ja
Publication of JP2015130911A publication Critical patent/JP2015130911A/ja
Application granted granted Critical
Publication of JP6275488B2 publication Critical patent/JP6275488B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Nuclear Medicine (AREA)

Abstract

【課題】実際の手術中において、術具先端と臓器、血管等との位置関係を正確に認識させる表示を行うことが可能な手術支援装置を提供する。
【解決手段】手術支援装置は、断層画像情報取得部51、ボリュームレンダリング演算部52、術具画像生成部53、先端位置情報取得部55、画像合成部54、表示制御部56を備えている。ボリュームレンダリング演算部52は、断層画像情報のボクセル情報に基づいて視線に対して垂直の方向にボクセル情報をサンプリングして3次元画像を再構成する。術具画像生成部53は、3次元術具画像を生成する。先端位置情報取得部55は、術具33の先端位置に関する情報を取得する。画像合成部54は、3次元術具画像を術具の先端位置に関する情報に基づいて内臓等を含む3次元画像と合成する。表示制御部56は、術具33の先端位置が所定の視点群からの視線の交点上に配置されるように、術具33の3次元画像が合成された3次元画像を表示する。
【選択図】図5

Description

本発明は、手術中のナビゲーションを行う手術支援装置および手術支援プログラムに関する。
医療現場において、より適切な手術を行うために、手術のシミュレーションを行うことが可能な手術支援装置が活用されている。
従来の手術支援装置は、例えば、X線CT画像や核磁気共鳴画像(MRI画像)、PET(陽電子放射断層法)によって取得された画像等の断層画像情報を取得する断層画像情報取得部と、断層画像情報取得部に接続されたメモリと、メモリに接続されたボリュームレンダリング演算部と、ボリュームレンダリング演算部の演算結果を表示するディスプレイと、ディスプレイに表示された表示対象物に対して切削指示を行う入力部と、を備えていた。
例えば、特許文献1には、処置具の挿入量、挿入位置、挿入傾斜角に基づいて処置具形状画像をライブの内視鏡画像に同期した仮想内視鏡画像中に合成することで、ライブの内視鏡画像に対応した術中の処置具のアプローチ状況を表示することが可能な手術支援装置について開示されている。
特開2005−21353号公報(平成17年1月27日公開) 国際公開第2013/145730号(2013年10月3日国際公開)
しかしながら、上記従来の手術支援装置では、以下に示すような問題点を有している。
すなわち、上記公報に開示された手術支援装置では、リアルタイムの内視鏡画像に同期した仮想内視鏡画像および仮想内視鏡画像に合成される術具が平面状の画像であるため、表示画像に立体感がなく、術具、特に、術具先端の位置と臓器や血管等との前後の位置関係が認識しにくいという問題がある。
本発明の課題は、実際の手術中において、術具先端と臓器、血管等との位置関係を正確に認識できるように表示して、より効果的な手術ナビゲーションを実施することが可能な手術支援装置および手術支援プログラムを提供することにある。
第1の発明に係る手術支援装置は、術具を用いて実施される手術中に、断層画像情報から生成される3次元画像を表示装置に表示させながらナビゲーションを行う手術支援装置であって、断層画像情報取得部と、ボリュームレンダリング演算部と、術具画像生成部と、先端位置情報取得部と、画像合成部と、表示制御部と、を備えている。断層画像情報取得部は、患者の断層画像情報を取得する。ボリュームレンダリング演算部は、断層画像情報取得部において取得された断層画像情報のボクセル情報に基づいて、ボクセル情報をサンプリングして3次元画像を再構成する。術具画像生成部は、術具の3次元術具画像を生成する。先端位置情報取得部は、術具の先端位置に関する情報を取得する。画像合成部は、術具画像生成部において生成された3次元術具画像を、先端位置情報取得部において取得された術具の先端位置に基づいて、ボリュームレンダリング演算部において生成された3次元画像と合成する。表示制御部は、先端位置情報取得部において取得された術具の先端位置近傍が、所定の視点群からの視線の交点上に配置されるように、術具の3次元画像が合成された3次元画像を表示する。
ここでは、例えば、複数のX線CT画像を用いて作成した3次元画像を用いて特定の骨や血管、臓器等の周辺を表示した状態で手術を行う際に、実際に手術で使用する術具の3次元位置を逐次検出し、複数のX線CT画像から形成され臓器や血管等を含む3次元画像と術具の3次元画像とを合成する。そして、3次元画像の所定の視点群からの視線の交点上に術具の先端位置が配置されるように表示させる。
ここで、上記断層画像には、例えば、X線CTやMRI、PET等の医用機器を用いて取得された2次元画像が含まれる。また、上記術具には、内臓や骨等を切削する切削器具や鉗子等が含まれる。また、上記術具の先端位置は、実際に手術に用いられる術具に取り付けられた位置角度センサ等を用いて検出される。また、上記術具の先端位置に関する情報とは、術具の先端位置の近傍に関する情報を含む。
通常、立体感のある画像表示を行う3次元画像は、左右の視点からの視線の交点が表示画面の表面にくるように表示される。
これにより、術具の先端が視線の交点の位置にくるように3次元画像と3次元術具画像とが位置合わせされて表示されるため、術具の先端位置に対応する表示装置の表示画面の表面を基準として、臓器や血管、術具を含む立体的な3次元画像を表示することができる。よって、従来よりも立体感のある3次元画像を表示することで、術具の位置と臓器や血管、神経等の位置を術者に正確に認識させることができるため、より効果的な手術ナビゲーションを実施することができる。
第2の発明に係る手術支援装置は、第1の発明に係る手術支援装置であって、表示制御部は、視線の交点が表示装置の表示画面の表面付近に配置されるように、術具の3次元画像が合成された3次元画像を表示する。
ここでは、3次元画像を表示する際に、術具の先端が視線の交点にくるように3次元画像が位置合わせされた表示装置の表示画面の表面付近を基準にして、3次元画像を表示する。
これにより、術具の先端位置に対応する表示装置の表示画面の表面を基準として、臓器や血管、術具を含む立体的な3次元画像を表示することができる。よって、従来よりも立体感のある3次元画像を表示して、効果的な手術ナビゲーションを実施することができる。
第3の発明に係る手術支援装置は、第1または第2の発明に係る手術支援装置であって、表示制御部は、術具先端よりも手前側にある物体が、表示装置の表示画面よりも手前側に飛び出した位置に3次元表示を行う。
ここでは、3次元画像の所定の視点群からの視線の交点上に術具の先端位置が配置されるように表示させる際に、術具先端から手前側にある臓器や血管等の物体が、表示画面から飛び出すように表示させる。
これにより、手術中の術者から見た視点と同じ方向から3次元の手術ナビゲーション画像を表示することができる。よって、術者は術具の先端が臓器や血管に対してどの位置にあるのかを正確に認識することができるため、より精度の高い手術ナビゲーションを実施することができる。
第4の発明に係る手術支援装置は、第1から第3の発明のいずれか1つに係る手術支援装置であって、表示制御部は、術具先端よりも奥側にある物体が、表示装置の表示画面よりも奥まった位置にあるように3次元表示を行う。
ここでは、3次元画像の所定の視点群からの視線の交点上に術具の先端位置が配置されるように表示させる際に、術具先端よりも奥側にある臓器や血管等の物体が、表示画面から奥まった位置にあるように表示させる。
これにより、手術中の術者から見た視点と同じ方向から3次元の手術ナビゲーション画像を表示することができる。よって、術者は術具の先端が臓器や血管に対してどの位置にあるのかを正確に認識することができるため、より精度の高い手術ナビゲーションを実施することができる。
第5の発明に係る手術支援装置は、術具を用いて実施される手術中に、断層画像情報から生成される3次元画像を表示装置に表示させながらナビゲーションを行う手術支援装置であって、仮想内視鏡画像生成部と、術具画像生成部と、先端位置情報取得部と、画像合成部と、表示制御部と、を備えている。仮想内視鏡画像生成部は、内視鏡の位置情報に基づいて、仮想内視鏡画像を生成する。術具画像生成部は、術具の3次元術具画像を生成する。先端位置情報取得部は、術具の先端位置に関する情報を取得する。画像合成部は、術具画像生成部において生成された3次元術具画像を、先端位置情報取得部において取得された術具の先端位置に関する情報に基づいて、仮想内視鏡画像生成部において生成された3次元画像と合成する。表示制御部は、内視鏡の位置と内視鏡特性に基づいて決定される内視鏡焦点の近傍位置が、所定の視点群からの視線の交点上に配置されるように、術具の3次元画像が合成された3次元画像を表示する。
ここでは、内視鏡を用いた手術に対応するために、仮想内視鏡画像を生成して、臓器や血管等を含む3次元画像と3次元術具画像とが合成された3次元画像に合成する。
ここで、仮想内視鏡画像は、3次元術具画像と同様に、内視鏡に取り付けられた位置センサ等における検出結果に基づいて立体的な3次元画像として生成されることが好ましい。また、上記術具の先端位置に関する情報とは、術具の先端位置の近傍に関する情報を含む。
これにより、内視鏡を用いた手術と同様に、視野が制限された状態で3次元画像を表示するとともに、内視鏡の先端と臓器や骨等との前後の位置関係を正確に術者に認識させながら、手術ナビゲーションを実施することができる。
第6の発明に係る手術支援装置は、第5の発明に係る手術支援装置であって、表示制御部は、内視鏡焦点の近傍位置よりも手前側にある物体が、表示装置の表示画面よりも手前側に飛び出した位置に3次元表示を行う。
ここでは、3次元画像の所定の視点群からの視線の交点上に内視鏡焦点の近傍位置が配置されるように表示させる際に、内視鏡焦点の近傍位置から手前側にある臓器や血管等の物体が、表示画面から飛び出すように表示させる。
これにより、手術中の術者から見た視点と同じ方向から3次元の手術ナビゲーション画像を表示することができる。よって、術者は内視鏡焦点の近傍位置に対する臓器や血管の位置を正確に認識することができるため、より精度の高い手術ナビゲーションを実施することができる。
第7の発明に係る手術支援装置は、第5または第6の発明に係る手術支援装置であって、表示制御部は、内視鏡焦点の近傍位置よりも奥側にある物体が、表示装置の表示画面よりも奥まった位置にあるように3次元表示を行う。
ここでは、3次元画像の所定の視点群からの視線の交点上に内視鏡焦点の近傍位置が配置されるように表示させる際に、内視鏡焦点の近傍位置よりも奥側にある臓器や血管等の物体が、表示画面から奥まった位置にあるように表示させる。
これにより、手術中の術者から見た視点と同じ方向から3次元の手術ナビゲーション画像を表示することができる。よって、術者は内視鏡焦点の近傍位置に対する臓器や血管の位置を正確に認識することができるため、より精度の高い手術ナビゲーションを実施することができる。
第8の発明に係る手術支援装置は、第5から第7の発明のいずれかに係る手術支援装置であって、表示制御部は、仮想内視鏡画像における内視鏡の先端位置よりも手前側に配置された物体を表示しない、あるいは半透明で表示する。
ここでは、内視鏡を用いた手術における表示態様に合わせるために、仮想内視鏡画像における内視鏡の先端位置よりも手前側にある臓器や血管等を、表示させない、あるいは半透明にして表示させる。
これにより、実際の内視鏡手術と同様に、内視鏡によって視野が制限された表示態様とすることができる。よって、実際の内視鏡を用いた手術と同様の見せ方で、手術ナビゲーションを実施することができる。
第9の発明に係る手術支援装置は、第1から第7の発明のいずれか1つに係る手術支援装置であって、術具画像生成部は、術具の先端位置、その反対側の根元位置、および術具の立体画像に基づいて、仮想的な術具画像を生成する。
ここでは、3次元術具画像を生成する際に、実際の術具の先端・根元位置情報に基づいて、術具の立体画像の位置や方向を設定して仮想的な術具画像を生成する。
ここで、術具の立体画像は、例えば、実際の術具の位置情報と、予め入力された術具の長さ、円筒部の半径等のデータに基づいて幾何学図形の組み合わせによって生成されてもよい。
これにより、臓器等を含む3次元画像に3次元術具画像を合成して、より立体感のある3次元画像を表示しながら手術ナビゲーションを実施することができる。
第10の発明に係る手術支援装置は、第1から第9の発明のいずれか1つに係る手術支援装置であって、先端位置情報取得部は、術具の先端とは反対側の端部に設けられた2つの位置角度センサ、あるいは3つの位置センサにおける検出結果を用いて、術具の先端位置情報を取得する。
ここでは、術具の位置情報取得手段として、術具の根元付近に配置された2つの位置角度センサ、あるいは3つの位置センサを用いている。
これにより、実際に術具を移動させることで、術具の先端位置、根元付近の位置等を正確に検出して3次元術具画像に反映させることができる。
第11の発明に係る手術支援プログラムは、術具を用いて行われる手術中に、断層画像情報から生成される3次元画像を表示装置に表示させながらナビゲーションを行う手術支援プログラムであって、以下のようなステップを備えた手術支援方法をコンピュータに実行させる。患者の断層画像情報を取得するステップ。断層画像情報のボクセル情報に基づいて、ボクセル情報をサンプリングして3次元画像を再構成するステップ。術具の3次元術具画像を生成するステップ。術具の先端位置に関する情報を取得するステップ。術具の先端位置に関する情報に基づいて3次元術具画像と3次元画像とを合成するステップ。術具の先端位置近傍が、所定の視点群からの視線の交点上に配置されるように、術具の3次元画像が合成された3次元画像を表示するステップ。
ここでは、例えば、複数のX線CT画像を用いて作成した3次元画像を用いて特定の骨や血管、臓器等の周辺を表示した状態で手術を行う際に、実際に手術で使用する術具の3次元位置を逐次検出し、複数のX線CT画像から形成され臓器や血管等を含む3次元画像と術具の3次元画像とを合成する。そして、3次元画像の所定の視点群からの視線の交点上に術具の先端位置が配置されるように表示させる。
ここで、上記断層画像には、例えば、X線CTやMRI、PET等の医用機器を用いて取得された2次元画像が含まれる。また、上記術具には、内臓や骨等を切削する切削器具や鉗子等が含まれる。また、上記術具の先端位置は、実際に手術に用いられる術具に取り付けられた位置角度センサ等を用いて検出される。
通常、立体感のある画像表示を行う3次元画像は、左右の視点からの視線の交点が表示画面の表面にくるように表示される。
これにより、術具の先端が視線の交点の位置にくるように3次元画像と3次元術具画像とが位置合わせされて表示されるため、術具の先端位置に対応する表示装置の表示画面の表面を基準として、臓器や血管、術具を含む立体的な3次元画像を表示することができる。よって、従来よりも立体感のある3次元画像を表示することで、術具の位置と臓器や血管、神経等の位置を術者に正確に認識させることができるため、より効果的な手術ナビゲーションを実施することができる。
第12の発明に係る手術支援プログラムは、術具を用いて実施される手術中に、断層画像情報から生成される3次元画像を表示装置に表示させながらナビゲーションを行う手術支援プログラムであって、以下のようなステップを備えた手術支援方法をコンピュータに実行させる。内視鏡の位置情報に基づいて、仮想内視鏡画像を生成するステップ。術具の3次元術具画像を生成するステップ。術具の先端位置に関する情報を取得するステップ。3次元術具画像を、術具の先端位置に関する情報に基づいて、3次元画像と合成するステップ。内視鏡の位置と内視鏡特性に基づいて決定される内視鏡焦点の近傍位置が、所定の視点群からの視線の交点上に配置されるように、術具の3次元画像が合成された3次元画像を表示するステップ。
ここでは、内視鏡を用いた手術に対応するために、仮想内視鏡画像を生成して、臓器や血管等を含む3次元画像と3次元術具画像とが合成された3次元画像に合成する。
ここで、仮想内視鏡画像は、3次元術具画像と同様に、内視鏡に取り付けられた位置センサ等における検出結果に基づいて立体的な3次元画像として生成されることが好ましい。また、上記術具の先端位置に関する情報とは、術具の先端位置の近傍に関する情報を含む。
これにより、内視鏡を用いた手術と同様に、視野が制限された状態で3次元画像を表示するとともに、内視鏡の先端と臓器や骨等との前後の位置関係を正確に術者に認識させながら、手術ナビゲーションを実施することができる。
本発明に係る手術支援装置によれば、実際の手術中において、術具先端と臓器、血管等との位置関係を正確に認識できるように表示して、より効果的な手術ナビゲーションを実施することができる。
本発明の一実施形態に係るパーソナルコンピュータ(手術支援装置)を含む手術支援システムの構成を示す図。 図1の手術支援システムに含まれるパーソナルコンピュータを示す斜視図。 (a)〜(c)は、本手術支援システムにおいて用いられる術具の一例を示す図。 図2のパーソナルコンピュータの制御ブロック図。 図2のパーソナルコンピュータ内に形成される機能ブロックを示すブロック図。 図5の表示制御部によって臓器や血管等を含む3次元画像と術具の3次元画像とを合成する際の位置合わせについて説明する概念図。 図1の手術支援システムにおいて用いられる術具とその根元に取り付けられた位置角度センサを示す図。 (a)〜(c)は、図2のパーソナルコンピュータによる手術支援方法の流れを示すフローチャート。 (a)および(b)は、図1の手術支援システムのディスプレイに表示されるナビゲーション画面の一例を示す図。 (a)および(b)は、図1の手術支援システムのディスプレイに表示されるナビゲーション画面の他の例を示す図。 本発明の他の実施形態に係るパーソナルコンピュータ内に形成される機能ブロックを示すブロック図。 本発明のさらに他の実施形態に係る手術支援システムのディスプレイに表示されるナビゲーション画面の一例を示す図。
本発明の一実施形態に係るパーソナルコンピュータ(手術支援装置)について、図1〜図10(b)を用いて説明すれば以下の通りである。
本実施形態に係るパーソナルコンピュータ1は、図1に示すように、ディスプレイ(表示装置)2、位置・角度検出装置29、術具33、測位用トランスミッタ(磁場発生装置)34とともに手術支援システム100を構成する。
パーソナルコンピュータ1は、本実施形態の手術支援方法をコンピュータに実行させる手術支援プログラムを読み込んで手術支援装置として機能する。なお、パーソナルコンピュータ1の構成については、後段にて詳述する。
ディスプレイ(表示装置)2は、後段にて詳述する手術中のナビゲーションや術前シミュレーションを行う3次元画像を表示するとともに、手術ナビゲーションや術前シミュレーションの設定画面等を表示する。
なお、手術中のナビゲーションを表示する表示装置としては、手術中の術者に分かり易くナビゲーション画面を表示する必要があるため、パーソナルコンピュータ1のディスプレイ2に加えて、図1の手術支援システム100に含まれる大型の液晶ディスプレイ102も併用される。
位置・角度検出装置29は、パーソナルコンピュータ1、測位用トランスミッタ34、および術具33に接続されており、術具33に取り付けられた位置角度センサ41a,41b(図7等参照)における検知結果に基づいて、実際の手術中の術具33の位置や姿勢を検出する。
術具33は、手術中に使用される道具であって、例えば、図3(a)に示す電気メスや、図3(b)に示す超音波メス、あるいは図3(c)に示す鉗子等が含まれる。また、術具33には、その根元付近に2つの位置角度センサ41a,41b(図7等参照)が設けられている。これにより、実際の手術中における術具33の位置・姿勢等を、位置角度センサ41a,41bによって検出することができる。
測位用トランスミッタ(磁場発生装置)34は、患者が横になる手術台の近傍に配置され、磁場を発生させる。これにより、術具33に取り付けられる位置角度センサ41a,41b(図7参照)において測位用トランスミッタ34によって発生させた磁場を検出することで、実際の手術中における術具33の位置や姿勢を検出することができる。
(パーソナルコンピュータ1)
パーソナルコンピュータ1は、図2に示すように、ディスプレイ(表示装置)2と、各種入力部(キーボード3、マウス4、およびタブレット5(図4参照)等))と、を備えている。
ディスプレイ2は、X線CT画像等の複数の断層画像から形成される骨や臓器の3次元画像を表示するとともに、術前シミュレーションの結果や手術ナビゲーションの内容を表示する。
また、パーソナルコンピュータ1は、メモリ9に格納された手術支援プログラムをCPUが読み込むことで、内部に、図5に示すように、断層画像情報取得部51、ボリュームレンダリング演算部52、術具画像生成部53、画像合成部54、先端位置情報取得部55、および表示制御部56等の機能ブロックを形成する。なお、各機能ブロックの機能については、後段にて詳述する。
メモリ9は、パーソナルコンピュータ1内に設けられており、ボクセル情報格納部10、ボクセルラベル格納部11、および色情報格納部12、術具パラメータ格納部24を有している。また、メモリ9には、ボリュームレンダリング演算部52が接続されている。
ボクセル情報格納部10は、ボクセル情報抽出部7から断層画像情報取得部51を介して受信したボクセル情報を格納している。
ボクセルラベル格納部11は、第1ボクセルラベル格納部、第2ボクセルラベル格納部、第3ボクセルラベル格納部を有している。これらの第1〜第3ボクセルラベル格納部は、後述する予め設定されたCT値の範囲、つまり表示対象となる臓器にそれぞれ対応して設けられている。例えば、第1ボクセルラベル格納部は、肝臓を表示するCT値の範囲に対応しており、第2ボクセルラベル格納部は、血管を表示するCT値の範囲に対応しており、第3ボクセルラベル格納部は、骨を表示するCT値の範囲に対応している。
色情報格納部12は、内部に複数の格納部を有している。各格納部は、予め設定されたCT値の範囲、つまり表示対象となる骨、血管、神経、臓器等にそれぞれ対応して設けられている。例えば、肝臓を表示するCT値の範囲に対応する格納部、血管を表示するCT値の範囲に対応する格納部、骨を表示するCT値の範囲に対応する格納部等が挙げられる。このとき、各格納部には、表示対象となる骨、血管、神経、臓器ごとにそれぞれ異なる色情報が設定されている。例えば、骨に対応するCT値の範囲には白色の色情報、血管に対応するCT値の範囲には赤色の色情報がそれぞれ格納されている。
なお、表示対象となる骨や血管、神経、臓器ごとに設定されるCT値とは、人体におけるX線吸収の程度を数値化したものであり、水を0とする相対値(単位:HU)として表される。例えば、骨が表示されるCT値の範囲は500〜1000HU、血液が表示されるCT値の範囲は30〜50HU、肝臓が表示されるCT値の範囲は60〜70HU、腎臓が表示されるCT値の範囲は30〜40HUである。
術具パラメータ格納部24は、例えば、術具33を電気メス(図2(a)参照)とすると、術具33の長さ、先端形状、位置、姿勢等に関する情報がそれぞれ格納されている。また、術具パラメータ格納部24は、図4に示すように、術具パラメータ設定部25と接続されている。
術具パラメータ設定部25は、キーボード3やマウス4を介して、術具33の各種パラメータの設定を行い、術具パラメータ格納部24へ送る。
術具位置・姿勢取得部26は、バス16を介して、術具33の位置や角度を検出する位置・角度検出装置29における検出結果を受信して、ボリュームレンダリング演算部52、レジストレーション演算部27へ送る。
バス16には、上述したボリュームレンダリング演算部52に加えて、メモリ9内の色情報格納部12等、ウィンドウ座標取得部20、術具位置・姿勢取得部26が接続されており、キーボード3、マウス4、タブレット5、位置・角度検出装置29等から入力された内容に基づいて、ディスプレイ2,102に3次元画像等を表示する。
ウィンドウ座標取得部20には、色情報設定部21とレジストレーション演算部27とが接続されている。
色情報設定部21は、メモリ9内の色情報格納部12に接続されている。
術具位置・姿勢取得部26は、上述したように、術具33に取り付けられる位置角度センサ41a,41bにおいて測位用トランスミッタ34で発生した磁場を検出することで、術具33の位置や姿勢に関する情報を取得する。
なお、術具33の3次元における位置や姿勢を検出するための位置角度センサ41a,41bは、図7に示すように、術具33の根元付近にある把持部における操作の邪魔にならない位置に設けられている。
レジストレーション演算部27は、ボリュームレンダリング演算部52において生成される3次元画像と、実際の手術中の患者の基準位置、術具33の3次元位置および回転角度を一致させるための演算を行う。なお、このレジストレーション演算部27におけるレジストレーション処理(座標変換処理)については、後段にて詳述する。
変換行列保持部28は、レジストレーション演算部27およびボリュームレンダリング演算部52と接続されており、レジストレーション処理(座標変換処理)を実施する際に使用される変換行列を複数保持している。
位置・角度検出装置29は、上述したように、パーソナルコンピュータ1、測位用トランスミッタ34に接続されており、術具33に取り付けられた位置角度センサ41a,41b(図7等参照)における検知結果に基づいて、実際の手術中の術具33の位置や姿勢を検出する。
術具33は、本実施形態では、上述したように、図2(a)〜図2(c)に示す電気メス等を用いている。また、術具33には、先端とは反対側の根元部分の付近に位置角度センサ41a,41bが取り付けられている。これにより、手術中に切開等を行う術具33の先端(処置部)の位置についても、術具パラメータ格納部24に保存された術具33の長さや形状に基づいて算出することができる。
位置角度センサ41a,41bは、図7に示すように、術具33の先端33b(図9等参照)とは反対側の根元付近に2つ設けられている。よって、術具33の先端位置は、上述した術具パラメータ格納部24に予め保存された術具33の長さや形状に基づいて、計算によって算出される。なお、本実施形態では、術具33の位置や姿勢を検出するセンサとして、位置情報と角度情報とを検出可能な位置角度センサ41a,41bを用いている。このため、2つの位置角度センサ41a,41bによって、術具33の位置や姿勢を正確に測位することができる。
(パーソナルコンピュータ1内に形成される機能ブロック)
本実施形態では、上述したように、メモリ9に格納された手術支援プログラムをCPUが読み込むことで、パーソナルコンピュータ1の内部に、図5に示すように、断層画像情報取得部51、ボリュームレンダリング演算部52、術具画像生成部53、画像合成部54、先端位置情報取得部55、および表示制御部56等の機能ブロックが形成される。
断層画像情報取得部51は、図4に示すように、ボクセル情報抽出部7を介して、断層画像情報部8が接続されている。つまり、断層画像情報部8では、CTあるいはMRI、PET等の断層画像を撮影する機器から断層画像情報が供給され、この断層画像情報がボクセル情報抽出部7によってボクセル情報として抽出される。
ボリュームレンダリング演算部52は、ボクセル情報格納部10に格納されているボクセル情報と、ボクセルラベル格納部11に格納されているボクセルラベルと、色情報格納部12に格納されている色情報と、に基づいて、視線に対して垂直、かつZ方向の間隔が一定の複数枚のスライス情報を取得する。そして、ボリュームレンダリング演算部52は、その演算結果を3次元画像としてディスプレイ2に表示させる。
術具画像生成部53は、術具パラメータ格納部24に格納されている術具情報(長さ、形状、円筒部の半径等)と、術具位置・姿勢取得部26における検出結果と、に基づいて、術具33の3次元の術具画像33aを生成する。
画像合成部54は、ボリュームレンダリング演算部52において生成された患者の臓器や血管等を含む3次元画像と、術具画像生成部53において生成された術具画像33aとを合成する。
先端位置情報取得部55は、術具パラメータ格納部24に格納されている術具情報(長さ、形状等)と、術具位置・姿勢取得部26における検出結果とに基づいて、術具33の先端位置を取得する。
表示制御部56は、図6に示すように、画像合成部54において臓器等を含む3次元画像と術具33の3次元術具画像33aとを合成する際に、術具33の先端位置が、ディスプレイ2,102の表示画面の表面に設定された所定の視点群{Pe-n,・・・,Pe-1,Pe-2,Pe-3,・・・,Pe+n}からのそれぞれのベクトル{Ve-n,・・・,Ve-1,Ve-2,Ve-3,・・・,Ve+n}方向における視線の交点Pt上に配置されるように、表示制御を行う。なお、各視点Pe-n,Pe-1,Pe-2,Pe-3,・・・,Pe+n間の距離dとする。
これにより、実際の術具33の動きを3次元術具画像33aとして表示して臓器等を含む3次元画像に組み合わせることで、リアルタイムで手術ナビゲーション用の3次元画像を表示することができる。
また、本実施形態では、術具33の先端位置が、ディスプレイ2,102の表示画面の表面に設定された所定の視点群{Pe-n,Pe-1,Pe-2,Pe-3,・・・,Pe+n}からの視線の交点Pt上に配置されるように3次元画像が表示されるため、ディスプレイ2,102の表示画像の表面、つまり術具33の先端の位置を基準にして、立体的な3次元画像を表示することができる。
さらに、本実施形態では、表示制御部56が、術具33の先端よりも手前側にある臓器や血管については、ディスプレイ2,102の表示画面の表面から飛び出すように3次元画像を表示する。一方、表示制御部56は、術具33の先端よりも奥側にある臓器や血管については、ディスプレイ2,102の表示画面の表面よりも奥まった位置にあるように3次元画像を表示する。
これにより、術者は、ディスプレイ2,102に表示される手術ナビゲーション用の3次元画像を見ることで、術具先端と臓器や血管との前後の位置関係を正確に認識することができる。よって、従来よりも効果的な手術ナビゲーションを実施することができる。
<本手術支援方法に関する制御フロー>
ここで、本実施形態のパーソナルコンピュータ1による手術支援方法の流れを示す制御フローについて、図8(a)から図8(c)を用いて説明すれば以下の通りである。
本実施形態のパーソナルコンピュータ1では、図8(a)に示すように、S1において、上述したように、断層画像情報部8からの断層画像情報が入力され、これがボクセル情報抽出部7に供給される。
次に、S2において、ボクセル情報抽出部7において、断層画像情報からボクセル情報が抽出される。抽出されたボクセル情報は、断層画像情報取得部51を介して、メモリ9のボクセル情報格納部10に格納される。ボクセル情報格納部10に格納されるボクセル情報は、例えば、I(x,y,z,α)で構成される点の情報である。このとき、Iは当該点の輝度情報であり、x,y,zは座標点を示し、αは透明度情報である。
次に、S3において、ボリュームレンダリング演算部52が、ボクセル情報格納部10に格納されているボクセル情報に基づいて、視線に対して垂直、かつ間隔が一定の複数のスライス情報を算出し、スライス情報群を取得する。そして、スライス情報群は、ボリュームレンダリング演算部52内に少なくとも一時的に格納される。
なお、上述した視線に対して垂直なスライス情報とは、視線に対して直交する面を意味している。例えば、ディスプレイ2を鉛直方向に沿って立てた状態で、これと顔の面とを平行にした状態で見た場合に、スライス情報が視線に対して垂直な面となる。
このようにして得られた複数のスライス情報は、上述したように、I(x,y,z,α)で構成される点の情報を保有している。よって、スライス情報は、例えば、ボクセルラベルがZ方向に複数枚配置されている。なお、ボクセルラベルの集合体は、ボクセルラベル格納部11に収納されている。
次に、S4において、ディスプレイ2には、レンダリング像が表示される。このとき、ディスプレイ2では、マウス4等を用いてCT値の範囲が指定されることで、ナビゲーション表示対象物となる骨や血管等が選択されて表示される。
次に、S5において、ユーザからレジストレーションを実施するように指示を受け付けたか否かを判定する。ここで、レジストレーションの指示を受け付けた場合には、レジストレーションを実施するために、A(S6)へ進む。一方、レジストレーションの指示を受け付けていない場合には、ナビゲーションを実施するように指示を受けたか否かを確認するS7へ移行する。
S5においてレジストレーションの指示を受け付けている場合には、図8(b)に示すフローに従って、レジストレーションを実施する。
すなわち、まず、S61において、レジストレーションの特徴点となる位置を指示する。具体的には、体表面から位置が確認し易い骨の部分、例えば、第五棘突起、左右の腸骨等を特徴点とする。
次に、S62において、術者あるいは看護師等がセンサを持ったまま、手術台上に横たわる患者の体表面からそれらの特徴点に近い位置へ押し当てた状態とし、ディスプレイ2,102を見ながらセンサの位置を微調整してセンサ位置情報を取得する。
次に、S63において、取得したセンサ位置を示す実空間座標系を、仮想空間座標系へ変換するための変換行列を算出する。
座標変換行列は、仮想空間内において指定した特徴点3点(Pv1,Pv2,Pv3)、(Pv1,Pv2,Pv3)からなる三角形の重心を原点としたPv0とセンサから取得した実空間内のオブジェクトに対し、対応する特徴点座標(Pr1,Pr2,Pr3)、(Pr1,Pr2,Pr3)からなる三角形の重心を原点としたPr0から下記手順で求める。
まず、Pv0は、仮想空間内で指定した特徴点三角形の重心なので
Pv0=(Pv1+Pv2+Pv3)/3 (1)
となる。この、仮想空間の原点ベクトルPv0と特徴点3点Pv1,Pv2,Pv3から仮想空間における正規直交ベクトルを下記の手順で求める。
1軸ベクトルVv1を、
Vv1=1/(│Pv2−Pv0│)×(Pv2−Pv0) (2)
と定義し、特徴点Pv2,Pv3を含む平面に直交するベクトルを3軸目として求めるための一時2軸ベクトルVv2_Tmpを、
Vv2_Tmp=1/(│Pv3−Pv0│)×(Pv3−Pv0) (3)
と定義し、Vv1,Vv2_Tmpの外積をとって3軸ベクトルVv3を、
Vv3=Vv1×Vv2_Tmp (4)
Vv3,Vv1の外積をとって2軸ベクトルVv2を、
Vv2=Vv3×Vv1 (5)
と求める。
同様の手順でPr0は実空間の特徴点三角形の重心から
Pr0=(Pr1+Pr2+Pr3)/3 (6)
となり、Pr0と特徴点3点Pr1,Pr2,Pr3から実空間の正規直交ベクトルVr1,Vr2,Vr3を下記のように求める。
Vr1=1/(│Pr2−Pr0│)×(Pr2−Pr0) (7)
Vr2_Tmp=1/(│Pr3−Pr0│)×(Pr3−Pr0) (8)
Vr3=Vr1×Vr2_Tmp (9)
Vr2=Vr3×Vr1 (10)
次に、本実施形態の主な特徴部分となる内容について説明する。具体的には、仮想空間と、実空間の正規直交ベクトルから、各空間座標への回転行列を求める。まず、仮想空間上の回転行列Mvは、
Mv=[Vv1 Vv2 Vv3T (11)
となり、実空間の回転行列Mrは、
Mr=[Vr1 Vr2 Vr3T (12)
となる。
実空間座標系から仮想空間座標系への回転行列を求めるために、実空間座標系から実空間座標系への回転行列が必要となる。これは、実空間座標系の回転行列による変換の逆変換なので逆行列となる。この逆行列によって変換された実空間座標系に対して仮想空間座標系の回転行列による変換を行うことで、実空間座標系から仮想空間座標系への回転行列Mrotateが求まる。
式で表すと下記(13)式のようになる。
Mrotate=Mv Mr -1 (13)
スケーリング行列Hscaleは、実空間とDICOMデータは同一であると考えられるので仮想空間も同一になる。よって単位行列として定義する。
求まった回転行列Mrotate、スケーリング行列と平行移動分である仮想空間の原点Pv0により、実空間座標系から仮想空間座標系への変換行列Htは下記のようになる。
Figure 2015130911
本実施形態では、この変換行列を用いて、3次元センサから取得した実空間座標を仮想空間座標に変換する。
なお、変換行列Hは、変換行列保持部28内に複数保存されている。
次に、S64において、レジストレーションの精度が十分か否かを判定する。ここで、レジストレーションの精度が所定の範囲内であることを確認できるまで、S61〜S64を繰り返し行う。そして、精度が所定の範囲内確認できた段階で終了する。
つまり、S64では、レジストレーションの精度が所定の範囲内にないことが分かった場合には、再度、レジストレーションの処理を実施して最初の結果を補正する。これにより、レジストレーション処理の精度を向上させることができる。
なお、レジストレーションの補正処理については、後段にて詳述する。
以上のように、S5においてレジストレーションの実施指示を受けた場合にはレジストレーションを実施後、あるいはレジストレーションの実施指示を受け付けていない場合にはそのままS7に移行する。
次に、S7においては、手術中のナビゲーションを実施するように指示を受け付けている場合には、B(S8)へ進む。一方、ナビゲーションの実施指示を受け付けていない場合には、S3の処理に戻る。
すなわち、S81において、術具位置・姿勢取得部26が、位置・角度検出装置29における検出結果に基づいて、術具33の3次元位置および姿勢に関する情報を取得する。
次に、S82において、術具33の3次元位置に基づいて、上述した変換行列Hを用いて、実空間座標系から仮想空間座標系へ変換する。
次に、S83において、術具画像生成部53が、術具パラメータ格納部24から術具33の長さ、形状等に関する各種パラメータを取得する。
次に、S84において、術具画像生成部53が、術具パラメータ格納部24から術具のパラメータに基づいて、仮想的に、術具33の3次元術具画像33aを生成する。
次に、S85において、術具先端位置情報取得部55において術具33の先端位置に関する情報が取得されたか否かを判定し、取得された場合にはS86へ進む。
次に、S86において、術具先端位置情報に基づいて、ボリュームレンダリング演算部52によって生成された臓器や血管等を含む患者の3次元画像と、術具33の3次元術具画像33aとを用いて、術具33の先端位置が複数の視点群からの視線の交点Pt上にくるように重ね合わせて合成する。
これにより、実際の術具33の動きを位置角度センサ41a,41bによって検知して3次元画像上にリアルタイムで術具画像33aが立体的に表示されることで、術者は、ディスプレイ2,102に表示された3次元画像を見て、術具33の先端と臓器や血管等との距離がどの程度の位置関係にあるのかを正確に認識することができる。よって、術者にとって有効な手術ナビゲーションを実施することができる。
なお、術者に立体的に見せるための視差画像の生成について、図6を用いて説明すれば以下の通りである。
すなわち、仮想的な術具33の術具画像33aを臓器等を含む3次元画像に重畳した状態でボリュームレンダリングを行うことで、以下のように生成することができる。
具体的には、右手座標系で説明すると、実空間において位置角度センサ41a,41bにおける検出結果に基づいて設定される術具先端座標をPsとすると、実空間座標系から仮想空間座標系への変換行列Htを用いて、仮想空間座標における術具先端位置Ptは、
Pt=HtPs (15)
となる。
次に、術具先端位置Ptと、ユーザ操作によって定まるベースの視野設定による視点Pe0、同様に、ユーザ操作によって定まる視野の上方向を示す単位ベクトルVupから術具先端に応じた視差画像を生成するための視点を以下のように生成していく。
術具先端までの視線を示す単位ベクトルVeは、術具先端位置Ptと視点Pe0から、以下のように求められる。
Ve=1/(│Pt−Pe0│)×(Pt−Pe0) (16)
そして、視差画像生成に必要な視点を生成するための視点移動ベクトルVmを、
Vm=Ve×Vup (17)
として求め、各視差画像の視差量を示すパラメータdを使って視点を以下のように生成する。
Pe-n=Pe0−ndVm

Pe-1=Pe0−dVm
Pe0=Pe0 (18)
Pe+1=Pe0+dVm

Pe+n=Pe0+ndVm
各視点からの視線は、視差0のポイントが術具33の先端位置となるように、術具先端位置Ptから、以下のように生成する。
Ve-n=Pt−Pe-n

Ve-1=Pt−Pe-1
Ve0=Pt−Pe0 (19)
Ve+1=Pt−Pe+1

Ve+n=Pt−Pe+n
次に、上記視点Pe-n,・・・,Pe-1,Pe0,Pe+1,・・・,Pe+n、視線Ve-n,・・・,Ve-1,Ve0,Ve+1,・・・,Ve+n
と視野の上方向ベクトルVupの設定から、各視野設定における視差画像をレンダリングする。
レンダリングした各視差画像を表示手段に合わせて出力する。
なお、立体視画像の出力フォーマットとしては、Pe-1を左目視点L,Pe+1を右目視点Rとした2視点の視差画像であればよい。
具体的には、視差画像の作成方法としては、アナグリフ方式、サイドバイサイド方式、ラインバイライン方式、トップアンドボトム方式がある。これらの方式で作成された視差画像は、アナグリフ(赤・青)式、偏光式やアクティブシャッター式のメガネを用いることで立体視として認識することができる。また、サイドバイサイド方式、ラインバイライン方式、トップアンドボトム方式で作成された視差画像は、裸眼立体ディスプレイを用いることで立体視として認識することができる。
ここで、S87において、ディスプレイ2,102に表示される3次元画像について、図9(a)から図10(b)を用いて説明すれば以下の通りである。
図9(a)および図9(b)は、腎臓Kを含むアナグリフ方式の立体視画像に対して、術具33を近づけていく際の様子を示している。
すなわち、図9(a)に示すディスプレイ2,102のモニタ画面Mは、ナビゲーション画面として、腎臓Kの切削部位に対して、3次元の術具画像33aの先端33bが手前側にある状態を示している。
そして、図9(b)に示すディスプレイ2,102のモニタ画面Mは、ナビゲーション画面として、図9(a)に示す状態から実際の術具33の動きに連動して、腎臓Kの切削部位に向かって3次元の術具画像33aの先端33bを移動させた状態を示している。
なお、図9(a)および図9(b)に示す立体視画像は、例えば、右目用のレンズは青、左目用のレンズは赤に着色加工された3Dメガネを装着することで、立体的な画像として見ることができる。
具体的には、図9(a)に示すディスプレイ2,102のモニタ画面Mでは、術具画像33aの先端33bの位置、つまりディスプレイ2,102の表示画面の表面の位置に、複数の視線の交点Pt(図6参照)が設定されているため、術具画像33aの先端33bよりも奥にある腎臓Kや血管B等を、術具画像33aよりも奥まった位置にあるように表示することができる。
一方、図9(b)に示すディスプレイ2,102のモニタ画面Mでは、実際の術具33の動きに連動して術具画像33aの先端33bが腎臓Kに近づくため、術具画像33aの先端33bよりも手前側にある腎臓Kの周辺の血管B等は、ディスプレイ2,102の表示画面の表面から飛び出しているように表示することができる。
また、立体視の別の例としては、図10(a)および図10(b)に示すように、裸眼でも立体的な画像を表示することが可能なラインバイライン方式が考えられる。
なお、裸眼が立体視画像を表示する方式の場合には、2視点以上(好ましくは5視点)の立体視画像を表示することが好ましい。
この場合でも、上述したアナグリフ方式の立体視画像と同様に、術具33の先端位置、つまりディスプレイ2,102の表示画面の表面を基準にして複数の視線の交点が設定されているため、術具画像33aの先端33bよりも手前側にある血管B等については、表示画面の表面から飛び出しているように表示することができるとともに、先端33bよりも奥にある腎臓K等については、表示画面の表面よりも奥まった位置にあるように表示することができる。
[他の実施形態]
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、発明の要旨を逸脱しない範囲で種々の変更が可能である。
(A)
上記実施形態では、手術支援装置として本発明を実現した例を挙げて説明した。しかし、本発明はこれに限定されるものではない。
例えば、図8(a)〜図8(c)に示す手術支援方法をコンピュータに実行させる手術支援プログラムとして、本発明を実現してもよい。
(B)
上記実施形態では、術具33の3次元位置と姿勢を検出して、臓器等を含む3次元画像中に実際の術具33の動きに応じて移動する3次元術具画像を表示する例を挙げて説明した。しかし、本発明はこれに限定されるものではない。
例えば、術具に加えて、内視鏡を用いた手術を実施する場合には、図11に示すように、仮想内視鏡画像生成部57を機能ブロックとして形成した手術支援装置101を用いてもよい。
この場合には、実際に内視鏡によって見える範囲を限定したナビゲーション画像を形成するために、図12に示すように、仮想的な内視鏡画像データを生成すればよい。
より詳細には、図12に示すように、ディスプレイ2,102のモニタ画面Mでは、内視鏡によって制限された視野の中において、内視鏡焦点の近傍位置、つまりディスプレイ2,102の表示画面の表面の位置を基準にして、奥にある腎臓K等については奥まった位置にあるように視差画像を生成し、手前側にある血管B等については手前側に飛び出しているように視差画像を生成すればよい。
なお、図12に示すような仮想内視鏡画像を用いて手術ナビゲーションを実施する場合には、内視鏡の位置と内視鏡の特性に基づいて決定される内視鏡焦点の位置の近傍が、所定の視点群からの視線の交点上に配置されるように、術具画像33aを合成することが望ましい。
また、仮想内視鏡画像を用いた手術ナビゲーションでは、視野が限定されるため、内視鏡先端よりも手前側にある臓器や血管等は画面上から消えていくという特質がある。よって、上記実施形態の3次元画像、3次元術具画像と、仮想内視鏡画像とを組み合わせて表示させる場合には、内視鏡の先端よりも手前側にある臓器や血管については表示しない、あるいは半透明にして表示する等、実際の内視鏡画像に近い表示とすることが望ましい。
(C)
上記実施形態では、3次元画像の表示方法として、実際に術具先端よりも手前にある臓器や血管等については、表示画面から手前に飛び出すように表示するとともに、術具先端よりも奥にある臓器や血管等については、表示画面から奥まった位置にあるように表示する例を挙げて説明した。しかし、本発明はこれに限定されるものではない。
例えば、上記とは逆に、実際に術具先端よりも手前にある臓器や血管等については、表示画面から奥まった位置にあるように表示するとともに、術具先端よりも奥にある臓器や血管等については、表示画面から飛び出すように表示してもよい。
この場合には、術具を奥側(先端側)から見た3次元画像を表示することができるため、上記と同様の効果を得ることができる。
(D)
上記実施形態では、術具33の3次元位置および姿勢を検出するために、図7に示すように、術具33の根元付近に位置角度センサ41a,41bを2つ取り付けた例を挙げて説明した。しかし、本発明はこれに限定されるものではない。
例えば、位置角度センサの代わりに位置センサを用いる場合には、術具の根元付近に3つ取り付けることで、術具の3次元位置や姿勢を検出することが可能である。
あるいは、術具の先端に取り付けることが可能であれば、術具先端に1つだけ位置角度センサを取り付けてもよい。
また、術具の先端位置を検出するためのセンサとしては、磁気センサに限らず、他のセンサを用いてもよい。
(E)
上記実施形態では、図9(a)および図9(b)に示すように、3Dメガネを用いて立体画像を見るアナグリフ方式の3次元画像や、図10(a)および図10(b)に示すように、裸眼立体視ディスプレイに表示されるラインバイライン方式の3次元画像を表示する例を挙げて説明した。しかし、本発明はこれに限定されるものではない。
例えば、3Dメガネを用いる表示方式としては、上記アナグリフ方式以外にも、偏光方式やアクティブシャッター方式で表示される3次元画像を用いてもよい。
また、裸眼でも3次元画像が表示される表示の出力方式としては、上記ラインバイライン方式以外にも、左目用の画像と右目用の画像とを左右に並べて表示するサイドバイサイド方式や、上下に並べて表示するトップアンドボトム方式等を用いてもよい。
本発明の手術支援装置は、実際の手術中において、術具先端と臓器、血管等との位置関係を正確に認識できるように表示することができるという効果を奏することから、各種手術を実施する際の手術支援装置として広く適用可能である。
1 パーソナルコンピュータ(手術支援装置)
2 ディスプレイ(表示装置)
3 キーボード
4 マウス
5 タブレット
7 ボクセル情報抽出部
8 断層画像情報部
9 メモリ
10 ボクセル情報格納部
11 ボクセルラベル格納部
12 色情報格納部
16 バス
20 ウィンドウ座標取得部
21 色情報設定部
24 術具パラメータ格納部
25 術具パラメータ設定部
26 術具位置・姿勢取得部
27 レジストレーション演算部
28 変換行列保持部
29 位置・角度検出装置
33 術具
33a 術具画像
33b 先端
34 BOX型トランスミッタ
41a,41b 位置角度センサ
51 断層画像取得部
52 ボリュームレンダリング演算部
53 術具画像生成部
54 画像合成部
55 先端位置情報取得部
56 表示制御部
57 仮想内視鏡画像生成部
100 手術支援システム
101 手術支援装置
102 液晶ディスプレイ(表示装置)
B 血管
K 腎臓
M モニタ表示画面

Claims (12)

  1. 術具を用いて実施される手術中に、断層画像情報から生成される3次元画像を表示装置に表示させながらナビゲーションを行う手術支援装置であって、
    患者の断層画像情報を取得する断層画像情報取得部と、
    前記断層画像情報取得部において取得された前記断層画像情報のボクセル情報に基づいて、ボクセル情報をサンプリングして3次元画像を再構成するボリュームレンダリング演算部と、
    前記術具の3次元術具画像を生成する術具画像生成部と、
    前記術具の先端位置に関する情報を取得する先端位置情報取得部と、
    前記術具画像生成部において生成された前記3次元術具画像を、前記先端位置情報取得部において取得された前記術具の先端位置に基づいて、前記ボリュームレンダリング演算部において生成された3次元画像と合成する画像合成部と、
    前記先端位置情報取得部において取得された前記術具の先端位置近傍が、所定の視点群からの視線の交点上に配置されるように、前記術具の3次元画像が合成された前記3次元画像を表示する表示制御部と、
    を備えている手術支援装置。
  2. 前記表示制御部は、前記視線の交点が前記表示装置の表示画面の表面付近に配置されるように、前記術具の3次元画像が合成された前記3次元画像を表示する、
    請求項1に記載の手術支援装置。
  3. 前記表示制御部は、前記術具先端よりも手前側にある物体が、前記表示装置の表示画面よりも手前に飛び出した位置に3次元表示を行う、
    請求項1または2に記載の手術支援装置。
  4. 前記表示制御部は、前記術具先端よりも奥側にある物体が、前記表示装置の表示画面よりも奥まった位置にあるように3次元表示を行う、
    請求項1から3のいずれか1項に記載の手術支援装置。
  5. 術具を用いて実施される手術中に、断層画像情報から生成される3次元画像を表示装置に表示させながらナビゲーションを行う手術支援装置であって、
    内視鏡の位置情報に基づいて、仮想内視鏡画像を生成する仮想内視鏡画像生成部と、
    前記術具の3次元術具画像を生成する術具画像生成部と、
    前記術具の先端位置に関する情報を取得する先端位置情報取得部と、
    前記術具画像生成部において生成された前記3次元術具画像を、前記先端位置情報取得部において取得された前記術具の先端位置に関する情報に基づいて、前記仮想内視鏡画像生成部において生成された3次元画像と合成する画像合成部と、
    前記内視鏡の位置と内視鏡特性に基づいて決定される内視鏡焦点の近傍位置が、所定の視点群からの視線の交点上に配置されるように、前記術具の3次元画像が合成された前記3次元画像を表示する表示制御部と、
    を備えている手術支援装置。
  6. 前記表示制御部は、前記内視鏡焦点の近傍位置よりも手前側にある物体が、前記表示装置の表示画面よりも手前に飛び出した位置に3次元表示を行う、
    請求項5に記載の手術支援装置。
  7. 前記表示制御部は、前記内視鏡焦点の近傍位置よりも奥側にある物体が、前記表示装置の表示画面よりも奥まった位置にあるように3次元表示を行う、
    請求項5または6に記載の手術支援装置。
  8. 前記表示制御部は、前記仮想内視鏡画像における内視鏡の先端位置よりも手前側に配置された物体を表示しない、あるいは半透明で表示する、
    請求項5から7のいずれか1項に記載の手術支援装置。
  9. 前記術具画像生成部は、前記術具の先端位置、その反対側の根元位置、および前記術具の立体画像に基づいて、仮想的な術具画像を生成する、
    請求項1から8のいずれか1項に記載の手術支援装置。
  10. 前記先端位置情報取得部は、前記術具の先端とは反対側の端部に設けられた2つの位置角度センサ、あるいは3つの位置センサにおける検出結果を用いて、前記術具の先端位置情報を取得する、
    請求項1から9のいずれか1項に記載の手術支援装置。
  11. 術具を用いて実施される手術中に、断層画像情報から生成される3次元画像を表示装置に表示させながらナビゲーションを行う手術支援プログラムであって、
    患者の断層画像情報を取得するステップと、
    前記断層画像情報のボクセル情報に基づいて、ボクセル情報をサンプリングして3次元画像を再構成するステップと、
    前記術具の3次元術具画像を生成するステップと、
    前記術具の先端位置に関する情報を取得するステップと、
    前記術具の先端位置に関する情報に基づいて、前記3次元術具画像と前記3次元画像とを合成するステップと、
    前記術具の先端位置近傍が、所定の視点群からの視線の交点上に配置されるように、前記術具の3次元画像が合成された前記3次元画像を表示するステップと、
    を備えた手術支援方法をコンピュータに実行させる手術支援プログラム。
  12. 術具を用いて実施される手術中に、断層画像情報から生成される3次元画像を表示装置に表示させながらナビゲーションを行う手術支援プログラムであって、
    内視鏡の位置情報に基づいて、仮想内視鏡画像を生成するステップと、
    前記術具の3次元術具画像を生成するステップと、
    前記術具の先端位置に関する情報を取得するステップと、
    前記3次元術具画像を、前記術具の先端位置に関する情報に基づいて、3次元画像と合成するステップと、
    前記内視鏡の位置と内視鏡特性に基づいて決定される内視鏡焦点の近傍位置が、所定の視点群からの視線の交点上に配置されるように、前記術具の3次元画像が合成された前記3次元画像を表示するステップと、
    を備えた手術支援方法をコンピュータに実行させる手術支援プログラム。

JP2014002538A 2014-01-09 2014-01-09 手術支援装置および手術支援プログラム Active JP6275488B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014002538A JP6275488B2 (ja) 2014-01-09 2014-01-09 手術支援装置および手術支援プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014002538A JP6275488B2 (ja) 2014-01-09 2014-01-09 手術支援装置および手術支援プログラム

Publications (2)

Publication Number Publication Date
JP2015130911A true JP2015130911A (ja) 2015-07-23
JP6275488B2 JP6275488B2 (ja) 2018-02-07

Family

ID=53898692

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014002538A Active JP6275488B2 (ja) 2014-01-09 2014-01-09 手術支援装置および手術支援プログラム

Country Status (1)

Country Link
JP (1) JP6275488B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018130375A (ja) * 2017-02-16 2018-08-23 池上通信機株式会社 映像データ表示装置
WO2022163362A1 (ja) * 2021-01-29 2022-08-04 ソニーグループ株式会社 画像処理装置、画像処理方法及び手術顕微鏡システム
WO2023243280A1 (ja) * 2022-06-15 2023-12-21 株式会社アールテック 医用画像処理装置及び医用画像処理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001149366A (ja) * 1999-11-25 2001-06-05 Toshiba Corp 三次元画像処理装置
JP2013059609A (ja) * 2011-08-25 2013-04-04 Toshiba Corp 医用画像表示装置及びx線診断装置
WO2013145010A1 (ja) * 2012-03-29 2013-10-03 株式会社島津製作所 医療用x線装置
WO2013145730A1 (ja) * 2012-03-29 2013-10-03 パナソニック株式会社 手術支援装置および手術支援プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001149366A (ja) * 1999-11-25 2001-06-05 Toshiba Corp 三次元画像処理装置
JP2013059609A (ja) * 2011-08-25 2013-04-04 Toshiba Corp 医用画像表示装置及びx線診断装置
WO2013145010A1 (ja) * 2012-03-29 2013-10-03 株式会社島津製作所 医療用x線装置
WO2013145730A1 (ja) * 2012-03-29 2013-10-03 パナソニック株式会社 手術支援装置および手術支援プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018130375A (ja) * 2017-02-16 2018-08-23 池上通信機株式会社 映像データ表示装置
WO2022163362A1 (ja) * 2021-01-29 2022-08-04 ソニーグループ株式会社 画像処理装置、画像処理方法及び手術顕微鏡システム
WO2023243280A1 (ja) * 2022-06-15 2023-12-21 株式会社アールテック 医用画像処理装置及び医用画像処理方法

Also Published As

Publication number Publication date
JP6275488B2 (ja) 2018-02-07

Similar Documents

Publication Publication Date Title
US11750788B1 (en) Augmented reality guidance for spinal surgery with stereoscopic display of images and tracked instruments
US11484365B2 (en) Medical image guidance
EP2548495B1 (en) System and program for supporting endoscopic observation
US10398513B2 (en) Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
US9675319B1 (en) Loupe display
US9375133B2 (en) Endoscopic observation support system
US20100208958A1 (en) Image processing device, image processing system, and computer readable medium
WO2013145730A1 (ja) 手術支援装置および手術支援プログラム
EP3311251A1 (en) Augmented reality imaging system, apparatus and method
JPH11309A (ja) 画像処理装置
CN108629845B (zh) 手术导航装置、设备、系统和可读存储介质
WO2012045626A1 (en) Image projection system for projecting image on the surface of an object
Reiter et al. Surgical structured light for 3D minimally invasive surgical imaging
JP6275488B2 (ja) 手術支援装置および手術支援プログラム
JP2016225861A (ja) 情報処理装置、情報処理方法、及び生体内撮像システム
Bichlmeier et al. Virtual window for improved depth perception in medical AR
US20220392173A1 (en) Virtual enhancement of a camera image
Singla Intra-operative ultrasound-based augmented reality for laparoscopic surgical guidance
WO2022072835A1 (en) Auto-navigating digital surgical microscope
Wang et al. Innovative 3D augmented reality techniques for spinal surgery applications

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170425

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170829

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20170901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180110

R150 Certificate of patent or registration of utility model

Ref document number: 6275488

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350