JP2007007041A - Surgery support - Google Patents
Surgery support Download PDFInfo
- Publication number
- JP2007007041A JP2007007041A JP2005189842A JP2005189842A JP2007007041A JP 2007007041 A JP2007007041 A JP 2007007041A JP 2005189842 A JP2005189842 A JP 2005189842A JP 2005189842 A JP2005189842 A JP 2005189842A JP 2007007041 A JP2007007041 A JP 2007007041A
- Authority
- JP
- Japan
- Prior art keywords
- image
- endoscope
- surgical
- operation support
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001356 surgical procedure Methods 0.000 title claims abstract description 47
- 230000010354 integration Effects 0.000 claims abstract description 7
- 238000001514 detection method Methods 0.000 claims description 31
- 238000003384 imaging method Methods 0.000 claims description 29
- 230000008859 change Effects 0.000 claims description 4
- 210000000056 organ Anatomy 0.000 abstract description 7
- 210000001367 artery Anatomy 0.000 abstract 1
- 230000002093 peripheral effect Effects 0.000 abstract 1
- 230000011218 segmentation Effects 0.000 description 23
- 238000012545 processing Methods 0.000 description 15
- 230000002452 interceptive effect Effects 0.000 description 8
- 239000003550 marker Substances 0.000 description 8
- 238000000034 method Methods 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 210000004204 blood vessel Anatomy 0.000 description 3
- 238000002674 endoscopic surgery Methods 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 208000032005 Spinocerebellar ataxia with axonal neuropathy type 2 Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 208000033361 autosomal recessive with axonal neuropathy 2 spinocerebellar ataxia Diseases 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002432 robotic surgery Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Endoscopes (AREA)
Abstract
Description
本発明は、内視鏡を用いた手術を表示画像によって支援する高機能内視鏡手術支援装置に関し、特にMRI装置やCT装置などの撮像装置と組合わせた手術支援装置に関する。 The present invention relates to a high-function endoscopic surgery support apparatus that supports a surgery using an endoscope with a display image, and more particularly to a surgery support apparatus combined with an imaging apparatus such as an MRI apparatus or a CT apparatus.
近年、医療行為、特に外科的治療において内視鏡や手術ロボットなどを用いてその実施を支援する手術支援装置が開発され、実用化されている。例えば、特許文献1には、カメラで撮像された画像に、3次元画像から術式対象部位を抽出して得られた3Dデータを、カメラの向きや位置に合わせて投影処理して表示することや、術具を操作するためのマニピュレータの位置、向きを計測し、撮像部で得られた画像にマニピュレータの3D画像を投影処理して表示することが記載されている。また特許文献2には、内視鏡画像上に、手術支援画像作成手段で作成された情報を重畳して表示することが記載され、手術支援画像には手術器具とマニピュレータの可動範囲を示すことが記載されている。
上述のような手術支援システムを利用した外科的治療においては、術具や内視鏡の位置はそれぞれ時々刻々変化し、内視鏡の映像もこれに伴い変化する。また内視鏡を配置する位置を適宜変更する場合もある。しかし従来の技術では、手術支援画像の作成後に術具や内視鏡の位置が変更されると、改めて内視鏡位置に合わせて手術支援画像を作成し直すとともに、これらの位置を調整して表示する必要があり、内視鏡位置や術具位置の変化に応じたリアルタイムな支援画像の表示が困難であった。同じ理由から、内視鏡を含めた特定術具と被検体の特定領域(例えば、術具が接触してはならない部位)との距離などをリアルタイムで確認することも困難であった。 In the surgical treatment using the operation support system as described above, the positions of the surgical instrument and the endoscope change from moment to moment, and the image of the endoscope changes accordingly. In addition, the position where the endoscope is arranged may be changed as appropriate. However, in the conventional technology, if the position of the surgical instrument or endoscope is changed after creating the surgical support image, the surgical support image is recreated according to the endoscope position, and these positions are adjusted. It is necessary to display the image, and it is difficult to display a support image in real time according to changes in the endoscope position and the surgical instrument position. For the same reason, it has also been difficult to confirm in real time the distance between a specific surgical instrument including an endoscope and a specific region of the subject (for example, a region where the surgical tool should not contact).
そこで本発明は、内視鏡や術具の変化に応じてリアルタイムで、内視鏡映像に、その位置における手術対象領域の画像を重畳して表示することが可能であり、また特定術具と被検体の特定領域との距離をリアルタイムで表示することが可能である手術支援装置を提供することを目的とする。 Therefore, the present invention can display an image of the surgical target region at the position superimposed on the endoscope image in real time according to changes in the endoscope and the surgical tool, It is an object of the present invention to provide a surgery support apparatus that can display a distance from a specific region of a subject in real time.
上記課題を解決する本発明の手術支援装置は、内視鏡と、前記内視鏡の映像を表示する表示手段と、前記被検体の三次元ボリューム画像データを用いて、前記表示手段に表示された映像に重畳表示される手術支援画像を作成する画像作成手段とを備えた手術支援装置であって、前記内視鏡の位置を逐次検出する三次元位置検出手段と、前記三次元位置検出手段の座標と前記画像作成手段が有する画像座標とを座標統合する座標統合手段とを備え、前記画像作成手段は、前記座標統合手段から得られる内視鏡の位置情報をもとに、前記三次元ボリューム画像データから抽出した特定領域画像データについて、前記内視鏡の位置情報で決まる特定の平面を投影面とする投影像を作成し、内視鏡位置検出時点における内視鏡の映像に重畳して表示させることを特徴とする。 The surgical operation support apparatus of the present invention that solves the above problems is displayed on the display means using an endoscope, display means for displaying an image of the endoscope, and three-dimensional volume image data of the subject. A surgical support apparatus comprising a surgical support image for generating a surgical support image to be superimposed and displayed on the video image, the three-dimensional position detection means for sequentially detecting the position of the endoscope, and the three-dimensional position detection means Coordinate integration means for integrating the coordinates of the image and the image coordinates of the image creation means, the image creation means based on the position information of the endoscope obtained from the coordinate integration means, the three-dimensional For the specific area image data extracted from the volume image data, a projection image having a specific plane determined by the position information of the endoscope as a projection surface is created and superimposed on the image of the endoscope at the time of detecting the endoscope position. Displayed And wherein the Rukoto.
本発明の手術支援装置において、画像作成手段が作成する投影像は、例えば、内視鏡の焦点位置を含み、内視鏡の進行方向に直交する面への投影像である。
また本発明の手術支援装置において、好適には、三次元位置検出手段は、被検体に対し適用されている術具の位置を検出し、画像作成手段は、三次元位置検出手段で検出され、前記座標統合手段で変換された術具の位置情報に基き、術具の画像を検出術具位置に対応する手術支援画像上の位置に重畳して前記表示手段に表示させる。
In the surgery support apparatus of the present invention, the projection image created by the image creation unit is, for example, a projection image on a plane that includes the focal position of the endoscope and is orthogonal to the traveling direction of the endoscope.
In the surgery support apparatus of the present invention, preferably, the three-dimensional position detection means detects the position of the surgical tool applied to the subject, and the image creation means is detected by the three-dimensional position detection means, Based on the position information of the surgical tool converted by the coordinate integration means, the image of the surgical tool is superimposed on the position on the surgery support image corresponding to the detected surgical tool position and displayed on the display means.
本発明の手術支援装置において、画像作成手段は、内視鏡の移動に伴う内視鏡映像の変化に合わせて、投影像の投影面をリアルタイムで変更して特定領域の投影像を作成し、表示装置に表示させる。
また本発明の手術支援装置は、好適には、特定領域と術具との距離を算出する算出手段を備え、算出手段によって算出された距離及び/又は当該距離が閾値以内であるときの警告を表示装置に表示させる。
本発明の手術支援装置は、さらに三次元ボリューム画像データを取得する撮像手段を備えており、その場合、撮像手段は、画像作成手段を兼ねることができる。
In the surgery support apparatus of the present invention, the image creation means creates a projection image of a specific region by changing the projection plane of the projection image in real time in accordance with the change of the endoscope image accompanying the movement of the endoscope, Display on the display device.
In addition, the surgery support apparatus of the present invention preferably includes a calculation unit that calculates the distance between the specific region and the surgical instrument, and provides a warning when the distance calculated by the calculation unit and / or the distance is within a threshold value. Display on the display device.
The surgery support apparatus of the present invention further includes an imaging unit that acquires three-dimensional volume image data. In this case, the imaging unit can also serve as an image creation unit.
本発明によれば、内視鏡の位置を三次元位置検出手段により逐次検出するとともに、検出された位置情報は、座標統合手段によって、手術支援画像を作成する画像作成手段の座標と統一的な座標の情報として画像作成手段に与えられるので、画像作成手段は内視鏡の位置や向きの変化に応じて、内視鏡位置と実空間における相対位置を保った状態で特定領域画像をリアルタイムで重畳表示させることができる。これにより手術支援として必要な情報を術者に提供し、治療の精度を向上させることができる。また内視鏡に重畳される特定領域画像は、実空間における相対位置を維持しているので、術具との距離の算出を手術支援画像表示と併せて行なうことができ、術具が接触してはならない血管や臓器に接近したことなどを速やかに警告することができる。 According to the present invention, the position of the endoscope is sequentially detected by the three-dimensional position detection means, and the detected position information is unified with the coordinates of the image creation means for creating the surgery support image by the coordinate integration means. Since it is given to the image creation means as coordinate information, the image creation means can display the specific area image in real time while maintaining the endoscope position and the relative position in the real space according to changes in the position and orientation of the endoscope. Superimposed display is possible. As a result, information necessary for surgical support can be provided to the surgeon, and the accuracy of treatment can be improved. In addition, since the specific area image superimposed on the endoscope maintains the relative position in the real space, the distance from the surgical instrument can be calculated together with the operation support image display, and the surgical instrument comes into contact with the endoscope. It is possible to promptly warn of close proximity to blood vessels and organs that should not be handled.
また本発明によれば、MRI装置やCT装置などの撮像装置が画像作成手段を兼ねることができ、その場合、内視鏡位置を検出するための三次元位置検出手段を利用して、指示具で指定された被検体の所望部位を撮像するインタラクティブスキャンなどの撮像を適時行なうことができる。 Further, according to the present invention, an imaging apparatus such as an MRI apparatus or a CT apparatus can also serve as an image creating unit. In this case, a pointing tool is used by using a three-dimensional position detecting unit for detecting an endoscope position. It is possible to perform imaging such as an interactive scan for imaging a desired part of the subject designated by the item in a timely manner.
以下、本発明の実施の形態を、図面を参照して説明する。
図1は、本発明の高機能内視鏡手術支援装置の全体構成を示す斜視図、図2はブロック図である。この手術支援装置は、MRI装置等の撮像装置による画像を手術支援画像の一つとして利用しながら、内視鏡と小型ロボットを用いて患者の外科的治療を行なうための装置であり、主たる構成として、被検体の断層像を撮像するための撮像装置10、被検体の手術対象部位を観察するための内視鏡20、術具を操作するための手術用小型ロボット30、内視鏡20及びロボット30に操作される術具の位置を検出するための三次元位置検出装置40、内視鏡の映像に重畳される手術支援画像を作成する画像作成部50、内視鏡の映像や手術支援画像を表示するための表示装置70、表示装置70の表示制御などを行なう制御部60を備えている。撮像装置10、内視鏡20及びロボット30には、それぞれ操作者が動作の指令や条件を入力するための操作部80(81、82、83)が備えられている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a perspective view showing the overall configuration of a high-function endoscopic surgery support apparatus according to the present invention, and FIG. 2 is a block diagram. This operation support apparatus is an apparatus for performing surgical treatment of a patient using an endoscope and a small robot while using an image obtained by an imaging apparatus such as an MRI apparatus as one of operation support images. As an
撮像装置10は、図1に示す実施の形態では、撮像空間を挟んで上下に一対の磁石13、15を配置した垂直磁場方式のオープン型のMRI装置であり、被検体11を載せたベッド12を撮像空間に配置した状態で、手術を施すことができるようになっている。MRI装置の構成及び撮像方法は、従来のMRI装置と同様であり、ここでは説明を省略する。
In the embodiment shown in FIG. 1, the
内視鏡20は、スコープ部と画像処理部とを有する。スコープ部は、被検体11の被検体の内部に挿入される対物レンズおよび小型カメラを含む。画像処理部は、小型カメラで撮像された画像データを取り込んで映像記録装置21に記録するとともに、制御部60に受け渡し、内視鏡映像として表示装置70に表示させる。内視鏡20は、単一のカメラを搭載した単眼内視鏡、一対のカメラを搭載したステレオ内視鏡のいずれでもよく、表示装置70として2視点ステレオ映像表示対応しているものを使用する場合には、両者に対応することができる。内視鏡20は、MRI装置に取り付けた駆動機構に固定され、操作部83からの操作により、回転、並進などの動作を行なうことができる。また内視鏡20には、このような内視鏡の動作に追従して移動する器具であって三次元位置検出装置40によって位置検出可能な器具(術具追随器具)(図示せず)が取り付けられている。
The
小型ロボット30は、互いに回動可能に連結された複数のロボットアームを有し、これらロボットアームの連結角度を変えることにより、その先端に固定されたメスなどの術具を任意の方向に任意の量だけ移動・回転させることができるようになっている。ロボット30にも、その動作に追従して移動する器具であって三次元位置検出装置40によって位置検出可能な器具(術具追随器具)が取り付けられている。
The
内視鏡20及びロボット(ロボットアーム)30を駆動するための機構として、MRI装置10のベッド12には、その両側縁に沿ってレールが取り付けられると共に、レールに沿って移動可能な円弧状のアーム(内視鏡用アーム25及びロボット用アーム35)が取り付けられている。内視鏡20のスコープ部及びロボットアームはこのアームに取り付けられる。手術に使用する術具が複数ある場合には、1ないし複数のアームに、複数のロボットが取り付けられる。図1に示す例では、一つのアームに2つの術具が固定されている。
As a mechanism for driving the
三次元位置検出装置40は、これら内視鏡20及びロボット30に固定された術具追随器具の実空間における位置を検出するためのものであり、この実施の形態では、一対の赤外線カメラ41を備えた位置検出デバイス42と、位置検出デバイス42が検出した位置信号に対し、所定の座標変換等の処理を行なう処理部43とを備えている。
The three-dimensional
位置検出デバイス42は、赤外線を発生する赤外線源を備え、赤外線源から照射され、所定の反射体(マーカー)から反射された赤外線を検出することによって、その反射体が付された対象の位置を検出することができるようになっている。前述した内視鏡及びロボットに固定される術具追随器具には、少なくとも3箇所にマーカーが固定されており、マーカーから得られる3つの位置座標から、例えば器具が固定された内視鏡先端の位置や内視鏡の方向などの三次元位置情報を得ることができる。位置検出デバイス42は、MRI装置10の上部磁石13を覆うガントリに、支持アーム45により固定されており、支持アーム45を移動することにより任意の位置に設定することができる。
The
またMRI装置10のガントリには、赤外線カメラ41が捉えたカメラ座標における方向及び位置を、MRI装置の装置座標系(実空間座標)と関連付けるために、基準ツール47が固定されている。基準ツール47には、赤外線カメラ41で位置検出可能な3つのマーカー(例えば、赤外線カメラが発する赤外線を反射する反射球)48が固定されている。これら3つのマーカーの位置を検出することにより、装置座標の原点に対するカメラの三次元位置を検出することができ、カメラ座標と装置座標との関連付けを行なうことができる。赤外線カメラ41は、所定のサンプリング速度で検出した位置情報を処理部43に送る。処理部43は、位置検出デバイス42が検出した位置情報(カメラ座標の位置情報)を装置座標系の位置情報に変換する。座標変換のための座標変換マトリクスは予め処理部43内に格納されており、位置検出デバイス42による位置検出と同時に座標変換された位置情報が得られる。処理部43は、例えば、パーソナルコンピュータ上に構築することが可能である。
A
画像作成部50は、MRI装置10で撮像された被検体10の三次元画像データを処理し、被検体の特定領域を抽出した三次元セグメンテーション画像データ(以下、3D−SG画像データと略す)を作成するとともに、三次元位置検出装置40から得られる内視鏡20位置に基き、3D−SG画像データに投影処理を施し、手術支援画像を作成する。また画像作成部50は、予め登録された術具の画像(仮想術具)を作成し、三次元位置検出装置40から得られる術具位置に基き、手術支援画像を作成する。画像作成部50は、予め複数の術具について作成された仮想術具データを記憶しておき、手術に用いる術具が選択され、登録された場合に、記憶された仮想術具データのうち該当する仮想術具データを用いるようにすることできる。仮想術具データは、術具を模式的に示す2次元データでもよいが、三次元データでもよく、その場合はSG画像データと同様に投影処理を施す。
The
制御部60は、表示制御部61、距離算出部62などを有する。表示制御部61は、画像作成部50で作成された手術支援画像を内視鏡の映像に重畳して、表示装置70に表示させるとともに、距離算出部62における算出結果やそれに伴う警告などを表示装置70に表示させる。距離算出部62は、三次元位置検出装置40から得られる術具位置と、被検体の特定領域との距離を算出する。この際、術具位置は装置座標系の位置に変換された情報として与えられ、一方、特定領域の位置(画像座標)はMRI装置の装置座標と関連付けられているので、距離算出部62はこれらの位置情報から直ちに両者の距離を算出することができる。ユーザーは、予め術具との距離を算出すべき特定領域を選択し、設定することが可能であり、また警告を表示させる場合には、警告を発すべき閾値を設定することが可能になっている。
The
このような制御部60の機能は、MRI装置10とは独立していてもよいが、MRI装置10が備えている制御部がそれを兼ねることができる。また制御部60は、ユーザーが種々の条件や指令を入力するための操作部を備えている。MRI装置10の制御部が制御部60を兼ねる場合には、MRI装置10の操作部81より上記指令等を入力する。
Such a function of the
表示装置70は、1ないし複数のモニタを備えている。本実施の形態では、操作者用モニタ71と手術室用モニタ72が設置されている。操作者用モニタ71は、入力部(操作部81)のGUI等を表示させるためのモニタを兼ねることができる。
The
次に上記構成における手術支援装置の動作を説明する。図3は本実施の形態の手術支援装置を用いた内視鏡手術の手順を示すフローの一例である。
手術の準備段階として、まず内視鏡20及びロボットアームに術具追随器具を取り付けた後(ステップ101、102)、内視鏡及びロボットアームをMRI装置内部に設置する(ステップ103)。次いでMRI装置により被検体の撮像を行い、手術対象部位を含む被検体の領域について三次元ボリューム画像を得る(ステップ104)。この三次元ボリューム画像を用いて必要部位のセグメンテーションを行なう(ステップ105)。
Next, the operation of the surgery support apparatus having the above configuration will be described. FIG. 3 is an example of a flow showing a procedure of endoscopic surgery using the surgery support apparatus of the present embodiment.
As a preparatory stage for surgery, first, after attaching a surgical instrument follower to the
セグメンテーションは、領域抽出として知られている公知の手法、例えば領域の輪郭上の点列を指定し、その間をスプライン補間してつなげる方式や閾値方式などを採用することができる。またスライス間のデータについてもスプライン補間等を行うことができる。三次元ボリューム画像は、図4に示すように、スライス面とスライス方向の位置で決まるDICOMデータであり、このようなセグメンテーションの結果である特定領域画像データ(3D−SG画像データ)401、402、403もDICOMデータである。DICOM座標は、MRI装置の装置座標と関連付けられているので、装置座標上の位置がわかれば、それに対応するDICOMデータ上の座標が決まる。セグメンテーションは、例えば、手術対象臓器や、その近傍の臓器や血管について行なわれ、各3D−SG画像データは画像形成部50のメモリ内に格納される。図示する例では、3つの部位404〜406についてそれぞれ3D−SG画像データ401、402、403が作成されている。
For the segmentation, a known method known as region extraction, for example, a method of specifying a point sequence on the contour of a region and connecting them by spline interpolation or a threshold method can be adopted. Also, spline interpolation or the like can be performed on data between slices. As shown in FIG. 4, the three-dimensional volume image is DICOM data determined by the position in the slice plane and the slice direction, and specific area image data (3D-SG image data) 401, 402, which is a result of such segmentation, 403 is also DICOM data. Since the DICOM coordinates are associated with the apparatus coordinates of the MRI apparatus, if the position on the apparatus coordinates is known, the corresponding coordinates on the DICOM data are determined. The segmentation is performed on, for example, the organ to be operated and its nearby organs and blood vessels, and each 3D-SG image data is stored in the memory of the
次に三次元ボリューム画像を用いて、内視鏡20とロボットアームのレジストレーションを行なう(ステップ106)。レジストレーションは、三次元位置検出装置40の処理部43に、内視鏡20及びロボットアームに取り付けた術具追随器具(そのマーカー)の位置を装置座標(実空間座標)に統合する作業である。具体的には、基準ツール47(3つのマーカー)の位置と内視鏡20及びロボットアームに固定された術具追随器具(3つのマーカー)の位置をそれぞれ三次元位置検出装置40で検出することにより、術具追随器具の装置座標系における位置を検出する。一方、術具追随器具のマーカーと内視鏡20の焦点やロボットアームに固定された術具(メス等)の先端との位置関係を入力することによって、マーカーの配置や監視すべき点とマーカーとの位置関係を処理部43に記憶させる。このようなレジストレーションを行なうことにより、その後は、術具追随器具の各マーカーの位置を検出することによって、内視鏡20や術具の実空間座標における位置、向きを検出することができる。
Next, registration of the
このような準備ステップが終了したならば、内視鏡を用いたロボット手術を開始する(ステップ107)。内視鏡及びロボットの動きは、三次元位置検出装置40により随時検出され、その位置情報は画像座標に変換された位置情報として画像作成部50に送られる。画像作成部50は、三次元位置検出装置40から送られる内視鏡の向きとその焦点位置をもとに、メモリに記憶されている3D−SG画像データから投影像(レンダリング像)を作成する。投影像の投影面は、例えば内視鏡焦点を中心とし、内視鏡の向きと直交する平面である。図4に、3D−SG画像データから投影像としてのセグメンテーション画像408〜410を作成した様子を示す。また画像作成部50は、ロボットアームの向きと位置情報をもとに画像空間に仮想術具を配置した画像407を作成する。仮想術具データが三次元データである場合には、セグメンテーション画像と同じ投影面に投影した投影像を作成する。
When such a preparation step is completed, robotic surgery using an endoscope is started (step 107). The movements of the endoscope and the robot are detected at any time by the three-dimensional
表示制御部61は、画像形成部50で作成された手術支援画像を内視鏡の映像に重畳して表示装置70に表示する(412〜414)。この際、投影像の大きさは、内視鏡の倍率に合わせる。内視鏡の倍率が「×1」の場合には、投影像の大きさは実空間の大きさと同じであり、「×2」の場合には、実空間の2倍となる。セグメンテーション画像及び仮想術具を内視鏡の映像に重畳表示した様子を図5に示す。内視鏡及び仮想術具の位置の座標は、MRI装置の装置座標に統合されているので、図示するように、セグメンテーション画像503、仮想術具504、505及び内視鏡502がそれぞれ実空間上の相対位置を保った状態で、内視鏡映像506に手術支援画像(507、508、509)として表示される。
このようなセグメンテーション画像からの投影像の作成と重畳表示は、内視鏡及びロボットの位置の逐次検出に合わせて実行される。即ち、内視鏡が移動するのに伴い内視鏡の映像は変化するので、変化した位置におけるセグメンテーション画像及び仮想術具が作成され重畳表示されることになる。
The display control unit 61 superimposes the surgery support image created by the
Such creation and superposition display of the projection image from the segmentation image are executed in accordance with the sequential detection of the positions of the endoscope and the robot. That is, as the endoscope moves, the video of the endoscope changes, so that a segmentation image and a virtual surgical tool at the changed position are created and displayed in a superimposed manner.
一例として、図6に示すように、被検体601の手術対象部位(ターゲット)602に対し、その足側から内視鏡603を設置している場合には、内視鏡603とターゲット602との関係は装置座標系で一義的に定義されており、内視鏡位置で決まる所定の面を投影面として投影像605が作成され、内視鏡映像606に重畳されているが、内視鏡603を頭部側から設置した場合には、装置座標系における内視鏡603の位置座標は変更され、新たな投影面への投影像610が作成され、内視鏡映像611に重畳される。即ち、常に内視鏡により映し出される映像と同じ側からの投影像が重畳表示される。
As an example, as shown in FIG. 6, when an
また術具位置が変化した場合にも、その変化した位置に対応する映像上の位置に仮想術具が表示される。この場合、内視鏡及び仮想術具の位置の座標は、MRI装置の装置座標に統合されているので、リアルタイムで画像処理を行なうことができる。
またセグメンテーション画像(投影像)は平面画像であるが、各臓器や部位が三次元的に描出された画像である。従って術者は、内視鏡に映し出されている映像において、セグメンテーションされた臓器や部位の三次元的位置関係を容易に把握することができる。
Also, when the surgical instrument position changes, the virtual surgical instrument is displayed at a position on the video corresponding to the changed position. In this case, since the coordinates of the positions of the endoscope and the virtual surgical tool are integrated with the apparatus coordinates of the MRI apparatus, image processing can be performed in real time.
The segmentation image (projection image) is a planar image, but is an image in which each organ or part is depicted three-dimensionally. Therefore, the surgeon can easily grasp the three-dimensional positional relationship between the segmented organs and parts in the video image displayed on the endoscope.
図4では、3つのセグメンテーション画像が作成され、表示される様子を示しているが、セグメンテーション画像の作成、表示は、必要に応じて選択することができる(ステップ109)。例えば、内視鏡の進行するにつれて、術具との関係で接触してはいけない血管や臓器は異なる場合がある。その場合には、術者が操作部81を介して表示させたいセグメンテーション画像を選択することにより、選択されたセグメンテーション画像を表示させる。或いはセグメンテーション画像全体を非表示とすることも可能である。
FIG. 4 shows how three segmentation images are created and displayed, but the creation and display of segmentation images can be selected as necessary (step 109). For example, as the endoscope progresses, blood vessels and organs that should not come into contact with the surgical tool may differ. In that case, the selected segmentation image is displayed by the operator selecting the segmentation image to be displayed via the
また距離算出部62は、三次元位置検出装置40から得られるロボットアームの位置をもとに、それに固定された術具と被検体の特定領域(ユーザーにより予め特定された領域)との距離を算出し、これを表示装置70に表示させる(ステップ110)。距離の算出は、実空間座標における術具の位置情報と特定領域のセグメント画像の位置情報から行なうことができる。算出された距離が、予め設定された閾値以下になったときには、警告を画像や音声で発する(ステップ111)。
The
さらに本実施の形態では、ユーザーの選択によりインタラクティブスキャンを実行する(ステップ112)。インタラクティブスキャンとは、ユーザーが指示具によって指定した被検体上の位置を含む断層像をリアルタイムで撮像する機能である。通常、MRI装置においては、三次元位置検出器で検出可能な指示具で所望の位置を指定し、この位置情報をMRI装置が受け付け、指示具の指示方向を含む断面の撮像を行なう。ここではロボットアームが三次元位置検出器で検出可能な術具追随器具を備えているので、この器具を指示具としてインタラクティブスキャンを実行することが可能となる。インタラクティブスキャンによって撮像された断層像は、表示装置70に内視鏡映像と並置して表示させることができる。
Further, in the present embodiment, interactive scanning is executed by user selection (step 112). The interactive scan is a function that captures in real time a tomographic image including a position on the subject designated by the user with the pointing tool. Usually, in an MRI apparatus, a desired position is designated by an indicator that can be detected by a three-dimensional position detector, and this MRI apparatus receives this position information, and performs imaging of a cross section including the indication direction of the indicator. Here, since the robot arm is provided with a surgical instrument follower that can be detected by a three-dimensional position detector, interactive scanning can be executed using this instrument as an indicator. The tomographic image captured by the interactive scan can be displayed on the
内視鏡映像及びそれに重畳される投影像は、内視鏡を視点とした画像であるが、インタラクティグスキャンによって得られる断層像は、それとは異なる面をスライス面とする画像であり、ロボットアームの向きを変えることにより任意の方向に選択することができるので、例えば、内視鏡の陰になって見え難い部位や内視鏡では見えない内部の組織も画像化することができる。これにより術者は内視鏡映像と併せて多面的な情報を得ることができ、手術精度の向上につながる。 The endoscopic video and the projected image superimposed on it are images with the viewpoint of the endoscope, but the tomographic image obtained by the interactive scan is an image with a different plane as the slice plane, and the robot arm Therefore, for example, a part that is difficult to see behind the endoscope or an internal tissue that cannot be seen with the endoscope can be imaged. As a result, the surgeon can obtain multifaceted information together with the endoscopic image, leading to improvement in surgical accuracy.
なお図3に示すフローには示していないが、本実施の形態では、必要に応じて三次元ボリュームデータを用いた手術ナビゲーションを行なうことも可能である。手術ナビゲーションは、手術支援機能として公知の技術であり、三次元位置検出器で検出可能な指示具で被検体の所望の位置を指定することにより、予め取得した三次元ボリューム画像から指定された位置を含む断面像を作成し表示する機能である。この場合にも、指示具の代わりにロボットアームを用いることが可能である。 Although not shown in the flow shown in FIG. 3, in this embodiment, it is also possible to perform surgical navigation using three-dimensional volume data as necessary. Surgery navigation is a well-known technique as a surgery support function, and a position designated from a three-dimensional volume image acquired in advance by designating a desired position of a subject with an indicator that can be detected by a three-dimensional position detector. This is a function for creating and displaying a cross-sectional image including. Also in this case, it is possible to use a robot arm instead of the pointing tool.
上述のようなインタラクティブや手術ナビゲーションを適宜実行しながら、手術が終了するまで、内視鏡に重畳した手術支援画像のリアルタイム更新、表示を繰り返す(ステップ113)。 While appropriately performing the interactive and surgical navigation as described above, the operation support image superimposed on the endoscope is updated and displayed in real time until the operation is completed (step 113).
次に本実施の形態を実行するためのGUIの一例を図7に示す。図示する例では、画面701のほぼ中央に内視鏡の映像が映し出され、ここには2つの術具713、714とセグメンテーション画像708が重畳表示されている。
Next, an example of a GUI for executing the present embodiment is shown in FIG. In the example shown in the figure, an endoscope image is displayed in the approximate center of the
映像表示画面の右側には、警告表示画面702、距離表示画面703、三次元表示画面704が設けられている。警告表示画面702には、例えば一つの術具が特定の領域に近づいていることを警告音とともに文字や図形で表示する。距離表示画面703には、術具と特定領域との距離が表示される。この表示は距離が変化するのに従い更新される。三次元表示画面704には、セグメンテーションの対象である特定領域と術具との実空間における配置が表示される。
On the right side of the video display screen, a
映像表示画面の下側705には操作画面(GUI)が表示されている。「Scan1」「Scan2」706は撮像開始の操作ボタンで、複数(ここでは2つ)の撮像方法のうちいずれかを選択できるようになっている。「Segmentation : ON/OFF」707は、セグメンテーション画像の表示/非表示を選択するためのボタンで、ここではセグメンテーション画像全体の表示/非表示を選択可能にした場合を示しているが、例えば、三次元表示画面704に表示された複数の領域のいずれかを特定して表示/非表示と選択するようにすることも可能である。「Operate Tool : ON/OFF」712は、術具の表示/非表示を選択するためのボタンで、この場合にも複数の術具全部の表示/非表示を選択可能にしてもよいし、特定された術具のみの表示/非表示を選択可能にしてもよい。「ISC : ON/OFF」717は、インタラクティブスキャンを行なうための操作ボタンであり、「Navigation : ON/OFF」717は、ナビゲーションを行なうための操作ボタンである。
An operation screen (GUI) is displayed on the
操作者は、モニタ2に表示されるGUIを介して、撮像や表示等の指示を与えると共に、モニタに表示された映像や距離などを見ながら手術を進めることができる。
The operator can give an instruction for imaging, display, etc. via the GUI displayed on the
本実施の形態によれば、内視鏡及びロボットアーム(それに固定された術具)の座標が、MRI装置の装置座標と統合されているので、内視鏡映像の変化に伴いリアルタイムで手術支援画像を更新して重畳表示することができる。また術具位置と特定領域との距離計算も極めて短時間で行なうことができ、これにより術具が接触してはならない特定部位に近づいた場合にすみやかに警告を発することができる。 According to the present embodiment, since the coordinates of the endoscope and the robot arm (the surgical tool fixed thereto) are integrated with the apparatus coordinates of the MRI apparatus, surgical support is provided in real time as the endoscope image changes. Images can be updated and superimposed. In addition, the distance between the surgical instrument position and the specific region can be calculated in a very short time, thereby promptly issuing a warning when the surgical instrument approaches a specific part that should not come into contact.
なお上記実施の形態では、撮像装置がMRI装置である場合を例に説明したが撮像装置として、MRI装置のほか、CT装置、PETなど他の撮像装置を採用することも可能である。さらに本実施の形態では、MRI装置等の撮像装置が組み込まれた手術支援装置を説明したが、本発明の手術支援装置において撮像装置は必須ではなく、画像作成部は、撮像装置で撮像された三次元ボリューム画像データを取り込んで、手術支援画像を作成することも可能である。この場合には、三次元ボリューム画像の座標と手術が行われる実空間座標との関連付けを行なっておくことが必要である。このような関連付けは、例えば、被検体に三次元ボリューム画像を撮像する撮像装置で検出可能なマーカーを固定した状態で撮像を行い、手術が行われる実空間において、三次元位置検出器で被検体に固定されたマーカーの位置を検出することにより行なうことが可能である。 In the above embodiment, the case where the imaging apparatus is an MRI apparatus has been described as an example. However, as the imaging apparatus, other imaging apparatuses such as a CT apparatus and PET can be adopted in addition to the MRI apparatus. Furthermore, in the present embodiment, the surgery support apparatus in which the imaging apparatus such as the MRI apparatus is incorporated has been described. However, the imaging apparatus is not essential in the surgery support apparatus of the present invention, and the image creation unit is captured by the imaging apparatus. It is also possible to take a three-dimensional volume image data and create a surgery support image. In this case, it is necessary to associate the coordinates of the three-dimensional volume image with the real space coordinates where the operation is performed. Such association is performed, for example, by imaging a subject with a marker that can be detected by an imaging device that captures a three-dimensional volume image and fixing the subject with a three-dimensional position detector in a real space where surgery is performed. It is possible to carry out by detecting the position of the marker fixed to the.
また本実施の形態では、術具を固定したロボットの位置検出を、内視鏡位置を検出する三次元位置検出器で行なう場合を説明したが、ロボットの制御系でロボットアームの位置情報を持っている場合には、その位置情報を利用することも可能である。この場合にもロボットアームの位置を三次元位置検出器で検出可能な指示具を利用して三次元位置検出器の処理部に登録し、ロボット座標と三次元位置検出装置の座標との座標変換マトリクスを作成しておくことにより、ロボット位置を三次元位置検出装置で検出する場合と同様に、ロボット制御系からの位置情報を用いて手術支援画像の作成と内視鏡画像への重畳表示が可能となる。 In this embodiment, the case where the position of the robot to which the surgical tool is fixed is detected by the three-dimensional position detector that detects the endoscope position has been described. However, the robot control system has the position information of the robot arm. If it is, the position information can be used. In this case as well, the robot arm position is registered in the processing unit of the 3D position detector using an indicator that can be detected by the 3D position detector, and coordinate conversion between the robot coordinates and the coordinates of the 3D position detection device is performed. By creating a matrix, it is possible to create a surgical support image and superimpose it on an endoscopic image using position information from the robot control system, as in the case where the robot position is detected by a three-dimensional position detection device. It becomes possible.
10・・・撮像装置
20・・・内視鏡
30・・・手術用小型ロボット
40・・・三次元位置検出装置
50・・・画像作成部
60・・・制御部
70・・・表示装置
80・・・操作部
DESCRIPTION OF
Claims (7)
前記内視鏡の映像を表示する表示手段と、
前記被検体の三次元ボリューム画像データを用いて、前記表示手段に表示された映像に重畳表示される手術支援画像を作成する画像作成手段とを備えた手術支援装置であって、
前記内視鏡の位置を逐次検出する三次元位置検出手段と、
前記三次元位置検出手段の座標と前記画像作成手段が有する画像座標とを座標統合する座標統合手段とを備え、
前記画像作成手段は、前記座標統合手段から得られる内視鏡の位置情報をもとに、前記三次元ボリューム画像データから抽出した特定領域画像データについて、前記内視鏡の位置情報で決まる特定の平面を投影面とする投影像を作成し、内視鏡位置検出時点における内視鏡の映像に重畳して表示させることを特徴とする手術支援装置。 An endoscope,
Display means for displaying an image of the endoscope;
An operation support apparatus comprising an image creation means for creating a surgery support image to be displayed superimposed on the video displayed on the display means, using the three-dimensional volume image data of the subject,
Three-dimensional position detection means for sequentially detecting the position of the endoscope;
A coordinate integration unit that integrates the coordinates of the three-dimensional position detection unit and the image coordinates of the image creation unit;
The image creating means is a specific region image data extracted from the three-dimensional volume image data based on the position information of the endoscope obtained from the coordinate integration means. A surgical operation support apparatus, characterized in that a projection image having a plane as a projection plane is created and displayed superimposed on an endoscope image at the time of endoscope position detection.
前記画像作成手段が作成する投影像は、前記内視鏡の焦点位置を含み、前記内視鏡の進行方向に直交する面への投影像であることを特徴とする手術支援装置。 The surgical operation support device according to claim 1,
The operation support apparatus according to claim 1, wherein the projection image created by the image creation means is a projection image on a plane that includes a focal position of the endoscope and is orthogonal to a traveling direction of the endoscope.
前記三次元位置検出手段は、前記被検体に対し適用されている術具の位置を検出し、
前記画像作成手段は、前記三次元位置検出手段で検出され、前記座標統合手段で変換された術具の位置情報に基き、前記術具の画像を検出術具位置に対応する手術支援画像上の位置に重畳して前記表示手段に表示させることを特徴とする手術支援装置。 The surgical operation support device according to claim 1 or 2,
The three-dimensional position detecting means detects a position of a surgical instrument applied to the subject;
The image creating means detects the surgical tool image on the surgical support image corresponding to the detected surgical tool position based on the surgical tool position information detected by the three-dimensional position detecting means and converted by the coordinate integrating means. An operation support apparatus, characterized in that the operation support apparatus displays the image on the display unit in a superimposed manner.
前記画像作成手段は、内視鏡の移動に伴う内視鏡映像の変化に合わせて、前記投影像の投影面をリアルタイムで変更して前記特定領域の投影像を作成し、前記表示装置に表示させることを特徴とする手術支援装置。 The surgical operation support device according to any one of claims 1 to 3,
The image creation means creates a projection image of the specific area by changing a projection plane of the projection image in real time in accordance with a change in the endoscope image accompanying the movement of the endoscope, and displays the projection image on the display device A surgical operation support device characterized in that
前記特定領域と術具との距離を算出する算出手段を備え、
前記算出手段によって算出された距離及び/又は当該距離が閾値以内であるときの警告を前記表示装置に表示させることを特徴とする手術支援装置。 The surgical operation support device according to any one of claims 1 to 4,
A calculating means for calculating a distance between the specific region and a surgical instrument;
An operation support apparatus that causes the display device to display a distance calculated by the calculation means and / or a warning when the distance is within a threshold value.
さらに前記三次元ボリューム画像データを取得する撮像手段を備えたことを特徴とする手術支援装置。 The surgery support device according to any one of claims 1 to 5,
Furthermore, the surgery assistance apparatus provided with the imaging means which acquires the said three-dimensional volume image data.
前記撮像手段は、前記画像作成手段を兼ねることを特徴とする手術支援装置。
The surgical operation support device according to claim 6,
The surgery support apparatus, wherein the imaging means also serves as the image creation means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005189842A JP4152402B2 (en) | 2005-06-29 | 2005-06-29 | Surgery support device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005189842A JP4152402B2 (en) | 2005-06-29 | 2005-06-29 | Surgery support device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007007041A true JP2007007041A (en) | 2007-01-18 |
JP4152402B2 JP4152402B2 (en) | 2008-09-17 |
Family
ID=37746280
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005189842A Expired - Fee Related JP4152402B2 (en) | 2005-06-29 | 2005-06-29 | Surgery support device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4152402B2 (en) |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009172050A (en) * | 2008-01-22 | 2009-08-06 | Hitachi Medical Corp | Medical image diagnostic apparatus |
JP2009178230A (en) * | 2008-01-29 | 2009-08-13 | Terumo Corp | Surgical system |
WO2009116535A1 (en) * | 2008-03-18 | 2009-09-24 | 国立大学法人浜松医科大学 | Surgery assistance system |
JP2010524549A (en) * | 2007-04-16 | 2010-07-22 | ニューロアーム サージカル エル ティ ディー | Method, device, and system for a camera configured to be positioned within a bore of a magnet and MR bore space illumination |
JP2011167213A (en) * | 2009-02-10 | 2011-09-01 | Toshiba Corp | X-ray diagnostic apparatus and image processing method |
JP2011212301A (en) * | 2010-03-31 | 2011-10-27 | Fujifilm Corp | Projection image generation apparatus and method, and program |
JP2012081167A (en) * | 2010-10-14 | 2012-04-26 | Hitachi Medical Corp | Medical image display device and medical image guidance method |
JP2012527286A (en) * | 2009-05-18 | 2012-11-08 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Markerless tracking alignment and calibration for electromagnetic tracking endoscope system |
WO2013141155A1 (en) | 2012-03-17 | 2013-09-26 | 学校法人早稲田大学 | Image completion system for in-image cutoff region, image processing device, and program therefor |
WO2014038322A1 (en) | 2012-09-07 | 2014-03-13 | オリンパスメディカルシステムズ株式会社 | Medical apparatus |
WO2014065154A1 (en) * | 2012-10-22 | 2014-05-01 | ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー | Display device, medical device, display method and program |
JP5611441B1 (en) * | 2013-11-29 | 2014-10-22 | スキルアップジャパン株式会社 | Image processing apparatus for microscope and medical microscope system |
US20150085092A1 (en) * | 2012-03-29 | 2015-03-26 | Panasonic Healthcare Co., Ltd. | Surgery assistance device and surgery assistance program |
JP2015066021A (en) * | 2013-09-27 | 2015-04-13 | エフ・エーシステムエンジニアリング株式会社 | Three-dimensional navigation image generation device |
JP2015531271A (en) * | 2012-09-14 | 2015-11-02 | ソニー株式会社 | Surgical image processing system, surgical image processing method, program, computer-readable recording medium, medical image processing apparatus, and image processing inspection apparatus |
JP2015220643A (en) * | 2014-05-19 | 2015-12-07 | 株式会社東芝 | Stereoscopic observation device |
EP3096705A1 (en) * | 2014-01-24 | 2016-11-30 | Koninklijke Philips N.V. | Robotic control of imaging devices with optical shape sensing |
CN106236266A (en) * | 2015-06-12 | 2016-12-21 | 阿瓦特拉医药有限公司 | Operating apparatus and method for robot assisted |
EP3001941A4 (en) * | 2013-05-23 | 2017-01-25 | Olympus Corporation | Endoscopic device and endoscopic device operation method |
JP2017510826A (en) * | 2013-12-20 | 2017-04-13 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | Simulator system for medical procedure training |
JP2018507040A (en) * | 2015-02-20 | 2018-03-15 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Medical system, apparatus and method for shape detection |
JP2018089310A (en) * | 2016-12-07 | 2018-06-14 | 株式会社デンソー | Information integration device |
JPWO2017130567A1 (en) * | 2016-01-25 | 2018-11-22 | ソニー株式会社 | MEDICAL SAFETY CONTROL DEVICE, MEDICAL SAFETY CONTROL METHOD, AND MEDICAL SUPPORT SYSTEM |
JP2019502460A (en) * | 2015-12-22 | 2019-01-31 | シュピーネミント・アクチェンゲゼルシャフトSpineMind AG | Intraoperative image-controlled navigation device during a surgical procedure in the spinal column and adjacent regions of the rib cage, pelvis or head |
JP2019088734A (en) * | 2017-11-17 | 2019-06-13 | ソニー株式会社 | Surgical system, information processing apparatus, and information processing method |
WO2019155931A1 (en) * | 2018-02-09 | 2019-08-15 | ソニー株式会社 | Surgical system, image processing device, and image processing method |
JP2019524168A (en) * | 2016-06-11 | 2019-09-05 | ボストン サイエンティフィック サイムド,インコーポレイテッドBoston Scientific Scimed,Inc. | System and method for monitoring tissue ablation using tissue autofluorescence |
US10580326B2 (en) | 2012-08-17 | 2020-03-03 | Intuitive Surgical Operations, Inc. | Anatomical model and method for surgical training |
WO2024033898A1 (en) * | 2022-08-11 | 2024-02-15 | Auris Health, Inc. | User interfaces for navigating anatomical channels in medical procedures |
US11974716B2 (en) | 2017-12-14 | 2024-05-07 | Olympus Corporation | Operation supporting device and method of operating operation supporting device |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013202313A (en) | 2012-03-29 | 2013-10-07 | Panasonic Corp | Surgery support device and surgery support program |
US11633247B2 (en) * | 2020-03-03 | 2023-04-25 | Verb Surgical Inc. | Graphical user guidance for a robotic surgical system |
-
2005
- 2005-06-29 JP JP2005189842A patent/JP4152402B2/en not_active Expired - Fee Related
Cited By (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010524549A (en) * | 2007-04-16 | 2010-07-22 | ニューロアーム サージカル エル ティ ディー | Method, device, and system for a camera configured to be positioned within a bore of a magnet and MR bore space illumination |
JP2009172050A (en) * | 2008-01-22 | 2009-08-06 | Hitachi Medical Corp | Medical image diagnostic apparatus |
JP2009178230A (en) * | 2008-01-29 | 2009-08-13 | Terumo Corp | Surgical system |
WO2009116535A1 (en) * | 2008-03-18 | 2009-09-24 | 国立大学法人浜松医科大学 | Surgery assistance system |
JP2011167213A (en) * | 2009-02-10 | 2011-09-01 | Toshiba Corp | X-ray diagnostic apparatus and image processing method |
JP2012527286A (en) * | 2009-05-18 | 2012-11-08 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Markerless tracking alignment and calibration for electromagnetic tracking endoscope system |
US8611988B2 (en) | 2010-03-31 | 2013-12-17 | Fujifilm Corporation | Projection image generation apparatus and method, and computer readable recording medium on which is recorded program for the same |
JP2011212301A (en) * | 2010-03-31 | 2011-10-27 | Fujifilm Corp | Projection image generation apparatus and method, and program |
JP2012081167A (en) * | 2010-10-14 | 2012-04-26 | Hitachi Medical Corp | Medical image display device and medical image guidance method |
WO2013141155A1 (en) | 2012-03-17 | 2013-09-26 | 学校法人早稲田大学 | Image completion system for in-image cutoff region, image processing device, and program therefor |
US20150085092A1 (en) * | 2012-03-29 | 2015-03-26 | Panasonic Healthcare Co., Ltd. | Surgery assistance device and surgery assistance program |
US10580326B2 (en) | 2012-08-17 | 2020-03-03 | Intuitive Surgical Operations, Inc. | Anatomical model and method for surgical training |
US10943508B2 (en) | 2012-08-17 | 2021-03-09 | Intuitive Surgical Operations, Inc. | Anatomical model and method for surgical training |
US11727827B2 (en) | 2012-08-17 | 2023-08-15 | Intuitive Surgical Operations, Inc. | Anatomical model and method for surgical training |
WO2014038322A1 (en) | 2012-09-07 | 2014-03-13 | オリンパスメディカルシステムズ株式会社 | Medical apparatus |
US9345394B2 (en) | 2012-09-07 | 2016-05-24 | Olympus Corporation | Medical apparatus |
JP2015531271A (en) * | 2012-09-14 | 2015-11-02 | ソニー株式会社 | Surgical image processing system, surgical image processing method, program, computer-readable recording medium, medical image processing apparatus, and image processing inspection apparatus |
CN104768442A (en) * | 2012-10-22 | 2015-07-08 | Ge医疗系统环球技术有限公司 | Display device, medical device, display method and program |
US9826889B2 (en) | 2012-10-22 | 2017-11-28 | Shiga University Of Medical Science | Display device, medical device, display method and program |
WO2014065154A1 (en) * | 2012-10-22 | 2014-05-01 | ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー | Display device, medical device, display method and program |
JP2014083156A (en) * | 2012-10-22 | 2014-05-12 | Ge Medical Systems Global Technology Co Llc | Display device, medical device, display method and program |
EP3001941A4 (en) * | 2013-05-23 | 2017-01-25 | Olympus Corporation | Endoscopic device and endoscopic device operation method |
JP2015066021A (en) * | 2013-09-27 | 2015-04-13 | エフ・エーシステムエンジニアリング株式会社 | Three-dimensional navigation image generation device |
JP5611441B1 (en) * | 2013-11-29 | 2014-10-22 | スキルアップジャパン株式会社 | Image processing apparatus for microscope and medical microscope system |
WO2015080042A1 (en) * | 2013-11-29 | 2015-06-04 | 株式会社アルム | Microscope image processing device and medical microscope system |
US9736464B2 (en) | 2013-11-29 | 2017-08-15 | Allm Inc. | Microscope video processing device and medical microscope system |
EP3075342A4 (en) * | 2013-11-29 | 2017-11-01 | Allm Inc. | Microscope image processing device and medical microscope system |
JP2015104447A (en) * | 2013-11-29 | 2015-06-08 | 株式会社アルム | Image processing device for microscope and medical microscope system |
US10510267B2 (en) | 2013-12-20 | 2019-12-17 | Intuitive Surgical Operations, Inc. | Simulator system for medical procedure training |
JP2017510826A (en) * | 2013-12-20 | 2017-04-13 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | Simulator system for medical procedure training |
JP2020106844A (en) * | 2013-12-20 | 2020-07-09 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | Simulator system for medical procedure training |
US11468791B2 (en) | 2013-12-20 | 2022-10-11 | Intuitive Surgical Operations, Inc. | Simulator system for medical procedure training |
EP3096705A1 (en) * | 2014-01-24 | 2016-11-30 | Koninklijke Philips N.V. | Robotic control of imaging devices with optical shape sensing |
US10687909B2 (en) | 2014-01-24 | 2020-06-23 | Koninklijke Philips N.V. | Robotic control of imaging devices with optical shape sensing |
JP2015220643A (en) * | 2014-05-19 | 2015-12-07 | 株式会社東芝 | Stereoscopic observation device |
US11083526B2 (en) | 2015-02-20 | 2021-08-10 | Koninklijke Philips N.V. | Medical system, apparatus and method for shape sensing |
JP2018507040A (en) * | 2015-02-20 | 2018-03-15 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Medical system, apparatus and method for shape detection |
CN106236266A (en) * | 2015-06-12 | 2016-12-21 | 阿瓦特拉医药有限公司 | Operating apparatus and method for robot assisted |
JP2017000772A (en) * | 2015-06-12 | 2017-01-05 | アヴァテラメディカル ゲーエムベーハー | Device and method for robot-supported surgical operation |
JP2019502460A (en) * | 2015-12-22 | 2019-01-31 | シュピーネミント・アクチェンゲゼルシャフトSpineMind AG | Intraoperative image-controlled navigation device during a surgical procedure in the spinal column and adjacent regions of the rib cage, pelvis or head |
JP2021118883A (en) * | 2016-01-25 | 2021-08-12 | ソニーグループ株式会社 | Medical arm apparatus, medical arm apparatus operating method, and information processing apparatus |
US11058509B2 (en) | 2016-01-25 | 2021-07-13 | Sony Corporation | Medical safety control apparatus, medical safety control method, and medical support system |
JPWO2017130567A1 (en) * | 2016-01-25 | 2018-11-22 | ソニー株式会社 | MEDICAL SAFETY CONTROL DEVICE, MEDICAL SAFETY CONTROL METHOD, AND MEDICAL SUPPORT SYSTEM |
JP2019524168A (en) * | 2016-06-11 | 2019-09-05 | ボストン サイエンティフィック サイムド,インコーポレイテッドBoston Scientific Scimed,Inc. | System and method for monitoring tissue ablation using tissue autofluorescence |
JP2018089310A (en) * | 2016-12-07 | 2018-06-14 | 株式会社デンソー | Information integration device |
JP2019088734A (en) * | 2017-11-17 | 2019-06-13 | ソニー株式会社 | Surgical system, information processing apparatus, and information processing method |
JP7155511B2 (en) | 2017-11-17 | 2022-10-19 | ソニーグループ株式会社 | Surgery system, information processing device, and information processing method |
US11587670B2 (en) | 2017-11-17 | 2023-02-21 | Sony Corporation | Surgery system, information processing apparatus, and information processing method |
US11974716B2 (en) | 2017-12-14 | 2024-05-07 | Olympus Corporation | Operation supporting device and method of operating operation supporting device |
WO2019155931A1 (en) * | 2018-02-09 | 2019-08-15 | ソニー株式会社 | Surgical system, image processing device, and image processing method |
WO2024033898A1 (en) * | 2022-08-11 | 2024-02-15 | Auris Health, Inc. | User interfaces for navigating anatomical channels in medical procedures |
Also Published As
Publication number | Publication date |
---|---|
JP4152402B2 (en) | 2008-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4152402B2 (en) | Surgery support device | |
US10835344B2 (en) | Display of preoperative and intraoperative images | |
US10706610B2 (en) | Method for displaying an object | |
EP3613547B1 (en) | Synthetic representation of a surgical robot | |
JP7376569B2 (en) | System and method for tracking the position of robotically operated surgical instruments | |
JP5249343B2 (en) | Robot, medical workstation and method for projecting an image on the surface of an object | |
JP6083103B2 (en) | Image complementation system for image occlusion area, image processing apparatus and program thereof | |
US11258964B2 (en) | Synthesizing spatially-aware transitions between multiple camera viewpoints during minimally invasive surgery | |
KR20170127560A (en) | System and method for rendering screen-based identification information of a device in a remotely operated medical system | |
US20210315637A1 (en) | Robotically-assisted surgical system, robotically-assisted surgical method, and computer-readable medium | |
KR20170127561A (en) | System and method for on-screen identification of instruments in a remotely operated medical system | |
CN111867438A (en) | Surgical assistance device, surgical method, non-transitory computer-readable medium, and surgical assistance system | |
JP6112689B1 (en) | Superimposed image display system | |
JP2006149560A (en) | Nuclear magnetic resonance imaging apparatus | |
US20220215539A1 (en) | Composite medical imaging systems and methods | |
JP5410021B2 (en) | Medical diagnostic imaging equipment | |
KR20160013533A (en) | Method and device for controlling/compensating movement of surgical robot | |
JP2007152027A (en) | Endoscope visual field expanding system, endoscope visual field expanding device, and endoscope visual field expanding program | |
US11045075B2 (en) | System and method for generating a three-dimensional model of a surgical site | |
JP2003079637A (en) | Operation navigating system | |
US20230210627A1 (en) | Three-dimensional instrument pose estimation | |
KR101662837B1 (en) | Method and device for controlling/compensating movement of surgical robot | |
KR20140088849A (en) | Method and device for controlling/compensating movement of surgical robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070904 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070911 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080408 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080605 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080701 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080701 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4152402 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110711 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120711 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120711 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130711 Year of fee payment: 5 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |