JP2007007041A - Surgery support - Google Patents

Surgery support Download PDF

Info

Publication number
JP2007007041A
JP2007007041A JP2005189842A JP2005189842A JP2007007041A JP 2007007041 A JP2007007041 A JP 2007007041A JP 2005189842 A JP2005189842 A JP 2005189842A JP 2005189842 A JP2005189842 A JP 2005189842A JP 2007007041 A JP2007007041 A JP 2007007041A
Authority
JP
Japan
Prior art keywords
image
endoscope
surgical
operation support
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005189842A
Other languages
Japanese (ja)
Other versions
JP4152402B2 (en
Inventor
Makoto Hashizume
誠 橋爪
Hidekazu Nakamoto
秀和 仲本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corp filed Critical Hitachi Medical Corp
Priority to JP2005189842A priority Critical patent/JP4152402B2/en
Publication of JP2007007041A publication Critical patent/JP2007007041A/en
Application granted granted Critical
Publication of JP4152402B2 publication Critical patent/JP4152402B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Endoscopes (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide surgery support which can superpose images of peripheral organs and arteries corresponding to an endoscope position together with an operating tool position in real time in accordance with the location of the endoscope changed during an operation. <P>SOLUTION: The surgery support comprises a three-dimensional position detecting device to detect the location of the endoscope sequentially and an image creation section to create a surgery support image to be superposed on the image of the endoscope, and comprises a coordinate integration means to integrate the coordinate of an endoscope position and a coordinate of an image created by the image creation section at the position detecting instrument. The image creation section creates the surgery support image to be superposed on the image of the endoscope using three-dimensional volume image data of a subject imaged by an MRI, etc. Since the coordinates are integrated, the surgery support images which meet the direction of the endoscope in real time can be superposed while keeping the relative position each other although the position or direction of the endoscope changes. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、内視鏡を用いた手術を表示画像によって支援する高機能内視鏡手術支援装置に関し、特にMRI装置やCT装置などの撮像装置と組合わせた手術支援装置に関する。   The present invention relates to a high-function endoscopic surgery support apparatus that supports a surgery using an endoscope with a display image, and more particularly to a surgery support apparatus combined with an imaging apparatus such as an MRI apparatus or a CT apparatus.

近年、医療行為、特に外科的治療において内視鏡や手術ロボットなどを用いてその実施を支援する手術支援装置が開発され、実用化されている。例えば、特許文献1には、カメラで撮像された画像に、3次元画像から術式対象部位を抽出して得られた3Dデータを、カメラの向きや位置に合わせて投影処理して表示することや、術具を操作するためのマニピュレータの位置、向きを計測し、撮像部で得られた画像にマニピュレータの3D画像を投影処理して表示することが記載されている。また特許文献2には、内視鏡画像上に、手術支援画像作成手段で作成された情報を重畳して表示することが記載され、手術支援画像には手術器具とマニピュレータの可動範囲を示すことが記載されている。
特開平9-19441号公報 特開2001-104333号公報
In recent years, surgery support devices that support the implementation of medical practices, particularly surgical treatment, using an endoscope or a surgical robot have been developed and put into practical use. For example, in Patent Document 1, 3D data obtained by extracting a surgical target part from a three-dimensional image is projected and displayed on an image captured by a camera in accordance with the direction and position of the camera. In addition, it describes that the position and orientation of a manipulator for operating a surgical instrument are measured, and a 3D image of the manipulator is projected and displayed on an image obtained by an imaging unit. Patent Document 2 describes that information created by the surgery support image creation means is superimposed on an endoscopic image and displayed, and the surgery support image shows the movable range of the surgical instrument and manipulator. Is described.
Japanese Unexamined Patent Publication No. 9-19441 JP 2001-104333 A

上述のような手術支援システムを利用した外科的治療においては、術具や内視鏡の位置はそれぞれ時々刻々変化し、内視鏡の映像もこれに伴い変化する。また内視鏡を配置する位置を適宜変更する場合もある。しかし従来の技術では、手術支援画像の作成後に術具や内視鏡の位置が変更されると、改めて内視鏡位置に合わせて手術支援画像を作成し直すとともに、これらの位置を調整して表示する必要があり、内視鏡位置や術具位置の変化に応じたリアルタイムな支援画像の表示が困難であった。同じ理由から、内視鏡を含めた特定術具と被検体の特定領域(例えば、術具が接触してはならない部位)との距離などをリアルタイムで確認することも困難であった。   In the surgical treatment using the operation support system as described above, the positions of the surgical instrument and the endoscope change from moment to moment, and the image of the endoscope changes accordingly. In addition, the position where the endoscope is arranged may be changed as appropriate. However, in the conventional technology, if the position of the surgical instrument or endoscope is changed after creating the surgical support image, the surgical support image is recreated according to the endoscope position, and these positions are adjusted. It is necessary to display the image, and it is difficult to display a support image in real time according to changes in the endoscope position and the surgical instrument position. For the same reason, it has also been difficult to confirm in real time the distance between a specific surgical instrument including an endoscope and a specific region of the subject (for example, a region where the surgical tool should not contact).

そこで本発明は、内視鏡や術具の変化に応じてリアルタイムで、内視鏡映像に、その位置における手術対象領域の画像を重畳して表示することが可能であり、また特定術具と被検体の特定領域との距離をリアルタイムで表示することが可能である手術支援装置を提供することを目的とする。   Therefore, the present invention can display an image of the surgical target region at the position superimposed on the endoscope image in real time according to changes in the endoscope and the surgical tool, It is an object of the present invention to provide a surgery support apparatus that can display a distance from a specific region of a subject in real time.

上記課題を解決する本発明の手術支援装置は、内視鏡と、前記内視鏡の映像を表示する表示手段と、前記被検体の三次元ボリューム画像データを用いて、前記表示手段に表示された映像に重畳表示される手術支援画像を作成する画像作成手段とを備えた手術支援装置であって、前記内視鏡の位置を逐次検出する三次元位置検出手段と、前記三次元位置検出手段の座標と前記画像作成手段が有する画像座標とを座標統合する座標統合手段とを備え、前記画像作成手段は、前記座標統合手段から得られる内視鏡の位置情報をもとに、前記三次元ボリューム画像データから抽出した特定領域画像データについて、前記内視鏡の位置情報で決まる特定の平面を投影面とする投影像を作成し、内視鏡位置検出時点における内視鏡の映像に重畳して表示させることを特徴とする。   The surgical operation support apparatus of the present invention that solves the above problems is displayed on the display means using an endoscope, display means for displaying an image of the endoscope, and three-dimensional volume image data of the subject. A surgical support apparatus comprising a surgical support image for generating a surgical support image to be superimposed and displayed on the video image, the three-dimensional position detection means for sequentially detecting the position of the endoscope, and the three-dimensional position detection means Coordinate integration means for integrating the coordinates of the image and the image coordinates of the image creation means, the image creation means based on the position information of the endoscope obtained from the coordinate integration means, the three-dimensional For the specific area image data extracted from the volume image data, a projection image having a specific plane determined by the position information of the endoscope as a projection surface is created and superimposed on the image of the endoscope at the time of detecting the endoscope position. Displayed And wherein the Rukoto.

本発明の手術支援装置において、画像作成手段が作成する投影像は、例えば、内視鏡の焦点位置を含み、内視鏡の進行方向に直交する面への投影像である。
また本発明の手術支援装置において、好適には、三次元位置検出手段は、被検体に対し適用されている術具の位置を検出し、画像作成手段は、三次元位置検出手段で検出され、前記座標統合手段で変換された術具の位置情報に基き、術具の画像を検出術具位置に対応する手術支援画像上の位置に重畳して前記表示手段に表示させる。
In the surgery support apparatus of the present invention, the projection image created by the image creation unit is, for example, a projection image on a plane that includes the focal position of the endoscope and is orthogonal to the traveling direction of the endoscope.
In the surgery support apparatus of the present invention, preferably, the three-dimensional position detection means detects the position of the surgical tool applied to the subject, and the image creation means is detected by the three-dimensional position detection means, Based on the position information of the surgical tool converted by the coordinate integration means, the image of the surgical tool is superimposed on the position on the surgery support image corresponding to the detected surgical tool position and displayed on the display means.

本発明の手術支援装置において、画像作成手段は、内視鏡の移動に伴う内視鏡映像の変化に合わせて、投影像の投影面をリアルタイムで変更して特定領域の投影像を作成し、表示装置に表示させる。
また本発明の手術支援装置は、好適には、特定領域と術具との距離を算出する算出手段を備え、算出手段によって算出された距離及び/又は当該距離が閾値以内であるときの警告を表示装置に表示させる。
本発明の手術支援装置は、さらに三次元ボリューム画像データを取得する撮像手段を備えており、その場合、撮像手段は、画像作成手段を兼ねることができる。
In the surgery support apparatus of the present invention, the image creation means creates a projection image of a specific region by changing the projection plane of the projection image in real time in accordance with the change of the endoscope image accompanying the movement of the endoscope, Display on the display device.
In addition, the surgery support apparatus of the present invention preferably includes a calculation unit that calculates the distance between the specific region and the surgical instrument, and provides a warning when the distance calculated by the calculation unit and / or the distance is within a threshold value. Display on the display device.
The surgery support apparatus of the present invention further includes an imaging unit that acquires three-dimensional volume image data. In this case, the imaging unit can also serve as an image creation unit.

本発明によれば、内視鏡の位置を三次元位置検出手段により逐次検出するとともに、検出された位置情報は、座標統合手段によって、手術支援画像を作成する画像作成手段の座標と統一的な座標の情報として画像作成手段に与えられるので、画像作成手段は内視鏡の位置や向きの変化に応じて、内視鏡位置と実空間における相対位置を保った状態で特定領域画像をリアルタイムで重畳表示させることができる。これにより手術支援として必要な情報を術者に提供し、治療の精度を向上させることができる。また内視鏡に重畳される特定領域画像は、実空間における相対位置を維持しているので、術具との距離の算出を手術支援画像表示と併せて行なうことができ、術具が接触してはならない血管や臓器に接近したことなどを速やかに警告することができる。   According to the present invention, the position of the endoscope is sequentially detected by the three-dimensional position detection means, and the detected position information is unified with the coordinates of the image creation means for creating the surgery support image by the coordinate integration means. Since it is given to the image creation means as coordinate information, the image creation means can display the specific area image in real time while maintaining the endoscope position and the relative position in the real space according to changes in the position and orientation of the endoscope. Superimposed display is possible. As a result, information necessary for surgical support can be provided to the surgeon, and the accuracy of treatment can be improved. In addition, since the specific area image superimposed on the endoscope maintains the relative position in the real space, the distance from the surgical instrument can be calculated together with the operation support image display, and the surgical instrument comes into contact with the endoscope. It is possible to promptly warn of close proximity to blood vessels and organs that should not be handled.

また本発明によれば、MRI装置やCT装置などの撮像装置が画像作成手段を兼ねることができ、その場合、内視鏡位置を検出するための三次元位置検出手段を利用して、指示具で指定された被検体の所望部位を撮像するインタラクティブスキャンなどの撮像を適時行なうことができる。   Further, according to the present invention, an imaging apparatus such as an MRI apparatus or a CT apparatus can also serve as an image creating unit. In this case, a pointing tool is used by using a three-dimensional position detecting unit for detecting an endoscope position. It is possible to perform imaging such as an interactive scan for imaging a desired part of the subject designated by the item in a timely manner.

以下、本発明の実施の形態を、図面を参照して説明する。
図1は、本発明の高機能内視鏡手術支援装置の全体構成を示す斜視図、図2はブロック図である。この手術支援装置は、MRI装置等の撮像装置による画像を手術支援画像の一つとして利用しながら、内視鏡と小型ロボットを用いて患者の外科的治療を行なうための装置であり、主たる構成として、被検体の断層像を撮像するための撮像装置10、被検体の手術対象部位を観察するための内視鏡20、術具を操作するための手術用小型ロボット30、内視鏡20及びロボット30に操作される術具の位置を検出するための三次元位置検出装置40、内視鏡の映像に重畳される手術支援画像を作成する画像作成部50、内視鏡の映像や手術支援画像を表示するための表示装置70、表示装置70の表示制御などを行なう制御部60を備えている。撮像装置10、内視鏡20及びロボット30には、それぞれ操作者が動作の指令や条件を入力するための操作部80(81、82、83)が備えられている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a perspective view showing the overall configuration of a high-function endoscopic surgery support apparatus according to the present invention, and FIG. 2 is a block diagram. This operation support apparatus is an apparatus for performing surgical treatment of a patient using an endoscope and a small robot while using an image obtained by an imaging apparatus such as an MRI apparatus as one of operation support images. As an imaging device 10 for capturing a tomographic image of a subject, an endoscope 20 for observing a surgical target region of the subject, a small surgical robot 30 for operating a surgical instrument, an endoscope 20 and A three-dimensional position detection device 40 for detecting the position of a surgical instrument operated by the robot 30, an image creation unit 50 for creating a surgery support image superimposed on an endoscope image, an endoscope image and a surgery support A display device 70 for displaying an image and a control unit 60 for performing display control of the display device 70 are provided. The imaging device 10, the endoscope 20, and the robot 30 are provided with operation units 80 (81, 82, 83) for an operator to input operation commands and conditions, respectively.

撮像装置10は、図1に示す実施の形態では、撮像空間を挟んで上下に一対の磁石13、15を配置した垂直磁場方式のオープン型のMRI装置であり、被検体11を載せたベッド12を撮像空間に配置した状態で、手術を施すことができるようになっている。MRI装置の構成及び撮像方法は、従来のMRI装置と同様であり、ここでは説明を省略する。   In the embodiment shown in FIG. 1, the imaging apparatus 10 is a vertical magnetic field type open MRI apparatus in which a pair of magnets 13 and 15 are arranged above and below an imaging space, and a bed 12 on which a subject 11 is placed. Can be operated in a state in which is placed in the imaging space. The configuration of the MRI apparatus and the imaging method are the same as those of the conventional MRI apparatus, and a description thereof is omitted here.

内視鏡20は、スコープ部と画像処理部とを有する。スコープ部は、被検体11の被検体の内部に挿入される対物レンズおよび小型カメラを含む。画像処理部は、小型カメラで撮像された画像データを取り込んで映像記録装置21に記録するとともに、制御部60に受け渡し、内視鏡映像として表示装置70に表示させる。内視鏡20は、単一のカメラを搭載した単眼内視鏡、一対のカメラを搭載したステレオ内視鏡のいずれでもよく、表示装置70として2視点ステレオ映像表示対応しているものを使用する場合には、両者に対応することができる。内視鏡20は、MRI装置に取り付けた駆動機構に固定され、操作部83からの操作により、回転、並進などの動作を行なうことができる。また内視鏡20には、このような内視鏡の動作に追従して移動する器具であって三次元位置検出装置40によって位置検出可能な器具(術具追随器具)(図示せず)が取り付けられている。   The endoscope 20 includes a scope unit and an image processing unit. The scope unit includes an objective lens and a small camera inserted into the subject 11. The image processing unit captures the image data captured by the small camera, records it in the video recording device 21, transfers it to the control unit 60, and displays it on the display device 70 as an endoscopic video. The endoscope 20 may be either a monocular endoscope equipped with a single camera or a stereo endoscope equipped with a pair of cameras, and uses a display device 70 that supports two-viewpoint stereo video display. In some cases, both can be accommodated. The endoscope 20 is fixed to a drive mechanism attached to the MRI apparatus, and can perform operations such as rotation and translation by operations from the operation unit 83. In addition, the endoscope 20 includes an instrument (a surgical instrument following instrument) (not shown) that moves following the operation of the endoscope and can detect the position by the three-dimensional position detection device 40. It is attached.

小型ロボット30は、互いに回動可能に連結された複数のロボットアームを有し、これらロボットアームの連結角度を変えることにより、その先端に固定されたメスなどの術具を任意の方向に任意の量だけ移動・回転させることができるようになっている。ロボット30にも、その動作に追従して移動する器具であって三次元位置検出装置40によって位置検出可能な器具(術具追随器具)が取り付けられている。   The small robot 30 has a plurality of robot arms that are rotatably connected to each other. By changing the connection angle of these robot arms, a surgical tool such as a scalpel fixed to the tip of the robot arm can be arbitrarily set in any direction. It can be moved and rotated by the amount. The robot 30 is also attached with an instrument (surgical instrument tracking instrument) that moves following the movement and can be detected by the three-dimensional position detection device 40.

内視鏡20及びロボット(ロボットアーム)30を駆動するための機構として、MRI装置10のベッド12には、その両側縁に沿ってレールが取り付けられると共に、レールに沿って移動可能な円弧状のアーム(内視鏡用アーム25及びロボット用アーム35)が取り付けられている。内視鏡20のスコープ部及びロボットアームはこのアームに取り付けられる。手術に使用する術具が複数ある場合には、1ないし複数のアームに、複数のロボットが取り付けられる。図1に示す例では、一つのアームに2つの術具が固定されている。   As a mechanism for driving the endoscope 20 and the robot (robot arm) 30, rails are attached to the bed 12 of the MRI apparatus 10 along both side edges thereof, and the arc shape is movable along the rails. Arms (endoscope arm 25 and robot arm 35) are attached. The scope unit and robot arm of the endoscope 20 are attached to this arm. When there are a plurality of surgical tools used for the operation, a plurality of robots are attached to one or a plurality of arms. In the example shown in FIG. 1, two surgical tools are fixed to one arm.

三次元位置検出装置40は、これら内視鏡20及びロボット30に固定された術具追随器具の実空間における位置を検出するためのものであり、この実施の形態では、一対の赤外線カメラ41を備えた位置検出デバイス42と、位置検出デバイス42が検出した位置信号に対し、所定の座標変換等の処理を行なう処理部43とを備えている。   The three-dimensional position detection device 40 is for detecting the position in the real space of the surgical instrument follower fixed to the endoscope 20 and the robot 30, and in this embodiment, a pair of infrared cameras 41 are provided. The position detection device 42 is provided, and a processing unit 43 that performs processing such as predetermined coordinate conversion on the position signal detected by the position detection device 42.

位置検出デバイス42は、赤外線を発生する赤外線源を備え、赤外線源から照射され、所定の反射体(マーカー)から反射された赤外線を検出することによって、その反射体が付された対象の位置を検出することができるようになっている。前述した内視鏡及びロボットに固定される術具追随器具には、少なくとも3箇所にマーカーが固定されており、マーカーから得られる3つの位置座標から、例えば器具が固定された内視鏡先端の位置や内視鏡の方向などの三次元位置情報を得ることができる。位置検出デバイス42は、MRI装置10の上部磁石13を覆うガントリに、支持アーム45により固定されており、支持アーム45を移動することにより任意の位置に設定することができる。   The position detection device 42 includes an infrared source that generates infrared rays, and detects the infrared rays that are irradiated from the infrared source and reflected from a predetermined reflector (marker), whereby the position of the target to which the reflector is attached is determined. It can be detected. In the above-described surgical instrument follower fixed to the endoscope and the robot, markers are fixed at least at three locations. From the three position coordinates obtained from the markers, for example, the tip of the endoscope to which the instrument is fixed is fixed. Three-dimensional position information such as the position and the direction of the endoscope can be obtained. The position detection device 42 is fixed to a gantry that covers the upper magnet 13 of the MRI apparatus 10 by a support arm 45, and can be set to an arbitrary position by moving the support arm 45.

またMRI装置10のガントリには、赤外線カメラ41が捉えたカメラ座標における方向及び位置を、MRI装置の装置座標系(実空間座標)と関連付けるために、基準ツール47が固定されている。基準ツール47には、赤外線カメラ41で位置検出可能な3つのマーカー(例えば、赤外線カメラが発する赤外線を反射する反射球)48が固定されている。これら3つのマーカーの位置を検出することにより、装置座標の原点に対するカメラの三次元位置を検出することができ、カメラ座標と装置座標との関連付けを行なうことができる。赤外線カメラ41は、所定のサンプリング速度で検出した位置情報を処理部43に送る。処理部43は、位置検出デバイス42が検出した位置情報(カメラ座標の位置情報)を装置座標系の位置情報に変換する。座標変換のための座標変換マトリクスは予め処理部43内に格納されており、位置検出デバイス42による位置検出と同時に座標変換された位置情報が得られる。処理部43は、例えば、パーソナルコンピュータ上に構築することが可能である。   A reference tool 47 is fixed to the gantry of the MRI apparatus 10 in order to associate the direction and position in the camera coordinates captured by the infrared camera 41 with the apparatus coordinate system (real space coordinates) of the MRI apparatus. Fixed to the reference tool 47 are three markers 48 (for example, reflecting spheres that reflect infrared rays emitted by the infrared camera) that can be detected by the infrared camera 41. By detecting the positions of these three markers, it is possible to detect the three-dimensional position of the camera with respect to the origin of the apparatus coordinates, and to associate the camera coordinates with the apparatus coordinates. The infrared camera 41 sends position information detected at a predetermined sampling speed to the processing unit 43. The processing unit 43 converts the position information (camera coordinate position information) detected by the position detection device 42 into position information in the apparatus coordinate system. A coordinate conversion matrix for coordinate conversion is stored in advance in the processing unit 43, and position information that has undergone coordinate conversion is obtained simultaneously with position detection by the position detection device. The processing unit 43 can be constructed on a personal computer, for example.

画像作成部50は、MRI装置10で撮像された被検体10の三次元画像データを処理し、被検体の特定領域を抽出した三次元セグメンテーション画像データ(以下、3D−SG画像データと略す)を作成するとともに、三次元位置検出装置40から得られる内視鏡20位置に基き、3D−SG画像データに投影処理を施し、手術支援画像を作成する。また画像作成部50は、予め登録された術具の画像(仮想術具)を作成し、三次元位置検出装置40から得られる術具位置に基き、手術支援画像を作成する。画像作成部50は、予め複数の術具について作成された仮想術具データを記憶しておき、手術に用いる術具が選択され、登録された場合に、記憶された仮想術具データのうち該当する仮想術具データを用いるようにすることできる。仮想術具データは、術具を模式的に示す2次元データでもよいが、三次元データでもよく、その場合はSG画像データと同様に投影処理を施す。   The image creation unit 50 processes the three-dimensional image data of the subject 10 imaged by the MRI apparatus 10 and extracts the three-dimensional segmentation image data (hereinafter abbreviated as 3D-SG image data) obtained by extracting a specific region of the subject. At the same time, based on the position of the endoscope 20 obtained from the three-dimensional position detection device 40, a projection process is performed on the 3D-SG image data to create a surgery support image. The image creating unit 50 creates a pre-registered surgical tool image (virtual surgical tool), and creates a surgical support image based on the surgical tool position obtained from the three-dimensional position detection device 40. The image creating unit 50 stores virtual surgical tool data created in advance for a plurality of surgical tools, and when a surgical tool used for surgery is selected and registered, the corresponding virtual surgical tool data is stored. Virtual instrument data to be used can be used. The virtual surgical instrument data may be two-dimensional data schematically showing the surgical instrument, but may also be three-dimensional data. In this case, projection processing is performed in the same manner as SG image data.

制御部60は、表示制御部61、距離算出部62などを有する。表示制御部61は、画像作成部50で作成された手術支援画像を内視鏡の映像に重畳して、表示装置70に表示させるとともに、距離算出部62における算出結果やそれに伴う警告などを表示装置70に表示させる。距離算出部62は、三次元位置検出装置40から得られる術具位置と、被検体の特定領域との距離を算出する。この際、術具位置は装置座標系の位置に変換された情報として与えられ、一方、特定領域の位置(画像座標)はMRI装置の装置座標と関連付けられているので、距離算出部62はこれらの位置情報から直ちに両者の距離を算出することができる。ユーザーは、予め術具との距離を算出すべき特定領域を選択し、設定することが可能であり、また警告を表示させる場合には、警告を発すべき閾値を設定することが可能になっている。   The control unit 60 includes a display control unit 61, a distance calculation unit 62, and the like. The display control unit 61 superimposes the surgery support image created by the image creation unit 50 on the video of the endoscope and causes the display device 70 to display it, and also displays the calculation result in the distance calculation unit 62 and a warning accompanying it. It is displayed on the device 70. The distance calculation unit 62 calculates the distance between the surgical instrument position obtained from the three-dimensional position detection device 40 and the specific region of the subject. At this time, the position of the surgical tool is given as information converted into the position of the apparatus coordinate system, while the position (image coordinates) of the specific area is associated with the apparatus coordinates of the MRI apparatus. The distance between the two can be immediately calculated from the position information. The user can select and set a specific area in which the distance to the surgical instrument should be calculated in advance, and when displaying a warning, it is possible to set a threshold at which a warning should be issued. Yes.

このような制御部60の機能は、MRI装置10とは独立していてもよいが、MRI装置10が備えている制御部がそれを兼ねることができる。また制御部60は、ユーザーが種々の条件や指令を入力するための操作部を備えている。MRI装置10の制御部が制御部60を兼ねる場合には、MRI装置10の操作部81より上記指令等を入力する。   Such a function of the control unit 60 may be independent of the MRI apparatus 10, but the control unit provided in the MRI apparatus 10 can also serve as the function. The control unit 60 includes an operation unit for the user to input various conditions and commands. When the control unit of the MRI apparatus 10 also serves as the control unit 60, the above command and the like are input from the operation unit 81 of the MRI apparatus 10.

表示装置70は、1ないし複数のモニタを備えている。本実施の形態では、操作者用モニタ71と手術室用モニタ72が設置されている。操作者用モニタ71は、入力部(操作部81)のGUI等を表示させるためのモニタを兼ねることができる。   The display device 70 includes one or more monitors. In the present embodiment, an operator monitor 71 and an operating room monitor 72 are provided. The operator monitor 71 can also serve as a monitor for displaying a GUI or the like of the input unit (operation unit 81).

次に上記構成における手術支援装置の動作を説明する。図3は本実施の形態の手術支援装置を用いた内視鏡手術の手順を示すフローの一例である。
手術の準備段階として、まず内視鏡20及びロボットアームに術具追随器具を取り付けた後(ステップ101、102)、内視鏡及びロボットアームをMRI装置内部に設置する(ステップ103)。次いでMRI装置により被検体の撮像を行い、手術対象部位を含む被検体の領域について三次元ボリューム画像を得る(ステップ104)。この三次元ボリューム画像を用いて必要部位のセグメンテーションを行なう(ステップ105)。
Next, the operation of the surgery support apparatus having the above configuration will be described. FIG. 3 is an example of a flow showing a procedure of endoscopic surgery using the surgery support apparatus of the present embodiment.
As a preparatory stage for surgery, first, after attaching a surgical instrument follower to the endoscope 20 and the robot arm (steps 101 and 102), the endoscope and the robot arm are installed inside the MRI apparatus (step 103). Next, the subject is imaged by the MRI apparatus, and a three-dimensional volume image is obtained for the region of the subject including the surgical site (step 104). Segmentation of a necessary part is performed using this three-dimensional volume image (step 105).

セグメンテーションは、領域抽出として知られている公知の手法、例えば領域の輪郭上の点列を指定し、その間をスプライン補間してつなげる方式や閾値方式などを採用することができる。またスライス間のデータについてもスプライン補間等を行うことができる。三次元ボリューム画像は、図4に示すように、スライス面とスライス方向の位置で決まるDICOMデータであり、このようなセグメンテーションの結果である特定領域画像データ(3D−SG画像データ)401、402、403もDICOMデータである。DICOM座標は、MRI装置の装置座標と関連付けられているので、装置座標上の位置がわかれば、それに対応するDICOMデータ上の座標が決まる。セグメンテーションは、例えば、手術対象臓器や、その近傍の臓器や血管について行なわれ、各3D−SG画像データは画像形成部50のメモリ内に格納される。図示する例では、3つの部位404〜406についてそれぞれ3D−SG画像データ401、402、403が作成されている。   For the segmentation, a known method known as region extraction, for example, a method of specifying a point sequence on the contour of a region and connecting them by spline interpolation or a threshold method can be adopted. Also, spline interpolation or the like can be performed on data between slices. As shown in FIG. 4, the three-dimensional volume image is DICOM data determined by the position in the slice plane and the slice direction, and specific area image data (3D-SG image data) 401, 402, which is a result of such segmentation, 403 is also DICOM data. Since the DICOM coordinates are associated with the apparatus coordinates of the MRI apparatus, if the position on the apparatus coordinates is known, the corresponding coordinates on the DICOM data are determined. The segmentation is performed on, for example, the organ to be operated and its nearby organs and blood vessels, and each 3D-SG image data is stored in the memory of the image forming unit 50. In the illustrated example, 3D-SG image data 401, 402, and 403 are created for three portions 404 to 406, respectively.

次に三次元ボリューム画像を用いて、内視鏡20とロボットアームのレジストレーションを行なう(ステップ106)。レジストレーションは、三次元位置検出装置40の処理部43に、内視鏡20及びロボットアームに取り付けた術具追随器具(そのマーカー)の位置を装置座標(実空間座標)に統合する作業である。具体的には、基準ツール47(3つのマーカー)の位置と内視鏡20及びロボットアームに固定された術具追随器具(3つのマーカー)の位置をそれぞれ三次元位置検出装置40で検出することにより、術具追随器具の装置座標系における位置を検出する。一方、術具追随器具のマーカーと内視鏡20の焦点やロボットアームに固定された術具(メス等)の先端との位置関係を入力することによって、マーカーの配置や監視すべき点とマーカーとの位置関係を処理部43に記憶させる。このようなレジストレーションを行なうことにより、その後は、術具追随器具の各マーカーの位置を検出することによって、内視鏡20や術具の実空間座標における位置、向きを検出することができる。   Next, registration of the endoscope 20 and the robot arm is performed using the three-dimensional volume image (step 106). The registration is an operation for integrating the position of the surgical instrument follower (the marker) attached to the endoscope 20 and the robot arm into the processing unit 43 of the three-dimensional position detection device 40 into the device coordinates (real space coordinates). . Specifically, the position of the reference tool 47 (three markers) and the position of the surgical instrument follower (three markers) fixed to the endoscope 20 and the robot arm are detected by the three-dimensional position detection device 40, respectively. Thus, the position of the surgical instrument following instrument in the apparatus coordinate system is detected. On the other hand, by inputting the positional relationship between the marker of the surgical instrument following instrument and the focal point of the endoscope 20 and the distal end of the surgical instrument (such as a scalpel) fixed to the robot arm, the marker placement and the points to be monitored and the marker Is stored in the processing unit 43. By performing such registration, the position and orientation of the endoscope 20 and the surgical instrument in real space coordinates can be detected thereafter by detecting the position of each marker of the surgical instrument following instrument.

このような準備ステップが終了したならば、内視鏡を用いたロボット手術を開始する(ステップ107)。内視鏡及びロボットの動きは、三次元位置検出装置40により随時検出され、その位置情報は画像座標に変換された位置情報として画像作成部50に送られる。画像作成部50は、三次元位置検出装置40から送られる内視鏡の向きとその焦点位置をもとに、メモリに記憶されている3D−SG画像データから投影像(レンダリング像)を作成する。投影像の投影面は、例えば内視鏡焦点を中心とし、内視鏡の向きと直交する平面である。図4に、3D−SG画像データから投影像としてのセグメンテーション画像408〜410を作成した様子を示す。また画像作成部50は、ロボットアームの向きと位置情報をもとに画像空間に仮想術具を配置した画像407を作成する。仮想術具データが三次元データである場合には、セグメンテーション画像と同じ投影面に投影した投影像を作成する。   When such a preparation step is completed, robotic surgery using an endoscope is started (step 107). The movements of the endoscope and the robot are detected at any time by the three-dimensional position detection device 40, and the position information is sent to the image creating unit 50 as position information converted into image coordinates. The image creation unit 50 creates a projection image (rendered image) from the 3D-SG image data stored in the memory, based on the direction of the endoscope sent from the three-dimensional position detection device 40 and its focal position. . The projection plane of the projected image is a plane that is centered on the endoscope focal point and orthogonal to the direction of the endoscope, for example. FIG. 4 shows a state in which segmentation images 408 to 410 as projection images are created from 3D-SG image data. The image creation unit 50 creates an image 407 in which a virtual surgical tool is arranged in the image space based on the orientation and position information of the robot arm. When the virtual instrument data is three-dimensional data, a projection image projected on the same projection plane as the segmentation image is created.

表示制御部61は、画像形成部50で作成された手術支援画像を内視鏡の映像に重畳して表示装置70に表示する(412〜414)。この際、投影像の大きさは、内視鏡の倍率に合わせる。内視鏡の倍率が「×1」の場合には、投影像の大きさは実空間の大きさと同じであり、「×2」の場合には、実空間の2倍となる。セグメンテーション画像及び仮想術具を内視鏡の映像に重畳表示した様子を図5に示す。内視鏡及び仮想術具の位置の座標は、MRI装置の装置座標に統合されているので、図示するように、セグメンテーション画像503、仮想術具504、505及び内視鏡502がそれぞれ実空間上の相対位置を保った状態で、内視鏡映像506に手術支援画像(507、508、509)として表示される。
このようなセグメンテーション画像からの投影像の作成と重畳表示は、内視鏡及びロボットの位置の逐次検出に合わせて実行される。即ち、内視鏡が移動するのに伴い内視鏡の映像は変化するので、変化した位置におけるセグメンテーション画像及び仮想術具が作成され重畳表示されることになる。
The display control unit 61 superimposes the surgery support image created by the image forming unit 50 on the video image of the endoscope and displays it on the display device 70 (412-414). At this time, the size of the projected image is adjusted to the magnification of the endoscope. When the magnification of the endoscope is “× 1”, the size of the projected image is the same as the size of the real space, and when it is “× 2”, it is twice the size of the real space. FIG. 5 shows a state in which the segmentation image and the virtual surgical tool are superimposed and displayed on the video of the endoscope. Since the coordinates of the positions of the endoscope and the virtual surgical tool are integrated with the apparatus coordinates of the MRI apparatus, the segmentation image 503, the virtual surgical tools 504 and 505, and the endoscope 502 are respectively in real space as shown in the figure. Are maintained as endoscopic images 506 as operation support images (507, 508, 509).
Such creation and superposition display of the projection image from the segmentation image are executed in accordance with the sequential detection of the positions of the endoscope and the robot. That is, as the endoscope moves, the video of the endoscope changes, so that a segmentation image and a virtual surgical tool at the changed position are created and displayed in a superimposed manner.

一例として、図6に示すように、被検体601の手術対象部位(ターゲット)602に対し、その足側から内視鏡603を設置している場合には、内視鏡603とターゲット602との関係は装置座標系で一義的に定義されており、内視鏡位置で決まる所定の面を投影面として投影像605が作成され、内視鏡映像606に重畳されているが、内視鏡603を頭部側から設置した場合には、装置座標系における内視鏡603の位置座標は変更され、新たな投影面への投影像610が作成され、内視鏡映像611に重畳される。即ち、常に内視鏡により映し出される映像と同じ側からの投影像が重畳表示される。   As an example, as shown in FIG. 6, when an endoscope 603 is installed from the foot side with respect to a surgical target region (target) 602 of a subject 601, the endoscope 603 and the target 602 are connected. The relationship is uniquely defined in the apparatus coordinate system, and a projection image 605 is created with a predetermined plane determined by the endoscope position as a projection plane, and is superimposed on the endoscope video 606. Is installed from the head side, the position coordinate of the endoscope 603 in the apparatus coordinate system is changed, and a projection image 610 on a new projection plane is created and superimposed on the endoscope image 611. That is, the projected image from the same side as the image always projected by the endoscope is superimposed and displayed.

また術具位置が変化した場合にも、その変化した位置に対応する映像上の位置に仮想術具が表示される。この場合、内視鏡及び仮想術具の位置の座標は、MRI装置の装置座標に統合されているので、リアルタイムで画像処理を行なうことができる。
またセグメンテーション画像(投影像)は平面画像であるが、各臓器や部位が三次元的に描出された画像である。従って術者は、内視鏡に映し出されている映像において、セグメンテーションされた臓器や部位の三次元的位置関係を容易に把握することができる。
Also, when the surgical instrument position changes, the virtual surgical instrument is displayed at a position on the video corresponding to the changed position. In this case, since the coordinates of the positions of the endoscope and the virtual surgical tool are integrated with the apparatus coordinates of the MRI apparatus, image processing can be performed in real time.
The segmentation image (projection image) is a planar image, but is an image in which each organ or part is depicted three-dimensionally. Therefore, the surgeon can easily grasp the three-dimensional positional relationship between the segmented organs and parts in the video image displayed on the endoscope.

図4では、3つのセグメンテーション画像が作成され、表示される様子を示しているが、セグメンテーション画像の作成、表示は、必要に応じて選択することができる(ステップ109)。例えば、内視鏡の進行するにつれて、術具との関係で接触してはいけない血管や臓器は異なる場合がある。その場合には、術者が操作部81を介して表示させたいセグメンテーション画像を選択することにより、選択されたセグメンテーション画像を表示させる。或いはセグメンテーション画像全体を非表示とすることも可能である。   FIG. 4 shows how three segmentation images are created and displayed, but the creation and display of segmentation images can be selected as necessary (step 109). For example, as the endoscope progresses, blood vessels and organs that should not come into contact with the surgical tool may differ. In that case, the selected segmentation image is displayed by the operator selecting the segmentation image to be displayed via the operation unit 81. Alternatively, the entire segmentation image can be hidden.

また距離算出部62は、三次元位置検出装置40から得られるロボットアームの位置をもとに、それに固定された術具と被検体の特定領域(ユーザーにより予め特定された領域)との距離を算出し、これを表示装置70に表示させる(ステップ110)。距離の算出は、実空間座標における術具の位置情報と特定領域のセグメント画像の位置情報から行なうことができる。算出された距離が、予め設定された閾値以下になったときには、警告を画像や音声で発する(ステップ111)。   The distance calculation unit 62 calculates the distance between the surgical tool fixed to the robot arm and the specific area of the subject (area specified in advance by the user) based on the position of the robot arm obtained from the three-dimensional position detection device 40. This is calculated and displayed on the display device 70 (step 110). The distance can be calculated from the position information of the surgical tool in the real space coordinates and the position information of the segment image in the specific area. When the calculated distance is less than or equal to a preset threshold value, a warning is issued with an image or sound (step 111).

さらに本実施の形態では、ユーザーの選択によりインタラクティブスキャンを実行する(ステップ112)。インタラクティブスキャンとは、ユーザーが指示具によって指定した被検体上の位置を含む断層像をリアルタイムで撮像する機能である。通常、MRI装置においては、三次元位置検出器で検出可能な指示具で所望の位置を指定し、この位置情報をMRI装置が受け付け、指示具の指示方向を含む断面の撮像を行なう。ここではロボットアームが三次元位置検出器で検出可能な術具追随器具を備えているので、この器具を指示具としてインタラクティブスキャンを実行することが可能となる。インタラクティブスキャンによって撮像された断層像は、表示装置70に内視鏡映像と並置して表示させることができる。   Further, in the present embodiment, interactive scanning is executed by user selection (step 112). The interactive scan is a function that captures in real time a tomographic image including a position on the subject designated by the user with the pointing tool. Usually, in an MRI apparatus, a desired position is designated by an indicator that can be detected by a three-dimensional position detector, and this MRI apparatus receives this position information, and performs imaging of a cross section including the indication direction of the indicator. Here, since the robot arm is provided with a surgical instrument follower that can be detected by a three-dimensional position detector, interactive scanning can be executed using this instrument as an indicator. The tomographic image captured by the interactive scan can be displayed on the display device 70 in parallel with the endoscopic image.

内視鏡映像及びそれに重畳される投影像は、内視鏡を視点とした画像であるが、インタラクティグスキャンによって得られる断層像は、それとは異なる面をスライス面とする画像であり、ロボットアームの向きを変えることにより任意の方向に選択することができるので、例えば、内視鏡の陰になって見え難い部位や内視鏡では見えない内部の組織も画像化することができる。これにより術者は内視鏡映像と併せて多面的な情報を得ることができ、手術精度の向上につながる。   The endoscopic video and the projected image superimposed on it are images with the viewpoint of the endoscope, but the tomographic image obtained by the interactive scan is an image with a different plane as the slice plane, and the robot arm Therefore, for example, a part that is difficult to see behind the endoscope or an internal tissue that cannot be seen with the endoscope can be imaged. As a result, the surgeon can obtain multifaceted information together with the endoscopic image, leading to improvement in surgical accuracy.

なお図3に示すフローには示していないが、本実施の形態では、必要に応じて三次元ボリュームデータを用いた手術ナビゲーションを行なうことも可能である。手術ナビゲーションは、手術支援機能として公知の技術であり、三次元位置検出器で検出可能な指示具で被検体の所望の位置を指定することにより、予め取得した三次元ボリューム画像から指定された位置を含む断面像を作成し表示する機能である。この場合にも、指示具の代わりにロボットアームを用いることが可能である。   Although not shown in the flow shown in FIG. 3, in this embodiment, it is also possible to perform surgical navigation using three-dimensional volume data as necessary. Surgery navigation is a well-known technique as a surgery support function, and a position designated from a three-dimensional volume image acquired in advance by designating a desired position of a subject with an indicator that can be detected by a three-dimensional position detector. This is a function for creating and displaying a cross-sectional image including. Also in this case, it is possible to use a robot arm instead of the pointing tool.

上述のようなインタラクティブや手術ナビゲーションを適宜実行しながら、手術が終了するまで、内視鏡に重畳した手術支援画像のリアルタイム更新、表示を繰り返す(ステップ113)。   While appropriately performing the interactive and surgical navigation as described above, the operation support image superimposed on the endoscope is updated and displayed in real time until the operation is completed (step 113).

次に本実施の形態を実行するためのGUIの一例を図7に示す。図示する例では、画面701のほぼ中央に内視鏡の映像が映し出され、ここには2つの術具713、714とセグメンテーション画像708が重畳表示されている。   Next, an example of a GUI for executing the present embodiment is shown in FIG. In the example shown in the figure, an endoscope image is displayed in the approximate center of the screen 701, and two surgical tools 713 and 714 and a segmentation image 708 are superimposed on the screen.

映像表示画面の右側には、警告表示画面702、距離表示画面703、三次元表示画面704が設けられている。警告表示画面702には、例えば一つの術具が特定の領域に近づいていることを警告音とともに文字や図形で表示する。距離表示画面703には、術具と特定領域との距離が表示される。この表示は距離が変化するのに従い更新される。三次元表示画面704には、セグメンテーションの対象である特定領域と術具との実空間における配置が表示される。   On the right side of the video display screen, a warning display screen 702, a distance display screen 703, and a three-dimensional display screen 704 are provided. On the warning display screen 702, for example, the fact that one surgical instrument is approaching a specific area is displayed with a warning sound in characters and graphics. The distance display screen 703 displays the distance between the surgical tool and the specific area. This display is updated as the distance changes. The three-dimensional display screen 704 displays the arrangement in the real space between the specific region that is a segmentation target and the surgical instrument.

映像表示画面の下側705には操作画面(GUI)が表示されている。「Scan1」「Scan2」706は撮像開始の操作ボタンで、複数(ここでは2つ)の撮像方法のうちいずれかを選択できるようになっている。「Segmentation : ON/OFF」707は、セグメンテーション画像の表示/非表示を選択するためのボタンで、ここではセグメンテーション画像全体の表示/非表示を選択可能にした場合を示しているが、例えば、三次元表示画面704に表示された複数の領域のいずれかを特定して表示/非表示と選択するようにすることも可能である。「Operate Tool : ON/OFF」712は、術具の表示/非表示を選択するためのボタンで、この場合にも複数の術具全部の表示/非表示を選択可能にしてもよいし、特定された術具のみの表示/非表示を選択可能にしてもよい。「ISC : ON/OFF」717は、インタラクティブスキャンを行なうための操作ボタンであり、「Navigation : ON/OFF」717は、ナビゲーションを行なうための操作ボタンである。   An operation screen (GUI) is displayed on the lower side 705 of the video display screen. “Scan1” and “Scan2” 706 are operation buttons for starting imaging, and one of a plurality (here, two) of imaging methods can be selected. “Segmentation: ON / OFF” 707 is a button for selecting display / non-display of the segmentation image. In this example, the display / non-display of the entire segmentation image can be selected. It is also possible to specify one of a plurality of areas displayed on the original display screen 704 and select display / non-display. “Operate Tool: ON / OFF” 712 is a button for selecting display / non-display of the surgical tool. In this case as well, display / non-display of all of the multiple surgical tools may be selectable or specified. It may be possible to select display / non-display of only the operated tool. “ISC: ON / OFF” 717 is an operation button for performing interactive scanning, and “Navigation: ON / OFF” 717 is an operation button for performing navigation.

操作者は、モニタ2に表示されるGUIを介して、撮像や表示等の指示を与えると共に、モニタに表示された映像や距離などを見ながら手術を進めることができる。   The operator can give an instruction for imaging, display, etc. via the GUI displayed on the monitor 2 and can proceed with the operation while viewing the video, distance, etc. displayed on the monitor.

本実施の形態によれば、内視鏡及びロボットアーム(それに固定された術具)の座標が、MRI装置の装置座標と統合されているので、内視鏡映像の変化に伴いリアルタイムで手術支援画像を更新して重畳表示することができる。また術具位置と特定領域との距離計算も極めて短時間で行なうことができ、これにより術具が接触してはならない特定部位に近づいた場合にすみやかに警告を発することができる。   According to the present embodiment, since the coordinates of the endoscope and the robot arm (the surgical tool fixed thereto) are integrated with the apparatus coordinates of the MRI apparatus, surgical support is provided in real time as the endoscope image changes. Images can be updated and superimposed. In addition, the distance between the surgical instrument position and the specific region can be calculated in a very short time, thereby promptly issuing a warning when the surgical instrument approaches a specific part that should not come into contact.

なお上記実施の形態では、撮像装置がMRI装置である場合を例に説明したが撮像装置として、MRI装置のほか、CT装置、PETなど他の撮像装置を採用することも可能である。さらに本実施の形態では、MRI装置等の撮像装置が組み込まれた手術支援装置を説明したが、本発明の手術支援装置において撮像装置は必須ではなく、画像作成部は、撮像装置で撮像された三次元ボリューム画像データを取り込んで、手術支援画像を作成することも可能である。この場合には、三次元ボリューム画像の座標と手術が行われる実空間座標との関連付けを行なっておくことが必要である。このような関連付けは、例えば、被検体に三次元ボリューム画像を撮像する撮像装置で検出可能なマーカーを固定した状態で撮像を行い、手術が行われる実空間において、三次元位置検出器で被検体に固定されたマーカーの位置を検出することにより行なうことが可能である。   In the above embodiment, the case where the imaging apparatus is an MRI apparatus has been described as an example. However, as the imaging apparatus, other imaging apparatuses such as a CT apparatus and PET can be adopted in addition to the MRI apparatus. Furthermore, in the present embodiment, the surgery support apparatus in which the imaging apparatus such as the MRI apparatus is incorporated has been described. However, the imaging apparatus is not essential in the surgery support apparatus of the present invention, and the image creation unit is captured by the imaging apparatus. It is also possible to take a three-dimensional volume image data and create a surgery support image. In this case, it is necessary to associate the coordinates of the three-dimensional volume image with the real space coordinates where the operation is performed. Such association is performed, for example, by imaging a subject with a marker that can be detected by an imaging device that captures a three-dimensional volume image and fixing the subject with a three-dimensional position detector in a real space where surgery is performed. It is possible to carry out by detecting the position of the marker fixed to the.

また本実施の形態では、術具を固定したロボットの位置検出を、内視鏡位置を検出する三次元位置検出器で行なう場合を説明したが、ロボットの制御系でロボットアームの位置情報を持っている場合には、その位置情報を利用することも可能である。この場合にもロボットアームの位置を三次元位置検出器で検出可能な指示具を利用して三次元位置検出器の処理部に登録し、ロボット座標と三次元位置検出装置の座標との座標変換マトリクスを作成しておくことにより、ロボット位置を三次元位置検出装置で検出する場合と同様に、ロボット制御系からの位置情報を用いて手術支援画像の作成と内視鏡画像への重畳表示が可能となる。   In this embodiment, the case where the position of the robot to which the surgical tool is fixed is detected by the three-dimensional position detector that detects the endoscope position has been described. However, the robot control system has the position information of the robot arm. If it is, the position information can be used. In this case as well, the robot arm position is registered in the processing unit of the 3D position detector using an indicator that can be detected by the 3D position detector, and coordinate conversion between the robot coordinates and the coordinates of the 3D position detection device is performed. By creating a matrix, it is possible to create a surgical support image and superimpose it on an endoscopic image using position information from the robot control system, as in the case where the robot position is detected by a three-dimensional position detection device. It becomes possible.

本発明の手術支援装置の全体外観を模式的に示す図The figure which shows typically the whole external appearance of the surgery assistance apparatus of this invention 本発明の手術支援装置の一実施の形態を示すブロック図The block diagram which shows one Embodiment of the surgery assistance apparatus of this invention 本発明の手術支援装置を用いた手術手順を示すフロー図The flowchart which shows the surgery procedure using the surgery assistance apparatus of this invention 画像作成部におけるセグメンテーション及び投影処理を説明する図The figure explaining the segmentation and projection processing in an image preparation part 画像作成部が作成した手術支援画像と内視鏡映像との重畳を説明する図The figure explaining the superimposition of the surgery assistance image which the image creation part created, and the endoscope image 内視鏡位置の変更と投影処理との関係を説明する図The figure explaining the relationship between the change of an endoscope position and projection processing 本発明の手術支援装置における操作部のGUIの一例を示す図The figure which shows an example of GUI of the operation part in the surgery assistance apparatus of this invention

符号の説明Explanation of symbols

10・・・撮像装置
20・・・内視鏡
30・・・手術用小型ロボット
40・・・三次元位置検出装置
50・・・画像作成部
60・・・制御部
70・・・表示装置
80・・・操作部
DESCRIPTION OF SYMBOLS 10 ... Imaging device 20 ... Endoscope 30 ... Small robot 40 for operation ... Three-dimensional position detection apparatus 50 ... Image preparation part 60 ... Control part 70 ... Display apparatus 80 ... Operation section

Claims (7)

内視鏡と、
前記内視鏡の映像を表示する表示手段と、
前記被検体の三次元ボリューム画像データを用いて、前記表示手段に表示された映像に重畳表示される手術支援画像を作成する画像作成手段とを備えた手術支援装置であって、
前記内視鏡の位置を逐次検出する三次元位置検出手段と、
前記三次元位置検出手段の座標と前記画像作成手段が有する画像座標とを座標統合する座標統合手段とを備え、
前記画像作成手段は、前記座標統合手段から得られる内視鏡の位置情報をもとに、前記三次元ボリューム画像データから抽出した特定領域画像データについて、前記内視鏡の位置情報で決まる特定の平面を投影面とする投影像を作成し、内視鏡位置検出時点における内視鏡の映像に重畳して表示させることを特徴とする手術支援装置。
An endoscope,
Display means for displaying an image of the endoscope;
An operation support apparatus comprising an image creation means for creating a surgery support image to be displayed superimposed on the video displayed on the display means, using the three-dimensional volume image data of the subject,
Three-dimensional position detection means for sequentially detecting the position of the endoscope;
A coordinate integration unit that integrates the coordinates of the three-dimensional position detection unit and the image coordinates of the image creation unit;
The image creating means is a specific region image data extracted from the three-dimensional volume image data based on the position information of the endoscope obtained from the coordinate integration means. A surgical operation support apparatus, characterized in that a projection image having a plane as a projection plane is created and displayed superimposed on an endoscope image at the time of endoscope position detection.
請求項1記載の手術支援装置であって、
前記画像作成手段が作成する投影像は、前記内視鏡の焦点位置を含み、前記内視鏡の進行方向に直交する面への投影像であることを特徴とする手術支援装置。
The surgical operation support device according to claim 1,
The operation support apparatus according to claim 1, wherein the projection image created by the image creation means is a projection image on a plane that includes a focal position of the endoscope and is orthogonal to a traveling direction of the endoscope.
請求項1又は2に記載の手術支援装置であって、
前記三次元位置検出手段は、前記被検体に対し適用されている術具の位置を検出し、
前記画像作成手段は、前記三次元位置検出手段で検出され、前記座標統合手段で変換された術具の位置情報に基き、前記術具の画像を検出術具位置に対応する手術支援画像上の位置に重畳して前記表示手段に表示させることを特徴とする手術支援装置。
The surgical operation support device according to claim 1 or 2,
The three-dimensional position detecting means detects a position of a surgical instrument applied to the subject;
The image creating means detects the surgical tool image on the surgical support image corresponding to the detected surgical tool position based on the surgical tool position information detected by the three-dimensional position detecting means and converted by the coordinate integrating means. An operation support apparatus, characterized in that the operation support apparatus displays the image on the display unit in a superimposed manner.
請求項1ないし3いずれか1項に記載の手術支援装置であって、
前記画像作成手段は、内視鏡の移動に伴う内視鏡映像の変化に合わせて、前記投影像の投影面をリアルタイムで変更して前記特定領域の投影像を作成し、前記表示装置に表示させることを特徴とする手術支援装置。
The surgical operation support device according to any one of claims 1 to 3,
The image creation means creates a projection image of the specific area by changing a projection plane of the projection image in real time in accordance with a change in the endoscope image accompanying the movement of the endoscope, and displays the projection image on the display device A surgical operation support device characterized in that
請求項1ないし4いずれか1項に記載の手術支援装置であって、
前記特定領域と術具との距離を算出する算出手段を備え、
前記算出手段によって算出された距離及び/又は当該距離が閾値以内であるときの警告を前記表示装置に表示させることを特徴とする手術支援装置。
The surgical operation support device according to any one of claims 1 to 4,
A calculating means for calculating a distance between the specific region and a surgical instrument;
An operation support apparatus that causes the display device to display a distance calculated by the calculation means and / or a warning when the distance is within a threshold value.
請求項1ないし5いずれか1項に記載の手術支援装置であって、
さらに前記三次元ボリューム画像データを取得する撮像手段を備えたことを特徴とする手術支援装置。
The surgery support device according to any one of claims 1 to 5,
Furthermore, the surgery assistance apparatus provided with the imaging means which acquires the said three-dimensional volume image data.
請求項6記載の手術支援装置であって、
前記撮像手段は、前記画像作成手段を兼ねることを特徴とする手術支援装置。
The surgical operation support device according to claim 6,
The surgery support apparatus, wherein the imaging means also serves as the image creation means.
JP2005189842A 2005-06-29 2005-06-29 Surgery support device Expired - Fee Related JP4152402B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005189842A JP4152402B2 (en) 2005-06-29 2005-06-29 Surgery support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005189842A JP4152402B2 (en) 2005-06-29 2005-06-29 Surgery support device

Publications (2)

Publication Number Publication Date
JP2007007041A true JP2007007041A (en) 2007-01-18
JP4152402B2 JP4152402B2 (en) 2008-09-17

Family

ID=37746280

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005189842A Expired - Fee Related JP4152402B2 (en) 2005-06-29 2005-06-29 Surgery support device

Country Status (1)

Country Link
JP (1) JP4152402B2 (en)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009172050A (en) * 2008-01-22 2009-08-06 Hitachi Medical Corp Medical image diagnostic apparatus
JP2009178230A (en) * 2008-01-29 2009-08-13 Terumo Corp Surgical system
WO2009116535A1 (en) * 2008-03-18 2009-09-24 国立大学法人浜松医科大学 Surgery assistance system
JP2010524549A (en) * 2007-04-16 2010-07-22 ニューロアーム サージカル エル ティ ディー Method, device, and system for a camera configured to be positioned within a bore of a magnet and MR bore space illumination
JP2011167213A (en) * 2009-02-10 2011-09-01 Toshiba Corp X-ray diagnostic apparatus and image processing method
JP2011212301A (en) * 2010-03-31 2011-10-27 Fujifilm Corp Projection image generation apparatus and method, and program
JP2012081167A (en) * 2010-10-14 2012-04-26 Hitachi Medical Corp Medical image display device and medical image guidance method
JP2012527286A (en) * 2009-05-18 2012-11-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Markerless tracking alignment and calibration for electromagnetic tracking endoscope system
WO2013141155A1 (en) 2012-03-17 2013-09-26 学校法人早稲田大学 Image completion system for in-image cutoff region, image processing device, and program therefor
WO2014038322A1 (en) 2012-09-07 2014-03-13 オリンパスメディカルシステムズ株式会社 Medical apparatus
WO2014065154A1 (en) * 2012-10-22 2014-05-01 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Display device, medical device, display method and program
JP5611441B1 (en) * 2013-11-29 2014-10-22 スキルアップジャパン株式会社 Image processing apparatus for microscope and medical microscope system
US20150085092A1 (en) * 2012-03-29 2015-03-26 Panasonic Healthcare Co., Ltd. Surgery assistance device and surgery assistance program
JP2015066021A (en) * 2013-09-27 2015-04-13 エフ・エーシステムエンジニアリング株式会社 Three-dimensional navigation image generation device
JP2015531271A (en) * 2012-09-14 2015-11-02 ソニー株式会社 Surgical image processing system, surgical image processing method, program, computer-readable recording medium, medical image processing apparatus, and image processing inspection apparatus
JP2015220643A (en) * 2014-05-19 2015-12-07 株式会社東芝 Stereoscopic observation device
EP3096705A1 (en) * 2014-01-24 2016-11-30 Koninklijke Philips N.V. Robotic control of imaging devices with optical shape sensing
CN106236266A (en) * 2015-06-12 2016-12-21 阿瓦特拉医药有限公司 Operating apparatus and method for robot assisted
EP3001941A4 (en) * 2013-05-23 2017-01-25 Olympus Corporation Endoscopic device and endoscopic device operation method
JP2017510826A (en) * 2013-12-20 2017-04-13 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Simulator system for medical procedure training
JP2018507040A (en) * 2015-02-20 2018-03-15 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Medical system, apparatus and method for shape detection
JP2018089310A (en) * 2016-12-07 2018-06-14 株式会社デンソー Information integration device
JPWO2017130567A1 (en) * 2016-01-25 2018-11-22 ソニー株式会社 MEDICAL SAFETY CONTROL DEVICE, MEDICAL SAFETY CONTROL METHOD, AND MEDICAL SUPPORT SYSTEM
JP2019502460A (en) * 2015-12-22 2019-01-31 シュピーネミント・アクチェンゲゼルシャフトSpineMind AG Intraoperative image-controlled navigation device during a surgical procedure in the spinal column and adjacent regions of the rib cage, pelvis or head
JP2019088734A (en) * 2017-11-17 2019-06-13 ソニー株式会社 Surgical system, information processing apparatus, and information processing method
WO2019155931A1 (en) * 2018-02-09 2019-08-15 ソニー株式会社 Surgical system, image processing device, and image processing method
JP2019524168A (en) * 2016-06-11 2019-09-05 ボストン サイエンティフィック サイムド,インコーポレイテッドBoston Scientific Scimed,Inc. System and method for monitoring tissue ablation using tissue autofluorescence
US10580326B2 (en) 2012-08-17 2020-03-03 Intuitive Surgical Operations, Inc. Anatomical model and method for surgical training
WO2024033898A1 (en) * 2022-08-11 2024-02-15 Auris Health, Inc. User interfaces for navigating anatomical channels in medical procedures
US11974716B2 (en) 2017-12-14 2024-05-07 Olympus Corporation Operation supporting device and method of operating operation supporting device

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013202313A (en) 2012-03-29 2013-10-07 Panasonic Corp Surgery support device and surgery support program
US11633247B2 (en) * 2020-03-03 2023-04-25 Verb Surgical Inc. Graphical user guidance for a robotic surgical system

Cited By (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010524549A (en) * 2007-04-16 2010-07-22 ニューロアーム サージカル エル ティ ディー Method, device, and system for a camera configured to be positioned within a bore of a magnet and MR bore space illumination
JP2009172050A (en) * 2008-01-22 2009-08-06 Hitachi Medical Corp Medical image diagnostic apparatus
JP2009178230A (en) * 2008-01-29 2009-08-13 Terumo Corp Surgical system
WO2009116535A1 (en) * 2008-03-18 2009-09-24 国立大学法人浜松医科大学 Surgery assistance system
JP2011167213A (en) * 2009-02-10 2011-09-01 Toshiba Corp X-ray diagnostic apparatus and image processing method
JP2012527286A (en) * 2009-05-18 2012-11-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Markerless tracking alignment and calibration for electromagnetic tracking endoscope system
US8611988B2 (en) 2010-03-31 2013-12-17 Fujifilm Corporation Projection image generation apparatus and method, and computer readable recording medium on which is recorded program for the same
JP2011212301A (en) * 2010-03-31 2011-10-27 Fujifilm Corp Projection image generation apparatus and method, and program
JP2012081167A (en) * 2010-10-14 2012-04-26 Hitachi Medical Corp Medical image display device and medical image guidance method
WO2013141155A1 (en) 2012-03-17 2013-09-26 学校法人早稲田大学 Image completion system for in-image cutoff region, image processing device, and program therefor
US20150085092A1 (en) * 2012-03-29 2015-03-26 Panasonic Healthcare Co., Ltd. Surgery assistance device and surgery assistance program
US10580326B2 (en) 2012-08-17 2020-03-03 Intuitive Surgical Operations, Inc. Anatomical model and method for surgical training
US10943508B2 (en) 2012-08-17 2021-03-09 Intuitive Surgical Operations, Inc. Anatomical model and method for surgical training
US11727827B2 (en) 2012-08-17 2023-08-15 Intuitive Surgical Operations, Inc. Anatomical model and method for surgical training
WO2014038322A1 (en) 2012-09-07 2014-03-13 オリンパスメディカルシステムズ株式会社 Medical apparatus
US9345394B2 (en) 2012-09-07 2016-05-24 Olympus Corporation Medical apparatus
JP2015531271A (en) * 2012-09-14 2015-11-02 ソニー株式会社 Surgical image processing system, surgical image processing method, program, computer-readable recording medium, medical image processing apparatus, and image processing inspection apparatus
CN104768442A (en) * 2012-10-22 2015-07-08 Ge医疗系统环球技术有限公司 Display device, medical device, display method and program
US9826889B2 (en) 2012-10-22 2017-11-28 Shiga University Of Medical Science Display device, medical device, display method and program
WO2014065154A1 (en) * 2012-10-22 2014-05-01 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Display device, medical device, display method and program
JP2014083156A (en) * 2012-10-22 2014-05-12 Ge Medical Systems Global Technology Co Llc Display device, medical device, display method and program
EP3001941A4 (en) * 2013-05-23 2017-01-25 Olympus Corporation Endoscopic device and endoscopic device operation method
JP2015066021A (en) * 2013-09-27 2015-04-13 エフ・エーシステムエンジニアリング株式会社 Three-dimensional navigation image generation device
JP5611441B1 (en) * 2013-11-29 2014-10-22 スキルアップジャパン株式会社 Image processing apparatus for microscope and medical microscope system
WO2015080042A1 (en) * 2013-11-29 2015-06-04 株式会社アルム Microscope image processing device and medical microscope system
US9736464B2 (en) 2013-11-29 2017-08-15 Allm Inc. Microscope video processing device and medical microscope system
EP3075342A4 (en) * 2013-11-29 2017-11-01 Allm Inc. Microscope image processing device and medical microscope system
JP2015104447A (en) * 2013-11-29 2015-06-08 株式会社アルム Image processing device for microscope and medical microscope system
US10510267B2 (en) 2013-12-20 2019-12-17 Intuitive Surgical Operations, Inc. Simulator system for medical procedure training
JP2017510826A (en) * 2013-12-20 2017-04-13 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Simulator system for medical procedure training
JP2020106844A (en) * 2013-12-20 2020-07-09 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Simulator system for medical procedure training
US11468791B2 (en) 2013-12-20 2022-10-11 Intuitive Surgical Operations, Inc. Simulator system for medical procedure training
EP3096705A1 (en) * 2014-01-24 2016-11-30 Koninklijke Philips N.V. Robotic control of imaging devices with optical shape sensing
US10687909B2 (en) 2014-01-24 2020-06-23 Koninklijke Philips N.V. Robotic control of imaging devices with optical shape sensing
JP2015220643A (en) * 2014-05-19 2015-12-07 株式会社東芝 Stereoscopic observation device
US11083526B2 (en) 2015-02-20 2021-08-10 Koninklijke Philips N.V. Medical system, apparatus and method for shape sensing
JP2018507040A (en) * 2015-02-20 2018-03-15 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Medical system, apparatus and method for shape detection
CN106236266A (en) * 2015-06-12 2016-12-21 阿瓦特拉医药有限公司 Operating apparatus and method for robot assisted
JP2017000772A (en) * 2015-06-12 2017-01-05 アヴァテラメディカル ゲーエムベーハー Device and method for robot-supported surgical operation
JP2019502460A (en) * 2015-12-22 2019-01-31 シュピーネミント・アクチェンゲゼルシャフトSpineMind AG Intraoperative image-controlled navigation device during a surgical procedure in the spinal column and adjacent regions of the rib cage, pelvis or head
JP2021118883A (en) * 2016-01-25 2021-08-12 ソニーグループ株式会社 Medical arm apparatus, medical arm apparatus operating method, and information processing apparatus
US11058509B2 (en) 2016-01-25 2021-07-13 Sony Corporation Medical safety control apparatus, medical safety control method, and medical support system
JPWO2017130567A1 (en) * 2016-01-25 2018-11-22 ソニー株式会社 MEDICAL SAFETY CONTROL DEVICE, MEDICAL SAFETY CONTROL METHOD, AND MEDICAL SUPPORT SYSTEM
JP2019524168A (en) * 2016-06-11 2019-09-05 ボストン サイエンティフィック サイムド,インコーポレイテッドBoston Scientific Scimed,Inc. System and method for monitoring tissue ablation using tissue autofluorescence
JP2018089310A (en) * 2016-12-07 2018-06-14 株式会社デンソー Information integration device
JP2019088734A (en) * 2017-11-17 2019-06-13 ソニー株式会社 Surgical system, information processing apparatus, and information processing method
JP7155511B2 (en) 2017-11-17 2022-10-19 ソニーグループ株式会社 Surgery system, information processing device, and information processing method
US11587670B2 (en) 2017-11-17 2023-02-21 Sony Corporation Surgery system, information processing apparatus, and information processing method
US11974716B2 (en) 2017-12-14 2024-05-07 Olympus Corporation Operation supporting device and method of operating operation supporting device
WO2019155931A1 (en) * 2018-02-09 2019-08-15 ソニー株式会社 Surgical system, image processing device, and image processing method
WO2024033898A1 (en) * 2022-08-11 2024-02-15 Auris Health, Inc. User interfaces for navigating anatomical channels in medical procedures

Also Published As

Publication number Publication date
JP4152402B2 (en) 2008-09-17

Similar Documents

Publication Publication Date Title
JP4152402B2 (en) Surgery support device
US10835344B2 (en) Display of preoperative and intraoperative images
US10706610B2 (en) Method for displaying an object
EP3613547B1 (en) Synthetic representation of a surgical robot
JP7376569B2 (en) System and method for tracking the position of robotically operated surgical instruments
JP5249343B2 (en) Robot, medical workstation and method for projecting an image on the surface of an object
JP6083103B2 (en) Image complementation system for image occlusion area, image processing apparatus and program thereof
US11258964B2 (en) Synthesizing spatially-aware transitions between multiple camera viewpoints during minimally invasive surgery
KR20170127560A (en) System and method for rendering screen-based identification information of a device in a remotely operated medical system
US20210315637A1 (en) Robotically-assisted surgical system, robotically-assisted surgical method, and computer-readable medium
KR20170127561A (en) System and method for on-screen identification of instruments in a remotely operated medical system
CN111867438A (en) Surgical assistance device, surgical method, non-transitory computer-readable medium, and surgical assistance system
JP6112689B1 (en) Superimposed image display system
JP2006149560A (en) Nuclear magnetic resonance imaging apparatus
US20220215539A1 (en) Composite medical imaging systems and methods
JP5410021B2 (en) Medical diagnostic imaging equipment
KR20160013533A (en) Method and device for controlling/compensating movement of surgical robot
JP2007152027A (en) Endoscope visual field expanding system, endoscope visual field expanding device, and endoscope visual field expanding program
US11045075B2 (en) System and method for generating a three-dimensional model of a surgical site
JP2003079637A (en) Operation navigating system
US20230210627A1 (en) Three-dimensional instrument pose estimation
KR101662837B1 (en) Method and device for controlling/compensating movement of surgical robot
KR20140088849A (en) Method and device for controlling/compensating movement of surgical robot

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080701

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080701

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4152402

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110711

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120711

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120711

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130711

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees