JP2010200894A - Surgery support system and surgical robot system - Google Patents

Surgery support system and surgical robot system Download PDF

Info

Publication number
JP2010200894A
JP2010200894A JP2009048202A JP2009048202A JP2010200894A JP 2010200894 A JP2010200894 A JP 2010200894A JP 2009048202 A JP2009048202 A JP 2009048202A JP 2009048202 A JP2009048202 A JP 2009048202A JP 2010200894 A JP2010200894 A JP 2010200894A
Authority
JP
Japan
Prior art keywords
surgical
data
surgical instrument
reference position
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009048202A
Other languages
Japanese (ja)
Inventor
Tadashi Ukimura
理 浮村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2009048202A priority Critical patent/JP2010200894A/en
Publication of JP2010200894A publication Critical patent/JP2010200894A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology for calculating a current positional relation between an object part, such as a tumor of a surgical target, and a surgical instrument, or a predicted positional relation in the future. <P>SOLUTION: A surgery support system includes: a processor 1 composed of a computer; a display device 2 (display) connected to the processor; a position detector 3 for detecting positions of a variety of instruments in an operating room; and an embedded marker detection device 4 for detecting an embedded marker MM embedded in a human body. The processor includes: a storage part 11 for storing target data to be operated; an area coloring model generation part 12; an augmented reality image generation part 13; a position-posture data generation part 14 of an endoscope 5; a position-posture data generation part 15 of the surgical instruments (processing tools); a position-posture data generation part 16 of embedded markers; an surgery navigation data generation part 17; and a display control unit 18. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、手術支援システム及び手術ロボットシステムに関するものである。   The present invention relates to a surgery support system and a surgery robot system.

手術を支援するシステムとしては、例えば、非特許文献1記載の「拡張現実感(Augmented reality)イメージガイダンス」のためのシステムがある。   As a system that supports surgery, for example, there is a system for “Augmented reality image guidance” described in Non-Patent Document 1.

拡張現実感イメージガイダンスとは、手術対象を含む立体空間を撮影した「術中あるいは術前に獲得した二次元画像の集合データ(Volume data)」をデジタル情報としてコンピュータにすべて取り込み、そのデータを源に「対象臓器を中心に手術プランニングに役立つような」3次元画像をコンピュータで再構築し、その3次元モデル(computer graphics)を、通常の手術野を提供する内視鏡画面のディスプレイ(通常は2次元画像)に重ね合わせて重畳表示(superimpose)し、手術視野の向こうにある(実際には隠れて見ることのできない)3次元情報を術者に直接視覚的に提供するという特殊なコンピュータグラフィックス技術である。   Augmented Reality Image Guidance refers to “collecting 2D image data (volume data) acquired during or before surgery” taken as a digital information into a computer. A 3D image that is useful for surgical planning centered on the target organ is reconstructed on a computer, and its 3D model (computer graphics) is displayed on an endoscopic screen (usually 2 Special computer graphics that superimpose and overlay the 3D image to directly provide the surgeon with 3D information beyond the field of view (actually hidden and invisible) Technology.

そして、非特許文献1には手術プランニングに役立つ3次元モデルとして、術前にCT(Computed Tomography)によって取得した腎臓の3次元立体画像において、腫瘍領域を「赤色」、腫瘍辺縁0〜5ミリ領域を「黄色」、腫瘍辺縁5〜10ミリ領域を「緑色」、腫瘍辺縁10ミリ超領域を「青色」で示す、4領域4色のモデル(4領域4色識別手術プランニングモデル)が提案されている。   In Non-Patent Document 1, as a three-dimensional model useful for surgical planning, a three-dimensional three-dimensional image of a kidney acquired by CT (Computed Tomography) preoperatively has a tumor area of “red” and a tumor margin of 0 to 5 mm. A four-region, four-color model (four-region, four-color identification surgery planning model) is shown in which the region is “yellow”, the tumor margin is 5-10 mm in “green”, and the tumor margin is more than 10 mm in “blue”. Proposed.

非特許文献1の4領域4色識別手術プランニングモデルを、実際の内視鏡ビデオ画面に重畳表示(superimpose)して術者に提示すると、術者は、リアルタイムに術野の向こうの(実際には隠れてみることのできない)腫瘍等の存在を認識することができる。   When the 4 area 4 color discriminating surgery planning model of Non-Patent Document 1 is superimposed on the actual endoscopic video screen and presented to the surgeon, the surgeon is in real-time beyond the operative field (actually Can recognize the presence of tumors.

浮村理 他,“低侵襲手術の正確さ・安全性・スピードの改善のためのComputer-aided Image Guidance”,泌尿器外科,Vol.21 No11,pp1481−P1487,医学図書出版株式会社,2008年Osamu Ukimura et al., “Computer-aided Image Guidance for Improving Accuracy, Safety and Speed of Minimally Invasive Surgery”, Urological Surgery, Vol. 21 No11, pp1481-P1487, Medical Books Publishing Co., Ltd., 2008

本発明は、手術の対象となる腫瘍などの対象部位と、手術器具との現在の位置関係、又は予測される将来の位置関係を算出するための技術を提供することを目的とする。
また、本発明の他の目的は、前記位置関係を、術者に分かり易く提示するための技術を提供することである。
本発明の更に他の目的は、術中の対象部位の移動/変形に対応させることである。
本発明の更に他の目的は、前記位置関係を、ロボット手術の制御に適用することである。
An object of the present invention is to provide a technique for calculating a current positional relationship between a target site such as a tumor to be a surgical target and a surgical instrument or a predicted future positional relationship.
Another object of the present invention is to provide a technique for presenting the positional relationship to an operator in an easily understandable manner.
Yet another object of the present invention is to accommodate movement / deformation of the target site during surgery.
Still another object of the present invention is to apply the positional relationship to control of robotic surgery.

本発明は、手術の対象部位を示す3次元モデルのイメージデータを含むターゲットデータを記憶するための記憶部と、手術器具における特定の基準位置及び/又は手術器具周囲における特定の基準位置が、手術空間において位置する空間座標を、検出する基準位置検出部と、術中の前記対象部位が、前記手術空間において位置する空間座標を、検出する対象部位検出部と、前記ターゲットデータが示す前記3次元モデルが、前記手術空間において位置すべき空間座標を、前記対象部位検出部によって検出された前記対象部位の前記空間座標に基づいて算出する算出部と、前記ターゲットデータが示す前記3次元モデル及びその周囲を前記3次元モデルからの距離に応じて区分けした複数の領域のうち、前記基準位置が位置する領域を示すナビゲーションデータを生成するデータ生成部と、を備えていることを特徴とする手術支援システムである。   According to the present invention, a storage unit for storing target data including image data of a three-dimensional model indicating a target site for surgery, a specific reference position in the surgical instrument, and / or a specific reference position around the surgical instrument, A reference position detector for detecting spatial coordinates located in the space; a target part detector for detecting spatial coordinates where the target part during surgery is located in the surgical space; and the three-dimensional model indicated by the target data Calculating a spatial coordinate to be positioned in the surgical space based on the spatial coordinates of the target part detected by the target part detection part, the three-dimensional model indicated by the target data and the surroundings thereof Of a plurality of regions divided according to the distance from the three-dimensional model, indicating a region where the reference position is located It is surgery supporting system according to claim which includes a data generation unit for generating Activation data.

前記ナビゲーションデータを画面表示させる表示手段を備え、前記表示手段は、前記ターゲットデータが示す前記3次元モデル及びその周囲を前記3次元モデルからの距離に応じて区分けした複数の領域のうち、前記基準位置が位置する領域を、前記複数の領域それぞれに設定された色で示すための画面を表示させるのが好ましい。   Display means for displaying the navigation data on the screen, and the display means includes the reference data among the three-dimensional model indicated by the target data and a plurality of regions obtained by dividing the surrounding area according to the distance from the three-dimensional model. It is preferable to display a screen for indicating a region where the position is located by a color set in each of the plurality of regions.

前記基準位置検出部によって前記空間座標の検出対象となる前記基準位置には、前記手術器具の前記姿勢及び/又は前記移動方向に基づいて予測される、前記手術器具の予測位置が含まれるのが好ましい。   The reference position that is the target of detection of the spatial coordinates by the reference position detection unit includes a predicted position of the surgical instrument that is predicted based on the posture and / or the moving direction of the surgical instrument. preferable.

前記基準位置には、前記手術器具から延びる仮想的な直線上に含まれる複数の点が含まれるのが好ましい。   It is preferable that the reference position includes a plurality of points included on a virtual straight line extending from the surgical instrument.

前記仮想的な直線は、長尺状の前記手術器具の長手軸方向に一致する直線であるのが好ましい。   The virtual straight line is preferably a straight line that coincides with the longitudinal direction of the elongated surgical instrument.

前記基準位置には、前記手術器具の周囲に設定された仮想的な球の表面上の位置が含まれるのが好ましい。   The reference position preferably includes a position on the surface of a virtual sphere set around the surgical instrument.

前記基準位置には、前記手術器具の周囲に設定された仮想的な半球の表面の位置が含まれる位置が含まれ、前記仮想的な半球は、その半球の天頂を、前記手術器具の先端から延びる仮想的な直線が通過するものであるのが好ましい。   The reference position includes a position including the position of the surface of a virtual hemisphere set around the surgical instrument, and the virtual hemisphere includes the zenith of the hemisphere from the tip of the surgical instrument. It is preferable that the extending virtual straight line passes.

前記対象部位又はその周囲に埋め込まれた複数のマーカによって、術中の前記対象部位の移動及び/又は変形を検出し、検出された前記対象部位の移動及び/又は変形に応じて、前記3次元モデルの座標を移動させる処理、及び/又は、前記3次元モデルを変形させる処理を行う手段を備えているのが好ましい。   The movement and / or deformation of the target part during operation is detected by a plurality of markers embedded in or around the target part, and the three-dimensional model is determined according to the detected movement and / or deformation of the target part. It is preferable to include means for performing a process of moving the coordinates of and / or a process of deforming the three-dimensional model.

他の観点からみた本発明は、前記手術器具の移動を駆動制御する制御部と、前記手術支援システムと、を備えた手術ロボットシステムであって、前記制御部は、前記手術支援システムによって生成されたナビゲーションデータを、取得し、取得したナビゲーションデータに基づいて、前記手術器具の移動を駆動制御することを特徴とする手術ロボットシステムである。   Another aspect of the present invention is a surgical robot system including a control unit that drives and controls movement of the surgical instrument and the surgery support system, and the control unit is generated by the surgery support system. The navigation robot system is characterized in that the navigation data is acquired and the movement of the surgical instrument is driven and controlled based on the acquired navigation data.

本発明によれば、手術の対象となる腫瘍などの対象部位と、手術器具との現在の位置関係、又は予測される将来の位置関係が算出される。   According to the present invention, a current positional relationship between a target site such as a tumor to be a surgical target and a surgical instrument or a predicted future positional relationship is calculated.

手術支援システムの全体構成を示す図である。It is a figure which shows the whole structure of a surgery assistance system. 処理装置の機能ブロック図である。It is a functional block diagram of a processing apparatus. ターゲットデータTが示す3次元モデル(臓器及び腫瘍)のイメージ図である。It is an image figure of the three-dimensional model (organ and tumor) which the target data T shows. 領域色分けモデルのイメージ図である。It is an image figure of an area | region color classification model. 手術ナビゲーションデータ生成部の機能ブロック図である。It is a functional block diagram of a surgery navigation data generation part. サージカルシグナルデータ&サージカルレーダデータ生成部の機能ブロック図である。It is a functional block diagram of a surgical signal data & surgical radar data generation unit. 基準位置を示す図である。It is a figure which shows a reference position. 対象部位内外の複数の領域を示す図である。It is a figure which shows the some area | region inside and outside an object site | part. 基準位置と複数の領域の関係を示す図である。It is a figure which shows the relationship between a reference | standard position and several area | regions. サージカルシグナルデータを示す図である。It is a figure which shows surgical signal data. サージカルシグナルデータの表示画面を示す図である。It is a figure which shows the display screen of surgical signal data. 基準位置となる半球表面上の点を示す図である。It is a figure which shows the point on the hemispherical surface used as a reference position. yz平面上の投影点qを示す図である。It is a figure which shows the projection point q on yz plane. 半球と複数の領域の関係とを示す図である。It is a figure which shows the relationship between a hemisphere and several area | regions. サージカルレーダデータの表示画面を示す図である。It is a figure which shows the display screen of surgical radar data. 手術ロボットシステムの構成図である。It is a block diagram of a surgical robot system.

以下、本発明の好ましい実施形態について添付図面を参照しながら説明する。
なお、以下の説明では、内視鏡手術を例として説明するが、本システムが支援の対象とする手術法が内視鏡手術に限定されるものではない。
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
In the following description, endoscopic surgery will be described as an example, but the surgical method supported by this system is not limited to endoscopic surgery.

[1.手術支援システムの全体構成]
図1に示すように、本実施形態に係る手術支援システムは、コンピュータからなる処理装置1、処理装置1に接続された表示装置(ディスプレイ)2、手術室内の様々な器具の位置を検出する位置検出器3、及び、人体に埋め込まれた埋込マーカMMを検出する埋込マーカ検出装置4を備えている。
[1. Overall configuration of surgery support system]
As shown in FIG. 1, the surgery support system according to the present embodiment includes a processing device 1 composed of a computer, a display device (display) 2 connected to the processing device 1, and positions for detecting the positions of various instruments in the operating room. A detector 3 and an embedded marker detection device 4 for detecting an embedded marker MM embedded in a human body are provided.

前記処理装置1には、前記位置検出用器3、埋込マーカ検出装置4、及び内視鏡5が接続されており、前記位置検出用カメラ3、埋込マーカ検出装置4、及び内視鏡5から取得したデータに基づいて、手術支援のためのナビゲーションデータを生成する処理を行う。なお、処理装置1の機能の詳細については後述する。
前記表示装置(ディスプレイ装置)2は、前記処理装置によって生成されたナビゲーションデータ等を画面表示することで、ナビゲーションデータ等を術者(医師)に提示する。
The processing device 1 is connected to the position detecting device 3, the embedded marker detecting device 4, and the endoscope 5, and the position detecting camera 3, the embedded marker detecting device 4, and the endoscope Based on the data acquired from 5, the process which produces | generates the navigation data for surgery assistance is performed. Details of the function of the processing apparatus 1 will be described later.
The display device (display device) 2 displays navigation data and the like generated by the processing device on a screen, thereby presenting navigation data and the like to an operator (doctor).

前記位置検出器3は、位置を検出する対象物に取り付けられた光学マーカOM1,OM2,OM3を検出するカメラ(赤外線カメラ)によって構成されている。本実施形態では、光学マーカは、埋込マーカ検出装置4に取り付けられたものOM1と、内視鏡5に取り付けられたものOM2と、手術器具6に取り付けられたものOM3と、がある。ここでの手術器具6とは、切除などの手術のための処置を行う処置具であり、例えば、メスや鉗子などである。   The position detector 3 is configured by a camera (infrared camera) that detects optical markers OM1, OM2, and OM3 attached to an object whose position is to be detected. In the present embodiment, the optical markers include OM1 attached to the implantable marker detection device 4, OM2 attached to the endoscope 5, and OM3 attached to the surgical instrument 6. The surgical instrument 6 here is a treatment instrument that performs a procedure for surgery such as excision, and is, for example, a scalpel or forceps.

各光学マーカOM1,OM2,OM3は、それぞれ、位置検出対象物の位置及び姿勢を検出できるように、LEDなどの発光体を一つの位置検出対象物について複数(3個又はそれ以上)取り付けて構成されている。なお、光学マーカは、光を発生する能動的なもの以外に、光を反射する受動的なものであってもよい。   Each optical marker OM1, OM2, OM3 is configured by attaching a plurality of (three or more) light emitters such as LEDs for one position detection object so that the position and orientation of the position detection object can be detected. Has been. The optical marker may be a passive one that reflects light in addition to an active one that generates light.

各光学マーカOM1,OM2,OM3がそれぞれ有する複数の発光体の光(若しくは反射光)は、カメラからなる前記位置検出器3によって取得される。
位置検出器3によって取得された撮影画像は、処理装置1によって画像処理され、処理装置1において、位置検出対象物4,5,6それぞれの位置及び姿勢を示すデータ(位置・姿勢データ)が生成される。位置検出対象物の位置は、手術支援システムが配置された手術室の空間(手術空間)での空間座標(3次元座標)で表現される。
なお、位置検出対象物4,5,6の位置・姿勢の検出は、光学方式に限られるものではなく、磁気方式など他の方式であってもよい。
The light (or reflected light) of a plurality of light emitters that each of the optical markers OM1, OM2, and OM3 has is acquired by the position detector 3 that includes a camera.
The captured image acquired by the position detector 3 is subjected to image processing by the processing device 1, and the processing device 1 generates data (position / posture data) indicating the position and orientation of each of the position detection objects 4, 5, and 6. Is done. The position of the position detection object is expressed by space coordinates (three-dimensional coordinates) in the space (operating space) of the operating room where the operation support system is arranged.
The detection of the position / posture of the position detection objects 4, 5, 6 is not limited to the optical method, and may be another method such as a magnetic method.

前記埋込マーカ検出装置4は、体内(特に、手術の対象となる臓器)に埋め込まれた複数の埋込マーカMM,MMの位置を検出するためのものである。このような埋込マーカ検出装置4としては、カリプソ・メディカル・テクノロジーズ社のカリプソ・4Dローカリゼーション・システム(商標)を利用できる。このような埋込マーカ検出装置4は、磁場を発生する磁場発生装置4aと、磁場を検出するセンサ部4bとを備えている。   The implantable marker detection device 4 is for detecting the positions of a plurality of implantable markers MM, MM embedded in the body (particularly, an organ to be operated). As such an embedded marker detection device 4, a Calypso 4D localization system (trademark) of Calypso Medical Technologies can be used. Such an embedded marker detection device 4 includes a magnetic field generation device 4a that generates a magnetic field and a sensor unit 4b that detects the magnetic field.

埋込マーカMMとしては、上記カリプソ・4Dローカリゼーション・システムにおいて用いられるビーコン・エレクトロマグネティック・トランスポンダとよばれる数mm程度の大きさの無線マーカを利用できる。この無線マーカ(埋込マーカMM)は、コイル及び必要な回路を有しており、磁場発生装置4aの磁場によって、無線マーカ(埋込マーカMM)の位置及び姿勢を特定するための応答信号として磁気信号が励起される。   As the embedded marker MM, a wireless marker having a size of about several millimeters called a beacon electromagnetic transponder used in the calypso 4D localization system can be used. This wireless marker (embedded marker MM) has a coil and necessary circuits, and as a response signal for specifying the position and orientation of the wireless marker (embedded marker MM) by the magnetic field of the magnetic field generator 4a. A magnetic signal is excited.

センサ部4bは、複数の埋込マーカMMそれぞれの前記応答信号を検出し、検出された応答信号は、処理装置1に与えられる。処理装置1は、検出された応答信号に基づいて、各埋込マーカMMの位置及び姿勢を示すデータ(位置・姿勢データ)を生成する。   The sensor unit 4 b detects the response signal of each of the plurality of embedded markers MM, and the detected response signal is given to the processing device 1. The processing device 1 generates data (position / posture data) indicating the position and posture of each embedded marker MM based on the detected response signal.

なお、埋込マーカ検出装置4によって検出される埋込マーカMMの位置・姿勢は、埋込マーカ検出装置4の位置からみた相対的なものである。
ただし、埋込マーカ検出装置4には、前記光学マーカOM1が設けられているため、埋込マーカ検出装置4によって検出された埋込マーカMMの位置・姿勢は、処理装置1において、手術支援システムが配置された手術室の空間(手術空間)での位置・姿勢に変換される。
The position / posture of the embedded marker MM detected by the embedded marker detection device 4 is relative to the position of the embedded marker detection device 4.
However, since the optical marker OM1 is provided in the implantable marker detection device 4, the position / posture of the implantable marker MM detected by the implantable marker detection device 4 is determined by the operation support system in the processing device 1. Is converted into a position / posture in the space (operating space) of the operating room in which is placed.

この埋込マーカ検出装置4は、手術の対象部位を含む臓器の位置、変形を検出するためのものであるが、手術の対象部位を含む臓器の位置、変形を検出するための手段は、このような埋込マーカ検出装置4に限られるものではなく、例えば、レーザ光を臓器に照射してその反射光から臓器の位置・変形などを検出するものであってもよい。   The implantable marker detection device 4 is for detecting the position and deformation of the organ including the target site for surgery. The means for detecting the position and deformation of the organ including the target site for surgery is provided by this means. However, the present invention is not limited to such an embedded marker detection device 4. For example, it may be one that irradiates an organ with laser light and detects the position / deformation of the organ from the reflected light.

[2.処理装置1の構成]
図2は、処理装置1の機能を示している。処理装置1は、CPU及び記憶装置などを有するコンピュータによって構成されている。処理装置1を構成するコンピュータには、当該コンピュータ1に図2に示す処理装置1としての機能を実現するためのコンピュータプログラムがインストールされている。以下に説明する処理装置1の各機能部は、すべて、当該コンピュータプログラムがコンピュータによって実行されることで発揮されるものである。
[2. Configuration of Processing Device 1]
FIG. 2 shows functions of the processing apparatus 1. The processing device 1 is configured by a computer having a CPU and a storage device. A computer program for realizing the functions of the processing device 1 shown in FIG. 2 is installed in the computer constituting the processing device 1. All the functional units of the processing device 1 described below are exhibited when the computer program is executed by a computer.

処理装置1は、ターゲットデータを記憶するための記憶部11、領域色分けモデル生成部12、拡張現実感イメージ生成部13、内視鏡5の位置・姿勢データ生成部14、手術器具(処置具)6の位置・姿勢データ生成部15、埋込マーカの位置・姿勢データ生成部16、手術ナビゲーションデータ生成部17、及び表示制御部18を備えている。   The processing device 1 includes a storage unit 11 for storing target data, an area color classification model generation unit 12, an augmented reality image generation unit 13, a position / posture data generation unit 14 of an endoscope 5, a surgical instrument (treatment tool). 6, a position / posture data generation unit 15, a position / posture data generation unit 16 for an implantable marker, a surgical navigation data generation unit 17, and a display control unit 18.

前記ターゲットデータTは、手術の対象部位(腫瘍など)を含む特定の臓器(腎臓など)の全体形状等を示す3次元モデルの3次元イメージデータ(3次元ボリュームデータ)として構成されている。図3に示すターゲットデータTは、臓器の全体形状を示す3次元モデルのイメージデータT1と、切除の対象となる腫瘍(対象部位)が存在する腫瘍領域(対象部位領域)の、臓器全体からみた位置及び形状を特定する3次元モデルのイメージデータT2とを有している。   The target data T is configured as three-dimensional image data (three-dimensional volume data) of a three-dimensional model indicating the overall shape and the like of a specific organ (such as a kidney) including an operation target site (such as a tumor). The target data T shown in FIG. 3 is a three-dimensional model image data T1 indicating the entire shape of the organ, and a tumor region (target region) where a tumor (target region) to be excised is seen from the whole organ. 3D model image data T2 for specifying the position and shape.

このターゲットデータTは、術前に撮影されたCTイメージデータに基づいて生成される。ターゲットデータTの生成には、術前に撮影されたCTイメージデータから自動生成するためのシステムを構築・利用してもよいが、コンピュータ支援により人手で行っても良い。   This target data T is generated based on CT image data taken before surgery. The target data T can be generated by constructing and using a system for automatically generating CT image data taken before surgery, or by computer assistance.

ターゲットデータT生成のためには、まず、術前に、手術の対象部位を含む特定の臓器内又はその周辺に、前記埋込マーカMMを、複数個、埋め込んでおく。臓器の位置だけを検出する場合、埋め込まれるマーカMMの数は、3個乃至4個程度でもよいが、さらに臓器の変形を検出するには、より多い(例えば、30個程度)のが好ましい。   In order to generate the target data T, first, before the operation, a plurality of the embedded markers MM are embedded in or around a specific organ including the target site for the operation. When detecting only the position of an organ, the number of markers MM to be embedded may be about 3 to 4, but it is preferable that the number of markers MM is larger (for example, about 30) in order to detect the deformation of the organ.

次に、体内に埋込マーカMMが埋め込まれた患者のCTイメージデータを取得する。そして、そのCTイメージデータから、手術の対象部位を含む臓器を特定し、その臓器の形状を示す3次元モデルの3次元イメージデータT1を生成する。また、CTイメージデータから、その臓器における腫瘍の位置及び形状を特定し、その腫瘍の位置及び形状を特定する3次元モデルの3次元イメージデータT2を生成する。   Next, CT image data of the patient in which the implantation marker MM is implanted in the body is acquired. Then, from the CT image data, an organ including an operation target site is specified, and three-dimensional image data T1 of a three-dimensional model indicating the shape of the organ is generated. In addition, the position and shape of the tumor in the organ are specified from the CT image data, and three-dimensional image data T2 of a three-dimensional model for specifying the position and shape of the tumor is generated.

さらに、前記CTイメージに存在する埋込マーカMMの像から、3次元イメージデータT1(及び3次元イメージデータT2)における各埋込マーカMMの位置・姿勢を特定し、3次元イメージデータT1(及び3次元イメージデータT2)における埋込マーカMMの位置・姿勢データT3を、前記ターゲットデータに含める。
なお、臓器の形状を示す3次元イメージデータT1中に、埋込マーカMMの像が含まれている場合、その埋込マーカMMの像が埋込マーカMMの位置・姿勢を示すため、埋込マーカMMの位置・姿勢を示すデータT3を、3次元イメージデータT1と別に生成していなくてもよい。
Further, the position and orientation of each embedded marker MM in the three-dimensional image data T1 (and three-dimensional image data T2) is specified from the image of the embedded marker MM present in the CT image, and the three-dimensional image data T1 (and The position / posture data T3 of the embedded marker MM in the three-dimensional image data T2) is included in the target data.
Note that when the image of the embedded marker MM is included in the three-dimensional image data T1 indicating the shape of the organ, the image of the embedded marker MM indicates the position / posture of the embedded marker MM. Data T3 indicating the position / posture of the marker MM may not be generated separately from the three-dimensional image data T1.

以上のようにして生成されたターゲットデータTは、術前に、処理装置1のターゲットデータ記憶部11に記憶される。
なお、ターゲットデータTの元となるイメージは、CTイメージに限られるものではなく、MRI(Magnetic Resonance Imaging)、FMRI(Functional MRI)、PET(Positron Emission Tomography)、超音波断層法、シンチグラムなどによって得られたイメージであってもよい。
The target data T generated as described above is stored in the target data storage unit 11 of the processing apparatus 1 before the operation.
The image that is the source of the target data T is not limited to a CT image, but by MRI (Magnetic Resonance Imaging), FMRI (Functional MRI), PET (Positron Emission Tomography), ultrasonic tomography, scintigram, etc. The obtained image may be used.

前記領域色分けモデル生成部12は、ターゲットデータ記憶部11の前記ターゲットデータTから、図4に示す、領域色分けモデル(4領域4色識別手術ブランニングモデル)を生成する。図4に示す領域色分けモデルは、ターゲットデータTの3次元イメージデータT2が示す腫瘍領域を「赤色」、腫瘍辺縁0〜5ミリ領域を「黄色」、腫瘍辺縁5〜10ミリ領域を「緑色」、腫瘍辺縁10ミリ超領域を「青色」で示した3次元モデルである。   The area color classification model generation unit 12 generates an area color classification model (4 area 4 color identification surgery planning model) shown in FIG. 4 from the target data T in the target data storage unit 11. The region color coding model shown in FIG. 4 indicates that the tumor region indicated by the three-dimensional image data T2 of the target data T is “red”, the tumor margin 0-5 mm region is “yellow”, and the tumor margin 5-10 mm region is “ It is a three-dimensional model in which “green” and a tumor margin region of more than 10 mm are indicated by “blue”.

この領域色分けモデルを生成するには、ターゲットデータTの臓器全体形状を示す3次元イメージデータT1において、腫瘍を示す3次元イメージデータT2の部分を「赤色」に色彩設定し、3次元イメージデータT2が示す腫瘍表面から5ミリまでの範囲を「黄色」に色彩設定し、3次元イメージデータT2が示す腫瘍表面から5〜10ミリまでの範囲を「緑色」に色彩設定し、3次元イメージデータT2が示す腫瘍表面から10ミリ超の範囲を「青色」に色彩設定すればよい。   In order to generate this region color coding model, in the three-dimensional image data T1 indicating the whole organ shape of the target data T, the portion of the three-dimensional image data T2 indicating the tumor is set to “red”, and the three-dimensional image data T2 is set. The range from 5 mm to 5 mm from the tumor surface indicated by is set to “yellow”, and the range from 5 to 10 mm from the tumor surface indicated by the 3D image data T2 is set to “green”, and the 3D image data T2 is set. The range of more than 10 mm from the tumor surface indicated by may be set to “blue”.

なお、本実施形態においては、処理装置1が、ターゲットデータ記憶部11に記憶されたターゲットデータTから領域色分けモデルを生成するように構成されているが、拡張現実感イメージの表示のためには、前記領域色分けモデルは、術前に生成されたものが、処理装置の記憶部に予め記憶されていてもよい。   In the present embodiment, the processing device 1 is configured to generate a region color coding model from the target data T stored in the target data storage unit 11, but for displaying an augmented reality image. The region color classification model generated before the operation may be stored in advance in the storage unit of the processing device.

前記拡張現実感イメージ生成部13は、図4に示す領域色分けモデルと、内視鏡5にて撮影された映像とを重畳(スーパインポーズ)して、表示装置2に表示させるための拡張現実感イメージを生成する。
術者は、「緑色」の範囲内で、切除を進めれば、十分なガン陰性切除断領域(黄色の領域)腫瘍側につけて、かつ最大限の(青色領域)の腎機能温存を果たすことができる。
なお、拡張現実感イメージは、後述の手術ナビゲーションデータ(サージカルシグナルデータSD及びサージカルレーダデータRD)と一緒に、表示装置2に表示される。
The augmented reality image generation unit 13 superimposes (superimposes) the region color coding model shown in FIG. 4 and the video imaged by the endoscope 5 and displays the augmented reality on the display device 2. Generate a feeling image.
If the surgeon advances the excision within the "green" range, it should be attached to the tumor side with sufficient cancer-negative excision area (yellow area) and preserve the maximum renal function (blue area). Can do.
The augmented reality image is displayed on the display device 2 together with later-described surgical navigation data (surgical signal data SD and surgical radar data RD).

前記内視鏡5の位置・姿勢データ生成部14及び手術器具6の位置・姿勢データ生成部15は、位置検出器3(カメラ)で取得した画像に基づいて、位置検出対象物5,6である内視鏡5及び手術器具6の位置及び姿勢を示すデータ(位置・姿勢データ)を生成する。この位置・姿勢データは、手術支援システムが配置された手術室の空間(手術空間)における座標系の位置・姿勢として表現される。   The position / posture data generation unit 14 of the endoscope 5 and the position / posture data generation unit 15 of the surgical instrument 6 are detected by the position detection objects 5 and 6 based on the images acquired by the position detector 3 (camera). Data (position / posture data) indicating the position and posture of a certain endoscope 5 and surgical instrument 6 is generated. This position / posture data is expressed as the position / posture of the coordinate system in the space (surgical space) of the operating room in which the surgery support system is arranged.

また、埋込マーカMMの位置・姿勢データ生成部16は、埋込マーカ検出装置4によって検出された複数の埋込マーカMMそれぞれの位置・姿勢データと、位置検出器3によって検出された当該埋込マーカ検出装置4の位置・姿勢データとに基づいて、手術室の空間(手術空間)における座標系での、複数の埋込マーカMMそれぞれの位置・姿勢データを生成する。
これにより、複数の埋込マーカMMそれぞれの位置・姿勢は、内視鏡5及び手術器具6の位置・姿勢データの座標系と同じ座標系で表されることになる。
In addition, the position / posture data generation unit 16 of the embedded marker MM includes the position / posture data of each of the plurality of embedded markers MM detected by the embedded marker detection device 4 and the embedded marker detected by the position detector 3. Based on the position / posture data of the embedded marker detection device 4, position / posture data of each of the plurality of embedded markers MM in the coordinate system in the operating room space (surgical space) is generated.
As a result, the position / posture of each of the plurality of implantable markers MM are represented in the same coordinate system as the coordinate system of the position / posture data of the endoscope 5 and the surgical instrument 6.

ここで、埋込マーカMMの位置・姿勢データは、埋込マーカMMが埋め込まれた部位又はその近傍の位置・形状を示しているため、埋込マーカMMの位置・姿勢データは、対象部位(腫瘍)は、手術室の空間(手術空間)における座標系での、位置・形状を示していることになる。
つまり、埋込マーカMMの位置・姿勢データ生成部16は、術中の対象部位が、手術空間において位置する空間座標を検出する対処部位検出部として機能する。
Here, since the position / posture data of the embedded marker MM indicates the position / shape of the embedded marker MM or its vicinity, the position / posture data of the embedded marker MM is the target part ( Tumor) indicates the position and shape in the coordinate system in the operating room space (surgical space).
That is, the position / posture data generation unit 16 of the embedded marker MM functions as a coping site detection unit that detects spatial coordinates where the target site during surgery is positioned in the surgical space.

各データ生成部14,15,16にて生成された位置・姿勢データは、前記手術ナビゲーションデータ生成部17に与えられる。
前記手術ナビゲーションデータ生成部17は、ターゲットデータ記憶部11に記憶されたターゲットデータTと、各位置・姿勢データとに基づいて、手術器具6とターゲットデータが示す手術の対象部位(腫瘍)との位置関係を示すナビゲーションデータを生成する。本実施形態では、前記ナビゲーションデータとして、サージカルシグナルデータSD及びサージカルレーダデータRDが生成される。
The position / posture data generated by the data generators 14, 15, 16 is given to the surgical navigation data generator 17.
Based on the target data T stored in the target data storage unit 11 and each position / posture data, the surgical navigation data generation unit 17 determines the surgical instrument 6 and the surgical target site (tumor) indicated by the target data. Navigation data indicating the positional relationship is generated. In the present embodiment, surgical signal data SD and surgical radar data RD are generated as the navigation data.

[3.手術ナビゲーションデータの生成]
前記手術ナビゲーションデータ生成部17は、図5に示すように、ターゲットデータTの移動/変形処理部21、及びサージカルシグナルデータ&サージカルレーダデータ生成部22を備えている。
[3. Generation of surgical navigation data]
As shown in FIG. 5, the surgical navigation data generation unit 17 includes a movement / deformation processing unit 21 for target data T, and a surgical signal data & surgical radar data generation unit 22.

ターゲットデータ移動/変形処理部21は、ターゲットデータ記憶部11及び埋込マーカの位置・姿勢データ生成部16から、ターゲットデータT及び複数の埋込マーカMMの位置・姿勢データに基づいて、術中の臓器(手術対象の生体器官)の位置/形状に対応したターゲットデータ(以下、修正ターゲットデータという)を生成する。   The target data movement / deformation processing unit 21 performs intraoperative based on the target data T and the position / posture data of the plurality of embedded markers MM from the target data storage unit 11 and the position / posture data generation unit 16 of the embedded marker. Target data (hereinafter referred to as corrected target data) corresponding to the position / shape of an organ (a living organ to be operated) is generated.

修正ターゲットデータは、ターゲットデータTにおける複数の埋込マーカMMの位置・姿勢が、埋込マーカの位置・姿勢データ生成部16によって生成された複数の埋込マーカMMの位置・姿勢データが示す位置・姿勢に一致するように、ターゲットデータTが示す臓器の3次元イメージデータT1が前記手術室における空間座標において位置すべき空間座標及び形状を算出することで得られる。   In the corrected target data, the positions / postures of the plurality of embedded markers MM in the target data T are the positions indicated by the position / posture data of the plurality of embedded markers MM generated by the position / posture data generation unit 16 of the embedded marker. The three-dimensional image data T1 of the organ indicated by the target data T is obtained by calculating the spatial coordinates and shape to be located in the spatial coordinates in the operating room so as to match the posture.

より具体的には、移動/変形処理部21は、ターゲットデータTにおける複数の埋込マーカMMの位置・姿勢と、埋込マーカの位置・姿勢データ生成部16によって生成された複数の埋込マーカMMの位置・姿勢データが示す位置・姿勢と、の誤差が、各埋込マーカMMについて最小となるように、ターゲットデータTの3次元イメージデータT1が示す臓器が空間座標系において位置すべき座標を算出し、必要に応じて3次元イメージデータT1が示す臓器の形状を変形させる。
なお、前記誤差を最小化するアルゴリズムとしては、最小二乗法などの公知のアルゴリズムを最小することができる。
More specifically, the movement / deformation processing unit 21 includes the positions / postures of the plurality of embedded markers MM in the target data T and the plurality of embedded markers generated by the position / posture data generation unit 16 of the embedded marker. The coordinates at which the organ indicated by the three-dimensional image data T1 of the target data T should be positioned in the spatial coordinate system so that the error between the position and orientation indicated by the position and orientation data of the MM is minimized for each embedded marker MM. And the shape of the organ indicated by the three-dimensional image data T1 is deformed as necessary.
As an algorithm for minimizing the error, a known algorithm such as a least square method can be minimized.

また、対象となる臓器が、移動・変形しないものである場合には、移動/変形処理部21における臓器の移動/変形処理は省略することが可能である。また、移動/変形処理部21では、ターゲットデータTにおける3次元イメージデータT2が示す3次元モデル(腫瘍)の空間座標系における位置だけを算出して、臓器等の変形処理については省略してもよい。
このように、移動/変形処理部21は、ターゲットデータTが示す3次元モデル(腫瘍)が、手術空間において位置すべき空間座標算出する算出部として機能すれば足りる。
When the target organ does not move / deform, the movement / deformation processing of the organ in the movement / deformation processing unit 21 can be omitted. Further, the movement / deformation processing unit 21 calculates only the position in the spatial coordinate system of the three-dimensional model (tumor) indicated by the three-dimensional image data T2 in the target data T, and may omit the deformation processing of the organ or the like. Good.
Thus, it is sufficient for the movement / deformation processing unit 21 to function as a calculation unit that calculates the spatial coordinates at which the three-dimensional model (tumor) indicated by the target data T should be located in the surgical space.

ここで、臓器を示す3次元イメージデータT1と、腫瘍を示す3次元イメージデータT2との位置・形状は対応付けられているため、処理部21は、3次元イメージデータT1が示す臓器の位置/形状を算出すると、対応するデータT2が示す腫瘍の位置/形状も併せて算出されることになる。   Here, since the position and shape of the 3D image data T1 indicating the organ and the 3D image data T2 indicating the tumor are associated with each other, the processing unit 21 determines the position / organ of the organ indicated by the 3D image data T1. When the shape is calculated, the position / shape of the tumor indicated by the corresponding data T2 is also calculated.

以上により、ターゲットデータTが示す臓器及び腫瘍(手術の対象部位)の、手術空間での術中のリアルタイムでの位置・形状を示す修正ターゲットデータが求まる。
この修正ターゲットデータは、サージカルシグナルデータ&サージカルレーダデータ生成部22に与えられる。
As described above, the corrected target data indicating the position and shape of the organ and tumor (the target site for surgery) indicated by the target data T in the surgical space in real time during surgery is obtained.
The corrected target data is given to the surgical signal data & surgical radar data generation unit 22.

サージカルシグナルデータ&サージカルレーダデータ生成部22は、修正ターゲットデータ及び、手術器具6の位置・姿勢データ生成部15によって生成された手術器具6の位置・生成データに基づいて、サージカルシグナルデータSD及びサージカルレーダデータRDを生成する。   The surgical signal data & surgical radar data generation unit 22 is based on the corrected target data and the position / generation data of the surgical instrument 6 generated by the position / posture data generation unit 15 of the surgical instrument 6. Radar data RD is generated.

[3.1 主基準位置と単位ベクトルの算出]
サージカルシグナルデータ&サージカルレーダデータ生成部(以下、単に「データ生成部」という」)22は、図6に示すように、手術器具6の先端ポイントp0を主基準位置として算出するための3次元座標算出部(基準位置検出部)24を備えている。
この3次元座標算出部24は、手術器具6の位置・姿勢データから、特定の主基準位置を算出するためのものであり、主基準位置としては、図7に示すように手術器具6の先端ポイントp0とするほか、手術器具6上のその他の位置又は手術器具6の周囲の位置でもよいが、手術器具6が、切開等のために手術の対象部位に作用する位置又はその近傍であるのが好ましい。
[3.1 Calculation of main reference position and unit vector]
As shown in FIG. 6, the surgical signal data & surgical radar data generation unit (hereinafter simply referred to as “data generation unit”) 22 is a three-dimensional unit for calculating the distal point p 0 of the surgical instrument 6 as the main reference position. A coordinate calculation unit (reference position detection unit) 24 is provided.
The three-dimensional coordinate calculation unit 24 is for calculating a specific main reference position from the position / posture data of the surgical instrument 6, and the main reference position is the tip of the surgical instrument 6 as shown in FIG. In addition to the point p 0 , another position on the surgical instrument 6 or a position around the surgical instrument 6 may be used, but the surgical instrument 6 is at or near the position where the surgical instrument 6 acts on the target site for surgery for incision or the like. Is preferred.

データ生成部22には、手術器具6において光学マーカOM3が設けられている位置と、主基準位置p0との位置関係を示す情報が予め設定されており、算出部24では、手術器具6の(光学マーカOM3における)位置・姿勢データと、予め設定された位置関係情報に基づいて、主基準位置(先端ポイント)p0の、手術空間における3次元座標(空間座標)を算出する。 The data generating unit 22, a position where the optical markers OM3 is provided in the surgical instrument 6, and information indicating a positional relationship between the main reference position p 0 is set in advance, the calculation unit 24, a surgical instrument 6 and position and orientation data (in optical marker OM3), on the basis of preset positional relationship information, calculates the main reference position (tip point) p 0, 3-dimensional coordinates in the operative space (spatial coordinates).

また、データ生成部22は、主基準位置(先端ポイント)p0における、手術器具6の長手軸方向lを示す単位ベクトルuを算出する算出部25を備えている。この算出部25は、手術器具6の位置・姿勢データから、長尺状の手術器具6の長手軸方向l(手術器具6の姿勢)を求めることで算出することができる。 In addition, the data generation unit 22 includes a calculation unit 25 that calculates a unit vector u indicating the longitudinal axis direction 1 of the surgical instrument 6 at the main reference position (tip point) p 0 . The calculation unit 25 can calculate by calculating the longitudinal axis direction 1 (posture of the surgical instrument 6) of the elongated surgical instrument 6 from the position / posture data of the surgical instrument 6.

なお、本実施形態において、単位ベクトルuは、主基準位置(手術器具先端ポイント)における手術器具6の長手軸方向lを示すものであるが、単位ベクトルが示す方向は、長手軸方向lに限られるものではなく、他の方向を示すものであってもよい。また、単位ベクトルが示す方向は、長手軸方向のように手術器具6の姿勢から一意に決定される方向だけでなく、手術器具(の先端)の移動方向を示すものであってもよい。また、予測される移動軌跡は、直線として予測するのが簡便であるが、可能であれば、曲線で示される移動軌跡を予測してもよい。   In this embodiment, the unit vector u indicates the longitudinal axis direction l of the surgical instrument 6 at the main reference position (surgical instrument tip point), but the direction indicated by the unit vector is limited to the longitudinal axis direction l. It is not necessarily provided and may indicate other directions. Further, the direction indicated by the unit vector may indicate not only the direction uniquely determined from the posture of the surgical instrument 6 as in the longitudinal axis direction but also the moving direction of the surgical instrument (the tip thereof). Moreover, although it is easy to predict the movement locus | trajectory estimated as a straight line, if possible, the movement locus | trajectory shown with a curve may be estimated.

さらに、データ生成部22は、他のポイント(副基準位置)p1〜pMの3次元座標(空間座標)を算出するための算出部(基準位置検出部)26を備えている。この算出部26によって算出される他のポイントp1〜pMは、主基準位置(先端ポイント)p0から、単位ベクトルuが示す方向(長手軸方向l)に、距離ki(i:1〜Mの整数)ほど離れた点(手術空間における空間座標)として設定される。
距離kiは、データ生成部22におけるポイント間距離ki調整部27によって調整可能であるが、予め設定された固定値であってもよい。ポイント間距離ki調整の詳細については後述する。
Further, the data generation unit 22 includes a calculation unit (reference position detection unit) 26 for calculating three-dimensional coordinates (spatial coordinates) of other points (sub-reference positions) p 1 to p M. The other points p 1 to p M calculated by the calculation unit 26 are distances k i (i: 1) from the main reference position (tip point) p 0 in the direction indicated by the unit vector u (longitudinal axis direction 1). It is set as a point (spatial coordinates in the surgical space) that is about (an integer of .about.M).
The distance k i can be adjusted by the point-to-point distance k i adjustment unit 27 in the data generation unit 22, but may be a fixed value set in advance. It will be described in detail later point distance k i adjustment.

なお、本実施形態において、主基準位置p0は、手術器具6の先端の「現在の」位置を示すという意義を有しているのに対し、他の基準位置である副基準位置p1〜pMは、主基準位置p0が「将来」において位置すると予測される予測位置を示している。したがって、主基準位置p0は、手術器具6上か、手術器具6の周囲のごく近傍であるのが好ましく、副基準位置は、手術器具6の長手軸方向や移動方向に鑑みて、p1〜pMは、主基準位置p0が近い将来位置すると予測される位置として設定されるのが好ましい。 In the present embodiment, the main reference position p 0 has the significance of indicating the “current” position of the distal end of the surgical instrument 6, whereas the other reference positions are sub-reference positions p 1 to p 1 . p M indicates a predicted position where the main reference position p 0 is predicted to be positioned in the “future”. Accordingly, the main reference position p 0 is preferably on the surgical instrument 6 or very close to the periphery of the surgical instrument 6, and the sub-reference position is p 1 in view of the longitudinal axis direction and the moving direction of the surgical instrument 6. ˜p M is preferably set as a position where the main reference position p 0 is predicted to be located in the near future.

以上のようにして算出された基準位置pi(i:0〜M)は、単位ベクトルuが示す方向上の仮想的な直線(手術器具の予測移動軌跡)上に位置する点である。この仮想的な直線は、手術器具6から延びる線であれば、その位置や方向が特に限定されるものではないが、上記のように、手術器具6の先端(主基準位置)から長手軸方向に延びるものが好ましい。なお、曲線で示される予測移動軌跡上に基準位置を設定してもよい。
なお、図7に示すように、本実施形態では、M=2であり、基準位置としては、p0,p1,p2の3つが設定される。なお、基準位置数iは、システムのユーザが調整可能であるが、予め設定された固定値であってもよい。
The reference position p i (i: 0 to M) calculated as described above is a point located on a virtual straight line (predicted movement trajectory of the surgical instrument) in the direction indicated by the unit vector u. The position and direction of the virtual straight line extending from the surgical instrument 6 are not particularly limited, but as described above, the longitudinal direction from the distal end (main reference position) of the surgical instrument 6 Those extending in the range are preferred. Note that the reference position may be set on the predicted movement locus indicated by the curve.
As shown in FIG. 7, in the present embodiment, M = 2, and three reference positions, p 0 , p 1 , and p 2 , are set. The reference position number i can be adjusted by the user of the system, but may be a fixed value set in advance.

上記基準位置pi(i:0〜M)は、手術の対象部位(腫瘍)からの距離の判定の対象となる点である。 The reference position p i (i: 0 to M) is a point that is a target for determining the distance from the target site (tumor) of the operation.

[3.2 対象部位からの距離に応じた複数の領域について]
ここで、データ生成部22は、各基準位置(ポイント)p0〜pMが属する3次元領域Sj(j:0〜3)を判定するための判定部28を備えている。3次元領域S0〜S3は、修正ターゲットデータが示す腫瘍領域(対象部位)の表面からの距離に応じて区分けしたものである。なお、臓器の移動・変形がない場合には、修正ターゲットデータに代えて、記憶部11に記憶されている修正前のターゲットデータTを用いても良い。
[3.2 Multiple areas according to the distance from the target part]
Here, the data generation unit 22 includes a determination unit 28 for determining the three-dimensional region S j (j: 0 to 3) to which the respective reference positions (points) p 0 to p M belong. The three-dimensional regions S 0 to S 3 are divided according to the distance from the surface of the tumor region (target site) indicated by the corrected target data. When there is no movement / deformation of the organ, target data T before correction stored in the storage unit 11 may be used instead of the correction target data.

これらの領域S0〜S3のうち、領域S0は、修正ターゲットデータにおいて腫瘍を示す3次元イメージデータT2に対応する3次元領域であり、領域S1〜S3は、腫瘍(対象部位)外の3次元領域を、複数(ここでは、3つ)に分割したものである。なお、領域S0を含めた領域域数jは特に限定されるものではなく、複数であればよい。また、領域数jは、システムのユーザが調整可能であるが、予め設定された固定値であってもよい。 Of these areas S 0 to S 3, the area S 0 is a three-dimensional region corresponding to the three-dimensional image data T2 showing a tumor in the modified target data, area S 1 to S 3, the tumor (target site) The outer three-dimensional region is divided into a plurality (here, three). Note that the number j of areas including the area S 0 is not particularly limited and may be plural. The number of areas j can be adjusted by the system user, but may be a fixed value set in advance.

図8に示すように、対象部位の領域S0の大きさ・範囲は、ターゲットデータTにおける3次元イメージデータT2が示す対象部位の大きさ・範囲に対応する。また、対象部位外の領域S1〜S3それぞれの大きさは、マージンw1,w2にて表される。本実施形態において、領域S1は、対象部位(腫瘍)を示す領域S0までの最小距離Dが0より大きくw1以下である点が含まれる3次元領域をいい、領域S2は、対象部位(腫瘍)を示す領域S0までの最小距離Dがw1より大きくw2以下である点が含まれる3次元領域をいい、領域S3は、対象部位(腫瘍)を示す領域S0までの最小距離がw2より大きい3次元領域をいう。
なお、w1=5mm、w2=10mmに設定した場合、領域S0〜S3の分け方は、図4に示す領域色分けモデルと一致することになる。
As shown in FIG. 8, the size / range of the region S 0 of the target part corresponds to the size / range of the target part indicated by the three-dimensional image data T2 in the target data T. The sizes of the regions S 1 to S 3 outside the target region are represented by margins w 1 and w 2 . In the present embodiment, the region S 1 refers to three-dimensional area a minimum distance D include point is greater w 1 less than 0 up area S 0 representing the target site (tumor), the area S 2, the subject A three-dimensional region including a point where the minimum distance D to the region S 0 indicating the region (tumor) is greater than w 1 and equal to or less than w 2 is included, and the region S 3 is up to the region S 0 indicating the target region (tumor). Is a three-dimensional region in which the minimum distance is greater than w 2 .
When w 1 = 5 mm and w 2 = 10 mm are set, the method of dividing the regions S 0 to S 3 matches the region color classification model shown in FIG.

上記マージンw1,w2は、マージン調整部34によって調整可能であるが、予め設定された固定値でもよい。なお、マージンの調整については後述する。 The margins w 1 and w 2 can be adjusted by the margin adjustment unit 34, but may be fixed values set in advance. The margin adjustment will be described later.

[3.3 サージカルシグナルデータ]
図9に示すように、前記判定部28は、各基準位置(ポイント)piについて、領域S0からの最小距離D(pi,S0)を求め、各基準位置(ポイント)piが、上記領域Sj(j:0〜3)のいずれに属するかを判定する。
図9の場合、主基準位置p0は領域S2に、第1の副基準位置p1は領域S2に、第2の副基準位置p2は領域S1に存在すると判定される。
[3.3 Surgical signal data]
As shown in FIG. 9, the judging unit 28, for each reference position (point) p i, the minimum distance D (p i, S 0) from the region S 0 seek, each reference position (point) p i , It is determined which of the areas S j (j: 0 to 3) belongs to.
In the case of FIG. 9, it is determined that the main reference position p 0 is in the region S 2 , the first sub reference position p 1 is in the region S 2 , and the second sub reference position p 2 is in the region S 1 .

図10は、上記判定によって生成されたサージカルシグナルデータSDを示している。このサージカルシグナルデータは、各基準位置piについて、各基準位置が属する領域を示す情報(Area)、各基準位置が属する領域の番号情報(j)、各基準位置が属する領域の色情報(Cj)を示している。
なお、領域の色としては、領域s0には「赤色」、領域s1には「黄色」、領域s2には「緑色」、領域s3には「青色」が設定されている。
FIG. 10 shows the surgical signal data SD generated by the above determination. This surgical signal data includes, for each reference position p i , information (Area) indicating the area to which each reference position belongs, number information (j) of the area to which each reference position belongs, and color information (Cj for the area to which each reference position belongs. ).
As the color of the area, the area s 0 "red", the area s 1 "yellow", the area s 2 "green", the area s 3 is set with "blue".

図11は、図10のサージカルシグナルデータSDを、表示装置2に画面表示させた場合の画面(サージカルシグナル画面)D1を示している。この画面D1は、サージカルシグナルデータSDに基づいて、処理装置1の表示制御部18によって生成される。
この画面D1は、各基準位置p0〜p2を縦軸方向に並べ、各領域S0〜S3を横軸方向に並べたマトリックス配置の複数の円形状の表示部によって構成されている。この画面D1中の各表示部は、各基準位置p0〜p2について、基準位置p0〜p2が属する領域S0〜S3に対応するものが、設定された色で点灯するよう構成されている。
FIG. 11 shows a screen (surgical signal screen) D1 when the surgical signal data SD of FIG. 10 is displayed on the display device 2. The screen D1 is generated by the display control unit 18 of the processing device 1 based on the surgical signal data SD.
The screen D1 includes a plurality of circular display units arranged in a matrix arrangement in which the reference positions p 0 to p 2 are arranged in the vertical axis direction and the regions S 0 to S 3 are arranged in the horizontal axis direction. Each display unit in the screen D1, for each reference position p 0 ~p 2, which reference position p 0 ~p 2 corresponds to the area S 0 to S 3, which belongs, configured to light up in a set color Has been.

例えば、図9及び図10の状態では、基準位置p0は領域S2に属しているから、(p0,S2)の位置にある表示部C1が、領域S2に設定された「緑色」で点灯する。基準位置p0が属さない領域S0,S1,S3についての表示部は、非点灯の表示(黒又は白での表示)となっている。また、基準位置p1も領域S2に属しているから、(p1,S2)の位置にある表示部C2が、領域S2に設定された「緑色」で点灯する。基準位置p1が属さない領域S0,S1,S3についての表示部は、非点灯の表示(黒又は白での表示)となっている。また、また、基準位置p2は領域S1に属しているから、(p2,S1)の位置にある表示部C3が、領域S1に設定された「黄色」で点灯する。基準位置p2が属さない領域S0,S2,S3についての表示部は、非点灯の表示(黒又は白での表示)となっている。 For example, in the state of FIGS. 9 and 10, since the reference position p 0 belongs to the region S 2 , the display unit C 1 at the position (p 0 , S 2 ) is set to “green” set in the region S 2. "Lights up. The display portions for the areas S 0 , S 1 , S 3 to which the reference position p 0 does not belong are non-lighting displays (displays in black or white). Further, since the reference position p 1 also belongs to the region S 2 , the display unit C 2 at the position (p 1 , S 2 ) lights up with “green” set in the region S 2 . The display sections for the areas S 0 , S 1 , S 3 to which the reference position p 1 does not belong are non-lighting displays (displays in black or white). In addition, since the reference position p 2 belongs to the area S 1 , the display unit C3 located at the position (p 2 , S 1 ) lights up in “yellow” set in the area S 1 . The display portions for the areas S 0 , S 2 , S 3 to which the reference position p 2 does not belong are non-lighting displays (displays in black or white).

図11の画面D1を見た術者は、手術器具6の先端の現在位置p0が、どの領域S0〜S3に属するのか、すなわち、腫瘍S0からみてどの程度の位置にあるのかを、視覚的に容易に把握することができる。
ここで、領域S1〜S3の大きさを決定するマージンw1,w2が、領域色分けモデルと同様に設定された場合、緑色に設定された領域S2は、術者が切除すべき切除ラインが属する領域となる。術者は、緑色に設定された領域S2内で切除を進めることで、十分な癌陰性切除断端領域(黄色の領域s1)を腫瘍側につけて、かつ、青色の領域S3を最大限温存することができる。
図11の画面D1においては、手術器具6の先端の現在位置p0は、切除のための適切な領域S2に位置していることを示しているため、術者は、現在の手術器具の位置は、適切であることを容易に把握できる。
The surgeon who viewed the screen D1 in FIG. 11 shows to which region S 0 to S 3 the current position p 0 of the distal end of the surgical instrument 6 belongs, that is, to what position as viewed from the tumor S 0. Can be easily grasped visually.
Here, when the margins w 1 and w 2 for determining the sizes of the areas S 1 to S 3 are set in the same manner as the area color coding model, the operator should excise the area S 2 set to green. This is the area to which the ablation line belongs. The surgeon advances the excision in the region S 2 set in green so that a sufficient cancer-negative excision marginal region (yellow region s 1 ) is attached to the tumor side and the blue region S 3 is maximized. Can be kept warm.
In the screen D1 of FIG. 11, the current position p 0 of the distal end of the surgical instrument 6 indicates that the current position p 0 is located in an appropriate region S 2 for resection. The position can be easily grasped as appropriate.

そして、他の基準位置p1,p2は、現在位置p0が将来位置すると予測される予測位置であるから、図11の画面D1を術者がみた場合、現在の手術器具6の姿勢や移動方向が、将来においても適切であるかを容易に把握することができる。
つまり、図11のように、将来の予測位置であるp2(又はp1)が、腫瘍側の領域s1(又は領域S0,S3)属していることを示している場合、現在の手術器具6の姿勢や移動方向では、将来において適切な状態からややずれる可能性を、術者が事前に把握することができる。
一方、画面D1において、p0,p1,p2すべてが領域S2に属することを表示していれば、術者は、現在の手術器具6の姿勢や移動方向は適切であると把握でき、その状態で手術を適切に進めることができる。
Since the other reference positions p 1 and p 2 are predicted positions at which the current position p 0 is predicted to be in the future, when the operator views the screen D1 in FIG. It is possible to easily grasp whether the moving direction is appropriate in the future.
That is, as shown in FIG. 11, when p 2 (or p 1 ), which is a predicted position in the future, indicates that the tumor side region s 1 (or region S 0 , S 3 ) belongs, The operator can grasp in advance in the posture and movement direction of the surgical instrument 6 that there is a possibility of deviation from an appropriate state in the future.
On the other hand, if the screen D1 displays that all of p 0 , p 1 , and p 2 belong to the region S 2 , the surgeon can grasp that the current posture and moving direction of the surgical instrument 6 are appropriate. In this state, the surgery can be appropriately performed.

[3.4 サージカルレーダデータ]
図6に示すように、データ生成部22は、上記サージカルシグナルデータSDを生成する機能のほか、サージカルレーダデータRDを生成するため、基準位置p0を中心とする半球Hの表面座標算出部29と、半球Hの表面が属する領域S0〜S3の判定部30とを備えている。
[3.4 Surgical radar data]
As shown in FIG. 6, in addition to the function of generating the surgical signal data SD, the data generation unit 22 generates the surgical radar data RD, and therefore the surface coordinate calculation unit 29 of the hemisphere H centered on the reference position p 0. And a determination unit 30 for the regions S 0 to S 3 to which the surface of the hemisphere H belongs.

サージカルレーダデータRDは、サージカルシグナルデータSDのように、点(基準位置)が属する領域S0〜S3を示すものではなく、点(基準位置)の集合としての面に含まれる各位置が属する領域S0〜S3を示すものである。 The surgical radar data RD does not indicate the areas S 0 to S 3 to which the points (reference positions) belong, as in the case of the surgical signal data SD, but each position included in the surface as a set of points (reference positions) belongs. Regions S 0 to S 3 are shown.

本実施形態では、属する領域S0〜S3の判定対象となる面としては、球面が採用される。さらに、本実施形態では、属する領域S0〜S3の判定対象となる面として、球面全体ではなく、球面の一部の面として半球の表面が採用される。属する領域S0〜S3の判定対象となる面は、球表面や半球表面に限定されるものではなく、任意の形状の面(平面又は曲面)とすることができる。 In the present embodiment, a spherical surface is adopted as the surface to be determined for the regions S 0 to S 3 to which it belongs. Furthermore, in the present embodiment, a hemispherical surface is adopted as a partial surface of the spherical surface, not the entire spherical surface, as the surface to be determined for the regions S 0 to S 3 to which it belongs. The surface that is the determination target of the regions S 0 to S 3 to which the region belongs is not limited to a spherical surface or a hemispherical surface, and can be a surface of any shape (a flat surface or a curved surface).

本実施形態において、属する領域S0〜S3の判定対象となる半球面は、単位ベクトルuが示す方向(長手軸方向l)が、頂点(天頂)を通過する半球の表面である。
つまり、図12に示すように、基準位置p0が原点であり、単位ベクトルuの方向(長手軸方向l)に直交する平面をyz座標(zとyとは直交する)とし、単位ベクトルuの方向(長手軸方向l)をx座標とするxyz3次元直交座標系を想定した場合、本実施形態に係る前記半球は、当該xyz3次元直交座標系のx軸が、半球の頂点(天頂)piを通過し、半球の底面(球の大円)がx=0のyz面に存在するものである。
In the present embodiment, a hemispherical surface to be determined in the region S 0 to S 3 belonging the direction indicated by the unit vector u (longitudinal l) is the surface of the hemisphere passing through the apex (zenith).
That is, as shown in FIG. 12, the reference position p 0 is the origin, the plane perpendicular to the direction of the unit vector u (longitudinal axis direction 1) is defined as the yz coordinates (z and y are orthogonal), and the unit vector u Assuming an xyz three-dimensional Cartesian coordinate system with the x coordinate as the direction (longitudinal axis direction l), the hemisphere according to the present embodiment is such that the x axis of the xyz three-dimensional Cartesian coordinate system is the apex (zenith) p of the hemisphere. It passes through i, and the bottom of the hemisphere (the great circle of the sphere) exists on the yz plane where x = 0.

この半球表面上の任意の点hは、h=kir(θ,φ)で表される。ここで、kiは半球の半径であり、r(θ,φ)はp0における単位ベクトルである。θは、単位ベクトルu(p0からpiに向かう単位ベクトル)に対して単位ベクトルrがなす方位角を示し、φは、単位ベクトルに対して単位ベクトルrがなす仰角を示している。ただし、単位ベクトルuの方向(x軸方向)がφ=0である。ここで、前記半球においては、0≦θ<2π,−(π/2)≦φ<(π/2)である。
よって、r(θ,φ)=(cosφ,cosθsinφ,sinθsinφ)であり、半球面上の任意の点hの前記xyz3次元直交座標系の座標は、(kicosφ,kicosθsinφ,kisinθsinφ)として算出される。
The h any point on the hemisphere surface is expressed by h = k i r (θ, φ). Here, k i is the radius of the hemisphere, and r (θ, φ) is a unit vector at p 0 . θ represents the azimuth angle formed by the unit vector r with respect to the unit vector u (unit vector from p 0 to p i ), and φ represents the elevation angle formed by the unit vector r with respect to the unit vector. However, the direction of the unit vector u (x-axis direction) is φ = 0. Here, in the hemisphere, 0 ≦ θ <2π, − (π / 2) ≦ φ <(π / 2).
Accordingly, r (θ, φ) = (cosφ, cosθsinφ, sinθsinφ) is, the xyz3 dimensional orthogonal coordinate system of the coordinate of an arbitrary point h on the semi-spherical surface, (k i cosφ, k i cosθsinφ, k i sinθsinφ ).

半球表面の座標を算出する前記算出部29は、第1基準位置p0及び単位ベクトルuに基づいて、0≦θ<2π,−(π/2)≦φ<(π/2)の範囲におけるr(θ,φ)を算出し、半球面上の各点(基準位置)hの3次元座標を算出する。 The calculation unit 29 for calculating the coordinates of the surface of the hemisphere is based on the first reference position p 0 and the unit vector u in the range of 0 ≦ θ <2π, − (π / 2) ≦ φ <(π / 2). r (θ, φ) is calculated, and the three-dimensional coordinates of each point (reference position) h on the hemisphere are calculated.

なお、半球の半径kiは、調整部30によって調整可能である。半径の調整部30は、ポイント間距離ki調整部27によって設定された距離kiのうちいずれかが、システム又はシステムのユーザによって、半球の半径kiとして決定される。なお、半球の半径kiは、ポイント間距離ki調整部27によって設定された距離kiとは無関係に決定してもよい。 Note that the radius k i of the hemisphere can be adjusted by the adjusting unit 30. The radius adjustment unit 30 determines any one of the distances k i set by the point-to-point distance k i adjustment unit 27 as the radius k i of the hemisphere by the system or the user of the system. Incidentally, the radius k i of the hemisphere may be determined independently of the distance k i which is set by a point distance k i adjusting unit 27.

ここで、基準位置hの集合である半球面も、サージカルシグナルデータSDにおける副基準位置p1,p2と同様に、手術器具6(の先端)の現在の位置p0が、将来位置する可能性のある位置を示すという意義を有する。
つまり、サージカルシグナルデータSDにおける副基準位置p1,p2は、検出された単位ベクトルu(手術器具の長手軸方向ないし移動方向)が示す方向の直線上における点であったが、ここでの半球面は、手術器具の長手軸方向ないし移動方向が現在の方向uから、{0≦θ<2π,−(π/2)≦φ<(π/2)}の範囲で変化した場合において、現在位置p0が位置する可能性のある予測位置の集合を示している。
なお、半球は、手術器具の長手軸方向ないし移動方向にみて前方に配置されているため、現在位置p0が位置する可能性のある予測位置の集合として適切なものとなっている。
また、本実施形態では、予測位置の集合として、前記半球表面の全体を対象としたが、半球表面の一部であってもよい。
Here, the hemispherical surface, which is a set of the reference positions h, may be located in the future at the current position p 0 of the surgical instrument 6 (the tip thereof), similarly to the sub-reference positions p 1 and p 2 in the surgical signal data SD. It has the significance of indicating a sex position.
That is, the sub-reference positions p 1 and p 2 in the surgical signal data SD are points on a straight line in the direction indicated by the detected unit vector u (longitudinal direction or moving direction of the surgical instrument). The hemispherical surface is a case where the longitudinal direction or moving direction of the surgical instrument changes from the current direction u in a range of {0 ≦ θ <2π, − (π / 2) ≦ φ <(π / 2)}. A set of predicted positions where the current position p 0 may be located is shown.
Since the hemisphere is arranged in front of the surgical instrument in the longitudinal axis direction or movement direction, it is appropriate as a set of predicted positions where the current position p 0 may be located.
In the present embodiment, the entire hemispheric surface is targeted as a set of predicted positions, but may be a part of the hemispheric surface.

前記領域判定部31は、半球表面の各点(基準位置)hについて、各点hが属する領域S0〜S3を判定する。この判定は、サージカルシグナルデータSDについての判定と同様に行われる。 The region determination unit 31 determines, for each point (reference position) h on the hemispherical surface, the regions S 0 to S 3 to which each point h belongs. This determination is performed in the same manner as the determination for the surgical signal data SD.

領域判定部31における領域判定によって、半球表面の各位置hが、どの領域S0〜S3に属するかを示す3次元のサージカルレーダデータRDが生成される。このサージカルレーダデータRDには、サージカルシグナルデータSDと同様に、半球表面の各位置hの3次元座標と、各位置が属する領域S0〜S3を示す情報とが含まれる。 By the region determination in the region determination unit 31, three-dimensional surgical radar data RD indicating which region S 0 to S 3 each position h on the surface of the hemisphere belongs to is generated. The surgical radar data RD includes the three-dimensional coordinates of each position h on the surface of the hemisphere and information indicating the areas S 0 to S 3 to which each position belongs, as in the case of the surgical signal data SD.

3次元のサージカルレーダデータRDを3次元表示してもよいが、2次元の表示装置2を採用する場合の便宜を考慮し、本実施形態のデータ生成部22は、3次元のサージカルレーダデータRDを2次元の平面(半球の底面;球の大円;x=0のyz平面)に投影する2次元投影処理部32を備えている。   Although the three-dimensional surgical radar data RD may be displayed three-dimensionally, in consideration of the convenience when the two-dimensional display device 2 is adopted, the data generation unit 22 of the present embodiment is configured with the three-dimensional surgical radar data RD. Is projected onto a two-dimensional plane (bottom of hemisphere; great circle of sphere; yz plane with x = 0).

2次元投影処理部32は、3次元のサージカルレーダデータRDにおける全ての位置hを、前記半球の底面(球の大円;x=0のyz平面)に投影して2次元のサージカルレーダデータRDを生成する。
図13に示すように、投影面であるyz平面(x=0)における任意の投影点qは、原点0(p0の位置)からの距離がkisinφであり、z軸となす角度がθである。
したがって、半球表面上の各位置h(θ,φ)が、前記半球の底面(yz平面)に投影されたときの投影点q(θ,φ)は、q=(kicosθsinφ,kisinθsinφ)によって算出される。なお、{0≦θ<2π,−(π/2)≦φ<(π/2)}である。
The two-dimensional projection processing unit 32 projects all the positions h in the three-dimensional surgical radar data RD onto the bottom surface of the hemisphere (the great circle of the sphere; the yz plane with x = 0), thereby producing the two-dimensional surgical radar data RD. Is generated.
As shown in FIG. 13, any projection point q in the yz plane (x = 0) is a projection plane, the distance from the origin 0 (the position of the p 0) is k i sin [phi, the angle formed with the z-axis θ.
Therefore, the projection point q (θ, φ) when each position h (θ, φ) on the surface of the hemisphere is projected onto the bottom surface (yz plane) of the hemisphere is q = (k i cos θsinφ, k i sinθsinφ). ). Note that {0 ≦ θ <2π, − (π / 2) ≦ φ <(π / 2)}.

2次元投影処理部32は、2次元のサージカルレーダデータRDとして、各投影点qの座標と、各投影点q(各投影点qに対応する位置h)が属する領域S0〜S3を示す情報と、を含めて生成する。サージカルレーダデータRDは、図10に示すサージカルレーダデータSDと同様の形式であって、サージカルレーダデータRD3つの基準位置p0,p1,p2が、前記半球の底面(yz平面)内の多数の投影点qとなったものである。 The two-dimensional projection processing unit 32 indicates, as the two-dimensional surgical radar data RD, the coordinates of each projection point q and the areas S 0 to S 3 to which each projection point q (position h corresponding to each projection point q) belongs. And information. The surgical radar data RD has the same format as the surgical radar data SD shown in FIG. 10, and three reference positions p 0 , p 1 and p 2 of the surgical radar data RD are many in the bottom surface (yz plane) of the hemisphere. Is the projection point q.

この2次元のサージカルレーダデータ(周囲データ)RD、処理装置1の表示制御部18によって、図15に示すような画面D2を生成する。   The two-dimensional surgical radar data (ambient data) RD and the display control unit 18 of the processing device 1 generate a screen D2 as shown in FIG.

図14に示すように半球の頂点piとしてサージカルデータSDにおける基準位置p2が採用された場合(半球の半径=k2)において、2次元のサージカルデータRDを示す画面D1は図15に示すようになる。
図15は、図14において手術器具6の先端p0を中心とする球SQの一部である半球表面の各位置hが属する領域に対応する色を、先端p0を原点とするyz座標上で表したものである。
As shown in FIG. 14, when the reference position p 2 in the surgical data SD is adopted as the apex p i of the hemisphere (hemisphere radius = k 2 ), a screen D1 showing the two-dimensional surgical data RD is shown in FIG. It becomes like this.
FIG. 15 shows the color corresponding to the region to which each position h on the surface of the hemisphere that is a part of the sphere SQ centered on the tip p 0 of the surgical instrument 6 in FIG. 14 on the yz coordinates with the tip p 0 as the origin. It is represented by.

図15の画面D2をみた術者は、手術器具6を現在の姿勢ないし移動方向で動かすと、現在位置p0の将来の予測位置p2は領域S1となり腫瘍領域S0にやや近づきすぎた状態であり、手術器具6を姿勢ないし移動方向を、図15における下方に変化させると、さらに腫瘍領域S0に近づいてしまうことがわかる。 Operator who viewed screen D2 in FIG. 15, moving the surgical instrument 6 in the current position to the moving direction, the future predicted position p 2 of the current position p 0 is too close slightly in the region S 1 becomes the tumor area S 0 It can be seen that if the posture or movement direction of the surgical instrument 6 is changed downward in FIG. 15, it further approaches the tumor region S 0 .

一方、図15において、手術器具6の現在の姿勢ないし移動方向からみた予測位置p2よりも上方には、切除に適した領域S2が広がっているから、手術器具6の姿勢ないし移動方向を、図15における上方に変化させるのが好ましい。図15のようなサージカルレーダ表示を術者に提示することで、術者は手術器具6の適切な姿勢ないし移動方向を容易に認識することができる。 On the other hand, in FIG. 15, above the estimated position p2 as viewed from the current posture to the moving direction of the surgical instrument 6, since the area S 2 which is suitable for ablation has spread, the attitude or direction of movement of the surgical instrument 6, It is preferable to change upward in FIG. By presenting the surgical radar display as shown in FIG. 15 to the surgeon, the surgeon can easily recognize the appropriate posture or moving direction of the surgical instrument 6.

そして、図15のようなサージカルレーダ表示の画面D2は、図11のサージカルシグナル表示の画面D1と同時に、術者に提示されるため、術者は、両表示画面D1,D2をみて、手術器具6と腫瘍(対象部位)との現在の位置関係、及び将来の位置関係を一層容易に把握することができる。また、両表示画面D1,D2は、拡張現実感イメージデータの表示とも同時に表示されるため、術者は、これらの表示をみて、複合的に術野の状況を認識することができる。   Since the surgical radar display screen D2 as shown in FIG. 15 is presented to the surgeon simultaneously with the surgical signal display screen D1 of FIG. 11, the surgeon looks at both display screens D1 and D2, and sees the surgical instrument. 6 and the current positional relationship between the tumor (target site) and the future positional relationship can be more easily grasped. Further, since both the display screens D1 and D2 are displayed at the same time as the display of the augmented reality image data, the surgeon can recognize the state of the operative field in combination by viewing these displays.

また、図6に示すように、データ生成部22は、他のサージカルレーダデータとして、手術器具6(の先端p0)から、腫瘍を示す領域(ターゲットエリア)S0中心までの距離を算出する算出部33を備えている。この算出部33によって、手術器具6と腫瘍領域S0中心までの位置関係(距離データ)が算出される。この距離データは、他のデータとともに画面表示され、術者に提示される。 Further, as shown in FIG. 6, the data generation unit 22 calculates the distance from the surgical instrument 6 (the tip p 0 thereof) to the center (target area) S 0 indicating the tumor as other surgical radar data. A calculation unit 33 is provided. The calculation unit 33 calculates the positional relationship (distance data) between the surgical instrument 6 and the center of the tumor region S 0 . This distance data is displayed on the screen together with other data and presented to the operator.

[3.5 スケールの自動調整]
算出部33によって算出された距離データは、ポイント間距離調整部27によるポイント間距離kiの調整、半球の半径調整部30による半径kiの調整、及び/又はマージ調整部34によるマージンw1,w2の調整に用いられる。
各調整部27,30,34は、手術器具6と腫瘍領域S0中心までの距離が大きい場合、調整対象の各値を比較的大きくし、手術器具6と腫瘍領域S0中心までの距離が小さい場合には、調整対象の各値を比較的小さくする。
これにより、手術器具6が腫瘍領域S0から離れている場合には、比較的大きなスケールで、サージカルシグナルデータSD又はサージカルレーダデータRDを表示でき、手術器具6が、腫瘍領域S0に近づくと、各値が自動的にスケールダウンして、詳細な情報を提供することができる。
なお、上記の各値の調整は、システムによる自動調整だけでなく、ユーザの選択によって行われても良い。
[3.5 Automatic scale adjustment]
The distance data calculated by the calculation unit 33 includes the adjustment of the inter-point distance k i by the inter-point distance adjustment unit 27, the adjustment of the radius k i by the hemispherical radius adjustment unit 30, and / or the margin w 1 by the merge adjustment unit 34. , W 2 is used for adjustment.
When the distance between the surgical instrument 6 and the tumor region S 0 center is large, each adjustment unit 27, 30, 34 relatively increases each value to be adjusted, and the distance between the surgical instrument 6 and the tumor region S 0 center is When the value is small, each value to be adjusted is relatively small.
Thereby, when the surgical instrument 6 is away from the tumor region S 0 , the surgical signal data SD or the surgical radar data RD can be displayed on a relatively large scale, and when the surgical instrument 6 approaches the tumor region S 0. Each value can be automatically scaled down to provide detailed information.
The adjustment of each value described above may be performed not only by automatic adjustment by the system but also by user selection.

[4.手術ロボットシステム]
図16は、上記手術支援システム50を有する手術ロボットシステムを示している。この手術ロボットシステムは、手術器具51と、当該手術器具51を駆動させる駆動部52と、手術器具51が手術のための動作を行うように駆動制御する制御部53と、を備えている。
[4. Surgical robot system]
FIG. 16 shows a surgical robot system having the surgical operation support system 50. This surgical robot system includes a surgical instrument 51, a drive unit 52 that drives the surgical instrument 51, and a control unit 53 that controls driving so that the surgical instrument 51 performs an operation for surgery.

前記制御部53は、手術支援システム50(の処理装置1)と接続されており、処理装置1が生成したナビゲーションデータ(サージカルシグナルデータ及び/又はサージカルレーダデータ)を取得する。
ナビゲーションデータを取得した制御部53は、ナビゲーションデータに基づいて、手術の対処部位(腫瘍)と手術器具51との現在の又は将来の位置関係を把握できるため、手術器具51の駆動制御を適切に行うことができる。
例えば、制御部53は、手術器具51との現在の又は将来の位置が、腫瘍領域S0又は腫瘍近傍領域S1になることを検出すると、手術器具53の動作を強制停止させる安全制御を行うことができる。
The control unit 53 is connected to the surgery support system 50 (the processing device 1 thereof), and acquires navigation data (surgical signal data and / or surgical radar data) generated by the processing device 1.
Since the control unit 53 that has acquired the navigation data can grasp the current or future positional relationship between the surgical treatment site (tumor) and the surgical instrument 51 based on the navigation data, the drive control of the surgical instrument 51 is appropriately performed. It can be carried out.
For example, when the control unit 53 detects that the current or future position with the surgical instrument 51 becomes the tumor region S 0 or the tumor vicinity region S 1 , the control unit 53 performs safety control to forcibly stop the operation of the surgical instrument 53. be able to.

なお、本発明は、上記実施形態に限定されるものではなく、様々な変形が可能である。   In addition, this invention is not limited to the said embodiment, A various deformation | transformation is possible.

11 記憶部
16 埋込マーカの位置・姿勢データ生成部(対象部位検出部)
21 移動/変形処理部(算出部)
22 サージカルシグナルデータ&サージカルレーダデータ生成部(データ生成部)
24 主基準位置の3次元座標算出部(基準位置検出部)
26 副基準位置の3次元座標算出部(基準位置検出部)
11 Storage Unit 16 Implanted Marker Position / Posture Data Generation Unit (Target Part Detection Unit)
21 Movement / deformation processing unit (calculation unit)
22 Surgical Signal Data & Surgical Radar Data Generator (Data Generator)
24 3D coordinate calculation unit (reference position detection unit) of main reference position
26 Sub-reference position three-dimensional coordinate calculation unit (reference position detection unit)

Claims (9)

手術の対象部位を示す3次元モデルのイメージデータを含むターゲットデータを記憶するための記憶部と、
手術器具における特定の基準位置及び/又は手術器具周囲における特定の基準位置が、手術空間において位置する空間座標を、検出する基準位置検出部と、
術中の前記対象部位が、前記手術空間において位置する空間座標を、検出する対象部位検出部と、
前記ターゲットデータが示す前記3次元モデルが、前記手術空間において位置すべき空間座標を、前記対象部位検出部によって検出された前記対象部位の前記空間座標に基づいて算出する算出部と、
前記ターゲットデータが示す前記3次元モデル及びその周囲を前記3次元モデルからの距離に応じて区分けした複数の領域のうち、前記基準位置が位置する領域を示すナビゲーションデータを生成するデータ生成部と、
を備えていることを特徴とする手術支援システム。
A storage unit for storing target data including image data of a three-dimensional model indicating a target site for surgery;
A reference position detector for detecting a spatial coordinate where a specific reference position in the surgical instrument and / or a specific reference position around the surgical instrument is located in the surgical space;
A target part detection unit for detecting a spatial coordinate where the target part during surgery is located in the surgical space;
A calculation unit that calculates, based on the spatial coordinates of the target part detected by the target part detection unit, the spatial coordinates that the three-dimensional model indicated by the target data should be located in the surgical space;
A data generation unit that generates navigation data indicating a region where the reference position is located among a plurality of regions obtained by dividing the three-dimensional model indicated by the target data and the periphery thereof according to a distance from the three-dimensional model;
An operation support system characterized by comprising:
前記ナビゲーションデータを画面表示させる表示手段を備え、
前記表示手段は、前記ターゲットデータが示す前記3次元モデル及びその周囲を前記3次元モデルからの距離に応じて区分けした複数の領域のうち、前記基準位置が位置する領域を、前記複数の領域それぞれに設定された色で示すための画面を表示させる
請求項1記載の手術支援システム。
Comprising display means for displaying the navigation data on a screen;
The display means includes a plurality of regions in which the reference position is located among a plurality of regions obtained by dividing the three-dimensional model indicated by the target data and the periphery thereof according to a distance from the three-dimensional model. The operation support system according to claim 1, wherein a screen for displaying in a color set in is displayed.
前記基準位置検出部によって前記空間座標の検出対象となる前記基準位置には、前記手術器具の前記姿勢及び/又は前記移動方向に基づいて予測される、前記手術器具の予測位置が含まれている
請求項1又は2に記載の手術支援システム。
The reference position that is the detection target of the spatial coordinates by the reference position detection unit includes a predicted position of the surgical instrument that is predicted based on the posture and / or the moving direction of the surgical instrument. The surgery support system according to claim 1 or 2.
前記基準位置には、前記手術器具から延びる仮想的な直線上に含まれる複数の点が含まれる請求項1〜3のいずれか1項に記載の手術支援システム。   The surgical support system according to claim 1, wherein the reference position includes a plurality of points included on a virtual straight line extending from the surgical instrument. 前記仮想的な直線は、長尺状の前記手術器具の長手軸方向に一致する直線である請求項4記載の手術支援システム。   The surgical support system according to claim 4, wherein the virtual straight line is a straight line that coincides with a longitudinal direction of the elongated surgical instrument. 前記基準位置には、前記手術器具の周囲に設定された仮想的な球の表面上の位置が含まれる請求項1〜3のいずれか1項に記載の手術支援システム。   The surgery support system according to any one of claims 1 to 3, wherein the reference position includes a position on a surface of a virtual sphere set around the surgical instrument. 前記基準位置には、前記手術器具の周囲に設定された仮想的な半球の表面の位置が含まれる位置が含まれ、
前記仮想的な半球は、その半球の天頂を、前記手術器具の先端から延びる仮想的な直線が通過するものである請求項1〜3記載の手術支援システム。
The reference position includes a position that includes the position of the surface of a virtual hemisphere set around the surgical instrument,
The surgical support system according to claim 1, wherein the virtual hemisphere is configured such that a virtual straight line extending from a distal end of the surgical instrument passes through the zenith of the hemisphere.
前記対象部位又はその周囲に埋め込まれた複数のマーカによって、術中の前記対象部位の移動及び/又は変形を検出し、検出された前記対象部位の移動及び/又は変形に応じて、前記3次元モデルの座標を移動させる処理、及び/又は、前記3次元モデルを変形させる処理を行う手段を備えている請求項1〜7のいずれか1項に記載の手術支援システム。   The movement and / or deformation of the target part during operation is detected by a plurality of markers embedded in or around the target part, and the three-dimensional model is determined according to the detected movement and / or deformation of the target part. The surgery support system according to any one of claims 1 to 7, further comprising means for performing a process of moving the coordinates of and / or a process of deforming the three-dimensional model. 前記手術器具の移動を駆動制御する制御部と、請求項1〜8のいずれか1項に記載の手術支援システムと、を備えた手術ロボットシステムであって、
前記制御部は、前記手術支援システムによって生成されたナビゲーションデータを、取得し、取得したナビゲーションデータに基づいて、前記手術器具の移動を駆動制御する
ことを特徴とする手術ロボットシステム。
A surgical robot system comprising: a control unit that drives and controls movement of the surgical instrument; and the surgical operation support system according to any one of claims 1 to 8,
The said control part acquires the navigation data produced | generated by the said surgery assistance system, Based on the acquired navigation data, drive control of the movement of the said surgical instrument is characterized.
JP2009048202A 2009-03-02 2009-03-02 Surgery support system and surgical robot system Pending JP2010200894A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009048202A JP2010200894A (en) 2009-03-02 2009-03-02 Surgery support system and surgical robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009048202A JP2010200894A (en) 2009-03-02 2009-03-02 Surgery support system and surgical robot system

Publications (1)

Publication Number Publication Date
JP2010200894A true JP2010200894A (en) 2010-09-16

Family

ID=42963020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009048202A Pending JP2010200894A (en) 2009-03-02 2009-03-02 Surgery support system and surgical robot system

Country Status (1)

Country Link
JP (1) JP2010200894A (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013145730A1 (en) * 2012-03-29 2013-10-03 パナソニック株式会社 Surgery assistance device and surgery assistance program
WO2014076931A1 (en) * 2012-11-15 2014-05-22 コニカミノルタ株式会社 Image-processing apparatus, image-processing method, and program
JP2014132980A (en) * 2013-01-10 2014-07-24 Advanced Healthcare Kk Trocar and surgery support system
JP2014525765A (en) * 2011-06-17 2014-10-02 コーニンクレッカ フィリップス エヌ ヴェ System and method for guided injection in endoscopic surgery
US20150085092A1 (en) * 2012-03-29 2015-03-26 Panasonic Healthcare Co., Ltd. Surgery assistance device and surgery assistance program
WO2016028095A1 (en) * 2014-08-20 2016-02-25 재단법인 아산사회복지재단 Tool location tracking apparatus
JP2017000772A (en) * 2015-06-12 2017-01-05 アヴァテラメディカル ゲーエムベーハー Device and method for robot-supported surgical operation
US9767608B2 (en) 2013-03-13 2017-09-19 Samsung Electronics Co., Ltd. Augmented reality image display system and surgical robot system comprising the same
US20170270678A1 (en) * 2016-03-15 2017-09-21 Fujifilm Corporation Device and method for image registration, and non-transitory recording medium
WO2018012207A1 (en) * 2016-07-12 2018-01-18 富士フイルム株式会社 Image display system, head-mounted display control device, and operating method and operating program for same
CN108095761A (en) * 2012-03-07 2018-06-01 齐特奥股份有限公司 Spacial alignment equipment, spacial alignment system and the method for instructing medical procedure
US9990744B2 (en) 2014-08-27 2018-06-05 Fujifilm Corporation Image registration device, image registration method, and image registration program
US10049480B2 (en) 2015-08-31 2018-08-14 Fujifilm Corporation Image alignment device, method, and program
US10102638B2 (en) 2016-02-05 2018-10-16 Fujifilm Corporation Device and method for image registration, and a nontransitory recording medium
CN109069009A (en) * 2016-03-10 2018-12-21 博迪维仁医疗有限公司 Method and system for using multiple view pose to estimate
US10242452B2 (en) 2015-08-25 2019-03-26 Fujifilm Corporation Method, apparatus, and recording medium for evaluating reference points, and method, apparatus, and recording medium for positional alignment
WO2019164275A1 (en) * 2018-02-20 2019-08-29 (주)휴톰 Method and device for recognizing position of surgical instrument and camera
JP2019184707A (en) * 2018-04-04 2019-10-24 パナソニック株式会社 Image projection device
CN110650704A (en) * 2017-05-25 2020-01-03 柯惠Lp公司 System and method for detecting objects within a field of view of an image capture device
US10631948B2 (en) 2015-09-29 2020-04-28 Fujifilm Corporation Image alignment device, method, and program
WO2021125115A1 (en) * 2019-12-19 2021-06-24 Sony Group Corporation Robotic arm system, method and computer program
US11439358B2 (en) 2019-04-09 2022-09-13 Ziteo, Inc. Methods and systems for high performance and versatile molecular imaging
US11464503B2 (en) 2014-11-14 2022-10-11 Ziteo, Inc. Methods and systems for localization of targets inside a body
US11553974B2 (en) 2017-05-25 2023-01-17 Covidien Lp Systems and methods for detection of objects within a field of view of an image capture device
JP2023503443A (en) * 2019-11-25 2023-01-30 ファラパルス,インコーポレイテッド Methods, systems, and apparatus for tracking ablation equipment and generating lesion lines

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014525765A (en) * 2011-06-17 2014-10-02 コーニンクレッカ フィリップス エヌ ヴェ System and method for guided injection in endoscopic surgery
US11304686B2 (en) 2011-06-17 2022-04-19 Koninklijke Philips N.V. System and method for guided injection during endoscopic surgery
CN108095761A (en) * 2012-03-07 2018-06-01 齐特奥股份有限公司 Spacial alignment equipment, spacial alignment system and the method for instructing medical procedure
CN108095761B (en) * 2012-03-07 2021-10-15 齐特奥股份有限公司 Spatial alignment apparatus, spatial alignment system and method for guiding a medical procedure
US11678804B2 (en) 2012-03-07 2023-06-20 Ziteo, Inc. Methods and systems for tracking and guiding sensors and instruments
JP2013202313A (en) * 2012-03-29 2013-10-07 Panasonic Corp Surgery support device and surgery support program
US20150085092A1 (en) * 2012-03-29 2015-03-26 Panasonic Healthcare Co., Ltd. Surgery assistance device and surgery assistance program
WO2013145730A1 (en) * 2012-03-29 2013-10-03 パナソニック株式会社 Surgery assistance device and surgery assistance program
WO2014076931A1 (en) * 2012-11-15 2014-05-22 コニカミノルタ株式会社 Image-processing apparatus, image-processing method, and program
JPWO2014076931A1 (en) * 2012-11-15 2017-01-05 コニカミノルタ株式会社 Image processing apparatus, image processing method, and program
JP2014132980A (en) * 2013-01-10 2014-07-24 Advanced Healthcare Kk Trocar and surgery support system
US9767608B2 (en) 2013-03-13 2017-09-19 Samsung Electronics Co., Ltd. Augmented reality image display system and surgical robot system comprising the same
WO2016028095A1 (en) * 2014-08-20 2016-02-25 재단법인 아산사회복지재단 Tool location tracking apparatus
US9990744B2 (en) 2014-08-27 2018-06-05 Fujifilm Corporation Image registration device, image registration method, and image registration program
US11464503B2 (en) 2014-11-14 2022-10-11 Ziteo, Inc. Methods and systems for localization of targets inside a body
JP2017000772A (en) * 2015-06-12 2017-01-05 アヴァテラメディカル ゲーエムベーハー Device and method for robot-supported surgical operation
US10242452B2 (en) 2015-08-25 2019-03-26 Fujifilm Corporation Method, apparatus, and recording medium for evaluating reference points, and method, apparatus, and recording medium for positional alignment
US10049480B2 (en) 2015-08-31 2018-08-14 Fujifilm Corporation Image alignment device, method, and program
US10631948B2 (en) 2015-09-29 2020-04-28 Fujifilm Corporation Image alignment device, method, and program
US10102638B2 (en) 2016-02-05 2018-10-16 Fujifilm Corporation Device and method for image registration, and a nontransitory recording medium
CN109069009A (en) * 2016-03-10 2018-12-21 博迪维仁医疗有限公司 Method and system for using multiple view pose to estimate
CN109069009B (en) * 2016-03-10 2022-09-23 博迪维仁医疗有限公司 Method and system for using multi-view pose estimation
US10078906B2 (en) * 2016-03-15 2018-09-18 Fujifilm Corporation Device and method for image registration, and non-transitory recording medium
US20170270678A1 (en) * 2016-03-15 2017-09-21 Fujifilm Corporation Device and method for image registration, and non-transitory recording medium
JPWO2018012207A1 (en) * 2016-07-12 2019-06-13 富士フイルム株式会社 Image display system, controller for head mounted display, and method and program for operating the same
CN109478092A (en) * 2016-07-12 2019-03-15 富士胶片株式会社 The control device and its working method and working procedure of image display system and head-mounted display
WO2018012207A1 (en) * 2016-07-12 2018-01-18 富士フイルム株式会社 Image display system, head-mounted display control device, and operating method and operating program for same
JP2022101696A (en) * 2017-05-25 2022-07-06 コヴィディエン リミテッド パートナーシップ Systems and methods for detection of objects within field of view of image capture device
US11553974B2 (en) 2017-05-25 2023-01-17 Covidien Lp Systems and methods for detection of objects within a field of view of an image capture device
JP2020520752A (en) * 2017-05-25 2020-07-16 コヴィディエン リミテッド パートナーシップ System and method for detecting objects in the field of view of an image capture device
US11918299B2 (en) 2017-05-25 2024-03-05 Covidien Lp Systems and methods for detection of objects within a field of view of an image capture device
CN110650704B (en) * 2017-05-25 2023-05-26 柯惠Lp公司 System and method for detecting objects within a field of view of an image capture device
CN110650704A (en) * 2017-05-25 2020-01-03 柯惠Lp公司 System and method for detecting objects within a field of view of an image capture device
JP7197511B2 (en) 2017-05-25 2022-12-27 コヴィディエン リミテッド パートナーシップ Systems and methods for detecting objects within the field of view of an image capture device
WO2019164275A1 (en) * 2018-02-20 2019-08-29 (주)휴톰 Method and device for recognizing position of surgical instrument and camera
JP2019184707A (en) * 2018-04-04 2019-10-24 パナソニック株式会社 Image projection device
US11883214B2 (en) 2019-04-09 2024-01-30 Ziteo, Inc. Methods and systems for high performance and versatile molecular imaging
US11439358B2 (en) 2019-04-09 2022-09-13 Ziteo, Inc. Methods and systems for high performance and versatile molecular imaging
JP2023503443A (en) * 2019-11-25 2023-01-30 ファラパルス,インコーポレイテッド Methods, systems, and apparatus for tracking ablation equipment and generating lesion lines
JP7473643B2 (en) 2019-11-25 2024-04-23 ボストン サイエンティフィック サイムド,インコーポレイテッド Method, system and apparatus for ablation device tracking and damage line generation - Patents.com
WO2021125115A1 (en) * 2019-12-19 2021-06-24 Sony Group Corporation Robotic arm system, method and computer program

Similar Documents

Publication Publication Date Title
JP2010200894A (en) Surgery support system and surgical robot system
US11754971B2 (en) Method and system for displaying holographic images within a real object
US11751948B2 (en) Methods and systems for robot-assisted surgery
US11896318B2 (en) Methods and systems for controlling a surgical robot
US11944390B2 (en) Systems and methods for performing intraoperative guidance
US10265854B2 (en) Operating room safety zone
Baumhauer et al. Navigation in endoscopic soft tissue surgery: perspectives and limitations
JP4152402B2 (en) Surgery support device
US11737696B2 (en) System for neuronavigation registration and robotic trajectory guidance, and related methods and devices
JP7469120B2 (en) Robotic surgery support system, operation method of robotic surgery support system, and program
JP2021505226A (en) Systems and methods to support visualization during the procedure
EP2438880A1 (en) Image projection system for projecting image on the surface of an object
WO2011134083A1 (en) System and methods for intraoperative guidance feedback
US11779192B2 (en) Medical image viewer control from surgeon&#39;s camera
WO2019080358A1 (en) Robot for surgical navigation using 3d images and control method thereof
US11771508B2 (en) Robotically-assisted surgical device, robotically-assisted surgery method, and system
US11779412B2 (en) Robotically-assisted surgical device, robotically-assisted surgery method, and system
WO2021074422A1 (en) Dynamic tissue imagery updating
Galloway et al. Overview and history of image-guided interventions
CN212490140U (en) Surgical navigation system
JP7414611B2 (en) Robotic surgery support device, processing method, and program
JP7495216B2 (en) Endoscopic surgery support device, endoscopic surgery support method, and program
US20240225735A9 (en) Dynamic tissue imagery updating
CA3233118A1 (en) Anatomical scanning, targeting, and visualization