JP7495216B2 - Endoscopic surgery support device, endoscopic surgery support method, and program - Google Patents

Endoscopic surgery support device, endoscopic surgery support method, and program Download PDF

Info

Publication number
JP7495216B2
JP7495216B2 JP2019169672A JP2019169672A JP7495216B2 JP 7495216 B2 JP7495216 B2 JP 7495216B2 JP 2019169672 A JP2019169672 A JP 2019169672A JP 2019169672 A JP2019169672 A JP 2019169672A JP 7495216 B2 JP7495216 B2 JP 7495216B2
Authority
JP
Japan
Prior art keywords
port
surgical instrument
virtual
processing unit
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019169672A
Other languages
Japanese (ja)
Other versions
JP2021045341A (en
Inventor
秀介 茅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ziosoft Inc
Original Assignee
Ziosoft Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ziosoft Inc filed Critical Ziosoft Inc
Priority to JP2019169672A priority Critical patent/JP7495216B2/en
Publication of JP2021045341A publication Critical patent/JP2021045341A/en
Application granted granted Critical
Publication of JP7495216B2 publication Critical patent/JP7495216B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Endoscopes (AREA)

Description

本開示は、鏡視下手術支援装置、鏡視下手術支援方法、及びプログラムに関する。 This disclosure relates to an endoscopic surgery support device, an endoscopic surgery support method, and a program.

従来、腹腔鏡下手術ナビゲーションシステムにおけるカメラの位置姿勢の制御手法が検討されている(非特許文献1参照)。非特許文献1のシステムでは、腹腔鏡カメラとして、鉗子の先端にCCDカメラを取り付けた擬似カメラを利用する。この擬似カメラに取り付けた正六角形の台座の各面のマーカを外部カメラで測定することで、PC上で疑似カメラの先端の位置姿勢を算出する。 Conventionally, methods for controlling the position and orientation of a camera in a laparoscopic surgery navigation system have been studied (see Non-Patent Document 1). In the system of Non-Patent Document 1, a pseudo camera consisting of a CCD camera attached to the tip of a forceps is used as the laparoscopic camera. The position and orientation of the tip of the pseudo camera are calculated on a PC by measuring markers on each face of a regular hexagonal base attached to this pseudo camera with an external camera.

文山 誠友、外5名、“腹腔鏡下手術ナビゲーションシステムにおけるカメラの位置姿勢制御手法の検討”、[online]、情報・システムソサイエティ特別企画 学生ポスターセッション予稿集、2018年、IEICE(電子情報通信学会)、ISS-P-034、[令和1年8月9日検索]、インターネット<URL:https://www.ieice.org/~iss/jpn/Publications/issposter_2018/data/pdf/ISS-P-034.pdf>Fuminami, Masatomo, and 5 others, "Study on Camera Position and Orientation Control Method for Laparoscopic Surgery Navigation System", [online], Proceedings of the Special Project Student Poster Session of the Information and Systems Society, 2018, IEICE (Institute of Electronics, Information and Communication Engineers), ISS-P-034, [Retrieved August 9, 2019], Internet <URL: https://www.ieice.org/~iss/jpn/Publications/issposter_2018/data/pdf/ISS-P-034.pdf>

非特許文献1のシステムを手術ナビゲーションに用いると、疑似カメラに対応する腹腔鏡カメラの位置を導出するために、腹腔鏡カメラの他に、手術時の様子を撮像するために例えば天井に設置される外部カメラを必要とする。そのため、手術ナビゲーションを行うためのシステムが大がかりとなる。また、外部カメラは、例えば手術室の天井に設置されるので、手術室を基準とした座標系(手術室座標系ともいう)を用いることとなる。一方、腹腔鏡カメラは、患者に設置されるポートを基準に患者の体内において操作されるので、患者を基準とした座標系(患者座標系)を用いることとなる。そのため、術中ナビゲーションにおいて手術室座標系を用いた画像と患者座標系を用いた画像とを参照する場合、相互に位置合わせが必要となる。そのため、手術ナビゲーションにおいて、事前に座標をレジストレーションする工程が必要になる。また、術中に患者の動きに応じて再レジストレーションが必要になる。 When the system of Non-Patent Document 1 is used for surgical navigation, in order to derive the position of the laparoscopic camera corresponding to the pseudo camera, in addition to the laparoscopic camera, an external camera, for example, installed on the ceiling, is required to capture the state of the surgery. Therefore, the system for performing surgical navigation becomes large-scale. In addition, since the external camera is installed, for example, on the ceiling of the operating room, a coordinate system based on the operating room (also called the operating room coordinate system) is used. On the other hand, since the laparoscopic camera is operated inside the patient's body based on the port installed in the patient, a coordinate system based on the patient (patient coordinate system) is used. Therefore, when referring to an image using the operating room coordinate system and an image using the patient coordinate system in intraoperative navigation, mutual alignment is required. Therefore, in surgical navigation, a process of registering the coordinates in advance is required. Also, re-registration is required according to the patient's movements during surgery.

本開示は、上記事情に鑑みてされたものであって、システム構成を単純化して簡便に手術ナビゲーションを実施できる鏡視下手術支援装置、鏡視下手術支援方法、及びプログラムを提供する。 The present disclosure has been made in consideration of the above circumstances, and provides an endoscopic surgery support device, an endoscopic surgery support method, and a program that can simplify the system configuration and easily perform surgical navigation.

本開示の一態様は、鏡視下手術を支援する鏡視下手術支援装置であって、処理部を備え、前記処理部は、被検体の3Dデータと手術器具の形状の情報とを取得し、前記3Dデータにおける前記被検体の体表に仮想ポートを設定し、前記仮想ポートに対応した実ポートから前記被検体の内部に挿入された前記手術器具の挿入距離が検出された情報を取得し、少なくとも前記仮想ポートの位置と検出された前記手術器具の挿入距離と前記手術器具の形状とに基づいて、前記3Dデータを可視化した第1の画像に、前記手術器具を示す情報と前記手術器具の先端位置及び先端向きとを重畳して表示部に表示させる、機能を有する、鏡視下手術支援装置である。 One aspect of the present disclosure is an endoscopic surgery support device that supports endoscopic surgery, comprising a processing unit, the processing unit having a function of acquiring 3D data of a subject and information on the shape of a surgical instrument , setting a virtual port on the body surface of the subject in the 3D data, acquiring information on the detected insertion distance of the surgical instrument inserted into the subject from a real port corresponding to the virtual port, and displaying, on a display unit, information indicating the surgical instrument and the tip position and tip orientation of the surgical instrument on a first image visualized from the 3D data based on at least the position of the virtual port, the detected insertion distance of the surgical instrument , and the shape of the surgical instrument.

本開示によれば、システム構成を単純化して簡便に手術ナビゲーションを実施できる。 This disclosure allows for a simplified system configuration and easy implementation of surgical navigation.

第1の実施形態における医用画像処理装置のハードウェア構成例を示すブロック図FIG. 1 is a block diagram showing an example of the hardware configuration of a medical image processing apparatus according to a first embodiment; 医用画像処理装置の機能構成例を示すブロック図A block diagram showing an example of the functional configuration of a medical image processing apparatus. ターゲットを含む臓器、ターゲットに対する処置に用いる手術器具、及び手術器具が挿入されるポートの位置関係と、被検体座標系と、の一例を示す図FIG. 1 is a diagram showing an example of a positional relationship between an organ including a target, a surgical instrument used to treat the target, and a port into which the surgical instrument is inserted, and a subject coordinate system. ポートを基準としたポート座標系の一例を示す図A diagram showing an example of a port coordinate system based on a port 内視鏡の先端位置と先端向きと撮像範囲と鉗子との位置関係の一例を示す図FIG. 13 is a diagram showing an example of the positional relationship between the tip position, tip direction, imaging range, and forceps of an endoscope. ボリュームレンダリング画像と各種情報とを重畳表示した表示例を示す図FIG. 13 is a diagram showing an example of a display in which a volume rendering image and various information are superimposed on each other; 仮想内視鏡画像と各種情報とを重畳表示した表示例を示す図FIG. 13 is a diagram showing a display example in which a virtual endoscopic image and various information are superimposed on each other; 医用画像処理装置の動作例を示すフローチャートFlowchart showing an example of the operation of a medical image processing apparatus ポート位置シミュレーションの手順の一例を示すフローチャートFlowchart showing an example of a procedure for port position simulation 医用画像処理装置によるポート位置スコアを算出する場合の動作例を示すフローチャート1 is a flowchart showing an example of an operation for calculating a port position score by a medical image processing device. 仮想ポート位置を基に定められるワーキングエリアの一例を示す図FIG. 13 is a diagram showing an example of a working area determined based on a virtual port position;

以下、本開示の実施形態について、図面を用いて説明する。 Embodiments of the present disclosure are described below with reference to the drawings.

(第1の実施形態)
図1は、第1の実施形態における医用画像処理装置100の構成例を示すブロック図である。医用画像処理装置100は、取得部110、UI120、ディスプレイ130、プロセッサ140、及びメモリ150を備える。医用画像処理装置100は、鏡視下手術(ロボット手術を含む)を画像処理によって支援する。医用画像処理装置100は、手術ナビゲーションを行う。手術ナビゲーションは、例えば、手術前の計画(術前計画)を行うための術前シミュレーションや手術中のサポートを行うための術中ナビゲーションを含む。
First Embodiment
1 is a block diagram showing an example of the configuration of a medical image processing apparatus 100 according to the first embodiment. The medical image processing apparatus 100 includes an acquisition unit 110, a UI 120, a display 130, a processor 140, and a memory 150. The medical image processing apparatus 100 supports laparoscopic surgery (including robotic surgery) by image processing. The medical image processing apparatus 100 performs surgical navigation. The surgical navigation includes, for example, preoperative simulation for making a plan before surgery (preoperative plan) and intraoperative navigation for providing support during surgery.

医用画像処理装置100には、CT装置200が接続される。医用画像処理装置100は、CT装置200からボリュームデータを取得し、取得されたボリュームデータに対して処理を行う。医用画像処理装置100は、PCとPCに搭載されたソフトウェアにより構成されてもよい。 The medical image processing device 100 is connected to a CT device 200. The medical image processing device 100 acquires volume data from the CT device 200 and processes the acquired volume data. The medical image processing device 100 may be configured by a PC and software installed on the PC.

CT装置200は、被検体へX線を照射し、体内の組織によるX線の吸収の違いを利用して、画像(CT画像)を撮像する。被検体は、生体、人体、動物、等を含んでよい。CT装置200は、被検体内部の任意の箇所の情報を含むボリュームデータを生成する。CT装置200は、CT画像としてのボリュームデータを医用画像処理装置100へ、有線回線又は無線回線を介して送信する。CT画像の撮像には、CT撮像に関する撮像条件や造影剤の投与に関する造影条件が考慮されてよい。 The CT device 200 irradiates the subject with X-rays and captures an image (CT image) by utilizing the difference in X-ray absorption by tissues in the body. The subject may include a living body, a human body, an animal, etc. The CT device 200 generates volume data including information on any location inside the subject. The CT device 200 transmits the volume data as a CT image to the medical image processing device 100 via a wired or wireless line. When capturing a CT image, imaging conditions related to CT imaging and contrast conditions related to the administration of a contrast agent may be taken into consideration.

医用画像処理装置100には、手術器具300からの情報が入力される。手術器具300は、手術において用いられる器具であり、内視鏡(カメラ)、鉗子、等を含む。医用画像処理装置100は、手術器具300から、例えば、後述する手術器具300の挿入距離情報、向き情報、位置情報、手術器具300により撮像されたカメラ画像を取得し、処理を行う。 Information from a surgical instrument 300 is input to the medical image processing device 100. The surgical instrument 300 is an instrument used in surgery, and includes an endoscope (camera), forceps, etc. The medical image processing device 100 acquires from the surgical instrument 300, for example, insertion distance information, orientation information, and position information of the surgical instrument 300 (described later), and camera images captured by the surgical instrument 300, and performs processing.

医用画像処理装置100内の取得部110は、例えば、通信ポートや外部装置接続ポート、組み込みデバイスへの接続ポートを含む。取得部110は、CT装置200で得られたボリュームデータを取得する。取得されたボリュームデータは、直ぐにプロセッサ140に送られて各種処理されてもよいし、メモリ150において保管された後、必要時にプロセッサ140へ送られて各種処理されてもよい。また、ボリュームデータは、記録媒体や記録メディアを介して取得されてもよい。また、ボリュームデータは中間データ、圧縮データやシノグラムの形で取得されてもよい。また、ボリュームデータは医用画像処理装置100に取り付けられたセンサデバイスからの情報から取得されてもよい。このように、取得部110は、ボリュームデータ等の各種データを取得する機能を有する。 The acquisition unit 110 in the medical image processing device 100 includes, for example, a communication port, an external device connection port, and a connection port to an embedded device. The acquisition unit 110 acquires volume data obtained by the CT device 200. The acquired volume data may be sent immediately to the processor 140 for various processing, or may be stored in the memory 150 and then sent to the processor 140 when necessary for various processing. The volume data may also be acquired via a recording medium or recording media. The volume data may also be acquired in the form of intermediate data, compressed data, or sinograms. The volume data may also be acquired from information from a sensor device attached to the medical image processing device 100. In this way, the acquisition unit 110 has the function of acquiring various data such as volume data.

UI120は、例えば、タッチパネル、ポインティングデバイス、キーボード、又はマイクロホンを含んでよい。UI120は、医用画像処理装置100のユーザから、任意の入力操作を受け付ける。ユーザは、術者、医師、看護師、放射線技師、学生、等を含んでよい。 The UI 120 may include, for example, a touch panel, a pointing device, a keyboard, or a microphone. The UI 120 accepts any input operation from a user of the medical image processing device 100. The user may include an operator, a doctor, a nurse, a radiologist, a student, etc.

UI120は、各種操作を受け付ける。例えば、ボリュームデータやボリュームデータに基づく画像(例えば後述する3次元画像、2次元画像)における、関心領域(ROI)の指定や輝度条件の設定等の操作を受け付ける。関心領域は、各種組織(例えば、血管、気管支、臓器、器官、骨、脳)の領域を含んでよい。組織は、病変組織、正常組織、腫瘍組織、等を含んでよい。 The UI 120 accepts various operations. For example, it accepts operations such as specifying a region of interest (ROI) and setting brightness conditions in volume data or an image based on the volume data (e.g., a three-dimensional image or a two-dimensional image described below). The region of interest may include regions of various tissues (e.g., blood vessels, bronchi, organs, bones, and the brain). The tissues may include diseased tissue, normal tissue, tumor tissue, and the like.

ディスプレイ130は、例えばLCDを含んでよく、各種情報を表示する。各種情報は、ボリュームデータから得られる3次元画像や2次元画像を含んでよい。3次元画像は、ボリュームレンダリング画像、サーフェスレンダリング画像、仮想内視鏡画像、仮想超音波画像、CPR画像、等を含んでもよい。ボリュームレンダリング画像は、レイサム(RaySum)画像、MIP画像、MinIP画像、平均値画像、レイキャスト画像、等を含んでもよい。2次元画像は、アキシャル画像、サジタル画像、コロナル画像、MPR画像、等を含んでよい。 The display 130 may include, for example, an LCD, and displays various information. The various information may include three-dimensional images and two-dimensional images obtained from volume data. The three-dimensional images may include volume rendering images, surface rendering images, virtual endoscopic images, virtual ultrasound images, CPR images, etc. The volume rendering images may include RaySum images, MIP images, MinIP images, average value images, raycast images, etc. The two-dimensional images may include axial images, sagittal images, coronal images, MPR images, etc.

メモリ150は、各種ROMやRAMの一次記憶装置を含む。メモリ150は、HDDやSSDの二次記憶装置を含んでもよい。メモリ150は、USBメモリやSDカードの三次記憶装置を含んでもよい。メモリ150は、各種情報やプログラムを記憶する。各種情報は、取得部110により取得されたボリュームデータ、プロセッサ140により生成された画像、プロセッサ140により設定された設定情報、各種プログラムを含んでもよい。メモリ150は、プログラムが記録される非一過性の記録媒体の一例である。 The memory 150 includes various primary storage devices such as ROM and RAM. The memory 150 may include secondary storage devices such as HDD and SSD. The memory 150 may include tertiary storage devices such as USB memory and SD card. The memory 150 stores various information and programs. The various information may include volume data acquired by the acquisition unit 110, images generated by the processor 140, setting information set by the processor 140, and various programs. The memory 150 is an example of a non-transitory recording medium on which a program is recorded.

プロセッサ140は、CPU、DSP、又はGPUを含んでよい。プロセッサ140は、メモリ150に記憶された医用画像処理プログラムを実行することにより、各種処理や制御を行う処理部160として機能する。 The processor 140 may include a CPU, a DSP, or a GPU. The processor 140 functions as a processing unit 160 that performs various processes and controls by executing a medical image processing program stored in the memory 150.

図2は、処理部160の機能構成例を示すブロック図である。処理部160は、領域処理部161、変形処理部162、モデル設定部163、ポート情報処理部164、手術器具情報処理部165、画像生成部166、及び表示制御部167を備える。なお、処理部160に含まれる各部は、1つのハードウェアにより異なる機能として実現されてもよいし、複数のハードウェアにより異なる機能として実現されてもよい。また、処理部160に含まれる各部は、専用のハードウェア部品により実現されてもよい。 FIG. 2 is a block diagram showing an example of the functional configuration of the processing unit 160. The processing unit 160 includes an area processing unit 161, a transformation processing unit 162, a model setting unit 163, a port information processing unit 164, a surgical instrument information processing unit 165, an image generation unit 166, and a display control unit 167. Each unit included in the processing unit 160 may be realized as different functions by a single piece of hardware, or may be realized as different functions by multiple pieces of hardware. Each unit included in the processing unit 160 may also be realized by dedicated hardware components.

領域処理部161は、例えば取得部110を介して、被検体のボリュームデータを取得する。領域処理部161は、ボリュームデータに含まれる任意の領域を抽出する。領域処理部161は、例えばボリュームデータの画素値に基づいて、自動で関心領域を指定し、関心領域を抽出してよい。領域処理部161は、例えばUI120を介して、手動で関心領域を指定し、関心領域を抽出してよい。関心領域は、臓器、骨、血管、患部(例えば病変組織や腫瘍組織)、等の領域を含んでよい。 The region processing unit 161 acquires volume data of the subject, for example, via the acquisition unit 110. The region processing unit 161 extracts any region included in the volume data. The region processing unit 161 may automatically specify a region of interest and extract the region of interest, for example, based on pixel values of the volume data. The region processing unit 161 may manually specify a region of interest and extract the region of interest, for example, via the UI 120. The region of interest may include regions of organs, bones, blood vessels, affected areas (for example, diseased tissue or tumor tissue), etc.

また、関心領域は、単一の組織だけでなく、その組織の周囲の組織を含んでセグメンテーション(区分)されて抽出されてもよい。例えば、関心領域としての臓器が肝臓の場合、肝臓本体だけでなく、肝臓に接続する又は肝臓内若しくは肝臓周辺を走行する血管(例えば肝動脈、肝静脈、門脈)や、肝臓周辺の骨(例えば背骨、肋骨)を含んでもよい。また、上記の肝臓本体と肝臓内又は肝臓周辺の血管と肝臓周辺の骨とは、別々の組織としてセグメンテーションされて得られてもよい。 The region of interest may be extracted by segmenting not only a single tissue but also the tissue surrounding that tissue. For example, if the organ of interest is the liver, it may include not only the liver itself, but also blood vessels (e.g., hepatic artery, hepatic vein, portal vein) that are connected to the liver or run within or around the liver, and bones around the liver (e.g., spine, ribs). The liver itself, blood vessels within or around the liver, and bones around the liver may be segmented and obtained as separate tissues.

モデル設定部163は、組織のモデルを設定する。モデルは関心領域とボリュームデータに基づいて設定されてよい。モデルは、ボリュームデータが表現する組織を、ボリュームデータよりも簡素化して表現するものである。したがって、モデルのデータ量は、モデルに対応するボリュームデータのデータ量よりも小さい。モデルは、例えば手術における各種処置を模した変形処理や変形操作の対象となる。モデルは、例えばボーン変形モデルでよい。この場合、モデルは簡易な有限要素において骨組みを仮定して、有限要素の頂点を移動させることで、ボーンが変形する。組織の変形は、ボーンの変形を追従することによって表現できる。モデルは、臓器(例えば肝臓)を模した臓器モデルを含んでよい。モデルは、単純な形状の多角形(例えば三角形)に類似する形状を有してもよいし、その他の形状を有してもよい。モデルは、例えば、臓器を示すボリュームデータの輪郭線であってもよい。モデルは、3次元モデルであっても2次元モデルであってもよい。なお、骨についてはモデルの変形ではなく、ボリュームデータの変形で表現されてもよい。骨は変形の自由度が小さいため、ボリュームデータのアフィン変換で表現できるためである。 The model setting unit 163 sets a model of the tissue. The model may be set based on the region of interest and the volume data. The model represents the tissue represented by the volume data in a simpler form than the volume data. Therefore, the amount of data of the model is smaller than the amount of data of the volume data corresponding to the model. The model is subject to deformation processing and deformation operations that imitate various procedures in surgery, for example. The model may be, for example, a bone deformation model. In this case, the model assumes a skeleton in simple finite elements, and the bones are deformed by moving the vertices of the finite elements. The deformation of the tissue can be expressed by following the deformation of the bones. The model may include an organ model that imitates an organ (for example, a liver). The model may have a shape similar to a simple polygon (for example, a triangle), or may have other shapes. The model may be, for example, the contour line of the volume data showing the organ. The model may be a three-dimensional model or a two-dimensional model. Note that bones may be expressed by deformation of the volume data rather than deformation of the model. This is because bones have a small degree of freedom in deformation and can be expressed by affine transformation of the volume data.

モデル設定部163は、ボリュームデータに基づいて、モデルを生成することで、モデルを取得してよい。また、モデルのテンプレートが複数予め決まっており、メモリ150や外部サーバに保持されていてもよい。モデル設定部163は、ボリュームデータに合わせて、予め用意された複数のモデルのテンプレートから1つのモデルのテンプレートをメモリ150や外部サーバから取得することで、モデルを取得してもよい。 The model setting unit 163 may acquire a model by generating a model based on the volume data. Alternatively, multiple model templates may be determined in advance and stored in the memory 150 or an external server. The model setting unit 163 may acquire a model by acquiring one model template from multiple model templates prepared in advance from the memory 150 or an external server in accordance with the volume data.

モデル設定部163は、ボリュームデータに含まれる被検体の組織におけるターゲットの位置を設定する。または、モデル設定部163は、組織を模したモデルにおけるターゲットの位置を設定する。ターゲットは、任意の組織(例えば臓器)内に設定される。モデル設定部163は、U120を介してターゲット位置を指定してよい。また、過去に被検体に対して処置されたターゲット(例えば患部)の位置がメモリ150に保持されていてもよい。モデル設定部163は、メモリ150からターゲット位置を取得して設定してもよい。モデル設定部163は、術式に応じてターゲット位置を設定してもよい。術式は、被検体に対する外科手術の方式を示す。ターゲット位置は、ターゲットの領域の位置を含んでよい。 The model setting unit 163 sets the position of the target in the subject's tissue contained in the volume data. Alternatively, the model setting unit 163 sets the position of the target in a model that mimics the tissue. The target is set in any tissue (e.g., an organ). The model setting unit 163 may specify the target position via U120. In addition, the position of a target (e.g., an affected area) that was previously treated on the subject may be stored in the memory 150. The model setting unit 163 may acquire the target position from the memory 150 and set it. The model setting unit 163 may set the target position according to the surgical procedure. The surgical procedure indicates the method of surgical operation on the subject. The target position may include the position of the target area.

ポート情報処理部164は、手術器具300を被検体の内部に挿入するために被検体の体表に設けられるポートの位置を設定する。 The port information processing unit 164 sets the position of a port to be provided on the subject's body surface in order to insert the surgical instrument 300 into the subject's interior.

なお、手術計画において被検体の体表に設けられる(計画される)ポートを、仮想ポートとも称する。仮想ポートに対応して実際に被検体の体表上に設置される(穿孔される)ポートを、実ポートとも称する。仮想ポートの位置と、この仮想ポートに対して実際に穿孔される実ポートの位置とでは、多少の誤差が生じることがある。また、ポートには、内視鏡が挿入されるカメラポート、鉗子が挿入される鉗子ポート、等が含まれる。例えば、カメラポートとしての仮想ポートとし、仮想カメラポート、鉗子ポートとしての実ポートを実鉗子ポートとするように、ポートの種類を組み合わせて記載することもある。 Note that a port that is placed (planned) on the subject's body surface in the surgical plan is also called a virtual port. A port that is actually placed (drilled) on the subject's body surface corresponding to a virtual port is also called a real port. There may be some error between the position of a virtual port and the position of a real port that is actually drilled in relation to this virtual port. Ports also include a camera port into which an endoscope is inserted, a forceps port into which forceps is inserted, etc. For example, port types may be combined and described, such as a virtual port as a camera port, and a real port as a virtual camera port or forceps port as a real forceps port.

ポート情報処理部164は、ボリュームデータに基づく3Dデータにおける被検体の体表において仮想ポートの位置を決定し、設定する。ポート情報処理部164は、後述するポート位置シミュレーション、ポート位置スコア算出、ポート位置調整、等に基づいて仮想ポートの位置を決定してよい。この仮想ポートの決定例の詳細について後述する。また、仮想ポートの位置は、術式に従って定まる標準的なポート位置でよい。ポート情報処理部164は、メモリ150から標準的なポート位置の情報を取得してもよいし、取得部110を介して外部装置から取得してもよい。 The port information processing unit 164 determines and sets the position of the virtual port on the body surface of the subject in the 3D data based on the volume data. The port information processing unit 164 may determine the position of the virtual port based on port position simulation, port position score calculation, port position adjustment, etc., which will be described later. Details of an example of determining this virtual port will be described later. The position of the virtual port may be a standard port position determined according to the surgical procedure. The port information processing unit 164 may acquire information on the standard port position from the memory 150, or may acquire it from an external device via the acquisition unit 110.

なお、3Dデータは、例えば被検体の後述する未気腹状態のボリュームデータでもよいし、気腹シミュレーションが施された被検体の後述する仮想気腹状態のボリュームデータでもよい。また、3Dデータは、ボリュームデータから生成されたサーフィスデータであってよい。また、3Dデータは、前述のモデルを含んでよい。また、3Dデータは、手術に関わる臓器のセグメンテーション情報を含んでよい。 The 3D data may be, for example, volume data of a subject in an untensioned state, which will be described later, or volume data of a subject in a virtual pneumoperitoneum state, which will be described later, after a pneumoperitoneum simulation has been performed. The 3D data may also be surface data generated from the volume data. The 3D data may also include the above-mentioned model. The 3D data may also include segmentation information of organs involved in the surgery.

変形処理部162は、手術対象の被検体における変形に関する処理を行う。例えば、変形に関する処理として、仮想的に被検体に対して気腹する気腹シミュレーションを行ってよい。気腹シミュレーションの具体的な方法は、公知の方法であってよく、例えば参考非特許文献1に記載された方法でよい。つまり、変形処理部162は、非気腹状態のボリュームデータを基に、気腹シミュレーションを行い、仮想気腹状態のボリュームデータを生成してよい。気腹シミュレーションにより、ユーザは、被検体に対して実際に気腹しなくても、被検体が気腹された状態を仮定し、仮想的に気腹された状態を観察できる。なお、気腹状態のうち、気腹シミュレーションにより推定される気腹の状態を仮想気腹状態と称し、実際の気腹された状態を実気腹状態と称してよい。 The deformation processing unit 162 performs processing related to deformation of the subject to be operated on. For example, as the processing related to deformation, a pneumoperitoneum simulation may be performed to virtually infuse the subject. The specific method of the pneumoperitoneum simulation may be a known method, for example, the method described in Reference Non-Patent Document 1. That is, the deformation processing unit 162 may perform a pneumoperitoneum simulation based on volume data in a non-pneumoperitoneum state, and generate volume data in a virtual pneumoperitoneum state. By using the pneumoperitoneum simulation, the user can assume that the subject is insufflated and observe the virtually insufflated state without actually insufflating the subject. Note that, among the pneumoperitoneum states, the pneumoperitoneum state estimated by the pneumoperitoneum simulation may be referred to as a virtual pneumoperitoneum state, and the actual pneumoperitoneum state may be referred to as an actual pneumoperitoneum state.

(参考非特許文献1)Takayuki Kitasaka, Kensaku Mori, Yuichiro Hayashi, Yasuhito Suenaga, Makoto Hashizume, and Jun-ichiro Toriwaki, “Virtual Pneumoperitoneum for Generating Virtual Laparoscopic Views Based on Volumetric Deformation”, MICCAI (Medical Image Computing and Computer-Assisted Intervention), 2004, P559-P567 (Reference Non-Patent Document 1) Takayuki Kitasaka, Kensaku Mori, Yuichiro Hayashi, Yasuhito Suenaga, Makoto Hashizume, and Jun-ichiro Toriwaki, “Virtual Pneumoperitoneum for Generating Virtual Laparoscopic Views Based on Volumetric Deformation”, MICCAI (Medical Image Computing and Computer-Assisted Intervention), 2004, P559-P567

気腹シミュレーションは、有限要素法を用いた大変形シミュレーションでよい。この場合、変形処理部162は、領域処理部161を介して、被検体の皮下脂肪を含む体表と、被検体の腹部内臓と、をセグメンテーションしてよい。そして、変形処理部162は、モデル設定部163を介して、体表を皮膚と体脂肪との2層の有限要素にモデル化し、腹部内臓を有限要素にモデル化してよい。変形処理部162は、任意に、例えば肺と骨とをセグメンテーションし、モデルに追加してよい。また、体表と腹部内臓との間にガス領域を設け、仮想的なガス注入に応じてガス領域(気腹空間)が拡張(膨張)してよい。なお、気腹シミュレーションが行われなくてもよい。 The pneumoperitoneum simulation may be a large deformation simulation using the finite element method. In this case, the deformation processing unit 162 may segment the body surface including the subcutaneous fat of the subject and the abdominal internal organs of the subject via the region processing unit 161. Then, the deformation processing unit 162 may model the body surface into two-layer finite elements of skin and body fat, and model the abdominal internal organs into finite elements via the model setting unit 163. The deformation processing unit 162 may optionally segment, for example, the lungs and bones and add them to the model. In addition, a gas region may be provided between the body surface and the abdominal internal organs, and the gas region (pneumoperitoneum space) may expand (inflate) in response to virtual gas injection. Note that the pneumoperitoneum simulation does not have to be performed.

また、被検体内の臓器等の組織は、手術における術者の各種処置を模してユーザによって各種の変形操作がされ得る。変形操作は、臓器を持ち上げる操作、ひっくり返す操作、切る操作、等を含んでよい。これに対応して、変形処理部162は、変形に関する処理として、被検体内の臓器等の組織に対応するモデルを変形させてよい。例えば、臓器が鉗子(例えば把持鉗子、剥離鉗子、電気メス)により引っ張られたり押されたり、切断されたりし得るが、この様子をモデルの変形によりシミュレートしてよい。モデルが変形すると、モデルにおけるターゲットも変形し得る。 In addition, various deformation operations may be performed by the user on tissues such as organs within the subject, simulating various procedures performed by the surgeon during surgery. Deformation operations may include lifting, turning, cutting, and the like of the organ. In response to this, the deformation processing unit 162 may deform a model corresponding to tissues such as organs within the subject as a process related to deformation. For example, an organ may be pulled, pushed, or cut by forceps (e.g., grasping forceps, dissection forceps, electric scalpel), and this state may be simulated by deformation of the model. When the model is deformed, the target in the model may also be deformed.

変形操作による変形は、モデルに対して行われ、有限要素法を用いた大変形シミュレーションでよい。例えば、体位変換による臓器の移動をシミュレートしてよい。この場合、臓器や病変の接点に加わる弾性力や臓器や病変の剛性、その他の物理的な特性が加味されてよい。モデルに対する変形処理は、ボリュームデータに対する変形処理と比較すると、演算量が低減される。変形シミュレーションにおける要素数が低減されるためである。なお、モデルに対しての変形処理が行われず、ボリュームデータに対して直接、変形処理が行われてもよい。 Deformation by a deformation operation is performed on a model, and may be a large deformation simulation using the finite element method. For example, the movement of an organ due to a change in body position may be simulated. In this case, the elastic force acting on the contact points of the organ or lesion, the rigidity of the organ or lesion, and other physical characteristics may be taken into account. The amount of calculation required for deformation processing on a model is reduced compared to deformation processing on volume data. This is because the number of elements in the deformation simulation is reduced. Note that deformation processing may be performed directly on the volume data without performing deformation processing on the model.

手術器具情報処理部165は、UI120を介して入力された手術器具300の操作情報を取得する。手術器具300の操作情報は、操作の種類(例えば移動、回転)、操作位置、操作速度、等の情報を含んでよい。なお、手術器具情報処理部165は、手術器具300からの情報(例えば操作情報、その他の情報)を手術器具300又は他の装置(例えば各種センサ)から直接取得してもよいし、取得部110を介して取得してもよい。 The surgical instrument information processing unit 165 acquires operation information of the surgical instrument 300 input via the UI 120. The operation information of the surgical instrument 300 may include information such as the type of operation (e.g., movement, rotation), operation position, and operation speed. The surgical instrument information processing unit 165 may acquire information from the surgical instrument 300 (e.g., operation information, other information) directly from the surgical instrument 300 or other devices (e.g., various sensors), or may acquire information via the acquisition unit 110.

手術器具情報処理部165は、手術器具300に関する情報(手術器具情報)の少なくとも一部を取得する。手術器具情報は、内視鏡20に関する情報や鉗子30に関する情報を含んでよい。内視鏡20に関する情報は、例えば取得部110を介して内視鏡20を含む内視鏡装置から取得されてよい。鉗子30に関する情報は、例えばメモリ150又は外部装置から取得されてよい。内視鏡20は、実カメラポートから挿入されて被検体内を撮像する。鉗子30は、実鉗子ポートから挿入されて被検体内において各種処置に使用される。 The surgical instrument information processing unit 165 acquires at least a portion of information related to the surgical instrument 300 (surgical instrument information). The surgical instrument information may include information related to the endoscope 20 and information related to the forceps 30. Information related to the endoscope 20 may be acquired from an endoscopic device including the endoscope 20, for example, via the acquisition unit 110. Information related to the forceps 30 may be acquired from, for example, the memory 150 or an external device. The endoscope 20 is inserted from a real camera port to capture images of the inside of the subject. The forceps 30 is inserted from a real forceps port to be used for various procedures inside the subject.

手術器具情報は、手術器具300の向き(つまり手術器具300の延在方向、手術器具300の挿入方向)及び手術器具300の挿入距離を含んでよい。ここでの手術器具300の向きは、手術器具300全体の主要な向きでよい。手術器具300の向きは、重力方向に対する手術器具300の傾きの方向を含み、手術器具300の延在方向を回転中心とした時計回り又は半時計回りの傾き、つまりねじりの向きを含んでよい。挿入距離は、例えば、手術器具300が挿入される実ポートとこの手術器具300の先端位置との間の距離に相当する。例えば、手術器具300に、手術器具300の挿入距離を示す目盛りが付されていてよい。手術器具情報処理部165は、この目盛りを電子的に読み取り、手術器具300の挿入距離を取得してよい。この場合、例えばリアルエンコーダ(読取装置)がトロッカーに取り付けられ、手術器具300にはエンコード用のマーカが付されてよい。また、手術器具情報処理部165は、この目盛りをユーザが読んでUI120を介して挿入距離を入力することで、手術器具300の挿入距離を取得してもよい。 The surgical instrument information may include the orientation of the surgical instrument 300 (i.e., the extension direction of the surgical instrument 300, the insertion direction of the surgical instrument 300) and the insertion distance of the surgical instrument 300. The orientation of the surgical instrument 300 here may be the main orientation of the entire surgical instrument 300. The orientation of the surgical instrument 300 may include the direction of inclination of the surgical instrument 300 with respect to the direction of gravity, and may include a clockwise or counterclockwise inclination around the extension direction of the surgical instrument 300 as the center of rotation, that is, the direction of twisting. The insertion distance corresponds to, for example, the distance between the actual port into which the surgical instrument 300 is inserted and the tip position of the surgical instrument 300. For example, the surgical instrument 300 may be provided with a scale indicating the insertion distance of the surgical instrument 300. The surgical instrument information processing unit 165 may electronically read the scale and obtain the insertion distance of the surgical instrument 300. In this case, for example, a real encoder (reading device) may be attached to the trocar, and an encoding marker may be attached to the surgical instrument 300. Additionally, the surgical instrument information processing unit 165 may obtain the insertion distance of the surgical instrument 300 by having the user read the scale and input the insertion distance via the UI 120.

また、手術器具情報処理部165は、角度センサから手術器具300の角度(つまり向き)の情報を取得してよい。角度センサは、例えば手術器具300又はトロッカーに取り付けられてよい。トロッカーの角度は、手術器具300の角度に対応した角度となる。角度センサによる検出値については後述する。手術器具情報処理部165は、角度センサの検出値に基づいて、手術器具300の向きを導出する。 The surgical instrument information processing unit 165 may also obtain information on the angle (i.e. orientation) of the surgical instrument 300 from an angle sensor. The angle sensor may be attached to the surgical instrument 300 or the trocar, for example. The angle of the trocar corresponds to the angle of the surgical instrument 300. The detection value by the angle sensor will be described later. The surgical instrument information processing unit 165 derives the orientation of the surgical instrument 300 based on the detection value of the angle sensor.

また、手術器具情報処理部165は、手術器具300の向きを算出してよい。例えば、手術器具300の向きを、予め定められた向きとして算出してよい。予め定められた向きは、例えば、術式に応じて標準的に考えられるポートから患部にアプローチする方向でよい。また、予め定められた向きは、ユーザが設定した方向であってよい。また、手術器具300の向きを、ポート情報処理部164から取得される仮想ポートから、モデル設定部163から取得されるターゲットへと向かう方向として算出してよい。また、手術器具300の向きを、モデル設定部163から取得されるターゲットの位置の変化に追従して算出してよい。また、手術器具300の向きを、モデル設定部163から取得されるターゲットへと向かう方向に対して、予め定められた角度を変化させたものとして算出してもよい。 The surgical instrument information processing unit 165 may also calculate the orientation of the surgical instrument 300. For example, the orientation of the surgical instrument 300 may be calculated as a predetermined orientation. The predetermined orientation may be, for example, a direction in which the affected area is approached from a port that is considered standard depending on the surgical procedure. The predetermined orientation may also be a direction set by the user. The orientation of the surgical instrument 300 may also be calculated as a direction from a virtual port acquired from the port information processing unit 164 toward a target acquired from the model setting unit 163. The orientation of the surgical instrument 300 may also be calculated following a change in the position of the target acquired from the model setting unit 163. The orientation of the surgical instrument 300 may also be calculated as a change in a predetermined angle with respect to the direction toward the target acquired from the model setting unit 163.

手術器具情報は、内視鏡20の向き(延在方向)及び内視鏡20の挿入距離を含んでよい。手術器具情報は、鉗子30の向き及び鉗子30の挿入距離を含んでよい。 The surgical instrument information may include the orientation (extension direction) of the endoscope 20 and the insertion distance of the endoscope 20. The surgical instrument information may include the orientation of the forceps 30 and the insertion distance of the forceps 30.

手術器具情報処理部165は、手術器具300の先端位置(先端部の位置)と先端向き(先端部の向き)とを導出する。例えば、手術器具情報処理部165は、少なくとも仮想カメラポートの位置と内視鏡20の挿入距離とに基づいて、内視鏡20の先端位置を算出してよい。また、例えば内視鏡20が直線的に延びる形状である場合、仮想カメラポートの位置と内視鏡20の挿入距離と内視鏡20の向きとに基づいて、内視鏡20の先端位置を算出してよい。また、例えば内視鏡20が非直線的な形状(例えば折れ曲がる形状、湾曲した形状)を有する場合、仮想カメラポートの位置と内視鏡20の挿入距離と内視鏡20の形状とに基づいて、内視鏡20の先端位置を算出してよい。内視鏡20の形状の情報は、例えばメモリ150に保持されていてもよいし、取得部110を介して外部装置から取得されてもよい。例えば内視鏡20が直線的に延びる形状(例えば硬性内視鏡)である場合、内視鏡20全体の向きを内視鏡20の先端向きとして算出してよい。例えば内視鏡20が非直線的な形状である場合、内視鏡20全体の向きと内視鏡20の形状とに基づいて、内視鏡20の先端向きを算出してよい。 The surgical instrument information processing unit 165 derives the tip position (position of the tip) and tip direction (direction of the tip) of the surgical instrument 300. For example, the surgical instrument information processing unit 165 may calculate the tip position of the endoscope 20 based on at least the position of the virtual camera port and the insertion distance of the endoscope 20. Also, for example, when the endoscope 20 has a shape that extends linearly, the tip position of the endoscope 20 may be calculated based on the position of the virtual camera port, the insertion distance of the endoscope 20, and the direction of the endoscope 20. Also, for example, when the endoscope 20 has a non-linear shape (for example, a bent shape or a curved shape), the tip position of the endoscope 20 may be calculated based on the position of the virtual camera port, the insertion distance of the endoscope 20, and the shape of the endoscope 20. Information on the shape of the endoscope 20 may be stored in, for example, the memory 150, or may be acquired from an external device via the acquisition unit 110. For example, when the endoscope 20 has a shape that extends linearly (for example, a rigid endoscope), the direction of the entire endoscope 20 may be calculated as the tip direction of the endoscope 20. For example, if the endoscope 20 has a non-linear shape, the tip orientation of the endoscope 20 may be calculated based on the overall orientation of the endoscope 20 and the shape of the endoscope 20.

また、手術器具情報処理部165は、少なくとも仮想鉗子ポートの位置と鉗子30の挿入距離とに基づいて、鉗子30の先端位置を算出してよい。また、例えば鉗子30が直線的に延びる形状である場合、仮想鉗子ポートの位置と鉗子30の挿入距離と鉗子30の向きとに基づいて、鉗子30の先端位置を算出してよい。また、例えば鉗子30が非直線的な形状(例えば折れ曲がる形状や湾曲した形状)を有する場合、仮想鉗子ポートの位置と鉗子30の挿入距離と鉗子30の形状とに基づいて、鉗子30の先端位置を算出してよい。鉗子30の形状の情報は、例えばメモリ150に保持されていてもよいし、取得部110を介して外部装置から取得されてもよい。例えば鉗子30が直線的に延びる形状である場合、鉗子30全体の向きを鉗子30の先端向きとして算出してよい。例えば鉗子30が非直線的な形状である場合、鉗子30全体の向きと鉗子30の形状とに基づいて、鉗子30の先端向きを算出してよい。例えば鉗子30が非直線的な形状である場合、鉗子30全体の向きと鉗子30の形状とに基づいて、鉗子30の先端向きを算出してよい。 The surgical instrument information processing unit 165 may calculate the tip position of the forceps 30 based on at least the position of the virtual forceps port and the insertion distance of the forceps 30. For example, when the forceps 30 has a shape that extends linearly, the tip position of the forceps 30 may be calculated based on the position of the virtual forceps port, the insertion distance of the forceps 30, and the orientation of the forceps 30. For example, when the forceps 30 has a non-linear shape (for example, a bent shape or a curved shape), the tip position of the forceps 30 may be calculated based on the position of the virtual forceps port, the insertion distance of the forceps 30, and the shape of the forceps 30. Information on the shape of the forceps 30 may be stored in the memory 150, for example, or may be acquired from an external device via the acquisition unit 110. For example, when the forceps 30 has a shape that extends linearly, the orientation of the forceps 30 as a whole may be calculated as the tip orientation of the forceps 30. For example, if the forceps 30 have a non-linear shape, the tip orientation of the forceps 30 may be calculated based on the overall orientation of the forceps 30 and the shape of the forceps 30. For example, if the forceps 30 have a non-linear shape, the tip orientation of the forceps 30 may be calculated based on the overall orientation of the forceps 30 and the shape of the forceps 30.

画像生成部166は、各種画像を生成する。画像生成部166は、取得されたボリュームデータの少なくとも一部(例えばボリュームデータにおいて抽出された領域)に基づいて、3次元画像や2次元画像を生成する。画像生成部166は、変形処理部162により変形されたボリュームデータ(例えば仮想気腹状態のボリュームデータ)に基づいて、3次元画像や2次元画像を生成してよい。例えば、ボリュームレンダリング画像や、内視鏡20の位置から内視鏡20の向きを見た状態を表現する仮想内視鏡画像を生成してよい。 The image generating unit 166 generates various images. The image generating unit 166 generates three-dimensional images or two-dimensional images based on at least a portion of the acquired volume data (e.g., an area extracted from the volume data). The image generating unit 166 may generate three-dimensional images or two-dimensional images based on volume data (e.g., volume data in a virtual pneumoperitoneum state) deformed by the transformation processing unit 162. For example, the image generating unit 166 may generate a volume rendering image or a virtual endoscopic image that represents the state in which the direction of the endoscope 20 is viewed from the position of the endoscope 20.

表示制御部167は、各種データ、情報、画像をディスプレイ130に表示させる。表示制御部167は、画像生成部166で生成された画像(例えばレンダリング画像)を表示させる。また、表示制御部167は、この画像とともに各種情報を重畳して表示させる。重畳表示される情報は、手術器具300の先端からターゲットまでの距離の情報、手術器具300の挿入距離、等の情報を含んでよい。また、表示制御部167は、レンダリング画像の輝度調整を行ってよい。輝度調整は、例えばウインドウ幅(WW:Window Width)及びウインドウレベル(WL:Window Level)の少なくとも一方の調整を含んでよい。 The display control unit 167 causes various data, information, and images to be displayed on the display 130. The display control unit 167 causes an image (e.g., a rendering image) generated by the image generation unit 166 to be displayed. The display control unit 167 also causes various information to be superimposed and displayed together with this image. The superimposed information may include information on the distance from the tip of the surgical instrument 300 to the target, the insertion distance of the surgical instrument 300, and the like. The display control unit 167 may also adjust the brightness of the rendering image. The brightness adjustment may include, for example, adjustment of at least one of the window width (WW: Window Width) and the window level (WL: Window Level).

図3は、ターゲット40を含む臓器と、ターゲット40に対する処置に用いる手術器具300と、手術器具300が挿入されるポートPTと、の位置関係の一例を示す図である。図3では、手術器具300は、内視鏡20及び鉗子30を含む。ポートPTとして、仮想ポートと実ポートが想定される。ポートPTの実ポートは、ポートPTの仮想ポートに対して穿孔されたポートである。ポートPT、カメラポートPT1及び鉗子ポートPT2を含む。図3では、被検体は気腹されている。図3では、臓器は肝臓10である。肝臓10には、手術対象となるターゲット40が含まれる。図3では、肝臓10周辺の骨15(例えば背骨、肋骨)も示されている。 Figure 3 is a diagram showing an example of the positional relationship between an organ including a target 40, a surgical instrument 300 used to treat the target 40, and a port PT into which the surgical instrument 300 is inserted. In Figure 3, the surgical instrument 300 includes an endoscope 20 and forceps 30. A virtual port and a real port are assumed as the port PT. The real port of the port PT is a port that is drilled relative to the virtual port of the port PT. It includes the port PT, a camera port PT1, and a forceps port PT2. In Figure 3, the subject is insufflated. In Figure 3, the organ is a liver 10. The liver 10 includes a target 40 that is the subject of surgery. In Figure 3, bones 15 (e.g., spine, ribs) around the liver 10 are also shown.

仮想気腹状態の被検体の体表70には、カメラポートPT1の仮想ポートが設定される。気腹された体表70には、カメラポートPT1の仮想ポートに対応する実ポートが設置される。カメラポートPT1の実ポートには、トロッカー60が配置され、被検体の内部が気密に維持される。このトロッカー60には、被検体の内部に向かって内視鏡20が挿通される。内視鏡20は、カメラポートPT1の実ポートの位置を基点として操作可能である。内視鏡20の先端部にはイメージセンサが配置され、イメージセンサにより撮像可能である。カメラポートPT1の実ポートから内視鏡20の先端部までの距離が、内視鏡20の挿入距離ID1となる。 A virtual port of camera port PT1 is set on the body surface 70 of the subject in a virtual pneumoperitoneum state. A real port corresponding to the virtual port of camera port PT1 is placed on the insufflated body surface 70. A trocar 60 is placed in the real port of camera port PT1 to keep the inside of the subject airtight. An endoscope 20 is inserted into the trocar 60 toward the inside of the subject. The endoscope 20 can be operated with the position of the real port of camera port PT1 as the base point. An image sensor is placed at the tip of the endoscope 20, and an image can be captured by the image sensor. The distance from the real port of camera port PT1 to the tip of the endoscope 20 is the insertion distance ID1 of the endoscope 20.

また、仮想気腹状態の被検体の体表70には、鉗子ポートPT2の仮想ポートが設定される。気腹された体表70には、鉗子ポートPT2の仮想ポートに対応する実ポートが設置される。鉗子ポートPT2の実ポートには、トロッカー60が配置され、被検体の内部が気密に維持される。このトロッカー60には、被検体の内部に向かって鉗子30が挿通される。鉗子30は、鉗子ポートPT2の実ポートの位置を基点として操作可能である。鉗子ポートPT2の実ポートから鉗子30の先端部までの距離が、鉗子30の挿入距離ID2となる。 In addition, a virtual port of the forceps port PT2 is set on the body surface 70 of the subject in a virtual pneumoperitoneum state. A real port corresponding to the virtual port of the forceps port PT2 is placed on the insufflated body surface 70. A trocar 60 is placed on the real port of the forceps port PT2 to keep the inside of the subject airtight. The forceps 30 is inserted into this trocar 60 toward the inside of the subject. The forceps 30 can be operated with the position of the real port of the forceps port PT2 as the base point. The distance from the real port of the forceps port PT2 to the tip of the forceps 30 is the insertion distance ID2 of the forceps 30.

鉗子30は、例えばターゲット40に向かって被検体の内部に進行し、ターゲット40に対する各種処置(例えば、把持、切除、剥離、縫合)に用いられる。内視鏡20は、例えばターゲット40や鉗子30が撮像範囲23に含まれるように操作される。よって、医用画像処理装置100は、内視鏡20による内視鏡画像に対応する画像を可視化することで、鉗子30によるターゲット40の処置を視認可能とし、例えば術者が鉗子30とターゲット40との位置関係を確認しながら鏡視下手術を行うことを支援できる。 The forceps 30, for example, advances toward the target 40 and into the subject's body, and is used for various treatments (e.g., grasping, resection, dissection, suturing) on the target 40. The endoscope 20 is operated, for example, so that the target 40 and the forceps 30 are included in the imaging range 23. Thus, the medical image processing device 100 visualizes an image corresponding to the endoscopic image from the endoscope 20, making it possible to visually confirm the treatment of the target 40 by the forceps 30, and can assist, for example, the surgeon in performing endoscopic surgery while checking the positional relationship between the forceps 30 and the target 40.

また、図3では、被検体を基準とした被検体座標系(患者座標系)のx方向、y方向、及びz方向も示されている。被検体座標系は、直交座標系である。x方向は、被検体を基準とした左右方向に沿ってよい。y方向は、被検体を基準とした前後方向(被検体の厚み方向)でよい。z方向は、被検体を基準とした上下方向(被検体の体軸方向)でよい。x方向、y方向、z方向は、DICOM(Digital Imaging and COmmunications in Medicine)で規定された3方向でよい。例えば、被検体の3Dデータや被検体の内部の領域や仮想ポートの位置等には、被検体座標系の値が用いられる。 Figure 3 also shows the x, y, and z directions of the subject coordinate system (patient coordinate system) based on the subject. The subject coordinate system is a Cartesian coordinate system. The x direction may be along the left-right direction based on the subject. The y direction may be the front-back direction based on the subject (thickness direction of the subject). The z direction may be the up-down direction based on the subject (body axis direction of the subject). The x, y, and z directions may be the three directions defined by DICOM (Digital Imaging and COmmunications in Medicine). For example, values of the subject coordinate system are used for 3D data of the subject, internal regions of the subject, positions of virtual ports, etc.

図4は、ポートPTを基準としたポート座標系の一例を示す図である。ポート座標系は、球面座標系(極座標系)で示され、動径r、第1角度θ、及び第2角度φが示されている。ポート座標系の原点は、ポートPTの位置となる。動径rは、内視鏡20の延在方向に平行である。第1角度θは、所定の軸(例えば被検体座標系のy軸)と動径rとの成す角度である。第2角度φは、所定の軸に垂直な平面にある別の軸(例えば被検体座標系のz軸)とこの平面への動径rの射影とが成す角度である。内視鏡20の延在方向は、内視鏡画像(実内視鏡画像)及び仮想内視鏡画像の奥行方向となる。 Figure 4 is a diagram showing an example of a port coordinate system based on the port PT. The port coordinate system is shown in a spherical coordinate system (polar coordinate system), and a radius vector r, a first angle θ, and a second angle φ are shown. The origin of the port coordinate system is the position of the port PT. The radius vector r is parallel to the extension direction of the endoscope 20. The first angle θ is the angle between a specific axis (e.g., the y-axis of the subject coordinate system) and the radius vector r. The second angle φ is the angle between another axis (e.g., the z-axis of the subject coordinate system) on a plane perpendicular to the specific axis and the projection of the radius vector r onto this plane. The extension direction of the endoscope 20 is the depth direction of the endoscopic image (real endoscopic image) and the virtual endoscopic image.

例えば、ポート位置を基準とした手術器具300の挿入距離や向きは、ポート座標系の値が用いられる。手術器具300の挿入距離は、動径rの座標として示されてよい。手術器具300の向きは、例えば第1角度θ及び第2角度φの値として検出されてよい。第1角度θ及び第2角度φの値は、角度センサによる検出値であってもよい。また、手術器具情報処理部165は、角度センサによる検出値を基に、第1角度θ及び第2角度φを算出して得てもよい。この場合、例えば、角度センサは、加速度センサであり、重力方向に対して直交する2方向の傾斜角度を検出してもよい。また、角度センサは、3軸角度センサでもよい。 For example, the insertion distance and orientation of the surgical instrument 300 based on the port position are expressed as values in the port coordinate system. The insertion distance of the surgical instrument 300 may be expressed as a coordinate of the radial coordinate r. The orientation of the surgical instrument 300 may be detected, for example, as the values of the first angle θ and the second angle φ. The values of the first angle θ and the second angle φ may be values detected by an angle sensor. Furthermore, the surgical instrument information processing unit 165 may calculate and obtain the first angle θ and the second angle φ based on the values detected by the angle sensor. In this case, for example, the angle sensor may be an acceleration sensor, and may detect the tilt angles in two directions perpendicular to the direction of gravity. Furthermore, the angle sensor may be a three-axis angle sensor.

ポート座標系を用いる手術器具300の挿入距離や向きは、被検体の3Dデータに対する処理に利用される場合、ポート座標系の値から被検体座標系の値に変換する必要がある。ここで、ポート座標系(球面座標系)から被検体座標系(直交座標系)への変換は、被検体座標系から手術室座標系への変換(異なる直交座標系での変換)と比較すると、演算量が少なく、比較的容易に実施できる。なお、手術器具300の向きは、被検体の動き(例えば検査時の患者の身動き、心臓の拍動)が多少存在しても、位置の検出値と比較すると変化が小さく、位置合わせと比較すると角度合わせが容易である。 When the insertion distance and orientation of the surgical instrument 300 using the port coordinate system are used to process 3D data of the subject, it is necessary to convert the values in the port coordinate system to values in the subject coordinate system. Here, conversion from the port coordinate system (spherical coordinate system) to the subject coordinate system (Cartesian coordinate system) requires less calculation and can be performed relatively easily compared to conversion from the subject coordinate system to the operating room coordinate system (conversion in a different Cartesian coordinate system). Note that even if there is some movement of the subject (e.g., the patient's movements during the examination, heartbeat), the change in the orientation of the surgical instrument 300 is smaller than the detected position value, and angle alignment is easier than position alignment.

図5は、内視鏡20の先端位置21と先端向き22と撮像範囲23と鉗子30との位置関係の一例を示す図である。内視鏡20の先端位置21と先端向き22と撮像範囲23は、内視鏡20に関する情報に含まれる。鉗子30の位置は、鉗子30に関する情報に含まれる。内視鏡20の先端向き22は、動径rの方向と一致し、内視鏡20(カメラ)の光軸の方向と一致してよい。内視鏡20の撮像範囲23は、例えば、内視鏡20の先端位置21、内視鏡20の先端向き22、及び内視鏡20の画角に基づいて定まってよい。内視鏡20の撮像範囲23は、仮想内視鏡画像の画像範囲と一致する。 Figure 5 is a diagram showing an example of the positional relationship between the tip position 21, tip direction 22, imaging range 23, and forceps 30 of the endoscope 20. The tip position 21, tip direction 22, and imaging range 23 of the endoscope 20 are included in the information about the endoscope 20. The position of the forceps 30 is included in the information about the forceps 30. The tip direction 22 of the endoscope 20 coincides with the direction of the radius vector r, and may coincide with the direction of the optical axis of the endoscope 20 (camera). The imaging range 23 of the endoscope 20 may be determined based on, for example, the tip position 21, tip direction 22, and angle of view of the endoscope 20. The imaging range 23 of the endoscope 20 coincides with the image range of the virtual endoscopic image.

なお、内視鏡20の先端位置21は、被検体を観察するための術者の視点とも言える。内視鏡20の先端向き22は、視点を起点とした術者の視線の向きとも言える。内視鏡20の画角は、視点を基点とした術者の視野角とも言える。内視鏡20の撮像範囲23は、術者の視野とも言える。 The tip position 21 of the endoscope 20 can also be considered as the surgeon's viewpoint for observing the subject. The tip direction 22 of the endoscope 20 can also be considered as the direction of the surgeon's line of sight starting from the viewpoint. The field of view of the endoscope 20 can also be considered as the surgeon's field of view starting from the viewpoint. The imaging range 23 of the endoscope 20 can also be considered as the surgeon's field of view.

図6は、ボリュームレンダリング画像G1と各種情報とを重畳表示した表示例を示す図である。なお、図6に表示される表示対象は、仮想的な情報であり、例えば、ポートPTとして仮想ポート、鉗子30として仮想鉗子、内視鏡20として仮想内視鏡、が表示される。 Figure 6 is a diagram showing a display example in which a volume rendering image G1 and various information are superimposed. Note that the display object shown in Figure 6 is virtual information, and for example, a virtual port is displayed as the port PT, virtual forceps is displayed as the forceps 30, and a virtual endoscope is displayed as the endoscope 20.

ボリュームレンダリング画像G1では、被検体の一部が可視化されている。図6では、ボリュームレンダリング画像G1ともに各種情報が表示される。この各種情報は、内視鏡20に関する情報、鉗子30に関する情報、カメラポートPT1の仮想ポートの情報、鉗子ポートPT2の仮想ポートの情報、ターゲット40の情報、各種距離情報、等を含んでよい。なお、各種情報の一部の表示が省略されてもよい。 In the volume rendering image G1, a portion of the subject is visualized. In FIG. 6, various information is displayed together with the volume rendering image G1. This various information may include information about the endoscope 20, information about the forceps 30, information about the virtual port of the camera port PT1, information about the virtual port of the forceps port PT2, information about the target 40, various distance information, and the like. Note that the display of some of the various information may be omitted.

内視鏡20に関する情報は、内視鏡20の位置、向き、撮像範囲、大きさ、形状、等の情報を含んでよい。鉗子30に関する情報は、鉗子30の位置、向き、大きさ、形状、等の情報を含んでよい。図6では、内視鏡20及び鉗子30は、単純化して直線で示されているが、これに限られず、内視鏡20及び鉗子30の向き、大きさ、形状、等に基づいて示されてもよい。 The information about the endoscope 20 may include information about the position, orientation, imaging range, size, shape, etc. of the endoscope 20. The information about the forceps 30 may include information about the position, orientation, size, shape, etc. of the forceps 30. In FIG. 6, the endoscope 20 and the forceps 30 are shown as straight lines for simplification, but are not limited to this and may be shown based on the orientation, size, shape, etc. of the endoscope 20 and the forceps 30.

カメラポートPT1の仮想ポートの情報は、カメラポートPT1の仮想ポートの位置、大きさ、形状、等の情報を含んでよい。鉗子ポートPT2の仮想ポートの情報は、カメラポートPT1の仮想ポートの位置、大きさ、形状、等の情報を含んでよい。ターゲット40の情報は、ターゲット40の位置、大きさ、形状、等の情報を含んでよい。図6では、ターゲットは単純化して〇で示されているが、これに限られず、ターゲット40の向き、大きさ、形状、等に基づいて示されてもよい。 The virtual port information of the camera port PT1 may include information such as the position, size, shape, etc. of the virtual port of the camera port PT1. The virtual port information of the forceps port PT2 may include information such as the position, size, shape, etc. of the virtual port of the camera port PT1. The target 40 information may include information such as the position, size, shape, etc. of the target 40. In FIG. 6, the target is simplified and shown as a circle, but is not limited to this and may be shown based on the orientation, size, shape, etc. of the target 40.

各種距離情報は、内視鏡20の挿入距離ID1の情報、鉗子30の挿入距離ID2の情報、鉗子30の先端部からターゲット40までの距離d1の情報、等を含んでよい。距離d1は、例えば、鉗子30の向きに基づいて、鉗子30の先端位置とターゲット40の位置との差により算出可能である。 The various distance information may include information on the insertion distance ID1 of the endoscope 20, information on the insertion distance ID2 of the forceps 30, information on the distance d1 from the tip of the forceps 30 to the target 40, etc. The distance d1 can be calculated, for example, based on the orientation of the forceps 30, from the difference between the position of the tip of the forceps 30 and the position of the target 40.

図7は、仮想内視鏡画像G2と各種情報とを重畳表示した表示例を示す図である。図7の説明では、図6で説明した事項と同様の事項については、その説明を省略又は簡略化する。 Figure 7 shows an example of a display in which a virtual endoscopic image G2 and various information are superimposed. In the explanation of Figure 7, the explanation of matters similar to those explained in Figure 6 will be omitted or simplified.

図7の仮想内視鏡画像G2では、被検体の一部が可視化されている。図7では、仮想内視鏡画像G2ともに各種情報が表示される。この各種情報は、この各種情報は、1つ以上の鉗子30(例えば鉗子31及び鉗子32)に関する情報、ターゲット40の情報、各種距離情報、等を含んでよい。なお、各種情報の一部の表示が省略されてもよい。 In the virtual endoscopic image G2 in FIG. 7, a portion of the subject is visualized. In FIG. 7, various information is displayed together with the virtual endoscopic image G2. This various information may include information about one or more forceps 30 (e.g., forceps 31 and forceps 32), information about the target 40, various distance information, and the like. Note that display of some of the various information may be omitted.

各種距離情報は、内視鏡20の挿入距離ID1、鉗子31の挿入距離ID21の情報、鉗子32の挿入距離ID22の情報、鉗子31の先端部(先端位置)からターゲット40までの距離d11の情報、鉗子32の先端部からターゲット40までの距離d1の情報、等を含んでよい。なお、距離情報として、鉗子30の先端部からターゲット40までの距離の情報の代わりに、ポートPTの仮想ポートからターゲット40までの距離の情報や、ポートPTの仮想ポートからターゲット40までの距離から鉗子30の挿入距離ID2を減算した距離の情報が含まれ、表示されてもよい。 The various distance information may include the insertion distance ID1 of the endoscope 20, the insertion distance ID21 of the forceps 31, the insertion distance ID22 of the forceps 32, the distance d11 from the tip (tip position) of the forceps 31 to the target 40, the distance d1 from the tip of the forceps 32 to the target 40, etc. Note that, instead of the information on the distance from the tip of the forceps 30 to the target 40, the distance information may include and display information on the distance from the virtual port of port PT to the target 40, or information on the distance obtained by subtracting the insertion distance ID2 of the forceps 30 from the distance from the virtual port of port PT to the target 40.

図6及び図7の表示例によれば、術者は、2次元の画像の確認では認識し難い画像の奥行方向を加味した距離を容易に確認できる。例えば、術者は、ターゲット40までの距離があと何mである等の情報を確認できる。 The display examples in Figures 6 and 7 allow the surgeon to easily confirm the distance taking into account the depth direction of the image, which is difficult to recognize when checking a two-dimensional image. For example, the surgeon can confirm information such as the remaining distance to the target 40 in meters.

図8は、医用画像処理装置100の動作例を示すフローチャートである。なお、S11~S15は、例えば術前に実施され、S16~S20は、例えば術中に実施される。 Figure 8 is a flowchart showing an example of the operation of the medical image processing device 100. Note that steps S11 to S15 are performed, for example, before surgery, and steps S16 to S20 are performed, for example, during surgery.

まず、被検体(例えば患者)のボリュームデータを取得する(S11)。気腹シミュレーションを実行する(S12)。臓器、骨、及び血管の領域を抽出するセグメンテーションを実行する(S13)。ボリュームデータに基づいて、モデル(例えば肝臓の臓器モデル)を生成する(S14)。ポート位置シミュレーション、ポート位置スコア算出、ポート位置調整、等を行い、仮想ポートとしての鉗子ポートPT2、仮想ポートとしてのカメラポートPT1、及びターゲット40の情報(例えば位置情報)を取得する(S15)。 First, volume data of the subject (e.g., a patient) is acquired (S11). A pneumoperitoneum simulation is performed (S12). Segmentation is performed to extract regions of organs, bones, and blood vessels (S13). A model (e.g., a liver organ model) is generated based on the volume data (S14). Port position simulation, port position score calculation, port position adjustment, etc. are performed to acquire information (e.g., position information) of the forceps port PT2 as a virtual port, the camera port PT1 as a virtual port, and the target 40 (S15).

UI120を介して、鉗子30の操作情報及び内視鏡20の操作情報を取得する(S16)。内視鏡20の向き及び挿入距離ID1を取得する(S17)。鉗子30の向き及び挿入距離ID2を取得する(S17)。内視鏡20の先端位置及び先端向きを取得する(S18)。鉗子30の先端位置及び先端向きを取得する(S18)。S12の処理により得られた仮想気腹状態のボリュームデータをレンダリングし、ボリュームレンダリング画像G1を生成する(S19)。ボリュームレンダリング画像G1とともに、各種情報を表示させる(S19)。この各種情報は、図6に示した各種情報、内視鏡20を示す情報、鉗子30を示す情報、内視鏡20の先端位置及び先端向き、鉗子30の先端位置及び先端向き、等を含んでよい。また、S12の処理により仮想気腹状態のボリュームデータを基に、仮想内視鏡画像G2を生成する(S20)。仮想内視鏡画像G2とともに、各種情報を表示させる(S20)。この各種情報は、図7に示した各種情報、鉗子30を示す情報、鉗子30の先端位置及び先端向き、等を含んでよい。 Through the UI 120, operation information of the forceps 30 and operation information of the endoscope 20 are acquired (S16). The direction and insertion distance ID1 of the endoscope 20 are acquired (S17). The direction and insertion distance ID2 of the forceps 30 are acquired (S17). The tip position and tip direction of the endoscope 20 are acquired (S18). The tip position and tip direction of the forceps 30 are acquired (S18). The volume data of the virtual pneumoperitoneum state obtained by the processing of S12 is rendered to generate a volume rendering image G1 (S19). Various information is displayed together with the volume rendering image G1 (S19). This various information may include the various information shown in FIG. 6, information indicating the endoscope 20, information indicating the forceps 30, the tip position and tip direction of the endoscope 20, the tip position and tip direction of the forceps 30, etc. In addition, a virtual endoscopic image G2 is generated based on the volume data of the virtual pneumoperitoneum state by the processing of S12 (S20). Various information is displayed together with the virtual endoscopic image G2 (S20). This various information may include the various information shown in FIG. 7, information indicating the forceps 30, the tip position and tip direction of the forceps 30, etc.

なお、処理部160は、S20における表示後に、S16に進み、S16~S20を反復して実行してよい。これにより、術者は、術中における内視鏡20及び鉗子30を処置に応じて適宜操作して動かしながら、この動きに合わせた画像(例えばボリュームレンダリング画像G1、仮想内視鏡画像G2)を確認できる。 After displaying S20, the processing unit 160 may proceed to S16 and repeatedly execute S16 to S20. This allows the surgeon to move the endoscope 20 and forceps 30 during surgery as appropriate according to the treatment, while checking images that correspond to this movement (e.g., volume rendering image G1, virtual endoscopic image G2).

なお、S13における臓器セグメンテーション、骨セグメンテーション、及び血管セグメンテーションの精度は、高精度でなくてもよい。例えば臓器や骨や血管の輪郭に多少の誤差があっても、術中シミュレーションへの支障が少なければ足りるためである。 The accuracy of the organ segmentation, bone segmentation, and blood vessel segmentation in S13 does not need to be high. For example, some errors in the contours of organs, bones, and blood vessels are sufficient as long as they do not interfere with the intraoperative simulation.

このように、医用画像処理装置100は、3次元位置センサを用いなくても、設定された仮想ポートの位置や手術器具300の挿入距離ID、等の情報に基づいて、手術器具300の先端位置とターゲット40との距離を導出できる。よって、術者は、2次元の内視鏡画像では奥行き感が把握し難いが、手術器具300の先端位置とターゲット40との位置関係を把握し易くなる。よって、例えば、ターゲット40にどの程度近づいているかを把握できる。また、術者は、このような画像による手術支援により、術者の処置が正しいことを確信できる。 In this way, the medical image processing device 100 can derive the distance between the tip position of the surgical instrument 300 and the target 40 based on information such as the position of the set virtual port and the insertion distance ID of the surgical instrument 300, without using a three-dimensional position sensor. Therefore, although it is difficult for the surgeon to grasp the sense of depth in a two-dimensional endoscopic image, it becomes easier for the surgeon to grasp the positional relationship between the tip position of the surgical instrument 300 and the target 40. Therefore, for example, it is possible to grasp how close the surgeon is to the target 40. Furthermore, the surgeon can be confident that his or her procedure is correct thanks to the surgical assistance provided by such images.

したがって、医用画像処理装置100は、手術ナビゲーションにおいて、外部カメラによる手術室座標系や3次元位置センサによるセンサ座標系と、被検体を基準とした被検体座標系との位置合わせが不要となり、演算量を低減できる。 Therefore, in surgical navigation, the medical image processing device 100 eliminates the need to align the operating room coordinate system based on an external camera or the sensor coordinate system based on a three-dimensional position sensor with the subject coordinate system based on the subject, thereby reducing the amount of calculations.

また、実ポートの3次元位置の計測を省略しても、例えば、臓器の変形の大きい腹部や肺部では3次元位置が取得されても移動するため、厳密な3次元座標の重要性が低く、手術ナビゲーションへの影響は小さい。また、3次元位置センサによる3次元座標を基にした情報よりも、3Dデータを可視化した画像における2次元位置の方が、術者が、直感的に手術器具300とターゲット40等との位置関係を把握し易い。仮想内視鏡画像G2は、内視鏡20の位置を基準とした画像であり、術者が参照する内視鏡画像に近い画像であるためである。 In addition, even if measurement of the 3D position of the actual port is omitted, for example in the abdomen and lungs where organs are greatly deformed, they will move even if their 3D positions are acquired, so the importance of precise 3D coordinates is low and the impact on surgical navigation is small. In addition, the surgeon can more easily intuitively grasp the positional relationship between the surgical instrument 300 and the target 40, etc., from the 2D positions in an image that visualizes 3D data, rather than information based on the 3D coordinates from a 3D position sensor. This is because the virtual endoscopic image G2 is an image based on the position of the endoscope 20, and is an image that is close to the endoscopic image referred to by the surgeon.

このように、医用画像処理装置100は、簡易な仕組みで手術ナビゲーションを実施でき、手術の安全性を向上でき、手術時間を短縮できる。 In this way, the medical image processing device 100 can perform surgical navigation using a simple mechanism, improving surgical safety and shortening surgical time.

次に、仮想ポートの位置の決定例の詳細について説明する。 Next, we will explain in detail an example of how to determine the location of a virtual port.

ポート情報処理部164は、ポート位置シミュレーションを実行する。ポート位置シミュレーションは、ユーザがUI120を操作することで、被検体における所望の手術が可能か否かを判定するためのシミュレーションである。ポート位置シミュレーションでは、ユーザが手術を想定しながら、仮想空間において、各仮想ポートの位置(仮想ポート位置)から挿入された手術器具300を動作させ、鉗子30が手術対象となるターゲット40へアクセス可能か否かを判定してよい。つまり、ポート位置シミュレーションでは、手術器具300を手動で操作しながら、手術器具300がターゲット40へ問題なくアクセス可能か否かが判定されてよい。ポート情報処理部164は、ポート位置シミュレーションにより仮想ポート位置の計画情報を得てよい。 The port information processing unit 164 executes a port position simulation. The port position simulation is a simulation for determining whether or not a desired surgery is possible on a subject by a user operating the UI 120. In the port position simulation, the user may operate the surgical instrument 300 inserted from the position of each virtual port (virtual port position) in a virtual space while imagining the surgery, and determine whether or not the forceps 30 can access the target 40 that is to be the surgical subject. In other words, in the port position simulation, while manually operating the surgical instrument 300, it may be determined whether or not the surgical instrument 300 can access the target 40 without any problems. The port information processing unit 164 may obtain planning information for the virtual port positions by the port position simulation.

ポート位置シミュレーションでは、被検体のボリュームデータ、取得された複数の仮想ポート位置の組み合わせ、手術器具300が可能な動作に関する可動情報(例えば動作可能な位置や範囲)、術式、仮想気腹状態のボリュームデータ、等に基づいて、上記のアクセスが可能か否かが判定されてよい。手術器具300の可動情報は、手術器具300の形状に関する形状情報や動作に関する動作情報を含んでよい。この形状情報は、手術器具300の長さ、重さ、形状等の少なくとも一部の情報を含んでよい。この動作情報は、手術器具300の被検体の内部への挿入可能距離、被検体に対する挿入可能角度、等の少なくとも一部の情報を含んでよい。ロボット手術の場合、手術器具300の可動情報は、エンドエフェクタのキネマティクスに相当してよい。ポート情報処理部164は、手術器具300の可動情報を、メモリ150から取得してもよいし、取得部110を介して外部装置から取得してもよい。ポート情報処理部164は、術式の情報を、メモリ150から取得してもよいし、取得部110を介して外部装置から取得してもよい。 In the port position simulation, whether the above access is possible may be determined based on the subject's volume data, a combination of the acquired multiple virtual port positions, movement information regarding the possible operations of the surgical instrument 300 (e.g., the position and range in which it can be operated), the surgical procedure, the volume data of the virtual pneumoperitoneum state, and the like. The movement information of the surgical instrument 300 may include shape information regarding the shape of the surgical instrument 300 and movement information regarding the operation. This shape information may include at least some information such as the length, weight, and shape of the surgical instrument 300. This movement information may include at least some information such as the insertable distance of the surgical instrument 300 into the subject, the insertable angle with respect to the subject, and the like. In the case of robotic surgery, the movement information of the surgical instrument 300 may correspond to the kinematics of the end effector. The port information processing unit 164 may acquire the movement information of the surgical instrument 300 from the memory 150, or may acquire it from an external device via the acquisition unit 110. The port information processing unit 164 may acquire the surgical procedure information from the memory 150, or may acquire it from an external device via the acquisition unit 110.

ポート情報処理部164は、被検体の体表における複数の仮想ポート位置を変えながら、各仮想ポート位置においてターゲット40にアクセス可能か否かを判定してよく、順次ポート位置シミュレーションを行ってよい。ポート情報処理部164は、最終的に好ましい(例えば最適な)ポート位置の組み合わせの情報を、UI120を介してユーザ入力に応じて指定してよい。これにより、ポート情報処理部164が、複数の仮想ポート位置を計画してよい。 The port information processing unit 164 may determine whether the target 40 is accessible at each virtual port position while changing the multiple virtual port positions on the subject's body surface, and may sequentially perform port position simulations. The port information processing unit 164 may specify information on a final preferred (e.g., optimal) combination of port positions in response to user input via the UI 120. In this way, the port information processing unit 164 may plan multiple virtual port positions.

ポート情報処理部164は、被検体の体表上に設けられる複数の仮想ポート位置を用いて手術する場合の適切度を示すポート位置スコアを算出してよい。つまり、複数の仮想ポート位置の組み合わせに基づくポート位置スコアは、手術を行うための複数の仮想ポート位置の組み合わせの価値を示している。ポート位置スコアは、複数の仮想ポート位置の組み合わせ、手術器具300の可動情報、術式、仮想気腹状態のボリュームデータ、等に基づいて算出されてよい。ポート位置スコアは、仮想ポート位置毎に算出される。 The port information processing unit 164 may calculate a port position score indicating the appropriateness of surgery using multiple virtual port positions provided on the subject's body surface. In other words, the port position score based on a combination of multiple virtual port positions indicates the value of the combination of multiple virtual port positions for performing surgery. The port position score may be calculated based on the combination of multiple virtual port positions, the movement information of the surgical instrument 300, the surgical procedure, volume data of the virtual pneumoperitoneum state, etc. The port position score is calculated for each virtual port position.

ポート情報処理部164は、ポート位置スコアに基づいて、ポート位置を調整してよい。この場合、ポート情報処理部164は、ポート位置の移動に伴うポート位置スコアの変動量に基づいて、ポート位置を調整してよい。 The port information processing unit 164 may adjust the port position based on the port position score. In this case, the port information processing unit 164 may adjust the port position based on the amount of change in the port position score associated with the movement of the port position.

このように、ポート情報処理部164は、ポート位置シミュレーションに従って、複数の仮想ポート位置を算出してよい。また、ポート情報処理部164は、ポート位置スコアに基づいて、複数の仮想ポート位置を算出してよい。 In this way, the port information processing unit 164 may calculate multiple virtual port positions according to the port position simulation. The port information processing unit 164 may also calculate multiple virtual port positions based on the port position score.

図9は、ポート位置シミュレーションの手順の一例を示すフローチャートである。 Figure 9 is a flowchart showing an example of the port position simulation procedure.

まず、ポート情報処理部164は、例えば取得部110を介して、被検体を含むボリュームデータを取得する(S111)。ポート情報処理部164は、例えば取得部110を介して、手術器具300の可動情報を取得する(S112)。変形処理部162は、気腹シミュレーションを実行し(S113)、被検体の仮想気腹状態のボリュームデータを生成する。 First, the port information processing unit 164 acquires volume data including the subject, for example, via the acquisition unit 110 (S111). The port information processing unit 164 acquires movement information of the surgical instrument 300, for example, via the acquisition unit 110 (S112). The deformation processing unit 162 executes a pneumoperitoneum simulation (S113) and generates volume data of the subject in a virtual pneumoperitoneum state.

ポート情報処理部164は、術式の情報を取得する(S114)。ポート情報処理部164は、取得された術式に応じた複数の仮想ポート位置(初期位置)を取得し、設定する(S114)。この場合、ポート情報処理部164は、3次元座標で複数の仮想ポート位置を設定してよい。 The port information processing unit 164 acquires information on the surgical procedure (S114). The port information processing unit 164 acquires and sets multiple virtual port positions (initial positions) according to the acquired surgical procedure (S114). In this case, the port information processing unit 164 may set multiple virtual port positions in three-dimensional coordinates.

ポート情報処理部164は、ターゲット40(ターゲット領域)の位置を設定する(S115)。 The port information processing unit 164 sets the position of the target 40 (target area) (S115).

ポート情報処理部164は、S114で取得された複数の仮想ポート位置とターゲット領域の位置とに基づいて、各仮想ポートから挿入された各鉗子30がターゲット40にアクセス可能か否かを判定する(S116)。各鉗子30がターゲット40にアクセス可能か否かは、ターゲット領域における全ての位置に、各鉗子30が到達可能であるか否かに相当してよい。つまり、鉗子30(必要に応じて複数の鉗子30)によって、取得された術式に従った手術が可能であるか否かを示しており、アクセス可能な場合には、手術が可能であることを示している。 The port information processing unit 164 determines whether each of the forceps 30 inserted from each virtual port can access the target 40 based on the multiple virtual port positions and the position of the target area acquired in S114 (S116). Whether each of the forceps 30 can access the target 40 may correspond to whether each of the forceps 30 can reach all positions in the target area. In other words, it indicates whether surgery according to the acquired surgical procedure is possible using the forceps 30 (multiple forceps 30, if necessary), and if access is possible, it indicates that surgery is possible.

各鉗子30の少なくも1つがターゲット領域の少なくとも一部にアクセス不可能である場合、ポート情報処理部164は、複数の仮想ポートに含まれる少なくとも1つの仮想ポートの位置を、被検体の体表に沿って、移動する(S117)。この場合、ポート情報処理部164は、UI120を介したユーザ入力を基に、仮想ポート位置を移動してよい。移動させる仮想ポートは、少なくとも、ターゲット領域の少なくとも一部にアクセス不能であった鉗子30が挿入された仮想鉗子ポートを含む。仮想ポートの移動後、S116の処理に進む。 If at least one of the forceps 30 cannot access at least a part of the target region, the port information processing unit 164 moves the position of at least one virtual port included in the multiple virtual ports along the body surface of the subject (S117). In this case, the port information processing unit 164 may move the virtual port position based on user input via the UI 120. The virtual port to be moved includes at least the virtual forceps port into which the forceps 30 that was unable to access at least a part of the target region is inserted. After the virtual port is moved, the process proceeds to S116.

各鉗子30がターゲット領域にアクセス可能である場合、処理部160は、図9のポート位置シミュレーションの処理を終了する。 When each forceps 30 is able to access the target area, the processing unit 160 ends the port position simulation process of FIG. 9.

このように、医用画像処理装置100は、ポート位置シミュレーションを実施することで、取得された複数の仮想ポート位置を用いてターゲット領域にアクセス可能であるか否かによって、取得された複数の仮想ポート位置を用いた手術が可能であるか否かを判定できる。複数の仮想ポート位置を用いてターゲット領域にアクセス不能である場合、UI120を介して仮想ポート位置の少なくとも一部を変更して、変更された複数の仮想ポート位置を用いてターゲット領域にアクセス可能であるか否かを再度判定してよい。ポート情報処理部164は、ターゲット領域にアクセス可能である複数の仮想ポート位置の組み合わせを、複数の仮想ポートの位置に設定してよい。このように、医用画像処理装置100は、ユーザ手動で仮想ポート位置を調整し、仮想ポート位置を計画できる。 In this way, the medical image processing apparatus 100 can determine whether surgery can be performed using the acquired multiple virtual port positions, depending on whether the target area is accessible using the acquired multiple virtual port positions by performing a port position simulation. If the target area is inaccessible using the multiple virtual port positions, at least a portion of the virtual port positions may be changed via the UI 120, and whether the target area is accessible using the changed multiple virtual port positions may be determined again. The port information processing unit 164 may set a combination of multiple virtual port positions that are accessible to the target area to the positions of the multiple virtual ports. In this way, the medical image processing apparatus 100 allows the user to manually adjust the virtual port positions and plan the virtual port positions.

なお、ポート位置シミュレーションは、図8のS15の一部の処理として実施されてよい。この場合、図8の処理と重複する処理(例えばS111、S113)を省略可能である。 The port position simulation may be performed as part of the process of S15 in FIG. 8. In this case, processes that overlap with the process of FIG. 8 (e.g., S111, S113) can be omitted.

次に、ポート位置スコアの算出例について説明する。 Next, we will explain an example of how to calculate the port position score.

複数の仮想ポート位置は、例えば術式に従って定められ、被検体の体表上の任意の位置にそれぞれ配置されることが仮定されてよい。よって、複数の仮想ポート位置の組み合わせも、様々な仮想ポート位置の組み合わせが仮定されてよい。1つの仮想ポートから、1つの手術器具300が被検体内に挿入可能である。よって、複数の仮想ポートから、複数の手術器具300が被検体内に挿入可能である。 The multiple virtual port positions may be determined, for example, according to a surgical procedure, and may be assumed to be placed at any position on the subject's body surface. Therefore, various combinations of multiple virtual port positions may be assumed. One surgical instrument 300 can be inserted into the subject from one virtual port. Therefore, multiple surgical instruments 300 can be inserted into the subject from multiple virtual ports.

1つの鉗子30が仮想ポートを介して被検体内において到達可能な範囲が、1つの鉗子30によって作業(処置)が可能なワーキングエリア(個別ワーキングエリアWA1(図11参照))となる。よって、複数の鉗子30による個別ワーキングエリアWA1が重複するエリアが、複数の鉗子30が複数の仮想ポートを介して被検体内において同時に到達可能なワーキングエリア(全体ワーキングエリアWA2(図11参照))となる。術式に従った処置では、所定数(例えば3つ)の鉗子30が同時動作することが必要であるので、所定数の鉗子30が同時に到達可能な全体ワーキングエリアWA2が考慮される。 The range that one forceps 30 can reach within the subject via a virtual port is the working area (individual working area WA1 (see FIG. 11)) in which work (treatment) can be performed by one forceps 30. Therefore, the area where the individual working areas WA1 of multiple forceps 30 overlap is the working area (total working area WA2 (see FIG. 11)) that multiple forceps 30 can reach simultaneously within the subject via multiple virtual ports. In treatment according to a surgical procedure, a predetermined number (e.g., three) of forceps 30 need to operate simultaneously, so the total working area WA2 that the predetermined number of forceps 30 can reach simultaneously is taken into account.

また、鉗子30の可動情報によって鉗子30が到達可能な被検体における位置が異なるので、鉗子30が被検体内に挿入される位置である仮想ポート位置の導出にこの可動情報が加味される。また、術式によって確保すべき全体ワーキングエリアWA2の被検体内における位置が異なるので、全体ワーキングエリアWA2の位置に対応する仮想ポート位置の導出にこの位置が加味される。 In addition, since the positions in the subject that the forceps 30 can reach vary depending on the movement information of the forceps 30, this movement information is taken into account in deriving the virtual port position, which is the position where the forceps 30 is inserted into the subject.In addition, since the position in the subject of the overall working area WA2 that should be secured varies depending on the surgical procedure, this position is taken into account in deriving the virtual port position that corresponds to the position of the overall working area WA2.

ポート情報処理部164は、複数の仮想ポート位置の組み合わせ毎に、ポート位置スコアを算出してよい。ポート情報処理部164は、複数の仮想ポート位置の組み合わせのうち、所定条件を満たすポート位置スコア(例えば最大となるポートスコア)となる仮想ポート位置の組み合わせを計画してよい。つまり、計画された仮想ポート位置の組み合わせに含まれる複数の仮想ポート位置を、穿孔対象の複数のポート位置に計画してよい。 The port information processing unit 164 may calculate a port position score for each combination of multiple virtual port positions. The port information processing unit 164 may plan a combination of virtual port positions that, among the combinations of multiple virtual port positions, results in a port position score that satisfies a specified condition (e.g., the maximum port score). In other words, the multiple virtual port positions included in the planned combination of virtual port positions may be planned as the multiple port positions to be drilled.

なお、ロボット手術の場合、仮想ポート位置と手術支援ロボットの可動部の動作との関係性は、例えば参考非特許文献2,3に記載された関係性を満たしてよい。
(参考非特許文献2):Mitsuhiro Hayashibe, Naoki Suzuki, Makoto Hashizume, Kozo Konishi, Asaki Hattori, “Robotic surgery setup simulation with the integration of inverse-kinematics computation and medical imaging”, computer methods and programs in biomedicine, 2006, P63-P72
(参考非特許文献3)Pal Johan From, “On the Kinematics of Robotic-assisted Minimally Invasive Surgery”, Modeling Identication and Control, Vol.34, No.2, 2013, P69-P82
In the case of robotic surgery, the relationship between the virtual port position and the operation of the movable part of the surgical support robot may satisfy the relationship described in, for example, reference non-patent documents 2 and 3.
(Reference Non-Patent Document 2): Mitsuhiro Hayashibe, Naoki Suzuki, Makoto Hashizume, Kozo Konishi, Asaki Hattori, “Robotic surgery setup simulation with the integration of inverse-kinematics computation and medical imaging”, computer methods and programs in biomedicine, 2006, pp. 63-72
(Reference Non-Patent Document 3) Pal Johan From, “On the Kinematics of Robotic-assisted Minimally Invasive Surgery”, Modeling Identication and Control, Vol. 34, No. 2, 2013, P69-P82

図10は、医用画像処理装置100によるポート位置スコアを算出する場合の動作例を示すフローチャートである。 Figure 10 is a flowchart showing an example of the operation of the medical image processing device 100 when calculating the port position score.

図10の処理前には、図9に示したポート位置シミュレーションのS111~S114と同様に、被検体のボリュームデータの取得、手術器具300の可動情報の取得、気腹シミュレーションの実行、及び術式の情報の取得が事前に行われる。なお、ポート位置スコアの初期値は値0である。ポート位置スコアは、ポート位置の組み合わせの価値を示す評価関数(評価値)である。なお、変数iは、作業の識別情報の一例であり、変数jは、ポートの識別情報の一例である。 Before the processing of FIG. 10, similar to S111 to S114 of the port position simulation shown in FIG. 9, the acquisition of subject volume data, acquisition of movement information of the surgical instrument 300, execution of a pneumoperitoneum simulation, and acquisition of surgical procedure information are performed in advance. Note that the initial value of the port position score is 0. The port position score is an evaluation function (evaluation value) that indicates the value of a combination of port positions. Note that the variable i is an example of task identification information, and the variable j is an example of port identification information.

ポート情報処理部164は、術式に応じて、各手術器具300を用いた作業work_iのリストである作業リストworksを生成する(S121)。作業work_iには、術式に従った手術手順で各鉗子30を用いて作業するための情報が含まれる。作業work_iには、例えば把持、切除、縫合等が含まれてよい。なお、作業には、単一の鉗子30による単独作業、複数の鉗子30による協調作業、が含まれてよい。 The port information processing unit 164 generates a work list works, which is a list of work work_i using each surgical instrument 300 according to the surgical procedure (S121). The work work_i includes information for performing work using each forceps 30 in a surgical procedure according to the surgical procedure. The work work_i may include, for example, grasping, resection, suturing, etc. The work may include a solo work using a single forceps 30 and a collaborative work using multiple forceps 30.

ポート情報処理部164は、術式及び仮想気腹状態のボリュームデータに基づいて、作業リストworksに含まれる作業work_iを行うために最低限必要な領域である最小領域least_region_iを計画する(S122)。最小領域は、被検体における3次元領域で定められてよい。ポート情報処理部164は、最小領域least_region_iのリストである最小領域リストLeast_regionsを生成する(S122)。 The port information processing unit 164 plans a minimum region least_region_i, which is the minimum region required to perform a task work_i included in the task list works, based on the volume data of the surgical procedure and the virtual pneumoperitoneum state (S122). The minimum region may be defined as a three-dimensional region in the subject. The port information processing unit 164 generates a minimum region list Least_regions, which is a list of the minimum regions least_region_i (S122).

ポート情報処理部164は、術式、手術器具300の可動情報、及び仮想気腹状態のボリュームデータに基づいて、作業リストworksに含まれる作業work_iを行うために推奨される領域である推奨領域effective_region_iを計画する(S123)。ポート情報処理部164は、推奨領域effective_region_iのリストである推奨領域リストeffective_regionsを生成する(S123)。推奨領域には、作業を行うための最低限の空間(最小領域)とともに、例えば鉗子30が動作するために推奨される空間が含まれてよい。 The port information processing unit 164 plans a recommended region effective_region_i, which is a region recommended for performing a task work_i included in the task list works, based on the surgical procedure, the movement information of the surgical instrument 300, and the volume data of the virtual pneumoperitoneum state (S123). The port information processing unit 164 generates a recommended region list effective_regions, which is a list of the recommended regions effective_region_i (S123). The recommended region may include a minimum space (minimum region) for performing the task, as well as a space recommended for the operation of the forceps 30, for example.

ポート情報処理部164は、複数の仮想ポート位置port_jのリストであるポート位置リストportsの情報を取得する(S124)。仮想ポート位置は、被検体を基準とした3次元座標(x,y,z)で定められる。ポート情報処理部164は、例えば、UI120を介してユーザ入力を受け付け、ユーザにより指定された1つ以上の仮想ポート位置を含むポート位置リストportsを取得してよい。ポート情報処理部164は、メモリ150にテンプレートとして保持されたポート位置リストportsを取得してもよい。 The port information processing unit 164 acquires information on the port position list ports, which is a list of multiple virtual port positions port_j (S124). The virtual port positions are defined by three-dimensional coordinates (x, y, z) based on the subject. The port information processing unit 164 may, for example, accept user input via the UI 120 and acquire the port position list ports including one or more virtual port positions specified by the user. The port information processing unit 164 may acquire the port position list ports stored as a template in the memory 150.

ポート情報処理部164は、術式、鉗子30の可動情報、仮想気腹状態のボリュームデータ、及び複数の仮想ポート位置に基づいて、各作業work_iについて、各仮想ポート位置port_jを介して各鉗子30が作業可能な領域であるポート作業領域region_iを計画する(S125)。ポート作業領域は、3次元領域で定められてよい。ポート情報処理部164は、ポート作業領域region_iのリストであるポート作業領域リストregionsを生成する(S125)。 The port information processing unit 164 plans a port working area region_i, which is an area in which each forceps 30 can work via each virtual port position port_j, for each work work_i based on the surgical procedure, the movement information of the forceps 30, the volume data of the virtual pneumoperitoneum state, and multiple virtual port positions (S125). The port working area may be defined as a three-dimensional area. The port information processing unit 164 generates a port working area list regions, which is a list of the port working areas region_i (S125).

ポート情報処理部164は、作業work_i毎に、最小領域least_region_iからポート作業領域region_iを引いて、減算領域(減算値)を算出する(S126)。ポート情報処理部164は、減算領域が空領域(減算値が負の値)でないか否かを判定する(S126)減算領域が空領域でないか否かは、最小領域least_region_i内の少なくとも一部に、ポート作業領域region_iに覆われていない領域(仮想ポートを介して鉗子30が到達しない領域)が存在する否かを示している。 For each work work_i, the port information processing unit 164 subtracts the port working area region_i from the minimum area least_region_i to calculate a subtraction area (subtraction value) (S126). The port information processing unit 164 determines whether the subtraction area is not an empty area (the subtraction value is a negative value) (S126). Whether the subtraction area is not an empty area indicates whether there is an area not covered by the port working area region_i (an area that the forceps 30 cannot reach via the virtual port) in at least a part of the minimum area least_region_i.

減算領域が空領域である場合、ポート情報処理部164は、推奨領域effective_region_iとポート作業領域region_iとの積である体積値Volume_iを算出する(S127)。そして、ポート情報処理部164は、作業work_i毎に算出された体積値Volume_iを合計し、合計値Volume_sumを算出する。ポート情報処理部164は、合計値Volume_sumをポート位置スコアに設定する(S127)。 If the subtraction region is an empty region, the port information processing unit 164 calculates a volume value Volume_i, which is the product of the recommended region effective_region_i and the port work region region_i (S127). Then, the port information processing unit 164 sums the volume values Volume_i calculated for each work work_i to calculate a total value Volume_sum. The port information processing unit 164 sets the total value Volume_sum to the port position score (S127).

つまり、減算領域が空領域である場合、最小領域内にポート作業領域に覆われていない領域が存在せず、このポート位置リストports(仮想ポート位置port_jの組み合わせ)が選択されることが好ましいので、このポート位置リストが選択され易くように、ポート位置スコアに作業work_i毎の値が加算される。また、体積値Volume_iを基準にポート位置スコアが計画されることで、最小領域やポート作業領域が大きい程、ポート位置スコアが大きくなり、このポート位置リストportsが選択され易くなる。よって、ポート情報処理部164は、最小領域やポート作業領域が大きく、手術における各処置が容易になる仮想ポート位置の組み合わせを選択し易くできる。 In other words, when the subtraction area is an empty area, it is preferable that there is no area in the minimum area that is not covered by the port working area, and this port position list ports (combination of virtual port positions port_j) is selected, so a value for each work work_i is added to the port position score to make this port position list easier to select. Also, by planning the port position score based on the volume value Volume_i, the larger the minimum area or port working area, the larger the port position score becomes, and this port position list ports becomes easier to select. Therefore, the port information processing unit 164 can easily select a combination of virtual port positions that has a large minimum area or port working area and makes each procedure in the surgery easier.

一方、減算領域が空領域でない場合、ポート情報処理部164は、ポート位置リストportsについてのポート位置スコアを、値0に設定する(S128)。つまり、最小領域内の少なくとも一部にポート作業領域に覆われていない領域が存在し、対象の作業work_iの作業を完結できない可能性があるので、このポート位置リストPostsが選択されることが好ましくない。そのため、ポート情報処理部164は、このポート位置リストPostsが選択されにくくなるように、ポート位置スコアを値0とし、選択候補から除外する。この場合、ポート情報処理部164は、同じポート位置リストportsを用いて他の作業work_iを行う場合に空領域となっても、全体でのポート位置スコアを値0に設定する。 On the other hand, if the subtraction area is not an empty area, the port information processing unit 164 sets the port position score for the port position list ports to a value of 0 (S128). In other words, since there is at least a part of the minimum area that is not covered by the port work area and there is a possibility that the target work work_i cannot be completed, it is undesirable for this port position list Posts to be selected. Therefore, the port information processing unit 164 sets the port position score to a value of 0 so that this port position list Posts is less likely to be selected, and excludes it from the selection candidates. In this case, the port information processing unit 164 sets the overall port position score to a value of 0 even if the area becomes empty when another work work_i is performed using the same port position list ports.

なお、ポート情報処理部164は、全ての作業work_iについて図10の各ステップを繰り返し、全作業work_iを加味したポート位置スコアを算出してよい。 The port information processing unit 164 may repeat the steps in FIG. 10 for all work_i and calculate the port position score taking into account all work_i.

このように、医用画像処理装置100は、ポート位置スコアを導出することで、被検体の体表上に設けられる複数の仮想ポート位置を用いて手術する場合に、仮想ポート位置の組み合わせが、どの程度適切であるかを把握できる。個別ワーキングエリアWA1や全体ワーキングエリアWA2は、複数の仮想ポートの配置位置によって左右される。この場合でも、医用画像処理装置100は、複数の仮想ポート位置の組み合わせ毎のスコア(ポート位置スコア)を加味することで、例えばポート位置スコアが閾値th1以上(例えば最大)となる複数の仮想ポート位置の組み合わせを導出でき、手術を実施し易い仮想ポート位置を設定できる。 In this way, by deriving the port position score, the medical image processing device 100 can grasp how appropriate a combination of virtual port positions is when performing surgery using multiple virtual port positions placed on the subject's body surface. The individual working area WA1 and the overall working area WA2 are determined by the placement positions of the multiple virtual ports. Even in this case, the medical image processing device 100 can derive a combination of multiple virtual port positions that results in a port position score equal to or greater than a threshold value th1 (e.g., the maximum) by taking into account the score (port position score) for each combination of multiple virtual port positions, and can set a virtual port position that makes it easy to perform surgery.

また、ポート位置スコアに基づいてワーキングエリアが適切に確保されることで、ユーザは、手術において直接目視できない被検体内での視野を広く確保でき、ポート作業領域を広く確保でき、不測の事態に対処し易くなる。 In addition, by appropriately securing the working area based on the port position score, the user can secure a wide field of view inside the subject that cannot be directly observed during surgery, and a wide port working area can be secured, making it easier to deal with unforeseen circumstances.

また、鏡視下手術では、仮想ポートに対応して穿孔される実ポートの位置は不変であるが、実ポートに挿入される鉗子30は所定範囲で移動可能である。そのため、鏡視下手術では、計画される仮想ポート位置によって手術における各処置の難易度が変化するので、仮想ポート位置の計画は重要である。 In addition, in laparoscopic surgery, the position of the real port that is drilled in correspondence with the virtual port remains unchanged, but the forceps 30 inserted into the real port can be moved within a certain range. Therefore, in laparoscopic surgery, the difficulty of each procedure in the surgery changes depending on the planned virtual port position, so planning the virtual port position is important.

図11は、仮想ポート位置を基に定められるワーキングエリアの一例を示す図である。個別ワーキングエリアWA1は、各仮想ポート位置port_jに対応する個別のワーキングエリアである。個別ワーキングエリアWA1は、個別のエンドエフェクタが到達可能な被検体PS内の領域でよい。各個別ワーキングエリアWA1が重複するエリアが、全体ワーキングエリアWA2である。全体ワーキングエリアWA2は、ポート作業領域region_iに相当してよい。医用画像処理装置100は、ポート位置スコアを用いることで、各仮想ポート位置を最適化でき、好適な個別ワーキングエリアWA1及び全体ワーキングエリアWA2を導出できる。 Figure 11 is a diagram showing an example of a working area determined based on a virtual port position. An individual working area WA1 is an individual working area corresponding to each virtual port position port_j. An individual working area WA1 may be an area within the subject PS that an individual end effector can reach. An area where each individual working area WA1 overlaps is a total working area WA2. The total working area WA2 may correspond to the port working area region_i. By using the port position score, the medical image processing apparatus 100 can optimize each virtual port position and derive suitable individual working area WA1 and total working area WA2.

次に、ポート位置調整の詳細について説明する。 Next, we will explain the details of port position adjustment.

ポート情報処理部164は、例えばメモリ150に保持されたテンプレートやUI120を介したユーザ指示を基に、複数の仮想ポート位置(候補位置)の情報を取得する。ポート情報処理部164は、取得された複数の仮想ポート位置の組み合わせに基づいて、この複数の仮想ポート位置を用いた場合のポート位置スコアを算出する。 The port information processing unit 164 acquires information on multiple virtual port positions (candidate positions) based on, for example, a template stored in the memory 150 or a user instruction via the UI 120. The port information processing unit 164 calculates a port position score when multiple virtual port positions are used based on a combination of the acquired multiple virtual port positions.

ポート情報処理部164は、ポート位置スコアに基づいて、仮想ポートの位置を調整してよい。この場合、ポート情報処理部164は、取得された複数の仮想ポート位置の場合のポート位置スコアと、この複数の仮想ポート位置のうちの少なくとも1つの仮想ポート位置を変更した場合のポート位置スコアと、に基づいて、仮想ポート位置を調整してよい。この場合、ポート情報処理部164は、3次元空間での各方向(x方向、y方向、z方向)に沿ったポート位置の微小移動や微分を加味してよい。 The port information processing unit 164 may adjust the position of the virtual port based on the port position score. In this case, the port information processing unit 164 may adjust the virtual port position based on the port position score for the multiple virtual port positions acquired and the port position score when at least one of the multiple virtual port positions is changed. In this case, the port information processing unit 164 may take into account minute movements and differentiation of the port position along each direction (x direction, y direction, z direction) in three-dimensional space.

例えば、ポート情報処理部164は、(式1)に従って、複数の仮想ポート位置に対して、ポート位置スコアF(ports)を算出し、Fの微分値F’を算出してよい。 For example, the port information processing unit 164 may calculate a port position score F(ports) for multiple virtual port positions according to (Equation 1) and calculate a differential value F' of F.

F(port_j(x+Δx, y, z)) - F(port_j(x, y, z))
F(port_j(x, y+Δy, z)) - F(port_j(x, y, z)) ・・・(式1)
F(port_j(x, y, z+Δz)) - F((port_j(x, y, z))
F(port_j(x+Δx, y, z)) - F(port_j(x, y, z))
F(port_j(x, y+Δy, z)) - F(port_j(x, y, z)) ... (Equation 1)
F(port_j(x, y, z+Δz)) - F((port_j(x, y, z))

つまり、ポート情報処理部164は、仮想ポート位置F(port_j(x+Δx, y, z))の場合のポート位置スコアFを算出し、仮想ポート位置F(port_j(x, y, z))の場合のポート位置スコアFを算出し、その差分を算出する。この差分値は、仮想ポート位置F(port_j(x, y, z))におけるx方向の微小変化に対するポート位置スコアFの変化を示し、つまり、x方向のFの微分値F’を示す。 In other words, the port information processing unit 164 calculates the port position score F for the virtual port position F(port_j(x+Δx, y, z)), calculates the port position score F for the virtual port position F(port_j(x, y, z)), and calculates the difference between them. This difference value indicates the change in the port position score F for a small change in the x direction at the virtual port position F(port_j(x, y, z)), that is, it indicates the differential value F' of F in the x direction.

また、ポート情報処理部164は、仮想ポート位置F(port_j(x, y+Δy, z))の場合のポート位置スコアFを算出し、仮想ポート位置F(port_j(x, y, z))の場合のポート位置スコアFを算出し、その差分を算出する。この差分値は、仮想ポート位置F(port_j(x, y, z))におけるy方向の微小変化に対するポート位置スコアFの変化を示し、つまり、y方向のFの微分値F’を示す。 The port information processing unit 164 also calculates the port position score F for the virtual port position F(port_j(x, y+Δy, z)), calculates the port position score F for the virtual port position F(port_j(x, y, z)), and calculates the difference between them. This difference value indicates the change in the port position score F for a small change in the y direction at the virtual port position F(port_j(x, y, z)), that is, indicates the differential value F' of F in the y direction.

また、ポート情報処理部164は、仮想ポート位置F(port_j(x, y, z+Δz))の場合のポート位置スコアFを算出し、仮想ポート位置F(port_j(x, y, z))の場合のポート位置スコアFを算出し、その差分を算出する。この差分値は、仮想ポート位置F(port_j(x, y, z))におけるz方向の微小変化に対するポート位置スコアFの変化を示し、つまり、z方向のFの微分値F’を示す。 The port information processing unit 164 also calculates the port position score F for the virtual port position F(port_j(x, y, z+Δz)), calculates the port position score F for the virtual port position F(port_j(x, y, z)), and calculates the difference between them. This difference value indicates the change in the port position score F for a small change in the z direction at the virtual port position F(port_j(x, y, z)), that is, indicates the differential value F' of F in the z direction.

ポート情報処理部164は、各方向の微分値F’に基づいて、ポート位置スコアの最大値を算出する。この場合、ポート情報処理部164は、微分値F’に基づいて、最急降下法に従ってポート位置スコアが最大となる仮想ポート位置を算出してよい。ポート情報処理部164は、算出された仮想ポート位置を穿孔対象のポート位置とするように、仮想ポート位置を調整し、仮想ポート位置を最適化してよい。なお、ポート位置スコアが最大となる仮想ポート位置でなくても、例えばポート位置スコアが閾値th2以上となる位置でもよく、ポート位置スコアが改善されれば(高くなれば)よい。 The port information processing unit 164 calculates the maximum value of the port position score based on the differential value F' in each direction. In this case, the port information processing unit 164 may calculate the virtual port position at which the port position score is maximum according to the steepest descent method based on the differential value F'. The port information processing unit 164 may adjust the virtual port position so that the calculated virtual port position becomes the port position to be drilled, thereby optimizing the virtual port position. Note that the virtual port position does not have to be the one at which the port position score is maximum, and may be, for example, a position at which the port position score is equal to or greater than the threshold value th2, as long as the port position score is improved (higher).

ポート情報処理部164は、このような仮想ポート位置の調整を、複数の仮想ポート位置の組み合わせに含まれる他の仮想ポート位置の調整に適用したり、複数の仮想ポート位置の他の組み合わせにおける仮想ポート位置の調整に適用したりしてよい。これにより、ポート情報処理部164は、各仮想ポート位置が調整された(例えば最適化された)複数の仮想ポートを、穿孔対象のポート位置に計画できる。このように、医用画像処理装置100は、自動で仮想ポート位置を調整し、仮想ポートの位置を設定できる。 The port information processing unit 164 may apply such adjustment of the virtual port position to the adjustment of other virtual port positions included in the combination of multiple virtual port positions, or to the adjustment of virtual port positions in other combinations of multiple virtual port positions. This allows the port information processing unit 164 to plan multiple virtual ports with their respective virtual port positions adjusted (e.g. optimized) as the port positions to be drilled. In this way, the medical image processing device 100 can automatically adjust the virtual port positions and set the positions of the virtual ports.

なお、複数のポート位置では、仮想ポートの位置(穿孔予定位置)と実ポートの位置(実際の穿孔位置)とで所定長(例えば25mm)程度の誤差が生じ得、また仮想ポート位置の計画精度は精々3mmあれば十分であると考えられる。そのため、ポート情報処理部164は、被検体の体表において所定長毎に仮想ポート位置の候補を設定し、仮想ポート位置の候補を総当たりで複数の仮想ポート位置の組み合わせを決定し、この複数の仮想ポート位置の組み合わせについてのポート位置スコアをそれぞれ算出してよい。つまり、被検体の体表における所定長(例えば3mm)の格子状(グリッド)に、仮想ポート位置の候補が配置されてよい。また、体表上に仮定されるポート数(例えば格子状の交点の数)がn個であり、仮想ポート位置の組み合わせに含まれるポート数がm個である場合、ポート情報処理部164は、n個の仮想ポート位置の候補からm個の仮想ポート位置を順番に選択して組み合わせ、それぞれの組み合わせでのポート位置スコアを算出してよい。このように、3mm間隔の格子状のようにグリッドが過度に細かくない場合には、ポート情報処理部164の計算負荷が過大となることを抑制でき、全組み合わせのポート位置スコアを算出可能である。 In addition, in the case of multiple port positions, an error of about a predetermined length (e.g., 25 mm) may occur between the virtual port position (planned drilling position) and the real port position (actual drilling position), and it is considered that the planning accuracy of the virtual port position is sufficient if it is at most 3 mm. Therefore, the port information processing unit 164 may set virtual port position candidates for each predetermined length on the body surface of the subject, determine a combination of multiple virtual port positions by exhaustively selecting the virtual port position candidates, and calculate the port position score for each combination of multiple virtual port positions. In other words, the virtual port position candidates may be arranged in a grid of a predetermined length (e.g., 3 mm) on the body surface of the subject. In addition, when the number of ports assumed on the body surface (e.g., the number of intersections of the grid) is n and the number of ports included in the combination of virtual port positions is m, the port information processing unit 164 may select and combine m virtual port positions from the n virtual port position candidates in order, and calculate the port position score for each combination. In this way, if the grid is not too fine, such as a 3 mm spacing, the calculation load on the port information processing unit 164 can be prevented from becoming excessive, and the port position scores for all combinations can be calculated.

なお、ポート情報処理部164は、公知の方法に従って、複数の仮想ポート位置の調整を行ってよい。ポート情報処理部164は、穿孔対象のポート位置を、調整後の仮想ポート位置の組み合わせに含まれる複数の仮想ポート位置に計画してよい。ポート位置調整の公知の方法は、以下の参考非特許文献4,5及び参考特許文献1に記載された技術を含んでよい。 The port information processing unit 164 may adjust the multiple virtual port positions according to a known method. The port information processing unit 164 may plan the port position to be drilled at multiple virtual port positions included in the combination of virtual port positions after adjustment. Known methods for adjusting port positions may include the techniques described in the following reference non-patent documents 4 and 5 and reference patent document 1.

(参考非特許文献4)Shaun Selha、Pierre Dupont, Robert Howe, David Torchiana, “Dexterity optimization by port placement in robot-assisted minimally invasive surgery”, SPIE International Symposium on Intelligent Systems and Advanced Manufacturing, Newton, MA, 28-31, 2001
(参考非特許文献5)Zhi Li, Dejan Milutinovic, Jacob Rosen, “Design of a Multi-Arm Surgical Robotic System for Dexterous Manipulation”, Journal of Mechanisms and Robotics, 2016
(参考特許文献1)米国特許出願公開第2007/0249911号明細書
(Reference Non-Patent Document 4) Shaun Selha, Pierre Dupont, Robert Howe, David Torchiana, “Dexterity optimization by port placement in robot-assisted minimally invasive surgery”, SPIE International Symposium on Intelligent Systems and Advanced Manufacturing, Newton, MA, 28-31, 2001
(Reference Non-Patent Document 5) Zhi Li, Dejan Milutinovic, Jacob Rosen, “Design of a Multi-Arm Surgical Robotic System for Dexterous Manipulation”, Journal of Mechanisms and Robotics, 2016
(Reference Patent Document 1) U.S. Patent Application Publication No. 2007/0249911

以上、図面を参照しながら各種の実施形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。 Although various embodiments have been described above with reference to the drawings, it goes without saying that the present disclosure is not limited to such examples. It is clear that a person skilled in the art can come up with various modified or revised examples within the scope of the claims, and it is understood that these also naturally fall within the technical scope of the present disclosure.

例えば、術前シミュレーション及び術中ナビゲーションが行われる鏡視下手術は、腹腔鏡手術、関節鏡手術、気管支鏡手術、大腸鏡手術、又はその他の鏡視下手術であってもよい。また、鏡視下手術は、術者が鉗子を直接操作して手術する手術であっても、手術ロボットを用いたロボット手術であってもよい。 For example, the endoscopic surgery in which the preoperative simulation and intraoperative navigation are performed may be laparoscopic surgery, arthroscopic surgery, bronchoscopy surgery, colonoscopic surgery, or other endoscopic surgery. In addition, the endoscopic surgery may be surgery in which the surgeon directly operates forceps, or robotic surgery using a surgical robot.

また、気腹シミュレーションは省略されてもよい。例えば、関節鏡手術及び気管支鏡手術では、気腹シミュレーションが省略されてもよい。 In addition, the pneumoperitoneum simulation may be omitted. For example, in arthroscopic surgery and bronchoscopic surgery, the pneumoperitoneum simulation may be omitted.

また、手術器具情報処理部165は、取得部110を介して、内視鏡20を含む内視鏡装置から内視鏡画像を取得してよい。そして、画像認識等により、この内視鏡画像に映り込んだ手術器具300の位置、つまり内視鏡画像に対する手術器具300の相対位置を認識してよい。手術器具情報処理部165は、この内視鏡画像に映り込んだ手術器具300の位置に基づいて、取得された手術器具300の位置を補正(調整)してもよい。また、手術器具情報処理部165は、内視鏡画像に映り込んだ手術器具300の位置に基づいて、内視鏡20の先端位置を補正(調整)してもよい。したがって、内視鏡画像を用いて、イメージセンサが配置される内視鏡20の先端位置を視点とした仮想内視鏡画像G2の画像範囲を調整可能である。これにより、手術器具300の位置や向き(角度)の導出精度が不十分である場合でも、内視鏡20の内視鏡画像を用いて、ボリュームレンダリング画像G1における手術器具300の位置の精度や仮想内視鏡画像G2の生成精度が向上する。 The surgical instrument information processing unit 165 may acquire an endoscopic image from an endoscopic device including an endoscope 20 via the acquisition unit 110. Then, the position of the surgical instrument 300 reflected in the endoscopic image, that is, the relative position of the surgical instrument 300 with respect to the endoscopic image, may be recognized by image recognition or the like. The surgical instrument information processing unit 165 may correct (adjust) the acquired position of the surgical instrument 300 based on the position of the surgical instrument 300 reflected in the endoscopic image. The surgical instrument information processing unit 165 may also correct (adjust) the tip position of the endoscope 20 based on the position of the surgical instrument 300 reflected in the endoscopic image. Therefore, the image range of the virtual endoscopic image G2 with the tip position of the endoscope 20 where the image sensor is placed as the viewpoint can be adjusted using the endoscopic image. As a result, even if the derivation accuracy of the position and orientation (angle) of the surgical instrument 300 is insufficient, the endoscopic image of the endoscope 20 is used to improve the accuracy of the position of the surgical instrument 300 in the volume rendering image G1 and the generation accuracy of the virtual endoscopic image G2.

手術器具情報処理部165は、例えば、以下の参考特許文献2や参考非特許文献6,7の手法に従って、内視鏡20の内視鏡画像における手術器具300の位置を基に、ボリュームレンダリング画像G1における手術器具300の位置や仮想内視鏡画像G2の視点となる内視鏡20の先端位置を補正してよい。
(参考特許文献2:特許第4869189号公報)
(参考非特許文献6:中口 俊哉、外5名、“腹腔鏡下手術における自動拡大追尾システムの実装”、[online]、日本生体医工学会、2005年43巻4号、P685-P693、[令和1年8月9日検索]、インターネット<URL:https://www.jstage.jst.go.jp/article/jsmbe/43/4/43_4_685/_pdf/-char/en>)
(参考非特許文献7:南部 恭二郎、外3名、“内視鏡などによる低侵襲高度手術支援システム”、[online]、東芝レビュー、Vol.56、No.9、2001年、[令和1年8月9日検索]、インターネット<URL:https://www.toshiba.co.jp/tech/review/2001/09/56_09pdf/a09.pdf#search=%27%E3%80%8C%E5%86%85%E8%A6%96%E9%8F%A1%E3%81%AA%E3%81%A9%E3%81%AB%E3%82%88%E3%82%8B%E4%BD%8E%E4%BE%B5%E8%A5%B2%E9%AB%98%E5%BA%A6%E6%89%8B%E8%A1%93%E6%94%AF%E6%8F%B4%E3%82%B7%E3%82%B9%E3%83%86%E3%83%A0%E3%80%8D%E5%8D%97%E9%83%A8+%E6%9D%B1%E8%8A%9D%E3%83%AC%E3%83%93%E3%83%A5%E3%83%BC2001%27>)
The surgical instrument information processing unit 165 may correct the position of the surgical instrument 300 in the volume rendering image G1 and the tip position of the endoscope 20, which is the viewpoint of the virtual endoscopic image G2, based on the position of the surgical instrument 300 in the endoscopic image of the endoscope 20, for example, in accordance with the methods of Reference Patent Document 2 and Reference Non-Patent Documents 6 and 7 below.
(Reference Patent Document 2: Japanese Patent No. 4869189)
(Reference non-patent literature 6: Toshiya Nakaguchi and 5 others, "Implementation of an automatic magnification tracking system for laparoscopic surgery", [online], Japan Society for Medical and Biological Engineering, Vol. 43, No. 4, 2005, pp. 685-693, [searched on August 9, 2019], Internet <URL: https://www.jstage.jst.go.jp/article/jsmbe/43/4/43_4_685/_pdf/-char/en>)
(Reference non-patent literature 7: Kyojiro Nanbu and 3 others, "Minimally invasive advanced surgery support system using endoscopes, etc." [online], Toshiba Review, Vol. 56, No. 9, 2001, [searched on August 9, 2019], Internet <URL: https://www.toshiba.co.jp/tech/review/2001/09/56_09pdf/a09.pdf#search=%27%E3%80%8C%E5%86%85%E8%A6%96%E9%8F%A1%E3%81%AA%E3%81%A9%E3%81%A B%E3%82%88%E3%82%8B%E4%BD%8E%E4%BE%B5%E8%A5%B2%E9%AB%98%E5%BA%A6%E6%89%8B%E8%A1%93%E6%94%AF%E6%8F%B4%E3%82%B7%E3%82%B9%E3%83%86%E3%83%A0%E3%80%8D%E5%8D%97%E9%83%A8+%E6%9D%B1%E8%8A%9D%E3%83%AC%E3%83%93%E3%83%A5%E3%83%BC2001%27>)

また、各種センサが、実際の手術中に、ポートの位置や手術器具300の位置や手術器具300の角度を計測(実計測)してもよい。例えば、手術器具300やトロッカー60に3次元位置センサや角度センサを取り付けて、3次元位置センサや角度センサの実計測値が取得されてよい。手術器具情報処理部165は、各種センサにより取得された実計測値を取得してよい。表示制御部167は、実計測値の情報を表示させてよい。術者は、表示された実計測値の情報を確認して、UI120を介して仮想的な手術器具300の位置や向きや仮想ポート位置を手動で調整してもよい。または、処理部160は、上記の実計測値に基づいて、例えば実計測された手術器具300の位置や向きや実ポート位置に一致するように、仮想的な手術器具300の位置や向きや仮想ポート位置を自動で調整してもよい。この場合、調整された仮想ポート位置に基づいて、ボリュームレンダリング画像G1や仮想内視鏡画像G2が生成され、表示されてよい。これにより、医用画像処理装置100は、仮想的な演算結果による手術器具300の位置や向きやポートを、実際の手術中の状態に合わせることができ、術中ナビゲーションの精度を一層向上できる。また、高精度な情報が要求される場合(例えば手術器具300が重要なターゲットの近くに存在する場合)に限り、3次元位置センサにより実ポート位置を実計測してもよい。これにより、実計測の計測頻度を小さくして処理負荷を軽減したり、実計測のタイミングを遅くしたりすることができる。また、3次元位置センサや角度センサの精度は低くてもよい。手術器具情報処理部165は、計測された実計測値の精度に応じて、仮想的な手術器具300の位置や向きや仮想ポート位置を調整してもよい。 In addition, various sensors may measure (actually measure) the position of the port, the position of the surgical instrument 300, and the angle of the surgical instrument 300 during the actual surgery. For example, a three-dimensional position sensor or an angle sensor may be attached to the surgical instrument 300 or the trocar 60 to obtain the actual measurement value of the three-dimensional position sensor or the angle sensor. The surgical instrument information processing unit 165 may obtain the actual measurement value obtained by the various sensors. The display control unit 167 may display the information of the actual measurement value. The surgeon may check the information of the displayed actual measurement value and manually adjust the position, orientation, and virtual port position of the virtual surgical instrument 300 via the UI 120. Alternatively, the processing unit 160 may automatically adjust the position, orientation, and virtual port position of the virtual surgical instrument 300 based on the above-mentioned actual measurement value so that it matches, for example, the position, orientation, and real port position of the actually measured surgical instrument 300. In this case, a volume rendering image G1 or a virtual endoscopic image G2 may be generated and displayed based on the adjusted virtual port position. This allows the medical image processing device 100 to match the position, orientation, and port of the surgical instrument 300 based on the virtual calculation results to the actual state during surgery, further improving the accuracy of intraoperative navigation. In addition, only when highly accurate information is required (for example, when the surgical instrument 300 is located near an important target), the actual port position may be actually measured using a three-dimensional position sensor. This makes it possible to reduce the frequency of actual measurement to reduce the processing load or to delay the timing of actual measurement. In addition, the accuracy of the three-dimensional position sensor and angle sensor may be low. The surgical instrument information processing unit 165 may adjust the position, orientation, and virtual port position of the virtual surgical instrument 300 according to the accuracy of the measured actual measurement value.

また、実ポート位置の位置を部分的に計測してもよい。部分的に計測して得られる情報は、例えば、3次元位置のうちのX座標のみ、手術室のカメラから取得される情報、巻き尺で計測される特定ランドポートからの距離、がある。また、部分的に計測された実測情報の精度は低くてもよい。手術器具情報処理部165は、計測された実計測値の精度及び自由度に応じて、仮想的な手術器具300の位置や向きや仮想ポート位置を調整してもよい。 The position of the actual port position may also be partially measured. Information obtained by partial measurement may include, for example, only the X coordinate of the three-dimensional position, information obtained from a camera in the operating room, and the distance from a specific land port measured with a tape measure. Furthermore, the accuracy of the partially measured actual measurement information may be low. The surgical instrument information processing unit 165 may adjust the position, orientation, and virtual port position of the virtual surgical instrument 300 according to the accuracy and degree of freedom of the measured actual measurement value.

また、ターゲット40と同様に、術者が術中に留意すべき危険部位(例えば切断してはいけない血管、ターゲット40が含まれない他の臓器)の領域や位置を設定してもよい。処理部160は、ターゲット40に対する処理と同様の処理を、危険部位に対して行ってよい。例えば、処理部160が、ボリュームデータにおける危険部位を設定し、被検体の3Dデータが可視化された画像に、手術器具300と危険部位との間の距離に基づく情報等を重畳して表示させてよい。この場合、術者は、例えば、2次元の内視鏡画像では奥行き感が把握し難いが、手術器具300の位置や手術器具300の先端位置と危険部位との位置関係を把握し易くなる。よって、例えば、危険部位にどの程度近づいているかを把握できる。 In addition, similar to the target 40, the area or position of a dangerous area (e.g., blood vessels that should not be cut, other organs that do not include the target 40) that the surgeon should pay attention to during surgery may be set. The processing unit 160 may perform the same processing on the dangerous area as that on the target 40. For example, the processing unit 160 may set a dangerous area in the volume data, and superimpose information based on the distance between the surgical instrument 300 and the dangerous area on an image in which the 3D data of the subject is visualized. In this case, although it is difficult for the surgeon to grasp the sense of depth in, for example, a two-dimensional endoscopic image, it becomes easier for the surgeon to grasp the position of the surgical instrument 300 and the positional relationship between the tip position of the surgical instrument 300 and the dangerous area. Therefore, for example, it is possible to grasp how close the surgeon is to the dangerous area.

また、手術器具300やポートの位置を特定するための3次元位置センサやマーカを備えないことを示したが、3次元位置センサやマーカが補助的に設けられてもよい。例えば、トロッカー60に3次元位置検出センサ又はマーカを取り付け、手術器具300情報処理部165は、3次元位置検出センサ又はマーカを用いて、ポート位置や手術器具300の位置や方向を取得してよい。マーカを用いたポート位置や手術器具300の方向の取得方法は、非特許文献1に示された方法と同じでよい。これにより、医用画像処理装置100は、手術器具300の位置及び向きや手術器具300の先端位置及び先端向きの導出精度が低い場合に、3次元位置検出センサ又はマーカを用いたポート位置や手術器具300の位置や方向の情報を補助的に取得できる。また、3次元位置センサやマーカがトロッカー60に配置されることで、例えば鉗子30の根本部分が見やすくなり、術者が手術しやすくなる。 Although it has been shown that the surgical instrument 300 and the port are not provided with a three-dimensional position sensor or marker for identifying the position, the three-dimensional position sensor or marker may be provided as an auxiliary. For example, a three-dimensional position detection sensor or marker may be attached to the trocar 60, and the surgical instrument 300 information processing unit 165 may acquire the port position and the position and direction of the surgical instrument 300 using the three-dimensional position detection sensor or marker. The method of acquiring the port position and the direction of the surgical instrument 300 using the marker may be the same as the method shown in Non-Patent Document 1. As a result, when the derivation accuracy of the position and direction of the surgical instrument 300 and the tip position and tip direction of the surgical instrument 300 is low, the medical image processing device 100 can auxiliary acquire information on the port position and the position and direction of the surgical instrument 300 using the three-dimensional position detection sensor or marker. In addition, by arranging the three-dimensional position sensor or marker on the trocar 60, for example, the base part of the forceps 30 becomes easier to see, making it easier for the surgeon to perform surgery.

また、角度センサの検出値に基づくポート座標系の値を被検体座標系の値に変換することを例示したが、これに限られない。例えば、手術器具情報処理部165は、角度センサの検出値に基づくポート座標系の値を、被検体が載置されるベッドを基準とした座標系(直交座標系)の値に変換してもよい。また、処理部160は、重力方向に対する手術器具300の傾斜角度を用いて画像生成や距離情報の導出を行ってもよいし、手術器具300の傾斜角度を基に被検体座標系での手術器具300の向きを算出し、被検体座標系での手術器具300の向きを基に、画像生成や距離情報の導出を行ってもよい。 In addition, although an example has been given of converting values in the port coordinate system based on the detection values of the angle sensor into values in the subject coordinate system, this is not limiting. For example, the surgical instrument information processing unit 165 may convert values in the port coordinate system based on the detection values of the angle sensor into values in a coordinate system (orthogonal coordinate system) based on the bed on which the subject is placed. In addition, the processing unit 160 may generate images and derive distance information using the tilt angle of the surgical instrument 300 relative to the direction of gravity, or may calculate the orientation of the surgical instrument 300 in the subject coordinate system based on the tilt angle of the surgical instrument 300, and generate images and derive distance information based on the orientation of the surgical instrument 300 in the subject coordinate system.

また、内視鏡20及び鉗子30の双方について角度情報を導出することを例示したが、鉗子30の角度情報の導出が省略されてもよい。術者は、鉗子30がどの方向に向いているかは、内視鏡20による内視鏡画像又は仮想内視鏡画像G2における鉗子30の位置や向きによって把握できるためである。つまり、鉗子30の角度は、内視鏡20による内視鏡画像又は仮想内視鏡画像G2に対する鉗子30の相対位置や相対向きによって擬制できる。したがって、鉗子30の向きの情報が不在でも、術者は、鉗子30の先端位置とターゲット40の位置との位置関係を把握可能である。 In addition, although an example has been given in which angle information is derived for both the endoscope 20 and the forceps 30, the derivation of the angle information for the forceps 30 may be omitted. This is because the surgeon can determine in which direction the forceps 30 is facing from the position and orientation of the forceps 30 in the endoscopic image captured by the endoscope 20 or the virtual endoscopic image G2. In other words, the angle of the forceps 30 can be simulated from the relative position and relative orientation of the forceps 30 to the endoscopic image captured by the endoscope 20 or the virtual endoscopic image G2. Therefore, even if there is no information on the orientation of the forceps 30, the surgeon can determine the positional relationship between the tip position of the forceps 30 and the position of the target 40.

また、医用画像処理装置100は、少なくともプロセッサ140及びメモリ150を備えていればよい。取得部110、UI120、及びディスプレイ130は、医用画像処理装置100に対して外付けであってもよい。 The medical image processing device 100 may include at least a processor 140 and a memory 150. The acquisition unit 110, the UI 120, and the display 130 may be external to the medical image processing device 100.

また、撮像されたCT画像としてのボリュームデータは、CT装置200から医用画像処理装置100へ送信されることを例示した。この代わりに、ボリュームデータが一旦蓄積されるように、ネットワーク上のサーバ(例えば画像データサーバ(PACS)(不図示))等へ送信され、保管されてもよい。この場合、必要時に医用画像処理装置100の取得部110が、ボリュームデータを、有線回線又は無線回線を介してサーバ等から取得してもよいし、任意の記憶媒体(不図示)を介して取得してもよい。 Also, an example has been given in which the volume data as the captured CT image is transmitted from the CT device 200 to the medical image processing device 100. Alternatively, the volume data may be transmitted to a server on a network (e.g., an image data server (PACS) (not shown)) etc. so that it is temporarily accumulated and stored. In this case, the acquisition unit 110 of the medical image processing device 100 may acquire the volume data from the server etc. via a wired or wireless line when necessary, or may acquire the volume data via any storage medium (not shown).

また、撮像されたCT画像としてのボリュームデータは、CT装置200から医用画像処理装置100へ取得部110を経由して送信されることを例示した。これは、実質的にCT装置200と医用画像処理装置100とを併せて一製品として成立している場合も含まれるものとする。また、医用画像処理装置100がCT装置200のコンソールとして扱われている場合も含む。 Also, an example has been given in which volume data as a captured CT image is transmitted from the CT device 200 to the medical image processing device 100 via the acquisition unit 110. This also includes cases in which the CT device 200 and the medical image processing device 100 are essentially combined into a single product. It also includes cases in which the medical image processing device 100 is used as a console for the CT device 200.

また、CT装置200により画像を撮像し、被検体内部の情報を含むボリュームデータを生成することを例示したが、他の装置により画像を撮像し、ボリュームデータを生成してもよい。他の装置は、MRI(Magnetic Resonance Imaging)装置、PET(Positron Emission Tomography)装置、血管造影装置(Angiography装置)、又はその他のモダリティ装置を含む。また、PET装置は、他のモダリティ装置と組み合わせて用いられてもよい。 Although the above example shows an example in which an image is captured by the CT device 200 and volume data including information about the inside of the subject is generated, images may be captured by other devices and volume data may be generated. Examples of other devices include an MRI (Magnetic Resonance Imaging) device, a PET (Positron Emission Tomography) device, an angiography device, or other modality devices. The PET device may also be used in combination with other modality devices.

また、医用画像処理装置100における動作が規定された医用画像処理方法として表現可能である。また、コンピュータに医用画像処理方法の各ステップを実行させるためのプログラムとして表現可能である。 It can also be expressed as a medical image processing method in which the operations in the medical image processing device 100 are specified. It can also be expressed as a program for causing a computer to execute each step of the medical image processing method.

(上記実施形態の概要)
上記実施形態の一態様は、鏡視下手術を支援する医用画像処理装置100(鏡視下手術支援装置の一例)であって、処理部160と、を備える。処理部160は、被検体の3Dデータ(例えば、未気腹状態のボリュームデータ、仮想気腹状態のボリュームデータ、3次元モデル)を取得する。処理部160は、3Dデータにおける被検体の体表70に仮想ポートを設定する。処理部160は、仮想ポートに対応した実ポートから被検体の内部に挿入された手術器具300の挿入距離IDを取得する。処理部160は、少なくとも仮想ポートの位置と手術器具300の挿入距離IDとに基づいて、3Dデータを可視化した第1の画像に、手術器具300を示す情報を重畳してディスプレイ130(表示部の一例)に表示させる。仮想ポートに対応した実ポートは、例えば、仮想ポートに対して計画通りに設置された実ポートでもよいし、計画された仮想ポートの位置からずれて設置された実ポートでもよい。
(Summary of the above embodiment)
One aspect of the above embodiment is a medical image processing device 100 (an example of an endoscopic surgery support device) that supports endoscopic surgery, and includes a processing unit 160. The processing unit 160 acquires 3D data of a subject (for example, volume data in an untensioned state, volume data in a virtual pneumoperitoneum state, and a three-dimensional model). The processing unit 160 sets a virtual port on a body surface 70 of the subject in the 3D data. The processing unit 160 acquires an insertion distance ID of a surgical instrument 300 inserted into the subject from a real port corresponding to the virtual port. The processing unit 160 superimposes information indicating the surgical instrument 300 on a first image that visualizes 3D data based on at least the position of the virtual port and the insertion distance ID of the surgical instrument 300, and displays the superimposed information on the display 130 (an example of a display unit). The real port corresponding to the virtual port may be, for example, a real port that is installed as planned with respect to the virtual port, or a real port that is installed at a position shifted from the planned position of the virtual port.

これにより、医用画像処理装置100は、手術器具300の位置を導出するための高精度な3次元位置センサを手術室に設置することが不要となり、手術ナビゲーションにおけるシステム構成を簡素化できる。この3次元位置センサは、例えば非特許文献1における手術室の天井に設置される外部カメラに相当する。また、3次元位置センサが不要となることで、3次元位置センサが設置される手術室座標系が不在となる。これにより、術前にり、手間のかかる被検体座標系と手術室座標系との位置関係の計測が不要となり、被検体座標系と手術室座標系をレジストレーションする工程が不要となる。また、術中に患者の動きに応じて再レジストレーションする工程が不要となる。 As a result, the medical image processing device 100 does not need to install a high-precision three-dimensional position sensor in the operating room to derive the position of the surgical instrument 300, and the system configuration for surgical navigation can be simplified. This three-dimensional position sensor corresponds to the external camera installed on the ceiling of the operating room in Non-Patent Document 1, for example. Furthermore, since the three-dimensional position sensor is no longer necessary, there is no operating room coordinate system in which the three-dimensional position sensor is installed. This eliminates the need for time-consuming measurement of the positional relationship between the subject coordinate system and the operating room coordinate system before surgery, and eliminates the need for a process of registering the subject coordinate system and the operating room coordinate system. Furthermore, it also eliminates the need for a process of re-registration according to the patient's movements during surgery.

また、3Dデータは、気腹シミュレーションが施された仮想気腹状態の3Dデータを含んでよい。これにより、医用画像処理装置100は、実際の手術において気腹が必要な被検体についても、術前に被検体座標系と手術室座標系座標をレジストレーションする工程が不要となる。また、術中に患者の動きに応じて再レジストレーションする工程が不要となる。 The 3D data may also include 3D data of a virtual pneumoperitoneum state in which a pneumoperitoneum simulation has been performed. This eliminates the need for the medical image processing device 100 to perform a process of registering the subject coordinate system and the operating room coordinate system before surgery, even for subjects who require pneumoperitoneum in actual surgery. In addition, it also eliminates the need for a process of re-registration during surgery in response to the patient's movements.

また、処理部160は、被検体の内部における手術器具300の挿入方向を取得し、手術器具300の挿入方向に基づいて、手術器具300を示す情報を表示させてよい。これにより、医用画像処理装置100は、第1の画像中に、手術器具300の方向(向き)を反映して表示させることができる。よって、術者は、例えば、内視鏡20の視野に対する手術器具300の向きを直感的に把握できる。また、手術ナビゲーションの精度を向上させることが出来る。 The processing unit 160 may also acquire the insertion direction of the surgical instrument 300 inside the subject, and display information indicating the surgical instrument 300 based on the insertion direction of the surgical instrument 300. This allows the medical image processing device 100 to display the direction (orientation) of the surgical instrument 300 in the first image. This allows the surgeon to intuitively grasp, for example, the orientation of the surgical instrument 300 relative to the field of view of the endoscope 20. Furthermore, the accuracy of surgical navigation can be improved.

また、処理部160は、被検体の内部における手術器具300の挿入方向を算出し、手術器具300の挿入方向に基づいて、手術器具300を示す情報を表示させてよい。これにより、医用画像処理装置100は、第1の画像中に、算出されて推測される手術器具300の方向(向き)を反映して表示させることができる。よって、術者は、例えば、内視鏡20の視野に対する手術器具300の向きを直感的に把握できる。また、手術ナビゲーションの精度を向上させることが出来る。また、角度センサが不要となり、手術ナビゲーションにおけるシステム構成を簡素化できる。また、角度センサが不要となることで、術前に被検体座標系と手術室座標系における角度をレジストレーションする工程が不要となる。また、術中に患者の動きに応じて再レジストレーションする工程が不要となる。 The processing unit 160 may also calculate the insertion direction of the surgical instrument 300 inside the subject, and display information indicating the surgical instrument 300 based on the insertion direction of the surgical instrument 300. This allows the medical image processing device 100 to display the calculated and estimated direction (orientation) of the surgical instrument 300 in the first image. Therefore, the surgeon can intuitively grasp, for example, the orientation of the surgical instrument 300 relative to the field of view of the endoscope 20. This also improves the accuracy of surgical navigation. Furthermore, an angle sensor is no longer required, and the system configuration in surgical navigation can be simplified. Furthermore, since the angle sensor is no longer required, the process of registering the angles in the subject coordinate system and the operating room coordinate system before surgery is no longer necessary. Furthermore, the process of re-registration according to the patient's movement during surgery is no longer necessary.

また、手術器具300は、2以上あり、少なくともそのうちの一つは内視鏡20を含んでよい。仮想ポートは、2以上あり、少なくともそのうちの一つは被検体の体表70において内視鏡20が挿入される仮想カメラポートを含んでよい。処理部160は、仮想カメラポートに対応した実カメラポートから被検体の内部に挿入された内視鏡20の挿入距離ID1を取得してよい。処理部160は、少なくとも仮想カメラポートの位置と内視鏡20の挿入距離ID1とに基づいて、内視鏡20の先端位置21を算出してよい。第1の画像は、内視鏡20の先端位置21を視点とする仮想内視鏡画像G2でよい。これにより、医用画像処理装置100は、簡単なシステム構成と少ない演算量で内視鏡20の先端位置を導出でき、この位置に基づく仮想内視鏡画像G2を可視化できる。これによって、手術ナビゲーションの精度を向上させることが出来る。 In addition, there may be two or more surgical instruments 300, at least one of which may include an endoscope 20. There may be two or more virtual ports, at least one of which may include a virtual camera port into which the endoscope 20 is inserted on the body surface 70 of the subject. The processing unit 160 may acquire an insertion distance ID1 of the endoscope 20 inserted into the subject from a real camera port corresponding to the virtual camera port. The processing unit 160 may calculate the tip position 21 of the endoscope 20 based on at least the position of the virtual camera port and the insertion distance ID1 of the endoscope 20. The first image may be a virtual endoscopic image G2 with the tip position 21 of the endoscope 20 as the viewpoint. As a result, the medical image processing device 100 can derive the tip position of the endoscope 20 with a simple system configuration and a small amount of calculation, and can visualize the virtual endoscopic image G2 based on this position. This can improve the accuracy of surgical navigation.

また、処理部160は、内視鏡20で撮像された画像である実内視鏡画像を取得してよい。処理部160は、実内視鏡画像に含まれる手術器具300の映像に基づいて、算出された内視鏡20の先端位置又は前記仮想内視鏡画像G2における前記手術器具300の位置を調整してよい。手術器具300の映像は、実内視鏡画像における手術器具300の相対情報(例えば実内視鏡画像における位置)を示してよい。これにより、医用画像処理装置100は、例えば、実内視鏡画像と仮想内視鏡画像G2との内容が近づくように(例えば一致するように)、仮想内視鏡の視野を変更すべく内視鏡20の先端位置21を調整したり、仮想内視鏡画像G2に示される手術器具300の位置を調整したりできる。よって、術者は、より実空間に近い手術器具300の位置を把握できる。 The processing unit 160 may also acquire a real endoscopic image, which is an image captured by the endoscope 20. The processing unit 160 may adjust the calculated tip position of the endoscope 20 or the position of the surgical instrument 300 in the virtual endoscopic image G2 based on the image of the surgical instrument 300 included in the real endoscopic image. The image of the surgical instrument 300 may indicate relative information of the surgical instrument 300 in the real endoscopic image (e.g., the position in the real endoscopic image). This allows the medical image processing device 100 to adjust the tip position 21 of the endoscope 20 to change the field of view of the virtual endoscope, or adjust the position of the surgical instrument 300 shown in the virtual endoscopic image G2, so that the contents of the real endoscopic image and the virtual endoscopic image G2 become closer (e.g., match). Thus, the surgeon can grasp the position of the surgical instrument 300 closer to the real space.

また、処理部160は、3Dデータにおけるターゲット40を設定し、第1の画像に、手術器具300とターゲット40との間の距離(例えば距離d1)に基づく情報を重畳して表示させてよい。これにより、術者は、術中に術者が操作可能な手術器具300からターゲット40までの距離を把握しながら、ターゲット40に対する各種処置を実施できる。 The processing unit 160 may also set the target 40 in the 3D data and display information based on the distance (e.g., distance d1) between the surgical instrument 300 and the target 40 superimposed on the first image. This allows the surgeon to perform various procedures on the target 40 while grasping the distance from the surgical instrument 300 that the surgeon can operate during surgery to the target 40.

また、処理部160は、3Dデータにおける危険部位を設定し、第1の画像に、手術器具300と危険部位との間の距離に基づく情報を重畳して表示させてよい。これにより、術者は、術中に術者が操作可能な手術器具300から危険部位までの距離を把握できる。よって、術者は、例えば危険部位を避けながら、ターゲット40に対する各種処置を実施できる。 The processing unit 160 may also set risk areas in the 3D data and display information based on the distance between the surgical instrument 300 and the risk areas superimposed on the first image. This allows the surgeon to grasp the distance from the surgical instrument 300 that the surgeon can operate during surgery to the risk areas. Therefore, the surgeon can perform various treatments on the target 40 while avoiding the risk areas, for example.

また、処理部160は、実ポートが計測された計測情報(例えば計測位置)を取得し、実ポートの計測情報と実ポートに対応する仮想ポートの位置とに基づいて、第1の画像に手術器具300を示す情報を重畳して表示させてよい。これにより、実ポートの計測位置と仮想ポートの設定位置とにずれが存在しても、医用画像処理装置100は、例えば、このずれが小さくなるように仮想ポートの位置を調整して、実際の実ポートの位置を基準とした第1の画像を提供できる。 The processing unit 160 may also acquire measurement information (e.g., measurement position) of the real port, and display information indicating the surgical instrument 300 superimposed on the first image based on the measurement information of the real port and the position of the virtual port corresponding to the real port. As a result, even if there is a discrepancy between the measurement position of the real port and the set position of the virtual port, the medical image processing device 100 can provide a first image based on the actual position of the real port, for example, by adjusting the position of the virtual port so as to reduce this discrepancy.

上記実施形態の一態様は、被検体の3Dデータを取得するステップと、3Dデータにおける被検体の体表に仮想ポートを設定するステップと、仮想ポートに対応した実ポートから被検体の内部に挿入された手術器具300の挿入距離を取得するステップと、少なくとも仮想ポートの位置と手術器具300の挿入距離とに基づいて、3Dデータを可視化した第1の画像に、手術器具300を示す情報を重畳して表示部に表示させるステップと、を有する鏡視下手術支援方法、である。 One aspect of the above embodiment is a method for supporting laparoscopic surgery, comprising the steps of acquiring 3D data of a subject, setting a virtual port on the body surface of the subject in the 3D data, acquiring an insertion distance of a surgical instrument 300 inserted into the subject from a real port corresponding to the virtual port, and displaying information indicating the surgical instrument 300 on a display unit on a first image that visualizes the 3D data based on at least the position of the virtual port and the insertion distance of the surgical instrument 300.

本実施形態の一態様は、上記の鏡視下手術支援方法をコンピュータに実行させるためのプログラムである。 One aspect of this embodiment is a program for causing a computer to execute the above-mentioned laparoscopic surgery support method.

本開示は、システム構成を単純化して簡便に手術ナビゲーションを実施できる鏡視下手術支援装置、鏡視下手術支援方法、及びプログラム等に有用である。 The present disclosure is useful for endoscopic surgery support devices, endoscopic surgery support methods, and programs that can simplify the system configuration and easily perform surgical navigation.

10 肝臓
15 骨
21 内視鏡の先端位置
22 内視鏡の先端向き
23 撮像範囲
30,31,32 鉗子
40 ターゲット
60 トロッカー
70 体表
100 医用画像処理装置
110 取得部
120 UI
130 ディスプレイ
140 プロセッサ
150 メモリ
160 処理部
161 領域処理部
162 変形処理部
163 モデル設定部
164 ポート情報処理部
165 手術器具情報処理部
166 画像生成部
167 表示制御部
200 CT装置
300 手術器具
PT ポート
PT1 カメラポート
PT2 鉗子ポート
ID,ID1,ID2,ID21,ID22 挿入距離
10 liver 15 bone 21 endoscope tip position 22 endoscope tip direction 23 imaging range 30, 31, 32 forceps 40 target 60 trocar 70 body surface 100 medical image processing device 110 acquisition unit 120 UI
130 Display 140 Processor 150 Memory 160 Processing section 161 Area processing section 162 Transformation processing section 163 Model setting section 164 Port information processing section 165 Surgical instrument information processing section 166 Image generating section 167 Display control section 200 CT device 300 Surgical instrument PT Port PT1 Camera port PT2 Forceps port ID, ID1, ID2, ID21, ID22 Insertion distance

Claims (11)

鏡視下手術を支援する鏡視下手術支援装置であって、
処理部を備え、
前記処理部は、
被検体の3Dデータと手術器具の形状の情報とを取得し、
前記3Dデータにおける前記被検体の体表に仮想ポートを設定し、
前記仮想ポートに対応した実ポートから前記被検体の内部に挿入された前記手術器具の挿入距離が検出された情報を取得し、
少なくとも前記仮想ポートの位置と検出された前記手術器具の挿入距離と前記手術器具の形状とに基づいて、前記3Dデータを可視化した第1の画像に、前記手術器具を示す情報と前記手術器具の先端位置及び先端向きとを重畳して表示部に表示させる、機能を有する、
鏡視下手術支援装置。
An endoscopic surgery support device for supporting endoscopic surgery,
A processing unit is provided,
The processing unit includes:
Acquire 3D data of the subject and information on the shape of the surgical instrument ;
setting a virtual port on a body surface of the subject in the 3D data;
acquiring information indicating an insertion distance of the surgical instrument inserted into the subject from a real port corresponding to the virtual port;
and displaying, on a display unit, information indicating the surgical instrument and a tip position and tip direction of the surgical instrument superimposed on a first image in which the 3D data is visualized based on at least the position of the virtual port, the detected insertion distance of the surgical instrument, and the shape of the surgical instrument.
Laparoscopic surgery support device.
前記3Dデータは、気腹シミュレーションが施された仮想気腹状態の3Dデータを含む、
請求項1に記載の鏡視下手術支援装置。
The 3D data includes 3D data of a virtual pneumoperitoneum state in which a pneumoperitoneum simulation has been performed.
The endoscopic surgery support device according to claim 1 .
前記処理部は、
前記被検体の内部における前記手術器具の挿入方向が検出された情報を取得し、
検出された前記手術器具の挿入方向に基づいて、前記手術器具を示す情報を表示させる、
請求項1又は2に記載の鏡視下手術支援装置。
The processing unit includes:
acquiring information indicating an insertion direction of the surgical instrument inside the subject;
displaying information indicating the surgical instrument based on the detected insertion direction of the surgical instrument;
The endoscopic surgery support device according to claim 1 or 2.
前記処理部は、
前記被検体の内部における前記手術器具の挿入方向を算出し、
前記手術器具の挿入方向に基づいて、前記手術器具を示す情報を表示させる、
請求項1又は2に記載の鏡視下手術支援装置。
The processing unit includes:
calculating an insertion direction of the surgical instrument inside the subject;
displaying information indicating the surgical instrument based on an insertion direction of the surgical instrument;
The endoscopic surgery support device according to claim 1 or 2.
前記手術器具は、2以上あり、少なくともそのうちの一つは内視鏡を含み、
前記仮想ポートは、2以上あり、少なくともそのうちの一つは前記被検体の体表において前記内視鏡が挿入される仮想カメラポートを含み、
前記処理部は、
前記仮想カメラポートに対応した実カメラポートから前記被検体の内部に挿入された前記内視鏡の挿入距離を取得し、
少なくとも前記仮想カメラポートの位置と前記内視鏡の挿入距離とに基づいて、前記内視鏡の先端位置を算出し、
前記第1の画像は、前記内視鏡の先端位置を視点とする仮想内視鏡画像である、
請求項1~4のいずれか1項に記載の鏡視下手術支援装置。
the surgical instruments are two or more, at least one of which includes an endoscope;
There are two or more virtual ports, at least one of which includes a virtual camera port through which the endoscope is inserted on a body surface of the subject;
The processing unit includes:
acquiring an insertion distance of the endoscope inserted into the subject from a real camera port corresponding to the virtual camera port;
Calculating a tip position of the endoscope based on at least the position of the virtual camera port and the insertion distance of the endoscope;
the first image is a virtual endoscopic image having a viewpoint at the tip position of the endoscope;
The endoscopic surgery support device according to any one of claims 1 to 4.
前記処理部は、
前記内視鏡で撮像された画像である実内視鏡画像を取得し、
前記実内視鏡画像に含まれる前記手術器具の映像に基づいて、算出された前記内視鏡の先端位置又は前記仮想内視鏡画像における前記手術器具の位置を調整する、
請求項5に記載の鏡視下手術支援装置。
The processing unit includes:
An actual endoscopic image is acquired, which is an image captured by the endoscope;
adjusting the calculated tip position of the endoscope or the position of the surgical instrument in the virtual endoscopic image based on the image of the surgical instrument included in the actual endoscopic image;
The endoscopic surgery support device according to claim 5 .
前記処理部は、
前記3Dデータにおけるターゲットを設定し、
前記第1の画像に、前記手術器具と前記ターゲットとの間の距離に基づく情報を重畳して表示させる、
請求項1~6のいずれか1項に記載の鏡視下手術支援装置。
The processing unit includes:
Setting a target in the 3D data;
and displaying information based on a distance between the surgical instrument and the target on the first image in a superimposed manner.
The endoscopic surgery support device according to any one of claims 1 to 6.
前記処理部は、
前記3Dデータにおける危険部位を設定し、
前記第1の画像に、前記手術器具と前記危険部位との間の距離を示す情報を重畳して表示させる、
請求項1~7のいずれか1項に記載の鏡視下手術支援装置。
The processing unit includes:
A dangerous area is set in the 3D data,
and displaying information indicating a distance between the surgical instrument and the dangerous site on the first image in a superimposed manner.
The endoscopic surgery support device according to any one of claims 1 to 7.
前記処理部は、
前記実ポートが計測された計測情報を取得し、
前記実ポートの計測情報と、前記実ポートに対応する前記仮想ポートの位置と、に基づいて、前記第1の画像に前記手術器具を示す情報を重畳して表示させる、
請求項1~8のいずれか1項に記載の鏡視下手術支援装置。
The processing unit includes:
Acquire measurement information on the actual port;
displaying information indicating the surgical instrument on the first image in a superimposed manner based on measurement information of the real port and a position of the virtual port corresponding to the real port;
The endoscopic surgery support device according to any one of claims 1 to 8.
プロセッサが、被検体の3Dデータと手術器具の形状の情報とを取得するステップと、
前記プロセッサが、前記3Dデータにおける前記被検体の体表に仮想ポートを設定するステップと、
前記プロセッサが、前記仮想ポートに対応した実ポートから前記被検体の内部に挿入された前記手術器具の挿入距離が検出された情報を取得するステップと、
前記プロセッサが、少なくとも前記仮想ポートの位置と検出された前記手術器具の挿入距離と前記手術器具の形状とに基づいて、前記3Dデータを可視化した第1の画像に、前記手術器具を示す情報と前記手術器具の先端位置及び先端向きとを重畳して表示部に表示させるステップと、
を有する鏡視下手術支援方法。
A processor acquires 3D data of a subject and information on the shape of a surgical tool ;
The processor sets a virtual port on a body surface of the subject in the 3D data;
acquiring information indicating an insertion distance of the surgical instrument inserted into the subject from a real port corresponding to the virtual port by the processor;
The processor causes a display unit to display information indicating the surgical instrument and a tip position and tip orientation of the surgical instrument superimposed on a first image in which the 3D data is visualized based on at least the position of the virtual port, the detected insertion distance of the surgical instrument, and the shape of the surgical instrument;
The present invention relates to a method for supporting laparoscopic surgery.
請求項10に記載の鏡視下手術支援方法をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute the laparoscopic surgery support method according to claim 10.
JP2019169672A 2019-09-18 2019-09-18 Endoscopic surgery support device, endoscopic surgery support method, and program Active JP7495216B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019169672A JP7495216B2 (en) 2019-09-18 2019-09-18 Endoscopic surgery support device, endoscopic surgery support method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019169672A JP7495216B2 (en) 2019-09-18 2019-09-18 Endoscopic surgery support device, endoscopic surgery support method, and program

Publications (2)

Publication Number Publication Date
JP2021045341A JP2021045341A (en) 2021-03-25
JP7495216B2 true JP7495216B2 (en) 2024-06-04

Family

ID=74876858

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019169672A Active JP7495216B2 (en) 2019-09-18 2019-09-18 Endoscopic surgery support device, endoscopic surgery support method, and program

Country Status (1)

Country Link
JP (1) JP7495216B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011206251A (en) 2010-03-30 2011-10-20 Olympus Corp Device and method for image processing, and program
WO2013145730A1 (en) 2012-03-29 2013-10-03 パナソニック株式会社 Surgery assistance device and surgery assistance program
JP2014525765A (en) 2011-06-17 2014-10-02 コーニンクレッカ フィリップス エヌ ヴェ System and method for guided injection in endoscopic surgery
JP2015083040A (en) 2013-10-25 2015-04-30 富士フイルム株式会社 Image processing apparatus, method, and program
US20160199147A1 (en) 2015-01-12 2016-07-14 Electronics And Telecommunications Research Institute Method and apparatus for coordinating position of surgery region and surgical tool during image guided surgery

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011206251A (en) 2010-03-30 2011-10-20 Olympus Corp Device and method for image processing, and program
JP2014525765A (en) 2011-06-17 2014-10-02 コーニンクレッカ フィリップス エヌ ヴェ System and method for guided injection in endoscopic surgery
WO2013145730A1 (en) 2012-03-29 2013-10-03 パナソニック株式会社 Surgery assistance device and surgery assistance program
JP2015083040A (en) 2013-10-25 2015-04-30 富士フイルム株式会社 Image processing apparatus, method, and program
US20160199147A1 (en) 2015-01-12 2016-07-14 Electronics And Telecommunications Research Institute Method and apparatus for coordinating position of surgery region and surgical tool during image guided surgery

Also Published As

Publication number Publication date
JP2021045341A (en) 2021-03-25

Similar Documents

Publication Publication Date Title
KR102014355B1 (en) Method and apparatus for calculating location information of surgical device
US11883118B2 (en) Using augmented reality in surgical navigation
EP2637593B1 (en) Visualization of anatomical data by augmented reality
JP7188970B2 (en) ROBOT SURGERY ASSISTANCE DEVICE, OPERATION METHOD OF ROBOT SURGERY ASSISTANCE DEVICE, AND PROGRAM
US20180263707A1 (en) System and method for mapping navigation space to patient space in a medical procedure
JP7469120B2 (en) Robotic surgery support system, operation method of robotic surgery support system, and program
US10799146B2 (en) Interactive systems and methods for real-time laparoscopic navigation
US11191595B2 (en) Method for recovering patient registration
JP2021510107A (en) Three-dimensional imaging and modeling of ultrasound image data
US10154882B2 (en) Global laparoscopy positioning systems and methods
Traub et al. Advanced display and visualization concepts for image guided surgery
US20210298848A1 (en) Robotically-assisted surgical device, surgical robot, robotically-assisted surgical method, and system
US11771508B2 (en) Robotically-assisted surgical device, robotically-assisted surgery method, and system
US11779412B2 (en) Robotically-assisted surgical device, robotically-assisted surgery method, and system
JP7495216B2 (en) Endoscopic surgery support device, endoscopic surgery support method, and program
US20220354579A1 (en) Systems and methods for planning and simulation of minimally invasive therapy
De Paolis et al. An augmented reality application for minimally invasive surgery
JP7172086B2 (en) Surgery simulation device and surgery simulation program
JP7414611B2 (en) Robotic surgery support device, processing method, and program
De Paolis An augmented reality platform for preoperative surgical planning
JP7182127B2 (en) ROBOT SURGERY SUPPORT DEVICE, INFORMATION OUTPUT METHOD, AND PROGRAM
US20240206973A1 (en) Systems and methods for a spinal anatomy registration framework
JP7444569B2 (en) Arthroscopic surgery support device, arthroscopic surgery support method, and program
JP7355514B2 (en) Medical image processing device, medical image processing method, and medical image processing program
Cotin et al. Augmented Reality for Computer-Guided Interventions

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240523

R150 Certificate of patent or registration of utility model

Ref document number: 7495216

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150