JP7444569B2 - Arthroscopic surgery support device, arthroscopic surgery support method, and program - Google Patents

Arthroscopic surgery support device, arthroscopic surgery support method, and program Download PDF

Info

Publication number
JP7444569B2
JP7444569B2 JP2019169671A JP2019169671A JP7444569B2 JP 7444569 B2 JP7444569 B2 JP 7444569B2 JP 2019169671 A JP2019169671 A JP 2019169671A JP 2019169671 A JP2019169671 A JP 2019169671A JP 7444569 B2 JP7444569 B2 JP 7444569B2
Authority
JP
Japan
Prior art keywords
target
model
volume data
orientation
deformation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019169671A
Other languages
Japanese (ja)
Other versions
JP2021045340A (en
Inventor
剛 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ziosoft Inc
Original Assignee
Ziosoft Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ziosoft Inc filed Critical Ziosoft Inc
Priority to JP2019169671A priority Critical patent/JP7444569B2/en
Priority to US17/021,174 priority patent/US11657547B2/en
Publication of JP2021045340A publication Critical patent/JP2021045340A/en
Application granted granted Critical
Publication of JP7444569B2 publication Critical patent/JP7444569B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Description

本開示は、鏡視下手術を支援する鏡視下手術支援装置、鏡視下手術支援方法、及びプログラムに関する。 The present disclosure relates to an arthroscopic surgery support device, an arthroscopic surgery support method, and a program that support arthroscopic surgery.

従来、手術シミュレーションにおいて、表示画面への操作入力に応じて被検体の3次元医用画像に対する処理を施し、処理を施された3次元医用画像を表示画面に表示させる医用画像表示装置が知られている(特許文献1参照)。ここでの3次元医用画像に対する処理は、変形処理を含む。 Conventionally, in surgical simulation, medical image display devices have been known that perform processing on a 3D medical image of a subject in response to operational inputs to a display screen, and display the processed 3D medical image on a display screen. (See Patent Document 1). The processing for the three-dimensional medical image here includes transformation processing.

特開2014-54358公報JP2014-54358 Publication

特許文献1の医用画像表示装置は、手術中ナビゲーションや術前シミュレーションにおいて被検体における観察対象(ターゲット)の可視化について、改善の余地がある。 The medical image display device of Patent Document 1 has room for improvement in visualization of an observation target (target) in a subject in intraoperative navigation and preoperative simulation.

本開示は、上記事情に鑑みてされたものであって、被検体における観察対象の可視化を改善できる鏡視下手術支援装置、鏡視下手術支援方法、及びプログラムを提供する。 The present disclosure has been made in view of the above circumstances, and provides an arthroscopic surgery support device, an arthroscopic surgery support method, and a program that can improve the visualization of an observation target in a subject.

本開示の一態様は、鏡視下手術を支援する鏡視下手術支援装置であって、取得部及び処理部を備え、前記取得部は、被検体のボリュームデータを取得する機能を有し、前記処理部は、前記ボリュームデータに含まれる組織を表現するモデルを設定し、前記ボリュームデータを可視化するための第1の視野と、前記モデルにおけるターゲットの位置と、を設定し、前記モデルを変形させるための第1の操作情報を取得し、前記第1の操作情報に基づいて、前記モデルの変形前後における前記ターゲットの位置と向きの変化を算出し、算出された前記ターゲットの位置及び向きを用いて、前記第1の視野に対する前記変化の後の前記ターゲットの位置及び向きと第2の視野に対する前記変化の前の前記ターゲットの位置及び向きとが同等になるように、前記第2の視野を算出し、前記第2の視野に基づいて、前記ボリュームデータを可視化する、機能を有する、鏡視下手術支援装置である。 One aspect of the present disclosure is an arthroscopic surgery support device that supports arthroscopic surgery, including an acquisition unit and a processing unit, the acquisition unit having a function of acquiring volume data of a subject, The processing unit sets a model representing the tissue included in the volume data, sets a first field of view for visualizing the volume data, and a position of a target in the model, and transforms the model. obtain first operation information for deforming the model, calculate changes in the position and orientation of the target before and after deforming the model based on the first operation information, and calculate the calculated position and orientation of the target. the second field of view, such that the position and orientation of the target after the change with respect to the first field of view and the position and orientation of the target before the change with respect to the second field of view are equivalent. The present invention is an arthroscopic surgery support device having a function of calculating the volume data and visualizing the volume data based on the second visual field.

本開示によれば、被検体におけるターゲットの観察環境のし易さを改善できる。 According to the present disclosure, it is possible to improve the ease of observation environment for a target in a subject.

第1の実施形態における医用画像処理装置のハードウェア構成例を示すブロック図A block diagram showing an example of the hardware configuration of a medical image processing device in the first embodiment 医用画像処理装置の機能構成例を示すブロック図Block diagram showing an example of functional configuration of a medical image processing device 医用画像処理装置による処理概要を説明する図Diagram illustrating an overview of processing by a medical image processing device モデルの生成例を示す図Diagram showing an example of model generation モデルの変形例を示す図Diagram showing a modified example of the model ターゲットと実カメラ位置との位置関係の一例を示す模式図Schematic diagram showing an example of the positional relationship between the target and the actual camera position 実カメラ位置と臓器の変形例とを示す模式図Schematic diagram showing actual camera positions and organ deformations 仮想カメラ位置の一例を示す模式図Schematic diagram showing an example of virtual camera position ターゲットを含まない臓器やターゲットを含む臓器の体表をレンダリング対象外とした画像の表示例を示す図Diagram showing an example of displaying an image in which the body surface of organs that do not contain targets or organs that contain targets are excluded from rendering. ターゲットを含む臓器と、ターゲットを含まない移動された臓器をレンダリング対象とした画像の表示例を示す図Diagram showing an example display of an image in which an organ that includes a target and a moved organ that does not include the target are rendered. 医用画像処理装置の動作例を示すフローチャートFlowchart showing an example of the operation of a medical image processing device

以下、本開示の実施形態について、図面を用いて説明する。 Embodiments of the present disclosure will be described below with reference to the drawings.

(本開示の一態様を得るに至った経緯)
術前シミュレーションや術中ナビゲーションでは、被検体の一部である観察対象(ターゲット)に注目して、詳細に観察することがある。例えば、鏡視下手術において、カメラ位置から見ると臓器の裏側にターゲットが位置する場合、カメラ位置からターゲットを確認できるように、臓器を変形することが想定される。このケースにおいて特許文献1の医用画像表示装置を用いる場合、ボリュームデータにおける臓器の部分を変形して、3次元医用画像をボリュームレンダリング等によりディスプレイに表示することになる。したがって、ボリュームデータに対して変形処理することとなり、演算量が膨大となる。さらに、ボリュームデータの各ボクセルに適切に剛性を設定し、臓器の境界における滑り、体液の流れ、空気を考慮する必要がある。さらに、手術過程を想定して臓器を少しずつ繰り返し変形させる場合、変形処理に係るボリュームデータの整合性を維持する必要がある。したがって、ボリュームデータと関心領域に対する微調整を手動で行う必要が出てくる。したがって、例えば、鏡視下手術において術者が鉗子を用いて臓器を操作するようなシミュレーションをリアルタイムに行うことは困難である。
(How one aspect of the present disclosure was obtained)
In preoperative simulation and intraoperative navigation, an object to be observed (target), which is a part of the subject, may be focused on and observed in detail. For example, in arthroscopic surgery, if a target is located on the back side of an organ when viewed from the camera position, it is assumed that the organ is deformed so that the target can be confirmed from the camera position. In this case, when the medical image display device of Patent Document 1 is used, the organ portion in the volume data is transformed and a three-dimensional medical image is displayed on the display by volume rendering or the like. Therefore, the volume data must be transformed, resulting in an enormous amount of calculation. Furthermore, it is necessary to appropriately set stiffness for each voxel in the volume data, and to take into account slippage at organ boundaries, body fluid flow, and air. Furthermore, when an organ is repeatedly deformed little by little in anticipation of a surgical process, it is necessary to maintain consistency of volume data related to the deformation process. Therefore, it becomes necessary to manually make fine adjustments to the volume data and the region of interest. Therefore, for example, it is difficult to simulate in real time that an operator manipulates an organ using forceps in arthroscopic surgery.

また、ボリュームデータの非剛体変形処理により変形処理されレンダリングされた画像は、術前シミュレーションや術中ナビゲーションにおいてそのまま確認されるので、変形処理の精度が高精度であることが要求される。特に、臓器境界が破綻していないことが要求される。 Furthermore, since the rendered image that has been transformed and rendered through non-rigid transformation processing of volume data is checked as is in preoperative simulation and intraoperative navigation, the accuracy of the transformation processing is required to be highly accurate. In particular, it is required that organ boundaries do not collapse.

また、臓器を変形する場合に、ターゲットを含む臓器を観察し易くするために、この臓器の周辺の他の臓器(例えば腹部領域における小腸)を細かく除去した区分(セグメンテーション)処理を行った上でターゲットを可視化することも考えられるが、迂遠である。また、ターゲットを含む臓器のみ変形させるシミュレーションをすることも考えられるが、この場合には複数の臓器間が仮想空間上で重なる可能性があり、被検体の可視化精度が低下し得る。 In addition, when deforming an organ, in order to make it easier to observe the organ including the target, other organs (for example, the small intestine in the abdominal region) around this organ are removed in detail (segmentation). It is possible to visualize the target, but this is a roundabout idea. It is also possible to perform a simulation in which only the organ including the target is deformed, but in this case, there is a possibility that a plurality of organs may overlap in the virtual space, and the visualization accuracy of the object may deteriorate.

また、ボリュームデータではなくサーフィスデータを変形させると、変形に係る処理速度を改善できるが、サーフィスレンダリングの精度が不十分となり得る。サーフィスデータを生成するために各臓器のセグメンテーションが不正確である場合、例えば細かい血管が大量にあると、細かい血管や入り組んだ臓器のサーフィスを正確に生成することが困難であるためである。例えば、肝臓に接続している血管と部分と接続していない血管が、更に不明瞭に可視化され得る。 Further, when surface data is transformed instead of volume data, processing speed related to transformation can be improved, but the accuracy of surface rendering may be insufficient. This is because if the segmentation of each organ to generate surface data is inaccurate, for example, if there are a large number of small blood vessels, it is difficult to accurately generate the surface of the small blood vessels or intricate organs. For example, blood vessels that connect to the liver and blood vessels that do not connect to the segment may be visualized more obscurely.

以下の実施形態では、被検体における観察対象の可視化を改善できる鏡視下手術支援装置、鏡視下手術支援方法、及びプログラムについて説明する。 In the following embodiments, an arthroscopic surgery support device, an arthroscopic surgery support method, and a program that can improve the visualization of an observation target in a subject will be described.

(第1の実施形態)
図1は、第1の実施形態における医用画像処理装置100の構成例を示すブロック図である。医用画像処理装置100は、取得部110、UI120、ディスプレイ130、プロセッサ140、及びメモリ150を備える。医用画像処理装置100は、鏡視下手術(ロボット手術を含む)を画像処理によって支援する。医用画像処理装置100は、例えば、術者による手術中のサポートを行うための術中ナビゲーション、又は術者による手術前の手術計画を策定するための術前シミュレーションを行う。
(First embodiment)
FIG. 1 is a block diagram showing a configuration example of a medical image processing apparatus 100 according to the first embodiment. The medical image processing apparatus 100 includes an acquisition unit 110, a UI 120, a display 130, a processor 140, and a memory 150. The medical image processing apparatus 100 supports arthroscopic surgery (including robotic surgery) by image processing. The medical image processing apparatus 100 performs, for example, intraoperative navigation to support the surgeon during surgery, or preoperative simulation to help the surgeon formulate a surgical plan before surgery.

医用画像処理装置100には、CT装置200が接続される。医用画像処理装置100は、CT装置200からボリュームデータを取得し、取得されたボリュームデータに対して処理を行う。医用画像処理装置100は、PCとPCに搭載されたソフトウェアにより構成されてもよい。 A CT device 200 is connected to the medical image processing device 100 . The medical image processing apparatus 100 acquires volume data from the CT apparatus 200 and processes the acquired volume data. The medical image processing apparatus 100 may be configured by a PC and software installed in the PC.

CT装置200は、被検体へX線を照射し、体内の組織によるX線の吸収の違いを利用して、画像(CT画像)を撮像する。被検体は、生体、人体、動物、等を含んでよい。CT装置200は、被検体内部の任意の箇所の情報を含むボリュームデータを生成する。CT装置200は、CT画像としてのボリュームデータを医用画像処理装置100へ、有線回線又は無線回線を介して送信する。CT画像の撮像には、CT撮像に関する撮像条件や造影剤の投与に関する造影条件が考慮されてよい。 The CT apparatus 200 irradiates a subject with X-rays and captures an image (CT image) by utilizing differences in the absorption of X-rays by tissues within the body. The subject may include a living body, a human body, an animal, and the like. The CT apparatus 200 generates volume data that includes information about any location inside the subject. The CT apparatus 200 transmits volume data as a CT image to the medical image processing apparatus 100 via a wired line or a wireless line. When taking a CT image, imaging conditions regarding CT imaging and contrast conditions regarding administration of a contrast agent may be taken into consideration.

医用画像処理装置100内の取得部110は、例えば、通信ポートや外部装置接続ポート、組み込みデバイスへの接続ポートを含み、CT装置200で得られたボリュームデータを取得する。取得されたボリュームデータは、直ぐにプロセッサ140に送られて各種処理されてもよいし、メモリ150において保管された後、必要時にプロセッサ140へ送られて各種処理されてもよい。また、ボリュームデータは、記録媒体や記録メディアを介して取得されてもよい。また、ボリュームデータは中間データ、圧縮データやシノグラムの形で取得されてもよい。また、ボリュームデータは医用画像処理装置100に取り付けられたセンサデバイスからの情報から取得されてもよい。このように、取得部110は、ボリュームデータ等の各種データを取得する機能を有する。 The acquisition unit 110 in the medical image processing apparatus 100 includes, for example, a communication port, an external device connection port, and a connection port to an embedded device, and acquires volume data obtained by the CT apparatus 200. The acquired volume data may be immediately sent to the processor 140 for various processing, or may be stored in the memory 150 and then sent to the processor 140 for various processing when necessary. Further, the volume data may be acquired via a recording medium or a recording medium. Further, the volume data may be obtained in the form of intermediate data, compressed data, or sinogram. Further, the volume data may be obtained from information from a sensor device attached to the medical image processing apparatus 100. In this way, the acquisition unit 110 has a function of acquiring various data such as volume data.

UI120は、例えば、タッチパネル、ポインティングデバイス、キーボード、又はマイクロホンを含んでよい。UI120は、医用画像処理装置100のユーザから、任意の入力操作を受け付ける。ユーザは、術者、医師、看護師、放射線技師、学生、等を含んでよい。 UI 120 may include, for example, a touch panel, a pointing device, a keyboard, or a microphone. The UI 120 accepts any input operation from the user of the medical image processing apparatus 100. Users may include surgeons, doctors, nurses, radiology technicians, students, and the like.

UI120は、各種操作を受け付ける。例えば、ボリュームデータやボリュームデータに基づく画像(例えば後述する3次元画像、2次元画像)における、関心領域(ROI)の指定や輝度条件の設定等の操作を受け付ける。関心領域は、各種組織(例えば、血管、気管支、臓器、器官、骨、脳)の領域を含んでよい。組織は、病変組織、正常組織、腫瘍組織、等を含んでよい。また、UI120は、ボリュームデータを基に生成されたモデルに対する各種操作(例えば変形操作)を受け付けてよい。 The UI 120 accepts various operations. For example, operations such as specifying a region of interest (ROI) and setting brightness conditions in volume data or images based on volume data (for example, three-dimensional images and two-dimensional images described later) are accepted. Regions of interest may include regions of various tissues (eg, blood vessels, bronchi, organs, organs, bones, brain). Tissues may include diseased tissue, normal tissue, tumor tissue, and the like. Further, the UI 120 may accept various operations (for example, transformation operations) on a model generated based on volume data.

ディスプレイ130は、例えばLCDを含んでよく、各種情報を表示する。各種情報は、ボリュームデータから得られる3次元画像や2次元画像を含んでよい。3次元画像は、ボリュームレンダリング画像、サーフェスレンダリング画像、仮想内視鏡画像、仮想超音波画像、CPR画像、等を含んでもよい。ボリュームレンダリング画像は、レイサム(RaySum)画像、MIP画像、MinIP画像、平均値画像、レイキャスト画像、等を含んでもよい。2次元画像は、アキシャル画像、サジタル画像、コロナル画像、MPR画像、等を含んでよい。 Display 130 may include, for example, an LCD, and displays various information. The various information may include three-dimensional images and two-dimensional images obtained from volume data. Three-dimensional images may include volume rendering images, surface rendering images, virtual endoscopic images, virtual ultrasound images, CPR images, and the like. Volume rendered images may include RaySum images, MIP images, MinIP images, average images, raycast images, and the like. Two-dimensional images may include axial images, sagittal images, coronal images, MPR images, and the like.

メモリ150は、各種ROMやRAMの一次記憶装置を含む。メモリ150は、HDDやSSDの二次記憶装置を含んでもよい。メモリ150は、USBメモリやSDカードの三次記憶装置を含んでもよい。メモリ150は、各種情報やプログラムを記憶する。各種情報は、取得部110により取得されたボリュームデータ、プロセッサ140により生成された画像、プロセッサ140により設定された設定情報、各種プログラムを含んでもよい。メモリ150は、プログラムが記録される非一過性の記録媒体の一例である。 The memory 150 includes various types of ROM and RAM primary storage devices. The memory 150 may include a secondary storage device such as an HDD or an SSD. The memory 150 may include a tertiary storage device such as a USB memory or an SD card. Memory 150 stores various information and programs. The various information may include volume data acquired by the acquisition unit 110, images generated by the processor 140, setting information set by the processor 140, and various programs. Memory 150 is an example of a non-transitory recording medium in which programs are recorded.

プロセッサ140は、CPU、DSP、又はGPUを含んでよい。プロセッサ140は、メモリ150に記憶された医用画像処理プログラムを実行することにより、各種処理や制御を行う処理部160として機能する。 Processor 140 may include a CPU, DSP, or GPU. The processor 140 functions as a processing unit 160 that performs various processes and controls by executing a medical image processing program stored in the memory 150.

図2は、処理部160の機能構成例を示すブロック図である。処理部160は、領域処理部161、変形処理部162、モデル設定部163、情報設定部164、画像生成部165、及び表示制御部166を備える。なお、処理部160に含まれる各部は、1つのハードウェアにより異なる機能として実現されてもよいし、複数のハードウェアにより異なる機能として実現されてもよい。また、処理部160に含まれる各部は、専用のハードウェア部品により実現されてもよい。 FIG. 2 is a block diagram showing an example of the functional configuration of the processing unit 160. The processing section 160 includes a region processing section 161, a transformation processing section 162, a model setting section 163, an information setting section 164, an image generation section 165, and a display control section 166. Note that each unit included in the processing unit 160 may be realized as different functions by one piece of hardware, or may be realized as different functions by a plurality of pieces of hardware. Further, each unit included in the processing unit 160 may be realized by a dedicated hardware component.

領域処理部161は、例えば取得部110を介して、被検体のボリュームデータを取得する。領域処理部161は、ボリュームデータに含まれる任意の領域を抽出する。領域処理部161は、例えばボリュームデータの画素値に基づいて、自動で関心領域を指定し、関心領域を抽出してよい。領域処理部161は、例えばUI120を介して、手動で関心領域を指定し、関心領域を設定してよい。関心領域は、臓器、骨、血管、患部(例えば病変組織や腫瘍組織)、等の領域を含んでよい。 The region processing unit 161 acquires volume data of the subject via the acquisition unit 110, for example. The area processing unit 161 extracts an arbitrary area included in the volume data. The region processing unit 161 may automatically specify a region of interest and extract the region of interest, for example, based on the pixel values of the volume data. The region processing unit 161 may manually specify a region of interest and set the region of interest, for example, via the UI 120. The region of interest may include areas such as organs, bones, blood vessels, diseased areas (eg, diseased tissue or tumor tissue), and the like.

また、関心領域は、単一の組織だけでなく、その組織の周囲の組織を含んでセグメンテーション(区分)されて抽出されてもよい。例えば、関心領域としての臓器が肝臓の場合、肝臓本体だけでなく、肝臓に接続する又は肝臓内若しくは肝臓周辺を走行する血管(例えば肝動脈、肝静脈、門脈)や、肝臓周辺の骨(例えば背骨、肋骨)を含んでもよい。また、上記の肝臓本体と肝臓内又は肝臓周辺の血管と肝臓周辺の骨とは、別々の組織としてセグメンテーションされて得られてもよい。 Furthermore, the region of interest may include not only a single tissue but also surrounding tissues, and may be segmented and extracted. For example, if the organ as the region of interest is the liver, not only the liver itself, but also the blood vessels that connect to the liver or run within or around the liver (e.g., hepatic artery, hepatic vein, portal vein), and the bones around the liver ( For example, the spine, ribs) may be included. Further, the liver body, the blood vessels in or around the liver, and the bones around the liver may be obtained by segmentation as separate tissues.

モデル設定部163は、組織のモデルを設定する。モデルは関心領域とボリュームデータに基づいて設定されてよい。モデルは、ボリュームデータに表現されている組織を、ボリュームデータよりも簡素化して表現するものである。したがって、モデルのデータ量は、モデルに対応するボリュームデータのデータ量よりも小さい。モデルは、変形処理や変形操作の対象となる。モデルは、例えばボーン変形モデルでよい。この場合、モデルは、簡易な有限要素において骨組みを仮定して、有限要素の頂点を移動させることで、ボーンが変形する。組織の変形は、ボーンの変形を追従することによって表現できる。モデルは、臓器(例えば肝臓)を模した臓器モデルを含んでよい。モデルは、単純な形状の多角形(例えば三角形)に類似する形状を有してもよいし、その他の形状を有してもよい。モデルは、例えば、臓器を示すボリュームデータの輪郭線であってもよい。モデルは、3次元モデルであっても2次元モデルであってもよい。なお、骨についてはモデルの変形ではなく、ボリュームデータの変形で表現されてもよい。骨は変形の自由度が小さいため、ボリュームデータのアフィン変換で表現できるためである。 The model setting unit 163 sets a model of the organization. The model may be established based on the region of interest and volume data. The model represents the tissue represented in the volume data in a manner that is simpler than the volume data. Therefore, the amount of data of the model is smaller than the amount of volume data corresponding to the model. The model is subject to transformation processing and transformation operations. The model may be, for example, a bone deformation model. In this case, the model assumes a skeleton made of simple finite elements, and the bones are deformed by moving the vertices of the finite elements. Tissue deformation can be expressed by following bone deformation. The model may include an organ model that simulates an organ (eg, liver). The model may have a shape similar to a simple polygon (eg, a triangle) or may have other shapes. The model may be, for example, a contour line of volume data representing an organ. The model may be a three-dimensional model or a two-dimensional model. Note that bones may be expressed not by deformation of a model but by deformation of volume data. This is because bones have a small degree of freedom of deformation and can be expressed by affine transformation of volume data.

モデル設定部163は、ボリュームデータに基づいて、モデルを生成することで、モデルを取得してよい。また、モデルのテンプレートが複数予め決まっており、メモリ150や外部サーバに保持されていてもよい。モデル設定部163は、ボリュームデータに合わせて、予め用意された複数のモデルのテンプレートから1つのモデルのテンプレートをメモリ150や外部サーバから取得することで、モデルを取得してもよい。 The model setting unit 163 may obtain the model by generating the model based on the volume data. Further, a plurality of model templates may be determined in advance and held in the memory 150 or an external server. The model setting unit 163 may acquire a model by acquiring one model template from a plurality of model templates prepared in advance from the memory 150 or an external server in accordance with the volume data.

情報設定部164は、各種情報を入力し又は取得し、設定する。例えば、情報設定部164は、鏡視下手術に用いられる内視鏡(カメラ)に関する情報(カメラ情報)を設定してよい。カメラは、カメラポートから挿入されて被検体内を撮像する。カメラ情報は、被検体に対するカメラ位置、カメラ向き、カメラ画角、等の情報を含んでよい。カメラ向きは、カメラが撮像する向きであり、カメラの光軸の方向と一致してよい。カメラ位置とカメラ向きとカメラ画角に応じて、カメラによる撮像範囲が決定されてよい。言い換えると、カメラ位置は、被検体を観察するための術者の視点とも言える。カメラ向きは、視点を起点とした術者の視線の向きとも言える。カメラ画角は、視点を基点とした術者の視野角とも言える。撮像範囲は、術者の視野とも言える。視点と視線の向きと視野角に応じて、視野が決定されてよい。視野は、ボリュームデータを可視化するための基準となる。なお、ここでのカメラ位置、カメラ向き、カメラ画角、及び撮像範囲は、実際に配置されるカメラを想定した情報であるので、実カメラ位置(実視点)、実カメラ向き(実視線向き)、実カメラ画角(実視野角)、及び実撮像範囲(実視野)とも称する。ここでの実際のカメラ情報を実カメラ情報とも称する。なお、情報設定部164は、術中ナビゲーションでは、任意のセンサにより検出されたカメラ情報を取得し、設定してもよい。 The information setting unit 164 inputs or obtains various information and sets it. For example, the information setting unit 164 may set information (camera information) regarding an endoscope (camera) used in arthroscopic surgery. The camera is inserted through the camera port and images the inside of the subject. The camera information may include information such as the camera position with respect to the subject, camera direction, camera view angle, and the like. The camera orientation is the direction in which the camera captures an image, and may coincide with the direction of the optical axis of the camera. The imaging range of the camera may be determined according to the camera position, camera orientation, and camera angle of view. In other words, the camera position can also be said to be the operator's viewpoint for observing the subject. The camera direction can also be said to be the direction of the operator's line of sight starting from the viewpoint. The camera angle of view can also be said to be the operator's viewing angle based on the viewpoint. The imaging range can also be said to be the operator's visual field. The field of view may be determined depending on the viewpoint, the direction of the line of sight, and the viewing angle. The field of view serves as a reference for visualizing volume data. Note that the camera position, camera direction, camera angle of view, and imaging range here are information assuming the camera actually placed, so the actual camera position (real viewpoint), real camera orientation (actual line of sight direction) , also referred to as an actual camera field of view (actual viewing angle), and an actual imaging range (actual field of view). The actual camera information here is also referred to as actual camera information. Note that in intraoperative navigation, the information setting unit 164 may acquire and set camera information detected by an arbitrary sensor.

情報設定部164は、術者が操作する鉗子(実鉗子)に関する鉗子情報を設定する。鉗子情報は、鉗子の位置や向きの情報を含んでよい。 The information setting unit 164 sets forceps information regarding the forceps (real forceps) operated by the operator. The forceps information may include information on the position and orientation of the forceps.

情報設定部164は、被検体に穿孔される各種ポートの位置の情報を設定してよい。各種ポートには、例えば、鉗子が挿入される鉗子ポート、カメラが挿入されるカメラポートが含まれる。なお、カメラは、カメラポートから挿入されるので、動きの自由度は小さい。また、鉗子は、鉗子ポートから挿入されるので、動きの自由度は小さい。 The information setting unit 164 may set information on the positions of various ports to be drilled into the subject. The various ports include, for example, a forceps port into which forceps are inserted and a camera port into which a camera is inserted. Note that since the camera is inserted through the camera port, the degree of freedom of movement is small. Furthermore, since the forceps are inserted through the forceps port, the degree of freedom of movement is small.

情報設定部164は、組織におけるターゲットを模して、組織に対応するモデルにおけるターゲットに関するターゲット情報を設定する。ターゲット情報は、ターゲットの位置や向きの情報を含んでよい。ターゲットは、任意の組織(例えば臓器)内もしくは組織近傍に設定される。ターゲット位置が定まると、ターゲットの向き(ターゲット向き)が定まる。ターゲット向きとは、変形におけるターゲットの向きの変化を求めるのに利用するパラメータであり、初期値は任意に設定できる。ターゲット位置は、組織内のターゲットの位置又は組織内のターゲット位置から最短距離にある組織の輪郭上の点における接線方向にできる。情報設定部164は、U120を介してターゲット位置を指定してよい。また、過去に被検体に対して処置されたターゲット(例えば患部)の位置がメモリ150に保持されていてもよい。情報設定部164は、メモリ150からターゲット位置を取得して設定してもよい。情報設定部164は、組織におけるターゲット位置に基づいてターゲット向きを算出して設定してよい。 The information setting unit 164 simulates a target in an organization and sets target information regarding a target in a model corresponding to the organization. The target information may include information on the position and orientation of the target. The target is set within or near an arbitrary tissue (for example, an organ). Once the target position is determined, the direction of the target (target orientation) is determined. The target orientation is a parameter used to determine the change in the orientation of the target during deformation, and the initial value can be set arbitrarily. The target location can be tangential to the location of the target within the tissue or at a point on the contour of the tissue that is the shortest distance from the target location within the tissue. The information setting unit 164 may specify the target position via U120. Furthermore, the memory 150 may hold the position of a target (for example, an affected area) that has been treated on a subject in the past. The information setting unit 164 may acquire the target position from the memory 150 and set it. The information setting unit 164 may calculate and set the target orientation based on the target position in the tissue.

変形処理部162は、手術対象の被検体における変形に関する処理を行う。被検体内の臓器等の組織は、手術における術者の各種処置を模してユーザによって各種の変形操作がされ得る。変形操作は、臓器を持ち上げる操作、ひっくり返す操作、切る操作、等を含んでよい。これに対応して、変形処理部162は、変形に関する処理として、被検体内の臓器等の組織に対応するモデルを変形させてよい。例えば、臓器が鉗子(例えば把持鉗子、剥離鉗子、電気メス)により引っ張られたり押されたり、切断されたりし得るが、この様子をモデルの変形によりシミュレートしてよい。これらの変形は、例えば、臓器の内部や裏側に位置することで術者により視認不能又は視認困難であるターゲットを、術者の視点(カメラ位置に相当)から視認可能(撮像可能)にさせるために実施され得る。つまり、モデルの内部や裏側に位置することで術者により視認不能又は視認困難であるターゲットを、術者の視点から視認可能にさせるために実施され得る。例えば、変形により、術者の視点とターゲットとの間に障害物(例えば骨)が不在の状況にする。モデルが変形すると、モデルにおけるターゲットも変形し得る。 The deformation processing unit 162 performs processing related to deformation of the subject to be operated on. Tissues such as organs within a subject can be subjected to various deformation operations by a user to imitate various treatments performed by a surgeon during surgery. The deformation operation may include lifting the organ, flipping it over, cutting it, and the like. Correspondingly, the deformation processing unit 162 may deform a model corresponding to a tissue such as an organ within the subject as a process related to deformation. For example, organs may be pulled, pushed, or cut by forceps (eg, grasping forceps, dissection forceps, electrocautery), and this may be simulated by deforming the model. These deformations are used, for example, to make a target that is invisible or difficult to see by the surgeon because it is located inside or behind an organ visible (capable of being imaged) from the surgeon's viewpoint (corresponding to the camera position). can be carried out. That is, this can be carried out to make a target that is located inside or on the back side of the model and thus invisible or difficult to see to the operator visible from the operator's viewpoint. For example, the deformation creates a situation in which there are no obstacles (such as bones) between the operator's viewpoint and the target. As the model deforms, the targets in the model may also deform.

変形操作による変形は、モデルに対して行われ、有限要素法を用いた大変形シミュレーションでよい。例えば、体位変換による臓器の移動をシミュレートしてよい。この場合、臓器や病変の接点に加わる弾性力や臓器や病変の剛性、その他の物理的な特性が加味されてよい。モデルに対する変形処理は、ボリュームデータに対する変形処理と比較すると、演算量が低減される。変形シミュレーションにおける要素数が低減されるためである。 Deformation by the deformation operation is performed on the model, and may be performed by large deformation simulation using the finite element method. For example, the movement of an organ due to a change in body position may be simulated. In this case, the elastic force applied to the contact point of the organ or lesion, the rigidity of the organ or lesion, and other physical characteristics may be taken into consideration. The amount of calculation required for deforming a model is reduced compared to deforming processing for volume data. This is because the number of elements in the deformation simulation is reduced.

モデルの設定では、モデル化される臓器におけるどの部分が被検体における他の部分とつながっているか、臓器に接続される血管の根本部分(臓器への接続部分)は動き難い、血管の先端部分は動き易い、骨は動き難い、骨を避けて他の組織が移動する、等の情報が設定され得る。組織のどのあたりが動き易く動き難いかの情報は、例えば、個別に細かく設定されてもよいし、均一の動きやすさとして設定されてもよい。また、変形によって組織が曲がる方向は、1つであっても複数存在してもよい。変形処理部162は、例えば、カメラ位置から見て静脈の裏側にターゲットが存在する場合、ターゲットを視認可能にモデルを変形することが困難であり、鏡視下手術は困難であるという情報を提供できる。 In the model settings, determine which part of the organ to be modeled is connected to other parts of the subject, the root part of the blood vessel connected to the organ (the part that connects to the organ) is difficult to move, and the tip part of the blood vessel is Information such as "easy to move", "bones are difficult to move", "other tissues move avoiding bones", etc. can be set. Information on which parts of the tissue are easy to move and which parts are difficult to move may be individually set in detail, or may be set as uniform ease of movement, for example. Furthermore, there may be one or more directions in which the tissue bends due to deformation. For example, the deformation processing unit 162 provides information that if the target exists on the back side of the vein when viewed from the camera position, it is difficult to deform the model so that the target can be visually recognized, and arthroscopic surgery is difficult. can.

モデルは、ディスプレイ130に表示されてよい。変形処理部162は、UI120を介してモデルに対して変形操作の情報を取得することで、モデルを変形してもよい。この場合、モデルに対する変形操作量に応じて、モデルにおける各部の変形量が決定されてよい。変形操作の情報は、例えば鉗子によって臓器を押す情報を含んでよい。臓器を押す情報は、臓器を押す位置、臓器を押す力、臓器を押す方向、等の情報を含んでよい。臓器を押す力は、臓器の可動点を、臓器を押す方向に変形させる要因として作用する。 The model may be displayed on display 130. The transformation processing unit 162 may transform the model by acquiring information on transformation operations for the model via the UI 120. In this case, the amount of deformation of each part of the model may be determined according to the amount of deformation operation for the model. The information on the deformation operation may include information on pressing the organ with forceps, for example. The information for pushing the organ may include information such as the position at which the organ is pushed, the force at which the organ is pushed, and the direction in which the organ is pushed. The force pushing the organ acts as a factor that deforms the movable point of the organ in the direction of pushing the organ.

変形処理部162は、ターゲットを含む臓器とターゲットを含まない臓器との位置関係に応じて、ターゲットを含む臓器のモデルの変形を制限してよい。例えば、臓器の周囲の一部において変形し難い骨が存在する場合、骨は変形しないものとして、骨が存在する方向にはこの臓器が変形しないように制限してもよい。モデルの変形の制限に関する制限情報(例えばモデルにおける変形が制限される位置の情報)は、モデルに関する情報として設定され、メモリ150に保持されていてもよい。 The deformation processing unit 162 may limit the deformation of the model of the organ including the target, depending on the positional relationship between the organ including the target and the organ not including the target. For example, if there is a bone that is difficult to deform in a part of the periphery of the organ, the bone may be assumed not to deform, and the direction in which the bone exists may be restricted so that the organ does not deform. Restriction information regarding restrictions on model deformation (for example, information on positions where deformation is restricted in the model) may be set as information regarding the model and held in the memory 150.

なお、モデルの形状は、実際の組織と比較して不正確でよい。例えば、臓器の輪郭は不正確であってよい。また、モデルの変形具合は、実際の組織の変形と比較して不正確でよく、例えば、臓器の変形前後の輪郭や形状は不正確であってよい。例えば、肝臓の端部の輪郭が不正確であることで、胃の一部が肝臓に入り込んでもよい。モデルの変形が実際の変形と比較して多少誤差があっても、モデルに対応するボリュームデータの可視化においてターゲットを視認しやすくなれば足りるためである。 Note that the shape of the model may be inaccurate compared to the actual tissue. For example, the contours of organs may be imprecise. Furthermore, the degree of deformation of the model may be inaccurate compared to the deformation of the actual tissue; for example, the outline and shape of an organ before and after deformation may be inaccurate. For example, an inaccurate contour at the edge of the liver may cause part of the stomach to extend into the liver. This is because even if the deformation of the model has some error compared to the actual deformation, it is sufficient that the target can be easily recognized in the visualization of the volume data corresponding to the model.

変形処理部162は、モデルの変形前後におけるターゲット位置及びターゲット向きの変化を算出する。この場合、モデルの変形を加味して、変形前のターゲット位置及びターゲット向きに基づいて、変形後のターゲット位置及びターゲット向きを算出してよい。 The deformation processing unit 162 calculates changes in target position and target orientation before and after deforming the model. In this case, the target position and target orientation after deformation may be calculated based on the target position and target orientation before deformation, taking into account the deformation of the model.

変形処理部162は、ボリュームデータを可視化するための仮想的なカメラ位置、カメラ向き、カメラ画角、及び撮像範囲を算出する。ここでのカメラ位置、カメラ向き、カメラ画角、及び撮像範囲は、実際に配置されるカメラを想定した情報ではなく、仮想的に導出された情報であるので、仮想カメラ位置(仮想視点)、仮想カメラ向き(仮想視線向き)、仮想カメラ画角(仮想視野角)、及び仮想撮像範囲(仮想視野)とも称する。ここでの仮想的なカメラ情報を仮想カメラ情報とも称する。 The transformation processing unit 162 calculates a virtual camera position, camera orientation, camera view angle, and imaging range for visualizing volume data. The camera position, camera direction, camera angle of view, and imaging range here are not information assuming an actually placed camera, but are information derived virtually, so the virtual camera position (virtual viewpoint), Also referred to as virtual camera direction (virtual line of sight direction), virtual camera view angle (virtual viewing angle), and virtual imaging range (virtual field of view). The virtual camera information here is also referred to as virtual camera information.

変形処理部162は、例えば、実カメラ位置と、実カメラ向きと、変形された(変形後の)臓器におけるターゲット位置やターゲット向きに基づいて、ターゲットを可視化するための仮想カメラ位置と仮想カメラ向きとを算出する。この場合、ターゲットを含む変形後の臓器のターゲット向きと実カメラ向きとの成す角度A1(図3参照)を算出する。そして、変形されていない(変形前の)臓器のターゲット向きと仮想カメラ向きとの成す角度A2(図3参照)が、算出された角度A1と同じになるように、仮想カメラ位置を決定する。 For example, the deformation processing unit 162 determines the virtual camera position and virtual camera orientation for visualizing the target based on the real camera position, the real camera orientation, and the target position and target orientation in the transformed (post-deformed) organ. Calculate. In this case, an angle A1 (see FIG. 3) formed between the target orientation of the deformed organ including the target and the actual camera orientation is calculated. Then, the virtual camera position is determined so that the angle A2 (see FIG. 3) formed between the target direction of the undeformed (before deformed) organ and the virtual camera direction is the same as the calculated angle A1.

変形処理部162は、モデルの変形に応じて、鉗子の位置及び向きを変更してよい。この場合、実カメラ位置及び実カメラ向きから仮想カメラ位置及び仮想カメラ向きへの変更と同様の方法で、実鉗子位置及び実鉗子向きから仮想鉗子位置及び仮想鉗子向きへ変更してよい。例えば、実鉗子位置と、実鉗子向きと、変形後の臓器におけるターゲット位置やターゲット向きに基づいて、仮想鉗子位置と仮想鉗子向きとを算出してよい。この場合、ターゲットを含む変形後の臓器のターゲット向きと実鉗子向きとの成す角度を算出し、変形前の臓器のターゲット向きと仮想鉗子向きとの成す角度が、算出された角度と同じになるように、仮想鉗子位置を決定してよい。なお、実鉗子は、実際の手術の際の鉗子を想定したものでよい。仮想鉗子は、演算により仮想的に導出された鉗子でよい。 The deformation processing unit 162 may change the position and orientation of the forceps according to the deformation of the model. In this case, the real forceps position and real forceps orientation may be changed to the virtual forceps position and virtual forceps orientation in the same manner as the change from the real camera position and real camera orientation to the virtual camera position and virtual camera orientation. For example, the virtual forceps position and the virtual forceps orientation may be calculated based on the real forceps position, the real forceps orientation, and the target position and target orientation in the deformed organ. In this case, the angle between the target orientation of the organ after deformation including the target and the real forceps orientation is calculated, and the angle between the target orientation of the organ before deformation and the virtual forceps orientation is the same as the calculated angle. As such, the virtual forceps position may be determined. Note that the actual forceps may be those intended for use in actual surgery. The virtual forceps may be forceps virtually derived by calculation.

また、変形処理部162は、変形に関する処理として、仮想的に被検体に対して気腹する気腹シミュレーションを行ってよい。気腹シミュレーションの具体的な方法は、公知の方法であってよく、例えば参考非特許文献1に記載された方法でよい。つまり、変形処理部162は、非気腹状態のボリュームデータを基に、気腹シミュレーションを行い、仮想気腹状態のボリュームデータを生成してよい。気腹シミュレーションにより、ユーザは、被検体に対して実際に気腹しなくても、被検体が気腹された状態を仮定し、仮想的に気腹された状態を観察できる。なお、気腹状態のうち、気腹シミュレーションにより推定される気腹の状態を仮想気腹状態と称し、実際の気腹された状態を実気腹状態と称してよい。 Further, the deformation processing unit 162 may perform a pneumoperitoneum simulation in which the subject is virtually insufflated as a process related to deformation. A specific method for the pneumoperitoneum simulation may be a known method, for example, the method described in Reference Non-Patent Document 1. That is, the deformation processing unit 162 may perform a pneumoperitoneum simulation based on volume data in a non-pneumoperitoneum state to generate volume data in a virtual pneumoperitoneum state. Through the pneumoperitoneum simulation, the user can assume that the subject is in a pneumoperitoneum state and virtually observe the pneumoperitoneum state without actually performing pneumoperitoneum on the subject. Note that among the pneumoperitoneum states, the pneumoperitoneum state estimated by the pneumoperitoneum simulation may be referred to as a virtual pneumoperitoneum state, and the actual pneumoperitoneum state may be referred to as an actual pneumoperitoneum state.

(参考非特許文献1)Takayuki Kitasaka, Kensaku Mori, Yuichiro Hayashi, Yasuhito Suenaga, Makoto Hashizume, and Jun-ichiro Toriwaki, “Virtual Pneumoperitoneum for Generating Virtual Laparoscopic Views Based on Volumetric Deformation”, MICCAI (Medical Image Computing and Computer-Assisted Intervention), 2004, P559-P567 (Reference Non-Patent Document 1) Takayuki Kitasaka, Kensaku Mori, Yuichiro Hayashi, Yasuhito Suenaga, Makoto Hashizume, and Jun-ichiro Toriwaki, “Virtual Pneumoperitoneum for Generating Virtual Laparoscopic Views Based on Volumetric Deformation”, MICCAI (Medical Image Computing and Computer- Assisted Intervention), 2004, P559-P567

気腹シミュレーションは、有限要素法を用いた大変形シミュレーションでよい。この場合、変形処理部162は、被検体の皮下脂肪を含む体表と、被検体の腹部内臓と、をセグメンテーションしてよい。そして、変形処理部162は、体表を皮膚と体脂肪との2層の有限要素にモデル化し、腹部内臓を有限要素にモデル化してよい。変形処理部162は、任意に、例えば肺と骨とをセグメンテーションし、モデルに追加してよい。また、体表と腹部内臓との間にガス領域を設け、仮想的なガス注入に応じてガス領域(気腹空間)が拡張(膨張)してよい。 The pneumoperitoneum simulation may be a large deformation simulation using the finite element method. In this case, the deformation processing unit 162 may segment the subject's body surface including subcutaneous fat and the subject's abdominal viscera. Then, the deformation processing unit 162 may model the body surface into a two-layer finite element of skin and body fat, and model the abdominal internal organs into a finite element. The deformation processing unit 162 may optionally segment, for example, lungs and bones, and add them to the model. Further, a gas region may be provided between the body surface and the abdominal internal organs, and the gas region (pneumoperitoneum space) may be expanded (inflated) in response to virtual gas injection.

画像生成部165は、各種画像を生成する。画像生成部165は、取得されたボリュームデータの少なくとも一部(例えばボリュームデータにおいて抽出された領域)に基づいて、3次元画像や2次元画像を生成する。画像生成部165は、変形処理部162により変形されたボリュームデータ(例えば仮想気腹状態のボリュームデータ)に基づいて、3次元画像や2次元画像を生成してよい。この場合、画像生成部165は、仮想カメラ位置から仮想カメラ向きを見た状態を表現するよう、ボリュームデータを可視化(例えばレンダリング)して3次元画像や2次元画像を生成してよい。 The image generation unit 165 generates various images. The image generation unit 165 generates a three-dimensional image or a two-dimensional image based on at least a portion of the acquired volume data (for example, an area extracted from the volume data). The image generation unit 165 may generate a three-dimensional image or a two-dimensional image based on the volume data transformed by the transformation processing unit 162 (for example, volume data of a virtual pneumoperitoneum state). In this case, the image generation unit 165 may generate a three-dimensional image or a two-dimensional image by visualizing (for example, rendering) the volume data so as to represent the state viewed from the virtual camera position toward the virtual camera.

表示制御部166は、各種データ、情報、画像をディスプレイ130に表示させる。画像は、画像生成部165で生成された画像(例えばレンダリング画像)を含む。また、表示制御部166は、レンダリング画像の輝度調整を行ってよい。輝度調整は、例えばウインドウ幅(WW:Window Width)及びウインドウレベル(WL:Window Level)の少なくとも一方の調整を含んでよい。 The display control unit 166 causes the display 130 to display various data, information, and images. The image includes an image generated by the image generation unit 165 (for example, a rendered image). Further, the display control unit 166 may adjust the brightness of the rendered image. The brightness adjustment may include, for example, adjusting at least one of window width (WW) and window level (WL).

図3は、医用画像処理装置100による処理概要を説明する図である。 FIG. 3 is a diagram illustrating an overview of processing by the medical image processing apparatus 100.

まず、取得部110は、被検体のボリュームデータを取得する。領域処理部161は、必要に応じて被検体に含まれる臓器TLの領域を抽出する。モデル設定部163は、臓器TLの領域に基づいて、モデルMLを生成する。臓器TLには、ターゲットTGが含まれる(過程A参照、臓器TLはモデルMLと区別せず説明する)。このモデルMLは、変形前のモデルMLAである。モデルMLの変形前の状態では、モデルMLAに対応する臓器TLを実カメラ位置21Aから実カメラ向き22Aを見た様子として可視化した場合、ターゲットTGを視認することはできない。 First, the acquisition unit 110 acquires volume data of the subject. The region processing unit 161 extracts the region of the organ TL included in the subject as necessary. The model setting unit 163 generates a model ML based on the region of the organ TL. The organ TL includes the target TG (see process A; the organ TL will be explained without distinguishing it from the model ML). This model ML is the model MLA before transformation. In the state before the model ML is deformed, when the organ TL corresponding to the model MLA is visualized as viewed from the real camera position 21A toward the real camera direction 22A, the target TG cannot be visually recognized.

変形処理部162は、モデルMLAに対して変形シミュレーションを施し、変形後のモデルMLBを得る(過程B参照)。変形シミュレーションでは、変形情報が得られる。変形情報は、例えば、変形前後のモデルMLのボーンの変形を示すものでよい。そして、変形処理部162は、変形後のターゲット位置41B及びターゲット向き42Bを算出する。ターゲット向き42(42A,42B)とは、臓器のターゲット位置41(41A,41B)等における接線方向である。モデルMLの変形後の状態では、モデルMLBに対応する臓器を実カメラ位置21Aから実カメラ向き22Aを見た様子として可視化した場合、臓器TL下部のターゲットTGを視認可能である。 The deformation processing unit 162 performs deformation simulation on the model MLA to obtain a deformed model MLB (see process B). In the deformation simulation, deformation information is obtained. For example, the deformation information may indicate the deformation of the bones of the model ML before and after the deformation. Then, the deformation processing unit 162 calculates the target position 41B and target orientation 42B after deformation. The target orientation 42 (42A, 42B) is a tangential direction at the target position 41 (41A, 41B) of the organ. In the state after the model ML is deformed, when the organ corresponding to the model MLB is visualized as viewed from the real camera position 21A toward the real camera direction 22A, the target TG below the organ TL can be visually recognized.

情報設定部164は、実カメラ位置21A及び実カメラ向き22Aを含む実カメラ情報を取得する。変形処理部162は、変形後のターゲット位置41B及びターゲット向き42B並びに実カメラ位置21A及び実カメラ向き22Aに基づいて、変形後のターゲットと実カメラとの位置関係を導出する。変形処理部162は、変形後のターゲットと実カメラとの位置関係に基づいて、つまり変形後のターゲット位置41B及びターゲット向き42B並びに実カメラ位置21A及び実カメラ向き22Aに基づいて、仮想カメラ位置21B及び仮想カメラ向き22Bを算出する(過程C参照))。つまり、変形処理部162は、変形前のモデルMLAにおいて、変形後のモデルMLBであればターゲットTGを視認可能であったはずの角度と距離になるように、仮想カメラ位置21B及び仮想カメラ向き22Bを算出する。この角度とは、実カメラ向き22Aと変形後のターゲット向き42Bとの成す角度A1と、仮想カメラ向き22Bと変形前のターゲット向き42Aとの成す角度A2であり、同じ角度となる。画像生成部165は、変形前のボリュームデータに基づいて、仮想カメラ位置21B及び仮想カメラ向き22Bを用いて可視化した画像を生成する。表示制御部166は、生成された画像をディスプレイ130に表示させる。つまり、変形前である元のボリュームデータを、仮想カメラ情報に基づいて可視化する。 The information setting unit 164 acquires real camera information including the real camera position 21A and the real camera orientation 22A. The deformation processing unit 162 derives the positional relationship between the deformed target and the real camera based on the deformed target position 41B and target orientation 42B, as well as the real camera position 21A and real camera orientation 22A. The deformation processing unit 162 determines the virtual camera position 21B based on the positional relationship between the deformed target and the real camera, that is, based on the deformed target position 41B and target orientation 42B, as well as the real camera position 21A and real camera orientation 22A. and calculate the virtual camera orientation 22B (see process C)). In other words, the deformation processing unit 162 sets the virtual camera position 21B and the virtual camera orientation 22B so that the model MLA before deformation has the angle and distance at which the target TG would have been visible in the model MLB after the deformation. Calculate. This angle is the angle A1 formed by the real camera orientation 22A and the target orientation 42B after transformation, and the angle A2 formed between the virtual camera orientation 22B and the target orientation 42A before transformation, which are the same angle. The image generation unit 165 generates an image visualized using the virtual camera position 21B and the virtual camera orientation 22B based on the volume data before transformation. The display control unit 166 causes the display 130 to display the generated image. In other words, the original volume data before transformation is visualized based on the virtual camera information.

これにより、医用画像処理装置100は、実カメラと変形後のターゲットTGとの角度関係と、仮想カメラと変形前のターゲットTGとの角度関係とが維持された状態で、仮想カメラ位置21BからターゲットTGを含む臓器を視認可能である。よって、ユーザは、ターゲットTGを十分に観察可能である。よって、例えば臓器のボリュームデータを変形させてターゲットTGを視認可能にして可視化して観察する場合と比較すると、プロセッサ140の演算量やユーザの手間を低減できる。このようなターゲットTGへのアプローチを示す可視化でも、術中ナビゲーション及び術前シミュレーションでは十分である。 As a result, the medical image processing apparatus 100 moves from the virtual camera position 21B to the target TG while maintaining the angular relationship between the real camera and the target TG after deformation and the angular relationship between the virtual camera and the target TG before deformation. Organs containing TG are visible. Therefore, the user can fully observe the target TG. Therefore, compared to the case where, for example, the target TG is visualized and observed by transforming the volume data of the organ, the amount of calculation by the processor 140 and the user's effort can be reduced. Such visualization showing the approach to the target TG is sufficient for intraoperative navigation and preoperative simulation.

図4は、モデルMLの生成例を示す図である。 FIG. 4 is a diagram showing an example of generation of model ML.

図4で示すモデルMLは、肝臓のボーン変形モデルである。肝臓10には、門脈12及び静脈14が含まれる。領域処理部161は、肝臓10の領域として、被検体から、肝臓10本体と門脈12と静脈14とを含む領域を区分して抽出する。肝臓10本体と門脈12及び静脈14とは繋がっている。門脈12及び静脈14は、肝臓10の外部において固定点として扱ってよい。この情報は例えば有限要素法を用いてボーンの変形を計算するときにおいて用いられる。なお、肝臓10本体と門脈12と静脈14とは、それぞれ別々の領域として抽出され、この3つの領域を合わせて肝臓10の領域とされてもよい。 The model ML shown in FIG. 4 is a liver bone deformation model. Liver 10 includes a portal vein 12 and a vein 14. The region processing unit 161 separates and extracts a region including the main body of the liver 10, the portal vein 12, and the vein 14 from the subject as the region of the liver 10. The main body of the liver 10 is connected to the portal vein 12 and vein 14. The portal vein 12 and vein 14 may be treated as fixed points outside the liver 10. This information is used, for example, when calculating bone deformation using the finite element method. Note that the main body of the liver 10, the portal vein 12, and the vein 14 may be extracted as separate regions, and these three regions may be combined to form the region of the liver 10.

図5は、モデルMLの変形例を示す図である。変形処理部162は、例えばUI120を介して変形操作を受け、モデルMLを変形する。例えば、UI120を介して変形前のモデルMLAの部分を矢印αの方向(図5では左上方向)へ移動させる操作を受け、この移動の検出に応じて矢印αの方向へ変形し、変形後のモデルMLBを生成する。肝臓10Aは、変形前のモデルMLAに対応する変形前の肝臓を示す。肝臓10Bは、変形後のモデルMLBに対応する肝臓を示す。よって、変形前後において肝臓10の輪郭が変化している。なお、ここでは肝臓10のモデルMLの変形が行われ、肝臓10のボリュームデータの変形は行われないことで、変形に係る演算量を低減可能である。 FIG. 5 is a diagram showing a modification of the model ML. The transformation processing unit 162 receives a transformation operation via the UI 120, for example, and transforms the model ML. For example, when an operation is received via the UI 120 to move a part of the model MLA before deformation in the direction of arrow α (upper left direction in FIG. 5), the part of model MLA before deformation is deformed in the direction of arrow α in response to detection of this movement, and the Generate model MLB. Liver 10A shows a liver before deformation corresponding to model MLA before deformation. Liver 10B shows a liver corresponding to model MLB after deformation. Therefore, the outline of the liver 10 changes before and after the deformation. Note that here, the model ML of the liver 10 is deformed, and the volume data of the liver 10 is not deformed, so that the amount of calculations related to the deformation can be reduced.

図6は、ターゲットTGと実カメラ位置21Aの位置関係の一例を示す模式図である。ここでは、鏡視下手術の一例として腹腔鏡手術を挙げるが、他の鏡視下手術であってもよい。なお、図6~図10では、モデルMLの輪郭が、肝臓10の輪郭と一致していることを例示する。また、モデルMLは、ディスプレイ130に表示されても表示されなくてもよい。図6~図10では、モデルMLは、肝臓10の臓器モデルであることを例示する。 FIG. 6 is a schematic diagram showing an example of the positional relationship between the target TG and the actual camera position 21A. Here, laparoscopic surgery is given as an example of arthroscopic surgery, but other arthroscopic surgery may be used. Note that FIGS. 6 to 10 illustrate that the contour of the model ML matches the contour of the liver 10. Furthermore, the model ML may or may not be displayed on the display 130. In FIGS. 6 to 10, model ML is exemplified as an organ model of the liver 10.

図6では、変形前のカメラ位置(実カメラ位置21A)及びカメラ向き(実カメラ向き22A)並びに鉗子30の位置及び向きが示されている。図6では、実カメラ位置21Aから見ると、変形前の肝臓10に対応するモデルMLAにおけるターゲットTGは、肝臓10における他箇所の裏側に隠れている。そのため、実カメラ位置21Aから実カメラ向き22Aを見ても、ターゲットTGを確認できない状態である。なお、実カメラ位置21A及び鉗子30の位置とは一致しておらず、異なっている。 FIG. 6 shows the camera position (actual camera position 21A) and camera orientation (actual camera orientation 22A) before deformation, as well as the position and orientation of the forceps 30. In FIG. 6, when viewed from the real camera position 21A, the target TG in the model MLA corresponding to the liver 10 before deformation is hidden behind other parts of the liver 10. Therefore, even when looking at the real camera direction 22A from the real camera position 21A, the target TG cannot be confirmed. Note that the actual camera position 21A and the position of the forceps 30 do not match and are different.

図7は、実カメラ位置21Aと臓器の変形例を示す模式図である。 FIG. 7 is a schematic diagram showing a modified example of the actual camera position 21A and organs.

変形前のモデルMLAは、ターゲット位置41がカメラ位置21から視認可能となるように、つまりカメラ位置21とターゲット位置41との間に障害物が不在となるように、変形される。モデルMLの変形は、UI120を介した変形操作に応じて行われてよい。変形後のモデルMLBでは、ターゲット位置41Bが実カメラ位置21Aから視認可能となっており、つまり実カメラ位置21Aとターゲット位置41Bとの間に障害物が不在となっている。ここでの障害物とは、ターゲットTGを含む肝臓10における他の箇所であったり、他の組織(例えば骨)であったりしてよい。 The model MLA before deformation is deformed so that the target position 41 is visible from the camera position 21, that is, so that there are no obstacles between the camera position 21 and the target position 41. The model ML may be transformed in response to a transformation operation via the UI 120. In the modified model MLB, the target position 41B is visible from the real camera position 21A, that is, there is no obstacle between the real camera position 21A and the target position 41B. The obstacle here may be another location in the liver 10 that includes the target TG, or another tissue (eg, bone).

また、図7では、肝臓10に対応するモデルMLの変形に伴って、モデルMLに含まれるターゲットTGが変形され、つまりターゲット位置41やターゲット向き42が変化する。変形処理部162は、モデルMLの変形に係る変形情報に基づいて、ターゲットTGの変形前後における移動情報及び回転情報を算出してよい。例えば、ユーザによる手術の操作(例えば、臓器を引っ張る、臓器をひっくり返す、臓器をめくる、臓器の切除)が、演算における変形によるターゲットTGの移動や回転で示されてよい。つまり、手術操作による臓器の変形を、演算によって移動や回転の組み合わせによって疑似的に表現されてよい。モデルMLの変形情報やターゲットTGの移動情報や回転情報は、メモリ150に保持されてよい。 Further, in FIG. 7, as the model ML corresponding to the liver 10 is deformed, the target TG included in the model ML is deformed, that is, the target position 41 and target orientation 42 change. The deformation processing unit 162 may calculate movement information and rotation information of the target TG before and after deformation, based on deformation information related to the deformation of the model ML. For example, a user's surgical operation (for example, pulling an organ, flipping an organ, flipping an organ, or resecting an organ) may be indicated by movement or rotation of the target TG due to deformation in calculations. In other words, the deformation of an organ caused by a surgical operation may be expressed in a pseudo manner by a combination of movement and rotation using calculations. The deformation information of the model ML and the movement information and rotation information of the target TG may be held in the memory 150.

図8は、仮想カメラ位置21Bの一例を示す模式図である。 FIG. 8 is a schematic diagram showing an example of the virtual camera position 21B.

変形処理部162は、ターゲットTGの移動情報及び回転情報を取得する。そして、変形前のモデルMLに対してターゲットTGの移動情報及び回転情報の逆算結果を適用し、仮想カメラ位置21B及び仮想カメラ向き22Bを算出する。つまり、変形処理部162は、実カメラ位置21A及び実カメラ向き22Aに対する変形後のターゲット位置41B及びターゲット向き42Bの角度と距離に関する関係と、仮想カメラ位置21B及び仮想カメラ向き22Bに対する変形前のターゲット位置41A及びターゲット向き42Aの角度と距離に関する関係とが等しくなるように、即ち角度A1とA2とが等しくなるように、実カメラ位置21Aの位置及び実カメラ向き22Aを、仮想カメラ位置21B及び仮想カメラ向き23Bへ変更する。この場合、変形処理部162は、カメラ位置及びカメラ向きの変更と同様に、鉗子30の位置及び向きを変更してよい。つまり、実際の鉗子30(実鉗子30A)の位置及び向きを、仮想的な鉗子30(仮想鉗子30B)の位置及び向きに変更してよい。 The deformation processing unit 162 acquires movement information and rotation information of the target TG. Then, the back calculation results of the movement information and rotation information of the target TG are applied to the model ML before deformation, and the virtual camera position 21B and virtual camera orientation 22B are calculated. In other words, the deformation processing unit 162 calculates the angle and distance relationship of the deformed target position 41B and target orientation 42B with respect to the real camera position 21A and real camera orientation 22A, and the undeformed target position with respect to the virtual camera position 21B and virtual camera orientation 22B. The position of the real camera position 21A and the real camera orientation 22A are changed to the virtual camera position 21B and the virtual camera position 22A so that the angle and distance relationship between the position 41A and the target orientation 42A are equal, that is, the angles A1 and A2 are equal. Change the camera orientation to 23B. In this case, the deformation processing unit 162 may change the position and orientation of the forceps 30 in the same way as changing the camera position and camera orientation. That is, the position and orientation of the actual forceps 30 (real forceps 30A) may be changed to the position and orientation of the virtual forceps 30 (virtual forceps 30B).

次に、医用画像処理装置100による画像の表示例について説明する。 Next, an example of displaying images by the medical image processing apparatus 100 will be described.

表示制御部166は、図9に示すように、例えば、ターゲットTGを含まない臓器(例えば骨)やターゲットTGを含む臓器の表面等を非表示とし、内部の血管を表示して、レンダリング画像を表示させてよい。これにより、医用画像処理装置100は、視点移動した仮想カメラ位置21Bから見た画像(例えば仮想内視鏡画像)の手前に障害物が存在することを抑制でき、観察対象であるターゲットTGやターゲットTG周辺の臓器を良好に観察し易くできる。 As shown in FIG. 9, the display control unit 166, for example, hides organs that do not contain the target TG (for example, bones) and the surface of the organ that contains the target TG, displays internal blood vessels, and creates a rendered image. You may display it. Thereby, the medical image processing apparatus 100 can suppress the presence of an obstacle in front of the image (for example, a virtual endoscopic image) seen from the virtual camera position 21B to which the viewpoint has been moved, and The organs around the TG can be easily observed.

また、画像生成部165は、ターゲットTGを含まない臓器(例えば骨や手術の障害になり得る別の臓器)を、ターゲットTGを含む臓器とは別途レンダリングしてよい。表示制御部166は、図10に示すように、別途レンダリングされたターゲットTGを含まない臓器の画像とターゲットTGを含む臓器の画像とを合成して表示させてよい。 Further, the image generation unit 165 may render an organ that does not include the target TG (for example, a bone or another organ that may become an obstacle to surgery) separately from an organ that includes the target TG. As shown in FIG. 10, the display control unit 166 may combine and display a separately rendered image of an organ that does not include the target TG and an image of the organ that includes the target TG.

この場合、変形処理部162は、実カメラ位置21Aから仮想カメラ位置21Bの移動に伴って、別途レンダリングされたターゲットTGを含まない臓器を移動させてよい。例えば、仮想カメラ位置21B及び仮想カメラ向き22Bを導出する際と同様に、モデルMLの変形前後におけるターゲットTGの移動情報及び回転情報を逆算して、ターゲットTGを含まない臓器の位置及び向きを算出してよい。この場合、移動前のターゲットTGを含まない臓器の位置及び向きに対する変形後のターゲット位置41B及びターゲット向き42Bの角度及び距離の関係と、移動後のターゲットTGを含まない臓器の位置及び向きに対する変形前のターゲット位置41A及びターゲット向き42Aの角度及び距離の関係と、が等しくなるように、移動前のターゲットTGを含まない臓器の位置及び向きを、移動後のターゲットTGを含まない臓器の位置及び向きへ変更してよい。図10では、骨15を骨15Bとなるように移動させて、肝臓10とは別にレンダリングした画像例を示している。 In this case, the deformation processing unit 162 may move the organ that does not include the separately rendered target TG as the virtual camera position 21B moves from the real camera position 21A. For example, in the same way as when deriving the virtual camera position 21B and the virtual camera orientation 22B, the movement information and rotation information of the target TG before and after deformation of the model ML are calculated backward to calculate the position and orientation of the organ that does not include the target TG. You may do so. In this case, the relationship between the angle and distance of the target position 41B and the target orientation 42B after deformation with respect to the position and orientation of the organ that does not include the target TG before movement, and the deformation with respect to the position and orientation of the organ that does not include the target TG after movement. The position and orientation of the organ that does not include the target TG before the movement is changed to the position and orientation of the organ that does not include the target TG after the movement so that the angle and distance relationship between the previous target position 41A and the target orientation 42A are equal. You can change the direction. FIG. 10 shows an example of an image rendered separately from the liver 10 by moving the bone 15 to become a bone 15B.

図11は、医用画像処理装置100の動作例を示すフローチャートである。 FIG. 11 is a flowchart showing an example of the operation of the medical image processing apparatus 100.

まず、被検体(例えば患者)のボリュームデータを取得する(S11)。気腹シミュレーションを実行する(S12)。臓器を抽出する臓器セグメンテーション及び骨を抽出する骨セグメンテーションを実行する(S13)。ボリュームデータに基づいて、モデルMLを取得する(S14)。鉗子ポート、カメラポート、及びターゲット情報(例えばターゲット位置41及びターゲット向き42)を取得する(S15)。実鉗子の位置(実鉗子位置)及び向き(実鉗子向き)と実カメラの位置(実カメラ位置21A)及び向き(実カメラ向き22A)の情報を取得する(S16)。なお、S16では、実カメラ位置21A及び実カメラ向き22Aの情報の取得は、実撮像範囲(実視野)の取得であってもよい。 First, volume data of a subject (for example, a patient) is acquired (S11). A pneumoperitoneum simulation is performed (S12). Organ segmentation for extracting organs and bone segmentation for extracting bones are performed (S13). A model ML is obtained based on the volume data (S14). The forceps port, camera port, and target information (for example, target position 41 and target orientation 42) are acquired (S15). Information on the position (real forceps position) and orientation (real forceps orientation) of the real forceps and the position (real camera position 21A) and orientation (real camera orientation 22A) of the real camera is acquired (S16). Note that in S16, the information on the actual camera position 21A and the actual camera orientation 22A may be acquired by acquiring the actual imaging range (actual field of view).

鉗子30によってターゲットTGを含む臓器を押す情報を取得する(S17)。臓器を押す情報に基づいて、モデルMLを変形し、モデルMLの変形前後におけるターゲット位置41及びターゲット向き42の変化を算出する(S18)。ここでは、変形後のターゲット位置41B及びターゲット向き42Bが算出されてよい。ターゲット位置41及びターゲット向き42の変化、実鉗子位置及び実鉗子向き、並びに実カメラ位置21A及び実カメラ向き22Aに基づいて、移動後の仮想鉗子30Bの位置(仮想鉗子位置)及び向き(仮想鉗子向き)と仮想カメラの位置(仮想カメラ位置21B)及び向き(仮想カメラ向き22B)を算出する(S19)。仮想カメラ位置21B及び仮想カメラ向き22Bに基づいて、ボリュームデータを仮想カメラ位置21Bから仮想カメラ向き22Bを見てレンダリングした画像を生成する(S20)。なお、S19及びS20では、仮想カメラ位置21B及び仮想カメラ向き22Bの算出は、仮想撮像範囲(仮想視野)の算出であってもよく、仮想撮像範囲に基づいて、画像生成が行われてもよい。 Information about pressing the organ including the target TG with the forceps 30 is acquired (S17). The model ML is deformed based on the information about pressing the organ, and changes in the target position 41 and target orientation 42 before and after the deformation of the model ML are calculated (S18). Here, the target position 41B and target orientation 42B after deformation may be calculated. Based on changes in the target position 41 and target orientation 42, the real forceps position and real forceps orientation, and the real camera position 21A and real camera orientation 22A, the position (virtual forceps position) and orientation (virtual forceps direction), the position (virtual camera position 21B), and direction (virtual camera orientation 22B) of the virtual camera are calculated (S19). Based on the virtual camera position 21B and the virtual camera orientation 22B, an image is generated by rendering the volume data by viewing the virtual camera orientation 22B from the virtual camera position 21B (S20). Note that in S19 and S20, the calculation of the virtual camera position 21B and the virtual camera orientation 22B may be the calculation of a virtual imaging range (virtual field of view), and image generation may be performed based on the virtual imaging range. .

なお、処理部160は、S20におけるレンダリング後に、S16における実鉗子位置、実鉗子向き、実カメラ位置、及び実カメラ向きを、UI120を介して入力し、S17以降の処理を行ってもよい。つまり、S16~S20の処理を反復してもよい。これにより、医用画像処理装置100は、ユーザが鉗子30やカメラを自由に動かして操作しても、操作された鉗子30やカメラの位置や向きを反映しながら、ターゲットTGを見やすい状態でレンダリングして可視化できる。 Note that, after rendering in S20, the processing unit 160 may input the real forceps position, real forceps orientation, real camera position, and real camera orientation in S16 via the UI 120, and perform the processing from S17 onwards. In other words, the processes from S16 to S20 may be repeated. As a result, even if the user freely moves and operates the forceps 30 and camera, the medical image processing apparatus 100 renders the target TG in a state that is easy to see while reflecting the position and orientation of the operated forceps 30 and camera. can be visualized.

なお、処理部160は、S20におけるレンダリング後に、S17における臓器を押す情報を、UI120を介して入力し、S18以降の処理を行ってもよい。つまり、S17~S20の処理を反復してもよい。これにより、医用画像処理装置100は、例えばユーザが鉗子30を動かして臓器の押し方(例えば臓器を押す位置、押す力、押す方向)を変更しても、操作された鉗子30やカメラの位置や向きを反映しながら、ターゲットTGを見やすい状態でレンダリングして可視化できる。 Note that, after the rendering in S20, the processing unit 160 may input information for pressing the organ in S17 via the UI 120, and perform the processing from S18 onwards. In other words, the processes of S17 to S20 may be repeated. As a result, even if the user moves the forceps 30 and changes the way the organ is pushed (for example, the position at which the organ is pushed, the force at which it is pushed, and the direction in which it is pushed), the medical image processing apparatus 100 can maintain the position of the operated forceps 30 or the camera. The target TG can be rendered and visualized in an easy-to-see state while reflecting the direction and direction.

なお、S13における臓器セグメンテーション及び骨セグメンテーションの精度は、高精度でなくてもよい。例えば臓器や骨の輪郭に多少の誤差があっても、臓器におけるターゲットTGの様子を視認し易くなれば足りるためである。 Note that the accuracy of the organ segmentation and bone segmentation in S13 does not need to be high accuracy. For example, even if there is some error in the outline of an organ or bone, it is sufficient that the state of the target TG in the organ can be easily recognized.

図11の処理によれば、医用画像処理装置100は、画素数の大きなボリュームデータの変形を行わずに、モデルMLの変形を行うことで、変形に係る演算量を低減できる。また、モデルMLの変形により臓器を変形してターゲットTGを視認可能な状態を、可視化対象のボリュームデータを変形せずに手軽に再現できる。よって、ユーザは、実カメラ位置からターゲットTGに対してアプローチ可能か否か、アプローチの途中に障害物があるか否か、鉗子30によるアプローチが可能な角度であるか否かを、等を確認できる。また、医用画像処理装置100は、モデルMLを変形してもターゲットTGを視認できない場合には、鏡視下手術ではなく開腹手術を行うことを推奨できる。つまり、鏡視下手術可能か開腹手術が必要かの判断材料を提供できる。 According to the process shown in FIG. 11, the medical image processing apparatus 100 can reduce the amount of calculations related to transformation by transforming the model ML without transforming volume data with a large number of pixels. Furthermore, a state in which the target TG can be visually recognized by deforming the organ by deforming the model ML can be easily reproduced without deforming the volume data to be visualized. Therefore, the user checks whether it is possible to approach the target TG from the actual camera position, whether there are any obstacles on the way to the approach, whether the angle is such that the approach with the forceps 30 is possible, etc. can. Furthermore, if the target TG cannot be visually recognized even after deforming the model ML, the medical image processing apparatus 100 can recommend performing open surgery instead of arthroscopic surgery. In other words, it can provide information for determining whether arthroscopic surgery is possible or open surgery is necessary.

以上、図面を参照しながら各種の実施形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。 Although various embodiments have been described above with reference to the drawings, it goes without saying that the present disclosure is not limited to such examples. It is clear that those skilled in the art can come up with various changes or modifications within the scope of the claims, and these naturally fall within the technical scope of the present disclosure. Understood.

例えば、術前シミュレーション及び術中ナビゲーションが行われる鏡視下手術は、腹腔鏡手術、関節鏡手術、気管支鏡手術、大腸鏡手術、又はその他の鏡視下手術であってもよい。また、鏡視下手術は、術者が鉗子を直接操作して行う手術であっても、手術ロボットを用いたロボット手術であってもよい。 For example, the arthroscopic surgery in which preoperative simulation and intraoperative navigation are performed may be laparoscopic surgery, arthroscopic surgery, bronchoscopy surgery, colonoscopic surgery, or other arthroscopic surgery. Furthermore, arthroscopic surgery may be a surgery performed by the surgeon directly operating forceps, or a robotic surgery using a surgical robot.

また、組織の変形は、組織の切除を含んでよい。ここでの切除による変形は、モデルMLに対して実施されるが、ボリュームデータに対しても適用されてよい。切除に係る演算量は、ボリュームデータを用いても膨大ではないためである。具体的には、変形処理部162は、例えばUI120を介して切除操作を取得すると、切除操作に応じて、ボリュームデータを切除することで変形してよい。また、領域処理部161が、ボリュームデータにおいて切除される箇所を表示対象外となる非マスク領域に設定し、表示制御部166が、非マスク領域に含まれるボリュームデータの一部を非表示にさせてもよい。 Tissue modification may also include tissue ablation. The deformation by cutting here is performed on the model ML, but it may also be applied to volume data. This is because the amount of calculation involved in excision is not enormous even if volume data is used. Specifically, upon acquiring a cutting operation via the UI 120, for example, the deformation processing unit 162 may transform the volume data by cutting the volume data in accordance with the cutting operation. Further, the area processing unit 161 sets the portion of the volume data to be excised as a non-masked area that is not to be displayed, and the display control unit 166 causes a part of the volume data included in the non-masked area to be hidden. It's okay.

また、組織の変形は、ボリュームデータに対して等間隔に配置された格子点を動かすことによって表現しても良い。この場合、ターゲットの向きの変化は、格子点間に張られる線分の向きの変化によって表現できる。例えば参考特許文献1にこの実施方法が記載されている。
(参考特許文献1:米国特許第8311300号明細書)
Furthermore, tissue deformation may be expressed by moving grid points arranged at equal intervals with respect to volume data. In this case, a change in the orientation of the target can be expressed by a change in the orientation of line segments drawn between grid points. For example, this implementation method is described in Reference Patent Document 1.
(Reference Patent Document 1: US Patent No. 8311300)

また、視点の移動に関して、変形前後において、ターゲットTGに対してカメラ位置(視点)を移動可能にする一方、ターゲットTGとカメラ位置との距離を一定に保たずに距離が変化してもよい。例えば、ターゲットTGを含む臓器を仮想内視鏡画像(透視投影画像)によって可視化する場合、仮想内視鏡画像において視点とターゲットTGとの距離が維持されても維持されなくてもよい。なお、平行投影の場合、ターゲットTGと視点との距離を観念困難である。距離を維持しない場合、例えば、実カメラ位置とターゲットTGとの距離とは異なるズームインやズームアウトを表現できる。 Regarding the movement of the viewpoint, while the camera position (viewpoint) can be moved with respect to the target TG before and after transformation, the distance between the target TG and the camera position may not be kept constant and the distance may change. . For example, when an organ including the target TG is visualized using a virtual endoscopic image (perspective projection image), the distance between the viewpoint and the target TG may or may not be maintained in the virtual endoscopic image. Note that in the case of parallel projection, it is difficult to estimate the distance between the target TG and the viewpoint. If the distance is not maintained, for example, zooming in or zooming out can be expressed that is different from the distance between the actual camera position and the target TG.

また、変形処理部162は、ターゲットTGに対する実カメラ位置及び実カメラ向きの仮想カメラ位置及び仮想カメラ向きへの移動後に、UI120を介して仮想カメラ位置及び仮想カメラ向きの少なくとも一方を更に変更してもよい。これにより、医用画像処理装置100は、実カメラ位置と変形後のモデルMLにおけるターゲットTGとの位置関係に基づく自動の視点移動に加えて、手動による視点移動も追加実施できる。よって、例えば、自動の視点移動の結果を手動の視点移動で微調整して、手動で移動された視点を基準として生成された画像を確認することで、ターゲットTGの様子を更に見易くすることができる。 Furthermore, after the real camera position relative to the target TG, the virtual camera position facing the real camera, and the movement to the virtual camera orientation, the transformation processing unit 162 further changes at least one of the virtual camera position and the virtual camera orientation via the UI 120. Good too. Thereby, the medical image processing apparatus 100 can additionally perform manual viewpoint movement in addition to automatic viewpoint movement based on the positional relationship between the actual camera position and the target TG in the model ML after deformation. Therefore, for example, by fine-tuning the result of automatic viewpoint movement by manual viewpoint movement and checking the image generated based on the manually moved viewpoint, it is possible to make the state of the target TG even easier to see. can.

また、処理部160は、ターゲットTGが実カメラ位置から視認困難又は視認不可能である場合に実カメラ位置から仮想カメラ位置へ移動させてターゲットTG周辺を可視化することを例示したが、これに限らない。例えば、処理部160は、ターゲットTGが実カメラ位置から視認可能であるが、ターゲットTGの様子をより見やすい仮想カメラ位置へ移動させ、仮想カメラ位置から見たターゲットTG周辺の様子を可視化してもよい。これにより、医用画像処理装置100は、ターゲットTGを視認可能な場合でも、ターゲットTGの様子を一層観察し易くできる。 In addition, although the processing unit 160 has been shown to visualize the area around the target TG by moving it from the real camera position to the virtual camera position when the target TG is difficult or impossible to see from the real camera position, the processing unit 160 is not limited to this. do not have. For example, although the target TG is visible from the real camera position, the processing unit 160 may move the target TG to a virtual camera position where it is easier to see and visualize the surroundings of the target TG as seen from the virtual camera position. good. Thereby, the medical image processing apparatus 100 can make it easier to observe the state of the target TG even when the target TG is visible.

上記実施形態の適用対象の臓器として肝臓を主に例示したが、他の臓器であってもよい。例えば、肺、胃、腸、膵臓、その他の臓器であってもよい。 Although the liver is mainly illustrated as an organ to which the above embodiment is applied, other organs may be used. For example, it may be the lungs, stomach, intestines, pancreas, or other organs.

また、医用画像処理装置100は、少なくともプロセッサ140及びメモリ150を備えていればよい。取得部110、UI120、及びディスプレイ130は、医用画像処理装置100に対して外付けであってもよい。 Furthermore, the medical image processing apparatus 100 only needs to include at least a processor 140 and a memory 150. The acquisition unit 110, the UI 120, and the display 130 may be externally attached to the medical image processing apparatus 100.

また、撮像されたCT画像としてのボリュームデータは、CT装置200から医用画像処理装置100へ送信されることを例示した。この代わりに、ボリュームデータが一旦蓄積されるように、ネットワーク上のサーバ(例えば画像データサーバ(PACS)(不図示))等へ送信され、保管されてもよい。この場合、必要時に医用画像処理装置100の取得部110が、ボリュームデータを、有線回線又は無線回線を介してサーバ等から取得してもよいし、任意の記憶媒体(不図示)を介して取得してもよい。 In addition, the volume data as a captured CT image has been illustrated as being transmitted from the CT apparatus 200 to the medical image processing apparatus 100. Alternatively, the volume data may be sent to a server on a network (for example, an image data server (PACS) (not shown)) and stored so that the volume data is temporarily stored. In this case, the acquisition unit 110 of the medical image processing apparatus 100 may acquire the volume data from a server or the like via a wired line or wireless line, or via an arbitrary storage medium (not shown) when necessary. You may.

また、撮像されたCT画像としてのボリュームデータは、CT装置200から医用画像処理装置100へ取得部110を経由して送信されることを例示した。これは、実質的にCT装置200と医用画像処理装置100とを併せて一製品として成立している場合も含まれるものとする。また、医用画像処理装置100がCT装置200のコンソールとして扱われている場合も含む。 Further, the volume data as a captured CT image is transmitted from the CT apparatus 200 to the medical image processing apparatus 100 via the acquisition unit 110, as an example. This also includes the case where the CT apparatus 200 and the medical image processing apparatus 100 are substantially combined into one product. It also includes a case where the medical image processing apparatus 100 is treated as a console of the CT apparatus 200.

また、CT装置200により画像を撮像し、被検体内部の情報を含むボリュームデータを生成することを例示したが、他の装置により画像を撮像し、ボリュームデータを生成してもよい。他の装置は、MRI(Magnetic Resonance Imaging)装置、PET(Positron Emission Tomography)装置、血管造影装置(Angiography装置)、又はその他のモダリティ装置を含む。また、PET装置は、他のモダリティ装置と組み合わせて用いられてもよい。 Moreover, although the CT apparatus 200 captures images and generates volume data including information inside the object, it is also possible to capture images using other devices and generate volume data. Other devices include Magnetic Resonance Imaging (MRI) devices, Positron Emission Tomography (PET) devices, Angiography devices, or other modality devices. Additionally, the PET device may be used in combination with other modality devices.

また、医用画像処理装置100における動作が規定された医用画像処理方法として表現可能である。また、コンピュータに医用画像処理方法の各ステップを実行させるためのプログラムとして表現可能である。 Further, the operation of the medical image processing apparatus 100 can be expressed as a defined medical image processing method. Further, it can be expressed as a program for causing a computer to execute each step of the medical image processing method.

(上記実施形態の概要)
上記実施形態の一態様は、鏡視下手術を支援する医用画像処理装置100(鏡視下手術支援装置の一例)であって、取得部110と、処理部160と、を備える。取得部110は、被検体のボリュームデータを取得する機能を有する。処理部160は、ボリュームデータに含まれる組織を表現するモデルMLを設定する。処理部160は、ボリュームデータを可視化するための実視野(第1の視野の一例)と、モデルMLにおけるターゲットTGの位置と、を設定する。処理部160は、モデルMLを変形させるための変形操作の情報(第1の操作情報の一例)を取得する。処理部160は、変形操作の情報に基づいて、モデルMLの変形前後におけるターゲットTGの位置と向きの変化を算出してよい。処理部160は、算出されたターゲットTGの位置及び向きの変化を用いて、実視野に対する変化後のターゲットTGの位置及び向きと仮想視野(第2の視野の一例)に対する変化前のターゲットTGの位置及び向きとが同等になるように、仮想視野を算出してよい。処理部160は、仮想視野に基づいて、ボリュームデータを可視化してよい。
(Summary of the above embodiment)
One aspect of the embodiment described above is a medical image processing device 100 (an example of an arthroscopic surgery support device) that supports arthroscopic surgery, and includes an acquisition unit 110 and a processing unit 160. The acquisition unit 110 has a function of acquiring volume data of a subject. The processing unit 160 sets a model ML that represents the tissue included in the volume data. The processing unit 160 sets a real field of view (an example of a first field of view) for visualizing volume data and a position of the target TG in the model ML. The processing unit 160 acquires information on a deformation operation (an example of first operation information) for deforming the model ML. The processing unit 160 may calculate changes in the position and orientation of the target TG before and after deforming the model ML based on the information on the deformation operation. The processing unit 160 uses the calculated changes in the position and orientation of the target TG to determine the position and orientation of the target TG after the change with respect to the real field of view and the position and orientation of the target TG before the change with respect to the virtual field of view (an example of the second field of view). The virtual field of view may be calculated so that the position and orientation are equivalent. The processing unit 160 may visualize the volume data based on the virtual field of view.

これにより、医用画像処理装置100は、組織の変形を行わずに、変形後のターゲットTGと実カメラとの位置関係が、変形前のターゲットTGと仮想カメラとの位置関係と同様になるように、仮想視野を求め、仮想視野を基準としたボリュームデータの可視化を提供できる。よって、例えば、実視野から実視線向きを見ると臓器の裏側にターゲットが位置する場合でも、臓器の変形をして可視化するのではなく、視野を変更して変形していない臓器を可視化することで、臓器を変形して可視化することと同様の状態を表現できる。また、ボリュームデータの変形を行わないので、演算量を低減できる。さらに、ボリュームデータの各ボクセルに適切に剛性を設定し、臓器の境界における滑り、体液の流れ、空気を考慮する必要が無くなる。さらに、手術過程を想定して臓器を少しずつ繰り返し変形させる場合、変形処理に係るボリュームデータの整合性を維持する必要も無くなる。したがって、ボリュームデータと関心領域に対する手動による微調整も不要となる。したがって、例えば、鏡視下手術において術者が鉗子30を用いて臓器を操作するようなシミュレーションをリアルタイムに行うことができる。特に、臓器境界が破綻していないことが保証される。 Thereby, the medical image processing apparatus 100 can make the positional relationship between the target TG and the real camera after deformation the same as the positional relationship between the target TG and the virtual camera before deformation, without deforming the tissue. , a virtual field of view can be determined and visualization of volume data based on the virtual field of view can be provided. Therefore, for example, even if the target is located on the back side of an organ when looking at the real line of sight from the real field of view, instead of deforming the organ and visualizing it, change the field of view and visualize the undeformed organ. It is possible to express the same state as deforming and visualizing an organ. Furthermore, since the volume data is not transformed, the amount of calculation can be reduced. Furthermore, it is no longer necessary to appropriately set stiffness for each voxel of the volume data and take into account slippage at the boundaries of organs, flow of body fluids, and air. Furthermore, when an organ is repeatedly deformed little by little assuming a surgical process, there is no need to maintain consistency of volume data related to the deformation process. Therefore, manual fine-tuning of volume data and regions of interest is also not required. Therefore, for example, a simulation in which an operator manipulates an organ using the forceps 30 in arthroscopic surgery can be performed in real time. In particular, it is ensured that organ boundaries are not broken.

また、可視化される臓器は変形されないので、臓器の変形により複数の臓器間が仮想空間上で重なることはない。また、可視化される臓器は変形されないので、例えば各臓器のセグメンテーションが正しくない場合でも、肝臓の輪郭に接続している血管と接続していない血管とを明瞭に可視化でき、サーフィスレンダリングの精度が低下することを抑制できる。このように、被検体における観察対象の可視化を改善できる。 Furthermore, since the visualized organs are not deformed, a plurality of organs do not overlap in the virtual space due to deformation of the organs. Additionally, since the visualized organs are not deformed, for example, even if the segmentation of each organ is incorrect, blood vessels that are connected to the outline of the liver and those that are not can be clearly visualized, reducing the accuracy of surface rendering. can be restrained from doing so. In this way, visualization of the observation target in the subject can be improved.

また、処理部160は、被検体におけるターゲットTGを含む組織を区分し、区分された組織に基づいてモデルMLに設定してよい。これにより、医用画像処理装置100は、ターゲットTGを含む組織のみ、モデルMLを用いて、仮想視野から見たボリュームデータを可視化でき、ターゲットTGを含む組織を観察しやすくできる。この場合でも、医用画像処理装置100は、可視化される臓器が変形されないので、変形する臓器と変形しない臓器とが混在することはなく、臓器の変形により複数の臓器間が仮想空間上で重なることを防止できる。また、ターゲットTGとの関連の深い臓器に対応するモデルに対する変形操作がし易くなる。 Further, the processing unit 160 may classify the tissue including the target TG in the subject and set the model ML based on the classified tissue. Thereby, the medical image processing apparatus 100 can visualize the volume data seen from the virtual field of view using the model ML only for the tissue including the target TG, making it easier to observe the tissue including the target TG. Even in this case, the medical image processing apparatus 100 does not deform the organs to be visualized, so deformed organs and non-deformed organs do not coexist, and multiple organs overlap in virtual space due to organ deformation. can be prevented. Furthermore, it becomes easier to perform deformation operations on models corresponding to organs closely related to the target TG.

また、処理部160は、組織の輪郭を示す情報をディスプレイ130(表示部の一例)に表示させてよい。そして、モデルMLの変形に応じて、輪郭を変形させて輪郭を示す情報を表示させてよい。輪郭のはっきりしない臓器も存在するが、医用画像処理装置100は、輪郭を示す情報を表示することで、組織がどのような形状を有するかを明確にできる。なお、変形操作のためのモデルMLもディスプレイ130に表示されてもよい。輪郭は、ポリゴンによって生成されてよい。 Further, the processing unit 160 may display information indicating the outline of the tissue on the display 130 (an example of a display unit). Then, in accordance with the deformation of the model ML, the contour may be deformed and information indicating the contour may be displayed. Although some organs have unclear outlines, the medical image processing apparatus 100 can clarify what shape the tissue has by displaying information indicating the outlines. Note that the model ML for the transformation operation may also be displayed on the display 130. The contour may be generated by polygons.

また、処理部160は、仮想視野に基づくボリュームデータの可視化において、被検体の骨を非表示にさせてよい。これにより、医用画像処理装置100は、ターゲットを含む臓器と直接の関係ない情報を表示対象から除外し、ターゲットを見易くできる。 Further, the processing unit 160 may hide the bones of the subject in the visualization of volume data based on the virtual field of view. Thereby, the medical image processing apparatus 100 can exclude information not directly related to the organ including the target from the display target, and can make the target easier to see.

また、処理部160は、仮想視野に基づくボリュームデータの可視化において、実視野に基づいてボリュームデータを可視化する場合に可視化される画像に含まれる被検体の骨を、表示させてよい。これにより、医用画像処理装置100は、ターゲットTG及びその周辺の骨を可視化でき、術者による鏡視下手術をサポートできる。なお、処理部160は、骨の抽出を行わずに骨を可視化してもよい。例えば、骨のCT値は他の組織と比較して大きいので、CT値が閾値以上のボクセルを可視化することで、骨を可視化できる。 Further, in visualizing volume data based on a virtual visual field, the processing unit 160 may display bones of the subject included in an image visualized when visualizing volume data based on a real visual field. Thereby, the medical image processing apparatus 100 can visualize the target TG and the surrounding bones, and can support arthroscopic surgery by the surgeon. Note that the processing unit 160 may visualize bones without extracting them. For example, since the CT value of bones is large compared to other tissues, bones can be visualized by visualizing voxels with CT values equal to or higher than a threshold value.

また、処理部160は、ボリュームデータとともに、被検体の内部においてターゲットTGに向かって挿入された鉗子30を表示させてよい。これにより、医用画像処理装置100は、ターゲットTGとターゲットTGに対する各種措置を行うための鉗子30との位置関係を可視化でき、術者による鏡視下手術をサポートできる。 Further, the processing unit 160 may display the forceps 30 inserted into the subject toward the target TG along with the volume data. Thereby, the medical image processing apparatus 100 can visualize the positional relationship between the target TG and the forceps 30 for performing various measures on the target TG, and can support arthroscopic surgery by the surgeon.

また、処理部160は、モデルの変形前におけるターゲット位置41Aと仮想視野に対応する仮想視点との距離を操作するための変形操作の情報(第2の操作情報の一例)を取得してよい。そして、この変形操作の情報に基づいて、ボリュームデータを可視化してよい。これにより、医用画像処理装置100は、手動で視点の移動を行うことで、仮想視点を調整でき、術者の所望する仮想視点からの距離や角度でターゲットTGを可視化できる。よって、従者の所望するターゲットTGを含む画像を得やすくできる。 Furthermore, the processing unit 160 may acquire information on a transformation operation (an example of second operation information) for operating the distance between the target position 41A before the model is transformed and the virtual viewpoint corresponding to the virtual field of view. Then, the volume data may be visualized based on the information on this transformation operation. Thereby, the medical image processing apparatus 100 can adjust the virtual viewpoint by manually moving the viewpoint, and can visualize the target TG at a distance and angle from the virtual viewpoint desired by the surgeon. Therefore, it is possible to easily obtain an image including the target TG desired by the follower.

上記実施形態の一態様は、被検体のボリュームデータを取得するステップと、ボリュームデータに含まれる組織を表現するモデルを設定するステップと、ボリュームデータを可視化するための第1の視野と、モデルにおけるターゲットの位置と、を設定するステップと、モデルを変形させるための第1の操作情報を取得するステップと、第1の操作情報に基づいて、モデルの変形前後におけるターゲットの位置と向きの変化を算出するステップと、算出されたターゲットの位置及び向きの変化を用いて、第1の視野に対する変化後のターゲットの位置及び向きと第2の視野に対する変化前のターゲットの位置及び向きとが同等になるように、第2の視野を算出するステップと、第2の視野に基づいて、ボリュームデータを可視化するステップと、を有する鏡視下手術支援方法、である。 One aspect of the above embodiment includes the steps of acquiring volume data of a subject, setting a model representing tissue included in the volume data, a first field of view for visualizing the volume data, and a step of setting the position of the target; a step of obtaining first operation information for deforming the model; and a step of determining changes in the position and orientation of the target before and after deforming the model based on the first operation information. calculating, and using the calculated changes in the position and orientation of the target, the position and orientation of the target after the change with respect to the first visual field and the position and orientation of the target before the change with respect to the second visual field are made equal to each other; This is an arthroscopic surgery support method comprising the steps of calculating a second visual field and visualizing volume data based on the second visual field.

本実施形態の一態様は、上記の鏡視下手術支援方法をコンピュータに実行させるためのプログラムである。 One aspect of the present embodiment is a program for causing a computer to execute the arthroscopic surgery support method described above.

本開示は、被検体における観察対象の可視化を改善できる鏡視下手術支援装置、鏡視下手術支援方法、及びプログラム等に有用である。 The present disclosure is useful for an arthroscopic surgery support device, an arthroscopic surgery support method, a program, etc. that can improve visualization of an observation target in a subject.

10,10A,10B 肝臓
12 門脈
14 静脈
15,15B 骨
21 カメラ位置
21A 実カメラ位置
21B 仮想カメラ位置
22 カメラ向き
22A 実カメラ向き
22B 仮想カメラ向き
30 鉗子
30A 実鉗子
30B 仮想鉗子
41,41A,41B ターゲット位置
42,42A,42B ターゲット向き
100 医用画像処理装置
110 取得部
120 UI
130 ディスプレイ
140 プロセッサ
150 メモリ
160 処理部
161 領域処理部
162 変形処理部
163 モデル設定部
164 情報設定部
165 画像生成部
166 表示制御部
200 CT装置
ML,MLA,MLB モデル
TG ターゲット
10, 10A, 10B Liver 12 Portal vein 14 Vein 15, 15B Bone 21 Camera position 21A Real camera position 21B Virtual camera position 22 Camera orientation 22A Real camera orientation 22B Virtual camera orientation 30 Forceps 30A Real forceps 30B Virtual forceps 41, 41A, 41B Target positions 42, 42A, 42B Target orientation 100 Medical image processing device 110 Acquisition unit 120 UI
130 Display 140 Processor 150 Memory 160 Processing unit 161 Region processing unit 162 Transformation processing unit 163 Model setting unit 164 Information setting unit 165 Image generation unit 166 Display control unit 200 CT device ML, MLA, MLB Model TG Target

Claims (9)

鏡視下手術を支援する鏡視下手術支援装置であって、
取得部及び処理部を備え、
前記取得部は、被検体のボリュームデータを取得する機能を有し、
前記処理部は、
前記ボリュームデータに含まれる組織を表現するモデルを設定し、
前記ボリュームデータを可視化するための第1の視野と、前記モデルにおけるターゲットの位置と、を設定し、
前記モデルを変形させるための第1の操作情報を取得し、
前記第1の操作情報に基づいて、前記モデルの変形前後における前記ターゲットの位置と向きの変化を算出し、
算出された前記ターゲットの位置及び向きの変化を用いて、前記第1の視野に対する前記変化の後の前記ターゲットの位置及び向きと第2の視野に対する前記変化の前の前記ターゲットの位置及び向きとが同等になるように、前記第2の視野を算出し、
前記第2の視野に基づいて、前記ボリュームデータを可視化する、機能を有する、
鏡視下手術支援装置。
An arthroscopic surgery support device that supports arthroscopic surgery,
Comprising an acquisition unit and a processing unit,
The acquisition unit has a function of acquiring volume data of the subject,
The processing unit includes:
Setting a model representing the tissue included in the volume data,
setting a first field of view for visualizing the volume data and a position of a target in the model;
obtaining first operation information for transforming the model;
Based on the first operation information, calculate changes in the position and orientation of the target before and after deforming the model,
Using the calculated changes in the position and orientation of the target, determine the position and orientation of the target after the change with respect to the first visual field and the position and orientation of the target before the change with respect to the second visual field. Calculate the second visual field so that
having a function of visualizing the volume data based on the second field of view;
Arthroscopic surgery support device.
前記処理部は、前記被検体における前記ターゲットを含む組織を区分し、区分された前記組織に基づいて前記モデルを設定する
請求項1に記載の鏡視下手術支援装置。
The arthroscopic surgery support device according to claim 1, wherein the processing unit classifies a tissue including the target in the subject and sets the model based on the divided tissue.
前記処理部は、
前記組織の輪郭を示す情報を表示部に表示させ、
前記モデルの変形に応じて、前記輪郭を変形させて前記輪郭を示す情報を表示させる、
請求項2に記載の鏡視下手術支援装置。
The processing unit includes:
displaying information indicating the outline of the tissue on a display unit;
deforming the contour in accordance with deformation of the model and displaying information indicating the contour;
The arthroscopic surgery support device according to claim 2.
前記処理部は、前記ボリュームデータの可視化において、前記被検体の骨を非表示にさせる、
請求項1~3のいずれか1項に記載の鏡視下手術支援装置。
The processing unit hides the bones of the subject in the visualization of the volume data;
The arthroscopic surgery support device according to any one of claims 1 to 3.
前記処理部は、前記ボリュームデータの可視化において、前記第1の視野に基づいて前記ボリュームデータを可視化する場合に可視化される画像に含まれる前記被検体の骨を、表示させる、
請求項1~3のいずれか1項に記載の鏡視下手術支援装置。
In the visualization of the volume data, the processing unit displays bones of the subject included in an image visualized when the volume data is visualized based on the first field of view.
The arthroscopic surgery support device according to any one of claims 1 to 3.
前記処理部は、前記ボリュームデータとともに、前記被検体の内部において前記ターゲットに向かって挿入された鉗子を表示させる、
請求項1~5のいずれか1項に記載の鏡視下手術支援装置。
The processing unit displays forceps inserted toward the target inside the subject, along with the volume data.
The arthroscopic surgery support device according to any one of claims 1 to 5.
前記処理部は、
前記モデルの変形前における前記ターゲットの位置と前記第2の視野に対応する視点との距離を操作するための第2の操作情報を取得し、
前記第2の操作情報に基づいて、前記ボリュームデータを可視化する、
請求項1~6のいずれか1項に記載の鏡視下手術支援装置。
The processing unit includes:
obtaining second operation information for manipulating a distance between the position of the target before deforming the model and a viewpoint corresponding to the second field of view;
visualizing the volume data based on the second operation information;
The arthroscopic surgery support device according to any one of claims 1 to 6.
被検体のボリュームデータを取得するステップと、
前記ボリュームデータに含まれる組織を表現するモデルを設定するステップと、
前記ボリュームデータを可視化するための第1の視野と、前記モデルにおけるターゲットの位置と、を設定するステップと、
前記モデルを変形させるための第1の操作情報を取得するステップと、
前記第1の操作情報に基づいて、前記モデルの変形前後における前記ターゲットの位置と向きの変化を算出するステップと、
算出された前記ターゲットの位置及び向きの変化を用いて、前記第1の視野に対する前記変化の後の前記ターゲットの位置及び向きと第2の視野に対する前記変化の前の前記ターゲットの位置及び向きとが同等になるように、前記第2の視野を算出するステップと、
前記第2の視野に基づいて、前記ボリュームデータを可視化するステップと、
を有する鏡視下手術支援方法。
obtaining volume data of the subject;
setting a model representing the tissue included in the volume data;
setting a first field of view for visualizing the volume data and a position of a target in the model;
obtaining first operation information for deforming the model;
calculating changes in the position and orientation of the target before and after deforming the model based on the first operation information;
Using the calculated changes in the position and orientation of the target, determine the position and orientation of the target after the change with respect to the first visual field and the position and orientation of the target before the change with respect to the second visual field. calculating the second visual field so that the
Visualizing the volume data based on the second field of view;
Arthroscopic surgery support method with.
請求項8に記載の鏡視下手術支援方法をコンピュータに実行させるプログラム。 A program that causes a computer to execute the arthroscopic surgery support method according to claim 8.
JP2019169671A 2019-09-18 2019-09-18 Arthroscopic surgery support device, arthroscopic surgery support method, and program Active JP7444569B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019169671A JP7444569B2 (en) 2019-09-18 2019-09-18 Arthroscopic surgery support device, arthroscopic surgery support method, and program
US17/021,174 US11657547B2 (en) 2019-09-18 2020-09-15 Endoscopic surgery support apparatus, endoscopic surgery support method, and endoscopic surgery support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019169671A JP7444569B2 (en) 2019-09-18 2019-09-18 Arthroscopic surgery support device, arthroscopic surgery support method, and program

Publications (2)

Publication Number Publication Date
JP2021045340A JP2021045340A (en) 2021-03-25
JP7444569B2 true JP7444569B2 (en) 2024-03-06

Family

ID=74869618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019169671A Active JP7444569B2 (en) 2019-09-18 2019-09-18 Arthroscopic surgery support device, arthroscopic surgery support method, and program

Country Status (2)

Country Link
US (1) US11657547B2 (en)
JP (1) JP7444569B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002102249A (en) 2000-09-29 2002-04-09 Olympus Optical Co Ltd Device and method for operation navigation
JP2016168189A (en) 2015-03-12 2016-09-23 パナソニックメディカルソリューションズ株式会社 Medical image display device, medical image display method, and program
WO2019016244A1 (en) 2017-07-18 2019-01-24 Koninklijke Philips N.V. Method and system for dynamic multi-dimensional images of an object

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8311300B1 (en) 2009-04-14 2012-11-13 Ziosoft, Inc. Medical image processing apparatus and method
JP5747007B2 (en) 2012-09-12 2015-07-08 富士フイルム株式会社 MEDICAL IMAGE DISPLAY DEVICE, MEDICAL IMAGE DISPLAY METHOD, AND MEDICAL IMAGE DISPLAY PROGRAM
US9761014B2 (en) * 2012-11-15 2017-09-12 Siemens Healthcare Gmbh System and method for registering pre-operative and intra-operative images using biomechanical model simulations
US10799146B2 (en) * 2014-03-24 2020-10-13 University Of Houston System Interactive systems and methods for real-time laparoscopic navigation
WO2018106950A1 (en) * 2016-12-08 2018-06-14 Intuitive Surgical Operations, Inc. Systems and methods for navigation in image-guided medical procedures
JP7233841B2 (en) * 2017-01-18 2023-03-07 ケービー メディカル エスアー Robotic Navigation for Robotic Surgical Systems
US11062527B2 (en) * 2018-09-28 2021-07-13 General Electric Company Overlay and manipulation of medical images in a virtual environment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002102249A (en) 2000-09-29 2002-04-09 Olympus Optical Co Ltd Device and method for operation navigation
JP2016168189A (en) 2015-03-12 2016-09-23 パナソニックメディカルソリューションズ株式会社 Medical image display device, medical image display method, and program
WO2019016244A1 (en) 2017-07-18 2019-01-24 Koninklijke Philips N.V. Method and system for dynamic multi-dimensional images of an object

Also Published As

Publication number Publication date
US20210082164A1 (en) 2021-03-18
US11657547B2 (en) 2023-05-23
JP2021045340A (en) 2021-03-25

Similar Documents

Publication Publication Date Title
US11547499B2 (en) Dynamic and interactive navigation in a surgical environment
EP2637593B1 (en) Visualization of anatomical data by augmented reality
JP7188970B2 (en) ROBOT SURGERY ASSISTANCE DEVICE, OPERATION METHOD OF ROBOT SURGERY ASSISTANCE DEVICE, AND PROGRAM
RU2711140C2 (en) Editing medical images
JP7164345B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD, AND MEDICAL IMAGE PROCESSING PROGRAM
US11660142B2 (en) Method for generating surgical simulation information and program
JP5934070B2 (en) Virtual endoscopic image generating apparatus, operating method thereof, and program
JP5961504B2 (en) Virtual endoscopic image generating apparatus, operating method thereof, and program
JP2022548237A (en) Interactive Endoscopy for Intraoperative Virtual Annotation in VATS and Minimally Invasive Surgery
JP2023065490A (en) Medical image processing apparatus, medical image processing method, and medical image processing program
US9123163B2 (en) Medical image display apparatus, method and program
JP7152240B2 (en) Robotic surgery support device, robotic surgery support method, and program
JP7444569B2 (en) Arthroscopic surgery support device, arthroscopic surgery support method, and program
KR20140031486A (en) Method of simulating medical image and device thereof
US20210298848A1 (en) Robotically-assisted surgical device, surgical robot, robotically-assisted surgical method, and system
KR20200056855A (en) Method, apparatus and program for generating a pneumoperitoneum model
JP7172086B2 (en) Surgery simulation device and surgery simulation program
JP7182126B2 (en) Robotic surgery support device, robotic surgery support method, and program
JP7264689B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD, AND MEDICAL IMAGE PROCESSING PROGRAM
JP7355514B2 (en) Medical image processing device, medical image processing method, and medical image processing program
Lu et al. ASSIST‐U: A system for segmentation and image style transfer for ureteroscopy
RU2816071C1 (en) Combined intraoperative navigation system using ray tracing ultrasound image generation
WO2017214172A1 (en) Method and system for interactive laparoscopic ultrasound guided ablation planning and surgical procedure simulation
JP7315361B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD, AND MEDICAL IMAGE PROCESSING PROGRAM
US20210298854A1 (en) Robotically-assisted surgical device, robotically-assisted surgical method, and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240222

R150 Certificate of patent or registration of utility model

Ref document number: 7444569

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150