JP2009247641A - Ultrasonic image processor and surgery support system - Google Patents

Ultrasonic image processor and surgery support system Download PDF

Info

Publication number
JP2009247641A
JP2009247641A JP2008099990A JP2008099990A JP2009247641A JP 2009247641 A JP2009247641 A JP 2009247641A JP 2008099990 A JP2008099990 A JP 2008099990A JP 2008099990 A JP2008099990 A JP 2008099990A JP 2009247641 A JP2009247641 A JP 2009247641A
Authority
JP
Japan
Prior art keywords
image
ultrasonic
fly
unit
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008099990A
Other languages
Japanese (ja)
Inventor
Hidekazu Nakamoto
秀和 仲本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corp filed Critical Hitachi Medical Corp
Priority to JP2008099990A priority Critical patent/JP2009247641A/en
Publication of JP2009247641A publication Critical patent/JP2009247641A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Magnetic Resonance Imaging Apparatus (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a surgery support system capable of providing a real-time fly-through image using an ultrasonic image. <P>SOLUTION: This ultrasonic processor includes: position detection means for detecting the position of an ultrasonic probe inserted in the interior of a subject; image processing means for processing ultrasonic tomographic image data created using an ultrasonic signal received by the ultrasonic probe; and a display means for displaying an image processed by the image processing means, wherein the image processing means has image rearrangement means for rearranging the ultrasonic tomographic image data captured when detecting the position, in a three-dimensional image space using position information of the ultrasonic probe detected by the position detection means, and fly-through image formation means for forming a fly-through image using a plurality of ultrasonic tomographic image data rearranged in the three-dimensional image space. The surgery supporting function can be reinforced by providing the image processor in the image processing section of the surgery support system. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、医療画像診断装置を用いてカテーテル等の体内挿入術具を用いた手術を支援する技術に関し、特に超音波画像を利用して被検体内腔のフライスルー画像を作成する技術に関する。   The present invention relates to a technique for supporting a surgical operation using an intracorporeal surgical instrument such as a catheter using a medical image diagnostic apparatus, and more particularly to a technique for creating a fly-through image of a subject lumen using an ultrasonic image.

血管や心臓治療には、カテーテル治療が一般的であり、MRI、CT、超音波診断装置などの画像診断装置を利用してカテーテル治療を支援する技術が種々提案されている。例えば、カテーテルを挿入しながらカテーテルを含む領域のMRI画像を取得し、MRI画像からカテーテル位置を特定する技術(特許文献1など)や、カテーテル先端に取り付けた超音波素子により、カテーテルの進行方向と垂直な断面を画像化する技術(特許文献2)などがある。   Catheter treatment is generally used for blood vessel and heart treatment, and various techniques for supporting catheter treatment using image diagnostic apparatuses such as MRI, CT, and ultrasonic diagnostic apparatuses have been proposed. For example, an MRI image of a region including a catheter is acquired while the catheter is inserted, and a technique for identifying the catheter position from the MRI image (Patent Document 1 or the like) or an ultrasonic element attached to the distal end of the catheter is used. There is a technique for imaging a vertical cross section (Patent Document 2).

またカテーテルが挿入される血管などの内腔を擬似的に診断する手法として、フライスルー機能がある。フライスルー画像は、内視鏡画像と同様に内腔内の一点を視点として内腔内を描出した画像であり、血管壁や血管の走行状態の様子を観察することができるため、手術支援画像として有用である。特許文献3には、MRIやCTなどで取得したボリュームデータを用いてフライスルー画像を作成する技術が開示されている。
特許第3911602号 特公平7−38852号公報 特開2005−110973号公報
In addition, there is a fly-through function as a method for simulating a lumen such as a blood vessel into which a catheter is inserted. A fly-through image is an image depicting the interior of a lumen with a point in the lumen as a viewpoint in the same way as an endoscopic image, and can observe the state of the blood vessel wall and blood vessel running. Useful as. Patent Document 3 discloses a technique for creating a fly-through image using volume data acquired by MRI, CT, or the like.
Japanese Patent No. 3911602 Japanese Patent Publication No. 7-38852 JP 2005-110773 A

フライスルー画像は、内腔の観察に優れているが、MRIやCTなどで取得したボリュームデータを用いる手法は、リアルタイム性に欠けるという問題があり、手術の進行を支援する機能を十分に果たすことができない。一方、超音波診断装置はリアルタイムの画像を提供することができるが、その画像はカテーテルの進行方向と垂直な断面画像であり、壁面に対し深度方向の情報を得ることはできるが、内腔の観察には適しない。   Fly-through images are excellent for observing lumens, but methods that use volume data acquired by MRI, CT, etc. have a problem of lack of real-time performance, and sufficiently perform functions that support the progress of surgery. I can't. On the other hand, the ultrasonic diagnostic apparatus can provide a real-time image, but the image is a cross-sectional image perpendicular to the catheter traveling direction and can obtain information in the depth direction with respect to the wall surface. Not suitable for observation.

そこで本発明は、超音波画像を利用してリアルタイム性のあるフライスルー画像を提供することが可能な手術支援装置を提供することを課題とする。   Therefore, an object of the present invention is to provide a surgical operation support apparatus that can provide a fly-through image having real-time characteristics using an ultrasonic image.

上記課題を解決するため、本発明の超音波画像処理装置は、被検体内部に挿入された超音波探触子の位置を検出する位置検出手段と、前記超音波探触子が受信した超音波信号を用いて作成した超音波断層像データを処理する画像処理手段と、前記画像処理手段で処理された画像を表示する表示手段とを備え、前記画像処理手段は、前記位置検出手段が検出した超音波探触子の位置情報を用いて、位置検出時に撮像された前記超音波断層像データを三次元画像空間に再配置する画像再配置手段と、前記三次元画像空間に再配置された複数の超音波断層像データを用いてフライスルー画像を作成するフライスルー画像生成手段とを備える。   In order to solve the above-described problems, an ultrasonic image processing apparatus according to the present invention includes position detection means for detecting the position of an ultrasonic probe inserted into a subject, and ultrasonic waves received by the ultrasonic probe. Image processing means for processing the ultrasonic tomographic image data created using the signal, and display means for displaying the image processed by the image processing means, the image processing means being detected by the position detection means Image rearrangement means for rearranging the ultrasonic tomographic image data imaged at the time of position detection in a three-dimensional image space using the position information of the ultrasonic probe, and a plurality of rearrangements in the three-dimensional image space And fly-through image generation means for creating a fly-through image using the ultrasonic tomogram data.

また本発明の手術支援装置は、超音波探触子を備えた超音波撮像部と、前記超音波撮像部以外の撮像手段と、前記超音波撮像部及び撮像手段で得られた複数の被検体画像を処理し、手術に必要な支援画像を作成する支援画像作成手段と、前記支援画像を表示する表示手段と、被検体内部に挿入された前記超音波探触子の位置を検出する位置検出手段と、を備えた、前記支援画像作成手段は、前記位置検出手段が検出した超音波探触子の位置情報を用いて、位置検出時に前記超音波撮像部が生成した超音波断層像データを三次元画像空間に再配置する画像再配置手段と、前記三次元画像空間に再配置された複数の超音波断層像データを用いてフライスルー画像を作成するフライスルー画像生成手段とを備える。   The surgical operation support apparatus according to the present invention includes an ultrasonic imaging unit including an ultrasonic probe, an imaging unit other than the ultrasonic imaging unit, and a plurality of subjects obtained by the ultrasonic imaging unit and the imaging unit. Position detection for processing the image and generating a support image necessary for surgery, a display means for displaying the support image, and a position of the ultrasonic probe inserted in the subject The support image creating means comprises means for detecting ultrasonic tomographic image data generated by the ultrasonic imaging unit at the time of position detection using position information of the ultrasonic probe detected by the position detecting means. Image rearrangement means for rearranging in a three-dimensional image space; and fly-through image generation means for creating a fly-through image using a plurality of ultrasonic tomographic image data rearranged in the three-dimensional image space.

本発明によれば、カテーテル治療において手術支援に役立つフライスルー画像をリアルタイムで表示させることができる。特にMRI装置などの撮像手段で得られた画像とともに超音波断層像から得たフライスルー画像を表示させることにより、カテーテル位置と関連した血管壁など被検体内腔の画像を表示させることができ、高い術中支援機能を実現できる。   ADVANTAGE OF THE INVENTION According to this invention, the fly through image useful for surgery assistance in catheter treatment can be displayed in real time. In particular, by displaying a fly-through image obtained from an ultrasonic tomographic image together with an image obtained by an imaging means such as an MRI apparatus, an image of a subject lumen such as a blood vessel wall related to the catheter position can be displayed. A high intraoperative support function can be realized.

以下、本発明の手術支援装置の実施の形態を、図面を参照して説明する。
図1は、本発明の手術支援装置の全体概要を示すブロック図である。この手術支援装置は、被検体10が寝かせられる寝台25を備え、被検体を撮像する撮像部20と、被検体に挿入されるカテーテルに取り付け可能な探触子35を備えた超音波撮像部30と、撮像部20及び超音波撮像部30が撮像した画像を処理する画像処理部40と、画像処理部40で処理された画像を表示する表示部50とを備えている。
DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments of a surgery support apparatus of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing an overall outline of the surgery support apparatus of the present invention. This surgery support apparatus includes a bed 25 on which the subject 10 is laid, an ultrasonic imaging unit 30 including an imaging unit 20 that images the subject, and a probe 35 that can be attached to a catheter that is inserted into the subject. An image processing unit 40 that processes an image captured by the imaging unit 20 and the ultrasonic imaging unit 30, and a display unit 50 that displays an image processed by the image processing unit 40.

撮像部20は、被検体の比較的広い範囲の画像を撮像できるものであれば特に限定されず、MRI装置、CT装置などを採用することができるが、図示する実施の形態では、撮影空間に対し上下に磁石21、22を配置し、これら磁石を支柱23で支持した構造のオープン型MRI装置が採用されている。オープン型MRI装置は、撮影空間がボア内に限られる他の撮像装置に比較し、撮影空間へのアクセスの自由度が高く、術中撮像に適している。図では省略しているが、磁石21、22に近接して、傾斜磁場コイルや高周波磁場コイルなどが設けられ、また被検体10から発生する核磁気共鳴信号を検出するための高周波磁場コイル24が必要に応じて被検体10に装着される。その他、撮像部20の駆動に必要な駆動系や制御系および表示部50Aなどが備えられている。   The imaging unit 20 is not particularly limited as long as it can capture an image of a relatively wide range of the subject, and an MRI apparatus, a CT apparatus, or the like can be adopted. However, in the illustrated embodiment, an imaging space is used. On the other hand, an open-type MRI apparatus having a structure in which magnets 21 and 22 are arranged on the upper and lower sides and these magnets are supported by support columns 23 is employed. The open MRI apparatus has a higher degree of freedom in accessing the imaging space than other imaging apparatuses in which the imaging space is limited to the inside of the bore, and is suitable for intraoperative imaging. Although not shown in the figure, a gradient magnetic field coil, a high frequency magnetic field coil, and the like are provided in the vicinity of the magnets 21 and 22, and a high frequency magnetic field coil 24 for detecting a nuclear magnetic resonance signal generated from the subject 10 is provided. It is attached to the subject 10 as necessary. In addition, a drive system and a control system necessary for driving the imaging unit 20, a display unit 50A, and the like are provided.

撮像部20の機能は、公知のMRI装置の機能と同様であり、ここでは撮像方法についての説明は省略するが、手術支援に利用されるMRI装置の機能として、例えば、手術ナビゲーション機能、インタラクティブスキャン(ISC)などを備えている。手術ナビゲーション機能は、予め取得したボリュームデータを用いて、手術者が指示する位置の三断面像などを表示させる機能である。インタラクティブスキャン(ISC)は手術者が指示する任意の位置を含む断面をリアルタイムで撮像する機能である。手術ナビゲーションあるいはISCを実施するために、手術者が指示する位置は、手術支援装置が三次元位置検出装置を備える場合には、特定の指示具を三次元位置検出装置で検出するものとしてもよいが、後述する画像処理部40の位置検出部42で得たカテーテルの位置情報(先端位置や方向など)を利用することも可能である。   The function of the imaging unit 20 is the same as the function of a known MRI apparatus, and description of the imaging method is omitted here, but the functions of the MRI apparatus used for surgical support include, for example, a surgical navigation function and an interactive scan. (ISC). The surgical navigation function is a function for displaying, for example, a three-section image of a position designated by the operator using volume data acquired in advance. The interactive scan (ISC) is a function for imaging a cross section including an arbitrary position designated by the operator in real time. In order to perform surgical navigation or ISC, the position designated by the surgeon may be a specific pointing tool detected by the three-dimensional position detection device when the surgery support device includes a three-dimensional position detection device. However, it is also possible to use catheter position information (tip position, direction, etc.) obtained by the position detection unit 42 of the image processing unit 40 described later.

超音波撮像部30は、図2に示すように、被検体10に超音波を照射するとともに被検体から反射する超音波を受信する振動子素子を備えた超音波探触子35と、超音波信号を送受信する超音波送受信部31と、受信信号に基づいて2次元超音波画像(Bモード画像)等の断層像を構成する超音波画像構成部32と、受信信号を用いて被検体組織の弾性率や歪みなどの弾性データを演算するとともに弾性画像を生成する弾性画像構成部33と、超音波画像構成部32で構成された超音波画像や弾性画像構成部33で校正された弾性画像を表示する表示部34と、超音波送受信部31、超音波画像構成部32および弾性画像構成部33に動作に必要な指令を送る制御部36と、制御部36に指示を与えるコントロールパネル37とを有している。   As shown in FIG. 2, the ultrasound imaging unit 30 includes an ultrasound probe 35 including a transducer element that irradiates the subject 10 with ultrasound and receives ultrasound reflected from the subject, An ultrasonic transmission / reception unit 31 that transmits / receives a signal, an ultrasonic image configuration unit 32 that forms a tomographic image such as a two-dimensional ultrasonic image (B-mode image) based on the received signal, and a tissue of a subject using the received signal An elastic image constructing unit 33 that calculates elasticity data such as elastic modulus and strain and generates an elastic image, and an ultrasonic image composed of the ultrasonic image constructing unit 32 and an elastic image calibrated by the elastic image constructing unit 33 A display unit 34 for displaying, a control unit 36 for sending commands necessary for the operation to the ultrasonic transmission / reception unit 31, the ultrasonic image configuration unit 32 and the elastic image configuration unit 33, and a control panel 37 for giving instructions to the control unit 36 Have

超音波探触子35は、図2では大きな形態のものを示しているが、本実施の形態では、被検体10に挿入されるカテーテル60(図1)の先端に固定されており、カテーテルを例えば血管に挿入したときに、探触子35の接触面が血管壁に接触するように構成されている。血管壁の周囲360度に亘って撮像する場合には、複数の探触子35をその接触面が外側を向くようにリング状の部材に固定したものを用いることができる。   Although the ultrasonic probe 35 is shown in a large form in FIG. 2, in this embodiment, the ultrasonic probe 35 is fixed to the distal end of the catheter 60 (FIG. 1) inserted into the subject 10, and the catheter is For example, when inserted into a blood vessel, the contact surface of the probe 35 is configured to contact the blood vessel wall. When imaging is performed over 360 degrees around the blood vessel wall, it is possible to use a plurality of probes 35 fixed to a ring-shaped member so that their contact surfaces face outward.

超音波撮像部30の機能は、公知の超音波撮像部の機能と同様であるが、簡単に説明する。超音波画像構成部32は、受信信号をフレームデータとして読出し、A/D変換後、階調を付与し、画像フレームデータとする。弾性画像は、超音波探触子35が被検体表面に圧接する圧力に変化がある状態で計測することにより得られるものであり、弾性画像構成部33は、既に取得したフレームデータと新たに取得したフレームデータの組から、両者を取得した時間に生じた組織の変位と圧力変化から組織の弾性率や歪み量を演算し、弾性フレームデータを作成する。圧力変化は、呼吸動や血管自体の拍動を利用して生じさせることが可能である。また探触子35にピエゾ素子のような圧力の変動をもたらす機構を付加することも可能である。   The function of the ultrasonic imaging unit 30 is the same as that of a known ultrasonic imaging unit, but will be described briefly. The ultrasonic image constructing unit 32 reads the received signal as frame data, and after A / D conversion, adds a gradation to obtain image frame data. The elastic image is obtained by measurement in a state where the pressure with which the ultrasonic probe 35 is pressed against the subject surface is changed, and the elastic image constructing unit 33 newly acquires the frame data already acquired. From the set of frame data, the elastic modulus and strain amount of the tissue are calculated from the displacement and pressure change of the tissue that occurred at the time when both were acquired, and elastic frame data is created. The pressure change can be generated by utilizing respiratory motion or pulsation of the blood vessel itself. It is also possible to add to the probe 35 a mechanism that causes pressure fluctuations, such as a piezo element.

こうして得られる弾性フレームデータに所定の色や階調を付与し、弾性画像データとする。表示部34には、超音波画像構成部32で構成された白黒画像(例えばBモード画像)と弾性画像構成部33で構成された弾性画像が別々にあるいは重畳して表示される。なお、以下の説明において超音波撮像部30で生成される各種の画像を総括してUS画像と称する。   A predetermined color or gradation is given to the elastic frame data obtained in this way to obtain elastic image data. On the display unit 34, a black and white image (for example, a B-mode image) configured by the ultrasonic image configuration unit 32 and an elastic image configured by the elastic image configuration unit 33 are displayed separately or superimposed. In the following description, various images generated by the ultrasonic imaging unit 30 are collectively referred to as a US image.

画像処理部40は、図3に示すように、撮像部20が取得したMR画像を処理し手術支援に必要な各種画像を生成するMR画像処理部41と、MR画像からカテーテルの位置情報を検出する位置検出部42と、超音波撮像部30が取得した画像をMR画像の画像空間と同じ3次元画像空間(例えば直交座標系あるいはDICOM座標)に配置するUS画像再配置部43と、US画像再配置部43により再配置された3次元画像データから、フライスルー画像、展開画像、特定の領域の抽出画像などを再構成するUS画像再構成部44と、MR画像処理部41およびUS画像再構成部44で生成された各画像を用いて表示部50に表示させる画像を生成する表示画像生成部45と、これら各部で生成されたデータや各部の処理に必要なデータなどを記憶するメモリ46と、これら各部を制御する主制御部47とを備えている。   As shown in FIG. 3, the image processing unit 40 processes the MR image acquired by the imaging unit 20 and generates various images necessary for surgical support, and detects the position information of the catheter from the MR image. A position detection unit 42 that performs image processing, a US image rearrangement unit 43 that arranges an image acquired by the ultrasound imaging unit 30 in the same three-dimensional image space (for example, an orthogonal coordinate system or DICOM coordinates) as the image space of the MR image, and a US image A US image reconstruction unit 44 for reconstructing a fly-through image, a developed image, an extracted image of a specific region, and the like from the three-dimensional image data rearranged by the rearrangement unit 43, the MR image processing unit 41, and the US image reconstruction A display image generation unit 45 that generates an image to be displayed on the display unit 50 using each image generated by the configuration unit 44, data generated by these units, and data necessary for processing of each unit A memory 46 for storing, and a main control unit 47 for controlling these portions.

画像処理部40の各部は、図1に示すように、例えばパーソナルコンピュータ内にプログラムとしてインストールすることが可能であり、パーソナルコンピュータに備えられたディスプレイ50Bに表示されるGUIやキーボード、マウス等の入力装置51を介して各部の動作に必要な指示を送ることができる。   As shown in FIG. 1, each unit of the image processing unit 40 can be installed as a program in a personal computer, for example, and inputs such as a GUI, a keyboard, and a mouse displayed on a display 50 </ b> B provided in the personal computer. Instructions necessary for the operation of each unit can be sent via the device 51.

MR画像処理部41は、予め撮像部20が撮像したボリュームデータを処理し、手術支援に必要な画像、例えば、手術ナビゲーションの三断面図(Axial図、Sagital図、Colonal図)やボリュームレンダリング画像を作成するほか、手術中に撮像部20によって撮像された画像データを処理し、断層像を作成する。さらにMR画像処理部41は、位置検出部42が得たカテーテルの位置情報を用いて、カテーテル位置を視点とするフライスルー画像を作成する機能を有していてもよい。なお上述したMRI画像処理部41の機能は、撮像部20に持たせて、画像処理部40には処理結果である画像を転送するようにしてもよい。   The MR image processing unit 41 processes the volume data captured by the imaging unit 20 in advance, and displays images necessary for surgical support, for example, three cross-sectional views (Axial diagram, Sagittal diagram, Colonal diagram) and volume rendering images of surgery navigation. In addition to the creation, the image data captured by the imaging unit 20 during the operation is processed to create a tomographic image. Furthermore, the MR image processing unit 41 may have a function of creating a fly-through image with the catheter position as a viewpoint, using the catheter position information obtained by the position detection unit 42. Note that the above-described functions of the MRI image processing unit 41 may be provided in the imaging unit 20 and an image as a processing result may be transferred to the image processing unit 40.

位置検出部42は、撮像部20が取得した時系列の画像データをリアルタイムで受け取り、画像データからカテーテルの位置を検出する。撮像部20がMRI装置の場合には、カテーテルの先端には、MRI装置で識別可能なマーカーが取り付けられており、画像上でマーカー位置を検出することにより、カテーテル先端の位置を検出する。あるいはカテーテル先端に取り付けた超音波探触子を画像から判別し、その位置をカテーテル先端位置として検出することも可能である。カテーテル先端の位置検出方法には、例えば、特許文献1に開示される方法を採用することができる。   The position detection unit 42 receives time-series image data acquired by the imaging unit 20 in real time, and detects the position of the catheter from the image data. When the imaging unit 20 is an MRI apparatus, a marker identifiable by the MRI apparatus is attached to the distal end of the catheter, and the position of the catheter distal end is detected by detecting the marker position on the image. Alternatively, it is also possible to discriminate an ultrasonic probe attached to the catheter tip from the image and detect the position as the catheter tip position. As the catheter tip position detection method, for example, the method disclosed in Patent Document 1 can be adopted.

図4に位置検出部42による位置検出の様子を示す。ここでは先端に超音波探触子402が付けられたカテーテル401を血管400に挿入しながら、MR画像を取得し、各時点で取得したMR画像から3次元直交座標系におけるマーカー位置P1(t1)、P2(t2)・・・Pn(tn)を算出している。位置検出部42が検出したカテーテル先端の位置と、位置検出のためのMR画像を取得した時刻は、メモリ46に記憶され、次に述べるUS画像再配置に使用される。   FIG. 4 shows how the position is detected by the position detector 42. Here, an MR image is acquired while inserting the catheter 401 with the ultrasound probe 402 at the tip into the blood vessel 400, and the marker position P1 (t1) in the three-dimensional orthogonal coordinate system is acquired from the MR image acquired at each time point. , P2 (t2)... Pn (tn). The position of the catheter tip detected by the position detector 42 and the time when the MR image for position detection is acquired are stored in the memory 46 and used for US image rearrangement described below.

US画像再配置部43は、超音波撮像部30が取得したUS画像(断層像データ及び/または弾性画像データ)をリアルタイムで受け取り、位置検出部42で検出したカテーテル先端の位置情報をもとに、実空間と対応付けられた直交座標あるいはDICOM座標に配置する。図5にUS画像再配置部43における処理を示す。なお図5では、再配置される画像空間の例として直交座標を示している。図5(a)に示すように、画像処理部40のメモリ46には、時系列的に取得したMR画像から、そのMR画像取得時のカテーテル401の先端402の位置情報p(x,y,z)が取得時刻t1,t2,t3,・・・とともに記憶されている。US画像再配置部43は、時刻tに受信した受信信号から構成したUS画像511〜514を、例えばその画像中心が、メモリ46に記憶された時刻tにおける位置pと一致するように3次元画像空間に配置する(図5(b))。これにより、図5(c)に示すように、時系列で得られるUS画像510(511〜514)は、カテーテルの進行経路に沿って再配置された再配置3次元画像データ520となる。実空間と対応付けられた画像空間に再配置後のUS画像データを以下、3次元US画像データという。   The US image rearrangement unit 43 receives the US image (tomographic image data and / or elasticity image data) acquired by the ultrasonic imaging unit 30 in real time, and based on the position information of the catheter tip detected by the position detection unit 42. And arranged in orthogonal coordinates or DICOM coordinates associated with the real space. FIG. 5 shows processing in the US image rearrangement unit 43. In FIG. 5, orthogonal coordinates are shown as an example of the rearranged image space. As shown in FIG. 5A, the memory 46 of the image processing unit 40 stores, from the MR images acquired in time series, positional information p (x, y, z) is stored together with acquisition times t1, t2, t3,. The US image rearrangement unit 43 converts the US images 511 to 514 formed from the received signal received at time t into a three-dimensional image such that, for example, the center of the image coincides with the position p at time t stored in the memory 46. It arrange | positions in space (FIG.5 (b)). As a result, as shown in FIG. 5C, the US images 510 (511 to 514) obtained in time series become the rearranged three-dimensional image data 520 rearranged along the traveling path of the catheter. The US image data after rearrangement in the image space associated with the real space is hereinafter referred to as three-dimensional US image data.

なお図5では、各US画像を互いに平行に配置した状態を示しているが、内壁より深い組織の画像情報を利用する場合には、各US画像はカテーテル進行方向に対し直交するように配置することが必要である。3次元画像空間におけるカテーテルの進行方向は、時間的に隣接するカテーテル先端の位置から算出することができる。但し、内壁のフライスルー画像のみを作成する場合には、図示するように平行に配置してもよい。また再配置するUS画像の超音波信号取得時とMR画像取得とが異なる場合には、MR画像取得のうち最も近い時刻の2つの位置情報を用いて補間により位置を求めてもよい。   FIG. 5 shows a state in which the US images are arranged in parallel to each other. However, when using image information of a tissue deeper than the inner wall, the US images are arranged so as to be orthogonal to the catheter advancing direction. It is necessary. The traveling direction of the catheter in the three-dimensional image space can be calculated from the position of the catheter tip that is temporally adjacent. However, when only the fly-through image of the inner wall is created, they may be arranged in parallel as shown. Further, when the acquisition of the ultrasonic signal of the US image to be rearranged is different from the acquisition of the MR image, the position may be obtained by interpolation using two pieces of position information at the closest time in the MR image acquisition.

US画像再構成部44は、画像抽出部441、フライスルー画像生成部442、展開画像生成部443、抽出領域画像生成部444などからなる。   The US image reconstruction unit 44 includes an image extraction unit 441, a fly-through image generation unit 442, a developed image generation unit 443, an extraction region image generation unit 444, and the like.

画像抽出部441は、3次元US画像データを構成するUS画像データを画素単位で全ラインスキャンし、各画素の信号強度の変化から各組織の境界を自動で判別し、特定の組織の画像データを抽出する。また特定の組織の距離や厚みを測定する。抽出された画像データおよび測定値はメモリ47に記憶され、フライスルー画像生成部442の画像形成に用いられるほか、必要に応じて数値データ自体を表示部50に表示することも可能である。   The image extraction unit 441 scans all lines of the US image data constituting the three-dimensional US image data in units of pixels, automatically determines the boundary of each tissue from the change in the signal intensity of each pixel, and image data of a specific tissue To extract. In addition, the distance and thickness of a specific tissue are measured. The extracted image data and measurement values are stored in the memory 47 and used for image formation by the fly-through image generation unit 442. In addition, the numerical data itself can be displayed on the display unit 50 as necessary.

画像抽出部441が処理の対象とする臓器や組織は、表示部50に表示されるGUIを通じて操作者が指定するようにしてもよいし、例えば弾性率の異なる組織全てについて自動的に行なうようにしてもよい。また組織の境界の判別を手動で行なうこと可能であり、その場合、表示部50にUS画像を表示するとともに判別のためのツール(GUI)を設け、このツールをマウス等の入力装置51により操作し、各組織の境界を手動で示してもよい。画像抽出部441は、手動で判別された組織の画素位置から距離や厚みを算出する。   The organ or tissue to be processed by the image extraction unit 441 may be specified by the operator through a GUI displayed on the display unit 50, or may be automatically performed for all tissues having different elastic moduli, for example. May be. Further, it is possible to manually determine the boundary of the tissue. In this case, a US image is displayed on the display unit 50 and a tool (GUI) for determination is provided, and this tool is operated by an input device 51 such as a mouse. However, the boundaries of each tissue may be indicated manually. The image extraction unit 441 calculates the distance and thickness from the pixel position of the tissue that has been manually determined.

図5に画像抽出部441による判別の様子を示す。図6(a)は表示部50に表示されたUS画像601を示す。図6(b)はこのUS画像601に対し自動スキャン602を行い、例えば信号強度が一定の範囲にあり且つ連続する画素を抽出し、同一組織であると判別する。この場合、信号強度はBモード画像の信号強度のほか、弾性画像の弾性データ(弾性率や歪み量)であってもよい。
図6(c)は手動による判別の様子を示している。表示部50の画面には、US画像601とともに描画ツール603が表示され、操作者はマウス605などを操作して描画ツール603を操作し、画像から判別される組織の境界を描く。自動で判別する場合にも、組織を決める信号強度の閾値などを操作者が入力してもよい。例えば、操作者がポインティングデバイスにより画像上の任意の位置を指示し、その位置に対応する画素の信号強度を含む所定の信号強度範囲の領域を判別するようにしてもよい。
FIG. 5 shows a state of discrimination by the image extraction unit 441. FIG. 6A shows a US image 601 displayed on the display unit 50. In FIG. 6B, automatic scanning 602 is performed on the US image 601, and, for example, consecutive pixels with a signal intensity in a certain range are extracted, and are determined to be the same tissue. In this case, the signal intensity may be the elasticity data (elastic modulus and strain amount) of the elastic image in addition to the signal intensity of the B-mode image.
FIG. 6C shows a state of manual discrimination. On the screen of the display unit 50, a drawing tool 603 is displayed together with the US image 601, and the operator operates the drawing tool 603 by operating the mouse 605 or the like, and draws a tissue boundary determined from the image. Even in the case of automatic determination, an operator may input a signal intensity threshold value for determining the tissue. For example, the operator may designate an arbitrary position on the image with a pointing device, and a region of a predetermined signal intensity range including the signal intensity of the pixel corresponding to the position may be determined.

フライスルー画像生成部442は、画像抽出部441が抽出した特定組織の3次元US画像データを用いてフライスルー画像を生成する。その様子を図7に示す。図7(a)は3次元US画像データ700(あるいは画像抽出部441が抽出した特定組織の3次元画像データ)であり、個々のUS画像データには、例えば、血管壁711、リンパ節712、筋肉層713、脂肪層714、皮膚層715などが含まれる。フライスルー画像生成部442は、これら組織711〜715のうち、例えば血管壁611の画像データのみを抽出し(図7(b))、観察する方向に対し最も奥行き側の画像から順に重ね、画素データを合成する(図7(c))。これにより図7(d)に示すようなフライスルー画像710が得られる。血管壁以外の組織についても同様にフライスルー画像を作成することが可能である。図8は、脂肪層714の画像データを抽出して作成したフライスルー画像810である。   The fly-through image generation unit 442 generates a fly-through image using the three-dimensional US image data of the specific tissue extracted by the image extraction unit 441. This is shown in FIG. FIG. 7A shows three-dimensional US image data 700 (or three-dimensional image data of a specific tissue extracted by the image extracting unit 441). For example, each US image data includes a blood vessel wall 711, a lymph node 712, A muscle layer 713, a fat layer 714, a skin layer 715 and the like are included. The fly-through image generation unit 442 extracts, for example, only the image data of the blood vessel wall 611 from these tissues 711 to 715 (FIG. 7B), and superimposes the pixels in order from the image on the deepest side in the observation direction. The data is synthesized (FIG. 7 (c)). As a result, a fly-through image 710 as shown in FIG. 7D is obtained. A fly-through image can be similarly created for tissues other than the blood vessel wall. FIG. 8 is a fly-through image 810 created by extracting image data of the fat layer 714.

なおフライスルー画像の方向(見る方向)については、3次元US画像データが存在する領域であれば、カテーテルの進行方向であってもよいし、カテーテルの進行方向と逆であってもよい。   Note that the direction (viewing direction) of the fly-through image may be the catheter traveling direction or the direction opposite to the catheter traveling direction as long as the three-dimensional US image data exists.

展開画像生成部443は、フライスルー画像を、3次元座標の一つの面に展開した展開画像を作成する。具体的には、図9(a)、(b)に示すように、フライスルー画像を作成するのに用いた3次元US画像データ710を、位置検出部42が検出したカテーテル位置情報を用いてカテーテル進行方向が直線となるように再配置する。即ち、US画像再配置部43によって再配置される前の配置に戻す。その上で、図9(c)に示すように、3次元画像データを構成する個々のUS画像が3次元座標の一つの面(例えばxz面)と交わる線上に、そのUS画像を展開し、図9(d)に示すような展開画像910を作成する。この展開図では、カテーテルの進行方向が一定の方向でない場合にも、カテーテルの進行方向に対して血管壁等を展開した様子を観察することができる。   The developed image generation unit 443 creates a developed image in which the fly-through image is developed on one surface of three-dimensional coordinates. Specifically, as shown in FIGS. 9A and 9B, the three-dimensional US image data 710 used to create the fly-through image is used by using the catheter position information detected by the position detection unit 42. Rearrange the catheter so that the catheter travels in a straight line. That is, the image is rearranged before being rearranged by the US image rearrangement unit 43. Then, as shown in FIG. 9C, the US image is developed on a line where each of the US images constituting the three-dimensional image data intersects one plane of the three-dimensional coordinates (for example, xz plane), A developed image 910 as shown in FIG. 9D is created. In this development view, it is possible to observe a state in which a blood vessel wall or the like is deployed with respect to the catheter traveling direction even when the traveling direction of the catheter is not a fixed direction.

抽出領域画像生成部444は、画像抽出部441が抽出した特定の臓器や組織の情報(内壁からの距離や厚さ)を用いて、フライスルー画像に重畳表示するための特定臓器のUS画像を作成する。   The extraction region image generation unit 444 uses the specific organ and tissue information (distance and thickness from the inner wall) extracted by the image extraction unit 441 to generate a US image of the specific organ to be superimposed on the fly-through image. create.

表示画像生成部45は、画像処理部40で作成された種々の手術支援画像を合成して、表示部50の画面に表示させるものであり、主制御部47からの指令に応じて、必要な画像を表示部50に表示させる。例えば、図9に示す例では、USフライスルー画像の展開画像を表示した画面に、撮像部20が撮像したリアルタイム画像920をウィンドウ画面に表示するようにしている。これにより手術者は、展開画像910で表示されている部分が被検体のどこに位置するのかを把握することができる。このようなウィンドウ画面を利用した表示は、展開画像のみならず、フライスルー画像やその他の画像を表示する画面についても可能である。またウィンドウ画面ではなく、必要に応じて、例えば展開画像の上に抽出領域画像生成部444が作成した臓器画像を重ねて表示するなど、2種の画像を重畳して表示させることも可能である。その他の、表示部50に表示される画像の種々の態様については後述する。   The display image generation unit 45 synthesizes various surgery support images created by the image processing unit 40 and displays them on the screen of the display unit 50. The display image generation unit 45 is necessary in accordance with a command from the main control unit 47. The image is displayed on the display unit 50. For example, in the example illustrated in FIG. 9, the real-time image 920 captured by the imaging unit 20 is displayed on the window screen on the screen displaying the developed image of the US fly-through image. As a result, the surgeon can grasp where the portion displayed in the developed image 910 is located in the subject. Such display using a window screen is possible not only for a developed image but also for a screen that displays a fly-through image and other images. Further, instead of the window screen, if necessary, two types of images can be displayed in a superimposed manner, for example, by displaying the organ image created by the extraction region image generation unit 444 on the developed image. . Various other aspects of the image displayed on the display unit 50 will be described later.

表示部50は、画像処理部40が構築されるパーソナルコンピュータに付属する表示装置50Bがその機能を兼ねてもよいし、撮像部20(MRI装置)に備えられた表示部50Aが手術支援装置の表示部を兼ねてもよい。表示部50は、手術支援装置を動作させるためのGUIを表示する機能も有する。   As for the display unit 50, the display device 50B attached to the personal computer in which the image processing unit 40 is constructed may also have the function, and the display unit 50A provided in the imaging unit 20 (MRI apparatus) is the operation support device. It may also serve as a display unit. The display unit 50 also has a function of displaying a GUI for operating the surgery support apparatus.

次に上述した構成の手術支援装置の動作について説明する。図10に手術時のタイムチャートの一例を示す。図中、手術の進行に平行して行われる画像処理部40、撮像部20、超音波撮像部30の処理の進行を縦のラインは示している。   Next, the operation of the surgery support apparatus having the above-described configuration will be described. FIG. 10 shows an example of a time chart during surgery. In the figure, the vertical lines indicate the progress of the processing of the image processing unit 40, the imaging unit 20, and the ultrasonic imaging unit 30 performed in parallel with the progress of the operation.

まず撮像部20は、手術ナビゲーションに必要な3Dボリュームデータの撮像を行なう(S101)。3Dボリュームデータは、画像処理部40による処理のために画像処理部40に送られる。画像処理部40には、リアルタイムのスライススルー画像作成が起動される(S102)。手術が開始され(S103)、カテーテルが挿入されると(S104)、撮像部20はリアルタイム撮像を開始し、カテーテル位置の検出を行なう(S105)。カテーテルの位置情報と検出時刻は画像処理部40に送られる。この実施の形態では、撮像部20で撮像した画像から撮像部20がカテーテル位置を検出するものとしているが、図3に示す実施の形態のように、画像処理部40に位置検出部の機能が備えられている場合には、撮像部20で撮像した画像が画像処理部40に転送され、画像処理部の位置検出部42でカテーテル位置が算出される。   First, the imaging unit 20 performs imaging of 3D volume data necessary for surgical navigation (S101). The 3D volume data is sent to the image processing unit 40 for processing by the image processing unit 40. Real-time slice-through image creation is activated in the image processing unit 40 (S102). When surgery is started (S103) and a catheter is inserted (S104), the imaging unit 20 starts real-time imaging and detects the catheter position (S105). The position information of the catheter and the detection time are sent to the image processing unit 40. In this embodiment, the imaging unit 20 detects the catheter position from the image captured by the imaging unit 20, but the image processing unit 40 has a function of the position detection unit as in the embodiment shown in FIG. In the case of being provided, the image captured by the imaging unit 20 is transferred to the image processing unit 40, and the position detection unit 42 of the image processing unit calculates the catheter position.

カテーテルが所定の血管に挿入されたならば超音波撮像部30により血管内腔撮像が開始される(S106)。超音波撮像部30はカテーテルの進行と平行して連続して撮像を行い、複数の時系列US画像を得る。複数の時系列US画像は、逐次、画像処理部40に送られる。画像処理部40のUS画像再配置部43は、カテーテル位置情報を用いて送られる時系列US画像を、実空間に対応する3次元画像空間に再配置し、再配置されたUS画像データを用いて、フライスルー画像生成部442でフライスルー画像を作成する(S107)。   If the catheter is inserted into a predetermined blood vessel, imaging of the blood vessel lumen is started by the ultrasonic imaging unit 30 (S106). The ultrasonic imaging unit 30 continuously performs imaging in parallel with the progress of the catheter, and obtains a plurality of time-series US images. A plurality of time-series US images are sequentially sent to the image processing unit 40. The US image rearrangement unit 43 of the image processing unit 40 rearranges the time series US image sent using the catheter position information in a three-dimensional image space corresponding to the real space, and uses the rearranged US image data. The fly-through image generation unit 442 creates a fly-through image (S107).

一方、撮像部20が手術ナビゲーション機能やISC機能を備える場合には、画像処理部40によるフライスルー画像作成と平行して、逐次、手術者が指示する点を中心とする3Dナビゲーション画像の作成、更新や、カテーテルの所定位置を含むISC撮像が行なわれる(S108、S109)。手術者は、画像処理部40で作成されたフライスルー画像や撮像部20で作成された画像で手術部位などを確認しながらカテーテル手術を行なう(S110)。   On the other hand, when the imaging unit 20 has a surgical navigation function or an ISC function, in parallel with the fly-through image creation by the image processing unit 40, the creation of a 3D navigation image centered on the point indicated by the operator sequentially, Updating and ISC imaging including a predetermined position of the catheter are performed (S108, S109). The surgeon performs a catheter operation while confirming a surgical site or the like with a fly-through image created by the image processing unit 40 or an image created by the imaging unit 20 (S110).

上述した手術支援装置の動作は、表示部50に表示されるGUIを介して実現される。GUIの例を図11および図12に示す。図11は、手術前のGUIを示す図である。図示する例では、表示画面1100は、画像表示部1110、3D画像表示部1120、手術情報表示部1130、操作ボタン表示部から構成される。操作ボタンには、撮像部20による3D撮像を開始するボタン1141、ISCを開始/停止するボタン1142、3Dナビゲーションを開始/停止するボタン1143、超音波撮像部30による撮像を開始するボタン1144、画像処理部40によるフライスルー画像作成機能を動作させるボタン1145、二次元展開画像を作成するボタン1146などが設けられている。   The above-described operation of the surgery support apparatus is realized via a GUI displayed on the display unit 50. An example of the GUI is shown in FIGS. FIG. 11 is a diagram showing a GUI before surgery. In the illustrated example, the display screen 1100 includes an image display unit 1110, a 3D image display unit 1120, a surgery information display unit 1130, and an operation button display unit. The operation buttons include a button 1141 for starting 3D imaging by the imaging unit 20, a button 1142 for starting / stopping ISC, a button 1143 for starting / stopping 3D navigation, a button 1144 for starting imaging by the ultrasonic imaging unit 30, and an image. A button 1145 for operating a fly-through image creation function by the processing unit 40, a button 1146 for creating a two-dimensional developed image, and the like are provided.

画像表示部1110には、撮像部20が予め取得した3Dボリューム画像の各スライス画像1111〜1114などが表示され、US手術者あるいは操作者は、これら各スライスの画像などを用いて手術経路描出などの前処理を行なう。3D画像表示部1120には、3Dボリューム画像の各スライスが立体表示される。手術情報表示部1130には、ベッドの位置、コイルの種類、コイル位置などの装置情報、手術支援装置が備えている各種機能に関する情報、患者に関する情報、術具情報などが表示される。   The image display unit 1110 displays the slice images 1111 to 1114 of the 3D volume image acquired in advance by the imaging unit 20, and the US surgeon or operator uses the images of these slices to depict the surgical route. Pre-processing is performed. In the 3D image display unit 1120, each slice of the 3D volume image is stereoscopically displayed. The operation information display unit 1130 displays device information such as the position of the bed, the type of coil, and the coil position, information on various functions provided in the operation support device, information on the patient, and surgical tool information.

図12は、手術中のGUIの一例を示す図である。操作ボタンは手術前と同じである。図示する例では、画面左側に超音波撮像部30が撮像したUS画像1201とともに画像処理部40で作成されたフライスルー画像1202が表示され、それ以外の部分には撮像部20の各種機能を動作させることにより作成される画像1203〜1027が表示されている。   FIG. 12 is a diagram illustrating an example of a GUI during surgery. The operation buttons are the same as before surgery. In the illustrated example, the fly-through image 1202 created by the image processing unit 40 is displayed together with the US image 1201 captured by the ultrasonic imaging unit 30 on the left side of the screen, and various functions of the imaging unit 20 are operated in the other portions. Images 1203 to 1027 created by the above are displayed.

例えば、操作ボタン1144が操作されると、図10の処理S106が開始され、超音波撮像部30で撮像されたリアルタイム画像1201が画面に表示される。さらにフライスルー作成の操作ボタン1145が操作されると、図10の処理107が開始され、リアルタイムフライスルー画像1202が画面に表示される。また画像処理部40のMR画像処理部41がフライスルー画像作成機能を有する場合には、カテーテル位置の情報を用いて、予め取得した3Dボリュームデータ(MRデータ)から作成したフライスルー画像1203を表示する。このフライスルー画像は手術経路や岐路を表示するナビゲーション画像として用いることができる。   For example, when the operation button 1144 is operated, the process S106 in FIG. 10 is started, and the real-time image 1201 captured by the ultrasonic imaging unit 30 is displayed on the screen. When the fly-through creation operation button 1145 is further operated, the process 107 in FIG. 10 is started, and a real-time fly-through image 1202 is displayed on the screen. When the MR image processing unit 41 of the image processing unit 40 has a fly-through image creation function, a fly-through image 1203 created from previously acquired 3D volume data (MR data) is displayed using the catheter position information. To do. This fly-through image can be used as a navigation image for displaying a surgical route and a crossing.

画像1204は、ISC操作ボタン1142を操作することによって撮像部20がリアルタイムで撮像した画像であり、この実施形態では位置検出部42が検出したカテーテル位置を含む断面が撮像され、表示される。画像1205〜1207は、3Dナビゲーション操作ボタン1143を操作することにより画像処理部40が作成した三断面図である。この実施形態では、位置検出部42が検出したカテーテル位置と方向をもとに3軸が決定されている。即ち、Axial画像1205はカテーテル先端位置を中心とし、カテーテルの方向に垂直な断面が切り出され、Sagital画像1206はカテーテルの方向を横軸とする断面が切り出され、Colonal画像1207はカテーテルの方向を縦軸とする断面が切り出され、それぞれ表示されている。画像1208は3Dボリュームデータを用いたボリュームレンダリング画像であり、位置検出部42で検出したカテーテル先端位置1221がその軌跡1222とともに表示されている。   The image 1204 is an image captured by the imaging unit 20 in real time by operating the ISC operation button 1142, and in this embodiment, a cross section including the catheter position detected by the position detection unit 42 is captured and displayed. Images 1205 to 1207 are three cross-sectional views created by the image processing unit 40 by operating the 3D navigation operation buttons 1143. In this embodiment, three axes are determined based on the catheter position and direction detected by the position detector 42. That is, the axial image 1205 is centered on the distal end position of the catheter and a cross section perpendicular to the catheter direction is cut out. The sagittal image 1206 is cut out of the cross section with the catheter direction as the horizontal axis. A section taken as an axis is cut out and displayed. An image 1208 is a volume rendering image using 3D volume data, and the catheter tip position 1221 detected by the position detection unit 42 is displayed together with its locus 1222.

以上、本発明の手術支援装置の一実施の形態を説明したが、本発明の手術支援装置は上記実施の形態で説明した機能に加えて、公知の手術支援機能を追加したり、例えば内視鏡などを備える場合には、内視鏡映像を表示させたりすることも可能である。またこの実施の形態で説明した全ての機能を動作させる必要はなく、手術者が適宜選択して手術に必要な画像を作成し表示させることができる。   As mentioned above, although one embodiment of the surgery support apparatus of the present invention has been described, the surgery support apparatus of the present invention adds a known surgery support function to the functions described in the above embodiment, When a mirror or the like is provided, an endoscopic video can be displayed. Moreover, it is not necessary to operate all the functions described in this embodiment, and an operator can appropriately select and create and display an image necessary for surgery.

また上記実施の形態では、撮像装置としてMRIを用いた場合を説明したが、撮像装置はCT装置やX線透視装置などのMRI装置以外の装置であってもよい。また撮像装置に代えて、カテーテル位置を検出する手段、例えば三次元位置検出装置を備えることにより、本発明の手術支援装置を実施することが可能である。   Moreover, although the case where MRI was used as an imaging device was demonstrated in the said embodiment, imaging devices may be apparatuses other than MRI apparatuses, such as CT apparatus and a X-ray fluoroscope. In addition, it is possible to implement the surgery support device of the present invention by providing a means for detecting the catheter position, for example, a three-dimensional position detection device, instead of the imaging device.

さらに以上の実施の形態では、手術支援装置の画像処理部として図3に示す画像処理部40の構成を備えたものを説明したが、画像処理部の機能は、図2に示す超音波撮像装置に組み込むことも可能であり、それにより超音波撮像装置の機能を大幅に増強することができる。ただしこの場合、図3に示す画像処理部のMR画像処理部41の機能は省くことができる。   Further, in the above-described embodiment, the image processing unit of the surgery support apparatus having the configuration of the image processing unit 40 illustrated in FIG. 3 has been described, but the function of the image processing unit is the ultrasonic imaging apparatus illustrated in FIG. It is also possible to incorporate it into the ultrasonic imaging apparatus, thereby greatly enhancing the function of the ultrasonic imaging apparatus. However, in this case, the function of the MR image processing unit 41 of the image processing unit shown in FIG. 3 can be omitted.

本発明の手術支援装置の全体概要を示すブロック図The block diagram which shows the whole outline | summary of the surgery assistance apparatus of this invention 超音波撮像部の構成を示すブロック図Block diagram showing the configuration of the ultrasound imaging unit 画像処理部の構成を示すブロック図Block diagram showing the configuration of the image processing unit 位置検出部による位置検出を説明する図The figure explaining the position detection by a position detection part 超音波画像再配置部における処理を説明する図The figure explaining the process in an ultrasonic image rearrangement part 画像抽出部による組織の判別処理を説明する図The figure explaining the discrimination | determination process of the structure | tissue by an image extraction part フライスルー画像生成部による処理を説明する図The figure explaining the process by a fly-through image generation part フライスルー画像生成部によるフライスルー画像の例を示す図The figure which shows the example of the fly-through image by a fly-through image generation part 展開画像生成部による処理を説明する図The figure explaining the process by the expansion | deployment image generation part 手術支援装置の動作を示すタイムチャートTime chart showing operation of surgery support device 手術支援装置の表示部に表示されるGUIの一例(手術前)を示す図The figure which shows an example (before operation) of GUI displayed on the display part of a surgery assistance apparatus 手術支援装置の表示部に表示されるGUIの一例(手術中)を示す図The figure which shows an example (in operation) of GUI displayed on the display part of a surgery assistance apparatus

符号の説明Explanation of symbols

20・・・撮像部、30・・・超音波撮像部、40・・・画像処理部、50・・・表示部、51・・・入力装置、60・・・カテーテル、41・・・MR画像処理部、42・・・位置検出部、43・・・US画像再配置部、44・・・US画像再構成部、441・・・画像抽出部、442・・・フライスルー画像生成部、443・・・展開画像生成部、444・・・抽出領域画像生成部。 DESCRIPTION OF SYMBOLS 20 ... Imaging part, 30 ... Ultrasonic imaging part, 40 ... Image processing part, 50 ... Display part, 51 ... Input device, 60 ... Catheter, 41 ... MR image Processing unit 42 ... Position detection unit 43 ... US image rearrangement unit 44 ... US image reconstruction unit 441 ... Image extraction unit 442 ... Fly-through image generation unit 443 ... Development image generation unit, 444 ... Extraction area image generation unit.

Claims (9)

被検体内部に挿入された超音波探触子の位置を検出する位置検出手段と、
前記超音波探触子が受信した超音波信号を用いて作成した超音波断層像データを処理する画像処理手段と、
前記画像処理手段で処理された画像を表示する表示手段とを備え、
前記画像処理手段は、
前記位置検出手段が検出した超音波探触子の位置情報を用いて、位置検出時に撮像された前記超音波断層像データを三次元画像空間に再配置する画像再配置手段と、
前記三次元画像空間に再配置された複数の超音波断層像データを用いてフライスルー画像を作成するフライスルー画像生成手段とを備えたことを特徴とする超音波画像処理装置。
Position detecting means for detecting the position of the ultrasonic probe inserted into the subject; and
Image processing means for processing ultrasonic tomographic image data created using an ultrasonic signal received by the ultrasonic probe;
Display means for displaying the image processed by the image processing means,
The image processing means includes
Image rearrangement means for rearranging the ultrasonic tomographic image data captured at the time of position detection in a three-dimensional image space using the position information of the ultrasonic probe detected by the position detection means;
An ultrasonic image processing apparatus comprising fly-through image generation means for generating a fly-through image using a plurality of ultrasonic tomographic image data rearranged in the three-dimensional image space.
請求項1記載の超音波画像処理装置であって、
前記フライスルー画像生成手段は、前記三次元画像空間に再配置された複数の超音波断層像データから、所定の組織の画像データを抽出する抽出手段を備え、前記抽出手段が抽出した1ないし複数の組織の画像データを用いてフライスルー画像を生成することを特徴とする超音波画像処理装置。
The ultrasonic image processing apparatus according to claim 1,
The fly-through image generation means includes an extraction means for extracting image data of a predetermined tissue from a plurality of ultrasonic tomographic image data rearranged in the three-dimensional image space, and the one or more extracted by the extraction means An ultrasonic image processing apparatus that generates a fly-through image using image data of a tissue.
請求項2に記載の超音波画像処理装置であって、
前記超音波断層像データは、被検体組織の弾性画像を含み、
前記抽出手段は、前記弾性画像を含む超音波断層像データから、所定の弾性データ値を有する組織画像を抽出することを特徴とする超音波画像処理装置。
The ultrasonic image processing apparatus according to claim 2,
The ultrasonic tomographic image data includes an elastic image of a subject tissue,
The ultrasonic image processing apparatus, wherein the extraction unit extracts a tissue image having a predetermined elasticity data value from ultrasonic tomographic image data including the elasticity image.
請求項1ないし3のいずれか1項に記載の超音波画像処理装置であって、
前記画像処理手段は、さらに、前記フライスルー画像を2次元に展開した画像を生成する展開画像生成手段を備えたことを特徴とする超音波画像処理装置。
The ultrasonic image processing apparatus according to any one of claims 1 to 3,
The ultrasonic image processing apparatus, wherein the image processing means further includes a developed image generating means for generating an image obtained by two-dimensionally developing the fly-through image.
請求項1ないし5のいずれか1項に記載の超音波画像処理装置であって、
前記超音波探触子は、被検体の内腔に挿入されるカテーテルに固定されており、
前記フライスルー画像生成手段が生成するフライスルー画像は、前記内腔壁のフライスルー画像であることを特徴とする超音波画像処理装置。
The ultrasonic image processing apparatus according to any one of claims 1 to 5,
The ultrasonic probe is fixed to a catheter that is inserted into the lumen of a subject,
The ultrasonic image processing apparatus, wherein the fly-through image generated by the fly-through image generation means is a fly-through image of the lumen wall.
超音波探触子を備えた超音波撮像部と、前記超音波撮像部以外の撮像手段と、前記超音波撮像部及び撮像手段で得られた複数の被検体画像を処理し、手術に必要な支援画像を作成する支援画像作成手段と、前記支援画像を表示する表示手段と、被検体内部に挿入された前記超音波探触子の位置を検出する位置検出手段と、を備えた手術支援装置であって、
前記支援画像作成手段は、
前記位置検出手段が検出した超音波探触子の位置情報を用いて、位置検出時に前記超音波撮像部が生成した超音波断層像データを三次元画像空間に再配置する画像再配置手段と、
前記三次元画像空間に再配置された複数の超音波断層像データを用いてフライスルー画像を作成するフライスルー画像生成手段とを備えたことを特徴とする手術支援装置。
An ultrasonic imaging unit including an ultrasonic probe, an imaging unit other than the ultrasonic imaging unit, and a plurality of subject images obtained by the ultrasonic imaging unit and the imaging unit are processed, and is necessary for surgery. Surgery support apparatus comprising support image creation means for creating a support image, display means for displaying the support image, and position detection means for detecting the position of the ultrasonic probe inserted into the subject. Because
The support image creation means includes
Image rearrangement means for rearranging ultrasonic tomographic image data generated by the ultrasonic imaging unit at the time of position detection in a three-dimensional image space using position information of the ultrasonic probe detected by the position detection means;
A surgery support apparatus comprising fly-through image generation means for creating a fly-through image using a plurality of ultrasonic tomographic image data rearranged in the three-dimensional image space.
請求項6記載の手術支援装置であって、
前記位置検出手段は、前記撮像手段によって取得された前記超音波探触子を含む被検体画像から前記超音波探触子を判別する判別手段を含み、前記判別手段によって判別された超音波探触子の座標を前記超音波探触子の位置として検出することを特徴とする手術支援装置。
The surgical operation support device according to claim 6,
The position detecting unit includes a determining unit that determines the ultrasonic probe from a subject image including the ultrasonic probe acquired by the imaging unit, and the ultrasonic probe determined by the determining unit. An operation support apparatus for detecting a child coordinate as a position of the ultrasonic probe.
請求項6又は7に記載の手術支援装置であって、
前記超音波断層像データが再配置される三次元画像空間は、前記撮像手段が取得した画像データを配置する画像空間と同一座標系の空間であり、
前記フライスルー画像生成手段は、前記撮像手段が撮像したボリュームデータを用いて、前記超音波探触子が挿入された被検体内部のフライスルー画像を作成する機能を備え、前記超音波断層像データから作成したフライスルー画像を、前記ボリュームデータから作成したフライスルー画像に重畳して表示手段に表示させることを特徴とする手術支援装置。
The surgery support apparatus according to claim 6 or 7,
The three-dimensional image space in which the ultrasonic tomographic image data is rearranged is a space having the same coordinate system as the image space in which the image data acquired by the imaging unit is arranged,
The fly-through image generation means has a function of creating a fly-through image inside the subject into which the ultrasonic probe is inserted, using the volume data imaged by the imaging means, and the ultrasonic tomographic image data The operation support apparatus, wherein the fly-through image created from the image is superimposed on the fly-through image created from the volume data and displayed on the display means.
請求項6ないし8のいずれか1項に記載の手術支援装置であって、
前記撮像手段が、MRI装置であることを特徴とする手術支援装置。
The surgery support apparatus according to any one of claims 6 to 8,
The surgery support apparatus, wherein the imaging means is an MRI apparatus.
JP2008099990A 2008-04-08 2008-04-08 Ultrasonic image processor and surgery support system Pending JP2009247641A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008099990A JP2009247641A (en) 2008-04-08 2008-04-08 Ultrasonic image processor and surgery support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008099990A JP2009247641A (en) 2008-04-08 2008-04-08 Ultrasonic image processor and surgery support system

Publications (1)

Publication Number Publication Date
JP2009247641A true JP2009247641A (en) 2009-10-29

Family

ID=41308874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008099990A Pending JP2009247641A (en) 2008-04-08 2008-04-08 Ultrasonic image processor and surgery support system

Country Status (1)

Country Link
JP (1) JP2009247641A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014038703A1 (en) * 2012-09-10 2014-03-13 株式会社東芝 Diagnostic ultrasound apparatus, medical image-processing device and image processing program
JP2016517721A (en) * 2013-04-05 2016-06-20 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Determination of the energy deposition zone of a catheter equipped with an ultrasonic array

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014038703A1 (en) * 2012-09-10 2014-03-13 株式会社東芝 Diagnostic ultrasound apparatus, medical image-processing device and image processing program
JP2014064913A (en) * 2012-09-10 2014-04-17 Toshiba Corp Ultrasonic diagnostic device, medical image processor and image processing program
CN104602611A (en) * 2012-09-10 2015-05-06 株式会社东芝 Diagnostic ultrasound apparatus, medical image-processing device and image processing program
JP2016517721A (en) * 2013-04-05 2016-06-20 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Determination of the energy deposition zone of a catheter equipped with an ultrasonic array
US10010727B2 (en) 2013-04-05 2018-07-03 Profound Medical Inc. Energy deposition zone determination for a catheter with an ultrasound array

Similar Documents

Publication Publication Date Title
JP5433032B2 (en) Ultrasonic diagnostic equipment
JP6323335B2 (en) Image processing apparatus, image processing method, and program
JP6085366B2 (en) Ultrasound imaging system for image guidance procedure and method of operation thereof
JP5417609B2 (en) Medical diagnostic imaging equipment
JP6242569B2 (en) Medical image display apparatus and X-ray diagnostic apparatus
JP6238651B2 (en) Ultrasonic diagnostic apparatus and image processing method
JP5230589B2 (en) Ultrasonic device, ultrasonic imaging program, and ultrasonic imaging method
JP5657467B2 (en) Medical image display system
JP4875416B2 (en) Medical guide system
JP2008535560A (en) 3D imaging for guided interventional medical devices in body volume
JP2005312770A (en) Ultrasonic diagnostic device
JP5470185B2 (en) Medical image processing apparatus and treatment support system
JP5601684B2 (en) Medical imaging device
JP5454841B2 (en) Medical image processing device
JP5410021B2 (en) Medical diagnostic imaging equipment
JP2019093123A (en) Medical image diagnostic apparatus and medical image processing apparatus
JP5226244B2 (en) Medical guide system
WO2015091226A1 (en) Laparoscopic view extended with x-ray vision
JP2009247641A (en) Ultrasonic image processor and surgery support system
JP2010051615A (en) Magnetic resonance imaging apparatus
JP5487339B2 (en) Medical image processing device
JP2014239841A (en) Ultrasonic diagnostic equipment, medical image processor, and control program
JP2008113699A (en) Ultrasonic diagnostic apparatus and catheter navigation system