JP2012050844A - Three-dimensional image processor, three-dimensional image processing method, storage medium, and program - Google Patents

Three-dimensional image processor, three-dimensional image processing method, storage medium, and program Download PDF

Info

Publication number
JP2012050844A
JP2012050844A JP2011233390A JP2011233390A JP2012050844A JP 2012050844 A JP2012050844 A JP 2012050844A JP 2011233390 A JP2011233390 A JP 2011233390A JP 2011233390 A JP2011233390 A JP 2011233390A JP 2012050844 A JP2012050844 A JP 2012050844A
Authority
JP
Japan
Prior art keywords
image
dimensional image
dimensional
combined
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011233390A
Other languages
Japanese (ja)
Other versions
JP5232286B2 (en
Inventor
Satoru Oishi
悟 大石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2011233390A priority Critical patent/JP5232286B2/en
Publication of JP2012050844A publication Critical patent/JP2012050844A/en
Application granted granted Critical
Publication of JP5232286B2 publication Critical patent/JP5232286B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Radiation (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Nuclear Medicine (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce the workload and improve accuracy in alignment for image connection, and to connect images in a wide range.SOLUTION: A three-dimensional image processor comprises: a memory part 12 that stores data on a first three-dimensional image, data on a second three-dimensional image to be connected to the first three-dimensional image, data on a third three-dimensional image relevant to the first three-dimensional image, and data on a fourth three-dimensional image relevant to the second three-dimensional image; a displacement calculation part 18 to calculate displacement between the third three-dimensional image and the fourth three-dimensional image; and an image connection part 19 to align the second three-dimensional image with the first three-dimensional image to connect them based on the calculated displacement.

Description

本発明は、被検体に関する3次元画像を結合する3次元画像処理装置、3次元画像処理方法、記憶媒体及びプログラムに関する。   The present invention relates to a three-dimensional image processing apparatus, a three-dimensional image processing method, a storage medium, and a program for combining three-dimensional images related to a subject.

同一被検体に関する異種画像の結合(fusion)は、診断精度の向上に有効である。例えば、X線コンピュータ断層撮影装置(X-ray Computed Tomography apparatus)により発生された骨又は臓器などの解剖学的画像(形態画像)と、MRI装置(Magnetic Resonance Imaging apparatus)により発生された機能的画像との結合画像は、外科手術支援に有用である。   The fusion of different images related to the same subject is effective in improving the diagnostic accuracy. For example, anatomical images (morphological images) of bones or organs generated by an X-ray computed tomography apparatus and functional images generated by an MRI apparatus (Magnetic Resonance Imaging apparatus) The combined image is useful for surgical support.

異種の画像を結合するには、位置合わせ(registration)が困難である。一般的に、位置合わせは、手作業に頼っている。   Registration is difficult to combine dissimilar images. In general, alignment relies on manual work.

特許文献1は、予め被検体にマーカーを取り付けて画像を発生し、マーカー像の整合により画像を結合する方法を記載している。この方法は、結合対象画像が、マーカーが映っていない画像に限定されるという制約がある。   Patent Document 1 describes a method in which a marker is attached to a subject in advance to generate an image, and the images are combined by matching the marker images. This method has a restriction that the image to be combined is limited to an image in which no marker is shown.

特開平5−137711号公報JP-A-5-137711

本発明の目的は、画像結合の位置合わせ作業負担の軽減、画像結合の位置合わせ精度の向上、画像結合対象の拡大の実現にある。   An object of the present invention is to reduce the alignment work burden of image combination, improve the alignment accuracy of image combination, and realize enlargement of an image combination target.

本実施形態に係る3次元画像処理装置は、3次元画像処理装置は、第1の3次元画像のデータと第1の3次元画像と結合対象の第2の3次元画像のデータと第1の3次元画像に関連性を有する第3の3次元画像のデータと第2の3次元画像に関連性を有する第4の3次元画像のデータとを記憶する記憶部12と、第3、4の3次元画像との間の位置ずれを計算する位置ずれ計算部18と、計算された位置ずれに基づいて第1、第2の3次元画像とを位置合わせして結合する画像結合部19とを具備する。   The three-dimensional image processing apparatus according to the present embodiment is the same as the first three-dimensional image data, the first three-dimensional image, the second three-dimensional image data to be combined, and the first three-dimensional image data. A storage unit 12 for storing data of a third 3D image related to the 3D image and data of a fourth 3D image related to the second 3D image; A position shift calculation unit 18 that calculates a position shift between the three-dimensional image and an image combination unit 19 that aligns and combines the first and second three-dimensional images based on the calculated position shift. It has.

本発明の実施形態による3次元画像処理装置の構成を示す図。The figure which shows the structure of the three-dimensional image processing apparatus by embodiment of this invention. 本実施形態による位置ずれベクトル計算及び画像結合の一連の処理の手順を示す流れ図。5 is a flowchart showing a procedure of a series of processing of positional deviation vector calculation and image combination according to the present embodiment. 本実施形態による画像結合の第1の具体例を示す図。The figure which shows the 1st specific example of the image coupling | bonding by this embodiment. 本実施形態による画像結合の第2の具体例を示す図。The figure which shows the 2nd specific example of the image combination by this embodiment. 本実施形態による画像結合の第3の具体例を示す図。The figure which shows the 3rd specific example of the image combination by this embodiment. 本実施形態による画像結合の第4の具体例を示す図。The figure which shows the 4th specific example of the image combination by this embodiment. 本実施形態による画像結合の第5の具体例を示す図。The figure which shows the 5th specific example of the image combination by this embodiment. 本実施形態による画像結合の第6の具体例を示す図。The figure which shows the 6th specific example of the image combination by this embodiment. 本実施形態による画像結合の第7の具体例を示す図。The figure which shows the 7th specific example of the image combination by this embodiment. 本実施形態による画像結合の第8の具体例を示す図。The figure which shows the 8th specific example of the image combination by this embodiment.

以下、図面を参照して本発明の実施形態について説明する。
図1は、本実施形態に係る3次元画像処理装置の構成を示している。3次元画像処理装置1は、ネットワークカード13を介して、電子的通信回線網、つまりLAN又はWAN等のネットワーク21に接続される。ネットワーク21には、X線コンピュータ断層撮影装置(X線CT装置)2、磁気共鳴イメージング装置(MRI)3、X線診断装置4、PET−CT装置5、その他超音波診断装置等の2次元又は3次元の画像データを発生可能な医用画像発生装置が接続される。また、ネットワーク21には、それら医用画像発生装置で発生された各種の画像のデータを保管する画像保管装置6が接続される。画像保管装置6は、典型的には医用画像保管通信システム(PACS)である。PET−CT装置5は、PET(Positron Emission computed Tomography)装置とX線CT装置とが一体に組み合わされた、寝台を共用する装置であり、PET画像とCT画像との位置整合を容易に図ることができる特性を有している。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 shows a configuration of a three-dimensional image processing apparatus according to this embodiment. The three-dimensional image processing apparatus 1 is connected to an electronic communication network, that is, a network 21 such as a LAN or WAN via a network card 13. The network 21 includes two-dimensional or X-ray computed tomography apparatus (X-ray CT apparatus) 2, magnetic resonance imaging apparatus (MRI) 3, X-ray diagnostic apparatus 4, PET-CT apparatus 5, and other ultrasonic diagnostic apparatuses. A medical image generator capable of generating three-dimensional image data is connected. The network 21 is connected to an image storage device 6 that stores data of various images generated by the medical image generation devices. The image storage device 6 is typically a medical image storage communication system (PACS). The PET-CT apparatus 5 is an apparatus in which a PET (Positron Emission computed Tomography) apparatus and an X-ray CT apparatus are integrally combined to share a bed, and facilitates positional alignment between a PET image and a CT image. It has the characteristics that can be.

3次元画像処理装置1は、マイクロコンピュータからなる制御部11と、記憶部12と、ネットワークカード13と、キーボードやマウスからなる入力デバイス14と、画像データに対して拡大・移動等の処理を行うアフィン変換部15と、D/A(デジタル/アナログ)変換部16と、表示部17と、位置ずれ計算部18と、画像結合部19と、画像処理部20を備えている。D/A変換部16には表示部17が接続される。なお、3次元画像処理装置1は、制御部11等とともに、画像保管装置6を備えても良い。   The three-dimensional image processing apparatus 1 performs processing such as enlargement / movement on image data, a control unit 11 formed of a microcomputer, a storage unit 12, a network card 13, an input device 14 formed of a keyboard and a mouse. An affine transformation unit 15, a D / A (digital / analog) conversion unit 16, a display unit 17, a misregistration calculation unit 18, an image combination unit 19, and an image processing unit 20 are provided. A display unit 17 is connected to the D / A conversion unit 16. Note that the three-dimensional image processing apparatus 1 may include an image storage device 6 together with the control unit 11 and the like.

記憶部12は、X線CT装置2等の医用画像発生装置から直接的に、又は画像保管装置6からネットワークカード13を介して供給された結合対象とされる複数の3次元の画像(結合対象画像という)のデータと、結合対象画像の間の位置合わせ(registration)を媒介するための少なくとも1つの3次元の画像(媒介画像という)のデータとを記憶する。なお、複数の3次元画像を結合するものであっても良いし、2つ(一対)の3次元画像を結合するものであっても良い。ここでは、2つ(一対)の3次元画像を結合するものとして説明する。   The storage unit 12 includes a plurality of three-dimensional images (joining targets) to be joined directly from a medical image generating apparatus such as the X-ray CT apparatus 2 or from the image storage device 6 via the network card 13. Image data) and at least one three-dimensional image data (referred to as an intermediate image) for mediating registration between the images to be combined. A plurality of three-dimensional images may be combined, or two (a pair) of three-dimensional images may be combined. Here, a description will be given assuming that two (a pair) three-dimensional images are combined.

画像処理部20は、位置ずれ計算の前処理としての例えば画像データの二値化処理、画像結合の後処理としての例えばカラー処理を担う。位置ずれ計算部18は、結合対象画像間の位置ずれベクトルを、結合対象画像間に媒介画像を媒介させることにより、計算する。位置ずれベクトルは、XYZ各軸に関する移動距離と、XYZ各軸に関する回転角度とにより規定される。画像結合部19は、位置ずれ計算部18により計算された位置ずれベクトルに基づいて、2つの結合対象画像を位置合わせして結合し、単一の結合画像を発生する。   The image processing unit 20 is responsible for, for example, binarization processing of image data as pre-processing for misregistration calculation, for example, color processing as post-processing of image combination. The misregistration calculation unit 18 calculates a misregistration vector between the combining target images by causing the intermediate image to mediate between the combining target images. The displacement vector is defined by the movement distance for each of the XYZ axes and the rotation angle for each of the XYZ axes. The image combining unit 19 aligns and combines the two images to be combined based on the position shift vector calculated by the position shift calculation unit 18 to generate a single combined image.

図2には位置ずれ計算及び画像結合の処理手順を示している。まず、操作者は入力デバイス14を介して画像結合処理の起動を指示する。それにより制御部11は、画像結合処理を起動する(S11)。操作者は入力デバイス14を介して画像結合処理の対象となる複数、ここでは2つの結合対象画像を指定する。典型的には、診断対象の被検体に関する未読影の画像であって、診断目的に合致した性質を有する画像が指定される。それにより制御部11は、指定された2つの結合対象画像のデータを画像保管装置6から選択的に読み出し、記憶部12に記憶させる(S12)。   FIG. 2 shows a processing procedure for positional deviation calculation and image combination. First, the operator instructs activation of the image combining process via the input device 14. Thereby, the control unit 11 activates the image combining process (S11). The operator designates a plurality of, in this case, two images to be combined, which are targets of image combining processing via the input device 14. Typically, an image that is an uninterpreted image related to the subject to be diagnosed and has a property that matches the purpose of diagnosis is designated. Thereby, the control unit 11 selectively reads out the data of the two specified combination target images from the image storage device 6 and stores them in the storage unit 12 (S12).

次に、制御部11は、結合対象画像各々に対して特定の関係にある2つの画像(媒介画像の候補)を画像保管装置6で検索し、画像保管装置6から選択的に読み出させて、表示部17に一覧で表示させる(S13)。結合対象画像と被検体が同一であって、医用画像発生装置の種類(モダリティ)が同一で、同じ検査期間中に発生(撮影)された画像が媒介画像の候補として検索される。さらに結合対象画像と同じ原画像から派生した画像が媒介画像の候補として検索される。例えば回転DSA(ディジタル・サブトラクション・アンギオ)撮影において収集された造影前のマスク画像と造影後のコントラスト画像とを原画像として、マスク画像とコントラスト画像との差分画像から再構成した3次元の血管画像が結合対象画像として指定されたとき、同じマスク画像から骨を抽出して再構成した3次元のマスク画像(3Dマスク画像)が媒介画像の候補として選択される。   Next, the control unit 11 searches the image storage device 6 for two images (mediate image candidates) that have a specific relationship with each of the images to be combined, and selectively reads them from the image storage device 6. The list is displayed on the display unit 17 (S13). An image generated (captured) during the same examination period is searched as a candidate for an intermediate image, with the same image to be combined and the subject, the same type (modality) of the medical image generation apparatus. Further, an image derived from the same original image as the image to be combined is retrieved as a candidate for the intermediate image. For example, a three-dimensional blood vessel image reconstructed from a difference image between a mask image and a contrast image, using a pre-contrast mask image and a contrast image after contrast acquired in rotating DSA (digital subtraction angio) imaging as an original image Is designated as a combining target image, a three-dimensional mask image (3D mask image) obtained by extracting and reconstructing a bone from the same mask image is selected as a candidate for a mediation image.

このように結合対象画像と特定の関係にある媒介画像の候補はそのいずれもが、結合対象画像に対して位置ずれが無い、ほとんど無い、又は医用画像発生装置が撮影時に取得している天板位置等の撮影位置情報から簡易に位置ずれを解消できる関係にある画像と定義され得る。   As described above, any of the mediator image candidates having a specific relationship with the image to be combined has no positional deviation with respect to the image to be combined, almost none, or the top plate acquired by the medical image generation apparatus at the time of photographing. It can be defined as an image having a relationship in which the positional deviation can be easily eliminated from the photographing position information such as the position.

2つの結合対象画像として例えば解剖学的画像(形態画像)と機能的画像との間では共通部位がないので本質的に位置ずれを求めることができない、又は位置ずれの計算精度が低いが、その場合であっても、結合対象画像と位置ずれの無い解剖学的画像としての媒介画像を媒介させて結合対象画像間の位置ずれを推定することができる。つまり、一方の結合対象画像と位置ずれの無い又は簡易に解消できる媒介画像と、その結合対象画像と結合される他方の結合対象画像との間の位置ずれを求め、その位置ずれに従って結合対象画像の間の位置ずれを実質的に解消することができる。または、一方の結合対象画像と位置ずれの無い又は簡易に解消できる媒介画像と、他方の結合対象画像と位置ずれの無い又は簡易に解消できる媒介画像との間の位置ずれを求め、その位置ずれに従って結合対象画像の間の位置ずれを実質的に解消することができる。   For example, since there is no common part between the anatomical image (morphological image) and the functional image as the two images to be combined, the positional deviation cannot be obtained essentially or the calculation accuracy of the positional deviation is low. Even in this case, it is possible to estimate the positional deviation between the images to be combined by using the intermediate image as the anatomical image having no positional deviation with the image to be combined. In other words, a position shift between the intermediate image that is free of displacement or can be easily eliminated from one combining target image and the other combining target image combined with the combining target image is obtained, and the combining target image is determined according to the position shift. Can be substantially eliminated. Alternatively, a positional deviation between one of the images to be combined that is not misaligned or that can be easily eliminated and the other image that is not misaligned or that can be easily eliminated is obtained. Accordingly, the positional deviation between the images to be combined can be substantially eliminated.

一覧表示された媒介画像の候補から操作者は入力デバイス14を介して所望の画像を媒介画像として指定する。それにより制御部11は、指定された媒介画像のデータを画像保管装置6から選択的に読み出し、記憶部12に記憶させる(S14)。なお、複数の結合対象画像各々に対して一つの媒介画像を指定しても良いし、複数の結合対象画像の一部又はいずれか一つに対して一つの媒介画像を指定しても良い。   The operator designates a desired image as the intermediate image via the input device 14 from the list of intermediate image candidates displayed. Thereby, the control unit 11 selectively reads out the designated intermediate image data from the image storage device 6 and stores it in the storage unit 12 (S14). One intermediate image may be designated for each of the plurality of combination target images, or one intermediate image may be designated for a part or any one of the plurality of combination target images.

媒介画像の指定とともに操作者は、結合対象画像に対する媒介画像の関係として、どの結合対象画像に対してどの媒介画像が対応しているのか、対応している結合対象画像と媒介画像とは位置ずれが無い又はほとんど無いのか否か、対応している結合対象画像と媒介画像とは装置情報から位置ずれ解消できるのか否か、結合対象画像間の位置ずれをどの画像とどの画像(結合対象画像と媒介画像、媒介画像どうし)の間の位置ずれから推定するのか等を指定する。それにより制御部11は当該関係を設定し、位置ずれ処理の対象及び処理手順を設定することができる(S15)。   In addition to specifying the intermediate image, the operator determines which intermediate image corresponds to which image to be combined as the relationship of the intermediate image to the image to be combined. Whether or not the corresponding image to be combined and the intermediate image can be eliminated from the device information, and which image and which image (the image to be combined) Specifies whether to estimate from the positional deviation between the intermediate image and the intermediate image). Thereby, the control part 11 can set the said relationship, and can set the object and process sequence of a position shift process (S15).

次に、操作者により入力デバイス14を介して、位置ずれベクトル計算処理の対象部位を例えば脳実質、血管、骨等の領域抽出処理の比較的容易な複数の候補の中から指定すると(S16)、画像処理部20により、指定された部位の領域が、それぞれのモダリティ及び部位に応じて予め決められている閾値によりS15で指定された位置ずれ計算処理の対象とされる結合対象画像、媒介画像から抽出され、二値化される(S17)。このように位置ずれベクトル計算処理を任意の部位に限局し、さらに二値化により画素値を規格化することで、位置ずれベクトル計算処理工数を減少させることができ、それとともに位置ずれベクトル計算精度を向上することができる。   Next, when the operator designates the target part of the positional deviation vector calculation process from among a plurality of candidates that are relatively easy to extract areas such as brain parenchyma, blood vessels, and bones, for example, via the input device 14 (S16). The region of the designated part by the image processing unit 20 is the image to be combined, the intermediate image to be subjected to the position shift calculation process designated in S15 by the threshold value determined in advance according to each modality and part. And binarized (S17). In this way, the positional deviation vector calculation process is limited to an arbitrary part, and the pixel value is normalized by binarization, thereby reducing the positional deviation vector calculation processing man-hour and the positional deviation vector calculation accuracy. Can be improved.

なお、脳実質を抽出する方法は骨を抽出する方法よりも難易度が高い。以下にその処理について簡単に説明する。画像A1から脳実質を抽出するための処理では、第1に骨外し処理を行う。骨外しは、CTでは公知の技術である。具体的には骨の位置をCT値で同定し、骨とその外側に位置する軟組織を除去する。第2にマニュアルで頭蓋底部より下部を切り取ることにより脳実質部のみを抽出する。画像B1から脳実質を抽出するための処理では、第1にマニュアルで頭蓋底部より下部を切り取る。そして第2に脳実質を指定してリージョングローイング法で脳実質部(含む硬膜)だけを抽出する。このようにして抽出された3次元画像それぞれに対し、高周波強調フィルターをかけた結果と、さらにボクセル値によって決まる確率関数をかけることにより、B2とA2とを作成する。A2の場合は以下のように算出される。   Note that the method of extracting brain parenchyma is more difficult than the method of extracting bone. The process will be briefly described below. In the process for extracting the brain parenchyma from the image A1, a bone removal process is first performed. Bone removal is a known technique in CT. Specifically, the position of the bone is identified by the CT value, and the bone and the soft tissue located outside the bone are removed. Secondly, only the brain parenchyma is extracted by manually cutting the bottom of the skull base. In the process for extracting the brain parenchyma from the image B1, first, the lower part from the skull base is manually cut out. Second, the brain parenchyma is designated and only the brain parenchyma (including the dura mater) is extracted by the region growing method. B2 and A2 are created by applying the result of applying the high-frequency enhancement filter to each of the three-dimensional images extracted in this manner and a probability function determined by the voxel value. In the case of A2, it is calculated as follows.

A(x,y,z)={A(x,y,z)*H(x,y,z)}×P{A(x,y,z)}
ここでAe(x,y,z)は脳実質部をマニュアルでラフに抽出したデータ、H(x,y,z)は高周波強調フィルター、*はコンボリューション演算子を示す。またP()は確率関数を示し、任意のCT値に対する脳実質である確率を表す。例えばCT値が-1000や1000であれば確率関数は0と、CT値が10〜20くらいであれば脳実質レベルなので確率関数は1、その周辺のCT値であれば脳実質に近いので確率関数は1に近い値をとり、その周辺から離れるに従って急激に確率関数は0に近づく。
A 2 (x, y, z) = {A e (x, y, z) * H (x, y, z)} × P {A e (x, y, z)}
Here, Ae (x, y, z) is data obtained by roughly extracting the brain parenchyma manually, H (x, y, z) is a high-frequency enhancement filter, and * is a convolution operator. P () represents a probability function and represents the probability of being a brain parenchyma with respect to an arbitrary CT value. For example, if the CT value is -1000 or 1000, the probability function is 0, and if the CT value is about 10-20, the probability function is 1 because the CT function is near the brain parenchyma. The function takes a value close to 1, and the probability function suddenly approaches 0 as it moves away from its periphery.

次に、二値化された結合対象画像と媒介画像との間の位置ベクトル、又は二値化された媒介画像と媒介画像との間の位置ずれベクトルが、位置ずれ計算部18により計算される(S18)。例えば、二値化された結合対象画像と媒介画像との間、又は二値化された媒介画像と媒介画像との間で相互相関演算を行ってその相関値が最小となる位置ずれベクトルを探索する。簡易には画像を差分し、差分値の二乗和を計算し、それを平行移動量及び回転角を変えながら繰り返し、二乗和が最小となるXYZ各軸に関する平行移動量(x1,y1,z1)と、XYZ各軸まわりの回転角(△θx1,△θy1,△θz1)とを位置ずれベクトルとしては決定する。   Next, a positional deviation vector between the binarized image to be combined and the intermediate image or a positional deviation vector between the binarized intermediate image and the intermediate image is calculated by the positional deviation calculator 18. (S18). For example, a cross-correlation operation is performed between the binarized image to be combined and the intermediate image, or between the binarized intermediate image and the intermediate image, and a position shift vector that minimizes the correlation value is searched. To do. Simply calculate the difference between the images, calculate the sum of squares of the difference value, and repeat it while changing the amount of translation and the rotation angle, and the amount of translation (x1, y1, z1) for each XYZ axis that minimizes the sum of squares. And the rotation angles (Δθx1, Δθy1, Δθz1) around the XYZ axes are determined as positional deviation vectors.

画像結合部19において、計算された位置ずれベクトルに従って2つの結合対象画像の位置が整合され、結合され、それにより単一の結合画像が発生される(S19)。   In the image combining unit 19, the positions of the two images to be combined are aligned and combined according to the calculated displacement vector, thereby generating a single combined image (S19).

以上の位置ずれ計算及び画像結合処理について具体例を以下説明する。
図3に示すように、一方の結合対象画像として例えばCT画像が指定される。CT画像はX線コンピュータ断層撮影装置により発生された軟部組織、脂肪組織、血管(血液)、骨等の形態を表す解剖学的画像(形態画像)である。他方の結合対象画像として、例えばMRI装置により発生された髄液等の流れの様子を画像化した拡散強調画像、いわゆるDWI(Diffusion Weighted Imaging)、脳の活性程度を画像化したfMRI(functional MRI)、組織灌流画像、いわゆるパフュージョンMRI(Perfusion MRI)等の機能的画像が指定される。一方の結合対象画像としてのCT画像と、他方の結合対象画像としてのMRIの機能的画像とは例えば別の検査期間に発生され、しかも異なるモダリティによるものであるので位置ずれが生じている。その位置ずれは、両画像間でマーカーに代替えされ得るような共通する特徴的部位が存在しないので、相互比較で直接的には特定することはできない。そこで媒介画像が必要とされる。
A specific example of the above misregistration calculation and image combination processing will be described below.
As shown in FIG. 3, for example, a CT image is designated as one image to be combined. The CT image is an anatomical image (morphological image) representing the morphology of soft tissue, adipose tissue, blood vessels (blood), bones and the like generated by an X-ray computed tomography apparatus. For example, a diffusion weighted image obtained by imaging the flow of cerebrospinal fluid generated by an MRI apparatus, for example, so-called DWI (Diffusion Weighted Imaging), and fMRI (functional MRI) obtained by imaging the degree of brain activity. A functional image such as a tissue perfusion image, so-called perfusion MRI (Perfusion MRI) is designated. The CT image as one image to be combined and the functional image of MRI as the other image to be combined are generated, for example, in different examination periods, and because of different modalities, misalignment occurs. The misregistration cannot be directly identified by mutual comparison because there is no common characteristic site that can be replaced by a marker between both images. Therefore, an intermediate image is required.

MRIによる他の結合対象画像に対してその属性情報に基づいて媒介画像の候補が画像保管装置6で検索される。その媒介画像の候補の一覧から、例えば組織の縦緩和時間T1の相違を画像化した解剖学的画像としてのT1強調画像が選択される。   The image storage device 6 searches for the candidate of the intermediate image based on the attribute information of other images to be combined by MRI. From the list of candidates for the vector image, for example, a T1-weighted image as an anatomical image obtained by imaging the difference in the longitudinal relaxation time T1 of the tissue is selected.

この媒介画像としてのT1強調画像は、他方の結合対象画像としてのDWI等のMRI機能的画像に対して、同一被検体を同一のMRI装置により発生されたものであり、しかも単一の検査期間中に被検体が天板に載置された状態のまま連続的に発生された関係にある。従って、被検体の体動を原因とする以外の位置ずれは天板の位置等の情報から簡易に解消することができる。   The T1-weighted image as the intermediate image is the same subject generated by the same MRI apparatus with respect to the MRI functional image such as DWI as the other image to be combined, and has a single examination period. There is a relationship in which the subject is continuously generated while being placed on the top. Therefore, a positional shift other than that caused by the body movement of the subject can be easily eliminated from information such as the position of the top board.

CT画像から、位置ずれ計算対象部位として指定された閾値処理により例えば脳実質を抽出してその二値画像を生成し、同様にT1強調画像から閾値処理により同じ脳実質を抽出してその二値画像を生成する。CT画像に由来する二値画像と、T1強調画像に由来する二値画像との間で位置ずれベクトルが計算される。上述したように、CT画像に由来する二値画像と、T1強調画像に由来する二値画像との間で差分し、差分値の二乗和を計算し、それを平行移動量及び回転角を変えながら繰り返し、二乗和が最小となるXYZ各軸に関する平行移動量(x1,y1,z1)と、XYZ各軸まわりの回転角(△θx1,△θy1,△θz1)とを位置ずれベクトルとして決定する。   For example, the brain parenchyma is extracted from the CT image by threshold processing specified as a position shift calculation target portion to generate a binary image thereof, and similarly, the same brain parenchyma is extracted from the T1-weighted image by threshold processing to obtain the binary value. Generate an image. A displacement vector is calculated between the binary image derived from the CT image and the binary image derived from the T1 weighted image. As described above, the difference between the binary image derived from the CT image and the binary image derived from the T1-weighted image is calculated, the square sum of the difference values is calculated, and the translation amount and the rotation angle are changed. However, the amount of translation (x1, y1, z1) about each XYZ axis and the rotation angle (Δθx1, Δθy1, Δθz1) about each XYZ axis is determined as a positional deviation vector repeatedly. .

この位置ずれベクトルに従ってCT画像とMRIの機能的画像とを位置整合して結合し、結合画像を発生する。結合画像によると、例えばMRIの機能的画像により把握できる機能低下部位を、CTによる骨、臓器、腫瘍のような形態画像上で位置確認すること等の非常に有用な画像を得ることができる。   The CT image and the MRI functional image are aligned and combined in accordance with the displacement vector to generate a combined image. According to the combined image, it is possible to obtain a very useful image such as confirming the position of a function-reduced portion that can be grasped by, for example, an MRI functional image on a morphological image such as a bone, organ, or tumor by CT.

図4に示すように、一方の結合対象画像として例えばCTA画像が指定される。CTA画像は、造影剤の静脈注入にタイミングを合わせてX線コンピュータ断層撮影装置によりヘリカルスキャンして収集された投影データから再構成された軟部組織や骨等とともに造影剤により強調された血管(血液)とを含む解剖学的画像(形態画像)である。   As shown in FIG. 4, for example, a CTA image is designated as one image to be combined. A CTA image is a blood vessel (blood) emphasized by a contrast medium together with soft tissue and bone reconstructed from projection data acquired by helical scanning by an X-ray computed tomography apparatus in time with the intravenous injection of the contrast medium. ) An anatomical image (morphological image).

他方の結合対象画像として、例えばMRI装置により発生されたT2強調画像等の機能的画像が指定される。図3の例と同様に、一方の結合対象画像としてのCTA画像と、他方の結合対象画像としてのMRIの機能的画像とは位置ずれが生じているとともに、その位置ずれ計算には媒介画像が必要とされる。 For example, a functional image such as a T2 * emphasized image generated by the MRI apparatus is designated as the other image to be combined. Similar to the example of FIG. 3, the CTA image as one image to be combined and the MRI functional image as the other image to be combined are misaligned. Needed.

このT2強調画像に対して位置ずれの無い等の関連する媒介画像としてMRA画像が選択される。MRA画像は、造影剤を使った撮影法、タイムオブフライト(TOF)法やフェイズコントラスト(Phase Contrast)法等のフローシーケンスにより取得可能な血管強調された解剖学的画像である。この媒介画像としてのMRA画像は、他方の結合対象画像としてのT2強調画像に対して実質的に位置ずれは無い。 An MRA image is selected as a related intermediate image such as no misalignment with respect to the T2 * emphasized image. The MRA image is a blood vessel-enhanced anatomical image that can be acquired by a flow sequence such as an imaging method using a contrast agent, a time-of-flight (TOF) method, or a phase contrast method. The MRA image as the intermediate image has substantially no displacement with respect to the T2 * emphasized image as the other image to be combined.

CTA画像から閾値処理により血管を抽出してその二値画像を生成し、同様にMRA画像から閾値処理により同じ血管を抽出してその二値画像を生成する。CTA画像に由来する二値画像と、MRA画像に由来する二値画像との間で位置ずれベクトルが計算される。   A blood vessel is extracted from the CTA image by threshold processing to generate a binary image, and similarly, the same blood vessel is extracted from the MRA image by threshold processing to generate the binary image. A displacement vector is calculated between the binary image derived from the CTA image and the binary image derived from the MRA image.

この計算された位置ずれベクトルに従ってCTA画像とMRIのT2強調画像とを位置整合して結合し、結合画像を発生する。 According to the calculated displacement vector, the CTA image and the MRI T2 * weighted image are combined in position alignment to generate a combined image.

図5に示すように、一方の結合対象画像として例えばCT画像が指定される。CT画像は上述したように解剖学的画像(形態画像)である。他方の結合対象画像として、例えばX線診断装置により発生された3D−DSA画像が指定される。3D−DSA画像は、造影前に例えばCアームにより被検体周囲を回転しながら繰り返しX線画像(マスク画像)を撮影し、造影後にCアームにより被検体周囲を回転しながら繰り返しX線画像(コントラスト画像)を撮影し、角度を揃えてマスク画像とコントラスト画像とを差分することにより血管抽出画像を生成し、多方向の血管抽出画像からCT再構成と同様の手法で再構成することにより発生される。   As shown in FIG. 5, for example, a CT image is designated as one image to be combined. The CT image is an anatomical image (morphological image) as described above. For example, a 3D-DSA image generated by an X-ray diagnostic apparatus is designated as the other image to be combined. For 3D-DSA images, before imaging, for example, an X-ray image (mask image) is repeatedly taken while rotating around the subject by the C arm, and after imaging, the X-ray image (contrast is repeatedly rotated while rotating around the subject by the C arm. Image), a blood vessel extraction image is generated by differentiating the mask image and the contrast image with the same angle, and reconstructed from the multidirectional blood vessel extraction image in the same manner as CT reconstruction. The

CT画像と3D−DSA画像とはともに解剖学的画像であるが、CT画像は骨及び軟組織の情報を主に備え、3D−DSA画像は本質的に血管情報のみを備えているので、直接的に位置ずれを計算できない。そこで、媒介画像を利用して、CT画像と3D−DSA画像との間の位置ずれを計算する。   CT images and 3D-DSA images are both anatomical images, but CT images mainly contain bone and soft tissue information, and 3D-DSA images essentially contain only blood vessel information. Cannot calculate misalignment. Therefore, the positional deviation between the CT image and the 3D-DSA image is calculated using the intermediate image.

媒介画像としては、3D−DSA画像の原画像としてのマスク画像3次元画像処理により派生した3Dマスク画像が選択される。3D−DSA画像と3Dマスク画像とは、原画像(マスク画像)を共通するので、位置ずれは原理的に存在しないで、完全に位置整合している。   As the intermediary image, a 3D mask image derived by mask image 3D image processing as an original image of the 3D-DSA image is selected. Since the 3D-DSA image and the 3D mask image share the original image (mask image), there is no positional deviation in principle, and the position is completely aligned.

CT画像と3Dマスク画像とに共通して含まれる部位として、ここでは特に骨が指定される。CT画像から閾値処理により骨を抽出してその二値画像を生成する。CT画像に由来する二値画像と、3Dマスク画像との間で位置ずれベクトルが計算される。   Here, a bone is specifically designated as a part commonly included in the CT image and the 3D mask image. Bone is extracted from the CT image by threshold processing to generate a binary image. A displacement vector is calculated between the binary image derived from the CT image and the 3D mask image.

この計算された位置ずれベクトルに従ってCT画像と3D−DSA画像とを位置整合して結合し、結合画像を発生する。この結合により、CT画像の軟組織情報と、3D−DSA画像の精細な血管情報とを関連付けて診断することができる。   In accordance with the calculated displacement vector, the CT image and the 3D-DSA image are combined while being aligned to generate a combined image. By this combination, diagnosis can be made in association with the soft tissue information of the CT image and the fine blood vessel information of the 3D-DSA image.

図6に示すように、一方の結合対象画像としてCTA画像が指定される。CTA画像は上述したように軟部組織や骨等とともに造影剤により強調された血管(血液)とを含む解剖学的画像(形態画像)である。他方の結合対象画像として、3D−DSA画像が指定される。3D−DSA画像は、上述したように血管に関する解剖学的画像(形態画像)である。   As shown in FIG. 6, a CTA image is designated as one image to be combined. As described above, the CTA image is an anatomical image (morphological image) including soft tissues, bones, and the like and blood vessels (blood) emphasized by a contrast medium. A 3D-DSA image is designated as the other image to be combined. The 3D-DSA image is an anatomical image (morphological image) related to a blood vessel as described above.

CTA画像と3D−DSA画像とはともに解剖学的画像であり、血管を共通して含んでいるので、血管を介して直接的に位置ずれを計算できる可能性はある。しかし、CTA画像は動脈の情報と静脈の情報とを有するのに対して、3D−DSA画像は動脈の情報しか有しない。この違いにより大きな誤差が発生する危険がある。そこで媒介画像を利用する。   Since the CTA image and the 3D-DSA image are both anatomical images and include blood vessels in common, there is a possibility that the positional deviation can be directly calculated via the blood vessels. However, a CTA image has arterial information and vein information, whereas a 3D-DSA image has only arterial information. There is a risk that a large error may occur due to this difference. Therefore, mediation images are used.

媒介画像としては、3D−DSA画像の原画像としてのマスク画像から派生した3Dマスク画像が選択される。3D−DSA画像と3Dマスク画像とは、原画像(マスク画像)を共通するので、当然にして位置ずれは原理的に存在しないで、完全に位置整合している。   As the intermediate image, a 3D mask image derived from a mask image as an original image of the 3D-DSA image is selected. Since the 3D-DSA image and the 3D mask image share the original image (mask image), naturally, there is no positional deviation in principle, and the position is perfectly aligned.

CTA画像と3Dマスク画像とに共通して含まれる部位として、ここでは特に骨が指定される。CTA画像に含まれる骨を閾値処理により抽出してその二値画像を生成する。CTA画像に由来する二値画像と、3Dマスク画像との間で位置ずれベクトルが計算される。   Here, a bone is particularly designated as a part that is commonly included in the CTA image and the 3D mask image. A bone included in the CTA image is extracted by threshold processing to generate a binary image. A displacement vector is calculated between the binary image derived from the CTA image and the 3D mask image.

この計算された位置ずれベクトルに従ってCTA画像と3D−DSA画像とを位置整合して結合し、結合画像を発生する。   According to the calculated displacement vector, the CTA image and the 3D-DSA image are aligned and combined to generate a combined image.

なお、CTA画像では動脈とともに静脈を含んでいる。一方、3D−DSA画像では動脈を含んでいるが、静脈は含んでいない。従って、動脈と静脈を区別することができる。画像処理部20において動脈と静脈を色等により区別して表示することができる。   Note that a CTA image includes a vein as well as an artery. On the other hand, the 3D-DSA image includes an artery but does not include a vein. Therefore, it is possible to distinguish between an artery and a vein. In the image processing unit 20, an artery and a vein can be distinguished and displayed by color or the like.

図7に示すように、一方の結合対象画像としてPET−CT装置5によるPET画像が指定される。PET画像は臓器の代謝機能等を表す機能的画像である。他方の結合対象画像として、MRI装置3により発生されたDWI、fMRI、パフュージョンMRI等の機能的画像が指定される。   As shown in FIG. 7, a PET image by the PET-CT apparatus 5 is designated as one image to be combined. A PET image is a functional image representing the metabolic function of an organ. A functional image such as DWI, fMRI, or perfusion MRI generated by the MRI apparatus 3 is designated as the other image to be combined.

PET画像に関係する媒介画像として、同じPET−CT装置5で同検査中に発生された解剖学的画像としてのCT画像が選択される。PET画像とCT画像は実質的に位置ずれは生じない。また、MRIの機能的画像に関係する媒介画像として、同じMRI装置3で同検査中に発生された解剖学的画像としてのT1強調画像が選択される。   A CT image as an anatomical image generated during the examination by the same PET-CT apparatus 5 is selected as a mediation image related to the PET image. The PET image and the CT image are not substantially misaligned. Further, a T1-weighted image as an anatomical image generated during the examination by the same MRI apparatus 3 is selected as a mediation image related to a functional image of MRI.

CT画像から、位置ずれ計算対象部位として指定された閾値処理により例えば脳実質を抽出してその二値画像を生成し、同様にT1強調画像から閾値処理により同じ脳実質を抽出してその二値画像を生成する。CT画像に由来する二値画像と、T1強調画像に由来する二値画像との間で位置ずれベクトルが計算される。   For example, the brain parenchyma is extracted from the CT image by threshold processing specified as a position shift calculation target portion to generate a binary image thereof, and similarly, the same brain parenchyma is extracted from the T1-weighted image by threshold processing to obtain the binary value. Generate an image. A displacement vector is calculated between the binary image derived from the CT image and the binary image derived from the T1 weighted image.

この位置ずれベクトルに従ってPET画像とMRIの機能的画像とを位置整合して結合し、結合画像を発生する。結合画像によると、PET画像による機能を、MRIによる機能とを位置整合して比較診断できるという常に有用な画像を得ることができる。   The PET image and the MRI functional image are combined in alignment with each other according to the position shift vector to generate a combined image. According to the combined image, it is possible to obtain an always useful image in which the function based on the PET image and the function based on the MRI can be compared and aligned.

図8に示すように、一方の結合対象画像としてPET−CT装置5によるPET画像が指定される。PET画像は臓器の代謝機能等を表す機能的画像である。他方の結合対象画像として、MRI装置3により発生されたDWI、fMRI、パフュージョンMRI等の機能的画像が指定される。   As shown in FIG. 8, a PET image by the PET-CT apparatus 5 is designated as one image to be combined. A PET image is a functional image representing the metabolic function of an organ. A functional image such as DWI, fMRI, or perfusion MRI generated by the MRI apparatus 3 is designated as the other image to be combined.

PET画像に関係する媒介画像として、同じPET−CT装置5で同検査中に発生された解剖学的画像としてのCTA画像が選択される。PET画像とCTA画像は実質的に位置ずれは生じない。また、MRIの機能的画像に関係する媒介画像として、同じMRI装置3で同検査中に発生された解剖学的画像としてのMRA画像が選択される。   A CTA image as an anatomical image generated during the examination by the same PET-CT apparatus 5 is selected as a mediation image related to the PET image. There is substantially no displacement between the PET image and the CTA image. In addition, an MRA image as an anatomical image generated during the examination by the same MRI apparatus 3 is selected as an intermediate image related to a functional image of MRI.

CTA画像から、位置ずれ計算対象部位として指定された閾値処理により血管を抽出してその二値画像を生成し、同様にMRA画像から閾値処理により同じ血管を抽出してその二値画像を生成する。CTA画像に由来する二値画像と、MRA画像に由来する二値画像との間で位置ずれベクトルが計算される。   From the CTA image, a blood vessel is extracted by threshold processing designated as a position shift calculation target part to generate the binary image, and similarly, the same blood vessel is extracted from the MRA image by threshold processing to generate the binary image. . A displacement vector is calculated between the binary image derived from the CTA image and the binary image derived from the MRA image.

この位置ずれベクトルに従ってPET画像とMRIの機能的画像とを位置整合して結合し、結合画像を発生する。結合画像によると、PET画像による機能を、MRIによる機能とを位置整合して比較診断できるという常に有用な画像を得ることができる。   The PET image and the MRI functional image are combined in alignment with each other according to the position shift vector to generate a combined image. According to the combined image, it is possible to obtain an always useful image in which the function based on the PET image and the function based on the MRI can be compared and aligned.

図9に示すように、一方の結合対象画像としてX線CT装置2による機能的画像としてのCTパフュージョン画像が指定される。他方の結合対象画像として、MRI装置3により発生されたDWI、fMRI、パフュージョンMRI等の機能的画像が指定される。   As shown in FIG. 9, a CT perfusion image as a functional image by the X-ray CT apparatus 2 is designated as one image to be combined. A functional image such as DWI, fMRI, or perfusion MRI generated by the MRI apparatus 3 is designated as the other image to be combined.

CTパフュージョン画像に関係する媒介画像として、CT装置2で同検査中に発生された解剖学的画像としてのCT画像が選択される。CTパフュージョン画像とCT画像は実質的に位置ずれは生じない。また、MRIの機能的画像に関係する媒介画像として、同じMRI装置3で同検査中に発生された解剖学的画像としてのT1強調画像が選択される。   A CT image as an anatomical image generated during the examination by the CT apparatus 2 is selected as a mediation image related to the CT perfusion image. The CT perfusion image and the CT image are not substantially misaligned. Further, a T1-weighted image as an anatomical image generated during the examination by the same MRI apparatus 3 is selected as a mediation image related to a functional image of MRI.

CT画像から、位置ずれ計算対象部位として指定された閾値処理により例えば脳実質を抽出してその二値画像を生成し、同様にT1強調画像から閾値処理により同じ脳実質を抽出してその二値画像を生成する。CT画像に由来する二値画像と、T1強調画像に由来する二値画像との間で位置ずれベクトルが計算される。   For example, the brain parenchyma is extracted from the CT image by threshold processing specified as a position shift calculation target portion to generate a binary image thereof, and similarly, the same brain parenchyma is extracted from the T1-weighted image by threshold processing to obtain the binary value. Generate an image. A displacement vector is calculated between the binary image derived from the CT image and the binary image derived from the T1 weighted image.

この位置ずれベクトルに従ってCTパフュージョン画像とMRIの機能的画像とを位置整合して結合し、結合画像を発生する。結合画像によると、CTパフュージョン画像による機能を、MRIによる機能とを位置整合して比較診断できるという常に有用な画像を得ることができる。   The CT perfusion image and the MRI functional image are aligned and combined in accordance with the position shift vector to generate a combined image. According to the combined image, it is possible to obtain an always useful image in which the function based on the CT perfusion image and the function based on the MRI can be compared and matched.

図10に示すように、一方の結合対象画像としてX線CT装置2による機能的画像としてのCTパフュージョン画像が指定される。他方の結合対象画像として、MRI装置3により発生されたDWI、fMRI、パフュージョンMRI等の機能的画像が指定される。   As shown in FIG. 10, a CT perfusion image as a functional image by the X-ray CT apparatus 2 is designated as one image to be combined. A functional image such as DWI, fMRI, or perfusion MRI generated by the MRI apparatus 3 is designated as the other image to be combined.

CTパフュージョン画像に関係する媒介画像として、CT装置2で同検査中に発生された解剖学的画像としてのCTA画像が選択される。CTパフュージョン画像とCTA画像は実質的に位置ずれは生じない。また、MRIの機能的画像に関係する媒介画像として、同じMRI装置3で同検査中に発生された解剖学的画像としてのMRA画像が選択される。   As a mediation image related to the CT perfusion image, a CTA image as an anatomical image generated during the examination by the CT apparatus 2 is selected. The CT perfusion image and the CTA image are not substantially misaligned. In addition, an MRA image as an anatomical image generated during the examination by the same MRI apparatus 3 is selected as an intermediate image related to a functional image of MRI.

CTA画像から、位置ずれ計算対象部位として指定された閾値処理により例えば血管を抽出してその二値画像を生成し、同様にMRA画像から閾値処理により同じ血管を抽出してその二値画像を生成する。CTA画像に由来する二値画像と、MRA画像に由来する二値画像との間で位置ずれベクトルが計算される。   From the CTA image, for example, a blood vessel is extracted by threshold processing designated as a position deviation calculation target portion to generate the binary image, and similarly, the same blood vessel is extracted from the MRA image by threshold processing to generate the binary image. To do. A displacement vector is calculated between the binary image derived from the CTA image and the binary image derived from the MRA image.

この位置ずれベクトルに従ってCTパフュージョン画像とMRIの機能的画像とを位置整合して結合し、結合画像を発生する。結合画像によると、CTパフュージョン画像による機能を、MRIによる機能とを位置整合して比較診断できるという常に有用な画像を得ることができる。   The CT perfusion image and the MRI functional image are aligned and combined in accordance with the position shift vector to generate a combined image. According to the combined image, it is possible to obtain an always useful image in which the function based on the CT perfusion image and the function based on the MRI can be compared and matched.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

1…3次元画像処理装置、2…CT装置、3…MRI装置、4…X線診断装置、5…PET−CT装置、6…画像保管装置、11…制御部、12…記憶部、13…ネットワークカード、14…入力デバイス、15…アフィン変換部、16…デジタル/アナログ変換部、17…表示部、18…位置ずれ計算部、19…画像結合部、20…画像処理部。   DESCRIPTION OF SYMBOLS 1 ... Three-dimensional image processing apparatus, 2 ... CT apparatus, 3 ... MRI apparatus, 4 ... X-ray diagnostic apparatus, 5 ... PET-CT apparatus, 6 ... Image storage apparatus, 11 ... Control part, 12 ... Memory | storage part, 13 ... Network card 14... Input device 15... Affine converter 16. Digital / analog converter 17. Display 18. Misalignment calculator 19.

Claims (7)

第1の3次元画像のデータと、前記第1の3次元画像と結合対象の第2の3次元画像のデータと、前記第1の3次元画像に関連性を有する第3の3次元画像のデータと、前記第2の3次元画像に関連性を有する第4の3次元画像のデータとを記憶する記憶部と、
前記第3の3次元画像と前記第4の3次元画像との間の位置ずれを計算する位置ずれ計算部と、
前記計算された位置ずれに基づいて、前記第1の3次元画像と前記第2の3次元画像とを位置合わせして結合する画像結合部とを具備することを特徴とする3次元画像処理装置。
Data of the first three-dimensional image, data of the second three-dimensional image to be combined with the first three-dimensional image, and a third three-dimensional image having relevance to the first three-dimensional image. A storage unit that stores data and data of a fourth three-dimensional image having relevance to the second three-dimensional image;
A displacement calculation unit for calculating a displacement between the third three-dimensional image and the fourth three-dimensional image;
A three-dimensional image processing apparatus comprising: an image combining unit that aligns and combines the first three-dimensional image and the second three-dimensional image based on the calculated displacement. .
同一の被検体に関する第1、第2、第3、第4の3次元画像のデータを記憶する記憶部と、
前記第1の3次元画像と前記第2の3次元画像との間の第1の位置ずれと、前記第2の3次元画像と前記第3の3次元画像との間の第2の位置ずれと、前記第3の3次元画像と前記第4の3次元画像との間の第3の位置ずれとを計算する位置ずれ計算部と、
前記計算された第1、第2、第3の位置ずれに基づいて、前記第1の3次元画像と前記第4の3次元画像とを位置合わせして結合する画像結合部とを具備することを特徴とする3次元画像処理装置。
A storage unit that stores data of first, second, third, and fourth three-dimensional images related to the same subject;
A first misalignment between the first three-dimensional image and the second three-dimensional image, and a second misalignment between the second three-dimensional image and the third three-dimensional image. And a misregistration calculation unit that calculates a third misregistration between the third three-dimensional image and the fourth three-dimensional image;
An image combining unit that aligns and combines the first three-dimensional image and the fourth three-dimensional image based on the calculated first, second, and third positional shifts; A three-dimensional image processing apparatus.
前記第3の3次元画像は前記第2の3次元画像と同じ原画像から派生されることを特徴とする請求項1記載の3次元画像処理装置。 The three-dimensional image processing apparatus according to claim 1, wherein the third three-dimensional image is derived from the same original image as the second three-dimensional image. 前記第1の3次元画像はX線コンピュータ断層撮影装置により発生され、前記第2、第3の3次元画像はX線診断装置により発生されることを特徴とする請求項1記載の3次元画像処理装置。 2. The three-dimensional image according to claim 1, wherein the first three-dimensional image is generated by an X-ray computed tomography apparatus, and the second and third three-dimensional images are generated by an X-ray diagnostic apparatus. Processing equipment. 前記第1の3次元画像はCT画像又はCTアンギオ画像であり、前記第2の3次元画像は3D−DSA画像であり、前記第3の3次元画像は3Dマスク画像であることを特徴とする請求項1記載の3次元画像処理装置。 The first three-dimensional image is a CT image or a CT angio image, the second three-dimensional image is a 3D-DSA image, and the third three-dimensional image is a 3D mask image. The three-dimensional image processing apparatus according to claim 1. 前記第1、第2、第3の3次元画像を含む複数の3次元画像のデータを保管する保管部と、
前記複数の3次元画像から、前記第2の3次元画像の検査情報に基づいて、前記第3の3次元画像に関する複数の候補画像を抽出する候補抽出部と、
前記抽出された複数の候補画像を一覧で表示する表示部とをさらに備えることを特徴とする請求項1記載の3次元画像処理装置。
A storage unit for storing data of a plurality of three-dimensional images including the first, second, and third three-dimensional images;
A candidate extraction unit that extracts a plurality of candidate images related to the third three-dimensional image from the plurality of three-dimensional images based on inspection information of the second three-dimensional image;
The three-dimensional image processing apparatus according to claim 1, further comprising a display unit that displays the extracted plurality of candidate images in a list.
前記第1の3次元画像はPET−CT装置により発生されるPET画像又はCT画像であり、前記第3の3次元画像は前記PET−CT装置により発生されるCT画像又はPET画像であることを特徴とする請求項2記載の3次元画像処理装置。 The first three-dimensional image is a PET image or CT image generated by a PET-CT apparatus, and the third three-dimensional image is a CT image or PET image generated by the PET-CT apparatus. The three-dimensional image processing apparatus according to claim 2, wherein:
JP2011233390A 2011-10-24 2011-10-24 3D image processing apparatus, 3D image processing method, storage medium, and program Active JP5232286B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011233390A JP5232286B2 (en) 2011-10-24 2011-10-24 3D image processing apparatus, 3D image processing method, storage medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011233390A JP5232286B2 (en) 2011-10-24 2011-10-24 3D image processing apparatus, 3D image processing method, storage medium, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006340202A Division JP5060117B2 (en) 2006-12-18 2006-12-18 3D image processing apparatus, 3D image processing method, storage medium, and program

Publications (2)

Publication Number Publication Date
JP2012050844A true JP2012050844A (en) 2012-03-15
JP5232286B2 JP5232286B2 (en) 2013-07-10

Family

ID=45904869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011233390A Active JP5232286B2 (en) 2011-10-24 2011-10-24 3D image processing apparatus, 3D image processing method, storage medium, and program

Country Status (1)

Country Link
JP (1) JP5232286B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014046267A1 (en) * 2012-09-20 2014-03-27 株式会社東芝 Image processing system, x-ray diagnostic device, and image processing method
JP6286606B1 (en) * 2017-09-14 2018-02-28 日本メジフィジックス株式会社 Image processing program, image processing apparatus, and image processing method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6526428B2 (en) 2015-01-27 2019-06-05 キヤノンメディカルシステムズ株式会社 Medical image processing apparatus, medical image processing method and medical image diagnostic apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000040145A (en) * 1998-07-23 2000-02-08 Godai Kk Image processor, image processing method and storage medium stored with image processing program
JP2006198060A (en) * 2005-01-19 2006-08-03 Ziosoft Inc Image processing method and image processing program
WO2006103644A1 (en) * 2005-03-31 2006-10-05 Paieon Inc. Method and apparatus for positioning a device in a tubular organ

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000040145A (en) * 1998-07-23 2000-02-08 Godai Kk Image processor, image processing method and storage medium stored with image processing program
JP2006198060A (en) * 2005-01-19 2006-08-03 Ziosoft Inc Image processing method and image processing program
WO2006103644A1 (en) * 2005-03-31 2006-10-05 Paieon Inc. Method and apparatus for positioning a device in a tubular organ

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014046267A1 (en) * 2012-09-20 2014-03-27 株式会社東芝 Image processing system, x-ray diagnostic device, and image processing method
CN103826539A (en) * 2012-09-20 2014-05-28 株式会社东芝 Image processing system, X-ray diagnostic device, and image processing method
US9747689B2 (en) 2012-09-20 2017-08-29 Toshiba Medical Systems Corporation Image processing system, X-ray diagnostic apparatus, and image processing method
JP6286606B1 (en) * 2017-09-14 2018-02-28 日本メジフィジックス株式会社 Image processing program, image processing apparatus, and image processing method
JP2019052930A (en) * 2017-09-14 2019-04-04 日本メジフィジックス株式会社 Image processing program, image processing device and image processing method

Also Published As

Publication number Publication date
JP5232286B2 (en) 2013-07-10

Similar Documents

Publication Publication Date Title
JP5060117B2 (en) 3D image processing apparatus, 3D image processing method, storage medium, and program
CN111161326B (en) System and method for unsupervised deep learning of deformable image registration
Alam et al. Medical image registration in image guided surgery: Issues, challenges and research opportunities
JP4490442B2 (en) Method and system for affine superposition of an intraoperative 2D image and a preoperative 3D image
EP1719078B1 (en) Device and process for multimodal registration of images
JP6448972B2 (en) Medical image processing apparatus and medical image processing method
US7467007B2 (en) Respiratory gated image fusion of computed tomography 3D images and live fluoroscopy images
Song et al. Locally rigid, vessel-based registration for laparoscopic liver surgery
US8559686B2 (en) Medical image data alignment apparatus, method and program
US9173626B2 (en) Method for performing dynamic registration, overlays, and 3D views with fluoroscopic images
Linte et al. Virtual and augmented medical imaging environments: Enabling technology for minimally invasive cardiac interventional guidance
US8068665B2 (en) 3D-image processing apparatus, 3D-image processing method, storage medium, and program
US20120287131A1 (en) Image processing apparatus and image registration method
Ivashchenko et al. CBCT‐based navigation system for open liver surgery: Accurate guidance toward mobile and deformable targets with a semi‐rigid organ approximation and electromagnetic tracking of the liver
JP4991181B2 (en) 3D image processing apparatus, 3D image processing method, and control program used in 3D image processing apparatus
JP5232286B2 (en) 3D image processing apparatus, 3D image processing method, storage medium, and program
Groher et al. Planning and intraoperative visualization of liver catheterizations: new CTA protocol and 2D-3D registration method
Bucki et al. Doppler ultrasound driven biomechanical model of the brain for intraoperative brain-shift compensation: a proof of concept in clinical conditions
JP6876200B2 (en) Alignment of static preoperative planning data with respect to dynamic intraoperative segmentation data
JP5750381B2 (en) Region extraction processing system
JP2016104121A (en) Medical image processing apparatus and medical image processing method
Reinertsen et al. The essential role of open data and software for the future of ultrasound-based neuronavigation
Li et al. Generation of synthetic 4D cardiac CT images for guidance of minimally invasive beating heart interventions
JP6068032B2 (en) Medical image processing device
Li et al. Generation of synthetic 4D cardiac CT images by deformation from cardiac ultrasound

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130322

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160329

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5232286

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350