JP2012050844A - Three-dimensional image processor, three-dimensional image processing method, storage medium, and program - Google Patents
Three-dimensional image processor, three-dimensional image processing method, storage medium, and program Download PDFInfo
- Publication number
- JP2012050844A JP2012050844A JP2011233390A JP2011233390A JP2012050844A JP 2012050844 A JP2012050844 A JP 2012050844A JP 2011233390 A JP2011233390 A JP 2011233390A JP 2011233390 A JP2011233390 A JP 2011233390A JP 2012050844 A JP2012050844 A JP 2012050844A
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional image
- dimensional
- combined
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title description 2
- 238000006073 displacement reaction Methods 0.000 claims abstract description 23
- 238000012545 processing Methods 0.000 claims description 42
- 238000002591 computed tomography Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims 1
- 238000007689 inspection Methods 0.000 claims 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 41
- 239000013598 vector Substances 0.000 description 31
- 238000000034 method Methods 0.000 description 21
- 210000004204 blood vessel Anatomy 0.000 description 19
- 210000000988 bone and bone Anatomy 0.000 description 18
- 230000010412 perfusion Effects 0.000 description 17
- 210000004556 brain Anatomy 0.000 description 16
- 230000006870 function Effects 0.000 description 16
- 230000008569 process Effects 0.000 description 11
- 230000000877 morphologic effect Effects 0.000 description 8
- 238000002597 diffusion-weighted imaging Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 7
- 238000002599 functional magnetic resonance imaging Methods 0.000 description 6
- 210000004872 soft tissue Anatomy 0.000 description 6
- 210000003462 vein Anatomy 0.000 description 5
- 210000001367 artery Anatomy 0.000 description 4
- 239000002872 contrast media Substances 0.000 description 4
- 239000003550 marker Substances 0.000 description 4
- 210000000056 organ Anatomy 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 239000008280 blood Substances 0.000 description 3
- 210000004369 blood Anatomy 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 230000007102 metabolic function Effects 0.000 description 2
- 210000001154 skull base Anatomy 0.000 description 2
- 210000001519 tissue Anatomy 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 210000000577 adipose tissue Anatomy 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000007177 brain activity Effects 0.000 description 1
- 210000001175 cerebrospinal fluid Anatomy 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 210000001951 dura mater Anatomy 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000010253 intravenous injection Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Measurement Of Radiation (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Nuclear Medicine (AREA)
Abstract
Description
本発明は、被検体に関する3次元画像を結合する3次元画像処理装置、3次元画像処理方法、記憶媒体及びプログラムに関する。 The present invention relates to a three-dimensional image processing apparatus, a three-dimensional image processing method, a storage medium, and a program for combining three-dimensional images related to a subject.
同一被検体に関する異種画像の結合(fusion)は、診断精度の向上に有効である。例えば、X線コンピュータ断層撮影装置(X-ray Computed Tomography apparatus)により発生された骨又は臓器などの解剖学的画像(形態画像)と、MRI装置(Magnetic Resonance Imaging apparatus)により発生された機能的画像との結合画像は、外科手術支援に有用である。 The fusion of different images related to the same subject is effective in improving the diagnostic accuracy. For example, anatomical images (morphological images) of bones or organs generated by an X-ray computed tomography apparatus and functional images generated by an MRI apparatus (Magnetic Resonance Imaging apparatus) The combined image is useful for surgical support.
異種の画像を結合するには、位置合わせ(registration)が困難である。一般的に、位置合わせは、手作業に頼っている。 Registration is difficult to combine dissimilar images. In general, alignment relies on manual work.
特許文献1は、予め被検体にマーカーを取り付けて画像を発生し、マーカー像の整合により画像を結合する方法を記載している。この方法は、結合対象画像が、マーカーが映っていない画像に限定されるという制約がある。 Patent Document 1 describes a method in which a marker is attached to a subject in advance to generate an image, and the images are combined by matching the marker images. This method has a restriction that the image to be combined is limited to an image in which no marker is shown.
本発明の目的は、画像結合の位置合わせ作業負担の軽減、画像結合の位置合わせ精度の向上、画像結合対象の拡大の実現にある。 An object of the present invention is to reduce the alignment work burden of image combination, improve the alignment accuracy of image combination, and realize enlargement of an image combination target.
本実施形態に係る3次元画像処理装置は、3次元画像処理装置は、第1の3次元画像のデータと第1の3次元画像と結合対象の第2の3次元画像のデータと第1の3次元画像に関連性を有する第3の3次元画像のデータと第2の3次元画像に関連性を有する第4の3次元画像のデータとを記憶する記憶部12と、第3、4の3次元画像との間の位置ずれを計算する位置ずれ計算部18と、計算された位置ずれに基づいて第1、第2の3次元画像とを位置合わせして結合する画像結合部19とを具備する。
The three-dimensional image processing apparatus according to the present embodiment is the same as the first three-dimensional image data, the first three-dimensional image, the second three-dimensional image data to be combined, and the first three-dimensional image data. A
以下、図面を参照して本発明の実施形態について説明する。
図1は、本実施形態に係る3次元画像処理装置の構成を示している。3次元画像処理装置1は、ネットワークカード13を介して、電子的通信回線網、つまりLAN又はWAN等のネットワーク21に接続される。ネットワーク21には、X線コンピュータ断層撮影装置(X線CT装置)2、磁気共鳴イメージング装置(MRI)3、X線診断装置4、PET−CT装置5、その他超音波診断装置等の2次元又は3次元の画像データを発生可能な医用画像発生装置が接続される。また、ネットワーク21には、それら医用画像発生装置で発生された各種の画像のデータを保管する画像保管装置6が接続される。画像保管装置6は、典型的には医用画像保管通信システム(PACS)である。PET−CT装置5は、PET(Positron Emission computed Tomography)装置とX線CT装置とが一体に組み合わされた、寝台を共用する装置であり、PET画像とCT画像との位置整合を容易に図ることができる特性を有している。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 shows a configuration of a three-dimensional image processing apparatus according to this embodiment. The three-dimensional image processing apparatus 1 is connected to an electronic communication network, that is, a
3次元画像処理装置1は、マイクロコンピュータからなる制御部11と、記憶部12と、ネットワークカード13と、キーボードやマウスからなる入力デバイス14と、画像データに対して拡大・移動等の処理を行うアフィン変換部15と、D/A(デジタル/アナログ)変換部16と、表示部17と、位置ずれ計算部18と、画像結合部19と、画像処理部20を備えている。D/A変換部16には表示部17が接続される。なお、3次元画像処理装置1は、制御部11等とともに、画像保管装置6を備えても良い。
The three-dimensional image processing apparatus 1 performs processing such as enlargement / movement on image data, a control unit 11 formed of a microcomputer, a
記憶部12は、X線CT装置2等の医用画像発生装置から直接的に、又は画像保管装置6からネットワークカード13を介して供給された結合対象とされる複数の3次元の画像(結合対象画像という)のデータと、結合対象画像の間の位置合わせ(registration)を媒介するための少なくとも1つの3次元の画像(媒介画像という)のデータとを記憶する。なお、複数の3次元画像を結合するものであっても良いし、2つ(一対)の3次元画像を結合するものであっても良い。ここでは、2つ(一対)の3次元画像を結合するものとして説明する。
The
画像処理部20は、位置ずれ計算の前処理としての例えば画像データの二値化処理、画像結合の後処理としての例えばカラー処理を担う。位置ずれ計算部18は、結合対象画像間の位置ずれベクトルを、結合対象画像間に媒介画像を媒介させることにより、計算する。位置ずれベクトルは、XYZ各軸に関する移動距離と、XYZ各軸に関する回転角度とにより規定される。画像結合部19は、位置ずれ計算部18により計算された位置ずれベクトルに基づいて、2つの結合対象画像を位置合わせして結合し、単一の結合画像を発生する。
The
図2には位置ずれ計算及び画像結合の処理手順を示している。まず、操作者は入力デバイス14を介して画像結合処理の起動を指示する。それにより制御部11は、画像結合処理を起動する(S11)。操作者は入力デバイス14を介して画像結合処理の対象となる複数、ここでは2つの結合対象画像を指定する。典型的には、診断対象の被検体に関する未読影の画像であって、診断目的に合致した性質を有する画像が指定される。それにより制御部11は、指定された2つの結合対象画像のデータを画像保管装置6から選択的に読み出し、記憶部12に記憶させる(S12)。
FIG. 2 shows a processing procedure for positional deviation calculation and image combination. First, the operator instructs activation of the image combining process via the
次に、制御部11は、結合対象画像各々に対して特定の関係にある2つの画像(媒介画像の候補)を画像保管装置6で検索し、画像保管装置6から選択的に読み出させて、表示部17に一覧で表示させる(S13)。結合対象画像と被検体が同一であって、医用画像発生装置の種類(モダリティ)が同一で、同じ検査期間中に発生(撮影)された画像が媒介画像の候補として検索される。さらに結合対象画像と同じ原画像から派生した画像が媒介画像の候補として検索される。例えば回転DSA(ディジタル・サブトラクション・アンギオ)撮影において収集された造影前のマスク画像と造影後のコントラスト画像とを原画像として、マスク画像とコントラスト画像との差分画像から再構成した3次元の血管画像が結合対象画像として指定されたとき、同じマスク画像から骨を抽出して再構成した3次元のマスク画像(3Dマスク画像)が媒介画像の候補として選択される。 Next, the control unit 11 searches the image storage device 6 for two images (mediate image candidates) that have a specific relationship with each of the images to be combined, and selectively reads them from the image storage device 6. The list is displayed on the display unit 17 (S13). An image generated (captured) during the same examination period is searched as a candidate for an intermediate image, with the same image to be combined and the subject, the same type (modality) of the medical image generation apparatus. Further, an image derived from the same original image as the image to be combined is retrieved as a candidate for the intermediate image. For example, a three-dimensional blood vessel image reconstructed from a difference image between a mask image and a contrast image, using a pre-contrast mask image and a contrast image after contrast acquired in rotating DSA (digital subtraction angio) imaging as an original image Is designated as a combining target image, a three-dimensional mask image (3D mask image) obtained by extracting and reconstructing a bone from the same mask image is selected as a candidate for a mediation image.
このように結合対象画像と特定の関係にある媒介画像の候補はそのいずれもが、結合対象画像に対して位置ずれが無い、ほとんど無い、又は医用画像発生装置が撮影時に取得している天板位置等の撮影位置情報から簡易に位置ずれを解消できる関係にある画像と定義され得る。 As described above, any of the mediator image candidates having a specific relationship with the image to be combined has no positional deviation with respect to the image to be combined, almost none, or the top plate acquired by the medical image generation apparatus at the time of photographing. It can be defined as an image having a relationship in which the positional deviation can be easily eliminated from the photographing position information such as the position.
2つの結合対象画像として例えば解剖学的画像(形態画像)と機能的画像との間では共通部位がないので本質的に位置ずれを求めることができない、又は位置ずれの計算精度が低いが、その場合であっても、結合対象画像と位置ずれの無い解剖学的画像としての媒介画像を媒介させて結合対象画像間の位置ずれを推定することができる。つまり、一方の結合対象画像と位置ずれの無い又は簡易に解消できる媒介画像と、その結合対象画像と結合される他方の結合対象画像との間の位置ずれを求め、その位置ずれに従って結合対象画像の間の位置ずれを実質的に解消することができる。または、一方の結合対象画像と位置ずれの無い又は簡易に解消できる媒介画像と、他方の結合対象画像と位置ずれの無い又は簡易に解消できる媒介画像との間の位置ずれを求め、その位置ずれに従って結合対象画像の間の位置ずれを実質的に解消することができる。 For example, since there is no common part between the anatomical image (morphological image) and the functional image as the two images to be combined, the positional deviation cannot be obtained essentially or the calculation accuracy of the positional deviation is low. Even in this case, it is possible to estimate the positional deviation between the images to be combined by using the intermediate image as the anatomical image having no positional deviation with the image to be combined. In other words, a position shift between the intermediate image that is free of displacement or can be easily eliminated from one combining target image and the other combining target image combined with the combining target image is obtained, and the combining target image is determined according to the position shift. Can be substantially eliminated. Alternatively, a positional deviation between one of the images to be combined that is not misaligned or that can be easily eliminated and the other image that is not misaligned or that can be easily eliminated is obtained. Accordingly, the positional deviation between the images to be combined can be substantially eliminated.
一覧表示された媒介画像の候補から操作者は入力デバイス14を介して所望の画像を媒介画像として指定する。それにより制御部11は、指定された媒介画像のデータを画像保管装置6から選択的に読み出し、記憶部12に記憶させる(S14)。なお、複数の結合対象画像各々に対して一つの媒介画像を指定しても良いし、複数の結合対象画像の一部又はいずれか一つに対して一つの媒介画像を指定しても良い。
The operator designates a desired image as the intermediate image via the
媒介画像の指定とともに操作者は、結合対象画像に対する媒介画像の関係として、どの結合対象画像に対してどの媒介画像が対応しているのか、対応している結合対象画像と媒介画像とは位置ずれが無い又はほとんど無いのか否か、対応している結合対象画像と媒介画像とは装置情報から位置ずれ解消できるのか否か、結合対象画像間の位置ずれをどの画像とどの画像(結合対象画像と媒介画像、媒介画像どうし)の間の位置ずれから推定するのか等を指定する。それにより制御部11は当該関係を設定し、位置ずれ処理の対象及び処理手順を設定することができる(S15)。 In addition to specifying the intermediate image, the operator determines which intermediate image corresponds to which image to be combined as the relationship of the intermediate image to the image to be combined. Whether or not the corresponding image to be combined and the intermediate image can be eliminated from the device information, and which image and which image (the image to be combined) Specifies whether to estimate from the positional deviation between the intermediate image and the intermediate image). Thereby, the control part 11 can set the said relationship, and can set the object and process sequence of a position shift process (S15).
次に、操作者により入力デバイス14を介して、位置ずれベクトル計算処理の対象部位を例えば脳実質、血管、骨等の領域抽出処理の比較的容易な複数の候補の中から指定すると(S16)、画像処理部20により、指定された部位の領域が、それぞれのモダリティ及び部位に応じて予め決められている閾値によりS15で指定された位置ずれ計算処理の対象とされる結合対象画像、媒介画像から抽出され、二値化される(S17)。このように位置ずれベクトル計算処理を任意の部位に限局し、さらに二値化により画素値を規格化することで、位置ずれベクトル計算処理工数を減少させることができ、それとともに位置ずれベクトル計算精度を向上することができる。
Next, when the operator designates the target part of the positional deviation vector calculation process from among a plurality of candidates that are relatively easy to extract areas such as brain parenchyma, blood vessels, and bones, for example, via the input device 14 (S16). The region of the designated part by the
なお、脳実質を抽出する方法は骨を抽出する方法よりも難易度が高い。以下にその処理について簡単に説明する。画像A1から脳実質を抽出するための処理では、第1に骨外し処理を行う。骨外しは、CTでは公知の技術である。具体的には骨の位置をCT値で同定し、骨とその外側に位置する軟組織を除去する。第2にマニュアルで頭蓋底部より下部を切り取ることにより脳実質部のみを抽出する。画像B1から脳実質を抽出するための処理では、第1にマニュアルで頭蓋底部より下部を切り取る。そして第2に脳実質を指定してリージョングローイング法で脳実質部(含む硬膜)だけを抽出する。このようにして抽出された3次元画像それぞれに対し、高周波強調フィルターをかけた結果と、さらにボクセル値によって決まる確率関数をかけることにより、B2とA2とを作成する。A2の場合は以下のように算出される。 Note that the method of extracting brain parenchyma is more difficult than the method of extracting bone. The process will be briefly described below. In the process for extracting the brain parenchyma from the image A1, a bone removal process is first performed. Bone removal is a known technique in CT. Specifically, the position of the bone is identified by the CT value, and the bone and the soft tissue located outside the bone are removed. Secondly, only the brain parenchyma is extracted by manually cutting the bottom of the skull base. In the process for extracting the brain parenchyma from the image B1, first, the lower part from the skull base is manually cut out. Second, the brain parenchyma is designated and only the brain parenchyma (including the dura mater) is extracted by the region growing method. B2 and A2 are created by applying the result of applying the high-frequency enhancement filter to each of the three-dimensional images extracted in this manner and a probability function determined by the voxel value. In the case of A2, it is calculated as follows.
A2(x,y,z)={Ae(x,y,z)*H(x,y,z)}×P{Ae(x,y,z)}
ここでAe(x,y,z)は脳実質部をマニュアルでラフに抽出したデータ、H(x,y,z)は高周波強調フィルター、*はコンボリューション演算子を示す。またP()は確率関数を示し、任意のCT値に対する脳実質である確率を表す。例えばCT値が-1000や1000であれば確率関数は0と、CT値が10〜20くらいであれば脳実質レベルなので確率関数は1、その周辺のCT値であれば脳実質に近いので確率関数は1に近い値をとり、その周辺から離れるに従って急激に確率関数は0に近づく。
A 2 (x, y, z) = {A e (x, y, z) * H (x, y, z)} × P {A e (x, y, z)}
Here, Ae (x, y, z) is data obtained by roughly extracting the brain parenchyma manually, H (x, y, z) is a high-frequency enhancement filter, and * is a convolution operator. P () represents a probability function and represents the probability of being a brain parenchyma with respect to an arbitrary CT value. For example, if the CT value is -1000 or 1000, the probability function is 0, and if the CT value is about 10-20, the probability function is 1 because the CT function is near the brain parenchyma. The function takes a value close to 1, and the probability function suddenly approaches 0 as it moves away from its periphery.
次に、二値化された結合対象画像と媒介画像との間の位置ベクトル、又は二値化された媒介画像と媒介画像との間の位置ずれベクトルが、位置ずれ計算部18により計算される(S18)。例えば、二値化された結合対象画像と媒介画像との間、又は二値化された媒介画像と媒介画像との間で相互相関演算を行ってその相関値が最小となる位置ずれベクトルを探索する。簡易には画像を差分し、差分値の二乗和を計算し、それを平行移動量及び回転角を変えながら繰り返し、二乗和が最小となるXYZ各軸に関する平行移動量(x1,y1,z1)と、XYZ各軸まわりの回転角(△θx1,△θy1,△θz1)とを位置ずれベクトルとしては決定する。
Next, a positional deviation vector between the binarized image to be combined and the intermediate image or a positional deviation vector between the binarized intermediate image and the intermediate image is calculated by the
画像結合部19において、計算された位置ずれベクトルに従って2つの結合対象画像の位置が整合され、結合され、それにより単一の結合画像が発生される(S19)。
In the
以上の位置ずれ計算及び画像結合処理について具体例を以下説明する。
図3に示すように、一方の結合対象画像として例えばCT画像が指定される。CT画像はX線コンピュータ断層撮影装置により発生された軟部組織、脂肪組織、血管(血液)、骨等の形態を表す解剖学的画像(形態画像)である。他方の結合対象画像として、例えばMRI装置により発生された髄液等の流れの様子を画像化した拡散強調画像、いわゆるDWI(Diffusion Weighted Imaging)、脳の活性程度を画像化したfMRI(functional MRI)、組織灌流画像、いわゆるパフュージョンMRI(Perfusion MRI)等の機能的画像が指定される。一方の結合対象画像としてのCT画像と、他方の結合対象画像としてのMRIの機能的画像とは例えば別の検査期間に発生され、しかも異なるモダリティによるものであるので位置ずれが生じている。その位置ずれは、両画像間でマーカーに代替えされ得るような共通する特徴的部位が存在しないので、相互比較で直接的には特定することはできない。そこで媒介画像が必要とされる。
A specific example of the above misregistration calculation and image combination processing will be described below.
As shown in FIG. 3, for example, a CT image is designated as one image to be combined. The CT image is an anatomical image (morphological image) representing the morphology of soft tissue, adipose tissue, blood vessels (blood), bones and the like generated by an X-ray computed tomography apparatus. For example, a diffusion weighted image obtained by imaging the flow of cerebrospinal fluid generated by an MRI apparatus, for example, so-called DWI (Diffusion Weighted Imaging), and fMRI (functional MRI) obtained by imaging the degree of brain activity. A functional image such as a tissue perfusion image, so-called perfusion MRI (Perfusion MRI) is designated. The CT image as one image to be combined and the functional image of MRI as the other image to be combined are generated, for example, in different examination periods, and because of different modalities, misalignment occurs. The misregistration cannot be directly identified by mutual comparison because there is no common characteristic site that can be replaced by a marker between both images. Therefore, an intermediate image is required.
MRIによる他の結合対象画像に対してその属性情報に基づいて媒介画像の候補が画像保管装置6で検索される。その媒介画像の候補の一覧から、例えば組織の縦緩和時間T1の相違を画像化した解剖学的画像としてのT1強調画像が選択される。 The image storage device 6 searches for the candidate of the intermediate image based on the attribute information of other images to be combined by MRI. From the list of candidates for the vector image, for example, a T1-weighted image as an anatomical image obtained by imaging the difference in the longitudinal relaxation time T1 of the tissue is selected.
この媒介画像としてのT1強調画像は、他方の結合対象画像としてのDWI等のMRI機能的画像に対して、同一被検体を同一のMRI装置により発生されたものであり、しかも単一の検査期間中に被検体が天板に載置された状態のまま連続的に発生された関係にある。従って、被検体の体動を原因とする以外の位置ずれは天板の位置等の情報から簡易に解消することができる。 The T1-weighted image as the intermediate image is the same subject generated by the same MRI apparatus with respect to the MRI functional image such as DWI as the other image to be combined, and has a single examination period. There is a relationship in which the subject is continuously generated while being placed on the top. Therefore, a positional shift other than that caused by the body movement of the subject can be easily eliminated from information such as the position of the top board.
CT画像から、位置ずれ計算対象部位として指定された閾値処理により例えば脳実質を抽出してその二値画像を生成し、同様にT1強調画像から閾値処理により同じ脳実質を抽出してその二値画像を生成する。CT画像に由来する二値画像と、T1強調画像に由来する二値画像との間で位置ずれベクトルが計算される。上述したように、CT画像に由来する二値画像と、T1強調画像に由来する二値画像との間で差分し、差分値の二乗和を計算し、それを平行移動量及び回転角を変えながら繰り返し、二乗和が最小となるXYZ各軸に関する平行移動量(x1,y1,z1)と、XYZ各軸まわりの回転角(△θx1,△θy1,△θz1)とを位置ずれベクトルとして決定する。 For example, the brain parenchyma is extracted from the CT image by threshold processing specified as a position shift calculation target portion to generate a binary image thereof, and similarly, the same brain parenchyma is extracted from the T1-weighted image by threshold processing to obtain the binary value. Generate an image. A displacement vector is calculated between the binary image derived from the CT image and the binary image derived from the T1 weighted image. As described above, the difference between the binary image derived from the CT image and the binary image derived from the T1-weighted image is calculated, the square sum of the difference values is calculated, and the translation amount and the rotation angle are changed. However, the amount of translation (x1, y1, z1) about each XYZ axis and the rotation angle (Δθx1, Δθy1, Δθz1) about each XYZ axis is determined as a positional deviation vector repeatedly. .
この位置ずれベクトルに従ってCT画像とMRIの機能的画像とを位置整合して結合し、結合画像を発生する。結合画像によると、例えばMRIの機能的画像により把握できる機能低下部位を、CTによる骨、臓器、腫瘍のような形態画像上で位置確認すること等の非常に有用な画像を得ることができる。 The CT image and the MRI functional image are aligned and combined in accordance with the displacement vector to generate a combined image. According to the combined image, it is possible to obtain a very useful image such as confirming the position of a function-reduced portion that can be grasped by, for example, an MRI functional image on a morphological image such as a bone, organ, or tumor by CT.
図4に示すように、一方の結合対象画像として例えばCTA画像が指定される。CTA画像は、造影剤の静脈注入にタイミングを合わせてX線コンピュータ断層撮影装置によりヘリカルスキャンして収集された投影データから再構成された軟部組織や骨等とともに造影剤により強調された血管(血液)とを含む解剖学的画像(形態画像)である。 As shown in FIG. 4, for example, a CTA image is designated as one image to be combined. A CTA image is a blood vessel (blood) emphasized by a contrast medium together with soft tissue and bone reconstructed from projection data acquired by helical scanning by an X-ray computed tomography apparatus in time with the intravenous injection of the contrast medium. ) An anatomical image (morphological image).
他方の結合対象画像として、例えばMRI装置により発生されたT2*強調画像等の機能的画像が指定される。図3の例と同様に、一方の結合対象画像としてのCTA画像と、他方の結合対象画像としてのMRIの機能的画像とは位置ずれが生じているとともに、その位置ずれ計算には媒介画像が必要とされる。 For example, a functional image such as a T2 * emphasized image generated by the MRI apparatus is designated as the other image to be combined. Similar to the example of FIG. 3, the CTA image as one image to be combined and the MRI functional image as the other image to be combined are misaligned. Needed.
このT2*強調画像に対して位置ずれの無い等の関連する媒介画像としてMRA画像が選択される。MRA画像は、造影剤を使った撮影法、タイムオブフライト(TOF)法やフェイズコントラスト(Phase Contrast)法等のフローシーケンスにより取得可能な血管強調された解剖学的画像である。この媒介画像としてのMRA画像は、他方の結合対象画像としてのT2*強調画像に対して実質的に位置ずれは無い。 An MRA image is selected as a related intermediate image such as no misalignment with respect to the T2 * emphasized image. The MRA image is a blood vessel-enhanced anatomical image that can be acquired by a flow sequence such as an imaging method using a contrast agent, a time-of-flight (TOF) method, or a phase contrast method. The MRA image as the intermediate image has substantially no displacement with respect to the T2 * emphasized image as the other image to be combined.
CTA画像から閾値処理により血管を抽出してその二値画像を生成し、同様にMRA画像から閾値処理により同じ血管を抽出してその二値画像を生成する。CTA画像に由来する二値画像と、MRA画像に由来する二値画像との間で位置ずれベクトルが計算される。 A blood vessel is extracted from the CTA image by threshold processing to generate a binary image, and similarly, the same blood vessel is extracted from the MRA image by threshold processing to generate the binary image. A displacement vector is calculated between the binary image derived from the CTA image and the binary image derived from the MRA image.
この計算された位置ずれベクトルに従ってCTA画像とMRIのT2*強調画像とを位置整合して結合し、結合画像を発生する。 According to the calculated displacement vector, the CTA image and the MRI T2 * weighted image are combined in position alignment to generate a combined image.
図5に示すように、一方の結合対象画像として例えばCT画像が指定される。CT画像は上述したように解剖学的画像(形態画像)である。他方の結合対象画像として、例えばX線診断装置により発生された3D−DSA画像が指定される。3D−DSA画像は、造影前に例えばCアームにより被検体周囲を回転しながら繰り返しX線画像(マスク画像)を撮影し、造影後にCアームにより被検体周囲を回転しながら繰り返しX線画像(コントラスト画像)を撮影し、角度を揃えてマスク画像とコントラスト画像とを差分することにより血管抽出画像を生成し、多方向の血管抽出画像からCT再構成と同様の手法で再構成することにより発生される。 As shown in FIG. 5, for example, a CT image is designated as one image to be combined. The CT image is an anatomical image (morphological image) as described above. For example, a 3D-DSA image generated by an X-ray diagnostic apparatus is designated as the other image to be combined. For 3D-DSA images, before imaging, for example, an X-ray image (mask image) is repeatedly taken while rotating around the subject by the C arm, and after imaging, the X-ray image (contrast is repeatedly rotated while rotating around the subject by the C arm. Image), a blood vessel extraction image is generated by differentiating the mask image and the contrast image with the same angle, and reconstructed from the multidirectional blood vessel extraction image in the same manner as CT reconstruction. The
CT画像と3D−DSA画像とはともに解剖学的画像であるが、CT画像は骨及び軟組織の情報を主に備え、3D−DSA画像は本質的に血管情報のみを備えているので、直接的に位置ずれを計算できない。そこで、媒介画像を利用して、CT画像と3D−DSA画像との間の位置ずれを計算する。 CT images and 3D-DSA images are both anatomical images, but CT images mainly contain bone and soft tissue information, and 3D-DSA images essentially contain only blood vessel information. Cannot calculate misalignment. Therefore, the positional deviation between the CT image and the 3D-DSA image is calculated using the intermediate image.
媒介画像としては、3D−DSA画像の原画像としてのマスク画像3次元画像処理により派生した3Dマスク画像が選択される。3D−DSA画像と3Dマスク画像とは、原画像(マスク画像)を共通するので、位置ずれは原理的に存在しないで、完全に位置整合している。 As the intermediary image, a 3D mask image derived by mask image 3D image processing as an original image of the 3D-DSA image is selected. Since the 3D-DSA image and the 3D mask image share the original image (mask image), there is no positional deviation in principle, and the position is completely aligned.
CT画像と3Dマスク画像とに共通して含まれる部位として、ここでは特に骨が指定される。CT画像から閾値処理により骨を抽出してその二値画像を生成する。CT画像に由来する二値画像と、3Dマスク画像との間で位置ずれベクトルが計算される。 Here, a bone is specifically designated as a part commonly included in the CT image and the 3D mask image. Bone is extracted from the CT image by threshold processing to generate a binary image. A displacement vector is calculated between the binary image derived from the CT image and the 3D mask image.
この計算された位置ずれベクトルに従ってCT画像と3D−DSA画像とを位置整合して結合し、結合画像を発生する。この結合により、CT画像の軟組織情報と、3D−DSA画像の精細な血管情報とを関連付けて診断することができる。 In accordance with the calculated displacement vector, the CT image and the 3D-DSA image are combined while being aligned to generate a combined image. By this combination, diagnosis can be made in association with the soft tissue information of the CT image and the fine blood vessel information of the 3D-DSA image.
図6に示すように、一方の結合対象画像としてCTA画像が指定される。CTA画像は上述したように軟部組織や骨等とともに造影剤により強調された血管(血液)とを含む解剖学的画像(形態画像)である。他方の結合対象画像として、3D−DSA画像が指定される。3D−DSA画像は、上述したように血管に関する解剖学的画像(形態画像)である。 As shown in FIG. 6, a CTA image is designated as one image to be combined. As described above, the CTA image is an anatomical image (morphological image) including soft tissues, bones, and the like and blood vessels (blood) emphasized by a contrast medium. A 3D-DSA image is designated as the other image to be combined. The 3D-DSA image is an anatomical image (morphological image) related to a blood vessel as described above.
CTA画像と3D−DSA画像とはともに解剖学的画像であり、血管を共通して含んでいるので、血管を介して直接的に位置ずれを計算できる可能性はある。しかし、CTA画像は動脈の情報と静脈の情報とを有するのに対して、3D−DSA画像は動脈の情報しか有しない。この違いにより大きな誤差が発生する危険がある。そこで媒介画像を利用する。 Since the CTA image and the 3D-DSA image are both anatomical images and include blood vessels in common, there is a possibility that the positional deviation can be directly calculated via the blood vessels. However, a CTA image has arterial information and vein information, whereas a 3D-DSA image has only arterial information. There is a risk that a large error may occur due to this difference. Therefore, mediation images are used.
媒介画像としては、3D−DSA画像の原画像としてのマスク画像から派生した3Dマスク画像が選択される。3D−DSA画像と3Dマスク画像とは、原画像(マスク画像)を共通するので、当然にして位置ずれは原理的に存在しないで、完全に位置整合している。 As the intermediate image, a 3D mask image derived from a mask image as an original image of the 3D-DSA image is selected. Since the 3D-DSA image and the 3D mask image share the original image (mask image), naturally, there is no positional deviation in principle, and the position is perfectly aligned.
CTA画像と3Dマスク画像とに共通して含まれる部位として、ここでは特に骨が指定される。CTA画像に含まれる骨を閾値処理により抽出してその二値画像を生成する。CTA画像に由来する二値画像と、3Dマスク画像との間で位置ずれベクトルが計算される。 Here, a bone is particularly designated as a part that is commonly included in the CTA image and the 3D mask image. A bone included in the CTA image is extracted by threshold processing to generate a binary image. A displacement vector is calculated between the binary image derived from the CTA image and the 3D mask image.
この計算された位置ずれベクトルに従ってCTA画像と3D−DSA画像とを位置整合して結合し、結合画像を発生する。 According to the calculated displacement vector, the CTA image and the 3D-DSA image are aligned and combined to generate a combined image.
なお、CTA画像では動脈とともに静脈を含んでいる。一方、3D−DSA画像では動脈を含んでいるが、静脈は含んでいない。従って、動脈と静脈を区別することができる。画像処理部20において動脈と静脈を色等により区別して表示することができる。
Note that a CTA image includes a vein as well as an artery. On the other hand, the 3D-DSA image includes an artery but does not include a vein. Therefore, it is possible to distinguish between an artery and a vein. In the
図7に示すように、一方の結合対象画像としてPET−CT装置5によるPET画像が指定される。PET画像は臓器の代謝機能等を表す機能的画像である。他方の結合対象画像として、MRI装置3により発生されたDWI、fMRI、パフュージョンMRI等の機能的画像が指定される。 As shown in FIG. 7, a PET image by the PET-CT apparatus 5 is designated as one image to be combined. A PET image is a functional image representing the metabolic function of an organ. A functional image such as DWI, fMRI, or perfusion MRI generated by the MRI apparatus 3 is designated as the other image to be combined.
PET画像に関係する媒介画像として、同じPET−CT装置5で同検査中に発生された解剖学的画像としてのCT画像が選択される。PET画像とCT画像は実質的に位置ずれは生じない。また、MRIの機能的画像に関係する媒介画像として、同じMRI装置3で同検査中に発生された解剖学的画像としてのT1強調画像が選択される。 A CT image as an anatomical image generated during the examination by the same PET-CT apparatus 5 is selected as a mediation image related to the PET image. The PET image and the CT image are not substantially misaligned. Further, a T1-weighted image as an anatomical image generated during the examination by the same MRI apparatus 3 is selected as a mediation image related to a functional image of MRI.
CT画像から、位置ずれ計算対象部位として指定された閾値処理により例えば脳実質を抽出してその二値画像を生成し、同様にT1強調画像から閾値処理により同じ脳実質を抽出してその二値画像を生成する。CT画像に由来する二値画像と、T1強調画像に由来する二値画像との間で位置ずれベクトルが計算される。 For example, the brain parenchyma is extracted from the CT image by threshold processing specified as a position shift calculation target portion to generate a binary image thereof, and similarly, the same brain parenchyma is extracted from the T1-weighted image by threshold processing to obtain the binary value. Generate an image. A displacement vector is calculated between the binary image derived from the CT image and the binary image derived from the T1 weighted image.
この位置ずれベクトルに従ってPET画像とMRIの機能的画像とを位置整合して結合し、結合画像を発生する。結合画像によると、PET画像による機能を、MRIによる機能とを位置整合して比較診断できるという常に有用な画像を得ることができる。 The PET image and the MRI functional image are combined in alignment with each other according to the position shift vector to generate a combined image. According to the combined image, it is possible to obtain an always useful image in which the function based on the PET image and the function based on the MRI can be compared and aligned.
図8に示すように、一方の結合対象画像としてPET−CT装置5によるPET画像が指定される。PET画像は臓器の代謝機能等を表す機能的画像である。他方の結合対象画像として、MRI装置3により発生されたDWI、fMRI、パフュージョンMRI等の機能的画像が指定される。 As shown in FIG. 8, a PET image by the PET-CT apparatus 5 is designated as one image to be combined. A PET image is a functional image representing the metabolic function of an organ. A functional image such as DWI, fMRI, or perfusion MRI generated by the MRI apparatus 3 is designated as the other image to be combined.
PET画像に関係する媒介画像として、同じPET−CT装置5で同検査中に発生された解剖学的画像としてのCTA画像が選択される。PET画像とCTA画像は実質的に位置ずれは生じない。また、MRIの機能的画像に関係する媒介画像として、同じMRI装置3で同検査中に発生された解剖学的画像としてのMRA画像が選択される。 A CTA image as an anatomical image generated during the examination by the same PET-CT apparatus 5 is selected as a mediation image related to the PET image. There is substantially no displacement between the PET image and the CTA image. In addition, an MRA image as an anatomical image generated during the examination by the same MRI apparatus 3 is selected as an intermediate image related to a functional image of MRI.
CTA画像から、位置ずれ計算対象部位として指定された閾値処理により血管を抽出してその二値画像を生成し、同様にMRA画像から閾値処理により同じ血管を抽出してその二値画像を生成する。CTA画像に由来する二値画像と、MRA画像に由来する二値画像との間で位置ずれベクトルが計算される。 From the CTA image, a blood vessel is extracted by threshold processing designated as a position shift calculation target part to generate the binary image, and similarly, the same blood vessel is extracted from the MRA image by threshold processing to generate the binary image. . A displacement vector is calculated between the binary image derived from the CTA image and the binary image derived from the MRA image.
この位置ずれベクトルに従ってPET画像とMRIの機能的画像とを位置整合して結合し、結合画像を発生する。結合画像によると、PET画像による機能を、MRIによる機能とを位置整合して比較診断できるという常に有用な画像を得ることができる。 The PET image and the MRI functional image are combined in alignment with each other according to the position shift vector to generate a combined image. According to the combined image, it is possible to obtain an always useful image in which the function based on the PET image and the function based on the MRI can be compared and aligned.
図9に示すように、一方の結合対象画像としてX線CT装置2による機能的画像としてのCTパフュージョン画像が指定される。他方の結合対象画像として、MRI装置3により発生されたDWI、fMRI、パフュージョンMRI等の機能的画像が指定される。
As shown in FIG. 9, a CT perfusion image as a functional image by the
CTパフュージョン画像に関係する媒介画像として、CT装置2で同検査中に発生された解剖学的画像としてのCT画像が選択される。CTパフュージョン画像とCT画像は実質的に位置ずれは生じない。また、MRIの機能的画像に関係する媒介画像として、同じMRI装置3で同検査中に発生された解剖学的画像としてのT1強調画像が選択される。
A CT image as an anatomical image generated during the examination by the
CT画像から、位置ずれ計算対象部位として指定された閾値処理により例えば脳実質を抽出してその二値画像を生成し、同様にT1強調画像から閾値処理により同じ脳実質を抽出してその二値画像を生成する。CT画像に由来する二値画像と、T1強調画像に由来する二値画像との間で位置ずれベクトルが計算される。 For example, the brain parenchyma is extracted from the CT image by threshold processing specified as a position shift calculation target portion to generate a binary image thereof, and similarly, the same brain parenchyma is extracted from the T1-weighted image by threshold processing to obtain the binary value. Generate an image. A displacement vector is calculated between the binary image derived from the CT image and the binary image derived from the T1 weighted image.
この位置ずれベクトルに従ってCTパフュージョン画像とMRIの機能的画像とを位置整合して結合し、結合画像を発生する。結合画像によると、CTパフュージョン画像による機能を、MRIによる機能とを位置整合して比較診断できるという常に有用な画像を得ることができる。 The CT perfusion image and the MRI functional image are aligned and combined in accordance with the position shift vector to generate a combined image. According to the combined image, it is possible to obtain an always useful image in which the function based on the CT perfusion image and the function based on the MRI can be compared and matched.
図10に示すように、一方の結合対象画像としてX線CT装置2による機能的画像としてのCTパフュージョン画像が指定される。他方の結合対象画像として、MRI装置3により発生されたDWI、fMRI、パフュージョンMRI等の機能的画像が指定される。
As shown in FIG. 10, a CT perfusion image as a functional image by the
CTパフュージョン画像に関係する媒介画像として、CT装置2で同検査中に発生された解剖学的画像としてのCTA画像が選択される。CTパフュージョン画像とCTA画像は実質的に位置ずれは生じない。また、MRIの機能的画像に関係する媒介画像として、同じMRI装置3で同検査中に発生された解剖学的画像としてのMRA画像が選択される。
As a mediation image related to the CT perfusion image, a CTA image as an anatomical image generated during the examination by the
CTA画像から、位置ずれ計算対象部位として指定された閾値処理により例えば血管を抽出してその二値画像を生成し、同様にMRA画像から閾値処理により同じ血管を抽出してその二値画像を生成する。CTA画像に由来する二値画像と、MRA画像に由来する二値画像との間で位置ずれベクトルが計算される。 From the CTA image, for example, a blood vessel is extracted by threshold processing designated as a position deviation calculation target portion to generate the binary image, and similarly, the same blood vessel is extracted from the MRA image by threshold processing to generate the binary image. To do. A displacement vector is calculated between the binary image derived from the CTA image and the binary image derived from the MRA image.
この位置ずれベクトルに従ってCTパフュージョン画像とMRIの機能的画像とを位置整合して結合し、結合画像を発生する。結合画像によると、CTパフュージョン画像による機能を、MRIによる機能とを位置整合して比較診断できるという常に有用な画像を得ることができる。 The CT perfusion image and the MRI functional image are aligned and combined in accordance with the position shift vector to generate a combined image. According to the combined image, it is possible to obtain an always useful image in which the function based on the CT perfusion image and the function based on the MRI can be compared and matched.
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
1…3次元画像処理装置、2…CT装置、3…MRI装置、4…X線診断装置、5…PET−CT装置、6…画像保管装置、11…制御部、12…記憶部、13…ネットワークカード、14…入力デバイス、15…アフィン変換部、16…デジタル/アナログ変換部、17…表示部、18…位置ずれ計算部、19…画像結合部、20…画像処理部。
DESCRIPTION OF SYMBOLS 1 ... Three-dimensional image processing apparatus, 2 ... CT apparatus, 3 ... MRI apparatus, 4 ... X-ray diagnostic apparatus, 5 ... PET-CT apparatus, 6 ... Image storage apparatus, 11 ... Control part, 12 ... Memory | storage part, 13 ...
Claims (7)
前記第3の3次元画像と前記第4の3次元画像との間の位置ずれを計算する位置ずれ計算部と、
前記計算された位置ずれに基づいて、前記第1の3次元画像と前記第2の3次元画像とを位置合わせして結合する画像結合部とを具備することを特徴とする3次元画像処理装置。 Data of the first three-dimensional image, data of the second three-dimensional image to be combined with the first three-dimensional image, and a third three-dimensional image having relevance to the first three-dimensional image. A storage unit that stores data and data of a fourth three-dimensional image having relevance to the second three-dimensional image;
A displacement calculation unit for calculating a displacement between the third three-dimensional image and the fourth three-dimensional image;
A three-dimensional image processing apparatus comprising: an image combining unit that aligns and combines the first three-dimensional image and the second three-dimensional image based on the calculated displacement. .
前記第1の3次元画像と前記第2の3次元画像との間の第1の位置ずれと、前記第2の3次元画像と前記第3の3次元画像との間の第2の位置ずれと、前記第3の3次元画像と前記第4の3次元画像との間の第3の位置ずれとを計算する位置ずれ計算部と、
前記計算された第1、第2、第3の位置ずれに基づいて、前記第1の3次元画像と前記第4の3次元画像とを位置合わせして結合する画像結合部とを具備することを特徴とする3次元画像処理装置。 A storage unit that stores data of first, second, third, and fourth three-dimensional images related to the same subject;
A first misalignment between the first three-dimensional image and the second three-dimensional image, and a second misalignment between the second three-dimensional image and the third three-dimensional image. And a misregistration calculation unit that calculates a third misregistration between the third three-dimensional image and the fourth three-dimensional image;
An image combining unit that aligns and combines the first three-dimensional image and the fourth three-dimensional image based on the calculated first, second, and third positional shifts; A three-dimensional image processing apparatus.
前記複数の3次元画像から、前記第2の3次元画像の検査情報に基づいて、前記第3の3次元画像に関する複数の候補画像を抽出する候補抽出部と、
前記抽出された複数の候補画像を一覧で表示する表示部とをさらに備えることを特徴とする請求項1記載の3次元画像処理装置。 A storage unit for storing data of a plurality of three-dimensional images including the first, second, and third three-dimensional images;
A candidate extraction unit that extracts a plurality of candidate images related to the third three-dimensional image from the plurality of three-dimensional images based on inspection information of the second three-dimensional image;
The three-dimensional image processing apparatus according to claim 1, further comprising a display unit that displays the extracted plurality of candidate images in a list.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011233390A JP5232286B2 (en) | 2011-10-24 | 2011-10-24 | 3D image processing apparatus, 3D image processing method, storage medium, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011233390A JP5232286B2 (en) | 2011-10-24 | 2011-10-24 | 3D image processing apparatus, 3D image processing method, storage medium, and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006340202A Division JP5060117B2 (en) | 2006-12-18 | 2006-12-18 | 3D image processing apparatus, 3D image processing method, storage medium, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012050844A true JP2012050844A (en) | 2012-03-15 |
JP5232286B2 JP5232286B2 (en) | 2013-07-10 |
Family
ID=45904869
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011233390A Active JP5232286B2 (en) | 2011-10-24 | 2011-10-24 | 3D image processing apparatus, 3D image processing method, storage medium, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5232286B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014046267A1 (en) * | 2012-09-20 | 2014-03-27 | 株式会社東芝 | Image processing system, x-ray diagnostic device, and image processing method |
JP6286606B1 (en) * | 2017-09-14 | 2018-02-28 | 日本メジフィジックス株式会社 | Image processing program, image processing apparatus, and image processing method |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6526428B2 (en) | 2015-01-27 | 2019-06-05 | キヤノンメディカルシステムズ株式会社 | Medical image processing apparatus, medical image processing method and medical image diagnostic apparatus |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000040145A (en) * | 1998-07-23 | 2000-02-08 | Godai Kk | Image processor, image processing method and storage medium stored with image processing program |
JP2006198060A (en) * | 2005-01-19 | 2006-08-03 | Ziosoft Inc | Image processing method and image processing program |
WO2006103644A1 (en) * | 2005-03-31 | 2006-10-05 | Paieon Inc. | Method and apparatus for positioning a device in a tubular organ |
-
2011
- 2011-10-24 JP JP2011233390A patent/JP5232286B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000040145A (en) * | 1998-07-23 | 2000-02-08 | Godai Kk | Image processor, image processing method and storage medium stored with image processing program |
JP2006198060A (en) * | 2005-01-19 | 2006-08-03 | Ziosoft Inc | Image processing method and image processing program |
WO2006103644A1 (en) * | 2005-03-31 | 2006-10-05 | Paieon Inc. | Method and apparatus for positioning a device in a tubular organ |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014046267A1 (en) * | 2012-09-20 | 2014-03-27 | 株式会社東芝 | Image processing system, x-ray diagnostic device, and image processing method |
CN103826539A (en) * | 2012-09-20 | 2014-05-28 | 株式会社东芝 | Image processing system, X-ray diagnostic device, and image processing method |
US9747689B2 (en) | 2012-09-20 | 2017-08-29 | Toshiba Medical Systems Corporation | Image processing system, X-ray diagnostic apparatus, and image processing method |
JP6286606B1 (en) * | 2017-09-14 | 2018-02-28 | 日本メジフィジックス株式会社 | Image processing program, image processing apparatus, and image processing method |
JP2019052930A (en) * | 2017-09-14 | 2019-04-04 | 日本メジフィジックス株式会社 | Image processing program, image processing device and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP5232286B2 (en) | 2013-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5060117B2 (en) | 3D image processing apparatus, 3D image processing method, storage medium, and program | |
CN111161326B (en) | System and method for unsupervised deep learning of deformable image registration | |
Alam et al. | Medical image registration in image guided surgery: Issues, challenges and research opportunities | |
JP4490442B2 (en) | Method and system for affine superposition of an intraoperative 2D image and a preoperative 3D image | |
EP1719078B1 (en) | Device and process for multimodal registration of images | |
JP6448972B2 (en) | Medical image processing apparatus and medical image processing method | |
US7467007B2 (en) | Respiratory gated image fusion of computed tomography 3D images and live fluoroscopy images | |
Song et al. | Locally rigid, vessel-based registration for laparoscopic liver surgery | |
US8559686B2 (en) | Medical image data alignment apparatus, method and program | |
US9173626B2 (en) | Method for performing dynamic registration, overlays, and 3D views with fluoroscopic images | |
Linte et al. | Virtual and augmented medical imaging environments: Enabling technology for minimally invasive cardiac interventional guidance | |
US8068665B2 (en) | 3D-image processing apparatus, 3D-image processing method, storage medium, and program | |
US20120287131A1 (en) | Image processing apparatus and image registration method | |
Ivashchenko et al. | CBCT‐based navigation system for open liver surgery: Accurate guidance toward mobile and deformable targets with a semi‐rigid organ approximation and electromagnetic tracking of the liver | |
JP4991181B2 (en) | 3D image processing apparatus, 3D image processing method, and control program used in 3D image processing apparatus | |
JP5232286B2 (en) | 3D image processing apparatus, 3D image processing method, storage medium, and program | |
Groher et al. | Planning and intraoperative visualization of liver catheterizations: new CTA protocol and 2D-3D registration method | |
Bucki et al. | Doppler ultrasound driven biomechanical model of the brain for intraoperative brain-shift compensation: a proof of concept in clinical conditions | |
JP6876200B2 (en) | Alignment of static preoperative planning data with respect to dynamic intraoperative segmentation data | |
JP5750381B2 (en) | Region extraction processing system | |
JP2016104121A (en) | Medical image processing apparatus and medical image processing method | |
Reinertsen et al. | The essential role of open data and software for the future of ultrasound-based neuronavigation | |
Li et al. | Generation of synthetic 4D cardiac CT images for guidance of minimally invasive beating heart interventions | |
JP6068032B2 (en) | Medical image processing device | |
Li et al. | Generation of synthetic 4D cardiac CT images by deformation from cardiac ultrasound |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121204 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130322 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160329 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5232286 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |