JP5478832B2 - Medical image processing apparatus and medical image processing program - Google Patents

Medical image processing apparatus and medical image processing program Download PDF

Info

Publication number
JP5478832B2
JP5478832B2 JP2008073708A JP2008073708A JP5478832B2 JP 5478832 B2 JP5478832 B2 JP 5478832B2 JP 2008073708 A JP2008073708 A JP 2008073708A JP 2008073708 A JP2008073708 A JP 2008073708A JP 5478832 B2 JP5478832 B2 JP 5478832B2
Authority
JP
Japan
Prior art keywords
pixel value
image data
image
voxel
mask information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008073708A
Other languages
Japanese (ja)
Other versions
JP2009225943A (en
Inventor
恭子 佐藤
仁 山形
康太 青柳
俊介 佐藤
武博 江馬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Toshiba Medical Systems Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp, Toshiba Medical Systems Engineering Co Ltd filed Critical Toshiba Corp
Priority to JP2008073708A priority Critical patent/JP5478832B2/en
Publication of JP2009225943A publication Critical patent/JP2009225943A/en
Application granted granted Critical
Publication of JP5478832B2 publication Critical patent/JP5478832B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、医用画像診断装置にて取得された複数の医用画像の位置を合わせる医用画像処理装置、及び医用画像処理プログラムに関する。   The present invention relates to a medical image processing apparatus for aligning positions of a plurality of medical images acquired by a medical image diagnostic apparatus, and a medical image processing program.

肝癌は癌疾患のなかで約10%を占め、その数は増加の傾向にある。また、予後が比較的悪いため、診断と治療とに対する社会的な要請が強い。腫瘍の診断には、超音波診断装置、MRI装置、又はX線CT装置などの医用画像診断装置が用いられている。これらの医用画像診断装置は、3次元画像や造影画像の取得が可能となっており、腫瘍の早期発見が可能となってきている。   Liver cancer accounts for about 10% of cancer diseases, and the number is increasing. Moreover, since the prognosis is relatively poor, there is a strong social demand for diagnosis and treatment. For diagnosis of a tumor, a medical image diagnostic apparatus such as an ultrasonic diagnostic apparatus, an MRI apparatus, or an X-ray CT apparatus is used. These medical image diagnostic apparatuses can acquire a three-dimensional image and a contrast image, and can detect tumors at an early stage.

腫瘍の治療として、ラジオ波焼灼法(Radio−Frequency Ablation;以下「RFA」と称する場合がある)や、強力エネルギー集束超音波法(High Intensity Focused Ultrasound;以下「HIFU」と称する場合がある)などの低浸襲治療法が施行されている。なお、HIFUは、集束超音波法(Focused Ultrasound;以下「FUS」と称する場合がある)と称される場合もある。   Examples of tumor treatment include radiofrequency ablation (Radio-Frequency Abbreviation; sometimes referred to as “RFA”), high-energy focused ultrasound (hereinafter sometimes referred to as “HIFU”), and the like. A low invasive treatment method is being implemented. The HIFU may also be referred to as focused ultrasound (hereinafter sometimes referred to as “FUS”).

そして、低浸襲治療法によって腫瘍などの病変部を焼灼した後、術前に取得された病変部の画像と術後に取得された病変部の画像とを同時に表示し、それらの画像に基づいて治療効果の判定を行っている。例えば、超音波診断装置を用いて2次元のBモード画像を取得し、そのBモード画像に基づいて病変部の診断を行っている。また、X線CT装置を用いて断層像を取得し、その断層像に基づいて病変部の診断を行っている。また、3次元の領域を撮影してボリュームデータを取得した場合、術前の画像の位置と術後の画像の位置とを合わせるために、医師などの操作者が、画像を生成する断面の位置の変更や、画像の拡大・縮小や、画面上における画像の移動などを手動で行って、両方の画像を並列して表示していた。このような場合、操作者の目視によって位置合わせが行われるため、位置合わせの誤差が大きくなり、正確な術後診断が困難になる。焼灼の残しや不十分な焼灼が原因となる再発を防ぐために、治療効果の判定をより正確に行うことが求められている。従来においては、複数の画像の位置合わせを行うための様々な方法が提案されている。   Then, after cauterizing a lesion such as a tumor by the low invasive treatment method, an image of the lesion acquired before the operation and an image of the lesion acquired after the operation are simultaneously displayed, and based on the images. To determine the therapeutic effect. For example, a two-dimensional B-mode image is acquired using an ultrasonic diagnostic apparatus, and a lesion is diagnosed based on the B-mode image. In addition, a tomographic image is acquired using an X-ray CT apparatus, and a lesion is diagnosed based on the tomographic image. In addition, when volume data is acquired by photographing a three-dimensional region, an operator such as a doctor positions the position of a cross section where an image is generated in order to match the position of the preoperative image and the position of the postoperative image. Both images were displayed in parallel by manually changing the image, enlarging / reducing the image, moving the image on the screen, and the like. In such a case, since the alignment is performed by the visual observation of the operator, the alignment error increases, and accurate postoperative diagnosis becomes difficult. In order to prevent recurrence caused by residual cautery or insufficient cauterization, it is required to more accurately determine the therapeutic effect. Conventionally, various methods for aligning a plurality of images have been proposed.

画像の位置合わせを行う方法としては、画像に表わされた形態の情報を用いる方法と、形態の情報を用いない方法とがある。形態の情報を用いる方法としては、3次元の形態の位置をパターンマッチングによって合わせることで、画像の位置合わせを行う方法が提案されている(例えば特許文献1)。また別の方法として、骨部や軟部組織などの特定の構造物を表す像同士を、アフィン変換によって位置合わせした後、テンプレートマッチングで得られたシフト量をワーピング(非線形歪変換)することにより、再度、局所的に位置合わせを行う方法が提案されている(例えば特許文献2)。   As a method of aligning images, there are a method using information in the form represented in the image and a method not using information in the form. As a method using form information, there has been proposed a method for aligning images by matching the position of a three-dimensional form by pattern matching (for example, Patent Document 1). As another method, after aligning images representing specific structures such as bone and soft tissue by affine transformation, warping (nonlinear distortion transformation) the shift amount obtained by template matching, Again, a method of performing local alignment has been proposed (for example, Patent Document 2).

また、形態の情報を用いない方法としては、画像の画素値に対してMutual infomation法(以下、「MI法」と称する場合がある)を適用し、2つの画像の位置を合わせる方法が提案されている(例えば特許文献3及び特許文献4)。   Further, as a method that does not use form information, a method is proposed in which a mutual information method (hereinafter sometimes referred to as “MI method”) is applied to pixel values of an image to align the positions of the two images. (For example, Patent Document 3 and Patent Document 4).

特開2002−17729号公報JP 2002-17729 A 特開2006−6435号公報JP 2006-6435 A 特開2004−509723号公報JP 2004-509723 A 特開2007−54636号公報JP 2007-54636 A

手動で複数の画像の位置を合わせる場合、画像を表示する断面の位置を検索するための作業が煩雑で時間がかかってしまう。さらに、新たな画像を表示するたびに断面の位置が変わるため、同じ条件で繰り返し比較することが困難である。また、手動で位置合わせを行う場合には、断面の位置や角度の誤差が大きくなるため、焼灼計画の領域と実際に焼灼された領域とを正確に比較することが困難である。   When manually aligning the positions of a plurality of images, the work for searching for the position of the cross section for displaying the images is complicated and takes time. Furthermore, since the position of the cross section changes each time a new image is displayed, it is difficult to compare repeatedly under the same conditions. In addition, when the alignment is performed manually, errors in the position and angle of the cross section increase, and it is difficult to accurately compare the ablation plan area and the actually ablated area.

また、形態情報を用いて位置合わせを行う方法では、比較対象の2つの画像において、形態が変化しない部位の像を用いて位置合わせを行う。従って、2つの画像において、形態が変化しない部位が存在しない場合には、画像の位置合わせを正確に行うことは困難である。   Further, in the method of performing alignment using morphological information, alignment is performed using an image of a part whose shape does not change in the two images to be compared. Therefore, when there is no portion where the form does not change in the two images, it is difficult to accurately align the images.

また、RFAを用いた治療で主に使用される超音波画像では、組織の輪郭が比較的不明瞭に表わされており、また、焼灼の前後において焼灼対象の形態が著しく変化する。そのため、形態情報を用いた方法では、画像の位置合わせの精度を向上させることは困難である。   Further, in an ultrasonic image mainly used in the treatment using RFA, the outline of the tissue is relatively unclear, and the form of the ablation object changes significantly before and after the ablation. Therefore, it is difficult to improve the accuracy of image alignment by a method using morphological information.

また、MI法を用いた位置合わせ方法では、画像に表わされた組織の輪郭が不明瞭であっても、画像が類似していれば、画像の位置合わせを比較的精度良く行うことができる。しかしながら、焼灼治療では、焼灼の前後において、患部を表す像の輝度値が著しく変化する。そのため、術前の画像の位置と術後の画像の位置とを合わせるためにMI法を適用しても、画像が類似していないため、位置合わせを精度良く行うことは困難である。   Further, in the registration method using the MI method, even if the outline of the tissue represented in the image is unclear, if the images are similar, the registration of the images can be performed with relatively high accuracy. . However, in the cauterization treatment, the luminance value of the image representing the affected part changes significantly before and after the cauterization. Therefore, even if the MI method is applied to match the position of the pre-operative image and the post-operative image, the images are not similar, so that it is difficult to perform alignment with high accuracy.

この発明は上記の問題点を解決するものであり、医用画像診断装置によって取得された複数の画像の位置合わせをより正確に行うことが可能な医用画像処理装置、及び医用画像処理プログラムを提供することを目的とする。   The present invention solves the above-described problems and provides a medical image processing apparatus and a medical image processing program capable of more accurately aligning a plurality of images acquired by a medical image diagnostic apparatus. For the purpose.

請求項1に記載の発明は、造影剤が注入された被検体を、前記被検体に対する医学的処置の以前と以後で撮影したそれぞれのボリュームデータを含む複数の4D造影画像データを記憶する記憶手段と、前記記憶手段に記憶されている前記以前と前記以後の4D造影画像データのそれぞれに基づいて、各ボクセルにおける画素値の時間変化を表す、前記以前の画素値曲線と前記以後の画素値曲線を作成するカーブ作成手段と、前記以前と前記以後のそれぞれについて前記被検体の各部位における画素値の時間変化を表す画素値曲線モデルを取得するカーブモデル作成手段と、前記以前と前記以後のそれぞれについて、前記ボクセルの画素値曲線と前記各部位の画素値曲線モデルとを比較して、前記ボクセルの画素値曲線を前記被検体の部位ごとに分類することで、各部位の領域を示す、前記以前の第1マスク情報と前記以後の第1のマスク情報を作成する第1分類手段と、前記以前と前記以後の4D造影画像データの間で、前記画素値曲線モデルの形状がほぼ一致する部位以外の部位の領域を、前記以前と前記以後の各第1マスク情報から除外することで前記以前の第2マスク情報と前記以後の第2マスク情報を作成する第2分類手段と、前記以前と前記以後のそれぞれの前記第2マスク情報が示す各部位の領域に含まれる各ボクセルに、前記以前と前記以後の画素値曲線のそれぞれから特定される特徴量を割り当てることで前記以前の特徴量画像データと前記以後の特徴量画像データを生成する特徴量画像生成手段と、前記以前と前記以後の特徴量画像のそれぞれの位置を合わせる画像位置合わせ手段と、前記以前と前記以後の4D造影画像データのそれぞれに含まれるボリュームデータに基づき、前記位置合わせに従って位置が合わされた表示用画像データを、前記4D造影画像データごとに生成する表示画像生成手段と、前記4D造影画像データごとの表示用画像データに基づく表示用画像を並べて表示手段に表示させる表示制御手段と、を有することを特徴とする医用画像処理装置である。
請求項8に記載の発明は、コンピュータに、造影剤が注入された被検体を、前記被検体に対する医学的処置の以前と以後で撮影したそれぞれのボリュームデータを含む複数の4D造影画像データを受け付けて、前記以前と前記以後の4D造影画像データのそれぞれに基づいて、各ボクセルにおける画素値の時間変化を表す、前記以前の画素値曲線と前記以後の画素値曲線を作成するカーブ作成機能と、前記以前と前記以後のそれぞれについて、前記被検体の各部位における画素値の時間変化を表す画素値曲線モデルを取得するカーブモデル作成手段と、前記以前と前記以後のそれぞれについて、前記ボクセルの画素値曲線と前記各部位の画素値曲線モデルとを比較して、前記ボクセルの画素値曲線を前記被検体の部位ごとに分類することで、各部位の領域を示す、前記以前の第1マスク情報と前記以後の第1のマスク情報を作成する第1分類機能と、前記以前と前記以後の4D造影画像データの間で、前記画素値曲線モデルの形状がほぼ一致する部位以外の部位の領域を、前記以前と前記以後の各第1マスク情報から除外することで前記以前の第2マスク情報と前記以後の第2マスク情報を作成する第2分類機能と、前記以前と前記以後のそれぞれの前記第2マスク情報が示す各部位の領域に含まれる各ボクセルに、前記以前と前記以後の画素値曲線のそれぞれから特定される特徴量を割り当てることで前記以前の特徴量画像データと前記以後の特徴量画像データを生成する特徴量画像生成機能と、前記以前と前記以後の特徴量画像のそれぞれの位置を合わせる画像位置合わせ機能と、前記以前と前記以後の4D造影画像データのそれぞれに含まれるボリュームデータに基づき、前記位置合わせに従って位置が合わされた表示用画像データを、前記4D造影画像データごとに生成する表示画像生成機能と、前記4D造影画像データごとの表示用画像データに基づく表示用画像を並べて表示装置に表示させる表示制御機能と、を実行させることを特徴とする医用画像処理プログラムである。
The invention according to claim 1 is a storage means for storing a plurality of 4D contrast image data including volume data obtained by imaging a subject into which a contrast medium has been injected before and after medical treatment of the subject. And the previous pixel value curve and the subsequent pixel value curve representing temporal changes in pixel values in each voxel based on the previous and subsequent 4D contrast image data stored in the storage means, respectively. A curve model creating unit for obtaining a pixel value curve model representing a temporal change of a pixel value in each part of the subject for each of the previous and the following; and for, by comparing the pixel value curve model of each site and the pixel value curve of the voxels, each part of the pixel value curve of the voxels the subject By classifying, between the previous and subsequent 4D contrast image data, the first classification means for creating the previous first mask information and the subsequent first mask information indicating the region of each part, The previous second mask information and the subsequent second mask are excluded by excluding the region of the portion other than the portion where the shapes of the pixel value curve models substantially coincide with each other from the previous and subsequent first mask information. A second classification means for creating information, and each voxel included in each region indicated by each of the second mask information before and after the second is specified from each of the previous and subsequent pixel value curves. The feature amount image generating means for generating the previous feature amount image data and the subsequent feature amount image data by allocating the feature amount, and the positions of the previous and subsequent feature amount images are aligned. Display for generating, for each 4D contrast image data, image data for display that is aligned according to the position alignment based on image registration means and volume data included in each of the previous and subsequent 4D contrast image data A medical image processing apparatus comprising: an image generation unit; and a display control unit configured to display a display image based on the display image data for each of the 4D contrast image data on the display unit.
According to the eighth aspect of the present invention, a computer receives a plurality of 4D contrast image data including volume data obtained by imaging a subject into which a contrast medium has been injected before and after medical treatment of the subject. A curve creation function for creating the previous pixel value curve and the subsequent pixel value curve, each representing a temporal change of the pixel value in each voxel based on each of the previous and subsequent 4D contrast image data; Curve model creation means for obtaining a pixel value curve model representing a temporal change of pixel values in each part of the subject for each of the previous and the following, and a pixel value of the voxel for each of the previous and the subsequent wherein the curve is compared with the pixel value curve model of each site to classify the pixel value curve of the voxels for each region of the subject, The pixel value curve model between the first classification function for creating the previous first mask information and the subsequent first mask information indicating the region of the part, and the previous and subsequent 4D contrast image data The second mask information before and the second mask information after the second are created by excluding the regions of the parts other than the parts where the shapes of the first and second masks substantially coincide with each other from the previous and subsequent first mask information. A feature amount specified from each of the previous and subsequent pixel value curves is assigned to each voxel included in each region indicated by the classification function and each of the second mask information before and after the second mask information. A feature amount image generation function for generating the previous feature amount image data and the subsequent feature amount image data, and an image registration function for aligning the positions of the previous and subsequent feature amount images. A display image generation function for generating, for each 4D contrast image data, display image data that is aligned according to the alignment based on volume data included in each of the previous and subsequent 4D contrast image data; A medical image processing program for executing a display control function for arranging display images based on display image data for each 4D contrast image data and displaying the images on a display device.

この発明によると、各ボクセルにおける画素値の時間変化を表す画素値曲線を求めることで、その画素値曲線に基づいて、各部位の領域を抽出することが可能となる。そして、各4D造影画像データの間で、画素値曲線モデルの形状がほぼ一致する部位以外の部位の領域を、各部位の領域を表す第1マスク情報から除外することで第2マスク情報を作成する。これにより、画像の位置合わせ処理に適さない領域をマスク情報から除外することができる。その第2マスク情報に基づいて特徴量画像を求め、その特徴量画像によって画像の位置合わせを行うことで、位置合わせ処理に適さない領域を除いて、画像の位置合わせを行うことが可能となる。このように、位置合わせ処理に適さない領域を除いて画像の位置合わせが可能となるため、画像の位置合わせをより正確に行うことが可能となる。   According to the present invention, by obtaining a pixel value curve representing a temporal change in pixel value in each voxel, it is possible to extract the region of each part based on the pixel value curve. Then, between each 4D contrast image data, the second mask information is created by excluding the region other than the region where the shape of the pixel value curve model substantially matches from the first mask information representing each region. To do. As a result, an area that is not suitable for image alignment processing can be excluded from the mask information. By obtaining a feature amount image based on the second mask information and performing image alignment using the feature amount image, it is possible to perform image alignment except for an area that is not suitable for alignment processing. . As described above, since it is possible to perform image alignment except for a region that is not suitable for the alignment processing, it is possible to perform image alignment more accurately.

この発明の実施形態に係る医用画像処理装置について図1を参照して説明する。図1は、この発明の実施形態に係る医用画像処理装置を示すブロック図である。   A medical image processing apparatus according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing a medical image processing apparatus according to an embodiment of the present invention.

医用画像診断装置100は、超音波診断装置、X線CT装置、又はMRI装置などの撮影装置で構成されて、被検体の医用画像データを取得する。医用画像診断装置100にて取得された医用画像データは、医用画像処理装置1に出力されて、画像記憶部9に記憶される。例えば、医用画像診断装置100は、被検体の3次元領域を撮影することで、撮影された時間が異なる複数のボリュームデータを取得し、画像記憶部9は、医用画像診断装置100によって取得された複数のボリュームデータを記憶する。   The medical image diagnostic apparatus 100 includes an imaging apparatus such as an ultrasonic diagnostic apparatus, an X-ray CT apparatus, or an MRI apparatus, and acquires medical image data of a subject. The medical image data acquired by the medical image diagnostic apparatus 100 is output to the medical image processing apparatus 1 and stored in the image storage unit 9. For example, the medical image diagnostic apparatus 100 acquires a plurality of volume data with different imaging times by imaging a three-dimensional region of the subject, and the image storage unit 9 is acquired by the medical image diagnostic apparatus 100. A plurality of volume data is stored.

この実施形態では、いわゆる造影撮影を行う。点滴又は血管注射によって被検体内に注入された造影剤は血流に乗って体内を移動し、目的臓器に達する。造影剤が浸透する際の造影効果の有無又は程度の違いを観察し、また、造影された部分の形状を観察することにより、病変又は臓器の異常を発見することができる。この実施形態では、肝臓を撮影対象とし、RFA法を用いた焼灼治療を1例にして説明する。具体的には、焼灼治療前(術前)に、医用画像診断装置100によって造影撮影を行うことで、撮影された時間が異なる複数のボリュームデータを取得する。さらに、焼灼治療後(術後)に、医用画像診断装置100によって造影撮影を行うことで、撮影された時間が異なる複数のボリュームデータを取得する。術前の撮影と術後の撮影とにおいて、被検体に注入された造影剤は肝臓に流入する。その間、医用画像診断装置100は撮影しているため、造影剤が肝臓に流入する様子が表された複数のボリュームデータを取得することができる。   In this embodiment, so-called contrast imaging is performed. The contrast agent injected into the subject by drip or blood vessel injection travels in the bloodstream and reaches the target organ. By observing the presence or absence of the contrast effect when the contrast agent permeates or the difference in the degree thereof, and observing the shape of the contrasted portion, it is possible to discover abnormalities in the lesion or organ. In this embodiment, a liver is taken as an imaging target, and ablation treatment using the RFA method will be described as an example. Specifically, before the ablation treatment (before surgery), the medical image diagnostic apparatus 100 performs contrast imaging to acquire a plurality of volume data with different imaging times. Furthermore, after the cauterization treatment (postoperative), the medical image diagnostic apparatus 100 performs contrast imaging to obtain a plurality of volume data with different imaging times. In pre-operative imaging and post-operative imaging, the contrast medium injected into the subject flows into the liver. In the meantime, since the medical image diagnostic apparatus 100 is photographing, it is possible to acquire a plurality of volume data representing how the contrast medium flows into the liver.

また、医用画像診断装置100は、各ボリュームデータが撮影された時間を付帯情報として各ボリュームデータに付帯させる。   Further, the medical image diagnostic apparatus 100 attaches the time when each volume data is captured to each volume data as supplementary information.

医用画像処理装置1は、医用画像診断装置100にて取得されたが複数の画像の位置を合わせる。この実施形態では1例として、焼灼治療前(術前)に取得された画像の位置と、焼灼治療後(術後)に取得された画像の位置とを合わせる場合について説明する。例えば、焼灼治療の効果を確認するために、術前に取得された画像の位置と、術後に取得された画像の位置とを合わせて表示する。   The medical image processing apparatus 1 aligns the positions of a plurality of images acquired by the medical image diagnostic apparatus 100. In this embodiment, as an example, a case where the position of an image acquired before ablation treatment (before surgery) and the position of an image acquired after ablation treatment (after surgery) will be described. For example, in order to confirm the effect of the cauterization treatment, the position of the image acquired before the operation and the position of the image acquired after the operation are displayed together.

ここで、術前に造影撮影することで取得された画像であって、組織を表わす画像を図2に示す。図2は、造影剤が流入する様子を順番に表わす画像を示す図である。図2に示す画像は、医用画像診断装置100に超音波診断装置を用いて撮影することで取得された画像である。画像201は、造影剤が肝臓に流入する前に撮影された画像である。そして、早期相、門脈相、及び後期相と時間が経過するに従って、血管、腫瘍、及び周辺組織へと造影剤が流入していく。例えば、早期相に取得された画像202には、造影剤が血管に流入している様子が表されている。また、門脈相に取得された画像203には、造影剤が腫瘍に流入している様子が表されている。また、後期相に取得された画像204には、造影剤が周辺組織に流入している様子が表されている。このように、早期相から後期相にかけて、造影剤の濃染領域が、血管、腫瘍、及び周辺組織へと移行していくことがわかる。ここで、造影剤の濃染の時間変化を表す曲線を、Time−Density Curve(TDC)と称する。例えば、各部位における輝度値(画素値)の時間変化を表す曲線をTDCとする。TDCにおいては、組織に造影剤が流入した場合にその組織の輝度値が大きくなる。そのため、輝度値の大きさが造影剤の濃染の状態を表している。従って、各部位における輝度値の時間変化を表すTDCは、各部位における造影剤の濃染の時間変化(造影剤の濃染過程)を表していることになる。   Here, FIG. 2 shows an image representing tissue obtained by contrast imaging before surgery. FIG. 2 is a diagram showing images sequentially representing the state in which the contrast medium flows. The image shown in FIG. 2 is an image acquired by photographing the medical image diagnostic apparatus 100 using an ultrasonic diagnostic apparatus. An image 201 is an image taken before the contrast medium flows into the liver. Then, as time passes with the early phase, the portal vein phase, and the late phase, the contrast agent flows into the blood vessels, the tumor, and the surrounding tissues. For example, the image 202 acquired in the early phase shows a state in which the contrast medium flows into the blood vessel. In addition, the image 203 acquired in the portal vein phase shows that the contrast agent is flowing into the tumor. In addition, the image 204 acquired in the late phase shows a state in which the contrast agent flows into the surrounding tissue. Thus, it can be seen that the contrast dyed region shifts to blood vessels, tumors, and surrounding tissues from the early phase to the late phase. Here, the curve showing the time change of the contrast agent dark staining is referred to as Time-Density Curve (TDC). For example, a curve representing a temporal change in luminance value (pixel value) in each part is defined as TDC. In TDC, when a contrast medium flows into a tissue, the luminance value of the tissue increases. For this reason, the magnitude of the luminance value represents the state of dark staining of the contrast medium. Therefore, the TDC representing the time change of the luminance value in each part represents the time change of the contrast agent dark dyeing in each part (contrast dye deep dyeing process).

また、焼灼治療後(術後)においては、焼灼された腫瘍は造影剤によって濃染されない。そのため、術前と術後とにおいて、腫瘍の輝度値(画素値)の時間変化が著しく異なる。すなわち、腫瘍においては、Time−Density Curveの形状が、術前と術後とで著しく異なる。この実施形態に係る医用画像処理装置1は、造影剤の濃染領域の時間変化を用いて、医用画像から各部位の領域を抽出し、各部位を表すマスク情報を用いて、複数の医用画像の位置を合わせる。   In addition, after the ablation treatment (after surgery), the ablated tumor is not darkly stained by the contrast medium. Therefore, the temporal change in the brightness value (pixel value) of the tumor is significantly different before and after the operation. That is, in the tumor, the shape of the Time-Density Curve is remarkably different between before and after the operation. The medical image processing apparatus 1 according to this embodiment extracts a region of each part from a medical image using a temporal change of a contrast agent darkly dyed region, and uses a mask information representing each part to generate a plurality of medical images. Adjust the position of.

なお、この実施形態における被検体の部位には、病変部位も含まれるものとする。例えば、血管や肝実質などの他、肝腫瘍や焼灼された後の腫瘍もこの実施形態の部位に含まれる。   It should be noted that the site of the subject in this embodiment includes a lesion site. For example, in addition to blood vessels and liver parenchyma, liver tumors and tumors after cauterization are also included in the site of this embodiment.

(医用画像処理装置1)
医用画像処理装置1は、データ処理部2と、画像処理部5と、画像記憶部9と、データ記憶部10と、表示制御部11と、ユーザインターフェース(UI)12とを備えている。医用画像処理装置1は、撮影された時間がそれぞれ異なる複数のボリュームデータに基づいて、複数の画像の位置を合わせる。この実施形態では、焼灼治療前(術前)に取得された画像の位置と、焼灼治療後(術後)に取得された画像の位置とを合わせる。なお、術前の画像と術後の画像とは、同じ種類の医用画像診断装置にて取得された画像であっても良いし、異なる種類の医用画像診断装置にて取得された画像であっても良い。以下、医用画像処理装置1の各部について説明する。
(Medical image processing apparatus 1)
The medical image processing apparatus 1 includes a data processing unit 2, an image processing unit 5, an image storage unit 9, a data storage unit 10, a display control unit 11, and a user interface (UI) 12. The medical image processing apparatus 1 aligns the positions of a plurality of images based on a plurality of volume data with different shooting times. In this embodiment, the position of the image acquired before the ablation treatment (before surgery) and the position of the image acquired after the ablation treatment (after surgery) are matched. The preoperative image and the postoperative image may be images acquired by the same type of medical image diagnostic apparatus, or images acquired by different types of medical image diagnostic apparatuses. Also good. Hereinafter, each part of the medical image processing apparatus 1 will be described.

(画像記憶部9)
画像記憶部9は、医用画像診断装置100による造影撮影によって取得された、撮影された時間が異なる複数のボリュームデータを記憶する。ここで、造影撮影によって取得された複数のボリュームデータであって、撮影された時間が異なる複数のボリュームデータを、「4D造影画像データ」と称する。例えば、焼灼治療前(術前)に、医用画像診断装置100によって造影撮影を行うことで、焼灼治療前における4D造影画像データを取得する。同様に、焼灼治療後(術後)に、医用画像診断装置100によって造影撮影を行うことで、焼灼治療後における4D造影画像データを取得する。術前と術後とにおいてそれぞれ取得された4D造影画像データは、画像記憶部9に記憶される。なお、術前に取得された4D造影画像データには、術前に取得された画像であることを示す識別情報が付帯されている。同様に、術後に取得された4D造影画像データには、術後に取得された画像であることを示す識別情報が付帯されている。これにより、識別情報に基づいて、術前又は術後に取得された4D造影画像データを画像記憶部9から読み出すことができる。なお、画像記憶部9がこの発明の「記憶手段」の1例に相当する。また、焼灼治療前(術前)に取得された4D造影画像データが、この発明の「第1の4D造影画像データ」の1例に相当し、焼灼治療後(術後)に取得された4D造影画像データが、この発明の「第2の4D造影画像データ」の1例に相当する。
(Image storage unit 9)
The image storage unit 9 stores a plurality of volume data acquired by contrast imaging by the medical image diagnostic apparatus 100 and having different imaging times. Here, a plurality of volume data acquired by contrast imaging and a plurality of volume data captured at different times are referred to as “4D contrast image data”. For example, before the ablation treatment (before surgery), the 4D contrast image data before the ablation treatment is acquired by performing contrast imaging with the medical image diagnostic apparatus 100. Similarly, 4D contrast image data after the cauterization treatment is acquired by performing contrast imaging by the medical image diagnostic apparatus 100 after the cauterization treatment (postoperative). The 4D contrast image data acquired before and after the operation is stored in the image storage unit 9. The 4D contrast image data acquired before the operation is accompanied by identification information indicating that the image is acquired before the operation. Similarly, identification information indicating that the image is acquired after the operation is attached to the 4D contrast image data acquired after the operation. Thereby, based on the identification information, 4D contrast image data acquired before or after surgery can be read from the image storage unit 9. The image storage unit 9 corresponds to an example of the “storage unit” of the present invention. The 4D contrast image data acquired before the ablation treatment (before surgery) corresponds to one example of the “first 4D contrast image data” of the present invention, and the 4D acquired after the ablation treatment (after surgery). The contrast image data corresponds to an example of “second 4D contrast image data” of the present invention.

(データ処理部2)
データ処理部2は、カーブモデル作成部3とマスク作成部4とを備えて、各部位におけるTime−Density Curveのモデル(以下、「TDCモデル」と称する)を特定し、そのTDCモデルと4D造影画像データとに基づいて、各部位の領域を表すマスク情報を生成する。以下、カーブモデル作成部3とマスク作成部4とについて説明する。
(Data processing unit 2)
The data processing unit 2 includes a curve model creation unit 3 and a mask creation unit 4, specifies a time-density curve model (hereinafter referred to as “TDC model”) at each site, and the TDC model and 4D contrast Based on the image data, mask information representing the region of each part is generated. Hereinafter, the curve model creation unit 3 and the mask creation unit 4 will be described.

(カーブモデル作成部3)
カーブモデル作成部3は、カーブ作成部31と、分類部32と、平均カーブ作成部33と、カーブモデル特定部34とを備えて、各部位におけるTDCモデルを作成する。
(Curve model creation part 3)
The curve model creation unit 3 includes a curve creation unit 31, a classification unit 32, an average curve creation unit 33, and a curve model identification unit 34, and creates a TDC model in each part.

ここで、術前における肝臓のTDCモデルの一般例と、術後における肝臓のTDCモデルの一般例とを図3を参照して説明する。図3は、時間に対する各部位の輝度の変化を表すグラフ(TDC)を示す図である。図3(a)に、術前における肝臓のTDCモデルの一般例を示し、図3(b)に、術後における肝臓のTDCモデルの一般例を示す。図3(a)と図3(b)とにおいて、横軸が時間を示し、縦軸が画像の輝度を示している。図3(a)において、TDCモデル301は、血管における輝度値(画素値)の一般的な時間変化を表している。すなわち、TDCモデル301は、血管における造影剤の一般的な濃染過程を表している。また、TDCモデル302は、正常な肝実質における輝度値の一般的な時間変化を表している。また、TDCモデル303は、肝腫瘍における輝度値の一般的な時間変化を表している。一方、図3(b)において、TDCモデル401は、血管における輝度値の一般的な時間変化を表している。また、TDCモデル402は、正常な肝実質における輝度値の一般的な時間変化を表している。また、TDCモデル403は、肝腫瘍における輝度値の一般的な時間変化を表している。TDCモデル301〜303と、TDCモデル401〜403とは、例えば統計的にも求められたグラフである。   Here, a general example of the TDC model of the liver before surgery and a general example of the TDC model of the liver after surgery will be described with reference to FIG. FIG. 3 is a diagram showing a graph (TDC) showing a change in luminance of each part with respect to time. FIG. 3A shows a general example of the TDC model of the liver before the operation, and FIG. 3B shows a general example of the TDC model of the liver after the operation. 3A and 3B, the horizontal axis indicates time, and the vertical axis indicates image brightness. In FIG. 3A, a TDC model 301 represents a general time change of a luminance value (pixel value) in a blood vessel. That is, the TDC model 301 represents a general dark staining process of a contrast agent in a blood vessel. Further, the TDC model 302 represents a general temporal change in luminance value in normal liver parenchyma. Further, the TDC model 303 represents a general temporal change in the luminance value in the liver tumor. On the other hand, in FIG. 3B, a TDC model 401 represents a general time change of a luminance value in a blood vessel. Further, the TDC model 402 represents a general temporal change in luminance value in normal liver parenchyma. Further, the TDC model 403 represents a general temporal change in the luminance value in the liver tumor. The TDC models 301 to 303 and the TDC models 401 to 403 are graphs that are also obtained statistically, for example.

図3(a)と図3(b)とに示すように、TDCモデル301とTDCモデル401とは、ほぼ同じ形状のグラフとなっており、形状が著しく異なることはない。このように、血管においては、濃染の過程が術前と術後とで著しく異なることはなく、ほぼ一致する。同様に、TDCモデル302とTDCモデル402とは、ほぼ同じ形状のグラフとなっており、形状が著しく異なることはない。このように、正常な肝実質においては、濃染の過程が術前と術後とで著しく異なることはない。血管においては、早期相で輝度値が最大となり、時間とともに緩やかに輝度値が小さくなる。また、正常な肝実質においては、門脈相以降で輝度値が最大になり、その直後に輝度値が小さくなって元の大きさに下がる。   As shown in FIGS. 3A and 3B, the TDC model 301 and the TDC model 401 are graphs having substantially the same shape, and the shapes are not significantly different. In this way, in the blood vessels, the process of dark staining does not differ significantly before and after the operation, and is almost the same. Similarly, the TDC model 302 and the TDC model 402 are graphs having substantially the same shape, and the shapes are not significantly different. Thus, in normal liver parenchyma, the process of dark staining does not differ significantly before and after surgery. In blood vessels, the luminance value is maximized in the early phase and gradually decreases with time. In normal liver parenchyma, the luminance value becomes maximum after the portal phase, and immediately after that, the luminance value decreases to the original size.

一方、TDCモデル303とTDCモデル403とを比べると、形状が著しく異なっていることがわかる。すなわち、術前と術後とでは、腫瘍における造影剤の濃染の過程は著しく異なっている。術前では、早期相で輝度値が最大となり、直後に急激に輝度値が小さくなる。一方、術後では、焼灼によって組織が破壊されているため造影剤の濃染が発生せず、その結果、輝度値は変化しない。   On the other hand, when the TDC model 303 and the TDC model 403 are compared, it can be seen that the shapes are significantly different. That is, the process of dark staining of the contrast medium in the tumor is significantly different before and after surgery. Before the operation, the luminance value becomes maximum in the early phase, and immediately after that, the luminance value decreases rapidly. On the other hand, after the operation, since the tissue is destroyed by cauterization, dark staining of the contrast agent does not occur, and as a result, the luminance value does not change.

カーブモデル作成部3は、焼灼治療前(術前)と焼灼治療後(術後)とにおける血管のTDCモデル、正常な肝実質のTDCモデル、及び肝腫瘍のTDCモデルを作成する。この実施形態では、カーブモデル作成部3は、図3(a)と図3(b)とに示す一般的に推定されるTDCモデルを用いても良いし、実際に撮影された4D造影画像データに基づいて術前と術後とにおける各部位のTDCモデルを作成しても良い。図3に示す一般的に推定される各部位のTDCモデルは、データ記憶部10に予め記憶されている。各部位のTDCモデルには、各部位を示す識別情報が付帯されている。なお、カーブモデル作成部3が、この発明の「カーブモデル作成手段」の1例に相当し、TDCモデルが、この発明の「画素値曲線モデル」の1例に相当する。また、焼灼治療前(術前)におけるTDCモデルが、この発明の「第1の画素値曲線モデル」の1例に相当し、焼灼治療後(術後)におけるTDCモデルが、この発明の「第2の画素値曲線モデル」の1例に相当する。以下では、実際に撮影された4D造影画像データに基づいて各部位のTDCモデルを作成するための処理について説明する。   The curve model creation unit 3 creates a blood vessel TDC model, a normal liver parenchyma TDC model, and a liver tumor TDC model before and after ablation treatment (before surgery) and after ablation treatment (after surgery). In this embodiment, the curve model creation unit 3 may use a generally estimated TDC model shown in FIGS. 3A and 3B, or actually captured 4D contrast image data. Based on the above, a TDC model of each part before and after surgery may be created. The generally estimated TDC models shown in FIG. 3 are stored in advance in the data storage unit 10. Identification information indicating each part is attached to the TDC model of each part. The curve model creation unit 3 corresponds to an example of the “curve model creation means” of the present invention, and the TDC model corresponds to an example of the “pixel value curve model” of the present invention. In addition, the TDC model before the ablation treatment (before surgery) corresponds to one example of the “first pixel value curve model” of the present invention, and the TDC model after the ablation treatment (after surgery) corresponds to “ This corresponds to an example of “2 pixel value curve model”. Hereinafter, a process for creating a TDC model of each part based on actually captured 4D contrast image data will be described.

(カーブ作成部31)
カーブ作成部31は、術前に取得された4D造影画像データと、術後に取得された4D造影画像データとを画像記憶部9から読み込む。そして、カーブ作成部31は、ボリュームデータを構成する各ボクセルのTDCをそれぞれ求める。すなわち、カーブ作成部31は、4D造影画像データを構成する各時間におけるボリュームデータに基づいて、ボリュームデータを構成する各ボクセルの輝度値(画素値)の時間変化をボクセルごとに求める。この輝度値の時間変化がボクセルのTDCとして定義される。カーブ作成部31は、術前における4D造影画像データに基づいて術前における各ボクセルのTDCを求め、さらに、術後における4D造影画像データに基づいて術後における各ボクセルのTDCを求める。そして、カーブ作成部31は、術前と術後とにおける各ボクセルのTDCを、分類部32とマスク作成部4の第1分類部41とに出力する。また、カーブ作成部31は、術前と術後とにおける各ボクセルのTDCをデータ記憶部10に記憶させる。なお、カーブ作成部31は、術前における各ボクセルのTDCに、術前に取得された画像に基づくデータであることを示す識別情報を付帯させ、術後における各ボクセルのTDCに、術後の取得された画像に基づくデータであることを示す識別情報を付帯させる。なお、カーブ作成部31が、この発明の「カーブ作成手段」の1例に相当し、各ボクセルのTDCがこの発明の「輝度曲線」の1例に相当する。また、焼灼治療前(術前)における各ボクセルのTDCが、この発明の「第1の画素値曲線」の1例に相当し、焼灼治療後(術後)における各ボクセルのTDCが、この発明の「第2の画素値曲線」の1例に相当する。
(Curve creation unit 31)
The curve creation unit 31 reads the 4D contrast image data acquired before the operation and the 4D contrast image data acquired after the operation from the image storage unit 9. Then, the curve creation unit 31 obtains the TDC of each voxel constituting the volume data. That is, the curve creation unit 31 obtains the time change of the luminance value (pixel value) of each voxel constituting the volume data for each voxel based on the volume data at each time constituting the 4D contrast image data. This change in luminance value over time is defined as the voxel TDC. The curve creation unit 31 obtains the TDC of each voxel before the operation based on the 4D contrast image data before the operation, and further obtains the TDC of each voxel after the operation based on the 4D contrast image data after the operation. Then, the curve creation unit 31 outputs the TDC of each voxel before and after the operation to the classification unit 32 and the first classification unit 41 of the mask creation unit 4. Further, the curve creation unit 31 stores the TDC of each voxel in the data storage unit 10 before and after the operation. The curve creation unit 31 attaches identification information indicating that the data is based on an image acquired before the operation to the TDC of each voxel before the operation, and adds a post-operation to the TDC of each voxel after the operation. Identification information indicating that the data is based on the acquired image is attached. The curve creation unit 31 corresponds to an example of the “curve creation means” of the present invention, and the TDC of each voxel corresponds to an example of the “luminance curve” of the present invention. The TDC of each voxel before the ablation treatment (before surgery) corresponds to one example of the “first pixel value curve” of the present invention, and the TDC of each voxel after the ablation treatment (after surgery) is the present invention. Corresponds to an example of the “second pixel value curve”.

また、各部位における輝度値(輝度値)の変化率の時間変化を表す曲線をTDCとしても良い。この場合、カーブ作成部31は、各ボクセルにおける輝度値の変化率の時間変化を求め、変化率の時間変化を表す曲線を、各ボクセルのTDCとして定義する。この実施形態では1例として、輝度値の時間変化を表す曲線をTDCとして、各処理について説明する。   Further, a curve representing the change over time of the change rate of the luminance value (luminance value) in each part may be TDC. In this case, the curve creation unit 31 obtains the time change of the change rate of the luminance value in each voxel and defines a curve representing the time change of the change rate as the TDC of each voxel. In this embodiment, as an example, each process will be described using a curve representing a temporal change in luminance value as TDC.

(分類部32)
分類部32は、公知の方法によって、術前における各ボクセルのTDCを類似するカーブごとに分類し、さらに、術後における各ボクセルのTDCを類似するカーブごとに分類する。例えば、分類部32は、各ボクセルのTDCをフィッティングさせ、輝度値(曲線の形状)の差異が所定の範囲内に含まれるTDCを類似するカーブとして分類する。なお、分類部32が、この発明の「分類手段」の1例に相当する。
(Classification part 32)
The classification unit 32 classifies the TDC of each voxel before surgery for each similar curve by a known method, and further classifies the TDC of each voxel after surgery for each similar curve. For example, the classification unit 32 fits the TDCs of the voxels, and classifies the TDCs having differences in luminance values (curve shapes) within a predetermined range as similar curves. The classification unit 32 corresponds to an example of “classification means” of the present invention.

(平均カーブ作成部33)
そして、平均カーブ作成部33は、分類ごとにTDCの輝度値(画素値)の平均値を求めることで、輝度値の平均値を有する平均TDCを分類ごとに求める。これにより、平均カーブ作成部33は、輝度値が平均値となる平均TDCを、術前のTDCと術後のTDCとについてそれぞれ求める。そして、平均カーブ作成部33は、術前における各平均TDCと、術後における各平均TDCとをカーブモデル特定部34に出力する。なお、平均カーブ作成部33が、この発明の「平均カーブ作成手段」の1例に相当し、平均TDCが、この発明の「平均画素値曲線」の1例に相当する。
(Average curve creation unit 33)
Then, the average curve creation unit 33 obtains an average TDC luminance value (pixel value) for each classification, thereby obtaining an average TDC having an average luminance value for each classification. Thereby, the average curve creation part 33 calculates | requires the average TDC from which a luminance value becomes an average value about TDC before an operation and TDC after an operation, respectively. Then, the average curve creating unit 33 outputs each average TDC before the operation and each average TDC after the operation to the curve model specifying unit 34. The average curve creation unit 33 corresponds to an example of the “average curve creation unit” of the present invention, and the average TDC corresponds to an example of the “average pixel value curve” of the present invention.

(カーブモデル特定部34)
カーブモデル特定部34は、一般的に推定される各部位におけるTDCモデルをデータ記憶部10から読み込み、各平均TDCと一般的に推定される各部位におけるTDCモデルとを比較して、各平均TDCがいずれの部位におけるTDCに該当するかを特定する。カーブモデル特定部34は、術前の平均TDCと術後の平均TDCとについてそれぞれ、各平均TDCがいずれの部位におけるTDCに該当するかを特定する。すなわち、カーブモデル特定部34は、術前の各平均TDCと、術前の各部位における一般的なTDCモデルとを比較して、術前の各平均TDCがいずれの部位におけるTDCに該当するかを特定する。同様に、カーブモデル特定部34は、術後の各平均TDCと、術後の各部位における一般的なTDCモデルとを比較して、術後の各平均TDCがいずれの部位におけるTDCに該当するかを特定する。
(Curve model specifying unit 34)
The curve model specifying unit 34 reads a TDC model at each generally estimated portion from the data storage unit 10, compares each average TDC with a TDC model at each generally estimated portion, and calculates each average TDC. Specifies the TDC in which part. The curve model specifying unit 34 specifies, for each of the average TDC before the operation and the average TDC after the operation, which average TDC corresponds to the TDC in which part. That is, the curve model specifying unit 34 compares each average TDC before surgery with a general TDC model at each site before surgery, and which average TDC before surgery corresponds to the TDC at which site. Is identified. Similarly, the curve model specifying unit 34 compares each post-operative average TDC with a general TDC model at each postoperative site, and each postoperative average TDC corresponds to a TDC at any site. To identify.

具体的には、カーブモデル特定部34は、術前と術後とにおける各平均TDCが、血管におけるTDCモデル、腫瘍におけるTDCモデル、又は正常肝実質におけるTDCモデルのうち、いずれのTDCモデルに該当するかを特定する。これにより、術前と術後とにおける各平均TDCを、部位ごとに分類することができる。そして、カーブモデル特定部34は、部位ごとに分類した各平均TDCを、各部位におけるTDCモデルとして定義する。なお、カーブモデル特定部34は、各部位におけるTDCモデルに、各部位を示す識別情報を付帯させる。例えば、平均TDCが、血管におけるTDCモデルに該当する場合は、その平均TDCは血管における輝度値の時間変化を表していることになる。この場合、カーブモデル特定部34は、血管におけるTDCモデルとして定義された平均TDCに、血管を示す識別情報を付帯させる。このようにして、カーブモデル特定部34は、術前と術後とにおける各平均TDCを、各部位に分類する。   Specifically, in the curve model specifying unit 34, each average TDC before and after surgery corresponds to any TDC model among a TDC model in blood vessels, a TDC model in tumors, or a TDC model in normal liver parenchyma. Identify what to do. Thereby, each average TDC before and after operation can be classified for each region. And the curve model specific | specification part 34 defines each average TDC classified for every site | part as a TDC model in each site | part. Note that the curve model specifying unit 34 adds identification information indicating each part to the TDC model in each part. For example, when the average TDC corresponds to a TDC model in a blood vessel, the average TDC represents a change in luminance value over time in the blood vessel. In this case, the curve model specifying unit 34 adds identification information indicating the blood vessel to the average TDC defined as the TDC model in the blood vessel. In this way, the curve model specifying unit 34 classifies each average TDC before and after surgery into each part.

例えば、カーブモデル特定部34は、各平均TDCが表す曲線の特徴を特定し、一般的に推定されるTDCモデルが表す曲線の特徴を特定する。そして、カーブモデル特定部34は、各平均TDCが表す曲線の特徴と、一般的に推定されるTDCモデルが表す曲線の特徴とを比べることで、各平均TDCがいずれのTDCモデルに該当するかを特定する。1例として、カーブモデル特定部34は、所定時相間における輝度値の変化量を各平均TDCについて求め、さらに、所定時相間における輝度値の変化量を各TDCモデルについて求める。そして、カーブモデル特定部34は、各平均TDCの変化量とTDCモデルの変化量との差を求め、変化量の差が所定値以内に含まれる平均TDCを、そのTDCモデルとして定義する。   For example, the curve model specifying unit 34 specifies the characteristics of the curve represented by each average TDC, and specifies the characteristics of the curve represented by the generally estimated TDC model. Then, the curve model specifying unit 34 compares the characteristic of the curve represented by each average TDC with the characteristic of the curve represented by the generally estimated TDC model, to which TDC model each average TDC corresponds. Is identified. As an example, the curve model specifying unit 34 obtains the amount of change in luminance value between predetermined time phases for each average TDC, and further obtains the amount of change in luminance value between predetermined time phases for each TDC model. Then, the curve model specifying unit 34 obtains a difference between the change amount of each average TDC and the change amount of the TDC model, and defines an average TDC in which the difference of the change amount is included within a predetermined value as the TDC model.

分類された平均TDCは、その部位のTDCモデルを表していることになり、その部位のTDCモデルとして定義される。これにより、実際に撮影された4D造影画像データに基づくTDCモデルが作成されたことになる。そして、術前と術後とにおける各部位のTDCモデルは、データ記憶部10に記憶される。なお、カーブモデル特定部34が、この発明の「カーブモデル特定手段」の1例に相当する。また、一般的に推定されるTDCモデルが、この発明の「推定画素値曲線モデル」の1例に相当する。   The classified average TDC represents the TDC model of the part, and is defined as the TDC model of the part. As a result, a TDC model based on actually captured 4D contrast image data is created. The TDC model of each part before and after the operation is stored in the data storage unit 10. The curve model specifying unit 34 corresponds to an example of “curve model specifying means” of the present invention. A generally estimated TDC model corresponds to an example of the “estimated pixel value curve model” of the present invention.

(マスク作成部4)
マスク作成部4は、第1分類部41と第2分類部42とを備えて、ボリュームデータを構成する各ボクセルを各部位に分類することで、各部位の領域を示すマスク情報を作成する。以下、第1分類部41の処理内容と第2分類部42の処理内容とについて説明する。
(Mask creation unit 4)
The mask creation unit 4 includes a first classification unit 41 and a second classification unit 42, and creates mask information indicating the region of each part by classifying each voxel constituting the volume data into each part. Hereinafter, the processing content of the first classification unit 41 and the processing content of the second classification unit 42 will be described.

(第1分類部41)
第1分類部41は、術前と術後とにおける各ボクセルのTDCをカーブ作成部31から受け付け、さらに、術前と術後とにおける各部位のTDCモデルをデータ記憶部10から読み込む。そして、第1分類部41は、各ボクセルのTDCと、各部位のTDCモデルとを比較して、各ボクセルのTDCがいずれの部位のTDCモデルに該当するかを特定することで、各ボクセルのTDCを各部位に分類する。例えば、第1分類部41は、各ボクセルのTDCと、各部位のTDCモデルとを比較して、各ボクセルのTDCがそれぞれ類似するTDCモデルを特定することで、各ボクセルのTDCがいずれの部位のTDCモデルに該当するかを特定する。1例として、第1分類部41は、所定時相間における輝度値の変化量を各ボクセルのTDCについて求め、さらに、所定時相間における輝度値の変化量を各部位のTDCモデルについて求める。そして、第1分類部41は、各ボクセルの変化量とTDCモデルの変化量との差を求め、変化量の差が所定値以内に含まれるボクセルのTDCを、その部位のTDCモデルに類似するTDCとする。このようにして、第1分類部41は、各ボクセルのTDCに類似するTDCモデルを特定する。なお、各ボクセルのTDCと、TDCモデルとの類似度の分析は、公知の類似評価関数を用いて行うことができる。
(First classification unit 41)
The first classification unit 41 receives the TDC of each voxel before and after the operation from the curve creation unit 31, and further reads the TDC model of each part before and after the operation from the data storage unit 10. Then, the first classification unit 41 compares the TDC of each voxel with the TDC model of each part, and identifies which part of the TDC model the TDC of each voxel corresponds to. TDC is classified into each site. For example, the first classification unit 41 compares the TDC of each voxel with the TDC model of each part and specifies a TDC model in which the TDC of each voxel is similar, so that the TDC of each voxel is in any part. It is specified whether it corresponds to the TDC model. As an example, the first classification unit 41 obtains the amount of change in luminance value between predetermined time phases for the TDC of each voxel, and further obtains the amount of change in luminance value between predetermined time phases for the TDC model of each part. Then, the first classification unit 41 obtains the difference between the change amount of each voxel and the change amount of the TDC model, and the TDC of the voxel in which the difference of the change amount is included within a predetermined value is similar to the TDC model of the part. TDC. Thus, the 1st classification | category part 41 specifies the TDC model similar to TDC of each voxel. The similarity analysis between the TDC of each voxel and the TDC model can be performed using a known similarity evaluation function.

第1分類部41は、術前における各ボクセルのTDCと、術前における各部位のTDCモデルとを比較することで、術前における各ボクセルのTDCを各部位に分類する。同様に、第1分類部41は、術後における各ボクセルのTDCと、術後における各部位のTDCモデルとを比較することで、術後における各ボクセルのTDCを各部位に分類する。これにより、第1分類部41は、各ボクセルが各部位に分類された第1マスク情報を作成する。第1分類部41は、術前における第1マスク情報と、術後における第1マスク情報とを作成する。このとき、第1分類部41は、カーブモデル特定部34によって定義された各部位のTDCモデルを用いて特定しても良いし、一般的に推定されるTDCモデルを用いて特定しても良い。   The first classification unit 41 classifies the TDC of each voxel before surgery into each site by comparing the TDC of each voxel before surgery and the TDC model of each site before surgery. Similarly, the 1st classification | category part 41 classifies TDC of each voxel after surgery into each site | part by comparing TDC of each voxel after surgery with the TDC model of each site | part after surgery. Accordingly, the first classification unit 41 creates first mask information in which each voxel is classified into each part. The first classification unit 41 creates first mask information before surgery and first mask information after surgery. At this time, the 1st classification | category part 41 may specify using the TDC model of each site | part defined by the curve model specific | specification part 34, and may specify using the TDC model generally estimated. .

例えば、第1分類部41は、各ボクセルの位置に、該当する部位を示す識別情報を割り当てる。具体的には、第1分類部41は、TDCが血管のTDCモデルに該当するボクセルの位置に、血管を示す識別情報を割り当てる。また、第1分類部41は、TDCが肝腫瘍のTDCモデルに該当するボクセルの位置に、肝腫瘍を示す識別情報を割り当てる。さらに、第1分類部41は、TDCが正常肝実質のTDCモデルに該当するボクセルの位置に、正常肝実質を示す識別情報を割り当てる。さらに、第1分類部41は、TDCが、血管、肝腫瘍、及び正常肝実質のいずれにも該当しないボクセルの位置に、非画像領域(処理対象外の領域)を示す識別情報を割り当てる。非画像領域は、画像の位置合わせに用いられない画像領域を表している。これにより、第1マスク情報は、各部位の領域を表すことになる。第1マスク情報は、3次元のボリュームデータを構成する各ボクセルに、部位を示す識別情報を割り当てた情報であるため、3次元のマスク情報である。   For example, the first classification unit 41 assigns identification information indicating a corresponding part to the position of each voxel. Specifically, the first classification unit 41 assigns identification information indicating a blood vessel to a voxel position where the TDC corresponds to a TDC model of the blood vessel. The first classification unit 41 assigns identification information indicating a liver tumor to the position of a voxel whose TDC corresponds to the TDC model of the liver tumor. Further, the first classification unit 41 assigns identification information indicating normal liver parenchyma to the position of a voxel whose TDC corresponds to a TDC model of normal liver parenchyma. Furthermore, the first classification unit 41 assigns identification information indicating a non-image region (non-processing region) to a voxel position where the TDC does not correspond to any of a blood vessel, a liver tumor, and normal liver parenchyma. The non-image area represents an image area that is not used for image alignment. As a result, the first mask information represents the region of each part. The first mask information is three-dimensional mask information because it is information in which identification information indicating a part is assigned to each voxel constituting three-dimensional volume data.

例えば、識別情報として数値を用いる。1例として、血管を表す数値(識別情報)を「0」とし、肝腫瘍を表す数値を「1」とし、正常肝実質を表す数値を「2」とし、非画像領域を表す数値を「−1」とする。そして、第1分類部41は、TDCが血管のTDCモデルに該当するボクセルの位置に、血管を示す数値「0」を割り当てる。また、第1分類部41は、TDCが肝腫瘍のTDCモデルに該当するボクセルの位置に、肝腫瘍を示す数値「1」を割り当てる。また、第1分類部41は、TDCが正常肝実質に該当するボクセルの位置に、正常肝実質を示す数値「2」を割り当てる。さらに、第1分類部41は、TDCが、血管、肝腫瘍、及び正常肝実質のいずれにも該当しないボクセルの位置に、非画像領域を示す数値「−1」を割り当てる。なお、識別情報として用いる数値を、以下では「クラスタリング値」と称する場合がある。   For example, a numerical value is used as identification information. As an example, a numerical value (identification information) representing a blood vessel is “0”, a numerical value representing a liver tumor is “1”, a numerical value representing a normal liver parenchyma is “2”, and a numerical value representing a non-image area is “−”. 1 ”. Then, the first classification unit 41 assigns a numerical value “0” indicating the blood vessel to the position of the voxel whose TDC corresponds to the TDC model of the blood vessel. In addition, the first classification unit 41 assigns a numerical value “1” indicating a liver tumor to the position of a voxel whose TDC corresponds to a TDC model of a liver tumor. In addition, the first classification unit 41 assigns a numerical value “2” indicating the normal liver parenchyma to the position of the voxel whose TDC corresponds to the normal liver parenchyma. Furthermore, the first classification unit 41 assigns a numerical value “−1” indicating a non-image area to a voxel position where the TDC does not correspond to any of a blood vessel, a liver tumor, and normal liver parenchyma. Note that numerical values used as identification information may be referred to as “clustering values” below.

以上のように、第1分類部41は、部位を示す識別情報が各ボクセルの位置に割り当てられた第1マスク情報を作成する。第1分類部41は、術前における各ボクセルのTDCと、術前における各部位のTDCモデルとを比較することで、術前における第1マスク情報を作成する。同様に、第1分類部41は、術後における各ボクセルのTDCと、術後における各部位のTDCモデルとを比較することで、術後における第1マスク情報を作成する。   As described above, the first classification unit 41 creates first mask information in which identification information indicating a part is assigned to the position of each voxel. The first classification unit 41 creates first mask information before surgery by comparing the TDC of each voxel before surgery with the TDC model of each site before surgery. Similarly, the first classification unit 41 creates first mask information after surgery by comparing the TDC of each voxel after surgery with the TDC model of each site after surgery.

ここで、マスク情報について図4を参照して説明する。図4は、マスク情報を模式的に示す図である。画像500は、術前に取得されたボリュームデータに基づく画像である。マスク501は、第1分類部41によって各部位の識別情報が割り当てられる前のマスクを示しており、ボリュームデータの各ボクセルの位置を模式的に表している。第1マスク情報510は、第1分類部41によって作成された術前における第1マスク情報である。また、画像600は、術後に取得されたボリュームデータに基づく画像である。マスク510は、第1分類部41によって各部位の識別情報が割り当てられる前のマスクを示しており、ボリュームデータの各ボクセルの位置を模式的に表している。第1マスク情報610は、第1分類部41によって作成された術後における第1マスク情報である。なお、図4においては、説明の便宜上、第1マスク情報510と第2マスク情報610とを平面的に表わしている。この実施形態では、ボリュームデータを構成する各ボクセルに部位を示す識別情報を割り当てることで第1マスク情報を作成しているため、第1マスク情報510と第2マスク情報610とは、部位を示す識別情報が3次元の領域に分布して割り当てられた情報である。   Here, the mask information will be described with reference to FIG. FIG. 4 is a diagram schematically showing mask information. The image 500 is an image based on volume data acquired before surgery. A mask 501 indicates a mask before the identification information of each part is assigned by the first classification unit 41, and schematically represents the position of each voxel in the volume data. The first mask information 510 is pre-operative first mask information created by the first classification unit 41. The image 600 is an image based on volume data acquired after surgery. A mask 510 shows a mask before the identification information of each part is assigned by the first classification unit 41, and schematically shows the position of each voxel in the volume data. The first mask information 610 is first post-operative mask information created by the first classification unit 41. In FIG. 4, for convenience of explanation, the first mask information 510 and the second mask information 610 are planarly represented. In this embodiment, the first mask information 510 and the second mask information 610 indicate a part because the first mask information is created by assigning identification information indicating the part to each voxel constituting the volume data. The identification information is information allocated and distributed in a three-dimensional area.

第1マスク情報510と第2マスク情報610とにおいて、数値「0」が割り当てられている領域が血管の領域を示し、数値「1」が割り当てられている領域が肝腫瘍の領域を示し、数値「2」が割り当てられている領域が「正常肝実質」の領域を表している。また、数値「−1」が割り当てられている領域が「非画像領域」を表している。腫瘍の領域においては、術前と術後とで輝度値(画素値)が変化するが、腫瘍以外の領域においては、術前と術後とで輝度値(画素値)は変化しない。   In the first mask information 510 and the second mask information 610, the region to which the numerical value “0” is assigned indicates the blood vessel region, the region to which the numerical value “1” is assigned indicates the liver tumor region, and the numerical value The area to which “2” is assigned represents the “normal liver parenchyma” area. An area to which the numerical value “−1” is assigned represents a “non-image area”. In the tumor region, the luminance value (pixel value) changes before and after the operation, but in the region other than the tumor, the luminance value (pixel value) does not change before and after the operation.

第1分類部41は、術前と術後とにおける第1マスク情報を、第2分類部42とデータ記憶部10とに出力する。データ記憶部10は、術前と術後とにおける第1マスク情報を記憶する。なお、第1分類部41が、この発明の「第1分類手段」の1例に相当する。   The first classification unit 41 outputs the first mask information before and after the operation to the second classification unit 42 and the data storage unit 10. The data storage unit 10 stores first mask information before and after surgery. The first classification unit 41 corresponds to an example of the “first classification unit” of the present invention.

(第2分類部42)
第2分類部42は、第1分類部41から出力された第1マスク情報を受け付けて、第1マスク情報に表わされた領域のうち、画像の位置合わせの対象に適さない領域を、非画像領域に再分類する。この再分類によって作成されたマスク情報を第2マスク情報とする。例えば、第2分類部42は、TDCモデルの形状が術前と術後とにおいてほぼ一致する部位以外の部位の領域を、第1マスク情報から除外することで第2マスク情報を作成する。TDCモデルの形状が術前と術後とにおいてほぼ一致する部位以外の部位では、輝度値(画素値)が著しく変化するため、画像の位置合わせの対象に適さない。そのため、輝度値が著しく変化する部位の領域を第1マスク情報から除外する。
(Second classification unit 42)
The second classifying unit 42 receives the first mask information output from the first classifying unit 41, and selects a region that is not suitable for image alignment among the regions represented by the first mask information. Reclassify to image area. The mask information created by this reclassification is set as second mask information. For example, the second classification unit 42 creates the second mask information by excluding, from the first mask information, the region of the region other than the region where the shape of the TDC model substantially matches before and after the operation. Since the luminance value (pixel value) changes remarkably in a part other than the part where the shape of the TDC model is substantially the same before and after the operation, it is not suitable for the image alignment target. Therefore, the region of the part where the luminance value changes remarkably is excluded from the first mask information.

この実施形態では、第1分類部41によって肝腫瘍に分類された領域を第1マスク情報から除外するために、肝腫瘍に分類された領域を非画像領域に再分類する。具体的には、第2分類部42は、数値「1」が割り当てられているボクセルの位置に、非画像領域を示す数値「−1」を割り当てる。腫瘍の領域においては、術前と術後とで輝度値(画素値)が著しく変化するため、腫瘍の領域は、画像の位置合わせの対象に適さない。例えば図3に示すように、腫瘍の領域においては、術前と術後とでTDCモデルの形状が著しく異なり、その形状がほぼ一致することはない。そのため、肝腫瘍に分類されたボクセルを位置合わせの対象から外すために、肝腫瘍に該当するボクセル(領域)を非画像領域に再分類する。第2分類部42は、第2マスク情報を画像処理部5の特徴量画像生成部6に出力する。また、第2マスク情報をデータ記憶部10に記憶させる。なお、第2分類部42が、この発明の「第2分類手段」の1例に相当する。   In this embodiment, in order to exclude the region classified as a liver tumor by the first classification unit 41 from the first mask information, the region classified as a liver tumor is reclassified as a non-image region. Specifically, the second classification unit 42 assigns a numerical value “−1” indicating a non-image area to the position of the voxel to which the numerical value “1” is assigned. In the tumor region, the luminance value (pixel value) changes significantly between before and after the operation, so that the tumor region is not suitable for image alignment. For example, as shown in FIG. 3, in the tumor region, the shape of the TDC model is significantly different before and after the operation, and the shapes do not almost coincide. Therefore, the voxels (regions) corresponding to the liver tumors are reclassified into the non-image regions in order to exclude the voxels classified as the liver tumors from the target for alignment. The second classification unit 42 outputs the second mask information to the feature amount image generation unit 6 of the image processing unit 5. Further, the second mask information is stored in the data storage unit 10. The second classification unit 42 corresponds to an example of the “second classification unit” of the present invention.

(画像処理部5)
画像処理部5は、特徴量画像生成部6と、位置合わせ部51と、表示画像生成部52とを備えて、画像の位置合わせに用いられる特徴量画像データの生成、画像の位置合わせ、及び、表示用の画像データの作成を行う。以下、特徴量画像生成部6と、位置合わせ部51と、表示画像生成部52とについて説明する。
(Image processing unit 5)
The image processing unit 5 includes a feature amount image generation unit 6, a registration unit 51, and a display image generation unit 52, and generates feature amount image data used for image registration, image registration, and The image data for display is created. Hereinafter, the feature amount image generation unit 6, the alignment unit 51, and the display image generation unit 52 will be described.

(特徴量画像生成部6)
特徴量画像生成部6は、第1画像生成部7と第2画像生成部8とを備えている。特徴量画像生成部6は、マスク作成部4から出力された第2マスク情報を受け付けて、その第2マスク情報に基づいて、画像の位置合わせに用いられる特徴量画像データを生成する。このとき、特徴量画像生成部6は、術前における第2マスク情報に基づいて術前における特徴量画像データを生成し、術後における第2マスク情報に基づいて術後における特徴量画像データを生成する。この実施形態では、第1画像生成部7と第2画像生成部8とで、それぞれ特徴量画像データを生成する。画像の位置合わせに用いる特徴量画像データとしては、第1画像生成部7によって生成された特徴量画像データを用いても良いし、第2画像生成部8によって生成された特徴量画像データを生成しても良い。なお、医用画像処理装置1は、第1画像生成部7と第2画像生成部8とを両方備えていても良いし、いずれか一方の画像生成部を備えていても良い。なお、特徴量画像生成部6が、この発明の「特徴量画像生成手段」の1例に相当する。
(Feature image generator 6)
The feature amount image generation unit 6 includes a first image generation unit 7 and a second image generation unit 8. The feature amount image generation unit 6 receives the second mask information output from the mask creation unit 4, and generates feature amount image data used for image alignment based on the second mask information. At this time, the feature amount image generation unit 6 generates preoperative feature amount image data based on the preoperative second mask information, and the postoperative feature amount image data based on the postoperative second mask information. Generate. In this embodiment, the first image generation unit 7 and the second image generation unit 8 respectively generate feature amount image data. As the feature amount image data used for image alignment, the feature amount image data generated by the first image generation unit 7 or the feature amount image data generated by the second image generation unit 8 may be generated. You may do it. The medical image processing apparatus 1 may include both the first image generation unit 7 and the second image generation unit 8, or may include either one of the image generation units. The feature amount image generation unit 6 corresponds to an example of “feature amount image generation means” of the present invention.

(第1画像生成部7)
第1画像生成部7は、第2マスク情報が示す各部位の領域に含まれる各ボクセルに、各ボクセルのTDCから特定される特徴量を割り当てることで、特徴量画像データを生成する。例えば、第1画像生成部7は、各ボクセルのTDCをデータ記憶部10から読み込み、任意時相間における輝度値(画素値)の変化量をボクセルごとに求める。ここでは、輝度値(画素値)の変化量が特徴量の1例に相当する。また、任意の時相は、操作者が操作部14を用いて指定することができる。操作者は操作部14を用いて所望の時相を指定する。具体的には、2つの異なる時相を指定する。操作部14によって指定された2つの時相を示す情報は、ユーザインターフェース(UI)12から画像処理部5に出力される。第1画像生成部7は、操作部14によって指定された2つの時相を示す情報を受け付けて、それら2つの時相の間における輝度値の変化量をボクセルごとに求める。この実施形態では、第1画像生成部7は、術前における各ボクセルのTDCをデータ記憶部10から読み込み、任意時相間における輝度値の変化量をボクセルごとに求め、さらに、術後における各ボクセルのTDCをデータ記憶部10から読み込み、任意時相間における輝度値の変化量をボクセルごとに求める。そして、第1画像生成部7は、マスク作成部4から出力された第2マスク情報を受け付け、その第2マスク情報に表わされている各部位の領域であって、非画像領域を除いた領域の各ボクセルの位置に、輝度値の変化量をマッピングする。具体的には、第1画像生成部7は、第2マスク情報のうち、非画像領域を示す値「−1」が割り当てられている領域(ボクセル)を除いて、血管を示す値「0」が割り当てられている領域と、正常肝実質を示す値「2」が割り当てられている領域とにそれぞれ、輝度値の変化量をマッピングする。上述したように、肝腫瘍に特定された領域には、非画像領域を示す値「−1」が割り当てられているため、肝腫瘍の領域には、輝度値の変化量はマッピングされない。非画像領域を除いて輝度値の変化量がマッピングされた画像データが、画像の位置合わせに用いられる特徴量画像データとなる。なお、説明の便宜上、第1画像生成部7によって生成された特徴量画像データを、「第1特徴量画像データ」と称することとする。第1画像生成部7は、第1特徴量画像データを位置合わせ部51と画像記憶部9とに出力する。画像記憶部9は、第1特徴量画像データを記憶する。
(First image generation unit 7)
The first image generation unit 7 generates feature amount image data by assigning a feature amount specified from the TDC of each voxel to each voxel included in each region indicated by the second mask information. For example, the first image generation unit 7 reads the TDC of each voxel from the data storage unit 10 and obtains the amount of change in luminance value (pixel value) between arbitrary time phases for each voxel. Here, the amount of change in luminance value (pixel value) corresponds to an example of a feature amount. An arbitrary time phase can be designated by the operator using the operation unit 14. The operator designates a desired time phase using the operation unit 14. Specifically, two different time phases are specified. Information indicating the two time phases designated by the operation unit 14 is output from the user interface (UI) 12 to the image processing unit 5. The first image generation unit 7 receives information indicating two time phases designated by the operation unit 14, and obtains the amount of change in luminance value between the two time phases for each voxel. In this embodiment, the first image generation unit 7 reads the TDC of each voxel before operation from the data storage unit 10, obtains the amount of change in luminance value between arbitrary time phases for each voxel, and further, each voxel after operation. Are read from the data storage unit 10, and the amount of change in luminance value between arbitrary time phases is obtained for each voxel. And the 1st image generation part 7 receives the 2nd mask information output from the mask preparation part 4, It is the area | region of each site | part represented by the 2nd mask information, Comprising: The non-image area | region was remove | excluded The amount of change in luminance value is mapped to the position of each voxel in the region. Specifically, the first image generation unit 7 excludes a region (voxel) to which a value “−1” indicating a non-image region is assigned in the second mask information, and a value “0” indicating a blood vessel. The amount of change in luminance value is mapped to the area to which is assigned and the area to which the value “2” indicating normal liver parenchyma is assigned. As described above, since the value “−1” indicating the non-image area is assigned to the area specified as the liver tumor, the change amount of the luminance value is not mapped in the area of the liver tumor. The image data in which the change amount of the luminance value is mapped except for the non-image area is the feature amount image data used for image alignment. For convenience of explanation, the feature amount image data generated by the first image generation unit 7 is referred to as “first feature amount image data”. The first image generation unit 7 outputs the first feature amount image data to the alignment unit 51 and the image storage unit 9. The image storage unit 9 stores first feature amount image data.

また、第1画像生成部7は、第2マスク情報が示す各部位の領域のうち、非画像領域を除いた領域で表わされる画像データを第1特徴量画像データとしても良い。すなわち、第1画像生成部7は、クラスタリング値(識別情報)が割り当てられている第2マスク情報をそのまま第1特徴量画像データとして用いても良い。ここでは、クラスタリング値(識別情報)が特徴量の1例に相当する。具体的には、第1画像生成部7は、第2マスク情報が示す領域のうち、非画像領域を示す値「−1」が割り当てられている領域を除いた画像データを、第1特徴量画像データと定義する。   In addition, the first image generation unit 7 may use, as the first feature amount image data, image data represented by a region excluding the non-image region among regions of each part indicated by the second mask information. That is, the first image generation unit 7 may use the second mask information to which the clustering value (identification information) is assigned as it is as the first feature amount image data. Here, the clustering value (identification information) corresponds to an example of the feature amount. Specifically, the first image generation unit 7 uses, as the first feature amount, image data obtained by excluding an area to which a value “−1” indicating a non-image area is assigned among the areas indicated by the second mask information. Defined as image data.

(第2画像生成部8)
第2画像生成部8は、変化量算出部81と画素値変換部82とを備えて、第1画像生成部7とは異なる処理によって特徴量画像データを生成する。第2画像生成部8によって生成された特徴量画像データを、「第2特徴量画像データ」と称することとする。医用画像診断装置の種類や造影濃染の時相などの撮影条件が異なる医用画像同士の位置を合わせたり、組織的に変化する領域の有無や焼灼された腫瘍領域の有無などの撮影対象が異なる医用画像同士の位置を合わせたりする場合がある。この実施形態では、(1)医用画像診断装置特有の輝度分布を考慮した輝度値(画素値)の調整、(2)撮影された時相が異なる画像同士の位置を合わせるための輝度値(画素値)の調整、及び、(3)位置合わせに適さない領域に対する輝度値(画素値)の設定を行って、位置合わせ用の特徴量画像データを生成する。この実施形態では、第2マスク情報において、肝腫瘍の領域が位置合わせに適さない領域に分類されているため、輝度値の設定(3)は、第2マスク情報によって行われている。第2画像生成部8は、輝度値の設定(1)と輝度値の設定(2)とを行って、位置合わせ用の特徴量画像データを生成する。
(Second image generation unit 8)
The second image generation unit 8 includes a change amount calculation unit 81 and a pixel value conversion unit 82, and generates feature amount image data by a process different from that of the first image generation unit 7. The feature amount image data generated by the second image generation unit 8 is referred to as “second feature amount image data”. Alignment of medical images with different imaging conditions such as the type of medical image diagnostic device and contrast dyeing time, or different imaging targets such as the presence or absence of a systematically changing region and the presence or absence of a cauterized tumor region In some cases, the positions of medical images are aligned. In this embodiment, (1) adjustment of a luminance value (pixel value) in consideration of a luminance distribution unique to a medical image diagnostic apparatus, and (2) a luminance value (pixel) for aligning positions of images taken at different time phases Value) and (3) setting a luminance value (pixel value) for an area unsuitable for alignment, and generating feature image data for alignment. In this embodiment, in the second mask information, the region of the liver tumor is classified as a region that is not suitable for alignment. Therefore, the luminance value setting (3) is performed by the second mask information. The second image generation unit 8 performs setting of luminance values (1) and setting of luminance values (2), and generates feature amount image data for alignment.

この実施形態では1例として、焼灼治療前(術前)においては、医用画像診断装置100にX線CT装置を用いて造影撮影することで4D造影画像データ(以下、「4DCT造影画像データ」と称する)を取得する。また、焼灼治療後(術後)においては、医用画像診断装置100に超音波診断装置を用いて造影撮影することで4D造影画像データ(以下、「4D超音波造影画像データ」と称する)を取得する。ここでは1例として、門脈相におけるCT造影画像の位置と、後期相における超音波画像の位置とを合わせる場合について説明する。第2画像生成部8は、医用画像診断装置の種類が異なる画像であって、撮影された時相が異なる画像の位置を合わせるために用いられる第2特徴量画像データを生成する。   In this embodiment, as an example, before ablation (preoperative), 4D contrast image data (hereinafter referred to as “4DCT contrast image data”) is obtained by performing contrast imaging using the X-ray CT apparatus for the medical image diagnostic apparatus 100. Obtain). Further, after ablation (postoperative), 4D contrast image data (hereinafter referred to as “4D ultrasound contrast image data”) is acquired by performing contrast imaging on the medical image diagnostic apparatus 100 using an ultrasound diagnostic apparatus. To do. Here, as an example, a case where the position of the CT contrast image in the portal phase is matched with the position of the ultrasonic image in the late phase will be described. The second image generation unit 8 generates second feature amount image data used for aligning positions of images having different types of medical image diagnostic apparatuses and having different time phases.

第2画像生成部8が第2特徴量画像データを生成する前の段階として、カーブモデル作成部3は、上述した処理と同様に、4DCT造影画像データに基づいて各ボクセルのTDCを求め、各ボクセルのTDCを類似するカーブごとに分類する。そして、カーブモデル作成部3は、分類ごとに平均TDCを求めて、術前における各部位のTDCモデルを特定する。同様に、カーブ作成部3は、4D超音波造影画像データに基づいて各ボクセルのTDCを求め、各ボクセルのTDCを類似するカーブごとに分類する。そして、カーブモデル作成部3は、分類ごとに平均TDCを求めて、術後における各部位のTDCモデルを特定する。上述したように、術前における各部位のTDCモデルと、術後における各部位のTDCモデルとを、データ記憶部10に記憶させる。   As a stage before the second image generation unit 8 generates the second feature amount image data, the curve model generation unit 3 obtains the TDC of each voxel based on the 4DCT contrast image data, similarly to the above-described processing, Classify voxel TDCs by similar curves. Then, the curve model creation unit 3 obtains an average TDC for each classification, and specifies the TDC model of each part before surgery. Similarly, the curve creation unit 3 obtains the TDC of each voxel based on the 4D ultrasound contrast image data, and classifies the TDC of each voxel for each similar curve. Then, the curve model creation unit 3 obtains an average TDC for each classification, and specifies the TDC model of each part after surgery. As described above, the TDC model of each part before surgery and the TDC model of each part after surgery are stored in the data storage unit 10.

また、マスク作成部4は、上述した処理と同様に、術前と術後とにおける各ボクセルのTDCを各部位に分類することで、術前の第1マスク情報と術後の第1マスク情報とを作成する。さらに、マスク作成部4は、肝腫瘍に分類された領域を非画像領域に分類することで、術前の第2マスク情報と術後の第2マスク情報とを作成する。術前の第2マスク情報は、4DCT造影画像データに基づいて作成されたマスク情報であり、術後の第2マスク情報は、4D超音波造影画像データに基づいて作成されたマスク情報である。上述したように、術前の第2マスク情報と術後の第2マスク情報とを、データ記憶部10に記憶させる。   Moreover, the mask preparation part 4 classify | categorizes TDC of each voxel before and after operation into each site | part similarly to the process mentioned above, The 1st mask information before an operation and the 1st mask information after an operation And create. Further, the mask creation unit 4 creates the pre-operative second mask information and the post-operative second mask information by classifying the region classified as a liver tumor into a non-image region. The second mask information before surgery is mask information created based on 4DCT contrast image data, and the second mask information after surgery is mask information created based on 4D ultrasound contrast image data. As described above, the preoperative second mask information and the postoperative second mask information are stored in the data storage unit 10.

ここで、術前における各部位のTDCモデルと、術後における各部位のTDCモデルとを図5を参照して説明する。図5は、時間に対する各部位の輝度の変化を表すグラフ(TDC)を示す図である。図5において、横軸が時間を示し、縦軸が画像の輝度を示している。TDCモデル701、702、703は、術前における4DCT造影画像データに基づいて作成されたTDCモデルである。TDCモデル711、712、713は、術後における4D超音波造影画像データに基づいて作成されたTDCモデルである。TDCモデル701は、術前における血管の輝度値(画素値)の時間変化を表している。また、TDCモデル702は、術前における正常な肝実質の輝度値の時間変化を表している。また、TDCモデル703は、術前における肝腫瘍の輝度値の時間変化を表している。一方、TDCモデル711は、術後における血管の輝度値の時間変化を表している。また、TDCモデル712は、術後における正常肝実質の輝度値の時間変化を表している。また、TDCモデル713は、術後における肝腫瘍の輝度値の時間変化を表している。   Here, a TDC model of each part before surgery and a TDC model of each part after surgery will be described with reference to FIG. FIG. 5 is a diagram showing a graph (TDC) showing a change in luminance of each part with respect to time. In FIG. 5, the horizontal axis indicates time, and the vertical axis indicates the luminance of the image. TDC models 701, 702, and 703 are TDC models created based on pre-operative 4DCT contrast image data. TDC models 711, 712, and 713 are TDC models created based on post-operative 4D ultrasound contrast image data. The TDC model 701 represents a temporal change in the luminance value (pixel value) of the blood vessel before the operation. The TDC model 702 represents a temporal change in the luminance value of normal liver parenchyma before operation. Further, the TDC model 703 represents a temporal change in the luminance value of the liver tumor before the operation. On the other hand, the TDC model 711 represents a temporal change in the luminance value of the blood vessel after the operation. The TDC model 712 represents a temporal change in the luminance value of normal liver parenchyma after the operation. A TDC model 713 represents a temporal change in the luminance value of the liver tumor after the operation.

(変化量算出部81)
変化量算出部81は、各部位について、術前のTDCモデルと術後のTDCモデルとの間の変化量を求める。1例として、術前の門脈相(時相t1)におけるCT造影画像の位置と、術後の後期相(時相t2)における超音波造影画像の位置とを合わせる場合について説明する。例えば、操作者が操作部14を用いて術前と術後とにおける所望の時相を指定すると、指定された時相は変化量算出部81に出力される。変化量算出部81は、術前の各部位におけるTDCモデルに基づいて、指定された時相における各部位の輝度値(画素値)を特定する。同様に、変化量算出部81は、術後の各部におけるTDCモデルに基づいて、指定された時相における各部位の輝度値(画素値)を特定する。なお、時相t1がこの発明の「第1時相」の1例に相当し、時相t2がこの発明の「第2時相」の1例に相当する。
(Change amount calculation unit 81)
The change amount calculation unit 81 obtains a change amount between the pre-operative TDC model and the post-operative TDC model for each part. As an example, a case where the position of the CT contrast image in the portal vein phase (time phase t1) before surgery and the position of the ultrasound contrast image in the later phase (time phase t2) after surgery will be described. For example, when the operator specifies a desired time phase before and after the operation using the operation unit 14, the specified time phase is output to the change amount calculation unit 81. The change amount calculation unit 81 specifies the luminance value (pixel value) of each part in the designated time phase based on the TDC model in each part before surgery. Similarly, the change amount calculation unit 81 specifies the luminance value (pixel value) of each part in the designated time phase based on the TDC model in each part after surgery. The time phase t1 corresponds to an example of the “first time phase” of the present invention, and the time phase t2 corresponds to an example of the “second time phase” of the present invention.

例えば、操作者が操作部14を用いて術前の門脈相(時相t1)を指定すると、変化量算出部81は、術前の各部位のTDCモデルに基づいて、門脈相における各部位の輝度値(画素値)を特定する。具体的には、変化量算出部81は、術前における血管のTDCモデル701に基づいて、門脈相(時相t1)における血管の輝度値(画素値)を特定する。また、変化量算出部81は、術前における正常肝実質のTDCモデル702に基づいて、門脈相(時相t1)における正常肝実質の輝度値(画素値)を特定する。   For example, when the operator designates the preoperative portal vein phase (time phase t1) using the operation unit 14, the change amount calculating unit 81 determines each of the portal vein phases based on the TDC model of each site before surgery. The luminance value (pixel value) of the part is specified. Specifically, the change amount calculation unit 81 specifies the luminance value (pixel value) of the blood vessel in the portal vein phase (time phase t1) based on the TDC model 701 of the blood vessel before surgery. Further, the change amount calculation unit 81 specifies the luminance value (pixel value) of the normal liver parenchyma in the portal phase (time phase t1) based on the TDC model 702 of the normal liver parenchyma before operation.

また、操作者が操作部14を用いて術後の後期相(時相t2)を指定すると、変化量算出部81は、術後の各部のTDCモデルに基づいて、後期相における各部位の輝度値(画素値)を特定する。具体的には、変化量算出部81は、術後における血管のTDCモデル711に基づいて、後期相(時相t2)における血管の輝度値(画素値)を特定する。また、変化量算出部81は、術後における正常肝実質のTDCモデル712に基づいて、後期相(時相t2)における正常肝実質の輝度値(画素値)を特定する。   Further, when the operator designates the later phase (time phase t2) after the operation using the operation unit 14, the change amount calculation unit 81 determines the luminance of each part in the later phase based on the TDC model of each part after the operation. Specify the value (pixel value). Specifically, the change amount calculation unit 81 identifies the luminance value (pixel value) of the blood vessel in the late phase (time phase t2) based on the TDC model 711 of the blood vessel after surgery. Further, the change amount calculation unit 81 specifies the luminance value (pixel value) of the normal liver parenchyma in the late phase (time phase t2) based on the TDC model 712 of the normal liver parenchyma after the operation.

そして、変化量算出部81は、術前の輝度値(画素値)と術後の輝度値(画素値)との差分を、各部位についてそれぞれ求める。例えば血管における輝度値の差分を求める場合、図5に示すように、変化量算出部81は、術前の門脈相(時相t1)における血管の輝度値と、術後の後期相(時相t2)における血管の輝度値との差分b1を求める。同様に、正常肝実質における輝度値の差分を求める場合、変化量算出部81は、術前の門脈相(時相t1)における正常肝実質の輝度値と、術後の後期相(時相t2)における正常肝実質の輝度値との差分b2を求める。   Then, the change amount calculation unit 81 obtains the difference between the preoperative luminance value (pixel value) and the postoperative luminance value (pixel value) for each part. For example, when calculating the difference between the luminance values in the blood vessel, as shown in FIG. 5, the change amount calculation unit 81 calculates the luminance value of the blood vessel in the portal vein phase (time phase t1) before surgery and the later phase (time) after surgery. The difference b1 with the blood vessel luminance value in phase t2) is obtained. Similarly, when calculating the difference between the luminance values in the normal liver parenchyma, the change amount calculation unit 81 calculates the luminance value of the normal liver parenchyma in the portal vein phase (time phase t1) before surgery and the late phase (temporal phase after surgery). A difference b2 from the luminance value of normal liver parenchyma at t2) is obtained.

さらに、変化量算出部81は、後期相(時相t2)と門脈相(時相t1)との時間差Δtを求める。そして、変化量算出部81は、血管の輝度値(画素値)の差分b1を時間差Δtで除算することで、血管についての変化量(b1/Δt)を求める。同様に、変化量算出部81は、正常肝実質の差分b2を時間差Δtで除算することで、正常肝実質についての変化量(b2/Δt)を求める。変化量算出部81は、血管の変化量(b1/Δt)と、正常肝実質の変化量(b2/Δt)とを画素値変換部82に出力する。なお、変化量算出部81が、この発明の「変化量算出手段」の1例に相当する。   Further, the change amount calculation unit 81 obtains a time difference Δt between the late phase (time phase t2) and the portal phase (time phase t1). Then, the change amount calculation unit 81 calculates the change amount (b1 / Δt) for the blood vessel by dividing the difference b1 of the luminance value (pixel value) of the blood vessel by the time difference Δt. Similarly, the change amount calculation unit 81 calculates the change amount (b2 / Δt) for the normal liver parenchyma by dividing the difference b2 for the normal liver parenchyma by the time difference Δt. The change amount calculation unit 81 outputs the change amount (b1 / Δt) of the blood vessel and the change amount (b2 / Δt) of the normal liver parenchyma to the pixel value conversion unit 82. The change amount calculation unit 81 corresponds to an example of the “change amount calculation unit” of the present invention.

(画素値変換部82)
画素値変換部82は、位置合わせを行う2つの画像データのうち、一方の画像データの輝度値(画素値)を上記の変化量を用いることで、位置合わせの相手方となる他方の画像データの輝度値(画素値)に相当する輝度値(画素値)に変換する。この変換によって、医用画像診断装置の差異による輝度値の調整と、時相が異なることによる輝度値の調整とが行われたことになる。なお、変化量を用いて変換された輝度値が、この発明の「特徴量」の1例に相当する。
(Pixel value converter 82)
The pixel value conversion unit 82 uses the above-described change amount for the luminance value (pixel value) of one of the two pieces of image data to be aligned, so that the other image data that is the counterpart of the alignment is used. The luminance value (pixel value) corresponding to the luminance value (pixel value) is converted. By this conversion, the adjustment of the luminance value due to the difference in the medical image diagnostic apparatus and the adjustment of the luminance value due to the difference in time phase are performed. Note that the luminance value converted using the change amount corresponds to an example of the “feature amount” of the present invention.

例えば、術前の門脈相(時相t1)におけるCT造影画像の位置と、術後の後期相(時相t2)における超音波造影画像の位置とを合わせる場合、画素値変換部82は、術前の門脈相(時相t1)におけるCT造影画像データ(ボリュームデータ)を画像記憶部9から読み込み、さらに、術後の後期相(時相t2)における超音波造影画像データ(ボリュームデータ)を画像記憶部9から読み込む。さらに、画素値変換部82は、術前の第2マスク情報と術後の第2マスク情報とをデータ記憶部10から読み込む。   For example, when the position of the CT contrast image in the portal vein phase (time phase t1) before surgery and the position of the ultrasound contrast image in the later phase after surgery (time phase t2) are matched, the pixel value conversion unit 82 CT contrast image data (volume data) in the portal vein phase (time phase t1) before operation is read from the image storage unit 9, and ultrasound contrast image data (volume data) in the later phase (time phase t2) after surgery. Are read from the image storage unit 9. Furthermore, the pixel value conversion unit 82 reads the preoperative second mask information and the postoperative second mask information from the data storage unit 10.

そして、画素値変換部82は、術前の第2マスク情報を用いることで、術前の門脈相(時相t1)のCT造影画像データにおいて、血管の領域と正常肝実質の領域とを特定する。そして、画素値変換部82は、術前の門脈相のCT造影画像データにおける血管領域に含まれる各ボクセルの輝度値(画素値)を、血管の変化量(b1/Δt)を用いることで、術後の後期相における超音波造影画像データの輝度値(画素値)に相当する輝度値(画素値)に変換する。同様に、画素値変換部82は、術前の門脈相のCT造影画像データにおける正常肝実質の領域に含まれる各ボクセルの輝度値(画素値)を、正常肝実質の変化量(b2/Δt)を用いることで、術後の後期相における超音波造影画像データの輝度値(画素値)に相当する輝度値(画素値)に変換する。画素値変換部82によって変換された画像データを、「変換画像データ」と称することにする。   Then, the pixel value conversion unit 82 uses the second mask information before surgery to obtain the region of the blood vessel and the region of normal liver parenchyma in the CT contrast image data of the portal vein phase (time phase t1) before surgery. Identify. The pixel value conversion unit 82 uses the luminance value (pixel value) of each voxel included in the blood vessel region in the CT contrast image data of the portal vein phase before operation by using the change amount (b1 / Δt) of the blood vessel. The luminance value (pixel value) corresponding to the luminance value (pixel value) of the ultrasound contrast image data in the later phase after surgery is converted. Similarly, the pixel value conversion unit 82 converts the luminance value (pixel value) of each voxel included in the normal liver parenchymal region in the CT contrast image data of the portal phase before surgery to the normal liver parenchymal change amount (b2 / By using (Δt), the luminance value (pixel value) corresponding to the luminance value (pixel value) of the ultrasound contrast image data in the later phase after the operation is converted. The image data converted by the pixel value conversion unit 82 will be referred to as “converted image data”.

例えば、画素値変換部82は、術前の門脈相のCT造影画像データにおける血管領域に含まれる各ボクセルの輝度値(画素値)に、血管の変化量(b1/Δt)を乗算する。その乗算によって、術前の門脈相のCT造影画像データにおける血管領域に含まれる各ボクセルの輝度値(画素値)を、術後の後期相における超音波造影画像データの輝度値(画素値)に相当する輝度値(画素値)に変換する。同様に、画素値変換部82は、術前の門脈相のCT造影画像データにおける正常肝実質の領域に含まれる各ボクセルの輝度値(画素値)に、正常肝実質の変化量(b2/Δt)を乗算する。その乗算によって、術前の門脈相のCT造影画像データにおける正常肝実質に含まれる各ボクセルの輝度値(画素値)を、術後の後期相における超音波造影画像データの輝度値(画素値)に相当する輝度値(画素値)に変換する。   For example, the pixel value conversion unit 82 multiplies the luminance value (pixel value) of each voxel included in the blood vessel region in the CT contrast image data of the portal vein phase before surgery by the blood vessel change amount (b1 / Δt). By the multiplication, the luminance value (pixel value) of each voxel contained in the blood vessel region in the CT contrast image data of the portal vein phase before surgery is calculated, and the brightness value (pixel value) of the ultrasound contrast image data in the later phase after surgery. Is converted into a luminance value (pixel value) corresponding to. Similarly, the pixel value conversion unit 82 converts the normal liver parenchyma change amount (b2 //) into the luminance value (pixel value) of each voxel included in the normal liver parenchyma region in the CT contrast image data of the portal phase before surgery. Multiply [Delta] t). By the multiplication, the luminance value (pixel value) of each voxel included in the normal liver parenchyma in the CT contrast image data of the portal vein phase before surgery is obtained, and the brightness value (pixel value) of the ultrasound contrast image data in the later phase after surgery. ) Is converted into a luminance value (pixel value) corresponding to.

この変換処理によって、時相差に起因する輝度値(画素値)の差を調整し、さらに、医用画像診断装置の差異に起因する輝度値(画素値)の差を調整して、CT造影画像の位置と超音波造影画像の位置とを合わせることが可能となる。   This conversion process adjusts the difference in luminance value (pixel value) due to the time phase difference, and further adjusts the difference in luminance value (pixel value) due to the difference in the medical image diagnostic apparatus, so that the CT contrast image It becomes possible to match the position with the position of the ultrasound contrast image.

そして、画素値変換部82は、変換処理が施された術前の変換画像データ(ボリュームデータ)を術前の第2特徴量画像データとして定義し、術後の後期相における超音波造影画像データ(ボリュームデータ)を術後の第2特徴量画像データとして定義する。画素値変換部82は、術前と術後とにおける第2特徴量画像データを位置合わせ部51に出力する。   Then, the pixel value conversion unit 82 defines the pre-operative converted image data (volume data) that has been subjected to the conversion process as second pre-operative feature image data, and the contrast-enhanced image data in the later phase after the operation. (Volume data) is defined as post-operation second feature image data. The pixel value conversion unit 82 outputs the second feature amount image data before and after the operation to the alignment unit 51.

また、画素値変換部82は、術前の門脈相のCT造影画像データの輝度値(画素値)を変換する代わりに、術後の後期相における超音波造影画像データの輝度値(画素値)を変換しても良い。この場合、画素値変換部82は、術後の後期相の超音波造影画像データにおける血管領域に含まれる各ボクセルの輝度値を、血管の変化量(b1/Δt)を用いることで、術前の門脈相におけるCT造影画像データの輝度値に相当する輝度値に変換する。同様に、画素値変換部82は、術後の後期相の超音波造影画像データにおける正常肝実質の領域に含まれる各ボクセルの輝度値を、正常肝実質の変化量(b2/Δt)を用いることで、術前の門脈相におけるCT造影画像データの輝度値に相当する輝度値に変換する。このように、術後の超音波造影画像データの輝度値を変換した場合も、時相差に起因する輝度値の差を調整し、さらに、医用画像診断装置の差異に起因する輝度値の差を調整して、CT造影画像の位置と超音波造影画像の位置とを合わせることが可能となる。そして、画素値変換部82は、術前の門脈相におけるCT造影画像データを術前の第2特徴量画像データとして定義し、変換処理が施された術後の変換画像データを術後の第2特徴量画像データとして定義する。画素値変換部82は、術前と術後とにおける第2特徴量画像データを位置合わせ部51に出力する。なお、画素値変換部82が、この発明の「画素値変換手段」の1例に相当する。   In addition, the pixel value conversion unit 82 converts the luminance value (pixel value) of the ultrasound contrast image data in the later phase after surgery, instead of converting the brightness value (pixel value) of the CT contrast image data in the portal vein phase before surgery. ) May be converted. In this case, the pixel value conversion unit 82 uses the blood vessel change amount (b1 / Δt) as the luminance value of each voxel included in the blood vessel region in the later-phase ultrasound contrast image data after the operation, so that Are converted into luminance values corresponding to the luminance values of the CT contrast image data in the portal vein phase. Similarly, the pixel value conversion unit 82 uses the amount of change (b2 / Δt) of the normal liver parenchyma as the luminance value of each voxel included in the normal liver parenchyma region in the later-phase ultrasound contrast image data after the operation. Thus, the luminance value corresponding to the luminance value of the CT contrast image data in the portal vein phase before operation is converted. Thus, even when the luminance value of post-operative ultrasound contrast image data is converted, the luminance value difference due to the time phase difference is adjusted, and further the luminance value difference due to the difference in the medical image diagnostic apparatus is adjusted. It is possible to adjust the position of the CT contrast image and the position of the ultrasonic contrast image. Then, the pixel value conversion unit 82 defines the CT contrast image data in the portal vein phase before surgery as the second feature image data before surgery, and converts the post-operative converted image data subjected to the conversion processing to It defines as 2nd feature-value image data. The pixel value conversion unit 82 outputs the second feature amount image data before and after the operation to the alignment unit 51. The pixel value conversion unit 82 corresponds to an example of the “pixel value conversion unit” of the present invention.

なお、この実施形態では、第2画像生成部8は、異なる医用画像診断装置にて取得された術前の画像と術後の画像とを対象として、異なる時相で取得された画像の輝度値を調整したが、この発明はその処理に限定されない。例えば、第2画像生成部8は、同じ医用画像診断装置にて取得された術前の画像と術後の画像とを対象として、異なる時相で取得された画像の輝度値を調整しても良い。   In this embodiment, the second image generation unit 8 targets the pre-operative image and the post-operative image acquired by different medical image diagnostic apparatuses, and the luminance values of the images acquired at different time phases. However, the present invention is not limited to the processing. For example, even if the second image generation unit 8 adjusts the luminance values of images acquired at different time phases for a preoperative image and a postoperative image acquired by the same medical image diagnostic apparatus. good.

(位置合わせ部51)
位置合わせ部51は、特徴量画像生成部6から術前の特徴量画像データと術後の特徴量画像データとを受け付けて、術前の特徴量画像の位置と術後の特徴量画像の位置とを合わせる。
(Positioning part 51)
The alignment unit 51 accepts preoperative feature amount image data and postoperative feature amount image data from the feature amount image generation unit 6, and positions of the preoperative feature amount image and postoperative feature amount image. And match.

第1画像生成部7によって第1特徴量画像データを生成した場合は、位置合わせ部51は、第1画像生成部7によって生成された術前の第1特徴量画像データと術後の第1特徴量画像データとを受け付けて、術前の第1特徴量画像の位置と術後の第1特徴量画像の位置とを合わせる。また、第2画像生成部8によって第2特徴量画像データを生成した場合は、位置合わせ部51は、第2画像生成部7によって生成された術前の第2特徴量画像データと術後の第2特徴量画像データとを受け付けて、術前の第2特徴量画像の位置と術後の第2特徴量画像の位置とを合わせる。   When the first feature amount image data is generated by the first image generation unit 7, the registration unit 51 and the first post-operative first feature amount image data generated by the first image generation unit 7. The feature amount image data is received, and the position of the first feature amount image before the operation and the position of the first feature amount image after the operation are matched. Further, when the second feature amount image data is generated by the second image generation unit 8, the alignment unit 51 and the pre-operation second feature amount image data generated by the second image generation unit 7 and the post-operation amount. The second feature amount image data is received, and the position of the second feature amount image before the operation and the position of the second feature amount image after the operation are matched.

この実施形態では、位置合わせ部51は、特徴量画像に対してMI法(Mutual infomation法)を適用して画像の位置合わせを行う。例えば、位置合わせ部51は、術前の第1特徴量画像と術後の第1特徴量画像とに対してMI法を適用することで、画像の位置合わせを行う。また、位置合わせ部51は、術前の第2特徴量画像と術後の第2特徴量画像とに対してMI法を適用することで、画像の位置合わせを行う。なお、MI法は、文献:Mutimodality Image Registration by Maximization of Mutual Information(1997)に記載されている公知の方法を用いれば良い。   In this embodiment, the alignment unit 51 performs image alignment by applying the MI method (mutual information method) to the feature amount image. For example, the alignment unit 51 performs image alignment by applying the MI method to the first feature value image before surgery and the first feature value image after surgery. Further, the registration unit 51 performs image registration by applying the MI method to the second feature value image before surgery and the second feature value image after surgery. The MI method may be a known method described in the document: Mutuality Image Registration by Maximum of Mutual Information (1997).

また、位置合わせ部51は、術前の第2マスク情報と術後の第2マスク情報とをデータ記憶部10から読み込み、第2マスク情報から各部位の形態情報を抽出し、テンプレートマッチングなどの形態情報を用いた公知の方法によって、画像の位置合わせを行っても良い。なお、位置合わせ部51が、この発明の「位置合わせ手段」の1例に相当する。   In addition, the alignment unit 51 reads pre-operative second mask information and post-operative second mask information from the data storage unit 10, extracts morphological information of each part from the second mask information, and performs template matching, etc. Image alignment may be performed by a known method using morphological information. The alignment unit 51 corresponds to an example of the “alignment unit” of the present invention.

そして、位置合わせ部51は、位置合わせ後における術前の特徴量画像と術後の特徴量画像との相対的な位置関係を示す位置情報を表示画像生成部52に出力する。   Then, the alignment unit 51 outputs position information indicating the relative positional relationship between the preoperative feature amount image and the postoperative feature amount image after the alignment to the display image generation unit 52.

(表示画像生成部52)
表示画像生成部52は、画像記憶部9に記憶されているボリュームデータに所定の画像処理を施すことで、表示用の画像データを生成する。例えば、表示画像生成部52は、ボリュームデータにボリュームレンダリングを施すことで、組織が立体的に表わされる3次元画像データを生成する。また、表示画像生成部52は、撮像画像にMPR(Multi Planar Reconstruction)処理を施すことで、任意の断面における画像データ(MPR画像データ)を生成しても良い。そして、表示画像生成部52は、3次元画像データやMPR画像データなどの医用画像データを表示制御部11に出力する。表示制御部11は、3次元画像データに基づく3次元画像やMPR画像データに基づくMPR画像を表示部13に表示させる。なお、表示画像生成部52が、この発明の「表示画像生成手段」の1例に相当し、表示制御部11が、この発明の「表示制御手段」の1例に相当する。
(Display Image Generation Unit 52)
The display image generation unit 52 generates display image data by performing predetermined image processing on the volume data stored in the image storage unit 9. For example, the display image generation unit 52 generates three-dimensional image data in which the tissue is three-dimensionally represented by performing volume rendering on the volume data. The display image generation unit 52 may generate image data (MPR image data) in an arbitrary cross section by performing MPR (Multi Planar Reconstruction) processing on the captured image. Then, the display image generation unit 52 outputs medical image data such as 3D image data and MPR image data to the display control unit 11. The display control unit 11 causes the display unit 13 to display a three-dimensional image based on the three-dimensional image data and an MPR image based on the MPR image data. The display image generation unit 52 corresponds to an example of the “display image generation unit” of the present invention, and the display control unit 11 corresponds to an example of the “display control unit” of the present invention.

例えば、表示画像生成部52は、術前と術後とに取得された4D造影画像データの各ボリュームデータにボリュームレンダリングを施すことで、各時相の3次元画像データを生成する。また、表示画像生成部52は、術前と術後とに取得された4D造影画像データにMPR処理を施すことで、各時相の任意断面におけるMPR画像データを生成しても良い。このとき、表示画像生成部52は、位置合わせ部51から出力された位置情報が示す相対的な位置関係に従って、術前のボリュームデータの位置と術後のボリュームデータの位置とを合わせてレンダリングなどの処理を施すことで、術前と術後とで位置が一致する3次元画像データや、術前と術後とで断面の位置が一致するMPR画像データを生成する。そして、表示制御部11は、位置が合わされた3次元画像やMPR画像を表示部13に表示させる。また、焼灼治療前(術前)における表示用の画像データが、この発明の「第1表示用画像データ」の1例に相当し、焼灼治療後(術後)における表示用の画像データが、この発明の「第2表示用画像データ」の1例に相当する。   For example, the display image generation unit 52 generates three-dimensional image data of each time phase by performing volume rendering on each volume data of 4D contrast image data acquired before and after surgery. The display image generation unit 52 may generate MPR image data in an arbitrary cross section of each time phase by performing MPR processing on 4D contrast image data acquired before and after surgery. At this time, the display image generation unit 52 performs rendering by combining the position of the preoperative volume data and the position of the postoperative volume data in accordance with the relative positional relationship indicated by the positional information output from the alignment unit 51. By performing this processing, three-dimensional image data in which the positions are the same before and after the operation and MPR image data in which the positions of the cross sections are the same before and after the operation are generated. Then, the display control unit 11 causes the display unit 13 to display the three-dimensional image and the MPR image that are aligned. The image data for display before the ablation treatment (before surgery) corresponds to one example of the “first display image data” of the present invention, and the image data for display after the ablation treatment (after surgery) This corresponds to an example of “second display image data” according to the present invention.

ここで、位置合わせされた画像の1例を図6に示す。図6は、位置合わせされた画像を示す図である。画像800は、術前に超音波診断装置によって取得されたMPR画像であり、画像810は、術後に超音波診断装置によって取得されたMPR画像である。画像800には、焼灼前に造影された腫瘍801が表されている。一方、画像810には、焼灼後の腫瘍811が表されている。表示制御部11は、位置合わせされた画像800と画像810とを表示部13に並べて表示させる。術前の画像800と術後の画像810とは位置が合わされているため、腫瘍の形状の比較や、周辺組織の比較などを容易に行うことができる。   Here, an example of the aligned image is shown in FIG. FIG. 6 is a diagram showing a registered image. An image 800 is an MPR image acquired by the ultrasonic diagnostic apparatus before the operation, and an image 810 is an MPR image acquired by the ultrasonic diagnostic apparatus after the operation. The image 800 shows a tumor 801 contrasted before cauterization. On the other hand, a tumor 811 after cauterization is shown in the image 810. The display control unit 11 displays the aligned image 800 and the image 810 side by side on the display unit 13. Since the positions of the pre-operative image 800 and the post-operative image 810 are aligned, it is possible to easily compare the shape of the tumor and the surrounding tissues.

また、操作者が操作部13を用いて、一方の画像に対して断面の変更指示、画像の拡大又は縮小の指示、平面内での移動指示、回転の指示などの表示条件の変更指示を与えると、他方の画像もその変更指示に連動して各処理が施されるようにしても良い。例えば、断面の変更指示が操作部13によって与えられると、表示画像生成部52は、その指示に従って断面の位置を変えてMPR処理を施すことで、術前と術後とで新たな断面におけるMPR画像データを術前と術後とでそれぞれ生成する。そして、表示制御部11は、新たな断面におけるMPR画像を表示部13に表示させる。また、表示制御部11は、画像の拡大又は縮小の指示、移動指示、又は回転指示に従って表示条件を変えて、術前の画像と術後の画像とを表示部13に表示させる。さらに、操作者が操作部13を用いて画像上の所望の位置を指定した場合に、指定された位置の座標情報が表示制御部11に出力され、表示制御部11は指定された座標(ボクセル)のTDCをデータ記憶部10から読み込み、そのTDCを表示部13に表示させても良い。   Further, the operator gives an instruction to change display conditions such as an instruction to change a cross section, an instruction to enlarge or reduce an image, an instruction to move in a plane, an instruction to rotate, etc. to one image using the operation unit 13. The other image may be subjected to each process in conjunction with the change instruction. For example, when an instruction to change the cross section is given by the operation unit 13, the display image generation unit 52 performs MPR processing by changing the position of the cross section according to the instruction, thereby performing MPR in a new cross section before and after the operation. Image data is generated before and after surgery. Then, the display control unit 11 causes the display unit 13 to display the MPR image in the new cross section. In addition, the display control unit 11 causes the display unit 13 to display a pre-operative image and a post-operative image on the display unit 13 by changing display conditions according to an image enlargement or reduction instruction, a movement instruction, or a rotation instruction. Further, when the operator designates a desired position on the image using the operation unit 13, the coordinate information of the designated position is output to the display control unit 11, and the display control unit 11 performs the designated coordinate (voxel). ) May be read from the data storage unit 10 and the TDC may be displayed on the display unit 13.

ユーザインターフェース(UI)12は、表示部13と操作部14とを備えている。表示部13は、CRTや液晶ディスプレイなどのモニタで構成され、画面上に3次元画像やMPR画像が表示される。操作部14は、ジョイスティックやトラックボールなどのポインティングデバイス、スイッチ、各種ボタン、又はキーボードなどで構成されている。   The user interface (UI) 12 includes a display unit 13 and an operation unit 14. The display unit 13 includes a monitor such as a CRT or a liquid crystal display, and displays a three-dimensional image or an MPR image on the screen. The operation unit 14 includes a pointing device such as a joystick or a trackball, a switch, various buttons, or a keyboard.

なお、カーブモデル作成部3、マスク作成部4、特徴量画像生成部6、位置合わせ部51、表示画像生成部52、及び表示制御部11はそれぞれ、図示しないCPUと、ROM、RAMなどの記憶装置とによって構成されている。記憶装置には、カーブモデル作成部3の機能を実行するためのカーブモデル作成プログラム、マスク作成部4の機能を実行するためのマスク作成プログラム、特徴量画像生成部6の機能を実行するための特徴量画像生成プログラム、位置合わせ部51の機能を実行するための位置合わせプログラム、表示画像生成部52の機能を実行するための表示画像生成プログラム、及び、表示制御部11の機能を実行するための表示制御プログラムが記憶されている。   The curve model creation unit 3, the mask creation unit 4, the feature amount image generation unit 6, the alignment unit 51, the display image generation unit 52, and the display control unit 11 each have a CPU (not shown) and a storage such as a ROM and a RAM. Device. In the storage device, a curve model creation program for executing the function of the curve model creation unit 3, a mask creation program for executing the function of the mask creation unit 4, and a function of the feature quantity image generation unit 6 are executed. In order to execute the feature amount image generation program, the alignment program for executing the function of the alignment unit 51, the display image generation program for executing the function of the display image generation unit 52, and the function of the display control unit 11 The display control program is stored.

また、カーブモデル作成プログラムには、カーブ作成部31の機能を実行するためのカーブ作成プログラム、分類部32の機能を実行するための分類プログラム、平均カーブ作成部33の機能を実行するための平均カーブ作成プログラム、及び、カーブモデル特定部34の機能を実行するためのカーブモデル特定プログラムが含まれている。また、マスク作成プログラムには、第1分類部41の機能を実行するための第1分類プログラムと、第2分類部42の機能を実行するための第2分類プログラムとが含まれている。また、特徴量画像生成プログラムには、第1画像生成部7の機能を実行するための第1画像生成プログラムと、第2画像生成部8の機能を実行するための第2画像生成プログラムとが含まれている。また、第2画像生成プログラムには、変化量算出部81の機能を実行するための変化量算出プログラムと、画素値変換部82の機能を実行するための画素値変換プログラムとが含まれている。   The curve model creation program includes a curve creation program for executing the function of the curve creation unit 31, a classification program for executing the function of the classification unit 32, and an average for executing the function of the average curve creation unit 33. A curve creation program and a curve model specifying program for executing the function of the curve model specifying unit 34 are included. In addition, the mask creation program includes a first classification program for executing the function of the first classification unit 41 and a second classification program for executing the function of the second classification unit 42. The feature image generation program includes a first image generation program for executing the function of the first image generation unit 7 and a second image generation program for executing the function of the second image generation unit 8. include. The second image generation program includes a change amount calculation program for executing the function of the change amount calculation unit 81 and a pixel value conversion program for executing the function of the pixel value conversion unit 82. .

そして、CPUがカーブ作成プログラムを実行することで、各ボクセルのTDCを作成する。また、CPUが分類プログラムを実行することで、各ボクセルのTDCを類似するカーブに分類する。また、CPUが平均カーブ作成プログラムを実行することで、分類された各TDCの平均値を表す平均TDCを作成する。そして、CPUがカーブモデル特定プログラムを実行することで、各部位のTDCモデルを定義する。   Then, the CPU executes the curve creation program to create a TDC for each voxel. Further, the CPU executes a classification program to classify the TDC of each voxel into a similar curve. Further, the CPU executes an average curve creation program to create an average TDC that represents the average value of each classified TDC. Then, the CPU executes the curve model specifying program to define the TDC model of each part.

また、CPUが第1分類プログラムを実行することで、クラスタリング値が各ボクセルの位置に割り当てられた第1マスク情報を作成する。また、CPUが第2分類プログラムを実行することで、腫瘍として割り当てられたクラスタリング値を非画像領域のクラスタリング値に再度割り当てることで第2マスク情報を作成する。   Further, the CPU executes the first classification program to create first mask information in which the clustering value is assigned to the position of each voxel. Further, the CPU executes the second classification program, so that the second mask information is created by reassigning the clustering value assigned as the tumor to the clustering value of the non-image region.

また、CPUが第1画像生成プログラムを実行することで、第1特徴量画像データを生成する。また、CPUが変化量算出プログラムを実行することで、術前のTDCモデルと術後のTDCモデルとの間の変化量を求める。また、CPUが画素値変換プログラムを実行することで、変化量を用いて、位置合わせ対象の画像データのうち一方の画像データの画素値を変換する。   In addition, the CPU executes the first image generation program to generate first feature amount image data. In addition, the CPU executes the change amount calculation program to obtain the change amount between the pre-operative TDC model and the post-operative TDC model. In addition, the CPU executes a pixel value conversion program to convert the pixel value of one of the image data to be aligned using the change amount.

また、CPUが位置合わせプログラムを実行することで、2つの特徴量画像の位置を合わせる。また、CPUが表示画像生成プログラムを実行することで、ボリュームデータに基づく表示用の3次元画像データやMPR画像データなどを生成する。そして、CPUが表示制御プログラムを実行することで、3次元画像データに基づく3次元画像などを表示部13に表示させる。   Further, the CPU executes the alignment program to align the positions of the two feature amount images. In addition, the CPU executes a display image generation program to generate three-dimensional image data for display and MPR image data based on volume data. Then, the CPU executes a display control program to display a three-dimensional image based on the three-dimensional image data on the display unit 13.

(動作)
次に、この実施形態に係る医用画像処理装置1による一連の動作について図7を参照して説明する。図7は、この発明の実施形態に係る医用画像処理装置による一連の動作を示すフローチャートである。
(Operation)
Next, a series of operations by the medical image processing apparatus 1 according to this embodiment will be described with reference to FIG. FIG. 7 is a flowchart showing a series of operations by the medical image processing apparatus according to the embodiment of the present invention.

(ステップS01)
まず、術前と術後とにおいて医用画像診断装置100によって造影撮影を行うことで、術前の4D造影画像データと術後の4D造影画像データとを取得する。術前の4D造影画像データと術後の4D造影画像データとは、医用画像診断装置100から医用画像処理装置1に出力され、医用画像処理装置1の画像記憶部9に記憶される。なお、同じ種類の医用画像診断装置によって術前の4D造影画像データと術後の4D造影画像データとを取得しても良いし、異なる種類の医用画像診断装置によって術前の4D造影画像データと術後の4D造影画像データとを取得しても良い。
(Step S01)
First, preoperative 4D contrast image data and postoperative 4D contrast image data are acquired by performing contrast imaging by the medical image diagnostic apparatus 100 before and after surgery. Pre-operative 4D contrast image data and post-operative 4D contrast image data are output from the medical image diagnostic apparatus 100 to the medical image processing apparatus 1 and stored in the image storage unit 9 of the medical image processing apparatus 1. In addition, preoperative 4D contrast image data and postoperative 4D contrast image data may be acquired by the same type of medical image diagnostic apparatus, or preoperative 4D contrast image data may be acquired by different types of medical image diagnostic apparatuses. You may acquire postoperative 4D contrast image data.

(ステップS02)
カーブモデル作成部3は、術前における各部位のTDCモデルを作成する。この実施形態では、カーブモデル作成部3は、術前における血管のTDCモデル、正常な肝実質のTDCモデル、及び肝腫瘍のTDCモデルを作成する。例えば、カーブモデル作成部3は、一般的に推定される各部位のTDCモデルをデータ処理部2から読み込んで、一般的に推定される各部位のTDCモデルを、各部位のTDCモデルとして定義する。または、カーブモデル作成部3は、実際に撮影された4D造影画像データに基づいて各部位のTDCモデルを作成しても良い。この場合、カーブモデル作成部3は、各ボクセルのTDCを作成し、各TDCを類似するカーブごとに分類し、分類したTDCの平均である平均TDCを作成する。そして、カーブモデル作成部3は、各平均TDCと、一般的に推定される各部位のTDCモデルとを比較して、各平均TDCがいずれの部位におけるTDCに該当するかを特定する。分類された平均TDCは、その部位のTDCモデルを表していることになり、カーブモデル作成部3は、分類した平均TDCをTDCモデルとして定義する。各部位のTDCモデルはデータ記憶部10に記憶される。
(Step S02)
The curve model creation unit 3 creates a TDC model for each part before surgery. In this embodiment, the curve model creation unit 3 creates a pre-operative blood vessel TDC model, a normal liver parenchyma TDC model, and a liver tumor TDC model. For example, the curve model creation unit 3 reads the generally estimated TDC model of each part from the data processing unit 2, and defines the generally estimated TDC model of each part as the TDC model of each part. . Alternatively, the curve model creation unit 3 may create a TDC model for each part based on actually captured 4D contrast image data. In this case, the curve model creation unit 3 creates a TDC for each voxel, classifies each TDC for each similar curve, and creates an average TDC that is an average of the classified TDCs. Then, the curve model creation unit 3 compares each average TDC with a generally estimated TDC model of each part, and specifies which part of the average TDC corresponds to the TDC. The classified average TDC represents the TDC model of the part, and the curve model creation unit 3 defines the classified average TDC as a TDC model. The TDC model of each part is stored in the data storage unit 10.

(ステップS03)
次に、カーブ作成部31は、術前における各ボクセルのTDCを作成する。なお、ステップS02において、実際に取得された4D造影画像データからTDCモデルを作成した場合には、その作成過程で各ボクセルのTDCが作成されているため、ステップS03の処理を省略しても良い。各ボクセルのTDCはデータ記憶部10に記憶される。
(Step S03)
Next, the curve creation unit 31 creates a TDC for each voxel before surgery. In step S02, when a TDC model is created from actually acquired 4D contrast image data, the TDC of each voxel is created in the creation process, and therefore the processing in step S03 may be omitted. . The TDC of each voxel is stored in the data storage unit 10.

(ステップS04)
第1分類部41は、各ボクセルのTDCと、各部位のTDCモデルとを比較して、各ボクセルのTDCがいずれの部位のTDCモデルに該当するかを特定することで、各ボクセルのTDCを各部位に分類する。この分類によって、第1分類部41は、術前における第1マスク情報を生成する。例えば、第1分類部41は、TDCが血管のTDCモデルに該当するボクセルの位置に、血管を示す数値「0」を割り当てる。このように、第1分類部41は、部位を示す数値を各ボクセルの位置に割り当てることで、術前の第1マスク情報を作成する。第1マスク情報はデータ記憶部10に記憶される。
(Step S04)
The first classification unit 41 compares the TDC of each voxel with the TDC model of each part, and identifies the TDC model of which part the TDC of each voxel corresponds to, thereby determining the TDC of each voxel. Classify into each part. By this classification, the first classification unit 41 generates first mask information before surgery. For example, the first classification unit 41 assigns a numerical value “0” indicating a blood vessel to the position of a voxel whose TDC corresponds to the TDC model of the blood vessel. Thus, the 1st classification | category part 41 produces the 1st mask information before a surgery by assigning the numerical value which shows a site | part to the position of each voxel. The first mask information is stored in the data storage unit 10.

(ステップS05)
そして、第2分類部42は、第1マスク情報に表わされた領域のうち、画像の位置合わせの対象に適さない領域を、非画像領域に再分類することで、第2マスク情報を作成する。この実施形態では、第2分類部42は、肝腫瘍を示す数値「1」が割り当てられているボクセルの位置に、非画像領域を示す数値「−1」を割り当てる。これにより、肝腫瘍に分類された領域が位置合わせの対象から外されたことになる。第2マスク情報はデータ記憶部10に記憶される。
(Step S05)
Then, the second classification unit 42 creates second mask information by reclassifying a region that is not suitable for image alignment among the regions represented by the first mask information to a non-image region. To do. In this embodiment, the second classification unit 42 assigns a numerical value “−1” indicating a non-image area to the position of a voxel to which a numerical value “1” indicating a liver tumor is assigned. As a result, the region classified as the liver tumor is excluded from the alignment target. The second mask information is stored in the data storage unit 10.

(ステップS06)
そして、データ処理部2は、位置合わせの対象となるすべての画像について、マスク情報を作成したか否かを判断する。例えば、術前の第2マスク情報を作成し、術後の第2マスク情報を作成していない場合は(ステップS06、No)、術後の4D造影画像データを対象にして、ステップS02からステップS05の処理を実行することで、術後における第2マスク情報を作成する。そして、すべての画像についてマスク情報を作成した場合(ステップS06、Yes)、ステップS07以降の処理を実行する。
(Step S06)
Then, the data processing unit 2 determines whether or not mask information has been created for all images to be aligned. For example, when the pre-operative second mask information is created and the post-operative second mask information is not created (No at Step S06), the post-operative 4D contrast image data is targeted and the steps from Step S02 are performed. By executing the process of S05, post-operative second mask information is created. If mask information has been created for all images (step S06, Yes), the processing from step S07 is executed.

(ステップS07、ステップS08)
次に、特徴量画像生成部6が、術前と術後とにおける第2マスク情報を用いて、位置合わせ用の特徴量画像データを生成する。この実施形態に係る医用画像処理装置1では、第1画像生成部7によって第1特徴量画像データを生成しても良いし(ステップS07)、第1特徴量画像データの代わりに、第2画像生成部8によって第2特徴量画像データを生成しても良い(ステップS08)。特徴量画像生成部6は、第1画像生成部7によって生成した術前と術後とにおける第1特徴量画像データ、又は、第2画像生成部8によって生成した術前と術後とにおける第2特徴量画像データを位置合わせ部51に出力する。
(Step S07, Step S08)
Next, the feature amount image generation unit 6 generates feature amount image data for alignment using the second mask information before and after the operation. In the medical image processing apparatus 1 according to this embodiment, the first feature amount image data may be generated by the first image generation unit 7 (step S07), and the second image is used instead of the first feature amount image data. Second feature amount image data may be generated by the generation unit 8 (step S08). The feature amount image generation unit 6 includes first feature amount image data generated by the first image generation unit 7 before and after operation, or pre-operation and post-operation generated by the second image generation unit 8. 2 Outputs the feature amount image data to the alignment unit 51.

(ステップS09)
位置合わせ部51は、術前の特徴量画像と術後の特徴量画像とに対してMI法を適用して画像の位置合わせを行う。第1画像生成部7によって第1特徴量画像データが生成された場合、位置合わせ部51は、術前の第1特徴量画像の位置と術後の第1特徴量画像の位置とをMI法によって合わせる。また、第2画像生成部8によって第2特徴量画像データが生成された場合、位置合わせ部51は、術前の第2特徴量画像の位置と術後の第2特徴量画像の位置とをMI法によって合わせる。そして、位置合わせ部51は、術前の特徴量画像の位置と術後の特徴量画像の位置との相対的な位置関係を示す位置情報を表示画像生成部52に出力する。
(Step S09)
The alignment unit 51 performs image alignment by applying the MI method to the pre-operative feature amount image and the post-operative feature amount image. When the first feature amount image data is generated by the first image generation unit 7, the alignment unit 51 uses the MI method to calculate the position of the first feature amount image before the operation and the position of the first feature amount image after the operation. Adjust according to. When the second feature amount image data is generated by the second image generation unit 8, the alignment unit 51 determines the position of the second feature amount image before the operation and the position of the second feature amount image after the operation. Match by MI method. Then, the alignment unit 51 outputs position information indicating the relative positional relationship between the position of the preoperative feature amount image and the postoperative feature amount image to the display image generating unit 52.

(ステップS10)
表示画像生成部52は、位置合わせ部51から出力された位置情報が示す相対的な位置関係に従って、術前のボリュームデータの位置と術後のボリュームデータの位置とを合わせて、ボリュームレンダリングやMPR処理などの画像処理を施す。これにより、術前と術後とで位置が一致する3次元画像データや、術前と術後とで断面の位置が一致するMPR画像データが生成される。表示制御部11は、例えば、断面の位置が一致する術前のMPR画像と術後のMPR画像とを表示部13に表示させる。
(Step S10)
In accordance with the relative positional relationship indicated by the positional information output from the alignment unit 51, the display image generation unit 52 matches the position of volume data before surgery and the position of volume data after surgery to perform volume rendering or MPR. Image processing such as processing is performed. As a result, three-dimensional image data whose positions match before and after surgery and MPR image data whose cross-sectional positions match before and after surgery are generated. For example, the display control unit 11 causes the display unit 13 to display a pre-operative MPR image and a post-operative MPR image in which the positions of the cross sections coincide.

以上のように、この実施形態に係る医用画像処理装置1によると、各ボクセルのTDCを作成して、各部位の造影濃染の特徴を用いることで、各部位の領域とその形態を特定することが可能となる。そして、画像の位置合わせに適さない領域を位置合わせ処理から除外することで、術前と術後とで画像の一部が変化している場合であっても、より正確に複数の画像の位置合わせを行うことが可能となる。具体的には、焼灼された腫瘍の領域を除外した第2マスク情報を作成し、その第2マスク情報に基づく特徴量画像に基づいて術前の画像の位置と術後の画像の位置とを合わせることで、術前と術後とで腫瘍の輝度値が変化している場合であっても、術前の画像の位置と術後の画像の位置とをより正確に合わせることが可能となる。すなわち、この実施形態に係る医用画像処理装置1によると、輝度値が変化する領域を除外した第2マスク情報を用いているため、形態情報を必要としないMI法を用いた画像の位置合わせが可能となり、その結果、より正確に画像の位置合わせが可能となる。   As described above, according to the medical image processing apparatus 1 according to this embodiment, the TDC of each voxel is created, and the region of each part and its form are specified by using the features of contrast-enhanced dyeing of each part. It becomes possible. Then, by excluding the areas that are not suitable for image alignment from the alignment process, even if a part of the image has changed between before and after surgery, the position of multiple images can be determined more accurately. It is possible to perform matching. Specifically, the second mask information excluding the ablated tumor region is created, and the position of the preoperative image and the position of the postoperative image are determined based on the feature amount image based on the second mask information. By combining them, it is possible to more accurately match the position of the pre-operative image and the post-operative image even when the brightness value of the tumor changes before and after the operation. . In other words, according to the medical image processing apparatus 1 according to this embodiment, since the second mask information excluding the region where the luminance value changes is used, image alignment using the MI method that does not require morphological information is performed. As a result, image alignment can be performed more accurately.

また、各ボクセルのTDCを作成して、各部位の造影濃染の特徴を用いることで、各部位の領域とその形態を特定することが可能となる。そのため、公知の位置合わせ方法のように、形態情報を用いた位置合わせも可能となる。   In addition, by creating a TDC for each voxel and using the features of contrast-enhanced dyeing at each site, it is possible to specify the region of each site and its form. Therefore, it is possible to perform alignment using form information as in a known alignment method.

また、TDCモデルに基づいて作成されたマスク情報はすべての時相に共通して用いることができるため、各時相における画像データから各部位の領域を抽出することができる。さらに、早期相と後期相といったように、異なる時相における画像同士の位置合わせも可能となる。さらに、各医用画像診断装置にて取得された造影画像に基づいてマスク情報を作成することができるため、異なる医用画像診断装置によって取得された画像同士の位置合わせも可能となる。   Further, since the mask information created based on the TDC model can be used in common for all time phases, it is possible to extract the region of each part from the image data in each time phase. Further, it is possible to align images in different time phases, such as an early phase and a late phase. Furthermore, since mask information can be created based on the contrast image acquired by each medical image diagnostic apparatus, it is possible to align the images acquired by different medical image diagnostic apparatuses.

さらに、各医用画像診断装置の特性や各時相における特徴を考慮した位置合わせを行うことで、その位置合わせをより正確に行うことができる。具体的には、第2画像生成部8によって生成された第2特徴量画像に基づいて画像の位置合わせを行うことで、医用画像診断装置の差異に起因する輝度値の差を調整し、さらに、時相差に起因する輝度値の差を調整することができる。そして、輝度調整がなされた第2特徴量画像を用いて位置合わせを行うことで、異なる医用画像診断装置によって異なる時相に取得された複数の画像同士の位置を、より正確に合わせることが可能となる。   Furthermore, the alignment can be performed more accurately by performing the alignment in consideration of the characteristics of each medical image diagnostic apparatus and the characteristics in each time phase. Specifically, by adjusting the position of the image based on the second feature amount image generated by the second image generation unit 8, the difference in the luminance value caused by the difference in the medical image diagnostic apparatus is adjusted, The difference in luminance value due to the time phase difference can be adjusted. Then, by performing alignment using the second feature image that has been subjected to brightness adjustment, it is possible to more accurately align the positions of a plurality of images acquired at different time phases by different medical image diagnostic apparatuses. It becomes.

以上のようにこの実施形態に係る医用画像処理装置1によると、煩雑な操作を行わずに、焼灼前の腫瘍領域と焼灼後の腫瘍領域とを同じ位置にて比較することが可能となるため、より正確な術後診断が可能となる。例えば、焼灼前の腫瘍領域と焼灼後の腫瘍領域とを同じ断面にて比較することができるため、より正確な術後診断が可能となる。   As described above, according to the medical image processing apparatus 1 according to this embodiment, it is possible to compare the tumor area before cauterization and the tumor area after cauterization at the same position without performing complicated operations. A more accurate postoperative diagnosis becomes possible. For example, since the tumor area before ablation and the tumor area after ablation can be compared in the same cross section, more accurate postoperative diagnosis becomes possible.

この発明の実施形態に係る医用画像処理装置を示すブロック図である。1 is a block diagram illustrating a medical image processing apparatus according to an embodiment of the present invention. 造影剤が流入する様子を順番に表わす画像を示す図である。It is a figure which shows the image showing a mode that a contrast agent flows in in order. 時間に対する各部位の輝度の変化を表すグラフ(TDC)を示す図である。It is a figure which shows the graph (TDC) showing the change of the brightness | luminance of each site | part with respect to time. マスク情報を模式的に示す図である。It is a figure which shows mask information typically. 時間に対する各部位の輝度の変化を表すグラフを示す図である。It is a figure which shows the graph showing the change of the brightness | luminance of each site | part with respect to time. 位置合わせされた画像を示す図である。It is a figure which shows the image aligned. この発明の実施形態に係る医用画像処理装置による一連の動作を示すフローチャートである。It is a flowchart which shows a series of operation | movement by the medical image processing apparatus which concerns on embodiment of this invention.

符号の説明Explanation of symbols

1 医用画像処理装置
2 データ処理部
3 カーブモデル作成部
4 マスク作成部
5 画像処理部
6 特徴量画像生成部
7 第1画像生成部
8 第2画像生成部
9 画像記憶部
10 データ記憶部
11 表示制御部
12 ユーザインターフェース(UI)
13 表示部
14 操作部
31 カーブ作成部
32 分類部
33 平均カーブ作成部
34 カーブモデル特定部
41 第1分類部
42 第2分類部
51 位置合わせ部
52 表示画像生成部
81 変化量算出部
82 画素値変換部
100 医用画像診断装置
DESCRIPTION OF SYMBOLS 1 Medical image processing apparatus 2 Data processing part 3 Curve model creation part 4 Mask creation part 5 Image processing part 6 Feature-value image generation part 7 1st image generation part 8 2nd image generation part 9 Image storage part 10 Data storage part 11 Display Control unit 12 User interface (UI)
DESCRIPTION OF SYMBOLS 13 Display part 14 Operation part 31 Curve creation part 32 Classification part 33 Average curve creation part 34 Curve model specification part 41 1st classification part 42 2nd classification part 51 Position alignment part 52 Display image generation part 81 Change amount calculation part 82 Pixel value Conversion unit 100 medical image diagnostic apparatus

Claims (8)

造影剤が注入された被検体を、前記被検体に対する医学的処置の以前と以後で撮影したそれぞれのボリュームデータを含む複数の4D造影画像データを記憶する記憶手段と、
前記記憶手段に記憶されている前記以前と前記以後の4D造影画像データのそれぞれに基づいて、各ボクセルにおける画素値の時間変化を表す、前記以前の画素値曲線と前記以後の画素値曲線を作成するカーブ作成手段と、
前記以前と前記以後のそれぞれについて前記被検体の各部位における画素値の時間変化を表す画素値曲線モデルを取得するカーブモデル作成手段と、
前記以前と前記以後のそれぞれについて、前記ボクセルの画素値曲線と前記各部位の画素値曲線モデルとを比較して、前記ボクセルの画素値曲線を前記被検体の部位ごとに分類することで、各部位の領域を示す、前記以前の第1マスク情報と前記以後の第1のマスク情報を作成する第1分類手段と、
前記以前と前記以後の4D造影画像データの間で、前記画素値曲線モデルの形状がほぼ一致する部位以外の部位の領域を、前記以前と前記以後の各第1マスク情報から除外することで前記以前の第2マスク情報と前記以後の第2マスク情報を作成する第2分類手段と、
前記以前と前記以後のそれぞれの前記第2マスク情報が示す各部位の領域に含まれる各ボクセルに、前記以前と前記以後の画素値曲線のそれぞれから特定される特徴量を割り当てることで前記以前の特徴量画像データと前記以後の特徴量画像データを生成する特徴量画像生成手段と、
前記以前と前記以後の特徴量画像のそれぞれの位置を合わせる画像位置合わせ手段と、
前記以前と前記以後の4D造影画像データのそれぞれに含まれるボリュームデータに基づき、前記位置合わせに従って位置が合わされた表示用画像データを、前記4D造影画像データごとに生成する表示画像生成手段と、
前記4D造影画像データごとの表示用画像データに基づく表示用画像を並べて表示手段に表示させる表示制御手段と、
を有することを特徴とする医用画像処理装置。
Storage means for storing a plurality of 4D contrast image data including volume data obtained by imaging a subject into which a contrast medium is injected before and after medical treatment of the subject;
Based on each of the previous and subsequent 4D contrast image data stored in the storage means, the previous pixel value curve and the subsequent pixel value curve representing the temporal change of the pixel value in each voxel are created. Curve creation means to
A curve model creating means for obtaining a pixel value curve model representing a temporal change of a pixel value in each part of the subject for each of the before and after,
By comparing the voxel pixel value curve and the pixel value curve model of each part for each of the previous and the subsequent, and classifying the voxel pixel value curve for each part of the subject, First classification means for creating the previous first mask information and the subsequent first mask information indicating a region of a part;
By excluding a region other than the region where the shape of the pixel value curve model substantially matches between the previous and subsequent 4D contrast image data from the first and subsequent first mask information, Second classification means for creating the previous second mask information and the subsequent second mask information;
By assigning a feature amount specified from each of the previous and subsequent pixel value curves to each voxel included in each region indicated by the second mask information before and after the previous, Feature amount image generation means for generating feature amount image data and the subsequent feature amount image data; and
Image alignment means for aligning the positions of the feature image before and after the image;
Display image generation means for generating, for each 4D contrast image data, display image data aligned according to the alignment based on volume data included in each of the previous and subsequent 4D contrast image data;
Display control means for displaying display images side by side on the display means based on display image data for each of the 4D contrast image data;
A medical image processing apparatus comprising:
前記第1分類手段は、前記各ボクセルの画素値曲線と前記各部位の画素値曲線モデルとを比較して、前記画素値曲線の形状が前記画素値曲線モデルの形状に類似する部位をボクセルごとに特定することで前記第1マスク情報を作成することを特徴とする請求項1に記載の医用画像処理装置。   The first classification unit compares the pixel value curve of each voxel with the pixel value curve model of each part, and determines a part of the pixel value curve similar to the shape of the pixel value curve model for each voxel. The medical image processing apparatus according to claim 1, wherein the first mask information is created by specifying the first mask information. 前記第2分類手段は、前記以前と前記以後の4D造影画像データの間で前記画素値曲線モデルの形状がほぼ一致する部位以外の部位の領域としての腫瘍に分類された領域を前記以前と前記以後の各第1マスク情報から除外することで前記以前と前記以後の各第2マスク情報を作成することを特徴とする請求項1又は請求項2のいずれかに記載の医用画像処理装置。   The second classifying means classifies a region classified as a tumor as a region of a region other than a region where the shape of the pixel value curve model substantially matches between the previous and subsequent 4D contrast image data. 3. The medical image processing apparatus according to claim 1, wherein the second mask information before and after the first mask information is created by excluding the first mask information from the subsequent first mask information. 4. 前記カーブモデル作成手段は、
前記各ボクセルの画素値曲線を類似するカーブごとに分類する分類手段と、
前記分類ごとに画素値曲線の平均を求めることで画素値の平均値を有する平均画素値曲線を前記分類ごとに作成する平均カーブ作成手段と、
予め推定された前記各部位における画素値の時間変化を表す推定画素値曲線モデルと、前記分類ごとの平均画素値曲線とを比較して、平均画素値曲線の形状が前記推定画素値曲線モデルの形状に類似する部位を前記分類ごとに特定することで、各平均画素値曲線を前記各部位の画素値曲線モデルとして定義するカーブモデル特定手段と、
を有することを特徴とする請求項1から請求項3のいずれかに記載の医用画像処理装置。
The curve model creating means includes
Classification means for classifying the pixel value curve of each voxel for each similar curve;
Average curve creating means for creating an average pixel value curve having an average value of pixel values by obtaining an average of the pixel value curves for each of the classifications,
The estimated pixel value curve model representing the temporal change of the pixel value in each part estimated in advance and the average pixel value curve for each classification are compared, and the shape of the average pixel value curve is that of the estimated pixel value curve model. A curve model specifying unit that defines each average pixel value curve as a pixel value curve model of each part by specifying a part similar to a shape for each of the classifications;
The medical image processing apparatus according to any one of claims 1 to 3, further comprising:
前記特徴量画像生成手段は、前記各ボクセルの画素値曲線に基づき、任意に指定された時相間における前記各ボクセルの画素値の変化量を前記特徴量として求め、前記変化量を前記第2マスク情報が示す各部位の領域に含まれる各ボクセルに割り当てることで、前記特徴量画像データを生成することを特徴とする請求項1から請求項4のいずれかに記載の医用画像処理装置。   The feature amount image generation means obtains a change amount of a pixel value of each voxel between arbitrarily designated time phases as the feature amount based on a pixel value curve of each voxel, and the change amount is determined by the second mask. 5. The medical image processing apparatus according to claim 1, wherein the feature image data is generated by assigning to each voxel included in each region indicated by information. 6. 前記特徴量画像生成手段は、
前記以前又は以後の一方の第1の4D造影画像データを基に作成された前記各部位の画素値曲線モデルに基づいて、任意に指定された第1時相における前記各部位の画素値を求め、さらに、前記以前又は以後の他方の第2の4D造影画像データを基に作成された前記各部の画素値曲線モデルに基づいて、任意に指定された第2時相における前記各部位の画素値を求め、同じ部位について、前記第1時相における画素値と前記第2時相における画素値との差分を求めることで、前記各部位の画素値の変化量を求める変化量算出手段と、
前記第1の4D造影画像データに含まれるボリュームデータであって、前記第1時相に取得されたボリュームデータに含まれる領域のうち、該当する第2マスク情報が示す各部位の領域に含まれる各ボクセルの画素値を前記変化量に基づいて変換した画素値を前記特徴量として求め、前記画素値が変換されたボリュームデータを前記一方の前記特徴量画像データとして定義し、さらに、前記第2の4D造影画像データに含まれるボリュームデータであって、該当する前記第2時相に取得されたボリュームデータを前記他方の前記特徴量画像データとして定義する画素値変換手段と、
を有することを特徴とする請求項4に記載の医用画像処理装置。
The feature image generation unit includes:
Based on the pixel value curve model of each part created based on the first 4D contrast image data of one of the previous or subsequent ones, the pixel value of each part in the arbitrarily specified first time phase is obtained. Further, the pixel value of each part in the second time phase arbitrarily specified based on the pixel value curve model of each part created based on the other second 4D contrast image data before or after the previous or subsequent Change amount calculation means for obtaining a change amount of the pixel value of each part by obtaining a difference between the pixel value in the first time phase and the pixel value in the second time phase for the same part,
Volume data included in the first 4D contrast image data, and included in the region of each part indicated by the corresponding second mask information among the regions included in the volume data acquired in the first time phase. A pixel value obtained by converting a pixel value of each voxel based on the change amount is obtained as the feature amount, volume data obtained by converting the pixel value is defined as the one feature amount image data, and the second Pixel value conversion means for defining the volume data included in the 4D contrast image data and the volume data acquired in the corresponding second time phase as the other feature amount image data;
The medical image processing apparatus according to claim 4, further comprising:
前記医学的処置は焼灼治療であり、前記以前は焼灼治療前のことであり、前記以後は焼灼治療後のことであって、
前記記憶手段は、焼灼治療前に撮影された第1の4D造影画像データと、焼灼治療後に撮影された第2の造影画像データとを記憶し、
前記カーブ作成手段は、前記第1の4D造影画像データの各ボクセルにおける画素値の時間変化を表す第1の画素値曲線と、前記第2の4D造影画像データの各ボクセルにおける画素値の時間変化を表す第2の画素値曲線とを作成し、
前記カーブモデル作成手段は、前記焼灼治療前における前記各部位の画素値の時間変化を表す第1の画素値曲線モデルと、前記焼灼治療後における前記各部位の画素値の時間変化を表す第2の画素値曲線モデルとを取得し、
前記第1分類手段は、前記第1の画素値曲線と前記各部位の第1の画素値曲線モデルとを比較して、前記第1の4D造影画像データの各ボクセルを部位ごとに分類することで、焼灼治療前における第1マスク情報を作成し、前記第2の画素値曲線と前記各部位の第2の画素値曲線モデルとを比較して、前記第2の4D造影画像データの各ボクセルを部位ごとに分類することで、焼灼治療後における第1マスク情報を作成し、
前記第2分類手段は、前記焼灼治療前における第1マスク情報と前記焼灼治療後における第1マスク情報とから、焼灼対象の部位に分類された領域を除外することで、前記焼灼対象の部位に分類された領域が除かれた前記焼灼治療前における第2マスク情報と前記焼灼治療後における第2マスク情報とを作成し、
前記特徴量画像生成手段は、前記焼灼治療前における第2マスク情報が示す各部位の領域に含まれる各ボクセルに、前記第1の4D造影画像データの各ボクセルの画素値曲線から特定される特徴量を割り当てることで、前記焼灼治療前の特徴量画像データを生成し、さらに、前記焼灼治療後における第2マスク情報が示す各部位の領域に含まれる各ボクセルに、前記第2の4D造影画像データの各ボクセルの画素値曲線から特定される特徴量を割り当てることで、前記焼灼治療後の特徴量画像データを生成し、
前記画像位置合わせ手段は、前記焼灼治療前の特徴量画像の位置と、前記焼灼治療後の特徴量画像の位置とを合わせ、
前記表示画像生成手段は、前記第1の4D造影画像データに含まれるボリュームデータに基づいて第1表示用画像データを生成し、前記第2の4D造影画像データに含まれるボリュームデータに基づいて、前記位置合わせに従って前記第1表示用画像データとの位置が合わされた第2表示用画像データを生成し、
前記表示制御手段は、前記第1表示用画像データに基づく第1表示用画像と、前記第2表示用画像データに基づく第2表示用画像とを並べて前記表示手段に表示させることを特徴とする請求項1に記載の医用画像処理装置。
The medical treatment is cauterization treatment, the previous is before the cauterization treatment, and the subsequent is after the cauterization treatment,
The storage means stores first 4D contrast image data photographed before cauterization treatment, and second contrast image data photographed after cauterization treatment,
The curve creation means includes a first pixel value curve representing a temporal change of a pixel value in each voxel of the first 4D contrast image data, and a temporal change of a pixel value in each voxel of the second 4D contrast image data. And a second pixel value curve representing
The curve model creation means includes a first pixel value curve model that represents a temporal change in the pixel value of each part before the ablation treatment, and a second that represents a temporal change in the pixel value of the part after the ablation treatment. And a pixel value curve model of
The first classifying means classifies each voxel of the first 4D contrast image data for each part by comparing the first pixel value curve and the first pixel value curve model of each part. Then, the first mask information before the ablation treatment is created, the second pixel value curve is compared with the second pixel value curve model of each part, and each voxel of the second 4D contrast image data is compared. By classifying by region, create the first mask information after ablation treatment,
The second classifying means excludes the region classified as the ablation target region from the first mask information before the ablation treatment and the first mask information after the ablation treatment. Creating the second mask information before the ablation treatment and the second mask information after the ablation treatment from which the classified region is removed;
The feature amount image generation unit is characterized in that each voxel included in each region indicated by the second mask information before the ablation treatment is specified from a pixel value curve of each voxel of the first 4D contrast image data. By assigning an amount, feature image data before the ablation treatment is generated, and further, the second 4D contrast image is applied to each voxel included in each region indicated by the second mask information after the ablation treatment. By assigning a feature amount specified from the pixel value curve of each voxel of data, the feature amount image data after the ablation treatment is generated,
The image alignment means aligns the position of the feature amount image before the ablation treatment and the position of the feature amount image after the ablation treatment,
The display image generation unit generates first display image data based on volume data included in the first 4D contrast image data, and based on volume data included in the second 4D contrast image data, Generating second display image data aligned with the first display image data according to the alignment;
The display control means displays a first display image based on the first display image data and a second display image based on the second display image data side by side on the display means. The medical image processing apparatus according to claim 1.
コンピュータに、
造影剤が注入された被検体を、前記被検体に対する医学的処置の以前と以後で撮影したそれぞれのボリュームデータを含む複数の4D造影画像データを受け付けて、前記以前と前記以後の4D造影画像データのそれぞれに基づいて、各ボクセルにおける画素値の時間変化を表す、前記以前の画素値曲線と前記以後の画素値曲線を作成するカーブ作成機能と、
前記以前と前記以後のそれぞれについて、前記被検体の各部位における画素値の時間変化を表す画素値曲線モデルを取得するカーブモデル作成手段と、
前記以前と前記以後のそれぞれについて、前記ボクセルの画素値曲線と前記各部位の画素値曲線モデルとを比較して、前記ボクセルの画素値曲線を前記被検体の部位ごとに分類することで、各部位の領域を示す、前記以前の第1マスク情報と前記以後の第1のマスク情報を作成する第1分類機能と、
前記以前と前記以後の4D造影画像データの間で、前記画素値曲線モデルの形状がほぼ一致する部位以外の部位の領域を、前記以前と前記以後の各第1マスク情報から除外することで前記以前の第2マスク情報と前記以後の第2マスク情報を作成する第2分類機能と、
前記以前と前記以後のそれぞれの前記第2マスク情報が示す各部位の領域に含まれる各ボクセルに、前記以前と前記以後の画素値曲線のそれぞれから特定される特徴量を割り当てることで前記以前の特徴量画像データと前記以後の特徴量画像データを生成する特徴量画像生成機能と、
前記以前と前記以後の特徴量画像のそれぞれの位置を合わせる画像位置合わせ機能と、
前記以前と前記以後の4D造影画像データのそれぞれに含まれるボリュームデータに基づき、前記位置合わせに従って位置が合わされた表示用画像データを、前記4D造影画像データごとに生成する表示画像生成機能と、
前記4D造影画像データごとの表示用画像データに基づく表示用画像を並べて表示装置に表示させる表示制御機能と、
を実行させることを特徴とする医用画像処理プログラム。
On the computer,
A plurality of 4D contrast image data including volume data obtained by imaging a subject into which a contrast medium is injected before and after medical treatment for the subject are received, and before and after the 4D contrast image data. A curve creation function for creating the previous pixel value curve and the subsequent pixel value curve, each representing a temporal change in pixel value in each voxel,
Curve model creating means for obtaining a pixel value curve model representing a temporal change of a pixel value in each part of the subject for each of the before and after,
By comparing the voxel pixel value curve and the pixel value curve model of each part for each of the previous and the subsequent, and classifying the voxel pixel value curve for each part of the subject, A first classification function for creating the previous first mask information and the subsequent first mask information indicating a region of a part;
By excluding a region other than the region where the shape of the pixel value curve model substantially matches between the previous and subsequent 4D contrast image data from the first and subsequent first mask information, A second classification function for creating the previous second mask information and the subsequent second mask information;
By assigning a feature amount specified from each of the previous and subsequent pixel value curves to each voxel included in each region indicated by the second mask information before and after the previous, A feature amount image generation function for generating feature amount image data and the subsequent feature amount image data;
An image alignment function for aligning the positions of the feature image before and after the image;
A display image generation function for generating, for each 4D contrast image data, display image data that is aligned according to the alignment based on volume data included in each of the previous and subsequent 4D contrast image data;
A display control function for displaying on the display device a display image based on the display image data for each of the 4D contrast image data;
A medical image processing program characterized in that
JP2008073708A 2008-03-21 2008-03-21 Medical image processing apparatus and medical image processing program Active JP5478832B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008073708A JP5478832B2 (en) 2008-03-21 2008-03-21 Medical image processing apparatus and medical image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008073708A JP5478832B2 (en) 2008-03-21 2008-03-21 Medical image processing apparatus and medical image processing program

Publications (2)

Publication Number Publication Date
JP2009225943A JP2009225943A (en) 2009-10-08
JP5478832B2 true JP5478832B2 (en) 2014-04-23

Family

ID=41242066

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008073708A Active JP5478832B2 (en) 2008-03-21 2008-03-21 Medical image processing apparatus and medical image processing program

Country Status (1)

Country Link
JP (1) JP5478832B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106659465A (en) * 2014-12-18 2017-05-10 皇家飞利浦有限公司 Ultrasound imaging system and method

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6034194B2 (en) * 2009-11-16 2016-11-30 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Method for operating medical image processing apparatus, medical image processing apparatus, and computer-readable storage medium
JP5537261B2 (en) * 2010-05-25 2014-07-02 株式会社東芝 Medical image diagnostic apparatus, image information processing apparatus, and treatment support data display control program
JP5925576B2 (en) * 2012-04-23 2016-05-25 株式会社日立製作所 Image processing apparatus and image processing method
JP6320758B2 (en) * 2014-01-06 2018-05-09 キヤノンメディカルシステムズ株式会社 Medical image processing apparatus, X-ray diagnostic apparatus, and medical image processing program
JP6626344B2 (en) * 2015-09-29 2019-12-25 キヤノン株式会社 Image processing apparatus, control method for image processing apparatus, and program
JP6608110B2 (en) * 2016-04-13 2019-11-20 富士フイルム株式会社 Image alignment apparatus and method, and program
JP6611660B2 (en) 2016-04-13 2019-11-27 富士フイルム株式会社 Image alignment apparatus and method, and program
JP6833533B2 (en) * 2017-01-31 2021-02-24 キヤノンメディカルシステムズ株式会社 Ultrasonic diagnostic equipment and ultrasonic diagnostic support program
JP6491391B1 (en) * 2018-11-22 2019-03-27 国立大学法人信州大学 Blood flow dynamics analysis system, blood flow dynamics analysis method, and program
JP6807981B2 (en) * 2019-05-22 2021-01-06 富士フイルム株式会社 Image alignment equipment and methods and programs
CN114299009A (en) * 2021-12-27 2022-04-08 杭州佳量医疗科技有限公司 Medical image-based ablation region determination method, device and storage medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6745066B1 (en) * 2001-11-21 2004-06-01 Koninklijke Philips Electronics, N.V. Measurements with CT perfusion
US7583857B2 (en) * 2005-08-24 2009-09-01 Siemens Medical Solutions Usa, Inc. System and method for salient region feature based 3D multi modality registration of medical images
JP2009522004A (en) * 2005-12-30 2009-06-11 ケアストリーム ヘルス インク Follow-up inspection method for medical diagnosis

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106659465A (en) * 2014-12-18 2017-05-10 皇家飞利浦有限公司 Ultrasound imaging system and method
CN106659465B (en) * 2014-12-18 2018-07-31 皇家飞利浦有限公司 Ultrasonic image-forming system and method
US10188370B2 (en) 2014-12-18 2019-01-29 Koninklijke Philips N.V. Ultrasound imaging system and method

Also Published As

Publication number Publication date
JP2009225943A (en) 2009-10-08

Similar Documents

Publication Publication Date Title
JP5478832B2 (en) Medical image processing apparatus and medical image processing program
CN107645927B (en) Apparatus and method for assisting tissue ablation
JP4931027B2 (en) Medical image diagnosis support apparatus and method, and program
JP4786307B2 (en) Image processing device
US9066654B2 (en) Medical image processing apparatus, an X-ray CT scanner, and a medical image processing program
US8295913B2 (en) Method and device for planning and/or monitoring an interventional high-frequency thermoablation
JP6448356B2 (en) Image processing apparatus, image processing method, image processing system, and program
JP5269543B2 (en) Medical image processing apparatus, ultrasonic diagnostic apparatus, and medical image processing program
JP5053606B2 (en) Medical image diagnostic apparatus and medical image processing apparatus
US20180300890A1 (en) Ultrasonic image processing system and method and device thereof, ultrasonic diagnostic device
KR20220026534A (en) Deep learning-based tissue resection planning method
WO2011151752A1 (en) Automated quantification of intravascular embolization success
JP6415903B2 (en) Medical image processing device
JP6745998B2 (en) System that provides images to guide surgery
JP2010154982A (en) X-ray computer tomographic imaging apparatus and image processor
EP2484286B1 (en) Device and method for displaying medical image and program
JP5215444B2 (en) Medical image diagnostic apparatus and medical image processing apparatus
JP5486616B2 (en) MEDICAL IMAGE DIAGNOSIS SUPPORT DEVICE, ITS OPERATION METHOD, AND PROGRAM
JP6188379B2 (en) Medical image processing apparatus, medical image processing system, medical image diagnostic apparatus
JP2019098167A (en) Information processing device, information processing system, information processing method, and program
JP5750381B2 (en) Region extraction processing system
Laura et al. Accurate physics-based registration for the outcome validation of minimal invasive interventions and open liver surgeries
US11941808B2 (en) Medical image processing device, medical image processing method, and storage medium
Alfano et al. Tumor localization using prone to supine surface based registration for breast cancer surgical planning
KR102291824B1 (en) Method for skeleton surgical assessment using mean normal skeleton model

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140212

R150 Certificate of patent or registration of utility model

Ref document number: 5478832

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350