JP2011019768A - Image processor, image processing method and image processing program - Google Patents
Image processor, image processing method and image processing program Download PDFInfo
- Publication number
- JP2011019768A JP2011019768A JP2009168198A JP2009168198A JP2011019768A JP 2011019768 A JP2011019768 A JP 2011019768A JP 2009168198 A JP2009168198 A JP 2009168198A JP 2009168198 A JP2009168198 A JP 2009168198A JP 2011019768 A JP2011019768 A JP 2011019768A
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- dimensional image
- dimensional
- alignment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims 3
- 238000012545 processing Methods 0.000 claims abstract description 133
- 238000002591 computed tomography Methods 0.000 claims description 72
- 238000002595 magnetic resonance imaging Methods 0.000 claims description 70
- 210000004556 brain Anatomy 0.000 claims description 62
- 210000003625 skull Anatomy 0.000 claims description 56
- 238000000605 extraction Methods 0.000 claims description 25
- 238000004364 calculation method Methods 0.000 claims description 13
- 230000005484 gravity Effects 0.000 claims description 13
- 239000000284 extract Substances 0.000 abstract description 12
- 238000000034 method Methods 0.000 description 56
- 230000008569 process Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 17
- 238000007781 pre-processing Methods 0.000 description 11
- 230000004927 fusion Effects 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 7
- 230000001936 parietal effect Effects 0.000 description 7
- 230000000052 comparative effect Effects 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 238000004904 shortening Methods 0.000 description 3
- 238000005481 NMR spectroscopy Methods 0.000 description 2
- 238000010968 computed tomography angiography Methods 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 238000001356 surgical procedure Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 206010030113 Oedema Diseases 0.000 description 1
- 238000002583 angiography Methods 0.000 description 1
- 230000000740 bleeding effect Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 210000000845 cartilage Anatomy 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000001959 radiotherapy Methods 0.000 description 1
- 210000004872 soft tissue Anatomy 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
Description
本発明は、医療機器により得られた画像群の位置合わせを行う画像処理装置等に関する。 The present invention relates to an image processing apparatus and the like for aligning an image group obtained by a medical device.
身体にメスを入れることなく体の断面画像を得る、CT(Computed Tomography:コンピュータ断層撮影)やMRI(Magnetic Resonance Imaging:核磁気共鳴画像法)等の画像診断機器が広く普及している。特に、3次元画像は、コンピュータ上での手術シミュレーションや放射線治療ロボット(サイバーナイフ)での治療に不可欠なものであり、病変部の位置を精度よく特定できる画像処理技術が強く望まれている。 Diagnostic imaging apparatuses such as CT (Computed Tomography) and MRI (Magnetic Resonance Imaging) that obtain a cross-sectional image of a body without putting a scalpel into the body are widely used. In particular, a three-dimensional image is indispensable for a surgical simulation on a computer and a treatment with a radiotherapy robot (Cyber Knife), and an image processing technique capable of accurately identifying the position of a lesion is strongly desired.
しかし、CTやMRI等は、モダリティごとにそれぞれ異なる性質を有しているため、鮮明に撮像される情報も異なり、脳手術や脳研究の際には比較読影が必要となる。異なるモダリティごとの画像を並べて比較読影する場合には、内部の正確な位置を判断することが困難になると共に、比較読影に多くの時間を要する。また、比較読影する人の個人差により精度にバラつきが見られる場合も多々ある。 However, since CT, MRI, and the like have different properties for each modality, the information that is clearly imaged differs, and comparative interpretation is required for brain surgery and brain research. When images for different modalities are arranged for comparative interpretation, it is difficult to determine an accurate internal position, and much time is required for comparative interpretation. In addition, there are many cases where variations in accuracy are seen due to individual differences among persons who perform comparative interpretation.
同じモダリティにより得られた画像であっても、撮像したタイミングの違いにより、撮像時の体の角度や撮像環境が異なるため、内部の位置関係がずれてしまうことが多く、前記と同様に内部の正確な位置を判断することが困難になると共に、比較読影に多くの時間を要する。そこで、医療機器より得られた、異なる画像群の位置合わせを行ってフュージョン画像を生成する技術が開示されている(非特許文献1、2を参照)。 Even with images obtained with the same modality, the internal positional relationship often shifts due to differences in the body angle and imaging environment at the time of imaging due to differences in the timing of imaging. It is difficult to determine an accurate position, and a long time is required for comparative interpretation. Thus, a technique for generating a fusion image by aligning different image groups obtained from a medical device is disclosed (see Non-Patent Documents 1 and 2).
非特許文献1は、3次元画像データに対して相互情報量が最大となるように位置あわせを行う技術であり、画像の読込処理、前処理後にパウエル法によるパラメータの変動と相互情報量の算出を繰り返して行い、最終的に相互情報量が最大となるときのパラメータ(移動量、回転量)を最適解として決定するものである。 Non-Patent Document 1 is a technique for performing alignment so that the mutual information amount is maximized with respect to the three-dimensional image data. After the image reading process and the pre-processing, the variation of parameters and the calculation of the mutual information amount by the Powell method are performed. Are repeatedly performed, and finally the parameters (movement amount, rotation amount) when the mutual information amount is maximized are determined as the optimum solution.
非特許文献2は、アキシャル面、サジタル面のそれぞれの2次元画像データに対して、ICP法(Iterative Closest Point)により位置あわせを行う技術であり、ランドマークとして眼部を抽出し、対応するスライス画像をおおまかに決定する。そして、頭部の輪郭画像を用いてアキシャル面、サジタル面のそれぞれの2次元画像データについてICP法により位置あわせを行うものである。 Non-Patent Document 2 is a technique for aligning the two-dimensional image data of the axial plane and the sagittal plane by the ICP method (Iterative Closest Point), extracting the eye as a landmark, and corresponding slices Determine the image roughly. Then, the two-dimensional image data of the axial plane and the sagittal plane are aligned by the ICP method using the head contour image.
しかしながら、非特許文献1に示す技術は、数百枚に及ぶ画像群に対して、3次元画像データでの位置あわせを行うため、演算量が非常に多くなり、処理時間に多くの時間を費やしてしまう(実験値ではCT画像、MR画像各々約350枚に対して約6000秒)という課題を有する。特に、頭部の撮像後、直ちにサイバーナイフ等を用いた治療を行う場合には、撮像から治療までの時間を短縮することは非常に重要であり、非特許文献1に示す技術では、実用性に欠けてしまう。 However, since the technique shown in Non-Patent Document 1 performs alignment with three-dimensional image data for a group of hundreds of images, the amount of calculation becomes very large, and a lot of time is spent on processing time. (The experimental value is about 6000 seconds for each of about 350 CT images and MR images). In particular, when a treatment using a cyber knife or the like is performed immediately after imaging of the head, it is very important to shorten the time from imaging to treatment, and the technique shown in Non-Patent Document 1 is practical. Will be lacking.
非特許文献2に示す技術は、2次元画像データに対してアキシャル面、サジタル面のそれぞれで位置あわせを行うことで、非特許文献1と比較して処理時間が格段に速くなっている(実験値ではCT画像、MR画像各々約350枚に対して約70秒)が、アキシャル面とサジタル面の2軸のみで位置あわせを行っているため、3次元画像データに対する位置あわせに比べて精度の面で不十分な技術であるという課題を有する。また、アキシャル面、サジタル面のそれぞれで位置あわせを行った後に3次元画像データを剛体変換する必要があるため、処理に多少の時間が掛かってしまうという課題を有する。 The technique shown in Non-Patent Document 2 performs a much faster processing time compared to Non-Patent Document 1 by aligning the two-dimensional image data on the axial plane and the sagittal plane (experimental). The value is approximately 70 seconds for each of the 350 CT images and MR images), and the alignment is performed only with the two axes of the axial plane and the sagittal plane. There is a problem that the technology is insufficient. In addition, since it is necessary to rigidly transform the three-dimensional image data after performing alignment on each of the axial plane and the sagittal plane, there is a problem that it takes some time for processing.
そこで、医療機器から得られた3次元画像群のデータに対して、複数の局所的なVOI(Volume Of Interest)を設定して位置あわせを行うことで、処理時間を大幅に短縮しつつ、精度よく位置あわせを行う画像処理装置等を提供する。 Therefore, by setting a plurality of local VOIs (Volume Of Interest) for the data of the 3D image group obtained from the medical device, the processing time is greatly shortened and the accuracy is improved. An image processing apparatus and the like that perform alignment well are provided.
(1)本願に開示する画像処理装置は、医療機器により得られる3次元画像群の間で位置合わせを行う画像処理装置において、前記3次元画像群における複数の局所的な3次元関心領域を設定する関心領域設定手段と、当該関心領域設定手段が設定した3次元関心領域における特徴部を抽出する特徴抽出手段と、当該特徴抽出手段が抽出した特徴部について、異なる3次元画像群の間で対応する対応点を決定する対応点決定手段と、当該対応点決定手段が決定した、異なる3次元画像群の間のそれぞれの対応点が合致するように、前記対応点の位置を特定して最適なパラメータを決定するパラメータ決定手段と、当該パラメータ決定手段が決定したパラメータに基づいて、前記3次元画像群の位置あわせを行う位置あわせ手段とを備えることを特徴とするものである。 (1) An image processing apparatus disclosed in the present application sets a plurality of local three-dimensional regions of interest in the three-dimensional image group in an image processing apparatus that performs alignment between three-dimensional image groups obtained by a medical device. Region-of-interest setting means, feature extraction means for extracting feature portions in the three-dimensional region of interest set by the region-of-interest setting means, and feature portions extracted by the feature extraction means between different three-dimensional image groups A corresponding point determining unit for determining a corresponding point to be determined, and a position of the corresponding point is determined so as to match each corresponding point between different three-dimensional image groups determined by the corresponding point determining unit. Parameter determining means for determining parameters, and alignment means for aligning the three-dimensional image group based on the parameters determined by the parameter determining means It is an feature.
このように、本願に開示する画像処理装置においては、3次元画像群における複数の局所的な3次元関心領域を設定し、設定された3次元関心領域における異なる3次元画像群の間の対応点を合致させて最適化することで、異なる3次元画像群の間の画像の位置合わせ処理時間を大幅に短縮しつつ、精度よく位置合わせを行うことができるという効果を奏する。 Thus, in the image processing device disclosed in the present application, a plurality of local 3D regions of interest in a 3D image group are set, and corresponding points between different 3D image groups in the set 3D region of interest. By optimizing them, it is possible to perform the alignment with high accuracy while greatly shortening the image alignment processing time between different three-dimensional image groups.
(2)本願に開示する画像処理装置は、前記3次元画像群のアキシャル面について投影画像を生成し、当該生成された投影画像の重心を算出する重心算出手段と、前記3次元画像群のサジタル面について頭頂部の高さの差異を算出する差異算出手段とを備え、前記重心算出手段が算出した重心、及び前記差異算出手段が算出した頭頂部の高さの差異に基づいて、前記異なる3次元画像群の間の仮の位置あわせを行う初期位置あわせ手段とを備えることを特徴とするものである。 (2) An image processing apparatus disclosed in the present application generates a projection image for the axial plane of the three-dimensional image group, calculates a centroid of the generated projection image, and sagittal of the three-dimensional image group. Difference calculating means for calculating a difference in height of the top of the head with respect to the surface, and the difference 3 based on the center of gravity calculated by the center of gravity calculating means and the height difference of the top of the head calculated by the difference calculating means. And initial alignment means for performing temporary alignment between the dimensional image groups.
このように、本願に開示する画像処理装置においては、アキシャル面の投影画像での重心を算出し、サジタル面の高さ方向のずれを算出し、算出した重心を一致させると共に高さのずれを解消して位置あわせを行うことで、大まかな初期位置合わせを行うことができるため、以降の厳密な位置あわせ処理における処理範囲を限定して処理時間を短縮することができるという効果を奏する。 Thus, in the image processing device disclosed in the present application, the center of gravity of the projected image of the axial surface is calculated, the shift in the height direction of the sagittal surface is calculated, the calculated center of gravity is matched, and the height shift is calculated. By canceling and performing alignment, rough initial alignment can be performed, so that the processing time in the subsequent strict alignment processing can be limited and the processing time can be shortened.
(3)本願に開示する画像処理装置は、前記重心算出手段が行う処理を、異なる3次元画像群ごとに並列処理で行うことを特徴とするものである。
このように、本願に開示する画像処理装置においては、重心を算出する処理を異なる3次元画像群ごとに並列処理で行うことで、処理時間を短縮することができるという効果を奏する。
(3) The image processing apparatus disclosed in the present application is characterized in that the processing performed by the centroid calculating means is performed by parallel processing for each different three-dimensional image group.
As described above, the image processing apparatus disclosed in the present application has an effect that the processing time can be shortened by performing the process of calculating the center of gravity for each different three-dimensional image group by parallel processing.
(4)本願に開示する画像処理装置は、前記3次元画像群が人間の頭部を撮像した画像であり、前記関心領域設定手段が、頭部の方向を特定できる少なくとも3箇所の局所領域を関心領域として設定することを特徴とするものである。
このように、本願に開示する画像処理装置においては、3次元画像群が人間の頭部を撮像した画像である場合に、頭部の方向を特定できる少なくとも3箇所の局所領域を関心領域として設定するため、対称性のある頭部の3次元画像群であっても、正確に方向を特定し、精度よく位置合わせを行うことができるという効果を奏する。
(4) In the image processing device disclosed in the present application, the three-dimensional image group is an image obtained by imaging a human head, and the region-of-interest setting unit includes at least three local regions that can specify the head direction. It is characterized by being set as a region of interest.
As described above, in the image processing apparatus disclosed in the present application, when the three-dimensional image group is an image obtained by imaging the human head, at least three local regions that can specify the head direction are set as the regions of interest. Therefore, even if it is a three-dimensional image group of a symmetrical head, there is an effect that the direction can be accurately specified and alignment can be performed with high accuracy.
(5)本願に開示する画像処理装置は、前記設定された関心領域に、少なくとも鼻領域を含むと共に、歯領域を含まないことを特徴とするものである。
このように、本願に開示する画像処理装置においては、関心領域に、少なくとも鼻領域を含むことで特徴的な領域を捉えやすくなると共に、歯領域を含まないことでCT画像における歯領域の画像の乱れを除外して、正確な位置合わせを行うことができるという効果を奏する。
(5) The image processing apparatus disclosed in the present application is characterized in that the set region of interest includes at least a nose region and does not include a tooth region.
As described above, in the image processing device disclosed in the present application, it is easy to capture a characteristic region by including at least the nose region in the region of interest, and the tooth region image in the CT image can be captured by not including the tooth region. There is an effect that accurate alignment can be performed by removing the disturbance.
(6)本願に開示する画像処理装置は、前記3次元画像群が、CT、及び/又はMRIで撮像された画像群であり、前記位置あわせ手段により位置あわせが行われた前記CT画像群から頭蓋骨領域を抽出すると共に、当該CT画像群から抽出した頭蓋骨領域に基づいて、前記位置あわせ手段により位置あわせが行われた前記MRI画像群から頭蓋骨領域を抽出する頭蓋骨領域抽出手段と、当該頭蓋骨領域抽出手段が抽出した、前記CT画像群からの頭蓋骨領域と前記MRI画像群からの頭蓋骨領域との位置が合致する最適なパラメータを決定する頭蓋骨パラメータ決定手段と、前記位置あわせ手段により位置あわせが行われた前記MRI画像群から脳領域を抽出すると共に、当該MRI画像群から抽出した脳領域に基づいて、前記位置あわせ手段により位置あわせが行われた前記CT画像群から脳領域を抽出する脳領域抽出手段と、当該脳領域抽出手段が抽出した、前記MRI画像群からの脳領域と前記CT画像群からの脳領域との位置が合致する最適なパラメータを決定する脳パラメータ決定手段とを備え、前記位置あわせ手段が、前記頭蓋骨パラメータ決定手段が決定したパラメータ、及び脳パラメータ決定手段が決定したパラメータに基づいて、再度前記3次元画像群の位置あわせを行うことを特徴とするものである。 (6) In the image processing device disclosed in the present application, the three-dimensional image group is an image group captured by CT and / or MRI, and the CT image group that has been aligned by the alignment unit is used. A skull region extracting unit that extracts a skull region from the MRI image group that has been aligned by the positioning unit based on the skull region extracted from the CT image group, and a skull region; Skull parameter determining means for determining an optimal parameter that matches the position of the skull region from the CT image group and the skull region from the MRI image group extracted by the extracting means, and alignment by the positioning means. A brain region is extracted from the broken MRI image group, and the alignment is performed based on the brain region extracted from the MRI image group. A brain region extracting means for extracting a brain region from the CT image group that has been aligned by a stage; a brain region from the MRI image group and a brain region from the CT image group extracted by the brain region extracting means; And a brain parameter determination unit that determines an optimal parameter that matches the position, and the positioning unit again determines the parameter determined by the skull parameter determination unit and the parameter determined by the brain parameter determination unit. The three-dimensional image group is aligned.
このように、本願に開示する画像処理装置においては、既に位置あわせを行ったCT画像から抽出した頭蓋骨領域に基づいて、MRIから頭蓋骨領域を抽出し、それぞれの領域の位置あわせを行い、また、既に位置あわせを行ったMRI画像から抽出した脳領域に基づいて、CT画像から脳領域を抽出し、それぞれの領域の位置あわせを行い、それぞれの位置あわせで算出された最適パラメータで再度元画像群の位置あわせを行うため、モダリティごとの長所を活かした処理画像を生成することができるという効果を奏する。 As described above, in the image processing device disclosed in the present application, based on the skull region extracted from the already-aligned CT image, the skull region is extracted from the MRI, the respective regions are aligned, Based on the brain region extracted from the already-aligned MRI image, the brain region is extracted from the CT image, the respective regions are aligned, and the original image group is again set using the optimum parameters calculated by the respective alignments. Therefore, it is possible to generate a processed image that takes advantage of the advantages of each modality.
また、剛体である頭蓋骨領域と非剛体である脳領域とを別々に位置あわせすることで、頭蓋骨領域は、脳領域の変形や移動等に左右されずに正確な位置あわせを行うことができると共に、脳領域は、頭蓋骨領域との位置関係等に左右されずに正確な位置あわせを行うことができ、最終的により精度の高い位置あわせを行うことができるという効果を奏する。 In addition, by positioning the rigid skull region and the non-rigid brain region separately, the skull region can be accurately aligned without being affected by the deformation or movement of the brain region. The brain region can be accurately aligned without being influenced by the positional relationship with the skull region and the like, and there is an effect that alignment with higher accuracy can be performed finally.
(7)本願に開示する画像処理装置は、前記位置あわせ手段により位置合わせが行われた処理画像における任意の基準点を決定し、当該基準点を中心に前記処理画像を複数領域に分割し、当該分割された複数領域における隣接領域を、それぞれ異なる3次元画像群の画像で表示するものである。
このように、本願に開示する画像処理装置においては、位置合わせが行われた処理画像における任意の基準点を決定し、基準点を中心に処理画像を複数領域に分割し、分割された複数領域における隣接領域を、それぞれ異なる3次元画像群の画像で表示することで、一つの画像上で異なる3次元画像群の画像を比較読影することができ、医師による画像の確認作業を簡略化することができると共に、位置合わせの正確性の評価を容易に行うことができるという効果を奏する。
(7) The image processing apparatus disclosed in the present application determines an arbitrary reference point in the processed image aligned by the alignment unit, divides the processed image into a plurality of regions around the reference point, The adjacent areas in the divided plural areas are displayed as images of different three-dimensional image groups.
As described above, in the image processing device disclosed in the present application, an arbitrary reference point in the processed image that has been aligned is determined, the processed image is divided into a plurality of regions around the reference point, and the divided plurality of regions By displaying the adjacent regions in the images as images of different three-dimensional image groups, it is possible to comparatively interpret images of different three-dimensional image groups on one image, and simplify the image checking operation by the doctor. As a result, it is possible to easily evaluate the accuracy of alignment.
これまで、本発明を装置として示したが、所謂当業者であれば明らかであるように本発明を方法、及び、プログラムとして捉えることもできる。これら前記の発明の概要は、本発明に必須となる特徴を列挙したものではなく、これら複数の特徴のサブコンビネーションも発明となり得る。 Although the present invention has been shown as an apparatus so far, as will be apparent to those skilled in the art, the present invention can also be understood as a method and a program. These outlines of the invention do not enumerate the features essential to the present invention, and a sub-combination of these features can also be an invention.
以下、本発明の実施の形態を説明する。本発明は多くの異なる形態で実施可能である。従って、本実施形態の記載内容のみで本発明を解釈すべきではない。また、本実施形態の全体を通して同じ要素には同じ符号を付けている。 Embodiments of the present invention will be described below. The present invention can be implemented in many different forms. Therefore, the present invention should not be construed based only on the description of this embodiment. Also, the same reference numerals are given to the same elements throughout the present embodiment.
以下の実施の形態では、主に装置について説明するが、所謂当業者であれば明らかな通り、本発明は方法、及び、コンピュータを動作させるためのプログラムとしても実施できる。また、本発明はハードウェア、ソフトウェア、または、ハードウェア及びソフトウェアの実施形態で実施可能である。プログラムは、ハードディスク、CD−ROM、DVD−ROM、光記憶装置、または、磁気記憶装置等の任意のコンピュータ可読媒体に記録できる。さらに、プログラムはネットワークを介した他のコンピュータに記録することができる。 In the following embodiments, the apparatus will be mainly described. However, as is apparent to those skilled in the art, the present invention can also be implemented as a method and a program for operating a computer. In addition, the present invention can be implemented in hardware, software, or hardware and software embodiments. The program can be recorded on any computer-readable medium such as a hard disk, CD-ROM, DVD-ROM, optical storage device, or magnetic storage device. Furthermore, the program can be recorded on another computer via a network.
なお、以下の各実施形態においては、CTとMRIの頭部の3次元画像群について画像処理を行うものとするが、CTA(CT angiography)、MRA(MR angiography)等の画像郡を用いて画像処理を行ってもよい。また、同じモダリティにより得られた画像群に対して画像処理を行ってもよい。 In each of the following embodiments, image processing is performed on a 3D image group of the head of CT and MRI. However, an image group such as CTA (CT angiography) or MRA (MR angiography) is used for image processing. Processing may be performed. Moreover, you may perform an image process with respect to the image group obtained by the same modality.
(本発明の第1の実施形態)
本実施形態に係る画像処理装置について、図1ないし図8を用いて説明する。図1は、本実施形態に係る画像処理装置を用いたシステムの一例を示す図である。システム1は、画像処理装置10とCT11とMRI12とを備える。患者2は、CT11やMRI12により体の3次元画像を撮像され、撮像された3次元画像群が画像処理装置10に入力される。画像処理装置10は、CT11で撮像された3次元画像群とMRI12で撮像された3次元画像群との位置合わせを行い、それらをフュージョンした処理画像を生成する。医師3は、フュージョンされた処理画像を、サイバーナイフでの治療や脳手術のシミュレーションや脳研究を行うために利用する。
(First embodiment of the present invention)
The image processing apparatus according to this embodiment will be described with reference to FIGS. FIG. 1 is a diagram illustrating an example of a system using an image processing apparatus according to the present embodiment. The system 1 includes an image processing apparatus 10, a CT 11, and an MRI 12. The patient 2 receives a three-dimensional image of the body by CT11 and MRI12, and the captured three-dimensional image group is input to the image processing apparatus 10. The image processing apparatus 10 aligns the three-dimensional image group captured by the CT 11 and the three-dimensional image group captured by the MRI 12, and generates a processed image obtained by fusing them. The doctor 3 uses the fused processed image to perform treatment with a cyber knife, simulation of brain surgery, and brain research.
図2は、本実施形態に係る画像処理装置のハードウェア構成図である。画像処理装置10は、CPU21、RAM22、ROM23、ハードディスク(HDとする)24、通信I/F25、及び入出力I/F26を備える。ROM23やHD24には、オペレーティングシステムや各種プログラム(例えば、画像処理プログラム等)が格納されており、必要に応じてRAM22に読み出され、CPU21により各プログラムが実行される。通信I/F25は、他の装置(例えば、各モダリティ、管理サーバ等)と通信を行うためのインタフェースである。入出力I/F26は、キーボードやマウス等の入力機器からの入力を受け付けたり、プリンタやディスプレイ等にデータを出力するためのインタフェースである。この入出力I/F26としてUSBやRS232C等が用いられる。また、必要に応じて、光磁気ディスク、フロッピーディスク(登録商標)、CD−R、DVD−R等のリムーバブルディスクに対応したドライブを接続することができる。 FIG. 2 is a hardware configuration diagram of the image processing apparatus according to the present embodiment. The image processing apparatus 10 includes a CPU 21, a RAM 22, a ROM 23, a hard disk (HD) 24, a communication I / F 25, and an input / output I / F 26. The ROM 23 and the HD 24 store an operating system and various programs (for example, an image processing program). The ROM 23 and the HD 24 are read into the RAM 22 as necessary, and each program is executed by the CPU 21. The communication I / F 25 is an interface for communicating with other devices (for example, modalities, management servers, etc.). The input / output I / F 26 is an interface for receiving input from an input device such as a keyboard and a mouse and outputting data to a printer, a display, or the like. As this input / output I / F 26, USB, RS232C or the like is used. Further, if necessary, a drive corresponding to a removable disk such as a magneto-optical disk, a floppy disk (registered trademark), a CD-R, or a DVD-R can be connected.
図3は、本実施形態に係る画像処理装置の機能ブロック図である。画像処理装置10は、画像入力部310と前処理部320と初期処理部330と位置あわせ部340と処理画像生成部350と表示制御部360とを備える。また、初期処理部330は、重心算出部331と頭頂部差異算出部332と初期位置あわせ部333とを備え、位置あわせ部340は、VOI設定部341と特徴点抽出部342と対応点決定部343とパラメータ決定部344と最適位置あわせ部345とを備える。 FIG. 3 is a functional block diagram of the image processing apparatus according to the present embodiment. The image processing apparatus 10 includes an image input unit 310, a preprocessing unit 320, an initial processing unit 330, an alignment unit 340, a processed image generation unit 350, and a display control unit 360. The initial processing unit 330 includes a centroid calculating unit 331, a parietal difference calculating unit 332, and an initial positioning unit 333. The positioning unit 340 includes a VOI setting unit 341, a feature point extracting unit 342, and a corresponding point determining unit. 343, a parameter determining unit 344, and an optimum positioning unit 345.
画像入力部310は、入力情報であるCT11で撮像された3次元画像群(以下、CT画像とする)、及びMRI12で撮像された3次元画像群(以下、MRI画像とする)を画像情報301として入力する。前処理部320は、画像入力部310が入力した画像情報301について、位置あわせを行う前の準備として前処理を行う。前処理は、例えば等法ボクセル処理(CT画像のボクセルサイズとMRI画像のボクセルサイズとの統一化)、診察台の除去、画像の平滑化等の処理である。 The image input unit 310 uses a three-dimensional image group (hereinafter referred to as a CT image) captured by CT11 as input information and a three-dimensional image group (hereinafter referred to as an MRI image) captured by the MRI 12 as image information 301. Enter as. The preprocessing unit 320 performs preprocessing on the image information 301 input by the image input unit 310 as a preparation before alignment. The preprocessing includes, for example, isotropic voxel processing (unification of the voxel size of the CT image and the voxel size of the MRI image), removal of the examination table, smoothing of the image, and the like.
ここで、CT画像、MRI画像について説明する。図4は、本実施形態に係る画像処理装置で処理されるCT画像、MRI画像の一例を示す図である。図4(A)がCT画像であり、図4(B)がMRI画像である。CT画像は、X線が吸収された度合いを示すものであり、骨、出血、組織の浮腫等を観察することができる。MRI画像は、核磁気共鳴(NMR:Nuclear Magnetic Resonance)を利用したものであり、軟骨、筋肉、脳等の軟部組織を観察することができる。これらの画像が、画像情報301として画像入力部310に入力される。 Here, CT images and MRI images will be described. FIG. 4 is a diagram illustrating an example of a CT image and an MRI image processed by the image processing apparatus according to the present embodiment. 4A is a CT image, and FIG. 4B is an MRI image. The CT image indicates the degree to which X-rays are absorbed, and bone, bleeding, tissue edema, and the like can be observed. The MRI image uses nuclear magnetic resonance (NMR) and can observe soft tissues such as cartilage, muscle, and brain. These images are input to the image input unit 310 as image information 301.
図3に戻って、重心算出部331は、3次元画像群のアキシャル面について投影画像を生成し、生成された投影画像の重心を算出する。頭頂部差異算出部332は、3次元画像群のサジタル面について、頭頂部の位置のずれを算出する。初期位置あわせ部333は、重心算出部331が算出した重心が一致するようにアキシャル面の投影画像を平行移動すると共に、頭頂部差異算出部332が算出したずれがなくなるように(頭頂部の位置が一致するように)サジタル面の画像を平行移動して、仮の位置あわせを行う。アキシャル面とサジタル面のそれぞれで位置あわせを行うことで、3次元におけるxyzの全ての方向について仮の位置あわせを行うことができる。 Returning to FIG. 3, the center-of-gravity calculation unit 331 generates a projection image for the axial plane of the three-dimensional image group, and calculates the center of gravity of the generated projection image. The parietal difference calculation unit 332 calculates the positional deviation of the parietal part with respect to the sagittal plane of the three-dimensional image group. The initial alignment unit 333 translates the projected image on the axial surface so that the centroids calculated by the centroid calculation unit 331 coincide with each other, and eliminates the deviation calculated by the parietal difference calculation unit 332 (the position of the top of the head). The sagittal plane image is translated so that the images coincide with each other, and temporary alignment is performed. By performing alignment on each of the axial plane and the sagittal plane, provisional alignment can be performed in all three-dimensional xyz directions.
VOI設定部341は、3次元画像群における複数の局所的な関心領域を設定する。頭部の3次元画像の場合は、頭部の対称性を考慮して、少なくとも3箇所(例えば、前後頭部と左右側頭部のいずれか一、左右側頭部と前後頭部のいずれか一等)の局所領域を関心領域として設定する。 The VOI setting unit 341 sets a plurality of local regions of interest in the three-dimensional image group. In the case of a three-dimensional image of the head, in consideration of the symmetry of the head, at least three locations (for example, one of the front and rear heads and the left and right heads, one of the left and right heads and the front and back heads, etc.) ) Is set as a region of interest.
なお、関心領域を設定する数と位置は、利用者が任意に設定できるようにしてもよいが、前頭部、後頭部、左右の側頭部、及び頭頂部の5箇所を関心領域として設定することが、位置あわせの精度の観点から望ましい。また、特に特徴的な領域である鼻領域を関心領域として設定し、CT画像における画像の乱れが大きい歯領域を関心領域から除外することがさらに望ましい。 The number and position for setting the region of interest may be arbitrarily set by the user, but five regions of the frontal head, the back of the head, the left and right temporal regions, and the top of the head are set as the region of interest. This is desirable from the viewpoint of alignment accuracy. It is further desirable to set a nose region that is a particularly characteristic region as a region of interest, and to exclude a tooth region having a large image disturbance in the CT image from the region of interest.
特徴点抽出部342は、VOIの中の特徴点を抽出する。具体的には輪郭部を特徴点として抽出する。対応点決定部343は、CT画像とMRI画像との対応する対応点を決定する。つまり、特徴点抽出部342が抽出したCT画像、及びMRI画像の特徴点の点群に対して、評価関数が最小となるように対応点を決定する。パラメータ決定部344は、対応点決定部343が決定した対応点について、評価関数が最小となるように最適化を行うためのパラメータを決定する。最適位置あわせ部345は、VOI以外の領域における3次元画像群のデータについて、パラメータ決定部344が決定したパラメータに基づいて最適な位置あわせを行う。 The feature point extraction unit 342 extracts feature points in the VOI. Specifically, the contour portion is extracted as a feature point. The corresponding point determination unit 343 determines corresponding points corresponding to the CT image and the MRI image. That is, corresponding points are determined so that the evaluation function is minimized with respect to a point group of feature points of the CT image and MRI image extracted by the feature point extraction unit 342. The parameter determination unit 344 determines parameters for performing optimization so that the evaluation function is minimized for the corresponding points determined by the corresponding point determination unit 343. The optimal alignment unit 345 performs optimal alignment on the data of the 3D image group in the region other than the VOI based on the parameters determined by the parameter determination unit 344.
処理画像生成部350は、位置あわせが行われたCT画像とMRI画像を融合してフュージョン画像を生成する。表示制御部360は、処理画像生成部350が生成したフュージョン画像をディスプレイ302に表示する。 The processed image generation unit 350 generates a fusion image by fusing the aligned CT image and MRI image. The display control unit 360 displays the fusion image generated by the processed image generation unit 350 on the display 302.
次に、本実施形態に係る画像処理装置の動作について説明する。図5は、本実施形態に係る画像処理装置の動作を示すフローチャートである。まず、画像入力部310が入力したCT画像、及びMRI画像に対して前処理部320が前処理を行う(S51)。ここで、前処理について説明する。前処理は、具体的には等法ボクセル処理、診察台を除去、画像の平滑化である。 Next, the operation of the image processing apparatus according to this embodiment will be described. FIG. 5 is a flowchart showing the operation of the image processing apparatus according to this embodiment. First, the preprocessing unit 320 performs preprocessing on the CT image and MRI image input by the image input unit 310 (S51). Here, pre-processing will be described. Specifically, the preprocessing includes isotropic voxel processing, removal of the examination table, and smoothing of the image.
等法ボクセル処理は、CT画像とMRI画像のピクセルを一致させる処理である。CT画像の1ピクセルは0.683×0.683mmであり、スライス間の幅(高さ方向)が2mmとなっているため、3次元では高さ方向に長い直方体となっている。これを線形補間により立方体(0.683×0.683×0.683mm)に変換する。一方、MRI画像の1ピクセルは0.6836×0.6836mmであり、スライス間の幅(高さ方向)が2mmとなっているため、MRI画像についても同様に、立方体(0.6836×0.6836×0.6836mm)に変換し、さらにCT画像のピクセルと一致させるために、MRI画像を縮小してCT画像のピクセルと一致させる。
なお、本実施形態に係る画像処理装置においては、CT画像を基準としてMRI画像を変換して位置あわせを行うものとするが、どちらを基準の画像にしてもよい。
The isotropic voxel process is a process for matching the pixels of the CT image and the MRI image. One pixel of the CT image is 0.683 × 0.683 mm, and the width between slices (height direction) is 2 mm. Therefore, the three-dimensional shape is a rectangular parallelepiped that is long in the height direction. This is converted into a cube (0.683 × 0.683 × 0.683 mm) by linear interpolation. On the other hand, since one pixel of the MRI image is 0.6836 × 0.6836 mm and the width (height direction) between slices is 2 mm, the cube (0.6836 × 0. 6836 × 0.6836 mm), and in order to match the pixels of the CT image, the MRI image is reduced to match the pixels of the CT image.
In the image processing apparatus according to the present embodiment, the MRI image is converted and aligned using the CT image as a reference, but either may be used as a reference image.
診察台の除去は、図4(A)に示すように、画像中に診察台が撮像されている場合に、誤差として検出されることを防止するために診察台を除去する。診察台は毎回固定された位置に撮像されるため、その位置に撮像された物体を除去することで、診察台を除去することができる。画像の平滑化は、画素値が極端に変化するようなノイズが含まれている場合に、加重平均によりそのノイズを除去して画像を平滑化する。 As shown in FIG. 4A, the examination table is removed in order to prevent the examination table from being detected as an error when the examination table is captured in the image. Since the examination table is imaged at a fixed position every time, the examination table can be removed by removing the object imaged at that position. In the smoothing of an image, when noise that causes an extreme change in pixel value is included, the noise is removed by weighted averaging to smooth the image.
図5に戻って、S51の前処理が完了すると、初期処理部330が初期位置あわせを行う(S52)。初期位置あわせは、後の処理で行う厳密な位置あわせの処理範囲を限定し、処理時間を短縮するための仮の大まかな位置あわせである。まず重心算出部331が、アキシャル面について投影画像を生成し、生成した投影画像の重心を算出する。また、頭頂部差異算出部332が、サジタル面について頭頂部の高さの相違を算出する。そして、初期位置あわせ部333が、算出した重心が一致するようにx−y方向の平行移動を行うと共に、頭頂部の高さが一致するようにz方向の平行移動を行う。それぞれの方向に平行移動を行うことで、3次元画像データとして重心を一致させて、仮の位置あわせを行うことができる。 Returning to FIG. 5, when the preprocessing of S51 is completed, the initial processing unit 330 performs initial alignment (S52). The initial alignment is a tentative rough alignment for limiting the processing range of strict alignment performed in later processing and shortening the processing time. First, the center-of-gravity calculation unit 331 generates a projection image for the axial plane, and calculates the center of gravity of the generated projection image. In addition, the parietal difference calculation unit 332 calculates the difference in the height of the parietal part with respect to the sagittal plane. Then, the initial alignment unit 333 performs parallel translation in the xy direction so that the calculated centroids coincide with each other, and performs parallel translation in the z direction so that the heights of the crowns coincide. By performing parallel movement in each direction, the centroids can be matched as three-dimensional image data, and temporary alignment can be performed.
なお、上記S51、S52は、処理の迅速化のために並列で実行されることが望ましい。例えば、複数の画像処理装置を用いて並列処理を行ってもよいし、複数のCPUを有する1つの画像処理装置で並列処理を実現してもよい。 Note that S51 and S52 are preferably executed in parallel for speeding up the processing. For example, parallel processing may be performed using a plurality of image processing devices, or parallel processing may be realized by a single image processing device having a plurality of CPUs.
初期位置あわせが完了すると、位置あわせ部340が、ICP法による厳密な位置あわせ処理を行う(S53)。ここで、ICP法による位置あわせ処理について詳細に説明する。図6は、本実施形態に係る画像処理装置におけるICP法による位置あわせ処理を示すフローチャートである。 When the initial alignment is completed, the alignment unit 340 performs a strict alignment process by the ICP method (S53). Here, the alignment process by the ICP method will be described in detail. FIG. 6 is a flowchart showing the alignment process by the ICP method in the image processing apparatus according to this embodiment.
まず、VOI設定部341が3次元画像群におけるVOIを設定する(S61)。VOIは、上述したように、頭部の対称性を考慮して、少なくとも3箇所(例えば、前後頭部と左右側頭部のいずれか一、左右側頭部と前後頭部のいずれか一等)の局所領域を関心領域として設定する。 First, the VOI setting unit 341 sets a VOI in the three-dimensional image group (S61). As described above, the VOI has at least three locations (for example, any one of the front and rear heads and the left and right heads, or one of the left and right heads and the front and back heads) in consideration of the symmetry of the head. A local region is set as a region of interest.
図7は、本実施形態に係る画像処理装置においてVOIを設定する処理を示す図である。ここでは、位置あわせの精度をよくするために、前頭部、後頭部、左右の側頭部、及び頭頂部の5箇所を関心領域として設定している。また、特に特徴的な領域である鼻領域を関心領域として設定し、CT画像における画像の乱れが大きい歯領域を関心領域から除外している。 FIG. 7 is a diagram showing processing for setting a VOI in the image processing apparatus according to the present embodiment. Here, in order to improve the alignment accuracy, five areas of the frontal head, the back of the head, the left and right temporal regions, and the top of the head are set as the regions of interest. In addition, a nose region, which is a particularly characteristic region, is set as a region of interest, and a tooth region having a large image disturbance in the CT image is excluded from the region of interest.
図6に戻って、S61でVOIが設定されると、特徴点抽出部342が、設定されたVOIにおける特徴点を抽出する(S62)。図8は、本実施形態に係る画像処理装置においてVOIの特徴点を抽出した模式図である。図8(A)は、CT画像におけるVOIの特徴抽出を示し、図8(B)は、MRI画像におけるVOIの特徴抽出を示している。上段の2図は正面から見た場合の特徴抽出であり、下段の2図は側面から見た場合の特徴抽出である。 Returning to FIG. 6, when the VOI is set in S61, the feature point extraction unit 342 extracts the feature points in the set VOI (S62). FIG. 8 is a schematic diagram in which VOI feature points are extracted in the image processing apparatus according to the present embodiment. FIG. 8A shows VOI feature extraction from a CT image, and FIG. 8B shows VOI feature extraction from an MRI image. The upper two figures are feature extraction when viewed from the front, and the lower two figures are feature extraction when viewed from the side.
ここで、CT画像においては18×18ピクセルを抽出し、MRI画像においては6×6ピクセルを抽出している。これは、本実施形態においては、CT画像を基準の画像データとして固定し、MRI画像の変換を行うことで位置あわせをするためであり、発明者らによる繰り返しの実験の結果、このサイズを最適なサイズとして設定している。 Here, 18 × 18 pixels are extracted from the CT image, and 6 × 6 pixels are extracted from the MRI image. This is because, in the present embodiment, the CT image is fixed as reference image data and the MRI image is converted to perform alignment. As a result of repeated experiments by the inventors, this size is optimized. The size is set.
図6に戻って、各VOIにおける特徴点を抽出すると、対応点決定部343がICP法によりCT画像とMRI画像の対応点を決定し(S63)、パラメータ決定部344が評価関数の最適化を行う(S64)。評価関数が最適値であるかどうかを判定し(S65)、最適値でなければ、最適値になるまでS63、S64の処理を繰り返して行う。最適値になれば、ICP法による位置あわせ処理を終了する。 Returning to FIG. 6, when feature points in each VOI are extracted, the corresponding point determination unit 343 determines corresponding points between the CT image and the MRI image by the ICP method (S63), and the parameter determination unit 344 optimizes the evaluation function. Perform (S64). It is determined whether or not the evaluation function is an optimum value (S65), and if it is not the optimum value, the processes of S63 and S64 are repeated until the optimum value is reached. When the optimum value is reached, the alignment process by the ICP method is terminated.
ここで、ICP法によるS63、S64の処理のアルゴリズムを説明する。ICP法は、2つの画像データが最も一致するように変換を行う手法の一つである。本実施形態においては、VOIの特徴点から得られるCT画像の点群とMRIの画像の点群が最も一致するようにMRI画像の変換を行う。2つの点群をそれぞれ Here, the processing algorithm of S63 and S64 by the ICP method will be described. The ICP method is one of the methods for performing conversion so that two image data most closely match. In the present embodiment, the MRI image is converted so that the point group of the CT image obtained from the VOI feature points and the point group of the MRI image most closely match. Each of the two point clouds
図5に戻って、最適位置あわせ部345が、S53で求めた最適解におけるパラメータの変動量(平行移動量、回転量)を用いて、VOI以外の領域についてMRI画像の変換処理を行う(S54)。処理画像生成部350が、CT画像とMRI画像を融合したフュージョン画像を生成して(S55)、処理を終了する。 Returning to FIG. 5, the optimum alignment unit 345 performs the MRI image conversion process for the region other than the VOI by using the parameter fluctuation amount (parallel movement amount, rotation amount) in the optimum solution obtained in S53 (S54). ). The processed image generation unit 350 generates a fusion image obtained by fusing the CT image and the MRI image (S55), and ends the process.
このように、本実施形態に係る画像処理装置によれば、3次元画像群における複数の局所的な3次元関心領域を設定し、設定された3次元関心領域における異なる3次元画像群の間の対応点を合致させて最適化することで、異なる3次元画像群の間の画像の位置合わせ処理時間を大幅に短縮しつつ、精度よく位置合わせを行うことができる。 As described above, according to the image processing apparatus according to the present embodiment, a plurality of local 3D regions of interest in a 3D image group are set, and between different 3D image groups in the set 3D region of interest. By matching the corresponding points and optimizing, it is possible to perform the alignment with high accuracy while greatly shortening the image alignment processing time between different three-dimensional image groups.
また、アキシャル面の投影画像での重心を算出し、サジタル面の高さ方向のずれを算出し、算出した重心を一致させると共に高さのずれを解消して位置あわせを行うことで、大まかな初期位置合わせを行うことができるため、処理範囲を限定して処理時間を短縮することができる。
さらに、重心を算出する処理を異なる3次元画像群ごとに並列処理で行うことで、処理時間を短縮することができる。
In addition, by calculating the center of gravity in the projected image of the axial surface, calculating the displacement in the height direction of the sagittal surface, aligning the calculated center of gravity, and aligning by eliminating the height displacement, it is possible to roughly Since initial alignment can be performed, the processing time can be shortened by limiting the processing range.
Furthermore, the processing time can be shortened by performing the processing for calculating the center of gravity by parallel processing for each different three-dimensional image group.
さらにまた、3次元画像群が人間の頭部を撮像した画像である場合に、頭部の方向を特定できる少なくとも3箇所の局所領域を関心領域として設定することで、対称性のある頭部の3次元画像群であっても、正確に方向を特定し、精度よく位置合わせを行うことができる。
さらにまた、関心領域に、少なくとも鼻領域が含まれることで、特徴部を捉えやすくなると共に、正確な位置合わせを行うことができる。
Furthermore, when the three-dimensional image group is an image of a human head, by setting at least three local regions that can identify the head direction as regions of interest, Even in the case of a three-dimensional image group, it is possible to accurately specify the direction and perform alignment with high accuracy.
Furthermore, since at least the nose region is included in the region of interest, the feature portion can be easily captured and accurate alignment can be performed.
(本発明の第2の実施形態)
本実施形態に係る画像処理装置について、図9ないし図12を用いて説明する。本実施形態に係る画像処理装置は、CTが頭蓋骨を容易に抽出でき、脳領域を抽出しにくく、MRIが脳領域を容易に抽出でき、頭蓋骨領域を抽出しにくいという性質を利用して、より精度の高い位置あわせを実現している。
なお、本実施形態においては、前記第1の実施形態と重複する説明については省略する。
(Second embodiment of the present invention)
The image processing apparatus according to this embodiment will be described with reference to FIGS. The image processing apparatus according to the present embodiment uses the property that CT can easily extract the skull, difficult to extract the brain region, MRI can easily extract the brain region, and difficult to extract the skull region. Highly accurate alignment is achieved.
In addition, in this embodiment, the description which overlaps with the said 1st Embodiment is abbreviate | omitted.
図9は、本実施形態に係る画像処理装置の機能ブロック図である。前記第1の実施形態と異なるのは、脳領域抽出部370と頭蓋骨領域抽出部380と非剛体位置あわせ部390とを新たに備えることである。脳領域抽出部370は、既に位置あわせが行われているMRI画像から脳領域を抽出すると共に、抽出した脳領域に基づいて、既に位置あわせが行われているCT画像から脳領域を抽出する。頭蓋骨領域抽出部380は、既に位置あわせが行われているCT画像から頭蓋骨領域を抽出すると共に、抽出した頭蓋骨領域に基づいて、既に位置あわせが行われているMRI画像から頭蓋骨領域を抽出する。 FIG. 9 is a functional block diagram of the image processing apparatus according to the present embodiment. The difference from the first embodiment is that a brain region extraction unit 370, a skull region extraction unit 380, and a non-rigid body alignment unit 390 are newly provided. The brain region extraction unit 370 extracts a brain region from an MRI image that has already been aligned, and extracts a brain region from a CT image that has already been aligned based on the extracted brain region. The skull region extraction unit 380 extracts the skull region from the CT image that has already been aligned, and extracts the skull region from the MRI image that has already been aligned based on the extracted skull region.
非剛体位置あわせ部390は、脳領域抽出部370が抽出したMRI画像からの脳領域とCT画像からの脳領域とを位置あわせして、最適なパラメータの変動量を算出し、元の入力画像に対して変換する処理を行う。ここでの脳領域の位置あわせは、非剛体の位置あわせとなるため、ICP法による位置あわせを行うことが困難となる。そのため、最適なパラメータの変動量を算出する際には、例えば相互情報量を算出し、相互情報量が最大となる時のパラメータを最適解として算出する。 The non-rigid registration unit 390 aligns the brain region from the MRI image extracted by the brain region extraction unit 370 and the brain region from the CT image, calculates the amount of variation of the optimal parameter, and calculates the original input image Performs conversion processing for. Since the alignment of the brain region here is alignment of a non-rigid body, it is difficult to perform alignment by the ICP method. Therefore, when calculating the variation amount of the optimal parameter, for example, the mutual information amount is calculated, and the parameter when the mutual information amount is maximized is calculated as the optimal solution.
一方、頭蓋骨領域の位置あわせについては、位置あわせ部340で行うICP法を用いた位置あわせが可能であるため、位置あわせ部340が、頭蓋骨領域抽出部380が抽出したCT画像からの頭蓋骨領域とMRI画像からの頭蓋骨領域とを位置あわせして、最適なパラメータを算出し、元の入力画像に対して変換する処理を行う。 On the other hand, since the positioning using the ICP method performed by the positioning unit 340 is possible for the positioning of the skull region, the positioning unit 340 detects the skull region from the CT image extracted by the skull region extracting unit 380. By aligning the skull region from the MRI image, the optimum parameters are calculated, and the original input image is converted.
処理画像生成部350は、位置あわせ部340にて頭蓋骨領域を用いて変換された画像と、非剛体位置あわせ部390にて脳領域を用いて変換された画像とを融合してフュージョン画像を生成する。 The processed image generation unit 350 generates a fusion image by fusing the image converted by the registration unit 340 using the skull region and the image converted by the non-rigid registration unit 390 using the brain region. To do.
次に、本実施形態に係る画像処理装置の動作について説明する。図10は、本実施形態に係る画像処理装置の動作を示すフローチャートである。S101からS104までの処理は、前記第1の実施形態における図5に示す、S51からS54までの処理と同じであるため、説明は省略する。 Next, the operation of the image processing apparatus according to this embodiment will be described. FIG. 10 is a flowchart showing the operation of the image processing apparatus according to this embodiment. Since the processing from S101 to S104 is the same as the processing from S51 to S54 shown in FIG. 5 in the first embodiment, description thereof will be omitted.
S104で画像の変換が行われると、頭蓋骨領域に関する処理と脳領域に関する処理が並列で行われる(S105)。頭蓋骨領域に関する処理は、まず頭蓋骨領域抽出部380が、CT画像から頭蓋骨領域を抽出する(S106)。頭蓋骨領域を抽出する際には、多重閾値処理により抽出する。つまり、頭蓋骨を示す画素値の範囲を閾値で設定し、その範囲内の画素を頭蓋骨領域として抽出する。 When image conversion is performed in S104, processing related to the skull region and processing related to the brain region are performed in parallel (S105). In the process related to the skull region, first, the skull region extraction unit 380 extracts the skull region from the CT image (S106). When extracting the skull region, it is extracted by multiple threshold processing. That is, a range of pixel values indicating the skull is set as a threshold, and pixels within the range are extracted as a skull region.
抽出した頭蓋骨領域に基づいて、MRI画像から頭蓋骨領域を抽出する(S107)。このとき、既に位置あわせが行われているMRI画像から、CT画像における頭蓋骨領域と同一の領域を抽出することで、MRI画像から頭蓋骨領域を抽出することができる。位置あわせ部340が、S106、及びS107で抽出した頭蓋骨領域について、剛体として位置あわせして、最適なパラメータの変動量を決定する(S108)。このS108の処理は、図6に示す、ICP法による位置あわせと同じ処理で行う。 Based on the extracted skull region, a skull region is extracted from the MRI image (S107). At this time, the skull region can be extracted from the MRI image by extracting the same region as the skull region in the CT image from the MRI image that has already been aligned. The alignment unit 340 aligns the skull region extracted in S106 and S107 as a rigid body, and determines an optimal parameter fluctuation amount (S108). The process of S108 is performed by the same process as the alignment by the ICP method shown in FIG.
一方、脳領域に関する処理は、まず脳領域抽出部370が、MRI画像から脳領域を抽出する(S109)。脳領域を抽出する際には、領域拡張法により抽出する。つまり、同じ特徴を持つ領域(画素)を1つの領域に統合していき、最終的に脳領域として抽出する。このとき、既に位置あわせが行われているMRI画像から脳領域を抽出する。 On the other hand, in the process related to the brain region, first, the brain region extraction unit 370 extracts the brain region from the MRI image (S109). When the brain region is extracted, it is extracted by the region expansion method. That is, regions (pixels) having the same characteristics are integrated into one region and finally extracted as a brain region. At this time, brain regions are extracted from MRI images that have already been aligned.
抽出した脳領域に基づいて、CT画像から脳領域を抽出する(S110)。既に位置あわせが行われているMRI画像から抽出した脳領域と同一の領域を抽出することで、CT画像から脳領域を抽出することができる。非剛体位置あわせ部390が、S109、及びS110で抽出した脳領域を、非剛体として位置あわせして、最適なパラメータの変動量を決定する(S111)。このS111の処理は、非剛体に対して行う処理であるため、ICP法による位置あわせを行わず、相互情報量を用いた位置あわせにより行う。つまり、相互情報量が最大となるように最適なパラメータの変動量を決定する。 A brain region is extracted from the CT image based on the extracted brain region (S110). By extracting the same region as the brain region extracted from the MRI image that has already been aligned, the brain region can be extracted from the CT image. The non-rigid body alignment unit 390 aligns the brain regions extracted in S109 and S110 as non-rigid bodies, and determines an optimal parameter fluctuation amount (S111). Since the process of S111 is a process performed on a non-rigid body, alignment by the mutual information amount is performed without performing alignment by the ICP method. That is, an optimal parameter fluctuation amount is determined so that the mutual information amount is maximized.
S108、及びS111で決定した最適なパラメータの変動量を用いて、元の画像群に対して再変換を行う(S112)。処理画像生成部350が、再変換された画像群を融合してフュージョン画像を生成し(S113)、処理を終了する。 Retransformation is performed on the original image group using the optimum parameter variation determined in S108 and S111 (S112). The processed image generation unit 350 generates a fusion image by fusing the reconverted image group (S113), and ends the process.
上記図10に示す処理の結果について図11、及び図12を用いて説明する。図11は、本実施形態に係る画像処理装置の処理結果の一例を示す第1の図、図12は、本実施形態に係る画像処理装置の処理結果の一例を示す第2の図である。図11(A)はCT画像から抽出した頭蓋骨領域を示す図であり、図11(B)はMRI画像から抽出した脳領域を示す図である。図11で抽出された、頭蓋骨領域、及び脳領域ごとにそれぞれCT画像とMRI画像の位置あわせを行い、融合したフュージョン画像が図12である。図12において、左から順に頭部前面図、頭部上面図、頭部側面図を示しており、各画像から頭蓋骨に脳がぴったり収まり、正確に位置あわせが行われていることがわかる。 The result of the process shown in FIG. 10 will be described with reference to FIGS. 11 and 12. FIG. 11 is a first diagram illustrating an example of a processing result of the image processing apparatus according to the present embodiment, and FIG. 12 is a second diagram illustrating an example of a processing result of the image processing apparatus according to the present embodiment. FIG. 11A is a diagram illustrating a skull region extracted from a CT image, and FIG. 11B is a diagram illustrating a brain region extracted from an MRI image. FIG. 12 shows a fusion image obtained by aligning the CT image and the MRI image for each skull region and brain region extracted in FIG. In FIG. 12, a front view of the head, a top view of the head, and a side view of the head are shown in order from the left, and it can be seen from each image that the brain fits exactly on the skull and is accurately aligned.
このように、本実施形態に係る画像処理装置によれば、既に位置あわせを行ったCT画像から抽出した頭蓋骨領域に基づいて、MRIから頭蓋骨領域を抽出し、それぞれの領域の位置あわせを行い、また、既に位置あわせを行ったMRI画像から抽出した脳領域に基づいて、CT画像から脳領域を抽出し、それぞれの領域の位置あわせを行い、それぞれの位置あわせで算出された最適パラメータで再度元画像群の位置あわせを行うため、モダリティごとの長所を活かした処理画像を生成することができる。 Thus, according to the image processing apparatus according to the present embodiment, based on the skull region extracted from the already-aligned CT image, the skull region is extracted from the MRI, and the respective regions are aligned, In addition, based on the brain region extracted from the MRI image that has already been aligned, the brain region is extracted from the CT image, the respective regions are aligned, and the original parameters are restored using the optimum parameters calculated for each alignment. Since the image groups are aligned, it is possible to generate a processed image that takes advantage of the advantages of each modality.
また、剛体である頭蓋骨領域と非剛体である脳領域とを別々に位置あわせすることで、頭蓋骨領域は、脳領域の変形や移動等に左右されずに正確な位置あわせを行うことができると共に、脳領域は、頭蓋骨領域との位置関係等に左右されずに正確な位置あわせを行うことができ、最終的により精度の高い位置あわせを行うことができる。 In addition, by positioning the rigid skull region and the non-rigid brain region separately, the skull region can be accurately aligned without being affected by the deformation or movement of the brain region. In addition, the brain region can be accurately aligned regardless of the positional relationship with the skull region and the like, and finally, a more accurate alignment can be performed.
(本発明の第3の実施形態)
本実施形態に係る画像処理装置について、図13を用いて説明する。本実施形態に係る画像処理装置は、位置あわせの処理が施された処理画像について、位置あわせが正確であるかどうかを視認により判定する際に、その表示制御を工夫することで、視認しやすくするものである。
(Third embodiment of the present invention)
The image processing apparatus according to this embodiment will be described with reference to FIG. The image processing apparatus according to the present embodiment makes it easy to visually recognize the processed image subjected to the alignment process by devising the display control when visually determining whether the alignment is accurate. To do.
具体的には、表示制御部360が、処理画像生成部350にて生成された処理画像における任意の基準点を決定し、その基準点を中心に処理画像を複数領域(例えば、2分割、4分割、8分割等)に分割する。そして、分割された各領域において、CT画像とMRI画像が隣接するように表示制御する。 Specifically, the display control unit 360 determines an arbitrary reference point in the processed image generated by the processed image generation unit 350, and the processed image is divided into a plurality of regions (for example, divided into two, four, etc.) around the reference point. Divided into 8 divisions, etc.). In each divided area, display control is performed so that the CT image and the MRI image are adjacent to each other.
図13は、本実施形態に係る画像処理装置における処理画像の表示態様の一例を示す図である。図13において、領域130には、位置あわせ前の元CT画像132と元MRI画像133が表示されており、領域131には、位置あわせを行った処理画像135が表示されている。基準点134は、利用者により任意に選択された位置であり、カーソルの位置が基準点134となっている。利用者は必要に応じてマウスや十字キーを使ってカーソルを移動させ、基準点134の位置を変更することができる。 FIG. 13 is a diagram illustrating an example of a display mode of a processed image in the image processing apparatus according to the present embodiment. In FIG. 13, an original CT image 132 and an original MRI image 133 before alignment are displayed in an area 130, and a processed image 135 after alignment is displayed in an area 131. The reference point 134 is a position arbitrarily selected by the user, and the position of the cursor is the reference point 134. The user can change the position of the reference point 134 by moving the cursor using a mouse or a cross key as necessary.
また、ここでは処理画像135を、基準点134を中心に4分割に分割しており、分割領域ごとに元CT画像132と元MRI画像133とが隣接して表示されている。領域131において、左上と右下の領域が元CT画像であり、右上と左下の領域が元MRI画像である。このように、分割された領域の隣接領域間で元CT画像132と元MRI画像133とを表示することで、それぞれの境界領域において、位置あわせの精度を視認することが可能となる。また、カーソルの位置を自由に変更できるため、位置あわせの確認が必要な箇所をカーソルの移動のみ簡単に確認することが可能となる。
なお、上述したように、処理画像135の分割数は、2分割、4分割、6分割、8分割等偶数個であればいくつでもよい。
Here, the processed image 135 is divided into four parts around the reference point 134, and the original CT image 132 and the original MRI image 133 are displayed adjacent to each other for each divided region. In the area 131, the upper left and lower right areas are original CT images, and the upper right and lower left areas are original MRI images. Thus, by displaying the original CT image 132 and the original MRI image 133 between the adjacent areas of the divided areas, it is possible to visually recognize the alignment accuracy in each boundary area. In addition, since the position of the cursor can be freely changed, only the movement of the cursor can be easily confirmed at a position that needs to be confirmed.
As described above, the number of divisions of the processed image 135 may be any number as long as it is an even number such as two divisions, four divisions, six divisions, and eight divisions.
このように、本実施形態に係る画像処理装置によれば、位置合わせが行われた処理画像における任意の基準点を決定し、基準点を中心に処理画像を複数領域に分割し、分割された複数領域における隣接領域を、それぞれ異なる3次元画像群の画像で表示することで、一つの画像上で異なる3次元画像群の画像を比較読影することができ、医師による画像の確認作業を簡略化することができると共に、位置合わせの正確性の評価を容易に行うことができる。 As described above, according to the image processing apparatus according to the present embodiment, an arbitrary reference point in the processed image that has been aligned is determined, and the processed image is divided into a plurality of regions around the reference point. By displaying adjacent areas in multiple areas as images of different 3D image groups, it is possible to compare and interpret images of different 3D image groups on one image, simplifying the work of checking images by a doctor In addition, the accuracy of alignment can be easily evaluated.
以上の前記各実施形態により本発明を説明したが、本発明の技術的範囲は実施形態に記載の範囲には限定されず、これら各実施形態に多様な変更又は改良を加えることが可能である。そして、かような変更又は改良を加えた実施の形態も本発明の技術的範囲に含まれる。このことは、特許請求の範囲及び課題を解決する手段からも明らかなことである。 Although the present invention has been described with the above embodiments, the technical scope of the present invention is not limited to the scope described in the embodiments, and various modifications or improvements can be added to these embodiments. . And embodiment which added such a change or improvement is also contained in the technical scope of the present invention. This is apparent from the claims and the means for solving the problems.
前記第1の実施形態に係る画像処理装置を用いて、3次元画像群の位置あわせの実験を行った。
(条件)
3次元画像群としてCT画像とMRI画像を5セット用意し、CT画像を基準とし、MRI画像を移動させて位置あわせを行うものとする。CT画像は、512×512ピクセル、ピクセルサイズ0.683mm、スライス厚2mmの画像120枚を用い、MRI画像は、512×512ピクセル、ピクセルサイズ0.6836mm、スライス厚2mmの画像120枚を用いる。
Using the image processing apparatus according to the first embodiment, an experiment for positioning a three-dimensional image group was performed.
(conditions)
Assume that five sets of CT images and MRI images are prepared as a three-dimensional image group, and the MRI images are moved and aligned with reference to the CT images. The CT image uses 120 images of 512 × 512 pixels, a pixel size of 0.683 mm, and a slice thickness of 2 mm, and the MRI image uses 120 images of 512 × 512 pixels, a pixel size of 0.6836 mm, and a slice thickness of 2 mm.
本実験において、それぞれの画像が正しく重なっているかどうかの評価の尺度として、処理時間と相互情報量を用いる。ここで、相互情報量について説明する。相互情報量は、2つの事柄のうち、一方を知ることによってもたらされた他方に関する情報量である。相互情報量I(A,B)は次式で定義される。 In this experiment, processing time and mutual information are used as a measure for evaluating whether or not each image is correctly overlapped. Here, the mutual information amount will be described. The mutual information amount is an information amount regarding the other brought about by knowing one of the two matters. The mutual information I (A, B) is defined by the following equation.
画像で相互情報量を求める際には、2つの画像の対応する画素の画素値aとbとを用いて作成したヒストグラムh(a,b)を画素数Nで割ることにより、確率分布関数と考えることができる。よって、 When obtaining mutual information in an image, a probability distribution function is obtained by dividing a histogram h (a, b) created using pixel values a and b of corresponding pixels of two images by the number N of pixels. Can think. Therefore,
(結果)
上記条件で実験を行った結果を下記の表に示す。表1は相互情報量の結果を示したものであり、表2は処理時間(s)の結果を示したものである。
(result)
The results of experiments conducted under the above conditions are shown in the following table. Table 1 shows the result of mutual information, and Table 2 shows the result of processing time (s).
表1からわかる通り、相互情報量は、先行技術文献に示す非特許文献1、2とほぼ同じ値であることから、位置あわせの精度については、従来技術と遜色なく行われている。一方、表2の処理時間については、非特許文献1に示す技術と比較して、約1/360にまで短くなり、非特許文献2に示す技術と比較しても約1/4以下にまで短くなっている。さらに、並列処理を採用した場合には、採用していない場合と比較して、3/5程度短くなっている。 As can be seen from Table 1, the mutual information amount is almost the same as that of the non-patent documents 1 and 2 shown in the prior art document, and therefore, the positioning accuracy is performed in the same manner as the conventional technology. On the other hand, the processing time in Table 2 is shortened to about 1/460 compared to the technique shown in Non-Patent Document 1, and is about 1/4 or less compared to the technique shown in Non-Patent Document 2. It is getting shorter. Furthermore, when the parallel processing is adopted, it is about 3/5 shorter than the case where the parallel processing is not adopted.
また、図14に本発明に係る画像処理装置により融合されたフュージョン画像を示す。図面の都合上わかりにくいが、図14(B)、(E)では、2次元画像について2軸により位置あわせを行っているため、一部脳と頭蓋骨が重なっている領域が存在しているが、図14(C)、(F)では、3次元データでの位置あわせを行っているため、それが改善されてCT画像とMRI画像の正確な位置あわせが行われている。 FIG. 14 shows a fusion image fused by the image processing apparatus according to the present invention. Although it is difficult to understand for convenience of drawing, in FIGS. 14B and 14E, since the two-dimensional image is aligned by two axes, there is a region where the brain and the skull partially overlap. In FIGS. 14C and 14F, since the alignment is performed using the three-dimensional data, the CT image and the MRI image are accurately aligned by improving the alignment.
つまり、本発明に係る画像処理装置は、高い精度を保ちつつ処理時間を格段に短縮することができるため、今後は実用的な使い方が可能となり、医療の発達に大きく貢献することができるものである。 In other words, the image processing apparatus according to the present invention can greatly reduce the processing time while maintaining high accuracy, so that it can be practically used in the future, and can greatly contribute to medical development. is there.
1 システム
2 患者
3 医師
10 画像処理装置
11 CT
12 MRI
21 CPU
22 RAM
23 ROM
24 HD
25 通信I/F
26 入出力I/F
301 画像情報
302 ディスプレイ
310 画像入力部
320 前処理部
330 初期処理部
331 重心算出部
332 頭頂部差異算出部
333 初期位置あわせ部
340 位置あわせ部
341 VOI設定部
342 特徴点抽出部
343 対応点決定部
344 パラメータ決定部
345 最適位置あわせ部
350 処理画像生成部
360 表示制御部
370 脳領域抽出部
380 頭蓋骨領域抽出部
390 非剛体位置あわせ部
1 System 2 Patient 3 Doctor 10 Image Processing Device 11 CT
12 MRI
21 CPU
22 RAM
23 ROM
24 HD
25 Communication I / F
26 I / O I / F
301 Image Information 302 Display 310 Image Input Unit 320 Pre-Processing Unit 330 Initial Processing Unit 331 Center of Gravity Calculation Unit 332 Parietal Difference Calculation Unit 333 Initial Positioning Unit 340 Positioning Unit 341 VOI Setting Unit 342 Feature Point Extracting Unit 343 Corresponding Point Determination Unit 344 Parameter determination unit 345 Optimal alignment unit 350 Processed image generation unit 360 Display control unit 370 Brain region extraction unit 380 Skull region extraction unit 390 Non-rigid body alignment unit
Claims (9)
前記3次元画像群における複数の局所的な3次元関心領域を設定する関心領域設定手段と、
当該関心領域設定手段が設定した3次元関心領域における特徴部を抽出する特徴抽出手段と、
当該特徴抽出手段が抽出した特徴部について、異なる3次元画像群の間で対応する対応点を決定する対応点決定手段と、
当該対応点決定手段が決定した、異なる3次元画像群の間のそれぞれの対応点が合致するように、前記対応点の位置を特定して最適なパラメータを決定するパラメータ決定手段と、
当該パラメータ決定手段が決定したパラメータに基づいて、前記3次元画像群の位置あわせを行う位置あわせ手段とを備えることを特徴とする画像処理装置。 In an image processing apparatus that performs alignment between three-dimensional image groups obtained by a medical device,
Region-of-interest setting means for setting a plurality of local three-dimensional regions of interest in the three-dimensional image group;
Feature extraction means for extracting a feature portion in the three-dimensional region of interest set by the region of interest setting means;
Corresponding point determination means for determining corresponding points between different three-dimensional image groups for the feature portion extracted by the feature extraction means;
Parameter determining means for determining the optimum parameters by specifying the positions of the corresponding points so that the corresponding points between the different three-dimensional image groups determined by the corresponding point determining means match;
An image processing apparatus comprising: an alignment unit configured to align the three-dimensional image group based on the parameter determined by the parameter determination unit.
前記3次元画像群のアキシャル面について投影画像を生成し、当該生成された投影画像の重心を算出する重心算出手段と、
前記3次元画像群のサジタル面について頭頂部の高さの差異を算出する差異算出手段とを備え、
前記重心算出手段が算出した重心、及び前記差異算出手段が算出した頭頂部の高さの差異に基づいて、前記異なる3次元画像群の間の仮の位置あわせを行う初期位置あわせ手段とを備えることを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
Centroid calculating means for generating a projection image for the axial plane of the three-dimensional image group and calculating the centroid of the generated projection image;
A difference calculating means for calculating a difference in height of the top of the sagittal plane of the three-dimensional image group,
And an initial alignment means for performing temporary alignment between the different three-dimensional image groups based on the difference between the center of gravity calculated by the center of gravity calculation means and the height of the crown calculated by the difference calculation means. An image processing apparatus.
前記重心算出手段、及び前記差異算出手段が行う処理を、異なる3次元画像群ごとに並列処理で行うことを特徴とする画像処理装置。 The image processing apparatus according to claim 2,
An image processing apparatus, wherein the processing performed by the centroid calculating means and the difference calculating means is performed by parallel processing for each different three-dimensional image group.
前記3次元画像群が人間の頭部を撮像した画像であり、
前記関心領域設定手段が、頭部の方向を特定できる少なくとも3箇所の局所領域を関心領域として設定することを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 3,
The three-dimensional image group is an image of a human head;
The image processing apparatus, wherein the region-of-interest setting means sets at least three local regions that can specify a head direction as a region of interest.
前記設定された関心領域に、少なくとも鼻領域を含むと共に、歯領域を含まないことを特徴とする画像処理装置。 The image processing apparatus according to claim 4.
The image processing apparatus characterized in that the set region of interest includes at least a nose region and does not include a tooth region.
前記3次元画像群が、CT(Computed Tomography)、及びMRI(Magnetic Resonance Imaging)で撮像された画像群であり、
前記位置あわせ手段により位置あわせが行われた前記CT画像群から頭蓋骨領域を抽出すると共に、当該CT画像群から抽出した頭蓋骨領域に基づいて、前記位置あわせ手段により位置あわせが行われた前記MRI画像群から頭蓋骨領域を抽出する頭蓋骨領域抽出手段と、
当該頭蓋骨領域抽出手段が抽出した、前記CT画像群からの頭蓋骨領域と前記MRI画像群からの頭蓋骨領域との位置が合致する最適なパラメータを決定する頭蓋骨パラメータ決定手段と、
前記位置あわせ手段により位置あわせが行われた前記MRI画像群から脳領域を抽出すると共に、当該MRI画像群から抽出した脳領域に基づいて、前記位置あわせ手段により位置あわせが行われた前記CT画像群から脳領域を抽出する脳領域抽出手段と、
当該脳領域抽出手段が抽出した、前記MRI画像群からの脳領域と前記CT画像群からの脳領域との位置が合致する最適なパラメータを決定する脳パラメータ決定手段とを備え、
前記位置あわせ手段が、前記頭蓋骨パラメータ決定手段が決定したパラメータ、及び脳パラメータ決定手段が決定したパラメータに基づいて、再度前記3次元画像群の位置あわせを行うことを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 5,
The three-dimensional image group is an image group captured by CT (Computed Tomography) and MRI (Magnetic Resonance Imaging),
A skull region is extracted from the CT image group that has been aligned by the alignment unit, and the MRI image that has been aligned by the alignment unit based on the skull region extracted from the CT image group A skull region extracting means for extracting a skull region from the group;
Skull parameter determining means for determining an optimal parameter that the position of the skull area from the CT image group and the skull area from the MRI image group extracted by the skull area extracting means;
The brain image is extracted from the MRI image group that has been aligned by the alignment means, and the CT image that has been aligned by the alignment means based on the brain region extracted from the MRI image group. A brain region extracting means for extracting a brain region from the group;
A brain parameter determination unit that determines an optimal parameter that is extracted by the brain region extraction unit and that matches the position of the brain region from the MRI image group and the brain region from the CT image group;
An image processing apparatus, wherein the alignment unit performs alignment of the three-dimensional image group again based on the parameter determined by the skull parameter determination unit and the parameter determined by the brain parameter determination unit.
前記位置あわせ手段により位置合わせが行われた処理画像における任意の基準点を決定し、当該基準点を中心に前記処理画像を複数領域に分割し、当該分割された複数領域における隣接領域を、それぞれ異なる3次元画像群の画像で表示する画像処理装置。 The image processing apparatus according to any one of claims 1 to 6,
An arbitrary reference point in the processed image aligned by the alignment means is determined, the processed image is divided into a plurality of regions around the reference point, and adjacent regions in the divided plurality of regions are respectively determined. An image processing apparatus that displays images of different three-dimensional image groups.
前記3次元画像群における複数の局所的な3次元関心領域を設定する関心領域設定ステップと、
当該関心領域設定ステップが設定した3次元関心領域における特徴部を抽出する特徴抽出ステップと、
当該特徴抽出ステップが抽出した特徴部について、前記異なる3次元画像群の間で対応する対応点を決定する対応点決定ステップと、
当該対応点決定ステップが決定した、異なる3次元画像群の間のそれぞれの対応点が合致するように、前記対応点の位置を特定して最適なパラメータを決定するパラメータ決定ステップと、
当該パラメータ決定ステップが決定したパラメータに基づいて、前記3次元画像群の位置あわせ行う位置あわせステップとを含むことを特徴とする画像処理方法。 In an image processing method for aligning a three-dimensional image group obtained by a medical device,
A region-of-interest setting step of setting a plurality of local three-dimensional regions of interest in the three-dimensional image group;
A feature extraction step of extracting a feature in the three-dimensional region of interest set by the region of interest setting step;
Corresponding point determination step for determining corresponding points between the different three-dimensional image groups for the feature portion extracted by the feature extraction step;
A parameter determination step for determining an optimum parameter by specifying the position of the corresponding point so that the corresponding points between the different three-dimensional image groups determined by the corresponding point determination step match;
An image processing method comprising: an alignment step of aligning the three-dimensional image group based on the parameter determined by the parameter determination step.
前記3次元画像群における複数の局所的な3次元関心領域を設定する関心領域設定手段、
当該関心領域設定手段が設定した3次元関心領域における特徴部を抽出する特徴抽出手段、
当該特徴抽出手段が抽出した特徴部について、前記異なる3次元画像群の間で対応する対応点を決定する対応点決定手段、
当該対応点決定手段が決定した、異なる3次元画像群の間のそれぞれの対応点が合致するように、前記対応点の位置を特定して最適なパラメータを決定するパラメータ決定手段、
当該パラメータ決定手段が決定したパラメータに基づいて、前記3次元画像の位置あわせ行う位置あわせ手段としてコンピュータを機能させることを特徴とする画像処理プログラム。 In an image processing program for causing a computer to function to align a three-dimensional image group obtained by a medical device,
Region-of-interest setting means for setting a plurality of local three-dimensional regions of interest in the three-dimensional image group;
Feature extraction means for extracting a feature in the three-dimensional region of interest set by the region of interest setting means;
Corresponding point determination means for determining corresponding points between the different three-dimensional image groups for the feature portion extracted by the feature extraction means;
Parameter determining means for determining the optimum parameters by specifying the positions of the corresponding points so that the corresponding points between different three-dimensional image groups determined by the corresponding point determining means match;
An image processing program for causing a computer to function as positioning means for positioning the three-dimensional image based on parameters determined by the parameter determination means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009168198A JP2011019768A (en) | 2009-07-16 | 2009-07-16 | Image processor, image processing method and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009168198A JP2011019768A (en) | 2009-07-16 | 2009-07-16 | Image processor, image processing method and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011019768A true JP2011019768A (en) | 2011-02-03 |
Family
ID=43630361
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009168198A Pending JP2011019768A (en) | 2009-07-16 | 2009-07-16 | Image processor, image processing method and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011019768A (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014512210A (en) * | 2011-03-18 | 2014-05-22 | コーニンクレッカ フィリップス エヌ ヴェ | Tracking brain deformation in neurosurgery |
JP2014514056A (en) * | 2011-03-29 | 2014-06-19 | ボストン サイエンティフィック ニューロモデュレイション コーポレイション | System and method for image registration |
WO2014196069A1 (en) * | 2013-06-06 | 2014-12-11 | 株式会社日立製作所 | Image processing device and image processing method |
JP2016039878A (en) * | 2014-08-13 | 2016-03-24 | 株式会社東芝 | Radiotherapy system |
JP2016104121A (en) * | 2014-11-25 | 2016-06-09 | 株式会社東芝 | Medical image processing apparatus and medical image processing method |
JP2016126407A (en) * | 2014-12-26 | 2016-07-11 | 株式会社東芝 | Medical image display apparatus |
JPWO2015053319A1 (en) * | 2013-10-08 | 2017-03-09 | 国立大学法人 東京大学 | Image processing apparatus and surgical microscope system |
JP2018029691A (en) * | 2016-08-23 | 2018-03-01 | 富士フイルム株式会社 | Magnetic field distortion calculation device, method, and program |
JP2019005013A (en) * | 2017-06-22 | 2019-01-17 | コニカミノルタ株式会社 | Analyzer and analysis system |
WO2019044228A1 (en) * | 2017-08-28 | 2019-03-07 | 富士フイルム株式会社 | Medical image processing device, method, and program |
JP2020014712A (en) * | 2018-07-26 | 2020-01-30 | 株式会社日立製作所 | Medical image processing device and medical image processing method |
JP2022510099A (en) * | 2018-11-30 | 2022-01-26 | アキュレイ インコーポレイテッド | Computed tomography systems and methods to improve images using previous images |
CN114463165A (en) * | 2021-09-28 | 2022-05-10 | 西安大医集团股份有限公司 | Method and device for determining VOI (volume of interest) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0461848A (en) * | 1990-06-30 | 1992-02-27 | Shimadzu Corp | Preparation of fine multilayer model for head part |
JPH08131403A (en) * | 1994-11-09 | 1996-05-28 | Toshiba Medical Eng Co Ltd | Medical image processor |
JPH10137190A (en) * | 1996-11-13 | 1998-05-26 | Toshiba Iyou Syst Eng Kk | Medical image processor |
JP2008104886A (en) * | 2005-08-31 | 2008-05-08 | Gifu Univ | Medical image processor and image processing method |
JP2008161266A (en) * | 2006-12-27 | 2008-07-17 | Ritsumeikan | Image processor, computer program and image processing method |
JP2008171264A (en) * | 2007-01-12 | 2008-07-24 | Noritsu Koki Co Ltd | Face imaging device and method |
JP2008262555A (en) * | 2007-03-20 | 2008-10-30 | National Univ Corp Shizuoka Univ | Shape information processing method, device, and program |
-
2009
- 2009-07-16 JP JP2009168198A patent/JP2011019768A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0461848A (en) * | 1990-06-30 | 1992-02-27 | Shimadzu Corp | Preparation of fine multilayer model for head part |
JPH08131403A (en) * | 1994-11-09 | 1996-05-28 | Toshiba Medical Eng Co Ltd | Medical image processor |
JPH10137190A (en) * | 1996-11-13 | 1998-05-26 | Toshiba Iyou Syst Eng Kk | Medical image processor |
JP2008104886A (en) * | 2005-08-31 | 2008-05-08 | Gifu Univ | Medical image processor and image processing method |
JP2008161266A (en) * | 2006-12-27 | 2008-07-17 | Ritsumeikan | Image processor, computer program and image processing method |
JP2008171264A (en) * | 2007-01-12 | 2008-07-24 | Noritsu Koki Co Ltd | Face imaging device and method |
JP2008262555A (en) * | 2007-03-20 | 2008-10-30 | National Univ Corp Shizuoka Univ | Shape information processing method, device, and program |
Non-Patent Citations (2)
Title |
---|
FREDERIK MAES ET AL: "Multimodality Image Registration by Maximization of Mutual Information", IEEE TRANSACTIONS ON MEDICAL IMAGING, vol. 16, no. 2, JPN6013043681, April 1997 (1997-04-01), pages 187 - 198, XP011035624, ISSN: 0002622008 * |
原田康平 他: "ICP法を用いた頭部CT・MR画像の位置合わせ", MEDICAL IMAGING TECHNOLOGY, vol. Vol. 26, No. 4(通巻第128号), JPN6013043680, 25 September 2008 (2008-09-25), JP, pages 246 - 250, ISSN: 0002622007 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014512210A (en) * | 2011-03-18 | 2014-05-22 | コーニンクレッカ フィリップス エヌ ヴェ | Tracking brain deformation in neurosurgery |
JP2014514056A (en) * | 2011-03-29 | 2014-06-19 | ボストン サイエンティフィック ニューロモデュレイション コーポレイション | System and method for image registration |
JPWO2014196069A1 (en) * | 2013-06-06 | 2017-02-23 | 株式会社日立製作所 | Image processing apparatus and image processing method |
WO2014196069A1 (en) * | 2013-06-06 | 2014-12-11 | 株式会社日立製作所 | Image processing device and image processing method |
CN105246409A (en) * | 2013-06-06 | 2016-01-13 | 株式会社日立制作所 | Image processing device and image processing method |
JPWO2015053319A1 (en) * | 2013-10-08 | 2017-03-09 | 国立大学法人 東京大学 | Image processing apparatus and surgical microscope system |
JP2016039878A (en) * | 2014-08-13 | 2016-03-24 | 株式会社東芝 | Radiotherapy system |
JP2016104121A (en) * | 2014-11-25 | 2016-06-09 | 株式会社東芝 | Medical image processing apparatus and medical image processing method |
JP2016126407A (en) * | 2014-12-26 | 2016-07-11 | 株式会社東芝 | Medical image display apparatus |
JP2018029691A (en) * | 2016-08-23 | 2018-03-01 | 富士フイルム株式会社 | Magnetic field distortion calculation device, method, and program |
JP2019005013A (en) * | 2017-06-22 | 2019-01-17 | コニカミノルタ株式会社 | Analyzer and analysis system |
WO2019044228A1 (en) * | 2017-08-28 | 2019-03-07 | 富士フイルム株式会社 | Medical image processing device, method, and program |
JPWO2019044228A1 (en) * | 2017-08-28 | 2020-02-27 | 富士フイルム株式会社 | Medical image processing apparatus, method and program |
US11315263B2 (en) | 2017-08-28 | 2022-04-26 | Fujifilm Corporation | Medical image processing apparatus, medical image processing method, and medical image processing program |
JP2020014712A (en) * | 2018-07-26 | 2020-01-30 | 株式会社日立製作所 | Medical image processing device and medical image processing method |
JP2022510099A (en) * | 2018-11-30 | 2022-01-26 | アキュレイ インコーポレイテッド | Computed tomography systems and methods to improve images using previous images |
JP7422756B2 (en) | 2018-11-30 | 2024-01-29 | アキュレイ インコーポレイテッド | Computed tomography system and method for improving images using previous images |
CN114463165A (en) * | 2021-09-28 | 2022-05-10 | 西安大医集团股份有限公司 | Method and device for determining VOI (volume of interest) |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011019768A (en) | Image processor, image processing method and image processing program | |
US10937250B2 (en) | Methods of reconstructing skulls | |
US9697639B2 (en) | Three-dimensional model data generation device, method and program | |
US8953856B2 (en) | Method and system for registering a medical image | |
US8160316B2 (en) | Medical image-processing apparatus and a method for processing medical images | |
AU2010280527B2 (en) | Apparatus and method for registering two medical images | |
Tomazevic et al. | 3-D/2-D registration by integrating 2-D information in 3-D | |
JP5584441B2 (en) | Association method between volume data | |
EP2365471B1 (en) | Diagnosis assisting apparatus, coronary artery analyzing method and recording medium having a coronary artery analzying program stored therein | |
KR20150045885A (en) | Systems and methods for registration of ultrasound and ct images | |
JP2012503500A (en) | AC-PC segmentation system and method | |
Baka et al. | Statistical shape model-based femur kinematics from biplane fluoroscopy | |
Lee et al. | Segmentation of individual ribs from low-dose chest CT | |
EP3424017B1 (en) | Automatic detection of an artifact in patient image data | |
EP3667615A1 (en) | Determination of metastases in an image of an anatomical body part | |
Linguraru et al. | Atlas-based automated segmentation of spleen and liver using adaptive enhancement estimation | |
JP2014221201A (en) | Imaging controller, medical image diagnostic apparatus and imaging control method | |
US11138736B2 (en) | Information processing apparatus and information processing method | |
Tadayyon et al. | Target motion compensation in MRI-guided prostate biopsy with static images | |
Trabelsi et al. | 3D Active Shape Model for CT-scan liver segmentation | |
Allen et al. | Automated Segmentation of the Sigmoid Sinus using a Multi-Atlas Approach | |
Diaz et al. | Three-Dimensional Reconstruction of Cardiac Structures Using CT Images | |
EP4401036A1 (en) | Device and method for intraoperative reconstruction of bone 3d models | |
Bandi et al. | Automated patient couch removal algorithm on ct images | |
Tanner et al. | Using statistical deformation models for the registration of multimodal breast images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120606 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130627 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130903 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140107 |