JPWO2007026598A1 - Medical image processing device - Google Patents

Medical image processing device Download PDF

Info

Publication number
JPWO2007026598A1
JPWO2007026598A1 JP2007533204A JP2007533204A JPWO2007026598A1 JP WO2007026598 A1 JPWO2007026598 A1 JP WO2007026598A1 JP 2007533204 A JP2007533204 A JP 2007533204A JP 2007533204 A JP2007533204 A JP 2007533204A JP WO2007026598 A1 JPWO2007026598 A1 JP WO2007026598A1
Authority
JP
Japan
Prior art keywords
image
blood vessel
head
image processing
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007533204A
Other languages
Japanese (ja)
Other versions
JP4139869B2 (en
Inventor
藤田 廣志
廣志 藤田
良一 内山
良一 内山
亨 岩間
亨 岩間
弘道 安藤
弘道 安藤
仁 二村
仁 二村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gifu University
Original Assignee
Gifu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gifu University filed Critical Gifu University
Application granted granted Critical
Publication of JP4139869B2 publication Critical patent/JP4139869B2/en
Publication of JPWO2007026598A1 publication Critical patent/JPWO2007026598A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/504Clinical applications involving diagnosis of blood vessels, e.g. by angiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Abstract

頭部画像から精度良く病変部を検出する。また、特定の血管部位に注目して観察することを可能とする。医用画像処理装置10では、頭部を撮影したMRA画像から脳血管領域が抽出される。そして、脳血管領域が抽出された画像を用いてGCフィルタバンクにより1次検出が行われる。GCフィルタバンクでは分析バンクにおいて多重解像度解析が行われ、解像度レベル毎に部分画像からベクトル集中度が算出される。次に、ベクトル集中度が閾値を超えるボクセルを1、閾値以下のボクセルを0とする重み画像が作成される。次いで、再構成バンクにおいて各部分画像に重み画像が乗算されて重み付け処理が行われると、当該重み付け処理された部分画像を用いて元の画像の再構成が行われる。この再構成画像に再現されたについて大きさ(体積)、球形度、ベクトル集中度の平均が算出されてルールベース法により2次検出が行われる。この2次検出候補について判別分析により3次検出が行われ、その検出結果が表示部13に表示出力される。A lesion is accurately detected from the head image. In addition, it is possible to observe by paying attention to a specific blood vessel site. In the medical image processing apparatus 10, a cerebral blood vessel region is extracted from an MRA image obtained by photographing the head. Then, primary detection is performed by the GC filter bank using the image from which the cerebral blood vessel region is extracted. In the GC filter bank, multi-resolution analysis is performed in the analysis bank, and the vector concentration is calculated from the partial image for each resolution level. Next, a weighted image is created in which voxels having a vector concentration degree exceeding the threshold value are 1 and voxels having a threshold value less than or equal to the threshold value are 0. Next, when weighting processing is performed by multiplying each partial image by a weight image in the reconstruction bank, the original image is reconstructed using the weighted partial image. The average of the size (volume), sphericity, and vector concentration is calculated for the reconstructed image, and secondary detection is performed by the rule-based method. The secondary detection candidate is subjected to tertiary detection by discriminant analysis, and the detection result is displayed on the display unit 13.

Description

本発明は、患者の頭部を撮影して得られた頭部画像の画像解析、画像処理を行う医用画像処理装置及び画像処理方法に関する。   The present invention relates to a medical image processing apparatus and an image processing method for performing image analysis and image processing of a head image obtained by imaging a patient's head.

近年、磁気共鳴撮影装置(以下、MRI;Magnetic Resonance Imagingという)の普及と高性能化に伴い、脳ドック検査の件数が急速に増加してきている。脳ドック検査の目的の一つは、血管において生じる未破裂脳動脈瘤を早期に発見し、適切な処置や治療を行うことによって、脳動脈瘤の破裂によるくも膜下出血等、重篤な疾患の発病を防止することにある。   In recent years, with the spread and high performance of magnetic resonance imaging apparatuses (hereinafter referred to as MRI; Magnetic Resonance Imaging), the number of brain dock examinations has increased rapidly. One of the purposes of brain dock testing is to detect unruptured cerebral aneurysms that occur in blood vessels at an early stage, and to take appropriate measures and treatments to treat severe diseases such as subarachnoid hemorrhage due to rupture of cerebral aneurysms. It is to prevent disease.

医師による未破裂脳動脈瘤の検出は、MRIで血管内の血液の流れを画像化したMRA画像(Magnetic Resonance Angiography)を用いて行われる。通常、医師による読影時には3次元画像データを様々な角度からMIP処理(Maximum Intensity Projection;最大値輝度投影法)によって2次元化した画像が用いられるが、血管に生じる未破裂脳動脈瘤は小さいため、重なって表示される周囲の血管像との識別が必要となり、医師の疲労が激しい。また、この疲労による見落としの可能性も考えられる。   Detection of an unruptured cerebral aneurysm by a doctor is performed using an MRA image (Magnetic Resonance Angiography) obtained by imaging the blood flow in the blood vessel by MRI. Usually, when interpreting by a doctor, an image obtained by two-dimensionalizing three-dimensional image data from various angles by MIP processing (Maximum Intensity Projection) is used, but an unruptured cerebral aneurysm that occurs in a blood vessel is small. It is necessary to distinguish from the surrounding blood vessel images that are displayed in a superimposed manner, and the doctor's fatigue is severe. There is also the possibility of oversight due to this fatigue.

従来から、このような医師の診断支援を行うため、画像処理によって病変部分の画像領域を検出する装置が開発されている(例えば、特許文献1、非特許文献1、2参照)。この装置は、一般にCAD(Computer-Aided Diagnosis)と呼ばれている。   Conventionally, in order to support such a doctor's diagnosis, an apparatus for detecting an image area of a lesion portion by image processing has been developed (see, for example, Patent Document 1, Non-Patent Documents 1 and 2). This apparatus is generally called CAD (Computer-Aided Diagnosis).

一方、読影時にMIPによる画像を医用画像処理装置において生成し、表示するとき、視線方向によっては複数の血管が重複して表示される場合がある。この場合、小さな未破裂動脈瘤を検出するには、医師が注目したい血管像と周囲の血管像との識別が必要なために、多くの読影時間を必要とし、医師の疲労も激しい。疲労によって本来検出すべき未破裂動脈瘤を見落とす可能性がある。   On the other hand, when an image based on MIP is generated and displayed in the medical image processing apparatus at the time of interpretation, a plurality of blood vessels may be displayed in an overlapping manner depending on the viewing direction. In this case, in order to detect a small unruptured aneurysm, it is necessary to distinguish between a blood vessel image that the doctor wants to pay attention to and a surrounding blood vessel image. Fatigue may overlook unruptured aneurysms that should be detected originally.

動脈瘤が多発する血管部位は、中大脳動脈分岐部、前交通動脈、内頸動脈後交通動脈分岐部等であることが知られている。従って、これらの多発部位を詳しく観察するには、医師が関心のある血管部位の血管像のみに注目したターゲットMIP画像を生成すればよい。   It is known that blood vessel sites where aneurysms frequently occur are the middle cerebral artery bifurcation, the anterior traffic artery, the internal carotid artery posterior traffic artery bifurcation, and the like. Therefore, in order to observe these multiple sites in detail, it is only necessary to generate a target MIP image that focuses only on the blood vessel image of the blood vessel site in which the doctor is interested.

また、複数の血管部位が交差する領域においては、視線方向に沿った深さ情報を用いて当該深さ情報が大きい方の血管像、つまり視線方向において後方側にある血管部位の交差部分の輝度を低下させて表示する技術も開示されている(例えば、特許文献2参照)。この方法によれば、血管像に遠近感をもたせることができ、手前側の血管部位を観察しやすくなる。
特開2002−112986号公報 特開平5−277091号公報 林則夫他、モルフォルジー処理を利用した頭部MRI画像における小脳および脳患部の自動抽出法、医用画像情報学会雑誌、vol21.no1.pp109-115,2004 横山龍二郎他、脳MR画像におけるラクナ梗塞領域の自動検出、日本放射線技術学会雑誌、58(3),399-405,2002
In a region where a plurality of blood vessel parts intersect, the depth information along the line-of-sight direction is used to determine the blood vessel image with the larger depth information, that is, the luminance of the intersection of the blood vessel parts on the rear side in the line-of-sight direction. There is also disclosed a technique for lowering the display (see, for example, Patent Document 2). According to this method, a sense of perspective can be given to the blood vessel image, and it becomes easy to observe the blood vessel portion on the near side.
JP 2002-112986 A Japanese Patent Laid-Open No. 5-277091 Norio Hayashi et al., Automatic extraction method of cerebellum and brain affected area in head MRI image using morphological processing, Journal of Medical Image Information Society, vol21.no1.pp109-115,2004 Yokoyama Ryujiro et al., Automatic detection of lacunar infarct area in brain MR images, Journal of Japanese Society of Radiological Technology, 58 (3), 399-405, 2002

しかしながら、未破裂脳動脈瘤を血管組織と識別して精度良く検出するような手法はいまだ提案されていない。   However, there has not yet been proposed a method for accurately detecting an unruptured cerebral aneurysm by distinguishing it from a vascular tissue.

また、従来の医用画像処理装置では、血管像中の各血管部位を自動判別することができないため、上記のターゲットMIP画像を自動で作成するためには、3次元の画像データから関心のある血管部位の血管像のみを手動で指定する操作が必要となる。このような操作は容易ではなく、作成に時間を要する。   In addition, since the conventional medical image processing apparatus cannot automatically determine each blood vessel part in the blood vessel image, in order to automatically create the target MIP image, a blood vessel of interest from three-dimensional image data is used. An operation for manually specifying only the blood vessel image of the site is required. Such an operation is not easy and requires time.

また、上記特許文献2に記載の方法は観察者に近い側の血管部位を観察しやすくするものである。従って、医師が観察したい視線方向に応じて作成されたMIP画像において、医師の関心がある血管部位の手前側に別の血管部位が交差している場合はそれを除去することができず、所望の観察方向から所望の血管部位を詳細に観察できるとは限らない。   In addition, the method described in Patent Document 2 makes it easy to observe a blood vessel site closer to the observer. Therefore, in the MIP image created according to the line-of-sight direction that the doctor wants to observe, if another blood vessel part intersects the front side of the blood vessel part that the doctor is interested in, it cannot be removed, and the desired It is not always possible to observe a desired blood vessel site in detail from the viewing direction.

本発明の課題は、頭部画像から精度良く病変部を検出することである。また、特定の血管部位に注目して観察することを可能とすることである。   An object of the present invention is to accurately detect a lesion from a head image. Also, it is possible to observe while paying attention to a specific blood vessel site.

請求の範囲第1項に記載の発明は、医用画像処理装置において、
頭部画像を多重解像度解析し、解像度レベル毎に分解した部分画像を用いて、解像度レベル毎にベクトル集中度を算出する分析手段と、
前記部分画像から元の頭部画像を再構成するにあたり、前記算出されたベクトル集中度が所定値となる病変部の候補領域でのみ元の画像を再現する再構成手段と、
前記再構成された頭部画像を用いて、当該頭部画像に再現された病変部の候補領域のうち、正常な血管である偽陽性候補領域を削除する削除手段と、
を備えることを特徴とする。
The invention described in claim 1 is a medical image processing apparatus,
Analysis means for performing multi-resolution analysis of the head image and calculating a vector concentration degree for each resolution level using partial images decomposed for each resolution level;
In reconstructing the original head image from the partial image, reconstruction means for reproducing the original image only in the candidate region of the lesion part where the calculated vector concentration degree is a predetermined value;
Using the reconstructed head image, a deletion unit that deletes a false positive candidate region that is a normal blood vessel among candidate regions of a lesion portion reproduced in the head image;
It is characterized by providing.

請求の範囲第8項に記載の発明は、請求の範囲第1項に記載の医用画像処理装置において、
前記頭部画像から血管像を抽出する抽出手段と、
前記抽出された血管像に含まれる一又は複数の血管部位を判別し、当該判別された血管部位に関する血管部位情報を前記頭部画像に付帯させる画像制御手段と、
を備えることを特徴とする。
The invention according to claim 8 is the medical image processing apparatus according to claim 1,
Extracting means for extracting a blood vessel image from the head image;
Image control means for discriminating one or a plurality of blood vessel parts included in the extracted blood vessel image and attaching blood vessel part information relating to the discriminated blood vessel part to the head image;
It is characterized by providing.

請求の範囲第1項〜第4項、第14項〜第17項に記載の発明によれば、頭部画像に対して多重解像度解析を行って得られた部分画像によって解像度レベル毎にベクトル集中度を算出する。解像度レベル毎にベクトル集中度を算出することにより、様々な大きさの動脈瘤の検出に対応することができ、より精度の高い検出処理が可能となる。また、瘤等の病変部はある一定の高い値のベクトル集中度を呈するが、本発明によればこのような病変部である可能性が高い領域のみ再現されるよう再構成を行うので、病変部の候補領域のみ画像化した再構成画像を得ることができる。再構成画像を用いて特徴量の算出を行うことにより、算出する特徴量から候補領域以外の画像要素を排除することができ、候補領域についての特徴量を正確に算出することが可能となる。従って、検出処理自体の精度をさらに向上させることが可能となる。   According to the invention described in claims 1 to 4 and 14 to 17, vector concentration is performed for each resolution level by the partial image obtained by performing the multi-resolution analysis on the head image. Calculate the degree. By calculating the vector concentration for each resolution level, it is possible to cope with detection of aneurysms of various sizes, and detection processing with higher accuracy is possible. In addition, a lesion such as an aneurysm exhibits a certain high value vector concentration, but according to the present invention, reconstruction is performed so that only a region that is likely to be such a lesion is reproduced. It is possible to obtain a reconstructed image in which only some candidate regions are imaged. By calculating the feature amount using the reconstructed image, image elements other than the candidate region can be excluded from the calculated feature amount, and the feature amount for the candidate region can be accurately calculated. Therefore, it is possible to further improve the accuracy of the detection process itself.

請求の範囲第5項〜第7項、第18項〜第20項に記載の発明によれば、実質的にベクトル集中度を算出する領域を、瘤の病変部が存在する血管領域に絞ることができ、演算時間の短縮化を図ることが可能となる。   According to the inventions described in claims 5 to 7, and 18 to 20, the region where the vector concentration degree is substantially calculated is narrowed down to the blood vessel region where the lesion part of the aneurysm exists. Thus, the calculation time can be shortened.

請求の範囲第8項、第21項に記載の発明によれば、対象画像に付帯された血管部位情報を参照することにより、対象画像の血管像に含まれる一又は複数の血管部位を容易に判別することが可能となる。血管部位を判別できれば、例えば対象画像を表示する際にそれぞれの血管部位を識別表示する等、対象画像を利用する際に対象画像に含まれる各血管部位を特定し、その情報を医師に提供することが可能となる。従って、医師は特定の血管部位に注目して対象画像を観察することが可能となり、読影効率の向上を図ることができる。   According to the inventions described in claims 8 and 21, one or a plurality of blood vessel parts included in a blood vessel image of the target image can be easily obtained by referring to the blood vessel part information attached to the target image. It becomes possible to discriminate. If the blood vessel part can be determined, for example, each blood vessel part is identified and displayed when the target image is displayed, and each blood vessel part included in the target image is specified when the target image is used, and the information is provided to the doctor. It becomes possible. Therefore, the doctor can observe the target image while paying attention to a specific blood vessel site, and can improve the interpretation efficiency.

請求の範囲第9項、第22項に記載の発明によれば、対象画像に付帯された血管部位情報を参照することにより、対象画像の血管像に含まれる各血管部位の位置及び名称の判別が容易となる。血管部位の位置及び名称を判別することにより、対象画像を利用する際に対象画像に含まれる各血管部位の位置及び名称を特定し、その情報を医師に提供することが可能となる。従って、医師は対象画像における特定の血管部位の位置及び名称を容易に把握することが可能となる。   According to the invention described in claims 9 and 22, the position and the name of each blood vessel part included in the blood vessel image of the target image are determined by referring to the blood vessel part information attached to the target image. Becomes easy. By determining the position and name of the blood vessel part, the position and name of each blood vessel part included in the target image can be specified when the target image is used, and the information can be provided to the doctor. Therefore, the doctor can easily grasp the position and name of a specific blood vessel site in the target image.

請求の範囲第10項、第23項に記載の発明によれば、対象画像は被写体(患者)によってその血管像の形態に個体差が生ずるが、アフィン変換によってそれら血管像が略一致するように位置合わせすることにより、参照画像と対象画像の血管像を精度よく対応させることが可能となる。よって、被写体の個体差に拘わらず血管部位を判別することができ、汎用性が高い。   According to the inventions of claims 10 and 23, the target image has an individual difference in the form of the blood vessel image depending on the subject (patient), but the blood vessel images are substantially matched by the affine transformation. By aligning the positions, the reference image and the blood vessel image of the target image can be associated with each other with high accuracy. Therefore, the blood vessel part can be discriminated regardless of the individual difference of the subject, and the versatility is high.

請求の範囲第11項、第24項に記載の発明によれば、医師は対象画像の血管像に含まれる一又は複数の血管部位のそれぞれを容易に識別することができる。   According to the inventions described in claims 11 and 24, the doctor can easily identify each of one or a plurality of blood vessel portions included in the blood vessel image of the target image.

請求の範囲第12項、第25項に記載の発明によれば、医師は対象画像の血管像に含まれる一又は複数の血管部位のそれぞれの名称を容易に把握することができる。   According to the inventions described in claims 12 and 25, the doctor can easily grasp the names of one or a plurality of blood vessel portions included in the blood vessel image of the target image.

請求の範囲第13項、第26項に記載の発明によれば、医師が観察したい特定の血管部位の血管像のみを対象画像から抽出して観察することが可能となる。血管像は複数の血管部位が重なって表示されることがあるため、その重複部分の観察がしづらくなる。よって、医師により選択された特定の血管部位のみを表示することにより、血管部位の重複を解消することができ、医師が読影しやすい環境を提供することができる。   According to the inventions described in claims 13 and 26, it is possible to extract and observe only a blood vessel image of a specific blood vessel part that a doctor wants to observe from a target image. Since a blood vessel image may be displayed by overlapping a plurality of blood vessel portions, it is difficult to observe the overlapping portion. Therefore, by displaying only the specific blood vessel site selected by the doctor, it is possible to eliminate the overlap of the blood vessel site and provide an environment in which the doctor can easily interpret.

実施の形態に係る医用画像処理装置の内部構成を示す図である。It is a figure which shows the internal structure of the medical image processing apparatus which concerns on embodiment. 医用画像処理装置により実行される検出処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the detection process performed by a medical image processing apparatus. MRA画像例を示す図である。It is a figure which shows the example of MRA image. 血管領域を抽出した抽出画像例を示す図である。It is a figure which shows the example of an extraction image which extracted the blood vessel area | region. ベクトル集中度フィルタを示す図である。It is a figure which shows a vector concentration degree filter. 脳動脈瘤モデル、血管領域モデルを示す図である。It is a figure which shows a cerebral aneurysm model and a blood vessel region model. ベクトル集中度フィルタの出力画像例を示す図である。It is a figure which shows the example output image of a vector concentration degree filter. 閾値処理前のフィルタ処理画像を示す図である。It is a figure which shows the filter process image before a threshold value process. 閾値処理後のフィルタ処理画像を示す図である。It is a figure which shows the filter process image after a threshold value process. 球形度の算出方法を説明する図である。It is a figure explaining the calculation method of sphericity. ルールベース法による識別方法について説明する図である。It is a figure explaining the identification method by a rule base method. ルールベース法による識別方法について説明する図である。It is a figure explaining the identification method by a rule base method. 脳動脈瘤候補の検出結果の出力例を示す図である。It is a figure which shows the example of an output of the detection result of a cerebral aneurysm candidate. 医用画像処理装置により実行される血管部位判別処理を説明するフローチャートである。It is a flowchart explaining the vascular region discrimination | determination process performed by the medical image processing apparatus. 参照画像例を示す図である。It is a figure which shows the example of a reference image. 参照画像の作成に用いた元画像を示す図である。It is a figure which shows the original image used for preparation of a reference image. 対象画像及び正規化処理を施す前後における対象画像のヒストグラムを示す図である。It is a figure which shows the histogram of a target image before and after performing a target image and a normalization process. 図13Aとは異なる被写体の対象画像及び正規化処理を施す前後における対象画像のヒストグラムを示す図である。It is a figure which shows the histogram of the target image before and behind performing the target image different from FIG. 13A, and a normalization process. 対象画像を示す図である。It is a figure which shows a target image. 図14Aの対象画像から血管を抽出した血管抽出画像を示す図である。It is a figure which shows the blood-vessel extraction image which extracted the blood vessel from the target image of FIG. 14A. 血管抽出画像と参照画像を示す図である。It is a figure which shows the blood vessel extraction image and a reference image. 図15Aに示す血管抽出画像と参照画像とを重ね合わせた図である。It is the figure which superimposed the blood vessel extraction image and reference image which are shown to FIG. 15A. 参照画像におけるランドマークを示す図である。It is a figure which shows the landmark in a reference image. 血管抽出画像における対応点を示す図である。It is a figure which shows the corresponding point in a blood vessel extraction image. 血管抽出画像とその血管部位の判別結果を示す図である。It is a figure which shows the discrimination result of the blood vessel extraction image and its blood vessel part. 血管抽出画像とその血管部位の判別結果を示す図である。It is a figure which shows the discrimination result of the blood vessel extraction image and its blood vessel part. 対象画像において判別された各血管部位の識別表示例を示す図である。It is a figure which shows the example of an identification display of each blood-vessel site | part discriminate | determined in the target image. 第2実施形態に係る検出処理を示すフローチャートである。It is a flowchart which shows the detection process which concerns on 2nd Embodiment. GCフィルタバンクの分析バンクを示す図である。It is a figure which shows the analysis bank of GC filter bank. フィルタバンクA(z)を示す図である。It is a figure which shows filter bank A ( zj ). GCフィルタバンクの再構成バンクを示す図である。It is a figure which shows the reconstruction bank of GC filter bank. フィルタバンクS(z)を示す図である。It is a figure which shows filter bank S ( zj ).

符号の説明Explanation of symbols

10 医用画像処理装置
11 制御部
12 操作部
13 表示部
14 通信部
15 記憶部
16 病変候補検出部
DESCRIPTION OF SYMBOLS 10 Medical image processing apparatus 11 Control part 12 Operation part 13 Display part 14 Communication part 15 Storage part 16 Lesion candidate detection part

〈第1実施形態〉
まず、構成を説明する。
図1に、本実施形態における医用画像処理装置10の構成を示す。
この医用画像処理装置10は、検査撮影により得られた医用画像を画像解析することにより、当該医用画像から病変部の候補領域を検出するものである。
なお、この医用画像処理装置10を、医用画像を生成する画像生成装置や医用画像を保存・管理するサーバ、医師の読影に付すため、サーバに保存された医用画像を取り寄せて表示手段上に表示する読影端末等、各種装置がネットワークを介して接続された医用画像システムに設けることとしてもよい。また、本実施形態では医用画像処理装置10単体で本発明を実現する例を説明するが、医用画像処理装置10における機能を上記医用画像システムの各構成装置に分散させて医用画像システム全体で本発明を実現することとしてもよい。
<First Embodiment>
First, the configuration will be described.
FIG. 1 shows a configuration of a medical image processing apparatus 10 in the present embodiment.
The medical image processing apparatus 10 detects a candidate area of a lesion from the medical image by performing image analysis on the medical image obtained by examination imaging.
The medical image processing apparatus 10 is obtained by an image generation apparatus that generates a medical image, a server that stores and manages the medical image, and a medical image stored in the server in order to be read by a doctor. It may be provided in a medical image system in which various devices such as an image interpretation terminal are connected via a network. In the present embodiment, an example in which the present invention is realized by the medical image processing apparatus 10 alone will be described. However, the functions of the medical image processing apparatus 10 are distributed to each component of the medical image system, and the entire medical image system is used. The invention may be realized.

以下、医用画像処理装置10の各部について説明する。
医用画像処理装置10は、図1に示すように、制御部11、操作部12、表示部13、通信部14、記憶部15、病変候補検出部16を備えて構成されている。
Hereinafter, each part of the medical image processing apparatus 10 will be described.
As illustrated in FIG. 1, the medical image processing apparatus 10 includes a control unit 11, an operation unit 12, a display unit 13, a communication unit 14, a storage unit 15, and a lesion candidate detection unit 16.

制御部11は、CPU(Central Processing Unit)、RAM(Random Access Memory
)等を備えて構成されており、記憶部15に格納されている各種制御プログラムを読み出して各種演算を行うとともに、各部12〜16における処理動作を統括的に制御する。
The control unit 11 includes a CPU (Central Processing Unit) and a RAM (Random Access Memory).
) And the like, and reads various control programs stored in the storage unit 15 and performs various calculations, and comprehensively controls processing operations in the units 12 to 16.

操作部12は、キーボードやマウス等を備え、オペレータによりこれらが操作されると、その操作に応じた操作信号を生成して制御部11に出力する。なお、表示部13におけるディスプレイと一体に構成したタッチパネルを備えることとしてもよい。   The operation unit 12 includes a keyboard, a mouse, and the like. When these are operated by an operator, an operation signal corresponding to the operation is generated and output to the control unit 11. In addition, it is good also as providing the touchscreen comprised integrally with the display in the display part 13. FIG.

表示部13は、LCD(Liquid Crystal Display)等の表示手段を備え、制御部11からの指示に応じてこの表示手段上に、各種操作画面や、医用画像、医用画像から検出された病変候補の検出結果、その検出情報等の各種表示情報を表示させる。   The display unit 13 includes a display unit such as an LCD (Liquid Crystal Display). In response to an instruction from the control unit 11, the display unit 13 displays lesion candidates detected from various operation screens, medical images, and medical images. Various display information such as detection results and detection information is displayed.

通信部14は、通信用のインターフェイスを備え、ネットワーク上の外部装置と情報の送受信を行う。例えば、通信部14は画像生成装置から生成された医用画像を受信する、医用画像処理装置10における病変候補の検出情報を読影端末に送信する等の通信動作を行う。   The communication unit 14 includes a communication interface and transmits / receives information to / from an external device on the network. For example, the communication unit 14 performs a communication operation such as receiving a medical image generated from the image generation apparatus and transmitting detection information of a lesion candidate in the medical image processing apparatus 10 to an interpretation terminal.

記憶部15は、制御部11において用いられる制御プログラム、病変候補検出部16において用いられる検出処理等の各種処理プログラムの他、各プログラムの実行に必要なパラメータやその処理結果等のデータが記憶されている。
また、記憶部15は、病変候補の検出対象である医用画像やその検出結果の情報等を記憶している。
The storage unit 15 stores various processing programs such as a control program used in the control unit 11 and a detection process used in the lesion candidate detection unit 16 as well as data such as parameters necessary for execution of each program and processing results thereof. ing.
In addition, the storage unit 15 stores medical images that are detection targets of lesion candidates, information on the detection results, and the like.

病変候補検出部16は、記憶部15に記憶されている処理プログラムとの協働により、処理対象画像に必要に応じて各種画像処理(階調変換処理、鮮鋭性調整処理、ダイナミックレンジ圧縮処理等)を施す。また、病変候補検出部16は検出処理を実行し、その検出結果を出力する。検出処理の内容については、後述する。   The lesion candidate detection unit 16 cooperates with the processing program stored in the storage unit 15 to perform various image processing (gradation conversion processing, sharpness adjustment processing, dynamic range compression processing, etc.) as necessary on the processing target image. ). In addition, the lesion candidate detection unit 16 executes detection processing and outputs the detection result. The contents of the detection process will be described later.

次に、上記医用画像処理装置10による病変候補の検出処理について説明する。
本実施形態では、MRIにより患者の頭部を撮影し、脳内血管の血流を画像化したMRA画像(3次元画像)から、未破裂の脳動脈瘤の病変候補を検出する例を説明する。脳動脈瘤は、動脈の壁内にできる膨隆(拡張)のことであり、動脈壁に血流による圧力がかかることにより生じるものである。脳動脈瘤の内部では血栓が生じやすく、この脳動脈瘤が破裂すると、くも膜下出血等の重篤な疾患を発症することとなる。
Next, lesion candidate detection processing by the medical image processing apparatus 10 will be described.
In this embodiment, an example will be described in which a lesion head of an unruptured cerebral aneurysm is detected from an MRA image (three-dimensional image) obtained by imaging a patient's head by MRI and imaging blood flow in the brain. . A cerebral aneurysm is a bulge (expansion) formed in the wall of an artery, and is caused by pressure applied by blood flow on the artery wall. Thrombus is likely to occur inside the cerebral aneurysm, and when this cerebral aneurysm ruptures, serious diseases such as subarachnoid hemorrhage develop.

図2は、検出処理の流れを説明するフローチャートである。この検出処理は、前述したように、病変候補検出部16が記憶部15に記憶される検出処理プログラムを読み込むことにより実行される処理である。
図2に示すように、検出処理ではまずMRAの3次元画像データの入力が行われる(ステップS1)。具体的には、病変候補検出部16により記憶部15に記憶されていた処理対象のMRA画像の読み込みが行われる。
FIG. 2 is a flowchart for explaining the flow of the detection process. This detection process is a process executed by reading the detection process program stored in the storage unit 15 by the lesion candidate detection unit 16 as described above.
As shown in FIG. 2, in the detection process, three-dimensional image data of MRA is first input (step S1). Specifically, the MRA image to be processed stored in the storage unit 15 is read by the lesion candidate detection unit 16.

ここで、MRIにより得られる画像について説明する。
MRIは、磁場内における核磁気共鳴(以下、NMR;Nuclear Magnetic Resonance)を利用して画像を得る方法である。
NMRでは、被検体を静磁場中に置き、その後、被検体において検出対象とする原子核の共鳴周波数のRFパルス(電波)を照射する。医用上は、通常、人体に多く存在する水を構成する水素原子の共鳴周波数が用いられる。被検体にRFパルスが照射されると、励起現象が生じ、共鳴周波数に共鳴する原子の原子核スピンの位相がそろうとともに、原子核スピンがRFパルスのエネルギーを吸収する。この励起状態でRFパルスの照射を止めると、緩和現象を生じ、原子核スピンの位相が不均一化するとともに、原子核スピンがエネルギーを放出する。この位相の緩和の時定数がT2、エネルギーの緩和の時定数がT1である。
Here, an image obtained by MRI will be described.
MRI is a method for obtaining an image using nuclear magnetic resonance (hereinafter referred to as NMR) in a magnetic field.
In NMR, a subject is placed in a static magnetic field, and then an RF pulse (radio wave) having a resonance frequency of a nucleus to be detected in the subject is irradiated. For medical purposes, the resonance frequency of hydrogen atoms constituting water, which is abundant in the human body, is usually used. When an object is irradiated with an RF pulse, an excitation phenomenon occurs, the atomic nuclear spins that resonate with the resonance frequency are aligned, and the nuclear spins absorb the energy of the RF pulse. When the irradiation of the RF pulse is stopped in this excited state, a relaxation phenomenon occurs, the phase of the nuclear spin becomes nonuniform, and the nuclear spin releases energy. The time constant for phase relaxation is T2, and the time constant for energy relaxation is T1.

MRIでは、撮像方法を変えることにより、検査目的に応じた様々な種類の画像を得ることが可能である。例えば、繰り返し時間TR、エコー時間TEについて、TR=T1、TE<<T2と撮影条件を調整したものをT1強調画像、TR>>T1、TE=T2と撮影条件を調整したものをT2強調画像というが、両者は画像のコントラストに差異があり、主にT1強調画像は解剖構造の検出に、T2強調画像は病変部の検出に用いられる。また、FLAIR法により撮影された画像は水からの信号を減衰させたT2強調画像であるが、特にFLAIR画像と呼ばれる。   In MRI, it is possible to obtain various types of images according to the inspection purpose by changing the imaging method. For example, with respect to the repetition time TR and the echo time TE, TR = T1, TE << T2 and the shooting conditions adjusted are T1-weighted images, and TR >> T1, TE = T2 and the shooting conditions are adjusted are T2-weighted images. However, there is a difference in image contrast between them, and the T1-weighted image is mainly used for detecting the anatomical structure and the T2-weighted image is used for detecting the lesioned part. An image photographed by the FLAIR method is a T2-weighted image in which a signal from water is attenuated, and is particularly called a FLAIR image.

MRAは、MRIにおける血管撮像方法をいう。MRIでは、被検体の足から頭の方向(この方向を体軸という)に傾斜磁場をかけることにより特定のスライス(断層)にのみエネルギーを吸収させることが可能である。撮像時には、スライス内の血管ではRFパルスで血液が飽和された状態となっているが、血管は常に血液の流れがあるため経時により非飽和の血流が流入するとそのスライスにおける信号強度が増加する。MRAは、この高信号を画像化することにより血流のある血管を画像化する方法である。   MRA refers to a blood vessel imaging method in MRI. In MRI, it is possible to absorb energy only in a specific slice (tomographic section) by applying a gradient magnetic field in the direction from the foot of the subject to the head (this direction is called the body axis). At the time of imaging, blood is saturated with RF pulses in the blood vessels in the slice, but since blood flows constantly in the blood vessels, the signal intensity in that slice increases when non-saturated blood flows in over time. . MRA is a method of imaging blood vessels with blood flow by imaging this high signal.

図3Aに、MRA画像例を示す。
図3Aに示すように、血流のある血管領域は高信号となるので、MRA画像では血管領域は白く表れている。
FIG. 3A shows an example of an MRA image.
As shown in FIG. 3A, since a blood vessel region with a blood flow has a high signal, the blood vessel region appears white in the MRA image.

このようなMRA画像の3次元データが入力されると、当該3次元画像データに対し、候補を検出する準備段階として前処理が施される(ステップS2)。前処理としては、画像データの正規化処理、階調変換処理が行われる。正規化は、ボクセルを構成する全ての辺が等サイズの3次元画像データとなるように、線形補間法により変換することにより行われる。そして、この等サイズのボクセルに変換された3次元画像データに対し、濃度階調変換処理が施され、各ボクセルの持つ信号値が0〜1024の濃度階調に線形変換される。このとき、高信号値であるほど濃度値1024に近く、低信号値であるほど濃度値0に近くなるように変換される。なお、濃度階調のレンジは、0〜1024に限らず適宜設定可能である。   When such 3D data of the MRA image is input, preprocessing is performed on the 3D image data as a preparation stage for detecting candidates (step S2). As preprocessing, normalization processing and gradation conversion processing of image data are performed. Normalization is performed by converting by linear interpolation so that all sides constituting the voxel become three-dimensional image data of the same size. Then, density gradation conversion processing is performed on the three-dimensional image data converted into voxels of the same size, and the signal value of each voxel is linearly converted into density gradations of 0 to 1024. At this time, the higher the signal value, the closer to the density value 1024, and the lower the signal value, the closer to the density value 0. The density gradation range is not limited to 0 to 1024 and can be set as appropriate.

前処理が終了すると、3次元MRA画像から血管の画像領域が抽出される(ステップS3)。まず、閾値処理が施され、MRA画像の2値化が行われる。一般的に、MRA画像では図3Aに示すように血管領域は白く、その他の領域は黒っぽく表れるため、2値化画像では血管領域はその他の領域と異なる値となる。よって、領域拡張法により血管領域の抽出を行う。まず、2値化画像を用いて始点となるボクセル(最も白く高濃度値のボクセル)を決定し、2値化処理前の3次元MRA画像においてその始点と決定されたボクセルの近傍26ボクセルを調べ、ある判定条件(例えば、濃度値が500以上であること)を満たす近傍ボクセルを血管領域と判断する。そして、この血管領域と判断された近傍ボクセルについても上記と同様の処理を繰り返す。このように、領域を拡張しながら判定条件を満たすボクセルを順次抽出することにより、血管領域を抽出することができる。図3Bに、図3AのMRA画像から抽出した血管領域を白(濃度値1024)、その他の領域を黒(濃度値0)で2値化した図を示す。   When the preprocessing is completed, a blood vessel image region is extracted from the three-dimensional MRA image (step S3). First, threshold processing is performed to binarize the MRA image. In general, in the MRA image, as shown in FIG. 3A, the blood vessel region appears white and the other regions appear black. Therefore, in the binarized image, the blood vessel region has a different value from the other regions. Therefore, the blood vessel region is extracted by the region expansion method. First, using the binarized image, the voxel that is the starting point (whitest and high density value voxel) is determined, and in the 3D MRA image before binarization processing, 26 voxels near the voxel determined as the starting point are examined. A neighboring voxel that satisfies a certain determination condition (for example, a density value of 500 or more) is determined as a blood vessel region. Then, the same processing as described above is repeated for the neighboring voxels determined to be the blood vessel region. In this manner, the blood vessel region can be extracted by sequentially extracting the voxels that satisfy the determination conditions while expanding the region. FIG. 3B shows a diagram in which the blood vessel region extracted from the MRA image of FIG. 3A is binarized with white (density value 1024) and the other regions with black (density value 0).

次いで、抽出された血管領域の3次元MRA画像に対し、図4に示すようなベクトル集中度フィルタを用いたフィルタ処理が行われ、フィルタ処理により出力された処理画像から脳動脈瘤の1次候補領域の検出が行われる(ステップS4)。ベクトル集中度フィルタは、各ボクセルにおけるベクトル集中度を算出し、当該算出されたベクトル集中度の値をそのボクセルのボクセル値として画像化し出力するものである。ベクトル集中度は、濃度変化の勾配ベクトルの向きに着目し、ある注目点に対して近傍領域の勾配ベクトルがどの程度集中しているかを評価するものである。   Next, filter processing using a vector concentration filter as shown in FIG. 4 is performed on the extracted three-dimensional MRA image of the blood vessel region, and a primary candidate for a cerebral aneurysm is obtained from the processed image output by the filter processing. An area is detected (step S4). The vector concentration filter calculates the vector concentration in each voxel, and images and outputs the calculated vector concentration as a voxel value of the voxel. The vector concentration degree focuses on the direction of the gradient vector of the density change and evaluates how much the gradient vector in the neighboring region is concentrated with respect to a certain point of interest.

図5に、脳動脈瘤モデルと血管モデルを示す。
図5に示すように、脳動脈瘤の場合には線形状の血管上に球状の瘤が存在するため、勾配ベクトル(図中の矢印は、勾配ベクトルの向きを示す)は瘤の中心へ向かう傾向がある。一方、血管は線形状であるためそのような傾向は生じない。そのため、脳動脈瘤モデルの形状に近い領域は他の血管領域に比べてベクトル集中度の値が高い。従って、ベクトル集中度フィルタによりベクトル集中度が高い領域のみを出力することにより、脳動脈瘤の1次候補領域を検出することができる。
FIG. 5 shows a cerebral aneurysm model and a blood vessel model.
As shown in FIG. 5, in the case of a cerebral aneurysm, since a spherical aneurysm exists on a linear blood vessel, the gradient vector (the arrow in the figure indicates the direction of the gradient vector) goes to the center of the aneurysm. Tend. On the other hand, since the blood vessel has a linear shape, such a tendency does not occur. Therefore, the region close to the shape of the cerebral aneurysm model has a higher vector concentration value than other blood vessel regions. Therefore, the primary candidate region of the cerebral aneurysm can be detected by outputting only the region having a high vector concentration level by the vector concentration filter.

具体的には、血管領域の抽出画像上に図4に示すような注目ボクセルPを走査させ、注目ボクセルPを中心とする半径Rの球の範囲内に、抽出された血管領域が存在した場合にベクトル集中度を算出する。
ベクトル集中度は、下記式1により算出される。
ここで、角度θは注目ボクセルPから周辺ボクセルQjまでの方向ベクトルと、周辺ボクセルQjにおけるベクトルの方向との間の角度を示し、Mは演算の対象となった周辺ボクセルQjの個数を示している(図4参照)。
Specifically, when a focused voxel P as shown in FIG. 4 is scanned on the extracted image of the vascular region, and the extracted vascular region exists within a range of a sphere having a radius R centered on the focused voxel P. Calculate the vector concentration.
The vector concentration is calculated by the following equation 1.
Here, the angle θ indicates the angle between the direction vector from the target voxel P to the peripheral voxel Qj and the vector direction in the peripheral voxel Qj, and M indicates the number of the peripheral voxels Qj subjected to the calculation. (See FIG. 4).

血管領域を構成する各ボクセルについてベクトル集中度が求められると、当該ベクトル集中度をボクセル値とする、図6に示すようなフィルタ処理画像が出力される。ベクトル集中度は0−1の範囲で出力されるので、図6では、ベクトル集中度が大きいほど(1に近いほど)、白く高濃度に表れるように画像化している。   When the vector concentration degree is obtained for each voxel constituting the blood vessel region, a filtered image as shown in FIG. 6 is output using the vector concentration degree as a voxel value. Since the vector concentration degree is output in the range of 0-1, in FIG. 6, the image is imaged so as to appear white and high in density as the vector concentration degree is larger (closer to 1).

次に、フィルタ処理画像について例えば閾値0.5を用いて2値化する閾値処理が施され、1次候補領域の検出が行われる。すなわち、2値化により閾値0.5より大きいベクトル集中度を有するボクセルからなる領域が1次候補領域として抽出される。図7Aは図6に示すフィルタ処理画像の一部分を示す図である。このフィルタ処理画像を2値化することにより、図7Bに示すような2値化画像が得られる。図7Bに示すように、2値化画像において白く表れている、つまりベクトル集中度が大きい画像領域が1次候補領域として出力される。   Next, a threshold process for binarizing the filtered image using, for example, a threshold value of 0.5 is performed, and a primary candidate area is detected. That is, an area composed of voxels having a vector concentration degree greater than the threshold value 0.5 by binarization is extracted as a primary candidate area. FIG. 7A shows a part of the filtered image shown in FIG. By binarizing this filtered image, a binarized image as shown in FIG. 7B is obtained. As shown in FIG. 7B, an image area that appears white in the binarized image, that is, has a large vector concentration degree, is output as a primary candidate area.

なお、2値化するための閾値は、予め脳動脈瘤の存在が判明している教師画像を用いて決定しておく。すなわち、教師画像を2値化することにより、その存在が既に判明している脳動脈瘤の画像領域のみを抽出することができるような閾値が求められる。
また、閾値はp−タイル法等により統計的に解析して得ることとしてもよい。p−タイル法は、濃度ヒストグラムを求め、この濃度ヒストグラムにおいてある一定の面積比率p%を占めるところの濃度値を閾値として求める方法である。本実施形態では、フィルタ処理画像の濃度ヒストグラムを求め、最高濃度値側から面積比率p%を占めるところの濃度値を閾値として決定する。
Note that the threshold for binarization is determined in advance using a teacher image in which the presence of a cerebral aneurysm is known. That is, by thresholding the teacher image, a threshold value that can extract only the image region of the cerebral aneurysm whose presence has already been found is obtained.
The threshold value may be obtained by statistical analysis by the p-tile method or the like. The p-tile method is a method of obtaining a density histogram and obtaining a density value at a certain area ratio p% in the density histogram as a threshold value. In the present embodiment, the density histogram of the filtered image is obtained, and the density value that occupies the area ratio p% from the highest density value side is determined as the threshold value.

次いで、2次検出を行うため、1次候補領域の特徴を示す特徴量が算出される(ステップS5)。脳動脈瘤はある一定の大きさを持ち、形状が球状であることから、本実施形態では特徴量として候補領域の大きさ、球形度、領域内の各ボクセルにおけるベクトル集中度の平均値を算出することとする。しかし、脳動脈瘤を特徴付けることができるのであればどのような特徴量を用いるかは特に限定せず、例えば各ボクセルのベクトル集中度の最大値を算出することとしてもよいし、各ボクセルの濃度値の標準偏差等を算出することとしてもよい。   Next, in order to perform secondary detection, a feature amount indicating the feature of the primary candidate region is calculated (step S5). Since the cerebral aneurysm has a certain size and a spherical shape, in this embodiment, the size of the candidate region, the sphericity, and the average value of the vector concentration in each voxel in the region are calculated as feature quantities. I decided to. However, there is no particular limitation on what kind of feature value is used as long as it can characterize a cerebral aneurysm. For example, the maximum value of vector concentration of each voxel may be calculated, and the concentration of each voxel may be calculated. The standard deviation of the values may be calculated.

大きさの特徴量としては、候補領域を構成する各ボクセルの体積が算出される。ここでは、処理時間の短縮のため実際の体積ではなく、ボクセルの個数を算出してこれを体積を示す指標値として以後の演算に用いることとする。また、球形度の特徴量は、図8に示すように1次候補領域の体積と同一体積の球を、1次候補領域の重心と球の重心が一致するように配置したときに、この球と一致する1次候補領域部分の体積と1次候補領域の全体積との比率から求める。   As the size feature amount, the volume of each voxel constituting the candidate region is calculated. Here, in order to shorten the processing time, the number of voxels is calculated instead of the actual volume, and this is used as an index value indicating the volume in subsequent calculations. Further, as shown in FIG. 8, the feature amount of the sphericity is obtained when a sphere having the same volume as the volume of the primary candidate area is arranged so that the centroid of the primary candidate area and the centroid of the sphere coincide. Is obtained from the ratio of the volume of the primary candidate region portion that coincides with the total volume of the primary candidate region.

特徴量が算出されると、当該特徴量に基づいて2次検出が行われる(ステップS6)。2次検出では、脳動脈瘤と正常組織である血管との識別が行われる。識別はルールベース法を用いた識別器の例を示すが、これに限らず、例えば人工ニューラルネットワーク、サポートベクトルマシン、判別分析等、識別ができるのであればその手法は問わない。   When the feature amount is calculated, secondary detection is performed based on the feature amount (step S6). In the secondary detection, a cerebral aneurysm is distinguished from a blood vessel that is a normal tissue. Identification is an example of a classifier using a rule-based method, but is not limited to this, and any method may be used as long as it can be identified, such as an artificial neural network, a support vector machine, or discriminant analysis.

ルールベース法の識別器では、図9A、図9Bに示すように、まず大きさに対する球形度、大きさに対するベクトル集中度の平均の関係を示すプロファイルが作成される。識別器では予め2次候補として検出する範囲(図9A、図9Bで実線により囲まれた範囲)が決定されており、識別対象の1次候補の各特徴量を変量データとして上記プロファイルを作成した際に、その1次候補の各特徴量の変量データが検出範囲内に存在すれば真陽性候補、存在しなければ偽陽性候補として識別される。すなわち、検出範囲内に特徴量の変量データが分布する1次候補のみが2次検出される。   In the rule-based method classifier, as shown in FIGS. 9A and 9B, first, a profile indicating the relationship between the sphericity with respect to the size and the average of the vector concentration with respect to the size is created. In the discriminator, a range to be detected as a secondary candidate (a range surrounded by a solid line in FIGS. 9A and 9B) is determined in advance, and the profile is created using each feature quantity of the primary candidate to be identified as variable data. At this time, if the variable data of each feature quantity of the primary candidate is within the detection range, it is identified as a true positive candidate, and if not, it is identified as a false positive candidate. In other words, only the primary candidates in which the feature quantity variable data is distributed within the detection range are secondarily detected.

なお、上記検出範囲は、予め脳動脈瘤、或いは正常な血管であると判明している教師画像を用いて決定される。まず、脳動脈瘤、正常な血管の教師画像からそれぞれ大きさ、球形度、ベクトル集中度の平均が求められ、これら特徴量から大きさに対する球形度、大きさに対するベクトル集中度の平均値の関係のプロファイルが作成される。図9A、図9Bでは、○のマーカで示す変量データが真陽性、つまり脳動脈瘤と判明している教師データであり、●のマーカで示す変量データが偽陽性、つまり血管と判明している教師データである。このとき、脳動脈瘤と正常な血管では画像の特徴が異なるため、大きさ、球形度、ベクトル集中度の平均値の特徴量の分布に偏りが生じる。よって、プロファイルにおいて、全ての脳動脈瘤の教師データが含まれる範囲が最小限となるように、大きさ、球形度、ベクトル集中度の平均値について2つの閾値が決定される。この閾値によって囲まれる領域範囲が検出範囲である。   The detection range is determined by using a teacher image that has been previously determined to be a cerebral aneurysm or a normal blood vessel. First, the average of size, sphericity, and vector concentration is obtained from cerebral aneurysm and normal blood vessel teacher images, respectively, and the relationship between the sphericity with respect to size and the average value of vector concentration with respect to size is obtained from these features. Profile is created. In FIG. 9A and FIG. 9B, the variable data indicated by the ◯ marker is true positive, that is, teacher data that has been determined to be a cerebral aneurysm, and the variable data indicated by the ● marker is false positive, that is, has been determined to be a blood vessel. Teacher data. At this time, since the features of the image are different between the cerebral aneurysm and the normal blood vessel, the distribution of the feature value of the average value of the size, the sphericity, and the vector concentration degree is biased. Therefore, two threshold values are determined for the average values of the size, the sphericity, and the vector concentration so that the range in which teacher data of all cerebral aneurysms is included in the profile is minimized. A region range surrounded by the threshold is a detection range.

図9A、図9Bの例では、閾値を示す4本の点線で囲まれた範囲(その範囲を囲む部分のみ実線で示す)が検出範囲であり、「大きさ−球形度」、「大きさ−ベクトル集中度の平均」のそれぞれについて検出範囲が決定されている。そして、何れのプロファイルにおいても検出範囲内に位置する1次候補(その変量データを△のマーカで示す)が脳動脈瘤候補として2次検出される。   In the example of FIGS. 9A and 9B, a range surrounded by four dotted lines indicating the threshold (only a portion surrounding the range is indicated by a solid line) is a detection range, and “size-sphericity”, “size- A detection range is determined for each of “average vector concentration”. In any profile, a primary candidate (its variable data is indicated by a marker Δ) located within the detection range is secondarily detected as a cerebral aneurysm candidate.

このようにして2次検出が行われると、この2次検出候補についてさらに3次検出が行われる(ステップS7)。3次検出では、3つの特徴量を用いて判別分析が行われる。判別分析の手法としては、マハラノビスの距離、主成分分析、線形判別関数等、何れのものも適用可能であるが、2次検出時の手法とは異なるものを適用するものとする。   When secondary detection is performed in this way, tertiary detection is further performed on the secondary detection candidates (step S7). In tertiary detection, discriminant analysis is performed using three feature amounts. As a discriminant analysis method, any of Mahalanobis distance, principal component analysis, linear discriminant function, etc. can be applied, but a method different from the method at the time of secondary detection is applied.

そして、3次検出された候補領域が最終的な脳動脈瘤候補であるとしてその検出結果が出力される(ステップS8)。
図10に、検出結果として表示部13に表示出力される検出結果例を示す。
図10に示すように、表示部13では、3次元MRA画像から作成されたMIP画像において、3次検出された脳動脈瘤の候補領域を指し示すマーカ情報(図10中の矢印のマーカ)が表示される。このような表示を行うことにより、脳動脈瘤候補領域と他の領域とを識別可能としている。MIP画像は、3次元MRA画像データにMIP処理を施して作成される2次元画像であり、画像中の構造物を3次元的に表示することが可能である。MIP処理は最大輝度投影法と呼ばれ、ある方向から平行光線によって投影を行い、ボクセル中の最大の輝度(信号値)を投影面に反映させて3次元的な観察を可能とする2次元画像を作成する処理である。
Then, the detection result is output on the assumption that the third candidate area is the final cerebral aneurysm candidate (step S8).
FIG. 10 shows an example of a detection result displayed on the display unit 13 as a detection result.
As shown in FIG. 10, the display unit 13 displays marker information (markers indicated by arrows in FIG. 10) indicating the candidate regions of the third detected cerebral aneurysm in the MIP image created from the three-dimensional MRA image. Is done. By performing such display, the cerebral aneurysm candidate region and other regions can be identified. The MIP image is a two-dimensional image created by performing MIP processing on the three-dimensional MRA image data, and it is possible to display the structure in the image three-dimensionally. The MIP process is called a maximum brightness projection method, which is a two-dimensional image that is projected from a certain direction with parallel rays and enables the three-dimensional observation by reflecting the maximum brightness (signal value) in the voxel on the projection plane. Is the process of creating.

なお、脳動脈瘤候補領域について算出されたベクトル集中度の平均値等、脳動脈瘤候補の検出に関する情報を出力し、医師の診断時における参考情報としてもよい。また、ベクトル集中度の程度に応じてマーカ情報の色を変えることとしてもよい。例えば、ベクトル集中度が0.8以上であれば赤、0.7〜0.8であれば黄、0.7〜0.5であれば青等のように矢印のマーカの色を変えることにより、ベクトル集中度、つまり瘤の球状の度合いが強いことを医師は視覚的に容易に把握することができる。   Information regarding detection of cerebral aneurysm candidates, such as the average value of vector concentration calculated for the cerebral aneurysm candidate region, may be output and used as reference information at the time of diagnosis by a doctor. Further, the color of the marker information may be changed according to the degree of vector concentration. For example, if the vector concentration is 0.8 or more, the color of the arrow marker is changed to red, 0.7 to 0.8, yellow, 0.7 to 0.5, etc. Thus, the doctor can easily visually recognize that the vector concentration, that is, the degree of the spherical shape of the aneurysm is strong.

なお、図10ではマーカ情報により脳動脈瘤候補の位置を識別可能とする例を示したが、脳動脈瘤候補領域が他の領域と識別可能に表示されるのであればこのような表示方法に限らない。例えば、MIP処理ではなく、ボリュームレンダリング法を用いて3次元的に表示することとしてもよい。ボリュームレンダリング法は、部分領域毎にそれらのボクセルに色情報と不透明度を与えることにより3次元表示を行う手法であり、注目領域については不透明度を高く設定し、それ以外の領域については低く設定することによって注目領域を浮き立たせることができるものである。よって、表示時には領域毎に不透明度、その不透明度に応じた色情報の設定処理を行う。   FIG. 10 shows an example in which the position of a cerebral aneurysm candidate can be identified by marker information. However, if the cerebral aneurysm candidate region is displayed so as to be distinguishable from other regions, such a display method is used. Not exclusively. For example, instead of MIP processing, the volume rendering method may be used for three-dimensional display. The volume rendering method is a method of performing three-dimensional display by giving color information and opacity to each voxel for each partial area. The opacity is set high for the attention area and low for the other areas. By doing so, the attention area can be raised. Therefore, at the time of display, opacity is set for each region, and color information setting processing corresponding to the opacity is performed.

また、MIP画像等ではなく、ベクトル集中度フィルタにより得られたフィルタ処理画像(図6参照)を用いて検出結果を示すこととしてもよい。このとき、例えばベクトル集中度が低い値の領域は青色を、高い値の領域は赤色を付す等して色分けすることにより、医師が算出されたベクトル集中度を視覚的に把握できるようにしてもよい。さらに、ベクトル集中度によって血管領域の色を変えたフィルタ処理画像を前記MIP画像の対応する位置に重ね合わせて表示することとしてもよい。このように、医師の脳動脈瘤の検出にあたっての参考情報としてベクトル集中度の情報を提供することが可能である。   Moreover, it is good also as showing a detection result not using a MIP image etc. but using the filter process image (refer FIG. 6) obtained by the vector concentration degree filter. At this time, for example, a region with a low vector concentration is colored blue, and a region with a high value is red, so that the doctor can visually grasp the calculated vector concentration. Good. Further, the filtered image in which the color of the blood vessel region is changed according to the vector concentration degree may be displayed superimposed on the corresponding position of the MIP image. As described above, it is possible to provide vector concentration information as reference information for detecting a cerebral aneurysm by a doctor.

次に、図11を参照して血管部位判別処理について説明する。
この血管部位判別処理は、制御部11と記憶部15に記憶された血管部位判別処理の処理プログラムとの協働により実現されるソフトウェア処理である。血管部位判別処理では、頭部を撮影した3次元MRA画像上に表れる血管像についてその血管像に含まれる一又は複数の血管部位を判別する。
Next, the blood vessel part determination process will be described with reference to FIG.
This blood vessel part discrimination process is a software process realized by cooperation of the control unit 11 and the blood vessel part discrimination process processing program stored in the storage unit 15. In the blood vessel part discrimination processing, one or a plurality of blood vessel parts included in the blood vessel image are discriminated for the blood vessel image appearing on the three-dimensional MRA image obtained by photographing the head.

MRAはMRIの血管撮像方法の1種である。MRIでは、被写体の足から頭の方向(この方向を体軸という)に傾斜磁場をかけることによって特定のスライス(断層)にのみエネルギーを吸収させることが可能である。撮像時にはスライス内の血管ではRFパルスで血液が飽和された状態となっているが、血管は常に流れがあるため、経時により非飽和の血流が流入するとそのスライスにおける信号強度が増加する。MRAはこの高信号を画像化することにより血流のある血管を画像化する方法である。   MRA is one type of MRI blood vessel imaging method. In MRI, it is possible to absorb energy only in a specific slice (tomographic section) by applying a gradient magnetic field in the direction from the foot of the subject to the head (this direction is called the body axis). At the time of imaging, blood is saturated in the blood vessel in the slice by the RF pulse, but since the blood vessel always flows, the signal intensity in the slice increases when the unsaturated blood flow flows with time. MRA is a method of imaging blood vessels with blood flow by imaging this high signal.

最初に、血管部位の判別に必要な参照画像について説明する。
参照画像は、図12Aに示すように、3次元MRA画像上の血管像について、一又は複数の血管部位の位置及びその名称が予め設定されたものである。ここで、血管部位とは解剖学上の血管の分類をいい、血管部位の位置とは当該血管部位に属するボクセルの位置をいう。
First, a reference image necessary for determining a blood vessel site will be described.
As shown in FIG. 12A, the reference image is obtained by presetting positions and names of one or a plurality of blood vessel sites in a blood vessel image on the three-dimensional MRA image. Here, the blood vessel part refers to anatomical blood vessel classification, and the position of the blood vessel part refers to the position of the voxel belonging to the blood vessel part.

図12Aでは、血管像に含まれる8つの血管部位(前大脳動脈、右中大脳動脈、左中脳動脈、右内頸動脈、左内頸動脈、右後大脳動脈、左後大脳動脈、脳底動脈)についてその位置及び血管部位の名称を設定した例を示している。なお、図12Aでは8つの血管部位のうち、3つの血管部位(右中大脳動脈、前大脳動脈、脳底動脈)についてのみ名称を示しているが、8つ全ての血管部位について名称は設定される。   In FIG. 12A, eight vascular sites (anterior cerebral artery, right middle cerebral artery, left middle cerebral artery, right internal carotid artery, left internal carotid artery, right posterior cerebral artery, left posterior cerebral artery, brain base included in the vascular image are shown. An example in which the position of the artery and the name of the blood vessel part is set is shown. In FIG. 12A, the names are shown only for three blood vessel parts (the right middle cerebral artery, the anterior cerebral artery, and the basilar artery) among the eight blood vessel parts, but the names are set for all eight blood vessel parts. The

参照画像g2は、参照画像用に選択された、図12Bに示すような頭部MRA画像g1の3次元データから作成される。まず、この3次元データからある間隔毎にアキシャル画像(体軸に垂直な面でボクセルを切り出した2次元断層画像)を作成する。そして、一のアキシャル画像において医師の指摘に基づき、手動操作により各血管部位に属するボクセルを指定し、さらにその血管部位の名称を指定する。これを体軸方向に位置を変えてスライスした各アキシャル画像について繰り返すことにより、3次元データを構成する全ボクセルのうち、各血管部位に属するボクセルの位置及び血管部位の名称を設定することができる。   The reference image g2 is created from the three-dimensional data of the head MRA image g1 selected for the reference image as shown in FIG. 12B. First, an axial image (a two-dimensional tomographic image in which voxels are cut out in a plane perpendicular to the body axis) is created from this three-dimensional data at certain intervals. Based on the doctor's indication in one axial image, a voxel belonging to each blood vessel part is designated by manual operation, and further, the name of the blood vessel part is designated. By repeating this for each axial image sliced by changing the position in the body axis direction, it is possible to set the position of the voxel belonging to each blood vessel part and the name of the blood vessel part among all the voxels constituting the three-dimensional data. .

また、参照画像g2には血管の屈曲点、終局点、血管部位同士の交差点等の特徴的な箇所においてランドマークのボクセルが設定される。ランドマークは対象画像と参照画像との位置合わせに使用されるものであるが、詳細な説明は後述する。ランドマークについても医師の指摘に基づく手動操作に応じて設定される。   In the reference image g2, landmark voxels are set at characteristic points such as a blood vessel bending point, an end point, and an intersection of blood vessel parts. The landmark is used for alignment between the target image and the reference image, and will be described in detail later. The landmark is also set according to a manual operation based on a doctor's indication.

以上のようにして作成された参照画像g2は、記憶部15に保存される。
なお、参照画像g2の作成は医用画像処理装置10の制御部11で行ってもよいし、外部で作成されたものを記憶部15に保存することとしてもよい。また、血管像に含まれる8つの血管部位を示すため、図12Aでは各血管部位を識別表示したが、実際の参照画像g2は背景が黒(低信号値)、血管像が白(高信号値)と2値化された画像である。そして、各血管部位に属するボクセルの位置情報、名称の情報及びランドマークであるボクセルの位置情報は、参照画像に付帯されている、或いは参照画像と対応付けて別ファイルとして記憶部15に保存されている。
The reference image g2 created as described above is stored in the storage unit 15.
The reference image g2 may be created by the control unit 11 of the medical image processing apparatus 10, or an externally created image may be stored in the storage unit 15. In addition, in order to show eight blood vessel parts included in the blood vessel image, each blood vessel part is identified and displayed in FIG. 12A, but the actual reference image g2 has a black background (low signal value) and a white blood vessel image (high signal value). ) And a binarized image. The position information of the voxels belonging to each blood vessel site, the name information, and the position information of the voxels that are landmarks are attached to the reference image or stored in the storage unit 15 as separate files in association with the reference image. ing.

次に、上記参照画像を用いた血管部位判別処理について具体的に説明する。
医用画像処理装置10では、まず判別対象の3次元MRA画像(以下、対象画像という)に対して制御部11により正規化処理が施される(ステップS11)。
対象画像として用いられるMRA画像は、血液の流れを画像化したものであるため、被写体や撮影条件によってボクセルが等サイズではない直方体となったり、ボクセル値の最大値、最小値にばらつきが生じたりする。そこで、対象画像に関する前提条件を統一するため、正規化処理を施す。
Next, the blood vessel part discrimination process using the reference image will be specifically described.
In the medical image processing apparatus 10, a normalization process is first performed by the control unit 11 on a three-dimensional MRA image (hereinafter referred to as a target image) to be discriminated (step S11).
Since the MRA image used as the target image is an image of the blood flow, the voxel may be a cuboid that is not the same size or the maximum and minimum values of the voxel value may vary depending on the subject and imaging conditions. To do. Therefore, normalization processing is performed to unify the preconditions regarding the target image.

正規化処理では、まずボクセルを構成する全ての辺が等サイズとなるように線形補間法により対象画像が変換される。次に、対象画像の全てのボクセルのボクセル値についてヒストグラムが作成され、ヒストグラムの上位5%以上のボクセル値を1024、最小のボクセル値を0として、対象画像の全てのボクセル値が0〜1024の階調に線形変換される。このとき、ボクセル値が高信号値であるほど濃度値1024に近く、低信号値であるほど濃度値0に近くなるように変換される。なお、濃度階調のレンジは、0〜1024に限らず適宜設定可能である。   In the normalization process, first, the target image is converted by linear interpolation so that all sides constituting the voxel have the same size. Next, a histogram is created for the voxel values of all the voxels of the target image. The voxel values of the upper 5% or more of the histogram are set to 1024, the minimum voxel value is set to 0, and all the voxel values of the target image are 0 to 1024. Linear conversion to gradation. At this time, the higher the voxel value, the closer to the density value 1024, and the lower the signal value, the closer to the density value 0. The density gradation range is not limited to 0 to 1024 and can be set as appropriate.

図13A、図13Bに、正規化処理の一例を示す。
図13Aに示す対象画像g3、図13Bに示す対象画像g4はそれぞれ異なる患者を被写体としたものである。そのため、対象画像g3から得られたヒストグラムh1(図13A参照)と、対象画像g4から得られたヒストグラムh3(図13B参照)とでは、2つの極大点があるという特徴が共通するが、そのボクセル値の範囲にかなり相違があり、全体としてヒストグラム特性が異なるものとなっていることが分かる。このようなヒストグラム特性を有する対象画像g3、g4について上記の正規化処理を施した後に再度ヒストグラムを作成すると、図13Aに示すヒストグラムh2、図13Bに示すヒストグラムh4がそれぞれ得られる。ヒストグラムh2、h4から分かるように、正規化処理によって各対象画像g3、g4のヒストグラム特性がほぼ同じものとなっている。
An example of the normalization process is shown in FIGS. 13A and 13B.
The target image g3 shown in FIG. 13A and the target image g4 shown in FIG. 13B are different patients as subjects. Therefore, the histogram h1 obtained from the target image g3 (see FIG. 13A) and the histogram h3 obtained from the target image g4 (see FIG. 13B) share the characteristic that there are two local maximum points. It can be seen that there is a considerable difference in the value range, and the histogram characteristics are different as a whole. When the normalization processing is performed on the target images g3 and g4 having such histogram characteristics and then the histogram is created again, the histogram h2 shown in FIG. 13A and the histogram h4 shown in FIG. 13B are obtained. As can be seen from the histograms h2 and h4, the histogram characteristics of the target images g3 and g4 are substantially the same by the normalization process.

正規化処理を終えると、制御部11では当該正規化された対象画像から血管像が抽出される(ステップS12)。
まず、対象画像について閾値処理が施され、2値化が行われる。一般的に、MRA画像では、図14Aに示すように血管像は白く、その他の組織部分は黒っぽく表れるため、2値化画像では血管像はその他の領域とは異なる値となる。よって、領域拡張法により血管像と同程度の信号値を有する領域の抽出を行う。
When the normalization process is finished, the control unit 11 extracts a blood vessel image from the normalized target image (step S12).
First, threshold processing is performed on the target image, and binarization is performed. In general, in the MRA image, as shown in FIG. 14A, the blood vessel image appears white and the other tissue portions appear blackish. Therefore, in the binarized image, the blood vessel image has a value different from other regions. Therefore, the region having the same signal value as the blood vessel image is extracted by the region expansion method.

領域拡張法では、2値化画像を用いて始点となるボクセル(最も白く高濃度値のボクセル)を決定し、2値化処理前の対象画像においてその始点と決定されたボクセルの近傍26ボクセルを調べ、ある判定条件(例えば、濃度値が500以上であること)を満たす近傍ボクセルを血管像と判断する。そして、この血管像と判断された近傍ボクセルについても上記と同様の処理を繰り返す。このように、領域を拡張しながら判定条件を満たすボクセルを順次抽出することにより、血管像の画像領域を抽出することができる。   In the region expansion method, a voxel that is a starting point (whitest and high density value voxel) is determined using a binarized image, and 26 voxels in the vicinity of the voxel determined as the starting point in the target image before binarization processing are determined. A nearby voxel satisfying a certain determination condition (for example, having a density value of 500 or more) is determined as a blood vessel image. Then, the same processing as described above is repeated for the neighboring voxels determined to be the blood vessel image. In this manner, the image region of the blood vessel image can be extracted by sequentially extracting the voxels that satisfy the determination condition while expanding the region.

図14Bに、血管像を抽出した血管抽出画像g6を示す。
血管抽出画像g6は、図14Aに示す正規化後の対象画像g5から血管像を抽出し、当該血管像の領域を白(濃度値1024)、その他の領域を黒(濃度値0)で2値化したものである。
FIG. 14B shows a blood vessel extraction image g6 obtained by extracting blood vessel images.
A blood vessel extraction image g6 is obtained by extracting a blood vessel image from the normalized target image g5 shown in FIG. 14A, and the blood vessel image area is white (density value 1024) and the other areas are black (density value 0) and binary. It has become.

次に、制御部11では、血管抽出画像の血管像の位置と参照画像の血管像の位置とを略一致させるため、各画像の重心位置を元に位置合わせが行われる(ステップS13)。重心位置は、血管像に属する全てのボクセルの重心となるボクセルの位置である。   Next, in order to make the position of the blood vessel image of the blood vessel extraction image substantially coincide with the position of the blood vessel image of the reference image, the control unit 11 performs alignment based on the position of the center of gravity of each image (step S13). The center-of-gravity position is the position of the voxel that is the center of gravity of all the voxels belonging to the blood vessel image.

図15A、図15Bを参照して、具体的に説明する。
図15Aは、位置合わせ前の血管抽出画像と参照画像とを重ね合わせた図である。図15Aから単に血管抽出画像と参照画像を合わせただけではそれぞれの血管像の位置が一致していないことが分かる。
そこで、制御部11では、図15Aに示すように血管抽出画像の重心P(x1、y1、z1)、参照画像の重心Q(x2、y2、y3)の位置が求められる。次いで、この重心位置P、Qが一致するように、血管抽出画像又は参照画像が平行移動される。平行移動により各重心位置P、Qを一致させた結果が、図15Bに示す図である。図15Bから血管抽出画像の血管像と参照画像の血管像の位置が大まかに一致していることが分かる。
A specific description will be given with reference to FIGS. 15A and 15B.
FIG. 15A is a diagram in which the blood vessel extraction image and the reference image before alignment are superimposed. It can be seen from FIG. 15A that the positions of the respective blood vessel images do not coincide by simply combining the blood vessel extraction image and the reference image.
Therefore, the control unit 11 obtains the positions of the centroid P (x1, y1, z1) of the blood vessel extraction image and the centroid Q (x2, y2, y3) of the reference image as shown in FIG. 15A. Next, the blood vessel extraction image or the reference image is translated so that the barycentric positions P and Q coincide. FIG. 15B shows the result of matching the gravity center positions P and Q by translation. It can be seen from FIG. 15B that the positions of the blood vessel image of the blood vessel extraction image and the blood vessel image of the reference image roughly match.

さらに、精度よく位置合わせを行うため、制御部11では血管抽出画像について剛体変形が行われる(ステップS14)。
まず、剛体変形の前処理として相互相関係数を用いた対応点の検索が行われる。これは、位置合わせを行う2つの画像についてそれぞれ複数の対応点を設定し、この2つの画像において設定された対応点がそれぞれ一致するように一方の画像を剛体変形するためである。ここでは、参照画像において予め定められているランドマークのボクセルと、局所的に画像特性が類似する血管抽出画像のボクセルが対応点として設定される。画像特性の類似性は、血管抽出画像と参照画像について相互相関係数が求められ、この相互相関係数に基づいて判断される。
Further, in order to perform alignment with high accuracy, the control unit 11 performs rigid body deformation on the blood vessel extraction image (step S14).
First, a corresponding point search using a cross-correlation coefficient is performed as preprocessing for rigid body deformation. This is because a plurality of corresponding points are set for each of the two images to be aligned, and one of the images is rigidly deformed so that the corresponding points set in the two images match each other. Here, a voxel of a landmark determined in advance in the reference image and a voxel of a blood vessel extraction image having locally similar image characteristics are set as corresponding points. The similarity of the image characteristics is determined based on the cross-correlation coefficient obtained for the blood vessel extraction image and the reference image.

具体的には、図16Aに示すように、予め参照画像g7の血管像において設定されている12点のランドマークに対応する対応点が血管抽出画像から検索される。対応点の検索時には、図16Bに示すように、血管抽出画像g8において、参照画像g7の各ランドマークと対応する位置のボクセルを開始点とし、血管抽出画像g8及び参照画像g7において当該開始点及びランドマークのボクセルからX軸、Y軸、Z軸方向に−10〜+10ボクセルの範囲(21×21×21ボクセルの立方領域)内のボクセルが探索され、各ボクセルについて、下記式2により相互相関係数C(以下、相関値Cという)が算出される。   Specifically, as illustrated in FIG. 16A, corresponding points corresponding to 12 landmarks set in advance in the blood vessel image of the reference image g7 are searched from the blood vessel extraction image. When searching for corresponding points, as shown in FIG. 16B, in the blood vessel extraction image g8, a voxel at a position corresponding to each landmark of the reference image g7 is set as a start point, and the start point and the blood vessel extraction image g8 and the reference image g7 Voxels within a range of −10 to +10 voxels in the X-axis, Y-axis, and Z-axis directions (21 × 21 × 21 voxel cubic regions) are searched from the landmark voxels. A relation number C (hereinafter referred to as a correlation value C) is calculated.

上記式2においてA(i,j,k)は参照画像g7のボクセル位置、B(i,j,k)は血管抽出画像g8のボクセル位置を示す。IJKは探索領域のサイズを示し、IJK=21×21×21である。 In Equation 2, A (i, j, k) represents the voxel position of the reference image g7, and B (i, j, k) represents the voxel position of the blood vessel extraction image g8. IJK indicates the size of the search area, and IJK = 21 × 21 × 21.

また、α、βは、それぞれ参照画像g7、血管抽出画像g8における探索領域内のボクセル値の平均値であり、下記式3、4により示される。σ、σは、それぞれ参照画像g7、血管抽出画像g8における探索領域内のボクセル値の標準偏差であり、下記式5、6により示される。
Α and β are average values of the voxel values in the search region in the reference image g7 and the blood vessel extraction image g8, respectively, and are expressed by the following equations 3 and 4. σ A and σ B are standard deviations of the voxel values in the search region in the reference image g7 and the blood vessel extraction image g8, respectively, and are expressed by the following expressions 5 and 6.

相関値Cは−1.0〜1.0の値域を持ち、最大値1.0に近いほど、参照画像g7と血管抽出画像g8の画像特性が類似していることを示す。
そこで、最も大きな相関値Cをとるボクセルの位置が、参照画像g7のランドマークに対応する血管抽出画像g8の対応点として設定される。
The correlation value C has a range of −1.0 to 1.0, and the closer to the maximum value 1.0, the more similar the image characteristics of the reference image g7 and the blood vessel extraction image g8 are.
Therefore, the position of the voxel having the largest correlation value C is set as the corresponding point of the blood vessel extraction image g8 corresponding to the landmark of the reference image g7.

対応点が設定されると、制御部11ではこの対応点に基づき、血管抽出画像g8に対して剛体変形を施すことにより、血管抽出画像g8の血管像と参照画像g7の血管像との位置合わせが行われる。剛体変形は、アフィン変換の一つであり、回転、平行移動により座標変換を行うものである。位置合わせは、最小二乗法を用いた剛体変形を複数回繰り返すICP(Iterative Closest Point)アルゴリズムにより血管抽出画像g8の対応点が参照画像g7のランドマークに一致するように行われる。このアルゴリズムによれば、剛体変形を行う毎に、参照画像のランドマークと血管抽出画像の対応点における距離の最小二乗誤差を算出し、当該最小二乗誤差がある閾値を超える等の終了条件を満たすまで剛体変形が繰り返される。なお、剛体変形をアフィン変換(拡大縮小、回転、並行移動による座標変換)に代えることとしてもよい。   When the corresponding point is set, the control unit 11 performs rigid body deformation on the blood vessel extraction image g8 based on the corresponding point, thereby aligning the blood vessel image of the blood vessel extraction image g8 and the blood vessel image of the reference image g7. Is done. Rigid body deformation is one of affine transformations, in which coordinate transformation is performed by rotation and translation. The alignment is performed by an ICP (Iterative Closest Point) algorithm that repeats rigid body deformation using the least square method a plurality of times so that the corresponding point of the blood vessel extraction image g8 matches the landmark of the reference image g7. According to this algorithm, every time a rigid body is deformed, the least square error of the distance at the corresponding point between the landmark of the reference image and the blood vessel extraction image is calculated, and the end condition such that the least square error exceeds a threshold value is satisfied. The rigid body deformation is repeated until. Note that rigid body deformation may be replaced with affine transformation (enlargement / reduction, rotation, coordinate transformation by parallel movement).

次いで、参照画像に基づき、剛体変形により位置合わせされた血管抽出画像の血管像に含まれる各血管部位が制御部11において判別される(ステップS15)。
まず、参照画像の各血管部位に属するボクセル全てを対象に(これを対象ボクセルという)、血管抽出画像におけるある注目ボクセルとのユークリッド距離の2乗が求められる。そして、その求めたユークリッド距離が最短となる対象ボクセルが属する血管部位が、注目ボクセルが属する血管部位であると判断される。またこのとき、対象ボクセルに設定されている血管部位の名称から、注目ボクセルの血管部位の名称が判断される。
Next, based on the reference image, each blood vessel part included in the blood vessel image of the blood vessel extraction image aligned by rigid body deformation is determined by the control unit 11 (step S15).
First, the square of the Euclidean distance from a certain target voxel in the blood vessel extraction image is obtained for all voxels belonging to each blood vessel part of the reference image (this is referred to as a target voxel). Then, it is determined that the blood vessel part to which the target voxel having the shortest Euclidean distance belongs is the blood vessel part to which the target voxel belongs. At this time, the name of the blood vessel part of the target voxel is determined from the name of the blood vessel part set in the target voxel.

血管抽出画像の血管像を構成する全てのボクセルに対し、注目ボクセルを設定して上記の処理を行い、全ボクセルについて対応する血管部位が判別されると、その判別された血管部位に属するボクセルの位置、血管部位の名称を示す血管部位情報が制御部11により生成され、対象画像に付帯される(ステップS16)。例えば、位置(x3、y3、z3)のボクセルは前大脳動脈の血管部位であると判別された場合、そのボクセル位置「(x3,y3、z3)」のボクセルは血管名称「前大脳動脈」の血管部位であることを示す血管部位情報が対象画像のヘッダ領域に書き込まれる等して付帯されることとなる。   For all the voxels constituting the blood vessel image of the blood vessel extraction image, the target voxel is set and the above processing is performed. When the corresponding blood vessel portion is determined for all the voxels, the voxel belonging to the determined blood vessel portion is determined. Blood vessel part information indicating the position and name of the blood vessel part is generated by the control unit 11 and attached to the target image (step S16). For example, when it is determined that the voxel at the position (x3, y3, z3) is a blood vessel part of the anterior cerebral artery, the voxel at the position “(x3, y3, z3)” has the blood vessel name “anterior cerebral artery”. The blood vessel part information indicating that it is a blood vessel part is appended to the header area of the target image.

図17A、図17Bに、血管部位の判別結果を示す。
図17Aに示す血管抽出画像g9と図17Bに示す血管抽出画像g11は、それぞれ異なる被写体から得られた画像であり、図17Aに示す画像g10、図17Bに示す画像g12はそれぞれ血管抽出画像g9、g11から各血管部位が判別され、その血管部位毎に色を変えて識別表示した画像である。画像g10、g12から、剛体変形による位置合わせを行うことにより、画像g10、g12の血管像が異なる形態(血管の位置、大きさ、延在方向等)であるにも拘わらず、同じように血管部位を識別できていることが分かる。
FIG. 17A and FIG. 17B show the results of determining the blood vessel site.
The blood vessel extraction image g9 shown in FIG. 17A and the blood vessel extraction image g11 shown in FIG. 17B are images obtained from different subjects, respectively, and the image g10 shown in FIG. 17A and the image g12 shown in FIG. This is an image in which each blood vessel part is discriminated from g11 and is identified and displayed by changing the color for each blood vessel part. By performing positioning by rigid body deformation from the images g10 and g12, the blood vessel images are the same in spite of the different blood vessel images in the images g10 and g12 (position, size, extending direction, etc.). It can be seen that the part can be identified.

以上が、対象画像における血管部位を判別し、その血管部位情報を付帯するまでの流れである。
そして、このような対象画像について操作部12を介して表示指示操作がなされると、制御部11により対象画像にMIP処理が施されてMIP画像が生成され、表示部13上に表示される。以下、MIP画像の表示をMIP表示という。
The above is a flow from determining a blood vessel part in the target image to attaching the blood vessel part information.
When a display instruction operation is performed on the target image via the operation unit 12, the control unit 11 performs MIP processing on the target image to generate a MIP image and displays the MIP image on the display unit 13. Hereinafter, the display of the MIP image is referred to as MIP display.

MIP法はある方向から平行光線によって投影を行うとともに、この投影線上にあるボクセル中の最大の輝度(ボクセル値)を投影面に反映させて2次元画像を作成する方法である。この投影方向は医師が観察を所望する視線方向となる。ここでは、医師が自由にその観察方向を操作することができる構成とし、操作部12を介して指示操作された観察方向に応じて制御部11により対象画像からMIP画像が作成され、表示部13に表示されるものとする。   The MIP method is a method of creating a two-dimensional image by performing projection with parallel rays from a certain direction and reflecting the maximum luminance (voxel value) in the voxels on the projection line on the projection plane. This projection direction is the line-of-sight direction that the doctor desires to observe. Here, the doctor can freely operate the observation direction, and the control unit 11 creates an MIP image from the target image according to the observation direction instructed via the operation unit 12, and the display unit 13. Shall be displayed.

対象画像がMIP表示された状態においてさらに血管部位の識別表示の指示操作がなされると、制御部11では対象画像に付帯されている血管部位情報が参照され、この血管部位情報に基づき、MIP画像中の血管像において各血管部位が識別可能となるように表示制御が行われる(ステップS17)。   When an instruction operation for identifying and displaying a blood vessel part is performed in a state where the target image is displayed in MIP, the control unit 11 refers to blood vessel part information attached to the target image, and based on this blood vessel part information, the MIP image Display control is performed so that each blood vessel part can be identified in the blood vessel image in the middle (step S17).

例えば、血管部位情報に基づいて各血管部位のボクセル位置及び名称が判別されると、制御部11では、MIP画像において前大脳動脈の血管部位に属するボクセルには青色、脳底動脈の血管部位に属するボクセルには緑色等、血管部位毎に判別された位置にあるボクセルに血管部位毎の色が設定される。そして、対象画像のMIP画像に当該設定色を反映させる。さらにその血管部位の名称を指し示すアノテーション画像が作成されてMIP画像の対応する血管部位に合成される。   For example, when the voxel position and name of each blood vessel part are determined based on the blood vessel part information, the control unit 11 displays blue for the voxel belonging to the blood vessel part of the anterior cerebral artery in the MIP image, and the blood vessel part of the basilar artery. A color for each blood vessel part is set to a voxel at a position determined for each blood vessel part such as green for the voxel to which it belongs. Then, the set color is reflected in the MIP image of the target image. Furthermore, an annotation image indicating the name of the blood vessel part is created and synthesized with the corresponding blood vessel part of the MIP image.

図18に、識別表示例を示す。
図18においてMIP画像g13は対象画像が頭部上方向からMIP表示されたものである。このMIP画像g13が表示された状態で各血管部位の識別表示が指示操作されると、識別表示画像g14が表示される。識別表示画像g14は、血管抽出画像において8種類の血管部位にそれぞれ異なる色を付す等して、各血管部位を識別表示したものである。
識別表示画像g14において、医師によりある血管部位が選択操作されると、制御部11の表示制御により当該選択された血管部位に関連づけて「脳底動脈」等の血管部位の名称を示すアノテーションmが表示される。
FIG. 18 shows an example of identification display.
In FIG. 18, a MIP image g13 is a target image that is displayed in MIP from above the head. When the identification display of each blood vessel part is instructed with the MIP image g13 displayed, an identification display image g14 is displayed. The identification display image g14 is obtained by identifying and displaying each blood vessel part by giving different colors to the eight kinds of blood vessel parts in the blood vessel extraction image.
In the identification display image g14, when a doctor selects a blood vessel part, an annotation m indicating the name of the blood vessel part such as “basal artery” is associated with the selected blood vessel part by display control of the control unit 11. Is displayed.

上記頭部上方向のMIP画像g13に対して、側面方向からのMIP表示が指示されると、制御部11により側面方向に応じたMIP画像g15が作成されて、表示される。MIP画像g15では、手前側の血管像と後方側の血管像とが重なり合っており、観察しづらい表示となっている。このようなMIP画像g15においても、血管部位の識別表示が可能である。血管部位情報を参照することにより、何れのボクセルが何れの血管部位に該当するのかを判別することができるため、MIP表示の観察方向の変動によらず、識別表示すべきボクセルを特定できるからである。   When MIP display from the side surface direction is instructed with respect to the MIP image g13 in the head upward direction, the control unit 11 creates and displays an MIP image g15 corresponding to the side surface direction. In the MIP image g15, the blood vessel image on the near side and the blood vessel image on the rear side overlap each other, and the display is difficult to observe. Even in such an MIP image g15, the blood vessel part can be identified and displayed. Since it is possible to determine which voxel corresponds to which blood vessel part by referring to the blood vessel part information, the voxel to be identified and displayed can be specified regardless of the change in the observation direction of the MIP display. is there.

MIP画像g15に対応する識別表示画像は画像g16である。この識別表示画像g16においては、何れかの血管部位のみを抽出して表示することが可能である。
制御部11では、操作部12を介して何れか一の血管部位が選択操作されると、当該選択された血管部位のボクセルの輝度のみを投影させたMIP画像、つまり対象画像のMIP画像g15から選択された血管部位のみが抽出された血管選択画像g17が表示される。血管選択画像g17では、選択された血管部位のみMIP表示され、その他の血管部位が非表示とされているため、医師は関心のある血管部位のみに注目して観察することができる。
The identification display image corresponding to the MIP image g15 is the image g16. In this identification display image g16, it is possible to extract and display only one of the blood vessel sites.
When any one blood vessel part is selected and operated via the operation unit 12, the control unit 11 projects from the MIP image in which only the luminance of the voxel of the selected blood vessel part is projected, that is, the MIP image g15 of the target image. A blood vessel selection image g17 in which only the selected blood vessel site is extracted is displayed. In the blood vessel selection image g17, only the selected blood vessel part is displayed in MIP and the other blood vessel parts are not displayed, so that the doctor can observe only the blood vessel part of interest.

また、これらの表示画像g13〜g17は、同一画面上に並べて表示することとしてもよいし、一画面一画像として切替表示することとしてもよい。前者の場合、MIP表示画像g13と識別表示画像g14、血管選択画像g17等とを比較観察することが可能となるし、後者の場合は全画面表示で各画像g13〜g17を観察することができ、詳細を観察しやすくなる。   These display images g13 to g17 may be displayed side by side on the same screen, or may be switched and displayed as one image per screen. In the former case, the MIP display image g13, the identification display image g14, the blood vessel selection image g17, and the like can be compared and observed. In the latter case, the images g13 to g17 can be observed on a full screen display. , Making it easier to observe details.

以下、検出処理の実施例を示す。
20人の患者についての3次元MRA画像データを得た。これらの画像データは、そのマトリクスサイズが256×256であり、空間分解能は0.625〜0.78mm、スライス厚は0.5〜1.2mmである。これらの画像データには7つの未破裂脳動脈瘤が含まれていることが分かっている。未破裂脳動脈瘤は、経験のある脳神経外科医により決定されたものである。
Hereinafter, examples of the detection process will be described.
Three-dimensional MRA image data for 20 patients was obtained. These image data have a matrix size of 256 × 256, a spatial resolution of 0.625 to 0.78 mm, and a slice thickness of 0.5 to 1.2 mm. These image data are known to contain seven unruptured cerebral aneurysms. An unruptured cerebral aneurysm has been determined by an experienced neurosurgeon.

まず、これら3次元MRA画像データを、線形補完法を用いて等ボクセルサイズの画像データに変換し、正規化を行った。この正規化により、全ての画像データは、マトリクスサイズが400×400×200、空間分解能が0.5mmの等ボクセルの画像データとなった。次に、階調変換処理を施し、濃度階調を0〜1024に線形変換した後、医師により決定された脳動脈瘤の領域(真陽性)について大きさ(体積)、球形度、ベクトル集中度の各特徴量が算出されるとともに、正常な血管領域(偽陽性)についても同様の特徴量が算出される。そして、これら特徴量を2次検出の識別器であるルールベース法の検出範囲の決定、判別分析の教師データとして使用した。同様に、3次検出時の識別器における教師画像として用いて識別器の学習を行った。   First, these three-dimensional MRA image data were converted into image data of equal voxel size using a linear interpolation method, and normalized. By this normalization, all the image data became equal voxel image data having a matrix size of 400 × 400 × 200 and a spatial resolution of 0.5 mm. Next, after performing gradation conversion processing and linearly converting the density gradation from 0 to 1024, the size (volume), sphericity, and vector concentration of the cerebral aneurysm region (true positive) determined by the doctor Are calculated for the normal blood vessel region (false positive). These feature amounts were used as teacher data for determination of the detection range of the rule-based method, which is a discriminator for secondary detection, and discriminant analysis. Similarly, learning of the classifier was performed using it as a teacher image in the classifier at the time of tertiary detection.

上記のように構築された識別器により、20症例の3次元MRA画像データについて図7の検出処理を行ったところ、1症例あたり1.85個の偽陽性候補が含まれていたが、脳動脈瘤の検出正答率は100%であり、精度良く検出できることが確認された。   7 was performed on the three-dimensional MRA image data of 20 cases using the classifier constructed as described above. As a result, 1.85 false positive candidates were included in each case. The detection accuracy rate of the aneurysm was 100%, and it was confirmed that it could be detected with high accuracy.

以上のように、第1実施形態によれば、ベクトル集中度フィルタを用いて中心部分に勾配ベクトルが集中する特徴を有する脳動脈瘤候補を精度良く検出し、その検出情報を医師に提供することができる。よって、医師の読影作業時の疲労や見落としを防止することができ、診断精度の向上が期待される。   As described above, according to the first embodiment, a cerebral aneurysm candidate having a characteristic that a gradient vector concentrates in a central portion using a vector concentration filter is accurately detected, and the detection information is provided to a doctor. Can do. Therefore, fatigue and oversight at the time of doctor's interpretation work can be prevented, and improvement in diagnostic accuracy is expected.

また、脳動脈瘤候補領域は他の領域と識別可能に表示するので、画像上において医師が検出結果を容易に把握することができ、読影作業の円滑化を図ることができる。   In addition, since the cerebral aneurysm candidate region is displayed so as to be distinguishable from other regions, the doctor can easily grasp the detection result on the image, and the interpretation work can be facilitated.

また、ベクトル集中度フィルタは、MRA画像そのものではなく血管領域を抽出した抽出画像に適用するため、フィルタ処理に要する処理時間の短縮化を図ることができる。   Further, since the vector concentration degree filter is applied not to the MRA image itself but to the extracted image obtained by extracting the blood vessel region, the processing time required for the filter processing can be shortened.

なお、上記実施形態は、本発明を適用した好適な一例であり、これに限定されない。
例えば、上記説明では、3次元MRA画像を用いて脳動脈瘤候補を検出していたが、2次元MRA画像を用いて検出を行うこととしてもよい。この場合、脳動脈瘤候補の大きさはピクセル数、球形度は円形度として2次元の特徴量を算出することとなる。
In addition, the said embodiment is a suitable example to which this invention is applied, and is not limited to this.
For example, in the above description, a cerebral aneurysm candidate is detected using a three-dimensional MRA image, but detection may be performed using a two-dimensional MRA image. In this case, a two-dimensional feature amount is calculated with the size of the cerebral aneurysm candidate as the number of pixels and the sphericity as the circularity.

また、MRA画像を用いて動脈瘤候補の検出を行う例を説明したが、造影剤を用いて血管領域を撮影した造影MRA画像等、他の撮影方法によるMRI画像を用いてもよいし、CTA(Computed Tomography Angiography)、DSA(Digital Subtraction Angiography)等、他の撮影装置により血管領域が撮影された画像を用いることとしてもよい。また、検出対象も動脈瘤のみならず、球状の瘤の特徴を有する病変部であれば本発明を適用して検出することが可能である。   Moreover, although the example which detects an aneurysm candidate using an MRA image was demonstrated, you may use the MRI image by other imaging methods, such as the contrast MRA image which image | photographed the blood vessel area | region using the contrast agent, or CTA An image obtained by imaging a blood vessel region by another imaging apparatus such as (Computed Tomography Angiography) or DSA (Digital Subtraction Angiography) may be used. The detection target is not limited to an aneurysm, but can be detected by applying the present invention as long as the lesion has a spherical aneurysm.

また、上記実施形態によれば、画像上の血管像に含まれる8つの血管部位の位置及び名称を予め定めた参照画像と対象画像とを、その血管像について位置合わせすることにより、対象画像上の血管像に含まれる各血管部位の位置及び名称を判別する。そして、この位置及び名称の情報を血管部位情報として対象画像に付帯させるので、対象画像のMIP表示を行う際には当該血管部位情報に基づき、各血管部位を容易に判別することができ、各血管部位の識別表示が可能となる。従って、医師は対象画像における特定の血管部位に注目して対象画像を観察することが可能となり、読影効率の向上を図ることができる。   In addition, according to the above-described embodiment, the reference image in which the positions and names of the eight blood vessel portions included in the blood vessel image on the image are predetermined and the target image are aligned with respect to the blood vessel image. The position and name of each blood vessel part included in the blood vessel image are determined. Since the position and name information is attached to the target image as blood vessel part information, each blood vessel part can be easily determined based on the blood vessel part information when performing MIP display of the target image. The blood vessel part can be identified and displayed. Therefore, the doctor can observe the target image while paying attention to a specific blood vessel site in the target image, and can improve the interpretation efficiency.

MIP表示を行う際、そのMIP表示を行う方向によっては複数の血管部位が重複し、注目したい血管部位に対する観察が困難となる場合がある。
しかしながら、本実施形態によれば各血管部位の識別表示が可能となるため、医師は各血管部位についての位置や名称を容易に特定することができ、読影作業の効率化を図ることができる。
When performing MIP display, depending on the direction in which the MIP display is performed, a plurality of blood vessel portions may overlap, and it may be difficult to observe the blood vessel portion to be noticed.
However, according to the present embodiment, each blood vessel part can be identified and displayed. Therefore, the doctor can easily specify the position and name of each blood vessel part, and the interpretation work can be made more efficient.

また、識別表示された各血管部位のうち、任意の血管部位の選択操作に応じて、当該選択された血管部位のみを抽出して表示したターゲットMIP画像を作成し、表示するので、医師は注目したい血管部位のみを観察することが可能となる。よって、複数の血管部位の重複を解消することができ、動脈瘤の多発部位等、ある血管部位に特定して観察を行うことができる。   In addition, a target MIP image in which only the selected blood vessel part is extracted and displayed in response to an operation for selecting an arbitrary blood vessel part among the identified blood vessel parts is generated and displayed. It is possible to observe only the desired blood vessel site. Therefore, duplication of a plurality of blood vessel sites can be eliminated, and observation can be performed by specifying a specific blood vessel site such as a site where multiple aneurysms occur.

また、対象画像と参照画像の血管像の位置合わせを行う際には、まず重心位置に基づいて大まかな位置合わせを行った後、相互相関係数により対象画像に剛体変形を施して対象画像の血管像の特徴点を参照画像の血管像の対応する特徴点に一致するように細かな位置合わせを行う。   When aligning the target image and the blood vessel image of the reference image, first the rough alignment is performed based on the position of the center of gravity, and then the target image is rigidly deformed by the cross-correlation coefficient to obtain the target image. Fine alignment is performed so that the feature points of the blood vessel image coincide with the corresponding feature points of the blood vessel image of the reference image.

異なる被写体(患者)であっても主要な血管部位の形態(血管の長さや延在方向、太さ等)は概ね共通するが、主要でない細い血管部位についてはその形態に個体差が生じるため、血管部位の形態は被写体によって様々なものとなる。
しかしながら、本実施形態のように最終的に剛体変形により血管像の主な屈曲点等の特徴点の位置を合わせこむことにより、対象画像中の各血管部位がどのような形態を呈していても、精度よく参照画像の血管部位と対応させることができる。従って、被写体によらず一律に血管部位を判別することができ、汎用性が高い。
Even in different subjects (patients), the shape of the main blood vessel site (the length, extension direction, thickness, etc.) of the blood vessel is generally the same. The shape of the blood vessel site varies depending on the subject.
However, as in the present embodiment, the position of the characteristic points such as the main inflection points of the blood vessel image is finally adjusted by rigid body deformation, so that each blood vessel portion in the target image can take any form. It is possible to accurately correspond to the blood vessel portion of the reference image. Therefore, it is possible to determine the blood vessel part uniformly regardless of the subject, and the versatility is high.

さらに、位置合わせは2段階(重心位置に基づくものと、剛体変形によるもの)で行うので、血管部位を判別する判別精度を向上させることができる。また、剛体変形の前に重心位置により位置合わせを行っておくことにより、剛体変形に係る処理時間の短縮化を図ることができ、処理効率が良い。   Furthermore, since alignment is performed in two stages (based on the center of gravity position and based on rigid body deformation), it is possible to improve the determination accuracy for determining the blood vessel site. In addition, by performing alignment based on the position of the center of gravity before the rigid body deformation, it is possible to shorten the processing time related to the rigid body deformation, and the processing efficiency is good.

なお、上述した実施形態は、本発明を適用した好適な一例であり、これに限定されない。
例えば、MRA画像を用いた例を説明したが、造影剤を用いて血管を撮影した造影MRA画像等、他の撮影方法によるMRI画像を用いてもよい。また、CTA(Computed Tomography Angiography)、DSA(Digital Subtraction Angiography)等、他の撮影装置により血管が撮影された画像を用いることとしてもよい。
In addition, embodiment mentioned above is a suitable example to which this invention is applied, and is not limited to this.
For example, although an example using an MRA image has been described, an MRI image obtained by another imaging method such as a contrast MRA image obtained by imaging a blood vessel using a contrast agent may be used. Moreover, it is good also as using the image which image | photographed the blood vessel with other imaging devices, such as CTA (Computed Tomography Angiography) and DSA (Digital Subtraction Angiography).

〈第2実施形態〉
第2実施形態では、GCフィルタバンクによる検出処理の例を説明する。
第2実施形態に係る医用画像処理装置は、第1実施形態に係る医用画像処理装置10と同一構成であり、動作が異なるのみである。よって、第1実施形態に係る医用画像処理装置10(図1参照)と同一構成部分には同一の符号を付し、以下、第2実施形態の医用画像処理装置10の動作について説明する。
Second Embodiment
In the second embodiment, an example of detection processing by the GC filter bank will be described.
The medical image processing apparatus according to the second embodiment has the same configuration as the medical image processing apparatus 10 according to the first embodiment, and only the operation is different. Therefore, the same components as those of the medical image processing apparatus 10 (see FIG. 1) according to the first embodiment are denoted by the same reference numerals, and the operation of the medical image processing apparatus 10 of the second embodiment will be described below.

図19は、第2実施形態に係る検出処理を示すフローチャートである。
図19に示す検出処理では、まずMRAの3次元画像データの入力が行われ(ステップS101)、この3次元画像データに対して前処理が行われる(ステップS102)。前処理が終了すると、3次元画像データから血管の画像領域が抽出される(ステップS103)。なお、このステップS101〜S103は、第1実施形態において図2を参照して説明したステップS1〜3と同様の処理であるため、ここでは詳細な説明を省略する。
FIG. 19 is a flowchart showing a detection process according to the second embodiment.
In the detection process shown in FIG. 19, first, three-dimensional image data of MRA is input (step S101), and pre-processing is performed on the three-dimensional image data (step S102). When the preprocessing is completed, a blood vessel image region is extracted from the three-dimensional image data (step S103). Note that steps S101 to S103 are the same processing as steps S1 to S3 described with reference to FIG. 2 in the first embodiment, and thus detailed description thereof is omitted here.

次に、抽出された血管領域の3次元MRA画像を用いてGCフィルタバンクにより、脳動脈瘤の1次候補領域の検出が行われる(ステップS104)。
以下、GCフィルタバンクによる検出方法について説明する。
GCフィルタバンクは、各種フィルタ処理を組み合わせたものであり、分析バンクと再構成バンクに分かれている。分析バンクは原画像(血管領域の3次元MRA画像)の多重解像度解析を行って解像度レベルの異なる画像(以下、部分画像という)を作成し、この部分画像から重み画像を作成するものである。一方、再構成バンクは重み画像によって各部分画像を重み付けした後、この重み付けられた部分画像から原画像の再構成を行うものである。
Next, the primary candidate region of the cerebral aneurysm is detected by the GC filter bank using the extracted three-dimensional MRA image of the blood vessel region (step S104).
Hereinafter, a detection method using the GC filter bank will be described.
The GC filter bank is a combination of various filter processes, and is divided into an analysis bank and a reconstruction bank. The analysis bank performs multi-resolution analysis of an original image (three-dimensional MRA image of a blood vessel region) to create images with different resolution levels (hereinafter referred to as partial images), and creates a weighted image from the partial images. On the other hand, the reconstruction bank weights each partial image with a weighted image, and then reconstructs the original image from the weighted partial image.

図20は、分析バンクを示す図である。
図20に示すように、分析バンクでは血管領域の3次元MRA画像を原画像SとしてフィルタバンクA(z)においてフィルタ処理が行われ、各解像度レベルjの部分画像が順次作成される。ここでは、解像度レベル1〜3の部分画像を作成する例を説明する。
フィルタバンクA(z)は、図21に示すようにフィルタH(z)、G(z)によるフィルタ処理を経て、画像Sj−1を部分画像S、Wz、Wy、Wxに分解するものである。ここで、Sはx、y、zの各方向においてSj−1に平滑化フィルタH(z)を施したものである。平滑化フィルタH(z)は下記式7により表される。
なお、上記式7において用いられているzは、z変換を示すものである(以下、フィルタを示す式8〜10において同じ)。
FIG. 20 shows an analysis bank.
As shown in FIG. 20, in the analysis bank, a filter process is performed in the filter bank A (z j ) using the three-dimensional MRA image of the blood vessel region as the original image S 0 , and partial images of each resolution level j are sequentially created. Here, an example of creating partial images with resolution levels 1 to 3 will be described.
As shown in FIG. 21, the filter bank A (z j ) is subjected to filter processing using filters H (z j ) and G (z j ), and the image S j−1 is converted into partial images S j , Wz j , Wy j , It is decomposed into Wx j . Here, S j is obtained by applying a smoothing filter H (z j ) to S j−1 in each of the x, y, and z directions. The smoothing filter H (z j ) is expressed by the following formula 7.
In addition, z used in the said Formula 7 shows z conversion (Hereinafter, it is the same in Formula 8-10 which shows a filter.).

部分画像Wz、Wy、Wxは、画像Sj−1のx、y、z方向のそれぞれについてフィルタG(z)が適用されて得られた1階差分画像である。フィルタG(z)は下記式8により表される。
部分画像Wz、Wy、Wxは、解像度レベルが小さい(j=1)ほど、細かな変動に対する検出性が高い。一方、解像度レベルが大きい(j=3)ほど粗い変動に対する検出性が高くなる。従って、解像度レベルが小さい部分画像Wz、Wy、Wxは大きさが小さい動脈瘤の検出に適し、解像度レベルが大きい部分画像Wz、Wy、Wxは大きい動脈瘤の検出に適している。
The partial images Wz j , Wy j , and Wx j are first-order difference images obtained by applying the filter G (z j ) for each of the x, y, and z directions of the image S j−1 . The filter G (z j ) is expressed by the following formula 8.
The partial images Wz j , Wy j , and Wx j have higher detectability with respect to fine fluctuations as the resolution level is smaller (j = 1). On the other hand, the greater the resolution level (j = 3), the higher the detectability for rough fluctuations. Therefore, the resolution level is lower partial image Wz j, Wy j, Wx j is suitable for the detection of small size aneurysm, the resolution level is high partial image Wz j, Wy j, Wx j is suitable for the detection of large aneurysms ing.

についてはさらに解像度レベルj+1のフィルタバンクA(zj+1)によるフィルタ処理が行われることとなる。このように、繰り返しフィルタ処理が行われることにより、解像度レベルj(j=1〜3)毎に部分画像S、Wz、Wy、Wxが作成される。S j is further subjected to filter processing by the filter bank A (z j + 1 ) at the resolution level j + 1. In this way, the partial filter S j , Wz j , Wy j , Wx j is created for each resolution level j (j = 1 to 3) by performing the repeated filter processing.

次に、図20に示すように、各解像度レベルの部分画像Wz、Wy、Wxに対してベクトル集中度フィルタGCによるフィルタ処理が施され、解像度レベル毎のベクトル集中度が算出される。ベクトル集中度の算出方法については前述したのでここでは説明を省略する。Next, as shown in FIG. 20, the partial image Wz j , Wy j , Wx j of each resolution level is subjected to filter processing by the vector concentration filter GC j to calculate the vector concentration for each resolution level. The Since the calculation method of the vector concentration degree has been described above, the description thereof is omitted here.

算出されたベクトル集中度はニューラルネットワークNNに入力される。
ニューラルネットワークNNでは、予め教師データを用いて脳動脈瘤の可能性が高いほど1の値を、逆に低ければ0の値で出力するように、0〜1の範囲で出力値を出力するように設計されている。
The calculated vector concentration degree is input to the neural network NN.
In the neural network NN, an output value is output in a range of 0 to 1 so that a value of 1 is output as the possibility of a cerebral aneurysm is increased using teacher data in advance, and a value of 0 is output if it is lower. Designed to.

ニューラルネットワークNNから出力値が得られると、判定部NMにおいて当該出力値に基づいて重み画像Vが生成され、出力される。重み画像Vはある閾値(ここでは0.8とする)より大きい出力値を有するボクセルについてはボクセル値を1とし、閾値0.8以下の出力値を有するボクセルについてはボクセル値を0とすることにより、作成される。すなわち、閾値である0.8を超えるベクトル集中度が算出されたボクセルは、脳動脈瘤の領域を構成するボクセルである可能性が高い。一方、閾値0.8以下のベクトル集中度を持つボクセルは正常な血管領域を構成するボクセルである可能性が高い。よって、閾値を境界としてボクセル値を2値化することにより、重み画像を作成するものである。重み画像Vは再構成バンクに入力される。   When an output value is obtained from the neural network NN, the determination unit NM generates and outputs a weight image V based on the output value. In the weighted image V, a voxel value is set to 1 for a voxel having an output value larger than a certain threshold value (here, 0.8), and a voxel value is set to 0 for a voxel having an output value equal to or less than the threshold value 0.8. Is created. That is, a voxel for which a vector concentration degree exceeding the threshold value of 0.8 is calculated is highly likely to be a voxel constituting a cerebral aneurysm region. On the other hand, a voxel having a vector concentration degree equal to or less than the threshold value 0.8 is highly likely to be a voxel constituting a normal blood vessel region. Therefore, the weighted image is created by binarizing the voxel value with the threshold as the boundary. The weight image V is input to the reconstruction bank.

図22は、再構成バンクを示す図である。
再構成バンクは、各部分画像S、Wz、Wy、Wxに重み付け処理を施した後、フィルタバンクS(z)を経て元の原画像Sを再構成するものである。
重み付け処理では、各部分画像S、Wz、Wy、Wxに重み画像Vが乗算される。すなわち、重み画像Vにおいてボクセル毎に設定された1又は0の値は、重み付け処理において重み付け係数として用いられることとなる。重み画像Vが乗算された各部分画像はフィルタバンクS(z)に入力される。
FIG. 22 is a diagram illustrating a reconfiguration bank.
The reconstruction bank performs weighting processing on each partial image S j , Wz j , Wy j , Wx j and then reconstructs the original original image S 0 via the filter bank S (z j ).
In the weighting process, each partial image S j , Wz j , Wy j , Wx j is multiplied by the weight image V. That is, the value of 1 or 0 set for each voxel in the weight image V is used as a weighting coefficient in the weighting process. Each partial image multiplied by the weight image V is input to the filter bank S (z j ).

フィルタバンクS(z)は、図23に示すようにフィルタL(z)、K(z)、H(z)L(z)によるフィルタ処理を経て、S、Wz、Wy、WxからSj−1を再構成するものである。
ここで、フィルタL(z)、K(z)は、下記式9、10により表される。
As shown in FIG. 23, the filter bank S (z j ) is subjected to filter processing using filters L (z j ), K (z j ), H (z j ) L (z j ), and then S j , Wz j , S j-1 is reconstructed from Wy j and Wx j .
Here, the filters L (z j ) and K (z j ) are expressed by the following expressions 9 and 10.

すなわち、Sに対してはx、y、z方向についてそれぞれフィルタL(z)によるフィルタ処理が施される。また、Wzについてはx方向についてはフィルタK(z)、y、z方向についてはフィルタH(z)L(z)が適用される。Wyに対してはy方向についてフィルタK(z)、z方向についてフィルタH(z)L(z)が適用され、Wxに対してはz方向についてフィルタK(z)が適用される。そして、それぞれのフィルタ処理後のS、Wz、Wy、Wxを加算することにより、Sj−1が得られる。That is, S j is subjected to filter processing by the filter L (z j ) in the x, y, and z directions. Further, Wz j filter K for x-direction for (z j), y, for z-direction filter H (z j) L (z j) is applied. Wy j For the y-direction filter K (z j), the z-direction filter H (z j) L (z j) is applied, for z-direction with respect to Wx j filter K (z j) is Applied. Then, S j−1 is obtained by adding S j , Wz j , Wy j , and Wx j after the respective filter processes.

j−1についてはさらにフィルタバンクS(zj−1)によるフィルタ処理にかけられ、Sj−2が再構成されることとなる。このようなフィルタ処理を繰り返すことにより元の画像Sを再構成することができる。S j−1 is further subjected to filter processing by the filter bank S (z j−1 ), and S j−2 is reconfigured. It is possible to reconstruct the original image S 0 by repeating such filtering.

原画像Sの再構成は、フィルタバンクA(z)、S(z)における各フィルタH(z)、G(z)、L(z)、K(z)が、図21、図23に示すフィルタの組み合わせである場合のみ、完全に元の画像を再現できるものである。よって、再構成の結果、重み画像Vにおいてボクセル値が1に設定されたボクセルについては完全に元の原画像Sが再現されるのに対し、重み画像Vにおいてボクセル値が0に設定されたボクセルについては原画像Sが再現されず、そのボクセル値は0となってしまう。従って、GCフィルタバンクにより出力された出力画像Sは、脳動脈瘤である可能性が高い画像領域のみが再現された画像となる。この出力画像Sにおいて現れた画像が脳動脈瘤の1次候補である。The reconstruction of the original image S 0 is performed by the filters H (z j ), G (z j ), L (z j ), and K (z j ) in the filter banks A (z j ) and S (z j ) Only in the case of the combination of filters shown in FIGS. 21 and 23, the original image can be completely reproduced. Therefore, as a result of the reconstruction, the voxel value is set to 0 in the weight image V while the original original image S 0 is completely reproduced for the voxel in which the voxel value is set to 1 in the weight image V. not reproduced the original image S 0 for voxels, the voxel value becomes zero. Thus, GC filter bank output image output by the S 0 is an image in which only the image area is likely a cerebral aneurysm has been reproduced. Images appearing in the output image S 0 is the primary candidate for cerebral aneurysm.

出力画像Sが得られると、この出力画像Sを用いて特徴量の算出が行われる(ステップS105)。特徴量は、第1実施形態と同様に候補領域の大きさ、球形度、領域内の各ボクセルにおけるベクトル集中度の平均値を算出する。算出された特徴量を用いて2次検出が行われた後(ステップS106)、さらに3次検出が行われ(ステップS107)、最終的な検出結果として出力される(ステップS108)。ステップS105〜S108の処理は、図2を参照して説明したステップS5〜S8と同一であるので、詳細な説明は省略する。When the output image S 0 obtained feature quantity calculation is performed by using the output image S 0 (step S105). As in the first embodiment, the feature amount is calculated by calculating the average value of the size of the candidate region, the sphericity, and the vector concentration in each voxel in the region. After secondary detection is performed using the calculated feature amount (step S106), further tertiary detection is performed (step S107), and the final detection result is output (step S108). Since the processing of steps S105 to S108 is the same as steps S5 to S8 described with reference to FIG. 2, detailed description thereof is omitted.

また、第2実施形態においても血管部位判別処理が行われるが、第1実施形態と同様の処理内容であるので、その処理内容及び効果についての説明は省略する。   In addition, the blood vessel part determination process is also performed in the second embodiment, but since the process contents are the same as those in the first embodiment, the description of the process contents and effects will be omitted.

以上のように、第2実施形態によれば、GCフィルタバンクにより頭部画像に対して多重解像度解析を行って得られた部分画像によって解像度レベル毎にベクトル集中度を算出する。解像度レベル毎にベクトル集中度を算出することにより、様々な大きさの動脈瘤の検出に対応することができ、より精度の高い検出処理が可能となる。   As described above, according to the second embodiment, the vector concentration degree is calculated for each resolution level based on the partial image obtained by performing the multiresolution analysis on the head image by the GC filter bank. By calculating the vector concentration for each resolution level, it is possible to cope with detection of aneurysms of various sizes, and detection processing with higher accuracy is possible.

また、ベクトル集中度が閾値以上の所定値となるボクセルのみ元の画像が再現されるようボクセル値を1に設定し、その他のボクセルについてはボクセル値を0に設定した重み画像を生成して各部分画像に乗算して重み付けを行い、この重み付けされた各部分画像から元の画像を再構成する。よって、ベクトル集中度が高い、すなわち動脈瘤である可能性が高い領域のみが再構成されることとなり、動脈瘤の候補領域のみ画像化した再構成画像を得ることができる。このような再構成画像を用いて特徴量の算出を行うことにより、算出する特徴量から候補領域以外の画像要素を排除することができ、候補領域についての特徴量を正確に算出することが可能となる。従って、検出処理自体の精度をさらに向上させることが可能となる。   Further, a voxel value is set to 1 so that the original image is reproduced only for voxels having a vector concentration level equal to or greater than a threshold value, and a weighted image with the voxel value set to 0 is generated for the other voxels. The partial image is multiplied and weighted, and the original image is reconstructed from the weighted partial images. Therefore, only the region having a high vector concentration degree, that is, the region having a high possibility of being an aneurysm is reconstructed, and a reconstructed image obtained by imaging only the candidate region of the aneurysm can be obtained. By calculating the feature amount using such a reconstructed image, image elements other than the candidate region can be excluded from the calculated feature amount, and the feature amount for the candidate region can be accurately calculated. It becomes. Therefore, it is possible to further improve the accuracy of the detection process itself.

画像処理の分野において利用することが可能であり、医療用の撮影装置により得られた頭部画像の画像解析、画像処理を行う医用画像処理装置に適用することができる。   The present invention can be used in the field of image processing, and can be applied to a medical image processing apparatus that performs image analysis and image processing of a head image obtained by a medical imaging apparatus.

請求項1に記載の発明によれば、  According to the invention of claim 1,
3次元画像である頭部MRA画像から血管像を抽出する抽出手段と、  Extracting means for extracting a blood vessel image from the head MRA image which is a three-dimensional image;
前記抽出された血管像をアフィン変換することにより、当該アフィン変換された血管像の位置と、血管像に含まれる一又は複数の血管部位の位置及び名称が予め定められた参照画像における血管像の位置とを略一致させ、この略一致させた参照画像に予め定められた血管部位と対応する、前記頭部MRA画像の血管像部分を当該定められた血管部位であると判断することにより、前記頭部MRA画像における血管部位の位置及び名称を判別し、当該判別された血管部位に関する血管部位情報を前記頭部MRA画像に付帯させる画像制御手段と、  By performing affine transformation on the extracted blood vessel image, the position of the blood vessel image subjected to the affine transformation and the position and name of one or a plurality of blood vessel portions included in the blood vessel image are determined in advance in the reference image. By substantially matching the position and determining that the blood vessel image portion of the head MRA image corresponding to the predetermined blood vessel portion in the substantially matched reference image is the predetermined blood vessel portion, Image control means for discriminating the position and name of the blood vessel part in the head MRA image and attaching blood vessel part information relating to the discriminated blood vessel part to the head MRA image;
を備えることを特徴とする医用画像処理装置が提供される。  A medical image processing apparatus is provided.
請求項2に記載の発明によれば、  According to invention of Claim 2,
前記画像制御手段は、前記頭部MRA画像の血管像の重心と、前記参照画像における血管像の重心の位置を合わせた後、前記頭部MRA画像のアフィン変換を行い、アフィン変換後の血管像と参照画像の血管像との最小二乗誤差を算出して当該最小二乗誤差が終了条件を満たすまで前記頭部MRA画像のアフィン変換を繰り返すことを特徴とする請求項1に記載の医用画像処理装置が提供される。  The image control means matches the position of the center of gravity of the blood vessel image of the head MRA image with the position of the center of gravity of the blood vessel image in the reference image, and then performs affine transformation of the head MRA image to obtain a blood vessel image after affine transformation 2. The medical image processing apparatus according to claim 1, wherein a least-square error between the head image and the blood vessel image of the reference image is calculated, and affine transformation of the head MRA image is repeated until the least-square error satisfies a termination condition. Is provided.
請求項3に記載の発明によれば、  According to invention of Claim 3,
前記画像制御手段は、前記重心の位置合わせを行う前に、前記抽出した血管像に対し、画像の条件を統一するための正規化処理を施すことを特徴とする請求項2に記載の医用画像処理装置が提供される。  3. The medical image according to claim 2, wherein the image control unit performs a normalization process for unifying image conditions on the extracted blood vessel image before performing alignment of the center of gravity. A processing device is provided.
請求項4に記載の発明によれば、  According to invention of Claim 4,
前記画像制御手段は、前記頭部MRA画像から抽出した血管像の各ボクセルについて、前記参照画像の血管像のボクセルとのユークリッド距離を求め、前記頭部MRA画像の各ボクセルが属する血管部位は、参照画像に定められている血管部位のうち、当該ユークリッド距離が最短となる血管部位であるとして判断する請求項1〜3の何れか一項に記載の医用画像処理装置が提供される。  The image control means obtains the Euclidean distance from the voxel of the blood vessel image of the reference image for each voxel of the blood vessel image extracted from the head MRA image, and the blood vessel site to which each voxel of the head MRA image belongs is The medical image processing apparatus according to any one of claims 1 to 3, wherein it is determined that the blood vessel part determined in the reference image is the blood vessel part having the shortest Euclidean distance.
請求項5に記載の発明によれば、  According to the invention of claim 5,
前記頭部MRA画像をMIP表示する表示手段と、  Display means for MIP display of the head MRA image;
前記頭部MRA画像に付帯された血管部位情報に基づき、前記表示された頭部MRA画像の血管像に含まれる一又は複数の血管部位を判別し、それら血管部位のそれぞれを前記表示された頭部MRA画像において識別表示させる表示制御手段と、  Based on the blood vessel part information attached to the head MRA image, one or a plurality of blood vessel parts included in the blood vessel image of the displayed head MRA image are determined, and each of the blood vessel parts is displayed on the displayed head. Display control means for identifying and displaying in the MRA image,
を備えることを特徴とする請求項1〜4の何れか一項に記載の医用画像処理装置が提供される。  The medical image processing apparatus according to claim 1, wherein the medical image processing apparatus is provided.
請求項6に記載の発明によれば、  According to the invention of claim 6,
前記表示制御手段は、前記血管部位情報に基づき、前記識別表示された各血管部位の名称を判別し、当該判別された名称を対応する各血管部位に関連付けて表示させることを特徴とする請求項5に記載の医用画像処理装置が提供される。  The said display control means discriminate | determines the name of each said blood vessel part identified and displayed based on the said blood vessel part information, and displays the discriminated name in association with each corresponding blood vessel part. 5. A medical image processing apparatus according to 5, is provided.
請求項7に記載の発明によれば、  According to the invention of claim 7,
表示操作を行うための操作手段を備え、  An operation means for performing a display operation is provided.
前記表示制御手段は、前記頭部MRA画像において表示対象の血管部位が前記操作手段を介して選択操作されると、前記選択された血管部位に対応する血管像のみを前記頭部MRA画像から抽出し、当該抽出された血管像のみを前記表示手段上に表示させることを特徴とする請求項5又は6に記載の医用画像処理装置が提供される。  The display control means extracts only a blood vessel image corresponding to the selected blood vessel part from the head MRA image when a blood vessel part to be displayed in the head MRA image is selected and operated via the operation means. The medical image processing apparatus according to claim 5 or 6, wherein only the extracted blood vessel image is displayed on the display means.

請求項8に記載の発明によれば、According to the invention described in claim 8,
3次元画像である頭部MRA画像から血管像を抽出する抽出工程と、  An extraction step of extracting a blood vessel image from the head MRA image which is a three-dimensional image;
前記抽出された血管像をアフィン変換することにより、当該アフィン変換された血管像の位置と、血管像に含まれる一又は複数の血管部位の位置及び名称が予め定められた参照画像における血管像の位置とを略一致させ、この略一致させた参照画像に予め定められた血管部位と対応する、前記頭部MRA画像の血管像部分を当該定められた血管部位であると判断することにより、前記頭部MRA画像における血管部位の位置及び名称を判別し、当該判別された血管部位に関する血管部位情報を前記頭部MRA画像に付帯させる画像制御工程と、  By performing affine transformation on the extracted blood vessel image, the position of the blood vessel image subjected to the affine transformation and the position and name of one or a plurality of blood vessel portions included in the blood vessel image are determined in advance in the reference image. By substantially matching the position and determining that the blood vessel image portion of the head MRA image corresponding to the predetermined blood vessel portion in the substantially matched reference image is the predetermined blood vessel portion, An image control step of determining a position and a name of a blood vessel part in the head MRA image, and attaching blood vessel part information relating to the determined blood vessel part to the head MRA image;
を含むことを特徴とする画像処理方法が提供される。  An image processing method is provided.
請求項9に記載の発明によれば、  According to the invention of claim 9,
前記画像制御工程は、前記頭部MRA画像の血管像の重心と、前記参照画像における血管像の重心の位置を合わせた後、前記頭部MRA画像のアフィン変換を行い、アフィン変換後の血管像と参照画像の血管像との最小二乗誤差を算出して当該最小二乗誤差が終了条件を満たすまで前記頭部MRA画像のアフィン変換を繰り返すことを特徴とする請求項8に記載の画像処理方法が提供される。  In the image control step, the center of gravity of the blood vessel image of the head MRA image is aligned with the position of the center of gravity of the blood vessel image in the reference image, and then the head MRA image is subjected to affine transformation, and the blood vessel image after affine transformation is obtained. The image processing method according to claim 8, wherein a least square error between the image and the blood vessel image of the reference image is calculated, and affine transformation of the head MRA image is repeated until the least square error satisfies a termination condition. Provided.
請求項10に記載の発明によれば、  According to the invention of claim 10,
前記画像制御工程は、前記重心の位置合わせを行う前に、前記抽出した血管像に対し、画像の条件を統一するための正規化処理を施すことを特徴とする請求項9に記載の画像処理方法が提供される。  The image processing according to claim 9, wherein the image control step performs a normalization process for unifying the image conditions on the extracted blood vessel image before performing the alignment of the center of gravity. A method is provided.
請求項11に記載の発明によれば、  According to the invention of claim 11,
前記画像制御工程は、前記頭部MRA画像から抽出した血管像の各ボクセルについて、前記参照画像の血管像のボクセルとのユークリッド距離を求め、前記頭部MRA画像の各ボクセルが属する血管部位は、参照画像に定められている血管部位のうち、当該ユークリッド距離が最短となる血管部位であるとして判断する請求項8〜10の何れか一項に記載の画像処理方法が提供される。  In the image control step, for each voxel of the blood vessel image extracted from the head MRA image, a Euclidean distance from the voxel of the blood vessel image of the reference image is obtained, and a blood vessel part to which each voxel of the head MRA image belongs is The image processing method according to any one of claims 8 to 10, wherein it is determined that the blood vessel part determined in the reference image is the blood vessel part having the shortest Euclidean distance.
請求項12に記載の発明によれば、  According to the invention of claim 12,
前記頭部MRA画像を表示手段にMIP表示する表示工程と、  A display step of displaying the head MRA image on the display means by MIP;
前記頭部MRA画像に付帯された血管部位情報に基づき、前記表示された頭部MRA画像の血管像に含まれる一又は複数の血管部位を判別し、それら血管部位のそれぞれを前記表示された頭部MRA画像において識別表示させる表示制御工程と、  Based on the blood vessel part information attached to the head MRA image, one or a plurality of blood vessel parts included in the blood vessel image of the displayed head MRA image are determined, and each of the blood vessel parts is displayed on the displayed head. A display control step for identifying and displaying in the MRA image,
を備えることを特徴とする請求項8〜11の何れか一項に記載の画像処理方法が提供される。  An image processing method according to any one of claims 8 to 11 is provided.
請求項13に記載の発明によれば、  According to the invention of claim 13,
前記表示制御工程は、前記血管部位情報に基づき、前記識別表示された各血管部位の名称を判別し、当該判別された名称を対応する各血管部位に関連付けて表示させることを特徴とする請求項12に記載の画像処理方法が提供される。  The display control step determines a name of each identified and displayed blood vessel part based on the blood vessel part information, and displays the determined name in association with each corresponding blood vessel part. 12 is provided.
請求項14に記載の発明によれば、  According to the invention of claim 14,
前記表示制御工程は、前記頭部MRA画像において表示対象の血管部位が選択操作されると、前記選択された血管部位に対応する血管像のみを前記頭部MRA画像から抽出し、当該抽出された血管像のみを前記表示手段上に表示させることを特徴とする請求項12又は13に記載の画像処理方法が提供される。  In the display control step, when a blood vessel part to be displayed is selected in the head MRA image, only the blood vessel image corresponding to the selected blood vessel part is extracted from the head MRA image, and the extracted The image processing method according to claim 12 or 13, wherein only a blood vessel image is displayed on the display means.

請求項1〜4、8〜11に記載の発明によれば、対象画像に付帯された血管部位情報を参照することにより、対象画像の血管像に含まれる一又は複数の血管部位の位置及び名称を容易に判別することが可能となる。血管部位の位置及び名称を判別できれば、例えば対象画像を表示する際にそれぞれの血管部位を識別表示する等、対象画像を利用する際に対象画像に含まれる各血管部位を特定し、その情報を医師に提供することが可能となる。従って、医師は特定の血管部位に注目して対象画像を観察することが可能となり、読影効率の向上を図ることができる。
また、対象画像は被写体(患者)によってその血管像の形態に個体差が生ずるが、アフィン変換によってそれら血管像が略一致するように位置合わせすることにより、参照画像と対象画像の血管像を精度よく対応させることが可能となる。よって、被写体の個体差に拘わらず血管部位を判別することができ、汎用性が高い。
According to the inventions described in claims 1 to 4 and 8 to 11 , the position and name of one or more blood vessel parts included in the blood vessel image of the target image by referring to the blood vessel part information attached to the target image. Can be easily determined. If the position and name of the blood vessel part can be determined, each blood vessel part included in the target image is specified when the target image is used, for example, each blood vessel part is identified and displayed when the target image is displayed. It can be provided to a doctor. Therefore, the doctor can observe the target image while paying attention to a specific blood vessel site, and can improve the interpretation efficiency.
In addition, although the target image has individual differences in the form of the blood vessel image depending on the subject (patient), the reference image and the blood vessel image of the target image are accurately obtained by aligning the blood vessel images so that they substantially match by affine transformation. It becomes possible to make it correspond well. Therefore, the blood vessel part can be discriminated regardless of the individual difference of the subject, and the versatility is high.

請求項5、12に記載の発明によれば、医師は対象画像の血管像に含まれる一又は複数の血管部位のそれぞれを容易に識別することができる。 According to the fifth and twelfth aspects of the present invention, the doctor can easily identify each of one or a plurality of blood vessel portions included in the blood vessel image of the target image.

請求項6、13に記載の発明によれば、医師は対象画像の血管像に含まれる一又は複数の血管部位のそれぞれの名称を容易に把握することができる。 According to the inventions described in claims 6 and 13 , the doctor can easily grasp the names of one or a plurality of blood vessel portions included in the blood vessel image of the target image.

請求項7、14に記載の発明によれば、医師が観察したい特定の血管部位の血管像のみを対象画像から抽出して観察することが可能となる。血管像は複数の血管部位が重なって表示されることがあるため、その重複部分の観察がしづらくなる。よって、医師により選択された特定の血管部位のみを表示することにより、血管部位の重複を解消することができ、医師が読影しやすい環境を提供することができる。 According to the seventh and fourteenth aspects of the present invention, it is possible to extract and observe only a blood vessel image of a specific blood vessel site that a doctor wants to observe from a target image. Since a blood vessel image may be displayed by overlapping a plurality of blood vessel portions, it is difficult to observe the overlapping portion. Therefore, by displaying only the specific blood vessel site selected by the doctor, it is possible to eliminate the overlap of the blood vessel site and provide an environment in which the doctor can easily interpret.

本発明は、患者の頭部を撮影して得られた頭部画像の画像解析、画像処理を行う医用画像処理装置に関する。 The present invention relates to a medical image processing apparatus that performs image analysis and image processing of a head image obtained by photographing a patient's head.

請求項1に記載の発明によれば、  According to the invention of claim 1,
脳内血管の血流を画像化した、判別対象である3次元MRA画像から血管像を抽出する抽出手段と、  An extraction means for extracting a blood vessel image from a three-dimensional MRA image to be discriminated, which is an image of blood flow of blood vessels in the brain
該抽出手段により抽出された血管像をアフィン変換することにより、当該アフィン変換された血管像の位置と、血管像に含まれる一又は複数の血管部位の位置及び名称が予め定められた参照画像における血管像の位置とを略一致させ、この略一致させた参照画像に予め定められた血管部位と対応する、前記3次元MRA画像の血管像部分を当該定められた血管部位であると判断することにより、前記3次元MRA画像における血管部位の位置及び名称を判別し、当該判別された血管部位に関する血管部位情報を前記3次元MRA画像に付帯させる画像制御手段と、  By performing affine transformation on the blood vessel image extracted by the extraction unit, the position of the affine transformed blood vessel image and the position and name of one or more blood vessel parts included in the blood vessel image are determined in a reference image. The position of the blood vessel image is substantially matched, and the blood vessel image portion of the three-dimensional MRA image corresponding to the predetermined blood vessel portion in the substantially matched reference image is determined as the predetermined blood vessel portion. To determine the position and name of the blood vessel part in the three-dimensional MRA image, and attach the blood vessel part information relating to the determined blood vessel part to the three-dimensional MRA image;
を備えており、  With
該画像制御手段は、  The image control means includes
参照画像の血管像において予め設定され且つ血管の特徴点の箇所に設定されている複数のランドマークのボクセルと局所的に画像特性が類似するボクセルを3次元MRA画像より対応点として検索するにあたり、参照画像の各ランドマークのボクセルと対応する位置の3次元MRA画像のボクセルを開始点とし、3次元MRA画像および参照画像において当該開始点及びランドマークのボクセルからX軸、Y軸、Z軸方向に−10〜+10ボクセルの範囲内のボクセルを探索し、各ボクセルについて下記式より相互相関係数を算出し、最も大きな相関値をとるボクセルを参照画像のランドマークに対応する3次元MRA画像の対応点として設定する対応点検索処理と、  In searching for a voxel having image characteristics locally similar to a plurality of landmark voxels set in advance in a blood vessel image of a reference image and set in a blood vessel feature point as a corresponding point from a three-dimensional MRA image, Starting from the voxel of the 3D MRA image at the position corresponding to the voxel of each landmark in the reference image, in the 3D MRA image and the reference image, the start point and the voxel of the landmark are in the X-axis, Y-axis, and Z-axis directions. Voxels within a range of -10 to +10 voxels are calculated, a cross-correlation coefficient is calculated for each voxel by the following formula, and the voxel having the largest correlation value is determined in the 3D MRA image corresponding to the landmark of the reference image. Corresponding point search processing set as corresponding points;
参照画像の血管像の重心位置と、3次元MRA画像の血管像の重心位置とに基づいて位置合わせを行うとともに、参照画像の全てのランドマークと、前記対応点検索処理により検索された3次元MRA画像の全ての対応点とに基づいて位置合わせを行う第1位置合わせ処理と、  Alignment is performed based on the barycentric position of the blood vessel image of the reference image and the barycentric position of the blood vessel image of the three-dimensional MRA image, and all the landmarks of the reference image and the three-dimensional searched by the corresponding point search process A first alignment process for performing alignment based on all corresponding points of the MRA image;
該第1位置合わせ処理の後、参照画像のランドマークと3次元MRA画像の対応点における距離の最小二乗誤差を算出して当該最小二乗誤差が終了条件を満たすまでアフィン変換を繰り返して位置合わせを行う第2位置合わせ処理と、  After the first alignment process, the least square error of the distance at the corresponding point between the landmark of the reference image and the three-dimensional MRA image is calculated, and the affine transformation is repeated until the minimum square error satisfies the termination condition to perform the alignment. A second alignment process to be performed;
参照画像の血管像の各血管部位のボクセルを対象に3次元MRA画像から抽出した血管像の対応点のボクセルとのユークリッド距離を求め、その求めたユークリッド距離が最短となる3次元MRA画像におけるボクセルの属する血管部位を、参照画像におけるボクセルの属する予め血管部位と判断する血管部位判別処理と、  The Euclidean distance from the voxel of the corresponding point of the blood vessel image extracted from the 3D MRA image is obtained for the voxel of each blood vessel part of the blood vessel image of the reference image, and the voxel in the 3D MRA image in which the obtained Euclidean distance is the shortest A blood vessel part determination process for determining a blood vessel part to which a voxel in a reference image belongs in advance,
を実行することを特徴とする医用画像処理装置が提供される。  A medical image processing apparatus characterized by executing the above is provided.
上記式2において、Cは相関値を示し、A(i,j,k)は参照画像のボクセル位置、B(i,j,k)は3次元MRA画像のボクセル位置を示す。IJKは探索領域のサイズを示す。  In Equation 2, C represents a correlation value, A (i, j, k) represents a voxel position of the reference image, and B (i, j, k) represents a voxel position of the three-dimensional MRA image. IJK indicates the size of the search area.
また、α、βは、それぞれ参照画像、3次元MRA画像における探索領域内のボクセル値の平均値であり、下記式3、4により示される。σ  Α and β are average values of the voxel values in the search region in the reference image and the three-dimensional MRA image, respectively, and are expressed by the following expressions 3 and 4. σ A 、σ, Σ B は、それぞれ参照画像、3次元MRA画像における探索領域内のボクセル値の標準偏差であり、下記式5、6により示される。Are standard deviations of the voxel values in the search region in the reference image and the three-dimensional MRA image, respectively, and are expressed by the following equations 5 and 6.
請求項2に記載の発明によれば、According to invention of Claim 2,
前記画像制御手段は、アフィン変換に代えて剛体変形を行うことを特徴とする請求項1に記載の医用画像処理装置が提供される。  The medical image processing apparatus according to claim 1, wherein the image control unit performs rigid body deformation instead of affine transformation.

請求項3に記載の発明によれば、  According to invention of Claim 3,
前記画像制御手段は、前記重心の位置合わせを行う前に、前記抽出した血管像に対し、画像の条件を統一するための正規化処理を施すことを特徴とする請求項1又は2に記載の医用画像処理装置が提供される。  The image control unit according to claim 1, wherein the image control unit performs a normalization process for unifying image conditions on the extracted blood vessel image before performing alignment of the center of gravity. A medical image processing apparatus is provided.
請求項4に記載の発明によれば、  According to invention of Claim 4,
3次元MRA画像をMIP表示する表示手段と、  Display means for MIP display of a three-dimensional MRA image;
3次元MRA画像に付帯された血管部位情報に基づき、前記表示された3次元MRA画像の血管像に含まれる一又は複数の血管部位を判別し、それら血管部位のそれぞれを識別可能に表示させる表示制御手段と、  Display for discriminating one or a plurality of blood vessel parts included in the blood vessel image of the displayed three-dimensional MRA image based on the blood vessel part information attached to the three-dimensional MRA image, and displaying each of the blood vessel parts in an identifiable manner Control means;
表示操作を行うための操作手段とを備えており、  Operation means for performing display operation,
前記表示手段および表示制御手段は、前記表示手段にMIP表示される3次元MRA画像の血管部位が前記操作手段を介して選択操作されると、3次元MRA画像の上方向からのMIP表示および側方からのMIP表示ならびに前記表示制御手段により表示される識別画像に加え、選択された血管像を同一画面上に並べて表示することを特徴とする請求項1〜3の何れか一項に記載の医用画像処理装置が提供される。  The display means and the display control means, when the blood vessel part of the 3D MRA image displayed on the display means by MIP is selected and operated via the operation means, the MIP display and side of the 3D MRA image from above. 4. The selected blood vessel image is displayed side by side on the same screen in addition to the MIP display from the side and the identification image displayed by the display control means. 5. A medical image processing apparatus is provided.

請求項1〜に記載の発明によれば、対象画像に付帯された血管部位情報を参照することにより、対象画像の血管像に含まれる一又は複数の血管部位の位置及び名称を容易に判別することが可能となる。血管部位の位置及び名称を判別できれば、例えば対象画像を表示する際にそれぞれの血管部位を識別表示する等、対象画像を利用する際に対象画像に含まれる各血管部位を特定し、その情報を医師に提供することが可能となる。従って、医師は特定の血管部位に注目して対象画像を観察することが可能となり、読影効率の向上を図ることができる。
また、対象画像は被写体(患者)によってその血管像の形態に個体差が生ずるが、アフィン変換によってそれら血管像が略一致するように位置合わせすることにより、参照画像と対象画像の血管像を精度よく対応させることが可能となる。よって、被写体の個体差に拘わらず血管部位を判別することができ、汎用性が高い。
According to the first to third aspects of the invention, the position and name of one or a plurality of blood vessel parts included in the blood vessel image of the target image are easily determined by referring to the blood vessel part information attached to the target image. It becomes possible to do. If the position and name of the blood vessel part can be determined, each blood vessel part included in the target image is specified when the target image is used, for example, each blood vessel part is identified and displayed when the target image is displayed. It can be provided to a doctor. Therefore, the doctor can observe the target image while paying attention to a specific blood vessel site, and can improve the interpretation efficiency.
In addition, although the target image has individual differences in the form of the blood vessel image depending on the subject (patient), the reference image and the blood vessel image of the target image are accurately obtained by aligning the blood vessel images so that they substantially match by affine transformation. It becomes possible to make it correspond well. Therefore, the blood vessel part can be discriminated regardless of the individual difference of the subject, and the versatility is high.

請求項に記載の発明によれば、医師は対象画像の血管像に含まれる一又は複数の血管部位のそれぞれを容易に識別することができる。
た、医師が観察したい特定の血管部位の血管像のみを対象画像から抽出して観察することが可能となる。血管像は複数の血管部位が重なって表示されることがあるため、その重複部分の観察がしづらくなる。よって、医師により選択された特定の血管部位のみを表示することにより、血管部位の重複を解消することができ、医師が読影しやすい環境を提供することができる。
According to the invention described in claim 4 , the doctor can easily identify each of one or a plurality of blood vessel portions included in the blood vessel image of the target image.
Also, it is possible to observe by extracting only a blood vessel image of a particular vascular site from the target image to be observed by the physician. Since a blood vessel image may be displayed by overlapping a plurality of blood vessel portions, it is difficult to observe the overlapping portion. Therefore, by displaying only the specific blood vessel site selected by the doctor, it is possible to eliminate the overlap of the blood vessel site and provide an environment in which the doctor can easily interpret.

Claims (26)

頭部画像を多重解像度解析し、解像度レベル毎に分解した部分画像を用いて、解像度レベル毎にベクトル集中度を算出する分析手段と、
前記部分画像から元の頭部画像を再構成するにあたり、前記算出されたベクトル集中度が所定値となる病変部の候補領域でのみ元の画像を再現する再構成手段と、
前記再構成された頭部画像を用いて、当該頭部画像に再現された病変部の候補領域のうち、正常な血管である偽陽性候補領域を削除する削除手段と、
を備えることを特徴とする医用画像処理装置。
Analysis means for performing multi-resolution analysis of the head image and calculating a vector concentration degree for each resolution level using partial images decomposed for each resolution level;
In reconstructing the original head image from the partial image, reconstruction means for reproducing the original image only in the candidate region of the lesion part where the calculated vector concentration degree is a predetermined value;
Using the reconstructed head image, a deletion unit that deletes a false positive candidate region that is a normal blood vessel among candidate regions of a lesion portion reproduced in the head image;
A medical image processing apparatus comprising:
前記再構成手段は、ベクトル集中度が所定値となる領域の画像のみ再現されるように前記部分画像の重み付けを行い、当該重み付けされた部分画像を用いて元の頭部画像を再構成することを特徴とする請求の範囲第1項に記載の医用画像処理装置。   The reconstructing unit weights the partial image so that only an image of an area where the vector concentration degree is a predetermined value is reproduced, and reconstructs the original head image using the weighted partial image. The medical image processing apparatus according to claim 1, wherein: 前記削除手段は、前記再構成された頭部画像に再現された病変部の候補領域について特徴量を算出し、当該特徴量に基づいて前記候補領域から偽陽性候補領域を削除することを特徴とする請求の範囲第1項又は第2項に記載の医用画像処理装置。   The deletion unit calculates a feature amount for a candidate region of a lesion portion reproduced in the reconstructed head image, and deletes a false positive candidate region from the candidate region based on the feature amount. The medical image processing apparatus according to claim 1 or claim 2. 前記特徴量は、前記再構成された頭部画像に再現された病変部の候補領域の大きさ、球形度、当該候補領域におけるベクトル集中度の平均若しくはベクトル集中度の最大値のうち、少なくとも1以上であることを特徴とする請求の範囲第3項に記載の医用画像処理装置。   The feature amount is at least one of the size, sphericity, average of vector concentration in the candidate region, or maximum value of vector concentration in the candidate region reproduced in the reconstructed head image. The medical image processing apparatus according to claim 3, which is as described above. 前記病変部は、血管において生じる瘤であり、
前記頭部画像から血管像を抽出する抽出手段を備え、
前記画像構成手段は、前記血管像が抽出された画像を用いて多重解像度解析及び元の画像の再構成を行うことを特徴とする請求の範囲第1項〜第4項の何れか一項に記載の医用画像処理装置。
The lesion is an aneurysm that occurs in a blood vessel,
Comprising extraction means for extracting a blood vessel image from the head image,
The said image structure means performs multi-resolution analysis and reconstruction of an original image using the image from which the said blood vessel image was extracted, The any one of Claims 1-4 characterized by the above-mentioned. The medical image processing apparatus described.
前記頭部画像は、MRIにより撮影されたMRI画像であることを特徴とする請求の範囲第1項〜第5項の何れか一項に記載の医用画像処理装置。   The medical image processing apparatus according to any one of claims 1 to 5, wherein the head image is an MRI image taken by MRI. 前記MRI画像は、MRIにおいてMRAの撮影方法により撮影されたMRA画像であることを特徴とする請求の範囲第1項〜第6項の何れか一項に記載の医用画像処理装置。   The medical image processing apparatus according to any one of claims 1 to 6, wherein the MRI image is an MRA image captured by an MRA imaging method in MRI. 前記頭部画像から血管像を抽出する抽出手段と、
前記抽出された血管像に含まれる一又は複数の血管部位を判別し、当該判別された血管部位に関する血管部位情報を前記頭部画像に付帯させる画像制御手段と、
を備えることを特徴とする請求の範囲第1項に記載の医用画像処理装置。
Extracting means for extracting a blood vessel image from the head image;
Image control means for discriminating one or a plurality of blood vessel parts included in the extracted blood vessel image and attaching blood vessel part information relating to the discriminated blood vessel part to the head image;
The medical image processing apparatus according to claim 1, further comprising:
前記画像制御手段は、血管像に含まれる一又は複数の血管部位の位置及び名称が予め定められた参照画像を用いて、前記頭部画像における血管部位の位置及び名称を判別し、当該判別された各血管部位の位置及び名称の情報を前記血管部位情報として前記頭部画像に付帯させることを特徴とする請求の範囲第8項に記載の医用画像処理装置。   The image control means determines the position and name of the blood vessel part in the head image using a reference image in which the position and name of one or more blood vessel parts included in the blood vessel image are predetermined. 9. The medical image processing apparatus according to claim 8, wherein information on the position and name of each blood vessel part is attached to the head image as the blood vessel part information. 前記画像制御手段は、前記頭部画像をアフィン変換することにより、当該アフィン変換された頭部画像の血管像の位置と前記参照画像における血管像の位置とを略一致させ、この略一致させた参照画像に予め定められた血管部位と対応する、前記頭部画像の血管像部分を当該定められた血管部位であると判断することを特徴とする請求の範囲第9項に記載の医用画像処理装置。   The image control means performs affine transformation on the head image, thereby substantially matching the position of the blood vessel image in the head image subjected to the affine transformation and the position of the blood vessel image in the reference image. 10. The medical image processing according to claim 9, wherein a blood vessel image portion of the head image corresponding to a predetermined blood vessel part in a reference image is determined to be the predetermined blood vessel part. apparatus. 前記頭部画像を表示する表示手段と、
前記頭部画像に付帯された血管部位情報に基づき、前記表示された頭部画像の血管像に含まれる一又は複数の血管部位を判別し、それら血管部位のそれぞれを前記表示された頭部画像において識別表示させる表示制御手段と、
を備えることを特徴とする請求の範囲第9項又は第10項に記載の医用画像処理装置。
Display means for displaying the head image;
Based on the blood vessel part information attached to the head image, one or more blood vessel parts included in the blood vessel image of the displayed head image are determined, and each of the blood vessel parts is displayed on the displayed head image. Display control means for identifying and displaying in
The medical image processing apparatus according to claim 9 or 10, further comprising:
前記表示制御手段は、前記血管部位情報に基づき、前記識別表示された各血管部位の名称を判別し、当該判別された名称を対応する各血管部位に関連付けて表示させることを特徴とする請求の範囲第11項に記載の医用画像処理装置。   The said display control means discriminate | determines the name of each said blood vessel site identified and displayed based on the said blood vessel site information, and displays the discriminated name in association with each corresponding blood vessel site. The medical image processing apparatus according to claim 11. 表示操作を行うための操作手段を備え、
前記表示制御手段は、前記頭部画像において表示対象の血管部位が前記操作手段を介して選択操作されると、前記選択された血管部位に対応する血管像のみを前記頭部画像から抽出し、当該抽出された血管像のみを前記表示手段上に表示させることを特徴とする請求の範囲第12項に記載の医用画像処理装置。
An operation means for performing a display operation is provided.
The display control means extracts a blood vessel image corresponding to the selected blood vessel part from the head image when a blood vessel part to be displayed in the head image is selected and operated via the operation means, 13. The medical image processing apparatus according to claim 12, wherein only the extracted blood vessel image is displayed on the display means.
頭部画像を多重解像度解析し、解像度レベル毎に分解した部分画像を用いて、解像度レベル毎にベクトル集中度を算出する分析工程と、
前記部分画像から元の頭部画像を再構成するにあたり、前記算出されたベクトル集中度が所定値となる病変部の候補領域でのみ元の画像を再現する再構成工程と、
前記再構成された頭部画像を用いて、当該頭部画像に再現された病変部の候補領域のうち、正常な血管である偽陽性候補領域を削除する削除工程と、
を含むことを特徴とする画像処理方法。
An analysis step of performing multi-resolution analysis of the head image and calculating a vector concentration degree for each resolution level using a partial image decomposed for each resolution level;
In reconstructing the original head image from the partial image, a reconstruction step of reproducing the original image only in the candidate region of the lesion part where the calculated vector concentration degree is a predetermined value;
Using the reconstructed head image, a deletion step of deleting a false positive candidate region that is a normal blood vessel among candidate regions of a lesion portion reproduced in the head image;
An image processing method comprising:
前記再構成工程では、ベクトル集中度が所定値となる病変部の候補領域の画像のみ再現されるように前記部分画像の重み付けを行い、当該重み付けされた部分画像を用いて元の頭部画像を再構成することを特徴とする請求の範囲第14項に記載の画像処理方法。   In the reconstruction step, the partial image is weighted so that only the image of the candidate area of the lesion portion where the vector concentration level is a predetermined value is reproduced, and the original head image is obtained using the weighted partial image. The image processing method according to claim 14, wherein reconstruction is performed. 前記削除工程では、前記再構成された頭部画像に再現された病変部の候補領域について特徴量を算出し、当該特徴量に基づいて前記候補領域から偽陽性候補領域を削除することを特徴とする請求の範囲第14項又は第15項に記載の画像処理方法。   In the deleting step, a feature amount is calculated for a candidate region of a lesion portion reproduced in the reconstructed head image, and a false positive candidate region is deleted from the candidate region based on the feature amount. The image processing method according to claim 14 or 15. 前記特徴量は、前記再構成された頭部画像に再現された病変部の候補領域の大きさ、球形度、当該候補領域におけるベクトル集中度の平均若しくはベクトル集中度の最大値のうち、少なくとも1以上であることを特徴とする請求の範囲第16項に記載の画像処理方法。   The feature amount is at least one of the size, sphericity, average of vector concentration in the candidate region, or maximum value of vector concentration in the candidate region reproduced in the reconstructed head image. The image processing method according to claim 16, which is as described above. 前記病変部は、血管において生じる瘤であり、
前記頭部画像から血管像を抽出する抽出工程をさらに含み、
前記再構成工程では、前記血管像が抽出された画像を用いて多重解像度解析及び元の画像の再構成を行うことを特徴とする請求の範囲第14項〜第17項の何れか一項に記載の画像処理方法。
The lesion is an aneurysm that occurs in a blood vessel,
An extraction step of extracting a blood vessel image from the head image,
18. In the reconstruction step, multi-resolution analysis and reconstruction of an original image are performed using an image from which the blood vessel image has been extracted. The image processing method as described.
前記頭部画像は、MRIにより撮影されたMRI画像であることを特徴とする請求の範囲第14項〜第18項の何れか一項に記載の画像処理方法。   The image processing method according to any one of claims 14 to 18, wherein the head image is an MRI image photographed by MRI. 前記MRI画像は、MRIにおいてMRAの撮影方法により撮影されたMRA画像であることを特徴とする請求の範囲第14項〜第19項の何れか一項に記載の画像処理方法。   The image processing method according to any one of claims 14 to 19, wherein the MRI image is an MRA image captured by an MRA imaging method in MRI. 前記頭部画像から血管像を抽出する抽出工程と、
前記抽出された血管像に含まれる一又は複数の血管部位を判別し、当該判別された血管部位に関する血管部位情報を前記頭部画像に付帯させる画像制御工程と、
を含むことを特徴とする請求の範囲第14項に記載の画像処理方法。
An extraction step of extracting a blood vessel image from the head image;
An image control step of discriminating one or a plurality of blood vessel parts included in the extracted blood vessel image, and attaching blood vessel part information relating to the discriminated blood vessel part to the head image;
The image processing method according to claim 14, further comprising:
前記画像制御工程では、血管像に含まれる一又は複数の血管部位の位置及び名称が予め定められた参照画像を用いて、前記頭部画像における血管部位の位置及び名称を判別し、当該判別された各血管部位の位置及び名称の情報を前記血管部位情報として前記頭部画像に付帯させることを特徴とする請求の範囲第21項に記載の画像処理方法。   In the image control step, the position and name of the blood vessel part in the head image are determined using a reference image in which the position and name of one or more blood vessel parts included in the blood vessel image are determined in advance. The image processing method according to claim 21, wherein information on the position and name of each blood vessel part is attached to the head image as the blood vessel part information. 前記画像制御工程では、前記頭部画像をアフィン変換することにより、当該アフィン変換された頭部画像の血管像の位置と前記参照画像における血管像の位置とを略一致させ、この略一致させた参照画像に予め定められた血管部位と対応する、前記頭部画像の血管像部分を当該定められた血管部位であると判断することを特徴とする請求の範囲第22項に記載の画像処理方法。   In the image control step, by performing affine transformation on the head image, the position of the blood vessel image of the head image subjected to the affine transformation is substantially matched with the position of the blood vessel image in the reference image. The image processing method according to claim 22, wherein a blood vessel image portion of the head image corresponding to a predetermined blood vessel portion in a reference image is determined to be the predetermined blood vessel portion. . 前記頭部画像を表示手段に表示する表示工程と、
前記頭部画像に付帯された血管部位情報に基づき、前記表示された頭部画像の血管像に含まれる一又は複数の血管部位を判別し、それら血管部位のそれぞれを前記表示された頭部画像において識別表示させる表示制御工程と、
を含むことを特徴とする請求の範囲第22項又は第23項に記載の画像処理方法。
A display step of displaying the head image on a display means;
Based on the blood vessel part information attached to the head image, one or more blood vessel parts included in the blood vessel image of the displayed head image are determined, and each of the blood vessel parts is displayed on the displayed head image. A display control process for identifying and displaying in
24. The image processing method according to claim 22 or 23, characterized by comprising:
前記表示制御工程では、前記血管部位情報に基づき、前記識別表示された各血管部位の名称を判別し、当該判別された名称を対応する各血管部位に関連付けて表示させることを特徴とする請求の範囲第24項に記載の画像処理方法。   The display control step determines the name of each identified and displayed blood vessel part based on the blood vessel part information, and displays the determined name in association with each corresponding blood vessel part. The image processing method according to item 24. 前記表示制御工程では、前記頭部画像において表示対象の血管部位が操作手段を介して選択操作されると、前記選択された血管部位に対応する血管像のみを前記頭部画像から抽出し、当該抽出された血管像のみを前記表示手段上に表示させることを特徴とする請求の範囲第25項に記載の画像処理方法。   In the display control step, when a blood vessel part to be displayed in the head image is selected and operated via an operation unit, only a blood vessel image corresponding to the selected blood vessel part is extracted from the head image, 26. The image processing method according to claim 25, wherein only the extracted blood vessel image is displayed on the display means.
JP2007533204A 2005-08-31 2006-08-24 Medical image processing device Active JP4139869B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2005250915 2005-08-31
JP2005250915 2005-08-31
JP2006083950 2006-03-24
JP2006083950 2006-03-24
PCT/JP2006/316595 WO2007026598A1 (en) 2005-08-31 2006-08-24 Medical image processor and image processing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007306364A Division JP4823204B2 (en) 2005-08-31 2007-11-27 Medical image processing device

Publications (2)

Publication Number Publication Date
JP4139869B2 JP4139869B2 (en) 2008-08-27
JPWO2007026598A1 true JPWO2007026598A1 (en) 2009-03-26

Family

ID=37808692

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007533204A Active JP4139869B2 (en) 2005-08-31 2006-08-24 Medical image processing device

Country Status (2)

Country Link
JP (1) JP4139869B2 (en)
WO (1) WO2007026598A1 (en)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1982652A1 (en) 2007-04-20 2008-10-22 Medicim NV Method for deriving shape information
JP5794752B2 (en) * 2007-07-24 2015-10-14 株式会社東芝 X-ray computed tomography apparatus and image processing apparatus
JP5192751B2 (en) * 2007-08-10 2013-05-08 富士フイルム株式会社 Image processing apparatus, image processing method, and image processing program
JP5209270B2 (en) * 2007-10-29 2013-06-12 株式会社東芝 Medical image photographing apparatus, medical image processing apparatus, and medical image processing program
CN102984990B (en) * 2011-02-01 2015-05-20 奥林巴斯医疗株式会社 Diagnosis assistance apparatus
JP5921132B2 (en) * 2011-10-17 2016-05-24 株式会社東芝 Medical image processing system
KR101373563B1 (en) * 2012-07-25 2014-03-12 전북대학교산학협력단 Method of derivation for hemodynamics and MR-signal intensity gradient(or shear rate) using Time-Of-Flight - Magnetic Resonance Angiography
JP6173686B2 (en) * 2012-12-25 2017-08-02 東芝メディカルシステムズ株式会社 Ultrasonic diagnostic equipment
JP6362847B2 (en) * 2013-10-30 2018-07-25 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Magnetic resonance apparatus and program
US11200750B2 (en) 2015-12-30 2021-12-14 Koninklijke Philips N.V. Three dimensional model of a body part
KR101821353B1 (en) * 2016-08-30 2018-01-23 삼성전자주식회사 Magnetic resonance imaging apparatus
JP6847453B2 (en) * 2017-05-30 2021-03-24 国立大学法人九州大学 Map information generation method, operation method, and program
JP7065422B2 (en) 2017-07-21 2022-05-12 パナソニックIpマネジメント株式会社 Display control device, display control method and program
JP6983124B2 (en) * 2018-07-26 2021-12-17 株式会社日立製作所 Medical image processing device and medical image processing method
JP7271277B2 (en) * 2019-04-10 2023-05-11 キヤノンメディカルシステムズ株式会社 Medical image processing device and medical image processing system
CN114828732A (en) * 2019-10-17 2022-07-29 株式会社尼康 Image processing method, image processing apparatus, and image processing program
CN112842264B (en) * 2020-12-31 2023-04-25 哈尔滨工业大学(威海) Digital filtering method and device for multi-mode imaging and multi-mode imaging technical system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2537177B2 (en) * 1985-07-12 1996-09-25 株式会社東芝 Image diagnostic equipment
US5602891A (en) * 1995-11-13 1997-02-11 Beth Israel Imaging apparatus and method with compensation for object motion
JP3590216B2 (en) * 1996-09-25 2004-11-17 富士写真フイルム株式会社 Method and apparatus for detecting abnormal shadow candidate
JP2002109510A (en) * 2000-09-27 2002-04-12 Fuji Photo Film Co Ltd Possible abnormal shadow detecting and processing system
JP4265876B2 (en) * 2000-11-06 2009-05-20 富士フイルム株式会社 Measurement processing device for geometrically measuring images

Also Published As

Publication number Publication date
WO2007026598A1 (en) 2007-03-08
JP4139869B2 (en) 2008-08-27

Similar Documents

Publication Publication Date Title
JP4139869B2 (en) Medical image processing device
JP4823204B2 (en) Medical image processing device
EP3367331B1 (en) Deep convolutional encoder-decoder for prostate cancer detection and classification
CN110036408B (en) Automatic ct detection and visualization of active bleeding and blood extravasation
US7317821B2 (en) Automatic abnormal tissue detection in MRI images
EP1728213B1 (en) Method and apparatus for identifying pathology in brain images
EP2116973B1 (en) Method for interactively determining a bounding surface for segmenting a lesion in a medical image
US20070237372A1 (en) Cross-time and cross-modality inspection for medical image diagnosis
US20100135562A1 (en) Computer-aided detection with enhanced workflow
EP2194486A1 (en) A method, apparatus, and computer program product for acquiring medical image data
US20170011534A1 (en) Generating a synthetic two-dimensional mammogram
US7684602B2 (en) Method and system for local visualization for tubular structures
CN110807755A (en) Plane selection using localizer images
EP1966762A2 (en) Cross-time and cross-modality medical diagnosis
JP2008073338A (en) Medical image processor, medical image processing method and program
US20070160276A1 (en) Cross-time inspection method for medical image diagnosis
JP2008515466A (en) Method and system for identifying an image representation of a class of objects
EP2116974A1 (en) Statistics collection for lesion segmentation
JP2008073332A (en) Medical image processor, image processing method and program
JP2009226043A (en) Medical image processor and method for detecting abnormal shadow
US7961923B2 (en) Method for detection and visional enhancement of blood vessels and pulmonary emboli
WO2006055031A2 (en) Method and system for local visualization for tubular structures
JP2011067594A (en) Medical image diagnostic apparatus and method using liver function angiographic image, and program
CN115311191A (en) Generating reformatted views of three-dimensional anatomical scans using deep learning estimated scan scheme masks
JP2023511663A (en) Weakly supervised lesion segmentation

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080430

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080514

R150 Certificate of patent or registration of utility model

Ref document number: 4139869

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350