WO2011125369A1 - 画像処理装置および方法 - Google Patents

画像処理装置および方法 Download PDF

Info

Publication number
WO2011125369A1
WO2011125369A1 PCT/JP2011/052437 JP2011052437W WO2011125369A1 WO 2011125369 A1 WO2011125369 A1 WO 2011125369A1 JP 2011052437 W JP2011052437 W JP 2011052437W WO 2011125369 A1 WO2011125369 A1 WO 2011125369A1
Authority
WO
WIPO (PCT)
Prior art keywords
region extraction
image processing
time phase
volume data
region
Prior art date
Application number
PCT/JP2011/052437
Other languages
English (en)
French (fr)
Inventor
英恵 吉田
及川 道雄
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Publication of WO2011125369A1 publication Critical patent/WO2011125369A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Definitions

  • the present invention relates to an image processing apparatus and method for extracting a specific region from a three-dimensional medical image.
  • ⁇ medical image volume data '', ⁇ volume '' Three-dimensional medical images (hereinafter referred to as ⁇ medical image volume data '', ⁇ volume '') taken using medical image inspection devices such as X-ray CT (X-ray Computed Tomography) and MRI (Magnetic Resonance Imaging) devices
  • Visualization processing is performed on a plurality of medical image processing algorithms to assist diagnosis.
  • medical image processing algorithm used here there are multiple types of data depending on the case, such as extracting and displaying only the necessary part data from the input volume data or displaying the image with its edge highlighted. Processing exists.
  • the target region is repeatedly imaged at a plurality of timings after injecting the contrast agent.
  • the imaging timing defined by the length of time from the contrast agent injection time to the imaging start time is called the imaging time phase.
  • the contrast agent is injected.
  • the image in the arterial phase taken after several tens of seconds is taken at the timing when the contrast agent penetrates the artery best, and in this arterial phase the tumor part is stained more strongly by the contrast agent than the surrounding liver parenchyma ( However, it is known that the tumor part shows a lower CT value than the surrounding liver parenchyma because the contrast medium penetrates the entire liver parenchyma in images taken later than that in the vein phase. It has been.
  • Patent Document 1 For the purpose of improving the extraction accuracy of the region compared to the case of using a one-time phase image by utilizing the change of the pixel value (CT value in the CT image) that appears due to this property, that is, the difference in imaging timing, Region extraction methods using temporal medical images have been proposed (Patent Document 1, Non-Patent Documents 1 and 2).
  • Patent Document 1 the first time phase and the second time phase image series having different shooting time phases are used, the CT value of the first time phase image data is set to the X axis, and the CT value of the second time phase is set to Y.
  • Non-Patent Document 1 uses dynamic concentration images at the same time, using an early phase image and a late phase image in which a tumor is clearly contrasted, and using the concentration information at the same time. We have proposed a method to prevent many regions from being extracted.
  • Non-Patent Document 2 proposes a technique for integrating information of 4-time multi-slice CT images, extracting a liver region, and highlighting a tumor portion.
  • An image processing apparatus that applies a specific image processing algorithm to input volume data of a medical image, and includes time information acquisition means for acquiring time information related to the imaging time of the medical image from the input volume data, and time information acquisition means Based on the time information acquired by the above, the imaging time phase estimation means for estimating the imaging time phase of the medical image, and the area to be image-processed from the medical image according to the imaging time phase estimated by the imaging time phase estimation means
  • the region extraction algorithm for extracting the region the region extraction processing type determination means for determining the region extraction processing type including the parameters necessary for executing the region extraction algorithm, and the region extraction processing of the type determined by the region extraction processing type determination means
  • a region extraction unit having region extraction processing execution means for performing region extraction processing on volume data;
  • the volume data of the extraction region by the extraction process execution means provided an image processing algorithm execution unit for executing a specific image processing algorithms.
  • photography time phase calculation table C which shows an example when an imaging
  • extraction processing type determination table B showing an example when the shooting timing is included in the shooting time phase.
  • physique index calculation table and an extraction parameter correction formula is a physique index calculation table and an extraction parameter correction formula.
  • FIG. 1 is a configuration diagram of an image processing apparatus according to the present embodiment.
  • an image processing apparatus 11 that performs image processing on volume data captured by an X-ray CT apparatus, an MRI apparatus, or the like
  • an external storage apparatus 10 that stores volume data, and instructions for starting each process Input device 12 and display device 13 for displaying the image processed image.
  • the image processing apparatus 11 includes an internal memory 20, an automatic area extraction unit 21, and an image processing algorithm execution unit 22.
  • the automatic area extraction unit 21 includes a time information acquisition unit 30 that acquires time information from volume data, a shooting time phase estimation unit 31 that estimates a shooting time phase based on the acquired time information, and a time phase that is estimated.
  • a region extraction processing type determination unit 32 that determines a region extraction processing type (region extraction processing algorithm and its parameters) and a region extraction processing execution unit 33 that executes region extraction processing of the determined type are provided.
  • the automatic area extraction unit 21 and the image processing algorithm execution unit 22 are realized by program processing or a dedicated circuit by a CPU (Central Processing Unit) provided in the image processing apparatus 11.
  • a CPU Central Processing Unit
  • a storage unit for storing programs for realizing the functions of the internal memory 20 and the image processing device 21 includes a RAM (Random Access Memory), a ROM (Read Only Memory), and an HDD (Hard Disk Drive). And a storage medium such as a flash memory.
  • the image processing apparatus 11 receives an input of an instruction to read volume data from the input device 12, and transfers the volume data stored in the external storage device 10 to the internal memory 20.
  • the time information acquisition unit 30 acquires time information from the volume data stored in the internal memory 20 in accordance with an instruction to start the automatic region extraction process from the input device 12, and the acquired time information is obtained as a shooting time phase estimation unit. Forward to 31.
  • the shooting time phase estimation unit 31 estimates the shooting time phase based on the transferred time information, and transfers the estimated shooting time phase to the region extraction processing type determination unit 32.
  • the region extraction process type determination unit 32 determines the region extraction process type based on the estimated shooting time phase.
  • the region extraction processing execution unit 33 performs automatic region extraction processing on the volume data stored in the internal memory 20 by the region extraction processing of the determined type, and sends the automatic region extraction processing result to the image processing algorithm execution unit 22. Forward.
  • the image processing algorithm execution unit 22 executes image processing corresponding to the extracted area, and displays the image processing result on the display device 13.
  • FIG. 2 is a flowchart of region extraction processing in the automatic region extraction unit 11.
  • the volume data stored in the external storage device 10 is input to the internal memory 20 in the image processing device 11 (step S201).
  • the time information acquisition unit 30 acquires the contrast agent injection time and the imaging time as time information from the volume data stored in the internal memory 20 (step S202). It will be described later that time information is included in the volume data.
  • the imaging time phase estimation unit 31 estimates the time phase at which each tomographic image is acquired based on the acquired contrast agent injection time and imaging time (step S203).
  • the region extraction processing type determination unit 32 determines a region extraction algorithm, an appropriate parameter value, and the like corresponding to the estimated time phase of each tomographic image as the region extraction processing type (step S204).
  • the region extraction processing execution unit 33 performs region extraction processing on the input volume data by the region extraction processing of the determined type (step S205), and transfers the result of the region extraction processing to the image processing algorithm execution unit 22.
  • the image processing algorithm execution unit 22 executes predetermined image processing on the image data of the extracted area, and displays the image processing result on the display device 13 (step S206).
  • DICOM Digital Imaging and Communication in Medicine
  • ACR-NEMA American College of Radiology (ACR) and the National Electrical Manufacturers Association (NEMA)
  • RSNA Radiological Society of North America
  • FIG. 3 shows an image of medical image data stored in the DICOM format.
  • time information is acquired from the tag of the DICOM header.
  • the time information in the present embodiment refers to the contrast agent injection start time and the imaging start time.
  • the contrast agent injection time is obtained from “Contrast / Bolus Start Time” defined by the tags (0018, 1042), and the imaging start time is obtained from “Acquisition Time” ⁇ defined by the tags (0008, 0032). .
  • the imaging time phase estimation unit 31 to which the contrast medium injection start time and the imaging start time acquired in the time information acquisition unit 30 are transferred calculates the difference between the imaging time and the contrast agent injection time, and the imaging time phase shown in FIG.
  • the photographing time phase is determined with reference to the calculation table A.
  • the example shown in FIG. 4 is a table classified into one of the four phases of early arterial phase / late arterial phase / portal vein phase / venous phase, but the time phase is set to an appropriate number and time zone according to the application. To do.
  • FIG. 5 is an image diagram of medical image volume data obtained by imaging the abdomen of a patient with liver cancer, and shows a difference in images in two phases of the late arterial phase and the venous phase.
  • the difference in hatching is the CT value (the CT value is the value of the X-ray attenuation coefficient (X-ray absorption)) based on water, water is set to 0, the bone is set to 1000, the specific gravity between them is The CT values are set to have a linear relationship.) After contrast agent injection, the CT value of the tumor part becomes high, and the tumor part shows a high CT value in the late arterial phase.
  • the contrast agent flows out of the tumor area, and in the venous phase, the entire liver exhibits a high CT value.
  • the tumor part often exhibits a lower CT value than in the late arterial phase.
  • the automatic region extraction algorithm a difference between pixel values of a region to be extracted and its peripheral portion, that is, a tumor portion and a liver parenchymal portion in the example of FIG. 5 is used.
  • the tumor portion has a CT value higher than that of the liver parenchyma in the late arterial phase, and a CT value lower than that of the liver parenchyma in the venous phase. Accordingly, an extraction process type based on a change in pixel value corresponding to a change in CT value must be selected according to each time phase.
  • the extraction process type determination table A shown in FIG. 6 an appropriate extraction algorithm and parameters necessary and necessary for executing the extraction algorithm are set for each shooting time phase. Based on the shooting time phase transferred from the shooting time phase estimation unit 31, the extraction processing type determination table A is referred to, and the extraction algorithm and parameter values are determined.
  • Region Growing automatically or manually sets one or several points called seeds, refers to the pixel values of neighboring pixels from the seed, and expands the region to those pixels if the pixel value meets the set conditions It is a way to go.
  • the algorithm A here is the target pixel ⁇ adjacent pixel, or (target pixel-adjacent pixel) ⁇ LocalThreshold, and (seed-adjacent pixel) ⁇ GlobalThreshold
  • the algorithm B is the target pixel> adjacent pixel.
  • the algorithm is such that the region is expanded when (adjacent pixel-target pixel) ⁇ LocalThreshold, and the region is expanded when (adjacent pixel-seed) ⁇ GlobalThreshold.
  • the parameters here are a and b, where a is LocalThreshold and parameter b is GlobalThresold.
  • the early arterial phase is more likely to have less penetration of the contrast agent into the tumor part than the later arterial phase, so the difference between the pixel in the tumor part and the surrounding pixels is a relatively small value, so parameter a And b are set at lower values, and the contrast between the pixel in the tumor part and the surrounding pixels is relatively large because the late arterial phase is more likely to have a higher concentration of contrast agent penetration into the tumor part than the early arterial phase. Therefore, the value is set higher than the parameters a and b for the early arterial phase.
  • ACM Active Contour Model
  • ACM sets the contour line C (closed curve connecting n discrete point sequences) as the initial value near the boundary of the target area, and after defining the energy function E that is an evaluation function for C, This is an extraction algorithm in which the position and shape of C are corrected so that the value of E becomes small, and C that minimizes E is used as the boundary of the target region.
  • Econ is the square of the first derivative of C and represents the continuity of the closed curve
  • Ecur is the square of the second derivative of C and represents the smoothness of the closed curve.
  • Eim represents the subtraction of the gradient of the pixel value at a certain point, and becomes smaller at a place where there is an edge. Therefore, ⁇ and ⁇ are set to be small in order to enhance edge strength when the contour is to be faithfully set to the pixel value of the image, and ⁇ and ⁇ are to be emphasized when the smoothness of the contour is more important than the fidelity to the pixel value. ⁇ is set large.
  • ⁇ and ⁇ are parameters a and b.
  • a and b are set to be higher values so that Ein is emphasized than Eim and Eex.
  • the extraction accuracy can be improved by setting a and b as lower values than in the case of the arterial phase and by using an energy function that emphasizes Eim and Eex.
  • the time information acquisition unit 30 acquires time information from each input volume data, and the shooting time phase estimation unit 31 estimates the shooting time phase of each volume data based on the acquired time information.
  • the above is an example in which four imaging time phases generally used at the time of image diagnosis are estimated from time information, but when each time phase is defined as in the imaging time phase calculation table A shown in FIG.
  • each time phase is defined as in the imaging time phase calculation table A shown in FIG.
  • the imaging time phase calculation table A shown in FIG.
  • the photographing time phase is further divided and defined.
  • FIG. 7 shows an example of a shooting time phase calculation table B in which the above four shooting time phases are defined separately for the first and second periods.
  • the patient or the affected part does not have the features necessary for the automatic extraction processing according to the set extraction processing type.
  • the time taken for the inflow and outflow of the contrast agent to the affected part or organ is shorter or longer than the generally considered time.
  • the processing based on the extraction processing type assuming that the influence of the contrast agent becomes a general behavior and appears in the CT value there is a possibility that automatic extraction fails or the extraction accuracy is low. .
  • the imaging time phase calculation table C shown in FIG. 9 is an example of an imaging calculation table that estimates the imaging timing and the automatic extraction likelihood from (imaging time-contrast medium injection time) [sec] in addition to the imaging time phase.
  • the automatic extraction likelihood is set as a measure of the likelihood of the automatic extraction result. If the automatic extraction likelihood is high, the likelihood is high (the possibility of successful extraction is high), and if it is low, the likelihood is not high. (It is highly likely that the extraction has failed).
  • the shooting time phase estimation unit 31 can estimate the automatic extraction likelihood by referring to the shooting time phase calculation table C. For example, this information is transferred to the image processing algorithm execution unit 22 to transfer the automatic extraction likelihood. Simultaneously with the display, the likelihood of automatic extraction is displayed as a reference value to the operator.
  • the shooting timing information estimated by the shooting time phase estimation unit 31 can be transferred to the region extraction processing type determination unit 32.
  • the area extraction process type determination unit 32 refers to the extraction process type determination table C illustrated in FIG. 10 and determines an optimum area extraction process type including information on the photographing timing.
  • the DICOM header includes physical information such as the subject's weight, height, and age.
  • the area extraction process type determination unit 32 can determine an extraction process type with higher accuracy by referring to these pieces of information. For example, a subject with a high height or a subject with a heavy weight is generally considered to have a larger body volume compared to a subject with a short height or a subject with the same height and low weight. It can be said that the physical distance to the organ or diseased site is generally farther. Therefore, even if the time from the start of contrast medium injection to the start of imaging is the same, it can be considered that the flow of contrast medium into the extraction target region is relatively small for subjects with a high height or subjects with a heavy weight. For this reason, improvement in extraction accuracy can be expected by adjusting the extraction processing type according to the body volume of the subject.
  • FIG. 11 shows an example of a physique index calculation table when the physique index is calculated from the height and weight, and an example of an extraction parameter correction formula when the extraction parameter is corrected using the physique index.
  • a n in the example of the extraction Paramemeta correction equation is an example of a body mass index calculated by the body mass index calculation table
  • p r shows an example of the extracted parameters determined by the extraction process type determination table.
  • the area extraction process type determination unit 32 uses the physique index obtained from this table to correct each extraction parameter determined in the extraction process type determination table according to the extraction parameter correction formula.
  • the extraction accuracy may be improved by setting the parameters a and b to small values.
  • the DICOM tag includes Contrast / Bolus Volume defined by tags (0018, 1041). This is an item indicating the amount of contrast medium injected, but the amount of contrast medium is more than the amount generally used. When there is a large amount, it is considered that the time until the contrast agent completely leaves the tissue is longer than in the general case.
  • the region extraction process type determination unit 32 can also use an extraction parameter adjusted according to the contrast medium amount.
  • information accompanying a medical image for example, information described in an electronic medical record can be acquired in addition to a DICOM tag.
  • a unique feature may be displayed on the medical image.
  • Lipiodol Hepatic Arterial Embolization TAE
  • TAE Lipiodol Hepatic Arterial Embolization
  • the region extraction process type determination unit 32 uses the treatment order information in the extraction process. It can be reflected.
  • the image processing method, the image processing apparatus, and the program that reduce the manual processing by acquiring time information from the medical image volume data in the extraction process when extracting a specific region from the three-dimensional medical image. Can be provided.
  • 10 external storage device
  • 11 image processing device
  • 12 input device
  • 13 display device
  • 20 internal memory
  • 21 automatic area extraction unit
  • 22 image processing algorithm execution unit
  • 30 time information acquisition unit
  • 31 Shooting time phase estimation unit
  • 32 region extraction process type determination unit
  • 33 region extraction process execution unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Data Mining & Analysis (AREA)
  • Physiology (AREA)
  • Primary Health Care (AREA)
  • Biophysics (AREA)
  • Epidemiology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Databases & Information Systems (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

 入力ボリュームデータから医用画像の撮影時刻に関連する時間情報を取得する時間情報取得手段と、取得された時間情報に基づいて、医用画像の撮影時相を推定する撮影時相推定手段と、推定された撮影時相に応じて、医用画像から画像処理対象の領域を抽出する領域抽出アルゴリズム及び領域抽出アルゴリズムの実行に必要なパラメータを含む領域抽出処理種別を決定する領域抽出処理種別決定手段と、決定した種別の領域抽出処理により、入力ボリュームデータに対して領域抽出処理を実行する領域抽出処理実行手段とを有する領域抽出部、並びに、抽出された領域のボリュームデータに対して、特定の画像処理アルゴリズムを実行する画像処理アルゴリズム実行部を設ける。

Description

画像処理装置および方法 参照による取り込み
 本出願は、平成22年(2010年)4月5日に出願された日本特許出願特願2010-087021の優先権を主張し、その内容を参照することにより、本出願に取り込む。
 本発明は、三次元医用画像から特定の領域を抽出する画像処理装置及び方法に関する。
 X線CT(X-ray Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置等に代表される医用画像検査装置を用いて撮影された三次元医用画像(以下、「医用画像ボリュームデータ」、「ボリュームデータ」ともいう)に対して、複数の医用画像処理アルゴリズムを用いて可視化処理を行い、診断の補助とする。ここで用いる医用画像処理アルゴリズムには、入力したボリュームデータから必要な部位のデータだけを抽出して表示したり、画像のエッジを強調して表示したりするなど、場合に応じて複数の種別の処理が存在する。
 また近年、医用画像撮像装置は技術の進歩により、一度に(CT装置のガントリが一回転する間に)撮影可能な断層画像(以下、「スライス画像」ともいう)の枚数が加速度的に増加しており、撮影結果として出力されるボリュームデータの量も膨大なサイズとなっている。医用画像処理アルゴリズムを適用して画像表示を行う場合、安全性や正確性を考慮すると、全ての処理を自動的に適用することは非常に困難であり、最終的には医師及び技師による確認や修正が必須となる。しかし、この人手による確認や修正が多いほど、医師や技師にかかる負担や人的コストは高くなる。ボリュームデータの量が膨大な場合には、これらのコストは更に高いものとなる。このような負担を軽減するためにも、自動的に行う処理の部分の正確性・妥当性を可能な限り高めることが求められている。
 医用画像処理の中に、造影剤を利用した医用画像から特定の臓器や疾患の領域を抽出する技術がある。造影剤を利用した撮影の場合、造影剤を注入したのちに複数のタイミングで対象の部位を反復して撮影する。造影剤注入時刻から撮影開始時刻までの時間の長さによって定義される撮影タイミングを撮影時相と呼ぶが、例えば造影剤を利用して肝臓腫瘍を撮影したCT画像においては、造影剤注入して数十秒後に撮影される動脈相での画像は、造影剤が動脈に最もよく浸透しているタイミングでの撮影となり、この動脈相では腫瘍部分は周囲の肝実質よりも造影剤に強く染まる(CT値が高い)が、それよりも後に撮影された静脈相での画像では肝実質全体に造影剤が浸透しているため、腫瘍部分は周囲の肝実質よりも低いCT値を示すことが知られている。
 この性質、すなわち撮影タイミングの違いから現れる画素値(CT画像においてはCT値)の変化を利用し、1時相の画像を用いた場合よりも領域の抽出精度を向上させることを目的として、多時相の医用画像を用いた領域抽出手法が提案されている(特許文献1、非特許文献1、2)。例えば特許文献1では、撮影時相の異なる第1時相、第2時相の画像系列を用い、第1時相の画像データのCT値をX軸に、第2時相のCT値をY軸にとった2次元特徴空間において、両時相空間内で同一位置にある各画素についての2次元ヒストグラムを求め、この2次元ヒストグラムに基づいて、肝臓領域に対応した画素のCT値範囲を推定することで、造影剤を用いたCT画像からの肝臓領域の抽出を自動化する手法が提案されている。また、非特許文献1は、ダイナミックCT画像の中で、腫瘍が明瞭に造影される早期相と晩期相の画像を用いて、その濃度情報を同時に利用することで、自動腫瘍抽出において実際よりも多く領域が抽出されることを防ぐ手法を提案している。非特許文献2においては、4時相のマルチスライスCT画像の情報を統合し、肝臓領域の抽出と、腫瘍部分を強調表示する手法が提案されている。
特許第3486615号公報
脇田悠樹ら:「多時相腹部X線CT像の時相間濃度特徴計測に基づく肝臓がん検出」 コンピュータ支援画像診断学会論文誌,Vol.10,No.1,pp1-10,Mar 2007 中川潤哉ら:「多時相の3次元マルチスライスCT像からの肝腫瘤の自動抽出手法の開発」 電子情報通信学会論文誌,J87-D-II,pp260-270、2004
 しかしながらこれらの手法では、事前に対象となるデータがどの時相で撮影されたものであるかを把握している必要がある。しかし、対象となるボリュームデータ自体にはどの時相で撮影されたものであるかという情報は含まれないため、画像処理開始前に、撮影された時相の情報を人手で設定する前操作が必要となる。そこで、三次元医用画像から特定の領域を抽出するときの人手による処理を減少させる画像処理方法、画像処理装置、及びプログラムが要求される。
開示する画像処理装置及びその方法は次のような態様である。医用画像の入力ボリュームデータに、特定の画像処理アルゴリズムを適用する画像処理装置であって、入力ボリュームデータから医用画像の撮影時刻に関連する時間情報を取得する時間情報取得手段と、時間情報取得手段により取得された時間情報に基づいて、医用画像の撮影時相を推定する撮影時相推定手段と、撮影時相推定手段により推定された撮影時相に応じて、医用画像から画像処理対象の領域を抽出する領域抽出アルゴリズム及び領域抽出アルゴリズムの実行に必要なパラメータを含む領域抽出処理種別を決定する領域抽出処理種別決定手段と、領域抽出処理種別決定手段により決定した種別の領域抽出処理により、入力ボリュームデータに対して領域抽出処理を実行する領域抽出処理実行手段とを有する領域抽出部、並びに、領域抽出処理実行手段により抽出された領域のボリュームデータに対して、特定の画像処理アルゴリズムを実行する画像処理アルゴリズム実行部を設ける。
 本発明によれば、医用画像から特定の領域を抽出する場合に、人手による処理を減少させることができる。
本実施形態の画像処理装置の構成図である。 自動領域抽出部における自動領域抽出処理のフローチャートである。 DICOM形式で保存された医用画像データのイメージである。 撮影時相算出表の一例を示す撮影時相算出表Aである。 肝臓がんが存在する患者の腹部を撮影した医用画像ボリュームデータのイメージ図であり、後期動脈相と静脈相の2時相における画像の違いを示したものである。 抽出処理種別決定表の一例を示す抽出処理種別決定表Aである。 撮影時相算出表の一例を示す撮影時相算出表Bである。 抽出処理種別決定表の一例を示す抽出処理種別決定表Bである。 撮影タイミングと自動抽出尤度が定義されている場合の一例を示す撮影時相算出表Cである。 撮影時相に撮影タイミングを含めた場合の一例を示す抽出処理種別決定表Bである。 体格指数算出表と、抽出パラメータ補正式である。
 以下に、本発明の実施形態に係る画像処理装置、画像処理方法およびプログラムについて、図を参照しながら詳細に説明する。
図1は、本実施形態の画像処理装置の構成図である。
図1に示すように、X線CT装置やMRI装置等で撮像されたボリュームデータに対して画像処理を行う画像処理装置11、ボリュームデータを記憶する外部記憶装置10、各処理の開始等の指示を入力する入力装置12、及び、画像処理された画像を表示する表示装置13を備える。
 画像処理装置11は、内部メモリ20、自動領域抽出部21及び画像処理アルゴリズム実行部22を備える。自動領域抽出部21は、ボリュームデータから時間情報を取得する時間情報取得部30と、取得した時間情報に基づいて撮影時相を推定する撮影時相推定部31と、推定した時相に基づいて領域抽出処理種別(領域抽出処理アルゴリズムとそのパラメータ)を決定する領域抽出処理種別決定部32と、決定した種別の領域抽出処理を実行する領域抽出処理実行部33とを備える。自動領域抽出部21及び画像処理アルゴリズム実行部22は画像処理装置11に備えるCPU(Central Processing Unit)によるプログラム処理や専用回路により実現される。さらに、内部メモリ20、及び画像処理装置21の機能を実現するためのプログラムを格納する記憶部(図示略)は、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶媒体により構成される。
 自動領域抽出結果が、表示装置13に表示されるまでを説明する。
まず、画像処理装置11は、入力装置12からのボリュームデータの読み込み指示の入力を受け、外部記憶装置10に記憶されているボリュームデータを内部メモリ20へ転送する。次に、時間情報取得部30は、入力装置12からの自動領域抽出処理開始の指示に従い、内部メモリ20に記憶されたボリュームデータから時間情報を取得し、取得した時間情報を撮影時相推定部31へ転送する。撮影時相推定部31は転送された時間情報に基づいて撮影時相を推定し、推定した撮影時相を領域抽出処理種別決定部32へ転送する。領域抽出処理種別決定部32は、推定した撮影時相に基づいて領域抽出処理種別を決定する。領域抽出処理実行部33は、決定した種別の領域抽出処理により、内部メモリ20に記憶されたボリュームデータに対して自動領域抽出処理を実行し、自動領域抽出処理結果を画像処理アルゴリズム実行部22に転送する。画像処理アルゴリズム実行部22は、抽出された領域に対応して画像処理を実行し、表示装置13に画像処理結果を表示する。
 図2は、自動領域抽出部11における領域抽出処理のフローチャートである。まず、外部記憶装置10に記憶されているボリュームデータを画像処理装置11における内部メモリ20へ入力する(ステップS201)。時間情報取得部30は、内部メモリ20に記憶されたボリュームデータから、時間情報として造影剤注入時刻および撮影時刻を取得する(ステップS202)。ボリュームデータに時刻情報が含まれていることは後述する。撮影時相推定部31は、取得した造影剤注入時刻および撮影時刻に基づいて、各断層画像を撮影した時相を推定する(ステップS203)。領域抽出処理種別決定部32は、推定した各断層画像の撮影時相に応じた領域抽出アルゴリズム及び適切なパラメータの値等を領域抽出処理種別として決定する(ステップS204)。領域抽出処理実行部33は、決定した種別の領域抽出処理により、入力ボリュームデータに対して領域抽出処理を行い(ステップS205)、領域抽出処理の結果を画像処理アルゴリズム実行部22へ転送する。画像処理アルゴリズム実行部22は抽出した領域の画像データに対して所定の画像処理を実行し、画像処理結果を表示装置13に表示する(ステップS206)。
 時間情報取得部30によるボリュームデータからの時間情報の取得と、撮影時相推定部31による時相の推定ついて説明する。
医用画像に付随する情報の例として、DICOM(Digital Imaging and Communication in Medicine)と呼ばれる規格を説明する。DICOM規格はACR-NEMA(米国放射線学会(ACR: American College of Radiology)と北米電子機器工業会(NEMA: National Electrical Manufacturers Association))により規格化され、1993年のRSNA(Radiological Society of North America:北米放射線学会)において承認され、現在、放射線部門のシステム間通信の標準規格として広く使用されている。具体的には、X線CT装置やMRI装置などで撮影した医用画像のフォーマットと、それらの画像を扱う医用画像機器間の通信プロトコルを定義したものである。医用画像装置で撮影した医用画像はこのDICOM規格に従ったフォーマットで保存されている場合が多く、CT値等で表わされるraw画像情報には、DICOMヘッダと呼ばれる複数のタグが付加されている。図3にDICOM形式で保存された医用画像データのイメージを示す。
 本実施形態ではDICOMヘッダのタグから時間情報を取得する。本実施形態における時間情報とは、造影剤注入開始時刻および撮影開始時刻を指す。DICOMタグにおいて造影剤注入時刻は、(0018、1042)というタグで定義される“Contrast/Bolus Start Time”、撮影開始時刻は(0008、0032)というタグで定義される“Acquisition Time” から取得する。
 時間情報取得部30において取得された造影剤注入開始時刻と撮影開始時刻が転送される撮影時相推定部31では、撮影時刻と造影剤注入時刻の差を計算し、図4に示す撮影時相算出表Aを参照して撮影時相を決定する。図4に示す例は早期動脈相/後期動脈相/門脈相/静脈相の4相のいずれかに分類する表であるが、時相は、用途に応じて適切な数、時間帯を設定する。
 領域抽出処理種別決定部32による領域抽出処理種別の決定について説明する。
図5は、肝臓がんが存在する患者の腹部を撮影した医用画像ボリュームデータのイメージ図であり、後期動脈相と静脈相の2時相における画像の違いを示したものである。ハッチングの違いはCT値(CT値は、X線減弱係数(X線の吸収度合い)の値を水を基準として表したものであり、水を基準の0として骨を1000とし、その間の比重とCT値が直線関係となるように設定されたものである。)の違いを示している。造影剤注入後、腫瘍部分のCT値が高くなり、後期動脈相では腫瘍部分が高いCT値を示す。時間が経過すると、造影剤は腫瘍部分から流れ出し、静脈相では肝臓全体が高いCT値を示す。静脈相では、腫瘍部分は後期動脈相のときよりも低いCT値を示す場合が多い。自動領域抽出アルゴリズムでは、抽出対象の部位とその周辺の部分、すなわち、図5の例では腫瘍部分と肝実質部分との画素値の差を利用する。一般的には、後期動脈相では腫瘍部分は肝実質よりも高いCT値であり、静脈相では肝実質よりも低いCT値となる。したがって、CT値の変化に対応する画素値の変化に基づく抽出処理種別は、各時相に応じて適切なものが選択されなければならない。
 図6に示した抽出処理種別決定表Aには、各撮影時相に対して適切な抽出アルゴリズムおよび抽出アルゴリズムの実行に必要かつ適切なパラメータが設定されており、領域抽出処理種別決定部32では撮影時相推定部31から転送される撮影時相を基に、抽出処理種別決定表Aを参照し、抽出アルゴリズムおよびパラメータの値を決定する。
 ここで、例の一つとしてRegion Growingを抽出手法として用いる場合について説明する。Region Growingとは、一点または数点のシードと呼ばれる点を自動または手動で設定し、シードから隣接画素の画素値を参照し、設定した条件に適う画素値であればその画素に領域を広げていく方法である。ここでのアルゴリズムAは、注目画素<隣接画素か、(注目画素-隣接画素)<LocalThresholdとなり、(シード-隣接画素)<GlobalThresholdとなる場合に領域拡張するアルゴリズム、アルゴリズムBは注目画素>隣接画素か、(隣接画素-注目画素)<LocalThresholdとなる場合に領域拡張、(隣接画素-シード)<GlobalThresholdとなる場合に領域拡張するというアルゴリズムとなる。また、ここでのパラメータはaおよびbとなり、aはLocalThreshold、パラメータbはGlobalThresoldを指す。早期動脈相は後期動脈相以降の相に比べると、腫瘍部分への造影剤の浸透が薄い可能性が高いので、腫瘍部分の画素と周辺画素との差は比較的小さい値となるのでパラメータaとbは低めの値を設定し、後期動脈相は早期動脈相に比べると腫瘍部分への造影剤の浸透が濃い可能性が高いので腫瘍部分の画素と周辺画素との差は比較的大きいと考えられるため、早期動脈相用のパラメータa、bよりは高い値の設定となる。
 また、撮影時相に応じてパラメータを変更する他の例として、動的輪郭モデル(Active Contour Model、以降ACM)を抽出手法として用いる場合について説明する。ACMは、対象領域の境界近傍に輪郭線C(n個の離散的な点列を結んだ閉曲線)を初期値として設定し、Cに対して評価関数となるエネルギー関数Eを定義した上で、Eの値が小さくなるようCの位置や形状を修正し、Eが最小となるCを対象領域の境界として抽出アルゴリズムである。Eは閉曲線の連続性やなめらかさを表すエネルギーEin=αEcon+βEcur、画像のエッジ強度に基づくエネルギーEimの積分値の和で表わされる。EconはCの一次微分値の二乗であり閉曲線の連続性を表し、EcurはCの二次微分値の二乗であり閉曲線の滑らかさを表す。Eimはある地点での画素値の勾配の減算を表し、エッジのある場所で小さくなる。従って、画像の画素値に忠実に輪郭を設定したい場合にはエッジ強度を強調させるためαやβは小さく設定し、画素値への忠実さよりも輪郭線の滑らかさを重視したい場合にはαやβは大きく設定することとなる。
 このACMを用いて肝臓全体を抽出する場合、α、βをパラメータa、bとする。造影剤注入時刻から間もない動脈相においては、肝臓全体には造影剤が行き渡っていない可能性が高いので、肝臓実質の画素値とその周辺の画素値との差はあまり大きくなく、エッジ強度よりも滑らかさや連続性を重視した輪郭とする必要がある。そのため、EimやEexよりもEinを強調させるように、aおよびbを高い値として設定する。一方、造影剤注入時刻から時間が経った門脈相、遅延相では肝臓全体に造影剤が浸透している可能性が高いので、肝臓実質の画素値とその周辺組織の画素値との差は大きいものとなる。従って、動脈相用の場合よりもaおよびbは低い値として設定し、EimやEexを強調させるエネルギー関数とすることで抽出精度を向上させることができる。
 これに加え、例えば多時相のボリュームデータを用い、異なる時相のボリュームデータ間の差分をとる等の方法で抽出する際には、入力ボリュームデータが時相の数に対応して複数あるが、この場合も同様に、時間情報取得部30がそれぞれの入力ボリュームデータから時間情報を取得し、取得した時間情報に基づいて撮影時相推定部31が各ボリュームデータの撮影時相を推定する。
 ここで、上記は画像診断時に一般的に用いられる4つの撮影時相を時間情報から推定する例であるが、図4に示した撮影時相算出表Aのように各時相を定義した場合、例えば同じ門脈相であっても、その間には100[sec]の幅があり、この100[sec]の中で早い段階に撮影したか、遅い段階に撮影したかで、同じ部位のCT値が変化し、画像に現れる特徴が異なる場合がある。このような場合に対応するために、撮影時相を更に細かく分けて定義する。
 図7は、上記の4つの撮影時相をそれぞれ前期と後期に分けて定義した撮影時相算出表Bの例を示している。このように時相を設定することで、図8の抽出処理種別決定表Bに例示するように、更に詳細な時間間隔での抽出処理種別を設定でき、従来よりも細かい撮影時相に対応した画像処理を実行できる。
 また、一般的に適用される撮影タイミングから外れた時刻に撮影している場合、その患者や患部は、設定した抽出処理種別による自動抽出処理に必要な特徴をもたない可能性も考えられる。例えば図5に示したような、患部や臓器に対する造影剤の流入および流出にかかる時間が、一般的に考えられている時間よりも短い場合や長い場合などである。この場合、造影剤による影響が一般的な挙動となってCT値に現れることを想定した抽出処理種別による処理では、自動抽出に失敗することや、その抽出精度が低いものとなる可能性もある。
 図9に示した撮影時相算出表Cは、撮影時相に加え、撮影タイミングと自動抽出尤度を(撮影時刻-造影剤注入時刻)[sec]から推定する撮影算出表の例である。自動抽出尤度は、自動抽出結果の尤もらしさを表す尺度として設定するものであり、自動抽出尤度が高ければ、尤もらしい(抽出に成功している可能性が高い)、低ければ尤もらしくない(抽出に失敗している可能性が高い)と判断する。
撮影時相推定部31は撮影時相算出表Cを参照することで自動抽出尤度の推定が可能となり、例えばこの情報を画像処理アルゴリズム実行部22に自動抽出尤度を転送し、抽出結果の表示と同時に、自動抽出の尤度の高低を操作者に対して参考値として表示する。
 または、撮影時相推定部31にて推定した撮影タイミングの情報を領域抽出処理種別決定部32へ転送することもできる。領域抽出処理種別決定部32は、図10に例示する抽出処理種別決定表Cを参照し、撮影タイミングの情報を含めて、最適な領域抽出処理種別を決定する。
 また、DICOMヘッダの中には、時間情報以外にも、例えば被験者の体重、身長、年令等の身体情報なども含まれる。領域抽出処理種別決定部32では、これらの情報を参照することで、更に精度の高い抽出処理種別を決定することもできる。例えば身長の高い被験者や、体重が重い被験者は、身長が低い被験者や、同身長で体重が低い被験者と比較すると、身体の体積が一般的に大きいと考えられ、そのため造影剤注入位置から抽出対象となる臓器や疾患部位までの物理的距離は一般的に遠くなるといえる。従って造影剤注入開始から撮影開始までの時間が同じであったとしても、身長の高い被験者や体重が重い被験者については、抽出対象部位への造影剤の流入は比較的少ないと考えることができる。このため、被験者の身体の体積に応じて抽出処理種別を調整することで、抽出精度の向上が期待できる。
 図11には、身長と体重から体格指数を算出する場合の体格指数算出表の例と、体格指数を用いて抽出パラメータを補正する場合の抽出パラメータ補正式の例を示した。ただし、抽出パラメメータ補正式の例におけるAは体格指数算出表により算出された体格指数の一例であり、pは抽出処理種別決定表により決定された抽出パラメータの一例を示す。領域抽出処理種別決定部32では、この表から得られた体格指数を用い、抽出処理種別決定表で決定した各抽出パラメータを、抽出パラメータ補正式に従って補正する。前述のように、被験者の身体が大きい場合には造影剤が患部に到達するまでの時間が長く、また患部から造影剤が抜けるまでの時間も長いと考えられるため、例えば前述のRegionGrowingの例の場合、パラメータa、bを小さい値に設定することで抽出の精度が向上する可能性がある。
 また、DICOMタグには、(0018、1041)というタグで定義されるContrast/Bolus Volumeもあり、これは注入した造影剤の量を示す項目であるが、一般に使われる量よりも造影剤の量が多い場合、造影剤が組織から完全に抜け切るまでの時間が一般の場合よりも長くなると考えられる。領域抽出処理種別決定部32では、造影剤量に応じて調整した抽出パラメータを利用することもできる。
 これ以外にも、医用画像に付随する情報としてはDICOMタグ以外にも、例えば電子カルテに記載される情報を取得することもできる。例えば化学療法による治療では、治療の過程で注入した薬品等によっては、医用画像上に特異な特徴を示す場合がある。例としてリピオドール肝動脈塞栓療法(TAE)は、それを施行する際にリピオドールと呼ばれるリンパ造影剤の一種を混合することが推奨されている、リピオドールは、通常は数日で患部から流出するが、古典的肝細胞癌には滞留するという性質を有している。腫瘍の抽出を目的として自動抽出処理を行う場合には、未処置の腫瘍領域と、TAE処置後の腫瘍領域は別のものとして認識する必要がある。電子カルテにオーダーの情報としてTAE処置後かどうかが記載されている場合、リピオドール注入済みかどうかが判定可能となるため、領域抽出処理種別決定部32では、これら治療オーダーの情報を、抽出処理に反映させることが可能となる。
 以上により、三次元医用画像から特定の領域を抽出する場合の抽出処理において、医用画像ボリュームデータから時間情報を取得することで、人手による処理を減少させる画像処理方法、画像処理装置、及びプログラムを提供することができる。
 10:外部記憶装置、11:画像処理装置、12:入力装置、13:表示装置、20:内部メモリ、21:自動領域抽出部、22:画像処理アルゴリズム実行部、30:時間情報取得部、31:撮影時相推定部、32:領域抽出処理種別決定部、33:領域抽出処理実行部。

Claims (12)

  1. 医用画像の入力ボリュームデータに、特定の画像処理アルゴリズムを適用する画像処理装置であって、
    前記入力ボリュームデータから前記医用画像の撮影時刻に関連する時間情報を取得する時間情報取得手段と、
    前記時間情報取得手段により取得された時間情報に基づいて、前記医用画像の撮影時相を推定する撮影時相推定手段と、
    前記撮影時相推定手段により推定された前記撮影時相に応じて、前記医用画像から画像処理対象の領域を抽出する領域抽出アルゴリズム及び前記領域抽出アルゴリズムの実行に必要なパラメータを含む領域抽出処理種別を決定する領域抽出処理種別決定手段と、
    前記領域抽出処理種別決定手段により決定した種別の前記領域抽出処理により、前記入力ボリュームデータに対して領域抽出処理を実行する領域抽出処理実行手段とを有する領域抽出部、並びに、
    前記領域抽出処理実行手段により抽出された領域のボリュームデータに対して、前記特定の画像処理アルゴリズムを実行する画像処理アルゴリズム実行部を設けることを特徴とする画像処理装置。
  2. 請求項1に記載の画像処理装置であって、
    前記時間情報取得手段は、前記入力ボリュームデータがマルチスライスの医用画像に対応する複数のボリュームデータである場合に、複数の前記ボリュームデータのそれぞれから前記時間情報を取得し、
    前記撮影時相推定手段は、前記時間情報取得手段により取得されたそれぞれの前記時間情報に基づいて、前記マルチスライスの医用画像に対応する、それぞれの前記撮影時相を推定し、
    前記領域抽出処理種別決定手段は、前記撮影時相手段により推定されたそれぞれの前記撮影時相に応じて、それぞれの前記領域抽出処理種別を決定することを特徴とする画像処理装置。
  3. 請求項1に記載の画像処理装置であって、
    前記撮影時相推定手段は、前記撮影時相よりも細かい時間間隔で定義される準撮影時相を推定し、
    前記抽出処理種別決定手段は、前記撮影時相推定手段により推定された前記撮影時相と前記準撮影時相に応じて、前記領域抽出処理種別を決定することを特徴とする画像処理装置。
  4. 請求項1に記載の画像処理装置であって、
    前記撮影時相推定手段は、前記時間情報取得手段により取得された前記時間情報を用いて、前記入力ボリュームデータの自動抽出尤度を推定する自動抽出尤度推定手段を含み、
    前記画像処理アルゴリズム実行部は、前記自動抽出尤度を前記特定の画像処理アルゴリズムの実行結果と同時に表示することを特徴とする画像処理装置。
  5. 請求項1に記載の画像処理装置であって、
    前記領域抽出処理種別決定手段は、前記入力ボリュームデータに付随する被験者の情報を取得し、取得した前記被験者情報を用いて、決定した種別の前記領域抽出処理を補正することを特徴とする画像処理装置。
  6. 請求項1に記載の画像処理装置であって、
    前記領域抽出処理種別決定手段は、前記入力ボリュームデータに付随する治療オーダーに関する情報を取得し、取得した前記治療オーダーの情報を用いて、決定した種別の前記領域抽出処理を補正することを特徴とする画像処理装置。
  7. 領域抽出部と画像処理アルゴリズム実行部を有する画像処理装置における、医用画像の入力ボリュームデータに、特定の画像処理アルゴリズムを適用する画像処理方法であって、前記領域抽出部は、
    前記入力ボリュームデータから前記医用画像の撮影時刻に関連する時間情報を取得する時間情報取得ステップと、
    前記時間情報取得ステップにおいて取得された時間情報に基づいて、前記医用画像の撮影時相を推定する撮影時相推定ステップと、
    前記撮影時相推定ステップにおいて推定された前記撮影時相に応じて、前記医用画像から画像処理対象の領域を抽出する領域抽出アルゴリズム及び前記領域抽出アルゴリズムの実行に必要なパラメータを含む領域抽出処理種別を決定する領域抽出処理種別決定ステップと、
    前記領域抽出処理種別決定ステップにおいて決定した種別の領域抽出処理により、前記入力ボリュームデータに対して領域抽出処理を実行する領域抽出処理実行ステップとを有し、
    画像処理アルゴリズム実行部は、前記領域抽出処理実行ステップにおいて抽出された領域のボリュームデータに対して、前記特定の画像処理アルゴリズムを実行することを特徴とする画像処理方法。
  8. 請求項7に記載の画像処理方法であって、
    前記時間情報取得ステップは、前記入力ボリュームデータがマルチスライスの医用画像に対応する複数のボリュームデータである場合に、複数の前記ボリュームデータのそれぞれから前記時間情報を取得し、
    前記撮影時相推定ステップは、前記時間情報取得ステップにおいて取得されたそれぞれの前記時間情報に基づいて、前記マルチスライスの医用画像に対応する、それぞれの前記撮影時相を推定し、
    前記領域抽出処理種別決定ステップは、前記撮影時相ステップにおいて推定されたそれぞれの前記撮影時相に応じて、それぞれの前記領域抽出処理種別を決定することを特徴とする画像処理方法。
  9. 請求項7に記載の画像処理方法であって、
    前期撮影時相推定ステップは、前記撮影時相よりも細かい時間間隔で定義される準撮影時相を推定し、
    前記抽出処理種別決定ステップは、前記撮影時相推定ステップにおいて推定された前記撮影時相と前記準撮影時相に応じて、前記領域抽出処理種別を決定することを特徴とする画像処理方法。
  10. 請求項7に記載の画像処理方法であって、
    前記撮影時相推定ステップは、前記時間情報取得ステップにおいて取得された前記時間情報を用いて、前記入力ボリュームデータの自動抽出尤度を推定し、
    前記画像処理アルゴリズム実行部は、前期自動抽出尤度を前記特定の画像処理アルゴリズムの実行結果と同時に表示することを特徴とする画像処理方法。
  11. 請求項7に記載の画像処理方法であって、
    前記領域抽出処理種別決定ステップは、前記入力ボリュームデータに付随する被験者の情報を取得し、取得した前記被験者情報を用いて、決定した種別の前記領域抽出処理を補正することを特徴とする画像処理方法。
  12. 請求項7に記載の画像処理方法であって、
    前記領域抽出処理種別決定ステップは、前記入力ボリュームデータに付随する治療オーダーに関する情報を取得し、取得した前記治療オーダーの情報を用いて決定した種別の前記領域抽出処理を補正することを特徴とする画像処理方法。
PCT/JP2011/052437 2010-04-05 2011-02-04 画像処理装置および方法 WO2011125369A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010087021A JP5357818B2 (ja) 2010-04-05 2010-04-05 画像処理装置および方法
JP2010-087021 2010-04-05

Publications (1)

Publication Number Publication Date
WO2011125369A1 true WO2011125369A1 (ja) 2011-10-13

Family

ID=44762335

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/052437 WO2011125369A1 (ja) 2010-04-05 2011-02-04 画像処理装置および方法

Country Status (2)

Country Link
JP (1) JP5357818B2 (ja)
WO (1) WO2011125369A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3150125A1 (en) 2015-09-29 2017-04-05 Canon Kabushiki Kaisha Image processing apparatus, method of controlling image processing apparatus, and storage medium
US10007973B2 (en) 2015-09-29 2018-06-26 Canon Kabushiki Kaisha Image processing apparatus, method of controlling image processing apparatus, and storage medium
US11030748B2 (en) 2016-10-28 2021-06-08 Koninklijke Philips N.V. Automatic CT detection and visualization of active bleeding and blood extravasation

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008188164A (ja) * 2007-02-02 2008-08-21 Fujifilm Corp 放射線撮像装置、放射線撮像方法、及びプログラム
JP2009504297A (ja) * 2005-08-17 2009-02-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 自動4d冠動脈モデリングおよび動きベクトル場推定のための方法および装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009504297A (ja) * 2005-08-17 2009-02-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 自動4d冠動脈モデリングおよび動きベクトル場推定のための方法および装置
JP2008188164A (ja) * 2007-02-02 2008-08-21 Fujifilm Corp 放射線撮像装置、放射線撮像方法、及びプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3150125A1 (en) 2015-09-29 2017-04-05 Canon Kabushiki Kaisha Image processing apparatus, method of controlling image processing apparatus, and storage medium
US10007973B2 (en) 2015-09-29 2018-06-26 Canon Kabushiki Kaisha Image processing apparatus, method of controlling image processing apparatus, and storage medium
US10672111B2 (en) 2015-09-29 2020-06-02 Canon Kabushiki Kaisha Image processing apparatus, method of controlling image processing apparatus, and storage medium that extract a region representing an anatomical portion of an object from an image by segmentation processing
US11030748B2 (en) 2016-10-28 2021-06-08 Koninklijke Philips N.V. Automatic CT detection and visualization of active bleeding and blood extravasation

Also Published As

Publication number Publication date
JP2011217797A (ja) 2011-11-04
JP5357818B2 (ja) 2013-12-04

Similar Documents

Publication Publication Date Title
JP6410753B2 (ja) 注入プロトコルのための医薬品の伝播およびパラメータ生成のモデル
US9569839B2 (en) Image processing apparatus, method and medical image device
BR112020007105A2 (pt) método para treinar um dispositivo de diagnóstico por imagem para realizar uma imagem para diagnóstico médico com uma dose reduzida de agente de contraste
JP2002345807A (ja) 医療用画像の領域抽出方法
JP5279995B2 (ja) 領域確定装置
EP3359041B1 (en) Mobile ffr simulation
Lee et al. Fully automated and real-time volumetric measurement of infarct core and penumbra in diffusion-and perfusion-weighted MRI of patients with hyper-acute stroke
WO2011151752A1 (en) Automated quantification of intravascular embolization success
WO2004024001A1 (ja) 血流動態解析装置とその方法、画像診断装置
JP2016189946A (ja) 医用画像位置合わせ装置および方法並びにプログラム
Singh et al. Role of cardiac CTA in estimating left ventricular volumes and ejection fraction
Albrecht et al. Coronary artery assessment using self-navigated free-breathing radial whole-heart magnetic resonance angiography in patients with congenital heart disease
US10438364B2 (en) System and method for registration of perfusion images
JP5357818B2 (ja) 画像処理装置および方法
US20120306862A1 (en) Image processing device, method and program
Bliznakova et al. Computer aided preoperative evaluation of the residual liver volume using computed tomography images
JP7213412B2 (ja) 医用画像抽出装置、医用画像抽出方法、及び、コンピュータプログラム
US10482597B2 (en) Automated method for tissue-based contrast media arrival detection for dynamic contrast enhanced MRI
JP5750381B2 (ja) 領域抽出処理システム
Myint et al. Effective kidney segmentation using gradient based approach in abdominal CT images
Sakamoto Roles of universal three‐dimensional image analysis devices that assist surgical operations
JP2011224275A (ja) 画像処理装置、方法およびプログラム
Wang et al. Performance of automated software in the assessment of segmental left ventricular function in cardiac CT: comparison with cardiac magnetic resonance
CN113940694A (zh) 脑部血流参数图获取装置、方法和计算机可读存储介质
KR101886936B1 (ko) 확률 에지 맵을 이용한 초음파 영상에서의 콘트라스트 개선 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11765271

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11765271

Country of ref document: EP

Kind code of ref document: A1