JP2011217797A - Image processing apparatus and method - Google Patents

Image processing apparatus and method Download PDF

Info

Publication number
JP2011217797A
JP2011217797A JP2010087021A JP2010087021A JP2011217797A JP 2011217797 A JP2011217797 A JP 2011217797A JP 2010087021 A JP2010087021 A JP 2010087021A JP 2010087021 A JP2010087021 A JP 2010087021A JP 2011217797 A JP2011217797 A JP 2011217797A
Authority
JP
Japan
Prior art keywords
image processing
region extraction
time phase
volume data
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010087021A
Other languages
Japanese (ja)
Other versions
JP5357818B2 (en
Inventor
Hideyoshi Yoshida
英恵 吉田
Michio Oikawa
道雄 及川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2010087021A priority Critical patent/JP5357818B2/en
Priority to PCT/JP2011/052437 priority patent/WO2011125369A1/en
Publication of JP2011217797A publication Critical patent/JP2011217797A/en
Application granted granted Critical
Publication of JP5357818B2 publication Critical patent/JP5357818B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Optics & Photonics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Veterinary Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Biophysics (AREA)
  • Physiology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce manual processing when extracting a specific region from a medical image.SOLUTION: This image processing apparatus includes a region extracting part and an image processing algorithm execution part. The region extracting part includes: a time information acquiring means for acquiring time information related to the imaging time of the medical image from input volume data; an imaging time phase estimating means for estimating the imaging time phase of the medical image based on the acquired time information; a region extraction processing classification determining means for determining region extraction processing classification including a region extraction algorithm for extracting a region for image processing from the medical image, and a parameter required to carry out the region extraction algorithm according to the estimated imaging time phase; and a region extraction processing execution means for executing region extraction processing to the input volume data by the region extraction processing of the determined classification. The image processing algorithm execution part executes a specific image processing algorithm to the volume data of the extracted region.

Description

本発明は、三次元医用画像から特定の領域を抽出する画像処理装置及び方法に関する。   The present invention relates to an image processing apparatus and method for extracting a specific region from a three-dimensional medical image.

X線CT(X-ray Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置等に代表される医用画像検査装置を用いて撮影された三次元医用画像(以下、「医用画像ボリュームデータ」、「ボリュームデータ」ともいう)に対して、複数の医用画像処理アルゴリズムを用いて可視化処理を行い、診断の補助とする。ここで用いる医用画像処理アルゴリズムには、入力したボリュームデータから必要な部位のデータだけを抽出して表示したり、画像のエッジを強調して表示したりするなど、場合に応じて複数の種別の処理が存在する。   Three-dimensional medical images (hereinafter referred to as `` medical image volume data '', `` volume '') taken using medical image inspection equipment such as X-ray computed tomography (CT) equipment and magnetic resonance imaging (MRI) equipment Visualization processing is performed on a plurality of medical image processing algorithms to assist diagnosis. In the medical image processing algorithm used here, there are multiple types of data depending on the case, such as extracting and displaying only the necessary part data from the input volume data or displaying the image with its edge highlighted. Processing exists.

また近年、医用画像撮像装置は技術の進歩により、一度に(CT装置のガントリが一回転する間に)撮影可能な断層画像(以下、「スライス画像」ともいう)の枚数が加速度的に増加しており、撮影結果として出力されるボリュームデータの量も膨大なサイズとなっている。医用画像処理アルゴリズムを適用して画像表示を行う場合、安全性や正確性を考慮すると、全ての処理を自動的に適用することは非常に困難であり、最終的には医師及び技師による確認や修正が必須となる。しかし、この人手による確認や修正が多いほど、医師や技師にかかる負担や人的コストは高くなる。ボリュームデータの量が膨大な場合には、これらのコストは更に高いものとなる。このような負担を軽減するためにも、自動的に行う処理の部分の正確性・妥当性を可能な限り高めることが求められている。   Also, in recent years, due to technological advances in medical imaging devices, the number of tomographic images (hereinafter also referred to as “slice images”) that can be captured at a time (while the gantry of the CT device rotates once) has increased at an accelerated rate. The amount of volume data output as a result of shooting is also enormous. When displaying images using a medical image processing algorithm, it is very difficult to automatically apply all the processing in consideration of safety and accuracy. Modification is mandatory. However, the more manual checks and corrections, the higher the burden and human cost on doctors and engineers. These costs are even higher when the volume of volume data is enormous. In order to reduce such a burden, it is required to increase the accuracy and validity of the part of the processing that is automatically performed as much as possible.

医用画像処理の中に、造影剤を利用した医用画像から特定の臓器や疾患の領域を抽出する技術がある。造影剤を利用した撮影の場合、造影剤を注入したのちに複数のタイミングで対象の部位を反復して撮影する。造影剤注入時刻から撮影開始時刻までの時間の長さによって定義される撮影タイミングを撮影時相と呼ぶが、例えば造影剤を利用して肝臓腫瘍を撮影したCT画像においては、造影剤注入して数十秒後に撮影される動脈相での画像は、造影剤が動脈に最もよく浸透しているタイミングでの撮影となり、この動脈相では腫瘍部分は周囲の肝実質よりも造影剤に強く染まる(CT値が高い)が、それよりも後に撮影された静脈相での画像では肝実質全体に造影剤が浸透しているため、腫瘍部分は周囲の肝実質よりも低いCT値を示すことが知られている。   In medical image processing, there is a technique for extracting a specific organ or disease region from a medical image using a contrast agent. In the case of imaging using a contrast agent, the target region is repeatedly imaged at a plurality of timings after injecting the contrast agent. The imaging timing defined by the length of time from the contrast agent injection time to the imaging start time is called the imaging time phase. For example, in a CT image in which a liver tumor is imaged using a contrast agent, the contrast agent is injected. The image in the arterial phase taken after several tens of seconds is taken at the timing when the contrast agent penetrates the artery best, and in this arterial phase the tumor part is stained more strongly by the contrast agent than the surrounding liver parenchyma ( However, it is known that the tumor part shows a lower CT value than the surrounding liver parenchyma because the contrast medium penetrates the entire liver parenchyma in images taken later than that in the vein phase. It has been.

この性質、すなわち撮影タイミングの違いから現れる画素値(CT画像においてはCT値)の変化を利用し、1時相の画像を用いた場合よりも領域の抽出精度を向上させることを目的として、多時相の医用画像を用いた領域抽出手法が提案されている(特許文献1、非特許文献1、2)。例えば特許文献1では、撮影時相の異なる第1時相、第2時相の画像系列を用い、第1時相の画像データのCT値をX軸に、第2時相のCT値をY軸にとった2次元特徴空間において、両時相空間内で同一位置にある各画素についての2次元ヒストグラムを求め、この2次元ヒストグラムに基づいて、肝臓領域に対応した画素のCT値範囲を推定することで、造影剤を用いたCT画像からの肝臓領域の抽出を自動化する手法が提案されている。また、非特許文献1は、ダイナミックCT画像の中で、腫瘍が明瞭に造影される早期相と晩期相の画像を用いて、その濃度情報を同時に利用することで、自動腫瘍抽出において実際よりも多く領域が抽出されることを防ぐ手法を提案している。非特許文献2においては、4時相のマルチスライスCT画像の情報を統合し、肝臓領域の抽出と、腫瘍部分を強調表示する手法が提案されている。   For the purpose of improving the extraction accuracy of the region compared to the case of using a one-time phase image by utilizing the change of the pixel value (CT value in the CT image) that appears due to this property, that is, the difference in imaging timing, Region extraction methods using temporal medical images have been proposed (Patent Document 1, Non-Patent Documents 1 and 2). For example, in Patent Document 1, the first time phase and the second time phase image series having different shooting time phases are used, the CT value of the first time phase image data is set to the X axis, and the CT value of the second time phase is set to Y. In the two-dimensional feature space along the axis, a two-dimensional histogram is obtained for each pixel at the same position in both time phase spaces, and the CT value range of the pixel corresponding to the liver region is estimated based on the two-dimensional histogram. Thus, a method for automating the extraction of a liver region from a CT image using a contrast agent has been proposed. Further, Non-Patent Document 1 uses dynamic concentration images at the same time, using an early phase image and a late phase image in which a tumor is clearly contrasted, and using the concentration information at the same time. We have proposed a method to prevent many regions from being extracted. Non-Patent Document 2 proposes a technique for integrating information of 4-time multi-slice CT images, extracting a liver region, and highlighting a tumor portion.

特許第3486615号公報Japanese Patent No. 3486615

脇田悠樹ら:「多時相腹部X線CT像の時相間濃度特徴計測に基づく肝臓がん検出」 コンピュータ支援画像診断学会論文誌,Vol.10,No.1,pp1-10,Mar 2007Yuki Wakita et al .: “Detection of liver cancer based on measurement of concentration characteristics between time phases of multi-phase abdominal X-ray CT images” Journal of Computer Aided Imaging Society, Vol.10, No.1, pp1-10, Mar 2007 中川潤哉ら:「多時相の3次元マルチスライスCT像からの肝腫瘤の自動抽出手法の開発」 電子情報通信学会論文誌,J87-D-II,pp260-270、2004Junya Nakagawa et al .: “Development of an automatic extraction method for liver tumors from multi-dimensional 3D multi-slice CT images” IEICE Transactions, J87-D-II, pp260-270, 2004

しかしながらこれらの手法では、事前に対象となるデータがどの時相で撮影されたものであるかを把握している必要がある。しかし、対象となるボリュームデータ自体にはどの時相で撮影されたものであるかという情報は含まれないため、画像処理開始前に、撮影された時相の情報を人手で設定する前操作が必要となる。そこで、三次元医用画像から特定の領域を抽出するときの人手による処理を減少させる画像処理方法、画像処理装置、及びプログラムが要求される。   However, in these methods, it is necessary to grasp in advance in what time phase the target data was taken. However, since the target volume data itself does not include information on the time phase at which the image was taken, the pre-operation to manually set the information on the time phase that was taken before image processing was started. Necessary. Therefore, an image processing method, an image processing apparatus, and a program that reduce manual processing when extracting a specific region from a three-dimensional medical image are required.

開示する画像処理装置及びその方法は次のような態様である。医用画像の入力ボリュームデータに、特定の画像処理アルゴリズムを適用する画像処理装置であって、入力ボリュームデータから医用画像の撮影時刻に関連する時間情報を取得する時間情報取得手段と、時間情報取得手段により取得された時間情報に基づいて、医用画像の撮影時相を推定する撮影時相推定手段と、撮影時相推定手段により推定された撮影時相に応じて、医用画像から画像処理対象の領域を抽出する領域抽出アルゴリズム及び領域抽出アルゴリズムの実行に必要なパラメータを含む領域抽出処理種別を決定する領域抽出処理種別決定手段と、領域抽出処理種別決定手段により決定した種別の領域抽出処理により、入力ボリュームデータに対して領域抽出処理を実行する領域抽出処理実行手段とを有する領域抽出部、並びに、領域抽出処理実行手段により抽出された領域のボリュームデータに対して、特定の画像処理アルゴリズムを実行する画像処理アルゴリズム実行部を設ける。 The disclosed image processing apparatus and method thereof are as follows. An image processing apparatus that applies a specific image processing algorithm to input volume data of a medical image, and includes time information acquisition means for acquiring time information related to the imaging time of the medical image from the input volume data, and time information acquisition means Based on the time information acquired by the above, the imaging time phase estimation means for estimating the imaging time phase of the medical image, and the area to be image-processed from the medical image according to the imaging time phase estimated by the imaging time phase estimation means The region extraction algorithm for extracting the region, the region extraction processing type determination means for determining the region extraction processing type including the parameters necessary for executing the region extraction algorithm, and the region extraction processing of the type determined by the region extraction processing type determination means A region extraction unit having region extraction processing execution means for performing region extraction processing on volume data; The volume data of the extraction region by the extraction process execution means, provided an image processing algorithm execution unit for executing a specific image processing algorithms.

本発明によれば、医用画像から特定の領域を抽出する場合に、人手による処理を減少させることができる。   According to the present invention, when a specific region is extracted from a medical image, manual processing can be reduced.

本実施形態の画像処理装置の構成図である。It is a block diagram of the image processing apparatus of this embodiment. 自動領域抽出部における自動領域抽出処理のフローチャートである。It is a flowchart of the automatic area | region extraction process in an automatic area | region extraction part. DICOM形式で保存された医用画像データのイメージである。It is an image of medical image data stored in the DICOM format. 撮影時相算出表の一例を示す撮影時相算出表Aである。It is an imaging time phase calculation table A showing an example of an imaging time phase calculation table. 肝臓がんが存在する患者の腹部を撮影した医用画像ボリュームデータのイメージ図であり、後期動脈相と静脈相の2時相における画像の違いを示したものである。It is an image figure of the medical image volume data which image | photographed the abdomen of the patient who has liver cancer, and shows the difference in the image in two time phases of the late arterial phase and the venous phase. 抽出処理種別決定表の一例を示す抽出処理種別決定表Aである。It is an extraction process type determination table A showing an example of an extraction process type determination table. 撮影時相算出表の一例を示す撮影時相算出表Bである。It is a photographing time phase calculation table B showing an example of a photographing time phase calculation table. 抽出処理種別決定表の一例を示す抽出処理種別決定表Bである。It is an extraction process type determination table B showing an example of an extraction process type determination table. 撮影タイミングと自動抽出尤度が定義されている場合の一例を示す撮影時相算出表Cである。It is the imaging | photography time phase calculation table C which shows an example when an imaging | photography timing and automatic extraction likelihood are defined. 撮影時相に撮影タイミングを含めた場合の一例を示す抽出処理種別決定表Bである。It is an extraction processing type determination table B showing an example when the shooting timing is included in the shooting time phase. 体格指数算出表と、抽出パラメータ補正式である。It is a physique index calculation table and an extraction parameter correction formula.

以下に、本発明の実施形態に係る画像処理装置、画像処理方法およびプログラムについて、図を参照しながら詳細に説明する。
図1は、本実施形態の画像処理装置の構成図である。
図1に示すように、X線CT装置やMRI装置等で撮像されたボリュームデータに対して画像処理を行う画像処理装置11、ボリュームデータを記憶する外部記憶装置10、各処理の開始等の指示を入力する入力装置12、及び、画像処理された画像を表示する表示装置13を備える。
Hereinafter, an image processing apparatus, an image processing method, and a program according to an embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a configuration diagram of an image processing apparatus according to the present embodiment.
As shown in FIG. 1, an image processing apparatus 11 that performs image processing on volume data captured by an X-ray CT apparatus, an MRI apparatus, or the like, an external storage apparatus 10 that stores volume data, and instructions for starting each process Input device 12 and display device 13 for displaying the image processed image.

画像処理装置11は、内部メモリ20、自動領域抽出部21及び画像処理アルゴリズム実行部22を備える。自動領域抽出部21は、ボリュームデータから時間情報を取得する時間情報取得部30と、取得した時間情報に基づいて撮影時相を推定する撮影時相推定部31と、推定した時相に基づいて領域抽出処理種別(領域抽出処理アルゴリズムとそのパラメータ)を決定する領域抽出処理種別決定部32と、決定した種別の領域抽出処理を実行する領域抽出処理実行部33とを備える。自動領域抽出部21及び画像処理アルゴリズム実行部22は画像処理装置11に備えるCPU(Central Processing Unit)によるプログラム処理や専用回路により実現される。さらに、内部メモリ20、及び画像処理装置21の機能を実現するためのプログラムを格納する記憶部(図示略)は、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶媒体により構成される。   The image processing apparatus 11 includes an internal memory 20, an automatic area extraction unit 21, and an image processing algorithm execution unit 22. The automatic area extraction unit 21 includes a time information acquisition unit 30 that acquires time information from volume data, a shooting time phase estimation unit 31 that estimates a shooting time phase based on the acquired time information, and a time phase that is estimated. A region extraction processing type determination unit 32 that determines a region extraction processing type (region extraction processing algorithm and its parameters) and a region extraction processing execution unit 33 that executes region extraction processing of the determined type are provided. The automatic area extraction unit 21 and the image processing algorithm execution unit 22 are realized by program processing or a dedicated circuit by a CPU (Central Processing Unit) provided in the image processing apparatus 11. Further, a storage unit (not shown) for storing programs for realizing the functions of the internal memory 20 and the image processing device 21 includes a RAM (Random Access Memory), a ROM (Read Only Memory), and an HDD (Hard Disk Drive). And a storage medium such as a flash memory.

自動領域抽出結果が、表示装置13に表示されるまでを説明する。
まず、画像処理装置11は、入力装置12からのボリュームデータの読み込み指示の入力を受け、外部記憶装置10に記憶されているボリュームデータを内部メモリ20へ転送する。次に、時間情報取得部30は、入力装置12からの自動領域抽出処理開始の指示に従い、内部メモリ20に記憶されたボリュームデータから時間情報を取得し、取得した時間情報を撮影時相推定部31へ転送する。撮影時相推定部31は転送された時間情報に基づいて撮影時相を推定し、推定した撮影時相を領域抽出処理種別決定部32へ転送する。領域抽出処理種別決定部32は、推定した撮影時相に基づいて領域抽出処理種別を決定する。領域抽出処理実行部33は、決定した種別の領域抽出処理により、内部メモリ20に記憶されたボリュームデータに対して自動領域抽出処理を実行し、自動領域抽出処理結果を画像処理アルゴリズム実行部22に転送する。画像処理アルゴリズム実行部22は、抽出された領域に対応して画像処理を実行し、表示装置13に画像処理結果を表示する。
The process until the automatic area extraction result is displayed on the display device 13 will be described.
First, the image processing apparatus 11 receives an input of an instruction to read volume data from the input device 12, and transfers the volume data stored in the external storage device 10 to the internal memory 20. Next, the time information acquisition unit 30 acquires time information from the volume data stored in the internal memory 20 in accordance with an instruction to start the automatic region extraction process from the input device 12, and the acquired time information is obtained as a shooting time phase estimation unit. Forward to 31. The shooting time phase estimation unit 31 estimates the shooting time phase based on the transferred time information, and transfers the estimated shooting time phase to the region extraction processing type determination unit 32. The region extraction process type determination unit 32 determines the region extraction process type based on the estimated shooting time phase. The region extraction processing execution unit 33 performs automatic region extraction processing on the volume data stored in the internal memory 20 by the region extraction processing of the determined type, and sends the automatic region extraction processing result to the image processing algorithm execution unit 22. Forward. The image processing algorithm execution unit 22 executes image processing corresponding to the extracted area, and displays the image processing result on the display device 13.

図2は、自動領域抽出部11における領域抽出処理のフローチャートである。まず、外部記憶装置10に記憶されているボリュームデータを画像処理装置11における内部メモリ20へ入力する(ステップS201)。時間情報取得部30は、内部メモリ20に記憶されたボリュームデータから、時間情報として造影剤注入時刻および撮影時刻を取得する(ステップS202)。ボリュームデータに時刻情報が含まれていることは後述する。、撮影時相推定部31は、取得した造影剤注入時刻および撮影時刻に基づいて、各断層画像を撮影した時相を推定する(ステップS203)。領域抽出処理種別決定部32は、推定した各断層画像の撮影時相に応じた領域抽出アルゴリズム及び適切なパラメータの値等を領域抽出処理種別として決定する(ステップS204)。領域抽出処理実行部33は、決定した種別の領域抽出処理により、入力ボリュームデータに対して領域抽出処理を行い(ステップS205)、領域抽出処理の結果を画像処理アルゴリズム実行部22へ転送する。画像処理アルゴリズム実行部22は抽出した領域の画像データに対して所定の画像処理を実行し、画像処理結果を表示装置13に表示する(ステップS206)。   FIG. 2 is a flowchart of region extraction processing in the automatic region extraction unit 11. First, the volume data stored in the external storage device 10 is input to the internal memory 20 in the image processing device 11 (step S201). The time information acquisition unit 30 acquires the contrast agent injection time and the imaging time as time information from the volume data stored in the internal memory 20 (step S202). It will be described later that time information is included in the volume data. The imaging time phase estimation unit 31 estimates the time phase at which each tomographic image is acquired based on the acquired contrast agent injection time and imaging time (step S203). The region extraction processing type determination unit 32 determines a region extraction algorithm, an appropriate parameter value, and the like corresponding to the estimated time phase of each tomographic image as the region extraction processing type (step S204). The region extraction processing execution unit 33 performs region extraction processing on the input volume data by the region extraction processing of the determined type (step S205), and transfers the result of the region extraction processing to the image processing algorithm execution unit 22. The image processing algorithm execution unit 22 executes predetermined image processing on the image data of the extracted area, and displays the image processing result on the display device 13 (step S206).

時間情報取得部30によるボリュームデータからの時間情報の取得と、撮影時相推定部31による時相の推定ついて説明する。
医用画像に付随する情報の例として、DICOM(Digital Imaging and Communication in Medicine)と呼ばれる規格を説明する。DICOM規格はACR−NEMA(米国放射線学会(ACR: American College of Radiology)と北米電子機器工業会(NEMA: National Electrical Manufacturers Association))により規格化され、1993年のRSNA(Radiological Society of North America:北米放射線学会)において承認され、現在、放射線部門のシステム間通信の標準規格として広く使用されている。具体的には、X線CT装置やMRI装置などで撮影した医用画像のフォーマットと、それらの画像を扱う医用画像機器間の通信プロトコルを定義したものである。医用画像装置で撮影した医用画像はこのDICOM規格に従ったフォーマットで保存されている場合が多く、CT値等で表わされるraw画像情報には、DICOMヘッダと呼ばれる複数のタグが付加されている。図3にDICOM形式で保存された医用画像データのイメージを示す。
Acquisition of time information from the volume data by the time information acquisition unit 30 and estimation of the time phase by the shooting time phase estimation unit 31 will be described.
As an example of information attached to a medical image, a standard called DICOM (Digital Imaging and Communication in Medicine) will be described. The DICOM standard was standardized by ACR-NEMA (American College of Radiology (ACR) and the National Electrical Manufacturers Association (NEMA)), and 1993 RSNA (Radiological Society of North America) And is currently widely used as a standard for communication between systems in the radiation department. Specifically, it defines the format of a medical image taken by an X-ray CT apparatus, an MRI apparatus, etc., and a communication protocol between medical image devices that handle these images. In many cases, medical images taken by a medical imaging apparatus are stored in a format according to the DICOM standard, and a plurality of tags called DICOM headers are added to raw image information represented by CT values and the like. FIG. 3 shows an image of medical image data stored in the DICOM format.

本実施形態ではDICOMヘッダのタグから時間情報を取得する。本実施形態における時間情報とは、造影剤注入開始時刻および撮影開始時刻を指す。DICOMタグにおいて造影剤注入時刻は、(0018、1042)というタグで定義される“Contrast/Bolus Start Time”、撮影開始時刻は(0008、0032)というタグで定義される“Acquisition Time” から取得する。   In this embodiment, time information is acquired from the tag of the DICOM header. The time information in the present embodiment refers to the contrast agent injection start time and the imaging start time. In the DICOM tag, the contrast agent injection time is acquired from “Contrast / Bolus Start Time” defined by the tags (0018, 1042), and the imaging start time is acquired from “Acquisition Time” defined by the tags (0008, 0032). .

時間情報取得部30において取得された造影剤注入開始時刻と撮影開始時刻が転送される撮影時相推定部31では、撮影時刻と造影剤注入時刻の差を計算し、図4に示す撮影時相算出表Aを参照して撮影時相を決定する。図4に示す例は早期動脈相/後期動脈相/門脈相/静脈相の4相のいずれかに分類する表であるが、時相は、用途に応じて適切な数、時間帯を設定する。   The imaging time phase estimation unit 31 to which the contrast medium injection start time and the imaging start time acquired in the time information acquisition unit 30 are transferred calculates the difference between the imaging time and the contrast agent injection time, and the imaging time phase shown in FIG. The photographing time phase is determined with reference to the calculation table A. The example shown in FIG. 4 is a table classified into one of the four phases of early arterial phase / late arterial phase / portal vein phase / venous phase, but the time phase is set to an appropriate number and time zone according to the application. To do.

領域抽出処理種別決定部32による領域抽出処理種別の決定について説明する。
図5は、肝臓がんが存在する患者の腹部を撮影した医用画像ボリュームデータのイメージ図であり、後期動脈相と静脈相の2時相における画像の違いを示したものである。ハッチングの違いはCT値(CT値は、X線減弱係数(X線の吸収度合い)の値を水を基準として表したものであり、水を基準の0として骨を1000とし、その間の比重とCT値が直線関係となるように設定されたものである。)の違いを示している。造影剤注入後、腫瘍部分のCT値が高くなり、後期動脈相では腫瘍部分が高いCT値を示す。時間が経過すると、造影剤は腫瘍部分から流れ出し、静脈相では肝臓全体が高いCT値を示す。静脈相では、腫瘍部分は後期動脈相のときよりも低いCT値を示す場合が多い。自動領域抽出アルゴリズムでは、抽出対象の部位とその周辺の部分、すなわち、図5の例では腫瘍部分と肝実質部分との画素値の差を利用する。一般的には、後期動脈相では腫瘍部分は肝実質よりも高いCT値であり、静脈相では肝実質よりも低いCT値となる。したがって、CT値の変化に対応する画素値の変化に基づく抽出処理種別は、各時相に応じて適切なものが選択されなければならない。
The determination of the region extraction process type by the region extraction process type determination unit 32 will be described.
FIG. 5 is an image diagram of medical image volume data obtained by imaging the abdomen of a patient with liver cancer, and shows a difference in images in two phases of the late arterial phase and the venous phase. The difference in hatching is the CT value (the CT value is the value of the X-ray attenuation coefficient (X-ray absorption)) based on water, water is set to 0, the bone is set to 1000, the specific gravity between them is The CT values are set to have a linear relationship.) After contrast agent injection, the CT value of the tumor part becomes high, and the tumor part shows a high CT value in the late arterial phase. As time elapses, the contrast agent flows out of the tumor area, and in the venous phase, the entire liver exhibits a high CT value. In the venous phase, the tumor part often exhibits a lower CT value than in the late arterial phase. In the automatic region extraction algorithm, a difference between pixel values of a region to be extracted and its peripheral portion, that is, a tumor portion and a liver parenchymal portion in the example of FIG. 5 is used. In general, the tumor portion has a CT value higher than that of the liver parenchyma in the late arterial phase, and a CT value lower than that of the liver parenchyma in the venous phase. Accordingly, an extraction process type based on a change in pixel value corresponding to a change in CT value must be selected according to each time phase.

図6に示した抽出処理種別決定表Aには、各撮影時相に対して適切な抽出アルゴリズムおよび抽出アルゴリズムの実行に必要かつ適切なパラメータが設定されており、領域抽出処理種別決定部32では撮影時相推定部31から転送される撮影時相を基に、抽出処理種別決定表Aを参照し、抽出アルゴリズムおよびパラメータの値を決定する。   In the extraction process type determination table A shown in FIG. 6, an appropriate extraction algorithm and parameters necessary and necessary for executing the extraction algorithm are set for each shooting time phase. Based on the shooting time phase transferred from the shooting time phase estimation unit 31, the extraction processing type determination table A is referred to, and the extraction algorithm and parameter values are determined.

ここで、例の一つとしてRegion Growingを抽出手法として用いる場合について説明する。Region Growingとは、一点または数点のシードと呼ばれる点を自動または手動で設定し、シードから隣接画素の画素値を参照し、設定した条件に適う画素値であればその画素に領域を広げていく方法である。ここでのアルゴリズムAは、注目画素<隣接画素か、(注目画素−隣接画素)<LocalThresholdとなり、(シード−隣接画素)<GlobalThresholdとなる場合に領域拡張するアルゴリズム、アルゴリズムBは注目画素>隣接画素か、(隣接画素−注目画素)<LocalThresholdとなる場合に領域拡張、(隣接画素−シード)<GlobalThresholdとなる場合に領域拡張するというアルゴリズムとなる。また、ここでのパラメータはaおよびbとなり、aはLocalThreshold、パラメータbはGlobalThresoldを指す。早期動脈相は後期動脈相以降の相に比べると、腫瘍部分への造影剤の浸透が薄い可能性が高いので、腫瘍部分の画素と周辺画素との差は比較的小さい値となるのでパラメータaとbは低めの値を設定し、後期動脈相は早期動脈相に比べると腫瘍部分への造影剤の浸透が濃い可能性が高いので腫瘍部分の画素と周辺画素との差は比較的大きいと考えられるため、早期動脈相用のパラメータa、bよりは高い値の設定となる。   Here, the case where Region Growing is used as an extraction method will be described as an example. With Region Growing, one or several points called seeds are set automatically or manually, and the pixel value of the neighboring pixel is referenced from the seed. If the pixel value meets the set conditions, the region is expanded to that pixel. It is a way to go. Algorithm A here is the target pixel <adjacent pixel, or (target pixel-adjacent pixel) <LocalThreshold, and (seed-adjacent pixel) <GlobalThreshold, and the algorithm B is the target pixel> adjacent pixel. Alternatively, the algorithm is such that the region is expanded when (adjacent pixel-target pixel) <LocalThreshold, and the region is expanded when (adjacent pixel-seed) <GlobalThreshold. The parameters here are a and b, where a is LocalThreshold and parameter b is GlobalThresold. The early arterial phase is more likely to have less penetration of the contrast agent into the tumor part than the later arterial phase, so the difference between the pixel in the tumor part and the surrounding pixels is a relatively small value, so parameter a And b are set at lower values, and the contrast between the pixel in the tumor part and the surrounding pixels is relatively large because the late arterial phase is more likely to have a higher concentration of contrast agent penetration into the tumor part than the early arterial phase. Therefore, the value is set higher than the parameters a and b for the early arterial phase.

また、撮影時相に応じてパラメータを変更する他の例として、動的輪郭モデル(Active Contour Model、以降ACM)を抽出手法として用いる場合について説明する。ACMは、対象領域の境界近傍に輪郭線C(n個の離散的な点列を結んだ閉曲線)を初期値として設定し、Cに対して評価関数となるエネルギー関数Eを定義した上で、Eの値が小さくなるようCの位置や形状を修正し、Eが最小となるCを対象領域の境界として抽出アルゴリズムである。Eは閉曲線の連続性やなめらかさを表すエネルギーEin=αEcon+βEcur、画像のエッジ強度に基づくエネルギーEimの積分値の和で表わされる。EconはCの一次微分値の二乗であり閉曲線の連続性を表し、EcurはCの二次微分値の二乗であり閉曲線の滑らかさを表す。Eimはある地点での画素値の勾配の減算を表し、エッジのある場所で小さくなる。従って、画像の画素値に忠実に輪郭を設定したい場合にはエッジ強度を強調させるためαやβは小さく設定し、画素値への忠実さよりも輪郭線の滑らかさを重視したい場合にはαやβは大きく設定することとなる。   Further, as another example of changing the parameter according to the photographing time phase, a case where an active contour model (Active Contour Model, hereinafter ACM) is used as an extraction method will be described. ACM sets the contour line C (closed curve connecting n discrete point sequences) as the initial value near the boundary of the target area, and after defining the energy function E that is an evaluation function for C, This is an extraction algorithm in which the position and shape of C are corrected so that the value of E becomes small, and C that minimizes E is used as the boundary of the target region. E is expressed by the sum of energy Ein = αEcon + βEcur representing the continuity and smoothness of the closed curve, and the integral value of energy Eim based on the edge strength of the image. Econ is the square of the first derivative of C and represents the continuity of the closed curve, and Ecur is the square of the second derivative of C and represents the smoothness of the closed curve. Eim represents the subtraction of the gradient of the pixel value at a certain point, and becomes smaller at a place where there is an edge. Therefore, α and β are set to be small in order to enhance edge strength when the contour is to be faithfully set to the pixel value of the image, and α and β are to be emphasized when the smoothness of the contour is more important than the fidelity to the pixel value. β is set large.

このACMを用いて肝臓全体を抽出する場合、α、βをパラメータa、bとする。造影剤注入時刻から間もない動脈相においては、肝臓全体には造影剤が行き渡っていない可能性が高いので、肝臓実質の画素値とその周辺の画素値との差はあまり大きくなく、エッジ強度よりも滑らかさや連続性を重視した輪郭とする必要がある。そのため、EimやEexよりもEinを強調させるように、aおよびbを高い値として設定する。一方、造影剤注入時刻から時間が経った門脈相、遅延相では肝臓全体に造影剤が浸透している可能性が高いので、肝臓実質の画素値とその周辺組織の画素値との差は大きいものとなる。従って、動脈相用の場合よりもaおよびbは低い値として設定し、EimやEexを強調させるエネルギー関数とすることで抽出精度を向上させることができる。   When the entire liver is extracted using this ACM, α and β are parameters a and b. In the arterial phase shortly after the contrast agent injection time, there is a high possibility that the contrast agent has not spread throughout the liver, so the difference between the liver parenchyma pixel values and the surrounding pixel values is not very large, and the edge strength It is necessary to have a contour that emphasizes smoothness and continuity. For this reason, a and b are set to be higher values so that Ein is emphasized than Eim and Eex. On the other hand, in the portal vein phase and the delayed phase after the contrast agent injection time, there is a high possibility that the contrast agent penetrates the entire liver, so the difference between the pixel value of the liver parenchyma and the pixel value of the surrounding tissue is It will be big. Therefore, the extraction accuracy can be improved by setting a and b as lower values than in the case of the arterial phase and by using an energy function that emphasizes Eim and Eex.

これに加え、例えば多時相のボリュームデータを用い、異なる時相のボリュームデータ間の差分をとる等の方法で抽出する際には、入力ボリュームデータが時相の数に対応して複数あるが、この場合も同様に、時間情報取得部30がそれぞれの入力ボリュームデータから時間情報を取得し、取得した時間情報に基づいて撮影時相推定部31が各ボリュームデータの撮影時相を推定する。   In addition to this, for example, when extracting by using a method such as using multi-time phase volume data and taking a difference between volume data of different time phases, there are a plurality of input volume data corresponding to the number of time phases. Similarly, in this case, the time information acquisition unit 30 acquires time information from each input volume data, and the shooting time phase estimation unit 31 estimates the shooting time phase of each volume data based on the acquired time information.

ここで、上記は画像診断時に一般的に用いられる4つの撮影時相を時間情報から推定する例であるが、図4に示した撮影時相算出表Aのように各時相を定義した場合、例えば同じ門脈相であっても、その間には100[sec]の幅があり、この100[sec]の中で早い段階に撮影したか、遅い段階に撮影したかで、同じ部位のCT値が変化し、画像に現れる特徴が異なる場合がある。このような場合に対応するために、撮影時相を更に細かく分けて定義する。   Here, the above is an example in which four imaging time phases generally used at the time of image diagnosis are estimated from time information, but when each time phase is defined as in the imaging time phase calculation table A shown in FIG. For example, even in the same portal vein phase, there is a width of 100 [sec] between them, and the CT of the same part is taken depending on whether it was taken at an early stage or later at 100 [sec]. The value may change and the features that appear in the image may be different. In order to cope with such a case, the photographing time phase is further divided and defined.

図7は、上記の4つの撮影時相をそれぞれ前期と後期に分けて定義した撮影時相算出表Bの例を示している。このように時相を設定することで、図8の抽出処理種別決定表Bに例示するように、更に詳細な時間間隔での抽出処理種別を設定でき、従来よりも細かい撮影時相に対応した画像処理を実行できる。   FIG. 7 shows an example of a photographing time phase calculation table B in which the above four photographing time phases are defined separately for the first and second periods. By setting the time phase in this way, it is possible to set the extraction process type at a more detailed time interval, as illustrated in the extraction process type determination table B of FIG. Image processing can be executed.

また、一般的に適用される撮影タイミングから外れた時刻に撮影している場合、その患者や患部は、設定した抽出処理種別による自動抽出処理に必要な特徴をもたない可能性も考えられる。例えば図5に示したような、患部や臓器に対する造影剤の流入および流出にかかる時間が、一般的に考えられている時間よりも短い場合や長い場合などである。この場合、造影剤による影響が一般的な挙動となってCT値に現れることを想定した抽出処理種別による処理では、自動抽出に失敗することや、その抽出精度が低いものとなる可能性もある。   In addition, when photographing is performed at a time deviating from the generally applied photographing timing, there is a possibility that the patient or the affected part does not have the characteristics necessary for the automatic extraction processing according to the set extraction processing type. For example, as shown in FIG. 5, the time taken for the inflow and outflow of the contrast agent to the affected part or organ is shorter or longer than the generally considered time. In this case, in the processing based on the extraction processing type assuming that the influence of the contrast agent becomes a general behavior and appears in the CT value, there is a possibility that automatic extraction fails or the extraction accuracy is low. .

図9に示した撮影時相算出表Cは、撮影時相に加え、撮影タイミングと自動抽出尤度を(撮影時刻−造影剤注入時刻)[sec]から推定する撮影算出表の例である。自動抽出尤度は、自動抽出結果の尤もらしさを表す尺度として設定するものであり、自動抽出尤度が高ければ、尤もらしい(抽出に成功している可能性が高い)、低ければ尤もらしくない(抽出に失敗している可能性が高い)と判断する。
撮影時相推定部31は撮影時相算出表Cを参照することで自動抽出尤度の推定が可能となり、例えばこの情報を画像処理アルゴリズム実行部22に自動抽出尤度を転送し、抽出結果の表示と同時に、自動抽出の尤度の高低を操作者に対して参考値として表示する。
The imaging time phase calculation table C shown in FIG. 9 is an example of an imaging calculation table for estimating imaging timing and automatic extraction likelihood from (imaging time-contrast medium injection time) [sec] in addition to the imaging time phase. The automatic extraction likelihood is set as a measure of the likelihood of the automatic extraction result. If the automatic extraction likelihood is high, the likelihood is high (the possibility of successful extraction is high), and if it is low, the likelihood is not high. (It is highly likely that the extraction has failed).
The shooting time phase estimation unit 31 can estimate the automatic extraction likelihood by referring to the shooting time phase calculation table C. For example, this information is transferred to the image processing algorithm execution unit 22 to transfer the automatic extraction likelihood. Simultaneously with the display, the likelihood of automatic extraction is displayed as a reference value to the operator.

または、撮影時相推定部31にて推定した撮影タイミングの情報を領域抽出処理種別決定部32へ転送することもできる。領域抽出処理種別決定部32は、図10に例示する抽出処理種別決定表Cを参照し、撮影タイミングの情報を含めて、最適な領域抽出処理種別を決定する。   Alternatively, information on the photographing timing estimated by the photographing time phase estimation unit 31 can be transferred to the region extraction processing type determination unit 32. The area extraction process type determination unit 32 refers to the extraction process type determination table C illustrated in FIG. 10 and determines an optimum area extraction process type including information on the photographing timing.

また、DICOMヘッダの中には、時間情報以外にも、例えば被験者の体重、身長、年令等の身体情報なども含まれる。領域抽出処理種別決定部32では、これらの情報を参照することで、更に精度の高い抽出処理種別を決定することもできる。例えば身長の高い被験者や、体重が重い被験者は、身長が低い被験者や、同身長で体重が低い被験者と比較すると、身体の体積が一般的に大きいと考えられ、そのため造影剤注入位置から抽出対象となる臓器や疾患部位までの物理的距離は一般的に遠くなるといえる。従って造影剤注入開始から撮影開始までの時間が同じであったとしても、身長の高い被験者や体重が重い被験者については、抽出対象部位への造影剤の流入は比較的少ないと考えることができる。このため、被験者の身体の体積に応じて抽出処理種別を調整することで、抽出精度の向上が期待できる。   In addition to the time information, the DICOM header includes physical information such as the subject's weight, height, age, and the like. The area extraction process type determination unit 32 can determine an extraction process type with higher accuracy by referring to these pieces of information. For example, a subject with a high height or a subject with a heavy weight is generally considered to have a larger body volume compared to a subject with a short height or a subject with the same height and low weight. It can be said that the physical distance to the organ or diseased site is generally farther. Therefore, even if the time from the start of contrast medium injection to the start of imaging is the same, it can be considered that the flow of contrast medium into the extraction target region is relatively small for subjects with a high height or subjects with a heavy weight. For this reason, improvement in extraction accuracy can be expected by adjusting the extraction processing type according to the body volume of the subject.

図11には、身長と体重から体格指数を算出する場合の体格指数算出表の例と、体格指数を用いて抽出パラメータを補正する場合の抽出パラメータ補正式の例を示した。ただし、抽出パラメメータ補正式の例におけるAは体格指数算出表により算出された体格指数の一例であり、pは抽出処理種別決定表により決定された抽出パラメータの一例を示す。領域抽出処理種別決定部32では、この表から得られた体格指数を用い、抽出処理種別決定表で決定した各抽出パラメータを、抽出パラメータ補正式に従って補正する。前述のように、被験者の身体が大きい場合には造影剤が患部に到達するまでの時間が長く、また患部から造影剤が抜けるまでの時間も長いと考えられるため、例えば前述のRegionGrowingの例の場合、パラメータa、bを小さい値に設定することで抽出の精度が向上する可能性がある。 FIG. 11 shows an example of a physique index calculation table when the physique index is calculated from the height and weight, and an example of an extraction parameter correction formula when the extraction parameter is corrected using the physique index. However, A n in the example of the extraction Paramemeta correction equation is an example of a body mass index calculated by the body mass index calculation table, p r shows an example of the extracted parameters determined by the extraction process type determination table. The area extraction process type determination unit 32 uses the physique index obtained from this table to correct each extraction parameter determined in the extraction process type determination table according to the extraction parameter correction formula. As described above, when the subject's body is large, it takes a long time for the contrast medium to reach the affected area, and it also takes a long time for the contrast medium to escape from the affected area. In this case, the extraction accuracy may be improved by setting the parameters a and b to small values.

また、DICOMタグには、(0018、1041)というタグで定義されるContrast/Bolus Volumeもあり、これは注入した造影剤の量を示す項目であるが、一般に使われる量よりも造影剤の量が多い場合、造影剤が組織から完全に抜け切るまでの時間が一般の場合よりも長くなると考えられる。領域抽出処理種別決定部32では、造影剤量に応じて調整した抽出パラメータを利用することもできる。   In addition, the DICOM tag includes Contrast / Bolus Volume defined by tags (0018, 1041). This is an item indicating the amount of contrast medium injected, but the amount of contrast medium is larger than the amount generally used. When there is a large amount, it is considered that the time until the contrast agent completely leaves the tissue is longer than in the general case. The region extraction process type determination unit 32 can also use an extraction parameter adjusted according to the contrast medium amount.

これ以外にも、医用画像に付随する情報としてはDICOMタグ以外にも、例えば電子カルテに記載される情報を取得することもできる。例えば化学療法による治療では、治療の過程で注入した薬品等によっては、医用画像上に特異な特徴を示す場合がある。例としてリピオドール肝動脈塞栓療法(TAE)は、それを施行する際にリピオドールと呼ばれるリンパ造影剤の一種を混合することが推奨されている、リピオドールは、通常は数日で患部から流出するが、古典的肝細胞癌には滞留するという性質を有している。腫瘍の抽出を目的として自動抽出処理を行う場合には、未処置の腫瘍領域と、TAE処置後の腫瘍領域は別のものとして認識する必要がある。電子カルテにオーダーの情報としてTAE処置後かどうかが記載されている場合、リピオドール注入済みかどうかが判定可能となるため、領域抽出処理種別決定部32では、これら治療オーダーの情報を、抽出処理に反映させることが可能となる。   In addition to this, as information attached to a medical image, for example, information described in an electronic medical record can be acquired in addition to a DICOM tag. For example, in the treatment by chemotherapy, depending on the medicine or the like injected in the course of treatment, a unique feature may be displayed on the medical image. As an example, Lipiodol Hepatic Arterial Embolization (TAE) is recommended to mix one kind of lymphatic contrast agent called Lipiodol when performing it, Lipiodol usually flows out of the affected area in a few days, It has the property of staying in classic hepatocellular carcinoma. When automatic extraction processing is performed for the purpose of tumor extraction, an untreated tumor region and a tumor region after TAE treatment need to be recognized as different. When it is described in the electronic medical record whether or not TAE treatment is performed as order information, it is possible to determine whether or not lipiodol has been injected. Therefore, the region extraction process type determination unit 32 uses the treatment order information in the extraction process. It can be reflected.

以上により、三次元医用画像から特定の領域を抽出する場合の抽出処理において、医用画像ボリュームデータから時間情報を取得することで、人手による処理を減少させる画像処理方法、画像処理装置、及びプログラムを提供することができる。   As described above, the image processing method, the image processing apparatus, and the program that reduce the manual processing by acquiring time information from the medical image volume data in the extraction process when extracting a specific region from the three-dimensional medical image. Can be provided.

10:外部記憶装置、11:画像処理装置、12:入力装置、13:表示装置、20:内部メモリ、21:自動領域抽出部、22:画像処理アルゴリズム実行部、30:時間情報取得部、31:撮影時相推定部、32:領域抽出処理種別決定部、33:領域抽出処理実行部。   10: external storage device, 11: image processing device, 12: input device, 13: display device, 20: internal memory, 21: automatic area extraction unit, 22: image processing algorithm execution unit, 30: time information acquisition unit, 31 : Shooting time phase estimation unit, 32: region extraction process type determination unit, 33: region extraction process execution unit.

Claims (12)

医用画像の入力ボリュームデータに、特定の画像処理アルゴリズムを適用する画像処理装置であって、
前記入力ボリュームデータから前記医用画像の撮影時刻に関連する時間情報を取得する時間情報取得手段と、
前記時間情報取得手段により取得された時間情報に基づいて、前記医用画像の撮影時相を推定する撮影時相推定手段と、
前記撮影時相推定手段により推定された前記撮影時相に応じて、前記医用画像から画像処理対象の領域を抽出する領域抽出アルゴリズム及び前記領域抽出アルゴリズムの実行に必要なパラメータを含む領域抽出処理種別を決定する領域抽出処理種別決定手段と、
前記領域抽出処理種別決定手段により決定した種別の前記領域抽出処理により、前記入力ボリュームデータに対して領域抽出処理を実行する領域抽出処理実行手段とを有する領域抽出部、並びに、
前記領域抽出処理実行手段により抽出された領域のボリュームデータに対して、前記特定の画像処理アルゴリズムを実行する画像処理アルゴリズム実行部を設けることを特徴とする画像処理装置。
An image processing apparatus that applies a specific image processing algorithm to input volume data of a medical image,
Time information acquisition means for acquiring time information related to the imaging time of the medical image from the input volume data;
Based on the time information acquired by the time information acquisition means, imaging time phase estimation means for estimating the imaging time phase of the medical image;
A region extraction algorithm for extracting an image processing target region from the medical image according to the photographing time phase estimated by the photographing time phase estimation means, and a region extraction processing type including parameters necessary for executing the region extraction algorithm Region extraction processing type determination means for determining
A region extraction unit having a region extraction processing execution unit for performing region extraction processing on the input volume data by the region extraction processing of the type determined by the region extraction processing type determination unit;
An image processing apparatus, comprising: an image processing algorithm execution unit that executes the specific image processing algorithm on the volume data of the region extracted by the region extraction processing execution means.
請求項1に記載の画像処理装置であって、
前記時間情報取得手段は、前記入力ボリュームデータがマルチスライスの医用画像に対応する複数のボリュームデータである場合に、複数の前記ボリュームデータのそれぞれから前記時間情報を取得し、
前記撮影時相推定手段は、前記時間情報取得手段により取得されたそれぞれの前記時間情報に基づいて、前記マルチスライスの医用画像に対応する、それぞれの前記撮影時相を推定し、
前記領域抽出処理種別決定手段は、前記撮影時相手段により推定されたそれぞれの前記撮影時相に応じて、それぞれの前記領域抽出処理種別を決定することを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
When the input volume data is a plurality of volume data corresponding to a multi-slice medical image, the time information acquisition means acquires the time information from each of the plurality of volume data,
The imaging time phase estimation means estimates each imaging time phase corresponding to the multi-slice medical image based on each time information acquired by the time information acquisition means,
The image processing apparatus according to claim 1, wherein the region extraction processing type determination unit determines each of the region extraction processing types according to each of the shooting time phases estimated by the shooting time phase unit.
請求項1に記載の画像処理装置であって、
前記撮影時相推定手段は、前記撮影時相よりも細かい時間間隔で定義される準撮影時相を推定し、
前記抽出処理種別決定手段は、前記撮影時相推定手段により推定された前記撮影時相と前記準撮影時相に応じて、前記領域抽出処理種別を決定することを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
The shooting time phase estimation means estimates a quasi-shooting time phase defined by a time interval finer than the shooting time phase,
The image processing apparatus according to claim 1, wherein the extraction processing type determination unit determines the region extraction processing type according to the shooting time phase and the semi-shooting time phase estimated by the shooting time phase estimation unit.
請求項1に記載の画像処理装置であって、
前記撮影時相推定手段は、前記時間情報取得手段により取得された前記時間情報を用いて、前記入力ボリュームデータの自動抽出尤度を推定する自動抽出尤度推定手段を含み、
前記画像処理アルゴリズム実行部は、前記自動抽出尤度を前記特定の画像処理アルゴリズムの実行結果と同時に表示することを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
The shooting time phase estimation means includes automatic extraction likelihood estimation means for estimating an automatic extraction likelihood of the input volume data using the time information acquired by the time information acquisition means,
The image processing algorithm execution unit displays the automatic extraction likelihood simultaneously with the execution result of the specific image processing algorithm.
請求項1に記載の画像処理装置であって、
前記領域抽出処理種別決定手段は、前記入力ボリュームデータに付随する被験者の情報を取得し、取得した前記被験者情報を用いて、決定した種別の前記領域抽出処理を補正することを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
The area extraction process type determination means acquires information on a subject associated with the input volume data, and corrects the area extraction process of the determined type using the acquired subject information. apparatus.
請求項1に記載の画像処理装置であって、
前記領域抽出処理種別決定手段は、前記入力ボリュームデータに付随する治療オーダーに関する情報を取得し、取得した前記治療オーダーの情報を用いて、決定した種別の前記領域抽出処理を補正することを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
The region extraction process type determining means acquires information on a treatment order accompanying the input volume data, and corrects the region extraction process of the determined type using the acquired information on the treatment order. An image processing apparatus.
領域抽出部と画像処理アルゴリズム実行部を有する画像処理装置における、医用画像の入力ボリュームデータに、特定の画像処理アルゴリズムを適用する画像処理方法であって、前記領域抽出部は、
前記入力ボリュームデータから前記医用画像の撮影時刻に関連する時間情報を取得する時間情報取得ステップと、
前記時間情報取得ステップにおいて取得された時間情報に基づいて、前記医用画像の撮影時相を推定する撮影時相推定ステップと、
前記撮影時相推定ステップにおいて推定された前記撮影時相に応じて、前記医用画像から画像処理対象の領域を抽出する領域抽出アルゴリズム及び前記領域抽出アルゴリズムの実行に必要なパラメータを含む領域抽出処理種別を決定する領域抽出処理種別決定ステップと、
前記領域抽出処理種別決定ステップにおいて決定した種別の領域抽出処理により、前記入力ボリュームデータに対して領域抽出処理を実行する領域抽出処理実行ステップとを有し、
画像処理アルゴリズム実行部は、前記領域抽出処理実行ステップにおいて抽出された領域のボリュームデータに対して、前記特定の画像処理アルゴリズムを実行することを特徴とする画像処理方法。
An image processing method for applying a specific image processing algorithm to input volume data of a medical image in an image processing apparatus having an area extraction unit and an image processing algorithm execution unit, wherein the region extraction unit includes:
A time information acquisition step of acquiring time information related to the imaging time of the medical image from the input volume data;
Based on the time information acquired in the time information acquisition step, an imaging time phase estimation step for estimating an imaging time phase of the medical image;
A region extraction algorithm for extracting a region to be image-processed from the medical image according to the photographing time phase estimated in the photographing time phase estimation step, and a region extraction processing type including parameters necessary for executing the region extraction algorithm Region extraction processing type determination step for determining
A region extraction processing execution step for performing region extraction processing on the input volume data by the region extraction processing of the type determined in the region extraction processing type determination step;
The image processing algorithm execution unit executes the specific image processing algorithm on the volume data of the region extracted in the region extraction processing execution step.
請求項7に記載の画像処理方法であって、
前記時間情報取得ステップは、前記入力ボリュームデータがマルチスライスの医用画像に対応する複数のボリュームデータである場合に、複数の前記ボリュームデータのそれぞれから前記時間情報を取得し、
前記撮影時相推定ステップは、前記時間情報取得ステップにおいて取得されたそれぞれの前記時間情報に基づいて、前記マルチスライスの医用画像に対応する、それぞれの前記撮影時相を推定し、
前記領域抽出処理種別決定ステップは、前記撮影時相ステップにおいて推定されたそれぞれの前記撮影時相に応じて、それぞれの前記領域抽出処理種別を決定することを特徴とする画像処理方法。
The image processing method according to claim 7, comprising:
In the time information acquisition step, when the input volume data is a plurality of volume data corresponding to a multi-slice medical image, the time information is acquired from each of the plurality of volume data,
The imaging time phase estimation step estimates each imaging time phase corresponding to the multi-slice medical image based on the time information acquired in the time information acquisition step,
The region extraction processing type determination step determines each of the region extraction processing types according to each of the shooting time phases estimated in the shooting time phase step.
請求項7に記載の画像処理方法であって、
前期撮影時相推定ステップは、前記撮影時相よりも細かい時間間隔で定義される準撮影時相を推定し、
前記抽出処理種別決定ステップは、前記撮影時相推定ステップにおいて推定された前記撮影時相と前記準撮影時相に応じて、前記領域抽出処理種別を決定することを特徴とする画像処理方法。
The image processing method according to claim 7, comprising:
The pre-shooting time phase estimation step estimates a quasi-shooting time phase defined by a time interval finer than the shooting time phase,
The extraction processing type determination step determines the region extraction processing type according to the shooting time phase and the semi-shooting time phase estimated in the shooting time phase estimation step.
請求項7に記載の画像処理方法であって、
前記撮影時相推定ステップは、前記時間情報取得ステップにおいて取得された前記時間情報を用いて、前記入力ボリュームデータの自動抽出尤度を推定し、
前記画像処理アルゴリズム実行部は、前期自動抽出尤度を前記特定の画像処理アルゴリズムの実行結果と同時に表示することを特徴とする画像処理方法。
The image processing method according to claim 7, comprising:
The imaging time phase estimation step estimates the automatic extraction likelihood of the input volume data using the time information acquired in the time information acquisition step,
The image processing algorithm execution unit displays the previous automatic extraction likelihood simultaneously with the execution result of the specific image processing algorithm.
請求項7に記載の画像処理方法であって、
前記領域抽出処理種別決定ステップは、前記入力ボリュームデータに付随する被験者の情報を取得し、取得した前記被験者情報を用いて、決定した種別の前記領域抽出処理を補正することを特徴とする画像処理方法。
The image processing method according to claim 7, comprising:
The region extraction processing type determination step acquires subject information associated with the input volume data, and corrects the region extraction processing of the determined type using the acquired subject information. Method.
請求項7に記載の画像処理方法であって、
前記領域抽出処理種別決定ステップは、前記入力ボリュームデータに付随する治療オーダーに関する情報を取得し、取得した前記治療オーダーの情報を用いて決定した種別の前記領域抽出処理を補正することを特徴とする画像処理方法。
The image processing method according to claim 7, comprising:
The region extraction process type determination step acquires information relating to a treatment order accompanying the input volume data, and corrects the region extraction process of the type determined using the acquired treatment order information. Image processing method.
JP2010087021A 2010-04-05 2010-04-05 Image processing apparatus and method Expired - Fee Related JP5357818B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010087021A JP5357818B2 (en) 2010-04-05 2010-04-05 Image processing apparatus and method
PCT/JP2011/052437 WO2011125369A1 (en) 2010-04-05 2011-02-04 Image processing device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010087021A JP5357818B2 (en) 2010-04-05 2010-04-05 Image processing apparatus and method

Publications (2)

Publication Number Publication Date
JP2011217797A true JP2011217797A (en) 2011-11-04
JP5357818B2 JP5357818B2 (en) 2013-12-04

Family

ID=44762335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010087021A Expired - Fee Related JP5357818B2 (en) 2010-04-05 2010-04-05 Image processing apparatus and method

Country Status (2)

Country Link
JP (1) JP5357818B2 (en)
WO (1) WO2011125369A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017064370A (en) * 2015-09-29 2017-04-06 キヤノン株式会社 Image processing device, and method and program for controlling image processing device

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3150125B1 (en) 2015-09-29 2021-03-10 Canon Kabushiki Kaisha Image processing apparatus, method of controlling image processing apparatus, and storage medium
WO2018077707A1 (en) 2016-10-28 2018-05-03 Koninklijke Philips N.V. Automatic ct detection and visualization of active bleeding and blood extravasation

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008188164A (en) * 2007-02-02 2008-08-21 Fujifilm Corp Radiation imaging apparatus, radiation imaging method and program
JP2009504297A (en) * 2005-08-17 2009-02-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for automatic 4D coronary modeling and motion vector field estimation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009504297A (en) * 2005-08-17 2009-02-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for automatic 4D coronary modeling and motion vector field estimation
JP2008188164A (en) * 2007-02-02 2008-08-21 Fujifilm Corp Radiation imaging apparatus, radiation imaging method and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017064370A (en) * 2015-09-29 2017-04-06 キヤノン株式会社 Image processing device, and method and program for controlling image processing device
US10672111B2 (en) 2015-09-29 2020-06-02 Canon Kabushiki Kaisha Image processing apparatus, method of controlling image processing apparatus, and storage medium that extract a region representing an anatomical portion of an object from an image by segmentation processing

Also Published As

Publication number Publication date
WO2011125369A1 (en) 2011-10-13
JP5357818B2 (en) 2013-12-04

Similar Documents

Publication Publication Date Title
JP6410753B2 (en) A model for drug propagation and parameter generation for infusion protocols
US9569839B2 (en) Image processing apparatus, method and medical image device
BR112020007105A2 (en) method for training a diagnostic imaging device to perform a medical diagnostic imaging with a reduced dose of contrast agent
EP2577605B1 (en) Automated quantification of intravascular embolization success
JP2002345807A (en) Method for extracting specified region of medical care image
EP3359041B1 (en) Mobile ffr simulation
US8520923B2 (en) Reporting organ volume for a medical digital image
US20160292844A1 (en) Medical image registration apparatus, medical image registration method, and medical image registration program
JP2008043564A (en) Domain definer
WO2004024001A1 (en) Blood flow dynamic analyzer and its method, and image diagnostic apparatus
US10438364B2 (en) System and method for registration of perfusion images
JP5357818B2 (en) Image processing apparatus and method
Gill et al. An investigation into the effects of temporal resolution on hepatic dynamic contrast-enhanced MRI in volunteers and in patients with hepatocellular carcinoma
Bliznakova et al. Computer aided preoperative evaluation of the residual liver volume using computed tomography images
US10482597B2 (en) Automated method for tissue-based contrast media arrival detection for dynamic contrast enhanced MRI
JP5750381B2 (en) Region extraction processing system
Myint et al. Effective kidney segmentation using gradient based approach in abdominal CT images
JP2011224275A (en) Image processing apparatus, method and program
Wang et al. Performance of automated software in the assessment of segmental left ventricular function in cardiac CT: comparison with cardiac magnetic resonance
JP2020039702A (en) Medical image extraction device, medical image extraction method, and computer program
KR101886936B1 (en) The method and apparatus for enhancing contrast of ultrasound image using probabilistic edge map
US20230237655A1 (en) Medical image processing device, method for operating medical image processing device, and program
Becker et al. Muscle tissue labeling of human lower extremities in multi-channel mDixon MR imaging: Concepts and applications
CN117242362A (en) Characterization of liver lesions using dynamic contrast enhanced magnetic resonance tomography
Strzelecki et al. Analysis of the Hand’s Small Vessels Based on MR Angiography and Level-Set Approach

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130830

R150 Certificate of patent or registration of utility model

Ref document number: 5357818

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees