JPWO2015052922A1 - Image processing apparatus, image processing method, and computer program - Google Patents

Image processing apparatus, image processing method, and computer program Download PDF

Info

Publication number
JPWO2015052922A1
JPWO2015052922A1 JP2015541439A JP2015541439A JPWO2015052922A1 JP WO2015052922 A1 JPWO2015052922 A1 JP WO2015052922A1 JP 2015541439 A JP2015541439 A JP 2015541439A JP 2015541439 A JP2015541439 A JP 2015541439A JP WO2015052922 A1 JPWO2015052922 A1 JP WO2015052922A1
Authority
JP
Japan
Prior art keywords
region
area
aorta
pixel
main
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015541439A
Other languages
Japanese (ja)
Other versions
JP6479671B2 (en
Inventor
寿広 篠原
寿広 篠原
佐藤 守男
守男 佐藤
信行 河合
信行 河合
聖記 細川
聖記 細川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kinki University
Wakayama Medical University
Original Assignee
Kinki University
Wakayama Medical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kinki University, Wakayama Medical University filed Critical Kinki University
Publication of JPWO2015052922A1 publication Critical patent/JPWO2015052922A1/en
Application granted granted Critical
Publication of JP6479671B2 publication Critical patent/JP6479671B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/504Clinical applications involving diagnosis of blood vessels, e.g. by angiography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Abstract

被検体断層撮影三次元画像を画像処理することにより、大動脈から腫瘍等への経路になる血管を特定する技術を提供する。複数の断層画像から三次元画像データとなる全領域を作る画像形成部と、前記全領域から大動脈に繋がる主領域を抽出する主領域抽出部と前記主領域から大動脈だけを示す大動脈領域を抽出する大動脈領域抽出部と、前記全領域から患部を含む患部領域を求める患部領域抽出部と、前記患部領域から前記大動脈領域までをつなぐ目的血管領域を求める目的血管抽出部とを有することを特徴とする画像処理装置。Provided is a technique for identifying a blood vessel that becomes a path from an aorta to a tumor or the like by performing image processing on a tomographic image of a subject. An image forming unit that creates an entire region as 3D image data from a plurality of tomographic images, a main region extracting unit that extracts a main region connected to the aorta from the entire region, and an aortic region that indicates only the aorta from the main region An aorta region extraction unit, an affected region extraction unit for obtaining an affected region including the affected region from all the regions, and a target blood vessel extraction unit for obtaining a target blood vessel region connecting the affected region to the aorta region Image processing device.

Description

本発明は人体断層撮影三次元画像のような被検体断層撮影三次元画像の画像処理装置、画像処理方法、及びコンピュータプログラムに関する。詳しくは、例えば、コンピュータ断層撮影(Computed Tomography、CT)や、核磁気共鳴画像法(Magnetic Resonance Imaging、 MRI)で撮影された被検体断層撮影三次元画像を画像処理することにより、大動脈から枝分かれした血管であって、腫瘍や出血部等と大動脈とをつなぐ血管の経路を特定するための技術に関する。   The present invention relates to an image processing apparatus, an image processing method, and a computer program for subject tomography three-dimensional images such as human tomography three-dimensional images. Specifically, for example, the tomographic three-dimensional image taken by computed tomography (CT) or nuclear magnetic resonance imaging (MRI) was image-processed to branch from the aorta. The present invention relates to a technique for specifying a path of a blood vessel that connects a tumor, a bleeding part, and the like to an aorta.

悪性腫瘍(がん)患者の治療方法の一つとして、カテーテルを用いて大動脈に抗がん剤を注液し、大動脈から枝分かれした血管につながる腫瘍に抗がん剤を送ることにより腫瘍の増殖を抑制させる方法が知られている。しかしながら、このような方法によれば、腫瘍の細胞だけでなく、腫瘍のない正常な臓器の細胞にまで抗がん剤が送られてしまい、抗がん剤の副作用により正常な細胞まで傷つけてしまうという問題があった。このような問題を解決する方法として、大動脈と腫瘍とをつなぐ血管の経路を特定し、大動脈からその血管のみを介して腫瘍のみに抗がん剤を送り届ける方法が試みられている。   As one of the treatment methods for patients with malignant tumor (cancer), tumor growth is achieved by injecting an anticancer drug into the aorta using a catheter and sending the anticancer drug to the tumor that leads to the blood vessels branched from the aorta. A method for suppressing the above is known. However, according to such a method, the anticancer agent is sent not only to the tumor cells but also to the cells of the normal organ without the tumor, and the normal cells are damaged by the side effects of the anticancer agents. There was a problem that. As a method for solving such a problem, a method of specifying a path of a blood vessel connecting an aorta and a tumor and delivering an anticancer agent only from the aorta to the tumor via only the blood vessel has been attempted.

また、外傷性の出血などが発生した場合、血管の出血部分から大動脈につながる血管を特定して止血処置を早期に施すことにより、傷病者の症状の悪化を抑制できることも多い。   Moreover, when traumatic hemorrhage etc. generate | occur | produce, the deterioration of the symptom of a sick person can be suppressed by specifying the blood vessel connected to the aorta from the bleeding part of a blood vessel, and giving a hemostatic treatment early.

ところで、血管脈は複雑な網状構造を有している。また、その網状構造は、個人差が大きい。そのために、大動脈と腫瘍とをつなぐ血管を探し当てたり、大動脈と出血源とをつなぐ血管経路を特定したりすることは困難であった。従来は、訓練された放射線技師等の医療従事者が、時間をかけて被検体断層撮影三次元画像から大動脈と腫瘍とをつなぐ血管を読み取ることも行われていた。しかしながら、医療従事者の不足から、医療現場においてこのような技能を有する人材を多く育てることは困難である。そこで、個人の技能によらず、より効率的に大動脈と腫瘍とをつなぐ血管を探し当てる技術が求められていた。   By the way, the blood vessel has a complex network structure. Moreover, the network structure has a great individual difference. For this reason, it has been difficult to find a blood vessel that connects the aorta and the tumor, or to specify a blood vessel path that connects the aorta and the bleeding source. Conventionally, a medical staff such as a trained radiographer has taken time to read a blood vessel connecting an aorta and a tumor from a tomographic three-dimensional image. However, due to the shortage of medical workers, it is difficult to nurture many human resources with such skills in the medical field. Therefore, there has been a demand for a technique for finding blood vessels that connect the aorta and tumor more efficiently, regardless of individual skills.

画像処理技術により、画像データから対象の血管構造を抽出する方法は、すでに提案さされているものがある。例えば、特許文献1は、画像データから対象の血管構造の画像的特徴を有する領域を検出し、検出された領域を細線化処理して得られた細線を分枝点および所定の距離等により分割することによりグラフを作成し、作成されたグラフに対して対象の血管構造の一般的な形状を表す木構造の形状モデルをフィッティングさせることにより、血管の木構造を抽出することが開示されている。   A method for extracting a target blood vessel structure from image data by an image processing technique has already been proposed. For example, Patent Document 1 detects a region having an image characteristic of a target blood vessel structure from image data, and divides a thin line obtained by thinning the detected region by a branch point, a predetermined distance, and the like. It is disclosed to extract a blood vessel tree structure by creating a graph and fitting a shape model of a tree structure representing a general shape of a target blood vessel structure to the created graph. .

特開2011−98195号公報JP2011-98195A

本発明は、被検体断層撮影三次元画像を画像処理することにより、医療従事者の個人の技能によらず、腫瘍や血管の出血部と大動脈とをつなぐ血管を効率的に特定できる技術を提供することを目的とする。   The present invention provides a technique that can efficiently identify a blood vessel connecting a tumor or blood vessel bleeding part and an aorta by performing image processing on a tomographic three-dimensional image of a subject without depending on the individual skill of a medical worker. The purpose is to do.

すなわち、本発明の一局面の画像処理装置は、
複数の断層画像から三次元画像データとなる全領域を作る画像形成部と、
前記全領域から大動脈に繋がる主領域を抽出する主領域抽出部と
前記主領域から大動脈だけを示す大動脈領域を抽出する大動脈領域抽出部と、
前記全領域から患部を含む患部領域を求める患部領域抽出部と、
前記患部領域から前記大動脈領域までをつなぐ目的血管領域を求める目的血管抽出部とを有することを特徴とする。
That is, an image processing apparatus according to one aspect of the present invention provides:
An image forming unit that creates an entire area to be 3D image data from a plurality of tomographic images;
A main region extracting unit for extracting a main region connected to the aorta from the entire region, and an aortic region extracting unit for extracting an aortic region indicating only the aorta from the main region;
An affected area extraction unit for obtaining an affected area including the affected area from the entire area;
And a target blood vessel extraction unit that obtains a target blood vessel region that connects the affected area to the aorta region.

本発明の画像処理装置によれば、被検体の腫瘍(若しくは出血部)及び大動脈を含む対象領域を断層撮影して得られた複数の断層画像からなる断層画像群から構成された三次元画像を全領域とし、この全領域に対して一連の画像処理が実行される。   According to the image processing apparatus of the present invention, a three-dimensional image composed of a tomographic image group composed of a plurality of tomographic images obtained by tomographic imaging of a target region including a tumor (or a bleeding part) and an aorta of a subject is obtained. The entire area is set, and a series of image processing is executed on the entire area.

具体的には、中心抽出部により、例えば、断層画像群から選択された少なくとも1枚の断層画像を2値化し、距離変換処理するような方法により大動脈の断面の中心を抽出し、主領域抽出部により、その中心を初期領域として領域拡張処理することにより、大動脈と大動脈から分岐する枝血管や骨や臓器等のその他の領域を含むような主領域が抽出される。   Specifically, for example, at least one tomographic image selected from the tomographic image group is binarized by the center extracting unit, and the center of the cross section of the aorta is extracted by a method such as distance conversion processing, and main region extraction is performed. By performing region expansion processing using the center as an initial region, a main region that includes the aorta and other regions such as branch blood vessels branching from the aorta and bones and organs is extracted.

そして、主領域を収縮処理することにより、大動脈の芯部の領域と枝血管や骨や臓器等のその他の領域を分離する。そして、芯部抽出部により抽出された芯部の領域とその他の領域を含む領域に対して、上記中心を初期領域として領域拡張処理を施すことにより、枝血管や骨や臓器等のその他の領域を消去して大動脈の芯部のみの領域が抽出される。そして、膨張処理部により、抽出された芯部の領域を膨張処理することにより大動脈の領域(大動脈領域)が復元される。   Then, the main region is contracted to separate the core region of the aorta from other regions such as branch vessels, bones, and organs. Then, the region including the core region extracted by the core extraction unit and the other region is subjected to region expansion processing using the center as the initial region, so that other regions such as branch vessels, bones, and organs are obtained. The region of only the core part of the aorta is extracted. Then, the aorta region (aorta region) is restored by expanding the extracted core region by the expansion processing unit.

一方で、腫瘍位置設定部において、三次元画像上で目的とする腫瘍上の任意の設定点を指定し、腫瘍領域抽出部において、その設定点を初期領域として徐々に領域拡張処理することにより腫瘍(若しくは出血部)の領域(患部領域)を抽出する。   On the other hand, the tumor position setting unit specifies an arbitrary set point on the target tumor on the three-dimensional image, and the tumor region extraction unit gradually performs region expansion processing using the set point as an initial region. An area (affected area) of (or a bleeding part) is extracted.

そして、重なり領域検出部により、患部領域と主領域とが重なり合った部分である重なり領域を検出する。そして、目的血管抽出部により、三次元画像に対して重なり領域を初期領域として領域拡張処理することにより腫瘍(若しくは出血部)と大動脈とをつなぐ目的とする血管を抽出できる。   Then, the overlapping region detection unit detects an overlapping region that is a portion where the affected region and the main region overlap. Then, the target blood vessel extraction unit can extract a target blood vessel that connects the tumor (or bleeding portion) and the aorta by performing region expansion processing on the three-dimensional image using the overlapping region as an initial region.

本発明によれば、例えば、CTやMRIで撮影した被検体の断層撮影三次元画像を画像処理することにより、大動脈と腫瘍や出血部等とをつなぐ血管を容易に特定することができる。   According to the present invention, for example, by processing a tomographic three-dimensional image of a subject imaged by CT or MRI, a blood vessel connecting an aorta and a tumor, a bleeding part, or the like can be easily specified.

図1は、第一実施形態の画像処理装置100を備えた医用画像診断システムの装置構成を示すブロック図である。FIG. 1 is a block diagram illustrating a device configuration of a medical image diagnostic system including an image processing device 100 according to the first embodiment. 図2は、画像処理装置100の画像処理部を説明する説明図である。FIG. 2 is an explanatory diagram illustrating an image processing unit of the image processing apparatus 100. 図3は、第一実施形態の画像処理方法の処理の一連の流れを示すフローチャートを示す。FIG. 3 is a flowchart showing a series of processes of the image processing method according to the first embodiment. 図4は、第一実施形態の画像処理方法の各工程による処理を図示した模式図である。FIG. 4 is a schematic diagram illustrating processing in each step of the image processing method according to the first embodiment. 図5は、領域拡張処理のフローチャートを示す。FIG. 5 shows a flowchart of the area expansion process. 図6は、履歴付き領域拡張処理のフローチャートを示す。FIG. 6 shows a flowchart of the history-added area expansion process. 図7は、履歴付き領域拡張処理を二次元で説明する説明図である。FIG. 7 is an explanatory diagram for explaining the area expansion process with history in two dimensions. 図8は、図7から履歴付き領域拡張処理を複数回繰り返した状態を示す図である。FIG. 8 is a diagram showing a state in which the history-added region expansion process is repeated a plurality of times from FIG. 図9は、体積画素c1について隣接する体積画素が調べられる状態を説明する図である。FIG. 9 is a diagram illustrating a state in which adjacent volume pixels are examined for the volume pixel c1. 図10は、新たに拡張された体積画素d1〜d4が求められた状態を説明する図である。FIG. 10 is a diagram illustrating a state in which newly expanded volume pixels d1 to d4 are obtained. 図11は、体積画素c2について隣接する体積画素が調べられる状態を説明する図である。FIG. 11 is a diagram illustrating a state in which adjacent volume pixels are examined for the volume pixel c2. 図12は、パスが求められた状態を説明する図である。FIG. 12 is a diagram illustrating a state where a path is obtained. 図13は、第一実施形態の画像処理装置により得られた画像を説明するための説明図である。FIG. 13 is an explanatory diagram for explaining an image obtained by the image processing apparatus according to the first embodiment. 図14は、画像処理装置200の画像処理部を説明する説明図である。FIG. 14 is an explanatory diagram illustrating an image processing unit of the image processing apparatus 200. 図15は、第二実施形態の画像処理方法の処理の一連の流れを示すフローチャートを示す。FIG. 15 is a flowchart showing a series of processes of the image processing method according to the second embodiment. 図16は、第二実施形態の画像処理方法の各工程による処理を図示した模式図である。FIG. 16 is a schematic diagram illustrating processing in each step of the image processing method according to the second embodiment.

[第一実施形態]
以下、本発明に係る画像処理装置、画像処理方法及びコンピュータプログラムの第一実施形態について、図面を参照しながら説明する。
[First embodiment]
Hereinafter, a first embodiment of an image processing apparatus, an image processing method, and a computer program according to the present invention will be described with reference to the drawings.

図1は、第一実施形態の画像処理装置100を備えた医用画像診断システムの装置構成を示すブロック図であり、図2は、画像処理装置100の画像処理部を説明する説明図であり、図3は、画像処理方法の処理の一連の流れを示すフローチャートであり、図4は、画像処理方法の各工程による処理を図示した模式図である。   FIG. 1 is a block diagram illustrating a device configuration of a medical image diagnostic system including the image processing device 100 according to the first embodiment. FIG. 2 is an explanatory diagram illustrating an image processing unit of the image processing device 100. FIG. 3 is a flowchart showing a series of processing steps of the image processing method, and FIG. 4 is a schematic diagram illustrating processing in each step of the image processing method.

図1を参照して、医用画像診断システム1000は、画像処理装置(図1では「IPE」と記した。)100に、医用画像診断装置(図1には「Dia」と記した。)160及び医用画像診断装置160により撮影された画像を保管する医用画像保管装置(図1には「IS」と記した。)150が、無線ネットワークまたは有線ネットワークを介して接続されて構成されている。   Referring to FIG. 1, a medical image diagnostic system 1000 includes an image processing apparatus (denoted as “IPE”) 100 and a medical image diagnostic apparatus (denoted as “Dia” in FIG. 1) 160. In addition, a medical image storage device (indicated as “IS” in FIG. 1) 150 that stores images taken by the medical image diagnostic device 160 is connected via a wireless network or a wired network.

医用画像診断装置160は、被検体の腫瘍及び大動脈を含む対象領域を断層撮影して複数の断層画像からなる断層画像群を生成する。医用画像診断装置160の具体例としては、例えば、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、PET(Positron Emission computed Tomography)装置、またはこれらを組み合わせた装置等が挙げられる。   The medical image diagnostic apparatus 160 generates a tomographic image group including a plurality of tomographic images by tomographically imaging a target region including a tumor and an aorta of a subject. Specific examples of the medical image diagnostic apparatus 160 include, for example, an X-ray CT (Computed Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, a PET (Positron Emission Computed Tomography) apparatus, or a combination of these.

医用画像保管装置150は、医用画像診断装置160により撮影された断層画像群を医用画像診断装置160から受信し、保管する装置である。医用画像診断装置160は、医用画像保管装置150に断層画像群を送信する際に、例えば、患者、装置、検査の種類、シリーズ等を識別する識別子(ID)等を合わせて送信してもよい。このようなID等は、ユーザーが必要な断層画像群を取得するための検索に用いられる。また、医用画像保管装置150は、画像処理装置100として、大容量の画像を保管可能なワークステーション型のコンピュータを用いる場合には、コンピュータに統合されていてもよい。   The medical image storage device 150 is a device that receives and stores the tomographic image group captured by the medical image diagnostic device 160 from the medical image diagnostic device 160. When transmitting the tomographic image group to the medical image storage apparatus 150, the medical image diagnostic apparatus 160 may transmit, for example, an identifier (ID) that identifies a patient, apparatus, examination type, series, and the like. . Such an ID or the like is used for a search for acquiring a tomographic image group necessary for the user. In addition, the medical image storage device 150 may be integrated into a computer when a workstation type computer capable of storing a large-capacity image is used as the image processing device 100.

図1に示すように、画像処理装置100は、例えば汎用のコンピュータに三次元画像の画像処理を行うための画像処理プログラム(図1では「Prog」と記した)71をインストールすることにより実現される。コンピュータは、標準的な構成として、CPU等のプロセッサである演算制御部(図1では「Acu」と記した。)50と、ROM及びRAM等の主記憶部(図1では「MM」と記した。)60と、HDDやSSD等の補助記憶部(図1では「EM」と記した。)70と、ユーザーが実空間から必要な指示や入力を与えるための、キーボードやマウス等の入力部(図1では「Input」と記した。)80と、例えばCRTディスプレイや、液晶ディスプレイ、有機ELディスプレイ、プラズマディスプレイ等のディスプレイデバイスである画像表示部(図1では「Dsp」と記した)90とを備える。   As shown in FIG. 1, the image processing apparatus 100 is realized by installing, for example, an image processing program (denoted as “Prog” in FIG. 1) 71 for performing image processing of a three-dimensional image in a general-purpose computer. The As a standard configuration, the computer has an arithmetic control unit (indicated as “Acu” in FIG. 1) 50 that is a processor such as a CPU, and a main storage unit (indicated as “MM” in FIG. 1) such as a ROM and a RAM. 60), an auxiliary storage unit such as HDD or SSD 70 (denoted as "EM" in FIG. 1) 70, and an input from a keyboard or mouse for the user to give necessary instructions and inputs from the real space Unit (denoted as “Input” in FIG. 1) 80 and an image display unit (denoted as “Dsp” in FIG. 1) which is a display device such as a CRT display, a liquid crystal display, an organic EL display, a plasma display or the like. 90.

補助記憶部70は、後述する各画像処理を行うための画像処理プログラム71を記憶する。演算制御部50はコンピュータの起動時に補助記憶部70から画像処理プログラム71を読み出して主記憶部60にロードする。   The auxiliary storage unit 70 stores an image processing program 71 for performing each image processing described later. The arithmetic control unit 50 reads the image processing program 71 from the auxiliary storage unit 70 and loads it into the main storage unit 60 when the computer is activated.

画像処理装置100は、コンピュータにインストールされた画像処理プログラム71に規定された一連の画像処理のプロセスを実行する。画像処理プログラム71は、コンピュータに実行させる処理として、
被検体の腫瘍及び大動脈を含む対象領域を断層撮影して得られた複数の断層画像からなる断層画像群を積層した三次元画像データを生成する画像形成工程(ステップs1)と、
断層画像群から選択された少なくとも1枚の断層画像から、大動脈の断面の中心画素を抽出する中心抽出工程(ステップs2)と、
上記三次元画像データに対して、中心画素を初期領域として領域拡張処理することにより、大動脈と大動脈から分岐する枝血管や骨や臓器等のその他の領域を含むような主領域を抽出する主領域抽出工程(ステップs3)と、
抽出された主領域を収縮処理することにより、大動脈の芯部の領域とその他の部分を分離する収縮処理工程(ステップs4)と、
分離された芯部の領域とその他の領域とを含む領域に対して、上記中心画素を初期領域として領域拡張処理することにより、芯部の領域のみを抽出する芯部抽出工程(ステップs5)と、
芯部の領域を膨張処理することにより大動脈の領域を復元させる膨張処理工程(ステップs6)と、
ユーザーから指示された上記三次元画像データ中の腫瘍上の任意の点を、設定点として設定する腫瘍位置設定工程(ステップs7)と、
三次元画像データに対して、設定点を初期領域として領域拡張処理することにより、腫瘍の領域を抽出する腫瘍領域抽出工程(ステップs8)と、
抽出された腫瘍の領域と主領域とが重なる領域を検出する重なり領域検出工程(ステップs9)と、
上記三次元画像データに対して、重なり領域を初期領域として領域拡張処理することにより、腫瘍と大動脈とをつなぐ目的血管の領域を抽出する目的血管抽出工程(ステップs10)、を規定している。
The image processing apparatus 100 executes a series of image processing processes defined in the image processing program 71 installed in the computer. The image processing program 71 is a process to be executed by a computer.
An image forming step (step s1) for generating three-dimensional image data in which a group of tomographic images composed of a plurality of tomographic images obtained by tomographic imaging of a target region including a tumor and an aorta of a subject;
A center extraction step (step s2) for extracting the central pixel of the cross section of the aorta from at least one tomographic image selected from the tomographic image group;
A main region for extracting the main region including the aorta and other regions such as branch vessels and bones and organs branching from the aorta by performing region expansion processing on the 3D image data with the central pixel as an initial region An extraction process (step s3);
A contraction process step (step s4) for separating the main region of the aorta from the other part by contracting the extracted main region;
A core extraction step (step s5) for extracting only the core area by performing area expansion processing on the separated area including the core area and other areas as an initial area. ,
An expansion process step (step s6) for restoring the area of the aorta by expanding the area of the core part;
A tumor position setting step (step s7) for setting an arbitrary point on the tumor in the three-dimensional image data instructed by the user as a set point;
A tumor region extraction step (step s8) for extracting a region of the tumor by performing region expansion processing on the three-dimensional image data using the set point as an initial region;
An overlapping area detecting step (step s9) for detecting an area where the extracted tumor area and the main area overlap;
A target blood vessel extraction step (step s10) for extracting a region of a target blood vessel that connects the tumor and the aorta is defined by subjecting the three-dimensional image data to region expansion processing using the overlap region as an initial region.

画像処理プログラム71は、コンピュータにインストールされることにより、コンピュータ内に画像形成部101、中心抽出部102、主領域抽出部103、収縮処理部104、芯部抽出部105、膨張処理部106、腫瘍位置設定部107、腫瘍領域抽出部108、重なり領域検出部109、目的血管抽出部110を構成する。図2には、コンピュータ内にこれらの各部が構成され、画像処理装置100となった状態を示す。   When the image processing program 71 is installed in the computer, the image forming unit 101, the center extraction unit 102, the main region extraction unit 103, the contraction processing unit 104, the core extraction unit 105, the expansion processing unit 106, and the tumor are installed in the computer. A position setting unit 107, a tumor region extraction unit 108, an overlap region detection unit 109, and a target blood vessel extraction unit 110 are configured. FIG. 2 shows a state in which each of these units is configured in the computer to become the image processing apparatus 100.

また、画像処理プログラム71は、記録媒体に記録することができる。記録媒体の種類は特に限定されない。   The image processing program 71 can be recorded on a recording medium. The type of recording medium is not particularly limited.

このような画像処理装置100を用いて実行される画像処理を一連の処理の流れを図3を参照しながら説明する。   The sequence of image processing performed using such an image processing apparatus 100 will be described with reference to FIG.

(被検体の三次元画像データを形成するための断層画像群の取得(s0))
はじめに、医用画像診断装置160で被検体の腫瘍及び大動脈を含む対象領域を断層撮影する。得られた投影データやMR信号等のデータから断層画像が再構成され、断層画像群として医用画像保管装置150に記憶される(ステップs0)。
(Acquisition of tomographic image group for forming 3D image data of subject (s0))
First, tomographic imaging of a target region including a tumor and an aorta of a subject is performed by the medical image diagnostic apparatus 160. A tomographic image is reconstructed from the obtained projection data and data such as an MR signal, and is stored in the medical image storage device 150 as a tomographic image group (step s0).

1つの断層画像群は、n枚の断層画像によって構成される。k番目に撮影された断層画像をLkとし、1つの断層画像群をSet{Ln}と表す。なお、断層撮影は、ほとんど1枚の断層画像の1つの画素の単位の距離毎に撮影される。   One tomographic image group is composed of n tomographic images. The tomographic image taken at the kth is denoted as Lk, and one tomographic image group is denoted as Set {Ln}. Note that tomographic imaging is performed for each unit distance of one pixel of almost one tomographic image.

以降の一連の画像処理は、一連の画像処理プロセスを実行しうる画像処理プログラム71をインストールしたコンピュータである画像処理装置100により実行される。画像処理装置100のユーザーは、医用画像保管装置150に記憶されている複数の断層画像群Set{Ln}の中から目的とする断層画像群Set{Ln}のIDを選択または入力する操作により選択し、画像処理装置100の補助記憶部70に記憶させる。   The subsequent series of image processing is executed by the image processing apparatus 100 which is a computer in which an image processing program 71 capable of executing a series of image processing processes is installed. The user of the image processing apparatus 100 selects the ID of the target tomographic image group Set {Ln} from the plurality of tomographic image groups Set {Ln} stored in the medical image storage apparatus 150 by an operation of selecting or inputting the ID. And stored in the auxiliary storage unit 70 of the image processing apparatus 100.

そして、画像処理を実行する際に、処理の対象とする断層画像群Set{Ln}は、主記憶部60に記憶される。主記憶部60に記憶された断層画像群Set{Ln}は、以下の一連の処理が実行される。図3では、ステップs0に「Set{Ln}取得」と記載した。   Then, when executing the image processing, the tomographic image group Set {Ln} to be processed is stored in the main storage unit 60. The tomographic image group Set {Ln} stored in the main storage unit 60 is subjected to the following series of processes. In FIG. 3, “Set {Ln} acquisition” is described in step s0.

(画像形成工程(s1))
本プロセスでは、ステップs0で得られた被検体の腫瘍及び大動脈を含む対象領域の断層画像群Set{Ln}から三次元画像データを生成させる。具体的には、画像形成部101により、複数の断層画像からなる断層画像群Set{Ln}を体軸方向に沿って積層することにより三次元画像のボリュームデータを生成させる。
(Image forming step (s1))
In this process, three-dimensional image data is generated from the tomographic image group Set {Ln} of the target region including the tumor and the aorta of the subject obtained in step s0. Specifically, the image forming unit 101 generates volume data of a three-dimensional image by stacking a tomographic image group Set {Ln} including a plurality of tomographic images along the body axis direction.

上記に説明したように、断層撮影は、1枚の断層画像の1つの画素の単位長さ程度の距離毎に撮影される。したがって、断層画像の1つの画素は、断層画像の積層方向の体積画素とみなしてよい。これは、1つの画素の輝度(画素値)が、1つの体積画素の輝度(画素値)と見なせることを示す。   As described above, tomographic imaging is performed for each distance of about the unit length of one pixel of one tomographic image. Accordingly, one pixel of the tomographic image may be regarded as a volume pixel in the stacking direction of the tomographic image. This indicates that the luminance (pixel value) of one pixel can be regarded as the luminance (pixel value) of one volume pixel.

つまり、断層画像群Set{Ln}の同一断層画像の各画素にx座標、y座標を振り当て、断層画像毎に異なるz座標を割り当てることで、1つの体積画素を特定することができる。そして、その体積画素の値として、断層画像の1つの画素の輝度を割り当てると、断層画像群Set{Ln}を三次元画像データとして扱うことができる。このように三次元座標と各座標毎の輝度を関連付けた三次元画像データがボリュームデータである。   That is, one volume pixel can be specified by assigning x coordinates and y coordinates to each pixel of the same tomographic image of the tomographic image group Set {Ln} and assigning a different z coordinate for each tomographic image. If the luminance of one pixel of the tomographic image is assigned as the value of the volume pixel, the tomographic image group Set {Ln} can be handled as three-dimensional image data. Thus, the three-dimensional image data in which the three-dimensional coordinates are associated with the luminance for each coordinate is the volume data.

ボリュームデータはVol{Ln}と表し、「全領域」とも呼ぶ。図3では、ステップs1に「Vol{Ln}生成」と記載した。より具体的には、断層画像の1枚にA×B個の画素があったとすると、全領域Vol{Ln}は、A×B×n個の座標を含み、それぞれの座標の体積画素に対して断層画像群Set{Ln}の画素値を有するデータの集合である。なお、全領域Vol{Ln}の各体積画素には、画素値以外のデータを含めても良い。   The volume data is represented as Vol {Ln} and is also called “all areas”. In FIG. 3, “Vol {Ln} generation” is described in step s1. More specifically, if there are A × B pixels in one tomographic image, the entire region Vol {Ln} includes A × B × n coordinates, and the volume pixel of each coordinate is And a set of data having pixel values of the tomographic image group Set {Ln}. Note that data other than the pixel value may be included in each volume pixel of the entire region Vol {Ln}.

全領域Vol{Ln}を三次元表示することで、図4(a)に示すような被検体の腫瘍及び大動脈を含む三次元画像を得ることができる。なお、図4(a)の画像中、符号1は大動脈、符号2は大動脈から分岐する枝血管、符号3は腫瘍を含まない臓器,符号4は腫瘍8を含む臓器、符号5は肋骨、符号6は脊椎をそれぞれ示す領域である。   By displaying the entire region Vol {Ln} in three dimensions, a three-dimensional image including the tumor and aorta of the subject as shown in FIG. 4A can be obtained. 4A, reference numeral 1 is an aorta, reference numeral 2 is a branch vessel branched from the aorta, reference numeral 3 is an organ not including a tumor, reference numeral 4 is an organ including a tumor 8, reference numeral 5 is a rib, reference numeral Reference numeral 6 denotes an area indicating the spine.

(中心抽出工程(s2))
再び図3を参照する。本プロセスでは、ステップs1で得られた、三次元画像データVol{Ln}から選択された少なくとも1層の断層画像に基づいて、大動脈の断面の中心画素P1を抽出する。中心抽出部102は、三次元画像データVol{Ln}から選択された少なくとも1層の断層画像に基づいて大動脈の断面の中心画素P1を抽出する。図4(b)中の符号10は、三次元画像データVol{Ln}を構成する、大動脈の中心画素P1が特定された1層の断層画像10を示している。
(Center extraction step (s2))
Refer to FIG. 3 again. In this process, the central pixel P1 of the cross section of the aorta is extracted based on the tomographic image of at least one layer selected from the three-dimensional image data Vol {Ln} obtained in step s1. The center extraction unit 102 extracts the central pixel P1 of the cross section of the aorta based on at least one layer of the tomographic image selected from the three-dimensional image data Vol {Ln}. Reference numeral 10 in FIG. 4B indicates a one-layer tomographic image 10 in which the central pixel P1 of the aorta constituting the three-dimensional image data Vol {Ln} is specified.

なお、図4(b)では、断層画像10は1層目の断層画像L1であるとして例示した。断層画像L1の下には、断層画像L2、L3、・・・が積層されている。各断層画像の積層方向は体軸方向である。図4(b)では、L1、L2といった平面画像が並んでいるように示したが、各層の間は体積画素のz軸方向の厚みであり、断層画像の1画素の1辺に相当する程度の距離である。   In FIG. 4B, the tomographic image 10 is illustrated as the first tomographic image L1. Tomographic images L2, L3,... Are stacked below the tomographic image L1. The stacking direction of each tomographic image is the body axis direction. In FIG. 4B, the planar images such as L1 and L2 are shown as being arranged, but the thickness between the layers is the thickness of the volume pixel in the z-axis direction, which corresponds to one side of one pixel of the tomographic image. Is the distance.

中心画素P1を抽出するための1層の断層画像としては、例えば、最も頭部側の1層が選択されたり、またはユーザーの指定により選択される。中心抽出部102は、例えば、選択された断層画像を2値化し、距離変換処理により大動脈の断面の中心画素P1を抽出する。   As the one-layer tomographic image for extracting the center pixel P1, for example, the one layer on the most head side is selected or selected by the user. For example, the center extraction unit 102 binarizes the selected tomographic image, and extracts the center pixel P1 of the cross section of the aorta by distance conversion processing.

距離変換処理とは、例えば、2値画像の1の画素の画素値を、その画素から最も近い画素値0の画素までの距離に置換える変換のことである。したがって、距離変換処理を行う前には、対象とする断層画像に対して、2値化処理を施す。2値化処理は、ある閾値Vthと対象とする断層画像の全ての画素の画素値を比較し、閾値Vth以上であれば画素値を1とし、閾値Vthより小さければ画素値をゼロとする処理である。この処理は中心抽出部102が行ってよい。本実施形態においては、距離変換処理は、具体的には、次のようにして行われる。なお、全領域Vol{Ln}から中心画素P1を求めるために選ばれた1層の断層画像をL1とする。断層画像L1とは、全領域Vol{Ln}のz座標が1(Ln=1)のデータの集合と言っても良い。   The distance conversion process is, for example, conversion that replaces the pixel value of one pixel of a binary image with the distance from the pixel to the pixel with the closest pixel value of 0. Therefore, before the distance conversion process, the binarization process is performed on the target tomographic image. The binarization process is a process of comparing a pixel value of all pixels of a target tomographic image with a certain threshold value Vth, setting the pixel value to 1 if it is equal to or greater than the threshold value Vth, and setting the pixel value to zero if it is smaller than the threshold value Vth. It is. This processing may be performed by the center extraction unit 102. In the present embodiment, the distance conversion process is specifically performed as follows. Note that the one-layer tomographic image selected for obtaining the central pixel P1 from the entire region Vol {Ln} is L1. The tomographic image L1 may be said to be a set of data in which the z coordinate of the entire region Vol {Ln} is 1 (Ln = 1).

はじめに、断層画像L1に対して、全ての体積画素を2値変換する。画素値0である画素に隣接する画素値1である画素群(D1と称する:図4(b)参照)を探索する。そして、画素群D1に隣接する領域の画素値1である画素群(D2と称する)を特定する。さらに、画素群D2に隣接する領域の画素群(D3と称する)を特定する。   First, binary conversion is performed on all volume pixels for the tomographic image L1. A pixel group having a pixel value of 1 adjacent to a pixel having a pixel value of 0 (referred to as D1; see FIG. 4B) is searched. Then, a pixel group (referred to as D2) having a pixel value 1 in a region adjacent to the pixel group D1 is specified. Further, a pixel group (referred to as D3) in an area adjacent to the pixel group D2 is specified.

このような操作を画像全体の画素値1である画素に対して繰り返し、画素群D1から最も離れた画素群Dnを求める。nは画素群D1に隣接する画素値0である画素からの画素数であり、これを画素値0の画素までの距離とする。そして、最もnが大きくなる画素群Dnが、大動脈の中心付近の位置になる。   Such an operation is repeated for the pixel having the pixel value 1 of the entire image, and the pixel group Dn farthest from the pixel group D1 is obtained. n is the number of pixels from a pixel having a pixel value of 0 adjacent to the pixel group D1, and this is a distance to a pixel having a pixel value of 0. The pixel group Dn with the largest n is a position near the center of the aorta.

すなわち、断層画像L1において、大動脈の部分はその他の部分と比べ輝度(画素値)が高く大きな構造物であるため、大動脈の境界線から最も距離の大きい領域を大動脈の中心とみなすことができる。求めた画素群Dnが1つの画素であればその画素を中心画素P1とする。求めた画素群Dnに複数の画素が含まれている場合は、何れか1を選択し中心画素P1とする。   That is, in the tomographic image L1, since the aorta portion is a large structure having higher luminance (pixel value) than the other portions, the region having the longest distance from the boundary line of the aorta can be regarded as the center of the aorta. If the obtained pixel group Dn is one pixel, that pixel is set as the central pixel P1. When the obtained pixel group Dn includes a plurality of pixels, any one is selected as the central pixel P1.

なお、この方法は、断層画像L1の全ての体積画素について、次々と求めることができる。従って、ユーザーの判断を必要としないので便利である。図3ではステップs2を「P1抽出」と記載した。   This method can be obtained one after another for all volume pixels of the tomographic image L1. Therefore, it is convenient because it does not require user judgment. In FIG. 3, step s2 is described as “P1 extraction”.

また、断層画像L1に対してユーザーが手動で大動脈の中心付近を指定してもよい。この中心画素P1は、以後の大動脈を抽出する工程の起点となればよい。したがって、断層画像L1上の大動脈部分において、正確な中心画素でなくてもよいからである。すなわち、中心抽出工程は、距離変換処理を使わなくても良い。   Further, the user may manually designate the vicinity of the center of the aorta with respect to the tomographic image L1. The central pixel P1 may be a starting point for the subsequent process of extracting the aorta. Therefore, it is not necessary to be an accurate center pixel in the aorta portion on the tomographic image L1. That is, the center extraction process may not use the distance conversion process.

(主領域抽出工程(s3))
図3を再び参照する。本プロセスでは、中心抽出工程(ステップs2)で得られた断層画像10の中心画素P1を初期領域(開始点)として、全領域Vol{Ln}の体積画素に領域拡張処理を施すことにより、大動脈及び大動脈から分岐する枝血管や骨や臓器等のその他の領域を含む主領域Main{Ln}を抽出する。なお、主領域Main{Ln}は少なくとも大動脈を含み、また、大動脈に接し、かつ画素値が近いために大動脈から分離しにくいその他の領域を含む。
(Main area extraction step (s3))
Please refer to FIG. 3 again. In this process, the central pixel P1 of the tomographic image 10 obtained in the center extraction step (step s2) is used as an initial region (starting point), and region expansion processing is performed on the volume pixels of the entire region Vol {Ln}, thereby And a main region Main {Ln} including branch blood vessels branching from the aorta and other regions such as bones and organs is extracted. The main region Main {Ln} includes at least the aorta, and includes other regions that are in contact with the aorta and are difficult to separate from the aorta because the pixel values are close.

抽出された主領域Main{Ln}の模式図を図4(c)に示す。図4(c)において斜線でハッチングした部分が主領域Main{Ln}である。図4(c)中、符号1は大動脈、符号2は大動脈から分岐する枝血管、符号3は腫瘍を含まない臓器,符号4は腫瘍8を含む臓器、符号5は肋骨、符号6は脊椎を示す領域である。なお、ハッチングのかかっていない肋骨5は主領域Main{Ln}に含まれない。つまり、この例の全領域Vol{Ln}では、ハッチングのかかっていない肋骨5と大動脈1とを結合する体積画素が存在しない。   A schematic diagram of the extracted main region Main {Ln} is shown in FIG. In FIG. 4C, the hatched portion is the main region Main {Ln}. In FIG. 4C, reference numeral 1 is an aorta, reference numeral 2 is a branch vessel branched from the aorta, reference numeral 3 is an organ not including a tumor, reference numeral 4 is an organ including a tumor 8, reference numeral 5 is a rib, reference numeral 6 is a spine. It is an area shown. Note that the ribs 5 that are not hatched are not included in the main region Main {Ln}. That is, in the entire region Vol {Ln} in this example, there is no volume pixel that connects the rib 5 and the aorta 1 that are not hatched.

主領域Main{Ln}の抽出は、中心抽出工程(ステップs2)で得られた断層画像10の中心画素P1を初期領域として全領域Vol{Ln}に対して、領域拡張処理を実行する。領域拡張処理は、全領域Vol{Ln}から、大動脈と大動脈から分岐する枝血管や骨や臓器等のその他の領域を含む主領域Main{Ln}を抽出する。   In the extraction of the main region Main {Ln}, the region expansion process is executed on the entire region Vol {Ln} with the center pixel P1 of the tomographic image 10 obtained in the center extraction step (step s2) as an initial region. In the region expansion process, a main region Main {Ln} including other regions such as a branch blood vessel branched from the aorta and the aorta and bones and organs is extracted from the entire region Vol {Ln}.

また、主領域抽出部103は、中心画素P1の画素を初期領域とし、領域拡張処理を施すことにより、三次元画像のボリュームデータ(全領域Vol{Ln})から大動脈と、大動脈に接し、かつ画素値が近いために大動脈から明確に分離しにくいその他の領域を抽出する。   Further, the main region extraction unit 103 sets the pixel of the center pixel P1 as an initial region, and performs region expansion processing to thereby contact the aorta and the aorta from the volume data (all regions Vol {Ln}) of the three-dimensional image, and Other regions that are difficult to clearly separate from the aorta because the pixel values are close are extracted.

領域拡張処理の具体的な処理例は、図5に示すフローによる。図5を参照して、処理がスタートすると(ステップS100)、領域拡張処理を行う開始点の体積画素Pstを体積画素Pxとする(ステップS102)。なお、ここでは、Pstは中心画素P1であり、画素Pxは中心画素P1の座標データ及び画素値がコピーされる。   A specific processing example of the region expansion processing is based on the flow shown in FIG. Referring to FIG. 5, when the process starts (step S100), the volume pixel Pst at the start point of the area expansion process is set as the volume pixel Px (step S102). Here, Pst is the center pixel P1, and the coordinate data and pixel value of the center pixel P1 are copied to the pixel Px.

次に体積画素Pxの周囲26個の体積画素PPxの画素値を閾値VPthと比較する(ステップS104)。体積画素PPxは、体積画素Pxを3×3の体積画素の集まりの中心に置いた場合の周囲の体積画素を示す。図5では、体積画素PPxの画素値を「|PPx|」と表した。体積画素PPxの画素値が閾値VPth以上であれば(ステップS104のY分岐)、その体積画素PPxは主領域Main{Ln}に含める(ステップS106)。   Next, the pixel values of the 26 volume pixels PPx around the volume pixel Px are compared with the threshold value VPth (step S104). The volume pixel PPx indicates a surrounding volume pixel when the volume pixel Px is placed at the center of a collection of 3 × 3 volume pixels. In FIG. 5, the pixel value of the volume pixel PPx is represented as “| PPx |”. If the pixel value of the volume pixel PPx is equal to or greater than the threshold value VPth (Y branch in step S104), the volume pixel PPx is included in the main region Main {Ln} (step S106).

なお、ここで「含める」とは、主領域Main{Ln}が最初にメインメモリ上に割り当てられた時に全ての画素値をゼロにしておき、体積画素PPxと同じ座標上の体積画素に画素値|PPx|を代入するとしてよい。   Here, “include” means that all pixel values are set to zero when the main area Main {Ln} is first allocated on the main memory, and the pixel value is set to the volume pixel on the same coordinate as the volume pixel PPx. | PPx | may be substituted.

体積画素PPxの画素値が閾値VPthより小さければ(ステップS104のN分岐)、主領域Main{Ln}には含めない。若しくは画素値をゼロとしてもよい。これを全てのPPxについて行う(ステップS108)。なお、図5にはステップS104からステップS108を簡単に記載したが、この間の処理は体積画素Pxの周囲26個分の体積画素PPx全てについて行なわれる。つまりステップS104とステップS108は26回繰り返される。   If the pixel value of the volume pixel PPx is smaller than the threshold value VPth (N branch in step S104), it is not included in the main region Main {Ln}. Alternatively, the pixel value may be zero. This is performed for all PPx (step S108). Although FIG. 5 briefly describes steps S104 to S108, the process during this time is performed for all 26 volume pixels PPx around the volume pixel Px. That is, step S104 and step S108 are repeated 26 times.

次に主領域Main{Ln}に属する全ての体積画素について、周囲26個の体積画素が調べられたかを判断する(ステップS110)。まだ調べられていない体積画素がある場合は、その体積画素を新たなPxとして(ステップS112)、ステップS104に戻る。主領域Main{Ln}の全ての体積画素について、周囲26体積画素の画素値が閾値VPthと比較された場合(ステップS110のY分岐)は、その他の座標の体積画素の画素値をゼロにし(ステップS114)、フローを終了する(ステップS116)。   Next, it is determined whether or not 26 surrounding volume pixels have been examined for all the volume pixels belonging to the main region Main {Ln} (step S110). If there is a volume pixel that has not been examined yet, the volume pixel is set as a new Px (step S112), and the process returns to step S104. When the pixel values of the surrounding 26 volume pixels are compared with the threshold value VPth for all the volume pixels of the main region Main {Ln} (Y branch in step S110), the pixel values of the volume pixels of other coordinates are set to zero ( Step S114), the flow ends (Step S116).

以上の処理によって、全領域Vol{Ln}中の中心画素P1に接続する、画素値がVPth以上の体積画素を主領域Main{Ln}として抽出することができる。なお、ここで、全領域Vol{Ln}の最も外側の体積画素には、周囲に26個の体積画素はない。しかし、存在しない体積画素の画素値はゼロとおいてよい。また、図3ではステップs3は、「Main{Ln}の抽出」と記した。   Through the above processing, a volume pixel having a pixel value equal to or higher than VPth and connected to the central pixel P1 in the entire region Vol {Ln} can be extracted as the main region Main {Ln}. Here, the outermost volume pixel of the entire region Vol {Ln} does not have 26 volume pixels around it. However, the pixel value of the non-existing volume pixel may be set to zero. In FIG. 3, step s3 is described as “Extraction of Main {Ln}”.

なお、ステップs2の中心抽出工程は、この主領域抽出工程に含めても良い。主領域抽出工程(ステップs3)を実行するには、中心画素P1が必要だからである。また、画像処理装置100としては、中心部抽出部102は、主領域抽出部103に含めてもよい。   Note that the center extraction step of step s2 may be included in this main region extraction step. This is because the center pixel P1 is necessary to execute the main region extraction step (step s3). Further, as the image processing apparatus 100, the central portion extraction unit 102 may be included in the main region extraction unit 103.

また、ここでは体積画素の画素値が閾値VPth以上という条件で体積画素の選別を行ったが、さらに条件を設けても良い。つまり、体積画素の画素値が閾値VPth以上という条件を満たし、さらにPPxの画素値とPxの画素値の差の絶対値が閾値VPth2以内であれば、体積画素は主領域Main{Ln}に含めるという条件をいれてもよい。こうすることで、似た画素値の画素、すなわち血管に近い画素値をもつ画素だけが領域を拡張できるようになる。   Here, the selection of the volume pixel is performed under the condition that the pixel value of the volume pixel is equal to or greater than the threshold value VPth. That is, if the condition that the pixel value of the volume pixel is equal to or greater than the threshold value VPth and the absolute value of the difference between the pixel value of PPx and the pixel value of Px is within the threshold value VPth2, the volume pixel is included in the main region Main {Ln}. You may include the condition. By doing so, only pixels having similar pixel values, that is, pixels having pixel values close to blood vessels can be expanded.

(収縮処理工程(s4))
再び図3を参照する。本プロセスでは、主領域抽出工程(s3)で抽出された主領域Main{Ln}に対して、収縮処理部104により収縮処理を施すことにより、大動脈の芯部とその他の領域とを分離する。すなわち、主領域Main{Ln}の画像を収縮処理することにより、大動脈の芯部の領域と、枝血管等の細血管や肋骨や脊椎等のような骨、臓器等のその他の領域とを分離する。
(Shrinkage treatment step (s4))
Refer to FIG. 3 again. In this process, the main region Main {Ln} extracted in the main region extraction step (s3) is subjected to contraction processing by the contraction processing unit 104, thereby separating the core portion of the aorta from other regions. That is, by contracting the image of the main region Main {Ln}, the core region of the aorta is separated from other regions such as narrow blood vessels such as branch blood vessels, bones such as ribs and spine, and organs. To do.

このようにして形成された芯部1aと、腫瘍を含まない臓器3と、腫瘍8を含む臓器4とを含む三次元画像の模式図を図4(d)に示す。主領域Main{Ln}を収縮処理して得られた領域を収縮された主領域SMain{Ln}とする。   FIG. 4D shows a schematic diagram of a three-dimensional image including the core 1a formed in this way, an organ 3 that does not include a tumor, and an organ 4 that includes a tumor 8. FIG. A region obtained by contracting the main region Main {Ln} is defined as a contracted main region SMain {Ln}.

上述したような収縮処理は、主領域Main{Ln}の画像データを収縮処理することにより、枝血管や骨や臓器等の領域の大部分または全部を消去して、主として大動脈の芯部の領域を残すような処理である。   In the contraction processing as described above, the image data of the main region Main {Ln} is contracted to erase most or all of the regions such as branch vessels, bones and organs, and mainly the core region of the aorta It is processing that leaves.

さらに詳しくは、大動脈を含む主領域Main{Ln}ではない領域に隣接する主領域Main{Ln}の境界の体積画素の画素値を、主領域Main{Ln}でない画素値(ゼロであってもよい。)に変換することにより新たな主領域Main{Ln}(収縮された主領域SMain{Ln})を形成する。   More specifically, the pixel value of the volume pixel at the boundary of the main region Main {Ln} adjacent to the region that is not the main region Main {Ln} including the aorta is set to a pixel value that is not the main region Main {Ln} (even if it is zero). Is formed into a new main region Main {Ln} (contracted main region SMain {Ln}).

そして、収縮された主領域SMain{Ln}となった部分の境界の体積画素の画素値をさらに収縮された主領域Main{Ln}でない画素値に変換する。このような操作を複数回繰り返すことで、細い血管の部分は、画素値が収縮された主領域SMain{Ln}以外の領域の画素値と同じになる。つまり、大動脈の領域に繋がる細い血管は、次々に消去される。収縮処理は、予め決まった回数(これをF回とする)だけ繰り返す。収縮処理の回数Fは、大動脈1に接続する血管が全てなくなる程度の回数を行うのが望ましい。   Then, the pixel value of the volume pixel at the boundary of the portion that has become the contracted main area SMain {Ln} is converted into a pixel value that is not the contracted main area Main {Ln}. By repeating such an operation a plurality of times, the thin blood vessel portion becomes the same as the pixel value of the region other than the main region SMain {Ln} in which the pixel value is contracted. That is, the thin blood vessels connected to the region of the aorta are erased one after another. The contraction process is repeated a predetermined number of times (this is F times). It is desirable to perform the contraction processing frequency F so that all blood vessels connected to the aorta 1 disappear.

このようにして、主領域Main{Ln}を収縮させることにより大動脈の芯部の領域をその他の領域から分離することができる。なお、収縮された主領域SMain{Ln}は、大動脈1の芯部の領域と、主領域Main{Ln}の中で、収縮処理で残った領域を含む。具体的には、大動脈に繋がる大きな臓器である。なお、図3では、ステップs4を「SMain{Ln}を求める」と記載した。   In this manner, the core region of the aorta can be separated from other regions by contracting the main region Main {Ln}. The contracted main region SMain {Ln} includes the region of the core of the aorta 1 and the region remaining in the contraction process in the main region Main {Ln}. Specifically, it is a large organ connected to the aorta. In FIG. 3, step s4 is described as “determining SMain {Ln}”.

(芯部抽出工程(s5))
本プロセスでは、収縮処理工程(s4)で分離された、収縮された主領域SMain{Ln}から、大動脈1の芯部だけを抽出する。収縮された主領域SMain{Ln}には、大動脈1の芯部と、収縮処理工程(s4)で残った臓器3(画素値が閾値VPth以上の体積画素の領域)等が含まれる。そこで、中心抽出工程(s2)で抽出された中心画素P1を初期領域として領域拡張処理を施すことにより、大動脈1の芯部1bだけを抽出する。このようにして得られた領域のデータを芯部領域CMain{Ln}とする。
(Core extraction step (s5))
In this process, only the core portion of the aorta 1 is extracted from the contracted main region SMain {Ln} separated in the contraction processing step (s4). The contracted main region SMain {Ln} includes the core of the aorta 1 and the organ 3 remaining in the contraction processing step (s4) (a region of a volume pixel having a pixel value equal to or greater than the threshold value VPth). Therefore, only the core 1b of the aorta 1 is extracted by performing region expansion processing using the center pixel P1 extracted in the center extraction step (s2) as an initial region. The area data thus obtained is defined as a core area CMain {Ln}.

大動脈1の芯部とその他の臓器3等との間には連結する血管に相当する体積画素(画素値が閾値VPth以上の体積画素)が存在しない。したがって、収縮された主領域SMain{Ln}に対して中心画素P1を初期値とする領域拡張処理を施すと、大動脈1の芯部からその他の臓器にまで領域が拡張せず、大動脈の芯部1bだけが抽出される。言い換えると、この芯部抽出工程は、収縮された主領域SMain{Ln}から芯部以外の部分を消去して(画素値をゼロにする)芯部の領域(芯部領域CMain{Ln})のみを抽出するといってもよい。このようにして生成された芯部1bのみを含む芯部領域CMain{Ln}を図4(e)に示す。   Between the core of the aorta 1 and the other organs 3 and the like, there are no volume pixels (volume pixels having a pixel value equal to or greater than the threshold value VPth) corresponding to blood vessels to be connected. Therefore, when the region expansion process with the central pixel P1 as an initial value is performed on the contracted main region SMain {Ln}, the region does not expand from the core of the aorta 1 to other organs, and the core of the aorta Only 1b is extracted. In other words, in this core extraction process, the area other than the core is erased from the contracted main area SMain {Ln} (the pixel value is zero) (core area CMain {Ln}). It may be said that only is extracted. FIG. 4E shows the core region CMain {Ln} including only the core 1b generated in this way.

芯部抽出部105は、収縮処理工程(ステップs4)で生成された収縮された主領域SMain{Ln}に対して中心画素P1を初期領域として領域拡張処理を施す。具体的な処理のフローは図5に示したフローと同じである。この処理により、枝血管や骨や臓器等を消去して大動脈1の芯部1bのみ(芯部領域CMain{Ln})が抽出される。図3ではステップs5を「CMain{Ln}を求める」と記載した。   The core extraction unit 105 performs region expansion processing using the central pixel P1 as an initial region on the contracted main region SMain {Ln} generated in the contraction processing step (step s4). The specific processing flow is the same as the flow shown in FIG. By this processing, branch blood vessels, bones, organs, and the like are deleted, and only the core 1b of the aorta 1 (core region CMain {Ln}) is extracted. In FIG. 3, step s5 is described as “determining CMain {Ln}”.

(膨張処理工程(s6))
本プロセスでは、芯部抽出工程(s5)で抽出された芯部領域CMain{Ln}に対して膨張処理を施すことにより、大動脈の輪郭を抽出して大動脈の外形を復元させる。この復元した大動脈を表す体積画素を「復元された主領域RMain{Ln}」とする。このようにして生成された被検体の大動脈1の領域(復元された主領域RMain{Ln})を図4(f)に示す。
(Expansion treatment step (s6))
In this process, the core region CMain {Ln} extracted in the core extraction step (s5) is expanded to extract the outline of the aorta and restore the outline of the aorta. The volume pixel representing the restored aorta is referred to as “restored main region RMain {Ln}”. FIG. 4F shows the region of the aorta 1 of the subject thus generated (reconstructed main region RMain {Ln}).

膨張処理は、膨張処理部106により、例えば、以下のようにして実行される。上記収縮処理とは逆に、芯部領域CMain{Ln}に隣接する芯部領域CMain{Ln}ではない領域の体積画素の画素値を、隣接する芯部領域CMain{Ln}の体積画素の画素値に置き換える。つまり、芯部領域CMain{Ln}が1体積画素分だけ太くなる。つまり、画素値が閾値VPth以上の体積画素が増える。このようにして、復元された主領域RMain{Ln}を得る。   The expansion processing is executed by the expansion processing unit 106 as follows, for example. Contrary to the contraction processing, the pixel value of the volume pixel of the area that is not the core area CMain {Ln} adjacent to the core area CMain {Ln} is the pixel value of the volume pixel of the adjacent core area CMain {Ln}. Replace with a value. That is, the core area CMain {Ln} is thickened by one volume pixel. That is, the volume pixel whose pixel value is greater than or equal to the threshold VPth increases. In this way, the restored main region RMain {Ln} is obtained.

そして、復元された主領域RMain{Ln}に新たに隣接することとなった、復元された主領域RMain{Ln}でない領域の体積画素の画素値をさらに復元された主領域RMain{Ln}の画素値に置き換える。このような操作を複数回繰り返し、芯部領域CMain{Ln}を膨張させることにより大動脈1だけの外形(復元された主領域RMain{Ln})を復元する。   Then, the pixel value of the volume pixel of the region that is not adjacent to the restored main region RMain {Ln} and that is newly adjacent to the restored main region RMain {Ln} is further restored to that of the restored main region RMain {Ln}. Replace with pixel value. By repeating such an operation a plurality of times and expanding the core region CMain {Ln}, the outline of only the aorta 1 (the restored main region RMain {Ln}) is restored.

なお、芯部領域CMain{Ln}から復元された主領域RMain{Ln}へ膨張処理が行なわれる際、主領域Main{Ln}に含まれない(つまり画素値がゼロの)体積画素が復元された主領域RMain{Ln}に含まれないようにするのが望ましい。膨張処理は収縮処理工程(ステップs4)で行った収縮工程の回数(F回)行っても良い。大動脈の領域がほぼ元通りになると考えられるからである。もちろん、F回以外の回数であってもよい。図3では、ステップs6を「RMain{Ln}を求める」と記載した。   When the expansion process is performed on the main area RMain {Ln} restored from the core area CMain {Ln}, volume pixels that are not included in the main area Main {Ln} (that is, the pixel value is zero) are restored. It is desirable not to be included in the main area RMain {Ln}. The expansion process may be performed the number of times (F times) of the contraction process performed in the contraction process (step s4). This is because the aortic region is considered to be almost restored. Of course, the number may be other than F times. In FIG. 3, step s6 is described as “finding RMain {Ln}”.

ステップs4の収縮処理工程、ステップs5の芯部抽出工程、ステップs6の膨張処理工程によって、大動脈だけを示す(それ以外の部分の体積画素の画素値がゼロ)復元された主領域RMain{Ln}が求められた。復元された主領域RMain{Ln}は、「大動脈領域」と呼んでも良い。したがって、これら3つの工程は、「大動脈領域抽出工程」と呼んでよい。また同様に、画像処理装置100としては、収縮処理部104、芯部抽出部105、膨張処理部106によって、大動脈領域抽出部が構成される。   Reconstructed main region RMain {Ln} showing only the aorta (the pixel value of the volume pixel of the other part is zero) by the contraction processing step of step s4, the core extraction step of step s5, and the expansion processing step of step s6 Was requested. The restored main region RMain {Ln} may be referred to as an “aortic region”. Therefore, these three steps may be called “aortic region extraction step”. Similarly, in the image processing apparatus 100, the contraction processing unit 104, the core extraction unit 105, and the expansion processing unit 106 constitute an aorta region extraction unit.

(腫瘍位置設定工程(s7))
本プロセスでは、腫瘍位置設定部107により、画像形成部101で形成された全領域Vol{Ln}中の腫瘍上の任意の設定点P2を位置設定する。また、医用画像診断装置160で撮影した断層画像群Set{Ln}で設定点P2を位置設定してもよい。いずれにしても、本プロセスでは、全領域Vol{Ln}中で腫瘍と判断される箇所の体積画素の座標が指定される。なお、設定点P2の指定は、画像処理によってソフト的に自動指定してもよいし、ユーザーが断層画像群Set{Ln}を見ながら直接指定してもよい。
(Tumor position setting step (s7))
In this process, the tumor position setting unit 107 sets an arbitrary set point P2 on the tumor in the entire region Vol {Ln} formed by the image forming unit 101. The position of the set point P2 may be set by the tomographic image set Set {Ln} taken by the medical image diagnostic apparatus 160. In any case, in the present process, the coordinates of the volume pixel at the location determined to be a tumor in the entire region Vol {Ln} are designated. The setting point P2 may be automatically specified by software by image processing, or the user may specify it directly while looking at the tomographic image group Set {Ln}.

具体的な手順としては、三次元画像データである全領域Vol{Ln}において、腫瘍が映っていると考えられる断面画像を二次元画像として画像表示部90に表示させる。断面画像は、全領域Vol{Ln}においてz座標が同一のデータである。このデータは、x座標、y座標、z座標と画素値の4つの成分を含む。ユーザーは、画像表示部90を確認しながら入力部80であるマウス等のポインティングデバイスを操作することにより、画像表示部90上の目的とする腫瘍上の任意の点を設定点P2として指定する。設定点P2は、患部体積画素である。   As a specific procedure, in the entire region Vol {Ln} that is three-dimensional image data, a cross-sectional image that is considered to show a tumor is displayed on the image display unit 90 as a two-dimensional image. The cross-sectional image is data having the same z coordinate in the entire region Vol {Ln}. This data includes four components: an x coordinate, a y coordinate, a z coordinate, and a pixel value. The user designates an arbitrary point on the target tumor on the image display unit 90 as the set point P2 by operating a pointing device such as a mouse as the input unit 80 while checking the image display unit 90. The set point P2 is an affected part volume pixel.

なお、設定点P2は腫瘍上の点であればその位置は特に限定されない。しかし、腫瘍は球形状であることが多く、次工程で行う領域拡張処理は全方向に向かって領域を拡張する。したがって、腫瘍領域を効率的に抽出するためには、腫瘍の中心付近の点を設定点P2とすることが特に好ましい。   The position of the set point P2 is not particularly limited as long as it is a point on the tumor. However, tumors are often spherical, and the area expansion process performed in the next process expands the area in all directions. Therefore, in order to efficiently extract the tumor region, it is particularly preferable to set the point near the center of the tumor as the set point P2.

腫瘍位置設定部107は、ユーザーにより指定された腫瘍上の任意の位置を識別し、その点を設定点P2として設定する。このようにして設定された設定点P2を表した被検体の腫瘍付近の領域を図4(g)に示す。図4(g)では、臓器4の中の腫瘍8に対して、その中心付近に設定点P2が指定された様子を示した。図3ではステップs7を「P2を設定する」と記載した。   The tumor position setting unit 107 identifies an arbitrary position on the tumor designated by the user, and sets that point as the set point P2. A region in the vicinity of the tumor of the subject representing the set point P2 set in this way is shown in FIG. FIG. 4G shows a state where the set point P2 is designated near the center of the tumor 8 in the organ 4. In FIG. 3, step s7 is described as “setting P2.”

(腫瘍領域抽出工程(s8))
本プロセスでは、腫瘍領域抽出部108により、画像形成工程(s1)で生成された三次元画像のボリュームデータVol{Ln}に対して、腫瘍位置設定工程(s7)で設定された設定点P2を初期領域として領域拡張処理を所定回数だけ繰り返すことにより、腫瘍領域C{Ln}を決める。領域拡張処理の繰り返し回数は、腫瘍領域C{Ln}が腫瘍周囲の血管を含む程度までの回数であることが必要である。図3ではステップs8を「C{Ln}を決める」と記載した。なお、腫瘍領域C{Ln}は、患部領域C{Ln}と言っても良い。領域拡張処理の具体的処理フローは図5に示したフローと同じである。つまり、腫瘍領域C{Ln}は、メインメモリに上に割り当てられたときに、各体積画素の画素値がゼロになっているデータである。
(Tumor region extraction step (s8))
In this process, the tumor region extraction unit 108 sets the set point P2 set in the tumor position setting step (s7) to the volume data Vol {Ln} of the three-dimensional image generated in the image forming step (s1). The tumor region C {Ln} is determined by repeating the region expansion process as an initial region a predetermined number of times. The number of repetitions of the region expansion process needs to be the number of times until the tumor region C {Ln} includes blood vessels around the tumor. In FIG. 3, step s8 is described as “determining C {Ln}”. The tumor area C {Ln} may be referred to as an affected area C {Ln}. The specific processing flow of the area expansion processing is the same as the flow shown in FIG. That is, the tumor region C {Ln} is data in which the pixel value of each volume pixel is zero when assigned to the main memory.

また、腫瘍位置設定工程(s7)で設定された設定点P2から領域を拡張する範囲をユーザーが指定しても良い。具体的には、設定点P2が設定された後、ユーザーの指示によって、設定点P2から拡張させる半径rが入力される。これは具体的な数値を入力部80から入力してもよい。また、画像表示部90上でマウス等のポインティングデバイスを操作することにより、拡張させたい範囲をさらにユーザーに指定させてもよい。   Further, the user may specify a range for expanding the region from the set point P2 set in the tumor position setting step (s7). Specifically, after the set point P2 is set, a radius r to be expanded from the set point P2 is input by a user instruction. A specific numerical value may be input from the input unit 80. Further, by operating a pointing device such as a mouse on the image display unit 90, the user may further specify a range to be expanded.

設定点P2と拡張する半径が決まったら、設定点P2を中心とした半径rの球状の領域に含まれる体積画素のうち、閾値VPthC以上の画素値である体積画素を、腫瘍領域C{Ln}に含める。なお、ここで含めるとは、該当する体積画素の画素値を腫瘍領域C{Ln}の対応する体積画素の画素値とすることである。この処理は、領域拡張処理若しくは膨張処理といった1体積画素毎に領域を拡張するのではなく、指定された球状領域に含まれる閾値VPthCの体積画素を一気に腫瘍領域C{Ln}に含めるので、処理時間の短縮を測れる。また、ある範囲内に腫瘍が複数あった場合は、それらをまとめて腫瘍領域C{Ln}として処理できるという効果もある。   After the set point P2 and the radius to be expanded are determined, among the volume pixels included in the spherical region having the radius r centered on the set point P2, a volume pixel having a pixel value equal to or greater than the threshold VPthC is selected as the tumor region C {Ln}. Include in Including here means that the pixel value of the corresponding volume pixel is the pixel value of the corresponding volume pixel of the tumor region C {Ln}. This process does not expand the area for each volume pixel such as the area expansion process or the expansion process, but includes the volume pixels of the threshold VPthC included in the designated spherical area in the tumor area C {Ln}. Measure time savings. Moreover, when there are a plurality of tumors within a certain range, there is an effect that they can be collectively processed as a tumor region C {Ln}.

さらに、このようにして得られた腫瘍領域C{Ln}に対して、所定回数だけ領域拡張処理を行ってもよい。   Further, the region expansion process may be performed a predetermined number of times on the tumor region C {Ln} obtained in this way.

また、ステップs7の腫瘍位置設定工程、ステップs8の腫瘍領域抽出工程を「患部領域抽出工程」としてもよい。画像処理装置100では、腫瘍位置設定部107と腫瘍領域抽出部108が「患部領域抽出部」を構成する。また、患部領域抽出部には入力部80を含めても良い。   Further, the tumor position setting step in step s7 and the tumor region extraction step in step s8 may be referred to as “affected area extraction step”. In the image processing apparatus 100, the tumor position setting unit 107 and the tumor region extraction unit 108 constitute an “affected region extraction unit”. Further, the input part 80 may be included in the affected area extraction unit.

(重なり領域検出工程(s9))
本プロセスでは、重なり領域検出部109により、腫瘍領域抽出工程(s8)により特定された腫瘍8を表す腫瘍領域(患部領域)C{Ln}と、主領域抽出工程(s3)により抽出された主領域Main{Ln}との重なり領域L{Ln}を検出する。この処理により、特定された腫瘍8の大動脈1に繋がる血管の起点を抽出できる。図4(g)中、L{Ln}は、腫瘍8から伸びる大動脈1に繋がる血管を含む重なり領域L{Ln}である。具体的にはそれぞれの領域に共通する画素値がVPth以上若しくは、画素値がVPthC以上の体積画素を見つければ良い。
(Overlapping area detection step (s9))
In this process, the overlapping region detection unit 109 detects the tumor region (affected region) C {Ln} representing the tumor 8 identified in the tumor region extraction step (s8) and the main region extracted in the main region extraction step (s3). An overlapping area L {Ln} with the area Main {Ln} is detected. By this process, the origin of the blood vessel connected to the aorta 1 of the identified tumor 8 can be extracted. In FIG. 4G, L {Ln} is an overlapping region L {Ln} including a blood vessel connected to the aorta 1 extending from the tumor 8. Specifically, it is only necessary to find a volume pixel whose pixel value common to each region is VPth or more or whose pixel value is VPthC or more.

なお、重なり領域L{Ln}は、複数箇所あってもよい。腫瘍8は複数の血管から血液を得る場合もあるからである。図3のステップs9には「重なり領域L{Ln}を求める」と記載した。   Note that there may be a plurality of overlapping regions L {Ln}. This is because the tumor 8 sometimes obtains blood from a plurality of blood vessels. In step s9 of FIG. 3, “determine overlapping region L {Ln}” is described.

(目的血管抽出工程(s10))
本プロセスでは、目的血管抽出部110により、重なり領域検出工程(s9)で検出された重なり領域L{Ln}を初期領域として、画像形成工程(s1)で生成された三次元画像のボリュームデータVol{Ln}に対して、初期領域から大動脈1に到達する血管を抽出するように履歴付き領域拡張処理を施す。また、主領域抽出工程(ステップs3)で求めた主領域Main{Ln}から目的とする血管を抽出してもよい。ここでは主領域Main{Ln}を対象として説明を続ける。
(Target blood vessel extraction step (s10))
In this process, the target blood vessel extraction unit 110 uses the overlap region L {Ln} detected in the overlap region detection step (s9) as an initial region, and the volume data Vol of the three-dimensional image generated in the image formation step (s1). For {Ln}, a region expansion process with history is performed so as to extract a blood vessel that reaches the aorta 1 from the initial region. Further, a target blood vessel may be extracted from the main region Main {Ln} obtained in the main region extraction step (step s3). Here, the description is continued for the main area Main {Ln}.

履歴付き領域拡張処理とは、初期領域から1体積画素ずつ主領域Main{Ln}に属する画素をワーク領域W{Ln}に取り込み領域を広げてゆく。その際に、新たにワーク領域W{Ln}に属することになった体積画素は、どの体積画素から広がったのかを記録しておく。そして、腫瘍に設けられた初期領域から、復元された主領域RMain{Ln}まで通じるパスを見つける。   In the area expansion process with history, pixels belonging to the main area Main {Ln} are taken into the work area W {Ln} by one volume pixel from the initial area, and the area is expanded. At that time, it is recorded which volume pixel the volume pixel newly belonging to the work area W {Ln} has spread. Then, a path that leads from the initial region provided in the tumor to the restored main region RMain {Ln} is found.

図7には、履歴付き領域拡張処理を説明するため、二次元での履歴付き領域拡張処理の模式図を示し、図6には、処理のフローを示す。図7を参照する。5×8個のマスを示す。個々のマスは画素とする。実際は体積画素であるが、ここでは説明のために平面画素を使う。白塗りのマスは主領域Main{Ln}の一部である。黒塗りのマスは、主領域Main{Ln}以外の領域であり、画素値がゼロである事を示す。主領域Main{Ln}に属する体積画素の画素値は閾値VPth以上である。   FIG. 7 shows a schematic diagram of a two-dimensional region extension process with history in order to explain the region extension process with history, and FIG. 6 shows a process flow. Please refer to FIG. 5 × 8 squares are shown. Each square is a pixel. Although it is actually a volume pixel, a plane pixel is used here for explanation. A white cell is a part of the main region Main {Ln}. A black square is an area other than the main area Main {Ln}, and indicates that the pixel value is zero. The pixel value of the volume pixel belonging to the main region Main {Ln} is equal to or greater than the threshold value VPth.

重なり領域L{Ln}に属する始点体積画素St1は履歴付き領域拡張処理の始点である。つまり体積画素St1は、腫瘍領域C{Ln}の体積画素である。体積画素PPcmは、復元された主領域RMain{Ln}に属する体積画素とする。つまり、体積画素PPcmは大動脈1の体積画素である。体積画素St1とPPcm以外の白いマスは、主領域Main{Ln}は腫瘍領域C{Ln}と復元された主領域RMain{Ln}の間に存在する血管である。   The starting point volume pixel St1 belonging to the overlapping region L {Ln} is the starting point of the region expansion process with history. That is, the volume pixel St1 is a volume pixel of the tumor region C {Ln}. The volume pixel PPcm is a volume pixel belonging to the restored main region RMain {Ln}. That is, the volume pixel PPcm is a volume pixel of the aorta 1. The white cells other than the volume pixels St1 and PPcm are blood vessels in which the main region Main {Ln} exists between the tumor region C {Ln} and the restored main region RMain {Ln}.

図6も参照する。処理がスタートすると(ステップS200)初期設定が行われる(ステップS202)。初期設定では、ワーク領域W{Ln}に始点体積画素St1を含める。なおここで「含める」とは、始点体積画素St1の画素値を、ワーク領域W{Ln}中の対応する体積画素の画素値に代入することである。また、処理対象PPci(図では1番目なのでPPc1と記載した。)にSt1を代入する。ワーク領域W{Ln}は、履歴付き領域拡張処理の結果、拡張された体積画素が集められる記憶領域である。   Reference is also made to FIG. When the process starts (step S200), initialization is performed (step S202). In the initial setting, the start point volume pixel St1 is included in the work area W {Ln}. Here, “include” means that the pixel value of the start point volume pixel St1 is substituted into the pixel value of the corresponding volume pixel in the work area W {Ln}. Also, St1 is substituted into the processing target PPci (indicated as PPc1 because it is the first in the figure). The work area W {Ln} is a storage area in which expanded volume pixels are collected as a result of the area expansion process with history.

したがって、ワーク領域W{Ln}に属する体積画素は、どの体積画素から拡張された画素であるかの履歴情報を有している。履歴情報は拡張履歴と言っても良い。ただし、始点体積画素St1は、最初の始点であるので、履歴情報は有していない。図6では、処理対象PPciは1つだけ(St1)なので、PPc1=St1である。   Therefore, the volume pixel belonging to the work area W {Ln} has history information indicating from which volume pixel the pixel is expanded. The history information may be called an extended history. However, since the start point volume pixel St1 is the first start point, it does not have history information. In FIG. 6, since there is only one processing target PPci (St1), PPc1 = St1.

処理対象PPciは、履歴付き領域拡張処理を行う元になる体積画素である。履歴付き領域拡張処理は、処理対象PPciに隣接する体積画素をワーク領域W{Ln}に含めるか否かの判断を行う。なお、体積画素PPciは処理が進むにつれて、数が増える。添字のiはその数を表す。   The processing target PPci is a volume pixel that is a source for performing the area expansion process with history. The area expansion process with history determines whether or not to include a volume pixel adjacent to the processing target PPci in the work area W {Ln}. The number of volume pixels PPci increases as the process proceeds. The subscript i represents the number.

ステップS204では、処理対象PPciを体積画素変数Pxkに代入する。図7では、処理対象PPc1の座標データ、画素値、履歴情報は体積画素変数Px1に代入される。以下、PPc2のデータはPx2へ、PPc3のデータはPx3へ、処理対象PPciの個数分だけ体積画素変数Pxkが生成される。履歴付き領域拡張処理の準備のためである。図7では、Px1=St1だけである。   In step S204, the processing target PPci is substituted into the volume pixel variable Pxk. In FIG. 7, the coordinate data, pixel value, and history information of the processing target PPc1 are substituted into the volume pixel variable Px1. In the following, the volume pixel variable Pxk is generated for the number of processing target PPci, for PPc2 data to Px2 and PPc3 data to Px3. This is to prepare for the area expansion process with history. In FIG. 7, only Px1 = St1.

ステップS206では、処理対象PPciのデータがすべてクリアされる。後のステップで、新たに拡張された体積画素のデータを代入できるようにするためである。   In step S206, all data of the processing target PPci is cleared. This is because the data of the newly expanded volume pixel can be substituted in a later step.

ステップS208では、全ての体積画素変数Pxkについて、周囲26の体積画素PPxklの画素値および履歴情報の有無を調べる。体積画素PPxklは、1つの体積画素変数Pxkについて26個存在する。つまり、PPxk1からPPxk26までである。そして、主領域Main{Ln}に含まれていて、履歴情報を持たない体積画素変数PPxklに対して、体積画素Pxkから拡張されたとする履歴情報を付加し、PPciに代入する。   In step S208, the pixel values of the surrounding 26 volume pixels PPxkl and the presence / absence of history information are checked for all volume pixel variables Pxk. There are 26 volume pixels PPxkl for one volume pixel variable Pxk. That is, from PPxk1 to PPxk26. Then, history information that is expanded from the volume pixel Pxk is added to the volume pixel variable PPxkl that is included in the main region Main {Ln} and does not have history information, and is substituted into PPci.

図6では、主領域Main{Ln}に含まれていて、履歴情報を持たないという条件を満たした体積画素PPxklを「OK[PPxkl]」と表した。また「+α」は履歴情報が付加されたことを示す。処理対象PPciは、PPc1、PPc2、PPc3、・・・といったように、生成される毎に順次番号を付与される。全ての体積画素変数Pxkについて周囲26の体積画素の検査が終了したら、このステップを終了する。   In FIG. 6, the volume pixel PPxkl that is included in the main region Main {Ln} and satisfies the condition of having no history information is represented as “OK [PPxkl]”. “+ Α” indicates that history information has been added. The processing target PPci is assigned a number each time it is generated, such as PPc1, PPc2, PPc3,. When the inspection of the surrounding 26 volume pixels is completed for all volume pixel variables Pxk, this step is ended.

図7では、Px1(=St1)の周囲の画素のうち、主領域Main{Ln}に属し、履歴情報を持たない体積画素a1、a2、a3が拡張された体積画素に相当する。体積画素a1、a2、a3は、すべて体積画素St1から領域拡張されたので、これらの画素の履歴情報はすべてSt1である。この3つの体積画素は、新たな処理対象となるべくPPciに代入される(ステップ208)。具体的にはPPc1=a1、PPc2=a2、PPc3=a3である。   In FIG. 7, among the pixels around Px1 (= St1), volume pixels a1, a2, and a3 that belong to the main region Main {Ln} and have no history information correspond to expanded volume pixels. Since the volume pixels a1, a2, and a3 are all expanded from the volume pixel St1, the history information of these pixels is all St1. The three volume pixels are substituted into PPci as much as possible for a new processing target (step 208). Specifically, PPc1 = a1, PPc2 = a2, and PPc3 = a3.

次に、ステップS210では、ステップS208で求めた処理対象PPciをすべてワーク領域W{Ln}に記憶させる。処理対象PPciは体積画素変数Pxkから新たに拡張された体積画素であり、大動脈に繋がる臓器を含む主領域Main{Ln}に属し、尚且つ履歴情報を有する体積画素である。   Next, in step S210, all the processing targets PPci obtained in step S208 are stored in the work area W {Ln}. The processing target PPci is a volume pixel newly expanded from the volume pixel variable Pxk, belongs to the main region Main {Ln} including an organ connected to the aorta, and has history information.

ステップS212では、新たに拡張された処理対象PPciの何れかが、復元された主領域RMain{Ln}に属するか否かが判断される。つまり、拡張された体積画素PPciが大動脈に届いたか否かが判断される。つまり図7で示した体積画素a1、a2、a3が大動脈の体積画素か否かが判断される。図7では、体積画素a1〜a3の中でPPcmがあるか否かが判断される。図7ではもちろん届いていないと判断される。   In step S212, it is determined whether any of the newly expanded processing target PPci belongs to the restored main area RMain {Ln}. That is, it is determined whether or not the expanded volume pixel PPci has reached the aorta. That is, it is determined whether or not the volume pixels a1, a2, and a3 shown in FIG. 7 are aortic volume pixels. In FIG. 7, it is determined whether or not there is PPcm among the volume pixels a1 to a3. In FIG. 7, it is determined that it has not reached.

この判定がNoであればステップS204に戻り、拡張された処理対象PPciを新たなスタートの体積画素変数Pxkとして上記の処理を継続する(ステップS212のN分岐)。   If this determination is No, the process returns to step S204, and the above processing is continued with the expanded processing target PPci as the new start volume pixel variable Pxk (N branch of step S212).

この判定がYesであれば、最初の始点である始点体積画素St1から大動脈1までのパスが発見されたことを意味する。図7では、体積画素PPciの中で復元された主領域RMain{Ln}に属する体積画素PPcmと一致するものが見つかったということである。この状態は後述する図12に示す。   If this determination is Yes, it means that a path from the start point volume pixel St1, which is the first start point, to the aorta 1 has been found. In FIG. 7, it is found that the one corresponding to the volume pixel PPcm belonging to the restored main region RMain {Ln} is found among the volume pixels PPci. This state is shown in FIG.

次に上記の処理が繰り返された状態の具体例を説明する。図8は、ステップ204からステップ212を3回繰り返した状態を示す。体積画素b1、b2、b3、b4は体積画素a1から領域拡張された体積画素である。体積画素c1、c2、c3、c4は体積画素b1から領域拡張された体積画素である。この時点での処理対象PPciを顕に記載すると、PPc1=c1、PPc2=c2、PPc3=c3、PPc4=c4となっている。   Next, a specific example of a state in which the above process is repeated will be described. FIG. 8 shows a state in which step 204 to step 212 are repeated three times. The volume pixels b1, b2, b3, and b4 are volume pixels that are expanded from the volume pixel a1. Volume pixels c1, c2, c3, and c4 are volume pixels that are expanded from the volume pixel b1. If the processing target PPci at this point is clearly described, PPc1 = c1, PPc2 = c2, PPc3 = c3, PPc4 = c4.

図6も参照して、ステップS204に戻ると、体積画素変数Pxkに処理対象PPciが代入される。したがって、Px1=c1、Px2=c2、Px3=c3、Px4=c4となる。ステップS206では、PPc1からPPc4はクリアされる。   Referring also to FIG. 6, when returning to step S204, the processing target PPci is substituted into the volume pixel variable Pxk. Therefore, Px1 = c1, Px2 = c2, Px3 = c3, and Px4 = c4. In step S206, PPc1 to PPc4 are cleared.

ステップS208に進んで、全ての体積画素変数Pxkについて順次周囲の体積画素PPxklが調べられる。図9では、Px1(=c1)の画素について、隣接する周囲の画素が調べられる様子を示す。体積画素c1にとっては、PPx11からPPx18体積画素が調べる対象となる。なお、「PPx11」は、体積画素c1の周囲にある1番目の体積画素を意味する。体積画素c2の周囲にある3番目の体積画素なら「PPx23」である。周囲の体積画素の番号の振り順は任意であってよい。ここでは二次元だけにしているので8つの体積画素だが、実際は26個の体積画素を調べる。   Proceeding to step S208, surrounding volume pixels PPxkl are sequentially examined for all volume pixel variables Pxk. FIG. 9 shows a state in which adjacent peripheral pixels are examined for the pixel Px1 (= c1). For the volume pixel c1, PPx11 to PPx18 volume pixels are the objects to be examined. “PPx11” means the first volume pixel around the volume pixel c1. The third volume pixel around the volume pixel c2 is “PPx23”. The order of the numbers of the surrounding volume pixels may be arbitrary. Here, since it is only two-dimensional, it is eight volume pixels, but actually 26 volume pixels are examined.

このPPx11からPPx18のなかで、主領域Main{Ln}に含まれていて、履歴情報を持たない体積画素PPxklに該当するのは、PPx11、PPx12、PPx13、PPx18の4つの体積画素である。したがって、(新たな)処理対象PPciには拡張元は体積画素c1であるという履歴情報と共にこれら4つの体積画素が入力される。これら4つの画素をd1〜d4とし、処理対象PPciを顕に記載すると、PPc1=d1、PPc2=d2、PPc3=d3、PPc4=d4である。図10にこの状態を示す。   Among the PPx11 to PPx18, four volume pixels PPx11, PPx12, PPx13, and PPx18 correspond to the volume pixel PPxkl that is included in the main region Main {Ln} and has no history information. Therefore, these four volume pixels are input to the (new) processing target PPci together with the history information that the expansion source is the volume pixel c1. When these four pixels are d1 to d4 and the processing target PPci is clearly described, PPc1 = d1, PPc2 = d2, PPc3 = d3, and PPc4 = d4. FIG. 10 shows this state.

このようにして他の体積画素変数Pxk(c2、c3、c4)についても調べられる。しかし、ここでは、これらの体積画素の周囲は、全て主領域Main{Ln}に含まれていない若しくは、履歴情報がすでに付与された体積画素になっている。例えば、図11に体積画素c2(=Px2とする。)の周囲の画素PPxklを示した。具体的にはPPx21〜PPx28である。これら8つの体積画素は、全て履歴情報がすでに作成されているか、主領域Main{Ln}に属していない。したがって、この回の処理で新たに拡張された体積画素となるのは、d1、d2、d3、d4の4つの体積画素で、これらの履歴情報はc1となる。   In this way, other volume pixel variables Pxk (c2, c3, c4) are also examined. However, here, all of the surroundings of these volume pixels are not included in the main area Main {Ln}, or are volume pixels to which history information has already been assigned. For example, FIG. 11 shows a pixel PPxkl around the volume pixel c2 (= Px2). Specifically, PPx21 to PPx28. All of these eight volume pixels have history information already created or do not belong to the main area Main {Ln}. Accordingly, the volume pixels newly expanded in this processing are four volume pixels d1, d2, d3, and d4, and their history information is c1.

再び図6を参照して、ステップS214では、具体的なパスを求める。拡張された体積画素PPciの中に体積画素PPcmが存在したということは、体積画素PPcmに履歴情報が付加されたことを意味する。この履歴情報により、隣接している拡張元の体積画素がわかる。拡張元の体積画素はワーク領域W{Ln}に記録されているので、その体積画素の履歴情報もわかる。このようにして、体積画素PPcmから始点体積画素St1に至る体積画素の並びを求めることができる。これがパスである。これらの体積画素をパスP{PSk}とする。PS1は始点体積画素St1であり、PSnは体積画素PPcmである。なお、PSkはn個あるとした。   Referring to FIG. 6 again, in step S214, a specific path is obtained. The presence of the volume pixel PPcm in the expanded volume pixel PPci means that history information is added to the volume pixel PPcm. From this history information, the adjacent expansion source volume pixel is known. Since the expansion source volume pixel is recorded in the work area W {Ln}, the history information of the volume pixel is also known. In this way, the arrangement of volume pixels from the volume pixel PPcm to the start point volume pixel St1 can be obtained. This is the path. These volume pixels are defined as a path P {PSk}. PS1 is the start point volume pixel St1, and PSn is the volume pixel PPcm. It is assumed that there are n PSk.

図12には、パスの具体例を示した。図10から更に履歴付き領域拡張処理を行うと、図12が得られる。体積画素変数Pxkがf1〜f4であるときに、履歴付き領域拡張処理を行った結果g1〜g3で示す拡張された体積画素(処理対象)PPciが求められた(ステップS208)。そして、この中の1つの体積画素g1が、大動脈1だけを表す復元された主領域(大動脈領域)RMain{Ln}に属するPPcmに一致した(ステップS212)。そこで、体積画素PPcm(g1)から履歴情報を辿って、始点体積画素St1までのパスが求まる。図12では、St1、a1、b1、c1、d1、e1、f1、PPcm(g1)がパスP{PSk}に属する体積画素である。   FIG. 12 shows a specific example of the path. When the history-added area expansion process is further performed from FIG. 10, FIG. 12 is obtained. When the volume pixel variable Pxk is f1 to f4, the expanded volume pixel (processing target) PPci indicated by g1 to g3 is obtained as a result of performing the region expansion process with history (step S208). Then, one of the volume pixels g1 coincides with PPcm belonging to the restored main region (aorta region) RMain {Ln} representing only the aorta 1 (step S212). Accordingly, the history information is traced from the volume pixel PPcm (g1), and a path to the start point volume pixel St1 is obtained. In FIG. 12, St1, a1, b1, c1, d1, e1, f1, and PPcm (g1) are volume pixels belonging to the path P {PSk}.

図6を参照して、ステップS216では、パスP{PSk}の全ての体積画素について、主領域Main{Ln}に含まれない点が見つかるまで膨張処理を行う。また、ここで、復元された主領域RMain{Ln}と腫瘍領域C{Ln}まで領域拡張処理が進んだらそれ以上の領域拡張処理は行わない。また、決まった回数だけ領域拡張処理を行ってもよい。領域拡張処理は、画素値がVPthより小さい体積画素は選択されないので、目的血管領域が撮影された以上に太くなることはないからである。領域拡張された体積画素の画素値は目的血管領域Ob{Ln}の対応する体積画素の画素値として記録する。言い換えると、患部領域C{Ln}から大動脈領域RMain{Ln}までの拡張履歴に沿った体積画素を領域拡張処理して目的血管領域Ob{Ln}を求める。   Referring to FIG. 6, in step S216, expansion processing is performed for all volume pixels of path P {PSk} until a point not included in main region Main {Ln} is found. Further, when the region expansion process proceeds to the restored main region RMain {Ln} and tumor region C {Ln}, no further region expansion processing is performed. Further, the area expansion process may be performed a predetermined number of times. This is because the area expansion process does not select a volume pixel whose pixel value is smaller than VPth, and therefore does not become thicker than the target blood vessel area is imaged. The pixel value of the volume pixel whose area has been expanded is recorded as the pixel value of the volume pixel corresponding to the target blood vessel area Ob {Ln}. In other words, the target vascular region Ob {Ln} is obtained by subjecting the volume pixels along the expansion history from the affected region C {Ln} to the aortic region RMain {Ln} to region expansion processing.

以上の処理により、腫瘍8と大動脈1とをつなぐ目的血管のみを表す目的血管領域Ob{Ln}を抽出することができる。このようにして抽出された被検体の大動脈1(復元された主領域RMain{Ln})と腫瘍8(腫瘍領域C{Ln})とそれらをつなぐ血管20の領域(目的血管領域Ob{Ln})を含む抽出された画像を図4(h)に示す。なお、ここでは、目的血管20は1本を示したが、目的血管20は複数本あってもよい。図3でステップs10は「目的血管領域Ob{Ln}を求める」と記載した。   Through the above processing, the target blood vessel region Ob {Ln} representing only the target blood vessel connecting the tumor 8 and the aorta 1 can be extracted. The aorta 1 (reconstructed main region RMain {Ln}) and tumor 8 (tumor region C {Ln}) of the subject extracted in this manner and the region of the blood vessel 20 connecting them (target blood vessel region Ob {Ln}) The extracted image including) is shown in FIG. Here, only one target blood vessel 20 is shown, but there may be a plurality of target blood vessels 20. In FIG. 3, step s10 is described as “determining the target blood vessel region Ob {Ln}”.

なお、ステップs9の重なり領域検出工程はステップs10の目的血管抽出工程に含めても良い。また、画像処理装置100では、重なり領域検出部109は、目的血管抽出部110に含めても良い。   Note that the overlapping region detection step in step s9 may be included in the target blood vessel extraction step in step s10. In the image processing apparatus 100, the overlapping region detection unit 109 may be included in the target blood vessel extraction unit 110.

(画像表示工程(s11))
本プロセスでは、目的血管抽出工程(s10)により抽出されて生成された画像を三次元画像として画像表示部90に表示する。少なくとも大動脈領域である復元された主領域RMain{Ln}、腫瘍領域C{Ln}、目的血管領域Ob{Ln}の3つのデータを表示するのが望ましい。また、主領域Main{Ln}や全領域Vol{Ln}をこれら3つのデータに重ねて若しくは差し引いて表示してもよい。もちろん、これらのデータは適宜着色若しくは輝度を変化させて表示することができる。
(Image display step (s11))
In this process, the image extracted and generated in the target blood vessel extraction step (s10) is displayed on the image display unit 90 as a three-dimensional image. It is desirable to display at least three data of the restored main region RMain {Ln}, tumor region C {Ln}, and target blood vessel region Ob {Ln}, which are at least the aortic region. In addition, the main area Main {Ln} and the entire area Vol {Ln} may be displayed by superimposing or subtracting these three data. Of course, these data can be displayed by appropriately changing the color or luminance.

このような処理により、腫瘍8と大動脈1とをつなぐ目的血管である血管20を選択的に表示することができる。生成された三次元画像を図13に例示する。なお、図13では、点線で、肋骨5及び脊椎6の画像を重ねたときの図を示している。   By such processing, it is possible to selectively display a blood vessel 20 that is a target blood vessel connecting the tumor 8 and the aorta 1. The generated three-dimensional image is illustrated in FIG. In addition, in FIG. 13, the figure when the image of the rib 5 and the spine 6 is piled up with the dotted line is shown.

図13に示したように、本実施形態の画像処理装置及び画像処理方法によれば、被検体断層撮影三次元画像を画像処理することにより、大動脈1から腫瘍8への経路に至る血管を特定して表示させることができる。このような画像によれば、大動脈1の分岐点や屈曲点等の形状特徴、または、肋骨5や脊椎6の画像と重ねること等により、それらを目印として、腫瘍8等への経路に至る血管20の位置を明示することができる。   As shown in FIG. 13, according to the image processing apparatus and the image processing method of the present embodiment, the blood vessel leading to the path from the aorta 1 to the tumor 8 is specified by performing image processing on the tomographic three-dimensional image of the subject. Can be displayed. According to such an image, a blood vessel that reaches the path to the tumor 8 or the like by using a shape feature such as a branching point or a bending point of the aorta 1 or an image of the rib 5 or the spine 6 as a mark. Twenty positions can be specified.

以上、本実施形態の画像処理装置、画像処理方法及びコンピュータプログラムの一例を詳しく説明した。本実施形態の画像処理装置等は上記例に限られず、種々の改変が加えられて用いてもよい。例えば、断層画像群Set{Ln}から生成される三次元画像データVol{Ln}に複数の腫瘍が存在する場合には、図3の破線で示したように、画像表示工程(s11)の後、さらに、腫瘍位置設定工程(s7)に戻り、他の腫瘍を指定してもよい。   Heretofore, an example of the image processing apparatus, the image processing method, and the computer program according to the present embodiment has been described in detail. The image processing apparatus according to the present embodiment is not limited to the above example, and various modifications may be added. For example, when there are a plurality of tumors in the three-dimensional image data Vol {Ln} generated from the tomographic image group Set {Ln}, as shown by the broken line in FIG. 3, after the image display step (s11). Furthermore, it is possible to return to the tumor position setting step (s7) and designate another tumor.

その後、上述したのと同様に目的血管抽出工程(s10)までの工程、または画像表示工程(s11)までの工程を腫瘍の数と同じだけ複数回繰り返すことにより、複数の腫瘍につながる目的血管をそれぞれ抽出することもできる。   After that, by repeating the steps up to the target blood vessel extraction step (s10) or the image display step (s11) as many times as the number of tumors as described above, target blood vessels connected to a plurality of tumors are obtained. Each can also be extracted.

さらに、複数の血管につながる腫瘍の場合には、各血管毎に重なり領域検出工程(s9)から目的血管抽出工程(s10)までの工程、または画像表示工程(s11)までの工程を血管の数と同じだけ複数回繰り返すことにより、各血管毎の大動脈につながる目的血管をそれぞれ抽出してもよい。   Further, in the case of a tumor connected to a plurality of blood vessels, the number of blood vessels is determined by the steps from the overlapping region detection step (s9) to the target blood vessel extraction step (s10) or the image display step (s11) for each blood vessel. The target blood vessels connected to the aorta for each blood vessel may be respectively extracted by repeating the same multiple times.

[第二実施形態]
本実施形態の画像処理装置、画像処理方法及びコンピュータプログラムは、被検体の三次元画像データを形成するための断層画像群Set{Ln}の取得(s0)から膨張処理工程(s6)までは第一実施形態と同様である。第一実施形態においては、腫瘍から伸びる血管の起点を特定するために、ユーザーが既知の腫瘍上に腫瘍の位置を特定するために設定点P2を指定した。なお、以下の説明において、「領域に含める」、「領域に属する」といった表現は第一実施形態の場合と同じである。
[Second Embodiment]
The image processing apparatus, the image processing method, and the computer program according to the present embodiment are the first from the acquisition (s0) of the tomographic image group Set {Ln} for forming the three-dimensional image data of the subject to the expansion processing step (s6). It is the same as that of one embodiment. In the first embodiment, in order to specify the origin of the blood vessel extending from the tumor, the user designates the set point P2 to specify the position of the tumor on the known tumor. In the following description, expressions such as “include in area” and “belong to area” are the same as those in the first embodiment.

次に、設定点P2から領域拡張処理することにより腫瘍領域C{Ln}を抽出し、血管の起点となる重なり領域L{Ln}を腫瘍領域C{Ln}と主領域Main{Ln}との重なりから検出した。そして、この重なり領域L{Ln}からさらに大動脈1(復元された主領域RMain{Ln})まで履歴付き領域拡張することにより、腫瘍8と大動脈1とをつなぐ血管20を特定した。   Next, the tumor region C {Ln} is extracted by performing region expansion processing from the set point P2, and the overlapping region L {Ln} serving as the blood vessel origin is defined as the tumor region C {Ln} and the main region Main {Ln}. Detected from overlap. Then, the blood vessel 20 that connects the tumor 8 and the aorta 1 was specified by expanding the region with history from the overlap region L {Ln} to the aorta 1 (reconstructed main region RMain {Ln}).

一方、本実施形態においては、予め、既知の血管や出血を示す領域が認識できている場合に、そのような既知の体積画素を始点として指定して、その始点から履歴付き領域拡張処理することにより、始点と大動脈1とをつなぐ血管を抽出する例について説明する。なお、第一実施形態と同様の工程については説明を省略する。また、第一実施形態と同じ符号の要素は、第一実施形態と同様の要素を示す。   On the other hand, in the present embodiment, when a region indicating a known blood vessel or bleeding is recognized in advance, such a known volume pixel is designated as a starting point, and the region with history is expanded from the starting point. Thus, an example of extracting a blood vessel connecting the starting point and the aorta 1 will be described. In addition, description is abbreviate | omitted about the process similar to 1st embodiment. Moreover, the element of the same code | symbol as 1st embodiment shows an element similar to 1st embodiment.

図14は、画像処理装置200の画像処理部を説明する説明図であり、図15は、画像処理方法の処理の一連の流れを示すフローチャートであり、図16は、画像処理方法の各工程による処理を図示した模式図である。なお、画像処理装置200は、図1に示した画像処理装置100と実質的に同様の装置構成を有する。   FIG. 14 is an explanatory diagram for explaining the image processing unit of the image processing apparatus 200, FIG. 15 is a flowchart showing a series of processing steps of the image processing method, and FIG. 16 shows the steps of the image processing method. It is the schematic diagram which illustrated the process. The image processing apparatus 200 has a device configuration substantially similar to that of the image processing apparatus 100 shown in FIG.

また、画像処理プログラムは、第一実施形態の画像処理プログラム71の代わりに、図15のフローチャートに示したプロセスで画像処理を行う画像処理プログラム72が用いられる。すなわち、本実施形態の画像処理プログラム72は、コンピュータに実行させる処理として、第一実施形態と同様に、画像形成工程(ステップs1)と、中心抽出工程(ステップs2)と、主領域抽出工程(ステップs3)と、収縮処理工程(ステップs4)と、芯部抽出工程(ステップs5)と、膨張処理工程(ステップs6)とを規定している。   Further, instead of the image processing program 71 of the first embodiment, an image processing program 72 that performs image processing by the process shown in the flowchart of FIG. 15 is used as the image processing program. That is, the image processing program 72 of the present embodiment, as the processing to be executed by the computer, is similar to the first embodiment in the image forming process (step s1), the center extracting process (step s2), and the main area extracting process ( Step s3), a contraction process (step s4), a core extraction process (step s5), and an expansion process (step s6) are defined.

一方、腫瘍位置設定工程(ステップs7)と、腫瘍領域抽出工程(ステップs8)と、重なり領域検出工程(ステップs9)と、目的血管抽出工程(ステップs10)の代わりに、ユーザーから指示された三次元画像データ中の枝血管または出血を示す領域の任意の点を、始点として設定する始点設定工程(ステップs20)と、三次元画像データに対して、始点を初期領域として領域拡張処理することにより、始点と大動脈とをつなぐ目的血管の領域を抽出する目的血管抽出工程(ステップs21)とを規定する。   On the other hand, instead of the tumor position setting step (step s7), the tumor region extraction step (step s8), the overlapping region detection step (step s9), and the target blood vessel extraction step (step s10), the tertiary indicated by the user A starting point setting step (step s20) for setting an arbitrary point of a branch blood vessel or a region indicating bleeding in the original image data as a starting point, and region expansion processing with the starting point as an initial region for the three-dimensional image data A target blood vessel extraction step (step s21) for extracting a target blood vessel region connecting the start point and the aorta is defined.

そして、図14に示すように、コンピュータに、上記各工程を実行させる画像処理プログラムがインストールされることにより、画像形成部101、中心抽出部102、主領域抽出部103、収縮処理部104、芯部抽出部105、膨張処理部106、始点設定部207、目的血管抽出部210を構成する。   Then, as shown in FIG. 14, an image processing program for executing the above steps is installed in the computer, so that the image forming unit 101, the center extracting unit 102, the main area extracting unit 103, the contraction processing unit 104, the core A part extraction unit 105, an expansion processing unit 106, a start point setting unit 207, and a target blood vessel extraction unit 210 are configured.

このような画像処理装置200を用いて実行される画像処理を一連の処理の流れに沿って説明する。   Image processing executed using such an image processing apparatus 200 will be described along a series of processing flows.

上述のように、画像処理装置200を用いて実行される画像処理は、図15に示す、被検体の三次元画像データを形成するための断層画像群Set{Ln}の取得(s0)から膨張処理工程(復元された主領域RMain{Ln}を求める)(s6)までは、第一実施形態と同様に処理が進められる。この結果、図16に示す、(a)〜(e)までも第一実施形態と同様に処理が進められる。従って、ユーザーから指示された三次元画像データ中の枝血管または出血を示す領域の任意の点を、始点として設定する始点設定工程以降の工程について、詳しく説明する。   As described above, the image processing executed using the image processing apparatus 200 is expanded from the acquisition (s0) of the tomographic image group Set {Ln} for forming the three-dimensional image data of the subject shown in FIG. Up to the processing step (determining the restored main region RMain {Ln}) (s6), the processing proceeds as in the first embodiment. As a result, the process proceeds from (a) to (e) shown in FIG. 16 as in the first embodiment. Therefore, the steps after the start point setting step of setting an arbitrary point of the branch blood vessel or bleeding region in the 3D image data instructed by the user as the start point will be described in detail.

(始点設定工程(s20))
本プロセスでは、始点設定部207により、画像形成部101で形成された全領域Vol{Ln}中の、既知の目的とする血管上の点(P3)や、出血を示す領域上の点(P4)を始点として設定する。また、医用画像診断装置160で撮影した断層画像群Set{Ln}で血管上の点(P3)や出血を示す領域(P4)を位置設定してもよい。いずれにしても、本プロセスでは、全領域Vol{Ln}中で始点(P3、P4)と判断される箇所の体積画素の座標が指定される。なお、この指定は、ユーザーの直接指示で行っても良い。なお、始点(P3、P4)は患部体積画素である。
(Start point setting step (s20))
In this process, the start point setting unit 207 makes a known point on the blood vessel (P3) in the entire region Vol {Ln} formed by the image forming unit 101, or a point on the region indicating bleeding (P4). ) Is set as the starting point. Further, a point (P3) on the blood vessel or a region (P4) showing bleeding may be set in the tomographic image group Set {Ln} taken by the medical image diagnostic apparatus 160. In any case, in this process, the coordinates of the volume pixel at the location determined as the start point (P3, P4) in the entire area Vol {Ln} are designated. This designation may be made by direct user instruction. The starting point (P3, P4) is the affected area volume pixel.

具体的な手順としては、三次元画像データである全領域Vol{Ln}において、既知の血管や出血を示す部分が映っていると考えられる断面画像を二次元画像として画像表示部90に表示させる。断面画像は、全領域Vol{Ln}においてz座標が同一のデータである。このデータは、x座標、y座標、z座標と画素値の4つの成分を含む。ユーザーは、画像表示部90を確認しながら入力部80であるマウス等のポインティングデバイスを操作することにより、画像表示部90上の目的とする血管上の点や出血を示す領域上の点を始点(P3またはP4)として指定する。   As a specific procedure, in the entire region Vol {Ln}, which is three-dimensional image data, a cross-sectional image that is considered to show a portion indicating a known blood vessel or bleeding is displayed on the image display unit 90 as a two-dimensional image. . The cross-sectional image is data having the same z coordinate in the entire region Vol {Ln}. This data includes four components: an x coordinate, a y coordinate, a z coordinate, and a pixel value. The user operates a pointing device such as a mouse as the input unit 80 while confirming the image display unit 90, thereby starting a point on the target blood vessel on the image display unit 90 or a point on the region indicating bleeding. Designate as (P3 or P4).

始点設定部207は、ユーザーにより指定された点を識別し、その点を目的とする血管上の点(P3)や、認識されている出血を示す領域上の点(P4)として設定する。このようにして設定された点P3、P4を図16(f)に示す。   The start point setting unit 207 identifies a point designated by the user, and sets the point as a point (P3) on the target blood vessel or a point (P4) on the recognized bleeding region. The points P3 and P4 set in this way are shown in FIG.

(目的血管抽出工程(s21))
本プロセスでは、目的血管抽出部210により、始点設定工程(s20)で設定された既知の目的とする血管上の点(P3)や、出血を示す領域上の点(P4)を初期領域として、画像形成工程(s1)で生成された三次元画像のボリュームデータVol{Ln}に対して、初期領域(P3若しくはP4)から大動脈1に到達する目的血管領域Ob{Ln}を抽出する。また、主領域Main{Ln}から目的血管領域Ob{Ln}を抽出してもよい。
(Target blood vessel extraction step (s21))
In this process, the target blood vessel extraction unit 210 uses, as an initial region, a point (P3) on the known target blood vessel set in the start point setting step (s20) or a point (P4) on a region indicating bleeding. The target blood vessel region Ob {Ln} reaching the aorta 1 from the initial region (P3 or P4) is extracted from the volume data Vol {Ln} of the three-dimensional image generated in the image forming step (s1). Further, the target blood vessel region Ob {Ln} may be extracted from the main region Main {Ln}.

処理手順は第一実施形態と同じで、初期領域(P3若しくはP4)から大動脈だけを示す復元された主領域RMain{Ln}に含まれる体積画素が見つかるまで履歴付き領域拡張処理を施す。そして、パスP{PSk}が発見されたら、パスに含まれる全ての体積画素について、主領域Main{Ln}に含まれない点が見つかるまで、復元された主領域RMain{Ln}と患部領域C{Ln}に到達するまで領域拡張処理を行う。   The processing procedure is the same as in the first embodiment, and the history-added region expansion process is performed until a volume pixel included in the restored main region RMain {Ln} indicating only the aorta from the initial region (P3 or P4) is found. When the path P {PSk} is found, the restored main area RMain {Ln} and the affected area C are found until points that are not included in the main area Main {Ln} are found for all the volume pixels included in the path. The area expansion process is performed until {Ln} is reached.

また、決まった回数だけ領域拡張処理をおこなってもよい。領域拡張処理は、画素値がVPthより小さい体積画素は選択されないので、目的血管領域が撮影された以上に太くなることはないからである。なお、履歴付き領域拡張処理は、第一実施形態で説明した履歴付き領域拡張処理と同じである。   Further, the area expansion process may be performed a predetermined number of times. This is because the area expansion process does not select a volume pixel whose pixel value is smaller than VPth, and therefore does not become thicker than the target blood vessel area is imaged. The area expansion process with history is the same as the area expansion process with history described in the first embodiment.

このような処理により、目的血管領域Ob{Ln}が求められる。図16(g)には、目的血管領域Ob{Ln}として求められた、血管上の点(P3)と大動脈1とをつなぐ枝血管20や、出血を示す領域上の点(P4)と大動脈1とをつなぐ枝血管30を例示する。   By such processing, the target blood vessel region Ob {Ln} is obtained. FIG. 16G shows the branch blood vessel 20 connecting the point (P3) on the blood vessel and the aorta 1 obtained as the target blood vessel region Ob {Ln}, and the point (P4) on the region showing bleeding and the aorta. 1 illustrates a branch blood vessel 30 connecting 1 to the other.

(画像表示工程(s11))
本プロセスでは、目的血管抽出工程(s21)により抽出されて生成された目的血管領域Ob{Ln}のデータを三次元画像として画像表示部90に表示する。このような処理により、血管上の点(P3)と大動脈1とをつなぐ枝血管20や、出血を示す領域上の点(P4)と大動脈1とをつなぐ枝血管30を表示することができる。
(Image display step (s11))
In this process, the data of the target blood vessel region Ob {Ln} extracted and generated in the target blood vessel extraction step (s21) is displayed on the image display unit 90 as a three-dimensional image. By such processing, the branch blood vessel 20 that connects the point (P3) on the blood vessel and the aorta 1 and the branch blood vessel 30 that connects the point (P4) on the region showing bleeding and the aorta 1 can be displayed.

以上、本実施形態の画像処理装置、画像処理方法及びコンピュータプログラムの一例を詳しく説明した。本実施形態の画像処理装置等は上記例に限られず、種々の改変が加えられて用いてもよい。例えば、断層画像群Set{Ln}から生成される三次元画像データVol{Ln}に複数の出血領域が存在する場合には、図15の破線で示したように、画像表示工程(s11)の後、さらに、始点設定工程(s20)に戻り、他の始点を指定してもよい。   Heretofore, an example of the image processing apparatus, the image processing method, and the computer program according to the present embodiment has been described in detail. The image processing apparatus according to the present embodiment is not limited to the above example, and various modifications may be added. For example, when there are a plurality of bleeding regions in the three-dimensional image data Vol {Ln} generated from the tomographic image group Set {Ln}, as shown by the broken line in FIG. 15, the image display step (s11). Thereafter, it is possible to return to the start point setting step (s20) and specify another start point.

その後、上述したのと同様に目的血管抽出工程(s21)までの工程、または画像表示工程(s11)までの工程を出血領域の数と同じだけ複数回繰り返すことにより、各出血領域につながる目的血管をそれぞれ抽出することもできる。   Thereafter, as described above, the steps up to the target blood vessel extraction step (s21) or the steps up to the image display step (s11) are repeated a plurality of times as many as the number of the bleeding regions, whereby the target blood vessels connected to each bleeding region. Can also be extracted.

なお、第一実施形態で示したように、設定点P2と拡張する領域の半径rをユーザーが指定することで、患部領域C{Ln}を求める手法は、本実施形態における始点設定工程(s20)で用いても良い。すなわち、始点設定工程(s20)で始点(P3,P4)が求められたら、患部領域C{Ln}の範囲(半径r)をユーザーが入力する。その後の処理は第一実施形態と同じにする。つまり、第一実施形態で示した本発明は、腫瘍の代わりに本実施形態で示した血管上の点や出血を示す領域に対しても適用することができる。   Note that, as shown in the first embodiment, the method of obtaining the affected area C {Ln} by the user specifying the set point P2 and the radius r of the area to be expanded is the start point setting step (s20 in this embodiment). ). That is, when the start point (P3, P4) is obtained in the start point setting step (s20), the user inputs the range (radius r) of the affected area C {Ln}. Subsequent processing is the same as in the first embodiment. That is, the present invention shown in the first embodiment can be applied to a point on a blood vessel or a region showing bleeding shown in this embodiment instead of a tumor.

本発明によれば、被検体断層撮影から得た三次元画像データを画像処理することにより、大動脈から腫瘍や出血箇所等への経路に至る血管を選択的に表示させることができる。このようにして得られる画像によれば、大動脈の分岐点や屈曲点、または、肋骨像を重ねる等により、それらを目印として、腫瘍や出血箇所等への経路に至る血管の位置を特定することが簡便にできる。それにより、特殊な技能を有する放射線技師等が、時間をかけて大動脈と腫瘍や出血箇所とをつなぐ血管を読み取る必要もなく、個人の技能によらず、それらの血管の位置を明示することができる。   According to the present invention, by processing the three-dimensional image data obtained from the tomography of the subject, it is possible to selectively display blood vessels from the aorta to the path to the tumor or bleeding site. According to the image obtained in this way, the position of the blood vessel leading to the path to the tumor, bleeding site, etc. can be identified using the aortic bifurcation point, bending point, or rib image as a landmark. Can be simplified. As a result, radiologists with special skills do not need to read the blood vessels that connect the aorta to the tumor or bleeding site over time, and the positions of these blood vessels can be clearly shown regardless of individual skills. it can.

したがって、本発明に係る画像処理装置および画像処理方法を利用すれば、個人の技能によらなくとも、目的とする腫瘍までの血管を見つけ出し、腫瘍にだけ抗がん剤を送り届けることができる。また、出血部分と動脈との間の血管を特定し、効率的に止血処置を施すこと等が可能になる。   Therefore, by using the image processing apparatus and the image processing method according to the present invention, it is possible to find blood vessels up to the target tumor and deliver the anticancer agent only to the tumor without depending on individual skills. In addition, it is possible to specify a blood vessel between the bleeding portion and the artery and efficiently perform hemostasis treatment.

1 大動脈
2 枝血管
3 腫瘍のない臓器
4 腫瘍のある臓器
5 肋骨
6 脊椎
8 腫瘍
20,30 枝血管
50 演算制御部
60 主記憶部
70 補助記憶部
71 画像処理プログラム
80 入力部
90 画像表示部
100,200 画像処理装置
101 画像形成部
102 中心抽出部
103 主領域抽出部
104 収縮処理部
105 芯部抽出部
106 膨張処理部
107 腫瘍位置設定部
207 始点設定部
108 腫瘍領域抽出部
109 重なり領域検出部
110,210 目的血管抽出部
150 医用画像保管装置
160 医用画像診断装置
1000 医用画像診断システム
DESCRIPTION OF SYMBOLS 1 Aorta 2 Branch vessel 3 Tumor-free organ 4 Tumor-containing organ 5 Rib 6 Spine 8 Tumor 20, 30 Branch vessel 50 Calculation control unit 60 Main storage unit 70 Auxiliary storage unit 71 Image processing program 80 Input unit 90 Image display unit 100 , 200 Image processing apparatus 101 Image forming unit 102 Center extraction unit 103 Main region extraction unit 104 Contraction processing unit 105 Core unit extraction unit 106 Expansion processing unit 107 Tumor position setting unit 207 Start point setting unit 108 Tumor region extraction unit 109 Overlapping region detection unit DESCRIPTION OF SYMBOLS 110,210 Target blood vessel extraction part 150 Medical image storage apparatus 160 Medical image diagnostic apparatus 1000 Medical image diagnostic system

Claims (18)

複数の断層画像から三次元画像データとなる全領域を作る画像形成部と、
前記全領域から大動脈に繋がる主領域を抽出する主領域抽出部と
前記主領域から大動脈だけを示す大動脈領域を抽出する大動脈領域抽出部と、
前記全領域から患部を含む患部領域を求める患部領域抽出部と、
前記患部領域から前記大動脈領域までをつなぐ目的血管領域を求める目的血管抽出部とを有することを特徴とする画像処理装置。
An image forming unit that creates an entire area to be 3D image data from a plurality of tomographic images;
A main region extraction unit for extracting a main region connected to the aorta from the entire region; and an aorta region extraction unit for extracting an aorta region indicating only the aorta from the main region;
An affected area extraction unit for obtaining an affected area including the affected area from the entire area;
An image processing apparatus comprising: a target blood vessel extraction unit that obtains a target blood vessel region that connects the affected area to the aorta region.
前記主領域抽出部は、
前記断層画像の1枚を2値化処理し、
前記2値化処理された断層画像上の各画素に対して最も近い画素値がゼロの点までの距離を求める距離変換処理を行い、
前記距離が最も大きかった画素を含む体積画素を中心画素とし、前記中心画素から領域拡張処理によって大動脈に繋がる前記主領域を抽出することを特徴とする請求項1に記載された画像処理装置。
The main area extraction unit includes:
Binarizing one of the tomographic images,
A distance conversion process is performed to obtain a distance to a point where the nearest pixel value is zero for each pixel on the binarized tomographic image,
The image processing apparatus according to claim 1, wherein the main region connected to the aorta is extracted from the central pixel by a region expansion process using a volume pixel including the pixel having the largest distance as a central pixel.
前記大動脈領域抽出部は、
前記主領域を所定の回数だけ収縮処理し、
前記収縮された主領域に対して前記中心画素から領域拡張処理を行い芯部領域を求め、
前記芯部領域を所定の回数だけ膨張処理を行うことを特徴とする請求項2に記載された画像処理装置。
The aorta region extraction unit is
Shrinking the main region a predetermined number of times,
Perform a region expansion process on the contracted main region from the center pixel to obtain a core region,
The image processing apparatus according to claim 2, wherein the core region is expanded a predetermined number of times.
前記患部領域抽出部は、
前記主領域から前記患部に含まれる患部体積画素を指定し、前記患部領域とすることを特徴とする請求項1乃至3の何れか1の請求項に記載された画像処理装置。
The affected area extraction unit
The image processing apparatus according to any one of claims 1 to 3, wherein an affected area volume pixel included in the affected area is designated from the main area, and the affected area is designated as the affected area.
前記目的血管抽出部は、
前記患部領域から前記大動脈領域までを領域拡張の履歴を残しながら領域拡張処理を行い、
前記患部領域から前記大動脈領域までの拡張履歴に沿った体積画素を領域拡張処理し、前記目的血管領域を求めることを特徴とする
請求項4に記載された画像処理装置。
The target blood vessel extraction unit
Perform area expansion processing while leaving a history of area expansion from the affected area to the aorta area,
5. The image processing apparatus according to claim 4, wherein a volume pixel along an expansion history from the affected area to the aorta area is subjected to area expansion processing to obtain the target blood vessel area.
前記患部領域抽出部は、
前記全領域から前記患部に含まれる患部体積画素を指定し、前記患部体積画素から所定回数だけ領域拡張処理によって前記患部領域を求めることを特徴とする請求項1乃至3の何れか1の請求項に記載された画像処理装置。
The affected area extraction unit
4. The affected part volume pixel included in the affected part is designated from the whole area, and the affected part area is obtained from the affected part volume pixel by a region extension process a predetermined number of times. The image processing apparatus described in 1.
前記患部領域抽出部は、
前記全領域から前記患部に含まれる患部体積画素を指定し、前記患部体積画素から所定の範囲に含まれる体積画素を前記患部領域に含めることを特徴とする請求項1乃至3の何れか1の請求項に記載された画像処理装置。
The affected area extraction unit
4. The affected area volume pixel included in the affected area is designated from the entire area, and the volume pixel included in a predetermined range from the affected area volume pixel is included in the affected area. 5. An image processing apparatus according to claim.
前記目的血管抽出部は、
前記患部領域と前記主領域の共通部分である重なり領域を求め、
前記重なり領域から前記大動脈領域までを領域拡張の履歴を残しながら領域拡張処理を行い、
前記患部領域から前記大動脈領域までの拡張履歴に沿った体積画素を領域拡張処理し、
目的血管領域を求めることを特徴とする請求項6または7の何れかに記載された画像処理装置。
The target blood vessel extraction unit
Find the overlapping area that is the common part of the affected area and the main area,
Perform region expansion processing while leaving a history of region expansion from the overlapping region to the aorta region,
Volume expansion process along the expansion history from the affected area to the aorta area, area expansion processing,
The image processing apparatus according to claim 6, wherein a target blood vessel region is obtained.
複数の断層画像から三次元画像データとなる全領域を作る画像形成工程と、
前記全領域から大動脈に繋がる主領域を抽出する主領域抽出工程と
前記主領域から大動脈だけを示す大動脈領域を抽出する大動脈領域抽出工程と、
前記全領域から患部を含む患部領域を求める患部領域抽出工程と、
前記患部領域から前記大動脈領域までをつなぐ目的血管領域を求める目的血管抽出工程とを有することを特徴とする画像処理方法。
An image forming process for creating an entire area to be three-dimensional image data from a plurality of tomographic images;
A main region extraction step for extracting a main region connected to the aorta from the entire region; and an aorta region extraction step for extracting an aorta region indicating only the aorta from the main region;
An affected area extracting step for obtaining an affected area including the affected area from the entire area;
And a target blood vessel extraction step for obtaining a target blood vessel region connecting the affected area to the aorta region.
前記主領域抽出工程は、
前記断層画像の1枚を2値化処理し、
前記2値化処理された断層画像上の各画素に対して最も近い画素値がゼロの点までの距離を求める距離変換処理を行い、
前記距離が最も大きかった画素を含む体積画素を中心画素とし、前記中心画素から領域拡張処理によって大動脈に繋がる前記主領域を抽出することを特徴とする請求項9に記載された画像処理方法。
The main area extraction step includes:
Binarizing one of the tomographic images,
A distance conversion process is performed to obtain a distance to a point where the nearest pixel value is zero for each pixel on the binarized tomographic image,
10. The image processing method according to claim 9, wherein the main region connected to the aorta is extracted from the center pixel by region expansion processing using a volume pixel including the pixel having the largest distance as a center pixel.
前記大動脈領域抽出工程は、
前記主領域を所定の回数だけ収縮処理し、
前記収縮された主領域に対して前記中心画素から領域拡張処理を行い芯部領域を求め、
前記芯部領域を所定の回数だけ膨張処理を行うことを特徴とする請求項10に記載された画像処理方法。
The aorta region extraction step includes
Shrinking the main region a predetermined number of times,
Perform a region expansion process on the contracted main region from the center pixel to obtain a core region,
The image processing method according to claim 10, wherein the core region is expanded a predetermined number of times.
前記患部領域抽出工程は、
前記主領域から前記患部に含まれる患部体積画素を指定し、前記患部領域とすることを特徴とする請求項9乃至11の何れか1の請求項に記載された画像処理方法。
The affected area extraction step includes
12. The image processing method according to claim 9, wherein an affected area volume pixel included in the affected area is designated from the main area, and the affected area is designated as the affected area.
前記目的血管抽出工程は、
前記患部領域から前記大動脈領域までを領域拡張の履歴を残しながら領域拡張処理を行い、
前記患部領域から前記大動脈領域までの拡張履歴に沿った体積画素を領域拡張処理し、前記目的血管領域を求めることを特徴とする
請求項12に記載された画像処理方法。
The target blood vessel extraction step includes:
Perform area expansion processing while leaving a history of area expansion from the affected area to the aorta area,
13. The image processing method according to claim 12, wherein a volume pixel along an expansion history from the affected area to the aorta area is subjected to area expansion processing to obtain the target blood vessel area.
前記患部領域抽出工程は、
前記全領域から前記患部に含まれる患部体積画素を指定し、前記患部体積画素から所定回数だけ領域拡張処理によって前記患部領域を求めることを特徴とする請求項9乃至11の何れか1の請求項に記載された画像処理方法。
The affected area extraction step includes
12. The affected part volume pixel included in the affected part is designated from the entire area, and the affected part area is obtained from the affected part volume pixel by a region expansion process a predetermined number of times. The image processing method described in 1.
前記患部領域抽出工程は、
前記全領域から前記患部に含まれる患部体積画素を指定し、前記患部体積画素から所定の範囲に含まれる体積画素を前記患部領域に含めることを特徴とする請求項9乃至11の何れか1の請求項に記載された画像処理装置。
The affected area extraction step includes
12. The affected area volume pixel included in the affected area is designated from the entire area, and a volume pixel included in a predetermined range from the affected area volume pixel is included in the affected area. 12. An image processing apparatus according to claim.
前記目的血管抽出工程は、
前記患部領域と前記主領域の共通部分である重なり領域を求め、
前記重なり領域から前記大動脈領域までを領域拡張の履歴を残しながら領域拡張処理を行い、
前記患部領域から前記大動脈領域までの拡張履歴に沿った体積画素を領域拡張処理し、
目的血管領域を求めることを特徴とする請求項14若しくは15のいずれかに記載された画像処理方法。
The target blood vessel extraction step includes:
Find the overlapping area that is the common part of the affected area and the main area,
Perform region expansion processing while leaving a history of region expansion from the overlapping region to the aorta region,
Volume expansion process along the expansion history from the affected area to the aorta area, area expansion processing,
The image processing method according to claim 14, wherein a target blood vessel region is obtained.
請求項9乃至16の画像処理方法をコンピュータに実行させるプログラム。   A program for causing a computer to execute the image processing method according to claim 9. 請求項17に記載された前記プログラムを記録した記録媒体。   A recording medium on which the program according to claim 17 is recorded.
JP2015541439A 2013-10-07 2014-10-07 Image processing device Active JP6479671B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013209887 2013-10-07
JP2013209887 2013-10-07
PCT/JP2014/005109 WO2015052922A1 (en) 2013-10-07 2014-10-07 Image processing device, image processing method, and computer program

Publications (2)

Publication Number Publication Date
JPWO2015052922A1 true JPWO2015052922A1 (en) 2017-03-09
JP6479671B2 JP6479671B2 (en) 2019-03-06

Family

ID=52812753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015541439A Active JP6479671B2 (en) 2013-10-07 2014-10-07 Image processing device

Country Status (2)

Country Link
JP (1) JP6479671B2 (en)
WO (1) WO2015052922A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6832479B1 (en) * 2020-04-10 2021-02-24 株式会社ヴォクシス Image processing method, image processing program, and image processing device that divides a solid by a narrow part of the shape.
CN111932554B (en) * 2020-07-31 2024-03-22 青岛海信医疗设备股份有限公司 Lung vessel segmentation method, equipment and storage medium

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000163555A (en) * 1998-11-25 2000-06-16 Hitachi Ltd Area extracting method
JP2003033349A (en) * 2001-07-23 2003-02-04 Hitachi Medical Corp Method and equipment for extracting and displaying specific field of internal organ
JP2004230086A (en) * 2003-01-31 2004-08-19 Toshiba Corp Image processor, image data processing method, and program
WO2007125676A1 (en) * 2006-04-26 2007-11-08 Hitachi Medical Corporation Magnetic induction drug delivery system
JP2008529646A (en) * 2005-02-14 2008-08-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Apparatus and method for determining an injection point for targeted drug delivery
JP2008307145A (en) * 2007-06-13 2008-12-25 Hitachi Medical Corp X-ray ct system
JP2009285121A (en) * 2008-05-29 2009-12-10 Toshiba Corp Image processing apparatus and image diagnosing apparatus
JP2012034988A (en) * 2010-08-11 2012-02-23 Fujifilm Corp Device, method, and program for assisting diagnostic imaging
JP2012081254A (en) * 2010-09-15 2012-04-26 Toshiba Corp Medical image processing apparatus and medical image processing method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000163555A (en) * 1998-11-25 2000-06-16 Hitachi Ltd Area extracting method
JP2003033349A (en) * 2001-07-23 2003-02-04 Hitachi Medical Corp Method and equipment for extracting and displaying specific field of internal organ
JP2004230086A (en) * 2003-01-31 2004-08-19 Toshiba Corp Image processor, image data processing method, and program
JP2008529646A (en) * 2005-02-14 2008-08-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Apparatus and method for determining an injection point for targeted drug delivery
WO2007125676A1 (en) * 2006-04-26 2007-11-08 Hitachi Medical Corporation Magnetic induction drug delivery system
JP2008307145A (en) * 2007-06-13 2008-12-25 Hitachi Medical Corp X-ray ct system
JP2009285121A (en) * 2008-05-29 2009-12-10 Toshiba Corp Image processing apparatus and image diagnosing apparatus
JP2012034988A (en) * 2010-08-11 2012-02-23 Fujifilm Corp Device, method, and program for assisting diagnostic imaging
JP2012081254A (en) * 2010-09-15 2012-04-26 Toshiba Corp Medical image processing apparatus and medical image processing method

Also Published As

Publication number Publication date
JP6479671B2 (en) 2019-03-06
WO2015052922A1 (en) 2015-04-16

Similar Documents

Publication Publication Date Title
US10878573B2 (en) System and method for segmentation of lung
US20200335200A1 (en) Similar case retrieval apparatus, similar case retrieval method, non-transitory computer-readable storage medium, similar case retrieval system, and case database
US9990721B2 (en) System and method for detecting trachea
US10524823B2 (en) Surgery assistance apparatus, method and program
JP5011426B2 (en) Image diagnosis support apparatus, method and program
JP5559642B2 (en) Surgery support device, surgery support method, and surgery support program
JP6495037B2 (en) Medical image processing apparatus and medical image diagnostic apparatus
CN109712163B (en) Coronary artery extraction method, device, image processing workstation and readable storage medium
JP5105997B2 (en) Medical image processing apparatus, medical image diagnostic apparatus, and program
JP2004230086A (en) Image processor, image data processing method, and program
WO2015052922A1 (en) Image processing device, image processing method, and computer program
JP6066197B2 (en) Surgery support apparatus, method and program
JP5923067B2 (en) Diagnosis support apparatus, diagnosis support method, and diagnosis support program
CN112043378A (en) Method and system for navigational support of a person for navigating about a resection part
JP5491237B2 (en) Medical image display device and medical image display method
JP2009273644A (en) Medical imaging apparatus, medical image processing device, and medical image processing program
US20170018079A1 (en) Image processing device, method, and recording medium having stored therein program
WO2014155917A1 (en) Surgical assistance device, method and program
JP2012040196A (en) Image processor
CN115131304A (en) Pulmonary nodule boundary sphere generation method, device and equipment

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170927

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190206

R150 Certificate of patent or registration of utility model

Ref document number: 6479671

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250